【実施例1】
【0034】
図1は、本発明による音声分析フィードバックシステムの全体を示す図である。本発明による音声分析フィードバックシステム1は、ユーザ端末2から取得した音声を分析し、ユーザ端末2に対してフィードバックを行う音声分析フィードバック装置10と、少なくとも学習履歴を格納する記憶部20とを備える。学習履歴には、少なくともユーザ端末2を使用する学習者の学習履歴が含まれる。記憶部20は、教材データを格納するようにしてもよい。
【0035】
ユーザ端末2を使用する学習者の学習履歴には、その学習者がいつ、どの講師により、どのような教材を用いて、学習が行われたか等の情報が含まれる。即ち、学習履歴には、学習日時、講師、使用した教材の情報が含まれる。また、学習履歴には、学習時の発話についての音声データ、文字データ、及び文字データの解析結果等も含まれる。
【0036】
記憶部20に格納される教材データには、ユーザ端末2を使用する学習者が使用可能な教材が含まれており、その学習者が現在使用している教材の他、過去に使用した教材や将来使用することが可能な教材が含まれる。また、教材データには、その学習者が使用する予定はないが、他の学習者や講師、カウンセラー、コーチ、アドバイザー、チュータ、教材作成者等が使用する教材、あるいは教材作成の基準となるデータや教材作成の元となるデータ等が含まれるようにしてもよい。
【0037】
音声分析フィードバック装置10は、ユーザ端末2から入力された音声データを取得し、音声データを文字データに変換する音声解析サーバ40に、取得した音声データを送信する入力音声処理部11と、音声解析サーバ40から音声データに対応する文字データを取得し解析する文字データ解析部12を備える。文字データ解析部12は、文字データの解析結果又は解析結果に基づく助言をユーザ端末2に提示する。
【0038】
音声分析フィードバック装置10は、文字データの解析結果に基づいてオリジナル教材を生成するオリジナル教材生成部14を更に備えるようにしてもよい。音声分析フィードバック装置10は、好ましくは、文字データ解析部12によって解析され、記憶部20に格納された解析結果に基づいてオリジナル教材を生成し、ユーザ端末2に提示する。また、オリジナル教材生成部14は、文字データの解析結果に基づいて学習目標の設定又は学習目標の管理を行う。オリジナル教材生成部14は、文字データの解析結果に基づいて学習目標を設定するとともに、学習目標の達成期限を設定する。また、オリジナル教材生成部14は、設定した学習目標と文字データ解析部12で判定した学習者の現在の発話レベルとを比較し、設定した学習目標と学習者の現在の発話レベルとの差分を算出する。オリジナル教材生成部14は、設定した学習目標と学習者の現在の発話レベルとの差分をユーザ端末2に表示する。設定した学習目標と学習者の現在の発話レベルとの差分は、好ましくはレッスンが終わる毎にユーザ端末2に表示される。ここで、発話レベルとは、例えば、平均発話単語数、平均ユニーク単語数、平均WPM、即ち、1分間に話すことができる単語数、レベル別の使いこなせる単語、又はレベル別の使いこなせるフレーズであってもよい。また、オリジナル教材生成部14は、設定した学習目標と学習者の現在の発話レベルとの差分を埋めるためのオリジナルの教材、習得すべき単語やフレーズ等の習得すべき語句をユーザ端末2に表示する。また、オリジナル教材生成部14は、設定した学習目標と学習者の現在の発話レベルとの差分を埋めるための習得すべき単語やフレーズ等の習得すべき語句を利用して文を生成することができる。また、生成した文をユーザが発話に利用したか否かを音声認識により判定することができる。
【0039】
ユーザ端末2は、インターネット(登録商標)等のネットワークを介して音声分析フィードバックシステム1と接続され、例えば語学学習等のサービスの学習者が使用する端末である。ユーザ端末2は、インターネット(登録商標)等のネットワークを介した文字通信、音声通信及び映像通信を行うことができる。学習者は、ユーザ端末2を利用して、例えば語学レッスン等の講師と音声のみ又は音声と映像による対面式の会話を行うことができる。また、ユーザ端末2の入力手段で文字を入力することにより、チャット機能を利用した文字による対話を行うこともできる。ユーザ端末2との文字通信、音声通信及び映像通信には、例えば、Skype(登録商標)等の既存のオンライン通話サービスを利用することができる。
【0040】
ユーザ端末2は、学習者によって使用される他、例えば、講師、カウンセラー、コーチ、アドバイザー、チュータ、教材作成者等の学習サービスを提供する側の者によって使用されるようにしてもよい。即ち、ユーザ端末2に提示される情報を、学習者が利用する場合の他に、講師、カウンセラー、コーチ、アドバイザー、チュータ、教材作成者等の学習サービスを提供する側の者が利用する場合も含まれ得る。ユーザ端末2に提示される情報には、例えば、解析結果や解析結果に基づく学習に関する助言等が含まれる。
【0041】
音声分析フィードバック装置10は、ユーザ端末2から取得した音声を分析し、ユーザ端末2に対してフィードバックを行う。音声分析フィードバック装置10は、インターネット(登録商標)等のネットワークを介してユーザ端末2に接続される。また、音声分析フィードバック装置10は、インターネット(登録商標)等のネットワークを介して音声解析サーバ40に接続される。音声分析フィードバック装置10は、好ましくはプロセッサ及びメモリを備えるサーバとして構築されるが、プロセッサ及びメモリを備える任意の種類のコンピュータであってもよい。
【0042】
ユーザ端末2を使用する学習者の学習履歴を格納する記憶部20は、好ましくはコンピュータ又はサーバ上に、メモリ、データベース又はファイルサーバとして構築される。
図1の例では、記憶部20は、音声フィードバック装置10の外部に存在するが、
図8のように、音声分析フィードバック装置10の内部に含まれるようにしてもよい。記憶部20は、ユーザ端末2を使用する学習者の学習履歴として、その学習者がいつ、どの講師により、どのような教材を用いて、学習が行われたか等の情報を格納する。即ち、記憶部20は、学習履歴として、学習日時、講師、使用した教材の情報を格納する。また、記憶部20は、学習履歴として、学習時の発話についての音声データ、文字データ、及び文字データの解析結果等を格納する。
【0043】
また、記憶部20は、教材データとして、ユーザ端末2を使用する学習者が使用可能な教材を格納する。記憶部20は、教材データとして、その学習者が現在使用している教材の他、過去に使用した教材や将来使用することが可能な教材を格納するようにしてもよい。また、記憶部20は、教材データとして、その学習者が使用する予定はないが、他の学習者や講師、カウンセラー、コーチ、アドバイザー、チュータ、教材作成者等が使用する教材、あるいは教材作成の基準となるデータや教材作成の元となるデータ等を格納するようにしてもよい。
【0044】
記憶部20は、学習履歴を格納する学習履歴記憶部又は学習履歴データベースを有するようにしてもよい。また、記憶部20は、教材データを格納する教材データ記憶部又は教材データベースを有するようにしてもよい。
【0045】
音声解析サーバ40は、音声解析サービスを提供する音声解析サーバである。音声解析サーバ40は、音声データを文字データに変換する機能を有する。音声解析サーバ40は、好ましくは、音声解析プログラムを有するAPI(Application Program Interface)サーバである。音声解析サーバ40は、例えば、Google Cloud Speech API等の既存のAPIを利用するサーバであってもよい。音声解析サーバ20に含まれるAPIは、音声データを文字データに変換する機能を有するものであれば、任意のものを用いてもよい。音声解析サーバ40は、本発明の音声分析フィードバックシステム1の外部に存在するようにしてもよい。
【0046】
また、音声解析サーバ40内に1つ又は複数の音声解析部又は音声解析エンジンを設けるようにしてもよい。この場合においては、音声解析サーバ40が複数の音声解析部又は音声解析エンジンを含む場合には、それぞれの音声解析部又は音声解析エンジンが、少なくとも音声データを文字データに変換する機能を有する。この場合において、音声解析サーバ40内の複数の音声解析部又は音声解析エンジンのうち、ユーザ端末2からの音声データを処理するのに最適な音声解析部又は音声解析エンジンを選択するようにしてもよい。
【0047】
入力音声処理部11は、ユーザ端末2から入力された音声データを取得し、取得した音声データを記憶部20に格納する。また、入力音声処理部11は、音声データを文字データに変換する音声解析サーバ40に音声データを送信する。ユーザ端末2から入力される音声データは、好ましくは学習者の発話による音声のデータであるが、学習者が発したリアルタイムの発話に限られず、予め録音された音声データであってもよい。また、発話に限らず、機械から発せられる合成音声や、その他のあらゆる種類の音声であってもよい。
【0048】
入力音声処理部11は、複数の音声解析サーバ40のうち最適な1つの音声解析サーバ40を選択する。最適な音声解析サーバ40の選択は、好ましくは初回の利用時に行われ、2回目以降の利用時には任意に行われる。例えば、5つ前後の複数の文章を読み上げた同じテスト音声データを例えば最大13種類等の複数種類の音声解析サーバ40に解析させて文字データに変換されたものと、元の文章とを比較し、最も元の文章に近い文字データを出力した音声解析サーバ40を選択するようにしてもよい。
【0049】
入力音声処理部11は、ユーザ端末2から取得した音声データから無音部分を削除して、一定の時間間隔で音声解析サーバ40に送信する。入力音声処理部11は、無音部分を削除した音声データを、好ましくは10秒ごとに音声解析サーバ40に送信する。送信の時間間隔は、これに限られず、任意の時間間隔としてもよい。
【0050】
文字データ解析部12は、音声解析サーバ40から取得した音声データに対応する文字データを取得し解析する。また、文字データ解析部12は、解析結果を記憶部20に格納するとともにユーザ端末2に提示する。以下、文字データ解析部12が解析結果としてどのようなものを得て、ユーザ端末2に提供するかを例示する。
【0051】
文字データ解析部12は、音声解析サーバ40から取得した音声データに対応する文字データに含まれる文字数又は単語数をカウントし、ユーザ端末2に文字数又は単語数を提示する。文字データに含まれる文字数又は単語数から、その学習者の発話量を把握することができる。
【0052】
文字データ解析部12は、音声解析サーバ40から取得した音声データに対応する文字データからユニークな語句を抽出してカウントし、ユーザ端末2にユニークな語句及び/又はユニークな語句の数を提示する。ここで、ユニークな語句とは、ユニークな単語、ユニークな熟語(イディオム)、又はユニークなフレーズ等が含まれ、他の学習者と比較した場合にその学習者に特有の単語、熟語(イディオム)又はフレーズ等のことをいう。文字データ解析部12は、カウントしたユニークな語句の数を記憶部20に格納する。
【0053】
文字データ解析部12は、音声解析サーバ40から取得した音声データに対応する文字データに含まれる文字数又は単語数と、文字データに対応する記憶部20に格納された音声データの長さとから発話速度を判定し、ユーザ端末2に発話速度を提示する。ここで、音声データの長さは、好ましくは音声データから無音部分を削除した音声データの長さとしてもよい。発話速度は、例えば、1秒間に何文字、又は1分間に何文字等、一定の時間内に何文字発話したかにより表される。発話速度は、好ましくは1秒当たりの文字数又は単語数(文字数/s若しくは単語数/s)であるが、これに限られず、例えば、1秒当たりのモーラ数(モーラ数/s)、1秒当たりのシラブル数(シラブル数/s)等、又はその他の発話速度を表す単位によって表されるようにしてもよい。ここで、モーラ数とは、一定の時間的長さをもった音の分節単位の数をいう。モーラ数は、例えば1短音節の数としてもよく、拍数としてもよい。また、シラブル数とは音節の数のことをいう。
【0054】
文字データ解析部12は、文字データに含まれる文字数又は単語数、ユニークな語句の数、及び発話速度から、発話レベルを判定し、ユーザ端末2に発話レベルを提示する。発話レベルは、任意の数にランク分けされる。発話レベルは、複数の段階、例えば、低い方から高い方へG,F,E,D,C,B,BB,A,AA,S,SS等の11段階にランク分けしてもよい。発話レベルは、好ましくは、例えば、文字数又は単語数が多いほど高くなり、ユニークな語句の数が多いほど高くなり、発話速度が予め定められた基準値に近いほど高くなるように設定する。発話速度についての予め定められた基準値は、自然な会話における発話速度に設定することが好ましい。即ち、遅すぎず、速すぎない適切な速度に設定することが望ましい。予め定められた基準値は、任意の数値を設定してもよい。また、他の例では、発話速度について、任意の閾値を用いて「遅い」、「適切」、「速い」等の判定を行うようにしてもよい。
【0055】
文字データ解析部12は、文字データに含まれる単語、熟語(イディオム)、フレーズ等の語句を抽出し、抽出された語句に基づいて語彙レベルを判定する。文字データ解析部12は、文字データから単語、熟語(イディオム)、フレーズ等の語句を抽出し、抽出した語句と、予め用意された基準に基づく語句リストと照らし合わせて、学習者が使用する語彙の語彙レベルを判定する。ここで、語句リストには、単語リスト、熟語リスト、及びフレーズ・リストが含まれる。語句リストは、好ましくは記憶部20に予め格納されるが、文字データ解析部12又は音声分析フィードバック装置10の内部メモリに予め格納されるようにしてもよい。語句リストには、複数の語彙レベルが設定され、語彙レベル別に単語、熟語(イディオム)、フレーズ等の語句が収録されている。文字データ解析部12は、好ましくは、例えば、抽出した単語、熟語(イディオム)、フレーズ等の語句と、予め用意された基準に基づく語句リストの各語彙レベルに含まれる語句とを比較し、その一致率が最も高い語彙レベルをその学習者の語彙レベルと判定する。文字データ解析部は、判定された語彙レベルを記憶部20に格納する。
【0056】
文字データ解析部12は、文字データに含まれる単語、熟語(イディオム)、フレーズ等の語句の使用頻度を判定し、一定回数以上使用した語句を習得済み語句として記憶部20に格納する。例えば、4回以上使用した語句を習得済み語句と判定するようにしてもよい。習得済み語句と判定する際の一定回数は、これに限られず、任意の回数としてもよい。
【0057】
また、音声分析フィードバック装置10は、好ましくは、記憶部20に格納された解析結果に基づいて学習者への助言を生成し、生成した助言をユーザ端末2に提示する。例えば、助言を提示することには、例えば、ユーザ端末2の学習者が習得すべき語句を提示することが含まれる。学習者が習得すべき語句を推薦することにより、語学等の学習の効率を高めることができる。
【0058】
文字データ解析部12は、記憶部20に格納された、ユーザ端末2の学習者本人に関する解析結果に基づいて、ユーザ端末2に習得すべき語句を提示する。文字データ解析部12は、文字データから抽出した単語、熟語(イディオム)、フレーズ等の語句、及びそのユーザの趣味趣向等から習得すべき語句の選定を行う。ここで、ユーザの趣味趣向は、予めユーザ情報として記憶部20に登録されている趣味や職業、学習の目的等の情報から判断してもよく、使用回数の多い単語等の語句から、趣味趣向のジャンルを判定してもよい。
【0059】
例えば、ユーザ端末2を使用するある学習者について経済に関連する単語等の語句の使用回数が多い場合には、経済の分野の単語等の語句について語彙を増やすことが望まれると推定し、経済に関連する語句を習得すべき語句として優先的に選定するようにしてもよい。また、ある学習者の職業が看護師である場合には、医療や健康に関する語句を習得すべき語句として優先的に選定するようにしてもよい。また、学習者が予め設定した分野の語句のみを習得すべき語句として選定するようにしてもよい。また、習得すべき語句は、学習者の語彙レベルが、次のレベルに上がるように選定してもよい。また、習得すべき語句は、学習者の現在の語彙レベルの中で、他に習得すべき語句を選定してもよい。また、習得すべき語句の選定に機械学習を利用してもよい。
【0060】
また、文字データ解析部12は、記憶部20に格納された、ユーザ端末2の学習者本人に関する解析結果と、他の学習者の解析結果とに基づいて、ユーザ端末2に習得すべき語句を提示する。文字データ解析部12は、語学レベルや趣味趣向が近い他の学習者の発話内容を加味して、習得すべき語句の判定を行ってもよい。例えば、ある学習者の趣味がスポーツであった場合に、同じ語学レベルを有し、趣味が同じくスポーツである他の学習者が使用している単語、熟語(イディオム)、フレーズ等の語句を習得すべき語句として優先的に選定するようにしてもよい。文字データ解析部12で判定された習得すべき語句は、記憶部20に格納される。
【0061】
図2は、本発明による音声分析フィードバックシステム1における音声分析フィードバック処理全体の流れを示すフローチャートである。
まず、音声分析フィードバック装置10の入力音声処理部11により、ユーザ端末2から入力された音声データを処理する入力音声処理を行う(ステップS300)。次に、音声解析サーバ40により、入力音声処理部11から受信した音声データを文字データに変換する音声解析処理を行う(ステップS400)。次に、文字データ解析部12により、音声解析サーバ40から受信した文字データを解析する文字データ解析処理を行う(ステップS500)。次に、文字データ解析部12は、解析結果から助言を生成し、ユーザ端末2に提示する助言生成処理を行う(ステップS600)。また、オリジナル教材生成部14により、文字データ解析部12での解析結果からオリジナル教材を生成し、ユーザ端末2に提示するオリジナル教材生成処理を行う(ステップS700)。以下、
図3〜
図7を用いて、各処理の流れを説明する。
【0062】
図3は、本発明による入力音声処理の流れを示すフローチャートである。
入力音声処理の各ステップは、音声分析フィードバック装置10の入力音声処理部11により行われる。まず、入力音声処理部11は、ユーザ端末2から学習者の発話等の音声データを取得する(ステップS301)。次に、入力音声処理部11は、ステップS301で取得した音声データを記憶部に格納する(ステップS302)。また、初回の使用の場合は、入力音声処理部11は、取得した音声データを解析するのに最適な音声解析サーバの選択を行う(ステップS303)。ここで、2回目以降の使用の場合は、ステップS303は任意に実行すればよく、ステップS303を省略することも可能である。次に、入力音声処理部11は、ステップS301で取得した音声データから無音部分を削除する(ステップS304)。次に、入力音声処理部11は、ステップS304で無音部分が削除された音声データを音声解析サーバ40に送信する(ステップS305)。
【0063】
図4は、本発明による音声解析処理の流れを示すフローチャートである。
音声解析処理の各ステップは、音声解析サーバ40により行われる。まず、音声解析サーバ40は、音声分析フィードバック装置10の入力音声処理部11から音声データを受信する(ステップS401)。次に、音声解析サーバ40は、ステップS401で受信した音声データを文字データに変換する(ステップS402)。次に、音声解析サーバ40は、ステップS402で変換した文字データを音声分析フィードバック装置10の文字データ解析部に送信する(ステップS403)。
【0064】
図5は、本発明による文字データ解析処理の流れを示すフローチャートである。
文字データ解析処理の各ステップは、音声分析フィードバック装置10の文字データ解析部12により行われる。まず、文字データ解析部12は、音声解析サーバ40で音声データから変換された文字データを、音声解析サーバ40から取得する(ステップS501)。次に、文字データ解析部12は、ステップS501で取得した文字データの文字数又は単語数をカウントする(ステップS502)。カウントされた文字データの文字数又は単語数は、記憶部20に格納される(ステップS509)。
【0065】
また、文字データ解析部12は、ステップS501で取得した文字データからユニークな語句を抽出し、抽出したユニークな語句の数をカウントする(ステップS503)。ここで、ユニークな語句とは、ユニークな単語、ユニークな熟語(イディオム)、又はユニークなフレーズ等が含まれ、他の学習者と比較した場合にその学習者に特有の単語、熟語(イディオム)又はフレーズ等のことをいう。カウントされたユニークな語句の数は、記憶部20に格納される(ステップS509)。
【0066】
次に、文字データ解析部12は、ステップS502でカウントした文字データの文字数又は単語数と、ステップS302で記憶部に格納された音声データから無音部分を削除した音声データの長さから発話速度を計算する(ステップS504)。発話速度は、例えば、1秒間に何文字、又は1分間に何文字等、一定の時間内に何文字発話したかにより表される。ステップS504で計算された発話速度は、記憶部20に格納される(ステップS509)。
【0067】
次に、文字データ解析部12は、ステップS502でカウントした文字データの文字数又は単語数、ステップS503でカウントしたユニークな語句の数、及びステップS504で計算した発話速度から発話レベルの判定を行う(ステップS505)。発話レベルは、好ましくは、例えば、文字数又は単語数が多いほど高くなり、ユニークな語句の数が多いほど高くなり、発話速度が速いほど高くなるように設定する。ステップS505で判定された発話レベルは、記憶部20に格納される(ステップS509)。
【0068】
次に、文字データ解析部12は、ステップS501で取得した文字データから単語、熟語(イディオム)、フレーズ等の語句を抽出し、抽出した語句と、予め用意された基準に基づく語句リストと照らし合わせて、ユーザ端末2の学習者が使用する語彙の語彙レベルの判定を行う(ステップS506)。文字データ解析部12は、好ましくは、例えば、抽出した単語、熟語(イディオム)、フレーズ等の語句と、予め用意された基準に基づく語句リストの各語彙レベルに含まれる語句とを比較し、その一致率が最も高い語彙レベルをその学習者の語彙レベルと判定する。ステップS506で判定された語彙レベルは、記憶部20に格納される(ステップS509)。
【0069】
次に、文字データ解析部12は、ステップS506で抽出した単語、熟語(イディオム)、フレーズ等の語句の使用回数をカウントし、一定回数以上使用した語句を習得済み語句と判定する(ステップS507)。例えば、4回以上使用した語句を習得済み語句と判定するようにしてもよい。習得済み語句と判定する際の一定回数は、これに限られず、任意の回数としてもよい。ステップS507で判定された習得済み語句は、記憶部20に格納される(ステップS509)。
【0070】
次に、文字データ解析部12は、ステップS506で抽出した抽出した単語、熟語(イディオム)、フレーズ等の語句、及びその学習者の趣味趣向等から習得すべき語句の選定を行う(ステップS508)。ここで、学習者の趣味趣向は、予め学習者情報として記憶部20に登録されている趣味や職業、学習の目的等の情報から判断してもよく、使用回数の多い単語等の語句から、趣味趣向のジャンルを判定してもよい。
【0071】
また、文字データ解析部12は、ステップS508において、語学レベルや趣味趣向が近い他の学習者の発話内容を加味して、習得すべき語句の判定を行ってもよい。例えば、ある学習者の趣味がスポーツであった場合に、同じ語学レベルを有し、趣味が同じくスポーツである他の学習者が使用している単語、熟語(イディオム)、フレーズ等の語句を習得すべき語句として優先的に選定するようにしてもよい。ステップS508で判定された習得すべき語句は、記憶部20に格納される(ステップS509)。
【0072】
図6は、本発明による助言生成処理の流れを示すフローチャートである。
助言生成処理の各ステップは、音声分析フィードバック装置10の文字データ解析部12により行われる。まず、文字データ解析部12は、文字データ解析部12で解析され記憶部20に格納された解析結果を取得する(ステップS601)。ステップS601において、文字データ解析部12は、解析結果として、文字データの文字数又は単語数、ユニークな語句、ユニークな語句の数、発話速度、発話レベル、語彙レベル、習得済み語句、習得すべき語句のうちの少なくとも1つを取得する。次に、文字データ解析部12は、取得した解析結果から学習者の学習への助言を生成する(ステップS602)。次に、文字データ解析部12は、生成した助言をユーザ端末2に提示する(ステップS603)。
【0073】
図7は、本発明によるオリジナル教材生成処理の流れを示すフローチャートである。
オリジナル教材生成処理の各ステップは、音声分析フィードバック装置10のオリジナル教材生成部14により行われる。まず、オリジナル教材生成部14は、文字データ解析部12で解析され記憶部20に格納された解析結果を取得する(ステップS701)。ステップS701において、文字データ解析部12は、解析結果として、文字データの文字数又は単語数、ユニークな語句、ユニークな語句の数、発話速度、発話レベル、語彙レベル、習得済み語句、習得すべき語句のうちの少なくとも1つを取得する。次に、オリジナル教材生成部14は、取得した解析結果からその学習者にオリジナルの教材を生成する(ステップS702)。次に、オリジナル教材生成部14は、生成したオリジナルの教材をユーザ端末2に提示する(ステップS703)。
【0074】
上記の
図2〜7においては、本発明による音声分析フィードバックシステム1における音声分析フィードバック処理の流れを一例として説明したが、これに限られず、例えば、各ステップの順序を入れ替えることや一部のステップを省略することを妨げるものではない。
【0075】
また、本発明においては、ユーザ端末2から取得した音声を分析し、ユーザ端末に対してフィードバックを行う音声分析フィードバック装置に、上記の方法の各ステップの少なくともいずれかを実行させるプログラムを提供する。プログラムは、好ましくは音声分析フィードバック装置10内に格納され、音声分析フィードバック装置内で実行される。また、プログラムは、コンピュータにより読み取り可能な記録媒体に格納するようにしてもよい。
【0076】
図8は、本発明による音声分析フィードバックシステムの他の態様を示す図である。
図1との違いは、
図8においては、記憶部20が音声分析フィードバック装置10に含まれる点である。この場合においても、
図1の態様と同様に、記憶部20は、学習履歴を格納する学習履歴記憶部又は学習履歴データベースを有するようにしてもよく、教材データを格納する教材データ記憶部又は教材データベースを有するようにしてもよい。
【0077】
上記の実施例においては、文字データ解析部12及びオリジナル教材生成部14を別個に設けているが、文字データ解析部12が、オリジナル教材生成部14の機能を併せ持つようにしてもよい。即ち、文字データ解析部12がオリジナル教材を生成し、ユーザ端末2に提示するようにしてもよい。また、上記の実施例においては、記憶部20及び記憶部20を別個に設けているが、記憶部20が記憶部20の機能を併せ持つようにしてもよい。即ち、記憶部20に格納される教材データを記憶部20に格納するようにしてもよい。
【0078】
以上で説明した通り、本発明は、学習者の発話等の音声データを分析し、語学力レベルに関するフィードバックや学習すべき単語、熟語(イディオム)又はフレーズ等に関する助言等を提供することにより、語学学習の効果を高めるものである。特に、外国語の習得において、学習者の発話に対して効果的なフィードバックを行うことができる。また、学習者自身の発話だけでなく、その学習者と同等の語学レベルを有する他の学習者や、同じ趣味嗜好や学習目的を有する他の学習者の発話状況を加味し、より効果的なフィードバックを行うことが可能である。このような学習者の発話に対するフィードバックが本発明による音声分析フィードバック装置10により自動的に行われ、学習者の発話から得られる大量の情報を分析しフィードバックに活かすことができるため、学習者にとってより有益な助言を自動的に提示することが可能となる。
上記記載は実施例についてなされたが、本発明はそれに限らず、本発明の精神と添付の請求の範囲の範囲内で種々の変更および修正をすることができることは当業者に明らかである。