IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社リクルートの特許一覧

特許7449798情報処理装置、情報処理方法及び情報処理プログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-03-06
(45)【発行日】2024-03-14
(54)【発明の名称】情報処理装置、情報処理方法及び情報処理プログラム
(51)【国際特許分類】
   G06F 40/253 20200101AFI20240307BHJP
   G09B 5/02 20060101ALI20240307BHJP
   G09B 19/04 20060101ALI20240307BHJP
   G09B 19/06 20060101ALI20240307BHJP
【FI】
G06F40/253
G09B5/02
G09B19/04
G09B19/06
【請求項の数】 8
(21)【出願番号】P 2020117044
(22)【出願日】2020-07-07
(65)【公開番号】P2022014620
(43)【公開日】2022-01-20
【審査請求日】2023-03-06
(73)【特許権者】
【識別番号】518135412
【氏名又は名称】株式会社リクルート
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【弁理士】
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【弁理士】
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【弁理士】
【氏名又は名称】内藤 和彦
(74)【代理人】
【識別番号】100139066
【弁理士】
【氏名又は名称】伊藤 健太郎
(72)【発明者】
【氏名】高山 智道
【審査官】成瀬 博之
(56)【参考文献】
【文献】特開2012-79107(JP,A)
【文献】特開昭62-89134(JP,A)
【文献】再公表特許第2006/134759(JP,A1)
【文献】米国特許出願公開第2013/0254216(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 40/20-40/58
G09B 1/00-19/26
(57)【特許請求の範囲】
【請求項1】
問題に対するユーザの回答内容を回答文として取得する取得部と、
前記問題に対する正解文の単語と前記取得された前記回答文の単語とを、前記正解文の語順を基準にして比較することで第1最長共通部分列を抽出する第1抽出部と、
前記回答文の単語と前記正解文の単語とを、前記回答文の語順を基準にして比較することで第2最長共通部分列を抽出する第2抽出部と、
前記第1最長共通部分列の単語と前記第2最長共通部分列の単語とを比較することで第3最長共通部分列を抽出する第3抽出部と、
前記正解文及び前記回答文に含まれる単語と、前記第3最長共通部分列に含まれる単語との差分をそれぞれ特定し、識別可能に表示する表示部と、
を備える情報処理装置。
【請求項2】
前記表示部は、前記特定された差分を、前記正解文又は前記回答文において、差分となる単語をその他の単語と識別可能に表示する、
請求項1に記載の情報処理装置。
【請求項3】
前記表示部は、前記特定された差分を、前記正解文及び前記回答文それぞれにおいて、差分となる単語をその他の単語と識別可能に表示する、
請求項1に記載の情報処理装置。
【請求項4】
前記第3最長共通部分列に含まれる単語数に基づいて、前記回答文と前記正解文との間の一致度を算出し、当該算出した一致度に基づいて回答内容を評価する評価部をさらに備える、
請求項1から3のいずれか一項に記載の情報処理装置。
【請求項5】
前記第3抽出部は、前記第3最長共通部分列を抽出する際に、前記第1最長共通部分列に含まれる単語の語順を基準にして、前記第1最長共通部分列の単語と前記第2最長共通部分列の単語とを比較する、
請求項1から4のいずれか一項に記載の情報処理装置。
【請求項6】
前記取得部は、前記問題に対する回答としてユーザが発話した発話内容を回答文として取得する、
請求項1から5のいずれか一項に記載の情報処理装置。
【請求項7】
プロセッサにより実行される情報処理方法であって、
問題に対するユーザの回答内容を回答文として取得する取得ステップと、
前記問題に対する正解文の単語と前記取得された前記回答文の単語とを、前記正解文の語順を基準にして比較することで第1最長共通部分列を抽出する第1抽出ステップと、
前記回答文の単語と前記正解文の単語とを、前記回答文の語順を基準にして比較することで第2最長共通部分列を抽出する第2抽出ステップと、
前記第1最長共通部分列の単語と前記第2最長共通部分列の単語とを比較することで第3最長共通部分列を抽出する第3抽出ステップと、
前記正解文及び前記回答文に含まれる単語と、前記第3最長共通部分列に含まれる単語との差分をそれぞれ特定し、識別可能に表示する表示ステップと、
を含む情報処理方法。
【請求項8】
コンピュータを、
問題に対するユーザの回答内容を回答文として取得する取得部、
前記問題に対する正解文の単語と前記取得された前記回答文の単語とを、前記正解文の語順を基準にして比較することで第1最長共通部分列を抽出する第1抽出部、
前記回答文の単語と前記正解文の単語とを、前記回答文の語順を基準にして比較することで第2最長共通部分列を抽出する第2抽出部、
前記第1最長共通部分列の単語と前記第2最長共通部分列の単語とを比較することで第3最長共通部分列を抽出する第3抽出部、
前記正解文及び前記回答文に含まれる単語と、前記第3最長共通部分列に含まれる単語との差分をそれぞれ特定し、識別可能に表示する表示部、
として機能させる情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
【背景技術】
【0002】
下記特許文献1には、入力音声を認識し、結果として得られた認識候補コードとマッチング距離を出力する音声認識装置が開示されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特開昭63-169699号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1の音声認識装置は、正誤判断ができるものの正解と回答のどの単語に差異があるかわからなかった。
【0005】
本発明は、上述した課題を解決するためになされたものであり、正解と回答との差異がわかる情報処理装置、情報処理方法および情報処理プログラムを提供することを目的の一つとする。
【課題を解決するための手段】
【0006】
本発明の一態様である情報処理装置は、問題に対するユーザの回答内容を回答文として取得する取得部と、前記問題に対する正解文の単語と前記取得された前記回答文の単語とを、前記正解文の語順を基準にして比較することで第1最長共通部分列を抽出する第1抽出部と、前記回答文の単語と前記正解文の単語とを、前記回答文の語順を基準にして比較することで第2最長共通部分列を抽出する第2抽出部と、前記第1最長共通部分列の単語と前記第2最長共通部分列の単語とを比較することで第3最長共通部分列を抽出する第3抽出部と、前記正解文及び前記回答文に含まれる単語と、前記第3最長共通部分列に含まれる単語との差分をそれぞれ特定し、識別可能に表示する表示部と、を備える。
【発明の効果】
【0007】
本発明によれば、正解と回答との差異がわかる情報処理装置、情報処理方法および情報処理プログラムを提供することが可能となる。
【図面の簡単な説明】
【0008】
図1】実施形態における発話トレーニングシステムの構成を例示する図である。
図2図1に示すユーザ端末の構成を例示する図である。
図3図1に示すサーバ装置の構成を例示する図である。
図4】発話トレーニングシステムの機能的な構成を例示する図である。
図5A】最長共通部分列を抽出する機能の一例を説明するための模式図である。
図5B】最長共通部分列を抽出する機能の一例を説明するための模式図である。
図5C】最長共通部分列を抽出する機能の一例を説明するための模式図である。
図6A】差分を特定する機能の一例を説明するための模式図である。
図6B】差分を表示する機能の一例を説明するための模式図である。
図7】ユーザ端末で発話トレーニングアプリを実行した際の動作の一例を説明するためのフローチャートである。
図8A】語順を入れ替えて発話したことをユーザに認識させる機能の一例を説明するための模式図である。
図8B】語順を入れ替えて発話したことをユーザに認識させる機能の一例を説明するための模式図である。
図8C】語順を入れ替えて発話したことをユーザに認識させる機能の一例を説明するための模式図である。
図8D】語順を入れ替えて発話したことをユーザに認識させる機能の一例を説明するための模式図である。
図8E】語順を入れ替えて発話したことをユーザに認識させる機能の一例を説明するための模式図である。
【発明を実施するための形態】
【0009】
以下、本発明の実施形態について図面を参照しつつ詳細に説明する。なお、同一の要素には同一の符号を付し、重複する説明を省略する。
【0010】
図1は、本発明の一実施形態に係る情報処理装置としての発話トレーニングシステムの構成概略図である。同図に示すように、本実施形態における発話トレーニングシステム1は、ユーザ端末2と、サーバ装置3とを備える。ネットワークNは、ユーザ端末2とサーバ装置3との間で相互に情報を送受信可能な通信網を含む。通信網は、例えば、インターネット、LAN、専用線、電話回線、企業内ネットワーク、移動体通信網、ブルートゥース(登録商標)、WiFi(Wireless Fidelity)、その他の通信回線、それらの組み合わせ等のいずれであってもよく、有線であるか無線であるかを問わない。
【0011】
なお、本実施形態ではユーザが発話をトレーニングする言語として英語を用いて説明するが、これに限定されず、本発明は他の言語にも同様に適用することができる。
【0012】
ユーザ端末2は、例えば、ユーザが使用するスマートフォンであり、ネットワークNを介してサーバ装置3と通信できるように構成される。なお、ユーザ端末2は、スマートフォンに限定されず、例えば、タブレット端末、携帯情報端末(PDA)、携帯電話機、ノートPC(パーソナルコンピュータ)、PC、その他の端末装置を、ユーザ端末2として適宜用いることができる。
【0013】
図2に示すように、ユーザ端末2は、物理的な構成として、例えば、プロセッサ21、通信インタフェース22、入力デバイス23、表示デバイス24、音声出力デバイス25、記憶装置26を備える。
【0014】
プロセッサ21は、算術論理演算ユニットおよび各種レジスタから構成される。プロセッサ21は、記憶装置26に格納されているコンピュータプログラム260を実行し、入力デバイス23から入力された情報に従ってサーバ装置3にリクエストを送信し、サーバ装置3からのレスポンスを受信する。コンピュータプログラム260は、例えばサーバ装置3からネットワークNを介してインストールすることができる。
【0015】
通信インタフェース22は、サーバ装置3との接続インタフェースを提供するものであり、無線通信インタフェースまたは有線通信インタフェースから構成される。また、入力デバイス23は、ユーザからの入力を受け付けるインタフェースを提供するものであり、タッチパネル、マイク等を例示することができる。また、表示デバイス24は、発話トレーニング画面等の画像表示インタフェースをユーザに提供するものであり、例えば、有機ELディスプレイ、液晶ディスプレイ等が挙げられる。さらに、音声出力デバイス25は、例えば、一般的なサウンドデータを再生可能なサウンドプレイヤである。
【0016】
記憶装置26は、例えば、ディスクドライブ又は半導体メモリ等のコンピュータ読み取り可能な記録媒体である。この記憶装置26には、例えば、コンピュータプログラム260や、コンピュータプログラム260で使われる各種のデータ等が格納される。
【0017】
コンピュータプログラム260は、所定の処理を行うためのプログラムであり、例えば、ユーザ端末2のメインプログラムや、そのメインプログラムの動作中に適宜呼び出されて実行される複数のソフトウェアモジュールを含む。ソフトウェアモジュールは、それぞれ特定の処理を実行するためにモジュール化されたサブプログラムであり、例えば、プロシージャ、サブルーチン、メソッド、関数及びデータ構造等を用いて作成される。
【0018】
本実施形態におけるユーザ端末2には、英語の発話をトレーニングするためのアプリケーション(以下、「発話トレーニングアプリ」という。)261がインストールされ、記憶装置26に格納されている。
【0019】
図1に示すサーバ装置3は、例えば、演算処理能力の高いコンピュータによって構成され、そのコンピュータにおいて所定のサーバ用プログラムが動作することにより、サーバ機能を実現するものである。ここで、サーバ装置3を構成するコンピュータは、必ずしも1台である必要はなく、ネットワークN上に分散する複数のコンピュータから構成されてもよい。
【0020】
図3に示すように、サーバ装置3は、物理的な構成として、例えば、プロセッサ31と、通信インタフェース32と、記憶装置33とを備える。
【0021】
プロセッサ31、通信インタフェース32及び記憶装置33は、上述した図2のプロセッサ21、通信インタフェース22及び記憶装置26と同様であるため、それらの詳細な説明については省略する。なお、記憶装置33のコンピュータプログラム330には、発話トレーニングアプリ261をインストールしたユーザ端末2との間で行われる各種処理を実行するための処理モジュール331が含まれる。また、記憶装置33のデータベース332には、発話トレーニングアプリ261をインストールしたユーザ端末2及びそのユーザに関する情報等が格納される。
【0022】
ここで、ユーザ端末2にインストールされた発話トレーニングアプリ261を実行することで実現する機能には、例えば、以下の(1)乃至(4)の機能が含まれる。
【0023】
(1)ユーザ端末2に表示された英文を見ながらユーザが音読し、英語による発話を練 習する。
【0024】
(2)練習した英文に対する和文がユーザ端末2に表示され、その和文に基づいてユー ザが英語で発話する。
【0025】
(3)ユーザが発話した内容と正解文(英文)とを比較し、それらの差分を識別できる ようにユーザ端末2に表示する。
【0026】
(4)ユーザが発話した内容と正解文との一致度に基づいて、ユーザの発話内容を評価し、評価結果をユーザ端末2に表示する。
【0027】
上記(1)乃至(4)のうち、(2)から(4)までを実現するための機能について、以下に詳細に説明する。
【0028】
図4に示すように、発話トレーニングシステム1は、機能的な構成として、例えば、取得部11、抽出部12、評価部13及び表示部14を有する。取得部11、抽出部12、評価部13及び表示部14は、発話トレーニングアプリ261をインストールしたユーザ端末2単体で実現してもよいし、取得部11、抽出部12、評価部13及び表示部14に含まれる機能の一部をサーバ装置3側で実現することとしてもよい。
【0029】
以下においては、取得部11、抽出部12、評価部13及び表示部14を、ユーザ端末2単体で実現する場合について説明する。この場合、ユーザ端末2は、発話トレーニング装置として機能することになる。
【0030】
取得部11は、ユーザ端末2に表示された和文に基づいて、ユーザが英語で発話した内容を、回答文として取得する。ユーザが英語で発話した内容は、ユーザ端末2のマイクで集音することができる。なお、ユーザ端末2に表示するのは、和文であることに限らず、英文であってもよい。また、発話内容そのものを表示することに限らず、発話内容を誘導するための設問を日本語又は英語で表示することとしてもよい。つまり、取得部11は、ユーザに提示した問題に対するユーザの英語による回答内容を、回答文として取得することができる。
【0031】
抽出部12は、比較対象となる2つの文から、最長共通部分列(Longest Common Subsequence:LCS)を抽出する。最長共通部分列は、2つの文字列に共通する部分列のうち、最長となる部分列である。共通部分列は、飛び飛びに選択してもよいが、元の順番を変えて選択することはできない。例えば、2つの文字列が、「ABCZ」と「AXBYC」とである場合、これらの最長共通部分列は、「ABC」となる。最長共通部分列はその長さは一意に決まるが、最長共通部分列自体は複数存在し得る。また、この例示では、部分列の単位を、文字列に含まれるアルファベット1文字単位にしているが、本実施形態では、部分列の単位を、文字列に含まれる単語単位とする。
【0032】
抽出部12は、三つのパターンで最長共通部分列を抽出する。三つのパターンを、以下(a)乃至(c)で順に説明する。
【0033】
(a)第1パターン:
抽出部12は、ユーザ端末2に表示した和文に対する正解文の単語と、取得部11により取得された回答文の単語とを、正解文の語順を基準にして、それぞれの文頭から順に比較し、一致する単語に基づいて最長共通部分列(第1最長共通部分列)を抽出する。正解文の語順を基準にする、とは具体的には、最長共通部分列が複数あった場合に、正解文から見て語順が最も左寄りの最長共通部分列を抽出することを意味する。
【0034】
図5Aを参照して具体的に説明する。正解文が“What are you smiling about?”であり、回答文が“What you are smiling about?”である場合、正解文の語順を基準にして、共通部分列を抽出すると、第1最長共通部分列は“What are smiling about?”となる。“What you smiling about?”も最長共通部分列であるが、第1最長共通部分列では正解文から見て語順が最も左寄りの最長共通部分列を抽出するので、第1最長共通部分列は“What are smiling about?”に決定される。
【0035】
(b)第2パターン:
抽出部12は、取得部11により取得された回答文の単語と、ユーザ端末2に表示した和文に対する正解文(英文)の単語とを、回答文の語順を基準にして、それぞれの文頭から順に比較し、一致する単語に基づいて最長共通部分列(第2最長共通部分列)を抽出する。第2最長共通部分列の抽出では、最長共通部分列が複数あった場合に、回答文から見て語順が最も左寄りの最長共通部分列を抽出する。
【0036】
図5Bを参照して具体的に説明する。正解文が“What are you smiling about?”であり、回答文が“What you are smiling about?”である場合、回答文の語順を基準にして、共通部分列を抽出すると、第2最長共通部分列は“What you smiling about?”となる。“What are smiling about?”も最長共通部分列であるが、第2最長共通部分列では回答文から見て語順が最も左寄りの最長共通部分列を抽出するので、第2最長共通部分列は“What you smiling about?”に決定される。
【0037】
(c)第3パターン:
抽出部12は、上記(a)で抽出した第1最長共通部分列の単語と、上記(b)で抽出した第2最長共通部分列の単語とを、それぞれの文頭から順に比較し、一致する単語に基づいて最長共通部分列(第3最長共通部分列)を抽出する。このとき、最長共通部分列が複数存在する場合には、第1最長共通部分列に含まれる単語の語順を基準にして抽出した最長共通部分列を、第3最長共通部分列として抽出することができる。
【0038】
図5Cを参照して具体的に説明する。第1最長共通部分列が“What are smiling about?”であり、第2最長共通部分列が“What you smiling about?”である場合、共通部分列を抽出すると、第3最長共通部分列は“What smiling about?”となる。
【0039】
図4の説明に戻る。評価部13は、第3最長共通部分列の単語数に基づいて、回答文と正解文との間の一致度を算出する。例えば、以下の式(1)を用いて一致度を算出することができる。
【0040】
一致度 = (第3最長共通部分列の単語数)/MAX(正解文の単語数、回答文の単語数) … 式(1)
式(1)のMAXは、正解文の単語数と回答文の単語数のうち最大の単語数を選択することを示す。
【0041】
図5A乃至図5Cを参照して具体的に説明する。図5Cに示すように第3最長共通部分列の単語数が“3”であり、図5A及び図5Bに示すように正解文の単語数及び回答文の単語数がそれぞれ“5”である場合、式(1)より、一致度は、“3/5”つまり“0.6”となる。
【0042】
図4の評価部13は、算出した一致度に基づいて、ユーザの発話内容を評価する。評価は、例えば、3段階評価や5段階評価等のように、一致度に対応付けて設けた複数段階の評価ランクにより算定することができる。
【0043】
表示部14は、正解文及び回答文に含まれる単語と、第3最長共通部分列に含まれる単語との差分を、それぞれ特定する。表示部14は、正解文及び回答文のそれぞれにおいて、差分となる単語をその他の単語と識別可能に表示する。表示部14は、評価部13により算定された評価結果をさらに表示することとしてもよい。
【0044】
図6Aを参照して具体的に説明する。正解文が“What are you smiling about?”であり、第3最長共通部分列が“What smiling about?”である場合、それらの差分は、“are you”となる。また、回答文が“What you are smiling about?”であり、第3最長共通部分列が“What smiling about?”である場合、それらの差分は、“you are”となる。
【0045】
この場合、図6Bに示すように、正解文を“What are you smiling about?”と表示し、回答文を“What you are smiling about?”と表示する。つまり、正解文及び回答文のうち、差分となる単語にアンダーラインを付し、差分以外の単語と識別できるように表示する。また、同図には、評価結果として“Great!”が表示されている。
【0046】
このように差分を表示することで、ユーザは、正解文にある“are”と“you”との語順を入れ替えて発話したことを認識することができる。
【0047】
なお、差分となる単語をそれ以外の単語と識別可能に表示する方法は、差分となる単語にアンダーラインを付することには、限定されない。例えば、差分となる単語の文字色をその他の単語と異なる色で表示することや、差分となる単語領域をハイライト表示にすること、差分となる単語に囲み線を付することとしてもよい。つまり、差分となる単語の表示態様を、それ以外の単語の表示態様と異ならせ、差分となる単語をユーザが識別し易くなるように表示することができればよい。
【0048】
次に、図7を参照し、ユーザ端末で発話トレーニングアプリを実行した際の動作の一例について説明する。
【0049】
最初に、取得部11は、ユーザ端末2に表示された和文を見ながらユーザが英語で発話した内容を、回答文として取得する(ステップS101)。
【0050】
続いて、抽出部12は、ユーザ端末2に表示した和文に対する正解文の単語と、上記ステップS101で取得された回答文の単語とを、正解文の語順を基準にして、それぞれの文頭から順に比較し、一致する単語に基づいて第1最長共通部分列を抽出する(ステップS102)。
【0051】
続いて、抽出部12は、上記ステップS101で取得された回答文の単語と、ユーザ端末2に表示した和文に対する正解文の単語とを、回答文の語順を基準にして、それぞれの文頭から順に比較し、一致する単語に基づいて第2最長共通部分列を抽出する(ステップS103)。
【0052】
続いて、抽出部12は、上記ステップS102で抽出した第1最長共通部分列の単語と、上記ステップS103で抽出した第2最長共通部分列の単語とを、それぞれの文頭から順に比較し、一致する単語に基づいて第3最長共通部分列を抽出する(ステップS104)。
【0053】
続いて、表示部14は、正解文及び回答文に含まれる単語と、第3最長共通部分列に含まれる単語との差分を、それぞれ特定する(ステップS105)。
【0054】
続いて、表示部14は、正解文及び回答文それぞれにおいて、差分となる単語をそれ以外の単語と識別可能に表示する(ステップS106)。
【0055】
続いて、評価部13は、第3最長共通部分列の単語数に基づいて、回答文と正解文との間の一致度を算出し、算出した一致度に基づいて、ユーザの発話内容を評価する(ステップS107)。そして、本動作を終了する。
【0056】
上述したように、実施形態におけるユーザ端末2によれば、ユーザが発話した内容を回答文として取得し、正解文の単語と回答文の単語とを、正解文の語順を基準にして比較することで第1最長共通部分列を抽出する一方、回答文の語順を基準にして比較することで第2最長共通部分列を抽出することができる。そして、第1最長共通部分列の単語と第2最長共通部分列の単語とを比較して第3最長共通部分列を抽出し、正解文及び回答文に含まれる単語と、第3最長共通部分列に含まれる単語との差分をそれぞれ特定して、差分となる単語をそれ以外の単語と識別可能に表示することができる。
【0057】
図8A乃至図8Eを参照して具体的に説明する。この具体例では、正解文を“I will buy a house in which my parents will live.”とし、回答文を“I will buy a which house my parents will live.”とする。
【0058】
図8Aに示すように、正解文の単語と回答文の単語とを、正解文の語順を基準にして比較し、共通部分列を抽出すると、第1最長共通部分列は“I will buy a house my parents will live.”となる。
【0059】
図8Bに示すように、正解文の単語と回答文の単語とを、回答文の語順を基準にして比較し、共通部分列を抽出すると、第2最長共通部分列は“I will buy a which my parents will live.”となる。
【0060】
図8Cに示すように、第1最長共通部分列“I will buy a house my parents will live.”と、第2最長共通部分列“I will buy a which my parents will live.”とを比較し、共通部分列を抽出すると、第3最長共通部分列は“I will buy a my parents will live.”となる。
【0061】
図8Dに示すように、正解文“I will buy a house in which my parents will live.”と、第3最長共通部分列“I will buy a my parents will live.”との差分は、“house in which”となる。また、回答文“I will buy a which house my parents will live.”と、第3最長共通部分列“I will buy a my parents will live.”との差分は、“which house”となる。
【0062】
したがって、図8Eに示すように、正解文が“I will buy a house in which my parents will live.”と表示され、回答文が“I will buy a which house my parents will live.”と表示される。
【0063】
これにより、ユーザは、正解文にある“house”と“which”との語順を入れ替えて発話し、さらに、正解文の“house”と“which”との間にある“in”を発話しなかった(不足している)ことについて認識することができる。
【0064】
それゆえ、実施形態におけるユーザ端末2によれば、単語の語順を入れ替えて発話した場合に、語順が入れ替わったことをユーザに認識させることが可能となる。つまり、正解と回答との差異をユーザに認識させることが可能となる。
【0065】
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。このため、上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。例えば、上述した各処理ステップは処理内容に矛盾を生じない範囲で任意に順番を変更し、または並列に実行することができる。
【符号の説明】
【0066】
1…発話トレーニングシステム、2…ユーザ端末、3…サーバ装置、11…取得部、12…抽出部、13…評価部、14…表示部、21…プロセッサ、22…通信インタフェース、23…入力デバイス、24…表示デバイス、25…音声出力デバイス、26…記憶装置、31…プロセッサ、32…通信インタフェース、33…記憶装置、260…コンピュータプログラム、261…発話トレーニングアプリ、330…コンピュータプログラム、331…処理モジュール、332…データベース、N…ネットワーク
図1
図2
図3
図4
図5A
図5B
図5C
図6A
図6B
図7
図8A
図8B
図8C
図8D
図8E