【文献】
山本 博史,対話者の前発話を利用した統計的言語モデル,電子情報通信学会論文誌 (J84−D−II) 第12号,日本,社団法人電子情報通信学会,2001年12月 1日
(58)【調査した分野】(Int.Cl.,DB名)
前記第1、第2の入力情報の少なくとも一方の入力情報とともに顔画像を取得し、前記入力情報に対応した認識結果に対応付けて、前記顔画像を前記出力部に出力することを特徴とする請求項1又は2に記載のコミュニケーション支援システム。
【発明を実施するための形態】
【0016】
<第1の実施形態>
以下、本発明を具体化したコミュニケーション支援システムの一実施形態を
図1〜
図4に従って説明する。本実施形態では、来店顧客が、金融機関の窓口カウンタにおいて、手続等の依頼を行ない、窓口担当者が対応を行なう場合を説明する。ここでは、来店顧客は手話により、窓口担当者は発話によりコミュニケーションを行なう場合を想定する。そして、第1の入力情報(手話動作)、第2の入力情報(音声)における2つの認識技術(手話認識、音声認識)を組み合わせて、コミュニケーションを支援する。具体的には、音声認識の方が手話認識よりも、認識率(正しく認識した率)が高い場合を想定し、音声認識結果を用いて手話認識を支援する。
【0017】
図1に示すように、本実施形態では、金融機関の窓口カウンタに設置されたユーザ端末10,15(出力部)を用いる。更に、ユーザ端末10,15は、ネットワークを介して支援サーバ20に接続される。
【0018】
ユーザ端末10は、来店顧客の依頼対応を行なう窓口担当者が用いるコンピュータ端末(タブレット端末)であり、ユーザ端末15は、来店顧客が用いるコンピュータ端末(タブレット端末)である。ユーザ端末10及びユーザ端末15は、無線LAN通信等を用いることにより、支援サーバ20との間で通信を行なう。なお、通信方式は無線通信に限定されるものではなく、有線通信を用いることも可能である。
【0019】
ユーザ端末10,15は、制御部、タッチパネルディスプレイを備える。
タッチパネルディスプレイは入出力手段として機能し、ディスプレイ上に情報を出力するとともに、ディスプレイ表面へのタッチを検知した場合、タッチ位置(座標)を特定して各種操作処理(ポインティング処理、キー入力処理等)を行なう。例えば、筆談を行なう場合には、タッチパネルディスプレイ上に手書き入力を行なう。
【0020】
支援サーバ20は、ユーザ端末10,15を用いてのコミュニケーションを支援するためのコンピュータシステムである。この支援サーバ20は、制御部21、手話認識辞書22、音声認識辞書23、関連語記憶部24を備えている。更に、支援サーバ20には、カメラ31、マイク32が接続されている。
【0021】
手話認識辞書22(第1認識辞書)には、手話において用いられる動作パターン(特徴量)に対して、単語に関するデータが記録される。
音声認識辞書23(第2認識辞書)には、発声において用いられる音声パターン(特徴量)に対して、単語に関するデータが記録される。
関連語記憶部24には、相互に関連する複数の単語を関連付けてグループとして登録されている。ここで、同じグループに属する単語は、相互に関連語として扱われる。
【0022】
第1取得部としてのカメラ31は、撮影手段として機能する。ここでは、カメラ31は、撮影した顧客の顔や動作(深度情報を含めたモーション)をモーションデータとして生成する。この動作には、上腕部の動きや口元の動き等の手話の動作が含まれており、手話内容を特定するための情報が含まれる。
第2取得部としてのマイク32は、集音手段として機能する。ここでは、マイク32は、窓口担当者の音声を集音する。
【0023】
制御部21は、制御手段(CPU、RAM、ROM等)を備え、後述する処理(手話認識段階、音声認識段階、認識調整段階、端末制御段階、筆談支援段階等の各処理等)を行なう。そのためのコミュニケーション支援プログラムを実行することにより、制御部21は、
図1に示すように、手話認識部211、音声認識部212、認識調整部213、端末制御部214、筆談支援部215として機能する。
【0024】
第1の認識処理部としての手話認識部211は、カメラ31により撮影された顧客の動作において、口元、腕や手等の身体画像パターンにより手話の動作を特定する。そして、手話認識部211は、この動きの特徴量を算出し、手話認識辞書22を用いて、手話のテキスト変換処理を実行する。
【0025】
第2の認識処理部としての音声認識部212は、マイク32により集音された窓口担当者の音声の特徴量を算出する。そして、音声認識部212は、この特徴量により、音声認識辞書23を用いて、音声のテキスト変換処理を実行する。
【0026】
認識調整部213は、手話認識によって生成されたテキストと、音声認識によって生成されたテキストとを用いて、認識方法を調整する処理を実行する。この認識調整部213は、重み付けメモリを備える。この重み付けメモリには、音声認識された単語の関連語を、頻度(重み付け)に関連付けて記憶する。なお、この重み付けメモリは、来店顧客の一つの手続依頼の窓口対応を終了した場合に、リセットされる。
【0027】
端末制御部214は、ユーザ端末10,15のタッチパネルディスプレイにおける表示や入力を制御する処理を実行する。本実施形態では、手話認識又は音声認識により生成されたテキストや筆談における文字画像をタッチパネルディスプレイに表示したり、タッチパネルディスプレイからタッチ入力された情報を取得したりする。
筆談支援部215は、ユーザ端末10,15から取得したタッチ入力の軌跡に基づいて、描画された文字画像を生成する処理を実行する。
【0028】
次に、このコミュニケーション支援システムにおける動作を、
図2〜
図4を用いて説明する。以下、手話対応処理、音声対応処理、認識調整処理、手話認識処理、出力処理の順番に説明する。
【0029】
(手話対応処理)
まず、
図2(a)を用いて、来店顧客についての手話対応処理を説明する。
ここでは、支援サーバ20の制御部21は、撮影処理を実行する(ステップS1−1)。具体的には、制御部21の手話認識部211は、カメラ31を用いて、来店顧客の動作を撮影してモーションデータを生成し、このモーションデータをカメラ31から取得する。
【0030】
次に、支援サーバ20の制御部21は、筆談入力があったかどうかについての判定処理を実行する(ステップS1−2)。具体的には、制御部21の手話認識部211は、ユーザ端末15のタッチパネルディスプレイにおいて、タッチ入力が行なわれたかどうかを判定する。そして、タッチパネルディスプレイにおけるタッチ入力により、連続的な軌跡が描かれた場合、筆談入力と判定する。
【0031】
筆談入力と判定した場合(ステップS1−2において「YES」の場合)、支援サーバ20の制御部21は、軌跡特定処理を実行する(ステップS1−3)。具体的には、制御部21の手話認識部211は、筆談支援部215に処理を引き継ぐ。この場合、筆談支援部215は、ユーザ端末15から、タッチパネルディスプレイにおいてタッチ入力された軌跡を取得する。
この軌跡は、後述するように、ユーザ端末10,15のタッチパネルディスプレイに出力される(ステップS1−7)。
【0032】
一方、タッチパネルディスプレイにおけるタッチ入力がなく、筆談入力でないと判定した場合(ステップS1−2において「NO」の場合)、支援サーバ20の制御部21は、手話認識処理を実行する(ステップS1−4)。具体的には、制御部21の手話認識部211は、カメラ31から取得したモーションデータに含まれる動作パターンに基づいて、手話認識辞書22を用いて単語候補を特定する。この処理については、
図3(b)を用いて後述する。
【0033】
次に、支援サーバ20の制御部21は、単語候補の出力処理を実行する(ステップS1−5)。具体的には、制御部21の手話認識部211は、手話認識辞書22を用いて特定した単語候補を、ユーザ端末15のタッチパネルディスプレイに出力する。
【0034】
次に、支援サーバ20の制御部21は、単語候補の選択処理を実行する(ステップS1−6)。具体的には、顧客は、ユーザ端末15のタッチパネルディスプレイに表示された単語候補を確認する。手話認識された単語に間違いがある場合には、この単語をタッチパネルディスプレイにおいて選択する。この場合、制御部21の手話認識部211は、ユーザ端末15のタッチパネルディスプレイに、動作パターンに類似する他の単語候補のリストを出力する。そして、ユーザ端末15のタッチパネルディスプレイにおいて、正しい単語を選択することにより、手話認識単語が確定される。手話認識された単語に間違いがない場合には、そのまま放置することにより、手話認識単語が確定される。
【0035】
次に、支援サーバ20の制御部21は、出力処理を実行する(ステップS1−7)。具体的には、制御部21の端末制御部214は、音声認識結果を、ユーザ端末10,15のタッチパネルディスプレイに出力する。タッチパネルディスプレイに出力される内容の詳細は、
図4を用いて後述する。
【0036】
(音声対応処理)
次に、
図2(b)を用いて、窓口担当者についての音声対応処理を説明する。この処理は、
図2(a)に示した手話対応処理と並行して行われる。
ここでは、支援サーバ20の制御部21は、音声取得処理を実行する(ステップS2−1)。具体的には、制御部21の音声認識部212は、マイク32を用いて、窓口担当者の音声を取得する。
【0037】
次に、支援サーバ20の制御部21は、音声認識処理を実行する(ステップS2−2)。具体的には、制御部21の音声認識部212は、マイク32により集音された音声の特徴量を算出する。そして、音声認識部212は、この特徴量に関連付けられた単語を音声認識辞書23から取得する。ここでは、音声に最も近い特徴量の音声パターンを特定して、この音声パターンに関連付けられた単語を単語候補として特定する。
【0038】
次に、支援サーバ20の制御部21は、単語候補の出力処理を実行する(ステップS2−3)。具体的には、制御部21の音声認識部212は、音声認識辞書23を用いて特定した単語候補を、ユーザ端末10のタッチパネルディスプレイに出力する。
【0039】
次に、支援サーバ20の制御部21は、単語候補の選択処理を実行する(ステップS2−4)。具体的には、窓口担当者は、ユーザ端末10のタッチパネルディスプレイに表示された単語候補を確認する。音声認識された単語に間違いがある場合には、この単語をタッチパネルディスプレイにおいて選択する。この場合、制御部21の音声認識部212は、ユーザ端末10のタッチパネルディスプレイに、音声パターンに類似する他の単語候補のリストを出力する。そして、ユーザ端末10のタッチパネルディスプレイにおいて、正しい単語を選択することにより、音声認識単語が確定される。音声認識された単語に間違いがない場合には、そのまま放置することにより、音声認識単語が確定される。
【0040】
次に、支援サーバ20の制御部21は、認識調整処理を実行する(ステップS2−5)。この処理については、
図3(a)を用いて後述する。
次に、支援サーバ20の制御部21は、出力処理を実行する(ステップS2−6)。具体的には、制御部21の端末制御部214は、音声認識結果を、ユーザ端末10,15のタッチパネルディスプレイに出力する。タッチパネルディスプレイに出力される内容の詳細は、
図4を用いて後述する。
【0041】
(認識調整処理)
次に、
図3(a)を用いて、認識調整処理(ステップS2−5)を説明する。
ここでは、支援サーバ20の制御部21は、関連語の特定処理を実行する(ステップS3−1)。具体的には、制御部21の認識調整部213は、音声認識部212から、音声認識処理によって特定された単語を取得する。そして、認識調整部213は、関連語記憶部24から、音声認識された単語の関連語を取得する。
【0042】
次に、支援サーバ20の制御部21は、重み付け処理を実行する(ステップS3−2)。具体的には、制御部21の認識調整部213は、関連語記憶部24から取得した関連語が、重み付けメモリに記録されているかどうかを確認する。取得した関連語が重み付けメモリに記録されていない場合には、関連語とともに頻度「1」を記録する。一方、取得した関連語が、既に重み付けメモリに記録されている場合には、この関連語に関連付けられた頻度「1」を加算する。
【0043】
(手話認識処理)
次に、
図3(b)を用いて、手話認識処理(ステップS1−4)を説明する。
ここでは、支援サーバ20の制御部21は、口元や前腕部の動き特定処理を実行する(ステップS4−1)。具体的には、制御部21の手話認識部211は、カメラ31から取得したモーションデータにおいて、身体画像パターンを用いて、口元領域や上腕部領域を特定する。そして、手話認識部211は、モーションデータにおいて、特定した口元や上腕部の動き(手話の動作)を特定する。
【0044】
次に、支援サーバ20の制御部21は、特徴量の抽出処理を実行する(ステップS4−2)。具体的には、制御部21の手話認識部211は、口元や上腕部の動き(手話の動作)に基づいて、動きの方向や大きさに関する特徴量を算出する。
【0045】
次に、支援サーバ20の制御部21は、辞書比較処理を実行する(ステップS4−3)。具体的には、制御部21の手話認識部211は、算出した動きの特徴量と、手話認識辞書22に記録された動きパターンとを比較し、一致度を算出する。ここで、一致度が基準値以上の動作パターンに対応するすべての単語を単語候補として特定する。
【0046】
次に、支援サーバ20の制御部21は、意味推定処理を実行する(ステップS4−4)。具体的には、制御部21の手話認識部211は、認識調整部213の重み付けメモリに記録されている関連語とのマッチングを行なう。そして、手話認識部211は、重み付けメモリに関連語として記録されている単語の頻度と、動作パターンとの一致度とが高い単語候補を特定する。
【0047】
(出力処理)
次に、
図4を用いて、出力処理(ステップS1−7,S2−6)を説明する。ここでは、窓口担当者が用いるユーザ端末10のタッチパネルディスプレイに出力される表示画面を説明する。
【0048】
具体的には、支援サーバ20の制御部21は、カメラ31から取得したモーションデータにおいて顧客の顔画像を特定する。そして、制御部21の端末制御部214は、ユーザ端末10のタッチパネルディスプレイに、顔画像500を出力する。この場合、顧客の表情がわかるように大きく表示する。
【0049】
また、制御部21の端末制御部214は、手話認識部211における手話認識結果510,511を、時間経過の順番で表示する。具体的には、
図4においては、最新の手話認識結果511はタッチパネルディスプレイの左下に表示され、古い手話認識結果510は上方に移動させる。
【0050】
更に、制御部21の端末制御部214は、音声認識部212における音声認識結果520,521を、時間経過の順番で表示する。具体的には、
図4においては、最新の音声認識結果521はタッチパネルディスプレイの左下に表示され、古い音声認識結果520は上方に移動させる。この場合、端末制御部214は、タッチパネルディスプレイにおいて顔画像が出力された領域に重畳しないように、認識結果を出力する。
なお、来店顧客が用いるユーザ端末15のタッチパネルディスプレイには、手話認識結果510,511、音声認識結果520,521のみが出力される。
【0051】
以上、本実施形態によれば、以下に示す効果を得ることができる。
(1)上記実施形態では、支援サーバ20の制御部21は、撮影処理(ステップS1−1)、手話認識処理(ステップS1−4)、出力処理(ステップS1−7)を実行する。更に、支援サーバ20の制御部21は、音声取得処理(ステップS2−1)、音声認識処理(ステップS2−2)、出力処理(ステップS2−6)を実行する。これにより、音声を聞き取れない場合や手話ができない場合にも、テキストを通じてコミュニケーションを行なうことができる。従って、コミュニケーションの相手とコミュニケーション方法が異なる場合にも、円滑にコミュニケーションを実現することができる。
【0052】
(2)上記実施形態では、支援サーバ20の制御部21は、認識調整処理を実行する(ステップS2−5)。ここでは、支援サーバ20の制御部21は、関連語の特定処理(ステップS3−1)、重み付け処理(ステップS3−2)を実行する。これにより、音声認識率が手話認識率よりも高い場合に、音声認識結果を用いて、手話認識処理を支援することができる。
【0053】
(3)上記実施形態では、筆談入力と判定した場合(ステップS1−2において「YES」の場合)、支援サーバ20の制御部21は、軌跡特定処理を実行する(ステップS1−3)。これにより、手話認識処理が困難な場合に、筆談に切り換えてコミュニケーションを図ることができる。
【0054】
(4)上記実施形態では、支援サーバ20の制御部21は、カメラ31から取得したモーションデータにおいて顧客の顔画像を特定する。そして、制御部21の端末制御部214は、ユーザ端末10のタッチパネルディスプレイに、顔画像500を出力する。これにより、来店顧客の表情を確認しながら、コミュニケーションを図ることができる。
【0055】
<第2の実施形態>
次に、
図5を用いて、第2の実施形態を説明する。第1の実施形態においては、音声認識率の方が手話認識率よりも高い場合を想定して、音声認識処理の認識結果を用いて手話認識処理を支援した。第2の実施形態では、各認識処理の認識率に応じて、支援に用いる認識処理(優先認識方式)を決定する構成であり、同様の部分については詳細な説明を省略する。
ここでは、会話の最初の段階(優先認識方式が決まっていない段階)では、手話認識処理と音声認識処理とを別個独立に行なう。そして、会話の進捗状況に応じて、優先認識方式を決定する。
【0056】
(手話対応処理)
まず、
図5(a)を用いて、手話対応処理を説明する。
ここでは、支援サーバ20の制御部21は、ステップS1−1と同様に、撮影処理を実行する(ステップS5−1)。
【0057】
次に、支援サーバ20の制御部21は、ステップS1−2と同様に、筆談入力かどうかについての判定処理を実行する(ステップS5−2)。
筆談入力と判定した場合(ステップS5−2において「YES」の場合)、支援サーバ20の制御部21は、ステップS1−3と同様に、軌跡特定処理を実行する(ステップS5−3)。
【0058】
一方、タッチパネルディスプレイにおけるタッチ入力がなく、筆談入力でないと判定した場合(ステップS5−2において「NO」の場合)、支援サーバ20の制御部21は、手話認識処理を実行する(ステップS5−4)。ここで、優先認識方式が決まっていない場合や、手話認識が優先認識方式となっている場合には、制御部21の手話認識部211は、手話認識辞書22に記録された動作パターンの特徴量が近いものから順番に単語候補として特定する。一方、音声認識が優先認識方式となっている場合には、制御部21の手話認識部211は、ステップS1−4と同様に、重み付けメモリに関連語として記録されている単語の頻度と、動作パターンとの一致度とが高い単語候補を特定する。
【0059】
次に、支援サーバ20の制御部21は、ステップS1−5〜S1−7と同様に、単語候補の出力処理(ステップS5−5)、単語候補の選択処理(ステップS5−6)、出力処理(ステップS5−7)を実行する。
【0060】
(音声対応処理)
次に、
図5(b)を用いて、音声対応処理を説明する。
ここでは、支援サーバ20の制御部21は、ステップS2−1と同様に、音声取得処理を実行する(ステップS6−1)。
【0061】
次に、支援サーバ20の制御部21は、音声認識処理を実行する(ステップS6−2)。ここで、優先認識方式が決まっていない場合や、音声認識が優先認識方式となっている場合には、制御部21の音声認識部212は、音声認識辞書23に記録された音声パターンの特徴量が近いものから順番に単語候補として特定する。一方、手話認識が優先認識方式となっている場合には、制御部21の音声認識部212は、認識調整部213の重み付けメモリに記録されている関連語とのマッチングを行なう。そして、音声認識部212は、重み付けメモリに関連語として記録されている単語の頻度と、動作パターンとの一致度とが高い単語候補を特定する。
【0062】
次に、支援サーバ20の制御部21は、ステップS2−3,S2−4,S2−6と同様に、単語候補の出力処理(ステップS6−3)、単語候補の選択処理(ステップS6−4)、出力処理(ステップS6−5)を実行する。
【0063】
(認識調整処理)
次に、
図5(c)を用いて、認識調整処理を説明する。ここでは、ステップS5−6,S6−4で用いられる優先認識方式を決定する。この処理は、会話の進捗状況が基準時点を経過した場合に実行される。例えば、この基準時点としては、両認識方式において所定の単語数を変換した時点や、所定時間が経過した時点等を用いることができる。
ここでは、支援サーバ20の制御部21は、認識率の比較処理を実行する(ステップS7−1)。具体的には、制御部21の認識調整部213は、手話認識と音声認識における認識率を比較する。本実施形態では、認識調整部213は、基準時点までの認識処理において、最初に出力した単語候補が修正されなかった割合を認識率として用いる。
【0064】
次に、支援サーバ20の制御部21は、認識率に基づいて優先認識方式の決定処理を実行する(ステップS7−2)。具体的には、制御部21の認識調整部213は、認識率が高い認識方式を優先認識方式として特定する。そして、認識調整部213は、手話認識部211及び音声認識部212に対して、いずれの認識方式を優先するかを通知する。この通知に応じて、上述したように、手話認識処理(ステップS5−4)、音声認識処理(ステップS6−2)を実行する。
【0065】
以上、本実施形態によれば、以下に示す効果を得ることができる。
(5)上記実施形態では、支援サーバ20の制御部21は、認識率の比較処理(ステップS7−1)、認識率に基づいて優先認識方式の決定処理(ステップS7−2)を実行する。コミュニケーション環境によっては、認識率の相対的な高さが逆転する場合がある。例えば、周囲が騒がしい場合には、音声によるコミュニケーションが困難である。この場合にも、修正状況に応じて認識率を評価して、認識率が高い方の認識結果を利用して、他方の認識処理を支援することができる。
【0066】
なお、上記各実施形態は、以下の態様に変更してもよい。
・上記各実施形態では、金融機関の窓口におけるコミュニケーション支援に用いた。本願発明の対象はこれに限定されるものではなく、複数種類の認識処理を用い、協働して認識率を改善する仕組みに適応することができる。
【0067】
・上記第2の実施形態では、認識率に基づいて優先認識方式を決定する。これに代えて、両方の認識方式で認識された単語の関連語を用いて重み付けを行なうようにしてもよい。この場合、支援サーバ20の制御部21は、認識調整処理を実行する。
【0068】
図6を用いて、この認識調整処理を説明する。
ここでは、支援サーバ20の制御部21は、マッチング処理を実行する(ステップS8−1)。具体的には、制御部21の認識調整部213は、手話認識処理において選択された単語の関連語と、音声認識処理において選択された単語の関連語とを、関連語記憶部24から抽出する。そして、認識調整部213は、それぞれの認識方式において抽出した関連語のマッチングを行なう。
【0069】
次に、支援サーバ20の制御部21は、マッチングに基づいて重み付け処理を実行する(ステップS8−2)。具体的には、制御部21の認識調整部213は、マッチング結果において共通する関連語を、重み付けメモリにおいて、高い重み付け(高い頻度)に関連付けて記録する。
これにより、複数の認識方式を活用して、的確な認識処理を行ない、円滑なコミュニケーションを実現することができる。
【0070】
・上記各実施形態では、ユーザ端末10に、利用者の顔画像と手話認識結果及び音声認識結果を出力する。ユーザ端末10,15は、タブレット端末に限定されるものではなく、デスクトップ端末やノート端末を利用することも可能である。また、表示手段として、傾斜させたハーフミラーに認識結果を出力するプロンプタを用いることも可能である。また、ヘッドマウントディスプレイを利用することも可能である。
【0071】
・上記各実施形態では、手話認識結果及び音声認識結果を、ユーザ端末10,15に出力する。ここで、認識結果に基づいて、表示形態を変更するようにしてもよい。例えば、音声対応処理において、音声認識結果に対応して、選択肢を出力するコミュニケーション支援処理を行なうようにしてもよい。
【0072】
図7を用いて、このコミュニケーション支援処理を説明する。
まず、支援サーバ20の制御部21は、
図2(b)に示す音声対応処理を実行する(ステップS9−1)。
【0073】
次に、支援サーバ20の制御部21は、音声認識結果が疑問文かどうかについての判定処理を実行する(ステップS9−2)。具体的には、制御部21の端末制御部214は、音声認識結果が疑問形かどうかを判定する。例えば、文末に「ですか」、「でしょうか」等の質問を表す文字列(終助詞)を検出した場合には、疑問文と判定する。
【0074】
疑問文でないと判定した場合(ステップS9−2において「NO」の場合)、支援サーバ20の制御部21は、通常出力処理を実行する(ステップS9−3)。ここでは、音声認識結果を、そのまま出力する。
【0075】
一方、疑問文と判定した場合(ステップS9−2において「YES」の場合)、支援サーバ20の制御部21は、選択肢の出力処理を実行する(ステップS9−4)。具体的には、制御部21の端末制御部214は、音声認識結果とともに「はい」、「いいえ」等の選択肢を、来店顧客のユーザ端末15のタッチパネルディスプレイに出力する。
【0076】
次に、支援サーバ20の制御部21は、選択肢の選択結果の出力処理を実行する(ステップS9−5)。具体的には、制御部21の端末制御部214が、来店顧客のユーザ端末15のタッチパネルディスプレイにおいて、選択肢の選択を検知した場合には、選択結果を、ユーザ端末10,15に出力する。
これにより、選択肢を利用して、効率的なコミュニケーションを実現することができる。
【0077】
・上記各実施形態では、手話認識結果、音声認識結果をユーザ端末10,15に出力する。これに加えて、認識結果に応じて、関連するサービスメニューを、ユーザ端末15に出力するコミュニケーション支援処理を行なうようにしてもよい。この場合には、支援サーバ20に、更に、サービスメニュー記憶部を設ける。このサービスメニュー記憶部には、サービスメニュー項目に対して、手話認識又は音声認識される可能性がある関連単語に関するデータを記憶しておく。
【0078】
図8を用いて、このコミュニケーション支援処理を説明する。
まず、支援サーバ20の制御部21は、認識単語に応じて関連メニューの抽出処理を実行する(ステップS10−1)。具体的には、制御部21の認識調整部213は、サービスメニュー記憶部から、手話認識又は音声認識された単語が関連単語として登録されているサービスメニュー項目を抽出する。
【0079】
次に、支援サーバ20の制御部21は、関連メニューの重み付け処理を実行する(ステップS10−2)。具体的には、制御部21の認識調整部213は、サービスメニュー記憶部に記録されている各サービスメニュー項目について、手話認識又は音声認識された関連単語の数をカウントする。そして、認識調整部213は、認識数が多い関連単語のサービスメニュー項目に対して重み付けを行なう。
【0080】
次に、支援サーバ20の制御部21は、重み付けに応じて表示変更処理を実行する(ステップS10−3)。具体的には、制御部21の認識調整部213は、重み付けが大きいサービスメニュー項目を、ユーザ端末15のタッチパネルディスプレイにおいて優先的に表示する。例えば、選択しやすい形態で表示する。
これにより、サービスメニュー項目を利用して、効率的なコミュニケーションを実現することができる。
【0081】
・上記各実施形態では、支援サーバ20の制御部21の筆談支援部215は、ユーザ端末10,15から取得したタッチ入力の軌跡に基づいて、描画された文字画像を生成する処理を実行する。これに代えて、筆談支援部215が、ユーザ端末10,15から取得したタッチ入力の軌跡に基づいて、筆談をテキストに変換するOCR処理を実行するようにしてもよい。この場合には、支援サーバ20に、軌跡パターンに応じた単語に関するデータが記録したOCR辞書を設ける。これにより、手書き文字についてもテキストにより確認することができる。
更に、OCR認識結果により、手話認識や音声認識を支援するようにしてもよい。この場合には、OCR認識結果に基づいて、手話認識処理や音声認識処理において用いる関連語の特定処理を行なう。
【0082】
・上記各実施形態では、支援サーバ20の制御部21は、単語候補の出力処理(ステップS1−5、S5−5)、単語候補の選択処理(ステップS1−6、S5−6)を実行する。ここでは、手話認識部211は、単語候補を、ユーザ端末15のタッチパネルディスプレイに出力し、顧客は、ユーザ端末15のタッチパネルディスプレイに表示された単語候補を確認する。手話認識された単語に間違いがある場合には、この単語をタッチパネルディスプレイにおいて選択する。これに加えて、手話認識部211は、単語候補を、ユーザ端末10のタッチパネルディスプレイにも出力し、窓口担当者が単語候補を確認できるようにしてもよい。そして、支援サーバ20の制御部21は、ユーザ端末10における選択により、単語候補の選択処理を実行する(ステップS1−6、S5−6)。これにより、窓口担当者の判断に基づいて、手話認識を進めることができるため、来店顧客の作業負担を軽減することができる。
【0083】
・上記各実施形態では、出力処理において、来店顧客の顔画像500をユーザ端末10のタッチパネルディスプレイに出力する。これに加えて、他のカメラで撮影した窓口担当者の顔画像をユーザ端末15のタッチパネルディスプレイに出力するようにしてもよい。