(58)【調査した分野】(Int.Cl.,DB名)
ユーザ端末は、カメラで撮影されたハンドジェスチャーのカメラ撮影画像データが予め設定されたガイドプログラムの開始要求であれば、当該ガイドプログラム開始要求をセンタサーバに送信してアクセスし、
前記センタサーバは、前記ガイドプログラム開始要求を前記ユーザ端末から受信し、対応するオペレータ端末を呼び出すことを特徴とする請求項1又は2記載の音声ガイド支援システム。
センタサーバは、ユーザ端末のカメラで読み取られた2次元コードから得られるアクセス情報を取得し、当該アクセス情報から得られる関連情報をオペレータ端末又は特定のコンピュータに提供することを特徴とする請求項1乃至3のいずれか記載の音声ガイド支援システム。
センタサーバは、ユーザ端末のカメラで読み取られた2次元コードから得られるアクセス情報によるアクセスがあると、読み聞かせのための標準音声ファイル以外にユーザが生成したユーザ音声ファイルが記憶されているか判定し、記憶されていなければ、ガイダンスに従ってユーザ音声ファイルを生成して記憶し、前記ユーザ音声ファイルが記憶されている場合には、当該ユーザ音声ファイルを再生して前記ユーザ端末に出力することを特徴とする請求項1乃至4のいずれか記載の音声ガイド支援システム。
【発明を実施するための形態】
【0018】
本発明の実施の形態について図面を参照しながら説明する。
[実施の形態の概要]
本発明の実施の形態に係る音声ガイド支援システムは、ユーザ端末からの位置情報とカメラ撮影画像データを受信するセンタサーバが、オペレータ端末にユーザ端末の位置情報、その位置情報を対応した地図情報、事前に撮影した基本画像データ、カメラ撮影画像データを提供し、これら情報等を元にユーザ端末への音声ガイド情報を送信するものであり、オペレータが状況に応じて的確で安全なガイドを行うことができるものである。
尚、ガイドする場所は、テーマパーク、鉄道(駅構内及び車内)、空港、競技場、ショッピングセンター、観光地、市街地等が対象になる。
【0019】
[本システム:
図1]
本発明の実施の形態に係る音声ガイド支援システム(本システム)について
図1を参照しながら説明する。
図1は、本発明の実施の形態に係る音声ガイド支援システムの概略図である。尚、
図1では、一例として、視覚障がい者を対象としてテーマパークをガイドする音声ガイド支援システムに本システムを適用した例である。
本システムは、
図1に示すように、ユーザ端末1と、センタサーバ2と、オペレータ端末3とがネットワーク4で接続され、テーマパークで視覚障がい者に音声ガイドを提供するものである。
尚、ユーザ端末1とオペレータ端末3は複数、ネットワーク4に接続するものである。
図1では、ネットワーク4にユーザ端末1a,1bが接続し、オペレータ端末3a,3bが接続している。
尚、ネットワーク4は、インターネットを利用するものであるが、専用のネットワークを用いて実現してもよい。
【0020】
[音声ガイド支援システムの各構成]
次に、本システム(音声ガイド支援システム)の各構成を具体的に説明する。
[ユーザ端末1]
ユーザ端末1は、カメラ、音声入出力装置(マイクとイヤホン)、GPS(Global Positioning System:全地球測位網)機能、通信機能を備えたウエアラブル端末であり、ユーザの近辺(周囲)の人と会話するための音声外部出力装置(スピーカ)も備え、位置情報、カメラ撮影画像データ、音声情報をセンタサーバ2に送信すると共にセンタサーバ2からの音声情報を受信してユーザに音声出力する。
【0021】
[ユーザ端末1の各部:
図2]
ユーザ端末1の具体的な構成について
図2を参照しながら説明する。
図2は、ユーザ端末の概略構成図である。
ユーザ端末1は、
図2に示すように、具他的には耳に装着できる小型コンピュータであり、内部構成として、制御部11と、記憶部12と、音声処理部13と、音声入出力装置(音声入出力部)14と、音声外部出力装置(音声外部出力部)15と、GPS部16と、通信部17と、画像入力装置(画像入力部)18と、バッテリー19とを備えている。
尚、ユーザ端末1は、耳に装着する形状であるが、メガネ形状であってもよいし、肩乗せ形状であってもよい。
【0022】
[制御部11、記憶部12]
制御部11は、端末内の処理全般を行うと共に、センタサーバ2との通信を制御する。制御部11での処理の詳細は、後述する。
記憶部12は、制御部11が実行する処理プログラムを記憶する。また、記憶部12は、必要なデータ等を一時的に記憶する。
【0023】
[音声処理部13]
音声処理部13は、音声入出力部14のマイクからの音声アナログ信号を音声デジタル信号に変換して制御部11に出力し、制御部11からの音声デジタル信号を音声アナログ信号に変換して音声入出力部14のイヤホン又は音声外部出力部15の外部スピーカに出力する。
【0024】
[音声入出力部14、音声外部出力部15]
音声入出力部14は、マイクとイヤホンであり、マイクはユーザの音声及びユーザ近辺の音を入力して音声処理部13に音声アナログ信号を出力し、イヤホンは音声処理部13からの音声アナログ信号を音声としてユーザに出力する。
音声外部出力部15は、外部スピーカであり、音声処理部13からの音声アナログ信号を外部に音声として出力する。音声外部出力部15は、オペレータ端末3を操作するオペレータの音声をユーザ周辺の人に出力するものである。
【0025】
[GPS部16、通信部17]
GPS部16は、GPS機能により位置情報を取得し、制御部11に出力する。また、位置情報を取得するのにGPS機能以外の位置検出手段を利用してもよい。
更に、GPS部16とは別に方位情報を出力する電子磁石も備えている。
通信部17は、センタサーバ2との通信を行うもので、制御部11からのデータを無線送信し、無線受信したデータを制御部11に出力する。
【0026】
[画像入力部18、バッテリー19]
画像入力部18は、動画像を撮影して入力するカメラであり、入力された画像データは制御部11により通信部15からセンタサーバ2に送信される。
バッテリー19は、ユーザ端末1内の各部へ電源スイッチのオンにより電源を供給する。尚、バッテリー19は充電可能である。
【0027】
[ユーザ端末1の装着例:
図3]
ユーザ端末1の装着例について
図3を参照しながら説明する。
図3は、ユーザ端末の装着例を示す図である。
ユーザ端末1は、
図3に示すように、耳に装着するものであり、前方にカメラ(画像入力装置)18が設けられ、その近くにマイク(音声入力部)14aとスピーカ(音声外部出力部)15を備えている。
また、ユーザ端末1は、耳孔にイヤホン(音声出力部)14bが挿入できる構造となっている。
【0028】
カメラ18は、前方の画像を撮影するもので、マイク14aは、ユーザの近辺の音を入力し、イヤホン14bは、オペレータの音声を出力し、スピーカ15は、オペレータがユーザ以外の人に向けて音声を外部に出力するものである。
尚、
図2に示したユーザ端末1のその他の各構成は、本体内部に収納されている。
図3では、カメラ18は、1台としたが、ユーザの後方に向けた2台目のカメラを備えるようにすれば、ユーザの前方と後方の画像をオペレータが認識でき、より安全なガイドを行うことができる。
【0029】
[ユーザ端末1での処理概略]
ユーザ端末1の電源スイッチがオンされ、センタサーバ2へのアクセスが為されると、ユーザ端末1は、ユーザID(若しくは機器ID)、位置情報等をセンタサーバ2に送信し、更に、カメラ18で撮影した画像データ(カメラ撮影画像データ)及びマイク14aから入力された音声データをセンタサーバ2に送信する。カメラ撮影画像データと音声データの送信は継続して行われる。
【0030】
センタサーバ2によってユーザ端末1とオペレータ端末3が接続され、ユーザ端末1は、オペレータ端末3からのユーザ向けの音声データを受信してイヤホン14bに出力し、また、オペレータ端末3からのユーザ周辺の人向けの外部用音声データをスピーカ15に出力する。
ユーザ向けの音声データとユーザ周辺の人向けの外部用音声データには、信号の種別が設定されており、その種別によってイヤホン14b又はスピーカ15のいずれかに出力するかを決定する。
【0031】
[センタサーバ2:
図4]
次に、センタサーバ2について
図4を参照しながら説明する。
図4は、センタサーバの概略構成図である。
センタサーバ2は、データベース(DB)25が接続されている。
DB25には、ユーザ端末1の情報、オペレータ端末3の情報、地図情報、事前撮影の基本画像データが記憶されている。
センタサーバ2は、ユーザ端末1がネットワーク4を介してアクセスすると、対応するオペレータ端末3を呼び出し、データの送受信を行い、DB25からガイドに必要な情報及びデータをオペレータ端末3に提供する。
【0032】
具体的には、センタサーバ2は、
図4に示すように、制御部21と、記憶部22と、インタフェース部23とを基本的に備え、インタフェース部23は、ネットワーク4、DB25に接続するようになっている。
[制御部21]
制御部21は、DB25にユーザ端末1の情報(ユーザID等)、オペレータ端末3の情報(オペレータID等)を記憶すると共に、ユーザ端末1に対してガイドするオペレータ端末3の対応スケジュール情報も記憶する。
また、制御部21は、DB25に対して該当する地図情報、事前撮影された基本画像データ、ガイドに必要な施設等に関する案内情報も記憶する。
【0033】
制御部21は、ユーザ端末1からアクセスがあると、対応するオペレータ端末3を呼び出し、ユーザ端末1からの位置情報、方位情報を受信し、当該位置情報等を対応するオペレータ端末3にネットワーク4を介して送信する。
また、制御部21は、受信した位置情報等を基にDB25から該当する地図情報を読み込み、オペレータ端末3に送信すると共に、事前に予約されたルート情報と位置情報等に基づいてカメラで撮影された基本画像データもDB25から読み込み、オペレータ端末3に送信する。基本画像データは、ルート情報、ユーザ端末1の位置情報、ユーザ端末1の方向情報によって特定される。
【0034】
[センタサーバ2のプログラムの各手段]
上記の制御部21の処理動作は、記憶部22に記憶された処理プログラムを制御部21が読み込んで実行するものであり、ユーザ端末1の位置情報、方位情報とユーザ端末1で撮影されたカメラ撮影画像データをユーザ端末1から受信する「受信手段」と、DB25から、ユーザ端末1の位置情報及び方位情報に対応する地図情報と基本画像データ、更に関連情報を読み出す「読出手段」と、ユーザ端末1の位置情報及び方位情報、カメラ撮影画像データ、地図情報、及び基本画像データ、更に関連情報をオペレータ端末3に提供する「提供手段」があって、それら手段をセンタサーバ2で機能させている。
【0035】
[記憶部22、インタフェース部23]
記憶部22には、制御部21を実行される処理プログラムを記憶し、その他必要なデータ等も一時的に記憶する。
インタフェース部23は、センタサーバ2をネットワーク4に接続すると共に、DB25に接続するインタフェース部である。
【0036】
[オペレータ端末3:
図5]
次に、オペレータ端末3について
図5を参照しながら説明する。
図5は、オペレータ端末の概略構成図である。
オペレータ端末3は、ガイドを行うオペレータが操作するコンピュータで、表示部にはガイドに必要な情報が表示され、ユーザと対話を行ってガイドし、場合によっては、ユーザの周囲の人と会話して、ユーザを安全で、親切丁寧にガイドできるものである。
【0037】
オペレータ端末3は、
図5に示すように、制御部31と、記憶部32と、音声処理部33と、音声入出力部34と、インタフェース部35と、表示部36と、入力部37とを基本的に備えている。
[制御部31]
制御部31は、センタサーバ2から受信した地図情報、基本画像データ、ガイド情報を記憶部32に記憶し、表示部36に表示する。
制御部31は、地図情報を表示する際には、ユーザ端末1の位置情報、方位情報も重ねて表示する。
【0038】
制御部31は、ユーザ端末1からの音声データを、センタサーバ2を経由して受信し、音声データを音声処理部33に出力する。
また、制御部31は、音声処理部33からの音声データを、センタサーバ2を経由してユーザ端末1に送信する。
【0039】
また、制御部31は、入力部37からの指示により、地図情報の拡大縮小、移動方向の地図情報、これまで移動してきた地図情報も表示可能であり、基本画像データも、移動方向の場所の画像データ、これまで移動してきた場所の画像データを表示させ、更に、ユーザ端末1からのカメラ撮影画像データを表示させ、ガイド情報も選択可能に表示させる。
ガイド情報は、地図情報の施設等を指示すると表示されるようリンクさせてもよい。
【0040】
[オペレータ端末3のプログラムの各手段]
上記の制御部31の処理動作は、記憶部32に記憶された処理プログラムを制御部31が読み込んで実行するものであり、センタサーバ2から受信したカメラ撮影画像データ、地図情報、及び基本画像データを表示部36に表示する「第1の表示手段」と、センタサーバ2から受信したユーザ端末1の位置情報と方位情報に基づいて地図情報上にユーザの位置と方向を表示する「第2の表示手段」があって、それら手段をオペレータ端末3で機能させている。
【0041】
[記憶部32、音声処理部33、音声入出力部34]
記憶部32は、制御部31で実行される処理プログラムを記憶し、センタサーバ2から送信された情報、データを記憶する。
音声処理部33は、制御部31からの音声デジタル信号を音声アナログ信号に変換して音声入出力部34に出力し、音声入出力部34からの音声アナログ信号を音声デジタル信号に変換して制御部31に出力する。
音声入出力部34は、マイクとスピーカであり、マイクから入力された音声アナログ信号が音声処理部33に出力し、音声処理部33からの音声アナログ信号をスピーカから出力する。
【0042】
[インタフェース部35、表示部36、入力部37]
インタフェース部35は、オペレータ端末3をネットワーク4に接続し、表示部34と入力部37に接続するインタフェース部である。
表示部36は、ユーザ端末1に対応する地図情報、基本画像データ、カメラ撮影画像データ、ガイド情報を表示する。表示部36での表示画面例は後述する。
入力部37は、ユーザの指示を入力し、インタフェース部35に出力する。
【0043】
[表示部36における表示画面:
図6]
次に、オペレータ端末3の表示部36における表示画面例について
図6を参照しながら説明する。
図6は、オペレータ端末の表示部の表示画面例を示す概略図である。
図6に示すように、表示部36には、ユーザ端末1の位置情報に基づいて関連する地図情報が表示され、その位置情報とユーザ端末1の方位情報に基づいてDB25から取得された基本画像も表示される。
そして、表示部36には、ユーザ端末1のカメラ18で撮影されたカメラ撮影画像が表示される。
また、表示部36には、ユーザ端末1の位置情報に基づいてガイドに関する関連情報が表示可能である。
これら画像、情報は、画面の異なった領域にそれぞれ表示される。
【0044】
オペレータは、表示部36に表示画面を参照し、地図情報と基本画像を参考に、カメラ撮影画像の状況に応じてユーザに対してガイドを行い、必要であれば、関連情報も参考にする。
オペレータの声は、音声入出力部34のマイクから入力され、音声処理部33で音声デジタル信号に変換され、ユーザ端末1に送信され、音声入出力部14のイヤホン14bに出力される。
また、ユーザの声は、音声入出力部14のマイク14aから入力され、音声処理部13で音声デジタル信号に変換され、オペレータ端末3に送信され、音声入出力部34のスピーカに出力される。
このようにして、オペレータとユーザの会話が為される。
【0045】
また、オペレータは、ユーザの周囲の人に、ユーザの手助けを要請する場合には、ユーザ周囲の人向けの音声を音声入出力部34のマイクから入力し、音声処理部33で音声デジタル信号に変換して、ユーザ端末1に送信し、スピーカ(外部音声出力部)15に出力させる。
ユーザ周囲の人向けの音声を音声入出力部34のマイクに入力する場合、例えば、入力部37の特定キーを押しながら音声を入力することで、当該音声データにはユーザ周囲の人向けの信号種別が付加され、特定キーの押下がなく音声が入力されれば、ユーザ向けの信号種別が付加され、当該信号種別によってユーザ端末1の制御部11で音声データのイヤホン14b又はスピーカ15の出力先が特定される。
【0046】
関連情報は、ユーザ端末1の位置情報に基づいて近辺の施設等のリストを表示し、そのリストから施設等の項目が選択されると詳細情報を表示するようにしてもよいし、ユーザの移動によるユーザ端末1の位置情報の変更に伴って施設等の情報の表示を変更してもよいし、位置情報に基づいて表示される地図情報の中から特定施設をクリックすることにより施設等の情報を表示するようにしてもよい。
【0047】
[地図情報の表示例:
図7]
次に、オペレータ端末3の表示部36における地図情報の表示例について
図7を参照しながら説明する。
図7は、地図情報の表示例を示す概略図である。
地図情報は、
図7に示すように、地図情報領域に、施設A,B,Cが描画され、それに対するルートが表示される。本システムでは、テーマパークにおける音声ガイドであるため、ユーザは予め案内されるルートを選択することになる。
【0048】
図7では、ルートで予定の部分を点線で、既に終了した部分を実線で表示し、更に、現在のユーザ端末1の位置を矢印で示している。尚、矢印は、ユーザ端末1の方位情報から先端方向をユーザが向いている方向を示すようになっている。
尚、地図情報内に、東西南北の方角を示す情報を含めると分かりやすい。
【0049】
ユーザ端末1の位置情報と方位情報から、ユーザの進む方向の基本画像が基本画像領域に表示され、カメラ撮影画像領域にはユーザ端末1のカメラ18で撮影された画像が表示され、関連情報領域にはユーザが向かう施設Bの情報が表示されることになる。
【0050】
[音声ガイド支援システムの処理動作]
本システムにおける全体の処理動作について説明する。
テーマパークのガイドコースの画像を予め撮影して基本画像データとしてDB25に記憶しておく。
ユーザは、ユーザ端末1の電源スイッチをオンにして起動すると、ユーザ端末1は、センタサーバ2にユーザID等を送信してアクセスを行う。
【0051】
そして、ユーザ端末1のカメラ18の前で、ある一定の時間内に特定のハンドジェスチャー(ハンドサイン)を行うと、予め設定されたガイドプログラム(例えば、ユーザの現在位置の天気予報を読み上げる等)の開始要求をセンタサーバ2に送信する。または、上記一定時間内にハンドジェスチャーがない場合は、音声ガイド開始要求と認識して、当該要求をセンタサーバ2に送信する。その際に、ユーザ端末1は、センタサーバ2にGPS等の位置情報、方位情報とカメラ撮影画像データを送信する。位置情報等とカメラ撮影画像データは、継続してユーザ端末1からセンタサーバ2に送信される。
【0052】
音声ガイド開始要求を受信したセンタサーバ2は、対応するオペレータ端末3を呼び出し、ユーザ端末1の位置情報、方位情報に対応する地図情報とガイドコースに従った基本画像データをDB25から読み込み、ユーザ端末1の位置情報、方位情報、地図情報、基本画像データ、更にユーザ端末1からのカメラ撮影画像データをオペレータ端末3に送信する。
【0053】
オペレータ端末3は、センタサーバ2からの情報とデータを受信して表示部36に地図情報、基本画像、カメラ撮影画像、関連情報を表示する。
オペレータは、オペレータ端末3の表示部36に表示された情報、画像等を参照しながらユーザに対して音声入出力部34のマイクから音声を入力し、ユーザ端末1に音声データを送信してユーザに対する音声ガイドを行う。
【0054】
また、オペレータは、オペレータ端末3の表示部36に表示されるカメラ撮影画像に映し出される第三者と、ユーザ端末1の音声外部出力部(スピーカ)15とマイク14aを利用して、会話を行うことができ、ユーザを第三者の力を借りてサポートすることができる。
【0055】
[センタサーバ2での処理:
図8]
更に、センタサーバ2での処理について
図8を参照しながら説明する。
図8は、センタサーバの処理を示すフローチャートである。
センタサーバ2の制御部21では、記憶部22の処理プログラムを読み込んで実行可能とし、ユーザ端末1からのアクセスがあると、ログイン処理を行う(S1)。
ログイン処理は、ユーザ端末1からアクセスに伴いユーザID(又は機器ID)を受信するので、そのIDがDB25に登録されているか否かをセンタサーバ2が認証し、登録されていればログインを許可し、登録されていなければログインを不許可とする。
【0056】
次に、ユーザ端末1からガイド開始要求があると、ユーザ端末1の位置情報、方位情報を受信し、対応するオペレータ端末3を呼び出す処理を行う(S2)。
通常、ユーザのガイドに対してオペレータが事前に割り当てられているので、割り当てられたオペレータのオペレータ端末3を呼び出すことになる。尚、事前にオペレータの割り当てがなければ、センタサーバ2がスケジュールに空きのあるオペレータ端末3を呼び出して割り当てるようにしてもよい。
【0057】
そして、センタサーバ2は、ユーザ端末1からのカメラ撮影画像データをオペレータ端末3に送信する(S3)。
処理S3と並行して、センタサーバ2は、ユーザ端末1の位置情報から該当する地図情報をDB25から読み込み、オペレータ端末3に送信する(S4)。地図情報は、位置情報と方位情報を基に、現在地に対して向かう方向の地図情報を中心に選択して読み込むようにしてもよい。
【0058】
続いて、センタサーバ2は、ユーザ端末1の位置情報、方位情報から対応する基本画像データをDB25から読み込み、オペレータ端末3に送信する。
処理S3と処理S5の後に、ユーザからログオフがあったか否かを判定し(S6)、ログオフであれば(Yesの場合)、処理を終了する。
ログオフでなければ(Noの場合)、ユーザ端末1からの信号断を判断し、信号断であれば(Yesの場合)、処理を終了し、信号断でなければ(Noの場合)、処理S3,S4に戻る。
【0059】
ログオフは、ユーザ端末1でユーザがログオフ処理を行った場合であり、例えば、カメラ18の前でログオフのハンドジェスチャーを行うことで為される。
信号断は、ユーザ端末1の電源スイッチをオフにしたような場合で、ユーザ端末1との通話ができなくなるので、処理を終了させることにしている。
【0060】
[応用例]
本システムでは、テーマパークにおける視覚障がい者向けの音声ガイドの例を説明したが、これは「見ることを補完」するサービスであり、それ以外に本システムは、「聴くことを補完」するサービス、「話すことを補完」するサービスにも応用できる。尚、サービスによっては、「見る」「聴く」「話す」の複合的なものになることがある。
尚、応用例の各動作は、コンピュータプログラムが実行されて機能実現手段により実現されるものである。
まず、「見ることを補完」するサービスについての応用例を説明する。
【0061】
[見ることを補完するサービスの応用例]
[応用例1:鉄道利用者向けサービス]
鉄道会社で利用して、改札を入る時にユーザ端末1を貸し出し、電車に乗って改札を出る時に返却してもらい、ユーザ端末1をユーザが装着している間は、ユーザのホームからの転落防止や、オペレータによって安全な誘導を実現できるものである。尚、オペレータ端末3の表示部36に表示される関連情報は、乗り換え案内、乗り換え時間等の情報となる。このサービスは、視覚障がい者だけでなく、電車の乗り継ぎや、大きな駅での利用に不安を感じる乗客にも適用可能である。オペレータは、鉄道会社が監督する社員等が担当することが考えられる。
【0062】
[応用例2:スポーツ観戦サービス]
また、スポーツ観戦で、観客がユーザ端末1を装着し、そのスポーツに詳しいオペレータや同じチームを応援するオペレータがオペレータ端末3を用いてガイドするようにしてもよい。
その場合に、オペレータは、オペレータ端末3の表示部36に表示される画像データを確認しながらゲーム、試合等を解説し、表示部36に表示される関連情報としての選手情報、相手方チームの情報をユーザに提供するもので、ユーザは、臨場感を持って楽しめる。このガイドのサービスのオペレータは、スポーツ観戦のホーム会場の社員等が担当することが考えられる。
【0063】
[応用例3:市街地案内サービス]
また、市街地の画像情報(ビューデータ)を利用すれば、それを基本画像データとしてオペレータ端末3の表示部36に表示して、視覚障がい者にユーザ端末1を装着し、視覚障がい者に対して市街地での音声ガイドを実現できる。
【0064】
[聴くことを補完するサービスの応用例]
[応用例4:観光地・美術館等案内サービス]
また、視覚障がい者に限らず、観光地や美術館では、外国人や健常者にユーザ端末1を装着し、外国人や健常者に対しても日本語又は外国語のオペレータによる音声ガイドのサービス提供が可能である。
【0065】
[応用例5:展示会向けサービス]
展示会向けサービスでは、展示会場のブースを訪問するユーザがユーザ端末1を装着し、オペレータがブースの会社情報、製品情報をユーザに提供し、ブースの説明者が外国人である場合には、オペレータが通訳を行うことも可能である。
このサービスは、見ること、聴くこと、話すことを補完するものとなる。
【0066】
[応用例6:高齢者向けサービス]
高齢者向けサービスでは、高齢者の外出をサポートするもので、例えば、病院、役所、買い物等で外出する場合に、家族が予め外出ルートをセンタサーバ2に登録しておけば、高齢者の外出ルートをオペレータが音声で案内し、必要に応じてオペレータが高齢者に代わり外部の人と直接会話を行うことがある。
【0067】
[応用例7:視覚障がいの子供向けサービス]
視覚障がいの子供向けサービスでは、視覚障がいの子供がユーザ端末1を装着し、子供が遊んだり、学んだりする場合に、オペレータが音声でサポートするものである。具体的には、子供が触れる物をオペレータが説明し、子供に興味を持たせるようにする。
【0068】
[応用例8:失読症患者向けサービス]
失読症(ディスレクシア)患者向けサービスでは、患者が読書等で書籍の文字を読む場合に、ユーザ端末1を装着し、画像入力部18で書籍のページを撮影し、オペレータ端末3の表示部36にそのページを表示し、オペレータが読み上げて音声入出力部34から音声を入力し、ユーザ端末1の音声入出力部14に音声出力するものである。
尚、ユーザ端末1で撮影されたページの文字を識別して音声データに変換し、ユーザ端末1に返信する処理をセンタサーバ2の制御部21で行うようにしてもよい。
【0069】
[話すことを補完するサービスの応用例]
[応用例9:書籍読み聞かせサービス]
書籍の読み聞かせサービスとしては、子供向けにオペレータがリアルタイムで読み聞かせるもの(第1の読み聞かせ方法)と、予め声優などのプロが読んだ内容を録音データとしてセンタサーバ2の記憶部22に記憶しておき、ユーザからの要求により再生するもの(第2の読み聞かせ方法)と、視覚障がいの母親又はディスクレシアの母親が肉声で読んだ内容を録音データとしてセンタサーバ2の記憶部22に記憶させておき、そのデータを再生するもの(第3の読み聞かせ方法)がある。
【0070】
第2の読み聞かせ方法と第3の読み聞かせ方法では、ユーザ端末1の画像入力部18で2次元コードを読み取ることで、センタサーバ2にアクセスして再生要求を送信し、録音データを再生することが考えられる。
また、ユーザ端末1に代えて、スマートフォンを用いて2次元コードを読み取り、センタサーバ2にアクセスして録音ファイルをスマートフォンで再生させてもよい。
【0071】
次に、第3の読み聞かせ方法について、更に具体的に説明する。
視覚障がい者の母親の肉声で子供向け書籍を読み聞かせるサービスは、視覚障がい者の母親がユーザ端末1を装着し、オペレータが子供向け書籍を読むと、母親はオペレータの言葉を反復し、反復した言葉を録音してセンタサーバ2の記憶部22に記憶する。そして、ユーザ端末1を装着した子供から「本を読んで」との要求があると、オペレータが該当する書籍の母親の音声を再生して子供のユーザ端末1に送信し、音声出力する。
【0072】
[書籍読み上げ録音・再生処理:
図9]
次に、第3の読み聞かせ方法を実現するための書籍読み上げ録音・再生処理について
図9を参照しながら説明する。
図9は、書籍読み上げ録音・再生処理を示すフローチャートである。
当該処理の前提として、センタサーバ2にアクセスして書籍読み上げ録音処理を実行するための2次元コードが書籍に付与されている。
図9に示すように、母親が装着したユーザ端末1の画像入力部18で書籍の2次元コードを読み取ってセンタサーバ2にアクセスが為されると(S11)、センタサーバ2は、記憶部22にユーザ端末1のユーザIDに対応する母親の録音済みの音声ファイル(ユーザ音声ファイル)が存在するか否かを判定し(S12)、音声ファイルが存在しない場合(Noの場合)は、母親の肉声を録音するために予め録音された、当該2次元コードに対応した音声ファイル(標準音声ファイル)を再生して音声出力(書籍の読み上げ)処理を行う(S13)。
【0073】
書籍の読み上げ処理は、音声ガイダンスに従って、短い文章が読み上げられ、それに続いて母親の音声を録音する(書籍読み込み)処理を行う(S14)。音声録音に際して、録音した音声データを逐次再生して確認し、気に入らなければ、録音した音声データをキャンセルして再録音できるようにしてもよい。
次に、書籍の読み上げ処理が終了したか否かを判定し(S15)、終了していなければ(Noの場合)、次の文章の音声出力を行い(S16)、処理S14の音声録音処理に移行する。
【0074】
書籍の読み上げ処理が終了したならば(Yesの場合)、編集処理を行い(S17)、処理を終了する。
編集処理S17は、処理S14で録音された母親の声のデータをつなぎ合わせて一つの音声ファイル(ユーザ音声ファイル)を作成するものである。最終的に編集された音声データを再生して母親に確認してもらい、気に入らない場合には、最初から書籍読み上げ処理を行うようにしてもよい。
作成されたユーザ音声ファイル(母親音声ファイル)は、ユーザ端末1のユーザIDに対応付けられてセンタサーバ2の記憶部22に記憶される。
【0075】
[書籍再生処理]
次に、子供に視覚障がい者の母親の声で書籍を読み聴かせる処理について説明する。
子供は、ユーザ端末1を装着して、ユーザ端末1の画像入力部18で書籍の2次元コードを読み取ってセンタサーバ2にアクセスが為される(
図9の処理S11に相当)と、
図9の判定処理S12が為される。
【0076】
つまり、センタサーバ2は、ユーザ端末1のユーザIDに対応した母親音声ファイルが記憶部22に記憶されているか否かを判定し、母親音声ファイルがセンタサーバ2の記憶部22に記憶されている場合(Yesの場合)には、当該音声ファイルの音声再生(書籍の読み聴かせる)処理(S18)を行う。
【0077】
書籍を読み聴かせる処理は、
図9の書籍読み上げ録音処理が完了している状態で為されるものであり、つまり、通常は、センタサーバ2の記憶部22に母親音声ファイルが生成されて格納されている状態である。
書籍読み上げ録音処理が為される前に子供が2次元コードを読み取ると、書籍読み上げ録音処理が開始されることになる(
図9の判定処理S12でNoの場合)が、録音ファイルの確認作業がなされなければ、母親音声ファイルは生成されない。
【0078】
上記の例では、一つの2次元コードを書籍読み上げ録音処理と書籍を読み聴かせる処理に使用したが、書籍読み上げ録音処理の2次元コードと、書籍を読み聴かせる処理の2次元コードとを別のものを準備してもよい。この場合、書籍を読み聴かせる処理の2次元コード(第1のコード)は書籍に印刷し、書籍読み上げ録音処理の2次元コード(第2のコード)は、書籍とは分離してユーザに提供するのが望ましい。
つまり、第2のコードを読み取って母親の音声を録音して母親音声ファイルを生成し、その後は第1のコードを子供が読み取って母親音声ファイルの再生を行う。第1のコードには、点字を付与して視覚障がい者の母親が識別できるようにしておくとよい。
【0079】
[応用例10:手話・ハンドサイン提供サービス]
聴覚障がい者に対するサービスとして、
図2に示したユーザ端末1の代わりにスマートフォンを利用するものが考えられる。この場合、オペレータ端末3は画像入力部を備え、インタフェース部35に接続している。
【0080】
具体的には、ユーザのスマートフォンとオペレータ端末3を回線接続し、スマートフォンを置いた状態又は誰かに持たせた状態で、スマートフォンのカメラ(画像入力部)で聴覚障がい者の手話又はハンドサインを撮影し、オペレータ端末3にリアルタイムで伝送する。
オペレータ端末3は、聴覚障がい者の手話又はハンドサインを表示部36に表示して、オペレータが手話又はハンドサインで会話する様子を画像入力部で撮影して、ユーザのスマートフォンにその画像を伝送し、スマートフォンの表示画面に表示する。
このようにして、聴覚障がい者とオペレータとの間で手話等による会話が為される。
【0081】
そして、聴覚障がい者が手話のできない人(相手)と会話をしたい場合には、まず、オペレータと接続し、話したい内容を手話等でオペレータに伝え、オペレータはそれに応答しつつ、スマートフォンの外部出力スピーカで相手と音声で会話する。相手との会話内容は、オペレータが手話等により表現した画像データがスマートフォンに伝送され、その表示画面に表示される。
この例では、手話又はハンドサインをそれ以外の意思伝達手段を用いてもよい。例えば、文字を用いて実現してもよい。
【0082】
[応用例11:接触物提供サービス]
次に、3Dプリンタを用いた接触物提供サービスについて説明する。3Dプリンタは、ユーザ宅に設置され、ユーザ端末となるコンピュータに接続され、当該コンピュータはネットワークを介してセンタサーバ2に接続されるようになっている。
そして、特定の2次元コードをコンピュータの読取装置で読み取ると、センタサーバ2にアクセスし、当該2次元コードに対応した物(模型、フィギュア)を形成するためのデータ(3Dプリンタ用データ)をダウンロードし、接続する3Dプリンタでそのデータに基づいた物を生成する。
【0083】
これは、子供、視覚障がい者、聴覚障がい者に模型、フィギュアを提供することで、それらに接触して形状を学ぶことができるものである。
また、3Dプリンタに接続するコンピュータ(特定のコンピュータ)とは別のユーザ端末で2次元コードを読み込み、センタサーバ2にアクセスがあると、センタサーバ2が3Dプリンタ用データを特定のコンピュータにダウンロード可能として提供してもよい。
【0084】
[応用例12:ガイド中の2次元コード読み取り]
次に、テーマパーク、駅の構内、美術館、観光地等においてガイド途中に2次元コードを地面又は壁に配置しておき、ユーザ端末1の画像入力部18で読み込み、その2次元コードから得られるアクセス情報をユーザ端末1がセンタサーバ2に送信し、センタサーバ2は、アクセス情報から得られる関連情報をオペレータ端末3に提供するようにしてもよい。
ここで、得られる関連情報としては、詳細な位置情報、お店、交通、お天気などの周辺情報が考えられる。
また、2次元コードは、遠くからでも認識できるように通常のサイズより何倍又は何十倍も大きいサイズで配置することが望ましい。
【0085】
[応用例13:音を認識・通知]
ユーザ端末1とオペレータ端末3を用いてユーザをガイド中であって、ユーザ端末1の音声入力部14から入力された音をセンタサーバ2の制御部21で解析して認識し、ユーザに知らせるべき音の情報であれば、オペレータ端末3の表示部36に表示し、オペレータからユーザ端末1のユーザに通知するようにしてもよい。
【0086】
[応用例14:メガネのLED点滅]
ユーザ端末としてスマートフォンを利用する場合に、オペレータからスマートフォンに連絡があった場合に、微弱電波でメガネに取り付けられたLED(Light Emitting Diode)を点滅させて、通知するようにしてもよい。
当該メガネは、メガネの一部にLED、微弱電波受信部とバッテリーを備えた構成であり、微弱電波を受信すると、LEDを点滅させる動作を行うものである。
【0087】
[ガイド予約]
上記応用例の中で様々なガイドを利用できるようにするための仕組みとして、ユーザは本サービスにアクセスすると、総合オペレータに接続して、ガイド予約を行うようにするとよい。
ガイド予約には、ガイド日時、地域、場所、ルート、言語、希望のオペレータの性別等を予め登録しておく。
【0088】
DB25には、オペレータのスケジュール、得意な地域、場所、言語、性別が記憶されており、センタサーバ2がガイド予約の登録情報を参照して該当するオペレータを検索してオペレータの割り当てを行い(マッチング)、スケジュールにガイド予約を設定する。
【0089】
センタサーバ2は、ユーザのガイド時間になって、ユーザ端末1からアクセスがあると、DB25のスケジュールを参照し、ガイド予約が設定されたオペレータ端末3を呼び出し、表示部36にユーザの位置情報、方位情報、地図情報、基本画像、カメラ撮影画像を表示させる。
【0090】
[実施の形態の効果]
本システムによれば、予め施設又は構内の基本画像を撮影してDB25に基本画像データを記憶しておき、ユーザのガイドを行う場合にオペレータ端末3に、ユーザ端末1からのカメラ撮影画像データと、位置情報等を利用した地図情報と、位置情報等に対応する基本画像データとを表示して、ユーザ端末1へ音声ガイド情報を提供するようにしているので、オペレータが状況に応じて的確で安全なガイドを行うことができる効果がある。
【0091】
また、本システムによれば、ユーザ端末1に音声外部出力部15を備え、オペレータがカメラ撮影画像を参考に、ユーザの近辺にいる人に音声外部出力部15を介して音声で会話できるようにしているので、突発的なことが起きても臨機応変に対応可能となり、総合的に安全なガイドを行うことができる効果がある。