(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0012】
以下、本発明の実施形態について、図面を参照しつつ詳細に説明する。ただし、発明の範囲をこれらに限定するものではない。
【0013】
[ハードウェア構成]
図1を参照して、一実施形態に係る情報処理システムのハードウェア構成の例について説明する。情報処理システム1は、ウェアラブルデバイスを用いた各種のサービスを提供するためのシステムである。情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を主に含む。眼鏡型デバイス20及び携帯端末30は、ネットワークNを介してサーバ装置10と相互に通信することができる。また、眼鏡型デバイス20は、携帯端末30と(例えば、Bluetooth(登録商標)やWi−Fi(登録商標)等により)相互に通信することができる。情報処理システム1は、例えば、ウェアラブルデバイスである眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザに対して、地図情報に基づく各種の情報提供サービスを行うことができる。
【0014】
ネットワークNは、サーバ装置10と、眼鏡型デバイス20及び携帯端末30との間で情報を送受信するための通信回線である。ネットワークNは、例えば、インターネット、LAN、専用線、パケット通信網、電話回線、企業内ネットワーク、その他の通信回線、それらの組み合わせ等のいずれであってもよく、有線であるか無線であるか(もしくはこれらの組み合わせであるか)を問わない。
【0015】
サーバ装置10は、専用又は汎用のサーバ・コンピュータなどの情報処理装置により構成される。なお、サーバ装置10は、単一の情報処理装置より構成されるものであっても、ネットワーク上に分散した複数の情報処理装置より構成されるものであってもよい。
【0016】
また、サーバ装置10は、制御部11、通信部12、及び記憶部13を主に備える。制御部11は、CPU(Central Processing Unit)11a及びメモリ11bを主に備えて構成される。各構成の説明は後述する。サーバ装置10は、例えば、CPU11aがメモリ11b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、
図1には、サーバ装置10が備える主要な構成が示されているにすぎず、サーバ装置10は、一般的な情報処理装置が備える他の構成も備える。
【0017】
眼鏡型デバイス20は、眼鏡型の形状のウェアラブルデバイスである。ウェアラブルデバイスとは、ユーザが身体(例えば、腕や頭部)に装着して利用することが想定されたデバイス(情報処理装置)である。すなわち、眼鏡型デバイス20は眼鏡型の形状であるため、ユーザは、眼鏡をかけるように眼鏡型デバイス20を頭部に装着して利用することができる。眼鏡型デバイス20は、制御部21、通信部22、記憶部23、操作部24、表示部25、カメラ26、センサ27、及びマイク28を主に備えて構成される。制御部21は、CPU21a及びメモリ21bを主に備えて構成される。眼鏡型デバイス20は、例えば、CPU21aがメモリ21b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。なお、ユーザは眼鏡型デバイス20の装着時に結果として眼鏡型デバイス20に備えるこれらの構成のそれぞれも装着することになるため、これらの構成のそれぞれも狭義のウェアラブルデバイスとみなすことができる。これらの各構成の説明は後述する。
【0018】
図2は、眼鏡型デバイス20の外観の例を示している。同図の例では、眼鏡型デバイス20は外観上、操作部24、表示部25及びカメラ26を備えることが示されている。操作部24は、眼鏡型デバイス20の外側部に位置する。ユーザは操作部24をスワイプ、タップ等をすることによって、眼鏡型デバイス20に対して操作指示を行うことができる。表示部25は、眼鏡型デバイス20を装着したユーザがプリズムなどにより表示内容を視認可能な位置に設置されるように構成される。カメラ26は、眼鏡型デバイス20を装着したユーザの視線方向に向けられ、当該ユーザが見ていると推定されるもの(推定注視点に存在するもの)を撮像/撮影可能な位置に設置されるように構成される。
【0019】
図1の説明にもどる。携帯端末30は、例えば、携帯電話機(スマートフォンを含む)、タブレット端末、PDA(Personal Digital Assistants)、ナビゲーション装置、パーソナルコンピュータなどの携帯可能な情報処理装置である。携帯端末30は、制御部31、通信部32、記憶部33、操作部34、表示部35及び測位部36を主に備えて構成される。制御部31は、CPU31a及びメモリ31bを主に備えて構成される。各構成の説明は後述する。携帯端末30は、例えば、CPU31aがメモリ31b等に格納された所定のプログラムを実行することにより、各種の機能実現手段として機能する。
【0020】
制御部11,21,31は、これらを備える各情報処理装置の各種構成の動作を制御し、また、各種処理の実行を制御する。制御部11,21,31において実行される処理の詳細は後述する。通信部12,22,32は、他の情報処理装置と通信するための通信インタフェースである。記憶部13,23,33は、ハードディスク等の記憶装置によって構成される。記憶部13,23,33は、各情報処理装置における処理の実行に必要な各種プログラムや各種の情報を記憶する。操作部24,34は、ユーザからの操作指示を受け付けるためのユーザインタフェースである。表示部25,35は、各情報処理装置による処理結果を表示するためのユーザインタフェースである。
【0021】
カメラ26は、静止画/動画を撮影/撮像可能な装置である。
センサ27は、各種のセンサにより構成される。センサ27は、例えば、ジャイロセンサ、加速度センサ、地磁気センサ、及び/又はイメージセンサ等を含むことができる。センサ27により、例えば、眼鏡型デバイス20を装着しているユーザの顔が向いている方向に基づいて当該ユーザの視線の方向の方位角(基準となる方位との間の水平方向の角度)の推定値を検知することや、当該ユーザの頭部の傾きに基づいて当該ユーザの視線の方向の仰俯角(水平を基準とした上下方向の角度)の推定値を検知することができる。なお、センサ27は、ユーザの眼球の動きから当該ユーザの視線方向の方位角及び仰俯角の推定値を検知できるようにしてもよい。また、センサ27は、眼鏡型デバイス20を装着するユーザの瞼の動きに基づいて瞬きを検知することもできる。
マイク28は、眼鏡型デバイス20を装着するユーザが発する声/音を電気信号に変換する装置である。
【0022】
測位部36は、GPS衛星や通信機器(例えば基地局)から受信した信号に基づいて、携帯端末30の位置(例えば、緯度、経度)を特定し、当該位置を特定した日時を特定する(測位情報を特定する)処理を行う。
【0023】
以上のように本実施形態において、情報処理システム1は、サーバ装置10、眼鏡型デバイス20及び携帯端末30を含むがこれに限定せず、任意の装置を含むことができる。また、サーバ装置10、眼鏡型デバイス20及び携帯端末30が有する構成の一部又は全部を有する構成を情報処理システムとして把握することもできる。例えば、眼鏡型デバイス20が有する構成の一部を情報処理システムとして把握することができるし、眼鏡型デバイス20が有する構成の一部と、携帯端末30が有する構成の一部とを組み合わせた構成を情報処理システムとして把握することができる。
【0024】
[機能構成]
図3を参照して、サーバ装置10の一実施形態における機能構成について説明する。サーバ装置10は、主な機能構成として、現在地情報取得部111、角度情報取得部112、注視点情報取得部113、経路探索部114及びデータベース120を備える。以下に各機能構成の詳細を説明する。
【0025】
データベース120は、サーバ装置10において実行される処理に必要な情報、及び当該処理により生成された情報など、各種情報を記憶する。データベース120は、例えば、地図情報及び施設情報を記憶している。地図情報は、道路情報、鉄道路線情報、建造物情報、地形情報、住所情報、及びその他の地理情報などを含む。施設情報は、例えば、コンビニエンスストア、カフェ、駅、ファーストフード、レストラン、建物(ビル)などの施設についての情報を含む。また、施設情報は、当該施設で扱っている商品及び/又はサービスについての情報を含む。さらに、施設情報は、地図情報と関連付けられた各施設の位置の情報を含む。なお、施設情報は、地図情報に含まれる情報としてもよい。
【0026】
現在地情報取得部111は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から(もしくは携帯端末30から眼鏡型デバイス20を介して)取得する。なお、当該ユーザの現在地情報は、携帯端末30の測位部36の測位処理に基づいて得られた情報である。
【0027】
角度情報取得部112は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの視線の方位角及び仰俯角の情報を眼鏡型デバイス20から(もしくは眼鏡型デバイス20から携帯端末30を介して)取得する。なお、当該方位角及び仰俯角の情報は、後述するように、眼鏡型デバイス20のセンサ27の処理に基づいて得られた情報である。
【0028】
注視点情報取得部113は、データベース120を参照して、現在地情報取得部111により取得された前述のユーザの現在地情報と、角度情報取得部112により取得された前述のユーザの視線の方位角及び仰俯角の情報とを用いて、当該ユーザの視認対象の構造物(施設などのオブジェクト)を特定し、当該構造物における推定注視点を特定する。注視点情報取得部113は、特定された構造物についての情報や、当該推定注視点の位置についての情報を地図情報から取得する。推定注視点の位置についての情報には、特定された構造物(施設などのオブジェクト)の種別(例えば、雑居ビル、駅、飲食店、山など)、名称及び位置(住所)の情報を含む。また、特定された構造物がビルなどの建築物であり、当該ビルのフロアごとに1つ又は複数の施設が含まれている場合、推定注視点の位置についての情報には、当該推定注視点の位置に対応するフロアについての情報(例えば、当該フロアの階数や、当該フロアに存在する1つ又は複数の施設の情報を含む)、又は当該推定注視点の位置に存在する1つの施設の情報が含まれる。特定された推定注視点の位置についての情報は、眼鏡型デバイス20に送信される。
【0029】
図4及び
図5を参照して、ユーザの推定注視点の位置についての情報の取得方法の例について説明する。
図4及び
図5は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザAと、構造物(例えば、ビル)Bとを示している。注視点情報取得部113は、ユーザAの現在地情報と、ユーザAの視線の方位角a(この例では北を基準方位としたときの方位角)及び仰俯角bの情報と、地図情報とを用いて、ユーザAの現在地からユーザAの視線方向に存在するオブジェクト(ユーザの視認対象のオブジェクト)を特定する。また、注視点情報取得部113は、特定されたオブジェクトにおいて、ユーザAの視線の方位角及び仰俯角に対応する位置を推定注視点として特定する。この例では、注視点情報取得部113は、推定注視点として、点Cを特定する。なお、推定注視点が示す対象は、点に限られず、任意の大きさ及び形状の領域(例えば、半径1mの円形領域、10m四方の矩形領域など)を含むものとする。注視点情報取得部113は、特定された推定注視点の位置についての情報をデータベース120から取得する。
【0030】
以上のように、本実施形態によれば、ユーザが頭部を動かしたときに、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。特に、ユーザの視線の仰俯角の情報を用いてオブジェクトを特定するため、ユーザが見上げなければ視認できないようなオブジェクト(例えば、ユーザの目の前にある建物の裏側にあるオブジェクトで、ユーザが視線を上げたときに当該建物の上部からのみ見えるようなオブジェクト)を特定することができる。
【0031】
図3の説明に戻る。経路探索部114は、指定された位置(例えば、眼鏡型デバイス20を装着するユーザの現在地)を出発地とし、注視点情報取得部113により特定された推定注視点の位置を目的地として、経路探索の処理を行う。探索された経路についての情報は、眼鏡型デバイス20に送信される。
【0032】
図6を参照して、一実施形態に係る眼鏡型デバイス20の機能構成の例を説明する。眼鏡型デバイス20は、主な機能構成として、現在地情報取得部211、角度情報取得部212、注視点情報取得部213、アクション検知部214、音声認識部215、及び表示制御部216を備える。以下に各機能構成の詳細を説明する。
【0033】
現在地情報取得部211は、携帯端末30により特定された現在地情報を携帯端末30から取得する。取得された現在地情報は、サーバ装置10に送信される。なお、現在地情報は、携帯端末30から取得することとしているが、これに限定されず、眼鏡型デバイス20が測位処理部を備え、測位処理を行うことによって、現在地情報を特定してもよい。
【0034】
角度情報取得部212は、センサ27による検知結果に基づいて、眼鏡型デバイス20を装着しているユーザの顔が向いている方向の方位角及び仰俯角を特定する。角度情報取得部212は、当該方位角及び仰俯角に基づいて当該ユーザの視線の方向の方位角及び仰俯角の推定値を角度情報として特定する。特定された角度情報は、サーバ装置10に送信される。なお、ユーザは、ウェアラブルデバイスである眼鏡型デバイス20の装着時に結果として眼鏡型デバイス20に備えるセンサ27も装着することになるため、センサ27もウェアラブルデバイスとみなすことができる。
【0035】
注視点情報取得部213は、サーバ装置10により特定された(眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの)推定注視点の位置についての情報をサーバ装置10の地図情報から取得する。なお、推定注視点の位置についての情報は、サーバ装置10により特定されることとしているが、これに限定されず、注視点情報取得部213が推定注視点の位置についての情報を特定する処理を行ってもよい。すなわち、注視点情報取得部213が、現在地情報取得部211により取得された現在地情報と、角度情報取得部212により特定された角度情報と、サーバ装置10から取得された地図情報とに基づいて、前述した処理と同様の処理により、推定注視点の位置についての情報を特定することができる。
【0036】
アクション検知部214は、操作部24への入力の他、眼鏡型デバイス20のユーザの所定のアクションを検知する。所定のアクションには、例えば、ユーザの瞬きや、ユーザが眼鏡型デバイス20の正面で所定の手の動きをすることなどが含まれる。これらの所定のアクションの検知の方法は、任意の方法を用いることができ、例えば、従来の検知技術を用いることができる。
【0037】
音声認識部215は、眼鏡型デバイス20のユーザが発した音声を認識し、ユーザからの操作指示を特定する。
【0038】
表示制御部216は、眼鏡型デバイス20による処理結果の情報や、外部装置から受信した情報(例えば、現在地情報や、推定注視点の位置についての情報)など、各種の情報を表示部25(すなわち、眼鏡型デバイス20のユーザの目の近傍に位置するモニタ)に表示するように制御する。また、表示制御部216は、操作部24を介したユーザによる所定の操作や、アクション検知部214により所定のアクションが検知されたことに応じて、注視点情報取得部213により取得された推定注視点の位置についての情報を表示部25に表示するように制御することができる。
【0039】
図7には、表示制御部216による制御の結果、表示部25に表示された推定注視点の位置についての情報の例が示されている。この例において、表示部25に表示された推定注視点の位置についての情報は、施設の種別、施設の名称、施設において取り扱っている商品(取扱い商品)につていの情報が含まれている。
【0040】
以上のように、本実施形態によれば、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザが頭部を動かしたときにユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得すること、また、当該情報をユーザの目の近傍に位置するモニタに表示することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。
【0041】
[処理フロー]
次に、サーバ装置10及び眼鏡型デバイス20において実行される処理のフローを説明する。なお、以下に説明する処理フローに含まれる各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。なお、各処理ステップの処理の詳細は、既に説明しているためここでは省略する。
【0042】
まず、
図8を参照して、サーバ装置10において実行される処理のフローを説明する。
ステップS11において、制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの現在地情報を携帯端末30から(もしくは携帯端末30から眼鏡型デバイス20を介して)取得する。
【0043】
ステップS12において、制御部11は、眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの視線の方位角及び仰俯角の情報を眼鏡型デバイス20から(もしくは眼鏡型デバイス20から携帯端末30を介して)取得する。
【0044】
ステップS13において、制御部11は、データベース120を参照して、ステップS11において取得された前述のユーザの現在地情報と、ステップS12において取得された前述のユーザの視線の方位角及び仰俯角の情報とを用いて、当該ユーザの視認対象の構造物(施設などのオブジェクト)を特定し、当該構造物における推定注視点を特定する。さらに、制御部11は、特定された構造物についての情報や、当該推定注視点の位置についての情報を地図情報から取得する。
【0045】
ステップS14において、制御部11は、ステップS13で取得した推定注視点の位置についての情報を眼鏡型デバイス20に送信する。
【0046】
次に、
図9を参照して、眼鏡型デバイス20において実行される処理のフローを説明する。
ステップS21において、制御部21は、携帯端末30により特定されたユーザの現在地情報を携帯端末30から取得する。取得された現在地情報は、サーバ装置10に送信される。
【0047】
ステップS22において、制御部21は、センサ27による検知結果に基づいて、眼鏡型デバイス20を装着しているユーザの顔が向いている方向の方位角及び仰俯角を特定する。角度情報取得部212は、当該方位角及び仰俯角に基づいて当該ユーザの視線の方向の方位角及び仰俯角の推定値を角度情報として特定する。特定された角度情報は、サーバ装置10に送信される。
【0048】
ステップS23において、制御部21は、サーバ装置10により特定された(眼鏡型デバイス20を装着し、かつ、携帯端末30を携帯するユーザの)推定注視点の位置についての情報をサーバ装置10の地図情報からネットワークNを介して取得する。
【0049】
ステップS24において、センサ27により所定のアクションが検知されたことに応じて、ステップS23において取得された推定注視点の位置についての情報を表示部25に表示する。
【0050】
以上のように、本実施形態によれば、ウェアラブルデバイス(例えば、眼鏡型デバイス20又はセンサ27)により検知された、ユーザが頭部を動かしたときにユーザの視線が向いている方向の方位角及び仰俯角の情報を用いて、当該ユーザの推定注視点の位置についての情報を取得すること、また、当該情報をユーザの目の近傍に位置するモニタに表示することができる。すなわち、ウェアラブルデバイスにより検知されたユーザの動作についての情報を利用して有益な機能を実現することができる。
【0051】
[その他の実施形態]
本発明は、上記した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
【0052】
例えば、上記の実施形態において、推定注視点の特定は、サーバ装置10又は眼鏡型デバイス20で行うこととしたが、これに限定されず、携帯端末30で行うことにしてもよい。具体的には、携帯端末30は、ユーザの現在地情報を測位部36により特定し、ユーザの視線の方位角及び仰俯角の情報を角度情報として眼鏡型デバイス20から取得し、当該現在地情報及び角度情報を用いて、上述した方法により推定注視点を特定することができる。