IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧

特開2022-33135サーバ、クライアント端末、制御方法、およびプログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022033135
(43)【公開日】2022-02-28
(54)【発明の名称】サーバ、クライアント端末、制御方法、およびプログラム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20220218BHJP
   G06F 3/01 20060101ALI20220218BHJP
   G06F 3/04815 20220101ALI20220218BHJP
   H04L 51/02 20220101ALI20220218BHJP
   H04L 67/131 20220101ALI20220218BHJP
【FI】
G06T19/00 600
G06F3/01 510
G06F3/0481 150
H04L51/02
H04L67/131
【審査請求】有
【請求項の数】17
【出願形態】OL
(21)【出願番号】P 2021196084
(22)【出願日】2021-12-02
(62)【分割の表示】P 2018543739の分割
【原出願日】2017-07-05
(31)【優先権主張番号】P 2016199028
(32)【優先日】2016-10-07
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】特許業務法人酒井国際特許事務所
(72)【発明者】
【氏名】細田 育英
(57)【要約】
【課題】ユーザが見逃している情報を提示することが可能なサーバ、クライアント端末、
制御方法、および記憶媒体を提供する。
【解決手段】クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信し、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信するように制御する制御部と、を備える、サーバ。
【選択図】図1
【特許請求の範囲】
【請求項1】
クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信し、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信するように制御する制御部を備えるサーバ。
【請求項2】
前記制御部は、前記クライアント端末の撮像部により取得されたユーザの視界画像から、前記ユーザの興味情報に応じたオブジェクトに対応する情報を抽出し、前記オブジェクトに対応する情報に対して重畳表示させるキャラクタを示すキャラクタ情報と、前記ユーザに提示する提示情報を前記クライアント端末に送信するように制御する、請求項1に記載のサーバ。
【請求項3】
前記制御部は、ユーザ情報に関連するオブジェクトに関連する情報と前記ユーザの興味情報との比較に基づいて、前記ユーザに提示する提示情報を決定する、請求項2に記載のサーバ。
【請求項4】
ユーザ情報に関連するオブジェクトに対応する情報に対して重畳表示させるキャラクタに対する前記ユーザの視線に関連する情報を受信すると、
前記制御部は、前記ユーザの視線に関連する情報に応じて、前記ユーザに提示する提示情報の内容を変更する、請求項1~3のいずれか1項に記載のサーバ。
【請求項5】
前記ユーザの視線に関連する情報は、提示情報更新依頼である、請求項4に記載のサーバ。
【請求項6】
前記制御部は、前記提示情報更新依頼に応じて、さらに詳細な情報に変更する、請求項5に記載のサーバ。
【請求項7】
前記重畳表示させるキャラクタに対するユーザの視線に関連する情報は、前記ユーザが前記キャラクタに注目したことに関する情報である、請求項4に記載のサーバ。
【請求項8】
前記制御部は、
前記クライアント端末のユーザによって入力される音声の意味を理解し、対応する音声メッセージを前記クライアント端末に送信する機能を有する、請求項1に記載のサーバ。
【請求項9】
前記制御部は、
前記クライアント端末の撮像部により撮像される、少なくとも、前記ユーザの視界外の画像から前記予め登録されている人物が検知されると、それを前記ユーザに通知するための音声メッセージを前記クライアント端末に送信するように制御する、請求項8に記載のサーバ。
【請求項10】
前記制御部は、
前記クライアント端末の撮像部により撮像される画像と共に、当該クライアント端末の位置と向きの情報を取得し;
さらに、
前記予め登録されている人物のアカウントに、前記ユーザへの通知の許諾と現在の位置情報を要求するリクエストを送信し;
前記リクエストに応じて受信した、前記ユーザへの通知の許諾の要求に対する承認と、前記位置情報とに応じて、前記予め登録されている人物がいる方向を示す情報を前記ユーザに通知するための音声メッセージを前記クライアント端末に送信するように;
通信部を制御する、請求項8または9に記載のサーバ。
【請求項11】
撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力するように制御する制御部を備えるクライアント端末。
【請求項12】
前記制御部は、
前記画像における前記ユーザの興味情報に関連するオブジェクトに対して、キャラクタ情報を重畳表示すると共に、前記ユーザに提示する提示情報を出力するように前記出力部を制御する、請求項11に記載のクライアント端末。
【請求項13】
前記制御部は、
撮像部により撮像される画像から予め登録されている人物が検知されると、当該人物が検知されたことをユーザに通知するための音声メッセージを出力するように前記出力部を制御する、請求項11に記載のクライアント端末。
【請求項14】
プロセッサが、
クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信することと、
前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信することと、
を含む、制御方法。
【請求項15】
コンピュータを、
クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信し、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信するように制御する制御部として機能させるためのプログラム。
【請求項16】
プロセッサが、
撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力することを含む、制御方法。
【請求項17】
コンピュータを、
撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力するように制御する制御部として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、サーバ、クライアント端末、制御方法、およびプログラムに関する。
【背景技術】
【0002】
近年、ユーザの視界に入る対象物に関する情報をテキストや音声により提示する技術が提案されている。例えば下記特許文献1では、ユーザが装着するHMD(Head Mounted Display)において、対象物の説明を重畳表示する技術が提案されている。
【0003】
また、下記特許文献2では、ユーザの表情を反映したアバタの画像をメッセージと共に授受するチャットシステムが提案されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2014-167716号公報
【特許文献2】特開2013-9073号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、ユーザが見逃している対象物に関する情報までは提示されていなかった。
【0006】
そこで、本開示では、ユーザが見逃している情報を提示することが可能なサーバ、クライアント端末、制御方法、およびプログラムを提案する。
【課題を解決するための手段】
【0007】
本開示によれば、クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信し、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信するように制御する制御部を備えるサーバを提案する。
【0008】
本開示によれば、撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力するように制御する制御部を備えるクライアント端末を提案する。
【0009】
本開示によれば、プロセッサが、クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信することと、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信することと、を含む、制御方法を提案する。
【0010】
本開示によれば、コンピュータを、クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信し、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信するように制御する制御部として機能させるためのプログラムを提案する。
【0011】
本開示によれば、プロセッサが、撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力することを含む、制御方法を提案する。
【0012】
本開示によれば、コンピュータを、撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力するように制御する制御部として機能させるためのプログラムを提案する。
【発明の効果】
【0013】
以上説明したように本開示によれば、ユーザが見逃している情報を提示することが可能となる。
【0014】
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
【図面の簡単な説明】
【0015】
図1】本開示の第1の実施形態による情報処理システムの概要について説明する図である。
図2】第1の実施形態による情報処理システムの全体構成について説明する図である。
図3】第1の実施形態によるメガネ型端末の構成の一例を示すブロック図である。
図4】第1の実施形態によるサーバの構成の一例を示すブロック図である。
図5】第1の実施形態によるユーザ情報DBに蓄積されるユーザ情報の一例を示す図である。
図6】第1の実施形態によるオブジェクト情報DBに蓄積されるオブジェクト情報の一例を示す図である。
図7】第1の実施形態による情報処理システムの動作処理を示すシーケンス図である。
図8】第1の実施形態によるタグ画像の検出処理を示すフローチャートである。
図9】一般的な人間の視野について説明する図である。
図10】第1の実施形態による提示情報取得処理を示すフローチャートである。
図11】第1の実施形態によるオブジェクト情報取得処理を示すフローチャートである。
図12】第1の実施形態による注目度設定処理を示すフローチャートである。
図13】第1の実施形態による提示情報提供処理を示すフローチャートである。
図14】第1の実施形態による提示方法設定処理を示すフローチャートである。
図15】第1の実施形態による情報提示処理を示すフローチャートである。
図16】第1の実施形態によるユーザ行動検出処理を示すフローチャートである。
図17】第1の実施形態によるメガネ型端末による提示情報更新処理を示すフローチャートである。
図18】第1の実施形態によるサーバによる提示情報更新処理を示すフローチャートである。
図19】第1の実施形態によるキャラクタ表示の具体例を示す図である。
図20】第1の実施形態による構造物の視線の向きを変更する具体例を示す図である。
図21】第1の実施形態によるタグ画像マップデータの一例を示す図である
図22】第2の実施形態による情報処理システムの概要について説明する図である。
図23】第2の実施形態による情報処理システムの各構成について説明する図である。
図24】第2の実施形態による撮像部の設置例について説明する図である。
図25】第2の実施形態による撮像部の他の設置例について説明する図である。
図26】第2の実施形態による情報処理システムの動作処理を示すシーケンス図である。
図27】第2の実施形態による情報処理システムの動作処理を示すシーケンス図である。
図28】第2の実施形態の第1の応用例による情報処理システムの全体構成を示す図である。
図29】第2の実施形態の第1の応用例による情報処理システムの動作処理を示すフローチャートである。
図30】第2の実施形態の第2の応用例による情報処理システムの全体構成を示す図である。
図31】第2の実施形態の第2の応用例による情報処理システムの動作処理を示すフローチャートである。
図32】第2の実施形態の第2の応用例による情報処理システムの動作処理を示すフローチャートである。
図33】第2の実施形態の第3の応用例による情報処理システムの全体構成を示す図である。
図34】第2の実施形態の第3の応用例による情報処理システムの動作処理を示すフローチャートである。
【発明を実施するための形態】
【0016】
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0017】
また、説明は以下の順序で行うものとする。
1.第1の実施形態
1-1.概要
1-2.構成
1-3.動作処理
1-4.表示例
1-5.補足
2.第2の実施形態
2-1.概要
2-2.構成
2-3.動作処理
2-4.応用例
2-5.補足
3.まとめ
【0018】
<<1.第1の実施形態>>
<1-1.概要>
図1は、本開示の第1の実施形態による情報処理システムの概要について説明する図である。図1に示すように、例えばユーザが透過式のメガネ型端末1(クライアント端末の一例)を装着して街を歩いている際に、視界に入ってはいるが注視せず気付いていなかった看板30に、ユーザの注意を引くために動く「目」のキャラクタ画像34がAR(Augmented Reality)表示され、「新作スカートが入荷されたよ!」といった音声が出力される。
【0019】
より具体的には、メガネ型端末1は、メガネ型端末1に設けられたユーザの視界を撮像する撮像部により看板30のタグ画像32を抽出すると、当該タグ画像32に対応する情報を提示するよう制御する。この際、メガネ型端末1はユーザの視線検出を行ってユーザの注視領域を把握し、少なくとも注視領域の外、具体的にはユーザの視界に入ってはいるが認識できていない範囲からタグ画像32を抽出した場合に、見逃し情報として提示するよう制御する。なお提示する情報はユーザの興味がある事象に限るようにしてもよい。
【0020】
これにより、ユーザは看板30に気付き、自身が興味のある洋服の店を見逃してしまうことを防止することができる。
【0021】
このような第1の実施形態による情報処理システムについて、以下その構成および動作処理を具体的に説明する。
【0022】
<1-2.構成>
(1-2-1.全体構成)
図2は、第1の実施形態による情報処理システムの全体構成について説明する図である。図2に示すように、本実施形態による情報処理システムは、メガネ型端末1とサーバ2を含む。メガネ型端末1およびサーバ2は、ネットワーク3を介して接続し、データの送受信を行う。
【0023】
メガネ型端末1は、透過式メガネ型のHMD(Head Mounted Display)である。HMDは、装着状態において、ユーザの両眼の直前、即ち通常の眼鏡におけるレンズが位置する場所に、左眼用と右眼用の一対の透過式の表示部13(図3)が配置される構成となっている。表示部13には、文字、図形等の画像が表示され、現実空間に重畳される。HMDには、ユーザに装着された状態でユーザが視認する方向を被写体方向として撮像する撮像レンズが設けられ、ユーザの視界を撮像することが可能である。
【0024】
なお、図2に示すメガネ型端末1の外観は一例であり、メガネ型端末1をユーザが装着するための構造は多様に考えられる。メガネ型端末1は、一般に眼鏡型、あるいは頭部装着型とされる装着ユニットで形成されればよく、少なくとも本実施の形態としては、ユーザの眼の前方に近接して表示部13が設けられていればよい。また表示部13は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。
【0025】
サーバ2は、ユーザ情報やオブジェクト情報を蓄積し、メガネ型端末1により抽出されたタグ画像に対応する提示情報をメガネ型端末1に送信する機能を有する。
【0026】
(1-2-2.メガネ型端末1の構成)
続いて、本実施形態によるメガネ型端末1の構成について図3を参照して説明する。図3は、本実施形態によるメガネ型端末1の構成の一例を示すブロック図である。
【0027】
図3に示すように、メガネ型端末1は、制御部10、通信部11、撮像部12、表示部13、音声出力部14、記憶部15、および視線検出部16を有する。
【0028】
(制御部10)
制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従ってメガネ型端末1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
【0029】
また、本実施形態による制御部10は、タグ画像検出部101、提示情報取得部102、提示方法設定部103、情報提示制御部104、ユーザ行動検出部105、および提示情報更新部106として機能する。
【0030】
タグ画像検出部101は、撮像部12により撮像された撮像画像を解析し、タグ画像を検出する。タグ画像の検出は、例えば予め記憶部15に記憶された画像とのパターンマッチングにより行われてもよい。例えば図1に示すような目のマークのタグ画像32が予め記憶部15に登録されていることで、タグ画像検出部101は、撮像部12により撮像した撮像画像から看板30における目のイラストをタグ画像32として検出することが可能となる。
【0031】
提示情報取得部102は、検出したタグ画像に基づく提示情報をサーバ2から取得する。具体的には、提示情報取得部102は、検出したタグ画像または当該タグ画像に電子透かしにより埋め込まれたタグ情報(具体的には、例えばタグID)をサーバ2に送信し、提示情報として、タグ情報に対応するオブジェクト情報(例えば商品に関する情報)を取得する。
【0032】
提示方法設定部103は、オブジェクト情報をユーザに提示する方法を設定する。具体的には、提示方法設定部103は、設定された注目度に応じて、オブジェクト情報を提示する際の表示設定や音量設定を決定する。
【0033】
情報提示制御部104は、提示情報取得部102により取得されたオブジェクト情報を、提示方法設定部103により設定された方法でユーザに提示するよう制御する。具体的には、情報提示制御部104は、表示部13や音声出力部14から提示情報であるオブジェクト情報を出力するよう制御する。
【0034】
ユーザ行動検出部105は、ユーザの行動を検出し、タグ画像へのユーザの注目度を設定する機能を有する。例えばユーザ行動検出部105は、視線検出部16により検出されたユーザの視線に応じて、ユーザの視線が対象のタグ画像に向けられている場合、当該タグ画像の注目度を「高」に設定する。
【0035】
提示情報更新部106は、注目度が変更された際、サーバから新たな提示情報を取得し、ユーザに提示する提示情報を更新する。
【0036】
(通信部11)
通信部11は、外部装置と接続し、データの送受信を行う機能を有する。例えば通信部11は、Bluetooth(登録商標)、Wi-Fi(Wireless Fidelity、登録商標)、無線LAN(Local Area Network)等により、ネットワーク3に接続し、ネットワーク上のサーバ2とデータの送受信を行う。
【0037】
(撮像部12)
撮像部12は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
【0038】
また、本実施形態による撮像部12は、ユーザがメガネ型端末1を装着した際にユーザの視線方向(視界)を撮像する向きに設けられている。
【0039】
(視線検出部16)
視線検出部16は、メガネ型端末1を装着しているユーザの視線方向を検出する機能を有する。より具体的には、視線検出部16は、ユーザの眼の動きや頭部の動き、または姿勢等に基づいて、ユーザの視線方向(さらには、注視点)を検出する。ユーザの眼の動きは、例えばユーザの顔または眼を撮像した撮像画像、検知した眼電、または筋電等に基づいて解析され得る。また、頭部の動きや姿勢は、メガネ型端末1に設けられたジャイロセンサ、加速度センサ、地磁気センサ等(いずれも不図示)により検知され得る。
【0040】
(表示部13)
表示部13は、例えば液晶パネルにより実現され、制御部10は、液晶パネルの透過率を制御することで、スルー状態、即ち透明または半透明の状態にすることができる。また、表示部13は、ホログラム導光板技術により、テキスト、シンボル、画像等の情報をユーザの視界(実空間)に重ねて表示するレンズにより実現されてもよい。
【0041】
(音声出力部14)
音声出力部14は、音声信号を再生するスピーカと、スピーカに対するアンプ回路を有する。音声出力部14は、例えば一対のイヤホンスピーカと、そのイヤホンスピーカに対するアンプ回路により実現される。一対のイヤホンスピーカは、メガネ型端末1を装着した際にユーザの右耳孔および左耳孔に挿入される位置に設けられ得る。また、音声出力部14は、いわゆる骨伝導スピーカとして構成されてもよい。
【0042】
(記憶部15)
記憶部15は、制御部10の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
【0043】
以上、本実施形態によるメガネ型端末1の構成について具体的に説明した。なおメガネ型端末1の構成は図3に示す例に限定されず、例えば音声を集音するマイクロホンや、位置情報取得部等を有していてもよい。マイクロホンを備えることで、ユーザによる音声入力が可能となる。
【0044】
また、本明細書では、情報提示を行うクライアント端末の一例として図2に示すようなメガネ型端末1を用いるが、本開示によるクライアント端末はメガネ型端末1に限定されない。例えば、クライアント端末は、スマートフォン、携帯電話端末、PDA(Personal Digital Assistants)、PC(Personal Computer)、タブレット端末等であってもよい。また、メガネ型端末によりユーザの視界撮像、視線検出、および情報提示を行い、メガネ型端末と通信を行い得るスマートフォン等により各種制御(タグ画像検出、提示情報取得、提示方法設定、情報提示制御、ユーザ行動検出、および提示情報更新)を行うようにしてもよい。
【0045】
(1-2-3.サーバ2の構成)
次に、本実施形態によるサーバ2の構成について図4を参照して説明する。図4に示すように、本実施形態によるサーバ2は、制御部20、通信部21、ユーザ情報DB(データベース)22、およびオブジェクト情報DB23を有する。
【0046】
(制御部20)
制御部20は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ2内の動作全般を制御する。制御部20は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部20は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
【0047】
また、本実施形態による制御部20は、オブジェクト情報取得部201、注目度設定部202、提示情報提供部203、および提示情報更新部204として機能する。
【0048】
オブジェクト情報取得部201は、メガネ型端末1から送信されたタグ情報に基づいて、オブジェクト情報DB23からオブジェクト情報を取得する。
【0049】
注目度設定部202は、取得したオブジェクト情報に対するユーザの注目度を設定する。具体的には、注目度設定部202、オブジェクト情報とユーザ情報とを比較して、ユーザの性別、年齢、または嗜好情報(興味情報)がオブジェクト情報の属性情報(オブジェクト特性やターゲット)と合致するか否か(関連するか否か)に応じて注目度を設定する。
【0050】
提示情報提供部203は、設定された注目度に応じてオブジェクト情報からユーザに提示する情報を取得し、通信部21を介して提示情報をメガネ型端末1へ送信する。また、提示情報提供部203は、キャラクタ画像も併せてメガネ型端末1へ送信する。
【0051】
提示情報更新部204は、ユーザ行動(具体的にはユーザの視線方向)の変化により変更された注目度に応じて、ユーザに提示する情報を更新する。具体的には、提示情報更新部204は、メガネ型端末1から送信された更新依頼に応じて詳細な提示情報をオブジェクト情報から取得し、メガネ型端末1に返信する。
【0052】
(通信部21)
通信部21は、外部装置と接続し、データの送受信を行う機能を有する。例えば通信部21は、無線または有線LAN(Local Area Network)等により、ネットワーク3に接続し、ネットワーク3を介してメガネ型端末1とデータの送受信を行う。
【0053】
(ユーザ情報DB22)
ユーザ情報DB22は、ユーザに関する情報を蓄積する。ここで、図5に、ユーザ情報DB22に蓄積されるユーザ情報の一例を示す。図5に示すように、ユーザ情報は、ユーザID、性別、年齢、および嗜好情報等を含む。
【0054】
(オブジェクト情報DB23)
オブジェクト情報DB23は、オブジェクトに関する情報を蓄積する。ここで、図6に、オブジェクト情報DB23に蓄積されるオブジェクト情報の一例を示す。図6に示すように、オブジェクト情報は、オブジェクトID、タグID(タグ情報)、属性情報、提示情報(簡易情報および詳細情報)、キャラクタ画像、および特徴情報を含む。キャラクタ画像は、静止画または動画(アニメーション)であってもよい。
【0055】
以上、本実施形態によるサーバ2の構成について具体的に説明した。
【0056】
<1-3.動作処理>
続いて、本実施形態による情報処理システムの動作処理について図7図18を参照して説明する。
【0057】
図7は、本実施形態による情報処理システムの動作処理を示すシーケンス図である。図7に示すように、まず、メガネ型端末1は、タグ画像検出部101により撮像部12で撮像したユーザの視界からタグ画像の検出を行う(ステップS103)。ここで、本実施形態によるタグ画像の検出処理について図8を参照して詳細に説明する。
【0058】
図8に示すように、撮像部12でユーザの視界が撮像されると(ステップS143)、タグ画像検出部101は、タグ画像の探索範囲をユーザの注視領域の外側に設定する(ステップS146)。ユーザの注視領域とは、視線検出部16により検出されたユーザの注視点の周辺であって、例えば人間の視界におけるシンボルの認識限界に相当する領域である。一般的に人間の視野は、図9に示すように、注視点(0°)を中心として左右水平略5~10°の範囲が数字や文字の語(ワード)の意識限界範囲となり、この範囲で文字を読んだり、特定の物や出来事に注目(物の形や色等をしっかりと認識)している。また、注視点(0°)を中心として左右水平略5~30°の範囲がシンボルの認識限界範囲となり、物や出来事をほぼ明瞭に認識できる。また、略30~60°の範囲は、色や輝度が変化する場合の色の弁別限界範囲となり、物の形や色などを明瞭に認識することはできないが、色の変化や動く物については認識しやすい。そして、注視点(0°)を中心として左右水平略94°が視野の限界範囲となる。本実施形態では、シンボルの認識限界範囲を注視領域とし、ユーザの注視点から少なくとも略30°より外側の範囲の領域をタグ画像の探索範囲とする。シンボルの認識限界範囲外の領域は、視界範囲内であってもユーザが認識できておらず、情報を見落としている可能性が高いためである。
【0059】
そして、タグ画像検出部101は、撮像画像における上記注視領域の外側からタグ画像を検出する(ステップS149)。具体的には、例えば記憶部15に予め記憶されている画像とパターンマッチングにより一致する画像をタグ画像として検出するようにしてもよい。
【0060】
以上、タグ画像の検出処理について説明した。
【0061】
続いて、メガネ型端末1は、提示情報取得部102によりサーバ2から提示情報を取得する(ステップS106)。ここで、本実施形態による提示情報取得処理について図10を参照して詳細に説明する。
【0062】
図10に示すように、タグ画像検出部101によりタグ画像が検出された場合(ステップS153/Yes)、提示情報取得部102は、検出されたタグ画像を解析し、タグ情報(具体的には、タグID)を抽出する。本実施形態によるタグ画像には、例えば電子透かしによりタグ情報が埋め込まれているものとする。なお、タグ情報は、タグ画像に載せられたQRコード(登録商標)から抽出するようにしてもよい。
【0063】
次に、提示情報取得部102は、通信部11によりタグ情報をサーバ2に送信し(ステップS159)、サーバ2から当該タグ情報に対応するキャラクタ画像を受信する(ステップS162)。
【0064】
また、提示情報取得部102は、当該タグ情報に基づく提示情報および当該提示情報に対するユーザの注目度をサーバ2から受信する(ステップS165、ステップS168)。
【0065】
以上、提示情報取得処理について説明した。
【0066】
一方、サーバ2は、メガネ型端末1から送信されたタグ情報に基づいてオブジェクト情報を取得する(ステップS109)。ここで、オブジェクト情報取得処理の詳細を図11に示す。
【0067】
図11に示すように、サーバ2は、メガネ型端末1からタグ情報を受信すると(ステップS173)、オブジェクト情報取得部201により、タグ情報に対応するオブジェクト情報をオブジェクト情報DB23から取得する(ステップS176)。タグ情報は、例えば一意のタグIDであって、図6に示すように、当該タグIDに基づいてオブジェクト情報を検索することが可能である。なお、メガネ型端末1からタグ画像が送信された場合、サーバ2側において、オブジェクト情報取得部201により、当該タグ画像を解析して電子透かしにより埋め込まれたタグ情報を抽出するようにしてもよい。
【0068】
以上、オブジェクト情報取得処理について説明した。
【0069】
次いで、サーバ2は、注目度設定部202により、取得したオブジェクト情報に対するユーザの注目度を設定する(ステップS112)。ここで、注目度設定処理の詳細を図12に示す。
【0070】
図12に示すように、サーバ2の注目度設定部202は、オブジェクト情報とユーザ情報を比較し(ステップS179)、合致するか否かを判断する(ステップS182)。より具体的には、例えば注目度設定部202は、オブジェクト情報の属性情報(オブジェクトの特性やターゲットに関する情報を含む)と、ユーザ情報(年齢や、性別、嗜好情報を含む)とを比較して、合致する項目があるか否かを判断する。これにより、注目度設定部202はオブジェクトに対するユーザの関連度合いを把握することができる。
【0071】
次に、合致すると判断した場合(ステップS182/Yes)、注目度設定部202は、注目度を「中」に設定する(ステップS185)。
【0072】
一方、合致しないと判断した場合(ステップS182/No)、注目度設定部202は、注目度を「低」に設定する(ステップS188)。
【0073】
以上、注目度設定処理について説明した。
【0074】
続いて、サーバ2は、提示情報提供部203により、提示情報をメガネ型端末1へ提供(送信)する(ステップS115)。ここで、提示情報提供処理の詳細を図13に示す。
【0075】
図13に示すように、提示情報提供部203は、設定された注目度が「中」である場合には(ステップS193/Yes)、オブジェクト情報に含まれるキャラクタ画像をメガネ型端末1へ送信し(ステップS196)、また、設定された注目度をメガネ型端末1へ送信する(ステップS199)。
【0076】
次に、提示情報提供部203は、オブジェクト情報に含まれる情報のうち、「簡易情報」を提示情報として設定し(ステップS202)、メガネ型端末1へ送信する(ステップS205)。
【0077】
一方、設定された注目度が「低」である場合(ステップS193/No)、オブジェクト情報はユーザとは関連性が低いものであるため、提示情報等のメガネ型端末1への送信は行わない。
【0078】
以上、提示情報提供処理について説明した。
【0079】
次いで、サーバ2から提示情報を受信したメガネ型端末1は、提示方法設定部103により提示方法を設定する(ステップS118)。ここで、提示方法設定処理の詳細を図14に示す。
【0080】
図14に示すように、メガネ型端末1は、サーバ2により設定された注目度が「高」であるか否かを判断する(ステップS213)。
【0081】
次に、注目度が「高」ではない場合(ステップS213/No)、提示方法設定部103は、提示するキャラクタの視線をユーザから逸らす表示設定にする(ステップS225)。例えば注目度が「中」の場合、オブジェクト情報(の簡易な提示情報)にユーザが関心を持つ可能性がそれほど高くないため、提示方法設定部103はキャラクタの視線をユーザに向けない表示設定する。
【0082】
次いで、提示方法設定部103は、提示するキャラクタのサイズを「小」に設定し(ステップS228)、さらに音量を「小」に設定する(ステップS231)。
【0083】
一方、注目度が「高」である場合(ステップS213/Yes)、提示方法設定部103は、提示するキャラクタの視線をユーザに向ける表示設定にする(ステップS216)。例えば注目度が「高」の場合、オブジェクト情報(の詳細な提示情報)にユーザが関心を持つ可能性が高いため、提示方法設定部103はキャラクタの視線をユーザに向ける表示設定にし、キャラクタの視線によりユーザが気付き易いようにする。
【0084】
次いで、提示方法設定部103は、提示するキャラクタのサイズを「大」に設定し(ステップS219)、さらに音量を「大」に設定する(ステップS222)。いずれもユーザがキャラクタにより気付き易いようにするためである。
【0085】
以上、提示方法設定処理について説明した。
【0086】
次に、メガネ型端末1は、情報提示制御部104により、サーバ2から送信された提示情報を、設定した提示方法でユーザに提示するよう制御する(ステップS121)。ここで、情報提示処理の詳細を図15に示す。
【0087】
図15に示すように、メガネ型端末1は、情報提示制御部104により、タグ画像の取得位置にキャラクタを重畳表示するよう制御する(ステップS234)。すなわち、例えば図1に示すように看板30からタグ画像32が検出された場合、情報提示制御部104は、看板30の位置にキャラクタ画像34を重畳表示する。キャラクタ画像34は目や眉が動くアニメーション画像であってもよい。キャラクタ画像34がユーザの注視領域外(例えば図9に示す「シンボルの認識限界範囲」の外側)に表示されていても、キャラクタ画像34が動くことで、ユーザがキャラクタ画像34を認識する可能性が高い。
【0088】
次いで、情報提示制御部104は、サーバ2から受信した提示情報をユーザに提示するよう制御する(ステップS237)。具体的には、例えば情報提示制御部104は、「新作のスカートが入荷されたよ!」といった提示情報をキャラクタ画像34の近くに表示したり、音声出力部14から音声出力したりする。音声出力の音量は、上記提示方法の設定に従って制御する。
【0089】
以上、情報提示処理について説明した。
【0090】
次いで、メガネ型端末1は、ユーザ行動検出部105により、ユーザ行動を検出する(ステップS124)。ここで、ユーザ行動検出処理の詳細を図16に示す。
【0091】
図16に示すように、ユーザ行動検出部105は、視線検出部16によりユーザの視線が検出されると(ステップS240)、ユーザがキャラクタを見ているか否か(具体的には、例えば注視領域にキャラクタが入っているか否か)を判断する(ステップS243)。
【0092】
次に、ユーザがキャラクタを見ていると判断した場合(ステップS243/Yes)、ユーザ行動検出部105は、ユーザがキャラクタに注目しているため、注目度を「高」に設定(変更)する(ステップS246)。
【0093】
一方、ユーザがキャラクタを見ていないと判断した場合(ステップS243/No)、ユーザはキャラクタに注目していないため、注目度の変更は行わない。
【0094】
以上、ユーザ行動検出処理について説明した。
【0095】
続いて、メガネ型端末1は、提示情報の更新処理を行う(ステップS127)。また、サーバ2も、メガネ型端末1からの依頼に応じて提示情報の更新処理を行う(ステップS130)。ここで、メガネ型端末1による提示情報更新処理の詳細を図17に示し、また、サーバ2による提示情報更新処理の詳細を図18に示す。
【0096】
図17に示すように、メガネ型端末1の提示情報更新部106は、重畳表示したキャラクタ画像に対するユーザ視線に基づいて注目度が変更された場合(ステップS253/Yes)、提示情報更新依頼(重畳表示させるキャラクタに対するユーザの視線に関連する情報)をサーバ2に送信する(ステップS256)。本実施形態では、図16を参照して説明したように、注目度が「高」に変更されることが想定される。
【0097】
そして、メガネ型端末1は、変更した注目度に対応する提示情報をサーバ2から受信する(ステップS259)。
【0098】
一方、サーバ2は、図18に示すように、情報更新依頼をメガネ型端末1から受信した場合(ステップS263/Yes)、提示情報更新部204により、オブジェクト情報に含まれる情報のうち「詳細情報」(例えば「新作の夏物フレアスカートが入荷されたよ!」といった情報)を提示情報として設定し(ステップS266)、メガネ型端末1に提示情報を送信する(ステップS269)。
【0099】
以上説明したように、メガネ型端末1は、ユーザの視線がキャラクタに向くと注目度を「高」に変更し、詳細情報をサーバ2から受信する。
【0100】
そして、メガネ型端末1は、再度、提示方法の設定を行う(ステップS118)。提示方法の設定では、注目度が「高」に変更されたことに応じて、キャラクタの視線をユーザに向ける表示設定、キャラクタの表示サイズを「大」にする設定、および音量を「大」にする設定が行われ得る。そして、設定された提示方法に従って、詳細情報の情報提示が行われる(ステップS121)。
【0101】
上述したステップS118~S133は、電源がOFFされる等、所定の終了条件となるまで繰り替えされる(ステップS133、ステップS136)。
【0102】
以上、本実施形態による動作処理について説明した。なお、本実施形態による情報処理システムは、ユーザに提示する詳細情報をパーソナライズしてもよい。例えばサーバ2は、ユーザ周辺に配置されたカメラにより撮像された撮像画像に基づいてユーザが所持している鞄を認識できた場合、「新作の夏物フレアスカートが入荷されたよ!そのショルダーポーチと合わせてみない!?」とパーソナライズした詳細情報を提示情報として設定し、メガネ型端末1に送信する。また、サーバ2は、オブジェクト情報に含まれる特徴情報を参照して詳細情報をパーソナライズすることも可能である。例えば、オブジェクト情報の特徴情報が「モノクロ(モノクローム)のバッグとコーディネートしやすい」というものであって、さらにユーザの鞄がモノクロであれば、「そのバッグとコーディネートしやすいよ」という情報を詳細情報に追加する。
【0103】
また、本実施形態による情報処理システムは、ユーザからの操作入力や音声入力に応じた動作処理を行うことも可能である。例えば、図1に示すようにキャラクタ画像34を看板30にAR表示し、「新作の夏物フレアスカートが入荷されたよ!」と音声出力した際に、ユーザが興味を持ち、「どうゆう柄?」「写真を見せて」等と音声入力し、さらに詳細な情報を明示的に要求することが可能である。メガネ型端末1は、マイクロホン(不図示)によりユーザ音声を収音し、音声認識処理により意味解析を行うと、ネットワーク上のサーバ2や、店のWebページから情報を収集し、当該スカートの画像を表示したり、質問された柄の内容についてテキストまたは音声により説明したりすることが可能である。このように、本実施形態によるメガネ型端末1は、興味を示したユーザからの問い掛けに答えることで、見逃し情報の提示による宣伝効果をより高めることが可能となる。
【0104】
<1-4.表示例>
上述した実施形態では、図1に示すように、「目」のキャラクタ画像を用いているが、本実施形態はこれに限定されない。例えば、ユーザの視界を撮像した撮像画像に映る構造物のうち、眼に類似した部分をタグ画像として検出し、「口」のキャラクタ画像を眼に類似した部分の下に配置してAR表示することで、シミュラクラ現象を生かしたAR表示を行うことが可能である。以下、図19を参照して具体例について説明する。
【0105】
図19は、本実施形態によるキャラクタ表示の具体例を示す図である。メガネ型端末1は、図19上段に示すように、自動車のヘッドライト部分36をタグ画像として検出した場合、「口」のキャラクタ画像42をヘッドライトの下に配置してAR表示することで、自動車が顔に見えるようにし、ユーザの注目を引き易くすることが可能である。
【0106】
また、メガネ型端末1は、図19中段に示すように、建物の2つの窓部分38をタグ画像として検出した場合、「口」のキャラクタ画像43を窓の下に配置してAR表示することで、家が顔に見えるようにし、ユーザの注目を引き易くすることが可能である。
【0107】
また、メガネ型端末1は、図19下段に示すように、洗面所の2つの水栓ハンドル40をタグ画像として検出した場合、「口」のキャラクタ画像44を水栓ハンドルの下に配置してAR表示することで、洗面所が顔に見えるようにし、ユーザの注目を引き易くすることが可能である。
【0108】
これらの「口」のキャラクタ画像42~44は、静止画または動画(アニメーション)により成る。
【0109】
また、上述した実施形態では「目」のキャラクタ画像を制御してユーザに視線を向けたりユーザから視線を逸らせたりすることが可能であった。一方、図19に示すシミュラクラ現象を生かしたAR表示でも、「口」のキャラクタ画像の向きや、さらに「鼻」のキャラクタ画像を用いることで、顔のように見せた構造物の視線の向きを変更することが可能である。以下、図20を参照して具体的に説明する。
【0110】
図20は、本実施形態による構造物の視線の向きを変更する具体例を示す図である。図20の左側に示す例では、「鼻」のキャラクタ画像45aと「口」のキャラクタ画像46aを右方向に向けてAR表示することで、家屋が右を向いている(ユーザから視線を逸らしている)ように見せることが可能となる。一方、図20の右側に示す例では、「鼻」のキャラクタ画像45bと「口」のキャラクタ画像46bを正面に向けてAR表示することで、家屋が正面を向いている(ユーザに視線を向けている)ように見せることが可能となる。
【0111】
<1-5.補足>
以上説明した第1の実施形態では、図7を参照して説明したように、メガネ型端末1の撮像部12により継続的に撮像するユーザの視界からタグ画像が検出された場合に提示情報の取得処理が行われため、撮像部12の電源が常にONであることが必要となるが、本実施形態はこれに限定されない。例えば、撮像部12の電源をOFFにした状態で、メガネ型端末1が有する位置情報取得部(図示せず)およびジャイロセンサ(図示せず)から取得された現在位置情報および方向情報に基づいて、ユーザの視野範囲を推定し、視野範囲にタグ画像が存在する場合に撮像部12の電源をONにするようにしてもよい。以下、図21を参照して説明する。
【0112】
図21は、タグ画像マップデータの一例を示す図である。図21に示すタグ画像マップデータ150は、例えばメガネ型端末1の記憶部15に記憶されている。メガネ型端末1の制御部10は、タグ画像マップデータ150を用いて、現在位置情報および方向情報に基づきユーザの視野範囲151を推定し、視野範囲151内にタグ画像152存在すると判断することができる。
【0113】
視野範囲151内にタグ画像152存在すると判断した場合、制御部10は、撮像部12の電源をONにしてユーザの視界範囲を撮像してタグ画像を検出し、当該タグ画像から抽出したタグ情報をサーバ2に送信して提示情報を取得する。そして、タグ画像位置にキャラクタ画像をAR表示すると共に、提示情報をユーザに提示することが可能である。
【0114】
なお、タグ画像マップデータはサーバ2側に保存されていてもよい。この場合、メガネ型端末1は、現在位置情報および方向情報をサーバ2に送信してタグ画像有無の問い合わせを行い、サーバ側においてタグ画像の存在有無が判断され、その判断結果がメガネ型端末1に返信される。
【0115】
<<2.第2の実施形態>>
<2-1.概要>
続いて、本開示の第2の実施形態について説明する。上述した第1の実施形態では、実空間からタグ画像を検出した際に「目」や「口」のキャラクタ画像をAR表示して実空間のポイントの見逃しを防止しているが、本開示はこれに限定されない。例えば、ユーザの友人等、登録した顔(オブジェクト(例えば友人)に対応する情報の一例)が少なくとも注視領域外(以下、視野外とも称す)から検出された際にユーザに通知を行い、近くにいるが認識していなかった友人の見逃しを防止することが可能となる。
【0116】
図22は、第2の実施形態による情報処理システムの概要について説明する図である。図22に示すように、本実施形態では、例えばユーザAが歩いている際に、ユーザAの視界には入っていないが近くに居るユーザの友人(ユーザB)の存在をユーザAが装着するヘッドホン装置5(クライアント端末の一例)の音声エージェントにより音声で通知することが可能である。ヘッドホン装置5には、ユーザAと人工音声で会話を行う音声エージェント機能が搭載され、道案内や音楽再生等、様々な情報をユーザに提供する。ユーザAとエージェントとの音声会話は、ヘッドホン装置5に設けられたマイクロホン52およびスピーカ54(図23参照)により実現される。
【0117】
また、ヘッドホン装置5には、少なくともユーザAの視界外(具体的には、注視領域外)を撮像する撮像部51(図23図24参照)が設けられている。ヘッドホン装置5は、撮像部51により周辺を継続的に撮像し、撮像画像から予め登録された顔(ここでは、ユーザBの顔)が検出されると、ユーザAへの通知を行う。登録顔の検出は、ヘッドホン装置5と通信し得るネットワーク上のサーバ6(図23参照)で行われてもよい。
【0118】
以上により、本実施形態によるヘッドホン装置5は、周辺に所定の人物を見つけるとユーザに通知を行い、所定の人物の見逃しを防止することを可能とする。
【0119】
<2-2.構成>
次に、本実施形態による情報処理システムの各構成について図23を参照して説明する。図23に示すように、本実施形態による情報処理システムは、ヘッドホン装置5およびサーバ6を含む。ヘッドホン装置5およびサーバ6は、ネットワーク7を介して接続し、データの送受信を行い得る。以下、各装置の構成について具体的に説明する。
【0120】
(2-2-1.ヘッドホン装置5の構成)
図23に示すように、本実施形態によるヘッドホン装置5は、制御部50、撮像部51、マイクロホン52、通信部53、およびスピーカ54を有する。
【0121】
制御部50は、演算処理装置および制御装置として機能し、各種プログラムに従ってヘッドホン装置5内の動作全般を制御する。制御部50は、例えばCPU、マイクロプロセッサ等の電子回路によって実現される。また、制御部50は、使用するプログラムや演算パラメータ等を記憶するROM、及び適宜変化するパラメータ等を一時記憶するRAMを含んでいてもよい。
【0122】
また、本実施形態による制御部50は、マイクロホン52で収音したユーザ音声をサーバ6へ送信し、サーバ6から受信した応答メッセージ(すなわちエージェント音声)をスピーカ54から出力するよう制御することで、エージェントとの音声会話サービスを提供することができる。また、制御部50は、撮像部51により撮像された撮像画像を継続的に通信部53を介してサーバ6へ送信するよう制御する。
【0123】
撮像部51は、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCDセンサアレイや、CMOSセンサアレイにより実現されてもよい。
【0124】
また、本実施形態による撮像部51は、ユーザがヘッドホン装置5を装着した際にユーザの周辺(少なくともユーザの視界外)を撮像する向きに設けられている。また、撮像部51は複数設けられていてもよい。ここで、図24および図25を参照して、撮像部51の設置例について説明する。
【0125】
図24は、本実施形態による撮像部51の設置例について説明する図である。図24に示すように、例えば90度の視野角を持つ撮像部51a~51dを、少なくともユーザの視野の限界範囲外を撮像するよう、ヘッドホン装置5の左右のハウジング部56R、56Lに2つずつ設置してもよい。
【0126】
図25は、本実施形態による撮像部51の他の設置例について説明する図である。図25に示すように、例えば180度の視野角を持つ撮像部51e、51fを、少なくともユーザの視野の限界範囲外を撮像するよう、ヘッドホン装置5の左右のハウジング部56R、56Lに1つずつ設置してもよい。
【0127】
なお、図24および図25に示す例では、ユーザの視野範囲外を視野角とするカメラを例に挙げたが、本実施形態はこれに限定されず、ユーザの視野範囲内を含めて撮像する撮像部であってもよい。例えばヘッドホン装置5を装着した際に頭上に位置するヘッドセットに、魚眼レンズや双曲面ミラーカメラ等を設けて360度の映像を取得するようにしてもよい。
【0128】
マイクロホン52は、ユーザの音声を収音し、音声信号を制御部50に出力する。
【0129】
通信部53は、外部装置と有線または無線で接続し、データの送受信を行う機能を有する。例えば通信部53は、Wi-Fi(登録商標)、Bluetooth(登録商標)、または無線LAN(Local Area Network)等により、ネットワーク7に接続し、ネットワーク7を介してサーバ6とデータの送受信を行う。
【0130】
スピーカ54は、音声信号を再生する機能を有する。本実施形態によるスピーカ54は、例えば一対のイヤー部により構成され、ヘッドホン装置5を装着した際にユーザの右耳および左耳を各々覆うよう、ハウジング部56R、56L内部に設けられる。また、スピーカ54は、いわゆる骨伝導スピーカとして構成されてもよい。
【0131】
以上、ヘッドホン装置5の構成例について具体的に説明した。
【0132】
(2-2-2.サーバ6の構成)
続いて、サーバ6の構成について説明する。図23に示すように、本実施形態によるサーバ6は、制御部60、通信部61、ユーザプロファイル記憶部62、音素DB63、および顔画像DB64を有する。
【0133】
制御部60は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ6内の動作全般を制御する。制御部60は、例えばCPU、マイクロプロセッサ等の電子回路によって実現される。また、制御部60は、使用するプログラムや演算パラメータ等を記憶するROM、及び適宜変化するパラメータ等を一時記憶するRAMを含んでいてもよい。
【0134】
また、本実施形態による制御部60は、音声/テキスト変換部601、意味理解部602、顔画像認識部603、および応答メッセージ生成部604としても機能する。
【0135】
音声/テキスト変換部601は、ヘッドホン装置5から送信された音声信号を解析し、テキストへの変換を行う。また、音声/テキスト変換部601は、後述する応答メッセージ生成部604により生成された応答メッセージの音声信号への変換も行う。音声信号へ変換する際は、音素DB63に蓄積されている音素データを用いて所定のエージェント音声に変換する。
【0136】
意味理解部602は、音声/テキスト変換部601により変換されたテキストを解析して意味理解を行う。例えば意味理解部602は、形態素解析および構文解析を行ってテキストの意味を理解する。
【0137】
顔画像認識部603は、ヘッドホン装置5から送信された撮像画像を解析し、顔画像の認識を行う。また、顔画像認識部603は、顔画像DB64に登録されている登録顔画像を参照し、顔の特徴量が一致する顔画像があるか否かを判断する。
【0138】
応答メッセージ生成部604は、意味理解部602により解析した意味解析結果に基づいて、ユーザ音声に対する応答メッセージの生成を行う。また、応答メッセージ生成部604は、顔画像認識部603により撮像画像から登録された所定人物の顔画像が認識された場合、当該人物の存在をユーザに通知する応答メッセージを生成する。
【0139】
通信部61は、外部装置と接続し、データの送受信を行う機能を有する。例えば通信部61は、無線または有線LAN(Local Area Network)等により、ネットワーク3に接続し、ヘッドホン装置5とデータの送受信を行う。
【0140】
ユーザプロファイル記憶部62は、ユーザに関する情報を蓄積する。ユーザに関する情報は、例えばエージェント設定情報および友人情報等を含む。
【0141】
音素DB63は、音素データを格納する記憶部である。音素DB63は、エージェント毎の音素データが含まれる。
【0142】
顔画像DB64は、各ユーザの友人等、所定の人物の顔画像情報(画像データや、特徴量データ)を蓄積する記憶部である。
【0143】
<2-3.動作処理>
続いて、本実施形態の動作処理について図26および図27を参照して説明する。図26および図27は、本実施形態による情報処理システムの動作処理を示すシーケンス図である。
【0144】
図26に示すように、まず、ヘッドホン装置5は、ユーザによるヘッドホン装着を検知する(ステップS303)。ヘッドホン装着の検知は、例えばヘッドホン装置5の電源がONされた場合等に検知され得る。
【0145】
次に、ヘッドホン装置5は、ヘッドホン装着をサーバ6に通知する(ステップS306)。この際、ユーザID等のユーザ識別情報も併せてサーバ6に送信する。
【0146】
次いで、サーバ6は、特定ユーザのヘッドホン装着を受信すると(ステップS309)、ユーザプロファイルを参照し、当該特定ユーザに設定されている所定のキャラクタ(エージェントキャラクタ)の音声エージェントを起動する(ステップS312)。これにより、エージェントキャラクタとの音声会話が開始される。
【0147】
次に、ヘッドホン装置5は、マイクロホン52により収音したユーザの音声メッセージ(すなわち発話音声データ)や、撮像部51により撮像した撮像画像(具体的には、少なくとも視界外を撮像した撮像画像)を、継続的にサーバ6に送信する(ステップS315)。
【0148】
次いで、サーバ6は、ヘッドホン装置5から音声メッセージを受信した場合(ステップS318/Yes)、音声/テキスト変換部601により音声メッセージをテキストに変換し(ステップS321)、意味理解部602により形態素解析および構文解析を行い、テキスト化した音声メッセージの意味理解を行う。
【0149】
次に、サーバ6は、応答メッセージ生成部604により、意味理解の結果に応じて応答音声メッセージを生成し(ステップS327)、音声/テキスト変換部601により音声信号に変換した応答音声メッセージをヘッドホン装置5に送信する(ステップS345)。
【0150】
一方、サーバ6が、音声メッセージではなく(ステップS318/No)、撮像画像をヘッドホン装置5から受信した場合(ステップS330/Yes)、ヘッドホン装置5は、顔画像認識部603により顔画像の認識を行う(ステップS333)。
【0151】
次に、顔画像認識部603は、認識した顔画像を、顔画像DB64に予め登録されているユーザの友達等の所定の人物の顔画像と比較し、友達等の所定の人物の顔の認識処理を行う(ステップS336)。
【0152】
次いで、友達等の所定の人物の顔を認識した場合(ステップS336/Yes)、応答メッセージ生成部604は、所定の人物を見つけたことをユーザに知らせる応答音声メッセージを生成する(ステップS327)。
【0153】
一方、友達等の所定の人物を認識せず(ステップS336/No)、所定時間(例えば30秒)音声メッセージを受信しなかった場合(ステップS339/No)、サーバ6の応答メッセージ生成部604は、タイマーリセットと共に、応答音声メッセージを選択する(ステップS342)。例えば応答メッセージ生成部604は、「何しているの?」、「ねぇねぇ」等、ユーザへの呼び掛けメッセージを選択し、生成する。
【0154】
そして、ヘッドホン装置5は、サーバ6から応答音声メッセージを受信すると(ステップS348/Yes)、スピーカ54から応答音声メッセージを再生する(ステップS351)。
【0155】
以上説明したように、本実施形態では、友達等の所定の人物の顔画像を顔画像DB64に予め登録しておき、音声エージェントとユーザが会話中にバックグラウンドで撮像部51により撮像された撮像画像内の顔と顔画像DB64に登録されている顔とをマッチングする。そして、登録されている友達の顔が見つかった場合に音声エージェントがユーザに通知を行う。
【0156】
これにより、本実施形態によるヘッドホン装置5を装着することで、音声エージェントが話相手になったり、ユーザの視界外から友達を見つけた場合にはユーザに知らせることができ、ユーザはいつも誰かと繋がっていられることが可能となる。
【0157】
<2-4.応用例>
続いて、本実施形態の応用例について図面を参照して具体的に説明する。
【0158】
(2-4-1.第1の応用例)
上述した実施形態では、友達を見つけた場合にユーザにお知らせを行っているが、本実施形態はこれに限定されず、見つけられても良い友達だけをユーザに知らせるようにしてもよい。具体的には、バックグラウンドの処理で登録されている友達が見つかった場合、当該友達の通信端末に、ユーザに見つけられてもよいかの承認を得るための通知をコミュニケーションAPI(Application Programming Interface)を介して行い、見つけられてもOKな場合のみ音声エージェントがユーザに通知する。これにより、見つけられたくない友達をユーザに知らせてしまうことを回避することができる。以下、図28図29を参照して具体的に説明する。
【0159】
(構成)
図28は、第1の応用例による情報処理システムの全体構成を示す図である。図28に示すように、第1の応用例による情報処理システムは、ヘッドホン装置5、サーバ6、およびメッセンジャーサーバ8を含む。
【0160】
ヘッドホン装置5およびサーバ6の構成は図23を参照して説明した構成と同様であるため、ここでの図示および説明は省略する。
【0161】
メッセンジャーサーバ8は、コミュニケーションAPIを実現するサーバであって、制御部80、通信部81、メッセージ履歴記憶部82、およびユーザアドレスDB83を有する。
【0162】
制御部80は、通信部81を介して各ユーザの通信端末と接続し、データの送受信を行う。具体的には、制御部80は、ユーザ間のメッセージの送受信を行い得る。また、制御部80は、サーバ6からのリクエストに応じて、所定のユーザの通信端末に問い合わせメッセージを送信し、ユーザからの回答をサーバ6に返信するよう制御する。
【0163】
メッセージ履歴記憶部82は、各ユーザ間でやり取りされたメッセージを記憶する。
【0164】
ユーザアドレスDB83は、各ユーザのアドレスを記憶する。
【0165】
(動作処理)
図29は、第1の応用例による情報処理システムの動作処理を示すフローチャートである。ここでは、主に図26および図27を参照して説明した動作処理と異なる部分について図示して説明する。
【0166】
本応用例においても、図26および図27に示すステップS303~S351の処理が行われ、エージェントとの音声会話が提供される。
【0167】
また、本応用例では、サーバ6が顔画像認識部603により友達の顔(ここでは、「ユーザB」とする)を認識した場合(ステップS336/Yes)、ユーザ(ここでは、「ユーザA」とする)のヘッドホン装置5に見つけられてもOKか否かをユーザBに確認するリクエストをメッセンジャーサーバ8に送信する(ステップS363)。
【0168】
次に、メッセンジャーサーバ8は、ユーザBの通信端末(スマートフォン、携帯電話端末、タブレット端末、またはウェアラブル装置等)に問い合わせメッセージを送信する(ステップS366)。具体的には、メッセンジャーサーバ8は、ユーザAのヘッドホン装置5に見つけられてもOKか否かを問い合わせる。ユーザBの通信端末から当該問い合せが音声または表示により出力されると、ユーザBは、OKか否かの回答を行う。
【0169】
次いで、ユーザBの回答を受信すると、メッセンジャーサーバ8は、回答をサーバ6に通知する(ステップS369)。
【0170】
そして、サーバ6は、ユーザBの承認を得られた場合(ステップS342/Yes)、応答メッセージ生成部604により、ユーザBを見つけたことをユーザAに知らせる応答音声メッセージを生成する(ステップS327)。
【0171】
一方、ユーザBの承認を得られなかった場合(ステップS342/No)、サーバ6は、ユーザBを見つけたことを知らせる応答音声メッセージは生成しない。
【0172】
以上説明したように、第1の応用例では、ユーザAのヘッドホン装置5に見つけられても、見つけられた本人の承認が無ければユーザAには通知されないようにすることができる。
【0173】
(2-4-2.第2の応用例)
次に、本実施形態による情報処理システムは、友達を見つけたことを通知する際に、友達が居る方向を通知することが可能である。具体的には、バックグラウンドの処理で登録されている友達が見つかった場合、友達の位置とユーザの位置との相対関係に基づいて、友達が居る方向をユーザに通知することが可能である。以下、図30図32を参照して具体的に説明する。
【0174】
(構成)
図30は、第2の応用例による情報処理システムの全体構成を示す図である。図30に示すように、第2の応用例による情報処理システムは、ヘッドホン装置5a、サーバ6a、およびメッセンジャーサーバ8を含む。ここでは、一例として上記第1の応用例で説明したメッセンジャーサーバ8も含むことで、見つけられた友達の承認が得られた場合にユーザに通知する機能も備える場合について説明する。
【0175】
また、ヘッドホン装置5aは、図23を参照して説明した構成に加えて、位置・方向検出部55を有する。位置・方向検出部55は、ヘッドホン装置5の位置情報を検出する機能と、ヘッドホン装置5の向きを検出する機能とを有する。位置情報を検出する機能は、例えばGPS(Global Positioning System)測位部により実現され、GPS衛星からの電波を受信して、ヘッドホン装置5が存在している位置を検知し、検知した位置情報を制御部50に出力する。また、位置情報を検出する機能は、GPSの他、例えばWi-Fi(登録商標)、Bluetooth(登録商標)、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により位置を検知するものにより実現されてもよい。また、向きを検出する機能は、ジャイロセンサまたは地磁気センサにより実現され、ヘッドホン装置5aを装着するユーザが向いている方向を検出し得る。
【0176】
サーバ6aは、図23を参照して説明した構成に加えて、制御部60の機能として方向算出部605を有する。
【0177】
方向算出部605は、ユーザの現在位置と、顔画像認識部603により認識した友達の位置とに基づいて、ユーザBが居る方向を算出する。ユーザBがいる方向は、「右後ろにいます」「左後ろにいます」等、ユーザAの向きを基準としてもよいし、周辺に存在する目印となるポイントを用いて、「○○ビルの方向にいます」「○○駅の方向にいます」等としてもよい。
【0178】
(動作処理)
図31および図32は、第2の応用例による情報処理システムの動作処理を示すフローチャートである。なお、図26および図27を参照して説明した動作処理と同様の処理については、同じステップ番号を付している。
【0179】
図31に示すように、まず、ヘッドホン装置5aは、ヘッドホン装着を検知すると(ステップS303)、サーバ6aに通知する(ステップS306)。
【0180】
次に、サーバ6aは、特定ユーザのヘッドホン装着を受信すると(ステップS309)、設定されている所定のキャラクタ(エージェントキャラクタ)の音声エージェントを起動する(ステップS312)。
【0181】
次いで、ヘッドホン装置5aは、音声メッセージ、または位置・方向検出部55により検出された位置情報と向き情報を付加した撮像画像をサーバ6aに継続的に送信する(ステップS316)。
【0182】
次に、サーバ6aは、ヘッドホン装置5aから音声メッセージを受信した場合(ステップS318/Yes)、音声/テキスト変換部601により音声メッセージをテキストに変換し(ステップS321)、意味理解部602により形態素解析および構文解析を行い、テキスト化した音声メッセージの意味理解を行う。
【0183】
次に、サーバ6aは、応答メッセージ生成部604により、意味理解の結果に応じて応答音声メッセージを生成し(ステップS328)、音声/テキスト変換部601により音声信号に変換した応答音声メッセージをヘッドホン装置5aに送信する(ステップS345)。
【0184】
一方、サーバ6aが、音声メッセージではなく(ステップS318/No)、撮像画像をヘッドホン装置5aから受信した場合(ステップS330/Yes)、ヘッドホン装置5aは、顔画像認識部603により顔画像の認識を行う(ステップS333)。
【0185】
次に、顔画像認識部603は、認識した顔画像を、顔画像DB64に予め登録されているユーザの友達等の所定の人物の顔画像と比較し、友達の顔(ここでは、「ユーザB」とする)を認識した場合(ステップS336/Yes)、ユーザ(ここでは、「ユーザA」とする)のヘッドホン装置5aに見つけられてもOKか否かをユーザBに確認するリクエストをメッセンジャーサーバ8に送信する(ステップS363)。
【0186】
次に、メッセンジャーサーバ8は、ユーザBの通信端末に問い合わせメッセージを送信する(ステップS367)。この際、メッセンジャーサーバ8は、ユーザBの現在位置情報の要求も行う。
【0187】
次いで、ユーザBの回答を受信すると、メッセンジャーサーバ8は、回答をサーバ6aに通知する(ステップS369)。この際、回答にはユーザBの通信端末で得られた現在位置情報が付加され得る。
【0188】
続いて、サーバ6aは、ユーザBの承認および位置情報を得られた場合(ステップS343/Yes)、方向算出部605により、ヘッドホン装置5aの位置および向きと、ユーザの位置から、ユーザAに対するユーザBの相対的位置関係を特定する(ステップS344)。なおユーザBの方向を示す情報は、上述したように、周辺に存在する目印となる建物等を用いたものであってもよい。
【0189】
そして、サーバ6aは、応答メッセージ生成部604により、ユーザBを見つけたことおよびユーザBが居る方向をユーザAに知らせる応答音声メッセージを生成する(ステップS328)。
【0190】
以上説明したように、第2の応用例では、友達を見つけた場合、友達が居る方向も併せてユーザAに通知することが可能となる。
【0191】
(2-4-3.第3の応用例)
上述した実施形態および応用例では、撮像画像から登録された顔画像を認識する処理をサーバ6側で行っているが、本実施形態はこれに限定されず、ヘッドホン装置5側で友達を見つける処理を行うことも可能である。以下、図33図34を参照して説明する。
【0192】
(構成)
図33は、第3の応用例による情報処理システムの全体構成を示す図である。図33に示すように、第3の応用例による情報処理システムは、ヘッドホン装置5bおよびサーバ6bを含む。
【0193】
ヘッドホン装置5bは、図23を参照して説明した構成に加えて、ユーザプロファイル記憶部56、音素DB57、および顔画像DB58を有する。また、ヘッドホン装置5bの制御部50bは、顔画像認識部501および応答メッセージ生成部502として機能する。
【0194】
ユーザプロファイル記憶部56、音素DB57、および顔画像DB58は、図23を参照して説明したサーバ6のユーザプロファイル記憶部62、音素DB63、および顔画像DB64と同様に、ユーザに関する情報、音素データ、およびユーザの友人等所定の人物の顔画像情報をそれぞれ蓄積する。
【0195】
顔画像認識部501は、撮像部51により撮像された、少なくとも視界外の撮像画像を解析し、顔画像の認識を行う。また、顔画像認識部501は、顔画像DB58に登録されている登録顔画像(友達の顔画像)を参照し、顔の特徴量が一致する顔画像が撮像画像内にあるか否かを判断する。
【0196】
応答メッセージ生成部502は、顔画像認識部501により撮像画像から登録された所定人物の顔画像が認識された場合、当該人物の存在をユーザに通知する応答メッセージを生成する。
【0197】
(動作処理)
図34は、第3の応用例による情報処理システムの動作処理を示すフローチャートである。なお、図26および図27を参照して説明した動作処理と同様の処理については、同じステップ番号を付している。
【0198】
図34に示すように、まず、ヘッドホン装置5bは、ヘッドホン装着を検知すると(ステップS303)、サーバ6bに通知する(ステップS306)。
【0199】
次に、サーバ6bは、特定ユーザのヘッドホン装着を受信すると(ステップS309)、設定されている所定のキャラクタ(エージェントキャラクタ)の音声エージェントを起動する(ステップS312)。
【0200】
次いで、ヘッドホン装置5bは、音声メッセージをサーバ6aに継続的に送信し(ステップS317)、サーバ6b側で音声メッセージの意味理解が行われ(ステップS318~S324)、応答音声メッセージが生成される(ステップS327)。
【0201】
また、所定時間(例えば30秒)以上音声メッセージの受信が無い場合は(ステップS339/Yes)、自動的に応答音声メッセージが選択される(ステップS342)。
【0202】
そして、サーバ6bから応答音声メッセージを受信すると(ステップS348/Yes)、ヘッドホン装置5bは、エージェントの応答音声メッセージをスピーカ54から再生する(ステップS351)。
【0203】
さらに、本実施形態によるヘッドホン装置5bは、顔画像認識部501により、撮像した画像から顔画像の認識を行う(ステップS403)。この際、顔画像認識部501は、顔画像DB58に予め登録されている友達の顔と、認識した顔とのマッチングも行う。
【0204】
次いで、撮像画像から友達の顔を認識できた場合(ステップS406/Yes)、ヘッドホン装置5bは、応答メッセージ生成部502により、友達を見つけた旨の応答音声メッセージを生成する(ステップS409)。また、応答メッセージ生成部502は、音素DB57に格納されている特定エージェントの音素データを用いて、生成した応答メッセージを音声信号に変換する。
【0205】
そして、ヘッドホン装置5bは、生成されたエージェントの応答音声メッセージをスピーカ54から再生する(ステップS351)。
【0206】
以上説明したように、第3の応用例では、ヘッドホン装置5単体でも友達を見つけてユーザに通知することが可能である。
【0207】
<2-5.補足>
以上説明した第2の実施形態について、以下補足する。
【0208】
本実施形態では、音声エージェントが複数設定されていてもよく、ユーザが名前を呼ぶことでエージェントを選択して会話できるようにしてもよい。具体的には、特開2002-358092号公報に記載されているように、複数の音声エージェント用に複数セットの音素を音素DBに蓄積しておくことで実現可能である。名前と音素DBを関連付けておくことで、サーバ6は、音声認識処理によりユーザから指定されたエージェントの名前を検知すると、自動的に音素を切り替えることが可能である。また、ユーザは、音声エージェントの声質で音声エージェントを選択することも可能である。
【0209】
また、上述した第2の応用例において、友達の音素データが音素DBに登録されている場合、音像定位の技術と組み合わせて、友達が居る方向から友達の声でユーザに呼びかけるような応答音声メッセージを再生することも可能である。
【0210】
また、友達を見つけた場合に、ユーザ自身の位置情報をメッセンジャーサーバ8等を介して友達に通知し、友達の通信端末においてナビゲーションを開始させてもよい。
【0211】
また、ユーザが忙しい場合や急いでいる場合等もあるため、本実施形態による友達を見つける機能をOFFすることも可能である。
【0212】
また、上述した第1の応用例では、見つけられたユーザ側での承認処理が必要であるが、承認の手間を省くため、予め友達に見つけられてよいか否かをスマートフォンやヘッドホン装置の音声エージェントにより設定しておくことも可能である。
【0213】
また、ヘッドホン装置5は、さらにユーザの視界方向(前方)を撮像する撮像部を有していてもよい。
【0214】
また、上述した第3の応用例では、友達を見つける処理をヘッドホン装置5で行う場合について説明したが、さらに音声エージェントの会話生成処理もヘッドホン装置5で行うようにしてもよい。
【0215】
また、上述した第2の実施形態および各応用例では、ヘッドホン装置5が通信部53を介してネットワーク上のサーバ6と直接通信するようなシステム構成としたが、本実施形態はこれに限定されず、ユーザが所持するスマートフォン等の外部の通信端末を介してサーバ6と通信する構成としてもよい。
【0216】
<<3.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、ユーザが見逃している情報を提示することが可能となる。
【0217】
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0218】
例えば、上述したメガネ型端末1、サーバ2、ヘッドホン装置5、またはサーバ6に内蔵されるCPU、ROM、およびRAM等のハードウェアに、メガネ型端末1、サーバ2、ヘッドホン装置5、またはサーバ6の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
【0219】
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
【0220】
なお、本技術は以下のような構成も取ることができる。
(1)クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信し、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信するように制御する制御部と、
を備える、サーバ。
(2)前記制御部は、前記クライアント端末の撮像部により取得されたユーザの視界画像から、前記ユーザの興味情報に応じたオブジェクトに対応する情報を抽出し、前記オブジェクトに対応する情報に対して重畳表示させるキャラクタを示すキャラクタ情報と、前記ユーザに提示する提示情報を前記クライアント端末に送信するように制御する、前記(1)に記載のサーバ。
(3)前記制御部は、ユーザ情報に関連するオブジェクトに関連する情報と前記ユーザの興味情報との比較に基づいて、前記ユーザに提示する提示情報を決定する、前記(2)に記載のサーバ。
(4)ユーザ情報に関連するオブジェクトに対応する情報に対して重畳表示させるキャラクタに対する前記ユーザの視線に関連する情報を受信すると、
前記制御部は、前記ユーザの視線に関連する情報に応じて、前記ユーザに提示する提示情報の内容を変更する、前記(1)~(3)のいずれか1つに記載のサーバ。
(5)前記ユーザの視線に関連する情報は、提示情報更新依頼である、前記(4)に記載のサーバ。
(6)前記制御部は、前記提示情報更新依頼に応じて、さらに詳細な情報に変更する、前記(5)に記載のサーバ。
(7)前記重畳表示させるキャラクタに対するユーザの視線に関連する情報は、前記ユーザが前記キャラクタに注目したことに関する情報である、前記(4)に記載のサーバ。
(8)前記制御部は、
前記クライアント端末のユーザによって入力される音声の意味を理解し、対応する音声メッセージをクライアント端末に送信する機能する、前記(1)に記載のサーバ。
(9)前記制御部は、
前記クライアント端末の撮像部により撮像される、少なくとも、前記ユーザの視界外の画像から前記予め登録されている人物が検知されると、それを前記ユーザに通知するための音声メッセージを前記クライアント端末に送信するように制御する、前記(8)に記載のサーバ。
(10)前記制御部は、
前記クライアント端末の撮像部により撮像される画像と共に、当該クライアント端末の位置と向きの情報を取得し;
さらに、
前記予め登録されている人物のアカウントに、前記ユーザへの通知の許諾と現在の位置情報を要求するリクエストを送信し;
前記リクエストに応じて受信した、前記ユーザへの通知の許諾の要求に対する承認と、前記位置情報とに応じて、前記予め登録されている人物がいる方向を示す情報を前記ユーザに通知するための音声メッセージを前記クライアント端末に送信するように;
通信部を制御する、前記(8)または(9)に記載のサーバ。
(11)撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力するように制御する制御部を備えるクライアント端末。
(12)前記制御部は、
前記画像における前記ユーザの興味情報に関連するオブジェクトに対して、キャラクタ情報を重畳表示すると共に、前記ユーザに提示する提示情報を出力するように前記出力部を制御する、前記(11)に記載のクライアント端末。
(13)前記制御部は、
撮像部により撮像される画像から予め登録されている人物が検知されると、当該人物が検知されたことをユーザに通知するための音声メッセージを出力するように前記出力部を制御する、前記(11)に記載のクライアント端末。
(14)プロセッサが、
クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信することと、
前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信することと、
を含む、制御方法。
(15)コンピュータを、
クライアント端末の撮像部により取得された画像から検知された予め登録されている登録ユーザのアカウントに、前記クライアント端末のユーザへの通知の許諾を要求するリクエストを送信し、前記リクエストに応じて受信した応答に応じて、前記ユーザに通知するためのメッセージを前記クライアント端末に送信するように制御する制御部として機能させるためのプログラム。
(16)プロセッサが、
撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力することを含む、制御方法。
(17)コンピュータを、
撮像部により撮像された画像をサーバに送信し、前記画像から予め登録されている登録ユーザが検知されたとき、前記登録ユーザによる承認に応じて、前記登録ユーザが検知されたことを通知するためのメッセージを前記サーバから受信すると共に出力部を介してユーザに前記メッセージを出力するように制御する制御部として機能させるためのプログラム。
【符号の説明】
【0221】
1 メガネ型端末
2 サーバ
3 ネットワーク
5 ヘッドホン装置
6 サーバ
7 ネットワーク
8 メッセンジャーサーバ
10 制御部
101 タグ画像検出部
102 提示情報取得部
103 提示方法設定部
104 情報提示制御部
105 ユーザ行動検出部
106 提示情報更新部
11 通信部
12 撮像部
13 表示部
14 音声出力部
15 記憶部
16 視線検出部
20 制御部
201 オブジェクト情報取得部
202 注目度設定部
203 提示情報提供部
204 提示情報更新部
21 通信部
22 ユーザ情報DB
23 オブジェクト情報DB
30 看板
32 タグ画像
34 キャラクタ画像
50 制御部
51 撮像部
52 マイクロホン
53 通信部
54 スピーカ
55 位置・方向検出部
56 ユーザプロファイル記憶部
60 制御部
601 テキスト変換部
602 意味理解部
603 顔画像認識部
604 応答メッセージ生成部
605 方向算出部
61 通信部
62 ユーザプロファイル記憶部
63 音素DB
64 顔画像DB
80 制御部
81 通信部
82 メッセージ履歴記憶部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27
図28
図29
図30
図31
図32
図33
図34