(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6887198
(24)【登録日】2021年5月20日
(45)【発行日】2021年6月16日
(54)【発明の名称】ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
(51)【国際特許分類】
G06F 3/01 20060101AFI20210603BHJP
G06F 3/0487 20130101ALI20210603BHJP
G06F 3/0481 20130101ALI20210603BHJP
G06F 3/0484 20130101ALI20210603BHJP
G06T 19/00 20110101ALI20210603BHJP
G06F 16/53 20190101ALI20210603BHJP
G06F 13/00 20060101ALI20210603BHJP
【FI】
G06F3/01 510
G06F3/0487
G06F3/0481 150
G06F3/0484
G06T19/00 600
G06F16/53
G06F13/00 540E
【請求項の数】11
【全頁数】10
(21)【出願番号】特願2019-526045(P2019-526045)
(86)(22)【出願日】2017年6月28日
(86)【国際出願番号】JP2017023815
(87)【国際公開番号】WO2019003360
(87)【国際公開日】20190103
【審査請求日】2019年12月9日
【前置審査】
(73)【特許権者】
【識別番号】500521522
【氏名又は名称】株式会社オプティム
(74)【代理人】
【識別番号】100177220
【弁理士】
【氏名又は名称】小木 智彦
(72)【発明者】
【氏名】菅谷 俊二
【審査官】
▲高▼瀬 健太郎
(56)【参考文献】
【文献】
特開2015−057659(JP,A)
【文献】
米国特許出願公開第2016/0011421(US,A1)
【文献】
米国特許第08963807(US,B1)
【文献】
特開2002−149478(JP,A)
【文献】
特開2017−049763(JP,A)
【文献】
特開2015−153157(JP,A)
【文献】
特開2015−210580(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/0481
G06F 3/0484
G06F 3/0487
G06F 13/00
G06F 16/53
G06T 19/00
(57)【特許請求の範囲】
【請求項1】
ウェアラブル端末の表示板に、人物の人物情報を表示するウェアラブル端末表示システムであって、
ウェアラブル端末の視界に入った人物の画像を取得する画像取得手段と、
前記画像を画像解析して、人物を特定する特定手段と、
前記人物の人物情報を収集する収集手段と、
前記ウェアラブル端末の表示板を透過して見える前記人物に対して、選択対象の選択を受け付ける選択受付手段と、
前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記選択対象にだけ合わせて、前記人物情報を拡張現実として表示するとともに、当該人物と当該人物情報とを異なる表示態様で表示し、当該人物情報のオン/オフを切り替える人物情報表示手段と、
を備えるウェアラブル端末表示システム。
【請求項2】
前記収集手段は、予め人物情報が登録されたデータベースを参照して、前記人物の人物情報を収集する
請求項1に記載のウェアラブル端末表示システム。
【請求項3】
前記収集手段は、前記人物に予め紐付けられたWebコンテンツにアクセスして、前記人物情報を収集する
請求項1に記載のウェアラブル端末表示システム。
【請求項4】
前記収集手段は、前記人物をインターネット検索して、検索されたWebコンテンツから前記人物情報を収集する
請求項1に記載のウェアラブル端末表示システム。
【請求項5】
前記表示された人物情報が閲覧されたかどうかを判定する判定手段と、
前記閲覧されたと判定された場合、人物情報を閲覧済みに変更する変更手段と、
を備える請求項1に記載のウェアラブル端末表示システム。
【請求項6】
前記表示された人物情報が閲覧されたかどうかを判定する判定手段と、
前記閲覧されていないと判定された場合、人物情報が閲覧されるように注目度を変更する変更手段と、
を備える請求項1に記載のウェアラブル端末表示システム。
【請求項7】
前記表示された人物情報に対するアクションを検出する検出手段と、
前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記人物に対して、前記アクションに応じた結果を拡張現実として表示するアクション結果表示手段と、
を備える請求項1に記載のウェアラブル端末表示システム。
【請求項8】
前記ウェアラブル端末の、端末位置と撮像方向と、を取得する位置方向取得手段と、
前記端末位置と前記撮像方向とに基づいて、前記人物の人物位置を推測する推測手段と、
を備え、
前記特定手段は、前記人物位置と前記画像解析とから、前記人物を特定する
請求項1に記載のウェアラブル端末表示システム。
【請求項9】
前記ウェアラブル端末の表示板に、前記人物を撮像するためのガイドラインを拡張現実として表示するガイドライン表示手段を備え、
前記画像取得手段は、前記ガイドラインに沿って撮像された前記画像を取得する
請求項1に記載のウェアラブル端末表示システム。
【請求項10】
ウェアラブル端末の表示板に、人物の人物情報を表示するウェアラブル端末表示システムが実行するウェアラブル端末表示方法であって、
ウェアラブル端末の視界に入った人物の画像を取得する画像取得ステップと、
前記画像を画像解析して、人物を特定する特定ステップと、
前記人物の人物情報を収集する収集ステップと、
前記ウェアラブル端末の表示板を透過して見える前記人物に対して、選択対象の選択を受け付けるステップと、
前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記選択対象にだけ合わせて、前記人物情報を拡張現実として表示するとともに、当該人物と当該人物情報とを異なる表示態様で表示し、当該人物情報のオン/オフを切り替える人物情報表示ステップと、
を備えるウェアラブル端末表示方法。
【請求項11】
ウェアラブル端末表示システムに、
ウェアラブル端末の視界に入った人物の画像を取得する画像取得ステップ、
前記画像を画像解析して、人物を特定する特定ステップ、
前記人物の人物情報を収集する収集ステップ、
前記ウェアラブル端末の表示板を透過して見える前記人物に対して、選択対象の選択を受け付けるステップ、
前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記選択対象にだけ合わせて、前記人物情報を拡張現実として表示するとともに、当該人物と当該人物情報とを異なる表示態様で表示し、当該人物情報のオン/オフを切り替える人物情報表示ステップ、
を実行させるためのコンピュータ読み取り可能なプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して、収集された人物の人物情報を拡張現実として表示するウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラムに関する。
【背景技術】
【0002】
近年、人物情報のIT化が進んでいる。例えば、鏡の設置場所を考慮し、鏡の前に居る人物に対して必要な情報を適切なタイミングで提供する表示装置が提供されている(特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2015-210797号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1のシステムは、鏡の前にいる人物に対して情報を提供するものであり、第三者の情報を提供できない問題がある。
【0005】
本発明は、上記課題に鑑み、ウェアラブル端末の視界の画像から人物を特定して、人物に応じて収集した人物情報をウェアラブル端末の表示板に拡張現実として表示するウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明では、以下のような解決手段を提供する。
【0007】
第1の特徴に係る発明は、ウェアラブル端末の表示板に、人物の人物情報を表示するウェアラブル端末表示システムであって、ウェアラブル端末の視界に入った人物の画像を取得する画像取得手段と、前記画像を画像解析して
、人物を特定する特定手段と、前記人物の人物情報を収集する収集手段と、
前記ウェアラブル端末の表示板を透過して見える前記人物に対して、選択対象の選択を受け付ける選択受付手段と、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記
選択対象にだけ合わせて、前記人物情報を拡張現実として表示するとともに、当該人物と当該人物情報とを異なる表示態様で表示し、当該人物情報のオン/オフを切り替える人物情報表示手段と、を備えるウェアラブル端末表示システムを提供する。
【0008】
第1の特徴に係る発明は、ウェアラブル端末の表示板に、人物の人物情報を表示するウェアラブル端末表示システムが実行するウェアラブル端末表示方法であって、ウェアラブル端末の視界に入った人物の画像を取得する画像取得ステップと、前記画像を画像解析して
、人物を特定する特定ステップと、前記人物の人物情報を収集する収集ステップと、
前記ウェアラブル端末の表示板を透過して見える前記人物に対して、選択対象の選択を受け付けるステップと、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記
選択対象にだけ合わせて、前記人物情報を拡張現実として表示するとともに、当該人物と当該人物情報とを異なる表示態様で表示し、当該人物情報のオン/オフを切り替える人物情報表示ステップと、を備えるウェアラブル端末表示方法を提供する。
【0009】
第1の特徴に係る発明は、
ウェアラブル端末表示システムに、ウェアラブル端末の視界に入った人物の画像を取得する画像取得ステップ、前記画像を画像解析して
、人物を特定する特定ステップ、前記人物の人物情報を収集する収集ステップ、
前記ウェアラブル端末の表示板を透過して見える前記人物に対して、選択対象の選択を受け付けるステップ、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記
選択対象にだけ合わせて、前記人物情報を拡張現実として表示するとともに、当該人物と当該人物情報とを異なる表示態様で表示し、当該人物情報のオン/オフを切り替える人物情報表示ステップ、を実行させるためのコンピュータ読み取り可能なプログラムを提供する。
【発明の効果】
【0010】
人物をウェアラブル端末の視界に入れるだけで、ウェアラブル端末の表示板に人物の人物情報を表示できる。
【図面の簡単な説明】
【0011】
【
図1】
図1は、ウェアラブル端末表示システムの概要図である。
【
図2】
図2は、ウェアラブル端末の表示板に人物の人物情報を収集して表示した一例である。
【発明を実施するための形態】
【0012】
以下、本発明を実施するための最良の形態について説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
【0013】
本発明のウェアラブル端末表示システムは、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して、収集された人物情報を拡張現実として表示するシステムである。ウェアラブル端末とはスマートグラスやヘッドマウントディスプレイなどの視界がある端末のことをいう。
【0014】
本発明の好適な実施形態の概要について、
図1に基づいて説明する。
図1は、本発明の好適な実施形態であるウェアラブル端末表示システムの概要図である。
【0015】
図1にあるように、ウェアラブル端末表示システムは、制御部が所定のプログラムを読み込むことで実現される、画像取得手段、特定手段、収集手段、人物情報表示手段、を備える。また図示しないが、同様に、判定手段、変更手段、検出手段、アクション結果表示手段、位置方向取得手段、推測手段、ガイドライン表示手段、選択受付手段、を備えてもよい。これらは、アプリケーション型、クラウド型またはその他であってもよい。上述の各手段が、単独のコンピュータで実現されてもよいし、2台以上のコンピュータ(例えば、サーバと端末のような場合)で実現されてもよい。
【0016】
画像取得手段は、ウェアラブル端末の視界に入った人物の画像を取得する。ウェアラブル端末のカメラで撮像された画像を取得してもよい。または、ウェアラブル端末以外であっても、このような画像を取得できるのであれば、それでも構わない。画像とは動画でも静止画でもよい。リアルタイムに人物情報を表示するためには、リアルタイムな画像の方が好ましい。
【0017】
特定手段は、画像を画像解析して人物を特定する。例えば、人物が、山田太郎さんであるのか、佐藤花子さんであるのか、鈴木一郎さんであるのか、などを特定する。色、形、大きさ、特徴、などから人物を特定できる。人物はこれらに限らない。また、映った人物の全てを特定してしまうと時間が掛かる場合には、ウェアラブル端末の視界の中央にある人物だけを特定してもよい。視界の中央にある人物だけを特定することで、特定に要する時間を大幅に短縮できる。機械学習によって画像解析の精度を向上させてもよい。例えば、人物の過去画像を教師データとして機械学習を行う。
【0018】
収集手段は、人物に応じた人物情報を収集する。人物情報とは、氏名・性別・年齢・住所・職業・役職・家族構成などである。人物情報はこれらに限らない。予め人物情報が登録されたデータベースを参照して人物に応じた人物情報を収集してもよい。例えば、名刺情報などが登録されたデータベースを参照すれば収集できる。また、人物に予め紐付けられたWebコンテンツにアクセスして人物情報を収集してもよい。例えば、人物と人物情報とを紐づけるURLなど割当てることでWebコンテンツから収集できる。また、人物をインターネット検索して検索されたWebコンテンツから人物情報を収集してもよい。例えば、ホームページなどに人物情報が掲載されているケースがあるので、インターネット検索から収集できる。または、SNS(social networking service)や口コミサイトなどから、人物情報を収集できることもある。
【0019】
人物情報表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して人物情報を拡張現実として表示する。例えば
図2にあるように、ウェアラブル端末の表示板に、表示板を透過して見える実線で描かれた人物に対して、破線で描かれた人物情報を拡張現実として表示している。ここでは理解のために、実線は実物、破線は拡張現実、としている。表示板を透過して見える実線で描かれた人物に対して人物情報を拡張現実で表示することで、人物にどのような人物情報があるのかを視覚的に把握することが出来る。拡張現実として表示する人物情報は、表示板を透過して見える人物に重なるように表示しても良いが、人物が見づらくなるので、人物情報の表示ON/OFFを切り替えられるようにしてもよい。
【0020】
判定手段は、表示された人物情報が閲覧されたかどうかを判定する。閲覧中の画像を取得して画像解析をすることで、人物情報が閲覧されたかどうかを判定してもよい。また、ウェアラブル端末のセンサ情報や、閲覧者に装着されたセンサ情報などから、人物情報が閲覧されたかどうかを判定してもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
【0021】
変更手段は、閲覧されたと判定された場合は人物情報を閲覧済みに変更し、閲覧されていないと判定された場合は人物情報が閲覧されるように注目度を変更する。このようにすることで、どの人物情報が、閲覧されたのか、閲覧されていないのか、を視覚的に把握できる。例えば、人物情報のチェックボックスにチェックを入れることで閲覧済としてもよい。例えば、人物情報にスタンプを押すことで閲覧済としてもよい。また、注目度の変更は、人物情報の色・サイズを変更したり、人物情報が目立つようにスタンプを押したりしてもよい。
【0022】
検出手段は、表示された人物情報に対するアクションを検出する。アクションは、例えば、ジェスチャーや、手の動き、視線の動き、などである。閲覧中の画像を取得して画像解析をすることで、人物情報に対するアクションを検出できる。また、ウェアラブル端末のセンサ情報や、閲覧者に装着されたセンサ情報などから、人物情報に対するアクションを検出してもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
【0023】
アクション結果表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して、アクションに応じた結果を拡張現実として表示する。例えば、人物情報を消すアクションを検出したら人物情報の表示を消してよい。例えば、人物情報に付けられたリンクを開くアクションを検出したらリンクを開いてもよい。例えば、人物情報のページをめくるアクションを検出したらページをめくってもよい。もちろん他のアクションでもよい。
【0024】
位置方向手段は、ウェアラブル端末の端末位置と撮像方向とを取得する。例えば、端末位置は、ウェアラブル端末のGPS(Global Positioning System)から取得できる。例えば、撮像方向は、ウェアラブル端末で撮像する場合は、ウェアラブル端末の地磁気センサや加速度センサから取得できる。これら以外から取得してもよい。
【0025】
推測手段は、端末位置と撮像方向とに基づいて、人物の人物位置を推測する。端末位置と撮像方向が分かっていれば、撮像された人物の人物位置を推測することができる。
【0026】
また、特定手段は、人物位置と画像解析とから、人物を特定してもよい。位置の情報を利用することで特定の精度を向上することができる。例えば、位置の情報によって、山田太郎さんだと特定する精度が向上できれば、それに対応して表示する人物情報の信頼度も向上する。
【0027】
ガイドライン表示手段は、ウェアラブル端末の表示板に、人物を撮像するためのガイドラインを拡張現実として表示する。例えば、枠や十字などのガイドラインを表示してもよい。ガイドラインに沿って撮像してもらうことで画像解析がしやすくなる。
【0028】
また、取得手段は、ガイドラインに沿って撮像された画像を取得してもよい。ガイドラインに沿って撮像された画像だけを取得して画像解析することで、効率良く人物を特定できる。
【0029】
選択受付手段は、ウェアラブル端末の表示板を透過して見える人物に対して、選択対象の選択を受け付ける。例えば、ウェアラブル端末の表示板を透過して見える人物を一定時間見ることで選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える人物にタッチして選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える人物にカーソルを合わせることで選択対象の選択を受け付けてもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
【0030】
また、人物情報表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える選択対象にだけ合わせて、人物情報を拡張現実として表示してもよい。選択された選択対象にだけ合わせて人物情報を拡張現実として表示するので、ピンポイントに人物情報を把握することができる。特定された全ての人物に人物情報を表示すると表示板の画面が煩わしくなることがある。
[動作の説明]
【0031】
次に、ウェアラブル端末表示方法について説明する。本発明のウェアラブル端末表示方法は、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して、収集された人物情報を拡張現実として表示する方法である。
【0032】
ウェアラブル端末表示方法は、画像取得ステップ、特定ステップ、収集ステップ、人物情報表示ステップ、を備える。また図示しないが、同様に、判定ステップ、変更ステップ、検出ステップ、アクション結果表示ステップ、位置方向取得ステップ、推測ステップ、ガイドライン表示ステップ、選択受付ステップ、を備えてもよい。
【0033】
画像取得ステップは、ウェアラブル端末の視界に入った人物の画像を取得する。ウェアラブル端末のカメラで撮像された画像を取得してもよい。または、ウェアラブル端末以外であっても、このような画像を取得できるのであれば、それでも構わない。画像とは動画でも静止画でもよい。リアルタイムに人物情報を表示するためには、リアルタイムな画像の方が好ましい。
【0034】
特定ステップは、画像を画像解析して人物を特定する。例えば、人物が、山田太郎さんであるのか、佐藤花子さんであるのか、鈴木一郎さんであるのか、などを特定する。色、形、大きさ、特徴、などから人物を特定できる。人物はこれらに限らない。また、映った人物の全てを特定してしまうと時間が掛かる場合には、ウェアラブル端末の視界の中央にある人物だけを特定してもよい。視界の中央にある人物だけを特定することで、特定に要する時間を大幅に短縮できる。機械学習によって画像解析の精度を向上させてもよい。例えば、人物の過去画像を教師データとして機械学習を行う。
【0035】
収集ステップは、人物に応じた人物情報を収集する。人物情報とは、氏名・性別・年齢・住所・職業・役職・家族構成などである。人物情報はこれらに限らない。予め人物情報が登録されたデータベースを参照して人物に応じた人物情報を収集してもよい。例えば、名刺情報などが登録されたデータベースを参照すれば収集できる。また、人物に予め紐付けられたWebコンテンツにアクセスして人物情報を収集してもよい。例えば、人物と人物情報とを紐づけるURLなど割当てることでWebコンテンツから収集できる。また、人物をインターネット検索して検索されたWebコンテンツから人物情報を収集してもよい。例えば、ホームページなどに人物情報が掲載されているケースがあるので、インターネット検索から収集できる。または、SNS(social networking service)や口コミサイトなどから、人物情報を収集できることもある。
【0036】
人物情報表示ステップは、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して人物情報を拡張現実として表示する。例えば
図2にあるように、ウェアラブル端末の表示板に、表示板を透過して見える実線で描かれた人物に対して、破線で描かれた人物情報を拡張現実として表示している。ここでは理解のために、実線は実物、破線は拡張現実、としている。表示板を透過して見える実線で描かれた人物に対して人物情報を拡張現実で表示することで、人物にどのような人物情報があるのかを視覚的に把握することが出来る。拡張現実として表示する人物情報は、表示板を透過して見える人物に重なるように表示しても良いが、人物が見づらくなるので、人物情報の表示ON/OFFを切り替えられるようにしてもよい。
【0037】
判定ステップは、表示された人物情報が閲覧されたかどうかを判定する。閲覧中の画像を取得して画像解析をすることで、人物情報が閲覧されたかどうかを判定してもよい。また、ウェアラブル端末のセンサ情報や、閲覧者に装着されたセンサ情報などから、人物情報が閲覧されたかどうかを判定してもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
【0038】
変更ステップは、閲覧されたと判定された場合は人物情報を閲覧済みに変更し、閲覧されていないと判定された場合は人物情報が閲覧されるように注目度を変更する。このようにすることで、どの人物情報が、閲覧されたのか、閲覧されていないのか、を視覚的に把握できる。例えば、人物情報のチェックボックスにチェックを入れることで閲覧済としてもよい。例えば、人物情報にスタンプを押すことで閲覧済としてもよい。また、注目度の変更は、人物情報の色・サイズを変更したり、人物情報が目立つようにスタンプを押したりしてもよい。
【0039】
検出ステップは、表示された人物情報に対するアクションを検出する。アクションは、例えば、ジェスチャーや、手の動き、視線の動き、などである。閲覧中の画像を取得して画像解析をすることで、人物情報に対するアクションを検出できる。また、ウェアラブル端末のセンサ情報や、閲覧者に装着されたセンサ情報などから、人物情報に対するアクションを検出してもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
【0040】
アクション結果表示ステップは、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して、アクションに応じた結果を拡張現実として表示する。例えば、人物情報を消すアクションを検出したら人物情報の表示を消してよい。例えば、人物情報に付けられたリンクを開くアクションを検出したらリンクを開いてもよい。例えば、人物情報のページをめくるアクションを検出したらページをめくってもよい。もちろん他のアクションでもよい。
【0041】
位置方向ステップは、ウェアラブル端末の端末位置と撮像方向とを取得する。例えば、端末位置は、ウェアラブル端末のGPS(Global Positioning System)から取得できる。例えば、撮像方向は、ウェアラブル端末で撮像する場合は、ウェアラブル端末の地磁気センサや加速度センサから取得できる。これら以外から取得してもよい。
【0042】
推測ステップは、端末位置と撮像方向とに基づいて、人物の人物位置を推測する。端末位置と撮像方向が分かっていれば、撮像された人物の人物位置を推測することができる。
【0043】
また、特定ステップは、人物位置と画像解析とから、人物を特定してもよい。位置の情報を利用することで特定の精度を向上することができる。例えば、位置の情報によって、山田太郎さんだと特定する精度が向上できれば、それに対応して表示する人物情報の信頼度も向上する。
【0044】
ガイドライン表示ステップは、ウェアラブル端末の表示板に、人物を撮像するためのガイドラインを拡張現実として表示する。例えば、枠や十字などのガイドラインを表示してもよい。ガイドラインに沿って撮像してもらうことで画像解析がしやすくなる。
【0045】
また、取得ステップは、ガイドラインに沿って撮像された画像を取得してもよい。ガイドラインに沿って撮像された画像だけを取得して画像解析することで、効率良く人物を特定できる。
【0046】
選択受付ステップは、ウェアラブル端末の表示板を透過して見える人物に対して、選択対象の選択を受け付ける。例えば、ウェアラブル端末の表示板を透過して見える人物を一定時間見ることで選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える人物にタッチして選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える人物にカーソルを合わせることで選択対象の選択を受け付けてもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
【0047】
また、人物情報表示ステップは、ウェアラブル端末の表示板に、表示板を透過して見える選択対象にだけ合わせて、人物情報を拡張現実として表示してもよい。選択された選択対象にだけ合わせて人物情報を拡張現実として表示するので、ピンポイントに人物情報を把握することができる。特定された全ての人物に人物情報を表示すると表示板の画面が煩わしくなることがある。
【0048】
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータにインストールされるアプリケーションであってもよいし、コンピュータからネットワーク経由で提供されるSaaS(ソフトウェア・アズ・ア・サービス)形態であってもよいし、例えば、フレキシブルディスク、CD(CD−ROMなど)、DVD(DVD−ROM、DVD−RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供されてもよい。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置または外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
【0049】
上述した機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシン、強化学習などを利用してよい。また、ニューラルネットワークを利用して、学習するための特徴量を自ら生成する深層学習(ディープラーニング)であってもよい。
【0050】
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。