(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022152222
(43)【公開日】2022-10-12
(54)【発明の名称】拡張現実用眼鏡、拡張現実用眼鏡の制御方法及び制御プログラム
(51)【国際特許分類】
G06F 3/01 20060101AFI20221004BHJP
G06F 3/04815 20220101ALI20221004BHJP
G06F 3/0346 20130101ALI20221004BHJP
G06F 3/038 20130101ALI20221004BHJP
G02B 27/02 20060101ALI20221004BHJP
H04N 5/64 20060101ALI20221004BHJP
G06T 19/00 20110101ALI20221004BHJP
【FI】
G06F3/01 510
G06F3/0481 150
G06F3/0346 421
G06F3/038 310A
G02B27/02 Z
H04N5/64 511A
G06T19/00 600
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2021054914
(22)【出願日】2021-03-29
(71)【出願人】
【識別番号】592001975
【氏名又は名称】伊藤忠テクノソリューションズ株式会社
(74)【代理人】
【識別番号】100099759
【弁理士】
【氏名又は名称】青木 篤
(74)【代理人】
【識別番号】100123582
【弁理士】
【氏名又は名称】三橋 真二
(74)【代理人】
【識別番号】100092624
【弁理士】
【氏名又は名称】鶴田 準一
(74)【代理人】
【識別番号】100114018
【弁理士】
【氏名又は名称】南山 知広
(74)【代理人】
【識別番号】100153729
【弁理士】
【氏名又は名称】森本 有一
(74)【代理人】
【識別番号】100196601
【弁理士】
【氏名又は名称】酒井 祐市
(72)【発明者】
【氏名】塚本 琢磨
(72)【発明者】
【氏名】古川 雅弘
(72)【発明者】
【氏名】鈴置 昌宏
(72)【発明者】
【氏名】橋本 和俊
【テーマコード(参考)】
2H199
5B050
5B087
5E555
【Fターム(参考)】
2H199CA04
2H199CA12
2H199CA42
2H199CA91
2H199CA92
2H199CA94
2H199CA96
5B050BA13
5B050CA07
5B050DA01
5B050DA10
5B050EA07
5B050EA18
5B050EA19
5B050EA27
5B050FA02
5B050FA09
5B087AA07
5B087AB04
5B087BC05
5B087BC12
5B087BC16
5E555AA64
5E555AA76
5E555BA04
5E555BA38
5E555BA53
5E555BA83
5E555BB04
5E555BB38
5E555BC08
5E555BD01
5E555BE17
5E555CA41
5E555CA45
5E555CB65
5E555CB74
5E555CB82
5E555CC22
5E555DA08
5E555DA09
5E555DB53
5E555DC09
5E555DC63
5E555EA11
5E555EA14
5E555FA00
(57)【要約】 (修正有)
【課題】可視像に仮想画像を合成する拡張現実用眼鏡を提供する。
【解決手段】拡張現実用眼鏡2は、眼鏡レンズ部211、212と、眼電位センサ28と、方位センサ27と、眼電位センサからの眼電位信号を取得し眼鏡レンズ部を通したユーザの視線起点と方向とを検出する視線検出部と、方位センサからの眼鏡方位信号を取得し、視線の方向に対応する視線方位を決定する方位決定部と、視線起点と視線方位とを示す視線方位信号を送信する眼鏡送信部2523と、眼鏡レンズ部に投影するための視線方位の近傍にある物体に関連する仮想画像を示す画像信号と、仮想画像の眼鏡レンズ部への投影位置を示す投影位置信号とを受信する眼鏡受信部2524と、画像信号と投影位置信号とに対応して、仮想画像を眼鏡レンズ部に投影する投影部26と、を有する。
【選択図】
図2
【特許請求の範囲】
【請求項1】
可視像に仮想画像を合成するための拡張現実用眼鏡であって、
眼鏡レンズ部と、
眼電位センサと、
方位センサと、
前記眼電位センサからの眼電位信号を取得し前記眼鏡レンズ部を通したユーザの視線起点と方向とを検出する視線検出部と、
前記方位センサからの眼鏡方位信号を取得し、前記視線の方向に対応する視線方位を決定する方位決定部と、
前記視線起点と前記視線方位とを示す視線方位信号を送信する眼鏡送信部と、
前記眼鏡レンズ部に投影するための前記視線方位の近傍にある物体に関連する仮想画像を示す画像信号と、前記仮想画像の前記眼鏡レンズ部への投影位置を示す投影位置信号とを受信する眼鏡受信部と、
前記画像信号と投影位置信号とに対応して、前記仮想画像を前記眼鏡レンズ部に投影する投影部と、
を有する拡張現実用眼鏡。
【請求項2】
眼鏡レンズ部、ユーザの視線起点を検出する視線検出部、ユーザの視線方向の方位を示す視線方位信号を送信する眼鏡送信部、仮想画像に応じた画像信号及び前記仮想画像の投影位置信号を受信する眼鏡受信部、及び、前記画像信号及び前記投影位置信号に応じて前記仮想画像を前記眼鏡レンズ部に投影する投影部を有し、可視像に前記仮想画像を合成するための拡張現実用眼鏡と、
前記視線方位信号を受信する端末受信部、位置センサに基づいた端末位置信号を取得する端末位置取得部、及び、前記視線方位信号及び前記端末位置信号を送信する端末送信部を有する携帯通信端末と、
前記視線方位信号及び前記端末位置信号を受信するサーバ受信部、前記視線方位信号及び前記端末位置信号に基づいて前記端末位置を起点として前記視線方向の近傍に存在する物体を検索して前記物体に関連する物体位置を含む物体情報を示す物体信号を検索する物体検索部、及び、前記物体信号を送信するサーバ送信部を有するクラウドサーバと、を有し、
前記携帯通信端末は、更に、前記物体信号に基づいて前記物体に対応する前記仮想画像を生成する画像生成部、及び、前記物体信号に基づいて前記物体の投影位置情報を生成する投影位置決定部を有し、前記端末送信部は前記仮想画像及び前記投影位置情報を拡張現実用眼鏡に送信する、
ことを特徴とする拡張現実用システム。
【請求項3】
前記クラウドサーバは、更に、物体位置データベースを有し、前記物体検索部は前記物体位置データベースを利用して前記物体情報を検索する、請求項2に記載の拡張現実用システム。
【請求項4】
前記携帯通信端末は、更に、前記物体位置データベース用の検索条件を記憶する記憶部を有し、前記端末送信部は前記検索条件を示す検索条件信号を前記クラウドサーバに送信する、請求項3に記載の拡張現実用システム。
【請求項5】
前記検索条件は、前記端末位置からの距離の情報を含む、請求項4に記載の拡張現実用システム。
【請求項6】
可視像に仮想画像を合成するための拡張現実用眼鏡からユーザの視線方向の方位を示す視線方位信号を受信する端末受信部と、
位置センサに基づいた端末位置信号を取得する端末位置取得部と、
前記視線方位信号及び前記端末位置信号をクラウドサーバに送信する端末送信部と、
物体情報に応じた仮想画像を生成する画像生成部と、
前記物体情報及び前記視線方向の方位に基づいて、前記仮想画像の投影位置を決定する投影位置決定部と、を有し、
前記端末受信部は、前記視線方位信号及び前記端末位置信号に基づいて前記端末位置を起点として前記視線方向の近傍に存在する物体を検索して前記物体に関連する物体位置を含む物体情報を示す物体信号をクラウドサーバから受信し、
前記送信部は、前記物体情報及び前記投影位置を示す投影位置情報を拡張現実用眼鏡へ送信する、
ことを特徴とする携帯通信端末。
【請求項7】
可視像に仮想画像を合成するための拡張現実用眼鏡を制御する方法であって
眼電位センサを使用しての眼電位信号を取得し眼鏡レンズ部を通したユーザの視線起点と方向とを検出することと、
方位センサを使用して眼鏡方位信号を取得し、前記視線の方向に対応する方位を決定することと、
前記視線起点と前記視線方位とを示す視線方位信号を送信することと、
前記眼鏡レンズ部に投影するための前記視線方位の近傍にある物体に関連する仮想画像を示す画像信号と、前記仮想画像の前記眼鏡レンズ部への投影位置を示す投影位置信号とを受信することと、
前記画像信号と投影位置信号とに対応して、前記仮想画像を前記眼鏡レンズ部に投影することと、
を有する方法。
【請求項8】
コンピュータを動作させ、可視像に仮想画像を合成するための拡張現実用眼鏡を制御するプログラムであって、
眼電位センサを使用しての眼電位信号を取得し眼鏡レンズ部を通したユーザの視線起点と方向とを検出することと、
方位センサを使用して眼鏡方位信号を取得し、前記視線の方向に対応する方位を決定することと、
前記視線起点と前記視線方位とを示す視線方位信号を送信することと、
前記眼鏡レンズ部に投影するための前記視線方位の近傍にある物体に関連する仮想画像を示す画像信号と、前記仮想画像の前記眼鏡レンズ部への投影位置を示す投影位置信号とを受信することと、
前記画像信号と投影位置信号とに対応して、前記仮想画像を前記眼鏡レンズ部に投影することと、
をコンピュータに実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、拡張現実用眼鏡、拡張現実用眼鏡の制御方法及び制御プログラムに関する。
【背景技術】
【0002】
実在する風景にバーチャルの視覚情報を重ねて表示することで、目の前にある世界を仮想的に拡張する技術として拡張現実(AR:Augmented Reality)技術が知られている。AR技術の利用の例として、特定の被写体にスマートフォンのカメラをかざすとコンピュータグラフィックス(CG:computer graphics)のキャラクターが浮き出てくるアプリや、服や家具をCG化して画面越しに試着したり、部屋に置いたりしたときのシミュレーションができるアプリがある。
【0003】
特許文献1は、第1撮像部及び第2撮像部で撮像した画像に所定の画像を組み合わせて第1表示部及び第2表示部に表示する拡張現実装置を開示する。拡張現実装置は、ユーザの視線を検出する視線検出部を更に有し、検出された視線に応じて第1撮像部及び第2撮像部の向きを調整する。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1に記載の拡張現実装置は、使用者が関心ある対象物を明瞭に見るために、2つの撮像部を移動する駆動部を必要とし、応答が遅れる。又、使用者は視認可能な可視像ではなく、撮影された画像により現実を見ることになり、可視像と撮影された画像との違和感をユーザは覚えてしまう。
【0006】
本発明は、上述の問題を解決するためになされたものであり、ユーザの視線上の可視像に仮想画像を合成する拡張現実用眼鏡を提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成するため、本発明に係る拡張現実用眼鏡は、可視像に仮想画像を合成するための拡張現実用眼鏡であって、眼鏡レンズ部と、眼電位センサと、方位センサと、眼電位センサからの眼電位信号を取得し眼鏡レンズ部を通したユーザの視線起点と方向とを検出する視線検出部と、方位センサからの眼鏡方位信号を取得し、視線の方向に対応する視線方位を決定する方位決定部と、視線起点と視線方位とを示す視線方位信号を送信する眼鏡送信部と、眼鏡レンズ部に投影するための視線方位の近傍にある物体に関連する仮想画像を示す画像信号と、仮想画像の眼鏡レンズ部への投影位置を示す投影位置信号とを受信する眼鏡受信部と、画像信号と投影位置信号とに対応して、仮想画像を眼鏡レンズ部に投影する投影部と、を有することを特徴とする。
【0008】
本発明に係る拡張現実用システムは、眼鏡レンズ部、ユーザの視線起点を検出する視線検出部、ユーザの視線方向の方位を示す視線方位信号を送信する眼鏡送信部、仮想画像に応じた画像信号及び仮想画像の投影位置信号を受信する眼鏡受信部、及び、画像信号及び投影位置信号に応じて仮想画像を眼鏡レンズ部に投影する投影部を有し、可視像に仮想画像を合成するための拡張現実用眼鏡と、視線方位信号を受信する端末受信部、位置センサに基づいた端末位置信号を取得する端末位置取得部、及び、視線方位信号及び端末位置信号を送信する端末送信部を有する携帯通信端末と、視線方位信号及び端末位置信号を受信するサーバ受信部、視線方位信号及び端末位置信号に基づいて端末位置を起点として視線方向の近傍に存在する物体を検索して物体に関連する物体位置を含む物体情報を示す物体信号を検索する物体検索部、及び、物体信号を送信するサーバ送信部を有するクラウドサーバと、を有し、
携帯通信端末は、更に、物体信号に基づいて物体に対応する仮想画像を生成する画像生成部、及び、物体信号に基づいて物体の投影位置情報を生成する投影位置決定部を有し、携帯送信部は仮想画像及び投影位置情報を拡張現実用眼鏡に送信する、ことを特徴とする。
【0009】
本発明に係る拡張現実用システムは、クラウドサーバは、更に、物体位置データベースを有し、物体検索部は物体位置データベースを利用して物体情報を検索することが好ましい。
【0010】
本発明に係る拡張現実用システムは、携帯通信端末は、更に、物体位置データベース用の検索条件を記憶する記憶部を有し、端末送信部は検索条件を示す検索条件信号をクラウドサーバに送信することが好ましい。
【0011】
本発明に係る拡張現実用システムは、検索条件は、端末位置からの距離の情報を含むことが好ましい。
【0012】
本発明に係る携帯通信端末は、可視像に仮想画像を合成するための拡張現実用眼鏡からユーザの視線方向の方位を示す視線方位信号を受信する端末受信部と、位置センサに基づいた端末位置信号を取得する端末位置取得部と、視線方位信号及び端末位置信号をクラウドサーバに送信する端末送信部と、物体情報に応じた仮想画像を生成する画像生成部と、物体情報及び視線方向の方位に基づいて、仮想画像の投影位置を決定する投影位置決定部と、を有し、端末受信部は、視線方位信号及び端末位置信号に基づいて端末位置を起点として視線方向の近傍に存在する物体を検索して物体に関連する物体位置を含む物体情報を示す物体信号をクラウドサーバから受信し、送信部は、物体情報及び投影位置を示す投影位置情報を拡張現実用眼鏡へ送信する、ことを特徴とする。
【0013】
本発明に係る制御方法は、可視像に仮想画像を合成するための拡張現実用眼鏡を制御する方法であって、眼電位センサを使用しての眼電位信号を取得し眼鏡レンズ部を通したユーザの視線起点と方向とを検出することと、方位センサを使用して眼鏡方位信号を取得し、視線の方向に対応する方位を決定することと、視線起点と視線方位とを示す視線方位信号を送信することと、眼鏡レンズ部に投影するための視線方位の近傍にある物体に関連する仮想画像を示す画像信号と、仮想画像の眼鏡レンズ部への投影位置を示す投影位置信号とを受信することと、画像信号と投影位置信号とに対応して、仮想画像を眼鏡レンズ部に投影することと、を有することを特徴とする。
【0014】
本発明に係る制御プログラムは、コンピュータを動作させ、可視像に仮想画像を合成するための拡張現実用眼鏡を制御するプログラムであって、眼電位センサを使用しての眼電位信号を取得し眼鏡レンズ部を通したユーザの視線起点と方向とを検出することと、方位センサを使用して眼鏡方位信号を取得し、視線の方向に対応する方位を決定することと、視線起点と視線方位とを示す視線方位信号を送信することと、眼鏡レンズ部に投影するための視線方位の近傍にある物体に関連する仮想画像を示す画像信号と、仮想画像の眼鏡レンズ部への投影位置を示す投影位置信号とを受信することと、画像信号と投影位置信号とに対応して、仮想画像を眼鏡レンズ部に投影することと、をコンピュータに実行させることを特徴とする。
【発明の効果】
【0015】
本開示に係る拡張現実用眼鏡は、ユーザの視線上の可視像に仮想画像を合成することが可能となる。
【図面の簡単な説明】
【0016】
【
図1】拡張現実用システムの一例の概要を示す図であり、(a)は現実の風景像の一例を示す図であり、(b)は拡張現実用眼鏡を装着したユーザが眼鏡越しに見る像を示した図であり、(c)は拡張現実用眼鏡に投影された仮想画像を示すとともに、投影仮想画像作成のための拡張現実用眼鏡、携帯通信端末、及びクラウドサーバの連携を示す図である。
【
図2】拡張現実用眼鏡の構造の一例の概要を示す図であり、(a)は正面図であり、(b)はユーザが装着する方向から見た斜視図である。
【
図3】拡張現実用眼鏡のブロック構成の一例を示す図である。
【
図4】視線起点と方向を検出する原理を示す図であり、(a)は、拡張現実用眼鏡2の4つの電極がユーザと接触している状態を示す図であり、(b)は、処理の一例の概要を示す図である。
【
図5】視線起点、視線の方向、及び方位の関係を示す図である。
【
図6】拡張現実用眼鏡の処理の一例を示すフローチャート図である。
【
図7】携帯通信端末の一例の概要を示すブロック図である。
【
図8】携帯通信端末の処理の一例を示すフローチャート図である。
【
図9】クラウドサーバの一例の概要を示すブロック図である。
【
図10】クラウドサーバの処理の一例を示すフローチャート図である。
【
図11】変化する物体位置の取得の一例を示す図であり、(a)は、物体の位置の変化をGPS発信機によって取得する例を示す図であり、(b)は、物体の位置の変化をビーコン発信機によって取得する例を示す図である。
【
図12】検索結果を受信したとき、携帯通信端末が行う処理の一例のフローチャートを示す図である。
【
図13】作成される仮想画像の例を示す図である。(a)は物体が人間の例であり、(b)は建築物の例である。
【
図14】仮想画像の投影位置を決定する処理の一例を示す図である。
【
図15】検索結果を受信したとき、拡張現実用眼鏡が行う処理の一例のフローチャートを示す図である。
【発明を実施するための形態】
【0017】
以下、本開示の一側面に係る拡張現実用眼鏡及び拡張現実用システムについて、図を参照しつつ説明する。但し、本開示の技術的範囲はそれらの実施の形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。尚、以下の説明及び図において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0018】
[実施形態]
図1は、拡張現実用システムの一例の概要を示す図であり、(a)は現実の風景像の一例を示す図であり、(b)は拡張現実用眼鏡を装着したユーザが眼鏡越しに見る像を示した図であり、(c)は拡張現実用眼鏡に投影された仮想画像を示すとともに、投影仮想画像作成のための拡張現実用眼鏡、携帯通信端末、及びクラウドサーバの連携を示す図である。
【0019】
図1(a)は、小学校の運動会の綱引き競技の風景の様子を示している。6人の子供11~16が左右2つのチームに分かれて綱引きをやっている。6人の子供11~16は、それぞれ位置発信装置、例えば、GPS発信装置(不図示)を所持している。6人の子供の位置を示す位置信号が、
図1(c)のクラウドサーバ4に逐次、例えば、一定の時間間隔をおいて、又は、所定の移動距離を超えたときに送信される。子供の位置信号が受信されるとクラウドサーバ4の物体位置データベース41が更新される。
【0020】
本開示の拡張現実用眼鏡2を装着したユーザ(不図示)の子供は、右から2番目の子供15である。本事例において、ユーザは、右側のチームに自分の子供が属していることは知っているが、3人の子供14~16のいずれが自分の子供であるかわからないと仮定している。
【0021】
図1(b)は、拡張現実用眼鏡2を装着したユーザが眼鏡レンズ部211、212を介して綱引き競技を見ている可視像を示した図である。ユーザは、自分の子供は右のチームに属していることを知っているので、右側の3人の子供14~16の方を見ている。
【0022】
図1(c)は、拡張現実用眼鏡2に投影される仮想画像作成のための拡張現実用眼鏡2、携帯通信端末3、及びクラウドサーバ4の連携を示す図である。拡張現実用眼鏡2は、眼電位センサ(不図示)を使用して、眼鏡レンズ部211、212を通したユーザの視線起点と方向とを検出する。拡張現実用眼鏡2は、方位センサ(不図示)を使用して、ユーザの視線方向に対応する視線方位を決定する。拡張現実用眼鏡2は、視線起点と視線方位とを示す視線方位信号をユーザが携帯する携帯通信端末3に送信する。拡張現実用眼鏡2と携帯通信端末3との通信方式は、短距離無線通信方式、例えば、ブルートゥース(登録商標)、WiFiである。有線通信としてもよい。
【0023】
携帯通信端末3は、拡張現実用眼鏡2から、ユーザの視線方向の視線方位を示す方位信号を受信する。携帯通信端末3は、位置センサ(不図示)を使用して、位置センサから検出された携帯通信端末の位置を示す端末位置信号を取得し、拡張現実用眼鏡2から受信した視線方位信号と端末位置信号をクラウドサーバ4に転送する。携帯通信端末3とクラウドサーバ4との通信方式は、無線通信方式、例えば、移動体通信方式である。拡張現実用眼鏡2と携帯通信端末3との通信は、WiFi端末を介して行われてもよい。
【0024】
クラウドサーバ4は、物体位置データベース411を有する。本例では、物体位置データベース411は、所定の小学校に属する生徒や先生が物体IDをキーとして、物体の属性情報、位置情報、例えば緯度経度情報が登録されている。生徒や先生が所持する位置センサ(不図示)から位置信号が、逐次、クラウドサーバ4に送信される。子供の位置信号が受信されるとクラウドサーバ4の物体位置データベース411が更新される。
【0025】
携帯通信端末3から、携帯通信端末3の位置を示す端末位置信号と視線方位信号がクラウドサーバ4に転送される。クラウドサーバ4は物体位置データベース411内の、端末位置を起点として視線方位の近傍に存在する物体を検索し、検索された物体に関連する、物体位置を含む物体情報を示す物体信号を携帯通信端末3に送信する。
【0026】
携帯通信端末3は、物体位置を含む物体情報を示す物体信号をクラウドサーバから受信する。携帯通信端末3は、物体情報に対応する仮想画像を生成する。携帯通信端末3は、物体位置と端末位置と視線方位とを使用して拡張現実用眼鏡2の眼鏡レンズ部211、212への仮想画像の投影位置を決定する。携帯通信端末3は、仮想画像を示す仮想画像信号と投影位置を示す投影位置信号とを拡張現実用眼鏡2に送信する。
【0027】
拡張現実用眼鏡2は、画像信号と投影位置信号とを受信する。拡張現実用眼鏡2は、記画像信号と投影位置信号とに対応して、仮想画像を眼鏡レンズ部211、212に投影することとなる。本例の拡張現実用眼鏡2は、ユーザの視線上にある物体への情報の投影を違和感なく容易にすることが可能となる。
【0028】
[拡張現実用眼鏡]
図2は、本実施形態の拡張現実用眼鏡の構造の一例の概要を示す図であり、(a)は正面図であり、(b)はユーザが装着する方向から見た斜視図である。拡張現実用眼鏡2は装着するユーザの左右の眼に対応する2つの眼鏡レンズ部211、212、眼鏡レンズ部を支えるフレーム部22、つる部231、232、及び鼻パッド部24を有する。
【0029】
フレーム部22の上部には、眼鏡制御部25、左右2つの投影部261、262、方位センサ27、眼電位センサ28、電源部29が内蔵されている。
【0030】
2つのつる部231、232のいずれかには、眼鏡アンテナ50、眼鏡通信インターフェース(I/F)51、眼鏡操作部52、眼鏡表示部53、及び眼鏡振動部54が設けられる。眼鏡操作部52は、例えば、1つ又は複数のタッチスイッチ、プッシュスイッチ、スライドスイッチを有する。ユーザは、眼鏡操作部52を操作して、例えば、電源のON/OFFを行う。眼鏡表示部53は、例えば、1つ又は複数のLEDライトを有する。ユーザの操作と拡張現実用眼鏡2の状態に応じて、LEDライトは、点滅したり、表示色が変化したりする。眼鏡振動部54は、例えば、電源のON/OFFに対応して振動する。又、拡張現実用眼鏡2の状態に異常が生じたときに振動する。振動によって、ユーザに操作の結果や拡張現実用眼鏡2の状態を知らせることができる。拡張現実用眼鏡2の各部の配置は、バランスや電磁適合性(EMC:electromagnetic compatibility)調整のため適宜変更可能である。
【0031】
フレーム部22上部のユーザ側中央には、ユーザの額と接触するように電極551が設けられている。鼻パッド部24には、ユーザの鼻の左右と接触するように2つの電極552、553が設けられている。2つのつる部231、232のいずれかの後方には、ユーザの耳と接触するように電極554が設けられている。4つの電極551,552,553,554は、ユーザの眼電位を検出するために使用される。
【0032】
図3は、拡張現実用眼鏡のブロック構成の一例を示す図である。拡張現実用眼鏡2は、右目用、左目用の2つの眼鏡レンズ部211、212を有する。各眼鏡レンズ部は外界側に第1レンズ213、214、装着したユーザ側に第2レンズ215.216を有する。右目用の第1レンズ213と第2レンズ215の下端はフレーム部22の下端で接触又は接近した位置に配置される。第1レンズ213と第2レンズ215の上端はフレーム部22に内蔵されている右投影部261を挟むように間隔をあけて配置される。左目側も同様である。第1レンズと第2レンズは、外界からの光を通過させ、ユーザの眼に可視像を結像させる。投影部261、262は、第2レンズ表面に仮想画像を投影させる。ユーザは、投影された仮想画像を可視像と一緒に視認することが可能となる。第1レンズ、第2レンズは、例えば、反射を防止又は低減させる偏光レンズである。他のレンズの組み合わせでもよい。
【0033】
眼鏡アンテナ50は、眼鏡通信インターフェース51と接続している。眼鏡通信インターフェース51は眼鏡制御部25と接続している。眼鏡制御部25は、投影部26、方位センサ27、眼電位センサ28、電源部29、眼鏡操作部52、眼鏡表示部53、及び眼鏡振動部54と接続している。電源部29は、眼鏡制御部25、投影部26、方位センサ27、眼電位センサ28、電源部29、眼鏡通信インターフェース(I/F)51、眼鏡操作部52、眼鏡表示部53、及び眼鏡振動部54に電力を供給する。電力は、眼鏡制御部25を経由して供給されてもよい。
【0034】
眼鏡制御部25は、眼鏡記憶部251と眼鏡処理部252を有する。眼鏡記憶部251は、1又は複数の半導体メモリにより構成される。例えば、RAMや、フラッシュメモリ、EPROM、EEPROM等の不揮発性メモリの少なくとも一つを有する。眼鏡記憶部251は、眼鏡処理部252による処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。
【0035】
例えば、眼鏡記憶部251は、ドライバプログラムとして、投影部26、方位センサ27を制御するデバイスドライバや、眼鏡通信インターフェース51を制御するデバイスドライバプログラムを記憶する。コンピュータプログラムは、例えば、CD-ROM、DVD-ROM、USBメモリ等のコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いて眼鏡記憶部251にインストールされてもよい。また、プログラムサーバ等からダウンロードしてインストールしてもよい。
【0036】
更に、眼鏡記憶部251は、所定の処理に係る一時的なデータを一時的に記憶することができる。眼鏡記憶部251は、眼電位センサ28からの眼電位信号に対する基準眼電位波形ファイル2511を有する。眼鏡処理部252は、眼電位センサ28からの左右の眼の眼電位信号と基準眼電位波形とを比較し、眼鏡レンズ部211、212を通したユーザの視線起点と方向とを検出することができる。更に、眼鏡記憶部251は、携帯通信端末3とのペアリング等のための型名・識別IDファイル2512、通信パラメータや各種設定閾値を記憶するパラメータファイル2513等を記憶する。
【0037】
眼鏡処理部252は、一又は複数個のプロセッサ及びその周辺回路を有する。眼鏡処理部252は、拡張現実用眼鏡2の全体的な動作を統括的に制御するものであり、例えば、MCU(Micro Controller Unit)である。
【0038】
眼鏡処理部252は、眼鏡記憶部251に記憶されているプログラム(オペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、眼鏡処理部252は、複数のプログラム(アプリケーションプログラム等)を並列に実行してもよい。眼鏡処理部252は、視線検出部2521、方位決定部2522、眼鏡送信部2523、眼鏡受信部2524、眼鏡操作処理部2525等を有する。
【0039】
眼鏡処理部252が有するこれらの各部は、独立した集積回路、回路モジュール、マイクロプロセッサ、FPGA(Field Programmable Gate Array)又はファームウェアとして眼鏡制御部25に実装されてもよい。
【0040】
眼電位センサ28は、4つの電極551,552,553,554に接続している。ユーザの耳と接触する電極554は接地電極として働く。電極551と電極552によって右目の眼電位波形が検出され、電極551と電極552によって右目の眼電位波形が検出される。
【0041】
方位センサ27は、フレーム部22の上部の中央に内蔵される。方位センサ27は、拡張現実用眼鏡2の第1レンズ213,214の外界に向けられた面の法線方向を基準とした眼鏡方位を検出するように設定される。検出方位は、真方位が好ましく、磁石方位でもよい。例えば、磁石方位は、真方位に改正可能であるからである。
【0042】
図4は、視線起点と方向を検出する原理を示す図であり、(a)は、拡張現実用眼鏡2の4つの電極がユーザと接触している状態を示す図であり、(b)は、処理の一例の概要を示す図である。眼電位センサ28は、ユーザの額と接触する電極551と、ユーザの鼻の右側と接触する電極552間との電圧を測定することにより右目の眼電位信号を得る。眼電位センサ28は、ユーザの額と接触する電極551と、ユーザの鼻の左側と接触する電極552間との電圧を測定することにより左目の眼電位信号を得る。ユーザの耳に接触する電極554は接地電極の働きをし、電圧の基準とすることができる。
【0043】
眼電位センサ28は、所定時間、例えば、5秒間、両眼の電位波形を計測して眼鏡制御部25に送る。眼鏡制御部25の視線検出部2521は、眼電位センサ28からの左右の眼の眼電位信号と基準眼電位波形ファイル2511の基準眼電位波形とを比較し、眼鏡レンズ部211、212を通したユーザの視線起点と方向とを検出することができる。ユーザの視線起点は、各第2レンズ215、216の外界側表面での視線の通過点である。視線の方向は、2つの視線起点を結ぶ基準線と視線との反時計回りに視線角度で示される。基準線はあらかじめ設定された線分としてもよい。以下、説明を簡単にするため、視線は水平方向成分のみであるとする。又、ユーザ個人個人の基準眼電位波形は異なるので、ユーザが初めて拡張現実用眼鏡2を使用するときに、眼電位波形のサンプリングを行い、較正を行うことが好ましい。
【0044】
図5は、視線起点、視線の方向、及び方位の関係を示す図である。ユーザが、拡張現実用眼鏡2を装着して、点Pの方向を見ている。視線検出センサを使用して視線検出部2521は、第2レンズ215上の右目の視線起点SRと、第2レンズ216上の左目の視線起点SLを判定する。視線起点SRとSLとを結ぶ線を基準線として、反時計回りに視線角度で示される視線の方向を示す視線角度θR,θLが判定される。視線起点間の距離に比べて、拡張現実用眼鏡2から点Pまでの距離は大きいので、θRとθLはほぼ同じで、右目の視線と左目の視線は近似的に平行となる。
【0045】
フレーム部22の上部の中央に内蔵された方位センサ27は、拡張現実用眼鏡2の第1レンズ213,214の外界に向けられた面の法線方向を基準とした方位を示す角度θ1を検出する。右目の視線方位はθ1+(90°-θR)、左目視線の方位はθ1+(90°-θL)となる。
【0046】
図6は、拡張現実用眼鏡の処理の一例を示すフローチャート図である。
図6に示す処理は、眼鏡記憶部251に予め記憶されたコンピュータプログラムに従って眼鏡制御部25にて実行される。又、本処理は所定の時間間隔で定期的に処理される。
【0047】
視線検出部2521は、眼電位センサ28から、眼電位信号を取得する(ST601)。視線検出部2521は、眼電位が正常であるか否かを判定する(ST602)、正常でないときは、例えば、電極がユーザの顔に適切に接触していないとき、十分な眼電位が出力されていないときである。眼電位は正常でないとき(ST602:NO)は、眼鏡操作処理部2525は、眼鏡振動部54を振動させ(ST603)、ST601に戻る。眼電位は正常であるとき(ST602:YES)は、視線検出部2521は、視線起点と視線の方向を検出する(ST604)。方位決定部2522は、方位センサ27から眼鏡方位信号を取得する(ST605)。方位決定部2522は、眼鏡方位から視線の方向に対応する視線方位を決定する(ST606)。眼鏡送信部2523は、視線起点と視線の方位を示す視線方位信号を携帯通信端末3に送信する(ST607)。処理は終了する。
【0048】
[携帯通信端末]
図7は、本形態に係る携帯通信端末の一例の概要を示すブロック図である。携帯通信端末3は、位置センサ31、拡張現実用眼鏡2と無線通信するための第1端末通信インターフェース321、インターネット上のクラウドサーバ4と無線通信するための第2端末通信インターフェース322を有する。携帯通信端末3は、位置センサ31、第1端末通信インターフェース321、第2端末通信インターフェース322に接続される端末制御部33を有する。第1端末通信インターフェース321の無線通信方式は、例えば、ブルートゥース(登録商標)、WiFiである。又、有線接続してもよい。第2端末通信インターフェース322の無線通信方式は、例えば、Wi-Fi、移動通信方式である。移動通信方式は、例えは、GSM,CDMA,第4世代移動通信(4G)、第5世代移動通信(5G)である。携帯通信端末3は、ブルートゥース(登録商標)用アンテナ341、Wi-Fi用アンテナ342、及び4G用アンテナ343を有する。
【0049】
位置センサ31は、例えば、GPS(Global Positioning System)位置センサである。位置センサ31は、移動通信基地局セルを利用するもの、ビーコンを利用するものでもよい。携帯通信端末3は、位置センサ31に接続されるセンサ用アンテナ344を有する。携帯通信端末3は、拡張現実用眼鏡2を装着したユーザが携帯可能である。拡張現実用眼鏡2を装着したユーザが携帯通信端末3を携帯しているとき、拡張現実用眼鏡2と携帯通信端末3の距離は小さい。位置センサ31が検出した位置は、拡張現実用眼鏡2の位置としてもよい。
【0050】
携帯通信端末3は、端末制御部33と接続する表示部35、操作部36、外部記憶部37を有する。表示部35と操作部36は、一体化したタッチパネルディスプレイでもよい。携帯通信端末3は、端末制御部33に接続する外部記憶部37は、例えば、SDメモリカードである。
【0051】
端末制御部33は、端末記憶部331と端末処理部332を有する。端末記憶部331は、1又は複数の半導体メモリにより構成される。例えば、RAMや、フラッシュメモリ、EPROM、EEPROM等の不揮発性メモリの少なくとも一つを有する。端末記憶部331は、端末処理部332による処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。
【0052】
例えば、端末記憶部331は、ドライバプログラムとして、表示部35を制御するデバイスドライバや、第1端末通信インターフェース321,第2端末通信インターフェース322を制御するデバイスドライバプログラムを記憶する。コンピュータプログラムは、例えば、CD-ROM、DVD-ROM、USBメモリ等のコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いて端末記憶部331にインストールされてもよい。また、プログラムサーバ等からダウンロードしてインストールすることができる。
【0053】
更に、端末記憶部331は、所定の処理に係る一時的なデータを一時的に記憶することができる。端末記憶部331は、ユーザに関する登録データファイル3311、拡張現実用眼鏡2が使用されている状態を示す状態データファイル3312、拡張現実用眼鏡2とのペアリング等のための型名・識別IDファイル3313を記憶する。更に、端末記憶部331は、クラウドサーバ4の物体位置データベース41を検索するための検索条件ファイル3314、物体に関連する仮想画像作成ファイル3315、仮想画像作成のための画像コンポーネントファイル3316等を記憶する。
【0054】
物体位置データベース41を検索するための検索条件ファイル3314に記憶される検索条件は、例えば、拡張現実用眼鏡2からの検索範囲、例えば40m以内、5m以上20m以内である。別の検索条件例として、物体のカテゴリ、山、川、建築物、道路、動植物である。更に検索条件を特定の人物、例えば、ユーザの家族とすることができる。ユーザが検索条件を設定することで、ユーザは所望の物体に関連する仮想画像を得ることが可能となる。
【0055】
端末処理部332は、一又は複数個のプロセッサ及びその周辺回路を有する。端末処理部332は、携帯通信端末3の全体的な動作を統括的に制御するものであり、例えば、MCU(Micro Controller Unit)である。
【0056】
端末処理部332は、端末記憶部331に記憶されているプログラム(オペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、端末処理部332は、複数のプログラム(アプリケーションプログラム等)を並列に実行してもよい。端末処理部332は、第1端末受信部3321、位置取得部3322、第2端末送信部3323、第2端末受信部3324、画像生成部3325、投影位置決定部3326、第1端末送信部3327.検索条件処理部3328等を有する。
【0057】
端末処理部332が有するこれらの各部は、独立した集積回路、回路モジュール、マイクロプロセッサ、FPGA(Field Programmable Gate Array)又はファームウェアとして眼鏡制御部25に実装されてもよい。
【0058】
図8は、携帯通信端末の処理の一例を示すフローチャート図である。
図8に示す処理は、端末記憶部331に予め記憶されたコンピュータプログラムに従って端末制御部33にて実行される。
【0059】
第1端末受信部3321は、第1端末通信インターフェース321を介して、拡張現実用眼鏡2からユーザの視線方向の方位を示す視線方位信号を受信する(ST801)。位置取得部3322は、位置センサ31から検出された携帯通信端末3の位置を示す端末位置信号を取得する(ST802)。検索条件処理部3328は、検索条件ファイル3314から検索条件を取得する(ST803)。第2端末送信部3323は、視線方位信号と端末位置信号と検索条件信号をクラウドサーバに転送する(ST804)。処理は終了する。
【0060】
携帯通信端末3は、クラウドサーバ4に検索条件に関連する視線方位信号と端末位置信号と検索条件信号を送信し、物体位置データベース内で検索された物体に関する情報をクラウドサーバ4から受信する。検索結果を受信した後、携帯通信端末3が行う処理については後述する。
【0061】
[クラウドサーバ]
図9は、本形態に係るクラウドサーバの一例の概要を示すブロック図である。クラウドサーバ4は、物体位置データベース41を有している。物体位置データベース41は、ハードウェア、例えば、半導体メモリ、磁気ディスク装置及び光ディスク装置に記憶されている。物体位置データベース411は、物体IDをキーとして、物体の属性情報、及び位置情報、例えば緯度経度情報が登録されている。位置情報は地表からの高さを含んでもよい。物体位置データベース41は、複数の物体位置データベース411~41nで構成されていてもよい。例えば、物体位置データベース411は、カーナビナビゲーション用の地図データベース、物体位置データベース412は、所定の公共施設の物体に関するものである。物体には自然物、人間、動植物を含んでもよい。
【0062】
クラウドサーバ4は、検索条件に関連する視線方位信号と端末位置信号と検索条件信号を受信し、物体位置データベース41を検索する。検索により、拡張現実用眼鏡2を装着したユーザの視線方向にある物体情報が得られる。部品情報を受信した携帯通信端末3は、物体情報に関連する仮想画像を作成する。仮想画像を受信した拡張現実用眼鏡2は、可視像に仮想画像を合成することができる。
【0063】
クラウドサーバ4は、更にクラウドネットワークを介して携帯通信端末3と通信するサーバ通信インターフェース42と、サーバ制御部43とを有する。物体位置データベース41とサーバ通信インターフェース42とは、サーバ制御部43に接続している。サーバ制御部43は、サーバ記憶部431とサーバ処理部432を有する。
【0064】
サーバ記憶部431は、例えば、半導体メモリ、磁気ディスク装置及び光ディスク装置の内の少なくとも一つを有する。サーバ記憶部431は、サーバ処理部432による処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。例えば、サーバ記憶部431は、ドライバプログラムとして、サーバ通信インターフェース42を制御する通信デバイスドライバプログラム等を記憶する。コンピュータプログラムは、例えばCD-ROM、DVD-ROM等のコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いてサーバ記憶部431にインストールされてもよい。また、プログラムサーバ等からダウンロードしてインストールしてもよい。
【0065】
サーバ記憶部431は、ユーザ認証ファイル4311、検索パラメータファイル4312等を記憶する。
【0066】
サーバ処理部432は、一又は複数個のプロセッサ及びその周辺回路を備える。サーバ処理部432は、クラウドサーバ4の全体的な動作を統括的に制御するものであり、例えば、CPU(central processing unit)である。サーバ処理部432は、クラウドサーバ4の各種処理がサーバ記憶部431に記憶されているプログラム等に基づいて適切な手順で実行されるように、サーバ通信インターフェース42等の動作を制御する。サーバ処理部432は、サーバ記憶部431に記憶されているオペレーティングシステムプログラムやドライバプログラム、アプリケーションプログラム等のプログラムに基づいて処理を実行する。また、サーバ処理部432は、アプリケーションプログラム等の複数のプログラムを並列に実行することができる。
【0067】
サーバ処理部432は、サーバ受信部4321、物体検索部4322、及びサーバ送信部4323等を有する。サーバ処理部432が有するこれらの各部は、サーバ制御部43が有するプロセッサ上で実行されるプログラムによって実装される機能モジュールである。あるいは、サーバ処理部432が有するこれらの各部は、独立した集積回路、マイクロプロセッサ、又はファームウェアとしてクラウドサーバ4に実装されてもよい。クラウドサーバ4は、1台のサーバ装置だけでなく、複数のサーバ装置によって構成することができる。例えば、カーナビナビゲーション用の地図データベースである物体位置データベース411を有するサーバ装置と、所定の公共施設の物体に関する物体位置データベース412を有するサーバ装置が複合してクラウドサーバ4を構成してもよい。
【0068】
図10は、クラウドサーバの処理の一例を示すフローチャート図である。
図10に示す処理は、サーバ記憶部431に予め記憶されたコンピュータプログラムに従ってサーバ制御部43にて実行される。
【0069】
サーバ受信部4321は、サーバ通信インターフェース42を介して、携帯通信端末3から送信される視線方位信号、端末位置信号、及び検索条件信号を受信する(ST1001)。
【0070】
物体検索部4322は、端末位置を開始点として視線方位にある物体であって、検索条件を満たす物体を検索する(ST1002)。開始点から視線方位に延びる半直線上にある物体だけでなく、半直線近傍にある物体を含めて検索することが好ましい。測定誤差の影響を排除することができる。近傍範囲は、例えば半直線から2mの範囲である。開始点からの距離が長くなるほど、近傍範囲を広く、又は狭くしてもよい。別の例として、検索でピックアップされる物体の最大個数を開始点から、例えば5個としてもよい。検索条件は携帯通信端末3からの検索条件、又は検索パラメータファイル4312により設定される。
【0071】
サーバ送信部4323は、サーバ通信インターフェース42を介して、携帯通信端末3に検索された物体に関連する、物体位置を含む物体情報を示す物体信号を送信する(ST1105)。送信後、処理は終了する。
【0072】
図11は、変化する物体位置の取得の一例を示す図であり、(a)は、物体の位置の変化をGPS発信機によって取得する例を示す図であり、(b)は、物体の位置の変化をビーコン発信機によって取得する例を示す図である。
【0073】
図11(a)は、3人の子供111、112、113が校庭で遊ぶ様子を示している。3人の子供はそれぞれ首からGPS発信器114、115,116を下げている。各GPS発信機は、GPS衛星117から電波信号を受信し、自己の位置を検出する。各GPS発信機は、定期的に位置信号を送信し、中継局118を介してクラウドサーバ4に送られ、物体位置データベース内の3人の子供111、112、113の位置情報が更新される。
【0074】
図11(b)では、3人の子供111、112、113は、それぞれ首からビーコン発信器114´、115´,116´を下げている。校庭周辺には少なくとも3つのビーコン局119、1110,1111が設置されている。各ビーコン局は各ビーコン発信器からのビーコンを受信する。受信したビーコンは、それぞれのビーコン局に接続する変換装置1112に送られる。変換装置は、電波測量技術に基づき3人の子ともの位置を検出し、定期的にクラウドサーバ4に送る。物体位置データベース内の3人の子供111、112、113の位置情報が更新される。
【0075】
[物体信号を受信したとき、携帯通信端末が行う処理]
図12は、検索結果を受信したとき、携帯通信端末が行う処理の一例のフローチャートを示す図である。
図12に示す処理は、端末記憶部331に予め記憶されたコンピュータプログラムに従って端末制御部33にて実行される。
第2端末受信部3324は、物体位置を含む物体情報を示す物体信号をクラウドサーバ4から受信する(ST1201)。画像生成部3325は、物体情報に対応する仮想画像を生成する(ST1202)。投影位置決定部3326は、物体位置と端末位置と視線方位とを使用して拡張現実用眼鏡2の眼鏡レンズ部211,212への仮想画像の投影位置を決定する(ST1203)。第1端末送信部は、仮想画像を示す仮想画像信号と投影位置を示す投影位置信号とを拡張現実用眼鏡2に送信する(ST1203)。処理は終了する。
【0076】
図13は、作成される仮想画像の例を示す図である。(a)は物体が人間の例であり、(b)は建築物の例である。検索された物体が人間の場合は、例えば、人間の名前が入った吹き出し画像131が仮想画像として生成される。吹き出し内に表示される別の例として、ニックネーム、所属でもよい。建築物の場合は、建築物の名称と解説が記載された透明プレイトが仮想画像132として生成される。仮想画像は、例えば、物体までの距離や物体のタイプにより表示サイズ、表示色を変えてもよい。
【0077】
図14は、仮想画像の投影位置を決定する処理の一例を示す図である。説明を簡単にするため、右目を例として説明する。検索された物体Pとする。携帯通信端末3が受信した物体Pの物体情報には物体位置が含まれており、端末位置と物体位置から携帯通信端末3と物体Pとの距離Lが判定できる。距離Lに比べ、携帯通信端末3と拡張現実用眼鏡2との間の距離は十分小さいので、右目の第2レンズの視線起点SRの位置と端末位置は一致しているとしてもよい。右目の第2レンズの視線起点SRからの物品Pの可視像までのズレは、第2レンズの基準線への正射影となり、L・cos(θR)として与えられる。物体Pの仮想画像は、第2レンズの視線起点SRから水平にL・cos(θR)だけズレた位置の近傍に投影される。
【0078】
[仮想画像信号と投影位置信号を受信したとき、拡張現実用眼鏡が行う処理]
図15は、検索結果を受信したとき、拡張現実用眼鏡が行う処理の一例のフローチャートを示す図である。
図15に示す処理は、眼鏡記憶部251に予め記憶されたコンピュータプログラムに従って眼鏡制御部25にて実行される。眼鏡受信部2524は、眼鏡レンズ部に投影するための仮想画像信号と、仮想画像の投影位置を示す投影位置信号とを受信する(ST1501)。投影部26は、仮想画像を眼鏡レンズ部211、212の投影位置に投影する。処理は終了する。
【0079】
本例では、左右の眼鏡レンズ部211,212両方に仮想画像が投影されるとした。別の例として、左右の眼鏡レンズ部211,212のいずれか1つに仮想画像が投影されてもよい。
【0080】
別の例として拡張現実用眼鏡の第1レンズは、可変焦点レンズとしてもよい。携帯通信端末は、端末位置と物体位置から携帯通信端末3と物体Pとの距離Lが判定できので、距離Lに対応して第1レンズの焦点距離を変更することができる。
【0081】
別の例として、拡張現実用眼鏡と携帯通信端末と一体化させてもよい。
【0082】
当業者は、本発明の精神及び範囲から外れることなく、様々な変更、置換、及び修正をこれに加えることが可能であることを理解されたい。
【符号の説明】
【0083】
2 拡張現実用眼鏡
211、212 眼鏡レンズ部
25 眼鏡制御部
26、261,262 投影部
27 方位センサ
28 眼電位センサ
51 眼鏡通信インターフェース
3 携帯通信端末
31 位置センサ
321 第1端末通信インターフェース
322 第2端末通信インターフェース
33 端末制御部
4 クラウドサーバ
41 物体位置データベース
42 サーバ通信インターフェース
43 サーバ制御部