IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士フイルム株式会社の特許一覧

特開2024-52410プロセッサ、情報処理方法、及び情報処理プログラム
<>
  • 特開-プロセッサ、情報処理方法、及び情報処理プログラム 図1
  • 特開-プロセッサ、情報処理方法、及び情報処理プログラム 図2
  • 特開-プロセッサ、情報処理方法、及び情報処理プログラム 図3
  • 特開-プロセッサ、情報処理方法、及び情報処理プログラム 図4
  • 特開-プロセッサ、情報処理方法、及び情報処理プログラム 図5
  • 特開-プロセッサ、情報処理方法、及び情報処理プログラム 図6
  • 特開-プロセッサ、情報処理方法、及び情報処理プログラム 図7
  • 特開-プロセッサ、情報処理方法、及び情報処理プログラム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024052410
(43)【公開日】2024-04-11
(54)【発明の名称】プロセッサ、情報処理方法、及び情報処理プログラム
(51)【国際特許分類】
   G06F 3/01 20060101AFI20240404BHJP
   G06F 3/0481 20220101ALI20240404BHJP
【FI】
G06F3/01 510
G06F3/0481
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2022159106
(22)【出願日】2022-09-30
(71)【出願人】
【識別番号】306037311
【氏名又は名称】富士フイルム株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】神谷 毅
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA16
5E555AA22
5E555AA61
5E555BA02
5E555BA06
5E555BA08
5E555BA42
5E555BA83
5E555BA87
5E555BB02
5E555BB04
5E555BB08
5E555BD02
5E555BE17
5E555CA42
5E555CA45
5E555CB45
5E555CB65
5E555CC05
5E555DA08
5E555DA09
5E555DB06
5E555DB57
5E555DC36
5E555DC37
5E555DC75
5E555FA00
(57)【要約】
【課題】透過型の表示装置のユーザに、マーキングに対応する現実空間の位置の視認を十分に即すことができるプロセッサ、情報処理方法、及び情報処理プログラムを提供する。
【解決手段】透過型の表示装置のカメラが撮影した撮影画像と、他の表示装置に表示された撮影画像に対して行われたマーキングの位置を表す情報と、透過型の表示装置が表示画像を表示可能な現実空間の領域と、現実空間におけるマーキングの位置とを比較し、現実空間におけるマーキングの現実空間における位置が、表示画像を表示可能な現実空間の領域外の場合、現実空間におけるマーキングの位置を表す情報を表示し、透過型の表示装置のユーザの視線を検出した検出結果を取得し、視線の検出結果と、マーキングの現実空間における位置、またはマーキングの現実空間における位置を表す情報とを比較し、マーキング、またはマーキングの位置を表す情報の表示状態を変更する処理を行うプロセッサ。
【選択図】図8
【特許請求の範囲】
【請求項1】
透過型の表示装置に付属するカメラが撮影した撮影画像と、
前記透過型の表示装置と異なる表示装置に表示された前記撮影画像に対して行われたマーキングの位置を表す情報と、
前記透過型の表示装置が表示画像を表示可能な現実空間の領域と、
前記現実空間における前記マーキングの位置とを比較し、
現実空間における前記マーキングの前記現実空間における位置が、前記表示画像を表示可能な現実空間の領域外の場合、前記現実空間における前記マーキングの位置を表す情報を表示し、
前記透過型の表示装置のユーザの視線を検出した検出結果を取得し、
前記視線の検出結果と、前記マーキングの前記現実空間における位置、または前記マーキングの前記現実空間における位置を表す情報とを比較し、
前記マーキングの表示状態、または前記マーキングの位置を表す情報の表示状態を変更する処理を行う
プロセッサ。
【請求項2】
前記視線の検出結果は、前記ユーザの視線の向きの情報である
請求項1に記載のプロセッサ。
【請求項3】
前記表示状態を変更する処理は、前記マーキングの前記現実空間における位置が、前記表示画像を表示可能な現実空間の領域外であるか領域内であるかに応じて表示状態を変更する処理である
請求項2に記載のプロセッサ。
【請求項4】
前記表示状態を変更する処理は、前記視線の向きの情報が、前記マーキングの位置、または前記マーキングの位置を表す情報の位置に向いていた時間に基づく処理である
請求項2に記載のプロセッサ。
【請求項5】
前記表示状態を変更する処理は、前記マーキングに付与された属性に応じて、前記情報の表示状態を変更する処理を変更する
請求項4に記載のプロセッサ。
【請求項6】
前記マーキングの前記現実空間における位置が、前記透過型の表示装置において前記表示画像を表示可能な現実空間の領域外である場合、
前記マーキングの前記現実空間における位置との距離に応じて、前記マーキングの位置を表す情報の表示形態を異ならせる
請求項2に記載のプロセッサ。
【請求項7】
透過型の表示装置に付属するカメラが撮影した撮影画像と、前記透過型の表示装置と異なる表示装置に表示された前記撮影画像に対して行われたマーキングの位置を表す情報と、前記透過型の表示装置が表示画像を表示可能な現実空間の領域と、前記現実空間における前記マーキングの位置とを比較し、
現実空間における前記マーキングの前記現実空間における位置が、前記表示画像を表示可能な現実空間の領域外の場合、前記現実空間における前記マーキングの位置を表す情報を表示し、
前記透過型の表示装置のユーザの視線を検出した検出結果を取得し、
前記視線の検出結果と、前記マーキングの前記現実空間における位置、または前記マーキングの前記現実空間における位置を表す情報とを比較し、
前記マーキングの表示状態、または前記マーキングの位置を表す情報の表示状態を変更する
処理をプロセッサが実行する情報処理方法。
【請求項8】
透過型の表示装置に付属するカメラが撮影した撮影画像と、前記透過型の表示装置と異なる表示装置に表示された前記撮影画像に対して行われたマーキングの位置を表す情報と、前記透過型の表示装置が表示画像を表示可能な現実空間の領域と、前記現実空間における前記マーキングの位置とを比較し、
現実空間における前記マーキングの前記現実空間における位置が、前記表示画像を表示可能な現実空間の領域外の場合、前記現実空間における前記マーキングの位置を表す情報を表示し、
前記透過型の表示装置のユーザの視線を検出した検出結果を取得し、
前記視線の検出結果と、前記マーキングの前記現実空間における位置、または前記マーキングの前記現実空間における位置を表す情報とを比較し、
前記マーキングの表示状態、または前記マーキングの位置を表す情報の表示状態を変更する
処理をプロセッサに実効させるための情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、プロセッサ、情報処理方法、及び情報処理プログラムに関する。
【背景技術】
【0002】
従来、現実空間に、画像を重ね合わせた状態で表示する、拡張現実(AR:Augmented Reality)機器等の透過型の表示装置が知られている。透過型の表示装置に付属するカメラにより撮影された画像に基づいて、透過型の表示装置のユーザに対して情報を出力する技術が知られている。
【0003】
例えば、特許文献1には、ヘッドマウントディスプレイに付属するカメラにより撮影された画像情報を受信し、画像情報に基づいて、現場側情報提示装置に対して作業支援情報を出力する技術が記載されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2018-147144号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、従来の技術では、出力された情報を透過型の表示装置のユーザに視認させるためには十分とはいえない場合がある。
【0006】
本開示は、以上の事情を鑑みて成されたものであり、透過型の表示装置のユーザに、マーキングに対応する現実空間の位置の視認を十分に即すことができるプロセッサ、情報処理方法、及び情報処理プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成するために、本開示の第1の態様のプロセッサは、透過型の表示装置に付属するカメラが撮影した撮影画像と、透過型の表示装置と異なる表示装置に表示された撮影画像に対して行われたマーキングの位置を表す情報と、透過型の表示装置が表示画像を表示可能な現実空間の領域と、現実空間におけるマーキングの位置とを比較し、現実空間におけるマーキングの現実空間における位置が、表示画像を表示可能な現実空間の領域外の場合、現実空間におけるマーキングの位置を表す情報を表示し、透過型の表示装置のユーザの視線を検出した検出結果を取得し、視線の検出結果と、マーキングの現実空間における位置、またはマーキングの現実空間における位置を表す情報とを比較し、マーキングの表示状態、またはマーキングの位置を表す情報の表示状態を変更する処理を行う。
【0008】
本開示の第2の態様のプロセッサは、第1の態様のプロセッサにおいて、視線の検出結果は、ユーザの視線の向きの情報である。
【0009】
本開示の第3の態様のプロセッサは、第2の態様のプロセッサにおいて、表示状態を変更する処理は、マーキングの現実空間における位置が、表示画像を表示可能な現実空間の領域外であるか領域内であるかに応じて表示状態を変更する処理である。
【0010】
本開示の第4の態様のプロセッサは、第2の態様のプロセッサにおいて、表示状態を変更する処理は、視線の向きの情報が、マーキングの位置、またはマーキングの位置を表す情報の位置に向いていた時間に基づく処理である。
【0011】
本開示の第5の態様のプロセッサは、第4の態様のプロセッサにおいて、表示状態を変更する処理は、マーキングに付与された属性に応じて、情報の表示状態を変更する処理を変更する。
【0012】
本開示の第6の態様のプロセッサは、第2の態様のプロセッサにおいて、マーキングの現実空間における位置が、透過型の表示装置において表示画像を表示可能な現実空間の領域外である場合、マーキングの現実空間における位置との距離に応じて、マーキングの位置を表す情報の表示形態を異ならせる。
【0013】
上記目的を達成するために、本開示の第7の態様の情報処理方法は、透過型の表示装置に付属するカメラが撮影した撮影画像と、透過型の表示装置と異なる表示装置に表示された撮影画像に対して行われたマーキングの位置を表す情報と、透過型の表示装置が表示画像を表示可能な現実空間の領域と、現実空間におけるマーキングの位置とを比較し、現実空間におけるマーキングの現実空間における位置が、表示画像を表示可能な現実空間の領域外の場合、現実空間におけるマーキングの位置を表す情報を表示し、透過型の表示装置のユーザの視線を検出した検出結果を取得し、視線の検出結果と、マーキングの現実空間における位置、またはマーキングの現実空間における位置を表す情報とを比較し、マーキングの表示状態、またはマーキングの位置を表す情報の表示状態を変更する処理をプロセッサが実行する情報処理方法。
【0014】
上記目的を達成するために、本開示の第8の態様の情報処理プログラムは、透過型の表示装置に付属するカメラが撮影した撮影画像と、透過型の表示装置と異なる表示装置に表示された撮影画像に対して行われたマーキングの位置を表す情報と、透過型の表示装置が表示画像を表示可能な現実空間の領域と、現実空間におけるマーキングの位置とを比較し、現実空間におけるマーキングの現実空間における位置が、表示画像を表示可能な現実空間の領域外の場合、現実空間におけるマーキングの位置を表す情報を表示し、透過型の表示装置のユーザの視線を検出した検出結果を取得し、視線の検出結果と、マーキングの現実空間における位置、またはマーキングの現実空間における位置を表す情報とを比較し、マーキングの表示状態、またはマーキングの位置を表す情報の表示状態を変更する処理をプロセッサに実効させるためのものである。
【発明の効果】
【0015】
本開示によれば、透過型の表示装置のユーザに、マーキングに対応する現実空間の位置の視認を十分に即すことができる。
【図面の簡単な説明】
【0016】
図1】実施形態の情報処理システムの構成の一例を示す構成図である。
図2】実施形態のARグラスの構成の一例を示す構成図である。
図3】実施形態のARグラスの一例を示す斜視図である。
図4】実施形態のスマートフォンのハードウェア構成の一例を示すブロック図である。
図5】実施形態の画像表示装置のハードウェア構成の一例を示すブロック図である。
図6】実施形態の情報処理装置のハードウェア構成の一例を示すブロック図である。
図7】実施形態の情報処理装置の構成の一例を示す機能ブロック図である。
図8】実施形態の情報処理装置のプロセッサにおいて実行される情報処理の流れの一例を表したフローチャートである。
【発明を実施するための形態】
【0017】
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
【0018】
図1を参照して、本実施形態の情報処理システム1の構成を説明する。図1に示すように、本実施形態の情報処理システム1は、AR(Augmented Reality)グラス10、スマートフォン12、画像表示装置14、及び情報処理装置16を備える。スマートフォン12、画像表示装置14、及び情報処理装置16は、ネットワーク19を介して有線通信または無線通信により接続されている。本実施形態のARグラス10が、本開示の透過型の表示装置の一例であり、本実施形態の画像表示装置14が、本開示の透過型の表示装置と異なる表示装置の一例である。
【0019】
本実施形態の情報処理システム1は、情報処理装置16が、ARグラス10のカメラにより現実の世界を撮影した撮影画像を、画像表示装置14に表示させ、画像表示装置14において撮影画像に対して行ったマーキングに関する情報をARグラス10に表示させる機能を有する。以下、ARグラス10を使用するユーザを「第1のユーザ」といい、画像表示装置14を使用するユーザを「第2のユーザ」といい、両者を区別せずに総称する場合、単に「ユーザ」という。
【0020】
まず、図2及び図3を参照して、本実施形態のARグラス10及びスマートフォン12の構成を説明する。図3には、本実施形態のARグラス10の一例の斜視図が示されている。図2及び図3に示すように、ARグラス10は、一対の左眼用透過部20L及び右眼用透過部20Rと、測距装置25と、OLED26と、カメラ27と、6DoF(Six-Degrees of Freedom)センサ28と、視線検出センサ29と、を備える。
【0021】
OLED26は、右眼用透過部20Rを通じてユーザによって視認される現実像の視野内に重畳的に情報を挿入するために、右眼用透過部20Rに情報を表す画像(投影画像)を投影する。
【0022】
右眼用透過部20Rは、右眼用レンズ22R及び導光板24を含む。導光板24の一端には、OLED26から投影された投影画像に応じた光が入射される。導光板24の中を伝播した光は、出射部(図示省略)において向きを変えて、ユーザの眼の方向に出射される。導光板24から出射された投影画像に応じた光は、右眼用レンズ22Rを透過し、ユーザの右眼に導かれ、投影像として右眼で視認する。また、ユーザは、右眼用レンズ22Rを通した現実空間を現実像として右目で視認する。
【0023】
そのため、OLED26から投影画像が投影されている間は、ユーザの右眼によって視認される視認像は、右眼用レンズ22Rを通した現実空間を表す現実像と、導光板24に投影された投影画像に応じた投影像とが重畳された状態となる。また、OLED26から投影画像が投影されていない間は、ユーザによって視認される視認像は、右眼用レンズ22R及び導光板24を通した現実空間を表す現実像となる。
【0024】
一方、左眼用透過部20Lは、左眼用レンズ22Lを含む。ユーザは、左眼用レンズ22Lを通した現実空間を左眼で視認する。
【0025】
測距装置25は、ARグラス10と、周囲の領域との距離を測距するための装置である。測距装置25としては、例えば、LiDAR(Light Detection And Ranging)が挙げられる。本実施形態の測距装置25は、カメラ27の撮影範囲と同等の領域について、ARグラス10と、領域範囲との距離を測距し、測距した結果をスマートフォン12に出力する。
【0026】
カメラ27は、第1のユーザが観察する現実の世界を撮影するカメラである。カメラ27としては、例えば、CMOS(Complementary Metal Oxide Semiconductor)カメラ等のデジタル式カメラが挙げられる。本実施形態では、現実の世界を表す画像をユーザに提供するため、カメラ27はカラー画像の撮影が可能である。なお、カメラ27の撮影範囲は、右眼用透過部20Rに投影画像を表示可能な現実空間の領域と同等の大きさの領域であってもよいし、異なる大きさの領域であってもよい。なお、本実施形態において、「撮影画像」とは、カメラ27により撮影された画像のことをいう。カメラ27により撮影された撮影画像はスマートフォン12に出力される。
【0027】
6DoFセンサ28は、ARグラス10の動き、換言すると第1のユーザの頭の動き、を検出する機能を有する。6DoFセンサ28は、検出結果をスマートフォン12に出力する。
【0028】
視線検出センサ29は、第1のユーザの視線を検出するセンサである。視線検出センサ29としては、公知のセンサを適用することができ、例えば、虹彩や瞳孔の位置に基づいて第1のユーザの視線方向を検出するセンサ等が挙げられる。一例として、本実施形態のARグラス10は、第1のユーザの右眼の視線を検出する。視線検出センサ29の検出結果は、スマートフォン12に出力される。
【0029】
一方、スマートフォン12は、ARグラス10のOLED26から導光板24に投影画像を投影させる制御を、OLED26に対して行う。図4には、スマートフォン12のハードウェア構成の一例を表したブロック図が示されている。図4に示すように、スマートフォン12は、CPU(Central Processing Unit)40、メモリ42、I/F(InterFace)部43、記憶部44、ディスプレイ46、及び入力装置48を備える。CPU40、メモリ42、I/F部43、記憶部44、ディスプレイ46、及び入力装置48は、システムバスやコントロールバス等のバス49を介して相互に各種情報の授受が可能に接続されている。
【0030】
CPU40は、記憶部44に記憶された画像処理プログラム45を含む各種のプログラムをメモリ42へ読み出し、読み出したプログラムにしたがった処理を実行する。これにより、CPU40は、OLED26による投影画像の表示の制御を行う。一例として本実施形態のプロセッサ41は、CPU40と画像処理プログラム45との組合せで構成される。メモリ42は、CPU40が処理を実行するためのワークメモリである。
【0031】
CPU40において実行される画像処理プログラム45は、記憶部44に記憶される。また、記憶部44には、OLED26から投影する投影画像の画像データ(図示省略)や、その他の各種情報等も記憶される。記憶部44の具体例としては、HDD(Hard Disk Drive)やSSD(Solid State Drive)等が挙げられる。
【0032】
I/F部43は、無線通信または有線通信により、OLED26との間で各種情報の通信を行う。ディスプレイ46及び入力装置48はユーザインタフェースとして機能する。ディスプレイ46は、ユーザに対して、投影画像の投影に関する各種の情報を提供する。ディスプレイ46は特に限定されるものではなく、液晶モニタ及びLED(Light Emitting Diode)モニタ等が挙げられる。また、入力装置48は、投影画像の投影に関する各種の指示や、ナビゲーションにおける目的地に関する情報を入力するためにユーザによって操作される。入力装置48は特に限定されるものではなく、例えば、キーボード、タッチペン、及びマウス等が挙げられる。なお、スマートフォン12では、ディスプレイ46と入力装置48とを一体化したタッチパネルディスプレイを採用している。
【0033】
一方、画像表示装置14は、上述したように、第2のユーザが、ARグラス10のカメラ27が撮影した撮影画像を観察するために用いられる。
【0034】
図5には、画像表示装置14の機能に係る構成の一例を表す機能ブロック図が示されている。図5に示すように、画像表示装置14は、CPU50、メモリ52、I/F部53、記憶部54、ディスプレイ56、及び入力装置58を備える。CPU50、メモリ52、I/F部53、記憶部54、ディスプレイ56、及び入力装置58は、システムバスやコントロールバス等のバス59を介して相互に各種情報の授受が可能に接続されている。
【0035】
CPU50は、記憶部54に記憶された表示制御プログラム55を含む各種のプログラムをメモリ52へ読み出し、読み出したプログラムにしたがった処理を実行する。一例として本実施形態のプロセッサ51は、CPU50と表示制御プログラム55との組合せで構成される。メモリ52は、CPU50が処理を実行するためのワークメモリである。
【0036】
記憶部54には、表示制御プログラム55、及びスマートフォン12から受信した各種画像の画像データや、その他の各種情報等が記憶される。記憶部54の具体例としては、HDDやSSD等が挙げられる。
【0037】
I/F部53は、無線通信または有線通信により、情報処理装置16との間で各種情報の通信を行う。ディスプレイ56及び入力装置58はユーザインタフェースとして機能する。ディスプレイ56は、スマートフォン12から受信した各種の画像を表示する。ディスプレイ56は特に限定されるものではなく、液晶モニタ及びLEDモニタ等が挙げられる。また、入力装置58は、撮影画像に対するマーキングを行うために第2のユーザによって操作される。入力装置58は特に限定されるものではなく、例えば、キーボード、タッチペン、及びマウス等が挙げられる。なお、ディスプレイ56と入力装置58とを一体化したタッチパネルディスプレイを採用してもよい。
【0038】
一方、情報処理装置16は、上述したように、ARグラス10のカメラ27が撮影した撮影画像を画像表示装置14に表示させ、画像表示装置14により行われたマーキングに関する情報をARグラス10に表示させる機能を有する。
【0039】
図6には、情報処理装置16の機能に係る構成の一例を表す機能ブロック図が示されている。図6に示すように、情報処理装置16は、CPU60、メモリ62、I/F部63、記憶部64、ディスプレイ66、及び入力装置68を備える。CPU60、メモリ62、I/F部63、記憶部64、ディスプレイ66、及び入力装置68は、システムバスやコントロールバス等のバス69を介して相互に各種情報の授受が可能に接続されている。
【0040】
CPU60は、記憶部64に記憶された情報処理プログラム65を含む各種のプログラムをメモリ62へ読み出し、読み出したプログラムにしたがった処理を実行する。一例として本実施形態のプロセッサ61は、CPU60と情報処理プログラム65との組合せで構成される。メモリ62は、CPU60が処理を実行するためのワークメモリである。
【0041】
記憶部64には、情報処理プログラム65、及びスマートフォン12から受信した各種画像の画像データや、その他の各種情報等が記憶される。記憶部64の具体例としては、HDDやSSD等が挙げられる。
【0042】
I/F部63は、無線通信または有線通信により、スマートフォン12及び画像表示装置14との間で各種情報の通信を行う。ディスプレイ66及び入力装置68はユーザインタフェースとして機能する。ディスプレイ66は、スマートフォン12から受信した各種の画像を表示する。ディスプレイ66は特に限定されるものではなく、液晶モニタ及びLEDモニタ等が挙げられる。入力装置68は特に限定されるものではなく、例えば、キーボード、タッチペン、及びマウス等が挙げられる。なお、ディスプレイ66と入力装置68とを一体化したタッチパネルディスプレイを採用してもよい。
【0043】
次に、本実施形態における情報処理装置16のプロセッサ61の作用を説明する。図7には、情報処理装置16の構成の一例を示す機能ブロック図が示されている。情報処理装置16は。第1取得部70、第2送信部72、第2取得部74、第1マーカ画像75、投影画像生成部78、及び第1送信部79を備える。
【0044】
第1取得部70は、スマートフォン12から、測距装置25の検出結果、カメラ27が撮影した撮影画像、6DoFセンサ28の検出結果、及び視線検出センサ29の検出結果を取得する機能を有する。撮影画像は、第2送信部72及び投影画像生成部78に出力される。6DoFセンサ28及び測距装置25の検出結果は、現実位置導出部76に出力される。視線検出センサ29の検出結果は、投影画像生成部78に出力される。
【0045】
第2送信部72は、撮影画像を画像表示装置14に出力する機能を有する。
【0046】
第2取得部74は、画像表示装置14において、第2のユーザが行ったマーキングの位置を表す位置情報を取得する機能を有する。位置情報は、現実位置導出部76に出力される。
【0047】
現実位置導出部76は、測距装置25の検出結果及び位置情報に基づいて現実空間におけるマーキングの位置(以下、現実位置という)を導出する機能を有する。現実位置導出部76は、例えば、撮影画像と、測距装置25の検出結果との対応関係を参照し、撮影画像に対するマーキングの位置に応じた検出結果に基づいて、マーキングの現実位置を導出する。
【0048】
投影画像生成部78は、ARグラス10の機種情報に応じて、ARグラス10において投影画像を表示可能な現実空間の領域(以下、表示可能領域という)と、マーキングの現実位置とを比較する。投影画像生成部78は、マーキングの現実位置が表示可能領域内の場合、現実位置に応じたマーキングの画像を表す投影画像を生成する。一方、投影画像生成部78は、マーキングの現実位置が表示可能領域外の場合、現実位置を表す矢印等の位置情報を表す投影画像を生成する。
【0049】
第1送信部79は、投影画像生成部78が生成した投影画像をスマートフォン12に出力する機能を有する。
【0050】
図8には、情報処理装置16のプロセッサ61において実行される情報処理の流れの一例を表したフローチャートが示されている。
【0051】
ステップS100で第1取得部70は、ARグラス10のカメラ27が撮影した撮影画像を、スマートフォン12を介して取得する。また、第1取得部70は、測距装置25の検出結果、6DoFセンサ28の検出結果も取得する。
【0052】
次のステップS102で第2送信部72は、撮影画像を画像表示装置14に出力する。画像表示装置14では、カメラ27が撮影した撮影画像がディスプレイ66に表示される。第2のユーザは、ディスプレイ56に表示された撮影画像に対して、ARグラス10の第1のユーザに示したい領域について入力装置58を用いてマーキングする。
【0053】
ステップS104で第2取得部74は、マーキングの位置を表す位置情報を受信したか否か判定する。受信するまでステップS104の判定が否定判定となり、受信すると肯定判定となり、ステップS106へ移行する。
【0054】
ステップS106で現実位置導出部76は、マーキングの位置を表す情報と、ARグラス10からスマートフォン12を介して取得した測距装置25及び6DoFセンサ28の検出結果に基づいて、マーキングの現実位置を導出する。
【0055】
次のステップS108で投影画像生成部78は、現実位置が表示可能領域内であるか否かを判定する。表示可能領域ではある場合、ステップS108の判定が肯定判定となり、ステップS110へ移行する。ステップS110で投影画像生成部78は、現実位置に応じたマーキングの投影画像を生成する。
【0056】
一方、現実位置が表示可能領域外の場合、ステップS108の判定が否定判定となり、ステップS112へ移行する。ステップS112で投影画像生成部78は、現実位置を表す位置情報の投影画像を生成する。
【0057】
次のステップS114で第1送信部79は、投影画像をスマートフォン12に出力する。スマートフォン12は、受信した投影画像をARグラス10に表示させる。また、スマートフォン12は、視線検出センサ29の検出結果を情報処理装置16に出力する。
【0058】
次のステップS116で第1取得部70は、スマートフォン12から視線検出センサ29の検出結果を受信する。
【0059】
次のステップS118で投影画像生成部78は、視線検出結果に基づいて、第1のユーザがマーキングを視認したか否かを判定する。具体的には、マーキングに応じた現実空間の位置を視認したか否かを判定する。
【0060】
視認していない場合、否定判定となり、ステップS120へ移行する。ステップS120で投影画像生成部78は、設定時間が経過したが否か判定する。投影画像を表示させてから設定時間が経過するまで否定判定となり、ステップS118に戻る。一方、設定時間が経過すると肯定判定となり、ステップS122へ移行する。ステップS122で投影画像生成部78は、投影画像の輝度を増加させる、輝度を増加させた投影画像は、第1送信部79によりスマートフォン12に出力される。すなわち、投影画像生成部78は、視線の検出結果と、マーキングの現実空間における位置、またはマーキングの現実空間における位置を表す情報とを比較し、マーキングの表示状態、またはマーキングの位置を表す情報の表示状態を変更する処理を行う。
【0061】
一方、マーキングを視認した場合、ステップS118の処理が肯定判定となり、ステップS124へ移行する。ステップS124で第1送信部79は、投影終了指示をスマートフォン12に出力する。これにより、ARグラス10には、マーキングの投影画像の表示が終了する。ステップS124の処理が終了すると、図8に示した情報処理が終了する。
【0062】
これにより、本実施形態の情報処理装置16によれば、ARグラス10のユーザに、マーキングに対応する現実空間の位置の視認を十分に即すことができる。
【0063】
なお、眼鏡型情報表示装置の形状は、一般的な眼鏡の形状や用途や装着部位に限定されない。また、眼鏡型情報表示装置は、単眼型でも複眼型でもよく、上記形態では、一方の眼により投影像を視認する形態について説明したが、両眼で、投影像を視認する形態であってもよい。ゴーグルのように左右がつながった形状でもよい。また、いわゆるヘッドマウントディスプレイのように、人間の頭部に装着するものに限定されない(例えば、人の機能を模しつつ、外形は犬であるロボットで、人間の目の機能が、ロボットの膝に有るカメラで実現されるならば、本開示の制御装置は膝に装着される)。このような制御装置も、本開示の技術に含まれる。
【0064】
また、上記形態のプロセッサ61の機能の一部、または全部を、ARグラス10が備えていてもよいし、また、画像表示装置14が備えていてもよい。
【0065】
また、上記形態において、例えば、第1取得部70、第2送信部72、第2取得部74、現実位置導出部76、投影画像生成部78、及び第1送信部79といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
【0066】
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
【0067】
複数の処理部を1つのプロセッサで構成する例としては、第1に、上記実施形態のようにクライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
【0068】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
【0069】
また、上記各形態では、情報処理プログラム65が記憶部64に予め記憶(インストール)されている態様を説明したが、これに限定されない。画像処理プログラム45は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、情報処理プログラム65は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
【符号の説明】
【0070】
1 情報処理システム
10 ARグラス
12 スマートフォン
14 画像表示装置
16 情報処理装置
19 ネットワーク
20L 左眼用透過部、20R 右眼用透過部
22L 左眼用レンズ、22R 右眼用レンズ
24 導光板
25 測距装置
26 OLED
27 カメラ
28 6DoFセンサ
29 視線検出センサ
40、50、60 CPU
41、51、61 プロセッサ
42、52、62 メモリ
43、53、63 I/F部
44、54、64 記憶部
45 画像処理プログラム
46、56、66 ディスプレイ
48、58、68 入力装置
49、59、69 バス
55 表示制御プログラム
65 情報処理プログラム
70 第1取得部
72 第2送信部
74 第2取得部
76 現実位置導出部
78 投影画像生成部
79 第1送信部
図1
図2
図3
図4
図5
図6
図7
図8