(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024122802
(43)【公開日】2024-09-09
(54)【発明の名称】プロセッサ、表示制御方法、及び表示制御プログラム
(51)【国際特許分類】
G09G 5/00 20060101AFI20240902BHJP
G09G 5/37 20060101ALI20240902BHJP
G09G 5/373 20060101ALI20240902BHJP
G09G 5/36 20060101ALI20240902BHJP
G09G 5/38 20060101ALI20240902BHJP
G02B 27/02 20060101ALI20240902BHJP
H04N 5/64 20060101ALI20240902BHJP
【FI】
G09G5/00 550C
G09G5/00 510A
G09G5/37 320
G09G5/373 300
G09G5/36 400
G09G5/38 100
G02B27/02 Z
H04N5/64 511A
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2023030564
(22)【出願日】2023-02-28
(71)【出願人】
【識別番号】306037311
【氏名又は名称】富士フイルム株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】藤木 伸一郎
【テーマコード(参考)】
2H199
5C182
【Fターム(参考)】
2H199CA02
2H199CA25
2H199CA53
2H199CA66
2H199CA92
5C182AA02
5C182AA03
5C182AA04
5C182AA26
5C182AA31
5C182AB08
5C182AB35
5C182AC03
5C182AC43
5C182AC46
5C182BA03
5C182BA04
5C182BA06
5C182BA14
5C182BA29
5C182CB13
5C182CB14
5C182CB26
5C182CB42
5C182CB45
5C182CB54
5C182CC24
5C182DA41
5C182DA52
5C182DA63
(57)【要約】
【課題】ユーザが現実空間と共に、カメラにより撮影された撮影画像を視認する場合に、ユーザが視認する現実像と、撮影画像とのずれを抑制することができるプロセッサ、表示制御方法、及び表示制御プログラムを提供する。
【解決手段】少なくともユーザの一つの眼に現実空間を視認させ、カメラにより前記現実空間を撮影した撮影画像を表示させる眼鏡型表示装置が備えるプロセッサであって、前記ユーザの眼と前記カメラとの視差に基づいて、前記カメラの撮影画像の一部の領域である部分画像を前記ユーザに視認可能に表示する表示処理を実行するプロセッサ。
【選択図】
図8
【特許請求の範囲】
【請求項1】
少なくともユーザの一つの眼に現実空間を視認させ、カメラにより前記現実空間を撮影した撮影画像を表示させる眼鏡型表示装置が備えるプロセッサであって、
前記ユーザの眼と前記カメラとの視差に基づいて、前記カメラの撮影画像の一部の領域である部分画像を前記ユーザに視認可能に表示する表示処理を実行する、
プロセッサ。
【請求項2】
前記撮影画像に含まれる主要被写体までの被写体距離及び前記視差に基づいて前記部分画像を切り出す範囲を決定する
請求項1に記載のプロセッサ。
【請求項3】
前記被写体距離に基づいて、前記部分画像の表示サイズを決定する
請求項2に記載のプロセッサ。
【請求項4】
前記視差は、前記現実空間を視認する前記ユーザの眼と前記カメラとの視差である
請求項1に記載のプロセッサ。
【請求項5】
前記ユーザの一つの眼と前記カメラとの視差に応じて、前記ユーザの一つの眼で視認される現実空間に対応する領域を前記部分画像を切り出す範囲として決定し、
前記表示処理において、切り出された前記部分画像を、前記ユーザの一つの眼以外の眼で視認可能に表示する
請求項1に記載のプロセッサ。
【請求項6】
前記表示処理において、前記ユーザの一つの眼以外の眼の視野内の全域に前記部分画像を表示する
請求項5に記載のプロセッサ。
【請求項7】
前記ユーザの一つの眼と前記カメラとの視差に応じて、前記ユーザの一つの眼で視認される現実空間に対応する領域を前記部分画像を切り出す範囲として決定し、
前記表示処理において、切り出された前記部分画像を、前記ユーザの一つの眼で視認可能に表示する
請求項1に記載のプロセッサ。
【請求項8】
前記表示処理において、前記ユーザの一つの眼における視野内の一部に前記部分画像を表示する
請求項7に記載のプロセッサ。
【請求項9】
前記ユーザの複数眼の各々に対応して、前記部分画像の切り出しと前記表示処理とを実行する
請求項7に記載のプロセッサ。
【請求項10】
前記部分画像は、ライブビュー画像である、
請求項1に記載のプロセッサ。
【請求項11】
少なくともユーザの一つの眼に現実空間を視認させ、カメラにより前記現実空間を撮影した撮影画像を表示させる眼鏡型表示装置が備えるプロセッサが、
前記ユーザの眼と前記カメラとの視差に基づいて、前記カメラの撮影画像の一部の領域である部分画像を前記ユーザに視認可能に表示する表示処理、
を含む処理を実行する表示制御方法。
【請求項12】
少なくともユーザの一つの眼に現実空間を視認させ、カメラにより前記現実空間を撮影した撮影画像を表示させる眼鏡型表示装置が備えるプロセッサが実行する表示制御プログラムであって、
前記ユーザの眼と前記カメラとの視差に基づいて、前記カメラの撮影画像の一部の領域である部分画像を前記ユーザに視認可能に表示する表示処理、
を含む表示制御プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、プロセッサ、表示制御方法、及び表示制御プログラムに関する。
【背景技術】
【0002】
従来、表示画像を現実空間と共にユーザに視認させることが可能な、拡張現実(AR:Augmented Reality)機器等の眼鏡型表示装置が知られている。
【0003】
ユーザが視認する現実空間をカメラにより撮影し、得られた撮影画像を投影画像として、表示させることで、ARグラスにより撮影画像を視認する技術が知られている。例えば、特許文献1には、ヘッドマウントディスプレイの装着者の視線方向を撮影した撮影画像を網膜ディスプレイに投影する技術が記載されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、従来の技術では、現実空間を視認するユーザの眼の位置と、カメラとの位置がずれていると、視差が生じるため、ユーザが目視する現実像と、カメラによる撮影画像との見え方が異なってしまう場合がある。このような場合、例えば、ユーザに違和感を生じさせてしまう。
【0006】
本開示は、以上の事情を鑑みて成されたものであり、ユーザが現実空間と共に、カメラにより撮影された撮影画像を視認する場合に、ユーザが視認する現実像と、撮影画像とのずれを抑制することができるプロセッサ、表示制御方法、及び表示制御処理プログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
上記目的を達成するために、本開示の第1の態様のプロセッサは、少なくともユーザの一つの眼に現実空間を視認させ、カメラにより現実空間を撮影した撮影画像を表示させる眼鏡型表示装置が備えるプロセッサであって、ユーザの眼とカメラとの視差に基づいて、カメラの撮影画像の一部の領域である部分画像をユーザに視認可能に表示する表示処理を実行する。
【0008】
本開示の第2の態様のプロセッサは、第1の態様のプロセッサにおいて、撮影画像に含まれる主要被写体までの被写体距離及び視差に基づいて部分画像を切り出す範囲を決定する。
【0009】
本開示の第3の態様のプロセッサは、第2の態様のプロセッサにおいて、被写体距離に基づいて、部分画像の表示サイズを決定する。
【0010】
本開示の第4の態様のプロセッサは、第1の態様において、視差は、現実空間を視認するユーザの眼とカメラとの視差である。
【0011】
本開示の第5の態様のプロセッサは、第1の態様のプロセッサにおいて、ユーザの一つの眼とカメラとの視差に応じて、ユーザの一つの眼で視認される現実空間に対応する領域を、部分画像を切り出す範囲として決定し、表示処理において、切り出された部分画像を、ユーザの一つの眼以外の眼で視認可能に表示する。
【0012】
本開示の第6の態様のプロセッサは、第5の態様のプロセッサにおいて、表示処理において、ユーザの一つの眼以外の眼の視野内の全域に部分画像を表示する。
【0013】
本開示の第7の態様のプロセッサは、第1の態様のプロセッサにおいて、ユーザの一つの眼とカメラとの視差に応じて、ユーザの一つの眼で視認される現実空間に対応する領域を部分画像を切り出す範囲として決定し、表示処理において、切り出された部分画像を、ユーザの一つの眼で視認可能に表示する。
【0014】
本開示の第8の態様のプロセッサは、第7の態様のプロセッサにおいて、表示処理において、ユーザの一つの眼における視野内の一部に部分画像を表示する。
【0015】
本開示の第9の態様のプロセッサは、第8の態様のプロセッサにおいて、ユーザの複数眼の各々に対応して、部分画像の切り出しと表示処理とを実行する。
【0016】
本開示の第10の態様のプロセッサは、第9の態様において、部分画像は、ライブビュー画像である。
【0017】
上記目的を達成するために、本開示の第11の態様の表示制御方法は、少なくともユーザの一つの眼に現実空間を視認させ、カメラにより現実空間を撮影した撮影画像を表示させる眼鏡型表示装置が備えるプロセッサが、ユーザの眼とカメラとの視差に基づいて、カメラの撮影画像の一部の領域である部分画像をユーザに視認可能に表示する表示処理と、を含む処理を実行する方法である。
【0018】
上記目的を達成するために、本開示の第12の態様の表示制御プログラムは、少なくともユーザの一つの眼に現実空間を視認させ、カメラにより現実空間を撮影した撮影画像を表示させる眼鏡型表示装置が備えるプロセッサが実行する表示制御プログラムであって、ユーザの眼とカメラとの視差に基づいて、カメラの撮影画像の一部の領域である部分画像をユーザに視認可能に表示する表示処理と、を含む処理を実行させるためのものである。
【発明の効果】
【0019】
本開示によれば、ユーザが現実空間と共に、カメラにより撮影された撮影画像を視認する場合に、ユーザが視認する現実像と、撮影画像とのずれを抑制することができる。
【図面の簡単な説明】
【0020】
【
図1】実施形態の眼鏡型情報表示装置の構成の一例を示す構成図である。
【
図2】実施形態のARグラスの一例を示す斜視図である。
【
図3】実施形態のスマートフォンのハードウェア構成の一例を示すブロック図である。
【
図4】実施形態のプロセッサの構成の一例を示すブロック図である。
【
図5】カメラとユーザの眼との視差の一例について説明するための図である。
【
図6】ユーザが現実空間を視認することにより得られる現実像と、撮影画像とのずれの一例を説明するための図である。
【
図7】撮影画像から部分画像を切り出す方法の一例について説明するための図である。
【
図8】実施形態のプロセッサで実行される表示制御処理の一例を示すフローチャートである。
【
図9】実施形態におけるユーザによって視認される部分画像と現実像との関係の一例について説明するための図である。
【
図10】変形例1におけるユーザによって視認される部分画像と現実像との関係の一例について説明するための図である。
【
図11】変形例2におけるユーザによって視認される部分画像と現実像との関係の一例について説明するための図である。
【
図12】変形例3におけるユーザによって視認される部分画像と現実像との関係の一例について説明するための図である。
【
図13】変形例4におけるユーザによって視認される部分画像と現実像との関係の一例について説明するための図である。
【
図14】変形例5のプロセッサで実行される表示制御処理の一例を示すフローチャートである。
【発明を実施するための形態】
【0021】
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
【0022】
図1を参照して、本実施形態の眼鏡型情報表示装置1の構成を説明する。
図1に示すように、本実施形態の眼鏡型情報表示装置1は、AR(Augmented Reality)グラス10及びスマートフォン12を備える。本実施形態の眼鏡型情報表示装置1は、ARグラス10のカメラ25により現実空間を撮影した撮影画像を、ARグラス10により表示する機能を有する。
【0023】
ARグラス10は、OLED(Organic Light Emitting Diode)26から投影された投影画像を現実像に重畳させた状態でユーザによる視認を可能にする装置である。
図2には、本実施形態のARグラス10の一例の斜視図が示されている。
図1及び
図2に示すように、ARグラス10は、一対の左眼用透過部20L及び右眼用透過部20Rと、カメラ25と、OLED26と、を備える。
【0024】
カメラ25は、ARグラス10のユーザが観察する現実空間を撮影するカメラである。本実施形態のカメラ25は、ユーザの右眼と左眼との間に設けられている。カメラ25としては、例えば、CMOS(Complementary Metal Oxide Semiconductor)カメラ等のデジタル式カメラが挙げられる。一例として本実施形態のカメラ25は動画像の撮影が可能とされている。なお、本実施形態において、「撮影画像」とは、カメラ25により撮影された画像のことをいい、静止画像の場合もあるし、動画像の場合もある。
【0025】
OLED26は、右眼用透過部20Rを通じてユーザによって視認される現実像の視野内に重畳的に情報を挿入するために、右眼用透過部20Rに情報を表す投影画像を投影する。右眼用透過部20Rは、右眼用レンズ22R及び導光板24を含む。導光板24の一端には、OLED26から投影された投影画像に応じた光が入射される。導光板24の中を伝播した光は、出射部(図示省略)において向きを変えて、ユーザの眼の方向に出射される。導光板24から出射された投影画像に応じた光は、右眼用レンズ22Rを透過し、ユーザの右眼に導かれ、投影像として右眼で視認する。また、ユーザは、右眼用レンズ22Rを通した現実空間を現実像として右目で視認する。
【0026】
そのため、OLED26から投影画像が投影されている間は、ユーザの右眼によって視認される視認像は、右眼用レンズ22Rを通した現実空間を表す現実像と、導光板24に投影された投影画像に応じた投影像とが重畳された状態となる。また、OLED26から投影画像が投影されていない間は、ユーザによって視認される視認像は、右眼用レンズ22R及び導光板24を通した現実空間を表す現実像となる。
【0027】
本実施形態では、カメラ25により撮影された撮影画像を投影画像として投影することにより、ARグラス10、より具体的には、導光板24をカメラ25のファインダとして使用することができ、ユーザは右眼で、現実空間と、撮影画像とを視認する。ユーザの右眼によって視認される視認像は、現実空間を表す現実像と、撮影画像に応じた投影像とが重畳された状態となる。なお、本実施形態では、ARグラス10をカメラ25のファインダとして用いる場合、ライブビュー画像として撮影画像60を表示させる。
【0028】
一方、左眼用透過部20Lは、左眼用レンズ22Lを含む。ユーザは、左眼用レンズ22Lを通した現実空間を左眼で視認する。
【0029】
一方、スマートフォン12は、プロセッサ41を備える。本実施形態のCPU40は、OLED26から導光板24に投影画像を投影させる制御を、OLED26に対して行う。
【0030】
図3には、スマートフォン12のハードウェア構成の一例を表したブロック図が示されている。
図3に示すように、スマートフォン12は、CPU40、メモリ42、I/F(InterFace)部43、記憶部44、ディスプレイ46、及び入力装置48を備える。CPU40、メモリ42、I/F部43、記憶部44、ディスプレイ46、及び入力装置48は、システムバスやコントロールバス等のバス49を介して相互に各種情報の授受が可能に接続されている。
【0031】
CPU40は、記憶部44に記憶された表示制御プログラム45を含む各種のプログラムをメモリ42へ読み出し、読み出したプログラムにしたがった処理を実行する。これにより、CPU40は、OLED26による投影像の表示の制御を行う。一例として本実施形態のプロセッサ41は、CPU40と表示制御プログラム45との組合せで構成される。メモリ42は、CPU40が処理を実行するためのワークメモリである。
【0032】
CPU40において実行される表示制御プログラム45は、記憶部44に記憶される。また、記憶部44には、カメラ25により撮影された撮影画像や、OLED26から投影する他の投影画像の画像データ(図示省略)や、その他の各種情報等も記憶される。記憶部44の具体例としては、HDD(Hard Disk Drive)やSSD(Solid State Drive)等が挙げられる。
【0033】
I/F部43は、無線通信または有線通信により、カメラ25及びOLED26各々との間で各種情報の通信を行う。ディスプレイ46及び入力装置48はユーザインタフェースとして機能する。ディスプレイ46は、ユーザに対して、投影画像の投影に関する各種の情報を提供する。ディスプレイ46は特に限定されるものではなく、液晶モニタ及びLED(Light Emitting Diode)モニタ等が挙げられる。入力装置48は特に限定されるものではなく、例えば、キーボード、タッチペン、及びマウス等が挙げられる。なお、スマートフォン12では、ディスプレイ46と入力装置48とを一体化したタッチパネルディスプレイを採用している。
【0034】
また、本実施形態のスマートフォン12のプロセッサ41の機能について説明する。
図4には、本実施形態のプロセッサ41の機能に係る構成の一例を表す機能ブロック図が示されている。
図4に示すようにプロセッサ41は、撮影画像取得部50、画像処理部52、及び表示制御部54を備える。一例として本実施形態のプロセッサ41は、CPU40が記憶部44に記憶されている表示制御プログラム45を実行することにより、CPU40が撮影画像取得部50、画像処理部52、及び表示制御部54として機能する。
【0035】
撮影画像取得部50は、撮影画像60を取得する機能を有する。一例として本実施形態のスマートフォン12は、カメラ25により撮影された撮影画像60の画像データを取得し、記憶部44に記憶させる。そのため、撮影画像取得部50は、記憶部44から撮影画像60を取得する。本実施形態では、カメラ25に電源が投入されてから電源が遮断されるまで、カメラ25による撮像が行われ、撮像された撮影画像を表す画像データが、I/F部43を介して随時入力され、一旦、記憶部44に記憶される。そのため、撮影画像取得部50は、記憶部44から撮影画像60を取得する。撮影画像取得部50は、取得した撮影画像60を、画像処理部52に出力する。
【0036】
画像処理部52は、ユーザの眼とカメラ25との視差に基づいて、撮影画像60の一部の領域である部分画像を切り出す画像処理を行う機能を有する。
図5~7を参照して画像処理部52の機能を説明する。本実施形態では、上述した
図2に示したように、カメラ25がユーザの右眼と左眼との間に設けられている。そのため、
図5に示すように、ユーザの右眼URとカメラ25(イメージセンサ)との間に視差αが生じている。具体的には、視差αは、ユーザの右眼URの中心線LC1と、カメラ25のイメージセンサの撮影面80の中心線LC2との間隔に相当する。
【0037】
このように視差αが生じているため、
図6に示すように、ユーザの右眼URが現実空間70を視認することにより得られる現実像76Rと、撮影画像60との間には、視差αに応じたずれが生じる。
図6に示した例では、現実像76R中における被写体像73の位置と、撮影画像60中における被写体画像62の位置とに、
図5に示した位置ずれ量βに相当する位置ずれが生じる。
【0038】
具体的には、位置ずれ量βは、視差αと、カメラ25と被写体72との間の被写体距離Dと、カメラ25の焦点距離Fとを用いた下記(1)式により導出することができる。
β=α×(F÷D) ・・・(1)
【0039】
なお、焦点距離Fは、カメラ25の仕様により予め定められており、視差αは、ARグラス10の設計値として定められている。一例として焦点距離F及び視差αは、記憶部44に記憶されている。そのため、画像処理部52は、記憶部44から、焦点距離F及び視差αを取得する。一方、被写体距離Dは、カメラ25のオートフォーカス機能により得ることができる。一例として本実施形態では、撮影画像取得部50が取得する撮影画像60に、被写体距離Dが対応付けられており、撮影画像取得部50によって、撮影画像60と共に被写体距離Dが取得される。
【0040】
このようにユーザの右眼URとカメラ25との間には視差αが生じているため、画像処理部52は、
図7に示すように、位置ずれ量βを打ち消すように、視差αに基づいて、撮影画像60から一部の領域を部分画像64として切り出す。
【0041】
一例として本実施形態では、部分画像64の大きさが予め定められている。
図7に示すように、画像処理部52は、部分画像64の中心線LC4を、撮影画像60の中心線LC3から位置ずれ量βだけずらした位置に設定し、部分画像64として予め定められた大きさの領域を、切り出し範囲63として決定する。そして、画像処理部52は、いわゆるトリミング処理を行うことで、決定した切り出し範囲63に基づいて撮影画像60から部分画像64を切り出す。画像処理部52は、切り出した部分画像64を表示制御部54に出力する。
【0042】
表示制御部54は、画像処理部52が切り出した撮影画像60を投影画像として表示させる制御を行う機能を有する。具体的には、表示制御部54は、部分画像64の画像データをOLED26に出力し、OLED26から部分画像64を投影させることにより、撮影画像60の一部の領域である部分画像64を表示させる制御を行う。
図7に示したように、表示される部分画像64は、ユーザの右眼URが現実空間70を視認することにより得られる現実像76Rと、被写体画像62(被写体像73)の位置にずれが生じていない、すなわち見た目が同様の画像となる。
【0043】
次に、本実施形態のプロセッサ41の作用を説明する。
図8には、本実施形態のプロセッサ41による表示制御処理の流れの一例を表したフローチャートが示されている。一例として本実施形態のスマートフォン12では、ユーザが入力装置48を用いてカメラ25による撮影開始の指示を受けた場合、プロセッサ41のCPU40が、記憶部44に記憶されている表示制御プログラム45を実行することにより、
図8に一例を示した表示制御処理を実行する。
【0044】
図8のステップS100で撮影画像取得部50は、上述したように、カメラ25により撮影された撮影画像60を取得する。なお、本実施形態では、撮影画像60をライブビュー画像として表示するため、取得する撮影画像60は動画像となる。
【0045】
次のステップS102で画像処理部52は、上述したように、位置ずれ量βを導出する。具体的には、画像処理部52は、視差α、被写体距離D、及び焦点距離Fを取得する。そして画像処理部52は、上述した(1)式を用いて、位置ずれ量βを導出する。
【0046】
次のステップS104で画像処理部52は、上述したように、撮影画像60から部分画像64を切り出す切り出し範囲63を決定する。具体的には、画像処理部52は、撮影画像60の中心線LC3から位置ずれ量βほどずれた位置に部分画像64の中心線LC4が配置されるように、切り出し範囲63の切り出し範囲を決定する。
【0047】
次のステップS106で画像処理部52は、上述したように、撮影画像60から、上記ステップS104で決定した切り出し範囲63に応じた領域を部分画像64として切り出す。
【0048】
次のステップS108で表示制御部54は、上述したように部分画像64の画像データをOLED26に出力し、投影を開始するようOLED26に指示することにより、部分画像64をライブビュー画像として表示させる。これにより、ユーザの右眼URは、現実空間と共に、ライブビュー画像(部分画像)を視認することができる。
【0049】
図9には、撮影画像60から切り出される部分画像64と、ユーザによって視認される現実像76L、76Rとの関係の一例が示されている。
図9に示すように、ユーザの左眼は、左眼用レンズ22Lを通して現実空間70を視認することにより、現実空間70を現実像76Lとして視認する。また、ユーザの右眼URは、右眼用レンズ22Rを通して現実空間70を視認することにより、現実空間70を現実像76Rとして視認し、また、部分画像64を視認することにより、部分画像64を部分像68として視認する。
図9に示すように、現実像76Rに対する被写体像73の位置と、部分像68に対する被写体像69の位置とを同様とすることができる。すなわち、現実像76Rと、部分像68との見え方を同様にすることができる。
【0050】
従って、本実施形態の眼鏡型情報表示装置1によれば、ユーザが現実空間70と共に、カメラ25により撮影された撮影画像60を視認する場合に、ユーザが視認する現実像76Rと、撮影画像60とのずれを抑制することができる。
【0051】
なお、本開示の技術は上記実施形態に限らず、様々な変形が可能である。例えば、上記実施形態では、ユーザが右眼URで、ARグラス10の右眼用レンズ22Rを通して現実空間70と、撮影画像60から切り出した部分画像64とを視認する形態について説明したが、現実空間70及び部分画像64を視認する形態について上記実施形態に限定されない。例えば、現実空間70及び部分画像64を視認する形態は、下記の変形例1~4のようにしてもよい。
【0052】
(変形例1)
本変形例では、ユーザが左眼で左眼用レンズ22Lを通して現実空間70と、撮影画像60から切り出した部分画像64とを視認する場合について説明する。
【0053】
本変形例のARグラス10では、導光板24が左眼用透過部20Lに設けられている点で上記実施形態のARグラス10(
図1参照)と異なっている。
【0054】
なお、本変形例の表示制御処理は、上記実施形態の表示制御処理(
図8参照)と、画像処理部52が、ユーザの左眼とカメラ25との視差αに基づいて、撮影画像60から部分画像64を切り出す以外は、同様の処理を行えばよい。
【0055】
図10には、本変形例において、撮影画像60から切り出される部分画像64と、ユーザによって視認される現実像76L、76Rとの関係の一例が示されている。
図10に示すように、ユーザの左眼は、左眼用レンズ22Lを通して現実空間70を視認することにより、現実空間70を現実像76Lとして視認し、また、部分画像64を視認することにより、部分画像64を部分像68として視認する。また、ユーザの右眼URは、右眼用レンズ22Rを通して現実空間70を視認することにより、現実空間70を現実像76Rとして視認する。
【0056】
本変形例によれば、
図10に示すように、現実像76Lに対する被写体像73の位置と、部分像68に対する被写体像69の位置とを同様とすることができる。すなわち、現実像76Lと、部分像68との見え方を同様にすることができる。
【0057】
(変形例2)
本変形例では、ユーザが右眼で右眼用レンズ22Rを通して現実空間70と、撮影画像60から切り出した部分画像64とを視認する場合の変形例について説明する。
【0058】
本変形例のARグラス10では、右眼用透過部20Rに設けられた導光板24により、右眼用レンズ22Rの全体に部分画像64を投影できる点で上記実施形態のARグラス10(
図1参照)と異なっている。
【0059】
本変形例では、ユーザは左眼で現実空間70を視認し、右眼URで部分画像64を視認する。そのため、本変形例の表示制御処理では、画像処理部52は、ユーザの左眼とカメラ25との視差αに基づいて、撮影画像60から部分画像64を切り出す処理を行う。なお、その他の処理は、上記実施形態の表示制御処理(
図8参照)と、同様の処理を行えばよい。
【0060】
図11には、撮影画像60から切り出される部分画像64と、ユーザによって視認される現実像76L、76Rとの関係の一例が示されている。
図11に示すように、ユーザの左眼は、左眼用レンズ22Lを通して現実空間70を視認することにより、現実空間70を現実像76Lとして視認する。また、ユーザの右眼URは、部分画像64を視認することにより、部分画像64を部分像68として視認する。すなわち、本変形例では、部分像68が右眼用レンズ22Rの全体に表示されるため、ユーザの右眼URは、右眼用レンズ22Rを通して現実空間70を視認しない。
【0061】
本変形例によれば、
図11に示すように、ユーザが左眼で視認する現実像76Lに対する被写体像73の位置と、ユーザが右眼URで視認する部分像68に対する被写体像69の位置とを同様とすることができる。すなわち、現実像76Lと、部分像68との見え方を同様にすることができる。
【0062】
(変形例3)
本変形例では、ユーザが左眼で左眼用レンズ22Lを通して現実空間70と、撮影画像60から切り出した部分画像64とを視認する場合の変形例について説明する。
【0063】
本変形例のARグラス10では、導光板24が左眼用透過部20Lに設けられており、導光板24により、左眼用レンズ22Lの全体に部分画像64を投影できる点で上記実施形態のARグラス10(
図1参照)と異なっている。
【0064】
本変形例では、ユーザは右眼URで現実空間70を視認し、左眼で部分画像64を視認する。そのため、本変形例の表示制御処理では、画像処理部52は、ユーザの右眼URとカメラ25との視差αに基づいて、撮影画像60から部分画像64を切り出す処理を行う。すなわち、本変形例の表示制御処理では、上記実施形態の表示制御処理(
図8参照)と、同様の処理を行えばよい。
【0065】
図12には、撮影画像60から切り出される部分画像64と、ユーザによって視認される現実像76L、76Rとの関係の一例が示されている。
図12に示すように、ユーザの左眼は、部分画像64を視認することにより、部分画像64を部分像68として視認する。すなわち、本変形例では、部分像68が左眼用レンズ22Lの全体に表示されるため、ユーザの左眼は、左眼用レンズ22Lを通して現実空間70を視認しない。また、ユーザの右眼URは、右眼用レンズ22Rを通して現実空間70を視認することにより、現実空間70を現実像76Rとして視認する。 本変形例によれが、
図12に示すように、ユーザが右眼URで視認する現実像76Rに対する被写体像73の位置と、ユーザが左眼で視認する部分像68に対する被写体像69の位置とを同様とすることができる。すなわち、現実像76Rと、部分像68との見え方を同様にすることができる。
【0066】
(変形例4)
本変形例では、ユーザが右眼URで右眼用レンズ22Rを通して現実空間70と、撮影画像60から切り出した部分画像64とを視認し、かつ左眼で左眼用レンズ22Lを通して現実空間70と、撮影画像60から切り出した部分画像64とを視認する場合について説明する。
【0067】
本変形例のARグラス10では、導光板24が右眼用透過部20R及び左眼用透過部20Lの両方に設けられている点で上記実施形態のARグラス10(
図1参照)と異なっている。
【0068】
なお、本変形例の表示制御処理では、ユーザの右眼URとカメラ25との視差αに基づいて撮影画像60から部分画像64Rを切り出し、切り出した部分画像64Rを右眼用透過部20Rに設けられた導光板24から投影する。また、本変形例の表示制御処理では、ユーザの左眼とカメラ25との視差αに基づいて撮影画像60から部分画像64Lを切り出し、切り出した部分画像64Lを左眼用透過部20Lに設けられた導光板24から投影する。
【0069】
図13には、本変形例において、撮影画像60から切り出される部分画像64L、64Rと、ユーザによって視認される現実像76L、76Rとの関係の一例が示されている。
図13に示すように、ユーザの左眼は、左眼用レンズ22Lを通して現実空間70を視認することにより、現実空間70を現実像76Lとして視認し、また、部分画像64Lを視認することにより、部分画像64Lを部分像68Lとして視認する。また、ユーザの右眼URは、右眼用レンズ22Rを通して現実空間70を視認することにより、現実空間70を現実像76Rとして視認し、また、部分画像64Rを視認することにより、部分画像64Rを部分像68Rとして視認する。
【0070】
本変形例によれば、
図13に示すように、現実像76Lに対する被写体像73の位置と、部分像68Lに対する被写体像69の位置とを同様とすることができる。すなわち、現実像76Lと、部分像68Lとの見え方を同様にすることができる。また、現実像76Rに対する被写体像73の位置と、部分像68Rに対する被写体像69の位置とを同様とすることができる。すなわち、現実像76Rと、部分像68Rとの見え方を同様にすることができる。
【0071】
さらに、本開示の技術は、例えば下記の変形例5のようにしてもよい。
(変形例5)
上記実施形態及び変形例1~4では、切り出し範囲63の大きさが予め定められている形態について説明したが、切り出し範囲63の大きさを、可変としてもよい。例えば、被写体距離Dに基づいて、切り出し範囲63の大きさ、すなわち部分画像64の大きさを決定してもよい。
【0072】
図14には、本変形例における表示制御処理の流れの一例を表したフローチャートが示されている。
図14に示した本変形例の表示制御処理は、ステップS102とステップS104との間にステップS103の処理を含み、ステップS106とステップS108との間にステップS107の処理を含む点で、上記実施形態の表示制御処理(
図8参照)と異なっている。
【0073】
図14のステップS103で画像処理部52は、上述したように、切り出し範囲63(部分画像64)の大きさを決定する。一例として本実施形態では、右眼用レンズ22Rまたは、左眼用レンズ22Lを通してユーザが視認する現実空間70の領域に基づいて切り出し範囲63の大きさ、すなわち部分画像64の大きさの基準値が予め定められている。そのため、画像処理部52は、被写体距離Dに基づいて、切り出し範囲63(部分画像64)の大きさの基準値を補正し、補正した大きさを切り出し範囲63(部分画像64)の大きさとして決定する。
【0074】
また、ステップS107で画像処理部52は、ステップS106で撮影画像60から切り出した部分画像64のサイズを調整する。上述したように、本変形例では、部分画像64の大きさが、被写体距離Dによって異なる。しかしながら、部分画像64を投影するARグラス10の領域の大きさは一定である。そこで、本変形例では、上述した切り出し範囲63(部分画像64)の基準値に基づいて、切り出した部分画像64のサイズを拡縮して調整する。
【0075】
図14に示した表示制御処理を実行することにより、本変形例においても、上記実施形態及び変形例1~4と同様に、ユーザが現実空間70と共に、カメラ25により撮影された撮影画像60を視認する場合に、ユーザが視認する現実像76L、76Rと、撮影画像60とのずれを抑制することができる。
【0076】
以上説明したように、上記実施形態及び変形例1~5の眼鏡型情報表示装置1は、少なくともユーザの一つの眼に現実空間70を視認させ、カメラ25により現実空間70を撮影した撮影画像60を表示させる。画像処理部52は、ユーザの眼とカメラ25との視差αに基づいて、カメラ25の撮影画像60から一部の領域である部分画像64を切り出し、表示制御部54は、部分画像64をユーザに視認可能に表示する。
【0077】
これにより、上記実施形態及び変形例1~5の眼鏡型情報表示装置1では、ユーザが視認する現実像76L、76Rと、撮影画像60とのずれを抑制することができる。すなわち、上記実施形態及び変形例1~5の眼鏡型情報表示装置1によれば、ユーザが現実空間70と共に、カメラ25により撮影された撮影画像60を視認する場合に、ユーザが視認する現実像76L、76Rと、撮影画像60とのずれを抑制することができる。
【0078】
なお、上記実施形態及び変形例1~5では、
図2に示したようにARグラス10がカメラ25を備えており、ユーザの右眼と左眼との間にカメラ25が設けられている形態について説明したが、カメラ25が設けられる位置は、
図2に示した形態に限定されない。例えば、カメラ25は、ARグラス10のテンプル(つる)の部分に設けられていてもよい。また例えば、カメラ25は、ARグラス10に備えられていなくてもよい。さらには、カメラ25は、眼鏡型情報表示装置1に備えられていなくてもよい。この場合のカメラ25としては、例えば、ユーザの頭部等に装着可能なウエアラブルのカメラが挙げられる。いずれの場合であっても、カメラ25が設けられる位置が予め定められている、もしくはカメラ25が設けられている位置が検出可能であればよく、視差αを特定できる構成であればよい。
【0079】
また、上記各形態の眼鏡型情報表示装置1では、表示部として導光板24を用いるARグラス10に説明したが、表示部として網膜ディスプレイを用いるARグラス10であってもよい。
【0080】
なお、眼鏡型情報表示装置の形状は、一般的な眼鏡の形状や用途や装着部位に限定されない。また、眼鏡型情報表示装置は、単眼型でも複眼型でもよい。ゴーグルのように左右がつながった形状でもよい。また、いわゆるヘッドマウントディスプレイのように、人間の頭部に装着するものに限定されない(例えば、人の機能を模しつつ、外形は犬であるロボットで、人間の目の機能が、ロボットの膝に有るカメラで実現されるならば、本開示のプロセッサは膝に装着された画像処理装置に備えられる)。このような画像処理装置も、本開示の技術に含まれる。なお、このようにユーザがヒトではなく、ロボット等である場合、ユーザが複数の眼を備える形態であってもよい。
【0081】
また、上記形態のプロセッサ41の機能の一部、または全部を、ARグラス10が備えていてもよいし、また、眼鏡型情報表示装置1外の装置が備えていてもよい。
【0082】
また、上記形態において、例えば、撮影画像取得部50、画像処理部52、及び表示制御部54といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
【0083】
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
【0084】
複数の処理部を1つのプロセッサで構成する例としては、第1に、上記実施形態のようにクライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
【0085】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
【0086】
また、上記各形態では、表示制御プログラム45が記憶部44に予め記憶(インストール)されている態様を説明したが、これに限定されない。表示制御プログラム45は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、表示制御プログラム45は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
【0087】
以上の上記実施形態に関し、更に以下の付記を開示する。
【0088】
(付記1)
少なくともユーザの一つの眼に現実空間を視認させ、カメラにより前記現実空間を撮影した撮影画像を表示させる眼鏡型表示装置が備えるプロセッサであって、
前記ユーザの眼と前記カメラとの視差に基づいて、前記カメラの撮影画像の一部の領域である部分画像を前記ユーザに視認可能に表示する表示処理を実行する、
プロセッサ。
【0089】
(付記2)
前記撮影画像に含まれる主要被写体までの被写体距離及び前記視差に基づいて前記部分画像を切り出す範囲を決定する
付記1に記載のプロセッサ。
【0090】
(付記3)
前記被写体距離に基づいて、前記部分画像の表示サイズを決定する
付記2に記載のプロセッサ。
【0091】
(付記4)
前記視差は、前記現実空間を視認する前記ユーザの眼と前記カメラとの視差である
付記1から付記3のいずれか1つに記載のプロセッサ。
【0092】
(付記5)
前記ユーザの一つの眼と前記カメラとの視差に応じて、前記ユーザの一つの眼で視認される現実空間に対応する領域を前記部分画像を切り出す範囲として決定し、
前記表示処理において、切り出された前記部分画像を、前記ユーザの一つの眼以外の眼で視認可能に表示する
付記1から付記4のいずれか1つに記載のプロセッサ。
【0093】
(付記6)
前記表示処理において、前記ユーザの一つの眼以外の眼の視野内の全域に前記部分画像を表示する
付記5に記載のプロセッサ。
【0094】
(付記7)
前記ユーザの一つの眼と前記カメラとの視差に応じて、前記ユーザの一つの眼で視認される現実空間に対応する領域を前記部分画像を切り出す範囲として決定し、
前記表示処理において、切り出された前記部分画像を、前記ユーザの一つの眼で視認可能に表示する
付記1から付記4のいずれか1つに記載のプロセッサ。
【0095】
(付記8)
前記表示処理において、前記ユーザの一つの眼における視野内の一部に前記部分画像を表示する
付記7に記載のプロセッサ。
【0096】
(付記9)
前記ユーザの複数眼の各々に対応して、前記部分画像の切り出しと前記表示処理とを実行する
付記7に記載のプロセッサ。
【0097】
(付記10)
前記部分画像は、ライブビュー画像である、
付記1から付記9のいずれか1つに記載のプロセッサ。
【0098】
(付記11)
少なくともユーザの一つの眼に現実空間を視認させ、カメラにより前記現実空間を撮影した撮影画像を表示させる眼鏡型表示装置に対して表示制御を行う表示制御装置であって、
少なくとも1つのプロセッサを備え、
前記プロセッサは、
前記ユーザの眼と前記カメラとの視差に基づいて、前記カメラの撮影画像の一部の領域である部分画像を前記ユーザに視認可能に表示する表示処理を実行する、
表示制御装置。
【0099】
(付記12)
少なくともユーザの一つの眼に現実空間を視認させ、カメラにより前記現実空間を撮影した撮影画像を表示させる眼鏡型表示装置が備えるプロセッサが、
前記ユーザの眼と前記カメラとの視差に基づいて、前記カメラの撮影画像の一部の領域である部分画像を前記ユーザに視認可能に表示する表示処理、
を含む処理を実行する表示制御方法。
【0100】
(付記13)
少なくともユーザの一つの眼に現実空間を視認させ、カメラにより前記現実空間を撮影した撮影画像を表示させる眼鏡型表示装置が備えるプロセッサが実行する表示制御プログラムであって、
前記ユーザの眼と前記カメラとの視差に基づいて、前記カメラの撮影画像の一部の領域である部分画像を前記ユーザに視認可能に表示する表示処理、
を含む表示制御プログラム。
【符号の説明】
【0101】
1 眼鏡型情報表示装置
10 ARグラス
12 スマートフォン
20L 左眼用透過部、20R 右眼用透過部
22L 左眼用レンズ、22R 右眼用レンズ
24 導光板
25 カメラ
26 OLED
40 CPU
41 プロセッサ
42 メモリ
43 I/F部
44 記憶部
45 表示制御プログラム
46 ディスプレイ
48 入力装置
49 バス
50 撮影画像取得部
52 画像処理部
54 表示制御部
60 撮影画像
62 被写体画像
63 切り出し範囲
64、64L、64R 部分画像
68、68L、68R 部分像
69、73 被写体像
70 現実空間
72 被写体
76L、76R 現実像
80 撮影面
D 被写体距離
F 焦点距離
LC1~LC4 中心線
UR 右眼
α 視差
β 位置ずらし量