IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社バーチャルウインドウの特許一覧

特開2024-138501画像表示システム、ディスプレイ装置
<>
  • 特開-画像表示システム、ディスプレイ装置 図1
  • 特開-画像表示システム、ディスプレイ装置 図2
  • 特開-画像表示システム、ディスプレイ装置 図3
  • 特開-画像表示システム、ディスプレイ装置 図4
  • 特開-画像表示システム、ディスプレイ装置 図5
  • 特開-画像表示システム、ディスプレイ装置 図6
  • 特開-画像表示システム、ディスプレイ装置 図7
  • 特開-画像表示システム、ディスプレイ装置 図8
  • 特開-画像表示システム、ディスプレイ装置 図9
  • 特開-画像表示システム、ディスプレイ装置 図10
  • 特開-画像表示システム、ディスプレイ装置 図11
  • 特開-画像表示システム、ディスプレイ装置 図12
  • 特開-画像表示システム、ディスプレイ装置 図13
  • 特開-画像表示システム、ディスプレイ装置 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024138501
(43)【公開日】2024-10-08
(54)【発明の名称】画像表示システム、ディスプレイ装置
(51)【国際特許分類】
   G06T 19/00 20110101AFI20241001BHJP
   H04N 13/344 20180101ALI20241001BHJP
   H04N 13/366 20180101ALI20241001BHJP
   G02B 30/24 20200101ALI20241001BHJP
   G02B 30/26 20200101ALI20241001BHJP
【FI】
G06T19/00 600
H04N13/344
H04N13/366
G02B30/24
G02B30/26
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2024113105
(22)【出願日】2024-07-16
(62)【分割の表示】P 2024523997の分割
【原出願日】2022-11-01
(71)【出願人】
【識別番号】520071560
【氏名又は名称】株式会社バーチャルウインドウ
(74)【代理人】
【識別番号】110000279
【氏名又は名称】弁理士法人ウィルフォート国際特許事務所
(72)【発明者】
【氏名】佐藤 塁
(57)【要約】      (修正有)
【課題】ユーザ視点と透過型のディスプレイ装置との相対位置が固定されていない条件のもと、ユーザが透過型のディスプレイ装置を通して見る実空間のオブジェクトに仮想オブジェクトを重畳表示する。
【解決手段】画像表示システム1は、透過型のディスプレイ装置30、ディスプレイ装置及び画像生成装置10を備える。画像生成装置は、実空間上のオブジェクト及び仮想空間上の仮想オブジェクトに対して、位置情報と三次元形状の情報を記憶する記憶部と、ユーザ2の視点位置2Aからディスプレイ装置を見たときにディスプレイ装置を通して見える実空間に対して、視点位置から仮想空間を見たときの見え方となる仮想オブジェクトが重畳表示されるように、視点位置と、ディスプレイ装置の位置情報と三次元形状と、仮想オブジェクトの三次元画像データとに基づいて射影変換又は透視投影変換により画像を生成してディスプレイ装置に表示させる処理部と、を有する。
【選択図】図1
【特許請求の範囲】
【請求項1】
画像を表示可能である透過型のディスプレイ装置と、
前記ディスプレイ装置と、その周囲に存在する実空間上のオブジェクト、および、任意の仮想オブジェクトに対して、各々における実空間における座標系と重ね合わせる形で設定した所定の基準座標系上に構築された仮想空間上の位置情報と三次元形状の情報を記憶する記憶部と、
ユーザが或る視点位置から前記ディスプレイ装置を見たときに前記ディスプレイ装置を通して見える実空間に対して、前記視点位置から前記仮想空間を見たときの見え方となる仮想オブジェクトが正確に重畳表示されるように、前記視点位置と、前記ディスプレイ装置の位置情報と三次元形状と、前記仮想オブジェクトを表す三次元画像データとに基づいて射影変換または透視投影変換を行うことで、画像を生成して前記ディスプレイ装置に表示させる処理部と、
を有する画像表示システム。
【請求項2】
前記ユーザの視点位置から前記ディスプレイ装置を通して見える実空間に関する情報を取得する実空間情報取得装置をさらに有し、
前期記憶部は前期実空間情報取得装置により取得された情報を記憶し、
前記処理部は、前期実空間情報取得装置により取得された情報をも用いて前記画像を生成する、
請求項1に記載の画像表示システム。
【請求項3】
前記視点位置は予め定義された位置である、
請求項1に記載の画像表示システム。
【請求項4】
前記画像表示システムは前記ユーザの前記視点位置を測定する測定装置をさらに有し、
前記視点位置は、前記測定装置によって測定された位置をもとに設定されている、
請求項1に記載の画像表示システム。
【請求項5】
前記画像表示システムは、前記ユーザが着用する三次元眼鏡装置をさらに有し、
前記処理部は、前記視点位置に応じて、視差を有する左右の眼用の2つの表示画像を生成して、前記ディスプレイ装置に表示し、
前記三次元眼鏡装置は、前記2つの表示画像を前記ユーザの左右の眼にそれぞれ見せる、
請求項1に記載の画像表示システム。
【請求項6】
前記画像表示システムは、複数の前記ユーザが各々着用する複数の前記三次元眼鏡装置を有し、
前記処理部は、各々の前記ユーザのそれぞれの前記視点位置に応じて、前記視差を有する左右の眼用の2つの表示画像を各々の前記視点位置毎に生成して、各々の前記視点位置毎に割り当てられる前記2つの表示画像を時分割方式で前記ディスプレイ装置に表示し、
各々の前記三次元眼鏡装置は、対応する前記視点位置に割り当てられた前記2つの表示画像を前記ユーザの左右の眼にそれぞれ見せる、
請求項5に記載の画像表示システム。
【請求項7】
前記画像表示システムは1又は複数の前記ユーザのそれぞれの前記視点位置を測定する測定装置をさらに有し、前記視点位置は、前記測定装置によって測定された位置であり、
前記ディスプレイ装置は、複数の表示方向に異なる画像を同時に表示可能に構成されており、
前記処理部はさらに、前記測定装置によって測定された1又は複数の前記ユーザのそれぞれの前記視点位置毎に、該視点位置から前記ディスプレイ装置を見たときに前記ディスプレイ装置を通して見える実空間に対して、前記視点位置から前記仮想空間を見たときの見え方となる仮想オブジェクトが正確に重畳表示されるように、各々の前記視点位置と、前記ディスプレイ装置の位置情報と三次元形状と、前記仮想オブジェクトを表す三次元画像データとに基づいて射影変換、透視投影変換、もしくはそれに類する計算処理を行うことで生成する前記画像を、該視点位置に応じて生成し、該画像を、前記ディスプレイ装置から、当該視点位置に向けたユーザ視点位置方向に表示させるように構成されている、
請求項1に記載の画像表示システム。
【請求項8】
前記処理部はさらに、
前記視点位置毎に、該視点位置における前記ユーザの右目及び左目から夫々、前記ディスプレイ装置を通して見える実空間に対して、各々の前記視点位置における右目及び左目毎にそれらの位置から前記仮想空間を見たときの見え方となる仮想オブジェクトが正確に重畳表示されるように、各々の前記視点位置における右目及び左目の位置と、前記ディスプレイ装置の位置情報と三次元形状と、前記仮想オブジェクトを表す三次元画像データとに基づいて射影変換または透視投影変換を行うことで、 右目用表示画像及び左目用表示画像を生成し、
前記視点位置を境に前記ユーザの右目側の前記ユーザ視点位置方向へは前記右目用表示画像を前記ディスプレイ装置から表示させ、前記ユーザ視点位置を境に前記ユーザの左目側の前記ユーザ視点位置方向へは前記左目用表示画像を前記ディスプレイ装置から表示させるように構成されている、
請求項7に記載の画像表示システム。
【請求項9】
表示画像を形成する複数の画素ユニットが設けられた光透過性を有する基板と、前記画素ユニットの上に設けられたレンズ素子とを備えた透過型のディスプレイ装置であって、
前記複数の画素ユニットは互いに離れて前記基板に配置されており、各々の前記画素ユニットは複数の表示素子からなり、
各々の前記レンズ素子は、対応する前記画素ユニットの各々の前記表示素子からそれぞれ放射される各々の光の光路の方向をそれぞれ別個の方向に屈折させるように構成されている、ディスプレイ装置。
【請求項10】
前記レンズ素子は、各々の前記画素ユニット毎に設けられている、
請求項9に記載のディスプレイ装置。
【請求項11】
前記複数の画素ユニットはマトリクス状に配置されており、
各々の前記レンズ素子は、前記マトリクス状に配置された前記画素ユニットのうちの各列の複数の画素ユニットをまたいで配置されるように構成されている、
請求項9に記載のディスプレイ装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、透過型のディスプレイ装置を介して見える実空間の物体に仮想オブジェクトを重畳して表示する技術に関する。
【背景技術】
【0002】
実空間のオブジェクトと仮想オブジェクトとを重畳させて見せる技術の1つとして複合現実(MR:Mixed Reality)と呼ばれる技術が知られており、そのデバイスとして米国マイクロソフト社が開発したヘッドマウントディスプレイ(HMD)であるHololens(登録商標)などが存在する(非特許文献1参照)。Hololensによれば、ユーザが頭にかぶったHololens(HMD)の透明の接眼レンズ越しに実空間を見つつ、同時に接眼レンズに表示された仮想CGオブジェクトを実空間に重ねてみることができる。Hololensは測距センサも搭載し、HMDの外界の実空間オブジェクトの位置や形状を取得しながら、仮想CGオブジェクトを投影することで実空間オブジェクトと仮想CGオブジェクトの重畳も正確に実現している。
【先行技術文献】
【特許文献】
【0003】
【非特許文献1】“Microsoft HoloLens 2”、マイクロソフト コーポレーション、[online]、[2022年10月19日検索]、インターネット<https://www.microsoft.com/ja-jp/hololens>
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上述したようなHololensによる実空間オブジェクトと仮想CGオブジェクトとの正確な重畳表示は、表示装置としてのHMDがユーザの頭部に固定されていること、すなわちユーザの眼と映像表示デバイス(接眼レンズ)との位置関係が常に固定されているからこそ実現可能である。表示装置をユーザの頭部に固定せずに同じような重畳表示を実現するには、ユーザの眼と映像表示デバイスとの位置関係の変化も正確に取得しながら、さらに映像表示デバイスと実空間物体との位置関係の変化も同時に取得して、両方の変化にあわせて描画計算をする必要がある。これを実現するには、さらに新たな方法論とそれを実現する技術とが必要となる。
【0005】
表示装置をユーザの頭部に固定せずに実空間オブジェクト上に仮想CGオブジェクトを重畳表示するための技術がこれまでに一般化していない主な理由は、端的に言えば一般に利用されうる水準に重畳表示の品質を担保することが技術的に難しいためである。Hololensの場合は少なくとも視点位置(眼球位置)と表示デバイスとの相対位置関係が固定状態にあるので、実空間オブジェクト上に仮想オブジェクトを重畳させるにあたって、表示装置から実空間オブジェクトまでの位置関係、距離、形に関する情報があればよい。すなわち、大きな変化を伴う相対位置に関する変動要素は1つである。
【0006】
一方、表示装置をユーザの頭部に固定せずに同じような重畳表示を行う場合には、表示装置と実空間オブジェクトとの間の位置関係、距離、形に関する情報の取得に加えて、さらに、ユーザの視点位置と表示装置との距離や相対位置関係も大きく変動するような条件で、表示装置上の表示に反映する必要がある。すなわち、大きな変化を伴う相対位置に関する変動要素が2つとなり複雑性が増すとともに、誤差も変動要素ごとに蓄積することから重畳品質の担保が難しく、具体的な方法論が必要となる。
【0007】
本開示のひとつの目的は、ユーザ視点と透過型のディスプレイ装置との相対位置が固定されていない条件のもと、ユーザにとって透過型のディスプレイ装置を通して見える実空間のオブジェクトに仮想オブジェクトを重畳表示することを可能にする方法論を提供することである。
【課題を解決するための手段】
【0008】
本開示のひとつの態様による画像表示システムは、画像を表示可能である透過型のディスプレイ装置と、ディスプレイ装置と、その周囲に存在する実空間上のオブジェクト、および、任意の仮想オブジェクトに対して、各々における実空間における座標系と重ね合わせる形で設定した所定の基準座標系上に構築された仮想空間上の位置情報と三次元形状の情報を記憶する記憶部と、ユーザが或る視点位置からディスプレイ装置を見たときにディスプレイ装置を通して見える実空間に対して、視点位置から仮想空間を見たときの見え方となる仮想オブジェクトが正確に重畳表示されるように、視点位置と、ディスプレイ装置の位置情報と三次元形状と、仮想オブジェクトを表す三次元画像データとに基づいて射影変換または透視投影変換を行うことで、画像を生成してディスプレイ装置に表示させる処理部と、を有する。
【発明の効果】
【0009】
本開示のひとつの態様によれば、ユーザと透過型のディスプレイ装置との相対位置が固定されていない条件のもと、ユーザにとって透過型のディスプレイ装置を通して見える実空間のオブジェクトに仮想オブジェクトを高い品質で正確に重畳表示することを可能にする技術を提供することが可能になる。
【図面の簡単な説明】
【0010】
図1】本開示の第1の実施形態に係る画像表示システムの概略構成図である。
図2】本実施形態の画像表示システムが乗物に搭載された例を示す概略構成図である。
図3】本実施形態の画像表示システムがユーザ視点位置に応じた画像を表示する様子を説明するための図である。
図4】視点位置の算出について説明するための概念図である。
図5】第1の実施形態の画像生成装置の構成を示すブロック図である。
図6】第1の実施形態の画像生成装置による全体処理を示すフローチャートである。
図7】第1の実施形態に係るシステムの一変形例におけるディスプレイ装置と、そのディスプレイ装置上の表示画像の一例を示す図である。
図8】第2の実施形態に係るシステムにおけるディスプレイ装置等を示す図である。
図9】第2の実施形態に係るシステムの一変形例におけるディスプレイ装置と、そのディスプレイ装置上の表示画像の一例を示す図である。
図10】第3の実施形態のシステムにおけるディスプレイ装置の構成を説明するための概略図である。
図11】第3の実施形態のディスプレイ装置のより詳細な構成と、ディスプレイ装置による表示動作制御について説明する図である。
図12】第3の実施形態のディスプレイ装置のより詳細な構成と、ディスプレイ装置による表示動作制御について説明する図である。
図13】第1の実施形態において説明した図6のステップS104の表示処理の詳細例を示すフローチャートである。
図14】第3の実施形態に係るシステムの一変形例におけるディスプレイ装置を示す図である。
【発明を実施するための形態】
【0011】
[第1の実施形態]
本開示の第1の実施形態について図面を参照して説明する。
【0012】
図1は、本開示の第1の実施形態に係る画像表示システムの概略構成図である。図1に示すように、本実施形態の画像表示システム(以下、単に「システム」と称することもある。)1は、主としてユーザに提示する仮想オブジェクト画像を生成する画像生成装置10と、ユーザ2の視点位置を測定する測定装置20と、画像生成装置10が生成した画像を表示する透過型ディスプレイ装置30と、ユーザが透過型ディスプレイ装置30を通して見える実空間(現実世界)の環境情報(その現実世界に存在する物体の位置、形状、大きさ、物体までの距離等に関する情報等)を取得する実空間情報取得装置40(以下、単に「取得装置40」と称することもある。)とを有している。一例として、画像生成装置10はプロセッサでソフトウェアプログラムを実行するコンピュータであり、測定装置20の算出部(不図示)を兼ねている。
【0013】
本実施形態における透過型ディスプレイ装置30は、いわゆる「透過型」のディスプレイ装置であり、例えば、透過型有機EL(Electro Luminescense)ディスプレイ(透過型OLED)や、透過型液晶ディスプレイ(透過型LCD)や、外部のプロジェクター等から映像を投影される透過型スクリーン等によって構成することができる。このような透過型ディスプレイで構成された本実施形態の透過型ディスプレイ装置30は透明あるいは半透明であり、透過型ディスプレイ装置30を通してその反対側の実空間の環境を見ることができるとともに、透過型ディスプレイ装置30に画像を表示することにより、透過型ディスプレイ装置30を通して見える実空間に、表示画像によって表現される仮想オブジェクトがあたかも存在しているような視覚体験を提供することを可能にする。本実施形態の透過型ディスプレイ装置30は、例えば、建物の窓や、自動車・バス・船舶・航空機等の乗物の窓、屋内のテーブル上などの任意の位置に固定設置されるものとして用いることができ、この場合は、それらの透過型ディスプレイ装置30を通して見える屋外あるいは屋内の実空間の風景・景色に仮想オブジェクトを重畳表示することができる。
【0014】
測定装置20(センサ22)は、一例として、ユーザ2の正面側に位置する透過型ディスプレイ装置30の下側あるいは上側に設けられ、ユーザ2の前方からユーザの視点位置を測定する。
【0015】
測定装置20は、ユーザ2が透過型ディスプレイ装置30を見ることができる範囲に存在している間、所定の基準座標系におけるユーザ2の視点位置2Aを測位する。視点位置2Aは、目の位置に相当する位置である。処理に用いる具体的な視点位置2Aは特に限定されないが、例えば、ユーザ2の両目の中間点、頭部の中心点、両目の中心から所定寸法だけ頭部の内側の位置などを視点位置2Aとして用いることができる。
【0016】
本実施形態では、主として透過型ディスプレイ装置30が自動車などの乗物の窓に設置されるユースケースについて、実空間に固定して定義されるワールド座標系と、乗物を基準として定義されるローカル座標系とを用いて説明する。ワールド座標系およびローカル座標系はいずれもxyzの3軸を有する直交座標系であるとする。ワールド座標系における乗物の位置および方向が特定されれば、ワールド座標系とローカル座標系との関係が定まり、相互に変換可能となる。ワールド座標系を実空間に対してどのように設定するかは任意である。また、ローカル座標系を乗物に対してどのように設定するかも任意である。
【0017】
図2は、本実施形態の画像表示システムが乗物に搭載された例を示す概略構成図である。図2に示す例では、画像生成装置10、測定装置20、透過型ディスプレイ装置30及び実空間情報取得装置40を含む画像表示システム1が乗物Mに搭載され、乗物Mの運転手や乗客等である乗員(ユーザ)2に、現実の風景と仮想的な映像とを融合した視覚体験を提供する。図2に示すように、本実施形態の乗物Mは、様々な現実の物体(以下「現実オブジェクト」と称することもある)ROが存在する実空間(現実世界)に置かれ、実空間内を走行する例えば一人乗りの小型の乗用車両である。ただし、乗物Mは、乗用車両に限定されず、乗用車、バス、鉄道車両、航空機、船舶、アトラクション設備の乗物などであってもよい。
【0018】
図2には、乗物の位置および方向を基準としたローカル座標系の一例として、ユーザ2の右方向に向かうX軸と上方向に向かうY軸と後ろ方向に向かうZ軸とを有する直交座標系が示されている。測定装置20中のセンサ22(図2では不図示)及び透過型ディスプレイ装置30は、それらの位置および姿勢がこのローカル座標系に固定されている。姿勢は、X軸周り方向のPitchとY軸周り方向のYawとZ軸周り方向のRollとで表される。
【0019】
画像生成装置10は、乗物の位置および方向と、乗物内のユーザ2の視点位置2Aと、透過型ディスプレイ装置30の固定された位置および姿勢とに基づいて、仮想空間上の仮想オブジェクトVOを透過型ディスプレイ装置30に表示する。このとき、仮想オブジェクトVOはワールド座標系で定義された三次元の仮想空間上に配置されており、実空間のワールド座標系と仮想空間のワールド座標系とは位置関係や拡大縮小倍率が一致するように重ね合わされて定義されている。ユーザは視点位置2Aから透過型ディスプレイ装置30を介して実空間を覗き見るが、同時に同じワールド座標系に固定された仮想空間も覗き見ることになり、このときに実空間上に仮想空間上の仮想オブジェクトVOが同時に存在しているとユーザ2に錯覚させるため、すなわち、まるで仮想オブジェクトVOが実空間に存在するかのような見え方となるように、計算処理を行って表示画面に表示させる画像を生成する。具体的には、視点位置2Aの座標をもとに三次元で定義された仮想空間上の三次元CGデータを、二次元面である表示画面に射影変換、透視投影変換、もしくはそれに類する計算処理を行って二次元画像を生成し、それを透過型ディスプレイ装置30に表示する。これにより、ユーザ2に対し仮想空間の三次元情報が幾何学的な厳密さをもって二次元情報に変換されて提示される。
【0020】
画像生成装置10は、透過型ディスプレイ装置30を通して見える実空間に重畳表示する仮想オブジェクトを表す三次元CGのデータ、例えば、三次元CGで描かれたチーターのデータなどを仮想空間上における配置情報などと同時に予め内部の記憶部12(図5参照)に格納しておき、ユーザ2にとって仮想オブジェクトが実空間に存在するかのように錯覚させるべく幾何学的厳密さをもって確からしく自然な画像に見えるように、三次元CGを視点位置2Aに基づいて適切に透過型ディスプレイ装置30に表示させるべく表示画像を計算処理にしたがって生成する。
【0021】
なお、本明細書及び特許請求の範囲の記載において、「画像」の用語は、1又は複数の静止画像のみならず、時系列的に連続する複数の画像によって構成される動画像(映像)を含むものとして用いられる。
【0022】
本実施形態によれば、一例として、乗物の窓から見える実空間の景色に仮想物体が重畳された画像がユーザ2の視点位置2Aに応じて生成されて透過型ディスプレイ装置30に表示されるので、実世界内の実空間上にあたかも仮想物体が実世界のオブジェクトと一緒に配置され同時に存在しているかのような感覚をユーザ2に与えることができる。また、本実施形態では、ユーザの頭部と共に動くヘッドマウントディスプレイ(HMD)ではなく、ユーザの頭部を含むユーザの体の部位以外の位置に固定された画面に画像を表示する方式を採用しているので、画像生成装置10における表示出力部16は、複合現実(MR:Mixed Reality)の技術における表示装置として使用でき、ヘッドマウントディスプレイと同様にユーザにリアリティーのある複合現実を体験させることができ、かつヘッドマウントディスプレイを用いることによる不都合や不快感をユーザ2に与えることがない。
【0023】
以下、本実施形態の画像表示システム1を更に詳しく説明する。
【0024】
測定装置20は一例として視点位置2Aを継続的に測定し、画像生成装置10は表示画像を視点位置2Aに追従するように生成して透過型ディスプレイ装置30の画面に表示する。これにより、ユーザ2の頭部が動いたときにそれに伴って動く視点位置2Aに追従して、透過型ディスプレイ装置30に表示される表示画像が変化するので、ユーザ2にあたかも実空間内に仮想物体が存在しているかのような感覚を与えることができる。視点位置2Aへの追従に伴う画像生成としては、その時点の視点位置2Aから表示装置を介して仮想空間上の仮想オブジェクトを見たときの見え方となるような画像を連続的に生成することで実現される。このときの画像の生成方法は前述の通りである。またここでは追従するという記載を行ったが、それに限らず、少し先の視点位置2Aを予測して画像生成してもよい。視点位置2Aが動く際に、現在の2Aの位置をもとに画像生成をおこない、その結果を表示させるのでは計算にかかる時間の分だけ画像表示に遅れが生じてしまい、このことによりユーザに違和感を感じさせてしまう。これを解決するために視点位置2Aの時系列データを取りながら少し先の位置を予測して前もって画像生成を行う方法もありうる。またここで視点位置を予測する方法を述べたが、予測するのは視点位置に限らず、ワールド座標系に対してのローカル座標系の相対位置についても予測計算を用いても良い。例えば乗物として車を想定したときに進行方向と時速情報、地図情報をもとにすれば少し先の乗物の位置は精度よく予測できる。この予測結果を先に述べた画像生成において反映させても良い。
【0025】
図3は、本実施形態による画像表示システムがユーザ視点位置に応じた画像を表示する様子を説明するための図である。図3の説明において、ユーザの視点位置を基準として透過型ディスプレイ装置30の手前側のユーザ空間を実空間、奥側の空間を仮想空間と定義する。透過型ディスプレイ装置30の奥側に定義された仮想空間は、透過型ディスプレイ装置30による疑似的な窓(以下「疑似窓」ともいう)を通してユーザ2の頭部のある位置P1から見える画像として透過型ディスプレイ装置30に表示される。仮想空間上の仮想オブジェクトは後述する三次元CGデータにより定義される。図3の例では、仮想オブジェクトとして6本の木が横に並んで配置されている。なお、ここでは、図3上では説明のために透過型ディスプレイ装置30の奥側に仮想空間を定義しているが、透過型ディスプレイ装置30の手前側に仮想空間を定義してもよいし、透過型ディスプレイ装置30の手前側および奥側を含む空間を仮想空間として定義してもよい。これにより、仮想空間の仮想オブジェクトが透過型ディスプレイ装置30による仮想的な窓の向こうにあるように見える画像だけでなく、仮想空間の仮想オブジェクトが透過型ディスプレイ装置30から手前に突き出して見える画像をも透過型ディスプレイ装置30に表示することができる。
【0026】
ユーザ2が透過型ディスプレイ装置30の近傍正面の位置P1にいるとき、透過型ディスプレイ装置30による疑似窓から見える仮想空間の視野FoV1は広く、6本の木が全て視野FoV1に入っているように透過型ディスプレイ装置30に表示される(表示D1)。ユーザ2が位置P1からz方向に移動し、透過型ディスプレイ装置30から離れた位置P2に来ると、透過型ディスプレイ装置30による疑似窓から見える仮想空間の視野FoV2は狭くなり、視野FoV2には3本の木の全体とその両側の木の一部が入るのみのように表示される(表示D2)。また、ユーザ2が位置P1から-x(マイナスx)方向に移動し、位置P3にくると、透過型ディスプレイ装置30による疑似窓から見える仮想空間の視野FoV3はx方向に変化する。視野Fov3には右端の3本の木が入るのみである。加えて視野FoV3では透過型ディスプレイ装置30に対して正面ではなく斜め方向から画面を見ているが、疑似窓から見える木の横方向の太さは正面から見たときと同じ太さになっている必要がある(表示D3’)。このために透過型ディスプレイ装置30に木を表示させる際にはユーザからは表示D3’のように見えるように適切に伸縮処理を行った画像を表示させる(表示D3)。このように、ユーザ2にとって仮想空間上の仮想オブジェクトがそこに存在するかのように錯覚させるべく確からしく自然な画像に見えるような処理として、本実施形態では、透過型ディスプレイ装置30に表示する画像を生成するとき、三次元CGデータに定義された仮想空間における仮想オブジェクトを透過型ディスプレイ装置30、すなわち二次元の面に投影させるような処理(例として射影変換、透視投影変換、もしくはそれに類する計算)を行う。他の方法として、基準座標空間において三次元CGデータの各点をその各点とユーザ視点位置とを結ぶ直線が透過型ディスプレイ装置30と交わる点に投影してもよい。また、透過型ディスプレイ装置30に表示する画像を生成する他の処理方法として、経験則に従った特定の行列や数値の四則演算処理を、画像や画像がもつ三次元パラメータに対して行うことにしてもよい。
【0027】
本実施形態の測定装置20は、ユーザ2を撮像する撮像部と、撮像部にて撮像されたユーザ2の撮像情報に基づいて視点位置2Aを定める算出部とを有するように構成されている。撮像部は図1に示した測定装置20に設置されたセンサ22により実現される。算出部は図1に示した画像生成装置10の処理部14(図5参照)により実現される。あるいは、算出部は測定装置20内の処理部(不図示)により実現されてもよい。
【0028】
一例として、本実施形態では、センサ22(撮像部)は、各画素におけるセンサ22から物体(ここではユーザ2の人体)までの深度を測定するデプスセンサである。画像生成装置10の処理部14により実現される算出部は、センサ22で測定された各画素の深度に基づいて、人体の形状を推定し、その人体における頭部の位置に基づいて視点位置2Aを算出する。これによれば、各画素の深度から人体形状を推定し、その人体形状における頭部の位置を用いるので、ユーザ2の体の位置や向きが様々に変化しても視点位置2Aを高い精度で特定できる。
【0029】
図4は、視点位置の算出について説明するための概念図である。基準座標系におけるセンサ22の位置(X,Y,Z)と姿勢(Pitch,Yaw,Roll)が予め設定されている。センサ22で取得される各画素の深度と、センサ22の位置および姿勢から視点位置2Aの座標(X,Y,Z)を算出することができる。なお、図4に示すように、透過型ディスプレイ装置30の基準座標系における位置(X,Y,Z)、姿勢(Pitch,Yaw,Roll)、および形状(Height,Width)も予め設定されている。本実施形態では一例として各透過型ディスプレイ装置30は長方形または台形であり、その形状は高さ(Height)と幅(Width)とで表現されている。また透過型ディスプレイ装置30は任意の多角形であったり、曲面や球面であっても良い。
【0030】
センサ22が撮像する画像は、深度画像であってもよいし、深度画像及び可視画像であってもよい。例えば、撮像部は、深度画像を撮像するセンサと可視画像を撮像するカメラとを含み、算出部は、深度画像と可視画像との両方を用いて視点位置2Aを算出することにしてもよい。また撮像位置の異なった2つの可視画像であってもよい。この場合は2つの可視画像の視差を用いて視点位置2Aを算出することにしても良い。また単一の可視画像からAIを用いた画像処理によって視点位置2Aを推定することにしても良い。
【0031】
なお、図1及び図4の例では、測定装置20(センサ22)は、ユーザ2の前方の透過型ディスプレイ装置30の上側または下側に設置される例を示したが、これに限られない。測定装置20(センサ22)は、ユーザ2の後方に透過型ディスプレイ装置30に重ならない位置に配置することも可能である。あるいは、透過型ディスプレイ装置30の後ろ側(奥側、背面側)に設置し透過型ディスプレイ装置30の表示部分を通過してユーザ視点位置を測定する方法も可能である。その他、これら複数のセンサを用いてそのどれかによって撮像された映像を用いて測定しても良いし、複数のセンサからの情報を統合して得られる視点位置を用いても良い。
【0032】
本実施形態における実空間情報取得装置40は、上述したように、ユーザにとって透過型ディスプレイ装置30を通して見える実空間(現実世界)の環境情報(その現実世界に存在する物体の位置、形状、大きさ、物体までの距離等に関する情報等)を取得する装置である。取得装置40は、一例として、LiDARセンサを備え、ユーザから見て透過型ディスプレイ装置30の周囲の実空間に存在する物体に関し、その物体までの距離とその物体の形状等を測定することが可能である。ここで、LiDAR(Light Detection and Ranging「光検出及び測距」、あるいは、Laser Imaging Detection and Ranging「レーザ画像検出及び測距」)は、主にレーザ光を用いたリモートセンシング技術の一つであり、パルス状に発光するレーザ照射に対する散乱光を測定し、遠距離にある対象までの距離やその対象の形状等に関する情報を取得するものである。取得装置40は、このようなLiDARセンサにより、透過型ディスプレイ装置30の周囲の実空間をスキャンして、その空間に存在する物体までの距離及びその形状等に関する情報を取得する。
【0033】
取得装置40は、上述したLiDARセンサに加えて、あるいはその代わりに、画像(可視画像及び深度画像)を生成する撮像素子を備えた撮像カメラを備えていてもよい。透過型ディスプレイ装置30を通して見える実空間を撮像カメラで撮像して取得された画像を任意の画像処理技術を用いて解析することで、画像に含まれる物体の位置、大きさ、形状等に関する情報を取得することができる。画像に含まれる物体としては、例えば、実空間に存在するビル等の建物、橋梁等の建造物、遠くにある山や、移動している乗物や生物等が含まれる。
【0034】
取得装置40は、さらに、GPS(Global Positioning System:全地球測位システム)センサを備えてもよい。取得装置40がGPSセンサを備えることにより、取得装置40のLiDARセンサや撮像カメラによって実空間情報を取得した位置に関する位置情報を併せて取得することができる。この位置情報は、例えば、取得装置40を含むシステム1が搭載された乗物等のワールド座標空間における位置情報でもある。
【0035】
また取得装置40は、VPS(Visual Positioning System)を用いて、乗物の位置および方向を特定するように構成されていてもよい。この場合、取得装置40は、乗物の外部の実空間の画像を撮像し、画像生成装置10の処理部14(図5参照)が、その画像に基づいて乗物の位置および方向を特定する。そのために、事前に、撮像された位置および方向が特定されている多くの画像を取得し、それらの画像に現れている建物などの物体の輪郭などの視覚的特徴を抽出し、視覚的特徴を検索可能なインデックスとして位置および方向の情報とともに画像生成装置10の記憶部12(図5参照)のデータベースに蓄積しておく。そして、乗物が走行する間に、取得装置40によって撮像された画像が入力されると、画像生成装置10の処理部14は、その取得された画像から視覚的特徴を抽出し、抽出した視覚的特徴とデータベースに蓄積されている視覚的特徴とを比較することにより、画像が撮像された位置および方向を特定する。この特定された画像が撮像された位置および方向を乗物の位置および方向に変換する。これにより、乗物の精度の高い位置および方向をリアルタイムで取得することができる。なお、この取得プロセスにおいては、乗物の実際の動きに合わせて取得するうえでの時間的な遅れが生ずる可能性がある。これを解決するために、現在と過去の乗物の位置、向きを用いて、速度や加速度のベクトルを計算し、これらに加えて遅延なく取得できる乗物から直接取得した車体情報(アクセル情報、ブレーキ情報や、速度やステアリング角の情報など)を加味して将来の乗物の位置と向きを予測することで、時間的な遅れの問題を解決することもできる。
【0036】
なお、上記では視覚的特徴を検索可能なインデックスとして位置および方向の情報とともに画像生成装置10の記憶部12(図5参照)のデータベースに蓄積しておく例を挙げて説明したが、視覚的特徴は外部装置(不図示)のデータベースに蓄積されていてもよい。この場合は、取得装置40が取得した画像データが取得装置40から外部装置に送信される。そして、外部装置において、画像から視覚的特徴を抽出し、抽出した視覚的特徴とデータベースに蓄積されている視覚的特徴とを比較することにより、画像が撮像された位置および方向を特定する。当該画像について特定された位置および方向に関する情報は、外部装置から取得装置40に送信される。
【0037】
次に、本実施形態における画像生成装置10について説明する。図5は、本実施形態の画像生成装置の構成を示すブロック図である。図5に示すように、画像生成装置10は、記憶部12と、処理部14と、表示出力部16と、通信部18とを有している。図5では、画像生成装置10は単一の要素として描かれているが、画像生成装置10は必ずしも物理的に1つの要素である必要はなく、物理的に分離した複数の要素で構成されていてもよい。
【0038】
記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)およびHDD(Hard Disk Drive)、SDD(Solid State Drive)等の一時的又は非一時的な記憶媒体を含む。記憶部12は、処理部14が実行するコンピュータプログラムや後述する各種データを記憶する。記憶部12の非一時的な記憶媒体に記憶されるコンピュータプログラムは、図6等を参照して後述する、処理部14による画像生成方法の各処理を実施する命令を含む。
【0039】
記憶部12は、所定の基準座標空間における透過型ディスプレイ装置30の位置、姿勢および形状を示す画面配置データと、基準座標空間における測定装置20及び取得装置40の位置および姿勢を示す測定装置・取得装置配置データと、透過型ディスプレイ装置30を通して見える実空間に重畳表示する仮想オブジェクトを表す三次元CGのデータとを保持する。基準座標空間は、本実施形態における演算の基準となる所定の原点Oを有する座標系(基準座標系)で表される空間であり、xyzの3軸を有する直交座標系の空間である。基準座標空間およびその原点Oをどのように設定するかは任意であり、例えば、基準座標空間を透過型ディスプレイ装置30に対して固定してもよいし、測定装置20及び/又は取得装置40に対して固定しても良いし、透過型ディスプレイ装置30、測定装置20及び取得装置40に対して固定してもよいし、それらのいずれにも固定しなくてもよい。また乗物を想定した場合、基準座標空間を乗物内の座標(ローカル座標系)として、外の世界の座標(ワールド座標系)と分けて処理をしても良い。
【0040】
「三次元CG」は、三次元空間内の仮想的な立体物であり奥行き(立体)情報を含む点で二次元の画像と異なるため、3DCGとも称される。三次元CGとしては、一例として仮想空間の三次元座標上に置かれた点を頂点として作成された複数の面により構成される(モデリング)仮想的立体であり、その各面に材質などを再現する情報を与え、任意の光の強さ、光源の位置などから物体を照らすことで表現される場合がある。三次元CGのデータには、その三次元CGで表示する仮想物体の仮想空間内における配置位置に関する情報が含まれる。記憶部12には、様々な複数の仮想物体に関する三次元CGデータを記憶させることができる。
【0041】
処理部14は、例えば、1又は2以上のCPU(Central Processing Unit)で構成される。処理部14は1又は2以上のGPU(Graphics Processing Unit)を備えてもよい。処理部14は、記憶部12に記憶されたコンピュータプログラムを実行することにより、図6等を参照して後述する画像生成方法の各処理を実施する。
【0042】
表示出力部16は、透過型ディスプレイ装置30が接続され、処理部14によって生成された画像を透過型ディスプレイ装置30に表示する画像信号を出力する出力部である。表示出力部16は、例えば、VGA、DVI、DisplayPort(商標)、HDMI(登録商標)、USB(商標)Type-C等の出力端子で構成し、透過型ディスプレイ装置30と有線接続することができる。あるいは、表示出力部16は任意の無線通信技術を用いて透過型ディスプレイ装置30と無線接続される構成としてもよい。
【0043】
通信部18は、画像生成装置10の外部装置との間でデータを送受信する機能を有する。特に本実施形態では、通信部18は、測定装置20のセンサ22によって撮像された画像のデータや、取得装置40によって取得された情報のデータを送受信する場合がある。通信部18は、取得装置40によって取得された画像データを外部装置に送信したり、外部装置において特定された当該画像が撮像された位置および方向に関する情報を外部装置から受信したりしてもよい。また、実空間に存在するオブジェクトをモデル化した三次元実空間モデルのデータをネットワークを通じて必要な部分だけ取得する場合がある。なお、外部装置と通信部18との通信は、有線通信または無線通信のいずれであってもよい。
【0044】
次に、一例として、図6等を参照して、本実施形態の画像生成装置10による画像生成方法について説明する。図6は、本実施形態の画像生成装置による全体処理を示すフローチャートの一例である。図6の各処理は処理部14により実行される。画像生成装置10により生成する画像が時系列的に連続する複数のフレーム画像からなる動画像の場合、その動画像のフレームごとに計算しても良い。またフローチャートの各ステップの計算処理において、時系列上の過去のデータを用いて予測計算し、画像を生成しても良い。
【0045】
図6を参照すると、画像生成装置10の処理部14は最初に、ユーザ2が透過型ディスプレイ装置30を通して見える実空間に関する情報を取得する(ステップS101)。
【0046】
処理部14は、取得装置40の動作を制御し、透過型ディスプレイ装置30のユーザ2から見て奥側の実空間に関する情報を取得装置40に取得させる。その具体的な処理の一例として、処理部14は、まず、取得装置40からGPS位置情報を取得して、取得装置40を含むシステム1を搭載している乗物のおおよその位置を特定し、さらに取得装置40からVPS情報(乗物のより正確な位置および方向)を特定する。次に、処理部14は、実空間に存在する物体を三次元モデル化した三次元実空間モデルのデータを取得する。実空間に存在する物体は、例えば、現実世界のビルや家屋、橋梁、鉄道、道路等の建造物である。そのような物体を三次元モデル化した三次元実空間モデルのデータは、物体を仮想空間内に再現するための情報として、現実世界における各オブジェクトの位置情報と、各物体の形状及び大きさに関する情報とを含む。現在では、いくつかの都市や自然の形状について現実の空間を三次元モデル化した3D都市モデルデータが複数の事業者・機関から提供されている。3D都市モデルデータを提供するサービスとしては、例えば、国土交通省の「Project PLATEAU」や株式会社ゼンリンの「3D地図データ」などが知られている。今後は、より多くの都市や自然についても様々な事業者や機関から3Dモデルデータが提供されることが期待される。本実施形態では、一例として、「三次元実空間モデルのデータ」は事業者・機関が提供するサービスを利用して入手することができる。画像生成装置10の通信部18により事業者・機関のサービス提供サーバにインターネット等を介して接続し、当該サーバから三次元実空間モデルデータの少なくとも必要部分をダウンロードすることで、三次元実空間モデルのデータを取得することができる。もしくはあらかじめ三次元実空間モデルデータを取得済みの状態にしておけば一時的もしくは恒久的にインターネットに接続せずにそのデータを活用できる。取得された三次元実空間モデルデータは記憶部12に格納される。
【0047】
処理部14は、上記の処理に加えて、あるいは上記の処理に代えて、取得装置40が備えるセンサ(例えば、LiDARセンサ)によって、透過型ディスプレイ装置30のユーザ2から見て奥側の実空間の情報を取得し、その実空間に存在する物体について、取得装置40から物体までの距離と、その物体の大きさ及び形状等に関する情報を取得してもよい。物体が複数存在する場合には、各々の物体について距離及び大きさ及び形状等に関する情報が取得される。取得装置40が撮像カメラまたはデプスセンサを備えている場合には、透過型ディスプレイ装置30のユーザ2から見て奥側の実空間の画像を撮像カメラで撮像またはデプス画像として取得してもよい。処理部14は、取得した実空間の画像を公知の任意の画像解析技術及び/又は機械学習による人工知能技術を用いて解析することにより、画像に含まれる物体(例えば、実空間に存在するビル等の建物、橋梁・信号機・電信柱等の建造物、遠くにある山等)の位置や形状等に関する情報を取得する、もしくは、推定することが可能である。
【0048】
処理部14は次に、ユーザ2の視点位置2Aを取得する(ステップS102)。処理部14は、測定装置20を用いてユーザ2の視点位置2Aを図4等を参照して説明した手法により算出する。
【0049】
なお、処理部14による上記ステップS101の処理と上記ステップS102の処理とは、その順序を変えて実行してもよく、あるいは並行して実行してもよい。また、時系列上の過去に取得、もしくは、推定したデータをもとに以降のステップの処理をする場合は両処理を行わずともすでに必要なデータが取得できていることから、この部分をスキップしてもよい。
【0050】
処理部14は次に、透過型ディスプレイ装置30を通してユーザ2が見る透過型ディスプレイ装置30の周囲の実空間に重畳表示する仮想オブジェクトを透過型ディスプレイ装置30に表示する表示画像を生成する処理を行う(ステップS103)。
【0051】
処理部14は、ワールド座標系における乗物の位置および方向を取得装置40からの実空間環境情報を基に継続的に特定するとともに、視点位置2Aを継続的に特定する。処理部14は、乗物の位置および方向と視点位置2Aとに追従するように、仮想オブジェクトを表示する表示画像を透過型ディスプレイ装置30の画面にユーザ2の視点位置2Aを基に前述のような計算処理をすることにより、ユーザ2の視点位置2Aから透過型ディスプレイ装置30の画面を通して見たときにあたかも実世界に仮想オブジェクトが同居して存在しているかのように見える表示画像を幾何学的に厳密な正確性をもって生成する。表示画像は、透過型ディスプレイ装置30に表示されると、視点位置2Aから透過型ディスプレイ装置30を介して見える仮想空間上の仮想オブジェクトを見たときの見え方となる画像である。そして、乗物の移動と、乗物の中のユーザ2の頭部の動きに伴って動く視点位置2Aとに追従して、透過型ディスプレイ装置30に表示する表示画像が変化する。これにより、ユーザ2にあたかも実空間内に仮想物体が存在しているような感覚を与えることができる。視点位置2Aへの追従は、描画内容がその時点の視点位置2Aから見た見え方の画像を連続的に生成することで実現される。
【0052】
このような3次元情報の2次元情報への変換を行う計算処理により、仮想オブジェクトの表示画像が透過型ディスプレイ装置30の画面に対してユーザの視点位置2Aを考慮して幾何学的に厳密な正確性を持って投影されるので、ユーザ2が透過型ディスプレイ装置30の画面に対し斜め方向から覗き込むように見た場合であっても、仮想オブジェクトをその視点位置2Aから見たときに、現実にその位置に存在しているかのような確からしい自然な画像として透過型ディスプレイ装置30に提示する表示画像が生成される。ここで行われる処理は射影変換のみに限定されない。透視投影変換の方法でもよいし、それらに類する計算手法や、経験則に従った特定の行列や数値の四則演算処理を用いてもよい。
【0053】
なお、仮想オブジェクトは、ある視点位置2Aから見たときに透過型ディスプレイ装置30の周囲の実空間に存在する実空間オブジェクトと一部もしくは全部が重なって見える位置に配置されるように透過型ディスプレイ装置30に表示されてもよく、その場合は実空間におけるオブジェクトに対応する三次元実空間モデルデータ、もしくは実空間情報取得装置40によりリアルタイムに取得された物体までの距離と形状をもとにして構築されたオブジェクトの三次元データをもとにして仮想オブジェクトの一部または全部を遮蔽する処理を行ってから仮想オブジェクトを表示に反映させることで、両者の重なり合いを正確に表現することができる。
【0054】
仮想オブジェクトの一部または全部を遮蔽する処理は、ある視点位置2Aから仮想オブジェクトを見たときに、仮想オブジェクトよりも前側に実空間オブジェクトの一部又は全部が存在するときに、仮想オブジェクトのうち実空間オブジェクトによって遮蔽される領域を透明化(もしくは削除、削った状態、見えなくした状態を含む)する処理を含む。より明確に言えば、上記視点位置2Aから仮想オブジェクトを構成する部位までの距離が上記視点位置2Aから実空間オブジェクトを構成する部位までの距離よりも遠い場合に、実空間オブジェクトを構成する部位よって遮蔽される遮蔽領域に応じた部位を遮蔽した仮想オブジェクトの表示画像を生成する。
【0055】
処理部14は、このように生成した表示画像の信号を画像生成装置10の表示出力部16を介して透過型ディスプレイ装置30に送信し、透過型ディスプレイ装置30に表示画像を表示させる(ステップS104)。
【0056】
このように、本実施形態のシステム1によれば、透過型ディスプレイ装置30を通して見える実空間に重畳表示される三次元CGで表示される仮想オブジェクトの表示画像がユーザ2の視点位置2Aの変化に追従して連続的に生成され、複合現実的な動画像が透過型ディスプレイ装置30を介してユーザ2に提供される。実空間の風景に対して三次元CGの仮想オブジェクトが重畳されて表現されることで、ユーザ2にはあたかも透過型ディスプレイ装置30を通して見える現実世界の実空間に仮想オブジェクトが一緒に存在しているように錯覚させることができる。
【0057】
特に、本実施形態によれば、ユーザから見て透過型ディスプレイ装置30の奥側の実空間内の物体について、その位置情報のみならず、大きさ及び形状等に関する情報も取得されるので、実空間内の物体に重畳表示する仮想オブジェクトを仮想的に同じ空間上に配置した時の前後関係や相対位置関係をシミュレーションでき、ユーザ視点位置を起点としたときに仮想オブジェクトが部分的に見えたり隠れたりするような遮蔽処理による表現を含めて反映した形で映像を生成することが可能である。その結果、実空間内の物体に対して仮想オブジェクトをより高い品質で重畳表示することができるので、ユーザ2にとって仮想オブジェクトが実空間に存在するかのように錯覚させるべく、より確からしく自然な画像をユーザ2に提供することができる。
【0058】
なお、上記では、本実施形態に係るシステム1の一つの適用例として、透過型ディスプレイ装置30を乗物の窓として用い、その窓を通して見える外の風景に仮想オブジェクトを重畳表示するユースケースを例示的に説明したが、システム1の適用対象はこの例に限られず、他の任意の用途に応用することが可能である。
【0059】
システム1の他の用途の一例として、透過型ディスプレイ装置30を建物の窓として用い、その窓を通して見える外の風景に仮想オブジェクトを重畳表示するユースケースや、透過型ディスプレイ装置30を屋内のテーブルの上などに設置して、透過型ディスプレイ装置30を通して見える室内の実空間オブジェクト(室内の棚など)に仮想オブジェクトを重畳表示するユースケースなどが考えられる。これらのユースケースでは、透過型ディスプレイ装置30を含むシステム1が固定設置され、ワールド座標空間においてシステム1が移動しない。そのため、システム1のローカル座標系がワールド座標系において固定された状態となる。したがって、これらのユースケースにおいては、上述した本実施形態の取得装置40のうち、ローカル座標系におけるシステム1の位置を特定するためのGPSセンサやVPS関連機能を省略してもよい。
【0060】
また、これらのユースケースでは、透過型ディスプレイ装置30を通して見える風景(窓の外の建物等)や室内の風景(棚等)の実空間オブジェクトの形状と透過型ディスプレイ装置30との相対位置が動的に変化しないので、実空間(現実世界)の環境情報を事前に取得する場合は、取得装置40を省略しても良い。このとき周囲の実空間の三次元情報の事前取得には取得装置40に類する装置を用いたりフォトグラメトリーなどの手法を用いてもよい。あるいは、透過型ディスプレイ装置30を通して見える風景や実空間オブジェクトの位置・形状等をコンテンツ作成者等が画像生成装置10上で設定して、実空間の環境情報として記憶部12に記憶させてもよい。このとき、3D都市モデルデータなどの三次元実空間モデルデータを、ワールド座標系上に固定配置された透過型ディスプレイ装置30の位置との相対位置をもとに正確に仮想空間上に事前配置して、実空間の環境情報として記憶部12に記憶させてもよい。こうした事前の処理により、これらのユースケースでは、図6のフローチャートにおけるS101を省略してもよい。
【0061】
(変形例)
次に、第1の実施形態に係るシステム1の変形例について説明する。
【0062】
上述した第1の実施形態では1人のユーザ2に対する視点位置2Aを検出して、その視点位置2Aに応じて仮想オブジェクトの表示画像を生成する例を示した。これに対し、本実施形態の一変形例によれば、複数のユーザ2に対して実空間に仮想オブジェクトを重畳表示する手段が提供される。
【0063】
図7は、第1の実施形態に係るシステムの一変形例における透過型ディスプレイ装置30と、その透過型ディスプレイ装置30上の表示画像の一例を示す図である。
【0064】
本変形例における透過型ディスプレイ装置30は、横に並んだ複数のユーザ2(図示の例では4人のユーザ2)が同時に一緒に見ることができるように、比較的大型で横長の形状を有している。もしくは、複数の透過型ディスプレイを並べて1台の非確定大型の透過型ディスプレイ30とほぼ同等に機能するように構成されている。本変形例における透過型ディスプレイ装置30を通してその奥側の実空間を見ることができる。本変形例における透過型ディスプレイ装置30によれば、例えば、バスや電車の長椅子に対向する窓の部分に設置することにより、その長椅子に着座した複数のユーザ2が同時に一緒に見ることができる。
【0065】
本変形例では、各ユーザ2が上記の長椅子のような所定の位置から所定の視線方向(例えば、各ユーザ2の正面方向)を見ることが前提とされる。本変形例では、測定装置20は、複数のユーザ2の各々について特定した複数の視点位置2Aに基づいて、代表視点位置2Bを決定する。代表視点位置2Bは一例として複数の視点位置2Aの重心である。あるいは、代表視点位置2Bは座席の位置および形状に基づいて予め設定してもよい。このように本変形例においてはユーザが透過型ディスプレイ装置30の前方に存在する以前、もしくは前方に存在した直後に代表視点位置2Bを決定して以降は、継続的な視点位置の取得は行わなくともよい。したがって、本変形例におけるシステム1のその他の構成及び動作は、上述した第1の実施形態のシステム1と同様であるが、ユースケースによっては図6のフローチャートにおけるS102をスキップしても良い。
【0066】
本変形例のシステム1においては、代表視点位置2Bから透過型ディスプレイ装置30を見たときに、透過型ディスプレイ装置30を通してその周囲に見える実空間の物体と仮想オブジェクトが共存しているかのように錯覚させるようにその表示画像が生成され、透過型ディスプレイ装置30に表示される。
【0067】
本変形例のシステム1によれば、透過型ディスプレイ装置30を通して見える実空間に重畳表示される三次元CGで表示される仮想オブジェクトの表示画像が代表視点位置2Bおよび透過型ディスプレイ装置30の配置、形状、大きさなどの情報を用いて射影変換(透視投影変換、もしくはそれに類する計算手法を含む)によって生成され、現実世界の実空間内に三次元CGで表示される仮想オブジェクトが存在するかのような複合現実的な動画像が透過型ディスプレイ装置30を介して各ユーザ2に提供される。透過型ディスプレイ装置30上に表示される画像を見た各々のユーザ2には、あたかも透過型ディスプレイ装置30を通して見える現実世界の実空間に仮想オブジェクトが存在しているかのような錯覚を生じさせることができる。
【0068】
ただし、本変形例で用いられる視点位置は代表視点位置2Bであることと、各ユーザ2の視点位置2Aはそれぞれ固定位置であることから、上述した実施形態の例のような幾何学的に厳密な正確性をもった重畳表現までは実現できない。また実空間三次元モデルを用いて遮蔽処理を施し重畳させる場合には、実空間上のオブジェクトと仮想オブジェクトの重なり合いの輪郭の部分にずれが生ずるなどユーザから見たときの見え方において正確性に欠けてしまう。図7に示す例では、透過型ディスプレイ装置30の後方に広がる実空間における遠景の山並みの手前側で、仮想オブジェクトである複数のチーターがそれぞれ図示矢印方向に走っていくように透過型ディスプレイ装置30上に描画された様子が示されている。このような表現例であれば、例えば山並みとチーターは各ユーザ2の視点位置2Aを基準として前後関係として重なり合う部分がなく、独立的に存在するので、仮想オブジェクトであるチーターのCGに対して遮蔽処理を施す必要がなくなるため、多少は正確性に欠けていたとしても、あたかも透過型ディスプレイ装置30を通して見える現実世界の実空間に仮想オブジェクトが同時に存在しているかのような錯覚を生じさせるという目的はある程度達成できる。特に、透過型ディスプレイ装置30を乗物の車窓として用いることを想定したユースケースにおいては、上記実施形態において説明したような現実世界の情報を加えて表現を工夫することにより、ユーザに錯覚を与えるための効果を高めることができる。例えば三次元CGで表示される仮想オブジェクトのチーターを仮想空間上で走らせ、乗物の進行に応じてその仮想空間上のチーターがそのまま後方に少しずつ平行移動していくような見え方となる例においては、たとえ厳密に正確な重畳表現ができない構成であったとしても、乗物の進行速度とチーターの走行速度との相対速度を再現することで乗物がチーターを追い抜いて走り去るような表現を加えることで、現実世界においてチーターが本当に存在しているような錯覚を各ユーザ2に感じさせることができる。
【0069】
本変形例においては、代表視点位置2Bに対して表示する仮想オブジェクトの生成のための計算処理を行うため、視点位置2Aが異なる全てのユーザ2に対して幾何学的厳密さを持った表現を提供することまでは叶わないものの、透明ディスプレイ上にただ単に映像を表示する場合と比較すれば、透過型ディスプレイ装置30の奥側の実空間内に配置される仮想オブジェクトが、代表視点位置2Bと透過型ディスプレイ装置30の位置、大きさ、向きなどの情報とに基づいて透過型ディスプレイ装置30上に表現されるので、各ユーザ2にとって仮想オブジェクトが実空間に存在するかのように錯覚させるべく、より自然に感じられる表示画像を各ユーザ2に提供することができる。
【0070】
[第2の実施形態]
次に、本開示の第2の実施形態について説明する。
【0071】
上述した第1の実施形態では、画像生成装置10は、仮想オブジェクトを表す表示画像を生成するための三次元CGデータを予め記憶部12に格納しておき、ユーザ2にとって仮想オブジェクトがそこに存在するかのように錯覚させるべく確からしく自然な画像に見えるような幾何学的に厳密さを持った画像を生成する計算処理により、三次元CGデータから表示画像を生成する例を説明した。第2の実施形態は、第1の実施形態のシステム1の構成及び動作に加えて、仮想オブジェクトの表示画像を左右の眼の視差を与える2つの画像からなる三次元画像(立体視画像)として提示する手段を提供する。
【0072】
図8は、第2の実施形態に係るシステムにおけるディスプレイ装置等を示す図である。本実施形態のシステム1は、仮想オブジェクトの表示画像を画面に表示する透過型ディスプレイ装置30と、ユーザ2が着用する三次元眼鏡装置Gとを有する。本実施形態におけるシステム1のその他の構成及び動作は、上述した第1の実施形態のシステム1と同様である。
【0073】
本実施形態における画像生成装置10は、ユーザ2の視点位置2Aに応じて、仮想オブジェクトの表示画像として、視差を有する左右の眼用の2つの表示画像を生成し、透過型ディスプレイ装置30の画面に表示する。三次元眼鏡装置Gは、2つの表示画像をユーザ2の左右の眼にそれぞれ見せる。ユーザ2の視点位置2Aに応じた映像を左右の眼に視差を持たせることで、ユーザ2に仮想オブジェクトの表示画像の立体感を与え、より高い臨場感や没入感を与えることができる。別の言葉に置き換えるならば、第1の実施形態においてはユーザから見える実際の風景を構成するオブジェクトは、特に奥行き方向において位置が様々であり左右の眼に入ってくる情報が左眼と右眼の位置の違いにより厳密には異なっているのに対し、仮想オブジェクトについては計算を行った結果においても最終的には目の前の透過型ディスプレイ30に一意の画像として表示されるため、左右の眼の視差が考慮されなかった。これにより、第1の実施形態においては仮想オブジェクトの存在を認識するうえで奥行き方向において多少の違和感を感じてしまう。しかしながら本実施形態においては左右の眼に、視差を考慮した異なった映像を透過型ディスプレイ30を介して見せるため、第1の実施形態において生ずる構造的な問題による違和感を払拭することが可能となり、より高い品質で重畳表現を実現することができる。
【0074】
図8に示す例では、透過型ディスプレイ装置30の奥側に広がる実空間における遠景の山並みの上方の空に、仮想オブジェクトVobjである太陽が透過型ディスプレイ装置30上に立体的に提示された様子が示されている。仮想オブジェクトVobjを表示する表示画像は、視差を有する左右の眼用の2つの表示画像として透過型ディスプレイ装置30に表示され、三次元眼鏡装置Gを装着したユーザ2は透過型ディスプレイ装置30超しに見える実空間に立体的な太陽の仮想オブジェクトVobjが存在しているような視覚体験を得ることができる。
【0075】
本実施形態においても、上述した第1の実施形態と同様に、透過型ディスプレイ装置30を通して見える実空間に重畳表示される三次元CGで表示される仮想オブジェクトの表示画像がユーザ2の視点位置2Aの変化に追従して連続的に生成され、現実世界の実空間内に三次元CGで表示される仮想オブジェクトが存在するかのような複合現実的な動画像が透過型ディスプレイ装置30を介してユーザ2に提供される。そのため、透過型ディスプレイ装置30上に表示される画像を見たユーザ2には、実空間の風景に対して三次元CGの仮想オブジェクトが、左右の眼の視差による奥行き情報も含めて重畳表現されることで、ユーザ2にはあたかも透過型ディスプレイ装置30を通して見える現実世界の実空間に仮想オブジェクトが存在しているようにより強く錯覚させることができる。
【0076】
また、本実施形態においても、ユーザから見て透過型ディスプレイ装置30の周囲の実空間内の物体について、その位置情報のみならず、大きさ及び形状等に関する情報も取得されるので、実空間内の物体に重畳表示する仮想オブジェクトを仮想的に同じ空間上に配置した時の前後関係や相対位置関係をシミュレーションでき、ユーザ視点位置を起点としたときに仮想オブジェクトが部分的に見えたり隠れたりするような遮蔽処理による表現を含めて反映した形で映像を生成することが可能である。その結果、実空間内の物体に対して仮想オブジェクトをより高い品質で重畳表示することができるので、ユーザ2にとって仮想オブジェクトが実空間に存在するかのように錯覚させるべく、より確からしく自然な画像をユーザ2に提供することができる。
【0077】
特に、本実施形態によれば、ユーザ2の視点位置2Aの変化に追従して連続的に生成され、現実世界の実空間内に存在するかのような仮想オブジェクトVobjを表示する表示画像が、視差を有する左右の眼用の2つの表示画像として透過型ディスプレイ装置30に表示されるので、三次元眼鏡装置Gを装着したユーザ2は透過型ディスプレイ装置30超しに見える実空間に奥行き方向も含めてより違和感なく立体的に仮想オブジェクトVobjが存在しているような視覚体験を得ることができる。
【0078】
なお、本実施形態による透過型ディスプレイ装置30および三次元眼鏡Gの三次元映像の方式は特に限定されない。例えば、アナグリフ式であってもよいし、偏光式であってもよいし、液晶シャッター式であってもよい。三次元映像の方式として液晶シャッター式を採用する場合には、透過型ディスプレイ装置30上に左右の表示画像を交互に切り替えて表示するタイミングに同期させて三次元眼鏡Gの左右の液晶シャッターの開閉を交互に切り替えるための同期信号が三次元眼鏡Gに送信される。この場合、システム1は一例として、そのような同期信号を送出する同期信号送出装置50をさらに備え、同期信号送出装置50は画像生成装置10の処理部14によって駆動制御される。同期信号送出装置50は、例えば赤外線光で構成される同期信号を三次元眼鏡Gに向けて送出する。なお、一般に三次元眼鏡はヘッドマウントディスプレイより小型かつ軽量であるので、ヘッドマウントディスプレイのように不安感や不快感を与えることはなく、また、Hololensに代表されるような現行のゴーグル型のMRデバイスのように映像が見える視野角が狭く限定されることもない。
【0079】
(変形例)
次に、第2の実施形態に係るシステム1の変形例について説明する。
【0080】
上述した第2の実施形態では1人のユーザ2に対する視点位置2Aを検出し、その視点位置2Aに応じて仮想オブジェクトの視差を有する左右の眼用の2つの表示画像からなる表示画像を生成して透過型ディスプレイ装置30に表示させ、透過型ディスプレイ装置30超しに見える実空間に重畳表示された立体的な仮想オブジェクトを三次元眼鏡装置Gを装着したユーザ2に提示する例を示した。これに対し、本実施形態の一変形例によれば、三次元眼鏡装置Gを装着した複数のユーザ2に対して実空間に重畳表示された立体的な仮想オブジェクトを提示する手段が提供される。
【0081】
図9は、第2の実施形態に係るシステムの一変形例における透過型ディスプレイ装置30と、その透過型ディスプレイ装置30上の表示画像の一例を示す図である。
【0082】
本変形例における透過型ディスプレイ装置30は、横に並んだ複数のユーザ2(図示の例では4人のユーザ2)が同時に一緒に見ることができるように、比較的大型で横長の形状を有している。本変形例における透過型ディスプレイ装置30も透過型のディスプレイであり、透過型ディスプレイ装置30を通してその奥側の実空間を見ることができる。本変形例における透過型ディスプレイ装置30は、例えば、バスや電車の長椅子に対向する窓の部分に設置することにより、その長椅子に一緒に着座した複数のユーザ2が同時に見ることができる。
【0083】
本変形例では、測定装置20によって各ユーザ2の視点位置2Aが検出され、仮想オブジェクトVobjの表示画像を各ユーザ2の視点位置2Aに応じて射影変換、透視投影変換、もしくはそれに類する計算処理が実行される。また、本変形例では一例として、三次元映像の方式として液晶シャッター式が採用され、透過型ディスプレイ装置30上に左右の表示画像を交互に切り替えて表示するタイミングに同期させて三次元眼鏡Gの左右の液晶シャッターの開閉を交互に切り替えるための同期信号を送出する同期信号送出装置50をさらに備えている。同期信号送出装置50は画像生成装置10の処理部14によって駆動制御される。同期信号送出装置50は、例えば赤外線光で構成される同期信号を三次元眼鏡Gに向けて送出する。
【0084】
本変形例におけるシステム1のその他の構成及び動作は、上述した第2の実施形態のシステム1と同様である。
【0085】
本変形例のシステム1においては、各ユーザ2の視点位置2Aから透過型ディスプレイ装置30を見たときに、透過型ディスプレイ装置30を通してその周囲に見える実空間に立体的な仮想オブジェクトVobjが重畳されるように、その表示画像が生成され、透過型ディスプレイ装置30に表示される。図9に示す例では、透過型ディスプレイ装置30の奥側に広がる実空間における遠景の山並みの上方の空に、仮想オブジェクトVobjである太陽が透過型ディスプレイ装置30上に立体的に提示された様子が示されている。
【0086】
なお、複数のユーザ2がそれぞれの視点位置から仮想オブジェクトVobjを見たときに、各ユーザ2に対して適切な視差を有する左右の表示画像が透過型ディスプレイ装置30に表示されるように、処理部14はユーザ2毎に仮想オブジェクトVobjの表示画像の表示制御を行う必要がある。一例として、本変形例では、画面表示レートが比較的高い(例えば、240Hz)透過型ディスプレイ装置30を用い、各ユーザ2用の左右の表示画像(2画像)がそれぞれ30Hzの表示レートで表示されるように4人分の表示画像を時分割方式で順番に切り替えて表示するように、処理部14によって制御される。30Hzの表示レートは地上波デジタルテレビの表示レートとほぼ同じであり、各ユーザ2は30Hzの表示レートで表示される仮想オブジェクトVobjを違和感なく見ることができる。一方で、より高い表示レートの方が液晶シャッターの動作により発生するちらつきを感じにくくすることが可能なため、480Hzディスプレイ装置を用いて各ユーザ2の各片眼毎に60Hzの表示レートで表示させてもよいし、それ以外の周波数でもよい。
【0087】
このように、本変形例においても、上述した本実施形態と同様に、透過型ディスプレイ装置30を通して見える実空間に重畳表示される三次元CGで表示される仮想オブジェクトの表示画像が各ユーザ2の視点位置2Aの変化に追従して連続的に生成され、現実世界の実空間内に三次元CGで表示される仮想オブジェクトが存在するかのような複合現実的な動画像が透過型ディスプレイ装置30を介して各ユーザ2に提供される。そのため、透過型ディスプレイ装置30上に表示される画像を見た各ユーザ2には、実空間の風景に対して三次元CGの仮想オブジェクトが、左右の眼の視差による奥行き情報も含めて重畳表現されることで、各ユーザ2にはあたかも透過型ディスプレイ装置30を通して見える現実世界の実空間に仮想オブジェクトが存在しているようにより強く錯覚させることができる。
【0088】
また、本変形例においても、各ユーザから見て透過型ディスプレイ装置30の周囲の実空間内の物体について、その位置情報のみならず、大きさ及び形状等に関する情報も取得されるので、実空間内の物体に重畳表示する仮想オブジェクトを仮想的に同じ空間上に配置した時の前後関係や相対位置関係をシミュレーションでき、各ユーザ視点位置を起点としたときに仮想オブジェクトが部分的に見えたり隠れたりするような遮蔽処理による表現を含めて反映した形で映像を生成することが可能である。その結果、実空間内の物体に対して仮想オブジェクトをより高い品質で重畳表示することができるので、各ユーザ2にとって仮想オブジェクトが実空間に存在するかのように錯覚させるべく、より確からしく自然な画像を各ユーザ2に提供することができる。
【0089】
特に、本変形例によれば、各々のユーザ2の視点位置2Aの変化に追従して連続的に生成され、現実世界の実空間内に存在するかのような仮想オブジェクトVobjを表示する表示画像が、視差を有する左右の眼用の2つの表示画像として透過型ディスプレイ装置30に表示されるので、三次元眼鏡装置Gを装着した各々のユーザ2に対して、透過型ディスプレイ装置30超しに見える実空間に奥行き方向も含めてより違和感なく立体的に仮想オブジェクトVobjが存在しているような視覚体験を個別に提供することができる。
【0090】
なお、一般に三次元眼鏡はヘッドマウントディスプレイより小型かつ軽量であるので、ヘッドマウントディスプレイのように不安感や不快感を与えることはなく、また、Hololensに代表されるような現行のゴーグル型のMRデバイスのように映像の視野角が狭く限定されることもない。
【0091】
[第3の実施形態]
次に、本開示の第3の実施形態について説明する。
【0092】
上述した第2の実施形態では、三次元眼鏡装置を装着したユーザに対して、仮想オブジェクトの表示画像を左右の眼の視差を与える2つの画像からなる三次元画像(立体視画像)として提示する手段を提供する例について説明した。これに対して本実施形態では、三次元眼鏡装置を装着しない裸眼のユーザに対して、仮想オブジェクトの表示画像を左右の眼の視差を与える2つの画像からなる三次元画像(立体視画像)として提示する手段を提供する。
【0093】
図10は、第3の実施形態のシステムにおけるディスプレイ装置の構成を説明するための概略図である。
【0094】
図10に示されているように、本実施形態の透過型ディスプレイ装置30は、一例として複数の表示方向に異なる画像を同時に表示可能な、例えば透過型有機ELディスプレイ(OLED)の表面にレンチキュラーレンズを貼り付けたタイプの裸眼立体視を実現するディスプレイである。本実施形態の透過型ディスプレイ装置30は、アレイ状に配置された複数の画素ユニット302を備えた透明基板301と、透明基板301上の各画素ユニット302の上に設けられた複数のレンズ素子303とを備えている。本実施形態における各々のレンズ素子303は、一例として、レンチキュラーレンズと呼ばれるかまぼこ型のシリンドリカルレンズである。レンズ素子303としては、レンチキュラーレンズの他に、光の方向を制御するような半球状半楕円体形状など任意の立体形状のレンズを用いてもよい。また、レンズを用いる代わりに視差バリア(パララックスバリア)を生じさせるフィルムや板を用いても良い。
【0095】
レンズ素子303は、一例として、個別に製造したものを透明基板301の各画素ユニット302が設けられている位置に透明の接着剤で個別に接着することで、各画素ユニット302の上に設けることができる。あるいは、3Dプリント技術を用いて、透明材料を透明基板301の各画素ユニット302が設けられている位置に吐出してレンズ素子302を形成することにより、レンズ素子302を各画素ユニット302の上に設けることができる。さらには、透明基板301の各画素ユニット302に対して位置決めされた複数のレンズ素子303が形成された透明フィルム部材を予め形成し、その透明フィルム部材を透明基板301上に所定の位置決めをした状態で貼り付けることによっても、レンズ素子303を各画素ユニット302の上に設けることができる。ほかにも、複数の透明基板を貼り合わせる構造の板の中間膜の部分に、アレイ状の画素ユニットと画素ユニットに電力や信号を供給する電極線を挿入すると同時に、レンズ素子を含むフィルムや板、視差バリアを生じさせるフィルムや板を挿入する方法で透明基板301を構成してもよい。また、アレイ状の画素ユニットのみを中間膜に挿入して透明基盤301を構成した後、外側にレンズ素子を含むフィルムや板、視差バリアを生じさせるフィルムや板を張り付ける方法としても良い。ここで透明基板としてはアクリル板を含む透明な樹脂板を用いても良いし、ガラスであっても良い。ある程度の透明性を持つものであれば材料は問わない。
【0096】
各々の画素ユニット302及びレンズ素子303は、互いに所定の間隔をおいて配置されている。画素ユニット302及びレンズ素子303が配置されていない領域では、透明基板301を通して透過型ディスプレイ装置30の奥側の実空間を見ることができる。本実施形態の透過型ディスプレイ装置30では画素ユニット302及びレンズ素子303は比較的「疎」に配置されており、一例として、透過型ディスプレイ装置30の画面全体のうちの画素ユニット302及びレンズ素子302が占める割合は数十パーセントから数パーセント、将来の技術発展によって画素ユニットのサイズをより小さくすることができれば数パーセント以下とすることができる。一つ一つの画素ユニットのサイズを小さくしたり、画素ユニット一つ一つの光の強度を上げることができたりすれば、透明度を確保しながらも、映像も周囲の光に負けずユーザに視認させられるように表示させることが可能となり、本件のように透過型ディスプレイ装置30を通して見える実空間に仮想オブジェクトを重畳表示する用途において、仮想オブジェクトを見るユーザに対して画像における十分な解像度と明瞭さを提供することができる。
【0097】
透明基板301には一例として各画素ユニット302に電気的に接続された透明度の高い導電性の素材で作られた電極線や、ごく微細な金属の電極線(不図示)が設けられており、各画素ユニット302は、こうした電極を介して供給される電力と駆動信号によって個別に発光駆動、または光の透過制御が行われる。ここで各画素ユニットは、有機ELやマイクロLEDのような自発光の素子であってもよいし、液晶の仕組みをもちいて光の透過制御を行う素子であっても良い。また、外部からのプロジェクション光に対して反射させることでユーザの視覚に色の違いを認識させるような素子や発光材料などでもよい。
【0098】
その他、本実施形態に係るシステム1の各部構成及び動作は第1の実施形態で説明したシステム1と概ね同様であるが、それと異なる構成及び動作については下記で説明する。
【0099】
続いて、図11及び図12を参照して、本実施形態の透過型ディスプレイ装置30のより詳細な構成と、透過型ディスプレイ装置30による表示動作制御について説明する。
【0100】
本実施形態における透過型ディスプレイ装置30では、一例として各々の画素ユニット302は、45個の画素がまとまった単位の集合として構成される。即ち、1つの画素ユニット302は、45個の画素からなり、各画素にはRGB表示素子302’が配置される。RGB表示素子302’は、R(赤)、G(緑)、B(青)の3色を表示する3つのサブピクセル表示素子から構成されている。あるいは、RGB表示素子302’は4色分の表示素子であってもよい。45画素からなる画素ユニット302は、一般的なディスプレイの1画素に対応する。
【0101】
これと共に、一例として各画素ユニット302は、その画素ユニット302内の45画素分のRGB表示素子302’にて表示される45本のRGB光の各光路の方向を、図12に示される例えば0~44の45本の表示方向(以下、この方向を「表示方向501」と記載)に屈折させるための、レンチキュラーレンズと呼ばれるかまぼこ型のシリンドリカルレンズであるレンズ素子303を備える。
【0102】
そして、画像生成装置10は、各ユーザ2~2の異なる視点位置2A毎に、それらの視点位置2A~2Aに対応して画像生成装置10が生成した表示画像のデータを、例えば基準座標空間(図4)の所定の原点O(例えば透過型ディスプレイ装置30の中心位置)から各ユーザ2~2の視点位置2A~2Aに向かう方向502A,502B,502C,502Dに対応する画素番号のRGB表示素子500に入力させる。以下、この方向を、ユーザ視点位置方向502A,502B,502C,502Dと記載する。又は、これらの方向を総称して、ユーザ視点位置方向502と記載する。
【0103】
ここで、画像生成装置10の処理部14は、測定装置20で検出された各ユーザ2~2の視点位置2A~2A毎に、例えばその視点位置から左右に一定距離離れたユーザの右目及び左目から夫々、透過型ディスプレイ装置30を介して仮想空間上の三次元の仮想オブジェクトを見たときに、各ユーザ2にとって仮想オブジェクトが実空間に存在するかのように錯覚させるべく幾何学的厳密さをもって確からしく自然な画像に見えるように、右目用表示画像及び左目用表示画像を生成してもよい。画像生成装置10は、透過型ディスプレイ装置30の画面に表示する右目用表示画像及び左目用表示画像を生成する際に、三次元CGデータで表現される仮想オブジェクトを、各ユーザ2~2の視点位置2A~2Aに基づいて透過型ディスプレイ装置30の画面、すなわち二次元の面に投影させるような射影変換、透視投影変換、もしくはそれに類する計算処理を行ってもよい。
【0104】
この場合、処理部14は、各ユーザ2~2の視点位置2A~2A毎に、各視点位置に対応して生成された上述の右目用表示画像及び左目用表示画像のデータを夫々、各視点位置に対応する各ユーザ視点位置方向502A,502B,502C,502Dの両側に位置する、右目の表示方向に対応する画素番号のRGB表示素子302’と、左目の表示方向に対応する画素番号のRGB表示素子302’とに表示させる。
【0105】
以上の制御動作の結果、図11のユーザ2~2毎に、各右目及び各左目と各レンズ素子303とを結ぶ視線方向500として示されるように、また、図3の表示D1,D2,D3等として説明したように、仮想オブジェクトの表示状態がユーザ2毎に制御された画像を、透過型ディスプレイ装置30に対して様々な位置にいる複数人のユーザ2~2に、同時に表示することが可能となる。この場合、各2~2においては、両眼の視差を有する画像が夫々の右目と左目に入射されるため、臨場感のある裸眼での立体視を体験することができる。
【0106】
本実施形態では、測定装置20によって各ユーザ2の視点位置2Aが検出され、仮想オブジェクトVobjの表示画像を各ユーザ2の視点位置2Aに応じて射影変換、透視投影変換、もしくはそれに類する計算処理が実行される。
【0107】
図13は、第1の実施形態において説明した図6のステップS104の表示処理の詳細例を示すフローチャートである。以下、この処理について、上述した図12の説明図に従って説明する。処理部14は、図12で説明した0番目から44番目までの45の表示方向501のうち、まず0番目の表示方向501と、図6のステップS102で算出された1つ以上の視点位置2Aのうち最初の視点位置2A(例えば図12の2A)を通るユーザ視点位置方向502(例えば図12の502A)の間の、例えば図12の0番目から3番目までの各表示方向501に対応する各画素番号のRGB表示素子302’に、最初の視点位置2A(例えば図12の2A)の左目の表示方向に対応して生成された左目用表示画像データをセットする(ステップS901)。このセットの処理は、透過型ディスプレイ装置30を構成する各画素ユニット302(図11参照)の上記各画素番号のRGB表示素子302’に対して実行される。
【0108】
次に、処理部14は、画像生成装置10の記憶部12における特には図示しない例えばRAMやレジスタに記憶されている視点位置2Aを示す変数値を+1する(ステップS905)。
【0109】
次に、処理部14は、上記視点位置2Aを示す変数値が、予め定められた最後のユーザ視点位置を超えたか否かを判定する(ステップS906)。最後の視点位置2Aを示す値は、システム1を利用するユーザ2の数に合わせて予め定めて、上記のRAMやレジスタに記憶させることができる。ステップS906では、視点位置2Aを示す変数値が予め定められて記憶された上記値を超えたか否かにより、視点位置2Aを示す変数値が最後のユーザ視点位置を超えたか否かを判定する。
【0110】
まだ最後のユーザ視点位置まで処理されておらず、ステップS906の判定がNOならば、処理部14は、ステップS902の処理に制御を移して、ステップS902からS904までの処理を実行する。
【0111】
まず、処理部14は、前回の視点位置2A(例えば図12の2A)と今回の視点位置2A(例えば図12の2A2)との中点を通る中点方向503(例えば図12の503AB)を算出する(ステップS902)。
【0112】
次に、処理部14は、前回のユーザ視点位置2A(例えば図12の2A)を通るユーザ視点位置方向502(例えば図12の502A)と、今回算出した中点方向503(例えば図12の503AB)の間の例えば図12の4番から10番までの各表示方向501に対応する各画素番号のRGB表示素子302’に、前回のユーザ視点位置2A(例えば図12の2A)の右目の表示方向に対応して生成された右目用表示画像データをセットする(ステップS903)。このセットの処理は、透過型ディスプレイ装置30を構成する各画素ユニット302(図11参照)の上記各画素番号のRGB表示素子302’に対して実行される。
【0113】
続いて、処理部14は、ステップS902で今回算出した中点方向503(例えば図12の503AB)と、今回のユーザ視点位置2A(例えば図12の2A2)を通るユーザ視点位置方向502(例えば図12の502B)との間の例えば図12の11番から16番までの各表示方向501に対応する各画素番号のRGB表示素子302’に、今回のユーザ視点位置2A(例えば図12の2A2)の左目の表示方向に対応して生成された左目用表示画像データをセットする(ステップS904)。このセットの処理は、透過型ディスプレイ装置30を構成する各画素ユニット302(図11参照)の上記各画素番号のRGB表示素子302’に対して実行される。
【0114】
その後、処理部14は、前述したように、視点位置2Aを示す変数値を+1し(ステップS905)、その変数値が、予め定められた最後のユーザ視点位置2Aを超えたか否かを判定する(ステップS906)。
【0115】
まだ最後の視点位置2Aまで処理されておらず、ステップS906の判定がNOならば、処理部14は、上述したステップS902からS904までの処理を再び実行する。
【0116】
前述と同様のステップS902により、例えば図12において、前回の視点位置2A2と今回のユーザ視点位置2A3との中点を通る中点方向503BCが算出される。
【0117】
次に、前述と同様のステップS903により、例えば図12において、前回の視点位置2A2を通るユーザ視点位置方向502Bと、今回算出した中点方向503BCの間の例えば図12の17番から21番までの各表示方向501に対応する各画素番号のRGB表示素子302’に、前回の視点位置2A2の右目の表示方向に対応して生成された右目用表示画像データがセットされる。このセットの処理は、透過型ディスプレイ装置30を構成する各画素ユニット302(図11参照)の上記各画素番号のRGB表示素子302’に対して実行される。
【0118】
続いて、前述と同様のステップS904により、例えば図12において、ステップS902で今回算出した中点方向503BCと、今回の視点位置2A3を通るユーザ視点位置方向502Cとの間の例えば図12の22番から26番までの各表示方向501に対応する各画素番号のRGB表示素子302’に、今回の視点位置2A3の左目の表示方向に対応して生成された左目用表示画像データがセットされる。このセットの処理は、透過型ディスプレイ装置30を構成する各画素ユニット302(図11参照)の上記各画素番号のRGB表示素子302’に対して実行される。
【0119】
その後、処理部14は、前述したように、視点位置2Aを示す変数値を+1し(ステップS905)、その変数値が、予め定められた最後のユーザ視点位置2Aを超えたか否かを判定する(ステップS906)。
【0120】
まだ最後の視点位置2Aまで処理されておらず、ステップS906の判定がNOならば、処理部14は、上述したステップS902からS904までの処理を再び実行する。
【0121】
前述と同様のステップS902により、例えば図12において、前回の視点位置2A3と今回の視点位置2A4との中点を通る中点方向503CDが算出される。
【0122】
次に、前述と同様のステップS903により、例えば図12において、前回のユーザ視点位置2A3を通るユーザ視点位置方向502Cと、今回算出した中点方向503CDとの間の例えば図12の27番から30番までの各表示方向501に対応する各画素番号のRGB表示素子302’に、前回の視点位置2A3の右目の表示方向に対応して生成された右目用表示画像データがセットされる。このセットの処理は、透過型ディスプレイ装置30を構成する各画素ユニット302(図11参照)の上記各画素番号のRGB表示素子302’に対して実行される。
【0123】
続いて、前述と同様のステップS904により、例えば図12において、ステップS902で今回算出した中点方向503CDと、今回のユーザ視点位置2A4を通るユーザ視点位置方向502Dの間の例えば図12の31番から34番までの各表示方向501に対応する各画素番号のRGB表示素子302’に、今回の視点位置2A4の左目の表示方向に対応して生成された左目用表示画像データがセットされる。このセットの処理は、透過型ディスプレイ装置30を構成する各画素ユニット302(図11参照)の上記各画素番号のRGB表示素子302’に対して実行される。
【0124】
その後、処理部14は、前述したように、視点位置2Aを示す変数値を+1し(ステップS905)、その変数値が、予め定められた最後の視点位置2Aを超えたか否かを判定する(ステップS906)。
【0125】
最後のユーザ視点位置2Aまで処理された後に、ステップS906の判定がYESになると、処理部14は、最後のステップS907の処理を実行する。ステップS907において、処理部14は、今回の視点位置204(例えば図12の2A4)を通るユーザ視点位置方向502(例えば図12の502D)と、44番目の表示方向501の間の例えば図12の35番から44番までの各表示方向501に対応する各画素番号のRGB表示素子に、最後のユーザ視点位置2A(例えば図12の2A4)の右目の表示方向に対応して生成された右目用表示画像データをセットする。
【0126】
その後、処理部14は、図13のフローチャートで例示される図6のステップS104の表示処理を終了する。
【0127】
以上の図13のフローチャートで例示した画像表示処理では、図12において2つの視点位置2Aのユーザ視点位置方向502と、それらの視点位置2A間の中点を通る中点方向503とで区切られる区間の各表示方向501に、隣接する視点位置2Aの右目又は左目の表示方向に対応して生成された右目用又は左目用表示画像データがコピーしてセットされた。これに対して、透過型ディスプレイ装置30に近いユーザ2の視点位置2Aと、透過型ディスプレイ装置30から遠いユーザ2の視点位置2Aとで、各表示方向501への表示画素のマッピングのアルゴリズムを変えることにより、表示画素の変化感度がユーザ2の視点位置Aに応じて均一になるようにすることもできる。又は、単純にコピーするのではなく、隣接する2つの表示画像間で、各表示方向501に応じて補間処理を行って算出した表示画素がセットされてもよい。
【0128】
このように、本実施形態によれば、三次元眼鏡装置を装着しない裸眼の複数のユーザ2に対して、各ユーザ2~2の視点位置2A~2A毎に、例えばその視点位置から左右に一定距離離れたユーザの右目及び左目から夫々、透過型ディスプレイ装置30を介して仮想空間上の三次元の立体的な仮想オブジェクトを見たときに、各ユーザ2にとって仮想オブジェクトが実空間に存在するかのように錯覚させるべく幾何学的厳密さをもって確からしく自然な画像に見えるように、仮想オブジェクトの表示画像を左右の眼の視差を与える2つの画像からなる三次元画像(立体視画像)として、透過型ディスプレイ装置30を通して見える実空間に重畳して提示することができる。加えて、本実施形態によれば各ユーザ2の視点位置2Aに応じた仮想オブジェクトの別々の表示画像を、各ユーザ2に対して同時に提示することができる。
【0129】
本実施形態における透過型ディスプレイ装置30の適用例としては、例えば、自動車等のガラス部分に本実施形態の透過型ディスプレイ装置30を装着し、その車内の前席及び後席にそれぞれ着座している複数のユーザ2の各々に対して仮想オブジェクトの立体的な表示画像を提示することが考えられる。本実施形態の透過型ディスプレイ装置30によれば、透過型ディスプレイ装置30に対する距離及び視線方向が異なる複数のユーザ2に対して個別に仮想オブジェクトの表示画像を表示できるので、移動する自動車のガラスとしての透過型ディスプレイ装置30の周囲に見える実空間に対して、各ユーザ2の視点位置から見た景色に応じた仮想オブジェクトを重畳して提示することができる。
【0130】
(変形例)
図14は、第3の実施形態のシステムにおけるディプレイ装置の一変形例を示す図である。
【0131】
図10等に示した第3の実施形態のディプレイ装置30では、レンズ素子303が画素ユニット302毎に個別に設けられている。これに対し、本変形例に示すように、レンズ素子303は、マトリクス状に配置された複数の画素ユニット302のうち、各列の複数の画素ユニット302にまたがって配置される縦長の形状を有していてもよい。これにより、レンズ素子303を画素ユニット302毎に個別に設ける場合に比べて、レンズ素子303の製造工数を低減することが可能になる。
【0132】
上述した本発明の各実施形態及び各変形例は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。
【符号の説明】
【0133】
1…画像表示システム、2…ユーザ、2A…視点位置、10…画像生成装置、20…測定装置、30…ディスプレイ装置、40…実空間環境情報取得装置、50…同期信号送出装置
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14