(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024149597
(43)【公開日】2024-10-18
(54)【発明の名称】3次元仮想現実表示システム
(51)【国際特許分類】
G06T 19/00 20110101AFI20241010BHJP
G06F 3/01 20060101ALI20241010BHJP
G06F 3/04815 20220101ALI20241010BHJP
【FI】
G06T19/00 600
G06F3/01 510
G06F3/04815
【審査請求】有
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2024124597
(22)【出願日】2024-07-31
(62)【分割の表示】P 2022544936の分割
【原出願日】2020-08-25
(71)【出願人】
【識別番号】000005810
【氏名又は名称】マクセル株式会社
(74)【代理人】
【識別番号】110000442
【氏名又は名称】弁理士法人武和国際特許事務所
(72)【発明者】
【氏名】川前 治
(72)【発明者】
【氏名】奥 万寿男
(57)【要約】
【課題】3次元ARオブジェクトをより正確に認識できる技術を提供する。
【解決手段】3次元仮想現実表示システムであって、サーバ(9)とサーバに無線通信接続されたヘッドマウントディスプレイ(2a、HMD)とを備え、HMDは、現実物体を撮像した3次元現実空間画像データと、現実空間の観測者から現実物体までの距離を測定して距離データをサーバに送信し、サーバは3次元現実空間画像データの撮影方向を観測者の視線として用い、観測者が3次元仮想現実物体を観測する視線上に現実物体が存在する場合、観測者から3次元仮想現実物体が表示される距離と距離データに示される観測者から現実物体までの距離とを比較し、3次元仮想現実物体に現実物体が重なる場合は、視線上に3次元仮想現実物体は表示し、現実物体画像は視線上には表示しない重なり解消表示処理を行った表示画像データを生成し、HMDが表示画像データに基づく画像を表示する。
【選択図】
図7A
【特許請求の範囲】
【請求項1】
3次元仮想現実表示システムであって、
サーバと、前記サーバに無線通信接続されたヘッドマウントディスプレイと、を備え、
前記サーバは、
第1プロセッサを備え、
前記ヘッドマウントディスプレイは、
現実空間内に存在する現実物体を撮像して現実物体画像を含む3次元現実空間画像データを出力するカメラと、
前記現実空間の観測者から前記現実物体までの距離を測定して距離データを出力する距離センサと、
ディスプレイと、
第2プロセッサと、を備え、
前記ヘッドマウントディスプレイから前記サーバへ、前記3次元現実空間画像データおよび前記距離データを送信し、
前記サーバは、前記3次元現実空間画像データおよび前記距離データを受信し、
前記第1プロセッサは、
前記3次元現実空間画像データの撮影方向を前記観測者の視線として用い、
前記観測者が3次元仮想現実物体を観測する視線上に前記現実物体が存在する場合、前記観測者から前記3次元仮想現実物体が表示される距離と前記距離データに示される前記観測者から前記現実物体までの距離とを比較し、前記3次元仮想現実物体に前記現実物体が重なる場合は、前記視線上に前記3次元仮想現実物体は表示し、前記現実物体画像は前記視線上には表示しない重なり解消表示処理を行った表示画像データを生成し、
前記サーバから前記ヘッドマウントディスプレイへ前記表示画像データを送信し、
前記ヘッドマウントディスプレイは、前記表示画像データを受信し、
前記第2プロセッサは、前記表示画像データに基づいて前記3次元仮想現実物体が含まれる画像を前記ディスプレイに表示する、
ことを特徴とする3次元仮想現実表示システム。
【請求項2】
請求項1に記載の3次元仮想現実表示システムであって、
前記第1プロセッサは、前記3次元仮想現実物体を構成する点のうち、前記視線に沿った奥行き方向に最も遠い最遠点と同距離またはそれよりも手前に前記現実物体が存在する場合、前記3次元仮想現実物体に前記現実物体が重なると判断する、
ことを特徴とする3次元仮想現実表示システム。
【請求項3】
請求項2に記載の3次元仮想現実表示システムにおいて、
前記第1プロセッサは、前記現実物体が前記最遠点よりも前記視線上において遠くに位置する場合、前記現実物体画像に、前記3次元仮想現実物体の背後に表示させるためのオクルージョン処理を実行して前記表示画像データを生成する、
ことを特徴とする3次元仮想現実表示システム。
【請求項4】
請求項2に記載の3次元仮想現実表示システムにおいて、
前記第1プロセッサは、前記現実物体が前記最遠点と同距離またはそれよりも手前に存在する場合、前記3次元現実空間画像から前記現実物体画像を削除し、当該削除した領域に前記3次元現実空間画像を基に生成した背景物体画像をはめ込んだ前記表示画像データを生成する、
ことを特徴とする3次元仮想現実表示システム。
【請求項5】
請求項4に記載の3次元仮想現実表示システムにおいて、
前記第1プロセッサは、前記3次元現実空間画像における前記視線から退避した位置に削除された前記現実物体画像を移動した前記表示画像データを生成する、
ことを特徴とする3次元仮想現実表示システム。
【請求項6】
請求項2に記載の3次元仮想現実表示システムにおいて、
前記第1プロセッサは、前記現実物体が前記最遠点と同距離またはそれよりも手前に位置する場合、予め用意された3次元仮想空間画像に前記3次元仮想現実物体を重ねた前記表示画像データを生成する、
ことを特徴とする3次元仮想現実表示システム。
【請求項7】
請求項2に記載の3次元仮想現実表示システムにおいて、
前記第1プロセッサは、前記3次元仮想現実物体を構成する点のうち、前記視線に沿った奥行き方向の最も手前にある最近点と同距離またはそれよりも更に手前に前記現実物体が存在する場合、前記現実空間を前記カメラが撮像した3次元現実空間画像から前記現実物体画像を削除し、前記現実物体が削除された3次元現実空間画像に前記3次元仮想現実物体を重ねるとともに、前記3次元現実空間画像から前記現実物体画像が削除された残領域に、前記3次元現実空間画像を基に生成した前景画像をはめ込んだ前記表示画像データを生成する、
ことを特徴とする3次元仮想現実表示システム。
【請求項8】
請求項1に記載の3次元仮想現実表示システムにおいて、
前記3次元仮想現実物体は、当該3次元仮想現実物体に対するオクルージョン処理を制御するためのフラグが付与され、
前記第1プロセッサは、前記フラグに応じて前記3次元仮想現実物体と前記現実物体画像との間のオクルージョン処理の実行を制御する、
ことを特徴とする3次元仮想現実表示システム。
【請求項9】
請求項8に記載の3次元仮想現実表示システムにおいて、
前記3次元仮想現実物体は非透明領域と透明領域とを含み、
前記フラグは前記非透明領域に付される非透明領域フラグと、前記透明領域に付加される透明領域フラグと、を含み、
前記第1プロセッサは、前記非透明領域フラグが付加された前記3次元仮想現実物体の部位は、前記重なり解消表示処理を実行し、前記透明領域フラグが付加された前記3次元仮想現実物体の透明領域は、前記透明領域と前記現実物体との距離に関わらず、前記透明領域を透過して前記現実物体を観測する視線上に前記3次元仮想現実物体の他の部位または他の前記3次元仮想現実物体と前記現実物体とがある場合は、前記3次元仮想現実物体の他の部位または他の前記3次元仮想現実物体と前記現実物体との距離に応じた表示、または前記視線上に前記現実物体のみが存在する場合は前記現実物体までの距離に応じた表示を行う前記表示画像データを生成する、
ことを特徴とする3次元仮想現実表示システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、3次元仮想現実表示システムに関し、特に、現実空間と仮想現実物体(ARオブジェクト:Argument Reality Object)とを含む複合現実(MR:Mixed Reality)を体験するための技術に関する。
【背景技術】
【0002】
特許文献1は、「現実空間画像と仮想オブジェクト画像とを合成した合成画像を表示装置に出力する情報処理装置が、現実物体の位置を特定し、特定された現実物体の位置の情報に基づいて現実物体が移動しているか判定し、移動している場合に現実物体の存識可能にするように前記合成画像を前記表示装置に表示させるべく出力する」(要約抜粋)技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1では、3次元ARオブジェクトと現実空間の現実物体とがHMDからの視線上で重なる場合は、3次元ARオブジェクトを半透明にする、あるいは現実物体の近傍で3次元ARオブジェクトを非表示にするなど、3次元ARオブジェクトの表示に制約を与えている。このため、3次元ARオブジェクトを正確に認識して、MR体験を行うことができない場合がある。
【0005】
本発明は上記課題に鑑みてなされたものであり、3次元ARオブジェクトをより正確に認識できる技術を提供することを目的とする。
【課題を解決するための手段】
【0006】
上記課題を解決するために、本発明は特許請求の範囲に記載の構成を備える。その一例をあげるならば、本発明は、3次元仮想現実表示システムであって、サーバと、前記サーバに無線通信接続されたヘッドマウントディスプレイと、を備え、前記サーバは、第1プロセッサを備え、前記ヘッドマウントディスプレイは、現実空間内に存在する現実物体を撮像して現実物体画像を含む3次元現実空間画像データを出力するカメラと、前記現実空間の観測者から前記現実物体までの距離を測定して距離データを出力する距離センサと、ディスプレイと、第2プロセッサと、を備え、前記ヘッドマウントディスプレイから前記サーバへ、前記3次元現実空間画像データおよび前記距離データを送信し、前記サーバは、前記3次元現実空間画像データおよび前記距離データを受信し、前記第1プロセッサは、前記3次元現実空間画像データの撮影方向を前記観測者の視線として用い、前記観測者が3次元仮想現実物体を観測する視線上に前記現実物体が存在する場合、前記観測者から前記3次元仮想現実物体が表示される距離と前記距離データに示される前記観測者から前記現実物体までの距離とを比較し、前記3次元仮想現実物体に前記現実物体が重なる場合は、前記視線上に前記3次元仮想現実物体は表示し、前記現実物体画像は前記視線上には表示しない重なり解消表示処理を行った表示画像データを生成し、前記サーバから前記ヘッドマウントディスプレイへ前記表示画像データを送信し、前記ヘッドマウントディスプレイは、前記表示画像データを受信し、前記第2プロセッサは、前記表示画像データに基づいて前記3次元仮想現実物体が含まれる画像を前記ディスプレイに表示する、ことを特徴とする。
【発明の効果】
【0007】
本発明によれば、3次元ARオブジェクトをより正確に認識できる。上記した以外の目的、構成、効果については、以下の実施形態において明らかにされる。
【図面の簡単な説明】
【0008】
【
図1】第1実施形態に係る3次元仮想現実表示システムの概要図
【
図2】3次元仮想現実表示装置の一例としてのHMDの外観図
【
図6A】従来の3次元仮想現実表示例を示す図(3DARオブジェクトと現実物体が重なっている状態を示す図)
【
図6B】第1実施形態に係る3次元仮想現実表示(第1重なり解消表示例)を示す図
【
図6C】第1実施形態に係る3次元仮想現実表示(第2重なり解消表示例)を示す図
【
図6D】第1実施形態に係る3次元仮想現実表示(第3重なり解消表示例)を示す図
【
図7A】第1実施形態に係るMR体験プログラムのフローチャート
【
図7B】体積の重なり具合の判断アルゴリズム例を示す図
【
図8】第1実施形態に係るVRサービスサーバのフローチャート
【
図9】第1実施形態に係るMR支援サーバのフローチャート
【
図10A】従来の3次元仮想現実表示の例を示す図(3DARオブジェクトよりも手前に現実物体がいる状態を示す図)
【
図10B】第2実施形態に係る3次元仮想現実表示(第4重なり解消表示例)を示す図
【
図11】第2実施形態に係るMR体験プログラムのフローチャート
【
図12A】従来の3次元仮想現実表示の例を示す図(3DARオブジェクトと現実物体が重なっている状態を示す図)
【
図12B】第3実施形態に係る3次元仮想現実表示例を示す図(透明部位の処理例)
【
図12C】第3実施形態に係る3次元仮想現実表示例を示す図(VR画像への置換例)
【
図14】第3実施形態に係るMR体験プログラムのフローチャート
【
図15】第3実施形態に係る3次元仮想現実表示の別例を示す図
【
図16】第4実施形態のMR支援サーバのブロック図
【
図17】第4実施形態の3次元仮想現実表示処理の流れを示すフローチャート
【発明を実施するための形態】
【0009】
以下、図面を参照しながら、本発明の実施形態について説明する。全図において同一の構成、ステップには同一の符号を付し、重複説明を省略する。
【0010】
本実施形態では、現実空間を測距カメラで撮影した3次元現実空間画像(以下「現実空間画像」という)にCG(Computer Graphics)で作成した3次元仮想現実物体(以下「3DARオブジェクト」という、図面では「3D-ARO」と記載する。)を合成して表示する。本実施形態では、測距カメラ20を用いることによりカメラと距離を測定する距離センサとを一体的に構成したが、カメラと例えば超音波距離計といった別体の距離センサとを組み合わせて構成してもよい。
【0011】
現実空間を撮像して得られる3次元現実空間画像に3DARオブジェクトを重ねて表示する際に、視点から遠い側に表示されるべき画像には、近い側に表示されるべき画像によって遮蔽領域が生じる。この遮蔽領域を表現する画像処理手法としてオクルージョンがある。
【0012】
AR画像を現実空間の背景画像に合成した複合現実空間(MR)画像は、ゲームや保守作業、セールスプロモーション等のコンテンツに用いられている。AR画像を合成するために、例えば現実空間画像からARマーカと呼ばれる被写体を撮像し、この被写体領域にARマーカに紐付けられたAR画像が重畳される。3次元仮想現実表示を行うハードウェアとして、カメラとディスプレイとが一体化されたHMD(ヘッドマウントディスプレイ)が用いられることが多いことから、以下では、本発明をHMDに実装する実施形態について説明する。
【0013】
[第1実施形態]
図1から
図9を参照して、第1実施形態について説明する。
【0014】
(3次元仮想現実表示システムの構成)
図1は、第1実施形態に係る3次元仮想現実表示システムの概要図である。
【0015】
図1にて、MR体験者2はHMD2aを頭部に装着し、MR空間1を視認する。同様にMR体験者3は、HMD3aを頭部に装着し、MR空間1を視認する。
【0016】
HMD2a、3aのそれぞれは、アクセスポイント1aと、無線LAN信号1b、2b、3bを送受信して無線通信接続される。
【0017】
アクセスポイント1aは、MR空間1に配置されている。そしてアクセスポイント1aは、MR空間1の外のネットワーク7に接続して、HMD2a、3aとネットワーク7上に置かれているVRサービスサーバ8およびMR支援サーバ9のそれぞれと通信を行わせる。VR(Virtual Reality)とは、仮想現実空間のことである。
【0018】
現実空間には、MR非体験者4a、4bが存在する。また現実空間の背景の一部として花瓶5aと窓5bとがある。3DARオブジェクト6は、車の3次元ARオブジェクトである。
【0019】
MR空間1は、車のセールスプロモーションを想定した空間であり、特定の一人のMR体験者に限定された空間ではなく、MR体験者2、3のように、複数の人が同時にMR体験を行っていてもよい。MR体験者3は商品説明員であって、MR体験者2と同じ3DARオブジェクト6を異なる方向から観測している場合もあるし、MR体験者2とは異なる3DARオブジェクトを観測している独立な来場者であってもよい。販売対象である車を3DARオブジェクト6として提示することにより、プロモータは、高価な現実物体(車)を展示する必要もなく、複数の車を展示する広い空間も必要とはしない。MR空間1には、MR体験者2、3以外にも、MR非体験者4a、4bの入場者が居てもよい。MR非体験者4a、4bはMR体験者2、3の家族や、MR体験をこれから行おうと待機している来場者等である。
【0020】
MR非体験者4a、4bは、3DARオブジェクト6を観測しておらず、MR空間1内の移動は制限されていない。このためMR非体験者4bのように、3DARオブジェクト6と同じ位置にいることが起こりえる。
【0021】
図2は、3次元仮想現実表示装置の一例としてのHMD2a、3aの外観図である。HMD2aは、ビデオシースルー型のHMDである。HMD3aは、HMD2aと同じ構成であるため説明を省略する。HMD2aは、視差を有する測距カメラ20とディスプレイ22を備える。HMD2aは、測距カメラ20で前景を撮影し、MR体験者2の前面に配置するディスプレイ22に、測距カメラ20で撮影する画像にCG等で描画した3DARオブジェクト6を合成して表示する。
【0022】
測距カメラ20は、左カメラ20aおよび右カメラ20bを含み、撮影している対象物との距離を測るための測距カメラである。ディスプレイ22は平面ディスプレイであり、その内側にシャッタ23が備えられる。ディスプレイ22に左目用の画像と右目用の画像を交互に表示されると、シャッタ23はディスプレイ22の表示に同期して開閉する。すなわち、左目用の画像が表示されるとディスプレイ22の左半分は開、右半分は閉に、右目用の画像が表示されるとディスプレイ22の左半分は閉、右半分は開に動作する。これにより、HMD2aは、3次元表示に対応している。MR体験者2は、表示される画像に同期して、交互に片方の目だけに表示画像を見る。
【0023】
さらにHMD2aは、プロセッサ24、および装着用筐体25a、25bを備える。装着用筐体25a、25bで、HMD2aを頭部に装着する。
【0024】
左カメラ20aおよび右カメラ20bで撮影された前方の現実空間画像がディスプレイ22に表示され、MR体験者2は現実空間画像を見る。またディスプレイ22は、3DARオブジェクト6を、現実空間画像に重畳して映し出す。この時、左カメラ20aで撮影する画像に左目用ARオブジェクトの画像を、右カメラ20bで撮影する画像に右目用ARオブジェクトの画像を重畳してディスプレイ22に表示して、3DARオブジェクト6があたかも現実空間の所定の距離にあるように立体的(3次元的に)に表示する。
【0025】
HMD2aでの表示には、現実空間の現実物体、
図1ではMR非体験者4b、花瓶5a、窓5bと3DARオブジェクト6の距離の前後関係が反映される。例えば、現実物体(MR非体験者4b)の一部分が3DARオブジェクト6の一部分の前にある関係にある時、現実物体(MR非体験者4b)の一部分に3DARオブジェクト6の一部分が隠されて見えるように、3DARオブジェクト6の描画データを加工するオクルージョン処理を行う。
【0026】
(3次元仮想現実表示装置のブロック図)
図3は、HMD2aのブロック図である。
図3にて、
図2と同一のものには同一の番号を付している。
図3にて、プロセッサ24は破線で囲った部分であり、プロセッサ24に左カメラ20a、右カメラ20b、ディスプレイ22、シャッタ23、スピーカ26、マイク27が接続される。
【0027】
プロセッサ24は、カメラ用プロセッサ240、方位センサ241、ジャイロセンサ242、加速度センサ243、無線通信器244、CPU245(メインプロセッサに相当する)、RAM246、画像RAM247、Flash ROM(FROM)248、および内部バス249を含み、各要素が内部バス249を介して互いに接続される。
【0028】
無線通信器244は、4G、5G等のモバイル通信、ワイヤレスLAN等の幾つかの通信処理の中から適切な処理を選択して、アクセスポイント1aを介してHMD2aをネットワーク7に接続する。
【0029】
FROM248は、基本プログラム250、MR体験プログラム251を含む。CPU245は、これら処理プログラムをRAM246に展開して実行する。さらにFROM248には、処理プログラムを実行するのに必要なデータを格納する。FROM248は、Flash ROM以外の不揮発性のメモリ媒体であっても良い。
【0030】
またCPU245は、ディスプレイ22に送出する画像データを、画像RAM247に格納した後、読み出す。
【0031】
カメラ用プロセッサ240は、左カメラ20aおよび右カメラ20bで撮影した画像をもとに、現実空間画像の被写体(現実物体に相当する)までの距離算出処理を実行し、現実空間画像に現実空間画像の被写体までの距離データを付加する。本明細書において「現実空間画像」とは画像だけを意味し、これに距離データが付加されたデータは「現実空間画像データ」と称する。
【0032】
方位センサ241、ジャイロセンサ242、加速度センサ243等のセンサ群は、HMD2aの位置や測距カメラ20の撮影方向(HMD2aを装着するMR体験者2の視線として用いられる)を知るのに用いる。
【0033】
なおHMD2aは、下記で説明するVRサービスサーバ8やMR支援サーバ9で実行する処理の一部もしくは全部を含んでもよい。
【0034】
図4は、VRサービスサーバ8のブロック図である。VRサービスサーバ8は、有線LAN等のネットワークインターフェース(ネットワークIF)81、CPU82、RAM83、ストレージ84を含み、これらが内部バス85を介して互いに接続される。
【0035】
ストレージ84はFlash ROMのほか、ハードディスクドライブ等と組み合わせたものであってもよい。ストレージ84は、VRサービスプログラム86を格納する。CPU82は、VRサービスプログラム86をRAM83に展開して実行する。
【0036】
さらにストレージ84は3DARオブジェクト等のVRデータ87を格納する。VRデータ87は、VRサービスプログラム86を実行するのに必要なデータである。
【0037】
VRデータ87としては、3DARオブジェクトのほかVR(Virtual Reality)画像データも含んでよい。VR画像データは、MR体験者2、3の現実空間画像全体を置き換える画像で、MR体験者2、3はVR画像データで与えられる別の空間にあたかも居るように感じながら、3DARオブジェクト6の観測を行う体験が可能となる。
【0038】
図5は、MR支援サーバ9のブロック図である。MR支援サーバ9は、有線LAN等のネットワークIF91、CPU92、RAM93,ストレージ94を含み、これらが内部バス95を介して互いに接続される。
【0039】
ストレージ94はFlash ROMのほか、ハードディスクドライブ等と組み合わせたものであってもよい。ストレージ94は、処理プログラムとして、MR支援プログラム96を含む。CPU92は、MR支援プログラム96をRAM93に展開して実行する。
【0040】
さらにストレージ94は背景物体画像97と現実物体画像98を格納する。これらはMR支援プログラム96を実行するのに必要なデータである。
【0041】
背景物体画像97と現実物体画像98は、ユーザがMR体験を行うためのデータであり、複数のユーザに対応する場合には、ユーザ毎に分けられたデータが存在する。
【0042】
現実物体画像98は、HMD2aから受信して得る現実空間画像から、時間差分等によって動きのある領域を検知し、一塊の領域を現実物体として認識したデータである。さらには現実物体の形状等から、現実物体が何であるか、例えば人であるかを検知してもよい。
【0043】
背景物体画像97は、現実空間画像から現実物体の領域を取り除いた背景画像のデータであり、現実空間画像の動きのない領域のデータである。取り除かれる現実物体の領域には、時間を遡った現実空間画像から、その領域に現実物体が現れなかった時のデータを補間して背景画像を得る。より詳しくは、背景物体画像97は、現実物体画像98の後ろ側にあるので、ある時点、すなわち複数フレームからなる3次元現実空間画像の同一フレーム(対象フレーム)には現実物体画像98のさらに後ろにある背景物体は撮像されてない。そこで、MR支援プログラム96は、対象フレームから現実物体画像98を認識し、それが映り込んでいない他のフレームから背景物体画像97を抽出することで、背景物体画像97を生成する。
【0044】
(3次元仮想現実表示による画像)
図6A~
図6Dは、3次元仮想現実表示方法を説明する図である。
図6Aは、従来の3次元仮想現実表示例を示す図(3DARオブジェクトと現実物体が重なっている状態を示す図)、
図6Bは、第1実施形態に係る3次元仮想現実表示(第1重なり解消表示例)を示す図、
図6Cは、第1実施形態に係る3次元仮想現実表示(第2重なり解消表示例)を示す図、
図6Dは、第1実施形態に係る3次元仮想現実表示(第3重なり解消表示例)を示す図である。
図6A~
図6Cは、
図1に示している破線で囲った領域(AREA)に対応している。
図1に示されるように、現実物体であるMR非体験者4bと3DARオブジェクト6は、距離関係で同じ程度の位置にあり、HMD2aの視線上において重なっている。ここでいう“距離関係”とは、HMD2aを基点とし、HMD2aの装着者であるMR体験者2の同一視線方向上における距離関係である。MR体験者2からの同距離にあっても、視線方向が異なっている距離関係は含まない。
【0045】
図6Aは、重なっているMR非体験者4b(現実物体)と3DARオブジェクト6をオクルージョン処理した画像である。3DARオブジェクト6の前にあるMR非体験者4bの上部は表示されるが、3DARオブジェクト6の後ろにあるMR非体験者4bの下部は表示されない。この結果、3DARオブジェクト6の中からMR非体験者4bが表れている(車のボンネットの上に人物の上半身が乗っているまたは生えているような)画像となり、MR非体験者4bが3DARオブジェクト6の認識を妨げている不自然な画像となってしまう。このため本実施形態では、
図6Bもしくは
図6Cに示す処理を行う。
【0046】
図6B、
図6Cでは、距離で同じ程度の位置にある現実物体(MR非体験者4b)と3DARオブジェクト6とでオクルージョン処理を実行させない。代わりに、現実物体(MR非体験者4b)の領域に、背景画像から切り出す背景物体画像10を挿入し、背景物体画像10と3DARオブジェクト6とでオクルージョン処理を行う。背景物体画像10は、通常3DARオブジェクト6よりも同一視線上において遠い距離に位置するものであり、3DARオブジェクト6を欠けることなく表示できるとともに、現実物体(MR非体験者4b)に隠れていた背景(例えば花瓶5a)も表示されるので、自然なMR体験が可能となる。以上が
図6Bの処理(第1重なり解消表示)である。
【0047】
図6Cでは、
図6Bに加えて、現実物体(MR非体験者4b)の画像を3DARオブジェクト6の認識に支障のない場所に移動(退避)させる(第2重なり解消表示)。
図6Cの画像11が移動後の現実物体(MR非体験者4b)である。現実物体(MR非体験者4b)がMR体験者2、3の子供等、常に注意を払っているべき存在であるような場合に、現実物体を非表示にせず、3DARオブジェクト6と現実物体(MR非体験者4b)とを同時に視認可能にさせ、かつオクルージョンによる不自然な画像の表示をせずにMR体験の没入感を保持するという特徴を持つ。ここで現実物体(MR非体験者4b)を移動させる際に、遠方や近傍のようにMR体験者2からの同一視線上の距離が異なる場合がある。その場合には、MR体験者2からの距離に応じて現実物体(MR非体験者4b)の縮尺を小さく加工したり、大きく加工したりすることで、自然なサイズで視認することが可能となる。
【0048】
図6Dは、VR画像データ6aで現実空間画像を置き換えた例(第3重なり解消表示例)である。VR画像データ6aが3DARオブジェクト6の背面にある場合、3DARオブジェクト6はVR画像6aを背景にして表示される。また、車のセールスプロモーションの場面によっては、
図6Bもしくは
図6Cの映像から、
図6Dのような表示に切り替えると多様な背景と3DARオブジェクト6を組み合わせた映像を表示することができ、体験者がいろいろなシーンで3DARオブジェクト6を視認することが可能となる。
図6Bもしくは
図6Cの映像から、
図6Dの背景映像に切り替える際に、徐々に映像を合成させて変化させたり、ワイプ処理のような加工を行ったりしても良い。
【0049】
(フローチャート)
図7Aは、第1実施形態に係るMR体験プログラム251のフローチャートである。MR体験者2がHMD2aに格納されたMR体験プログラム251を起動し(S101)、VRサービスサーバ8やMR支援サーバ9にログインする。以下、HMD2aがMR体験プログラム251を実行中の動作についてステップ順に沿って説明する。また、以下では現実物体としてのMR非体験者4bが車の3DARオブジェクト6に重なるまたは重ならない場合の処理を例に挙げて説明する。
【0050】
HMD2aがカメラ撮影を開始する(S102)。測距カメラ20で撮影する画像には、現実物体への距離データが添付される。カメラ撮影は、例えば30fps(frame per second)で動画撮影をして複数フレームが時系列に並んだ3次元現実空間画像データを生成し、撮影画像をキャプチャするようにしてよく、以降のステップは、カメラ撮影周期に同期して実行してもよい。
【0051】
HMD2aは、無線通信器244を介して、3次元現実空間画像データをMR支援サーバ9に送信する(S103)。MR支援サーバ9は、後記するように現実空間画像から、現実物体画像(MR非体験者4b)および背景物体画像(例えば花瓶5a、窓5b)を分離する。
【0052】
さらにHMD2aは、VRサービスサーバ8に3DARオブジェクト6の描画データ(VRデータ87に含まれる)の送信要求を送信する(S104)。
【0053】
HMD2aは、MR支援サーバ9から、現実空間画像から抽出された少なくとも一つ以上、好ましくは全ての現実物体画像データ(現実物体画像とその距離データを含む)を受信し(S105)、VRサービスサーバ8から3DARオブジェクト(本例では3DARオブジェクト6)の描画データやVR画像データを受信する(S106)。
【0054】
HMD2aは、各現実物体(MR非体験者4b)と3DARオブジェクト6との3次元的な重なり、換言すると、HMD2aを基準とした場合の同一視線上におけるHMD2aからの現実物体画像(MR非体験者4bの画像とそれまでの距離データを含む)とHMD2aからの3DARオブジェクト6との距離を比較する。
【0055】
現実物体と3次元の3DARオブジェクト6とが同一視線上において同じ距離にある場合には、現実物体の体積と3DARオブジェクトとの体積とが重なっている。従って、これら体積の重なりを考慮することなくオクルージョンを行うと、例えば3DARオブジェクト6の手前と現実物体の表面とについてオクルージョン処理が成功しても、3DARオブジェクト6の奥では現実物体の表面との距離関係については適切に処理がなされず、3DARオブジェクト6の中から突如現実物体が現れた、不自然な表示となることがある。
【0056】
本実施形態では、現実物体と3DARオブジェクト6との体積の重なり具合に応じて従前のオクルージョンか、重なり解消表示処理かを選択する。
【0057】
そこでHMD2aは、現実物体の体積が3DARオブジェクト6の体積と重ならない距離である場合(S107:離れている)、現実物体と3DARオブジェクトとでオクルージョン処理を実行する(S108)。
【0058】
一方、HMD2aは、現実物体(MR非体験者4b)の体積が3DARオブジェクトの体積と重なる距離である場合(S107:重なっている)、HMD2aは重なり解消表示処理を行う。
【0059】
図7Bを参照して、ステップS107での判断アルゴリズムの一例を説明する。
図7Bは、体積の重なり具合の判断アルゴリズム例を示す図である。説明の便宜のため、HMD2aの表示面は鉛直方向に平行な面であるとする。そしてディスプレイ22の1点、例えばディスプレイ22の左上隅を原点とし、画面の2次元座標x-y面とそれに直交するz軸とを用いて現実の3次元座標を定義する。したがって、z-x面は水平面であり、z軸はHMD2aからみた視線の奥行き方向の距離を示す。
【0060】
図7Bの例では、HMD2aの正面に現実物体が位置する場合、z軸の値がHMD2aからMR非体験者4bまでの距離に一致する。測距カメラ20でMR非体験者4bを視認するので、MR非体験者4bの観測者からの視線L上の位置P
R(x
R,z
R)は、MR非体験者4bにおけるHMD2aに対向する表面と視線Lとの交点で表せる。
【0061】
一方、3DARオブジェクト6は、3次元画像系の(s,t,u)の3軸座標でその形状が定義されているものとする。現実空間にARマーカが出現するとそれに3DARオブジェクト6を重ねて表示する。よって、3DARオブジェクト6の原点(s0,t0,u0)をARマーカの3次元座標(xl,ym,zn)に重ね合わせるとするならば、(s0,t0,u0)は(xl,ym,zn)に変換できる。説明の便宜のためstu座標系とxyz座標系の各軸回転方向のずれはなく、s軸はx軸に、t軸はy軸に、u軸はz軸に一致するものとする。
【0062】
プロセッサ24は、HMD2aの視線L上に3DARオブジェクト6を構成する点が一つしかなければその点を最遠点Pn、複数の点、例えばP1、・・・、Pn-2、Pn-1、Pnがある場合には、HMD2aから最も遠い点、すなわちz軸の値が最も大きい点を最遠点Pnとして選択する。なお、z軸の値が最も小さい点P1は最近点である。
【0063】
そして、上記視線LとMR非体験者4bとの交点PRの3次元座標(xR、yR、zR)と3DARオブジェクト6の最遠点Pnの座標(xARn、yARn、zARn)(但し、本例ではxR=xARn、yR=yARn)とを比較する。zR>zARnであれば現実物体と3DARオブジェクト6とには体積の重なり部分がないと判断する(状態1)。zR≦zarであれば現実物体と3DARオブジェクト6とには体積の重なり部分があると判断する(状態2)。
【0064】
そこでHMD2aは、現実物体(MR非体験者4b)の領域に対応する背景物体画像(
図6Bの背景物体画像10に相当する)のデータをMR支援サーバ9に要求し(S109)、受信する(S110)。受信後、HMD2aは背景物体画像10と3DARオブジェクト6とで現実物体(MR非体験者4b)を隠す(第1重なり解消表示)。またHMD2aは現実物体(MR非体験者4b)を切り取って3DARオブジェクト6と重ならない場所に表示するとともに、現実物体(MR非体験者4b)が実際には存在する領域に背景物体画像10をはめ込む(第2重なり解消表示)。
【0065】
なお、S106で3DARオブジェクト6の描画データと併せて、背景のVR画像データを受信する場合は、S107、S108のステップで現実物体のうち背景物体画像をVR画像に置き換え、S108で背景のVR画像と3DARオブジェクトと現実物体とでオクルージョン処理や現実物体の移動等の合成処理を行う。ここで、この例ではHMD2aの表示画像を合成する処理をHMD2a内で実施する構成として示したが、合成処理を行う場所はこれに限定されず、後程述べるようにネットワークで接続されたサーバや、連携接続されたで行うスマートフォンやタブレットなどで処理しても良い。
【0066】
HMD2aは、3DARオブジェクト6と重なり合う現実物体のすべてに対して、S107~S111のステップが実行されたかの確認を行い、現実物体が残っている場合には(S112:No)、S107に戻る。一方、HMD2aは、すべての現実物体に対して処理が完了した場合(S112:Yes)、処理済みの画像をHMD2aのディスプレイ22に表示する(S113)。
【0067】
HMD2aのMR体験プログラム251が終了していない場合は、次のカメラ周期でS103からのステップを継続する(S114:No)。HMD2aのMR体験プログラム251が終了する場合では(S114:Yes)、上記の処理を終了する。
【0068】
図8は、VRサービスプログラム86のフローチャートである。登録されているMR体験者2のログイン要求を受信すると、ログイン処理を実行する(S121)。
【0069】
VRサービスサーバ8は、HMD2aからの3DARオブジェクト6の描画データの送信要求を受信すると(S122)、要求された3DARオブジェクトの描画データを作成する(S123)。3DARオブジェクトの描画データは、3DARオブジェクトの描画データの送信要求に含まれるHMD2aと3DARオブジェクトの距離、HMD2aの視線方向等に応じて、3DARオブジェクト6を3D描画したデータ(オブジェクトファイル)であり、HMD2aの移動や、視線の変化に応じて描画データは更新される。また、太陽や照明などの光源の方向から、反射や影の影響を画像として付加して描画データとしても良い。
【0070】
VRサービスサーバ8は、作成された描画データをHMD2aに送信する(S124)。
【0071】
VRサービスサーバ8は、MR体験者2のログアウトやMR体験プログラム251の終了など、VRサービスプログラム86の終了条件が成立するまで(S125:No)、ステップS122からS124までの処理を続行する。
【0072】
VRサービスサーバ8は、VRサービスプログラム86の終了条件が成立すると(S125:Yes)、上記一連の処理を終了する。
【0073】
図9は、MR支援プログラム96のフローチャートである。
【0074】
MR支援サーバ9は、登録されているMR体験者2のログイン要求を処理する(S131)。
【0075】
MR支援サーバ9は、HMD2aから現実空間画像データを受信し(S132)、現実物体画像を認識して(S133)現実物体画像データを抽出し、背景画像を得る。背景画像は、現実空間画像を受信するたびに更新される(S134)。
【0076】
MR支援サーバ9は、現実物体画像データをHMD2aに送信する(S135)。またMR支援サーバ9は、背景物体画像の送信要求を受信すると(S136)、背景物体画像データをHMD2aに送信する(S137)。
【0077】
MR支援サーバ9は、MR体験者2のログアウトやMR体験プログラム251の終了など、MR支援プログラム96の終了条件が成立するまでステップS132からS137までの処理を続行する(S138:No)。
【0078】
MR支援サーバ9は、MR支援プログラム96の終了条件が成立すると(S138:Yes)、上記一連の処理を終了する。
【0079】
本実施形態によると、現実物体と3DARオブジェクト6とがMR体験者の同一視線上に重なる場合、現実物体の体積と3DARオブジェクト6の体積とが重ならないほど遠い場合はオクルージョンを行い、両者が重なるほど近い場合はオクルージョンをすることなく、重なり解消処理を行うことで、現実物体と3DARオブジェクト6とが不自然に重なって表示されることがない。そのため、MR体験の没入感を高めることができる。
【0080】
また、本実施形態によれば、MR体験を行わない第三者(MR非体験者)が存在するオープンな空間あっても、3DARオブジェクト6の形状が第三者によって損なわれないのでMR体験者が3DARオブジェクト6を正確に認識して、MR体験を行うことができる。
【0081】
[第2実施形態]
図10A、
図10B、および
図11を参照して本発明の第2実施形態について説明する。
図10Aは、従来の3次元仮想現実表示の例を示す図(3DARオブジェクト6よりも手前に現実物体がいる状態を示す図)である。
図10Bは、第2実施形態に係る3次元仮想現実表示(第4重なり解消表示例)を示す図である。
【0082】
図10Aに示されるように、現実物体であるMR非体験者4bと3DARオブジェクト6は、距離で同じ程度の位置にあり、また現実物体である他のMR非体験者4cが3DARオブジェクト6の前に位置していて、いずれもHMD2aの視線からは重なっており、3DARオブジェクト6の観測の支障となっている。
【0083】
図10Bでは、3DARオブジェクト6の後ろ側にいるMR非体験者4bは第1実施形態と同様に背景物体画像10により置換する。一方、他のMR非体験者4cは削除して3DARオブジェクト6を配置する。さらに、MR非体験者4cを削除した領域のうち、3DARオブジェクト6が重ならない残領域は、他のフレームの全景画像から、残領域に対応する画像を抽出して前景画像を生成し、残領域に埋め込む。MR非体験者4bに対し3DARオブジェクト6と背景物体画像10が、他のMR非体験者4cに対し3DARオブジェクト6と前景画像11aが対応する。背景物体画像10と前景画像11aと3DARオブジェクト6とでMR非体験者4bと他のMR非体験者4cの現実物体画像を上書きして隠す処理が行われる(第4重なり解消表示例)。この結果、3DARオブジェクト6の全体が観測可能となる。
【0084】
図11は、第2実施形態に係るMR体験プログラム251のフローチャートである。
【0085】
図7のフローチャートとの違いは、S150のステップの距離比較にある。
【0086】
S150では、現実物体と3DARオブジェクト6間距離を“後ろの位置にあって、離れている”場合と“近い位置にある、もしくは前にある”場合で判定し、前者では現実物体と3DARオブジェクト6でオクルージョン処理を行い(S108)、後者では背景物体画像と前景画像の送信要求を行い(S151)、受信する(S152)。そして、背景物体画像、3DARオブジェクト6、および前景画像で現実物体画像を隠す(S153)。上記の例ではMR非体験者4bと別のMR非体験者4cとがあたかもそこに存在しないかのように見えるような処理を行う。
【0087】
以上説明したように、第2実施形態によれば、第1実施形態と同じ特徴を有するとともに、3DARオブジェクト6よりも手前に現実物体があっても、3DARオブジェクト6の観察に支障となる現実物体の除去が行える。
【0088】
【0089】
図12Aは、従来の3次元仮想現実表示の例を示す図(3DARオブジェクトと現実物体が重なっている状態を示す図)である。
図12Bは、第3実施形態に係る3次元仮想現実表示例を示す図(透明部位の処理例)である。
図12Cは、第3実施形態に係る3次元仮想現実表示例を示す図(VR画像への置換例)である。
図12A~
図12Cでは、MR体験者2は車の運転席に座っているかのような状況を体験している。ダッシュボード60、フロントウィンドウ61、バックミラー62、ハンドル63などが3DARオブジェクトとして表示されている。MR非体験者4d、4e(現実物体)が、フロントウィンドウ61と重なり、フロントウィンドウ61越しに見える。ダッシュボード60、フロントウィンドウ61、バックミラー62、ハンドル63のそれぞれは、車の3DARオブジェクト6を構成する部位である。本例では、一つの仮想現実物体である3DARオブジェクト6を複数の仮想現実物体の部位にわけ、各部位ごとにオクルージョン処理の種類を規定するフラグ付加する。ダッシュボード60、バックミラー62、ハンドル63のそれぞれは3DARオブジェクト6の非透明領域であるので、非透明領域フラグを付加する。一方、フロントウィンドウ61は3DARオブジェクト6の透明領域であるので、透明領域フラグを付加する。
【0090】
図12Aでは、オクルージョン処理が行われていない場合の見え方であり、MR非体験者4d、4eは、3DARオブジェクト6と不自然に重なっている。
【0091】
図12Bには、オクルージョン処理が行われた結果を示している。第3実施形態では、フロントウィンドウ61の3DARオブジェクト6の描画データには、
図13で説明するOcclusion Flagが設定されており、フロントウィンドウ61に重なる現実物体については、3DARオブジェクト6に置き換える処理は禁止され、現実物体と3DARオブジェクト6でオクルージョン処理が行われる。この結果、フロントウィンドウ61越しにMR非体験者4d、4eを観測する。この時、MR非体験者4dと3DARオブジェクト6の距離が近く、フロントウィンドウ61の後方にMR非体験者4dを表示すると、
図6AのMR非体験者4b(現実物体)と同じ見え方になる場合には、MR非体験者4d(現実物体)を縮小して、
図12BのMR非体験者4dのように距離が離れたように表示する。なお、MR非体験者4eはダッシュボード(3DARオブジェクト)60およびハンドル63(3DARオブジェクト)、それと車体である3DARオブジェクト6よりも遠く離れているため、フロントウィンドウ61は透明なものとして扱い、それ以外のものとの距離関係でオクルージョン処理を実施する。
【0092】
図12Cは、現実空間の背景画像をVR画像6bに置き換えた場合を示している。ダッシュボード60、ハンドル63とVR画像6bはオクルージョン処理が行われるが、フロントウィンドウ61は透過型あるいは半透過型の3DARオブジェクトであり、視線の奥にあるVR画像6bが観測でき、あたかもVR画像で与えられる仮想の場所にいるかのような体験が行える。
【0093】
図13は、3DARオブジェクトの一例のテーブル100である。3DARオブジェクトは“CONTENTS ID”で識別され、複数の3DARオブジェクト(AR Obuject 1~7など)を関連したものとしてまとめることができる。個々の3DARオブジェクトは、3DARオブジェクトに固有の“Data id”、MR体験者などのユーザにわかりやすくするための“Title”のほか、“Occlusion Flag”、“3D Image Data”を含む。
【0094】
“Occlusion Flag”は“00“、”01“、”10“を定義している。“Occlusion Flag”の値が“00”の場合は、現実物体と3DARオブジェクトの距離に応じてオクルージョン処理を行う。“Occlusion Flag”の値が“00”のフラグは、非透明部位フラグに相当する。
【0095】
また“Occlusion Flag”の値が“01”の場合は、現実物体と3DARオブジェクトの距離が近い場合には、現実物体を背景物体にて置換して、3DARオブジェクトが隠れないように処理を行う。“Occlusion Flag”の値が“01”のフラグは、非透明部位フラグに相当する。
【0096】
“Occlusion Flag”の値が“10”の場合は、
図12Bのフロントウィンドウ61のように、距離に関わらず3DARオブジェクトを透明なものとして扱い、フロントウィンドウ61の先の3DARオブジェクトと現実物体とでオクルージョン処理を行わせる。“Occlusion Flag”の値が“10”のフラグは、透明部位フラグに相当する。フロントウィンドウ61の先の3DARオブジェクトは、自動車の3DARオブジェクト6の一部、例えばボンネットでもよいし、自動車の3DARオブジェクト6とは異なる他の3DARオブジェクト、例えば他の自動車の3DARオブジェクトであってもよい。
【0097】
図14は、第3実施形態に係るMR体験プログラム251のフローチャートである。
【0098】
図7のフローチャートとの違いは、S160、S161のステップが追加されていることにある。
【0099】
HMD2aは、S160において、3DARオブジェクトの“Occlusion Flag”をチェックして、
図13で説明したように、“Occlusion Flag”に応じて、処理を異ならせる。
【0100】
“Occlusion Flag”が“00”の場合には、HMD2aは、S108にて現実物体と3DARオブジェクトの距離の関係に従ってオクルージョン処理を行う。(この処理については
図15で説明する。)
【0101】
“Occlusion Flag”が“10”の場合には、HMD2aは、S161にて、
図12で示したフロントウィンドウ61のような透明な物体として扱い、現実物体より距離が近くても透過して見えるようにする処理を行う。その後、S107に入る。
【0102】
“Occlusion Flag”が“01”の場合にはHMD2aは、S107にて現実物体と3DARオブジェクトの距離の比較を行い、離れている場合と、近い距離や重なっている場合とで異なる処理を行う。
【0103】
図15は、“Occlusion Flag”が“00”の場合を適用する画像の例である。
図15は海辺(砂浜64と海面65の3DARオブジェクトがある)にて、現実物体4fが遊んでいる状況である。
図15では海面65の“Occlusion Flag”が“00”に設定されている。海面65から現実物体4fである人物が半分だけ現れても違和感は生じない。そのため、海面65と現実物体4fの距離の関係でオクルージョン処理を行うようにすればよい。
【0104】
以上説明したように、第3実施形態によれば、第1実施形態と同じ特徴を有するとともに、3DARオブジェクトの特徴に応じたオクルージョン処理が適用できる。
【0105】
[第4実施形態]
図16と
図17を参照して、第4実施形態について説明する。
図16は、第4実施形態に係るMR支援サーバ9のブロック図である。第4実施形態のMR支援サーバ9は、ストレージ94に3DARオブジェクト&VR画像データ900、現実空間画像データ901、表示画像データ902を保持する。
【0106】
第4実施形態のMR支援サーバ9は、HMD2aから指示され、VRサービスサーバ8から受信する3DARオブジェクト&VR画像データ900と、HMD2aから受信する現実空間画像データ901と、を保持する。
【0107】
さらにMR支援サーバ9は、現実空間画像データ901から、現実物体画像98の視線上の奥行方向の奥側(遠い側)に位置する物体を背景物体として認識して抽出し、背景物体画像97を生成する。
【0108】
さらに、MR支援サーバ9は、現実物体画像98と3DARオブジェクト&VR画像データ900とをオクルージョン処理等して、現実空間画像に合成した表示画像データ902を得る。表示画像データ902は、HMD2aに送信し、HMD2aのディスプレイ22で表示される。また、3DARオブジェクトの画像データと併せて、背景のVR画像データを受信する場合は、3DARオブジェクト&VR画像データ900に蓄える。
【0109】
MR支援サーバ9は、現実物体のうち背景画像をVR画像データに置き換え、背景のVR画像と3DARオブジェクトと現実物体とでオクルージョン処理や現実物体の移動等の合成処理を行うプログラムが含まれている。
【0110】
図17は、第4実施形態に係るMR支援プログラム96のフローチャートである。
【0111】
MR支援サーバ9は、登録されているMR体験者2のログイン要求を処理する(S131)。さらにMR支援サーバ9は、HMD2aから現実空間画像データを受信する(S132)。
【0112】
MR支援サーバ9は、3DARオブジェクトの描画データの送信要求を、VRサービスサーバに送信する(S140)。要求する3DARオブジェクトは、HMD2aでユーザがどのようなARコンテンツを合成するかを決めてそれに従って3DARオブジェクトの描画データの送付指示を受ける。
【0113】
MR支援サーバ9は、S132で受信した現実空間画像データから現実物体を認識し(S133)、受信した現実空間画像データから背景画像を更新する(S134)。
【0114】
MR支援サーバ9は、3DARオブジェクトの描画データとVR画像(VR画像は受信しない場合もある)データを受信する(S141)。
【0115】
MR支援サーバ9は、現実物体と3DARオブジェクトとの重なりを検知するとともに、2つの物体の距離を比較する(S142)。体積が重ならないほど離れている場合には(S142:離れている)、現実物体と3DARオブジェクトとでオクルージョン処理を実行する(S143)。
【0116】
一方、重なっている場合(S142:重なっている)には、MR支援サーバ9は、背景画像から背景物体画像のデータを生成し(S144)、背景物体画像と3DARオブジェクトとで現実物体を上書きして隠すような処理を実行する(S145)。
【0117】
MR支援サーバ9は、3DARオブジェクトと重なり合う現実物体のすべてに対して、S142~S145のステップが実行されたかの確認を行い、現実物体が残っている場合には(S146:No)、S142に戻る。
【0118】
MR支援サーバ9は、すべての現実物体に対して処理が完了した場合(S146:Yes)、処理済みの画像を表示画像のデータとしてHMD2aに送信する(S147)。
【0119】
MR支援サーバ9は、プログラムの終了を確認し、終了しない場合は(S138:No)、S142からのステップを継続する。終了する場合では(S138:Yes)、一連の処理を終了する。
【0120】
第4実施形態によれば、第1実施形態と同じ特徴を有するとともに、MR体験処理の大部分を高性能のMR支援サーバ9で実行し、HMD2aの処理を軽くするなど、実装方法を柔軟にできるという特徴がある。
【0121】
本発明は、上記
図1から
図17で説明した各実施形態に限られるものではなく、ある実施形態の構成の一部を他の実施形態に置き換えることが可能である。また、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。これらは全て本発明の範疇に属するものであり、さらに文中や図中に現れる数値やメッセージ等もあくまで一例であり、異なるものを用いても本発明の効果を損なうものでない。
【0122】
また、発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実装しても良い。また、マイクロプロセッサユニット、CPU等が動作プログラムを解釈して実行することによりソフトウェアで実装しても良い。また、ソフトウェアの実装範囲を限定するものでなく、ハードウェアとソフトウェアを併用しても良い。
【符号の説明】
【0123】
1 :MR空間
1a :アクセスポイント
1b :無線LAN信号
2、3 :MR体験者
2a、3a :HMD
2b、3b :無線LAN信号
4a、4b、4c、4d、4e :MR非体験者
4f :現実物体
5a :花瓶
5b :窓
6 :3DARオブジェクト
6a :VR画像データ
6b :VR画像
7 :ネットワーク
8 :VRサービスサーバ
9 :MR支援サーバ
10 :背景物体画像
11 :画像
11a :前景画像
20 :測距カメラ
20a :左カメラ
20b :右カメラ
22 :ディスプレイ
23 :シャッタ
24 :プロセッサ
25a、25b :装着用筐体
26 :スピーカ
27 :マイク
60 :ダッシュボード
61 :フロントウィンドウ
62 :バックミラー
63 :ハンドル
64 :砂浜
65 :海面
82 :CPU
83 :RAM
84 :ストレージ
85 :内部バス
86 :VRサービスプログラム
87 :VRデータ
91 :ネットワークIF
92 :CPU
93 :RAM
94 :ストレージ
95 :内部バス
96 :MR支援プログラム
97、98 :背景物体画像
100 :テーブル
240 :カメラ用プロセッサ
241 :方位センサ
242 :ジャイロセンサ
243 :加速度センサ
244 :無線通信器
245 :CPU
246 :RAM
247 :画像RAM
249 :内部バス
250 :基本プログラム
251 :MR体験プログラム
900 :3DARオブジェクト&VR画像データ
901 :現実空間画像データ
902 :表示画像データ
L :視線
PR :交点
Pn :最遠点
P1 :最近点