(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0010】
[0026]
ワールド空間における
視点(パースペクティブ)がロックされた仮想オブジェクトの作成を可能にする技術が提示される。仮想オブジェクトは、仮想オブジェクトが作成される場所、位置及び向きと同一又は近い場所、位置及び向きにおいて消費デバイスを有する別のユーザーによって消費する(見る、聴く又はインタラクトする)ことができる。オブジェクトは、その作成者によって定義された、1つの、少数の又は多くの許容される消費の場所、位置及び向きを有することができる。
【0011】
[0027]本技術は、作成者が視聴者にオブジェクトを知覚してほしいと望む方法についての1つ又は複数の
視点(パースペクティブ)に対してオブジェクトの消費者をロックするオブジェクトをユーザーが作成し、共有することを可能にする。
【0012】
[0028]
図1Aは、定義された向き及び視覚化をもって仮想オブジェクトをキャプチャーして共有するための、本技術の第1の実施形態を示す方法である。
図1Aは、コンテンツを作成するユーザーを示す
図1Bから1Dに関して説明される。ステップ50では、作成デバイスの位置、向き及び場所が決定される。本明細書に記載されるように、位置、向き、及び場所は、グローバル座標系及びローカル座標系に対して説明することができる。ステップ52において、コンテンツが作成デバイスによって作成されてキャプチャーされる。作成デバイスは、仮想オブジェクトにおいて提供される、様々な種類のオーディオ/ビジュアルデータ及びユーザーが供給する情報を受け取ることができるキャプチャーデバイスを含んでもよい。ステップ52において、場所、位置及び向きのデータは、キャプチャーデバイスの
視点(パースペクティブ)を定義するために使用することができる。
視点(パースペクティブ)は、共有仮想オブジェクトが消費者に対してレンダリングされるべき方法を決定するために使用される。コンテンツの作成及びキャプチャーは、オブジェクトデータをキャプチャーする時間を一致させることを含んでもよい。
【0013】
[0029]
図1Bは、現実世界のオブジェクト70をキャプチャーする作成デバイス、この場合はタブレットコンピューターを持つユーザー24を示す。ユーザー24は、グローバル座標系によって規定される
ワールド空間内に位置してもよく、
ワールド空間内のキャプチャーデバイスの向きや位置はローカル座標系75に対して規定される。
図1Cは、現実世界のオブジェクト70に対するキャプチャーデバイスの
視点(パースペクティブ)80を示す。
視点(パースペクティブ)は、ユーザーがキャプチャーデバイス44を保持する高さに対する高さ82を有し、並びに、ローカル座標系に対する向きの座標(orientation coordinates)によって記述することができる3次元の位置及び向きを有する。
図1B−1Dの例では、ユーザー24は、現実世界のオブジェクト70の仮想オブジェクト90、この場合は2次元写真を作成している。仮想オブジェクト90は、
図1Dに示され、作成デバイス44に関連付けられる
視点(パースペクティブ)を有する。ステップ52において、ユーザーはまた、消費デバイスのための1つ又は複数の許容可能な消費の位置を定義してもよい。1つの態様では、消費デバイスの唯一の消費位置が許容されてもよい。これにより、キャプチャーデバイスと同じ場所、位置及び向きにおいて消費デバイスを提供する。他の例では、多数の許容可能な消費位置が提供されてもよい。
【0014】
[0030]
図1Bから1Dに示される例は写真の作成を示すが、多くの種類の仮想オブジェクトを、本発明の技術に従って作成することができる。これらは、様々な異なる種類のコンピューティングデバイスや処理デバイスにおいてレンダリングすることができる2次元及び3次元の仮想オブジェクトを含む。
【0015】
[0031]
図1Aに戻ると、ステップ54において、仮想オブジェクトのキャプチャーされた情報を含むレンダリングデータは、場所、位置、及び向きに関連付けられ、オブジェクト定義とともに格納される。ステップ56において、レンダリングデータ及び位置情報を含むオブジェクト定義は、第2のユーザーに送られる。後述するように、ステップ56は、中央サービスに、又は消費デバイスの第2のユーザーに直接、データを送ることを含むことができる。また、後述するように、消費デバイスは、同様に、
図3z−3eに関連して以下に説明するように透過型ヘッドマウントディスプレイを含む、多くの様々な種類の処理デバイスであってもよい。
【0016】
[0032]ステップ58において、コンテンツが第1のユーザーから消費デバイスにおいて取得される。ステップ60において、共有仮想オブジェクトの許容可能な消費位置、向き及び場所が決定される。ステップ62において、消費デバイスの位置、向き及び場所が決定される。1つの実施形態では、消費デバイスは、消費デバイスがキャプチャーデバイスと同じ位置、向き及び場所にあるときに共有仮想オブジェクトをレンダリングすることのみできる。別の実施形態では、消費デバイスは、作成デバイスによって定義される1つ又
は複数の許容可能な位置、向き、及び場所に消費デバイスがあるとき、共有仮想オブジェクトをレンダリングすることができる。第3の実施形態では、消費デバイスは、キャプチャーデバイスによって定義されるような仮想オブジェクトの定義されたレンダリング位置に近接した位置にあるとき、共有仮想オブジェクトをレンダリングすることができ、消費デバイスの許容可能な場所、位置、及び向きは当該レンダリング位置に対して定義される。
【0017】
[0033]ステップ64において、消費デバイスが適切な位置でない場合、消費デバイスの位置に対する調整を行うことができる。ステップ64においてデバイスが適切に配置されている場合、作成デバイスによって定義された位置、向き及び場所においてコンテンツをレンダリングすることができる。
【0018】
[0034]本技術は、大規模な環境でユーザーに情報を提供する上で適用性を有する。
図2は、現実世界の環境1000を見ているユーザー24を示し、様々な建物の風景がユーザーに見えている。仮想オブジェクトは、ユーザー24の
視点(パースペクティブ)からレンダリングされた又は
図2の建物1001などの様々な現実世界の物体についての視界、視聴覚データ、又は他の種類の情報を含むことができる。
【0019】
[0035]
図3A−Eは、大規模な現実世界の環境における本技術のユーザーを示す。この態様では、ユーザーは、共有仮想オブジェクトを作成することができ、共有仮想オブジェクトが環境内のどこに存在するかを示す他のユーザーのためのマーカーを環境内に残すことができる。これにより、第2のユーザーは、マーカーに近づいて、第1のユーザーによって作成された仮想オブジェクトを消費することができる。
【0020】
[0036]一例では、休暇中のユーザーが、ランドマークビルの前に立つユーザーの家族との特別なシーンの写真を撮ると仮定する。後の時点で、第2のユーザーは、その場所に到着して、その写真が撮影されたのと同じ位置及び方向でランドマークの前に立つユーザーの家族の仮想オブジェクトの写真を見ることができる。
【0021】
[0037]
図3Aは、作成デバイス44をもつユーザー24が、当該デバイスを使用して、現実世界の物体、この場合は建物1004から仮想オブジェクトを作成することを示す。
図3Aに示すように、ユーザーは建物1004に対する
視点(パースペクティブ)1003を有する。
図1Aから1Dにおける上記の例のように、ユーザーの
視点(パースペクティブ)1003は、グローバル座標1005及びローカル座標系1006によって定義された
ワールドの位置(world location)を基準とすることができる。キャプチャーデバイスの視野は1007で示される。
【0022】
[0038]ユーザーのキャプチャーデバイス44の
視点(パースペクティブ)1003における視野が
図3Bに示される。
図3Bにおいて、建物1004の画像を含む仮想オブジェクト1020aが作成されている。グローバル座標系で定義された位置に対してローカル座標系の方向付けを可能にする1つ又は複数の位置関係を用いて、ローカル座標系1006をグローバル座標系に関連させることができることを理解すべきである。
【0023】
[0039]
図3Cは、
図2の環境1000において透過型ヘッドマウントディスプレイデバイスを装着したユーザー24の斜視図を示す。後述するように、透過型ヘッドマウントディスプレイデバイスは、環境内にレンダリングされた仮想オブジェクトをユーザーが見ることを可能にする、複合現実デバイスである。
図3Cにおいて、仮想オブジェクト定義1020に関連付けられるマーカー1010が、透過型ヘッドマウントディスプレイデバイス2の着用者の前に現れる(
図3Cに示すオブジェクト定義1020及び以降で参照されるものは、仮想オブジェクトとしてレンダリングされた形式を除いて、ユーザーに見えないことを理解すべきである)。本技術によれば、ユーザーがマーカー1010に関連付け
られる場所に自身を配置すると、ユーザーは、ユーザー24によって作成された仮想オブジェクトを見たり消費したりすることができる。
【0024】
[0040]
図3Dは、マーカー1010に関連付けられる位置におけるユーザー24Aを示す。ユーザー24Aは、透過型ヘッドマウントディスプレイデバイス2を装着しており、
図3Aにおけるユーザー24の作成デバイスに対して同じ場所、向き、及び位置に自身を配置する。オブジェクト定義1020は、レンダリング情報のほか、透過型ヘッドマウントディスプレイデバイス2に対して許容可能なレンダリング位置を定義するグローバル座標及びローカル座標を含む。
【0025】
[0041]
図3Eに示すように、透過型ヘッドマウントディスプレイは、許容可能なレンダリング位置において仮想オブジェクト1020aをレンダリングし、この例におけるレンダリング位置は、元の作成デバイスと同じ場所、位置、及び向きを有する。
図3Eに示すように、ユーザー24Aの
視点(パースペクティブ)及び
図3Aで作成されたオブジェクト1020aの表示は、仮想オブジェクト1020aを作成したユーザー24のものと同じである。
【0026】
[0042]
図4A及び
図4Bは、仮想オブジェクトを作成してレンダリングする際の、第三者から供給された情報の使用を含む、本技術の別の態様を示す。
図4Aは、複数のマーカーが提供された環境1000における、透過型ヘッドマウントディスプレイデバイス2を装着したユーザーの斜視図である。
図4Aに示す例では、マーカー1010が示される。マーカー1010は、ユーザーが提供し、別のユーザーと直接共有されるマーカーとすることができる。また、
図4Aには、第三者のデータマーカー1015、1025、1030、1040、1050が示される。第三者のデータマーカーは、情報を第三者のサービスから引き出すことができる仮想オブジェクトに関連付けられる。後述するように、中央サービスは、多くの第三者サービスのうちの任意のものから情報を収集し、中央サービスによって定義され及び/又は第三者サービスによって提供された情報により定義された位置に仮想オブジェクトを作成してもよい。別の代替例では、第三者サービス自体が環境内で使用するための仮想オブジェクトを定義してもよい。例えば、レストランの所有者は、環境内で表示するための仮想オブジェクトを定義することができ、環境内で使用するための関連するマーカーを定義することができる。このターゲット及び関連する仮想オブジェクトは、消費デバイスのユーザーに対して表示するための不可欠なサービスを提供することができる。
【0027】
[0043]
図4Bは、
図4B中のマーカー1015に関連付けられる仮想オブジェクト1015aの斜視図を示す。
図4Bはまた、複数の許容可能な視聴場所、位置及び向きを持つ「
ワールドロックされた(world locked)」オブジェクトの例を示す。仮想オブジェクト1015aは、建物の側面に配置されるものとして示されており、第三者サービスYelp(登録商標)によって提供される情報を含む。この例では、仮想オブジェクト1015aは、その位置が物理的な物体(建物)に関連付けられる「
ワールドロックされた」仮想オブジェクトであり、消費デバイスの位置に対する多くの許容可能なレンダリング場所、向き、及び位置を有することができる。例えば、建物及び仮想オブジェクト1015aに対して
図4Bにおいてユーザーが移動するとき、仮想オブジェクト1015aは、まだ建物の側面に見えている。したがって、仮想オブジェクト1015aを見るために、多くの許容可能な位置が利用可能である。
【0028】
[0044]
図4Bに示す例では、透過型ヘッドマウントディスプレイデバイス2は、
ワールドロックされたオブジェクト1015aのレンダリング位置に近接すると考えられる。レンダリング位置に近接する位置は、消費デバイスによるレンダリングが発生する可能性がある
視点(パースペクティブ)ロック仮想オブジェクトにおいて定義されるすべての許容可能な場所、位置及び向きを含む。
【0029】
[0045]上記のように、消費デバイス及び作成デバイスは、本明細書に記載されるような多くの適切な処理デバイスのうちの任意のものを含むことができる。本技術は、複合現実環境内でオブジェクトをレンダリングすることができる透過型ヘッドマウントディスプレイデバイスに使用される場合に特定の適用性を見出す。
【0030】
[0046]透過型ヘッドマウントディスプレイデバイスが作成デバイスとして使用されるとき、様々な異なる種類の仮想オブジェクトを作成することができる。1つの態様では、仮想オブジェクトは、透過型ヘッドマウントディスプレイデバイスから入手可能なすべての感覚入力の組み合わせを含んでもよく、これらは、消費デバイスがすべての入力をレンダリングすることが可能であると仮定すると、レンダリングされて消費ユーザーに戻される。例えば、作成を行うユーザーは、特定の環境のウォークスルー(walk−through)を記録することができ、これは、ユーザーが環境を通じて同じ歩行をするときに、再生されて消費ユーザーに戻される。作成イベントのすべての態様は、例えば動画の視野、オーディオ音声などを含むが、消費ユーザーに対して再生される。
【0031】
[0047]ヘッドマウントディスプレイデバイスは、表示素子と、処理ユニットとを備える。ユーザーが表示素子を介してユーザーの視野(FOV)内の現実世界の物体を見ることができるように、表示素子はある程度透明である。表示素子はまた、仮想画像が一緒に表示され、現実世界の物体と混合し得るように、ユーザーの視野に仮想画像を投影する機能を提供する。ユーザーの視野内のどこに仮想画像を挿入するかをシステムが決定できるように、システムは、ユーザーが見ている場所を自動的に追跡する。どこに仮想画像を投影するべきかシステムが認識すると、表示素子を用いて画像が投影される。
【0032】
[0048]実施形態では、処理ユニットを含むヘッドマウントディスプレイデバイスは、環境内のユーザー、現実世界の物体及び仮想的な3次元オブジェクトのX、Y、Z、ピッチ、ヨー及びロール位置を含む複合現実環境のモデルを構築することができる。環境内のユーザーによって着用される各々のヘッドマウントディスプレイデバイスの位置は、環境のモデルに対して及び互いに対して較正することができる。これにより、システムは、環境についての各々のユーザーの視線及びFOVを決定することができる。したがって、仮想画像を各ユーザーに対して表示することができるが、システムは、環境内での視差及び他のオブジェクトからの又は他のオブジェクトによる何らかの閉塞に対して仮想画像を調整して、各ユーザーの
視点(パースペクティブ)からの仮想画像の表示を決定する。
【0033】
[0049]ユーザーは、ユーザーのFOV内に現れる仮想オブジェクトのうちの1つ又は複数と相互作用することを選択することができる。本明細書で使用するとき、「相互作用」という語は、仮想オブジェクトとのユーザーの物理的相互作用及び言語的相互作用の両方を包含する。物理的相互作用は、所定のアクションを実行するためのシステムに対するユーザー要求として複合現実システムにより認識される、ユーザーの指、手及び/又は他の身体の部分を用いた所定のジェスチャーをユーザーが実行することを含む。このような所定のジェスチャーは、仮想オブジェクトを指さすこと、つかむこと、押すこと及び置くことを含み得るが、これらに限定されない。
【0034】
[0050]ユーザーはまた、自身の目を用いて仮想オブジェクトと物理的に相互作用することができる。いくつかの例では、視線データは、ユーザーがFOV内のどこに集中しているかを特定し、したがって、ユーザーが特定の仮想オブジェクト又は現実世界の物体を見ていることを識別することができる。したがって、持続的な視線、又はまばたきもしくはまばたきの連続は、ユーザーが1つ又は複数の仮想オブジェクトを選択する物理的相互作用とすることができる。仮想ディスプレイスレート上のコンテンツを見るなど、ユーザーが仮想オブジェクトを単に見ることは、仮想オブジェクトとのユーザーの物理的相互作用
のさらなる例である。
【0035】
[0051]ユーザーは、代替的又はさらに、所定のアクションを実行するためのシステムに対するユーザー要求として複合現実システムが認識する、例えば発話された語やフレーズなどの言葉的ジェスチャーを使用して仮想オブジェクトと相互作用してもよい。言語的ジェスチャーは、複合現実環境内で1つ又は複数の仮想オブジェクトと相互作用するための物理的ジェスチャーとともに使用することができる。
【0036】
[0052]
図5−8は、透過型ヘッドマウントディスプレイデバイス2を示す。1つの実施形態では眼鏡の形状であり、ユーザーの頭部に装着され、ユーザーはディスプレイを通して見ることができ、それにより、ユーザーの前にある空間を実際に直視することができる。「実際の直視(actual direct view)」という語の使用は、物体についての作成された画像表現を見ることではなく、現実世界の物体を人間の目で直接見る能力を指す。例えば、眼鏡を通して部屋を見ることで、ユーザーはその部屋の実際の直視をすることができる一方、テレビ上で部屋についての動画を見ることは、その部屋の実際の直視とはならない。ヘッドマウントディスプレイデバイス2のさらなる詳細が以下に提供される。
【0037】
[0053]処理ユニット4は、ヘッドマウントディスプレイデバイス2を動作させるために使用される多くの計算能力を含むことができる。実施形態では、処理ユニット4は、1つ又は複数の中央サービス900に対して(例えば、WiFi、Bluetooth(登録商標)、赤外線、又は他の無線通信手段など)無線で通信する。
【0038】
[0054]ヘッドマウントディスプレイデバイスは表示素子を含むことができる。ユーザーが表示素子を介してユーザーの視野(FOV)内の現実世界の物体を見ることができるように、表示素子はある程度透明である。表示素子はまた、仮想画像が現実世界の物体と一緒に現れるように、ユーザーのFOVに仮想画像を投影する機能を提供する。ユーザーのFOV内のどこに仮想画像を挿入するかをシステムが決定できるように、システムは、ユーザーが見ている場所を自動的に追跡する。どこに仮想画像を投影するべきかシステムが認識すると、表示素子を用いて画像が投影される。
【0039】
[0055]仮想オブジェクトは、上述の定義1020などのオブジェクト定義を含んでもよい。定義は、ディスプレイデバイス2がユーザーの視野内に仮想オブジェクトをレンダリングすることを可能にするデータを含んでもよい。定義の1つの構成要素は、オブジェクトの種類、オブジェクトのサイズ、及び1つ又は複数の最適な表示の
視点(パースペクティブ)及び向きを含むことができる。各々の最適な表示の
視点(パースペクティブ)は、オブジェクトのユーザービューにとって最適な
視点(パースペクティブ)の定義を含むことができる。仮想オブジェクトが共有される場合、本明細書に提示される技術は、オブジェクト定義、並びに、オブジェクトを共有する各ユーザーの場所及び視野を使用して、各ユーザーにとってオブジェクトをレンダリングするのに最適な位置を決定する。
【0040】
[0056]1つの代替例では、他のコンピューティングシステム及び1つ又は複数の処理ユニットは、部屋又は他の環境内のすべてのユーザー、現実世界の物体及び仮想3次元オブジェクトのx、y、zデカルト位置を含む環境のモデルを構築するために協働することができる。環境内でユーザーによって着用される各々のヘッドマウントディスプレイデバイスの位置は、環境のモデルに対して及び互いに対して較正することができる。これにより、システムは、環境についての各ユーザーの視線及びFOVを決定することができる。したがって、仮想オブジェクトを各ユーザーに対して表示することができるが、各ユーザーの
視点(パースペクティブ)からの仮想オブジェクトの表示は、相対的なものであってもよく、環境内の視差及び他のオブジェクトから又は他のオブジェクトによる何らかの閉塞を調整する。ここではシーンマップと呼ばれる環境のモデル、並びに、環境内のユーザーのFOV及びオブジェクトのすべての追跡は、協力して又は個別に機能するコンピューティングシステム及びモバイル処理ユニットによって生成することができる。
【0041】
[0057]
図5及び
図6は、ヘッドマウントディスプレイデバイス2の透視図及び側面図を示す。
図6は、テンプル102及びノーズブリッジ104を有するデバイスの一部を含む、ヘッドマウントディスプレイデバイス2の右側面図を示す。以下に述べるように、音を記録してその音声データを処理ユニット4に送るためのマイク110がノーズブリッジ104に内蔵される。ヘッドマウントディスプレイデバイス2の前に、動画及び静止画をキャプチャーすることができる、空間に面したビデオカメラ(room−facing video camera)112がある。以下に述べるように、これらの画像は処理ユニット4に送られる。
【0042】
[0058]ヘッドマウントディスプレイデバイス2のフレームの一部はディスプレイを囲む(1つ又は複数のレンズを含む)。ヘッドマウントディスプレイデバイス2の構成要素を示すために、ディスプレイを囲むフレームの一部が描かれていない。ディスプレイは、導光光学素子115、不透明度フィルター(opacity filter)114、透過型レンズ116及び透過型レンズ118を含む。1つの実施形態では、不透明度フィルター114は透過型レンズ116の後ろに整列され、導光光学素子115は不透明度フィルター114の後ろに整列される。透過型レンズ116及び118は、眼鏡に使用される標準的なレンズであり、任意の処方箋に対して(処方箋がない場合を含む)作成することができる。導光光学素子115は人工光を目に導く。不透明度フィルター114及び導光光学素子115のさらなる詳細については、2012年5月24日に公開された、「Head−Mounted Display Device Which Provides Surround Video」と題する米国特許出願公開第2012/0127284号で提供される。
【0043】
[0059]制御回路136は、ヘッドマウントディスプレイデバイス2の他のコンポーネントをサポートする様々な電子装置を提供する。制御回路136のさらなる詳細は
図7に関して以下に提供される。イヤホン130、慣性測定ユニット132及び温度センサー138がテンプル102内にあるか又はこれに取り付けられる。
図7に示す1つの実施形態では、慣性測定ユニット132(又はIMU132)は、3軸磁力計132A、3軸ジャイロ132B及び3軸加速度計132Cなどの慣性センサーを含む。慣性測定ユニット132は、ヘッドマウントディスプレイデバイス2の位置、向き及び急加速(ピッチ、ロール及びヨー)を感知する。IMU132は、磁力計132A、ジャイロ132B及び加速度計132Cに加えて又はこれらに代えて、他の慣性センサーを含んでもよい。
【0044】
[0060]マイクロディスプレイ120はレンズ122を介して画像を投影する。マイクロディスプレイ120を実施するために使用することができる様々な画像生成技術がある。例えば、マイクロディスプレイ120は、白色光で背後から照らされる光学活性材料によって光源が変調される透過投影技術を使用する際に実施することができる。これらの技術は、通常、強力なバックライトと高い光エネルギー密度を有するLCD型ディスプレイを使用して実施される。マイクロディスプレイ120はまた、外部光が光学活性材料によって反射されて変調される反射技術を用いて実施することができる。照明は、技術に応じて、白色源又はRGB源のいずれかにより前方に照らされる。デジタル光処理(DLP)、シリコン上液晶(LCOS)及びクアルコム社のMirasol(登録商標)ディスプレイ技術は、すべて、ほとんどのエネルギーが変調構造から反射されて離れる場合に効率的な反射技術の例であり、本システムにおいて使用することができる。また、マイクロディスプレイ120は、光がディスプレイによって生成される放射技術(emissive technology)を使用して実施することができる。例えば、マイクロビジョン社のPicoP(商標)ディスプレイエンジンは、透過性素子として機能する小さな画面上の又は目へと直接発信される(例えば、レーザー)、マイクロミラーステアリング(micro mirror steering)によってレーザー信号を発する。
【0045】
[0061]導光光学素子115は、マイクロディスプレイ120からヘッドマウントディスプレイデバイス2を装着したユーザーの目140へと光を透過する。導光光学素子115はまた、矢印142で示されるように、ヘッドマウントディスプレイデバイス2の正面からの光が導光光学素子115を通って目140へ透過されることを可能にし、これにより、マイクロディスプレイ120から仮想オブジェクトを受け取ることに加えて、ヘッドマウントディスプレイデバイス2の前にある空間についての実際の直接的な表示(direct view)をユーザーが行うことを可能にする。したがって、導光光学素子115の壁は透過型である。導光光学素子115は、第1の反射面124(例えば、ミラー又は他の表面)を含む。マイクロディスプレイ120からの光は、レンズ122を通過し、反射面124に入射する。光が内部反射によって導光光学素子115を含む平面基板の内部に閉じ込められるように、反射面124はマイクロディスプレイ120からの入射光を反射する。基板の表面からの何度かの反射の後、閉じ込められた光波は、選択的反射面(selectively reflecting surfaces)126のアレイに達する。図面が混雑するのを避けるために、5つの面のうちの1つが126とラベル付けされていることに留意されたい。反射面126は、基板のうちのこれらの反射面へ入射する光波をユーザーの目140へと結合する。導光光学素子のさらなる詳細については、2008年11月20日に公開された「Substrate−Guided Optical
Devices」と題する米国特許公開第2008/0285140号に見ることができる。
【0046】
[0062]ヘッドマウントディスプレイデバイス2はまた、ユーザーの目の位置を追跡するためのシステムを含む。以下に説明するように、システムがユーザーのFOVを決定することができるように、システムは、ユーザーの位置及び向きを追跡する。しかし、人間は自分の前にあるすべてのものを知覚することはない。代わりに、ユーザーの目は、環境の一部に向けられる。したがって、1つの実施形態では、システムは、ユーザーのFOVの測定を改善するためにユーザーの目の位置を追跡する技術を含む。例えば、ヘッドマウントディスプレイデバイス2は、アイトラッキングアセンブリ134(
図6)を含み、これはアイトラッキング照明デバイス134A及びアイトラッキングカメラ134B(
図7)を有する。1つの実施形態では、アイトラッキング照明デバイス134Aは、目に向かって赤外光を発する1つ又は複数の赤外線(IR)エミッターを含む。アイトラッキングカメラ134Bは、反射されたIR光を感知する1つ又は複数のカメラを含む。瞳孔の位置は、角膜の反射を検出する既知の画像化技術によって特定することができる。例えば、2008年7月22日発行の「Head Mounted Eye Tracking and Display System」と題する米国特許第7,401,920号を参照されたい。このような技術は、追跡カメラに対する目の中心の位置を見つけることができる。一般的に、アイトラッキングは、目の画像を取得すること、及び眼窩内の瞳の位置を決定するためにコンピュータービジョン技術を使用することを含む。1つの実施形態では、目は、通常、一致して移動するので、一方の目の位置を追跡すれば十分である。しかし、各々の目を別個に追跡することが可能である。
【0047】
[0063]1つの実施形態では、システムは、ヘッドマウントディスプレイデバイス2のレンズの各コーナーに1つのIR LED及びIR光検出器が存在するような矩形配置(rectangular arrangement)の、4つのIR LED及び4つのIR光検出器を使用する。LEDからの光は目に反射する。2つのIR光検出器の各々で検出される赤外光の量は、瞳の方向を決定する。すなわち、目における白対黒の量は、その特定の光検出器について目に反射する光の量を決定する。したがって、光検出器は、目に
おける白又は黒の量の測定値を有することになる。4つのサンプルから、システムは目の方向を決定することができる。
【0048】
[0064]別の代替例は、上述のように4つの赤外LEDを使用することであるが、1つの赤外CCDがヘッドマウントディスプレイデバイス2のレンズの側面にある。CCDが眼鏡のフレームから見える目の75%までを撮像することができるように、CCDは小さなミラー及び/又はレンズ(魚眼レンズ)を使用する。上述のものと同様に、CCDは、画像を感知し、コンピュータービジョンを使用して画像を見つける。したがって、
図6は1つのIR送信機を有する1つのアセンブリを示すが、
図6の構造は、4つのIR送信機及び/又は4つのIRセンサーを有するように調整することができる。4つより多くの又は少ないIR送信機及び/又は4つより多くの又は少ないIRセンサーを使用することもできる。
【0049】
[0065]目の方向を追跡するための別の実施形態は、電荷の追跡(charge tracking)に基づく。この概念は、網膜が測定可能な正の電荷を帯び、角膜が負の電荷を有するという観察に基づく。センサーは、(イヤホン130の近くで)ユーザーの耳によって取り付けられて、目が動き回る間電位を検出し、目がしていることをリアルタイムで謳歌的に読み出す。目を追跡するための他の実施形態が使用されてもよい。
【0050】
[0066]
図6は、ヘッドマウントディスプレイデバイス2の半分を示す。ヘッドマウントディスプレイデバイス全体は、透過型レンズの別のセット、別の不透明度フィルター、別の導光光学素子、別のマイクロディスプレイ120、別のレンズ122、空間に面したカメラ(room−facing camera)、アイトラッキングアセンブリ、マイクロディスプレイ、イヤホン、及び温度センサーを含み得る。
【0051】
[0067]
図7は、ヘッドマウントディスプレイデバイス2の様々なコンポーネントを示すブロック図である。
図8は、処理ユニット4の様々なコンポーネントを説明するブロック図である。ヘッドマウントディスプレイデバイス2は、そのコンポーネントが
図7に示され、1つ又は複数の仮想オブジェクトを現実世界のユーザーの視野とシームレスに融合することによって、ユーザーに複合現実体験を提供するために使用される。また、
図7のヘッドマウントディスプレイデバイスのコンポーネントは、様々な状態を追跡する多くのセンサーを含む。ヘッドマウントディスプレイデバイス2は、処理ユニット4から仮想オブジェクトに関する指示を受け取り、センサー情報を処理ユニット4に提供する。処理ユニット4は、そのコンポーネントが
図7に示され、ヘッドマウントディスプレイデバイス2からセンサー情報を受け取り、情報及びデータを中央サービス900(
図1A)とやりとりする。情報及びデータのやり取りに基づいて、処理ユニット4は、いつどこでユーザーに仮想オブジェクトを提供し、それに応じて
図4のヘッドマウントディスプレイデバイスに命令を送るかを決定する。
【0052】
[0068]
図7のコンポーネントのうちのいくつか(例えば、空間に面したカメラ112、アイトラッキングカメラ134B、マイクロディスプレイ120、不透明度フィルター114、アイトラッキング照明134A、イヤホン130、及び温度センサー138)は、これらのデバイスの各々が2つあることを示すために陰影で示され、1つはヘッドマウントディスプレイデバイス2の左側用であり、もう1つはヘッドマウントディスプレイデバイス2の右側用である。
図4は、電力管理回路202と通信する制御回路200を示す。制御回路200は、プロセッサー210、メモリー214(例えば、DRAM)と通信するメモリーコントローラー212、カメラインターフェイス216、カメラバッファー218、ディスプレイドライバー220、ディスプレイフォーマッタ222、タイミング生成器226、ディスプレイ出力インターフェイス228、及びディスプレイ入力インターフェイス230を含む。
【0053】
[0069]1つの実施形態では、制御回路200のすべてのコンポーネントは、専用線又は1つもし又は複数のバスを介して互いに通信する。別の実施形態では、制御回路200のコンポーネントの各々はプロセッサー210と通信する。カメラインターフェイス216は、2つの空間に面したカメラ112に対するインターフェイスを提供し、空間に面したカメラ112から受け取った画像をカメラバッファー218に記憶する。ディスプレイドライバー220はマイクロディスプレイ120を駆動する。ディスプレイフォーマッタ222は、マイクロディスプレイ120上に表示される仮想オブジェクトに関して、情報を不透明度制御回路224に提供し、不透明度制御回路224は不透明度フィルター114を制御する。タイミング生成器226は、システムのためのタイミングデータを提供するために使用される。ディスプレイ出力インターフェイス228は、空間に面したカメラ112からの画像を処理ユニット4に提供するためのバッファーである。ディスプレイ入力インターフェイス230は、マイクロディスプレイ120に表示される仮想オブジェクトなどの画像を受け取るためのバッファーである。ディスプレイ出力インターフェイス228及びディスプレイ入力インターフェイス230は、処理ユニット4に対するインターフェイスであるバンドインターフェイス232と通信する。
【0054】
[0070]電力管理回路202は、電圧調整器234、アイトラッキング照明ドライバー236、音声DAC及び増幅器238、マイクプリアンプ(microphone preamplifier)及び音声ADC240、温度センサーインターフェイス242、並びにクロック発生器244を含む。電圧調整器234は、バンドインターフェイス232を介して処理ユニット4から電力を受け取り、その電力をヘッドマウントディスプレイデバイス2の他のコンポーネントに提供する。アイトラッキング照明ドライバー236は、上記のように、アイトラッキング照明134AのためのIR光源を提供する。音声DAC及び増幅器238は、音声情報をイヤホン130に出力する。マイクプリアンプ及び音声ADC240は、マイク110のためのインターフェイスを提供する。温度センサーインターフェイス242は、温度センサー138のためのインターフェイスを提供する。電力管理回路202はまた、電力を提供し、3軸磁力計132A、3軸ジャイロ132B及び3軸加速度計132Cから戻されるデータを受け取る。
【0055】
[0071]
図8は、処理ユニット4の様々なコンポーネントを説明するブロック図である。
図8は、電力管理回路306と通信する制御回路304を示す。制御回路304は、中央処理ユニット(CPU)320、グラフィック処理ユニット(GPU)322、キャッシュ324、RAM326、メモリー330(例えば、DRAM)と通信するメモリーコントローラー328、フラッシュメモリー334(又は他の種類の不揮発性ストレージ)と通信するフラッシュメモリーコントローラー332、バンドインターフェイス302及びバンドインターフェイス232を介してヘッドマウントディスプレイデバイス2と通信するディスプレイ出力バッファー336、バンドインターフェイス302及びバンドインターフェイス232を介してヘッドマウントディスプレイデバイス2と通信するディスプレイ入力バッファー338、マイクに接続するための外部マイクコネクター342と通信するマイクインターフェイス340、無線通信デバイス346に接続するためのPCIエクスプレスインターフェイス、及びUSBポート348を含む。1つの実施形態では、無線通信デバイス346は、WiFi対応の通信デバイス、ブルートゥース(登録商標)通信デバイス、赤外線通信デバイスなどを含んでもよい。USBポートは、データやソフトウェアを処理ユニット4にロードしたり、処理ユニット4を充電したりするために、処理ユニット4をコンピューティングシステムにドッキングするのに使用することができる。1つの実施形態では、CPU320及びGPU322は、どこで、いつ、どのように仮想3次元オブジェクトをユーザーの視野に挿入するかを決定するための主力となる。さらなる詳細が以下に提供される。
【0056】
[0072]電力管理回路306は、クロック発生器360、アナログ/デジタル変換器362、充電器364、電圧調整器366、ヘッドマウントディスプレイ電源376、及び(処理ユニット4のリストバンドに配置され得る)温度センサー374と通信する温度センサーインターフェイス372を含む。アナログ/デジタル変換器362は、電池電圧、温度センサーを監視し、電池充電機能を制御するために使用される。電圧調整器366は、システムに電力を供給するための電池368と通信する。充電器364は、充電ジャック370から電力を受け取ると(電圧調整器366を介して)電池368を充電するのに使用される。HMD電源376は、ヘッドマウントディスプレイデバイス2に電力を供給する。
【0057】
[0073]上述のように、様々な種類の処理デバイスを本技術とともに利用することができる。
図9は、モバイル又はタブレットコンピューティングデバイスを示すブロック図である。
図9は、本明細書に記載の技術の実施形態で動作することができる例示的なモバイル又はタブレットデバイス(例えば、デバイス44)のブロック図である。典型的なモバイルデバイスの例示的な電子回路が示される。デバイス700は、1つ又は複数のマイクロプロセッサー712と、本明細書に記載される機能を実施するために制御プロセッサー712の1つ又は複数のプロセッサーによって実行されるプロセッサー読み取り可能なコードを格納するメモリー710(例えば、ROMなどの不揮発性メモリー及びRAMなどの揮発性メモリー)を含む。
【0058】
[0074]モバイルデバイス700は、例えば、プロセッサー712、アプリケーションを含むメモリー710及び不揮発性ストレージを含んでもよい。プロセッサー712は、通信のほか、本明細書に記載の相互作用アプリケーションを含む任意の数のアプリケーションを実施することができる。メモリー710は、不揮発性及び揮発性メモリーを含む、任意の様々なメモリー記憶媒体のタイプとすることができる。デバイスのオペレーティングシステムは、モバイルデバイス700の種々の動作を処理し、電話をかけたり受けたりすること、テキストメッセージ、ボイスメールのチェックなどの動作のためのユーザーインターフェイスを含むことができる。アプリケーション730は、写真及び/又は動画のカメラアプリケーション、アドレス帳、カレンダーアプリケーション、メディアプレーヤー、インターネットブラウザー、ゲーム、他のマルチメディアアプリケーション、アラームアプリケーション、他のサードパーティアプリケーション、本明細書に記載のコンテンツ作成アプリケーションなどのプログラムの任意の組み合わせであってもよい。メモリー710内の不揮発性ストレージコンポーネント740は、ウェブキャッシュ、音楽、写真、連絡先データ、スケジュールデータ、及びその他のファイルなどのデータを含む。
【0059】
[0075]プロセッサー712はまた、アンテナ702に結合されるRF送受信回路706と、赤外線送受信機078と、Wi−FiやBluetooth(登録商標)などの任意の追加の通信チャネル760と、加速度計などの動き/向きセンサー714と、通信する。加速度計は、モバイルデバイス内に組み込まれており、このようなアプリケーションを、ユーザーにジェスチャーを介してコマンドを入力させるインテリジェントユーザーインターフェイス、GPS衛星との接触が途絶えた後にデバイスの動き及び方向を計算する屋内GPS機能として機能させ、デバイスの向きを検出し、デバイスが回転するとディスプレイをポートレートから風景へと自動的に変更する。加速度計は、例えば、半導体チップ上に構築された(マイクロメートル規模の)微小な機械デバイスである微小電気機械システム(MEMS)によって提供され得る。加速方向、並びに向き、振動及び衝撃を検知することができる。プロセッサー712はさらに、リンガー/バイブレーター716、ユーザーインターフェイスのキーパッド/画面、生体センサーシステム718、スピーカー720、マイク722、カメラ724、光センサー726及び温度センサー728と通信する。
【0060】
[0076]プロセッサー712は、無線信号の送受信を制御する。送信モード中、プロセッサー712は、マイク722からの音声信号又は他のデータ信号を、RF送受信回路706に提供する。送受信回路706は、アンテナ702を介した通信のために、遠隔ステーション(例えば、固定のステーション、オペレーター、他の携帯電話など)に信号を送信する。リンガー/バイブレーター716は、着信、テキストメッセージ、カレンダーリマインダー、目覚まし時計リマインダー、又は他の通知をユーザーに知らせるのに使用される。受信モード中、送受信回路706は、アンテナ702を介して遠隔ステーションから音声又は他のデータ信号を受信する。受信された音声信号はスピーカー720に供給され、一方、他の受信されたデータ信号は適切に処理される。
【0061】
[0077]また、物理コネクター788は、ACアダプターやパワードドッキングステーションなどの外部電源にモバイルデバイス700を接続するために使用することができる。物理コネクター788はまた、コンピューティングデバイスへのデータ接続として使用することができる。データ接続は、モバイルデバイスのデータを別のデバイス上のコンピューティングのデータと同期させるなどの操作を可能にする。
【0062】
[0078]ユーザーアプリケーションの位置を伝える衛星ベースの無線ナビゲーションを利用したGPSトランシーバー765は、このようなサービスに使用可能である。
[0079]図示される例示的な処理システムは、コンピューター読み取り可能な記憶媒体の例を含む。コンピューター読み取り可能な記憶媒体は、プロセッサー読み取り可能な記憶媒体でもある。このような媒体は、コンピューター読み取り可能な命令、データ構造、プログラムモジュール又は他のデータなどの情報の格納のために実施される、揮発性及び不揮発性、取り外し可能及び取り外し不能な媒体を含むことができる。コンピューター記憶媒体は、RAM、ROM、EEPROM、キャッシュ、フラッシュメモリー又は他のメモリー技術、CD−ROM、デジタル多用途ディスク(DVD)又は他の光学ディスクストレージ、メモリースティック又はカード、磁気カセット、磁気テープ、メディアドライブ、ハードディスク、磁気ディスクストレージ又は他の磁気ストレージデバイスなどを含むが、これらに限定されない。
【0063】
[0080]上記のように、
ワールド空間での
視点(パースペクティブ)ロック仮想オブジェクトについて作成され手共有される情報は、中央サービス900とともに利用することができる。1つの態様では、中央サービスは
図10に示される。中央サービス900は、1つ又は複数の処理デバイス又はサーバ上で動作させることができる。中央サービス900の論理コンポーネントが
図10に示される。
【0064】
[0081]中央サービス900は、ユーザー情報910、ユーザーコンテンツ情報958、サードパーティコンテンツ情報968、サードパーティサービスアグリゲーター980、マッピングエンジン985、及び通信インターフェイス995を含むことができる。通信インターフェイス995は、透過型マウントディスプレイデバイス2、タブレット902及び携帯電話904と中央サービス900が通信することを可能にする、任意の数のインターフェイス、トランスポートレイヤー及びプロトコルを含んでもよい。
【0065】
[0082]ユーザー情報910は、デバイス2、タブレット902及び中央サービス900のユーザーに、中央サービス900のユーザーにとって利用可能なセキュアな情報にアクセスする前に、自身のIDを認証することを要求する、ログイン情報919を含んでもよい。各ユーザーは、サービス900を介して、ユーザーのアドレス帳914及びソーシャル連絡先データ916、並びにユーザーの位置履歴918を利用可能であってもよい。代替的な実施形態では、ユーザー情報の全部又は一部はデバイス上にローカルに記憶されてもよい。
【0066】
[0083]ユーザーコンテンツ情報958は、コンテンツ位置情報957及びユーザーが作成した共有された
視点(パースペクティブ)ロックオブジェクト956を含む。ユーザーコンテンツ情報は、上記のユーザー24などのユーザーによって作成され、中央サービス900の他のユーザーと共有するためにユーザーによって迎えられた、共有仮想オブジェクトについての情報であってもよい。オブジェクト位置情報957は、所与の領域について、3次元マップの位置及び領域内のオブジェクトの位置、並びにオブジェクトとともに利用されるマーカーを含んでもよい。共有オブジェクト956は、オブジェクト位置情報957中の情報に関連付けられる特定のオブジェクトデータを含むことができる。
【0067】
[0084]サードパーティコンテンツ情報968はまた、オブジェクト位置情報967及びサードパーティ
視点(パースペクティブ)ロックオブジェクト966を含む。サードパーティオブジェクトは、サードパーティサービスアグリゲーター980を介してソーシャルインタラクションサービス990から取得される、サードパーティソーシャルインタラクションサービス990から利用可能なコンテンツ情報を含む。サードパーティオブジェクト966は、サードパーティソーシャルインタラクションサービス990によって作成することができ、又は、マッピングエンジン985及びサードパーティソーシャルインタラクションサービスから入手可能な情報を使用して中央サービスによって作成することができる。この情報は、上述した許容可能なレンダリング位置、並びにサードパーティソーシャルインタラクションサービスのユーザーからの任意の情報を含むことができる。
【0068】
[0085]サードパーティサービスアグリゲーター980は、サードパーティソーシャルインタラクションサービス990から情報を取得し、その各々は、仮想オブジェクトを投入(ポピュレート)するために使用することができる情報を提供することができる。サードパーティサービスアグリゲーター980は、サードパーティインタラクションサービス990の各々のアプリケーションプログラミングインターフェイス(API)とインタラクトする。
【0069】
[0086]マッピングエンジン985は、グローバル座標位置情報を、ユーザーからの及びサードパーティサービスアグリゲーター980からの位置データと関連付ける。マッピングエンジン985はまた、ユーザーデバイスから位置情報を受け取り、ユーザーの位置履歴918を更新する。マッピングエンジンはまた、透過型ヘッドマウントディスプレイデバイス2、タブレット902及び電話904に、3Dシーンデータを提供することができる。この情報は、ユーザー位置追跡情報がデバイス2から中央サービス900に提供されるときに更新することができる。マッピングエンジン985はさらに、生成されるべきマーカーの種類を、サードパーティ情報サービスプロバイダーと関連付けることができる。
【0070】
[0087]サードパーティソーシャルインタラクションサービス990は、その情報とともに、それらが情報を提供する関心のあるポイントのグローバル座標を含むことができる。多くのソーシャルメディアサービス990は、そのレビューとともに、このようなグローバル座標位置情報を含む。マッピングエンジン985は、この情報を確認することができ、又はグローバル座標情報をユーザーが生成するデータに追加することができる。この位置は、ユーザーの位置履歴のほか、特定の関心のあるポイントの情報をユーザーが作成する時における入力から導くことができる。
【0071】
[0088]サードパーティサービスアグリゲーター980はまた、所有者/オペレーター及びパブリック共有オブジェクトソース992からオブジェクト定義を受け取ることができる。オブジェクトは、その特定の設立に関連付けられたポイントオブジェクトを有する施設の所有者及びオペレーターによって提供されてもよい。
【0072】
[0089]共有オブジェクト956及びサードパーティオブジェクト966は、オブジェク
トレンダリングデータ情報、並びに、オブジェクトをレンダリングしようとする消費デバイスの、1つ又は複数の許容可能な消費場所、1つ又は複数の許容可能な消費位置、及び1つ又は複数の許容可能な消費向き(consumption orientations)を含む。中央サービス900は、透過型ヘッドマウントディスプレイデバイス2の2人の着用者を中央サービスに提供する1人又は複数のシステム管理者によって動作されてもよい。
【0073】
[0090]
図11は、本発明の技術による、共有可能な
視点(パースペクティブ)ロック仮想オブジェクトを作成する方法を示すフローチャートである。
図11の方法は、処理ユニット4及び/又はヘッドマウントディスプレイデバイス2のコンポーネントによって実行されてもよい。単独で又は別のシステムとともに動作する、処理ユニット4及び/又はヘッドマウントディスプレイデバイス2のうちの任意の1つ又は複数は、方法のすべて又は一部を実行することができる。
【0074】
[0091]
図11を参照すると、ステップ1100において、シーンデータを作成しようとするユーザーのユーザー位置が決定される。ユーザー位置は、ユーザーデバイスにおいて送られたGPSから導くことができ、ユーザー位置を記述するグローバル位置座標を提供することができる。
【0075】
[0092]ステップ1102で、シーンマップを展開することができ、シーンの3次元配置、並びにユーザーが位置する場所の周囲のシーン内のオブジェクトの配置及び位置を特定する。実施形態では、所与のフレーム内で生成されるシーンマップは、すべてのユーザーのローカル座標系におけるx、y及びz位置、現実世界のオブジェクト及び共通の環境内の仮想オブジェクトを含んでもよい。シーンマップは、シーン内に仮想オブジェクトを配置する際、並びに、適切な閉塞をもって仮想3次元オブジェクトを表示する(仮想3次元オブジェクトが閉塞されてもよいし、又は、仮想3次元オブジェクトが現実世界の物体もしくは別の仮想3次元オブジェクトを閉塞してもよい)際に使用してもよい。シーンマップは、ユーザーに関連付けられるキャプチャーデバイスから導くことができ、又は中央サービス900によって提供することができる。
【0076】
[0093]ステップ1104において、中央サービスからの情報が受け取られる。1つの実施形態では、ステップ1104が実行される必要はない。ステップ1104において受け取られる情報は、
視点(パースペクティブ)ロックオブジェクトを作成するためのテンプレートと仮想オブジェクト定義を含むことができる。仮想オブジェクトに関する情報は、処理デバイス内又はヘッドマウントディスプレイ2内にキャッシュされて、
視点(パースペクティブ)ロックオブジェクトをより迅速に作成することを可能にすることができる。
【0077】
[0094]ステップ1106では、ユーザーのキャプチャーデバイスの位置、向き及びFOVの決定が行われる。
[0095]ステップ1108では、場所、向き、位置及び視界データが、ユーザーの
視点(パースペクティブ)へと変換される。ユーザーの
視点(パースペクティブ)は、特定の種類の共有仮想オブジェクトについて許容可能なレンダリング位置を決定するために利用することができる。
【0078】
[0096]ステップ1112において、
視点(パースペクティブ)ロック仮想オブジェクトについてユーザーが生成したコンテンツがキャプチャーされる。本技術によれば、ユーザーが生成したコンテンツは、様々な種類のコンピューティングシステムに関して上述したセンサーデバイスによってキャプチャーすることができる任意の種類のコンテンツであってもよい。これは、音声データ、視覚データ、モーションデータ及びテキストを含む。ユーザーが生成したコンテンツは、レンダリングされる
視点(パースペクティブ)ロック仮想オブジェクトを構築するために利用される。1115において、位置、向き及び場所の情報がユーザー生成コンテンツに関連付けられる。加えて、オブジェクトが
ワールドロックされた(world−locked)オブジェクトとして定義される場合、多くの異なる
視点(パースペクティブ)から表示可能であり、許容可能な消費位置、場所及び向きを定義することができる。
【0079】
[0097]
図1A−1Dに示す例では、単一の
視点(パースペクティブ)が、場所、向き及び位置に基づいて定義されてもよい。
図4Bに示す例では、多数の
視点(パースペクティブ)を定義することができ、したがって、多数の異なる許容可能な消費位置が、
ワールドロックされた仮想オブジェクトのために利用可能である。
【0080】
[0098]1117において、仮想オブジェクトが第2のユーザーと共有されたり、中央サービス900に送られたりする。
[0099]
図12は、本技術による、仮想オブジェクトを表示することを望む消費ユーザーのデバイス(消費デバイス)によって実行される方法を示す。
【0081】
[00100]ステップ1202で、消費ユーザーの位置が決定される。当該位置は、仮想オ
ブジェクトとともに利用されるグローバル座標系を参照して決定される。ステップ1204において、シーンマップデータが、上記のステップ1102と同様の方法で収集される。
【0082】
[00101]ステップ1206及び1208において、
視点(パースペクティブ)がロックされたオブジェクトを他のパーティから収集することができる。1206において、サードパーティの貢献者(contributors)からのオブジェクトが取得される。1208において、1208におけるオブジェクトユーザー共有情報を収集することができる。ステップ1206及び1208における共有の
視点(パースペクティブ)がロックされた仮想オブジェクトは、中央サービス900から、又は他のユーザー貢献者から直接提供されてもよい。いくつかの実施形態では、サードパーティの貢献者からの情報を、消費ユーザーのデバイスに直接送ることができる。さらなる実施形態では、ステップ1208におけるユーザー共有情報は、消費ユーザーと接触するユーザーによって提供されてもよい。消費ユーザーと接触するユーザーは、消費ユーザーに関連付けられるものとして識別される(例えば「友人」)、ユーザーのアドレス帳、直接の連絡先又はソーシャルメディアサービスを介した連絡先に関連付けられる個人であってもよい。
【0083】
[00102]1209において、ユーザーのキャプチャーデバイスの位置、向き及びFOV
の決定が行われる。
[0103]
図3C及び4Aに示されたものなどのマーカーが使用される例において、1210において、ユーザーが1つ又は複数のマーカーに近接しているかどうかに関する最初の判定が行われる。1210における判定は、本質的には、環境内の関連付けられる現実世界の位置におけるマーカーが消費デバイスの視野内に入るかどうかである。マーカーの使用が本技術によって必要とされないことを理解すべきである。したがって、ステップ1212はオプションであってよい。消費ユーザーを共有仮想オブジェクトのレンダリング場所や位置と調整する他のシステムが利用されてもよい。マーカーが利用され、マーカーがユーザーの消費デバイスのFOV内にある場合、1212において、マーカーは消費デバイスのディスプレイ内にレンダリングされる。
【0084】
[00104]1214において、オブジェクトの相互作用が生じたか否かに関する判定が行
われる。ステップ1214におけるオブジェクトの相互作用は、共有オブジェクトを見るために可能となる位置、場所及び向きにおけるマーカーに対してユーザーを配置することのように単純であってもよい。消費ユーザーのデバイスがその場所、位置及び向きにあるとき、オブジェクトがレンダリングされてもよい。他の実施形態では、ユーザーは、場所、位置及び向きに消費デバイスを配置する前に、マーカーを積極的に選択することができる。
【0085】
[00105]1216において、共有
視点(パースペクティブ)ロック仮想オブジェクトの許容可能な消費位置が決定される。上述のように、いくつかのオブジェクトは、消費が生じ得る1つの位置、向き及び場所のみを有する。他のオブジェクトは、多くの許容可能な消費位置、向き及び場所を有する。
【0086】
[00106]ステップ1220において、ユーザー及び消費デバイスが適切な消費のための
オブジェクトに対するユーザーの
視点(パースペクティブ)が生じるような位置、場所及び向きにあるとき、共有の
視点(パースペクティブ)がロックされた仮想オブジェクトがユーザーに対してレンダリングされる。消費は、写真を視覚化すること、特定の録音された音を特定の時間に聞くこと、動画を見ること、テキストを読むこと、インタラクティブな3次元仮想オブジェクトと遊ぶことなどであってもよい。
【0087】
[00107]ステップ1220を実行する1つの実施形態のさらなる詳細が
図13に示され
る。
[00108]いくつかの場合には、共有の
視点(パースペクティブ)がロックされた仮想オブジェクトについてのユーザー変更が許可される。ステップ1224において、オブジェクトのユーザー変更が生じたか否かについての判定が行われる。共有オブジェクトに対する許可がそのような変更を許す場合、ユーザー変更は、ユーザーによるオブジェクトの追加、注釈付け、又は変更を含むことができる。オブジェクトに対するユーザー変更が生じた場合、1226において、オブジェクトのデータが更新され、表示される。1228においてコンテンツの消費が終了すると、1230において方法は次のオブジェクトに移動する。
【0088】
[00109]
図13は、
図12のステップ1220を実行するための1つの方法を示す。ス
テップ1302において、特定のオブジェクトについての向き、場所、位置及び
視点(パースペクティブ)を消費する適切なコンテンツに関して決定が行われる。ステップ1302において取得された情報は、許容可能なレンダリング位置が生じる1つ又は複数の仮想オブジェクトから利用可能な情報を定義する。当該消費デバイスの場所、向き、位置及び視野が1304において取得される。
【0089】
[00110]1306において、レンダリングされる共有の
視点(パースペクティブ)がロックされた仮想オブジェクトが
ワールドロックされているか又はローカル
ロックされているかについて最初の判定が行われる。
[00111]
ワールドロックされた仮想オブジェクトは、
図4Bに示すようなものであり、そこでは、オブジェクトの位置は物理的物体の位置及び向きに
ロックされる。ローカル
ロックされた仮想オブジェクトは、消費位置がユーザーの特定の
視点(パースペクティブ)にロックされるものである。
【0090】
[00112]共有の
視点(パースペクティブ)がロックされた仮想オブジェクトがローカル
ロックされたオブジェクトである場合、1312において、消費デバイスの位置、場所及び向きが許容可能な消費位置と一致するか否かについての判定が行われる。この場合、許容可能な消費位置は単一の許容消費位置として定義されてもよい。そうでない場合、1314において、場所、位置及び向きを一致させるために必要とされる場所、位置及び向きに対する変更の決定が行われてもよく、1316において、ユーザーの場所、向き及び位置を訂正するための方向指針(directional guidance)がレンダリングされてもよい。これにより、ユーザーは、仮想オブジェクトの正確な消費のための位置に移動することができる。方向は、目で見える形式又は可聴的な形式で提供することができる。1318において、ユーザー及び消費デバイスが移動したかどうかについて判定が行われ、そうである場合、1312において、実際のデバイス位置と許容可能な消費位置との間の一致の検出が再び行われる。1312においてユーザーの消費デバイスが許容可能な消費位置と一致するとき、1340において、共有の
視点(パースペクティブ)がロックされた仮想オブジェクトがレンダリングされる。
【0091】
[00113]1306において共有の
視点(パースペクティブ)がロックされた仮想オブジェクトが
ワールドロックされたオブジェクトである場合、1320において、消費デバイスが多くの許容可能な位置、向き及び場所のうちの1つにあるか否かについて判定が行われる。1つの態様では、許容可能な消費位置は、消費デバイスの場所、位置及び向きを決定することによって決定することができる。別の態様では、
ワールドロックされたオブジェクトについて、許容可能な消費位置は、仮想オブジェクトが定義されるべき現実世界のオブジェクトに対する消費デバイスの視野を決定することによって決定することができる。
【0092】
[00114]消費デバイスの場所、位置及び向きと許容可能な位置との間で一致が生じる場
合、1322において、オブジェクトは
ワールドロック位置においてレンダリングされる。1322において、ユーザーの
視点(パースペクティブ)の変化の決定が1324において行われ、共有の
視点(パースペクティブ)がロックされた仮想オブジェクトに対してユーザーの
視点(パースペクティブ)が変化する場合、1326においてその変化が計算され、方法はステップ1320に戻って、共有の
視点(パースペクティブ)がロックされた仮想オブジェクトに関して、消費デバイスが許容可能な場所、位置及び向きにあることを確実にする。1320において消費デバイスが正しい位置にない場合、1350においてオブジェクトのレンダリングは何も生じない。
【0093】
[00115]主題は構造的特徴及び/又は方法論的動作に特有の言葉で説明されたが、添付
の特許請求の範囲において規定される主題が必ずしも上述の特定の特徴又は動作に限定されないことが理解されるべきである。むしろ、上述の特定の特徴及び動作は、特許請求の範囲を実施する例示的な形式として開示されるものである。