(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-04-13
(54)【発明の名称】表示される2D要素のための3Dモデル
(51)【国際特許分類】
G06F 3/04815 20220101AFI20230406BHJP
G06T 19/00 20110101ALI20230406BHJP
G06F 3/01 20060101ALI20230406BHJP
【FI】
G06F3/04815
G06T19/00 A
G06F3/01 510
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2022551292
(86)(22)【出願日】2021-02-25
(85)【翻訳文提出日】2022-10-21
(86)【国際出願番号】 US2021019653
(87)【国際公開番号】W WO2021173824
(87)【国際公開日】2021-09-02
(32)【優先日】2020-02-28
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】514108838
【氏名又は名称】マジック リープ, インコーポレイテッド
【氏名又は名称原語表記】Magic Leap,Inc.
【住所又は居所原語表記】7500 W SUNRISE BLVD,PLANTATION,FL 33322 USA
(74)【代理人】
【識別番号】100078282
【氏名又は名称】山本 秀策
(74)【代理人】
【識別番号】100113413
【氏名又は名称】森下 夏樹
(74)【代理人】
【識別番号】100181674
【氏名又は名称】飯田 貴敏
(74)【代理人】
【識別番号】100181641
【氏名又は名称】石川 大輔
(74)【代理人】
【識別番号】230113332
【氏名又は名称】山本 健策
(72)【発明者】
【氏名】ウィリアムズ, クリストファー リチャード
(72)【発明者】
【氏名】フランコ, ダミアン
【テーマコード(参考)】
5B050
5E555
【Fターム(参考)】
5B050BA09
5B050DA01
5B050EA09
5B050FA02
5B050FA05
5B050FA09
5B050FA10
5B050FA16
5E555AA27
5E555BA01
5E555BA38
5E555BB01
5E555BB38
5E555BC04
5E555BE16
5E555BE17
5E555CA02
5E555CA06
5E555CA10
5E555CA12
5E555CA18
5E555CA42
5E555CA44
5E555CA45
5E555CA47
5E555CB21
5E555CB64
5E555CB82
5E555CC22
5E555DA08
5E555DA09
5E555DB03
5E555DB56
5E555DC09
5E555DC72
5E555DD07
5E555EA07
5E555EA11
5E555FA00
(57)【要約】
システムは、ユーザによって装着されるために構成される、画面であって、2次元(2D)要素を表示するように構成される、画面と、ディスプレイに結合される、処理ユニットと、画面によって表示される2D要素を選択するためのユーザ入力に応答して、信号を生成するように構成される、ユーザ入力デバイスとを含み、処理ユニットは、生成された信号に応答して、2D要素と関連付けられる、3次元(3D)モデルを取得するように構成される。
【特許請求の範囲】
【請求項1】
システムであって、
ユーザによって装着されるために構成される画面であって、前記画面は、2次元(2D)要素を表示するように構成される、画面と、
ディスプレイに結合される処理ユニットと、
ユーザ入力デバイスであって、前記ユーザ入力デバイスは、前記画面によって表示される前記2D要素を選択するためのユーザ入力に応答して、信号を生成するように構成される、ユーザ入力デバイスと
を備え、
前記処理ユニットは、前記生成された信号に応答して、前記2D要素と関連付けられる3次元(3D)モデルを取得するように構成される、システム。
【請求項2】
前記ユーザ入力デバイスは、ダブルクリックアクション、長押しアクション、長保持アクション、カーソルが前記2D要素に向いている間のボタンの押下、閾値期間にわたる前記2D要素上でのボタンのホバリング、またはオーディオ入力に応答して、前記信号を生成するように構成される、請求項1に記載のシステム。
【請求項3】
前記2D要素は、オブジェクトを示し、前記3Dモデルは、前記オブジェクトの3次元バージョンである、請求項1に記載のシステム。
【請求項4】
前記3Dモデルは、前記2D要素の3Dレンダリングまたは3D描写である、請求項1に記載のシステム。
【請求項5】
前記システムは、前記2D要素が前記3Dモデルにアクセスするように選択可能であることのインジケーションを提供するように構成される、請求項1に記載のシステム。
【請求項6】
前記画面は、視覚的情報を前記インジケーションとして提供するように構成される、請求項5に記載のシステム。
【請求項7】
前記視覚的情報は、前記2D要素の色の変化を備える、請求項6に記載のシステム。
【請求項8】
前記視覚的情報は、前記2D要素と関連付けて表示されるグラフィックを備える、請求項6に記載のシステム。
【請求項9】
前記視覚的情報は、カーソルの構成の変化を備える、請求項6に記載のシステム。
【請求項10】
前記視覚的情報は、前記2D要素から外に成長し始める前記3Dモデルの表示を備える、請求項6に記載のシステム。
【請求項11】
前記システムは、オーディオ信号を前記インジケーションとして提供するように構成される、請求項5に記載のシステム。
【請求項12】
前記2D要素は、ブラウザまたはビューワ内に提示される、請求項1に記載のシステム。
【請求項13】
前記3Dモデルは、ページ記述子情報と関連付けて記憶される、請求項1に記載のシステム。
【請求項14】
前記2D要素は、ページの一部であり、前記ページに関するメタデータは、そこから前記3Dモデルが読み出されるべき場所を示す、請求項1に記載のシステム。
【請求項15】
前記2D要素は、ページの一部であり、前記ページのマークアップ言語は、前記2D要素を前記3Dモデルと関連付けられるものとして指定するメタデータを備える、請求項1に記載のシステム。
【請求項16】
前記3Dモデルは、動的に生成される、請求項1に記載のシステム。
【請求項17】
前記2D要素は、ブラウザまたはビューワ内に提示されるページの一部であり、前記3Dモデルは、前記ページが前記ブラウザまたは前記ビューワ内にロードされたとき、またはその後、ロードされ、かつ/または利用可能にされる、請求項1に記載のシステム。
【請求項18】
前記処理ユニットは、アプリケーションプログラミングインターフェース(API)に対して行われる要求を通して、前記3Dモデルを読み出すように構成される、請求項1に記載のシステム。
【請求項19】
前記処理ユニットは、ネットワークを介して伝送される前記3Dモデルを受信することによって、前記2D要素と関連付けられる前記3Dモデルを取得するように構成される、請求項1に記載のシステム。
【請求項20】
前記3Dモデルを記憶するメモリをさらに備え、前記処理ユニットは、前記3Dモデルを前記メモリから読み出すことによって、前記3Dモデルを取得するように構成される、請求項1に記載のシステム。
【請求項21】
前記3Dモデルは、前記システムによって提示される環境への追加のためのものである、請求項1に記載のシステム。
【請求項22】
前記処理ユニットは、前記3Dモデルを前記画面を通して視認されるような環境に対して特定の場所に設置するためのコマンドを受信するように構成される、請求項1に記載のシステム。
【請求項23】
前記コマンドは、仮想オブジェクトまたは実世界オブジェクトと関連付けられる前記3Dモデルを前記環境に対して設置するためのカーソルの移動に基づいて生成されたカーソル位置を備える、請求項22に記載のシステム。
【請求項24】
前記画面は、前記ユーザが前記画面を通して周囲環境を視認することを可能にするために、少なくとも部分的に透明である、請求項1に記載のシステム。
【請求項25】
前記システムは、MR、AR、またはVR環境を前記ユーザに提供するように構成される、請求項1に記載のシステム。
【請求項26】
方法であって、
ユーザによって装着されるために構成される画面によって、2次元(2D)要素を表示することと、
前記画面によって表示される前記2D要素を選択するためのユーザに入力に応答して、ユーザ入力デバイスによって生成された信号を受信することと、
前記生成された信号に応答して、前記2D要素と関連付けられる3次元(3D)モデルを取得することと
を含む、方法。
【請求項27】
前記信号は、ダブルクリックアクション、長押しアクション、長保持アクション、カーソルが前記2D要素に向いている間のボタンの押下、閾値期間にわたる前記2D要素上でのボタンのホバリング、またはオーディオ入力に応答して生成される、請求項26に記載の方法。
【請求項28】
前記2D要素は、オブジェクトを示し、前記3Dモデルは、前記オブジェクトの3次元バージョンである、請求項26に記載の方法。
【請求項29】
前記3Dモデルは、前記2D要素の3Dレンダリングまたは3D描写である、請求項26に記載の方法。
【請求項30】
前記2D要素が前記3Dモデルにアクセスするために選択可能であることのインジケーションを提供することをさらに含む、請求項26に記載の方法。
【請求項31】
前記インジケーションは、視覚的情報を備える、請求項30に記載の方法。
【請求項32】
前記視覚的情報は、前記2D要素の色の変化を備える、請求項31に記載の方法。
【請求項33】
前記視覚的情報は、前記2D要素と関連付けて表示されるグラフィックを備える、請求項31に記載の方法。
【請求項34】
前記視覚的情報は、カーソルの構成の変化を備える、請求項31に記載の方法。
【請求項35】
前記視覚的情報は、前記2D要素から外に成長し始める前記3Dモデルの表示を備える、請求項31に記載の方法。
【請求項36】
前記インジケーションを提供する行為は、オーディオ信号を提供することを含む、請求項30に記載の方法。
【請求項37】
前記2D要素は、ブラウザまたはビューワ内に提示される、請求項26に記載の方法。
【請求項38】
前記3Dモデルは、ページ記述子情報と関連付けて記憶される、請求項26に記載の方法。
【請求項39】
前記2D要素は、ページの一部であり、前記ページに関するメタデータは、そこから前記3Dモデルが読み出されるべき場所を示す、請求項26に記載の方法。
【請求項40】
前記2D要素は、ページの一部であり、前記ページのマークアップ言語は、前記2D要素を前記3Dモデルと関連付けられるものとして指定するメタデータを備える、請求項26に記載の方法。
【請求項41】
前記3Dモデルは、動的に生成される、請求項26に記載の方法。
【請求項42】
前記2D要素は、ブラウザまたはビューワ内に提示されるページの一部であり、前記3Dモデルは、前記ページが前記ブラウザまたは前記ビューワ内にロードされたとき、またはその後、ロードされ、かつ/または利用可能にされる、請求項26に記載の方法。
【請求項43】
前記3Dモデルを取得する行為は、処理ユニットによって、アプリケーションプログラミングインターフェース(API)に対して行われる要求を通して、前記3Dモデルを読み出すことを含む、請求項26に記載の方法。
【請求項44】
前記2D要素と関連付けられる前記3Dモデルを取得する行為は、ネットワークを介して伝送される前記3Dモデルを受信することを含む、請求項26に記載の方法。
【請求項45】
前記3Dモデルは、メモリ内に記憶され、前記3Dモデルを取得する行為は、前記3Dモデルを前記メモリから読み出すことを含む、請求項26に記載の方法。
【請求項46】
前記3Dモデルは、前記システムによって提示される環境への追加のためのものである、請求項26に記載の方法。
【請求項47】
前記3Dモデルを前記画面を通して視認されるような環境に対して特定の場所に設置するコマンドを受信することをさらに含む、請求項26に記載の方法。
【請求項48】
前記コマンドは、仮想オブジェクトまたは実世界オブジェクトと関連付けられる前記3Dモデルを前記環境に対して設置するためのカーソルの移動に基づいて生成されたカーソル位置を備える、請求項47に記載の方法。
【請求項49】
前記画面は、前記ユーザが前記画面を通して周囲環境を視認することを可能にするために、少なくとも部分的に透明である、請求項26に記載の方法。
【請求項50】
前記方法は、MR、AR、またはVR環境を前記ユーザに提供するように構成されるシステムによって実施される、請求項26に記載の方法。
【請求項51】
非一過性媒体を備える製品であって、前記非一過性媒体は、命令のセットを記憶しており、処理ユニットによる前記命令のセットの実行は、方法を実施させ、前記方法は、
ユーザによって装着されるために構成される画面によって、2次元(2D)要素を表示することと、
前記画面によって表示される前記2D要素を選択するためのユーザに入力に応答して、ユーザ入力デバイスによって生成された信号を受信することと、
前記生成された信号に応答して、前記2D要素と関連付けられる3次元(3D)モデルを取得することと
を含む、方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、頭部装着型画像ディスプレイデバイスと、ユーザが、3次元(3D)仮想オブジェクトにアクセスし、それを操作することを可能にするための方法および装置とに関する。
【背景技術】
【0002】
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」(VR)または「拡張現実」(AR)体験のための「複合現実」(MR)システムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実であるように見える、またはそのように知覚され得る様式で、ユーザに提示される。VRシナリオは、典型的には、他の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。ARシナリオは、典型的には、ユーザの周囲の実世界の可視化(すなわち、実世界視覚的入力に対する透過性)に対する拡張としてデジタルまたは仮想画像情報の提示を伴う。故に、ARシナリオは、実世界視覚的入力に対する透過性を伴う、デジタルまたは仮想画像情報の提示を伴う。
【0003】
MRシステムは、カラーデータを生成および表示し得、これは、MRシナリオの現実性を増加させる。これらのMRシステムの多くは、カラー画像に対応する異なる(例えば、原)色または「フィールド」(例えば、赤色、緑色、および青色)内のサブ画像を高速で連続して順次投影させることによって、カラーデータを表示する。カラーサブ画像を十分に高レート(例えば、60Hz、120Hz等)で投影させることは、平滑なカラーMRシナリオをユーザの記憶にもたらし得る。
【0004】
種々の光学システムは、MR(VRおよびAR)シナリオを表示するために、種々の深度において、カラー画像を含む、画像を生成する。
【0005】
MRシステムは、少なくとも、ユーザの頭部に緩く結合され、したがって、ユーザの頭部が移動すると移動する、ウェアラブルディスプレイデバイス(例えば、頭部装着型ディスプレイ、ヘルメット搭載型ディスプレイ、またはスマートグラス)を採用し得る。ユーザの頭部運動が、ディスプレイデバイスによって検出される場合、表示されているデータは、頭部姿勢(すなわち、ユーザの頭部の配向および/または場所)の変化を考慮するために更新(例えば、「ワーピング」)され得る。
【0006】
実施例として、頭部装着型ディスプレイデバイスを装着しているユーザが、ディスプレイ上の仮想オブジェクトの仮想表現を視認し、仮想オブジェクトが現れている面積の周囲を歩き回る場合、仮想オブジェクトは、視点毎にレンダリングされ、実空間を占有するオブジェクトの周囲を歩き回っているという知覚をユーザに与えることができる。頭部装着型ディスプレイデバイスが、複数の仮想オブジェクトを提示するために使用される場合、頭部姿勢の測定が、ユーザの動的に変化する頭部姿勢にマッチングし、没入感の増加を提供するように場面をレンダリングするために使用されることができる。
【0007】
ARを有効にする、頭部装着型ディスプレイデバイスは、実および仮想オブジェクトの両方の同時視認を提供する。「光学シースルー」ディスプレイを用いることで、ユーザは、ディスプレイシステム内の透明(または半透明)要素を通して見え、直接、環境内の実オブジェクトからの光を視認することができる。透明要素は、多くの場合、「コンバイナ」と称され、ディスプレイからの光を実世界のユーザのビューにわたって重畳し、ディスプレイからの光は、仮想コンテンツの画像を環境内の実オブジェクトのシースルービューにわたって投影される。カメラが、頭部装着型ディスプレイデバイス上に搭載され、ユーザによって視認されている場面の画像またはビデオを捕捉し得る。
【0008】
MRシステムにおけるもの等の現在の光学システムは、仮想コンテンツを光学的にレンダリングする。コンテンツは、空間内の個別の位置に位置する実際の物理的オブジェクトに対応しないという点で、「仮想」である。代わりに、仮想コンテンツは、ユーザの眼に指向される光ビームによって刺激されるとき、頭部装着型ディスプレイデバイスのユーザの脳(例えば、光学的中心)内にのみ存在する。
【0009】
ある場合には、頭部装着型画像ディスプレイデバイスは、実環境に対して仮想オブジェクトを表示し得、かつ/またはユーザが実環境に対して仮想オブジェクトを設置し、かつ/または操作することを可能にし得る。そのような場合、画像ディスプレイデバイスは、仮想オブジェクトが実環境に対して正しく変位され得るように、実環境に対するユーザを位置特定するように構成され得る。位置特定マップが、頭部装着型画像ディスプレイデバイスによって使用され、位置特定を実施し得る。特に、位置特定を実施するとき、画像ディスプレイデバイスは、リアルタイム入力画像を画像ディスプレイデバイスのカメラシステムから取得し、入力画像内の特徴と位置特定マップの特徴をマッチングさせ得る。
【0010】
ユーザが、3D仮想オブジェクトにアクセスし、それを操作し、画像ディスプレイデバイスによって提示される環境内に位置付けることを可能にするための新しい方法および装置が、本明細書に説明される。
【発明の概要】
【課題を解決するための手段】
【0011】
本開示は、コンピューティングシステム内に表示される、示される要素(例えば、コンテンツのページ内の要素)と関連付けられる、3次元(3D)モデルを提供するための技法を説明する。ページは、コンピューティングシステム上で実行される、ブラウザまたは他の好適なアプリケーション内に表示されてもよい。いくつかの実施例では、コンピューティングシステムは、複合現実(MR)、拡張現実(AR)、および/または仮想現実(VR)環境を本システムのユーザに提示するように構成される、空間コンピューティングシステムであってもよい。表示される要素は、2次元(2D)または3D要素であってもよい。提供されるモデルは、いくつかの実施形態では、ユーザによって操作されてもよい。例えば、ユーザは、ページ内に表示される2D要素(例えば、画像、グラフィック等)を選択し、3Dモデルにアクセスしてもよく、アクセスされる3Dモデルは、次いで、ユーザによって、空間コンピューティング環境を介してユーザによって知覚されるような実世界または仮想オブジェクト上またはその近くに設置されてもよい。
【0012】
特に、本明細書に開示される実施形態は、コンピューティングシステム上で実行されるブラウザまたは他の好適なアプリケーション内に示されるページ要素と関連付けられる、3Dモデルにアクセスするためのシステム、方法、およびコンピュータ可読媒体に関する。いくつかの実施形態では、コンピューティングシステムは、MR、AR、またはVR環境をユーザに提供するように構成される。VR環境では、仮想オブジェクトは、実世界および/または人工環境をシミュレートし得る様式において、ユーザに提示される。AR環境では、本システムは、ユーザが、その実世界環境に関する少なくとも一部を視認し、仮想オブジェクトを実世界環境に対する拡張として提示することを可能にされる。MR環境では、仮想オブジェクトの提示は、実世界オブジェクトに基づいて修正されてもよい。例えば、仮想オブジェクトは、仮想オブジェクトが実世界オブジェクトの背後にあるように現れる位置に提示される場合、少なくとも部分的に、実世界オブジェクトによってオクルードされ得る。そのような環境はまた、空間コンピューティング環境として説明されることができ、その中で仮想オブジェクトは、提示されている実世界オブジェクトの存在および特性によって情報を与えられ、かつ/またはそれを認識することによって形成される、様式で提示される。
【0013】
いくつかの実施形態では、ページの開発者は、要素が、要素のモデルが、ユーザによって読み出され、提示される環境内のいずれかの場所に設置され得るように、抽出可能モデルと関連付けられることを規定することができる。いくつかの実施形態では、要素が抽出可能モデルと関連付けられることを規定することは、ページのマークアップ言語を修正し、要素を抽出可能モデルと関連付けられるもとして指定する、特定のメタデータ(例えば、タグ、フィールド、または属性)を追加することを含む。ページが、レンダリングされるとき、メタデータは、ユーザが要素上をクリックするとき等、ユーザがアクションを実施すると、モデルの抽出を有効にする。いくつかの実施形態では、メタデータは、モデルが関連付けられる要素から抽出可能であることを示す、トグルまたはフラグ(例えば、真または偽)である。
【0014】
いくつかの実施形態では、モデルは、ページ記述子情報とともに、前もって作成および記憶され(例えば、ウェブサーバ上に)、モデルは、ユーザが、指定されるアクションを実施し、モデルを抽出すると、システムに通信されるために利用可能になる。そのような実施例では、ページに関するメタデータはまた、そこからモデルが読み出され得る、場所(例えば、モデルまでのパス)を示してもよい。いくつかの実施形態では、モデルは、ユーザが指定されるアクションを実施すると、動的に生成され、システムに通信されてもよい。そのようなインスタンスでは、動的に生成されたモデルは、モデルのための後続要求に応答して、ダウンロードのために容易に利用可能であるように、少なくともある期間にわたって、キャッシュされてもよい。いくつかの実施例では、モデルは、ページがブラウザ内にロードされると、ロードされる、かつ/または別様に、利用可能になってもよい。モデルはまた、アプリケーションプログラミングインターフェース(API)に対して行われた要求を通して、読み出されてもよい。ページ内の任意の好適なタイプまたは数の(例えば、2D)要素が、3Dモデルとして抽出可能であるものとして指定されてもよい。
【0015】
実施形態は、モデルのアクセスをトリガするために指定される、任意の好適なアクションをサポートする。例えば、アクションは、そのカーソルが要素に向いている間のトーテムボタン(例えば、トリガ)または他の制御上におけるユーザクリック(またはダブルクリック、長押し、長保持等)であってもよい。別の実施例として、アクションは、ユーザが、少なくとも閾値期間にわたって、そのカーソルを用いて、要素上にホバリングすることであってもよい。別の実施例として、アクションは、カーソルが要素に向いている間、ユーザがキーワード発話することであってもよい。他の好適なアクションもまた、サポートされてもよい。
【0016】
いくつかの実施形態では、抽出可能である要素に関して、本システムは、要素が抽出可能であることのインジケーションを提供してもよい。例えば、要素上でのカーソルホバリングは、要素の色を変化させる、または抽出能力のある他の可視インジケーションを提供してもよい。別の実施例として、要素上でのカーソルホバリングは、その完全サイズに到達するまで、モデルを要素から外に成長させ始める一方、ユーザが、そのカーソルを移動させるにつれて、移動しながら、モデルを環境に提示される別の仮想または実世界オブジェクト上に設置してもよい。
【0017】
モデルは、任意の好適なサイズまたは分解能であってもよく、所望の性能特性をシステム上で達成するように、調節されてもよい。例えば、より小さいモデルが、記憶要件、ネットワーク待ち時間、ページロード時間、および/または他の性能メトリックを低減または別様に最適化するために提供されてもよい。モデルは、2D要素の3Dレンダリングまたは描写であってもよい。例えば、2D要素が、オブジェクトの画像である場合、モデルは、空間コンピューティング環境に提示され得る、そのオブジェクトの3Dモデルであってもよい。
【0018】
要素提示およびモデル抽出は、コンピューティングシステム上で実行されるブラウザ(例えば、ウェブブラウザ)または他の好適なアプリケーション内で実施されてもよい。例えば、モデル抽出特徴は、Magic LeapTMによって提供されるHelioTMブラウザを通して、利用可能であってもよい。
【0019】
システムは、ユーザによって装着されるために構成される、画面であって、2次元(2D)要素を表示するように構成される、画面と、ディスプレイに結合される、処理ユニットと、画面によって表示される2D要素を選択するためのユーザ入力に応答して、信号を生成するように構成される、ユーザ入力デバイスとを含み、処理ユニットは、生成された信号に応答して、2D要素と関連付けられる、3次元(3D)モデルを取得するように構成される。
【0020】
随意に、ユーザ入力デバイスは、ダブルクリックアクション、長押しアクション、長保持アクション、カーソルが2D要素に向いている間のボタンの押下、閾値期間にわたる2D要素上でのボタンのホバリング、またはオーディオ入力に応答して、信号を生成するように構成される。
【0021】
随意に、2D要素は、オブジェクトを示し、3Dモデルは、オブジェクトの3次元バージョンである。
【0022】
随意に、3Dモデルは、2D要素の3Dレンダリングまたは3D描写である。
【0023】
随意に、本システムは、2D要素が3Dモデルにアクセスするように選択可能であることのインジケーションを提供するように構成される。
【0024】
随意に、画面は、視覚的情報をインジケーションとして提供するように構成される。
【0025】
随意に、視覚的情報は、2D要素の色の変化を備える。
【0026】
随意に、視覚的情報は、2D要素と関連付けて表示される、グラフィックを備える。
【0027】
随意に、視覚的情報は、カーソルの構成の変化を備える。
【0028】
随意に、視覚的情報は、2D要素から外に成長し始める3Dモデルの表示を備える。
【0029】
随意に、本システムは、オーディオ信号をインジケーションとして提供するように構成される。
【0030】
随意に、2D要素は、ブラウザまたはビューワ内に提示される。
【0031】
随意に、3Dモデルは、ページ記述子情報と関連付けて記憶される。
【0032】
随意に、2D要素は、ページの一部であって、ページに関するメタデータは、そこから3Dモデルが読み出されるべき場所を示す。
【0033】
随意に、2D要素は、ページの一部であって、ページのマークアップ言語は、2D要素を3Dモデルと関連付けられるものとして指定する、メタデータを備える。
【0034】
随意に、3Dモデルは、動的に生成される。
【0035】
随意に、2D要素は、ブラウザまたはビューワ内に提示されるページの一部であって、3Dモデルは、ページがブラウザまたはビューワ内にロードされたとき、またはその後、ロードされ、かつ/または利用可能にされる。
【0036】
随意に、処理ユニットは、アプリケーションプログラミングインターフェース(API)に対して行われる要求を通して、3Dモデルを読み出すように構成される。
【0037】
随意に、処理ユニットは、ネットワークを介して伝送される、3Dモデルを受信することによって、2D要素と関連付けられる、3Dモデルを取得するように構成される。
【0038】
随意に、本システムはさらに、3Dモデルを記憶する、メモリを含み、処理ユニットは、3Dモデルをメモリから読み出すことによって、3Dモデルを取得するように構成される。
【0039】
随意に、3Dモデルは、本システムによって提示される環境への追加のためのものである。
【0040】
随意に、処理ユニットは、3Dモデルを画面を通して視認されるような環境に対して特定の場所に設置するためのコマンドを受信するように構成される。
【0041】
随意に、コマンドは、仮想オブジェクトまたは実世界オブジェクトと関連付けられる3Dモデルを環境に対して設置するためのカーソルの移動に基づいて生成されたカーソル位置を備える。
【0042】
随意に、画面は、ユーザが画面を通して周囲環境を視認することを可能にするために、少なくとも部分的に透明である。
【0043】
随意に、本システムは、MR、AR、またはVR環境をユーザに提供するように構成される。
【0044】
方法は、ユーザによって装着されるために構成される、画面によって、2次元(2D)要素を表示することと、画面によって表示される2D要素を選択するためのユーザに入力に応答して、ユーザ入力デバイスによって生成された信号を受信することと、生成された信号に応答して、2D要素と関連付けられる、3次元(3D)モデルを取得することとを含む。
【0045】
随意に、信号は、ダブルクリックアクション、長押しアクション、長保持アクション、カーソルが2D要素に向いている間のボタンの押下、閾値期間にわたる2D要素上でのボタンのホバリング、またはオーディオ入力に応答して生成される。
【0046】
随意に、2D要素は、オブジェクトを示し、3Dモデルは、オブジェクトの3次元バージョンである。
【0047】
随意に、3Dモデルは、2D要素の3Dレンダリングまたは3D描写である。
【0048】
随意に、本方法はさらに、2D要素が3Dモデルにアクセスするために選択可能であることのインジケーションを提供することを含む。
【0049】
随意に、インジケーションは、視覚的情報を備える。
【0050】
随意に、視覚的情報は、2D要素の色の変化を備える。
【0051】
随意に、視覚的情報は、2D要素と関連付けて表示される、グラフィックを備える。
【0052】
随意に、視覚的情報は、カーソルの構成の変化を備える。
【0053】
随意に、視覚的情報は、2D要素から外に成長し始める3Dモデルの表示を備える。
【0054】
随意に、インジケーションを提供する行為は、オーディオ信号を提供することを含む。
【0055】
随意に、2D要素は、ブラウザまたはビューワ内に提示される。
【0056】
随意に、3Dモデルは、ページ記述子情報と関連付けて記憶される。
【0057】
随意に、2D要素は、ページの一部であって、ページに関するメタデータは、そこから3Dモデルが読み出されるべき場所を示す。
【0058】
随意に、2D要素は、ページの一部であって、ページのマークアップ言語は、2D要素を3Dモデルと関連付けられるものとして指定する、メタデータを備える。
【0059】
随意に、3Dモデルは、動的に生成される。
【0060】
随意に、2D要素は、ブラウザまたはビューワ内に提示されるページの一部であって、3Dモデルは、ページがブラウザまたはビューワ内にロードされたとき、またはその後、ロードされ、かつ/または利用可能にされる。
【0061】
随意に、3Dモデルを取得する行為は、処理ユニットによって、アプリケーションプログラミングインターフェース(API)に対して行われる要求を通して、3Dモデルを読み出すことを含む。
【0062】
随意に、2D要素と関連付けられる、3Dモデルを取得する行為は、ネットワークを介して伝送される、3Dモデルを受信することを含む。
【0063】
随意に、3Dモデルは、メモリ内に記憶され、3Dモデルを取得する行為は、3Dモデルをメモリから読み出すことを含む。
【0064】
随意に、3Dモデルは、本システムによって提示される環境への追加のためのものである。
【0065】
随意に、本方法はさらに、3Dモデルを画面を通して視認されるような環境に対して特定の場所に設置するコマンドを受信することを含む。
【0066】
随意に、コマンドは、仮想オブジェクトまたは実世界オブジェクトと関連付けられる3Dモデルを環境に対して設置するためのカーソルの移動に基づいて生成されたカーソル位置を備える。
【0067】
随意に、画面は、ユーザが画面を通して周囲環境を視認することを可能にするために、少なくとも部分的に透明である。
【0068】
随意に、本方法は、MR、AR、またはVR環境をユーザに提供するように構成される、システムによって実施される。
【0069】
製品は、命令のセットを記憶する、非一過性媒体を含み、処理ユニットによるその実行は、方法を実施させ、本方法は、ユーザによって装着されるために構成される、画面によって、2次元(2D)要素を表示することと、画面によって表示される2D要素を選択するためのユーザに入力に応答して、ユーザ入力デバイスによって生成された信号を受信することと、生成された信号に応答して、2D要素と関連付けられる、3次元(3D)モデルを取得することとを含む。
【0070】
本開示の付加的および他の目的、特徴、および利点は、詳細な説明、図、および請求項に説明される。
【図面の簡単な説明】
【0071】
図面は、本開示の種々の実施形態の設計および有用性を図示する。図は、正確な縮尺で描かれておらず、類似構造または機能の要素は、図全体を通して類似参照番号によって表されることに留意されたい。本開示の種々の実施形態の前述および他の利点および目的を得る方法をより深く理解するために、簡単に前述された開示を実施するための形態が、付随の図面に図示されるその具体的実施形態を参照することによって与えられるであろう。これらの図面は、本開示の典型的実施形態のみを描写し、したがって、その範囲の限定として見なされるべきではないことを理解した上で、本開示は、付随の図面の使用を通して付加的具体性および詳細とともに説明および記載されるであろう。
【0072】
【
図1】
図1は、いくつかの実施形態による、画像ディスプレイデバイスを有する、別の画像ディスプレイシステムを図示する。
【0073】
【
図2】
図2は、他の実施形態による、ニューラルネットワークの一般的アーキテクチャを図示する。
【0074】
【
図3】
図3は、他の実施形態による、画像ディスプレイデバイスを有する、別の画像ディスプレイシステムを図示する。
【0075】
【
図4】
図4は、他の実施形態による、画像ディスプレイデバイスを有する、別の画像ディスプレイシステムを図示する。
【0076】
【
図5】
図5は、フレームを複数の深度面に表示する、画像ディスプレイデバイスを図示する。
【0077】
【
図6】
図6は、画像ディスプレイデバイスが、画像ディスプレイデバイスのユーザを位置特定し、および/または他の機能を実施することを可能にするための、マップを決定するための方法を図示する。
【0078】
【
図7】
図7は、複数のセルに分割されている環境の実施例を図示する。
【0079】
【
図8】
図8は、画像ディスプレイデバイスの処理ユニットを図示する。
【0080】
【
図9A】
図9Aは、画像ディスプレイシステムの画面によって提示される、2次元(2D)要素の実施例を図示する。
【0081】
【
図9B】
図9Bは、3次元(3D)モデルが
図9Aの2次元要素のためにアクセス可能であることを示すためのインジケータの実施例を図示する。
【0082】
【
図9C】
図9Cは、画像ディスプレイシステムの画面によって提示されている、3Dモデルまたはその表現の実施例を図示する。
【0083】
【
図9D】
図9Dは、ユーザによって、画像ディスプレイシステムの画面を通して視認されるような環境に対する所望の位置に移動されている、
図9Cの3Dモデルまたはその表現の実施例を図示する。
【0084】
【0085】
【
図10A】
図10A-10Bは、HTML要素と関連付けられる、3Dモデルの1つまたはそれを上回る実施形態の実装の実施例を図示する。
【
図10B】
図10A-10Bは、HTML要素と関連付けられる、3Dモデルの1つまたはそれを上回る実施形態の実装の実施例を図示する。
【0086】
【
図11】
図11は、画像ディスプレイデバイスの処理ユニットによって実施される方法を図示する。
【0087】
【
図12】
図12は、いくつかの実施形態による、特殊処理システムを図示する。
【発明を実施するための形態】
【0088】
詳細な説明
本開示の種々の実施形態は、頭部装着型ビデオ画像デバイスのための入力を提供するための方法、装置、および製造品を対象とする。本開示の他の目的、特徴、および利点は、詳細な説明、図、および特許請求の範囲に説明される。
【0089】
種々の実施形態が、図を参照して以降に説明される。図は、正確な縮尺で描かれておらず、類似構造または機能の要素は、図全体を通して同様の参照番号によって表されることに留意されたい。また、図は、実施形態の説明を促進するようにのみ意図されることに留意されたい。それらは、本発明の包括的説明として、または本発明の範囲に関する限界として意図されるものではない。加えて、図示される実施形態は、示される全ての側面または利点を有する必要はない。特定の実施形態と併せて説明される側面または利点は、必ずしも、その実施形態に限定されず、そのように図示されない場合でも、またはそのように明示的に説明されない場合でも、任意の他の実施形態において実践されることができる。
【0090】
続く説明は、それを用いて本明細書に説明される実施形態が実践され得る、例証的VR、AR、および/またはMRシステムに関する。しかしながら、実施形態はまた、他のタイプのディスプレイシステム(他のタイプのVR、AR、および/またはMRシステムを含む)における用途にも適しており、したがって、実施形態は、本明細書に開示される例証的実施例のみに限定されないことを理解されたい。
【0091】
図1-4は、種々の実施形態における、画像ディスプレイシステム100の種々のコンポーネントを図示する。画像ディスプレイシステム100は、画像ディスプレイデバイス101と、画像ディスプレイデバイスデバイス101のための入力を提供するための装置200とを含む。装置200は、下記にさらに詳細に説明されるであろう。画像ディスプレイデバイス101は、VRデバイス、ARデバイス、MRデバイス、または他のタイプのディスプレイデバイスのいずれかであってもよい。画像ディスプレイデバイス101は、エンドユーザ50によって装着される、フレーム構造102と、ディスプレイサブシステム110がエンドユーザ50の眼の正面に位置付けられるように、フレーム構造102によって担持される、ディスプレイサブシステム110と、スピーカ106がエンドユーザ50の外耳道に隣接して位置付けられる(随意に、別のスピーカ(図示せず)が、エンドユーザ50の他方の外耳道に隣接して位置付けられ、ステレオ/調節可能音制御を提供する)ようにフレーム構造102によって担持される、スピーカ106とを含む。ディスプレイサブシステム110は、エンドユーザ50の眼に、高レベルの画質および3次元知覚を伴って、物理的現実に対する拡張として快適に知覚され得る、光パターンを提示するように設計され、かつ2次元コンテンツを提示することも可能である。ディスプレイサブシステム110は、単一コヒーレント場面の知覚を提供する、フレームのシーケンスを高周波数で提示する。
【0092】
図示される実施形態では、ディスプレイサブシステム110は、「光学シースルー」ディスプレイを採用し、それを通してユーザは、透明(または半透明)要素を介して、直接、実オブジェクトからの光を視認することができる。透明要素は、多くの場合、「コンバイナ」と称され、ディスプレイからの光を実世界のユーザのビューにわたって重畳する。この目的を達成するために、ディスプレイサブシステム110は、部分的に透明なディスプレイを備える。ディスプレイは、周囲環境からの直接光が、ディスプレイを通して、エンドユーザ50の眼に伝送されるように、エンドユーザ50の眼と周囲環境との間のエンドユーザ50の視野内に位置付けられる。
【0093】
図示される実施形態では、画像投影アセンブリは、光を部分的に透明なディスプレイに提供し、それによって、周囲環境からの直接光と組み合わせられ、ディスプレイからユーザの眼50に伝送される。投影サブシステムは、光ファイバ走査ベースの投影デバイスであってもよく、ディスプレイは、その中に投影サブシステムからの走査される光が、例えば、無限遠(例えば、腕の長さ)より近い単一光学視認距離における画像、複数の離散光学視認距離または焦点面における画像、および/または立体3Dオブジェクトを表すために複数の視認距離または焦点面にスタックされた画像層を生産するように投入される、導波管ベースのディスプレイであってもよい。ライトフィールド内のこれらの層は、ヒト視覚サブシステムに持続的に現れるようにともに十分に近接してスタックされてもよい(すなわち、1つの層が、隣接する層の乱信号円錐域内にある)。加えて、または代替として、ピクチャ要素が、2つまたはそれを上回る層を横断して混成され、それらの層が、より疎らにスタックされる(すなわち、1つの層が隣接する層の乱信号円錐域の外側にある)場合でも、ライトフィールド内の層間の遷移の知覚される連続性を増加させてもよい。ディスプレイサブシステム110は、単眼または両眼用であってもよい。
【0094】
画像ディスプレイデバイス101はまた、エンドユーザ50の頭部54の位置および移動および/またはエンドユーザ50の眼位置および眼球間距離を検出するためにフレーム構造102に搭載される、1つまたはそれを上回るセンサ(図示せず)を含んでもよい。そのようなセンサは、画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープ)、または前述の任意の組み合わせを含んでもよい。これらのセンサの多くは、その上にそれらが添着される、フレーム102が、順に、ユーザの頭部、眼、および耳に実質的に固定されるという仮定に基づいて動作する。
【0095】
画像ディスプレイデバイス101はまた、ユーザ配向検出モジュールを含んでもよい。ユーザ配向モジュールは、エンドユーザ50の頭部54の瞬間位置を検出し(例えば、フレーム102に結合されるセンサを介して)、センサから受信された位置データに基づいて、エンドユーザ50の頭部54の位置を予測してもよい。エンドユーザ50の頭部54の瞬間位置を検出することは、エンドユーザ50が見ている、具体的な実際のオブジェクトの決定を促進し、それによって、その実際のオブジェクトに関連して生成されるべき具体的な仮想オブジェクトのインジケーションを提供し、さらに、仮想オブジェクトが表示される位置のインジケーションを提供する。ユーザ配向モジュールはまた、センサから受信された追跡データに基づいて、エンドユーザ50の眼を追跡してもよい。
【0096】
画像ディスプレイデバイス101はまた、多種多様な形態のいずれかをとり得る、制御サブシステムを含んでもよい。制御サブシステムは、いくつかのコントローラ、例えば、1つまたはそれを上回るマイクロコントローラ、マイクロプロセッサまたは中央処理ユニット(CPU)、デジタル信号プロセッサ、グラフィック処理ユニット(GPU)、特定用途向け集積回路(ASIC)等の他の集積回路コントローラ、プログラマブルゲートアレイ(PGA)、例えば、フィールドPGA(FPGA)、および/またはプログラマブル論理コントローラ(PLU)を含む。
【0097】
画像ディスプレイデバイス101の制御サブシステムは、中央処理ユニット(CPU)と、グラフィック処理ユニット(GPU)と、1つまたはそれを上回るフレームバッファと、3次元場面データを記憶するための3次元データベースとを含んでもよい。CPUは、全体的動作を制御してもよい一方、GPUは、3次元データベース内に記憶される3次元データからフレームをレンダリングし(すなわち、3次元場面を2次元画像に変換し)、これらのフレームをフレームバッファ内に記憶してもよい。1つまたはそれを上回る付加的集積回路は、フレームバッファの中へのフレームの読込およびそこからの読出およびディスプレイサブシステム110の画像投影アセンブリの動作を制御してもよい。
【0098】
画像ディスプレイデバイス101の種々の処理コンポーネントは、分散型サブシステム内に物理的に含有されてもよい。例えば、
図1-4に図示されるように、画像ディスプレイデバイス101は、有線導線または無線コネクティビティ136等によって、ディスプレイサブシステム110およびセンサに動作可能に結合される、ローカル処理およびデータモジュール130を含んでもよい。ローカル処理およびデータモジュール130は、フレーム構造102(
図1)に固定して取り付けられる、ヘルメットまたは帽子56(
図2)に固定して取り付けられる、エンドユーザ50の胴体58に除去可能に取り付けられる(
図3)、またはベルト結合式構成においてエンドユーザ50の腰部60に除去可能に取り付けられる(
図4)等、種々の構成において搭載されてもよい。画像表示デバイス101はまた、これらの遠隔モジュール132、134が、相互に動作可能に結合され、ローカル処理およびデータモジュール130へのリソースとして利用可能であるように、有線導線または無線コネクティビティ138、140等によってローカル処理およびデータモジュール130に動作可能に結合される、遠隔処理モジュール132および遠隔データリポジトリ134を含んでもよい。
【0099】
ローカル処理およびデータモジュール130は、電力効率的プロセッサまたはコントローラおよびフラッシュメモリ等のデジタルメモリを備えてもよく、その両方とも、可能性として、処理または読出後に、ディスプレイサブシステム110への通過のために、センサから捕捉された、かつ/または、遠隔処理モジュール132および/または遠隔データリポジトリ134を使用して入手および/または処理された、データの処理、キャッシュ、および記憶を補助するために利用されてもよい。遠隔処理モジュール132は、データおよび/または画像情報を分析および処理するように構成される、1つまたはそれを上回る比較的に強力なプロセッサまたはコントローラを備えてもよい。遠隔データリポジトリ134は、比較的に大規模なデジタルデータ記憶設備を備えてもよく、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュール130において実施され、任意の遠隔モジュールからの完全に自律的な使用を可能にする。
【0100】
上記に説明される種々のコンポーネント間の結合136、138、140は、ワイヤまたは光学連通を提供するための1つまたはそれを上回る有線インターフェースまたはポート、または無線通信を提供するためのRF、マイクロ波、およびIR等を介した、1つまたはそれを上回る無線インターフェースまたはポートを含んでもよい。いくつかの実装では、全ての通信は、有線であってもよい一方、他の実装では、全ての通信は、無線であってもよい。なおもさらなる実装では、有線および無線通信の選択肢は、
図1-4に図示されるものと異なり得る。したがって、有線または無線通信の特定の選択肢は、限定と見なされるべきではない。
【0101】
いくつかの実施形態では、ユーザ配向モジュールは、ローカル処理およびデータモジュール130内に含有される一方、CPUおよびGPUは、遠隔処理モジュール内に含有される。代替実施形態では、CPU、GPU、またはその一部は、ローカル処理およびデータモジュール130内に含有されてもよい。3Dデータベースは、遠隔データリポジトリ134と関連付けられる、またはローカルで配置されることができる。
【0102】
いくつかの画像ディスプレイシステム(例えば、VRシステム、ARシステム、MRシステム等)は、個別の深度面から生じるように現れる画像を生成するための深度面情報を内蔵する、複数の体積位相ホログラム、表面レリーフホログラム、または光誘導光学要素を使用する。換言すると、回折パターンまたは回折光学要素(「DOE」)が、コリメートされた光(略平面波面を伴う光ビーム)が、LOEに沿って実質的に全内部反射されるにつれて、複数の場所において回折パターンと交差し、ユーザの眼に向かって出射するように、光誘導光学要素(「LOE」、例えば、平面導波管)内に内蔵される、またはその上にインプリント/エンボス加工されてもよい。DOEは、特定の深度面から生じるように現れるように、それを通してLOEから出射する光が輻輳されるように構成される。コリメートされた光は、光学集光レンズ(「集光器」)を使用して生成されてもよい。
【0103】
例えば、第1のLOEは、光学無限遠深度面(0ジオプタ)から生じるように現れる、コリメートされた光を眼に送達するように構成されてもよい。別のLOEは、2メートルの距離(1/2ジオプタ)から生じるように現れる、コリメートされた光を送達するように構成されてもよい。さらに別のLOEは、1メートルの距離(1ジオプタ)から生じるように現れる、コリメートされた光を送達するように構成されてもよい。スタックされたLOEアセンブリを使用することによって、複数の深度面が、作成され得、各LOEは、特定の深度面から生じるように現れる、画像を表示するように構成されることを理解されたい。スタックは、任意の数のLOEを含んでもよいことを理解されたい。しかしながら、少なくともN個のスタックされたLOEが、N個の深度面を生成するために要求される。さらに、N、2N、または3N個のスタックされたLOEが、RGBカラー画像をN個の深度面に生成するために使用されてもよい。
【0104】
3D仮想コンテンツをユーザに提示するために、画像ディスプレイシステム100(例えば、VRシステム、ARシステム、MRシステム等)は、それらがZ方向に(すなわち、ユーザの眼から離れるように直交して)種々の深度面から生じるように現れるように、仮想コンテンツの画像をユーザの眼の中に投影する。換言すると、仮想コンテンツは、XおよびY方向(すなわち、ユーザの眼の中心視軸に直交する、2D面)において変化し得るだけではなく、また、ユーザが、オブジェクトが、非常に近接して、または無限距離に、またはその間の任意の距離にあるように知覚し得るように、Z方向においても変化するように現れ得る。他の実施形態では、ユーザは、複数のオブジェクトを、同時に、異なる深度面において知覚し得る。例えば、ユーザには、仮想ドラゴンが、無限遠から現れ、ユーザに向かって走って来るように見え得る。代替として、ユーザには、同時に、ユーザから3メートル離れた距離における仮想鳥と、ユーザから腕の長さ(約1メートル)における仮想コーヒーカップとが見え得る。
【0105】
多面焦点システムは、画像をユーザの眼からZ方向における個別の固定距離に位置する複数の深度面のいくつかまたは全て上に投影することによって、可変深度の知覚を作成する。ここで
図5を参照すると、多面焦点システムは、フレームを固定された深度面150(例えば、
図5に示される6つの深度面150)に表示し得ることを理解されたい。MRシステムは、任意の数の深度面150を含むことができるが、1つの例示的多面焦点システムは、6つの固定された深度面150をZ方向に有する。仮想コンテンツを6つの深度面150のうちの1つまたはそれを上回るものに生成する際、3D知覚が、ユーザがユーザの眼からの可変距離における1つまたはそれを上回る仮想オブジェクトを知覚するように作成される。ヒトの眼が、遠く離れてあるように現れるオブジェクトより距離が近いオブジェクトにより敏感であることを前提として、より多くの深度面150が、
図5に示されるように、眼のより近くに生成される。いくつかの実施形態では、深度面150は、相互から離れるように等距離に設置されてもよい。
【0106】
深度面位置150は、メートル単位で測定される焦点距離の逆数に等しい屈折力の単位である、ジオプタ単位で測定されてもよい。例えば、いくつかの実施形態では、深度面1は、1/3ジオプタ離れてもよく、深度面2は、0.3ジオプタ離れていてもよく、深度面3は、0.2ジオプタ離れていてもよく、深度面4は、0.15ジオプタ離れていてもよく、深度面5は、0.1ジオプタ離れてもよく、深度面6は、無限遠(すなわち、0ジオプタ離れる)を表し得る。他の実施形態は、深度面150を他の距離/ジオプタに生成してもよいことを理解されたい。したがって、仮想コンテンツを方略的に設置された深度面150に生成する際、ユーザは、仮想オブジェクトを3次元で知覚することが可能である。例えば、ユーザは、別の仮想オブジェクトが深度面6における無限遠に現れる間、第1の仮想オブジェクトが深度面1内に表示されるとき、それを近くにあると知覚し得る。代替として、仮想オブジェクトは、最初に、深度面6に、次いで、深度面5に、そして、仮想オブジェクトがユーザの非常に近く現れるまでそのように続くように表示されてもよい。上記の実施例は、例証目的のために有意に簡略化されていることを理解されたい。別の実施形態では、全6つの深度面は、ユーザから離れるように特定の焦点距離上に集中されてもよい。例えば、表示されるべき仮想コンテンツが、ユーザから0.5メートル離れたコーヒーカップである場合、全6つの深度面は、コーヒーカップの種々の断面において生成され、ユーザに、コーヒーカップの高粒度の3Dビューを与え得る。
【0107】
いくつかの実施形態では、画像ディスプレイシステム100(例えば、VRシステム、ARシステム、MRシステム等)は、多面焦点システムとして機能してもよい。換言すると、全6つのLOEは、6つの固定された深度面から生じるように現れる画像が、高速で連続して生成されるように、同時に照明されてもよく、光源は、画像情報をLOE1、次いで、LOE2、次いで、LOE3等に急速に伝達する。例えば、光学無限遠における空の画像を含む、所望の画像の一部は、時間1において投入されてもよく、光のコリメーションを留保する、LOE(例えば、
図5からの深度面6)が、利用されてもよい。次いで、より近い木の枝の画像が、時間2において投入されてもよく、10メートル離れて深度面から生じるように現れる画像を作成するように構成される、LOE(例えば、
図5からの深度面5)が、利用されてもよい。次いで、ペンの画像が、時間3において投入されてもよく、1メートル離れて深度面から生じるように現れる画像を作成するように構成される、LOEが、利用されてもよい。本タイプのパラダイムは、ユーザの眼および脳(例えば、視覚野)が入力を同一画像の全ての部分であると知覚するように、高速時間シーケンシャル(例えば、360Hz)方式で繰り返されることができる。
【0108】
画像ディスプレイシステム100は、Z軸(すなわち、深度面)に沿って種々の場所から生じるように現れ、3D体験/シナリオのための画像を生成する、画像を投影してもよい(すなわち、光ビームを発散または収束させることによって)。本願で使用されるように、光ビームは、限定ではないが、光源から照射される光エネルギー(可視および不可視光エネルギーを含む)の指向性投影を含む。種々の深度面から生じるように現れる、画像を生成することは、その画像のためのユーザの眼の輻輳・開散運動および遠近調節に一致し、輻輳・開散運動-遠近調節競合を最小限にまたは排除する。
【0109】
いくつかの実施形態では、画像ディスプレイシステム100はまた、ユーザが情報を入力することを可能にする、ユーザ入力デバイスを含んでもよい。ユーザ入力デバイスは、タッチパッド、マウス、ジョイスティック、ボタン、スイッチ、ノブ、ハンドヘルドコントローラ、カメラ、深度センサ等、またはユーザのアクションを検出することが可能である、任意のデバイスであってもよい。ある場合には、ユーザ入力デバイスは、ユーザの音声を入力として検出するように構成される、マイクロホンであってもよい。また、いくつかの実施形態では、ユーザ入力デバイスは、ユーザ入力に基づいて、1つまたはそれを上回る信号を生成し、画像ディスプレイデバイス101によって表示される1つまたはそれを上回る要素を制御するように構成される。
【0110】
図6は、画像ディスプレイデバイス101が、画像ディスプレイデバイス101のユーザ50を位置特定することを可能にするための、マップを決定するための方法を図示する。図に示されるように、ユーザ50が、画像ディスプレイデバイス101を使用しているとき、ユーザ50は、異なる視認場所および/または方向を達成するために、画像ディスプレイデバイス101を移動させることができる。例えば、ユーザ50は、その頭部を旋回させ、その身体を旋回させ、かつ/または異なる場所に歩行し得る。いくつかの実施形態では、画像ディスプレイデバイス101は、前方に向いたカメラを含む。したがって、画像ディスプレイデバイス101を移動させることによって、画像ディスプレイデバイス101の前方に向いたカメラの視野は、適宜、変化するであろう。ユーザ50が、異なる姿勢にある間、画像ディスプレイデバイス101のカメラは、対応する画像を生成する。図示される実施例では、ユーザ50は、その頭部を旋回させることによって、3つの異なる姿勢を達成し、画像ディスプレイデバイス101の前方に向いたカメラは、3つの姿勢と対応する、3つの画像200a-200cを生成する。画像200a-200cはそれぞれ、環境内で特定のオブジェクト202を捕捉する。例えば、画像200bは、オブジェクト202a-202dを捕捉し、画像200cは、オブジェクト202b-202eを捕捉する。ユーザ50によって達成される姿勢に応じて、環境内のあるオブジェクトが、カメラの複数の画像202内に捕捉され得、ある他のオブジェクトは、1つのみの画像200内に捕捉され得る。いくつかの実施形態では、画像ディスプレイデバイス101の処理ユニット130は、画像200を画像ディスプレイデバイス101のカメラから取得し、画像処理を実施し、特徴(例えば、角、縁、ユーザ定義特徴等)を画像200から抽出し、マップ220を作成するように構成される。マップ200は、画像ディスプレイデバイス101の非一過性媒体内に記憶されてもよく、処理ユニット130によって使用され、ユーザ50の位置特定を実施してもよい。したがって、マップ220は、位置特定マップとして機能する。図示される実施形態では、マップ220は、ユーザ50の異なる姿勢によって検出された環境の3次元表現である。
【0111】
いくつかの実施形態では、ユーザ50を囲繞する環境は、複数のセルに分割されてもよい。そのような場合、上記のマップ作成技法が、環境の異なるセルのために採用されてもよい。
図7は、複数のセル300に分割されている環境の実施例を図示する。各セル300は、環境の一部を表す、定義された3次元空間である。各セル300は、所定のサイズおよび形状を有してもよい。例えば、各セル300は、2m×2mの占有面積と、2mの高さとを有してもよい。各セル300は、他の実施形態では、他の占有面積寸法および/または他の高さを有してもよい。また、他の実施形態では、各セル300は、示される矩形構成を有していなくてもよく、他の形状を有してもよい。図示される実施形態では、セル300は全て、同一形状および寸法を有する。他の実施形態では、セル300のうちの少なくとも2つは、異なる個別の寸法および/または形状を有してもよい。
【0112】
いくつかの実施形態では、画像ディスプレイデバイス101のユーザ50は、異なるセル300に対応する環境内の異なる場所に向かってもよく、画像ディスプレイデバイス101のカメラを使用して、対応するセル内の空間を走査し、環境の個別のセルのための異なるマップを取得してもよい。マップは、画像ディスプレイデバイス101の処理ユニット130がユーザ50の位置特定を実施することを可能にするために、画像ディスプレイデバイス101の非一過性媒体内に記憶されてもよい。
【0113】
ユーザ50を位置特定するための位置特定マップの使用の間、画像ディスプレイデバイス101のカメラは、ユーザ50のある位置および配向に基づいて、環境の画像を捕捉する。そのようなカメラ画像は、画像ディスプレイデバイス101の処理ユニット130が、ユーザ50の位置を追跡することを可能にするための追跡画像(追跡マップ)としての役割を果たす。特に、画像ディスプレイデバイス101の処理ユニット130は、カメラからの画像を処理し、画像内の特徴(例えば、角、縁、ユーザ定義特徴等)がマップ220内の特徴とマッチングするかどうかを決定する。マッチングが、見出される場合、処理ユニット130は、次いで、マッチングされる特徴に基づいて、ユーザ50の位置および配向を決定してもよい。いくつかの実施形態では、マップ220は、画像ディスプレイデバイス101のカメラによって提供された追跡画像より少ない情報(例えば、特徴)を含有してもよい。これは、処理ユニット130が、追跡画像とマップ220を効率的にマッチングさせることを可能にするため、有利である。また、いくつかの実施形態では、マップ220は、「規準マップ」と呼ばれ得る。位置特定を実施するとき、処理ユニット130は、特徴抽出を実施し、特徴をカメラ画像(追跡画像)から抽出し、特徴と規準マップ内のものをマッチングさせる。一実装では、処理ユニット130は、追跡画像と規準マップとの間の6自由度変換を見出し、ユーザ50を位置特定するように構成される。いったんユーザ50が、マップを使用して、その環境に対して正常に位置特定され得ると、処理ユニット130は、次いで、ユーザが、マップを使用して、仮想コンテンツを環境に対して設置し、仮想コンテンツを前のセッションから読み出し、仮想コンテンツを他のユーザと共有すること等を行うことを可能にし得る。
【0114】
画像ディスプレイデバイス101の使用の間、処理ユニット130は、画像ディスプレイデバイス101のカメラシステムによって提供される画像内の角検出を実施する必要があり得る。例えば、いくつかの実施形態では、カメラ画像を使用してマップ220を決定するとき、処理ユニット130は、これらの画像内の角を検出し得る。検出された角は、処理ユニット130によって、マップ220を構築するための特徴として利用されてもよい。代替として、または加えて、マップ220を決定するとき、処理ユニット130は、縁またはユーザ定義特徴等の他の特徴を検出してもよい。また、マップ220を使用して位置特定を実施するとき、処理ユニット130は、リアルタイム入力画像内の特徴とマップ220の特徴をマッチングさせる必要があり得る。故に、処理ユニット130は、リアルタイム入力画像内で角、縁、ユーザ定義特徴等の特徴を検出するように構成されてもよい。角は、角が、概して、異なる視認方向から検出可能であるという意味において、概して、より安定した特徴である。故に、画像内の角の検出能力は、視点の変化によって有意に影響され得ない。したがって、角は、入力画像とマップ220との間でマッチングさせるための良好な特徴である。角はまた、異なる時間および異なる視認方向で生成された画像間のステレオマッチングにおいて使用するための良好な特徴である。
【0115】
2D要素の3Dモデル
【0116】
図8は、いくつかの実施形態による、画像ディスプレイデバイス101の処理ユニット130を図示する。図に示されるように、処理ユニット130は、ユーザ入力インターフェース410と、通信デバイス420と、グラフィック生成器430と、非一過性媒体450と、位置入力インターフェース460とを含む。ユーザ入力インターフェース410は、ユーザ入力デバイスから伝送される、ユーザ入力を受信するように構成される。
【0117】
ユーザ入力インターフェース410は、ユーザ入力デバイスとインターフェースをとるように構成される。非限定的実施例として、ユーザ入力デバイスは、タッチスクリーン、タッチパッド、マウス、ジョイスティック、1つまたはそれを上回るボタン、キーボード、ノブ、ハンドヘルドコントローラ、マイクロホン、カメラ、深度センサ、またはユーザ入力を検出するように構成される、任意のデバイスであってもよい。ユーザ入力デバイスは、ユーザ入力(例えば、ユーザのアクション、ユーザのジェスチャ、オーディオコマンド等)を検出し、検出されたユーザ入力に応答して、信号を生成するように構成される。信号は、次いで、ユーザ入力インターフェース410を介して、処理ユニット130に伝送される。
【0118】
他の実施形態では、ユーザ入力インターフェース410は、処理ユニット130の外側に実装されてもよい。そのような場合、処理ユニット130は、ユーザ入力インターフェース410を含まない。
【0119】
通信デバイス420は、別のデバイス(例えば、画像ディスプレイデバイスのコンポーネント、サーバ、基地局、遠隔コンピューティングデバイス等)から伝送される、データを受信するように構成される。データの伝送は、無線伝送および/または有線伝送であってもよい。いくつかの実施形態では、通信デバイス420は、データを無線で受信するように構成される、送受信機および/またはアンテナであってもよい。他の実施形態では、通信デバイス420は、ケーブルを介して、データを受信するように構成される、通信ポート(例えば、コネクタ)であってもよい。さらなる実施形態では、通信デバイス420は、無線で、またはケーブルを介して、別のデバイス(例えば、コンポーネント)から伝送される、データを受信するように構成される、任意の通信インターフェース(例えば、ソフトウェア通信インターフェースおよび/またはハードウェア通信インターフェース)であってもよい。また、いくつかの実施形態では、通信デバイス420は、画面480によって表示されるべき要素に関するデータを取得してもよい。画面480によって表示されるべき要素は、いくつかの実施形態では、2D要素(例えば、オブジェクトの画像)であってもよい。非限定的実施例として、オブジェクトの画像は、オブジェクトの写真、コンピュータ生成画像、ページ(例えば、ウェブページ)のコンテンツ、またはユーザに視覚的に提示され得る、任意のコンテンツであってもよい。また、いくつかの実施形態では、表示されるべき要素に関するデータは、2D要素(例えば、画像データ)と関連付けられる、3Dモデルに関する情報であってもよい。3Dモデルに関する情報は、3Dモデル自体のデータ、そこから3Dモデルが読み出され得るアドレス、3Dモデルのメモリ記憶場所、またはそこから3Dモデルが導出され得る、任意のデータであってもよい。
【0120】
他の実施形態では、通信デバイス420は、処理ユニット130の外側に実装されてもよい。そのような場合、処理ユニット130は、通信デバイス420を含まない。
【0121】
グラフィック生成器430は、画面480による表示のためのグラフィックを生成するように構成される。いくつかの実施形態では、グラフィック生成器430は、通信デバイス420によって受信されたデータに基づいて、グラフィック(例えば、1つまたはそれを上回る2D要素)を生成してもよく、画面480による表示のために、グラフィックを出力してもよい。代替として、または加えて、グラフィック生成器430はまた、データを非一過性媒体450から読み出し、読み出されたデータに基づいて、グラフィックを生成してもよい。また、いくつかの実施形態では、グラフィック生成器430は、3Dモデルを取得してもよく、3Dモデルに基づいて、グラフィックを生成してもよい(画面480による表示のために)。3Dモデルは、通信デバイス420を介して、処理ユニット130によって取得されてもよく、かつ/または処理ユニット130がそれを非一過性媒体450から読み出すことによって取得されてもよい。本明細書で使用されるように、用語「3Dモデル」は、オブジェクトの3D構成、オブジェクトの3D表現、3Dオブジェクト自体、またはオブジェクトの3D構成または3D表現に関する情報を表す、またはそれを導出するために使用され得る、任意のデータを指し得ることに留意されたい。例えば、いくつかの実施形態では、3Dモデルは、オブジェクトの形状および幾何学形状に関連するデータを含んでもよい。
【0122】
非一過性媒体450は、処理ユニット130の動作および/または機能性に関連する情報を記憶するように構成される。いくつかの実施形態では、通信デバイス420から受信されたデータは、非一過性媒体450内に記憶されてもよい。非一過性媒体450内に記憶されるデータは、画面480による表示のために、グラフィック生成器430によって処理され、グラフィックを生成し得る、コンテンツデータであってもよい。非一過性媒体450はまた、2D要素と関連付けられる、3Dモデルに関する情報を記憶してもよい。非一過性媒体450内に記憶される、3Dモデルに関する情報は、3Dモデル自体のデータ、そこから3Dモデルが読み出され得るアドレス、3Dモデルのメモリ記憶場所、またはそこから3Dモデルが導出され得る、任意のデータであってもよい。非一過性媒体450は、キャッシュ、メモリユニット、レジスタ、またはデータを一時的に(例えば、処理ユニット130の動作の間または使用の間)またはより長期にわたって(例えば、デバイスがオフにされるときでも、データを記憶する)記憶することが可能である、任意の記憶デバイスであってもよい。
【0123】
他の実施形態では、非一過性媒体450は、処理ユニット130の外側に実装されてもよい。そのような場合、処理ユニット130は、非一過性媒体450を含まない。
【0124】
位置入力インターフェース460は、ユーザの場所および/または配向に関する情報を受信するように構成される。いくつかの実施形態では、位置入力インターフェース460は、位置特定センサ(例えば、GPSデバイス)および/または配向センサ(例えば、加速度計、ジャイロスコープ等)とインターフェースをとるように構成されてもよい。位置入力インターフェース460は、ユーザの場所および/または配向に関する情報を取得し、情報をグラフィック生成器430に伝送する。そのような場合、グラフィック生成器430は、ユーザの場所および/または配向に関する情報に基づいて、グラフィックを生成するように構成されてもよい。例えば、グラフィック生成器430は、ユーザの場所および配向に基づいて、オブジェクトのビューを表す、グラフィックを生成するように構成されてもよい。そのような場合、ユーザがその周囲環境に対して移動するにつれて、グラフィック生成器430は、グラフィックを調節し、オブジェクトのビューがユーザの場所および/または配向に従って変化する、外観を提供してもよい。ユーザの場所および/または配向に関する情報に基づいて、グラフィックを生成することの代替として、またはそれに加え、位置入力インターフェース460は、記憶のために、ユーザの場所および/または配向に関する情報を非一過性媒体450に伝送してもよい。
【0125】
他の実施形態では、位置入力インターフェース460は、処理ユニット130の外側に実装されてもよい。そのような場合、処理ユニット130は、位置入力インターフェース460を含まない。
【0126】
処理ユニット130の1つまたはそれを上回るコンポーネントは、ハードウェア、ソフトウェア、または両方の組み合わせを使用して実装されてもよい。特に、ユーザ入力インターフェース410、通信デバイス420、グラフィック生成器430、位置入力インターフェース460、または前述の任意の組み合わせは、ハードウェア、ソフトウェア、または両方の組み合わせを使用して実装されてもよい。ハードウェアは、導体、集積回路、1つまたはそれを上回るハードウェアプロセッサ等を含んでもよい。ソフトウェアは、スクリプト、コマンド、アプリケーション、プログラム等の任意のコーディングを含んでもよい。
【0127】
画像ディスプレイデバイス101の使用の間、処理ユニット130は、通信デバイス420を介して、データを取得する。データは、サーバ、クラウドコンピューティングシステム、基地局、または直接または間接的に、画像ディスプレイデバイス101と通信し得る、他のデバイスのいずれか等の任意のデバイスから伝送されてもよい。いくつかの実施形態では、通信デバイス420は、1つまたはそれを上回る2D要素に関するデータを取得してもよい。グラフィック生成器430は、1つまたはそれを上回る2D要素に関するデータに基づいて、グラフィックを生成し、画面480による表示のために、グラフィックを出力する。
図9Aは、画像ディスプレイデバイスの画面902によって提示される、2D要素の実施例を図示する。画面902は、画面480の実施例(例えば、ディスプレイサブシステム110)であってもよい。図示される実施例では、画面902は、画像ディスプレイデバイスのユーザによって装着されるために構成される。画面902は、少なくとも部分的に、透明であって、ユーザがその周囲環境を視認することを可能にする。図に示されるように、ユーザには、画面902を通して、テーブル920がその周囲環境内に見え得る。テーブル920は、実際の物理的オブジェクトである。他の実施形態では、画面902は、透明ではなく、ユーザは、画面を通して、周囲環境を視認することができない。画面902はまた、ユーザによって視認するためのグラフィック(例えば、オブジェクト画像)である、2D要素904、906、908を表示する。画面902はさらに、カーソル910を表示し、これは、ユーザ入力デバイスを介して、ユーザによって制御可能である。
【0128】
図9Bに示されるように、ユーザは、ユーザ入力デバイスを動作させ、カーソル910が2D要素906(図示される実施例では、携帯電話の画像である)に向いているように、カーソル910を移動させてもよい。カーソル910が2D要素906に対して関連付けられる位置にあることに応答して、処理ユニット130は、次いで、画面902による表示のために、(例えば、グラフィック生成器430によって生成された)インジケータ930を提供する。インジケータ930は、ユーザに、2D要素906は、読み出され得る、関連付けられる3Dモデルを有することを示す。ユーザが、2D要素906(例えば、2D要素906上をダブルクリックすることによって、長押しすることによって、オーディオコマンドを提供することによって等)を選択する場合、処理ユニット130は、次いで、2D要素906と関連付けられる、3Dモデルを取得する。いくつかの実施形態では、処理ユニット130は、モデルを取得する、例えば、モデルを非一過性媒体から読み出し、かつ/または3Dモデルパラメータに基づいて、3Dモデルを生成するように構成される、3Dモデル抽出器を含んでもよい。また、いくつかの実施形態では、3Dモデル抽出器は、グラフィック生成器430の一部として実装されてもよい。他の実施形態では、3Dモデル抽出器は、グラフィック生成器430と別個である、別個のコンポーネントとして実装されてもよい。例えば、そのような場合、3Dモデル抽出器は、ユーザ入力インターフェース410とグラフィック生成器430との間に結合されてもよい。使用の間、ユーザ入力インターフェースからの入力に基づいて、3Dモデル抽出器は、3Dモデルを取得し、3Dモデルに基づいて、グラフィックを生成するために、それをグラフィック生成器430に通過させる。3Dモデル抽出器はまた、通信デバイス420を介して、情報(例えば、3Dモデル、3Dモデルパラメータ等)を外部デバイスから受信し得るように、通信デバイス420に結合されてもよい。
【0129】
いくつかの実施形態では、処理ユニット130は、画面902による表示のために、アクセスされる3Dモデルに基づいて、グラフィック(例えば、表示されるオブジェクト)を提供するように構成される。例えば、
図9Cに示されるように、グラフィックは、3Dモデルに基づいてレンダリングされる、オブジェクト950であってもよい。いくつかの実施形態では、オブジェクト950は、ユーザによって選択された2Dオブジェクト906の3Dバージョンであってもよい。いくつかの実施形態では、オブジェクト950は、3Dモデルに基づいて、処理ユニット130によって生成されてもよい。また、いくつかの実施形態では、3Dモデルに基づいて生成されたオブジェクト950は、3Dモデル自体であってもよい。
【0130】
また、いくつかの実施形態では、3Dモデルが取得された後、ユーザは、3Dモデルに基づいて、オブジェクト950を位置付け(例えば、1つまたはそれを上回る方向に)、かつ/またはオブジェクト950を回転させてもよい(例えば、1つまたはそれを上回る軸を中心として)。例えば、
図9C-9Dに示されるように、ユーザは、カーソル910を使用して、オブジェクト950を選択し、オブジェクト950を画面902を通して視認されるような環境に対して特定の場所に移動させてもよい。ユーザはまた、ユーザ入力デバイスを動作させ、回転軸を定義し、オブジェクト950を回転させてもよい。オブジェクト950の回転を定める、(ユーザ入力デバイスから受信された)信号に応答して、グラフィック生成器は、オブジェクト950の配向が変化されるように、3Dモデルに基づいて、オブジェクト950をレンダリングする。図示される実施例では、オブジェクト950は、オブジェクト950がオブジェクト920の上部に設置されるように現れるように、画面902を通して視認される際、実オブジェクト920(実施例では、テーブル)に対して位置付けられる。他の実施形態では、オブジェクト520は、実オブジェクトの背後に仮想的に設置されてもよい。また、他の実施形態では、オブジェクト520は、別の仮想オブジェクトの正面に、または別の仮想オブジェクトの背後に、設置されてもよい。いくつかの実施形態では、ユーザは、ユーザ入力デバイスを動作させ、オブジェクトを別のオブジェクト(仮想オブジェクトまたは実オブジェクトであってもよい)の背後または正面に設置するかどうかを選択してもよい。
【0131】
いくつかの実施形態では、処理ユニット130は、以下の動作、すなわち、コンピューティングシステム上で実行されるアプリケーション(例えば、ブラウザ)によって提示される(例えば、2D)要素を識別する、コマンド(例えば、長保持)を受信することであって、コマンドは、要素と関連付けられる(例えば、3D)モデルへのアクセスを要求する、ことと、コマンドに応答して、コンピューティングシステムによって提示される環境への追加のために、モデルを提供することと、1つまたはそれを上回る付加的コマンドを受信し、モデルを環境内の位置に(例えば、環境内の実世界または仮想オブジェクト上またはその近くに)設置することとのうちの1つまたはそれを上回るものを、任意の好適な順序において、および/または順次または並列に実施されるように、実施するように構成されてもよい。
【0132】
上記の実施例では、2D要素904、906、908は、ユーザによる選択のために、グラフィカルオブジェクトとして画面902内に提示される。他の実施形態では、2D要素は、ウェブページ等のページに提示される、任意の特徴であってもよい。
図9Eは、2D要素960、962を含む、ページの実施例を図示する。図示される実施例では、ページは、ウェブページであって、2D要素960、962は、ウェブページに提示されるコンテンツである。2D要素960、962は、ユーザが、対応する2D要素960、962を選択することによって、そのようなモデルを読み出し得るように、個別の3Dモデルと関連付けられる。2D要素960、962のうちの1つが、ユーザによって選択されると、処理ユニット130は、対応する3Dモデルを取得し、3Dモデルに基づいて、グラフィックを提供する。いくつかの実施形態では、グラフィックは、画面902による表示のための選択された2D要素の3Dバージョンであってもよい。例えば、グラフィックは、3Dモデルに基づいてレンダリングされたオブジェクトであってもよい。処理ユニット130はまた、オブジェクト(選択された2D要素の3Dバージョン)を設置するための所望の位置を示す、入力をユーザから受信してもよい。所望の位置は、画面902の座標系に対する場所、および/または画面902を通して提示される際、オブジェクトを別のオブジェクト(例えば、仮想オブジェクトまたは実オブジェクト)の正面または背後に設置するかどうかを示してもよい。処理ユニット130のグラフィック生成器430は、次いで、対応するグラフィックを生成し、オブジェクトの移動および設置を示す。例えば、オブジェクト(2D要素の3Dバージョン)が、ユーザによって、実オブジェクトの「背後」に仮想的に設置されるように事前に規定される場合、グラフィック生成器430は、次いで、実オブジェクトの背後にあるように現れるように、オブジェクトの画像を構成してもよい(例えば、実オブジェクトによる視野内で遮断される、その一部を除去する)。
【0133】
処理ユニット130はまた、(3Dモデルに基づいて生成された)オブジェクトの所望の配向を示す、入力をユーザから受信してもよい。例えば、ユーザは、ユーザ入力デバイスを動作させ、ディスプレイデバイス101によって提示される際、オブジェクトを環境に対して回転させてもよい。ユーザ入力デバイスは、対応するユーザ入力信号を生成し、これは、ユーザ入力インターフェース410を介して、処理ユニット130によって受信される。グラフィック生成器430は、次いで、ディスプレイデバイス101によって提示される際、オブジェクトが環境に対して回転されるように、オブジェクトを調節する。
【0134】
処理ユニット130は、ユーザの場所および/または配向に基づいて、(3Dモデルに基づいて生成された)オブジェクトを繰り返し更新してもよい。特に、ユーザの場所および/または配向に関する情報は、位置入力インターフェース460によって受信されてもよい。そのような情報および3Dモデルに基づいて、グラフィック生成器430は、次いで、オブジェクト上の視認目線がユーザの視認方向と対応して変化するように現れるように、オブジェクトを調節してもよい。
【0135】
いくつかの実施形態では、ページの開発者(
図9Eのページの実施例等)は、要素のモデルが、ユーザによって読み出され、提示される環境内のいずれかの場所に設置され得るように、要素(例えば、要素960/962)が抽出可能モデル(例えば、3Dモデル)と関連付けられることを規定することができる。いくつかの実施形態では、要素が抽出可能モデルと関連付けられることを規定することは、ページのマークアップ言語を修正し、要素を抽出可能モデルと関連付けられるものとして指定する、特定のメタデータ(例えば、タグ、フィールド、または属性)を追加することを含む。ページが、レンダリングされると、メタデータは、ユーザが要素上をクリックするとき等、ユーザがアクションを実施すると、モデルの抽出を有効にする。いくつかの実施形態では、メタデータは、モデルが関連付けられる要素から抽出可能であることを示す、トグルまたはフラグ(例えば、真または偽)である。
【0136】
いくつかの実施形態では、モデルは、ページ記述子情報とともに、前もって作成および記憶され(例えば、ウェブサーバ上に)、モデルは、ユーザがモデルを抽出するための指定されるアクションを実施すると、利用可能となり、システムに通信される。そのような実施例では、ページに関するメタデータはまた、そこからモデルが読み出され得る、場所(例えば、モデルまでのパス)を示してもよい。いくつかの実施形態では、モデルは、ユーザが指定されたアクションを実施すると、動的に生成され、システムに通信されてもよい。そのようなインスタンスでは、動的に生成されたモデルは、モデルのための後続要求に応答して、ダウンロードのために容易に利用可能であるために、少なくともある期間にわたって、キャッシュされてもよい。いくつかの実施例では、モデルは、ページがブラウザ内にロードされると、ロードされ、かつ/または別様に利用可能になってもよい。モデルはまた、アプリケーションプログラミングインターフェース(API)に対して行われる要求を通して、読み出されてもよい。ページ内の任意の好適なタイプまたは数の(例えば、2D)要素が、3Dモデルとして抽出可能であるものとして指定されてもよい。
【0137】
いくつかの実施形態では、3Dモデルは、それらが1つまたはそれを上回るHTML要素のためにアクセス可能であるように、HTML要素のために実装されてもよい。
図10A-10Bは、HTML要素と関連付けられる、3Dモデルの1つまたはそれを上回る実施形態の実装の実施例を図示する。
【0138】
処理ユニットおよび/または処理ユニット内のアプリケーションによって実施される方法
【0139】
図11は、いくつかの実施形態による、方法1100を図示する。方法1000は、ユーザによって頭部に装着されるために構成される、装置によって実施されてもよく、装置は、ユーザのためにグラフィックを提示するように構成される、画面と、処理ユニットとを有する。いくつかの実施形態では、方法1100は、
図1-4に示される画像ディスプレイデバイス101のいずれかによって実施されてもよい。例えば、方法1100は、画像ディスプレイデバイス101の処理ユニット130によって実施されてもよい。方法1100は、ユーザによって装着されるために構成される、画面によって、2次元(2D)要素を表示すること(アイテム1102)と、画面によって表示される2D要素を選択するためのユーザに入力に応答して、ユーザ入力デバイスによって生成された信号を受信すること(アイテム1104)と、生成された信号に応答して、2D要素と関連付けられる、3次元(3D)モデルを取得すること(アイテム1106)とを含む。
【0140】
随意に、方法1100では、信号は、ダブルクリックアクション、長押しアクション、長保持アクション、カーソルが2D要素に向いている間のボタンの押下、閾値期間にわたる2D要素上でのボタンのホバリング、またはオーディオ入力に応答して生成される。
【0141】
随意に、方法1100では、2D要素は、オブジェクトを示し、3Dモデルは、オブジェクトの3次元バージョンである。
【0142】
随意に、方法1100では、3Dモデルは、2D要素の3Dレンダリングまたは3D描写である。
【0143】
随意に、方法1100はさらに、2D要素が3Dモデルにアクセスするために選択可能であることのインジケーションを提供することを含む。
【0144】
随意に、方法1100では、インジケーションは、視覚的情報を備える。
【0145】
アイテム32:本方法では、視覚的情報は、2D要素の色の変化を備える。
【0146】
随意に、方法1100では、視覚的情報は、2D要素と関連付けて表示される、グラフィックを備える。
【0147】
随意に、方法1100では、視覚的情報は、カーソルの構成の変化を備える。
【0148】
随意に、方法1100では、視覚的情報は、2D要素から外に成長し始める3Dモデルの表示を備える。
【0149】
随意に、方法1100では、インジケーションを提供する行為は、オーディオ信号を提供することを含む。
【0150】
随意に、方法1100では、2D要素は、ブラウザまたはビューワ内に提示される。
【0151】
随意に、方法1100では、3Dモデルは、ページ記述子情報と関連付けて記憶される。
【0152】
随意に、方法1100では、2D要素は、ページの一部であって、ページに関するメタデータは、そこから3Dモデルが読み出されるべき場所を示す。
【0153】
随意に、方法1100では、2D要素は、ページの一部であって、ページのマークアップ言語は、2D要素を3Dモデルと関連付けられるものとして指定する、メタデータを備える。
【0154】
随意に、方法1100では、3Dモデルは、動的に生成される。
【0155】
随意に、方法1100では、2D要素は、ブラウザまたはビューワ内に提示されるページの一部であって、3Dモデルは、ページがブラウザまたはビューワ内にロードされたとき、またはその後、ロードされ、かつ/または利用可能にされる。
【0156】
随意に、方法1100では、3Dモデルを取得する行為は、処理ユニットによって、アプリケーションプログラミングインターフェース(API)に対して行われる要求を通して、3Dモデルを読み出すことを含む。
【0157】
随意に、方法1100では、2D要素と関連付けられる、3Dモデルを取得する行為は、ネットワークを介して伝送される、3Dモデルを受信することを含む。
【0158】
随意に、方法1100では、3Dモデルは、メモリ内に記憶され、3Dモデルを取得する行為は、3Dモデルをメモリから読み出すことを含む。
【0159】
随意に、方法1100では、3Dモデルは、本システムによって提示される環境への追加のためのものである。
【0160】
随意に、方法1100はさらに、3Dモデルを画面を通して視認されるような環境に対して特定の場所に設置するコマンドを受信することを含む。
【0161】
随意に、方法1100では、コマンドは、仮想オブジェクトまたは実世界オブジェクトと関連付けられる3Dモデルを環境に対して設置するためのカーソルの移動に基づいて生成されたカーソル位置を備える。
【0162】
随意に、方法1100では、画面は、ユーザが画面を通して周囲環境を視認することを可能にするために、少なくとも部分的に透明である。
【0163】
随意に、方法1100は、MR、AR、またはVR環境をユーザに提供するように構成される、システムによって実施される。
【0164】
特殊処理システム
【0165】
いくつかの実施形態では、本明細書に説明される方法1100は、アプリケーションを実行する処理ユニット130によって、またはアプリケーションによって、実施されてもよい。アプリケーションは、命令のセットを含有してもよい。1つの実装では、アプリケーションのための命令のセットを記憶する非一過性媒体を有する、特殊処理システムが、提供されてもよい。画像ディスプレイデバイス101の処理ユニット130による命令の実行は、処理ユニット130に、本明細書に説明される特徴を実施させるであろう。例えば、いくつかの実施形態では、頭部装着型画像ディスプレイデバイスの処理ユニット130による命令の実行は、方法1100を実施させるであろう。他の実施形態では、他のタイプの画像ディスプレイデバイス(例えば、コンピュータ、ラップトップ、タブレット、携帯電話等)も、方法1100を実施させるための命令を実行するように構成されてもよい。
【0166】
いくつかの実施形態では、画像ディスプレイデバイス101はまた、特殊処理システムと見なされ得る。特に、画像ディスプレイデバイス101は、一意の有形効果を実世界内で提供するための処理ユニット130による実行のために、その非一過性媒体内に記憶される命令を含有するという点で、特殊処理システムである。画像ディスプレイデバイス101によって提供される特徴(処理ユニット130が命令を実行する結果として)は、それらがこれらのタイプのデバイスを使用する際、ユーザの体験を向上させるため、MR、VR、およびARデバイスのための改良を提供する。
【0167】
図12は、本明細書に説明される種々の特徴を実装するために使用され得る、特殊処理システム1600の実施形態を図示する、ブロック図である。例えば、いくつかの実施形態では、処理システム1600は、画像ディスプレイデバイス101を実装するために使用されてもよい。また、いくつかの実施形態では、処理システム1600は、処理ユニット130またはその中の1つまたはそれを上回るコンポーネント(例えば、ユーザ入力インターフェース410、通信デバイス420、グラフィック生成器430、非一過性媒体450、位置入力インターフェース460等)を実装するために使用されてもよい。
【0168】
処理システム1600は、バス1602または情報を通信するための他の通信機構と、情報を処理するためにバス1602と結合される、プロセッサ1604とを含む。プロセッサシステム1600はまた、情報およびプロセッサ1604によって実行されるべき命令を記憶するためにバス1602に結合される、ランダムアクセスメモリ(RAM)または他の動的記憶デバイス等のメインメモリ1606を含む。メインメモリ1606はまた、プロセッサ1604によって実行されるべき命令の実行の間、一時的変数または他の中間情報を記憶するために使用されてもよい。プロセッサシステム1600はさらに、静的情報およびプロセッサ1604のための命令を記憶するためにバス1602に結合される、読取専用メモリ(ROM)1608または他の静的記憶デバイスを含む。磁気ディスク、ソリッドステートディスク、または光ディスク等のデータ記憶デバイス1610が、提供され、情報および命令を記憶するためにバス1602に結合される。
【0169】
プロセッサシステム1600は、情報をユーザに表示するために、バス1602を介して、画面等のディスプレイ1612に結合されてもよい。ある場合には、処理システム1600が、タッチスクリーンを含む、装置の一部である場合、ディスプレイ1612は、タッチスクリーンであってもよい。英数字および他のキーを含む、入力デバイス1614が、情報およびコマンド選択をプロセッサ1604に通信するために、バス1602に結合される。別のタイプのユーザ入力デバイスは、方向情報およびコマンド選択をプロセッサ1604に通信するための、かつディスプレイ1612上のカーソル移動を制御するための、マウス、トラックボール、またはカーソル方向キー等のカーソル制御1616である。本入力デバイスは、典型的には、デバイスが平面内の位置を規定することを可能にする、2つの軸、すなわち、第1の軸(例えば、x)および第2の軸(例えば、y)における2自由度を有する。ある場合には、処理システム1600が、タッチスクリーンを含む、装置の一部である場合、入力デバイス1614およびカーソル制御は、タッチスクリーンであってもよい。
【0170】
いくつかの実施形態では、プロセッサシステム1600は、本明細書に説明される種々の機能を実施するために使用されることができる。いくつかの実施形態によると、そのような使用は、プロセッサ1604がメインメモリ1606内に含有される1つまたはそれを上回る命令の1つまたはそれを上回るシーケンスを実行することに応答して、プロセッサシステム1600によって提供される。当業者は、本明細書に説明される機能および方法に基づいて、そのような命令を準備する方法を把握するであろう。そのような命令は、記憶デバイス1610等の別のプロセッサ可読媒体からメインメモリ1606の中に読み込まれてもよい。メインメモリ1606内に含有される命令のシーケンスの実行は、プロセッサ1604に、本明細書に説明されるプロセスステップを実施させる。マルチ処理配列における1つまたはそれを上回るプロセッサもまた、メインメモリ1606内に含有される命令のシーケンスを実行するために採用されてもよい。代替実施形態では、有線回路構成が、ソフトウェア命令の代わりに、またはそれと組み合わせて、本明細書に説明される種々の実施形態を実装するために使用されてもよい。したがって、実施形態は、ハードウェア回路構成とソフトウェアの任意の具体的組み合わせに限定されない。
【0171】
用語「プロセッサ可読媒体」は、本明細書で使用されるように、命令を実行のためにプロセッサ1604に提供することに関わる、任意の媒体を指す。そのような媒体は、限定ではないが、不揮発性媒体、揮発性媒体、および伝送媒体を含む、多くの形態をとってもよい。不揮発性媒体は、例えば、記憶デバイス1610等の光学、ソリッドステート、または磁気ディスクを含む。不揮発性媒体は、非一過性媒体の実施例と見なされ得る。揮発性媒体は、メインメモリ1606等の動的メモリを含む。揮発性媒体は、非一過性媒体の実施例と見なされ得る。伝送媒体は、バス1602を備えるワイヤを含む、同軸ケーブル、銅ワイヤ、および光ファイバを含む。伝送媒体はまた、無線波および赤外線データ通信の間に生成されるもの等の音響または光波の形態をとることができる。
【0172】
一般的形態のプロセッサ可読媒体は、例えば、フレキシブルディスク、ハードディスク、磁気テープ、または任意の他の磁気媒体、CD-ROM、任意の他の光学媒体、孔のパターンを伴う任意の他の物理的媒体、RAM、PROM、およびEPROM、FLASH-EPROM、ソリッドステートディスク、任意の他のメモリチップまたはカートリッジ、以降に説明されるような搬送波、またはそこからプロセッサが読み取り得る、任意の他の媒体を含む。
【0173】
種々の形態のプロセッサ可読媒体が、実行のために、1つまたはそれを上回る命令の1つまたはそれを上回るシーケンスをプロセッサ1604に搬送する際に関わり得る。例えば、命令は、最初に、遠隔コンピュータの磁気ディスクまたはソリッドステートディスク上で搬送され得る。遠隔コンピュータは、命令をその動的メモリの中にロードし、インターネット等のネットワークを経由して、命令を送信することができる。処理システム1600は、ネットワークラインに関するデータを受信することができる。バス1602は、データをメインメモリ1606に搬送し、そこから、プロセッサ1604は、命令を読み出し、実行する。メインメモリ1606によって受信された命令は、随意に、プロセッサ1604による実行の前または後のいずれかにおいて、記憶デバイス1610上に記憶され得る。
【0174】
処理システム1600はまた、バス1602に結合される、通信インターフェース1618を含む。通信インターフェース1618は、ローカルネットワーク1622に接続される、ネットワークリンク1620への双方向データ通信結合を提供する。例えば、通信インターフェース1618は、データ通信接続を互換性があるLANに提供するためのローカルエリアネットワーク(LAN)カードであってもよい。無線リンクもまた、実装されてもよい。任意のそのような実装では、通信インターフェース1618は、種々のタイプの情報を表すデータストリームを搬送する、電気、電磁、または光学信号を送信および受信する。
【0175】
ネットワークリンク1620は、典型的には、1つまたはそれを上回るネットワークを通して、データ通信を他のデバイスに提供する。例えば、ネットワークリンク1620は、ローカルネットワーク1622を通して、接続をホストコンピュータ1624または機器1626に提供してもよい。ネットワークリンク1620を経由してトランスポートされるデータストリームは、電気、電磁、または光学信号を含むことができる。種々のネットワークを通した信号、およびネットワークリンク1620上、および処理システム1600におよびそこからデータを搬送する、通信インターフェース1618を通した信号は、情報をトランスポートする搬送波の例示的形態である。処理システム1600は、ネットワーク、ネットワークリンク1620、および通信インターフェース1618を通して、メッセージを送信し、プログラムコードを含む、データを受信することができる。
【0176】
用語「画像」は、本明細書で使用されるように、表示される画像および/または表示形態ではない画像(例えば、媒体内に記憶されている、または処理中の画像または画像データ)を指し得ることに留意されたい。
【0177】
本開示の例示的側面が、材料選択および製造に関する詳細とともに、上記に記載されている。本開示の他の詳細に関して、これらは、上記で参照された特許および刊行物に関連して理解され、概して、当業者によって公知である、または理解され得る。同じことが、一般または論理的に採用されるような付加的作用の観点から、本開示の方法ベースの側面に関しても当てはまり得る。
【0178】
加えて、本開示は、随意に、種々の特徴を組み込む、いくつかの実施例を参照して説明されているが、本開示は、開示の各変形例に関して検討されるように説明または図示されるものに限定されるものではない。種々の変更が、説明される本開示に行われてもよく、均等物(本明細書に列挙されるか、またはある程度の簡潔目的のために含まれないかどうかにかかわらず)が、本開示の真の精神および範囲から逸脱することなく代用されてもよい。加えて、値の範囲が提供される場合、その範囲の上限と下限との間の全ての介在値および任意の他の述べられた値または述べられた範囲内の介在値が、本開示内に包含されるものと理解されたい。
【0179】
また、説明される本発明の変形例の任意の随意の特徴は、独立して、または本明細書に説明される特徴のうちの任意の1つまたはそれを上回るものと組み合わせて、記載および請求され得ることが検討される。単数形項目の言及は、存在する複数の同一項目が存在する可能性を含む。より具体的には、本明細書および本明細書に関連付けられる請求項で使用されるように、単数形「a」、「an」、「said」、および「the」は、別様に具体的に述べられない限り、複数の言及を含む。さらに、任意の請求項は、任意の随意の要素を除外するように起草され得ることに留意されたい。したがって、本文言は、請求項の要素の列挙と関連する「単に」、「のみ」、および同等物等の排他的専門用語の使用、または「消極的」限定の使用のための先行詞としての役割を果たすことが意図される。
【0180】
加えて、本明細書で使用されるように、項目のリスト「~のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図するものではない。
【0181】
本開示の範疇は、提供される実施例および/または本明細書に限定されるべきではなく、むしろ、本開示と関連付けられる請求項の用語の範囲のみによって限定されるべきである。
【0182】
以下のアイテムは、本明細書に説明される1つまたはそれを上回る実施形態の例示的特徴である。
【0183】
システムは、ユーザによって装着されるために構成される、画面であって、2次元(2D)要素を表示するように構成される、画面と、ディスプレイに結合される、処理ユニットと、画面によって表示される2D要素を選択するためのユーザ入力に応答して、信号を生成するように構成される、ユーザ入力デバイスとを含み、処理ユニットは、生成された信号に応答して、2D要素と関連付けられる、3次元(3D)モデルを取得するように構成される。
【0184】
アイテム2:本システムでは、ユーザ入力デバイスは、ダブルクリックアクション、長押しアクション、長保持アクション、カーソルが2D要素に向いている間のボタンの押下、閾値期間にわたる2D要素上でのボタンのホバリング、またはオーディオ入力に応答して、信号を生成するように構成される。
【0185】
アイテム3:本システムでは、2D要素は、オブジェクトを示し、3Dモデルは、オブジェクトの3次元バージョンである。
【0186】
アイテム4:本システムでは、3Dモデルは、2D要素の3Dレンダリングまたは3D描写である。
【0187】
アイテム5:本システムは、2D要素が3Dモデルにアクセスするように選択可能であることのインジケーションを提供するように構成される。
【0188】
アイテム6:本システムでは、画面は、視覚的情報をインジケーションとして提供するように構成される。
【0189】
アイテム7:本システムでは、視覚的情報は、2D要素の色の変化を備える。
【0190】
アイテム8:本システムでは、視覚的情報は、2D要素と関連付けて表示される、グラフィックを備える。
【0191】
アイテム9:本システムでは、視覚的情報は、カーソルの構成の変化を備える。
【0192】
アイテム10:本システムでは、視覚的情報は、2D要素から外に成長し始める3Dモデルの表示を備える。
【0193】
アイテム11:システムは、オーディオ信号をインジケーションとして提供するように構成される。
【0194】
アイテム12:本システムでは、2D要素は、ブラウザまたはビューワ内に提示される。
【0195】
アイテム13:本システムでは、3Dモデルは、ページ記述子情報と関連付けて記憶される。
【0196】
アイテム14:本システムでは、2D要素は、ページの一部であって、ページに関するメタデータは、そこから3Dモデルが読み出されるべき場所を示す。
【0197】
アイテム15:本システムでは、2D要素は、ページの一部であって、ページのマークアップ言語は、2D要素を3Dモデルと関連付けられるものとして指定する、メタデータを備える。
【0198】
アイテム16:本システムでは、3Dモデルは、動的に生成される。
【0199】
アイテム17:本システムでは、2D要素は、ブラウザまたはビューワ内に提示されるページの一部であって、3Dモデルは、ページがブラウザまたはビューワ内にロードされたとき、またはその後、ロードされ、かつ/または利用可能にされる。
【0200】
アイテム18:本システムでは、処理ユニットは、アプリケーションプログラミングインターフェース(API)に対して行われる要求を通して、3Dモデルを読み出すように構成される。
【0201】
アイテム19:本システムでは、処理ユニットは、ネットワークを介して伝送される、3Dモデルを受信することによって、2D要素と関連付けられる、3Dモデルを取得するように構成される。
【0202】
アイテム20:本システムはさらに、3Dモデルを記憶する、メモリを含み、処理ユニットは、3Dモデルをメモリから読み出すことによって、3Dモデルを取得するように構成される。
【0203】
アイテム21:本システムでは、3Dモデルは、本システムによって提示される環境への追加のためのものである。
【0204】
アイテム22:本システムでは、処理ユニットは、3Dモデルを画面を通して視認されるような環境に対して特定の場所に設置するためのコマンドを受信するように構成される。
【0205】
アイテム23:本システムでは、コマンドは、仮想オブジェクトまたは実世界オブジェクトと関連付けられる3Dモデルを環境に対して設置するためのカーソルの移動に基づいて生成されたカーソル位置を備える。
【0206】
アイテム24:本システムでは、画面は、ユーザが画面を通して周囲環境を視認することを可能にするために、少なくとも部分的に透明である。
【0207】
アイテム25:システムは、MR、AR、またはVR環境をユーザに提供するように構成される。
【0208】
アイテム26:方法は、ユーザによって装着されるために構成される、画面によって、2次元(2D)要素を表示することと、画面によって表示される2D要素を選択するためのユーザに入力に応答して、ユーザ入力デバイスによって生成された信号を受信することと、生成された信号に応答して、2D要素と関連付けられる、3次元(3D)モデルを取得することとを含む。
【0209】
アイテム27:本方法では、信号は、ダブルクリックアクション、長押しアクション、長保持アクション、カーソルが2D要素に向いている間のボタンの押下、閾値期間にわたる2D要素上でのボタンのホバリング、またはオーディオ入力に応答して生成される。
【0210】
アイテム28:本方法では、2D要素は、オブジェクトを示し、3Dモデルは、オブジェクトの3次元バージョンである。
【0211】
アイテム29:本方法では、3Dモデルは、2D要素の3Dレンダリングまたは3D描写である。
【0212】
アイテム30:本方法はさらに、2D要素が3Dモデルにアクセスするために選択可能であることのインジケーションを提供することを含む。
【0213】
アイテム31:本方法では、インジケーションは、視覚的情報を備える。
【0214】
アイテム32:本方法では、視覚的情報は、2D要素の色の変化を備える。
【0215】
アイテム33:本方法では、視覚的情報は、2D要素と関連付けて表示される、グラフィックを備える。
【0216】
アイテム34:本方法では、視覚的情報は、カーソルの構成の変化を備える。
【0217】
アイテム35:本方法では、視覚的情報は、2D要素から外に成長し始める3Dモデルの表示を備える。
【0218】
アイテム36:本方法では、インジケーションを提供する行為は、オーディオ信号を提供することを含む。
【0219】
アイテム37:本方法では、2D要素は、ブラウザまたはビューワ内に提示される。
【0220】
アイテム38:本方法では、3Dモデルは、ページ記述子情報と関連付けて記憶される。
【0221】
アイテム39:本方法では、2D要素は、ページの一部であって、ページに関するメタデータは、そこから3Dモデルが読み出されるべき場所を示す。
【0222】
アイテム40:本方法では、2D要素は、ページの一部であって、ページのマークアップ言語は、2D要素を3Dモデルと関連付けられるものとして指定する、メタデータを備える。
【0223】
アイテム41:本方法では、3Dモデルは、動的に生成される。
【0224】
アイテム42:本方法では、2D要素は、ブラウザまたはビューワ内に提示されるページの一部であって、3Dモデルは、ページがブラウザまたはビューワ内にロードされたとき、またはその後、ロードされ、かつ/または利用可能にされる。
【0225】
アイテム43:本方法では、3Dモデルを取得する行為は、処理ユニットによって、アプリケーションプログラミングインターフェース(API)に対して行われる要求を通して、3Dモデルを読み出すことを含む。
【0226】
アイテム44:本方法では、2D要素と関連付けられる、3Dモデルを取得する行為は、ネットワークを介して伝送される、3Dモデルを受信することを含む。
【0227】
アイテム45:本方法では、3Dモデルは、メモリ内に記憶され、3Dモデルを取得する行為は、3Dモデルをメモリから読み出すことを含む。
【0228】
アイテム46:本方法では、3Dモデルは、本システムによって提示される環境への追加のためのものである。
【0229】
アイテム47:本方法はさらに、3Dモデルを画面を通して視認されるような環境に対して特定の場所に設置するコマンドを受信することを含む。
【0230】
アイテム48:本方法では、コマンドは、仮想オブジェクトまたは実世界オブジェクトと関連付けられる3Dモデルを環境に対して設置するためのカーソルの移動に基づいて生成されたカーソル位置を備える。
【0231】
アイテム49:本方法では、画面は、ユーザが画面を通して周囲環境を視認することを可能にするために、少なくとも部分的に透明である。
【0232】
アイテム50:本方法は、MR、AR、またはVR環境をユーザに提供するように構成される、システムによって実施される。
【0233】
アイテム51:製品は、命令のセットを記憶する、非一過性媒体を含み、処理ユニットによるその実行は、方法を実施させ、本方法は、ユーザによって装着されるために構成される、画面によって、2次元(2D)要素を表示することと、画面によって表示される2D要素を選択するためのユーザに入力に応答して、ユーザ入力デバイスによって生成された信号を受信することと、生成された信号に応答して、2D要素と関連付けられる、3次元(3D)モデルを取得することとを含む。
【0234】
前述の明細書では、本開示は、その具体的実施形態を参照して説明された。しかしながら、種々の修正および変更が、本開示のより広義の精神および範囲から逸脱することなく、そこに行われてもよいことが明白であろう。例えば、前述のプロセスフローは、プロセスアクションの特定の順序を参照して説明される。しかしながら、説明されるプロセスアクションの多くの順序は、本開示の範囲または動作に影響を及ぼすことなく、変更されてもよい。明細書および図面は、故に、限定的意味ではなく、例証と見なされるべきである。
【国際調査報告】