(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-09-06
(45)【発行日】2024-09-17
(54)【発明の名称】頭部搭載型ディスプレイシステムにおける変形に関する補償
(51)【国際特許分類】
H04N 5/74 20060101AFI20240909BHJP
H04N 5/64 20060101ALI20240909BHJP
G02B 27/02 20060101ALI20240909BHJP
G09G 5/00 20060101ALI20240909BHJP
G09G 5/377 20060101ALI20240909BHJP
G09G 5/38 20060101ALI20240909BHJP
G09G 5/02 20060101ALI20240909BHJP
G09G 5/36 20060101ALI20240909BHJP
G09G 5/37 20060101ALI20240909BHJP
G09G 5/10 20060101ALI20240909BHJP
H04N 13/344 20180101ALN20240909BHJP
【FI】
H04N5/74
H04N5/64 511A
G02B27/02 Z
G09G5/00 510A
G09G5/00 X
G09G5/377 100
G09G5/38 100
G09G5/02 B
G09G5/36 500
G09G5/37 310
G09G5/00 550X
G09G5/10 B
G09G5/00 550C
H04N13/344
【外国語出願】
(21)【出願番号】P 2023214707
(22)【出願日】2023-12-20
(62)【分割の表示】P 2022542949の分割
【原出願日】2020-12-21
【審査請求日】2024-01-18
(32)【優先日】2020-01-15
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2020-06-25
(33)【優先権主張国・地域又は機関】US
【早期審査対象出願】
(73)【特許権者】
【識別番号】514108838
【氏名又は名称】マジック リープ, インコーポレイテッド
【氏名又は名称原語表記】Magic Leap,Inc.
【住所又は居所原語表記】7500 W SUNRISE BLVD,PLANTATION,FL 33322 USA
(74)【代理人】
【識別番号】100078282
【氏名又は名称】山本 秀策
(74)【代理人】
【識別番号】100113413
【氏名又は名称】森下 夏樹
(74)【代理人】
【識別番号】100181674
【氏名又は名称】飯田 貴敏
(74)【代理人】
【識別番号】100181641
【氏名又は名称】石川 大輔
(74)【代理人】
【識別番号】230113332
【氏名又は名称】山本 健策
(72)【発明者】
【氏名】エチエンヌ グレゴワール グロスマン
(72)【発明者】
【氏名】マイケル ロバート ジョンソン
(72)【発明者】
【氏名】ウェンイー ジャオ
(72)【発明者】
【氏名】ヌクル サンジャイ シャー
(72)【発明者】
【氏名】ポ-カン フアン
(72)【発明者】
【氏名】ライオネル アーネスト エドウィン
(72)【発明者】
【氏名】サミュエル エー. ミラー
(72)【発明者】
【氏名】ブライアン クラーク
【審査官】長谷川 素直
(56)【参考文献】
【文献】特開2014-199532(JP,A)
【文献】特開2016-167797(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 5/74
H04N 5/64
H04N 13/00-13/398
G02B 27/02
G02B 30/00
G09G 5/00
(57)【特許請求の範囲】
【請求項1】
コンピュータ実装方法であって、
頭部搭載型ディスプレイデバイスの第1の接眼レンズの非変形状態と関連付けられた第1の標的画像のための第1のデータと、第1のプロジェクタによる提示のための第1の画像のための第2のデータとを維持することであって、前記第1のプロジェクタは、i)前記第1の接眼レンズ内に含まれ、かつ、前記第1の接眼レンズに光学的に結合され、ii)前記頭部搭載型ディスプレイデバイスの一部である、ことと、
前記第1の接眼レンズの第1の撮像センサに結合され、前記頭部搭載型ディスプレイデバイスの一部である第1の温度センサから、前記第1の撮像センサの第1の温度測定値を受信することと、
前記第1の画像を前記第1の標的画像にマッピングする第1の変換を決定することであって、前記第1の変換は、
前記第1の接眼レンズの非変形状態にある前記第1の接眼レンズに対する前記第1の撮像センサの位置に対する、温度の変化に起因する前記第1の接眼レンズの変形状態にある前記第1の接眼レンズに対する前記第1の撮像センサの位置
の変化を考慮
し、前記第1の変換は、前記第1の撮像センサの前記第1の温度測定値を少なくとも部分的に使用する、ことと、
変換された後続画像を生成するために、前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズ上への前記第1のプロジェクタによる提示のための後続画像に前記第1の変換を適用することと
を含む方法。
【請求項2】
前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズの前記非変形状態と関連付けられ
た前記第1の標的画像の前記第1のデータを受信することと、
前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズの
前記変形状態と関連付けられ
た第1の捕捉された画像の前記第2のデータを受信することであって、前記第1の捕捉された画像は、前記第1の標的画像の変換状態を表現し、前記第1の接眼レンズの前記第1のプロジェクタに光学的に結合されかつ前記頭部搭載型ディスプレイデバイスの一部である第1の撮像センサによって捕捉される、ことと
を含み、前記第1の画像は、前記第1の捕捉された画像を含み、
前記第1の変換を決定することは、前記第1の撮像センサの前記第1の温度測定値と、前記第1の標的画像と、前記第1の捕捉された画像とを少なくとも部分的に使用して、前記第1の捕捉された画像を前記第1の標的画像にマッピングする前記第1の変換を決定することを含む、請求項1に記載の方法。
【請求項3】
前記第1の撮像センサによって捕捉された前記第1の捕捉された画像の前記第2のデータを受信することは、カメラ、位置検知ダイオード、またはLiDARセンサによって捕捉された前記第1の捕捉された画像の前記第2のデータを受信することを含む、請求項2に記載の方法。
【請求項4】
前記変換された後続画像を前記第1の接眼レンズに光学的に結合された前記第1のプロジェクタに伝送することにより、前記第1の接眼レンズ上に前記変換された後続画像を提示することを前記第1のプロジェクタに行わせることを含む、請求項1に記載の方法。
【請求項5】
前記頭部搭載型ディスプレイデバイスを装着しているユーザの瞬目を検出することを含み、前記第1の画像を前記第1の標的画像にマッピングする前記第1の変換を決定することは、前記頭部搭載型ディスプレイデバイスを装着している前記ユーザの前記瞬目を検出したことに応答する、請求項1に記載の方法。
【請求項6】
前記頭部搭載型ディスプレイデバイスの第2の接眼レンズの非変形状態と関連付けられた第2の標的画像のための第3のデータと、第2のプロジェクタによる提示のための第2の画像のための第4のデータとを維持することであって、前記第2のプロジェクタは、i)前記第2の接眼レンズ内に含まれ、かつ、前記第2の接眼レンズに光学的に結合され、ii)前記頭部搭載型ディスプレイデバイスの一部である、ことと、
前記第2の接眼レンズの第2の撮像センサに結合され、前記頭部搭載型ディスプレイデバイスの一部である第2の温度センサから、前記第2の撮像センサの第2の温度測定値を受信することと、
前記第2の画像を前記第2の標的画像にマッピングする第2の変換を決定することであって、前記第2の変換は、前記第2の撮像センサの前記第2の温度測定値を少なくとも部分的に使用して、前記第2の接眼レンズに対する前記第2の撮像センサの第2の位置を考慮する、ことと、
前記頭部搭載型ディスプレイデバイスの前記第2の接眼レンズ上への前記第2のプロジェクタによる提示のための第2の後続画像に前記第2の変換を適用することと
を含む、請求項1に記載の方法。
【請求項7】
前記第1の変換は、前記第2の変換に依存し、前記第2の変換は、前記第2の接眼レンズ上で視認するための後続画像を前記第1の接眼レンズ上で視認するための後続画像と整合させる、請求項6に記載の方法。
【請求項8】
前記第1の温度センサは、前記第2の温度センサに強固に接続され、前記第1の接眼レンズおよび前記第2の接眼レンズは、前記第1の温度センサおよび前記第2の温度センサに対して変形可能である、請求項6に記載の方法。
【請求項9】
頭部搭載型ディスプレイデバイスであって、
ウェアラブルフレームと、
前記ウェアラブルフレームに弾性的に搭載された第1の接眼レンズであって、前記第1の接眼レンズは、前記第1の接眼レンズに強固かつ光学的に結合された第1のプロジェクタを備える、第1の接眼レンズと、
前記ウェアラブルフレームに弾性的に搭載される第1の温度センサと、
1つ以上のプロセッサおよび1つ以上の記憶デバイスであって、前記1つ以上の記憶デバイス上に命令が記憶され、前記命令は、前記1つ以上のプロセッサによって実行されると、
前記第1の接眼レンズの非変形状態と関連付けられた第1の標的画像のための第1のデータと、第1のプロジェクタによる提示のための第1の画像のための第2のデータとを維持することと、
前記第1の温度センサから、第1の撮像センサの第1の温度測定値を受信することと、
前記第1の画像を前記第1の標的画像にマッピングする第1の変換を決定することであって、前記第1の変換は、
前記第1の接眼レンズの非変形状態にある前記第1の接眼レンズに対する前記第1の撮像センサの位置に対する、温度の変化に起因する前記第1の接眼レンズの変形状態にある前記第1の接眼レンズに対する前記第1の撮像センサの位置
の変化を考慮
し、前記第1の変換は、前記第1の撮像センサの前記第1の温度測定値を少なくとも部分的に使用する、ことと、
変換された後続画像を生成するために、前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズ上への前記第1のプロジェクタによる提示のための後続画像に前記第1の変換を適用することと
を含む動作を前記1つ以上のプロセッサに行わせるように動作可能である、1つ以上のプロセッサおよび1つ以上の記憶デバイスと
を備える、頭部搭載型ディスプレイデバイス。
【請求項10】
前記動作は、
前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズの前記非変形状態と関連付けられた前記第1の標的画像の前記第1のデータを受信することと、
前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズの
前記変形状態と関連付けられ
た第1の捕捉された画像の前記第2のデータを受信することであって、前記第1の捕捉された画像は、前記第1の標的画像の変換状態を表現し、前記第1の接眼レンズの前記第1のプロジェクタに光学的に結合されかつ前記頭部搭載型ディスプレイデバイスの一部である第1の撮像センサによって捕捉される、ことと
を含み、前記第1の画像は、前記第1の捕捉された画像を含み、
前記第1の変換を決定することは、前記第1の撮像センサの前記第1の温度測定値と、前記第1の標的画像と、前記第1の捕捉された画像とを少なくとも部分的に使用して、前記第1の捕捉された画像を前記第1の標的画像にマッピングする前記第1の変換を決定することを含む、請求項9に記載の頭部搭載型ディスプレイデバイス。
【請求項11】
前記第1の撮像センサによって捕捉された前記第1の捕捉された画像の前記第2のデータを受信することは、カメラ、位置検知ダイオード、またはLiDARセンサによって捕捉された前記第1の捕捉された画像の前記第2のデータを受信することを含む、請求項10に記載の頭部搭載型ディスプレイデバイス。
【請求項12】
前記動作は、
前記変換された後続画像を前記第1の接眼レンズに光学的に結合された前記第1のプロジェクタに伝送することにより、前記第1の接眼レンズ上に前記変換された後続画像を提示することを前記第1のプロジェクタに行わせることを含む、請求項9に記載の頭部搭載型ディスプレイデバイス。
【請求項13】
前記動作は、前記頭部搭載型ディスプレイデバイスを装着しているユーザの瞬目を検出することを含み、前記第1の画像を前記第1の標的画像にマッピングする前記第1の変換を決定することは、前記頭部搭載型ディスプレイデバイスを装着している前記ユーザの前記瞬目を検出したことに応答する、請求項9に記載の頭部搭載型ディスプレイデバイス。
【請求項14】
前記ウェアラブルフレームに弾性的に搭載された第2の接眼レンズであって、前記第2の接眼レンズは、前記第2の接眼レンズに強固かつ光学的に結合された第2のプロジェクタを備える、第2の接眼レンズと、
前記ウェアラブルフレームに弾性的に搭載され、前記第2の接眼レンズの温度を捕捉する第2の温度センサと
を備え、前記第2の接眼レンズの温度を捕捉することは、
前記第2の接眼レンズの非変形状態と関連付けられた第2の標的画像のための第3のデータと、前記第2のプロジェクタによる提示のための第2の画像のための第4のデータとを維持することと、
前記第2の温度センサから、
第2の撮像センサの第2の温度測定値を受信することと、
前記第2の画像を前記第2の標的画像にマッピングする第2の変換を決定することであって、前記第2の変換は、前記第2の撮像センサの前記第2の温度測定値を少なくとも部分的に使用して、前記第2の接眼レンズに対する前記第2の撮像センサの第2の位置を考慮する、ことと、
前記頭部搭載型ディスプレイデバイスの前記第2の接眼レンズ上への前記第2のプロジェクタによる提示のための第2の後続画像に前記第2の変換を適用することと
を含む、請求項9に記載の頭部搭載型ディスプレイデバイス。
【請求項15】
前記第1の変換は、前記第2の変換に依存し、前記第2の変換は、前記第2の接眼レンズ上で視認するための後続画像を前記第1の接眼レンズ上で視認するための後続画像と整合させる、請求項14に記載の頭部搭載型ディスプレイデバイス。
【請求項16】
前記第1の温度センサは、前記第2の温度センサに強固に接続され、前記第1の接眼レンズおよび前記第2の接眼レンズは、前記第1の温度センサおよび前記第2の温度センサに対して変形可能である、請求項14に記載の頭部搭載型ディスプレイデバイス。
【請求項17】
命令でエンコーディングされた非一過性コンピュータ記憶媒体であって、前記命令は、1つ以上のコンピュータによって実行されると、
頭部搭載型ディスプレイデバイスの第1の接眼レンズの非変形状態と関連付けられた第1の標的画像のための第1のデータと、第1のプロジェクタによる提示のための第1の画像のための第2のデータとを維持することであって、前記第1のプロジェクタは、i)前記第1の接眼レンズ内に含まれ、かつ、前記第1の接眼レンズに光学的に結合され、ii)前記頭部搭載型ディスプレイデバイスの一部である、ことと、
前記第1の接眼レンズの第1の撮像センサに結合され、前記頭部搭載型ディスプレイデバイスの一部である第1の温度センサから、前記第1の撮像センサの第1の温度測定値を受信することと、
前記第1の画像を前記第1の標的画像にマッピングする第1の変換を決定することであって、前記第1の変換は、
前記第1の接眼レンズの非変形状態にある前記第1の接眼レンズに対する前記第1の撮像センサの位置に対する、温度の変化に起因する前記第1の接眼レンズの変形状態にある前記第1の接眼レンズに対する前記第1の撮像センサの位置
の変化を考慮
し、前記第1の変換は、前記第1の撮像センサの前記第1の温度測定値を少なくとも部分的に使用する、ことと、
変換された後続画像を生成するために、前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズ上への前記第1のプロジェクタによる提示のための後続画像に前記第1の変換を適用することと
を含む動作を前記1つ以上のコンピュータに行わせる、非一過性コンピュータ記憶媒体。
【請求項18】
前記動作は、
前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズの前記非変形状態と関連付けられた前記第1の標的画像の前記第1のデータを受信することと、
前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズの
前記変形状態と関連付けられ
た第1の捕捉された画像の前記第2のデータを受信することであって、前記第1の捕捉された画像は、前記第1の標的画像の変換状態を表現し、前記第1の接眼レンズの前記第1のプロジェクタに光学的に結合されかつ前記頭部搭載型ディスプレイデバイスの一部である第1の撮像センサによって捕捉される、ことと
を含み、前記第1の画像は、前記第1の捕捉された画像を含み、
前記第1の変換を決定することは、前記第1の撮像センサの前記第1の温度測定値と、前記第1の標的画像と、前記第1の捕捉された画像とを少なくとも部分的に使用して、前記第1の捕捉された画像を前記第1の標的画像にマッピングする前記第1の変換を決定することを含む、請求項17に記載の非一過性コンピュータ記憶媒体。
【請求項19】
前記第1の撮像センサによって捕捉された前記第1の捕捉された画像の前記第2のデータを受信することは、カメラ、位置検知ダイオード、またはLiDARセンサによって捕捉された前記第1の捕捉された画像の前記第2のデータを受信することを含む、請求項18に記載の非一過性コンピュータ記憶媒体。
【請求項20】
前記変換された後続画像を前記第1の接眼レンズに光学的に結合された前記第1のプロジェクタに伝送することにより、前記第1の接眼レンズ上に前記変換された後続画像を提示することを前記第1のプロジェクタに行わせることを含む、請求項17に記載の非一過性コンピュータ記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
(技術分野)
本明細書は、概して、頭部搭載型ディスプレイのための画像処理およびディスプレイ整合較正に関する。
【背景技術】
【0002】
(背景)
頭部搭載型ディスプレイシステムがより軽量、より薄型、かつより柔軟になり、輸送、快適性、および審美性を促進するにつれて、これらのウェアラブルデバイスは、より変形を被りやすくもなっている。システムが構造的に安定でない場合、ディスプレイは、移動し、変形し、不整合状態となる。これらの変形は、歪曲および他の誤差を仮想両眼画像の中に導入する。これが起こると、ディスプレイ上で画像を知覚する人は、混乱するか、または不快に感じ得る。これは、不良視認体験をもたらす。
【発明の概要】
【課題を解決するための手段】
【0003】
(概要)
本明細書に説明される主題の革新的側面は、仮想または拡張現実(VAR)システム内で使用される頭部搭載型ディスプレイデバイスの較正に関する。具体的には、VARシステムは、物理的現実ビューを拡張するための仮想コンテンツを表示するために使用されることができる。VARシステムの1つまたはそれより多くのディスプレイ関連コンポーネントが変形されるとき、または所望の通りに動作しないとき、仮想コンテンツが適切に表示されることを確実にするために較正が要求され得る。
【0004】
ある場合には、透明ディスプレイが使用され、これは、画像の形態における仮想コンテンツが実世界環境のビューと重畳されて示されることを可能にする。一方のディスプレイが変形する場合、仮想コンテンツは、変形に応じてユーザの眼に対して移動させられる。考慮されない場合、実世界環境に関連する画像のユーザの知覚は、正しくないものとなる。これは、2つの別個の画像または二重視覚(すなわち、眼毎に1つの画像)として人物によって知覚され得る。意図される単一画像を見る代わりに、ユーザは、2つの画像の間に空間がある状態でそれらを別々に見る。これは、不快な視認体験をもたらし得る。
【0005】
研究は、両眼不整合がヒト視覚系に対する生理学的負担を引き起こし得ることと、人が、2分(arc-minutes)までのピッチ、ロール、およびヨー軸についての仮想画像の両眼回転的不整合に敏感であることとを示す。例えば、ある場合には、片方の眼ディスプレイの他方の眼ディスプレイに対する2分のピッチは、不快感を引き起こすために十分である。さらに、一方のディスプレイにおける変形は、ディスプレイの個々のカラーチャネル(例えば、赤色、緑色、および青色チャネル)が相互に対してシフトさせられることを引き起こし得る。
【0006】
本明細書に説明されるシステムおよび方法は、この不快な視認体験を軽減または防止するように動作する。これは、較正プロセスを使用して、左眼ディスプレイに関する画像変換と右眼ディスプレイに関する画像変換とを決定することによって達成される。較正プロセスは、画像を眼毎に1つずつ、2つの眼ディスプレイ(接眼レンズとも称される)の各々上に表示することと、各ディスプレイの変形に応答して、各眼ディスプレイの画像がどのように変化するかを観察することと、ディスプレイ毎に変換(例えば、マッピングまたはルックアップテーブル(LUT))を決定することとを行うように構成される。左眼ディスプレイと関連付けられる変換は、次いで、左眼ディスプレイ上に示されることになる各後続画像に適用され、同様に、右眼ディスプレイと関連付けられる変換は、次いで、右眼ディスプレイ上に示されることになる各後続画像に適用される。較正プロセスは、次いで、必要に応じて(例えば変形が検出されたとき)、(例えば瞬目によって)トリガされたとき、または周期的に(例えば毎秒)繰り返される。ある場合には、眼ディスプレイ毎の変換は、ともに決定され、かつ/または相互に依存する。しかしながら、ある場合には、変換は、片眼と関連付けられるディスプレイに対して決定および適用される。
【0007】
較正技法は、各ディスプレイが独立に再較正されることを可能にし、人のオペレータによる入力を何も要求しないため、有利である。別の利点は、物理的ハードウェアが軽量かつコンパクトであることを可能にすることである。例えば、頭部搭載型ディスプレイは、眼鏡等の省スペース型(small form factor)において実装されることができる。これは、デバイスが変形を許容し、さらに、この変形によって引き起こされるディスプレイに関する任意の問題点を近リアルタイム(例えば100ミリ秒以内)で補正することを可能にする。
【0008】
本側面の他の実装は、対応するシステムと、装置と、コンピュータ記憶デバイス上に記録されるコンピュータプログラムとを含み、各々は、本方法の動作を実施するように構成される。
【0009】
本明細書に説明される主題の1つまたはそれより多くの実装の詳細が、付随の図面および下記の説明において説明される。本主題の他の特徴、側面、および利点が、説明、図面、および特許請求の範囲から明白となるであろう。
本発明は、例えば以下を提供する。
(項目1)
コンピュータ実装方法であって、
頭部搭載型ディスプレイデバイスの第1の接眼レンズの非変形状態と関連付けられる第1の標的画像のデータを受信することであって、前記第1の接眼レンズは、前記第1の接眼レンズに光学的に結合される第1のプロジェクタを備える、ことと、
前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズの変形状態と関連付けられる第1の捕捉された画像のデータを受信することであって、前記第1の捕捉された画像は、前記第1の標的画像の変換状態を表現し、前記第1の接眼レンズの前記第1のプロジェクタに光学的に結合される第1の撮像センサによって受信され、前記第1の撮像センサは、前記頭部搭載型ディスプレイデバイスの一部である、ことと、
前記第1の捕捉された画像を前記第1の標的画像にマッピングする第1の変換を決定することと、
前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズ上で視認するための後続画像に前記第1の変換を適用することと
を含むコンピュータ実装方法。
(項目2)
前記変換された後続画像を前記第1の接眼レンズに光学的に結合される前記第1のプロジェクタに伝送することをさらに含む、項目1に記載のコンピュータ実装方法。
(項目3)
前記第1の標的画像の前記データを前記第1のプロジェクタに伝送することをさらに含む、項目1に記載のコンピュータ実装方法。
(項目4)
前記第1のプロジェクタに光学的に結合される前記第1の撮像センサが前記第1の標的画像の前記データを捕捉することをさらに含む、項目1に記載のコンピュータ実装方法。(項目5)
前記第1の撮像センサの温度測定値を受信することと、
前記受信された温度測定値を前記第1の変換において考慮することと
をさらに含む、項目1に記載のコンピュータ実装方法。
(項目6)
前記頭部搭載型ディスプレイデバイスの外部の実世界環境の状態を表現するデータを1つまたはそれより多くのセンサから受信することをさらに含む、項目1に記載のコンピュータ実装方法。
(項目7)
前記第1の変換は、実世界環境の特徴を前記第1の標的画像からの対応する特徴と整合させる、項目1に記載のコンピュータ実装方法。
(項目8)
前記第1の変換は、前記第1の捕捉された画像の各個々のカラーチャネルを前記第1の標的画像の各個々のカラーチャネルと整合させる、項目1に記載のコンピュータ実装方法。
(項目9)
トリガ信号を受信することをさらに含み、前記第1の変換を決定することは、前記トリガ信号を受信することに応答する、項目1に記載のコンピュータ実装方法。
(項目10)
前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズは、光学的に透明である、項目1に記載のコンピュータ実装方法。
(項目11)
前記第1の変換は、前記第1の接眼レンズに対する前記第1の撮像センサの相対的位置を考慮する、項目1に記載のコンピュータ実装方法。
(項目12)
前記頭部搭載型ディスプレイデバイスの第2の接眼レンズの非変形状態と関連付けられる第2の標的画像のデータを受信することであって、前記第2の接眼レンズは、前記第2の接眼レンズに光学的に結合される第2のプロジェクタを備える、ことと、
前記第2の接眼レンズの変形状態と関連付けられる第2の捕捉された画像のデータを受信することであって、前記第2の捕捉された画像は、前記第2の標的画像の変換状態を表現し、前記第2の接眼レンズの前記第2のプロジェクタに光学的に結合される第2の撮像センサによって受信され、前記第2の撮像センサは、前記頭部搭載型ディスプレイデバイスの一部である、ことと、
前記第2の捕捉された画像を前記第2の標的画像にマッピングする第2の変換を決定することと、
前記頭部搭載型ディスプレイデバイスの前記第2の接眼レンズ上で視認するための後続画像に前記第2の変換を適用することと
をさらに含む、項目1に記載のコンピュータ実装方法。
(項目13)
前記第1の変換は、前記第2の変換に依存する、項目12に記載のコンピュータ実装方法。
(項目14)
前記第2の変換は、前記第2の接眼レンズ上で視認するための後続画像を前記第1の接眼レンズ上で視認するための後続画像と整合させる、項目12に記載のコンピュータ実装方法。
(項目15)
前記第1の撮像センサは、前記第2の撮像センサに強固に接続される、項目12に記載のコンピュータ実装方法。
(項目16)
前記第1の接眼レンズおよび前記第2の接眼レンズは、前記第1の撮像センサおよび前記第2の撮像センサに対して変形可能である、項目12に記載のコンピュータ実装方法。(項目17)
前記第2の変換は、前記第2の接眼レンズに対する前記第2の撮像センサの相対的位置を考慮する、項目12に記載のコンピュータ実装方法。
(項目18)
前記第2の撮像センサの温度測定値を受信することと、
前記受信された温度測定値を前記第2の変換において考慮することと
をさらに含む、項目12に記載のコンピュータ実装方法。
(項目19)
頭部搭載型ディスプレイデバイスであって、
ウェアラブルフレームと、
前記ウェアラブルフレームに弾性的に搭載される第1の接眼レンズであって、前記第1の接眼レンズは、前記第1の接眼レンズに強固かつ光学的に結合される第1のプロジェクタを備え、前記第1のプロジェクタは、光を前記第1の接眼レンズに放出するように構成される、第1の接眼レンズと、
前記ウェアラブルフレームに弾性的に搭載され、前記第1の接眼レンズから放出される光を捕捉するように構成される第1の撮像センサと、
前記第1のプロジェクタおよび前記第1の撮像センサに通信可能に結合されるプロセッサであって、
第1の標的画像のデータを前記第1のプロジェクタに伝送することと、
前記第1の撮像センサから、前記第1の標的画像の変換状態を表現する第1の捕捉された画像のデータを受信することと、
前記第1の捕捉された画像を前記第1の標的画像にマッピングする第1の変換を決定することと、
前記頭部搭載型ディスプレイデバイスの前記第1の接眼レンズ上で視認するための後続画像に前記第1の変換を適用することと
を行うように構成されるプロセッサと
を備える、頭部搭載型ディスプレイデバイス。
(項目20)
前記ウェアラブルフレームに関連付けられ、搭載される1つまたはそれより多くのセンサをさらに備え、前記1つまたはそれより多くのセンサは、前記頭部搭載型ディスプレイデバイスの外部の実世界環境の状態に関するデータを受信するように構成される、項目19に記載の頭部搭載型ディスプレイデバイス。
(項目21)
前記第1の変換は、実世界環境の特徴を前記第1の標的画像からの対応する特徴と整合させる、項目19に記載の頭部搭載型ディスプレイデバイス。
(項目22)
前記プロセッサによって実施される前記プロセスを開始するために、信号を前記プロセッサに伝送するように構成されるトリガセンサをさらに備える、項目19に記載の頭部搭載型ディスプレイデバイス。
(項目23)
前記第1の接眼レンズは、光学的に透明である、項目19に記載の頭部搭載型ディスプレイデバイス。
(項目24)
前記第1の撮像センサの温度を測定するように構成される温度センサをさらに備え、前記第1の変換は、少なくとも部分的に、前記第1の撮像センサの前記測定された温度に基づく、項目19に記載の頭部搭載型ディスプレイデバイス。
(項目25)
前記ウェアラブルフレームに弾性的に搭載される第2の接眼レンズであって、前記第2の接眼レンズは、前記第2の接眼レンズに強固かつ光学的に結合される第2のプロジェクタを備え、前記第2のプロジェクタは、光を前記第2の接眼レンズに放出するように構成される、第2の接眼レンズと、
前記ウェアラブルフレームに弾性的に搭載され、前記第2の接眼レンズから放出される光を捕捉するように構成される第2の撮像センサと
をさらに備え、前記プロセッサは、
第2の標的画像のデータを前記第2のプロジェクタに伝送することと、
前記第2の撮像センサから、前記第2の標的画像の変換状態を表現する第2の捕捉された画像のデータを受信することと、
前記第2の捕捉された画像を前記第2の標的画像にマッピングする第2の変換を決定することと、
前記頭部搭載型ディスプレイデバイスの前記第2の接眼レンズ上で視認するための後続画像に前記第2の変換を適用することと
を行うようにさらに構成される、項目19に記載の頭部搭載型ディスプレイデバイス。(項目26)
前記第2の変換は、実世界環境の特徴を前記第2の標的画像からの対応する特徴と整合
させる、項目25に記載の頭部搭載型ディスプレイデバイス。
(項目27)
前記第2の変換は、前記第1の変換に依存する、項目25に記載の頭部搭載型ディスプレイデバイス。
(項目28)
頭部搭載型ディスプレイデバイスであって、
ウェアラブルフレームと、
前記ウェアラブルフレームに弾性的に搭載される2つまたはそれより多くの接眼レンズであって、前記2つまたはそれより多くの接眼レンズの各々は、それぞれのプロジェクタに光学的に結合される、2つまたはそれより多くの接眼レンズと、
前記ウェアラブルフレームに弾性的に搭載され、前記2つまたはそれより多くの接眼レンズ間の幾何学的差異を測定するように構成される剛性検知要素と
を備える、頭部搭載型ディスプレイデバイス。
(項目29)
各プロジェクタおよび前記剛性検知要素に通信可能に結合されるプロセッサをさらに備え、前記プロセッサは、
前記2つまたはそれより多くの接眼レンズ間の幾何学的差異を表現するデータを前記剛性検知要素から受信することと、
前記2つまたはそれより多くの接眼レンズ毎に画像変換を決定することであって、前記画像変換は、各プロジェクタによって投影される後続画像に適用されると前記後続画像の整合させられた両眼表現を生成する、ことと
を行うように構成される、項目28に記載の頭部搭載型ディスプレイデバイス。
(項目30)
前記剛性検知要素は、撮像センサである、項目28に記載の頭部搭載型ディスプレイデバイス。
(項目31)
前記剛性検知要素は、位置検知ダイオードである、項目28に記載の頭部搭載型ディスプレイデバイス。
(項目32)
前記剛性検知要素は、LiDARセンサである、項目28に記載の頭部搭載型ディスプレイデバイス。
【図面の簡単な説明】
【0010】
(図面の簡単な説明)
【
図1】
図1A-1Bは、非変形状態における頭部搭載型ディスプレイのためのウェアラブルフレームを描写する。
【0011】
【
図2】
図2A-2Bは、変形状態における頭部搭載型ディスプレイのためのウェアラブルフレームを描写する。
【0012】
【
図3】
図3A-3Bは、頭部搭載型ディスプレイの較正プロセスを図示する。
【0013】
【
図4】
図4は、頭部搭載型ディスプレイのための較正プロセスのフローチャートである。
【0014】
【
図5】
図5は、頭部搭載型ディスプレイの系統図である。
【0015】
種々の図面における同様の参照番号および記号は、同様の要素を示す。
【発明を実施するための形態】
【0016】
(詳細な説明)
図1Aおよび
図1Bは、非変形または理想的状態におけるVARシステムの頭部搭載型ディスプレイデバイス100を図示する。
図1Aは、整合させられた左および右接眼レンズ(またはディスプレイ)70L、70Rを伴う頭部搭載型ディスプレイデバイス100の上面図を示す。仮想コンテンツは、仮想画像生成システムの一部として、対の接眼レンズ70L、70Rを通して左眼および右眼にそれぞれ提示および知覚されてもよい。
【0017】
図1Bは、両眼整合仮想コンテンツ74として、2つの接眼レンズ70L、70Rを通したユーザの眼への左および右単眼仮想コンテンツ72L、72Rを図示する。
図1Bは、非変形状態における頭部搭載型ディスプレイデバイス100を示す。2つの接眼レンズ70L、70Rが非変形状態にあるとき、単眼仮想コンテンツ72L、72Rは、組み合わさり、示されるような適切な両眼整合仮想コンテンツ74を生み出す。これは、仮想コンテンツ74内の完璧に重複する左および右単眼仮想コンテンツ72L、72Rによって表現される。
【0018】
VARシステムは、ユーザの視野内の物理的オブジェクトと混在する仮想オブジェクトの画像を提供し得る拡張現実または複合現実システムとして動作させられてもよく、それによって、仮想オブジェクト(単数または複数)が、それらがユーザの物理的環境内に存在するかのように現れる。種々の仮想オブジェクトをユーザの視野内のそれぞれの物理的オブジェクトに対して空間的に位置付けることが望ましくあり得る。頭部搭載型ディスプレイデバイス100の投影アセンブリ(プロジェクタとも称される)108L、108Rは、表示のために仮想オブジェクトを接眼レンズ70L、70R上に投影する。仮想オブジェクトは、仮想タグ、タグ、またはコールアウトと称され得、種々の好適な形態で実装されてもよい。
【0019】
仮想オブジェクトの例は、限定されないが、仮想テキストオブジェクト、仮想数値オブジェクト、仮想英数字オブジェクト、仮想タグオブジェクト、仮想フィールドオブジェクト、仮想チャートオブジェクト、仮想マップオブジェクト、仮想計測オブジェクト、または物理的オブジェクトの仮想視覚表現を含んでもよい。例えば、VARシステムは、ユーザが部屋内の空の椅子を視認しているときを決定することと、仮想人物が部屋内の実際の椅子に着座していることをユーザが知覚するように、椅子に着座する人物を表現する画像を頭部搭載型ディスプレイデバイス100の各眼と関連付けられる各接眼レンズ70L、70Rに投影することとを行うことができる。
【0020】
図1Aおよび
図1Bに示されるように、2つの接眼レンズ70L、70Rは、理想的または非変形様式において相互に整合させられる。換言すると、2つの接眼レンズ70L、70Rの整合は、頭部搭載型ディスプレイデバイス100の製造時以降、変わっていない。例えば、上記に説明されたように椅子にいる人物を視認する場合、2つの接眼レンズ70L、70Rの各々は、椅子に着座する人物の単眼仮想コンテンツ72L、72Rを表示する。ユーザは、この仮想コンテンツの組み合わせを仮想コンテンツ74として知覚する。
【0021】
これは、3D知覚に関して、ユーザの脳が単一単眼画像を3D深度情報と適切に関連付けないことがあるため重要である。しかしながら、ユーザの脳は、3D深度情報と適切に整合させられる2つの単眼画像を適切に関連付け、ユーザからある距離に位置付けられる3Dオブジェクトをユーザが視認しているという錯覚を与え得る。例えば、これは、人物の画像が接眼レンズ70L、70R上、すなわち、ユーザの眼から1インチ未満にあるが、人物がユーザからある距離にある椅子に着座しているという錯覚を与え得る。
【0022】
頭部搭載型ディスプレイデバイス100は、使用中にユーザの頭部に搭載するウェアラブルフレーム102を含む。ウェアラブルフレーム102は、ユーザの左および右耳上にそれぞれ位置付け可能である左および右つる302L、302Rを含む。ウェアラブルフレーム102がユーザの鼻に対して快適に静止することを可能にするために鼻当て306が提供される。ウェアラブルフレーム102は、好ましくは、射出成型されたプラスチックから作製され、軽量のままである。
【0023】
ウェアラブルフレーム102は、ブリッジ304から離れるように延在する2つのカンチレバーアーム部分312を含む。カンチレバーアーム部分312は、眼鏡のレンズの位置と同様に、ユーザの鼻の上方かつ眼の正面に位置付けられるように意図されるディスプレイサブシステム104の弾性的搭載を提供する。カンチレバーアーム部分312は、左および右カンチレバーアーム310L、310Rに接続する。各左および右カンチレバーアーム310L、310Rは、エンドユーザの眼の平面と平行な平面においてそれぞれのカンチレバーアーム部分312から延在する添着アーム部分314を含む。
【0024】
左および右接眼レンズ70L、70Rは、添着アーム部分314にそれぞれ添着され、左および右投影サブアセンブリ108L、108Rは、添着アーム部分314の外側端にそれぞれ添着される。これは、左および右接眼レンズ70L、70Rの中への光ビームの導入をそれぞれ促進し、それによって、光線が左および右接眼レンズ70L、70Rからそれぞれ出射し、頭部搭載型ディスプレイデバイス100を装着しているユーザに左および右単眼画像を両眼画像として表示する。
【0025】
左および右接眼レンズ70L、70Rは、画像データがそれら上に投影されるとき、事実上、ディスプレイインターフェースとして動作する。いくつかの実装では、左および右接眼レンズ(またはディスプレイ)70L、70Rのディスプレイは、「光学シースルー」ディスプレイであってもよく、それを通してユーザは、直接、透明(または半透明)要素を介して実オブジェクトからの光を視認することができる。この場合、左および右接眼レンズ70L、70Rは、各接眼レンズが、投影サブシステム108L、108Rからの光を実世界のユーザのビューにわたって重畳し得るように、完全に透明または部分的に透明であってもよい。
【0026】
ディスプレイサブシステム104は、光ベースの放射パターンをユーザの各眼に提示するように構成される。これらの放射パターンは、高品質2Dまたは3D画像コンテンツによる物理的現実に対する拡張として快適に知覚されるように意図される。
【0027】
左および右投影サブシステム108L、108Rは、左および右単眼画像を左および右接眼レンズ70L、70R上にそれぞれ投影してもよい。接眼レンズ70L、70Rは、単眼画像を両眼画像として視認するように、ユーザの眼の正面に設置されることができる。ある場合には、接眼レンズ70L、70Rは、ユーザの眼から1インチ未満にある。加えて、接眼レンズ70L、70Rは、周囲環境からの直接光が接眼レンズ70L、70Rを通してユーザの眼まで進行するように、ユーザの眼と周囲環境との間のユーザの視野内に設置されてもよい。
【0028】
投影アセンブリ108L、108Rは、走査される光を接眼レンズ70L、70Rにそれぞれ提供してもよい。いくつかの実装では、投影サブシステム108L、108Rは、光ファイバ走査ベースの投影デバイスとして実装されてもよく、接眼レンズ70L、70Rは、導波路ベースのディスプレイとして実装されてもよく、それぞれの投影サブシステム108L、108Rから走査される光が、それらの中に入射される。ディスプレイサブシステム104は、フレームバッファから取得される一連のフレームを種々の周波数において出力してもよい。ある場合には、ディスプレイサブシステム104は、フレームを高周波数において出力し、単一コヒーレント場面の知覚を提供してもよい。
【0029】
投影サブシステム108L、108Rの各々は、シリコン上液晶(「LCoS」)コンポーネントまたは微小電気機械(「MEMs」)走査型ミラー等の空間光変調器(「SLM」)を備えてもよい。左投影サブシステム108Lは、仮想コンテンツを表現する光を左接眼レンズ70Lに向かって投影してもよく、これは、ひいては、この光を入力結合させ、直交瞳拡張(OPE)および/または射出瞳拡張(EPE)機能性を提供するように構成される回折光学要素(DOE)に向かって誘導する。誘導される光の大部分は、光がDOE(単数または複数)を横断する(例えば、ユーザの左眼に向かって方向付けられる)ときに接眼レンズ70Lから出射し得るが、この光の一部は、出力結合DOE190Lに向かって継続し得、そこで光(光線203によって表現される)として接眼レンズ70Lから出力結合され、少なくとも部分的に、光検知アセンブリ122によって傍受され得る。
【0030】
右投影サブシステム108Rは、右接眼レンズ70RおよびそのDOE(単数または複数)(例えば、出力結合要素190R、入力結合要素(ICE)、OPE、およびEPE)とともに、投影サブシステム108Lと類似の様式で動作し得る。例えば、投影サブシステム108R、右接眼レンズ70R、およびそのDOE(単数または複数)は、仮想コンテンツをユーザの右眼に提示し、出力結合DOE190Rを通して仮想コンテンツを表現する光を出力結合させ、光検知アセンブリ122に方向付け得る。
【0031】
図1Aに示されるように、光検知アセンブリ122は、ウェアラブルフレーム102のブリッジ304内に位置する。光検知アセンブリ122は、左および右接眼レンズのための別個のカメラ(撮像センサ)を含む。カメラは、左および右接眼レンズ上に表示される仮想コンテンツを決定するように構成される。
【0032】
光検知アセンブリ122は、十分に剛であることができ、したがって、左接眼レンズと関連付けられるカメラは、右接眼レンズと関連付けられるカメラの位置および向きに対して固定された位置および向きを有する。光検知アセンブリ122は、好ましくは、アルミニウム、チタン、またはセラミック等の剛性材料から作製される。光検知アセンブリ122は、剛性検知要素とも称される。光検知アセンブリ122の両方のカメラは、各それぞれの接眼レンズ70L、70R上に表示される画像を表現する光線203を捕捉するように構成される。光検知アセンブリ122は、カメラ毎に温度を監視するための温度センサを含む。光検知アセンブリ122は、好ましくは、発泡体またはゴム等の絶縁材料を用いてウェアラブルフレーム102に弾性的に搭載される。
【0033】
光検知アセンブリ122はカメラとして説明されるが、ある場合には、位置検知ダイオードまたはLiDARセンサが、カメラの代わりに、またはそれに加えて使用される。例えば、LiDARセンサは、稠密点群を各それぞれの接眼レンズ70L、70R上に投影することができ、これは、反射され、プロセッサによって、それぞれの接眼レンズ70L、70Rの相対的位置を決定するために分析される。同様に、位置検知ダイオードは、光線203の位置を測定することができ、この情報は、プロセッサによって、それぞれの接眼レンズ70L、70Rの相対的位置を決定するために分析されることができる。
【0034】
頭部搭載型ディスプレイデバイス100および/またはVARシステムは、ユーザの頭部の位置および移動ならびに/またはユーザの眼の位置および眼間距離を検出するための、ウェアラブルフレーム102に搭載される1つまたはそれより多くのセンサも含んでもよい。そのようなセンサ(単数または複数)は、画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープを含んでもよい。例えば、瞬目センサは、ユーザが瞬目するときを示し得、この情報は、VARシステムによる較正プロセスをトリガするために使用されることができる。
【0035】
ユーザの鼻から離れている左および右カンチレバーアーム310L、310Rの端部は、カメラ103L、103Rをそれぞれ含む。左カメラ103Lおよび右カメラ103Rは、ユーザの環境の画像、例えば、ユーザの正面のオブジェクトを取得するように構成される。
【0036】
図1Aは、ユーザから離れている左および右接眼レンズ70L、70Rと、ユーザにより近い光検知アセンブリ122とを図示するが、ある場合には、左および右接眼レンズ70L、70Rは、ユーザにより近く、光検知アセンブリ122は、ユーザからより遠い。
【0037】
図2Aおよび
図2Bは、変形または非理想的状態におけるVARシステムの頭部搭載型ディスプレイデバイス100を図示する。ユーザに向かって屈曲している接眼レンズ70Rが、示される。一方または両方の接眼レンズ70L、70Rが変形状態にあるとき、単眼仮想コンテンツ72L、72Rは、
図2Bに示されるような両眼不整合仮想コンテンツ74を生み出すように組み合わさる。
図2Bは、右接眼レンズ70Rのピッチに起因する仮想コンテンツ74内の単眼仮想コンテンツ72L、72Rのこの不整合を図示する。不整合は、仮想コンテンツ74内の完璧には重複していない左および右単眼仮想コンテンツ72L、72Rによって表現される。左および右接眼レンズ70L、70R間のそのような不整合は、左および右仮想コンテンツ72L、72R間の知覚される平行移動的および/または回転的不整合をもたらし得る。
【0038】
頭部搭載型ディスプレイデバイス100は、例えば頭部搭載型ディスプレイデバイス100の移動によって、またはユーザの手もしくは部屋内の他のオブジェクトとの偶発的接触によって使用中に変形され得る。ある場合には、頭部搭載型ディスプレイデバイス100は、輸送中に、または初期組立中にさえ変形される。先に説明されたように、一方の接眼レンズ70Lが他方の接眼レンズ70Rに対してわずか2分(arc-minutes)だけ移動することは、不快感を引き起こすために十分であり得る。これは、接眼レンズ70L、70Rが(例えば、仮想現実システムにおけるように)半透明または不透明であるとき、該当する。この不整合を考慮することは、ユーザの快適性を向上させる。
【0039】
説明されるシステムおよび方法は、この変形を考慮するためにディスプレイが再較正されることを可能にする。これは、左眼および右眼に関して意図される光を捕捉することと、仮想画像内の相対的不整合を比較的検知し、補正することとを行うことによって達成されることができる。
【0040】
図1Aおよび
図2Aは、光線203が左および右出力結合DOE190L、190Rから伝送されている様子を図示する。
図1Aの非変形状態では、光線203は、光検知アセンブリ122のそれぞれのカメラに実質的に同時に到達する。この飛行時間情報は、右接眼レンズ70Rに対する左接眼レンズ70Lの相対的位置に依存する。例えば、予期されるより早くディスプレイに到達する光は、接眼レンズがユーザから離れるように屈曲しており、出力結合DOEが光検知アセンブリ122により近いことを示し得る。逆に、予期されるより遅くディスプレイに到達する光は、接眼レンズがユーザに向かって屈曲しており、出力結合DOEが光検知アセンブリ122からより遠いことを示し得る。
【0041】
さらに、光検知アセンブリ122によって捕捉された画像は、各それぞれの接眼レンズの位置についての情報を決定するために処理されることができる。左出力結合DOE190Lから受信された光は、光検知アセンブリ122の左カメラを使用して左捕捉画像の中に生成される。右出力結合DOE190Rから受信された光は、光検知アセンブリ122の右カメラを使用して右捕捉画像の中に生成される。
【0042】
例えば、左捕捉画像を非変形状態を表現する左標的画像と比較することによって、VARシステムは、左接眼レンズ70Lが変形されていることを決定することができる。VARシステムは、この変形を補正するために後続画像に適用されるべき変換も決定することができる。変換は、次いで、左接眼レンズに関する後続画像に適用され、左投影サブシステム108Lに送信される。ユーザは、快適な視認体験を回復する。
【0043】
捕捉された画像の特徴も、変形を示すことができる。例えば、回転させられた画像は、接眼レンズのロールを示し得、台形画像は、台形の辺の長さに応じてヨーイングまたはピッチングを示し得る。より大きい画像は、接眼レンズが光検知アセンブリ122からより遠いことを示し得、一方、より小さい画像は、接眼レンズが光検知アセンブリにより近いことを示し得る。
【0044】
図3Aおよび
図3Bは、各接眼レンズと関連付けられる変換および較正プロセスを図示する。
図3Aの左図は、
図2Bに示されるような、右接眼レンズ70Rのピッチングからの不整合左および右単眼仮想コンテンツ72L、72Rを図示する。変換されると、右単眼仮想コンテンツ72Rは、右接眼レンズ70Rが依然としてピッチしているにもかかわらず、(
図3Bに示されるように)左単眼仮想コンテンツ72Lに完璧にオーバーレイする。
図3Bは、
図1Bの不整合フレーム上に示される変換された画像が、変換プロセス後に適切な両眼表現を有する様子を図示する。
【0045】
図4は、較正プロセス400のフローチャートである。較正は、接眼レンズ70L、70R毎に決定される。ある場合には、較正は、例えば、ユーザの瞬目によって、またはユーザが(例えばユーザインターフェースを通して、もしくは設定モードを介して)較正が実施されることを要求することによってトリガされる(ステップ408)。較正は、較正処理が生じていることをユーザが認知しないほど十分に高速で実施される。ある場合には、較正は、100ミリ秒以内に完了される。ある場合には、別個のトリガ信号が、接眼レンズ毎に受信される。
【0046】
左(第1の)接眼レンズのコンテキストでは、VARシステムは、左接眼レンズの非変形状態と関連付けられる左標的画像のデータを受信する(ステップ410L)。左標的画像は、標的画像のデータベースから検索されることができる。左標的画像は、VARシステムのプロセッサによって区別可能な幾何学的特徴を含んでもよい。例えば、左標的画像は、各正方形内に固有の画像を伴う正方形の市松模様パターンであってもよい。左標的画像は、モノクロまたはカラーであってもよい。カラー左標的画像は、画像内のカラーチャネル(例えば、赤色、緑色、および青色カラーチャネル)の整合を示すために使用されることができる。左標的画像は、左接眼レンズ70Lに関して調整されてもよく、右接眼レンズ70Rに関する右標的画像と異なってもよい。しかしながら、ある場合には、左標的画像と右標的画像とが同じである。
【0047】
ある場合には、左標的画像のデータは、左接眼レンズ上に表示するために左プロジェクタに伝送される(ステップ412L)。光検知アセンブリ122の左カメラは、左捕捉画像のデータを表現する出力結合DOEからの光を捕捉する(ステップ418L)。変形状態と関連付けられる左捕捉画像のデータは、頭部搭載型ディスプレイデバイスの左接眼レンズの左カメラから受信される(ステップ420L)。
【0048】
ある場合には、較正プロセス400は、左撮像センサの温度測定値を受信すること(ステップ426L)を含む。ある場合には、頭部搭載型ディスプレイデバイスの外部の実世界環境の状態を表現するデータが、1つまたはそれより多くのセンサから受信される(ステップ428L)。
【0049】
左捕捉画像を左標的画像にマッピングする左変換が、決定される(ステップ430L)。ある場合には、受信された温度が、左変換において考慮される。ある場合には、左変換は、実世界環境の特徴を左標的画像からの対応する特徴と整合させる。ある場合には、左変換は、左接眼レンズに対する左撮像センサの相対的位置を考慮する。ある場合には、左変換は左接眼レンズと関連付けられるトリガ信号が受信されたときに決定されるが、左変換は、右接眼レンズと関連付けられるトリガ信号、ならびに/または、左および右接眼レンズの両方と関連付けられるトリガ信号が受信されたときに決定されることもできる。ある場合には、1つより多くのトリガ信号が、受信される。
【0050】
ある場合には、プロセッサは、仮想コンテンツがフレームの左上領域内に位置することを決定し、フレーム内で検出されたコンテンツと関連付けられるピクセルの場所およびピクセル値を識別し、この情報を使用して変換を決定する。ある場合には、変換を決定するために、撮像センサに進入する光の方向が使用される。
【0051】
例えば、変換は、ディスプレイバッファ内のピクセルに合致する。この場合、ビデオバッファは、各ピクセルを仮想光空間にマッピングし、変換は、ピクセルを光源にマッピングし、平滑変換マップをもたらす。ある場合には、画像の横方向に数十点(例えば、15~30点)および垂直方向に数十点(例えば、15~30点)を有することが好ましい。これは、プロセッサが、ピクセルがピクセル空間内のどこに移動したかを決定することを可能にする。例えば、標的画像が場所Aに白色ピクセルの集団を有し、その白色ピクセルの集団が場所Bに移動した場合、変換は、単にBからAへの画像全体のピクセルシフト(逆シフト)であってもよい。別の例として、標的画像がサイズAの白色ピクセルの集団を有し、その白色ピクセルの集団がサイズBに拡大した場合、変換は、単にサイズBからサイズAへの画像全体のピクセルスケーリング(逆スケーリング)であってもよい。他の変換が、当技術分野において公知の撮像処理技法に従ってもよい。
【0052】
ある場合には、1つより多くの左変換が、決定される。例えば、いくつかの捕捉された画像が、いくつかの変換を決定するために処理されることができる。これらは、変換の正確度を増加させるために平均化またはフィルタリングされることができる。
【0053】
左変換は、頭部搭載型ディスプレイデバイスの左接眼レンズ上で視認するための後続画像に適用される(ステップ440L)。ある場合には、変換された後続画像は、左接眼レンズ上で視認するために、左接眼レンズに光学的に結合される左プロジェクタに伝送される(ステップ450L)。ある場合には、プロセス400は、所望または必要に応じて繰り返される。
【0054】
ある場合には、このプロセスは、右(第2)のディスプレイに関して繰り返される。そのような場合、頭部搭載型ディスプレイデバイスの右接眼レンズの非変形状態と関連付けられる右標的画像のデータが、受信される(ステップ410R)。ある場合には、右標的画像は、左標的画像と同一であり(ステップ410)、または左標的画像に別様に依存する。例えば、左標的画像がモノクロである場合、右標的画像もモノクロであってもよい。標的画像のこれらのおよび他のプロパティは、プロセッサによって相互に通信されてもよい(ステップ410)。例えば、左および右変換は、それぞれの捕捉された画像の各個々のカラーチャネルをそれぞれの標的画像の各個々のカラーチャネルと整合させてもよい。
【0055】
ある場合には、右標的画像のデータは、右プロジェクタに伝送される(ステップ412R)。右捕捉画像のデータは、右プロジェクタに光学的に結合される右撮像センサによって捕捉される(ステップ418R)。ある場合には、頭部搭載型ディスプレイデバイスの右接眼レンズの変形状態と関連付けられる右捕捉画像のデータが、受信される(ステップ420R)。ある場合には、右撮像センサの温度測定値が、受信される(ステップ426)。
【0056】
右捕捉画像を右標的画像にマッピングする右変換が、決定される(ステップ430R)。ある場合には、受信された温度が、右変換において考慮される。ある場合には、右変換は、実世界環境の特徴を右標的画像からの対応する特徴と整合させる。ある場合には、右変換は、右接眼レンズに対する右撮像センサの相対的位置を考慮する。ある場合には、右変換は右接眼レンズと関連付けられるトリガ信号が受信されるときに決定されるが、右変換は、左接眼レンズと関連付けられるトリガ信号、ならびに/または、左および右接眼レンズの両方と関連付けられるトリガ信号が受信されるときに決定されることもできる。ある場合には、1つより多くのトリガ信号が、受信される。
【0057】
ある場合には、右変換は、左変換に依存する(ステップ430)。例えば、ある場合には、両眼変換アルゴリズムが、左変換および右変換の両方に関して好ましい変換を決定する。両眼変換は、左および右ディスプレイから決定されるだけではなく、頭部搭載型ディスプレイデバイス100またはVARシステム上の1つまたはそれより多くのセンサからも決定される。センサは、ユーザの周囲の実世界を測定し、重畳される視覚的コンテンツを実世界と適切に整合させるために使用される。
【0058】
例えば、左接眼レンズが左に3ピクセルだけシフトさせられても実世界内のオブジェクトが接眼レンズのいずれとも適切に整合させられない場合を検討する。この場合、ディスプレイの両方が相互および実世界周囲と整合させられるように、左変換が画像をシフトさせ得、右変換が画像をシフトさせ得る。
【0059】
右変換は、頭部搭載型ディスプレイデバイスの右接眼レンズ上で視認するための後続画像に適用される(ステップ440R)。ある場合には、変換された後続画像は、右接眼レンズ上で視認するために、右接眼レンズに光学的に結合される右プロジェクタに伝送される(ステップ450R)。
【0060】
図5は、VARシステム500の系統図である。VARシステム500は、種々のソフトウェアおよびハードウェアコンポーネントを伴う制御サブシステムを含み、
図1Aおよび
図2Aに示される頭部搭載型ディスプレイデバイス100を含む。VARシステム500は、VARシステム500の処理タスクを実施するためのコンピュータ処理ユニット(CPU)502と、グラフィックス処理ユニット(GPU)504とを含む。左および右単眼較正アルゴリズムならびに左および右熱モデルが、メモリ内に記憶され、較正プロセスを補助するためにプロセッサ上で実行される。
【0061】
ある場合には、左単眼較正アルゴリズムは、較正プロセス400のステップ410L-450Lを含み、右単眼較正アルゴリズムは、較正プロセス400のステップ410R-450Rを含む(ただし、これは限定するものではない)。較正プロセス400の他のステップが、左および右単眼較正アルゴリズムにおいて実装可能である。左および右ディスプレイ較正サーバも、プロセッサと通信する。さらに、両眼較正アルゴリズム、オンライン較正、付帯較正サーバ、ならびに左および右の組み合わせられた熱モデルが、較正プロセスのためにプロセッサと通信する。ある場合には、両眼較正アルゴリズムは、較正プロセス400のステップ410および430を含む(ただし、これは限定するものではない)。較正プロセス400の他のステップが、両眼較正アルゴリズムにおいて実装可能である。
【0062】
VARシステム500は、実世界環境510を監視するためのセンサを含む。これらのセンサ510はユーザ向きセンサおよび角度検知アセンブリを含むように示されるが、先に説明されたセンサもVARシステム500に含まれる。VARシステム500は、3D場面データを記憶するための3次元(3D)データベース508も含む。CPU502は、VARシステム500の全体的動作を制御し得、一方、GPU504は、3Dデータベース508内に記憶される3Dデータからのフレームをレンダリングし(例えば、3D場面を2D画像に変換する)、これらのフレームをフレームバッファ(単数または複数)506内に記憶する。
【0063】
画像を左および右投影サブシステム108L、108Rにそれぞれ伝送する左および右フレームバッファ506L、506Rも含まれる。具体的には、画像は、投影システムに送信され、頭部搭載型ディスプレイ100の接眼レンズ上に表示される。光検知アセンブリ122の左および右画像センサによって捕捉されると、捕捉された画像は、較正プロセスの一部としてプロセッサに返信される。
【0064】
一般に、制御サブシステムは、マイクロコントローラ、マイクロプロセッサ、CPU、デジタル信号プロセッサ、GPU、特定用途向け集積回路(ASIC)、プログラマブルゲートアレイ(PGA)、フィールドPGA(FPGA)、および/またはプログラマブル論理コントローラ(PLU)等の種々のコントローラを含んでもよい。制御サブシステムは、例えば実行可能命令の実行を通して本明細書に説明される動作を実施するCPU502およびGPU504等の1つまたはそれより多くのプロセッサを含んでもよく、かつ/またはそれらと通信してもよい。図示されないが、フレームバッファ118の中への1つまたはそれより多くのフレームの読込および/またはそれらからの読取と、ディスプレイサブシステム104の左および右投影サブシステム108L、108Rの動作とを制御するために、1つまたはそれより多くの集積回路が使用されてもよい。
【0065】
具体的には、CPU502は、光検知アセンブリ122によって取得されるデータを受信および処理してもよい。CPU502は、ウェアラブルフレーム102が非変形状態にあるときに光検知アセンブリ122上に入射した光から導出されるデータをウェアラブルフレーム102が変形状態にあるときに光検知アセンブリ122上に入射した光に関して導出されるデータと比較し、左および右接眼レンズ70L、70Rの相対的変形状態を決定してもよい。仮想画像の相対的変形状態または不整合を検出することに応答して、VARシステム500は、1つまたはそれより多くの較正プロシージャを実施し、変形/不整合に応じて、仮想または表示される画像を補償してもよい。
【0066】
VARシステム500および本明細書に開示される種々の技法は、拡張現実および仮想現実サブシステム以外の用途においても採用されてもよい。ある実装は拡張現実サブシステムまたは仮想現実サブシステムのコンテキストにおいて説明されるが、VARシステム500は、そのようなサブシステムに限定されない。
【0067】
ある場合には、VARシステム500の処理側面(CPU502およびGPU504)はデバイス内に実装され、そのデバイスはユーザの腰部に取り付けられるか、またはユーザのポケット内にあるが、ある場合には、処理側面は、直接、
図1Aおよび
図2Aに示される頭部搭載型ディスプレイデバイス100内に実装される。ある場合には、処理側面は、近隣のコンピュータ内に実装され、頭部搭載型ディスプレイデバイス100に有線または無線通信される。ある場合には、少なくともいくつかの処理側面は、遠隔サーバ上に実装され、WiFiまたは類似物を使用して、示される頭部搭載型ディスプレイデバイス100に無線通信される。
【0068】
較正技法は、CPU502またはGPU504等の1つまたはそれより多くのプロセッサ(本明細書では、下記、単にプロセッサと称される)によって実行されてもよい。先に説明された較正プロセスは単一の捕捉された画像のコンテキストにおいて説明されるが、ある場合には、1つより多くの捕捉された画像が処理され、1つより多くの変換が接眼レンズ毎に決定される。この場合、変換は、最も正確な変換を決定するために平均化またはフィルタリングされることができる。
【0069】
いくつかの実装では、VARシステム500は、ユーザに表示されている仮想コンテンツの色に関して較正されてもよい。例えば、青色仮想コンテンツのみが表示されている場合、プロセッサは、青色テストパターンを使用して較正を実施してもよい。赤色仮想コンテンツのみが表示されている場合、プロセッサは、赤色テストパターンを使用して較正を実施してもよい。緑色仮想コンテンツのみが表示されている場合、プロセッサは、緑色テストパターンを使用して較正を実施してもよい。赤色、青色、および緑色の組み合わせを有する仮想コンテンツが表示されている場合、プロセッサは、赤色、青色、および緑色較正フレームの組み合わせを使用して較正を実施してもよい。
【0070】
較正フレームの種々の特性(強度等)は、代表的仮想コンテンツフレームの特性に合致するか、またはそれらに似るように構成されてもよい。例えば、仮想コンテンツの強度が最小閾値レベルの強度を上回るかまたはそれに等しいと決定される場合、較正フレームの強度は、対応する仮想コンテンツの強度に等しくあり得る。仮想コンテンツの強度が最小閾値レベルの強度未満であると決定される場合、較正フレームの強度は、最小閾値レベルの強度に設定されてもよい。
【0071】
いくつかの実装では、コントラスト比または明度等の較正フレームの画像プロパティは、テストフレームの知覚性をさらに低減させるように構成され得る。いくつかの実装では、較正フレームは、テスト画像を仮想コンテンツの縁の後ろに隠すことによって希薄化されてもよい。較正フレームは、仮想コンテンツに類似するテクスチャおよび色を使用することによってさらにカモフラージュされてもよい。
【0072】
説明されるシステム、方法、および技法は、デジタル電子回路網、コンピュータハードウェア、ファームウェア、ソフトウェア、またはこれらの要素の組み合わせにおいて実装されてもよい。これらの技法を実装する装置は、適切な入力および出力デバイスと、コンピュータプロセッサと、プログラマブルプロセッサによる実行のための機械読取可能記憶デバイス内に有形に具体化されるコンピュータプログラム製品とを含んでもよい。これらの技法を実装するプロセスは、入力データに対して動作することと、適切な出力を生成することとを行うことによって所望の機能を実施するための命令のプログラムを実行するプログラマブルプロセッサによって実施されてもよい。本技法は、データ記憶システム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信することと、それらにデータおよび命令を伝送することとを行うように結合される少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能な命令を含む1つまたはそれより多くのコンピュータプログラムまたは非一時的コンピュータ読取可能記憶媒体を使用して実装されてもよい。
【0073】
各コンピュータプログラムは、高水準手続型もしくはオブジェクト指向プログラミング言語において、または所望の場合にアセンブリもしくは機械言語において実装されてもよく、いずれの場合も、言語は、コンパイル型またはインタープリタ型言語であってもよい。好適なプロセッサは、汎用および専用マイクロプロセッサの両方を例として含む。一般に、プロセッサは、命令およびデータを読取専用メモリおよび/またはランダムアクセスメモリから受信する。コンピュータプログラム命令およびデータを有形に具体化するために好適な記憶デバイスは、消去可能プログラマブル読取専用メモリ(EPROM)、電気的消去可能プログラマブル読取専用メモリ(EEPROM)、およびフラッシュメモリデバイス等の半導体メモリデバイスと、内部ハードディスクおよびリムーバブルディスク等の磁気ディスクと、光磁気ディスクと、コンパクトディスク読取専用メモリ(CD-ROM)とを例として含むあらゆる形態の不揮発性メモリを含む。前述のいずれもが、特別に設計されたASIC(特定用途向け集積回路)によって補完されるか、またはその中に組み込まれてもよい。
【0074】
コンピュータ読取可能媒体は、機械読取可能記憶デバイス、機械読取可能記憶基板、メモリデバイス、機械読取可能伝搬信号をもたらす物質組成、またはそれらのうちの1つもしくはそれより多くの組み合わせであってもよい。用語「データ処理装置」は、データを処理するためのあらゆる装置、デバイス、および機械を包含し、プログラマブルプロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータを例として含む。装置は、ハードウェアに加えて、当該コンピュータプログラムのための実行環境を作成するコード(例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらのうちの1つもしくはそれより多くの組み合わせを構成するコード)を含んでもよい。伝搬信号は、人工的に生成された信号(例えば、好適な受信機装置への伝送のために情報をエンコーディングするために生成される機械生成された電気、光学、または電磁信号)である。
【0075】
プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、プラグイン、またはコードとしても知られるコンピュータプログラムは、コンパイル型またはインタープリタ型言語を含む任意の形態のプログラミング言語において書き込まれてもよく、任意の形態でデプロイされてもよい(独立型プログラムとして、またはコンピューティング環境において使用するために好適なモジュール、コンポーネント、サブルーチン、もしくは他のユニットとしてデプロイされることを含む)。コンピュータプログラムは、必ずしもファイルシステム内のファイルに対応しない。プログラムは、他のプログラムまたはデータを当該プログラム専用の単一ファイル内に、または複数の連携ファイル内に保持するファイルの一部内に記憶されてもよい。コンピュータプログラムは、1つのコンピュータ上で実行されてもよく、または、1つの施設に位置するか、もしくは複数の施設を横断して分散され、通信ネットワークによって相互接続される複数のコンピュータ上で実行されてもよい。
【0076】
本明細書に説明されるプロセスおよび論理フローは、1つまたはそれより多くのセンサプログラマブルプロセッサによって実施されてもよく、1つまたはそれより多くのセンサプログラマブルプロセッサは、入力データに対して動作することと、出力を生成することとを行うことによってアクションを実施するために1つまたはそれより多くのセンサコンピュータプログラムを実行する。プロセスおよび論理フローは、専用論理回路網(例えば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路))によっても実施されてもよく、装置も、そのようなものとして実装されてもよい。
【0077】
コンピュータプログラムの実行のために好適なプロセッサは、汎用および専用マイクロプロセッサの両方と、任意の種類のデジタルコンピュータの任意の1つまたはそれより多くのセンサプロセッサとを例として含む。一般に、プロセッサは、命令およびデータを読取専用メモリまたはランダムアクセスメモリまたは両方から受信する。
【0078】
コンピュータの要素は、命令を実施するためのプロセッサと、命令およびデータを記憶するための1つまたはそれより多くのメモリデバイスとを含んでもよい。一般に、コンピュータは、データを記憶するための1つまたはそれより多くのセンサ大容量記憶デバイス(例えば、磁気、光磁気ディスク、または光ディスク)も含むか、または、データをそれらから受信すること、もしくはデータをそれらに転送すること、もしくは両方を行うために動作可能に結合される。しかしながら、コンピュータは、そのようなデバイスを有していなくてもよい。さらに、コンピュータは、別のデバイス(例えば、いくつかのみを挙げると、タブレットコンピュータ、携帯電話、個人情報端末(PDA)、モバイルオーディオプレーヤ、VARシステム)に内蔵されてもよい。コンピュータプログラム命令およびデータを記憶するために好適なコンピュータ読取可能媒体は、半導体メモリデバイス(例えば、EPROM、EEPROM、およびフラッシュメモリデバイス)、磁気ディスク(例えば、内部ハードディスクまたはリムーバブルディスク)、光磁気ディスク、ならびにCD ROMおよびDVD-ROMディスクを例として含むあらゆる形態の不揮発性メモリ、媒体、およびメモリデバイスを含む。プロセッサおよびメモリは、専用論理回路網によって補完されるか、またはその中に組み込まれてもよい。
【0079】
本明細書は多くの詳細を含むが、これらは、本開示の範囲または特許請求の範囲に対する限定としてではなく、むしろ、具体的実施形態に特有の特徴の説明として解釈されるべきである。別個の実施形態のコンテキストにおいて本明細書に説明されるある特徴は、単一実施形態において組み合わせて実装されてもよい。逆に、単一実施形態のコンテキストにおいて説明される種々の特徴は、複数の実施形態において別個に、または任意の好適な部分的組み合わせにおいて実装されてもよい。さらに、特徴はある組み合わせにおいて作用するものとして上記に説明され得、そのようなものとして主張されることさえあり得るが、主張される組み合わせからの1つまたはそれより多くの特徴は、ある場合には、組み合わせから削除されることができ、主張される組み合わせは、部分的組み合わせ、または部分的組み合わせの変形例を対象とし得る。例えば、マッピング動作は一連の個別の動作として説明されるが、種々の動作は、所望の実装に応じて付加的動作に分割されるか、より少ない動作に組み合わせられるか、実行の順序を変えられるか、または排除されてもよい。
【0080】
同様に、上記に説明された実施形態における種々のシステムコンポーネントの分離は、あらゆる実施形態においてそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、一般に、単一ソフトウェア製品内でともに統合されるか、または複数のソフトウェア製品の中にパッケージ化されてもよいことを理解されたい。例えば、いくつかの動作は処理サーバによって実施されると説明されるが、動作のうちの1つまたはそれより多くは、スマートメータまたは他のネットワークコンポーネントによって実施されてもよい。
【0081】
本明細書、特に、付属の特許請求の範囲(例えば、付属の特許請求の範囲の本体部分)において使用される用語は、一般に、「非制限的」用語であることを意図される(例えば、用語「including(~を含む)」は、「限定されないが、~を含む」として解釈されるべきであり、用語「having(~を有する)」は、「少なくとも~を有する」として解釈されるべきであり、用語「includes(~を含む)」は、「限定されないが、~を含む」として解釈されるべきである等)。
【0082】
加えて、導入される請求項記載の特定の数が意図される場合、そのような意図は、請求項に明示的に記載され、そのような記載がない場合、そのような意図は存在しない。例えば、理解の助けとして、以下の付属の特許請求の範囲は、導入語句「少なくとも1つ」および「1つまたはそれより多く」の使用を含み、請求項記載を導入し得る。しかしながら、同一請求項が導入語句「1つまたはそれより多く」または「少なくとも1つ」と「a」または「an」等の不定冠詞とを含むときでも、そのような語句の使用は、不定冠詞「a」または「an」による請求項記載の導入が、そのような導入される請求項記載を含む任意の具体的請求項を1つのみのそのような記載を含む実施形態に限定することを含意するものと解釈されるべきではなく(例えば、「a」および/または「an」は、「少なくとも1つ」または「1つまたはそれより多く」を意味すると解釈されるべきである)、請求項記載を導入するために使用される定冠詞の使用にも、同じことが当てはまる。
【0083】
加えて、導入される請求項記載の特定の数が明示的に記載される場合でも、当業者は、そのような記載が少なくとも記載される数であることを意味する(例えば、他の修飾語を伴わない「2つの記載」のそのままの記載は、少なくとも2つの記載、または2つもしくはそれより多くの記載を意味する)と解釈されるべきであることを認識するであろう。さらに、「A、B、およびC等のうちの少なくとも1つ」または「A、B、およびC等のうちの1つまたはそれより多く」に類似する慣例が使用されるそれらの事例では、一般に、そのような構造は、Aのみ、Bのみ、Cのみ、AおよびBともに、AおよびCともに、BおよびCともに、または、A、B、およびCともに、を含むことを意図される。用語「および/または」も、このように解釈されるように意図される。
【0084】
用語「第1」、「第2」、「第3」等の使用は、本明細書では、必ずしも特定の順序または要素の数を示唆するために使用されない。概して、用語「第1」、「第2」、「第3」等は、汎用識別子として異なる要素を区別するために使用される。用語「第1」、「第2」、「第3」等が特定の順序を示唆することを示す記載がない場合、これらの用語は、特定の順序を示唆すると理解されるべきではない。さらに、用語「第1」、「第2」、「第3」等が要素の特定の数を示唆することを示す記載がない場合、これらの用語は、要素の特定の数を示唆すると理解されるべきではない。例えば、第1のウィジェットは、第1の側を有するものとして説明され得、第2のウィジェットは、第2の側を有するものとして説明され得る。第2のウィジェットに対する用語「第2の側」の使用は、第2のウィジェットのそのような側を第1のウィジェットの「第1の側」から区別するためのものであり得、第2のウィジェットが2つの側を有することを示唆するものではない。