IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ マジック リープ, インコーポレイテッドの特許一覧

特表2022-523852第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ
<>
  • 特表-第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ 図1
  • 特表-第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ 図2
  • 特表-第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ 図3
  • 特表-第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ 図4
  • 特表-第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ 図5
  • 特表-第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ 図6
  • 特表-第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ 図7
  • 特表-第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2022-04-26
(54)【発明の名称】第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ
(51)【国際特許分類】
   G09G 5/00 20060101AFI20220419BHJP
   G06T 19/00 20110101ALI20220419BHJP
   G06F 3/01 20060101ALI20220419BHJP
   G09G 5/38 20060101ALI20220419BHJP
【FI】
G09G5/00 X
G06T19/00 600
G06F3/01 510
G09G5/00 510V
G09G5/00 510B
G09G5/38 Z
G09G5/00 550X
G09G5/00 550C
G09G5/00 510H
G09G5/38 A
G09G5/00 555D
G09G5/00 510X
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2021553297
(86)(22)【出願日】2020-02-26
(85)【翻訳文提出日】2021-10-12
(86)【国際出願番号】 US2020019871
(87)【国際公開番号】W WO2020185405
(87)【国際公開日】2020-09-17
(31)【優先権主張番号】62/817,318
(32)【優先日】2019-03-12
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】62/836,417
(32)【優先日】2019-04-19
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】514108838
【氏名又は名称】マジック リープ, インコーポレイテッド
【氏名又は名称原語表記】Magic Leap,Inc.
【住所又は居所原語表記】7500 W SUNRISE BLVD,PLANTATION,FL 33322 USA
(74)【代理人】
【識別番号】100078282
【弁理士】
【氏名又は名称】山本 秀策
(74)【代理人】
【識別番号】100113413
【弁理士】
【氏名又は名称】森下 夏樹
(74)【代理人】
【識別番号】100181674
【弁理士】
【氏名又は名称】飯田 貴敏
(74)【代理人】
【識別番号】100181641
【弁理士】
【氏名又は名称】石川 大輔
(74)【代理人】
【識別番号】230113332
【弁護士】
【氏名又は名称】山本 健策
(72)【発明者】
【氏名】マッコール, マーク アラン
【テーマコード(参考)】
5B050
5C182
5E555
【Fターム(参考)】
5B050AA03
5B050BA09
5B050BA11
5B050BA13
5B050CA08
5B050EA26
5B050FA02
5B050FA06
5C182AA04
5C182AA13
5C182AA26
5C182AA27
5C182AB14
5C182AB35
5C182AC46
5C182BA14
5C182BA29
5C182BA46
5C182BA47
5C182BB02
5C182BB11
5C182BB28
5C182BC01
5C182BC26
5C182CB32
5C182CB42
5C182CB52
5C182CC15
5C182CC24
5C182CC27
5C182DA70
5E555AA27
5E555BA38
5E555BB38
5E555BC04
5E555BE17
5E555CA42
5E555CA44
5E555CB21
5E555DA08
5E555DA09
5E555DB53
5E555DC13
5E555FA00
(57)【要約】
ローカルコンテンツの画像データを視認する方法が、開示される。拡張現実ビューが、第1のデバイス座標フレーム(DCF)を記憶し、ユーザによってディスプレイを通して視認可能な、少なくとも1つの実世界物体上の第1の特徴点(FP1)および第2の特徴点(FP2)を選択するために、第1の位置合わせマーカを移動することによって、生成される。均一座標系(UCS)整合モジュールが、FP1およびFP2を選択するときの位置合わせマーカの場所を記憶し、FP1およびFP2を選択するときの第1の位置合わせマーカの場所に基づいて、ユーザ座標フレーム(UCF)を決定し、DCFを第1のUCFに変換し、第1のDCFから第1のUCFへの変換に基づいて、プロジェクタを用いて、ディスプレイを通して、ユーザに、第1のデータソース上の受信されたローカルコンテンツの画像データを表示する。
【特許請求の範囲】
【請求項1】
視認システムであって、前記視認システムは、
第1の拡張現実ビューア
を備え、前記第1の拡張現実ビューアは、
第1のユーザに実世界の物体が見えることを可能にする第1のディスプレイと、
ローカルコンテンツの画像データを保持するための第1のデータソースと、
第1のプロジェクタであって、前記第1のプロジェクタは、前記第1のユーザが、前記実世界の物体を視認する間、前記第1のユーザに前記第1のディスプレイを通して前記ローカルコンテンツの画像データを表示する、第1のプロジェクタと、
第1のプロセッサと、
前記第1のプロセッサに接続される第1のコンピュータ可読媒体と、
視覚データおよびアルゴリズムの第1のセットであって、前記視覚データおよびアルゴリズムの第1のセットは、前記第1のコンピュータ可読媒体上にあり、前記プロセッサによって実行可能であり、前記視覚データおよびアルゴリズムの第1のセットは、
第1のデバイス座標フレーム(DCF)と、
第1の位置合わせマーカであって、前記第1の位置合わせマーカは、前記実世界の物体のうちの少なくとも1つの上の第1の特徴点(FP1)および第2の特徴点(FP2)を選択するために、前記第1のユーザによって動作可能である、第1の位置合わせマーカと、
第1の均一座標系(UCS)整合モジュールであって、前記第1の均一座標系(UCS)整合モジュールは、
前記FP1および前記FP2を選択するときの前記第1の位置合わせマーカの場所を記憶する第1の特徴点記憶モジュールと、
第1のユーザ座標フレーム計算機であって、前記第1のユーザ座標フレーム計算機は、前記FP1および前記FP2を選択するときの前記第1の位置合わせマーカの場所に基づいて、第1のユーザ座標フレーム(UCF)を決定する、第1のユーザ座標フレーム計算機と、
前記第1のDCFを前記第1のUCFに変換するための第1の変換器と
を含む、第1の均一座標系(UCS)整合モジュールと、
第1のレンダリングエンジンであって、前記第1のレンダリングエンジンは、前記第1のDCFから前記第1のUCFへの前記変換に基づいて、前記第1のデータソース上の前記ローカルコンテンツの画像データを表示する、第1のレンダリングエンジンと
を備える、視覚データおよびアルゴリズムの第1のセットと
を含む、視認システム。
【請求項2】
第2の拡張現実ビューア
をさらに備え、前記第2の拡張現実ビューアは、
第2のユーザに実世界の物体が見えることを可能にする第2のディスプレイと、
ローカルコンテンツの画像データを保持するための第2のデータソースと、
第2のプロジェクタであって、前記第2のプロジェクタは、前記第2のユーザが、前記実世界の物体を視認する間、前記第2のユーザに前記第2のディスプレイを通して前記ローカルコンテンツの画像データを表示する、第2のプロジェクタと、
第2のプロセッサと、
前記第2のプロセッサに接続される第2のコンピュータ可読媒体と、
視覚データおよびアルゴリズムの第2のセットであって、前記視覚データおよびアルゴリズムの第2のセットは、前記第2のコンピュータ可読媒体上にあり、前記プロセッサによって実行可能であり、前記視覚データおよびアルゴリズムの第2のセットは、
第2のデバイス座標フレーム(DCF)と、
第2の位置合わせマーカであって、前記第2の位置合わせマーカは、前記実世界の物体のうちの少なくとも1つの上の前記FP1および前記FP2を選択するために、前記第2のユーザによって動作可能である、第2の位置合わせマーカと、
第2の均一座標系(UCS)整合モジュールであって、前記第2の均一座標系(UCS)整合モジュールは、
前記FP1および前記FP2を選択するときの前記第2の位置合わせマーカの場所を記憶する第2の特徴点記憶モジュールと、
前記FP1および前記FP2を選択するときの前記第2の位置合わせマーカの場所に基づいて、第2のユーザ座標フレーム(UCF)を決定する第2のユーザ座標フレーム計算機と、
前記第2のDCFを前記第2のUCFに変換するための第2の変換器と
を有する、第2の均一座標系(UCS)整合モジュールと、
第2のレンダリングエンジンであって、前記第2のレンダリングエンジンは、前記第2のDCFから前記第2のUCFへの前記変換に基づいて、前記第2のデータソース上の前記ローカルコンテンツの画像データを表示する、第2のレンダリングエンジンと
を含む、視覚データおよびアルゴリズムの第2のセットと
を含む、請求項1に記載の視認システム。
【請求項3】
前記第1の拡張現実ビューアは、
前記第1のユーザの頭部上に装着可能である第1の頭部搭載可能フレームと、
前記FP1およびFP2を選択するために、前記第1のユーザによって前記第1の頭部搭載可能フレームに対して移動可能である第1の6自由度(6dof)コントローラと
を含み、
前記視覚データおよびアルゴリズムの第1のセットは、
第1の特徴点場所計算機であって、前記第1の特徴点場所計算機は、前記FP1およびFP2を選択するときの前記第1の頭部搭載可能フレームに対する前記第1の6dofコントローラの場所を決定することによって、前記FP1およびFP2を選択するときの前記第1の位置合わせマーカの場所を決定する、第1の特徴点場所計算機と、
前記第1のDCF内の前記6dofコントローラの場所を記憶する第1の特徴記憶モジュールと
を含む、請求項2に記載の視認システム。
【請求項4】
前記第2の拡張現実ビューアは、
前記第2のユーザの頭部上に装着可能である第2の頭部搭載可能フレームと、
前記FP1およびFP2を選択するために、前記第2のユーザによって前記第2の頭部搭載可能フレームに対して移動可能である第2の6自由度(6dof)コントローラと
を含み、
前記視覚データおよびアルゴリズムの第2のセットは、
第2の特徴点場所計算機であって、前記第2の特徴点場所計算機は、前記FP1およびFP2を選択するときの前記第2の頭部搭載可能フレームに対する前記6dofコントローラの場所を決定することによって、前記FP1およびFP2を選択するときの前記第2の位置合わせマーカの場所を決定する、第2の特徴点場所計算機と、
前記第2のDCF内の前記第2の6dofコントローラの場所を記憶する第2の特徴記憶モジュールと
を含む、請求項3に記載の視認システム。
【請求項5】
前記第1の視認デバイスはさらに、
第1のDCF決定ルーチンであって、前記第1のDCF決定ルーチンは、前記第1の頭部搭載可能フレームの移動に応じて変化する前記第1のDCFを計算するために、前記第1のプロセッサによって実行可能である、第1のDCF決定ルーチンと、
第1のDCF記憶命令であって、前記第1のDCF記憶命令は、前記第1のコンピュータ可読媒体上に前記第1のDCFを記憶するために、前記第1のプロセッサによって実行可能である、第1のDCF記憶命令と
を含む、請求項1に記載の視認システム。
【請求項6】
前記第1の視認デバイスはさらに、
少なくとも1つの実物体の位置付けを検出する第1の実物体検出デバイスと、
第1の世界物体識別ルーチンであって、前記第1の世界物体識別ルーチンは、前記実物体の表面上の少なくとも1つの点の位置付けを識別するために、前記第1のプロセッサによって実行可能である、第1の世界物体識別ルーチンと、
第1の世界フレーム決定ルーチンであって、前記第1の世界フレーム決定ルーチンは、前記少なくとも1つの点に基づいて第1の世界座標フレームを計算するために、前記第1のプロセッサによって実行可能である、第1の世界フレーム決定ルーチンと、
第1の世界フレーム記憶命令であって、前記第1の世界フレーム記憶命令は、前記コンピュータ可読媒体上に前記世界座標フレームを記憶するために、前記第1のプロセッサによって実行可能であり、前記DCF決定ルーチンは、前記世界フレームに対する前記DCFを決定する、第1の世界フレーム記憶命令と
を含む、請求項5に記載の視認システム。
【請求項7】
前記第1の実物体検出デバイスは、カメラである、請求項6に記載の視認システム。
【請求項8】
前記第1の実物体検出デバイスは、複数の実物体の位置付けを検出する、請求項6に記載の視認システム。
【請求項9】
前記第1の世界物体識別ルーチンは、前記実物体の表面上の複数の点の位置付けを識別する、請求項6に記載の視認システム。
【請求項10】
前記第1の世界フレーム決定ルーチンは、前記複数の点に基づいて前記第1の世界座標フレームを計算する、請求項9に記載の視認システム。
【請求項11】
前記第1の視認デバイスはさらに、
前記第1の頭部搭載可能フレームに固着される第1の慣性測定ユニット(IMU)であって、前記第1のIMUは、前記第1の頭部搭載可能フレームに対する重力の第1の方向を検出する第1の重力センサを含み、前記DCF決定ルーチンは、前記重力の第1の方向に基づいて、前記DCFフレームを計算する、第1の慣性測定ユニット(IMU)
を含む、請求項5に記載の視認システム。
【請求項12】
前記第1のIMUは、第1の加速度計および第1のジャイロスコープのうちの少なくとも一方を含む、請求項11に記載の視認システム。
【請求項13】
ローカルコンテンツの画像データを視認する方法であって、
第1の拡張現実ビューを生成すること
を含み、前記第1の拡張現実ビューを生成することは、
第1のコンピュータ可読媒体上に第1のデバイス座標フレーム(DCF)を記憶することと、
第1のユーザによって第1のディスプレイを通して視認可能な少なくとも1つの実世界の物体上の第1の特徴点(FP1)および第2の特徴点(FP2)を選択するために、第1のユーザによって、第1の位置合わせマーカを移動させることと、
第1の均一座標系(UCS)整合モジュールを実行することであって、前記第1の均一座標系(UCS)整合モジュールを実行することは、
前記FP1および前記FP2を選択するときの前記第1の位置合わせマーカの場所を記憶することと、
前記FP1および前記FP2を選択するときの前記第1の位置合わせマーカの場所に基づいて、第1のユーザ座標フレーム(UCF)を決定することと、
前記第1のDCFを前記第1のUCFに変換することと
によって行われる、ことと、
前記第1のDCFから前記第1のUCFへの前記変換に基づいて、前記第1のユーザが、実世界の物体を視認する間、第1のプロジェクタを用いて、前記第1のディスプレイを通して、前記第1のユーザに、第1のデータソース上の受信されたローカルコンテンツの画像データを表示することと
を含む、方法。
【請求項14】
第2の拡張現実ビューを生成すること
をさらに含み、前記第2の拡張現実ビューを生成することは、
第2のコンピュータ可読媒体上に第2のデバイス座標フレーム(DCF)を記憶することと、
ユーザによって第2のディスプレイを通して視認可能な少なくとも1つの実世界の物体上の第1の特徴点(FP1)および第2の特徴点(FP2)を選択するために、第2のユーザによって、第2の位置合わせマーカを移動させることと、
第2の均一座標系(UCS)整合モジュールを実行することであって、前記第2の均一座標系(UCS)整合モジュールを実行することは、
前記FP1および前記FP2を選択するときの前記第2の位置合わせマーカの場所を記憶することと、
前記FP1および前記FP2を選択するときの前記第2の位置合わせマーカの場所に基づいて、第2のユーザ座標フレーム(UCF)を決定することと、
前記第2のDCFを前記第2のUCFに変換することと
によって行われる、ことと、
前記第2のDCFから前記第2のUCFへの前記変換に基づいて、前記第2のユーザが、前記実世界の物体を視認する間、第2のプロジェクタを用いて、前記第2のディスプレイを通して、前記第2のユーザに、第2のデータソース上の受信されたローカルコンテンツの画像データを表示することと
を含む、請求項13に記載の方法。
【請求項15】
前記第1のユーザの頭部上に、第1の頭部搭載可能フレームを装着することと、
前記FP1およびFP2を選択するために、前記第1のユーザによって、前記第1の頭部搭載可能フレームに対して第1の6自由度(6dof)コントローラを移動させることと、
前記FP1およびFP2を選択するときの前記第1の頭部搭載可能フレームに対する前記第1の6dofコントローラの場所を決定することによって、前記FP1およびFP2を選択するときの前記第1の位置合わせマーカの場所を決定するために、第1の特徴点場所計算機を実行することと、
前記第1のDCF内の前記6dofコントローラの場所を記憶するために、第1の特徴記憶モジュールを実行することと
をさらに含む、請求項16に記載の方法。
【請求項16】
前記第2のユーザの頭部上に、第2の頭部搭載可能フレームを装着することと、
前記FP1およびFP2を選択するために、前記第2のユーザによって、前記第2の頭部搭載可能フレームに対して第2の6自由度(6dof)コントローラを移動させることと、
前記FP1およびFP2を選択するときの前記第2の頭部搭載可能フレームに対する前記第2の6dofコントローラの場所を決定することによって、前記FP1およびFP2を選択するときの前記第2の位置合わせマーカの場所を決定するために、第2の特徴点場所計算機を実行することと、
前記第2のDCF内の前記6dofコントローラの場所を記憶するために、第2の特徴記憶モジュールを実行することと
をさらに含む、請求項15に記載の方法。
【請求項17】
前記第1の頭部搭載可能フレームの移動に応じて変化する前記第1のDCFを計算するために、前記第1のプロセッサを用いて第1のDCF決定ルーチンを実行することと、
前記第1のコンピュータ可読媒体上に前記第1のDCFを記憶するために、前記第1のプロセッサを用いて、前記第1のプロセッサによって実行可能な第1のDCF記憶命令を実行することと
をさらに含む、請求項13に記載の方法。
【請求項18】
第1の実物体検出デバイスを用いて、少なくとも1つの実物体の位置付けを検出することと、
前記第1のプロセッサによって実行可能な第1の世界物体識別ルーチンを用いて、前記実物体の表面上の少なくとも1つの点の位置付けを識別することと、
前記第1のプロセッサによって実行可能な第1の世界物体識別ルーチンを用いて、前記少なくとも1つの点に基づいて、第1の世界座標フレームを計算することと、
前記第1のプロセッサによって実行可能な第1の世界フレーム記憶命令を用いて、前記コンピュータ可読媒体上に前記世界座標フレームを記憶することであって、前記DCF決定ルーチンは、前記世界フレームに対する前記DCFを決定する、ことと
をさらに含む、請求項17に記載の方法。
【請求項19】
前記第1の実物体検出デバイスは、カメラである、請求項18に記載の方法。
【請求項20】
前記第1の実物体検出デバイスは、複数の実物体の位置付けを検出する、請求項18に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願の相互参照)
本願は、そのそれぞれが、参照することによってそれらの全体として本明細書に組み込まれる、2019年3月12日に出願された米国仮特許出願第62/817,318号および2019年4月19日に出願された米国仮特許出願第62/836,417号の優先権を主張する。
【0002】
本発明は、第1および第2の拡張現実ビューアを有する視認システム、およびビューアによる視認のためのローカルコンテンツの位置合わせに関する。
【背景技術】
【0003】
現代のコンピューティングおよびディスプレイ技術は、「拡張現実」ビューアを含む、ユーザ相互作用システムの開発を促進している。そのようなビューアは、通常、ユーザがその頭部に固着させ得、ユーザの各眼の正面に1つずつ、2つの導波管を含む場合が多い、頭部搭載可能フレームを伴う、頭部ユニットを有する。導波管は、実世界の物体からの周囲光が導波管を通して透過し得、ユーザに実世界の物体が見え得るように、透明である。各導波管はまた、プロジェクタから投影された光をユーザの個別の眼に透過する役割を果たす。投影された光は、画像を眼の網膜上に形成する。眼の網膜は、したがって、周囲光および投影された光を受け取る。ユーザには、同時に、実世界の物体と、投影された光によって生成される、1つ以上の仮想オブジェクトとが見える。
【0004】
このように、ユーザには、実世界内にローカルコンテンツのレンダリングが見え得る。部屋の中の2人のユーザが、それぞれ、その人に表示される自身のローカルコンテンツを有するであろう。時として、2人のユーザには、同一の場所において同一のローカルコンテンツが見えることが要求される場合がある。2人のユーザは、例えば、あるプロジェクトに関して協働する、ゲームで遊ぶ、スポーツイベントの視聴に加わる等のとき、同一の場所において同一のローカルコンテンツが見えることを所望する場合がある。
【発明の概要】
【課題を解決するための手段】
【0005】
本発明は、視認システムであって、第1のユーザに実世界の物体が見えることを可能にする、第1のディスプレイと、ローカルコンテンツの画像データを保持するための、第1のデータソースと、第1のユーザが、実世界の物体を視認する間、第1のユーザに第1のディスプレイを通してローカルコンテンツの画像データを表示するための、第1のプロジェクタと、第1のプロセッサと、第1のプロセッサに接続される、第1のコンピュータ可読媒体と、第1のデバイス座標フレーム(DCF)と、実世界の物体のうちの少なくとも1つの上の第1の特徴点(FP1)および第2の特徴点(FP2)を選択するために、第1のユーザによって動作可能な、第1の位置合わせマーカと、FP1およびFP2を選択するときの第1の位置合わせマーカの場所を記憶する、第1の特徴点記憶モジュールと、FP1およびFP2を選択するときの第1の位置合わせマーカの場所に基づいて、第1のユーザ座標フレーム(UCF)を決定する、第1のユーザ座標フレーム計算機と、第1のDCFを第1のUCFに変換するための、第1の変換器とを有する、第1の均一座標系(UCS)整合モジュールと、第1のDCFから第1のUCFへの変換に基づいて、第1のデータソース上のローカルコンテンツの画像データを表示する、第1のレンダリングエンジンとを含む、第1のコンピュータ可読媒体上にあり、プロセッサによって実行可能である、視覚データおよびアルゴリズムの第1のセットとを含む、第1の拡張現実ビューアを含む、視認システムを提供する。
【0006】
本発明はまた、ローカルコンテンツの画像データを視認する方法であって、第1のコンピュータ可読媒体上に第1のデバイス座標フレーム(DCF)を記憶するステップと、ユーザによって第1のディスプレイを通して視認可能な、少なくとも1つの実世界の物体上の第1の特徴点(FP1)および第2の特徴点(FP2)を選択するために、第1のユーザによって、第1の位置合わせマーカを移動させるステップと、FP1およびFP2を選択するときの第1の位置合わせマーカの場所を記憶するステップと、FP1およびFP2を選択するときの第1の位置合わせマーカの場所に基づいて、第1のユーザ座標フレーム(UCF)を決定するステップとによって、第1の均一座標系(UCS)整合モジュールを実行するステップと、第1のDCFから第1のUCFへの変換に基づいて、第1のユーザが、実世界の物体を視認する間、第1のプロジェクタを用いて、第1のディスプレイを通して、第1のユーザに、第1のデータソース上の受信されたローカルコンテンツの画像データを表示するステップとを含む、第1の拡張現実ビューを生成するステップを含む、方法も提供する。
【図面の簡単な説明】
【0007】
本発明はさらに、付随の図面を参照して、実施例として説明される。
【0008】
図1図1は、テーブルと、ユーザにのみ可視である、レンダリングとともに、第1および第2のユーザによって使用されている、本発明のある実施形態による視認システムの斜視図である。
【0009】
図2図2は、断面平面図において拡張現実ビューアのコンポーネントおよび1人のユーザの眼を、ブロック図の形態において拡張現実ビューアのさらなるコンポーネントを、およびビューの内側のテーブルを示す、概略図である。
【0010】
図3図3は、運動ベースの調節システムに重点が置かれている、図2に類似する図である。
【0011】
図4図4は、ユーザ間でローカルコンテンツを位置合わせするために使用されるシステムに重点が置かれている、図3に類似する図である。
【0012】
図5図5は、テーブルと、個別の拡張現実ビューアの視覚データおよびアルゴリズム内に常駐し、さらに、重力の方向を図示する、種々の座標フレームとを図示する、斜視図である。
【0013】
図6図6は、ユーザが第1および第2の特徴点を選択する方法を図示する、図5に類似する図である。
【0014】
図7図7は、座標フレームが変換される方法を図示する、図6に類似する図である。
【0015】
図8図8は、本発明の一実施形態による、本発明のシステム内で用途を見出し得る、コンピュータの形態における機械のブロック図である。
【発明を実施するための形態】
【0016】
付随の図面の図1は、本発明の1つ以上の実施形態による、視認システム14と相互作用する、第1および第2のユーザ10および12を図示する。視認システム14は、ユーザ10および12毎の個別の拡張現実ビューア16と、ネットワーク18と、サーバ20とを含む。第1および第2のユーザは、テーブル22の形態における実物体を伴う環境内に位置する。ローカルコンテンツ24のレンダリングと、位置合わせマーカ26のレンダリングとを含む、種々のレンダリングが、ユーザ10および12によって、拡張現実ビューア16を使用して視認可能である。
【0017】
各拡張現実ビューア16は、頭部ユニット30と、ベルトパック32と、ケーブル接続34と、6自由度の(6dof)コントローラ36とを含む。個別のユーザ10または12は、その頭部に頭部ユニット30を、およびその腰部(または、例えば、リュック等の他の好適な場所)上に、頭部ユニット30から遠隔でベルトパック32を固着する。ケーブル接続34は、頭部ユニット30をベルトパック32に接続する。頭部ユニット30は、ユーザにテーブル22等の実物体が見えることを可能にする間、ユーザに仮想オブジェクトまたは複数のオブジェクトを表示するために使用される、技術を含む。ベルトパック32は、主に、拡張現実ビューア16の処理および通信能力を含む。別の実施形態では、処理および通信能力は、完全に頭部ユニット30の中に常駐し、したがって、ベルトパック32の必要性を省き得る。
【0018】
ベルトパック32は、無線接続を介してネットワーク18に接続される。サーバ20は、ネットワーク18に接続され、ローカルコンテンツを表すデータを保持する。ベルトパック32は、ネットワーク18を介してサーバ20からローカルコンテンツをダウンロードする。ベルトパック32は、ケーブル接続34を介してデータを頭部ユニット30に提供する。頭部ユニット30は、典型的には、レーザ光またはLED光、または任意の他の好適な光であり得る、光源と、光が個別のユーザ10または12の各眼の網膜によって受け取られるように光を誘導する、導波管とを含む、ディスプレイを含む。頭部ユニット30のディスプレイは、ユーザ10または12の脳が、光をローカルコンテンツ24の3次元画像として知覚するように、ユーザ10または12の左および右眼のためにわずかに異なる画像を生成する。ローカルコンテンツ24とユーザ10または12からのその場所および距離との比率が、ローカルコンテンツ24を表すデータと、個別のユーザ10または12にローカルコンテンツ24を表示するために使用される、種々の座標フレームとによって決定される。
【0019】
ローカルコンテンツ24は、ユーザ10および12の両方に、テーブル22に対して同一の場所に表示される。所与の実施例では、ローカルコンテンツ24は、第1のユーザ10の視点から、かつ第2のユーザ12の視点から、第1のユーザ10に向かって面する、キャラクタの頭部である。
【0020】
6dofコントローラ36は、場所伝送機を含み、頭部ユニット30は、場所受信機を含む。場所伝送機は、場所信号を伝送し、場所受信機は、場所信号を受信する。場所信号は、場所受信機、したがって、頭部ユニット30に対する、場所伝送機、したがって、6dofコントローラ36の場所を表す、データを含む。
【0021】
使用時、ユーザ10または12は、その頭部に頭部ユニット30を、その腰部にベルトパック32を搭載する。ベルトパック32は、サーバ20からネットワーク18を経由して画像データをダウンロードする。ユーザ10または12には、頭部ユニット30のディスプレイを通してテーブル22が見えることができる。頭部ユニット30の一部を形成する、プロジェクタが、ベルトパック32から画像データを受信し、画像データに基づいて光を発生させる。光は、頭部ユニット30のディスプレイの一部を形成する、1つ以上の導波管を通して進行する。光は、次いで、導波管から退出し、ユーザ10または12の眼の網膜上に伝搬する。プロジェクタは、ユーザ10または12の眼の網膜上に複製されるパターンで光を発生させる。ユーザ10または12の眼の網膜に当たる光は、ユーザ10または12が、導波管の背後の事前選択される深度において画像を知覚するように、選択された奥行視野を有する。加えて、両方の眼が、ユーザ10または12の脳が、頭部ユニット30から選択された距離において3次元画像または複数の画像を知覚するように、わずかに異なる画像を受け取る。本実施例では、ユーザ10および12は両方とも、ローカルコンテンツ24を、見えているテーブル22の拡張として知覚する。
【0022】
各ユーザ10または12はまた、位置合わせマーカ26のうちの一方を3次元において知覚することもできる。位置合わせマーカ26の場所は、常時、個別のユーザ10または12によって保持される、6dofコントローラ36に対して設定された方向にある。位置合わせマーカ26は、したがって、個別の6dofコントローラ36が左右および前後に移動されるにつれて、左から右および前方および後方に移動する。位置合わせマーカ26は、それ自体を実物体の表面に付着させる。ユーザが、したがって、6dofコントローラ36を移動させると、位置合わせマーカ26は、例えば、テーブル22の表面を横断して移動し得る。ユーザ10または12は、次いで、テーブル22上の特定の点、例えば、テーブル22の1つ以上の角を選択することができる。
【0023】
ローカルコンテンツ24および位置合わせマーカ26は、図面の視点から可視ではなく、拡張現実ビューア16のその使用に起因して、ユーザ10および12のみに可視である。ローカルコンテンツ24および位置合わせマーカ26は、最初は、ベルトパック32の中の視覚データおよびアルゴリズム内に常駐する、データ構造である。データ構造は、次いで、頭部ユニット30の中のプロジェクタが、データ構造に基づいて光を発生させると、光として現れる。ローカルコンテンツ24および位置合わせマーカ26は、ユーザ10および12の正面の3次元空間内に存在していない(例えば、仮想オブジェクトである)が、図1では、3次元空間内に表されている。コンピュータデータの3次元空間内における可視化が、ユーザ10および12によって知覚されるレンダリングを促進するデータ構造が、ベルトパック32の中の視覚アルゴリズムのデータ構造内で相互と関連する方法を図示するために、本説明の全体を通して使用される。
【0024】
図2は、頭部ユニット30と、6dofコントローラ36と、視覚データおよびアルゴリズム38とを含む、拡張現実ビューア16のうちの1つをより詳細に図示する。いくつかの実施形態では、視覚データおよびアルゴリズム38は、主として、図1のベルトパック32内に常駐する。他の実施形態では、視覚データおよびアルゴリズム38は、完全に頭部ユニット内に常駐してもよい、または頭部ユニットとベルトパックとの間で分割されてもよい。
【0025】
図2はさらに、データソース40を含む。本実施例では、データソース40は、図1のサーバ20から受信され、次いで、ベルトパック32の記憶デバイス上に記憶される、画像データを含む。画像データは、例えば、ローカルコンテンツ24をレンダリングするために使用され得る、3次元画像データであってもよい。画像データは、所定または非所定のシーケンスにおいて2または3次元内で移動する、ビデオの生成を可能にする、時系列データであってもよく、図1のテーブル22等の実世界の物体上に位置してもよい。
【0026】
視覚データおよびアルゴリズム38は、レンダリングエンジン42と、立体視分析器44と、運動ベースの調節(Pixelstick)システム46と、均一座標系(UCS)整合モジュール48とを含む。
【0027】
レンダリングエンジン42は、データソース40と、運動ベースの調節システム46と、UCS整合モジュール48とに接続される。レンダリングエンジン42は、種々のシステム、本実施例では、運動ベースの調節システム46およびUCS整合モジュール48から入力を受信することが可能である。
【0028】
図3に示されるように、運動ベースの調節システム46は、同時位置特定およびマッピング(SLAM)システム52と、頭部ユニットから世界フレームへの変換器54と、ディスプレイ調節アルゴリズム56とを含む。レンダリングエンジン42は、ディスプレイ調節アルゴリズム56に接続される。ディスプレイ調節アルゴリズム56は、頭部ユニットから世界フレームへの変換器54から入力を受信する。頭部ユニットから世界フレームへの変換器54は、SLAMシステム52に接続される。SLAMシステム52は、画像データを受信し、画像データの画像内のオブジェクトを決定する目的のために、画像データを分析し、画像データの場所を記録することが可能である。頭部ユニットから世界フレームへの変換器54は、頭部ユニット座標フレームを世界座標フレームに変換することが可能である。
【0029】
立体視分析器44は、レンダリングエンジン42に接続される。立体視分析器44は、レンダリングエンジン42によって提供されるデータストリームから、左および右画像データセットを決定することが可能である。
【0030】
頭部ユニット30は、頭部ユニット本体60と、ディスプレイシステム62とを含む。頭部ユニット本体60は、ユーザの頭部にわたって適合する、形状を有する。ディスプレイシステム62は、頭部ユニット本体60に固着される。
【0031】
ディスプレイシステム62は、左および右プロジェクタ66Aおよび66Bと、左および右導波管70Aおよび70Bと、検出デバイス72とを含む。左および右プロジェクタ66Aおよび66Bは、電力供給源に接続される。各プロジェクタ66Aまたは66Bは、個別のプロジェクタ66Aまたは66Bに提供されることになる画像データのための個別の入力を有する。個別のプロジェクタ66Aまたは66Bは、給電されると、光を2次元パターンで発生させ、光をそこから発出する。左および右導波管70Aおよび70Bは、それぞれ、左および右プロジェクタ66Aおよび66Bからの光を受け取るように位置付けられる。左および右導波管70Aおよび70Bは、透明導波管である。
【0032】
検出デバイス72は、頭部ユニット慣性運動ユニット(IMU)80と、1つ以上の頭部ユニットカメラ82とを含む。頭部ユニットIMU80は、加速度計84(または1つを上回る加速度計)と、ジャイロスコープ86(または1つを上回るジャイロスコープ)と、重力センサ88とを含む。IMUのコンポーネントは、典型的には、半導体チップの中に形成される。加速度計およびジャイロスコープは、3つの直交軸に沿った移動と、直交軸を中心とした回転とを含む、頭部ユニットIMU80および頭部ユニット本体60の移動を検出することが可能である。重力センサ88は、重力の方向を検出することが可能である。
【0033】
頭部ユニットカメラ82は、画像を頭部ユニット本体60の周囲の環境から継続的に捕捉する。画像は、相互に比較され、頭部ユニット本体60と、頭部ユニット本体60を装着するユーザの頭部の移動とを検出することができる。
【0034】
SLAMシステム52は、頭部ユニットカメラ82に接続される。頭部ユニットから世界フレームへの変換器54は、頭部ユニット30の座標フレームを世界座標フレーム、すなわち、図1のテーブル22等の実物体を含む座標フレームに変換するために、SLAMシステム52および頭部ユニットIMU80からのデータに依拠する。
【0035】
使用時、ユーザは、頭部ユニット本体60をその頭部に搭載する。頭部ユニット本体60のコンポーネントは、例えば、ユーザの頭部の背面の周囲に巻着する、ストラップ(図示せず)を含んでもよい。左および右導波管70Aおよび70Bは、次いで、ユーザの左および右眼120Aおよび120Bの正面に位置する。
【0036】
レンダリングエンジン42は、データソース40から画像データを受信する。レンダリングエンジン42は、画像データを立体視分析器44の中に入力する。画像データは、図1ではローカルコンテンツ24の3次元画像データである。立体視分析器44は、画像データを分析し、画像データに基づいて、左および右画像データセットを決定する。左および右画像データセットは、ユーザ10に3次元レンダリングの知覚を与える目的のために、相互にわずかに異なる、2次元画像を表す、データセットである。
【0037】
立体視分析器44は、左および右画像データセットを左および右プロジェクタ66Aおよび66Bの中に取り込む。左および右プロジェクタ66Aおよび66Bは、次いで、左および右光パターンを生成する。ディスプレイシステム62のコンポーネントは、平面図に示されるが、左および右パターンは、正面立面図に示されるとき、2次元パターンであることを理解されたい。各光パターンは、複数のピクセルを含む。例証の目的のために、ピクセルのうちの2つからの光線124Aおよび126Aが、左プロジェクタ66Aから退出し、左導波管70Aに入射するように示される。光線124Aおよび126Aは、左導波管70Aの側面から反射する。光線124Aおよび126Aが、左導波管70A内で左から右に内部反射を通して伝搬することが示されるが、光線124Aおよび126Aはまた、屈折性および反射性システムを使用して、紙面の向こう側への方向にも伝搬することを理解されたい。
【0038】
光線124Aおよび126Aは、瞳孔128Aを通して、左光導波管70Aから出射し、次いで、左眼120Aの瞳孔130Aを通して、左眼120Aに入射する。光線124Aおよび126Aは、次いで、左眼120Aの網膜132Aに当たる。このように、左光パターンは、左眼120Aの網膜132Aに当たる。ユーザは、網膜132A上に形成されるピクセルが、ユーザが左眼120Aに対向する左導波管70Aの側においてある距離にあると知覚する、ピクセル134Aおよび136Aであるという知覚を与えられる。深度知覚が、光の焦点距離を操作することによって生成される。
【0039】
類似する様式において、立体視分析器44は、右画像データセットを右プロジェクタ66Bの中に取り込む。右プロジェクタ66Bは、光線124Bおよび126Bの形態におけるピクセルによって表される、右光パターンを透過させる。光線124Bおよび126Bは、右導波管70B内で反射し、瞳孔128Bを通して出射する。光線124Bおよび126Bは、次いで、右眼120Bの瞳孔130Bを通して入射し、右眼120Bの網膜132Bに当たる。光線124Bおよび126Bのピクセルは、右導波管70Bの背後のピクセル134Bおよび136Bとして知覚される。
【0040】
網膜132Aおよび132B上に生成されたパターンは、左および右画像として個々に知覚される。左および右画像は、立体視分析器44の機能に起因して、相互にわずかに異なる。左および右画像は、ユーザの頭では、3次元レンダリングとして知覚される。
【0041】
述べられるように、左および右導波管70Aおよび70Bは、透明である。眼120Aおよび120Bに対向する左および右導波管70Aおよび70Bの側における現実の物体からの光が、左および右導波管70Aおよび70Bを通して投影され、網膜132Aおよび132Bに当たることができる。
【0042】
頭部ユニットIMU80は、ユーザの頭部のあらゆる移動を検出する。ユーザ10が、例えば、その頭部を反時計回りに移動させ、同時に、その身体をその頭部とともに右に向かって移動させる場合、そのような移動は、頭部ユニットIMU80内の加速度計84およびジャイロスコープ86によって検出されるであろう。頭部ユニットIMU80は、加速度計84およびジャイロスコープ86からの測定値をディスプレイ調節アルゴリズム56に提供する。ディスプレイ調節アルゴリズム56は、設置値を計算し、設置値をレンダリングエンジン42に提供する。レンダリングエンジン42は、データソース40から受信された画像データを修正し、ユーザの頭部の移動を補償する。レンダリングエンジン42は、ユーザ10への表示のために、修正された画像データを立体視分析器44に提供する。
【0043】
頭部ユニットカメラ82は、ユーザがその頭部を移動させるにつれて、画像を継続的に捕捉する。SLAMシステム52は、画像を分析し、画像内のオブジェクトの画像を識別する。SLAMシステム52は、オブジェクトの移動を分析し、頭部ユニット本体60の姿勢位置を決定する。SLAMシステム52は、姿勢位置をディスプレイ調節アルゴリズム56に提供する。ディスプレイ調節アルゴリズム56は、姿勢位置を使用し、ディスプレイ調節アルゴリズム56がレンダリングエンジン42に提供する、設置値をさらに精緻化する。レンダリングエンジン42は、したがって、頭部ユニットIMU80内の運動センサと頭部ユニットカメラ82によって撮影された画像との組み合わせに基づいて、データソース40から受信された画像データを修正する。実践的実施例として、ユーザが、その頭部を右に回転させる場合、ローカルコンテンツ24の場所が、ユーザの視野内で左に回転し、したがって、ユーザに、ローカルコンテンツ24の場所がテーブル22および他の実世界の物体に対して定常のままであるという印象を与える。
【0044】
図4を参照すると、UCS整合モジュール48は、デバイス座標フレーム(DCF)150と、コントローラから頭部ユニットへの変換器152と、ユーザ座標フレーム(UCF)確立システム154と、UCF156と、DCFからUCFへの変換器158とを含む。
【0045】
DCF150は、ハードウェアと、ソフトウェアと、ファームウェアとの組み合わせを通して重力センサ88に接続される。重力センサ88は、頭部ユニット本体60に対する重力の方向を測定する。DCF150は、3つの直交軸を伴う座標フレームであり、軸のうちの1つは、重力の方向と整合される。
【0046】
UCF確立システム154は、図1に示される位置合わせマーカ26と、特徴点場所計算機162と、特徴点記憶モジュール164と、ユーザ座標フレーム計算機166と含む。特徴点場所計算機162は、ルーチンおよびコールを通してコントローラから頭部ユニットへの変換器152に接続され、位置合わせマーカ26から入力を受信する。位置合わせマーカ26は、第1の特徴点(FP1)および第2の特徴点(FP2)を選択するために使用される。特徴点記憶モジュール164は、特徴点場所計算機162に接続され、第1および第2の特徴点FP1およびFP2の場所を記憶する。ユーザ座標フレーム計算機166は、メモリから特徴点FP1およびFP2の場所を受信し、第1および第2の特徴点FP1およびFP2の場所に基づいて、UCF156を計算する。
【0047】
6dofコントローラ36は、コントローラ本体170と、場所伝送機172と、コントローラIMU174とを含む。コントローラ本体170は、ユーザが持ち続けるために便宜的である、形状を有する。場所伝送機172およびコントローラIMU174は、コントローラ本体170内に搭載される。コントローラ本体170内のバッテリ(図示せず)が、場所伝送機172およびコントローラIMU174を給電するために使用される。
【0048】
頭部ユニット30は、場所受信機176を含む。場所受信機176は、定常位置において、頭部ユニット本体60に搭載される。
【0049】
使用時、ユーザは、その手の一方においてコントローラ本体170を保持する。ユーザは、コントローラ本体170を3つの直交方向に移動させ、コントローラ本体170を3つの直交軸を中心として回転させることができる。場所伝送機172は、場所波を継続的に伝送し、場所受信機176は、場所波を受信する。場所波は、場所受信機176に対する場所伝送機172の場所を示す、データを含む。場所伝送機172は、6dofコントローラ36内で定常状態であり、場所受信機176は、頭部ユニット30内で定常状態であるため、場所波は、6dofコントローラ36と頭部ユニット30との間の関係を表す、データを含む。コントローラから頭部ユニットへの変換器152は、場所受信機176からデータを受信し、頭部ユニット30に対する6dofコントローラ36の場所を計算する。コントローラIMU174は、1つ以上の加速度計と、1つ以上のジャイロスコープとを含む。コントローラIMU174からのデータが、6dofコントローラ36から無線で伝送され、ハードウェアと、ファームウェアと、ソフトウェアとの組み合わせを介してコントローラによって頭部ユニットへの変換器152によって受信される。コントローラから頭部ユニットへの変換器152は、「融合」ルーチンにおいて場所受信機176およびコントローラIMU174からのデータを組み合わせる。場所伝送機172およびコントローラIMU174からのデータを融合することによって、場所伝送機172の単独での使用と比較して、ジッタが、低減される。
【0050】
位置合わせマーカ26は、レンダリングエンジン42に提供され、データソース40からの画像データに類似する様式において、ユーザに可視化される。上記に述べられるように、ユーザは、6dofコントローラ36を移動させることによって、位置合わせマーカ26を移動させることができる。ユーザは、第1の特徴点FP1および第2の特徴点FP2を選択するために位置合わせマーカ26を使用する。ユーザが、第1および第2の特徴点FP1およびFP2を選択すると、特徴点場所計算機162は、世界フレーム内の個別の特徴点FP1またはFP2の場所を計算する。特徴点記憶モジュール164は、第1および第2の特徴点FP1およびFP2の場所を記憶する。UCF計算機166は、次いで、第1および第2の特徴点FP1およびFP2の場所に基づいて、UCF156を計算する。UCF計算機166は、次いで、メモリの中にUCF156を記憶する。
【0051】
DCFからUCFへの変換器158は、DCF150をUCF156に変換し、UCFへ変換されたDCF178をもたらす。
【0052】
図1のユーザ10および12はそれぞれ、異なるDCF150と、異なるUCF156とを有し、故に、UCFへ変換された異なるDCF178を有する。ユーザ10および12は、第1および第2の特徴点FP1およびFP2を選択する、テーブル22上の場所に関して同意する(例えば、口頭で同意する)。第1および第2の特徴点FP1およびFP2の場所は、各ユーザ10および12の視点から異なって現れ、その数学的場所もまた、各拡張現実ビューア16の特徴点場所計算機162内で異なるように計算される。しかしながら、ユーザ10および12は、実世界内、すなわち、テーブル22上の同一の特徴点FP1およびFP2を選択するため、ローカルコンテンツ24は、ユーザ10および12の両方の視点からテーブル22に対して同一の場所にレンダリングされることができる。
【0053】
図5は、いずれかのユーザが均一座標フレームを確立する前の個別の座標フレームを図示する。各拡張現実ビューアは、個別のDCF(DCF1およびDCF2)を有する。軸のうちの1つ(Y軸)は、重力(g)の方向と整合され、他の2つの軸(X軸およびZ軸)は、頭部ユニット30に対して固定される。いずれのユーザも、UCFを確立していない。例証目的のみのために、任意のUCF(UCF1およびUCF2)が、図に示され、第1および第2のユーザ10および12によって使用される拡張現実ビューア16(図1)間に座標フレームの画一性がないことのみを示すために、図に含まれる。
【0054】
図6は、拡張現実ビューア(UCF1およびUCF2)毎のUCFの確立を図示する。各ユーザ10および12は、その視点から、テーブル22上の第1および第2の特徴点FP1およびFP2を選択する。個別のユーザの個別の拡張現実ビューアは、次いで、個別のUCF(UCF1およびUCF2)を計算する。両方のUCF(UCF1およびUCF2)は、テーブル22上の同一の場所上に位置し、配向される。
【0055】
図7は、個別の拡張現実ビューアの個別のDCFからUCFへの変換器158(図4)によって行われる、変換を図示する。各拡張現実ビューアは、それぞれ、その個別のDCF(DCF1またはDCF2)をその個別のUCF(UCF1またはUCF2)に変換する。ローカルコンテンツ24(図1)は、個別のDCF(DCF1またはDCF2)から個別のUCF(UCF1またはUCF2)への個別の変換に基づいて、個別のユーザに表示される。
【0056】
視認システム14は、3人、4人、またはそれよりも多くユーザによって使用される、3つ、4つ、またはそれよりも多く視認拡張現実ビューアによる使用のために容易に拡張されることができる。各拡張現実ビューアは、それ自体のDCF(DCF1、DCF2、DCF3...DCFn)を有し、個別の対の特徴点(FP1およびFP2)を使用して、個別のUCF(UCF1、UCF2、UCF3...UCFn)を計算する。各拡張現実ビューアは、次いで、上記に説明されるように、その個別のDCF(例えば、DCF4)を個別のUCF(例えば、UCF4)に変換する。
【0057】
図8は、いくつかの実施形態による、機械に、本明細書において議論される方法論のうちのいずれか1つ以上のものを実施させるための命令のセットが実行され得る、コンピュータシステム900の例示的形態にある、機械の図式表現を示す。代替実施形態では、機械は、独立デバイスとして動作する、または他の機械に接続(例えば、ネットワーク化)されてもよい。さらに、単一の機械のみが、図示されているが、用語「機械」はまた、個々に、または一緒に、命令のセット(または複数のセット)を実行し、本明細書において議論される方法論のうちのいずれか1つ以上のものを実施する、機械の任意の集合も含むように捉えられるものとする。
【0058】
例示的コンピュータシステム900は、バス908を介して相互と通信する、プロセッサ902(例えば、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、または両方)と、メインメモリ904(例えば、読取専用メモリ(ROM)、フラッシュメモリ、同期DRAM(SDRAM)またはRambus DRAM(RDRAM)等の動的ランダムアクセスメモリ(DRAM)等)と、静的メモリ906(例えば、フラッシュメモリ、静的ランダムアクセスメモリ(SRAM)等)とを含む。
【0059】
コンピュータシステム900はさらに、ディスクドライブユニット916と、ネットワークインターフェースデバイス920とを含んでもよい。
【0060】
ディスクドライブユニット916は、その上に本明細書に説明される方法論または機能のうちのいずれか1つ以上のものを具現化する、命令924の1つ以上のセット(例えば、ソフトウェア)が記憶される、機械可読媒体922を含む。ソフトウェアはまた、完全に、または少なくとも部分的に、コンピュータシステム900によるその実行の間に、メインメモリ904内および/またはプロセッサ902内に常駐してもよく、メインメモリ904およびプロセッサ902もまた、機械可読媒体を成してもよい。
【0061】
ソフトウェアはさらに、ネットワークインターフェースデバイス920を介してネットワーク18を経由して伝送または受信されてもよい。
【0062】
コンピュータシステム900は、プロジェクタを駆動させ、光を発生させるために使用される、ドライバチップ950を含む。ドライバチップ950は、それ自体のデータストア960と、それ自体のプロセッサ962とを含む。
【0063】
機械可読媒体922は、例示的実施形態では、単一媒体であるように示されるが、用語「機械可読媒体」は、1つ以上の命令のセットを記憶する、単一媒体または複数の媒体(例えば、集中型または分散型データベースおよび/または関連付けられるキャッシュおよびサーバ)を含むものと捉えられるべきである。用語「機械可読媒体」はまた、機械による実行のための命令のセットを記憶、エンコーディング、または搬送することが可能であって、機械に本発明の方法論のうちの任意の1つ以上のものを実施させる、任意の媒体を含むものと捉えられるものとする。用語「機械可読媒体」は、故に、限定ではないが、ソリッドステートメモリ、光学および磁気媒体、および搬送波信号を含むものと捉えられるものとする。
【0064】
ある例示的実施形態が、説明され、付随の図面に示されたが、そのような実施形態は、単に、本発明の例証であって、制限ではなく、本発明は、修正が当業者に想起され得るため、図示および説明される具体的構造および配列に制限されないことを理解されたい。
図1
図2
図3
図4
図5
図6
図7
図8
【国際調査報告】