(58)【調査した分野】(Int.Cl.,DB名)
前記プログラムは、前記表示装置の位置または方向の変化を反映させるために、前記対象オブジェクトの表示を変更する手順をさらに実行させることを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
前記センサデータは、前記拡張現実環境の物理的特性、スケール、位置および方向に関するデータを含むことを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムは、前記複数の位置センサの実際の位置を用いて表示原点を決定する手順をさらに実行させることを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムは、写実的ユーザインターフェスをシミュレートするために、リアルタイム効果をレンダリングする手順をさらに実行させることを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムは、前記拡張現実環境におけるユーザの存在をシミュレートする手順をさらに実行させることを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムは、前記対象オブジェクトに物理的属性を適用した効果をシミュレートする手順をさらに実行させることを特徴とする請求項12に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムは、前記対象オブジェクトに物理的属性を適用した効果をシミュレートした結果を表示する手順をさらに含むことを特徴とする請求項13に記載のコンピュータ読み取り可能な記録媒体。
前記対象オブジェクトは、ユーザにより前記拡張現実環境内に生成された3次元デザインであることを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムは、前記表示装置によるモーションキャプチャおよび距離検知を可能とする手順をさらに実行させることを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムは、前記拡張現実環境に複数のユーザが参加することを可能とする手順をさらに実行させることを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムは、前記拡張現実環境のユーザ視点を生成し、前記ユーザが前記拡張現実環境内を視認および移動することを可能とする手順をさらに実行させることを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
前記ユーザが前記拡張現実環境内を視認および移動することを可能とする手順は、前記表示装置の位置および前記拡張現実環境におけるオブジェクトと表示装置の焦点を結ぶ手順を含むことを特徴とする請求項20に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムは、前記表示装置による前記対象オブジェクトの拡大または縮小のシミュレーションを可能とする手順をさらに実行させることを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムは、物理的特性を適用した対象オブジェクトを生成および表示する手順をさらに実行させることを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
前記プログラムは、前記表示装置の前記拡張現実環境に対する距離の変化に基づいて音声を再生する手順をさらに実行させることを特徴とする請求項1に記載のコンピュータ読み取り可能な記録媒体。
【図面の簡単な説明】
【0012】
【
図2】
図2は、本発明の実施形態の一態様に係る、1つの位置センサの付近に位置するユーザを示す。
【
図3】
図3は、本発明の実施形態の一態様に係る、複数の位置センサの付近に位置するユーザを示す。
【
図4】
図4は、本発明の実施形態の一態様に係るセンサ同期プロセスの一例を示す。
【
図5】
図5は、本発明の実施形態の一態様に係る、表示環境が配置された様子を示す。
【
図6】
図6は、本発明の実施形態の一態様に係る、計算に基づいて複数センサの原点を特定するユーザを示す。
【
図7】
図7は、本発明の実施形態の一態様に係る、計算に基づいて単一センサの原点を特定するユーザを示す。
【
図8】
図8は、本発明の実施形態の一態様に係る、大規模環境が配置された様子を示す。
【
図9】
図9は、本発明の実施形態の一態様に係る表示装置位置同期プロセスを示す。
【
図11】
図11は、本発明の実施形態の一態様に係る、焦点および表示装置の一人称視野からの視線を含む表示装置視点(POV)を示す。
【
図12】
図12は、本発明の実施形態の一態様に係る、焦点および表示装置の三人称視野からの視線を含む表示装置視点(POV)を示す。
【
図13】
図13は、本発明の実施形態の一態様に係る、距離が変化する表示環境を視認するユーザの表示装置視点(POV)を示す。
【
図14】
図14は、本発明の実施形態の一態様に係るモーションキャプチャおよび画像変化を、一人称視野からの視線とともに示す。
【
図15】
図15は、本発明の実施形態の一態様に係るモーションキャプチャおよび画像変化を、三称視野からの視線とともに示す。
【
図16】
図16は、本発明の実施形態の一態様に係る、三人称視野からの表示環境3D方向移動を示す。
【
図17】
図17は、本発明の実施形態の一態様に係る、一人称視点ヘッドチルトモーションキャプチャ視野効果を示す。
【
図18】
図18は、本発明の実施形態の一態様に係る、三人称視点ヘッドチルトモーションキャプチャ視野効果を示す。
【
図19】
図19は、本発明の実施形態の一態様に係る、一人称および三人称視野からの内部位置視点の例を示す。
【
図20】
図20は、本発明の実施形態の一態様に係る、一人称および三人称視野からの外部位置視点の例を示す。
【
図21】
図21は、本発明の実施形態の一態様に係る、相互作用装置同期プロセスの一例を示す。
【
図22】
図22は、本発明の実施形態の一態様に係る、オブジェクトと相互作用するための相互作用装置を使用するユーザの手のHUD一人称視野を示す。
【
図23】
図23は、本発明の実施形態の一態様に係る、グリッド線を含まない三人称視点視野からの設計ユーザインターフェースを示す。
【
図24】
図24は、本発明の実施形態の一態様に係る、トグルされたグリッド線を含む三人称視点視野からの設計ユーザインターフェースを示す。
【
図25】
図25は、本発明の実施形態の一態様に係る、グリッド線を含まない設計ユーザインターフェースの代替表示環境視野を示す。
【
図26】
図26は、本発明の実施形態の一態様に係る、グリッド線を含む設計ユーザインターフェースの代替表示環境視野を示す。
【
図27】
図27は、本発明の実施形態の一態様に係る、ユーザが1Dから3Dへとオブジェクトを段階的に設計し、傾斜やサイズ変更を加えている様子を示す。
【
図28】
図28は、本発明の実施形態の一態様に係る、一人称視点から見たオブジェクトの方向を回転する様子を示す。
【
図29】
図29は、本発明の実施形態の一態様に係る、三人称視点から見たオブジェクトの方向を回転する様子を示す。
【
図30】
図30は、本発明の実施形態の一態様に係る、一人称視点から見たスナップ点を示す。
【
図31】
図31は、本発明の実施形態の一態様に係る、三人称視点から見たスナップ点を示す。
【
図32】
図32は、本発明の実施形態の一態様に係る、一人称視点から見たスナップ点を変更するための視野の移動/変化の様子を示す。
【
図33】
図33は、本発明の実施形態の一態様に係る、三人称視点から見たスナップ点を変更するための視野の移動/変化の様子を示す。
【
図34】
図34は、本発明の実施形態の一態様に係る、メニューを用いて物理的特性を追加する様子を示す。
【
図35】
図35は、本発明の実施形態の一態様に係る、オブジェクトにテクスチャおよび重力の物理的属性を付与した結果を示す。
【
図36】
図36は、本発明の実施形態の一態様に係る、物理エンジンによって重力を付与したオブジェクトをユーザの三人称視野から見た様子を示す。
【
図37】
図37は、本発明の実施形態の一態様に係る、一人称視点から見た段階的なオブジェクト思考アニメーションキャプチャの様子を示す。
【
図38】
図38は、本発明の実施形態の一態様に係る、衝突の物理エンジンシミュレーションおよびオブジェクトへの衝突検知効果をユーザの三人称視野から見た様子を示す。
【
図39】
図39は、本発明の実施形態の一態様に係る、三人称視点から見た段階的なオブジェクト思考アニメーションキャプチャの様子を示す。
【
図40】
図40は、本発明の実施形態の一態様に係る、ソフトウェアイベントトリガのための物理反応条件文の例を示す。
【
図41】
図41は、本発明の実施形態の一態様に係る、相互作用装置イベントトリガのための物理反応条件文の例を示す。
【
図42】
図42は、本発明の実施形態の一態様に係る、一人称視点から見た複数のユーザが共同設計を行う様子を示す。
【
図43】
図43は、本発明の実施形態の一態様に係る、三人称視点から見た複数のユーザが共同設計を行う様子を示す。
【
図44】
図44は、本発明の実施形態の一態様に係る、タイヤが回転/反跳するように相互作用する音声付き画像を示す。
【
図45】
図45は、本発明の実施形態の一態様に係る、表示環境において視認/相互作用される人間の3D動画を示す。
【発明を実施するための形態】
【0013】
本発明の態様は、3次元オブジェクトの一人称拡張現実視野、設計および生成を可能とするシステム、方法およびコンピュータプログラム製品に関する。本発明の実施形態の一態様は、コンピュータにより3次元オブジェクトの一人称拡張現実視野を可能とするコンピュータプログラム製品である。本態様におけるコンピュータプログラム製品には、コンピュータにより3次元オブジェクトの一人称拡張現実視野を生成できるようにするための制御論理が格納されたコンピュータ使用可能媒体が含まれる。制御論理には、表示装置と1つまたは複数のセンサとの通信の初期化、1つまたは複数のセンサからのセンサデータの受信、1つまたは複数のセンサからのデータを用いた拡張現実環境の生成、拡張現実環境への3次元対象オブジェクトの組み込み、拡張現実環境への直交座標グリッドの適用、および一人称拡張現実視野における拡張現実環境への対象オブジェクトの表示等の様々な動作を行うコンピュータ可読プログラムコードが含まれる。
【0014】
本発明の実施形態の一態様において、制御論理には、対象オブジェクトの操作を可能とするコンピュータ可読プログラムコードが含まれる。
【0015】
本発明の実施形態の一態様において、制御論理には、対象オブジェクトの表示を変更して表示装置の位置および/または方向の変化を反映させるためのコンピュータ可読プログラムコードが含まれる。
【0016】
また、他の態様では、全地球測位システム(GPS)を用いて表示装置の位置および/または方向の変化を反映できるようにするためのコンピュータ可読プログラムコードが含まれる。
【0017】
本発明の実施形態の一態様において、センサデータには、対象オブジェクトの物理的特性、スケール、位置および/または方向に関する情報またはデータが含まれる。
【0018】
本発明の実施形態の一態様において、制御論理には、拡張現実環境に3次元画像を重ね合わせることを可能とするコンピュータ可読プログラムコードが含まれる。
【0019】
本発明の実施形態の一態様において、拡張現実環境は、1つまたは複数のセンサの配置により生成される。
【0020】
本発明の実施形態の一態様において、制御論理には、直交座標グリッドの仮想表現を行うためのコンピュータ可読プログラムコードが含まれる。
【0021】
本発明の実施形態の一態様において、直交座標グリッドの仮想表現は、表示装置と1つまたは複数のセンサとの同期によって行われる。
【0022】
本発明の実施形態の一態様において、制御論理には、1つまたは複数のセンサのリアルタイムおよび/または実際の位置を用いて表示原点を決定するためのコンピュータ可読プログラムコードが含まれる。
【0023】
本発明の実施形態の一態様において、制御論理には、リアルタイム効果をレンダリングして写実的ユーザインターフェスをシミュレートするためのコンピュータ可読プログラムコードが含まれる。
【0024】
本発明の実施形態の一態様において、制御論理には、拡張現実環境のユーザ視点を生成し、ユーザが拡張現実環境内を視認および移動できるようにするためのコンピュータ可読プログラムコードが含まれる。例えば、ユーザは、表示装置に投影された拡張現実環境において歩き回ったり、相互作用することができる。
【0025】
本発明の実施形態の一態様において、制御論理には、対象オブジェクトに物理的属性を適用できるようにするためのコンピュータ可読プログラムコードが含まれる。他の態様として、拡張現実環境自体に物理的属性を適用できるようにするためのコンピュータ可読プログラムコードが含まれる。
【0026】
本発明の実施形態の一態様において、制御論理には、対象オブジェクトに物理的属性を適用した効果をシミュレートするためのコンピュータ可読プログラムコード、および、対象オブジェクトに物理的属性をシミュレートした結果を表示するためのコンピュータ可読プログラムコードが含まれる。
【0027】
本発明の実施形態の一態様において、対象オブジェクトは、表示装置によって取得された実際のオブジェクトの画像である。他の態様では、対象オブジェクトの画像は、表示装置のカメラによって取得される。さらに他の態様では、対象オブジェクトの画像は表示装置にアップロードされる。
【0028】
本発明の実施形態の一態様において、対象オブジェクトは、ユーザにより拡張現実環境内に生成された3次元デザインである。
【0029】
本発明の実施形態の一態様において、本発明に係るシステムは、外部ソースから3次元モデルをアップロードすることができる。
【0030】
本発明の実施形態の一態様において、制御論理には、表示装置によるモーションキャプチャおよび距離検知を可能とするためのコンピュータ可読プログラムコードが含まれる。
【0031】
本発明の実施形態の一態様において、制御論理には、拡張現実環境に複数のユーザが参加できるようにするためのコンピュータ可読プログラムコードが含まれる。また、他の態様では、複数のユーザによる共同設計を可能とするためのコンピュータ可読プログラムコードが含まれる。
【0032】
本発明の実施形態の一態様において、制御論理には、表示装置による対象オブジェクトの拡大または縮小のシミュレーションを可能とするためのコンピュータ可読プログラムコードが含まれる。
【0033】
本発明の実施形態の一態様において、制御論理には、拡張現実環境におけるユーザの視野視線をシミュレートするためのコンピュータ可読プログラムコードが含まれる。他の態様では、コンピュータ可読プログラムコードには、表示装置の位置および拡張現実環境におけるオブジェクトと表示装置の焦点を結ぶためのコンピュータ可読プログラムコードが含まれる。
【0034】
本発明の実施形態の一態様において、制御論理には、拡張現実環境の移動を可能にするためのコンピュータ可読プログラムコードが含まれる。また、他の態様では、コンピュータ可読プログラムコードには、表示装置の動きを検知するためのコンピュータ可読プログラムコード、および、表示装置と1つまたは複数のセンサとの距離を判定するためのコンピュータ可読プログラムコードが含まれる。
【0035】
本発明の実施形態の一態様において、制御論理には、ユーザが決定した物理的特性を適用して対象オブジェクトを生成および表示するためのコンピュータ可読プログラムコードが含まれる。
【0036】
本発明の実施形態の一態様において、制御論理には、表示装置の拡張現実環境に対する距離の変化に基づいて音声を再生するためのコンピュータ可読プログラムコードが含まれる。
【0037】
本発明の実施形態の一態様において、制御論理には、表示原点を決定するためのコンピュータ可読プログラムコードが含まれる。他の態様では、コンピュータ可読プログラムコードには、1つまたは複数のセンサによって形成された配置レイアウトの幅および長さの変数を決定するためのコンピュータ可読プログラムコードが含まれる。配置レイアウトは、例えば矩形形状であり、この場合の表示原点は長さおよび幅をそれぞれ2で割ることにより決定される。
【0038】
ヘッドアップディスプレイ(HUD)は、ユーザが通常の視点から視線を逸らすことなく視認可能なデータを表示することができる透明ディスプレイである。本発明は、ヘッドアップディプレイと、ユーザが拡張現実環境に3次元(3D)モデルを表示することができるように構成されたコンピュータ支援設計(CAD)ソフトウェアとを組み合わせたものである。また、HUDは、モーションキャプチャと距離検知機能を備える。本発明に必要なソフトウェアは、内部または外部に格納される。内部に格納される場合、CADソフトウェアは局部的(ローカル)に格納され、HUD装置の内蔵CPUにおいて処理される。他方で、外部装置(携帯電話、PC、ウェブサーバー)からのコンテンツを表示するGoogle Glass(登録商標)などのHUD装置の場合、使用されるCADソフトウェアはHUD装置の外部に格納され、処理される。なお、本発明に係るHUD装置は、ヘッドアップディスプレイのみに限定されず、透明の、および/またはシミュレートされた拡張現実一人称視野を表示することができるウェアラブル装置などのモバイル装置も含む。透明な拡張現実視野を表示するHUD装置では、透明LEDディスプレイ技術を用いることで、3D画像が重畳された現実を視認することができる。HUDの一人称3D視点をシミュレートする装置は、その内部または外部のカメラによって取得された現実視野の上に重ねて、画像をレンダリングすることができる。その一つの例は、内部カメラによって取得された(または内部カメラによって視認された)現実のユーザの視点を拡張する3D環境の一人称視野を表示可能なタブレットがある。以下、上記装置および本発明に係るHUD装置は、表示装置および/またはHUDと呼ぶ。
【0039】
図1は、直交座標グリッドの一例を示す。3次元空間のための直交座標系は、
図1に示すように、互いに直交する3つの線(軸)を配置し、3つの軸の単位長さおよび方向を定めたものである。2次元の例のように、各軸は数値線となる。点Pの座標は、
図1に示すように、点Pから各座標軸に向かって垂直に線を引き、上記線が各座標軸との交わる点の数値線における数値を読み取ることにより得られる。これらの座標系は、主にコンピュータ支援設計(CAD)または3Dモデリングソフトウェアを用いた3Dモデルの設計において使用される。本発明において、拡張現実環境は、カメラの視線を利用した画像認識ではなく、センサ配置を用いて生成される。上記座標系は、位置センサによって現実の位置を正確に決定できるように表示される。
【0040】
図2は、本発明の実施形態の一態様における
位置センサ204の付近に位置するユーザ202を示す。ユーザ202は、
位置センサ204とともに示されている。後述のように、1つまたは複数の
位置センサ204が配置される。
各位置センサ204は、
相互に、および表示装置
との間
で認識、検知および通信可能に構成され
た距離センサである。
位置センサ204は、各位置センサ204間の距離、および位置センサ204と表示装置との間の距離を測定する。これらの測定結果から、拡張現実環境の物理的特性、スケール、位置および/または方向が決定される。
【0041】
図3、4および5は、本発明の実施形態の一態様におけるユーザ202と複数の位置センサ204、
位置センサ同期プロセス、および配置された表示環境の例を示す。位置センサ204は、ユーザ202が
位置センサ204を平面上に設置でき、かつ、表示装置が
位置センサ204を検知できる程度に間隔を開けて配置されている。位置センサ204は、図示されるように、現実環境のサイズおよび寸法の正確な複製をシミュレートできるように配置される。これにより、
図5に示されるように、高層ビルのように大きな、あるいは硬貨のように小さな3Dモデルまたは対象オブジェクト502を正確なスケールでレンダリングすることが可能な拡張現実環境を生成することができる。位置センサ204は、ユーザのワークスペースの境界または周長寸法を決定するために平面上に配置される。
位置センサ204は、表示装置と同期して直交デカルトグリッドの物理的位置の基点を仮想的に表現する。表示装置のソフトウェアは、表示装置の内部または外部に設けられたセンサを用いて、位置センサ204を検知し、これらと同期する。同期プロセスにおいて、表示装置は、位置センサ204から、
位置センサ
204の数および各
位置センサ
204間の距
離等のセンサデータを受信する。表示装置は、各
位置センサ
204間の距離から、拡張現実環境の寸法容量/限界を、現実環境の寸法容量/限界に一致するように取得する。
【0042】
図4に示されるように、各
位置センサ
204間の距離
を計算
する位置センサ同期プロセスでは、1つの
位置センサ
204から他の
位置センサ
204までコンピュータ生成仮想水平線を引き、目盛りを付ける。目盛りは、センサ間のすべての測定可能な仮想単位(センチメートル、インチ、フィート等)を測定することができる。同期プロセスにおいて生成された線および目盛りは、デフォルトでは表示装置ユーザインターフェースから隠されているが、ユーザは自由に表示させることができる。ユーザは、各
位置センサ
204間の長さおよび幅を特定することで、ワークスペースが適切なサイズ容量を有すること、および、
位置センサ
204がユーザの意図する投影を行うために正確な平行配置を有することを確認することができる。
図6は、同期によって生成された、拡張現実環境または表示環境600と呼ばれるコンピュータ生成3軸、3D直交グリッドである。1つまたは複数の
位置センサ204によって表示環境600が形成されることで、拡張現実表示エリアまたはワークスペースが生成される。表示環境600は、主に拡張現実オブジェクト、アプリケーションまたはオペレーティングシステムを表示および/または設計するために用いられる。
【0043】
図7は、本発明の実施形態の一態様における、数式を用いて単一センサ原点(SSO)702を特定するユーザ202を示す。
図8は、本発明の実施形態の一態様における、大規模環境の配置を示す。
【0044】
表示環境600を配置するには、表示原点を決定するための単一センサ原点(SSO)702または複数センサ原点(MSO)802が必要である。表示原点は、SSOまたは表示環境の物理的境界を定める直交点のセットとして配置された複数の
位置センサ
204の位置により定められた現実の単一点である。単一センサ原点(SSO)702は、表示環境600の原点値(0,0,0)および表示環境600のソフトウェア配置点を自動的に特定するために、ユーザ202の所望の物理的位置に配置された
位置センサ
204に基づく。SSO702は、表示環境600の長さおよび幅の設定のための中心点として用いられる。また、SSO702は、表示環境600の高さまたは深さの起点として用いられる。長さ、上記幅および高さ(または深さ)の値は、ユーザ202が手動で設定してもよい。これにより、
図7および
図8に示すように、ソフトウェアはSSO702またはMSO802を表示環境600の原点として計算し、これにユーザ202が設定した長さ、幅および高さ(または深さ)の値を用いて自動的に3D直交境界を生成することができる。MSO802を用いて表示環境600を配置するためには、ソフトウェアが、1つの
位置センサ
204を仮の原点として、2つの隣接する
位置センサ
204から上記原点までの距離を計算して長さおよび幅の値を生成することが必要である。上記計算により、ソフトウェアがMSO802を生成できるようにするための現実の物理点が提供される。MSO802は、複数の(主に直交構造に結合された4つの)
位置センサ204の中点の値である。
図8に示すように、上記4つの
位置センサ
204間の長さおよび幅の値を2で割り、xとyをMSO802の変数値とする。例えば、x=幅/2、y=長さ/2であれば、MSO802の点は座標(X,Y,Z)に等しくなる。MSOの計算において、ユーザが表示環境の高さ値を設定していない場合、z変数の初期値は0となる。
【0045】
(MSO)プロセスの例
1.4つの
位置センサ
204を配置して、表示環境直交形状の四隅を決定する
2.上記直交する四隅の長さおよび幅の変数を計算する
例:L=12、W=6
3.長さおよび幅を2で割り、xおよびy変数を計算する
例:X=12/
2、Y=6/2
X=6、Y=3、Z=0
MSO=(6,3,0)
4.ソフトウェアが上記計算したMSO点を表示環境特性に格納する
【0046】
表示環境600の表示原点が設定されると、ユーザ202は表示環境特性と呼ばれる環境特性のリストを決定する。表示環境特性は、ユーザ202が表示環境600に適用される属性値のリストを管理できるようにするためのソフトウェア生成メニューである。格納される属性は、表示環境600の物理的および相互作用的特性に関するメタデータなどである。格納される特性の非限定的な例としては、MSO、SSO、環境長さ、環境幅、環境高さ、x軸の最大値、y軸の最大値、z軸の最大値などがあり、表示環境600の視覚的特性も上記特性によって設定された属性により決定される。
【0047】
図9は、本発明の実施形態の一態様に係る表示装置902の位置同期プロセスの一例を示す。表示装置902の位置は、表示装置902から表示環境600の
位置センサ204までの距離
から計算される。
図9に示すように、上記計算の結果はHUDセンサ同期プロセスと呼ばれる。HUDセンサ同期プロセスは、それが位置センサ204から表示装置902まで引かれた目盛線を測定に用いる点以外は、前述のセンサ同期プロセスと同一である。HUDセンサ同期プロセスにより表示装置902の
位置が
決定され、表示装置902から、SSO702またはMSO802からの垂直線と交差する水平線が生成される。表示装置902の
水平距離は、表示装置902からSSO702またはMSO802の垂直交差点までの水平目盛りをカウントすることで測定される。一方、表示装置902の高さは、SSO702またはMSO802の水平交差点から表示装置902までの垂直目盛りをカウントすることで測定される
。ユーザ202(表示装置902の使用者)が表示装置902の物理的位置および方向を変化させるにしたがい、表示装置902の位置の値も変化するため、その特定は動的計算による。表示装置902の位置の再計算は、表示装置902のモーションキャプチャ検知機能によって受信された信号により開始される。
【0048】
図10〜
図12は、本発明の実施形態の一態様における、3Dレンダリングおよび投影、焦点および視線を含む表示装置902の一人称視点(POV)、および、焦点および視線を含む表示装置902の三人称視点(POV)の例を示す。
【0049】
視点(POV)として参照された表示装置ユーザインターフェース(UI)1102は、3Dレンダリングのコンピュータグラフィックスプロセスを用いて、自動的に3Dワイヤフレームモデルを2D画像に変換することができる。
図10に示すように、3Dワイヤモデル上の点を表示環境にプロットした後、表示装置902のソフトウェアが3Dレンダリングを適用して写実的ユーザインターフェースをシミュレートする。視点(POV)1102は、3Dレンダリングされたオブジェクトを含むユーザ202の現実の一人称視点をシミュレートする。また、
図11および
図12に示すように、視点(POV)1102は、3D投影および正射投影を用いて投影面としての2D画像を表示することにより、表示環境600の態様を表示する。上記投影面は、表示装置902の焦点および表示環境600からの視線に垂直な平面である。透視投影の焦点は、ユーザ202の視野の中心または原点である。
図11および
図12に示すように、表示装置902の位置および表示環境600の特性を上記焦点と組み合わせることで、ユーザ202からの視線をシミュレートすることができる。
【0050】
図13〜
図15は、それぞれ、本発明の実施形態の一態様において、距離が変化する表示環境を表示視点(POV)から見た様子を示した図、ディスプレイにおけるモーションキャプチャおよび画像変化の様子を一人称視野からの視線とともに示した図、および、ディスプレイにおけるモーションキャプチャおよび画像変化の様子を、三人称視野からの視線とともに示した図である。
【0051】
モーションキャプチャ技術は、表示装置902から表示環境600までの距離が変化した場合の表示装置902の視線の再計算のために用いられる。
図13〜
図15に示すように、ユーザ202が表示装置902と表示環境600との距離を変化させると、その動きが取得され、ソフトウェアが表示装置902により投影された画像を再レンダリングする。
図14および
図15に示すように、再レンダリングでは、表示装置902の視点(POV)の視線1102が表示環境600と交わる点を再計算することにより、表示環境600の移動をシミュレートする。
【0052】
図16〜
図18は、本発明の実施形態の一態様における、三人称視野からの表示環境600の3D方向移動、および一人称/三人称視点(POV)ヘッドチルトモーションキャプチャ視野効果を示す。
図16に示すように、表示環境の移動は、現実世界の3次元運動の効果および上下左右前後の視野を生成する。また、
図17および
図18に示すように、ユーザは傾斜した角度で視野を見ることができる。
【0053】
図19および
図20は、一人称および三人称視点からの内部および外部位置視点(POV)の例を示す。位置視点は、ユーザ202が表示環境600の境界の内部または外部に存在しているようにシミュレートする。大規模表示環境が配置され、表示装置902の位置が表示環境600の境界の内部にことが測定できる場合、表示された画像から内部次元視点(POV)を生成する。内部次元視点(POV)は、ユーザの視線を調節して表示環境600を内部から360度の水平および垂直視野範囲で表示する。例えば、
図19および
図20に示すように、大きな建物の3Dモデル生成するために十分な間隔を有する複数のセンサを備える表示環境600において、ユーザ202は自由に移動し、上記モデルを内部および外部のあらゆる角度から眺めることができる。ユーザの表示装置の水平視線が表示環境の座標と交わらない場合、画像は表示されず、ユーザが表示環境またはオブジェクトを見ていないかのようにシミュレートする。
【0054】
図21および
図22は、本発明の実施形態の一態様における、相互作用装置同期プロセス、および、ユーザ202が相互作用装置2102を使用している様子の一例を示す。相互作用装置2102には、ユーザ202によって入力されたソフトウェアコマンドを取得するための表示装置902のソフトウェアと同期する周辺装置が含まれる。また、相互作用2102は、ユーザが相互作用装置同期プロセスを用いて、ユーザ視点(POV)1102から視認することができるソフトウェアコマンドを生成するための相互作用装置の位置座標を取得することにより、表示環境インターフェースおよび3Dモデルを操作することを可能とする。
図21に示すように、相互作用装置同期プロセスは、表示装置ではなく周辺装置を用いる点を除けば、HUDセンサ同期プロセスと同様である。上記装置には、例えば、スタイラスワンド、キーボード、マウス、リモコン、手、目または体の動きを取得するための装置、および脳コンピュータインターフェース(BCI)装置が含まれるが、これらに限定されない。
図22に示すように、相互作用装置ソフトウェアコマンド入力機能は、前述の表示環境におけるユーザ視点(POV)の表示方法と同様に処理され、相互作用装置と表示環境の距離が取得された後、画像がレンダリングされるのではなく、上記ソフトウェアが装置の位置におけるコマンドを処理する。
【0055】
図23〜
図27は、本発明の実施形態の一態様における、グリッド線を含まない三人称視点視野からの設計ユーザインターフェース、トグルされたグリッド線を含む三人称視点視野からの設計ユーザインターフェース、グリッド線を含まない設計ユーザインターフェースの代替表示環境視野、グリッド線を含む設計ユーザインターフェースの代替表示環境視野、およびユーザが1Dから3Dへオブジェクトを段階的に設計したり、傾斜やサイズ変更を加えている様子を示す。
【0056】
オブジェクトは、現実世界の物理的寸法、テクスチャなどの構成をシミュレートするための特定の属性を備えるように設計され、表示環境600に表示される。ユーザは、オブジェクトを設計する際、複数の表示環境視点およびオブジェクトの方向を視認したり操作することができる。設計インターフェース2504は、相互作用装置を用いて生成されたソフトウェアコマンドからのオブジェクトを設計するために使用される複数のオブジェクト生成ツールを提供する。表示装置を表示環境600と同期させることで、ユーザは表示環境600上の特定の点に基づいて3Dオブジェクトを設計および操作することができる。本発明において参照される3Dオブジェクトは、表示環境600として表示されたソフトウェア生成直交座標系にプロットされた3Dモデルである。
図23〜
図26に示すように、オブジェクト設計プロセスにおいて、ユーザはオブジェクトの設計精度を高めるための透明グリッドの代替表示環境視野をトグルオン/オフすることができる。従来のCADソフトウェアの態様は、3Dオブジェクト設計プロセスにおいて、ユーザに一人称視野をもたらす設計インターフェースにより提供される。上記プロセスでは、長さ、幅、高さ、および半径などの物理的特性を特定することにより、1次元形状を決定する。例えば、一般的な1D形状には、円、四角形および三角形がある。これらの1D形状を修正して、円錐、直方体および球などの3Dモデルが生成される。その後、3Dモデルは、
図27に示すように、サイズおよび特殊な形状などの物理的特性を取得するためにカスタマイズされる。また、1D形状は、ベーシックフリーハンドまたはユーザが形状の物理的特性を決定するために用いる直線描画ツールにより設計される。ユーザの設計視野は、表示環境600との距離が変化する表示装置視点に基づく。
【0057】
図28〜
図31は、本発明の実施形態の一態様において、表示装置902の一人称および三人称視点から見たオブジェクトの方向を回転させる様子、および、ユーザの距離に基づく一人称および三人称視点から見たスナップ点3002を示す。スナップ点は、Autodesk社のAuto CAD Object Snaps(Osnaps)に類似し、オブジェクトを正確に描画および操作するために、他のCADソフトウェアコマンドとともに用いられる。スナップ点により、特定のオブジェクト位置をスナップして、これを相互作用点として特定することができる。
図28および
図29に示すように、ユーザは表示装置に表示されたオブジェクトを距離に基づいて視認するため、ユーザは、より良好な視点を得るために表示環境の周りを移動するか、スナップ点を備える相互作用装置を用いて所望のオブジェクトを移動または回転させることにより、3Dオブジェクトの方向を調整する必要がある。
【0058】
また、
図30および
図31に示すように、スナップ点は線の終点または円の中心まで正確にスナップすることができるため、3Dオブジェクトの特殊な形状の一部となる他の線の一部分を引くことができる。
【0059】
図32および
図33は、本発明の実施形態の一態様における、一人称および三人称視点から見た、スナップ点を変更するための視野の移動/変化の様子を示す。表示装置の距離が変化するにつれ、スナップ点3002は視認できたり、できなくなったりする。これにより、
図32および
図33に示すように、ユーザは、ユーザ視点またはオブジェクト方向に基づく相互作用を制限することができる。
【0060】
図34は、本発明の実施形態の一態様における、メニューを用いて物理的特性を追加している様子を、
図35は、本発明の実施形態の一態様における、オブジェクトにテクスチャおよび重力の物理的特性を付与している様子をそれぞれ示す。物理特性ユーザインターフェース(UI)3402を用いて、あらかじめ設計された3Dオブジェクトに物理的特性を付与することができる。上記ユーザインターフェースは、
図34に示すように、ユーザによって付与された属性のメニューを表示して、オブジェクトの物理的または視覚的特性をシミュレートする。オブジェクトの属性としては、下記の表1に列挙する属性が含まれるが、これらに限定されない。
【0062】
ソフトウェアが物理的特性を認識することで、表示装置902のソフトウェアまたは相互作用装置による様々なオブジェクト反応および相互作用がもたらされる。上記3Dオブジェクト反応は、現実世界における反応または異なるタイプの物理系の概略シミュレーションを提供できるようにソフトウェアによって処理された選択可能かつカスタマイズ可能な物理エンジンによりあらかじめ決められている。本発明の実施形態の一態様において、物理エンジンは、現実世界の物理反応をシミュレートするための計算結果を生成する。物理エンジンは、ソフトウェアの一部、あるいは装置の内部または外部に存在するソフトウェアである。
【0063】
表示装置902のソフトウェアにより、ユーザ202は、異なるシミュレート環境でのオブジェクトの一人称視野からそれらの反応の様子を視認することができる。
図36に示すように、シミュレート環境は、温度や環境的効果などの現実正解の設定におけるオブジェクト効果を含むことができる。
【0064】
本発明の実施形態の一態様において、ユーザから見たオブジェクトおよび反応/応答の様子を選択および整理するために、表示レイヤ指数が用いられる。各レイヤは、0を最下層として順に積層される特定の指数によって整列される。レイヤは、不可視化、記録、削除または上書き制限をすることができる。
【0065】
図36は、本発明の実施形態の一態様における物理エンジンにより重力が適用されたオブジェクト2502をユーザの3人称視野から視認した様子を、
図37は、本発明の実施形態の一態様における衝突の物理エンジンシミュレーションおよびオブジェクトへの衝突検知効果をユーザの三人称視野から視認した様子をそれぞれ示す。
【0066】
図38および
図39は、本発明の実施形態の一態様における三人称視点から見たオブジェクトの段階的なアニメーションキャプチャを示す。
図40および
図41は、本発明の実施形態の一態様におけるソフトウェアイベントトリガのための物理反応条件文の例、および相互作用装置イベントのための物理反応条件文の例を示す。前述の物理エンジンは、ユーザが決定した物理的特性に基づくオブジェクトの運動の効果を計算する。ユーザは、あらかじめ設定された物理エンジンまたは外部から取り込んだ物理エンジンを用いて、シミュレーションの結果を修正することができる。カスタム物理エンジンの適用例としては、地球の大気特性とは異なる月の大気特性をシミュレートした環境などがある。ユーザは、オブジェクトの物理的特性値を調整することで物理計算を修正することができる。表示環境600を用いることで、ユーザ202は、現実世界における反応と同等のリアルタイムな動的反応を得ることができる。
【0067】
オブジェクト思考は、オブジェクトのために人工知能をシミュレートする。オブジェクト思考ユーザインターフェースにより、ユーザは、相互作用装置、またはソフトウェアにより提供された自動イベントトリガによりトリガされたユーザの行動に基づいて再生されるフレーム単位のオブジェクトアニメーションを取得することができる。
図38および
図39に示すように、オブジェクトの運動の取得においては、ユーザがオブジェクトを動かし、ソフトウェアを用いてオブジェクト3702のスナップ点3802の位置の変化の段階的な計算結果を取得する。サイズや形状などのオブジェクトの物理的特性の変化も、段階的操作により取得することができる。フレーム単位のオブジェクトアニメーションを取得した後、ユーザは、オブジェクトの論理的運動、反応および一般的な運動性をシミュレートするための物理反応論理を構成することができる。物理反応論理は、上記取得されたオブジェクト思考アニメーションを用い、条件文計算論理を適用して、ソフトウェアおよび/またはユーザ202により開始されたイベントトリガに対するオブジェクトの反応を判定する。条件文計算は、イニシエータのコマンド(開始イベント)および動作からなる段階的プロセスを生成する。条件文は、一般的に、開始イベント、応答、複数の論理的結果を生成する節、パラメータおよび変数を有する。例えば、
図40および
図41に示すように、ユーザがタイヤ4002を支えるオブジェクト4004を動かすと(開始イベント)、タイヤ4002が転がる(オブジェクト思考回転動作(運動))。上記人工知能(物理反応論理)に基づく条件文により、オブジェクトは動的状況におけるスクリプト化された動作および応答を行うことができる。
【0068】
本発明の実施形態の一態様では、オブジェクトソリューション環境(OSE)ユーザインターフェースが、ユーザがカスタム動作計算、先端科学数式、メニュー、コンテンツおよびメディアタイプ(画像、動画、音声等)を組み込むプロセスソリューション(HUDアプリケーションまたはメディアコンテンツ)を生成できるようにするためのツールを提供する。オブジェクトソリューションは、モバイルアプリケーションおよび/またはコンピュータプログラムのコンセプトと同様に、他のHUDユーザによる再利用および相互作用のために包括されてもよい。
【0069】
音声再生は、表示装置902の物理的位置による影響も受ける。オブジェクトにより生成された音声は、ユーザ202が表示環境600を移動しつつ3D音声を聞くことができるように、ソフトウェアによりシミュレートされる。ソフトウェアは、表示装置902と表示環境600の距離の変化に応じて再生音声を変化させる。頭部伝達関数および反響を用いて、音源(壁や床からの反射を含む)から聴取者の耳に到達するまでの間における音声の変化がシミュレートされる。上記効果には、聴取者の後方、上方および下方の音源の定位が含まれる。3D技術により、バイノーラル録音をステレオ録音に変換することもできる。Morrow Sound True 3D(登録商標)は、バイノーラル、ステレオ、5.1ch等のフォーマットをリアルタイムに8.1ch単一/複数ゾーン3D音声に変換する。
【0070】
図42および
図43は、本発明の実施形態の一態様における、1人称および3人称視野から見た複数のユーザによる共同設計の様子を示す。本発明の態様は、表示環境の相互作用、移動および視野を同時に実現する複数ユーザ4302間の連携を可能とする。一態様において、上記連携には、ユーザが3D環境データに一度にアクセスできるようにするためのインターネットまたはローカルサーバ接続が必要である。複数のユーザ4302によるアクセスは共同設計を実現する。共同設計は、複数のユーザが同時にオブジェクトを設計するとともに、オブジェクトおよび/または環境についてのコメント、編集等のリアルタイムのマークアップを付することができるオブジェクト設計および表示におけるプロセスである。また、共同設計機能は、複数のユーザが表示環境を眺め、または表示するためのキーツールとして用いられる。本発明の実施形態の一態様において、ユーザは、メモや経過の変更を保存するために、環境にコメントや図を付加することができる。また、CAD等の適用可能なソフトウェアを用いることで、複数のユーザが1つの環境で共同設計を行うことができる。CADソフトウェアをウェブサーバを通じて外的に処理する場合でも、複数のユーザは連携してオブジェクトを設計することができる。
図42および
図43に示すように、表示環境のユーザ視点(POV)は、それぞれ表示されるオブジェクトおよび角度の異なる固有の視野を有する。
【0071】
図44は、本発明の実施形態の一態様における、タイヤが回転/反跳するように相互作用する音声付き画像4402を、
図45は、本発明の実施形態の一態様における、表示環境600において視認/相互作用される人間の3D動画4502をそれぞれ示す。
【0072】
ソリューション設計プロセスは、設計されたオブジェクトの包括化、物理法則、メニューおよびメディアコンテンツを備える人工知能(AI)、からなる。上記プロセスにより、ユーザは、表示環境、または表示装置にアプリケーションとして表示するために設計されたオブジェクトを眺め、生成し、保存し、共有および相互作用することができる。インタラクティブメニューおよび動作は、保存されたソフトウェアコマンドを開始するためにユーザにより適用される種々のオプションを提供する。本例のソフトウェアコマンドは、あらかじめ設計された動作/イベントトリガまたはユーザが決定したオブジェクト物理反応論理模倣イベントである。相互作用装置は、ユーザ相互作用のソースを生成する上記ソフトウェアコマンドを開始することができる。また、画像、音声および動画などのメディアコンテンツを用いて、ユーザの相互作用および体験をより一層高めることができる。一つの例として、
図44に示すような、タイヤの3Dモデルが音声効果を伴って回転動作をするイベントをトリガするユーザ決定画像がある。また、別の図例として、
図45に示すような、本発明の3Dオブジェクト特性と同様に、ユーザが相互作用でき、その周囲を表示装置とともに移動することができる3Dキャプチャされた人間の動画がある。
【0073】
本発明の実施形態の一態様の適用例を以下に示す。まず、ユーザは、位置センサを用いて表示環境のOSEワークスペースの輪郭/境界を決定することで、ワークスペースを特定する。次に、ユーザは、設計ツールを用いてオブジェクトの形状を操作し、所望の物理的寸法を有するオブジェクトを生成する。次に、ユーザは、オブジェクトごとに物理的特性を選択、適用して、OSE物理現象との関係性を生成する。次に、ユーザは、シミュレートするOSEに物理現象を設定する。次に、ユーザは、オブジェクトのための人工知能をシミュレートするためのオブジェト思考を設計する。「思考」ユーザインターフェースにより、ユーザは、相互作用装置によりトリガされた(またはユーザにより割り当てられた)ユーザの動作、またはソフトウェアによりトリガ/提供された自動イベントに基づいて再生されるフレーム単位のアニメーションによりオブジェクトの運動を取得することができる。次に、ユーザは、特定のオブジェクトに論理および/またはアニメーションを適用して、運動を生じさせる。ユーザは、選択的にロジスティクスや他の統計的手法を取り入れることができる。ユーザは、包括的なプロジェクトを保存し、他のユーザと共有することができる。
【0074】
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範囲内において、種々の変更または修正を行うことが可能であるものと理解される。