【課題を解決するための手段】
【0003】
(要約)
本発明の実施形態は、1人またはそれを上回るユーザのための仮想現実および/または拡張現実相互作用を促進するためのデバイス、システム、および方法を対象とする。
【0004】
一実施形態は、ユーザディスプレイデバイスであって、ユーザの頭部に搭載可能な筐体フレームと、筐体フレームに連結され、ユーザの眼の移動を追跡し、追跡された眼移動に基づいて、焦点深度を推定するための第1の対のカメラと、光生成機構を有し、推定される焦点深度に基づいて、ディスプレイオブジェクトが焦点に現れるように、ディスプレイオブジェクトアプリと関連付けられた投影光を生成および修正するための投影モジュールと、筐体フレーム上に搭載される、レンズと、投影モジュールに通信可能に連結され、ディスプレイ画像と関連付けられたデータを投影モジュールに通信するためのプロセッサとを備える、デバイスを対象とする。レンズは、ユーザの眼の正面に位置付けられ、投影された光をユーザの眼の中に入り込ませるための少なくとも1つの透明ミラーを備えてもよい。少なくとも1つの透明ミラーは、ローカル環境からの光の透過を選択的に可能にしてもよい。
【0005】
ユーザディスプレイデバイスはさらに、筐体フレーム上に搭載可能であって、第2の対のカメラのそれぞれに対応する眼の視野画像を捕捉するための第2の対のカメラを備えてもよい。プロセッサは、捕捉された視野画像に基づいて、ユーザの頭部姿勢を計算してもよい。
【0006】
投影モジュールは、推定される焦点深度に基づいて、ディスプレイオブジェクトと関連付けられた投影された光ビームを修正するための走査式レーザ配列を備えてもよい。投影された光ビームの直径は、0.7mm未満であってもよい。
【0007】
一実施形態では、第1の対のカメラは、ユーザの眼のそれぞれの移動を追跡するために、赤外線光源と対合される、赤外線カメラを備えてもよい。ユーザディスプレイデバイスはさらに、ユーザの移動、ユーザの場所、ユーザの方向、およびユーザの配向のうちの少なくとも1つを感知するための少なくとも1つのセンサを備える、センサアセンブリを備えてもよい。少なくとも1つのセンサは、加速度計、コンパスまたはジャイロスコープであってもよい。プロセッサは、ユーザの移動、ユーザの場所、ユーザの方向、およびユーザの配向のうちの少なくとも1つに基づいて、ユーザの頭部の姿勢を推定してもよい。ユーザディスプレイデバイスは、GPSシステムを備えてもよい。ユーザディスプレイデバイスはさらに、投影モジュールに通信可能に連結され、触知フィードバックを提供するための触覚インターフェースデバイスを備えてもよい。ユーザディスプレイデバイスはさらに、ユーザの環境をデジタル的に再構築するための環境感知システムを備えてもよい。
【0008】
プロセッサは、コンピュータネットワークに通信可能に連結され、仮想世界データの少なくとも一部を伝送し、仮想世界データの別の部分を受信してもよい。
【0009】
ユーザディスプレイデバイスは、頭部フレーム上に搭載可能であって、音を出力するためのオーディオスピーカモジュールを備えてもよい。ユーザディスプレイデバイスはさらに、筐体フレーム上に搭載可能であって、ユーザにローカルの音を捕捉するためのマイクロホンを備えてもよい。
【0010】
投影モジュールは、他のオブジェクトがぼやけて現れるように、ディスプレイオブジェクトではない別のオブジェクトと関連付けられた別の投影された光を修正してもよい。プロセッサは、少なくとも60フレーム/秒の率でディスプレイオブジェクトのフレームをレンダリングしてもよい。
【0011】
ディスプレイオブジェクトは、仮想オブジェクト、レンダリングされた物理的オブジェクト、画像、およびビデオのうちの少なくとも1つであってもよい。
【0012】
別の実施形態では、方法は、ユーザの眼の移動を追跡するステップと、追跡された眼移動に基づいて、ユーザの眼の焦点深度を推定するステップと、ディスプレイオブジェクトが焦点に表されるように、推定される焦点深度に基づいて、ディスプレイオブジェクトと関連付けられた光ビームを修正するステップと、修正された光ビームをユーザの眼の中に投影するステップとを含む。ユーザの眼に投影された投影光ビームの直径は、0.7mm未満であってもよい。
【0013】
本方法はさらに、ディスプレイオブジェクトの可視化モードに基づいて、ユーザのローカル環境からの光の透過を選択的に可能にするステップを含んでもよい。可視化モードは、拡張現実モード、仮想現実モード、ならびに拡張および仮想現実モードの組み合わせのうちの1つであってもよい。
【0014】
本方法はさらに、ユーザの眼のそれぞれの視野画像を捕捉するステップを含んでもよい。捕捉された視野画像は、ユーザの頭部の姿勢を推定するために使用されてもよい。捕捉された視野画像は、少なくとも1つの物理的オブジェクトを物理的にレンダリングされた仮想オブジェクトに変換し、物理的にレンダリングされた仮想オブジェクトをユーザに表示するために使用されてもよい。
【0015】
本方法はさらに、捕捉された視野画像内の点集合を抽出するステップと、抽出された点集合に基づいて、捕捉された視野画像内の少なくとも1つの物理的オブジェクトのための基準を作成するステップとを含んでもよい。本方法はさらに、抽出された点集合および作成された基準のうちの少なくとも1つをクラウドコンピュータに伝送するステップと、抽出された点集合および作成された基準のうちの少なくとも1つをオブジェクトのタイプにタグ付けするステップとを含んでもよい。本方法はさらに、オブジェクトのタイプと関連付けられたタグ付けされた点集合およびオブジェクトのタイプと関連付けられたタグ付けされた作成された基準のうちの少なくとも1つに基づいて、異なる物理的オブジェクトがオブジェクトのタイプに属すると認識するステップを含んでもよい。
【0016】
本方法はさらに、ユーザの移動、ユーザの場所、ユーザの方向、およびユーザの配向のうちの少なくとも1つを感知するステップと、少なくとも1つの感知された移動、感知された場所、感知された方向、および感知された配向に基づいて、ユーザの姿勢を計算するステップとを含んでもよい。センサは、加速度計、コンパス、およびジャイロスコープのうちの少なくとも1つであってもよい。
【0017】
本方法はさらに、クラウドネットワークへのディスプレイオブジェクトと関連付けられた仮想世界データを処理するステップと、第2のユーザが、第2の場所におけるディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を体験し得るように、ディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を第2の場所に位置する第2のユーザに伝送するステップとを含んでもよい。
【0018】
本方法はさらに、物理的オブジェクトを感知するステップと、感知された物理的オブジェクトとの所定の関係に基づいて、ディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を修正するステップとを含んでもよい。本方法はさらに、修正された仮想世界データを第2のユーザに提示するステップを含む。
【0019】
本方法はさらに、他のオブジェクトがぼやけて現れるように、ディスプレイオブジェクトではない別のオブジェクトと関連付けられた別の光を修正するステップを含んでもよい。
【0020】
本方法はさらに、ユーザインターフェースを通してユーザ入力を受信するステップと、受信されたユーザ入力に基づいて、ディスプレイオブジェクトを修正するステップとを含んでもよい。ユーザインターフェースは、触覚インターフェースデバイス、キーボード、マウス、ジョイスティック、モーションキャプチャコントローラ、光学追跡デバイス、およびオーディオ入力デバイスのうちの少なくとも1つであってもよい。ディスプレイオブジェクトは、仮想オブジェクト、レンダリングされた物理的オブジェクト、画像、およびビデオのうちの少なくとも1つであってもよい。
【0021】
別の実施形態では、方法は、頭部搭載型ユーザディスプレイデバイスを通して仮想世界データを含む仮想世界と相互作用するステップであって、頭部搭載型ユーザディスプレイデバイスは、ユーザの眼の推定される焦点深度に基づいて、仮想世界データの少なくとも一部と関連付けられたディスプレイ画像をユーザにレンダリングする、ステップと、頭部搭載型ユーザデバイスと仮想世界の相互作用およびユーザの物理的環境との相互作用のうちの少なくとも1つを起源とする付加的仮想世界データを作成するステップと、付加的仮想世界データをコンピュータネットワークに伝送するステップとを含む。仮想世界は、2次元形式または3次元形式で提示されてもよい。
【0022】
本方法はさらに、第2のユーザが第2の場所からの付加的仮想世界データを体験することができるように、提示のために、付加的仮想世界データを第2の場所における第2のユーザに伝送するステップを含んでもよい。付加的仮想世界データは、頭部搭載型ユーザディスプレイデバイスを通して捕捉された視野画像と関連付けられてもよい。付加的仮想世界データは、ユーザの感知された移動、ユーザの感知された場所、ユーザの感知された方向、およびユーザの感知された配向のうちの少なくとも1つと関連付けられてもよい。付加的仮想世界データは、頭部搭載型ユーザディスプレイデバイスによって感知された物理的オブジェクトと関連付けられてもよい。付加的仮想世界データは、感知された物理的オブジェクトとの所定の関係を有するディスプレイオブジェクトと関連付けられてもよい。
【0023】
本方法はさらに、ユーザ入力に基づいて、ユーザと頭部搭載型ユーザディスプレイデバイスとの間の相互作用を可能にするためのインターフェースを選択するステップと、選択されるインターフェースに基づいて、仮想世界データの少なくとも一部と関連付けられたディスプレイオブジェクトをレンダリングするステップとを含んでもよい。選択されるインターフェースは、仮想現実モード、拡張現実モード、混合現実モード、ならびに仮想現実および拡張現実モードの組み合わせのうちの1つであってもよい。
【0024】
別の実施形態では、2人またはそれを上回るユーザが、仮想世界データを含む仮想世界と相互作用することを可能にする方法は、第1のユーザの第1の可視化モードにおいて、第1のユーザディスプレイデバイスを通して仮想世界を表示するステップと、コンピュータネットワークを通して第2のユーザディスプレイに仮想世界データの少なくとも一部を伝送するステップと、第2のユーザの第2のユーザディスプレイデバイスにおいて、第2の可視化モードにおいて、仮想世界データの伝送される部分と関連付けられた仮想世界を表示するステップとを含む。第1の可視化モードは、第2の可視化モードと異なってもよい。第1の可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに仮想現実および拡張現実モードの組み合わせのうちの少なくとも1つであってもよい。
【0025】
別の実施形態では、方法は、ユーザの選択に基づいて、実際の物理的オブジェクトの画像と関連付けられたレンダリングされた物理的画像データおよび仮想ディスプレイオブジェクトと関連付けられた仮想画像データのうちの少なくとも1つを処理するステップと、ユーザによってリアルタイムで見られるような実際の物理的オブジェクト、ユーザによってリアルタイムで見られるような実際の物理的オブジェクトに基づいてレンダリングされる、レンダリングされた物理的仮想オブジェクト、および仮想ディスプレイオブジェクトの選択される組み合わせをユーザに選択的に表示するステップとを含む。実際の物理的オブジェクト、レンダリングされた物理的仮想オブジェクト、および仮想ディスプレイオブジェクトのうちの少なくとも1つは、可視化モードのユーザ入力に基づいて選択的に表示されてもよい。可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに仮想および拡張現実モードの組み合わせのうちの少なくとも1つであってもよい。
【0026】
本方法はさらに、コンピュータネットワークを通して別のディスプレイオブジェクトと関連付けられた画像データを受信するステップと、ユーザが、選択される可視化モードにおいて、他のディスプレイオブジェクトを視認することができるように、画像データを選択される可視化モードと互換性があるデータ形式に変換するステップとを含む。
【0027】
本方法はさらに、選択される可視化モードに基づいて、ユーザが、実際の物理的オブジェクトを視認することができるように、外側環境からの光の透過を選択的に可能にするステップを含む。
【0028】
別の実施形態では、方法は、頭部搭載型ユーザディスプレイデバイスのレンズを通して、外側環境からの光の透過を選択的に可能にするステップを含み、頭部搭載型ユーザディスプレイデバイスは、全体的仮想オブジェクト、全体的物理的オブジェクト、または仮想オブジェクトおよび物理的オブジェクトの組み合わせのいずれかを表示するために構成される。
【0029】
光の透過の選択的可能化は、所望の可視化モードに基づいてもよく、所望の可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに拡張および仮想現実モードの組み合わせのうちの1つである。
【0030】
本方法はさらに、ユーザが、全体的物理的オブジェクトのみを視認するように、頭部搭載型ユーザディスプレイデバイスがオフにされると、外側環境からの光の完全透過を可能にするステップを含んでもよい。
【0031】
本方法はさらに、特定の形状を有する少なくとも1つのディスプレイオブジェクトと関連付けられた光ビームをユーザの眼の中に投影させるステップと、ユーザが、外側環境内の物理的オブジェクトとともに、ディスプレイオブジェクトを視認するように、少なくとも1つのディスプレイオブジェクトの特定の形状に基づいて、外側環境からの光の透過を選択的に可能にするステップとを含んでもよい。本方法はさらに、ユーザが、全体的仮想オブジェクトのみを視認することができるように、外側環境からの光の透過を防止するステップを含んでもよい。
【0032】
別の実施形態では、2人またはそれを上回るユーザが、仮想世界データを含む仮想世界と相互作用することを可能にする方法は、第1のユーザが、第1の場所における第1のユーザデバイスを通して仮想世界にアクセスするために、遠隔アバターを作成するステップと、第1のユーザが、第1の場所における第1のユーザデバイスを通して実際の地理的場所を体験することができるように、第1のユーザの遠隔アバターを実際の地理的場所に設置するステップと、実際の地理的場所に設置された遠隔アバターを通して、実際の地理的場所における第2のユーザデバイスを通して仮想世界にアクセスする第2のユーザと相互作用するステップとを含む。第1の場所は、実際の地理的場所と異なってもよく、または第1の場所は、実質的に、実際の地理的場所と同一であってもよい。
【0033】
遠隔アバターは、実際の地理的場所における物理的オブジェクトと所定の関係を有してもよい。遠隔アバターは、実際の地理的場所における環境キューに応答してもよい。遠隔アバターの移動は、第1のユーザによって制御されてもよい。遠隔アバターは、実際の地理的場所における第2のユーザと相互作用してもよい。
【0034】
別の実施形態では、方法は、頭部搭載型ユーザディスプレイデバイスを通して、ユーザの眼のそれぞれの視野画像を捕捉するステップと、捕捉された視野画像内の点集合を抽出するステップと、抽出された点集合と特定のオブジェクトを関連付けるステップと、特定のオブジェクトの関連付けられた点集合に基づいて、異なるオブジェクトを認識するステップとを含む。
【0035】
別の実施形態は、2人またはそれを上回るユーザが仮想世界データを含む仮想世界と相互作用することを可能にするためのシステムであって、1つまたはそれを上回るコンピューティングデバイスであって、メモリと、処理回路と、少なくとも部分的にメモリに記憶され、仮想世界データの少なくとも一部分を処理するように処理回路によって実行可能であるソフトウェアとを備える、1つまたはそれを上回るコンピューティングデバイスを備える、コンピュータネットワークを備え、仮想世界データの少なくとも第1の部分は、第1のユーザにローカルである第1のユーザ仮想世界が起源であり、第1のユーザ仮想世界の側面が第2のユーザに効果的に渡されるように、第2のユーザが第2のユーザの位置から第1の部分を体験し得るように、コンピュータネットワークは、第2のユーザに提示するために第1の部分をユーザデバイスに伝送するように動作可能である、システムを対象とする。第1および第2のユーザは、異なる物理的位置、または実質的に同一の物理的位置にあってもよい。仮想世界の少なくとも一部分は、仮想世界データの変更に応答して変化するように構成されてもよい。仮想世界の少なくとも一部分は、ユーザデバイスによって感知される物理的オブジェクトに応答して変化するように構成されてもよい。仮想世界データの変更は、物理的オブジェクトとの所定の関係を有する仮想オブジェクトを表してもよい。仮想世界データの変更は、所定の関係に従って、第2のユーザに提示するために第2のユーザデバイスに提示されてもよい。仮想世界は、コンピュータサーバまたはユーザデバイスのうちの少なくとも1つによってレンダリングされるように動作可能であり得る。仮想世界は、2次元形式で提示されてもよい。仮想世界は、3次元形式で提示されてもよい。ユーザデバイスは、拡張現実モードでユーザと仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能であり得る。ユーザデバイスは、仮想現実モードでユーザと仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能であり得る。ユーザデバイスは、拡張および仮想現実モードの組み合わせでユーザと仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能であり得る。仮想世界データは、データネットワーク上で伝送されてもよい。コンピュータネットワークは、ユーザデバイスから仮想世界データの少なくとも一部分を受信するように動作可能であり得る。ユーザデバイスに伝送される仮想世界データの少なくとも一部分は、仮想世界の少なくとも一部分を生成するための命令を備えてもよい。仮想世界データの少なくとも一部分は、処理または配信のうちの少なくとも1つのためにゲートウェイに伝送されてもよい。1つまたはそれを上回るコンピュータサーバのうちの少なくとも1つは、ゲートウェイによって配信される仮想世界データを処理するように動作可能であり得る。
【0036】
別の実施形態は、遠隔アバターが、音声抑揚および顔認識ソフトウェアからの随意的な入力を用いて、少なくとも部分的に装着型デバイス上のデータに基づいて動画化される、仮想および/または拡張ユーザ体験のためのシステムを対象とする。
【0037】
別の実施形態は、カメラ姿勢または視点位置およびベクトルが、ある世界セクタ内のいずれかの場所に配置されてもよい、仮想および/または拡張ユーザ体験のためのシステムを対象とする。
【0038】
別の実施形態は、世界またはその一部が、多様かつ選択可能な尺度でユーザを観察するためにレンダリングされてもよい、仮想および/または拡張ユーザ体験のためのシステムを対象とする。
【0039】
別の実施形態は、姿勢タグ付け画像に加えて、点またはパラメトリック線等の特徴が、世界モデルの基礎データとして利用され得、そこからソフトウェアロボットまたはオブジェクト認識装置が、セグメント化オブジェクトおよび世界モデルに手動で含むためのソース特徴をタグ付けする、実世界オブジェクトのパラメトリック表現を作成するために利用され得る、仮想および/または拡張ユーザ体験のためのシステムを対象とする。
【0040】
本発明の付加的ならびに他の目的、特徴、および利点は、詳細な説明、図、および請求項に説明される。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
ユーザディスプレイデバイスであって、
ユーザの頭部に搭載可能な筐体フレームと、
前記筐体フレームに連結され、前記ユーザの眼の移動を追跡し、前記追跡された眼移動に基づいて、焦点深度を推定するための第1の対のカメラと、
光生成機構を有し、前記推定される焦点深度に基づいて、ディスプレイオブジェクトが焦点に現れるように、ディスプレイオブジェクトアプリと関連付けられた投影光を生成および修正するための投影モジュールと、
前記筐体フレーム上に搭載される、レンズと、
前記投影モジュールに通信可能に連結され、前記ディスプレイ画像と関連付けられたデータを前記投影モジュールに通信するためのプロセッサと、
を備える、デバイス。
(項目2)
前記レンズはさらに、前記ユーザの眼の正面に位置付けられ、前記投影された光を前記ユーザの眼の中に入り込ませるための少なくとも1つの透明ミラーを備える、項目1に記載のユーザディスプレイデバイス。
(項目3)
前記少なくとも1つの透明ミラーは、選択的に、ローカル環境からの光の透過を可能にする、項目2に記載のユーザディスプレイデバイス。
(項目4)
前記筐体フレーム上に搭載可能であって、第2の対のカメラのそれぞれに対応する眼の視野画像を捕捉するための第2の対のカメラをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目5)
前記プロセッサは、前記捕捉された視野画像に基づいて、前記ユーザの頭部姿勢を計算する、項目4に記載のユーザディスプレイデバイス。
(項目6)
前記投影モジュールは、前記推定される焦点深度に基づいて、前記ディスプレイオブジェクトと関連付けられた投影された光を修正するための走査式レーザ配列を備える、項目1に記載のユーザディスプレイデバイス。
(項目7)
前記投影された光は、直径0.7mm未満を有する光ビームである、項目6に記載のユーザディスプレイデバイス。
(項目8)
前記第1の対のカメラは、前記ユーザの眼のそれぞれの移動を追跡するために、赤外線光源と対合される、赤外線カメラを備える、項目1に記載のユーザディスプレイデバイス。
(項目9)
前記ユーザの移動、前記ユーザの場所、前記ユーザの方向、および前記ユーザの配向のうちの少なくとも1つを感知するための少なくとも1つのセンサを備える、センサアセンブリをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目10)
前記少なくとも1つのセンサは、加速度計、コンパス、およびジャイロスコープのうちの少なくとも1つである、項目9に記載のユーザディスプレイデバイス。
(項目11)
前記プロセッサは、前記ユーザの移動、前記ユーザの場所、前記ユーザの方向、および前記ユーザの配向のうちの少なくとも1つに基づいて、前記ユーザの頭部姿勢を推定する、項目9に記載のユーザディスプレイデバイス。
(項目12)
GPSシステムをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目13)
前記プロセッサは、コンピュータネットワークに通信可能に連結され、仮想世界データの少なくとも一部を伝送し、前記仮想世界データの別の部分を受信する、項目1に記載のユーザディスプレイデバイス。
(項目14)
前記頭部フレーム上に搭載可能であって、音を出力するためのオーディオスピーカモジュールをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目15)
前記筐体フレーム上に搭載可能であって、前記ユーザにローカルの音を捕捉するためのマイクロホンをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目16)
前記投影モジュールは、他のオブジェクトがぼやけて現れるように、ディスプレイオブジェクトではない別のオブジェクトと関連付けられた別の投影された光を修正する、項目1に記載のユーザディスプレイデバイス。
(項目17)
前記プロセッサは、少なくとも60フレーム/秒の率で前記ディスプレイオブジェクトのフレームをレンダリングする、項目1に記載のユーザディスプレイデバイス。
(項目18)
前記投影モジュールに通信可能に連結され、触知フィードバックを提供するための触覚インターフェースデバイスをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目19)
前記ディスプレイオブジェクトは、仮想オブジェクト、レンダリングされた物理的オブジェクト、画像、およびビデオのうちの少なくとも1つである、項目1に記載のユーザディスプレイデバイス。
(項目20)
前記ユーザの環境をデジタル的に再構築するための環境感知システムをさらに備える、項目1に記載のユーザディスプレイデバイス。
(項目21)
方法であって、
ユーザの眼の移動を追跡するステップと、
前記追跡された眼移動に基づいて、前記ユーザの眼の焦点深度を推定するステップと、
ディスプレイオブジェクトが焦点に表されるように、前記推定される焦点深度に基づいて、ディスプレイオブジェクトと関連付けられた光ビームを修正するステップと、
前記修正された光ビームを前記ユーザの眼の中に投影するステップと、
を含む、方法。
(項目22)
前記ディスプレイオブジェクトの可視化モードに基づいて、前記ユーザのローカル環境からの光の透過を選択的に可能にするステップをさらに含み、前記可視化モードは、拡張現実モード、仮想現実モード、ならびに拡張および仮想現実モードの組み合わせのうちの1つである、項目21に記載の方法。
(項目23)
前記ユーザの眼のそれぞれの視野画像を捕捉するステップをさらに含む、項目21に記載の方法。
(項目24)
前記ユーザの眼の少なくとも1つの視野画像に基づいて、前記ユーザの頭部姿勢を推定するステップをさらに含む、項目23に記載の方法。
(項目25)
前記捕捉された視野画像内の少なくとも1つの物理的オブジェクトを物理的にレンダリングされた仮想オブジェクトに変換するステップと、
前記物理的にレンダリングされた仮想オブジェクトを前記ユーザに表示するステップと、
をさらに含む、項目23に記載の方法。
(項目26)
前記捕捉された視野画像内の点集合を抽出するステップと、
前記抽出された点集合に基づいて、前記捕捉された視野画像内の少なくとも1つの物理的オブジェクトのための基準を作成するステップと、
をさらに含む、項目23に記載の方法。
(項目27)
前記抽出された点集合および前記作成された基準のうちの少なくとも1つをクラウドコンピュータに伝送するステップと、
前記抽出された点集合および前記作成された基準のうちの少なくとも1つをオブジェクトのタイプにタグ付けするステップと、
をさらに含む、項目26に記載の方法。
(項目28)
前記オブジェクトのタイプと関連付けられたタグ付けされた点集合および前記オブジェクトのタイプと関連付けられたタグ付けされた作成された基準のうちの少なくとも1つに基づいて、異なる物理的オブジェクトが前記オブジェクトのタイプに属すると認識するステップをさらに含む、項目27に記載の方法。
(項目29)
前記投影された光は、直径0.7mm未満を有する光ビームである、項目21に記載の方法。
(項目30)
前記ユーザの移動、前記ユーザの場所、前記ユーザの方向、および前記ユーザの配向のうちの少なくとも1つを感知するステップと、
前記少なくとも1つの感知された移動、感知された場所、感知された方向、および感知された配向に基づいて、前記ユーザの姿勢を計算するステップと、
をさらに含む、項目21に記載の方法。
(項目31)
前記少なくとも1つのセンサは、加速度計、コンパス、およびジャイロスコープのうちの少なくとも1つである、項目30に記載の方法。
(項目32)
コンピュータネットワークへの前記ディスプレイオブジェクトと関連付けられた仮想世界データを処理するステップと、
第2のユーザが、第2の場所におけるディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を体験し得るように、前記ディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を第2の場所に位置する第2のユーザに伝送するステップと、
をさらに含む、項目21に記載の方法。
(項目33)
物理的オブジェクトを感知するステップと、
前記感知された物理的オブジェクトとの所定の関係に基づいて、前記ディスプレイオブジェクトと関連付けられた仮想世界データの少なくとも一部を修正するステップと、
をさらに含む、項目32に記載の方法。
(項目34)
前記修正された仮想世界データを前記第2のユーザに提示するステップをさらに含む、項目33に記載の方法。
(項目35)
他のオブジェクトがぼやけて現れるように、ディスプレイオブジェクトではない別のオブジェクトと関連付けられた別の光を修正するステップをさらに含む、項目21に記載の方法。
(項目36)
ユーザインターフェースを通してユーザ入力を受信するステップと、
前記受信されたユーザ入力に基づいて、前記ディスプレイオブジェクトを修正するステップと、
をさらに含む、項目21に記載の方法。
(項目37)
前記ユーザインターフェースは、触覚インターフェースデバイス、キーボード、マウス、ジョイスティック、モーションキャプチャコントローラ、光学追跡デバイス、およびオーディオ入力デバイスのうちの少なくとも1つである、項目36に記載の方法。
(項目38)
前記ディスプレイオブジェクトは、仮想オブジェクト、レンダリングされた物理的オブジェクト、画像、およびビデオのうちの少なくとも1つである、項目21に記載の方法。
(項目39)
方法であって、
頭部搭載型ユーザディスプレイデバイスを通して仮想世界データを含む仮想世界と相互作用するステップであって、前記頭部搭載型ユーザディスプレイデバイスは、前記ユーザの眼の推定される焦点深度に基づいて、前記仮想世界データの少なくとも一部と関連付けられたディスプレイ画像をユーザにレンダリングする、ステップと、
前記頭部搭載型ユーザデバイスと前記仮想世界の相互作用および前記ユーザの物理的環境との相互作用のうちの少なくとも1つを起源とする付加的仮想世界データを作成するステップと、
前記付加的仮想世界データをコンピュータネットワークに伝送するステップと、
を含む、方法。
(項目40)
第2のユーザが第2の場所からの付加的仮想世界データを体験することができるように、提示のために、前記付加的仮想世界データを第2の場所における第2のユーザに伝送するステップをさらに含む、項目39に記載の方法。
(項目40)
前記付加的仮想世界データは、前記頭部搭載型ユーザディスプレイデバイスを通して捕捉された視野画像と関連付けられる、項目39に記載の方法。
(項目41)
前記付加的仮想世界データは、前記ユーザの感知された移動、前記ユーザの感知された場所、前記ユーザの感知された方向、および前記ユーザの感知された配向のうちの少なくとも1つと関連付けられる、項目39に記載の方法。
(項目42)
前記付加的仮想世界データは、前記頭部搭載型ユーザディスプレイデバイスによって感知された物理的オブジェクトと関連付けられる、項目39に記載の方法。
(項目43)
前記付加的仮想世界データは、前記感知された物理的オブジェクトとの所定の関係を有するディスプレイオブジェクトと関連付けられる、項目42に記載の方法。
(項目44)
ユーザ入力に基づいて、前記ユーザと前記頭部搭載型ユーザディスプレイデバイスとの間の相互作用を可能にするためのインターフェースを選択するステップと、 前記選択されるインターフェースに基づいて、前記仮想世界データの少なくとも一部と関連付けられたディスプレイオブジェクトをレンダリングするステップと、 をさらに含む、項目39に記載の方法。
(項目45)
前記選択されるインターフェースは、仮想現実モード、拡張現実モード、混合現実モード、ならびに前記仮想現実および拡張現実モードの組み合わせのうちの1つである、項目44に記載の方法。
(項目46)
前記仮想世界は、2次元形式で提示される、項目39に記載の方法。
(項目47)
前記仮想世界は、3次元形式で提示される、項目39に記載の方法。
(項目48)
2人またはそれを上回るユーザが、仮想世界データを含む仮想世界と相互作用することを可能にする方法であって、
第1のユーザの第1の可視化モードにおいて、第1のユーザディスプレイデバイスを通して前記仮想世界を表示するステップと、
コンピュータネットワークを通して第2のユーザディスプレイに前記仮想世界データの少なくとも一部を伝送するステップと、
第2のユーザの第2のユーザディスプレイデバイスにおいて、第2の可視化モードにおいて、前記仮想世界データの伝送される部分と関連付けられた仮想世界を表示するステップと、
を含む、方法。
(項目49)
前記第1の可視化モードは、前記第2の可視化モードと異なる、項目48に記載の方法。
(項目50)
前記第1の可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに前記仮想現実および拡張現実モードの組み合わせのうちの少なくとも1つである、項目48に記載の方法。
(項目51)
前記第2の可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに前記仮想現実および拡張現実モードの組み合わせのうちの少なくとも1つである、項目48に記載の方法。
(項目52)
方法であって、
ユーザの選択に基づいて、実際の物理的オブジェクトの画像と関連付けられたレンダリングされた物理的画像データおよび仮想ディスプレイオブジェクトと関連付けられた仮想画像データのうちの少なくとも1つを処理するステップと、
前記ユーザによってリアルタイムで見られるような実際の物理的オブジェクト、前記ユーザによってリアルタイムで見られるような実際の物理的オブジェクトに基づいてレンダリングされる、レンダリングされた物理的仮想オブジェクト、および前記仮想ディスプレイオブジェクトの選択される組み合わせをユーザに選択的に表示するステップと、
を含む、方法。
(項目53)
実際の物理的オブジェクト、前記レンダリングされた物理的仮想オブジェクト、および前記仮想ディスプレイオブジェクトのうちの少なくとも1つは、可視化モードのユーザ入力に基づいて選択的に表示される、項目52に記載の方法。
(項目54)
前記可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに前記仮想および拡張現実モードの組み合わせのうちの少なくとも1つである、項目53に記載の方法。
(項目55)
コンピュータネットワークを通して別のディスプレイオブジェクトと関連付けられた画像データを受信するステップと、
前記ユーザが、前記選択される可視化モードにおいて、他のディスプレイオブジェクトを視認することができるように、前記画像データを前記選択される可視化モードと互換性があるデータ形式に変換するステップと、
をさらに含む、項目53に記載の方法。
(項目56)
前記選択される可視化モードに基づいて、前記ユーザが、前記実際の物理的オブジェクトを視認することができるように、外側環境からの光の透過を選択的に可能にするステップをさらに含む、項目52に記載の方法。
(項目57)
方法であって、
頭部搭載型ユーザディスプレイデバイスのレンズを通して、外側環境からの光の透過を選択的に可能にするステップを含み、前記頭部搭載型ユーザディスプレイデバイスは、全体的仮想オブジェクト、全体的物理的オブジェクト、または仮想オブジェクトおよび物理的オブジェクトの組み合わせのいずれかを表示するために構成される、方法。
(項目58)
前記光の透過の選択的可能化は、所望の可視化モードに基づき、前記所望の可視化モードは、拡張現実モード、仮想現実モード、混合現実モード、ならびに拡張および仮想現実モードの組み合わせのうちの1つである、項目57に記載の方法。
(項目59)
前記ユーザが、前記全体的物理的オブジェクトのみを視認するように、前記頭部搭載型ユーザディスプレイデバイスがオフにされると、前記外側環境からの光の完全透過を可能にするステップをさらに含む、項目57に記載の方法。
(項目60)
特定の形状を有する少なくとも1つのディスプレイオブジェクトと関連付けられた光ビームを前記ユーザの眼の中に投影させるステップと、
前記ユーザが、前記外側環境内の物理的オブジェクトとともに、前記ディスプレイオブジェクトを視認するように、前記少なくとも1つのディスプレイオブジェクトの特定の形状に基づいて、前記外側環境からの光の透過を選択的に可能にするステップと、
をさらに含む、項目57に記載の方法。
(項目61)
前記ユーザが、前記全体的仮想オブジェクトのみを視認するように、前記外側環境からの光の透過を防止するステップをさらに含む、項目57に記載の方法。
(項目62)
2人またはそれを上回るユーザが、仮想世界データを含む仮想世界と相互作用することを可能にする方法であって、
第1のユーザが、第1の場所における第1のユーザデバイスを通して前記仮想世界にアクセスするために、遠隔アバターを作成するステップと、
前記第1のユーザが、前記第1の場所における前記第1のユーザデバイスを通して前記実際の地理的場所を体験することができるように、前記第1のユーザの遠隔アバターを実際の地理的場所に設置するステップと、
前記実際の地理的場所に設置された遠隔アバターを通して、前記実際の地理的場所における第2のユーザデバイスを通して前記仮想世界にアクセスする第2のユーザと相互作用するステップと、
を含む、方法。
(項目63)
前記第1の場所は、前記実際の地理的場所と異なる、項目62に記載の方法。
(項目64)
前記第1の場所は、実質的に、前記実際の地理的場所と同一である、項目62に記載の方法。
(項目65)
前記遠隔アバターは、前記実際の地理的場所における物理的オブジェクトと所定の関係を有する、項目62に記載の方法。
(項目66)
前記遠隔アバターは、前記実際の地理的場所における環境キューに応答する、項目62に記載の方法。
(項目67)
前記遠隔アバターの移動は、前記第1のユーザによって制御される、項目62に記載の方法。
(項目68)
前記遠隔アバターは、前記実際の地理的場所における第2のユーザと相互作用することができる、項目62に記載の方法。
(項目69)
方法であって、
頭部搭載型ユーザディスプレイデバイスを通して、前記ユーザの眼のそれぞれの視野画像を捕捉するステップと、
前記捕捉された視野画像内の点集合を抽出するステップと、
前記抽出された点集合と特定のオブジェクトを関連付けるステップと、
前記特定のオブジェクトの関連付けられた点集合に基づいて、異なるオブジェクトを認識するステップと、
を含む、方法。
(項目70)
2人またはそれを上回るユーザが仮想世界データを含む仮想世界と相互作用することを可能にするためのシステムであって、
1つまたはそれを上回るコンピューティングデバイスを備えるコンピュータネットワークであって、前記1つまたはそれを上回るコンピューティングデバイスは、メモリと、処理回路と、少なくとも部分的に前記メモリに記憶され、前記仮想世界データの少なくとも一部分を処理するように前記処理回路によって実行可能であるソフトウェアとを備える、コンピュータネットワークを備え、
前記仮想世界データの少なくとも第1の部分は、第1のユーザにローカルである第1のユーザ仮想世界が起源であり、前記第1のユーザ仮想世界の側面が前記第2のユーザに効果的に渡されるように、前記第2のユーザが第2のユーザの位置から第1の部分を体験し得るように、前記コンピュータネットワークは、前記第2のユーザに提示するために前記第1の部分をユーザデバイスに伝送するように動作可能である、システム。
(項目71)
前記第1および第2のユーザは、異なる物理的位置にある、項目70に記載のシステム。
(項目72)
前記第1および第2のユーザは、実質的に同一の物理的位置にある、項目70に記載のシステム。
(項目73)
前記仮想世界の少なくとも一部分は、前記仮想世界データの変更に応答して変化する、項目70に記載のシステム。
(項目74)
前記仮想世界の少なくとも一部分は、前記ユーザデバイスによって感知される物理的オブジェクトに応答して変化する、項目70に記載のシステム。
(項目75)
仮想世界データの前記変更は、前記物理的オブジェクトとの所定の関係を有する仮想オブジェクトを表す、項目74に記載のシステム。
(項目76)
仮想世界データの前記変更は、前記所定の関係に従って、前記第2のユーザに提示するために第2のユーザデバイスに提示される、項目75に記載のシステム。
(項目77)
前記仮想世界は、前記コンピュータサーバまたはユーザデバイスのうちの少なくとも1つによってレンダリングされるように動作可能である、項目70に記載のシステム。
(項目78)
前記仮想世界は、2次元形式で提示される、項目70に記載のシステム。
(項目79)
前記仮想世界は、3次元形式で提示される、項目70に記載のシステム。
(項目80)
前記ユーザデバイスは、拡張現実モードでユーザと前記仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能である、項目70に記載のシステム。
(項目81)
前記ユーザデバイスは、仮想現実モードでユーザと前記仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能である、項目70に記載のシステム。
(項目82)
前記ユーザデバイスは、拡張および仮想現実モードの組み合わせでユーザと前記仮想世界との間の相互作用を可能にするためのインターフェースを提供するように動作可能である、項目80に記載のシステム。
(項目83)
前記仮想世界データは、データネットワーク上で伝送される、項目70に記載のシステム。
(項目84)
前記コンピュータネットワークは、ユーザデバイスから前記仮想世界データの少なくとも一部分を受信するように動作可能である、項目70に記載のシステム。
(項目85)
前記ユーザデバイスに伝送される前記仮想世界データの少なくとも一部分は、前記仮想世界の少なくとも一部分を生成するための命令を備える、項目70に記載のシステム。
(項目86)
前記仮想世界データの少なくとも一部分は、処理または配信のうちの少なくとも1つのためにゲートウェイに伝送される、項目70に記載のシステム。
(項目87)
前記1つまたはそれを上回るコンピュータサーバのうちの少なくとも1つは、前記ゲートウェイによって配信される仮想世界データを処理するように動作可能である、項目86に記載のシステム。