(58)【調査した分野】(Int.Cl.,DB名)
ハウジングの慣性センサを有し、前記慣性センサはハウジングの移動および向きデータを提供し、前記移動および向きデータは前記スマートフォンに伝えられる前記ハウジングの慣性センサを更に備えるものであり、
前記スマートフォンは、前記スマートフォンがレンダリングする仮想現実シーンへのビュー方向及び視点に影響を与えるまたはビュー方向及び視点を更新するために、前記ハウジングの前記移動及び向きデータを、前記スマートフォンの慣性センサが生成する移動及び向きとともに使用して、前記ハウジングの移動及び向きを微調整する、請求項1に記載のシステム。
前記ハウジングの前記慣性センサからの少なくともいくつかのデータを、前記スマートフォンの前記慣性センサからのデータと組み合わせて、前記ハウジングのトラッキングを改善することをさらに含むことを特徴とする、請求項3に記載のシステム。
前記ハウジングの1つの面に配置され、少なくとも1つのカメラを使用して前記ハウジングの位置をトラッキングするのに使用される複数の発光ダイオードをさらに備える、請求項1に記載のシステム。
前記ハウジングの1つの面に配置され、前記ハウジングがトラッキングされる空間に位置する少なくとも1つの発光デバイスを使用して前記ハウジングの位置をトラッキングするのに使用される複数の発光ダイオードをさらに備える請求項1に記載のシステム。
前記ハウジングと一体化して、ストリーミングコンテンツまたは対話型ストリーミングコンテンツの一方であるデジタルコンテンツを有するインターネットサイトに接続するネットワークへのアクセスを与えるネットワークインタフェースをさらに備え、前記対話型ストリーミングコンテンツは、前記ハウジングの前記光学素子を介して表示するように、前記スマートフォンによってレンダリングされる、請求項1に記載のシステム。
前記スマートフォンによって与えられ、ストリーミングコンテンツまたは対話型ストリーミングコンテンツの一方であるデジタルコンテンツを有するインターネットサイトに接続するネットワークへのアクセスを与えるネットワークインタフェースをさらに備え、前記対話型ストリーミングコンテンツは、前記ハウジングの前記光学素子を介して表示するように、前記スマートフォンによってレンダリングされる、請求項1に記載のシステム。
前記ハウジングは、前記スマートフォンが生成する前記画像データ内のレンダリングされる対話型コンテンツシーンの少なくとも一部を制御するためのユーザ入力を受信するように構成されるデバイス入力部を含む、請求項1に記載のシステム。
前記左目側または右目側の光学素子を閉止するように動作する前記シャッターは、前記光学素子を透明とは対照的な不透明にするように構成される、請求項14に記載の頭部装着型ディスプレイ(HMD)システム。
前記ハウジングは、前記ハウジングのトラッキングを可能にし、あらかじめ定義された間隔で前記ハウジングの1つの面に配置されるフォトダイオードを含む、請求項14に記載の頭部装着型ディスプレイ(HMD)システム。
前記ハウジングと一体化して、ストリーミングコンテンツまたは対話型ストリーミングコンテンツの一方であるデジタルコンテンツを有するインターネットサイトに接続するネットワークへのアクセスを与えるネットワークインタフェースをさらに備え、
前記対話型ストリーミングコンテンツは、前記ハウジングの前記光学素子を介して表示するように、前記スマートデバイスによってレンダリングされる、請求項14に記載の頭部装着型ディスプレイ(HMD)システム。
前記スマートデバイスによって与えられ、ストリーミングコンテンツまたは対話型ストリーミングコンテンツの一方であるデジタルコンテンツを有するインターネットサイトに接続するネットワークへのアクセスを与えるネットワークインタフェースをさらに備え、
前記対話型ストリーミングコンテンツは、前記ハウジングの前記光学素子を介して表示するように、前記スマートデバイスによってレンダリングされる、請求項14に記載の頭部装着型ディスプレイ(HMD)システム。
【発明を実施するための形態】
【0024】
ディスプレイ画面へのコンテンツのレンダリングを可能にするシステム、方法及び装置に関する実施形態を説明する。レンダリング対象のコンテンツは、リッチな3次元コンテンツを含んでもよく、リッチな3次元コンテンツを、没入型仮想現実コンテンツという文脈でレンダリングしてよい。コンテンツは、ゲーム関連、エンターテインメント関連、通信関連、ソーシャルコミュニケーション若しくは共有関連、またはこれらの組み合わせ、ならびに他のタイプのメディア及び情報であってよい。
図1A〜
図7を参照して説明するいくつかの実施例では、第2のコンピューティングデバイスと通信するように構成してもよいヘッドセットデバイスを示す。1つの実施例では、第2のコンピューティングデバイスは、スマートフォン、タブレット、コンピュータ、または画像コンテンツを入手するために通信を行い、そのような画像コンテンツのレンダリングが可能にする何らかのデバイスでありうる。
【0025】
1つの実施態様において、頭部装着型デバイスを提供するが、頭部装着型デバイスは、スマートフォンを受け入れるスロットまたはホルダを含み、スマートフォンの画面が頭部装着型デバイスのディスプレイになるようにする。したがって、この実施例では、頭部装着型デバイスはディスプレイ画面を含まないが、代わりに、スマートフォンが頭部装着型デバイスのホルダに挿入または配置されると、スマートフォンのディスプレイ画面を使用することになる。スマートフォンを、有線または無線接続によって頭部装着型デバイスに接続してもよい。そのような実施態様において、スマートフォンはインターネットと通信をして、ストリーミングコンテンツまたはダウンロードコンテンツなどのコンテンツにアクセスして、スマートフォンが頭部装着型デバイスに挿入または連結されると、スマートフォン上でそのコンテンツをレンダリングすることができる。基本形態で、頭部装着型デバイスは、有線無線に関わらず、スマートフォンと通信をするための電子素子を含むことになる。頭部装着型デバイスは、ディスプレイ上でレンダリングされたコンテンツを見ることを可能にする光学素子を含んでいてもよい。
【0026】
1つの実施態様において、スマートフォンのディスプレイ上でレンダリングしたコンテンツを歪ませて、3次元画像を生成し、頭部装着型ディスプレイの光学素子が、スマートフォンが表示するコンテンツを、頭部装着型デバイスの光学素子を介して見るとき、リッチな3次元画像/ビデオ/対話型データに見えるように、画像の歪みを解消することができる。別の実施形態において、スマートフォンのディスプレイ上でレンダリングしたコンテンツを、スマートフォンを頭部装着型デバイスに挿入するとき、頭部装着型デバイスが処理できる画像をレンダリングして、3次元画像に見えるようにする。1つの実施形態において、頭部装着型デバイスは、頭部装着型デバイスの右目用及び左目用の光学素子を制御することができるシャッター制御ロジックを含むことになるので、画像データに対してシャッターが即座に下ろされて、左、右、左、右、左、右...の画像を示し、これによって実質的に頭部装着型ディスプレイがレンダリングした画像データを、3次元、リッチ、かつ没入型にすることができる。
【0027】
図1Aは、頭部装着型デバイスを装着するユーザの一実施例を示し、頭部装着型デバイスに保持され、挿入され、クリップされ、滑り込む、関連する、または対をなすスマートフォン60を含んでもよい。1つの実施形態において、メガネ50は、スマートフォン60がHMDに挿入される場合のHMDを定義してもよい。頭部装着型デバイスは、定位置にスマートフォン60を保持し、スマートフォン60の画面まで見るための光学素子を与える単純なシェル型デバイスでありうる。別の実施形態において、頭部装着型デバイスはよりインテリジェントになり得、スマートフォン60が頭部装着型デバイスに接続される、近接する、または関連する場合にスマートフォン60と通信をする電子素子を含むことができる。この図では、メガネ50として、メガネに接続またはクリップされたスマートフォンを有する頭部装着型デバイスが示されている。
【0028】
スマートフォンは、インターネットなどのネットワーク110と通信するために、固有の無線通信回路を使用することができる。スマートフォン60は、クラウドゲームコンテンツ、クラウドエンターテインメントコンテンツ、ソーシャルメディアコンテンツ、またはインターネットやプライベートネットワークを通してアクセス可能な他の任意のタイプのコンテンツを含む様々なコンテンツサイトと通信をすることができる。1つの実施形態において、スマートフォン60がアクセスしたコンテンツは、そのコンテンツがいったん受信されると、スマートフォンがダウンロードして実行することができる。別の実施形態において、コンテンツをインターネットソースからストリーム配信し、必要に応じて、スマートフォン60に配信することができる。1つの実施形態において、コンテンツが、スマートフォンを頭部装着型デバイスまたはメガネ50とともに用いるときに、スマートフォンが消費するためのゲーム、コンテンツ、エンターテインメントコンテンツ、または他のマルチメディアを提供するサービスプロバイダからストリーム配信される。
【0029】
図1Bは、スマートフォン60がメガネ50に挿入または保持されるとき、スマートフォン60とインタフェースで接続される電子素子を含む1対のメガネ50の側面図を示す。この実施例において、スマートフォン60は、メガネ50のスロットまたはホルダ内に鉛直に設置され、スマートフォン60のカメラが正面を向いて、メガネ50をユーザがかけるとき、環境の透視またはパススルービューが得られるようにする。メガネ50の本体がハウジング70を定義する。ハウジング70は、電子素子90を保持することができ、ホルダ91を含むことができる。本明細書に記載のホルダは、スマートフォンを保持する、クリップする、クランプする、固定する、装着する、または別の方法でスマートフォンを定位置に保持する任意の構造を含むものとする。1つの実施形態において、透視モード(すなわち、透明または半透明モード)を有効にするのは、ユーザがメガネ50を通してスマートフォン60が表示する仮想シーンと対話して、ユーザが別の人と対話するためにその仮想シーンから離れたいと考え、電話をかけ、ゲームを休止し、セッションを休止するか、対話型セッションまたは通信を休止する場合である。透視モードは、信号を受信するとき、または安全警報若しくは通知が必要な場合など、自動的にトリガすることもできる。
【0030】
図1Cは、メガネの一実施例を示し、メガネは、メガネ50とスマートフォン60が互いに接続される場合のメガネ50とスマートフォン60のプラグ、Bluetooth、Wi−Fi及び他の無線プロトコル、または有線接続、プラグ、コネクタと通信するための電子素子90を含む。この実施例では、スマートフォンの画面60a側は、ユーザの目の位置、またはメガネをかけるか、ユーザの顔の上で挿入する場合のほぼ目に向かって対向するものになる。スマートフォンの裏側は、前向きのスマートフォンカメラを含む。1つの実施形態において、メガネ50は、スマートフォンの裏側のカメラがメガネ50のケーシングから透視できるように、スロットまたは穴70aを含むことができる。別の実施形態において、メガネ50のケーシングは、透かしまたは透明のパネルを含み、スマートフォン60のカメラがパネルを透視可能にすることができる。
図1Dは、スマートフォン60の1つの実施例を示し、スマートフォン60は、裏側及び正面側にも位置するカメラを含むことができる。スマートフォンの画面側60aは、メガネ50に挿入時、ユーザの目の側に正面を向いている。下記で述べるように、1つの実施形態において、メガネ50は、ユーザの目とスマートフォン60の画面60aとの間に存在する光学素子80を含んでいてよい。光学素子80は、スマートフォンの画面60aが与えるコンテンツを見るようにさせ、レンダリング、サイジング、リサイジング、鮮明さ、指示、及び他の歪みまたは歪みなしの調整を最適化するように適応させることができる。
【0031】
図2は、スマートフォン60を受け入れた、または受け入れようとしている頭部装着型デバイス(メガネ)50を装着するユーザの1実施例を示す。1つの実施形態では、スマートフォン60を、光学素子80がスマートフォン60のロジック、ソフトウエア、ファームウエアと同期でき、光学素子80を通してスマートフォンの画面60aの画像をユーザに対してレンダリングできるように、頭部装着型デバイス50の電子素子90に接続する。1つの実施形態において、スマートフォン60がレンダリングするコンテンツは、仮想現実の3次元コンテンツとなり、ダウンロードするアプリケーション形式、またはウェブサイト、サービス、サービスプロバイダ、コンテンツプロバイダ、エンターテインメントプロバイダなどからストリーミング形式でスマートフォン60に配信される。1つの実施形態において、スマートフォン60上でレンダリングするコンテンツは、VR空間として定義される一例としての画面に示される仮想現実レンダリングコンテンツである。
【0032】
スマートフォン60の前向きのカメラは、メガネ50の正面のビューを監視して、ユーザ12が、手14をシーン16内に置いて、VR空間内でコンテンツと対話することができるようにするなど、ユーザがシーンと対話する支援をするようにしてもよい。したがって、現実世界空間にいるユーザが、自分の手を前向きのカメラのビュー空間に置き、スマートフォン上で動作するソフトウエアがこれを検出して、ユーザの手14をVR空間内に融合することができるようになる。ユーザの手を、ユーザの現実の手として、または拡張現実として、若しくは拡張と現実世界の画像の融合として、VR空間内にレンダリングすることができる。
【0033】
図3Aは、メガネ50の1つの実施例を示し、メガネ50は、スマートフォン60を受け入れるクリップまたは棚71を含むハウジングとして示されている。ハウジングの形状及びエルゴノミクスを、特定の実施態様に応じて変更可能であることを理解されたい。したがって、本明細書で提示する例示的な実施態様は、一例にすぎず、様々な実施形態に従って機能し、デバイス間の対話性をもたらす限りは変更してもよい。
【0034】
この特定の実施例では、ハウジングは、前向きのカメラが、ユーザの現実世界での正面空間または領域を自由に見ることができるようにするクリップ71(またはホルダ)を含む。上述のとおり、1つの実施形態において、仮想現実空間の外側を見るためにコンテンツを透明モードから切り替え、現実世界の空間に戻ってもよい。したがって、前向きのカメラ20は、ユーザが現実世界を見ることと、VR空間から出ることを望むとき、現実世界のビューを与える。別の実施形態において、前向きのカメラ20は、ユーザがVR空間内で対話中に、ユーザに対して安全通知を与えることができる。例えば、ユーザが特定の空間を歩き回り、階段、壁、または何か別の対象に近づいて危険な場合、頭部装着型ディスプレイ内で、メッセージ、通知、アラーム、音声、触覚フィードバックなどとしてユーザに通知を与えることができる。
【0035】
したがって、カメラ20は、ユーザが仮想現実空間に没入しているときに、現実世界空間についての安全通知を与えるのに役立つ。ユーザは、部分的に透明なビュー、完全に透明なビュー、完全と部分的な透明のビューの融合、または、スマートフォン60が有効にする頭部装着型デバイスを装着中に、ユーザが興味を持つ現実の特徴を示すか、危険かもしれない部分的なビューで仮想現実空間から現実世界空間に遷移することも可能になる。
【0036】
図3Bは、頭部装着型デバイスの1実施例を示し、頭部装着型デバイスはヘッドバンド及びハウジング70を含む。ハウジング70は、電子素子90及び光学素子80を含んで示され、これらの素子は、スマートフォン60がスロット、ホルダ、クリップまたは接続部71内に設置されるとき、ユーザの目が存在する場所と、スマートフォン60の画面の正面との間に配置される。電子素子90に電力を供給するためにバッテリもハウジングとともに設けてもよい。
【0037】
別の実施形態において、コネクタプラグまたはワイヤ30を、ハウジング70内に配置されるバッテリ32を介して電力を供給するのに使用することができる。別の実施形態において、スマートフォン60のバッテリは、頭部装着型デバイス50の電子素子90を作動させることができる。上述のとおり、スマートフォン60は、タブレット、コンピュータユニット、部分的コンピュータユニット、またはディスプレイ画面を備えたハイブリッドデバイスになることも可能である。この例では、スマートフォン60は、USBリンクコネクタ36を介してレシーバユニットに接続される。したがって、スマートフォン60を、レシーバユニットの電子素子90に接続して、画像データを光学素子80の動作と同期化するなど、スマートフォン60から受信する情報を処理する。
【0038】
図4Aは、電子ユニット90の1つの実施例を示し、電子ユニット90は、頭部装着型デバイス50で使用してよい。1つの実施例では、電子ユニット90は、スマートフォン60に接続するためのデバイスインタフェース98を含むことができる。デバイスインタフェース98を、マイクロプロセッサ94及びメモリ96と通信させることができる。マイクロプロセッサ94を、電子ユニット90またはレシーバユニットの一部をなす慣性センサ91に結合することができる。慣性センサ91は、加速度計、ジャイロスコープ、磁力計、及びこれらの1つ以上の組み合わせ、またはそれらのデバイスの組み合わせを含んでもよい。一般的に、慣性センサ91は、ユーザが装着時に、ハウジング70の移動及び位置からのデータを与える。
【0039】
これらの動き及び移動を、レンダリングするまたは適合する仮想現実コンテンツに関して、トラッキングで使用でき、スマートフォン60が提供する画像(すなわち画像コンテンツ)を示す、または変更するのに使用することができる位置に関する情報に変換することができる。例えば、ユーザ12が頭部をあちこち移動させるにつれ、異なる画像及びシーンを、ユーザが見ている方向の場所または見ていない場所に関連するコンテンツに基づいて、スマートフォン60のディスプレイ60aが提供することができる。また、マイクロプロセッサ94を、ディスプレイシャッターロジック92と通信させることもできる。ディスプレイシャッターロジック92を、光学素子コントローラロジック93に連結させて、その後レシーバユニット(すなわちハウジング)の光学素子80と連結することができる。1つの実施形態において、コンテンツを、フォーマット化した3次元形式または通常のフォーマット化されていない形式でリモートサーバからスマートフォン60に提供することができる。例えば、各フレームは、左右の目の画像を含むことができるが、これは左右の両方の目に与えられ、歪んだ形式で与えられる実質的に同一な画像である。1つの実施形態において、このフレームのストリームを、光学素子80を介してレシーバユニットで表示するように、サービスからスマートフォンにストリーミング形式でダウンロードすることができる。
【0040】
ディスプレイシャッターロジック92は、受信したフレームについて画像をそれぞれの目に左、右、左、右、左、右などと連続して示すようにシステムを構成することができる。このように、左目は、受信したフレームについてフレームの左側からコンテンツを見て、その後、右目が次に受信したフレームについてフレームの右側からコンテンツを見て、次に、左目が受信したフレームの左側を見て、その後、右側が次のフレームについてフレームの右側からコンテンツを見るなどとなる。これは、
図4Cを参照するとより詳細に示されている。
【0041】
図4Bは、スマートフォン60が挿入された状態の頭部装着型デバイスを装着するユーザ12の1つの実施例を示す。この実施例では、スマートフォンの処理により、3次元ゲームを携帯デバイスに配信してもよいクラウド処理システムからフレームのストリームを受信する。この図において、スマートフォンに配信されている各フレームは、それぞれ左右の目の画像コンテンツを含む。スマートフォン60、頭部装着型デバイス-の電子素子90、または頭部装着型デバイスの電子素子90とスマートフォン60の両方で実行されるソフトウエアモジュールが、フレーム(すなわち、クラウド処理システムからのフレームのストリーム)の受信を実行することになる。フレームのストリームを、たとえば毎秒30フレームレートで配信することができる。実施態様に応じて、他のフレームレートも可能である。
【0042】
図示のように、受信した画像フレームモジュールは、画像を受信し、アップレンダリング(拡大)モジュールは、1つの画像フレームの選択した左または右部分を拡大することになる。(選択した左または右の画像フレームが拡大され、スマートフォンデバイスにより小さな没入型形式で左右両方の目を示させるのではなく、スマートフォン60の画面全体で表示するように、スマートフォン60のディスプレイに与えられることになる。さらに、ソフトウエアは、頭部装着型デバイスが左目または右目を連続してシャッターで閉じるように選択できるようなロジックを含むことができるので、左目または右目で連続してスマートフォンがレンダリングした画面全体を見ることになる。一例では、フレーム0、1、2、3、4、5が示される。これらのフレームがクラウドシステムからストリーミングされ、各フレームが左右の目の画像コンテンツを含むことになる。1つの実施形態に従い、フレーム0について、ソフトウエアは、フレームから左目画像コンテンツを選択し、携帯デバイスで表示するためにその左目のコンテンツを拡大してレンダリングすることになる。
【0043】
同時に、ソフトウエアは、拡大した画像がスマートフォンのディスプレイ画面全体に与えられるときに、ユーザが左目について画面全体を見るように左目に対するシャッターを開くようにメガネのシャッターシステムに命令を与える。同様の処理がフレーム1についても発生するが、ただし右目のコンテンツは拡大され、ディスプレイ画面に示され、シャッターがユーザの右目にコンテンツを示すという点が異なる。スマートフォンが表示するコンテンツに3次元効果を与えるように、この処理を連続的に続ける。1つの実施形態において、スマートフォンのソフトウエアは、1つのフレームについて、選択、アップレンダリング、及びシャッター選択の指令をメガネに実質的に与えている。
【0044】
1つの代替実施形態において、ソースから受信する画像データはフル画像を与えるので、アップレンダリングする必要がなくなる。この場合、シャッターロジックは、単に左右の目にコンテンツを示し、連続して左右を入れ替え、3次元効果を与える。そのため、3D効果を、配信または光学素子80を介してスマートフォン60が表示する画像コンテンツを予めフォーマット化して、あるいはフォーマット化せずに処理することができる。したがって、この実施形態において、シャッターロジックは、単にスマートフォンの画面がレンダリングした画像のフレームレートと同期し、左右のシャッターによって、必要な3次元効果が与えられる。いくつかの実施形態において、画像データ(例えば対話型ビデオ)を、シャッターシステムで使用するために送るものがある一方で、画像データを単に送信して、ハウジング70の電子素子90がシャッターを掛けるという実施形態もある。
【0045】
図4Cは、ストリーミングサービスから毎秒30フレームで到着するストリームの1つの実施例を示す。この実施例では、メガネのシャッターシステムを用いて、それぞれの目で毎秒15フレームを見る。時間0で、スマートフォンは、拡大した左目用画像コンテンツを表示し、そのコンテンツを見るために左目のシャッターを開く。時間1で、ソフトウエアは、拡大したフレームから右目用コンテンツを選択し、スマートフォンのディスプレイの画面全体を見られるように右目のシャッターを開くことになる。この処理は、時間2、時間3などについて継続されることになる。別の実施形態において、帯域幅に応じて、スマートフォン60に入る画像のストリームについて、フレームレートを上げることができる。1つの実施形態において、ストリームフレームのフレームレートが毎秒60フレームの場合、それぞれの目で毎秒30フレームを見る。要するに、フレームの1つの画像の部分を選択してから拡大版をディスプレイ画面に表示するシャッターシステムを使用するだけで、コンテンツをリッチな3次元コンテンツにすることができる。上述のとおり、拡大は任意選択であり、システムは、受信した画像フレームのそのままの倍率で作動し、シャッターをかけ、光学素子80を介して表示することができる。いくつかの実施形態において、フレームレートを、帯域幅及び処理力に応じて、毎秒120、240またはそれ以上にすることもできる。
【0046】
さらに別の実施例では、
図4B及び
図4Cを参照して、3次元ビデオストリームを頭部装着型ディスプレイ(すなわち、スマートフォン60の外面60a)に送信する。3次元ビデオストリームの各フレームには、左目用画像及び右目用画像の両方が含まれる。所与のフレームを処理して、左目用画像か右目用画像の両方ではなくどちらか一方を抽出する。所与のフレームについて、抽出画像(左目または右目用)をアップレンダリングして、頭部装着型ディスプレイのディスプレイサイズに合わせ、頭部装着型ディスプレイのシャッターを設定して、現在抽出されて、アップレンダリングされている(左目か右目のどちらか用の)所与のフレームの部分の表示ができるようにする。その後、所与のフレームが抽出され、アップレンダリングされた部分が表示される。
【0047】
連続するフレームについて、抽出、アップレンダリング、シャッター設定、及び表示操作が、左目用画像と右目用画像で交互に行われるので、所与のフレームについて、左目用画像または右目用画像部分の一方のみが処理され、次のフレームについては、左目用画像または右目用画像の他方が処理され、これが続く。通常のフレームレートでは、所与のフレームの左目用画像部分または右目用画像部分のみを交互に処理しても、人間の光学系では識別できないので、3次元ビデオストリームを処理する際の効率を向上する。重ねて言えば、ビデオストリームは、非3D画像データを与えることもでき、シャッター処理による所与の3D効果である。また、いくつかの実施形態において、画像データをアップレンダリングする必要はなく、フルサイズ画像にシャッター処理をすることができる。
【0048】
図5は、電子ユニット90の1つの実施例を示し、電子ユニット90は、別の機能、回路、ファームウエア、ロジック、プロセッサ、メモリなどを含んでもよい。これらの特徴は一例にすぎず、いくつかのシステムは、実施態様に応じて、より多くのデバイスを含むもの、またはより少ないデバイスを含むものがあってよい。
図5で与える1つの実施例では、電子ユニット90は、メガネ50の一部であってよい。電子ユニット90は、グラフィックスプロセッサ、すなわちGPU、または一般的なプロセッサを含むことができるプロセッサ94を含むことになる。いくつかの実施形態において、複数のプロセッサ、またはマルチコアプロセッサを設けてもよい。プロセッサ94は、メガネまたは頭部装着型デバイスの一部であってよい慣性センサ91と通信することができる。慣性センサ91は、動き、移動、推測及びトラッキングについて情報を収集することができる。この情報を、プロセッサ94と共有することができる。
【0049】
別の実施形態において、複数のフォトダイオードを、ハウジングの表面に配置する。フォトダイオードは、ハウジングがトラッキングされる空間/部屋内に位置する少なくとも1つの発光素子を使用して、ハウジング位置をトラッキングするのに使用される。例えば、フォトダイオードを、ハウジングの表面に、例えば、公知な方法で互いに物理的に分離させて配置することができる。例えば、発光体は、様々な方向に光を放出して、光のいくつかがフォトダイオードと接触/フォトダイオードに到達するようにする。タイミングプロファイルを算出または校正するので、タイミングは既知であるか、検出及び発光と同期する。このように、フォトダイオードのいくつかが光を検出すると、発光体(例えば、部屋にある1つまたは2つの回転発光体)の場所及びタイミングが既知であるので、フォトダイオードを有するハウジングの位置を識別することができる。HMDシステムを使用中、発光及び検出が続くので、HMD/ハウジングのトラッキングが容易になる。
【0050】
プロセッサは、シャッター制御ロジック92を制御することもでき、シャッター制御ロジック92は、制御可能な光学素子93とインタフェースで接続することができ、光学素子93は、メガネの左右の目の光学素子80を制御することができる。1つの実施形態において、プロセッサはまた、フレームバッファ95及びメモリ96、またはメモリ96だけに連結することができる。フレームバッファ95はまた、画像データを光学素子80の左右の目に画像データも与える画像レンダリングロジック97と通信可能である。例えば、頭部装着型デバイス(メガネ)50は、スマートフォン60が受信して、スマートフォンの画面60aが表示するコンテンツと融合可能な、インターネットからのコンテンツまたはデータの別のフィードを受信することもできる。1つの実施形態において、スマートフォン60が表示するコンテンツを、頭部装着型ディスプレイ50が与える追加コンテンツで拡張することもできる。1つの実施形態において、頭部装着型デバイス(メガネ)50が入手するコンテンツを、スマートフォンが受信して表示するコンテンツと融合、多重化、または適合させることができる。例えば、コンテンツを、頭部装着型デバイスが受信したコンテンツとスマートフォン60が受信したコンテンツの間で切り替えることができる。
【0051】
別の実施形態において、表示されるコンテンツに応じて、通信情報、第2チャネルチャットフィード、ソーシャルネットワークデータ、写真表示データ内の写真、または他のコンテンツを、メガネの光学素子を通して左目または右目または両目に与えて、スマートフォンデバイス60が与えるデータと融合、取り替え、またはインタレースすることができる。1つの実施形態において、スマートフォンデバイス60及び電子ユニット90は、ネットワークインタフェース99及びデバイスインタフェース98を含むことができ、インターネットとの通信及び様々なコンテンツサイトへのアクセスが可能となっている。コンテンツサイトは、VRレンダリング、画像制作、通信、ソーシャルネットワーク共有、仮想現実ツアー、デスティネーションツーリングコンテンツ(destination
touring content)、クラウドゲームコンテンツ、クラウドエンターテインメントコンテンツ、ソーシャルメディアコンテンツ、ストリーミングサーバ、近くの頭部装着型ディスプレイプレイヤー、及び他の情報について、デバイスにコンテンツを提供することができる。
【0052】
1つの実施形態において、アクティブシャッター3Dシステム(例えば、交互フレーム順序、交互画像、AI、交互フィールド、フィールドシーケンシャルまたはエクリプス法)を使用して、立体的な3D画像を表示するようにしてもよい。1つの構成において、システムは、右目の視野をブロックしながら左目用の画像を提示し、次に、左目をブロックしながら右目用画像を処理し、これを割り込みが2つの画像の1つの3D画像への認知融合を妨害しないほどの速さで繰り返すことだけで、機能する。
【0053】
いくつかのアクティブシャッター3Dシステムは、液晶シャッターメガネ(いわゆる「LCシャッターメガネ」または「アクティブシャッターメガネ」)を使用する。OLEDスクリーンも使用可能である。それぞれの目のメガネは、電圧が印加されると半透明になり、それ以外は透明な特性を持つ液晶層を含む。メガネは、タイミング信号で制御され、メガネは、画面のリフレッシュレートに同期して、交互に一方の目、次に他方の目をブロックすることができる。ビデオ機器とのタイミング同期は、有線信号を介して、または赤外線あるいは無線周波数(例えば、Bluetooth、DLPリンク)送信機によって無線で達成してもよい。アクティブシャッター3Dシステムを、いくつかの劇場で3D映画を上映するために実装することもでき、また、CRT、プラズマ、LCDでの3D画像の提示、HMDシステム、VRディスプレイシステム、スマートフォン、ゲームコンソール、画面、ディスプレイ、及びこれらの組み合わせで3D画像を提示することができる。
【0054】
図6は、マルチプレイヤーまたはマルチユーザ環境の1つの例を示し、ここでは複数のユーザがスマートフォン60を備えた頭部装着型デバイス50を使用している。1つの実施形態において、スマートフォン60はクラウドシステムと通信可能で、クラウドシステムはストリーミングVRコンテンツを提供することができる。1つの実施形態において、ユーザは互いに非常に近接してもよく、これによって、スマートフォンとVRコンテンツミキシングに関連するシステム及びソフトウエアが、通信モードを切り替えることが可能となる。例えば、ユーザのペアが仮想現実サイト若しくは場所、あるいは対話ゾーンを共有している場合、コンテンツのいくつかまたはすべてを、ピアツークラウドネットワークから変化したモードであるピアツーピアネットワークを介して(すなわちペアモードで)ユーザ間で通信することができる。
【0055】
切り替えは、ユーザが近接していることが検出されるとき、またはユーザの設定若しくは要求があるごとに、時間とともに動的に発生する。局所ピアツーピア通信を有効にすることにより、待ち時間を削減することもできる。ピアツーピアへの切り替えは、対話型ビデオをユーザ両者にストリーミングしながら、データ、例えばデータチャネルなどを選択する場合に可能である。例えば、メッセージ、チャット、音声チャネル、及び通知などの局所通信を、対話型データをサーバから各ユーザにストリーミングしながら、ピアツーピアを介して伝達することができる。いくつかの場合では、例えば一方のユーザが他方のユーザより高い帯域幅で接続している場合、いくつかのストリーミングデータを一方のユーザに送ることができ、このデータを他方のユーザと共有する。したがって、これらの実施形態によって、ユーザはVR空間を共有して、混合モード方法で互いにデータを共有することができ、混合モード方法では、クラウドシステムへの通信とピアツーピア通信の両方、近距離通信、Wi−Fi通信、Bluetooth通信、または他の有線若しくは無線リンク接続の組み合わせが可能となる。
【0056】
図7は、スマートフォン60を受け入れるスロット71を含むことができる頭部装着型デバイス50の別の実施例を示す。上述のとおり、スマートフォン60を、コネクタ40を介して頭部装着型デバイスまたはハウジング70に接続することができる。コネクタ40は、有線接続または無線接続でありうる。一旦スマートフォン60がハウジングのホルダ71に挿入されると、スマートフォン60は、その前向きのカメラに前方を向かせる。1つの実施形態において、ハウジングは、スマートフォンのカメラがブロックされることなく前方を見ることができるように設計される。頭部装着型デバイス50は、さらに、上述のとおり、電子素子90及び光学素子80を含む。この実施形態において、頭部装着型デバイスは、さらに、HMD50のハウジングの左カメラと右カメラなどの2つの追加のカメラを含むことができる。これらの追加のカメラによって、ユーザが、例えばパススルーモード(またはトランスポートかセミトランスポートモード)で、現実生活の仮想現実シーンとユーザの目の前の現実世界のシーンとを次々と切り替えることを決めた場合、ユーザ目の前で、3次元でコンテンツを見せることができる。
【0057】
この実施例では、頭部装着型デバイス50の電子素子90は、インターネットと通信可能な無線ネットワークインタフェース99または有線インタフェースを含むことができる。ハウジングのホルダ71に挿入されるように示されるスマートフォン60は、固有のインターネット接続を含むこともできる。スマートフォンのカメラは前向きのカメラであるが、他のカメラも含むことができる。言うまでもなく、スマートフォン60は、(図示しない)固有の慣性センサを含むことができる。さらに、頭部装着型デバイス50は、頭部装着型デバイス50のプロセッサ94と通信も行う慣性センサ91を含むことができる。頭部装着型デバイス50の慣性センサ91は、スマートフォンの慣性センサと通信可能である。
【0058】
1つの実施形態において、融合、ミキシング、またはデッドレコニング(又は自律航法)は、頭部装着型デバイス50の慣性センサ91から収集したデータとスマートフォン60の間で行われ、VRシーンでコンテンツを見る場合に不自然になりかねないポジティブの間違い、ぎくしゃくした移動、予期しない動き、またはトリガを回避する。この実施例では、プロセッサ94がシャット制御92、及び左右の目についての光学素子制御93と通信する左右カメラ選択部と通信する。メモリ及び/またはフレームバッファ95は、さらに、プロセッサ94が、スマートフォンのディスプレイ画面が与えるものとは異なるデータをディスプレイ画面に与えることができるように設けられるか、あるいは、融合した、重合した、オーバレイ、メッセージオーバレイ、ソーシャル接続オーバレイなどを、スマートフォンが与えるコンテンツだけでなく、頭部装着型デバイスが与えることができる。1つの実施形態において、プロセッサは、左右カメラ選択部を選択するよう機能することができるので、頭部装着型デバイスの前向きの左右のカメラを、ユーザがデバイスを通して見ること、現実世界で見ることを望む場合に有効にすることができる。
【0059】
2つのカメラを通して現実世界を見ることは、継続して、連続的に左右の目を次々と切り替えるシャッター制御92によって行うことができる。この機能により、現実世界に関連する画像をよりリアルにして、単一の前向きのカメラシステムでは与えられない3次元深度の透視図を含む画像が提供されることになる。さらに別の実施形態において、頭部装着型デバイス50の前向きのカメラは、ユーザが壁、物体、階段または危険なゾーンに接近しているときにユーザにアドバイスするような安全特徴について支援することができる。
【0060】
さらに別の実施例では、
図4Bと4Cを参照して、3次元ビデオストリームを、頭部装着型ディスプレイに送信する。3次元ビデオストリームの各フレームには、左目用画像及び右目用画像の両方が含まれる。所与のフレームを処理して、左目用画像か右目用画像の両方ではなくどちらか一方を抽出する。所与のフレームについて、抽出画像(左目または右目用)をアップレンダリングして、頭部装着型ディスプレイのディスプレイサイズに合わせ、頭部装着型ディスプレイのシャッターを設定して、現在抽出されて、アップレンダリングされている(左目か右目のどちらか用の)所与のフレームの部分の表示ができるようにする。その後、所与のフレームの、抽出され、アップレンダリングされた部分が表示される。
【0061】
連続するフレームについて、抽出、アップレンダリング、シャッター設定、及び表示操作が、左目用画像と右目用画像で交互に行われるので、所与のフレームについて、左目用画像または右目用画像部分の一方のみが処理され、次のフレームについては、左目用画像または右目用画像の他方が処理され、これが続く。通常のフレームレートでは、所与のフレームの左目用画像部分または右目用画像部分のみを交互に処理しても、人間の光学系では識別できないので、3次元ビデオストリームを処理する際の効率を向上する。
【0062】
別の実施形態において、HMDまたはスマートフォンとは別個にカメラを設けてもよい。カメラを、HMDをトラッキングするためにHMDに向けることができる。いくつかの実施形態において、HMDのカメラを含んでよいカメラ、スマートフォンのカメラ、及び(例えば、コンピュータに接続された)HMDを見るカメラを組み合わせて用いてもよい。そのため、
図1A〜
図7を参照して説明した実施形態またはその実施形態の一部を、
図8〜
図12を参照して説明した部分、構成要素、特徴または実施形態と組み合わせて、様々な複合実施形態を定義してもよいことを理解されたい。
【0063】
上記を念頭において、
図8〜
図12を参照して、追加の実施形態を説明する。
【0064】
1つの実施例では、ユーザが装着するHMDは、ユーザにリッチなマルチメディアコンテンツを見るようにさせるものであり、リッチなマルチメディアコンテンツは、ビデオゲーム、映画、インターネットコンテンツ、及びほかのタイプの対話型、非対話型コンテンツを含むことができる。HMDのトラッキングは、システムを組み合わせて使用して実行する。システムは、HMD内の慣性センサ、及び1つ以上のカメラを使用した光学トラッキングを含むが、これに限定されるものではない。光学トラッキングで使用するカメラは、HMDを装着するユーザのビデオを取り込むことができるので、ユーザがHMDとともに動き回ると、ビデオフレームを解析して、HMDの位置、オリエンテーション(向きあるいは方向)及び移動を判定することができる。大まかに言えば、HMDが提示するいくつかのコンテンツはHMDの移動に動的に依存する。
【0065】
例えば、HMDによって1つのビューをシーン内に与えると、ユーザはそのシーンを見ようと自然に頭を動かすことができる。ビデオゲームの例では、HMDを装着するユーザは、仮想シーン内及び回りで移動するために頭を任意の方向に動かすことができる。1つの実施形態において、仮想シーンは、リッチな3次元(3D)形式でレンダリングされる。その結果、HMDでスムーズにコンテンツをレンダリングするために、HMDの移動を高忠実度でトラッキングすることになる。
【0066】
HMDの1つの構成では、
図8A及び8Bに示すように、クライアントシステム106と通信するように構成され、クライアントシステム106がHMDに提示されるコンテンツをレンダリングする。コンテンツ(例えば、ゲーム、映画、ビデオ、音声、画像、マルチメディアなど)を、いくつかの実施形態において、クラウドゲームインフラを使用して1つまたは複数のリモートサーバからストリーミングしてよい。いくつかの実施例では、コンテンツはクライアントシステム106にダウンロードされ、クライアントシステム106が、コンテンツをレンダリングしてからHMDに転送する。
【0067】
上述のとおり、トラッキングには、HMD内に配置される慣性センサを使用することが含まれていてよい。慣性センサの例としては、1つ以上の加速度計及び1つ以上のジャイロスコープが挙げられる。いくつかの実施態様は、数の差こそあれ慣性センサを含んでいるものであってよい。慣性センサに加えて、カメラを使用してHMDをトラッキングすることができる。1つの実施形態において、HMDは、マーカとして機能するいくつかのライト(例えば発光ダイオード(LED))を備えて構成される。マーカは、クライアントシステムで、カメラが取り込んだ1つ以上のビデオフレームを解析することによって容易に識別可能である。1つの構成では、HMDは、前方ユニット(例えば、光学素子ブロックとも称される)の四隅の4つのLED、及び後部の2つのLEDを含む。
【0068】
1つの実施例では、前方ユニット102aは、前面及び各側部に側面を含み、前面及び側面が実質的に連続面を定義する。本明細書で提示する様々な実施例では、前方のLEDは、前方ユニット102aのハウジング内で定義され、LEDをオンにすると、照らされる透明のプラスチックとともに配置される。さらに、いくつかの実施形態において、前方のLEDは、前面に部分的に配置され、側面に部分的に配置されて、部分的なL形、湾曲したL形、ブーメラン形、湾曲した矩形、曲線、スポット、円、パターンまたはこれらの組み合わせを定義する。
【0069】
この形状によって、ユーザがカメラ108を直視しているとき、かつユーザがカメラ108に直視の状態から背を向け始めるとき、前方ユニット102aをトラッキングすることができる。ユーザが側方を向き、カメラに直視の状態からさらに背けるにつれ、前方の1つの側部のLEDだけ、および後ろ側のLEDの1つが目に見えるまで、前方のLEDが目に見えている。これは、前方のLEDから前方と後方のLEDへの遷移である。この遷移により、上述のとおり、前方と後方のLEDの間に分離距離が必要になるので、正確なトラッキングを行うことが可能となる。
【0070】
さらには、HMDを装着するユーザがカメラと対向すると、カメラは4つのLEDすべてを見ることができなくてはいけない。4つの前方のLEDの分離は、クライアントシステム106には知られている。例えば、HMDの幾何学モデルを、クライアントシステム106上で実行するプログラムによって推定して、ユーザがHMDを装着する時の(カメラに対する)深度及び向き(あるいは方向)を判定することができる。例えば、1つの実施形態において、4つのLEDは(例えば、矩形の輪郭となる)隅に配置されるので、取り込んだビデオフレームから、ユーザが下向きか、上向きか、横向きかを判定することができる。
【0071】
しかしながら、HMDでレンダリング可能な対話型コンテンツは、仮想上は無限であるので、ユーザはほぼすべての次元で仮想シーンを見てかつ対話することができる。したがって、HMDを装着するユーザは、任意の方向に頭を向けることを決めてもよく、この方向は、必ずしもカメラに対して前方を向く方向である必要はない。実際、レンダリングするコンテンツ(例えば、没入型対話型ビデオゲーム、映画、バーチャルツアー、クリップ、音声及びそれらの組み合わせ)に応じて、ユーザは、何度もカメラの側部に向く、及びカメラから背くことになる。
【0072】
そのような対話型セッション中、HMDをトラッキングするカメラは、前方の4つのLEDを見ることから、しばしば、4つのLEDのうち2つの側部及び後方のLEDの1つを見ることまで行うことになる。前方の4つのLEDは、相対的向きが固定されたままであるが、後方のLEDの位置は、HMDの幾何学モデルに基づき、HMDのヘッドバンドの設定調整に応じて変化させてもよい。例えば、頭のサイズの小さなユーザがヘッドバンドを頭に合わせて調整する場合、前方のLEDと後方のLED間の(例えば側方から見た時の)距離は、別のユーザの先のユーザよりサイズが大きな頭について設定を調整する場合と比較して、狭くなる。
【0073】
ヘッドバンド調整での変化を把握するために、処理をHMDの幾何学モデルを校正するように構成するので、前方のLEDと後方のLED間の(例えば、ユーザが法線からカメラに頭を向ける場合に側方から見たときの)間隔を利用して、HMDへのシーンコンテンツを正確にレンダリングして、所望の視点、角度及び/または向きからのシーンを与えることが可能となる。1つの実施態様において、幾何学モデルはコンピュータモデルであり、コンピュータ支援設計(CAD)描画が示すのと同様に、HMD102の次元及び/または3次元輪郭を記憶し/含む。しかしながら、幾何学モデルは描画として表示されず、その代わりにデータセットとして記憶され、ゲーム、映画、ソフトウエア、ファームウエア、ハードウエアまたはこれらの組み合わせによってアクセス可能となるので、正確なトラッキングを実行することができる。
【0074】
さらに一例として、HMD102の3次元輪郭は、1つの実施形態において、HMDの各形状とLED領域の形状の輪郭、輪郭内での形状に対するLEDの場所、HMDの物理構造の角度と輪郭線、ならびにHMDの特徴及び構造の測定値を定義するデータセットを含むことができる。特に、幾何学モデルは、前方ユニット102aでのLEDの正確な相対配置を定義する次元データを含んでいてもよい。しかしながら、後方のLEDは調整可能なヘッドバンドに連結するので、校正中に分離距離を更新しなくてはならず、そのため、幾何学モデルを、前方と後方のLED間のより正確な距離で更新することが可能となる。
【0075】
1つの実施形態において、校正処理は、(例えば、前方のLEDのみが見えているときから開始するなど)、ビデオフレームの解析によって、後方のLEDの1つが見えていると判定された後に開始するよう構成される。例えば、セッション(例えばゲームプレイまたは対話型セッション)の開始時、通常ユーザはHMDをカメラに向ける。ある時点で、ユーザはカメラから頭を背けるので、後方のLEDの少なくとも1つを露出させることになる。この時点で、継続中のビデオフレーム解析によって、後方のLEDの登場を検出することになる。
【0076】
1つの実施形態において、ユーザが、見えている後方のLED及び見えている前方のLEDを慣性データと関連付けるように動き続けるにつれ、処理はいくつかのフレームを解析することになる。各フレームについて存在する慣性データは、例えば、見えている後方のLEDと見えている前方のLED間の推定分離距離に関連するように使用される。1つの実施例では、HMDからのジャイロスコープデータを使用して、HMDが移動するにつれユーザの頭部の回転運動を判定する。さらに、一例として、HMDからの加速度計データを使用して、位置(例えば傾き/ピッチ)及び回転などの移動を判定する。
【0077】
したがって、HMDの取り込んだビデオフレームからの画像データを使用して(すなわち、後方と前方のLEDが見えているとき)、画像データと組み合わせた慣性データが、HMDのヘッドバンドの現在のサイズ設定について、前方のLEDと後方のLED間の推定分離距離をレンダリングすることになる。次にこのデータを使用して、HMDの幾何学モデルを校正するが、幾何学モデルは推定分離距離を含む。1つの実施形態において、校正は時々刻々と更新することができ、さらにHMDの各側部とは無関係に校正することもできる。
【0078】
一旦HMDの幾何学モデルの校正が終了すると、ユーザはセッション中の対話に進んでよい。しかしながら、一旦セッションが終了すると、別のユーザがHMDへのアクセスを希望することも可能である。そのような時、新しいユーザがHMDのヘッドバンドを別のサイズに調整して、前方のLEDと後方のLED間の実際の分離距離が変化することになる。1つの実施形態において、前回更新した校正、または元の幾何学モデルからの寸法のいずれかを使用して、新しいセッションが始まる。
【0079】
開始時に、ゲームプレイまたは対話型セッションが円滑に進行して、HMDに提示されるシーンは、ユーザの頭部の動きに基づきレンダリングされている。これは、HMDを装着するユーザがカメラに向かって前方を向いて、HMDの前方の4つのLEDの間の固定の分離距離は既知である間続く。しかしながら、一旦ユーザがカメラから背を向けて、後方のLEDが見えると、自動校正しなければ、システムでは、HMD内でレンダリングしたコンテンツでジャンプまたはポップが行われる。これは、位置を識別するためにLEDのマーカトラッキングを利用するHMDのトラッキングは、HMDの真の位置と同期しないためである。
【0080】
1つの実施形態において、再校正が必要かどうかの判定は、ユーザがHMDを側部に向けるたびに(すなわち、前方のLEDのみ、または後方のLEDのみが見えている場合になると)実行され、前方と後方のLEDが可視化される。1つの実施例では、現在のセッションについて校正が発生すると、現在の校正とともにセッションが継続され、システムはバックグラウンドで校正を実行して、現在の校正は予め定義した許容差内にあるかどうかを判定する。例えば、同じユーザがゲームプレイ中にヘッドバンドを調整する、またはわずかなサイズ調整のためにHMDを取り外す、若しくは他の人がHMDを一時的に試そうとする場合、前方と後方の現実の間隔は、初期の校正中に間隔を推定するのに使用した場合とは異なるであろう。
【0081】
新たなバックグラウンド校正によって、(例えば、HMDでレンダリングしたビデオコンテンツにおいて)レンダリング異常、スキップまたはポップが発生する可能性があることが示されると、新たな校正が現在の校正になるように、許容差が構成されるか選択される。
【0082】
さらに別の実施形態において、HMDは、フラグを設定するヘッドバンド調整検出器を含むことになる。フラグを、システム及び/または実行中のゲームが読み出すことができ、このフラグを使用して、幾何学モデルの再校正を要求することができる。例えば、ユーザがHMDの使用中にヘッドバンドを調整すると、システムは、校正を再度実行すべきであるという警告を、フラグを介して受ける。たとえ同じセッションが進行中であっても、別のユーザがHMDを試そうとしたために調整が発生するような場合も同様であろう。さらに別の実施形態において、新しいセッションの開始時に、またはHMDがしばらく静止すなわち動きがないことをシステムが検出するとき、フラグを生成することができる。このようなインジケータを、新しいセッションが発生する前、またはセッション中であっても、ヘッドバンドが調整されていた可能性としてみなすことができる。
【0083】
図8Aは、本発明の1つの実施形態に係る、ビデオゲームの対話的ゲームプレイのためのシステムを示す。頭部装着型ディスプレイ(HMD)102を装着しているユーザ100が示される。HMD102は、メガネ、ゴーグルまたはヘルメットと同様な方法で装着され、ユーザ100にビデオゲームまたは他のコンテンツを表示するように構成される。HMD102は、ディスプレイ機構(例えば、光学素子及びディスプレイ画面)をユーザの目の間近に設け、HMDに配信するコンテンツの形式によって、ユーザに没入型経験を与えるように構成される。1つの実施例では、HMD102は、ユーザの視野の大部分または全体をも占めるユーザの目のそれぞれにディスプレイ領域を与えることができる。
【0084】
1つの実施形態において、HMD102をコンピュータ106に接続することができる。コンピュータ106への接続は有線か無線によって可能となる。コンピュータ106は、ゲームコンソール、パーソナルコンピュータ、ラップトップ、タブレットコンピュータ、モバイルデバイス、携帯電話、タブレット、シン・クライアント、セットトップボックス、メディアストリーミングデバイスなどを含む、ただしこれらに限定されることはない、任意の汎用または特殊用途のコンピュータであってよい。いくつかの実施形態において、HMD102は、インターネットに直接接続することができ、これによって、別個のローカルコンピュータを必要とすることなくクラウドゲームが可能となる。1つの実施形態において、コンピュータ106は、ビデオゲーム(及び他のデジタルコンテンツ)を実行し、HMD102でレンダリングするためにビデオゲームからビデオ及び音声を出力するように構成することができる。コンピュータ106は、本明細書においてはクライアントシステム106aとも称し、これは1つの実施例ではビデオゲームコンソールである。
【0085】
いくつかの実施形態において、コンピュータはローカルまたはリモートコンピュータであってよく、コンピュータはエミュレーションソフトウエアを実行してもよい。クラウドゲームの実施形態において、コンピュータはリモートであり、データセンタで仮想化されるような複数のコンピューティングサービスによって代表されるものであってよく、データセンタではゲームシステム/ロジックを仮想化して、ネットワークによってユーザに分配することができる。
【0086】
ユーザ100は、ビデオゲームのための入力をするために、コントローラ104を操作してもよい。1つの実施例では、カメラ108は、ユーザ100が位置する対話型環境の画像を取り込むように構成することができる。これらの取り込んだ画像を解析して、ユーザ100、HMD102及びコントローラ104の場所及び移動を判定することができる。1つの実施形態において、コントローラ104は、コントローラの場所及び向きを判定するためにトラッキングすることができる1つの光(または複数の光)を含む。また、以下でさらに詳細に説明するように、HMD102は、ゲームプレイ中に実質的にリアルタイムでHMD102の場所及び向きを判定するために、マーカとしてトラッキングできる1つ以上の光を含む。
【0087】
カメラ108は、対話型環境から音声を取り込むために1つ以上のマイクロホンを含むことができる。マイクロホン配列が取り込んだ音声を処理して、音声源の場所を識別するように処理してもよい。識別した場所からの音声を、選択的に利用または処理して識別した場所からではない他の音声を排除することができる。さらに、カメラ108を、複数の画像取り込みデバイス(例えば、カメラの立体対)、IRカメラ、深度カメラ、及びそれらの組み合わせを含むように定義することができる。
【0088】
いくつかの実施形態において、コンピュータ106は、コンピュータ106の処理用ハードウエア上で局地的にゲームを実行することができる。ゲームまたはコンテンツを、物理メディア形態(例えば、デジタルディスク、テープ、カード、サムドライブ、固体チップまたはカード他)などの任意の形態で、またはネットワーク110を介してインターネットからダウンロードすることによって入手することができる。別の実施形態において、コンピュータ106は、クラウドゲームプロバイダ112とネットワーク上で通信するクライアントとして機能する。クラウドゲームプロバイダ112は、ユーザ100がプレイしているビデオゲームを維持及び実行してもよい。コンピュータ106は、HMD102、コントローラ104及びカメラ108からの入力を、クラウドゲームプロバイダに送信し、クラウドゲームプロバイダが入力を処理して、実行中のビデオゲームのゲーム状態に影響を与える。ビデオデータ、音声データ、及び触覚フィードバックデータなどの実行中のビデオゲームからの出力を、コンピュータ106に送信する。コンピュータ106は、送信前にデータを処理してもよいし、あるいは、データを関連デバイスに直接送信してもよい。例えば、ビデオ及び音声ストリームをHMD102に与え、一方、振動フィードバック命令をコントローラ104に与える。
【0089】
1つの実施形態において、HMD102、コントローラ104及びカメラ108は、それ自体がネットワーク110に接続して、クラウドゲームプロバイダ112と通信するネットワークデバイスであってよい。例えば、コンピュータ106は、ルータなどのローカルネットワークデバイスであってよく、そうでない場合はビデオゲーム処理を実行しないが、通過ネットワークトラフィックを円滑にする。HMD102、コントローラ104、及びカメラ108によるネットワークへの接続は、有線でも無線でもよい。いくつかの実施形態において、HMD102上で実行される、またはディスプレイ107上で表示されるコンテンツを、任意のコンテンツ源120から入手することができる。コンテンツ源の例としては、例えば、ダウンロード可能なコンテンツ及び/またはストリーミングコンテンツを提供するインターネットウェブサイトを含めることができる。いくつかの実施例では、コンテンツは、映画、ゲーム、静的/動的コンテンツ、写真、ソーシャルメディアコンテンツ、ソーシャルメディアウェブサイトなどの任意のタイプのマルチメディアコンテンツを含むことができる。
【0090】
以下でより詳細に説明するように、プレイヤー100は、HMD102上でゲームプレイをしてもよく、HMD102では、このようなコンテンツは没入型3D対話型コンテンツである。HMD102上のコンテンツは、プレイヤーがプレイ中、ディスプレイ107に共有することができる。1つの実施形態において、ディスプレイ107に共有されるコンテンツによって、プレイヤー100に近接する他のユーザまたは遠隔のユーザがユーザのプレイとともに見ることができる。さらに別の実施形態において、プレイヤー100のゲームプレイをディスプレイ107で見る別のプレイヤーは、プレイヤー100と対話形式で参加してもよい。例えば、ディスプレイ107でゲームプレイを見るユーザは、ゲームシーンのキャラクタを制御する、フィードバックをする、ソーシャル対話をする、及び/または、HMD102を装着していないユーザがプレイヤー100、ゲームプレイ、またはHMD内でレンダリングされているコンテンツとソーシャル対話できるようなコメントを(テキストを介して、音声を介して、動きを介して、ジェスチャを介してなどで)与えるようにしてもよい。
【0091】
図8Bは、本発明の1つの実施形態に係る頭部装着型ディスプレイ(HMD)を示す。図示のように、HMD102は、複数のライト200A〜200H、200J及び200K(例えば、200K及び200JはHMDヘッドバンドの後方または裏面に面して位置する)。これらのライトを、それぞれ特定の形状及び/または位置を持つように構成してもよく、また同一または異なる色を持つように構成することができる。ライト200A、200B、200C及び200Dは、HMD102の前面に配置される。ライト200E及び200Fは、HMD102の側面に配置される。さらに、ライト200G及び200Hは、HMD102の隅に配置されて、HMD102の前面及び側面に跨るようにする。ライトは、ユーザがHMD102を使用する対話型環境の取り込んだ画像内で識別可能であることが理解されよう。
【0092】
ライトの識別及びトラッキングに基づき、対話型環境でのHMD102の場所及び向きを判定することができる。さらに、ライトのいくつかは、画像取り込みデバイスに対するHMD102の向きに応じて、見える場合と見えない場合があってよいことが理解されよう。また、異なる部分のライト(例えばライト200G及び200H)を、画像取り込みデバイスに対するHMD102の特定の向きに応じて、画像取り込みのために露出してもよい。いくつかの実施形態において、慣性センサがHMD102内に配置され、ライトを必要とすることなく位置決めに関するフィードバックを行う。いくつかの実施形態において、ライト及び慣性センサは協働して、位置/動きデータのミキシング及び選択を可能にする。
【0093】
1つの実施形態において、ライトを、HMDの現在の状態を近くにいるほかの人に示すように構成することができる。例えば、ライトのいくつかまたはすべてを、特定のカラー配列、強度配列を持つように構成して、点滅するように構成して、特定のオン/オフ構成、またはHMD102の現在の状態を示す他の配列を持つように構成してもよい。一例として、ライトを、メニューインタフェースをナビゲートするまたはゲーム設定を構成するなど(ゲームのタイムラインまたはシーンが動いていないまたは休止している)のビデオゲームの他の非アクティブなゲームプレイ側面に対して、ビデオゲームのアクティブなゲームプレイ(通常は、アクティブなタイムライン中またはゲームのシーン内で発生するゲームプレイ)中に異なる構成を表示するように構成することができる。また、ライトを、ゲームプレイの相対的な強度レベルを示すように構成してもよい。例えば、ゲームプレイの強度が上がると、ライトの強度または点滅速度が上がるようにしてもよい。
【0094】
HMD102は、さらに1つ以上のマイクロホンを含んでいてもよい。図示の実施形態において、HMD102は、HMD102の前面で画定されるマイクロホン204A及び204B、ならびにHMD102の側面で画定されるマイクロホン204Cを含む。マイクロホンの配列を利用することにより、各マイクロホンからの音を処理して、音源の場所を判定することができる。この情報を、不要な音源を排除すること、ある音源を視覚識別に関連付けることなどを含む様々な方法で利用することができる。
【0095】
HMD102は、さらに1つ以上の画像取り込みデバイスを含んでいてもよい。図示の実施形態において、HMD102は、画像取り込みデバイス202A及び202Bを含んでいるものとして示されている。画像取り込みデバイスの立体対を利用することによって、環境の3次元(3D)画像及びビデオをHMD102の視野から取り込むことができる。そのようなビデオをユーザに提示して、ユーザに、HMD102を装着しながら「ビデオ透視」能力を与えることができる。つまり、ユーザは厳密にはHMD102を透視することができないが、そうであっても、画像取り込みデバイス202A及び202Bが取り込む画像によって、あたかもHMD102を通して見てかのいるように、HMD102の外部の環境を見ることができることと等価な機能を与えることができる。
【0096】
そのようなビデオを仮想要素で拡張して、拡張現実経験を与えることができる、あるいは、他のやり方で仮想要素と組み合わせるか融合させてもよい。図示の実施形態において、2つのカメラがHMD102の前面に示されているが、任意の数の外向きのカメラまたは1つのカメラをHMD102に設置することができ、任意の方向に向けることができることは理解されよう。例えば、別の実施形態において、環境のパノラマ画像を追加で与えるためにHMD102の側部に取り付けられたカメラがあってもよい。
【0097】
図9は、ビデオゲームコンテンツをユーザ100のHMD102にレンダリングすることができるクライアントシステム106を使用するゲームプレイの1つの実施例を示す。この図では、HMDに与えられるゲームコンテンツは、リッチな対話型3D空間内にある。上述のとおり、ゲームコンテンツは、クライアントシステム106にダウンロードできるか、1つの実施形態ではクラウド処理システムによって実行することができる。クラウドゲームサービス112は、ユーザ140のデータベースを含むことができ、データベースによって、特定のゲームにアクセスする、他の友人と経験を共有する、コメントを書き込む、及びアカウント情報を管理することができる。
【0098】
クラウドゲームサービスは、特定のユーザ用のゲームデータ150も記憶することができ、ゲームデータ150を、ゲームプレイ中、今後のゲームプレイ、ソーシャルメディアネットワークに共有、またはトロフィー、表彰、ステータス、ランキングなどを格納するために利用可能となる。ソーシャルデータ160もまた、クラウドゲームサービス112が管理することができる。ソーシャルデータを、別のソーシャルメディアネットワークが管理することができ、別のソーシャルメディアネットワークは、インターネット110上でクラウドゲームサービス112とインタフェースで接続することができる。インターネット110上で、任意の数のクライアントシステム106を、コンテンツへのアクセス及び他のユーザとの対話のために接続することができる。
【0099】
図9の実施例を続けて参照すると、HMDで見る3次元対話型シーンは、3Dビューで描かれるキャラクタなどのゲームプレイを含むことができる。1つのキャラクタ、例えばP1を、HMD102を装着しているユーザ100が制御することができる。この実施例は、二人のプレイヤーの間のバスケットボールのシーンを示しており、HMDユーザ100が、3Dビューで別のキャラクタにボールをダンクしている。他方のキャラクタは、ゲームのAI(人工知能)キャラクタでよく、または、別の一人のプレイヤー若しくは複数のプレイヤーによって制御可能である。ユーザ100は、HMD102を装着して、利用空間を動き回っているように示されているが、HMDは、ユーザの頭部の移動及び体の位置に基づき動き回ってよい。カメラ108は、部屋の中でディスプレイ画面の上に配置されているように示されているが、HMDを使用する場合、カメラ108は、HMD102の画像を取り込むことができる任意の場所に配置することができる。そのため、HMD102でレンダリングするコンテンツが、カメラ108の視野から、HMD102が配置される方向に依存するので、ユーザは、カメラ108及びディスプレイ107から約90度回転しているように示される。言うまでもなく、HMDがレンダリングする動的仮想シーンを利用するのに必要なので、HMDを使用中、ユーザ100は動き回り、頭を回転させ、様々な方向を見ることになる。
【0100】
図10は、1つの実施形態に係る、HMD102を装着し、使用中のユーザを示す。この実施例では、カメラ108が取り込んだビデオフレームから入手した画像データを使用して、HMDがトラッキングされる802ことが示されている。さらに、カメラ108が取り込んだビデオフレームから入手した画像を使用して、コントローラもトラッキングされる804ことが示されている。さらに、HMDがケーブル806を介してコンピューティングシステム106に接続される構成も示される。1つの実施形態において、HMDは、そのケーブルから電力を得る、または別のケーブルに接続することができる。さらに別の実施形態において、HMDは、追加の電源コードを回避するために、再充電可能なバッテリを有することができる。
【0101】
図11を参照すると、本発明の1つの実施形態に係る、頭部装着型ディスプレイ102の構成要素例を示した図が示されている。構成及び有効にする機能に応じて、ある程度の構成要素を、HMD102に含めるまたはHMD102から取り除くことができる。頭部装着型ディスプレイ102は、プログラム指令を実行するプロセッサ900を含んでいてもよい。メモリ902をストレージ用に設け、揮発性及び不揮発性メモリを含んでいてもよい。ユーザが見る仮想インタフェースを与えるディスプレイ904が含まれる。
【0102】
ディスプレイ904は、単一のディスプレイによって、または片目毎に別のディスプレイ画面の形態で定義することができる。2つのディスプレイ画面が設けられると、左右の目用のビデオコンテンツを別々に与えることができる。例えば、片目ごとにビデオコンテンツを別々に提示することで、3次元(3D)コンテンツをより没入型制御することができる。上述のとおり、1つの実施態様において、第2の画面107には、一方の目用の出力を使用して、次に2D形式の表示用のコンテンツをフォーマット化することにより、HMD102の第2の画面コンテンツが与えられる。1つの実施形態において、一方の目が左目用ビデオフィードでありうるが、別の実施形態においては、右目用のビデオフィードの場合もある。
【0103】
バッテリ906を、頭部装着型ディスプレイ102の電源として設けてもよい。他の実施形態において、電源は、電力へのコンセント接続部を含むことができる。他の実施形態においては、電力へのコンセント接続部及びバッテリ906を設けてもよい。動き検出モジュール908は、磁力計910、加速度計912及びジャイロスコープ914など、様々な種類のうちの任意の種類の動き感知ハードウエアを含んでいてよい。
【0104】
加速度計は、加速度及び重力誘発性反力を測定するデバイスである。単一及び複数の軸(例えば6軸)モデルは、異なる方向で加速度の大きさ及び方向を検出することができる。加速度計は、傾斜、振動及び衝撃を感知するために使用される。1つの実施形態において、3つの加速度計912が、重力方向を求めるために使用して、重力方向が、2つの角度(ワールドスペースにおけるピッチ及びワールドスペースにおけるロール)のための絶対基準となる。
【0105】
磁力計は、頭部装着型ディスプレイの近くにある磁界の強度及び方向を計測する。1つの実施形態において、3つの磁力計910が頭部装着型ディスプレイ内で使用され、ワールドスペースにおけるヨー角度についての絶対基準を確保する。1つの実施形態において、磁力計は、地球の磁界、±80マイクロテスラを測定するよう設計される。磁力計は金属に影響を受け、実際のヨーに単調なヨー測定を行う。磁界は、環境内の金属によってゆがむ場合があり、ヨー測定のゆがみの原因となる。必要であれば、ジャイロスコープやカメラなどの他のセンサからの情報を使用してゆがみを校正することができる。1つの実施形態において、加速度計912を磁力計910とともに使用して、頭部装着型ディスプレイ102の傾斜及び方位角を入手する。
【0106】
ジャイロスコープは、角運動量の原理に基づいて、向きを測定または維持するデバイスである。1つの実施形態において、3つのジャイロスコープ914は、管制感知に基づくそれぞれの軸(x、y、z)を交差した移動についての情報を提供する。ジャイロスコープは、高速回転の検出を支援する。しかしながら、ジャイロスコープは、絶対基準の存在がない場合、時間の経過とともにドリフトする可能性がある。このため、ジャイロスコープを定期的に再設定する必要があり、再設定は、オブジェクト、加速度計、磁力計などの視覚トラッキングに基づく位置/向きの判定などの他の利用可能な情報を使用して行うことができる。
【0107】
カメラ916は、現実の環境の画像及び画像ストリームを取り込むために設けられる。2つ以上のカメラを(任意選択で)、頭部装着型ディスプレイ102に含むようにしてもよく、カメラは、(ユーザが頭部装着型ディスプレイ102のディスプレイを見ているときにユーザから離れるような方向になる)後ろ向きのカメラ、及び(ユーザが頭部装着型ディスプレイ102のディスプレイを見ているときにユーザ側の方向になる)前向きのカメラを含む。さらに、現実の環境におけるオブジェクトの深度情報を感知するために、深度カメラ918を頭部装着型ディスプレイ102に含めてもよい。
【0108】
頭部装着型ディスプレイ102は、音声出力を行うためのスピーカ920を含む。さらに、周囲環境、ユーザによる会話などの音を含めた、現実の環境からの音声を取り込むためにマイクロホン922を含んでいてもよい。頭部装着型ディスプレイ102は、触覚フィードバックをユーザに行うための触覚フィードバックモジュール924を含む。1つの実施形態において、触覚フィードバックモジュール924は、触覚フィードバックをユーザに行うために、頭部装着型ディスプレイ102の移動及び/または振動を引き起こすことができる。
【0109】
LED926は、頭部装着型ディスプレイ102の状態を視覚インジケータとして設けられる。例えば、1つのLEDがバッテリレベル、パワーオンなどを示すものであってよい。カードリーダ928は、頭部装着型ディスプレイ102を有効にして、メモリカードに対する情報の読み出し及び書き込みを行うために設けられる。USBインタフェース930は、周辺デバイスの接続、または他の携帯デバイス、コンピュータ等など他のデバイスへの接続を有効にするインタフェースの一例として含まれる。頭部装着型ディスプレイ102の様々な実施形態において、頭部装着型ディスプレイ102の接続能力をより高めることができるように、様々な種類のうちの任意の種類のインタフェースを含めるようにしてもよい。
【0110】
WiFiモジュール932を、無線ネットワーキング技術を介してインターネットへの接続を可能にするために含めるようにしてもよい。さらに、頭部装着型ディスプレイ102は、他のデバイスへの無線接続を可能にするためにBluetooth934を含んでいてもよい。他のデバイスへの接続のために、通信リンク936を含んでいてもよい。1つの実施形態において、通信リンク936は、無線通信用の赤外線伝送を利用する。他の実施形態において、通信リンク936は、他のデバイスとの通信用に様々な無線または有線伝送プロトコルの任意のプロトコルを利用する場合もある。
【0111】
ユーザ用の入力インタフェースを与えるために、入力ボタン/センサ938が含まれる。ボタン、ジェスチャ、タッチパッド、ジョイスティック、トラックボール他など様々な種類の入力インタフェースの任意の入力インタフェースを含んでいてもよい。超音波技術によって他のデバイスとの通信を促進するために、頭部装着型ディスプレイ102は、超音波通信モジュール940を含んでいてもよい。
【0112】
ユーザからの生理的データの検出を可能にするために、バイオセンサ942が含まれる。1つの実施形態において、バイオセンサ942は、ユーザ/プロファイルなどの識別のためにユーザの皮膚を通したユーザの生体電気信号検出、音声検出、目の網膜検出用の1つ以上のドライ電極を含む。
【0113】
頭部装着型ディスプレイ102の上記の構成要素は、頭部装着型ディスプレイ102に含まれる可能性のある構成要素の単なる一例として説明してきた。本発明の様々な実施形態において、頭部装着型ディスプレイ102は、様々な前述の構成要素のいくつかを含んでも含まなくてもよい。頭部装着型ディスプレイ102の実施形態は、本明細書に記載のように本発明の態様を簡単にするために、ここでは説明していないが、当該技術では公知の他の構成要素をさらに含んでいてもよい。
【0114】
本発明の様々な実施形態において、様々な対話型機能を与えるために、前述の携帯デバイスを、ディスプレイに表示される対話型アプリケーションとともに利用してもよいことは、当業者であれば理解するであろう。本明細書に記載の一例としての実施形態は、例示目的にすぎず、限定する目的ではない。
【0115】
1つの実施形態において、本明細書で参照するように、クライアント及び/またはクライアントデバイスが、頭部装着型ディスプレイ(HMD)、端末、パーソナルコンピュータ、ゲームコンソール、タブレットコンピュータ、電話、セットトップボックス、キオスク、ワイヤレスデバイス、デジタルパッド、スタンドアロンデバイス、携帯ゲームプレイデバイス及び/または他を含んでいてもよい。通常、クライアントは、符号化ビデオストリームを受信し、ビデオストリームを復号し、その結果得られるビデオをユーザ、例えばゲームのプレイヤーに提示するように構成される。通常、符号化ビデオストリームの受信及び/またはビデオストリームの復号の処理は、クライアントの受信バッファに個々のビデオフレームを保存することを含む。ビデオストリームを、クライアントと一体化したディスプレイ、またはモニタ若しくはテレビなど別個のデバイス上でユーザに提示してもよい。
【0116】
クライアントは、任意選択で、2人以上のゲームプレイヤーをサポートするように構成される。例えば、ゲームコンソールを、2人、3人、4人、またはそれ以上の同時にプレイするプレイヤー(例えばP1、P2...Pn)をサポートするように構成してもよい。これらのプレイヤーは各々、ビデオストリームを受信するか共有する、または、単一のビデオストリームが、各プレイヤー専用に生成される、例えば、プレイヤーの視点に基づいて生成されるフレームの領域を含んでいてもよい。任意の数のクライアントは、ローカル(例えば共同場所にある)、または地理的に分散していることもありうる。ゲームシステムに含まれるクライアントの数は、1か2から数千、数万またはそれ以上と大きく変動してもよい。本明細書で使用するように、「ゲームプレイヤー」という用語は、ゲームをプレイする人を指すために使用し、「ゲームプレイデバイス」という用語はゲームをプレイするのに使用されるデバイスを指すために使用する。いくつかの実施形態において、ゲームプレイデバイスは、協働してゲーム経験をユーザに配信する複数のコンピューティングデバイスを指すことがある。
【0117】
例えば、ゲームコンソール及びHMDがビデオサーバシステムと協働して、HMDを通して見るゲームを配信する。いくつかの実施形態において、ゲームコンソールは、ビデオサーバシステムからビデオストリームを受信し、ゲームコンソールは、ビデオストリームをレンダリングのためにHMD及び/またはテレビに転送する、またはビデオストリームを更新する。
【0118】
さらに、HMDを使用して、ビデオゲームコンテンツ、映画コンテンツ、ビデオクリップコンテンツ、ウェブコンテンツ、広告コンテンツ、コンテストコンテンツ、ギャンブルゲームコンテンツ、電話会議/ミーティングコンテンツ、ソーシャルメディアコンテンツ(例えば、投稿、メッセージ、メディアストリーム、友達のイベント及び/またはゲームプレイ)、ビデオの一部分及び/または音声コンテンツ、ならびに、ブラウザ及びアプリケーションを介したインターネット上のソースから消費用に作られたコンテンツ、及び任意のタイプのストリーミングコンテンツなど、制作または使用される任意のタイプのコンテンツを見る及び/またはコンテンツと対話することができる。もちろん、HMDで見ることができる、またはHMDの1つまたは複数の画面にレンダリングできるものであれば、任意のタイプのコンテンツをレンダリングすることができるように、上述のコンテンツのリストは限定するものではない。
【0119】
クライアントは、受信したビデオを修正するために構成されるシステムをさらに含んでいてもよいが、そのシステムは必須ではない。たとえば、クライアントを、さらにレンダリングを実行する、1つのビデオ画像を別のビデオ画像にオーバレイする、ビデオ画像をトリミングする及び/またはその他をするように構成してもよい。例えば、クライアントを、Iフレーム、Pフレーム及びBフレームなどの様々なタイプのビデオフレームを受信し、これらのフレームを処理してユーザに表示する画像にするよう構成してもよい。いくつかの実施形態において、クライアントのメンバーを、さらなるレンダリング、シェーディング、3D変換、2D変換、歪み除去、サイジングなどの操作をビデオストリームに実行するように構成する。クライアントのメンバーを、任意選択で、2枚以上の音声またはビデオストリームを受信するように構成する。
【0120】
クライアントの入力デバイスは、例えば、片手ゲームコントローラ、両手ゲームコントローラ、ジェスチャ認識システム、注視認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、力フィードバックデバイス、動き及び/または場所感知デバイス、マウス、タッチスクリーン、ニューラルインタフェース、カメラ、今後開発予定の入力デバイス及び/またはその他を含んでよい。
【0121】
ビデオソースは、レンダリングロジック、例えば、ストレージなどコンピュータ可読媒体に記憶したハードウエア、ファームウエア及び/またはソフトウエアを含んでいてよい。このレンダリングロジックは、ゲーム状態に基づいてビデオストリームのビデオフレームを作成するよう構成される。レンダリングロジックのすべてまたは一部を、任意選択で、1つ以上のグラフィックス処理ユニット(GPU)内に配置する。通常、レンダリングロジックは、オブジェクト間の3次元空間関係を判定する、及び/または適切なテクスチャなどをゲーム状態及び視点に基づき適用するように構成される。レンダリングロジックは、符号化する生ビデオを生成する。例えば、生ビデオをAdobe Flash(登録商標)standard、HTML−5,.wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG−x. Xvid. FFmpeg, x264、VP6−8、realvideo、mp3などにしたがって符号化する。符号化処理では、デバイス上のデコーダに配信するために任意選択でパッケージ化されるビデオストリームを生成する。ビデオストリームは、フレームサイズ及びフレームレートに特徴がある。他の任意のフレームサイズを使用することができるが、典型的なフレームサイズには、800×600、1280×720 (例えば720p)、1024×768、1080pが含まれる。フレームレートは、1秒当たりのビデオフレーム数である。ビデオストリームは、異なるタイプのビデオフレームを含んでいてもよい。例えば、H.264標準は、「P」フレーム及び「I」フレームを含む。Iフレームは、ディスプレイデバイス上ですべてのマクロブロック/画素をリフレッシュするための情報を含み、一方、Pフレームは、そのサブセットをリフレッシュするための情報を含む。通常、Pフレームは、Iフレームよりデータサイズが小さい。本明細書で使用する「フレームサイズ」という用語は、1つのフレーム内の画素数を指すことを意図している。「フレームデータサイズ」という用語は、フレームを記憶するのに必要なバイト数を指すように使用される。
【0122】
いくつかの実施形態において、クライアントは、汎用コンピュータ、特殊用途コンピュータ、ゲームコンソール、パーソナルコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、モバイルコンピューティングデバイス、携帯ゲームデバイス、携帯電話、セットトップボックス、ストリーミングメディアインタフェース/デバイス、スマートテレビ若しくはネットワークディスプレイ、または、ここで定義するようなクライアントの機能を遂行するように構成することができる他のあらゆるコンピューティングデバイスでありえる。1つの実施形態において、クラウドゲームサービスは、ユーザが利用中のクライアントデバイスの種類を検出して、ユーザのクライアントデバイスに適したクラウドゲーム経験を与えるように構成される。例えば、画像設定、音声設定、及び他の設定を、ユーザのクライアントデバイスに最適化してもよい。
【0123】
図12は、「情報サービスプロバイダ」アーキテクチャの1つの実施形態を示す。情報サービスプロバイダ(ISP)1070は、地理的に分散し、ネットワーク1086を介して接続されたユーザ1082に対して、複数の情報サービスを配信する。ISPは、株価更新など1つのタイプのサービスだけを、または放送メディア、ニュース、スポーツ、ゲーム他など様々なサービスを配信することができる。さらに、各ISPが提供するサービスは動的である、すなわち、サービスを任意の時点で追加または除去することができる。したがって、特定の個人に特定のタイプのサービスを提供するISPは、時間の経過とともに変化する可能性がある。例えば、あるユーザが自分の地元にいるあいだは、ユーザに近接しているISPからサービスを提供され、別の街に旅行に行くと、異なるISPからサービスを提供されるようにしてもよい。地元のISPは、新しいISPに対して、必要な情報及びデータを転送することになるので、ユーザ情報は、ユーザを「フォローし」新しい街に行き、データをユーザにより近い、よりアクセスしやすいものにする。別の実施形態において、ユーザについて情報を管理するマスターISPと、マスターISPからの制御の下、ユーザと直接インタフェースで接続されるサーバISPとの間にマスター/サーバ関係を確立してもよい。別の実施形態において、クライアントが世界中を動き回り、ユーザにサービスを提供するのによりよい位置のISPを、これらのサービスを配信するISPにするので、データはあるISPから別のISPに転送される。
【0124】
ISP1070は、「アプリケーションサービスプロバイダ」(ASP)1072を含み、ASP1072は、ネットワーク上で顧客に対してコンピュータベースのサービスを提供する。ASPモデルを使用して提供されるソフトウエアを、オンデマンドソフトウエア、またはサービス型ソフトウエア(SaaS)としばしば称される。(顧客関係管理などの)特定のアプリケーションプログラムにアクセスさせる単純な形態は、HTTPなどの標準プロトコルを使用することによる形態である。アプリケーションソフトウエアは、業者のシステムにあり、HTMLを使用したウェブブラウザを通して、業者が提供する特殊用途クライアントソフトウエアによって、または、シン・クライアントなどのほかのリモートインタフェースによってユーザがアクセスする。
【0125】
広域地理的領域にわたって配信されるサービスでは、しばしばクラウドコンピューティングが使用される。クラウドコンピューティングは、動的な拡張性があり、しばしば仮想化されるリソースを、インターネット上でサービスとして提供するスタイルのコンピューティングである。ユーザをサポートする「クラウド」においては、ユーザは技術インフラに熟練している必要はない。クラウドコンピューティングを、サービス型インフラ(IaaS)、サービス型プラットフォーム(PaaS)及びサービス型ソフトウエア(SaaS)などの異なるサービスに分割することができる。クラウドコンピューティングサービスは、しばしばソフトウエア及びデータをサーバに記憶しつつ、ウェブブラウザからアクセスされる共有ビジネス用アプリケーションをオンライン上で提供する。クラウドという用語は、インターネットがコンピュータネットワーク図でどのように描かれているかに基づき、(例えば、サーバ、ストレージ及びロジックを使用する)インターネットのメタファーとして使用され、秘匿する複雑なインフラについての抽象的概念である。
【0126】
さらに、ISP1070は、単一プレイヤー及びマルチプレイヤー用ビデオゲームをプレイするためにゲームクライアントが使用する「ゲーム処理サーバ」(GPS)1074を含む。インターネット上でプレイするビデオゲームのほとんどは、ゲームサーバに接続することで作動する。通常、ゲームは、プレイヤーからデータを収集して、そのデータを他のプレイヤーに分配する専用サーバアプリケーションを使用する。これは、ピアツーピア配列よりも効率及び効果が優れているが、サーバアプリケーションをホストするために別のサーバが必要となる。別の実施形態において、GPSは、プレイヤーとそれぞれのゲームプレイデバイスとの間で通信を確立し、集中型GPSに頼ることなく情報を交換させる。
【0127】
専門のGPSは、クライアントと無関係に実行するサーバである。そのようなサーバは通常、データセンタに配置される専用ハードウエア上で実行し、より多くの帯域幅及び処理力をもたらす。専用サーバは、ほとんどのPCベースのマルチプレイヤーゲームにとって、ゲームサーバをホストする好ましい方法である。多人数同時参加型オンラインゲームは、ゲームの所有権を持つソフトウエア会社が通常ホストする専用サーバで実行し、コンテンツの制御及び更新を行うことができる。
【0128】
「放送処理サーバ」(BPS)1076は、音声またはビデオ信号を視聴者に分配する。非常に狭い範囲の視聴者への放送は、しばしばナローキャスティングと称される。放送分布の最後の行程は、信号をどのように聴取者または視聴者に到達させるかということであり、ラジオ局またはテレビ局がアンテナ及び受信機に送る場合と同様に無線で送られるか、ケーブルテレビまたはケーブルラジオ(または「無線ケーブル」)を通して局を介して、またはネットワークから直接送られる場合がある。インターネットもまた、特にマルチキャスティングによって信号及び帯域幅を共有可能にして、ラジオまたはテレビを受信者に届ければよい。歴史的に見て、放送は、全国放送または地方放送など地理的地域によって境界を定められてきた。しかしながら、高速インターネットが普及するにつれ、コンテンツを世界のほぼすべての国に届けることができるので、放送は地理によって定義されない。
【0129】
「ストレージサービスプロバイダ」(SSP)1078は、コンピュータストレージ空間及び関連の管理サービスを提供する。さらに、SSPは定期的なバックアップ及びアーカイブも提供する。ストレージをサービスとして提供することによって、ユーザは必要に応じてより多くのストレージを要求することができる。別の大きな効果は、SSPがバックアップサービスを含み、ユーザは自分のコンピュータのハードドライブが故障してもデータをすべて失うことはないという点である。さらに、複数のSSPがユーザデータの全体または一部の複製を有することができるので、ユーザがいる場所またはデータアクセスのために使用するデバイスに関係なく、ユーザは効率的な方法でデータにアクセスすることができる。例えば、ユーザは、家庭用コンピュータで個人ファイルにアクセスでき、同様にして、移動中は携帯電話でアクセスできる。
【0130】
「通信プロバイダ」1080は、ユーザへの接続能力を提供する。通信プロバイダの1つの種類が、インターネットへのアクセスを提供する「インターネットサービスプロバイダ」(ISP)である。ISPは、ダイアルアップ、DSL、ケーブルモデム、ファイバー、無線または専用の高速相互接続など、インターネットプロトコルデータグラム配信するのに適切なデータ伝送技術を使用して、顧客を接続させる。通信プロバイダは、eメール、インスタントメッセージ、及びSMSテキストメッセージなどのメッセージサービスも提供することができる。通信プロバイダの別の種類が、インターネットへの直接バックボーンアクセスを行うことにより、帯域幅またはネットワークアクセスを販売する「ネットワークサービスプロバイダ」(NSP)である。ネットワークサービスプロバイダは、高速インターネットアクセスを提供する電気通信会社、データキャリヤ、無線通信プロバイダ、インターネットサービスプロバイダ、ケーブルテレビ事業者などからなってよい。
【0131】
データ交換1088は、ISP1070内でいくつかのモジュールを相互接続させ、これらのモジュールを、ネットワーク1086を介してユーザ1082に接続する。データ交換1088は、ISP1070のモジュールが非常に近接する小さな領域をカバーする、または異なるモジュールが地理的に分散した大きな地理的地域をカバーすることができる。例えば、データ交換1088は、データセンタのキャビネット内に高速(またはより高速な)ギガビットイーサネット、または大陸間仮想エリアネットワーク(VLAN)を含むことができる。
【0132】
ユーザ1082は、クライアントデバイス1084でリモートサーバにアクセスするが、クライアントデバイス1084は、CPU、ディスプレイ、及びI/Oを少なくとも含む。クライアントデバイスは、PC、携帯電話、ネットワーク、タブレット、ゲームシステム、PDAなどであり得る。1つの実施形態において、ISP1070は、クライアントが使用するデバイスのタイプを認識し、用いる通信方法を調整する。他の場合、クライアントデバイスは、htmlなどの標準的な通信方法を使用して、ISP1070にアクセスする。
【0133】
本発明の実施形態を、携帯デバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な消費家電、ミニコンピュータ、メインフレームコンピュータなどを含む様々なコンピュータシステム構成で実施してもよい。さらに、本発明を、有線ベースまたは無線ネットワークを通してリンクされるリモート処理デバイスがタスクを実行する分散型コンピュータ環境で実施することもできる。
【0134】
上記実施形態を念頭において、本発明は、コンピュータシステムに記憶されるデータを伴う様々なコンピュータに実装された動作を用いることができることを理解されたい。これらの動作は、物理量の物理的操作を必要とする動作である。本発明の一部をなす、本明細書に記載のいずれの操作も、有用な機械動作である。本発明はさらに、これらの動作を実行するデバイスまたは装置にも関する。装置を、要求される用途のため特別に構築することができる、または、装置を、コンピュータが記憶するコンピュータプログラムによって選択的に有効化または構成される汎用コンピュータであってもよい。特に、様々な汎用マシンを、本明細書の教示に従って書き込まれるコンピュータプログラムとともに使用することができる、または、要求される動作を実行するためにより専門化した装置を構築するほうが便利な場合もある。
【0135】
さらに、本発明を、コンピュータ可読媒体上のコンピュータ可読コードとして体現することもできる。コンピュータ可読媒体は、データを記憶することができる任意のデータストレージデバイスであって、データをその後コンピュータシステムが読み出すことができる。コンピュータ可読媒体の例としては、ハードドライブ、ネットワーク接続ストレージ(NAS)、リードオンリーメモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ、及び他の光学式、非光学式データストレージデバイスが挙げられる。コンピュータ可読媒体は、コンピュータ可読コードを配信型で記憶し、実行するように、ネットワーク連結コンピュータシステム上で配信されるコンピュータ可読有形的表現媒体を含むことができる。
【0136】
方法の動作を特定の順序で説明してきたが、オーバレイ動作の処理が所望な方法で実行される限り、動作の間に他のハウスキーピング動作を実行してもよいし、わずかに異なる時間で発生するように動作を調整してもよいし、あるいは動作を処理に関連する様々な間隔で処理動作が発生するようなシステム内に配信されてもよいことが理解されるべきである。
【0137】
上述の発明を、明確に理解できるように多少詳しく説明してきたが、添付の特許請求の範囲内であれば、何らかの変更及び修正を行うことができることは明らかであろう。したがって、本件の実施形態は、例示的であり限定するものではないとみなされるべきであり、本発明は本明細書で記載した詳細に限定されず、特許請求の範囲及び等価物内で修正してもよい。