特許第6408634号(P6408634)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社ソニー・コンピュータエンタテインメントの特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6408634
(24)【登録日】2018年9月28日
(45)【発行日】2018年10月17日
(54)【発明の名称】頭部装着ディスプレイ
(51)【国際特許分類】
   G06F 3/01 20060101AFI20181004BHJP
   G02B 27/02 20060101ALI20181004BHJP
   G09G 5/00 20060101ALI20181004BHJP
   G09G 5/36 20060101ALI20181004BHJP
   G06F 3/0481 20130101ALI20181004BHJP
   G06F 3/0346 20130101ALI20181004BHJP
   H04N 5/64 20060101ALI20181004BHJP
【FI】
   G06F3/01 510
   G02B27/02 Z
   G09G5/00 550C
   G09G5/00 555D
   G09G5/36 520P
   G06F3/0481 150
   G06F3/0346 422
   H04N5/64 511A
【請求項の数】19
【全頁数】33
(21)【出願番号】特願2017-70090(P2017-70090)
(22)【出願日】2017年3月31日
(62)【分割の表示】特願2016-517974(P2016-517974)の分割
【原出願日】2014年6月4日
(65)【公開番号】特開2017-152010(P2017-152010A)
(43)【公開日】2017年8月31日
【審査請求日】2017年4月7日
(31)【優先権主張番号】61/832,918
(32)【優先日】2013年6月9日
(33)【優先権主張国】US
(73)【特許権者】
【識別番号】310021766
【氏名又は名称】株式会社ソニー・インタラクティブエンタテインメント
(74)【代理人】
【識別番号】100105924
【弁理士】
【氏名又は名称】森下 賢樹
(72)【発明者】
【氏名】ミカイロフ、アントン
(72)【発明者】
【氏名】マオ、シャドン
【審査官】 ▲高▼橋 徳浩
(56)【参考文献】
【文献】 特開平08−006708(JP,A)
【文献】 特開2010−257461(JP,A)
【文献】 特開平11−312033(JP,A)
【文献】 米国特許出願公開第2009/0237355(US,A1)
【文献】 特開2008−077572(JP,A)
【文献】 特開2000−271342(JP,A)
【文献】 特開2012−173772(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A63F 9/24
G02B 27/02
G06F 3/01
G06F 3/0346
G09G 5/00
G09G 5/36
H04N 5/64
A63F13/00−A63F13/98
G06F3/048−G06F3/0489
(57)【特許請求の範囲】
【請求項1】
頭部装着ディスプレイであって、
ヘッド装着部と、
前記ヘッド装着部に結合されたビューイング・モジュールであって、仮想現実シーンを描画するよう構成されるスクリーン内へのビューポートを持つ内側と、外側ハウジングを含む前記ビューイング・モジュールと、
前記スクリーンに対して前記仮想現実シーンを生成するよう構成されたコンピュータ・システムとのデータ交換のための通信モジュールと、
前記ビューイング・モジュールに統合され、前記外側ハウジングの正面の環境の深さデータをキャプチャするように向けられたデプスカメラとを備え、
前記コンピュータ・システムは、前記デプスカメラによってキャプチャされた前記深さデータを用いて、前記環境における現実のオブジェクトを特定するよう構成され、前記現実のオブジェクトは前記仮想現実シーンに描画され、前記現実のオブジェクトの動きが前記仮想現実シーンにおける動きとして見えるように前記現実のオブジェクトは追跡され
前記デプスカメラによってキャプチャされたコントローラは、前記コントローラ以外の仮想オブジェクトとして前記仮想現実シーンに描画され、前記コントローラの動きはその仮想オブジェクトの動きに相互に関連づけられ、前記コントローラの動きと前記頭部装着ディスプレイの動きは、前記コントローラと前記頭部装着ディスプレイの動きを追跡するマッピング・アルゴリズムによって相互に関連づけられ、その結果、前記スクリーン内に表示される視界は、前記頭部装着ディスプレイの動きと前記コントローラによって提供されるインタラクティブ・フィードバックに従って変化可能である、頭部装着ディスプレイ。
【請求項2】
前記環境において前記デプスカメラによってキャプチャされた前記現実のオブジェクトは、当該頭部装着ディスプレイを着用するユーザの手である、請求項1に記載の頭部装着ディスプレイ。
【請求項3】
前記ユーザの前記手である前記現実のオブジェクトは、前記仮想現実シーンにおいて仮想の手として描画される、請求項2に記載の頭部装着ディスプレイ。
【請求項4】
前記仮想の手は、前記仮想現実シーンにおいて仮想オブジェクトとともに描画され、前記仮想現実シーンにおいて前記仮想オブジェクトと接触するような前記仮想の手の動きは、前記仮想オブジェクトと前記仮想の手の間の仮想的なインタラクションを生成する、請求項3に記載の頭部装着ディスプレイ。
【請求項5】
前記デプスカメラは、前記ユーザの前記手をキャプチャするように構成され、前記ユーザの前記手は、前記ユーザが前記仮想現実シーンに手を伸ばしているかのように前記ユーザの視点から前記仮想現実シーンに描画される、請求項2に記載の頭部装着ディスプレイ。
【請求項6】
記ユーザの前記手は、前記デプスカメラによってキャプチャされたときの前記コントローラ上にある、請求項2に記載の頭部装着ディスプレイ。
【請求項7】
前記デプスカメラは、前記ユーザの第2の手をキャプチャするように構成され、前記ユーザの前記第2の手は前記仮想現実シーンに第2の仮想の手として描画され、前記仮想の手および前記第2の仮想の手は、前記ユーザの正面において前記仮想現実シーンに伸ばすように、ある視点から描画される、請求項に記載の頭部装着ディスプレイ。
【請求項8】
前記デプスカメラは、コントローラを握る前記ユーザの前記手をキャプチャするように構成され、前記ユーザの前記手は前記コントローラ以外の仮想オブジェクトを扱う仮想の手として描画される、請求項2に記載の頭部装着ディスプレイ。
【請求項9】
前記通信モジュールによって交換されるデータは、入力データ、画像データ、オーディオデータ、または慣性データ、あるいはこれらの2以上の組み合わせである、請求項1に記載の頭部装着ディスプレイ。
【請求項10】
前記外側ハウジングは、ユーザが着用したときの当該頭部装着ディスプレイに向けられたカメラを用いて当該頭部装着ディスプレイを追跡するために用いられる1以上の照明素子を備える、請求項1に記載の頭部装着ディスプレイ。
【請求項11】
前記照明素子は、発光ダイオード(LED)または赤外線(IR)エミッタとして定義される、請求項10に記載の頭部装着ディスプレイ。
【請求項12】
前記LEDは、一つ以上の色を照らし出すように定義され、前記一つ以上の色のイルミネーションは、前記コンピュータ・システムによって命令されたときに照明ロジックによって制御される、請求項11に記載の頭部装着ディスプレイ。
【請求項13】
前記通信モジュールは、前記コンピュータ・システムとの有線接続または無線接続を有する、請求項1に記載の頭部装着ディスプレイ。
【請求項14】
前記頭部装着ディスプレイに統合された慣性センサによって慣性データが生成され、前記慣性データは、ーザが着用したときの当該頭部装着ディスプレイの検出された運動に応答して生成される、請求項1に記載の頭部装着ディスプレイ。
【請求項15】
前記仮想現実シーンのコンテンツと関連づけられたものとして当該頭部装着ディスプレイにオーディオデータが提供される、請求項1に記載の頭部装着ディスプレイ。
【請求項16】
前記コンテンツは、ゲーム・データ、ビデオ・データ、インターネット・ナビゲーション・データ、インタラクティブ・データ、ゲーム・データとインターネット・データの組み合わせ、ソーシャル・メディア・データ、あるいはそれらの組み合わせを含む、請求項15に記載の頭部装着ディスプレイ。
【請求項17】
頭部装着ディスプレイ(HMD)を操作する方法であって、
ヘッド装着部と、前記ヘッド装着部に結合されたビューイング・モジュールであって、仮想現実シーンを描画するよう構成されるスクリーン内へのビューポートを持つ内側と外側ハウジングを含む前記ビューイング・モジュールと、を有するHMDを提供するステップと、
前記スクリーンに対して前記仮想現実シーンを生成するよう構成されたコンピュータ・システムとのデータ交換のための通信モジュールを提供するステップと、
前記ビューイング・モジュールに統合され、前記外側ハウジングの正面の環境の深さデータをキャプチャするように向けられたデプスカメラを提供するステップと、
前記コンピュータ・システムによって、前記デプスカメラによってキャプチャされた前記深さデータを処理し、前記環境において前記HMDを着用するユーザの手を特定するステップとを備え、
前記手は前記仮想現実シーンに描画され、前記手の動きが前記仮想現実シーンに伸ばした仮想の手の動きとして見えるように前記手は追跡され
前記ユーザの前記手によって握られたコントローラを検出するステップと、
前記仮想現実シーンに描画されたとき前記ユーザの前記仮想の手によって扱われているものとして前記コントローラ以外の仮想オブジェクトを描画するステップとをさらに含み、
前記コントローラの動きと前記頭部装着ディスプレイの動きは、前記コントローラと前記頭部装着ディスプレイの動きを追跡するマッピング・アルゴリズムによって相互に関連づけられ、その結果、前記スクリーン内に表示される視界は、前記頭部装着ディスプレイの動きと前記コントローラによって提供されるインタラクティブ・フィードバックに従って変化可能である、方法。
【請求項18】
前記仮想の手は、前記仮想現実シーンにおいて仮想オブジェクトとともに描画され、前記仮想現実シーンにおける前記仮想の手の動きは、前記ユーザが前記仮想オブジェクトに向かって前記仮想の手を動かすとき前記仮想オブジェクトと前記仮想の手の間の仮想的なインタラクションを生成する、請求項17に記載の方法。
【請求項19】
前記ユーザの前記仮想の手は、前記HMDの前記ユーザが前記仮想現実シーンに手を伸ばしているかのように描画される、請求項17に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、頭部装着ディスプレイ(HMD)及びコントローラと、HMD機器ユニットとを使用するゲームプレイ方法及びシステムに関する。
【背景技術】
【0002】
ビデオゲーム産業には、長年に渡り、多くの変遷があった。演算能力が拡大するに従い、ビデオゲームの開発者は、同様に、演算能力の向上を利用するゲームソフトを開発してきた。この目的で、ビデオゲーム開発者は、非常に写実的なゲーム体験を作り出す高度な機能及び演算を組み込んだゲームをコード化している。しかしながら、HMDを使用するゲームには、今なお、多くの改善が必要である。
【発明の概要】
【発明が解決しようとする課題】
【0003】
本発明の実施形態は、この文脈において、考案されている。
【課題を解決するための手段】
【0004】
本発明の実施形態は、頭部装着ディスプレイ(HMD)上へのゲームの描画方法及びシステムを提供する。いくつかの実施形態においては、ゲームプレイは、ユーザーが使用するコントローラに相関されてもよい、あるいはコントローラで実行されてもよい。本方法は、HMD及びコントローラを追跡する様式、及び没入型インタラクティブ性を提供する方法を定義する。被追跡HMD及びコントローラは、三次元空間内での相関インタラクティブプレイを有効にする。理解すべきは、本発明が、コンピュータ可読媒体上に、プロセス、装置、システム、デバイスまたは方法などの、多くの様式で実施可能であることである。以下に、本発明の、創意に富むいくつかの実施形態を説明する。
【0005】
ヘッド装着部を含む頭部装着ディスプレイが開示される。これは、また、ヘッド装着部に連結されたビューイング・モジュールも含む。ビューイング・モジュールは、画像コンテンツを描画するよう構成されるスクリーン内へのビューポートを持つ内側部分と、外側ハウジングを含む。さらに、ビューイング・モジュールの外側ハウジングに統合されて複数の照明素子が含まれる。複数の照明素子は、頭部装着ディスプレイの画像追跡のために定義され、照明ロジックが複数の照明素子をアクティブまたは非アクティブに制御する。
【0006】
いくつかの実施形態においては、通信モジュールによって交換されるデータは、入力データ、画像データ、オーディオ・データ及び慣性データを含む。
【0007】
いくつかの実施形態における複数の照明素子は、発光ダイオード(LED)または赤外線(IR)エミッタとして定義される。
【0008】
いくつかの実施形態におけるLEDは、一つ以上の色を照らし出すよう定義され、一つ以上の色の照明は、照明ロジックによって制御される。
【0009】
いくつかの実施形態における複数の照明素子は、外側ハウジング上に定義パターンで配置される。
【0010】
いくつかの実施形態における外側ハウジングは、部分的に曲がった形状を持ち、複数の照明素子は、部分的に曲がった形状の周りにパターンとして配置される。
【0011】
いくつかの実施形態における外側ハウジングは、複数の表面領域を持ち、複数の照明素子は、複数の表面領域の周りにパターンとして配置される。
【0012】
いくつかの実施形態における複数の照明素子は、二つ以上の形状またはサイズを含む。
【0013】
いくつかの実施形態においては、複数の照明素子の追加素子が、ヘッド装着部へ結合される。
【0014】
もう一つの実施形態においては、頭部装着ディスプレイ(HMD)が開示される。HMDは、ユーザーの頭に装着するためのヘッド装着部、及び、ヘッド装着部に連結され、ユーザーの眼前に配置されるよう構成されたビューイング・モジュールを含む。ビューイング・モジュールは、画像コンテンツを描画するよう構成されるスクリーン内へビューポートを保持させる内側と、内側を包囲する外側ハウジングを含む。HMDは、さらに、コンピュータ・システムとのデータ交換のための通信モジュールを含む。データは、入力データ、画像データ、オーディオ・データ及び慣性データ(他のデータも可能)を含む。HMDは、また、スクリーン上に画像コンテンツを描画するために画像データを処理するための画像処理モジュール、及びビューイング・モジュールの外側ハウジングに統合された複数の照明素子を含む。複数の照明素子は、カメラによる頭部装着ディスプレイの画像追跡のために定義される。HMDは、また、複数の照明素子のうちの特定な素子を、特定な時間にアクティブ及び/または非アクティブに、あるいは使用中にオンに制御するための照明ロジックを含む。
【0015】
いくつかの実施形態における外側ハウジングは、前面部、第一側面部及び第二側面部を持つ。
【0016】
いくつかの実施形態においては、複数の照明素子の第一の素子が、前面部の左側に配置され、複数の照明素子の第二の素子が、前面部の右側に配置される。
【0017】
いくつかの実施形態における複数の照明素子の第一の素子は、部分的に前面部と第一側面部とに位置する二部形状を持ち、複数の照明素子の第二の素子は、部分的に前面部と第二側面部とに位置する二部形状を持つ。
【0018】
いくつかの実施形態における複数の照明素子は、発光ダイオード(LED)または赤外線(IR)エミッタとして定義される。
【0019】
いくつかの実施形態におけるLEDは、一つ以上の色を照らし出すよう定義され、一つ以上の色のイルミネーションは、照明ロジックによって制御される。
【0020】
いくつかの実施形態における複数の照明素子は、外側ハウジング上に定義パターンで配置される。
【0021】
いくつかの実施形態における通信モジュールは、コンピュータとの有線接続または無線接続の一つである。
【0022】
いくつかの実施形態における慣性データは、頭部装着ディスプレイによって、ユーザー着用中の検出運動に応答して生成される。
【0023】
いくつかの実施形態における入力データは、頭部装着ディスプレイによって、ユーザー着用中のユーザー入力に応答して生成される。
【0024】
いくつかの実施形態におけるオーディオ・データ及び画像データは、頭部装着ディスプレイに描画されるインタラクティブ・メディア・コンテンツに関連付けられる。
【0025】
いくつかの実施形態におけるインタラクティブ・メディア・コンテンツは、ゲーム・データ、ビデオ・データ、インターネット・ナビゲーション・データ、ゲーム・データとインターネット・データとの組み合わせ、ソーシャル・メディア・データ、またはそれらの組み合わせを含む。
【0026】
いくつかの実施形態における外側ハウジングは、部分的に曲がった形状を持ち、複数の照明素子は、部分的に曲がった形状の周りにパターンとして配置される。
【0027】
いくつかの実施形態における外側ハウジングは、複数の表面領域を持ち、複数の照明素子は、複数の表面領域の周りにパターンとして配置される。
【0028】
いくつかの実施形態における複数の照明素子は、二つ以上の形状またはサイズを含む。
【0029】
いくつかの実施形態における複数の照明素子の追加素子は、ヘッド装着部へ結合される。
【0030】
いくつかの実施形態における複数の照明素子は、外側ハウジング上に定義パターンで配置される。
【0031】
もう一つの実施形態においては、頭部装着ディスプレイが開示される。頭部装着ディスプレイは、ヘッド装着部及びビューイング・モジュールを含む本体を含む。ビューイング・モジュールは、画像コンテンツを描画するよう構成されるスクリーン内へビューポートを保持するよう内側部分を含み、本体は、ビュー・モジュールを覆う外側ハウジングを含む。頭部装着ディスプレイは、さらに、ビューイング・モジュールの外側ハウジングに統合された複数の照明素子を含む。複数の照明素子は、頭部装着ディスプレイの画像追跡のために定義される。複数の照明素子は、パターンで配置される。また、画像追跡を容易にするために作動される複数の照明素子を制御するための照明ロジックも含まれる。
【0032】
頭部装着ディスプレイ(HMD)のスクリーン上に提示されるゲームの実行方法が提供される。実行は、スクリーン上にゲームのインタラクティブ・シーンを描画する。この方法は、HMD空間位置を特定するために、ユーザーが装着したHMDのデータを受信することを含む。方法は、また、コントローラ空間位置を特定するために、ユーザーが保持しているコントローラのデータを受信することを含む。ゲームプレイ中、方法は、スクリーン上のゲームのインタラクティブ・シーン内へ視点を描画することを含む。この場合の視点は、三次元で描画される空間体積である。方法は、HMD空間位置の変化の検出に応じて視点を調整することを含む。コントローラは、ゲーム内のインタラクティブ性を作動させることが可能であり、没頭型三次元ゲームプレイ体験を提供するために、コントローラ及びHMDの位置変化は相互に関連付けられる。
【0033】
いくつかの実施形態におけるコントローラは、インタラクティブ性を作動させる入力を提供する。
【0034】
いくつかの実施形態においては、コントローラ空間位置の変化が、追加の入力を提供する。
【0035】
いくつかの実施形態における追加の入力は、発光体または慣性データの一つを含む。
【0036】
いくつかの実施形態における発光体は、カメラを介して観察されるロケーション・データを提供し、発光体の色が追加のデータを提供する。
【0037】
いくつかの実施形態における色は、プレイヤー番号またはモード、あるいは室内条件に基づく設定を示す。
【0038】
いくつかの実施形態におけるコントローラは、インタラクティブ・シーン内に仮想オブジェクトとして表現され、仮想オブジェクトは、コントローラ空間位置へ実質的に対応する仮想空間位置のインタラクティブ・シーン内に描画され、コントローラ空間位置の変化が、スクリーン上に示される仮想オブジェクトの仮想空間位置を変化させる。
【0039】
もう一つの実施形態においては、頭部装着ディスプレイ(HMD)のスクリーン上に提示されるゲームの実行方法が提供される。この方法は、ゲームを実行することを含み、この場合の実行は、スクリーン上にゲームのインタラクティブ・シーンを描画する。この方法は、以下のことを含む。HMD空間位置を特定するために、ユーザーが装着したHMDのデータを受信すること。コントローラ空間位置を特定するために、ユーザーが保持しているコントローラのデータを受信すること。スクリーン上のゲームのインタラクティブ・シーン内へ視点を描画すること。及びHMD空間位置の変化の検出に応じて視点を調整すること。この方法は、プロセッサによって実行される。
【0040】
いくつかの実施形態におけるコントローラは、仮想オブジェクトとしてインタラクティブ・シーン内に表現され、仮想オブジェクトは、コントローラ空間位置に対応する仮想空間位置のインタラクティブ・シーン内に描画され、コントローラ空間位置の変化が、仮想オブジェクトの仮想空間位置を変化させる。
【0041】
いくつかの実施形態におけるインタラクティブ・シーンは、三次元フォーマットで描画されるため、インタラクティブ・シーン内のオブジェクトは、HMDの前に出現しインタラクティブ・シーン内へ距離感を持って延在する。
【0042】
いくつかの実施形態におけるHMD及びコントローラ空間位置は、画像データ、慣性データ、無線データ、赤外線データの一つ以上、あるいはそれらの組み合わせを利用して追跡される。
【0043】
いくつかの実施形態においては、画像データを使用する追跡は、奥行データを提供する立体カメラを使用して、HMD及びコントローラ空間位置の一方または両方を検出することを含む。
【0044】
もう一つの実施形態においては、頭部装着ディスプレイ(HMD)のスクリーン上に提示されるゲームの実行方法が提供される。この方法は、ゲームを実行することを含み、この場合の実行は、スクリーン上にゲームのインタラクティブ・シーンを描画する。この方法は、以下のことを含む。ユーザーへ向けられているキャプチャ・ロケーションに対するHMD空間位置を特定するために、ユーザーが装着したHMDの画像を受信すること。キャプチャ・ロケーションに対するコントローラ空間位置を特定するために、ユーザーが保持しているコントローラの画像を受信すること。この場合、コントローラは、実行中のゲームとのインタラクションを少なくとも部分的に作動させる入力を提供すること。スクリーン上のゲームのインタラクティブ・シーン内へ視点を描画すること。及び、HMDの受信画像内におけるHMD空間位置の変化の検出に応じて視点を調整すること。
【0045】
いくつかの実施形態におけるコントローラは、仮想オブジェクトとしてインタラクティブ・シーン内に表現され、仮想オブジェクトは、コントローラ空間位置に対応する仮想空間位置のインタラクティブ・シーン内に描画され、コントローラ空間位置の変化が、仮想オブジェクトの仮想空間位置を変化させる。
【0046】
いくつかの実施形態におけるゲームは、頭部装着ディスプレイへ通信接続されたコンピュータ上で実行される。
【0047】
いくつかの実施形態におけるゲームは、ゲーム・クラウド上で実行され、頭部装着ディスプレイは、ゲーム・クラウドへ通信接続される。
【0048】
いくつかの実施形態におけるHMD空間位置及びコントローラ空間位置の各々は、追加的に慣性データによって特定可能である。
【0049】
本発明の他の態様は、添付図面と併せて、例証として本発明の原則を表す以下の詳細説明を参照することで明らかになる。
【図面の簡単な説明】
【0050】
本発明は、添付図面と併せて、以下の説明を参照することによって最も良く理解できる。
【0051】
図1】本発明の実施形態による、ビデオゲームのインタラクティブゲームプレイのためのシステムを表す。
【0052】
図2】本発明の実施形態による頭部装着ディスプレイ(HMD)を表す。
【0053】
図3】実行中のビデオゲームと併せて、本発明の実施形態によるHMDの機能を概念的に表す。
【0054】
図4A-4B】本発明の実施形態によるHMDから3Dで視聴可能な仮想空間の実施例、コントローラとのインタラクション及びそれらのコーディネーションを表す。
【0055】
図5A-9B】本発明の実施形態によるHMDを装着し、コントローラを保持し、ビデオゲームに対して生成されるインタラクティブ・シーン内へ視点を変化させているユーザーの追加実施例を表す。
【0056】
図10-11】ビデオゲームをするときの、HMDを装着してコントローラを保持しているユーザーを表す。
【0057】
図12】本発明の実施形態による頭部装着ディスプレイの構成要素を表す。
【0058】
図13】本発明の種々の実施形態によるゲーム・システムのブロック図である。
【発明を実施するための形態】
【0059】
図1は、本発明の実施形態による、ビデオゲームのインタラクティブゲームプレイのためのシステムを表す。本明細書での実施例は、ビデオゲームやゲームに関連させて提供されるが、実施形態は、異なる環境やツールにも適用可能である。そのような環境は、ビジネス・ツール環境、プレゼンテーション・ツール、電話会議システム、仮想訪問プログラム、仮想プロジェクト・コラボレーション、情報及びソーシャル・インタラクションの共有、ソーシャル・ネットワーク、ソーシャル・データ・マイニング、コミュニケーション等を含むことができる。
【0060】
ビデオゲーム実施例におけるユーザー100は、頭部装着ディスプレイ(HMD)102を装着して図示される。HMD102は、眼鏡、ゴーグルまたはヘルメットに類似した方式で装着されるものであり、ユーザー100に対してビデオゲームまたは他のコンテンツを表示するよう構成される。HMD102は、ユーザーの眼の近位に表示メカニズムを備える長所によって、ユーザーへ高度な没頭体験を提供する。したがって、HMD102は、ユーザーの眼の各々に対して、ユーザーの視野の大部分または全域を占める表示領域を提供できる。
【0061】
一つの実施形態におけるHMD102は、コンピュータ106へ接続可能である。コンピュータ106への接続は、有線または無線でよい。コンピュータ106は、本技術において既知である任意の一般または専用コンピュータでよい。例えば、限定せずに、ゲーム・コンソール、パーソナル・コンピュータ、ラップトップ、タブレット型コンピュータ、モバイル・デバイス、携帯電話、タブレット、シン・クライアント、セット・トップ・ボックス、メディア・ストリーミング・デバイス等を含む。一つの実施形態におけるコンピュータ106は、ビデオゲームを実行し、HMD102による描画のために、ビデオゲームからのビデオ及びオーディオを出力するよう構成できる。
【0062】
ユーザー100は、ビデオゲームに対する入力を提供するために、コントローラ104を操作してもよい。加えて、カメラ108は、ユーザー100が所在するインタラクティブ環境の画像をキャプチャするよう構成できる。これらのキャプチャ画像を分析することによって、ユーザー100、HMD102及びコントローラ104の位置及び運動を測定できる。一つの実施形態におけるコントローラ104は、発光体を含み、それを追跡することによって、その位置及び方位が測定可能である。加えて、下記に詳細に説明するように、HMD102は、HMD102の位置及び方位を測定するために追跡が可能な、一つ以上の発光体を含んでもよい。発光体は、イルミネーション・オブジェクトと見なされる。
【0063】
一つの実施形態においては、イルミネーション・オブジェクトは、人間の眼で、及び/またはカメラまたは画像検出デバイス、あるいはディテクタまたはレシーバで観察した場合に、可視的相違を提供するよう光を放つ、あるいは輝くものである。一つの実施形態におけるイルミネーション・オブジェクトは、人間に可視な光を発することが可能であり、他の実施形態においては、人間に不可視な光を発する。一つの実施形態におけるイルミネーション・オブジェクトは、IRエミッタを介して赤外線(IR)光を発してもよい。一つの実施例におけるイルミネーション・オブジェクトは、一つ以上の発光ダイオード(LED)であってもよい。各ダイオードは、白色光、あるいは種々の色合いの色光を発してもよい。いくつかの実施形態におけるイルミネーション・オブジェクトは、少なくとも部分的に透明である面の下に配置されてもよい。その面は、カバーであってもよく、その場合のカバーは、一つ以上の色で輝く、あるいは見えることになる。
【0064】
いくつかの実施形態におけるイルミネーション・オブジェクトは、HMDの本体またはハウジング内へ統合される、HMD上の明るい、あるいは透明なプラスチックの下に配置される、HMDの面上に露出される、特定な複数の色を照らし出す複数のカラー・シールドまたは材料の下に配置される、及び/または検出可能性を向上させる、追跡を向上させるために(例えば、傾き、回転、偏揺及び奥行を特定するために)、特定な形状に配置される。種々の実施例におけるHMDは、種々の位置に種々のイルミネーション・オブジェクトを含んでもよい。その場合のHMDは、正面、側面及び背面から追跡が可能である。一つの実施形態におけるイルミネーション・オブジェクトは、HMDのヘッド・バンドへ追加されてもよい。そのようなイルミネーション・オブジェクトは、ヘッド・バンドの側面に種々の位置で取り付けることができ、ユーザーが移動、回転、円回転などを行っているときの追跡を向上させ得る。
【0065】
一つの実施形態においては、HMD内に、照明ロジックが統合されてもよい。HMDは、イルミネーション・オブジェクトを作動させるために、一つ以上の回路を含んでもよい。単純な構成における照明ロジックは、イルミネーション・オブジェクトを、回路、スイッチ、トリガー、チップ、コントローラ、CPU(中央処理ユニット)、DSP(デジタル信号プロセッサ)、ASIC(特定用途向け集積回路)、及び/またはファームウェア及び/またはソフトウェアへ結合するワイヤーによって定義されてもよい。したがって、イルミネーション・オブジェクトは、イルミネーション・オブジェクトの一つまたはすべてが、点灯する、オンであり続ける、明滅する、コードでオン/オフする、発色する、ゲームの複数のHMDプレイヤーを区別するために複数の特定な色を示す、等の時を制御が可能である。いくつかの実施形態におけるHMDの回路は、画像データを受信して処理するためのロジックを含んでもよい。
【0066】
例えば、コンピュータまたはゲーム・コンソールから受信される画像データは、HMDによって受信し処理してもよい。データ処理は、ビューイング・モジュール上へ画像データを描画することを含んでもよい。ビューイング・モジュールは、HMDを介しての視聴のための画像を描画するスクリーンを含んでもよい。いくつかの実施形態におけるHMDのスクリーンは、二つの別個なスクリーン、例えば、各々の眼に対して一つ、と定義されてもよい。もう一つの実施形態におけるスクリーンは、一つのスクリーンであってもよい。この場合、各々の眼は、光学系を利用して、スクリーン上に焦点を合わせることが可能である。
【0067】
カメラ108は、インタラクティブ環境から音をキャプチャするために、一つ以上のマイクを含んでもよい。マイク・アレイによってキャプチャされた音は、音源の位置を特定するために処理されてもよい。特定位置からの音は、特定位置からではない他の音を排除して、選択的に利用または処理することが可能である。さらに、カメラ108は、マルチプル画像キャプチャ・デバイス(例えば、立体視用の一対のカメラ)、IRカメラ、デプスカメラ及びそれらの組み合わせを含むように定義できる。
【0068】
もう一つの実施形態におけるコンピュータ106は、クラウド・ゲーム・プロバイダ112とネットワークを介して通信するシン・クライアントとして機能する。クラウド・ゲーム・プロバイダ112は、ユーザー102が行うビデオゲームを維持し、実行する。コンピュータ106は、HMD102、コントローラ104及びカメラ108からの入力をクラウド・ゲーム・プロバイダへ送信し、クラウド・ゲーム・プロバイダが、実行中のビデオゲームのゲーム状態に影響を及ぼす入力を処理する。実行中のビデオゲームからの出力、例えば、ビデオ・データ、オーディオ・データ及びハプティック・フィードバック・データは、コンピュータ106へ送信される。コンピュータ106は、そのデータを伝達前にさらに処理してもよいし、あるいはデータを関連デバイスへ直接送信してもよい。例えば、ビデオ及びオーディオ・ストリームはHMD102へ提供されるが、振動フィードバック指令はコントローラ104へ提供される。
【0069】
一つの実施形態におけるHMD102、コントローラ104及びカメラ108は、それら自体が、クラウド・ゲーム・プロバイダ112と通信するためのネットワーク110へ接続するネットワーク・デバイスであってもよい。例えば、コンピュータ106は、ビデオゲーム処理を行わずネットワーク・トラフィックの通過を促進する、ルーター等のローカル・ネットワーク・デバイスであってもよい。HMD102、コントローラ104及びカメラ108によるネットワークへの接続は、有線または無線でもよい。
【0070】
図2は、本発明の実施形態による頭部装着ディスプレイ(HMD)を表す。図示のように、HMD102は複数の発光体200A−Hを含む。これらの発光体の各々は、特定形状を持つように構成されてもよく、また、同じ色または異なる色を持つようにも構成できる。発光体は、また、追跡性を向上させるために、HMD上に特定なパターンで方位を定めて配置してもよい。発光体200A、200B、200C及び200Dは、HMD102の前面上に配置される。発光体200E及び200Fは、HMD102の側面上に配置される。また、発光体200G及び200Hは、HMD102の前面及び側面に架かるようHMD102の角部分に配置される。当然ではあるが、発光体は、ユーザーがHMD102を使用するインタラクティブ環境のキャプチャ画像内で識別可能である。発光体の識別及び追跡に基づき、インタラクティブ環境内のHMD102の位置及び方位は判定可能である。さらに、当然ではあるが、発光体のいくつかは、画像キャプチャ・デバイスに対するHMD102の特定な方位に応じて、視認可能あるいは不可能である。また、発光体の異なる部分(例えば、発光体200G及び200H)が、画像キャプチャ・デバイスに対するHMD102の方位に応じて、画像キャプチャに対して露出され得る。
【0071】
一つの実施形態における発光体は、近傍にいる他者へ、HMDの現在の状態を示すように構成できる。例えば、発光体のいくつかまたはすべてが、HMD102の現在の状態を示す特定な配色、輝度配置で構成されても、点滅するように、あるいは特定のオン/オフ作動構成または他の配置を有するように構成されてもよい。実施例として、発光体は、ビデオゲームの活動的ゲームプレイ(タイムラインが有効な間に、あるいはゲームのシーン内に発生する通常のゲームプレイ)中に対して、メニュー・インターフェイスをナビゲートする、あるいはゲーム設定を構成する(その間、ゲームのタイムラインまたはシーンが、非有効になる、あるいは休止する)等のビデオゲームの他の非活動的ゲームプレイ態様中に、異なる構成を示すように構成できる。発光体は、また、ゲームプレイの相対インテンシティー・レベルを示すように構成されてもよい。例えば、ゲームプレイの激しさが増すに連れ、発光体の輝度または点滅の頻度を上昇させてもよい。このようにすれば、ユーザーではない外部の人は、HMD102上の発光体を見て、ユーザーが激しいゲームプレイに活発に挑んでいる最中で邪魔されたくないであろう、と分かることが可能である。
【0072】
HMD102は、さらに、一つ以上のマイクを含んでもよい。図解実施形態におけるHMD102は、HMD102の前面上に配置されたマイク204A及び204Bと、HMD102の側面上に配置されたマイク204Cを含む。マイクのアレイを利用することによって、音源の位置を測定するために、マイクの各々からの音を処理できる。この情報は、不必要な音源の排除、音源と視覚識別との関連付け等を含む種々の方法に利用できる。
【0073】
HMD102は、一つ以上の画像キャプチャ・デバイスを含んでもよい。図解実施形態におけるHMD102は、画像キャプチャ・デバイス202A及び202Bを含んで図示されている。立体視用の一対の画像キャプチャ・デバイスを利用することによって、環境の三次元(3D)画像及びビデオは、HMD102の視点からの遠近図でキャプチャできる。そのようなビデオは、HMD102を装着しているユーザーに対して、「ビデオ・シースルー」機能を提供するよう、表示させることができる。つまり、厳密な意味においては、ユーザーはHMD102を透過して見ることはできないが、画像キャプチャ・デバイス202A及び202Bによってキャプチャされるビデオは、まるでHMD102を通して見ているかのように、HMD102への外部環境を見ることができることと同等な機能を提供する。そのようなビデオは、拡張現実体験を提供するために、仮想エレメントで強化できる。あるいは、他の様式で仮想エレメントと結合または混合されてもよい。図解実施形態においては、HMD102の前面上に二つのカメラが図示されているが、HMD102上には、任意の数の外側へ向けたカメラを、任意の方向へ向けて設置してもよい。例えば、もう一つの実施形態においては、環境の追加のパノラマ画像キャプチャを提供するために、HMD102の側面上にカメラを取り付けてもよい。
【0074】
図3は、本発明の実施形態によるHMD102の機能を、実行中のビデオゲームと併せて概念的に表している。実行中のビデオゲームは、ビデオゲームのゲーム状態を更新するための入力を受信するゲーム・エンジン320によって定義される。ビデオゲームのゲーム状態は、少なくとも部分的に、現在のゲームプレイの種々の態様を定義するビデオゲームの種々のパラメータ値、例えば、オブジェクトの存在及び位置、仮想環境の条件、イベント・トリガー、ユーザー・プロファイル、視界遠近図などによって、定義できる。
【0075】
図解実施形態におけるゲーム・エンジンは、一例として、コントローラ入力314、オーディオ入力316及びモーション入力318を受信する。コントローラ入力314は、コントローラ104等の、HMD102とは分離したゲーム・コントローラの操作から定義されてもよい。例として、コントローラ入力314は、ゲーム・コントローラの操作から処理される方向入力、ボタン押し、トリガー起動、運動または他の種類の入力を含んでもよい。オーディオ入力316は、HMD102のマイク302から、あるいは画像キャプチャ・デバイス108に含まれるマイクからのものを処理できる。モーション入力218は、HMD102に含まれるモーション・センサ300から、あるいはHMD102の画像をキャプチャする画像キャプチャ・デバイス108からのものを処理できる。ゲーム・エンジン320は入力を受信し、それらの入力は、ビデオゲームのゲーム状態を更新するゲーム・エンジンの構成に従って処理される。ゲーム・エンジン320は、ユーザーに提示されるコンテンツを定義するためにゲーム状態データを処理する種々のレンダリング・モジュールへ、ゲーム状態データを出力する。
【0076】
図解実施形態においては、ビデオ・レンダリング・モジュール322は、HMD102上に表示されるビデオ・ストリームを描画するよう定義される。ビデオ・ストリームは、ディスプレイまたはプロジェクタ・メカニズム310によって表示され、光学系308を通してユーザーの眼306に見えてもよい。オーディオ・レンダリング・モジュール304は、ユーザーによる聴取のためのオーディオ・ストリームを再生するよう構成される。一つの実施形態におけるオーディオ・ストリームは、HMD102につながったスピーカ304を通して出力される。スピーカ304は、屋外スピーカ、ヘッドホン、あるいは音響を提供可能な他のどの種類のスピーカの形態であってもよいと理解するべきである。
【0077】
一つの実施形態においては、ユーザーの視線の追跡を可能にするために、HMD102内に凝視追跡カメラ312が含まれる。凝視追跡カメラは、ユーザーの眼の画像をキャプチャし、その画像は、ユーザーの凝視方向を判定するために分析される。一つの実施形態においては、ユーザーの凝視方向についての情報は、ビデオ・レンダリングに影響を与えるよう利用される。例えば、ユーザーの眼が特定な方向に向けられていることが判定されたなら、ユーザーが見ている領域に、より多くの細部を提供する、あるいはより速く更新させる等により、その方向に対するビデオ・レンダリングを優先または強調することができる。
【0078】
加えて、触覚フィードバック・モジュール326が、触覚フィードバック・ハードウェアへ信号を提供するよう構成される。このハードウェアは、HMD102、あるいは例えばコントローラ104等のユーザーが操作する他のデバイスのいずれかに含まれる。触覚フィードバックは、種々の種類の触感覚、例えば、振動フィードバック、温度フィードバック、圧力フィードバック等の形態をとってもよい。
【0079】
図4Aは、一つの実施形態による三次元視界をインタラクティブ空間内に表し、ユーザーによるビデオゲームプレイのシーンを示す。この実施例においては、図面4Bに示すように、ユーザーは頭部装着ディスプレイ(HMD)を装着し、コントローラを持っている。一つの実施形態におけるユーザーは、図面4Bに示すように、ユーザーへ向けたカメラでモニターされる。カメラは、モノ・カメラ、あるいは奥行を特定可能な立体カメラである。カメラは、ゲームプレイ中、コントローラ及び頭部装着ディスプレイを特定することが可能である。コントローラ及び頭部装着ディスプレイの識別が、各々の空間位置を特定する。各々の空間位置は、コントローラ及び頭部装着ディスプレイの運動を独立して識別するよう追跡できる。追跡は、カメラでキャプチャした画像を使用して、位置、変位速度及び変位などを特定することを含むことができる。もう一つの実施形態におけるコントローラ及びHMDは、各々、回路を含み、ベース・ステーション・コンピュータへデータを通信可能な慣性センサを含む。慣性センサのデータ(及び他の日付)を含むデータは、位置、変位、変位速度、及び他の6軸タイプのデータ要素を特定するために処理できる。
【0080】
したがって、いくつかの実施形態はカメラを含むが、他の実施形態はカメラを含まない、と理解すべきである。カメラを使用する実施形態においては、図4Aに示すように、ユーザーは、ゲームをしているとき、前方を向いて検出される。ユーザーがコントローラを保持していると、図面4Bに示すように、ユーザーの手は、HMDのスクリーン内に描画される三次元シーン内へ伸びているように見える可能性がある。一つの実施形態においては、実行中のゲームによって生成されるインタラクティブ・コンテンツのシーン内への視点が変化する。一つの実施形態における変化は、頭部装着ディスプレイを装着したユーザーの頭の動きによって提供される位置または視界によって誘導される。
【0081】
視点をインタラクティブ空間内に表すために、ユーザーが見る領域は、3D体積の輪郭を描く破線内に示されている。見えないインタラクティブ・シーン・データは、ユーザーがその特定な領域または方向を見ていないという理由で、図面に破線で示されている。作動中、破線のコンテンツは、ユーザーがその特定な位置または方向へ目を向けるまで、描画されない。しかしながら、ユーザーが、頭部装着ディスプレイのスクリーン内のインタラクティブ・シーンの特定な部分を見られることを明確にするために、破線で図示している。
【0082】
一つの実施形態においては、コントローラを保持しているユーザーの手の位置は、検出可能であり、インタラクティブ・シーン内へまるでユーザーが手を伸ばしているかのように、HMDのスクリーンへ入り込んで表示できる。このことは、図4Aに表されている。そこでは、レース・カー・シーンを描画するビデオゲームにおいて、ユーザーがハンドルを握っている。注意すべきは、HMDの図面がR&DタイプのHMDのみを図示したものであり、商業的実施形態は、よりエルゴノミクスな仕上げの製品として製作されてもよいことである。
【0083】
HMDは、インタラクティブ・シーン内への視界をユーザーに提供できる。図4Bに示すように、ユーザーが保持しているコントローラは、ユーザーがゲームをしていることを表している。このケースでは、挙動、位置、ボタン入力などが追跡されて、コンピュータ・システム上で実行されているゲームへ提供される入力に相関される。下記に説明するが、コンピュータ・システムは、ゲーム・コンソール、独立型コンピュータ、タブレット、スマートフォン、ウェブベースのコンピュータ、クラウド・サーバ、あるいは処理命令が可能な他のいずれかのシステムであってもよい。さらにもう一つの実施形態におけるコントローラ及び/またはHMDは、ネットワークと直接的に通信が可能である。ネットワークは、それから、命令を実行するためのクラウド・システムと通信する。
【0084】
図5Aは、インタラクティブ・シーン内へ追加の視点を露出させるようユーザーが頭を左へ回した実施形態を表す。図5Bは、実世界のユーザーが頭を左へ回した状態を表す。この動作は、頭部装着ディスプレイのスクリーンから見たユーザーの前に、異なる三次元シーンを描画することを誘発した。加えて、図5Bは、コントローラを左へ回すユーザーを表す。左への方向転換は、緩やか、あるいは突然であり得るが、それは、コントローラの慣性センサを使用して検出可能であり得る。この場合、そのようなデータは、処理のためにコンピューティング・デバイスへ送信される。もう一つの実施形態では、コントローラの動きは、異なる空間位置を検出するカメラでモニターできる。異なる空間位置は、カメラで見たコントローラの位置または方位、あるいは位置及び方位を特定することによってモニターできる。
【0085】
図5Aに示すように、図5Bに示すユーザーによるコントローラの左への動きは、仮想シーン内におけるユーザーにハンドルを左へ回転させる。したがって、コントローラでのユーザーの動作は、頭部装着ディスプレイのスクリーンから見られる状態で仮想シーン内に表現可能である。同時に、図5Aに示す仮想シーンへの視点も、頭部装着ディスプレイの検出位置及び方位に基づき変化することになる。頭部装着ディスプレイの位置検出は、発光体、マーカー、赤外線照明、あるいはそれらの組み合わせを識別することによって可能である。
【0086】
他の実施形態においては、頭部装着ディスプレイの空間位置の特定は、頭部装着ディスプレイ内の慣性センサを追跡することによって可能である。さらに他の実施形態においては、カメラは、センサを検出することなく、三次元奥行マッピングを用いて単に頭の位置を検出することによって、頭の位置を追跡可能である。したがって、コントローラの動きと頭部装着ディスプレイの動きが追跡可能であるため、独立した運動位置、変位、移動速度の変化及び他の入力タイプの動きは、追跡可能であり、相互に関連付けることができる。相関関係は、コントローラ及び頭部装着ディスプレイの動きを追跡するマッピング・アルゴリズムによって可能であり、その結果、頭部装着ディスプレイ・スクリーン内に表示される視界は、頭部装着ディスプレイの動き及び移動と、ユーザーが保持しているコントローラによって提供されるインタラクティブ・フィードバックに従って変化可能である。
【0087】
したがって、ユーザーの頭の動きとコントローラでの動作とのマッピングは、図5Bに示す実際の実世界のユーザーの動きと図5Aに示すシーン内への視点とを参照することによって示される。上述のように、一つの実施形態におけるユーザーは、ユーザーによる認識として、インタラクティブ・シーン内へ到達可能である。つまり、ユーザーは、実際にシーン内へ手を延ばし実際のハンドルを保持している視認感覚を受ける。ユーザーには、ユーザーが彼または彼女の手を見ると、ハンドルを保持している仮想の手が描画されている。それから、彼または彼女の手の動きが実質的にマップされ、シーン内の仮想の手の動きへ関連付けられる。一つの実施形態における仮想の手は、拡張現実または仮想現実である。一つの拡張現実視界は、ユーザーの実際の手の画像が、頭部装着ディスプレイ・スクリーンによって提供される視界内で僅かに補強されるものでよい。
【0088】
シーン内へ到達可能なものとして手を説明したが、HMDを介して見ることが可能な体のどの部位をも、ユーザーが3Dシーン内に実際に存在する感覚を提供するようシーン内に描画させてもよい。加えて、ユーザーは、追跡可能な他のコントローラを保持すること、あるいは衣類を身に着けることもできる。これにより、シーン内へ融合させる機能を提供し、現実及び仮想世界の輪郭をぼかすことが可能である。さらに他の実施形態においては、ユーザーは、触覚フィードバックを備えた服または手袋を身に着けることもできる。それにより、仮想シーン内における動作が、実世界へ変換される。ユーザーが仮想シーン内へ手を伸ばせば、ユーザーは仮想キャラクタと握手ができる。握手の体感は、触覚フィードバックを使用して、手袋へシミュレーションできる。
【0089】
図6A及び6Bは、ユーザーが頭を右へ回し、コントローラをも右へ向けた実施例を表す。図6Aで、ユーザーの仮想の手は、レース・カーのハンドルを右へ回転させるように見える。頭部装着ディスプレイのスクリーン内に提供される三次元空間内へ表示される画像は、ユーザーがコントローラを右へ回転させた結果としての変化を表す。同時に、ユーザーは、彼の頭を僅かに右へ回転させている。これは、ハンドルを右へ回転させるときに実生活で起こる典型的に自然な動作である。したがって、この実世界の動作は、頭部装着ディスプレイ・スクリーン内に描画される仮想環境内に同じ動作をもたらす。
【0090】
図6Aは、右へ回転されたハンドルと、右へ転移した仮想シーン内への視点を示す。上述のように、三次元空間内への視点の外側の破線は、ユーザーが現在見ている範囲を越えて追加の仮想環境が存在することを、単に図解するものである。一つの実施形態におけるユーザーが現在見ている領域を越えた範囲は、現在の仮想視点に関しての自然な延長である。つまり、ユーザーがレース・カー内で真っ直ぐ前方を見ている場合、ユーザーは、頭を左へ向ければ、レース・カーの左側ウィンドウの外を実際に見ることができる。スタンド内のレース・カーの左側に観客(またはオブジェクト)が立っているなら、レース・カーが通り過ぎるときにユーザーが頭を左へ向ければ、その観客は視界に入ってくることになる。
【0091】
図7A及び7Bは、もう一つの実施例を表す。この場合のコントローラは、異なるタイプのコントローラである。コントローラのタイプは、MOVE(商標)コントローラであり、ソニー・コンピュータ・エンターテインメント社が製作したものである。このコントローラは、ハンドルと、追跡のために発光する球状オブジェクトを持つ。コントローラは、また、慣性センサと、ベース・コンピュータへ情報を送信するための他のボタンを含む。一つの実施形態におけるカメラは、コントローラを6軸(例えば、X、Y、Z、ピッチ、回転、偏揺)で追跡可能である。カメラは、また、頭部装着ディスプレイをも同時に追跡できる。もう一つの実施形態における頭部装着ディスプレイは、他の追跡機能を使用して追跡できる。慣性センサ、赤外線カメラ照明、音、ボタンによるデータ入力または運動などを利用することによって、他の追跡機能を含むことができる。
【0092】
図7A及び7Bに示す実施形態におけるユーザーは、図7Aにおいて剣として表現される図7Bに示すコントローラを動かしている。ユーザーは、ゲームのキャラクタまたは対象と相互作用している。この場合のコントローラの動きは、ゲームに参加している仮想キャラクタの動きに対して追跡される。コントローラの位置と頭部装着ディスプレイの位置(及び関連運動)は、仮想シーン内へ視点を提供するために追跡される。この実施例においては、頭部装着ディスプレイを使用してゲームを行っているユーザーには、コントローラを保持しているユーザーが、仮想ゲーム内の仮想オブジェクト(例えば、剣)として現れることになる。しかし、図示のように、ユーザーの腕は、まるでユーザーが、ユーザーの真ん前にある3D空間内へ伸ばしているかのように見える。コントローラの動きは、ゲーム内の仮想オブジェクトの動きに対してマッピングされて関連付けられる。
【0093】
図8A及び8Bにおけるユーザーは、コントローラを同じ位置に維持して頭を左へ動かしている。ユーザーの頭の動きは、実行中のゲームによって生成されるシーン内へ新しい視点を露出させる。ユーザーの左への頭の動きは、ゲーム内に、ゲーム・エレメントがまるで現実の三次元エレメントであるかのように追加のインタラクティブ・シーン・エレメントを現す新しい視点を露出させる。
【0094】
図9A及び9Bは、再度、頭を右へ、コントローラを僅かに右へ動かしているユーザーを示す。これは、頭部装着ディスプレイのスクリーン内に表示されるインタラクティブ・シーン内へ新しい視界を現す。一つの実施形態においては、コントローラでのユーザーのアクションのマッピングは、頭部装着ディスプレイの位置情報を利用してシーン内への視点を調整しながら、ゲームプレイのインタラクティブ性を作動させることを支援する。
【0095】
図10は、ソファーに座ってコントローラを保持し、頭部装着ディスプレイを装着した実世界のプレイヤーの例を表す。
【0096】
図11は、立ってゲームをしているプレイヤーを表す。プレイヤーの頭及びコントローラの動きは、追跡されて、インタラクティブ三次元環境のシーン内への視点の変化に伝達される。
【0097】
一つの実施形態におけるコントローラは、カメラで視認可能な一つ以上の発光体を含むことができる。発光体は、カメラがコントローラの方位を検出可能な形状に配置できる。発光体は、水平照明バーの形状に、あるいは複数の発光体として設けることができる。発光体は、カメラで識別可能な、種々の色を備えることもできる。色は、プレイヤー番号に関する情報を提供できる、あるいは種々の環境条件にあるコントローラを特定できる。
【0098】
環境条件は、例えば、ユーザーがゲームをしている部屋の照明を含むことができる。もう一つの実施形態における条件は、プレイヤーがプレイしている空間内の背景色を決定することを含んでもよい。背景色に基づき、適切な色をコントローラ発光体の色に選択できる。例えば、背景が主に赤色ならば、追跡を向上させる検出性または識別性を提供するよう、コントローラには赤以外の色が選択される。さらに別の実施形態における色は、所定のリストの色から選択できる。この場合の選択色は、背景に対する特徴的閾値を超えるものである。さらにもう一つの実施形態におけるコントローラに対する色選択は、背景シーン内で最も(または極めて)目立たないものであってもよい。コントローラに対する色の選択は、時々、補正中、ゲームプレイ中、ゲーム内の特定なシーン中、ゲーム内の特定なアクション・シーケンス中、マルチプレイヤー・ゲーム環境における他のユーザーとのコミュニケーションのために、またはボタンを選択することによるユーザーのコントロール時に、または所定のアルゴリズム、状況、ルール、またはルールと状況との組み合わせに基づくコンピューティング・デバイスのコントロール時に調節可能である。
【0099】
図12は、本発明の実施形態による頭部装着ディスプレイ102の構成要素を示している。頭部装着ディスプレイ102は、プログラム命令を実行するためのプロセッサ1300を含む。メモリ1302は、記憶の目的で備えられ、揮発性及び不揮発性メモリの両方を含んでもよい。ディスプレイ1304は、ユーザーが見る視覚的インターフェイスを提供するよう含まれる。バッテリ1306は、頭部装着ディスプレイ102のための電源として提供される。モーション検知モジュール1308は、磁力計1310、加速度計1312及びジャイロスコープ1314等の、種々のタイプの運動感知ハードウェアのいずれを含んでもよい。
【0100】
加速度計は、加速度及び重力誘発反力を測定するデバイスである。異なる方向における加速の大きさ及び方向を検出するために、単軸及び複数軸モデルが利用できる。加速度計は、傾き、振動及びショックを感知するために使用される。一つの実施形態においては、重力の方向を提供するために、三つの加速度計1312が使用される。これらは、二つの角度(世界空間ピッチ及び世界空間回転)に対する絶対的基準を提供する。
【0101】
磁力計は、頭部装着ディスプレイの近くの磁場の強度及び方向を測る。一つの実施形態における頭部装着ディスプレイ内には、世界空間偏揺角に対する絶対的基準を確実にするために、三つの磁力計1310が使用される。一つの実施形態における磁力計は、地磁界を測定するように設計される。地磁界は、±80マイクロテスラである。磁力計は、金属の影響を受け、実際の偏揺で単調な偏揺測定値を提供する。磁場は、環境内の金属に起因して曲げられ、偏揺測定値にゆがみを引き起こす。必要に応じて、このゆがみは、ジャイロスコープまたはカメラ等の他のセンサからの情報を利用して、較正することができる。一つの実施形態においては、頭部装着ディスプレイ102の傾斜角及び方位角を取得するために、磁力計1310と共に加速度計1312が使用される。
【0102】
ジャイロスコープは、角運動量の原理に基づき、方位を測定する、あるいは維持するデバイスである。一つの実施形態においては、三つのジャイロスコープ1314が、慣性感知に基づき、各軸(x、y及びz)を横切る運動に関する情報を提供する。ジャイロスコープは、急速な回転を検出する支援となる。しかし、絶対的基準が存在しない場合、ジャイロスコープは、時間経過に伴い漂流する可能性がある。このため、定期的にジャイロスコープをリセットする必要がある。これは、オブジェクトの視覚的追跡、加速度計、磁力計などに基づく位置/方位測定等の、他の入手可能な情報を利用して行うことが可能である。
【0103】
現実の環境の画像及び画像ストリームをキャプチャするために、カメラ1316が設けられる。頭部装着ディスプレイ102には、(ユーザーが頭部装着ディスプレイ102のディスプレイを見ているときにユーザーから離れる方向へ向く)後方へ向けたカメラ、及び(ユーザーが頭部装着ディスプレイ102のディスプレイを見ているときにユーザーへ向く)前方へ向けたカメラを含む複数のカメラが設けられてもよい。加えて、現実の環境内のオブジェクトの深さ情報を検知するために、頭部装着ディスプレイ102には、デプスカメラ1318が含まれてもよい。
【0104】
頭部装着ディスプレイ102は、オーディオ出力を提供するためにスピーカ1320を含む。また、周囲環境、ユーザーが話す言葉などからの音を含む現実の環境からのオーディオをキャプチャするために、マイク1322が含まれてもよい。頭部装着ディスプレイ102は、ユーザーへ触覚フィードバックを提供するために、触覚フィードバック・モジュール1324を含む。一つの実施形態における触覚フィードバック・モジュール1324は、触覚フィードバックをユーザーに提供するために、頭部装着ディスプレイ102の運動及び/または振動を引き起こすことが可能である。
【0105】
頭部装着ディスプレイ102の状態の視覚インジケータとして、LED1326が備えられる。例えば、LEDは、バッテリ・レベル、電源オン等を示してもよい。頭部装着ディスプレイ102が情報をメモリカードから読み、メモリカードへ書き込むことが可能なようカードリーダ1328が設けられている。他の携帯機器、コンピュータ等の、周辺デバイスの接続、あるいは他のデバイスへの接続を可能にするインターフェイスの一つの実施例として、USBインターフェイス1330が含まれる。頭部装着ディスプレイ102の種々の実施形態においては、頭部装着ディスプレイ102の接続性を拡張可能にする種々のタイプのインターフェイスのいずれが含まれてもよい。
【0106】
無線ネットワーク技術を介してインターネットへの接続を可能にするために、WiFi(登録商標)モジュール1332が含まれる。また、頭部装着ディスプレイ102は、他のデバイスへの無線接続を可能にするために、ブルートゥース(登録商標)・モジュール1334をも含む。他のデバイスへの接続のために、通信リンク1336が含まれてもよい。一つの実施形態における通信リンク1336は、無線通信のために赤外線伝送を利用する。他の実施形態における通信リンク1336は、他のデバイスとの通信のために、種々の無線または有線伝送プロトコルのいずれを利用してもよい。
【0107】
ユーザーに対して入力インターフェイスを提供するために、入力ボタン/センサ1338が含まれる。ボタン、タッチパッド、ジョイスティック、トラックボール等の、種々のタイプの入力インターフェイスのいずれが含まれてもよい。超音波技術を介して他のデバイスとの通信を促進するために、頭部装着ディスプレイ102内に超音波通信モジュール1340が含まれてもよい。
【0108】
ユーザーからの生理的データの探知を可能にするために、バイオセンサ1342が含まれる。一つの実施形態におけるバイオセンサ1342は、ユーザーの皮膚を通してユーザーの生体電気信号を検出するために、一つ以上の乾性電極を含む。
【0109】
頭部装着ディスプレイ102の前述の構成要素は、単に、頭部装着ディスプレイ102に含まれてもよい模範的な構成要素として説明した。本発明の種々の実施形態における頭部装着ディスプレイ102は、前述の種々の構成要素のいくつかを含んでもよいし、含まなくてもよい。頭部装着ディスプレイ102の実施形態は、本明細書で説明する発明の態様を促進する目的で、本明細書に記載されていないが本技術において既知である他の構成要素をさらに含んでもよい。
【0110】
当業技術者には明らかであるが、本発明の種々の実施形態においては、前述の手で保持するデバイスは、種々のインタラクティブ機能を提供するために、ディスプレイ上に表示されるインタラクティブ・アプリケーションと併せて利用されてもよい。本明細書で説明する模範的な実施形態は、例示としてのみ提供されるもので、制限するものではない。
【0111】
図13は、本発明の種々の実施形態によるゲーム・システム1400のブロック図である。ゲーム・システム1400は、ネットワーク1415を介して一つ以上のクライアント1410へビデオ・ストリームを提供するように構成される。ゲーム・システム1400は、典型的に、ビデオ・サーバ・システム1420とオプションのゲーム・サーバ1425を含む。ビデオ・サーバ・システム1420は、最小サービス品質で一つ以上のクライアント1410へビデオ・ストリームを提供するように構成される。例えば、ビデオ・サーバ・システム1420は、ビデオゲーム内の状態または視点を変化させるゲーム・コマンドを受信し、クライアント1410に、最小遅延時間で、この状態変化を反映する更新ビデオ・ストリームを提供してもよい。ビデオ・サーバ・システム1420は、未だに定義されていないフォーマットを含む多種多様な代替ビデオ・フォーマットでビデオ・ストリームを提供するように構成されてもよい。さらに、ビデオ・ストリームは、多種多様なフレーム率でユーザーへプレゼンテーションされるよう構成されたビデオ・フレームを含んでもよい。典型的フレーム率は、毎秒30コマ、毎秒60コマ及び毎秒1420コマである。本発明の代替的な実施例には、より高い、あるいはより低いフレーム率が含まれる。
【0112】
本明細書で1410A、1410B等と個々に言及されるクライアント1410は、頭部装着ディスプレイ、端末、パーソナル・コンピュータ、ゲーム・コンソール、タブレット型コンピュータ、電話機、セット・トップ・ボックス、キオスク、無線デバイス、デジタル・パッド、独立型デバイス、携帯型ゲーム機及び/または同等のものを含んでもよい。典型的に、クライアント1410は、符号化ビデオ・ストリームを受信し、ビデオ・ストリームを復号化し、ユーザー、例えば、ゲームのプレイヤーへ、復号化後のビデオを提示するよう構成される。符号化ビデオ・ストリームを受信し及び/またはビデオ・ストリームを復号化するプロセスは、典型的に、クライアントの受信バッファ内に個々のビデオ・フレームを保存することを含む。ビデオ・ストリームは、ユーザーへ、クライアント1410へ統合されたディスプレイ上に、あるいはモニターまたはテレビジョン等の別個のデバイス上に提示されてもよい。クライアント1410は、オプションとして、複数のゲーム・プレイヤーをサポートするように構成される。例えば、ゲーム・コンソールは、同時に二人、三人、四人以上のプレイヤーをサポートするように構成されてもよい。これらのプレイヤーの各人は、別個のビデオ・ストリームを受信してもよい。または、単一のビデオ・ストリームが、各プレイヤーに対して特別に生成された、例えば、各プレイヤーの視点に基づいて生成されたフレームの領域を含んでもよい。クライアント1410は、オプションとして、地理的に分散される。ゲーム・システム1400に含まれるクライアントの数は、1または2から数千、数万、あるいはそれ以上と、広範囲に変化してもよい。本明細書で使用する用語「ゲーム・プレイヤー」は、ゲームを行う人を指し、用語「ゲームプレイ・デバイス」は、ゲームを行うために使用されるデバイスを指す。いくつかの実施形態におけるゲームプレイ・デバイスは、ユーザーへゲーム体験を提供するために共作用する複数のコンピューティング・デバイスを指してもよい。例えば、ゲーム・コンソール及びHMDは、HMDを介して表示されるゲームを提供するために、ビデオ・サーバ・システム1420と共作用してもよい。一つの実施形態におけるゲーム・コンソールは、ビデオ・サーバ・システム1420からビデオ・ストリームを受信する。ゲーム・コンソールは、描画のためのHMDへ、ビデオ・ストリームを転送する、あるいはビデオ・ストリームを更新する。
【0113】
クライアント1410は、ネットワーク1415を介してビデオ・ストリームを受信するように構成される。ネットワーク1415は、任意の通信網でもよい。電話機回路網、インターネット、無線ネットワーク、電力線ネットワーク、ローカル・エリア・ネットワーク、広域ネットワーク、構内ネットワーク及び/または同等のものを含む。典型的実施形態におけるビデオ・ストリームは、例えばTCP/IPまたはUDP/IP等の標準プロトコルで通信される。択一的に、ビデオ・ストリームは、専用規格を介して通信される。
【0114】
クライアント1410の典型的実施例は、プロセッサ、不揮発性メモリ、ディスプレイ、復号化ロジック、ネットワーク通信機能及び入力デバイスからなるパーソナル・コンピュータである。復号化ロジックは、ハードウェア、ファームウェア、及び/またはコンピュータ可読媒体に保存されたソフトウェアを含んでもよい。ビデオ・ストリームを復号化(及び符号化)するシステムは、本技術において周知であり、使用する特定な符号化体系に応じて異なる。
【0115】
クライアント1410は、必須ではないが、さらに、受信ビデオを修正するよう構成されたシステムを含んでもよい。例えば、クライアントは、更なるレンダリングを実行する、一つのビデオ画像をもう一つのビデオ画像上に重ねる、ビデオ画像をトリミングする及び/または同等の作業が可能なよう構成されてもよい。例えば、クライアント1410は、I−フレーム、P−フレーム及びB−フレーム等の、種々のタイプのビデオ・フレームを受信し、これらのフレームをユーザーへの表示のための画像へ処理するよう構成されてもよい。いくつかの実施形態においては、クライアント1410のメンバーは、ビデオ・ストリームに対する更なるレンダリング、陰影付け、三次元への変換などの操作を実行するよう構成される。クライアント1410のメンバーは、オプションとして、複数のオーディオまたはビデオ・ストリームを受信するように構成される。クライアント1410の入力デバイスは、例えば、片手ゲーム・コントローラ、両手ゲーム・コントローラ、ジェスチャー認識システム、凝視認識システム、音声認識システム、キーボード、ジョイスティック、ポインティングデバイス、フォースフィードバック・デバイス、運動及び/または位置検知デバイス、マウス、タッチスクリーン、神経インターフェイス、カメラ、未開発の入力デバイス及び/または同等のものを含んでもよい。
【0116】
クライアント1410が受信するビデオ・ストリーム(及び、オプションとしてオーディオ・ストリーム)は、ビデオ・サーバ・システム1420によって生成されて提供される。さらに本明細書の他の箇所で説明するように、このビデオ・ストリームはビデオ・フレームを含む(及び、オーディオ・ストリームはオーディオ・フレームを含む)。ビデオ・フレームは、ユーザーへ表示される画像に意味のある貢献をするよう(例えば、適切なデータ構造内にピクセル情報を含むよう)構成される。本明細書で使用する用語「ビデオ・フレーム」は、ユーザーへ表示される画像に、例えば影響を与え、貢献するように構成される情報を主に含むフレームを指す。「ビデオ・フレーム」に関する本明細書の教示の大部分は、「オーディオ・フレーム」にも適用できる。
【0117】
クライアント1410は、典型的に、ユーザーからの入力を受信するように構成される。これらの入力は、ビデオゲームの状態を変化させる、あるいは別の場合ではゲームプレイに影響を及ぼすように構成されたゲーム・コマンドを含んでもよい。ゲーム・コマンドは、入力デバイスを使用して受信できる、及び/または、クライアント1410上で実行中の命令を演算処理することによって自動的に生成されてもよい。受信ゲーム・コマンドは、ネットワーク1415を介して、クライアント1410からビデオ・サーバ・システム1420及び/またはゲーム・サーバ1425へ通信される。例えば、いくつかの実施形態におけるゲーム・コマンドは、ビデオ・サーバ・システム1420を介してゲーム・サーバ1425へ通信される。いくつかの実施形態においては、ゲーム・コマンドの別個のコピーが、クライアント1410から、ゲーム・サーバ1425とビデオ・サーバ・システム1420へ通信される。ゲーム・コマンドの通信は、オプションとして、コマンドの独自性に依存する。ゲーム・コマンドは、オプションとして、クライアント1410Aから、クライアント1410Aへオーディオまたはビデオ・ストリームを提供するために使用されるチャネルとは異なる経路または通信チャネルを介して通信される。
【0118】
ゲーム・サーバ1425は、オプションとして、ビデオ・サーバ・システム1420とは異なる実体によって作動させる。例えば、ゲーム・サーバ1425は、マルチプレイヤー・ゲームの発行者によって操作されてもよい。この実施例においては、ビデオ・サーバ・システム1420は、オプションとして、ゲーム・サーバ1425によってクライアントとして認識される。また、オプションとして、ゲーム・サーバ1425の視点から、従来技術によるゲーム・エンジンを実行している従来技術のクライアントに認識されるように構成される。ビデオ・サーバ・システム1420とゲーム・サーバ1425との間の通信は、オプションとして、ネットワーク1415を介して行われる。そのように、ゲーム・サーバ1425は、ゲーム状態情報を複数のクライアントへ送信する従来技術によるマルチプレイヤー・ゲーム・サーバであってもよい。それらクライアントの一つが、ゲーム・サーバ・システム1420である。ビデオ・サーバ・システム1420は、同時にゲーム・サーバ1425の複数の実例と通信するように構成されていてもよい。例えば、ビデオ・サーバ・システム1420は、異なるユーザーへ複数の異なるビデオゲームを提供するように構成できる。これらの異なるビデオゲームの各々は、異なるゲーム・サーバ1425によってサポートされ、及び/または異なる実体によって公開されてもよい。いくつかの実施形態においては、ビデオ・サーバ・システム1420の地理的に分布する複数の実体が、複数の異なるユーザーへゲーム・ビデオを提供するように構成される。ビデオ・サーバ・システム1420のこれらの実体の各々は、ゲーム・サーバ1425の同等な実体と通信する状態にあってもよい。ビデオ・サーバ・システム1420と一つ以上のゲーム・サーバ1425との間の通信は、オプションとして、専用通信チャネルを介して行われる。例えば、ビデオ・サーバ・システム1420は、これらの二つのシステム間での通信専用高帯域チャネルを介して、ゲーム・サーバ1425へ結合されてもよい。
【0119】
ビデオ・サーバ・システム1420は、少なくとも、ビデオ・ソース1430、入出力デバイス1445、プロセッサ1450と非一時的ストレージ1455からなる。ビデオ・サーバ・システム1420は、一つのコンピューティング・デバイスを含んでも、あるいは複数のコンピューティング・デバイス間に分布されてもよい。これらのコンピューティング・デバイスは、オプションとして、ローカル・エリア・ネットワーク等の通信システムを介して結合される。
【0120】
ビデオ・ソース1430は、例えば、ストリーミング・ビデオ、あるいは動画を形成する一連のビデオ・フレーム等の、ビデオ・ストリームを提供するように構成される。いくつかの実施形態におけるビデオ・ソース1430は、ビデオゲーム・エンジン及びレンダリング・ロジックを含む。ビデオゲーム・エンジンは、プレイヤーからゲーム・コマンドを受信し、受信コマンドに基づきビデオゲームの状態のコピーを維持するよう構成される。このゲーム状態は、ゲーム環境内のオブジェクトの位置と典型的に視点を含む。ゲーム状態は、また、オブジェクトの特性、画像、色及び/またはテクスチャを含んでもよい。
【0121】
ゲーム状態は、典型的に、ゲーム・ルールと、移動、回転、攻撃、焦点設定、インタラクション、使用及び/または同等のものなどのゲーム・コマンドに基づいて維持される。ゲーム・エンジンの一部は、オプションとして、ゲーム・サーバ1425内に配置される。ゲーム・サーバ1425は、地理的に分散されたクライアントを使用している複数のプレイヤーから受信されるゲーム・コマンドに基づくゲーム状態のコピーを維持してもよい。これらのケースにおけるゲーム状態は、ゲーム・サーバ1425によってビデオ・ソース1430へ提供され、そこにゲーム状態のコピーが保存され、レンダリングが実行される。ゲーム・サーバ1425は、ネットワーク1415を介してクライアント1410から直接的にゲーム・コマンドを受信してもよい、及び/または、ビデオ・サーバ・システム1420を介してゲーム・コマンドを受信してもよい。
【0122】
ビデオ・ソース1430は、典型的に、レンダリング・ロジック、例えば、ハードウェア、ファームウェア、及び/またはストレージ1455等のコンピュータ可読媒体に保存されたソフトウェアを含む。このレンダリング・ロジックは、ゲーム状態に基づき、ビデオ・ストリームのビデオ・フレームを作成するように構成される。レンダリング・ロジックのすべてまたは一部は、オプションとして、グラフィック処理装置(GPU)内に配置される。レンダリング・ロジックは、典型的に、ゲーム状態及び視点に基づき、オブジェクト間の三次元空間関係を決定するよう、及び/または適切なテクスチャ等を適用するよう構成された処理ステージを含む。レンダリング・ロジックは、生ビデオを生成する。生ビデオは、通常、クライアント1410への通信の前に符号化される。例えば、生ビデオは、アドビ・フラッシュ(商標)規格、.wav、H.264、H.263、On2、VP6、VC−1、WMA、Huffyuv、Lagarith、MPG−x.Xvid.FFmpeg、x264、VP6−8、リアルビデオ、mp3等に従って符号化されてもよい。符号化処理は、ビデオ・ストリームを生成する。ビデオ・ストリームは、オプションとして、遠隔デバイス上のデコーダへの送達のためにパッケージ化される。ビデオ・ストリームは、フレーム・サイズ及びフレーム率によって特徴づけられる。他の任意のフレーム・サイズを使用してもよいが、典型的フレーム・サイズは、800x600、1280x720(例えば、720p)、1024x768を含む。フレーム率は、秒単位のビデオ・フレーム数である。ビデオ・ストリームは、異なるタイプのビデオ・フレームを含んでもよい。例えば、H.264規格は、「P」フレーム及び「I」フレームを含む。I−フレームは、ディスプレイ・デバイス上のすべてのマクロ・ブロック/ピクセルをリフレッシュする情報を含むが、P−フレームは、それらのサブセットをリフレッシュする情報を含む。P−フレームは、典型的に、データ・サイズがI−フレームよりも小さい。本明細書で使用する用語「フレーム・サイズ」は、フレーム内のピクセル数を指す。用語「フレーム・データ・サイズ」は、フレームを保存するために必要なバイト数を指す。
【0123】
代替実施形態におけるビデオ・ソース1430は、カメラ等のビデオ記録デバイスを含む。このカメラは、コンピュータ・ゲームのビデオ・ストリーム内に含むことが可能な遅延ビデオまたはライブ・ビデオを生成するために使用されてもよい。結果として生じるビデオ・ストリームは、オプションとして、描画画像と、スチルまたはビデオ・カメラを使用して記録される画像を含む。ビデオ・ソース1430は、また、ビデオ・ストリームに含まれる以前に記録されたビデオを保存するように構成された記憶デバイスを含んでもよい。ビデオ・ソース1430は、オブジェクト、例えば、人の運動または位置を検出するように構成された運動または位置感知デバイス、及びゲーム状態を判定するよう、あるいは検出された運動及び/または配置に基づくビデオを生成するように構成されたロジックを含んでもよい。
【0124】
ビデオ・ソース1430は、オプションとして、他のビデオ上に配置されるように構成されたオーバレイを提供するように構成される。例えば、これらのオーバレイは、コマンド・インターフェイス、ログイン・コマンド、ゲーム・プレイヤーへのメッセージ、他のゲーム・プレイヤーの画像、他のゲーム・プレイヤーのビデオ・フィード(例えば、ウェブカム・ビデオ)を含んでもよい。タッチスクリーン・インターフェイスまたは凝視検出インターフェイスを含むクライアント1410Aの実施形態におけるオーバレイは、仮想キーボード、ジョイスティック、タッチパッド及び/または同等のものを含んでもよい。オーバレイの一つの実施例においては、プレイヤーの音声が、オーディオ・ストリーム上に重ねられる。ビデオ・ソース1430は、オプションとして、さらに一つ以上のオーディオ・ソースを含む。
【0125】
ビデオ・サーバ・システム1420が、複数のプレイヤーからの入力に基づきゲーム状態を維持するように構成される実施形態においては、各プレイヤーが、視界の位置及び方向からなる異なる視点を持ってもよい。ビデオ・ソース1430は、オプションとして、各プレイヤーに対して、彼らの視点に基づき別個のビデオ・ストリームを提供するように構成される。さらに、ビデオ・ソース1430は、異なるフレーム・サイズ、フレーム・データ・サイズ、及び/またはクライアント1410の各々への符号化を提供するように構成されてもよい。ビデオ・ソース1430は、オプションとして、三次元ビデオを提供するように構成される。
【0126】
入出力デバイス1445は、ビデオ・サーバ・システム1420のために、ビデオ、コマンド、情報要求、ゲーム状態、凝視情報、デバイス運動、デバイス位置、ユーザーの運動、クライアントの識別、プレイヤーの識別、ゲーム・コマンド、セキュリティ情報、オーディオ及び/または同等のものの情報を送信及び/または受信するように構成される。入出力デバイス1445は、典型的に、ネットワーク・カードまたはモデム等の通信ハードウェアを含む。入出力デバイス1445は、ゲーム・サーバ1425、ネットワーク1415及び/またはクライアント1410と通信するように構成される。
【0127】
プロセッサ1450は、ロジック、例えば、本明細書で考察するビデオ・サーバ・システム1420の種々の構成要素内に含まれるソフトウェアを実行するように構成される。例えば、プロセッサ1450は、ビデオ・ソース1430、ゲーム・サーバ1425及び/またはクライアント・クォリファイア1460の機能を実行するために、ソフトウェア命令でプログラムされてもよい。ビデオ・サーバ・システム1420は、オプションとして、プロセッサ1450の複数の実体を含む。プロセッサ1450は、ビデオ・サーバ・システム1420によって受信されたコマンドを実行するために、あるいは本明細書で考察するゲーム・システム1400の種々のエレメントの作動を調整するために、ソフトウェア命令でプログラムされてもよい。プロセッサ1450は、一つ以上のハードウェア・デバイスを含んでもよい。プロセッサ1450は電子プロセッサである。
【0128】
ストレージ1455は、非一時的アナログ及び/またはデジタル記憶デバイスを含む。例えば、ストレージ1455は、ビデオ・フレームを保存するように構成されたアナログ記憶デバイスを含んでもよい。ストレージ1455は、コンピュータ可読デジタル・ストレージ、例えば、ハードディスク、光ドライブまたはソリッドステート・ストレージを含んでもよい。ストレージ1415は、ビデオ・フレーム、人工フレーム、ビデオ・フレーム及び人工フレームの両方を含むビデオ・ストリーム、オーディオ・フレーム、オーディオ・ストリーム及び/または同等のものを保存するように(例えば、適切なデータ構造またはファイル・システムとして)構成される。ストレージ1455は、オプションとして、複数のデバイス間に分散される。いくつかの実施形態におけるストレージ1455は、本明細書の他の箇所で考察するビデオ・ソース1430のソフトウェア・コンポーネントを保存するように構成される。これらのコンポーネントは、必要に応じて供給される準備が整ったフォーマットで記憶されてもよい。
【0129】
ビデオ・サーバ・システム1420は、オプションとして、さらにクライアント・クォリファイア1460からなる。クライアント・クォリファイア1460は、クライアント1410Aまたは1410B等のクライアントの機能を遠隔で判定するように構成される。これらの機能は、クライアント1410Aそのものの機能と、クライアント1410A及びビデオ・サーバ・システム1420間の一つ以上の通信チャネルの機能との両方を含むことができる。例えば、クライアント・クォリファイア1460は、ネットワーク1415を介して通信チャネルをテストするように構成されてもよい。
【0130】
クライアント・クォリファイア1460は、クライアント1410Aの機能を手動で、あるいは自動的に判定する(例えば、発見する)ことができる。手動判定は、クライアント1410Aのユーザーと通信し、ユーザーが機能を提供するよう依頼することを含む。例えば、いくつかの実施形態におけるクライアント・クォリファイア1460は、クライアント1410Aのブラウザ内に画像、テキスト及び/または同等のものを表示するように構成される。一つの実施形態におけるクライアント1410Aは、ブラウザを含むHMDである。もう一つの実施形態におけるクライアント1410Aは、ブラウザを持つゲーム・コンソールであり、ブラウザは、HMD上に表示されてもよい。それら表示オブジェクトは、ユーザーが、クライアント1410Aに関するオペレーティング・システム、プロセッサ、ビデオ・デコーダ・タイプ、ネットワーク接続タイプ、ディスプレイ解像度などの情報を入力するよう要求する。ユーザーによって入力された情報は、クライアント・クォリファイア1460へ送信される。
【0131】
自動判定は、例えば、クライアント1410A上のエージェントを実行することによって、及び/またはテスト・ビデオをクライアント1410Aへ送信することによって行ってもよい。エージェントは、ウェブページに埋められた、あるいはアドオンとしてインストールされたジャバ・スクリプト等の命令を演算処理するよう構成してもよい。エージェントは、オプションとして、クライアント・クォリファイア1460によって提供される。種々の実施形態におけるエージェントは、クライアント1410Aの処理能力、クライアント1410Aの復号化及び表示機能、クライアント1410A及びビデオ・サーバ・システム1420間の通信チャネルの遅延時間信頼性及びバンド幅、クライアント1410Aのディスプレイ・タイプ、クライアント1410A上に存在するファイアウォール、クライアント1410Aのハードウェア、クライアント1410A上で実行中のソフトウェア、クライアント1410A内のレジストリ・エントリ等を検出可能である。
【0132】
クライアント・クォリファイア1460は、ハードウェア、ファームウェア及び/またはコンピュータ可読媒体に保存されたソフトウェアを含む。クライアント・クォリファイア1460は、オプションとして、ビデオ・サーバ・システム1420の一つ以上の他のエレメントから分離したコンピューティング・デバイス上に配置される。例えば、いくつかの実施形態におけるクライアント・クォリファイア1460は、クライアント1410とビデオ・サーバ・システム1420の複数の実体との間の通信チャネルの特性を判定するように構成される。これらの実施形態におけるクライアント・クォリファイアによって発見された情報は、クライアント1410の一つへストリーミング・ビデオを送達するのに、ビデオ・サーバ・システム1420のどの実体が最適なのかを判定するために使用できる。
【0133】
理解すべきことは、本明細書に定義する種々の実施形態が、本明細書に開示の種々の特徴を用いて特定な実施例へ結合または組み立てられてもよいことである。したがって、開示の実施例は、種々の実施に対する制限ではなく、単に可能ないくつかの実施例であり、種々のエレメントを結合させて、より多くの実施を定義することは可能である。いくつかの実施例は、開示の実施例、あるいは同等な実施例の趣旨を逸脱しない範囲で、より少ないエレメントを含んでもよい。
【0134】
本発明の実施形態は、携帯用デバイス、マイクロプロセッサ・システム、マイクロプロセッサに基づくまたはプログラム可能な家電、ミニコンピュータ、メインフレーム・コンピュータ等を含む種々のコンピュータ・システム構成で実践されてもよい。本発明は、有線または無線ネットワークを介してリンクされた遠隔処理デバイスによってタスクが実行される分散コンピューティング環境内で実践することもできる。
【0135】
上記の実施形態に関して理解すべきことは、本発明が、コンピュータ・システム内に記憶されたデータを伴うコンピュータによる種々の演算処理を利用できることである。これらの演算処理は、物理量の物理的操作を必要とするものである。本発明の一部を形成する本明細書で説明の演算処理のいずれもが、有用な機械処理である。本発明は、また、これらの演算処理を実行するためのデバイスまたは装置に関する。装置は、必要目的に対して特別に構築できる。あるいは装置は、コンピュータ内に記憶されたコンピュータ・プログラムによって選択的に作動または構成される汎用コンピュータであってもよい。特に、種々の汎用機が、本明細書の教示に従って記述されたコンピュータ・プログラムと一緒に使用できる。あるいは、必要な処理を実行するために、より専用な装置を構築するのが、より便利な場合もある。
【0136】
本発明は、コンピュータ可読媒体上のコンピュータ可読コードとして実施することもできる。コンピュータ可読媒体は、データを保存できる任意のデータ記憶デバイスでもあり、データは、その後、コンピュータ・システムによって読むことができる。コンピュータ可読媒体の実施例は、ハードディスク、ネットワーク接続ストレージ(NAS)、読取り専用メモリ、ランダムアクセスメモリ、CD−ROM、CD−R、CD−RW、磁気テープ、他の光学及び非光学データ記憶デバイスを含む。コンピュータ可読媒体は、ネットワーク結合型コンピュータ・システムに分布するコンピュータ可読有形媒体を含むことができるため、コンピュータ可読コードは、分散様式で保存及び実行される。
【0137】
方法オペレーションは、特定な順序で説明されたが、理解すべきことは、他の管理操作が、オペレーションの間に実行されてもよい、あるいはオペレーションが、僅かに異なる時間に行われるよう調整されてもよい、あるいはオーバレイ・オペレーションの処理が所望のやり方で実行される限り、オペレーションが、処理に関連して種々の間隔で処理オペレーションが実行されることを可能にするシステム内に分散させてもよいことである。
【0138】
前述の発明は、明確に理解できるよう詳細に説明したが、添付の請求項の範囲内で、特定な変更及び修正が実践できることは明らかである。したがって、本実施形態は、説明的なもので制限するものではない、と見なすべきである。また、本発明は、本明細書に記載の詳細に限定されるものではなく、添付の請求項の範囲内及び同等のもので修正されてもよい。
実施形態をいくつか挙げる。
1.インタラクティブ環境を見るための頭部装着ディスプレイであって、
ヘッド装着部と、
前記ヘッド装着部に結合されたビューイング・モジュールであって、画像コンテンツを描画するよう構成されるスクリーン内へのビューポートを持つ内側と、外側ハウジングを含む前記ビューイング・モジュールと、
コンピュータ・システムとのデータ交換のための通信モジュールと、
前記スクリーン上に画像コンテンツを描画するための画像データを処理する画像処理モジュールと、
前記ビューイング・モジュールの前記外側ハウジングに統合された複数の照明素子であって、カメラによる前記頭部装着ディスプレイの画像追跡のために配置される前記複数の照明素子と、
前記複数の照明素子をアクティブまたは非アクティブに制御するための照明ロジックとを備え、
前記複数の照明素子は、前記頭部装着ディスプレイの位置および方位の特定を可能にするためにパターンで配置されており、前記カメラによってキャプチャされた画像の分析から得られる前記位置および前記方位は、前記スクリーン上に描画されたときの前記インタラクティブ環境の現在のビューを更新するための入力として用いられる、頭部装着ディスプレイ。
2.前記通信モジュールによって交換されるデータが、入力データ、画像データ、オーディオ・データ及び慣性データを含む、実施形態1に記載の頭部装着ディスプレイ。
3.前記複数の照明素子が、発光ダイオード(LED)または赤外線(IR)エミッタとして定義される、実施形態1に記載の頭部装着ディスプレイ。
4.前記LEDが、一つ以上の色を照らし出すように定義され、前記一つ以上の色のイルミネーションが、照明ロジックによって制御される、実施形態3に記載の頭部装着ディスプレイ。
5.前記外側ハウジングが、部分的に曲がった形状を持ち、前記複数の照明素子が、前記部分的に曲がった形状の周りにパターンで配置される、実施形態1に記載の頭部装着ディスプレイ。
6.前記複数の照明素子が、二つ以上の形状またはサイズを含む、実施形態1に記載の頭部装着ディスプレイ。
7.前記複数の照明素子の追加のものが、前記ヘッド装着部へ結合される、実施形態1に記載の頭部装着ディスプレイ。
8.インタラクティブ環境を見るための頭部装着ディスプレイであって、
ユーザーの頭に装着するためのヘッド装着部と、
前記ヘッド装着部へ結合されてユーザーの眼前に配置されるよう構成されたビューイング・モジュールとを含み、前記ビューイング・モジュールが、
画像コンテンツを描画するよう構成されるスクリーン内へのビューポートを持つ内側と、
前記内側を包囲し、前面部、第一側面部及び第二側面部を持つ外側ハウジングと、
入力データ、画像データ、オーディオ・データ及び慣性データを含むデータをコンピュータ・システムとデータ交換するための通信モジュールと、
前記スクリーン上に前記画像コンテンツを描画するための画像データを処理する画像処理モジュールと、
前記ビューイング・モジュールの前記外側ハウジングに統合された複数の照明素子であって、カメラによる前記頭部装着ディスプレイの画像追跡のために配置される前記複数の照明素子と、
前記複数の照明素子の特定なものをアクティブ及び非アクティブへ制御するための照明ロジックとを備え、
前記複数の照明素子は、前記頭部装着ディスプレイの位置および方位の特定を可能にするために前記前面部、前記第一側面部及び前記第二側面部上のパターンで配置されており、前記カメラによってキャプチャされた画像の分析から得られる前記位置および前記方位は、前記スクリーン上に描画されたときの前記インタラクティブ環境の現在のビューを更新するための入力として用いられる、頭部装着ディスプレイ。
9.前記複数の照明素子の第一の素子が、前記前面部の左側に配置され、前記複数の照明素子の第二の素子が、前記前面部の右側に配置される、実施形態8に記載の頭部装着ディスプレイ。
10.前記複数の照明素子の前記第一の素子が、前記前面部と前記第一側面部とに部分的に位置する二部形状を持ち、前記複数の照明素子の前記第二の素子が、前記前面部と前記第二側面部とに部分的に位置する二部形状を持つ、実施形態9に記載の頭部装着ディスプレイ。
11.前記通信モジュールが、前記コンピュータ・システムとの有線接続または無線接続のいずれかである、実施形態8に記載の頭部装着ディスプレイ。
12.前記慣性データが、前記ユーザーが着用したときの検出運動に応答して前記頭部装着ディスプレイによって生成される、実施形態8に記載の頭部装着ディスプレイ。
13.前記入力データが、前記ユーザーが着用したときのユーザー入力に応答する前記頭部装着ディスプレイによって生成される、実施形態8に記載の頭部装着ディスプレイ。
14.前記オーディオ・データ及び前記画像データが、前記頭部装着ディスプレイで描画されるインタラクティブ・メディア・コンテンツに関連付けられる、実施形態8に記載の頭部装着ディスプレイ。
15.前記インタラクティブ・メディア・コンテンツが、ゲーム・データ、ビデオ・データ、インターネット・ナビゲーション・データ、ゲーム・データとインターネット・データとの組み合わせ、ソーシャル・メディア・データ、あるいはそれらの組み合わせを含む、実施形態14に記載の頭部装着ディスプレイ。
16.インタラクティブ環境を見るための頭部装着ディスプレイであって、
ヘッド装着部と、
前記ヘッド装着部へ結合されたビューイング・モジュールであって、画像コンテンツを描画するよう構成されるスクリーン内へのビューポートを持つ内側部分と外側ハウジングを含む前記ビューイング・モジュールと、
前記ビューイング・モジュールの前記外側ハウジングに統合された複数の照明素子であって、カメラによる前記頭部装着ディスプレイの画像追跡のために配置された前記複数の照明素子と、
前記複数の照明素子をアクティブまたは非アクティブに制御するための照明ロジックとを備え、
前記複数の照明素子は、前記頭部装着ディスプレイの位置および方位の特定を可能にするために部分的に曲がった形状を持つ前記外側ハウジング上のパターンで配置されており、前記カメラによる前記複数の照明素子の一部または全部のキャプチャされた画像の分析から得られる前記位置および前記方位は、前記スクリーン上に描画されたときの前記インタラクティブ環境の現在のビューを更新するための入力として用いられ、
前記複数の照明素子の第一の素子が、前記外側ハウジングの前面部と前記外側ハウジングの左側部とに部分的に位置する二部形状を持ち、前記複数の照明素子の第二の素子が、前記外側ハウジングの前面部と前記外側ハウジングの右側部とに部分的に位置する二部形状を持つ、頭部装着ディスプレイ。
17.さらに、コンピュータ・システムとのデータ交換のための通信モジュール、及び前記スクリーン上に前記画像コンテンツを描画するための画像データを処理する画像処理モジュールを備える、実施形態16に記載の頭部装着ディスプレイ。
18.頭部装着ディスプレイ(HMD)のスクリーン上に提示されるゲームの実行方法であって、
ゲームを実行して、前記スクリーン上に前記ゲームのインタラクティブ・シーンを描画するステップと、
HMD空間位置を特定するために、ユーザーが装着している前記HMDのデータを受信するステップと、
コントローラ空間位置を特定するために、前記ユーザーが保持しているコントローラのデータを受信するステップと、
前記HMDの前記スクリーン上の前記ゲームの前記インタラクティブ・シーン内へ視点を描画するためのデータを前記HMDへ送信するステップと、
前記HMD空間位置の変化の検出に応じて前記視点を調節するためのデータを前記HMDへ送信するステップとを含み、プロセッサによって実行され、
前記コントローラが、仮想オブジェクトとして前記インタラクティブ・シーン内に表現され、前記仮想オブジェクトが、前記コントローラ空間位置に対応する仮想空間位置にある前記インタラクティブ・シーン内に描画され、前記コントローラ空間位置の変化が、前記頭部装着ディスプレイのスクリーンを通して見ることのできる前記仮想オブジェクトの前記仮想空間位置を変化させる、方法。
19.前記インタラクティブ・シーンが三次元フォーマットで描画されるため、前記インタラクティブ・シーン内のオブジェクトは、前記HMDの前に現れ、前記インタラクティブ・シーン内へ距離感を持って延在する、実施形態18に記載の方法。
20.前記HMD及びコントローラ空間位置が、一つ以上の画像データ、慣性データ、無線データ、赤外線データ、あるいはそれらの組み合わせを使用して追跡される、実施形態18に記載の方法。
21.画像データを使用する追跡が、奥行データを提供する立体カメラを使用して、前記HMD及びコントローラ空間位置の一方または両方を検出することを含む、実施形態20に記載の方法。
22.頭部装着ディスプレイ(HMD)のスクリーン上に提示されるゲームの実行方法であって、
ゲームを実行して、前記スクリーン上の前記ゲームのインタラクティブ・シーンを描画するステップと、
ユーザーが装着した前記HMDの画像を、前記ユーザーへ向けられているキャプチャ・ロケーションに対するHMD空間位置を特定するために受信するステップと、
前記ユーザーが保持しているコントローラの画像を、前記キャプチャ・ロケーションに対するコントローラ空間位置を特定するために受信するステップとを含み、前記コントローラは、実行中の前記ゲームとのインタラクションを少なくとも部分的に作動させるための入力を提供するものであり、
前記ゲームの前記インタラクティブ・シーン内へ視点を描画すること及び前記HMDの前記スクリーンへ送信するステップと、
前記HMDの受信画像内における前記HMD空間位置の変化の検出に応じて前記視点を調整すること及び前記HMDの前記スクリーンへ送信するステップを含み、
前記コントローラが、仮想オブジェクトとして前記インタラクティブ・シーン内に表現され、前記仮想オブジェクトが、前記コントローラ空間位置に対応する仮想空間位置にある前記インタラクティブ・シーン内に描画され、前記コントローラ空間位置の変化が、前記頭部装着ディスプレイのスクリーンを通して見ることのできる前記仮想オブジェクトの前記仮想空間位置を変化させる、方法。
23.前記ゲームが、前記頭部装着ディスプレイへ通信接続されたコンピュータ上で実行される、実施形態22に記載の方法。
24.前記ゲームが、ゲーム・クラウド上で実行され、前記頭部装着ディスプレイが、前記ゲーム・クラウドへ通信接続される、実施形態23に記載の方法。
25.前記HMD空間位置及び前記コントローラ空間位置の各々が、慣性データによって追加的に特定可能である、実施形態24に記載の方法。
26.頭部装着ディスプレイ(HMD)のスクリーン上に提示されるゲームを実行して、前記スクリーン上に前記ゲームのインタラクティブ・シーンを描画する方法であって、
HMD空間位置を特定するために、ユーザーが装着している前記HMDのデータを受信するステップと、
コントローラ空間位置を特定するために、前記ユーザーが保持しているコントローラのデータを受信するステップと、
前記スクリーン上の前記ゲームの前記インタラクティブ・シーン内へ視点を描画するために、データを前記HMDへ送信するステップとを含み、前記視点は三次元で描画される空間体積であり、
前記HMD空間位置の変化の検出に応じて前記視点を調節するために前記HMDへデータを送信するステップを含み、プロセッサによって実行され、
前記コントローラが、仮想オブジェクトとして前記インタラクティブ・シーン内に表現され、前記仮想オブジェクトが、前記コントローラ空間位置に実質的に対応する仮想空間位置にある前記インタラクティブ・シーン内に描画され、前記コントローラ空間位置の変化が、前記スクリーン上に表示される前記仮想オブジェクトの前記仮想空間位置を変化させる、方法。
27.前記コントローラが、インタラクティブ性を作動させる入力を提供する、実施形態26に記載の方法。
28.前記コントローラ空間位置の変化が、追加の入力を提供する、実施形態26に記載の方法。
29.前記追加の入力が、発光体または慣性データのいずれかを含む、実施形態28に記載の方法。
30.前記発光体が、カメラを介して観察されるロケーション・データを提供し、前記発光体の色が、追加のデータを提供する、実施形態29に記載の方法。
31.前記色が、プレイヤー番号またはモード、あるいは室内条件に基づく設定を示す、実施形態30に記載の方法。
図1
図2
図3
図4A
図4B
図5A
図5B
図6A
図6B
図7A
図7B
図8A
図8B
図9A
図9B
図10
図11
図12
図13