IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー・インタラクティブエンタテインメント エルエルシーの特許一覧

特表2024-513001顔の表情を取り込んでメッシュデータを生成するための人工知能
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-03-21
(54)【発明の名称】顔の表情を取り込んでメッシュデータを生成するための人工知能
(51)【国際特許分類】
   G06T 13/40 20110101AFI20240313BHJP
   A63F 13/60 20140101ALI20240313BHJP
【FI】
G06T13/40
A63F13/60
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2023559808
(86)(22)【出願日】2022-03-31
(85)【翻訳文提出日】2023-09-27
(86)【国際出願番号】 US2022022952
(87)【国際公開番号】W WO2022212786
(87)【国際公開日】2022-10-06
(31)【優先権主張番号】63/170,328
(32)【優先日】2021-04-02
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】518187455
【氏名又は名称】ソニー・インタラクティブエンタテインメント エルエルシー
(74)【代理人】
【識別番号】100105924
【弁理士】
【氏名又は名称】森下 賢樹
(72)【発明者】
【氏名】ウェディグ、ジェフ
【テーマコード(参考)】
5B050
【Fターム(参考)】
5B050AA10
5B050BA08
5B050BA09
5B050CA00
5B050DA01
5B050EA05
5B050EA12
5B050EA13
5B050EA26
5B050FA02
5B050FA10
(57)【要約】
【課題】ゲームキャラクターの顔の表情のアニメーション化のために使用されるモデルのトレーニング方法及びシステムが提供される。
【解決手段】本方法は、3Dカメラを使用して第1の人間の俳優のメッシュデータを取り込み、第1の人間の俳優の顔の3D深度データを生成することを含む。一実施形態では、3D深度データは3Dカメラによって取り込まれたフレームに対応するメッシュファイルとして出力される。本方法は2Dカメラを使用して第1の人間の俳優の2D点群データを取り込むことを含む。一実施形態では、2D点群データは第1の人間の俳優の顔上に存在する追跡されたドットを表す。別の実施形態では、2D点群データはトレーニングラベル値ファイル(tLVF)の生成のために処理される。本方法は、モデルのトレーニングのために2D点群データと関連付けられたtLVFと時間調整してメッシュデータを処理することを含む。モデルは、第2の人間の俳優から取り込まれた入力メッシュファイルを受け取り、入力メッシュファイルに対応する出力LVFとして生成するように構成される。
【選択図】図1
【特許請求の範囲】
【請求項1】
ゲームキャラクターの顔の表情をアニメーション化するために使用されるモデルをトレーニングするための方法であって、
3次元(3D)カメラを使用して第1の人間の俳優のメッシュデータを取り込んで、前記第1の人間の俳優の顔の3次元(3D)深度データを生成することであって、前記3D深度データは、前記3Dカメラによって取り込まれたフレームに対応するメッシュファイルとして出力される、前記生成することと、
2Dカメラを使用して前記第1の人間の俳優の2次元(2D)点群データを取り込むことであって、前記2D点群データは、前記第1の人間の俳優の前記顔上に存在する追跡されたドットを表し、前記2D点群データは処理されてトレーニングラベル値ファイル(tLVF)を生成する、前記取り込むことと、
前記2D点群データに関連付けられた前記tLVFと時間調整して前記メッシュデータを処理して、前記モデルをトレーニングすることと、を含み、
前記モデルは、第2の人間の俳優から取り込まれた入力メッシュファイルを受け取って、前記入力メッシュファイルに対応する出力LVFとして生成するように構成される、前記方法。
【請求項2】
前記生成されたtLVFは、前記2D点群データ内に存在する顔の表情を特定する、請求項1に記載の方法。
【請求項3】
前記出力LVFは、前記ゲームキャラクターの前記顔の表情をアニメーション化するためにゲームエンジンによって受け取られるように構成される、請求項1に記載の方法。
【請求項4】
前記出力LVFは、前記第1の人間の俳優の前記顔上の特徴に対応する複数の値を含み、前記値は、前記ゲームキャラクターの前記顔の表情をアニメーション化するために使用される、請求項1に記載の方法。
【請求項5】
前記複数の値は、前記ゲームキャラクターの顔上の個々の領域において筋肉の活性化を引き起こすように構成される、請求項4に記載の方法。
【請求項6】
ソルバーが、前記tLVFを生成するための処理のために、前記2D点群データ、ブレンドシェイプファイル、及びジョイントファイルを入力として受け取るように構成され、前記ソルバーは、前記tLVFを生成するためにルールの組を適用する、請求項1に記載の方法。
【請求項7】
前記ソルバーは、前記2D点群データ、前記ブレンドシェイプファイル、及び前記ジョイントファイルを処理して前記tLVFを生成するために統計的人工知能を使用する、請求項6に記載の方法。
【請求項8】
前記tLVFはアニメーターによってプラスされて、前記tLVFを調整し、前記調整されたtLVFは、前記生成されたtLVFの精度を向上させるために、ソルバーによってフィードバックとして受け取られる、請求項1に記載の方法。
【請求項9】
前記2D点群データは2D点群キーフレームを含み、前記2D点群キーフレームは前記tLVFを生成するために処理される、請求項1に記載の方法。
【請求項10】
前記モデルはマルチアクターモデルであり、前記マルチアクターモデルは、複数の人間の俳優からのメッシュデータ及び2D点群データを使用してトレーニングされる、請求項1に記載の方法。
【請求項11】
前記出力LVFは感情タイプに対応し、前記感情タイプは、前記入力メッシュファイルを生成するために前記第2の人間の俳優によって表現される、請求項1に記載の方法。
【請求項12】
前記モデルは、さらなる出力LVFを生成するために前記第1の人間の俳優のさらなるメッシュファイルを入力として受け取るように構成される、請求項1に記載の方法。
【請求項13】
前記モデルは、前記メッシュデータ及び前記2D点群データから特徴を特定して、前記メッシュデータ及び前記2D点群データの属性を分類するように構成され、前記属性は、前記入力メッシュファイルに対応する前記出力LVFを生成するために使用される、請求項1に記載の方法。
【請求項14】
前記第2の人間の俳優は、前記第1の人間の俳優と同じかまたは異なることができる、請求項1に記載の方法。
【請求項15】
3次元(3D)画像取込を使用して顔の表情に対するラベル値を生成するための方法であって、
第1の人間の俳優から取り込まれた入力を使用してトレーニングされたモデルにアクセスすることであって、
取り込まれた前記入力は、前記第1の人間の俳優の顔のメッシュデータを含み、前記メッシュデータは前記顔の3次元(3D)深度データを表し、
取り込まれた前記入力は、前記第1の人間の俳優の前記顔の2次元(2D)点群データをさらに含み、前記2D点群データは、前記第1の人間の俳優の前記顔上に存在する追跡されたドットを表し、前記2D点群データは処理されてトレーニングラベル値ファイル(tLVF)を生成し、
前記モデルは、前記tLVFと前記メッシュデータとの間の対応関係が前記モデルによって学習されるように、前記メッシュデータと前記tLVFとを時間調整して処理することによってトレーニングされる、前記アクセスすることと、
第2の人間の俳優の顔のメッシュデータを含むメッシュファイルを取り込むことであって、前記メッシュファイルは、前記取り込まれたメッシュファイルの個々のファイルに対応するラベル値ファイル(LVF)を要求するための前記モデルへの入力クエリとして提供される、前記取り込むことと、を含み、
前記LVFは、ゲームエンジンによって処理されるゲーム内で提示されるゲームキャラクターの顔の表情をアニメーション化するために、前記ゲームエンジンによって使用可能である、前記方法。
【請求項16】
前記生成されたtLVFは、前記2D点群データ内に存在する顔の表情を特定する、請求項15に記載の方法。
【請求項17】
前記LVFは複数の値を含み、前記複数の値は、前記ゲームキャラクターの顔上の個々の領域において筋肉の活性化を引き起こすように構成される、請求項15に記載の方法。
【請求項18】
前記第2の人間の俳優は、前記第1の人間の俳優と同じかまたは異なることができる、請求項15に記載の方法。
【請求項19】
ソルバーが、前記tLVFを生成するための処理のために、前記2D点群データ、ブレンドシェイプファイル、及びジョイントファイルを入力として受け取るように構成され、前記ソルバーは、前記tLVFを生成するためにルールの組を適用する、請求項15に記載の方法。
【請求項20】
前記モデルはマルチアクターモデルであり、前記マルチアクターモデルは、複数の人間の俳優からのメッシュデータ及び2D点群データを使用してトレーニングされる、請求項15に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は全般的に、ゲームキャラクターの顔の表情をアニメーション化することに関し、より詳細には、ゲームキャラクターの顔の表情をアニメーション化するために使用されるモデルをトレーニングするための方法及びシステムに関する。
【背景技術】
【0002】
ビデオゲーム業界は、長年にわたり多くの変化を遂げてきた。詳細には、ビデオゲームにおける顔のアニメーションに関連する技術は、過去の数年にわたってより精巧になり、その結果、ゲームキャラクターがますます現実的に見えるようになっている。現在、ゲームキャラクターは、人間の顔のように気分及び感情を表現することができ、その結果、プレーヤはゲームの世界により没頭するように感じている。この目的を達成するために、開発者は、顔のアニメーションプロセスが改善されて、プロセスがより効率的になり、時間が短縮される精巧な動作を開発する方法を探している。
【0003】
ビデオゲーム業界では、ゲームキャラクターの顔のアニメーションプロセスを強化し、より効率的にする独自の方法を改善及び開発する傾向が高まっている。しかしながら、現在の顔のアニメーションプロセスは高価で、時間がかかり、正確なプランニング及び演出が必要である。たとえば、顔のアニメーションプロセスには、アニメーション化するゲームキャラクターの制作に貢献する異なるスキルセットを有する様々な個人(たとえば、監督、俳優、デザイナー、アニメーターなど)が関与する場合がある。現在の顔のアニメーションプロセスは極めて時間がかかり、高価な場合がある。たとえば、アニメーター及びデザイナーは、特定のゲームキャラクターをアニメーション化するために使用される何千ものブレンドシェイプファイル及びジョイントファイルを形成することによって、顔のアニメーションプロセスに貢献する。ブレンドシェイプファイル及びジョイントファイルは生成が難しい。アニメーター及びデザイナーは、ゲームキャラクターの顔の表情をアニメーション化するために必要なブレンドシェイプファイル及びジョイントファイルの作成に、数ヶ月を必要とする場合がある。しかしながら、このプロセスは極めて時間がかかり、高価である。その結果、ゲームキャラクター用の顔のアニメーションを制作する現在のプロセスは非効率的である可能性があり、タイトなスケジュールの下で高品質の結果を達成するには効果的でない場合がある。
【0004】
このような状況において、本開示の実施態様が生じる。
【発明の概要】
【0005】
本開示に対する実施態様は、ゲームキャラクターの顔の表情をアニメーション化するために使用されるモデルのトレーニングに関係する方法、システム、及びデバイスを含む。いくつかの実施形態では、1つ以上のカメラを使用して人間の俳優の顔の表情を取り込んで、人工知能(AI)モデルをトレーニングするために使用される2次元(2D)点群データ及び3次元(3D)メッシュデータを生成することを可能にする方法が開示される。たとえば、モデルをトレーニングすることは、2Dカメラ及び3Dカメラによって取り込まれた喜び、恐怖、悲しみ、怒りなどの種々の顔の表情を実行するように指示された人間の俳優を使用することを含んでいてもよい。一実施形態では、2Dカメラ及び3Dカメラは、モデルをトレーニングするためにソルバーが使用する2D点群データ及び3Dメッシュデータをそれぞれ生成する。モデルがトレーニングされたら、モデルは、入力メッシュファイルに対応する出力ラベル値ファイル(OLVF)を生成することができる任意の人間の俳優に関連付けられる入力メッシュファイルを受け取るように構成することができる。一実施形態では、OLVFをゲームエンジンが使用して、ゲームキャラクターの顔の表情をアニメーション化することができる。したがって、本明細書で開示した本方法では、トレーニングされたモデルを使用して、OLVFを人間の俳優の入力メッシュファイルを使用して生成する方法の概要を述べる。したがって、ゲームキャラクターの顔の表情をアニメーション化するために新しい顔の表情が要求されるとき、任意の人間の俳優を使用して新しい顔の表情に対する入力メッシュファイルを取り込み、これをモデルを通して処理してOLVFを生成することができる。このようにして、所望の顔の表情用に新しいブレンドシェイプファイル及びジョイントファイルを取得することなく、ゲームキャラクター用の新しい顔の表情をアニメーション化することができる。
【0006】
一実施形態では、ゲームキャラクターの顔の表情をアニメーション化するために使用されるモデルをトレーニングするための方法が提供される。本方法は、3次元(3D)カメラを使用して第1の人間の俳優のメッシュデータを取り込んで、第1の人間の俳優の顔の3次元(3D)深度データを生成することを含む。一実施形態では、3D深度データは、3Dカメラによって取り込まれたフレームに対応するメッシュファイルとして出力される。本方法は、2Dカメラを使用して第1の人間の俳優の2次元(2D)点群データを取り込むことを含む。一実施形態では、2D点群データは、第1の人間の俳優の顔上に存在する追跡されたドットを表す。別の実施形態では、2D点群データは、トレーニングラベル値ファイル(tLVF)を生成するために処理される。本方法は、モデルをトレーニングするために2D点群データと関連付けられたtLVFと時間調整してメッシュデータを処理することを含む。モデルは、第2の人間の俳優から取り込まれた入力メッシュファイルを受け取って、入力メッシュファイルに対応する出力LVFとして生成するように構成されている。
【0007】
別の実施形態では、3次元(3D)画像取込を使用して顔の表情に対するラベル値を生成するための方法が提供される。本方法は、人間の俳優から取り込まれた入力を使用してトレーニングされたモデルにアクセスすることを含む。一実施形態では、取り込まれた入力は人間の俳優の顔のメッシュデータを含み、メッシュデータは顔の3次元(3D)深度データを表す。別の実施形態では、取り込まれた入力は、人間の俳優の顔の2次元(2D)点群データをさらに含む。一実施形態では、2D点群データは、人間の俳優の顔上に存在する追跡されたドットを表し、2D点群データは処理されてトレーニングラベル値ファイル(tLVF)を生成する。他の実施形態では、モデルは、tLVFとメッシュデータとの間の対応関係がモデルによって学習されるように、メッシュデータとtLVFとを時間調整して処理することによってトレーニングされる。本方法は、第2の人間の俳優の顔のメッシュデータを含むメッシュファイルを取り込むことを含み、メッシュファイルは、取り込まれたメッシュファイルの個々のファイルに対応するラベル値ファイル(LVF)を要求するためのモデルへの入力クエリとして提供される。一実施形態では、LVFは、ゲームエンジンによって処理されるゲーム内で提示されるゲームキャラクターの顔の表情をアニメーション化するために、ゲームエンジンによって使用可能である。
【0008】
本開示の他の態様及び利点は、添付の図面と併せて、本開示の原理を例として示す下記の詳細な説明から明らかになるであろう。
【0009】
本開示は、添付の図面と併せて以下の説明を参照することによって、一層よく理解することができる。
【図面の簡単な説明】
【0010】
図1】本開示の実施態様により、2Dカメラ及び3Dカメラによってそれぞれ取り込まれた2D点群データ及び3Dメッシュデータを使用してモデルをトレーニングするように構成されたシステムの実施形態を例示する図である。
図2A】は、本開示の実施態様により、俳優の顔のイメージを取り込んで2D点群データを生成するように構成された2Dカメラを例示する図である。
図2B】は、本開示の実施態様により、俳優の顔のイメージを取り込んで2D点群データを生成するように構成された2Dカメラを例示する図である。
図2C】本開示の実施態様により、俳優の顔の3D深度データを表す3Dメッシュデータを取り込むように構成された3Dカメラを例示する図である。
図2D】本開示の実施態様により、俳優の顔の3D深度データを表す3Dメッシュデータを取り込むように構成された3Dカメラを例示する図である。
図3A】本開示の実施態様により、tLVFを生成するための処理のために1つ以上の入力を受け取るように構成されたソルバーの実施形態を例示する図である。
図3B】本開示の実施態様により、tLVFと時間調整して3Dメッシュデータを処理してモデルをトレーニングする実施形態を例示する図である。
図3C】本開示の実施態様により、俳優から取り込まれた入力メッシュファイルを使用してモデルによって生成された種々の出力LVFを例示するLVFテーブルの実施形態を例示する図である。
図3D】本開示の実施態様により、モデルを使用してゲームキャラクターの顔の表情をアニメーション化するシステムの実施形態を例示する図である。
図4】本開示の実施態様により、複数の俳優から取り込まれた3Dメッシュデータ及び2D点群データを使用して、マルチアクターモデルをトレーニングするように構成されたシステムの実施形態を例示する図である。
図5】本開示の実施態様により、モデル及びマルチアクターモデルを使用して入力3Dメッシュデータに対応する出力LVFを生成する種々の実施形態を例示する図である。
図6】本開示の実施態様により、2D点群キーフレーム及び遷移フレームを含む2D点群データの実施形態を例示する図である。
図7】本開示の実施態様により、ゲームキャラクターの顔の表情をアニメーション化するために使用されるモデルをトレーニングするための方法を例示する図である。
図8】本開示の様々な実施形態の態様を実行するために使用することができる例示的なデバイスの構成要素を例示する図である。
【発明を実施するための形態】
【0011】
本開示の以下の実施態様によって、ゲームキャラクターの顔の表情をアニメーション化するために使用される人工知能(AI)モデルをトレーニングするための方法、システム、及びデバイスが提供される。一例として、一実施形態では、モデルは、人間の俳優の種々の顔の表情を取り込むように構成された1つ以上のカメラによって取り込まれた3次元(3D)メッシュデータ及び2次元(2D)点群データを使用して、トレーニングされる。一実施形態では、ソルバーが、AIモデルのトレーニングのために、3Dメッシュデータ、2D点群データ、ブレンドシェイプファイル、及びジョイントファイルを受け取るように構成されている。いくつかの実施形態では、モデルがトレーニングされたら、モデルは、出力LVFを生成するために、任意の人間の俳優から取り込まれた入力メッシュファイルを受け取るように構成することができる。したがって、生成された出力LVFを、ビデオゲーム内の種々のゲームキャラクターの顔の表情をアニメーション化するために使用することができる。
【0012】
モデルと俳優の入力メッシュファイルとを使用することで、モデルがトレーニングされているためさらなるブレンドシェイプ及びジョイントファイルがもはや必要でないため、ゲームキャラクターの種々の顔の表情をアニメーション化する効率的な方法が容易になる。たとえば、モデルのトレーニングは、悲しみ、怒り、軽蔑、嫌悪感、及び恐怖などの顔の感情に対応する初期セットのブレンドシェイプファイルを使用することを含んでいてもよい。ゲームキャラクターが「驚いた」感情を表現することが要求される場合、たとえモデルのトレーニングに「驚いた」感情に対応するブレンドシェイプファイルが含まれていなくても、モデルは「驚いた」顔の表情に関連付けられた出力LVFを生成するように構成することができる。これにより、アニメーターが「驚いた」感情に関連付けられたブレンドシェイプファイルを生成する必要がなくなるため、運用コスト及び時間の削減につながる場合がある。全般的に、本明細書に記載の方法によって、モデルを使用してゲームキャラクターの顔の表情をアニメーション化するためのより効率的な方法が提供され、その結果、ブレンドシェイプファイル及びジョイントファイルの作成に費やされる全体的な運用コスト及び時間を減らすことができる。
【0013】
一例として、ゲームキャラクターの顔の表情をアニメーション化するために使用されるモデルのトレーニングを可能にする方法が開示される。本方法は、3Dカメラを使用して第1の人間の俳優のメッシュデータを取り込んで、第1の人間の俳優の顔の3D深度データを生成することを含む。一例では、3D深度データは、3Dカメラによって取り込まれたフレームに対応するメッシュファイルとして出力される。一実施形態では、本方法は、2Dカメラを使用して第1の人間の俳優の2D点群データを取り込むことをさらに含んでいてもよい。一例では、2D点群データは、第1の人間の俳優の顔上に存在する追跡されたドットを表す。別の実施形態では、2D点群データは、トレーニングラベル値ファイル(tLVF)を生成するために処理される。別の実施形態では、本方法は、2D点群データに関連付けられたtLVFと時間調整してメッシュデータを処理して、モデルをトレーニングすることを含んでいてもよい。一例では、モデルは、第2の人間の俳優から取り込まれた入力メッシュファイルを受け取って、入力メッシュファイルに対応する出力LVFとして生成するように構成されている。ただし、本開示は、現在説明されている具体的詳細の一部または全部なしでも実施され得ることは、当業者には明らかであろう。他の例では、周知のプロセス操作は、本開示を不必要に不明瞭にしないために、詳細に説明されていない。
【0014】
一実施形態によれば、俳優上の顔の表情を取り込んで、ビデオゲーム内のゲームキャラクターの顔の表情をアニメーション化するために使用されるモデルをトレーニングするためのシステムが開示される。一実施形態では、システムは、俳優によって生成された種々の顔の表情を取り込むように構成された複数のカメラを含む。一実施形態では、複数のカメラは2Dカメラ及び3Dカメラを含んでいてもよい。いくつかの実施形態では、2Dカメラ及び3Dカメラは、2D点群ファイル及び3Dメッシュデータをそれぞれ生成してもよい。いくつかの実施形態では、ソルバーを、モデルをトレーニングするための処理のために、2D点群ファイル、3Dメッシュデータ、ブレンドシェイプファイル、ジョイントファイルなどの複数の入力ファイルを受け取るように構成してもよい。
【0015】
一実施形態では、モデルのトレーニングは、ブレンドシェイプファイル、ジョイントファイル、及び2D点群ファイルを処理する種々のルールを使用して、2D点群ファイル内に存在する種々の表現を理解及び特定するように構成されたソルバーを含んでいてもよい。いくつかの実施形態では、ソルバーは、2D点群ファイルの各キーフレームに対応するトレーニングラベル値ファイル(tLVF)を生成するように構成されている。一実施形態では、tLVFは、2D点群ファイルのキーフレーム内の表現を記述するラベルである。別の実施形態によれば、モデルのトレーニングは、3Dカメラによって取り込まれた3Dメッシュデータを、ソルバーによって生成されたtLVFと位置合わせするように構成された位置合わせ動作を含んでいてもよい。
【0016】
いくつかの実施形態では、トレーニングされたモデルは、第2の人間の俳優から取り込まれた入力メッシュファイルを受け取るように構成することができる。入力メッシュファイルを使用して、入力メッシュファイルに対応する出力LVFを生成するようにモデルを使用する。一実施形態では、生成された出力LVFを、ビデオゲーム内のゲームキャラクターの顔の表情をアニメーション化するために使用することができる。
【0017】
上記の概要を念頭に置いて、以下では、例示的実施形態の理解を容易にするために、いくつかの例示的な図を提供する。
【0018】
図1に、2Dカメラ104a及び3Dカメラ104bによってそれぞれ取り込まれた2D点群データ108及び3Dメッシュデータ112を使用して、モデル132をトレーニングするように構成されたシステムの実施形態を例示する。図1に示したように、一実施形態では、システムは、俳優102の顔の表情を取り込んで2D点群データ108及び3Dメッシュデータ112をそれぞれ生成するように構成された2Dカメラ104a及び3Dカメラ104bを含んでいてもよい。一実施形態では、ソルバー114が、トレーニングラベル値ファイル(tLVF)116を生成するための処理のために、2D点群キーフレーム110、ブレンドシェイプ122、及びジョイントファイル124を受け取るように構成されている。いくつかの実施形態では、システムは、tLVF116に関連付けられた特徴を特定するように構成された特徴抽出118動作と、1つ以上の分類器を使用して特徴を分類するように構成された分類器120動作とを含んでいてもよい。他の実施形態では、システムは、3Dメッシュデータ112に関連付けられた特徴を特定するように構成された特徴抽出126動作と、1つ以上の分類器を使用して特徴を分類するように構成された分類器128動作とを含んでいてもよい。他の実施形態では、位置合わせ動作130を、分類器120動作及び分類器128動作から分類された特徴を入力として受け取って、3Dメッシュデータを対応するtLVFと位置合わせするように構成することができる。いくつかの実施形態では、モデル132のトレーニングは、位置合わせ動作130から位置合わせされた3Dメッシュデータ及びtLVFを受け取ることをさらに含んでいてもよい。
【0019】
いくつかの実施形態では、俳優102の演技中に、俳優は、2Dカメラ104a及び3Dカメラ104bを含むヘッドセットを着用してもよい。俳優102に、2Dカメラ104a及び3Dカメラ104bによって取り込むことができる種々の顔の表情、顔の動き、目の動き、感情、動作、ポーズなどを実行するように指示してもよい。たとえば、俳優102に、喜び、悲しみ、恐怖、怒り、驚き、嫌悪感、軽蔑、及びパニックの感情の状態を表現する顔の表情を実行するように求めてもよい。別の例では、俳優102に、呼吸、飲酒、食事、嚥下、読書などの種々の動作を実行するように求めてもよい。したがって、俳優102がこれらの動作を実行すると、カメラ104は、俳優の顔における自然な筋肉の動きを正確に取り込むことができる。
【0020】
いくつかの実施形態では、2Dカメラ104aを使用して、俳優102の顔の画像フレームを取り込む。一実施形態では、ドットパターンが俳優102の顔上に配置され、2Dカメラは、俳優が実行するときにドットパターンを取り込んで追跡するように構成されている。いくつかの実施形態では、俳優102が演技して種々の顔の表情を実行するとき、2Dカメラ104aは、ドットパターンの動きをデジタル的に追跡して、2D点群データ108を生成するように構成されている。一実施形態では、2D点群データ108は、俳優の顔上に存在する追跡されたドットを表す。いくつかの実施形態では、2D点群データ108は、取り込まれた画像と、取り込まれた画像上の単一点のX、Y、及びZ幾何学座標で表される追跡されたドットとを表すデータセットを含んでいてもよい。
【0021】
一実施形態では、3Dカメラ104bは、俳優102の顔の画像を取り込んで、俳優102の顔の3D深度データを生成するように構成された高解像度カメラである。一実施形態では、3D深度データは、3Dカメラ104bによって取り込まれたフレームに対応するメッシュファイルとして出力される。一実施形態では、3Dメッシュデータ112は、3Dカメラ104bによって取り込まれた画像フレームの3Dモデルの構造構築に関連付けられたメッシュファイルを含んでいてもよい。3Dメッシュデータ112は、X、Y、及びZ幾何学座標における基準点を使用して3Dモデルの高さ、幅、及び深さを規定するメッシュファイルを含んでいてもよい。
【0022】
いくつかの実施形態では、2D点群データ108の2D点群キーフレーム110、ブレンドシェイプ122、及びジョイントファイル124を、ソルバー114に対する入力として用いてもよい。全般的に、2D点群データ108のすべてのフレームではなく、2D点群キーフレーム110のみがソルバー114によって処理及び分析されて、バンド幅を節約し、冗長性を減らすのに役立つ。他の実施形態では、2D点群データ108のすべてのフレーム(たとえば、キーフレーム及び遷移フレーム)を、ソルバー114によって処理及び分析することができる。一実施形態では、ブレンドシェイプ122はアニメーターまたはデザイナーによって形成してもよい。いくつかの実施形態では、ブレンドシェイプ122は、メッシュを変形させて特定の形状を達成することを含む技法によって形成してもよい。たとえば、アニメーターまたはデザイナーは、単一の基本形状のメッシュ(たとえば、無表情な顔)を使用して、メッシュをブレンドまたはモーフィングして、異なる顔の表情、たとえば、すぼめた唇、広がった鼻、閉じた瞼、つり上がった眉などにし得る。この方法を使用して、アニメーターは、任意の数のブレンドシェイプファイルを組み合わせてアニメーション化し、ゲームキャラクターの顔の表情を形成し得る。一例では、すぼめた唇を伴うブレンドシェイプファイルを、不機嫌そうな目を伴うブレンドシェイプファイルと組み合わせて、「不承認」の顔の表情を形成することができる。ブレンドシェイプ122は、ゲームキャラクターをアニメーション化するために使用できる異なる顔の表情の集合を含んでいてもよい。
【0023】
いくつかの実施形態では、ジョイントファイル124は、アニメーターまたはデザイナーによって形成してもよい。ジョイントファイル124は、ゲームキャラクターの顔における骨格構造を表すように構築された一連の骨を含んでいてもよい。いくつかの実施形態では、ジョイントファイル124を使用して関節を操作して、所望の顔の表情を実現し、種々の顔の特徴に関連付けられる動きの範囲を含むことができる。一例では、ジョイントファイル124は、眉、瞼、目、目の間、鼻梁、口角、顎の前部、額などの顔の異なる部分に関連付けられた種々の関節を含んでいてもよい。ジョイントファイル124を用いて、ゲームキャラクターの顔の種々の顔の表情を制御してもよい。たとえば、口の関節は、笑顔及び眉をひそめるために口角の動きを容易にすることができる。別の例では、顎の関節は、驚き及び悲しみの感情を表現するために口の開閉を容易にすることができる。
【0024】
いくつかの実施形態では、ソルバー114は、2D点群キーフレーム110、ブレンドシェイプ122、及びジョイントファイル124を、入力として受け取るように構成されている。一実施形態では、ソルバー114は、注目された入力を処理して、2D点群キーフレーム110または2D点群データ108の遷移フレーム内にどのような顔の表情が存在するかを特定するtLVF116を生成するように構成されている。いくつかの実施形態では、ソルバー114は、種々のルール、ブレンドシェイプ122、ジョイントファイル124の組み合わせを使用して、2D点群キーフレーム110内で何が起こっているかを理解してもよい。たとえば、2D点群キーフレーム110は、俳優の鼻にしわが寄っているように示す俳優の画像を含んでいてもよい。ソルバー114は、ルール、ブレンドシェイプ、及びジョイントファイルを使用してこのキーフレームを処理して、俳優の鼻にしわが寄っていることは、俳優が「嫌悪感」の感情を表現していると推測し得ると判定してもよい。したがって、ソルバー114は、キーフレームに対応するtLVF116として、キーフレームに「嫌悪感」の顔の感情を表す特性を有するとしてラベルを付けるものを生成してもよい。別の実施形態では、直接入力ではない他の入力または入力/フィードバックの欠如も、ソルバー114への入力として取得してもよい。
【0025】
全般的に、生成されたtLVF116は、2D点群キーフレーム110または遷移フレーム内に存在する顔の表情を記述するラベルである。tLVF116は、キーフレーム内で何が起こっているかを記述してもよい。いくつかの実施形態では、tLVF116は複数の顔特徴値を含んでいてもよい。顔特徴値は0~1の範囲で、約50~1500の合計値の範囲の値の合計数を含んでいてもよい。
【0026】
一実施形態では、tLVF116がソルバー114によって生成された後に、特徴抽出118動作は、tLVF116内の種々の特徴を特定して抽出するように構成されている。特徴抽出118動作がtLVF116からの特徴を処理して特定した後に、分類器120動作は、1つ以上の分類器を使用して特徴を分類するように構成されている。一実施形態では、特徴は、モデル132によってさらに精緻なものにするための分類アルゴリズムを使用してラベル付けされる。
【0027】
いくつかの実施形態では、3Dメッシュ特徴抽出126動作は、3Dメッシュデータ112を処理して、3Dメッシュデータ112に関連付けられた種々の特徴を特定して抽出するように、構成されている。3Dメッシュ特徴抽出126動作が3Dメッシュデータ112からの特徴を処理して特定した後に、3Dメッシュ分類器128動作は、1つ以上の分類器を使用して特徴を分類するように構成されている。いくつかの実施形態では、特徴は、AIモデル132によってさらに精緻なものにするための分類アルゴリズムを使用してラベル付けされる。
【0028】
いくつかの実施形態では、位置合わせ動作130は、分類された特徴(たとえば、tLVF分類された特徴、3Dメッシュ分類された特徴)を入力として受け取るように構成されている。一実施形態では、位置合わせ動作130は、3Dメッシュデータを対応するtLVFと位置合わせするように構成されている。たとえば、モデルのトレーニングは、3Dカメラ104bによって取り込まれた3Dメッシュデータ112を、ソルバー114によって生成されたtLVF116と関連付けるように構成された位置合わせ動作130を含んでいてもよい。したがって、3Dメッシュデータ112が対応するtLVF116に適切に関連づけられたら、これらのトレーニングファイルを、モデル132内への入力として用いてもよく、その結果、モデル132がメッシュデータとtLVFとの間の適切な相関関係を学習することができる。
【0029】
いくつかの実施形態では、AIモデル132は、位置合わせ動作130によって生成されたトレーニングファイル(たとえば、tLVFと位置合わせされた3Dメッシュ)を、入力として受け取るように構成されている。別の実施形態では、直接入力ではない他の入力または入力/フィードバックの欠如も、モデル132への入力として取得してもよい。モデル132は、機械学習モデルを使用して、特定の入力メッシュファイルに対する対応する出力LVFが何であるかを予測してもよい。いくつかの実施形態では、時間とともに、トレーニングファイルを用いて、モデル132をトレーニングして、所与の入力メッシュファイル内で何が起こっているかを特定してもよい。たとえば、トレーニングファイルは、俳優の顔が自分の唇を噛んでいる3Dメッシュを含んでいてもよい。これは、俳優が不安であることを示す対応するtLVFを有する。したがって、入力メッシュファイルが、俳優が自分の唇を噛んでいる画像を含む場合、モデル132は、感情が不安であることに対応する出力LVFを予測して生成してもよい。
【0030】
図2A~2Bに、俳優102の顔の画像を取り込んで2D点群データ108を生成するように構成された2Dカメラ104aを例示する。一実施形態では、図2Aに例示したように、俳優102は、視点(POV)106aを備えた2Dカメラ104aを含むヘッドセットを着用していると示している。いくつかの実施形態では、俳優102は、俳優102の顔に沿って配置されたドットパターン202(たとえば、マーカー)を有していてもよい。一実施形態では、ドットパターン202は、俳優102の顔の感情的に関連する位置に沿って適用される。一実施形態では、俳優102がポーズをとって、種々の動作(たとえば、微笑む、ニヤリと笑う、笑う、話す、戦うなど)を実行すると、ドットパターン202の動きが、図2Bに示す2D点群データ108を生成するように構成された2Dカメラ104aによってデジタル的に追跡される。一実施形態では、2D点群データ108は、俳優102の顔上に存在する追跡されたドットを表す。いくつかの実施形態では、俳優102の顔上のドットパターン202は、パターンマッチングアルゴリズムを使用して高精度で正確に測定することができる。
【0031】
図2C~2Dに、俳優102の顔の3次元(3D)深度データを表す3Dメッシュデータ112を取り込むように構成された3Dカメラ104bを例示する。一実施形態では、3D深度データは、3Dカメラによって取り込まれたフレームに対応するメッシュファイルを含んでいてもよい。図2Cに例示したように、俳優102は、POV106bを備えた3Dカメラ104bを含むヘッドセットを着用していると示している。3Dカメラ104bは、俳優102が種々の顔の表情、ポーズ、及び動作を実行するときに、俳優102の顔の表情を取り込むように構成されている。一実施形態では、図2Dに示したように、3Dメッシュデータ112は、複数のメッシュファイルを含んでいてもよい。いくつかの実施形態では、3Dカメラによって取り込まれたメッシュデータは、3Dカメラ104bによって取り込まれた画像の3Dモデルの構造構築を含んでいてもよい。3Dメッシュデータ112は、X、Y、及びZ幾何学座標における基準点を使用して3Dモデルの高さ、幅、及び深さを規定する1つ以上のメッシュファイルを含んでいてもよい。
【0032】
図3Aに、tLVF116を生成するための処理のための1つ以上の入力を受け取るように構成されたソルバー114の実施形態を例示する。図3Aに示したように、システムは、俳優102の2D点群データ108、ブレンドシェイプ122、及びジョイントファイル124を受け取るように構成されたソルバー114を含む。ソルバー114が入力を処理し、tLVF116を生成した後に、システムは、tLVF116から特徴を抽出するように構成された特徴抽出118動作と、抽出された特徴を分類するように構成された分類器120動作とを含んでいてもよい。抽出された特徴を分類した後に、システムは、tLVFと時間調整してメッシュデータを処理してモデル132をトレーニングするように構成された位置合わせ動作130を含んでいてもよい。
【0033】
いくつかの実施形態では、ソルバー114は、2D点群データ108、ブレンドシェイプ122、及びジョイントファイル124を処理してtLVF116を生成するために、プラシング302動作及び統計的人工知能(AI)304を含んでいてもよい。一実施形態では、ソルバー114による処理のために使用されるブレンドシェイプ122及びジョイントファイル124は、共通の感情的な顔の表情(たとえば、嫌悪感、怒り、恐怖、悲しみ、及び幸福)に関連付けられたファイルの初期セットである。ブレンドシェイプ及びジョイントファイルの初期セットは、モデル132をトレーニングするためにソルバー114によって使用される。ブレンドシェイプ及びジョイントファイルの初期セットを使用してモデル132がトレーニングされたら、他の感情的な顔の表情に対応するさらなるブレンドシェイプ及びジョイントファイルは、モデル132をトレーニングするために必要とはされない場合がある。たとえば、モデル132が、嫌悪感、怒り、恐怖、悲しみ、及び幸福を含む顔の感情に対応するブレンドシェイプ及びジョイントファイル使用してトレーニングされる。モデル132が、「驚き」の感情に対応する入力メッシュファイルを受け取って処理する場合、モデル132は、たとえモデル132が「驚き」の顔の表情に対応するブレンドシェイプ及びジョイントファイルを使用してトレーニングされていなかったとしても、「驚き」の感情に対応する出力LVFを正確に生成するように構成することができる。
【0034】
一実施形態では、ソルバー114は、ブレンドシェイプ122及びジョイントファイル124と組み合わせてルールの組を使用して、2D点群データ108を解釈し、2D点群データ108のフレームのそれぞれにおいて何が起こっているかを判定してもよい。いくつかの実施形態では、2D点群データ108のフレームのそれぞれに何が存在するかを決定した後に、ソルバー114は、フレームごとにtLVF116を生成するように構成されている。いくつかの実施形態では、ソルバー114は、2D点群キーフレーム110のそれぞれに対してtLVF116を生成するように構成されている。たとえば、図3Aに例示したように、ソルバー114は、2D点群データ108、ブレンドシェイプ122、及びジョイントファイル124を受け取って処理して、2D点群キーフレーム110a~110nに対するtLVF116a~116bを生成すると示している。
【0035】
図3Aに示したように、2D点群キーフレーム110aは、「怒り」の感情的な顔の表情と、キーフレーム110a内に存在する顔の表情を記述するために生成される対応するtLVF116aとを含む。2D点群キーフレーム110bは、「恐怖」の感情的な顔の表情と、キーフレーム110b内に存在する顔の表情を記述するために生成される対応するtLVF116bとを含む。2D点群キーフレーム110cは、「悲しい」の感情的な顔の表情と、キーフレーム110c内に存在する顔の表情を記述するために生成される対応するtLVF116cとを含む。2D点群キーフレーム110nは、「幸福」の感情的な顔の表情を含み、対応するtLVF116nは、キーフレーム116n内に存在する顔の表情を記述するために生成される。したがって、図3Aに示す例では、ソルバー114は、2D点群キーフレーム110a~110nのそれぞれに対してtLVF116を生成するように構成されている。他の実施形態では、ソルバー114は、2D点群データ108のフレームのそれぞれに対してtLVF116を生成するように構成してもよい。
【0036】
いくつかの実施形態では、プラシング302動作は、随意のプロセスであって、アニメーターが、生成されたtLVF116及び対応する2D点群キーフレーム110をレビューし、tLVF及びキーフレームを手動で調整してその精度及び品質を向上させるプロセスであってもよい。たとえば、プラシング302動作の後に、調整をシステムへのフィードバックとして使用して、生成されたtLVF116の精度及び品質を向上させることができる。一実施形態では、実在の人物(たとえば、デザイナーまたはアニメーター)が、2D点群データ内の迷惑なものを特定して、キーフレーム及び対応するtLVF116に必要な調整を行うことができ得るため、プラシング302動作は、tLVF116の精度を向上させることに役立ち得る。たとえば、アニメーターは、対応する2D点群データを正確に反映するように、tLVF116に関連付けられた種々の重み及び値を変更してもよい。
【0037】
いくつかの実施形態では、プラシング302動作の後に、調整されたtLVF116は統計AI304動作内に供給される。そこでは、統計AIが使用されて、調整されたtLVF116を評価してそこから学習して、tLVF116が不正確であったか否かを判定する。一実施形態では、統計AI304動作は、調整されたtLVF116及び対応する2D点群データをどのように解釈するかを学習する。時間とともに、調整されたtLVF116及びその対応する2D点群データが処理されるにつれて、統計AI304動作は、パターンから種々の傾向を推測するように構成されている。たとえば、統計AI304動作は、調整されたtLVF116のパターンであって、俳優のしわが寄った鼻に対応する値は、「幸せな」顔の表情ではなく「嫌悪感のある」顔の表情に対応するように調整されるパターンを確認してもよい。したがって、ソルバー114が、しわが寄った鼻を含む2D点群データ108を受け取ると、ソルバー114及び統計AI304動作は、この特徴を「嫌悪感のある」顔の表情に対応するとして正確に特定し、対応する2D点群フレームに対してtLVF116を正確に生成でき得る。
【0038】
図3Bに、tLVF116と時間調整して3Dメッシュデータ112を処理してモデル132をトレーニングする実施形態を例示する。前述したように、3Dカメラ104bによって取り込まれた3Dメッシュデータ112及びtLVF116は、ソルバー114によって生成される。一実施形態では、位置合わせ動作130は、メッシュデータとtLVFとの間の対応関係がモデル132によって学習されるように、3Dメッシュデータ112を対応するtLVF116と位置合わせするように構成されている。位置合わせプロセスは、モデル132が所与のメッシュデータとtLVFとの間の正確な相関関係を作ることを学習できるように、モデル132をトレーニングするのに役立つ。
【0039】
たとえば、図3Bに例示したように、位置合わせ動作130は、tLVF116と時間調整して複数の3Dメッシュファイル112a~112nを処理すると示している。一例では、メッシュファイル112aが、時間t2においてtLVF116a(たとえば、怒り)に関連づけられ、メッシュファイル112bが、時間t4においてtLVF116e(たとえば、軽蔑)に関連づけられ、メッシュファイル112cが、時間t6においてtLVF116d(たとえば、嫌悪感)に関連づけられ、及びメッシュファイル112nが、時間tnにおいてtLVF116n(たとえば、驚いた)に関連づけられる。したがって、時間とともに、モデル132は、メッシュデータとtLVFとの間の対応関係を学習し、モデル132を使用して、任意の入力メッシュファイルに対応するLVFを生成することができる。
【0040】
図3Cに、俳優から取り込まれた入力メッシュファイルを使用してモデル132によって生成された種々の出力LVFを例示するLVFテーブル306の実施形態を例示する。一実施形態では、モデル132は、任意の俳優から取り込まれた入力メッシュファイルを受け取って、入力メッシュファイルに対応する出力LVFを生成するように構成されている。図示したように、LVFテーブル306は、入力メッシュファイルID307及び対応する出力LVFID308を含む。一実施形態では、出力LVFのそれぞれは、感情タイプ310、感情の記述312、及び俳優の顔上の種々の顔の特徴(たとえば、顔特徴1~顔特徴N)に対応する顔特徴値314を含んでいてもよい。
【0041】
図3Cに例示したように、それぞれの生成された出力LVFは、出力LVFを分類する対応する感情タイプ310と、対応する入力メッシュファイル内の特徴を記述する記述312とを有していてもよい。たとえば、図3Cに示したように、入力メッシュファイル(たとえば、IMF-5)がモデル132への入力として提供され、出力LVF(たとえば、OLV-5)が、入力メッシュファイル(たとえば、IMF-5)に対応して生成された。例示したように、出力LVF(たとえば、OLV-5)は、「嫌悪感」の感情に関連付けられた顔の表情を含む。さらに、出力LVF(たとえば、OLV-5)に対応する記述は、対応する入力メッシュファイルの特徴(たとえば、鼻のしわ、上がった上唇)の簡単な記述を含む。
【0042】
いくつかの実施形態では、出力LVFのそれぞれは、入力メッシュファイルを取り込むために使用された俳優の顔上の特徴に対応する顔特徴値314を含んでいてもよい。一実施形態では、入力メッシュファイルに関連付けられた顔特徴値314は、50~1500の値を含んでいてもよい。一例では、値は俳優の顔上の様々な筋肉に関連付けられている。いくつかの実施形態では、顔特徴値314は0~1の範囲とすることができる。一実施形態では、顔特徴値314は、各入力メッシュファイル内に存在する顔上の筋活動を記述するラベルを表す。たとえば、顔特徴値「0」は、顔特徴に関連付けられた筋肉が完全に弛緩されていることを示してもよい。逆に、顔特徴値「1」は、顔特徴に関連付けられた筋肉が最適に活性化されている(たとえば、達成できる限り緊張している)ことを示してもよい。したがって、出力LVFが詳細であるほど、ゲームキャラクターのアニメーションは正確である。出力LVF内で提供される詳細のレベル及び値の数は、値の数が大きいほど全般的に高品質のアニメーションが生成されるため、ゲームキャラクターのアニメーションの品質に直接影響し得る。
【0043】
顔特徴値314を例示するために、一例では、図3Cに示したように、出力LVF(たとえば、OLV-2)は、「恐怖」の感情に関連付けられた顔の表情を含む。対応する入力メッシュファイル(たとえば、IMF-2)は、上がった眉、上がった上目瞼、及び伸びた唇などの顔特徴を含む。例示したように、顔特徴5は値が「1」で、俳優の眉に沿って最も近い点に対応する。値「1」は、領域内の筋肉が活性化されて、眉が伸ばせる限り上がっているため、俳優の眉が緊張して最適に活性化されていることを示してもよい。別の例では、出力LVF(たとえば、OLV-2)の場合、顔特徴4は値が「0」で、俳優のノイズのブリッジに最も近い点に対応する。値「0」は、俳優のノイズのブリッジが完全に緩和されて、非活性であることを示してもよい。
【0044】
図3Dに、モデル132を使用してゲームキャラクター318の顔の表情をアニメーション化するシステムの実施形態を例示する。一実施形態では、ユーザのゲームプレイ中に、ゲームエンジン320は、一連の機能性及び動作を実行するように構成されている。一実施形態では、ゲームエンジン320は、種々のゲームキャラクター及びゲームシーンを含み得るユーザのゲームプレイを実行及びレンダリングすることができる。図3Dに示したように、ユーザのゲームプレイは、ゲームキャラクター318が剣を使用していることを例示するゲームシーン316を含む。ゲームシーンのゲームプレイ及びコンテキストに基づいて、ゲームエンジン320は、ゲームキャラクター318が特定のゲームシーン(たとえば、剣の戦い)に対して「怒り」の顔の表情を必要とすることを判定するように構成してもよい。その結果、ゲームエンジン320はLVFファイルリクエスト324動作にリクエストを送り、入力クエリがモデル132a~132nに送り出されて、「怒り」の顔の表情に対応するLVFを要求する。
【0045】
いくつかの実施形態では、各モデル132a~132nは、ビデオゲーム内の特定のゲームキャラクターに関連付けられる。したがって、どの特定のゲームキャラクターをアニメーション化すべきかに応じて、対応するモデルは、リクエストされたLVFを生成するように構成されている。たとえば、図3Dに例示したように、モデル132aはゲームキャラクター318に関連付けられているため、モデル132aを使用してゲームキャラクター318に対するLVFを生成することができる。いくつかの実施形態では、システムは、モデルデータベース326を含んでいてもよい。一実施形態では、モデルデータベース326は、モデル132a~132nのそれぞれに対するLVFに対応するデータを含んでいてもよい。いくつかの実施形態では、モデル132a~132n及びモデルデータベース326は共に動作して、リクエストされたLVFを生成及び取得してもよい。
【0046】
いくつかの実施形態では、対応するモデルによって生成された出力LVF328を、アニメーションエンジン322によって取得することができる。一実施形態では、アニメーションエンジン322は、出力LVF328がゲームエンジン320からのリクエストに対応することを確認するように構成されている。出力LVF328が正しいことを確認した後、アニメーションエンジン322は、ゲームエンジン320が出力LVF328を使用してゲームキャラクター318の顔の表情をアニメーション化できるように、ゲームエンジン320に出力LVF328を送出する。
【0047】
図3Dに示したように、ディスプレイ330は、ゲームキャラクター318の顔の拡大図を示す。ゲームエンジン320が出力LVF328を使用してゲームキャラクター318の顔の表情をアニメーション化した後、ゲームキャラクター318は、「怒り」の感情に関連付けられた顔の表情を示す。ディスプレイ330上に例示したように、ゲームキャラクター318の顔は、ゲームキャラクターの顔上の位置に対応する複数の顔特徴(たとえば、FF1~FFn)を含む。いくつかの実施形態では、出力LVF328は、「怒り」の顔の表情をアニメーション化するためにゲームキャラクターの顔特徴に適用できる顔特徴値を含んでいてもよい。
【0048】
図4に、複数の俳優102a~102nから取り込まれた3Dメッシュデータ及び2D点群データを使用して、マルチアクターモデル408をトレーニングするように構成されたシステムの実施形態を例示する。一実施形態では、図4に、俳優102a~102n、トレーニング402動作、特徴抽出404動作、分類器406動作、及びマルチアクターモデル408を例示する。一実施形態では、俳優102a~102nのそれぞれは、固有であり、互いに異なっていてもよい。たとえば、俳優102a~102nのそれぞれは、異なる顔特徴、身体的属性、演技経験、スキルレベルを有し、各俳優は、他の俳優が実行でき得ない特有の演技を送出できてもよい。
【0049】
一実施形態では、俳優102a~102nのそれぞれが種々の動作及び顔の表情を実行すると、2Dカメラ104a及び3Dカメラ104bは、個々の俳優102a~102nに関連付けられた2D点群データ108及び3Dメッシュデータ112を取り込むように構成されている。前述したように、一実施形態では、2D点群データ108は、俳優102a~102nの顔上に存在する追跡されたドットを表す。別の実施形態では、3Dメッシュデータ112は、俳優102a~102nの顔の3D深度データを含んでいてもよい。
【0050】
一実施形態では、トレーニング402動作は、マルチアクターモデル408をトレーニングするための処理のために、俳優のそれぞれに関連付けられた取り込み2D点群データ108及び3Dメッシュデータ112を受け取るように構成されている。他の実施形態では、マルチアクターモデル408は、ブレンドシェイプファイル及びジョイントファイルを入力として受け取るように構成されている。一実施形態では、トレーニング402動作は、ブレンドシェイプ及びジョイントファイルと組み合わせてルールの組を使用して、tLVFを生成するために俳優のそれぞれに関連付けられた2D点群データ108を解釈するように構成されている。いくつかの実施形態では、トレーニング402動作は、tLVFと時間調整して3Dメッシュデータを処理して、マルチアクターモデル408をトレーニングすることを含んでいてもよい。たとえば、トレーニング402動作が3Dメッシュデータ及び生成されたtLVFを受け取ると、トレーニング402動作は、メッシュデータとtLVFとの間の対応関係がマルチアクターモデル408によって学習されるように、3Dメッシュデータを対応するtLVF116と位置合わせする。
【0051】
いくつかの実施形態では、システムは、トレーニング402動作の出力(たとえば、トレーニングデータ)を処理して、3Dメッシュデータ及びtLVFに関連付けられた特徴を特定して抽出するように構成された特徴抽出404動作を含む。特徴抽出404動作が、トレーニング402動作からの特徴を処理して特定した後、分類器406動作は、1つ以上の分類器を使用して特徴を分類するように構成されている。一実施形態では、特徴は、マルチアクターモデル408によってさらに精緻なものにするための分類アルゴリズムを使用してラベル付けされる。
【0052】
いくつかの実施形態では、マルチアクターモデル408は、トレーニングデータの分類された特徴を入力として受け取るように構成されている。別の実施形態では、直接入力ではない他の入力または入力/フィードバックの欠如も、マルチアクターモデル408への入力として取得してもよい。マルチアクターモデル408は、機械学習モデルを使用して、対応する入力メッシュファイルに対する出力LVFを予測してもよい。たとえば、才能ある女性俳優のメッシュファイルを、3Dカメラによって取り込んで、マルチアクターモデル408への入力クエリとして使用する。リアルタイムで、マルチアクターモデル408は、ビデオゲームにおける姫戦士キャラクタの顔の表情をアニメーション化するためにゲームエンジンが使用する個々の取り込まれたメッシュファイルに対応する出力LVFを生成することができる。
【0053】
図5に、モデル132及びマルチアクターモデル408を使用して、入力3Dメッシュデータ112に対応する出力LVFを生成する種々の実施形態を例示する。例示したように、図は、モデルを使用して出力LVFを生成する3つの例(たとえば、502、504、506)を例示する。一例(たとえば、502)では、モデル132は、俳優102aの入力メッシュファイルに対応するさらなるLVF508を生成するように構成されている。例示したように、俳優102aは、俳優102aの顔の3Dメッシュデータ112aを取り込むように構成された3Dカメラ104bを含むヘッドセットを使用して示している。3Dメッシュデータ112aは、モデル132に対する入力として使用できるメッシュファイルを含んでいてもよい。一実施形態では、モデル132は、俳優102aに関連付けられたトレーニングファイル(たとえば、2D点群、3Dメッシュデータ)を使用してトレーニングされたため、モデル132は、入力メッシュファイルに対応するさらなるLVF508を生成するように構成されている。たとえば、102aの俳優に、以前には取り込まれなかったさらなる顔の表情を実行するように指示してもよい。モデル132は、トレーニングデータの初期セットを使用してトレーニングされているため、モデル132は、さらなる顔の表情に対応する入力メッシュファイルを受け取るように構成され、さらなるLVF508は、入力メッシュファイルに対応するように生成することができる。
【0054】
別の例(たとえば、504)では、モデル132は、第2の俳優(たとえば、俳優102b)の入力メッシュファイルに対応するLVF510を生成するように構成されている。例示したように、俳優102bは、俳優102bの顔の3Dメッシュデータ112bを取り込むように構成された3Dカメラ104bを含むヘッドセットを使用して示している。この図では、モデル132は、俳優102a(たとえば、第1の俳優)に関連付けられたトレーニングファイル(たとえば、2D点群、3Dメッシュデータ)を使用してトレーニングされた。しかし、モデル132は、俳優102b(たとえば、第2の俳優)の入力メッシュファイルに対応するLVF510を生成するために、依然として使用することができる。いくつかの実施形態では、モデル132は、俳優102b(たとえば、第2の俳優)に関連付けられたトレーニングファイルを使用してトレーニングされてはいなかったため、生成されたLVF510はそれほど正確ではない場合がある。
【0055】
さらに別の例(たとえば、506)では、マルチアクターモデル408は、第2の俳優(たとえば、俳優102b)の入力メッシュファイルに対応するLVF512を生成するように構成されている。この例では、マルチアクターモデル408は、複数の俳優102a~102nに関連付けられたトレーニングファイル(たとえば、2D点群、3Dメッシュデータ)を使用してトレーニングされた。いくつかの実施形態では、マルチアクターモデル408は、複数の俳優102a~102nに関連付けられたトレーニングファイルを使用してトレーニングされたため、生成されたLVF512は、モデル132を使用して生成されたLVF510よりも正確であり得る。
【0056】
図6に、2D点群キーフレーム110a~110n及び遷移フレーム602a~602nを含む2D点群データ108の実施形態を例示する。一実施形態では、システムは、2D点群キーフレーム110のみを処理してtLVFを生成するように構成されているため、バンド幅を節約し、冗長性を減らすのに役立つことができる。他の実施形態では、システムは、遷移フレーム602を含む2D点群データ108のすべてのフレームも処理するように構成されている。モデル132及びマルチアクターモデル408をトレーニングするために処理されるフレームが多くなるにつれて、モデルによって生成された出力LVFは、より正確でより信頼性が高くなる。一実施形態では、遷移フレーム602は、モデルをトレーニングするためにシステムが使用できる関連データを含んでいてもよい。たとえば、俳優102が演技して、特定の顔の表情(たとえば、悲しい、幸せ、怖いなど)を生成する場合、遷移フレーム602は、俳優がある特定の顔の表情から他の表情に遷移するときに不注意で形成される種々の顔の表情及びポーズを含んでいてもよい。一実施形態では、遷移フレーム602は、遷移フレーム602内にどのような特徴があるかをモデルが学習して理解できるように、システムによって処理してもよい。
【0057】
たとえば、図6に例示したように、2D点群データ108は、複数の2D点群キーフレーム110a~110n及び遷移フレーム602a~602nを含む。詳細には、2D点群キーフレーム110aは、「幸福」を示す顔の表情に対応する特徴を含む。2D点群キーフレーム110bは、「悲しみ」を示す顔の表情に対応する特徴を含む。2D点群キーフレーム110cは、「驚いた」を示す顔の表情に対応する特徴を含む。2D点群キーフレーム110nは、「イライラする」を示す顔の表情に対応する特徴を含む。俳優102がある顔の表情から他の表情に遷移するときに、遷移フレーム602a~602nは、モデルによる学習のために処理できる関連データを含んでいてもよい。
【0058】
図7に、ゲームキャラクターの顔の表情をアニメーション化するために使用されるモデルをトレーニングするための方法を例示する。一実施形態では、本方法は、3Dカメラ104bを使用して第1の人間の俳優102aのメッシュデータを取り込んで、第1の人間の俳優の顔の3D深度データを生成するように構成された動作702を含む。いくつかの実施形態では、3D深度データは、3Dカメラによって取り込まれたフレームに対応するメッシュファイルとして出力される。たとえば、第1の人間の俳優102aは、2Dカメラ104a及び3Dカメラ104bを含む複数のカメラを含むヘッドセットを着用していてもよい。第1の人間の俳優102aが、種々の感情の状態(たとえば、喜び、悲しみ、恐怖、怒り、驚き、嫌悪感、軽蔑、パニックなど)を表現するために、ポーズを取って種々の顔の表現を実行すると、3Dカメラ104bは、第1の人間の俳優の顔のメッシュデータを取り込んで、3D深度データを生成するように構成されている。3D深度データは、第1の人間の俳優の顔の3Dモデルを作成するために使用できる。
【0059】
図7に示す方法は、次に動作704に進む。ここでは、動作は、tLVF116を生成するための処理のために、2Dカメラ104aを使用して第1の人間の俳優102aの2D点群データを取り込むように構成されている。いくつかの実施形態では、第1の人間の俳優102aは、俳優の顔に沿って配置されたドットパターン202(たとえば、マーカー)を有していてもよい。一実施形態では、2Dカメラ104aによって取り込まれた2D点群データは、俳優の顔上に存在するドットパターンの追跡を表す。したがって、2D点群データにはドットパターンの追跡に関連した情報が含まれるため、俳優の顔特徴の動きを任意の時点で測定して決定することができる。
【0060】
いくつかの実施形態では、動作704は、ソルバーを使用してトレーニングラベル値ファイル(tLVF)を生成するように構成されている。一実施形態では、ソルバーは、第1の人間の俳優102aの2D点群データ、ブレンドシェイプ122、及びジョイントファイル124を受け取るように構成されている。いくつかの実施形態では、ソルバーは、ルールの組であって、2D点群データ内のフレームのそれぞれにおいて何が起こっているかを判定し、個々のフレームのそれぞれに対してtLVFを生成するために、ブレンドシェイプ及びジョイントファイルとともに使用されるルールの組を含んでいてもよい。
【0061】
図7に示す方法は、次に動作708に進む。ここでは、動作は、2D点群データに関連付けられたtLVFと時間調整してメッシュデータを処理して、モデル132をトレーニングするように構成されている。一実施形態では、動作708は、メッシュデータとtLVFとの間の対応関係がモデル132によって学習されるように、メッシュデータを対応するtLVFと位置合わせする。位置合わせプロセスは、モデル132が所与のメッシュデータとLVFとの間の正確な相関関係を作ることを学習できるように、モデル132をトレーニングするのに役立つ。
【0062】
一実施形態では、モデル132がトレーニングされた後、モデル132は、第2の人間の俳優102bまたは任意の俳優から取り込まれたメッシュファイルを入力として受け取るように構成されている。俳優に関連付けられた入力メッシュファイルを使用して、モデル132を、入力メッシュファイルに対応する出力LVFを生成するために使用することができる。したがって、トレーニングされたモデル132は、任意の俳優に関連付けられた入力メッシュファイルを単純に使用して、出力LVFを生成することができる。出力LVFは、ゲームキャラクターの顔の表情をアニメーション化するために使用できる。
【0063】
図8は、本開示の様々な実施形態の態様を実行するために使用できる例示的なデバイス800の構成要素を示す。このブロック図は、本開示の実施形態を実施するのに好適なパーソナルコンピュータ、ビデオゲームコンソール、パーソナルデジタルアシスタント、サーバ、または他のデジタルデバイスを組み込むことができる、またはこれらであり得る、デバイス800を示す。デバイス800は、ソフトウェアアプリケーション及び任意選択でオペレーティングシステムを実行するための中央処理装置(CPU)802を含む。CPU802は、1つ以上の同種または異種の処理コアで構成されてもよい。たとえば、CPU802は、1つ以上の処理コアを有する1つ以上の汎用マイクロプロセッサである。さらなる実施形態は、クエリの解釈、文脈的に関連するリソースの識別、及び文脈的に関連するリソースのビデオゲーム内での即時実施及びレンダリングなど、高並列及び計算集約的なアプリケーションに特に適合したマイクロプロセッサアーキテクチャを有する1つ以上のCPUを使用して、実施することができる。デバイス800は、ゲームセグメント(たとえば、ゲームコンソール)をプレイするプレーヤにローカライズされたもの、またはプレーヤからリモートであるもの(たとえば、バックエンドサーバプロセッサ)、またはクライアントへのゲームプレイのリモートストリーミングのためにゲームクラウドシステムで仮想化を使用する多くのサーバの1つであってもよい。
【0064】
メモリ804は、CPU802が使用するアプリケーション及びデータを記憶する。ストレージ806は、アプリケーション及びデータのための不揮発性ストレージ及びその他のコンピュータ可読媒体を提供し、固定ディスクドライブ、リムーバブルディスクドライブ、フラッシュメモリデバイス、及びCD-ROM、DVD-ROM、Blu-ray(登録商標)、HD-DVD、またはその他の光学ストレージデバイス、ならびに信号伝送及びストレージメディアを含んでもよい。ユーザ入力デバイス808は、1人以上のユーザからのユーザ入力をデバイス800へ通信し、ユーザ入力デバイス808の例には、キーボード、マウス、ジョイスティック、タッチパッド、タッチスクリーン、スチルレコーダ/カメラもしくはビデオレコーダ/カメラ、ジェスチャを認識する追跡デバイス、及び/またはマイクロフォンが挙げられ得る。ネットワークインターフェース814は、デバイス800が電子通信ネットワークを介して他のコンピュータシステムと通信することを可能にし、ローカルエリアネットワーク、及びインターネットなどのワイドエリアネットワークにわたる有線または無線通信を含んでもよい。オーディオプロセッサ812は、CPU802、メモリ804、及び/またはストレージ806によって提供される命令及び/またはデータから、アナログまたはデジタルのオーディオ出力を生成するように適合されている。CPU802、メモリ804、データストレージ806、ユーザ入力デバイス808、ネットワークインターフェース810、及びオーディオプロセッサ812を含むデバイス800の構成要素は、1つ以上のデータバス822を介して接続されている。
【0065】
グラフィックスサブシステム820が、データバス822及びデバイス800の構成要素とさらに接続されている。グラフィックスサブシステム820は、グラフィックスプロセシングユニット(GPU)816とグラフィックスメモリ818とを含む。グラフィックスメモリ818は、出力画像の各画素の画素データを格納するために使用される表示メモリ(たとえば、フレームバッファ)を含む。グラフィックスメモリ818は、GPU808と同じデバイスに統合されてもよく、GPU816と別個のデバイスとして接続されてもよく、及び/またはメモリ804内に組み込まれてもよい。画素データは、CPU802から直接グラフィックスメモリ818に提供することができる。あるいは、CPU802は、所望の出力画像を定義するデータ及び/または命令をGPU816に提供し、そこからGPU816が1つ以上の出力画像の画素データを生成する。所望の出力画像を定義するデータ及び/または命令は、メモリ804及び/またはグラフィックスメモリ818に格納することができる。実施形態では、GPU816は、シーンのジオメトリ、ライティング、シェーディング、テクスチャリング、モーション、及び/またはカメラパラメータを定義する命令及びデータから、出力画像用の画素データを生成するための3Dレンダリング機能を含む。GPU816は、シェーダプログラムを実行することができる1つ以上のプログラマブル実行ユニットをさらに含むことができる。
【0066】
グラフィックスサブシステム814は、グラフィックスメモリ818から画像の画素データを定期的に出力して、ディスプレイデバイス810に表示させる。ディスプレイデバイス810は、CRT、LCD、プラズマ、及びOLEDディスプレイを含む、デバイス800からの信号に応答して視覚情報を表示することができる任意のデバイスであり得る。デバイス800は、たとえば、アナログ信号またはデジタル信号をディスプレイデバイス810に提供することができる。
【0067】
現在の実施形態のゲームへのアクセス提供など、広範囲な地域にわたり配信されるアクセスサービスは、多くの場合、クラウドコンピューティングを使用することに留意されたい。クラウドコンピューティングとは、動的にスケーラブルで多くの場合仮想化されたリソースがインターネットを介したサービスとして提供されるコンピューティング様式である。ユーザは、ユーザをサポートする「クラウド」の技術的インフラストラクチャのエキスパートである必要はない。クラウドコンピューティングは、サービスとしてのインフラストラクチャ(IaaS)、サービスとしてのプラットフォーム(PaaS)、サービスとしてのソフトウェア(SaaS)などの異なるサービスに分類することができる。クラウドコンピューティングサービスは、多くの場合、ビデオゲームなどの共通のアプリケーションを、ウェブブラウザからアクセスするオンラインで提供するが、ソフトウェア及びデータは、クラウド内のサーバに記憶される。クラウドという用語は、コンピュータネットワーク図におけるインターネットの描かれ方に基づいたインターネットの隠喩として使用され、複雑なインフラストラクチャを隠し持つことの抽象的概念である。
【0068】
ゲームサーバは、いくつかの実施形態では、ビデオゲームプレーヤのための持続的情報プラットフォームの動作を実行するために使用され得る。インターネット上でプレイされる大抵のビデオゲームは、ゲームサーバへの接続を介して動作する。通常、ゲームは、プレーヤからデータを収集し、収集したデータを他のプレーヤに配信する専用サーバアプリケーションを使用する。他の実施形態では、ビデオゲームは、分散型ゲームエンジンによって実行されてよい。これらの実施形態では、分散型ゲームエンジンは、複数の処理エンティティ(PE)上で実行されてよく、その結果、各PEは、ビデオゲームが実行される所与のゲームエンジンの機能セグメントを実行する。各処理エンティティは、ゲームエンジンからは単なる計算ノードと見なされる。ゲームエンジンは通常、機能的に多様な一連の操作を行って、ユーザが体験する追加のサービスと共にビデオゲームアプリケーションを実行する。たとえば、ゲームエンジンは、ゲームロジックを実装し、ゲーム計算、物理的過程、ジオメトリ変換、レンダリング、照明、シェーディング、オーディオ、及び追加のゲーム内またはゲーム関連サービスを実行する。追加のサービスには、たとえば、メッセージング、ソーシャルユーティリティ、オーディオ通信、ゲームプレイ再生機能、ヘルプ機能などが含まれてよい。ゲームエンジンは、特定のサーバのハイパーバイザによって仮想化されたオペレーティングシステム上で実行されてよいが、他の実施形態では、ゲームエンジン自体が複数の処理エンティティに分散され、各エンティティはデータセンタの異なるサーバユニットに常駐してよい。
【0069】
この実施形態によると、実行のために各処理エンティティは、各ゲームエンジンセグメントのニーズに応じて、サーバユニット、仮想マシン、またはコンテナであってよい。たとえば、ゲームエンジンセグメントがカメラの変換を担当する場合、比較的単純な数学演算(たとえば、行列変換)を多数行うことになるので、その特定のゲームエンジンセグメントは、グラフィックスプロセシングユニット(GPU)に関連付けられた仮想マシンと共にプロビジョニングされてよい。より少ないがより複雑な操作を必要とする他のゲームエンジンセグメントは、1つ以上のより高出力の中央処理装置(CPU)に関連付けられた処理エンティティと共にプロビジョニングされてよい。
【0070】
ゲームエンジンを分散することにより、ゲームエンジンは、物理サーバユニットの能力に拘束されない弾力性のある計算特性を備える。代わりに、ゲームエンジンは、必要に応じて、ビデオゲームの要求を満たすためにより多いまたは少ない計算ノードと共にプロビジョニングされる。ビデオゲーム及びビデオゲームプレーヤの観点からは、複数の計算ノードに分散されているゲームエンジンは、ゲームエンジンマネージャまたはスーパーバイザがワークロードを分散し、結果をシームレスに統合して、エンドユーザにビデオゲーム出力構成要素を提供するので、単一の処理エンティティで実行される非分散ゲームエンジンと区別できない。
【0071】
ユーザは、少なくともCPU、ディスプレイ、及びI/Oを含むクライアントデバイスにより、遠隔サービスにアクセスする。クライアントデバイスは、PC、携帯電話、ネットブック、PDAなどであってよい。一実施形態では、ゲームサーバ上で実行されるネットワークは、クライアントが使用するデバイスの種類を認識し、採用される通信方法を調整する。別の事例では、クライアントデバイスは、HTMLなどの標準的な通信方法を使用して、インターネットを介してゲームサーバ上のアプリケーションにアクセスする。
【0072】
所与のビデオゲームまたはゲームアプリケーションは、特定のプラットフォーム及び特定の関連コントローラデバイス用に開発され得ることを、理解されたい。しかしながら、本明細書に提示されるようなゲームクラウドシステムを介してこのようなゲームを利用可能にするときに、ユーザは、異なるコントローラデバイスによってビデオゲームにアクセスすることができる。たとえば、ゲームは、ゲームコンソール及びその関連したコントローラのために開発されている可能性があるが、ユーザは、キーボード及びマウスを利用するパーソナルコンピュータからゲームのクラウドベースのバージョンにアクセスすることができる。このようなシナリオにおいて、入力パラメータ構成は、ユーザの利用可能なコントローラデバイス(この事例において、キーボード及びマウス)により生成されることが可能である入力から、ビデオゲームの実行のために許容可能である入力へのマッピングを定義することが可能である。
【0073】
別の実施例では、ユーザは、タブレットコンピューティングデバイス、タッチスクリーンスマートフォン、または他のタッチスクリーン駆動デバイスを介して、クラウドゲームシステムにアクセスし得る。この場合、クライアントデバイス及びコントローラデバイスは、同じデバイス内に一緒に統合され、検出されたタッチスクリーン入力/ジェスチャにより入力が提供される。このようなデバイスについて、入力パラメータ構成は、ビデオゲームについてのゲーム入力に対応する特定のタッチスクリーン入力を定義することができる。たとえば、ボタン、指向性パッド、または他のタイプの入力素子は、ビデオゲームの実行中に表示され、またはオーバレイされ、ユーザがゲーム入力を生成するためにタッチすることが可能であるタッチスクリーン上の位置を示すことができる。特定の方向におけるスワイプなどのジェスチャまたは特定のタッチ動作も、ゲーム入力として検出してもよい。一実施形態では、タッチスクリーン上での制御操作にユーザを慣れさせるために、たとえばビデオゲームのゲームプレイを始める前に、タッチスクリーンを介してゲームプレイに入力する方法を示すチュートリアルが、ユーザに提供され得る。
【0074】
いくつかの実施形態では、クライアントデバイスは、コントローラデバイスについての接続ポイントとして機能する。すなわち、コントローラデバイスは、無線接続または有線接続を介してクライアントデバイスと通信し、コントローラデバイスからクライアントデバイスへ入力を送信する。次に、クライアントデバイスは、これらの入力を処理して、その後入力データを、ネットワーク(たとえばルータなどのローカルネットワークデバイスを介してアクセスされるネットワーク)を介して、クラウドゲームサーバへ送信し得る。しかしながら、他の実施形態において、コントローラ自体は、ネットワークを介してクラウドゲームサーバへ直接に入力を通信する能力を有し、これらのような入力を最初にクライアントデバイスを通して通信する必要がなく、ネットワーク化されたデバイスであることが可能である。たとえば、コントローラは、ローカルネットワークデバイス(前述のルータなど)に接続して、クラウドゲームサーバとデータを送受信し得る。したがって、クライアントデバイスは、クラウドベースのビデオゲームからビデオ出力を受信し、それをローカルディスプレイにレンダリングすることを必要とされたままであることができながら、入力レイテンシは、コントローラがクラウドゲームサーバへネットワーク経由で直接に入力を送信することを可能にし、クライアントデバイスをバイパスすることにより減少することが可能である。
【0075】
1つの実施形態において、ネットワーク化されたコントローラ及びクライアントデバイスは、特定のタイプの入力をコントローラからクラウドゲームサーバへ直接に、また他のタイプの入力をクライアントデバイスを介して送信するように構成されることが可能である。たとえば、コントローラ自体は別として、任意の追加のハードウェアまたは処理に依存しない検出による入力は、クライアントデバイスを迂回して、ネットワークを介して直接コントローラからクラウドゲームサーバへ送信することができる。これらのような入力は、ボタン入力、ジョイスティック入力、埋め込み型動き検出入力(たとえば、加速度計、磁力計、ジャイロスコープ)などを含むことができる。しかしながら、追加のハードウェアを利用する、またはクライアントデバイスによる処理を必要とする入力は、クライアントデバイスによりクラウドゲームサーバへ送信されることが可能である。これらは、クラウドゲームサーバへ送信する前に、クライアントデバイスにより処理されることができるゲーム環境から捕捉されたビデオまたは音声を含むことができる。加えて、コントローラの動き検出ハードウェアからの入力は、捕捉されたビデオと併せてクライアントデバイスにより処理され、コントローラの位置及び動きを検出することができ、その後、クライアントデバイスによりクラウドゲームサーバへ通信される。様々な実施形態によるコントローラデバイスはまた、クライアントデバイスから、または直接クラウドゲームサーバから、データ(たとえばフィードバックデータ)を受信し得ることを理解されたい。
【0076】
本明細書で定義される様々な実施形態は、本明細書で開示される様々な特徴を使用する特定の実施態様に組み合わされてもよい、または組み立てられ得ることを、理解されたい。したがって、提供される例は、可能な例の一部にすぎず、様々な要素を組み合わせることでより多くの実施態様を規定することが可能な様々な実施態様に制限を加えるものではない。ある例では、ある実施態様は、開示されたまたは同等の実施態様の趣旨から逸脱することなく、より少ない要素を含んでもよい。
【0077】
本開示の実施形態は、ハンドヘルドデバイス、マイクロプロセッサシステム、マイクロプロセッサベースまたはプログラマブル民生用エレクトロニクス、ミニコンピュータ、メインフレームコンピュータなどを含む種々のコンピュータシステム構成によって実施してもよい。本開示の実施形態はまた、有線ベースネットワークまたは無線ネットワークを介してリンクされる遠隔処理デバイスによりタスクが行われる分散コンピューティング環境においても、実施することができる。
【0078】
方法の操作は特定の順序で記載したが、修正されたゲーム状態を生成するためのテレメトリ及びゲーム状態データの処理が所望の方法で実行される限り、操作間に他のハウスキーピング操作が実行されてもよく、または操作がわずかに異なる時間に起こるように調整されてもよく、またはシステム内に操作を分散することで、処理に関連する様々な間隔で処理操作が起こることを可能にしてもよいことを、理解されたい。
【0079】
1つ以上の実施形態は、コンピュータ可読媒体上のコンピュータ可読コードとして作ることもできる。コンピュータ可読媒体は、データを記憶することができる任意のデータ記憶装置とすることができる。データはその後にコンピュータシステムによって読み取ることができる。コンピュータ可読媒体の例は、ハードドライブ、ネットワーク接続ストレージ(NAS)、読み出し専用メモリ、ランダムアクセスメモリ、CD-ROM、CD-R、CD-RW、磁気テープ、ならびに他の光学及び非光学データ記憶装置を含む。コンピュータ可読媒体には、コンピュータ可読コードが分散方式で格納され実行されるように、ネットワーク接続されたコンピュータシステムにわたり分散されたコンピュータ可読有形媒体が含まれ得る。
【0080】
一実施形態では、ビデオゲームは、ゲーム機、パーソナルコンピュータ、またはサーバ上でローカルに実行される。場合によっては、ビデオゲームはデータセンタの1つ以上のサーバによって実行される。ビデオゲームが実行されるとき、ビデオゲームのいくつかのインスタンスは、ビデオゲームのシミュレーションであり得る。たとえば、ビデオゲームは、ビデオゲームのシミュレーションを生成する環境またはサーバによって実行され得る。シミュレーションは、いくつかの実施形態では、ビデオゲームのインスタンスである。他の実施形態では、シミュレーションはエミュレータによって生成されてもよい。いずれの場合でも、ビデオゲームがシミュレーションとして表現されている場合、そのシミュレーションは、ユーザ入力によってインタラクティブにストリーミング、実行、及び/または制御できるインタラクティブコンテンツをレンダリングするために実行することができる。
【0081】
前述の実施形態は、理解を明確にするためにある程度詳細に説明されたが、添付の特許請求の範囲内で特定の変更及び修正を実施できることは明らかであろう。したがって、本実施形態は、限定ではなく例示としてみなされるべきであり、本実施形態は、本明細書に記載される詳細に限定されるべきではなく、添付の特許請求の範囲及び均等物の中で変更されてもよい。
図1
図2A-2B】
図2C-2D】
図3A
図3B
図3C
図3D
図4
図5
図6
図7
図8
【国際調査報告】