IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニーの特許一覧

特表2024-525357アニメーションフィギュアのメディア投影のためのシステム及び方法
<>
  • 特表-アニメーションフィギュアのメディア投影のためのシステム及び方法 図1
  • 特表-アニメーションフィギュアのメディア投影のためのシステム及び方法 図2
  • 特表-アニメーションフィギュアのメディア投影のためのシステム及び方法 図3
  • 特表-アニメーションフィギュアのメディア投影のためのシステム及び方法 図4
  • 特表-アニメーションフィギュアのメディア投影のためのシステム及び方法 図5
  • 特表-アニメーションフィギュアのメディア投影のためのシステム及び方法 図6
  • 特表-アニメーションフィギュアのメディア投影のためのシステム及び方法 図7
  • 特表-アニメーションフィギュアのメディア投影のためのシステム及び方法 図8
  • 特表-アニメーションフィギュアのメディア投影のためのシステム及び方法 図9
  • 特表-アニメーションフィギュアのメディア投影のためのシステム及び方法 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-07-12
(54)【発明の名称】アニメーションフィギュアのメディア投影のためのシステム及び方法
(51)【国際特許分類】
   G06T 13/40 20110101AFI20240705BHJP
   H04N 5/74 20060101ALI20240705BHJP
   B33Y 50/00 20150101ALI20240705BHJP
【FI】
G06T13/40
H04N5/74 C
B33Y50/00
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023577917
(86)(22)【出願日】2022-06-17
(85)【翻訳文提出日】2024-02-16
(86)【国際出願番号】 US2022033975
(87)【国際公開番号】W WO2022266432
(87)【国際公開日】2022-12-22
(31)【優先権主張番号】63/212,375
(32)【優先日】2021-06-18
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】17/842,536
(32)【優先日】2022-06-16
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】511077292
【氏名又は名称】ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
(74)【代理人】
【識別番号】100094569
【弁理士】
【氏名又は名称】田中 伸一郎
(74)【代理人】
【識別番号】100103610
【弁理士】
【氏名又は名称】▲吉▼田 和彦
(74)【代理人】
【識別番号】100109070
【弁理士】
【氏名又は名称】須田 洋之
(74)【代理人】
【識別番号】100067013
【弁理士】
【氏名又は名称】大塚 文昭
(74)【代理人】
【氏名又は名称】上杉 浩
(74)【代理人】
【識別番号】100120525
【弁理士】
【氏名又は名称】近藤 直樹
(74)【代理人】
【識別番号】100139712
【弁理士】
【氏名又は名称】那須 威夫
(74)【代理人】
【識別番号】100141553
【弁理士】
【氏名又は名称】鈴木 信彦
(72)【発明者】
【氏名】エック ティモシー ジェイ
(72)【発明者】
【氏名】メッカ アンソニー アレクサンダー
(72)【発明者】
【氏名】ロメール エリ ジョセフ
(72)【発明者】
【氏名】ミノール ジャハジエル
(72)【発明者】
【氏名】ウィットマン マティアス ウルフギャング
(72)【発明者】
【氏名】ルピアン アレクサンドレ
(72)【発明者】
【氏名】ベリボー スティーブン
(72)【発明者】
【氏名】サンディン テリー オリオン
【テーマコード(参考)】
5B050
5C058
【Fターム(参考)】
5B050AA10
5B050BA08
5B050BA09
5B050BA13
5B050CA07
5B050DA01
5B050EA04
5B050EA24
5B050EA26
5B050FA02
5B050FA05
5C058BA35
5C058EA02
5C058EA31
5C058EA32
5C058EA33
(57)【要約】
アニメーションフィギュアへの投影による表現のための動的メディアの生成の方法は、処理回路を介してアニメーションフィギュアのコンピュータ生成モデルを定義することと、コンピュータ生成モデルに基づいて有形モデルを生成するために、処理回路を介して製造システムを動作させることと、有形モデルに基づいて、処理回路を介して修正されたコンピュータ生成モデルを生成することと、処理回路を介して修正されたコンピュータ生成モデルへのイメージの投影をシミュレートすることと、修正されたコンピュータ生成モデルへのシミュレートされたイメージの投影に基づいてイメージを有形モデルに投影するように、処理回路を介してプロジェクターを動作させることとを含む。
【選択図】図1
【特許請求の範囲】
【請求項1】
アニメーションフィギュアへの投影を介する表現のための動的メディア生成の方法であって、
処理回路を介して、前記アニメーションフィギュアのコンピュータ生成モデルを定義することと、
前記処理回路を介して、前記コンピュータ生成モデルに基づいて有形モデルを生成するために、製造システムを動作させることと、
前記処理回路を介して、前記有形モデルに基づいて、修正されたコンピュータ生成モデルを生成することと、
前記処理回路を介して、前記修正されたコンピュータモデルへのイメージの投影をシミュレートすることと、
前記処理回路を介して、前記修正されたコンピュータ生成モデルへの前記イメージのシミュレートされた投影に基づいて、前記有形モデルへ前記イメージを投影するように、プロジェクターを動作させることとを含む、方法。
【請求項2】
前記処理回路を介して、現実のオブジェクトの電子スキャンを受け取ることと、
前記処理回路を介して、前記現実のオブジェクトの前記電子スキャンに基づいて、前記アニメーションフィギュアの前記コンピュータ生成モデルを定義することとを含む、請求項1に記載の方法。
【請求項3】
前記処理回路を介して、前記アニメーションフィギュアの望まれる運動を決定することと、
前記処理回路を介して、前記望まれる運動に基づいて、前記コンピュータ生成モデルのデジタル骨格構造を定義することとを含み、
前記デジタル骨格構造は、前記コンピュータ生成モデルの連結する様態及び運動の結合を含む、
請求項1に記載の方法。
【請求項4】
前記処理回路を介して、前記コンピュータ生成モデルを表す現実のオブジェクトのモーションキャプチャーデータを受け取ることと、
前記処理回路を介して、モーションキャプチャービデオイメージに基づいて、現実のオフジェクトの第一の部分の位置決めを決定することと、
前記処理回路を介して、前記モーションキャプチャービデオイメージに基づいて、3D座標系内の、前記現実のオブジェクトの前記第一の部分に対応する前記コンピュータ生成モデルの第二の部分の位置決めを調節することと、
前記処理回路を介して、前記コンピュータ生成モデルの前記第二の部分の位置決めの調節に基づいて、前記デジタル骨格構造を定義することとを含む、
請求項3に記載の方法。
【請求項5】
前記処理回路を介して、前記デジタル骨格構造に基づいて、前記コンピュータ生成モデルにおいて、シミュレートされたアクチュエーターを定義することと、
前記処理回路を介して、前記デジタル骨格構造のアニメーションを生じさせるように、前記シミュレートされたアクチュエーターを仮想的に作動させることとを含む、
請求項3に記載の方法。
【請求項6】
前記処理回路を介して、前記アニメーションフィギュアの可視部分に関連する視線を決定することと、
前記処理回路を介して、前記視線に基づいて画像データを生成することと、
前記処理回路を介して、前記画像データに基づいて、前記修正されたコンピュータ生成モデルへの前記イメージの投影をシミュレートすることとを含む、
請求項1に記載の方法。
【請求項7】
前記処理回路を介して、前記修正されたコンピュータ生成モデルへの、前記イメージの前記投影に基づいて、前記画像データを調節することと、
前記処理回路を介して、前記修正されたコンピュータ生成モデルへの前記イメージの前記投影に基づいて調節された前記画像データによって、前記イメージを投影するように、前記プロジェクターを動作させることとを含む、
請求項6に記載の方法。
【請求項8】
前記処理回路を介して、前記有形モデルの電子スキャンを取得することと、
前記処理回路を介して、前記電子スキャンに基づいて、前記修正されたコンピュータ生成モデルを生成することとを含む、
請求項1に記載の方法。
【請求項9】
アミューズメントパークのアトラクションシステムであって、
イメージを出力するように構成されるプロジェクターと、
作用を行うように構成される制御システムであって、
アニメーションフィギュアに対応する第一のコンピュータ生成モデルを定義すること、
第一のシミュレートされた投影データを確定するために、前記第一のコンピュータ生成モデルへの前記イメージの投影をシミュレートすること、
前記第一のコンピュータ生成モデル及び前記第一のシミュレートされた投影データに基づいて、第一の有形モデルを生成するために、命令を送信すること、
前記第一の有形モデルの電子スキャンに基づいて、第二のコンピュータ生成モデルを獲得するために、前記第一のコンピュータ生成モデルを更新すること、
第二のシミュレートされた投影データを確定するために、前記第二のコンピュータ生成モデルへの前記イメージの投影をシミュレートすること、
前記第二のコンピュータ生成モデル及び前記第二のシミュレートされた投影データに基づいて、第二の有形モデルを生成するために、命令を送信すること、及び
前記第二の有形モデルに前記イメージを出力するために、前記プロジェクターを動作させること
を含む制御システムとを含む、
アミューズメントパークのアトラクションシステム。
【請求項10】
前記第二のコンピュータ生成モデルは、複数のシミュレートされたアクチュエーターを含み、前記第二の有形モデルは、前記複数のシミュレートされたアクチュエーターに対応する複数の物理的なアクチュエーターを受け取るように構成される、請求項9に記載のアミューズメントパークのアトラクションシステム。
【請求項11】
前記制御システムは、
アニメーションデータを受け取ることと、
前記アニメーションデータに基づいて、前記第二のコンピュータ生成モデルの前記複数のシミュレーションされたアクチュエーターのシミュレートされたアクチュエーターを作動させることと、
前記アニメーションデータに基づいて、及び前記シミュレートされたアクチュエーターに対応する前記物理的なアクチュエーターに基づいて、前記複数の物理的なアクチュエーターの物理的なアクチュエーターを作動させることとを含む作用を行うように構成される、
請求項10に記載の、アミューズメントパークのアトラクションシステム。
【請求項12】
前記制御システムは、
モーションキャプチャーデータを受け取ることと
前記モーションキャプチャーデータに基づいて、前記アニメーションデータを生成することとを含む作用を行うように構成される、請求項11に記載のアミューズメントパークのアトラクションシステム。
【請求項13】
前記アミューズメントパークのアトラクションシステムは、ゲスト領域及び場面エリアを含み、前記第二の有形モデルは、前記場面エリアに配置され、前記制御システムは、
前記ゲストエリアと前記場面エリアとの間の、相対的な位置決めを決定すること、
前記相対的な位置決めに基づいて前記第二の有形モデルに前記イメージを出力するように、前記プロジェクターを動作させることとを含む作用を行うように構成される、請求項9に記載の、アミューズメントパークのアトラクションシステム。
【請求項14】
前記ゲストエリアは、前記場面エリアに対して動くように構成される乗車車両を含み、前記制御システムは、前記乗車車両を、前記場面エリアに対して動かすために動作させるように構成される、請求項13に記載のアミューズメントパークのアトラクションシステム。
【請求項15】
前記アミューズメントパークのアトラクションシステムは照明を含み、前記制御システムは、
前記第一の有形モデルの位置調整を監視することと、
前記第一の有形モデルの前記位置調整に基づいて、前記照明を調節することとを含む作用を行うように構成される、請求項9に記載のアミューズメントパークのアトラクションシステム。
【請求項16】
1又は複数の有形の、非一時的の、コンピュータ可読のメディアであって、少なくとも1つのプロセッサによって実行されるとき、
アニメーションフィギュアの有形モデルを製造するために、製造システムを動作させることと、
前記有形モデルの電子スキャンに基づいて、前記アニメーションフィギュアのコンピュータ生成モデルを生成することと、
前記コンピュータ生成モデルの第一の運動を生じさせることと、
前記コンピュータ生成モデルの前記第一の運動に基づいて、前記アニメーションフィギュアの第二の運動を生じさせることと、
前記アニメーションフィギュアの前記第二の運動に基づいて、前記アニメーションフィギュアへイメージを出力するように、プロジェクターを動作させることとを含む作用を、前記少なくとも1つのプロセッサに行わせる命令を含む、1又は複数の有形の、非一時的の、コンピュータ可読のメディア。
【請求項17】
前記命令は、前記少なくとも1つのプロセッサによって実行されるとき、
前記コンピュータ生成モデルにおける、前記アニメーションフィギュアの物理的なアクチュエーターに対応するシミュレートされたアクチュエーターを定義することと、
前記コンピュータ生成モデルの前記第一の運動を生じさせるように、前記シミュレートされたアクチュエーターを作動させることと、
前記アニメーションフィギュアの第二の運動を生じさせるために、前記シミュレートされたアクチュエーターの作動に基づいて、前記物理的なアクチュエーターを作動させることとを含む作用を前記少なくとも1つのプロセッサに行わせる、請求項16に記載の、1又は複数の有形の、非一時的の、コンピュータ可読のメディア。
【請求項18】
前記命令は、前記少なくとも1つのプロセッサによって実行されるとき、
シミュレートされたイメージを前記コンピュータ生成モデルへ出力するように、シミュレートされたプロジェクターを動作させることと、
前記シミュレートされたイメージの前記コンピュータ生成モデルへの出力に基づいて、前記イメージを前記アニメーションフィギュアへ出力するように、前記プロジェクターを動作させることとを含む作用を前記少なくとも1つのプロセッサに行わせる、請求項16に記載の、1又は複数の有形の、非一時的の、コンピュータ可読のメディア。
【請求項19】
前記命令は、前記少なくとも1つのプロセッサによって実行されるとき、
前記アニメーションフィギュアの最初のコンピュータ生成モデルの特徴を調節するためのユーザ入力を受け取ることと、
前記ユーザ入力に基づいて、前記最初のコンピュータ生成モデルを調節することと、
前記最初のコンピュータ生成モデルの調節に基づいて、前記有形モデルを製造するために、前記製造システムを動作させることと、
前記有形モデルの前記電子スキャンを受け取ることと、
前記アニメーションフィギュアの前記コンピュータ生成モデルを生成するために、前記有形モデルの前記電子スキャンに基づいて、前記最初のコンピュータ生成モデルを調節することとを含む作用を前記少なくとも1つのプロセッサに行わせる、請求項16に記載の、1又は複数の有形の、非一時的の、コンピュータ可読のメディア。
【請求項20】
前記命令は、前記少なくとも1つのプロセッサによって実行されるとき、前記1又は複数のプロセッサに、
前記第二の運動の間、前記アニメーションフィギュアの位置決めを監視することと、
前記位置決めに基づいて、前記アニメーションフィギュアの照明を調節することとを含む作用を行わせる、請求項16に記載の、1又は複数の有形の、非一時的の、コンピュータ可読のメディア。
【発明の詳細な説明】
【技術分野】
【0001】
(関連する出願の相互引用)
本出願は、2021年6月18日に提出された米国出願第63/212,375号(Systems and Methods for Animated Figure Media Projection)に対する優先権及びその利益を主張し、あらゆる目的の引用は本出願に組み込まれる。
【背景技術】
【0002】
本セクションは、以降で説明及び/又は請求する本技法の種々の様態に関係し得る技術の種々の様態を読者に紹介することを意図する。本解説は、本開示の種々の様態のより良い理解を容易にするための背景情報を、読者へ提供する助けになると信じられている。よって、これらの主張は、この権利において読まれるべきであり、先行技術の採用としてではないことを理解されるべきである。
【0003】
アミューズメントパーク及び他のエンターテインメント会場は、多くのアトラクションの中でも、乗車アトラクションの待ち列に並ぶ、又は乗車体験中のゲストを楽しませるために、アニメーションフィギュア(例えば、ロボットのキャラクター)を含む。一定のアニメーションフィギュアは、予め決められた外観をアニメーションフィギュアへ従来的に向けるプロジェクションマッピングによって、生き生きとさせることができる。例えば、特定のアニメーションフィギュアは、アニメーションフィギュアの予めプログラムされた運動に位置を合わせることができる予め記録された、又は固定の画像のセットで視覚的に補足されることがある。このような技法が、平面のディスプレイ面よりも、より娯楽を提供し得る間、発達は、ゲストを、特定のアトラクション、乗車又は対話型体験へさらに没入させ得ると現在認識されている。例えば、一定のアニメーションフィギュアは、非現実的な背景照明を生成する、又はアニメーションフィギュアの半透明な投影面を通じて内部又は後方の投影を介して光を放つ、内部に位置するプロジェクターを持つ。このように、現実的かつ説得力のある手法において環境と文脈上混合する能力とともにアニメーションフィギュアを提供するだけでなく、アニメーションフィギュアをより生きているように見えるようにすることが望ましいと現在認識される。
【0004】
(要約)
最初に請求される題目の範囲と同等の特定の実施形態は、以下で要約する。これらの実施形態は、本開示の範囲を制限するように意図せず、これらの実施形態は、一定の開示される実施形態の簡潔な要約のみを提供するように意図する。さらに、本開示は、以下で説明する実施形態に類似し得る又は異なり得る種々の形態を包含する。
【0005】
ある実施形態において、アニメーションフィギュアへの投影による演出のための動的メディア生成は、処理回路によってアニメーションフィギュアのコンピュータ生成モデルを定義することと、コンピュータ生成モデルに基づいて、処理回路によって有形モデルを生成するための製造システムを動作させることと、有形モデルに基づいて、処理回路によって修正したコンピュータ生成モデルを生成することと、処理回路によって、受け取ったコンピュータ生成モデルへのイメージの投影をシミュレートすることと、シミュレートされた修正されたコンピュータ生成モデルへのイメージの投影に基づいて、処理回路によって、イメージを有形モデルに投影するようにプロジェクターを動作させることとを含む。
【0006】
ある実施形態において、アミューズメントパークのアトラクションシステムは、イメージを出力するように構成されるプロジェクターと、アニメーションフィギュアに対応する第一のコンピュータ生成モデルを定義し、第一のシミュレートされた投影データを確定するために、第一のコンピュータ生成モデルへのイメージの投影をシミュレートし、第一のコンピュータ生成モデル及び第一のシミュレートされた投影データに基づいて、第一の有形モデルを生成するための命令を送信し、第一の有形モデルの電子スキャンに基づいて、第二のコンピュータ生成モデルを獲得するために、第一のコンピュータ生成モデルを更新し、第二のシミュレーされた投影データを確定するために、第二のコンピュータ生成モデルへのイメージの投影をシミュレートし、第二のコンピュータ生成モデル及び第二のシミュレートされた投影データに基づいて、第二の有形モデルを生成する命令を送信し、第二の有形モデルへイメージを出力するようにプロジェクターを動作させるように構成される制御システムとを含む。
【0007】
ある実施形態において、1又は複数の有形の、非一時的、コンピュータ可読媒体は、少なくとも1つのプロセッサによって実行されるとき、アニメーションフィギュアの有形モデルを製造するために、少なくとも1つのプロセッサに製造システムを動作させる、有形モデルの電子スキャンに基づいて、アニメーションフィギュアのコンピュータ生成モデルを生成する、コンピュータ生成モデルの第一の運動を引き起こす、コンピュータ生成モデルの第一の運動に基づいて、アニメーションフィギュアの第二の運動を引き起こす、及びアニメーションフィギュアの第二の運動に基づいて、アニメーションフィギュアにイメージを出力するプロジェクターを動作させる命令を含む。
【0008】
本開示のこれらの及び他の特徴、様態及び利点は、次の発明を実施するための形態が、図面を通して同様の部分を表す同様の特質添付の図面を引用しながら読まれるときに、より良く理解されるであろう。
【図面の簡単な説明】
【0009】
図1】本開示の様態による、動的メディアを提供するシステムの概要図である。
図2】本開示の様態による、動的メディアを提供するシステム及び対応するシステム作用のブロック図である。
図3】本開示の様態による、図2のプロセス作用のキャラクター資産ステップを実施するプロセスを表すプロセスフロー図である。
図4】本開示の様態による、図2のプロセス作用の演出分析ステップを実施するプロセスを表すプロセスフロー図である。
図5】本開示の様態による、図2のプロセス作用のアニメーション/リギングステップのプロセスを表すプロセスフロー図である。
図6】本開示の様態による、図2のプロセス作用の検証ステップを実施するプロセスを表すプロセスフロー図である。
図7】本開示の様態による、図2のプロセス作用の有形設計ステップを実施するプロセスを表すプロセスフロー図である。
図8】本開示の様態による、図2のプロセス作用の有形製作/導入ステップを実施するプロセスを表すプロセスフロー図である。
図9】本開示の様態による、図2のプロセス作用のキャラクターパフォーマンスステップを実行するプロセスを表すプロセスフロー図である。
図10】本開示の様態における、図2のプロセス作用の統合ステップを実行するプロセスを表すプロセスフロー図である。
【発明を実施するための形態】
【0010】
本開示の1又は複数の特定の実施形態を、以下で説明する。これらの実施形態の簡潔な説明を提供する努力において、実際の実装の全ての特徴が、本明細書において説明されるわけではない。いかなるこのような実際の実装の開発において、いかなる光学又は設計プロジェクトにおけるように、別のある実装とは異なり得るシステム関係及びビジネス関係の制約に従うなどの、開発者の特定の目標を達成するために、非常に多くの実装固有の判定をしなければならないことが認識されるべきである。そのうえ、このような開発努力は複雑かつ時間を要しがちであるが、当業者にとっては設計、製作及び製造を行う通常業務となり得る。
【0011】
本発明の種々の実施形態の要素を導入する際に、冠詞「a」、「an」、及び「the」は、要素の1又は2以上が存在することを意味するものとする。用語「備える」、「含む」、及び「有する」は、包括的なものであり、記載した要素以外の付加的な要素が存在し得ることを意味する。加えて、本発明の「一実施形態」、「1つの実施形態」又は「幾つかの実施形態」に対する引用は、同様に記載の特徴部分を組み込んだ追加的な実施形態の存在を排除するものとして解釈されることを意図していない点を理解されたい。
【0012】
テーマパーク及び他のこのようなエンターテインメント会場は、人気を増し続けている。さらに、このようなエンターテインメント会場内での没入型体験が強く求められている。よって、ゲストにさらに没入的な影響を与え、来訪者に彼らがテーマのある環境へ真に魔法のように夢中にさせられるような、現実的な体験を提供するためにテーマに関する効果を向上させるという現在認識されるニーズが存在する。このような没入を提供するより困難な様態のうちの1つは、従来の手法が成し得るよりも、より生きているように見える(テーマのあるエンターテインメントに対して頻繁に使用される)アニメーションフィギュアを作成することを含む。非現実的なアニメーションフィギュアは、没入感の破壊を引き起こしうる。特に、キャラクター(例えば、人間)の顔をアニメーションフィギュアに提供することは、来訪者は、微妙に非現実的な様態を感知させられる顔の構造及び相互作用の非常に詳細な様態に適応するために、特に困難であるとして認識される。従来の手法とともに識別され、不信の意図的な停止を妨げる問題点は、三次元(3D)形態(例えば、ロボット工学)のみによって提供される、生命の不十分な錯覚、リアルな表情の一部を表すのみの人工の皮膚の作動、アニメーションフィギュア内からの光の放射に基づいて容易に気づくことができる投影などを含む。よって、実施形態は、投影メディアの前処理、有形機械的資産への外部投影(例えば、ロボットのアニメーションフィギュア)、及びこれらの作用から、現実的な体験を提供することとなる効果の階層化を調整する制御様態に向けられる。以下で解説するように、一定の様態及び手順は、物理的な遷移に伴うステップ、及び自動化及び/又は人間相互作用に基づく作用に沿って、集中化又は分散化されたプロセッサベース制御に基づいて実施される。
【0013】
先述の点から、本実施形態は、一般的に、アミューズメントアトラクションのアニメーションフィギュアへのメディア投影を作成することの方法及びシステムへ向けられる。とりわけ、本実施形態は、アニメーションフィギュアの他の制御される様態と連携して、アニメーションフィギュアの外面への現実的な、生きているような又は他の没入的メディア投影を提供することによって、テーマにおける没入を容易にするアトラクション特徴を提供することへ向けられる。階層化された相互作用(例えば、製作された3D投影面及びアニメーションフィギュアの作動に連携して、投影されたアニメーション)によって、投影メディア、制御特徴、音声、及びアニメーションフィギュアの様態が用意される。このような階層化された相互作用又は作用は、極めて現実的及び微妙な差異をつけられたようにして、観察者が気づくことができる演出を提供する。このような階層化は、現実に相応する詳細な、複雑な及び微妙な作用を生成するために、いくつかの相互作用データソース又はデータストリーム(例えば、アニメーションフィギュアの現在の状態、ゲストのアクション又は受け身の質、舞台裏又は舞台上のパフォーマーのアクション)を利用することに基づいて、部分的に達成される。このような相互作用の複雑な特質によって、いくつかの実施形態において、人工知能(AI)又は機械学習エンジンからの制御命令は、現実的かつ没入的な観光を作成するために、メディア、投影位置、アニメーション速度、投影面の位置などを調整することができる。さらに、生産の用地を段階的に向上させるために、大量の及び可変の反復のルーチンが含まれ、現実主義又は没入が達成される認められたレベルまで繰り返される。
【0014】
特に、本開示による技法は、動的又は活動的なメディアとして、本明細書で参照されることがあるものを公開するための、機器及び基礎を提供する。動的メディアは、本明細書において、アニメーションフィギュアが、従来的に現実化されるよりもより厳密に現実の人間又はキャラクターに似る、ゲストへの動的な及び没入的な体験の提供を階層化するメディアとして定義される。特に、本明細書で説明する動的メディアを提供することは、アニメーションフィギュアの構成要素を用意すること/作動することに連携して、及び種々の入力、それによって、より生きているように見えるアニメーションフィギュアを提供することに基づいて、イメージをアニメーションフィギュアの外面へプロジェクションマッピングすることを含む。プロジェクションマッピングは、アニメーションフィギュアの半透明な面を通じて内部に投影し、結果となる不自然な背景照明又は優美に輝くとなることを作成する一定のアニメーションフィギュアシステムと比較される際に、特に有益となり得る。さらに、アニメーションフィギュアの投影された画像及び/又は運動のような動的メディアは、ゲストとの相互作用、又は感知された他のパラメータに基づくような相互作用的又は応答的になり得る。よって、予め決められたショー効果を提供する代わりに、ショー効果は動的に生成されることがあり、それによって、ゲストにより没入的な体験を提供するために、作用のサイクルの違いなどに対して、異なることがある。
【0015】
本明細書で解説するように、本実施形態及び技法は、キャラクター定義、演出分析、アニメーションリギング、投影制御、アニメーションフィギュア制御、アニメーションフィギュア作動などを使用して、動的メディアの用意を可能にする基礎を定義する。本開示によって説明するように、これらの様態は、大量の入力及び制御(例えば、種々のマルチメディアコントローラーを制御する、ショー制御)に基づいて、光学的な、物理的な又は可聴の相互作用の全体効果を提供するために、統合される又は階層化される。この全体効果は、動的メディアを提供することの基礎であり、視聴者への没入型体験に関連する。例えば、本明細書で説明する技法の結果は、物理的な、有形な、実在のアニメーションフィギュアにより厳密かつ正確に対応するコンピュータ生成モデルを提供することがあり、コンピュータ生成モデルは、物理的なアニメーションフィギュアの対応する制御を容易にするために、及び物理的なアニメーションフィギュア及びそこに投影されるイメージショー効果に対するより敏感な制御を容易にするために、(例えば、コンピュータ生成モデルに動きを与えるように)制御されることがある。
【0016】
本明細書において提供する例は、一般的に、キャラクター(例えば、人間のキャラクター)の頭部又は顔の真似をすることに焦点を当てている一方で、本実施形態は、その例に宣言されないことが理解されるべきである。さらに、動きを与えられたキャラクターの任意の手法は、本実施形態によって表現することがある。ある例として、顔となることを典型的に考慮しない特徴が利用されることがあり、顔として本明細書で参照されることがある(例えば、車のフロント、又は工場は、人間の顔の印象を与えることを強化する又は追加する特性を持つことがある)。いくつかの様態又は実施形態は、実際の顔の特徴の真似をすることを、今もなお明確に感知されることがあり、人間のキャラクターのそのようなものは、資料者のこのような特徴への慣れ及び適応のために、関連する領域において困難として認識される。そのうえ、本明細書で使用されるように、アニメーションフィギュアは、オブジェクトによって占められる空間の中を動くことができる、任意の適切かつ物理的なオブジェクト又は小道具を含むことがある。さらに、アニメーションフィギュアは、衣類(例えば、ユーザが着るシャツ)、変形可能なオブジェクト(例えば、膨張する及び又は収縮することがある風船)、転がされる及び/又は投げられることがあるボール、又は動くことのできる任意の他の適するオブジェクトを含むことがあり、オブジェクトに投影されるイメージは、オブジェクトのこのような運動に基づいて、動的に調整されることがある。なお、本開示は主に、アミューズメントパークの文脈において解説されるとはいえ、本明細書で説明する技法及び実施形態は、医療用途、輸送用途、建築用途、又はコンピュータ生成モデル、及び対応する物理モデル又はフィギュアが利用され得る任意の他の用途に適用することができる。
【0017】
動的メディアに対する(図2-10に図示される手順に適用可能な)本開示による手順は、種々の異なるステップ、及び手順の様態を含む。これらのステップ又は手順のいくつかは、平行して又は異なる順番を変更しながら実施されることがある。いくつかのステップは、プロセッサベースの作用となることがあり、制御される機器(例えば、アクチュエーター又は3Dプリンタ)を伴うことがある。さらに、いくつかの手順は、望まれる成果を達成するために、反復して実施されることがある。よって、種々の異なる手順のステップが、本明細書において特定の順番で説明され得る一方で、手順のステップは、本開示で説明するように紹介する順番において実施される必要がないことがある。作用のいくつかの特定のステップは、他の特定のステップの前に(例えば、ロジックによって命令されるように)必ず起きることがある一方で、作用の一定の順番の列挙は、主に解説を容易にするために提供される。例えば、第一のステップ又は開始のステップが特定の作用を含むことを示すことは、本開示の範囲を、このような最初のステップに制限することを意図しない。むしろ、追加のステップが実施されることがあり、一定のステップが省かれることがあり、引用されるステップが、適切に代わりの順番において又は平行して実施されることがあるなどのことが、理解されるべきである。しかしながら、作用の開示される順番は、このように示されるときに制限されることがある。
【0018】
図1は、本開示による、動的又活動的なメディアを作成して提供するために実施可能な、システム10を表す。システム10は、動的メディアを提供するために、本明細書で説明する種々の技法を実施するように構成される制御回路(例えば、1又は複数の自動化コントローラー、1又は複数の電子コントローラー、1又は複数のプログラム可能なコントローラー)を含み得る制御システム11を含むことがある。制御システム11は、1又は複数のプロセッサ又は処理回路14、及び有形のコンピュータ可読メディア18を含むことがある。有形のコンピュータ可読メディア18は、その中に命令を記憶することができる、ランダムアクセスメモリ(RAM)のような揮発性メモリ、及び/又はリードオンリーメモリ(ROM)のような不揮発性メモリ、光学デバイス、ハードディスクデバイス、ソリッドステートドライブ、又は他のいかなる適する非一時的なコンピュータ可読メディアを含むことがある。プロセッサ14は、命令を実行するように構成することができる。例えば、プロセッサ14は、1又は複数のapplication specific integrated circuits (ASICs)、1又は複数のfield programmable gate arrays(FPGAs)、1又は複数の汎用目的プロセッサ、又はそれらの任意の組み合わせを含むことがある。
【0019】
制御システム11は、ゲストへショー効果を与えるために、望まれる体験を提供するように動的メディアを動作させるように、構成することができる。例えば、システム10は、プロジェクター2、アニメーションフィギュア3、及び他の小道具4が位置づけられうる場面又はステージエリア1を含むことがある。制御システム11は、望まれる(例えば、現実的な)アニメーションフィギュア3の外観を提供するために、アニメーションフィギュア3へコンテンツ又はイメージを出力するようにプロジェクター2を動作させるように、構成することができる。制御システム11はまた、アニメーションフィギュア3の運動を操縦するために、アクチュエーター5の作用を介するなどして、アニメーションフィギュア3の運動を生じさせるように構成することができる。さらに、制御システム11は、プロジェクター2及び互いに対するアニメーションフィギュア3の運動によってイメージ出力を調節し、別様に簡単に達成できないことがある現実的な外観又は効果を与えるように、プロジェクター2及びアニメーションフィギュア3の間の作用を調整することがある。制御システム11は、また、プロジェクター2及び/又はアニメーションフィギュア3の作用を介して提供される効果を完全にする又は補足するために、光エミッタ、又は音声エミッタ、霧/煙効果システムなどのような他の小道具4を動作させるように構成することができる。ある実施形態において、制御システム11は、種々のオペレーティングパラメータを決定するように構成されるセンサー21へ通信可能に接続されることがあり、制御システム11は、オペレーティングパラメータに基づいて動作するように構成することがある。例えば、オペレーティングパラメータは、場面エリアにおけるアニメーションフィギュア3及び/又はプロジェクター2の位置、方向など、(例えば、他の小道具4による)場面エリアにおける音声出力、及び/又はアニメーションフィギュア3に投影されるイメージの外観を含むことがある。
【0020】
ゲストは、システム10のゲストエリア6に位置づけられることがあり、場面エリア1によって提供される効果を見ることができることがある。例として、ユニークな体験をゲストへ提供するように動作することがある場面エリア1及びゲストエリア6は、アミューズメントパークのアトラクションシステムの一部とすることがある。ゲストエリア6は、場面エリア1に対して(例えば、軌道又は通路に沿って)動くことができる乗り物を含むことがあり、乗り物のゲスト乗客は、乗り物が場面エリア1を通過する間、場面エリア1を見ることができる。加えて又は代わりに、劇的パフォーマンスのためのように、ゲストエリア6は場面エリア1に対して固定されることがあり、観客席型の配置を含むことがある。いかなるケースにおいて、制御システム11を介する場面エリア1の作用は、ゲストエリア6のゲストを楽しませる動的メディアを提供することがある。
【0021】
制御システム11は、また、プロジェクター2、アニメーションフィギュア3、及び/又は小道具4の作成、製作、作用、導入などを容易するなどの望まれる動的メディアを生成するために、種々の作用を反復して実施するように構成することができる。例えば、制御システム11は、アニメーションフィギュア3を表すモデルを生成するために、望まれるキャラクター資産を獲得するように構成することができる。ある実施形態において、制御システム11は、現実のオブジェクト8の画像を取り込み、その画像に基づいてコンピュータ生成モデル9を作成するために、3Dスキャンデバイスのようなスキャンシステム7を動作させるように構成することができる。制御システム11は、スキャンシステム7からコンピュータ生成モデル9を受け取ることができる。コンピュータ生成モデル9は、アニメーションフィギュア3の設計及び作成を助けるために、使用されることがある。例えば、制御システム11は、コンピュータ生成モデル9を見るためにユーザが利用するディスプレイ13を含むことがあり、制御システム11は、コンピュータ生成モデル9の種々の特徴を調節するためにユーザが利用できるマウス、キーボード、タッチスクリーン、トラックパッド、ダイアル、ボタンなどのような、ユーザインターフェース(UI)15を含むことがある。
【0022】
制御システム11は、また、有形モデル19を作成するために、3Dプリントマシン及び/又はモデリングマシン(例えば、射出成形機)のような、製造システム17を動作させるように構成することができる。有形モデル19は、最初の評価及び/又はテストを行う目的のために、アニメーションフィギュア3のより単純化されたバージョン(例えば、アニメーションフィギュアの一部、アニメーションフィギュアの小型化されたモデル)とすることがある。一例として、アニメーションフィギュア3のより複雑な設計及び/又は製造プロセスを始める前に、(例えば、プロジェクター2を介する)有形モデル19へのイメージ出力が望ましく見えるかどうかに関して、最初の決定がされることがある。ある実施形態において、コンピュータ生成モデル9は、有形モデル19の外観(例えば、有形モデル19に投影されるイメージ)に基づいて、調節されることがある。例えば、制御システム11は、有形モデル19(例えば、有形モデル19が取り込まれた画像)に基づいてコンピュータ生成モデル9を作成するために、スキャンシステム7を動作させることができる。よって、コンピュータ生成モデル9は、現実のオブジェクト8の代わりに、有形モデル19をより厳密に表すように更新することができる。このようなコンピュータ生成モデル9は、また、制御システム11を介して調節することができ、続いて、製造システム17を介して次の有形モデル19を作成するために使用することができる。
【0023】
この手法において、コンピュータ生成モデル9の非常に多くの反復、及び/又は有形モデル19は、そこに投影されるイメージとともにアニメーションフィギュア3の望まれる外観見本が作り出されるまで、作成することができる。(例えば、有形モデルの)満足な外観が達成されたとき、制御システム11は、アニメーションフィギュア3の制作を容易にすることができる。例えば、制御システム11は、機械的な製造プロセスにより適する設計を作成することによるなどで、コンピュータ生成モデル9を完成させることができる。アニメーションフィギュア3の最終的な製品は、完成されたコンピュータ生成モデル9に基づいて、そのとき制作されることがあり、場面エリア1への導入に向けて用意されることがある。アクチュエーター5によって支持されるような運動などのアニメーションフィギュア3の作用は、コンピュータモデル9(例えば、コンピュータ生成モデル9を介してシミュレートされた運動)に基づくことがある。
【0024】
図2は、本開示による、動的メディアを提供するプロセス12を実施することができるシステム10を表す。プロセス12は、AI及び機械学習を使用する作用を含む有形のコンピュータ可読メディアに記憶される命令16に基づいて、プロセッサ14を介して実施される種々のコンピュータ作用の見本とすることができる。いくつかの作用は、プロセッサによって直接制御されないことがある(例えば、一定の物理作用)。しかしながら、(例えば、3Dプリンタによる)製造のような一定の物理作用でさえ、制御の様態を伴う。プロセス12のステップの各々は、以下でより詳細に解説する。
【0025】
プロセス12の開始は、投影メディアが基づくことがあるキャラクター又は要素を提供することがあるキャラクター資産ステップ24、及びアニメーションフィギュアが実行することがある場面、会場、物語、環境、設定及び/又は機能を提供することがある演出分析ステップ26の開始を示すスタートブロック20によって表される。キャラクター資産ステップ24及び演出分析は、平行して又は連続して実施されることがある。これらのステップからの結果は、次に、メディアが投影されるアニメーションフィギュアを表すコンピュータ生成モデルを生成することができるアニメーション/リギングステップ28において利用される。次のアニメーション/リギングステップ28、検証ステップ30は、アニメーションフィギュアのコンピュータ生成モデルを完成させるために実施され、有形設計ステップ32は、次に、完成されたコンピュータ生成モデルに基づいて、機械的なデジタル資産を提供するためなどの、アニメーションフィギュアの制作の用意をするために実施されることがある。アニメーション/リギングステップ28、検証ステップ30及び有形設計ステップ32は、結果を観客の認知する現実性の望まれるレベルへ改良するための反復する様態を含む。一度、有形設計作用32が完璧であるとして指定されると、有形製作/導入ステップ34は、アニメーションフィギュア、及び/又は動的メディアを提供するためにアニメーションフィギュアが実装されることがあるステージ又は環境を作成するために実施される。アニメーションフィギュアの運動、及び/又はアニメーションフィギュアへのイメージの投影を決定するためのキャラクターパフォーマンスステップ36は、次に、場面エリアに動的メディアを導入し、動的メディアの作用を完成させるために、アニメーションフィギュアの運動、及び統合ステップ38によって追従される動的メディアの作用を調整するように実施される。一度、統合ステップ38が完了すると、全体プロセス12は、終了ブロック40が指定されるとして、プロセス12の製品として生成及び作成された、完成された動的メディアをもって終わりであると考慮されることがある。結果となる動的メディアは、次に、アミューズメントパークシステムのアトラクションシステムなどにおいて動作して、ゲストへ与えられることがある。例えば、統合ステップ30の完了は、コンピュータ生成モデル、及びコンピュータ生成モデルに厳密に対応する物理的アニメーションフィギュアを提供することがある。動的メディアの作用は、コンピュータ生成モデル及び/又はコンピュータ生成モデルへ投影されるイメージの運動をシミュレートするために、コンピュータ生成モデルを使用すること、及び物理的アニメーションフィギュア及び/又は物理アニメーションフィギュアへ投影されるイメージの対応する運動を提供すること、を含むことがある。全体プロセス12の個々の様態に関連する詳細は、以下でさらに詳細に解説する。
【0026】
図3は、本開示による、プロセス12のキャラクター資産ステップ24を実施するプロセス50を表す、プロセスフロー図である。キャラクター資産作成として参照されることもあるキャラクター資産ステップ24は、動的メディアを提供することの構成要素としてのキャラクター又はキャラクターの様態の投影を表示する投影メディア(例えば、人間の顔のアニメーションを表すための投影メディア)の用意となる、キャラクター資産の開発又は選択を含む。プロセス50は、スタートブロック52によって示されるように開始され、ブロック54によって表されるように、最初にキャラクターの決定へ進行する。キャラクターを決定することは、特定の主体(例えば、人、彫刻された画像、動物)を選択することを含むことがある。キャラクターを選択することにおいて、キャラクターのモデル又は形態(例えば、3Dデジタル人間顔モデル)は、ブロック56によって表されるように作成することがある。形態又はモデル(例えば、3Dモデル)は、コンピュータ生成モデルとして参照されることがある。例えば、予め定義された又は所定のモデル(例えば、3Dモデル)又はコンピュータ生成モデルが、選択された主体のために存在することがあり、予め定義されたモデルは記憶装置から選択され、取得されることがある。加えて又は代わりに、新しいコンピュータ生成モデルは、関連するモデルを持たない主体に対して及び/又は旧式のモデルを持つことがある主体に対するように、キャラクターに対して定義されることがある。例えば、3Dスキャン技法は、彫像、物体、又は生き物のような現実のオブジェクトの3Dコンピュータ生成モデルの作成のために、(典型的に非常に高精度のデータ取り込みとともに)3Dスキャン技術を用いる。特に、3Dスキャナーは、オブジェクトの大量の画像を取り込み、電子スキャン(例えば、主体の電子的マッピング)を生成する。取り込まれた画像は、融合される、縫い合わされる、結合される、又は他の方法で、主体又はオブジェクトの電子3Dレプリカである3Dコンピュータ生成モデルへ統合され、3D座標システムへ写像された主体の種々の点又は部分を含むことがある。一度、コンピュータ生成モデルが(例えば、スキャンを介して)定義されると、ソフトウェアアプリケーションを関連して見ること及び/又は編集することは、種々の異なる角度から、ディスプレイ(例えば、コンピュータスクリーン)上でコンピュータ生成モデルを見ること及び/又は操作することを可能にし得る。例えば、ソフトウェアアプリケーションは、(例えば、マウス又はキーボードのようなユーザインターフェースを使用して)ディスプレイ上でコンピュータ生成モデルを仮想的に回転させることを容易にする。
【0027】
いくつかの実施形態において、コンピュータ生成モデルは、ブロック57に表されるように、グラフィックで修正することができる。例えば、コンピュータ生成モデルの色、テクスチャ、特徴(例えば、顔の特徴、髪、装身具又は付属品)は、追加する、取り除く、他の方法で調節することができる。コンピュータ生成モデルのモデル比率又大きさは、また、修正されることがある。この手法において、コンピュータ生成モデルは、投影されたメディアの実装に基づくなどで、望まれる描写を達成するために、選択されたキャラクターの外観のより大きなカスタマイズを、容易にすることができる。
【0028】
図示された図3のように、プロセス50は、ブロック58に表されるようにキャラクターパフォーマンスを定義するように進行する。キャラクターのパフォーマンスを定義することは、コンピュータ生成モデルの作成(ブロック56)及び/又はコンピュータ生成モデルの修正(ブロック57)の前後又は平行して実施されることがある。ブロック58によって示されるステップは、現実のビデオを取り込むこと、及び関連する顔の特徴運動を含む、役者のキャラクターパフォーマンスの他のモーションデータ(例えば、場面を行動で表す間の、主体によって使用される運動)を含むことがある。このようなビデオイメージ及びモーションデータを取り込むために、モーションキャプチャー技術が使用されることがある。この取り込まれたビデオに関連するデータは、次に、キャラクターパフォーマンスを定義するために、コンピュータ生成モデルとともに用いることができる。具体的には、キャラクターパフォーマンスを定義するために、モーションキャプチャー技術及びデータポイント結合が使用されることがある。例えば、役者の唇におけるモーションキャプチャーポイントは、コンピュータ生成モデル(例えば、電子顔モデル)の唇の表示において、対応するポイント(例えば、座標ポイント)とともに後で使用するために識別されることがあり、モーションキャプチャーの関連する運動データが、コンピュータ生成モデルにおいて唇に適用されることがある。言い換えると、(例えば、3D座標システムの中の)コンピュータ生成モデルの運動は、コンピュータ生成モデルが表す対応する主体のモーションキャプチャーに基づいて、決定されることがある。別の例として、キャラクターパフォーマンスを定義するために、3Dアニメーション技法が用いられることがある。特に、例えば、アニメーションを提供するように調整する一連の画像を作成するために、基礎となる画像、及び/又はコンピュータ生成モデルを編集する及び操作するように、ソフトウェアアプリケーションが用いられることがある。よって、コンピュータ生成モデルの更なる操作は、キャラクターの群胴を表す。情報を定義することができる。本実施形態のこの様態によって、非常に多くの従来のアニメーション技法が用いられることがある。キャラクターの定義されたアニメーション又は運動(例えば、時間をかけたキャラクターの位置)は、実装及び/又は追加の修正に対してすぐに取得されることがあるアニメーションデータとして記憶されることがある。さらに、キャラクターパフォーマンスの視覚部分の一部又は別として、音声を記録することができる。完成したキャラクターパフォーマンスを提供するために、音声をビデオデータと結びつけることができる。しかしながら、いくつかの状況において、音声データ無しにビデオデータが生成される及び/又は用いられることがある。
【0029】
獲得されたデータを使用して、プロセス50は、ブロック60に表されるように、異なるモーションを実施するために、及び/又は異なる外観を提供するために、記憶される、取得される及び/又はさらに操作されることがあるデジタル資産(例えば、固定の顔モデル)を生成する又は確定することができる。時間の特定の点においてキャラクターの外観を表すことができるデジタル資産(例えば、デジタル顔資産)を定義するために、データ、位置ポイントの配列又は構成(例えば、顔の表現)などに関係するデータが利用されることがある。このステップは、一定の型の構造(例えば、顔の構造)の様態を予測し、適合させて、広範囲の運動ベースの作用(例えば、顔の表現)の描写を容易にするための使用可能なデータを利用する構造的構築アルゴリズム(例えば、顔構築アルゴリズム)を用いることを含むことがある。さらに、この手順は、先のステップにおけるこのような運動の特定の取り込みを要求することなしに、表現の種々のインスタンスの生成及びシミュレーションを可能にする。さらに、ブロック62によって表されるように、主体又はキャラクターのグラフィックベースのモデルを構築することを容易にするソフトウェアツール又はアプリケーションプログラミングインターフェースを含むことがあるゲームエンジンとともに使用するための、関連するグラフィックを用意するために、外見開発のステップは、このデジタル資産において実施されることがある。具体的には、従来の技法を使用して、これは、動的メディアを提供する使用方法に対して現実的又は別様に没入的であるアニメーションを容易にするテクスチャリング、面モデリング及びジオメトリインスタンスの組み立てを含むことがある。この点において、図示されるプロセス50が終了であると考慮することがある。しかしながら、以下で解説していくように、(例えば、図1においてブロック28によって、及び図3においてブロック64によって表されるように)デジタル顔資産が、(例えば、外見開発の完了の後に)完成したコンピュータグラフィック資産を提供するために、アニメーション及び/又はリギングとともに、追って使用されることがある。
【0030】
図4は、本開示による、プロセス12の演出分析ステップ26を実施するプロセス70を表す、プロセスフロー図である。動的メディアを提供する効果の階層化を容易にするために、プロセス70から獲得されたデータが用いられることがある。例えば、本開示の実施形態によって、コンサートにおいて、メディアディスプレイ、モデル作用及び動きを与えられたキャラクターの作動(例えば、ロボットの作動)を制御するために、プロセス70の間に獲得されるタイミング、位置及び方向データが利用されることがある。プロセス70の開始がスタートブロック72によって表され、先に述べたように、プロセス70は、キャラクター資産ステップ24に前後して又は平行して実施することができる。
【0031】
図4のプロセス70における最初のステップとして、キャラクターに加えて他のショー効果、小道具又は要素を含むことがある、場面エリアにおけるキャラクターの実装を決定するために、キャラクターの場面又は会場固有の演出が決定される(ステップ74)。異なる時点における場面エリアの3D座標システム内の、異なるポーズ又は向きにおけるキャラクターの(ボリュメトリック分析の様態を含む)特定の座標をマッピングすることを含むことがある、(場面エリア及びアニメーションフィギュアのコンピュータ生成モデルを含む)コンピュータモデリングを使用して、場面固定の演出が実施されることがある。さらに、ブロック76によって表されるように、1又は複数のゲストの見え方に対して、視線及び視界を決定する又は計算することができる。視線及び視界を決定することは、(例えば、コンピュータ生成モデルを介して)現実の場面エリアに対するゲスト及び/又はゲストエリアの位置調整に基づくなどのような、非常に多くの異なる観客の視点に対する平均(mean or average)の見え方を決定することを含むことがある。例えば、場面エリアにおけるキャラクターの運動又は配置は、キャラクターの目標部分の可視性をゲストへもたらすために、視線及び視界に基づいて確定することができる。さらに、ブロック78によって表されるように、場面の所要時間(例えば、割り当てられた時間の総計、又は特定の場面又は表現のパフォーマンスに一般的に使用される時間の総計)が決定される。場面の所要時間を決定することは、場面の単一のサイクルを動作させることの合計の所要時間、場面が開始する及び/又は終了するときのタイムスタンプなどのような、場面の様態又は部分のタイムフレームの決定を含むことがある。場面の所要時間を決定することは、加えて又は代わりに、キャラクターの種々の位置調整を維持すること及び、それによってキャラクターの異なる部分の結果として生じる可視性を維持することに関連する個々の所要時間、キャラクターによる運動(例えば、表情の間を遷移すること)を実施するタイムフレーム、場面の他の要素の運動に対するキャラクターの運動(例えば、キャラクターが、追加の小道具の運動と連動して動く)を示すタイムスタンプなどのような、場面のキャラクターに関連する決定を含むことがある。
【0032】
プロセスは、また、ブロック80によって表されるようなプロジェクターを動かすことがあるプロジェクター及び/又はデバイス(例えば、ボギー)のような、関連するデバイスの仮想的な配置又は物理的な配置を含むことがある最初の投影及びトラッキング/カメラ設計を含むことがある。最初の投影及び/又はトラッキング設計は、プロジェクターの特定の位置調整(例えば、位置、4方向)から、プロジェクターを介するキャラクターへのイメージ出力の(例えば、ゲストの見え方からの)外観をシミュレートすることがある。さらに、プロセスは、ブロック82によって表されるような、円錐体/錐台投影、角度、視界、ゲストの視線などに基づく形式的な学習を含むことがある。投影学習は、プロジェクターによって、キャラクターへ投影されたイメージが歪む、妨げられる(例えば、他の小道具によって遮断される又は遮られる)、又は他に望ましくない出力となっているかどうか決定を助けるために、ソフトウェアを介して実施されることがある。よって、投影学習は、イメージを出力するために使用される画像データを調整するべきかどうか、プロジェクターの位置調整を変えるべきかどうか、異なるプロジェクター又はプロジェクターの種類を使うべきかどうか、追加のプロジェクターを組み込むべきかどうか、などを決定するために使用されることがある。
【0033】
ブロック84において、キャラクターの運動及び構成の遷移に基づく投影の調節に対する調整は、一定のキャラクターの構成の状態(例えば、ジオメトリ、輪郭)を感知することによって提供されることがある。例えば、動的又は能動的な口(例えば、開いた及び閉じた構成の間で口の特徴を移行させるように物理的に動作可能なキャラクター)を有するキャラクターに対して、開いた口の構成(例えば、キャラクターの顎が開いた構成)及び/又は閉じた口の構成(例えば、キャラクターの顎が閉じた構成)が決定されることがある。他の実施形態において、異なる構成(例えば、上がっている又は下がっている額の構成)を決定することがある。さらに、大きな又はより十分な遷移(例えば、ボールの、星の形又はとげのあるボールへのモーフィング)が適応されることもある。再び、異なる投影されたイメージ、投影されたイメージの種類(例えば、一定のプロジェクターによって、又は一定の方向から投影されるイメージ)、又は投影されたイメージのカテゴリ(例えば、閉じた口の構成の幸せな表現比較されるような、開いた口の構成の幸せな表現)を、キャラクターの異なる可能な構成と関連付けることによって現実的なイメージを作成する効果の階層化を容易にするために、このようなデータが用いられることがある。例えば、物理的なキャラクターの開いた口の構成は、(閉じた口のジオメトリに対して)拡大したキャラクターの頭部の構成に位置を合わせる投影に関連付けられ、より現実的で没入的な視聴体験を作成することがある。さらに、本実施形態によって提供される結果は、このような効果の階層化及びこのような階層化に関連する繊細な詳細のために、従来の表現より部分的に優位であるべきだと信じられている。図3に表されるプロセス50と同様に、プロセス70において生成されたデータは、完成したコンピュータグラフィック資産を提供するために、(ブロック28によって図1に、及びブロック86によって図4において表されるように)アニメーション及び/又はリギングとともに、現在利用されることがある。
【0034】
図45は、本開示による、プロセス12のアニメーション/リギングステップ28を実施するプロセス90を表すプロセスフロー図である。本開示の実施形態による、アニメーション/リギングステップは、デジタル骨格として参照されることがある、一連の仮想的に連結しているデジタル構造特徴を使用して、3Dキャラクターモデル(例えば、プロセス50のブロック54において作成されるコンピュータ生成モデル)を表すための(例えば、コンピュータモデリングプログラムによる)骨格アニメーション技法を含む。特に、アニメーション/リギング(又は、単に「リギング」)は、本開示において、3Dキャラクターモデルの異なる部分の連結する様態及び運動の結合を定義するために、3Dキャラクターモデルのデジタル骨格構造を作成するプロセスステップを参照するように、利用されることがある。このデジタル骨格構造は、アニメーションを目的に、本実施形態によって、人形に似ている3Dキャラクターモデルを操作するために利用されることがある。このようなアニメーションは、異なる表情を生じさせるために、顔のモデルの操作、及び顔のモデルの歪みを含むことがある。
【0035】
プロセス90は、プロセス50で組み立てられたキャラクター資産(例えば、ブロック60で作成されたデジタル顔資産)からの予備のリギングを含み得るブロック92から始まることがある。つまり、キャラクター資産の最初のデジタル骨格構造は、キャラクター資産の連結している様態の最初のセットを定義するために、作成されることがある。しかしながら、いくつかの状況において、最初のデジタル骨格構造は、からクターの実装に関連する特定の運動及び/又はプロジェクションマッピングの目的に対して望まれるよりも、より複雑に、難解に又は過大になることがある。図5に示されるように、ブロック94によって表される次のステップは、キャラクターパフォーマンス(例えば、ビデオで取り込まれたキャラクターパフォーマンスのような、プロセス50のブロック58で定義されたキャラクターパフォーマンス)を、外見開発(例えば、プロセス50のブロック62において完成された外見開発)へ適用することを含むことがあるアニメーション目標変更(例えば、粗いアニメーション)を確定することがある。この手法において、ブロック58の結果として作成及び記憶されるアニメーションデータは、アニメーションデータが、デジタル骨格構造のシミュレートされた運動をもたらすことを可能にするために、外見開発及び他に実施されるステップに基づいて修正される(例えば、反復して修正される)ことがある。プロセス90はさらに、ブロック96によって表されるように、主な方向又は位置調整(例えば、表情)における構造特徴(例えば、眉、こめかみ、頬、口、顎、唇)の位置調整に基づく構造分析(例えば、顔分析)を含むことができる。この分析からのデータを使用して、デジタル骨格及びデジタル関節(例えば、デジタル骨格間の連係)は、主要な方向(例えば、主要な表情)が決定され得る。よって、場面に対して、対応する固定の顔モデルの異なる表現の間の3Dキャラクターモデルを変化させるなどのために、アニメーションデータを介して、異なる主な方向を形成するように作動する又は別に動くことがあるデジタル骨格及びデジタル関節の特定のサブセットが決定される。
【0036】
次に、3Dキャラクターモデル(例えば、人の顔のコンピュータ生成モデル)は、ブロック98において表されるように、主な構造を操作する間の形態において、よりアモルファスにした3Dキャラクターモデルを作るために、(例えば、簡単化アルゴリズムを使用して)単純化される。よって、場面への異なる主な方向性を達成するために使用されないことがある一定のデジタル骨格及び/又はデジタル関節は、キャラクター資産の連結している様態のセットの量を減らすために、取り除かれることがある。例えば、顔モデルは、単純化されることがあり(例えば、耳と顎骨の間のような、一定の連結している顔の構造は取り除かれる、又は互いに関連しないようにすることがある)、一定の表情に対して、限定してこのような単純化を生成するように設計されるアルゴリズムに基づいて、よりアモルファスにさせることがある。3Dキャラクターモデルの単純化は、手動で(例えば、ユーザは、デジタル骨格及び/又はデジタル関節が取り除かれるべき又は保持されるべきことを、手動で選択することができる)、及び/又は自動的に(例えば、主な方向性を提供するために、一定のデジタル骨格及び/又はデジタル関節の使用量が閾値を下回ることの自動感知に基づいて)、実施することができる。位置及びデジタル骨格及びデジタル関節の間の結合が変わらずにあることは、主な方向性を達成するための、このようなアルゴリズムにおける主要な顔の構造の識別及びメンテナンスを容易にする。
【0037】
一度、ブロック98において単純化された3Dキャラクターモデルが生成されると、プロセス90は、プロセス90の反復部分へ進むことができる。これは、ブロック100によって表されるように、特定の作動(例えば、顔機能)に対してコンピュータグラフィック装置及び機械的機能リストを作成することを含むことがある。つまり、ブロック58で作成されたアニメーションデータに関連付けられる3Dキャラクターモデルの運動を達成するなどのために、3Dキャラクターモデル(例えば、単純化されたキャラクターモデル)の異なる維持されるデジタル骨格及び/又はデジタル関節を作動すること又は動かすことに関連付けられる3Dキャラクターモデルの運動など及び/又は3Dキャラクターモデルの外観(例えば、表情)の異なる結果としての出力のリストが決定されることがある。よって、最初に生成された機械的機能リストは、実装に望ましい主なオリエンテーションよりも多くのオリエンテーションなどの、多くの種類の異なる出力を含むことがある。加えて、反復部分は、ブロック102によって表されるように、機械的機能リストを選択すること、調節すること、修正すること又は識別することを含むことがある。例えば、アニメーションデータを介して主なオリエンテーションを達成するために使用される、3Dキャラクターモデルのデジタル骨格及び/又はデジタル関節の特定の作動を、決定することができる。このように、主要な方向を提供するために望ましいものに焦点を当てるために、機械的機能リストに含まれる機械的機能の量を落とすために最初に生成された機械的機能リストが単純化されることがある。ある実施形態において、3Dキャラクターモデルの運動に関連するアニメーションデータは、機械的機能リストの観点において、デジタル骨格構造(例えば、デジタル骨格、デジタル関節)を介してより互換性のある又は達成可能であり得る更新された運動を提供するなどのために、機械的機能リストに基づいて更新されることがある。
【0038】
さらに、ブロック104によって表されるように、反復プロセスは、キャラクターの外見開発、ゲストの視線、運動及び/又は3Dキャラクターモデルの主なオリエンテーションなどを含む以前決定したデータを考慮に入れることがあるコンピュータ生成イメージの(コンピュータグラフィック合成及び視覚効果ソフトウェアのような、プロセッサベースコンピュータシミュレーター、又は他のソフトウェアを介する)投影シミュレーションを含むことがある。投影シミュレーションは、3Dキャラクターモデルへ投影されるときに、3Dキャラクターモデルの物理的な現実のオブジェクトの見本へ投影の外観の現実的な描写を提供する仮想コンテンツ又はイメージの画像データの見本を生成することがある。一例として、プロセッサ制御シミュレーターによって実施される投影シミュレーション(例えば、コンピュータ上で動作するシミュレーションパッケージ又はアプリケーション)、及び/又はコンピュータグラフィック合成及び視覚効果ソフトウェアに対して、3Dキャラクターモデル(例えば、顔の3Dキャラクターモデル)は、仮想プロジェクターに対して位置づけられる(例えば、回転される)ことがあり、仮想プロジェクターに対してシミュレートされたレンズの質が、それらの実際のプロジェクターに合致するように仮想的に選択されることがある。シミュレーションは、次に、仮想プロジェクターに対する投影面(例えば、構造及びテクスチャ)を描画し、結果となる画像を出力することができる。投影面及び仮想プロジェクターが、現実の相対物に十分に対応する場合、結果は、現実で投影されるコンテンツの外観をより正確に表現することができる。
【0039】
これらの手順の継続される反復は、(例えば、ユーザ入力又はアルゴリズムに基づくコンピュータ実装基準に基づいて)この点においてプロセス90からのコンピュータ生成イメージ出力が、許容できるかどうかについての決定を含む判定ブロック106からの出力に依存する。出力が許容できない(例えば、3Dキャラクターモデルの一定のデジタル骨格作動及び/又はデジタル関節によって引き起こされる主なオリエンテーションが、望ましくない、3Dキャラクターモデルへ投影されるイメージの外観が望ましくない、3Dキャラクターモデルの運動及び仮想プロジェクターから投影される調節されたイメージの間の調整が望ましくない)場合、ブロック100、102及び/又は104の任意の1つにおいて反復が再度始まることがある。継続する反復の適切な手順のステップの選択は、関連した時間において出力されたコンピュータ生成イメージに関連するデータに依存することがある。例えば、機械的機能リストに基づく3Dキャラクターモデルのデジタル骨格及び/又は関節の作動が調節されるべきかどうか、(例えば、仮想プロジェクターにイメージを出力させるために画像データを調節することによって)仮想プロジェクターによるイメージ出力が調節されるべきかどうか、又は外観及び/又は投影されるイメージとともに3Dキャラクターモデルの質に基づいて両方に関して、決定がされることがある。3Dキャラクターモデル及び投影されたイメージの評定は、アルゴリズム、人工知能、及び/又はユーザ入力などに基づくことがある。一度、ブロック106において出力コンピュータ生成イメージが十分であるとみなされると、ブロック108によって表されるように、コンピュータ生成3Dキャラクターモデルを含むことがある完成したコンピュータ生成資産が定義される。この点において、図5において示されるように、ブロック110によって検証プロセスへの変化が起こる。
【0040】
図6は、本開示による、プロセス12の検証プロセス30を実施するプロセス120を表す、プロセスフロー図である。検証のプロセス120は、ブロック122に表されるように、コンピュータ生成モデルの有形の又は物理的なバージョンの制作(例えば、キャラクターの頭部及び顔の3Dプリント)とともに開始されることがある。これは、十分に作り上げられたコンピュータ生成イメージの確認の後に、コントローラーからの命令に基づく自動化された3Dプリント、AM技術、モデリング(例えば、射出形成)又は構成要素生産(例えば、切削)を含むことがある。有形モデルの制作は、投影テストをするために製作されたモデルの使用を容易にするための、改善作用を含むことがある。例えば、改善作用は、サンディング、研磨、テクスチャリング、塗装、トリミング、パンチング、切削などを含むことがある。次に、ブロック124によって表されるように、製作されたモデルにおけるアニメーションの複数の固定のポーズを使用する投影テストが実施されることがある。例えば、投影テストは、異なる表情のイメージを、製造された顔の構造モデルへ投影すること含むことがある。この目的のために、プロセス90のブロック104におけるように、コンピュータ生成モデルへのイメージ投影をシミュレートするために使用される画像データ及び/又はシミュレートされたコンピュータ生成モデルへの投影に基づいて調節された画像データは、画像データに基づいて有形モデルイメージを出力するために、プロジェクターへ送信されることがある。ある実施形態において、有形モデルの種々の部分(例えば、人形リグ)は、有形モデルによって表されるキャラクターに対する主なオリエンテーションの少なくとも部分的な達成を可能にするために、互いに対して可動となり得る。しかしながら、検証ステップ30の間に作成される有形モデルは、動的メディアにおいて提供及び実装するために、完成された有形のアニメーションフィギュアに関してより単純化された設計(例えば、制限された範囲のモーションを有する)となることがあることに留意されたい。
【0041】
次に、反復及び承認ブロック126によって示されるような、種々の反復作用が実施されることがある。図6において示されるように、種々のステップは、反復作用として含まれ得る。特に、あるステップにおいて、ブロック128によって表されるように、物理的に又は手動で動作可能な特徴が組み込まれることがある。例えば、ブロック128は、顔の運動を提供するために、アクチュエーター(例えば、手で操作可能なレバー)とともに、制作された頭部への柔軟性の皮膚の付加を表すことがある。他の実施形態において、アニメーションフィギュアの他の特徴は、柔軟性のある皮膚(例えば、毛皮、鱗、外装)及び関連するアクチュエーターに対応しながら、更新されることがある。別の反復ステップは、ブロック130として表されるように、関連する作動の自動同期モーションのための、サーボモーター及びコントローラーの組込を含むことがある。例えば、顔の特徴に関連するアクチュエーターは、種々の同期運動において、柔軟性のある皮膚とともに制作された頭部及び顔において一連の表情を表示するために、(例えば、各個人のアクチュエーターを手動で動作させるユーザ無しに)自動的に動作させられることがある。ブロック128及び130のステップは、本開示の様態によって、混合される、除かれる、又は別々に保持されることがあることに留意されたい。
【0042】
別の反復ステップは、有形モデルの機械特徴及び投影特性の間の対応(例えば、目の運動の、機械的な位置調整との位置合わせ)を確定するために、ブロック128及び/又は120に組み立てられた有形モデルへの投影を表すブロック132を含むことがある。この点において、有形モデルに基づいて更新されたコンピュータ生成モデル(例えば、電子スキャン又はマッピング)を確定するために、ブロック134によって表されるような反復ステップは、(例えば、LiDAR(light detection and ranging)又は3Dスキャナーを使用して)有形モデルをスキャンすることを含むことがある。骨格構造を生成するような先の手順、機械的機能リストを決定すること、及び/又は投影されるイメージをシミュレートすることは、このような更新された又は新しいコンピュータ生成モデルを使用して実施されることがある。例として、有形モデルの運動、位置決め及び/又はジオメトリが、有形モデルのモーションキャプチャーを介すなどして獲得されることがあり、このような運動、位置決め及び/又はジオメトリは、コンピュータ生成モデルを制御するために使用されるアニメーションデータを更新するために、使用されることがある。この手法において、最初に作成されたコンピュータ生成モデルのために先に実施されたプロセス90のような、先述したプロセスの一定のステップは、有形モデルに基づいて更新されたコンピュータ生成モデルに対して実施されることがある。より単純化された有形モデルを最初に提供する又は利用するこのような作用は、複数の設計、及びより複雑で完成されたアニメーションフィギュアを作成させることなしに、反復の効率を向上させる、及び(例えば、プロセス50のブロック56を介して)最初に作成されたコンピュータ生成モデルから、作用する物理的構造への変化を容易にすることができる。
【0043】
さらに、図6に図示されるように、反復における前のステップからのデータを使用して、次の有形モデルを反復して更新する及び制作すること及び/又はイメージを有形モデルへ投影する画像データを調節することなどによって更新されたコンピュータ生成モデルを提供するために、又はコンピュータ生成モデルを完成させるために、さらに反復するかどうかの決定をすることができる。特に、ブロック136によって表されるように、有形モデルの形態への投影の生きているような機能が認められるかどうかについて決定される。認められた場合、ブロック138によって表されるように、プロセス120は有形設計フェーズへ進行する。さらにまた、図6で説明されるステップは、必ずしも示される順番で実施する必要がないことに留意されたい。さらに、一定のステップは、本開示の形態によって、結合される又は完全にスキップされることがある。
【0044】
図7は、本開示によるプロセス12の有形設計ステップ32を実施する、プロセス150を表すプロセスフロー図である。開始ブロック151において始まるプロセス150の図示された実施形態において、集中平行アプローチが描かれる。ブロック152によって表されるように、プロセス150の第一の枝において、詳細な音声、ビデオ、照明、及び投影(AVLP)設計が用意される。このステップは、音声、ビデオ、照明及び投影技術を組み込む芸術的メディア、効果、及び表示の用意を含むことがある。第二の枝において、ブロック154によって表されるように、機械的設計が開始されることがある。このステップは、更新されたコンピュータ生成モデルなどの以前に獲得されたデータポイントに基づいて、力学の機械的なシミュレーション(例えば、3Dモデリング)、アニメーションフィギュアの主要な構造(例えば、頭部骨格筐体)を確立する殻又は基礎のジオメトリの決定、殻に取り付けられた(例えば、覆う)皮膚付属品のテクスチャ及び/又は構造の決定などを含むことがある。さらに、ブロック156によって表されるように、プロセス90のブロック96,98において実施されるステップに基づくなどで、ブロック154において確定される基礎を使用して、関節及び構造(例えば、更新されたコンピュータ生成モデルのデジタル骨格及び関節)に対する物理的な位置を確定することができる。ブロック156で実施される作用はまた、対応するアクチュエーターの動きの範囲に基づいて関節及び/又は構造を動かすための更新されたコンピュータ生成モデル(例えば、殻内)における実世界のアクチュエーターのシミュレートされた配置と、アニメーションフィギュアの運動をシミュレートするための実世界のアクチュエーターの作用に基づく更新されたコンピュータ生成モデルの様態の関連する変位(例えば、構造、殻及び/又は皮膚の運動)の決定とを含むことがある。コンピュータ生成モデルにおけるシミュレートされたアクチュエーターは、例えば、コンピュータ生成モデルの関節及び構造の運動を提供するために、上記で作成及び修正されたアニメーションデータに基づいて動作することがある。
【0045】
開示する技法の他の様態と同様に、ブロック158によって表されるように、現実のアクチュエーターを介して達成可能な関節及び構造に基づいて選択された機械的機能を更新するために、及び/又は現実のアクチュエーターの配置に基づいて投影シミュレーションを更新するためなどのように、これらのステップは、反復の主体となり得る。例えば、ブロック108において完成したコンピュータ生成資産を更新するために、ブロック154、156によって表される作用によって確定された機械的デジタル資産は、(例えば、アニメーションフィギュアに組み込まれた殻、現実のアクチュエーター、皮膚のような構成要素の配置を示すように)図5のプロセス90において利用されることがある。反復は、ブロック160によって表されるように、機械的設計承認が承認されるまで継続し得る。
【0046】
一度機械的な設計が承認されると(ブロック160)、プロセス150は、アクチュエーター及びリギング関連アルゴリズム(例えば、関節及びアクチュエーターの位置及び作用設計のモデル)の生成へ進み、ブロック162に表されるように、次にブロック164によって表されるような詳細な機械的設計へ進む。特に、生成されたアルゴリズム及び詳細な機械的設計は、アニメーションフィギュアの殻、皮膚、構造、アクチュエーター及び特徴を組み立てること、位置を決めること、及び/又は動作させ計画を立てることを含むことがある。そのため、アニメーションフィギュアに関連する寸法、大きさ、許容差、及び他の仕様は、アニメーションフィギュアの用意を容易にするために、機械的デジタル資産に基づいて決定することがある。アニメーションフィギュアの用意は、また、決定すること、位置を決めること、配置、及び/又はアニメーションフィギュアの中及び/又は表面の印の明示を含むことがある。印は、信号エミッタ、独特に着色した素材(例えば、塗料、染料及びステッカー)、選ばれた特徴、表面テクスチャ、ピン、リトロリフレクター、照明デバイス(例えば、可視又は不可視の赤外線又は紫外線光源)などを含むことがある。このような印は、カメラ又は他のセンサーを使用して感知可能であることがあり、投影が、投影面として動作させるアニメーションフィギュアの表面に適切に位置を合わせるために、アニメーションフィギュアとプロジェクターの同期のために利用されることがある。詳細な機械的設計の完了、及びAVLP設計の完了は、ブロック166によって表されるように、有形設計フェーズの完了に相当する。この点において、プロセス150は、ブロック168によって表されるように、有形製作へと進行する。
【0047】
図8は、本開示による、プロセス12の有形製作/導入ステップ34を実施するプロセス180を表す、プロセスフロー図である。先述のように、プロセス180のような手順は、特定の順番において図示されるステップを含む。しかしながら、作用の順番は、本開示の範囲にとどまりながら、修正される、並べ替えられる、切り捨てられることなどがあることが理解されるべきである。プロセス180の図示された実施形態において、集中平行アプローチが描かれる。プロセス180の最初の枝は、機械的デジタル資産からあらかじめ獲得された寸法及び仕様を使用して実施されるブロック182によって表されるように、アニメーションフィギュアの機械的制作から開始する。例えば、ブロック182は、アニメーションフィギュアのための殻(例えば、頭部)の制作を表すことがある。ブロック184は殻、皮膚、及び殻に実装されることがあるいかなる他の適する構成要素(例えば、機構又はアクチュエーター)の制作を表す。ブロック186は、有形のアニメーションフィギュアの一部を形成するために、制作された皮膚、殻及び機構(例えば、アクチュエーター)を、互いに組み立てることを表す。一度、殻、皮膚、機構及び基部が組み立てられると(ブロック186)、コンピュータ生成モデルを介して、シミュレートされた作動に基づいて、アニメーションフィギュアの組み立てられた部分の望まれる美観及び機能性を達成するために、ブロック188によって表されるように、作動がテストされる、同調される、及び調節されることがある。アニメーションフィギュアの組み立てられた部分の望まれる美観及び機能性が達成された後、ブロック190に表されるように、アニメーションフィギュアの完成された機械的モデル(例えば、種々の表情をもたらすように構成される顔を含み得る完全に機械的に作動される頭部)は、完全であるとみなされることがある。
【0048】
第一の枝と平行して進行することがある第二の枝は、場面特有の制作及び用意から始めることがある。場面特有の制作及び用意は、アニメーションフィギュア、関連する小道具などのための演出の組み立てを含むことがある。この第二の枝における別のステップは、ブロック204によって表されるように、場面に対する適切な外見及び感触を確定するために、カメラ、プロジェクター、照明システムなどを位置調整することのような、投影、カメラ、及び照明の制作、及び導入を含む。一度、このような特徴が位置づけられると、ブロック206によって表されるように、テストする及び調節するステップが起こり得る。特に、ブロック206は、アニメーションフィギュアに位置づけられた印を識別する用途に対するカメラの位置調整を調節すること、及びプロジェクター及び投影の調整及び同期とともに、投影をアニメーションフィギュアの運動と同期することを含むことがある。一度、調節及び調整の望まれるレベルに達すると、ブロック208によって表されるように、場面特有の制作は完了だと考慮され得る。プロセス180の両方の枝が完了すると、図8においてブロック210によって表されるように、ブロックプロセスはキャラクターパフォーマンスへ進行する。
【0049】
図9は、本開示による、プロセス12のキャラクターパフォーマンスステップ36を実行するプロセス220を表すプロセスフロー図である。プロセス220は、本開示によって、アニメーションフィギュアへの投影と併せて、アニメーションフィギュアの作用(例えば、顔の及び/又はフィギュアのアニメーション)に関わる。さらに、画像データ(例えば、イメージを有形モデルへ投影するために使用する画像データ、有形モデルに投影された画像に基づいて調節された画像データ)は、アニメーションフィギュアへイメージを投影するために、プロジェクターへ送信されることがある。プロジェクターのこのような作用は、アニメーションフィギュアの運動に合わせて調整されることがある。キャラクターパフォーマンスに関連する音声は、また、プロセス220の間に用いられることがあり、音声はキャラクターパフォーマンスの関係する様態と同期されることがある。中でも特に、アニメーションフィギュアの(例えば、光学パフォーマンスキャプチャー又は光学モーションキャプチャーを介する)外部トラッキングは、画像を動的に生成して、アニメーションフィギュアの外面に投影するために、本技法及び実施形態によって使用され、それによっていかなる不自然な背景照明を減少させる又は排除する。より詳細には、アニメーションフィギュアの現実味を高めるために、アニメーションフィギュアは、メディア制御システムのトラッキングカメラが、アニメーションフィギュアの運動、位置及び方向を、光学パフォーマンスキャプチャー又は光学モーションキャプチャーを介して、リアルタイムで認識することを可能にするトラッカーを備えつけられることがある。よって、メディア制御システムは、(例えば、アニメーションフィギュアのアクチュエーターに関する位置、速度及び/又は加速度の情報に依拠しないことによって)アニメーションフィギュアから独立して動作し得るために、メディア制御システムは、作用の待ち時間を減らし、テクスチャ、色及び/又はアニメーションフィギュアと区別のつかないように見える運動を与えることなどによって、生きているキャラクターを模倣する現実的なフレームレートで対話型のアニメーションフィギュアへ画像を動的に生成し、調整し及び/又は投影することができる。
【0050】
図9に図示されるように、ステップ220は、ブロック222によって表されるように、(関連のあるときは)音声とともにブロック58で作成され、他のプロセスの作用に基づいて反復して修正されたアニメーションデータなどのようなアニメーションデータ(例えば、プログラムされた運動、モーションキャプチャーデータに対応する運動、コンピュータ生成モデルを介してシミュレートされた運動)を、アニメーションフィギュアのアニメーション機能(例えば、表情、又は他のフィギュアの運動)へ適用することを含むことがある。アニメーションデータは、アニメーションフィギュアのコンピュータ生成モデルの骨格構造の、シミュレートされた作動に基づいて、物理的なアニメーションフィギュアの運動を引き起こすことがある。上記のように、アニメーションデータは、コンピュータ生成モデルのシミュレートされたアクチュエーターを動作させることによって、コンピュータ生成モデルの運動を引き起こすことがある。加えて、アニメーションフィギュアは、シミュレートされたアクチュエーターに対応する、実在のアクチュエーターを含むことがある。アニメーションデータは、したがって、実在のアクチュエーターを動作させ、アニメーションフィギュアの対応する運動を引き起こすために、使用されることがある。この手法において、コンピュータ生成モデルは、アニメーションフィギュアの対応する制御を提供するために、制御されることがある。また、ブロック224によって大まかに表されるように、ブロック222において更新された/修正されたアニメーションデータを補うことができる追加のアニメーションデータなどの、特定のアニメーションデータは、特定の作用へ適用されることがある。例えば、表情の作動が、アニメーションフィギュアとともに用いられると、直接のアルゴリズムを介してアニメーションデータを顔のアクチュエーターへ適用するステップは、アニメーションフィギュアの運動を調節するために用いられることがある。
【0051】
さらに、ブロック226によって表されるように、アニメーションフィギュアのアニメーションがひとたび確定されると、動的メディアを提供するために、アニメーションフィギュア(例えば、アニメーションキャラクターの手)のアニメーションを再生され、投影(例えば、プロジェクターへ送信される画像データ)、トラッキング作用(例えば、アニメーションフィギュアの印を追跡するカメラシステム)、及びAVLP作用と同期することができる。ブロック228によって示されるように、動的メディアのテスト及び調節(例えば、アニメーションフィギュアの運動、イメージを投影するために使用される画像データ)が、次に発生し、ブロック230によって表されるように、プロセス220の全ての又は選ばれた様態の反復が、アニメーションフィギュアのパフォーマンスの評価まで継続することがある、及び/又は投影されたイメージが確定することがある。例えば、シミュレートされたプロジェクターは、シミュレートされた画像を、アニメーションフィギュアのコンピュータ生成モデルへ投影するように制御されることがあり、その上に投影されるシミュレートされた画像を有するコンピュータ生成モデルの外観は、その上に投影される対応する画像を有するアニメーションフィギュアの外観に密接に対応する。それによって、現実の又は物理的なプロジェクターは、コンピュータ生成モデルへ投影されるシミュレートされた画像に基づいて、対応する画像をアニメーションフィギュアへ投影するように制御されることがある。図9及び反復手順を表す他の図に関して、図示される実施形態において、ブロック230及び他の反復インジケーターが特定のステップを指すことがある一方で、示される以外の、又は示される1つをさらに除外するステップが、反復のために指定されることがある。このような図解は、広範な又は特定の反復オプションの両表の代表である。
【0052】
当然ながら、プロセス220の完了に関して、一定の実施形態のメディア制御システムは、トラッキングカメラからのフィードバックに基づいて、アニメーションフィギュアの骨格モデルを生成する、及び更新することがある。骨格モデルは一般的に、作動可能な関節などのアニメーションフィギュアの作動可能な部分を表し、(例えば、x、y及びz並進座標、及び/又はx、y及びz回転座標を含む)アニメーションフィギュアの又はその部分(例えば、アニメーションフィギュアのポーズ)現在の位置、方向、及び/又はスケールを表すように動的に更新される。メディア制御システムは、そのうえ、アニメーションフィギュアの現在の位置、方向および/又は大きさに正確に合う投影のための画像を生成するために、骨格モデルを利用する。動的メディアシステムは、それによって、アニメーションフィギュアの機械的パフォーマンスへ応答するメディア制御システムと同様に、対話型データへ応答するアニメーションフィギュアを有するモーション制御システムを提供する。これらの2つの制御ループは、その結果、アニメーションフィギュアの機械的な位置調整に関係なく、魅力のあるキャラクター演出をゲストへ届けるために、アニメーションフィギュアの光学モーションキャプチャーに基づいて、向上したシステムパフォーマンスを提供する。次に、プロセス220は、ブロック232によって示されるように、統合へと移行する。
【0053】
図10は、本開示の実施形態による、プロセス12の統合ステップ38を実行するプロセス240を表す、プロセスフロー図である。図10で図示されるように、プロセス240は、アトラクションシステムに対する場面エリアにおいて、有形資産(例えば、アニメーションフィギュア、照明効果、カメラシステム、プロジェクター、及び支援素材)を導入することによって、開始されることがある。この導入プロセスは、ブロック242によって表される。この導入がひとたび完了すると、プロセスは、本開示によって、1又は複数のコントローラー(例えば、プログラム可能なロジックコントローラーなどのような、1又は複数のプロセッサ及びメモリを備える自動化コントローラー)によって反復して実施されることがある(ブロック244、246、248、250及び252によって表されるような)ステップを含む。ブロック244は、その場で追跡すること、及びアトラクション効果(例えば、フィギュアアニメーション、投影、照明、音声、及びショー制御)の較正を表す。例えば、アニメーションフィギュア(例えば、アクチュエーター)、プロジェクター、光エミッタ、音声エミッタなどのような、種々の構成要素の作用及び/又は位置調整は、導入の結果としての許容差又はオフセットを適応させるなどのために、有形資産の導入に基づいて調節されることがある。ブロック246は、アトラクション効果の結果としての外観を決定するために、較正からの調節を組み込むことがあるアトラクション効果の再生を表す。例えば、動的メディアの外観が、ゲストの視野から望まれるようになっているかどうかに関する決定がされることがある。
【0054】
ブロック248は、場面エリア内でのアニメーションフィギュア上での表示(例えば、コンピュータ生成の、アニメーション顔投影の照明及び陰影)のための、イメージ(例えば、画像データ)に合わせてのデジタル調節を表す。例えば、イメージは、アニメーションフィギュアに投影されたイメージの外観に基づいて、調節されることがある。ブロック250は、ゲストの視点からの種々の効果(例えば、アニメーションフィギュアの一部)の可視性を調節するなどのための、場面エリア内での照明(例えば、舞台照明)の調節を表す。照明は、場面エリアを照らす物理的な照明などの、実際の照明を含むことがある。照明は、また、投影される画像に影響を与える照明(例えば、プロジェクターを動作させることによって作り出される照明、又はイメージを提供するディスプレイ)を含むことがある、仮想的な照明を含むことがある。照明は、デジタルコンテンツの代わりに、物理的な特徴として見えるなどのために、場面エリアにおいて、投影されたイメージがより現実的に見えるように、反復して調節されることがある。ブロック252は、他のアトラクションと連携して、乗り物及び制御システムの同期及び/トリガを表す。乗車及び制御システムの同期は、アニメーションフィギュアに関連する特定の運動及び投影とともに、乗り物の位置調整を制御すること及び較正することを含むことがある。例えば、演出の特定のフェーズの間、乗客が、アニメーションフィギュアのクリアで妨げるものの無い視線を有するように、及び/又は乗客とアニメーションフィギュアの相対的な位置調整が、乗客に、アニメーションフィギュアの特定の部分(例えば、顔の全面)に彼らの視線を集中させるように、乗り物を位置づけることが望まれることがある。ブロック254は、テスト、調節及び一定の構成要素の作用及び位置調整が望まれる効果を提供するように調節されるべきかどうかを決定するために承認に基づく反復の開始を表す。(例えば、特定の反復アクションに関する)テストに基づき、さらなる調節が必要とされる場合、このような反復は、承認が確定されるまで繰り返されることがあり、そしてプロセスはブロック256において終了する。
【0055】
開示された動的メディアプロセスの技術的効果は、魅力のある現実的な体験を、アミューズメントアトラクションのゲストに届けるために、1又は複数のゲームエンジン、投影、モーションキャプチャー、マーカートラッキング、ユーザ入力、人工知能、モデリング、アクチュエーターの位置調整、構造的位置調整、及び種々の反復を用いるアニメーションフィギュアを備えるモーション制御システムの供給を含む。特に、動的メディアプロセスは、テーマへの信憑性及び没入感を高める微妙な相互作用を統合する種々の技法の階層化を含むことがある。技法のパフォーマンス(例えば、反復のパフォーマンス)は、実在のモデルに対応するコンピュータ生成デバイスを提供することがある。コンピュータ生成モデルは、実在のモデルの制御をより厳密かつより正確にシミュレートするために、制御することができる。例えば、コンピュータ生成モデルの運動のシミュレーション、及びコンピュータ生成モデルへのイメージの投影は、実在のモデルの運動に対応する、及び/又は実在のモデルへのイメージの投影に対応する、現実的な外観を提供することができる。このような作用は、より望まれるショー効果をゲストへ提供することができる。一例として、反復するシミュレーション、制作及び同期を介してこのような運動に合わせて正確に調整された投影メディアと併せて、関節でつながる顎、又は物理的なアニメーションフィギュアの他の移動可能な部分を操作することによって、本実施形態は、現実的かつ魅力のある効果を提供する。そのうえ、動的メディアプロセスは、マーカーのリアルタイムの追跡、及びアニメーションフィギュアの外面への投影との調整を含む。したがって、本開示のプロセスは、現実性を模倣するために異なるメディアの種類の間の強力な位置調整を提供するように、シミュレーションと物理的な作用との間を移行するプロセスに基づいて現実的な投影/運動相互作用を提供することができる。
【0056】
開示の一定の特徴のみが本明細書で図示及び説明されるが、当業者は多くの修正及び変化が思い浮かぶであろう。それゆえに、添付される特許請求の範囲は、本開示の本質の範囲に収まるように、全てのそのような修正及び変化を網羅することが意図されていると理解されるべきである。上記のフィギュアに対して図示又は説明される任意の特徴は、任意の適する手法において組み合わされる。
【0057】
本明細書で公開及び請求する技術は、抽象的、無形的、又は単に理論的ではないような、本技術領域を明らかに向上させる実践的な特質の有形物及び具体例に参照され適用される。さらに、本明細書の終わりに添付される任意の特許請求の範囲が、「[機能]を[実施]する手段…」又は「[機能]を[実施]するステップ…」として指定される1又は複数の要素を含む場合、このような要素は、米国特許法第112条(f)の下で解釈されるべきである。しかしながら、いかなる他の手法において指定される要素を含む任意の特許請求範囲に対して、このような要素は、米国特許法第112条(f)の下で解釈されるべきでないと意図される。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
【国際調査報告】