(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-06-12
(45)【発行日】2023-06-20
(54)【発明の名称】対話型アニメキャラクターヘッドステム及び方法
(51)【国際特許分類】
A63H 3/33 20060101AFI20230613BHJP
A63H 3/36 20060101ALI20230613BHJP
A63H 3/00 20060101ALI20230613BHJP
A63J 7/00 20060101ALI20230613BHJP
A63J 19/00 20060101ALI20230613BHJP
A63G 33/00 20060101ALI20230613BHJP
【FI】
A63H3/33 C
A63H3/36 L
A63H3/00 Z
A63J7/00
A63J19/00
A63G33/00
(21)【出願番号】P 2020552410
(86)(22)【出願日】2019-02-06
(86)【国際出願番号】 US2019016895
(87)【国際公開番号】W WO2019190633
(87)【国際公開日】2019-10-03
【審査請求日】2022-01-21
(32)【優先日】2018-03-29
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】511077292
【氏名又は名称】ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
(74)【代理人】
【識別番号】100094569
【氏名又は名称】田中 伸一郎
(74)【代理人】
【識別番号】100103610
【氏名又は名称】▲吉▼田 和彦
(74)【代理人】
【識別番号】100109070
【氏名又は名称】須田 洋之
(74)【代理人】
【識別番号】100067013
【氏名又は名称】大塚 文昭
(74)【代理人】
【識別番号】100086771
【氏名又は名称】西島 孝喜
(74)【代理人】
【識別番号】100109335
【氏名又は名称】上杉 浩
(74)【代理人】
【識別番号】100120525
【氏名又は名称】近藤 直樹
(74)【代理人】
【識別番号】100139712
【氏名又は名称】那須 威夫
(74)【代理人】
【識別番号】100210239
【氏名又は名称】富永 真太郎
(72)【発明者】
【氏名】ヴィアス アニーシャ
(72)【発明者】
【氏名】コサイル トラヴィス ジョン
(72)【発明者】
【氏名】イエ ウェイ チェン
【審査官】池田 剛志
(56)【参考文献】
【文献】米国特許出願公開第2013/0226588(US,A1)
【文献】特開2007-199997(JP,A)
【文献】特開2015-066623(JP,A)
【文献】特開2004-216513(JP,A)
【文献】特開2002-149951(JP,A)
【文献】特開2007-190641(JP,A)
【文献】米国特許出願公開第2014/0135137(US,A1)
【文献】ナムコ、音声認識システムを使ったアトラクション ナンジャタウン「福袋探偵大學」をオープン,GAME Watch [online],2001年02月05日,URL, https://web.archive.org/web/20130701210441/https://game.watch.impress.co.jp/docs/20010205/namco.htm,<2023年1月27日検索>
(58)【調査した分野】(Int.Cl.,DB名)
A63G 1/00-33/00
A63H 1/00-37/00
A63J 1/00-99/00
A63K 1/00-99/00
B25J 1/00-21/02
(57)【特許請求の範囲】
【請求項1】
1又は2以上のプロセッサを備えた対話型システムであって、前記1又は2以上のプロセッサが、
ユーザが遊園地のゲームアトラクションを退出することと、前記ゲームアトラクション内で前記ユーザが獲得したポイント数とを示す第1の信号を受け取り、
前記ゲームアトラクションを退出した後、前記ユーザがアニメキャラクターヘッドに接近していることを示す第2の信号を受け取り、
前記第2の信号の受け取りに応答して、前記ゲームアトラクション内で前記ユーザが獲得したポイントに関連する情報を前記アニメキャラクターヘッドに関連付けられた基地局制御システムに提供して、前記アニメキャラクターヘッドと前記ユーザとの間で個人用対話をもたらす、ように構成されている、対話型システム。
【請求項2】
前記1又は2以上のプロセッサは、前記ユーザとの前記個人用対話の間に前記アニメキャラクターヘッドによ
り表現が話されたことに応答して、前記ユーザとの将来の個人用対話の間に前記アニメキャラクターヘッドにより前記表現を話すことができないように、前記表現のインベントリから
前記表現を削除するように構成されている、請求項1に記載の対話型システム。
【請求項3】
前記ゲームアトラクション内に位置付けられた識別デバイスを備え、前記識別デバイスは、前記ユーザのウェアラブルデバイスによってサポートされる識別子の検出に応答して前記第1の信号を生成するよう構成されている、請求項1に記載の対話型システム。
【請求項4】
前記識別デバイスは、無線周波数識別(RFID)リーダを含み、前記識別子がRFIDタグを含む、請求項3に記載の対話型システム。
【請求項5】
前記アニメキャラクターヘッドに近接して位置付けられた識別デバイスを備え、前記識別デバイスは、前記ユーザのウェアラブルデバイスによってサポートされる識別子の検出に応答して前記第2の信号を生成するよう構成されている、請求項1に記載の対話型システム。
【請求項6】
前記基地局制御システムを備え、前記基地局制御システムは、操縦者による視覚化のためディスプレイ画面上に前記ユーザが獲得したポイントの表示を示すように構成される、請求項1に記載の対話型システム。
【請求項7】
前記基地局制御システムを備え、前記基地局制御システムは、前記情報を処理して前記アニメキャラクターヘッドのための推奨アニメーションを決定するよう、及び操縦者による視覚化のため前記基地局制御システムのディスプレイ画面上に前記推奨アニメーションを表示するように構成されている、請求項1に記載の対話型システム。
【請求項8】
前記情報は、前記アニメキャラクターヘッドのための推奨アニメーションを含む、請求項1に記載の対話型システム。
【請求項9】
前記基地局制御システムを備え、前記基地局制御システムは、操縦者からアニメーション選択入力を受け取るよう構成された入力デバイスと、前記アニメーション選択入力を前記アニメキャラクターヘッドに通信するよう構成された通信デバイスと、を備える、請求項1に記載の対話型システム。
【請求項10】
前記アニメキャラクターヘッドを備え、前記アニメキャラクターヘッドは、前記アニメーション選択入力を受け取り、前記アニメーション選択入力に基づいて前記アニメキャラクターヘッドの1又は2以上のアクチュエータを制御するよう構成された1又は2以上の個々のプロセッサを備える、請求項9に記載の対話型システム。
【請求項11】
前記基地局制御システム及び前記アニメキャラクターヘッドを備え、前記基地局制御システム及び前記アニメキャラクターヘッドは、前記基地局制御システムを操作する操縦者が、前記アニメキャラクターヘッドを着用している出演者と口頭で通信できるようにする個々のオーディオ通信デバイスを備える、請求項1に記載の対話型システム。
【請求項12】
対話型システムであって、
ユーザのウェアラブルデバイスによってサポートされる識別子を検出するよう構成された1又は2以上の識別デバイスと、
1又は2以上のプロセッサと、を備え、前記1又は2以上のプロセッサが、
前記1又は2以上の識別デバイスのうちの少なくとも1つの識別デバイスから受け取った個々の信号に基づいて、ゲームアトラクション内で前記ユーザが獲得したポイントに関連付けられた、遊園地の前記ゲームアトラクション内の前記ユーザのアクティビティをモニタし、
前記1又は2以上の識別デバイスのうちの少なくとも1つの他の識別デバイスから受け取った個々の信号に基づいて、前記ユーザがアニメキャラクターヘッドに接近していることに関連付けられた、前記ゲームアトラクションの外での前記ユーザのアクティビティをモニタし、
前記ユーザが前記アニメキャラクターヘッドに接近していることに応答して、前記ゲームアトラクション内で前記ユーザが獲得したポイントに基づいて前記アニメキャラクターヘッドに個々の信号を出力して、これにより前記アニメキャラクターヘッドに前記ゲームアトラクション内で前記ユーザが獲得したポイントに関連性のあるアニメーションを提示させ、前記アニメキャラクターヘッドと前記ユーザとの間で個人用対話をもたらす、ように構成される、対話型システム。
【請求項13】
前記1又は2以上の識別デバイスは、1又は2以上の無線周波数識別(RFID)リーダを含み、前記識別子がRFIDタグを含む、請求項12に記載の対話型システム。
【請求項14】
コンピューティングシステム、基地局制御システム及び前記アニメキャラクターヘッドを備え、前記コンピューティングシステムは、前記ユーザの前記アクティビティをモニタするよう構成された前記1又は2以上のプロセッサのうちの少なくとも1つのプロセッサを備え、前記基地局制御システムは、前記コンピューティングシステムから前記ユーザの前記アクティビティを示す情報を受け取るように構成され、前記基地局制御システムは、前記ユーザの前記アクティビティを示す前記情報に基づいて操縦者が前記アニメーションを選択できるように構成された入力デバイスを備え、前記基地局制御システムは、前記個々の信号を前記アニメキャラクターヘッドに出力するよう構成された前記1又は2以上のプロセッサのうちの少なくとも1つのプロセッサを備える、請求項12に記載の対話型システム。
【請求項15】
前記1又は2以上の識別デバイスのうちの少なくとも1つは、前記アニメキャラクターヘッドに結合されて、前記ユーザの前記ウェアラブルデバイスによってサポートされた前記識別子の検出に応答して、個々の信号を生成するよう構成される、請求項12に記載の対話型システム。
【請求項16】
1又は2以上のプロセッサにおいて、遊園地内でユーザがアニメキャラクターヘッドに接近していることを示す第1の信号を受け取るステップと、
前記1又は2以上のプロセッサを用いて、前記ユーザが前記アニメキャラクターヘッドに接近していることを示す前記第1の信号を受け取ったことに応答して、前記遊園地内の前記ユーザの従前のアクティビティに関連する情報にアクセスするステップと、
前記1又は2以上のプロセッサを用いて、前記第1の信号の受け取りに応答して、前記ユーザの従前のアクティビティに関連する前記情報を前記アニメキャラクターヘッドに関連付けられた基地局制御システムに提供して、前記アニメキャラクターヘッドと前記ユーザとの間で個人用対話をもたらすステップと、
前記1又は2以上のプロセッサにおいて、前記アニメキャラクターヘッドから離れた後、前記ユーザが前記遊園地内のゲームアトラクション内にいることを示す第2の信号を受け取るステップと、
前記1又は2以上のプロセッサを用いて、前記アニメキャラクターヘッドと前記ユーザとの間の前記個人用対話に基づいて前記ゲームアトラクション内の1又は2以上のゲーム要素を調整するステップと、を含む方法。
【請求項17】
前記ユーザの前記従前のアクティビティは、前記ゲームアトラクション内で前記ユーザが獲得したポイントに関連付けられている、請求項16に記載の方法。
【請求項18】
前記ユーザのウェアラブルデバイスによってサポートされる識別子を検出するように構成された識別デバイスから前記ユーザの前記従前のアクティビティを示す別の信号を前記1又は2以上のプロセッサにおいて受け取るステップを含む、請求項16に記載の方法。
【請求項19】
前記ユーザが前記アニメキャラクターヘッドに接近していることを示す前記第1の信号を、前記ユーザのウェアラブルデバイスによってサポートされる識別子を検出するよう構成された識別デバイスから受け取るステップを含む、請求項16に記載の方法。
【請求項20】
前記識別デバイスは、無線周波数識別(RFID)リーダを含み、前記識別子がRFIDタグを含む、請求項19に記載の方法。
【請求項21】
前記基地局制御システムの1又は2以上の個々のプロセッサを用いて、前記情報を処理して前記アニメキャラクターヘッドのための推奨アニメーションを決定し、操縦者による視覚化のため前記基地局制御システムのディスプレイ画面上に前記推奨アニメーションを表示するステップを含む、請求項16に記載の方法。
【請求項22】
前記基地局制御システムの1又は2以上の個々のプロセッサにおいて、操縦者からアニメーション選択入力を受け取るステップと、
前記基地局制御システムの通信デバイスを用いて、前記アニメーション選択入力を前記アニメキャラクターヘッドに送信するステップと、を含む、請求項16に記載の方法。
【請求項23】
前記アニメキャラクターヘッドの1又は2以上の個々のプロセッサを用いて、前記アニメーション選択入力に基づいて前記アニメキャラクターヘッドの1又は2以上のアクチュエータを制御するステップを含む、請求項22に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、全体的に遊園地に関する。より具体的には、本開示の実施形態は、遊園地体験を提供するのに使用されるシステム及び方法に関する。
【背景技術】
【0002】
遊園地及び他の娯楽場は、他の多くのアトラクションの中でも特に、来園者と対話するアニメキャラクターを含む。例えば、アニメキャラクターは、遊園地を歩き回り、娯楽を提供し、来園者に話し掛ける場合がある。ある特定のアニメキャラクターは、出演者の顔面を覆うアニメキャラクターヘッドを備えたコスチュームをまとった出演者を含む場合がある。アトラクションの高度化と複雑化、並びにこれに伴う来園者の間の期待の高まりに伴って、対話型で個人化された体験を来園者に提供するには、より創造的なアニメキャラクターヘッドシステム及び方法が必要とされる。
【発明の概要】
【発明が解決しようとする課題】
【0003】
最初に請求項に記載された本発明の範囲内にある特定の実施形態について以下で要約する。これらの実施形態は、本開示の範囲を限定することを意図するものでなく、むしろ、これらの実施形態は、開示する特定の実施形態の概要を提供することのみを意図している。実際に、本開示は、以下に記載する実施形態と類似した又は異なる場合がある様々な形態を包含することができる。
【0004】
1つの実施形態において、対話型システムは、環境内のユーザのアクティビティを示す第1の信号を受け取り、ユーザがアニメキャラクターヘッドに接近していることを示す第2の信号を受け取るように構成された1又は2以上のプロセッサを含む。1又は2以上のプロセッサはまた、第2の信号の受け取りに応答して、ユーザのアクティビティに関連する情報をアニメキャラクターヘッドに関連付けられた基地局制御システムに提供して、アニメキャラクターヘッドとユーザとの間で個人用対話をもたらすように構成される。
【0005】
1つの実施形態において、対話型システムは、ユーザのウェアラブルデバイスによってサポートされる識別子を検出するよう構成された1又は2以上の識別デバイスを含む。対話型システムはまた、1又は2以上の識別デバイスから受け取った個々の信号に基づいて環境内のユーザのアクティビティをモニタするよう構成された1又は2以上のプロセッサを含む。1又は2以上のプロセッサは更に、ユーザのアクティビティに基づいてアニメキャラクターヘッドに個々の信号を出力して、これによりアニメキャラクターヘッドがユーザのアクティビティに関連性のあるアニメーションを提示させ、前記アニメキャラクターヘッドと前記ユーザとの間で個人用対話をもたらすように構成される。
【0006】
1つの実施形態において、方法は、1又は2以上のプロセッサにおいて、ユーザがアニメキャラクターヘッドに接近していることを示す信号を受け取るステップを含む。本方法はまた、1又は2以上のプロセッサを用いて、ユーザの従前のアクティビティに関連する情報にアクセスするステップを含む。本方法は更に、1又は2以上のプロセッサを用いて、信号の受け取りに応答して、ユーザの従前のアクティビティに関連する情報をアニメキャラクターヘッドに関連付けられた基地局制御システムに提供して、アニメキャラクターヘッドと前記ユーザとの間で個人用対話をもたらすステップを含む。
【0007】
本開示のこれら及び他の特徴、態様、及び利点は、図面全体を通して同様の符号が同様の要素を表す添付図面を参照しながら以下の詳細な説明を読むとより良く理解されるであろう。
【図面の簡単な説明】
【0008】
【
図1】1つの実施形態による、アニメキャラクターヘッドを有する対話型システムのブロック図である。
【
図2】1つの実施形態による、
図1の対話型システムを含む遊園地の概略図である。
【
図3】1つの実施形態による、
図1の対話型システムを動作させる方法のフロー図である。
【
図4】1つの実施形態による、アニメキャラクターヘッドの側断面図及び
図1の対話型システムにおいて用いることができる基地局制御システムの正面図である。
【発明を実施するための形態】
【0009】
本開示の1つ又はそれ以上の特定の実施形態について、以下に説明する。これらの実施形態の簡潔な説明を行うために、本明細書では、実際の実施態様の全ての特徴については説明しないことにする。何れかの技術又は設計プロジェクトと同様に、このような何らかの実際の実装の開発において、システム及びビジネスに関連した制約への準拠など、実装毎に異なる可能性のある開発者の特定の目標を達成するために、多数の実装時固有の決定を行う必要がある点を理解されたい。更に、このような開発の取り組みは、複雑で時間を要するものであるが、本開示の利点を有する当業者にとっては、実験を伴わずに、設計、製作、及び製造の日常的な業務であることを理解されたい。
【0010】
遊園地は、遊園地の乗物、ゲーム、パフォーマンスショー、アニメキャラクターなど、多種多様なエンターテイメントを特徴として備える。しかしながら、エンターテイメントの形式の多くは、来園者の従前のアクティビティ(例えば、体験及び/又はアクション)に基づいて変化しない。例えば、アニメキャラクターは、各来園者に同様の方法で挨拶する場合がある。一部の来園者は、来園者ごとに異なる、対話ごとに異なる、及び/又は来園者の従前のアクティビティの認識を示す、アニメキャラクターとの固有の又はカスタマイズされた対話を好む場合がある。従って、本実施形態は、遊園地内での来園者のアクティビティをモニタし、来園者の従前のアクティビティに少なくとも部分的に基づいて、アニメキャラクターの来園者との対話を制御する又は影響を与える出力を提供する対話型システムに関する。
【0011】
より詳細には、本開示は、無線周波数識別(RFID)システムなどの識別システムを使用して、遊園地内の来園者のアクティビティをモニタする対話型システムに関する。1つの実施形態では、来園者は、RFIDタグなどの識別子をサポートするデバイスを着用するか、又は携行することができる。来園者が、遊園地内に位置付けられたリーダ(例えば、RFIDトランシーバ)の範囲内にデバイスを持ち込むと、リーダは、識別子を検出し、信号をコンピューティングシステムに提供して、コンピューティングシステムが遊園地内での来園者のアクティビティをモニタして、(例えば、データベースに)記録することができる。例えば、リーダが乗物(例えば、ジェットコースター又は他の同様のアトラクション)の出口に位置付けることができ、リーダは、来園者が乗物から退出するときに、デバイス内の識別子を検出することができる。リーダは、デバイスが乗物の出口近くで検出されたことを示す信号をコンピューティングシステムに提供することができ、次いで、コンピューティングは、信号に基づいて来園者が乗物を完了したと判断することができ、次に、コンピューティングシステムは、データベースに情報(例えば、来園者が乗物を完了したこと)を格納することができる。
【0012】
その後、来園者は、遊園地の別の部分に配置されている場合があるアニメキャラクターを訪れることができる。1つの実施形態では、アニメキャラクターは、出演者が着用するアニメキャラクターヘッドを含む。アニメキャラクターに近接して位置付けられた追加のリーダ(例えば、RFIDトランシーバ)(例えば、アニメキャラクターに結合された、出演者によって携行された、基地局制御システムに結合された、又は遊園地内の静止構造物又は特徴部に結合された)は、来園者がアニメキャラクターに接近すると、デバイス内の識別子を検出することができる。追加のリーダは、アニメキャラクターの近くでデバイスが検出されたことを示す信号をコンピューティングシステムに提供し、コンピューティングシステムは、その信号に基づいて来園者がアニメキャラクターに接近していると判断することができ、次いで、コンピューティングシステムは、データベースに格納された情報にアクセスすることができ、また、コンピューティングシステムは、その情報に基づいて、来園者とのアニメキャラクターの対話を制御する、又はこれに影響を与える出力を提供することができる。例えば、コンピューティングシステムは、基地局制御システムと通信することができ、基地局制御システムは、アニメキャラクターヘッドを装着している出演者と共に移動する、及び/又はこの出演者へのサポートを提供する操縦者によって操作されるタブレット又は他のコンピューティングデバイス(例えば、携帯電話)とすることができる。このような一部の事例では、コンピューティングシステムは、基地局制御システムに、基地局制御システムのディスプレイ画面上に情報の表示(例えば、ゲームの来園者のスコア、来園者が完了した乗物)及び/又は推奨される対話(例えば、ゲームの勝利について来園者を祝福する)を引き起こす出力を提供することができる。次いで、操縦者は、アニメキャラクターが適切な表現を話すこと及び/又はジェスチャーを実行することを行わせる入力を基地局制御システムにて提供することなどにより、アニメキャラクター向けに適切な表現及び/又はジェスチャーを選択することができる(例えば、タッチ画面で選択)。1つの実施形態では、操縦者は、アニメキャラクターヘッドを装着している出演者に話し掛ける(例えば、双方向無線通信システムを介して)ことなどによって、アニメキャラクターの適切な表現及び/又はジェスチャーを出演者に提案することができる。
【0013】
各来園者は、遊園地においてそれぞれ異なる体験をし、及び/又はそれぞれ異なるアクションを実行する可能性がある。例えば、1人の来園者は、乗物を体験し、ゲームをプレイすることで仮想ポイントを獲得し、レストランで食事をすることができるが、別の来園者は、別の乗物を体験し、ゲームをプレイすることにより異なる数の仮想ポイントを獲得し、別のレストランで食事をすることができる。開示された対話型システムは、各来園者の特定のアクティビティに基づいて話し掛けること又はジェスチャーすることにより、アニメキャラクターが各来園者と固有の個人用対話を実行できるようにすることができる。議論を容易にするために、対話型システムのユーザは、遊園地での来園者であると説明され、対話型システムは、遊園地に実装されていると説明される。しかしながら、対話型システムは、他の環境でも実装できることを理解されたい。更に、開示された実施形態は、出演者が着用するアニメキャラクターヘッドに言及しているが、しかしながら、対話型システムは、追加又は代替として、出演者によって保持、着用、又は携行された物体(例えば、ケープ、帽子、メガネ、鎧、剣、ボタン)などの他の構成要素の操作を含み且つ影響を与える可能性がある点を理解されたい。
【0014】
以上を念頭に置いて、
図1は、遊園地などの環境で利用することができる対話型システム10のブロック図である。
図1に示されるように、対話型システム10は、識別システム12(例えば、RFIDシステム)及びアニメキャラクターシステム14を含む。1つの実施形態では、識別システム12は、コンピューティングシステム16(例えば、クラウドベースのコンピューティングシステム)、1又は2以上のデータベース18、及びユーザ26により着用又は携行することができるウェアラブルデバイス24(例えば、ブレスレット、ネックレス、チャーム、ピン、又は玩具のウェアラブルデバイス又はポータブルデバイス)によりサポートされる識別子22(例えば、RFIDタグ)を読み取るように構成された1又は2以上のリーダ20(例えば、RFIDリーダ又はトランシーバ)を含む。以下で更に詳細に説明するように、識別システム12は、ユーザ26が遊園地を移動するときにユーザ26のアクティビティをモニタすることができ、識別システム12は、ユーザ26の従前のアクティビティを示す出力をアニメキャラクターシステム14に提供し、これにより、ユーザ26のための固有の個人化された対話型体験を容易にする。
【0015】
1つの実施形態では、アニメキャラクターシステム14は、出演者により着用することができ、サウンドを出す(例えば、表現を話す)及び/又は様々なジェスチャー(例えば、瞬き、あごの動き、唇の形状)を実行するように構成することができるアニメキャラクターヘッド30を含む。アニメキャラクターシステム14はまた、基地局制御システム32(例えば、遠隔制御システム)を含むことができ、これは、アニメキャラクターヘッド30を着用する出演者と共に移動する及び/又は出演者にサポートを提供する操縦者によって操作することができる。1つの実施形態では、アニメキャラクターヘッド30及び基地局制御システム32は、通信可能に結合され、基地局制御システム32での操縦者による入力により、アニメキャラクターヘッド30が特定の音を出すか又は特定のジェスチャーを実行するようになる。
【0016】
より具体的には、1つの実施形態では、アニメキャラクターヘッド30は、1又は2以上のプロセッサ36及び1又は2以上のメモリデバイス38を備えたコントローラ34(例えば、電子コントローラ)を含むことができる。1つの実施形態では、メモリ36は、アニメキャラクターヘッド30のためのアニメーションのライブラリ(例えば、サウンド及び/又はジェスチャー、及びアニメーションを実行するための対応する制御命令を含む利用可能なアニメーションのデータベース)などの命令、データ、及び/又は情報を格納するように構成することができる。1つの実施形態では、プロセッサ36は、入力(例えば、基地局制御システム32からの信号)を受け取り、受け取った入力に基づいてアニメーションのライブラリ(例えば、選択されたアニメーション)から適切なアニメーションを識別し、及び/又は受け取った入力に基づいて及び/又は選択したアニメーションに従って、1又は2以上の適切な制御信号をディスプレイ42、スピーカー44、アクチュエータ46、及び/又は光源48に提供するように構成することができる。このようにして、アニメキャラクターヘッド30は、操縦者がアニメキャラクターヘッド30のスピーチ及び/又はジェスチャーを制御できるようにすることができる。アニメーションのライブラリは、個別のサウンド又は小さなサウンドクリップ(例えば、単語、ビープ、バズ)、個別のジェスチャー(例えば、笑顔、眉のひそめ、瞬き)、及び/又は複数のサウンドとジェスチャーの組み合わせ(例えば、笑顔及び眼球運動を含むモーションプロファイルと組み合わせて複数の単語を含む挨拶)を含むことができる。例えば、基地局制御システム32は、操縦者にアニメキャラクターヘッド30に対して利用可能なアニメーションの選択メニューを提示することができ、操縦者は、基地局制御システム32にて入力を提供して笑顔を選択し、次いで特定の挨拶を選択することができる。その後、アニメキャラクターヘッド30のプロセッサ36は、基地局制御システム32から操縦者の入力を示す信号を受け取り、ライブラリから選択されたアニメーションにアクセスし、そしてアクチュエータ46を制御して笑顔及び特定の挨拶を行うことができる。
【0017】
アニメキャラクターヘッド30は、本明細書で開示される技術を容易にするための様々な特徴を含むことができる。例えば、アニメキャラクターヘッド30は、出演者をモニタする、及び/又は出演者から入力を受け取る、ように構成された1又は2以上のセンサ40を含むことができる。1又は2以上のセンサ40は、出演者の眼球運動をモニタするように構成されたアイトラッキングセンサ、出演者の顔をモニタするように構成されたマシンビジョンセンサ、出演者からの発話入力又は他の可聴入力を受け取るように構成されたマイクロフォン又は音声センサ、出演者からの物理的又は手動入力を受け取るように構成された物理入力センサ(例えば、スイッチ、ボタン、モーションセンサ、フット制御装置、又は筋肉入力、リング入力もしくはジェスチャーグローブなどのウェアラブル入力デバイス)、又はこれらの何れかの組み合わせジェスチャーグローブ)を含むことができる。入力は、プロセッサ36によって処理され、メモリ38に格納されたアニメーションのライブラリからアニメーションを選択するか、他の方法でアニメキャラクターヘッド30を介して提示されるアニメーションに影響を与えることができる。例えば、1又は2以上のセンサ40を介した特定の入力は、操縦者によって行われる選択を拒否又はキャンセルすることができ、及び/又は特定の入力が特定のアニメーションを開始することができる。
【0018】
アクチュエータ46は、電気機械式アクチュエータ(例えば、線形アクチュエータ、回転アクチュエータ)などの何れかの好適なアクチュエータとすることができる。アクチュエータ46は、アニメキャラクターヘッド30の内部に配置され、アニメキャラクターヘッド30の特定の特徴又は部分(例えば、目、眉、頬、口、唇、耳、軽い特徴部)を調整するように構成することができる。例えば、回転アクチュエータは、アニメキャラクターヘッド30の唇の外側の先端に沿ってアニメキャラクターヘッド30の内側に位置付けられて、制御信号(例えば、プロセッサから36)に応答してアニメキャラクターヘッド30の顔が微笑むようにさせることができる。更なる実施例として、アニメキャラクターヘッド30は、制御信号(例えば、プロセッサ36からの)に応答して、アニメキャラクターヘッド30の眉の位置を動かす(例えば眉をひそめる)電気線形アクチュエータを含むことができる。
【0019】
図示のように、アニメキャラクターヘッド30は、光源48を含むことができ、光源48から放出された光の持続時間、輝度、色、及び/又は極性は、(例えば、プロセッサ36からの)制御信号に基づいて制御することができる。1つの実施形態では、光源48は、静止画像、動画(例えば、ビデオ)、又はアニメキャラクターヘッド30上での顔の特徴又はジェスチャーの他の可視表現を表示するためなど、アニメキャラクターヘッド30の画面又は他の表面に光を投影するように構成することができる。幾つかの実施形態では、アクチュエータ46及び/又は光源48は、アニメキャラクターヘッド30が、様々な投影された顔の特徴又はジェスチャー、アニマトロニクスの顔の特徴又はジェスチャー、又はこれらの組み合わせの何れかを提供できるようにすることができる。
【0020】
1つの実施形態では、プロセッサ36は、利用可能なアニメーションの表示(例えば、メモリ38内のライブラリに格納されたアニメーションのリスト)、選択されたアニメーションの表示(例えば、基地局制御システム32からの入力に基づいてメモリ38内のライブラリからプロセッサ36によって選択される)、及び/又はアニメキャラクターヘッド30を着用している出演者による視覚化のための他の情報(例えば、従前のアクティビティなどのユーザ26に関する情報;推奨アニメーション)を示すようにディスプレイ42に命令することができる。例えば、操作中、ディスプレイ42は、利用可能なアニメーションのリストを提供することができ、1又は2以上のセンサ40は、出演者から入力を取得し(例えば、アイトラッキングセンサは、出演者が、入力に特定の目の動きを提供できるようにすることができる)、出演者が利用可能なアニメーションのリストをスクロールすること、及び/又は利用可能なアニメーションのリストからアニメーションを選択することを可能にすることができる。1つの実施形態では、選択されたアニメーションは、ディスプレイ42上に表示することができ、選択されたアニメーションは、1又は2以上のセンサ40への様々な入力を介して出演者によって確認、変更、修正、切り替え、遅延、又は削除することができ(例えば、マイクロフォンに向かって話すことによって、又は物理的な入力センサを作動させることによって)、これにより来園者との対話中に出演者による効率的な更新を可能にする。出演者は選択を制御することができず、従って、例えば1又は2以上のセンサ40を介して操縦者によって選択を入力すること、又は選択を変更することができない可能性がある点を理解されたい。
【0021】
ディスプレイ42は、他の様々な情報を提供するのに利用することができる。例えば、幾つかの実施形態では、カメラ50(例えば、アニメキャラクターヘッド30に結合されるか、又は物理的に分離された)は、ユーザ26、周辺環境、及び/又は現在再生中のアニメーション(例えば、アニメキャラクターヘッド30の現在の動き又は特徴)の画像(例えば、静止画像又はビデオなどの動画)を取得するために設けることができ、これらは、ディスプレイ42を介して表示するために(例えば、トランシーバなどの無線通信デバイスを介して)アニメキャラクターヘッド30に中継されて、出演者に情報及び/又はフィードバックを提供することができる。1つの実施形態では、ディスプレイ42は、出演者によって着用された拡張現実又は仮想現実グラスの一部とすることができる。
【0022】
1つの実施形態では、アニメキャラクターヘッド30は、構成要素ステータス及び/又はシステムステータスをモニタする(例えば、実行されたアニメーションが選択されたアニメーションに対応しないかどうかを決定する)ように構成された1又は2以上のステータスセンサ52を含むことができ、ステータスの表示は、ディスプレイ42を介して出演者に、及び/又は基地局制御システム32を介して操縦者に提供することができる。例えば、ステータスセンサ52は、各アクチュエータ46に関連付けることができ、それぞれのアクチュエータ46の位置及び/又は動きを検出するように構成することができ、これは、アクチュエータ46が正常に機能しているかどうかを示すことができる(例えば、選択したアニメーションに基づいて期待した通りに移動している)。
【0023】
プロセッサ36は、メモリ38に格納された命令を実行して、本明細書で開示される動作を実行することができる。このため、1つの実施形態では、プロセッサ36は、1又は2以上の汎用マイクロプロセッサ、1又は2以上の特定用途向けプロセッサ(ASIC)、1又は2以上のフィールドプログラマブルロジックアレイ(FPGA)、又はこれらの何れかの組み合わせを含むことができる。加えて、メモリ38は、プロセッサ36によって実行可能な命令及びプロセッサ36によって処理されるデータを格納する、有形の非一時的なコンピュータ可読媒体とすることができる。従って、幾つかの実施形態では、メモリ38は、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、書き換え可能不揮発性メモリ、フラッシュメモリ、ハードドライブ、光ディスク及び同様のものを含むことができる。
【0024】
基地局制御システム32は、本明細書で開示される技法を容易にするための様々な特徴を含むことができる。1つの実施形態では、操縦者は、基地局制御システム32にて入力デバイス60(例えば、タッチ画面)を利用して、入力を提供し及び/又はアニメーションを選択することができる。このような場合、操縦者の選択及び/又は他のデータは、無線又は有線接続を通じて通信デバイス62、64を介してアニメキャラクターヘッド30に送信することができる。1つの実施形態では、操縦者は、システムステータス情報(例えば、ステータスセンサ52によって検出された構成要素障害の表示、完了したアニメーション、カメラ50からの画像)をアニメキャラクターヘッド30から受け取る。1つの実施形態では、特定のアクチュエータ46が適切に機能していない場合、特定のアクチュエータ46に依存するアニメーションの選択対象は、利用可能なアニメーションのリストから削除し、及び/又は他の方法で操縦者によって選択対象にアクセスできないようにすることができる。
【0025】
1つの実施形態では、アニメキャラクターヘッド30及び基地局制御システム32は、出演者及び操縦者が通信する(例えば、一方向又は双方向通信を介した口頭での通信)音声通信デバイス68、70(例えば、ヘッドセット又はマイクロフォン及び/又はスピーカーを有する他のデバイス)を含むことができる。このような場合、操縦者は、操縦者の現在の選択、操縦者の次の選択、ユーザ26に関する情報、及び同様のものを出演者に口頭で知らせることができる。加えて、出演者は、特定のアニメーションをリクエストすること、選択したアニメーションをキャンセルする選好を示すこと、及び同様のことを行うことができる。
【0026】
図示の実施形態では、基地局制御システム32のコントローラ72は、メモリ76に格納された命令を実行して、アニメキャラクターヘッド30のために利用可能なアニメーションの選択メニューを受け取り、アクセスし、及び/又はディスプレイ66(入力デバイス60としても動作し得る)上で表示する、選択されたアニメーションを示す信号をアニメキャラクターヘッド30に提供する、又は同様のものなどの操作を実行できるプロセッサ74を含む。このため、1つの実施形態では、プロセッサ74は、1又は2以上の汎用マイクロプロセッサ、1又は2以上の特定用途向けプロセッサ(ASIC)、1又は2以上のフィールドプログラマブルロジックアレイ(FPGA)、又はこれらの何れかの組み合わせを含むことができる。加えて、メモリ76は、プロセッサによって実行可能な命令及びプロセッサ74によって処理されるデータを格納する有形の非一時的なコンピュータ可読媒体とすることができる。従って、幾つかの実施形態では、メモリ76は、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、書き換え可能な不揮発性メモリ、フラッシュメモリ、ハードドライブ、光ディスクなどを含むことができる。
【0027】
更に、通信デバイス62、64は、コントローラ34、72が互いに及び/又は識別システム12の構成要素などの他の様々な電子デバイスとつなぎ合わせることを可能にすることができる。例えば、通信デバイス62、64は、コントローラ34、72が、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、及び/又はワイドエリアネットワーク(WAN)などのネットワークに通信可能に結合することを可能にすることができる。上記のように、基地局制御システム32はまた、アニメーションの選択メニュー、完了したアニメーション、ステータスセンサ52によって検出されたシステムステータス、及び/又はカメラ50によって取得された外部画像、又は同様のものなどの情報の表示を可能にするディスプレイ66を含むことができる。
【0028】
1つの実施形態では、アニメキャラクターシステム14は、識別システム12から独立して、又は識別システム12なしで動作するように構成される。例えば、少なくとも特定の時間帯において、操縦者及び/又は出演者は、アニメキャラクターヘッド30上で様々なアニメーションを再生する入力を提供して、遊園地内でのユーザの26の従前のアクティビティに関する情報なしにユーザ26と対話することができる。1つの実施形態では、少なくとも別の特定の時間帯において、操縦者及び/又は出演者は、遊園地内でのユーザ26の従前のアクティビティに関する情報(例えば、ユーザ26が乗物を完了した、ゲームでポイントを獲得した、又はアトラクションを訪れたという情報)を識別システム12から受け取り、その情報を利用して、固有の個人化された対話型体験をユーザ26に提供することができる。例えば、識別システム12は、ディスプレイ42、66の一方又は両方に視覚化のための情報を提供することができ、又は識別システム12は、ディスプレイ66上で操縦者による視覚化のための情報を提供することができ、操縦者は、音声通信デバイス68、70を使用して、情報を出演者に口頭で通信することができる。この情報により、アニメキャラクターヘッド30がユーザ26のゲームの成果を祝う挨拶、又はアニメユーザ26が最近の乗物を楽しんだかどうかをキャラクターヘッド30がユーザ26に尋ねる挨拶など、操縦者がユーザ26にとってより適切なアニメーションを選択できるようにすることができる。
【0029】
追加又は代替として、識別システム12及び/又は対話型システム10の別の処理構成要素(例えば、プロセッサ74)は、遊園地内でのユーザ26の従前のアクティビティに関する情報に基づいて、ユーザ26のための1又は2以上の関連するアニメーションを決定することができる。このような一部の事例では、識別システム12及び/又は別の処理構成要素は、1又は2以上の関連するアニメーションを選択又は再生する推奨を提供することができる。推奨は、ディスプレイ42、66の一方又は両方での1又は2以上の関連するアニメーションを強調表示(例えば、色、フォントサイズ又はスタイル、画面又はメニューでの位置)することによって提供し、これにより1又は2以上の関連するアニメーションの選択を容易にすることができる。追加又は代替として、識別システム12により、基地局制御システム32が特定のアニメーションを選択すること、及び/又はアニメキャラクターヘッド30が特定のアニメーションを再生することができるようになる(例えば、ユーザ26が、乗物を最近完了した場合、プロセッサ74にて受け取られた識別システム12からの信号により、乗物に関連する挨拶の選択を生じさせることができ、この選択は、操縦者及び/又は出演者によって無効又は変更することができ、又はできない場合がある)。
【0030】
より具体的には、識別システム12は、遊園地内でのユーザ26のアクティビティをモニタするように動作する。1つの実施形態では、ユーザ26は、識別子22をサポートするウェアラブルデバイス24を着用又は携行することができる。ユーザ26が、リーダ20に近接した領域(例えば、リーダ20の読み取り範囲内)にウェアラブルデバイス24を持ち込むと、リーダ20は、識別子22を検出し、コンピューティングシステム16に信号を提供して、コンピューティングシステム16が遊園地内のユーザ26のアクティビティをモニタ及び記録する(例えば、1又は2以上のデータベース18に)ことを可能にする。例えば、1台のリーダ20が乗物の出口(例えば、ジェットコースター又は他の同様のアトラクション)に位置付けることができ、ユーザ26が乗物から出るときにウェアラブルデバイス24の識別子22を検出することができる。リーダ20は、ウェアラブルデバイス24が乗物の出口に近接して検出されたことを示す信号をコンピューティングシステム16に提供することができ、次いで、コンピューティングシステム16は、信号に基づいてユーザが乗物を完了したことを決定することができ、次に、コンピューティングシステム16は、1又は2以上のデータベース18に情報(例えば、ユーザが乗物を完了したこと)を格納することができる。このようにして、識別システム12は、ユーザ26が遊園地を移動するときに、ユーザ26の様々なアクティビティをモニタすることができる。
【0031】
その後、ユーザ26は、遊園地の別の部分に配置することができるアニメキャラクターヘッド30を訪れることができる。アニメキャラクターヘッド30に近接して位置付けられた別のリーダ20(例えば、出演者によって携行され、基地局制御システム32に結合され、又は遊園地内の静止構造物に結合されたアニメキャラクターヘッド30に結合され及び/又は内部にある)は、ユーザ26がアニメキャラクターヘッド30に接近するときに、ウェアラブルデバイス24内の識別子22を検出することができる。別のリーダ20は、ウェアラブルデバイス24がアニメキャラクターヘッド30に近接して検出されたことを示す信号をコンピューティングシステム16に(例えば、無線又は有線接続を介して)提供することができ、次いで、コンピューティングシステム16は、ユーザ26が信号に基づいてアニメキャラクターヘッド30に接近していると判定することができ、コンピューティングシステム16は、1又は2以上のデータベース18に格納された情報にアクセスすることができ、コンピューティングシステム16は、情報に基づくユーザ26とのアニメキャラクターヘッド30の対話を制御する又はこれに影響を与える出力を提供することができる。例えば、コンピューティングシステム16は、基地局制御システム32と(例えば、通信デバイス64、80を介して)通信することができる。このような一部の事例では、コンピューティングシステム16は、基地局制御システム32に出力を提供し、該出力は、基地局制御システム32のディスプレイ66上に情報及び/又は推奨される対話を表示させるようにする。次に、操縦者は、特定の表現を話す及び/又は特定のジェスチャーを実行する(例えば、ユーザ26に関する情報に関連性のある)入力を基地局制御システム32にて提供することによるなど、アニメキャラクターヘッド30に適切なアニメーションを選択することができる。このような一部の事例では、コンピューティングシステム16は、アニメキャラクターヘッド30のディスプレイ42上に情報及び/又は推奨される対話を表示させる出力をアニメキャラクターヘッド30に提供することができる。1つの実施形態では、操縦者は、(例えば、双方向無線通信システムを介して)出演者に話すことによるなど、出演者に情報を伝達する及び/又は情報基づいて出演者に推奨を提供することができる。
【0032】
このようにして、対話型システム10は、ユーザ26とアニメキャラクターヘッド30との間に固有の個人化された対話型体験を提供することができる。対話型体験は、ユーザ26ごとに異なり、及び/又はユーザ26がアニメキャラクターヘッド30に訪れるたびに異なる可能性がある。本明細書で開示されている特徴、機能、技術の何れかが、識別システム12、アニメキャラクターヘッド30、及び基地局制御システム32に適切な方法で分散することができることを理解されたい。上記のように、アニメキャラクターシステム14は、識別システム12とは独立して動作して又は識別システム12なしで動作することができる。同様に、1つの実施形態では、アニメキャラクターヘッド30は、基地局制御システム32とは独立して、又は基地局制御システム32なしで動作することができる。従って、このような一部の事例では、識別システム12は、出力をアニメキャラクターヘッド30に直接提供することができる(例えば、アニメキャラクターヘッド30のプロセッサ36は、識別システム12から直接受け取った信号を処理し、ライブラリからアニメーションを選択して再生することができる)ことを理解されたい。
【0033】
本明細書で開示される特定の実施例は、遊園地内のアトラクション(例えば、乗物、レストラン、キャラクター)との対話を含むアクティビティに関する。1つの実施形態では、対話型システム10は、遊園地内のアクティビティ以外のユーザ26に関する情報を受け取って利用し、固有の個人用対話を提供することができる。例えば、対話型システム10は、遠隔の位置(例えば、家庭用ビデオコンソール又はコンピューティングシステムなど、遊園地以外)でのビデオゲームにおけるユーザ26のパフォーマンス、ユーザ26の名前、年齢、又はユーザ26によって提供される他の情報(例えば、登録プロセス又はチケット購入プロセス中に)に関する情報を受け取って利用することができる。1つの実施形態では、対話型システム10は、ユーザの好みの言語、ユーザの固有の条件(例えば、運動制限、聴覚制限、大きな音に敏感)、又は同様のものに関する情報を受け取り利用することができる。例えば、ユーザ26は、登録プロセスを完了するか、或いは、ウェアラブルデバイス14に関連する選好又は他の情報を入力する機会を有することができる。ユーザ26がアニメキャラクターヘッド30に接近すると、選好又は他の情報は、操縦者及び/又は出演者に提示することができ、アニメーションを選択するのに使用することができ、及び/又は推奨されるアニメーションを決定するのに使用することができる。このようにして、アニメキャラクターヘッド30は、ユーザ26が理解できる言語でユーザ26に話し掛け、及び/又はユーザ26に適切な方法でユーザ26と対話することができる。加えて、図示の対話型システム10は単に例示を目的としたものであり、特定の特徴及び構成要素を省略することができ、他の様々な特徴及び構成要素を追加して、開示された実施形態に従って性能を促進することができる。
【0034】
図示のように、コンピューティングシステム16は、メモリ84に格納された命令を実行して、本明細書に開示される動作を実行するように構成されたプロセッサ82を含むことができる。このため、1つの実施形態では、プロセッサ82は、1又は2以上の汎用マイクロプロセッサ、1又は2以上の特定用途向けプロセッサ(ASIC)、1又は2以上のフィールドプログラマブルロジックアレイ(FPGA)、又はこれらの何れかの組み合わせを含むことができる。加えて、メモリ84は、プロセッサ82によって実行可能な命令及びプロセッサ82によって処理されるデータを格納する、有形の非一時的なコンピュータ可読媒体とすることができる。従って、幾つかの実施形態では、メモリ84は、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、書き換え可能な不揮発性メモリ、フラッシュメモリ、ハードドライブ、光ディスク、及び同様のものを含むことができる。
【0035】
図2は、1つの実施形態による、対話型システム10を含む遊園地100の概略図である。図示のように、複数のユーザ26A、26Bは、遊園地100を移動し、それぞれの識別子22A、22Bをサポートするそれぞれのウェアラブルデバイス24A、24Bを着用する。識別システム12は、
図1に関して上記で検討した方法で複数のユーザ26A、26Bをモニタする。アニメキャラクターシステム14は、出演者によって着用されるアニメキャラクターヘッド30と、操縦者によって操作される基地局制御システム32とを含み、アニメキャラクターシステム14は、識別システム12からの情報を受け取り、各ユーザ26A、26Bに固有の個人化された体験を提供することができる。
【0036】
図2を参照すると、動作中、識別システム12は、第1のリーダ20Aを介してレストラン102の第1のユーザ26Aを検出し、第2のリーダ20Bを介して乗物104の第2のユーザ26Bを検出することができる。より詳細には、各リーダ20A、20Bは、各ウェアラブルデバイス24A、24Bにおいてサポートされる識別子22A、22Bから一意の識別コード又は番号を読み取ることができる。リーダ20A、20Bは、ユーザ24A、24Bの検出を示す個々の信号をコンピューティングシステム16に提供することができ、コンピューティングシステム16は、アクティビティを決定し、当該アクティビティを1又は2以上のデータベース18内に記録する。
【0037】
その後の時点で、各ユーザ26A、26Bは、アニメキャラクターヘッド30に接近することができる。第1のユーザ26Aが、アニメキャラクターヘッド30に近接して位置付けられた第3のリーダ20Cの範囲内にあるとき、第3のリーダ20Cは、第1のユーザ24Aの検出を示す信号をコンピューティングシステム16に提供することができる。これに応答して、コンピューティングシステム16は、遊園地100内の第1のユーザ26Aの従前のアクティビティに関する情報を基地局制御システム32に提供することができる。例えば、コンピューティングシステム16は、第1のユーザ26Aがレストラン102を最近訪れたことを示す情報を提供することができ、基地局制御システム32は、操縦者による視覚化のためにディスプレイ66上に情報を提供することができる。従って、操縦者は、第1のユーザ26Aがレストラン102で食事を楽しんだかどうかを第1のユーザ26Aに尋ねることなど、レストランに第1のユーザ26Aが訪れたことに関連するアニメーションを選択するように導くことができる。上記のように、情報は、第1のユーザ26Aに固有のカスタマイズされた対話型体験を提供するために、他の様々な方法で通信及び/又は利用することができる。例えば、1つの実施形態では、コンピューティングシステム16は、追加的又は代替的に、推奨アニメーションを決定して基地局制御システム32に提供することができ、又は基地局制御システム32は、操縦者による選択を容易にするために、1又は2以上の関連するアニメーションを決定することができる。
【0038】
同様に、第2のユーザ26Bが、アニメキャラクターヘッド30に近接して位置付けられた第3のリーダ20Cの範囲内にあるとき、第3のリーダ20Cは、第2のユーザ24Bの検出を示す信号をコンピューティングシステム16に提供することができる。これに応答して、コンピューティングシステム16は、遊園地100内での第2のユーザ26Bの従前のアクティビティに関する情報を基地局制御システム32に提供することができる。例えば、コンピューティングシステム16は、第2のユーザ26Bが乗物104を最近訪れたことを示す情報を提供することができ、基地局制御システム32は、操縦者による視覚化のためにディスプレイ66に情報を提供することができる。従って、操縦者は、第2のユーザ26Bが乗物104を楽しんだかどうかを第2のユーザ26Bに尋ねることなど、第2のユーザ26Bが乗物を訪れたことに関連するアニメーションを選択するように導くことができる。上記のように、情報は、第2のユーザ26Bに固有のカスタマイズされた対話型体験を提供するために、他の様々な方法で通信及び/又は利用することができる。例えば、1つの実施形態では、コンピューティングシステム16は、追加又は代替として、推奨アニメーションを決定して提供することができ、又は基地局制御システム32は、操縦者による選択を容易にするために、1又は2以上の関連するアニメーションを決定することができる。
【0039】
また、第3の読取装置20Cは、ユーザ24A、24Bの検出を示す個々の信号をコンピューティングシステム16に提供することができ、コンピューティングシステム16は、アニメキャラクターヘッド30との対話を決定し、1又は2以上のデータベース18に記録する。従って、後続のアクティビティ(例えば、他のアニメキャラクターヘッドとの対話を含む、レストラン102、乗物104、又は他のアトラクション)は、ユーザ24A、24Bのアニメキャラクターヘッド30との対話に基づいて変化する可能性がある。例えば、ゲームアトラクションは、アニメキャラクターヘッド30とのユーザ24A、24Bの対話を含む、ユーザ24A、24Bの成果に基づいてゲーム要素を調整することができる。1つの実施形態では、別の操縦者は、アニメキャラクターヘッド30とのユーザ24A、24Bの従前の対話に基づいて、別のアニメキャラクターヘッドのためのアニメーションを選択するように導くことができる。同様に、ユーザ24A、24Bが(例えば、同じ日、又は、1又は2年以上を含めて後の任意の時期に)アニメキャラクターヘッド30を再び訪れた場合、アニメキャラクターシステム14は、同じ表現を繰り返すのを避け従前の対話から構築し、又はユーザ26の認識を示す方式で動作することができる(例えば、「またお会いできてうれしい」又は「昨年からお会いできなかった」と述べる)。例えば、以前に話した表現の一部又は全ては、インベントリから削除される場合があり(例えば、操縦者にはその表現を再生する選択肢が与えられていない)、ユーザ26がアニメキャラクターヘッド30に接近すると、基地局制御システム32を介して操縦者が見ることができる初期画面上で操縦者に提示されないことになり、及び/又は以前に話したものとしてマーク又は強調表示されることになる。
【0040】
図3は、1つの実施形態による、対話型システム10を操作する方法110のフロー図である。方法110は、
図1に示されるブロック及び参照構成要素によって表される様々なステップを含む。方法110の特定のステップは、対話型システム10内で使用できるコンピューティングシステム16などのシステムによって自動化手順として実行することができる。フローチャートは、ステップを特定の順序で示しているが、必要に応じて、ステップは、任意の適切な順序で実行することができ、特定のステップは同時に実行することができ、及び/又は特定のステップを省略することができ、他のステップは追加することができる。更に、方法110の特定のステップ又は部分は、別個のデバイスによって実行されてもよい。
【0041】
ステップ112において、コンピューティングシステム16は、遊園地内でのユーザ26のアクティビティを追跡する(例えば、検出及び記録する)。1つの実施形態では、ユーザ26は、識別子22をサポートするウェアラブルデバイス24を着用又は携行することができる。ユーザ26がウェアラブルデバイス24をリーダ20の範囲内に持ち込むと、リーダ20は、識別子22を検出し、コンピューティングシステム16に信号を提供して、コンピューティングシステム16が遊園地内でのユーザの26のアクティビティを検出及び記録(例えば、1又は2以上のデータベース18に)できるようにすることができる。
【0042】
ステップ114において、コンピューティングシステム16は、アニメキャラクターヘッド30に近接した1又は2以上のリーダ20から、ユーザ26のウェアラブルデバイス24における識別子22の検出を示す信号を受け取る。コンピューティングシステム16は、信号に基づいて、ユーザ26がアニメキャラクターヘッド30に接近していると決定することができる。
【0043】
ステップ116では、ステップ114での信号の受け取りに応答して、コンピューティングシステム16は、ユーザのアクティビティに関連する情報にアクセスして、この情報を基地局制御システム32に提供し、アニメキャラクターヘッド30とユーザ26との対話を制御する又はこれに影響を与えることができる。例えば、コンピューティングシステム16は、基地局制御システム32のディスプレイ66上に情報及び/又は推奨される対話を表示させる出力を基地局制御システム32に提供することができる。次に、操縦者は、アニメキャラクターヘッド30が特定の表現を話す及び/又は特定のジェスチャーを実行する(例えば、ユーザ26に関する情報に関連性のある)入力を基地局制御システム32に提供することによるなど、アニメキャラクターヘッド30のための適切なアニメーションを選択することができる。このようにして、対話型システム10は、ユーザ26とアニメキャラクターヘッド30との間に固有の個人化された対話型体験を提供することができる。
【0044】
図4は、1つの実施形態による、アニメキャラクターヘッド30の側断面図及び対話型システム10(
図1)で使用することができる基地局制御システム32の正面図である。図示のように、アニメキャラクターヘッド30は、出演者の頭を受け入れ及び/又は囲むように構成された開口部120と、ユーザ26(
図1)に見える外面122(例えば、顔)とを含む。外面122は、眉124及び口ひげ128など、制御信号(例えば、
図1のプロセッサ36から受け取られる)に基づいてそれぞれのアクチュエータ46を介して作動することができる様々な特徴をサポートすることができる。1つの実施形態では、画面130は、アニメキャラクターヘッド30の周りに位置付けられて、画面130への光投影を介して目132及び口134などの特定のジェスチャー及び/又は特徴の表示を可能にすることができる。上記で検討したように、光源48は、画面130上に光を投影し、(例えば、プロセッサ36、
図1から受け取られた)制御信号の受け取りに応答してこのようなジェスチャー及び/又は特徴を表示するために設けることができる。図示のように、アニメキャラクターヘッド30は、他の構成要素の中でもとりわけ、ディスプレイ42、1又は2以上のセンサ40、及びオーディオ通信デバイス68を含むことができる。
【0045】
アニメキャラクターヘッド30は、基地局制御システム32と共に使用することができる。図示のように、基地局制御システム32のディスプレイ66は、アニメキャラクターヘッド30に利用可能なアニメーションの選択メニューを示す。1つの実施形態では、アニメーションは、アニメキャラクターヘッド30と対話しているユーザ26(
図1)との関連順に配置され、及び/又は特定の関連するアニメーションは、操縦者がユーザ26(
図1)のための固有の個人用対話を作成するのを支援するために強調表示される。ディスプレイ66はまた、ユーザ26(
図1)の従前のアクティビティなど、ユーザ26(
図1)に関連する情報を提示することができる。操縦者は選択を行うことができ(例えば、ディスプレイ66の対応する領域にタッチすることによって)、この選択がアニメキャラクターヘッド30に通信されて、特定のアニメーションの再生を行うことができる。追加的又は代替的に、
図4の基地局制御システム32のディスプレイ66上に示されている要素は、アニメキャラクターヘッド30のディスプレイ42上に示してもよいことは理解されたい。
【0046】
識別システムは、議論を容易にするために無線周波数識別(RFID)システムとして開示されているが、識別システムは、環境(例えば、遊園地)内に位置付けられた識別デバイス(例えば、トランシーバ、受信機、センサ、スキャナー)がユーザのデバイス内の識別子を検出できるようにする、Bluetoothシステム(例えば、Bluetooth低エネルギー[BLE]システム)のような様々な追跡又は識別技術の何れかであるか又はこれを含むことができることは理解されたい。加えて、本明細書では、本開示の特定の特徴のみについて例示し説明してきたが、当業者であれば多くの修正形態及び変更が想起されるであろう。更に、本明細書で開示される種々の実施形態の構成要素は、互いに組み合わせること、又は交換することができる点を理解されたい。従って、添付の特許請求の範囲は、本開示の真の技術的思想の範囲内にあるこのような修正形態及び変更全てを保護することを意図していることを理解すべきである。
【0047】
本明細書で提示され特許請求される技術は、本発明の技術分野を明らかに改善する実際的な性質の有形物及び具体的な実施例を参照し適用され、このため抽象的、無形、又は純粋に理論的なものではない。更に、本明細書の最後に添付される何れかの特許請求の範囲が、「・・・[機能]を[実行]する手段」又は「・・・[機能]を[実行]するステップ」として指定される1又は2以上の要素を含む場合、このような要素は、米国特許法第112条(f)項に基づいて解釈すべきであることが意図される。しかしながら、他の何らかの様式で指定された要素を含む何れかの請求項については、このような要素は、米国特許法第112条(f)項に基づいて解釈すべきではないことが意図される。