(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-03-13
(45)【発行日】2024-03-22
(54)【発明の名称】拡張現実及び仮想現実画像を生成するためのシステム及び方法
(51)【国際特許分類】
A63G 21/04 20060101AFI20240314BHJP
A63G 31/04 20060101ALI20240314BHJP
【FI】
A63G21/04
A63G31/04
【外国語出願】
(21)【出願番号】P 2021203251
(22)【出願日】2021-12-15
(62)【分割の表示】P 2019110859の分割
【原出願日】2015-08-10
【審査請求日】2022-01-14
(32)【優先日】2014-08-18
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】511077292
【氏名又は名称】ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
(74)【代理人】
【識別番号】100094569
【氏名又は名称】田中 伸一郎
(74)【代理人】
【識別番号】100103610
【氏名又は名称】▲吉▼田 和彦
(74)【代理人】
【識別番号】100109070
【氏名又は名称】須田 洋之
(74)【代理人】
【識別番号】100067013
【氏名又は名称】大塚 文昭
(74)【代理人】
【識別番号】100086771
【氏名又は名称】西島 孝喜
(74)【代理人】
【氏名又は名称】上杉 浩
(74)【代理人】
【識別番号】100120525
【氏名又は名称】近藤 直樹
(74)【代理人】
【識別番号】100196612
【氏名又は名称】鎌田 慎也
(72)【発明者】
【氏名】ブラム スティーヴン シー
(72)【発明者】
【氏名】マキリアン ブライアン ビー
【審査官】安田 明央
(56)【参考文献】
【文献】特開2000-126462(JP,A)
【文献】米国特許出願公開第2013/0083003(US,A1)
【文献】米国特許出願公開第2013/0083008(US,A1)
【文献】国際公開第2012/033095(WO,A1)
【文献】特開2012-068481(JP,A)
【文献】特開平10-309381(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
A63G 21/00-21/22
A63G 31/00-31/16
(57)【特許請求の範囲】
【請求項1】
乗物システムであって、
乗客を受け入れるように構成された乗物移動体であって、前記乗客のモニタリングを可能にするように構成されたセンサを含む乗物移動体と、
前記乗客によって装着されるように構成され、ディスプレイを含む電子ゴーグルと、
前記電子ゴーグル及び前記乗物移動体の前記センサに通信可能に結合されたコンピュータグラフィックス生成システムと、を含み、
前記コンピュータグラフィックス生成システムは、
少なくとも前記乗物移動体の前記センサからのデータを用いて前記乗客の視点を決定し、
前記決定された乗客の視点に少なくとも基づいて1又は複数の仮想拡張を生成し、
前記電子ゴーグルの前記ディスプレイ上に表示される前記1又は複数の仮想拡張を送信する、
ように構成され、
前記センサは、前記コンピュータグラフィックス生成システムが前記乗客の視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、
乗物システム。
【請求項2】
前記センサは、前記乗物移動体内の乗客の位置を検出するように構成される、請求項1に記載の乗物システム。
【請求項3】
前記コンピュータグラフィックス生成システムは、乗物のサイクル中に、前記乗物移動体が所定の場所まで移動するとき、所定の距離を移動するとき、所定の時間の経過後、又はこれらのいずれかの組合せで、前記1又は複数の仮想拡張を生成するように構成される、請求項1に記載の乗物システム。
【請求項4】
軌道を含むジェットコースターを含み、前記コンピュータグラフィックス生成システムは、前記乗物移動体が前記軌道に沿って所定の場所まで移動するとき、前記軌道に沿って所定の距離を移動するとき、所定の時間の経過後、又はこれらのいずれかの組合せで、前記1又は複数の仮想拡張を生成するように構成される、請求項3に記載の乗物システム。
【請求項5】
前記コンピュータグラフィックス生成システムは、
前記乗物システム、前記軌道、及び前記乗物のサイクルの間の前記乗物システムを囲む環境のイルミネーションマップを得て、
前記乗物移動体が前記軌道に沿って移動するときに特定の地点において前記1又は複数の仮想拡張を導入するために前記イルミネーションマップを使用する、
ように構成される、請求項4に記載の乗物システム。
【請求項6】
前記コンピュータグラフィックス生成システムに通信可能に結合されたカメラを有するモニタリングシステムを含み、前記コンピュータグラフィックス生成システムは、前記カメラを使用して、前記乗客及び追加の乗客の位置、場所、方向、又はこれらのいずれかの組合せを識別するように構成される、請求項1に記載の乗物システム。
【請求項7】
前記コンピュータグラフィックス生成システムは、前記それぞれの乗客の、それぞれの方向、それぞれの位置、それぞれの視点、それぞれの動き、又はこれらのいずれかの組合せの変化を反映するために前記1又は複数の仮想拡張を絶えずレンダリングするように構成される、請求項6に記載の乗物システム。
【請求項8】
前記電子ゴーグルは、ヘッドウェアの一部である、請求項1に記載の乗物システム。
【請求項9】
前記電子ゴーグルは、アイウェアの一部である、請求項1に記載の乗物システム。
【請求項10】
前記電子ゴーグルのディスプレイはシースルーのディスプレイである、請求項1に記載の乗物システム。
【請求項11】
乗物システムであって、
複数の乗客を受け入れるように構成され、前記複数の乗客のモニタリングを可能にするように構成されたセンサを含む乗物移動体と、
前記複数の乗客によってそれぞれ装着されるように構成された複数の電子ゴーグルであって、前記複数の電子ゴーグルの各電子ゴーグルはディスプレイを含む、複数の電子ゴーグルと、
前記複数の電子ゴーグルに通信可能に結合されたコンピュータグラフィックス生成システムであって、前記複数の電子ゴーグルのそれぞれのディスプレイ上に表示するための仮想拡張を生成するように構成されたコンピュータグラフィックス生成システムと、
前記コンピュータグラフィックス生成システムに通信可能に結合されたモニタリングシステムであって、前記複数の乗客の各乗客の方向及び位置データ、前記複数の乗客の各乗客の視点データ、又はこれらのいずれかの組合せを前記コンピュータグラフィックス生成システムに供給するように構成されたモニタリングシステムと、を含み、
前記コンピュータグラフィックス生成システムは、前記方向及び位置データ、前記視点データ、又はこれらのいずれかの組合せに基づいて、前記複数の乗客の各乗客のそれぞれの視点を決定し、前記それぞれの視点に基づいて前記仮想拡張を生成し、かつ前記複数の電子ゴーグルのそれぞれのディスプレイ上に表示される前記仮想拡張を送信するように構成され、
前記センサは、前記コンピュータグラフィックス生成システムが前記複数の乗客の各乗客のそれぞれの視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、
乗物システム。
【請求項12】
前記モニタリングシステムは、前記コンピュータグラフィックス生成システムに通信可能に結合されたカメラを含み、前記コンピュータグラフィックス生成システムは、前記カメラを使用して、前記複数の乗客のそれぞれの位置、場所、方向、又はこれらのいずれかの組合せを識別するように構成される、請求項11に記載の乗物システム。
【請求項13】
前記コンピュータグラフィックス生成システムは、前記モニタリングシステムを介して識別された前記複数の乗客の、それぞれの方向、それぞれの位置、それぞれの視点、それぞれの動き、又はこれらのいずれかの組合せの変化を反映するために前記仮想拡張を絶えずレンダリングするように構成される、請求項11に記載の乗物システム。
【請求項14】
前記モニタリングシステムは、前記複数の乗客の各乗客によって装着されたそれぞれの電子ゴーグルのそれぞれの方向を決定するために前記複数の電子ゴーグルの物理的属性をモニタするように構成される、請求項11に記載の乗物システム。
【請求項15】
前記コンピュータグラフィックス生成システムは、
現実世界環境に関連するライティング、コントラスト、明るさ、又はこれらの組合せのインジケーションを受信し、
前記現実世界環境のライティング、コントラスト、明るさ、又はこれらの組合せを反映するように前記生成された仮想拡張を調整する、
ように構成される、請求項11に記載の乗物システム。
【請求項16】
仮想的に拡張された遊園地の乗物を提供する方法であって、
コンピュータグラフィックス生成システムを介してリアルタイムデータを受信することであって、前記リアルタイムデータを受信することは、遊園地の乗物の乗物移動体の位置センサからのデータを受信することを含み、前記位置センサは、前記コンピュータグラフィックス生成システムが
乗物の乗客の視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、リアルタイムデータを受信することと、
前記位置センサからのデータに少なくとも基づいて前記乗物移動体内の
前記乗物の乗客の視点を決定することと、
前記乗物の乗客の視点に少なくとも基づいて仮想拡張を生成することと、
前記遊園地の乗物のサイクル中に前記乗物の乗客によって装着された電子ゴーグルに前記仮想拡張を送信することと、
を含む、方法。
【請求項17】
前記リアルタイムデータを受信することは、前記乗物の乗客の方向に関連するデータを受信することを含む、請求項16に記載の方法。
【請求項18】
前記乗物移動体が軌道に沿って所定の場所まで移動するとき、前記軌道に沿って所定の距離を移動するとき、前記遊園地の乗物のサイクル中に所定の時間経過した後、又はこれらのいずれかの組合せで、前記仮想拡張を生成することを含む、請求項16に記載の方法。
【請求項19】
現実世界環境に関連するライティング、コントラスト、明るさ、又はこれらの組合せのインジケーションを受信することと、
前記現実世界環境のライティング、コントラスト、明るさ、又はこれらの組合せを反映するように前記生成された仮想拡張を調整することと、
を含む、請求項16に記載の方法。
【請求項20】
遊園地内のビジュアルコンテンツを強化するためのシステムであって、
定められた経路に沿って移動するユーザによって装着されるように構成された電子ゴーグルであって、ディスプレイ及び前記ユーザのモニタリングを可能にするように構成されたセンサを含む、電子ゴーグルと、
前記電子ゴーグルに通信可能に結合されたコンピュータグラフィックス生成システムと、を含み、
前記コンピュータグラフィックス生成システムは、
前記ユーザが前記定められた経路に沿って移動するときに少なくとも前記センサからのデータを用いて前記ユーザの視点を決定し、
前記決定されたユーザの視点に少なくとも基づいて1又は複数の仮想拡張を生成し、
前記電子ゴーグルの前記ディスプレイ上に表示される前記1又は複数の仮想拡張を送信する、
ように構成され、
前記コンピュータグラフィックス生成システムは、前記遊園地内の乗物のサイクルのスタートからの所定の時間の経過と前記1又は複数の仮想拡張を調整するように構成される、
システム。
【請求項21】
前記コンピュータグラフィックス生成システムは、
前記ユーザのモニタリング及び前記決定された視点に基づいて前記遊園地及び前記遊園地を囲む環境のイルミネーションマップを得て、前記ユーザが前記定められた経路に沿って移動するときに特定の地点において時間内に前記1又は複数の仮想拡張を導入するために前記イルミネーションマップを使用するように構成される、請求項20に記載のシステム。
【請求項22】
遊園地内のビジュアルコンテンツを強化するためのシステムであって、
定められた経路に沿って移動するユーザによって装着されるように構成された電子ゴーグルであって、ディスプレイ及び前記ユーザのモニタリングを可能にするように構成されたセンサを含む、電子ゴーグルと、
前記電子ゴーグルに通信可能に結合されたコンピュータグラフィックス生成システムと、を含み、
前記コンピュータグラフィックス生成システムは、
前記ユーザが前記定められた経路に沿って移動するときに少なくとも前記センサからのデータを用いて前記ユーザの視点を決定し、
前記決定されたユーザの視点に少なくとも基づいて1又は複数の仮想拡張を生成し、
前記電子ゴーグルの前記ディスプレイ上に表示される前記1又は複数の仮想拡張を送信する、
ように構成され、
前記センサは、前記コンピュータグラフィックス生成システムが前記ユーザの視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、
システム。
【請求項23】
軌道に沿って前記ユーザを運ぶように構成された乗物移動体を含み、前記軌道は前記定められた経路に沿って定められる、請求項20又は22に記載のシステム。
【請求項24】
前記コンピュータグラフィックス生成システムは、前記乗物移動体が所定の時間の経過の間動作していることに応答して、前記1又は複数の仮想拡張を生成するように構成される、請求項23に記載の乗物システム。
【請求項25】
前記センサは、前記遊園地内の前記ユーザの位置を検出するように構成される、請求項20又は22に記載のシステム。
【請求項26】
前記コンピュータグラフィックス生成システムに通信可能に結合されたカメラを有するモニタリングシステムを含み、前記コンピュータグラフィックス生成システムは、前記カメラを使用して、前記ユーザ及び追加のユーザの位置、場所、方向、又はこれらのいずれかの組合せを識別するように構成される、請求項20又は22に記載のシステム。
【請求項27】
前記コンピュータグラフィックス生成システムは、前記ユーザ及び追加のユーザの、それぞれの方向、それぞれの位置、それぞれの視点、それぞれの動き、又はこれらのいずれかの組合せの変化を反映するために前記1又は複数の仮想拡張のレンダリングを絶えず更新するように構成される、請求項20又は22に記載のシステム。
【請求項28】
前記電子ゴーグルは、前記ユーザの頭部に装着されるように構成されたヘッドウェアの一部である、請求項20又は22に記載の乗物システム。
【請求項29】
前記電子ゴーグルは、前記ユーザによって装着されるように構成されたアイウェアの一部である、請求項20又は22に記載のシステム。
【請求項30】
コンピュータグラフィックス生成システムを介してリアルタイムデータを受信することであって、前記リアルタイムデータを受信することは、乗物環境内のユーザによって装着された電子ゴーグルの位置センサからのデータを受信することを含み、前記位置センサは、前記コンピュータグラフィックス生成システムが
乗客の視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、リアルタイムデータを受信することと、
前記位置センサから受信されたデータに少なくとも基づいて前記乗物環境内の前記ユーザの視点を決定することと、
前記ユーザの視点に少なくとも基づいて仮想拡張を生成することと、
前記ユーザに表示するための前記電子ゴーグルに前記仮想拡張を送信することと、
を含む、方法。
【請求項31】
前記電子ゴーグルが前記乗物環境内の所定の場所まで移動したこと、前記乗物環境内で所定の距離移動したこと、前記乗物環境のサイクル中の所定の時間の経過後、又はこれらのいずれかの組合せをモニタリングシステムが決定することに応答して前記1又は複数の仮想拡張を生成することを含む、請求項30に記載の方法。
【請求項32】
前記リアルタイムデータを受信することは、前記ユーザの方向に関連するデータを受信することを含む、請求項30に記載の方法。
【請求項33】
前記乗物環境に関連するライティング、コントラスト、明るさ、又はこれらの組合せのインジケーションを受信することと、前記乗物環境のライティング、コントラスト、明るさ、又はこれらの組合せを反映するように調整された前記仮想拡張を生成することと、
を含む、請求項30に記載の方法。
【請求項34】
前記電子ゴーグルの方向を決定するために前記電子ゴーグルの物理的属性をモニタすることを含み、前記仮想拡張を生成することは、前記決定されたユーザの視点及び前記決定された電子ゴーグルの方向に少なくとも基づいて前記仮想拡張を生成することを含む、請求項30に記載の方法。
【請求項35】
乗物システムであって、
乗物移動体の複数の乗客によってそれぞれ装着されるように構成された複数の電子ゴーグルであって、前記乗物移動体は前記複数の乗客のモニタリングを可能にするように構成されたセンサを含み、前記複数の電子ゴーグルの各ペアの電子ゴーグルはディスプレイを含む、複数の電子ゴーグルと、
前記複数の電子ゴーグルに通信可能に結合されたコンピュータグラフィックス生成システムであって、前記複数の電子ゴーグルのそれぞれのディスプレイ上に表示するための仮想拡張を生成するように構成されたコンピュータグラフィックス生成システムと、
前記コンピュータグラフィックス生成システムに通信可能に結合されたモニタリングシステムであって、前記複数の乗客の各乗客の方向データ及び位置データ、前記複数の乗客の各乗客の視点データ、又はこれらの組合せを前記コンピュータグラフィックス生成システムに供給するように構成されたモニタリングシステムと、を含み、
前記コンピュータグラフィックス生成システムは、前記方向データ、前記位置データ、前記視点データ、又はこれらの組合せに基づいて前記複数の乗客の各乗客のそれぞれの視点を決定し、前記それぞれの視点に基づいて前記仮想拡張を生成し、かつ前記複数の電子ゴーグルのそれぞれのディスプレイ上に表示される前記仮想拡張を送信するように構成され、
前記センサは、前記コンピュータグラフィックス生成システムが前記複数の乗客の各乗客のそれぞれの視点を決定することを可能にするように構成された、重量センサ、質量センサ、動きセンサ、超音波センサ、又はこれらのいずれかの組み合わせを含む、
乗物システム。
【請求項36】
前記モニタリングシステムは、前記コンピュータグラフィックス生成システムに通信可能に結合されたカメラを含み、前記コンピュータグラフィックス生成システムは、前記カメラを使用して、前記複数の乗客のそれぞれの位置、場所、方向、又はこれらのいずれかの組合せを識別するように構成される、請求項35に記載の乗物システム。
【請求項37】
前記コンピュータグラフィックス生成システムは、前記モニタリングシステムを介して識別された前記複数の乗客の、それぞれの方向、それぞれの位置、それぞれの視点、それぞれの動き、又はこれらのいずれかの組合せの変化を反映するために前記仮想拡張を絶えずレンダリングするように構成される、請求項35に記載の乗物システム。
【請求項38】
前記モニタリングシステムは、前記複数の乗客の各乗客によって装着された前記複数の電子ゴーグルのそれぞれの電子ゴーグルのそれぞれの方向を決定するために、前記複数の電子ゴーグルの物理的属性をモニタするように構成される、請求項35に記載の乗物システム。
【請求項39】
前記コンピュータグラフィックス生成システムは、
現実世界環境に関連するライティング、コントラスト、明るさ、又はこれらの組合せのインジケーションを受信し、
前記現実世界環境のライティング、コントラスト、明るさ、又はこれらの組合せを反映するように前記生成された仮想拡張を調整する、
ように構成される、請求項35に記載の乗物システム。
【発明の詳細な説明】
【技術分野】
【0001】
本明細書で開示する主題は、遊園地のアトラクションに関し、より具体的には、遊園地のアトラクションにおいてスリル要因及び関心のある要素の強化をもたらすことに関する。
【背景技術】
【0002】
遊園地及び/又はテーマパークは、遊園地の来場者(例えば、家族及び/又はあらゆる年齢の人々)に楽しみを与えるのに役立つ様々な娯楽アトラクション、レストラン、及び乗物を含むことができる。例えば、アトラクションは、メリーゴーランドのような従来からある子ども向けの乗物、並びにジェットコースターのような従来からあるスリルを求める人向けの乗物を含むことができる。現在のところ、このようなアトラクションに関心のある要素及びスリル要因を加えることは、困難であり限定的でありうると認識されている。従来は、例えば、急勾配でねじれて曲がりくねったジェットコースターの軌道(track)のますます複雑なシステムを提供する他に、このようなジェットコースター及び/又は他の類似の絶叫マシンのスリル要因は、絶叫マシン自体の既存のコース又は物理的性質に限定されうる。従来技術に対して柔軟で効率的な方法で、このようなアトラクションに関心のある要素及びスリル要因を含めることが望ましいことが現在、認識されている。
【発明の概要】
【発明が解決しようとする課題】
【0003】
本開示の範囲に相応する特定の実施形態を以下で要約する。これらの実施形態は、本開示の範囲を限定するものではなく、むしろ、これらの実施形態は、本実施形態の可能な形態の概要を提供することのみを意図している。実際のところ、本実施形態は、以下に記載する実施形態に類似することも又は異なることもできる様々な形態を包含することができる。
【課題を解決するための手段】
【0004】
一実施形態において、乗物システムは、少なくとも1つの乗物移動体(ride vehicle)を含む。少なくとも1つの乗物移動体は、乗物の乗客を受け入れるように構成される。乗物システムは、乗物の乗客によって装着されるように構成された電子ゴーグルを含む。電子ゴーグルは、カメラ及びディスプレイを含む。乗物システムは、電子ゴーグルに通信可能に接続されたコンピュータグラフィックス生成システムを含み、これは、電子ゴーグルのカメラを介してキャプチャされた画像データに基づいて現実世界環境のストリーミングメディアを生成して、現実世界環境のストリーミングメディア上に重ね合わされる1又は2以上の仮想拡張(virtual augmentation)を生成して、電子ゴーグルのディスプレイ上に表示するために、現実世界環境のストリーミングメディアを1又は2以上の重ね合わされる仮想拡張と共に送信するように構成される。
【0005】
第2の実施形態では、ウェアラブル電子デバイスがゴーグルを含む。ゴーグルは、ゴーグルのフレーム正面内に配置された1又は2以上のディスプレイと、テーマパークの乗物に関連する現実世界環境の画像をキャプチャするように構成された1又は2以上のカメラと、処理回路(processing circuitry)とを含む。処理回路は、現実世界環境の画像をコンピュータグラフィックス生成システムに送信して、コンピュータグラフィックス生成システムから信号を受信するように構成される。信号は、現実世界環境の仮想化のビデオストリームと共に、ビデオストリームに含まれた少なくとも1つの拡張現実(AR)画像又は少なくとも1つの仮想現実(VR)画像を含む。処理回路はまた、1又は2以上のディスプレイにビデオストリームを表示させるように構成される。
【0006】
第3の実施形態において、方法は、コンピュータグラフィックス生成システムを介してリアルタイムデータを受信する段階を含む。リアルタイムデータを受信する段階は、遊園地の乗物のサイクル中に電子ゴーグルからリアルタイムビデオデータストリームを受信する段階を含む。方法はまた、受信したリアルタイムビデオデータストリームに基づいて遊園地の現実世界環境の仮想化を生成する段階と、拡張現実(AR)画像又は仮想現実(VR)画像を現実世界環境の仮想化の上にオーバーレイ表示する段階と、遊園地の乗物のサイクル中に、オーバーレイ表示された(overlaid)AR画像又はVR画像を現実世界環境の仮想化と共に電子ゴーグルに送信する段階とを含む。
【0007】
第4の実施形態において、方法は、電子ゴーグルの処理回路を介してリアルタイム画像データを受信する段階を含む。リアルタイム画像データを受信する段階は、テーマパークの乗物のサイクル中に電子ゴーグルの1又は2以上のカメラを介してキャプチャされたリアルタイムビデオデータストリームを受信する段階を含む。方法はまた、キャプチャされたリアルタイム画像データに基づいてテーマパークの乗物の現実世界環境の仮想化を生成する段階と、拡張現実(AR)画像又は(VR)画像を現実世界環境の仮想化の上にオーバーレイ表示する段階と、テーマパークの乗物のサイクル中に、オーバーレイ表示されたAR画像又はVR画像を現実世界環境の仮想化と共に電子ゴーグルのディスプレイを介して表示する段階とを含む。
【0008】
本開示のこれら並びに他の特徴、態様、及び利点は、図面全体にわたって同様の符号が同様の部分を表す添付図面を参照しながら以下の詳細説明を読むことでより良く理解されることになるであろう。
【図面の簡単な説明】
【0009】
【
図1】本実施形態による1又は2以上のアトラクションを含む遊園地の実施形態を示す図である。
【
図2】本実施形態による拡張現実(AR)又は仮想現実(VR)ゴーグル及びコンピュータグラフィックス生成システムの実施形態を示す図である。
【
図3】本実施形態による、
図2のAR/VRゴーグルを通じて提供される様々なAR及びVR画像を含む
図1の絶叫マシンの斜視図である。
【
図4】本実施形態による、
図2のコンピュータグラフィックス生成システムを用いることによって、乗車中にAR体験、VR体験、又は複合現実体験を生み出すのに有用な処理の実施形態を示すフローチャートである。
【
図5】本実施形態による、
図2のAR/VRゴーグルを用いることによって、乗車中にAR体験、VR体験、又は複合現実体験を生み出すのに有用な処理の実施形態を示すフローチャートである。
【発明を実施するための形態】
【0010】
本開示の1又は2以上の特定の実施形態について以下で説明する。これらの実施形態の簡潔な説明を与えるために、本明細書では実際の実施構成の全ての特徴を説明するわけではない。このようないずれかの実際の実施構成の開発においては、あらゆるエンジニアリング又は設計プロジェクトの場合のように、システム関連及び業務関連の制約の遵守等の開発者の特定の目標を達成するために、多くの実施構成特有の決定を行う必要があることを理解されたい。更に、このような開発努力は、複雑で時間がかかることがあるが、それにも関わらず、本開示の利益を得る当業者にとっては、設計、製作、及び製造の日常的な仕事であることは理解されたい。
【0011】
本実施形態は、遊園地又はテーマパーク内の絶叫マシンのようなアトラクションの一部分として、拡張現実(AR)体験、仮想現実(VR)体験、複合現実(例えば、AR及びVRの組合せ)体験、又はこれらの組合せを提供するシステム及び方法に関する。特定の実施形態において、各乗物の乗客には、絶叫マシンのサイクル中に装着する1組の電子ゴーグル又はメガネを提供することができる。電子ゴーグルは、AR体験、VR体験、又は両方の体験の組合せを促進することができる。したがって、電子ゴーグルは、AR/VRゴーグルと呼ぶことができる。具体的には、一実施形態において、電子ゴーグルは、少なくとも2つのカメラを含み、それぞれが乗物の乗客のそれぞれの視点(例えば右目及び左目の視界)に対応することができ、乗物の乗客及び/又は絶叫マシンの現実世界環境(例えば、物理的な遊園地の光景)のリアルタイムビデオデータ(例えば、使用中にキャプチャされて実質的にリアルタイムで送信されるビデオ)をキャプチャするために使用することができる。電子ゴーグルはまた、ディスプレイを含むこともできる。例えば、電子ゴーグルは、電子ゴーグルを使用する乗物の乗客の各々の目にそれぞれ対応する少なくとも2つのディスプレイを含むことができる。
【0012】
特定の実施形態において、コンピュータグラフィックス生成システムを備えることもできる。コンピュータグラフィックス生成システムは、電子ゴーグルからリアルタイムビデオデータ(例えば、実質的にリアルタイムで送信されるライブビデオ)を受信して、乗物のサイクル中に、現実世界環境のビデオストリームを様々なAR、VR、又はAR及びVRの組合せの(AR/VR)グラフィカル画像と共に、乗物の乗客のそれぞれの電子ゴーグルのそれぞれのディスプレイに対してレンダリングすることができる。例えば、一実施形態において、コンピュータグラフィックス生成システムは、例えば、絶叫マシンのサイクル中のジェットコースターの軌道に沿った乗客の乗物移動体の位置又は場所、絶叫マシンのサイクル中に乗客の乗物移動体が移動した所定の距離に基づいて、又は絶叫マシンのサイクル内で所定の時間の経過後に、AR/VRグラフィカル画像を電子ゴーグルにレンダリングすることができる。このようにして、電子ゴーグル及びグラフィックス生成システムを用いて、AR体験、VR体験、又は複合現実体験を生み出すことによって、電子ゴーグル及びコンピュータグラフィックス生成システムは、絶叫マシンのスリル要因を強化し、結果的に乗物の乗客が絶叫マシンに乗車するときの乗客の体験を高めることができる。しかしながら、本明細書で説明する技術は、絶叫マシン及び/又は遊園地のアトラクションへの応用に限定されず、例えば、医学的応用(例えば、イメージガイド手術、非侵襲的イメージング分析)、エンジニアリング設計応用(例えば、エンジニアリングモデル開発)、製造、建設、及びメンテナンスへの応用(例えば、製品製造、新しいビルの建設、自動車修理)、学業及び/又は職業訓練への応用、運動への応用(例えば、ボディビル及び減量モデル)、テレビ(TV)応用(例えば、天気及びニュース)、及び同様のもののような様々な応用のいずれかに拡張可能であることも理解されたい。
【0013】
上記に留意して、
図1に示すような例示的な遊園地10等の遊園地の実施形態について説明することは有用とすることができる。図示するように、遊園地10は、絶叫マシン12と、遊園地施設のショッピングモール14(例えば、レストラン、土産物店等)と、付加的な娯楽アトラクション16(例えば、観覧車、ダークライド、又は他のアトラクション)とを含むことができる。特定の実施形態において、絶叫マシン12は、ジェットコースター又は他の類似の絶叫マシンを含むことができ、したがって、閉ループの軌道又は閉ループ軌道システム18(例えば、数マイルの軌道18)を更に含むことができる。軌道18は、例えば乗物の乗客22、24、26、28が絶叫マシン12に乗車するときに、乗客の乗物移動体20がその上を移動する(traverse)ことができるインフラストラクチャとして設けることができる。したがって、軌道18は、乗物移動体20の動きを定めることができる。しかしながら、別の実施形態では、例えば軌道18を、制御された経路に置き換えることができ、この場合、乗物移動体20の動きは、軌道18以外の電子システム、磁気システム、又は他の類似のシステムインフラストラクチャを介して制御することができる。乗客の乗物移動体20は、4人乗りの移動体として示されているが、別の実施形態では、乗客の乗物移動体20は、乗物の乗客22、24、26、28の単一又は複数のグループを受け入れるためにあらゆる数の乗客スペース(例えば、1、2、4、8、10、20、又はそれ以上のスペース)を含むことができることを理解されたい。
【0014】
乗客の乗物移動体20が軌道18を移動する際に、乗物の乗客22、24、26、28には、絶叫マシン12の周囲又はその近くのエリアの風景(例えば、施設14、付加的な娯楽アトラクション16、その他)の移動ツアーを提示することができる。例えば、これは、絶叫マシン12の周囲の環境(例えば、絶叫マシン12を完全に又は部分的に囲むビル)を含むことができる。乗物の乗客22、24、26、28は、絶叫マシン12がとても楽しい体験であると発見することができるが、特定の実施形態では、例えば、絶叫マシン12のスリル要因を強化することによって、乗物の乗客22、24、26、28が絶叫マシン12に乗車するときの乗物の乗客22、24、26、28の体験を高めることは有用であろう。具体的には、遊園地10内部の施設14(例えば、レストラン、土産物店等)、付加的な娯楽アトラクション16(例えば、観覧車又は他のアトラクション)、或いは他の来場者又は歩行者だけの物理的風景を取得する代わりに、乗物移動体20が軌道18を移動する際に、乗物の乗客22、24、26、28に拡張現実(AR)体験又は仮想現実(VR)体験を与えることは有用であろう。
【0015】
例えば、ここで
図2を参照すると、乗物の乗客22、24、26、28の各々は、1組の電子ゴーグル34を装着することができ、特定の実施形態では、これはAR/VRメガネを含むことができる。別の実施形態では、電子ゴーグル34は、ヘルメット、サンバイザー、ヘッドバンド、1組の目隠し、1又は2以上の眼帯、及び/又は乗物の乗客22、24、26、28によって装着可能な他のヘッドウェア又はメガネ類の一部として含むことができる。図示するように、電子ゴーグル34は、無線ネットワーク48(例えば、無線ローカルエリアネットワーク(WLAN)、無線広域ネットワーク(WWAN)、近距離通信(NFC))を経由して(例えば、遊園地10内の)コンピュータグラフィックス生成システム32に通信可能に接続することができる。電子ゴーグル34を用いて、超現実環境30を生じることができ、これは、AR体験、VR体験、複合現実(例えば、AR及びVRの組合せ)体験、コンピュータ利用の現実体験、これらの組合せ、又は乗物の乗客22、24、26、28が絶叫マシン12に乗車する際の、乗物の乗客22、24、26、28のための他の類似の超現実環境を含むことができる。具体的には、乗物の乗客22、24、26、28が環境30によって完全に取り囲まれたように感じて、環境30を現実世界の物理的環境であると認識できるように、乗物の乗客22、24、26、28は、乗車の期間中にわたって電子ゴーグル34を装着することができる。具体的には、更に理解されるように、環境30は、乗物の乗客22、24、26、28が電子ゴーグル34を装着していなくても見ることができる現実世界画像44と、1又は2以上のAR又はVR画像45(例えば仮想拡張)とが電子的にマージされたリアルタイムビデオとすることができる。用語「リアルタイム」は、画像が、実際に観測される時間に実質的に近いタイムフレームで取得及び/又は提供されることを指す。
【0016】
特定の実施形態において、電子ゴーグル34は、絶叫マシン12のスリル要因を、ひいては、絶叫マシン12に乗車中の乗物の乗客22、24、26、28の体験を強化するために、AR体験、VR、及び/又は他のコンピュータ利用の体験を生み出すのに有用とすることができる様々なウェアラブル電子デバイスのいずれかとすることができる。本明細書で議論するような電子ゴーグル34のメガネの実施形態は、ヘッドマウントディスプレイ(HMD)及び/又はヘッドアップディスプレイ(HUD)等の従来型デバイスとは異なっており、これらに優る多くの利点をもたらすことができる点は理解されたい。例えば、更に理解されるように、電子ゴーグル34は、絶叫マシン12のサイクル中に乗物の乗客22、24、26、28の位置、方向、及び動きを追跡するために使用可能な多くの方向及び位置センサ(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム(GPS)受信機)を含むことができる。
【0017】
同様に、電子ゴーグル34の特徴部(例えば、幾何学的態様又はマーキング)が、モニタリングシステム(例えば1又は2以上のカメラ)によってモニタされて、電子ゴーグル34の位置、場所、方向等、したがって、これを装着した人の位置、場所、方向等を判断することができる。更になお、乗物の乗客22、24、26、28も、モニタリングシステム33(例えばカメラ)によってモニタすることができ、これは、コンピュータグラフィックス生成システム32に通信可能に接続され、乗物の乗客22、24、26、28の位置、場所、方向等を識別するために用いることができる。また、乗物移動体20は、グラフィックス生成システム32がそれぞれの乗物の乗客22、24、26、28の視点を判断するために、それぞれの乗物の乗客22、24、26、28をモニタするのに役立つ1又は2以上のセンサ(例えば、重量センサ、質量センサ、動きセンサ、超音波センサ)を含むことができる。更に理解されるように、電子ゴーグル34は、個別のカメラ(例えば、カメラ40及び42)並びに個別のディスプレイ(ディスプレイ37及び38)を含むことができるので、乗物の乗客22、24、26、28の各々の目のそれぞれの視点に関するデータを電子ゴーグル34によってキャプチャすることができる。これらの利点の全ては、従来のHMD及び/又はHUD等のデバイスを使用して得ることはできない。
【0018】
特定の実施形態において、環境30の生成をサポートするために、電子ゴーグル34は、プロセッサ35及びメモリ36等の処理回路を含むことができる。プロセッサ35は、ここに開示する技術を実施するための命令を実行するためにメモリ36に動作可能に接続することができ、1又は2以上のAR/VR画像45とマージされた現実世界画像44を生成して、絶叫マシン12のスリル要因を強化すること、ひいては、乗物の乗客22、24、26、28が絶叫マシンに乗車中の乗客の体験を強化することができる。これらの命令は、メモリ36及び/又は他のストレージ等の有形の非一時的コンピュータ可読媒体内に格納されたプログラム又はコードでエンコードすることができる。プロセッサ35は、汎用プロセッサ、システム・オンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、又は他の何らかの類似のプロセッサ構成とすることができる。
【0019】
特定の実施形態において、更に図示するように、電子ゴーグル34は、(例えば、そうでなければメガネのレンズが見える場所である、電子ゴーグル34のフレーム正面内に設けることができる)1組のディスプレイ37及び38を含むこともでき、これらがそれぞれ、乗物の乗客22、24、26、28の各々の目に対応する。別の実施形態では、統合型ディスプレイを利用することができる。それぞれのディスプレイ37及び38が、不透明な液晶ディスプレイ(LCD)、不透明な有機発光ダイオード(OLED)ディスプレイ、又はリアルタイム画像44及びAR/VRグラフィカル画像45を乗物の乗客22、24、26、28に表示するのに有用な他の類似のディスプレイを各々含むことができる。別の実施形態では、それぞれのディスプレイ37及び38が各々、例えば、乗物の乗客22、24、26、28がそれぞれのディスプレイ37及び38を通じて実際の物理的な現実世界環境(例えば遊園地10)を見る能力を維持しながら、それぞれのディスプレイ37及び38上に現れる現実世界画像44及びAR/VRグラフィカル画像45を見ることを可能にするのに役立つシースルーのLCD又はシースルーのOLEDディスプレイを含むことができる。
【0020】
カメラ40及び42はそれぞれ、乗物の乗客22、24、26、28のそれぞれの視点に対応することができ、現実世界環境のリアルタイムビデオデータ(例えばライブビデオ)をキャプチャするために使用することができる。一部の実施形態では、単一のカメラを利用することができる。具体的には、図示する実施形態において、ゴーグル34のカメラ40、42は、それぞれの乗物の乗客22、24、26、28の視点からそれぞれの乗物の乗客22、24、26、28によって知覚される現実世界の物理的環境(例えば、物理的な遊園地10)のリアルタイム画像をキャプチャするために使用することができる。更に理解されるように、電子ゴーグル34は次に、それぞれのカメラ40及び42を介してキャプチャされたリアルタイムビデオデータを、処理のためにコンピュータグラフィックス生成システム32に(例えば、電子ゴーグル34内に含まれた1又は2以上の通信インタフェースを介して無線で)送信することができる。しかしながら、別の実施形態では、それぞれのカメラ40及び42を介してキャプチャされるリアルタイムビデオデータは、プロセッサ35によって電子ゴーグル34上で処理することができる。加えて、電子ゴーグル34は、方向及び位置センサ(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム(GPS)受信機等)、動き追跡センサ(例えば、電磁及び固体の動き追跡センサ)、及び電子ゴーグル34に含めることができる他のもので取得したデータに基づいて取得した及び/又は導き出した、方向データ、位置データ、視点データ(例えば、焦点距離、方向、姿勢、及びその他)、動き追跡データなどを送信することもできる。
【0021】
特定の実施形態において、前述のように、同様にプロセッサ46(例えば、汎用プロセッサ又は他のプロセッサ)及びメモリ47等の処理回路を含むことができるコンピュータグラフィックス生成システム32は、電子ゴーグル34又はモニタリングシステム33から受信したリアルタイムビデオデータ(例えばライブデータ)、方向及び位置データ、及び/又は視点データを処理することができる。具体的には、コンピュータグラフィックス生成システム32は、リアルタイムビデオデータを生成された現実世界画像44及びAR/VRグラフィカル画像45と位置合わせするための基準フレームを生成するために、このデータを用いることができる。具体的には、方向データ、位置データ、視点データ、動き追跡データ等に基づいて生成された基準フレームを用いて、グラフィックス生成システム32は、次に、それぞれの乗物の乗客22、24、26、28が電子ゴーグル34を装着していない場合に知覚するものと時間的及び空間的に整合する現実世界画像44の光景をレンダリングすることができる。グラフィックス生成システム32は、それぞれの乗物の乗客22、24、26、28のそれぞれの方向、位置、及び/又は動きの変化を反映するために、現実世界画像のレンダリングを絶えず(例えばリアルタイムで)更新することができる。
【0022】
例えば、特定の実施形態において、グラフィックス生成システム32は、毎秒約20フレーム(FPS)以上、約30FPS以上、約40FPS以上、約50FPS以上、約60FPS以上、約90FPS以上、又は約120FPS以上のリアルタイムレートで画像(例えば、現実世界画像44及びAR/VR画像45)をレンダリングすることができる。更に、グラフィックス生成システム32は、それぞれの乗物の乗客22、24、26、28によって装着されたそれぞれの電子ゴーグル34の各々のための(例えば、それぞれの乗物の乗客22、24、26、及び28のそれぞれの方向、位置、及び視点に関して調整された)現実世界画像44を生成することができる。
【0023】
特定の実施形態において、前述のように、コンピュータグラフィックス生成システム32は、現実世界画像44上に重ね合わされる1又は2以上のAR/VRグラフィカル画像45を生成してレンダリングし、乗物の乗客22、24、26、28のための完全なAR体験、VR体験、複合現実、及び/又は他のコンピュータ利用の体験を生み出すこともできる。例えば、特定の実施形態において、コンピュータグラフィックス生成システム32は、議論したビデオマージ及び/又は光学マージ技術の1又は2以上を利用して、AR/VRグラフィカル画像45を現実世界画像44上に重ね合わせて、乗客の乗物移動体20が軌道18を移動する際に、乗物の乗客22、24、26、28が、遊園地10の現実世界の物理的環境(例えば、それぞれのディスプレイ37及び38を介してレンダリングされるビデオデータとして提供される)をAR/VRグラフィカル画像45(例えば仮想拡張)と共に知覚できるようにする。具体的には、現実世界画像44のレンダリングに関して上述したように、グラフィックス生成システム32は、現実世界画像44と時間的及び空間的に整合するAR/VRグラフィカル画像45の光景をレンダリングすることができ、AR/VRグラフィカル画像45がオーバーレイ表示された背景として現実世界画像44が現れるようにする。実際には、モデルは、あらゆる利用できる視点のためのコンピュータ生成画像を提供することができ、電子ゴーグル34の検出された方向に基づいて、表示するための特定の画像を電子ゴーグル34に提供することができる。
【0024】
特定の実施形態において、グラフィックス生成システム32は、1又は2以上の明るさ、ライティング、又は陰影モデル、及び/又は他のフォトリアリスティック・レンダリングモデルを生成して、現実世界画像44及びAR/VRグラフィカル画像45をレンダリングする際に現実世界の物理的環境(例えば、晴天の日、少し曇った日、曇った日、夕方、夜)のコントラスト及び明るさを厳密に反映するように調整された現実世界画像44及びAR/VRグラフィカル画像45を生成することもできる。例えば、現実世界画像44及びAR/VRグラフィカル画像45のフォトリアリズムを高めるために、グラフィックス生成システム32は、一部の実施形態において、1又は2以上の天気予報及び/又は予測システム(例えば、全球予報システム(Global Forecast System)、ドップラーレーダー等)から気象関連データを受信することができる。次にグラフィックス生成システム32は、気象関連データ又は他の類似のデータを用いて、現実世界画像44及び/又はAR/VRグラフィカル画像45のコントラスト、明るさ、及び/又は他のライティング効果を調整することができる。
【0025】
別の実施形態において、グラフィックス生成システム32は、電子ゴーグル34が備える1又は2以上の光センサから検出されたライティングに基づいて、又はカメラ40、42によってキャプチャされたリアルタイムビデオデータに基づいて、現実世界画像44及び/又はAR/VRグラフィカル画像45のコントラスト、明るさ、及び/又は他の照明効果を調整することができる。更に、前述のように、グラフィックス生成システム32は、それぞれの乗物の乗客22、24、26、28のそれぞれの方向、位置、視点、及び/又は動きの変化を反映するために、AR/VRグラフィカル画像45のレンダリングを絶えず(例えばリアルタイムで)更新することができる。例えば、
図3に関して更に理解されるように、グラフィックス生成システム32は、それぞれの乗物の乗客22、24、26、28によって装着されたそれぞれのゴーグル34の各々のそれぞれのディスプレイ37及び38上に、それぞれの乗物の乗客22、24、26、及び28の変化するそれぞれの位置、視点、及び動きに関して調整されたAR/VRグラフィカル画像45をレンダリングすることができる。
【0026】
更に理解されるように、グラフィックス生成システム32は、乗客の乗物移動体20が軌道18に沿って所定の地点を横切ると同時に、AR/VRグラフィカル画像45を生成することもできる。したがって、特定の実施形態において、グラフィックス生成システム32は、GPSデータ又は地理情報システム(GIS)データに加えて、受信した位置データ、視点データ、動きデータを使用して、例えば、絶叫マシン12及び軌道18、並びに絶叫マシン12のサイクル全体の間の絶叫マシン12を取り囲む周辺環境のイルミネーションマップを得ることができる。その後、グラフィックス生成システム32は、乗客の乗物移動体24が軌道18を移動する際に、特定の予め定められた地点(例えば、場所、距離、又は時間に基づく地点)においてAR/VRグラフィカル画像45を導入するために、このマップを使用することができる。更に、特定の実施形態では、グラフィックス生成システム32は、カメラ40、42によってキャプチャされたビデオ又は画像データを使用して、乗物移動体20の地点、及びいつAR/VRグラフィカル画像45を導入するかを判断することができる。例えば、グラフィックス生成システム32は、1又は2以上の幾何学的認識アルゴリズム(例えば、外形又は物体認識)又は測光認識アルゴリズム(例えば、顔認識又は特定の物体認識)を実行して、乗物移動体20の位置又は場所、並びに乗物の乗客22、24、26、28の視点位置を判断することができる。
【0027】
図3は、グラフィックス生成システム32によって生成可能な、又は別の実施形態では、ゴーグル34によって生成可能なAR/VR画像45の様々な実施例を示す。具体的には、
図3に図示するように、絶叫マシン12のサイクル中に、グラフィックス生成システム32は、現実世界画像44、並びに様々なAR/VRグラフィカル画像45を、それぞれの乗客22、24、26、28のそれぞれの電子ゴーグル34を通じて(例えば、それぞれのディスプレイ37及び38を介して)レンダリングすることができる。例えば、図示するように、現実世界画像44は、例えば、軌道18、施設14、及び/又は乗物の乗客22、24、26、28によって電子ゴーグル34が装着されていない場合でも、乗物の乗客22、24、26、28が絶叫マシン12の乗車中に見ることができる、他の乗客22、24、26、28を含む、他の来場者又は物体のレンダリングされた画像を含むことができる。しかしながら、
図2に関して前述したように、特定の実施形態では、様々なAR/VRグラフィカル画像45を乗物の乗客22、24、26、28のそれぞれの電子ゴーグル34のそれぞれのディスプレイ37及び38にレンダリングすることによって、絶叫マシン12のスリル要因を強化するのに役立つ場合がある。
【0028】
例えば、
図3に更に示すように、グラフィックス生成システム32は、例えば、遊園地施設の第2のモール49のAR/VR画像、1又は2以上の架空のキャラクター50のAR/VR画像、軌道18の裂け目52のAR/VR画像、及び/又は付加的なAR/VR画像54、56、及び58を含むことができる(破線で図示された)AR/VRグラフィカル画像45をレンダリングすることができる。
図3に図示するように、一実施形態において、AR/VR画像50は、乗客の乗物移動体20が軌道18を移動する際に、軌道18の一部分を遮るように(例えば、電子ゴーグル34を装着中に乗物の乗客22、24、26、28の視点から)現れるモンスター又は他の類似の架空のキャラクターの画像を含むことができる。付加された画像を含むAR/VRグラフィカル画像45(例えば仮想拡張)に加えて、グラフィックス生成システム32は、乗物の乗客22、24、26、28が電子ゴーグル34を装着している間はもはや見えない1又は2以上の現実世界の物理的物体の消去を含む特定のAR/VRグラフィカル画像45をレンダリングすることもできる点を理解されたい。例えば、施設49のAR/VR画像は、現実世界環境ではアトラクション16が配置された場所に出現することができる。
【0029】
前述のように、特定の実施形態において、グラフィックス生成システム32は、例えば、絶叫マシン12のサイクル中のいずれかの所与の時間における軌道18に沿った乗客の乗物移動体20の位置又は場所、絶叫マシン12のサイクル中に乗客の乗物移動体20が移動した所定の距離に基づいて、又は所定の時間の経過後に、AR/VRグラフィカル画像45をレンダリングすることができる。例えば、一実施形態において、乗客の乗物移動体が(例えば、一定の距離62又は軌道18上の場所によって定義された)地点60まで移動すると、乗物の乗客22、24、26、28は、電子ゴーグル34によって、絶叫マシン12の所与のサイクル中に乗客の乗物移動体20がまだ移動していない軌道18上の場所を遮る架空のキャラクター50のAR/VR画像を見ることができる。同様に、乗客の乗物移動体20が(例えば、一定の距離62又は軌道18上の場所によって定義された)地点62まで移動すると、乗物の乗客22、24、26、28は、電子ゴーグル34によって、軌道18が支持されていない場所に乗客の乗物移動体20が遭遇するような(例えば、壊れた軌道が出現する)、軌道18の裂け目52のAR/VR画像を見ることができる。
【0030】
更に、特定の実施形態において、グラフィックス生成システム32によって生成されるイルミネーションマップにより、グラフィックス生成システム32は、軌道18のあらゆるマイル、軌道18のあらゆるヤード、軌道18のあらゆるフィート、軌道18のあらゆるインチ、軌道18のあらゆるセンチメートル、又は軌道18のあらゆるミリメートルで、1又は2以上の検出及び/又はトリガポイント(例えば、AR/VR画像45を導入するためのトリガポイント)を含めることができる。このようにして、グラフィックス生成システム32は、十分な精度及び能力で、絶叫マシン12のサイクル中の位置又は場所、移動距離、及び/又は経過時間に基づいて、AR/VRグラフィカル画像45のレンダリングをいつ開始すべきかを検出することができる。更に、付加的なAR/VR画像54、56は、AR/VRグラフィカル画像45のうちの1又は2以上が、相互作用する(例えば、重複又は接触する)ように乗物の乗客22、24、26、28に対して現れることを例示する。同様に、AR/VR画像58は、乗物の乗客22、24、26、28の視線又は視点の外側(例えば、見えない場所)に現れることができるが、それにもかかわらず、乗物の乗客22、24、26、28のいずれもがAR/VR画像58の方向を見ると知覚することができるAR/VRグラフィカル画像45の実施例を示している。乗物の乗客22、24、26、28のうちの1又は2以上が、部分的に又は完全に異なる乗車体験を又は乗車テーマでさえも体験するように、乗物の乗客22、24、26、28のそれぞれに完全に異なる画像を提示できることに留意されたい。
【0031】
特定の実施形態において、
図2に関して上述したように、グラフィックス生成システム32は、それぞれの乗物の乗客22、24、26、及び28の各々が装着した電子ゴーグル34のそれぞれのディスプレイ37及び38の各々に、現実世界画像44及びAR/VR画像45をレンダリングすることができるので、乗物の乗客22、24、26、28は各々、それぞれの視野と時間的及び空間的に整合する現実世界画像44(例えば、施設14、絶叫マシン12等)及びAR/VR画像45(例えば、AR/VR画像又は仮想拡張49、50、52、54、56、及び58)を知覚することができ、これにより、乗客の乗物移動体20が軌道18を移動する際に、フォトリアリスティック効果を生み出すことができる。更に、別の実施形態において、AR/VR画像45(例えば、AR/VR画像又は仮想拡張49、50、52、54、56、及び58)に加えて、グラフィックス生成システム32は、電子ゴーグル34上でのAR/VR画像45の出現と同時に発生することができる1又は2以上の音響効果、触覚フィードバック効果、嗅覚効果等もトリガすることができる。一部の実施形態において、グラフィックス生成システム32は、電子ゴーグル34と一体化される。
【0032】
このようにして、AR体験、VR体験、及び/又は他のコンピュータ利用の現実体験を生み出すために電子ゴーグル34及びグラフィックス生成システム32を備えることによって、電子ゴーグル34及びグラフィックス生成システム32は、絶叫マシン12のスリル要因を、ひいては、乗物の乗客22、24、26、28が絶叫マシン12に乗車中の体験を強化することができる。更に、従来のヘッドマウントディスプレイ(HMD)のようなより大きくてより煩わしいデバイスとは対照的な、AR/VRメガネ等の電子ゴーグル34を備えることによって、乗物の乗客22、24、26、28は、より大きな運動自由度、並びにより多くのフォトリアリスティック体験を得ることができる。例えば、乗物の乗客22、24、26、28の各々は、電子ゴーグル34を装着している場合であっても、乗物の他の乗客22、24、26、28の各々、並びに乗客の乗物移動体20自体を見ることができる。更に、電子ゴーグル34は、個別のカメラ40、42及び個別のディスプレイ37、38を含むことができるので、乗物の乗客22、24、26、28の各々の目のそれぞれの視点に関するデータを、電子ゴーグル34によってキャプチャすることができる。したがって、グラフィックス生成システム32は、乗物の乗客22、24、26、28のそれぞれの視点と一致する現実世界画像44及びAR/VR画像45を電子ゴーグル34のディスプレイ37、38上にレンダリングすることができる。このような利点は、従来のHMD等のデバイスを使用して得ることはできない。
【0033】
ここで
図4を参照すると、例えば、
図2に示したコンピュータグラフィックス生成システム32を用いて、絶叫マシン乗車中にAR体験、VR体験、及び/又は他のコンピュータ利用の体験を生み出すのに有用な処理64の実施形態を示すフロー図が示されている。処理64は、非一時的コンピュータ可読媒体(例えばメモリ47)内に格納され、且つ、例えばコンピュータグラフィックス生成システム32内に含まれるプロセッサ46によって実行される開始コード又は命令を表すことができる。処理64は、プロセッサ46を用いて、リアルタイムでキャプチャされた画像データを受信して(ブロック66)分析する段階から開始することができる。例えば、プロセッサ46は、電子ゴーグル34のカメラ40、42によってキャプチャされたリアルタイムビデオデータ(例えばライブビデオ)を受信することができる。次に、処理64は、プロセッサ46がリアルタイムキャプチャ画像データに基づいて、現実世界環境の視覚化を生成する段階(ブロック68)に進むことができる。例えば、プロセッサ46は、電子ゴーグル34のディスプレイ37、38上に表示される、現実世界環境(例えば遊園地10)のビデオデータストリームを生成することができる。
【0034】
次に、処理64は、プロセッサ46が1又は2以上の拡張又は仮想現実画像を、現実世界環境の生成された視覚化の上にオーバーレイ表示(ブロック70)又は重ね合わせる段階に進むことができる。例えば、プロセッサ46は、現実世界画像44(例えば、施設14、絶叫マシン12)のビデオデータストリームを生成して、1又は2以上のビデオマージ及び/又は光学マージ技術を用いて、現実世界画像44の上にAR/VR画像45(例えば、AR/VR画像又は仮想拡張49、50、52、54、56、及び58)をオーバーレイ表示又は重ね合わせることができる。上述のように、特定の実施形態において、例えば、グラフィックス生成システム32のプロセッサ46は、絶叫マシン12のサイクル中のいずれかの所与の時間における軌道18に沿った乗客の乗物移動体20の位置又は場所、絶叫マシン12のサイクル中に乗客の乗物移動体20が移動した所定の距離に基づいて、又は所定の時間の経過後に、AR/VRグラフィカル画像45をレンダリングすることができる。別の実施形態において、グラフィックス生成システム32は、カメラ40、42によってキャプチャされたビデオ又は画像データに対して1又は2以上の幾何学的又は測光認識アルゴリズムを実行して、乗物移動体20の地点、及びいつAR/VRグラフィカル画像45を導入するかを判断することができる。次に、処理64は、プロセッサ46を用いて、電子ゴーグル34のディスプレイ37、38上に表示されることになる、現実世界環境データ(例えば現実世界画像44)に加えてオーバーレイ表示された拡張又は仮想現実画像データ(例えばAR/VR画像45)を送信する(ブロック72)段階で完了し、絶叫マシン12のスリル要因を、ひいては、絶叫マシン12に乗車中の乗物の乗客22、24、26、28の体験を強化することができる。
【0035】
同様に、
図5は、例えば、
図2に示した電子ゴーグル34を用いて、絶叫マシン乗車中にAR体験、VR体験、及び/又は他のコンピュータ利用の体験を生み出すのに有用な処理74の実施形態のフロー図を示す。処理74は、非一時的コンピュータ可読媒体(例えばメモリ36)内に格納され、且つ、例えば電子ゴーグル34内に含まれるプロセッサ35によって実行されるコード又は命令を含むことができる。処理74は、プロセッサ35を用いて、リアルタイムでキャプチャされた画像データを受信して(ブロック76)分析する段階から開始することができる。例えば、プロセッサ35は、電子ゴーグル34のカメラ40、42によってキャプチャされたリアルタイムビデオデータ(例えばライブビデオ)を受信することができる。次に、処理74は、プロセッサ35を用いて、リアルタイムキャプチャ画像データに基づいて、現実世界環境の視覚化を生成する段階(ブロック78)に進むことができる。例えば、プロセッサ35は、AR/VRゴーグル34のディスプレイ37及び38上に表示するために、現実世界環境(例えば遊園地10)のビデオデータストリームを生成することができる。
【0036】
次に、処理74は、プロセッサ35が1又は2以上の拡張又は仮想現実画像を、現実世界環境の生成された視覚化の上にオーバーレイ表示(ブロック80)又は重ね合わされる段階に進むことができる。例えば、プロセッサ35は、現実世界画像44(例えば、施設14、絶叫マシン12等)のビデオデータストリームを生成して、1又は2以上のビデオマージ及び/又は光学マージ技術を用いて、現実世界画像44の上にAR/VR画像45(例えば、AR/VR画像又は仮想拡張49、50、52、54、56、及び58)をオーバーレイ表示又は重ね合わせることができる。例えば、電子ゴーグル34のプロセッサ35は、乗物の乗客22、24、26、28の位置及び方向、乗客の乗物移動体20の位置及び場所、所定の時間の経過、カメラ40、42によってキャプチャされたビデオ及び画像データ内の特定の特徴の幾何学的又は測光認識に基づいて、或いは、例えば絶叫マシン12のサイクル前又はその間に乗物の乗客22、24、26、28によって適用される1又は2以上のユーザ選択可能な設定に基づいて、AR/VR画像45(例えば、AR/VR画像又は仮想拡張49、50、52、54、56、及び58)をレンダリングすることができる。次に、処理74は、プロセッサ35がそれぞれのディスプレイ37及び38に、現実世界環境データ(例えば現実世界画像44)と共にオーバーレイ表示された拡張又は仮想現実画像データ(例えばAR/VR画像45)を電子ゴーグル34のディスプレイ37及び38上に表示させる(ブロック82)段階で完了し、絶叫マシン12のスリル要因を強化して、乗物の乗客22、24、26、28の体験を高めることができる。
【0037】
本実施形態の技術的効果は、拡張現実(AR)体験、仮想現実(VR)体験、複合現実(例えばAR及びVRの組合せ)体験、又はこれらの組合せを、遊園地又はテーマパーク内の絶叫マシンの一部として提供するシステム及び方法に関する。特定の実施形態において、各乗物の乗客には、絶叫マシンのサイクル中に装着するための1組の電子ゴーグル(例えばAR/VRメガネ)を提供することができる。具体的には、電子ゴーグルは、少なくとも2つのカメラを含むことができ、これらはそれぞれ、乗物の乗客のそれぞれの視点に対応することができ、乗物の乗客及び/又は絶叫マシンの現実世界環境(例えば物理的な遊園地)のリアルタイムビデオデータ(例えばライブビデオ)をキャプチャするために使用することができる。また、電子ゴーグルは、乗物の乗客の各々の目にそれぞれ対応する少なくとも2つのディスプレイも含むことができる。特定の実施形態において、コンピュータグラフィックス生成システムを備えることもできる。コンピュータグラフィックス生成システムは、絶叫マシンのサイクル中に、現実世界環境のビデオストリームを様々なAR/VRグラフィカル画像と共に、乗物の乗客のそれぞれの電子ゴーグルのそれぞれのディスプレイにレンダリングすることができる。例えば、一実施形態において、グラフィックス生成システム32は、絶叫マシンのサイクル中のいずれかの所与の時間における軌道に沿った乗客の乗物移動体の位置又は場所、絶叫マシンのサイクル中に乗客の乗物移動体が移動した所定の距離に基づいて、又は所定の時間の経過後に、AR/VRグラフィカル画像を電子ゴーグルにレンダリングすることができる。このようにして、電子ゴーグル及びグラフィックス生成システムを用いて、AR体験、VR体験、及び/又は複合現実体験を生み出すことによって、電子ゴーグル及びグラフィックス生成システムは、絶叫マシンのスリル要因を強化し、ひいては、乗物の乗客が絶叫マシンに乗車するときの体験を高めることができる。
【0038】
本明細書では本実施形態の特定の特徴のみを示して説明してきたが、当業者であれば、多くの修正及び変更に想到するであろう。したがって、添付の請求項は、全てのこのような修正及び変更が本開示の真の精神に含まれるものとして、これらを網羅するものであることは理解されたい。更に、開示する実施形態の特定の要素を相互に組合せて又は置き換えることができる点は理解されたい。