IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニーの特許一覧

特許7079207立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法
<>
  • 特許-立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法 図1
  • 特許-立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法 図2
  • 特許-立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法 図3
  • 特許-立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法 図4
  • 特許-立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-05-24
(45)【発行日】2022-06-01
(54)【発明の名称】立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法
(51)【国際特許分類】
   A63G 21/04 20060101AFI20220525BHJP
   G02B 27/02 20060101ALI20220525BHJP
   G09G 5/36 20060101ALI20220525BHJP
   G09G 5/377 20060101ALI20220525BHJP
   G09G 5/00 20060101ALI20220525BHJP
【FI】
A63G21/04
G02B27/02 Z
G09G5/36 510V
G09G5/36 520M
G09G5/00 510A
【請求項の数】 24
(21)【出願番号】P 2018558202
(86)(22)【出願日】2017-05-05
(65)【公表番号】
(43)【公表日】2019-06-13
(86)【国際出願番号】 US2017031371
(87)【国際公開番号】W WO2017193043
(87)【国際公開日】2017-11-09
【審査請求日】2020-03-02
(31)【優先権主張番号】62/332,299
(32)【優先日】2016-05-05
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】15/586,956
(32)【優先日】2017-05-04
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】511077292
【氏名又は名称】ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
(74)【代理人】
【識別番号】100094569
【弁理士】
【氏名又は名称】田中 伸一郎
(74)【代理人】
【識別番号】100088694
【弁理士】
【氏名又は名称】弟子丸 健
(74)【代理人】
【識別番号】100103610
【弁理士】
【氏名又は名称】▲吉▼田 和彦
(74)【代理人】
【識別番号】100067013
【弁理士】
【氏名又は名称】大塚 文昭
(74)【代理人】
【識別番号】100086771
【弁理士】
【氏名又は名称】西島 孝喜
(74)【代理人】
【識別番号】100109070
【弁理士】
【氏名又は名称】須田 洋之
(74)【代理人】
【識別番号】100109335
【弁理士】
【氏名又は名称】上杉 浩
(74)【代理人】
【識別番号】100120525
【弁理士】
【氏名又は名称】近藤 直樹
(74)【代理人】
【識別番号】100139712
【弁理士】
【氏名又は名称】那須 威夫
(72)【発明者】
【氏名】クー ティエリー
(72)【発明者】
【氏名】マックィリアン ブライアン
(72)【発明者】
【氏名】シュワルツ ジャスティン
【審査官】西村 民男
(56)【参考文献】
【文献】特表2013-513833(JP,A)
【文献】特開2012-212991(JP,A)
【文献】国際公開第2016/025962(WO,A1)
【文献】米国特許出願公開第2016/0048203(US,A1)
【文献】韓国公開特許第10-2014-0115637(KR,A)
(58)【調査した分野】(Int.Cl.,DB名)
A63G 1/00 -33/00,
G02B 27/00 -27/64,
G09G 3/20,
5/00 - 5/36,
5/377- 5/42,
H04N 13/344
(57)【特許請求の範囲】
【請求項1】
ライドシステムであって、
立体視プロジェクタを備えるコンピュータグラフィックス生成システムと、
ユーザに着用されるように構成されたアイウェアであって、前記アイウェアの外部の前記コンピュータグラフィックス生成システムにより生成されて前記立体視プロジェクタにより実世界環境に投影される立体視画像を見ることができるように構成された立体視機能を有するディスプレイを備え、前記実世界環境に投影された立体視画像を見ることはシースルー状態とされた前記ディスプレイを通して見ることにより可能になる、アイウェアと、
を含み、前記コンピュータグラフィックス生成システムは、
前記アイウェアと通信可能なように接続され、
前記実世界環境のストリーミングメディアを当該実世界環境の画像データに基づいて生成し、
前記実世界環境の前記ストリーミングメディア上にスーパーインポーズされる一つまたは複数の仮想的な拡張を生成し、
前記アイウェアの前記ディスプレイ上に表示される一つまたは複数のスーパーインポーズされた仮想的な拡張と共に前記実世界環境の前記ストリーミングメディアを送信し、
前記立体視プロジェクタを使用して立体視画像を前記実世界環境に投影し、
前記アイウェアの方向、前記ユーザの位置、前記ユーザの視点、またはそれらの組合せに基づいて前記実世界環境の前記ストリーミングメディアの生成を停止し、
前記ディスプレイをシースルー状態として、当該ディスプレイを通して前記実世界環境に投影された立体視画像を見ることができるモードでの動作を開始する、
ように構成され、ライドシステム。
【請求項2】
前記アイウェアの前記ディスプレイが第一のディスプレイおよび第二のディスプレイを備え、前記第一のディスプレイが前記ユーザの第一の目に前記ストリーミングメディアを表示するように構成され、また前記第二のディスプレイが前記ユーザの第二の目に前記ストリーミングメディアを表示するように構成される、請求項1に記載のライドシステム。
【請求項3】
前記第一のディスプレイおよび前記第二のディスプレイがそれぞれ、ライトフィールドディスプレイ、液晶ディスプレイ(LCD)、または有機発光ダイオード(OLED)ディスプレイを備える、請求項2に記載のライドシステム。
【請求項4】
前記第二のディスプレイ上または前記第二のディスプレイ内の第二の偏光フィルタとは異なって配向される前記第一のディスプレイ上または前記第一のディスプレイ内の第一の偏光フィルタを備える、請求項2に記載のライドシステム。
【請求項5】
前記第二のディスプレイ上または前記第二のディスプレイ内の第二のカラーフィルタとは異なる波長の光をフィルタするように構成された前記第一のディスプレイ上または前記第一のディスプレイ内の第一のカラーフィルタを備える、請求項2に記載のライドシステム。
【請求項6】
前記アイウェアが前記実世界環境の前記画像データを取得するように構成された一つまたは複数のカメラを備える、請求項1に記載のライドシステム。
【請求項7】
前記ユーザが乗り物内の乗客であり、ライドのサイクルの間に前記乗り物が所定の場所まで移動するとき、所定の距離を移動するとき、所定の時間の経過後、およびそれらの任意の組み合わせのときに、前記コンピュータグラフィックス生成システムが前記一つまたは複数の仮想的な拡張を生成するように構成される、請求項1に記載のライドシステム。
【請求項8】
トラックを備えたローラーコースターを備え、前記ユーザの乗り物が前記トラックに沿って所定の場所まで移動するとき、前記トラックに沿って所定の距離を移動するとき、所定の時間の経過後、またはそれらの任意の組み合わせのときに、前記コンピュータグラフィックス生成システムが前記一つまたは複数の仮想的な拡張を生成するように構成される、請求項1に記載のライドシステム。
【請求項9】
前記コンピュータグラフィックス生成システムが、前記アイウェアの方向、前記ユーザの位置、前記ユーザの視点、前記ユーザのプロフィール情報、前記ユーザに関連付けられたキャラクター、またはそれらの組み合わせに基づいて前記実世界環境の前記ストリーミングメディアを生成するように構成される、請求項1に記載のライドシステム。
【請求項10】
前記アイウェアの前記方向を検出するために前記アイウェア内に方向センサを備える、請求項9に記載のライドシステム。
【請求項11】
前記アイウェアの前記方向を判断するために前記アイウェアの物理的な属性を監視するように構成された監視システムを備える、請求項9に記載のライドシステム。
【請求項12】
前記ライドシステム内の前記ユーザの前記位置を検出するように構成されたセンサを備え、前記ライドシステムが乗り物またはアリーナを備える、請求項9に記載のライドシステム。
【請求項13】
第二のユーザに装着されるように構成された第二のアイウェアを備え、当該第二のアイウェアは前記立体視画像を見ることができるように構成された立体視的機能を有するディスプレイを備える、請求項1に記載のライドシステム。
【請求項14】
前記コンピュータグラフィックス生成システムが、
前記実世界環境に関連付けられたライティング、コントラスト、ブライトネス、またはそれらの組み合わせの指示を受信し、
前記実世界環境の前記ストリーミングメディア、および、前記実世界環境の前記ライティング、前記コントラスト、前記ブライトネス、または前記それらの組み合わせを反映するように調整された一つまたは複数のスーパーインポーズされた仮想的な拡張を生成する、
ように構成される、請求項1に記載のライドシステム。
【請求項15】
ユーザに着用されるように構成されたウェアラブル電子デバイスであって、前記ウェアラブル電子デバイスの外部の立体視プロジェクタを備えるコンピュータグラフィックス生成システムにより生成されて前記立体視プロジェクタにより実世界環境に投影される立体視画像を見ることができるように構成された立体視機能を有するディスプレイを備え、前記実世界環境に投影された立体視画像を見ることはシースルー状態とされた前記ディスプレイを通して見ることにより可能にな
フレームフロントを備えるフレームと、
前記フレームフロントと組み合わされる左目用ディスプレイおよび右目用ディスプレイと、
前記左目用ディスプレイのユーザ側とは反対側の面に配置された第一のフィルタと、
前記右目用ディスプレイのユーザ側とは反対側の面に配置された第二のフィルタであって、前記第一のフィルタは当該第二のフィルタとは異なる、第二のフィルタと、
処理回路であって、
前記コンピュータグラフィックス生成システムからの信号を受信し、前記信号は実世界環境の仮想化のビデオストリームを当該ビデオストリームに含まれる少なくとも一つの拡張現実(AR)画像または少なくとも一つの仮想現実(VR)画像と共に備え、
前記左目用ディスプレイおよび前記右目用ディスプレイに前記ビデオストリームを表示させる、
ように構成された処理回路と、
を備える、ウェアラブル電子デバイス。
【請求項16】
前記フレームフロントに接続され、またリアルタイムに前記実世界環境の画像データをキャプチャするように構成されたカメラを備える、請求項15に記載のウェアラブル電子デバイス。
【請求項17】
前記処理回路が、前記ビデオストリームを前記左目用ディスプレイおよび前記右目用ディスプレイに送信するように構成される、請求項15に記載のウェアラブル電子デバイス。
【請求項18】
方向センサ、位置センサ、加速度計、磁力計、ジャイロスコープ、またはそれらの任意の組み合わせを備える、請求項15に記載のウェアラブル電子デバイス。
【請求項19】
前記実世界環境の画像データが、カメラによって生成されたリアルタイムにキャプチャされた前記実世界環境の画像データか、または履歴画像データである、請求項15に記載のウェアラブル電子デバイス。
【請求項20】
立体視プロジェクタを備えるコンピュータグラフィック生成システムにより実行される方法であって、
環境画像データの受信またはアクセスをすることと、
前記環境画像データに基づいてアミューズメントパークの実世界環境の仮想化を生成することと、
拡張現実(AR)画像または仮想現実(VR)画像を前記実世界環境の前記仮想化上にオーバーレイすることと、
アイウェアの外部の前記コンピュータグラフィックス生成システムにより生成されて前記立体視プロジェクタにより実世界環境に投影される立体視画像を見ることができるように構成された立体視機能を有するディスプレイを備えたアイウェアであって、前記実世界環境に投影された立体視画像を見ることはシースルー状態とされた前記ディスプレイを通して見ることにより可能になる、アイウェアを提供することと、
前記アミューズメントパークのライドのサイクルの間に、前記実世界環境の前記仮想化と共に前記オーバーレイされたAR画像またはVR画像をアイウェアに送信することと、
前記立体視プロジェクタを使用して立体視画像を前記実世界環境に投影することと、
3D画像の錯覚を生成するために、前記アイウェア内のフィルタを通して前記立体視画像の光をユーザの左右の目に入射させることと、
前記アイウェアの方向、前記ユーザの位置、前記ユーザの視点、またはそれらの組合せに基づいて前記実世界環境のストリーミングメディアの生成を停止することと、
前記ディスプレイをシースルー状態として、当該ディスプレイを通して前記実世界環境に投影された立体視画像を見ることができるモードでの動作を開始することと、
を含む、方法。
【請求項21】
前記アミューズメントパークのライドの乗客の位置、前記乗客の方向、前記乗客の視点、またはそれらの組み合わせに関連付けられたデータを受信することを含む、請求項20に記載の方法。
【請求項22】
前記アイウェアに関連付けられた識別信号を受信し、また前記オーバーレイされたAR画像または前記VR画像は前記識別信号に基づいて選択される、請求項20に記載の方法。
【請求項23】
第二のアイウェアに関連付けられた第二の識別信号を受信し、また前記アミューズメントパークのライドの前記サイクルの間に前記実世界環境の前記仮想化と共に第二のオーバーレイされたAR画像または前記VR画像を前記アイウェアに送信し、前記第二のオーバーレイされたAR画像または前記VR画像は前記第二の識別信号に基づいて選択される、請求項20に記載の方法。
【請求項24】
環境画像データの受信またはアクセスをすることが、前記アイウェアに接続されたカメラからリアルタイム画像データを受信することを含む、請求項20に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
[関連出願の相互参照]
本出願は2016年5月5日に出願された「SYSTEMS AND METHODS FOR GENERATING STEREOSCOPIC, AUGMENTED, AND VIRTUAL REALITY IMAGES」と題する米国仮特許出願第62/332,299,号に基づく優先権を主張するものであり、この出願はすべての目的のために本明細書において参照により組み込まれている。
【0002】
本明細書で開示される主題は、アミューズメントパークアトラクション、より具体的にはアミューズメントパークアトラクションにおいてより強いスリル因子および興味の要素を提供することにある。
【背景技術】
【0003】
アミューズメントパークおよび/またはテーマパークは、アミューズメントパークの来園者(例えば、家族連れおよび/または全ての年代の人々)に楽しさを提供することに有用な、様々なエンターテイメントアトラクション、レストラン、および乗り物を含むことができる。例えば、アトラクションには、回転木馬のような子供のための従来の乗り物や、ローラーコースターのようなスリルを求める人のための従来の乗り物を含むことができる。現在、これらのアトラクションに興味の要素およびスリル因子を加えることは、困難で限定的なものであり得ると認識されている。従来、例えば、急勾配で、ねじれ、曲がりくねったローラーコースターのトラックのますます複雑なシステムを提供すること以外には、これらのローラーコースターおよび/または他の類似のスリルライドのスリル因子は、既存のコース、またはスリルライド自体の物理的な性質によって制限されているといえる。従来の技術に関連したフレキシブルで効果的な方法により、これらのアトラクションに興味の要素およびスリル因子を取り入れることが望ましいと認識されている。
【発明の概要】
【0004】
本開示の範囲内である実施形態を以下に要約する。これらの実施形態は開示の範囲に限定されることを意図するものではなく、むしろこれらの実施形態は本実施形態について考えられ得る形態の簡潔な要約を提供することのみを意図するものである。実際に、本実施形態は、以下に挙げる実施形態と類似していてもよく、または異なってもよい様々な形態を包含することができる。
【0005】
一つの実施形態において、ライドシステムはユーザに着用されるように構成されたアイウェアを含み、アイウェアは外部で生成された立体視表示画像を見ることができるように構成された立体視機能を有するディスプレイを備える。ライドシステムは、アイウェアに通信可能なように接続され、またアイウェアのカメラを介してキャプチャされた画像データに基づく実世界環境のストリーミングメディアを生成し、実世界環境のストリーミングメディア上にスーパーインポーズされた一つまたは複数の仮想的な拡張(virtual augmentations)を生成し、アイウェアのディスプレイに表示される一つまたは複数のスーパーインポーズされた仮想的な拡張と共に実世界環境のストリーミングメディアを送信し、また実世界環境内に立体視画像を投影するように構成された、コンピュータグラフィックス生成システムを含む。
【0006】
第二の実施形態において、ウェアラブル電子デバイスは、フレームフロントを備えるフレーム、フレームフロントに接続された左目用ディスプレイのレンズおよび右目用ディスプレイのレンズ、左目用ディスプレイのレンズ上の第一のフィルタ、右目用ディスプレイのレンズ上の第二のフィルタであって第一のフィルタと第二のフィルタとは異なるフィルタと、さらにコンピュータグラフィックス生成システムからの信号であってビデオストリームに含まれる少なくとも一つの拡張現実(AR)画像または少なくとも一つの仮想現実(VR)画像と共に実世界環境の仮想化のビデオストリームを含む信号を受信し、また左目用ディスプレイおよび右目用ディスプレイにビデオストリームを表示させるように構成された処理回路を備える。
【0007】
第三の実施形態において、方法は、コンピュータグラフィックス生成システムを介して環境画像データの受信またはアクセスをすること、環境画像データに基づくアミューズメントパークの実世界環境の仮想化を生成すること、拡張現実(AR)画像または仮想現実(VR)画像を実世界環境の仮想化上にオーバーレイすること、アミューズメントパークのライドのサイクルの間に実世界環境の仮想化と共にオーバーレイされたAR画像またはVR画像をアイウェアに送信すること、アイウェアのディスプレイを通して見られるようにするために信号をアイウェアに送信すること、信号の送信後に立体視画像を実世界環境の表面上に投影すること、および3D画像の錯覚を生成するためにアイウェア内のフィルタを通して立体視画像がユーザの左右の目に反射されることを含む。
【0008】
本開示のこれらおよび他の機能、様態、および利点については、図面全体を通して同様の記号は同様の部分を表す添付図面を参照して下記の詳細な説明を読めば、よりよい理解が得られるだろう。
【図面の簡単な説明】
【0009】
図1図1は、本実施形態に即した、一つまたは複数のアトラクションを備えるアミューズメントパークの実施形態を示す。
図2図2は、本実施形態に即した、立体視拡張現実(AR)アイウェアまたは立体視仮想現実(VR)アイウェア、およびコンピュータグラフィックス生成システムの実施形態を示す。
図3図3は、立体視拡張現実(AR)アイウェアまたは立体視仮想現実(VR)アイウェアの実施形態を示す。
図4図4は、本実施形態に即した、図2の立体視AR/VRアイウェアを通して提供される様々なAR画像およびVR画像を含む図1のスリルライドの透視図である。
図5図5は、本実施形態に即した、図2のコンピュータグラフィックス生成システムを使用することによってライドの間にAR体験、VR体験、または複合現実体験において立体視画像を創り出すのに有用なプロセスの実施形態を示すフローチャートである。
【0010】
[発明の詳細な説明]
本開示の一つまたは複数の具体的な実施形態を以下に記載する。これらの実施形態の簡潔な記載を提供するために、実際の実施における全ての特徴は本明細書には記載されていない。このような実際の実施の発展形において、任意のエンジニアリングプロジェクトまたはデザインプロジェクトのように、一つの実施形態から別の実施形態へ変更し得るシステム関連制約やビジネス関連制約を遵守することのようなその開発者固有の目的に到達するために、多数の実施に固有の決定がなされなければならないことを理解されたい。さらに、このような開発努力は複雑で時間のかかるものであるかもしれないが、そうであるとしても、本開示の利益を享受する当業者にとって設計、製作、および製造の日常的な業務であることを理解されたい。
【0011】
本実施形態は、アミューズメントパークまたはテーマパーク内のスリルライドのようなアトラクションの一部として立体視的な複合現実体験または拡張現実(AR)体験、仮想現実(VR)体験、またはそれらの組み合わせを提供するシステムおよび方法に関する。ある実施形態において、各乗客(例えば、第一の乗客、第二の乗客等)は、スリルライドのサイクルの間に着用される一組の電子ゴーグルまたは眼鏡等のアイウェアを提供されることができる。アイウェアは、AR体験、VR体験、または両方の体験の組み合わせを容易にすることができる。したがって、アイウェアは、立体視アイウェアまたは立体視AR/VRアイウェアとして参照することができる。立体視AR/VRアイウェアは、立体視画像を見る機能を提供し、3D画像の錯覚を生み出す。加えて、立体視AR/VRアイウェアは、ユーザの実世界環境の画像上にオーバーレイされた拡張現実画像または仮想現実画像を表示するように構成され、オーバーレイされた画像が実世界の一部であるという錯覚を生み出す。それにより、立体視AR/VRアイウェアは、中央コントローラから送信され、オーバーレイされたAR/VR画像を表示することができるディスプレイのレンズで実施されるとともに、ユーザが任意の立体視表示画像を含む実世界環境を見られるようにする。例えば、ディスプレイのレンズは、偏光層、アクティブシャッター、カラーシフト機能、または立体視を可能にし、またアイウェアのAR/VR機能と交換可能である他の技術によって実施されることができる。このように、単体のアイウェアデバイスは、様々な異なるタイプの視覚体験を生み出す環境において使用されることができる。ベースレベルでは、アイウェアは、ある例、例えば、テーマパークの乗り物のスタート時においてはユーザが環境に適応できるように、そのままの視界、立体視的でない視界、または拡張されていない視界も可能にすることができる。
【0012】
立体視AR/VRアイウェアは、拡張画像を実世界環境に反映するために創り出される画像のためのディスプレイとして動作することができる。これらの実施形態において、ユーザは、拡張画像がリアルタイムに見ている実世界環境であるという錯覚を創り出す方法で、アイウェアのレンズ上に表示される表示画像を見る。実世界環境の画像は、例えば、システムのメモリに格納されたり、または、ある実施形態においては、ユーザによってリアルタイムに収集されたりすることで、前もって記録されることができる。具体的には、一つの実施形態において、アイウェアは少なくとも二つのカメラを備えており、そのカメラは乗客の各視点(例えば、右目および左目の視点)にそれぞれ対応することができ、また乗客および/またはスリルライドの実世界環境(例えば、物理的なアミューズメントパークの態様)のリアルタイムビデオデータ(例えば、ライブ使用中にキャプチャされ、実質的にリアルタイムに送信されるビデオ)をキャプチャするために使用されることができる。アイウェアはディスプレイを備えることもできる。例えば、アイウェアは、アイウェアを使用している乗客の各目にそれぞれ対応する少なくとも二つのディスプレイを備えることができる。
【0013】
ある実施形態において、コンピュータグラフィックス生成システムが提供されることもできる。コンピュータグラフィックス生成システムは、アイウェアからリアルタイムビデオデータ(例えば、実質的にリアルタイムに送信されるライブビデオ)を受信することができ、また、様々なAR、VR、またはARおよびVRが組み合わされた(AR/VR)グラフィック画像と共に、実世界環境のビデオストリームを、ライドのサイクルの間に乗客の各アイウェアの各ディスプレイにレンダリングすることができる。例えば、一つの実施形態において、コンピュータグラフィックス生成システムは、AR/VRグラフィック画像を、例えば、スリルライドのサイクルの間のローラーコースターのトラックに沿った乗り物の位置または場所、スリルライドのサイクルの間に乗り物が移動した所定の距離に基づいて、または、スリルライドのサイクルの間の所定の時間の経過後に、アイウェアにレンダリングすることができる。このように、AR体験、VR体験、または複合現実体験を創り出すためにアイウェアまたはグラフィックス生成システムを使用することによって、アイウェアおよびコンピュータグラフィックス生成システムは、スリルライドのスリル因子を高めることができ、さらに言えば、乗客がスリルライドに乗る際の彼らの体験を高めることができる。しかしながら、本明細書に記載の技術は、スリルライドおよび/またはアミューズメントパークのアトラクションに関する応用形態に限定されるものではなく、任意の様々な応用形態、例えば、医療に関する応用形態(例えば、画像誘導手術、非侵襲画像分析)、エンジニアリングデザインに関する応用形態(例えば、エンジニアリングモデル開発)、製造、建設および保全に関する応用形態(例えば、製品の製造、新しいビルの建設、自動車の修理)、学術および/または職業訓練に関する応用形態、エクササイズに関する応用形態(例えば、ボディービルディングおよび減量モデル)、テレビ(TV)に関する応用形態(例えば、天気およびニュース)、等にまで拡大されることを理解されたい。
【0014】
前述されたことを念頭に、図1に描写される例示的なアミューズメントパーク10のようなアミューズメントパークの実施形態を記載することは有用であり得る。図示されるように、アミューズメントパーク10は、スリルライド12、アミューズメントパークの施設のモール14(例えば、レストラン、土産店等)、および別のアミューズメントアトラクション16(例えば、観覧車、ダークライド、または他のアトラクション)を備えることができる。ある実施形態において、スリルライド12は、ローラーコースターまたは他の類似のスリルライドを備えることができ、またしたがって、さらにクローズドループトラックまたはクローズドループトラックのシステム18(例えば、トラック18のマイル)を備えることができる。トラック18は、例えば、乗客22、24、26、28がスリルライド12に乗る際に乗り物20が通過することができる設備として提供されることができる。トラック18は、したがって、乗り物20の動作を判断することができる。しかしながら、別の実施形態において、例えば、トラック18は、乗り物20の動作が電子システム、磁気システム、またはトラック18以外の他の類似のシステム設備を介して制御されることができる、制御された経路で置き換えることができる。乗り物20は4人乗りの乗り物として図示されることができるが、別の実施形態において、乗り物20は、乗客22、24、26、28の一つまたは複数のグループを収容するために、任意の数の乗客のためのスペース(例えば、1、2、4、6、10、20またはそれより多いスペース)を備えることができることを理解されたい。スリルライド12が、乗り物20との関連で記載されているが、別の実施形態が考慮され(例えば、着席した劇場の環境、歩いたり自由に動いたりすることのできるアリーナの環境等)、また開示された実施形態と併せて用いられ得ることを理解されたい。
【0015】
乗り物20がトラック18を通過する際、乗客22、24、26、28はスリルライド12の周辺または近辺のエリアにおいて風景(例えば、施設14、別のアミューズメントアトラクション16等)のムービングツアーを提供されることができる。例えば、これにはスリルライド12の周辺環境(例えば、スリルライド12の全体または一部を収容する建物)を含むことができる。乗客22、24、26、28がスリルライド12を非常に楽しい体験であると感じることができる一方で、ある実施形態において、例えば、スリルライド12のスリル因子を高めることにより、乗客22、24、26、28がスリルライド12に乗車する際の乗客22、24、26、28の体験を高めることが有用であり得る。具体的には、施設14(例えば、レストラン、土産店等)、別のアミューズメントアトラクション16(例えば、観覧車、または他のアトラクション)、またはアミューズメントパーク10内の他の来園者や歩行者のみの物理的な視界を得ることの代わりに、乗客22、24、26、28に、乗り物20がトラック18を通過する際に拡張現実(AR)体験または仮想現実(VR)体験を提供することが有用である。
【0016】
例えば、図2に移ると、乗客22、24、26、28の各々は立体視AR/VRアイウェア34を提供されることができ、ある実施形態においては、眼鏡を含むことができる。別の実施形態において、立体視AR/VRアイウェア34は、ヘルメット、バイザー、ヘッドバンド、一組のブラインダ、一つまたは複数のアイパッチ、および/または乗客22、24、26、28の各々に着用される他のヘッドウェアまたはアイウェアの一部として含まれることができる。描写されるように、立体視AR/VRアイウェア34は、ワイヤレスネットワーク48(例えば、ワイヤレスローカルエリアネットワーク[WLAN]、ワイヤレスワイドエリアネットワーク[WWAN]、近距離無線通信[NFC])を介して、(例えば、アミューズメントパーク10内で)コンピュータグラフィックス生成システム32に通信可能なように接続されることができる。立体視AR/VRアイウェア34は超現実的環境30を創り出すために使用されることができ、この超現実的環境は、AR体験、VR体験、複合現実体験、ARおよびVR体験の組み合わせ、コンピュータ媒介現実体験、それらの組み合わせ、または乗客22、24、26、28がスリルライド12に乗車する際の乗客22、24、26、28のための他の類似の超現実的環境を含むことができる。具体的には、立体視AR/VRアイウェア34は、乗客22、24、26、28が環境30に完全に取り囲まれているように感じることができ、また環境30を実世界物理的環境であるように知覚することができるような乗車時間全体を通して乗客22、24、26、28に着用されることができる。具体的には、より理解されるように、環境30は、電子的に一つまたは複数のARまたはVR画像45(例えば、仮想的な拡張)とマージしているAR/VRアイウェア34を着用していない場合でも乗客22、24、26、28が見るであろう実世界画像44を含むリアルタイムビデオでもよい。「リアルタイム(real-time)」という句は、画像が実際の観察時間と実質的に近いタイムフレーム内で取得および/または提供されることを示す。別の実施形態において、取得した画像は環境の履歴画像でもよい。
【0017】
ある実施形態において、立体視AR/VRアイウェア34は、スリルライド12のスリル因子を高めることができ、さらに言えば、スリルライド12に乗車している間の乗客22、24、26、28の体験を高めるためのAR体験、VR体験、および/またはコンピュータ媒介体験を創り出すのに有用な、任意の様々なウェアラブル電子デバイスでもよい。本明細書で議論される立体視AR/VRアイウェア34の実施形態である眼鏡が、ヘッドマウントディスプレイ(HMDs)および/またはヘッドアップディスプレイ(HUDs)のような従来のデバイスとは全く異なり、また多くの利点を提供することを理解されたい。例えば、より理解されるように、立体視AR/VRアイウェア34は、スリルライド12がのサイクルの間の乗客22、24、26、28の位置、方向、動作を追跡するために使用される方向センサおよび位置センサ(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム[GPS]受信機)のいくつかを備える。
【0018】
同様に、立体視AR/VRアイウェア34の特徴(例えば、幾何学的な面または模様)は、立体視AR/VRアイウェア34の、また同様に、その着用者の位置、場所、方向等を判断するために監視システム(例えば、一つまたは複数のカメラ)によって監視されることができる。さらに、乗客22、24、26、28は、監視システム33(例えば、カメラ)によって監視されることができ、監視システム33は、コンピュータグラフィックス生成システム32に通信可能なように接続され、また乗客22、24、26、28の位置、場所、方向等を特定するために使用されることができる。乗り物20は、グラフィックス生成システム32が各乗客22、24、26、28の視点を判断するために、各乗客22、24、26、28を監視するのに有用な一つまたは複数のセンサ(例えば、重量センサ、質量センサ、動作センサ、超音波センサ)を備えることもできる。さらに、より理解されるように、立体視AR/VRアイウェア34が個々のカメラ(例えば、カメラ40および42)および個々のディスプレイ(例えば、ディスプレイ37および38)を備えることができるため、乗客22、24、26、28の各目の各視点に関するデータは、立体視AR/VRアイウェア34によってキャプチャされることができる。これらの利点の全ては、従来のHMDsおよび/またはHUDs等のデバイスを使用することによっては得られないだろう。
【0019】
ある実施形態において、環境30を創り出すことを支援するために、立体視AR/VRアイウェア34は、プロセッサ35およびメモリ36等の処理回路を備えることができる。プロセッサ35は、スリルライド12のスリル因子を高めることができ、さらに言えばスリルライド12に乗車している間の乗客22、24、26、28の体験を高めるための一つまたは複数のAR/VR画像45にマージした実世界画像44の生成に関する本開示技術を実施するための命令を実行するためのメモリ36に動作可能なように接続されることができる。これらの命令は、メモリ36および/または他のストレージ等の有形で非一過性のコンピュータ読み取り可能な媒体に格納されているプログラムまたはコードにおいてコード化されることができる。プロセッサ35は汎用プロセッサ、システムオンチップ(SoC)デバイス、特定用途向け集積回路(ASIC)、または他の類似のプロセッサ構成でもよい。別の実施形態において、プロセッサ35およびメモリ36は、立体視的なAR/VRアイウェア34と有線または無線で通信する、ユーザによって運ばれる(例えば、挟まれて待機している、またはポケットに入れて運ばれる)補助的なパックとして提供されることができる。別の実施形態において、立体視AR/VRアイウェア34は、コンピュータグラフィックス生成システム32と無線で通信し、またオンボード画像処理を実行しない。
【0020】
ある実施形態において、さらに図示されるように、立体視AR/VRアイウェア34は、乗客22、24、26、28の各目にそれぞれ対応する(例えば、そうでなければ眼鏡のレンズ存在するであろう立体視的AR/VRアイウェア34のフレームフロント39に設けられる)一組のディスプレイ37および38を備えることもできる。別の実施形態において、別の実施形態において、統一されたディスプレイが採用されることができる。各ディスプレイ37および38はそれぞれ、表示面の少なくとも一部を覆うディスプレイ、または一部のみを覆うディスプレイを備えることができる。ディスプレイ37、38は、乗客22、24、26、28に対して実世界画像44およびAR/VRグラフィック画像45を表示するのに有用な不透明な液晶ディスプレイ(LCD)、不透明な有機発光ダイオード(OLED)ディスプレイ、または他の類似のディスプレイでもよい。別の実施形態において、各ディスプレイ37および38はそれぞれ、例えば、乗客22、24、26、28が各ディスプレイ37および38を通して実際の物理的な実世界環境(例えば、アミューズメントパーク10)を見る機能を保持したまま各ディスプレイ37および38上に出現する実世界画像44およびAR/VRグラフィック画像45を見られるようにするのに有用なシースルーLCDまたはシースルーOLEDディスプレイを備えることができる。さらに別の実施形態では、ディスプレイ37および38は立体視画像43を見られるようにする。ディスプレイ37、38はライトフィールドディスプレイを備えることもできる。ある実施形態において、ディスプレイ37、38は、所望の視覚環境に応じて不透明状態および透明状態を切り替えることができる。
【0021】
カメラ40および42は、乗客22、24、26、28の各視点にそれぞれ対応することができ、また、実世界環境のリアルタイムビデオデータ(例えば、ライブビデオ)をキャプチャするために使用されることができる。いくつかの実施形態において、単体のカメラが採用されることができる。具体的には、図示される実施形態において、立体視AR/VRアイウェア34のカメラ40、42は、各乗客22、24、26、28の視点から各乗客22、24、26、28によって知覚される実世界物理環境(例えば、物理的なアミューズメントパーク10)のリアルタイム画像をキャプチャするために使用されることができる。より理解されるように、立体視AR/VRアイウェア34はさらに、各カメラ40および42を介してキャプチャされたリアルタイムビデオデータを、処理のためにコンピュータグラフィックス生成システム32に送信(例えば、立体視AR/VRアイウェア34に備えられる一つまたは複数の通信インターフェースを介して無線で)することができる。しかしながら、別の実施形態では、各カメラ40および42を介してキャプチャされたリアルタイムビデオデータは、プロセッサ35を介して立体視AR/VRアイウェア34上で処理されることができる。さらに、立体視AR/VRアイウェア34は、立体視AR/VRアイウェア34に備えられることのできる方向センサおよび位置センサ(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム[GPS]受信機等)、動作追跡センサ(例えば、電磁センサおよび固体動作追跡センサ)等を介して取得したデータに基づいて取得および/または生成された方向データ、位置データ、視点データ(例えば、焦点距離、方向、姿勢等)、動作追跡データ等を送信することもできる。さらに、環境の実世界画像データが前もって取得およびアクセスされる実施形態において、立体視AR/VRアイウェアはカメラ40および42を使用せずに実施されることができる。
【0022】
ある実施形態において、前述されるように、コンピュータグラフィックス生成システム32はプロセッサ46(例えば、汎用プロセッサまたは他のプロセッサ)およびメモリ47等の処理回路を備えることもでき、立体視AR/VRアイウェア34または監視システム33から受信したリアルタイムビデオデータ(例えば、ライブビデオ)、方向および位置データおよび/または視点データを処理することができる。具体的には、コンピュータグラフィックス生成システム32は、このデータを、生成された実世界画像44およびAR/VRグラフィック画像45を伴うリアルタイムビデオデータを記録するための参照フレームを生成するために使用することができる。具体的には、方向データ、位置データ、視点データ、動作追跡データ等に基づいて生成された参照フレームを使用することで、グラフィックス生成システム32はさらに、立体視AR/VRアイウェア34を着用していなくても各乗客22、24、26、28が知覚するであろうものと時間的および空間的に整合のとれた、実世界画像44の視界をレンダリングする。グラフィックス生成システム32は、各乗客22、24、26、28の各方向、位置、および/または動作の変化を反映するために実世界画像のレンダリングを定期的に(例えば、リアルタイムに)アップデートすることができる。
【0023】
例えば、ある実施形態において、グラフィックス生成システム32は、およそ20フレーム毎秒(FPS)以上、およそ30フレーム毎秒(FPS)以上、およそ40フレーム毎秒(FPS)以上、およそ50フレーム毎秒(FPS)以上、およそ60フレーム毎秒(FPS)以上、およそ90フレーム毎秒(FPS)以上、またはおよそ120フレーム毎秒(FPS)以上のリアルタイムレートで画像(例えば、実世界画像44およびAR/VR画像45)をレンダリングすることができる。さらに、グラフィックス生成システム32は、各乗客22、24、26、28によって着用されている各立体視AR/VRアイウェア34(例えば、各乗客22、24、26、および28の各方向、位置、および視点に合わせて調整された)のそれぞれに対して、実世界画像44を生成することができる。
【0024】
ある実施形態において、前述されるように、コンピュータグラフィックス生成システム32は、乗客22、24、26、28に対して完全なAR体験、VR体験、複合現実体験、および/または他のコンピュータ媒介体験を創り出すために、実世界画像44上にスーパーインポーズされる一つまたは複数のAR/VRグラフィック画像45を生成またはレンダリングすることもできる。例えば、ある実施形態において、コンピュータグラフィックス生成システム32は、乗客22、24、26、28が、乗り物20がトラック18を通過する際にAR/VRグラフィック画像45(例えば、仮想的な拡張)と共にアミューズメントパーク10の実世界物理環境(例えば、各ディスプレイ37および38を介してレンダリングされたビデオデータとして提供された)を知覚するような実世界画像44上にAR/VRグラフィック画像45をスーパーインポーズするために、一つまたは複数の検討されたビデオマージ技術または光学マージ技術を活用することができる。具体的には、実世界画像44のレンダリングに関して前述されるように、グラフィックス生成システム32は、実世界画像44がAR/VRグラフィック画像45とオーバーレイされた背景として出現するような実世界画像44と時間的および空間的に整合のとれたAR/VRグラフィック画像45の視界をレンダリングすることができる。実際には、モデルは、任意の利用可能な視点に対してコンピュータ生成画像を提供することができ、また特定の画像は、立体視AR/VRアイウェア34の検出された方向に基づいて表示するために立体視AR/VRアイウェア34に提供されることができる。
【0025】
ある実施形態において、グラフィックス生成システム32は、実世界画像44およびAR/VRグラフィック画像45のレンダリングにおいて実世界物理環境(例えば、晴れの日、ときどき曇りの日、曇りの日、夕方、夜)のコントラストおよびブライトネスを正確に反映するために調整された実世界画像44およびAR/VRグラフィック画像45を生成するために、一つまたは複数のブライトネスモデル、ライティングモデル、またはシェーディングモデル、および/または他の写実的なレンダリングモデルを生成することができる。例えば、実世界画像44およびAR/VRグラフィック画像45の写実性を高めるために、グラフィックス生成システム32は、いくつかの実施形態において、一つまたは複数の天気予報および/または予測システム(例えば、グローバル予測システム、ドップラーレーダー等)から天気関連のデータを受信することができる。グラフィックス生成システム32はさらに、実世界画像44および/またはAR/VRグラフィック画像45のコントラスト、ブライトネス、および/または他のライティング効果を調整するために、天気関連のデータまたは他の類似のデータを使用することができる。
【0026】
別の実施形態において、グラフィックス生成システム32は、立体視AR/VRアイウェア34に備えられる一つまたは複数のライトセンサから検出されたライティングに基づいて、またはカメラ40、42によってキャプチャされたリアルタイムビデオデータに基づいて、実世界画像44およびAR/VRグラフィック画像45のコントラスト、ブライトネス、および/または他のライティング効果を調整することができる。さらに、前述されるように、グラフィックス生成システム32は、各乗客22、24、26、28の各方向、位置、視点、および/または動作の変化を反映するために、定期的にAR/VRグラフィック画像45のレンダリングをアップデート(例えば、リアルタイムに)することができる。例えば、図3に関してより理解されるように、グラフィックス生成システム32は、各乗客22、24、26、および28の変化しやすい各位置、視点、および動作に合わせて調整された各乗客22、24、26、28によって着用される各立体視AR/VRアイウェア34のそれぞれの各ディスプレイ37および38上にAR/VRグラフィック画像45をレンダリングすることができる。
【0027】
より理解されるように、グラフィックス生成システム32は、乗り物20がトラック18に沿った所定のポイントを通過する時点で、AR/VRグラフィック画像45を生成することもできる。したがって、ある実施形態において、グラフィックス生成システム32は、例えば、スリルライド12およびトラック18やスリルライド12の全周にわたるスリルライド12の直接的な周辺環境のイルミネーションマップを生成するために、GPSデータまたは地理情報システム(GIS)データと共に、受信した位置データ、視点データ、動作データを使用することができる。グラフィックス生成システム32はさらに、そのマップを、乗り物20がトラック18を通過する際に、ある所定のポイント(例えば、場所、距離、または時間に基づくポイント)におけるAR/VRグラフィック画像45を導入するために用いることができる。さらに、ある実施形態において、カメラ40、42を介してキャプチャされたビデオデータまたは画像データは、乗り物20の地点およびいつAR/VRグラフィック画像45を導入するべきかを判断するために、グラフィックス生成システム32によって使用されることができる。例えば、グラフィックス生成システム32は、乗り物20の位置または場所や乗客22、24、26、28の見ている位置を判断するために、一つまたは複数の幾何学認識アルゴリズム(例えば、形状認識または対象物認識)または測光認識アルゴリズム(例えば、顔認識または特定の対象物認識)を実行することができる。
【0028】
図3は、外部から投影された立体視画像を見ることも可能にする機能を備えた立体視AR/VRアイウェア34の実施形態を示している立体視AR/VRアイウェア34を図示している。例えば、ディスプレイ37および38は、偏光コーティングまたはユーザが立体視的に投影された画像を3Dであると判断することを可能にするための偏光層等の偏光機能を備えることができる。偏光機能は、ディスプレイ37の外面57およびディスプレイ38の外面にコーティングされることができる。あるいは、偏光機能はディスプレイ37および38内に形成され、埋め込まれ、または反対側の表面上に形成されてもよい。右目用ディスプレイ37の偏光機能は、各ディスプレイ37および38のそれぞれが透過するのに適した特性を有する偏光のみを透過させるフィルタレンズとして動作することを可能にするために、左目用ディスプレイ38の偏光機能とは異なる偏光特性を有する。この方法において、スクリーン上にスーパーインポーズされた2つの投影画像は、立体視的に見える。ある実施形態において、各ディスプレイにおける偏光機能は、互いに対して直行して配向された直線偏光フィルタでもよい。別の実施形態において、ディスプレイ37および38の偏光フィルタは、互いに利き手と反対の循環型偏光フィルタでもよい。別の実施形態において、立体視AR/VRアイウェア34は、各ディスプレイ37および38が互いに異なる波長をフィルタするカラーフィルタを備えるように、カラーシフトフィルタを備える。ある実施形態において、立体視AR/VRアイウェア34は、Inficolor 3D technology またはInfitec(登録商標) 3D technology (Infitec GmbH, Baden Wuerttemberg, Germany)で実施されることができる。
【0029】
別の実施形態も考えられる。例えば、立体視AR/VRアイウェア34は、繰り返し各ディスプレイ37および38を交互にオンおよびオフするアクティブシャッター等の、アクティブな立体視機能を有する。異なるユーザ間に個別化されたコンテンツを提供するために、シャッター速度を変化させることが用いられ得ることが考えられる。例えば、ともにそれぞれアイウェア34を着用している第一のユーザおよび第二のユーザは、それらのアクティブシャッターが異なる速度で制御されている場合、異なるように組み立てられたコンテンツを得ることができる。この制御は、表示されたフレームに埋め込まれた信号を含む、システム32から受信した信号に基づくことができる。別の実施形態において、シャッター制御はデバイス上で予め設定されている。アクティブで立体視的な実装は、カラーフィルタまたは偏光フィルタが無いことによってより多くの光がディスプレイ37および38を透過できるようになるため、それらが立体視的な視界のためのレンズとして動作するときには、より暗い乗り物について利点を持つことができる。立体視AR/VRアイウェア34がAR/VRモードで使用されているとき、ディスプレイ37および38は内部で3D画像または立体視画像を生成するために使用されることができることも理解されたい。すなわち、ある実施形態において、ユーザは、立体視的に実施されることができる送信された画像またはビデオストリームを見る。例えば、左目用ディスプレイ38は右目用ディスプレイ37とは切り離されたビデオチャネルを表示することができる。表示された画像やビデオストリームの左目の視界と右目の視界の間での遠近差や微小な差に基づいて、これらの投影された立体視画像上に生成されたものと同様に、3Dの錯覚は表示されたコンテンツの内部で生成されることができる。
【0030】
図4は、グラフィックス生成システム32によって生成されることのできる、または別の実施形態において、立体視AR/VRアイウェア34を介して生成されることのできる、AR/VR画像45の様々な例を図示している。具体的には、図3において図示されるように、スリルライド12のサイクルの間、グラフィックス生成システム32は、乗客22、24、26、28の各立体視AR/VRアイウェア34を通して(例えば、各ディスプレイ37および38を介して)、立体視画像43、実世界画像44、そして様々なAR/VRグラフィック画像45をレンダリングすることができる。立体視画像をレンダリングするために、グラフィックス生成システム32は、立体視プロジェクタ53と併せて使用されることができる。実世界画像44は、たとえ乗客22、24、26、28が立体視AR/VRアイウェア34を着用していない場合でも乗客22、24、26、28がスリルライド12に乗車中に見るであろう他の乗客22、24、26、28を含む、例えば、トラック18、施設14、および/または他の来園者またはオブジェクトの、レンダリングされた画像を含むことができる。しかしながら、図2に関連して前述されるように、ある実施形態において、乗客22、24、26、および28の各立体視AR/VRアイウェア34の各ディスプレイ37および38に様々なAR/VRグラフィック画像45をレンダリングすることによってスリルライド12のスリル因子を高めることは、有用であり得る。
【0031】
例えば、図3においてさらに描写されるように、グラフィックス生成システム32は、例えば、アミューズメントパーク施設の第二のモールのAR/VR画像49、一つまたは複数の架空のキャラクターのAR/VR画像50、トラック18の亀裂のAR/VR画像52、および/またはさらなるAR/VR画像54、56、および58を含むことのできるAR/VRグラフィック画像45(破線で図示されている)をレンダリングすることができる。一つの実施形態において、図3に図示されるように、AR/VR画像50は、乗り物20がトラック18を通過するときにトラック18の一部を妨害するように(例えば、立体視AR/VRアイウェア34を着用している間の乗客22、24、26、28の視点から)出現する、モンスターまたは他の類似の架空のキャラクターの画像を含むことができる。さらなる画像を含むAR/VRグラフィック画像45(例えば、仮想的な拡張)に加え、グラフィックス生成システム32は、乗客22、24、26、28が立体視AR/VRアイウェア34を着用している間にはもう出現することのない一つまたは複数の実世界物理オブジェクトの削除を含む、あるAR/VRグラフィック画像45をレンダリングすることもできることを理解されたい。例えば、施設のAR/VR画像49は、実世界環境でアトラクション16が配置される場所に出現することができる。
【0032】
前述されるように、ある実施形態において、グラフィックス生成システム32は、例えば、スリルライド12のサイクルの間の任意の時間におけるトラック18に沿った乗り物20の位置または場所、スリルライド12のサイクルの間に乗り物20が移動した所定の距離に基づいて、または所定の時間の経過後に、AR/VRグラフィック画像45をレンダリングすることができる。例えば、一つの実施形態において、ひとたび乗り物がポイント60(例えば、一定の距離62またはトラック18上の場所により定義される)を通過すると、架空のキャラクターのAR/VR画像50は、スリルライド12の与えられたサイクルの間に乗り物20がまだ通過していないトラック18上の場所を妨害するように、立体視AR/VRアイウェア34を介して乗客22、24、26、28の前に出現することができる。同様に、ひとたび乗り物20がポイント62(例えば、一定の距離62またはトラック18上の場所により定義される)を通過すると、トラック18の亀裂(例えば、損壊したトラックの外観)のAR/VR画像52は、あたかも乗客が乗った乗り物20が支えとなるトラック18が無い場所に遭遇するかのように、立体視AR/VRアイウェア34を介して乗客22、24、26、28の前に出現することができる。グラフィックス生成システム32は、アイウェア34の個々のユーザの識別に基づいてAR/VRグラフィック画像45をレンダリングすることができる。各アイウェア34は、RFIDタグまたは識別信号をグラフィックス生成システム32に送信する他の識別要素に関連付けられることができる。システム32は、乗客(例えば、乗客22、24、26、28)の識別に基づき、メモリ47に格納されるいくつかの選択肢の中からオーバーレイされる画像を選択することができる。この方法において、乗り物20内の各乗客は、乗り物20内の他の乗客によって受信されたものとは異なる、カスタマイズされたコンテンツを受信することができる。例えば、キャラクターコンテンツを備える乗り物内で、ある乗客は特定のキャラクターに関連付けられた特定のアイウェア34を着用している。このような実施形態において、オーバーレイされたAR/VR画像は、特定のキャラクターに関連付けられることができる。乗客(例えば、乗客22、24、26、28)は、以前のパークでの体験、報酬、キャラクター、乗客の年齢または興味、中央サーバから取得した乗客のプロフィール情報等に基づく、アイウェア34を介して表示された識別されたインタラクティブなコンテンツを得ることができる。一つの実施形態において、インタラクティブなアリーナ内のゲストは、彼らが物理的な動作(例えば、ブロックをパンチするまたはドアを開ける)をうまく行った場合にのみ表示される、特定のオーバーレイされた画像を見ることができる。
【0033】
さらに、ある実施形態において、グラフィックス生成システム32によって生成されたイルミネーションマップは、グラフィックス生成システム32がトラック18の1マイル毎、トラック18の1ヤードごと、トラック18の1フィート毎、トラック18の1インチ毎、トラック18の1センチメートル毎、またはトラック18の1ミリメートル毎の一つまたは複数の検出ポイントおよび/またはトリガポイント(例えば、AR/VR画像45を導入するトリガポイント)を備えることを可能にすることができる。このようにして、グラフィックス生成システム32は、スリルライド12のサイクル間の位置または場所、移動距離、および/または時間経過に基づいて、いつAR/VRグラフィック画像45のレンダリングを開始するかを、十分な正確性および効率をもって検出することができる。さらに、ある画像54、56は、AR/VRグラフィック画像45のうち一つまたは複数が互いに干渉し合って(例えば、重なり合うことまたは接触すること)乗客22、24、26、28の前に出現することができることを図示している。一つの実施形態において、画像(例えば、画像54Aおよび54B)は立体視画像でもよい。同様に、AR/VR画像58は、乗客22、24、26、28の視線または視点の外側(例えば、盲点)に出現し得るが、それにもかかわらず、彼らのうちのいずれかがAR/VR画像58の方向を見る場合には乗客22、24、26、28によって認識され得る、AR/VRグラフィック画像45の一例を図示している。完全に異なる画像が、乗客22、24、26、28のうち一人または複数人が部分的または完全に異なる乗車体験または乗車テーマさえも得るように異なる乗客に22、24、26、28に提供されることもできることに留意されたい。
【0034】
ある実施形態において、図2に関して前述されるように、グラフィックス生成システム32が各乗客22、24、26、および28のそれぞれによって着用されている立体視AR/VRアイウェア34の各ディスプレイ37および38のそれぞれに実世界画像44およびAR/VRグラフィック画像45をレンダリングすることができるため、乗客22、24、26、28がそれぞれに彼らの各視点と時間的および空間的に整合のとれた実世界画像44(例えば、施設14、スリルライド12等)およびAR/VRグラフィック画像45(例えば、AR/VR画像または仮想的な拡張49、50、52、54、56、および58)を知覚することによって、乗り物20がトラック18を通過する際に写実的な効果を創り出す。さらに、別の実施形態において、AR/VRグラフィック画像45(例えば、AR/VR画像または仮想的な拡張49、50、52、54、56、および58)に加えて、グラフィックス生成システム32は、立体視AR/VRアイウェア34上のAR/VRグラフィック画像45の出現と同時に起こる一つまたは複数の音響効果、触覚フィードバック効果、香りの効果等を引き起こすこともできる。いくつかの実施形態において、グラフィックス生成システム32は、立体視AR/VRアイウェア34と一体である。
【0035】
このようにして、AR体験、VR体験、および/または他のコンピュータ媒介現実体験を創り出すために立体視AR/VRアイウェア34およびグラフィックス生成システム32を提供することによって、立体視AR/VRアイウェア34およびグラフィックス生成システム32はスリルライド12のスリル因子を高めることができ、さらに言えば、スリルライド12のサイクルの間の乗客22、24、26、28の体験を高めることができる。さらに、AR/VR眼鏡として立体視AR/VRアイウェア34を提供することによって、従来のヘッドマウントディスプレイ(HMDs)等のよりかさばり、より扱いにくい装置とは対照的に、乗客22、24、26、28は、より自由な動作やより写実的な体験を提供されることができる。例えば、各乗客22、24、26、28は、立体視AR/VRアイウェア34を着用しているときでさえ、乗り物20自体だけでなく乗客22、24、26、28を互いに見ることができる。さらに、立体視AR/VRアイウェア34が個々のカメラ40、42および個々のディスプレイ37、38を備えることができるため、乗客22、24、26、28の各目の各視点に関連するデータは立体視AR/VRアイウェア34によってキャプチャされることができる。したがって、グラフィックス生成システム32は、立体視AR/VRアイウェア34のディスプレイ37、38上に乗客22、24、26、28の各視点と矛盾のない実世界画像44およびAR/VR画像45をレンダリングすることができる。これらの利点は、従来のHMDsのようなデバイスを用いることによっては得られないだろう。別の実施形態において、システム32は、ライド12内のARコンテンツを同期させるため、例えば、再生されたメディアをAR画像に同期させるために、オーディオ電子透かしを使用することができる。
【0036】
次に図5を参照すると、フローダイアグラムがあり、例えばスリルライドが図2において描写されているコンピュータグラフィックス生成システム32を使用している間に立体視体験、AR体験、VR体験、および/または他のコンピュータ媒介体験を創り出すのに有用なプロセス80の実施形態を示している。プロセス80は、非一過性のコンピュータ読み取り可能な媒体(例えば、メモリ47)に格納される開始コードまたは開始命令を表すことができ、また、例えば、コンピュータグラフィックス生成システム32に備えられるプロセッサ46によって実行されることができる。プロセス64は、プロセッサ46が、ユーザが着用するアイウェア34の位置情報を受信すること(ブロック82)で開始することができる。検討されるように、アイウェアの位置情報は、カメラやGPS等によって、各デバイス上でRFIDタグによって評価されることができる。位置に基づき、システム32は、ユーザが着用しているアイウェア34が所望の立体視イベントの付近に位置すると判断すること(ブロック84)ができる。これにより、システム32は、ディスプレイへの立体視画像の投影およびユーザが見ることを、開始または維持すること(ブロック86)ができる。
【0037】
アイウェア34のユーザが乗り物の乗客であるか(図4を参照)、あるいは環境に対して移動している場合、方法80は、ユーザが所望の複合効果またはAR/VR効果に関連付けられる新しい場所に移動したこと(ブロック90)を反映するために、更新された位置情報を受信すること(ブロック88)ができる。AR/VR効果を生み出すために、この方法は、前もってスキャンされた画像データへのアクセス、またはリアルタイムにキャプチャされる画像データの受信をすること(ブロック92)ができる。例えば、プロセッサ46は、立体視AR/VRアイウェア34のカメラ40、42を介してキャプチャされたリアルタイムビデオデータ(例えば、ライブビデオ)を受信することができる。プロセス64はさらに、プロセッサ46が実世界画像データに基づく実世界環境の可視化されたものを生成することを続行することができる。例えば、プロセッサ46は、立体視AR/VRアイウェア34のディスプレイ37、38で表示される実世界環境(例えば、アミューズメントパーク10)のビデオデータストリームを生成することができる。
【0038】
プロセス64はさらに、プロセッサ46が一つまたは複数の拡張現実画像または仮想現実画像を生成した実世界環境の可視化されたものの上にオーバーレイすること(ブロック92)またはスーパーインポーズすることを続行することができる。例えば、プロセッサ46は、実世界画像44(例えば、施設14、スリルライド12)のビデオデータストリームを生成することができ、またAR/VR画像45(例えば、AR/VR画像または仮想的な拡張49、50、52、54、56、および58)を一つまたは複数のビデオマージ技術および/または光学マージ技術を用いる実世界画像44上にオーバーレイまたはスーパーインポーズする。前述されるように、ある実施形態において、例えば、グラフィックス生成システム32のプロセッサ46は、例えば、スリルライド12のサイクルの間の任意の与えられた時間におけるトラック18に沿った乗り物20の位置または場所、スリルライド12のサイクルの間に乗り物20が移動した所定の距離に基づいて、または所定の時間の経過後に、AR/VRグラフィック画像45をレンダリングすることができる。別の実施形態において、グラフィックス生成システム32は、乗り物20の地点およびいつAR/VRグラフィック画像45を導入するかを判断するために、カメラ40、42を介してキャプチャされたビデオデータ上または画像データ上で一つまたは複数の幾何学認識アルゴリズムまたは測光認識アルゴリズムを実行することができる。プロセス64はさらに、プロセッサ46がスリルライド12のスリル因子を高めることができ、さらに言えば、スリルライド12に乗車中の乗客22、24、26、28の体験を高めるために、立体視AR/VRアイウェア34のディスプレイ37、38上に表示される実世界環境データ(例えば、実世界画像44)と共にオーバーレイされた拡張現実画像データまたは仮想現実画像データ(例えば、AR/VR画像45)を送信すること(ブロック96)で終了する。システム32は、アイウェア34が異なる視覚モード間、例えば、AR/VR、立体視、および実世界(例えば、効果なし)を切り替えられるように構成されている。この切り替えは時間またはライド12内のユーザの位置に基づくことができ、またシステム32からの制御信号によって媒介されることができる。システム32は、例えば、アイウェア上の入力ボタンまたはスイッチを介して、ユーザの入力を受信することもできる。例えば、あるユーザは立体視画像表示に敏感でもよい。これらのユーザは3Dの立体視的な視覚をオフにする選択肢を持つことができ、またシステム32は立体視効果に近い代わりのビデオデータを提供することができる。
【0039】
本実施形態の技術的な効果は、アミューズメントパークまたはテーマパーク内のスリルライドの一部として拡張現実(AR)体験、仮想現実(VR)体験、複合現実(例えば、ARおよびVRの組み合わせ)体験、またはそれらの組み合わせを提供するシステムおよび方法に関する。ある実施形態において、各乗客は、スリルライドのサイクルの間に着用されるアイウェア(例えば、AR/VRアイウェアとして使用されるように構成された立体視AR/VRアイウェア34)を提供されることができる。一つの実施形態において、アイウェアは、投影された立体視画像を見ることを容易にすることができるだけでなく、AR/VRの両方の機能を備える。AR/VR体験または複合現実体験を容易にするために、アイウェアは、実世界表現上にオーバーレイされた仮想画像を表示するように構成されることができる。その目的のために、アイウェアは少なくとも2つのカメラを備えることができ、カメラは乗客の各視点にそれぞれ対応することができ、また乗客および/またはスリルライドの実世界環境(例えば、物理的なアミューズメントパーク)のリアルタイムビデオデータ(例えば、ライブビデオ)をキャプチャするために使用されることができる。アイウェアは、乗客の各目にそれぞれ対応する少なくとも2つのディスプレイを備えることもできる。ある実施形態において、コンピュータグラフィックス生成システムが提供されることができる。コンピュータグラフィックス生成システムは、スリルライドのサイクルの間に乗客の各立体視アイウェアの各ディスプレイに、様々なAR/VRグラフィック画像と共に実世界環境のビデオストリームをレンダリングすることができる。例えば、一つの実施形態において、グラフィックス生成システム32は、例えば、スリルライドのサイクルの間の任意の与えられた時間におけるトラックに沿った乗り物の位置または場所、スリルライドのサイクルの間に乗り物が移動した所定の距離に基づいて、または所定の時間の経過後に、アイウェアにAR/VRグラフィック画像をレンダリングすることができる。このようにして、AR体験、VR体験、および/または複合現実体験を創り出すためにアイウェアおよびグラフィックス生成システムを用いることによって、アイウェアおよびコンピュータグラフィックス生成システムは、スリルライドのスリル因子を高めることができ、さらに言えば、彼らがスリルライドに乗る際の乗客の体験を高めることができる。
【0040】
本実施形態のある特徴のみが本明細書において図示および記載されているが、当業者には多くの修正および変更が思い浮かぶであろう。したがって、添付の特許請求の範囲は、本開示の真の精神に含まれる全てのそのような修正および変更を包含するように意図されていることを理解されたい。さらに、本実施形態の特定の要素は、互いに組み合わせられ、または交換されてもよいことを理解されたい。
【0041】
[開示の要約]
ライドシステムは、ユーザに着用されるように構成されたアイウェアを含む。アイウェアは、外部から投影された立体視表示画像を見ることができるように構成された立体視機能を有するディスプレイを備える。ライドシステムは、アイウェアに通信可能なように接続され、またアイウェアのカメラを介してキャプチャされた画像データに基づく実世界環境のストリーミングメディアを生成し、実世界環境のストリーミングメディア上にスーパーインポーズされた一つまたは複数の仮想的な拡張を生成し、アイウェアのディスプレイに表示される一つまたは複数のスーパーインポーズされた仮想的な拡張と共に実世界環境のストリーミングメディアを送信し、また実世界環境内に立体視画像を投影するように構成された、コンピュータグラフィックス生成システムを含む。
図1
図2
図3
図4
図5