(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-29
(45)【発行日】2024-08-06
(54)【発明の名称】ウェアラブル視覚化システム及び方法
(51)【国際特許分類】
H04N 5/64 20060101AFI20240730BHJP
H04N 5/74 20060101ALI20240730BHJP
【FI】
H04N5/64 511A
H04N5/74 D
(21)【出願番号】P 2021540204
(86)(22)【出願日】2020-01-10
(86)【国際出願番号】 US2020013165
(87)【国際公開番号】W WO2020146785
(87)【国際公開日】2020-07-16
【審査請求日】2023-01-10
(32)【優先日】2019-01-11
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2020-01-09
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】511077292
【氏名又は名称】ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
(74)【代理人】
【識別番号】100094569
【氏名又は名称】田中 伸一郎
(74)【代理人】
【識別番号】100103610
【氏名又は名称】▲吉▼田 和彦
(74)【代理人】
【識別番号】100109070
【氏名又は名称】須田 洋之
(74)【代理人】
【識別番号】100067013
【氏名又は名称】大塚 文昭
(74)【代理人】
【識別番号】100086771
【氏名又は名称】西島 孝喜
(74)【代理人】
【氏名又は名称】上杉 浩
(74)【代理人】
【識別番号】100120525
【氏名又は名称】近藤 直樹
(74)【代理人】
【識別番号】100139712
【氏名又は名称】那須 威夫
(74)【代理人】
【識別番号】100196612
【氏名又は名称】鎌田 慎也
(72)【発明者】
【氏名】ライジ アンドリュー ブライアン
(72)【発明者】
【氏名】ヘア ジャスティン アレン
(72)【発明者】
【氏名】ヒル グレゴリー アディソン
(72)【発明者】
【氏名】ゲルゲン パトリック ジョン
(72)【発明者】
【氏名】トルヒージョ トーマス マニュエル
(72)【発明者】
【氏名】グラハム マーティン エヴァン
【審査官】三沢 岳志
(56)【参考文献】
【文献】国際公開第2018/008232(WO,A1)
【文献】特開2006-203440(JP,A)
【文献】米国特許出願公開第2018/0124387(US,A1)
【文献】米国特許出願公開第2018/0098056(US,A1)
【文献】米国特許出願公開第2016/0262608(US,A1)
【文献】特開2005-241825(JP,A)
【文献】国際公開第2014/017348(WO,A1)
【文献】国際公開第2018/165170(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 5/64
H04N 5/74
(57)【特許請求の範囲】
【請求項1】
ウェアラブル視覚化システムであって、前記ウェアラブル視覚化システムは、
ウェアラブル視覚化デバイスを含み、前記ウェアラブル視覚化デバイスは、
ハウジングと、
前記ハウジングに結合され、ユーザーのために画像を表示するように構成されたディスプレイと、
前記ハウジングに結合され、前記画像を捕捉するように構成されたカメラと、
を含み、
前記ウェアラブル視覚化システムは、
前記画像を前記カメラから受け取り、
重力ベクトルに対する前記ウェアラブル視覚化デバイスの向きを決定し、
前記ウェアラブル視覚化デバイスの向きに対応するマスター画像を決定し、
前記画像が前記マスター画像と一致するか否かを判定するために前記画像を前記マスター画像と比較する
ように構成されたコンピュータシステムを含
み、
前記カメラは、前記ディスプレイの方に向けられる、
ウェアラブル視覚化システム。
【請求項2】
前記コンピュータシステムは、前記画像と前記マスター画像との間の比較に応答して前記ディスプレイを制御するように構成される、請求項1に記載のウェアラブル視覚化システム。
【請求項3】
前記カメラは前記ディスプレイから離れる方向に向けられ、前記カメラは、前記ユーザーの眼の上の前記画像を捕捉するように構成される、請求項1に記載のウェアラブル視覚化システム。
【請求項4】
前記コンピュータシステムは、眼の曲率及び眼の画像の歪曲効果を除去するように前記画像を処理するように構成される、請求項
3に記載のウェアラブル視覚化システム。
【請求項5】
前記ウェアラブル視覚化デバイスは、1又は2以上のセンサを含む、請求項1に記載のウェアラブル視覚化システム。
【請求項6】
前記ウェアラブル視覚化デバイスは、前記ウェアラブル視覚化デバイスの向きを決定するために前記1又は2以上のセンサからのフィードバックを使用するように構成される、請求項
5に記載のウェアラブル視覚化システム。
【請求項7】
前記画像は、1又は2以上のパターンを含むテスト画像である、請求項1に記載のウェアラブル視覚化システム。
【請求項8】
ウェアラブル視覚化システムを較正する方法であって、
ウェアラブル視覚化デバイスの向きをコンピュータシステムで検出するステップと、
前記ウェアラブル視覚化デバイスのディスプレイ上に生成された画像をカメラで捕捉するステップと、
前記ウェアラブル視覚化デバイスの向きに応答して前記コンピュータシステムでマスター画像を決定するステップと、
前記画像が前記マスター画像と一致することを決定するために、前記コンピュータシステムで前記画像を前記マスター画像と比較するステップと、
を含
み、
前記ディスプレイによって生成された前記画像を前記カメラで捕捉するステップは、前記ディスプレイから直接前記画像を前記カメラで捕捉するステップを含む、
方法。
【請求項9】
前記ウェアラブル視覚化デバイスの場所を前記コンピュータシステムで決定するステップを含む、請求項
8に記載の方法。
【請求項10】
前記コンピュータシステムで、前記ウェアラブル視覚化デバイスの場所を用いて前記マスター画像を決定するステップを含む、請求項
9に記載の方法。
【請求項11】
前記コンピュータシステムで前記画像を前記マスター画像と比較するステップに応答して、前記コンピュータシステムで前記ディスプレイを制御するステップを含む、請求項
8に記載の方法。
【請求項12】
前記ディスプレイによって生成された前記画像を前記カメラで捕捉するステップは、前記カメラで前記画像をユーザーの眼から捕捉するステップを含む、請求項
8に記載の方法。
【請求項13】
前記コンピュータシステムで、眼の曲率及び眼の画像の歪曲効果を除去するように前記画像を処理するステップを含む、請求項
12に記載の方法。
【請求項14】
ウェアラブル視覚化システムを較正する方法であって、
遊園地乗物中にウェアラブル視覚化デバイスの動作をコンピュータシステムで検出するステップと、
前記ウェアラブル視覚化デバイスの動作の検出に応答して、カメラで、前記遊園地乗物中に前記ウェアラブル視覚化デバイスのディスプレイ上に生成されたテスト画像を捕捉するステップと、
前記テスト画像とマスター画像との間の色差が閾値色差内であること、前記テスト画像と前記マスター画像との間の輝度差が閾値輝度差内であること、
前記マスター画像に対する前記テスト画像におけるデッドピクセル数が閾値デッドピクセル数内であること、前記マスター画像に対する前記テスト画像のぼやけが閾値ぼやけ差内であること、又はこれらの組み合わせを決定することにより、前記テスト画像が前記マスター画像と一致することを決定するために、前記コンピュータシステムで、前記カメラによって捕捉された前記テスト画像を前記マスター画像と比較するステップと、
を含む、方法。
【請求項15】
前記コンピュータシステムで前記テスト画像が前記マスター画像と一致すると判定することに応答して、前記コンピュータシステムでレディ信号を生成するステップを含み、前記レディ信号は、前記遊園地乗物のライドオペレータが利用することができる、請求項
14に記載の方法。
【請求項16】
前記コンピュータシステムは、
遊園地乗物における乗物経路に沿った前記ウェアラブル視覚化デバイスの位置のインジケーションを受け取り、
前記ウェアラブル視覚化デバイスの向き及び前記ウェアラブル視覚化デバイスの位置に対応する前記マスター画像を決定する、
ように構成される、請求項1に記載のウェアラブル視覚化システム。
【請求項17】
前記ウェアラブル視覚化デバイスの動作をコンピュータシステムで検出するステップは、前記ウェアラブル視覚化デバイスが保管場所に保管されていることを決定するステップを含み、前記方法は、
前記コンピュータシステムで、前記ウェアラブル視覚化デバイスが保管場所に保管されていることの検出に応答して、前記テスト画像を生成するように前記ウェアラブル視覚化デバイスのディスプレイを命令するステップを含む、
請求項
14に記載の方法。
【請求項18】
前記テスト画像は、前記遊園地乗物の環境に重ねた画像を含む、請求項
14に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願の相互参照)
本出願は、2019年1月11日出願の米国特許仮出願第62/791,735号「高スループットアトラクション用拡張現実(AR)ヘッドホン(AUGMENTED REALITY (AR) HEADSET FOR HIGH THROUGHPUT ATTRACTIONS)」の優先権及びその利益を権利主張するものであり、この開示内容全体は、全ての目的のために引用により本明細書に組み込まれる。
【背景技術】
【0002】
本セクションは、読者に本発明の技法の様々な態様に関係すると考えられる当技術分野の様々な態様を紹介することを目的とし、当技術分野の様々な態様を以下で説明する。ここで論じる内容は、本開示の様々な態様をより深く理解しやすいように読者に背景情報を提供するのに役立つと思われる。従って、これらの記載事項は、従来技術を認めるものではなく、これに照らして読む必要があることを理解されたい。
【0003】
遊園地及び/又はテーマパークは、ゲストを娯楽アトラクション、レストラン、及びライドの取り合わせで楽しませる。例えば、遊園地は、特に、フラットライド、ジェットコースター、ウォーターライド、ダークライド、観覧車を含むことができる。遊園地オペレータは、乗物車両による体験を含む、遊園地体験を強化することに継続的に取り組んでいる。例えば、乗物車両、乗物経路、並びに照明、スピーカー、相互作用要素、及び特殊環境などのライドシステムの他の要素は、さらに強化された感覚的体験を提供するために継続的に改善される。また、遊園地オペレータは、より興味深く没入できる体験を提供するために拡張現実及び仮想現実をアトラクションに組み込んでいる。
【発明の概要】
【0004】
本明細書で開示する特定の実施形態の要約を以下で説明する。これらの態様は、単に読者にこれらの特定の実施形態の概要を提供するために提示され、これらの態様は、本開示の範囲を制限することが意図されてないことを理解されたい。実際には、本開示は、以下で説明することができない様々な態様を包含することができる。
【0005】
1つの実施形態において、ウェアラブル視覚化デバイス(wearable visualization device)を含むウェアラブル視覚化システムが提供される。ウェアラブル視覚化デバイスは、ハウジングを含む。ディスプレイは、ハウジングに結合して画像をユーザーに表示する。カメラは、ハウジングに結合して画像を捕捉する(capture)。コンピュータシステムは、画像をカメラから受け取り、画像がマスター画像と一致する(match)か否かを判定するために、画像をマスター画像と比較する。
【0006】
1つの実施形態において、ウェアラブル視覚化システムを較正する方法が提供される。この方法は、ウェアラブル視覚化デバイスの向き(orientation)を検出するステップを含む。この方法は、次に、カメラでウェアラブル視覚化デバイスのディスプレイ上に生成された画像を捕捉する。この方法は、次に、マスター画像をウェアラブル視覚化デバイスの向きに応答して決定することができる。この方法は、画像がマスター画像と一致するか否かを判定するために、画像をマスター画像と比較する。
【0007】
1つの実施形態において、ウェアラブル視覚化システムを較正する方法が提供される。この方法は、ウェアラブル視覚化デバイスの動作を検出するステップを含む。この方法は、次に、カメラでウェアラブル視覚化デバイスのディスプレイ上に生成されたテスト画像を捕捉する。この方法は、テスト画像がマスター画像と一致するか否かを判定するために、カメラによって捕捉されたテスト画像をマスター画像と比較する。
【0008】
上述した特徴部の様々な改良は、本開示の様々な態様に対して行うことができる。また、さらなる特徴部は、これらの様々な態様に組み込むこともできる。上記の改良及びさらなる特徴部は、個別に又は何らかの組み合わせによって存在することができる。
【0009】
本開示の上記及び他の特徴、態様、及び利点は、全図を通して同じ符号が同じ要素を示す図面を参照して以下の詳細な説明を読むことでよりよく理解することができる。
【図面の簡単な説明】
【0010】
【
図1】本開示の実施形態による、ウェアラブル視覚化システムの斜視図である。
【
図2】本開示の実施形態による、
図1のウェアラブル視覚化システムの後面図である。
【
図3】本開示の実施形態による、ウェアラブル視覚化システムを有する乗物の図である。
【
図4】本開示の実施形態による、ウェアラブル視覚化システムを乗物の出発前にテストする方法のフローチャートである。
【
図5】本開示の実施形態による、ウェアラブル視覚化システムを乗車中にテストする方法のフローチャートである。
【
図6】本開示の実施形態による、ユーザーの眼の上の画像を捕捉することを含む、ウェアラブル視覚化システムを乗車中に較正する方法のフローチャートである。
【発明を実施するための形態】
【0011】
本開示の1又は2以上の特定の実施形態を以下で説明する。これらの実施形態の簡潔な説明を行うために、実際の実行例の全ての特徴を本明細書で説明することができるというわけではない。何らかの工業設計又は設計プロジェクトの場合と同様に、何らかの当該の実際の実行例の開発において、実行例間で変動する場合があるシステム関連及び事業関連の制約の遵守など、開発担当者らの特定の目標を達成するために数多くの実行固有の意思決定を行う必要があることを認識されたい。さらに、このような開発作業は、複雑かつ時間が掛かることがあり得るが、それでも、本開示の恩恵を有する当業者にとって設計、作製、及び製造の日常的な仕事になることを認識されたい。
【0012】
本開示の様々な実施形態の要素を説明する場合に、冠詞「a」、「an」、及び「the」は、要素の1又は2以上があることを意味することが意図されている。用語「~を備える」、「~を含む」、及び「~を有する」は、包括的であり、かつ、記載された要素以外のさらなる要素がある場合があることを意味することが意図されている。加えて、本開示の「1つの実施形態」又は「一実施形態」への言及は、記載された特徴部も組み込むさらなる実施形態の存在を除外すると解釈されることは意図されていないことを理解されたい。
【0013】
本発明の実施形態は、強化された体験を遊園地又はテーマパークのゲストに提供するウェアラブル視覚化システムに関する。具体的には、これらのウェアラブル視覚化システムは、拡張現実及び/又は仮想現実(AR/VR)体験をウェアラブル視覚化デバイスによって提供する。例えば、ウェアラブル視覚化デバイスは、ヘッドマウントディスプレイ(例えば、電子ゴーグル又はディスプレイ、眼鏡)を含むことができ、ウェアラブル視覚化デバイスは、ゲストが着用することができ、ゲストがAR/VRシーンを視聴することを可能にするように構成することができる。特に、ウェアラブル視覚化デバイスは、遊園地の現実世界の環境内に特徴部を仮想的に重ね合わせることによって、異なる体験を遊園地乗物(例えば、閉ループ軌道、ダークライド、又は他の同様の乗物)内で提供するために調整可能な仮想環境をもたらすなどによって、ゲスト体験を強化するために利用することができる。
【0014】
ウェアラブル視覚化デバイスは、一般的にゲストが着用するので、ライドオペレータは、ウェアラブル視覚化デバイスの望ましくない挙動又は状態に気づかない場合がある。例えば、ライドオペレータは、特に、ディスプレイ上の汚れ、ディスプレイの輝度低下、不良画素(例えば、常時点灯画素、常時消灯画素)、不連続画像、フレーム落ち、間違った画像生成、間違った画像発色、画像生成なし、画像生成の間違ったタイミング、画面部分の間の間違ったアライメント(位置合わせ)(例えば、左右の画面)、現実世界の環境との間違ったアライメントなどの問題に気づかない場合がある。以下で説明するように、ウェアラブル視覚化システムは、カメラを利用してウェアラブル視覚化デバイスに関する問題を検出することができる。例えば、カメラは、ウェアラブル視覚化デバイスによって又はそのディスプレイ上に生成された画像を捕捉する。ウェアラブル視覚化システムは、これらの捕捉画像をマスター画像と比較してウェアラブル視覚化デバイスに関する問題を示す不一致を検出する。その後、ライドオペレータに問題を警告することができ、従って、ライドオペレータは、素早く対応する(例えば、ウェアラブル視覚化デバイスを交換する、修理する)ことができる。
【0015】
図1は、ユーザーがAR及び/又はVRシーンを体験することを可能にするウェアラブル視覚化システム10の斜視図である。ウェアラブル視覚化システム10は、ユーザーに結合するウェアラブル視覚化デバイス12(例えば、ヘッドマウントディスプレイ)を含む。一部の実施形態において、ウェアラブル視覚化デバイス12は、ユーザーの頭部の周りに配置される帽子又はバンドでユーザーに結合する。
図1において、ウェアラブル視覚化デバイス12は、バンド又はストラップ14でユーザーに結合する。
【0016】
例示する実施形態において、ウェアラブル視覚化デバイス12は、ウェアラブル視覚化デバイス12のハウジング18に結合する電子眼鏡16(例えば、AR/VR眼鏡、ゴーグル)を含む。電子眼鏡16は、特定の仮想画像を重ね合わせることができる1又は2以上のディスプレイ20(例えば、透明、半透明、不透明の左右ディスプレイ)を含むことができる。一部の実施形態において、ディスプレイ20は、ユーザーが現実世界の環境22を仮想特徴部24(例えば、AR特徴部)と一緒にディスプレイ20を通して見るのを可能にすることができる。換言すると、電子眼鏡16は、仮想特徴部24をユーザーの視線内で重ね合わせることによってユーザーの視野を少なくとも部分的に制御することができる。ディスプレイ20は、発光ダイオード(LED)又は有機発光ダイオード(OLED)を含む、透明(例えば、シースルー)又は非透明ディスプレイを含むことができる。
【0017】
一部の実施形態において、ウェアラブル視覚化デバイス12は、ユーザーの視野を完全に制御することができる(例えば、不透明画面を使用して)。視聴者が見るこの非現実的な環境26は、1又は2以上の仮想特徴部24(例えば、VR特徴部)と電子的に統合された現実世界の環境22の現実世界の画像を含む、リアルタイム映像とすることができる。従って、ユーザーは、非現実的な環境26が仮想特徴部24と重ね合わされた現実世界の環境22であると知覚することができる。一部の実施形態において、ウェアラブル視覚化デバイス12は、ユーザーが見ることができる現実世界のオブジェクト上に特定の仮想特徴部24が重ね合わされるように、光をユーザーの片眼又は両眼に投影する光投影特徴部などの特徴部を含むことができる。このようなウェアラブル視覚化デバイス12は、仮想網膜ディスプレイと呼ぶことができる。
【0018】
ユーザーは、ウェアラブル視覚化デバイス12を遊園地乗物上で、ゲーム時に、及び/又は、遊園地の特定のエリアにおいて(例えば、遊園地のテーマ別エリアにおいて)着用することができる。ウェアラブル視覚化デバイス12は、ディスプレイ20用の画像を受け取るために、有線及び/又は無線接続で制御装置又はコンピュータシステム28に接続することができる。例えば、ウェアラブル視覚化デバイス12は、ケーブル30及び/又は無線送信機/受信機32でコンピュータシステム28に接続することができる。通信が無線接続による実施形態において、接続は、特に、無線LAN(WLAN)、無線広域ネットワーク(WWAN)、近距離通信(NFC)、セルラーネットワークで形成することができる。
【0019】
コンピュータシステム28は、ウェアラブル視覚化デバイス12から遠く離れて位置することができないことを理解されたい。例えば、コンピュータシステム28は、ウェアラブル視覚化デバイス12のハウジング18に組み込むこと、又は、ハウジング18に直接接続することができる。ウェアラブル視覚化デバイス12は、遊園地乗物に一体化することができる。従って、ウェアラブル視覚化デバイス12は、構造体からのウェアラブル視覚化デバイス12の切り離しを阻止するために、並びに、ウェアラブル視覚化デバイス12をコンピュータシステム28に電子的に接続するために、構造体(例えば、遊園地乗物の乗物車両)に物理的に結合する(例えば、ケーブル30で係留する)ことができ、コンピュータシステム28は、乗物車両又はライドインフラの他の要素に接続することができる。
【0020】
コンピュータシステム28は、プロセッサ34及びメモリ36を含む。プロセッサ34は、ディスプレイ20上の画像を表示するソフトウェアを実行するマイクロプロセッサとすることができる。プロセッサ34は、複数のマイクロプロセッサ、1又は2以上の「汎用」マイクロプロセッサ、1又は2以上の専用マイクロプロセッサ、及び/又は1又は2以上の特定用途向け集積回路(ASIC)、又は、その何らかの組み合わせを含むことができる。例えば、プロセッサ34は、1又は2以上の縮小命令セットコンピュータ(RISC)プロセッサを含むことができる。
【0021】
メモリ36は、ランダムアクセスメモリ(RAM)などの揮発性メモリ、及び/又は、ROMなどの不揮発性メモリを含むことができる。メモリ36は、様々な情報を記憶することができ、様々な目的に使用することができる。例えば、メモリ36は、画像(例えば、テスト又はマスター画像、シーン、VRリアリティオブジェクト、ARオブジェクト)、及び、プロセッサ34が実行する、ファームウェア又はソフトウェアなどのプロセッサ実行可能命令を記憶することができる。メモリ36は、ROM、フラッシュメモリ、ハードドライブ、又は、何らかの他の適切な光、磁気、又は、半導体記憶媒体、又は、その組み合わせを含むことができる。メモリ36は、データ、命令、及び何らかの他の適切なデータを記憶することができる。
【0022】
上述したように、ウェアラブル視覚化デバイス12は、一般的にはゲストが着用するので、ライドオペレータは、ウェアラブル視覚化デバイス12の望ましくない挙動又は状態に気づかない場合がある。例えば、ライドオペレータは、ディスプレイ20上の汚れ、ディスプレイ20の輝度低下、不良画素(例えば、常時点灯画素、常時消灯画素)、画面部分の間の間違ったアライメント(例えば、左右の画面)などの問題に気づかない場合がある。また、ライドオペレータは、乗車中に発生するディスプレイ20に関する問題に気づかない場合がある。例えば、ライドオペレータは、特に、不連続画像、フレーム落ち、間違った画像生成、間違った画像発色、画像生成なし、画像生成の間違ったタイミング、現実世界の環境との間違ったアライメントに気づかない場合がある。ディスプレイ20及び/又はディスプレイ20上の画像に関する問題を検出するために、ウェアラブル視覚化デバイス12は、ウェアラブル視覚化デバイス12のライダー又はユーザーに提供された画像を捕捉する1又は2以上のカメラ38を含むことができる。捕捉画像は、その後、処理するために及び/又はディスプレイ20上に表示する(例えば、ユーザーに見える)必要があるマスター又は正しい画像との比較のためにコンピュータシステム28に送られる。比較によって、コンピュータシステム28は、ディスプレイの問題を検出し、それらの問題を自動的に是正すること及び/又はメンテナンス作業(例えば、検査、クリーニング、又は交換)のためにオペレータに警告することができる。例えば、コンピュータシステム28が問題を検出して問題を是正できなかった後に、コンピュータシステム28は、オペレータに問題を知らせるためにライト40、スピーカー42、又はこれらの組み合わせを作動させることができる。これに応答して、オペレータは、ウェアラブル視覚化デバイス12を検査、クリーニング、及び/又は交換することができる。
【0023】
図2は、
図1のウェアラブル視覚化デバイス12の後面図である。上述したように、ウェアラブル視覚化デバイス12は、1又は2以上のカメラ38(例えば、カラーカメラ、グレースケールカメラ、光検出器)を含む。これらのカメラ38は、ディスプレイ20に向かう方向60に前向きとすること、及び/又は、着用者又はユーザーに向かう方向62に後ろ向きとすることができる。例えば、前向き及び後ろ向きの両方のカメラ38が存在できる。前向きカメラ38は、ディスプレイ20上で生成された実際の画像が見えるように位置決めされる。後ろ向きカメラ38は、画像をユーザーの眼で捕捉するように位置決めされる。カメラ38は、ハウジング18の袖又は側面64上に位置決めすること、又はハウジング18上の中央に位置することができる。
図2において、3つのカメラ38が例示されるが、異なる数(例えば、1、2、3、4、5、又はそれ以上)のカメラ38が存在できることを理解されたい。例えば、ウェアラブル視覚化デバイス12は、各ディスプレイ20用の又はユーザーの眼用のカメラ38を含むことができる。しかしながら、一部の実施形態において、ウェアラブル視覚化デバイス12は、単一のカメラ38のみを有することができる。例えば、単一の中央に位置するカメラ38(例えば、広角カメラ)は、ディスプレイ20の全ての画像を見て捕捉するのに十分な視野を有する。一部の実施形態において、ウェアラブル視覚化デバイス12は、カメラ38がユーザーの眼の中で反射した画像を捕捉することを可能にするためにユーザーの眼を照射するライト65(例えば、赤外光)を含むことができる。
【0024】
また、ウェアラブル視覚化デバイス12は、カメラ38に加えて、複数のセンサ68を有する追跡システム66を含むことができる。これらのセンサ68によって、ウェアラブル視覚化デバイス12の位置及び向き、従ってディスプレイ20の位置及び向きの追跡が可能である。ユーザーがウェアラブル視覚化デバイス12で見る場所を特定する能力は、コンピュータシステム28が、特定の方向を見る場合にディスプレイ20内でユーザーが見ているものと、その方向を見る場合にユーザーが見るべきものとの間の不一致を識別することを可能にする。また、センサ68は、ウェアラブル視覚化デバイス12が使用されていないときを検出することができ、その結果、コンピュータシステム28は、使用されていないときに(例えば、乗車の終了と次の乗車の開始との間の)診断試験を実行することができる(例えば、自動的に実行される)。例えば、センサ68は。位置センサ(例えば、ホール効果センサ)及び/又は方位センサー(例えば、慣性計測ユニット[IMU])を含むことができる。コンピュータシステム28は、ウェアラブル視覚化デバイス12が保管場所(例えば、コンテナ)内に保管されていることを示す信号をセンサ68から受け取ることができる。特に、位置センサは、ウェアラブル視覚化デバイス12がコンテナの表面から閾値距離内にあること及び/又はこの表面と接触することを検出することができ、及び/又は、方位センサは、ウェアラブル視覚化デバイス12がコンテナ内に保管されていることに矛盾しない方法で、ウェアラブル視覚化デバイス12が重力ベクトルに対して向けられていることを検出することができる。その後、コンピュータシステム28は、ウェアラブル視覚化デバイス12がコンテナに保管されていることをコンピュータシステム28が判定したことに応答して、診断テストを自動的に実行又は開始することができる。コンピュータシステム28は、乗物車両及び/又はウェアラブル視覚化デバイス12が、ウェアラブル視覚化デバイス12が仮想特徴部をユーザーに提示するために使用されない下車ゾーン又はアトラクションの他のエリアに入ったことに応答して、他の時間に診断テストを自動的に実行又は開始することができる。1又は2以上のセンサ68は、何らかの適切な方位及び/又は位置センサ(例えば、加速度計、磁力計、ジャイロスコープ、全地球測位システム[GPS]受信機)、動き追跡センサ(例えば、電磁及び半導体動き追跡センサ)、慣性計測装置(IMU)、存在センサなどを含むことができる。さらに、1又は2以上のセンサ68及び/又はコンピュータシステム28は、限定されるものではないが、乗物車両の位置、ヨーイング、ピッチング、ローリング、及び速度を含む乗物車両の運転情報を追跡し、その情報をディスプレイ20上に生成する必要がある画像に連係させることができる。
【0025】
図3は、乗物車両92を備えるライド90の図である。ライド90は、車両経路(例えば、閉ループ軌道又は閉ループ軌道94のシステム)を含む。軌道94は、乗物車両92が乗客96(例えば、ユーザー)と一緒に進むことができるインフラストラクチャとして設けることができる。ライド90、乗物車両92、乗客96の数は、例示的であり、実施形態間で異なる場合があることを認識されたい。乗物車両92が軌道94に沿って進む際に、乗客96には、風景(例えば、テーマに対応する固定設備、建物レイアウト、小道具、装飾などを含むことができるテーマ別環境)の移動ツアーを提供することができる。風景は、ライド14を取り囲む環境及び/又はライド14を完全に又は部分的に収容することができるインフラストラクチャ内の環境を含むことができる。
【0026】
ライド体験を強化するために、ライド90は、ウェアラブル視覚化システム10のウェアラブル視覚化デバイス12を組み込む。乗物車両92が軌道94に沿って進む際に、ウェアラブル視覚化システム10は、ウェアラブル視覚化デバイス12のディスプレイ20上で乗客96に示されるAR/VRオブジェクトなどのAR/VR画像又は特徴部を調整することができる。これらのAR/VRオブジェクトは、ライド上にいる間にユーザーがウェアラブル視覚化デバイス12の向きを変える場合に変わることができる。例えば、乗客96は、頭を回すことで及び頭を上下に動かすことによってウェアラブル視覚化デバイス12の向きを変えることができる。また、AR/VRオブジェクトは、乗物車両92の物理的位置が変わる(例えば、回転する、ローリングする、軌道94に沿って移動する)場合に変わることができる。また、AR/VRオブジェクトは、さらにライド(例えば、ストーリー展開)の指定されたタイムラインに応答して、固定式ライドに関して変わることができる。これらの変化は、コンピュータシステム28によってウェアラブル視覚化デバイス12のディスプレイ20に対してもたらされる。上述したように、コンピュータシステム28は、有線及び/又は無線接続でウェアラブル視覚化デバイス12に接続することができる。
図3において、ウェアラブル視覚化デバイス12は、コンピュータシステム28への電子通信を行う1又は2以上のケーブル30で乗物車両92に結合する。コンピュータシステム28は、これらのケーブル30を介してウェアラブル視覚化デバイス12を着用する乗客96に提供される視覚的及び/又は音響的提示を調整することができる。また、これらのケーブル30は、ウェアラブル視覚化デバイス12の動作に関するフィードバックをコンピュータシステム28に供給することができる。
【0027】
上述したように、ライドオペレータは、ウェアラブル視覚化デバイス12の望ましくない挙動又は状態に気づかない場合がある。例えば、ライドオペレータは、ディスプレイ20上の汚れ、ディスプレイ20の輝度低下、不良画素(例えば、常時点灯画素、常時消灯画素)、画面部分の間の間違ったアライメント(例えば、左右の画面)などの問題に気づかない場合がある。また、ライドオペレータは、乗車時に発生するディスプレイ20に関する問題に気づかない場合がある。例えば、ライドオペレータは、特に、不連続画像、フレーム落ち、間違った画像生成、間違った画像発色、画像生成なし、画像生成の間違ったタイミング、現実世界の環境との間違ったアライメントに気づかない場合がある。コンピュータシステム28は、これらの問題をウェアラブル視覚化デバイス12に結合されたカメラ38(
図1及び
図2)からのフィードバックによって検出することができる。例えば、コンピュータシステム28は、乗車時にウェアラブル視覚化デバイス12の動作をカメラ38からのフィードバックを使用して継続的にチェックすることができる。別の実施形態において、コンピュータシステム28は、ライド90上の特定の場所でフィードバックをカメラ38に要求することによって、ウェアラブル視覚化デバイス12の動作を周期的にチェックすることができる。例えば、コンピュータシステム28は、乗物車両92が軌道94に沿って点A、B及びCに達した際にフィードバックを受け取ることができる。固定式ライドに関しては、コンピュータシステム28は、フィードバックを特定の時点(例えば、乗車の開始)から測定した場合のある時点で受け取ることができる。
【0028】
カメラ38からの捕捉画像は、処理のために、及び/又は、ライドに沿った特定の場所で及び/又はライド上の時間にウェアラブル視覚化デバイス12の現在の向きでユーザーに表示する必要があるマスター又は正しい画像と比較するためにコンピュータシステム28に送られる。この比較によって、コンピュータシステム28は、ディスプレイの問題を検出して、それらの問題を自動的に是正すること及び/又は検査、クリーニング、又は交換のためにオペレータに警告を与えることができる。また、コンピュータシステム28は、各乗車の間で又は他の時間(例えば、その日の終わり)にウェアラブル視覚化デバイス12の診断チェックを実行することができる。コンピュータシステム28は、ウェアラブル視覚化デバイス12が、センサ68のうちの1又は2以上からのフィードバックによって使用されていないことを検出した後にこれらの診断チェックを実行することができる。例えば、これらのセンサ68のうちの1又は2以上は、ウェアラブル視覚化デバイス12がウェアラブル視覚化デバイス12の保管のために乗物車両92に結合するコンテナ98(例えば、ポーチ、ボックス)内にあることを検出することができる。また、センサ68は、ユーザーからのウェアラブル視覚化デバイス12の切り離し(例えば、頭から取り外される)又はウェアラブル視覚化デバイス12の移動の有無を検出して、このフィードバックを、診断チェックを実行する(例えば、診断チェックを自動的に実行する)のに適切な時間に相関させることができる。
【0029】
図4は、本開示の実施形態による、ウェアラブル視覚化システム10を乗物の出発前にテストする方法のフローチャートである。本明細書で開示する方法は、ブロック単位で表わされた様々なステップを含む。方法のうちの少なくとも一部のステップは、例えばコンピューティングシステム28によって、システムによって自動化された手順として実行することができることに留意されたい。フローチャートでは各ステップを特定の順序で示すが、各ステップは、何らかの適切な順番で実行することができ、特定のステップは、適切な場合には同時に実行することができることを理解されたい。加えて、各ステップは、追加すること又はこの方法から省くことができる。
【0030】
方法120は、ウェアラブル視覚化デバイス12が使用されていないか否かを判定することで始まる(ステップ122)。上述したように、コンピュータシステム28は、フィードバックを1又は2以上のセンサ68から受け取ることができる。センサ68からのフィードバックによって、コンピュータシステム28は、ウェアラブル視覚化デバイス12が乗車時にユーザーによって使用されていないと判定することができる。ウェアラブル視覚化デバイス12が使用されていないと判定された後、コンピュータシステム28は、テスト画像がディスプレイ20上に表示されるようにウェアラブル視覚化デバイス12を制御する(ステップ124)。テスト画像は、1又は2以上のパターン、色、形状、又はこれらの組み合わせを表示する単一の画像又は一連の画像とすることができる。カメラ38は、ディスプレイ20上に表示される際にこれらの画像を捕捉して捕捉画像をコンピュータシステム28に送る(ステップ126)。方法120は、画像又は画像を捕捉した後、捕捉した1又は複数の画像を処理することができる(ステップ127)。例えば、カメラ38は、特に、幾何学的に歪んだ画像、粒子の粗い画像、周囲からのディスプレイ20上のかすかな反射を捕捉することができる。従って、この処理では、画像をカメラ38の角度から見える歪んだ画像からユーザーがディスプレイ20で直接見ることになる画像に変形することができる。コンピュータシステム28は、その後、捕捉画像をテスト画像(例えば、マスター画像)と比較して、相違点を決定することができる(ステップ128)。この比較は、ディスプレイ20に関する様々な問題を示すことができる。例えば、この比較は、特に、ディスプレイ20上の汚れ(捕捉画像のぼけた部分の検出による)、ディスプレイ20の輝度低下、不良画素(例えば、常時点灯画素、常時消灯画素)、間違った画像生成、間違った画像発色、画像生成なし、各ディスプレイ20の間の間違ったアライメントを示すことができる。
【0031】
画像を比較した後、方法120は、捕捉画像がテスト画像と同じであるか(例えば、一致するか、実質的に同様であるか)否か判定する(ステップ130)。捕捉画像がテスト画像と同じである場合(例えば、画像が同じであることに応答して)、方法120は、レディ信号を生成する(ステップ132)。レディ信号は、ウェアラブル視覚化デバイス12上で、又はライドオペレータが利用することができる別のデバイス(例えば、タブレット、コンピュータ、携帯電話、腕時計)上で生成された視覚信号(例えば、常時点灯又は点滅する緑色光)及び/又は可聴信号とすることができる。一部の実施形態において、捕捉画像がテスト画像と実質的に同様である場合(例えば、1又は2以上の評価基準の範囲内で、捕捉画像が実質的に同様であることに応答して)、方法120は、依然としてレディ信号を生成することができる。例えば、捕捉画像が閾値色差、輝度、常時消灯画素数(デッドピクセル数)(number of dead pixels)、ぼけ(ぼやけ)(blurriness)(例えば、汚れによる)、又は、それらの何らかの組み合わせである場合、方法120は、依然としてレディ信号を生成することになる。
【0032】
捕捉画像がテスト画像と一致しない場合(例えば、捕捉画像はテスト画像と一致しないことに応答して)、方法120は、ウェアラブル視覚化デバイス12を較正するステップに進む(ステップ134)。一部の実施形態において、方法120は、ウェアラブル視覚化デバイス12を較正する前に較正パラメータを抽出することができる。例えば、コンピュータシステム28は、特に、発色、画像焦点を調整することができる。方法120は、その後、テスト画像を表示し(ステップ124)、画像を捕捉し(ステップ126)、捕捉画像をテスト画像と比較する(ステップ128)、処理を繰り返すことができる。捕捉画像が依然としてテスト画像と一致しない場合、方法120は、エラー信号を生成するステップに進むことができる(ステップ136)。エラー信号は、ウェアラブル視覚化デバイス12上で、又はライドオペレータが利用することができる別のデバイス(例えば、タブレット、コンピュータ、携帯電話、腕時計)上で生成された視覚信号(例えば、赤色点滅光)及び/又は可聴信号(例えば、検査の要求)とすることができる。ライドオペレータは、その後、ウェアラブル視覚化デバイス12を検査、クリーニング、及び/又は交換することができる。一部の実施形態において、比較ステップ(130)で、捕捉画像がテスト画像と異なる(例えば、有意に異なる)ことに応答して(例えば、捕捉画像は、画像が表示されない、ディスプレイの大部分が汚れている、画素の大部分が不良であることを示す)、方法120は、較正ステップをスキップする(ステップ134)ことができ、その代わりにエラー信号ステップに進むことができる(ステップ136)。
【0033】
図5は、ウェアラブル視覚化システムを乗車時にテストする方法160のフローチャートである。方法160は、ウェアラブル視覚化デバイス12の場所を検出することで始まる(ステップ162)。例えば、ウェアラブル視覚化デバイス12の場所は、乗物経路又は軌道に沿ったウェアラブル視覚化デバイス12の物理的位置とすることができる。ウェアラブル視覚化デバイス12の場所は、ウェアラブル視覚化デバイス12上の1又は2以上のセンサ68、乗物車両の位置を乗物経路又は軌道に沿って監視するセンサ、又は他のデータを使用して決定することができる。乗物経路又は軌道に沿ったウェアラブル視覚化デバイス12の場所を決定することによって、コンピュータシステム28は、ユーザーがウェアラブル視覚化デバイス12のディスプレイ20上で見るはずであるオブジェクト又はシーンを決定することができる。また、方法160は、ウェアラブル視覚化デバイス12の向きを決定することができる(ステップ164)、乗車時、ユーザーは、ユーザーがAR/VR環境を見る際に異なる方向を見ることができる。コンピュータシステム28は、ウェアラブル視覚化デバイス12の向きを決定することによって、ユーザーがウェアラブル視覚化デバイス12のディスプレイ20上でシーン又はオブジェクトのどの部分を見るべきか決定することができる。ウェアラブル視覚化デバイス12の向きは、上述したセンサ68を使用して決定することができる。
【0034】
方法160は、ウェアラブル視覚化デバイス12の位置及び向きを決定した後、カメラ38のうちの1又は2以上を使用してウェアラブル視覚化デバイス12のディスプレイ20上の画像又は一連の画像を捕捉する(ステップ166)。方法160は、画像又は画像を捕捉した後、捕捉した1又は複数の画像を処理することができる(ステップ168)。例えば、カメラ38は、ディスプレイ20に対するカメラ38の角度に起因して、ディスプレイ20上の歪んだ画像を捕捉する可能性がある。従って、この処理では、画像をカメラ38の角度から見える歪んだ画像からユーザーがディスプレイ20で直接見ることになる画像に変形することができる。しかしながら、一部の実施形態において、画像は、これらの種類の歪みを補正するために処理されない場合がある。例えば、コンピュータシステム28は、すでに、捕捉画像をマスター画像と比較するのを可能にするカメラの観点からのマスター画像を含むことができる。
【0035】
方法160は、正しい画像が表示されているか否か判定するために、捕捉画像をマスター画像と比較する(ステップ170)。従って。コンピュータシステム28は、捕捉画像とマスター画像との相違点を決定することができる。この比較は、特に、ディスプレイ20上の汚れ(捕捉画像のぼけた部分の検出による)、ディスプレイ20の輝度低下、不良画素(例えば、常時点灯画素、常時消灯画素)、間違った画像生成、間違った画像発色、画像生成なし、ディスプレイ20を通して見た現実世界の環境に対するディスプレイ20上の仮想特徴部の間違ったアライメントを含む様々な問題を示すことができる。マスター画像は、ウェアラブル視覚化デバイス12の位置及び向きに基づいて(例えば、この位置及び向きに対応するように、補正するように)決定又は選択することができる(例えば、メモリ36に記憶することができる複数のマスター画像から)。
【0036】
画像を比較した後、本方法は、捕捉画像がマスター画像と同じであるか(例えば、一致するか、実質的に同様であるか)否か判定する(ステップ172)。捕捉画像がマスター画像と同じである場合(例えば、画像が同じであることに応答して)、方法160は、再び始まる(すなわち、ステップ162に戻る)。例えば、方法160は、ライド上で特定の間隔で繰り返すことができる。これらの間隔は、時間及び/又は場所に基づくことができる。比較によって、画像が同じではないと判定される場合(例えば、画像が同じではないとの判定に応答して)、方法160は、ディスプレイ20を較正する(ステップ176)。一部の実施形態において、方法160は、ウェアラブル視覚化デバイス12を較正する前に較正パラメータを抽出することができる。例えば、コンピュータシステム28は、ライド上のタイミング及び/又は場所と同期していない場合に画像生成のタイミングを調整することができる。また、コンピュータシステム28は、所望の画像を正確に又はより正確に表すために画像の発色を調整することができる。例えば、青色光を生成するディスプレイ20の能力が低下した場合、コンピュータシステム28は、青色光の低下に由来する画像の歪みを赤色光及び黄色光の輝度を低下させることで調整することができる。一部の実施形態において、常時消灯画素がディスプレイ20の縁部近傍で検出された場合、コンピュータシステム28は、ユーザーが有効な作動画素によって取り囲まれた常時消灯画素を見るのを妨げるために、ディスプレイ20の縁部の周りの画素の横列及び/又は縦列をオフにすることによって画像を縮小させることができる。
【0037】
方法160は、ウェアラブル視覚化デバイス12を較正した後(ステップ176)、ウェアラブル視覚化デバイス12が現在正しく画像を表示していることを確認するためにステップ162に戻ることができる。画像が依然として正しくない場合(例えば、捕捉画像がマスター画像と相違することに応答して)、方法160は、その後、エラー信号を生成することができる(ステップ174)。エラー信号は、ウェアラブル視覚化デバイス12上で、又はライドオペレータが利用することができる別のデバイス(例えば、タブレット、コンピュータ、携帯電話、腕時計)上で生成された視覚信号(例えば、赤色点滅光)及び/又は可聴信号(例えば、検査の要求)とすることができる。ライドオペレータは、その後、ウェアラブル視覚化デバイス12を検査、クリーニング、及び/又は交換することができる。一部の実施形態において、比較ステップ(172)で、捕捉画像はマスター画像と異なる(例えば、有意に異なる)ことに応答して(例えば、捕捉画像は、画像が表示されない、ディスプレイの大部分が汚れている、画素の大部分が不良である、ディスプレイ20上の仮想画像がディスプレイ20を通して見た現実世界の環境と適切に位置合わせされていないことを示す)、方法160は、較正ステップをスキップする(ステップ176)ことができ、その代わりにエラー信号ステップに進むことができる(ステップ174)。
【0038】
図6は、ウェアラブル視覚化システムを乗車時にテストする方法200のフローチャートである。方法200は、ウェアラブル視覚化デバイス12の場所を検出することで始まる(ステップ202)。例えば、ウェアラブル視覚化デバイス12の場所は、乗物経路又は軌道に沿ったウェアラブル視覚化デバイス12の物理的位置とすることができる。ウェアラブル視覚化デバイス12の場所は、ウェアラブル視覚化デバイス12上の1又は2以上のセンサ68、乗物車両の位置を乗物経路又は軌道に沿って監視するセンサ、又は他のデータを使用して決定することができる。乗物経路又は軌道に沿ったウェアラブル視覚化デバイス12の場所を決定することによって、コンピュータシステム28は、ユーザーがウェアラブル視覚化デバイス12のディスプレイ20上で見るはずであるオブジェクト又はシーンを決定することができる。また、方法200は、ウェアラブル視覚化デバイス12の向きを決定することができる(ステップ204)。乗車時、ユーザーは、ユーザーがAR/VR環境を見る際に異なる方向を見ることができる。コンピュータシステム28は、ウェアラブル視覚化デバイス12の向きを決定することによって、ユーザーがウェアラブル視覚化デバイス12でシーン又はオブジェクトのどの部分を見るべきかを決定することができる。ウェアラブル視覚化デバイス12の場所及び/又は向きは、上述したセンサ68を使用して決定することができる。
【0039】
方法200は、ウェアラブル視覚化デバイス12の位置及び向きを決定した後、カメラ38のうちの1又は2以上を使用してウェアラブル視覚化デバイス12のユーザーの眼の上の画像又は一連の画像を捕捉する(ステップ206)。方法200は、画像又は画像を捕捉した後、1又は複数の画像を処理することができる(ステップ208)。カメラ38がユーザーの眼の上の画像を捕捉することに起因して、画像はユーザーの眼の曲率により歪み、この処理は、画像からのユーザーの眼(例えば、瞳孔、血管)を除去するのを可能にすることもできる。従って、この処理は、画像をカメラ38が見た歪んだ画像からユーザーがディスプレイ20上で見ている画像に変形することができる。
【0040】
方法200は、正しい画像が表示されているか否か判定するために、捕捉画像をマスター画像と比較する(ステップ210)。このように、コンピュータシステム28は、捕捉画像とマスター画像との相違点を決定することができる。この比較は、特に、ディスプレイ20上の汚れ(捕捉画像のぼけた部分の検出による)、ディスプレイ20の輝度低下、不良画素(例えば、常時点灯画素、常時消灯画素)、間違った画像生成、間違った画像発色、画像生成なし、ディスプレイ20を通して見た現実世界の環境に対するディスプレイ20上の仮想特徴部の間違ったアライメントを含む様々な問題を示すことができる。
【0041】
方法200は、画像を比較した後、捕捉画像がマスター画像と同じであるか(例えば、一致するか、実質的に同様であるか)否かを判定する(ステップ212)。捕捉画像がマスター画像と同じである場合(例えば、画像が同じであることに応答して)、方法200は、再び始まる(すなわち、ステップ202に戻る)。例えば、方法200は、ライド上で特定の間隔で繰り返すことができる。これらの間隔は、時間及び/又は場所に基づくことができる。比較によって、画像が同じではないと判定される場合(例えば、画像が同じではないとの判定に応答して)、方法200は、ディスプレイ20を較正する(ステップ216)。一部の実施形態において、方法200は、ウェアラブル視覚化デバイス12を較正する前に較正パラメータを抽出することができる。例えば、コンピュータシステム28は、ライド上のタイミング及び/又は場所と同期していない場合に画像生成のタイミングを調整することができる。また、コンピュータシステム28は、所望の画像を正確に又はより正確に表すために画像の発色を調整することができる。例えば、青色光を生成するディスプレイ20の能力が低下した場合、コンピュータシステム28は、青色光の低下に由来する画像の歪みを赤色光及び黄色光の輝度を低下させることで調整することができる。方法160は、ウェアラブル視覚化デバイス12を較正した後(ステップ134)、方法200は、ウェアラブル視覚化デバイス12が現在正しく画像を表示していることを確認するためにステップ202に戻ることができる。方法200のステップを通過した後、画像が依然として正しくない場合(例えば、捕捉画像がマスター画像と相違することに応答して)、方法200は、その後、エラー信号を生成することができる(ステップ214)。エラー信号は、ウェアラブル視覚化デバイス12上で、又はライドオペレータが利用することができる別のデバイス(例えば、タブレット、コンピュータ、携帯電話、腕時計)上で生成された視覚信号(例えば、赤色点滅光)及び/又は可聴信号(例えば、検査の要求)とすることができる。ライドオペレータは、その後、ウェアラブル視覚化デバイス12を検査、クリーニング、及び/又は交換することができる。一部の実施形態において、比較ステップ(212)で、捕捉画像はマスター画像と異なる(例えば、有意に異なる)ことに応答して(例えば、捕捉画像は、画像が表示されない、ディスプレイの大部分が汚れている、画素の大部分が不良である、ディスプレイ20上の仮想画像がディスプレイ20を通して見た現実世界の環境と適切に位置合わせされていないこと示す)、方法200は、較正ステップをスキップする(ステップ216)ことができ、その代わりにエラー信号ステップに進むことができる(ステップ214)。
【0042】
一部の実施形態において、コンピュータシステム28は、ウェアラブル視覚化デバイス12の予防保守管理(例えば、クリーニング、修復)を可能にするために、
図4~
図6で上述した方法を実行した後にデータを収集することができる。換言すると、コンピュータシステム28は、ウェアラブル視覚化デバイス12の動作に関するデータをカメラ38からのフィードバックを使用して収集することによって故障までの時間を測定することができる。例えば、コンピュータシステム28は、ディスプレイ20の漸進的な輝度低下を経時的に追跡することができる。これは、ライド上の故障の前のデバイス20の修復又は交換の予防的なスケジューリングを可能にすることができる。別の実施形態において、コンピュータシステム28は、ウェアラブル視覚化デバイス12を何回使用した後に蓄積した汚れがユーザーの知覚に有意に影響を与えるかを判定することによって、どのくらいの頻度でディスプレイ20をクリーニングする必要があるかを判定することができる。このように、コンピュータシステム28は、カメラ38からのフィードバックを経時的に使用して、ウェアラブル視覚化デバイス12の様々な構成要素(例えば、ケーブル、ディスプレイ)に関する故障までの時間又は予防保守管理の必要性を判定することができる。一部の実施形態において、複数のウェアラブル視覚化デバイス12は、アクセスが容易なデータをライドオペレータに提供するインターフェース又はアプリケーションで追跡することができる。
【0043】
上述したように、本開示の実施形態は、ウェアラブル視覚化デバイスの故障を検出するのに有用な1又は2以上の技術的な効果を提供することができる。本明細書における技術的な効果及び技術的な問題は、代表的な例であり、限定的ではないことを理解されたい。実際には、本明細書で説明した実施形態は、他の技術的な効果を有すること及び他の技術的な問題を解決することができることに留意されたい。
【0044】
本開示に記載された実施形態は、様々な修正及び代替形態の影響を受ける可能性があるが、特定の実施形態は、各図面において例示的に示され本明細書で詳細に説明される。しかしながら、本開示は、開示された特定の形態に限定されることは意図されていないことを理解されたい。本開示は、特許請求の範囲により定義されるよう本開示の精神及び範囲に含まれる全ての変更例、均等物、及び代替物をカバーするものとする。
【0045】
本明細書に示して特許請求する技術は、本技術分野を確実に改善する、従って抽象的なもの、無形のもの又は純粋に理論的なものではない実際的性質の有形物及び具体例を参照し、これらに適用される。さらに、本明細書の最後に添付するいずれかの請求項が、「...[機能]を[実行]する手段」又は「...[機能]を[実行]するステップ」として指定されている1又は2以上の要素を含む場合、このような要素は米国特許法112条(f)に従って解釈すべきである。一方で、他のいずれかの形で指定された要素を含むあらゆる請求項については、このような要素を米国特許法112条(f)に従って解釈すべきではない。
【符号の説明】
【0046】
10 ウェアラブル視覚化システム
12 ウェアラブル視覚化デバイス
18 ハウジング
20 ディスプレイ
28 コンピュータシステム
38 カメラ