(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2022-03-10
(54)【発明の名称】ウェアラブル視覚化デバイスシステムおよび方法
(51)【国際特許分類】
G02B 27/02 20060101AFI20220303BHJP
G09G 5/00 20060101ALI20220303BHJP
H04N 5/64 20060101ALI20220303BHJP
【FI】
G02B27/02 Z
G09G5/00 550C
G09G5/00 530M
H04N5/64 511A
G09G5/00 510A
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2021539873
(86)(22)【出願日】2020-01-10
(85)【翻訳文提出日】2021-07-07
(86)【国際出願番号】 US2020013159
(87)【国際公開番号】W WO2020146780
(87)【国際公開日】2020-07-16
(32)【優先日】2019-01-11
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2020-01-09
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】511077292
【氏名又は名称】ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
(74)【代理人】
【識別番号】100094569
【氏名又は名称】田中 伸一郎
(74)【代理人】
【識別番号】100103610
【氏名又は名称】▲吉▼田 和彦
(74)【代理人】
【識別番号】100109070
【氏名又は名称】須田 洋之
(74)【代理人】
【識別番号】100067013
【氏名又は名称】大塚 文昭
(74)【代理人】
【識別番号】100086771
【氏名又は名称】西島 孝喜
(74)【代理人】
【識別番号】100109335
【氏名又は名称】上杉 浩
(74)【代理人】
【識別番号】100120525
【氏名又は名称】近藤 直樹
(74)【代理人】
【識別番号】100139712
【氏名又は名称】那須 威夫
(74)【代理人】
【識別番号】100170209
【氏名又は名称】林 陽和
(72)【発明者】
【氏名】ゲルゲン パトリック ジョン
(72)【発明者】
【氏名】トルヒーヨ トマス マヌエル
(72)【発明者】
【氏名】グラハム マーティン エヴァン
【テーマコード(参考)】
2H199
5C182
【Fターム(参考)】
2H199CA12
2H199CA25
2H199CA30
2H199CA42
2H199CA66
2H199CA92
2H199CA96
5C182AA02
5C182AA03
5C182AA06
5C182AA22
5C182AA31
5C182AB14
5C182AB33
5C182AB35
5C182BA14
5C182BA46
5C182BA47
5C182BA56
5C182BA57
5C182BA75
5C182CB52
(57)【要約】
拡張現実、仮想現実、および/または複合現実体験をユーザに提供するように構成されたウェアラブル視覚化デバイスは、ハウジングと、ハウジングから延びるレンズ部と、を含む。ウェアラブル視覚化デバイスは、ハウジングに結合されるとともに前記レンズ部上へと光を投影するように構成された第1のディスプレイ画面および第2のディスプレイ画面であって、光の少なくとも一部をユーザの目へと反射するようにレンズ部が構成された第1のディスプレイ画面および第2のディスプレイ画面を含む。ウェアラブル視覚化デバイスは、第1のディスプレイ画面と第2のディスプレイ画面との間に配置されるとともにレンズ部の画像データを取得するように構成されたカメラを含む。
【選択図】
図1
【特許請求の範囲】
【請求項1】
拡張現実、仮想現実、および/または複合現実体験をユーザに提供するように構成されたウェアラブル視覚化デバイスであって、
ハウジングと、
前記ハウジングから延びるレンズ部と、
前記ハウジングに結合されるとともに前記レンズ部上へと光を投影するように構成された第1のディスプレイ画面および第2のディスプレイ画面であって、前記光の少なくとも一部を前記ユーザの目へと反射するように前記レンズ部が構成された第1のディスプレイ画面および第2のディスプレイ画面と、
前記第1のディスプレイ画面と前記第2のディスプレイ画面との間に配置されるとともに前記レンズ部の画像データを取得するように構成されたカメラと、
を備える、ウェアラブル視覚化デバイス。
【請求項2】
前記画像データは、前記レンズ部上で見ることができる前記光の一部および前記ユーザの目の反射を備える、
請求項1に記載のウェアラブル視覚化デバイス。
【請求項3】
前記カメラに通信可能に結合されたプロセッサであって、前記画像データを受信するとともに前記目の反射に基づいて前記ユーザの生体情報を判定するように構成されたプロセッサを備える、
請求項2に記載のウェアラブル視覚化デバイス。
【請求項4】
前記生体情報は、前記ユーザの瞳孔間距離を備える、
請求項3に記載のウェアラブル視覚化デバイス。
【請求項5】
前記プロセッサは、前記生体情報に基づいて前記レンズ部上への前記光の投影を調整するために前記第1のディスプレイ画面および前記第2のディスプレイ画面を制御するように構成されている、
請求項3に記載のウェアラブル視覚化デバイス。
【請求項6】
前記第1のディスプレイ画面および前記第2のディスプレイ画面は、前記ウェアラブル視覚化デバイスの中心線から実質的に等間隔に隔てられており、
前記第1のディスプレイ画面は、前記中心線から外向きに前記中心線と交差して延びる第1の方向において前記レンズ部上に仮想特徴をラスタ(raster)するように構成されているとともに、前記第2のディスプレイ画面は、前記中心線から外向きに前記中心線と交差して延びる第2の方向において前記レンズ部上に追加仮想特徴をラスタするように構成されている、
請求項1に記載のウェアラブル視覚化デバイス。
【請求項7】
前記レンズ部は、前記第1のディスプレイ画面および前記第2のディスプレイ画面に向けられた内面を備え、
前記内面は、前記レンズ部上へと投影された前記光の50パーセントから70パーセントを前記ユーザの目へと反射するように構成された反射層でコーティングされている、
請求項1に記載のウェアラブル視覚化デバイス。
【請求項8】
前記レンズ部は、前記内面に対向する外面を備え、
前記外面は、反射防止層、耐擦傷コーティング、またはその両方でコーティングされている、
請求項7に記載のウェアラブル視覚化デバイス。
【請求項9】
拡張現実、仮想現実、および/または複合現実(AR/VR)システムであって、
ハウジングと、前記ハウジングから延びるレンズ部と、前記ハウジングに取り外し可能に結合されたフレームを有するディスプレイアセンブリであって、第1のディスプレイ画面、第2のディスプレイ画面、およびカメラが前記フレームに結合され、前記カメラが前記第1のディスプレイ画面と前記第2のディスプレイ画面との間に配置されたディスプレイアセンブリと、を備えるウェアラブル視覚化デバイスを備える、
AR/VRシステム。
【請求項10】
前記ハウジングは、第1の画面開口、第2の画面開口、およびカメラ開口を有するシャーシを備え、
前記フレームは、前記シャーシに取り外し可能に結合するように構成されているとともに、前記シャーシとの係合構成において、前記第1のディスプレイ画面、前記第2のディスプレイ画面、および前記カメラを、それぞれ、前記第1の画面開口、前記第2の画面開口、および前記カメラ開口と位置合わせするように構成されている、
請求項9に記載のAR/VRシステム。
【請求項11】
前記ハウジングの内部に設けられた発光ダイオード(LED)と、前記LEDと前記ハウジングの外面との間で延びるライトパイプと、を備える、
請求項9に記載のAR/VRシステム。
【請求項12】
ユーザの頭に結合するインターフェースデバイスを備え、
前記ウェアラブル視覚化デバイスは、前記インターフェースデバイスに取り外し可能に結合するように構成されている、
請求項9に記載のAR/VRシステム。
【請求項13】
前記ハウジングに結合されるとともに、前記インターフェースデバイスの表面に対する前記ハウジングの近接を示すフィードバックを提供するように構成された近接センサと、
前記近接センサに通信可能に結合されたプロセッサであって、前記ウェアラブル視覚化デバイスが前記インターフェースデバイスに結合されているか否かを前記フィードバックに基づいて判定するように構成されたプロセッサと、
を備える、請求項12に記載のAR/VRシステム。
【請求項14】
前記プロセッサは、前記ウェアラブル視覚化デバイスが前記インターフェースデバイスに結合されていると判定されたとき、前記ウェアラブル視覚化デバイスの照明要素を明るくするように構成されている、
請求項13に記載のAR/VRシステム。
【請求項15】
拡張現実、仮想現実、および/または複合現実体験をユーザに提供するように構成されたウェアラブル視覚化デバイスであって、
レンズ部と、
前記レンズ部上の第1の場所上へと仮想特徴を投影するように構成されたディスプレイ画面と、
前記レンズ部上で見ることができる反射を示す画像データを取得するように構成されたカメラであって、前記反射が前記ユーザの第1の目の第1の反射と前記ユーザの第2の目の第2の反射とを備えるカメラと、
前記カメラおよび前記ディスプレイ画面に通信可能に結合されたプロセッサであって、前記画像データに基づいて前記第1の場所から前記レンズ部上の第2の場所への前記仮想特徴の投影を調整するように構成されたプロセッサと、
を備える、ウェアラブル視覚化デバイス。
【請求項16】
前記画像データに基づいて、前記プロセッサは、前記ユーザの前記第1の目の第1の瞳孔と前記ユーザの前記第2の目の第2の瞳孔との間で延びる瞳孔間軸を判定するとともに、前記瞳孔間軸と前記レンズ部に沿って延びる参照軸との間の角度であって、前記ユーザの頭に対する前記ウェアラブル視覚化デバイスの方位を示す角度、を判定するように構成されている、
請求項15に記載のウェアラブル視覚化デバイス。
【請求項17】
前記プロセッサは、前記角度が許容値よりも大きいと判定されたときに前記レンズ部の前記第2の場所上へと前記仮想特徴を投影するよう前記ディスプレイ画面に指示するように構成されている、
請求項16に記載のウェアラブル視覚化デバイス。
【請求項18】
前記プロセッサは、前記角度が前記許容値よりも大きいしきい値を超えると判定されたときに前記ウェアラブル視覚化デバイスが前記ユーザの頭上でずれていることを示すアラートを生成するように構成されている、
請求項17に記載のウェアラブル視覚化デバイス。
【請求項19】
表面に対する前記ウェアラブル視覚化デバイスの近接を監視するように構成された近接センサと、
重力に対する前記ウェアラブル視覚化デバイスの方位を監視するように構成された方位センサと、
を備え、
前記プロセッサは、前記ウェアラブル視覚化デバイスが前記表面のしきい値距離内にあることを示すフィードバックを前記近接センサから受信したとき、および前記ウェアラブル視覚化デバイスが収納方位にあることを示す追加フィードバックを前記方位センサから受信したときに、前記ウェアラブル視覚化デバイスが収納構成にあると判定するように構成されている、
請求項15に記載のウェアラブル視覚化デバイス。
【請求項20】
前記プロセッサに通信可能に結合された1以上の照明要素を備え、
前記プロセッサは、前記ウェアラブル視覚化デバイスが前記収納構成にあると判定されたときに明るくなるよう前記1以上の照明要素に指示するように構成されている、
請求項19に記載のウェアラブル視覚化デバイス。
【発明の詳細な説明】
【技術分野】
【0001】
<関連出願の相互参照>
この出願は、2019年1月11日に出願された「高スループットのアトラクションのための拡張現実(AR)ヘッドセット」というタイトルの米国仮出願番号62/791,735からの優先権およびその利益を主張するものであり、当該仮出願のすべては参照によって組み込まれている。
【背景技術】
【0002】
このセクションは、以下に記載および/または主張される本技術の様々な側面に関連しうる技術の様々な側面を読者に紹介することを意図している。この検討は、本開示の様々な側面のより良い理解を容易化するための背景情報を読者に提供するのに役立つと考えられる。したがって、これらの記述は、先行技術の承認としてではなく、この観点で読まれるべきであることを理解されたい。
【0003】
アミューズメントパークおよび/またはテーマパークは、ゲストに楽しみを提供するのに役立つ様々なエンターテインメントアトラクション、レストラン、および乗り物を含みうる。アミューズメントパークのエリアは、特定のオーディエンスを特に対象とした様々なテーマを有しうる。たとえば、特定のエリアは、子供が伝統的に興味を持つテーマを含むことがあり、他のエリアは、より成熟した者が伝統的に興味を持つテーマを含むことがあり。一般に、テーマを有するそのようなエリアは、アトラクションまたはテーマアトラクションと呼ばれることがある。テーマを仮想特徴で拡張するなどによって、そのようなアトラクションのゲストの没入型体験を強化することが望ましい場合があることが認識されている。
【発明の概要】
【0004】
本明細書に開示される特定の実施形態の概要が以下に記載される。これらの側面は、単に読者にこれらの特定の実施形態の簡単な概要を提供するために提示されており、これらの側面は、本開示の範囲を限定することを意図していない、ということを理解されたい。実際に、この開示は、以下に記載されていない可能性がある様々な側面を包含しうる。
【0005】
一実施形態において、拡張現実、仮想現実、および/または複合現実体験をユーザに提供するように構成されたウェアラブル視覚化デバイスは、ハウジングと、ハウジングから延びるレンズ部と、を含む。ウェアラブル視覚化デバイスは、ハウジングに結合されるとともに前記レンズ部上へと光を投影するように構成された第1のディスプレイ画面および第2のディスプレイ画面であって、光の少なくとも一部をユーザの目へと反射するようにレンズ部が構成された第1のディスプレイ画面および第2のディスプレイ画面を含む。ウェアラブル視覚化デバイスは、第1のディスプレイ画面と第2のディスプレイ画面との間に配置されるとともにレンズ部の画像データを取得するように構成されたカメラも含む。
【0006】
一実施形態において、拡張現実、仮想現実、および/または複合現実(AR/VR)システムは、ウェアラブル視覚化デバイスを含む。ウェアラブル視覚化デバイスは、ハウジングと、ハウジングから延びるレンズ部と、ハウジングに取り外し可能に結合されたフレームを有するディスプレイアセンブリと、を含む。第1のディスプレイ画面、第2のディスプレイ画面、およびカメラは、フレームに結合されており、カメラは、第1のディスプレイ画面と第2のディスプレイ画面との間に配置されている。
【0007】
一実施形態において、拡張現実、仮想現実、および/または複合現実体験をユーザに提供するように構成されたウェアラブル視覚化デバイスは、レンズ部と、レンズ部上の第1の場所上へと仮想特徴を投影するように構成されたディスプレイ画面と、を含む。ウェアラブル視覚化デバイスは、レンズ部上で見ることができる反射を示す画像データを取得するように構成されたカメラを含み、反射は、ユーザの第1の目の第1の反射と、ユーザの第2の目の第2の反射と、を備える。ウェアラブル視覚化デバイスは、カメラおよびディスプレイ画面に通信可能に結合されたプロセッサを含み、プロセッサは、画像データに基づいて第1の場所からレンズ部上の第2の場所への仮想特徴の投影を調整するように構成されている。
【0008】
本開示の様々な態様に関連して、上記の特徴の様々な改良が行われうる。これらの様々な側面には、さらなる特徴が組み込まれうる。これらの改良および追加の特徴は、個別に、または任意の組み合わせで存在しうる。
【図面の簡単な説明】
【0009】
本開示のこれらおよび他の特徴、側面、および利点は、図面全体にわたって同様の文字が同様の部分を表す添付の図面を参照して以下の詳細な説明が読まれるときによりよく理解されよう。
【0010】
【
図1】
図1は、本実施形態にかかる、係合構成(engaged configuration)における拡張現実、仮想現実、および/または複合現実システム(AR/VRシステム)のウェアラブル視覚化デバイスおよびインターフェースデバイスの透視図である。
【0011】
【
図2】
図2は、本実施形態にかかる、離脱構成(detached configuration)における
図1のウェアラブル視覚化デバイスおよびインターフェースデバイスの透視図である。
【0012】
【
図3】
図3は、本実施形態にかかる、
図1のウェアラブル視覚化デバイスの底面図である。
【0013】
【
図4】
図4は、本実施形態にかかる、
図1のウェアラブル視覚化デバイスにおいて使用されうるディスプレイシステムの概略的な側面図である。
【0014】
【
図5】
図5は、本実施形態にかかる、
図1のウェアラブル視覚化デバイスにおいて使用されうるディスプレイシステムの概略的な正面図である。
【0015】
【
図6】
図6は、本実施形態にかかる、
図1のウェアラブル視覚化デバイスの一部の上面図である。
【0016】
【
図7】
図7は、本実施形態にかかる、
図1のウェアラブル視覚化デバイスのハウジングの一部の上面図である。
【0017】
【
図8】
図8は、本実施形態にかかる、
図1のウェアラブル視覚化デバイスにおいて使用されうる電子基板およびディスプレイアセンブリの上面図である。
【0018】
【
図9】
図9は、本実施形態にかかる、
図8の電子基板およびディスプレイアセンブリの底面図である。
【0019】
【
図10】
図10は、本実施形態にかかる、
図1のウェアラブル視覚化デバイスのカメラによって取得されうる画像の描写である。
【0020】
【
図11】
図11は、本実施形態にかかる、
図1のウェアラブル視覚化デバイスにおいて使用されうるライトアセンブリの上面図である。
【0021】
【
図12】
図12は、本実施形態にかかる、
図1のウェアラブル視覚化デバイスのハウジングの一部の底面図である。
【0022】
【
図13】
図13は、本実施形態にかかる、
図1のウェアラブル視覚化デバイスの背面図である。
【0023】
【
図14】
図14は、本実施形態にかかる、離脱構成におけるAR/VRシステムのインターフェースデバイスおよびウェアラブル視覚化デバイスの透視図である。
【0024】
【
図15】
図15は、本実施形態にかかる、収納構成における収納レセプタクルおよび
図1のウェアラブル視覚化デバイスの透視図である。
【発明を実施するための形態】
【0025】
本開示の1以上の特定の実施形態が以下に記載される。これらの実施形態の簡潔な説明を提供するために、実際の実装のすべての特徴が本明細書に記載されていないことがある。このような実際の実装の開発においては、任意のエンジニアリングまたは設計プロジェクトと同様、システム関連およびビジネス関連の制約への準拠のような、実装ごとに異なりうる開発者の特定の目標を達成するために実装固有の多数の決定をくだす必要がある、ということを理解されたい。さらに、そのような開発努力は、複雑で時間がかかるかもしれないが、それにもかかわらず、本開示の利益を有する通常の技術者にとって、設計、製作、および製造の日常的な仕事である、ということを理解されたい。
【0026】
本開示の様々な実施形態の要素の導入時において、「a」、「an」、および「the」という冠詞は、1以上の要素が存在する、ということを意味することを意図している。「備える(comprising)」、「含む(including)」、および「有する(having)」という用語は、包括的であることを意図しており、リスト化された要素以外の追加要素が存在しうる、ということを意味している。さらに、本開示の「一実施形態(one embodiment)」または「実施形態(an embodiment)」への言及は、列挙された特徴も組み込む追加の実施形態の存在を除外するものとして解釈されることを意図していない、ということを理解されたい。
【0027】
アミューズメントパークは、AR/VR体験(たとえば、AR体験、VR体験、またはその両方)をゲストに提供することによってゲストの体験を強化するように構成された拡張現実(AR)、仮想現実(VR)、および/または混合現実(ARとVRとの組み合わせ)システム(AR/VRシステム)を含みうる。実際に、特定のハードウェア構成、ソフトウェア構成(たとえば、アルゴリズム構造および/またはモデル化された応答)ばかりでなく特定のアトラクション特徴の組み合わせは、カスタマイズされた、パーソナライズされた、および/またはインタラクティブなAR/VR体験をゲストに提供するために利用されうる。
【0028】
たとえば、AR/VRシステムは、ゲストによって着用されうるとともにゲストがAR/VRの場面を見ることを可能とするように構成された、ヘッドマウントディスプレイ(たとえば、電子ゴーグルまたはディスプレイ、眼鏡)のような、ウェアラブル視覚化デバイスを含みうる。特に、ウェアラブル視覚化デバイスは、アミューズメントパークの実世界環境において特徴を仮想的にオーバーレイしたり、アミューズメントパークの乗り物において様々な体験を提供するために調整可能な仮想環境を提供したりするなどによって、ゲストの体験を強化するために利用されうる。残念ながら、開示された実施形態がなければ、ウェアラブル視覚化デバイスの製造および組立に費用および/または時間がかかりうる。さらに、開示された実施形態がなければ、ウェアラブル視覚化デバイスをアミューズメントパークの乗り物に効果的に統合することは困難でありうる。
【0029】
したがって、本開示の実施形態は、ウェアラブル視覚化デバイスの製造および組立を容易化するマルチピースのハウジングを有するウェアラブル視覚化デバイスに関する。特に、ハウジングは、組立構成(assembled configuration)においてハウジングを形成しうる、シャーシ、蓋、およびレンズマウントのような、1以上の取り外し可能なパネルを含みうる。特定のパネルは、ウェアラブル視覚化デバイスの様々なサブコンポーネント(たとえば、電子コンポーネント、光学コンポーネント)を受け取るおよび/または結合するように構成されたコンポーネント合わせ特徴(component mating features)(たとえば、パネルの表面に形成された機械加工または成型された特徴)を含みうる。コンポーネント合わせ特徴は、ハウジングを組み立てる前にサブコンポーネントがパネルに結合されることを可能とする一方、パネルの様々な部分は、オペレータ(たとえば、人間の技術者、組立ロボット)にとってより簡単にアクセス可能となりうる。1以上のパネルにサブコンポーネントを取り付けた後、パネルは、ハウジングを形成するように組み立てられうる。組立構成において、ハウジングは、取り巻く周囲環境からサブコンポーネントの少なくとも一部を実質的に隔離しうる。
【0030】
本明細書に開示されるウェアラブル視覚化デバイスの実施形態は、ウェアラブル視覚化デバイスとアトラクション(たとえば、アミューズメントパークの乗り物)との統合を容易化する様々な統合特徴も含みうる。たとえば、統合特徴は、ウェアラブル視覚化デバイスのハウジングに結合され、ウェアラブル視覚化デバイスを着用しているゲストの生体情報(たとえば、瞳孔間距離)を取得するように構成されたカメラを含みうる。特に、カメラは、ゲストがウェアラブル視覚化デバイスを頭に最初に装着したとき(たとえば、ゲストがアトラクションの乗り物車両に最初に搭乗したときなど)にそのような生体情報を取得しうる。ウェアラブル視覚化デバイスの処理システムは、ゲストの取得された生体情報に基づいてウェアラブル視覚化デバイスの特定のコンポーネント(たとえば、1以上のディスプレイ画面)をキャリブレーションするように構成され、その結果、ウェアラブル視覚化デバイスは、ゲストにAR/VR体験をより効果的に提供しうる。いくつかの実施形態において、処理システムは、ウェアラブル視覚化デバイスがゲストの頭に適切に取り付けられているか否かを判定するために、カメラによって取得された画像データをさらに利用しうる。一例として、処理システムは、取得した画像データを利用して、ウェアラブル視覚化デバイスの1以上のレンズまたはディスプレイがゲストの目と適切に位置合わせされているか否かを判定するために(たとえば、ゲストへのAR/VRコンテンツの効果的な提示を容易化する方法で)、取得された画像データを利用しうる。ウェアラブル視覚化デバイスがゲストの頭上で(たとえば、ゲストの目に対して)ずれていると処理システムが判定する場合、処理システムは、是正措置を実行するようにアトラクションを操作するゲストおよび/または乗り物技術者に指示するアラートを生成しうる。これらおよび他の特徴は、図面を参照して以下で詳細に説明される。
【0031】
上記を念頭に置いて、
図1は、ユーザ(たとえば、ゲスト、アミューズメントパークの従業員、乗り物車両の乗員)がAR/VR場面を体験する(たとえば、見る、対話する)ことを可能とするように構成されたAR/VRシステム10の実施形態の透視図である。AR/VRシステム10は、以下で詳細に論じられるようにAR/VRシステム10の使用を容易化するために互いに取り外し可能に結合可能なウェアラブル視覚化デバイス12(たとえば、ヘッドマウントディスプレイ)およびゲストインターフェースデバイス14を有するウェアラブル視覚化システム11を含む。
【0032】
図示された実施形態において、ウェアラブル視覚化デバイス12は、ウェアラブル視覚化デバイス12のハウジング18に結合されたレンズ部16(たとえば、AR/VR眼鏡、ゴーグル)を含む。レンズ部16は、特定の仮想特徴24(たとえば、AR特徴)がオーバーレイされうる1以上のレンズ20またはディスプレイ(たとえば、透明、半透明、不透明)を含む。いくつかの実施形態において、レンズ20は、実世界環境22に統合されている仮想特徴24をユーザが知覚するように、レンズ20上に特定の仮想特徴24がオーバーレイされたレンズ20を通して、ユーザが実世界環境22(たとえば、アトラクション内の物理的構造)を見ることを可能とする。つまり、レンズ部16は、仮想特徴24をユーザの視線上にオーバーレイすることによって、ユーザの視界を少なくとも部分的に制御しうる。この目的を達成するために、ウェアラブル視覚化デバイス12は、ユーザがレンズを通して見ることができる物理的な実世界環境22上にオーバーレイされた特定の仮想特徴24を有する超現実環境26(たとえば、ゲーム環境)をユーザが想像および知覚することを可能としうる。
【0033】
非限定的な例として、レンズ20は、透明(たとえば、シースルー)発光ダイオード(LED)ディスプレイまたは透明(たとえば、シースルー)有機発光ダイオード(OLED)ディスプレイを含みうる。いくつかの実施形態において、レンズ部16は、ユーザの両目に画像を表示するように特定の距離をまたぐシングルピース構造から形成されうる。つまり、そのような実施形態において、レンズ20(たとえば、第1のレンズ28、第2のレンズ30)は、単一の連続した材料片から形成され、第1のレンズ28は、ユーザの第1の目(たとえば、左目)と位置合わせされ、第2のレンズ30は、ユーザの第2の目(たとえば、右目)と位置合わせされうる。他の実施形態において、レンズ部16は、2以上の別個のレンズ20から形成されるマルチピース構造でありうる。
【0034】
いくつかの実施形態において、ウェアラブル視覚化デバイス12は、(たとえば、不透明な観察面を使用して)ユーザの視界を完全に制御しうる。つまり、レンズ20は、仮想特徴24(たとえば、VR特徴)をユーザに対して表示するように構成された不透明または非透明のディスプレイを含みうる。したがって、ユーザによって見ることができる超現実環境26は、たとえば、1以上の仮想特徴24と電子的にマージされた物理的な実世界環境22の実世界画像を含むリアルタイム映像でありうる。これにより、ウェアラブル視覚化デバイス12を着用すると、ユーザは、超現実環境26に完全に包囲されていると感じうるとともに、超現実環境26を、特定の仮想特徴24を含む実世界環境22であると知覚しうる。いくつかの実施形態において、ウェアラブル視覚化デバイス12は、特定の仮想特徴24がユーザによって見ることができる実世界のオブジェクト上に重ね合わされるように、ユーザの一方または両方の目に光を投影するように構成された、光投影特徴のような、特徴を含みうる。そのようなウェアラブル視覚化デバイス12は、網膜ディスプレイを含むと見なされうる。
【0035】
そのため、超現実環境26は、AR体験、VR体験、複合現実体験、コンピュータ媒介現実体験、それらの組み合わせ、または他の同様の超現実環境を含みうる、ということを理解されたい。さらに、ウェアラブル視覚化デバイス12は、超現実環境26を作成するために、単独でまたは他の特徴との組み合わせで使用されうる、ということを理解されたい。実際に、以下で論じられるように、ユーザは、アミューズメントパークの乗り物の乗車期間中、または、ゲーム中、アミューズメントパークの特定のエリアまたはアトラクションのいたるところ、アミューズメントパークに関連付けられたホテルへの、ホテルでの乗車中などのような他の時間中に、ウェアラブル視覚化デバイス12を着用しうる。いくつかの実施形態において、アミューズメントパークの設定において実装されると、ウェアラブル視覚化デバイス12は、ウェアラブル視覚化デバイス12の構造物からの分離を防ぐために構造物(たとえば、アミューズメントパークの乗り物のうちの乗り物車両)に物理的に結合され(たとえば、ケーブル32を介してつながれ)、および/または、ウェアラブル視覚化デバイス12(たとえば、仮想特徴24のディスプレイ)の動作を容易化するために(たとえば、ケーブル32を介して)コンピューティングシステム(たとえば、コンピュータグラフィクス生成システム)に電子的に結合されうる。
【0036】
以下で論じられるように、ウェアラブル視覚化デバイス12がゲストインターフェースデバイス14に結合されている係合構成34と、ウェアラブル視覚化デバイス12がゲストインターフェースデバイス14から分離している非係合または離脱構成36(たとえば、
図2参照)と、の間でウェアラブル視覚化デバイス12が迅速に遷移することを可能とするように、ウェアラブル視覚化デバイス12は、ゲストインターフェースデバイス14に取り外し可能に結合可能(たとえば、ツールレス結合可能、ツール不使用で結合可能、ボルトのようなねじ付き締め具なしで結合、ツール不使用でかつウェアラブル視覚化デバイス12またはゲストインターフェースデバイス14のコンポーネントを破壊せずに分離可能)である。ゲストインターフェースデバイス14は、ユーザの頭に張り付けられるように構成されており、このため、様々なアトラクション全体でまたは特定のアミューズメントパーク環境を横断しながらユーザがウェアラブル視覚化デバイス12を快適に着用することを可能とする。たとえば、ゲストインターフェースデバイス14は、ユーザの頭の周囲をまたぐように構成されるとともに、ユーザの頭において締まる(たとえば、収縮する)ように構成されたヘッドストラップアセンブリ37を含みうる。この方法において、ヘッドストラップアセンブリ37は、ゲストインターフェースデバイス14をユーザの頭に取り付けることを容易化し、その結果、ゲストインターフェースデバイス14は、(たとえば、ウェアラブル視覚化デバイス12が係合構成34にある場合に)ウェアラブル視覚化デバイス12をユーザ上で保持するために利用されうる。ゲストインターフェースデバイス14は、(たとえば、ゲストインターフェースデバイス14をユーザの頭から取り外すことなく)ユーザがウェアラブル視覚化デバイス12をゲストインターフェースデバイス14から結合および分離することを可能とする。
【0037】
図2は、AR/VRシステム10の実施形態の透視図であり、離脱構成36におけるウェアラブル視覚化デバイス12およびゲストインターフェースデバイス14を示している。上で簡単に論じられたように、ウェアラブル視覚化デバイス12のハウジング18は、ウェアラブル視覚化デバイス12の組立および/または保守を容易化するように構成された多コンポーネントアセンブリでありうる。たとえば、いくつかの実施形態において、ハウジング18は、集合的にハウジング18を形成しうる、蓋42、シャーシ44、およびレンズマウント46(たとえば、レンズ部16を支持するように構成されたパネル)のような、複数のパネル40(たとえば、ハウジング部、成型および/または機械加工されたパネル)から組み立てられうる。以下に論じられるように、パネル40の一部または全部は、ウェアラブル視覚化デバイス12の様々なサブコンポーネント48(たとえば、電子コンポーネント、光学コンポーネント)を受容および/または結合するように構成されたコンポーネント合わせ特徴(たとえば、パネル40の表面の機械加工および/または成型された特徴)を含みうる。この方法において、サブコンポーネント48は、ハウジング18の組立の前に、たとえば、蓋42、シャーシ44、および/またはレンズ部16に結合しうる一方、これらのパネル40のコンポーネント合わせ特徴は、(たとえば、ハウジング18が組立構成または部分的な組立構成にある場合と比較して、)オペレータにとって容易にアクセス可能である。
【0038】
以下に論じられるように、1以上のパネル40へのサブコンポーネント48の設置の後、パネル40は、ハウジング18を形成するように組み立てられ(たとえば、締め具、接着剤、および/または他の技術によって互いに結合され)うる。したがって、ハウジング18は、ハウジング18内のサブコンポーネント48の少なくとも一部を実質的にシール(たとえば、気密シール)してウェアラブル視覚化デバイス12をとりまく周囲環境要素(たとえば、水分)への直接的な露出からこれらのサブコンポーネント48を保護するようにサブコンポーネント48をカプセル化しうる。他の実施形態では、蓋42、シャーシ44、およびレンズマウント46よりも追加的なまたは少ないパネルからハウジング18が組み立てられうる、ということが理解される。実際、特定の実施形態において、ハウジング18は、組立構成において集合的にハウジング18を形成する1、2、3、4、5、6、または6つを超える個別のパネル40を含みうる。
【0039】
図示された実施形態において、ハウジング18は、レンズ20の近位にある前端部50(たとえば、第1の端部)と、レンズ20の遠位にある後端部52(たとえば、第2の端部)と、を含む。特に、後端部52は、以下に論じられるようにウェアラブル視覚化デバイス12のゲストインターフェースデバイス14への取り外し可能な結合を容易化する第1の周辺部54(たとえば、第1の遠位端)および第2の周辺部56(たとえば、第2の遠位端)を含む。シャーシ44は、ハウジング18の第1の側端部60を定義しうる第1の外面58と、ハウジング19の第1の側端部62を定義しうる第1の外面58とは反対の第2の外面と、を含む。蓋42は、ハウジング18の上部66を定義しうる上面64を含む。シャーシは、ハウジング19の下側70(たとえば、
図1参照)を定義しうる下面68(たとえば、
図1参照)を含む。明確性のために、たとえば、前方、後方、側方、上部、および下部のような相対的な用語は、以下の説明全体を通して、ウェアラブル視覚化デバイス12の様々なコンポーネントまたは領域の、ウェアラブル視覚化デバイス12の他のコンポーネントまたは領域に対する相対的な位置を説明するために使用されており、特定の方向または空間的な方位を示すことは意図していない。そのため、そのような相対的な用語は、議論を容易化することを意図しており、ウェアラブル視覚化デバイス12に対する観察者の方位に依存している、ということを理解されたい。
【0040】
図3は、ウェアラブル視覚化デバイス12の実施形態の底面図であり、ハウジング18の下側70を示している。図示された実施形態に示されているように、レンズ部16は、シャーシ44の下面68から、概して第1の方向71に沿って延びうる。いくつかの実施形態において、レンズマウント46は、レンズ部16をシャーシ44に対して取り外し可能に結合しうる。そのため、レンズマウント46は、(たとえば、レンズ部16が摩耗している場合に)レンズ部16を別のレンズ部と交換することを可能としうる。
【0041】
シャーシ44は、概して第1の方向71とは反対の第2の方向73に延びるとともにハウジング18の後端部52からハウジング18の前端部50に向かって傾斜する凹部72を含みうる。ウェアラブル視覚化デバイス12は、ハウジング18に結合されうるとともに凹部72内に配置されうる、本明細書で集合的に画面78と呼ばれる第1の画面74(たとえば、第1のディスプレイ画面)および第2の画面76(たとえば、第2のディスプレイ画面)を含みうる。特に、以下に論じられるように、第1の画面74は、シャーシ44の第1の開口80(たとえば、
図7参照)内に配置されるとともに、第2の画面76は、シャーシ44の第2の開口83(たとえば、
図7参照)内に配置されうる結果、画面78は、レンズ20(たとえば、
図4参照)に向かって傾けられている。以下に論じられるように、この方法において、画面78は、レンズ部16に光(たとえば、仮想特徴)を投影し、その結果、レンズ部16は、ユーザの目に投影された光の少なくとも一部を反射しうる。
【0042】
いくつかの実施形態において、カメラ84は、凹部72内でかつ第1および第2の画面74、76の間に(たとえば、ウェアラブル視覚化デバイス12の横軸に沿って)配置されうる。特に、カメラ84は、シャーシ44のカメラ開口86(たとえば、
図7参照)内に設けられうるとともに、ウェアラブル視覚化デバイス12の中心線88(たとえば、画面78間で平行かつ等距離で延びる線)と位置合わせされうる。特定の実施形態において、カメラ84のレンズは、第1および第2の画面74、76のそれぞれの表示面に対して実質的に同一平面上に向けられうる。以下で詳細に論じられるように、この方法において、カメラ84は、レンズ部16の内面(たとえば、画面78に面した面)で見ることができる反射を示す画像データを取得しうる。特に、カメラ84は、(たとえば、ウェアラブル視覚化デバイス12がユーザの頭に取り付けられている場合に)画面78によってレンズ部16に投影された光の反射および/またはレンズ部16において見ることができるユーザの目の反射を示す画像データを取得しうる。
【0043】
画面78は、仮想特徴をレンズ20に投影するように構成された任意の適切なディスプレイを含みうる。非限定的な例として、画面78は、液晶ディスプレイ(LCD)、LEDディスプレイ、OLEDディスプレイ、または他の適切なディスプレイを含みうる。いずれの場合においても、第1の画面74は、AR/VRコンテンツを第1のレンズ28に投影しうるとともに、第2の画面76は、AR/VRコンテンツを第2のレンズ30に投影しうる。この方法において、画面78は、上で論じられた技術にしたがって超現実環境26の生成を容易化しうる。いくつかの実施形態では、画面78が、2つの別個の画面に代えて、単一の画面の第1のセクションまたはセグメントおよび第2のセクションまたはセグメントを含みうる、ということを理解されたい。つまり、第1の画面74は、特定の画面の第1のセクションまたはセグメントを含みうるとともに、第2の画面76は、特定の画面の第2のセクションまたはセグメントを含みうる。
【0044】
図示された実施形態に示されているように、第1および第2のレンズ28、30は、レンズ部16の正中線90から延びる凹状の湾曲をそれぞれ含みうる。正中線90は、中心線88と実質的に位置合わせされうる(たとえば、平行でありうる)。第1および第2のレンズ28、30の凹状の湾曲は、画面78によってレンズ20に投射された光の一部または実質的にすべてがユーザの目に戻るような反射を容易化しうる。たとえば、第1のレンズ28の凹状の湾曲は、第1のレンズ28が光(たとえば、第1の画面74によって第1のレンズ28に投影されたAR/VRコンテンツ)をユーザの第1の目92に反射することを可能とするとともに、第2のレンズ30が光(たとえば、第2の画面76によって第2のレンズ30に投影されたAR/VRコンテンツ)をユーザの第2の目94に反射することを可能とする。しそのため、ユーザは、(たとえば、画面78によって)レンズ20に投影されうるAR/VRコンテンツを見ることができ、したがって、超現実環境26を知覚することができる。以下の説明を通して、レンズ20および画面78は、集合的に、ウェアラブル視覚化デバイス12のディスプレイシステム96と呼ばれることがある。
【0045】
図4は、ディスプレイシステム96の実施形態の概略的な側面図である。いくつかの実施形態において、レンズ部16は、レンズ部16の反射特性を強化する1以上の反射層でコーティングされた実質的に透明な(たとえば、シースルーの)材料片を含みうる。たとえば、いくつかの実施形態において、第1および第2の目92、94(集合的には目98)に面したレンズ部16の内面97は、(たとえば、画面78によって)レンズ部16に投影された光の約20パーセントから約80パーセント、約50パーセントから約70パーセントまたは約62.5パーセントがユーザの目98に戻るように反射しうる反射層100でコーティングされうる一方、(たとえば、画面78によって)レンズ部16に投射された光の残りの部分は、レンズ部16を通過して周囲環境102に分散する。他の実施形態において、反射層100は、(たとえば、画面78によって)レンズ部16の内面97に投射された光の任意の適切な部分がユーザの目98に戻るように反射しうる。反射層100は、レンズ部16の内面97に塗布される単一のコーティングまたは材料の層か、または内面97に塗布される複数のコーティングまたは材料の層、を含みうる。
【0046】
いくつかの実施形態において、レンズ部16の(たとえば、ユーザの目98から離れて面している)外面104は、反射防止コーティング106の1以上の層でコーティングされうる。反射防止コーティング106は、レンズ部16における反射(たとえば、画面78によってレンズ部16に投影された仮想特徴の品質を低下させうる反射)を実質的に作成することなく、周囲光(たとえば、太陽光)がレンズ部16を(たとえば、外面104から内面97に)通過することを許可しうる。それに加えてまたは代えて、外面104は、ウェアラブル視覚化デバイス12の反復使用中に引っかき傷または他の表面欠陥を獲得することからレンズ部16を保護しうる耐擦傷コーティング108の1以上の層でコーティングされうる。いくつかの実施形態において、耐擦傷コーティング108の1以上の層は、レンズ部16の内面97にも塗布されうる。
【0047】
図5は、ディスプレイシステム96の実施形態の概略図である。一般に、ユーザの中心視(たとえば、中心視野)は、レンズ部16の中心領域120の近くに配置されうる。特に、ユーザの第1の目92の中心視は、第1のレンズ28の第1のセクション122を包含しうる一方、ユーザの第2の目94の中心視は、第2のレンズ30の第1のセクション124を包含しうる。第2のレンズ30の第2のセクション128は、第1の目92の周辺視の領域に対応しうる一方、第2のレンズ30の第2のセクション128は、第2の目94の周辺視の領域に対応しうる。
【0048】
画面78は、正中線90から交差して外向きに概して延びる線引き方向129におけるレンズ20への投影のための光(たとえば、仮想特徴、AR/VRコンテンツ)をラスタするように構成されうる。たとえば、第1の画面74は、(たとえば、正中線90に近い)第1の画面74の近位部134(たとえば、横方向内側部分)から、第1の画面74の遠位部136(たとえば、横方向外側部分)に向かって、第1の方向132に、(たとえば、線130で示されるラスタ線に沿って)AR/VRコンテンツを周期的にラスタおよび更新しうる。第2の画面76は、第2の画面76の近位部131(たとえば、横方向内側部分)から、第2の画面76の遠位部143(たとえば、横方向外側部分)に向かって、第2の方向139に、(たとえば、線138で示される追加のラスタ線に沿って)AR/VRコンテンツを周期的にラスタおよび更新しうる。
【0049】
このようにして、ユーザの中心視を包含しうるレンズ部16の中心領域120は、ユーザの周辺視野の領域に対応するレンズ部16の領域(たとえば、第2のセクション126、128)よりも低いレイテンシを有しうる。実際、画面78は、ユーザの周辺視野を定義するレンズ20の第2のセクション126、128に沿ってAR/VRコンテンツをラスタする前に、ユーザの中心視野を定義しうるレンズ20の第1のセクション122、124に投影されたAR/VRコンテンツに対する更新をラスタしうる。この目的を達成するために、ユーザは、たとえば、レンズ部16上で見ることができる仮想特徴と、仮想特徴の提示と調和されうる実世界環境における特徴(たとえば、アニマトロにクス図)との間で、実質的にゼロのまたは知覚できないレイテンシを経験しうる。非限定的な例として、画面78を使用してレンズ部16の中心領域120にわたって表示されたAR/VRコンテンツをラスタおよび/または更新するために含まれる期間は、約4ミリ秒、約3ミリ秒、または3ミリ秒未満でありうる。
【0050】
図6は、ウェアラブル視覚化デバイス12の一部の実施形態の上面図である。図示された実施形態では、ハウジング18内に配置されうるサブコンポーネント48をよりよく示すために、ハウジング18から蓋42が取り外されている。図示された実施形態に示されているように、ウェアラブル視覚化デバイス12は、締め具、接着剤、および/または他の適切な技術を介してシャーシ44に結合されうるディスプレイアセンブリ140および電子ボード142を含む。ディスプレイアセンブリ140は、画面78およびディスプレイドライバボード144を含みうる。ディスプレイドライバボード144は、画面78および電子ボード142に(たとえば、接続146を介して)通信可能に結合されうる。
【0051】
電子ボード142は、ウェアラブル視覚化デバイス12の動作を容易化する1以上のセンサ150を含みうる。非限定的な例として、センサ150は、加速度計、磁力計、ジャイロスコープ、GPS(global positioning system)、モーショントラッキングセンサ、電磁およびソリッドステートモーショントラッキングセンサ、1以上の慣性測定ユニット153(IMU)、プレゼンスセンサ、ホール効果センサ、温度センサ、電圧計、および/または他のセンサのような、方位および/または位置センサを含みうる。いくつかの実施形態において、電子ボード142は、センサ150を介してキャプチャされたリアルタイムデータを、ウェアラブル視覚化デバイス12の遠隔に(たとえば、乗り物車両上に)配置されうる、または(電子ボード142に含まれた)ウェアラブル視覚化デバイス12と統合されうるコンピュータグラフィクス生成システム156に送信しうる(たとえば、有線または無線の送受信機を含む)通信インターフェース154を含みうる。いくつかの実施形態において、電子ボード142は、ケーブル32を介してコンピュータグラフィクス生成システム156に通信可能に結合されうる。
【0052】
電子ボード142は、ウェアラブル視覚化デバイス12の個別データ(たとえば、セルフテスト結果、エラーログ、動作時間、シリアルナンバー)、および/または、たとえば、ライトアセンブリ160(たとえば、発光ダイオード[LED]アセンブリ)、カメラ84、および/またはIMU152を含むウェアラブル視覚化デバイス12の周辺サブアセンブリおよび機能への通信を容易化するインストラクションを格納しうるメモリ158を含みうる。以下に論じられるように、ライトアセンブリ160は、ユーザ入力および/またはイベントの発生に応じて様々な照明効果を提供するために明るくなりうる。さらに、特定の実施形態において、ライトアセンブリ160は、たとえば、電子ボード142上で現在どのタイプ(たとえば、バージョン)のソフトウェアが実行されているかを、(たとえば、特定の色または光の色相の表示を介して)示しうる。
【0053】
ディスプレイドライバボード144は、(たとえば、コンピュータグラフィクス生成システム156から受信されうる)映像信号をデコードし、情報の線を画面78に書き込むように構成されうる。例として、ディスプレイドライバボード144は、画面78によって投影されたAR/VRコンテンツを更新するためにラスタ線(たとえば、線130、138)を生成しうる。また、ディスプレイドライバボード144は、画面78による表示のために映像情報の解像度および周波数を最適化しうる。ディスプレイドライバボード144は、高精細度マルチメディアインターフェース(HDMI)信号を、モバイル産業プロセッサインターフェース(MIPI)アライアンスのディスプレイシリアルインターフェース(DSI)仕様にデコードしうる。そのため、電子ボード142、ディスプレイドライバボード144、および/またはコンピュータグラフィクス生成システム156は、上記の技術によってユーザにAR/VR体験を提供するように画面78を協調的に制御しうる、ということを理解されたい。
【0054】
いくつかの実施形態において、電子ボード142は、電子ボード142のプロセッサ166、または別の適切な処理システム(たとえば、コンピュータグラフィクス生成システム156)に通信可能に結合されうる拡張ポート164(たとえば、管理ポート)を含みうる。プロセッサ166は、汎用プロセッサ、システムオンチップ(SOC)デバイス、特定用途向け集積回路(ASIC)、または他のいくつかの同様のプロセッサ構成でありうる。拡張ポート164は、ハウジング18の外面に配置されたプラグ170に結合されうる。拡張ポート164は、キーボードおよび/またはマウスのような補助デバイスが電子ボード142に通信可能に結合されることを可能としうる。そのため、補助デバイスは、ユーザ(たとえば、管理者)に追加機能を提供しうるとともに、ユーザが補助デバイスを使用してウェアラブル視覚化デバイス12の特徴を制御することを可能としうる。別の非限定的な例として、拡張ポート164は、ブルートゥース(登録商標)機能、拡張メモリ、1以上のマイクロフォン、1以上の音響スピーカ、または任意の他の適切な補助デバイスまたは複数のデバイスと、ウェアラブル視覚化デバイス12と、の統合を可能としうる。
【0055】
ウェアラブル視覚化デバイス12の保守を容易化するために、電子ボード142、ディスプレイドライバボード144、および/または画面78は、それぞれ個別に交換可能でありうる。たとえば、以下の検討を容易化するために、
図7は、シャーシ44の実施形態の上面図である。
図8は、ディスプレイアセンブリ140および電子ボード142の実施形態の上面図である。
図9は、ディスプレイアセンブリ140および電子ボード142の実施形態の底面図である。
図7、8、および9は、以下で共に論じられる。
【0056】
ディスプレイアセンブリ140は、画面78、カメラ84、およびディスプレイドライバボード144を支持するように構成されたフレーム190を含みうる。画面78、カメラ84、およびディスプレイドライバボード144は、締め具、接着剤、および/または他の適切な技術を使用してフレーム190に結合されうる。いくつかの実施形態では、フレーム190は、画面78に対してカメラ84を位置合わせしうる。つまり、フレーム190は、カメラ84が第1および第2の画面74、76の間に実質的に等距離で配置されることを保証しうる。フレーム190は、シャーシ44のそれぞれの取付プロング194(たとえば、コンポーネント合わせ特徴)と係合するように構成された1以上の取付タブ192(たとえば、コンポーネント合わせ特徴)を含みうる。この目的を達成するために、締め具、接着剤のようなコネクタ、または他のコネクタは、フレーム190をシャーシ44に結合するために使用されうる。取付タブ192および取付プロング194は、フレーム190がシャーシ44との係合構成にあるときに、第1の画面74が第1の開口80と位置合わせされ、第2の画面76が第2の開口82と位置合わせされ、かつカメラ84がカメラ開口86と位置合わせされるように、配置されうる。
【0057】
シャーシ44は、いくつかの実施形態において適切なコネクタ(たとえば、締め具)または接着剤を介して電子ボード142をシャーシ44に結合することを容易化しうる1以上の取付プロング198(たとえば、追加のコンポーネント合わせ特徴)を含みうる。たとえば、電子ボード142は、(たとえば、シャーシ44内の電子ボード142の設置構成(installed configuration)において)追加の取付プロング198と位置が合うようにその中に形成された1以上のアパーチャ199(たとえば、コンポーネント合わせ特徴)を含みうる。そのため、適切な締め具および/または接着剤は、電子ボード142を追加の取付プロング198に結合するために使用されうる。電子ボード142、ディスプレイドライバボード144、および/または画面78は、接続146(たとえば、1以上の優先接続および/または光学接続)を介して互いに通信可能に結合されうる。
【0058】
以下の検討は、
図3を参照して継続される。上記で簡単に論じられたように、カメラ84は、凹部72内に配置されうるとともに、レンズ部16上(たとえば、レンズ部16の内面97上)で見ることができる反射を示す画像データを取得するように構成されうる。たとえば、いくつかの実施形態において、カメラ84は、正中線90の方向に向けられ、その結果、カメラ84は、第1のレンズ28の一部および第2のレンズ30の一部の画像データを取得しうる。つまり、1つのカメラ84が、第1および第2のレンズ28、30の両方の画像データを取得しうる。特に、一実施形態において、カメラ84は、第1のレンズ28の第1のセクション122および第2のレンズ30の第1のセクション124の画像データを取得しうる。他の実施形態において、カメラ84は、レンズ部16の実質的にすべてから反射する光を示す画像データを取得しうる。
【0059】
そのため、第1および第2の画面74、76の間にカメラ84を配置することによって、1つのカメラ84が、それぞれ、第1および第2の画面74および76の両方によって第1および第2のレンズ28、30に投影された光(たとえば、仮想特徴)を示す画像データを取得するために使用されうる、ということに留意することが重要である。たとえば、カメラ84は、第1の画面74によって第1のレンズ28に投影されるとともに(たとえば、第1のレンズ28の反射層100を介して)カメラ84に向かって反射されて戻る光を観察しうる。同様に、カメラ84は、第2の画面76によって第2のレンズ30に投射されるとともに(たとえば、第2のレンズ30の反射層100を介して)カメラ84に向かって反射して戻る光を観察しうる。
【0060】
それに追えてまたは代えて、カメラ84は、(たとえば、ウェアラブル視覚化デバイス12およびインターフェースデバイス14を有するウェアラブル視覚化システム11がユーザの頭に取り付けられている場合に、)レンズ部16におけるユーザの目98の反射を観察することによってユーザの目98の画像データを取得しうる。いくつかの実施形態において、プロセッサ166(または電子ボード142の別の適切なコンポーネント)は、カメラ84によって取得された画像データを受信し、取得された画像データを、ユーザの生体情報を判定するために利用しうる。たとえば、以下で論じられるように、プロセッサ166は、ユーザの目98の取得された画像データを、ユーザの瞳孔間距離(たとえば、ユーザの目98のそれぞれの瞳孔間の距離)を決定するために利用しうる。プロセッサ166は、ウェアラブル視覚化デバイス12のパフォーマンス(たとえば、知覚されるユーザ体験)を改善する方法で、画面78によるAR/VR画像の投影を調整するために、導出された生体情報を利用しうる。
【0061】
たとえば、検討を容易化するために、
図10は、(たとえば、ウェアラブル視覚化システム11がユーザの頭に取り付けられている場合に)カメラ84によって取得されうる画像200の実施形態である。明確さのため、上記のように、画像200は、(たとえば、ウェアラブル視覚化システム11がユーザの頭に取り付けられている場合に)カメラ84によって観察可能なレンズ部16の内面97での反射に対応しうる。そのため、第1の目92および第2の目94の位置は、画像200に見られるように、
図3および5における第1の目92および第2の目94の図示された位置に対してミラーリングされる、ということを理解されたい
【0062】
図10の図示された実施形態に示されているように、画像200は、ユーザの第1の目92(たとえば、第1のレンズ28で反射されうるユーザの左目)の反射の少なくとも一部と、ユーザの第2の目94(たとえば、第2のレンズ30に反射されうるユーザの右目)と、を含みうる。画像200は、いくつかの実施形態では反射された特徴を何も含まないレンズ部16の正中線90を示す非光学領域202を含みうる。特定の実施形態では、画像200の取得を容易化するために、画面78の一方または両方は、レンズ部16におけるユーザの目の反射を強化するために一時的に明るくなる(たとえば、カメラフラッシュを提供する)ように構成されうる。
【0063】
カメラ84は、プロセッサ166に通信可能に結合されうるとともに、画像200を示すフィードバックをプロセッサ166に提供するように構成されうる。プロセッサ166は、ユーザの目98の瞳孔206のそれぞれのエッジ204を検出するために画像200を分析するように構成されうる。画像200内のエッジ204の位置に基づいて、プロセッサ166は、ユーザの第1の目92の第1の瞳孔周囲208およびユーザの第2の目94の第2の瞳孔周囲209を推定しうる。プロセッサ166は、第1の瞳孔周囲208の第1の重心を判定しうるとともに、第2の瞳孔周囲209の第2の重心を決定しうる。そのため、第1の重心は、第1の目92の第1の瞳孔の推定重心を示しうるとともに、第2の重心は、第2の目94の第2の瞳孔の推定重心を示しうる。
【0064】
瞳孔206の推定重心に基づいて、プロセッサ166は、ユーザの瞳孔206のそれぞれの重心間の距離を示しうるユーザの瞳孔間距離210(たとえば、
図5参照)を判定しうる。いくつかの実施形態において、プロセッサ166は、ユーザの瞳孔間距離210を定量化するように構成されうる。他の実施形態において、プロセッサ166は、測定された瞳孔間距離210を複数の範囲セット(たとえば、小さい瞳孔間距離、中程度の瞳孔間距離、大きい瞳孔間距離)のうちの1つに分類するように構成されうる。
【0065】
以下の検討は、
図5および
図10を共に参照しながら継続する。プロセッサ166は、ウェアラブル視覚化デバイス12を現在利用している特定のユーザの瞳孔間距離210に基づいて画面78によって投影される仮想特徴の提示を調整するインストラクションを(たとえば、電子ボード142、ディスプレイドライバボード144に)送信するように構成されうる。たとえば、ユーザの瞳孔間距離210が比較的小さい(たとえば、第1のしきい値以下である)とプロセッサ166が判定した場合、プロセッサ166は、レンズ部16の正中線90により近い仮想特徴を画面78に投影させるインストラクションを送信し、その結果、仮想特徴の中心領域は、ユーザの瞳孔206と(その中央視内で)実質的に位置合わせされる。逆に、ユーザの瞳孔間距離210が比較的大きい(たとえば、第1のしきい値を超える、第1のしきい値よりも大きい第2のしきい値を超える)とプロセッサ166が判定した場合、プロセッサ166は、レンズ部16の周辺エッジ205により近い仮想特徴を画面78に投影させるインストラクションを送信し、その結果、仮想特徴は、ユーザの瞳孔206と(その中央視内で)再び実質的に位置合わせされる。
【0066】
いくつかの実施形態において、プロセッサ166は、画像200に基づいて、ウェアラブル視覚化システム11がユーザの頭に適切に配向および/または配置されているか否かを評価するように構成されうる。たとえば、
図5を参照すると、ウェアラブル視覚化システム11がユーザの頭に適切に取り付けられている(たとえば、ユーザの頭でずれていない、オフセットされていない、または傾いていない)場合、第1のレンズ28の第1の頂点222と、ユーザの第1の目92の第1の瞳孔224の中心と、の間の第1の距離220は、第2のレンズ30の第2の頂点228と、ユーザの第2の目94の第2の瞳孔230の中心と、の間の第2の距離226と実質的に等しくなりうる。そのため、ウェアラブル視覚化システム11がユーザの頭に適切に取り付けられている場合、本明細書において参照軸234(たとえば、ウェアラブル視覚化デバイス12に関連する既知のまたは所定の軸)と呼ばれる、第1のレンズ28の第1の頂点222と第2のレンズ30の第2の頂点228とので延びる線は、瞳孔間距離210の瞳孔間軸236(たとえば、瞳孔206のそれぞれの中心間で延びる軸)と実質的に平行に延びうる。
【0067】
図10を参照すると、プロセッサ166は、参照軸234と瞳孔間軸236との間の角度240を判定しうる。参照軸234と瞳孔間軸236との間の角度240の大きさが許容値(たとえば、5度)よりも大きいが第1のしきい値角度値(たとえば、15度)以下であるとプロセッサ166が判定した場合、プロセッサ166は、角度240に基づいて画面78によって投影された仮想特徴の提示を調整するインストラクションを(たとえば、電子ボード142および/またはディスプレイドライバボード144に)送信しうる。
【0068】
たとえば、第1の目92の第1の瞳孔224が(たとえば、参照軸234に対して)第2の目94の第2の瞳孔230の下に配置されているとプロセッサ166が(たとえば、角度240に基づいて)判定した場合、プロセッサ166は、第1の画面74の投影された仮想特徴が第1のレンズ28の下部252に向かってより近くにオーバーレイされるように、第1の画面74の下部250により近い仮想特徴の投影を第1の画面74に調整させるインストラクションを送信しうる。それに加えてまたは代えて、プロセッサ166は、第2の画面76の投影された仮想特徴が第2のレンズ30の上部256に向かってより近くにオーバーレイされるように、第2の画面76の上部254により近い仮想特徴の投影を第2の画面76に調整させるインストラクションを送信しうる。この方法において、プロセッサ166は、ウェアラブル視覚化システム11がユーザの頭でわずかにオフセットされている(たとえば、傾いている)場合であっても、第1および第2のレンズ28、30に表示される投影された仮想特徴が、ユーザの第1および第2の目92、94の瞳孔206とそれぞれ実質的に位置合わせされることを可能とする。
【0069】
逆に、第1の目92の第1の瞳孔224が(たとえば、参照軸234に対して)第2の目94の第2の瞳孔230の上に配置されているとプロセッサ166が(たとえば、角度240に基づいて)判定した場合、プロセッサ166は、第1の画面74の投影された仮想特徴が第1のレンズ28の上部262に向かってより近くにオーバーレイされるように、第1の画面74の上部260により近い仮想特徴の投影を第1の画面74に調整させるインストラクションを送信しうる。それに追えてまたは代えて、プロセッサ166は、第2の画面76の投影された仮想特徴が第2のレンズ30の下部266に向かってより近くにオーバーレイされるように、第2の画面76の下部264により近い仮想特徴の投影を第2の画面76に調整させるインストラクションを送信しうる。したがって、上記で論じられたのと同様に、プロセッサ166は、ウェアラブル視覚化システム11がユーザの頭でわずかにオフセットされている(たとえば、傾いている)場合であっても、第1および第2のレンズ28に表示される投影された仮想特徴が、ユーザの第1および第2の目92、94の瞳孔206とそれぞれ実質的に位置合わせされうることを保証しうる。言い換えれば、プロセッサ166は、ユーザの頭でのウェアラブル視覚化システム11の位置ずれを修正するためのソフトウェア修正を実行しうる。
【0070】
いくつかの実施形態において、角度240の大きさが第1のしきい値角度値よりも大きいとプロセッサ166が判定した場合、プロセッサ166は、(たとえば、ユーザの頭のウェアラブル視覚化デバイス12を再配置するための)修正措置を手動で実行するようにユーザに指示するアラートを生成しうる。たとえば、プロセッサ166は、瞳孔間軸236が参照軸234と実質的に平行に調整させられるように、ユーザの頭の特定の方向(たとえば、左、右)にウェアラブル視覚化システム11を傾けるようにユーザに指示するメッセージをレンズ20に投影するように画面78に指示しうる。それに加えてまたは代えて、プロセッサ166は、ウェアラブル視覚化システム11を適切に再配置するようにユーザに指示する記録されたメッセージを提供する聴覚的アラートを(たとえば、音響スピーカを介して)生成しうる。この目的を達成するために、プロセッサ166は、ユーザの頭でのAR/VRシステム10の位置ずれを修正するためのハードウェア修正を実行するようにユーザに指示しうる。
【0071】
特定の実施形態では、カメラ84が、レンズ部16またはその近くに配置されうるとともに、ユーザの目の画像データを直接的に取得するように構成されうる、ということに留意されたい。つまり、そのような実施形態において、カメラ84は、レンズ部16の内面97上で見ることができる目98の反射の画像(たとえば、画像200)を取得する代わりに、目98の画像を取得するために目98の方に向けられうる。さらに、特定の実施形態において、ウェアラブル視覚化デバイス12は、レンズ部16で見ることができる反射の画像データを取得するように構成された第1のカメラと、ユーザの目に向けられ、ユーザの目の画像データを直接的に取得するように構成された追加のカメラと、を含みうる。いくつかの実施形態において、カメラ84は、ユーザの注視方向を判定するために、またはユーザの他の適切な使用情報を判定するために使用されうる。
【0072】
上記のように、いくつかの実施形態において、AR/VRシステム10は、アトラクション(たとえば、乗員乗り物システム)と組み合わせて利用されうる。そのような実施形態において、プロセッサ166は、ユーザが初めにウェアラブル視覚化デバイス12を装備するとき(たとえば、アトラクションの乗車中のユーザの頭に取り付けられたゲストインターフェースデバイス14上にユーザがウェアラブル視覚化デバイス12を取り付けるとき)に、前述したステップ(たとえば、瞳孔間距離210の判定、角度240の判定)を実行するように構成されうる。例として、そのような実施形態において、プロセッサ166は、角度240の大きさがたとえば第1のしきい値角度値よりも大きいと決定したときに、アトラクションの中央制御システムにアラートを送信するように構成されうる。そのため、中央制御システムは、アトラクションの乗り物周期の開始の前にウェアラブル視覚化システム11をユーザの頭に適切に配置することにおいてオペレータがユーザを支援しうるように、オペレータ(たとえば、アトラクションの動作を監視する乗り物技術者)にアラートを提供しうる。
【0073】
特定の実施形態において、プロセッサ166は、角度240の大きさに基づいて特定の色を照らすようにライトアセンブリ160に指示しうる。たとえば、角度240の大きさが第1のしきい値角度値以下である場合、プロセッサ166は、緑の色または色相で照らすようにライトアセンブリ160に指示し、それにより、ウェアラブル視覚化システム11がユーザの頭に適切に取り付けられている(たとえば、位置合わせされている)ことをユーザおよび/または乗り物オペレータに合図しうる。上記のように、そのような場合、プロセッサ166は、ソフトウェア修正を実行することによって(たとえば、画面78による仮想特徴の提示を調整することによって)、ユーザの頭でのウェアラブル視覚化システム11のわずかなずれを補償しうる。角度240の大きさが第1のしきい値角度値よりも大きい場合、プロセッサ166は、たとえば、赤の色または色相で照らすようにライトアセンブリ160に指示し、それにより、ユーザの頭でのウェアラブル視覚化システム11の再配置が望まれていることをユーザおよび/または乗車オペレータに合図しうる。
【0074】
図11は、ライトアセンブリ160の実施形態の上面図である。
図3および11は、以下で共に論じられる。ライトアセンブリ160は、テザー(tether)272(たとえば、有線接続)を介して電子ボード142に電気的におよび/または通信可能に結合されうる1以上のLED270または他の照明要素を含みうる。いくつかの実施形態において、ライトアセンブリ160は、シャーシ44に結合されうるとともに、シャーシ44の内面274の近くに配置されうる。そのような実施形態において、LED270は、シャーシ44に形成されたそれぞれの照明開口内に配置され、その結果、LED270は、ユーザに向かって(たとえば、内側に)、ユーザから離れて(たとえば、外側に)、レンズ部16に向かって、または任意の適切な方向に、照明開口を介して光を投射しうる。
【0075】
特定の実施形態において、1以上のLED270は、LED270によって放出された光をLED270に結合されたそれぞれの第1の端部からそれぞれの遠位部278へと伝達するように構成されたそれぞれのライトパイプ276(たとえば、光ファイバ、アクリルロッド)に結合されうる。そのため、ライトパイプ276は、たとえば、ハウジング18の中心領域279(たとえば、
図6参照)内にLED270が配置されることを可能とし、シャーシ44の照明開口を介して光を投射するように動作可能である。たとえば、ライトパイプ276は、LED270とシャーシ44の外面内に形成された照明開口との間で延び、その結果、LED270によって放出された光は、(中心領域279に配置されうる)LED270から照明開口に向けて伝達され、照明開口から放出されうる。そのため、ライトパイプ276は、LED270がハウジング18内の任意の適切な位置に配置されうることを可能としうる、ということを理解されたい。
【0076】
以下の検討は、
図6を参照して継続される。いくつかの実施形態において、ウェアラブル視覚化デバイス12は、シャーシ44の第1および第2の周辺部282、284の近くでシャーシ44に結合されうる1以上の一次磁石280を含みうる。以下で詳細に論じられるように、一次磁石280は、ウェアラブル視覚化デバイス12をゲストインターフェースデバイス14に取り外し可能に結合することを容易化しうる。いくつかの実施形態において、一次磁石280は、保持クリップ286を介してシャーシ44に取り外し可能に結合されうる。そのため、保持クリップ286のシャーシ44からの取り外しは、一次磁石280が摩耗したとき(たとえば、一次磁石280の磁気強度がしきい値を下回ったとき)などに、一次磁石280の交換を可能としうる。たとえば、一次磁石280をシャーシ44から取り外すために、オペレータ(たとえば、サービス技術者)は、最初に蓋42をシャーシ44から取り外し、保持クリップ286をシャーシ44から取り外し、続いて一次磁石280をシャーシ44から取り外しうる。一次磁石280の代わりに新しい磁石を再設置するために、オペレータは、交換用磁石をシャーシ44の適切な位置に挿入し、前述したステップを逆の順序で実行しうる。
【0077】
図12は、蓋42の実施形態の底面図である。いくつかの実施形態において、蓋42は、蓋42の内面292に(たとえば、締め具を介して、適切な接着剤を介して)結合される1以上の二次磁石290を含みうる。以下で論じられるように、二次磁石290は、ウェアラブル視覚化デバイス12をゲストインターフェースデバイス14に取り外し可能に結合することを容易化するために、一次磁石280に加えて、またはその代わりに使用されうる。
図12の図示された実施形態には3つの二次磁石290が示されているが、他の実施形態では、任意の適切な数量の二次磁石290が蓋42に結合されうる、ことを理解されたい。
【0078】
図13は、ウェアラブル視覚化デバイス12の実施形態の背面図である。
図14は、ウェアラブル視覚化デバイス12およびゲストインターフェースデバイス14の実施形態の透視図である。
図13および14は、以下で共に論じられる。さらに、ゲストインターフェースデバイス14のための様々な異なる構造が想定されるので、
図14は、ゲストインターフェースデバイス14のための様々な異なる構造(たとえば、
図14のバイザーと比較したヘルメット)を図示している、ということに留意されたい。
【0079】
ウェアラブル視覚化デバイス12は、ゲストインターフェースデバイス14のそれぞれの支持リブ302と係合するように構成された複数の支持溝300を含みうる。いくつかの実施形態において、支持溝300は、ハウジング18の第1および第2の周辺部54、56内に形成されるとともに、ハウジング18の表面304の少なくとも一部に沿って延びる。たとえば、支持溝300は、ハウジング18の遠位端面306から、概して方向308に沿って延びうる。
【0080】
ゲストインターフェースデバイス14は、第1の周辺端312と、第1の周辺端312の反対側の第2の周辺端と、第1の周辺端312と第2の周辺端との間で延びる縁314と、を有するインターフェースフレーム310を含む。インターフェースフレーム310は、インターフェースフレーム310の外面318から突出する複数の支持リブ302を含む。特に、インターフェースフレーム310は、第1の周辺端312から延びる第1の支持リブ320と、第2の周辺端から延びる第2の支持リブと、を含みうる。以下で論じられるように、支持リブ302は、インターフェースフレーム310上のウェアラブル視覚化デバイス12を支持するとともにウェアラブル視覚化デバイス12のインターフェースフレーム310への結合を容易化するために、支持溝300のうち対応するものと係合するように構成される。
【0081】
インターフェースフレーム310は、インターフェースフレーム310(たとえば、縁314内)に結合および/または統合される(たとえば、その中に密閉される)1以上の三次磁石324を含みうる。さらに、インターフェースフレーム310は、インターフェースフレーム310の第1の周辺端312および/または第2の周辺端に結合および/または統合される(たとえば、その中に密閉される)1以上の四次磁石326を含みうる。
【0082】
ウェアラブル視覚化デバイス12をゲストインターフェースデバイス14に結合するために、ユーザは、(たとえば、ゲストインターフェースデバイス14をユーザの手に保持している間、およびゲストインターフェースデバイス14がユーザの頭から分離されている間、ユーザの頭にゲストインターフェースデバイス14を着用している間、)ゲストインターフェースデバイス14の支持リブ302がウェアラブル視覚化デバイス12の対応する支持溝300と係合することを可能とするために、ウェアラブル視覚化デバイス12を、方向340に、概して方向308とは反対に、ゲストインターフェースデバイス14に向かって平行移動させうる。ユーザは、ハウジング18の遠位端面306が、ゲストインターフェースデバイス14の対応する受容面342に隣接するまで、支持リブ302に沿って(たとえば、方向340に)ウェアラブル視覚化デバイス12を平行移動させうる。そのため、ウェアラブル視覚化デバイスの一次磁石280は、ゲストインターフェースデバイス14の四次磁石326と位置が合うとともに磁気的に結合しうる。
【0083】
ウェアラブル視覚化デバイス12の蓋42の少なくとも一部は、ウェアラブル視覚化デバイス12の二次磁石290がゲストインターフェースデバイス14の三次磁石324と係合するとともに磁気的に結合することを可能とするために、ゲストインターフェースデバイス14の縁314の下でそれに沿って平行移動するように構成されうる。この目的を達成するために、支持リブ302と支持溝300との間の機械的係合は、(たとえば、ゲストインターフェースデバイス14に結合された場合に)ウェアラブル視覚化デバイス12の実質的にすべての重量を支持しうる一方、一次および四次磁石280、326、および/または二次および三次磁石290、324の間の磁気的係合は、ウェアラブル視覚化デバイス12がゲストインターフェースデバイス14から外れる(たとえば、滑り落ちる)ことを防ぐ。実際、ウェアラブル視覚化デバイス12を(たとえば、
図1に示されているような)係合構成34から離脱構成36に移行するときなどの、一次および四次磁石280、326を磁気的に分離する、および/または二次および三次磁石290、324を磁気的に分離するために利用される力は、たとえば、重力に起因して、ユーザの頭の揺れまたは回転に起因して、またはウェアラブル視覚化デバイス12との他の不注意な接触に起因してウェアラブル視覚化デバイス12に働く力よりも大きい、ということを理解されたい。したがって、磁石280、290、324、および326は、支持リブ302および支持溝300と併せて、ユーザがウェアラブル視覚化デバイス12をゲストインターフェースデバイス14から手動で取り外すまで、ウェアラブル視覚化デバイス12をゲストインターフェースデバイス14上で係合構成34に保持するように構成されうる。
【0084】
ゲストインターフェースデバイス14からウェアラブル視覚化デバイス12を取り外すために、ユーザは、ウェアラブル視覚化デバイス12を、ウェアラブル視覚化デバイス12の一次磁石280がゲストインターフェースデバイス14の四次磁石326から磁気的に分離することを可能とするように、および/または、ウェアラブル視覚化デバイス12の二次磁石290がウェアラブル視覚化デバイス12の三次磁石324から磁気的に分離することを可能とするように、概して方向340と反対の方向308でゲストインターフェースデバイス14から離して平行移動させうる。ユーザは、ウェアラブル視覚化デバイス12をゲストインターフェースデバイス14から取り外す(たとえば、分離する)ために、ウェアラブル視覚化デバイス12をゲストインターフェースデバイス14に対して方向308に平行移動させ続けうる。
【0085】
特定の実施形態では、一次磁石280または四次磁石326、および/または二次磁石290または三次磁石324が適切な反応材料(たとえば、金属板)で置き換えられうる、ということを理解されたい。そのため、磁石280、290、324、および/または326は、別の磁石の代わりに対応する反応材料を引き付けるように構成されうる。さらに、特定の実施形態では、磁石280、290、324、および/または326のうちいずれかが、有線または無線の電源(たとえば、電池)を介して電力供給される適切な電磁石と交換されうる。そのような場合、電磁石は、ユーザがアミューズメントパーク乗り物の乗り物車両から荷降ろしする荷降ろしプロセス中のような特定の時間で、ゲストインターフェースデバイス14からのウェアラブル視覚化デバイス12の分離を可能とするために非アクティブ化されうる。同様に、電磁石は、ユーザがアミューズメントパーク乗り物の乗り物車両に荷積みする荷積みプロセス中のような特定の時間で、ウェアラブル視覚化デバイス12のゲストインターフェースデバイス14への固定を容易化するためにアクティブ化されうる。非アクティブ化およびアクティブ化は、ウェアラブル視覚化デバイス12の位置に基づいて、AR/VRシステム10によって自動的に実行されうる。
【0086】
検討を容易化するために、磁石280、290、324、および/または326が、本明細書では、それぞれ、一次磁石、二次磁石、三次磁石、および四次磁石として記載されている、ということに留意されたい。ただし、磁石280、290、324、326(たとえば、それぞれ、第1の磁石、第2の磁石、第3の磁石、および第4の磁石)に言及するためには他の用語が使用されうる。さらに、特定の実施形態において、一次磁石280または四次磁石324、および/または二次磁石290または三次磁石324は、AR/VRシステム10から省略されうる。
【0087】
いくつかの実施形態において、ウェアラブル視覚化デバイス12は、ハウジング18に結合されるとともにたとえばハウジング18の第1の周辺部54の近くに配置された近接センサ350(たとえば、ホール効果センサ)を含みうる。特に、近接センサ350は、ハウジング18の遠位端面306の近くに配置されうる。近接センサ350は、電子ボード142に通信可能に結合されるとともに、ウェアラブル視覚化デバイス12が(たとえば、ゲストインターフェースデバイス14と合わさった)係合構成34にあるか、または(たとえば、ゲストインターフェースデバイス14から分離した)離脱構成36にあるか否かを示すフィードバックをプロセッサ166(または別の適切な処理コンポーネント)に提供するように構成されうる。特に、近接センサ350は、ウェアラブル視覚化デバイス12がゲストインターフェースデバイス14のしきい値距離内にあるときにトリガされ(たとえば、信号を生成し)、したがって、ウェアラブル視覚化デバイス12が係合構成34にいつ配置されるかを判定するために使用されうる。例として、近接センサ350は、ウェアラブル視覚化デバイス12の第1の周辺部54の遠位端面306がインターフェースフレーム310の第1の周辺端312の受容面342としきい値距離内にあるかまたは接触しているときにトリガされうる。
【0088】
いくつかの実施形態において、プロセッサ166は、近接センサ350から受信されたフィードバックを定期的または連続的に監視しうる。ウェアラブル視覚化デバイス12が係合構成34にあることを示すフィードバックを近接センサ350から受信すると、プロセッサ166は、ウェアラブル視覚化デバイス12がゲストインターフェースデバイス14と首尾よく合わされたことを確認する標示をユーザに提供する。例として、ウェアラブル視覚化デバイス12が係合構成34にあることを示すフィードバックを受信すると、プロセッサ166は、光の特定の色相または色(たとえば、緑)を投射するようにライトアセンブリ160に指示し、ユーザに聴覚的メッセージを提供するようにウェアラブル視覚化デバイス12の1以上の音響スピーカを制御し、レンズ20上でユーザにメッセージを表示するように画面78を制御し、および/または別の適切な媒体を介してユーザおよび/またはオペレータにフィードバックを提供しうる。
【0089】
他の実施形態では、ウェアラブル視覚化デバイス12が、ウェアラブル視覚化デバイス12の任意の適切な部分に沿って配置される複数の近接センサを含みうる、ということを理解されたい。たとえば、ウェアラブル視覚化デバイス12は、ハウジング18の第1の周辺部54内に配置された第1の近接センサと、ハウジング18の第2の周辺部56内に配置された第2の近接センサと、を含みうる。そのような実施形態において、プロセッサ166は、第1および第2の近接センサの両方がトリガされるというフィードバックを受信したときにウェアラブル視覚化デバイス12がゲストインターフェースデバイス14に結合されていると判定しうる。実際、特定の実施形態において、プロセッサ166は、任意の1つの特定の近接センサがトリガされる、またはウェアラブル視覚化デバイス12に含まれる近接センサのしきい値数量がトリガされるというフィードバックを受信したときに、ウェアラブル視覚化デバイス12がゲストインターフェースデバイス14に結合されていると判定しうる。
【0090】
図15は、ウェアラブル視覚化デバイス12、およびウェアラブル視覚化デバイス12を受容するように構成されたレセプタクル370の実施形態の透視図である。いくつかの実施形態において、ウェアラブル視覚化デバイス12は、ウェアラブル視覚化デバイス12がユーザのゲストインターフェースデバイス14に取り付けられていない場合にレセプタクル370内に収納されうる。例として、レセプタクル370は、乗り物のラップバー(lap bar)372内に形成された空洞または他の収納領域を含みうる。いくつかの実施形態において、プロセッサ166は、ウェアラブル視覚化デバイス12がレセプタクル370内の収納構成374にあるか否かを判定するために、近接センサ350および/またはIMU152(たとえば、方位センサ)からのフィードバックを利用するように構成されうる。
【0091】
たとえば、IMU152は、加速度計、ジャイロスコープ、磁力計、および/またはセンサフュージョンアルゴリズムを実行するためのプロセッサを備えた9自由度のシステムオンチップを含みうる。プロセッサ166は、様々な軸に沿った(たとえば、重力の方向に対する)ウェアラブル視覚化デバイス12の方位を判定するために、IMU152から受信したフィードバックを利用しうる。いくつかの実施形態において、ウェアラブル視覚化デバイス12がレセプタクル370内に配置されるときにおけるウェアラブル視覚化デバイス12の、本明細書において収納方位と呼ばれる方位は、既知であり、たとえば、メモリ158に記憶されうる。
【0092】
プロセッサ166は、ウェアラブル視覚化デバイス12が収納方位にあるというフィードバックをIMU152から受信したとき、および、たとえばレンズマウント46がレセプタクル370の合わせ面382からしきい値距離離れているまたは合わせ面382と接触しているというフィードバックを近接センサ380(たとえば、レンズマウント46と隣接して設けられた近接センサ、近接センサ350)から受信したときに、ウェアラブル視覚化デバイス12が収納構成374にあると判定しうる。プロセッサ166は、ユーザがウェアラブル視覚化デバイス12を収納方位に一時的に向けているとき(たとえば、ウェアラブル視覚化デバイス12をゲストインターフェースデバイス14に合わせるプロセス中など)は、ウェアラブル視覚化デバイス12が収納構成374にあると不注意に判定しない。代わりに、プロセッサ166は、ウェアラブル視覚化デバイス12がレセプタクル370内に特定の角度で配置されているとともに合わせ面382と係合(物理的に接触)していることを示すフィードバックをIMU152および近接センサ350の両方から受信したときに、ウェアラブル視覚化デバイス12が収納構成374内に配置されていると判定しうる。上術した技術によれば、プロセッサ116は、ウェアラブル視覚化デバイス12が収納構成374に移行される判定されたときに、聴覚的および/または視覚的なアラートまたは確認を提供するように構成されうる。一例として、ウェアラブル視覚化デバイス12が収納構成374に移行したと判定すると、プロセッサ166は、青色または他の色相の光を放出するようにライトアセンブリ160に指示しうる。
【0093】
いくつかの実施形態において、ラップバー372は、収納構成374にあるウェアラブル視覚化デバイス12に応じて移動(たとえば、解放)しうる。レセプタクル370は、乗り物車両の任意の部分(たとえば、ダッシュボード、アームレスト、壁など)に配置されうる、ということを理解されたい。レセプタクル370は、(たとえば、乗り物車両がない)他のタイプのアトラクションに使用されうるとともに、レセプタクル370は、座席またはアトラクションの出口のような壁または構造物に配置されうる。
【0094】
以上説明したように、本開示の実施形態は、ウェアラブル視覚化デバイスの全体的な製造コストおよび/または製造の複雑さを低減し、ウェアラブル視覚化デバイスの保守活動の実行を容易化し、かつアミューズメントパーク環境におけるウェアラブル視覚化デバイスの統合を容易化するために有用な1以上の技術的効果を提供しうる。明細書における技術的効果および技術的課題は、例であり、限定的ではない、ということを理解されたい。実際、明細書に記載されている実施形態は、他の技術的効果を有しうるとともに、他の技術的問題を解決することができる、ということに留意されたい。
【0095】
本開示に記載された実施形態は、様々な改変および代替の形態の影響を受けうるが、特定の実施形態は、図面に例として示されているとともに、本明細書に詳細に記載されている。しかしながら、本開示は、開示された特定の形態に限定されることを意図するものではない、ということを理解されたい。本開示は、以下の添付された特許請求の範囲によって定義される本開示の精神および範囲内に入るすべての変形、等価物、および代替をカバーするものである。
【0096】
本明細書で提示およびクレームされた技術は、現在の技術分野を実証的に改善する実用的な性質の物質的対象および具体例に参照および適用され、そのため、抽象的、無形的、または純粋に理論的なものではない。さらに、「[機能]を[実行]するための手段…」または「[機能]を[実行]するためのステップ…」として指定された1以上の要素を本明細書の最後に添付される請求項が含む場合、そのような要素は米国特許法第112条(f)に基づいて解釈される、ということが意図されている。しかしながら、その他の方法で指定された要素を含む任意の請求項については、そのような要素は米国特許法第112条(f)に基づいて解釈されない、ということが意図されている。
【国際調査報告】