IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ マジック リープ, インコーポレイテッドの特許一覧

特許7406602オーディオファイルの頭部姿勢ミキシング
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-19
(45)【発行日】2023-12-27
(54)【発明の名称】オーディオファイルの頭部姿勢ミキシング
(51)【国際特許分類】
   G06F 3/01 20060101AFI20231220BHJP
   G06F 3/16 20060101ALI20231220BHJP
   H04R 3/00 20060101ALI20231220BHJP
   H04N 23/66 20230101ALI20231220BHJP
   G06T 19/00 20110101ALI20231220BHJP
【FI】
G06F3/01 510
G06F3/01 570
G06F3/16 540
H04R3/00 310
H04N23/66
G06T19/00 600
G06T19/00 300B
G06F3/16 610
G06F3/16 620
G06F3/16 680
【請求項の数】 20
(21)【出願番号】P 2022135746
(22)【出願日】2022-08-29
(62)【分割の表示】P 2021083750の分割
【原出願日】2016-09-13
(65)【公開番号】P2022177024
(43)【公開日】2022-11-30
【審査請求日】2022-08-29
(31)【優先権主張番号】62/219,604
(32)【優先日】2015-09-16
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】62/289,085
(32)【優先日】2016-01-29
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】514108838
【氏名又は名称】マジック リープ, インコーポレイテッド
【氏名又は名称原語表記】Magic Leap,Inc.
【住所又は居所原語表記】7500 W SUNRISE BLVD,PLANTATION,FL 33322 USA
(74)【代理人】
【識別番号】100078282
【弁理士】
【氏名又は名称】山本 秀策
(74)【代理人】
【識別番号】100113413
【弁理士】
【氏名又は名称】森下 夏樹
(74)【代理人】
【識別番号】100181674
【弁理士】
【氏名又は名称】飯田 貴敏
(74)【代理人】
【識別番号】100181641
【弁理士】
【氏名又は名称】石川 大輔
(74)【代理人】
【識別番号】230113332
【弁護士】
【氏名又は名称】山本 健策
(72)【発明者】
【氏名】スティーブン ビンセント マンジアット
(72)【発明者】
【氏名】マイケル ベンソン タッカー
(72)【発明者】
【氏名】アナスタシア アンドレエヴナ タジク
【審査官】田川 泰宏
(56)【参考文献】
【文献】米国特許出願公開第2014/0115468(US,A1)
【文献】韓国公開特許第10-2014-0000948(KR,A)
【文献】特開2015-143987(JP,A)
【文献】特開平11-352960(JP,A)
【文献】特表2015-503141(JP,A)
【文献】米国特許出願公開第2014/0328505(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01-3/04895
G06F 3/16
H04R 3/00
H04N 23/60
G06T 19/00
(57)【特許請求の範囲】
【請求項1】
ウェアラブルデバイスであって、
複数のステムトラックを含むオーディオファイルを記憶するように構成される非一過性メモリであって、各ステムトラックは、前記オーディオファイルの異なるオーディオコンテンツを表す、非一過性メモリと、
前記ウェアラブルデバイスのユーザの姿勢を判定するのに使用可能な情報を提供するように構成されるセンサと、
画像を前記ウェアラブルデバイスのユーザの眼に提示するように構成されるディスプレイと、
音を前記ウェアラブルデバイスのユーザに提示するように構成されるスピーカと、
前記非一過性メモリ、前記センサ、前記スピーカ、および前記ディスプレイと通信するプロセッサであって、前記プロセッサは、
前記ユーザの姿勢を判定することと、
対応する1つ以上の可聴領域と関連付けられた1つ以上の仮想音源に対する3次元(3D)環境内の前記ユーザの相対的場所を判定することであって、可聴領域は、前記ユーザが前記スピーカを通して前記オーディオファイルの前記複数のステムトラックのうちの1つ以上のステムトラックを知覚することが可能な前記3D環境の領域を含む、ことと、
前記ユーザの前記判定された相対的場所と関連付けられた1つ以上の可聴領域を選択することと、
前記選択された1つ以上の可聴領域と関連付けられた前記オーディオファイルの前記複数のステムトラックのうちの1つ以上のステムトラックを選択することと、
前記複数のステムトラックのうちの前記1つ以上の選択されたステムトラックのオーディオデータを生成することと、
前記オーディデータを表すオーディオ信号を前記スピーカに通信することと
を行うための実行可能命令でプログラムされる、プロセッサと
を備える、ウェアラブルデバイス。
【請求項2】
前記1つ以上のハードウェアプロセッサは、
少なくとも部分的に、前記ユーザの姿勢および前記オーディオデータに基づいて、前記1つ以上の仮想音源の表現を備える前記オーディオデータの可視化を生成することと、
前記オーディオデータの可視化を表す視覚的信号を前記ディスプレイに通信することと
を行うように構成される、請求項1に記載のウェアラブルデバイス。
【請求項3】
前記複数のステムトラックの1つ以上のステムトラックは、前記ステムトラックの空間場所および空間指向性と関連付けられた情報を含む、請求項1に記載のウェアラブルデバイス。
【請求項4】
前記センサは、ジャイロスコープ、加速度計、慣性測定ユニット、眼追跡カメラ、または前記ユーザの環境を撮像するように構成されるカメラのうちの少なくとも1つを備える、請求項1に記載のウェアラブルデバイス。
【請求項5】
前記姿勢は、頭部姿勢、眼姿勢、身体姿勢、または手のジェスチャのうちの少なくとも1つを備える、請求項1に記載のウェアラブルデバイス。
【請求項6】
前記可視化は、前記複数のステムトラックの個別のステムトラックと関連付けられた視覚的グラフィックを備える、請求項に記載のウェアラブルデバイス。
【請求項7】
前記視覚的グラフィックは、前記ステムトラックの演奏と関連付けられた楽器または人物のグラフィカル表現を備える、請求項6に記載のウェアラブルデバイス。
【請求項8】
前記視覚的グラフィックの少なくとも一部は、前記ユーザに対して異なる深度平面において提示される、請求項6に記載のウェアラブルデバイス。
【請求項9】
前記ウェアラブルデバイスは、前記ユーザの環境内の物理的オブジェクトを認識し、前記複数のステムトラックのうちのステムトラックのグラフィカル表現を前記物理的オブジェクトと関連付けられているように提示するように構成される、請求項1に記載のウェアラブルデバイス。
【請求項10】
前記ウェアラブルデバイスは、ユーザ入力デバイスから入力を受信するように構成され、前記プロセッサは、少なくとも部分的に、前記入力に基づいて、前記オーディオデータまたは前記可視化を生成するように構成される、請求項に記載のウェアラブルデバイス。
【請求項11】
オーディオファイルと相互作用するための方法であって、前記方法は、
ウェアラブルデバイスであって、前記ウェアラブルデバイスは、ハードウェアコンピュータプロセッサと、前記ウェアラブルデバイスのユーザの姿勢を判定するのに使用可能な情報を提供するように構成されるセンサと、画像を前記ウェアラブルデバイスのユーザの眼に提示するように構成されるディスプレイと、音を前記ウェアラブルデバイスのユーザに提示するように構成されるスピーカとを備える、ウェアラブルデバイスの制御下で、
オーディオファイルと関連付けられた複数のステムトラックにアクセスすることと、
前記ユーザの姿勢を検出することと、
対応する1つ以上の可聴領域と関連付けられた1つ以上の仮想音源に対する3次元(3D)環境内の前記ユーザの相対的場所を判定することであって、可聴領域は、前記ユーザが前記スピーカを通して前記オーディオファイルの前記複数のステムトラックのうちの1つ以上のステムトラックを知覚することが可能な前記3D環境の領域を含む、ことと、
前記ユーザの前記判定された相対的場所と関連付けられた1つ以上の可聴領域を選択することと、
前記選択された1つ以上の可聴領域と関連付けられた前記オーディオファイルの前記複数のステムトラックのうちの1つ以上のステムトラックを選択することと、
前記複数のステムトラックのうちの前記選択された少なくとも1つのステムトラックのオーディオデータを生成することと、
前記オーディオデータを表すオーディオ信号を前記スピーカに通信することと
を実行することを含む、方法。
【請求項12】
少なくとも部分的に、前記ユーザの姿勢および前記オーディオデータに基づいて、前記1つ以上の仮想音源の表現を備える前記オーディオデータの可視化を生成することと、
前記オーディオデータの可視化を表す視覚的信号を前記ディスプレイに通信することと
を含む、請求項11に記載の方法。
【請求項13】
前記複数のステムトラックの1つ以上のステムトラックは、前記ステムトラックの空間場所および空間指向性と関連付けられた情報を含む、請求項11に記載の方法。
【請求項14】
前記可視化は、前記複数のステムトラックの個別のステムトラックに対応する視覚的グラフィックを含む、請求項12に記載の方法。
【請求項15】
前記視覚的グラフィックは、前記個別のステムトラックと関連付けられた楽器または前記個別のステムトラックと関連付けられた楽器を演奏する人物を含む、請求項14に記載の方法。
【請求項16】
前記視覚的グラフィックの少なくとも一部は、前記ユーザに対して異なる深度平面において提示される、請求項14に記載の方法。
【請求項17】
前記姿勢は、頭部姿勢、眼姿勢、身体姿勢、または手のジェスチャのうちの少なくとも1つを備える、請求項11に記載の方法。
【請求項18】
前記可視化を更新することは、複数のステムトラックのステムトラックと関連付けられた視覚的グラフィックを強調または強調解除することを含む、請求項12に記載の方法。
【請求項19】
前記複数のステムトラックのうちのステムトラックの選択を受信することと、
前記ステムトラックを修正するためのインジケーションを受信することであって、前記インジケーションは、前記ユーザの姿勢の変化またはユーザ入力デバイスからの入力を含む、ことと、
少なくとも部分的に、前記インジケーションに基づいて、前記ステムトラックを修正することと、
をさらに含む、請求項11に記載の方法。
【請求項20】
前記ステムトラックを修正することは、音量を調節することと、前記ステムトラックと別のステムトラックを置換することと、前記ステムトラックを消音することと、前記複数のステムトラックの他のステムトラックより前記ステムトラックを強調することとのうちの少なくとも1つを含む、請求項19に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願の相互参照)
本願は、2015年9月16日に出願され“HEAD POSE MIXING OF AUDIO FILES”と題された米国仮出願第62/219,604号および2016年1月29日に出願され“HEAD POSE MIXING OF AUDIO FILES”と題された米国仮出願第62/289,085号に対して35 U.S.C. § 119(e)のもとで優先権の利益を主張するものである。両仮出願は、それらの全体が参照により本明細書中に援用される。
【0002】
(分野)
本開示は、仮想現実および拡張現実イメージングおよび可視化システムに関し、特に、ユーザの姿勢に基づいて、オーディオファイルをミックスするためのシステムに関する。
【背景技術】
【0003】
現代のコンピューティングおよびディスプレイ技術は、デジタル的に再現された画像またはその一部が、本物であるように見える、またはそのように知覚され得る様式でユーザに提示される、いわゆる「仮想現実」、「拡張現実」、または「複合現実」体験のためのシステムの開発を促進している。仮想現実または「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対して透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実または「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化の拡張としてデジタルまたは仮想画像情報の提示を伴う。複合現実または「MR」は、物理的および仮想オブジェクトが、共存し、リアルタイムで相互作用する、新しい環境を生成するための実世界と仮想世界の融合に関連する。結論から述べると、ヒト視知覚系は、非常に複雑であって、他の仮想または実世界画像要素の中で仮想画像要素の快適かつ自然な感覚で豊かな提示を促進する、VR、AR、またはMR技術を生成することは、困難である。本明細書に開示されるシステムおよび方法は、VR、AR、およびMR技術に関連する種々の課題に対処する。
【発明の概要】
【課題を解決するための手段】
【0004】
(概要)
ディスプレイデバイスのユーザに、オーディオファイルの聴覚的または視覚的表現を提示することができる、ウェアラブルデバイスの実施例が、説明される。オーディオファイルは、オーディオファイルの異なるオーディオコンテンツを表す複数のステムトラックを備える。
【0005】
ウェアラブルデバイスの実施形態は、複数のステムトラックを含むオーディオファイルを記憶するように構成される、非一過性メモリであって、各ステムトラックは、オーディオファイルの異なるオーディオコンテンツを表す、非一過性メモリと、ウェアラブルデバイスのユーザの姿勢と関連付けられた情報を測定するように構成される、センサと、画像をウェアラブルデバイスのユーザの眼に提示するように構成される、ディスプレイと、音をウェアラブルデバイスのユーザに提示するように構成される、スピーカと、非一過性メモリ、センサ、スピーカ、およびディスプレイと通信する、プロセッサとを備える。プロセッサは、ユーザの姿勢を判定することと、少なくとも部分的に、ユーザの姿勢に基づいて、オーディオファイルの複数のステムトラックのうちの少なくとも1つのオーディオミックスを生成することと、少なくとも部分的に、ユーザの姿勢およびオーディオミックスに基づいて、オーディオミックスの可視化を生成することと、オーディオミックスを表すオーディオ信号をスピーカに通信することと、オーディオミックスの可視化を表す視覚的信号をディスプレイに通信することとを行うための実行可能命令でプログラムされる。
【0006】
別の側面では、拡張現実オブジェクトと相互作用するための方法が、説明される。本方法は、ハードウェアコンピュータプロセッサの制御下で行われる。本方法は、ウェアラブルシステムのユーザによる相互作用のための拡張現実オブジェクトを生成するステップと、ユーザがインターフェースと相互作用する間、ユーザのジェスチャを検出するステップと、検出されたジェスチャと拡張現実オブジェクトの特性への修正を関連付けるステップと、拡張現実オブジェクトの特性への修正に従って、拡張現実オブジェクトを修正するステップとを含む。ウェアラブルシステムは、拡張現実オブジェクトと相互作用するための方法を行う、プロセッサを含むことができる。 本明細書は、例えば以下の項目も提供する。
(項目1)
ウェアラブルデバイスであって、
複数のステムトラックを含むオーディオファイルを記憶するように構成される非一過性メモリであって、各ステムトラックは、前記オーディオファイルの異なるオーディオコンテンツを表す、非一過性メモリと、
前記ウェアラブルデバイスのユーザの姿勢と関連付けられた情報を測定するように構成されるセンサと、
画像を前記ウェアラブルデバイスのユーザの眼に提示するように構成されるディスプレイと、
音を前記ウェアラブルデバイスのユーザに提示するように構成されるスピーカと、
前記非一過性メモリ、前記センサ、前記スピーカ、および前記ディスプレイと通信するプロセッサであって、前記プロセッサは、
前記ユーザの姿勢を判定することと、
少なくとも部分的に、前記ユーザの姿勢に基づいて、前記オーディオファイルの複数のステムトラックのうちの少なくとも1つのオーディオミックスを生成することと、
少なくとも部分的に、前記ユーザの姿勢および前記オーディオミックスに基づいて、前記オーディオミックスの可視化を生成することと、
前記オーディオミックスを表すオーディオ信号を前記スピーカに通信することと、
前記オーディオミックスの可視化を表す視覚的信号を前記ディスプレイに通信することと
を行うための実行可能命令でプログラムされる、プロセッサと
を備える、ウェアラブルデバイス。
(項目2)
前記複数のステムトラックのステムトラックは、異なる楽器またはボーカルトラックと関連付けられる、項目1に記載のウェアラブルデバイス。
(項目3)
前記複数のステムトラックの少なくとも1つのステムトラックは、前記ステムトラックの空間場所および空間指向性と関連付けられた情報を含む、項目1に記載のウェアラブルデバイス。
(項目4)
前記センサは、ジャイロスコープ、加速度計、慣性測定ユニット、眼追跡カメラ、または前記ユーザの環境を撮像するように構成されるカメラのうちの少なくとも1つを備える、項目1に記載のウェアラブルデバイス。
(項目5)
前記姿勢は、頭部姿勢、眼姿勢、身体姿勢、または手のジェスチャのうちの少なくとも1つを備える、項目1に記載のウェアラブルデバイス。
(項目6)
前記可視化は、前記複数のステムトラックの個別のステムトラックと関連付けられた視覚的グラフィックを備える、項目1に記載のウェアラブルデバイス。
(項目7)
前記視覚的グラフィックは、前記ステムトラックの演奏と関連付けられた楽器または人物のグラフィカル表現を備える、項目6に記載のウェアラブルデバイス。
(項目8)
前記視覚的グラフィックの少なくとも一部は、前記ユーザに対して異なる深度平面において提示される、項目6に記載のウェアラブルデバイス。
(項目9)
前記ウェアラブルデバイスは、前記ユーザの環境内の物理的オブジェクトを認識し、前記複数のステムトラックのうちのステムトラックのグラフィカル表現を前記物理的オブジェクトと関連付けられているように提示するように構成される、項目1に記載のウェアラブルデバイス。
(項目10)
前記ウェアラブルデバイスは、ユーザ入力デバイスから入力を受信するように構成され、前記プロセッサは、少なくとも部分的に、前記入力に基づいて、前記オーディオミックスまたは前記可視化を生成するように構成される、項目1に記載のウェアラブルデバイス。
(項目11)
オーディオファイルと相互作用するための方法であって、前記方法は、
ハードウェアコンピュータプロセッサと、前記ウェアラブルデバイスのユーザの姿勢と関連付けられた情報を測定するように構成されるセンサと、画像を前記ウェアラブルデバイスのユーザの眼に提示するように構成されるディスプレイと、音を前記ウェアラブルデバイスのユーザに提示するように構成されるスピーカとを備える、ウェアラブルデバイスの制御下で、
オーディオファイルと関連付けられた複数のステムトラックにアクセスするステップと、
前記複数のステムトラックの可視化を生成するステップと、
前記ユーザの姿勢を検出するステップと、
少なくとも部分的に、前記ユーザの姿勢に基づいて、前記オーディオファイルの複数のステムトラックのうちの少なくとも1つのオーディオミックスを生成するステップと、
少なくとも、前記ユーザの姿勢または前記オーディオミックスのうちの1つに基づいて、前記複数のステムトラックの可視化を更新するステップと、
前記オーディオミックスを表すオーディオ信号を前記スピーカに通信するステップと、
前記オーディオミックスの可視化を表す視覚的信号を前記ディスプレイに通信するステップと
を含む、方法。
(項目12)
前記複数のステムトラックのステムトラックは、異なる楽器またはボーカルトラックと関連付けられる、項目11に記載の方法。
(項目13)
前記複数のステムトラックの少なくとも1つのステムトラックは、前記ステムトラックの空間場所および空間指向性と関連付けられた情報を含む、項目11に記載の方法。
(項目14)
前記可視化は、前記複数のステムトラックの個別のステムトラックに対応する視覚的グラフィックを含む、項目11に記載の方法。
(項目15)
前記視覚的グラフィックは、前記個別のステムトラックと関連付けられた楽器または前記個別のステムトラックと関連付けられた楽器を演奏する人物を含む、項目14に記載の方法。
(項目16)
前記視覚的グラフィックの少なくとも一部は、前記ユーザに対して異なる深度平面において提示される、項目14に記載の方法。
(項目17)
前記姿勢は、頭部姿勢、眼姿勢、身体姿勢、または手のジェスチャのうちの少なくとも1つを備える、項目11に記載の方法。
(項目18)
前記可視化を更新するステップは、複数のステムトラックのステムトラックと関連付けられた視覚的グラフィックを強調または強調解除するステップを含む、項目11に記載の方法。
(項目19)
前記複数のステムトラックのうちのステムトラックの選択を受信するステップと、
前記ステムトラックを修正するためのインジケーションを受信するステップであって、前記インジケーションは、前記ユーザの姿勢の変化またはユーザ入力デバイスからの入力を含む、ステップと、
少なくとも部分的に、前記インジケーションに基づいて、前記ステムトラックを修正するステップと、
をさらに含む、項目11に記載の方法。
(項目20)
前記ステムトラックを修正するステップは、音量を調節するステップと、前記ステムトラックと別のステムトラックを置換するステップと、前記ステムトラックを消音するステップと、前記複数のステムトラックの他のステムトラックより前記ステムトラックを強調するステップとのうちの少なくとも1つを含む、項目19に記載の方法。
【0007】
本明細書に説明される主題の1つまたはそれを上回る実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。本概要または以下の発明を実施するための形態のいずれも、本発明の主題の範囲を定義または限定することを主張するものではない。
【図面の簡単な説明】
【0008】
図1図1は、人物によって視認されるある仮想現実オブジェクトおよびある物理的オブジェクトを伴う、複合現実シナリオの例証を描写する。
【0009】
図2図2は、ウェアラブルシステムの実施例を図式的に図示する。
【0010】
図3図3は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図式的に図示する。
【0011】
図4図4は、画像情報をユーザに出力するための導波管スタックの実施例を図式的に図示する。
【0012】
図5図5は、導波管によって出力され得る、例示的出射ビームを示す。
【0013】
図6図6は、導波管装置と、光を導波管装置へまたはそこから光学的に結合するための光学結合器サブシステムと、多焦点立体ディスプレイ、画像、またはライトフィールドの生成において使用される、制御サブシステムとを含む、光学システムを示す、概略図である。
【0014】
図7図7は、ウェアラブルシステムの実施例のブロック図である。
【0015】
図8図8は、認識されるオブジェクトに関連して仮想コンテンツをレンダリングする方法の実施例のプロセスフロー図である。
【0016】
図9図9は、ウェアラブルシステムの別の実施例のブロック図である。
【0017】
図10図10は、ウェアラブルシステムへのユーザ入力を判定するための方法の実施例のプロセスフロー図である。
【0018】
図11図11は、仮想ユーザインターフェースと相互作用するための方法の実施例のプロセスフロー図である。
【0019】
図12図12-14は、ウェアラブルシステムのユーザに、オーディオファイルの複数のステムトラックの可視化を提示する、ユーザインターフェースの実施例を図式的に図示し、オーディオファイルは、少なくとも部分的に、ユーザの姿勢に基づいて、動的にミックスされる。
図13図12-14は、ウェアラブルシステムのユーザに、オーディオファイルの複数のステムトラックの可視化を提示する、ユーザインターフェースの実施例を図式的に図示し、オーディオファイルは、少なくとも部分的に、ユーザの姿勢に基づいて、動的にミックスされる。
図14図12-14は、ウェアラブルシステムのユーザに、オーディオファイルの複数のステムトラックの可視化を提示する、ユーザインターフェースの実施例を図式的に図示し、オーディオファイルは、少なくとも部分的に、ユーザの姿勢に基づいて、動的にミックスされる。
【0020】
図15図15は、異なる視覚的グラフィックをユーザの環境内の異なる深度において示す、3Dユーザインターフェースの実施例を図示する。
【0021】
図16A図16Aおよび16Bは、音源の指向性の実施例を図示する。
図16B図16Aおよび16Bは、音源の指向性の実施例を図示する。
【0022】
図17図17は、音コラージュ効果を生成する実施例を図示する。
【0023】
図18図18は、オーディオファイルを視覚的かつ聴覚的に提示する例示的プロセスを図示する。
【0024】
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用され得る。図面は、本明細書に説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図されない。
【発明を実施するための形態】
【0025】
(概観)
オーディオファイルは、例えば、音声、ドラム、ギター、ベース、または他の音に関するオーディオ信号を表す、複数のステムトラックを含むことができる。ステムトラックは、ドラムのグループまたは楽器の四重奏等の複数の楽器と関連付けられる、または音声または1つの楽器等の単一音源と関連付けられてもよい。単一ステムトラックは、モノ、ステレオ、または周囲音トラックを表すことができる。オーディオファイルは、1、2、3、4、5、6、8、10、12、またはそれを上回るステムトラックを含むことができる。ステムトラックに加え、オーディオファイルはまた、標準的再生のためのマスタトラックを含むことができる。
【0026】
ユーザは、オーディオファイル内のステムトラックと相互作用し、ステムトラックをミックスすることによって、新しいオーディオファイルを生成することを所望してもよい。しかしながら、既存のユーザインターフェースは、多くの場合、典型的には、ステムトラックの可視化を提供せず、多くの場合、複数のステムトラックを組み合わせるために専門技術を要求するため、本タスクのためには扱いにくい。
【0027】
本明細書に説明されるウェアラブルシステムは、ステムトラックと関連付けられた視覚的グラフィックを提供することによって、本問題を解決することを対象とする。例えば、ステムトラックと関連付けられた視覚的グラフィックは、そのステムトラックのために使用される楽器のグラフィカル表現であってもよい。視覚的グラフィックはまた、ステムトラックが音声と関連付けられる場合、仮想ヒトであってもよい。
【0028】
ウェアラブルシステムは、ユーザが、姿勢(頭部姿勢、身体姿勢、眼姿勢、または手のジェスチャ等)を使用して、ステムトラックと容易に相互作用することを可能にすることができる。例えば、ユーザは、その手を移動させる、またはその頭部の位置を変化させることによって、オーディオファイル内の複数のステムトラックをミックスする、または複数のオーディオファイルを横断してステムトラックをミックスすることができる。ユーザはまた、例えば、ステムトラックを調節する(ステムトラックの音量を調節する等)ことによって、またはステムトラックと別のステムトラックと置換することによって、オーディオファイルを修正することができる。いくつかの実施形態では、ステムトラックのあるミックスは、ユーザの環境内の場所と関連付けられてもよい。ユーザが、環境内のある場所に移動するにつれて、ウェアラブルシステムは、その場所と関連付けられた音(または音の混合物)を再生してもよい。ステムトラックとの相互作用の付加的実施例は、図12-18を参照してさらに説明される。
【0029】
本明細書の実施例は、オーディオファイルを参照して説明されるが、ウェアラブルシステムはまた、ビデオファイルまたはオーディオファイルとビデオファイルとの組み合わせ(ビデオファイルが、オーディオ音トラックを備える場合等)との類似ユーザ相互作用を可能にするように構成されることができる。
(3Dディスプレイ)
【0030】
ウェアラブルシステムは、ユーザがオーディオファイル内のステムトラックの可視化等の仮想コンテンツと相互作用するための3次元(3D)ユーザインターフェースを提示するように構成されることができる。例えば、ウェアラブルシステムは、単独で、または組み合わせて、ユーザ相互作用のためのVR、AR、またはMR環境を提示することができる、ウェアラブルデバイスの一部であってもよい。
【0031】
図1は、人物によって視認される、ある仮想現実オブジェクトおよびある物理的オブジェクトを伴う、複合現実シナリオの例証を描写する。図1では、MR場面100が、描写され、MR技術のユーザには、人々、木々、背景内の建物、およびコンクリートプラットフォーム120を特徴とする、実世界公園状設定110が見える。これらのアイテムに加え、MR技術のユーザはまた、実世界プラットフォーム120上に立っているロボット像130と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ140とが「見える」と知覚するが、これらの要素は、実世界には存在しない。
【0032】
3Dディスプレイが、真の深度感覚、より具体的には、表面深度のシミュレートされた感覚を生成するために、ディスプレイの視野内の点毎に、その仮想深度に対応する遠近調節応答を生成することが望ましい。ディスプレイ点に対する遠近調節応答が、収束および立体視の両眼深度キューによって判定されるようなその点の仮想深度に対応しない場合、ヒトの眼は、遠近調節衝突を体験し、不安定なイメージング、有害な眼精疲労、頭痛、および遠近調節情報の不在下では、表面深度のほぼ完全な欠如をもたらし得る。
【0033】
VR、AR、およびMR体験は、複数の深度平面に対応する画像が視認者に提供されるディスプレイを有する、ディスプレイシステムによって提供されることができる。画像は、深度平面毎に異なってもよく(例えば、場面またはオブジェクトの若干異なる提示を提供する)、視認者の眼によって別個に集束され、それによって、異なる深度平面上に位置する場面に関する異なる画像特徴に合焦させるために要求される眼の遠近調節に基づいて、および/または合焦からずれている異なる深度平面上の異なる画像特徴を観察することに基づいて、ユーザに深度キューを提供することに役立ち得る。本明細書のいずれかに議論されるように、そのような深度キューは、信用できる深度の知覚を提供する。
【0034】
図2は、ウェアラブルシステム200の実施例を図示する。ウェアラブルシステム200は、ディスプレイ220と、ディスプレイ220の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイ220は、ユーザ、装着者、または視認者210によって装着可能である、フレーム230に結合されてもよい。ディスプレイ220は、ユーザ210の眼の正面に位置付けられることができる。ディスプレイ220は、ユーザの頭部に装着される、頭部搭載型ディスプレイ(HMD)を備えることができる。いくつかの実施形態では、スピーカ240が、フレーム230に結合され、ユーザの外耳道に隣接して位置付けられる(いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音響制御を提供する)。図12-16をさらに参照して説明されるように、ウェアラブルシステム200は、スピーカ240を介して、オーディオファイルをユーザに再生し、ディスプレイ220を使用して、音ファイル内の種々のステムトラックの3D可視化を提示することができる。
【0035】
ウェアラブルシステム200はまた、ユーザの周囲の環境内の世界を観察する、外向きに面したイメージングシステム464(図4に示される)を含むことができる。ウェアラブルシステム100はまた、ユーザの眼移動を追跡することができる、内向きに面したイメージングシステム462(図4に示される)を含むことができる。内向きに面したイメージングシステムは、一方の眼の移動または両方の眼の移動のいずれかを追跡することができる。内向きに面したイメージングシステムは、フレーム230に取り付けられてもよく、内向きに面したイメージングシステムによって取得された画像情報を処理し、例えば、ユーザ210の眼または眼姿勢の瞳孔直径および/または配向を判定し得る、処理モジュール260および/または270と電気通信してもよい。
【0036】
実施例として、ウェアラブルシステム200は、外向きに面したイメージングシステム464および/または内向きに面したイメージングシステム462を使用して、ユーザの姿勢の画像を取得することができる。画像は、静止画像、ビデオのフレームまたはビデオ、その組み合わせ、または同等物であってもよい。姿勢は、オーディオファイルのステムトラックをミックスする、またはユーザに提示されるべきオーディオコンテンツを判定するために使用されてもよい。
【0037】
ディスプレイ220は、有線導線または無線接続等によって、フレーム230に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ210に(例えば、バックパック式構成において、ベルト結合式構成において)可撤式に取り付けられる等、種々の構成において搭載され得る、ローカルデータ処理モジュール260に動作可能に結合される(250)。
【0038】
ローカル処理およびデータモジュール260は、ハードウェアプロセッサおよび不揮発性メモリ(例えば、フラッシュメモリ)等のデジタルメモリを備えてもよく、その両方は、データの処理、キャッシング、および記憶を補助するために利用され得る。データは、a)画像捕捉デバイス(例えば、内向きに面したイメージングシステムおよび/または外向きに面したイメージングシステム内のカメラ)、マイクロホン、慣性測定ユニット(IMU)、加速度計、コンパス、全地球測位システム(GPS)ユニット、無線デバイス、および/またはジャイロスコープ等の(例えば、フレーム230に動作可能に結合される、または別様にユーザ210に取り付けられ得る)センサから捕捉されるデータ、および/または、b)場合によってはそのような処理または読出後にディスプレイ220への通過のために、遠隔処理モジュール270および/または遠隔データリポジトリ280を使用して取得および/または処理されるデータ、を含んでもよい。ローカル処理およびデータモジュール260は、これらの遠隔モジュールがローカル処理およびデータモジュール260へのリソースとして利用可能であるように、有線または無線通信リンクを介して等、通信リンク262および/または264によって遠隔処理モジュール270および/または遠隔データリポジトリ280に動作可能に結合されてもよい。加えて、これらの遠隔処理モジュール280および遠隔データリポジトリ280は、相互に動作可能に結合されてもよい。
【0039】
いくつかの実施形態では、遠隔処理モジュール270は、データおよび/または画像情報を分析および処理するように構成される、1つまたはそれを上回るプロセッサを備えてもよい。いくつかの実施形態では、遠隔データリポジトリ280は、デジタルデータ記憶設備を備え得、これは、「クラウド」リソース構成におけるインターネットまたは他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュールにおいて行われ、遠隔モジュールからの完全に自律的な使用を可能にする。
【0040】
例えば、遠隔データリポジトリ280は、ステムトラックと関連付けられた情報等のオーディオファイルのコンテンツを記憶するように構成されることができる。ローカル処理およびデータモジュール260および/または遠隔処理モジュール270は、ユーザの視線の方向等のユーザの姿勢を検出することができる。処理モジュール260および270は、遠隔データリポジトリ280と通信し、ステムトラックを得て、ユーザの視線の方向にステムトラックの可視化を生成することができる。処理モジュール260および270はさらに、ディスプレイ220と通信し、可視化をユーザに提示することができる。
【0041】
ヒト視覚系は、複雑であり、深度の現実的知覚を提供することは、困難である。理論によって限定されるわけではないが、オブジェクトの視認者は、輻輳・開散(vergence)運動および遠近調節(accmmodation)の組み合わせに起因して、オブジェクトを3次元として知覚し得ると考えられる。相互に対する2つの眼の輻輳・開散運動(すなわち、眼の視線を収束させ、オブジェクト上に固定させるための相互に向かったまたはそこから離れるような瞳孔の回転運動)は、眼の水晶体の集束(または「遠近調節」)と密接に関連付けられる。通常条件下では、眼の水晶体の焦点を変化させる、または眼を遠近調節し、1つのオブジェクトから異なる距離における別のオブジェクトに焦点を変化させることは、「遠近調節-輻輳・開散運動反射」として知られる関係のもとで、自動的に、輻輳・開散運動における整合的変化を同一距離に生じさせるであろう。同様に、輻輳・開散運動における変化は、通常条件下、遠近調節における合致する変化を誘起するであろう。遠近調節と輻輳・開散運動との間のより良好な合致を提供するディスプレイシステムは、3次元画像のより現実的かつ快適なシミュレーションを形成し得る。
【0042】
図3は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図示する。図3を参照すると、z-軸上の眼302および304からの種々の距離におけるオブジェクトは、それらのオブジェクトが合焦するように、眼302および304によって遠近調節される。眼302および304は、特定の遠近調節された状態をとり、オブジェクトをz-軸に沿った異なる距離に合焦させる。その結果、特定の遠近調節された状態は、特定の深度平面におけるオブジェクトまたはオブジェクトの一部が、眼がその深度平面に対して遠近調節された状態にあるとき、合焦するように、関連付けられた焦点距離を有して、深度平面306のうちの特定の1つと関連付けられると言え得る。いくつかの実施形態では、3次元画像は、眼302および304毎に、画像の異なる提示を提供することによって、また、深度平面のそれぞれに対応する画像の異なる提示を提供することによって、シミュレートされてもよい。例証を明確にするために、別個であるように示されるが、眼302および304の視野は、例えば、z-軸に沿った距離が増加するにつれて、重複し得ることを理解されたい。加えて、例証を容易にするために、平坦であるように示されるが、深度平面の輪郭は、深度平面内の全ての特徴が特定の遠近調節された状態において眼と合焦するように、物理的空間内で湾曲されてもよいことを理解されたい。理論によって限定されるわけではないが、人間の眼は、典型的には、深度知覚を提供するために、有限数の深度面を解釈し得ると考えられる。その結果、知覚される深度の高度に真実味のあるシミュレーションが、これらの限定された数の深度面のそれぞれに対応する画像の異なる表現を眼に提供することによって達成され得る。
(導波管スタックアセンブリ)
【0043】
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応してもよく、図4は、ウェアラブルシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
【0044】
図4を継続して参照すると、導波管アセンブリ480はまた、複数の特徴458、456、454、452を導波管の間に含んでもよい。いくつかの実施形態では、特徴458、456、454、452は、レンズであってもよい。他の実施形態では、特徴458、456、454、452は、レンズではなくてもよい。むしろ、それらは、単に、スペーサであってもよい(例えば、空気間隙を形成するためのクラッディング層および/または構造)。
【0045】
導波管432b、434b、436b、438b、440bおよび/または複数のレンズ458、456、454、452は、種々のレベルの波面曲率または光線発散を伴って、画像情報を眼に送信するように構成されてもよい。各導波管レベルは、特定の深度平面と関連付けられてもよく、その深度平面に対応する画像情報を出力するように構成されてもよい。画像投入デバイス420、422、424、426、428は、それぞれ、眼410に向かって出力するために、各個別の導波管を横断して入射光を分散させるように構成され得る、導波管440b、438b、436b、434b、432bの中に画像情報を投入するために利用されてもよい。光は、画像投入デバイス420、422、424、426、428の出力表面から出射し、導波管440b、438b、436b、434b、432bの対応する入力縁の中に投入される。いくつかの実施形態では、光の単一ビーム(例えば、コリメートされたビーム)が、各導波管の中に投入され、特定の導波管と関連付けられる深度面に対応する特定の角度(および発散量)において眼410に向かって指向される、クローン化されたコリメートビームの場全体を出力してもよい。
【0046】
いくつかの実施形態では、画像投入デバイス420、422、424、426、428は、離散ディスプレイであり、これらの各々は、それぞれ、対応する導波管440b、438b、436b、434b、432bの中に投入するための画像情報を生成する。ある他の実施形態では、画像投入デバイス420、422、424、426、428は、例えば、1つまたはそれを上回る光学導管(光ファイバケーブル等)を介して、画像情報を画像投入デバイス420、422、424、426、428のそれぞれにパイピングし得る、単一の多重化されたディスプレイの出力端である。
【0047】
コントローラ460が、スタックされた導波管アセンブリ480および画像投入デバイス420、422、424、426、428の動作を制御する。コントローラ460は、導波管440b、438b、436b、434b、432bへの画像情報のタイミングおよび提供を調整する、プログラミング(例えば、非一過性コンピュータ可読媒体内の命令)を含む。いくつかの実施形態では、コントローラ460は、単一一体型デバイスまたは有線または無線通信チャネルによって接続される分散型システムであってもよい。コントローラ460は、いくつかの実施形態では、処理モジュール260および/または270(図2に図示される)の一部であってもよい。
【0048】
導波管440b、438b、436b、434b、432bは、全内部反射(TIR)によって、光を各個別の導波管内で伝搬させるように構成されてもよい。導波管440b、438b、436b、434b、432bはそれぞれ、主要上部および底部表面と、それらの主要上部と底部表面との間に延在する縁とを伴う、平面である、または別の形状(例えば、湾曲)を有してもよい。図示される構成では、導波管440b、438b、436b、434b、432bはそれぞれ、光を再指向させ、各個別の導波管内で伝搬させ、導波管から、画像情報を眼410に出力することによって、光を導波管から抽出するように構成される、光抽出光学要素440a、438a、436a、434a、432aを含んでもよい。抽出された光はまた、外部結合光と称され得、光抽出光学要素はまた、外部結合光学要素と称され得る。抽出された光のビームは、導波管によって、導波管内で伝搬する光が光再指向要素に衝打する場所に出力される。光抽出光学要素(440a、438a、436a、434a、432a)は、例えば、反射および/または回折光学特徴であってもよい。説明を容易にし、図面を明確にするために、導波管440b、438b、436b、434b、432bの底部主要表面に配置されて図示されるが、いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、上部および/または底部主要表面に配置されてもよい、および/または導波管440b、438b、436b、434b、432bの容積内に直接配置されてもよい。いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、透明基板に取り付けられ、導波管440b、438b、436b、434b、432bを形成する、材料の層内に形成されてもよい。ある他の実施形態では、導波管440b、438b、436b、434b、432bは、モノリシック材料片であってもよく、光抽出光学要素440a、438a、436a、434a、432aは、その材料片の表面上および/または内部に形成されてもよい。
【0049】
図4を継続して参照すると、本明細書に議論されるように、各導波管440b、438b、436b、434b、432bは、光を出力し、特定の深度平面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管432bは、そのような導波管432bの中に投入されるにつれて、コリメートされた光を眼410に送達するように構成されてもよい。コリメートされた光は、光学無限遠焦点面を表し得る。次の導波管434bは、眼410に到達し得る前に、第1のレンズ452(例えば、負のレンズ)を通して通過する、コリメートされた光を送出するように構成されてもよい。第1のレンズ452は、眼/脳が、その次の導波管434bから生じる光が光学無限遠から眼410に向かって内向きにより近い第1の焦点面から生じるように解釈するように、若干の凸面波面曲率を生成するように構成されてもよい。同様に、第3の導波管436bは、眼410に到達する前に、その出力光を第1のレンズ452および第2のレンズ454の両方を通して通過させる。第1および第2のレンズ452および454の組み合わせられた屈折力は、眼/脳が、第3の導波管436bから生じる光を次の導波管434bからの光よりも光学無限遠から人物に向かって内向きにさらにより近い第2の焦点面から生じていると解釈するように、波面曲率の別の増分量を生成するように構成されてもよい。
【0050】
他の導波管層(例えば、導波管438b、440b)およびレンズ(例えば、レンズ456、458)も同様に、スタック内の最高導波管440bを用いて、人物に最も近い焦点面を表す集約焦点パワーのために、その出力をそれと眼との間のレンズの全てを通して送出するように構成される。スタックされた導波管アセンブリ480の他側の世界470から生じる光を視認/解釈するとき、レンズ458、456、454、452のスタックを補償するために、補償レンズ層430が、スタックの上部に配置され、下方のレンズスタック458、456、454、452の集約パワーを補償してもよい。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管の光抽出光学要素およびレンズの集束側面は両方とも、静的であってもよい(例えば、動的または電気活性ではない)。いくつかの代替実施形態では、いずれかまたは両方とも、電気活性特徴を使用して、動的であってもよい。
【0051】
図4を継続して参照すると、光抽出光学要素440a、438a、436a、434a、432aは、光をその個別の導波管から再指向させることと、導波管と関連付けられた特定の深度平面のための適切な量の発散またはコリメーションを用いて、本光を出力することとの両方を行うように構成されてもよい。その結果、異なる関連付けられた深度平面を有する導波管は、関連付けられた深度平面に応じて異なる量の発散を伴う光を出力する、異なる構成の光抽出光学要素を有してもよい。いくつかの実施形態では、本明細書に議論されるように、光抽出光学要素440a、438a、436a、434a、432aは、光を具体的角度で出力するように構成され得る、立体または表面特徴であってもよい。例えば、光抽出光学要素440a、438a、436a、434a、432aは、立体ホログラム、表面ホログラム、および/または回折格子であってもよい。回折格子等の光抽出光学要素は、2015年6月25日に公開された米国特許公開第2015/0178939号(参照することによってその全体として本明細書に組み込まれる)に説明されている。
【0052】
いくつかの実施形態では、光抽出光学要素440a、438a、436a、434a、432aは、回折パターンを形成する回折特徴、すなわち、「回折光学要素」(本明細書では、「DOE」とも称される)である。好ましくは、DOEは、ビームの光の一部のみが、DOEの各交差点を用いて、眼410に向かって偏向される一方、残りが、全内部反射を介して、導波管を通して移動し続けるように、比較的に低い回折効率を有する。画像情報を搬送する光は、したがって、複数の場所において導波管から出射する、いくつかの関連出射ビームに分割され、その結果、導波管内でバウンスする本特定のコリメートされたビームに関して、眼304に向かって非常に均一な出射放出パターンとなる。
【0053】
いくつかの実施形態では、1つまたはそれを上回るDOEは、能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切替可能であってもよい。例えば、切替可能なDOEは、微小液滴がホスト媒体中に回折パターンを構成する、ポリマー分散液晶の層を備えてもよく、微小液滴の屈折率は、ホスト材料と実質的に合致する屈折率に切り替えられることができる(その場合、パターンは、入射光を著しく回折しない)、または微小液滴は、ホスト媒体のものに合致しない屈折率に切り替えられることができる(その場合、パターンは、入射光を能動的に回折する)。
【0054】
いくつかの実施形態では、深度平面および/または被写界深度の数および分布は、視認者の眼の瞳孔サイズおよび/または配向に基づいて、動的に変動されてもよい。被写界深度は、視認者の瞳孔サイズと反比例して変化してもよい。その結果、視認者の眼の瞳孔のサイズが減少するにつれて、被写界深度は、その平面の場所が眼の焦点深度を越えるため判別不能である1つの平面が、判別可能となり、瞳孔サイズの低減および被写界深度の相当する増加に伴って、より合焦して現れ得るように増加する。同様に、異なる画像を視認者に提示するために使用される、離間される深度平面の数は、減少された瞳孔サイズに伴って減少されてもよい。例えば、視認者は、一方の深度平面から他方の深度平面への眼の遠近調節を調節せずに、第1の深度平面および第2の深度平面の両方の詳細を1つの瞳孔サイズにおいて明確に知覚することが可能ではない場合がある。しかしながら、これらの2つの深度平面は、同時に、遠近調節を変化させずに、別の瞳孔サイズにおいてユーザに合焦するには十分であり得る。
【0055】
いくつかの実施形態では、ディスプレイシステムは、瞳孔サイズおよび/または配向の判定に基づいて、または特定の瞳孔サイズおよび/または配向を示す電気信号の受信に応じて、画像情報を受信する導波管の数を変動させてもよい。例えば、ユーザの眼が、2つの導波管と関連付けられた2つの深度平面間を区別不能である場合、コントローラ460は、これらの導波管のうちの1つへの画像情報の提供を停止するように構成またはプログラムされてもよい。有利には、これは、システムへの処理負担を低減させ、それによって、システムの応答性を増加させ得る。導波管のためのDOEがオンおよびオフ状態間で切替可能である実施形態では、DOEは、導波管が画像情報を受信するとき、オフ状態に切り替えられてもよい。
【0056】
いくつかの実施形態では、出射ビームに視認者の眼の直径未満の直径を有するという条件を満たさせることが望ましくあり得る。しかしながら、本条件を満たすことは、視認者の瞳孔のサイズの変動性に照らして、困難であり得る。いくつかの実施形態では、本条件は、視認者の瞳孔のサイズの判定に応答して出射ビームのサイズを変動させることによって、広範囲の瞳孔サイズにわたって満たされる。例えば、瞳孔サイズが減少するにつれて、出射ビームのサイズもまた、減少し得る。いくつかの実施形態では、出射ビームサイズは、可変開口を使用して変動されてもよい。
【0057】
ウェアラブルシステム400は、世界470の一部を撮像する、外向きに面したイメージングシステム464(例えば、デジタルカメラ)を含むことができる。世界470の本部分は、視野(FOV)と称され得、イメージングシステム464は、FOVカメラとも称される。視認者による視認または撮像のために利用可能な領域全体は、動眼視野(FOR)と称され得る。FORは、ウェアラブルシステム400を囲繞する4πステラジアンの立体角を含んでもよい。ウェアラブルシステム400のいくつかの実装では、FORは、ユーザが、ユーザを囲繞するオブジェクトを見るためにその頭部および眼を移動させ得るため、ディスプレイシステム400のユーザの周囲の立体角の実質的に全てを含んでもよい(ユーザの正面、背面、上方、下方、または側面)。外向きに面したイメージングシステム464から得られた画像は、ユーザによって行われるジェスチャ(例えば、手または指のジェスチャ)を追跡し、ユーザの正面における世界470内のオブジェクトを検出する等のために、使用されることができる。
【0058】
ウェアラブルシステム400はまた、眼移動および顔移動等のユーザの移動を観察する、内向きに面したイメージングシステム466(例えば、デジタルカメラ)を含むことができる。内向きに面したイメージングシステム466は、眼410の画像を捕捉し、眼304の瞳孔のサイズおよび/または配向を判定するために使用されてもよい。内向きに面したイメージングシステム466は、ユーザが見ている方向(例えば、眼姿勢)を判定する際に使用するため、またはユーザのバイオメトリック識別のため(例えば、虹彩識別を介して)、画像を得るために使用されることができる。いくつかの実施形態では、少なくとも1つのカメラが、眼毎に、独立して、各眼の瞳孔サイズおよび/または眼姿勢を別個に判定し、それによって、各眼への画像情報の提示がその眼に対して動的に調整されることを可能にするために利用されてもよい。ある他の実施形態では、単一眼410のみの瞳孔直径および/または配向(例えば、対の眼あたり単一カメラのみを使用して)が、判定され、ユーザの両眼に関して類似すると仮定される。内向きに面したイメージングシステム466によって得られる画像は、ユーザに提示されるべきオーディオまたは視覚的コンテンツを決定するためにウェアラブルシステム400によって使用され得る、ユーザの眼姿勢および/または気分を判定するために分析されてもよい。ウェアラブルシステム400はまた、IMU、加速度計、ジャイロスコープ等のセンサを使用して、頭部姿勢(例えば、頭部位置または頭部配向)を判定してもよい。頭部の姿勢は、単独で、または眼姿勢と組み合わせて、ステムトラックと相互作用する、および/またはオーディオコンテンツを提示するために使用されてもよい。
【0059】
ウェアラブルシステム400は、ユーザが、コマンドをコントローラ460に入力し、ウェアラブルシステム400と相互作用し得る、ユーザ入力デバイス466を含むことができる。例えば、ユーザ入力デバイス466は、トラックパッド、タッチスクリーン、ジョイスティック、多自由度(DOF)コントローラ、容量感知デバイス、ゲームコントローラ、キーボード、マウス、指向性パッド(Dパッド)、ワンド、触知デバイス、トーテム(例えば、仮想ユーザ入力デバイスとして機能する)等を含むことができる。ある場合には、ユーザは、指(例えば、親指)を使用して、タッチセンサ式入力デバイスを押下するかまたはその上でスワイプし、入力をウェアラブルシステム400に提供してもよい(例えば、ユーザ入力をウェアラブルシステム400によって提供されるユーザインターフェースに提供するために)。ユーザ入力デバイス466は、ウェアラブルシステム400の使用の間、ユーザの手によって保持されてもよい。ユーザ入力デバイス466は、ウェアラブルシステム400と有線または無線で通信することができる。
【0060】
図5は、導波管によって出力された出射ビームの実施例を示す。1つの導波管が、図示されるが、導波管アセンブリ480内の他の導波管も、同様に機能してもよく、導波管アセンブリ480は、複数の導波管を含むことを理解されたい。光520が、導波管432bの入力縁432cにおいて導波管432bの中に投入され、TIRによって導波管432b内を伝搬する。光520がDOE432aに衝突する点において、光の一部が、出射ビーム510として導波管から出射する。出射ビーム510は、略平行として図示されるが、それらはまた、導波管432bと関連付けられた深度平面に応じて、ある角度で眼410に伝搬するように再指向されてもよい(例えば、発散出射ビームを形成する)。略平行出射ビームは、光を外部結合し、眼410から長距離(例えば、光学無限遠)において深度平面上に設定されるように現れる画像を形成する光抽出光学要素を伴う、導波管を示し得ることを理解されたい。他の導波管または他の光抽出光学要素のセットは、眼410がより近い距離に遠近調節し、網膜に合焦させることを要求し、光学無限遠より眼410に近い距離からの光として脳によって解釈されるであろう、より多く発散する出射ビームパターンを出力してもよい。
【0061】
図6は、導波管装置と、光を導波管装置へまたはそこから光学的に結合するための光学結合器サブシステムと、多焦点立体ディスプレイ、画像、またはライトフィールドの生成において使用される制御サブシステムとを含む、光学システムを示す、概略図である。光学システムは、導波管装置と、光を導波管装置にまたはそこから光学的に結合するための光学結合器サブシステムと、制御サブシステムとを含むことができる。光学システムは、多焦点立体、画像、またはライトフィールドを生成するために使用されることができる。光学システムは、1つまたはそれを上回る一次平面導波管632a(1つのみのが図6に示される)と、一次導波管632aの少なくともいくつかのそれぞれと関連付けられた1つまたはそれを上回るDOE632bとを含むことができる。平面導波管632bは、図4を参照して議論される導波管432b、434b、436b、438b、440bに類似することができる。光学システムは、分散導波管装置を採用し、光を第1の軸(図6の図では、垂直またはY-軸)に沿って中継し、第1の軸(例えば、Y-軸)に沿って光の有効射出瞳を拡張させてもよい。分散導波管装置は、例えば、分散平面導波管622bと、分散平面導波管622bと関連付けられた少なくとも1つのDOE622a(二重破線によって図示される)とを含んでもよい。分散平面導波管622bは、少なくともいくつかの点において、それと異なる配向を有する一次平面導波管632bと類似または同じであってもよい。同様に、少なくとも1つのDOE622aは、少なくともいくつかの点において、DOE632aと類似または同じであってもよい。例えば、分散平面導波管622bおよび/またはDOE622aは、それぞれ、一次平面導波管632bおよび/またはDOE632aと同一材料から成ってもよい。図6に示される光学ディスプレイシステム600の実施形態は、図2に示されるウェアラブルシステム200の中に統合されることができる。
【0062】
中継され、射出瞳が拡張された光は、分散導波管装置から1つまたはそれを上回る一次平面導波管632bの中に光学的に結合される。一次平面導波管632bは、好ましくは、第1の軸に直交する、第2の軸(例えば、図6の図では、水平またはX-軸)に沿って、光を中継する。着目すべきこととして、第2の軸は、第1の軸に対して非直交軸であることができる。一次平面導波管632bは、その第2の軸(例えば、X-軸)に沿って、光の有効射出瞳を拡張させる。例えば、分散平面導波管622bは、光を垂直またはY-軸に沿って中継および拡張させ、光を水平またはX-軸に沿って中継および拡張させる、一次平面導波管632bにその光を通過させることができる。
【0063】
光学システムは、単一モード光ファイバ640の近位端の中に光学的に結合され得る、1つまたはそれを上回る着色光源(例えば、赤色、緑色、および青色レーザ光)610を含んでもよい。光ファイバ640の遠位端は、圧電材料の中空管8を通して螺合または受容されてもよい。遠位端は、固定されない可撓性カンチレバー644として、管642から突出する。圧電管642は、4つの象限電極(図示せず)と関連付けられることができる。電極は、例えば、管642の外側、外側表面または外側周縁、または直径に鍍着されてもよい。コア電極(図示せず)もまた、管642のコア、中心、内側周縁、または内径に位置する。
【0064】
例えば、ワイヤ660を介して電気的に結合される、駆動電子機器650は、対向する対の電極を駆動し、圧電管642を2つの軸において独立して屈曲させる。光ファイバ644の突出する遠位先端は、機械的共鳴モードを有する。共鳴の周波数は、光ファイバ644の直径、長さ、および材料性質に依存し得る。圧電管8をファイバカンチレバー644の第1の機械的共鳴モードの近くで振動させることによって、ファイバカンチレバー644は、振動させられ、大偏向を通して掃引し得る。
【0065】
2つの軸において共振振動を刺激することによって、ファイバカンチレバー644の先端は、2次元(2-D)走査を充填する面積内において2軸方向に走査される。光源610の強度をファイバカンチレバー644の走査と同期して変調させることによって、ファイバカンチレバー644から発せられる光は、画像を形成する。そのような設定の説明は、米国特許公開第2014/0003762号(参照することによってその全体として本明細書に組み込まれる)に提供されている。
【0066】
光学結合器サブシステムのコンポーネントは、走査ファイバカンチレバー644から発せられる光をコリメートする。コリメートされた光は、ミラー付き表面648によって、少なくとも1つの回折光学要素(DOE)622aを含有する、狭分散平面導波管622bの中に反射される。コリメートされた光は、全内部反射(TIR)によって分散平面導波管622bに沿って(図6の図に対して)垂直に伝搬し、そうすることによって、DOE622aと繰り返し交差する。DOE622aは、好ましくは、低回折効率を有する。これは、光の一部(例えば、10%)をDOE622aとの交差点の各点においてより大きい一次平面導波管632bの縁に向かって回折させ、光の一部をTIRを介して分散平面導波管622bの長さを辿ってそのオリジナル軌道上で継続させる。
【0067】
DOE622aとの交差点の各点において、付加的光が、一次導波管632bの入口に向かって回折される。入射光を複数の外部結合セットに分割することによって、光の射出瞳は、分散平面導波管622b内のDOE4によって垂直に拡張される。分散平面導波管622bから外部結合された本垂直に拡張された光は、一次平面導波管632bの縁に進入する。
【0068】
一次導波管632bに進入する光は、TIRを介して、一次導波管632bに沿って(図6の図に対して)水平に伝搬する。光は、複数の点においてDOE632aと交差するにつれて、TIRを介して、一次導波管632bの長さの少なくとも一部に沿って水平に伝搬する。DOE632aは、有利には、線形回折パターンおよび半径方向対称回折パターンの総和である、位相プロファイルを有し、光の偏向および集束の両方を生成するように設計または構成され得る。DOE632aは、有利には、ビームの光の一部のみが、DOE632aの各交差点において視認者の眼に向かって偏向される一方、光の残りが、TIRを介して、一次導波管632bを通して伝搬し続けるように、低回折効率(例えば、10%)を有し得る。
【0069】
伝搬する光とDOE632aとの間の交差点の各点において、光の一部は、一次導波管632bの隣接面に向かって回折され、光がTIRから逃散し、一次導波管632bの面から発せられることを可能にする。いくつかの実施形態では、DOE632aの半径方向対称回折パターンは、加えて、ある焦点レベルを回折された光に付与し、個々のビームの光波面を成形(例えば、曲率を付与する)することと、ビームを設計される焦点レベルに合致する角度に操向することとの両方を行う。
【0070】
故に、これらの異なる経路は、異なる角度におけるDOE632aの多重度、焦点レベル、および/または射出瞳において異なる充填パターンをもたらすことによって、光を一次平面導波管632bの外部で結合させることができる。射出瞳における異なる充填パターンは、有利には、複数の深度平面を伴うライトフィールドディスプレイを生成するために使用されることができる。導波管アセンブリ内の各層またはスタック内の層のセット(例えば、3層)が、個別の色(例えば、赤色、青色、緑色)を生成するために採用されてもよい。したがって、例えば、第1の3つの隣接する層のセットが、それぞれ、赤色、青色、および緑色光を第1の焦点深度において生成するために採用されてもよい。第2の3つの隣接する層のセットが、それぞれ、赤色、青色、および緑色光を第2の焦点深度において生成するために採用されてもよい。複数のセットが、種々の焦点深度を伴うフル3Dまたは4Dカラー画像ライトフィールドを生成するために採用されてもよい。
(ウェアラブルシステムの他のコンポーネント)
【0071】
多くの実装では、ARシステムは、上記に説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含んでもよい。ウェアラブルシステムは、例えば、1つまたはそれを上回る触知デバイスまたはコンポーネントを含んでもよい。触知デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であってもよい。例えば、触知デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力および/またはテクスチャの感覚を提供してもよい。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現してもよい、または仮想コンテンツが表す想像上のオブジェクトまたはキャラクタ(例えば、ドラゴン)の感覚を再現してもよい。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって装着されてもよい(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって保持されてもよい。
【0072】
ウェアラブルシステムは、例えば、ユーザによって操作可能であって、ARシステムへの入力またはそれとの相互作用を可能にする、1つまたはそれを上回る物理的オブジェクトを含んでもよい。これらの物理的オブジェクトは、本明細書では、トーテムと称され得る。いくつかのトーテムは、例えば、金属またはプラスチック片、壁、テーブルの表面等、無生物オブジェクトの形態をとってもよい。ある実装では、トーテムは、実際には、任意の物理的入力構造(例えば、キー、トリガ、ジョイスティック、トラックボール、ロッカスイッチ)を有していなくてもよい。代わりに、トーテムは、単に、物理的表面を提供してもよく、ARシステムは、ユーザにトーテムの1つまたはそれを上回る表面上にあるように見えるように、ユーザインターフェースをレンダリングしてもよい。例えば、ARシステムは、トーテムの1つまたはそれを上回る表面上に常駐するように見えるように、コンピュータキーボードおよびトラックパッドの画像をレンダリングしてもよい。例えば、ARシステムは、トーテムとしての役割を果たす、アルミニウムの薄い長方形プレートの表面上に見えるように、仮想コンピュータキーボードおよび仮想トラックパッドをレンダリングしてもよい。長方形プレート自体は、任意の物理的キーまたはトラックパッドまたはセンサを有していない。しかしながら、ARシステムは、仮想キーボードおよび/または仮想トラックパッドを介して行われた選択または入力として、長方形プレートを用いたユーザ操作または相互作用またはタッチを検出し得る。ユーザ入力デバイス466(図4に示される)は、トラックパッド、タッチパッド、トリガ、ジョイスティック、トラックボール、ロッカスイッチ、マウス、キーボード、多自由度コントローラ、または別の物理的入力デバイスを含み得る、トーテムの実施形態であってもよい。ユーザは、単独で、または姿勢と組み合わせて、トーテムを使用し、ウェアラブルシステムおよび/または他のユーザと相互作用してもよい。
【0073】
本開示のウェアラブルデバイス、HMD、およびディスプレイシステムと使用可能な触知デバイスおよびトーテムの実施例は、米国特許公開第2015/0016777号(参照することによってその全体として本明細書に組み込まれる)に説明されている。
(例示的ウェアラブルシステム、環境、およびインターフェース)
【0074】
ウェアラブルシステムは、高被写界深度をレンダリングされたライトフィールド内で達成するために、種々のマッピング関連技法を採用してもよい。仮想世界をマッピングする際、実世界内の全ての特徴および点を把握し、仮想オブジェクトを実世界に関連して正確に描くことが有利である。この目的を達成するために、ウェアラブルシステムのユーザから捕捉されたFOV画像が、実世界の種々の点および特徴についての情報を伝達する新しい写真を含むことによって、世界モデルに追加されることができる。例えば、ウェアラブルシステムは、マップ点(2D点または3D点等)のセットを収集し、新しいマップ点を見出し、世界モデルのより正確なバージョンをレンダリングすることができる。第1のユーザの世界モデルは、第2のユーザが第1のユーザを囲繞する世界を体験し得るように、(例えば、クラウドネットワーク等のネットワークを経由して)第2のユーザに通信されることができる。
【0075】
図7は、MR環境700の実施例のブロック図である。MR環境700は、入力(例えば、ユーザのウェアラブルシステムからの視覚的入力702、室内カメラ等の定常入力704、種々のセンサからの感覚入力706、ユーザ入力デバイス504からのジェスチャ、トーテム、眼追跡、ユーザ入力等)を1つまたはそれを上回るユーザウェアラブルシステム(例えば、ウェアラブルシステム200および/またはディスプレイシステム220)および/または定常室内システム(例えば、室内カメラ等)から受信するように構成されてもよい。ウェアラブルシステムは、種々のセンサ(例えば、加速度計、ジャイロスコープ、温度センサ、移動センサ、深度センサ、GPSセンサ、内向きに面したイメージングシステム、外向きに面したイメージングシステム等)を使用して、ユーザの環境の場所および種々の他の属性を判定することができる。本情報はさらに、異なる視点からの画像および/または種々のキューを提供し得る、部屋内の定常カメラからの情報で補完されてもよい。カメラ(室内カメラおよび/または外向きに面したイメージングシステムのカメラ等)によって取得された画像データは、マッピング点のセットに低減されてもよい。
【0076】
1つまたはそれを上回るオブジェクト認識装置708が、受信されたデータ(例えば、点の集合)を通してクローリングし、点を認識および/またはマッピングし、画像をタグ付けし、マップデータベース710を用いて、意味論情報をオブジェクトに結び付けることができる。マップデータベース710は、経時的に収集された種々の点およびその対応するオブジェクトを備えてもよい。種々のデバイスおよびマップデータベースは、ネットワーク(例えば、LAN、WAN等)を通して相互に接続され、クラウドにアクセスすることができる。
【0077】
マップデータベース内の本情報および点の集合に基づいて、オブジェクト認識装置708a-708nは、オブジェクトを認識し、これを意味論情報で補完し、命をオブジェクトに与えてもよい。例えば、オブジェクト認識装置が、点のセットがドアであることを認識する場合、システムは、いくつかの意味論情報を結び付けてもよい(例えば、ドアは、ヒンジを有し、ヒンジを中心として90度移動を有する)。オブジェクト認識装置が、点のセットが鏡であることを認識する場合、システムは、鏡が、部屋内のオブジェクトの画像を反射させ得る、反射表面を有するという意味論情報を結び付けてもよい。経時的に、マップデータベースは、システム(ローカルに常駐し得る、または無線ネットワークを通してアクセス可能であり得る)がより多くのデータを世界から蓄積するにつれて成長する。いったんオブジェクトが認識されると、情報は、1つまたはそれを上回るウェアラブルシステムに伝送されてもよい。例えば、MR環境700は、Californiaで発生している場面についての情報を含んでもよい。環境700は、New Yorkにおける1人またはそれを上回るユーザに伝送されてもよい。FOVカメラおよび他の入力から受信されたデータに基づいて、オブジェクト認識装置および他のソフトウェアコンポーネントは、場面が世界の異なる部分に存在し得る第2のユーザに正確に「パス」され得るように、種々の画像から収集された点をマッピングし、オブジェクトを認識すること等ができる。環境700はまた、場所特定目的のために、トポロジマップを使用してもよい。
【0078】
別の実施例として、ユーザの環境は、あるオーディオコンテンツと関連付けられてもよい。例えば、オーディオファイルのステムトラックは、ユーザの部屋の異なる場所と関連付けられてもよい。ウェアラブルシステムは、ユーザの環境のマップをステムトラックの場所情報とともに別のユーザにパスし、それによって、他のユーザがステムトラックと相互作用することを可能にしてもよい。その結果、2人のユーザが、ユーザの部屋内で協働し、ステムトラックをミックスすることによって、新しいオーディオファイルを生成することができる。
【0079】
さらに別の実施例として、ユーザは、その環境内でステムトラックと相互作用し、新しいオーディオファイルを生成することができる。ユーザのウェアラブルシステムは、新しいオーディオファイルを他の人々に再生またはブロードキャストするために(例えば、スピーカを介して)、新しいオーディオファイルを他のウェアラブルシステムにパスすることができる。
【0080】
図8は、認識されたオブジェクトに関連して仮想コンテンツをレンダリングする方法800の実施例のプロセスフロー図である。方法800は、仮想場面がMRシステム(例えば、ウェアラブルシステム)のユーザに表され得る方法を説明する。ユーザは、その場面から地理的に遠隔に存在してもよい。例えば、ユーザは、New Yorkに存在し得るが、Californiaで現在起こっている場面を視認することを所望し得る、またはCaliforniaに存在する友人と散歩に行くことを所望し得る。
【0081】
ブロック810では、ARシステムは、ユーザの環境に関する入力をユーザおよび他のユーザから受信してもよい。これは、種々の入力デバイスおよびマップデータベース内にすでに保有されている知識を通して達成されてもよい。ユーザのFOVカメラ、センサ、GPS、眼追跡等が、ブロック810において、情報をシステムに伝達する。システムは、ブロック820において、本情報に基づいて、大まかな点を判定してもよい。大まかな点は、ユーザの周囲における種々のオブジェクトの配向および位置を表示および理解する際に使用され得る、姿勢データ(例えば、頭部姿勢、眼姿勢、身体姿勢、および/または手のジェスチャ)を判定する際に使用されてもよい。オブジェクト認識装置708a、708nは、ブロック830において、これらの収集された点を通してクローリングし、マップデータベースを使用して、1つまたはそれを上回るオブジェクトを認識してもよい。本情報は、次いで、ブロック840において、ユーザの個々のウェアラブルシステムに伝達されてもよく、所望の仮想場面が、ブロック850において、適宜、ユーザに表示されてもよい。例えば、所望の仮想場面(例えば、CAにおけるユーザ)が、New Yorkにおけるユーザの種々のオブジェクトおよび他の周囲に関連して、適切な配向、位置等において表示されてもよい。
【0082】
図9は、ウェアラブルシステムの別の実施例のブロック図である。本実施例では、ウェアラブルシステム900は、世界に関するマップデータを含み得る、マップを備える。マップは、部分的に、ウェアラブルシステム上にローカルに常駐してもよく、部分的に、有線または無線ネットワークによってアクセス可能なネットワーク化された記憶場所(例えば、クラウドシステム内)に常駐してもよい。姿勢プロセス910が、ウェアラブルコンピューティングアーキテクチャ(例えば、処理モジュール260またはコントローラ460)上で実行され、ウェアラブルコンピューティングハードウェアまたはユーザの位置および配向を判定するために、マップからのデータを利用してもよい。姿勢データは、ユーザが、システムを体験し、その世界内で動作するにつれて、オンザフライで収集されたデータから算出されてもよい。データは、実または仮想環境内のオブジェクトに関する画像、センサ(概して、加速度計およびジャイロスコープコンポーネントを備える、慣性測定デバイス等)からのデータ、および表面情報を備えてもよい。
【0083】
大まかな点表現は、同時場所特定およびマッピング(入力が画像/視覚のみである構成を指す、SLAMまたはV-SLAM)プロセスの出力であってもよい。システムは、世界内の種々のコンポーネントの場所だけではなく、世界が成っているものを見出すように構成されることができる。姿勢は、マップを埋めることおよびマップからのデータを使用することを含め、多くの目標を達成する、構築ブロックであってもよい。
【0084】
一実施形態では、大まかな点位置は、それ自体では完全に適正であり得ず、さらなる情報が、多焦点AR、VR、またはMR体験を生成するために必要とされ得る。概して深度マップ情報を指す、稠密表現が、少なくとも部分的に、本間隙を充填するために利用されてもよい。そのような情報は、立体視940と称されるプロセスから算出されてもよく、深度情報は、三角測量または飛行時間感知等の技法を使用して判定される。画像情報およびアクティブパターン(アクティブプロジェクタを使用して生成される赤外線パターン等)が、立体視プロセス940への入力としての役割を果たし得る。有意な量の深度マップ情報が、ともに融合されてもよく、このうちのいくつかは、表面表現を用いて要約されてもよい。例えば、数学的に定義可能な表面は、ゲームエンジンのような他の処理デバイスへの効率的(例えば、大規模点クラウドと比較して)かつ摘要可能な入力である。したがって、立体視プロセス(例えば、深度マップ)940の出力は、融合プロセス930において組み合わせられてもよい。姿勢は、同様に、本融合プロセス930への入力であってもよく、融合930の出力は、マッププロセス920を埋めるための入力となる。サブ表面が、トポグラフィマッピング等において相互に接続し、より大きい表面を形成してもよく、マップは、点および表面の大規模ハイブリッドとなる。
【0085】
複合現実プロセス960における種々の側面を解決するために、種々の入力が、利用されてもよい。例えば、図9に描写される実施形態では、ゲームパラメータは、システムのユーザが1匹またはそれを上回るモンスタと種々の場所においてモンスタバトルゲームをプレーしていること、種々の条件下で死んでいるかまたは逃げているモンスタ(ユーザがモンスタを撃つ場合等)、種々の場所における壁または他のオブジェクト、および同等物を判定するための入力であってもよい。世界マップは、複合現実に対する別の有用な入力となる、そのようなオブジェクトが相互に対して存在する場所に関する情報を含んでもよい。世界に対する姿勢は、同様に、入力となり、ほぼあらゆる双方向システムに対して重要な役割を果たす。
【0086】
ユーザからの制御または入力は、ウェアラブルシステム900への別の入力である。本明細書に説明されるように、ユーザ入力は、視覚的入力、ジェスチャ、トーテム、オーディオ入力、感覚入力等を含むことができる。動き回るまたはゲームをプレーするために、例えば、ユーザは、ウェアラブルシステム900に、何をしたいかに関して命令する必要があり得る。空間内で自ら移動するだけではなく、利用され得る種々の形態のユーザ制御が、存在する。一実施形態では、トーテム、ユーザ入力デバイス、または玩具銃等のオブジェクトが、ユーザによって保持され、システムによって追跡されてもよい。システムは、好ましくは、ユーザがアイテムを保持していることを把握し、ユーザがアイテムと行っている相互作用の種類を理解するように構成されるであろう(例えば、トーテムまたはオブジェクトが、銃である場合、システムは、場所および配向だけではなく、ユーザが、そのようなアクティビティがカメラのいずれかの視野内にないときでも、何が起こっているかの判定を補助し得る、IMU等のセンサを装備し得る、トリガまたは他の感知ボタンまたは要素をクリックしているかどうかも理解するように構成されてもよい。)
【0087】
手のジェスチャ追跡または認識もまた、入力情報を提供してもよい。ウェアラブルシステム900は、ボタン押下のため、左または右、停止、握持、保持等をジェスチャするために、手のジェスチャを追跡および解釈するように構成されてもよい。例えば、1つの構成では、ユーザは、非ゲーム環境において電子メールまたはカレンダを通してフリップする、または別の人物または演奏者と「フィストバンプ」を行うことを所望し得る。ウェアラブルシステム900は、動的であり得る、またはそうではない場合がある、最小量の手のジェスチャを活用するように構成されてもよい。例えば、ジェスチャは、停止を示すために手を広げる、OKを示すために親指を上げる、OKではないことを示すために親指を下げる、または指向性コマンドを示すために左右または上下に手をフリップする等、単純な静的ジェスチャであってもよい。
【0088】
眼追跡は、別の入力である(例えば、ユーザが見ている場所を追跡し、ディスプレイ技術を制御し、具体的深度または範囲においてレンダリングする)。一実施形態では、眼の輻輳・開散運動が、三角測量を使用して判定されてもよく、次いで、その特定の人物のために開発された輻輳・開散運動/遠近調節モデルを使用して、遠近調節が、判定されてもよい。
【0089】
カメラシステムに関して、図9に示される例示的ウェアラブルシステム900は、3つの対のカメラ、すなわち、ユーザの顔の両側に配列される相対的広FOVまたは受動SLAM対のカメラと、ユーザの正面に配向され、立体視イメージングプロセス940をハンドリングし、また、ユーザの顔の正面の手のジェスチャおよびトーテム/オブジェクトの軌道を捕捉するための異なる対のカメラとを含むことができる。3つの対のカメラ内のカメラは、外向きに面したイメージングシステム464(図4に示される)の一部であってもよい。ウェアラブルシステム900は、眼ベクトルおよび他の情報を三角測量するために、ユーザの眼に向かって配向される眼追跡カメラ(図4に示される内向きに面したイメージングシステム462の一部であってもよい)を含むことができる。ウェアラブルシステム900はまた、1つまたはそれを上回るテクスチャ化光プロジェクタ(赤外線(IR)プロジェクタ等)を備え、テクスチャを場面の中に投入してもよい。
【0090】
図10は、ウェアラブルシステムへのユーザ入力を判定するための方法1000の実施例のプロセスフロー図である。本実施例では、ユーザは、トーテムと相互作用してもよい。ユーザは、複数のトーテムを有してもよい。例えば、ユーザは、ソーシャルメディアアプリケーションのための指定される1つのトーテム、ゲームをプレーするための別のトーテム等を有してもよい。ブロック1010では、ウェアラブルシステムは、トーテムの運動を検出してもよい。トーテムの移動は、ユーザのFOVカメラを通して認識されてもよい、またはセンサ(例えば、触知グローブ、画像センサ、手トラックデバイス、眼追跡カメラ、頭部姿勢センサ等)を通して検出されてもよい。
【0091】
少なくとも部分的に、検出されたジェスチャ、眼姿勢、頭部姿勢、またはトーテムを通した入力に基づいて、ウェアラブルシステムは、ブロック1020において、基準フレームに対するトーテム(またはユーザの眼または頭部またはジェスチャ)の位置、配向、および/または移動を検出する。基準フレームは、それに基づいてウェアラブルシステムがトーテム(またはユーザ)の移動をアクションまたはコマンドに変換する、マップ点のセットであってもよい。ブロック1030では、トーテムとのユーザの相互作用が、マッピングされる。基準フレーム1020に対するユーザ相互作用のマッピングに基づいて、システムは、ブロック1040において、ユーザ入力を判定する。
【0092】
例えば、ユーザは、トーテムまたは物理的オブジェクトを前後に移動させ、仮想ページを捲り、次のページに移動する、または1つのユーザインターフェース(UI)ディスプレイ画面から別のUI画面に移動することを示してもよい。別の実施例として、ユーザは、ユーザのFOR内の異なる実または仮想オブジェクトを見るために、その頭部または眼を移動させてもよい。特定の実または仮想オブジェクトにおけるユーザの視線が、閾値時間より長い場合、その実または仮想オブジェクトは、ユーザ入力として選択されてもよい。いくつかの実装では、ユーザの眼の輻輳・開散運動が、追跡されることができ、遠近調節/輻輳・開散運動モデルが、ユーザが合焦している深度平面に関する情報を提供する、ユーザの眼の遠近調節状態を判定するために使用されることができる。いくつかの実装では、ウェアラブルシステムは、レイキャスティング技法を使用して、ユーザの頭部姿勢または眼姿勢の方向に沿っている実または仮想オブジェクトを判定することができる。種々の実装では、レイキャスティング技法は、実質的に殆ど横幅を伴わない細い光線束を投じる、または実質的横幅を伴う光線(例えば、円錐または円錐台)を投じることを含むことができる。
【0093】
ユーザインターフェースは、本明細書に説明されるようなディスプレイシステム(図2におけるディスプレイ220等)によって投影されてもよい。また、1つまたはそれを上回るプロジェクタ等の種々の他の技法を使用して表示されてもよい。プロジェクタは、画像をキャンバスまたは球体等の物理的オブジェクト上に投影してもよい。ユーザインターフェースとの相互作用は、システムの外部またはシステムの一部の1つまたはそれを上回るカメラを使用して(例えば、内向きに面したイメージングシステム462または外向きに面したイメージングシステム464を使用して)追跡されてもよい。
【0094】
図11は、仮想ユーザインターフェースと相互作用するための方法1100の実施例のプロセスフロー図である。方法1100は、本明細書に説明されるウェアラブルシステムによって行われてもよい。
【0095】
ブロック1110では、ウェアラブルシステムは、特定のUIを識別してもよい。UIのタイプは、ユーザによって与えられてもよい。ウェアラブルシステムは、特定のUIがユーザ入力(例えば、ジェスチャ、視覚的データ、オーディオデータ、感覚データ、直接コマンド等)に基づいて取り込まれる必要があることを識別してもよい。ブロック1120では、ウェアラブルシステムは、仮想UIのためのデータを生成してもよい。例えば、UIの境界、一般的構造、形状等と関連付けられたデータが、生成されてもよい。加えて、ウェアラブルシステムは、ウェアラブルシステムがユーザの物理的場所に関連してUIを表示し得るように、ユーザの物理的場所のマップ座標を判定してもよい。例えば、UIが、身体中心である場合、ウェアラブルシステムは、リングUIがユーザの周囲に表示され得る、または平面UIが壁上またはユーザの正面に表示され得るように、ユーザの物理的立ち位置、頭部姿勢、または眼姿勢の座標を判定してもよい。UIが、手中心の場合、ユーザの手のマップ座標が、判定されてもよい。これらのマップ点は、FOVカメラ、感覚入力を通して受信されたデータ、または任意の他のタイプの収集されたデータを通して導出されてもよい。実施例として、ウェアラブルシステムは、ユーザの周囲のオーディオファイル内の種々のステムトラックのグラフィカル表現を生成することができる。
【0096】
ブロック1130では、ウェアラブルシステムは、データをクラウドからディスプレイに送信してもよい、またはデータは、ローカルデータベースからディスプレイコンポーネントに送信されてもよい。ブロック1140では、UIは、送信されたデータに基づいて、ユーザに表示される。例えば、ライトフィールドディスプレイは、仮想UIをユーザの眼の一方または両方の中に投影することができる。いったん仮想UIが生成されると、ウェアラブルシステムは、ブロック1150において、単に、ユーザからのコマンドを待機し、より多くの仮想コンテンツを仮想UI上に生成してもよい。例えば、UIは、ユーザの身体の周囲の身体中心リングであってもよい。ウェアラブルシステムは、次いで、コマンド(ジェスチャ、頭部または眼移動、ユーザ入力デバイスからの入力等)を待機してもよく、認識される場合(ブロック1160)、コマンドと関連付けられた仮想コンテンツが、ユーザに表示されてもよい(ブロック1170)。実施例として、ウェアラブルシステムは、複数のステムトラックをミックスする前に、ユーザの手のジェスチャを待機してもよい。
【0097】
ARシステム、UI、およびユーザ体験(UX)の付加的実施例は、米国特許公開第2015/0016777号(参照することによってその全体として本明細書に組み込まれる)に説明されている。
(ステムトラックの実施例)
【0098】
図2および4を参照して説明されるように、ウェアラブルシステムは、オーディオファイルを再生し、オーディオコンテンツの可視化をユーザに提示することができる。ウェアラブルシステムは、AR、VR、および/またはMR環境を提示するように構成される、ウェアラブルデバイス(頭部搭載型デバイス/ディスプレイ等)の一部であることができる。オーディオファイルは、ローカル処理およびデータモジュール260、遠隔処理モジュール270、遠隔データリポジトリ280、その組み合わせ、または同等物を使用して、記憶および処理されることができる。
【0099】
オーディオファイルは、複数のトラックを含むことができる。例えば、オーディオファイルは、ステレオマスタトラック、ステレオシステムの「右」または「左」チャネルのためのトラック、周囲音チャネルのためのトラック等を含むことができる。あるタイプのオーディオファイルは、異なる楽器(例えば、ギター、ベース、ドラム、ピアノ、シンセサイザ、ホルン)またはボーカル(例えば、リードボーカル、バックアップボーカル)を表す、複数のトラックを含むことができる。異なる楽器またはボーカルを表すトラックは、ステムトラックまたはステムとも称される。種々の実装では、ステムトラックの数は、1つ、2つ、3つ、4つ、5つ、6つ、7つ、8つ、10、12、またはそれを上回ることができる。
【0100】
ステムトラックは、オーディオファイルの任意のパーティションであることができ、各ステムトラックは、オーディオファイルの異なるオーディオコンテンツを表す。実施例として、ステムトラックは、録音内の特定の楽器またはボーカル(例えば、ギターまたはリードボーカル)を表すことができる。例えば、室内楽(例えば、弦楽四重奏)の録音は、第1のバイオリンと、第2のバイオリンと、ビオラと、チェロとを表す、4つの別個のステムトラックを含むことができる。別の実施例として、ステムトラックは、楽器またはボーカルのグループ(例えば、ベースおよびドラムまたはコーラスのリズムセクション)を表すことができる。例えば、オーケストラに関して、バイオリン、木管楽器、パーカッション、金管楽器、ベース等を表す、異なるステムトラックが、存在してもよい。ステムトラックは、音楽録音に限定されず、発話の録音にも使用されることができる(例えば、異なるスピーカのための異なるステム)。
【0101】
ステムトラックは、ユーザのFOR内の空間場所と関連付けられることができる。その結果、ステムトラックの音は、その関連付けられた空間場所から生じるように聴覚的に現れ得る。例えば、ステムトラックがユーザの右側と関連付けられる場合、ステムトラックの音は、ユーザの右側から生じるように現れ得る。ユーザがその姿勢を変化させるにつれて、ユーザは、異なる音場または視野を知覚することができる。同一実施例では、ユーザが180度方向転換する場合、音は、(右側の代わりに)ユーザの左側から生じるように現れ得る。これは、有利には、ユニークなユーザ制御可能なユーザ体験を提供する。
【0102】
ステムトラックの場所は、ユーザに対するある距離および/または角度において等、ユーザ(例えば、ユーザの頭部)に対して定義されることができる。加えて、または代替として、ステムトラックの場所は、大域的に定義されることができる。実施例として、ステムトラックは、正面壁にあるように位置付けられてもよい一方、別のステムトラックは、ユーザの部屋の中央に位置付けられる。
【0103】
ステムトラックの場所は、経時的に変化してもよい。例えば、ステムトラックは、歌手の音声と関連付けられてもよい。ステムトラックの位置は、歌手が(仮想上)ユーザの環境内で動き回っているかのように変化してもよい。ステムトラックの場所はまた、ユーザ相互作用に基づいて変化されてもよい。以下にさらに説明されるように、ユーザは、例えば、ステムトラックと関連付けられた視覚的グラフィックを握持することによって、ステムトラックを移動させることができる。
【0104】
ウェアラブルシステムは、個々のステムトラックおよび/または組み合わせられた1つまたはそれを上回るステムトラックの可視化を提供することができる。したがって、ウェアラブルシステムは、有利には、ユーザが、オーディオ空間化を可視化し、ステムトラックと相互作用することを可能にすることができる。
【0105】
いくつかの実装では、オーディオファイルは、ステムトラックに加えて、音楽のオーディオまたは視覚的表現をレンダリングするためにウェアラブルデバイスによって使用され得る、付加的情報(例えば、メタデータ)を含んでもよい。例えば、付加的情報は、ステージ上の音楽演奏者の移動に関連する情報(例えば、ステージを動き回るまたはその上でダンスするリード歌手)、演奏場所の音響またはサイズ(例えば、ステージのサイズ、コンサートホールのサイズ等)についての情報等を含んでもよい。ウェアラブルシステムは、本付加的情報を使用して、音楽アーティストによる演奏の視覚的表現を提示することができる。例えば、リード歌手に関する移動情報は、ユーザの視野内における、リード歌手の表現(例えば、画像またはアバタ)が、リード歌手が演奏の間に動き回るにつれて表示されるべき場所を判定するために使用されることができる。そのような実施形態は、オーディオトラックが録音される、ライブ演奏の視覚的レンダリングを生成するために使用されることができる。
【0106】
オーディオステムに関する情報、ステムに関する時系列位置データ、ステムトラックの可視化、および付加的情報のうちの1つまたはそれを上回るものが、オーディオファイルのメタデータから解析されてもよい。例えば、オーディオファイルは、そのようなメタデータをサポートするフォーマットでエンコードされてもよい。メタデータは、ステムトラックおよびオーディオファイルの関連付けられたステムトラックの可視化(形状、動画等)を規定してもよい。メタデータはまた、アクティブステムトラックおよびオーディオファイルの所与の時間におけるステムトラックの位置を規定することができる。オーディオファイルは、専用フォーマットであってもよい。オーディオファイルが、本明細書に開示されるようなステムの可視化およびミックスを提供するための機能性を有し得ないオーディオ機器と併用されることを可能にするために(例えば、上位互換性を提供するために)、オーディオフォーマットは、より古いオーディオシステムが、メタデータを無視し(例えば、それをファイルから読み出さないことによって)、例えば、音ファイルのステレオミックスのみを読み取り得るように、そのようなメタデータを記憶してもよい。
(ステムトラックのミックスの実施例)
【0107】
2つまたはそれを上回るステムトラックが、オーディオミックスを生成するために組み合わせられることができる。オーディオミックスは、ステムトラックの空間場所を反映する、音場をシミュレートしてもよい。オーディオミックスはまた、その空間場所にかかわらず、ステムトラックの混合物を反映してもよい。
【0108】
異なる楽器またはボーカルのためのステムトラックの組み合わせ(またはミックス)は、ウェアラブルシステムによる再生(例えば、スピーカ240を介して)のためにユーザに提示され得る、オーディオミックスを生成する。オーディオミックスは、1つまたはそれを上回るオーディオチャネル(例えば、ステレオまたは周囲音(5、7、またはそれを上回るチャネルを有することができる))を生成するために使用されることができる。ウェアラブルシステムはまた、例えば、ステムトラックレベル(例えば、ラウドネスまたはソフトネス)、周波数コンテンツ、動態(例えば、スタイル(スタッカートまたはレガート)、速度)、パノラマ位置(パンニングとも称される、例えば、ステレオまたはマルチチャネル音場間の音楽音の分布)等、オーディオミックスを修正することができ、組み合わせまたは同等物において、効果(例えば、リバーブ)を追加することもできる。
【0109】
ユーザは、単独で、または組み合わせて、姿勢またはユーザ入力デバイスを使用して、ステムトラックと相互作用することができる。一実施例として、ミックスの空間化または可視化は、(少なくとも部分的に)ユーザの手の移動に基づく、またはユーザ入力デバイス466から受信された制御信号(例えば、ユーザまたは第三者によって制御可能なマウスまたはジョイスティック)によることができる。ウェアラブルシステムは、ユーザの手の位置を識別することができる。手が移動するにつれて、ウェアラブルシステムは、ユーザへの提示(聴覚的または視覚的に)のために、ステムトラックの異なるミックスを生成することができる。いくつかの実装では、ユーザは、その手(またはスタイラスまたはバトン)を使用して、ウェアラブルシステムのディスプレイ220を通して見える実または仮想オブジェクトを「タッチ」する、または「移動」させてもよく、ウェアラブルシステムは、タッチまたは移動に応答して、ミックスを修正または調節してもよい。別の実施例として、ユーザは、ステムトラックを識別し(例えば、ユーザ入力デバイスを使用して)、その腕を使用して、軌道に沿ってステムトラックを移動させてもよい。ステムトラックは、別のステムトラックと衝突してもよい。ウェアラブルシステムは、これらの2つのステムトラックのミックスをユーザに提示してもよい。
【0110】
いくつかの実装では、ユーザがオーディオファイルを聴取している間、ウェアラブルシステムは、ユーザの姿勢(頭部、眼、足、手のジェスチャ、または他の身体姿勢等)に基づいて、オーディオファイルのステムトラックを動的にミックスすることができる。例えば、ユーザの眼または頭部が移動するにつれて、ウェアラブルシステム(例えば、処理モジュール260および/または270を介して)は、ユーザへの提示のために(例えば、スピーカ240を介して)、オーディオファイル内のステムトラックを動的にミックスし、「新しい」音のセットを生成することができる。したがって、ウェアラブルシステムは、有利には、オーディオファイルのステムトラックのミックスを空間化することができる。
【0111】
加えて、ウェアラブルシステム(例えば、処理モジュール260および/または270を介して)は、ユーザの姿勢に基づいて、個々のステムトラックの可視化またはミックスされたステムトラックの可視化をユーザに動的に提示することができる(例えば、ディスプレイ200を介して)。これは、ユーザの頭部または眼姿勢が変化するにつれて、ユーザにステムトラックのオーディオミックスの異なる視覚的表現が見えることを可能にする。
【0112】
いくつかの実装では、オーディオファイルは、ステムトラックおよびステムトラックの1つまたはそれを上回る事前にミックスされた組み合わせと関連付けられた情報を含んでもよい。そのような実装では、ユーザの姿勢が変化するにつれて、ステムトラックを動的にミックスするのではなく、ウェアラブルシステムは、ユーザへの提示のために、事前にミックスされた組み合わせのうちの1つにアクセスしてもよい。ウェアラブルシステムは、単独で、または組み合わせて、ユーザの位置、ユーザの姿勢、ユーザ入力デバイスからの入力等に基づいて、事前にミックスされた組み合わせを選択することができる。例えば、事前にミックスされた組み合わせは、ユーザの頭部の周囲を包囲するかのように、音楽を再現してもよい。
【0113】
ウェアラブルシステムのユーザはまた、環境(ユーザの部屋等)内に、またはオブジェクト(ユーザの頭部または身体等)に対して、音源の位置を「ロック」することができる。例えば、ユーザは、ステムトラックをその環境内で移動させてもよい。いったんユーザが好むオーディオミックスを見出すと、ユーザは、例えば、ユーザ入力デバイスを作動させることによって、またはその姿勢によって、オーディオミックス内のステムトラックの空間場所をロックすることができる。オーディオミックスは、故に、その環境内のユーザの位置にかかわらず、同一のままとなることができる。ユーザは、ユーザが、オーディオファイルを再生することによって、視野および音場を将来的に再体験し得るように、「ロックされた」ミックスをオーディオファイル内に記憶することができる。
(ステムトラックを提示するための例示的ユーザインターフェース)
【0114】
図12、13、および14は、ウェアラブルシステムのユーザに、オーディオファイルの複数のステムトラックの可視化を提示する、ユーザインターフェースの実施例を図式的に図示する。ステムトラックは、少なくとも部分的に、ユーザの姿勢に基づいて、動的にミックスされてもよい。
【0115】
図12は、2つの例示的ユーザインターフェース1210および1220を図式的に図示する。例示的インターフェース1210および1220では、5つのステムトラックのミックスが、示される。例示的ユーザインターフェース1210では、5つの異なる視覚的グラフィック(例えば、アイコンまたは球)1210a-1210eが、対応する5つのステムトラックを表すように示される。視覚的グラフィックは、静的である必要はなく、移動する、またはオーディオファイルが再生されるにつれて修正または変更されることができる。本実施例では、ユーザの頭部または眼姿勢が変化すると、オーディオミックスは、変化し、視覚的表現1210も、対応して、変化する。例えば、ユーザの眼(または頭部)姿勢が、ユーザがグラフィック1210aの方向に向かって見ていることを示し得る。いくつかのそのような場合、グラフィック1210aは、ユーザの視線方向にないグラフィック1210b-1210eより強調されて表示されてもよい(例えば、より大きい、より明るい等)。グラフィック1210aと関連付けられた音もまた、例えば、音量増加によって強調されることができる。ユーザの姿勢が変化するにつれて、別の視覚的グラフィックが、強調されてもよい、またはユーザは、異なる音場(ステムトラックの異なるオーディオミックスに対応する)および異なる視野を提示されてもよい。
【0116】
いくつかの実装では、ウェアラブルシステムは、オーディオファイルのコンテンツに基づいて、視覚的グラフィックを強調するかどうかを判定してもよい。例えば、ウェアラブルシステムは、その対応するステムトラックが、音量強調される、またはオーディオファイル内の優位を占めるトラックであるため、視覚的グラフィック1210aを強調してもよい。
【0117】
例示的ユーザインターフェース1220では、視覚的グラフィック1220aおよび1220cは、リサジュー図形として提示されてもよい。本実施例では、5つのステムトラック(1220aから1220e)がユーザのFOV内のオーディオファイルに存在し得るが、付加的ステムトラックがユーザの環境内に存在してもよい。しかしながら、視覚的グラフィック1220b、1220d、および1220eに対応するステムトラックは、ミュートされる。その結果、ウェアラブルシステムは、視覚的グラフィックをこれらの方向に示さない(またはサイズまたは明るさを著しく低減させる)(点1220b、1220d、および1220eは、ドットとして示され、グラフィックがユーザに表示されない(または低減されて表示される)ことを示す)。ユーザには、方向1220a、1220cと関連付けられたステムトラックのみのオーディオミックスが聞こえるであろう(例えば、スピーカ240を通して)。
【0118】
種々の実装では、視覚的グラフィック1210a-1210e、1220a-1220eは、相互と異なる、または同一であることができる。多くのタイプの視覚的グラフィックが、提示されることができ(例えば、図13および14における実施例参照)、本明細書に説明される実施例は、例証であって、限定であるものと意図されない。例えば、図12Aに図示されるリサジュー図形1220a、1220cは、動的であることができ、そのパターンは、例えば、音楽のビートに伴って、時間的に変化することができる。
【0119】
いくつかの実装では、ウェアラブルシステムは、(少なくとも部分的に)ステムトラックのオーディオスペクトル(周波数)コンテンツを使用して、ユーザの視野内の対応する視覚的グラフィックの可視化を判定してもよい。オーディオスペクトルコンテンツは、視覚的グラフィックの場所を判定するために使用されてもよい。例えば、高周波数は、第1の方向に表示されてもよく、低周波数は、異なる第2の方向に表示されてもよい。別の実施例として、異なるスペクトルコンテンツを伴う音は、ユーザのFORの異なる部分における視覚的グラフィックによって表されることができる(ユーザが見るまたは聴くために方向転換する必要があるであろう方向を含む)。オーディオスペクトルコンテンツはまた、視覚的グラフィックの外観を判定するために使用されてもよい。例えば、ウェアラブルシステムは、そのステムトラックのオーディオスペクトルコンテンツに基づいて、ステムトラックに対応するリサジュー図形を生成することができる。
【0120】
ユーザインターフェース1210および1220は、ユーザに視覚的グラフィック1210a-1210eまたは1220a-1220eは見えるが、しかし、外側世界470(図4に示される)は見えない、ディスプレイのVRモードで提示されてもよい。ユーザインターフェース1210および1220はまた、ユーザに外側世界470(図4に示される)上に重畳された視覚的グラフィック1210a-1210eまたは1220a-1220eが見える、ディスプレイのARまたはMRモードで提示されてもよい。
(ステムトラックとの例示的相互作用)
【0121】
ユーザは、ステムトラックの個々の音特性を変更することができる。ディスプレイのARモードにおけるユーザインターフェース1210、1220とのユーザ相互作用の実施例として、ディスクジョッキー(DJ)は、手のジェスチャを使用して、ウェアラブルシステムによって表示されるとき、ステムトラックの個々の音特性(例えば、音量)を制御することができる。ウェアラブルシステムを利用するDJは、視覚的グラフィック1210a等の視覚的グラフィックのうちの1つを「握持」し、そのステムトラックの音量を制御してもよい。視覚的グラフィック1210aが、ボーカルトラックを表す場合、DJは、その手を圧縮し、そのステムトラックの音量を低減させてもよい。ステムトラックの他の音特性も、変更または修正されてもよい。例えば、DJが、異なる音特性モード(例えば、ある他の手のジェスチャを行うこと、足姿勢によって)を選択しようとする場合、DJは、視覚的グラフィック1210aによって表されるボーカルトラックの別の音特性を変更または修正し得る。音特性モードが、ピッチに対して変化される場合、この場合、その手を圧縮するDJは、ピッチを減少させるであろう。一方、DJが、ピッチを増加させることを所望する場合、DJは、別の手のジェスチャを使用して、視覚的グラフィック1210aと関連付けられたピッチを増加させてもよい。例えば、DJは、グラフィック1210aと関連付けられた面積(例えば、グラフィック上またはその近傍)において時計回りまたは反時計回りのいずれかにその手を素早く移動させることによって、グラフィック1210aを「スピン」させてもよい。
【0122】
種々のステムトラックを変更または修正し得る、他の音特性も、可能性として考えられる。例えば、他の音特性は、音量、ピッチ、低音域、高音域、音調、音質、強度、持続時間等を含むことができる。前述の実施例は、手のジェスチャの文脈において説明されたが、他の身体ジェスチャも、ウェアラブルシステムのディスプレイ上で現れるステムトラックの音特性を制御するために使用されることができる。
【0123】
加えて、または代替として、いくつかのステムトラックは、VRモードで表示されてもよい。姿勢もまた、VRモードで表示されるステムトラックを変更または修正するために使用されることができる。別の実施例として、DJは、その足のうちの一方を2回タップし(例えば、第1のタップのある時間期間以内に足を2回タップする)、ステムトラックの音特性が変更または修正されることを示してもよい。概して、ジェスチャの種々の実施形態が、視覚的ディスプレイと相互作用するために使用されてもよい。前述の実施例は、姿勢の観点から説明されたが、ユーザ入力デバイスからの制御信号もまた、ステムトラックを変更してもよい。例えば、ユーザは、ジョイスティック、トーテム、またはタッチセンサ式入力デバイスを利用して、視覚的グラフィックとして表されている特定のステムトラックのピッチを変更してもよい。
【0124】
ステムトラックまたはその一部もまた、ウェアラブルシステムのユーザによって生成されてもよい。ユーザ生成ステムトラックは、オーディオファイルの対応する1つ(またはそれを上回る)ステムトラックに取って代わることができる。例えば、ユーザは、ユーザ生成ステムトラックとオーディオのオリジナルステムトラックのうちの1つを置換することができる。ユーザは、(ユーザまたは他者の)ボーカルトラックを録音し、ユーザボーカルトラックと録音のオリジナルボーカルトラックを置換することができる。したがって、再生されているステムトラックは、ユーザがオーディオ録音に合わせて歌っているかのような音であってもよい。別の実施形態では、2つのステムトラックが、デュエットの個別のボーカルトラックに対応する場合、ユーザ生成ボーカルステムトラックは、デュエット内の音声のうちの1つに取って代わることができる。さらに別の実施例として、ユーザ生成ギターソロが、オーディオ録音の対応するギターステムトラックに取って代わることができる。任意の数のオーディオステムトラックが、全体的または部分的に、ユーザ生成ステムトラックと置換されることができる。
【0125】
図13は、ステムトラックを備えるオーディオファイルのMR提示1300の実施例を図式的に図示する。本実施例では、ユーザは、ディスプレイ220(図2に示される)を通して、ソファ1312等の実(物理的)オブジェクトを含有する、部屋1310を見ている。1つのみの物理的オブジェクトが、例証目的のために図13に示されるが、これは、限定ではない。
【0126】
本実施例では、オーディオファイルは、ボーカル、ギター、ベース、およびドラムに対応する、ステムトラックを含む。ウェアラブルシステムは、ギタートラックのためのギターを演奏している人物の形態における視覚的グラフィック1322と、ベーストラックのためのベースギターを演奏している人物の形態における視覚的グラフィック1328と、ボーカルトラックのための歌っている人物の形態における視覚的グラフィック1326と、ドラムトラックのためのドラムセットを演奏している人物の形態における視覚的グラフィック1324とを提示する。図12に示されるユーザインターフェース1210および1220と同様に、異なる視覚的グラフィック1322、1324、1326、および1328は、部屋1310内の異なる方向に表示される。本MR提示では、ギター演奏者に関する視覚的グラフィック1322は、ギター演奏者が、部屋1310内に実際に存在する、(物理的)ソファ1312上に着座しているかのように提示される。視覚的グラフィック1324、1326、および1328は、物理的オブジェクトが存在しない、部屋の領域内に提示される。
【0127】
本明細書に説明されるウェアラブルシステムの実施形態は、オブジェクトをユーザの視野内の複数の深度平面に提示可能であるため(例えば、図3の議論、図4のディスプレイシステム400の導波管アセンブリ480内の導波管432b、434b、436b、438b、440b、または図6のディスプレイシステム600の導波管632b参照)、ユーザインターフェース1300は、異なる視覚的グラフィック1322、1326、1324、および1328を部屋内の異なる深度に示す。例えば、ベースギター奏者(視覚的グラフィック1328)は、部屋1310の正面に向かって存在し、リード歌手(視覚的グラフィック1326)は、部屋1310内の少し後であるが、ユーザから最も遠い、部屋の後に存在する、ドラム奏者(視覚的グラフィック1324)の前方に存在する。加えて、本実施例では、異なる視覚的グラフィック内の詳細の量は、深度に依存することができる。例えば、ドラム奏者(視覚的グラフィック1324)は、ユーザから最も遠くに現れるため、視覚的グラフィック1324は、ユーザのより近くに現れる、視覚的グラフィック1326および1328ほど詳細を有していない。オーディオファイルが(例えば、リード歌手の)移動に関連する付加的情報を含む実施形態では、ウェアラブルシステムは、例えば、部屋1310内を動き回るにつれて歌手を表す、視覚的グラフィック1326を提示することができる。
【0128】
図13に図示される例示的ユーザインターフェース1300は、故に、異なるステムトラックがユーザの外部世界環境470(図4に示される)内に視覚的に表される、実施例を示す。ウェアラブルシステムは、例えば、外向きに面したイメージングシステムによって取得された画像を分析することによって、環境470内のオブジェクト(例えば、部屋1310内のソファ1312)を認識してもよい、または視覚的グラフィックのディスプレイを補助するために使用され得る、環境470内に配置されるトーテムまたは電子トラッッカと通信してもよい。例えば、特定のステムトラックのための視覚的グラフィックは、部屋1310内のトーテムの位置に可視化されてもよい。
【0129】
ユーザが、部屋1310内を動き回るにつれて、ステムトラックの提示は、適宜、変化してもよい。例えば、ユーザが部屋の背後に近づくと、ウェアラブルシステムは、視覚的グラフィック1324をより詳細に提示することができる。ウェアラブルシステムはまた、視覚的グラフィック1324と関連付けられたドラムトラックの音量を増加させ、ユーザがドラム奏者により近づいたことを反映することができる。いくつかの実装では、ウェアラブルシステムは、ユーザの場所に基づいて、ステムトラックの空間化を調節することができる。例えば、視覚的グラフィック1326が、ユーザの正面に提示されると、ウェアラブルシステムは、ボーカルトラックがユーザの正面から生じるかのように、オーディオファイルを再生してもよい。しかしながら、ユーザが、視覚的グラフィック1326を通過し、視覚的グラフィック1324に向かって歩くにつれて、ウェアラブルシステムは、ボーカルトラックがユーザの右側から生じるかのように、オーディオファイルを再生してもよい。
【0130】
ある実装では、ウェアラブルシステムは、ユーザが歩き回るにつれて、視覚的グラフィックの場所を更新することができる。例えば、図13を参照すると、ユーザが動き回るにつれて、視覚的グラフィック1322、1324、1326、および/または1328も、部屋1310内でユーザに「追従」してもよい。
【0131】
ウェアラブルシステムのユーザは、オーディオトラックの所望のミックスを選択的に選定することができる。例えば、ステムトラックが、ボーカル、ギター、ベース、およびドラムに対応する場合、ユーザは、ステムトラックのうちの1つのみ(例えば、ボーカルのみまたはギターのみ)を聴取し得る(またはその視覚的表現が見える)。ウェアラブルシステムは、ユーザに、そのステムトラックのみをユーザのFOV内で提示してもよい(視覚的および聴覚的に)。ユーザがその頭部または眼を移動させるにつれて、ステムトラックは、ユーザのFOV内または外に移動してもよい。故に、ユーザは、異なるステムトラックまたはステムトラックの異なるミックスを聴取することができる(または見える)。いくつかの実装では、ユーザは、適切なジェスチャ(例えば、手のジェスチャ)を使用することによって、オーディオトラックをミュートすることができる。例えば、ユーザは、ギターソロを聴取することを所望してもよく、ギタートラック以外の全てのトラックをミュートし得る。
【0132】
加えて、または代替として、視覚的ディスプレイと相互作用し、音特性を制御する実施例に関して上記に説明されたように、視覚的グラフィックはまた、手のジェスチャを使用して、ディスプレイのVR、AR、および/またはMRモードで修正または変更されてもよい。一実施例として、ディスプレイのMRモードでは、ユーザは、その手をベースギター奏者、例えば、視覚的グラフィック1328にかけ、視覚的グラフィック1322、1326、1324、および1328によって演奏されている音トラックの音と関連付けられたベースを抑制してもよい。視覚的グラフィック1328の結果として生じるディスプレイは、他のグラフィック1322、1326、または1324より小さく現れ得る。別の実施例として、ユーザは、手のジェスチャを使用して、視覚的グラフィック1322、1326、1324、および1328によって表されるステムトラックの音量を制御することができる。ユーザは、ドラム奏者の視覚的グラフィック1324を「握持」し、部屋1310の正面に向かって「ドラッグ」し、ドラムの音量を増加させてもよい。逆に言えば、ボーカルの音量を減少させるために、ユーザは、ドラム奏者の視覚的グラフィック1324を部屋1310の背後に向かって「押し戻し」てもよい。
【0133】
視覚的グラフィックはまた、他の姿勢を使用して、修正または変更されてもよい。例えば、慣性測定ユニット(IMU)等のウェアラブルシステム200に結合される他のセンサが、ユーザの頭部または身体姿勢を検出するために使用されてもよい。例えば、IMUは、ユーザが、頭部姿勢における変化に対応し得る、その頭部を前後に点頭することを検出してもよい。ウェアラブルシステムは、視覚的グラフィック1322、1324、1326、および1328のうちの1つの選択のために、頭部姿勢における本変化を使用することができる。例えば、ユーザが、ベースの視覚的グラフィック1328を見ている間、その頭部を点頭すると、ウェアラブルシステムは、ベースに対応するステムトラックを選択することができる。ある場合には、十分に「急峻」な頭部移動(例えば、閾値を上回るIMU測定)は、視覚的グラフィックの選択を示してもよい一方、より緩慢な頭部移動(閾値を下回るIMU測定)は、グラフィックと関連付けられた性質の調節を示してもよい。例えば、ユーザが、視覚的グラフィック1326を部屋1310の背後に向かって「押し戻している」間、ユーザは、その頭部を視覚的グラフィック1328に向かって点頭し、視覚的グラフィック1328、例えば、ベースステムトラックの選択を示してもよい。いったん選択されると、ユーザは、何らかの方法(例えば、ベースステムトラックを弱める)で、またはステムトラックの音特性の変化に関して上記に説明されたように、そのステムトラックを変更することができる。
【0134】
加えて、または代替として、選択されたステムトラックを姿勢を用いて変更する間、ユーザはまた、特定のステムトラックを演奏し、その対応するステムトラックとウェアラブルシステムによって再生されているオーディオトラックを置換してもよい(例えば、ステムトラックを置換する実施例に関して上記に説明されたように)。例えば、ユーザは、同時に、他の視覚的グラフィック、例えば、ベースステムトラックを表す視覚的グラフィック1328によって表される他のステムトラックを変更しながら、グラフィック1326のボーカルを置換してもよい。さらに、身体姿勢も、頭部姿勢または手のジェスチャに加えて、使用されることができる。例えば、足姿勢における変化(例えば、足をタップする)は、ギターまたはドラムペダルを踏むこと、ドラムを叩くこと、オーディオ効果を作動させること(例えば、リバーブ)等を示してもよい。
【0135】
図14は、ウェアラブルシステムによって提示され得る、ユーザインターフェース1400の別の実施例を図式的に図示する。本実施例では、オーディオファイルは、一連の室内楽を演奏する、弦楽四重奏(2つのバイオリン、1つのビオラ、および1つのチェロ)を含む。ウェアラブルシステムのユーザが、オーディオファイルを聴取するにつれて、ウェアラブルシステムは、ユーザインターフェース1400をユーザに提示し、バイオリンを表す視覚的グラフィック1410および1420と、チェロを表す視覚的グラフィック1430と、ビオラを表す視覚的グラフィック1440とを示す。ユーザの頭部または眼姿勢が変化するにつれて、これらの4つの楽器の異なるミックスが、ユーザに聴覚的に提示される。例えば、ユーザが、バイオリン1410および1420の方向に向かって見ている場合、ユーザには、バイオリン音がチェロおよびビオラ音より強調されるオーディオが聞こえ得る(ミュートされる、またはバイオリンより低い音量で再生されてもよい)。バイオリンのための視覚的グラフィック1410および1420は、対応して、チェロおよびビオラのための視覚的グラフィック1430および1440と比較して強調されてもよい。例えば、バイオリンの弓は、移動するように表示されてもよい一方、チェロおよびビオラのための弓は、移動しないように表示されてもよい。本実施例では、視覚的グラフィック1410、1420、1430、および1440は、共通深度平面に表示されるように現れるが、これは、限定ではなく、他の実施例では、異なる楽器を表す視覚的グラフィックは、ユーザから異なる深度平面に提示されることができる。そのような3D表現の付加的実施例は、図15に示される。
【0136】
ウェアラブルシステムはまた、表示される視覚的グラフィックとのユーザ相互作用を可能にするように構成されてもよい。例えば、ユーザインターフェース1400は、ユーザが、ステムトラックが表されている、または表示されている特定の方式で相互作用することができる、種々のステムトラックを提示してもよい。特定の視覚的グラフィックは、変更または修正され得るものの表現であってもよい。実施例として、ディスプレイのMRモードでは、ユーザが、ビオラ1440を「握持」する(例えば、MRモードで表示されるグラフィックと相互作用する実施例に関して上記に説明されたようにビオラを「握持」する)場合、ユーザは、ビオラを「再生」し、ビオラ音の特性を修正してもよい。本実施例を継続すると、ユーザがビオラを「握持」した後、ユーザは、ウェアラブルシステム生成「弓」を使用して、ビオラを「再生」し、それによって、ビオラ音の特性(例えば、音量)を修正してもよい。ディスプレイのMRモードの別の実施例として、ユーザは、ビオラを「再生」し、再生されている対応するビオラステムトラックを置換してもよい。例えば、ユーザは、ウェアラブルシステム生成「弓」を使用して、ビオラを「再生」し、ビオラステムトラックを生成してもよい。一実施形態では、本ユーザ生成ビオラステムトラックは、ユーザに結果として生じる聴覚的音が弦楽四重奏のビオラ部分をユーザが再生しているように、弦楽四重奏におけるビオラステムトラックを置換してもよい。
【0137】
前述の実施例は、室内楽器の視覚的グラフィックの文脈で説明されたが、他の視覚的グラフィックも、UIとして作用し、生成されたUIが表すオブジェクトを変更または修正してもよい。例えば、電気ギターを用いたオーディオトラックに関して、UIは、弦、スイッチ、およびノブを有する、電気ギターの表現を含んでもよい。ユーザは、ギターの弦を弾くまたは鳴らす、トグルスイッチを調節する、またはノブを回転して、オーディオトラックの種々の側面を制御してもよい。視覚的グラフィックは、修正されるべきオブジェクトのスキュアモーフィック表現であってもよい。例えば、番号キーパッドを含む、電話グラフィックが、ユーザが電話番号をダイヤルし得るように、ウェアラブルシステムと関連付けられたダイヤル機能を表してもよい。別の実施例として、カレンダのAR表現が、紙製の卓上カレンダ上の装丁の外観をエミュレートしてもよい。概して、ウェアラブルシステムによって生成される任意の視覚的グラフィックオブジェクトが、ユーザインターフェースとして使用されてもよい。
(3D空間内におけるステムトラックの提示)
【0138】
図13を参照して説明されるように、ウェアラブルシステムは、視覚的グラフィックをユーザの環境内の異なる深度に示す、3Dユーザインターフェースを提示することができる。図15は、3Dユーザインターフェースの別の実施例を図示する。
【0139】
図15では、4つの視覚的グラフィック1510、1520、1530、および1540が、ユーザのFOV内に存在する。これらの視覚的グラフィックは、リサジュー図形または他のグラフィカル表現であってもよい。視覚的グラフィックの外観は、ユーザによって再生されているオーディオコンテンツに対応することができる。例えば、ユーザは、その関連付けられたステムトラックがオーディオファイル内で強調される(例えば、ミックス内でより高音で再生される)ため、視覚的グラフィック1510を最も近くにあるように知覚してもよい。視覚的グラフィック1520は、その関連付けられたステムトラックが相対的にミュートされ得るため、低減されたサイズで示される。視覚的グラフィックは、オーディオコンテンツが変化するにつれて変化してもよい。例えば、視覚的グラフィック1520と関連付けられたステムトラックが、もはやミュートされなくなると、視覚的グラフィック1520は、もはや低減されたサイズで現れなくてもよい。
【0140】
ウェアラブルシステムは、その関連付けられたステムの空間場所に基づいて、視覚的グラフィックを設置することができる。例えば、視覚的グラフィック1520は、その対応する音が遠方の場所から生じる(例えば、オーケストラの背後のティンパニ奏者)ため、小音量で現れてもよい一方、視覚的グラフィック1510は、その対応する音がより近傍の場所から生じる(例えば、オーケストラの正面の歌手)ため、より大音量で現れてもよい。別の実施例として、視覚的グラフィック1540は、視覚的グラフィック1540と関連付けられたステムトラックが視覚的グラフィック1530と関連付けられたステムトラックよりユーザから離れ得るため、視覚的グラフィック1530の背後に現れる。グラフィック1510-1540の相対的距離または場所は、ユーザのための3D体験を提供するように表示されることができ、音楽が変化するにつれて、またはユーザの姿勢が変化するにつれて、動的に変化してもよい(距離、場所、サイズ、色、形状等において)。グラフィック1510-1540は、ユーザが、それらのうちの1つまたはそれを上回るものを選択し(例えば、ユーザの手を延ばすことによって)、選択されたグラフィックを移動させ得るように相互作用可能であってもよく、これは、可視化の性質だけではなく、また、音も変更し得る(例えば、選択されたグラフィックに対応するステムトラックをより高音にする、よりソフトにする、低音域または高音域を増減させること等によって)。
【0141】
ウェアラブルシステムはまた、視覚的グラフィックをユーザのFOV外に移動させることができる。図15は、3Dビュー1500内の水平線1550を示す。ウェアラブルシステムは、仮想グラフィックが、水平線1550の下に沈降する、またはそこから上昇することを示すことができる。実施例として、ステムトラックの音量が減少されると、ウェアラブルシステムは、その関連付けられた視覚的グラフィックが水平線1550の真下に移動するように示してもよい。その結果、ユーザに、水平線1550の真下の視覚的グラフィックの部分が見えなくなり得る。別の実施例として、ステムトラックの音量が増加すると、ウェアラブルシステムは、関連付けられた視覚的グラフィックが水平線1550から上昇するように示してもよい。いくつかの実装では、ウェアラブルシステムは、水平線を反射表面(水表面またはガラスをシミュレートする等)として示してもよく、ウェアラブルシステムは、視覚的グラフィック1510、1520、1530、および1540の反射された画像を水平線1550上に示すことができる。
【0142】
いくつかの実施形態では、ウェアラブルシステムは、ユーザが視覚的グラフィックに十分に近いときのみ、視覚的グラフィックを表示してもよい。例えば、図15では、システムは、ユーザから離れすぎているため、視覚的グラフィック1520を示さないように構成されてもよい。図16Bを参照してさらに説明されるように、ウェアラブルシステムは、ユーザにまた、視覚的グラフィックと関連付けられた音源が聞こえるとき、例えば、ユーザが指向性音源の聴覚的領域の内側に存在するとき等のみ、視覚的グラフィックを表示するように構成されてもよい。
【0143】
別の実施例として、図16Aは、ユーザの環境の俯瞰図1600aを示す。ウェアラブルシステムが、一連の音楽を再生している間、ウェアラブルシステムは、それぞれ、音楽のステムトラックと関連付けられる、5つの(本実施例では)視覚的グラフィック1610a、1620a、1630a、1640a、および1650aを提示してもよい。本実施例では、5つの視覚的グラフィックは、ユーザの環境の異なる場所に設置される。ユーザ1670aは、部屋の中央に立っており、5つの視覚的グラフィックによって囲繞されてもよい。所与の時間に、他の視覚的グラフィックがその環境内に存在しても、ユーザ1670aに、視覚的グラフィックのサブセットがそのFOV内に見え得る。例えば、ユーザ1670aには、視覚的グラフィック1630aおよび1640aが同時にそのFOV内に見えるが、視覚的グラフィック1610aがユーザ1670aの背後にあるため、視覚的グラフィック1610aは見えない。ユーザ1670aが、その姿勢を変化させるにつれ、他の視覚的グラフィックも、可視となり得る。例えば、ユーザ1670aが方向転換すると、ユーザは、視覚的グラフィック1610aを知覚することができるが、視覚的グラフィック1630aおよび1640aは、ユーザのFOVの外側にあるため、もはや知覚可能ではなくなり得る。
【0144】
図13を参照して説明されるように、ユーザ1670aがその環境内で動き回るにつれて、視覚的グラフィックの外観は、適宜、変化してもよい。例えば、ユーザ1670aが、視覚的グラフィック1610aに接近するにつれて、ウェアラブルシステムは、視覚的グラフィック1610aのさらなる詳細を提示してもよい。ウェアラブルシステムはまた、ユーザが視覚的グラフィック1610aを見ているとき、視覚的グラフィック1610aを強調し、例えば、より大きく、かつより明るく現れるようにすることができる。しかしながら、ユーザが異なる方向に方向転換するにつれて、視覚的グラフィック1610aは、サイズまたは明るさを低減させてもよい一方、ユーザの視線方向における別の視覚的グラフィック(1650b等)が、強調されてもよい(図16Bに示されるように)。
【0145】
別の実施例として、ユーザ1670aは、最初に、視覚的グラフィック1630aおよび1640aをそのFOV内に知覚してもよい。しかし、ユーザ1670aが視覚的グラフィック1630aにより近づくにつれて、視覚的グラフィック1640aは、ユーザのFOVの外側になり得、したがって、ユーザ1670aは、もはや視覚的グラフィック1640を知覚可能ではなくなり得る。
【0146】
ある状況では、オーディオコンテンツは、同一のままであってもよい(例えば、ユーザがステムトラックの空間場所をロックしたため)が、視覚的グラフィックは、ユーザの場所に基づいて変化してもよい。例えば、ウェアラブルシステムは、ユーザ1670aにより近くなると、視覚的グラフィックをより明るくしてもよい一方、ユーザ1670aから離れると、より暗くしてもよい。一方、ウェアラブルシステムは、ユーザ1670aが動き回るにつれて、視覚的グラフィックと関連付けられたステムトラックを更新しないように構成されてもよい(ステムトラックの音量を変化させない等)。
【0147】
他の実装では、ユーザ1670aがその環境内で動き回るにつれて、オーディオファイル内のオーディオコンテンツは、更新されてもよい。例えば、ユーザ1670aが視覚的グラフィック1610aの場所により近づくにつれて、視覚的グラフィック1610aと関連付けられた音は、より顕著となってもよい。同様に、ユーザ1670は、最初に、視覚的グラフィック1630aおよび1640aに面してもよい。その結果、視覚的グラフィック1630aおよび1640aと関連付けられたステムトラックは、ユーザ1670aの正面にあるかのように再生されてもよい。しかしながら、ユーザ1670aが方向転換するにつれて、視覚的グラフィック1630aおよび1640aと関連付けられたステムトラックは、ユーザ1670aの背後で再生されているかのように更新されてもよい。(音源の指向性)
【0148】
図16Aおよび16Bはまた、音源の指向性の実施例を図示する。俯瞰図1600aおよび1600bに示されるように、ステムトラック1610a、1620a、および1650bは、いくつかの方向においてのみ可聴であってもよい。例えば、ステムトラック1610aは、領域1612a内でのみ可聴であって、ステムトラック1620aは、領域1622aおよび1624a内でのみ可聴であって、ステムトラック1650b(図16Bに示される)は、領域1652b、1654b、1656b、および1658b内でのみ可聴である。
【0149】
ユーザが、可聴領域の内側に存在するとき、ユーザは、可聴領域と関連付けられた音を知覚することができる。例えば、図16Bでは、ユーザが領域1652bの内側に存在するとき、ユーザは、視覚的グラフィック1650bと関連付けられた音を知覚することができる。しかしながら、ユーザが、領域1652b、1654b、1656b、および1658bの外側に存在する場合、ユーザは、視覚的グラフィック1650bと関連付けられた音が聞こえなくなり得る。
【0150】
いくつかの実装では、ステムトラックのための可聴領域は、重複してもよい。図16Aに示されるように、領域1624aおよび1612aは、領域1672aにおいて重複する。その結果、ユーザ1670aが領域1672a内に存在するとき、ウェアラブルシステムは、視覚的グラフィック1620aおよび1610aと関連付けられた音の混合物を提示してもよい。例えば、オーディオミックスは、音の空間場所を反映してもよい。図1600aでは、ユーザが視覚的グラフィック1610aに面しているため、視覚的グラフィック1610aと関連付けられた音は、ユーザの正面に現れ得る一方、視覚的グラフィック1622aと関連付けられた音は、オーディオミックス内においてユーザの左となるように現れ得る。
【0151】
ウェアラブルシステムは、単独で、または視覚的グラフィック1620aと組み合わせて、視覚的グラフィック1610aをFOV内に表示してもよい。例えば、ユーザが領域1672a内に存在するとき、ユーザには、視覚的グラフィック1610aおよび1620aと関連付けられた音に関するオーディオミックスが聞こえ得るが、ユーザは、視覚的グラフィック1610aのみを知覚してもよい。他の実装では、ウェアラブルシステムは、オーディオミックスが視覚的グラフィックの両方と関連付けられた音を含むため、視覚的グラフィック(1610aおよび1620a)の両方を提示してもよい。
【0152】
いくつかの実施形態では、ウェアラブルシステムは、ユーザがステムトラックの可聴領域内に存在するとき、ステムトラックと関連付けられた視覚的グラフィックのみを表示するように構成されてもよい。実施例として、ウェアラブルシステムは、ユーザが領域1652b、1654b、1656b、および1658bに存在するとき、視覚的グラフィック1650bを表示してもよい。ユーザが視覚的グラフィック1650bに接近するにつれて、ウェアラブルシステムは、視覚的グラフィック1650bをより大きく、かつより明るくなるように示してもよい。一方、ウェアラブルシステムは、随意に、オーディオミックス内の視覚的グラフィック1650bの音量を増加させてもよい。しかしながら、ユーザが、可聴領域の外側に存在するとき、ウェアラブルシステムは、いくつかの状況では、ユーザが視覚的グラフィック1650bの方向を見ている場合でも、視覚的グラフィック1650bを示さないように構成されてもよい。
【0153】
ある実装では、ユーザの環境内のステムトラックのサブセットのみが、指向性音効果を有してもよい。例えば、図16Aでは、視覚的グラフィック1630aおよび1640aと関連付けられた音は、指向性音効果を有していなくてもよい。その結果、ユーザが領域1672a内に存在する間、ウェアラブルシステムは、それにもかかわらず、視覚的グラフィック1630aおよび1640aと関連付けられた音を、視覚的グラフィック1620aおよび1610aと関連付けられた音とともに、オーディオミックス内に含んでもよい。
【0154】
図16Aおよび16Bにおける音領域の形状およびサイズは、例証目的のためだけのものであって、限定することを意図するものではない。指向性音効果によって影響される領域は、丸い突出物以外の形状と関連付けられてもよい。領域はまた、図示されるものより大きいまたは小さくてもよい。例えば、いくつかの実施形態では、複数の音間に重複が存在しない。その結果、ユーザは、その音源の領域内に存在するとき、1つの音源のみを知覚することができる。
(音コラージュ効果の実施例)
【0155】
図17は、音コラージュ効果を生成する実施例を図示する。図17Aは、複数の表面1710、1720、および1730を有する、仮想3Dオブジェクト1700を図示する。各表面は、単独で、または組み合わせて、オーディオステム、オーディオファイル、音のタイプ、または他の音源と関連付けられてもよい。各表面上のオーディオステムは、上記に説明されるように、指向性であってもよい。例えば、ユーザが、表面1730の正面に存在する場合、ユーザには、表面1730と関連付けられたステムが聞こえ得るが、ユーザには、表面1710と関連付けられた音がユーザの方向にないため、表面1710と関連付けられたステムが聞こえなくてもよい。
【0156】
ウェアラブルシステムのユーザは、方向1750等に3D仮想オブジェクト1700をスピンさせ(またはその周囲で移動させ)、表面1720、表面1730等と関連付けられた音(またはその一部)を含む、オーディオミックスを生成することができる。いくつかの実装では、オーディオミックスは、3D仮想オブジェクト1700の移動に対応することができる。例えば、ユーザが、3D仮想オブジェクト1700のスピンを停止させる場合、3D仮想オブジェクト1700の移動は、徐々に減速し得る。その結果、音コラージュは、ある表面と関連付けられた音のより大きい部分を含んでもよい。
【0157】
3D仮想オブジェクト1700は、立方体形状を使用して図示されるが、他の幾何学的形状もまた、3D仮想オブジェクトのために使用されてもよい。例えば、3D仮想オブジェクトは、単独で、または組み合わせて、球体、円錐、直方体、多面体、角錐、円錐台、不規則形状等であってもよい。ステムトラックおよび/または音ファイルはまた、仮想オブジェクトの表面と関連付けられるように要求されない。例えば、それらは、3D仮想オブジェクトの異なる体積部分と関連付けられてもよい。いくつかの実装では、所与の表面および/または体積と関連付けられた複数のステムトラックおよび/または音ファイルが、存在してもよい。
(ステムトラックを提示する例示的プロセス)
【0158】
図18は、オーディオファイルを視覚的かつ聴覚的に提示する例示的プロセスを図示する。プロセス1800は、本明細書に説明されるウェアラブルシステムによって行われることができる。
【0159】
ブロック1810では、ウェアラブルシステムは、オーディオファイルと関連付けられたステムトラックにアクセスすることができる。ウェアラブルシステムは、オーディオファイル内のステムトラックを識別することができる。ウェアラブルシステムはまた、オーディオファイルの一部のみであり得るが、他のオーディオファイルのステムトラックとミックスするために使用され得る、例えば、遠隔データリポジトリ280(図2に示される)に記憶される、ステムトラックにアクセスすることができる。
【0160】
ブロック1820では、ウェアラブルシステムは、ステムトラックの可視化を生成する。例えば、ウェアラブルシステムは、ステムトラックと関連付けられた視覚的グラフィックを提供することができる。図12-14を参照して説明されるように、視覚的グラフィックは、ステムトラックを再生している楽器または人物、または任意のタイプのグラフィック形状、設計、色等を表してもよい。グラフィックは、2Dまたは3Dで現れてもよい。視覚的グラフィックは、音楽のオーディオコンテンツに基づいて変化してもよい。例えば、視覚的グラフィックは、音楽の音量、ビート等に基づいて、拡張または収縮してもよい。
【0161】
ウェアラブルシステムはまた、ユーザが、姿勢および/またはユーザ入力デバイスを使用して、ステムトラックと相互作用することを可能にすることができる。ブロック1830では、ウェアラブルシステムは、ユーザの姿勢を検出することができる。姿勢は、手のジェスチャ、頭部姿勢、足姿勢、または他の身体姿勢を含んでもよい。ウェアラブルシステムは、図2を参照して説明されるセンサ(IMUおよび外向きに面したイメージングシステム等)を使用して、ユーザの姿勢を検出することができる。
【0162】
ブロック1840では、ウェアラブルシステムは、ユーザの姿勢に基づいて、ステムトラックのオーディオミックスを生成することができる。例えば、ユーザは、ステムトラックの視覚的グラフィックを握持し、2つの視覚的グラフィック間の衝突を生じさせてもよい。ウェアラブルシステムは、適宜、その関連付けられたステムトラックをミックスし、オーディオミックスを生成することができる。別の実施例として、ユーザは、その身体を方向転換し、そのFOV内の1つまたはそれを上回る視覚的グラフィックを知覚することができる。ウェアラブルシステムは、そのFOV内の視覚的グラフィックと関連付けられたステムトラックをミックスし、オーディオミックスを生成することができる。さらに別の実施例として、ユーザは、姿勢を使用してステムトラックの音量または空間場所を調節すること等によって、ステムトラックを調節してもよい。ウェアラブルシステムは、適宜、ステムトラックの調節に基づいて、オーディオミックスを生成することができる。
【0163】
ブロック1850では、ウェアラブルシステムは、ユーザの姿勢に基づいて、可視化を更新することができる。例えば、ウェアラブルシステムは、ユーザの位置および配向に基づいて、視覚的グラフィックのサブセットをユーザのFOV内に表示することができる。ウェアラブルシステムはまた、ユーザの姿勢に基づいて、1つまたはそれを上回る視覚的グラフィックをハイライトまたは強調する(または強調解除する)ことができる。2つまたはそれを上回る視覚的グラフィックが衝突すると、ウェアラブルシステムはまた、新しい視覚的グラフィックを生成および表示することができる。新しい視覚的グラフィックは、例えば、衝突された視覚的グラフィックをともにインターリーブすることによって、前の視覚的グラフィック間の衝突を反映させてもよい。
【0164】
ウェアラブルシステムはまた、複数のユーザが、視覚的グラフィックおよびステムトラックとの相互作用を共有することを可能にすることができる。例えば、複数のユーザが部屋内に存在してもよい。各ユーザは、ステムトラックをミックスすることができ、結果として生じるオーディオおよび視覚的ミックスは、部屋内の全てのユーザに提示されてもよい。いくつかの実装では、ユーザ毎のウェアラブルシステムは、ユーザの位置および/または配向に基づいて、個人化された視覚的グラフィックを提示することができる。例えば、東に面しているユーザは、西に面しているユーザと視覚的グラフィックの異なるサブセットを知覚してもよい。別の実施例として、ユーザ(DJ等)は、その環境内においてステムトラックと相互作用し、オーディオミックスを生成することができる。ユーザのウェアラブルシステムは、ストリーミングまたは再生のために、オーディオミックスを他のウェアラブルシステムに通信することができる。ウェアラブルシステムはまた、他のコンピューティングシステムを介して、オーディオミックスをブロードキャストすることができる。例えば、ウェアラブルシステムは、部屋内のスピーカを介して、オーディオミックスを他の人々に再生することができる。
【0165】
本明細書に説明される実施例は、ステムトラックを参照して説明されるが、本明細書に説明される技法は、ステムトラックに限定されない。ウェアラブルシステムはまた、他のオーディオコンテンツを提示し、それとのユーザ相互作用を可能にすることができる。例えば、ウェアラブルシステムは、ユーザが、2つのオーディオファイルをミックスすることを可能にすることができ、1つのオーディオファイルは、背景音楽を有する一方、他のオーディオファイルは、ボーカルを含む。
(付加的実施形態)
【0166】
第1の側面では、ウェアラブルディスプレイデバイスであって、ウェアラブルディスプレイデバイスの装着者の姿勢と関連付けられた情報を測定するように構成される、非一過性メモリと、画像をウェアラブルディスプレイデバイスの装着者の眼に提示するように構成される、ディスプレイと、音をウェアラブルディスプレイデバイスの装着者に提示するように構成される、スピーカと、非一過性メモリ、センサ、スピーカ、およびディスプレイと通信する、プロセッサであって、該プロセッサは、装着者の姿勢を判定することと、少なくとも部分的に、装着者の姿勢に基づいて、オーディオファイルの複数のステムトラックのうちの少なくとも1つのオーディオミックスを生成することと、少なくとも部分的に、装着者の姿勢およびオーディオミックスに基づいて、オーディオミックスの可視化を生成することと、オーディオミックスを表すオーディオ信号をスピーカに通信することと、オーディオミックスの可視化を表す視覚的信号をディスプレイに通信することとを行うための実行可能命令でプログラムされる、プロセッサとを備える、ウェアラブルディスプレイデバイス。
【0167】
第2の側面では、複数のステムトラックは、少なくとも4つのステムトラックを備える、側面1に記載のウェアラブルディスプレイデバイス。
【0168】
第3の側面では、複数のステムトラックは、異なる楽器のための複数のトラックを表す、側面1または側面2に記載のウェアラブルディスプレイデバイス。
【0169】
第4の側面では、複数のステムトラックはさらに、ボーカルトラックを表す、側面3に記載のウェアラブルディスプレイデバイス。
【0170】
第5の側面では、複数のステムトラックは、ギター、ベースギター、ドラム、およびボーカルを表す、側面4に記載のウェアラブルディスプレイデバイス。
【0171】
第6の側面では、センサは、眼追跡カメラ、ジャイロスコープ、加速度計、または慣性測定デバイスを備える、側面1-5のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。
【0172】
第7の側面では、姿勢は、頭部姿勢、眼姿勢、または頭部姿勢および眼姿勢の両方を備える、側面1-6のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。
【0173】
第8の側面では、姿勢は、装着者のジェスチャを備える、側面1-7うちのいずれか1つに記載のウェアラブルディスプレイデバイス。
【0174】
第9の側面では、ディスプレイは、複数の深度平面を装着者に提示するように構成される、側面1-8のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。
【0175】
第10の側面では、ディスプレイは、ライトフィールド画像を装着者に提示するように構成される、側面1-9のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。
【0176】
第11の側面では、ディスプレイは、複数のスタックされた導波管を備える、側面1-10のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。
【0177】
第12の側面では、可視化は、複数のステムトラックのそれぞれと関連付けられた視覚的グラフィックを備える、側面1-11のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。
【0178】
第13の側面では、視覚的グラフィックは、ステムトラックの演奏と関連付けられた楽器または人物のグラフィカル表現を備える、側面12に記載のウェアラブルディスプレイデバイス。
【0179】
第14の側面では、視覚的グラフィックの少なくとも一部は、装着者に対して異なる深度平面において提示される、側面12または側面13に記載のウェアラブルディスプレイデバイス。
【0180】
第15の側面では、ウェアラブルディスプレイデバイスは、装着者の近傍の物理的オブジェクトを認識し、グラフィカル表現を物理的オブジェクトと関連付けられているように提示するように構成される、側面12-14のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。
【0181】
第16の側面では、ウェアラブルディスプレイデバイスは、入力を電子コンポーネントから受信するように構成され、プロセッサは、少なくとも部分的に、入力に基づいて、オーディオミックスまたは可視化を生成するように構成される、側面1-15のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。
【0182】
第17の側面では、複数のステムトラックのうちの少なくとも1つは、ステムトラックの空間指向性と関連付けられた情報を備える、側面1-16のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。
【0183】
第18の側面では、複数のステムトラックのうちの少なくとも1つは、装着者に対する空間場所と関連付けられる、側面1-17のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。
【0184】
第19の側面では、プロセッサは、少なくとも部分的に、装着者の姿勢または電子コンポーネントからの入力に基づいて、複数のステムトラックのうちの少なくとも1つと関連付けられた空間場所をロックするように構成される、側面18に記載のウェアラブルディスプレイデバイス。
【0185】
第20の側面では、オーディオファイルは、複数のステムトラック、所与の時間における複数のステムトラックと関連付けられた位置データ、またはオーディオミックスの可視化に関する情報のうちの少なくとも1つを示すメタデータを備えるオーディオフォーマットでエンコードされる、側面1-19のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。別の側面では、オーディオファイルは、複数のステムトラック、所与の時間における複数のステムトラックと関連付けられた位置データ、またはオーディオミックスの可視化に関する情報のうちの少なくとも1つを示すメタデータを備えるオーディオフォーマットでエンコードされる。オーディオファイルは、複数のステムトラックと関連付けられた情報および/または識別子を備えることができる。オーディオファイルは、複数のステムトラックのオーディオミックスを含むことができる。
【0186】
第21の側面では、オーディオミックスの可視化は、各表面が複数のステムトラックのステムトラックと関連付けられた複数の表面を備える、3次元仮想オブジェクトを備える、側面1-20のうちのいずれか1つに記載のウェアラブルディスプレイデバイス。オーディオミックスは、複数のステムトラックの音コラージュ効果を備えることができる。
【0187】
第22の側面では、拡張現実オブジェクトと相互作用するための方法であって、該方法は、ハードウェアコンピュータプロセッサの制御下で、ウェアラブルディスプレイシステムの装着者による相互作用のための拡張現実オブジェクトを生成するステップであって、拡張現実オブジェクトは、拡張現実オブジェクトと関連付けられ、ウェアラブルディスプレイシステムのディスプレイ上に表示される、特性の修正のためのインターフェースを含む、ステップと、装着者がインターフェースと相互作用する間、装着者のジェスチャを検出するステップと、検出されたジェスチャと拡張現実オブジェクトの特性への修正を関連付けるステップと、拡張現実オブジェクトの特性への修正に従って、拡張現実オブジェクトを修正するステップとを含む、方法。
【0188】
第23の側面では、装着者がインターフェースと相互作用する間、装着者のジェスチャを検出するステップは、ウェアラブルディスプレイシステムの外向きに面した画像捕捉デバイスを用いて、装着者の手の第1の画像を捕捉するステップと、ウェアラブルディスプレイシステムの外向きに面した画像捕捉デバイスを用いて、装着者の手の第2の画像を捕捉するステップと、第1の画像および第2の画像を比較し、装着者のジェスチャを検出するステップとを含む、側面22に記載の方法。
【0189】
第24の側面では、拡張現実オブジェクトは、電話を表し、インターフェースは、番号キーパッドに対応する、側面22-23のうちのいずれか1つに記載の方法。
【0190】
第25の側面では、検出されたジェスチャと拡張現実オブジェクトの特性への修正を関連付けるステップは、電話上での指での押下を関連付け、番号キーパッドの外観を修正するステップを含む、側面22-24のうちのいずれか1つに記載の方法。
【0191】
第26の側面では、拡張現実オブジェクトの特性への修正に従って、拡張現実オブジェクトを修正するステップは、関連付けられた指での押下に対応するキーパッド上への順次押下表示を用いて、番号キーパッドを表すステップを含む、側面22-25のうちのいずれか1つに記載の方法。
【0192】
第27の側面では、拡張現実オブジェクトのインターフェースは、拡張現実オブジェクトのスキュアモーフィック表現に対応する、側面22-26のうちのいずれか1つに記載の方法。
【0193】
第28の側面では、拡張現実オブジェクトは、楽器または楽器を演奏している人物に対応する、側面22-27のうちのいずれか1つに記載の方法。
【0194】
第29の側面では、検出されたジェスチャと楽器または楽器を演奏している人物への修正を関連付けるステップは、楽器と相互作用する装着者の手または指の移動を検出し、楽器と関連付けられたステムトラックの属性を増加させるステップを含む、側面22-28のうちのいずれか1つに記載の方法。
【0195】
第30の側面では、拡張現実オブジェクトは、複数のステムトラックのうちの少なくとも1つを備える、オーディオファイルと関連付けられる、側面22-29のうちのいずれか1つに記載の方法。
【0196】
第31の側面では、拡張現実オブジェクトは、複数の表面を備える、3次元仮想オブジェクトであり、各表面は、複数のステムトラックのステムトラックと関連付けられる、側面30に記載の方法。
【0197】
第32の側面では、装着者のジェスチャに応答して、複数のステムトラックを使用して、音コラージュ効果を生成するステップをさらに含む、側面31に記載の方法。
【0198】
第33の側面では、楽器と関連付けられたステムトラックは、ウェアラブルディスプレイシステムに結合されるオーディオシステムによって再生されている複数のステムトラックのうちの1つである、側面30-32のうちのいずれか1つに記載の方法。
【0199】
第34の側面では、複数のステムトラックのうちの少なくとも1つは、ユーザ生成ステムトラックによって置換されるオリジナルステムトラックである、側面30-33のうちのいずれか1つに記載の方法。
【0200】
第35の側面では、付加的拡張現実オブジェクトが、付加的拡張現実オブジェクトによって表される対応するステムトラックの変更のために、装着者の頭部ジェスチャを用いて選択される、側面30-34のうちのいずれか1つに記載の方法。
【0201】
第36の側面では、複数のステムトラックのうちの少なくとも1つは、ステムトラックの指向性と関連付けられた情報を備える、側面30-35のうちのいずれか1つに記載の方法。
【0202】
第37の側面では、複数のステムトラックのうちの少なくとも1つは、装着者に対する空間場所と関連付けられる、側面30-36のうちのいずれか1つに記載の方法。
【0203】
第38の側面では、少なくとも部分的に、装着者のジェスチャに基づいて、複数のステムトラックのうちの少なくとも1つと関連付けられた空間場所をロックするステップをさらに含む、側面37に記載の方法。
【0204】
第39の側面では、オーディオファイルは、複数のステムトラック、所与の時間における複数のステムトラックと関連付けられた位置データ、または複数のステムトラックの可視化に関する情報のうちの少なくとも1つを示すメタデータを備える、オーディオフォーマットでエンコードされる、側面30-38のうちのいずれか1つに記載の方法。
【0205】
第40の側面では、視覚的グラフィックと相互作用するためのウェアラブルディスプレイシステムであって、該システムは、視覚的グラフィックを表示するように構成される、ディスプレイと、ウェアラブルディスプレイシステムの正面内の領域を撮像するように構成される、少なくとも1つの外向きに面するカメラと、ネットワークと通信するように構成されたコンピュータプロセッサであって、ウェアラブルディスプレイシステムの装着者による相互作用のための視覚的グラフィックを生成することであって、視覚的グラフィックは、視覚的グラフィックと関連付けられた特性の修正のためのインターフェースを含む、ことと、ウェアラブルディスプレイシステムと相互作用する装着者のジェスチャを検出することと、検出されたジェスチャと視覚的グラフィックの特性への修正を関連付けることと、視覚的グラフィックの特性への修正に従って、視覚的グラフィックを変更することとを行うようにプログラムされる、コンピュータプロセッサと、を備える、システム。
【0206】
第41の側面では、視覚的グラフィックは、少なくとも1つのステムトラックと関連付けられる、側面40に記載のウェアラブルディスプレイシステム。
【0207】
第42の側面では、ステムトラックは、指向性である、側面41に記載のウェアラブルディスプレイシステム。
【0208】
第43の側面では、ステムトラックは、装着者に対する空間場所と関連付けられる、側面41-42のうちのいずれか1つに記載のウェアラブルディスプレイシステム。
【0209】
第44の側面では、コンピュータプロセッサはさらに、少なくとも部分的に、装着者の姿勢または電子コンポーネントからの入力に基づいて、ステムトラックの空間場所をロックするように構成される、側面41-43のうちのいずれか1つに記載のウェアラブルディスプレイシステム。
【0210】
第45の側面では、視覚的グラフィックは、複数の表面を備え、各表面は、複数のステムトラックのステムトラックと関連付けられ、コンピュータプロセッサはさらに、装着者の検出されたジェスチャに応答して、複数のステムトラックの音コラージュ効果を生成するように構成される、側面41-44のうちのいずれか1つに記載のウェアラブルディスプレイシステム。
【0211】
第46の側面では、ウェアラブルディスプレイデバイスおよび/またはウェアラブルディスプレイシステムは、頭部搭載型ディスプレイを備える、側面1-21のうちのいずれか1つに記載のウェアラブルディスプレイデバイス、側面22-39のうちのいずれか1つに記載の方法、側面40-45のうちのいずれか1つに記載のウェアラブルディスプレイシステム。これらの側面のいずれかでは、ウェアラブルディスプレイデバイスおよび/またはウェアラブルディスプレイシステムは、ライトフィールドディスプレイを備えてもよい。
【0212】
第47の側面では、ウェアラブルデバイスであって、複数のステムトラックを含むオーディオファイルを記憶するように構成される、非一過性メモリであって、各ステムトラックは、オーディオファイルの異なるオーディオコンテンツを表す、非一過性メモリと、ウェアラブルデバイスのユーザの姿勢と関連付けられた情報を測定するように構成される、センサと、画像をウェアラブルデバイスのユーザの眼に提示するように構成される、ディスプレイと、音をウェアラブルデバイスのユーザに提示するように構成される、スピーカと、非一過性メモリ、センサ、スピーカ、およびディスプレイと通信する、プロセッサであって、該プロセッサは、ユーザの姿勢を判定することと、少なくとも部分的に、ユーザの姿勢に基づいて、オーディオファイルの複数のステムトラックのうちの少なくとも1つのオーディオミックスを生成することと、少なくとも部分的に、ユーザの姿勢およびオーディオミックスに基づいて、オーディオミックスの可視化を生成することと、オーディオミックスを表すオーディオ信号をスピーカに通信することと、オーディオミックスの可視化を表す視覚的信号をディスプレイに通信することとを行うための実行可能命令でプログラムされる、プロセッサとを備える、ウェアラブルデバイス。
【0213】
第48の側面では、複数のステムトラックのステムトラックは、異なる楽器またはボーカルトラックと関連付けられる、側面47に記載のウェアラブルデバイス。
【0214】
第49の側面では、複数のステムトラックの少なくとも1つのステムトラックは、ステムトラックの空間場所および空間指向性と関連付けられた情報を含む、側面47-48のうちのいずれか1つに記載のウェアラブルデバイス。
【0215】
第50の側面では、センサは、ジャイロスコープ、加速度計、慣性測定ユニット、眼追跡カメラ、またはユーザの環境を撮像するように構成されるカメラのうちの少なくとも1つを備える、側面47-49のうちのいずれか1つに記載のウェアラブルデバイス。
【0216】
第51の側面では、姿勢は、頭部姿勢、眼姿勢、身体姿勢、または手のジェスチャのうちの少なくとも1つを備える、側面47-50のうちのいずれか1つに記載のウェアラブルデバイス。
【0217】
第52の側面では、可視化は、複数のステムトラックの個別のステムトラックと関連付けられた視覚的グラフィックを備える、側面47-51のうちのいずれか1つに記載のウェアラブルデバイス。
【0218】
第53の側面では、視覚的グラフィックは、ステムトラックの演奏と関連付けられた楽器または人物のグラフィカル表現を備える、側面52に記載のウェアラブルデバイス。
【0219】
第54の側面では、視覚的グラフィックの少なくとも一部は、ユーザに対して異なる深度平面において提示される、側面52に記載のウェアラブルデバイス。
【0220】
第55の側面では、ウェアラブルデバイスは、ユーザの環境内の物理的オブジェクトを認識し、複数のステムトラックのうちのステムトラックのグラフィカル表現を物理的オブジェクトと関連付けられているように提示するように構成される、側面47-54のうちのいずれか1つに記載のウェアラブルデバイス。
【0221】
第56の側面では、ウェアラブルデバイスは、ユーザ入力デバイスから入力を受信するように構成され、プロセッサは、少なくとも部分的に、入力に基づいて、オーディオミックスまたは可視化を生成するように構成される、側面47-55のうちのいずれか1つに記載のウェアラブルデバイス。
【0222】
第57の側面では、オーディオファイルと相互作用するための方法であって、該方法は、ハードウェアコンピュータプロセッサと、ウェアラブルデバイスのユーザの姿勢と関連付けられた情報を測定するように構成される、センサと、画像をウェアラブルデバイスのユーザの眼に提示するように構成される、ディスプレイと、音をウェアラブルデバイスのユーザに提示するように構成される、スピーカとを備える、ウェアラブルデバイスの制御下で、オーディオファイルと関連付けられた複数のステムトラックにアクセスするステップと、複数のステムトラックの可視化を生成するステップと、ユーザの姿勢を検出するステップと、少なくとも部分的に、ユーザの姿勢に基づいて、オーディオファイルの複数のステムトラックのうちの少なくとも1つのオーディオミックスを生成するステップと、少なくとも、ユーザの姿勢またはオーディオミックスのうちの1つに基づいて、複数のステムトラックの可視化を更新するステップと、オーディオミックスを表すオーディオ信号をスピーカに通信するステップと、オーディオミックスの可視化を表す視覚的信号をディスプレイに通信するステップと、を含む、方法。
【0223】
第58の側面では、複数のステムトラックのステムトラックは、異なる楽器またはボーカルトラックと関連付けられる、側面57に記載の方法。
【0224】
第59の側面では、複数のステムトラックの少なくとも1つのステムトラックは、ステムトラックの空間場所および空間指向性と関連付けられた情報を含む、側面57-58のうちのいずれか1つに記載の方法。
【0225】
第60の側面では、可視化は、複数のステムトラックの個別のステムトラックに対応する視覚的グラフィックを含む、側面57-59のうちのいずれか1つに記載の方法。
【0226】
第61の側面では、視覚的グラフィックは、個別のステムトラックと関連付けられた楽器または個別のステムトラックと関連付けられた楽器を演奏する人物を含む、側面60に記載の方法。
【0227】
第62の側面では、視覚的グラフィックの少なくとも一部は、ユーザに対して異なる深度平面において提示される、側面60に記載の方法。
【0228】
第63の側面では、姿勢は、頭部姿勢、眼姿勢、身体姿勢、または手のジェスチャのうちの少なくとも1つを備える、側面57-62のうちのいずれか1つに記載の方法。
【0229】
第64の側面では、可視化を更新するステップは、複数のステムトラックのステムトラックと関連付けられた視覚的グラフィックを強調または強調解除するステップを含む、側面57-63のうちのいずれか1つに記載の方法。
【0230】
第65の側面では、複数のステムトラックのうちのステムトラックの選択を受信するステップと、ステムトラックを修正するためのインジケーションを受信するステップであって、インジケーションは、ユーザの姿勢の変化またはユーザ入力デバイスからの入力を含む、ステップと、少なくとも部分的に、インジケーションに基づいて、ステムトラックを修正するステップとをさらに含む、側面57-64のうちのいずれか1つに記載の方法。
【0231】
第66の側面では、ステムトラックを修正するステップは、音量を調節するステップと、ステムトラックと別のステムトラックを置換するステップと、ステムトラックを消音するステップと、複数のステムトラックの他のステムトラックよりステムトラックを強調するステップとのうちの少なくとも1つを含む、側面65に記載の方法。
(結論)
【0232】
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つまたはそれを上回る物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされる、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
【0233】
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つまたはそれを上回る物理的コンピューティングデバイスは、例えば、関与する計算の量または複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、ビデオは、多くのフレームを含み、各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
【0234】
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性または不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一または多重化アナログ信号の一部として、または複数の離散デジタルパケットまたはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的または別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。
【0235】
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、または機能性は、プロセスにおいて具体的機能(例えば、論理または算術)またはステップを実装するための1つまたはそれを上回る実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、追加される、削除される、修正される、または別様に本明細書に提供される例証的実施例から変更されることができる。いくつかの実施形態では、付加的または異なるコンピューティングシステムまたはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、任意の特定のシーケンスに限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行に、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそれから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証を目的とし、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例が、可能である。
【0236】
本プロセス、方法、およびシステムは、ネットワーク(または分散)コンピューティング環境において実装され得る。ネットワーク環境は、企業全体コンピュータネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、パーソナルエリアネットワーク(PAN)、クラウドコンピューティングネットワーク、クラウドソースコンピューティングネットワーク、インターネット、およびワールドワイドウェブを含む。ネットワークは、有線または無線ネットワークまたは任意の他のタイプの通信ネットワークであり得る。
【0237】
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
【0238】
別個の実装の文脈において本明細書に説明されるある特徴はまた、単一の実装における組み合わせにおいて実装されることができる。逆に、単一の実装の文脈において説明される種々の特徴もまた、複数の実装において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴がある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つまたはそれを上回る特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴のグループも、あらゆる実施形態に必要または必須ではない。
【0239】
とりわけ、「~できる(can)」、「~し得る(could)」、「~し得る(might)」、「~し得る(may)」、「例えば(e.g.,)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/またはステップが、1つまたはそれを上回る実施形態に対していかようにも要求されること、または1つまたはそれを上回る実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれる、または実施されるべきかどうかを決定するための論理を必然的に含むことを示唆することを意図されない。用語「~を備える」、「~を含む」、「~を有する」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つまたはそれを上回る」または「少なくとも1つ」を意味するように解釈されるべきである。
【0240】
本明細書で使用されるように、項目のリスト「のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つが、それぞれ存在するように要求することを示唆することを意図されない。
【0241】
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、または連続的順序で実施されること、または全ての図示される動作が実施されることは必要ないと認識されるべきである。さらに、図面は、フローチャートの形態で1つまたはそれを上回る例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つまたはそれを上回る付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16A
図16B
図17
図18