(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-10-23
(54)【発明の名称】コンテンツアプリケーションのためのデバイス、方法、及びグラフィカルユーザインタフェース
(51)【国際特許分類】
G06F 3/04815 20220101AFI20241016BHJP
G06F 3/0482 20130101ALI20241016BHJP
G06F 3/04845 20220101ALI20241016BHJP
G06T 19/00 20110101ALI20241016BHJP
H04N 21/431 20110101ALI20241016BHJP
【FI】
G06F3/04815
G06F3/0482
G06F3/04845
G06T19/00 A
H04N21/431
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024518498
(86)(22)【出願日】2022-09-16
(85)【翻訳文提出日】2024-05-01
(86)【国際出願番号】 US2022076608
(87)【国際公開番号】W WO2023049671
(87)【国際公開日】2023-03-30
(32)【優先日】2021-09-23
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】503260918
【氏名又は名称】アップル インコーポレイテッド
【氏名又は名称原語表記】Apple Inc.
【住所又は居所原語表記】One Apple Park Way,Cupertino, California 95014, U.S.A.
(74)【代理人】
【識別番号】110003281
【氏名又は名称】弁理士法人大塚国際特許事務所
(72)【発明者】
【氏名】ストーバー, マタン
(72)【発明者】
【氏名】パストラナ, ヴィンセンテ, イスラエル
(72)【発明者】
【氏名】ダスコーラ, ジョナサン アール.
(72)【発明者】
【氏名】ルメイ, スティーブン オー.
(72)【発明者】
【氏名】ラボリー, アレクサンドル
(72)【発明者】
【氏名】アロラ, イチャ
(72)【発明者】
【氏名】クリヴォルチコ, エフゲニー
(72)【発明者】
【氏名】キム, アンドリュー エス.
(72)【発明者】
【氏名】スコット, グレゴリー ティー.
(72)【発明者】
【氏名】モレノ ルフォ, ルチョ
(72)【発明者】
【氏名】ヴィナ, フレドリック アール.
(72)【発明者】
【氏名】シライシ, ブライアン ケー.
(72)【発明者】
【氏名】タナカ, ソウ
【テーマコード(参考)】
5B050
5C164
5E555
【Fターム(参考)】
5B050AA10
5B050BA09
5B050CA07
5B050EA09
5B050EA27
5B050FA02
5B050FA05
5B050FA08
5C164UB41S
5C164UB81P
5C164YA11
5E555AA27
5E555BA05
5E555BA06
5E555BA38
5E555BA87
5E555BB05
5E555BB06
5E555BB38
5E555BC04
5E555BE17
5E555CA13
5E555CA42
5E555CB12
5E555CB16
5E555CB33
5E555CB42
5E555CB47
5E555CB65
5E555CB66
5E555CC05
5E555DB02
5E555DB06
5E555DB53
5E555DB57
5E555DC09
5E555DC25
5E555DC36
5E555DC43
5E555DC63
5E555DD06
5E555FA00
(57)【要約】
いくつかの実施形態では、電子デバイスは、コンテンツアイテムを提示している間に仮想照明効果を生成する。いくつかの実施形態では、電子デバイスは、コンテンツアイテムの個別の再生ポジションへのナビゲーションを向上させる。いくつかの実施形態では、電子デバイスは、三次元環境においてメディアコンテンツを表示する。いくつかの実施形態では、電子デバイスは、異なる提示モードでメディアコンテンツを提示する。
【特許請求の範囲】
【請求項1】
方法であって、
表示生成構成要素及び1つ以上の入力デバイスと通信する電子デバイスにおいて、
三次元環境においてコンテンツアイテムを提示している間に、前記表示生成構成要素を介して、前記コンテンツアイテムに関連付けられたユーザインタフェースであって、前記ユーザインタフェースは、前記コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素と、前記三次元環境の外観に影響を及ぼす仮想照明効果を修正するための個別のユーザインタフェース要素と、を含む、ユーザインタフェースを表示することと、
前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記個別のユーザインタフェース要素に向けられたユーザ入力であって、前記ユーザ入力は、前記仮想照明効果を修正する要求に対応する、ユーザ入力を受信することと、
前記ユーザ入力を受信したことに応じて、
前記三次元環境において前記コンテンツアイテムを提示し続け、
前記仮想照明効果を前記三次元環境に適用することと、を含む、方法。
【請求項2】
前記個別のユーザインタフェースに向けられた前記ユーザ入力を受信する前に、前記電子デバイスは、前記表示生成構成要素を介して、前記仮想照明効果を用いずに前記三次元環境を表示し、
前記ユーザ入力を受信したことに応じて、前記電子デバイスは、前記表示生成構成要素を介して、前記仮想照明効果を用いて前記三次元環境を表示する、請求項1に記載の方法。
【請求項3】
前記個別のユーザインタフェースに向けられた前記ユーザ入力を受信する前に、前記電子デバイスは、前記表示生成構成要素を介して、第1の量の前記仮想照明効果を用いて前記三次元環境を表示し、
前記ユーザ入力を受信したことに応じて、前記電子デバイスは、前記表示生成構成要素を介して、第2の量であって、前記第2の量は、前記第1の量とは異なる、第2の量の前記仮想照明効果を用いて前記三次元環境を表示する、請求項1又は2に記載の方法。
【請求項4】
前記ユーザ入力を受信する前に、前記コンテンツアイテムを含まない前記三次元環境の領域は、第1の輝度レベルで表示され、
前記ユーザ入力に応じて前記仮想照明効果を用いて前記三次元環境を表示することは、前記コンテンツアイテムを含まない前記三次元環境の前記領域を、前記第1の輝度レベルとは異なる第2の輝度レベルで表示することを含む、請求項1から3のいずれか一項に記載の方法。
【請求項5】
前記ユーザ入力に応じて前記仮想照明効果を用いて前記三次元環境を表示することは、前記コンテンツアイテムから発する個別の仮想照明効果を前記三次元環境内の1つ以上のオブジェクト上に表示することを含む、請求項1から4のいずれか一項に記載の方法。
【請求項6】
前記個別のユーザインタフェースに向けられた前記ユーザ入力を受信する前に、前記電子デバイスは、前記表示生成構成要素を介して、前記コンテンツアイテムを含まない前記三次元環境の領域を第1の輝度レベルで表示することと、前記コンテンツアイテムから発する、第1の量の個別の仮想照明効果を前記三次元環境内の1つ以上のオブジェクト上に表示することとを含む、第1の量の前記仮想照明効果を有する前記三次元環境を表示し、
前記ユーザ入力を受信したことに応じて、前記電子デバイスは、前記表示生成構成要素を介して、前記コンテンツアイテムを含まない前記三次元環境の前記領域を第2の輝度レベルで表示することと、前記コンテンツアイテムから発する、第2の量の前記個別の仮想照明効果を前記三次元環境内の前記1つ以上のオブジェクト上に表示することとを含む、第2の量の前記仮想照明効果を有する前記三次元環境を表示する、請求項1から5のいずれか一項に記載の方法。
【請求項7】
前記ユーザ入力に応じて前記仮想照明効果を用いて前記三次元環境を表示することは、
前記1つ以上の入力デバイスを介して、前記電子デバイスのユーザの注意が前記三次元環境の第1の領域に向けられていることを検出したことに従って、前記表示生成構成要素を介して、第1の量の前記仮想照明効果を用いて前記三次元環境を表示することと、
前記1つ以上の入力デバイスを介して、前記ユーザの前記注意が前記三次元環境の前記第1の領域とは異なる第2の領域に向けられていることを検出したことに従って、前記表示生成構成要素を介して、前記第1の量とは異なる第2の量の前記仮想照明効果を用いて前記三次元環境を表示することと、を含む、請求項1から6のいずれか一項に記載の方法。
【請求項8】
前記仮想照明効果を用いずに前記三次元環境を表示している間に、前記1つ以上の入力デバイスを介して、所定の時間閾値未満の間、既定のポーズにある前記電子デバイスのユーザの既定の部分を検出することを含む、前記個別のユーザインタフェース要素に向けられた第1の入力を前記1つ以上の入力デバイスを介して受信することと、
前記第1の入力を受信したことに応じて、前記表示生成構成要素を介して、前記仮想照明効果を用いて前記三次元環境を表示することと、
前記仮想照明効果を用いて前記三次元環境を表示している間に、前記1つ以上の入力デバイスを介して、前記所定の時間閾値未満の間、前記既定のポーズにある前記電子デバイスの前記ユーザの前記既定の部分を検出することを含む、前記個別のユーザインタフェース要素に向けられた第2の入力を前記1つ以上の入力デバイスを介して受信することと、
前記第2の入力を受信したことに応じて、前記表示生成構成要素を介して、前記仮想照明効果を用いずに前記三次元環境を表示することと、を更に含む、請求項1から7のいずれか一項に記載の方法。
【請求項9】
第1の量の前記仮想照明効果を用いて前記三次元環境を表示している間に、ユーザの既定の部分が既定のポーズにある間に前記1つ以上の入力デバイスを介して前記電子デバイスの前記ユーザの前記既定の部分の移動を検出することを含む、前記1つ以上の入力デバイスを介して、前記個別のユーザインタフェース要素に向けられた入力を受信することと、
前記個別のユーザインタフェース要素に向けられた前記入力に応じて、前記表示生成構成要素を介して、第2の量であって、前記第2の量は、前記ユーザの前記既定の部分が前記既定のポーズにある間の前記ユーザの前記既定の部分の前記移動に基づく、第2の量の前記仮想照明効果を用いて前記三次元環境を表示すること、を更に含む、請求項1から8のいずれか一項に記載の方法。
【請求項10】
前記コンテンツアイテムが再生されている間に、
前記表示生成構成要素を介して、前記仮想照明効果を用いて前記三次元環境を表示し、
前記1つ以上の入力デバイスを介して、前記コンテンツアイテムを一時停止する要求に対応するユーザ入力を受信することと、
前記コンテンツアイテムを一時停止する前記要求に対応する前記ユーザ入力を受信したことに応じて、
前記コンテンツアイテムを一時停止し、
前記表示生成構成要素を介して、前記仮想照明効果を用いずに前記三次元環境を表示することと、を更に含む、請求項1から9のいずれか一項に記載の方法。
【請求項11】
前記1つ以上の入力デバイスを介して、前記コンテンツアイテムの再生を修正するための前記1つ以上のユーザインタフェース要素の第2の個別のインタフェース要素に向けられた個別のユーザ入力を受信することと、
前記個別のユーザ入力を受信したことに応じて、
前記第2の個別のユーザインタフェース要素が、選択されると、前記電子デバイスに前記コンテンツアイテムの再生と一時停止とを切り替えさせるユーザインタフェース要素であるという判定に従って、前記コンテンツアイテムの再生又は一時停止状態を切り替え、
前記第2の個別のユーザインタフェース要素が、選択されると、前記電子デバイスに前記コンテンツアイテムの再生ポジションを更新させるユーザインタフェース要素であるという判定に従って、前記個別のユーザ入力に従って前記コンテンツアイテムの前記再生ポジションを更新することと、を更に含む、請求項1から10のいずれか一項に記載の方法。
【請求項12】
前記1つ以上の入力デバイスを介して、前記コンテンツアイテムの再生を修正するための前記1つ以上のユーザインタフェース要素の第2の個別のインタフェース要素に向けられた個別のユーザ入力を受信することと、
前記個別のユーザ入力を受信したことに応じて、
前記第2の個別のユーザインタフェース要素が、選択されると、前記電子デバイスに、前記コンテンツアイテムのオーディオコンテンツのボリュームを修正させるユーザインタフェース要素であるという判定に従って、前記個別の入力に従って前記オーディオコンテンツの前記ボリュームを修正することと、を更に含む、請求項1から11のいずれか一項に記載の方法。
【請求項13】
前記コンテンツアイテムに関連付けられた前記ユーザインタフェースは、前記コンテンツアイテムとは別個のユーザインタフェースであり、前記表示生成構成要素を介して、前記コンテンツアイテムと前記三次元環境内の前記電子デバイスのユーザの視点との間に表示される、請求項1から12のいずれか一項に記載の方法。
【請求項14】
前記コンテンツアイテムは、前記表示生成構成要素を介して、前記三次元環境内の前記ユーザの視点に対して第1の角度で表示され、
前記コンテンツアイテムに関連付けられた前記ユーザインタフェースは、前記表示生成構成要素を介して、前記三次元環境内の前記ユーザの前記視点に対して、前記第1の角度とは異なる第2の角度で表示される、請求項13に記載の方法。
【請求項15】
前記電子デバイスは、前記1つ以上の入力デバイスを介して、1つ以上の基準を満たすポーズにある前記電子デバイスのユーザの既定の部分を検出したことに応じて、前記コンテンツアイテムの再生を修正するための前記1つ以上のユーザインタフェース要素を表示する、請求項1から14のいずれか一項に記載の方法。
【請求項16】
前記コンテンツアイテムの再生を修正するための前記1つ以上のユーザインタフェース要素を表示している間に、前記1つ以上の入力デバイスを介して、前記1つ以上の基準を満たさないポーズにある前記ユーザの前記既定の部分を検出することと、
前記1つ以上の基準を満たさない前記ポーズにおける前記ユーザの前記既定の部分を検出したことに応じて、前記コンテンツアイテムの再生を修正するための前記1つ以上のユーザインタフェース要素の、前記電子デバイスが前記表示生成構成要素を介して表示する視覚的強調を低減することと、を更に含む、請求項15のいずれか一項に記載の方法。
【請求項17】
前記表示生成構成要素を介して、前記コンテンツアイテムを第1のサイズで、前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを第2のサイズで表示している間に、前記1つ以上の入力デバイスを介して、前記コンテンツアイテムをサイズ変更する要求に対応する入力を受信することと、
前記コンテンツアイテムをサイズ変更する前記要求に対応する前記入力を受信したことに応じて、
前記表示生成構成要素を介して、前記コンテンツアイテムをサイズ変更する前記要求に対応する前記入力に従って、前記第1のサイズとは異なる第3のサイズで前記コンテンツアイテムを表示し、
前記表示生成構成要素を介して、前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを前記第2のサイズで表示することと、を更に含む、請求項1から16のいずれか一項に記載の方法。
【請求項18】
前記表示生成構成要素を介して、前記三次元環境内の前記ユーザの視点から第1のサイズ及び第1の距離で前記コンテンツアイテムを表示し、前記三次元環境内の前記ユーザの前記視点から第2のサイズ及び第2の距離で前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記三次元環境において前記コンテンツアイテムを再配置する要求に対応する入力を受信することと、
前記コンテンツアイテムを再配置する前記要求に対応する前記入力を受信したことに応じて、
前記表示生成構成要素を介して、前記コンテンツアイテムを再配置する前記要求に対応する前記入力に従って、前記三次元環境において前記ユーザの前記視点から前記第1の距離とは異なる第3の距離に第3のサイズで前記コンテンツアイテムを表示し、
前記表示生成構成要素を介して、前記コンテンツアイテムを再配置するための前記要求に対応する前記入力に従って、前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを、前記第2のサイズで、前記ユーザの前記視点から第4の距離に表示することと、を更に含む、請求項1から17のいずれか一項に記載の方法。
【請求項19】
前記コンテンツアイテムは、前記三次元環境内の前記コンテンツアイテムに関連付けられた前記ユーザインタフェースとは別個であり、前記方法は、
前記表示生成構成要素を介して、前記コンテンツアイテムの再生を修正するための1つ以上の第2のユーザインタフェース要素であって、前記1つ以上の第2のユーザインタフェース要素は、前記三次元環境内の前記コンテンツアイテム上にオーバーレイされて表示される、1つ以上の第2のユーザインタフェース要素を表示することを更に含む、請求項1から18のいずれか一項に記載の方法。
【請求項20】
前記1つ以上の入力デバイスを介して、前記1つ以上のユーザインタフェース要素の個別のユーザインタフェース要素に向けられた前記ユーザの注意が1つ以上の第1の基準を満たすことを検出することと、
前記個別のユーザインタフェース要素に向けられた前記ユーザの前記注意が前記1つ以上の第1の基準を満たすことを検出したことに応じて、
前記個別のユーザインタフェース要素が1つ以上の第2の基準を満たすという判定に従って、前記表示生成構成要素を介して、前記個別のユーザインタフェース要素の機能を識別する視覚的インジケーションを表示し、
前記個別のユーザインタフェース要素が前記1つ以上の第2の基準を満たさないという判定に従って、前記個別のユーザインタフェース要素の前記機能を識別する前記視覚的インジケーションの表示を取り止めることと、を更に含む、請求項1から19のいずれか一項に記載の方法。
【請求項21】
前記表示生成構成要素を介して、前記コンテンツアイテム及び前記コンテンツアイテムに関連付けられた前記ユーザインタフェースとは別に表示される個別のユーザインタフェース要素を表示することと、
前記個別のユーザインタフェース要素を表示している間に、前記1つ以上の入力デバイスを介して、前記個別のユーザインタフェース要素に向けられた入力を受信することと、
前記個別のユーザインタフェース要素に向けられた前記入力を検出したことに応じて、前記個別のユーザインタフェース要素に向けられた前記入力に従って、前記三次元環境において前記コンテンツアイテムをサイズ変更するためのプロセスを開始することと、を更に含む、請求項1から20のいずれか一項に記載の方法。
【請求項22】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備える、電子デバイスであって、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、命令を含み、前記命令が、
三次元環境においてコンテンツアイテムを提示している間に、表示生成構成要素を介して、前記コンテンツアイテムに関連付けられたユーザインタフェースであって、前記ユーザインタフェースは、前記コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素と、前記三次元環境の外観に影響を及ぼす仮想照明効果を修正するための個別のユーザインタフェース要素と、を含む、ユーザインタフェースを表示し、
前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、前記個別のユーザインタフェース要素に向けられたユーザ入力であって、前記ユーザ入力は、前記仮想照明効果を修正する要求に対応する、ユーザ入力を受信し、
前記ユーザ入力を受信したことに応じて、
前記三次元環境において前記コンテンツアイテムを提示し続け、
前記仮想照明効果を前記三次元環境に適用する、電子デバイス。
【請求項23】
1つ以上のプログラムを記憶している非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、電子デバイスの1つ以上のプロセッサによって実行されると、前記電子デバイスに、
三次元環境においてコンテンツアイテムを提示している間に、表示生成構成要素を介して、前記コンテンツアイテムに関連付けられたユーザインタフェースであって、前記ユーザインタフェースは、前記コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素と、前記三次元環境の外観に影響を及ぼす仮想照明効果を修正するための個別のユーザインタフェース要素と、を含む、ユーザインタフェースを表示させ、
前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、前記個別のユーザインタフェース要素に向けられたユーザ入力であって、前記ユーザ入力は、前記仮想照明効果を修正する要求に対応する、ユーザ入力を受信させ、
前記ユーザ入力を受信したことに応じて、
前記三次元環境において前記コンテンツアイテムを提示し続けさせ、
前記仮想照明効果を前記三次元環境に適用させる、非一時的コンピュータ可読記憶媒体。
【請求項24】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
三次元環境においてコンテンツアイテムを提示している間に、表示生成構成要素を介して、前記コンテンツアイテムに関連付けられたユーザインタフェースであって、前記ユーザインタフェースは、前記コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素と、前記三次元環境の外観に影響を及ぼす仮想照明効果を修正するための個別のユーザインタフェース要素と、を含む、ユーザインタフェースを表示する手段と、
前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、前記個別のユーザインタフェース要素に向けられたユーザ入力であって、前記ユーザ入力は、前記仮想照明効果を修正する要求に対応する、ユーザ入力を受信する手段と、
前記ユーザ入力を受信したことに応じて、
前記三次元環境において前記コンテンツアイテムを提示し続け、
前記仮想照明効果を前記三次元環境に適用する手段と、を備える、電子デバイス。
【請求項25】
電子デバイスで使用するための情報処理装置であって、前記情報処理装置が、
三次元環境においてコンテンツアイテムを提示している間に、表示生成構成要素を介して、前記コンテンツアイテムに関連付けられたユーザインタフェースであって、前記ユーザインタフェースは、前記コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素と、前記三次元環境の外観に影響を及ぼす仮想照明効果を修正するための個別のユーザインタフェース要素と、を含む、ユーザインタフェースを表示する手段と、
前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、前記個別のユーザインタフェース要素に向けられたユーザ入力であって、前記ユーザ入力は、前記仮想照明効果を修正する要求に対応する、ユーザ入力を受信する手段と、
前記ユーザ入力を受信したことに応じて、
前記三次元環境において前記コンテンツアイテムを提示し続け、
前記仮想照明効果を前記三次元環境に適用する手段と、を備える、情報処理装置。
【請求項26】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項1から21のいずれか一項に記載の方法を実行する、命令を含む、電子デバイス。
【請求項27】
1つ以上のプログラムを記憶している非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、電子デバイスの1つ以上のプロセッサによって実行されると、前記電子デバイスに、請求項1から21のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
【請求項28】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
請求項1から21のいずれか一項に記載の方法を実行する手段と、を備える、電子デバイス。
【請求項29】
電子デバイスで使用するための情報処理装置であって、前記情報処理装置が、
請求項1から21のいずれか一項に記載の方法を実行する手段を備える、情報処理装置。
【請求項30】
方法であって、
表示生成構成要素及び1つ以上の入力デバイスと通信する電子デバイスにおいて、
前記表示生成構成要素を介して、コンテンツを提示しており、三次元環境内の第1の個別のロケーションに位置する第1のメディアユーザインタフェースを含む前記三次元環境を表示することと、
前記電子デバイスのユーザの第1の視点に対するポーズの個別の範囲内のポーズを有する前記三次元環境内の前記第1の個別のロケーションにおいて前記第1のメディアユーザインタフェースを用いて前記三次元環境を表示している間に、前記第1の視点から前記第1の視点とは異なる第2の視点への前記三次元環境内の前記ユーザの視点の移動を検出することと、
前記第1の視点から前記第2の視点への前記ユーザの前記視点の前記移動を検出したことに応じて、前記表示生成構成要素を介して、前記第2の視点から前記三次元環境を表示することと、を含む方法であって、表示することは、
前記コンテンツが第1の提示モードで提示されているという判定に従って、前記第1のメディアユーザインタフェースであって、前記第1のメディアユーザインタフェースは、もはや前記ユーザの前記第2の視点に対するポーズの前記個別の範囲内にない、前記第1のメディアユーザインタフェースを、前記三次元環境内の前記第1の個別のロケーションに維持することと、
前記コンテンツが前記第1の提示モードとは異なる第2の提示モードで提示されているという判定に従って、前記三次元環境内の前記第1の個別のロケーションとは異なる第2の個別のロケーションに前記第1のメディアユーザインタフェースを表示することと、を含み、前記第2の個別のロケーションに前記第1のメディアユーザインタフェースを表示することは、前記ユーザの前記第2の視点に対するポーズの前記個別の範囲内にあるポーズで前記第1のメディアユーザインタフェースを表示させる、方法。
【請求項31】
前記第2の個別のロケーションは、前記第2の視点に基づいており、前記第2の個別のロケーションにおいて前記第1のメディアユーザインタフェースを表示することは、
前記第2の視点に移動した後の前記ユーザの前記視点の移動が1つ以上の基準を満たすという判定に従って、前記第1のメディアユーザインタフェースを前記第2の個別のロケーションに表示することと、
前記第2の視点に移動した後の前記ユーザの前記視点の前記移動が前記1つ以上の基準を満たさないという判定に従って、前記第2の個別のロケーションでの前記第1のメディアユーザインタフェースの表示を取り止めることと、を含む、請求項30に記載の方法。
【請求項32】
前記第1のメディアユーザインタフェースが前記第2の提示モードで前記コンテンツを提示している間に、前記第1のメディアユーザインタフェースは、前記コンテンツの再生を修正するために選択可能である1つ以上のユーザインタフェース要素を含み、前記方法は、
前記第1のメディアユーザインタフェース内に前記1つ以上のユーザインタフェース要素を表示している間に、前記1つ以上の入力デバイスを介して、前記1つ以上のユーザインタフェース要素の個別のユーザインタフェース要素の選択に対応する入力を受信することと、
前記入力を受信したことに応じて、前記個別のユーザインタフェース要素の前記選択に従って前記コンテンツの再生を修正することと、を更に含む、請求項30又は31に記載の方法。
【請求項33】
前記第1のメディアユーザインタフェースが前記第1の提示モードで前記コンテンツを提示している間に、前記三次元環境は、前記コンテンツの再生を修正するために選択可能な1つ以上のユーザインタフェース要素を含む、前記第1のメディアユーザインタフェースとは別個の再生制御ユーザインタフェースを含み、前記第1のメディアユーザインタフェースは、前記コンテンツの前記再生を修正するために選択可能な前記1つ以上のユーザインタフェース要素を含まず、前記方法は、
前記再生制御ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記1つ以上のユーザインタフェース要素の個別のユーザインタフェース要素の選択に対応する入力を受信することと、
前記入力を受信したことに応じて、前記個別のユーザインタフェース要素の前記選択に従って前記コンテンツの再生を修正することと、を更に含む、請求項30から32のいずれか一項に記載の方法。
【請求項34】
前記方法は、
前記コンテンツが前記第1のメディアユーザインタフェースにおいて前記第1の提示モードで表示されている間に、かつ前記コンテンツを前記第1の提示モードから前記第2の提示モードに遷移するために選択可能である第1の個別のユーザインタフェース要素とともに前記第1のメディアユーザインタフェースを同時に表示している間に、前記1つ以上の入力デバイスを介して、前記第1の個別のユーザインタフェース要素の選択に対応する第1の入力を受信することと、
前記第1の入力を受信したことに応じて、
前記表示生成構成要素を介して、前記第2の提示モードで前記コンテンツを提示している第2のメディアユーザインタフェースを表示し、
前記第1のメディアユーザインタフェースにおいて、前記第1又は第2のメディアユーザインタフェースにおいて前記第1のコンテンツアイテムの再生を生じさせるように選択可能である第1のコンテンツアイテムの第1の選択可能な表現を含む、1つ以上のコンテンツアイテムの1つ以上の選択可能な表現を表示することと、を更に含む、請求項30から33のいずれか一項に記載の方法。
【請求項35】
前記第1の入力を受信したことに応じて、前記第2のメディアユーザインタフェースにおいて前記第2の提示モードで前記コンテンツを提示する前に、前記第1のメディアユーザインタフェースにおける前記第1の提示モードから前記第2のメディアユーザインタフェースにおける前記第2の提示モードに遷移する前記コンテンツのアニメーションを表示することを更に含む、請求項34に記載の方法。
【請求項36】
前記第2のメディアユーザインタフェースにおいて前記第2の提示モードで前記コンテンツを提示している間に、前記1つ以上の入力デバイスを介して、前記コンテンツの提示を前記第2の提示モードから前記第1の提示モードに変更する要求に対応する第2の入力を受信することと、
前記第2の入力を受信したことに応じて、
前記第2のメディアユーザインタフェース及び前記1つ以上の選択可能な表現を前記第2のメディアユーザインタフェースに表示することを中止し、
前記第1のメディアユーザインタフェースにおいて、前記コンテンツであって、前記コンテンツが前記第1のメディアユーザインタフェースにおいて表示されている間に、前記コンテンツは、前記第1の提示モードで提示されている、前記コンテンツを提示することと、を更に含む、請求項34又は35に記載の方法。
【請求項37】
前記第2の入力を受信したことに応じて、前記第1のメディアユーザインタフェースにおいて、前記第1の提示モードで前記コンテンツを提示する前に、前記第2のメディアユーザインタフェースにおける前記第2の提示モードから前記第1のメディアユーザインタフェースにおける前記第1の提示モードに遷移する前記コンテンツのアニメーションを表示することを更に含む、請求項36に記載の方法。
【請求項38】
前記第1のメディアユーザインタフェースにおいて前記第1の提示モードで前記コンテンツを提示している間に、前記1つ以上の入力デバイスを介して、第1のアプリケーションの第1のユーザインタフェースを表示する要求に対応する第1の入力を受信することと、
前記第1の入力を受信したことに応じて、
前記三次元環境において、前記第1のアプリケーションの前記第1のユーザインタフェースを表示し、
前記第1のメディアユーザインタフェースにおいて前記第1の提示モードで前記コンテンツを提示することを中止し、
前記三次元環境において、前記コンテンツであって、前記コンテンツは、前記コンテンツが前記第2のメディアユーザインタフェースにおいて提示されている間に、前記第2の提示モードで提示されている、前記コンテンツを提示している第2のメディアユーザインタフェースを表示することと、を更に含む、請求項30から37に記載の方法。
【請求項39】
前記コンテンツの再生が所定の再生閾値に達したことを検出することと、
前記コンテンツの前記再生が前記所定の再生閾値に達したことを検出したことに応じて、前記三次元環境において、選択されると、対応するコンテンツに前記第1のメディアユーザインタフェースでの再生を開始させる推奨コンテンツの1つ以上の表現を含む第2のユーザインタフェースを表示することと、を更に含む、請求項30から38に記載の方法。
【請求項40】
推奨コンテンツの前記1つ以上の表現は、第1の推奨コンテンツの第1の個別の表現を含み、前記方法は、
前記ユーザの視線が前記第1の個別の表現に向けられている間に、
前記ユーザの前記視線が閾値時間量を超えて前記第1の個別の表現に向けられているという判定に従って、前記第1の推奨コンテンツの再生を開始し、
前記ユーザの前記視線が前記閾値時間量を超えて前記第1の個別の表現に向けられていなかったという判定に従って、前記第1の推奨コンテンツの再生を開始することを取り止めることを更に含む、請求項39に記載の方法。
【請求項41】
前記方法は、
前記ユーザの前記視線が前記第1の個別の表現に向けられている間に、前記第1の個別の表現に関連して、視覚的インジケーションであって、前記視覚的インジケーションは、前記ユーザの前記視線が前記第1の個別の表現に向けられたままであるときに、前記閾値時間量に達することへの進行を示すように更新される、視覚的インジケーションを表示することを更に含む、請求項40に記載の方法。
【請求項42】
前記第2の提示モードで前記コンテンツを提示している間に、前記第1の視点に対する前記第1の個別のロケーションにおける前記第1のメディアユーザインタフェースの前記ポーズは、前記ユーザの前記第2の視点に対する前記第2の個別のロケーションにおける前記第1のメディアユーザインタフェースの前記ポーズと同じである、請求項30から41のいずれか一項に記載の方法。
【請求項43】
前記ユーザの前記第1の視点は、前記電子デバイスの物理的環境内の第1のロケーションに対応し、前記ユーザの前記第2の視点は、前記物理的環境内の、前記第1のロケーションとは異なる第2のロケーションに対応する、請求項30から42のいずれか一項に記載の方法。
【請求項44】
前記コンテンツが前記第1のメディアユーザインタフェースにおいて前記第2の提示モードで提示されている間に、かつ第2のメディアユーザインタフェースが前記三次元環境内の第3の個別のロケーションに表示されている間に、前記1つ以上の入力デバイスを介して、前記コンテンツの提示を前記第2の提示モードから前記第1の提示モードに変更する要求に対応する第2の入力を受信することと、
前記第2の入力を受信したことに応じて、
前記第1のメディアユーザインタフェースの表示を中止し、
前記第2のメディアユーザインタフェースが前記ユーザの前記第2の視点に対するポーズの第2の個別の範囲内にあるという判定に従って、前記第3の個別のロケーションにおいて前記第2のメディアユーザインタフェース内に前記コンテンツを提示し、
前記第2のメディアユーザインタフェースが前記ユーザの前記第2の視点に対するポーズの前記第2の個別の範囲内にないという判定に従って、
前記三次元環境内の前記第3の個別のロケーションとは異なる第4の個別のロケーションに前記第2のメディアユーザインタフェースを表示することと、を更に含み、前記第4の個別のロケーションに前記第2のメディアユーザインタフェースを表示することは、前記第2のメディアユーザインタフェースであって、前記第2のメディアユーザインタフェースは、前記コンテンツを含む、前記第2のメディアユーザインタフェースを、前記第2の視点に対するポーズの前記第2の個別の範囲内にある個別のポーズで表示させる、請求項30から43のいずれか一項に記載の方法。
【請求項45】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備える、電子デバイスであって、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、命令を含み、前記命令が、
表示生成構成要素を介して、コンテンツを提示しており、三次元環境内の第1の個別のロケーションに位置する第1のメディアユーザインタフェースを含む前記三次元環境を表示し、
前記電子デバイスのユーザの第1の視点に対するポーズの個別の範囲内のポーズを有する前記三次元環境内の前記第1の個別のロケーションにおいて前記第1のメディアユーザインタフェースを用いて前記三次元環境を表示している間に、前記第1の視点から前記第1の視点とは異なる第2の視点への前記三次元環境内の前記ユーザの視点の移動を検出し、
前記第1の視点から前記第2の視点への前記ユーザの前記視点の前記移動を検出したことに応じて、前記表示生成構成要素を介して、前記第2の視点から前記三次元環境を表示する、電子デバイスであって、表示することは、
前記コンテンツが第1の提示モードで提示されているという判定に従って、前記第1のメディアユーザインタフェースであって、前記第1のメディアユーザインタフェースは、もはや前記ユーザの前記第2の視点に対するポーズの前記個別の範囲内にない、前記第1のメディアユーザインタフェースを、前記三次元環境内の前記第1の個別のロケーションに維持することと、
前記コンテンツが前記第1の提示モードとは異なる第2の提示モードで提示されているという判定に従って、前記三次元環境内の前記第1の個別のロケーションとは異なる第2の個別のロケーションに前記第1のメディアユーザインタフェースを表示することと、を含み、前記第2の個別のロケーションに前記第1のメディアユーザインタフェースを表示することは、前記ユーザの前記第2の視点に対するポーズの前記個別の範囲内にあるポーズで前記第1のメディアユーザインタフェースを表示させる、電子デバイス。
【請求項46】
1つ以上のプログラムを記憶している非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、電子デバイスの1つ以上のプロセッサによって実行されると、前記電子デバイスに、
表示生成構成要素を介して、コンテンツを提示しており、三次元環境内の第1の個別のロケーションに位置する第1のメディアユーザインタフェースを含む前記三次元環境を表示させ、
前記電子デバイスのユーザの第1の視点に対するポーズの個別の範囲内のポーズを有する前記三次元環境内の前記第1の個別のロケーションにおいて前記第1のメディアユーザインタフェースを用いて前記三次元環境を表示している間に、前記第1の視点から前記第1の視点とは異なる第2の視点への前記三次元環境内の前記ユーザの視点の移動を検出させ、
前記第1の視点から前記第2の視点への前記ユーザの前記視点の前記移動を検出したことに応じて、前記表示生成構成要素を介して、前記第2の視点から前記三次元環境を表示させる、非一時的コンピュータ可読記憶媒体であって、表示することは、
前記コンテンツが第1の提示モードで提示されているという判定に従って、前記第1のメディアユーザインタフェースであって、前記第1のメディアユーザインタフェースは、もはや前記ユーザの前記第2の視点に対するポーズの前記個別の範囲内にない、前記第1のメディアユーザインタフェースを、前記三次元環境内の前記第1の個別のロケーションに維持することと、
前記コンテンツが前記第1の提示モードとは異なる第2の提示モードで提示されているという判定に従って、前記三次元環境内の前記第1の個別のロケーションとは異なる第2の個別のロケーションに前記第1のメディアユーザインタフェースを表示することと、を含み、前記第2の個別のロケーションに前記第1のメディアユーザインタフェースを表示することは、前記ユーザの前記第2の視点に対するポーズの前記個別の範囲内にあるポーズで前記第1のメディアユーザインタフェースを表示させることを含む、非一時的コンピュータ可読記憶媒体。
【請求項47】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
表示生成構成要素を介して、コンテンツを提示しており、三次元環境内の第1の個別のロケーションに位置する第1のメディアユーザインタフェースを含む前記三次元環境を表示する手段と、
前記電子デバイスのユーザの第1の視点に対するポーズの個別の範囲内のポーズを有する前記三次元環境内の前記第1の個別のロケーションにおいて前記第1のメディアユーザインタフェースを用いて前記三次元環境を表示している間に、前記第1の視点から前記第1の視点とは異なる第2の視点への前記三次元環境内の前記ユーザの視点の移動を検出する手段と、
前記第1の視点から前記第2の視点への前記ユーザの前記視点の前記移動を検出したことに応じて、前記表示生成構成要素を介して、前記第2の視点から前記三次元環境を表示する手段と、を備える電子デバイスであって、表示することは、
前記コンテンツが第1の提示モードで提示されているという判定に従って、前記第1のメディアユーザインタフェースであって、前記第1のメディアユーザインタフェースは、もはや前記ユーザの前記第2の視点に対するポーズの前記個別の範囲内にない、前記第1のメディアユーザインタフェースを、前記三次元環境内の前記第1の個別のロケーションに維持することと、
前記コンテンツが前記第1の提示モードとは異なる第2の提示モードで提示されているという判定に従って、前記三次元環境内の前記第1の個別のロケーションとは異なる第2の個別のロケーションに前記第1のメディアユーザインタフェースを表示することと、を含み、前記第2の個別のロケーションに前記第1のメディアユーザインタフェースを表示することは、前記ユーザの前記第2の視点に対するポーズの前記個別の範囲内にあるポーズで前記第1のメディアユーザインタフェースを表示させることを含む、電子デバイス。
【請求項48】
電子デバイスで使用するための情報処理装置であって、前記情報処理装置が、
前記電子デバイスのユーザの第1の視点に対するポーズの個別の範囲内のポーズを有する前記三次元環境内の前記第1の個別のロケーションにおいて前記第1のメディアユーザインタフェースを用いて前記三次元環境を表示している間に、前記第1の視点から前記第1の視点とは異なる第2の視点への前記三次元環境内の前記ユーザの視点の移動を検出する手段と、
前記第1の視点から前記第2の視点への前記ユーザの前記視点の前記移動を検出したことに応じて、前記表示生成構成要素を介して、前記第2の視点から前記三次元環境を表示する手段と、を備える、情報処理装置であって、表示することは、
前記コンテンツが第1の提示モードで提示されているという判定に従って、前記第1のメディアユーザインタフェースであって、前記第1のメディアユーザインタフェースは、もはや前記ユーザの前記第2の視点に対するポーズの前記個別の範囲内にない、前記第1のメディアユーザインタフェースを、前記三次元環境内の前記第1の個別のロケーションに維持することと、
前記コンテンツが前記第1の提示モードとは異なる第2の提示モードで提示されているという判定に従って、前記三次元環境内の前記第1の個別のロケーションとは異なる第2の個別のロケーションに前記第1のメディアユーザインタフェースを表示することと、を含み、前記第2の個別のロケーションに前記第1のメディアユーザインタフェースを表示することは、前記ユーザの前記第2の視点に対するポーズの前記個別の範囲内にあるポーズで前記第1のメディアユーザインタフェースを表示させることを含む、情報処理装置。
【請求項49】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項30から44のいずれか一項に記載の方法を実行する、命令を含む、電子デバイス。
【請求項50】
1つ以上のプログラムを記憶している非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、電子デバイスの1つ以上のプロセッサによって実行されると、前記電子デバイスに、請求項30から44のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
【請求項51】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
請求項30から44のいずれか一項に記載の方法を実行する手段と、を備える、電子デバイス。
【請求項52】
電子デバイスで使用するための情報処理装置であって、前記情報処理装置が、
請求項30から44のいずれか一項に記載の方法を実行する手段を備える、情報処理装置。
【請求項53】
方法であって、
表示生成構成要素及び1つ以上の入力デバイスと通信する電子デバイスにおいて、
経時的に変化するコンテンツアイテムを提示している間、かつ前記表示生成構成要素を介して、前記コンテンツアイテムに関連付けられたユーザインタフェースを表示している間に、
前記コンテンツアイテム内の再生ポジションが第1の再生ポジションである間に、前記1つ以上の入力デバイスを介して、前記電子デバイスのユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていないときに満たされる基準を含む、1つ以上の基準が満たされることを検出し、
前記1つ以上の基準が満たされていることを検出した後に、
前記コンテンツアイテムの前記再生ポジションが前記第1の再生ポジションとは異なる第2の再生ポジションである間に、前記1つ以上の入力デバイスを介して、前記ユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出し、
前記1つ以上の基準が満たされた後に前記ユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出したことに応じて、選択されると、前記電子デバイスに、前記第1の再生ポジションに関連付けられた個別の再生ポジションから前記コンテンツアイテムを提示させる選択可能オプションを、前記表示生成構成要素を介して表示し、
前記選択可能オプションを表示している間に、前記1つ以上の入力デバイスを介して、前記選択可能オプションの選択に対応する入力を検出し、
前記入力を検出したことに応じて、前記コンテンツアイテムの前記再生ポジションを、前記第1の再生ポジションに関連付けられた前記個別の再生ポジションに更新することを含む、方法。
【請求項54】
前記1つ以上の基準は、前記電子デバイスが、前記1つ以上の入力デバイスを介して、前記ユーザの1つ以上の目が既定の閾値期間を超えて閉じていることを検出したときに満たされる基準を含む、請求項53に記載の方法。
【請求項55】
前記1つ以上の基準は、前記電子デバイスが、前記1つ以上の入力デバイスを介して、前記ユーザの視線が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースから離れるように向けられていることを検出したときに満たされる基準を含む、請求項53又は54に記載の方法。
【請求項56】
前記コンテンツアイテムに関連付けられた前記ユーザインタフェースは、前記コンテンツアイテムの再生に対応するスクラブバーを含み、前記選択可能オプションは、前記表示生成構成要素を介して、前記第1の再生ポジションに関連付けられた前記個別の再生ポジションに対応する前記スクラブバー内のロケーションに表示される、請求項53から55のいずれか一項に記載の方法。
【請求項57】
前記1つ以上の基準が満たされた後に前記ユーザの前記注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出することは、前記1つ以上の入力デバイスを介して、1つ以上の第2の基準を満たすポーズにある前記ユーザの既定の部分を検出することを含み、前記方法は、
前記1つ以上の基準が満たされていることを検出した後に、前記ユーザの前記既定の部分が前記1つ以上の第2の基準を満たさないポーズにあることを検出したことに応じて、前記選択可能オプションの表示を取り止めることを更に含む、請求項53から56のいずれか一項に記載の方法。
【請求項58】
前記1つ以上の基準が満たされた後に前記ユーザの前記注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出したことに応じて、
前記表示生成構成要素を介して、前記選択可能オプションとともに前記コンテンツアイテムの再生を制御するための1つ以上の選択可能要素を同時に表示することを更に含む、請求項53から57のいずれか一項に記載の方法。
【請求項59】
前記選択可能オプションを表示している間、かつ前記選択可能オプションの前記選択を検出する前に、前記第2の再生ポジションから前記コンテンツアイテムを再生し続けることを更に含む、請求項53から58のいずれか一項に記載の方法。
【請求項60】
前記選択可能オプションの選択に対応する前記入力を検出することは、前記1つ以上の入力デバイスを介して、前記ユーザの既定の部分が個別のジェスチャを実行している間に、前記選択可能オプションに向けられた前記ユーザの視線を検出することを含む、請求項53から59のいずれか一項に記載の方法。
【請求項61】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備える、電子デバイスであって、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、命令を含み、前記命令が、
経時的に変化するコンテンツアイテムを提示している間、かつ表示生成構成要素を介して、前記コンテンツアイテムに関連付けられたユーザインタフェースを表示している間に、
前記コンテンツアイテム内の再生ポジションが第1の再生ポジションである間に、1つ以上の入力デバイスを介して、前記電子デバイスのユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていないときに満たされる基準を含む、1つ以上の基準が満たされることを検出し、
前記1つ以上の基準が満たされていることを検出した後に、
前記コンテンツアイテムの前記再生ポジションが前記第1の再生ポジションとは異なる第2の再生ポジションである間に、前記1つ以上の入力デバイスを介して、前記ユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出し、
前記1つ以上の基準が満たされた後に前記ユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出したことに応じて、選択されると、前記電子デバイスに、前記第1の再生ポジションに関連付けられた個別の再生ポジションから前記コンテンツアイテムを提示させる選択可能オプションを、前記表示生成構成要素を介して表示し、
前記選択可能オプションを表示している間に、前記1つ以上の入力デバイスを介して、前記選択可能オプションの選択に対応する入力を検出し、
前記入力を検出したことに応じて、前記コンテンツアイテムの前記再生ポジションを、前記第1の再生ポジションに関連付けられた前記個別の再生ポジションに更新する、電子デバイス。
【請求項62】
1つ以上のプログラムを記憶している非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、電子デバイスの1つ以上のプロセッサによって実行されると、前記電子デバイスに、
経時的に変化するコンテンツアイテムを提示している間、かつ表示生成構成要素を介して、前記コンテンツアイテムに関連付けられたユーザインタフェースを表示している間に、
前記コンテンツアイテム内の再生ポジションが第1の再生ポジションである間に、1つ以上の入力デバイスを介して、前記電子デバイスのユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていないときに満たされる基準を含む、1つ以上の基準が満たされることを検出させ、
前記1つ以上の基準が満たされていることを検出した後に、
前記コンテンツアイテムの前記再生ポジションが前記第1の再生ポジションとは異なる第2の再生ポジションである間に、前記1つ以上の入力デバイスを介して、前記ユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出させ、
前記1つ以上の基準が満たされた後に前記ユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出したことに応じて、選択されると、前記電子デバイスに、前記第1の再生ポジションに関連付けられた個別の再生ポジションから前記コンテンツアイテムを提示させる選択可能オプションを、前記表示生成構成要素を介して表示させ、
前記選択可能オプションを表示している間に、前記1つ以上の入力デバイスを介して、前記選択可能オプションの選択に対応する入力を検出させ、
前記入力を検出したことに応じて、前記コンテンツアイテムの前記再生ポジションを、前記第1の再生ポジションに関連付けられた前記個別の再生ポジションに更新させる、非一時的コンピュータ可読記憶媒体。
【請求項63】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
経時的に変化するコンテンツアイテムを提示している間、かつ表示生成構成要素を介して、前記コンテンツアイテムに関連付けられたユーザインタフェースを表示している間に、
前記コンテンツアイテム内の再生ポジションが第1の再生ポジションである間に、1つ以上の入力デバイスを介して、前記電子デバイスのユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていないときに満たされる基準を含む、1つ以上の基準が満たされることを検出し、
前記1つ以上の基準が満たされていることを検出した後に、
前記コンテンツアイテムの前記再生ポジションが前記第1の再生ポジションとは異なる第2の再生ポジションである間に、前記1つ以上の入力デバイスを介して、前記ユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出し、
前記1つ以上の基準が満たされた後に前記ユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出したことに応じて、選択されると、前記電子デバイスに、前記第1の再生ポジションに関連付けられた個別の再生ポジションから前記コンテンツアイテムを提示させる選択可能オプションを、前記表示生成構成要素を介して表示し、
前記選択可能オプションを表示している間に、前記1つ以上の入力デバイスを介して、前記選択可能オプションの選択に対応する入力を検出し、
前記入力を検出したことに応じて、前記コンテンツアイテムの前記再生ポジションを、前記第1の再生ポジションに関連付けられた前記個別の再生ポジションに更新する手段を備える、電子デバイス。
【請求項64】
電子デバイスで使用するための情報処理装置であって、前記情報処理装置が、
経時的に変化するコンテンツアイテムを提示している間、かつ表示生成構成要素を介して、前記コンテンツアイテムに関連付けられたユーザインタフェースを表示している間に、
前記コンテンツアイテム内の再生ポジションが第1の再生ポジションである間に、1つ以上の入力デバイスを介して、前記電子デバイスのユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていないときに満たされる基準を含む、1つ以上の基準が満たされることを検出し、
前記1つ以上の基準が満たされていることを検出した後に、
前記コンテンツアイテムの前記再生ポジションが前記第1の再生ポジションとは異なる第2の再生ポジションである間に、前記1つ以上の入力デバイスを介して、前記ユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出し、
前記1つ以上の基準が満たされた後に前記ユーザの注意が前記コンテンツアイテムに関連付けられた前記ユーザインタフェースに向けられていることを検出したことに応じて、選択されると、前記電子デバイスに、前記第1の再生ポジションに関連付けられた個別の再生ポジションから前記コンテンツアイテムを提示させる選択可能オプションを、前記表示生成構成要素を介して表示し、
前記選択可能オプションを表示している間に、前記1つ以上の入力デバイスを介して、前記選択可能オプションの選択に対応する入力を検出し、
前記入力を検出したことに応じて、前記コンテンツアイテムの前記再生ポジションを、前記第1の再生ポジションに関連付けられた前記個別の再生ポジションに更新する手段を備える、情報処理装置。
【請求項65】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項53から60のいずれか一項に記載の方法を実行する、命令を含む、電子デバイス。
【請求項66】
1つ以上のプログラムを記憶している非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、電子デバイスの1つ以上のプロセッサによって実行されると、前記電子デバイスに、請求項53から60のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
【請求項67】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
請求項53から60のいずれか一項に記載の方法を実行する手段と、を備える、電子デバイス。
【請求項68】
電子デバイスで使用するための情報処理装置であって、前記情報処理装置が、
請求項53から60のいずれか一項に記載の方法を実行する手段を備える、情報処理装置。
【請求項69】
方法であって、
表示生成構成要素及び1つ以上の入力デバイスと通信する電子デバイスにおいて、
前記表示生成構成要素を介して、三次元環境を表示することは、
1つ以上の基準であって、前記1つ以上の基準は、前記第1のコンテンツが没入コンテンツを含むという要件を含む、1つ以上の基準が満たされるという判定に従って、第1の提示モードで提示されている第1のコンテンツアイテムであって、前記第1の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記電子デバイスのユーザの視点からの視野の第1の部分を占有し、前記ユーザの前記視点からの前記視野の第2の部分は、前記三次元環境の他の要素によって占有される、第1のコンテンツアイテムと、前記第1のコンテンツアイテムの提示を第2の提示モードに遷移する第1のユーザインタフェース要素と、を含むメディアユーザインタフェースオブジェクトを同時に表示することと、
前記1つ以上の基準が満たされていないという判定に従って、前記第1のコンテンツアイテムの提示を前記第2の提示モードに遷移させるための前記第1のユーザインタフェース要素を表示することなく、前記第1の提示モードで提示されている前記第1のコンテンツアイテムを含む前記メディアユーザインタフェースオブジェクトを表示することと、を含む、前記表示生成構成要素を介して、前記三次元環境を表示することと、
前記メディアユーザインタフェース及び前記第1のユーザインタフェース要素を含む前記三次元環境を表示している間に、前記1つ以上の入力デバイスを介して、前記第1のユーザインタフェース要素の選択に対応する第1の入力を受信することと、
前記第1の入力を受信したことに応じて、前記三次元環境において、前記第2の提示モードで、前記第1のコンテンツアイテムを表示することと、を含む、方法であって、前記第2の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記電子デバイスの前記ユーザの前記視点から前記視野の少なくとも1つの縁部まで延在する、方法。
【請求項70】
前記第2の提示モードでの前記第1のコンテンツアイテムの前記提示中に、前記第1のコンテンツアイテムは、前記電子デバイスの前記ユーザの前記視点から前記視野の少なくとも複数のそれぞれの縁部まで延在する、請求項69に記載の方法。
【請求項71】
前記第2の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記電子デバイスの前記ユーザの前記視点から前記視野の少なくとも1つの縁部を越えて延在する、請求項69又は70に記載の方法。
【請求項72】
前記メディアユーザインタフェースオブジェクトが前記第1の提示モードで前記第1のコンテンツアイテムを提示している間に、前記三次元環境において、前記第1のコンテンツアイテムの再生を修正するために、前記第1のユーザインタフェース要素を含む1つ以上のユーザインタフェース要素を含む再生制御ユーザインタフェースであって、前記再生制御ユーザインタフェースは、前記メディアユーザインタフェースオブジェクトのロケーションに基づいて前記三次元環境内の第1のロケーションに表示される、再生制御ユーザインタフェースを表示することを更に含む、請求項69から71のいずれか一項に記載の方法。
【請求項73】
前記第1の提示モードでの前記第1のコンテンツアイテムの提示中に、前記ユーザの前記視点は、第1の視点に対応し、前記方法は、
前記第1のコンテンツアイテムを前記第1の提示モードで前記第1の視点から前記三次元環境に提示している間に、前記第1の視点から第2の視点への前記ユーザの前記視点の移動を検出することと、
前記ユーザの前記視点の前記第2の視点への前記移動を検出したことに応じて、
前記ユーザの前記第2の視点から前記三次元環境を表示し、
前記再生制御ユーザインタフェースの表示を前記三次元環境内の前記第1のロケーションに維持することと、を更に含む、請求項72に記載の方法。
【請求項74】
前記三次元環境内に前記メディアユーザインタフェースオブジェクトを表示し、前記第1のロケーションに前記再生制御ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記三次元環境内の異なるロケーションに前記メディアユーザインタフェースオブジェクトを移動する要求に対応する第2の入力を受信することと、
前記第2の入力を受信したことに応じて、
前記メディアユーザインタフェースオブジェクトを前記三次元環境内の前記異なるロケーションに移動し、
前記三次元環境内の、前記第1のロケーションとは異なる第2のロケーションであって、前記三次元環境内の前記第2のロケーションは、前記三次元環境内の前記異なるロケーションに基づく、第2のロケーションに、前記再生制御ユーザインタフェースを表示することと、を更に含む、請求項72又は73に記載の方法。
【請求項75】
前記第1の提示モードで前記第1のコンテンツアイテムを表示している間に、前記三次元環境内の第1のロケーションであって、前記第1のロケーションは、前記ユーザの前記視点からの第1の距離である、第1のロケーションで、前記第1のコンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素を含む再生制御ユーザインタフェースを表示することと、
前記第2の提示モードで前記第1のコンテンツアイテムを提示している間に、前記三次元環境内の第2のロケーションであって、前記三次元環境内の前記第2のロケーションは、前記三次元環境内の前記ユーザの前記視点から、前記第1の距離よりも近い第2の距離にある、第2のロケーションで、前記再生制御ユーザインタフェースを表示することと、を更に含む、請求項69から74のいずれか一項に記載の方法。
【請求項76】
前記三次元環境における前記第2のロケーションは、前記ユーザの前記視点のロケーションに基づく、請求項75に記載の方法。
【請求項77】
前記方法は、
前記ユーザの前記視点が第1の視点であり、前記第2の提示モードで前記メディアユーザインタフェースオブジェクトを表示し、前記再生制御ユーザインタフェースを前記三次元環境内の前記第2のロケーションに表示している間に、前記第1の視点から前記第1の視点とは異なる第2の視点への前記ユーザの前記視点の移動を検出することと、前記第1の視点から前記第2の視点への前記ユーザの前記視点の前記移動を検出したことに応じて、
前記表示生成構成要素を介して、前記電子デバイスの前記ユーザの前記第2の視点から前記三次元環境を表示し、
前記三次元環境内の前記第2のロケーションとは異なる第3のロケーションに、前記再生制御ユーザインタフェースを表示することと、を更に含み、前記第3のロケーションは、前記ユーザの前記第2の視点のロケーションに基づく、請求項75又は76に記載の方法。
【請求項78】
個別の提示モードで前記第1のコンテンツアイテムを提示している間に、前記1つ以上の入力デバイスを介して、前記ユーザの個別の部分の移動を含む第2の入力であって、前記第2の入力は、前記第1のコンテンツアイテムをスクラブする要求に対応する、第2の入力を受信することと、
前記第2の入力を受信したことに応じて、前記ユーザの前記個別の部分の前記移動に従って前記第1のコンテンツアイテムをスクラブすることと、を更に含む、請求項69から77のいずれか一項に記載の方法。
【請求項79】
前記第1のコンテンツアイテムをスクラブすることは、
前記第2の入力を検出している間に、1つ以上の第2の基準が満たされるという判定に従って、前記メディアユーザインタフェースオブジェクト内に、前記ユーザの前記個別の部分が移動するにつれて変化する前記第1のコンテンツアイテム内の現在のスクラブポジションに対応するコンテンツを表示することを含む、請求項78に記載の方法。
【請求項80】
前記第1のコンテンツアイテムをスクラブすることは、
前記第2の入力を検出している間に、1つ以上の第2の基準が満たされず、前記コンテンツが没入コンテンツとして表示されるという判定に従って、
前記メディアユーザインタフェースオブジェクト内の前記第1のコンテンツアイテムの再生を一時停止し、
前記三次元環境において、前記没入コンテンツとは別個の前記第1のコンテンツアイテム内の個別のコンテンツであって、前記個別のコンテンツは、前記ユーザの前記個別の部分が移動するにつれて前記没入コンテンツの外観を変化することなく、前記ユーザの前記個別の部分が移動するにつれて変化する前記第1のコンテンツアイテム内の現在のスクラブポジションに対応する、個別のコンテンツの視覚的インジケーションを表示することと、
前記第2の入力の終了を検出したことに応じて、前記個別のコンテンツの前記視覚的インジケーションの表示を中止し、前記第2の入力の前記終了が検出された個別のスクラブポジションから開始して、前記メディアユーザインタフェースオブジェクト内の前記第1のコンテンツアイテムを没入コンテンツとして再生することと、を含む、請求項78又は79に記載の方法。
【請求項81】
前記1つ以上の第2の基準は、前記第1のコンテンツアイテムが前記ユーザの前記視野の閾値部分未満を占有していた間に前記第2の入力が受信されたときに満たされ、前記第1のコンテンツアイテムが前記ユーザの前記視野の前記閾値部分よりも多くを占有していた間に前記第2の入力が受信されたときに満たされない基準を含む、請求項79又は80に記載の方法。
【請求項82】
前記第1の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記三次元環境において第1のサイズで表示され、前記第2の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記三次元環境において、前記第1のサイズよりも大きい第2のサイズで表示される、請求項69から81のいずれか一項に記載の方法。
【請求項83】
前記第1の提示モードで前記第1のコンテンツアイテムを提示することは、前記電子デバイスの物理的環境の第1の部分の表現が第1のレベルの視覚的強調を有する間に、前記三次元環境において前記第1のコンテンツを提示することを含み、前記第2の提示モードで前記第1のコンテンツアイテムを提示することは、前記物理的環境の前記第1の部分の視覚的強調を、視覚的強調の前記第1のレベルよりも低い視覚的強調の第2のレベルに低減することを含む、請求項69から82のいずれか一項に記載の方法。
【請求項84】
前記第1のコンテンツアイテムを前記第2の提示モードで提示している間に、前記三次元環境において、前記第1のコンテンツアイテムの提示を前記第2の提示モードから前記第1の提示モードに遷移する第2のユーザインタフェース要素を表示することを更に含む、請求項69に記載の方法。
【請求項85】
前記方法は、
前記第1の提示モードで前記第1のコンテンツアイテムを提示している間に、かつ前記ユーザの前記視点が第1の視点に対応し、前記第1のコンテンツアイテムの第2の部分ではなく前記第1のコンテンツアイテムの第1の部分が前記メディアユーザインタフェースオブジェクトに表示されている間に、前記第1の視点から前記第1の視点とは異なる第2の視点への前記ユーザの前記視点の移動を検出することと、
前記第1の視点から前記第2の視点への前記ユーザの前記視点の前記移動を検出したことに応じて、前記ユーザの前記第2の視点から前記メディアユーザインタフェースオブジェクト内に前記第1のコンテンツアイテムを表示することと、を更に含み、前記ユーザの前記第2の視点から前記メディアユーザインタフェースオブジェクト内に前記第1のコンテンツアイテムを表示することは、前記メディアユーザインタフェースオブジェクト内に前記第1のコンテンツアイテムの前記第2の部分を表示することを含む、請求項69から84のいずれか一項に記載の方法。
【請求項86】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備える、電子デバイスであって、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、命令を含み、前記命令が、
表示生成構成要素を介して、三次元環境を表示することは、
1つ以上の基準であって、前記1つ以上の基準は、前記第1のコンテンツが没入コンテンツを含むという要件を含む、1つ以上の基準が満たされるという判定に従って、第1の提示モードで提示されている第1のコンテンツアイテムであって、前記第1の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記電子デバイスのユーザの視点からの視野の第1の部分を占有し、前記ユーザの前記視点からの前記視野の第2の部分は、前記三次元環境の他の要素によって占有される、第1のコンテンツアイテムと、前記第1のコンテンツアイテムの提示を第2の提示モードに遷移する第1のユーザインタフェース要素と、を含むメディアユーザインタフェースオブジェクトを同時に表示することと、
前記1つ以上の基準が満たされていないという判定に従って、前記第1のコンテンツアイテムの提示を前記第2の提示モードに遷移する前記第1のユーザインタフェース要素を表示することなく、前記第1の提示モードで提示されている前記第1のコンテンツアイテムを含む前記メディアユーザインタフェースオブジェクトを表示することと、を含む、前記表示生成構成要素を介して、前記三次元環境を表示し、
前記メディアユーザインタフェース及び前記第1のユーザインタフェース要素を含む前記三次元環境を表示している間に、1つ以上の入力デバイスを介して、前記第1のユーザインタフェース要素の選択に対応する第1の入力を受信し、
前記第1の入力を受信したことに応じて、前記三次元環境において、前記第2の提示モードで、前記第1のコンテンツアイテムを表示する、電子デバイスであって、前記第2の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記電子デバイスの前記ユーザの前記視点から前記視野の少なくとも1つの縁部まで延在する、電子デバイス。
【請求項87】
1つ以上のプログラムを記憶している非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、電子デバイスの1つ以上のプロセッサによって実行されると、前記電子デバイスに、
表示生成構成要素を介して、三次元環境を表示することは、
1つ以上の基準であって、前記1つ以上の基準は、前記第1のコンテンツが没入コンテンツを含むという要件を含む、1つ以上の基準が満たされるという判定に従って、第1の提示モードで提示されている第1のコンテンツアイテムであって、前記第1の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記電子デバイスのユーザの視点からの視野の第1の部分を占有し、前記ユーザの前記視点からの前記視野の第2の部分は、前記三次元環境の他の要素によって占有される、第1のコンテンツアイテムと、前記第1のコンテンツアイテムの提示を第2の提示モードに遷移する第1のユーザインタフェース要素と、を含むメディアユーザインタフェースオブジェクトを同時に表示することと、
前記1つ以上の基準が満たされていないという判定に従って、前記第1のコンテンツアイテムの提示を前記第2の提示モードに遷移する前記第1のユーザインタフェース要素を表示することなく、前記第1の提示モードで提示されている前記第1のコンテンツアイテムを含む前記メディアユーザインタフェースオブジェクトを表示することと、を含む、前記表示生成構成要素を介して、前記三次元環境を表示させ、
前記メディアユーザインタフェース及び前記第1のユーザインタフェース要素を含む前記三次元環境を表示している間に、1つ以上の入力デバイスを介して、前記第1のユーザインタフェース要素の選択に対応する第1の入力を受信させ、
前記第1の入力を受信したことに応じて、前記三次元環境において、前記第2の提示モードで、前記第1のコンテンツアイテムを表示させる、非一時的コンピュータ可読記憶媒体であって、前記第2の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記電子デバイスの前記ユーザの前記視点から前記視野の少なくとも1つの縁部まで延在する、非一時的コンピュータ可読記憶媒体。
【請求項88】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
表示生成構成要素を介して、三次元環境を表示することは、
1つ以上の基準であって、前記1つ以上の基準は、前記第1のコンテンツが没入コンテンツを含むという要件を含む、1つ以上の基準が満たされるという判定に従って、第1の提示モードで提示されている第1のコンテンツアイテムであって、前記第1の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記電子デバイスのユーザの視点からの視野の第1の部分を占有し、前記ユーザの前記視点からの前記視野の第2の部分は、前記三次元環境の他の要素によって占有される、第1のコンテンツアイテムと、前記第1のコンテンツアイテムの提示を第2の提示モードに遷移する第1のユーザインタフェース要素と、を含むメディアユーザインタフェースオブジェクトを同時に表示することと、
前記1つ以上の基準が満たされていないという判定に従って、前記第1のコンテンツアイテムの提示を前記第2の提示モードに遷移する前記第1のユーザインタフェース要素を表示することなく、前記第1の提示モードで提示されている前記第1のコンテンツアイテムを含む前記メディアユーザインタフェースオブジェクトを表示することと、を含む、前記表示生成構成要素を介して、前記三次元環境を表示する手段と、
前記メディアユーザインタフェース及び前記第1のユーザインタフェース要素を含む前記三次元環境を表示している間に、1つ以上の入力デバイスを介して、前記第1のユーザインタフェース要素の選択に対応する第1の入力を受信する手段と、
前記第1の入力を受信したことに応じて、前記三次元環境において、前記第2の提示モードで、前記第1のコンテンツアイテムを表示する手段と、を備える、電子デバイスであって、前記第2の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記電子デバイスの前記ユーザの前記視点から前記視野の少なくとも1つの縁部まで延在する、電子デバイス。
【請求項89】
電子デバイスで使用するための情報処理装置であって、前記情報処理装置が、
表示生成構成要素を介して、三次元環境を表示することは、
1つ以上の基準であって、前記1つ以上の基準は、前記第1のコンテンツが没入コンテンツを含むという要件を含む、1つ以上の基準が満たされるという判定に従って、第1の提示モードで提示されている第1のコンテンツアイテムであって、前記第1の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記電子デバイスのユーザの視点からの視野の第1の部分を占有し、前記ユーザの前記視点からの前記視野の第2の部分は、前記三次元環境の他の要素によって占有される、第1のコンテンツアイテムと、前記第1のコンテンツアイテムの提示を第2の提示モードに遷移する第1のユーザインタフェース要素と、を含むメディアユーザインタフェースオブジェクトを同時に表示することと、
前記1つ以上の基準が満たされていないという判定に従って、前記第1のコンテンツアイテムの提示を前記第2の提示モードに遷移する前記第1のユーザインタフェース要素を表示することなく、前記第1の提示モードで提示されている前記第1のコンテンツアイテムを含む前記メディアユーザインタフェースオブジェクトを表示することと、を含む、前記表示生成構成要素を介して、前記三次元環境を表示する手段と、
前記メディアユーザインタフェース及び前記第1のユーザインタフェース要素を含む前記三次元環境を表示している間に、1つ以上の入力デバイスを介して、前記第1のユーザインタフェース要素の選択に対応する第1の入力を受信する手段と、
前記第1の入力を受信したことに応じて、前記三次元環境において、前記第2の提示モードで、前記第1のコンテンツアイテムを表示する手段と、を備える、情報処理装置であって、前記第2の提示モードでの前記第1のコンテンツアイテムの提示中に、前記第1のコンテンツアイテムは、前記電子デバイスの前記ユーザの前記視点から前記視野の少なくとも1つの縁部まで延在する、情報処理装置。
【請求項90】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項69から85のいずれか一項に記載の方法を実行する、命令を含む、電子デバイス。
【請求項91】
1つ以上のプログラムを記憶している非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、電子デバイスの1つ以上のプロセッサによって実行されると、前記電子デバイスに、請求項69から85のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
【請求項92】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
請求項69から85のいずれか一項に記載の方法を実行する手段と、を備える、電子デバイス。
【請求項93】
電子デバイスで使用するための情報処理装置であって、前記情報処理装置が、
請求項69から85のいずれか一項に記載の方法を実行する手段を備える、情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願の相互参照)
本出願は、2021年9月23日に出願された米国仮特許出願第63/261,564号の利益を主張し、その出願の内容は、その全体があらゆる目的のために参照により本明細書に組み込まれる。
【0002】
これは、一般に、表示生成構成要素と、コンテンツを提示及びブラウズするためのユーザインタフェースを含む表示生成構成要素を介して、グラフィカルユーザインタフェースを提示する電子デバイスを含むがこれに限定されないグラフィカルユーザインタフェースを提示する1つ以上の入力デバイスとを有する、コンピュータシステムに関する。
【背景技術】
【0003】
拡張現実のためのコンピュータシステムの開発は、近年顕著に進んでいる。例示的な拡張現実環境は、物理的世界を置換又は強化する少なくともいくつかの仮想要素を含む。コンピュータシステム及び他の電子コンピューティングデバイス用のカメラ、コントローラ、ジョイスティック、タッチ感知面、及びタッチスクリーンディスプレイなどの入力デバイスが、仮想/拡張現実環境と相互作用するために使用される。例示的な仮想要素は、デジタル画像、ビデオ、テキスト、アイコン、並びにボタン及びその他のグラフィックなどの制御要素を含む仮想オブジェクトを含む。
【発明の概要】
【0004】
少なくともいくつかの仮想要素を含む環境(例えばアプリケーション、拡張現実環境、複合現実環境、及び仮想現実環境)と相互作用するいくつかの方法及びインタフェースは、煩雑で、非効率で、限定されたものである。例えば、仮想オブジェクトに関連付けられたアクションを実行するのに不十分なフィードバックしか提供しないシステム、拡張現実環境において所望の結果を達成するために一連の入力を必要とするシステム、及び仮想オブジェクトの操作が複雑で、エラーを起こしやすいシステムは、ユーザに対して大きな認知負担を引き起こしし、仮想/拡張現実環境での体験を損なう。加えて、それらの方法は必要以上に時間がかかり、それによってエネルギを浪費する。この後者の考慮事項は、バッテリ動作式デバイスにおいて特に重要である。
【0005】
したがって、コンピュータシステムとの相互作用をユーザにとってより効率的かつ直感的にするコンピュータ生成体験をユーザに提供するための改善された方法及びインタフェースを有するコンピュータシステムが必要とされている。このような方法及びインタフェースは、ユーザにコンピュータ生成現実体験を提供する従来の方法を任意選択で補完又は置換することができる。このような方法及びインタフェースは、提供された入力とその入力に対するデバイス応答との間の接続をユーザが理解することを補助することにより、ユーザからの入力の数、程度及び/又は種類を低減し、それによって、より効率的なヒューマンマシンインタフェースを生成する。
【0006】
表示生成構成要素及び1つ以上の入力デバイスを有するコンピュータシステムのためのユーザインタフェースに関連する上記の欠陥及び他の問題は、開示されたシステムによって低減又は排除される。いくつかの実施形態では、コンピュータシステムは、関連付けられたディスプレイを備えたデスクトップコンピュータである。いくつかの実施形態では、コンピュータシステムは、ポータブルデバイスである(例えばノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイスである)。いくつかの実施形態では、コンピュータシステムは、パーソナル電子デバイス(例えば腕時計やヘッドマウントデバイスなどのウェアラブル電子デバイス)である。いくつかの実施形態では、コンピュータシステムは、タッチパッドを有する。いくつかの実施形態では、コンピュータシステムは、1つ以上のカメラを有する。いくつかの実施形態では、コンピュータシステムは、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られる)を有する。いくつかの実施形態では、コンピュータシステムは、1つ以上のアイトラッキング構成要素を有する。いくつかの実施形態では、コンピュータシステムは、1つ以上のハンドトラッキング構成要素を有する。いくつかの実施形態では、コンピュータシステムは、表示生成構成要素に加えて1つ以上の出力デバイスを有し、出力デバイスは、1つ以上の触知出力ジェネレータ及び1つ以上のオーディオ出力デバイスを含む。いくつかの実施形態では、コンピュータシステムは、グラフィカルユーザインタフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためのメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態では、ユーザは、タッチ感知面上のスタイラス及び/又は指の接触及びジェスチャ、カメラ及び他の移動センサによってキャプチャされたときのGUI(及び/又はコンピュータシステム)又はユーザの身体に対する空間内のユーザの目及び手の移動、並びに1つ以上のオーディオ入力デバイスによってキャプチャされたときの音声入力を通じてGUIと相互作用する。いくつかの実施形態では、相互作用を通じて実行される機能は、任意選択的に、画像編集、描画、プレゼンティング、ワードプロセッシング、スプレッドシートの作成、ゲームプレイ、電話をかけること、ビデオ会議、電子メール送信、インスタントメッセージング、トレーニングサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブブラウジング、デジタル音楽の再生、メモ取り、及び/又はデジタルビデオの再生を含む。それらの機能を実行する実行可能命令は任意選択で、一時的コンピュータ可読記憶媒体及び/又は非一時的コンピュータ可読記憶媒体、あるいは1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。
【0007】
ユーザインタフェースをナビゲートするための改善された方法及びインタフェースを有する電子デバイスが必要とされている。そのような方法及びインタフェースは、グラフィカルユーザインタフェースと相互作用するための従来の方法を補完又は置換することができる。そのような方法及びインタフェースは、ユーザからの入力の数、程度、及び/又は種類を削減し、より効率的なヒューマンマシンインタフェースを生成する。
【0008】
いくつかの実施形態では、電子デバイスは、コンテンツアイテムを提示している間に仮想照明効果を生成する。いくつかの実施形態では、電子デバイスは、コンテンツアイテムの個別の再生ポジションへのナビゲーションを向上させる。いくつかの実施形態では、電子デバイスは、三次元環境においてメディアコンテンツを表示する。いくつかの実施形態では、電子デバイスは、異なる提示モードでメディアコンテンツを提示する。
【0009】
前述の様々な実施形態は、本明細書に記載の任意の他の実施形態と組み合わせることができることに留意されたい。本明細書で説明する特徴及び利点は、包括的なものではなく、特に、図面、明細書及び特許請求の範囲を鑑みると、多くの追加の特徴及び利点が当業者には明らかになるであろう。更に、本明細書において使用される文言は、専ら読みやすさ及び説明の目的で選択されたものであり、本発明の主題を画定又は制限するために選択されたものではないことに留意されたい。
【図面の簡単な説明】
【0010】
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
【0011】
【
図1】いくつかの実施形態による、XR体験を提供するためのコンピュータシステムの動作環境を示すブロック図である。
【0012】
【
図2】いくつかの実施形態による、ユーザのXR体験を管理及び調整するように構成されたコンピュータシステムのコントローラを示すブロック図である。
【0013】
【
図3】いくつかの実施形態による、XR体験の視覚的構成要素をユーザに提供するように構成されたコンピュータシステムの表示生成構成要素を示すブロック図である。
【0014】
【
図4】いくつかの実施形態による、ユーザのジェスチャ入力をキャプチャするように構成されたコンピュータシステムのハンドトラッキングユニットを示すブロック図である。
【0015】
【
図5】いくつかの実施形態による、ユーザの視線入力をキャプチャするように構成されたコンピュータシステムのアイトラッキングユニットを示すブロック図である。
【0016】
【
図6A】いくつかの実施形態による、グリント支援視線トラッキングパイプラインを示すフローチャートである。
【0017】
【
図6B】いくつかの実施形態による、XR体験を提供するための電子デバイスの例示的な環境を示す。
【0018】
【
図7A】いくつかの実施形態による、電子デバイスがコンテンツアイテムを提示している間に仮想照明効果を生成する方法の例を示す。
【
図7B】いくつかの実施形態による、電子デバイスがコンテンツアイテムを提示している間に仮想照明効果を生成する方法の例を示す。
【
図7C】いくつかの実施形態による、電子デバイスがコンテンツアイテムを提示している間に仮想照明効果を生成する方法の例を示す。
【
図7D】いくつかの実施形態による、電子デバイスがコンテンツアイテムを提示している間に仮想照明効果を生成する方法の例を示す。
【
図7E】いくつかの実施形態による、電子デバイスがコンテンツアイテムを提示している間に仮想照明効果を生成する方法の例を示す。
【0019】
【
図8A】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8B】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8C】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8D】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8E】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8F】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8G】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8H】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8I】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8J】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8K】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8L】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8M】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8N】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【
図8O】いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
【0020】
【
図9A】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する例示的な方法を示す。
【
図9B】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する例示的な方法を示す。
【
図9C】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する例示的な方法を示す。
【
図9D】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する例示的な方法を示す。
【
図9E】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する例示的な方法を示す。
【0021】
【
図10A】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する方法を示すフローチャートである。
【
図10B】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する方法を示すフローチャートである。
【
図10C】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する方法を示すフローチャートである。
【
図10D】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する方法を示すフローチャートである。
【
図10E】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する方法を示すフローチャートである。
【
図10F】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する方法を示すフローチャートである。
【
図10G】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する方法を示すフローチャートである。
【
図10H】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する方法を示すフローチャートである。
【
図10I】いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する方法を示すフローチャートである。
【0022】
【
図11A】いくつかの実施形態による、電子デバイスがコンテンツアイテムの個別の再生ポジションへのナビゲーションをどのように向上させるかの例を示す。
【
図11B】いくつかの実施形態による、電子デバイスがコンテンツアイテムの個別の再生ポジションへのナビゲーションをどのように向上させるかの例を示す。
【
図11C】いくつかの実施形態による、電子デバイスがコンテンツアイテムの個別の再生ポジションへのナビゲーションをどのように向上させるかの例を示す。
【
図11D】いくつかの実施形態による、電子デバイスがコンテンツアイテムの個別の再生ポジションへのナビゲーションをどのように向上させるかの例を示す。
【
図11E】いくつかの実施形態による、電子デバイスがコンテンツアイテムの個別の再生ポジションへのナビゲーションをどのように向上させるかの例を示す。
【0023】
【
図12A】いくつかの実施形態による、コンテンツアイテムの個別の再生ポジションへのナビゲーションを向上させる方法を示すフローチャートである。
【
図12B】いくつかの実施形態による、コンテンツアイテムの個別の再生ポジションへのナビゲーションを向上させる方法を示すフローチャートである。
【
図12C】いくつかの実施形態による、コンテンツアイテムの個別の再生ポジションへのナビゲーションを向上させる方法を示すフローチャートである。
【0024】
【
図13A】本開示のいくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する例示的な方法を示す。
【
図13B】本開示のいくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する例示的な方法を示す。
【
図13C】本開示のいくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する例示的な方法を示す。
【
図13D】本開示のいくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する例示的な方法を示す。
【
図13E】本開示のいくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する例示的な方法を示す。
【0025】
【
図14A】いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。
【
図14B】いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。
【
図14C】いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。
【
図14D】いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。
【
図14E】いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。
【
図14F】いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。
【
図14G】いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。
【
図14H】いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。
【
図14I】いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。
【
図14J】いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。
【発明を実施するための形態】
【0026】
本開示は、いくつかの実施形態による、コンピュータ生成(CGR)体験をユーザに提供するユーザインタフェースに関する。
【0027】
本明細書で説明されるシステム、方法、及びGUIは、電子デバイスがナビゲーションユーザインタフェース要素内で示される物理ロケーションに対応するコンテンツを提示するための改善された方法を提供する。
【0028】
いくつかの実施形態では、コンピュータシステムは、三次元環境において、コンテンツアイテムを含むコンテンツアプリケーションを表示する。いくつかの実施形態では、電子デバイスは、コンテンツアイテムを含むコンテンツアプリケーションを表示している間に、仮想照明効果を三次元環境に適用する。いくつかの実施形態では、仮想照明効果は、コンテンツアプリケーションを介して再生されるコンテンツアイテムに基づく(例えば、コンテンツアイテムに関連付けられた画像に含まれる色を含む)。仮想照明を用いてコンテンツアプリケーションユーザインタフェースを提示することは、コンテンツアイテムを消費している間に、没入型で注意散漫の少ない体験をユーザに提供し、これは、ユーザが電子デバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用量を更に低減し、電子デバイスのバッテリ寿命を改善する。
【0029】
いくつかの実施形態では、コンピュータシステムは、三次元環境において、拡張提示モード及びピクチャインピクチャ提示モードを含む異なる提示モードでメディアコンテンツを提示する。いくつかの実施形態では、コンピュータシステムは、三次元環境のユーザの視点が変化するにつれて、三次元環境内のメディアコンテンツのポジション及び/又は配向を更新する。いくつかの実施形態では、コンピュータシステムが三次元環境におけるメディアコンテンツのポジション及び/又は配向を更新するかどうかは、コンピュータシステムが三次元環境におけるユーザの視点の移動を検出したときのメディアコンテンツに関連付けられた提示モードに基づく。三次元環境のユーザの視点が変化するにつれてメディアコンテンツのポーズ及び/又は配向を変更することは、三次元環境のユーザの現在の視点にかかわらず、メディアコンテンツへの連続的なアクセスを提供する効率的な方法を提供し、これは、ユーザが電子デバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用量を更に低減し、電子デバイスのバッテリ寿命を改善する。
【0030】
いくつかの実施形態では、コンピュータシステムは、コンテンツアイテムの個別の部分へのナビゲーションを強化する。いくつかの実施形態では、コンテンツアイテムを提示している間に、電子デバイスは、ユーザの注意(例えば、視線)がもはやコンテンツアイテムに向けられていないことを検出する。いくつかの実施形態では、ユーザの注意がコンテンツアイテムに向けられていない後にコンテンツアイテムに向けられたことを検出したことに応じて、電子デバイスは、選択されたときに、ユーザがコンテンツアイテムから注意を逸らしたときに再生されていたコンテンツアイテムの再生ポジションに関連付けられたコンテンツアイテムの個別の再生ポジションに電子デバイスをナビゲートさせる選択可能オプションを提示する。コンテンツアイテムの個別の再生ポジションにナビゲートするためのオプションを提示することは、コンテンツアイテムをナビゲートする効率的な方法を提供し、これは、ユーザが電子デバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用量を更に低減し、電子デバイスのバッテリ寿命を改善し、更なるユーザ入力で訂正されなければならない使用におけるエラーを低減する。
【0031】
いくつかの実施形態では、コンピュータシステムは、三次元環境において没入型及び非没入型メディアコンテンツを提示する。いくつかの実施形態では、コンピュータシステムは、没入型提示モード及び非没入型提示モードで没入コンテンツを提示する。いくつかの実施形態では、コンピュータシステムが非没入型提示モードで没入コンテンツを提示している間に、コンピュータシステムは、選択されると、コンピュータシステムに没入コンテンツの提示を非没入型提示モードから没入型提示モードに遷移させる選択可能オプションを表示する。コンテンツの提示を非没入型提示から没入型提示モードに遷移する選択可能オプションを提供することは、没入コンテンツに関連付けられた異なる提示モードにアクセスする効率的な方法を提供し、これは、ユーザが電子デバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用量を更に低減し、電子デバイスのバッテリ寿命を改善する。
【0032】
図1~
図6は、(方法800、1000、1200、及び1400に関して以下で説明されるような)XR体験をユーザに提供するための例示的なコンピュータシステムの説明を提供する。
図7A~
図7Eは、いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成するための例示的な技術を示す。
図8A~
図8Oは、いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。
図9A~
図9Eは、いくつかの実施形態による、三次元環境においてメディアコンテンツを表示するための例示的な技術を示す。
図10A~
図10Iは、いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する方法を示すフローチャートである。
図11A~
図11Eは、いくつかの実施形態による、コンテンツアイテムの個別の再生ポジションへのナビゲーションを向上させるための例示的な技術を示す。
図12A~
図12Cは、いくつかの実施形態による、コンテンツアイテムの個別の再生ポジションへのナビゲーションを向上させる方法を示すフローチャートである。
図13A~
図13Eは、本開示のいくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示するための例示的な技術を示す。
図14A~
図14Jは、いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。
【0033】
後述のプロセスは、改善された視覚的なフィードバックをユーザに提供すること、操作を実行するために必要な入力の数を減らすこと、表示される追加のコントロールでユーザインタフェースを雑然とさせることなく追加の制御オプションを提供すること、条件のセットが満たされたときに更なるユーザ入力を必要とせずに操作を実行すること、プライバシー及び/又はセキュリティを改善すること及び/又は、他の技術を含む、様々な技術により、(例えば、ユーザがデバイスを操作/対話する際に適切な入力を行うのを助け、ユーザの誤りを減らすことによって)デバイスの操作性を高め、ユーザとデバイスのインタフェースを効率化するものである。これらの技術はまた、ユーザがデバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0034】
更に、1つ以上のステップが満たされている1つ以上の条件を条件とする本明細書に記載の方法では、記載の方法は、繰り返しの過程にわたって、本方法のステップが条件とする条件の全てが本方法の異なる繰り返しで満たされるように、複数の繰り返しで繰り返されることができることを理解されたい。例えば、ある方法が、条件が満たされた場合に第1のステップを実行し、条件が満たされなかった場合に第2のステップを実行することを必要とする場合、当業者であれば、条件が満たされ、満たされなくなるまで、請求項に記載のステップが、特定の順序で繰り返されることを理解するであろう。したがって、満たされた1つ以上の条件に依存する1つ以上のステップで説明される方法は、方法に記載された各条件が満たされるまで繰り返される方法として書き換えられることができる。しかしながら、これは、システム又はコンピュータ可読媒体が、対応する1つ以上の条件の充足に基づいて条件付き動作を実行するための命令を含み、したがって、方法のステップが条件付きである全ての条件が満たされるまで、方法のステップを明示的に繰り返すことなく偶発性が満たされたか否かを判定することができる、システム又はコンピュータ可読媒体の請求項には必要とされない。当業者はまた、条件付きステップを有する方法と同様に、システム又はコンピュータ可読記憶媒体が、条件付きステップの全てが実行されたことを確実にするために必要な回数だけ方法のステップを繰り返すことができることを理解するであろう。
【0035】
いくつかの実施形態では、
図1に示されるように、XR体験は、コンピュータシステム101を含む動作環境100を介してユーザに提供される。コンピュータシステム101は、コントローラ110(例えば、ポータブル電子デバイス又はリモートサーバのプロセッサ)と、表示生成構成要素120(例えば、ヘッドマウントデバイス(HMD)、ディスプレイ、プロジェクタ、タッチスクリーンなど)と、1つ以上の入力デバイス125(例えば、アイトラッキングデバイス130、ハンドトラッキングデバイス140、他の入力デバイス150)と、1つ以上の出力デバイス155(例えば、スピーカ160、触知出力ジェネレータ170、及び他の出力デバイス180)と、1つ以上のセンサ190(例えば、画像センサ、光センサ、深度センサ、触覚センサ、配向センサ、近接センサ、温度センサ、ロケーションセンサ、運動センサ、速度センサなど)と、任意選択的に1つ以上の周辺デバイス195(例えば、家電製品、ウェアラブルデバイスなど)と、を含む。いくつかの実施形態では、入力デバイス125、出力デバイス155、センサ190、及び周辺デバイス195のうちの1つ以上は、(例えば、ヘッドマウントデバイス又はハンドヘルドデバイス内で)表示生成構成要素120と統合される。
【0036】
XR体験を説明するとき、ユーザが感知する、及び/又は(例えば、XR体験を生成するコンピュータシステムに、XR体験を生成するコンピュータシステム101に提供される様々な入力に対応するオーディオ、視覚、及び/又は触覚フィードバックを生成させる、コンピュータシステム101によって検出された入力を用いて)ユーザが相互作用することができる、いくつかの関連するが、別個の環境に個別的に言及するために様々な用語が使用される。以下は、これらの用語のサブセットである。
【0037】
物理的環境:物理的環境とは、人々が電子システムの助けなしに、感知及び/又は相互作用することができる物理的世界を指す。物理的な公園などの物理的環境には、物理的な木々、物理的な建物、及び物理的な人々などの物理的物品が挙げられる。人々は、視覚、触覚、聴覚、味覚、及び嗅覚などを介して、物理的環境を直接感知し、及び/又はそれと相互作用することができる。
【0038】
拡張現実:これと対照的に、拡張現実(extended reality、XR)環境は、人々が電子システムを介して感知及び/又は対話する、全体的又は部分的に模倣された環境を指す。XRでは、人物の身体運動のサブセット又はその表現が追跡され、それに応じて、XR環境内でシミュレートされた1つ以上の仮想オブジェクトの1つ以上の特性が、少なくとも1つの物理学の法則でふるまうように調節される。例えば、XRシステムは、人物の頭部の回転を検出し、それに応じて、そのようなビュー及び音が物理的環境においてどのように変化するかと同様の方法で、人物に提示されるグラフィックコンテンツ及び音場を調節することができる。状況によっては(例えば、アクセス性の理由から)、XR環境における仮想オブジェクト(単数又は複数)の特性(単数又は複数)に対する調節は、身体運動の表現(例えば、音声コマンド)に応じて行われてもよい。人物は、視覚、聴覚、触覚、味覚及び嗅覚を含むこれらの感覚のうちのいずれか1つを使用して、XRオブジェクトを感知し、かつ/又はXRオブジェクトと相互作用してもよい。例えば、人物は、3D空間において点音源の知覚を提供する、3D又は空間的広がりを有するオーディオ環境を作り出すオーディオオブジェクトを感知し、かつ/又はそれと相互作用することができる。別の例では、オーディオオブジェクトによって、コンピュータ生成オーディオを含めて、又は含めずに、物理的環境から周囲音を選択的に組み込むオーディオ透過性が可能になり得る。いくつかのXR環境では、人物は、オーディオオブジェクトのみを感知し、かつ/又はそれと相互作用してもよい。
【0039】
XRの例としては、仮想現実及び複合現実が挙げられる。
【0040】
仮想現実:仮想現実(VR)環境とは、1つ以上の感覚について、コンピュータ生成感覚入力に全面的に基づくように設計された模倣環境を指す。VR環境は、人物が感知かつ/又は相互作用することができる複数の仮想オブジェクトを含む。例えば、木、建物、及び人々を表すアバターのコンピュータ生成画像は、仮想オブジェクトの例である。人物は、コンピュータ生成環境内に人物が存在することのシミュレーションを通じて、かつ/又はコンピュータ生成環境内での人物の物理的移動のサブセットのシミュレーションを通じて、VR環境における仮想オブジェクトを感知し、かつ/又はそれと相互作用することができる。
【0041】
複合現実:複合現実(MR)環境とは、コンピュータ生成感覚入力に全面的に基づくように設計されたVR環境とは対照的に、コンピュータ生成感覚入力(例えば、仮想オブジェクト)を含むことに加えて、物理的環境からの感覚入力又はその表現を組み込むように設計された模倣環境を指す。仮想の連続体上では、複合現実環境は、一方の端部における完全な物理的環境と、他方の端部における仮想現実環境との間であるがこれらを含まない、任意の場所である。いくつかのMR環境では、コンピュータ生成感覚入力は、物理的環境からの感覚入力の変化に応じ得る。また、MR環境を提示するためのいくつかの電子システムは、仮想オブジェクトが現実のオブジェクト(すなわち、物理的環境からの物理的物品又はその表現)と相互作用することを可能にするために、物理的環境に対するロケーション及び/又は配向を追跡してもよい。例えば、システムは、仮想の木が物理的な地面に対して静止して見えるように、移動を考慮することができる。
【0042】
複合現実の例としては、拡張現実及び拡張仮想が挙げられる。
【0043】
拡張現実:拡張現実(AR)環境とは、1つ以上の仮想オブジェクトが物理的環境上又はその表現上に重ね合わされた模倣環境を指す。例えば、AR環境を提示するための電子システムは、人物が物理的環境を直接見ることができる透明又は半透明のディスプレイを有してもよい。システムは、透明又は半透明のディスプレイに仮想オブジェクトを提示するように構成されていてもよく、それによって、人物はシステムを使用して、物理的環境の上に重ね合わされた仮想オブジェクトを知覚する。あるいは、システムは、不透明ディスプレイと、物理的環境の表現である、物理的環境の画像又はビデオをキャプチャする1つ以上の撮像センサとを有してもよい。システムは、画像又はビデオを仮想オブジェクトと合成し、その合成物を不透明ディスプレイ上に提示する。人物はこのシステムを使用して、物理的環境を、物理的環境の画像又はビデオによって間接的に見て、物理的環境に重ね合わされた仮想オブジェクトを知覚する。本明細書で使用するとき、不透明ディスプレイ上に示される物理的環境のビデオは、「パススルービデオ」と呼ばれ、システムが、1つ以上の画像センサ(単数又は複数)を使用して、物理的環境の画像をキャプチャし、不透明ディスプレイ上にAR環境を提示する際にそれらの画像を使用することを意味する。更に代替的に、システムが仮想オブジェクトを、例えば、ホログラムとして物理的環境の中に、又は物理的表面に投影するプロジェクションシステムを有してもよく、それによって、人物はシステムを使用して、物理的環境に重ね合わされた仮想オブジェクトを知覚する。拡張現実環境はまた、物理的環境の表現がコンピュータ生成感覚情報によって変換される模倣環境を指す。例えば、パススルービデオを提供する際に、システムは、1つ以上のセンサ画像を、撮像センサがキャプチャした透視図とは別の選択された透視図(例えば、視点)を面付けするように変形してもよい。別の例として、物理的環境の表現を、その一部をグラフィカルに修正(例えば、拡大)することによって変形してもよく、それにより、修正された部分を、元のキャプチャ画像を表すが非写実的な、改変版にすることもできる。更なる例として、物理的環境の表現は、その一部をグラフィカルに除去又は不明瞭化することによって変形されてもよい。
【0044】
拡張仮想:拡張仮想(AV)環境とは、仮想環境又はコンピュータ生成環境が物理的環境から1つ以上の感覚入力を組み込んだ模倣環境を指す。感覚入力は、物理的環境の1つ以上の特性の表現であり得る。例えば、AVの公園には仮想の木及び仮想の建物があり得るが、顔がある人々は、物理的な人々が撮られた画像から写実的に再現される。別の例として、仮想オブジェクトは、1つ以上の撮像センサによって撮像された物理的物品の形状又は色を採用してもよい。更なる例として、仮想オブジェクトは、物理的環境における太陽のポジションと一致する影を採用することができる。
【0045】
視点ロック仮想オブジェクト:ユーザの視点がシフト(例えば、変化)しても、コンピュータシステムが仮想オブジェクトをユーザの視点内の同じロケーション及び/又はポジションに表示するとき、仮想オブジェクトは視点ロックされる。コンピュータシステムがヘッドマウントデバイスである実施形態では、ユーザの視点は、ユーザの頭部の前向き方向にロックされる(例えば、ユーザの視点は、ユーザが真っ直ぐ前を見ているときのユーザの視野の少なくとも一部分である)。したがって、ユーザの視点は、ユーザの頭部を動かさずに、ユーザの視線が動いても固定されたままである。コンピュータシステムが、ユーザの頭部に対して再配置され得る表示生成構成要素(例えば、表示画面)を有する実施形態では、ユーザの視点は、コンピュータシステムの表示生成構成要素上でユーザに提示されている拡張現実ビューである。例えば、ユーザの視点が第1の配向にある(例えば、ユーザの頭部が北を向いている)ときにユーザの視点の左上隅に表示される視点ロック仮想オブジェクトは、ユーザの視点が第2の配向に変化しても(例えば、ユーザの頭部が西を向いている)、ユーザの視点の左上隅に表示され続ける。言い換えれば、視点ロック仮想オブジェクトがユーザの視点において表示されるロケーション及び/又はポジションは、物理的環境におけるユーザのポジション及び/又は配向とは無関係である。コンピュータシステムがヘッドマウントデバイスである実施形態では、ユーザの視点は、仮想オブジェクトが「頭部ロック仮想オブジェクト」とも称されるように、ユーザの頭部の配向にロックされる。
【0046】
環境ロック仮想オブジェクト:仮想オブジェクトは、コンピュータシステムが、三次元環境(例えば、物理的環境又は仮想環境)内のロケーション及び/又はオブジェクトに基づく(例えば、それを参照して選択される、及び/又はそれに固定される)ユーザの視点内のロケーション及び/又はポジションに仮想オブジェクトを表示するとき、環境ロック(又は、「世界ロック」)される。ユーザの視点がシフトすると、ユーザの視点に対する環境内のロケーション及び/又はオブジェクトが変化し、その結果、環境ロック仮想オブジェクトがユーザの視点内の異なるロケーション及び/又はポジションに表示される。例えば、ユーザの直前にある木にロックされた環境ロック仮想オブジェクトは、ユーザの視点の中心に表示される。ユーザの視点が右にシフトして(例えば、ユーザの頭部が右に向けられて)木がユーザの視点において左寄りになる(例えば、ユーザの視点における木のポジションがシフトする)場合、木にロックされた環境ロック仮想オブジェクトは、ユーザの視点において左寄りに表示される。言い換えれば、環境ロック仮想オブジェクトがユーザの視点において表示されるロケーション及び/又はポジションは、仮想オブジェクトがロックされる環境におけるロケーション及び/又はオブジェクトのポジション及び/又は配向に依存する。いくつかの実施形態では、コンピュータシステムは、ユーザの視点において環境ロック仮想オブジェクトを表示するポジションを決定するために、静止基準フレーム(例えば、物理的環境における固定ロケーション及び/又はオブジェクトに固定される座標系)を使用する。環境ロック仮想オブジェクトは、環境の静止部分(例えば、床、壁、テーブル、又は他の静止オブジェクト)にロックされることができ、又は環境の可動部分(例えば、車両、動物、人、又はユーザの手、手首、腕、足など、ユーザの視点とは無関係に移動するユーザの身体の部分の表現)にロックされることができ、それにより、仮想オブジェクトは、仮想オブジェクトと環境の部分との間の固定された関係を維持するために、視点又は環境の部分が移動するにつれて移動する。
【0047】
いくつかの実施形態では、環境ロック又は視点ロックされた仮想オブジェクトは、仮想オブジェクトが追従している基準点の移動に対して、環境ロック又は視点ロックされた仮想オブジェクトの動きを低減又は遅延させる遅延追従挙動を示す。いくつかの実施形態では、遅延追従挙動を示すとき、コンピュータシステムは、仮想オブジェクトが追従している基準点(例えば、環境の一部、視点、又は視点から5~300cmの間にある点等の視点に対して固定された点)の移動を検出すると、仮想オブジェクトの移動を意図的に遅延させる。例えば、基準点(例えば、環境の一部又は視点)が第1の速度で移動するとき、仮想オブジェクトは、基準点にロックされたままであるようにデバイスによって移動されるが、第1の速度よりも遅い第2の速度で移動する(例えば、基準点が移動を停止又は減速するまで、その時点で仮想オブジェクトが基準点に追いつき始める)。いくつかの実施形態では、仮想オブジェクトが遅延追従挙動を示すとき、デバイスは、基準点の少量の移動を無視する(例えば、0~5度の移動又は0~50cmの移動など、閾値移動量未満である基準点の移動を無視する)。例えば、基準点(例えば、仮想オブジェクトがロックされる環境の部分又は視点)が第1の量だけ移動するとき、基準点と仮想オブジェクトとの間の距離は増加し(例えば、仮想オブジェクトがロックされる基準点とは異なる視点又は環境の部分に対して固定又は実質的に固定されたポジションを維持するように仮想オブジェクトが表示されているので)、基準点(例えば、仮想オブジェクトがロックされる環境の部分又は視点)が第1の量よりも大きい第2の量だけ移動するとき、基準点と仮想オブジェクトとの間の距離は最初に増加し(例えば、仮想オブジェクトがロックされる基準点とは異なる視点又は環境の部分に対して固定又は実質的に固定されたポジションを維持するように仮想オブジェクトが表示されているので)、次いで、仮想オブジェクトが基準点に対して固定又は実質的に固定されたポジションを維持するようにコンピュータシステムによって移動されるので、基準点の移動量が閾値(例えば、「遅延追従」閾値)を超えて増加するにつれて減少する。いくつかの実施形態では、基準点に対して実質的に固定されたポジションを維持する仮想オブジェクトは、仮想オブジェクトが、1つ以上の寸法(例えば、基準点のポジションに対して上/下、左/右、及び/又は前方/後方)において基準点の閾値距離(例えば、1、2、3、5、15、20、50cm)内に表示されることを含む。
【0048】
ハードウェア:人物が様々なXR環境を感知し、及び/又はそれと相互作用することを可能にする、多くの異なるタイプの電子システムが存在する。例としては、ヘッドマウントシステム、プロジェクションベースシステム、ヘッドアップディスプレイ(heads-up displays、HUD)、統合表示機能を有する車両ウィンドシールド、統合表示機能を有する窓、(例えば、コンタクトレンズと同様に)人物の目の上に配置されるように設計されたレンズとして形成されたディスプレイ、ヘッドホン/イヤフォン、スピーカアレイ、入力システム(例えば、触覚フィードバックを有する又は有さない、装着型コントローラ又はハンドヘルドコントローラ)、スマートフォン、タブレット、及びデスクトップ/ラップトップコンピュータ、が挙げられる。ヘッドマウントシステムは、1つ以上のスピーカ(単数又は複数)及び一体型不透明ディスプレイを有してもよい。あるいは、ヘッドマウントシステムは、外部の不透明ディスプレイ(例えば、スマートフォン)を受容するように構成されていてもよい。ヘッドマウントシステムは、物理的環境の画像若しくはビデオをキャプチャするための1つ以上の撮像センサ、及び/又は物理的環境のオーディオをキャプチャするための1つ以上のマイクロフォンを組み込んでいてもよい。ヘッドマウントシステムは、不透明ディスプレイではなく、透明又は半透明のディスプレイを有してもよい。透明又は半透明のディスプレイは、画像を表す光が人物の目に向けられる媒体を有してもよい。ディスプレイは、デジタル光投影、OLED、LED、uLED、液晶オンシリコン、レーザスキャン光源、又はこれらの技術の任意の組み合わせを利用することができる。媒体は、光導波路、ホログラム媒体、光結合器、光反射器、又はこれらの任意の組み合わせであってもよい。一実施形態では、透明又は半透明のディスプレイは、選択的に不透明になるように構成されていてもよい。プロジェクションベースシステムは、グラフィカル画像を人物の網膜上に投影する網膜投影技術を採用することができる。プロジェクションシステムはまた、仮想オブジェクトを、例えば、ホログラムとして、又は物理的表面として物理的環境に投影するように構成されてもよい。いくつかの実施形態では、コントローラ110は、ユーザのXR体験を管理及び調整するように構成される。いくつかの実施形態では、コントローラ110は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。コントローラ110については、
図2を参照して以下により詳細に説明する。いくつかの実施形態では、コントローラ110は、シーン105(例えば、物理的環境)に対してローカル又はリモートであるコンピューティングデバイスである。例えば、コントローラ110は、シーン105内に位置するローカルサーバである。別の例では、コントローラ110は、シーン105の外側に位置するリモートサーバ(例えば、クラウドサーバ、中央サーバなど)である。いくつかの実施形態では、コントローラ110は、1つ以上の有線又は無線通信チャネル144(例えば、BLUETOOTH、IEEE802.11x、IEEE802.16x、IEEE802.3xなど)を介して、表示生成構成要素120(例えば、HMD、ディスプレイ、プロジェクタ、タッチスクリーンなど)と通信可能に結合される。別の例では、コントローラ110は、表示生成構成要素120(例えば、HMD、又はディスプレイ及び1つ以上のプロセッサなどを含むポータブル電子デバイス)、入力デバイス125のうちの1つ以上、出力デバイス155のうちの1つ以上、センサ190のうちの1つ以上、及び/又は周辺デバイス195のうちの1つ以上の筐体(例えば、物理的ハウジング)内に含まれる、又は上記のうちの1つ以上と同じ物理的筐体又は支持構造を共有する。
【0049】
いくつかの実施形態では、表示生成構成要素120は、XR体験(例えば、XR体験の少なくとも視覚的構成要素)をユーザに提供するように構成される。いくつかの実施形態では、表示生成構成要素120は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。表示生成構成要素120について、
図3を参照して以下により詳細に説明する。いくつかの実施形態では、コントローラ110の機能は、表示生成構成要素120によって提供される、及び/又は表示生成構成要素120と組み合わされる。
【0050】
いくつかの実施形態によれば、表示生成構成要素120は、ユーザがシーン105内に仮想的及び/又は物理的に存在している間に、XR体験をユーザに提供する。
【0051】
いくつかの実施形態では、表示生成構成要素は、ユーザの身体の一部(例えば、自身の頭部や自身の手など)に装着される。したがって、表示生成構成要素120は、XRコンテンツを表示するために提供された1つ以上のXRディスプレイを含む。例えば、様々な実施形態では、表示生成構成要素120は、ユーザの視野を包囲する。いくつかの実施形態では、表示生成構成要素120は、XRコンテンツを提示するように構成されたハンドヘルドデバイス(スマートフォン又はタブレットなど)であり、ユーザは、ユーザの視野に向けられるディスプレイ及びシーン105に向けられるカメラを備えたデバイスを保持する。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの頭部に装着された筐体内に配置される。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの前の支持体(例えば、三脚)上に配置される。いくつかの実施形態では、表示生成構成要素120は、ユーザが表示生成構成要素120を着用又は保持しない状態でXRコンテンツを提示するように構成されたXRチャンバ、筐体、又は部屋である。XRコンテンツ(例えば、ハンドヘルドデバイス又は三脚上のデバイス)を表示するための1つのタイプのハードウェアを参照して説明される多くのユーザインタフェースは、XRコンテンツ(例えば、HMD又は他のウェアラブルコンピューティングデバイス)を表示するための別のタイプのハードウェア上に実施され得る。例えば、ハンドヘルド又は三脚搭載デバイスの前の空間内で起こる相互作用に基づいてトリガされるXRコンテンツとの相互作用を示すユーザインタフェースは、相互作用がHMDの前の空間で発生し、XRコンテンツの応答がHMDを介して表示されるHMDと同様に実施され得る。同様に、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するハンドヘルド又は三脚搭載デバイスの移動に基づいてトリガされたCRGコンテンツとの相互作用を示すユーザインタフェースは、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するHMDの移動によって移動が引き起こされるHMDと同様に実施され得る。
【0052】
動作環境100の関連する特徴が
図1に示されているが、当業者は、本明細書に開示される例示的な実施形態のより適切な態様を曖昧にしないように、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。
【0053】
図2は、いくつかの実施形態による、コントローラ110の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。そのため、非限定的な例として、いくつかの実施形態では、コントローラ110は、1つ以上の処理ユニット202(例えば、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、グラフィック処理ユニット(GPU)、中央処理ユニット(CPU)、処理コアなど)、1つ以上の入出力(I/O)デバイス206、1つ以上の通信インタフェース208(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、グローバル移動通信システム(GSM)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、グローバル測位システム(GPS)、赤外線(IR)、BLUETOOTH、ZIGBEE、又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース210、メモリ220、並びにこれら及び様々な他の構成要素を相互接続するための1つ以上の通信バス204を含む。
【0054】
いくつかの実施形態では、1つ以上の通信バス204は、システム構成要素を相互接続し、システム構成要素間の通信を制御する、回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス206は、キーボード、マウス、タッチパッド、ジョイスティック、1つ以上のマイクロフォン、1つ以上のスピーカ、1つ以上の画像センサ、1つ以上のディスプレイなどのうちの少なくとも1つを含む。
【0055】
メモリ220は、ダイナミックランダムアクセスメモリ(dynamic random-access memory、DRAM)、スタティックランダムアクセスメモリ(static random-access memory、SRAM)、ダブルデータレートランダムアクセスメモリ(double-data-rate random-access memory、DDRRAM)、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ220は、1つ以上の磁気記憶デバイス、光学記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性固体記憶デバイスなどの非揮発性メモリを含む。メモリ220は、任意選択的に、1つ以上の処理ユニット202から遠隔に位置する1つ以上の記憶デバイスを含む。メモリ220は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ220、又はメモリ220の非一時的コンピュータ可読記憶媒体は、任意選択的なオペレーティングシステム230及びXR体験モジュール240を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。
【0056】
オペレーティングシステム230は、様々な基本システムサービスを処理し、ハードウェア依存タスクを実施するための命令を含む。いくつかの実施形態では、XR体験モジュール240は、1人以上のユーザに対する1つ以上のXR体験(例えば、1人以上のユーザに対する単一のXR体験、又は1人以上のユーザのそれぞれのグループに対する複数のXR体験)を管理及び調整するように構成されている。そのために、様々な実施形態では、XR体験モジュール240は、データ取得ユニット242と、トラッキングユニット244と、調整ユニット246と、データ送信ユニット248とを含む。
【0057】
いくつかの実施形態では、データ取得ユニット241は、少なくとも
図1の表示生成構成要素120、並びに任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上からデータ(例えば、提示データ、相互作用データ、センサデータ、ロケーションデータなど)を取得するように構成される。その目的で、様々な実施形態では、データ取得ユニット241は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0058】
いくつかの実施形態では、トラッキングユニット242は、シーン105をマッピングし、
図1のシーン105に対して、かつ任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上に対して、少なくとも表示生成構成要素120のポジション/ロケーションを追跡するように構成される。そのために、様々な実施形態では、トラッキングユニット242は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。いくつかの実施形態では、トラッキングユニット242は、ハンドトラッキングユニット244及び/又はアイトラッキングユニット243を含む。いくつかの実施形態では、ハンドトラッキングユニット244は、
図1のシーン105に対する、表示生成構成要素120に対する、かつ/又はユーザの手に対して定義された座標系に対する、ユーザの手の1つ以上の部分のポジション/ロケーション、及び/又はユーザの手の1つ以上の部分の運動を追跡するように構成される。ハンドトラッキングユニット244は、
図4に関して以下でより詳細に説明される。いくつかの実施形態では、アイトラッキングユニット243は、シーン105に対する(例えば、物理的環境及び/又はユーザ(例えば、ユーザの手)に対する)、又は表示生成構成要素120を介して表示されたXRコンテンツに対する、ユーザの視線(又は、より広範にはユーザの目、顔、又は頭部)のポジション及び移動を追跡するように構成される。アイトラッキングユニット243は、
図5に関して以下でより詳細に説明される。
【0059】
いくつかの実施形態では、調整ユニット246は、表示生成構成要素120によって、並びに任意選択的に、出力デバイス155及び/又は周辺デバイス195のうちの1つ以上によって、ユーザに提示されるXR体験を管理及び調整するように構成される。その目的で、様々な実施形態において、調整ユニット246は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0060】
いくつかの実施形態では、データ送信ユニット248は、データ(例えば、提示データ、ロケーションデータなど)を少なくとも表示生成構成要素120、並びに任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上に送信するように構成される。そのために、様々な実施形態では、データ送信ユニット248は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0061】
データ取得ユニット241、トラッキングユニット242(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248が、単一のデバイス(例えば、コントローラ110)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット241、トラッキングユニット242(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
【0062】
更に、
図2は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実施形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、
図2に別々に示されるいくつかの機能モジュールは、単一のモジュールにおいて実現することができ、単一の機能ブロックの様々な機能は、様々な実施形態において1つ以上の機能ブロックによって実現することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。
【0063】
図3は、いくつかの実施形態による、表示生成構成要素120の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。その目的で、非限定的な例として、いくつかの実施形態では、表示生成構成要素120(例えば、HMD)には、1つ以上の処理ユニット302(例えば、マイクロプロセッサ、ASIC、FPGA、GPU、CPU、処理コアなど)、1つ以上の入出力(I/O)デバイス及びセンサ306、1つ以上の通信インタフェース308(例えば、USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、赤外線、BLUETOOTH、ZIGBEE、及び/又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース310、1つ以上のXRディスプレイ312、1つ以上の任意選択の内向き及び/又は外向き画像センサ314、メモリ320、並びにこれら及び様々な他の構成要素を相互接続するための1つ以上の通信バス304、が含まれる。
【0064】
いくつかの実施形態では、1つ以上の通信バス304は、システム構成要素間の通信を相互接続及び制御する回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス及びセンサ306は、慣性測定装置(IMU)、加速度計、ジャイロスコープ、温度計、1つ以上の生理的センサ(例えば、血圧モニタ、心拍数モニタ、血液酸素センサ、血糖センサなど)、1つ以上のマイクロフォン、1つ以上のスピーカ、触覚エンジン、1つ以上の深度センサ(例えば、構造化光、飛行時間など)などのうちの少なくとも1つを含む。
【0065】
いくつかの実施形態では、1つ以上のXRディスプレイ312は、ユーザにXR体験を提供するように構成される。いくつかの実施形態では、1つ以上のXRディスプレイ312は、ホログラフィック、デジタル光処理(DLP)、液晶ディスプレイ(LCD)、液晶オンシリコン(LCoS)、有機発光電界効果トランジスタ(OLET)、有機発光ダイオード(OLED)、表面伝導型電子放射素子ディスプレイ(SED)、電界放射ディスプレイ(FED)、量子ドット発光ダイオード(QD-LED)、MEMS、及び/又は同様のディスプレイタイプに相当する。いくつかの実施形態では、1つ以上のXRディスプレイ312は、回折、反射、偏光、ホログラフィックなどの、導波管ディスプレイに相当する。例えば、表示生成構成要素120(例えば、HMD)は、単一のXRディスプレイを含む。別の例では、表示生成構成要素120(例えば、HMD)は、ユーザの各目用のXRディスプレイを含む。いくつかの実施形態では、1つ以上のXRディスプレイ312は、MR又はVRコンテンツを提示することができる。いくつかの実施形態では、1つ以上のXRディスプレイ312は、MR又はVRコンテンツを提示することができる。
【0066】
いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの目を含むユーザの顔の少なくとも一部分に対応する画像データを取得するように構成される(及び、アイトラッキングカメラと称する場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの手(単数又は複数)及び任意選択的にユーザの腕(単数又は複数)の少なくとも一部分に対応する画像データを取得するように構成される(及び、ハンドトラッキングカメラと称される場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、表示生成構成要素120(例えばHMD)、が存在しない場合に、ユーザが閲覧するようなシーンに対応する画像データを取得するように前方を向くように構成されている(かつ、シーンカメラと称されることがある)。1つ以上の任意選択的な画像センサ314は、(例えば、相補型金属酸化膜半導体(CMOS)画像センサ若しくは電荷結合デバイス(CCD)画像センサを備えた)1つ以上のRGBカメラ、1つ以上の赤外線(IR)カメラ、1つ以上のイベントベースのカメラ、及び/又は同様のもの、を含むことができる。
【0067】
メモリ320は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの、高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ320は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ320は、1つ以上の処理ユニット302から遠隔に位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ320は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ320、又はメモリ320の非一時的コンピュータ可読記憶媒体は、任意選択のオペレーティングシステム330及びXR提示モジュール340を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。
【0068】
オペレーティングシステム330は、様々な基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含む。いくつかの実施形態では、XR提示モジュール340は、1つ以上のXRディスプレイ312を介してXRコンテンツをユーザに提示するように構成される。その目的で、様々な実施形態では、XR提示モジュール340は、データ取得ユニット342、XR提示ユニット344、XRマップ生成ユニット346、及びデータ送信ユニット348を含む。
【0069】
いくつかの実施形態では、データ取得ユニット342は、少なくとも
図1のコントローラ110からデータ(例えば、提示データ、相互作用データ、センサデータ、ロケーションデータなど)を取得するように構成される。その目的で、様々な実施形態では、データ取得ユニット342は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0070】
いくつかの実施形態では、XR提示ユニット344は、1つ以上のXRディスプレイ312を介してXRコンテンツを提示するように構成される。その目的で、様々な実施形態では、XR提示ユニット344は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0071】
いくつかの実施形態では、XRマップ生成ユニット346は、メディアコンテンツデータに基づいて、XRマップ(例えば、複合現実シーンの3Dマップ又はコンピュータ生成オブジェクトを配置して拡張現実を生成することができる物理的環境のマップ)を生成するように構成されている。その目的で、様々な実施形態では、XRマップ生成ユニット346は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0072】
いくつかの実施形態では、データ送信ユニット348は、少なくともコントローラ110、及び任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上にデータ(例えば、提示データ、ロケーションデータなど)を伝送するように構成される。その目的で、様々な実施形態では、データ送信ユニット348は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0073】
データ取得ユニット342は、XR提示ユニット344、XRマップ生成ユニット346、及びデータ送信ユニット348は、単一のデバイス(例えば、
図1の表示生成構成要素120)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット342、XR提示ユニット344、XRマップ生成ユニット346、及びデータ送信ユニット348の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
【0074】
更に、
図3は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実装形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、
図3に別々に示すいくつかの機能モジュールは、単一のモジュール内に実現することができ、単一の機能ブロックの様々な機能は、様々な実施形態では1つ以上の機能ブロックによって実行することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。
【0075】
図4は、ハンドトラッキングデバイス140の例示的な実施形態の概略図である。いくつかの実施形態では、ハンドトラッキングデバイス140(
図1)は、
図1のシーン105に対する(例えば、ユーザを囲む物理的環境の一部に対する、表示生成構成要素120に対する、又はユーザの一部(例えば、ユーザの顔、目、又は頭部)に対する、及び/又はユーザの手に対して定義された座標系に対する)ユーザの手の1つ以上の部分のロケーション/ポジション、及び/又は、ユーザの手の1つ以上の部分の移動を追跡するように、ハンドトラッキングユニット244(
図2)によって制御される。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成構成要素120の一部である(例えば、ヘッドマウントデバイスに埋め込まれる、又はヘッドマウントデバイスに取り付けられる)。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成構成要素120とは別個である(例えば、別個のハウジング内に位置する、又は別個の物理的支持構造に取り付けられる)。
【0076】
いくつかの実施形態では、ハンドトラッキングデバイス140は、人間のユーザの少なくとも手406を含む三次元シーン情報をキャプチャする画像センサ404(例えば、1つ以上のIRカメラ、3Dカメラ、深度カメラ、及び/又はカラーカメラなど)を含む。画像センサ404は、指及びそれらのそれぞれのポジションを区別するのを可能にするのに十分な解像度で手画像をキャプチャする。画像センサ404は、典型的には、ユーザの身体の他の部分の画像、又は身体の全ての画像をキャプチャし、ズーム機能又は高倍率を有する専用センサのいずれかを有して、所望の解像度で手の画像をキャプチャすることができる。いくつかの実施形態では、画像センサ404はまた、手406の2Dカラービデオ画像及びシーンの他の要素をキャプチャする。いくつかの実施形態では、画像センサ404は、シーン105の物理的環境をキャプチャする他の画像センサと併せて使用される、又はシーン105の物理的環境をキャプチャする画像センサとして機能する。いくつかの実施形態では、画像センサ404は、画像センサ又はその一部の視野が使用されて、画像センサによってキャプチャされた手の移動がコントローラ110への入力として処理される相互作用空間を定義するように、ユーザ又はユーザの環境に対して位置決めされる。
【0077】
いくつかの実施形態では、画像センサ404は、3Dマップデータ(及び場合によってはカラー画像データも)を含むフレームのシーケンスをコントローラ110に出力し、これにより、マップデータから高レベル情報を抽出する。この高レベル情報は、典型的には、アプリケーションプログラムインタフェース(API)を介して、コントローラ上で実行されるアプリケーションに提供され、それに応じて表示生成構成要素120を駆動する。例えば、ユーザは、自分の手406を移動させて自分の手の姿勢を変化させることによって、コントローラ110上で実行されるソフトウェアと対話することができる。
【0078】
いくつかの実施形態では、画像センサ404は、手406を含むシーン上にスポットパターンを投影し、投影されたパターンの画像をキャプチャする。いくつかの実施形態では、コントローラ110は、パターンのスポットの横方向シフトに基づいて、三角測量によって(ユーザの手の表面上の点を含む)シーン内の点の3D座標を計算する。このアプローチは、ユーザが任意の種類のビーコン、センサ、又は他のマーカを保持又は着用する必要がないという点で有利である。これは、画像センサ404からの特定の距離で、所定の基準面に対するシーン内の点の深度座標を与える。本開示では、画像センサ404は、シーン内の点の深度座標が画像センサによって測定されたz構成要素に対応するように、直交する一連のx、y、z軸を定義すると想定される。代替的に、画像センサ404(例えば、ハンドトラッキングデバイス)は、単一又は複数のカメラ又は他のタイプのセンサに基づいて、立体撮像又は飛行時間測定などの他の3Dマッピング方法を使用することができる。
【0079】
いくつかの実施形態では、ハンドトラッキングデバイス140は、ユーザが手(例えば、手全体又は1本以上の指)を移動させている間、ユーザの手を含む深度マップの時間シーケンスをキャプチャし処理する。画像センサ404及び/又はコントローラ110内のプロセッサ上で動作するソフトウェアは、3Dマップデータを処理して、これらの深度マップ内の手のパッチ記述子を抽出する。ソフトウェアは、各フレームにおける手のポーズを推定するために、以前の学習プロセスに基づいて、これらの記述子をデータベース408に記憶されたパッチ記述子と照合する。ポーズは、典型的には、ユーザの手関節及び指先の3Dロケーションを含む。
【0080】
ソフトウェアはまた、ジェスチャを識別するために、シーケンス内の複数のフレームにわたって手及び/又は指の軌道を解析することができる。本明細書に記載されるポーズ推定機能は、運動追跡機能とインターリーブされてもよく、それにより、パッチベースのポーズ推定が2つ(又はそれより多く)のフレーム毎に1回のみ実行される一方、追跡は残りのフレームにわたって発生するポーズの変化を発見するために使用される。ポーズ、運動、及びジェスチャ情報は、上述のAPIを介して、コントローラ110上で実行されるアプリケーションプログラムに提供される。このプログラムは、例えば、ポーズ及び/又はジェスチャ情報に応じて、表示生成構成要素120上に提示された画像を移動させ修正する、又は他の機能を実行することができる。
【0081】
いくつかの実施形態では、ジェスチャは、エアジェスチャを含む。エアジェスチャは、ユーザがデバイス(例えば、コンピュータシステム101、1つ以上の入力デバイス125、及び/又は、ハンドトラッキングデバイス140)の一部である入力要素に触れることなく(又はそれとは無関係に)検出されるジェスチャであり、絶対的な基準(例えば、地面に対するユーザの腕の角度、又は地面に対するユーザの手の距離)に対するユーザの身体の動き、ユーザの身体の別の部分(例えば、ユーザの肩に対するユーザの手の移動、ユーザの一方の手のユーザの別の手に対する移動、及び/又はユーザの指の、別の指若しくはユーザの手の一部に対する移動)に対するユーザの身体の動き、及び/又はユーザの身体の一部(例えば、所定の量及び/又は速さによる所定のポーズでの手の移動を含むタップジェスチャ、又は所定の速度又はユーザの身体の一部の回転量を含むシェイクジェスチャ)の絶対的な動きを含む、空中にあるユーザの身体の一部(例えば、頭部、1つ以上の腕、1つ以上の手、1つ以上の指、及び/又は1つ以上の脚)の検出された動きに基づく。
【0082】
いくつかの実施形態では、本明細書に記載の様々な例及び実施形態で使用される入力ジェスチャは、いくつかの実施形態に係る、XR環境(例えば、仮想又は複合現実環境)と相互作用するための他の指(単数又は複数)又はユーザの手の部分(単数又は複数)に対するユーザの指(単数又は複数)の移動によって実行されるエアジェスチャを含む。いくつかの実施形態では、エアジェスチャは、ユーザがデバイスの一部である入力要素に触れることなく(又はデバイスの一部である入力要素から独立して)検出されるジェスチャであり、絶対的な基準に対するユーザの身体の動き(例えば、地面に対するユーザの腕の角度、又は地面に対するユーザの手の距離)、ユーザの身体の別の部分に対するユーザの身体の動き(例えば、ユーザの肩に対するユーザの手の動き、ユーザの一方の手に対するユーザの他方の手の移動、及び/又はユーザの手の別の指若しくは部分に対するユーザの指の移動)、及び/又は、ユーザの身体の一部の絶対的な動き(例えば、所定の量及び/又は速さによる所定のポーズでの手の移動を含むタップジェスチャ、又はユーザの身体の一部の所定の速さ又は量の回転を含むシェイクジェスチャ)を含む、ユーザの身体の一部の検出された動きに基づく。
【0083】
入力ジェスチャがエアジェスチャ(例えば、タッチスクリーン上に表示されたユーザインタフェース要素との接触、又はユーザインタフェース要素にカーソルを移動させるためのマウス又はトラックパッドとの接触など、どのユーザインタフェース要素がユーザ入力のターゲットであるかに関する情報をコンピュータシステムに提供する入力デバイスとの物理的接触がない場合)であるいくつかの実施形態では、ジェスチャは、ユーザ入力のターゲット(例えば、以下で説明するように、直接入力の場合)を決定するためにユーザの注意(例えば、視線)を考慮に入れる。したがって、エアジェスチャを含む実装形態では、入力ジェスチャは、例えば、以下でより詳細に説明するように、ピンチ及び/又はタップ入力を実行するためのユーザの指(単数又は複数)及び/又は手の移動と組み合わせて(例えば、同時)ユーザインタフェース要素に対する検出された注意(例えば、視線)である。
【0084】
いくつかの実施形態では、ユーザインタフェースオブジェクトに向けられた入力ジェスチャは、ユーザインタフェースオブジェクトを参照して直接的又は間接的に実行される。例えば、ユーザ入力は、三次元環境(例えば、ユーザの現在の視点に基づいて決定されるように、)におけるユーザインタフェースオブジェクトのポジションに対応するポジションでユーザの手で入力ジェスチャを実行したことに応じて、ユーザインタフェースオブジェクトに対して直接実行される。いくつかの実施形態では、入力ジェスチャは、ユーザインタフェースオブジェクトに対するユーザの注意(例えば、視線)を検出しながら、ユーザの手のポジションが三次元環境におけるユーザインタフェースオブジェクトのポジションに対応するポジションにない間に入力ジェスチャを実行するユーザに従って、ユーザインタフェースオブジェクトに対して間接的に実行される。例えば、直接入力ジェスチャの場合、ユーザは、ユーザインタフェースオブジェクトの表示ポジション(例えば、オプションの外縁部又はオプションの中央部分から測定して、0.5cm、1cm、5cm、又は0~5cmの距離内)に対応するポジション又はその付近でジェスチャを開始することによって、ユーザの入力をユーザインタフェースオブジェクトに向けることができる。間接的な入力ジェスチャの場合、ユーザは、ユーザインタフェースオブジェクトに注意を払うことによって(例えば、ユーザインタフェースオブジェクトを注視することによって)ユーザの入力をユーザインタフェースオブジェクトに向けることができ、オプションに注意を払いながら、ユーザは、入力ジェスチャを開始する(例えば、コンピュータシステムによって検出可能な任意のポジションで)(例えば、ユーザインタフェースオブジェクトの表示ポジションに対応しないポジションで)。
【0085】
いくつかの実施形態では、本明細書に記載の様々な例及び実施形態で使用される入力ジェスチャ(例えば、エアジェスチャ)は、いくつかの実施形態に係る、仮想又は複合現実環境と相互作用するためのピンチ入力及びタップ入力を含む。例えば、後述するピンチ入力やタップ入力は、エアジェスチャとして行われる。
【0086】
いくつかの実施形態では、ピンチ入力は、ピンチジェスチャ、ロングピンチジェスチャ、ピンチアンドドラッグジェスチャ、又はダブルピンチジェスチャのうちの1つ以上を含むエアジェスチャの一部である。例えば、エアジェスチャであるピンチジェスチャは、互いに接触するように手の2本以上の指を動かすこと、すなわち、任意選択的に、互いに接触した直後の(例えば、0~1秒以内)中断を含む。エアジェスチャであるロングピンチジェスチャは、互いに接触している中断を検出する前に、少なくとも閾値時間量(例えば、少なくとも1秒)にわたって互いに接触するように手の2本以上の指を動かすことを含む。例えば、ロングピンチジェスチャは、ユーザがピンチジェスチャ(例えば、2つ以上の指が接触している場合、)を保持することを含み、ロングピンチジェスチャは、2本以上の指の間の接触の中断が検出されるまで継続する。いくつかの実施形態では、エアジェスチャであるダブルピンチジェスチャは、互いに直接(例えば、既定の期間内に)連続して検出される2つ(例えば、又はそれより多く)のピンチ入力(例えば、同じ手で実行される)を含む。例えば、ユーザは、第1のピンチ入力を実行し(例えば、ピンチ入力又はロングピンチ入力)、第1のピンチ入力を解放し(例えば、2つ以上の指の間の接触を破壊する)、第1のピンチ入力を解放した後、既定の期間(例えば、1秒以内又は2秒以内)内に第2のピンチ入力を実行する。
【0087】
いくつかの実施形態では、エアジェスチャであるピンチアンドドラッグジェスチャは、ユーザの手のポジションを第1のポジション(例えば、ドラッグの開始ポジション)から第2のポジション(例えば、抗力の終了ポジション)に変化させるドラッグ入力に関連して(例えば、その後に)実行されるピンチジェスチャ(例えば、ピンチジェスチャ又はロングピンチジェスチャ)を含む。いくつかの実施形態では、ユーザは、ドラッグ入力を実行しながらピンチジェスチャを維持し、(例えば、第2のポジションにおいて)ドラッグジェスチャを終了するためにピンチジェスチャ(例えば、2本以上の指を開く)を解放する。いくつかの実施形態では、ピンチ入力及びドラッグ入力は、同じ手(例えば、ユーザは、2本以上の指をつまんで互いに接触し、ドラッグジェスチャで空中の第2のポジションに同じ手を移動させる)によって実行される。いくつかの実施形態では、ピンチ入力はユーザの第1の手によって実行され、ドラッグ入力はユーザの第2の手によって実行される(例えば、ユーザの第2の手は、ユーザがユーザの第1の手でピンチ入力を継続する間に空中で第1のポジションから第2のポジションに移動する)。いくつかの実施形態では、エアジェスチャである入力ジェスチャは、ユーザの両手の双方を使用して実行される入力(例えば、ピンチ入力及び/又はタップ入力)を含む。例えば、入力ジェスチャは、互いに関連して(例えば、既定の期間と同時に、又は既定の期間内に)行われる2つ(例えば、又はそれより多く)のピンチ入力を含む。例えば、ユーザの第1の手を使用して実行される第1のピンチジェスチャ(例えば、ピンチ入力、ロングピンチ入力、又はピンチ及びドラッグ入力)と、第1の手を使用してピンチ入力を実行することに関連して、他方の手(例えば、ユーザの両手の第2の手)を使用して第2のピンチ入力を実行する。いくつかの実施形態では、(例えば、ユーザの両手の間の距離又は相対的な配向を増加及び/又は減少させるための)ユーザの両手の間の移動。
【0088】
いくつかの実施形態では、エアジェスチャとして実行されるタップ入力(例えば、ユーザインタフェース要素に向けられる)は、ユーザインタフェース要素に向かうユーザの指の移動(単数又は複数)、任意選択的にユーザの指(単数又は複数)をユーザインタフェース要素に向かって伸ばした状態でのユーザの手のユーザインタフェース要素に向かう移動、ユーザの指の下方への動き(例えば、マウスクリック動作又はタッチスクリーン上のタップを模倣する)、又はユーザの手の他の既定の移動を含む。いくつかの実施形態では、エアジェスチャとして実行されるタップ入力は、ユーザの視点から離れて、及び/又は移動の終了が続くタップ入力のターゲットであるオブジェクトに向かって指又は手のタップジェスチャの移動を実行する指又は手の移動特性に基づいて検出される。いくつかの実施形態では、タップジェスチャ(例えば、ユーザの視点から離れる、及び/又はタップ入力の対象であるオブジェクトに向かう移動の終了、指又は手の移動方向の反転、及び/又は指又は手の移動の加速方向の反転)を実行する指又は手の移動特性の変化に基づいて、移動の終了が検出される。
【0089】
いくつかの実施形態では、ユーザの注意は、(任意選択で、他の条件を必要とせずに)三次元環境の一部に向けられた視線の検出に基づいて、三次元環境の一部に向けられていると判定される。いくつかの実施形態では、ユーザの注意が三次元環境の一部に向けられていることをデバイスが判定するために、ユーザの視点が三次元環境の一部から距離閾値内にある間に、少なくとも閾値持続時間(例えば、滞留時間)、視線が三次元環境の一部に向けられていることを必要とすること、及び/又は視線が三次元環境の一部に向けられていることを必要とすることなどの1つ以上の追加の条件を伴う三次元環境の一部に向けられた視線の検出に基づいて、ユーザの注意が三次元環境の一部に向けられていると判定され、追加の条件のうちの1つが満たされていない場合、デバイスは、三次元環境のうちの視線が向けられている部分に注意が向けられていないと判定する(例えば、1つ以上の追加の条件が満たされるまで)。
【0090】
いくつかの実施形態では、ユーザ又はユーザの一部の準備完了状態構成の検出は、コンピュータシステムによって検出される。手の準備完了状態構成の検出は、ユーザが、手によって実行される1つ以上のエアジェスチャ入力(例えば、ピンチ、タップ、ピンチ及びドラッグ、ダブルピンチ、ロングピンチ、又は本明細書に説明される他のエアジェスチャ)を使用して、コンピュータシステムと対話する準備をしている可能性が高いというインジケーションとして、コンピュータシステムによって使用される。例えば、手の準備完了状態は、手が所定の手形状(例えば、親指と1本以上の指が伸ばされて間隔を空けてピンチ若しくはグラブジェスチャを行う準備ができているプレピンチ形状、又は1本以上の指が伸ばされて手のひらがユーザから離れる方向を向いているプレタップ)を有するか否か、手がユーザの視点に対して所定のポジションにあるか否か(例えば、ユーザの頭部の下、ユーザの腰の上、身体から少なくとも15cm、20cm、25cm、30cm、又は50cmだけ伸ばされている)、及び/又は手が特定の方法で移動したか否か(例えば、ユーザの腰の上、ユーザの頭部の下のユーザの正面の領域に向かって移動したか、又はユーザの身体若しくは脚から離れたか)に基づいて決定される。いくつかの実施形態では、準備完了状態は、ユーザインタフェースの対話要素が注意(例えば、視線)入力に応じるかどうかを判定するために使用される。
【0091】
いくつかの実施形態では、ソフトウェアは、例えばネットワーク上で、コントローラ110に電子形態でダウンロードされてもよい、又はその代わりに、光学、磁気、若しくは電子メモリ媒体などの、実体的非一時的媒体に提供されてもよい。いくつかの実施形態では、データベース408は、同様に、コントローラ110に関連付けられたメモリに記憶される。代替的又は追加的に、コンピュータの記載された機能の一部又は全ては、カスタム又は半カスタム集積回路又はプログラム可能なデジタル信号プロセッサ(DSP)などの専用のハードウェアに実装されてもよい。コントローラ110は、例として、画像センサ404とは別個のユニットとして
図4に示されているが、コントローラの処理機能の一部又は全部は、好適なマイクロプロセッサ及びソフトウェアによって、又は画像センサ(例えば、ハンドトラッキングデバイス402)のハウジング内の専用回路によって、又は他の方法で画像センサ404に関連付けることができる。いくつかの実施形態では、これらの処理機能のうちの少なくともいくつかは、(例えば、テレビセット、ハンドヘルドデバイス、又はヘッドマウントデバイスにおいて)表示生成構成要素120と統合された好適なプロセッサによって、又はゲームコンソール又はメディアプレーヤなどの任意の他の適切なコンピュータ化されたデバイスを用いて実行されてもよい。画像センサ404の感知機能は、同様に、センサ出力によって制御されるコンピュータ又は他のコンピュータ化された装置に統合することができる。
【0092】
図4は、いくつかの実施形態による、画像センサ404によってキャプチャされた深度マップ410の概略図を更に含む。深度マップは、上述したように、それぞれの深度値を有するピクセルのマトリックスを含む。手406に対応するピクセル412は、このマップで背景及び手首からセグメント化されている。深度マップ410内の各ピクセルの輝度は、深度値、すなわち、画像センサ404からの測定されたz距離に反比例し、深度が上昇するにつれて階調が濃くなる。コントローラ110は、人間の手の特性を有する画像の構成要素(すなわち、隣接ピクセル群)を識別及びセグメント化するために、これらの深度値を処理する。これらの特性は、例えば、深度マップのシーケンスの全体サイズ、形状、フレームからフレームへの動きを含むことができる。
【0093】
図4はまた、いくつかの実施形態による、コントローラ110が手406の深度マップ410から最終的に抽出する手骨格414を概略的に示す。
図4では、骨格414は、元の深度マップからセグメント化された手の背景416に重畳される。いくつかの実施形態では、手(例えば、指関節、指先、手のひらの中心、手首に接続する手の終端など)、及び任意選択的に手に接続された手首又は腕上の主要な特徴点が、手骨格414上で識別され配置される。いくつかの実施形態では、複数の画像フレーム上にわたるこれらの主要な特徴点のロケーション及び移動がコントローラ110によって使用されて、いくつかの実施形態により、手によって実行される手ジェスチャ又は手の現在の状態を判定する。
【0094】
図5は、アイトラッキングデバイス130(
図1)の例示的な実施形態を示す。いくつかの実施形態では、アイトラッキングデバイス130は、シーン105に対する、又は表示生成構成要素120を介して表示されたXRコンテンツに対する、ユーザの視線のポジション及び移動を追跡するように、アイトラッキングユニット243(
図2)によって制御される。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成構成要素120と統合される。例えば、いくつかの実施形態では、表示生成構成要素120がヘッドセット、ヘルメット、ゴーグル、又は眼鏡などのヘッドマウントデバイス、又はウェアラブルフレームに配置されたハンドヘルドデバイスである場合、ヘッドマウントデバイスは、ユーザによる視聴のためのXRコンテンツを生成する構成要素及びXRコンテンツに対するユーザの視線を追跡するための構成要素の両方を含む。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成構成要素120とは別個である。例えば、表示生成構成要素がハンドヘルドデバイス又はXRチャンバである場合、アイトラッキングデバイス130は、任意選択的に、ハンドヘルドデバイス又はXRチャンバとは別個のデバイスである。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイス又はヘッドマウントデバイスの一部である。いくつかの実施形態では、ヘッドマウントアイトラッキングデバイス130は、任意選択的に、頭部に装着されている表示生成構成要素又は頭部に装着されていない表示生成構成要素とともに使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、ヘッドマウント表示生成構成要素と組み合わせて使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、非ヘッドマウント表示生成構成要素の一部である。
【0095】
いくつかの実施形態では、表示生成構成要素120は、ユーザの目の前に左及び右の画像を含むフレームを表示して、3D仮想ビューをユーザに提供するディスプレイ機構(例えば、左右の目近傍ディスプレイパネル)を使用する。例えば、ヘッドマウント表示生成構成要素は、ディスプレイとユーザの目との間に位置する左右の光学レンズ(本明細書では接眼レンズと称される)を含んでもよい。いくつかの実施形態では、表示生成構成要素は、表示のためにユーザの環境のビデオをキャプチャする1つ以上の外部ビデオカメラを含んでもよい、又はそれに結合されてもよい。いくつかの実施形態では、ヘッドマウント表示生成構成要素は、ユーザが物理的環境を直接視認し、透明又は半透明ディスプレイ上に仮想オブジェクトを表示することができる透明又は半透明のディスプレイを有してもよい。いくつかの実施形態では、表示生成構成要素は、仮想オブジェクトを物理的環境に投影する。仮想オブジェクトは、例えば、物理的表面上に、又はホログラフとして投影され、それによって、個人は、システムを使用して、物理的環境の上に重ね合わされた仮想オブジェクトを観察することができる。そのような場合、左右の目のための別個のディスプレイパネル及び画像フレームが必要とされない場合がある。
【0096】
図5に示すように、いくつかの実施形態では、アイトラッキングデバイス130(例えば、視線トラッキングデバイス)は、少なくとも1つのアイトラッキングカメラ(例えば、赤外線(IR)カメラ又は近IR(NIR)カメラ)、並びに光(例えば、IR光又はNIR光)をユーザの目に向けて発する照明源(例えば、LEDのアレイ若しくはリングなどのIR光源又はNIR光源)を含む。アイトラッキングカメラは、ユーザの目に向けられて、光源からの反射IR又はNIR光を目から直接受信してもよく、又は代替的に、ユーザの目と、視覚的光が通過することを可能にしながら目からアイトラッキングカメラにIR又はNIR光を反射させるディスプレイパネルとの間に配置される「ホット」ミラーに向けられてもよい。アイトラッキングデバイス130は、任意選択的に、ユーザの目の画像を(例えば、60~120フレーム/秒(fps)でキャプチャされるビデオストリームとして)キャプチャし、画像を解析して、視線追跡情報を生成し、視線追跡情報をコントローラ110に通信する。いくつかの実施形態では、ユーザの両目は、それぞれのアイトラッキングカメラ及び照明源によって別々に追跡される。いくつかの実施形態では、ユーザの片目のみが、個別のアイトラッキングカメラ及び照明源によって追跡される。
【0097】
いくつかの実施形態では、アイトラッキングデバイス130は、デバイス固有の較正プロセスを使用して較正されて、特定の動作環境100用のアイトラッキングデバイスのパラメータ、例えば、LED、カメラ、ホットミラー(存在する場合)、接眼レンズ、及びディスプレイスクリーンの3D幾何学的関係及びパラメータを判定する。デバイス固有の較正プロセスは、AR/VR機器のエンドユーザへの配送前に、工場又は別の施設で実行されてもよい。デバイス固有の較正プロセスは、自動較正プロセスであってもよく、又は手動較正プロセスであってもよい。ユーザ固有の較正プロセスは、特定のユーザの目パラメータ、例えば、瞳孔ロケーション、中心視覚ロケーション、光軸、視軸、目間隔などの推定を含んでもよい。いくつかの実施形態によれば、いったんアイトラッキングデバイス130についてデバイス固有及びユーザ固有のパラメータが判定されると、アイトラッキングカメラによってキャプチャされた画像は、グリント支援方法を使用して処理され、ディスプレイに対するユーザの現在の視覚軸及び視点を判定することができる。
【0098】
図5に示されるように、アイトラッキングデバイス130(例えば、130A又は130B)は、接眼レンズ(単数又は複数)520と、アイトラッキングが行われるユーザの顔の側に配置された少なくとも1つのアイトラッキングカメラ540(例えば、赤外線(IR)又は近IR(NIR)カメラ)と光(例えば、IR又はNIR光)をユーザの目(単数又は複数)592に向かって発する照明源530(例えば、NIR発光ダイオード(LED)のアレイ若しくはリングなどのIR又はNIR光源)とを含む視線トラッキングシステムと、を含む。アイトラッキングカメラ540は、ユーザの目(単数又は複数)592とディスプレイ510(例えば、ヘッドマウントディスプレイの左若しくは右側のディスプレイパネル、又はハンドヘルドデバイスのディスプレイ、プロジェクタなど)との間に位置し、(例えば、
図5の上部に示されるように)可視光を透過させながら、目(単数又は複数)592からのIR又はNIR光を反射するミラー550に向けられてもよく、あるいは、(例えば、
図5の下部に示されるように)反射された目(単数又は複数)592からのIR又はNIR光を受光するようにユーザの目(単数又は複数)592に向けられてもよい。
【0099】
いくつかの実施形態では、コントローラ110は、AR又はVRフレーム562(例えば、左及び右のディスプレイパネルの左及び右のフレーム)をレンダリングし、フレーム562をディスプレイ510に提供する。コントローラ110は、様々な目的のために、例えば、表示のためにフレーム562を処理する際に、アイトラッキングカメラ540からの視線トラッキング入力542を使用する。コントローラ110は、任意選択的に、グリント支援方法又は他の適切な方法を使用して、アイトラッキングカメラ540から得られた視線トラッキング入力542に基づいて、ディスプレイ510上のユーザの視点を推定する。視線トラッキング入力542から推定された視点は、任意選択的に、ユーザが現在見ている方向を判定するために使用される。
【0100】
以下、ユーザの現在の視線方向のいくつかの可能な使用事例について説明するが、これは限定することを意図するものではない。例示的な使用例として、コントローラ110は、判定されたユーザの視線方向に基づいて、仮想コンテンツを異なってレンダリングすることができる。例えば、コントローラ110は、周辺領域においてよりもユーザの現在の視線方向から判定された中心視覚領域において、より高い解像度で仮想コンテンツを生成してもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内の仮想コンテンツを位置決め又は移動させてもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内に特定の仮想コンテンツを表示してもよい。ARアプリケーションにおける別の例示的な使用事例として、コントローラ110は、XR体験の物理的環境をキャプチャして、判定された方向に焦点を合わせるように外部カメラを方向付けることができる。次いで、外部カメラの自動焦点機構は、ユーザが現在ディスプレイ510上で見ている環境内のオブジェクト又は表面に焦点を合わせることができる。別の例示的な使用事例として、接眼レンズ520は集束可能なレンズであってもよく、視線トラッキング情報がコントローラによって使用されて、ユーザが現在見ている仮想オブジェクトが、ユーザの目592の収束に一致するために適切な両目連動を有するように接眼レンズ520の焦点を調整する。コントローラ110は、視線トラッキング情報を活用して、ユーザが見ている近接オブジェクトが正しい距離で現れるように接眼レンズ520を方向付けて焦点を調整することができる。
【0101】
いくつかの実施形態では、アイトラッキングデバイスは、ウェアラブルハウジングに取り付けられた、ディスプレイ(例えば、ディスプレイ510)、2つの接眼レンズ(例えば、接眼レンズ(単数又は複数)520)、アイトラッキングカメラ(例えば、アイトラッキングカメラ(単数又は複数)540)、及び光源(例えば、光源530(例えば、IR LED又はNIR LED))を含むヘッドマウントデバイスの一部である。光源は、ユーザの目(単数又は複数)592に向かって光(例えば、IR光又はNIR光)を発する。いくつかの実施形態では、光源は、
図5に示されるように、各レンズの周りにリング又は円状に配置されてもよい。いくつかの実施形態では、8つの光源530(例えば、LED)が、一例として各レンズ520の周りに配置される。しかしながら、より多くの又はより少ない光源530が使用されてもよく、光源530の他の配置及びロケーションが用いられてもよい。
【0102】
いくつかの実施形態では、ディスプレイ510は、可視光範囲内の光を発し、IR又はNIR範囲内の光を発さないため、視線トラッキングシステムにノイズを導入しない。アイトラッキングカメラ(単数又は複数)540のロケーション及び角度は、例として与えられ、限定することを意図するものではないことに留意されたい。いくつかの実施形態では、単一のアイトラッキングカメラ540がユーザの顔の各側に位置する。いくつかの実施形態では、2つ以上のNIRカメラ540をユーザの顔の各側に使用することができる。いくつかの実施形態では、より広い視野(FOV)を有するカメラ540と狭いFOVを有するカメラ540が、ユーザの顔の各側に使用されてもよい。いくつかの実施形態では、1つの波長(例えば、850nm)で動作するカメラ540と異なる波長(例えば、940nm)で動作するカメラ540とが、ユーザの顔の各側に使用されてもよい。
【0103】
図5に示すような視線トラッキングシステムの実施形態は、例えば、コンピュータ生成現実、仮想現実、及び/又は複合現実アプリケーションに使用されて、コンピュータ生成現実、仮想現実、拡張現実、及び/又は拡張仮想の体験をユーザに提供することができる。
【0104】
図6Aは、いくつかの実施形態による、グリント支援視線トラッキングパイプラインを示す。いくつかの実施形態では、視線トラッキングパイプラインは、グリント支援視線トラッキングシステム(例えば、
図1及び
図5に示されるようなアイトラッキングデバイス130)によって実現される。グリント支援視線トラッキングシステムは、追跡状態を維持することができる。当初、追跡状態はオフ又は「いいえ」である。追跡状態にあるとき、グリント支援視線トラッキングシステムは、現在のフレームを解析する際に前のフレームからの先行情報を使用して、現在のフレーム内の瞳孔輪郭及びグリントを追跡する。追跡状態にない場合、グリント支援視線トラッキングシステムは、現在のフレーム内の瞳孔及びグリントを検出しようとし、それに成功した場合、追跡状態を「はい」に初期化し、追跡状態で次のフレームに続く。
【0105】
図6Aに示されるように、視線トラッキングカメラは、ユーザの左右の目の左右の画像をキャプチャし得る。次いで、キャプチャされた画像は、610で開始される処理のために視線トラッキングパイプラインに入力される。要素600に戻る矢印によって示されるように、視線トラッキングシステムは、例えば、毎秒60~120フレームの速度で、ユーザの目の画像をキャプチャし続けることができる。いくつかの実施形態では、キャプチャされた画像の各セットが、処理のためにパイプラインに入力されてもよい。しかしながら、いくつかの実施形態、又はいくつかの条件下では、全てのキャプチャされたフレームがパイプラインによって処理されるわけではない。
【0106】
610で、現在のキャプチャされた画像について、追跡状態がはいである場合、この方法は要素640に進む。610で、追跡状態がいいえである場合、620に示されるように、画像が解析されて、画像内のユーザの瞳孔及びグリントを検出する。630で、瞳孔とグリントが正常に検出される場合、方法は要素640に進む。正常に検出されない場合、方法は要素610に戻り、ユーザの目の次の画像を処理する。
【0107】
640において、要素610から進む場合、以前のフレームからの前の情報に部分的に基づいて瞳孔及びグリントを追跡するために、現在のフレームが分析される。640で、要素630から進む場合、現在のフレーム内の検出された瞳孔及びグリントに基づいて、追跡状態が初期化される。要素640での処理の結果は、追跡又は検出の結果が信頼できることを確認するためにチェックされる。例えば、結果は、瞳孔及び視線推定を実行するための十分な数のグリントが現在のフレームで正常に追跡又は検出されるかどうかを判定するためにチェックすることができる。650で、結果が信頼できない場合、追跡状態は要素660でいいえに設定され、方法は要素610に戻り、ユーザの目の次の画像を処理する。650で、結果が信頼できる場合、方法は要素670に進む。670で、追跡状態は、はいに設定され(まだはいではない場合)、瞳孔及びグリント情報が要素680に渡されて、ユーザの視点を推定する。
【0108】
図6Aは、特定の実装形態で使用され得るアイトラッキング技術の一例として機能することを意図している。当業者によって認識されるように、現在存在するか、又は将来開発される他のアイトラッキング技術は、様々な実施形態によるXR体験をユーザに提供するためにコンピュータシステム101において、本明細書に記載されるグリント支援アイトラッキング技術の代わりに、又はそれと組み合わせて使用することができる。
【0109】
いくつかの実施形態では、現実世界環境602のキャプチャされた部分は、XR体験、例えば、1つ以上の仮想オブジェクトが現実世界環境602の表現の上に重ね合わされる複合現実環境をユーザに提供するために使用される。
【0110】
図6Bは、いくつかの実施形態による、XR体験を提供するための電子デバイス101の例示的な環境を示す。
図6Bでは、現実世界環境602は、電子デバイス101、ユーザ608、及び現実世界オブジェクト(例えば、テーブル604)を含む。
図6Bに示されるように、電子デバイス101は、ユーザ608の1つ以上の手が自由である(例えば、ユーザ608が任意選択的に1つ以上の手でデバイス101を保持していない)ように、任意選択的に三脚に取り付けられるか、又は他の方法で現実世界環境602に固定される。上述したように、デバイス101は、任意選択的に、デバイス101の異なる側に配置されたセンサの1つ以上のグループを有する。例えば、デバイス101は、デバイス101の「後」側及び「前」側にそれぞれ位置する(例えば、デバイス101のそれぞれの面から情報をキャプチャすることができる)センサ群612-1及びセンサ群612-2を任意選択的に含む。本明細書で使用される場合、デバイス101の前側は、ユーザ608に面する側であり、デバイス101の後側は、ユーザ608から離れて面する側である。
【0111】
いくつかの実施形態では、センサ群612-2は、ユーザの目及び/又は視線を追跡するための1つ以上のセンサを含むアイトラッキングユニット(例えば、
図2を参照して上述したアイトラッキングユニット245)を含み、アイトラッキングユニットは、ユーザ608を「見て」、上述の方法でユーザ608の目(単数又は複数)を追跡することができる。いくつかの実施形態では、デバイス101のアイトラッキングユニットは、ユーザ608の目の移動、配向、及び/又は視線をキャプチャし、移動、配向、及び/又は視線を入力として処理することができる。
【0112】
いくつかの実施形態では、センサ群612-1は、
図6Bに示すように、デバイス101の「後」側に保持されたユーザ608の1つ以上の手を追跡することができるハンドトラッキングユニット(例えば、
図2を参照して上述したハンドトラッキングユニット243)を含む。いくつかの実施形態では、ハンドトラッキングユニットは、デバイス101が1つ以上の手のポジションを追跡する間に、ユーザ608がデバイス101の「前」側に1つ以上の手を追加的に又は代替的に保持することができるように、センサ群612-2に任意選択的に含まれる。上述したように、デバイス101のハンドトラッキングユニットは、ユーザ608の1つ以上の手の移動、ポジション、及び/又はジェスチャをキャプチャし、移動、ポジション、及び/又はジェスチャを入力として処理することができる。
【0113】
いくつかの実施形態において、センサ群612-1は、テーブル604を含む現実世界環境602の画像をキャプチャするように構成された1つ以上のセンサ(例えば、
図4を参照して上述した画像センサ404など)を任意選択的に含む。上述したように、デバイス101は、現実世界環境602の部分(例えば、一部又は全部)の画像をキャプチャし、デバイス101の1つ以上の表示生成構成要素(例えば、現実世界環境602のキャプチャされた部分に面するデバイス101の側とは反対の、ユーザに面するデバイス101の側に任意選択的に位置するデバイス101のディスプレイ)を介して、現実世界環境602のキャプチャされた部分をユーザに提示することができる。
【0114】
いくつかの実施形態では、現実世界環境602のキャプチャされた部分は、XR体験、例えば、1つ以上の仮想オブジェクトが現実世界環境602の表現の上に重ね合わされる複合現実環境をユーザに提供するために使用される。
【0115】
したがって、本明細書の説明は、現実世界オブジェクトの表現及び仮想オブジェクトの表現を含む三次元環境(例えば、XR環境)のいくつかの実施形態を説明する。例えば、三次元環境は、任意選択的に、(例えば、コンピュータシステムのカメラ及びディスプレイを介して能動的に、又はコンピュータシステムの透明若しくは半透明のディスプレイを介して受動的に)三次元環境内でキャプチャされ、表示される、物理的環境内に存在するテーブルの表現を含む。前述のように、三次元環境は、任意選択的に、三次元環境がデバイスの1つ以上のセンサによってキャプチャされ、表示生成構成要素を介して表示される物理的環境に基づく複合現実システムである。複合現実システムとして、コンピュータシステムは、物理的環境のそれぞれの部分及び/又はオブジェクトが、電子デバイスによって表示される三次元環境内に存在するかのように見えるように、物理的環境の部分及び/又はオブジェクトを任意選択的に選択的に表示することができる。同様に、コンピュータシステムは、任意選択的に、現実世界内に対応するロケーションを有する三次元環境内のそれぞれのロケーションに仮想オブジェクトを配置することによって、仮想オブジェクトが現実世界(例えば、物理的環境)内に存在するかのように見えるように、三次元環境内に仮想オブジェクトを表示することができる。例えば、コンピュータシステムは、任意選択的に、現実の花瓶が物理的環境内のテーブルの上に置かれているかのように見えるように、花瓶を表示する。いくつかの実施形態では、三次元環境内の各ロケーションは、物理的環境内で、対応するロケーションを有する。したがって、コンピュータシステムが、仮想オブジェクトを物理的オブジェクトに対して個別のロケーション(例えば、ユーザの手又はその近傍、あるいは物理的テーブル又はその近傍のロケーションなど)に表示するものとして説明されるとき、コンピュータシステムは、仮想オブジェクトが物理的世界内の物理的オブジェクト又はその近傍にあるかのように見えるように、仮想オブジェクトを三次元環境内の特定のロケーションに表示する(例えば、仮想オブジェクトは、仮想オブジェクトがその特定のロケーションにおける実オブジェクトである場合に表示されるであろう物理的環境内のロケーションに対応する、三次元環境内のロケーションに表示される)。
【0116】
いくつかの実施形態では、三次元環境内に表示される物理的環境内に存在する現実世界オブジェクト(例えば、及び/又は表示生成構成要素を介して見ることができる現実世界オブジェクト)は、三次元環境内にのみ存在する仮想オブジェクトと相互作用することができる。例えば、三次元環境は、テーブルと、テーブルの上に配置された花瓶と、を含むことができ、テーブルは、物理的環境内の物理的テーブルのビュー(又は表現)であり、花瓶は、仮想オブジェクトである。
【0117】
同様に、仮想オブジェクトが、物理的環境内の現実のオブジェクトであるかのように、ユーザは、任意選択的に、1つ以上の手を使用して三次元環境内の仮想オブジェクトと相互作用することができる。例えば、上述のように、コンピュータシステムの1つ以上のセンサは、任意選択的に、ユーザの手のうちの1つ以上をキャプチャし、三次元環境内のユーザの手の表現を(例えば、上述の三次元環境内の現実世界オブジェクトを表示するのと同様の方法で)表示する、あるいは、いくつかの実施形態では、ユーザインタフェース、又は透明/半透明表面へのユーザインタフェースの投影、又はユーザの目若しくはユーザの目の視野へのユーザインタフェースの投影を表示している表示生成構成要素の一部の透明性/半透明性に起因して、ユーザの手は、ユーザインタフェースを通して物理的環境を見る能力によって、表示生成構成要素を介して見ることができる。したがって、いくつかの実施形態では、ユーザの手は、三次元環境内の個別のロケーションに表示され、それらが、物理的環境内の実際の物理的オブジェクトであるかのように、三次元環境内の仮想オブジェクトと相互作用できる三次元環境内のオブジェクトであるかのように、処理される。いくつかの実施形態では、コンピュータシステムは、物理的環境におけるユーザの手の移動と併せて、三次元環境におけるユーザの手の表現の表示を更新することができる。
【0118】
以下に説明される実施形態のうちのいくつかでは、例えば、物理的オブジェクトが、仮想オブジェクトと直接相互作用しているか否か(例えば、手が、仮想オブジェクトを、触れているか、掴んでいるか、保持しているかなど、又は仮想オブジェクトからの閾値距離内にあるか否か)を判定する目的で、コンピュータシステムは、任意選択的に、物理的世界内の物理的オブジェクトと三次元環境内の仮想オブジェクトとの間の「有効」距離を判定することができる。例えば、仮想オブジェクトと直接相互作用する手は、任意選択的に、仮想ボタンを押す手の指、仮想花瓶を掴むユーザの手、一緒になってアプリケーションのユーザインタフェースをピンチする/保持するユーザの手の2本の指、及び本明細書で説明される他のタイプの相互作用のいずれかのうちの1つ以上を含む。例えば、ユーザが仮想オブジェクトと相互作用しているか否か、及び/又はユーザが仮想オブジェクトとどのように相互作用しているかを判定するときに、コンピュータシステムは、任意選択的にユーザの手と仮想オブジェクトとの間の距離を判定する。いくつかの実施形態では、コンピュータシステムは、三次元環境内の手のロケーションと、三次元環境内の対象の仮想オブジェクトのロケーションとの間の距離を判定することによって、ユーザの手と仮想オブジェクトとの間の距離を判定する。例えば、ユーザの1つ以上の手は、物理的世界内の特定のポジションに位置し、これは、コンピュータシステムが、任意選択的に、三次元環境内の特定の対応するポジション(例えば、手が物理的な手ではなく仮想的な手である場合に、手が表示された三次元環境内のポジション)において、キャプチャして表示する。三次元環境内の手のポジションは、任意選択的に、ユーザの1つ以上の手と仮想オブジェクトとの間の距離を判定するために、三次元環境内の対象の仮想オブジェクトのポジションと比較される。いくつかの実施形態では、コンピュータシステムは、任意選択的に、(例えば、三次元環境内のポジションを比較することとは対照的に)物理的世界内のポジションを比較することによって、物理的オブジェクトと仮想オブジェクトとの間の距離を判定する。例えば、ユーザの1つ以上の手と仮想オブジェクトとの間の距離を判定するとき、コンピュータシステムは、任意選択的に、仮想オブジェクトの物理的世界内の対応するロケーション(例えば、仮想オブジェクトではなく物理的オブジェクトであるかのように、仮想オブジェクトが、物理的世界内に位置するポジション)を判定し、次いで、対応する物理的ポジションとユーザの1つ以上の手との間の距離を判定する。いくつかの実施形態では、任意の物理的オブジェクトと任意の仮想オブジェクトとの間の距離を判定するために、同じ技法が、任意選択的に使用される。したがって、本明細書に説明されるように、物理的オブジェクトが仮想オブジェクトと接触しているか否か、又は物理的オブジェクトが仮想オブジェクトの閾値距離内にあるか否か、を判定するとき、コンピュータシステムは、任意選択的に、物理的オブジェクトのロケーションを三次元環境にマッピングするために、及び/又は仮想オブジェクトのロケーションを物理的環境にマッピングするために、上述の技術のいずれかを実行する。
【0119】
いくつかの実施形態では、同じ又は同様の技術を使用して、ユーザの視線が、どこに向けられ、何に向けられているか、及び/又はユーザによって保持された物理的スタイラスが、どこに向けられ、何に向けられているか、を判定する。例えば、ユーザの視線が物理的環境内の特定のポジションに向けられている場合、コンピュータシステムは、任意選択的に、三次元環境内の対応するポジション(例えば、視線の仮想ポジション)を判定し、仮想オブジェクトがその対応する仮想ポジションに位置する場合、コンピュータシステムは、任意選択的に、ユーザの視線が、その仮想オブジェクトに向けられていると判定する。同様に、コンピュータシステムは、任意選択的に、物理的スタイラスの向きに基づいて、スタイラスが物理的環境のどこを指しているかを判定することができる。いくつかの実施形態では、この判定に基づいて、コンピュータシステムは、スタイラスが指している物理的環境内のロケーションに対応する三次元環境内の対応する仮想ポジションを判定し、任意選択的に、スタイラスが三次元環境内の対応する仮想ポジションを指していると判定する。
【0120】
同様に、本明細書で説明される実施形態は、ユーザ(例えば、コンピュータシステムのユーザ)のロケーション、及び/又は三次元環境内のコンピュータシステムのロケーションを指してもよい。いくつかの実施形態では、コンピュータシステムのユーザは、コンピュータシステムを保持している、装着している、又は他の方法でコンピュータシステムに位置している、若しくはその付近にある。したがって、いくつかの実施形態では、コンピュータシステムのロケーションは、ユーザのロケーションのプロキシとして使用される。いくつかの実施形態では、物理的環境内のコンピュータシステム及び/又はユーザのロケーションは、三次元環境内の個別のロケーションに対応する。例えば、ユーザが、表示生成構成要素によって表示される物理的環境の個別の部分に面するロケーションに立った場合、コンピュータシステムのロケーションは、ユーザが、物理的環境内のオブジェクトを、オブジェクトが三次元環境内のコンピュータシステムの表示生成構成要素によって表示されたのと同じポジション、向き、及び/又はサイズで(例えば、絶対的に及び/又は互いに対して)見ることになる、物理的環境内のロケーション(及び三次元環境内のその対応するロケーション)である。同様に、三次元環境内に表示された仮想オブジェクトが、物理的環境内の物理的オブジェクトであった(例えば、仮想オブジェクトが、三次元環境内と同じ物理的環境内のロケーションに配置され、三次元環境内と同じ物理的環境内のサイズ及び向きを有する)場合、コンピュータシステム及び/又はユーザのロケーションは、ユーザが、物理的環境内の仮想オブジェクトを、三次元環境内のコンピュータシステムの表示生成構成要素によって表示されたのと同じポジション、向き、及び/又はサイズで(例えば、絶対的に、及び/又は互いに対して、並びに現実世界オブジェクトにおいて)見ることになるポジションである。
【0121】
本開示では、コンピュータシステムとの相互作用に関して、様々な入力方法が説明される。一例が1つの入力デバイス又は入力方法を使用して提供され、別の例が別の入力デバイス又は入力方法を使用して提供される場合、各例は、別の例に関して記載された入力デバイス又は入力方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。同様に、様々な出力方法が、コンピュータシステムとの相互作用に関して説明される。一例が1つの出力デバイス又は出力方法を使用して提供され、別の例が別の出力デバイス又は出力方法を使用して提供される場合、各例は、別の例に関して記載された出力デバイス又は出力方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。同様に、様々な方法が、コンピュータシステムを介した仮想環境又は複合現実環境との相互作用に関して説明される。一例が仮想環境との相互作用を使用して提供され、別の例が複合現実環境を使用して提供される場合、各例は、別の例に関して説明された方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。したがって、本開示は、各例示的な実施形態の説明における実施形態の全ての特徴を網羅的に列挙することなく、複数の例の特徴の組み合わせである実施形態を開示する。
【0122】
ユーザインタフェース及び関連するプロセス
ここで、ユーザインタフェース(「UI」)の実施形態、及び、表示生成構成要素、1つ以上の入力デバイス、及び(任意選択的に)1つ又は複数のカメラを備えた、ポータブル多機能デバイス又はヘッドマウントデバイスなどのコンピュータシステムにおいて実行され得る関連プロセスに注目する。
【0123】
図7A~
図7Eは、いくつかの実施形態による、電子デバイスがコンテンツアイテムを提示している間に仮想照明効果を生成する方法の例を示す。
【0124】
図7Aは、表示生成構成要素120を介して、三次元環境702を表示する電子デバイス101を示す。いくつかの実施形態では、電子デバイス101は、本開示の範囲から逸脱することなく、二次元環境において
図7A~
図7Eを参照して説明される1つ以上の技術を利用することを理解されたい。
図1~
図6を参照して上述したように、電子デバイス101は、任意選択的に、表示生成構成要素120(例えば、タッチスクリーン)及び複数の画像センサ314を含む。画像センサは、任意選択的に、可視光カメラ、赤外線カメラ、深度センサ、又は任意の他のセンサのうちの1つ以上を含み、電子デバイス101は、ユーザが電子デバイス101と相互作用している間、ユーザ又はユーザの一部の1つ以上の画像をキャプチャするために使用することができる。いくつかの実施形態では、表示生成構成要素120は、ユーザの手のジェスチャ及び移動を検出することができるタッチスクリーンである。いくつかの実施形態では、以下に示すユーザインタフェースは、ユーザにユーザインタフェースを表示する表示生成構成要素と、物理的環境及び/又はユーザの手の移動(例えば、ユーザから外向きに面する外部センサ)、及び/又はユーザの視線(例えば、ユーザの顔に向かって内向きに面する内部センサ)を検出するセンサとを含むヘッドマウントディスプレイに実装することもできる。
【0125】
図7Aにおいて、電子デバイス101は、三次元環境702においてコンテンツアイテム704を表示する。三次元環境702は、テーブルの表現706a、ソファの表現706b、壁の表現708a、及び天井の表現708bを含む、電子デバイス101の物理的環境内の実オブジェクトの表現を更に含む。電子デバイス101は、1つ以上のセンサ314を介して、任意選択的に電子デバイス101上で現在再生されているビデオコンテンツであるコンテンツアイテム704に向けられたユーザの視線713aを検出する。いくつかの実施形態では、コンテンツアイテム704が再生されている間にユーザの視線713aがコンテンツアイテム704に向けられるため、電子デバイス101は、1つ以上の又は複数の仮想照明効果を用いて三次元環境702を表示する。
【0126】
いくつかの実施形態では、電子デバイス101によって生成される仮想照明効果は、コンテンツアイテム704を含まない三次元環境702の部分をぼかす及び/又は暗化すること、並びにコンテンツアイテム704から発する仮想光スピルを表示することなどによって、コンテンツアイテムを視覚的に強調することを含む。仮想光スピルは、壁の表現708a上に表示される仮想照明710aと、天井の表現708b上に表示される仮想照明710bと、テーブルの表現706a上に表示される仮想照明710cと、ソファの表現706b上に表示される仮想照明710dと、を含む。いくつかの実施形態では、仮想照明710a~dは、コンテンツアイテム704のビデオコンテンツに基づく。例えば、仮想照明710a~dの色、強度などは、仮想照明710a~dがコンテンツアイテム704のビデオコンテンツの反射であること、及び/又は仮想照明710a~dが三次元環境702内の様々な表面上のコンテンツアイテム704から放射していることをシミュレートするために、コンテンツアイテム704のビデオコンテンツの色、強度などに任意選択的に基づく。いくつかの実施形態では、仮想照明710a、710b、710c、及び710dのサイジングは、仮想照明効果の個別の表面からコンテンツアイテム704までの距離に基づき、仮想照明710a、710b、710c、及び710dのポジションは、三次元環境702内のコンテンツアイテム704のポジションに基づく。
【0127】
図7Aにおいて、ユーザの手703aは、
図7B~
図7Eを参照して以下でより詳細に説明されるように、コンテンツアイテム704の再生を制御するための1つ以上の選択可能オプションを電子デバイス101に表示させないポーズにある。したがって、電子デバイス101は、
図7Aのコンテンツアイテム704の再生を制御するための選択可能オプションの表示を取り止める。
【0128】
図7Bは、コンテンツアイテム704の再生を制御するための複数の選択可能オプション712a~Lの表示と、三次元環境702においてコンテンツアイテム704をサイズ変更する要求に対応するユーザ入力とを示す。いくつかの実施形態では、電子デバイス101は、ユーザの視線713aがコンテンツアイテム704に向けられている間に準備完了状態ポーズにあるユーザの手703bを検出したことに応じて、選択可能オプション712a~Lを表示する。いくつかの実施形態では、準備完了状態ポーズにある手703bを検出することは、親指が手703bの別の指の閾値距離(例えば、0.1、0.2、0.3、0.5、1、2、3、又は5センチメートル)内にあるが手703bの別の指に触れていないプレピンチ手形状にある手703bを検出すること、又は1つ以上の指が伸ばされ、1つ以上の指が手のひらに向かって丸まっているポインティング手形状にある手703bを検出することを含む。
【0129】
図7Bにおいて、コンテンツアイテム704の再生を制御するための複数の選択可能オプション712c~Lは、コンテンツアイテム704とは別個のユーザインタフェース要素711に表示される。いくつかの実施形態では、ユーザインタフェース要素711は、方法1400を参照して以下でより詳細に説明されるように、コンテンツアイテム704がユーザの視点に対して表示される角度とは異なる角度で、ユーザの視点に向かって角度付けられている。例えば、ユーザインタフェース要素711は、三次元環境702においてコンテンツアイテム704よりも低い高さで表示されるため、電子デバイス101は、コンテンツアイテム704の角度に対してユーザインタフェース要素711を上に向ける。
図7Bに示すように、ユーザインタフェース要素711の一部は、コンテンツアイテム704上に視覚的又は空間的にオーバーレイされ、ユーザインタフェース要素711は、任意選択的に、コンテンツアイテム704よりも三次元環境702内のユーザの視点の近くに表示される。
【0130】
次に、ユーザインタフェース要素711に含まれる選択可能オプション712c~Lについて説明する。オプション712cは、選択されると、電子デバイス101に、方法1400の1つ以上のステップに従って没入コンテンツモードでコンテンツアイテム704を表示させる。オプション712dは、選択されると、方法1000の1つ以上のステップに従って、電子デバイス101にコンテンツアイテム704をピクチャインピクチャ要素で表示させる。オプション712eは、選択されると、電子デバイス101に、電子デバイス101が次に再生するように構成された1つ以上のコンテンツアイテムを含むコンテンツ再生キューを(例えば、コンテンツアイテム704とは別個のユーザインタフェース要素において、かつ/又はコンテンツアイテム704の代わりに)提示させる。オプション712fは、選択されると、電子デバイス101に、コンテンツアイテム704の再生ポジションを所定の量(例えば、5、10、15、30、又は60秒)だけ戻すように調整させる。オプション712gは、選択されると、電子デバイス101にコンテンツアイテム704の再生を一時停止させる。いくつかの実施形態では、コンテンツアイテム704が一時停止されている間に、電子デバイス101は、三次元環境の残りの部分に対してより大きな視覚的強調を伴ってコンテンツアイテム704を表示することを中止する。いくつかの実施形態では、コンテンツアイテム704が一時停止されている間に、電子デバイス101は、コンテンツアイテム704以外の三次元環境702をぼかす及び/又は調光することを含む仮想照明効果の表示、及び/又はコンテンツアイテム704から発する仮想光スピルの表示を中止する。オプション712hは、選択されると、電子デバイス101に、コンテンツアイテム704の再生ポジションを所定の量(例えば、5、10、15、30、又は60秒)だけ前に調整させる。オプション712iは、選択されると、電子デバイス101に、コンテンツアイテム704に関連付けられた字幕オプションを提示させる。オプション712jは、選択されると、電子デバイス101に、
図7C~
図7Eを参照して以下でより詳細に説明されるように、ぼかし効果及び/又は調光効果及び/又は光スピル効果などの仮想照明効果を調整させる。オプション712kは、選択されると、電子デバイス101に、コンテンツアイテム704に含まれるオーディオコンテンツの再生ボリュームを調整させる。ユーザインタフェース要素711は、コンテンツアイテム704の現在の再生ポジションのインジケーションを含むスクラブバー712Lを更に含み、現在の再生ポジションのインジケーションを移動させる入力に応じて、電子デバイス101に、コンテンツアイテム704の再生ポジションを調整させ、調整された再生ポジションからコンテンツアイテム704の再生を再開させる。
【0131】
ユーザインタフェース要素711に表示される選択可能オプション712c~712Lに加えて、電子デバイス101は、選択されると、電子デバイス101にコンテンツアイテム704(並びに、任意選択的に、ユーザインタフェース要素711並びにオプション712a及び712b)の表示を中止させる選択可能オプション712aと、電子デバイス101がそれに向けられた入力を検出すると、電子デバイス101に三次元環境702内のコンテンツアイテム704をサイズ変更させる選択可能オプション712bとを更に表示する。コンテンツアイテム704を閉じるための選択可能オプション712aは、ユーザインタフェース要素711の外側のコンテンツアイテム704上にオーバーレイして表示される。コンテンツアイテム704をサイズ変更するための選択可能オプション712bは、コンテンツアイテム704及びユーザインタフェース要素711の外側に表示される。
【0132】
図7Bに示すように、電子デバイス101は、手703a及び視線713bによって提供された、コンテンツアイテム704をサイズ変更するための選択可能オプション712bに向けられた入力を受信する。いくつかの実施形態では、入力を検出することは、ユーザが、手703aの親指が手の別の指に触れるピンチ手形状、又は視線713bがオプション712bに向けられている間に、手703aの1つ以上の指が伸ばされ、手703aの1つ以上の指が手703aの手のひらに向かって曲げられるポインティング手形状などの所定の手形状を含む、手703aで選択ポーズを実行することを検出することを含む。いくつかの実施形態では、所定の手形状を維持しながら、ユーザは自分の手を動かし、移動を検出したことに応じて、電子デバイス101は、手703aの移動(例えば、速度、持続時間、距離、方向など)に従ってコンテンツアイテム704をサイズ変更する。
図7Cを参照して以下でより詳細に説明するように、電子デバイス101は、手703a及び視線713bによって提供される入力に従ってコンテンツアイテム704をサイズ変更するときに、要素711をサイズ変更しない。
【0133】
図7Cは、ユーザインタフェース要素711のサイズを変更することなく、
図7Bに示す入力に応じて、電子デバイス101がどのようにコンテンツアイテム704をサイズ変更するかを示す。
図7Bに示す入力に応じて、電子デバイス101は、ユーザインタフェース要素711のサイズを維持しながら、
図7Bでコンテンツアイテム704が表示されたサイズよりも小さいサイズで、
図7Cのコンテンツアイテム704を表示する。電子デバイス101はまた、コンテンツアイテム704の更新されたサイズに従って、仮想照明710a~710cの1つ以上の特性(例えば、サイズ)を、例えば、コンテンツアイテム704の縮小されたサイズに対応するように、三次元環境702内の仮想照明710a~710cのサイズを縮小することによって更新する。
図7Cにおいて、電子デバイス101は、任意選択的に、上述のように準備完了状態にある手703bを検出したことに応じて、ユーザインタフェース要素711及び他の選択可能オプションを表示し続ける。
【0134】
図7Cはまた、ユーザの視線713dがオプション712jに向けられていることに応じて、仮想照明効果オプション712jの機能を示すユーザインタフェース要素714を表示する電子デバイス101を示す。いくつかの実施形態では、電子デバイス101は、照明効果オプション712jが三次元環境702においてコンテンツアイテムを表示することに特に関連するため、照明効果オプション712jに関連付けられたユーザインタフェース要素714を表示する。
図7Cに示すように、ユーザの視線713cが、代わりに、コンテンツアイテムの再生ポジションを所定量だけ戻すように調整するためにオプション712fに向けられた場合、オプション712fは、他の環境又はユーザインタフェースでコンテンツアイテムを提示するよりも三次元環境でコンテンツアイテムを提示することに特に関連しないため、電子デバイス101は、オプション712fに関連付けられたユーザインタフェース要素の表示を任意選択的に取り止める。いくつかの実施形態では、ユーザインタフェース要素711内の第1の複数の対話型要素は、インジケーション714と同様の視覚的インジケーションに関連付けられ、ユーザインタフェース要素711内の第2の複数の対話型要素は、インジケーション714と同様の視覚的インジケーションに関連付けられない。
【0135】
図7Cにおいて、電子デバイス101は、コンテンツアイテム704に向けられた手703a及び視線713aによって提供される入力を検出する。いくつかの実施形態では、入力は、三次元環境702内のコンテンツアイテムのポジションを更新する要求に対応する。いくつかの実施形態では、電子デバイス101は、選択されると、電子デバイス101に、三次元環境702内でコンテンツアイテム704を再配置するプロセスを開始させる、コンテンツアイテム自体以外のユーザインタフェース要素を表示する。いくつかの実施形態では、再配置ユーザインタフェース要素は、サイズ変更ユーザインタフェース要素714と同様に、コンテンツアイテム704の外側及びユーザインタフェース要素711の外側に表示される。いくつかの実施形態では、再配置ユーザインタフェース要素は、ユーザインタフェース要素711の下部に沿って整列された水平バー又は線である。いくつかの実施形態では、再配置ユーザインタフェース要素は、ユーザインタフェース要素711に含まれるか、又はユーザインタフェース要素711に含まれることなくコンテンツアイテム704上にオーバーレイされる。
【0136】
いくつかの実施形態では、三次元環境702内でコンテンツアイテム704を再配置する要求に対応する入力を検出することは、ユーザが、コンテンツアイテム704に向けられた視線713aを検出しながら、上述したピンチ手形状又はポインティング手形状などの既定の手形状を手703aで作ったことを検出することを含む。いくつかの実施形態では、ユーザが既定の手形状を作っている間に、電子デバイス101は、手703aの移動を検出し、それに応じて、
図7Dに示すように、手703aの移動(例えば、距離、持続時間、速度、方向など)に従ってコンテンツアイテム704及びユーザインタフェース要素711を移動させる。
【0137】
図7Dは、
図7Cに示す入力に従って、三次元環境702内の更新されたロケーションにコンテンツアイテム704及びユーザインタフェース要素711を表示する電子デバイス101を示す。
図7Cに示す入力に従って、電子デバイス101は、
図7Dのコンテンツアイテム704及びユーザインタフェース要素711を、
図7Cのコンテンツアイテム704及びユーザインタフェース要素711のロケーションよりも、三次元環境702が表示されるユーザの視点に近い三次元環境702内のロケーションに表示する。
図7Dにおいてユーザの視点のより近くにコンテンツアイテム704を表示することに従って、電子デバイス101は、
図7Cよりも
図7Dにおいてより大きい角度サイズでコンテンツアイテム704を表示する(例えば、ユーザ及び/又は表示生成構成要素120の視野内でより多くの空間を占有する)が、いくつかの実施形態では、三次元環境702内のコンテンツアイテム704のサイズは、
図7C及び
図7Dにおいて同じである(例えば、三次元環境702内のコンテンツアイテム704のサイズは、
図7Cから
図7Dまで変化しない)。
図7C~
図7Dに示すように、電子デバイス101は、ユーザインタフェース要素711が
図7Cよりも
図7Dにおいてユーザの視点により近い場合であっても、ユーザインタフェース要素711の角度サイズを更新しない。いくつかの実施形態では、ユーザインタフェース要素711の角度サイズの更新を取り止めることは、三次元環境702内のユーザインタフェース要素711のサイズを更新することを含む。例えば、ユーザインタフェース要素711は、
図7Cよりも
図7Dにおいてユーザの視点に近いが、
図7C及び
図7Dでは同じ角度サイズで表示されているため、電子デバイス101は、
図7Cの環境702におけるユーザインタフェース要素711のサイズと比較して、
図7Dの環境702におけるユーザインタフェース要素711のサイズを減少させている。
図7Dに示すように、コンテンツアイテム704の移動に従って、電子デバイス101は、三次元環境702の他の部分上の仮想照明710a、710b、及び710dのポジションを更新する。
【0138】
図7Dにおいて、電子デバイス101は、視線713e及び手703aによって提供される照明効果オプション712jに向けられた入力を検出する。いくつかの実施形態では、入力を検出することは、オプション712jに向けられた視線713eを検出しながら、手703aが上述のピンチ手形状又は上述のポインティング手形状を形成することを検出することを含む。いくつかの実施形態では、所定の時間閾値(例えば、0.1、0.2、0.3、0.5、1、又は2秒)未満のピンチ手形状又はポインティング手形状を検出したことに応じて、電子デバイス101は、照明効果(例えば、ぼかし及び/若しくは暗化する照明効果、並びに/又は光スピル照明効果)をオン又はオフに切り替える。いくつかの実施形態では、時間閾値を超えるピンチ手形状又はポインティング手形状を検出したことに応じて、電子デバイス101は、相互作用されたときに、ユーザが照明効果の(例えば、強度の)レベルを調整することを可能にするスライダ要素716を提示する。いくつかの実施形態では、ぼかし及び/又は調光照明効果と光スピル照明効果の両方が、照明効果オプション712j及び/又はスライダ716に向けられた入力に従って更新される。いくつかの実施形態では、三次元環境702は、各照明効果を調整するための別個の要素を含む。
図7Dに示すように、電子デバイス101は、スライダ716に向けられたユーザの視線713eを検出するとともに、手703aがピンチする又はポインティング手形状を作る間の手703aの移動を検出する。
図7Eに示す入力に応じて、電子デバイス101は、
図7Eに示すように、ぼかし及び/又は暗化する照明効果並びに光スピル照明効果の強度を低減する。
【0139】
図7Eは、三次元環境702の残りの部分に対してコンテンツアイテム704の視覚的強調が低減された、例えば、ぼかし及び/又は暗化する照明効果及び光スピル効果の強度が低減された三次元環境702を示す。例えば、
図7Eでは、コンテンツアイテム704以外の三次元環境702の領域に適用される暗化する及び/又はぼかしの量が低減され、仮想照明710a、710b、及び710dのサイズ及び/又は強度が低減される。いくつかの実施形態では、電子デバイス101は、
図7Dに示す入力に応じて仮想照明効果の強度を低減する。いくつかの実施形態では、電子デバイス101は、コンテンツアイテム704から離れるように向けられたユーザの視線713fを検出したことに応じて、仮想照明効果の強度を低減する(又はその表示を中止する)。いくつかの実施形態では、電子デバイスは、コンテンツアイテムが一時停止されたことを検出したことに応じて、仮想照明効果の強度を低減する(又は仮想照明効果の表示を中止する)。また、
図7Eは、レディ状態にあるユーザの手をもはや検出しないことに応じて、選択可能オプション712a~712L及びユーザインタフェース要素711の表示を中止する電子デバイス101を示す。
【0140】
図7A~
図7Eに示される実施形態に関する付加的又は代替的詳細は、
図8A~
図8Oを参照して説明される方法800の説明において以下に提供される。
【0141】
図8A~
図8Oは、いくつかの実施形態による、コンテンツアイテムを提示している間に仮想照明効果を生成する方法を示すフローチャートである。いくつかの実施形態では、方法800は、表示生成構成要素(例えば、
図1、3、及び4の表示生成構成要素120)(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)と、1つ以上のカメラ(例えば、ユーザの手の下方を指すカメラ(例えば、色センサ、赤外線センサ、及び他の深度感知カメラ)又はユーザの頭部から前方を指すカメラ)とを含む、コンピュータシステム(例えば、
図1のコンピュータシステム101)において行われる。いくつかの実施形態では、方法800は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、
図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって統御される。方法800のいくつかの動作は、任意選択的に、組み合わされ、かつ/又はいくつかの動作の順序は、任意選択的に、変更される。
【0142】
図7Aなどのいくつかの実施形態では、方法800は、表示生成構成要素(例えば、120)及び1つ以上の入力デバイス(例えば、314)(例えば、モバイルデバイス(例えば、タブレット、スマートフォン、メディアプレーヤ、若しくはウェアラブルデバイス)、又はコンピュータ)と通信する電子デバイス(例えば、101)において実行される。いくつかの実施形態では、表示生成構成要素は、電子デバイス(任意選択的にタッチスクリーンディスプレイ)と一体化されたディスプレイ、モニタ、プロジェクタ、テレビなどの外部ディスプレイ、又はユーザインタフェースを投影し1人以上のユーザにユーザインタフェースが可視であるようにするためのハードウェア構成要素(任意選択的に組み込み若しくは外部)などである。いくつかの実施形態では、1つ以上の入力デバイスは、ユーザ入力(例えば、ユーザ入力をキャプチャし、ユーザ入力を検出する等)を受信し、ユーザ入力に関連する情報を電子デバイスに送信することができる電子デバイス又は構成要素を含む。入力デバイスの例は、タッチスクリーン、マウス(例えば、外部)、トラックパッド(任意選択で統合又は外部)、タッチパッド(任意選択で統合又は外部)、リモートコントロールデバイス(例えば、外部)、別のモバイルデバイス(例えば、電子デバイスとは別個)、ハンドヘルドデバイス(例えば、外部)、コントローラ(例えば、外部)、カメラ、深度センサ、アイトラッキングデバイス、及び/又はモーションセンサ(例えば、ハンドトラッキングデバイス、ハンドモーションセンサ)などを含む。いくつかの実施形態では、電子デバイスは、ハンドトラッキングデバイス(例えば、1つ以上のカメラ、深度センサ、近接センサ、タッチセンサ(例えば、タッチスクリーン、トラックパッド)と通信する。いくつかの実施形態では、ハンドトラッキングデバイスは、スマートグローブなどのウェアラブルデバイスである。いくつかの実施形態では、ハンドトラッキングデバイスは、リモートコントロール又はスタイラスなどのハンドヘルド入力デバイスである。
【0143】
図7Bなどのいくつかの実施形態では、三次元環境(例えば、702)内にコンテンツアイテム(例えば、704)を提示している間に、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、コンテンツアイテムに関連付けられたユーザインタフェース(例えば、711)を表示し(802a)、ユーザインタフェース(例えば、711)は、コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素(例えば、712f)と、三次元環境(例えば、702)の外観に影響を及ぼす仮想照明効果を修正するための個別のユーザインタフェース要素(例えば、712j)とを含む。いくつかの実施形態では、コンテンツアイテムはビデオコンテンツであり、コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素は、再生/一時停止、スキップアヘッド、スキップバック、字幕、及びオーディオオプションを含む。いくつかの実施形態では、1つ以上のユーザインタフェース要素は、方法1000の1つ以上のステップに従ってピクチャインピクチャユーザインタフェース要素にコンテンツアイテムを表示するか、又は方法1400の1つ以上のステップに従って没入型(例えば、フルスクリーン)モードでコンテンツアイテムを表示するためのオプションを含む。
【0144】
いくつかの実施形態では、コンテンツアイテムは、三次元環境内で再生/表示されている、映画、一連のエピソードコンテンツ内のエピソード、若しくはビデオクリップなどのビデオコンテンツのアイテムであるか、又はコンテンツアイテムは、三次元環境内で再生されている音楽、ポッドキャスト、若しくはオーディオブックなどのオーディオコンテンツのアイテムである。いくつかの実施形態では、三次元環境は、アプリケーションウィンドウ、オペレーティングシステム要素、他のユーザの表現、及び/又は電子デバイスの物理的環境内のコンテンツアイテム及び物理オブジェクトの表現などの仮想オブジェクトを含む。いくつかの実施形態では、物理的オブジェクトの表現は、表示生成構成要素(例えば、仮想又はビデオパススルー)を介して三次元環境内に表示される。いくつかの実施形態では、物理オブジェクトの表現は、表示生成構成要素の透明部分を通して見える電子デバイスの物理的環境内の物理オブジェクトのビューである(例えば、真のパススルー又は現実のパススルー)。いくつかの実施形態では、電子デバイスは、ユーザの視点からの三次元環境を、電子デバイスの物理的環境内の電子デバイスの物理的ロケーションに対応する三次元環境内のロケーションに表示する。いくつかの実施形態では、三次元環境は、デバイス(例えば、仮想現実(VR)環境、複合現実(MR)環境、又は拡張現実(AR)環境などのコンピュータ生成現実(XR)環境)によって生成、表示、又は別様に視認可能にされる。
【0145】
図7Dのようないくつかの実施形態では、コンテンツアイテム(例えば、704)に関連付けられたユーザインタフェース(例えば、711)を表示している間に、電子デバイス(例えば、101)は、1つ以上の入力デバイスを介して、個別のユーザインタフェース要素(例えば、716)に向けられたユーザ入力を受信し(802b)、ユーザ入力は、仮想照明効果を修正する要求に対応する。いくつかの実施形態では、入力は、仮想照明効果の量を異なる(例えば、非ゼロの)量に変更する要求に対応する。いくつかの実施形態では、入力は、仮想照明効果を用いずに三次元環境を表示する要求に対応する。いくつかの実施形態では、仮想照明効果は、コンテンツアイテムの画像及び/又はビデオコンテンツに基づく色、パターン、及び/又は動きを有する三次元環境内の仮想オブジェクト及び/又は実オブジェクトの表現上への光スピル効果などのコンテンツアイテムに基づく。いくつかの実施形態では、仮想照明効果は、コンテンツアイテム又はコンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素を含むユーザインタフェース以外の三次元環境の領域に適用される調光及び/又はぼかしの程度など、コンテンツアイテムとは無関係である(後述)。
【0146】
図7Eなどのいくつかの実施形態では、ユーザ入力を受信したことに応じて(802c)、電子デバイス(例えば、101)は、三次元環境(例えば、702)内にコンテンツアイテム(例えば、704)を提示し続ける(802d)。
【0147】
図7Eなどのいくつかの実施形態では、ユーザ入力を受信したことに応じて(802c)、電子デバイス(例えば、101)は、仮想照明効果を三次元環境(例えば、702)に適用する(802e)。例えば、調光仮想照明効果を用いずに三次元環境を表示する要求に応じて、電子デバイスは、コンテンツが提示される領域及びコンテンツが提示されない領域を含む三次元環境の(例えば、全ての)領域が同じ相対的な調光度を有するように三次元環境を表示する。別の例として、光スピル仮想照明効果の量を増加させて三次元環境を表示する要求に応じて、電子デバイスは、三次元環境内のオブジェクト上の(例えば、コンテンツアイテムからの)光スピルのサイズ及び/又は輝度を増加させる。いくつかの実施形態では、仮想光スピルは、コンテンツアイテム(例えば、コンテンツアイテムに含まれる視覚コンテンツ)に対する変化に従って経時的に変化する。
【0148】
三次元環境が表示される仮想照明効果の量を修正することは、没入型体験と注意散漫の少ない仮想環境との間で切り替える効率的な方法を提供し、それにより、コンテンツアイテムに関与するときと、三次元環境内の他のコンテンツ又はアプリケーションに関与するときとの両方で、ユーザに対する認知的負担を低減する。
【0149】
いくつかの実施形態では、個別のユーザインタフェース(例えば、
図7Cの711)に向けられたユーザ入力を受信する前に、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、仮想照明効果を用いずに三次元環境(例えば、702)を表示する(804a)。いくつかの実施形態では、仮想照明効果は、コンテンツアイテム以外の三次元環境の領域に、コンテンツアイテムから発する仮想光スピル効果を表示すること、コンテンツアイテムに対してコンテンツアイテム以外の三次元環境の領域を調光すること、及び/又はコンテンツアイテムに対してコンテンツアイテム以外の三次元環境の領域をぼかすことのうちの1つ以上を含む。いくつかの実施形態では、仮想照明効果を用いずに三次元環境を表示することは、コンテンツアイテムから発する仮想光スピル効果の表示を取り止めること、コンテンツアイテム以外の三次元環境の領域をコンテンツアイテムと同じぼかしレベルで表示すること、及び/又はコンテンツアイテム以外の三次元環境の領域をコンテンツアイテムと同じ調光レベルで表示することを含む。
【0150】
いくつかの実施形態では、ユーザ入力を受信したことに応じて、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、
図7Aなどの仮想照明効果を用いて三次元環境(例えば、702)を表示する(804b)。いくつかの実施形態では、仮想照明効果は、コンテンツアイテム以外の三次元環境の領域に、コンテンツアイテムから発する仮想光スピル効果を表示すること、コンテンツアイテムに対してコンテンツアイテム以外の三次元環境の領域を調光すること、及び/又はコンテンツアイテムに対してコンテンツアイテム以外の三次元環境の領域をぼかすことのうちの1つ以上を含む。いくつかの実施形態では、個別のユーザインタフェース要素に向けられた第1の入力を検出したことに応じて、電子デバイスは、仮想照明効果を伴う又は伴わない三次元環境の表示を切り替える。例えば、第1の入力は、個別のユーザインタフェース要素の選択(例えば、「クリック」などの一次選択)である。いくつかの実施形態では、第1の入力は、ユーザの視線が個別のユーザインタフェース要素に向けられている間に、個別の閾値(例えば、0.1、0.2、0.3、0.5、1、又は2秒)未満の期間にわたって既定の形状のユーザの既定の部分(例えば、ピンチする手形状のユーザの手)を検出することを含む。いくつかの実施形態では、個別のユーザインタフェース要素に向けられた第2の入力(例えば、二次選択、「ロングクリック」に類似した入力)に応じて、電子デバイスは、以下に説明するように、個別のユーザインタフェース要素を、三次元環境に適用される照明効果の量を調整するためのユーザインタフェース要素に更新する。例えば、第2の入力を検出することは、ユーザの既定の部分(例えば、ユーザの手)が、親指を指から離す前に、閾値時間量(例えば、0.1、0.2、0.3、0.5、1、又は2秒)を超えて親指を別の指に接触させることを含むピンチハンドジェスチャなどの既定のジェスチャを行うことを検出することを含む。
【0151】
個別のユーザインタフェース要素に向けられた入力に応じて仮想照明効果をオンにすることは、仮想照明効果をオン及びオフに切り替える効率的な方法を提供し、それにより、没入型体験と他のユーザインタフェース要素が明確に表示される三次元環境との間で切り替えるためのユーザの認知的負担を低減する。
【0152】
いくつかの実施形態では、
図7iDなどの個別のユーザインタフェース(例えば、711)に向けられたユーザ入力を受信する前に、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、第1の量の仮想照明効果を用いて三次元環境(例えば、702)を表示する(806a)。いくつかの実施形態では、第1の量の仮想照明効果を用いて三次元環境を表示することは、コンテンツアイテム以外の三次元環境の領域に、第1のサイズ、強度、鮮明度などでコンテンツアイテムから発する仮想光スピル効果を表示すること、コンテンツアイテムに対してコンテンツアイテム以外の三次元環境の領域を第1の量だけ調光すること、及び/又はコンテンツアイテムに対してコンテンツアイテム以外の三次元環境の領域を第1の量だけぼかすことのうちの1つ以上を含む。いくつかの実施形態では、第1の量の仮想照明効果はゼロである(例えば、電子デバイスは、仮想照明効果を用いずに三次元環境を表示する)。
【0153】
いくつかの実施形態では、ユーザ入力を受信したことに応じて、電子デバイス(例えば、101)は、
図7Eなどにおいて、表示生成構成要素(例えば、120)を介して、第2の量であって、第1の量とは異なる第2の量の仮想照明効果を用いて三次元環境(例えば、702)を表示する(806b)。いくつかの実施形態では、電子デバイスは、入力に応じて、複数の仮想照明効果(例えば、光スピル、ぼかし、調光)を同じ量だけ修正する。例えば、仮想照明効果を個別の量だけ増加させる入力に応じて、電子デバイスは、光スピルのサイズ、強度、鮮明度などを個別の量だけ増加させ、ぼかしを個別の量だけ増加させ、調光を個別の量だけ増加させる。別の例として、仮想照明効果を個別の量だけ減少させるための入力に応じて、電子デバイスは、光スピルのサイズ、強度、鮮明度などを個別の量だけ減少させ、ぼかしを個別の量だけ減少させ、調光を個別の量だけ減少させる。いくつかの実施形態では、電子デバイスは、個別のユーザインタフェース要素に向けられた入力が、電子デバイスが閾値期間(例えば、0.1、0.2、0.3、0.5、1、又は2秒)を超えて既定の手形状(例えば、ピンチする手形状)でユーザの既定の部分(例えば、ユーザの手)を検出したときに満たされる基準などの1つ以上のそれぞれの基準を満たすという判定に従って、仮想照明効果の量を調整する。いくつかの実施形態では、閾値期間を超えて既定のポーズを検出したことに応じて、電子デバイスは、三次元環境が表示される仮想照明効果の量を制御する対話型スライダを提示する。例えば、ユーザの既定の部分の移動を含む個別のユーザインタフェース要素に向けられた入力の継続は、電子デバイスに仮想照明効果の量及びスライダのインジケータのポジションを調整させる。
【0154】
個別のユーザインタフェース要素に向けられた入力に応じて三次元環境に適用される仮想照明効果の量を調整することは、コンテンツアイテムの没入とコンテンツアイテム以外の三次元環境内の要素の鮮明度との間のトレードオフを選択する効率的な方法を提供し、これは、三次元環境内の様々な要素と対話するときのユーザの認知的負担を低減する。
【0155】
図7Cなどのいくつかの実施形態では、ユーザ入力を受信する前に、コンテンツアイテム(例えば、704)を含まない三次元環境(例えば、702)の領域が、第1の輝度レベルで表示される(808a)。いくつかの実施形態では、コンテンツアイテムは、第1の輝度レベルよりも高い輝度レベルで表示される(例えば、調光視覚効果がアクティブである)。いくつかの実施形態では、コンテンツアイテムは、コンテンツアイテムを含まない(例えば、調光視覚効果がアクティブでない)三次元環境の領域と同じ輝度レベルで表示される。いくつかの実施形態では、三次元環境は、仮想オブジェクト及び/又は実オブジェクトの表現を含む。
【0156】
図7Eなどのいくつかの実施形態では、ユーザ入力に応じて仮想照明効果を用いて三次元環境(例えば、702)を表示することは、コンテンツアイテム(例えば、704)を含まない三次元環境(例えば、702)の領域を、第1の輝度レベルとは異なる(例えば、より低い、より高い)第2の輝度レベルで表示することを含む(808b)。いくつかの実施形態では、電子デバイスは、コンテンツアイテムの輝度レベルを修正することなく、コンテンツアイテムを含まない領域の輝度レベルを修正する。いくつかの実施形態では、入力に応じて、電子デバイスは、調光視覚効果をオン又はオフにする。いくつかの実施形態では、入力に応じて、電子デバイスは、調光視覚効果の量を調整する。いくつかの実施形態では、三次元環境全体は、コンテンツアイテムを含まない領域とコンテンツアイテムとで構成される(例えば、コンテンツアイテム以外の三次元環境全体の輝度が調整される)。いくつかの実施形態では、三次元環境は、輝度の量の調整によって影響されないコンテンツアイテムを含まない第3の領域を含む。いくつかの実施形態では、三次元環境は、コンテンツアイテムの外側の1つ以上の仮想オブジェクト及び/若しくは領域、並びに/又は三次元環境が仮想照明効果を用いて表示されるときに減光されるコンテンツアイテムの外側の現実のオブジェクト及び/若しくは領域の表現を含む。
【0157】
個別のユーザインタフェース要素に向けられた入力に応じて、コンテンツアイテムを含まない三次元環境の領域の輝度レベルを調整することは、コンテンツアイテムを用いた没入型体験と、コンテンツアイテム以外の三次元環境内の要素を見てそれと対話する能力との間のトレードオフを行う効率的な方法を提供する。
【0158】
図7Aなどのいくつかの実施形態では、ユーザ入力に応じて仮想照明効果を用いて三次元環境(例えば、702)を表示することは、コンテンツアイテム(例えば、704)から発する個別の仮想照明効果(例えば、710a)(例えば、仮想光スピル)を三次元環境(例えば、704)内の1つ以上のオブジェクト(例えば、708a)上に表示することを含む(810)。いくつかの実施形態では、個別の仮想照明効果は、コンテンツに基づいて経時的に変化する。例えば、個別の仮想照明効果は、コンテンツアイテムのビデオ及び/又は画像コンテンツに現在含まれている1つ以上の色、強度、パターン、アニメーションなどを含む。いくつかの実施形態では、個別の仮想照明効果は、コンテンツアイテムの外側の三次元環境内の1つ以上の(例えば、現実の、仮想の)表面及び/又はオブジェクト上のコンテンツアイテムの画像及び/又はビデオコンテンツから発する光の反射をシミュレートする仮想光スピルである。いくつかの実施形態では、1つ以上のオブジェクトは仮想オブジェクトを含む。いくつかの実施形態では、1つ以上のオブジェクトは、電子デバイス及び/又は表示生成構成要素の物理的環境内の実オブジェクトの表現を含む。いくつかの実施形態では、実オブジェクトの表現は、上記でより詳細に説明される、真の若しくは実パススルー及び/又はビデオ若しくは仮想パススルーのうちの1つ以上を含む。いくつかの実施形態では、仮想光スピルは、コンテンツアイテムからより遠い三次元環境内のロケーションよりも、コンテンツアイテムに近い三次元環境内のロケーションでより強く表示される(例えば、より高い輝度、鮮尖度、及び/又はサイズで表示される)。
【0159】
いくつかの実施形態では、コンテンツアイテムから発する個別の仮想照明効果を三次元環境内の1つ以上のオブジェクト上に提示することは、コンテンツアイテムに没入型体験を提供し、これは、コンテンツアイテムを消費している間のユーザの注意散漫及び認知的負担を低減する。
【0160】
図7Aなどのいくつかの実施形態では、個別のユーザインタフェース(例えば、711)に向けられたユーザ入力を受信する前に、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、コンテンツアイテムを含まない三次元環境(例えば、702)の領域を第1の輝度レベルで表示することと、コンテンツアイテム(例えば、704)から発せられる個別の仮想照明効果(例えば、710a)(例えば、仮想光スピル)の第1の量を三次元環境内の1つ以上のオブジェクト(例えば、708a)上に表示することとを含む、第1の量の仮想照明効果を用いて三次元環境(例えば、702)を表示する(例えば、812a)。いくつかの実施形態では、仮想照明効果は、コンテンツアイテムに対してコンテンツアイテム以外の三次元環境の領域を調光することと、コンテンツアイテムから発する仮想光スピルを三次元環境内の他のオブジェクト上に表示することとを含む。いくつかの実施形態では、第1の量の仮想照明効果はゼロである(例えば、電子デバイスは、仮想照明効果を用いずに三次元環境を表示する)。
【0161】
図7Eなどのいくつかの実施形態では、ユーザ入力を受信したことに応じて、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、704)を含まない三次元環境(例えば、702)の領域を第2の輝度レベルで表示することと、コンテンツアイテム(例えば、704)から発する第2の量の個別の仮想照明効果(例えば、710a)(例えば、仮想光スピル)を三次元環境(例えば、702)内の1つ以上のオブジェクト上に表示することとを含む、第2の量の仮想照明効果を用いて三次元環境(例えば、702)を表示する(812b)。いくつかの実施形態では、個別のユーザインタフェース要素は、コンテンツアイテムに対するコンテンツアイテム以外の三次元環境の領域の調光のレベルと、三次元環境内の他のオブジェクト上のコンテンツアイテムから発する仮想光スピルのレベル(例えば、輝度、サイズ、半透明性など)との両方を制御する。いくつかの実施形態では、個別のユーザインタフェース要素に向けられた第1の入力に応じて、電子デバイスは、調光及び光スピル仮想照明効果をオン又はオフに切り替える。いくつかの実施形態では、個別のユーザインタフェース要素に向けられた第2の入力に応じて、電子デバイスは、三次元環境内のコンテンツアイテムの外側の他のオブジェクト上のコンテンツアイテムから発する仮想光スピルの調光のレベル及びレベル(単数又は複数)(例えば、輝度、サイズ、半透明性など)を調整する。
【0162】
個別のユーザインタフェース要素に向けられた入力に応じて、コンテンツアイテムから発せられる個別の仮想照明効果の量及び調光の量の両方を調整することは、1つの入力で三次元環境の仮想照明の複数の特性を調整する効率的な方法を提供し、これにより、調整を行うのに必要な時間の量及び入力の数を低減する。
【0163】
図7Aなどのいくつかの実施形態では、ユーザ入力に応じて仮想照明効果を用いて三次元環境(例えば、702)を表示することは、1つ以上の入力デバイス(例えば、314)を介して、電子デバイス(例えば、101)のユーザの注意(例えば、視線713a)が三次元環境(例えば、702)の第1の領域(例えば、コンテンツアイテム704を含む)に向けられていることを検出すること(例えば、アイトラッキングデバイスを介して、ユーザの視線が第1の領域に向けられていることを検出すること)に従って、表示生成構成要素(例えば、120)を介して、第1の量の仮想照明効果を用いて三次元環境(例えば、702)を表示すること(815b)を含む(814a)。いくつかの実施形態では、ユーザの注意(例えば、視線)がコンテンツアイテムに向けられていることを検出したことに応じて、電子デバイスは、三次元環境が表示される仮想照明効果の量を増加させる。
【0164】
図7Eなどのいくつかの実施形態では、ユーザ入力に応じて仮想照明効果を用いて三次元環境(例えば、702)を表示することは、1つ以上の入力デバイス(例えば、314)を介して、ユーザの注意(例えば、視線713f)が三次元環境(例えば、702)の第1の領域とは異なる第2の領域に向けられていることを検出すること(例えば、アイトラッキングデバイスを介して、ユーザの視線がコンテンツアイテムを含まない第2の領域に向けられていることを検出すること)に従って、表示生成構成要素(例えば、120)を介して、第1の量とは異なる第2の量の仮想照明効果を用いて三次元環境を表示すること(814c)を含む(814a)。いくつかの実施形態では、ユーザの注意(例えば、視線)がコンテンツアイテムに向けられていないことを検出したことに応じて、電子デバイスは、三次元環境が表示される仮想照明効果の量を減少させる。いくつかの実施形態では、ユーザの注意(例えば、視線)がコンテンツアイテムに向けられていないことを検出したことに応じて、電子デバイスは、仮想照明効果を用いずに三次元環境を表示するように、三次元環境を更新する。
【0165】
ユーザが注意を向ける三次元環境の領域に依存して仮想照明効果の量を調整することは、ユーザの注意に基づいてコンテンツアイテムへの没入のレベルを自動的に調整する効率的な方法を提供し、これは、ユーザが注意を向ける三次元環境の領域をユーザが変更するときに、ユーザの認知的負担及び入力の数を低減する。
【0166】
いくつかの実施形態では、仮想照明効果を用いずに三次元環境を表示している間に、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)を介して、所定の時間閾値(例えば、0.1、0.2、0.3、0.5、1、又は2秒)未満の間、既定のポーズで電子デバイスのユーザの既定の部分(例えば、手703b)を検出することを含む、個別のユーザインタフェース要素(例えば、
図7Cの712j)に向けられた第1の入力を、1つ以上の入力デバイス(例えば、314)を介して受信する(816a)。いくつかの実施形態では、ユーザの既定の部分の既定のポーズは、ユーザの手が、親指が手の別の指に触れるピンチ形状を作ることである。いくつかの実施形態では、ユーザの既定の部分の既定のポーズは、ユーザの手が、個別のユーザインタフェース要素に対応する三次元環境内のロケーションの閾値距離(例えば、1、2、3、5、10、15、30、又は50センチメートル)内にある間に、1つ以上の指が伸ばされ、1つ以上の指が手のひらに向かって曲げられたポインティング手形状を作ることである。いくつかの実施形態では、第1の入力を検出することは、1つ以上の入力デバイスを介して、ユーザの注意が個別のユーザインタフェース要素に向けられていることを検出することを更に含む。いくつかの実施形態では、第1の入力を検出することは、1つ以上の入力デバイスのアイトラッキングデバイスを介して、ユーザの視線が個別のユーザインタフェース要素に向けられていることを検出することを更に含む。
【0167】
いくつかの実施形態では、第1の入力を受信したことに応じて、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、
図7Aなどの仮想照明効果を用いて三次元環境(例えば、702)を表示する(816b)。いくつかの実施形態では、仮想照明効果を用いずに三次元環境を表示している間に第1の入力を検出したことに応じて、電子デバイスは、仮想照明効果をオンに切り替える。
【0168】
いくつかの実施形態では、仮想照明効果を用いて三次元環境を表示している間に、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)を介して、所定の時間閾値(例えば、0.1、0.2、0.3、0.5、1、又は2秒)未満の間、既定のポーズにある電子デバイス(例えば、101)のユーザの既定の部分(例えば、手703b)を検出することを含む、個別のユーザインタフェース要素(例えば、
図7Cの712j)に向けられた第2の入力を、1つ以上の入力デバイス(例えば、314)を介して受信する(816c)。いくつかの実施形態では、第2の入力を検出することは、1つ以上の入力デバイスを介して、ユーザの注意が個別のユーザインタフェース要素に向けられていることを検出することを更に含む。いくつかの実施形態では、第2の入力を検出することは、1つ以上の入力デバイスのアイトラッキングデバイスを介して、ユーザの視線が個別のユーザインタフェース要素に向けられていることを検出することを更に含む。
【0169】
いくつかの実施形態では、第2の入力を受信したことに応じて、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、仮想照明効果を用いずに三次元環境(例えば、314)を表示する(816d)。いくつかの実施形態では、仮想照明効果を用いて三次元環境を表示している間に第2の入力を検出したことに応じて、電子デバイスは、仮想照明効果をオフに切り替える。
【0170】
ユーザの既定の部分の既定のポーズを閾値時間量未満検出したことに応じて仮想照明効果をオン又はオフにすることは、コンテンツアイテムを用いた没入型体験と三次元環境の他の部分の視聴との間で注意散漫をより少なく切り替える効率的な方法を提供し、それにより、三次元環境と対話するときのユーザの認知的負担を低減する。
【0171】
図7Dなどのいくつかの実施形態では、第1の量の仮想照明効果を用いて三次元環境(例えば、702)を表示している間に、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)を介して、ユーザの既定の部分(例えば、手703a)が既定のポーズにある間に、1つ以上の入力デバイス(例えば、314)を介して、電子デバイス(例えば、101)のユーザの既定の部分の移動を検出することを含む、個別のユーザインタフェース要素(例えば、712j)に向けられた入力を受信する(818a)。いくつかの実施形態では、入力を検出することは、ユーザの注意(例えば、視線)が1つ以上の入力デバイス(例えば、アイトラッキングデバイス)を介して個別のユーザインタフェース要素に向けられていることを検出することを更に含む。いくつかの実施形態では、既定のポーズは、上述したピンチ手形状のユーザの手である。いくつかの実施形態では、既定のポーズは、ユーザの手が個別のユーザインタフェース要素のロケーションの閾値距離(例えば、5、10、15、30、又は50センチメートル)内にある間の、上述したポインティング手形状にあるユーザの手である。
【0172】
いくつかの実施形態では、個別のユーザインタフェース要素(例えば、
図7Dの712j)に向けられた入力に応じて、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、
図7Eなどの第2の量の仮想照明効果を用いて三次元環境(例えば、702)を表示し(818b)、第2の量は、ユーザの既定の部分が既定のポーズにある間のユーザの既定の部分(例えば、
図7Dの手703a)の移動(例えば、速度、持続時間、距離など)に基づく。いくつかの実施形態では、第1の(例えば、下方向、左方向)方向におけるユーザの既定の部分の移動を検出したことに応じて、電子デバイスは、仮想照明効果の量を減少させる。いくつかの実施形態では、ユーザの既定の部分の第2の(例えば、上方向、右方向)方向への移動を検出したことに応じて、電子デバイスは、仮想照明効果の量を増加させる。いくつかの実施形態では、(例えば、速度、持続時間、距離の)第1の大きさを有する移動に応じて、電子デバイスは、第1の大きさに対応する第1の量だけ仮想照明効果の量を変更する。いくつかの実施形態では、(例えば、速度、持続時間、距離の)第2の大きさを有する移動に応じて、電子デバイスは、第1の大きさに対応する第2の量だけ仮想照明効果の量を変更する。例えば、比較的小さい大きさを有する下方向の移動に応じて、電子デバイスは、仮想照明効果の量を比較的小さい量だけ減少させる。別の例として、比較的大きい大きさを有する上方向の移動に応じて、電子デバイスは、仮想照明効果の量を比較的大きい量だけ増加させる。
【0173】
個別のユーザインタフェース要素に向けられた入力中のユーザの既定の部分の移動に基づいて仮想照明効果の量を調整することは、コンテンツアイテムとの没入型体験と三次元環境の残りの部分の鮮明度との間のトレードオフをユーザが行う効率的な方法を提供し、これは、三次元環境内の要素と対話するときのユーザの認知的負担を低減する。
【0174】
いくつかの実施形態では、コンテンツアイテムが再生されている間(820a)、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、
図7Aなどの仮想照明効果を用いて三次元環境(例えば、702)を表示する(820b)。いくつかの実施形態では、仮想照明効果は、コンテンツアイテムを含まない三次元環境の領域及び/又は上述したコンテンツアイテムから発する仮想光スピルをぼかすこと及び/又は調光することのうちの1つ以上を含む。
【0175】
いくつかの実施形態では、コンテンツアイテムが再生されている間(820a)、電子デバイス(例えば、101)は、1つ以上の入力デバイスを介して、コンテンツアイテム(例えば、704)を一時停止する要求に対応するユーザ入力(例えば、
図7Bのオプション712gの選択など)を受信する(820c)。例えば、コンテンツアイテムを一時停止する要求に対応する入力は、コンテンツアイテムに関連付けられたユーザインタフェースに表示されたコンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素のうちの個別のユーザインタフェース要素の選択である。
【0176】
いくつかの実施形態では、コンテンツアイテムを一時停止する要求に対応するユーザ入力を受信したことに応じて(820d)、電子デバイス(例えば、101)は、コンテンツアイテム(例えば、
図7Aの704)を一時停止する(820e)。いくつかの実施形態では、電子デバイスは、一時停止されたコンテンツアイテムを表示し続ける(例えば、ビデオコンテンツが一時停止された再生ポジションにビデオコンテンツのフレームを表示する)。
【0177】
いくつかの実施形態では、コンテンツアイテム(例えば、
図7Aの704)を一時停止する要求に対応するユーザ入力を受信したことに応じて(820d)、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、仮想照明効果を用いずに(又は低減された大きさを有する照明効果を伴って)三次元環境(例えば、702)を表示する(820f)。いくつかの実施形態では、コンテンツアイテムが一時停止され、電子デバイスが仮想照明効果を用いずに三次元環境を表示している間に、コンテンツアイテムを再生するための入力を受信したことに応じて、電子デバイスは、コンテンツアイテムの再生を再開し、仮想照明効果のある三次元環境を表示する。いくつかの実施形態では、コンテンツアイテムを一時停止するための入力に応じて、電子デバイスは、仮想照明効果の表示を中止することなく、三次元環境が表示される仮想照明効果の量を低減する。コンテンツアイテムを一時停止するための入力に応じて仮想照明効果の表示を中止することは、コンテンツアイテムが一時停止されている間にコンテンツアイテム以外の三次元環境内の要素の可読性を改善する効率的な方法を提供し、それによって、コンテンツアイテムと関与することと三次元環境内の他の要素と関与することとの間で切り替えるために必要な入力の数を低減する。
【0178】
図7Cなどのいくつかの実施形態では、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)を介して、コンテンツアイテム(例えば、704)の再生を修正するための1つ以上のユーザインタフェース要素(例えば、712f)の第2の個別のインタフェース要素に向けられた個別のユーザ入力を受信する(822a)。
【0179】
いくつかの実施形態では、個別のユーザ入力を受信したことに応じて(822b)、第2の個別のユーザインタフェース要素が、選択されると、電子デバイス(例えば、101)にコンテンツアイテム(例えば、704)の再生と一時停止とを切り替えさせるユーザインタフェース要素(例えば、
図7Bの712g)であるという判定に従って、電子デバイス(例えば、101)は、コンテンツアイテム(例えば、704)の再生又は一時停止状態を切り替える(822c)。いくつかの実施形態では、電子デバイスは、1つ以上の入力デバイス(例えば、アイトラッキングデバイス)を介して、ユーザの既定の部分(例えば、手)が既定のポーズにあることを検出しながら、1つ以上の入力デバイス(例えば、アイトラッキングデバイス)を介して、ユーザの注意(例えば、視線)がユーザインタフェース要素に向けられていることを検出したことに応じて、ユーザインタフェース要素を選択する。例えば、既定のポーズにあるユーザの既定の部分を検出することは、上記で説明したように、ピンチする手形状にあるユーザの手を検出することを含む。いくつかの実施形態では、コンテンツアイテムが再生されている間に電子デバイスに再生又は一時停止状態を切り替えさせる、ユーザインタフェース要素に向けられた入力を検出したことに応じて、電子デバイスはコンテンツを一時停止する。いくつかの実施形態では、コンテンツアイテムが一時停止されている間に電子デバイスに再生又は一時停止状態を切り替えさせる、ユーザインタフェース要素に向けられた入力を検出したことに応じて、電子デバイスはコンテンツを再生する。
【0180】
いくつかの実施形態では、個別のユーザ入力を受信したことに応じて(822b)、第2の個別のユーザインタフェース要素が、選択されると、電子デバイス(例えば、101)にコンテンツアイテム(例えば、704)の再生ポジションを更新させる(例えば、前にスキップするオプション又は後ろにスキップするオプション)ユーザインタフェース要素(例えば、
図7Bの712f、712h)であるという判定に従って、電子デバイス(例えば、101)は、個別のユーザ入力に従ってコンテンツアイテム(例えば、704)の再生ポジションを更新する(822d)。いくつかの実施形態では、個別のユーザインタフェース要素の選択は、電子デバイスに、コンテンツアイテムを再生している間にコンテンツアイテムの再生ポジションが変化する速度とは異なる速度でコンテンツアイテムの再生ポジションを変化させる。いくつかの実施形態では、仮想照明効果を修正するための個別のユーザインタフェース要素は、第1のユーザインタフェース要素及び第2のユーザインタフェース要素を含むコンテンツアイテムに関連付けられたユーザインタフェースに表示される。いくつかの実施形態では、ユーザインタフェースは、コンテンツアイテムのオーディオ及び字幕設定にアクセスし、方法1000の1つ以上のステップに従ってピクチャインピクチャ要素を切り替え、方法1400の1つ以上のステップに従って没入コンテンツモードを切り替え、電子デバイスのコンテンツアイテム再生キューを閲覧するための選択可能オプションを更に含む。
【0181】
再生状態又は一時停止状態を切り替えるためのユーザインタフェース要素と、コンテンツアイテムの再生ポジションを更新するためのユーザインタフェース要素とを有するユーザインタフェース内に個別のユーザインタフェース要素を表示することは、コンテンツアイテムの再生の修正及び三次元環境の修正を容易にする効率的な方法を提供し、これは、コンテンツアイテム及び三次元環境と対話するときのユーザの認知的負担を低減する。
【0182】
いくつかの実施形態では、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)を介して、コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素の第2の個別のインタフェース要素(例えば、
図7Bの712k)に向けられた個別のユーザ入力を受信する(824a)。
【0183】
いくつかの実施形態では、個別のユーザ入力を受信したことに応じて、第2の個別のユーザインタフェース要素が、選択されると、電子デバイス(例えば、101)にコンテンツアイテム(例えば、704)のオーディオコンテンツのボリュームを修正させるユーザインタフェース要素(例えば、
図7Bの712k)であるという判定に従って、電子デバイス(例えば、101)は、個別の入力に従ってオーディオコンテンツのボリュームを修正する(824b)。いくつかの実施形態では、コンテンツアイテムのオーディオコンテンツのボリュームを修正するためのユーザインタフェース要素に向けられた第1の入力を受信したことに応じて、電子デバイスは、スライダのインジケータのポジションが変更されたときに、電子デバイスにインジケータの更新されたポジションに従ってオーディオコンテンツのボリュームを変更させるスライダユーザインタフェース要素を含むようにユーザインタフェース要素を更新する。いくつかの実施形態では、オーディオコンテンツのボリュームを修正するためのユーザインタフェース要素は、仮想照明効果を修正するための個別のユーザインタフェース要素とともに、コンテンツアイテムに関連付けられたユーザインタフェースに表示される。
【0184】
オーディオコンテンツのボリュームを修正するためのユーザインタフェース要素を有するユーザインタフェース内に個別のユーザインタフェース要素を表示することは、コンテンツアイテムの再生の修正及び三次元環境の修正を容易にする効率的な方法を提供し、これは、コンテンツアイテム及び三次元環境と対話するときのユーザの認知的負担を低減する。
【0185】
図7Bなどのいくつかの実施形態では、コンテンツアイテム(例えば、704)に関連付けられたユーザインタフェース(例えば、711)は、コンテンツアイテム(例えば、704)とは別個のユーザインタフェースであり、表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、704)と三次元環境(例えば、702)内の電子デバイス(例えば、101)のユーザの視点との間に表示される(826)。いくつかの実施形態では、コンテンツアイテム及びユーザインタフェースは、三次元環境内の別個のウィンドウに表示される。いくつかの実施形態では、コンテンツアイテムに関連付けられたユーザインタフェースは、コンテンツアイテム上に部分的にオーバーレイされる。いくつかの実施形態では、コンテンツアイテムに関連付けられたユーザインタフェースは、コンテンツアイテム上にオーバーレイされない。
【0186】
コンテンツアイテムとは別に、三次元環境においてユーザの視点とコンテンツアイテムとの間に、コンテンツアイテムに関連付けられたユーザインタフェースを表示することは、ユーザインタフェースとのユーザ対話を容易にする効率的な方法を提供し、ユーザインタフェースとの対話を介してコンテンツアイテムの再生を修正するのに必要な認知的負荷及び時間を低減する。
【0187】
いくつかの実施形態では、コンテンツアイテム(例えば、
図7Bの704)は、表示生成構成要素(例えば、120)を介して、三次元環境内のユーザの視点に対して第1の角度で表示される(828a)。いくつかの実施形態では、第1の角度は、三次元環境内の横方向角度(例えば、ユーザの左又は右に向かう傾斜)を含む。いくつかの実施形態では、第1の角度は、三次元環境内の垂直角度(例えば、ユーザの視点から上向き又は下向きに傾斜)を含む。
【0188】
いくつかの実施形態では、コンテンツアイテム(例えば、704)に関連付けられたユーザインタフェース(例えば、
図7Bの711)は、表示生成構成要素(例えば、120)を介して、三次元環境(例えば、702)内のユーザの視点に対して第1の角度とは異なる第2の角度で表示される(828b)。いくつかの実施形態では、第2の角度は、三次元環境内の横方向角度(例えば、ユーザの左又は右に向かう傾斜)を含む。いくつかの実施形態では、第2の角度は、三次元環境内の垂直角度(例えば、ユーザの視点から上向き又は下向きに傾斜)を含む。例えば、コンテンツアイテムに関連付けられたユーザインタフェースは、コンテンツアイテムの下の三次元環境内のロケーションに、コンテンツアイテムがユーザに対して表示される角度よりもユーザの視点に対してより上方向の角度で表示される。
【0189】
コンテンツアイテム及びコンテンツアイテムに関連付けられたユーザインタフェースを三次元環境内のユーザの視点に対して異なる角度で表示することは、コンテンツアイテム及びコンテンツアイテムに関連付けられたユーザインタフェースが三次元環境内の異なるポジションにある場合に、コンテンツアイテム及びコンテンツアイテムに関連付けられたユーザインタフェースを認識可能に提示する効率的な方法を提供し、これは、コンテンツアイテム及びコンテンツアイテムに関連付けられたユーザインタフェースと対話するのに必要な時間及び労力を低減する。
【0190】
図7Bなどのいくつかの実施形態では、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)(例えば、ハンドトラッキングデバイス)を介して、1つ以上の基準を満たすポーズにある電子デバイスのユーザの既定の部分(例えば、手703b)を検出したことに応じて、コンテンツアイテム(例えば、704)の再生を修正するための1つ以上のユーザインタフェース要素(例えば、712f、712g)を表示する(830)。いくつかの実施形態では、1つ以上の基準を満たすユーザの既定の部分のポーズを検出することは、ユーザの身体に近接したポジションから(例えば、三次元環境の既定の領域内の)持ち上げられたロケーションへのユーザの手の移動を検出することを含む。いくつかの実施形態では、1つ以上の基準を満たすユーザの既定の部分のポーズを検出することは、上述したポインティング手形状、又は手の親指が閾値距離(例えば、0.1、0.2、0.3、0.5、1、2、又は3センチメートル)内にあるが手の別の指に触れていないプレピンチ手形状などの既定の手形状のユーザの手を検出することを含む。いくつかの実施形態では、1つ以上の基準は、ユーザの注意(例えば、視線)がコンテンツアイテムに向けられていることを電子デバイスが1つ以上の入力デバイス(例えば、アイトラッキングデバイス)を介して検出したときに満たされる基準を含む。いくつかの実施形態では、電子デバイスが、1つ以上の基準を満たすポーズにあるユーザの既定の部分を検出しない間、電子デバイスは、コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素の表示を取り止める。いくつかの実施形態では、電子デバイスは、コンテンツアイテムを提示(及び再生)し続ける。
【0191】
1つ以上の基準を満たすポーズにおけるユーザの既定の部分を検出したことに応じて、コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素を表示することは、1つ以上のユーザインタフェース要素との対話を選択的に容易にする効率的な方法を提供し、これは、コンテンツアイテムの再生を修正するために必要とされる時間及び入力を低減する。
【0192】
いくつかの実施形態では、コンテンツアイテム(例えば、704)の再生を修正するための1つ以上のユーザインタフェース要素(例えば、
図7Bの712f、712g)を表示している間(例えば、1つ以上の基準を満たすポーズにあるユーザの既定部分を検出したことに応じて)、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)(例えば、ハンドトラッキングデバイス)を介して、
図7Aのような、1つ以上の基準を満たさないポーズにあるユーザの既定部分(例えば、手703a)を検出する(832a)。いくつかの実施形態では、1つ以上の入力デバイス(例えば、ハンドトラッキングデバイス、アイトラッキングデバイス)は、上記で説明した基準のうちの1つ以上が満たされていないことを検出する。いくつかの実施形態では、1つ以上の入力デバイス(例えば、ハンドトラッキングデバイス)は、ユーザの既定の部分(例えば、手)を検出しない(例えば、ユーザの既定の部分が1つ以上の入力デバイス(例えば、ハンドトラッキングデバイス)の範囲外にあるため)。いくつかの実施形態では、電子デバイスは、1つ以上の基準を満たさないポーズ(例えば、形状及び/又はポジション)にあるユーザの既定の部分を検出する。例えば、電子デバイスは、ユーザが自分の膝又は横側に手を落としたことを検出する。
【0193】
いくつかの実施形態では、
図7Aのような、1つ以上の基準を満たさないポーズのユーザの既定の部分(例えば、703a)を検出したことに応じて、電子デバイス(例えば、101)は、コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素(例えば、
図7Bの712f)の、電子デバイス(例えば、101)が表示する視覚的強調を、表示生成構成要素(例えば、120)を介して低減する(832b)。いくつかの実施形態では、電子デバイスは、コンテンツアイテムの再生を修正するために、1つ以上のユーザインタフェース要素の不透明度を低減する。いくつかの実施形態では、電子デバイスは、コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素の表示を中止する。いくつかの実施形態では、電子デバイスは、コンテンツアイテムを提示(及び再生)し続ける。
【0194】
1つ以上の基準を満たさないポーズにあるユーザの既定の部分を検出したことに応じて、コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素の表示を中止することは、ユーザが1つ以上の対話型要素と対話する意図を示さずにコンテンツアイテムを消費している間の注意散漫を低減する効率的な方法を提供し、これは、コンテンツアイテムを消費している間のユーザに対する認知的負担を低減する。
【0195】
図7Bなどのいくつかの実施形態では、表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、704)を第1のサイズで、コンテンツアイテム(例えば、704)に関連付けられたユーザインタフェース(例えば、711)を第2のサイズで表示している間に、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)を介して、コンテンツアイテム(例えば、704)をサイズ変更する要求に対応する入力を受信する(834a)。いくつかの実施形態では、コンテンツアイテムをサイズ変更する要求に対応する入力は、三次元環境内のコンテンツアイテムのポジションを変更して、又は変更せずに、三次元環境内のコンテンツアイテムの仮想サイズを変更する要求である。いくつかの実施形態では、コンテンツアイテムをサイズ変更する要求に対応する入力は、三次元環境内のコンテンツアイテムのポジション及び/又は仮想サイズを変更して、又は変更せずに、角度サイズ(例えば、コンテンツアイテムによって占有される表示生成構成要素の一部)を変更する要求である。
【0196】
図7Cなどのいくつかの実施形態では、コンテンツアイテム(例えば、704)をサイズ変更する要求に対応する入力を受信したことに応じて(834b)、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、704)をサイズ変更する要求に対応する入力に従って、第1のサイズとは異なる第3のサイズでコンテンツアイテム(例えば、704)を表示する(834c)。いくつかの実施形態では、電子デバイスは、ユーザの既定の部分(例えば、手)の移動の方向に対応する方向に、ユーザの既定の部分の移動の大きさ(例えば、速度、持続時間、距離など)に対応する量だけ、コンテンツアイテムのサイズを変更する。
【0197】
図7Cなどのいくつかの実施形態では、コンテンツアイテムをサイズ変更する要求に対応する入力を受信したこと(834b)に応じて、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、704)に関連付けられたユーザインタフェース(例えば、711)を第2のサイズで表示する(834d)。いくつかの実施形態では、コンテンツアイテムに関連付けられたユーザインタフェースの(例えば、角度)サイズは、コンテンツアイテムがサイズ変更されても一定のままである。いくつかの実施形態では、入力がコンテンツアイテムのポジションを変更することなくコンテンツアイテムのサイズを変更する要求である場合、電子デバイスは、コンテンツアイテムに関連付けられたユーザインタフェースの角度サイズ及び仮想サイズを維持し、三次元環境内のユーザインタフェースのポジションも維持する。いくつかの実施形態では、入力が三次元環境内のコンテンツアイテムのサイズ及びポジションを変更する要求である場合、電子デバイスは、ユーザインタフェースの角度サイズを維持し、ユーザインタフェースの更新されたポジションに従ってユーザインタフェースの仮想サイズを更新して、三次元環境内のユーザインタフェースの角度サイズを維持する。
【0198】
コンテンツアイテムのサイズを更新するときにコンテンツアイテムに関連付けられたユーザインタフェースのサイズを維持することは、三次元環境におけるユーザインタフェースの可読性を維持する効率的な方法を提供し、これは、ユーザインタフェースと対話するときのユーザの認知的負担を低減する。
【0199】
図7Cなどのいくつかの実施形態では、表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、704)を第1の(例えば、角度)サイズ及び三次元環境(例えば、702)内のユーザの視点からの第1の距離で表示し、コンテンツアイテム(例えば、704)に関連付けられたユーザインタフェース(例えば、711)を第2の(例えば、角度)サイズ及び三次元環境(例えば、702)内のユーザの視点からの第2の距離で表示している間に、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)を介して、コンテンツアイテム(例えば、704)(例えば、及びユーザインタフェース)を三次元環境(例えば、702)内で再配置する要求に対応する入力を受信する(836a)。いくつかの実施形態では、電子デバイスは、ユーザが入力を提供している間のユーザの既定の部分(例えば、手)の移動に従って、コンテンツアイテム及びユーザインタフェースを再配置する。例えば、電子デバイスは、入力を提供している間に、ユーザの既定の部分(例えば、手)の移動の方向及び量(例えば、速度、距離、持続時間など)に対応する方向及び量だけ、コンテンツアイテム及びユーザインタフェースを移動させる。いくつかの実施形態では、入力を検出することは、ピンチ手形状又はポインティング手形状などの既定の手形状でユーザの手を検出しながら、コンテンツアイテム又はコンテンツアイテムを再配置するためのユーザインタフェース要素に向けられたユーザの視線を検出することを含む。
【0200】
図7Dなどのいくつかの実施形態では、コンテンツアイテム(例えば、704)を再配置する要求に対応する入力を受信したことに応じて(836b)、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、704)を再配置する要求に対応する入力に従って、三次元環境(例えば、702)内のユーザの視点から第1の距離とは異なる第3の距離に第3の(例えば、角度)サイズでコンテンツアイテムを表示する(836c)。いくつかの実施形態では、電子デバイスは、三次元環境内でコンテンツアイテムを移動させる要求に応じて、コンテンツアイテムの仮想サイズを維持し、これにより、電子デバイスは、コンテンツアイテムとユーザの視点との間の距離の変化に従って、コンテンツアイテムの角度サイズ(例えば、コンテンツアイテムによって占有される表示生成構成要素の部分)を更新する。例えば、コンテンツアイテムをユーザからより遠くに移動させる要求に応じて、電子デバイスは、コンテンツアイテムをより小さい角度サイズで表示し、コンテンツアイテムをユーザのより近くに移動させる要求に応じて、電子デバイスは、コンテンツアイテムをより大きい角度サイズで表示する。いくつかの実施形態では、電子デバイスは、(例えば、コンテンツアイテムの仮想サイズを変更せずにコンテンツアイテムの角度サイズを更新すると、コンテンツアイテムの角度サイズが最大又は最小角度サイズの外側になる場合に、コンテンツアイテムの表示を最大及び最小サイズ内に維持するために)コンテンツアイテムの角度サイズの変化よりも小さい割合でコンテンツアイテムの仮想サイズを更新する。
【0201】
図7Dなどのいくつかの実施形態では、コンテンツアイテム(例えば、704)を再配置する要求に対応する入力を受信したことに応じて(836b)、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、704)を再配置する要求に対応する入力に従って、コンテンツアイテム(例えば、704)に関連付けられたユーザインタフェース(例えば、711)を第2の(例えば、角度)サイズでユーザの視点から第4の距離に表示する(836d)。いくつかの実施形態では、電子デバイスは、ユーザインタフェースの角度サイズを維持しながら、ユーザインタフェースと三次元環境内のユーザの視点との間の距離を更新することに従って、ユーザインタフェースの仮想サイズを更新する。
【0202】
コンテンツアイテムに関連付けられたユーザインタフェースのサイズを維持することは、三次元環境におけるユーザインタフェースの可読性を維持する効率的な方法を提供し、これは、ユーザインタフェースと対話するときのユーザの認知的負担を低減する。
【0203】
図7Bなどのいくつかの実施形態では、コンテンツアイテム(例えば、704)は、三次元環境(例えば、702)内のコンテンツアイテム(例えば、704)に関連付けられたユーザインタフェース(例えば、711)とは別個である(838a)。いくつかの実施形態では、コンテンツアイテム及びユーザインタフェースは、三次元環境内の別個のロケーションにある別個のコンテナ(例えば、プラッタ、ユーザインタフェース要素、ウィンドウなど)に表示される。
【0204】
図7Bなどのいくつかの実施形態では、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、704)の再生を修正するための1つ以上の第2のユーザインタフェース要素(例えば、712a)を表示し(838b)、1つ以上の第2のユーザインタフェース要素(例えば、712a)は、三次元環境(例えば、702)内のコンテンツアイテム(例えば、704)上にオーバーレイして表示される。いくつかの実施形態では、1つ以上の第2のユーザインタフェース要素は、コンテンツアイテムを含むコンテナ内に表示される。いくつかの実施形態では、1つ以上の第2のユーザインタフェース要素は、三次元環境内のコンテンツアイテムに視覚的に(例えば、ユーザの視点から)又は空間的にオーバーレイする。例えば、電子デバイスは、表示生成構成要素を介して、選択されると、電子デバイスに、コンテンツアイテムのコンテナ内のコンテンツアイテム上にオーバーレイされたコンテンツアイテムの表示を中止させ、コンテンツアイテムとは別個のコンテナ内のユーザインタフェース内に(例えば、コンテンツアイテムの再生を修正するための)1つ以上の他のユーザインタフェース要素を表示させるユーザインタフェース要素を表示する。
【0205】
三次元環境内のコンテンツアイテム上にオーバーレイされた1つ以上の第2のユーザインタフェース要素を表示することは、コンテンツアイテムを閲覧しながら1つ以上の第2のユーザインタフェース要素と対話する効率的な方法を提供し、それによってユーザに対する認知的負担を低減する。
【0206】
図7Cなどのいくつかの実施形態では、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)(例えば、アイトラッキングデバイス)を介して、1つ以上のユーザインタフェース要素のうちの個別のユーザインタフェース要素(例えば、712f、712j)に向けられたユーザの注意(例えば、視線713c、713d)が1つ以上の第1の基準を満たすことを検出する(840a)。いくつかの実施形態では、1つ以上の第1の基準は、ユーザの注意(例えば、視線)が少なくとも閾値期間(例えば、0.1、0.2、0.3、0.4、0.5、1、2、又は3秒)にわたって個別のユーザインタフェース要素に向けられたときに満たされる基準を含む。いくつかの実施形態では、1つ以上の基準は、ユーザの注意(例えば、視線)が個別のユーザインタフェース要素に向けられた瞬間に満たされる。
【0207】
図7Cなどのいくつかの実施形態では、個別のユーザインタフェース要素(例えば、712j)に向けられたユーザの注意(例えば、視線713d)が1つ以上の第1の基準を満たすことを検出したことに応じて(840b)、個別のユーザインタフェース要素(例えば、712j)が1つ以上の第2の基準を満たすという判定に従って、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、個別のユーザインタフェース要素(例えば、712j)の機能を識別する視覚的インジケーション(例えば、714)を表示する(840c)。いくつかの実施形態では、個別のユーザインタフェース要素が、コンテンツアイテムに関連付けられたユーザインタフェースに含まれる1つ以上のユーザインタフェース要素の所定のサブセットに含まれるとき、個別のユーザインタフェース要素は、1つ以上の第2の基準を満たす。例えば、方法1400の1つ以上のステップによる没入コンテンツオプション、方法1000の1つ以上のステップによるピクチャインピクチャオプション、及び仮想照明効果を修正するための個別のユーザインタフェース要素のうちの1つ以上が、所定のサブセットに含まれる。いくつかの実施形態では、個別のユーザインタフェース要素は、個別のユーザインタフェース要素が三次元環境におけるコンテンツアイテムの提示に関連する機能に関連付けられている(例えば、別の環境におけるコンテンツアイテムの提示に共通して関連付けられていなくてもよい)場合に、1つ以上の第2の基準を満たす。いくつかの実施形態では、個別のユーザインタフェース要素の機能を識別する視覚的インジケーションは、個別のユーザインタフェース要素の機能を記述するテキストを含む。例えば、仮想照明効果を修正するための個別のオプションの機能を識別する視覚的インジケーションは、「照明効果」などを言うテキストを含む。いくつかの実施形態では、電子デバイスは、個別のユーザインタフェース要素から離れるように向けられたユーザの注意を検出したことに応じて、視覚的インジケーションの表示を中止する。いくつかの実施形態では、電子デバイスは、1つ以上の入力デバイスを介して、ユーザの視線が個別のユーザインタフェース要素に向けられている間にユーザの準備完了状態を検出したことに従って、視覚的インジケーションを表示する。
【0208】
図7Cなどのいくつかの実施形態では、個別のユーザインタフェース要素(例えば、712f)に向けられたユーザの注意(例えば、視線713c)が1つ以上の第1の基準を満たすことを検出したことに応じて(840b)、個別のユーザインタフェース要素(例えば、712f)が1つ以上の第2の基準を満たさないという判定に従って、電子デバイス(例えば、101)は、個別のユーザインタフェース要素(例えば、712f)の機能を識別する視覚的インジケーションの表示を取り止める(840d)。いくつかの実施形態では、個別のユーザインタフェース要素が、コンテンツアイテムに関連付けられたユーザインタフェースに含まれる1つ以上のユーザインタフェース要素の所定のサブセットに含まれないとき、個別のユーザインタフェース要素は、1つ以上の第2の基準を満たさない。例えば、再生キューオプション、コンテンツアイテムの再生ポジションでスキップバック又はヘッドするオプション、コンテンツアイテムを再生/一時停止するオプション、コンテンツアイテムの字幕オプションを閲覧するオプション、及びコンテンツアイテムのオーディオオプションを閲覧するオプションのうちの1つ以上は、1つ以上のユーザインタフェース要素の所定のサブセットに含まれない。いくつかの実施形態では、個別のユーザインタフェース要素は、個別のユーザインタフェース要素がコンテンツアイテム全般の提示に関連する機能に関連付けられている(例えば、三次元環境におけるコンテンツアイテムの提示に特に関連付けられていなくてもよい)とき、1つ以上の第2の基準を満たさない。
【0209】
1つ以上の第2の基準を満たす個別のユーザインタフェース要素の機能を識別する視覚的インジケーションを表示することは、個別のユーザインタフェース要素に向けられた更なる入力に応じて実行される動作をユーザに示す効率的な方法を提供し、これは、ユーザエラー及びユーザエラーを訂正するために必要とされる入力の数を低減する。
【0210】
図7Bなどのいくつかの実施形態では、電子デバイス(例えば、101)は、表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、711)及びコンテンツアイテム(例えば、704)に関連付けられたユーザインタフェース(例えば、711)とは別に表示された個別のユーザインタフェース要素(例えば、712b)を表示する(842a)。いくつかの実施形態では、コンテンツアイテム及びユーザインタフェースは、三次元環境内の別個のロケーションにある別個のコンテナ(例えば、プラッタ、ユーザインタフェース要素、ウィンドウなど)に表示され、個別のユーザインタフェース要素は、コンテンツアイテム及びユーザインタフェースのロケーションとは異なる三次元環境内のロケーションにあるこれらのコンテナの外側に表示される。いくつかの実施形態では、電子デバイスは、任意選択的にコンテンツアイテムに向けられたユーザの視線を検出している間に、1つ以上の基準を満たすポーズでユーザの既定の部分を検出したことに応じて、コンテンツアイテムの再生を修正するための1つ以上の選択可能要素と同時に、個別のユーザインタフェース要素を表示する。例えば、任意選択的にコンテンツアイテムに向けられたユーザの視線を検出している間に、1つ以上の基準を満たすポーズにあるユーザの既定の部分を検出したことに応じて、電子デバイスは、個別のユーザインタフェース要素と、コンテンツアイテムの再生を修正するための複数の選択可能要素とを表示する。
【0211】
図7Bなどのいくつかの実施形態では、個別のユーザインタフェース要素(例えば、712b)を表示している間に、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)を介して、個別のユーザインタフェース要素(例えば、712b)に向けられた入力を受信する(842b)。
【0212】
図7Bなどのいくつかの実施形態では、個別のユーザインタフェース要素(例えば、712b)に向けられた入力を検出したことに応じて、電子デバイス(例えば、101)は、個別のユーザインタフェース要素(例えば、712b)に向けられた入力に従って、三次元環境(例えば、702)内のコンテンツアイテム(例えば、704)をサイズ変更するプロセスを開始する(842c)。いくつかの実施形態では、個別のユーザインタフェース要素の選択を検出したことに応じて、電子デバイスは、個別のユーザインタフェース要素の選択後のユーザの既定の部分(例えば、手)の移動に従って、個別のユーザインタフェース要素をサイズ変更するプロセスを開始する。いくつかの実施形態では、個別のユーザインタフェース要素の選択後にユーザの既定の部分(例えば、手)の移動を検出したことに応じて、電子デバイスは、上述のように、コンテンツアイテムの再生を修正するための1つ以上の選択可能要素を含む個別のユーザインタフェース要素をサイズ変更することなく、ユーザの既定の部分(例えば、手)の移動に従ってコンテンツアイテムをサイズ変更する。
【0213】
コンテンツアイテムをサイズ変更するための個別のユーザインタフェース要素をコンテンツアイテム及びコンテンツアイテムに関連付けられたユーザインタフェースとは別個に表示することは、コンテンツアイテムをサイズ変更するための入力を提供しながらコンテンツアイテムのサイズを見る効率的な方法を提供し、それによって、サイズ変更入力の人間工学を改善し、コンテンツアイテムを所望のサイズにサイズ変更するために必要な時間及び入力の数を低減する。
【0214】
図9A~
図9Eは、三次元環境においてメディアコンテンツを表示する例示的な方法を示す。
【0215】
図9Aは、電子デバイス101の表示生成構成要素120によって表示されている三次元環境904と、三次元環境904の俯瞰
図920とを示す。
図1~
図6を参照して上述したように、電子デバイス101は、任意選択的に、表示生成構成要素(例えば、タッチスクリーン120)及び複数の画像センサ(例えば、
図3の画像センサ314)を含む。画像センサは、任意選択的に、可視光カメラ、赤外線カメラ、深度センサ、又は任意の他のセンサのうちの1つ以上を含み、電子デバイス101は、ユーザが電子デバイス101と対話している間にユーザ又はユーザの一部の1つ以上の画像をキャプチャするために使用されることができる。いくつかの実施形態では、以下に示されるユーザインタフェースはまた、ユーザインタフェースをユーザに表示する表示生成構成要素と、物理的環境、ユーザの手の移動(例えば、ユーザから外向きに面する外部センサ)、及び/又はユーザの視線(例えば、ユーザの顔に向かって内向きに面する内部センサ)を検出するためのセンサとを含む、ヘッドマウントディスプレイ上に実現され得る。
【0216】
図9Aにおいて、電子デバイス101は、アプリケーション1のユーザインタフェース906と、アプリケーション2のユーザインタフェース910と、アプリケーション3のユーザインタフェース912と、デバイス101の物理的環境における物理テーブルであるテーブルの表現918とを含む三次元環境904を表示している。いくつかの実施形態では、以下でより詳細に説明するように、アプリケーション1~3は、任意選択的に、メディアアプリケーション、ゲームアプリケーション、ソーシャルアプリケーション、ナビゲーションアプリケーション、ストリーミングアプリケーションなどである。いくつかの実施形態では、表現918並びにユーザインタフェース906、910、及び912は、これらのオブジェクトが三次元環境904のユーザ922の現在の視点からの視野内にあるため、電子デバイス101によって表示されている。例えば、
図9Aの俯瞰
図920に示されるように、三次元環境904のユーザ922の現在の視点は、三次元環境904の中心のポジションに対応し、三次元環境904の上部/後部に向かって配向される。本開示の残りの部分における説明を容易にするために、三次元環境904内のユーザ922のポジション/ポーズは、本明細書では、三次元環境904のユーザ922の現在の視点、又はより単純に、俯瞰
図920内に示されるユーザ922の視点と称されるであろう。
【0217】
したがって、
図9Aに示されるように、電子デバイス101は、表示生成構成要素120を介して、表現918並びにユーザインタフェース906、910、及び912を表示しているが、その理由は、これらのオブジェクトが、(俯瞰
図920に示されるように)三次元環境904のユーザ922の現在の視点からの視野内にあるからである。逆に、電子デバイス101は、表示生成構成要素120を介して、ソファの表現924、コーナーテーブルの表現930、コーヒーテーブルの表現932、並びにユーザインタフェース926及び928を表示していないが、これは、これらのオブジェクトが、俯瞰
図920に示されるように、三次元環境904のユーザ922の現在の視点からの視野内にないためである。
【0218】
いくつかの実施形態では、三次元環境904のユーザ922の視点は、電子デバイス101の物理的環境902(例えば、動作環境100)におけるユーザ922の物理的ロケーションに対応する。例えば、ユーザ922の視点は、任意選択的に、ユーザ922が現在物理的環境902内の後壁に向かって配向されており、電子デバイス101を保持している(例えば、又はデバイス101がヘッドマウントデバイスであった場合にはデバイス101を装着している)間に物理的環境902の中心に位置するため、俯瞰
図920に示される視点である。
【0219】
図9Aに示されるように、電子デバイス101は、ユーザインタフェース906においてTV番組Aを現在再生している。いくつかの実施形態では、TV番組Aは、電子デバイスがTV番組Aの再生を開始する要求を検出したことに応じて、ユーザインタフェース906で再生されている。いくつかの実施形態では、以下でより詳細に説明するように、電子デバイス101は、ピクチャインピクチャ提示モード及び/又は拡張提示モード(例えば、ピクチャインピクチャ提示モードとは異なる)を含む異なる提示モードでTV番組Aを提示することができる。
図9Aの例では、電子デバイス101は、現在、ユーザインタフェース906において拡張提示モードでTV番組Aを提示している。ユーザインタフェース906は、TV番組Aが拡張提示モードで提示されている間に、三次元環境904のユーザの現在の視点からの視野内にある三次元環境904内の他のロケーションなど、三次元環境904のユーザの視点に対して他のロケーションに表示することもできることを理解されたい。
【0220】
図9Bにおいて、電子デバイス101が拡張提示モードでTV番組Aを再生している間に、電子デバイス101は、三次元環境904のユーザ922の視点が
図9Aに示される視点から
図9Bに示される視点に移動したことを検出している。いくつかの実施形態では、三次元環境904のユーザの視点は、ユーザ922が物理的環境902内の対応するポーズ及び/又はポジションに移動したため、
図9Bに示される視点に移動した。
図9Bに示されるように、電子デバイス101が三次元環境904におけるユーザ922の視点の移動を検出したことに応じて、電子デバイス101は、
図9Bの俯瞰
図920に示される三次元環境904のユーザの新しい視点から三次元環境904を表示する。
【0221】
具体的には、
図9Aに示される視点から
図9Bに示される視点へのユーザ922の視点の移動の結果として、ユーザインタフェース912がもはや(
図9Bの俯瞰
図920に示されるように)三次元環境904のユーザの現在の視点からの視野内にないため、電子デバイス101は、
図9Aに以前に示されたようなアプリケーション3のユーザインタフェース912をもはや提示していない。加えて、ユーザ922の視点の移動の結果として、三次元環境904のユーザ922の視点が
図9Aに示すユーザ922の視点から右に移動したため、電子デバイス101は、
図9Aと比較してユーザの視野の更に左にある三次元環境内のロケーションに、テーブルの表現918、ユーザインタフェース910、及びユーザインタフェース906を表示する。
【0222】
いくつかの実施形態では、メディアコンテンツが拡張提示モードで提示されている場合、メディアコンテンツを提示するユーザインタフェースのロケーションは、三次元環境904のユーザの視点が移動しても、三次元環境904内で変化しない。例えば、三次元904のユーザ922の視点が
図9Aに示される視点から
図9Bに示される視点に移動したとき、ユーザインタフェース906が拡張提示モードでTV番組Aを提示していたため、三次元環境904内のユーザインタフェース906のロケーションは(
図9A及び
図9Bの俯瞰
図920に示されるように)変化しなかった。
【0223】
図9Bにおいて、電子デバイス101は、再生制御ユーザインタフェース908も提示している。いくつかの実施形態では、電子デバイス101は、ユーザの視線が任意選択的にメディアユーザインタフェース906に向けられている間に、ユーザ922の手916が「ポインティング」ポーズ(例えば、手1331の1つ以上の指が伸ばされ、手916の1つ以上の指が手916の手のひらに向かって丸まっている)又は「プレピンチ」ポーズ(例えば、手916の親指が手916の別の指の閾値距離(例えば、0.1、0.2、0.3、0.5、1、2、3、又は5センチメートル)内にあるが、タッチしていない)にあることを電子デバイス101が検出したことに応じて、再生制御ユーザインタフェース908を表示する。いくつかの実施形態では、再生制御ユーザインタフェース908に表示されているユーザインタフェース要素908a~908jは、
図7のシリーズで前述した選択可能なユーザインタフェースオプション712c~Lと同様である。
【0224】
加えて、
図9Bでは、電子デバイス101が拡張提示モードでTV番組Aを再生している間に、電子デバイス101は、ピクチャインピクチャ提示モードでTV番組Aの再生を開始する要求を検出する。いくつかの実施形態では、電子デバイス101は、ユーザ922の視線914がユーザインタフェース要素908bに向けられていた間に、ユーザの手916が「ポインティング」ポーズ又は「ピンチング」ポーズにあった(例えば、手916の親指と人差し指が互いに閾値距離(例えば、0.2、0.5、1、1.5、2、又は2.5センチメートル)に収束する)ため、ピクチャインピクチャ提示モードでTV番組Aの再生を開始する要求を検出した。
【0225】
図9Cでは、
図9Bのピクチャインピクチャ提示モードでTV番組Aの提示を開始する要求を検出したことに応じて、電子デバイス101は、ユーザインタフェース906においてTV番組Aの再生を中止し、そしてピクチャインピクチャユーザインタフェース934においてTV番組Aの提示を開始する。いくつかの実施形態では、TV番組Aの再生がメディアユーザインタフェース906からピクチャインピクチャユーザインタフェース934に遷移しているとき、電子デバイス101は、ピクチャインピクチャユーザインタフェースがフェードインし、TV番組Aの再生がユーザインタフェース906でフェードアウトするアニメーションを表示する。
【0226】
俯瞰
図920に示されるように、ピクチャインピクチャユーザインタフェース934は、三次元環境904のユーザの現在の視点の前及び右にある三次元環境904内のポジションにある三次元環境内のロケーションに表示されている。いくつかの実施形態では、電子デバイス101は、三次元環境904内のロケーションが三次元環境904のユーザの現在の視点から閾値距離(例えば、0.1、0.2、0.5、1、1.5、又は3フィート)内にあり、及び/又は三次元環境904のユーザ922の視点からの視野内の所定の部分(例えば、右下、左下、右上、左上)を占有するため、俯瞰
図920に示されたロケーションにピクチャインピクチャユーザインタフェース934を表示している。したがって、いくつかの実施形態では、ユーザインタフェース934は、ユーザ922の視点に基づく三次元環境904内のロケーションに表示され、ユーザインタフェース906は、ユーザ922の視点に基づかない三次元環境904内のロケーションに表示される。
【0227】
いくつかの実施形態では、電子デバイス101がピクチャインピクチャ提示モードでメディアコンテンツを提示している間に、電子デバイスは、再生のために選択可能なメディアアイテムの1つ以上の表現を任意選択的に表示する。例えば、
図9Cでは、電子デバイス101が、
図9BにおいてTV番組Aの提示を拡張提示モードからピクチャインピクチャ提示モードに遷移する要求を受信したことに応じて、電子デバイス101は、ユーザインタフェース906(拡張提示モード中にTV番組Aを以前に提示していたユーザインタフェース)を、個別のメディアコンテンツの複数の表現940~958を含むように更新する。複数の表現940~958は、電子デバイス101が表現940~958のうちの1つの選択を検出すると、選択された表現に対応するメディアアイテムがユーザインタフェース906において(任意選択的に、メディアユーザインタフェース934におけるTV番組Aの再生を中止することなく)及び/又はピクチャインピクチャユーザインタフェース934において再生を開始するように、任意選択的に選択可能である。
【0228】
いくつかの実施形態では、個別のメディアコンテンツの複数の表現940~958は、ユーザインタフェース906内の1つ以上のグループ(例えば、列)に表示される。例えば、
図9Cにおいて、表現940~946は、対応するメディアアイテムがユーザ922のコンテンツ消費履歴に基づいて表示のために選択されたため、ユーザインタフェース906の第1の列に表示されている。同様に、表現948~958は、対応するメディアアイテムが人気のある/現在流行しているコンテンツアイテムに対応する(例えば、過去1時間、1日、1週間、1ヶ月などにわたって、より多くのユーザが表現948~958に対応するメディアコンテンツを最近視聴した)ため、ユーザインタフェース906の第2の列に表示されている。
【0229】
いくつかの実施形態では、電子デバイス101は、ユーザインタフェース906に表示されるメディアコンテンツのタイプ/カテゴリを更新する。例えば、
図9Cでは、電子デバイス101は、ユーザインタフェース936を表示している(これはまた、前述のように、電子デバイス101がピクチャインピクチャ提示モードでTV番組Aの提示を開始する要求を受信したことに応じて、任意選択的に表示される)。ユーザインタフェース要素936は、選択されると、(
図9Cのユーザインタフェース906に示されるように)ユーザ922のコンテンツ消費履歴に基づいて現在流行している及び/又は推奨されているメディアコンテンツの表現をユーザインタフェース906に電子デバイス101に表示させる選択可能オプション936aと、選択されると、電子デバイス101に、ユーザインタフェース906内に、1つ以上のTV番組に対応するメディアコンテンツの1つ以上の表現を表示させる、選択可能オプション936bと、選択されると、電子デバイス101に、ユーザインタフェース906内に、1つ以上の映画に対応するメディアコンテンツの1つ以上の表現を表示させる、選択可能オプション936cと、選択されると、電子デバイス101に、ユーザインタフェース906内に、1つ以上の(例えば、ライブ)スポーツゲームに対応するメディアコンテンツの1つ以上の表現を表示させる、選択可能オプション936dと、選択されると、電子デバイス101に、ユーザインタフェース906内に、特定のメディアコンテンツを検索するためのユーザインタフェースを提示させる、選択可能オプション936eと、を含む。
【0230】
図9Dでは、電子デバイス101は、ユーザ922の視点が
図9Cに示す視点から
図9Dに示す視点に移動したことを検出している。いくつかの実施形態では、三次元904のユーザ922の視点は、ユーザ922が物理的環境902内の対応するポーズ及び/又はロケーションに移動したため、
図9Dに示される視点に移動した。
図9Dに示されるように、三次元環境904のユーザ922の視点が
図9Dに示される視点に移動したことを検出したことに応じて、電子デバイス101は、三次元環境904のユーザの新しい視点から三次元環境904を表示する。具体的には、デバイス101の表示生成構成要素120は、現在、ユーザインタフェース926及び928並びに表現924及び932を表示しているが、これは、これらの要素が現在、
図9Dに示されるユーザの視点からの視野内にあるためである。
【0231】
いくつかの実施形態では、三次元環境904のユーザ922の視点が移動すると、電子デバイス101は、三次元環境904のユーザ922の新しい視点に基づいて、ピクチャインピクチャユーザインタフェース934のロケーションを更新する。例えば、
図9C及び
図9Dの俯瞰
図920に示すように、三次元環境904のユーザの視点が
図9Cに示す視点から
図9Dに示す視点に移動したことを電子デバイス101が検出したことに応じて、電子デバイス101は、ピクチャインピクチャユーザインタフェース934のロケーションを
図9Cに示すロケーションから
図9Dのロケーションに移動させる。いくつかの実施形態では、電子デバイス101は、三次元環境904のユーザの現在の視点に基づいて、俯瞰
図920に示されるユーザインタフェース934のロケーションが三次元環境904のユーザの新しい視点の閾値距離(例えば、0.1、0.2、0.5、1、1.5、又は3フィート)内にもはやないため、及び/又はそのロケーションが三次元環境904のユーザの新しい視点からのユーザの視野の所定の(例えば、右下)部分にもはやないため、
図9Cの俯瞰
図920に示される三次元環境904内のロケーションからピクチャインピクチャユーザインタフェース934を移動させた。いくつかの実施形態では、ピクチャインピクチャユーザインタフェース934は、任意選択的に、
図9Cを参照して説明したものと同様の理由で、俯瞰
図920に示される三次元環境904内のロケーションに表示されている。加えて、俯瞰
図920に示されるように、三次元環境904内のユーザインタフェース906のロケーションは、
図9Bを参照して以前に説明された同様の理由で変化していない。
【0232】
いくつかの実施形態では、電子デバイス101がピクチャインピクチャ提示モードでコンテンツを提示している間に、再生制御は、ピクチャインピクチャユーザインタフェース上にオーバーレイされて又は統合されて表示される。例えば、ユーザインタフェース934は、現在、ピクチャインピクチャ提示モードでTV番組Aを提示しているため、電子デバイス101は、(
図9Bを参照して説明したように、TV番組Aが拡張提示モードで提示されている間に再生制御が別個のユーザインタフェースで提示されたときとは対照的に)ユーザインタフェース934上にオーバーレイされたユーザインタフェース要素936~948を表示している。いくつかの実施形態では、
図9Dに示すように、ユーザインタフェース要素936~948は、手916が「プレピンチ」のポーズにあることを電子デバイスが検出したとき、及び任意選択的にユーザ922の視線がユーザインタフェース934に向けられたときに、メディアユーザインタフェース934に表示される。電子デバイス101が、手916が「プレピンチ」のポーズにあることを検出しない場合、ユーザインタフェース要素936~948は、任意選択的に表示されない。
【0233】
次に、ユーザインタフェース要素936~948に関連する機能について説明する。ユーザインタフェース要素936は、任意選択的に選択可能であり、選択されると、電子デバイス101に、ピクチャインピクチャ提示モードでのTV番組Aの提示を中止させ、拡張提示モードでのTV番組Aの提示を開始させる。ユーザインタフェース要素938は、任意選択的に選択可能であり、選択されると、電子デバイス101にTV番組Aの再生を中止させる(及び任意選択的にユーザインタフェース934の表示を中止させる)。ユーザインタフェース要素940は、任意選択的に選択可能であり、選択されると、電子デバイス101にTV番組Aを所定の量だけ(例えば、10、15、20、30、40、又は60秒だけ)早送りさせる。ユーザインタフェース要素942は、任意選択的に選択可能であり、選択されると、電子デバイス101にTV番組Aを所定量だけ(例えば、10、15、20、30、40、又は60秒だけ)巻き戻しさせる。ユーザインタフェース要素944は、任意選択的に選択可能であり、選択されると、電子デバイス101に、TV番組Aの再生を一時停止させる(例えば、TV番組Aが現在再生されている場合)か、又はTV番組Aの再生を開始させる(例えば、TV番組Aが現在一時停止されている場合)。最後に、メディアユーザインタフェース934は、TV番組Aの現在の再生ポジションを示すインジケーション948を含むスクラブバー946を含む。スクラブバー908j及びスクラブバー908jに関連する動作の更なる詳細について、方法1400及び
図13A~
図13Eを参照して説明する。
【0234】
加えて、
図9Dに示すように、ユーザインタフェース要素936~946を表示している間に、かつTV番組Aがピクチャインピクチャ提示モードで再生されている間に、電子デバイスは、(ユーザインタフェース936の選択によって示される)拡張提示モードでTV番組Aを提示する要求を受信する。いくつかの実施形態では、ユーザインタフェース要素936を選択する入力は、
図9Bのユーザインタフェース要素918bを選択する入力と同様である。いくつかの実施形態では、拡張提示モードでTV番組Aの提示を開始する要求を受信したことに応じて、電子デバイス101は、メディアユーザインタフェース934でのTV番組Aの提示を中止し、
図9Cに示すユーザインタフェース906での拡張提示モードでのTV番組Aの表示を開始する(及び、任意選択的に、
図9Cに示すユーザインタフェース906及びユーザインタフェース934での表現940~958の表示を中止する)。
【0235】
いくつかの実施形態では、電子デバイス101がTV番組Aの提示モードをピクチャインピクチャ提示モードから拡張提示モードに遷移する要求を受信したときに、ユーザインタフェース906(例えば、拡張提示モードでTV番組Aを提示するユーザインタフェース)が三次元環境904のユーザの現在の視点からの視野内にない場合、電子デバイス101は、
図9Eに示すように、ユーザインタフェース906のロケーションを三次元環境904のユーザの現在の視点からの視野内にあるロケーションになるように更新する。逆に、ユーザインタフェース906が(
図9Cのように)現在ユーザの視野内にある三次元環境904内のロケーションにあった間に、電子デバイス101がTV番組Aをピクチャインピクチャ提示モードで提示されている状態から拡張提示モードに遷移する要求を受信した場合、電子デバイス101は、任意選択的に、三次元環境904内のユーザインタフェース906のロケーションを更新していないことになる。
【0236】
いくつかの実施形態では、拡張提示モード中のメディアアイテムの再生が終了した場合、電子デバイス101は、次に見るべき1つ以上の提案されたメディアアイテムの1つ以上の表現を表示する。例えば、
図9Eにおいて、電子デバイス101は、ユーザインタフェース906におけるTV番組Aの再生が終了したこと、又は再生における個別のポジション(例えば、再生の終了から0.25、0.5、1、2、3又は5分)に達したことを検出している。それに応じて、電子デバイス101は、それぞれのメディアアイテムの表現946~950を含むユーザインタフェース909を表示する。いくつかの実施形態では、表現946~950に対応するメディアアイテムは、ユーザ922のコンテンツ消費履歴に基づいて、ユーザインタフェース909に表示するために選択された。いくつかの実施形態では、表現946~950は選択可能であり、選択されると、電子デバイス101に、ユーザインタフェース906内の対応するメディアアイテムを再生させる。例えば、電子デバイス101は、ユーザ922の視線914が表現950に向けられている間に、ユーザのユーザ916の手が(上述したように)「ポインティング」又は「ピンチング」ポーズにあることを電子デバイス101が検出したときに、ユーザインタフェース906においてメディアアイテムCの再生を任意選択的に開始する。
【0237】
追加的に又は代替的に、表現946~950に対応するメディアアイテムは、(ユーザの手からの入力を検出することなく)ユーザの視線914に基づいて再生のために任意選択的に選択される。例えば、
図9Eに示すように、ユーザ922の視線914は、現在、アイテムAの表現946に向けられている。いくつかの実施形態では、ユーザ922の視線914が表現914に向けられていることを電子デバイスが検出すると、電子デバイス101は、ユーザインタフェース906においてアイテムAの再生を開始する。代替的に、いくつかの実施形態では、電子デバイス101は、ユーザの視線914が少なくとも閾値時間量(例えば、15、30、60、90、又は200秒)にわたって表現946に向けられたときにのみ、メディアアイテムAの再生を開始する。例えば、
図9Eにおいて、電子デバイス101は、ユーザインタフェース906内のメディアアイテムAの再生を開始していないが、これは、ユーザ922の視線914が、上述した閾値時間量の間、表現946に向けられていないためである。
【0238】
いくつかの実施形態では、電子デバイス101は、ユーザ922の視線914が電子デバイス101にメディアアイテムの再生を開始させるまでの残り時間量を示すインジケーション915を表示する。例えば、
図9Eにおいて、電子デバイス101は、表現946内に円形の視覚的インジケーション915を表示している。いくつかの実施形態では、ユーザの視線914が表現946の方に向けられたままであるとき、電子デバイス101は、0度(例えば、ユーザの視線914が表現914の方に向けられていないとき)から360度の角距離(例えば、ユーザの視線914が上記で説明した閾値時間量の間表現914の方に向けられていたとき)までの空間を占有するように視覚的インジケーション915を(例えば、リアルタイムで)更新する。例えば、
図9Eにおいて、視覚的インジケーション915は、視覚的インジケーション915が180度の角距離を占有しているため、上述した閾値時間量の半分の間、ユーザの視線914が表現946に向けられていることを現在示している。
【0239】
図9A~
図9Eに図示される実施形態に関する付加的又は代替的詳細は、
図10A~
図10Iを参照して説明される方法1000の説明において以下に提供される。
【0240】
図10A~
図10Iは、いくつかの実施形態による、三次元環境においてメディアコンテンツを表示する方法を示すフローチャートである。いくつかの実施形態では、方法1000は、表示生成構成要素(例えば、
図1、3、及び4の表示生成構成要素120)(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)と、1つ以上のカメラ(例えば、ユーザの手の下方を指すカメラ(例えば、色センサ、赤外線センサ、及び他の深度感知カメラ)又はユーザの頭部から前方を指すカメラ)とを含む、コンピュータシステム(例えば、
図1のコンピュータシステム101)において行われる。いくつかの実施形態では、方法1000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、
図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって統御される。方法1000のいくつかの動作は、任意選択的に、組み合わされ、かつ/又はいくつかの動作の順序は、任意選択的に、変更される。
【0241】
いくつかの実施形態では、方法1000は、表示生成構成要素及び1つ以上の入力デバイス(例えば、モバイルデバイス(例えば、タブレット、スマートフォン、メディアプレーヤ、又はウェアラブルデバイス)、又はコンピュータ)と通信する電子デバイスにおいて実行される。いくつかの実施形態では、表示生成構成要素は、電子デバイス(任意選択的にタッチスクリーンディスプレイ)と一体化されたディスプレイ、モニタ、プロジェクタ、テレビなどの外部ディスプレイ、又はユーザインタフェースを投影し1人以上のユーザにユーザインタフェースが可視であるようにするためのハードウェア構成要素(任意選択的に組み込み若しくは外部)などである。いくつかの実施形態では、1つ以上の入力デバイスは、ユーザ入力(例えば、ユーザ入力をキャプチャし、ユーザ入力を検出する等)を受信し、ユーザ入力に関連する情報を電子デバイスに送信することができる電子デバイス又は構成要素を含む。入力デバイスの例は、タッチスクリーン、マウス(例えば、外部)、トラックパッド(任意選択で統合又は外部)、タッチパッド(任意選択で統合又は外部)、リモートコントロールデバイス(例えば、外部)、別のモバイルデバイス(例えば、電子デバイスとは別個)、ハンドヘルドデバイス(例えば、外部)、コントローラ(例えば、外部)、カメラ、深度センサ、アイトラッキングデバイス、及び/又はモーションセンサ(例えば、ハンドトラッキングデバイス、ハンドモーションセンサ)などを含む。いくつかの実施形態では、電子デバイスは、ハンドトラッキングデバイス(例えば、1つ以上のカメラ、深度センサ、近接センサ、タッチセンサ(例えば、タッチスクリーン、トラックパッド)と通信する。いくつかの実施形態では、ハンドトラッキングデバイスは、スマートグローブなどのウェアラブルデバイスである。いくつかの実施形態では、ハンドトラッキングデバイスは、リモートコントロール又はスタイラスなどのハンドヘルド入力デバイスである。
【0242】
いくつかの実施形態では、電子デバイス(例えば、
図9A~
図9Eのデバイス101)は、表示生成構成要素を介して、コンテンツ(例えば、メディア)を提示しており、三次元環境内の第1の個別のロケーションに位置する第1のメディアユーザインタフェース(例えば、方法800、1200、及び/又は1400を参照して説明したようなユーザインタフェース)を含む三次元環境(例えば、三次元環境は、仮想現実(VR)環境、複合現実(MR)環境、又は拡張現実(AR)環境などのコンピュータ生成現実(XR)環境である)を表示する(1002a)。例えば、
図9Aにおいて、電子デバイス101は、ユーザインタフェース906に提示されている「TV番組A」を含む三次元環境904を表示している。いくつかの実施形態では、第1のメディアユーザインタフェースが三次元環境に表示されている間に、第1のメディアユーザインタフェースは、映画、TV番組、ミュージックビデオ、及び/又は他のタイプのビデオ若しくはオーディオコンテンツを提示している。いくつかの実施形態では、第1のメディアユーザインタフェースは、第1の個別のロケーションが第1のメディアユーザインタフェースに関連付けられたアプリケーションのデフォルト起動ロケーションであるため、三次元環境内の第1の個別のロケーションに配置される(例えば、個別のアプリケーションの起動に応じて、第1のメディアユーザインタフェースは、三次元環境内の第1の個別のロケーションに表示される)。いくつかの実施形態では、第1のメディアユーザインタフェースは、電子デバイスのユーザが第1のメディアユーザインタフェースを第1の個別のロケーションに移動させたため、三次元環境内の第1の個別のロケーションに配置される。いくつかの実施形態では、ユーザの視点が第1の視点である間に(例えば、電子デバイスが物理的環境内の第1のエリアに配向されている間に)三次元環境が表示されている場合、三次元環境は、物理的環境内の第1のロケーションに位置するオブジェクトの一部若しくは全ての表現、及び/又は仮想オブジェクト(例えば、物理的環境内にはないが、ユーザの視点が第1の視点に対応するために表示されるオブジェクト)の表現を任意選択的に含む。換言すれば、電子デバイスのユーザの異なる視点は、任意選択的に、個別の視点から三次元環境を表示している間に、異なる仮想オブジェクト及び/又は物理オブジェクトの表現をユーザの視野内に存在させる。例えば、物理的環境内の第1のロケーションは、椅子、ソファ、テーブルなどの1つ以上の物理オブジェクトを含むことができ、三次元環境は、それらの1つ以上の椅子、ソファ、テーブルなどの表現を含むことができる。同様に、第1のメディアユーザインタフェースは、任意選択的に、ユーザの視点が第1の視点に対応するときに、第1のメディアユーザインタフェースが第1の視点からのユーザの視野内にあるような三次元環境内のロケーションにある。
【0243】
いくつかの実施形態では、電子デバイスのユーザの第1の視点に対するポーズの個別の範囲内(例えば、いくつかの実施形態では、ユーザの第1の視点に対するポーズの個別の範囲は、ユーザの第1の視点からの三次元環境のユーザの視野内にある三次元環境内のポーズの全て(又はそのサブセット)を含む)のポーズ(例えば、ポジション及び/又は配向)を有する三次元環境内の第1の個別のロケーションで第1のメディアユーザインタフェースを用いて三次元環境を表示する。いくつかの実施形態では、三次元環境内の第1のメディアユーザインタフェースのポジションは、そのポジションが第1の視点からのユーザの視野内にない場合、第1の視点に対するポーズの個別の範囲内にない。)、電子デバイスは、第1の視点から第1の視点とは異なる第2の視点への三次元環境内のユーザの視点の移動を検出する(1002b)(例えば、電子デバイスは、電子デバイスのユーザが物理的環境内の異なるロケーションを見始めた(例えば、三次元環境内へのユーザの視野の配向が変化した)ことを検出する)。例えば、
図9Bにおいて、電子デバイス101は、三次元環境904のユーザの視点が、
図9Aの俯瞰
図920に示される視点から
図9Bの俯瞰
図920に示される視点に変化したことを検出する。いくつかの実施形態では、ユーザの第1の視点からの視野内にあった三次元環境の部分は、任意選択的に、依然として、第2の視点からのユーザの視野内にある(例えば、三次元環境が第1の視点から提示されていた間に表示生成構成要素を介して表示される三次元環境の少なくとも一部は、三次元環境が第2の視点から提示されている間に表示生成構成要素を介して表示される)。代替的に、いくつかの実施形態では、三次元環境がユーザの第2の視点から提示されている間に、第1の視点からのユーザの視野内にあった三次元環境のエリア/部分は、任意選択的に、もはや第2の視点からのユーザの視野内にはない。いくつかの実施形態では、ユーザの視点は、ユーザが物理的環境内で移動する(例えば、歩く、走るなど)、及び/又は物理的環境内の異なるエリアに向かって見る(例えば、静止したままである間)につれて変化する)。
【0244】
いくつかの実施形態では、第1の視点から第2の視点へのユーザの視点の移動を検出したことに応じて、電子デバイスは、表示生成構成要素を介して、第2の視点から三次元環境を表示する(1002c)(例えば、三次元環境のユーザの新しい視点-第2の視点に対応するように、三次元環境の表示を電子的に更新する)。いくつかの実施形態では、第2の視点からの三次元環境の表示は、上記で説明されるように、ユーザの第1の視点からの三次元環境の表示に類似する)。
【0245】
いくつかの実施形態では、コンテンツが第1の提示モードで提示されているという判定に従って(例えば、いくつかの実施形態では、コンテンツがピクチャインピクチャ(PiP)UIで提示されていないとき、コンテンツは第1の提示モードで提示されている。いくつかの実施形態では、コンテンツがデフォルトの提示モードで提示されている(例えば、第1のメディアユーザインタフェースに関連付けられたビデオプレーヤアプリケーションにおいてネイティブに再生している)とき、コンテンツは第1の提示モードで提示されている。いくつかの実施形態では、コンテンツが9:16又は16:9よりも高いビデオアスペクト比で提示されている場合、コンテンツは第1の提示モードで提示されており、電子デバイス101は、第1のメディアユーザインタフェースを三次元環境内の第1の個別のロケーションに維持し(1002d)、第1のメディアユーザインタフェースは、もはやユーザの第2の視点に対するポーズの個別の範囲内にはない。例えば、三次元環境904のユーザ922の視点が
図9Aと
図9Bとの間で変化したとしても、三次元環境904におけるユーザインタフェース906のロケーションは(
図9A及び
図9Bの俯瞰
図920に示されるように)変化しなかった。例えば、第1のメディアユーザインタフェース内のコンテンツが非PiP提示モードで提示されている(例えば、ビデオプレーヤアプリケーション内でネイティブに提示されている)場合、ユーザの視点の移動は、三次元環境内の第1のメディアユーザインタフェースのロケーションを変化させない。したがって、いくつかの実施形態では、三次元環境がユーザの第2の視点から表示されるとき、第1のメディアユーザインタフェースは、任意選択的に、もはやユーザの視野内に位置しない。いくつかの実施形態では、三次元環境がユーザの第2の視点から提示されているとき、三次元環境内の第1のメディアユーザインタフェースのロケーション(例えば、ポジション)が三次元環境のユーザの第2の視点からのユーザの視野内にないため、第1のメディアユーザインタフェースは、もはやユーザの第2の視点に対するポーズの個別の範囲内にない。
【0246】
いくつかの実施形態では、コンテンツが第1の提示モードとは異なる第2の提示モードで提示されているという判定に従って(例えば、コンテンツがピクチャインピクチャ(PiP)フォーマットで提示されている場合)、電子デバイスは、三次元環境内の第1の個別のロケーションとは異なる第2の個別のロケーションに第1のメディアユーザインタフェースを表示し(1002e)、第2の個別のロケーションに第1のメディアユーザインタフェースを表示することにより、第1のメディアユーザインタフェースは、ユーザの視点の移動の結果として
図9Cに示すロケーションから
図9Dに示すロケーションに移動するユーザインタフェース934のロケーションなどの、ユーザの第2の視点に対するポーズの個別の範囲内にあるポーズで表示される(例えば、いくつかの実施形態では、ユーザの第2の視点に対するポーズの範囲は、ユーザの第2の視点からのユーザの視野内にある三次元環境内のポーズの全て(又はそのサブセット)を含む)。例えば、第1のメディアユーザインタフェース内のコンテンツがピクチャインピクチャ(PiP)提示モードで提示されている場合、第1のメディアユーザインタフェースが現在表示されている(例えば、ユーザの現在の視点に対応する)三次元環境の部分に常に表示されているように、三次元環境内の第1のメディアユーザインタフェースのロケーションは、三次元環境のユーザの視点が変化するにつれて変化する。いくつかの実施形態では、第1のメディアユーザインタフェースが第2の提示モードで提示されている場合、第1のメディアユーザインタフェースは、第1のメディアユーザインタフェースが電子デバイスのユーザ(例えば、所定の部分)の閾値距離(0.5、1、2、4、又は6フィート)内(又はユーザの個別の身体部分(例えば、右臀部又は左臀部、右肩又は左肩)の閾値距離(0.5、1、2、4、又は6フィート)内)に現れるように、三次元環境内のロケーションに表示される。例えば、第1のメディアユーザインタフェースが第2の提示モードで提示されている場合、第1のメディアユーザインタフェースは、視点のロケーション及び/又は配向にかかわらず、三次元環境のユーザの視野の右下部分に表示される。いくつかの実施形態では、第1のメディアユーザインタフェースが第2の提示モードで提示されていない(例えば、第1の提示モードで提示されている)場合、第1のメディアユーザインタフェースは、任意選択的に、電子デバイスのユーザの閾値距離(0.5、1、2、4、又は6フィート)内(又はユーザの個別の身体部分(例えば、右臀部又は左臀部、右肩又は左肩)の閾値距離(0.5、1、2、4、又は6フィート)内)ではない三次元環境内のロケーションに表示されている。
【0247】
三次元環境におけるユーザの視点が変化するときに第1のメディアユーザインタフェースのロケーションを変更することは、第1のメディアユーザインタフェースのコンテンツが第2の提示モードで提示されているときに三次元環境のユーザの現在の視点にかかわらず、三次元環境における特定のユーザインタフェースへの連続的なアクセスを提供する効率的な方法を提供し、それによって、第1のメディアユーザインタフェースに関与するときと、三次元環境における他のコンテンツ又はアプリケーションに関与するときの両方で、ユーザへの認知的負担を低減する。
【0248】
いくつかの実施形態では、第2の個別のロケーションは、第2の視点に基づく(1004a)(例えば、第1のメディアユーザインタフェースのロケーションは、もはやユーザの第1の視点のロケーションに基づくのではなく、むしろユーザの第2の視点のロケーションに基づく)。いくつかの実施形態では、第2の個別のロケーションは、第2の視点から閾値距離(例えば、0.1、0.2、0.5、1、1.5、又は3フィート)内又はそこにある三次元環境内のロケーションである。いくつかの実施形態では、第2の個別のロケーションは、第2の視点からのユーザの視野内のロケーションである。いくつかの実施形態では、三次元環境内の第2の個別のロケーションは、ユーザの個別の身体部分(例えば、部分)の閾値距離内又はそこ(例えば、ユーザの臀部、手、頭部、足、又は膝の0.1、0.2、0.3、1、2、又は3フィート以内)にある物理的環境内のロケーションに対応する。いくつかの実施形態では、第2の個別のロケーションは、ユーザの第2の視点からのユーザの視野の右下部分(又は左下部分若しくは右上部分)に対応する。いくつかの実施形態では、第2の個別のロケーションに第1のメディアユーザインタフェースを表示することは、第2の視点に移動した後のユーザの視点の移動が1つ以上の基準を満たす(例えば、いくつかの実施形態では、三次元環境のユーザの視点の第2の視点への移動に続いて、三次元環境のユーザの視点が所定量を超えて変化していない(例えば、ユーザの視点が閾値移動量(例えば、1cm、2cm、5cm、10cm、50cm、100cm、300cm、又は1000cm未満の移動)を超えて移動していない、及び/又は少なくとも閾値時間量(例えば、0.5、1、3、7、10、20、又は30秒)にわたって第2の視点に対応している場合に、1つ以上の基準が満たされる)という判定に従って、第2の個別のロケーションに第1のメディアユーザインタフェースを表示すること(1004b)を含む(1004a)。例えば、
図9Dにおいて、三次元環境904のユーザ922の視点が上述の基準を満たす場合、ユーザインタフェース934は、ユーザ922の視野内にある三次元環境904内のロケーションに表示される。例えば、三次元環境のユーザの視点が、少なくとも閾値時間量(例えば、0.5、1、3、7、10、20、又は30秒)にわたって第2の視点に対応した場合、及び/又は閾値移動量未満(例えば、1cm、2cm、5cm、10cm、50cm、100cm、300cm、又は1000cm未満の移動)しか移動しなかった場合、第1のメディアユーザインタフェースは、三次元環境内の第2の個別のロケーションに表示される。
【0249】
いくつかの実施形態では、第2の個別のロケーションに第1のメディアユーザインタフェースを表示することは、第2の視点に移動した後のユーザの視点の移動が1つ以上の基準を満たさない(例えば、いくつかの実施形態では、三次元環境のユーザの視点の第2の視点への移動に続いて、三次元環境のユーザの視点が閾値量を超えて移動した(例えば、ユーザの視点が1cm、2cm、5cm、10cm、50cm、100cm、300cm、又は1000cmの移動を超えて移動した)、及び/又は少なくとも閾値量(例えば、0.1、1、3、7、10、20、又は30秒)にわたって第2の視点に対応しなかった場合に1つ以上の基準が満たされない)という判定に従って、第2の個別のロケーションにおける第1のメディアユーザインタフェースの表示を取り止めること(1004c)を含む(1004a)。例えば、
図9Dにおいて、三次元環境904のユーザ922の視点が上述の基準を満たさない場合、ユーザインタフェース934は、ユーザ922の視野内にある三次元環境904内のロケーションに表示されない。例えば、三次元環境のユーザの視点が、少なくとも閾値量(例えば、0.1、1、3、7、10、20、又は30秒)にわたって第2の視点に対応しなかった(及び/又は閾値移動量を超えて移動した)場合、三次元環境のユーザの視点が1つ以上の基準を満たすまで、第1のメディアユーザインタフェースは、第2の個別のロケーションに表示されない。いくつかの実施形態では、1つ以上の基準が満たされない(例えば、三次元環境のユーザの視点が、少なくとも上述の閾値時間量にわたって第2の視点に対応していない)場合、第1のメディアユーザインタフェースは、ユーザの第1の視点に基づいて三次元環境内のロケーションに表示され続ける。いくつかの実施形態では、ユーザの視点が第2の視点に移動しているとき、第1の個別のロケーションにおける第1のメディアユーザインタフェースは、フェードアウトし、1つ以上の基準が満たされた後にフェードインして戻る。いくつかの実施形態では、第1のメディアユーザインタフェースは、1つ以上の基準が満たされるまで、三次元環境内のロケーションを変更しない。したがって、電子デバイスが第2の個別のロケーションにおける第1のメディアユーザインタフェースの表示を取り止めている間に、電子デバイスは、任意選択的に、三次元環境内の第1の個別のロケーションに表示されたままである。
【0250】
三次元環境のユーザの視点の移動に続いて第1のメディアユーザインタフェースを表示すること、又はその表示を遅延させることは、ユーザの移動が落ち着いた後にユーザの新しい視点に対して第1のメディアユーザインタフェースを表示する効率的な方法を提供し、それによって、第1のメディアユーザインタフェースに関与するとき、及び三次元環境内の他のコンテンツ又はアプリケーションに関与するときの両方で、ユーザへの認知的負担を低減させる。
【0251】
いくつかの実施形態では、第1のメディアユーザインタフェースは、個別のアプリケーション(例えば、ビデオアプリケーション、メディアアプリケーション、又はストリーミングアプリケーション)に関連付けられる。いくつかの実施形態では、第2の提示モード中の第1のメディアユーザインタフェースの配向(例えば、第1のメディアユーザインタフェースがポートレートで表示されるか、ランドスケープモードで表示されるか)は、第1のメディアユーザインタフェースに関連付けられたアプリケーションによって定義される。いくつかの実施形態では、第1のメディアユーザインタフェースに関連付けられたアプリケーションのタイプは、第2の提示モード中の第1のメディアユーザインタフェースの配向を定義する。いくつかの実施形態では、第2の提示モード中に、第1のメディアユーザインタフェースは、第1のメディアユーザインタフェース内のコンテンツが三次元環境のユーザの視点に向かって表示される(例えば、角度付けられる)ように、ユーザの視点に向かって自動的に配向される(例えば、ユーザの視点に対して垂直)。
【0252】
いくつかの実施形態では、第1のメディアユーザインタフェースが第2の提示モードでコンテンツを提示している間に、第1のメディアユーザインタフェースは、
図9Dのユーザインタフェース934内のユーザインタフェース要素936~948などの、コンテンツの再生を修正するために選択可能な1つ以上のユーザインタフェース要素を含む(1006a)。いくつかの実施形態では、第1のメディアユーザインタフェースに1つ以上のユーザインタフェース要素を表示している間に、電子デバイスは、1つ以上の入力デバイスを介して、
図9Dのユーザインタフェース要素936の選択などの、1つ以上のユーザインタフェース要素の個別のユーザインタフェース要素の選択に対応する入力を受信する(1006b)。
【0253】
いくつかの実施形態では、入力を受信したことに応じて、電子デバイスは、個別のユーザインタフェース要素の選択に従ってコンテンツの再生を修正する(1006c)。例えば、電子デバイス101がユーザインタフェース要素936の選択を検出したことに応じて、電子デバイス101は、
図9Dを参照してより詳細に説明されるように、TV番組Aの再生をピクチャインピクチャ提示から拡張提示モードに遷移する。例えば、コンテンツがピクチャインピクチャモード(例えば、第2の提示モード)で提示されているとき、コンテンツの再生を修正するためのユーザインタフェース要素は、第1のメディアユーザインタフェースにオーバーレイして表示される。いくつかの実施形態では、ユーザインタフェース要素は、第1のメディアユーザインタフェース内に提示されているコンテンツ及びユーザインタフェース要素が三次元環境内の同じZ深度にあるように、(第1のメディアユーザインタフェースをオーバーレイすることとは対照的に)第1のメディアユーザインタフェース内に統合される。いくつかの実施形態では、コンテンツの再生を修正するためのユーザインタフェース要素は、再生、一時停止、早送り、巻き戻し、字幕の表示、及び/又は第1のメディアユーザインタフェースに提示されているコンテンツに関連付けられたオーディオを修正するためのユーザインタフェース要素を含む。いくつかの実施形態では、第1のメディアユーザインタフェースはまた、第1のメディアユーザインタフェースに提示されているコンテンツが没入コンテンツである場合(方法1400においてより詳細に説明されるように)、第3の(例えば没入)提示モードでコンテンツを再生することに関連付けられたユーザインタフェース要素を含む。いくつかの実施形態では、1つ以上のユーザインタフェース要素は、ユーザの視線が第1のメディアユーザインタフェース要素に向けられている間に電子デバイスのユーザが(例えば、ユーザの手の親指及び人差し指などで)ピンチジェスチャを実行したことを電子デバイスが検出した後に、第1のメディアユーザインタフェースに表示される。いくつかの実施形態では、ユーザインタフェース要素は、ユーザの視線のみが第1のメディアユーザインタフェースに向けられているとき、及び/又はユーザの手がピンチジェスチャの開始を実行している間にユーザの視線が第1のメディアユーザインタフェースに向けられているとき(例えば、ユーザの手の親指と人差し指が閾値距離(例えば、0.5、1、1.5、3、又は6cm)を超えて離れており、互いの上述の閾値距離内にまだ収束していないときなど)、第1のメディアユーザインタフェースに表示される。
【0254】
第1のメディアユーザインタフェースにユーザインタフェース要素を表示すること(例えば、オーバーレイされるか、又は統合される)は、コンテンツの再生を修正すること、及びかかる制御と対話することに関連付けられたユーザインタフェース要素を表示する効率的な方法を提供し、それによって、第1のメディアユーザインタフェースに関与するとき、及び第1のメディアユーザインタフェースの再生を修正するときのユーザの認知的負担を低減する。
【0255】
いくつかの実施形態では、第1のメディアユーザインタフェースが第1の提示モードでコンテンツを提示している間に、三次元環境は、コンテンツの再生を修正するために選択可能な1つ以上のユーザインタフェース要素を含む、第1のメディアユーザインタフェースとは別個の再生制御ユーザインタフェースを含み、第1のメディアユーザインタフェースは、コンテンツの再生を修正するために選択可能な1つ以上のユーザインタフェース要素を含まない(1008a)。例えば、
図9Bにおいて、再生制御ユーザインタフェース908は、拡張提示モード中にユーザインタフェース906とは別に表示される。いくつかの実施形態では、コンテンツがピクチャインピクチャ提示モードで提示されていない場合、コンテンツは第1の提示モードで提示されている。いくつかの実施形態では、コンテンツが第2の提示モード中のコンテンツの表示サイズよりも大きい表示サイズで提示されている場合、コンテンツは第1の提示モードで提示されている。いくつかの実施形態では、コンテンツがデフォルトの提示モードで提示されている(例えば、第1のメディアユーザインタフェースに関連付けられたビデオプレーヤアプリケーションにおいてネイティブに再生している)とき、コンテンツは第1の提示モードで提示されている。
【0256】
いくつかの実施形態では、再生制御ユーザインタフェースを表示している間に、電子デバイス101は、1つ以上の入力デバイスを介して、1つ以上のユーザインタフェース要素の個別のユーザインタフェース要素の選択に対応する入力を受信する(1008b)。例えば、
図9Bにおいて、電子デバイス101は、ユーザインタフェース要素908bの選択を検出する。いくつかの実施形態では、入力を受信したことに応じて、電子デバイスは、個別のユーザインタフェース要素の選択に従ってコンテンツの再生を修正する(1008c)。例えば、
図9Cにおいて、電子デバイス101が
図9Bのユーザインタフェース要素908bの選択を検出したことに応じて、電子デバイス101は、ピクチャインピクチャユーザインタフェース934にTV番組Aを表示する。例えば、第1の提示モードでのコンテンツの提示中に、第1のメディアユーザインタフェースに提示されているコンテンツの再生を修正することに関連付けられたユーザインタフェース要素が、第1のメディアユーザインタフェースとは別個の(例えば、第1のメディアユーザインタフェースと一体化されていない、及び/又は第1のメディアユーザインタフェースにオーバーレイしていない)再生制御ユーザインタフェースに表示される。いくつかの実施形態では、1つ以上のユーザインタフェース要素は、第1のメディアユーザインタフェースに提示されているコンテンツに関連付けられた字幕及び/又はオーディオの表示を修正するために、コンテンツを再生/一時停止し、コンテンツを所定の量(例えば、15、30、60、90秒)だけ前に進め、コンテンツを所定の量(例えば、15、30、60、90秒)だけ巻き戻すためのオプションを含む。いくつかの実施形態では、再生制御ユーザインタフェースは、第1のメディアユーザインタフェースとは異なる方法で、三次元環境のユーザの視点に向かって角度付けられる(例えば、ユーザの視点に対して垂直)。例えば、いくつかの実施形態では、再生制御ユーザインタフェースは、固定された基準フレームに対して上方向の傾斜で表示され、第1のメディアユーザインタフェースは、固定された基準フレームに対して平行に表示される。いくつかの実施形態では、再生制御ユーザインタフェース及び第1のメディアユーザインタフェースの両方は、ユーザの視点に対して垂直である。いくつかの実施形態では、再生制御ユーザインタフェースは、方法1400を参照してより詳細に説明されるように、コンテンツが没入コンテンツである場合、第3の提示モード(例えば、没入型提示)でコンテンツの再生を開始するオプションを含む。いくつかの実施形態では、再生制御ユーザインタフェースは、ユーザの視線が第1のメディアユーザインタフェース要素に向けられている間に電子デバイスのユーザが(例えば、ユーザの手の親指及び人差し指などで)ピンチジェスチャを実行したことを電子デバイスが検出した後に、三次元環境に表示される。いくつかの実施形態では、再生制御ユーザインタフェースは、ユーザの視線のみが第1のメディアユーザインタフェースに向けられているとき、及び/又はユーザの手がピンチジェスチャの開始を実行している間にユーザの視線が第1のメディアユーザインタフェースに向けられているとき(例えば、ユーザの手の親指と人差し指が閾値距離(例えば、0.5、1、1.5、3、6cm)を超えて離れており、互いの上述の閾値距離内にまだ収束していないときなど)に、三次元環境に表示される。
【0257】
第1の提示モード中に、第1のメディアユーザインタフェース内のコンテンツの再生を修正するためのユーザインタフェース要素を別個のユーザインタフェース内に表示することは、第1の提示モード中にかかるユーザインタフェース要素にアクセスし、それと対話する効率的な方法を提供し、それによって、第1のメディアユーザインタフェースに関与するとき、及び第1のメディアユーザインタフェースの再生を修正するときのユーザへの認知的負担を低減する。
【0258】
いくつかの実施形態では、コンテンツが第1のメディアユーザインタフェースにおいて第1の提示モードで表示されている間(例えば、いくつかの実施形態では、コンテンツがピクチャインピクチャ提示モードで提示されていない場合、コンテンツは第1の提示モードで提示されている。いくつかの実施形態では、コンテンツ/第1のメディアユーザインタフェースが、第2の提示モード中のコンテンツ/第1のメディアユーザインタフェースの表示サイズよりも大きい表示サイズで提示されている場合、コンテンツは第1の提示モードで提示されている。いくつかの実施形態では、コンテンツがデフォルトの提示モードで提示されている(例えば、第1のメディアユーザインタフェースに関連付けられたビデオプレーヤアプリケーションにおいてネイティブに再生している)とき、コンテンツは第1の提示モードで提示されている。)、コンテンツを第1の提示モードから第2の提示モードに遷移するために選択可能な第1の個別のユーザインタフェース要素を有する第1のメディアユーザインタフェースを同時に表示している(例えば、コンテンツを第1の提示モードで提示されている状態から第2の提示モード(例えば、ピクチャインピクチャ提示モード)に遷移するために選択可能なユーザインタフェース要素が表示されている)間、電子デバイス101は、1つ以上の入力デバイスを介して、
図9Bのユーザインタフェース要素908bの選択などの第1の個別のユーザインタフェース要素の選択に対応する第1の入力を受信する(1010a)。
【0259】
いくつかの実施形態では、第1の入力の受信(例えば、メディアユーザインタフェースにおけるコンテンツの提示の中止)に応じて(1010b)、電子デバイスは、表示生成構成要素を介して、第2の提示モードでコンテンツを提示している第2のメディアユーザインタフェース(例えば、第1のメディアユーザインタフェースとは異なる)を表示する(1010c)。例えば、電子デバイス101が
図9Bのユーザインタフェース要素908bの選択を検出したことに応じて、電子デバイス101は、TV番組Aの表示をユーザインタフェース906から
図9Cのピクチャインピクチャユーザインタフェース934に遷移する。例えば、第1の入力を受信した後、コンテンツは、メディアアプリケーションの第1のメディアユーザインタフェースにおける再生から第2のメディアユーザインタフェース(例えば、ピクチャインピクチャユーザインタフェース)に遷移する。いくつかの実施形態では、第2のメディアユーザインタフェースは、(例えば、三次元環境において)第1のメディアユーザインタフェースよりもサイズが小さい(例えば、三次元環境において第1のメディアユーザインタフェースよりも小さい幅及び/又は高さを有する)。いくつかの実施形態では、第2のメディアユーザインタフェースによって占有されるユーザの視野の部分は、第1のメディアユーザインタフェースによって占有されるユーザの視野の部分よりも小さい。
【0260】
いくつかの実施形態では、第1の入力を受信したことに応じて(1010b)、電子デバイスは、
図9Cの表現940~958などの、第1又は第2のメディアユーザインタフェースにおいて第1のコンテンツアイテムを再生させるために選択可能な第1のコンテンツアイテムの第1の選択可能な表現を含む、1つ以上のコンテンツアイテムの1つ以上の選択可能な表現を、第1のメディアユーザインタフェースに表示する(1010d)。例えば、第1の入力を受信した後、(例えば、コンテンツが第2のメディアユーザインタフェースで再生を開始する前にコンテンツを提示していた)第1のメディアユーザインタフェースは、(例えば、第1のメディアユーザインタフェース内又は第2のメディアユーザインタフェース内で)対応するコンテンツアイテムの再生を引き起こすために選択可能なコンテンツアイテムの表現の表示を開始する。いくつかの実施形態では、1つ以上の選択可能な表現に対応するコンテンツアイテムは、ユーザのコンテンツ消費履歴に基づいて推奨されているコンテンツアイテムに対応する。いくつかの実施形態では、1つ以上の選択可能な表現に対応するコンテンツアイテムは、流行している、人気がある、及び/又は新たにリリースされたコンテンツアイテムに対応する。
【0261】
第1のメディアユーザインタフェースに提示されていたコンテンツが異なるユーザインタフェースに表示され始めたときに追加のコンテンツアイテムの表現を含むように第1のメディアユーザインタフェースを更新することは、コンテンツが第2の提示モードで提示されているのと同時に(追加の入力を必要とせずに)追加のコンテンツアイテムにアクセスする効率的な方法を提供し、それによって、第1のメディアユーザインタフェースに関与するとき、及び第1のメディアユーザインタフェースに提示されているコンテンツの提示を修正するときのユーザの認知的負担を低減する。
【0262】
いくつかの実施形態では、第1の入力を受信したことに応じて、第2のメディアユーザインタフェースにおいて第2の提示モードでコンテンツを提示する前に、電子デバイスは、第1のメディアユーザインタフェースにおける第1の提示モードから第2のメディアユーザインタフェースにおける第2の提示モードに遷移するコンテンツのアニメーションを表示する(1012a)。例えば、電子デバイス101がTV番組Aの提示を
図9Bに示す拡張提示モードから
図9Cに示すピクチャインピクチャ提示モードへ遷移するときにアニメーションが表示される。例えば、コンテンツを第1の提示モードで提示されている状態から第2の提示モードに変更する要求を受信した後、コンテンツが第1の提示モードから第2の提示モードに遷移していることを示すアニメーションが表示される。いくつかの実施形態では、アニメーションは、第1のメディアユーザインタフェースにおいて視覚的に強調されていない(例えば、フェードアウトしている)コンテンツ、及び/又は第2のメディアユーザインタフェースにおいて視覚的に強調されている(例えば、フェードインしている)コンテンツを含む。いくつかの実施形態では、アニメーションは、コンテンツが第2のメディアユーザインタフェースで現在提示されていることを示すために、第2のメディアユーザインタフェースを視覚的に強調表示することを含む。いくつかの実施形態では、第2のメディアユーザインタフェースは、コンテンツが閾値時間の量(例えば、5、10、20、40、60、120秒)にわたって第2のメディアユーザインタフェースに提示されるまで、又はユーザの注意が第2のメディアユーザインタフェースに向けられる(例えば、ユーザの視線が第2のメディアユーザインタフェースに向けられる)まで、強調表示又は視覚的に強調され続ける。いくつかの実施形態では、アニメーションは、第1のメディアユーザインタフェースのロケーションから表示されるべき第2のメディアユーザインタフェースのロケーションまで三次元環境内で縮小する及び(/又は)移動するコンテンツを含む。
【0263】
コンテンツが第1の提示モードから第2の提示モードに遷移しているときにアニメーションを表示することは、コンテンツに関連付けられた現在の提示モードを示す効率的な方法を提供し、それによって、第1のメディアユーザインタフェースに提示されているコンテンツに関与するときのユーザの認知的負担を低減する。
【0264】
いくつかの実施形態では、第2のメディアユーザインタフェースにおいて第2の提示モードでコンテンツを提示している間(例えば、コンテンツがピクチャインピクチャユーザインタフェースで提示されている間)、電子デバイスは、1つ以上の入力デバイスを介して、
図9Dのユーザインタフェース要素936を選択するための入力などの、コンテンツの提示を第2の提示モードから第1の提示モードに変更する要求に対応する第2の入力を受信する(1014a)。いくつかの実施形態では、コンテンツの提示を第2の提示モードから第1の提示モードに遷移する要求は、第2のメディアユーザインタフェース内に又は第2のメディアユーザインタフェースとともに表示されるユーザインタフェース要素が上述したように選択されたときに受信される。いくつかの実施形態では、第2の入力を受信したことに応じて(1014b)、電子デバイスは、第2のメディアユーザインタフェース及び第2のメディアユーザインタフェース内の1つ以上の選択可能な表現を表示することを中止する(1014c)。例えば、第2のユーザインタフェース(例えば、ピクチャインピクチャユーザインタフェース)は、コンテンツに関連付けられた提示モードが第2の提示モードから第1の提示モードに切り替わると、三次元環境に表示されることを停止する。いくつかの実施形態では、電子デバイスは、第1のメディアユーザインタフェースにおいてコンテンツを提示し(1014d)、コンテンツは、コンテンツが第1のメディアユーザインタフェースに表示されている間に、第1の提示モードで提示されている。例えば、電子デバイス101が、TV番組Aの再生をピクチャインピクチャ提示モードから拡張提示モードに遷移する要求を検出した場合、電子デバイス101は、ユーザインタフェース906における表現940~958をTV番組Aの再生と置き換える。例えば、コンテンツに関連付けられた提示モードが第1の提示モードに切り替わると、三次元環境における第1のメディアユーザインタフェースは、コンテンツの提示を開始する。いくつかの実施形態では、コンテンツの提示モードが第1の提示モードに切り替わると、三次元環境内のコンテンツのロケーションは、第2のメディアユーザインタフェース(例えば、ピクチャインピクチャユーザインタフェース)に対応するロケーションから、コンテンツの再生を現在容易にしているアプリケーションのロケーションに対応する三次元環境内のロケーションに変化する。いくつかの実施形態では、コンテンツが第1の提示モードで提示されているとき、コンテンツは、第2のメディアユーザインタフェースと比較してサイズがより大きい第1のメディアユーザインタフェースに提示されている(例えば、したがって、コンテンツは、第2のメディアユーザインタフェースに提示されたサイズと比較してより大きいサイズで表示される)。いくつかの実施形態では、コンテンツが第1の再生ポジションにあった間に第2の入力が受信された場合、電子デバイスは、第1の再生ポジションから第1のメディアユーザインタフェースにコンテンツを提示し始める。
【0265】
そのコンテンツの提示モードに基づいて異なるメディアユーザインタフェースにおいてコンテンツを提示することは、コンテンツに関連付けられた現在の提示モードを示す効率的な方法を提供し、それによって、第1のメディアユーザインタフェースにおいて提示されているコンテンツに関与するときのユーザに対する認知的負担を低減する。
【0266】
いくつかの実施形態では、第2の入力を受信したことに応じて、かつ第1のメディアユーザインタフェースにおいてコンテンツを第1の提示モードで提示する前に、電子デバイスは、第2のメディアユーザインタフェースにおける第2の提示モードから第1のメディアユーザインタフェースにおける第1の提示モードに遷移するコンテンツのアニメーションを表示する(1016a)。例えば、ユーザインタフェース要素936の選択に応じて、電子デバイス101がTV番組Aの提示を
図9Dに示すピクチャインピクチャ提示モードから拡張提示モードに遷移しているときに、アニメーションが表示される。例えば、コンテンツを第2の提示モードで提示されている状態から第1の提示モードに変更する要求を受信したことに応じて、コンテンツが第2の提示モードから第1の提示モードに遷移していることを示すアニメーションが表示される。いくつかの実施形態では、アニメーションは、第2のメディアユーザインタフェースにおいてフェードアウトする(例えば、視覚的に強調されない)コンテンツ、及び/又は第1のメディアユーザインタフェースにおいてフェードインする(例えば、視覚的に強調される)コンテンツを含む。いくつかの実施形態では、アニメーションは、コンテンツが(第2のメディアユーザインタフェースではなく)第1のメディアユーザインタフェースにおいて現在提示されていることを示すために、第1のメディアユーザインタフェースを視覚的に強調表示することを含む。いくつかの実施形態では、第1のメディアユーザインタフェースは、コンテンツが第1のメディアユーザインタフェース内に閾値時間量(例えば、5、10、20、40、60、120秒)にわたって提示されるまで、又はユーザの注意が第2のメディアユーザインタフェースに向けられる(例えば、ユーザの視線が第1のメディアユーザインタフェースに向けられる)まで、強調表示又は視覚的に強調され続ける。いくつかの実施形態では、アニメーションは、第2のメディアユーザインタフェースのロケーションから第1のメディアユーザインタフェースのロケーションまで三次元環境内で拡大する及び(又は移動しながら)コンテンツを含む。コンテンツが第2の提示モードから第1の提示モードに遷移しているときにアニメーションを表示することは、コンテンツに関連付けられた現在の提示モードを示す効率的な方法を提供し、それによって、第1のメディアユーザインタフェースにおいて提示されているコンテンツに関与するときのユーザの認知的負担を低減する。
【0267】
いくつかの実施形態では、第1のメディアユーザインタフェースにおいて第1の提示モードでコンテンツを提示している間(例えば、いくつかの実施形態では、コンテンツがピクチャインピクチャ提示モードで提示されていない場合、コンテンツは第1の提示モードで提示されている。いくつかの実施形態では、コンテンツが第2の提示モード中のコンテンツの表示サイズよりも大きい表示サイズで提示されている場合、コンテンツは第1の提示モードで提示されている。いくつかの実施形態では、コンテンツがデフォルトの提示モードで提示されている(例えば、第1のメディアユーザインタフェースに関連付けられたビデオプレーヤアプリケーションにおいてネイティブに再生している)とき、コンテンツは第1の提示モードで提示されている。)、電子デバイスは、1つ以上の入力デバイスを介して、第1のアプリケーションの第1のユーザインタフェースを表示する要求に対応する第1の入力を受信する(1018a)(例えば、三次元環境内で新しいアプリケーションを起動する要求が受信される)。いくつかの実施形態では、第1の入力を受信したことに応じて(1018b)、電子デバイスは、三次元環境において、第1のアプリケーションの第1のユーザインタフェースを表示する(1018c)。例えば、電子デバイスが三次元環境において第1のアプリケーションを開く/起動するための要求を受信すると、第1のアプリケーションのユーザインタフェースが三次元環境において表示される。いくつかの実施形態では、第1の入力を受信したことに応じて(1018b)、電子デバイスは、第1のメディアユーザインタフェースにおいて第1の提示モードでコンテンツを提示することを中止する(1018d)。例えば、コンテンツが第1の提示モードで提示されている間に三次元環境内のアプリケーションが起動されると、コンテンツは、第1の提示モードで提示されることを停止する。いくつかの実施形態では、第1のメディアユーザインタフェースはまた、三次元環境における表示を中止する。いくつかの実施形態では、第1の入力を受信したことに応じて(1018b)、電子デバイスは、三次元環境において、コンテンツを提示している第2のメディアユーザインタフェースを表示し(1018e)、コンテンツは、コンテンツが第2のメディアユーザインタフェースで提示されている間に、第2の提示モードで提示されている。例えば、
図9Aにおいて、電子デバイス101が、三次元環境904において新しいアプリケーションを起動する要求を受信した場合、電子デバイス101は、TV番組Aの提示を拡張提示モードからピクチャインピクチャ提示モードに自動的に遷移する。いくつかの実施形態では、第2のメディアユーザインタフェースは、第1のアプリケーションの第1のユーザインタフェースと同時に表示される。例えば、コンテンツが第1の提示モードで提示されている間に三次元環境において新しいアプリケーションを起動する要求が受信されると、コンテンツは、異なるユーザインタフェース(例えば、ピクチャインピクチャユーザインタフェース)及び異なる提示モード(例えば、第2の提示モード)で再生を開始する。いくつかの実施形態では、第1のアプリケーションのデフォルト起動ロケーションが三次元環境における第1のメディアユーザインタフェースの現在ロケーションに対応するため、三次元環境における第1のアプリケーションの起動は、コンテンツを第1の提示モードから第2の提示モードに遷移させる。いくつかの実施形態では、第1のユーザインタフェースの表示ロケーションが第1のメディアユーザインタフェースを遮蔽する(又は部分的に遮蔽する)ため、三次元環境における第1のアプリケーションの起動は、コンテンツを第1の提示モードから第2の提示モードに遷移させる。いくつかの実施形態では、第2のユーザインタフェースに提示されているコンテンツは、第1のアプリケーションの第1のユーザインタフェースによって遮蔽されていない。
【0268】
三次元環境において新しいアプリケーションを起動するための要求が受信されたときにコンテンツの提示モードを第1の提示モードから第2の提示モードに切り替えることは、三次元環境において新しいユーザインタフェースを表示するときに三次元環境においてコンテンツを表示し続ける効率的な方法を提供し、それによって、第1のメディアユーザインタフェースにおいて提示されているコンテンツに関与するときのユーザに対する認知的負担を低減する。
【0269】
いくつかの実施形態では、電子デバイスは、コンテンツの再生が所定の再生閾値に達したこと(例えば、再生が完了したこと、コンテンツアイテムの再生が終了から閾値時間量内であること(例えば、コンテンツの再生が0.5、1、1.5、3、5、10、20分で終了すること))を検出する(1020a)。いくつかの実施形態では、コンテンツの再生が所定の再生閾値に達したことを検出したことに応じて、電子デバイスは、三次元環境において、選択されると、対応するコンテンツに第1のメディアユーザインタフェースでの再生を開始させる推奨コンテンツの1つ以上の表現を含む第2のユーザインタフェースを表示する(1020b)。例えば、
図9Eにおいて、電子デバイス101は、TV番組Aの再生が完了したことを電子デバイス101が検出したことに応じて、ユーザインタフェース946を表示している。例えば、コンテンツの再生が所定の再生閾値に達したとき、第1のメディアユーザインタフェース内の新しいコンテンツの再生を開始するために選択可能なコンテンツの1つ以上の表現を含む第2のメディアユーザインタフェースが三次元環境内に表示される。いくつかの実施形態では、第2のユーザインタフェースは、コンテンツが第1の提示モードで提示されている場合に表示され、コンテンツが第1の提示モードで提示されていない場合には表示されない。いくつかの実施形態では、1つ以上の表現に対応するコンテンツは、電子デバイスのユーザのコンテンツ消費履歴に基づいて、かつ/又はユーザが以前にコンテンツを保存した/お気に入りに入れたために、推奨されているコンテンツに対応する。いくつかの実施形態では、再生制御ユーザインタフェースは、第1のメディアユーザインタフェースと同時に表示され、かつ/又はコンテンツを提示している第1のメディアユーザインタフェースの下に表示される。
【0270】
第1のメディアユーザインタフェースで再生されているコンテンツが所定の再生ポジションに達したときに、推奨コンテンツの選択可能な表現を含む第2のユーザインタフェースを表示することは、第1のメディアユーザインタフェースで再生することができる他のコンテンツへのアクセスを提供する効率的な方法を提供し、それによって、第1のメディアユーザインタフェースで提示されているコンテンツに関与するときのユーザの認知的負担を軽減する。
【0271】
いくつかの実施形態では、推奨コンテンツの1つ以上の表現は、第1の推奨コンテンツの第1の個別の表現を含む(1022a)(例えば、上述したように、コンテンツが所定の再生閾値に達したときに、第1のコンテンツアイテムに対応する表現が表示されている)。いくつかの実施形態では、ユーザの視線が第1の個別の表現に向けられている間(1022b)、ユーザの視線が(例えば、任意選択的に、第1の個別の表現及び/又は三次元環境内の任意の他の要素に向けられたユーザの手からの入力を検出することなくなど、電子デバイスのユーザによって実行されている任意の他の入力/ジェスチャを考慮することなく)閾値時間量を超えて第1の個別の表現に向けられているという判定に従って、電子デバイス101は、(例えば、第1のメディアユーザインタフェース内の)第1の推奨コンテンツの再生を開始する(1022c)。例えば、ユーザの視線が閾値時間量(例えば、5、7、9、10、20、30、60秒)を超えて第1の個別の表現に向けられた場合、第1の個別の表現に対応するコンテンツ(第1の推奨コンテンツ)は、三次元環境において再生を開始する。いくつかの実施形態では、ユーザの視線が第1の個別の表現に向けられている間(1022b)、ユーザの視線が閾値時間量を超えて第1の個別の表現に向けられていないという判定に従って、電子デバイスは、(例えば、第1のメディアユーザインタフェースにおける)第1の推奨コンテンツの再生を開始することを取り止める(1022d)。例えば、電子デバイス101は、ユーザの視線914が上述の閾値時間量の間、対応する表現946に向けられていた場合、アイテムAの再生を開始し、ユーザの視線914が上述の閾値時間量の間、対応する表現946に向けられていなかった場合、アイテムの再生を開始しない。例えば、ユーザの視線が閾値時間量(例えば、5、7、9、10、20、30、60秒)を超えて第1の個別の表現に向けられていない場合、第1の個別の表現に対応するコンテンツ(第1の推奨コンテンツ)は、ユーザの視線が上述の閾値時間量にわたって第1の個別の表現に向けられるまで、三次元環境において再生を開始しない。ユーザの視線が三次元環境に表示されている対応する表現に向けられていた時間の量に基づいてコンテンツの再生を開始することは、ユーザが追加のジェスチャ(例えば、手のジェスチャ)を実行することを必要とせずに三次元環境においてコンテンツの再生を開始する効率的な方法を提供し、それによって、第2の第1のメディアユーザインタフェースに提示されているコンテンツに関与するときのユーザへの認知的負担を低減する。
【0272】
いくつかの実施形態では、ユーザの視線が第1の個別の表現に向けられている間(例えば、かつユーザの視線が閾値時間量を超えて第1の個別の表現に向けられていない間)、電子デバイスは、第1の個別の表現に関連して視覚的インジケーションを表示し(1024a)、視覚的インジケーションは、ユーザの視線が第1の個別の表現に向けられたままであるときに更新されて、
図9Eの視覚的インジケーション915などの、閾値時間量に達することへの進行を示す。例えば、少なくとも上述の閾値時間の量(例えば、5、7、9、10、20、30、60秒)の間、ユーザの視線が第1の個別の表現に向けられるまでに残っている時間の量を示す視覚的インジケーションが表示される。いくつかの実施形態では、進度インジケータは、ユーザの視線が第1の個別の表現に向けられているとき、第1の個別の提示上にオーバーレイして表示され、ユーザの視線が第1の個別の表現に向けられていないとき、表示されない。いくつかの実施形態では、ユーザの視線が少なくとも閾値時間量にわたって第1の個別の表現に向けられたという判定に従って、視覚的インジケーションは更新されることを停止し、第1の個別の表現に対応するコンテンツ(例えば、第1の推奨コンテンツ)が三次元環境内で再生され始める。いくつかの実施形態では、視覚的インジケーションは、ユーザの視線が第1の個別の表現に向けられるときに円形に延在する記号(例えば、矢印)である。
【0273】
ユーザの視線がコンテンツの対応する表現に向けられた時間量に基づいて、新しいコンテンツが三次元環境内でいつ再生を開始するかのインジケーションを提供することは、新しいコンテンツの再生がいつ行われるかを示す効率的な方法を提供し、それによって、第2のメディアユーザインタフェース内に提示されているコンテンツに関与するときのユーザへの認知的負担を低減させる。
【0274】
いくつかの実施形態では、第2の提示モードでコンテンツを提示している間に、第1の視点に対する第1の個別のロケーションにおける第1のメディアユーザインタフェースのポーズは、ユーザの第2の視点に対する第2の個別のロケーションにおける第1のメディアユーザインタフェースのポーズと同じである(1026a)。例えば、第1のメディアユーザインタフェースは、三次元環境のユーザの現在の視点にかかわらず、ユーザの視野の所定の部分(例えば、右下、右上、左下、左上、又は下中央)に表示される。いくつかの実施形態では、第1のメディアユーザインタフェースは、三次元環境のユーザの視点に対して同じ相対ポジション及び/又は配向で(例えば、常に)表示される。
【0275】
ユーザの視点に対して同じポーズ(例えば、ポジション及び/又は配向)で第1のメディアユーザインタフェースを表示することは、三次元環境のユーザの視点にかかわらず、均一な方法で第1のメディアユーザインタフェースを表示する効率的な方法を提供し、それによって、第1のメディアユーザインタフェースに関与するときのユーザに対する認知的負担を低減する。
【0276】
いくつかの実施形態では、ユーザの第1の視点は、電子デバイスの物理的環境内の第1のロケーションに対応し、ユーザの第2の視点は、物理的環境内の、第1のロケーションとは異なる第2のロケーションに対応する(1028a)。いくつかの実施形態では、電子デバイスは、ユーザの視点からの三次元環境を、電子デバイスの物理的環境内の電子デバイスの物理的ロケーションに対応する三次元環境内のロケーションに表示する。いくつかの実施形態では、ユーザの視点の移動を検出することは、物理的環境内のユーザの少なくとも一部(例えば、ユーザの頭部、胴体、又は手)の移動を検出することを含む。いくつかの実施形態では、ユーザの視点の移動を検出することは、物理的環境における電子デバイス又は表示生成構成要素の移動を検出することを含む。いくつかの実施形態では、ユーザの視点から三次元環境を表示することは、三次元環境内のユーザの視点のロケーションに関連付けられた透視図から三次元環境を表示することを含む。いくつかの実施形態では、ユーザの視点を更新することは、電子デバイスに、ユーザの更新された視点のロケーションに関連付けられた透視図から複数の仮想オブジェクトを表示させる。例えば、電子デバイスが物理的環境における左方向の移動を検出した場合、ユーザの視点は三次元環境において左に移動し、電子デバイスは、表示生成構成要素を介して表示される複数の仮想オブジェクトのポジションを更新して右に移動させる。
【0277】
ユーザの物理的ロケーションに基づく視点から三次元環境を表示することは、物理的環境における実際のユーザのポーズ及び/又はロケーションに基づいて三次元環境と対話する効率的な方法を提供し、それによって、三次元環境に関与するときのユーザの認知的負担を低減する。
【0278】
いくつかの実施形態では、コンテンツが第1のメディアユーザインタフェースに第2の提示モードで提示されている間に、かつ第2のメディアユーザインタフェースが三次元環境内の第3の個別のロケーションに表示されている間(例えば、第1のメディアユーザインタフェース内のコンテンツが三次元環境内のピクチャインピクチャユーザインタフェースに提示されており、第2のメディアユーザインタフェースがコンテンツ推奨の表現を表示している間)、電子デバイスは、1つ以上の入力デバイスを介して、コンテンツの提示を第2の提示モードから第1の提示モードに変更する要求に対応する第2の入力を受信する(1030a)。いくつかの実施形態では、電子デバイスは、上述したように、コンテンツの提示モードを第2の提示モードから第1の提示モードに変更することに関連付けられたユーザインタフェース要素をユーザが選択したため、入力を受信する。いくつかの実施形態では、第2の入力を受信したことに応じて(1030b)、電子デバイスは、第1のメディアユーザインタフェースを表示することを中止する(1032c)。いくつかの実施形態では、第2の入力を受信したことに応じて(1030b)、第2のメディアユーザインタフェースがユーザの第2の視点に対するポーズの第2の個別の範囲内にあるという判定に従って、電子デバイスは、第2のメディアユーザインタフェース内のコンテンツを第3の個別のロケーションに提示する(1032d)。例えば、電子デバイス101が、
図9CでTV番組Aの再生を遷移する要求を受信した場合、ユーザインタフェース906のロケーションは、ユーザインタフェース906が現在、三次元環境のユーザ922の現在の視点からの視野内にあるため、変化しない。例えば、第2のメディアユーザインタフェース(例えば、ビデオプレーヤ/ビデオアプリケーションのユーザインタフェース)がユーザの視野内にある間に、コンテンツを第2の提示モードから第1の提示モードに遷移する要求が受信された場合、コンテンツは、三次元環境内の第2のメディアユーザインタフェースのロケーションが変化することなしに、第2のメディアユーザインタフェース内で再生を開始する。いくつかの実施形態では、ユーザの第2の視点に対するポーズの第2の個別の範囲は、ユーザの第2の視点からのユーザの視野内にある三次元環境内のポーズの全て(又はそのサブセット)を含む。いくつかの実施形態では、第2のメディアユーザインタフェースがユーザの第2の視点に対するポーズの第2の個別の範囲内にないという判定に従って(1032e)(例えば、いくつかの実施形態では、第2のメディアユーザインタフェースが第2の視点からのユーザの視野内にある三次元環境内のロケーションにない場合、第2のメディアユーザインタフェースはユーザの第2の視点に対するポーズの第2の個別の範囲内にない)、電子デバイスは、第2のメディアユーザインタフェースを三次元環境内の第3の個別のロケーションとは異なる第4の個別のロケーションに表示し(1032f)、第4の個別のロケーションに第2のメディアユーザインタフェースを表示することは、第2のメディアユーザインタフェースを第2の視点に対するポーズの第2の個別の範囲内にある個別のポーズで表示させ、第2のメディアユーザインタフェースはコンテンツを含む。例えば、電子デバイス101が、TV番組の再生をピクチャインピクチャ提示モードから拡張提示モードに遷移する要求を検出した場合、電子デバイス101は、ユーザインタフェース906のロケーションを三次元環境904のユーザの現在の視点からの視野内になるように更新し、三次元環境904内のユーザインタフェース906の新しいロケーションにTV番組Aを提示する。例えば、第2のメディアユーザインタフェース(例えば、ビデオプレーヤ/ビデオアプリケーションのユーザインタフェース)が第2の視点からのユーザの視野内にない間に、コンテンツを第2の提示モードから第1の提示モードに遷移する要求が受信された場合、メディアユーザインタフェースのロケーションは、ユーザの第2の視点からのユーザの視野内にあるロケーションに移動する。第2のユーザインタフェースがユーザの視野内にない場合に第2のメディアユーザインタフェースのロケーションを三次元環境内で移動させることは、第2のユーザインタフェース内にコンテンツを提示する要求が受信されたときに(第1のメディアユーザインタフェースが現在ユーザの視野内にない場合に)第2のメディアユーザインタフェースをユーザの視野内で移動させる効率的な方法を提供し、それによって、第2のメディアユーザインタフェースに関与するときのユーザの認知的負担を低減する。
【0279】
図11A~
図11Eは、いくつかの実施形態による、電子デバイスがコンテンツアイテムの個別の再生ポジションへのナビゲーションをどのように向上させるかの例を示す。
【0280】
図11Aは、表示生成構成要素120を介して、三次元環境1102を表示する電子デバイス101を示す。いくつかの実施形態では、電子デバイス101は、本開示の範囲から逸脱することなく、二次元環境において
図11A~
図11Eを参照して説明される1つ以上の技術を利用することを理解されたい。
図1~
図6を参照して上述したように、電子デバイス101は、任意選択的に、表示生成構成要素120(例えば、タッチスクリーン)及び複数の画像センサ314を含む。画像センサは、任意選択的に、可視光カメラ、赤外線カメラ、深度センサ、又は任意の他のセンサのうちの1つ以上を含み、電子デバイス101は、ユーザが電子デバイス101と相互作用している間、ユーザ又はユーザの一部の1つ以上の画像をキャプチャするために使用することができる。いくつかの実施形態では、表示生成構成要素120は、ユーザの手のジェスチャ及び移動を検出することができるタッチスクリーンである。いくつかの実施形態では、以下に示すユーザインタフェースは、ユーザにユーザインタフェースを表示する表示生成構成要素と、物理的環境及び/又はユーザの手の移動(例えば、ユーザから外向きに面する外部センサ)、及び/又はユーザの視線(例えば、ユーザの顔に向かって内向きに面する内部センサ)を検出するセンサとを含むヘッドマウントディスプレイに実装することもできる。
【0281】
図11Aにおいて、電子デバイス101は、三次元環境1102においてコンテンツアイテム1104を提示する。いくつかの実施形態では、コンテンツアイテム1104は、ビデオコンテンツのアイテムである。コンテンツアイテム1104に加えて、三次元環境1102は、壁の表現1108a、天井の表現1108b、テーブルの表現1106a、及びソファの表現1106bなどの、電子デバイス101の物理的環境内の実オブジェクトの表現を含む。電子デバイス101は、方法800の1つ以上のステップに従って、コンテンツアイテム1104よりも大きい量のぼけ及び/又は暗化を有するコンテンツアイテム1104を含まない三次元環境1102の領域を表示するなど、三次元環境1102の残りの部分に対して増大された視覚的強調を有するコンテンツアイテム1104を表示し、コンテンツアイテム1104から発する光スピルをシミュレートするために仮想照明効果1110a~dを表示する。
【0282】
図11Aに示すように、ユーザの視線1113aは、コンテンツアイテムが再生されている間に、コンテンツアイテム1104に向けられる。
図11Aのコンテンツアイテム1104の再生ポジション1106は、コンテンツアイテムの再生が継続するにつれて前進する。いくつかの実施形態では、ユーザがコンテンツアイテム1104から注意を逸らした場合、電子デバイス101はコンテンツアイテムを再生し続ける。いくつかの実施形態では、ユーザがコンテンツアイテム1104から注意を逸らした後にコンテンツアイテム1104に注意を戻すと、電子デバイス101は、選択可能オプションを提示し、このオプションは、選択されると、電子デバイス101に、ユーザがコンテンツアイテム1104から注意を逸らした時点で再生している再生ポジションに関連付けられた再生ポジションに再生ポジションを更新させる。
【0283】
例えば、
図11Bにおいて、コンテンツアイテムの再生ポジション1106が図に示される再生ポジションである間に、ユーザはコンテンツアイテム1104から注意を逸らす。いくつかの実施形態では、ユーザがコンテンツアイテム1104から注意を逸らしたことを検出することは、コンテンツアイテム1104以外の三次元環境1102内のロケーションに向けられたユーザの視線1113bを検出することを含む。いくつかの実施形態では、コンテンツアイテム1104から離れるように向けられたユーザの視線1113bを検出したことに応じて、電子デバイス101は、三次元環境1102の残りの部分に対するコンテンツアイテム1104の視覚的強調の量を減少させる。いくつかの実施形態では、ユーザの視線1113bは、ユーザの注意がコンテンツアイテム1104から離れるように向けられていると電子デバイス101が判定するために、閾値期間(例えば、1、2、3、5、10、15、30、又は45秒、1、2、3、又は5分)にわたってコンテンツアイテム1104から離れるように向けられなければならない。いくつかの実施形態では、ユーザの視線1113bがコンテンツアイテム1104から離れるように向けられた瞬間に、電子デバイス101は、ユーザの注意がコンテンツアイテム1104から離れるように向けられていると判定する。いくつかの実施形態では、ユーザがコンテンツアイテム1104から注意を逸らしたことを検出することは、任意選択的に、例えば、ユーザが眠りに落ちることに対応する少なくとも閾値期間(例えば、0.1、0.2、0.3、0.5、1、2、3、5、10、15、30、又は45秒、1、2、3、又は5分)にわたって、凡例1123に示すように、ユーザが目を閉じることを検出することを含む。いくつかの実施形態では、電子デバイス101は、コンテンツアイテム1104から離れるように向けられたユーザの注意を検出した後にコンテンツアイテム1104を再生し続け、ユーザの注意がコンテンツアイテム1104から離れるように向けられたと電子デバイス101が判定した時点におけるコンテンツアイテムの再生ポジションである、
図11Bに示す点を越えて再生ポジション1106を前進させる。
【0284】
図11Cは、選択されると、電子デバイス101に、ユーザがコンテンツアイテム1104から注意を逸らした瞬間に対応する再生ポジション1106からコンテンツアイテム1104の再生を再開させる選択可能オプション1112a及び1112bを提示する電子デバイス101を示す。いくつかの実施形態では、電子デバイス101は、コンテンツアイテム1104及び/又は準備完了状態ポーズにあるユーザの手1103bに向けられたユーザの注意を検出したことに応じて、選択可能オプション1112a及び/又は選択可能オプション1112bを提示する。いくつかの実施形態では、コンテンツアイテム1104に向けられたユーザの注意を検出することは、コンテンツアイテム1104に向けられたユーザの視線1103dを検出することを含む。いくつかの実施形態では、コンテンツアイテム1104に向けられた視線1103dを検出したことに応じて、電子デバイス101は、三次元環境1102の残りの部分に対するコンテンツアイテム1104の視覚的強調を増大させる。いくつかの実施形態では、準備完了状態ポーズにある手1103bを検出することは、親指が手1103bの別の指の閾値距離(例えば、0.1、0.2、0.3、0.5、1、2、3、又は5センチメートル)内にあるが手1103bの別の指に触れていないプレピンチ手形状にある手1103bを検出すること、又は1つ以上の指が伸ばされ、1つ以上の指が手のひらに向かって丸まっているポインティング手形状にある手1103bを検出することを含む。
図11Cに示すように、電子デバイス101はまた、方法800を参照して上記でより詳細に説明したように、準備完了状態ポーズにおいてコンテンツアイテム1104及び/又は手1103bに向けられた視線1103dを検出したことに応じて、コンテンツアイテム1104の再生を修正するための追加のオプションを含むオプション1114a及び1114b並びにユーザインタフェース要素1116を表示する。
【0285】
いくつかの実施形態では、電子デバイス101は、オプション1112a及び1112bの両方を提示する。いくつかの実施形態では、電子デバイス101は、オプション1112a又はオプション1112bを提示するが、両方は提示しない。オプション1112aは、コンテンツアイテム1104上にオーバーレイされたユーザインタフェース要素1116の外側に表示される。オプション1112bは、ユーザインタフェース要素1116に含まれるスクラブバー1111の一部として表示される。スクラブバー1111は、(オプション1112a及び/又は1112bが表示されている間に、任意選択的に再生を継続する)コンテンツアイテム1104の現在の再生ポジションのインジケーション1113を含む。電子デバイス101は、オプション1112bの選択に応じてコンテンツアイテム1104の再生が再開する再生ポジションに対応するスクラブバー1111のロケーションにオプション1112bを表示する。いくつかの実施形態では、コンテンツアイテム1104の再生が再開される再生ポジションは、
図11Bにおいてユーザがコンテンツアイテム1104から注意を逸らす再生ポジションである。いくつかの実施形態では、コンテンツアイテム1104の再生が再開される再生ポジションは、
図11Bにおいてユーザがコンテンツアイテム1104から注意を逸らすように向けた再生ポジションの所定時間(例えば、1、2、3、5、10、15、又は30秒)前又は後の再生ポジションである。
【0286】
図11Cに示すように、ユーザは、例えば、間接入力を介して、視線1103c及び手1103aでオプション1112aを選択する。いくつかの実施形態では、間接入力を介してオプション1112aの選択を検出することは、視線1103cがオプション1112aに向けられている間に手1103aの親指が手の別の指に触れるピンチジェスチャを手1103aが行ったことを検出することを含む。
図11Cは、手1103a及び視線1103dの第1の入力状態と、手1103b及び視線1103cの第2の入力状態とを示すが、いくつかの実施形態では、これらの入力状態は異なる時間に検出されることを理解されたい。いくつかの実施形態では、他の選択入力が可能である。
図11Eを参照して以下でより詳細に説明するように、オプション1112aの選択を検出したことに応じて、電子デバイス101は、コンテンツアイテムの再生ポジション1106を、ユーザがコンテンツアイテム1104から注意を逸らした時間に関連付けられた再生ポジションに更新する。
【0287】
図11Dは、例えば、直接入力を介した選択可能オプション1112bの選択を示す。いくつかの実施形態では、直接入力を介して選択可能オプション1112bの選択を検出することは、手1103aが所定の形状である間にオプション1112bの所定の閾値距離内でユーザの手1103aを検出することを含む。いくつかの実施形態では、所定の形状は、親指が手の別の指に触れるピンチ手形状である。いくつかの実施形態では、所定の形状は、1本以上の指が伸ばされ、1本以上の指が手のひらに向かって曲げられた、ポインティング手形状である。いくつかの実施形態では、直接入力は、オプション1112bに向けられたユーザの視線1103eを検出することを含み、いくつかの実施形態では、直接入力は、オプション1112bに向けられたユーザの視線1103eを検出することを含まない。いくつかの実施形態では、電子デバイス101は、
図11Cを参照して上述した間接入力又は別のタイプの選択入力と同様のオプション1112bを選択する間接入力を検出する。
図11Dに示す入力に応じて、電子デバイス101は、
図11Eに示すように、コンテンツアイテム1104の再生ポジション1106を、ユーザがコンテンツアイテム1104から注意を逸らした時間に関連付けられた再生ポジションに更新する。
【0288】
図11Eは、電子デバイス101が、
図11Bにおいてユーザがコンテンツアイテム1104から注意を逸らした時間に対応する再生ポジション1106からコンテンツアイテム1104の再生を再開することを示す。いくつかの実施形態では、電子デバイス101は、
図11Cに示す入力に応じて再生ポジション1106を更新する。いくつかの実施形態では、電子デバイス101は、
図11Dに示す入力に応じて再生ポジション1106を更新する。いくつかの実施形態では、ユーザの注意(例えば、視線1103f)はコンテンツアイテム1104に向けられ、電子デバイス101は、ユーザの注意がコンテンツアイテム1104に向けられていることに応じて、三次元環境1102の残りの部分に対してコンテンツアイテム1104を視覚的に強調する。
【0289】
【0290】
図12A~
図12Cは、いくつかの実施形態による、コンテンツアイテムの個別の再生ポジションへのナビゲーションを向上させる方法を示すフローチャートである。いくつかの実施形態では、方法1200は、表示生成構成要素(例えば、
図1、3、及び4の表示生成構成要素120)(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)と、1つ以上のカメラ(例えば、ユーザの手の下方を指すカメラ(例えば、色センサ、赤外線センサ、及び他の深度感知カメラ)又はユーザの頭部から前方を指すカメラ)とを含む、コンピュータシステム(例えば、
図1のコンピュータシステム101)において行われる。いくつかの実施形態では、方法1200は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、
図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって統御される。方法1200のいくつかの動作は、任意選択的に、組み合わされ、かつ/又はいくつかの動作の順序は、任意選択的に、変更される。
【0291】
図11Aなどのいくつかの実施形態では、方法1200は、表示生成構成要素(例えば、120)及び1つ以上の入力デバイス(例えば、314)(例えば、モバイルデバイス(例えば、タブレット、スマートフォン、メディアプレーヤ、若しくはウェアラブルデバイス)、又はコンピュータ)と通信する電子デバイス(例えば、101)において実行される。いくつかの実施形態では、表示生成構成要素は、電子デバイス(任意選択的にタッチスクリーンディスプレイ)と一体化されたディスプレイ、モニタ、プロジェクタ、テレビなどの外部ディスプレイ、又はユーザインタフェースを投影し1人以上のユーザにユーザインタフェースが可視であるようにするためのハードウェア構成要素(任意選択的に組み込み若しくは外部)などである。いくつかの実施形態では、1つ以上の入力デバイスは、ユーザ入力(例えば、ユーザ入力をキャプチャし、ユーザ入力を検出する等)を受信し、ユーザ入力に関連する情報を電子デバイスに送信することができる電子デバイス又は構成要素を含む。入力デバイスの例は、タッチスクリーン、マウス(例えば、外部)、トラックパッド(任意選択で統合又は外部)、タッチパッド(任意選択で統合又は外部)、リモートコントロールデバイス(例えば、外部)、別のモバイルデバイス(例えば、電子デバイスとは別個)、ハンドヘルドデバイス(例えば、外部)、コントローラ(例えば、外部)、カメラ、深度センサ、アイトラッキングデバイス、及び/又はモーションセンサ(例えば、ハンドトラッキングデバイス、ハンドモーションセンサ)などを含む。いくつかの実施形態では、電子デバイスは、ハンドトラッキングデバイス(例えば、1つ以上のカメラ、深度センサ、近接センサ、タッチセンサ(例えば、タッチスクリーン、トラックパッド)と通信する。いくつかの実施形態では、ハンドトラッキングデバイスは、スマートグローブなどのウェアラブルデバイスである。いくつかの実施形態では、ハンドトラッキングデバイスは、リモートコントロール又はスタイラスなどのハンドヘルド入力デバイスである。
【0292】
図11Bなどのいくつかの実施形態では、経時的に変化するコンテンツアイテム(例えば、持続時間を有するビデオ又は他のメディアアイテム)(例えば、1104)を提示している間に、かつ表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、1104)に関連付けられたユーザインタフェース(例えば、方法800、1000、及び/又は1400を参照して説明したユーザインタフェースなど)を表示している間(1202a)、コンテンツアイテム(例えば、1104)内の再生ポジション(例えば、1106)が第1の再生ポジションである間に、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)を介して(例えば、アイトラッキングデバイスを介して)、電子デバイスのユーザの注意(例えば、視線1113b)がコンテンツアイテム(例えば、1104)に関連付けられたユーザインタフェースに向けられていないときに満たされる基準を含む1つ以上の基準が満たされていることを検出する(1202b)。いくつかの実施形態では、1つ以上の基準は、ユーザがコンテンツアイテムに注意を向けていないか、又は少なくとも所定の閾値時間量(例えば、1、2、3、5、10、15、30、又は60秒)コンテンツアイテムに注意を向けていなかった場合に満たされ、1つ以上の基準は、ユーザが少なくとも所定の閾値時間量コンテンツアイテムに注意を向けていた場合に満たされない。いくつかの実施形態では、1つ以上の基準は、所定の閾値時間量(例えば、1、2、3、5、10、15、30、又は60秒)の間、(例えば、1つ以上の入力デバイスのアイトラッキングデバイスを介してユーザの視線のロケーションを検出することに基づいて)ユーザがコンテンツアイテムから目を離しているときに満たされ、(例えば、アイトラッキングデバイスを介してユーザの視線のロケーション又はユーザの目が閉じていることを検出することに基づいて)ユーザがコンテンツアイテムを見ていないときに満たされる基準を含む。いくつかの実施形態では、1つ以上の基準は、(例えば、1つ以上の入力デバイスのヘッドトラッキングデバイスを介してユーザの頭部の配向を検出することに基づいて)ユーザの既定の部分(例えば、頭部)がコンテンツアイテムから離れる方向を向いているときに満たされ、所定の閾値時間量(例えば、1、2、3、5、10、15、30、又は60秒)にわたって(例えば、ヘッドトラッキングデバイスを介してユーザの頭部の配向を検出することに基づいて)ユーザの既定の部分(例えば、頭部)がコンテンツアイテムの方を向いているときに満たされない基準を含む。いくつかの実施形態では、1つ以上の基準は、ユーザの注意がコンテンツアイテムに向けられていない瞬間に、ユーザの注意がコンテンツアイテムから離れて向けられている時間の長さに関係なく(例えば、時間閾値がない)、満たされる。いくつかの実施形態では、コンテンツアイテム及びコンテンツアイテムに関連付けられたユーザインタフェースは、三次元環境で表示される。いくつかの実施形態では、三次元環境は、アプリケーションウィンドウ、オペレーティングシステム要素、他のユーザの表現、及び/又はコンテンツアイテム、及び/又は電子デバイスの物理的環境内の物理オブジェクトの表現などの仮想オブジェクトを含む。いくつかの実施形態では、物理的オブジェクトの表現は、表示生成構成要素(例えば、仮想又はビデオパススルー)を介して三次元環境内に表示される。いくつかの実施形態では、物理オブジェクトの表現は、表示生成構成要素の透明部分を通して見える電子デバイスの物理的環境内の物理オブジェクトのビューである(例えば、真のパススルー又は現実のパススルー)。いくつかの実施形態では、電子デバイスは、ユーザの視点からの三次元環境を、電子デバイスの物理的環境内の電子デバイスの物理的ロケーションに対応する三次元環境内のロケーションに表示する。いくつかの実施形態では、三次元環境は、デバイス(例えば、仮想現実(VR)環境、複合現実(MR)環境、又は拡張現実(AR)環境などのコンピュータ生成現実(XR)環境)によって生成、表示、又は別様に視認可能にされる。いくつかの実施形態では、コンテンツアイテムは、ビデオクリップ、一連のエピソードコンテンツ(例えば、テレビ番組)内のエピソード、又は映画などのビデオコンテンツである。いくつかの実施形態では、コンテンツアイテムに関連付けられたユーザインタフェースは、コンテンツアイテムの再生を修正するための複数の選択可能オプション(例えば、再生/一時停止、スキップアヘッド、スキップバック、オーディオオプション、字幕オプション、ピクチャインピクチャオプション、フルスクリーン/没入オプションなど)を含む。
【0293】
図11Cなどのいくつかの実施形態では、1つ以上の基準が満たされていることを検出した後(例えば、1つ以上の基準が満たされていなかったのでコンテンツアイテムの再生を継続した後、1つ以上の基準が満たされていないことを検出したことに応答して)(1202c)、経時的に変化するコンテンツアイテム(例えば、1104)(例えば、持続時間を有するビデオ又は他のメディアアイテム)を提示している間、かつ表示生成構成要素(例えば、120)を介して、コンテンツアイテムに関連付けられたユーザインタフェース(例えば、方法800、1000、及び/又は1400を参照して説明されるユーザインタフェースなど)を表示している間(1202a)、コンテンツアイテム(例えば、1104)の再生ポジション(例えば、1106)が第1の再生ポジションとは異なる第2の再生ポジションである間に(例えば、1つ以上の基準が満たされなかったのでコンテンツアイテムの再生を継続した後に)、電子デバイス(例えば、101)は、1つ以上の入力デバイス(例えば、314)を介して、ユーザの注意(例えば、視線1103d)がコンテンツアイテム(例えば、1104)に関連付けられたユーザインタフェースに向けられていることを検出する(1202d)。いくつかの実施形態では、1つ以上の入力デバイスのアイトラッキングデバイスは、ユーザの視線がコンテンツアイテムに向けられていることを検出する。いくつかの実施形態では、1つ以上の入力デバイスのヘッドトラッキングデバイスは、ユーザの頭部がコンテンツアイテムの方に向けられていることを検出する。
【0294】
図11Cなどのいくつかの実施形態では、経時的に変化するコンテンツアイテム(例えば、持続時間を有するビデオ又は他のメディアアイテム)(例えば、1104)を提示している間、かつ表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、704)に関連付けられたユーザインタフェース(例えば、方法800、1000、及び/又は1400を参照して説明したユーザインタフェースなど)を表示している間(1202a)、1つ以上の基準が満たされたことを検出した後(例えば、1つ以上の基準が満たされなかったのでコンテンツアイテムの再生を継続した後、1つ以上の基準が満たされなかったことを検出したことに応じて)(1202c)、1つ以上の基準が満たされた後にユーザの注意がコンテンツアイテム(例えば、1104)に関連付けられたユーザインタフェースに向けられていることを検出したことに応じて、電子デバイス(例えば、101)は、選択されると、電子デバイス(例えば、101)に、第1の再生ポジションに関連付けられた個別の再生ポジションからコンテンツアイテム(例えば、1104)を提示させる選択可能オプション(例えば、1112a、1112b)を表示生成構成要素(例えば、120)を介して表示する(1202e)。いくつかの実施形態では、電子デバイスは、選択されると、電子デバイスに、第1の再生ポジションの所定の時間(例えば、1、2、3、5、10、又は15秒)前又は後の再生ポジションからコンテンツアイテムを提示させる選択可能オプションを提示する。いくつかの実施形態では、電子デバイスは、選択されると、電子デバイスにコンテンツアイテムを第1の再生ポジションから提示させる選択可能オプションを提示する。いくつかの実施形態では、第1の再生ポジションは、1つ以上の基準が最後に満たされなかった(例えば、ユーザがコンテンツアイテムに注意を払うのを止めたことを電子デバイスが検出した)ときに再生されていたコンテンツアイテムの部分に対応する。
【0295】
図11Cなどのいくつかの実施形態では、経時的に変化するコンテンツアイテム(例えば、持続時間を有するビデオ又は他のメディアアイテム)(例えば、1104)を提示している間に、かつ表示生成構成要素(例えば、120)を介して、コンテンツアイテムに関連付けられたユーザインタフェース(例えば、方法800、1000、及び/又は1400を参照して説明したユーザインタフェースなど)を表示している間(1202a)、1つ以上の基準が満たされたことを検出した後(例えば、1つ以上の基準が満たされなかったのでコンテンツアイテムの再生を継続した後、1つ以上の基準が満たされなかったことを検出したことに応じて)(1202c)、選択可能オプション(例えば、1112a、1112b)を表示している間に、電子デバイス(例えば、101)は、1つ以上の入力デバイスを介して、選択可能オプションの選択に対応する入力を検出する(1202f)。
【0296】
図11Eなどのいくつかの実施形態では、経時的に変化するコンテンツアイテム(例えば、持続時間を有するビデオ又は他のメディアアイテム)(例えば、1104)を提示している間に、かつ表示生成構成要素(例えば、120)を介して、コンテンツアイテム(例えば、1104)に関連付けられたユーザインタフェース(例えば、方法800、1000及び/又は1400を参照して説明したユーザインタフェースなど)を表示している間(1202a)、1つ以上の基準が満たされたことを検出した後(例えば、1つ以上の基準が満たされなかったのでコンテンツアイテムの再生を継続した後、1つ以上の基準が満たされなかったことを検出したことに応じて)(1202c)、入力を検出したことに応じて、電子デバイス(例えば、101)は、コンテンツアイテム(例えば、1104)の再生ポジション(例えば、1106)を第1の再生ポジションに関連付けられた個別の再生ポジションに更新する(例えば、第1の再生ポジションに関連付けられた再生ポジションからコンテンツアイテムの再生を継続する)(1202g)。
【0297】
1つ以上の基準が満たされたことを検出したことに応じて表示された選択可能オプションの選択を検出したことに応じて、第1の再生ポジションに関連付けられた再生ポジションからコンテンツアイテムの再生を再開することは、ユーザがコンテンツアイテムに注意を払うのを止めた再生ポジションからコンテンツアイテムの再生を継続する効率的な方法を提供し、それによって、ユーザ対話のための拡張ユーザインタフェース要素を提供する。
【0298】
図11Bなどのいくつかの実施形態では、1つ以上の基準は、電子デバイス(例えば、101)が、1つ以上の入力デバイス(例えば、314)(例えば、アイトラッキングデバイス)を介して、ユーザ(例えば、1123)の1つ以上の目が既定の閾値期間(例えば、1、2、3、5、10、15、若しくは30秒、又は1、2、3、5、若しくは10分)を超えて閉じていることを検出したときに満たされる基準を含む(1204)。いくつかの実施形態では、1つ以上の基準は、ユーザが眠りに落ちることに対応し、ユーザが既定の閾値期間にわたって1つ以上の目を閉じるときに満たされる基準を含む。
【0299】
ユーザが既定の閾値期間にわたって1つ以上の目を閉じたときに満たされる基準を、選択可能オプションの表示のための1つ以上の基準に含めることは、ユーザが眠りに落ちた再生ポジションからコンテンツアイテムの再生を再開する効率的な方法を提供し、それによって、入眠後にコンテンツ再生を再開するために必要な時間及び入力を低減する。
【0300】
図11Bなどのいくつかの実施形態では、1つ以上の基準は、電子デバイス(例えば、101)が、1つ以上の入力デバイス(例えば、314)(例えば、アイトラッキングデバイス)を介して、ユーザの視線(例えば、1113b)がコンテンツアイテム(例えば、1104)に関連付けられたユーザインタフェースから離れる方向に(例えば、5、10、15、若しくは30秒、又は1、2、3、5、若しくは10分などの少なくとも所定の時間閾値にわたって)向けられていることを検出したときに満たされる基準を含む(1206)。いくつかの実施形態では、ユーザの視線は、三次元環境内の別のオブジェクトに向けられる。いくつかの実施形態では、ユーザの視線は、表示生成構成要素から離れるように向けられる。
【0301】
ユーザがコンテンツアイテムに関連付けられたユーザインタフェースから既定の閾値期間にわたって視線を逸らすときに満たされる基準を、選択可能オプションを表示するための1つ以上の基準に含めることは、ユーザがコンテンツアイテムを見るのを止めた再生ポジションからコンテンツアイテムの再生を再開する効率的な方法を提供し、それによって、視線を逸らした後にコンテンツ再生を再開するのに必要な時間及び入力を低減する。
【0302】
図11Cなどのいくつかの実施形態では、コンテンツアイテム(例えば、1104)に関連付けられたユーザインタフェース(例えば、1116)は、コンテンツアイテム(例えば、1104)の再生に対応するスクラブバー(例えば、1111)を含み、選択可能オプション(例えば、1112b)は、表示生成構成要素(例えば、120)を介して、第1の再生ポジションに関連付けられた個別の再生ポジションに対応するスクラブバー(例えば、1111)内のロケーションに表示される(1208)。いくつかの実施形態では、スクラブバーは、再生中にコンテンツアイテムの再生ポジションが進むにつれて移動する、コンテンツアイテムの現在の再生ポジションのインジケーションを含む。いくつかの実施形態では、インジケーションを移動させるためのユーザ入力に応じて、電子デバイスは、インジケーションが移動されたロケーションに対応する再生ポジションからコンテンツアイテムの再生を再開する。いくつかの実施形態では、選択可能オプションは、選択可能オプションの選択を検出したことに応じて再生が再開される個別の再生ポジションに対応するロケーションで、スクラブバー上にオーバーレイして表示される。いくつかの実施形態では、選択可能オプションは、スクラブバー内の現在の再生ポジションのインジケーションに加えて表示される。
【0303】
選択可能オプションをスクラブバーに提示することは、選択可能オプションの選択を検出したことに応じてコンテンツ再生が再開される再生ポジションをユーザに示す効率的な方法を提供し、それによって、ユーザの注意がコンテンツアイテムから逸れた後にコンテンツアイテムの再生を再開するときのユーザの認知的負担を低減する。
【0304】
図11Cなどのいくつかの実施形態では、1つ以上の基準が満たされた後にユーザの注意(例えば、視線1103d)がコンテンツアイテム(例えば、1104)に関連付けられたユーザインタフェースに向けられていることを検出することは、1つ以上の入力デバイス(例えば、ハンドトラッキングデバイス)を介して、1つ以上の第2の基準を満たすポーズにあるユーザの既定の部分(例えば、手1103b)を検出することを含む(1210a)。いくつかの実施形態では、1つ以上の第2の基準を満たすポーズは、親指が指に触れることなく手の別の指の閾値距離(例えば、0.1、0.2、0.5、1、2、3、又は5センチメートル)内にあるプレピンチ手形状、又は1つ以上の指が伸ばされ、1つ以上の指が手のひらに向かって丸まっているポインティング手形状を含む。
【0305】
いくつかの実施形態では、1つ以上の基準が満たされていることを検出した後、ユーザの既定部分が1つ以上の第2の基準を満たさないポーズにあることを検出した(例えば、又はユーザの既定部分が1つ以上の入力デバイスの感知範囲外にあるため、ユーザの既定部分を検出しなかった)ことに応じて、電子デバイス(例えば、101)は、
図11Aなどの選択可能オプションの表示を取り止める(1210b)。いくつかの実施形態では、ユーザの視線がコンテンツアイテムに向けられている場合であっても、電子デバイスは、電子デバイスが1つ以上の第2の基準を満たすポーズでユーザの既定の部分を検出しない限り、及び検出するまで、選択可能オプションを表示しない。いくつかの実施形態では、電子デバイスは、方法800の1つ以上のステップに従って、1つ以上の第2の基準を満たすポーズにあるユーザの既定の部分を電子デバイスが検出しない限り及び検出するまで、(コンテンツアイテムを提示している間に)コンテンツアイテムに関連付けられたユーザインタフェースの表示を取り止める。
【0306】
1つ以上の第2の基準を満たすポーズにあるユーザの既定の部分を電子デバイスが検出しない限り及び検出するまで、選択可能オプションの表示を取り止めることは、ユーザがコンテンツアイテムと対話しようとするまでの注意散漫の低減、及びユーザが対話する準備ができたときにコンテンツアイテムとの対話を容易にする効率的な方法を提供し、それによって、ユーザインタフェースの強化された表示を通じてユーザの認知的負担を低減する。
【0307】
図11Cなどのいくつかの実施形態では、1つ以上の基準が満たされた後に、ユーザの注意(例えば、視線1103d)がコンテンツアイテム(例えば、1104)に関連付けられたユーザインタフェースに向けられていることを検出したことに応じて、表示生成構成要素(例えば、120)を介して、選択可能オプション(例えば、1112a、1112b)を有するコンテンツアイテムの再生を制御するための1つ以上の選択可能要素を(例えば、ユーザインタフェース要素1116内に)同時に表示する(1212)。いくつかの実施形態では、ユーザの注意がコンテンツアイテムに関連付けられたユーザインタフェースに向けられていることを検出することは、上記でより詳細に説明されたように、1つ以上の基準を満たすポーズでユーザの既定の部分(例えば、手)を検出することを含む。いくつかの実施形態では、1つ以上の選択可能要素は、コンテンツアイテムの再生、一時停止、前方へのスキップ、又は後方へのスキップのためのオプション、コンテンツアイテムの字幕又はオーディオオプションを見るためのオプション、方法800の1つ以上のステップに従って仮想照明効果を切り替えるためのオプション、方法1000の1つ以上のステップに従ってピクチャインピクチャ要素におけるコンテンツアイテムの提示を切り替えるためのオプション、及び方法1400の1つ以上のステップに従って没入モードでコンテンツアイテムを提示することを切り替えるためのオプションを含む。いくつかの実施形態では、1つ以上の選択可能要素は、ユーザインタフェース要素(例えば、コンテナ、ウィンドウ、プラッタなど)に提示される。いくつかの実施形態では、選択可能オプションは、ユーザインタフェース要素に提示される。いくつかの実施形態では、選択可能オプションは、ユーザインタフェース要素の外側に提示される。
【0308】
ユーザの注意がコンテンツアイテムに関連付けられたユーザインタフェースに向けられたことに応じて、1つ以上の選択可能要素を選択可能オプションと同時に表示することは、コンテンツアイテムとの複数の可能なユーザ対話を容易にする効率的な方法を提供し、それによって、ユーザの注意がコンテンツアイテムに戻ったときにコンテンツアイテムと対話するための入力の時間及び数を低減する。
【0309】
図11Cなどのいくつかの実施形態では、選択可能オプション(例えば、1112a)を表示している間に、かつ選択可能オプション(例えば、1112a)の選択を検出する前に、電子デバイス(例えば、101)は、第2の再生ポジションからコンテンツアイテム(例えば、1104)を再生し続ける(1214)。いくつかの実施形態では、コンテンツアイテムの再生ポジションは進み続けるが、選択可能オプションは個別の再生ポジションに関連付けられたままである。いくつかの実施形態では、選択可能オプションが表示されている間に受信されるコンテンツアイテムを一時停止するための入力に応じて、電子デバイスは、コンテンツアイテムを一時停止し、選択可能オプションを表示し続ける。いくつかの実施形態では、選択可能オプションが表示されている間に受信されるコンテンツアイテムを一時停止するための入力に応じて、電子デバイスは、コンテンツアイテムを一時停止し、選択可能オプションの表示を中止する。
【0310】
選択可能オプションを表示している間にコンテンツを再生し続けることは、ユーザの注意がコンテンツアイテムに戻ったときに、そうするための追加の入力を必要とせずにコンテンツアイテムを提示する効率的な方法を提供し、それによって、ユーザが電子デバイスを迅速かつ効率的に使用することを可能にする。
【0311】
図11Dなどのいくつかの実施形態では、選択可能オプション(例えば、1112b)の選択に対応する入力を検出することは、1つ以上の入力デバイス(例えば、314)(例えば、アイトラッキングデバイス)を介して、ユーザの既定の部分(例えば、手1103a)が個別のジェスチャを実行している間に、選択可能オプション(例えば、1112b)に向けられたユーザの視線(例えば、1103e)を検出することを含む(1218)。いくつかの実施形態では、個別のジェスチャは、ユーザが手の親指を手の別の指にタッチするピンチジェスチャである。いくつかの実施形態では、個別のジェスチャは、ユーザが手の指を個別のユーザインタフェース要素(例えば、選択可能オプション又は選択可能オプション以外の入力ユーザインタフェース要素)に対応するロケーションにタッチするタップジェスチャである。
【0312】
ユーザの既定の部分が個別のジェスチャを実行している間にオプションに向けられたユーザの視線を検出したことに応じて選択可能オプションを選択することは、選択可能オプションとのユーザ対話を容易にする効率的な方法を提供し、それによって、電子デバイスに入力を提供するために必要とされる時間及び認知的負担を低減する。
【0313】
図13A~
図13Eは、本開示のいくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する例示的な方法を示す。
【0314】
図13Aは、電子デバイス101の表示生成構成要素120によって表示されている三次元環境1304と、三次元環境1304の俯瞰
図1327とを示す。
図1~
図6を参照して上述したように、電子デバイス101は、任意選択的に、表示生成構成要素(例えば、タッチスクリーン)と、複数の画像センサ(例えば、
図3の画像センサ314)と、を含む。画像センサは、任意選択的に、可視光カメラ、赤外線カメラ、深度センサ、又は任意の他のセンサのうちの1つ以上を含み、電子デバイス101は、ユーザが電子デバイス101と相互作用している間、ユーザ又はユーザの一部の1つ以上の画像をキャプチャするために使用することができる。いくつかの実施形態では、以下に示されるユーザインタフェースはまた、ユーザインタフェースをユーザに表示する表示生成構成要素と、物理的環境、ユーザの手の移動(例えば、ユーザから外向きに面する外部センサ)、及び/又はユーザの視線(例えば、ユーザの顔に向かって内向きに面する内部センサ)を検出するためのセンサとを含む、ヘッドマウントディスプレイ上に実現され得る。
【0315】
図13Aでは、電子デバイス101は、メディアユーザインタフェース1306と、再生制御ユーザインタフェース1312と、第1の壁の写真の表現1308(物理的環境1302内の物理オブジェクト)と、第2の壁の写真の表現1310(物理的環境1302内の物理オブジェクト)と、コーヒーテーブルの表現1314(物理的環境1302内の物理オブジェクト)と、机の表現1324(物理的環境1302内の物理オブジェクト)とを含む三次元環境1304を表示している。いくつかの実施形態では、ユーザインタフェース1306及び1312並びに表現1308、1310、1314、及び1324は、これらのオブジェクトが三次元環境1304のユーザ1322の現在の視点からの視野内にあるため、電子デバイス101によって表示されている。
【0316】
例えば、
図13Aの俯瞰
図1327に示されるように、ユーザ1322は、現在、三次元環境1304の中心に対応するポジションから、三次元環境1304の背面に向かって配向されるポーズを伴って、三次元環境1304を視認している。本開示の残りの部分における説明を容易にするために、ユーザ1322が三次元環境1304を見ているポジション/ポーズは、三次元環境1304のユーザ1322の現在の視点、又はより単純に、俯瞰
図1327に示されるユーザ1322の視点と称されるであろう。したがって、これらのオブジェクトが三次元環境1304のユーザの現在の視点からの視野内にあるため、電子デバイス101は、表示生成構成要素120を介して、表現1308、1310、1314、及び1324、並びにユーザインタフェース1306及び1312を表示する。逆に、電子デバイス101は、表示生成構成要素120を介して、ソファ(物理的環境1302内の物理オブジェクト)の表現1325、コーナーテーブル(物理的環境1302内の物理オブジェクト)の表現1328、並びにユーザインタフェース1326及び1330を表示していない。なぜなら、これらのオブジェクトは、三次元環境1304のユーザの現在の視点からの視野内にないからである。
【0317】
いくつかの実施形態では、三次元環境1304のユーザ1322の視点は、電子デバイス101の物理的環境1302(例えば、動作環境100)におけるユーザ1322の物理的ロケーションに対応する。例えば、ユーザ1322の視点は、任意選択的に、ユーザ1322が現在物理的環境1302内の後壁に向かって配向されており、電子デバイス101を保持している(例えば、又はデバイス101がヘッドマウントデバイスであった場合にはデバイス101を装着している)間に物理的環境1302の中心に位置するため、俯瞰
図1327に示される視点である。
【0318】
図13Aに示すように、メディアユーザインタフェース1306は、メディアアイテム1323(例えば、TV番組、映画、ライブスポーツゲームなど)を現在提示している。いくつかの実施形態では、以下でより詳細に説明するように、電子デバイス101は、没入型提示モード及び非没入型提示でメディアアイテム1323を提示することができる。
図13Aに示す例では、電子デバイス101は、メディアアイテム1323を非没入型提示モードで提示している。いくつかの実施形態では、メディアアイテム1323が非没入型提示モードで提示されているとき、メディアユーザインタフェース1306は、メディアアイテム1323の部分が表示されるX、Y、及び/又はZ方向の境界を定義する。いくつかの実施形態では、コンテンツが非没入型提示モードで提示されている間に、メディアアイテム1323の1つ以上の部分は表示されない。例えば、
図13Aにおいて、ユーザインタフェース1306は、第1のオブジェクト1318(例えば、サッカーゴール)及び第2のオブジェクト1320(例えば、サッカーボール)を含むメディアアイテム1323の一部を提示しているが、メディアアイテム1323は、ユーザインタフェース1306に表示されていない他の部分(例えば、対戦相手のサッカーゴールを含むメディアアイテム1323の部分、サッカー競技場の追加の部分、サッカーの試合を観戦しているファンの表現など)も含み得る。
【0319】
いくつかの実施形態では、メディアアイテム1323は、非没入型提示モード中に二次元コンテンツとして任意選択的に提示される。例えば、電子デバイスが非没入型提示モードでメディアアイテム1323を提示している間に、メディアアイテム1323(第1のオブジェクト1318及び第2のオブジェクト1320を含む)は、メディアユーザインタフェース1306によって定義されるX及び/又はY境界を超えて延在しない平面に表示されてもよい。逆に、いくつかの実施形態では、メディアアイテム1323は、非没入型提示モード中に三次元コンテンツとして任意選択的に提示される。例えば、電子デバイスが非没入型提示モードでメディアアイテム1323を提示している間に、メディアアイテム1323(第1のオブジェクト1318及び第2のオブジェクト1320を含む)は、メディアユーザインタフェース1306によって定義されたX、Y、及び/又はZ境界内の三次元コンテンツとして表示されてもよい。いくつかの実施形態では、非没入型提示モード中のメディアアイテム1323のサイズ(及びメディアアイテム1323のオブジェクトのサイズ)は、メディアアイテム1323のコンテンツ作成者によって定義され、かつ/又はメディアユーザインタフェース1306によって定義される境界内に収まるようにスケーリングされる。
【0320】
いくつかの実施形態では、メディアアイテム1323が非没入型提示モードで提示されているとき、メディアユーザインタフェース1306は、ユーザの視野内の空間の閾値量未満(例えば、ユーザの視野内の空間の75%、60%、50%、40%、30%、20%、10%、又は5%未満)を占有する。例えば、
図13Aに示されるように、メディアユーザインタフェースオブジェクト1306は、ユーザの視野内の空間の前述の閾値量未満を占有しており、結果として、三次元環境1304の他の部分は、ユーザの視野内のメディアユーザインタフェース1306によって遮蔽/不明瞭にされていない。
【0321】
俯瞰
図1327にも示されるように、電子デバイス101は、三次元環境1304において、俯瞰
図1327に示されるロケーションに再生制御ユーザインタフェース1312を表示している。いくつかの実施形態では、電子デバイス101は、三次元環境1304内の対応するメディアユーザインタフェース(例えば、メディアユーザインタフェース1306)のロケーションのために(例えば、それに基づいて)、再生制御ユーザインタフェース1312を俯瞰
図1327に示されるロケーションに表示する。例えば、電子デバイス101は、そのロケーションがメディアユーザインタフェース1306(例えば、それが対応するメディアユーザインタフェース)の閾値距離(例えば、0.5、1、3、5、7、15、30、90、100、又は500インチ)内にあるため、俯瞰
図1327に示される三次元環境1304内のロケーションに再生制御ユーザインタフェース1312を表示している。
【0322】
いくつかの実施形態では、再生制御ユーザインタフェース1312は、電子デバイス101が再生制御ユーザインタフェース1312を表示する要求を検出したことに応じて、三次元環境1304に表示されている。いくつかの実施形態では、再生制御ユーザインタフェース1312を表示する要求を検出することは、ユーザ1322の手1331が「ポインティング」ポーズ(例えば、手1331の1つ以上の指が伸ばされ、手1331の1つ以上の指が手1331の手のひらに向かって丸まっている)又は「プレピンチ」ポーズ(例えば、手1331の親指が手1331の別の指の閾値距離(例えば、0.1、0.2、0.3、0.5、1、2、3、又は5センチメートル)内にあるが、タッチしていない)にある間に、ユーザの視線がメディアユーザインタフェース1306に向けられたことを検出することを含む。加えて、いくつかの実施形態では、再生制御ユーザインタフェース1312及びメディアユーザインタフェース1306は、三次元環境1304のユーザの視点に対して異なる視野角で表示される。例えば、三次元環境1304の側面
図1333に示されるように、電子デバイス101は、三次元環境1304のユーザの視点に対して垂直にメディアユーザインタフェース1306を表示しており、再生制御ユーザインタフェース1312は、三次元環境1304のユーザの視点に対して上方向に角度付けられている(例えば、傾けられている)。加えて、側面
図1333に示すように、電子デバイス101は、以下でより詳細に説明するように、メディアユーザインタフェース1306よりも低い三次元環境1304内の高さに再生制御ユーザインタフェース1312を任意選択的に表示する。
【0323】
また、
図13Aに示すように、再生制御ユーザインタフェース1312は、ユーザインタフェース要素1312a~1312jを含む。ユーザインタフェース要素1312aは、選択されると、電子デバイス101に、(
図13C及び
図13Dで説明されるように)没入型提示モードでメディアアイテム1323を提示させる。いくつかの実施形態では、ユーザインタフェース要素1312aは、電子デバイス101が没入型提示モードでメディアアイテム1323を表示することができる(例えば、メディアアイテム1323を三次元で提示することができる)場合に表示され、メディアアイテム1323を没入型提示で提示することができない(例えば、メディアアイテム1323を三次元で提示することができない)場合には表示されない。ユーザインタフェース要素1312bは、選択されると、
図9A~
図9E及び方法1000で説明したように、電子デバイス101に、ピクチャインピクチャ提示モードでメディアアイテム1323を表示させる。ユーザインタフェース要素1312cは、選択されると、電子デバイス101に、ユーザインタフェース1306内に提示されているコンテンツを、選択されると対応するコンテンツアイテムを再生させるコンテンツアイテムの1つ以上の表現を含むコンテンツ再生キューと置換させる。ユーザインタフェース要素1312dは、選択されると、電子デバイス101に、メディアアイテム1323を所定の量だけ(例えば、10、15、20、30、40、又は60秒だけ)巻き戻しさせる。ユーザインタフェース要素1312eは、選択されると、電子デバイス101に、メディアアイテム1323の再生を一時停止させる(例えば、メディアアイテム1323がメディアユーザインタフェース1306で現在再生されている場合)か、又はメディアアイテム1323の再生を開始させる(例えば、メディアアイテム1323がメディアユーザインタフェース1306で現在一時停止されている場合)。ユーザインタフェース要素1312eは、選択されると、電子デバイスに、メディアアイテム1323を所定の量だけ(例えば、10、15、20、30、40、又は60秒だけ)早送りさせる。ユーザインタフェース要素1312gは、選択されると、メディアアイテム1323に関連付けられた字幕メニューを電子デバイス101に表示させる。ユーザインタフェース要素1312hは、選択されると、方法800で説明したように、電子デバイス101に三次元環境1304の仮想照明効果を調整させる。ユーザインタフェース要素908iは、選択されると、電子デバイス101にメディアアイテム1323の再生ボリュームを修正させる。最後に、
図13Aに図示されるように、再生制御ユーザインタフェース1312はまた、スクラブバー1312j内の現在のスクラブポジションの視覚的インジケーション1312kを含む、スクラブバー1312jを含む。
【0324】
加えて、
図13Aに示されるように、スクラブバー1312jは、以前のスクラブポジション(垂直破線によって示される)から新しいスクラブポジション(視覚的インジケーション1312kによって示される)までスクラブされている。いくつかの実施形態では、電子デバイス101は、以前のスクラブポジションから新しいスクラブポジションへスクラブする要求を検出した。なぜなら、視覚的インジケーション1312kが以前のスクラブポジションに表示されていた間に手1331が視覚的インジケーション1312kを(例えば、上述したように、「ポインティング」ポーズ又は「ピンチング」ポーズで)選択し、視覚的インジケーション1312kを選択した後(及び任意選択的に、視覚的インジケーション1312kを選択するために使用されたポーズを維持しながら)、手1331は、視覚的インジケーション1312kによって示される現在のスクラブポジションに対応するロケーションに物理的に移動したからである。
図13Aは、視覚的インジケーション1312kの選択後にユーザの手1331が右に移動することを示しているが、ユーザの手が左に移動するとき、メディアアイテム1322は、類似の方法でスクラブされてもよい(しかし、スクラブポジションは、時間的に後方に移動される)ことが理解される。
【0325】
いくつかの実施形態では、電子デバイス101が、スクラブバー1312jがスクラブされているときに非没入型提示モードでメディアアイテム1322を提示している場合、メディアユーザインタフェース1306は、スクラブバー1312j内の現在のスクラブポジションに対応するように(例えば、リアルタイムで)更新される。例えば、
図13Aにおいて、電子デバイス101は、メディアアイテム1323の第1のオブジェクト1318及び第2のオブジェクト1320(例えば、メディアアイテム1323のコンテンツ)を提示している。なぜなら、このコンテンツは、(視覚的インジケーション1312kによって示される)スクラブバー1312j内の現在のスクラブポジションに対応するからである。電子デバイス101が、スクラブバー1312jにおけるスクラブポジションの更なる移動を検出した(例えば、視覚的インジケーション1312kにおいて示されるスクラブポジションから前方又は後方にスクラブされた)場合、電子デバイス101は、スクラブバー1312j内の更新されたスクラブポジションに対応するメディアアイテム1323のコンテンツでメディアユーザインタフェース1306を更新することになることが理解される。
【0326】
図13Bでは、電子デバイス101は、三次元環境1304のユーザの視点が
図13Aに示す視点から
図13Bに示す視点に移動したことを検出している。いくつかの実施形態では、三次元1304のユーザの視点は、ユーザ1322が物理的環境1302内の対応するポーズ及び/又はロケーションに移動したため、
図13Bに示される視点に移動した。三次元環境1304のユーザの視点が
図13Bに示される視点に移動したことを検出したことに応じて、電子デバイス101は、三次元環境1304のユーザの新しい視点から三次元環境1304を表示する。具体的には、デバイス101の表示生成構成要素120は、現在、ユーザインタフェース1326及び1330並びに表現1325及び1328を表示しているが、これは、これらのオブジェクトが現在、
図13Bに示されるユーザの視点からの視野内にあるためである。
【0327】
いくつかの実施形態では、メディアアイテムが非没入型提示で提示されている場合、関連付けられたメディアユーザインタフェース(単数又は複数)及び/又は再生制御ユーザインタフェース(単数又は複数)のロケーションは、三次元1104のユーザの視点が変化しても三次元環境1304内で変化しない。例えば、三次元環境1304のユーザ1322の視点が
図13Aの俯瞰
図1327に示される視点から
図13Bの俯瞰
図1327に示される視点に移動したときにメディアアイテム1323が非没入型提示モードで提示されていたため、三次元環境1304におけるメディアユーザインタフェース1306及び再生制御ユーザインタフェース1312のロケーションは(
図13A及び
図13Bの俯瞰
図1327に示されるように)変化しなかった。
【0328】
図13Cは、没入型提示モードでメディアアイテム1323を提示する電子デバイス101を示す。いくつかの実施形態では、電子デバイスが
図13Aのユーザインタフェース要素1312aの選択(例えば、ユーザ1322の視線1334がユーザインタフェース要素1312aに向けられている間の「ポインティング」又は「ピンチング」ポーズによるユーザインタフェース要素1312aの選択)を検出したため、電子デバイス101は没入型提示モードでメディア1323を表示している。
【0329】
いくつかの実施形態では、没入型提示モードの間、メディアアイテム1323は、非没入型提示モードにおけるメディアアイテム1323の提示と比較して、三次元1304においてより大きな空間の量を占有する。例えば、
図13Cにおいて、メディアアイテム1323の提示を非没入型提示モードから没入型提示モードに遷移する要求を受信したことに応じて、電子デバイス101は、メディアユーザインタフェース1306の境界の外側の部分を占有し、三次元環境1304のユーザの現在の視点の周囲の空間の180度(すなわち、90、120、150、210、240、270、300、330、又は360度)に及ぶように、メディアアイテム1323を拡張する。いくつかの実施形態では、没入型提示モードの間、メディアアイテム1323は、物理的環境1302の境界を越えて拡大し、俯瞰
図1327に示されるように、三次元環境1304の部分をメディアアイテム1323の部分で置き換える。
図13Cのメディアアイテム1323は、三次元環境1304のユーザの視点の周りの180度の空間を占有するものとして示されているが、メディアアイテム1323は、ユーザの視点の周りの45、90、125、250、又は360度の空間を任意選択的に取り囲むことができることを理解されたい。また、メディアアイテム1323の再生が進むにつれて、メディアアイテム1323の新しいオブジェクトが、現在表示されているオブジェクトに加えて、又は現在表示されているオブジェクトの置換として、三次元環境1304内に提示され得ることも理解される。
【0330】
したがって、没入型提示モードでのメディアアイテム1323の提示中、メディアアイテム1323は、任意選択的に、三次元環境1304のユーザの視点の周囲180度に及ぶため、メディアアイテム1323は、任意選択的に、三次元環境1304のユーザの現在の視点の視野内の1つ以上の縁部(例えば、境界)まで延在し、また、任意選択的に、三次元環境1304のユーザの現在の視点の視野内にない三次元環境1304の部分を占有する。
【0331】
いくつかの実施形態では、没入型提示モード中に、非没入型提示モード中に三次元環境1304内に提示されなかったメディアアイテム1323の1つ以上の部分が、没入型提示モード中に提示される。例えば、俯瞰
図1327に示すように、三次元環境1304は、(
図13Aに示すような非没入型提示モード中に三次元環境1304に提示されていなかった)第3のオブジェクト1332及び第4のオブジェクト1341を含むメディアアイテム1323の部分を含む。いくつかの実施形態では、没入型提示モード中に、メディアアイテム1323の部分は、もはやメディアユーザインタフェースの境界内に収まるようにスケーリングされず、より大きな長さ、幅、及び/又は深度で表示される。例えば、没入型提示モード中に、メディアアイテム1323の部分/オブジェクト(例えば、第1のオブジェクト1318(例えば、サッカーゴール)及び第2のオブジェクト1320(例えば、サッカーボール)など)は、
図13Aの非没入型提示モードと比較してサイズが任意選択的に増大され、「実物大」の寸法で任意選択的に表示され、かつ/又はユーザ1322の視点に対して異なるロケーションに(例えば、視点のより近くに、又は視点からより遠くに)表示される。いくつかの実施形態では、没入型提示モード中のオブジェクトのサイズ及びオブジェクトの空間的配置は、メディアアイテム1323のコンテンツ作成者によって定義される。
【0332】
加えて、
図13Cでは、電子デバイス101は、ユーザの手1331が「ポインティング」ポーズにあることを検出する。ユーザの手1331が「ポインティング」ポーズにあることを電子デバイス101が検出したことに応じて、電子デバイスは、(
図13Cに示すように)再生制御ユーザインタフェース1312を表示する。いくつかの実施形態では、電子デバイス101はまた、ユーザの手1331が「プレピンチ」ポーズにあることを電子デバイス101が検出したとき、再生制御ユーザインタフェース1312を表示し得る。
【0333】
いくつかの実施形態では、ユーザインタフェース要素1312a~1312jは、没入型提示中に、非没入型提示モードと比較して異なる機能を実行する。例えば、没入型提示モード中にユーザインタフェース要素1312aが選択されると、電子デバイス101は、メディアアイテム1323の提示を(
図13Cに示すような)没入型提示モードから(
図13Aに示すような)非没入型提示モードに任意選択的に遷移する。没入型提示中のユーザインタフェース要素1312b~1312jは、任意選択的に、
図13Aの非没入型提示モードに関して前述したような1つ以上の同様の特性を有する。
【0334】
いくつかの実施形態では、没入型提示モードの間、再生制御ユーザインタフェース1312は、非没入型提示モードと比較して、ユーザの視点のより近くに表示される。例えば、
図13A及び
図13Cでは、三次元1304環境のユーザの視点は、同等である。しかしながら、
図13Cの没入型提示モードの間、再生制御ユーザインタフェース1312は、
図13Aの非没入型提示モードの間の再生制御ユーザインタフェース1312のロケーション(
図13Aの俯瞰
図1327に示される)よりもユーザの視点に近い三次元環境1304内のロケーション(
図13Cの俯瞰
図1327に示される)に表示される。
【0335】
いくつかの実施形態では、没入型提示モード中に、再生制御ユーザインタフェース1312は、三次元環境1304のユーザの視点に基づく(例えば、非没入型提示モードでメディアアイテムを提示しているメディアユーザインタフェースのロケーションに基づかない)三次元環境1304内のロケーションに表示される。例えば、
図13Cでは、電子デバイス101は、そのロケーションが三次元環境1304のユーザの現在の視点(例えば、下中央、右下、右上、左上など)からの視野内の所定の部分(例えば、所定の配向)に対応するため、及び/又はそのロケーションが三次元環境1327のユーザの現在の視点からの閾値距離(例えば、0.1、0.2、0.5、1、1.5、2、4、又は8フィート)であるため、任意選択的に、再生制御ユーザインタフェース1312を俯瞰
図1327に示されるロケーションに表示している。
【0336】
いくつかの実施形態では、電子デバイス101が没入型提示モードでメディアアイテムを提示している間に、電子デバイス101は、三次元環境1304のユーザの視点が変化するにつれて、メディアアイテム1323の異なる部分を任意選択的に表示する。例えば、
図13Dにおいて、三次元環境1304のユーザの視点は、
図13Cの俯瞰
図1327に示される視点から
図13Dの俯瞰
図1327に示される視点に移動している。いくつかの実施形態では、ユーザ1322が物理的環境1302内で
図13Cの俯瞰
図1327に示されるポーズから
図13Dの俯瞰
図1327に示されるポーズに(例えば、任意選択的に電子デバイス101と同時に)回転したため、三次元環境1304のユーザの視点は、
図13Dに示される視点に移動した。三次元環境1304におけるユーザの視点の移動の結果として、電子デバイス101は、三次元環境1304のユーザの現在の視点からの視野内に現在ある三次元環境1304及びメディアアイテム1323の部分を表示する。
【0337】
具体的には、表示生成構成要素120は、第3のオブジェクト1344(スタジアム)及び第4のオブジェクト1346(コーナーフラグ)を含むメディアアイテム1323の一部と、メディアアイテム1323の外側の三次元環境1304の一部とを現在提示している。なぜなら、これらの部分は、現在、俯瞰
図1327に示される三次元環境1304のユーザの視点からの視野内にあるからである。第1のオブジェクト1318及び第2のオブジェクト1320を含むメディアアイテム1323の部分は、
図13Dの俯瞰
図1327に示されるように、これらのオブジェクトが任意選択的に三次元環境1304のユーザの現在の視点からのユーザ1322の視野内にもはやないため、表示生成構成要素120を介してもはや表示されない。前述したように、いくつかの実施形態では、第3のオブジェクト1344及び第4のオブジェクト1346は、没入型提示モード中に三次元コンテンツとして表示され、かつ/又は任意選択的に「現実の」寸法で表示される。メディアアイテム1323が、
図13Cに示されるような180度の空間の代わりに、
図13Cの三次元環境1304のユーザの視点の周囲の360度の空間を占有した場合、メディアアイテム1323の外側の三次元環境1304の部分は、ユーザの視点が
図13Dに示される視点に移動したときに任意選択的に表示されないことを理解されたい。
【0338】
いくつかの実施形態では、三次元環境1304内の物理的環境1302の表現は、電子デバイスが没入型提示モードでメディアアイテム1323を提示している間に、視覚的に強調されない。例えば、
図13Dでは、電子デバイス101が没入型提示モードでメディアアイテム1323を提示しているため、物理的環境1302内のソファ1324及び壁の表現は、メディアアイテム1323が非没入型提示モードで提示されている間にこれらの表現が表示されていた場合よりも、没入型提示モード中に任意選択的に不透明度が低く、より透明であり、より低いコントラストで表示され、かつ/又はより低い色で表示される。
【0339】
図13Dはまた、電子デバイス101が、メディアアイテム1323を以前のスクラブポジション(スクラブバー1312j内の垂直の破線によって示される)から現在のスクラブロケーション(視覚的インジケーション1312kによって示される)までスクラブする要求を受信することを示す。いくつかの実施形態では、電子デバイス101は、手1331が視覚的インジケーション1312k(例えば、破線の垂直線によって示されるロケーションに表示されたとき)を選択した(例えば、前述の「ポインティング」又は「ピンチング」ポーズで)ことを電子デバイス101が検出したため、及び手1331がその後、視覚的インジケーション1312kによって示されるスクラブポジションに対応するロケーションに移動したため、
図13Dに示されるスクラブポジションまでスクラブする要求を受信した。
【0340】
いくつかの実施形態では、電子デバイスは、メディアアイテム1323が没入型提示モードでスクラブされている間に、メディアアイテム1323の再生を一時停止する。例えば、
図13Dにおいて、電子デバイス101は、メディアアイテム1323を以前のスクラブロケーション(破線の垂直線によって示される)から現在のスクラブポジション(視覚的インジケーション1312kによって示される)までスクラブする要求を受信したため、電子デバイス101は、メディアアイテム1323の再生を一時停止している(ユーザインタフェース要素1312eの視覚的外観が「一時停止」状態から「再生」状態に変化して、1312eの選択によって電子デバイスがメディアアイテム1323の再生を開始することを示すことによって示される)。
【0341】
加えて、メディアアイテム1323が没入型提示モードでスクラブされている間に、電子デバイス101は、スクラブバー1312j内の現在のスクラブポジション(視覚的インジケーション1312kによって示される)に対応するメディアアイテム1323内のコンテンツの(例えば、静止写真又はビデオ)プレビュー1346を任意選択的に表示する。手1331の移動(例えば、速度、距離、方向など)に従ってスクラブバー1312k内のスクラブポジションが変化するにつれて、プレビュー1346内に表示されるコンテンツは、任意選択的に、スクラブバー1312k内の現在のスクラブポジションに対応するように変化する。いくつかの実施形態では、没入モードで表示されているメディアアイテム1323のより大きなビューは、上述のスクラブ中に変更されない。
【0342】
いくつかの実施形態では、電子デバイス101がスクラブ要求の終了を検出すると、電子デバイス101は、メディアアイテム1223がスクラブバー1312j内でスクラブされた再生ポジションでメディアアイテム1323の再生を開始する。例えば、
図13Dにおいて、メディアアイテム1323を視覚的インジケーション1312kによって示されるスクラブポジションまでスクラブする要求を受信した後、電子デバイス101は、任意選択的に、手1331が「選択解除」ポーズにあることを電子デバイス101が検出すると、視覚的インジケーション1312kによって示されるスクラブポジションからメディアアイテム1323の再生を開始する。デバイス101は、没入モードで表示されているメディアアイテム1323のより大きなビュー内でメディアアイテム1323の再生を任意選択的に開始する。いくつかの実施形態では、電子デバイス101は、手1331の親指が上述の閾値距離内にあった後に手1331の別の指から離れて閾値距離(例えば、0.1、0.2、0.3、0.5、1、2、3、又は5センチメートル)を移動するときに手1331が「選択解除」ポーズにあることを検出し、及び/又は電子デバイス101は、手1331が以前に「ポインティング」ポーズにあった後にもはや「ポインティング」ポーズにないことを検出する。
【0343】
いくつかの実施形態では、非没入型提示モード中、メディアユーザインタフェース1306内に提示されるメディアアイテム1323の部分は、三次元環境1304のユーザの視点に基づく。例えば、
図13Eでは、メディアアイテム1323が非没入型提示モードで提示されている間に、ユーザ1322の視点は、
図13Aに示す視点から
図13Eに示す視点に移動している。三次元環境1304におけるユーザの視点の移動の結果として、メディアアイテム1323は、三次元環境1304のユーザの新しい視点に基づいて(例えば、俯瞰
図1327に示される視点から)表示される。具体的には、ユーザ1322は、現在、
図13Eの俯瞰
図1327に示される視点からメディアアイテム1323を視聴しているため、
図13Aに図示されるメディアアイテム1323の部分の左側にあるメディアアイテム1323のより多くの部分が、現在、ユーザインタフェース1306内に表示されている。逆に、ユーザ1322は、現在、
図13Eの俯瞰
図1327に示される視点からメディアアイテム1323を視聴しているため、
図13Aに図示されるメディアアイテム1323の部分の右側にあるメディアアイテム1323のより少ない部分が、現在、メディアユーザインタフェース1306内に表示される。三次元環境1304のユーザの視点が、
図13Eに示される視点から
図13Aに示される視点に移動する場合、ユーザインタフェース1306に表示されるメディアアイテム1323の部分は、任意選択的に、
図13Aに示されるものに戻る(メディアアイテム1323の再生ポジションが変化しなかった(例えば、メディアアイテム1323が一時停止された)場合)ことが理解される。いくつかの実施形態では、再生制御ユーザインタフェース1312の配向は、三次元環境1304のユーザ1322の視点に基づく。例えば、
図13A及び
図13Eの俯瞰
図1327に示すように、電子デバイス101が(上述したように)三次元環境1304の異なる視点から三次元環境を表示していても、再生制御ユーザインタフェース1312は、三次元環境1304のユーザ1322の視点に向けられたままである。したがって、三次元環境1304のユーザ1322の視点が移動するにつれて、電子デバイス101は、再生制御ユーザインタフェース1312が三次元環境のユーザ1322の視点に向かって配向されるように、再生制御ユーザインタフェース1312の配向を任意選択的に更新する。
【0344】
【0345】
図14A~
図14Jは、いくつかの実施形態による、没入型及び非没入型提示モードでメディアコンテンツを提示する方法を示すフローチャートである。いくつかの実施形態では、方法1400は、表示生成構成要素(例えば、
図1、3、及び4の表示生成構成要素120)(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)と、1つ以上のカメラ(例えば、ユーザの手の下方を指すカメラ(例えば、色センサ、赤外線センサ、及び他の深度感知カメラ)又はユーザの頭部から前方を指すカメラ)とを含む、コンピュータシステム(例えば、
図1のコンピュータシステム101)において行われる。いくつかの実施形態では、方法1400は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、
図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって統御される。方法1400のいくつかの動作は、任意選択的に、組み合わされ、かつ/又はいくつかの動作の順序は、任意選択的に、変更される。
【0346】
いくつかの実施形態では、方法1400は、表示生成構成要素及び1つ以上の入力デバイス(例えば、モバイルデバイス(例えば、タブレット、スマートフォン、メディアプレーヤ、又はウェアラブルデバイス)、又はコンピュータ)と通信する電子デバイスにおいて実行される。いくつかの実施形態では、表示生成構成要素は、電子デバイス(任意選択的にタッチスクリーンディスプレイ)と一体化されたディスプレイ、モニタ、プロジェクタ、テレビなどの外部ディスプレイ、又はユーザインタフェースを投影し1人以上のユーザにユーザインタフェースが可視であるようにするためのハードウェア構成要素(任意選択的に組み込み若しくは外部)などである。いくつかの実施形態では、1つ以上の入力デバイスは、ユーザ入力(例えば、ユーザ入力をキャプチャし、ユーザ入力を検出する等)を受信し、ユーザ入力に関連する情報を電子デバイスに送信することができる電子デバイス又は構成要素を含む。入力デバイスの例は、タッチスクリーン、マウス(例えば、外部)、トラックパッド(任意選択で統合又は外部)、タッチパッド(任意選択で統合又は外部)、リモートコントロールデバイス(例えば、外部)、別のモバイルデバイス(例えば、電子デバイスとは別個)、ハンドヘルドデバイス(例えば、外部)、コントローラ(例えば、外部)、カメラ、深度センサ、アイトラッキングデバイス、及び/又はモーションセンサ(例えば、ハンドトラッキングデバイス、ハンドモーションセンサ)などを含む。いくつかの実施形態では、電子デバイスは、ハンドトラッキングデバイス(例えば、1つ以上のカメラ、深度センサ、近接センサ、タッチセンサ(例えば、タッチスクリーン、トラックパッド)と通信する。いくつかの実施形態では、ハンドトラッキングデバイスは、スマートグローブなどのウェアラブルデバイスである。いくつかの実施形態では、ハンドトラッキングデバイスは、リモートコントロール又はスタイラスなどのハンドヘルド入力デバイスである。
【0347】
いくつかの実施形態では、電子デバイスは、表示生成構成要素を介して、三次元環境(例えば、三次元環境は、仮想現実(VR)環境、複合現実(MR)環境、又は拡張現実(AR)環境などのコンピュータ生成現実(XR)環境である)を表示し(1402)、1つ以上の基準が満たされるという判定に従って、第1の(例えば、非没入型)提示モード(例えば、メディアユーザインタフェースに第1のコンテンツアイテムを二次元(例えば、三次元環境内の空間を占有せず、X及びY次元で表示されるが、Z次元では表示されないなど)又は三次元(例えば、三次元環境内の空間を占有し、X、Y、及びZ次元で表示されるなど)提示させる提示モード)で提示されている第1のコンテンツアイテムを含むメディアユーザインタフェースオブジェクト(例えば、ビデオプレーヤ又はマルチメディアアプリケーションなど)と、第1のコンテンツアイテムの提示を第2の提示モードに遷移させるための第1のユーザインタフェース要素とを同時に表示すること(1402b)を含み、1つ以上の基準は、第1のコンテンツが没入コンテンツを含むという要件を含み、第1の(例えば、非没入型)提示モードでの第1のコンテンツアイテムの提示中に、第1のコンテンツアイテムは、電子デバイスのユーザの視点からの視野の第1の部分を占有し、ユーザの視点からの視野の第2の部分は、三次元環境の他の要素によって占有される(例えば、第1のコンテンツアイテムがユーザの視野内にある間、ユーザの視野は、メディアユーザインタフェースオブジェクトによって隠されていない/不明瞭にされていない他のコンテンツも含む)。例えば、
図13Aでは、メディアアイテム1323が没入コンテンツであるため、電子デバイス101は、ユーザインタフェース1306及び選択可能オプション1312aを同時に表示する。
【0348】
例えば、いくつかの実施形態では、1つ以上の基準は、第1のコンテンツアイテムが第1のタイプのコンテンツ(例えば、三次元情報を含む及び/又は三次元で表示することができるメディアコンテンツなどの没入型であるタイプのメディアコンテンツ)である場合に満たされ、第1のコンテンツアイテムが第1のタイプのコンテンツでない(例えば、二次元コンテンツであるなどの没入型であるタイプのメディアコンテンツでない)場合に満たされない。いくつかの実施形態では、第1のユーザインタフェース要素は、ユーザの視線がメディアユーザインタフェースオブジェクトに向けられていることを電子デバイスが検出した場合に表示され、ユーザの視線がメディアユーザインタフェースに向けられていることを電子デバイスが検出しない(例えば、ユーザの視線がメディアユーザインタフェースオブジェクトの外側に向けられていることを検出する)場合に表示されない。いくつかの実施形態では、第1のユーザインタフェース要素は、ユーザの手がピンチジェスチャの開始を実行している間にユーザの視線がメディアユーザインタフェースオブジェクトに向けられていることを電子デバイスが検出した場合に表示される。いくつかの実施形態では、第1のユーザインタフェース要素は、メディアユーザインタフェースオブジェクトとは別に表示される再生制御ユーザインタフェースに表示される。いくつかの実施形態では、再生制御ユーザインタフェースは、メディアユーザインタフェースオブジェクトの下に表示される。いくつかの実施形態では、再生制御ユーザインタフェースは、第1のコンテンツアイテムを再生し、第1のコンテンツアイテムを一時停止し、第1のコンテンツアイテムを早送りし、第1のコンテンツアイテムを巻き戻し、及び/又は第1のコンテンツアイテムに関連付けられた字幕及び/又は音声の表示を修正するためのユーザインタフェース要素を含む、第1のコンテンツアイテムの再生を修正するための追加のユーザインタフェース要素を含む。いくつかの実施形態では、メディアユーザインタフェースオブジェクトは、再生中又は一時停止中のオーディオ及び/又はビデオコンテンツを提示している。いくつかの実施形態では、メディアユーザインタフェースオブジェクトは、映画コンテンツ、TV番組、ビデオクリップ、(例えば、ライブの)スポーツゲームなどを提示している。いくつかの実施形態では、第1のコンテンツアイテムが二次元コンテンツに対応する場合、メディアユーザインタフェースオブジェクトは、第1のコンテンツアイテムの要素/特徴が平面内に表示され、三次元環境において平面の外側の空間を占有しないように、第1のコンテンツアイテムを平面的に提示している。いくつかの実施形態では、第1のコンテンツアイテムが三次元(3D)コンテンツを含む場合、メディアユーザインタフェースオブジェクトは、メディアユーザインタフェースオブジェクトによって定義された視聴サイズ特性(例えば、制約)に従って、第1のコンテンツアイテムの要素/特徴を三次元で表示する。いくつかの実施形態では、第1のコンテンツアイテムが第1の提示モードで提示されている場合、第1のコンテンツアイテムは、矩形(例えば、平面)ビューイングエリア(又は、第1のコンテンツアイテムが3Dコンテンツを含む場合、立方体若しくは矩形若しくは他の凹状3Dボリューム)に表示される。
【0349】
いくつかの実施形態では、第1のコンテンツアイテムが第1の提示モードで提示されている間に、三次元環境のユーザの視点が変化した場合(例えば、電子デバイス及び/又は表示生成構成要素が物理的環境内の新しいロケーションに向けられた場合)、メディアユーザインタフェースオブジェクト及び/又は第1のコンテンツアイテムは、任意選択的に、三次元環境のユーザの新しい視点からのユーザの視野内にもはや存在しない。いくつかの実施形態では、第1のコンテンツが三次元コンテンツに対応する場合、第1のコンテンツアイテムに含まれる要素/特徴は、メディアユーザインタフェースオブジェクトのサイズ、深度、及び/又は寸法よりも大きいサイズ、深度、及び/又は寸法を有する。一部のかかる実施形態では、メディアユーザインタフェースオブジェクトの閲覧サイズ基準を満たす(例えば、メディアユーザインタフェースオブジェクトのサイズ、深度、及び/又は寸法制約を満たす)第1のコンテンツアイテムの(例えば、三次元)部分/エリアが、メディアユーザインタフェースオブジェクト内に提示される。例えば、第1のコンテンツアイテムの部分/エリア/ボリュームは、第1のコンテンツアイテムのその部分/エリア/ボリュームがメディアユーザインタフェースオブジェクトによって定義された制約(例えば、サイズ制約)内で表示され得る場合、メディアユーザインタフェースオブジェクト内での表示のために選択される。追加的に又は代替的に、メディアユーザインタフェースオブジェクトの視聴サイズ基準を満たさない第1のコンテンツアイテムの部分/エリア/ボリューム(第1のコンテンツアイテムのその部分/エリア/ボリューム内に位置する要素/特徴を含む)は、メディアユーザインタフェースオブジェクトの視聴サイズ基準を満たすように任意選択的に変換され(例えば、拡大縮小され、クロッピングされるなど)、その後メディアユーザインタフェースオブジェクト内に表示される。
【0350】
いくつかの実施形態では、(第1のコンテンツアイテム内の要素/特徴を含む)第1のコンテンツアイテムの提示は、Z方向ではなく、X方向及び/又はY方向におけるメディアユーザインタフェースオブジェクトのサイズに制約される。したがって、いくつかの実施形態では、メディアユーザインタフェースオブジェクトに表示される第1のコンテンツアイテム(及び第1のコンテンツアイテムの特徴/要素)の部分は、第1のコンテンツアイテムによって定義されるZ方向に延在してもよいが、メディアユーザインタフェースオブジェクト(の例えばサイズ)によって定義される量だけX方向及び/又はY方向に延在するだけであってもよい。いくつかの実施形態では、メディアユーザインタフェースオブジェクトに表示される第1のコンテンツアイテムの部分/エリアは、X方向、Y方向、及び/又はZ方向の任意の組み合わせにおけるメディアユーザインタフェースオブジェクトのサイズに制約される。したがって、いくつかの実施形態では、第1の提示モードでの第1のコンテンツアイテムの提示中に第1のコンテンツアイテムが三次元コンテンツとして提示されている場合、第1のコンテンツアイテムのサイズ、深度、及び/又は寸法は、メディアユーザインタフェースオブジェクトによって定義された量だけX方向、Y方向、及び/又はZ方向で有界である(また、有界エリアの外側に存在する第1のコンテンツアイテムの部分は、メディアユーザインタフェースオブジェクト又は三次元環境に表示されない)。いくつかの実施形態では、第1のコンテンツアイテムが第1の提示モードで提示されている間に、メディアユーザインタフェースオブジェクトの境界(例えば、境界)が表示される。いくつかの実施形態では、第1のコンテンツアイテムの特徴/要素は、メディアユーザインタフェースオブジェクトによって定義されたサイズ、深度、及び寸法に従って、三次元環境の部分を置き換える(例えば、不明瞭にする/隠す)。
【0351】
例えば、メディアユーザインタフェースオブジェクトが第1のコンテンツアイテムを二次元(例えば、X次元及びY次元)で提示している間に、又はメディアユーザインタフェースが第1のコンテンツを三次元(例えば、X、Y、及びZ次元)で提示している間に、メディアユーザインタフェースは、ユーザの視野内に現れる唯一のオブジェクトではない(例えば、三次元環境及び/又は仮想要素(例えば、アプリケーション)の他のエリアは、ユーザの視野内にある)。いくつかの実施形態では、メディアユーザインタフェースオブジェクトが第1の提示モードで提示されている間に、メディアユーザインタフェースオブジェクトは、ユーザの視野の閾値量未満を遮蔽している(例えば、ユーザの視野の75%、60%、50%、40%、30%、20%、10%、5%未満を遮蔽している)。いくつかの実施形態では、ユーザの視点からの視野の第2の部分に含まれる要素は、アプリケーションウィンドウなどの仮想オブジェクト及び/又は物理オブジェクトの表現、電子デバイスの物理的環境内の家具の表現などを含む。いくつかの実施形態では、第1のコンテンツアイテムは、ユーザの視野内の中心に置かれる(例えば、及び/又はユーザの視野の縁部に対応するユーザの視野の部分を占有していない)。いくつかの実施形態では、三次元環境のユーザの視点が変化する場合、第1のコンテンツアイテムがユーザの視野内で占有する部分は、任意選択的に変化し、及び/又は第1のコンテンツアイテムがユーザの視野内で占有する空間の量は、任意選択的に変化する。
【0352】
いくつかの実施形態では、1つ以上の基準が満たされていないという判定に従って(例えば、第1のコンテンツアイテムが没入型でない場合)、第1のコンテンツアイテムの提示を第2の提示モードに遷移させるための第1のユーザインタフェース要素を表示することなく、第1の(例えば、非没入型)提示モード(例えば、メディアユーザインタフェースに第1のコンテンツアイテムを二次元で提示させる(例えば、三次元環境内の空間を占有しない、すなわち、X及びY次元で表示されるが、Z次元では表示されないなど)又は三次元で提示させる(例えば、三次元環境内の空間を占有する、X、Y、及びZ次元で表示されるなど)提示モードで提示されている第1のコンテンツアイテムを含むメディアユーザインタフェースオブジェクト(例えば、ビデオプレーヤ又はマルチメディアアプリケーションなど)を表示する(1402c)。例えば、
図13Aのメディアアイテム1323が没入コンテンツでなかった場合、電子デバイス101は、ユーザインタフェース1306及び選択可能オプション1312aを同時に表示しない。
【0353】
いくつかでは、メディアユーザインタフェース及び第1のユーザインタフェース要素を含む三次元環境(例えば、三次元環境1304)を表示している間に、電子デバイスは、1つ以上の入力デバイスを介して、
図13Aのユーザインタフェース要素1312aの選択などの第1のユーザインタフェース要素の選択に対応する第1の入力を受信する(1402d)。いくつかの実施形態では、電子デバイスは、ユーザの視線が第1のユーザインタフェース要素に向けられている間にユーザがユーザの手の人差し指及び親指を使用してピンチングジェスチャを実行したときに、第1のユーザインタフェース要素の選択を検出する。いくつかの実施形態では、電子デバイスは、第1のユーザインタフェース要素のロケーションに対応する電子デバイスのタッチスクリーンのロケーションをユーザがタップしたときに、第1のユーザインタフェース要素の選択を検出する。いくつかの実施形態では、第1のユーザインタフェース要素がフォーカスを有する間にマウス又はタッチパッド上でクリック動作が実行されると、第1のユーザインタフェース要素が選択される。
【0354】
いくつかの実施形態では、第1の入力を受信したことに応じて、電子デバイスは、三次元環境において、第2の(例えば、没入型)提示モードで第1のコンテンツアイテムを表示し(1402e)、第2の提示モードでの第1のコンテンツアイテムの提示中に、第1のコンテンツアイテムは、電子デバイスのユーザの視点から視野の少なくとも1つの縁部まで延在する。例えば、
図13Cにおいて、電子デバイス101が
図13Aのユーザインタフェース要素1312aの選択を受信した後に、電子デバイス101は、
図13Cに示す没入型提示においてメディアアイテム1323の提示を開始した。例えば、第1の入力を受信した後、第1のコンテンツアイテムは、第1のコンテンツアイテムがユーザの視野の第1の部分(例えば、第1の提示モードでの第1のコンテンツアイテムの提示中に第1のコンテンツアイテムが占有していたユーザの視野の部分)を占有することからユーザの視野の少なくとも1つの個別の縁部を占有することに遷移するように、サイズが(例えば、三次元で)拡大する。いくつかの実施形態では、三次元環境のユーザの視点が変化するにつれて、第1のコンテンツアイテムは、三次元環境のユーザの新しい視点からユーザの(例えば、現在の)視野の縁部まで延在し続ける。いくつかの実施形態では、第1の入力を受信した後、第1のコンテンツアイテムは、円形に(又は三次元で考えると球状に)拡大し、ユーザの視野の周りで部分的に又は完全に湾曲する。いくつかの実施形態では、メディアユーザインタフェースオブジェクトが第1の提示モード中に第1のコンテンツアイテムを三次元コンテンツとして表示していた場合、第1のコンテンツアイテム及び/又は第1のコンテンツに含まれる要素のサイズ、寸法、又は深度は、第1の提示モードと比較して増加する。いくつかの実施形態では、第2の提示モードで第1のコンテンツアイテムを提示している間に、第1の提示モード中に提示された第1のコンテンツアイテムのエリア又は要素は、ユーザの視野の中心に置かれ、任意選択的に、第1のコンテンツアイテムの追加の部分/エリア又は要素(例えば、第1の提示モード中に提示されなかったコンテンツ)も表示される。
【0355】
いくつかの実施形態では、第1のコンテンツアイテムの提示を第1の提示モードから第2の提示モードに遷移することは、第1のコンテンツアイテム(例えば、第1のコンテンツアイテムの特徴/要素)を直線的に(例えば、左、右、上、及び/又は下方向に)及び/又は非直線的に(例えば、第1のコンテンツアイテムの深度を(例えば、Z次元で)変化することによってユーザの視野の周りで湾曲する)拡張することを含む。いくつかの実施形態では、第1のコンテンツアイテムが第2の提示モードで提示されている間に、第1のコンテンツアイテムの要素/特徴は、第1のコンテンツアイテムによって定義されるサイズ、寸法、及び/又は深度に従って、三次元環境の部分を置換する。いくつかの実施形態では、第1のコンテンツアイテムの要素/特徴がユーザの視野の全ての縁部まで延在しない(例えば、三次元環境のユーザの視野を完全に占有しない)場合、三次元環境の部分は、第1のコンテンツアイテムが第2の提示モードで提示されている間に表示される。いくつかの実施形態では、第2の提示モードの間、第1のコンテンツアイテムは、第1のコンテンツアイテムが幅136ヤード×長さ93ヤードであるサッカーフィールド(例えば、第1のコンテンツアイテムの特徴/要素)を含み、三次元環境が幅10フィート×長さ10フィートである場合など、三次元環境より大きい寸法を有する。一部のかかる実施形態では、第1のコンテンツアイテムは、三次元環境の境界を越えて延在し、(例えば、三次元環境の部分(例えば、部品)が第1のコンテンツアイテムの要素/特徴に変換されたかのように)三次元環境の部分を第1のコンテンツアイテムの部分で置き換える。いくつかの実施形態では、第2の提示モードでの第1のコンテンツアイテムの提示中に、第1のコンテンツアイテムの要素(例えば、特徴又はオブジェクト)は、三次元環境内の空間を消費する(例えば、第1のコンテンツアイテムによって定義された三次元環境内の空間次元で表示される)。
【0356】
例えば、第1のコンテンツアイテムがサッカー競技場を含む場合、サッカー競技場は、第1のコンテンツアイテムによって定義される長さ、幅、及び/又は深度を有する三次元環境内のオブジェクトとして表示される。いくつかの実施形態では、第1のコンテンツアイテムの特徴(例えば、第1のコンテンツアイテムがサッカー関連コンテンツを含む場合、サッカー競技場、サッカーボールなど)は、ユーザが第1のコンテンツアイテム内/上に位置していたかのように(例えば、及び任意選択的に、もはや三次元環境内に位置していないかのように)第1のコンテンツアイテムの特徴が現れるように、三次元環境内に又は三次元環境に近接して位置する(例えば、重ね合わされる、オーバーレイされるなど)別個の(例えば、仮想)三次元環境(任意選択的に、三次元環境と同様の1つ以上の特性を有する)に表示される。いくつかの実施形態では、第1のコンテンツアイテムが第2の提示モードで表示されている間に、第1のコンテンツアイテムはもはやメディアユーザインタフェースオブジェクト内に表示されていない(例えば、メディアユーザインタフェースオブジェクトのウィンドウ/境界はもはや表示されていない)。いくつかの実施形態では、第1のコンテンツアイテムが第2の提示モードに遷移するとき、第1のコンテンツアイテムは、ユーザの視野の周囲で半径方向に拡張及び湾曲し、その結果、第1のコンテンツアイテムは、ユーザの現在の視野の部分を上述の閾値量を超えて(例えば、ユーザの視野の75%、60%、50%、40%、30%、20%、10%、5%を超えて)遮蔽する。いくつかの実施形態では、第1のコンテンツアイテムが第2の提示モードに遷移するとき、第1のコンテンツアイテムは、第1のコンテンツアイテムが三次元環境の閾値量(例えば、50%、60%、70%、80%、90%、100%)を超えて占有するように拡大し、任意選択的に、表示生成構成要素を介して、又はユーザの現在の視野内に現在表示されていない三次元環境の部分を含む。
【0357】
個別のユーザインタフェース要素の選択に応じて、第1のコンテンツアイテムの提示を非没入型提示モードから没入型提示モードに遷移することは、同じコンテンツアイテムに対する異なる提示モードにアクセスし、かかる遷移をサポートするコンテンツアイテムに対してそうする効率的な方法を提供し、それによって、メディアユーザインタフェースオブジェクトに関与するときのユーザの認知的負担を低減する。
【0358】
いくつかの実施形態では、第2の提示モードでの第1のコンテンツアイテムの提示中に、第1のコンテンツアイテムは、電子デバイスのユーザの視点からの視野の少なくとも複数のそれぞれの縁部(例えば、全ての縁部)まで延在する(1404a)。例えば、
図13Cにおいて、メディアアイテム1323は、ユーザ1322の視野内の左縁部及び右縁部に拡大している。例えば、第1のコンテンツアイテムが第2の提示モード(例えば、没入型提示モード)で提示されているとき、第1のコンテンツアイテムは、ユーザの現在の視点からユーザの視野の全ての縁部まで少なくとも延在している。いくつかの実施形態では、第1のコンテンツアイテムがユーザの視野の少なくとも複数のそれぞれの縁部まで延在している間に、ユーザの視野内の空間/エリア(例えば、その全て)は、第1のコンテンツアイテムの部分によって占有される。いくつかの実施形態では、第1のコンテンツアイテムがユーザの視野の複数のそれぞれの縁部まで延在するとき、第1のコンテンツアイテム(又は第1のコンテンツアイテムの要素/特徴)は、ユーザの視点からの視野内にある三次元環境のエリア(例えば、全て)を占有する。いくつかの実施形態では、三次元環境のユーザの視点が変化するにつれて、第1のコンテンツアイテムは、三次元環境のユーザの新しい視点からユーザの視野の少なくとも複数のそれぞれの縁部まで延在し続ける。
【0359】
第2の提示中に第1のコンテンツアイテムをユーザの視野の複数のそれぞれの縁部に拡張することは、電子デバイスのユーザが第1のコンテンツアイテム内に位置していたかのように第1のコンテンツアイテムを表示する(及び、任意選択的に、もはや三次元環境内に位置していない)効率的な方法を提供し、それによって、第2の提示モード中に第1のコンテンツアイテムに関与するときのユーザの認知的負担を低減する。
【0360】
いくつかの実施形態では、第2の提示モードでの第1のコンテンツアイテムの提示中に、第1のコンテンツアイテムは、電子デバイスのユーザの視点から視野の少なくとも1つの縁部を越えて延在する(1406a)。例えば、
図13Cの俯瞰
図1327に示されるように、メディアアイテム1323は、三次元環境1304のユーザ1322の現在の視点からユーザ1322の視野の外側にある三次元環境1304内の追加のエリアを占有している。例えば、第1のコンテンツアイテムの提示が第1の提示モードから第2の提示モードに遷移するとき、第1のコンテンツアイテムは、ユーザの視野の個別の縁部まで延在する(例えば、拡大する)だけでなく、ユーザの視野の個別の縁部を越えて延在する(例えば、拡大する)。したがって、いくつかの実施形態では、三次元環境のユーザの視点がシフト/変化する場合、第1のコンテンツアイテムの追加の及び/又は異なる部分が、三次元環境のユーザの新しい視点から表示される。
【0361】
ユーザの視野の縁部を越えて延在する三次元環境内のロケーションに第1のコンテンツアイテムを表示することは、三次元環境のユーザの視点が変化するにつれて、電子デバイスのユーザが第1のコンテンツアイテム内に位置したかのように第1のコンテンツアイテムを提示し続ける効率的な方法を提供し、それによって、第2の提示モード中に第1のコンテンツアイテムに関与するときのユーザへの認知的負担を低減する。
【0362】
いくつかの実施形態では、メディアユーザインタフェースオブジェクトが第1の提示モードで第1のコンテンツアイテムを提示している間に、電子デバイスは、三次元環境において、第1のコンテンツアイテムの再生を修正するために、第1のユーザインタフェース要素を含む1つ以上のユーザインタフェース要素を含む再生制御ユーザインタフェースを表示し(1408a)、再生制御ユーザインタフェースは、メディアユーザインタフェースオブジェクトのロケーションに基づく(例えば、メディアユーザインタフェースオブジェクトのロケーションから0.5、1、3、5、7、15インチなどの閾値距離である)三次元環境内の第1のロケーションに表示される。例えば、
図13Aにおいて、電子デバイス101が非没入型提示モードでメディアアイテム1323を表示している間に、電子デバイス101は、メディアユーザインタフェース1306の下に(かつメディアユーザインタフェース1306から上述の閾値距離内に)再生制御ユーザインタフェース1312aを表示する。例えば、第1のコンテンツアイテムが第1の提示モードで提示されているとき、第1のコンテンツの再生を修正するためのユーザインタフェース要素が、三次元環境におけるメディアユーザインタフェースオブジェクトのロケーションに基づいて表示される。いくつかの実施形態では、メディアユーザインタフェースオブジェクトが三次元環境内の第1のロケーションにある場合、再生制御ユーザインタフェースは、三次元環境内の第1の個別のロケーションに表示される。同様に、いくつかの実施形態では、メディアユーザインタフェースオブジェクトが三次元環境内の第2のロケーション(第1のロケーションとは異なる)にある場合、再生制御ユーザインタフェースは、三次元環境内の第2の個別のロケーション(第1の個別のロケーションとは異なる)に表示される。いくつかの実施形態では、再生制御ユーザインタフェースは、再生制御ユーザインタフェースがメディアユーザインタフェースオブジェクトによって隠されないように、第1のメディアユーザインタフェースの下のロケーションに表示される。いくつかの実施形態では、再生制御ユーザインタフェースは、再生制御ユーザインタフェース及びメディアユーザインタフェースオブジェクトが互いに部分的にオーバーレイするように、三次元環境内のロケーションに表示される。
【0363】
いくつかの実施形態では、再生制御ユーザインタフェースは、メディアユーザインタフェースオブジェクトのZ深度よりも高いZ深度を有する。いくつかの実施形態では、再生制御ユーザインタフェースは、メディアユーザインタフェースオブジェクトの閾値距離(例えば、0.5、1、3、5、7、15インチ)又はその範囲内のロケーションに表示される。いくつかの実施形態では、第1のユーザインタフェース要素に加えて、再生制御ユーザインタフェースは、再生、一時停止、早送り、巻き戻し、字幕の表示/管理、及び/又は第1のコンテンツアイテムに関連付けられた再生オーディオの修正のためのユーザインタフェース要素を含む、コンテンツの再生を修正するためのユーザインタフェース要素を含む。いくつかの実施形態では、再生制御ユーザインタフェースは、ユーザの視線がメディアユーザインタフェース要素に向けられている間に、電子デバイスのユーザが(例えば、ユーザの手の親指と人差し指などで)ピンチジェスチャを行ったことを電子デバイスが検出した後に、メディアユーザインタフェースに表示される。いくつかの実施形態では、ユーザインタフェース要素は、ユーザの視線のみがメディアユーザインタフェースに向けられたとき、及び/又はユーザの手がピンチジェスチャの開始を実行している間にユーザの視線がメディアユーザインタフェースに向けられたとき(例えば、ユーザの手の親指と人差し指が閾値距離(例えば、0.5、1、1.5、3、6cm)を超えて離れており、互いの上述の閾値距離内にまだ収束していないときなど)、メディアユーザインタフェースに表示される。
【0364】
三次元環境内のメディアユーザインタフェースオブジェクトのロケーションに基づいて三次元環境内のロケーションに再生制御ユーザインタフェースを表示することは、第1のコンテンツアイテムが第1の提示モードで提示されている間に再生制御ユーザインタフェースと対話する効率的な方法を提供し、それによって、第1の提示モード中に第1のコンテンツアイテムに関与するときのユーザの認知的負担を低減する。
【0365】
いくつかの実施形態では、第1の提示モードでの第1のコンテンツアイテムの提示中に、ユーザの視点は第1の視点に対応する(1410a)(例えば、ユーザは第1の視点から三次元環境を見ている)。いくつかの実施形態では、ユーザは、ユーザが電子デバイスの物理的環境内の第1のロケーションに(任意選択的に第1のポーズ/配向で)位置しているため、第1の視点から三次元環境を見ている。いくつかの実施形態では、第1の視点から第1の提示モード及び三次元環境で第1のコンテンツアイテムを提示している間に、電子デバイスは、
図13A及び
図13Bにおけるユーザ1322の視点の移動などの、第1の視点から第2の視点へのユーザの視点の移動を検出する(1410b)。いくつかの実施形態では、ユーザの視点の移動を検出することは、ユーザの少なくとも一部(例えば、ユーザの頭部、胴体、手など)の移動を検出することを含む。いくつかの実施形態では、ユーザの視点の移動を検出することは、(例えば、任意選択的に、ユーザの少なくとも一部の移動と同時に)電子デバイス又は表示生成構成要素の移動を検出することを含む。いくつかの実施形態では、三次元環境のユーザの視点は、物理的環境内のユーザの配向が第2のポーズ/配向に変化したため、及び/又は物理的環境内のユーザのロケーションが第2の物理的ロケーションに変化したため、第2の視点に変化する。
【0366】
いくつかの実施形態では、ユーザの視点の第2の視点への移動を検出したことに応じて(1410c)、電子デバイスは、ユーザの第2の視点から三次元環境を表示する(1410d)(例えば、三次元環境は、三次元環境のユーザの新しい視点に基づいて表示される(例えば、三次元環境へのユーザの視野の配向が変化した))。例えば、三次元環境1304のユーザ1322の視点が、
図13Aの俯瞰
図1327に示される視点から
図13Bの俯瞰
図1327に示される視点に移動したことを電子デバイス101が検出したことに応じて、電子デバイス101は、
図13Bに示されるユーザの新しい視点から三次元環境を表示する。いくつかの実施形態では、三次元環境がユーザの第2の視点から表示されている間に、第2の視点からの三次元環境のユーザの視野は、三次元環境がユーザの第1の視点から表示されていたときに提示されていなかった三次元環境の異なる部分を含む。
【0367】
いくつかの実施形態では、ユーザの視点の第2の視点への移動を検出したことに応じて(1410c)、電子デバイスは、再生制御ユーザインタフェースの表示を三次元環境内の第1のロケーションに維持する(1410e)。例えば、三次元環境1304のユーザ1322の視点が
図13Aと
図13Bとの間で移動しても、再生制御ユーザインタフェース1323は、
図13A及び
図13Bの俯瞰
図1327に示されるように、三次元環境1304内の同じロケーションに留まった。例えば、第1のコンテンツアイテムが第1の提示モードで提示されている間に三次元環境のユーザの視点が変化した場合、三次元環境内の再生制御(及び任意選択的にメディアユーザインタフェースオブジェクト)のロケーションは変化しない。したがって、三次元環境内の第1のロケーションが三次元環境の第2の視点からのユーザの視野内にある場合、ユーザの視点に対する再生制御ユーザインタフェースの相対ロケーションは任意選択的に異なるが、三次元環境内の再生制御ユーザインタフェースの実際のロケーションは変化しなかった。したがって、いくつかの実施形態では、再生制御ユーザインタフェースは、方法1000を参照して説明した第1の提示モード中のメディアユーザインタフェースのロケーション特性のうちの1つ以上を有する。
【0368】
第1のコンテンツアイテムが第1の提示モードで提示されている間に、三次元環境のユーザの視点が変化するときに三次元環境内の再生制御ユーザインタフェースのロケーションを維持することは、三次元環境のユーザの視点が変化するときでさえ、第1の提示モード中に特定のユーザインタフェースのロケーションを維持する効率的な方法を提供し、それによって、第1の提示モード中に第1のコンテンツアイテムに関与するときのユーザの認知的負担を低減する。
【0369】
いくつかの実施形態では、三次元環境内にメディアユーザインタフェースオブジェクトを表示し、第1のロケーションに再生制御ユーザインタフェースを表示している間に、電子デバイスは、1つ以上の入力デバイスを介して、メディアユーザインタフェースオブジェクトを三次元環境内の異なるロケーションに移動させる要求に対応する第2の入力を受信する(1412a)。いくつかの実施形態では、電子デバイスは、ユーザの視線がメディアユーザインタフェースに向けられている間に、電子デバイスのユーザが(任意選択的に、ユーザの手の人差し指及び親指を使用して)ピンチジェスチャを実行し、その後、ユーザの手が三次元環境内の異なるロケーションに対応する物理的ロケーションに移動したときに、第2の入力を受信する。いくつかの実施形態では、第1の入力は、ユーザの手が電子デバイスのタッチスクリーン上でドラッグ/移動ジェスチャを介して第1のオブジェクトを移動させていることを電子デバイスが検出したときに受信される(例えば、電子デバイスに関連付けられた表示生成構成要素がタッチスクリーンである場合)。いくつかの実施形態では、三次元環境のユーザの視点が変化したとき(例えば、メディアユーザインタフェースオブジェクトが移動のために以前に選択されていない場合)、メディアユーザインタフェースを移動させる要求は検出されない。
【0370】
いくつかの実施形態では、第2の入力を受信したことに応じて(1412b)、電子デバイスは、メディアユーザインタフェースオブジェクトを三次元環境内の異なるロケーションに移動させる(1412c)(例えば、メディアユーザインタフェースは、第2の入力に応じて三次元環境内の異なるロケーションに表示される)。いくつかの実施形態では、第2の入力を受信したことに応じて(1412b)、電子デバイスは、再生制御ユーザインタフェースを三次元環境内の第1のロケーションとは異なる第2のロケーションに表示し(1412d)、三次元環境内の第2のロケーションは、三次元環境内の異なるロケーション(例えば、そこからの閾値距離)に基づく。例えば、電子デバイスがメディアユーザインタフェース1306を再配置するための入力を受信すると、再生制御ユーザインタフェース1312のロケーションは、三次元環境1304内のメディアユーザインタフェース1306の新しいポジションに基づくロケーションに更新される。例えば、三次元環境における再生制御のロケーションは、メディアユーザインタフェースが三次元環境において現在表示されている異なるロケーションに基づく。いくつかの実施形態では、再生制御ユーザインタフェースが第2のロケーションに表示されている間に、再生制御ユーザインタフェースは、再生制御ユーザインタフェースがメディアユーザインタフェースオブジェクトによって隠されないように、メディアユーザインタフェースオブジェクトの下に表示される。いくつかの実施形態では、再生制御ユーザインタフェースが第2のロケーションに表示されている間に、再生制御ユーザインタフェースは、再生制御ユーザインタフェース及びメディアユーザインタフェースオブジェクトが互いに部分的にオーバーレイするように、三次元環境内のロケーションに表示される。いくつかの実施形態では、再生制御ユーザインタフェースが第2のロケーションに表示されている間に、再生制御ユーザインタフェースは、メディアユーザインタフェースオブジェクトのZ深度よりも高いZ深度を有する。いくつかの実施形態では、再生制御ユーザインタフェースが第2のロケーションに表示されている間に、再生制御ユーザインタフェースは、メディアユーザインタフェースオブジェクトの閾値距離(例えば、0.5、1、3、5、7、15インチ)内に表示されている。
【0371】
関連付けられたメディアユーザインタフェースオブジェクトが三次元環境内で移動されたときに再生制御ユーザインタフェースを三次元環境内の新しいロケーションに移動させることは、三次元環境のユーザの視点が変化したときではなく、ウィンドウ移動入力に応じて再生制御ユーザインタフェースのロケーションを調整/修正する効率的な方法を提供する。
【0372】
いくつかの実施形態では、第1の提示モードで第1のコンテンツアイテムを表示している間に、電子デバイスは、三次元環境内の第1のロケーションに、第1のコンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素を含む再生制御ユーザインタフェース(例えば、上述した再生制御ユーザインタフェースと同様の)を表示し(1414a)、第1のロケーションは、ユーザの視点から第1の距離にある。いくつかの実施形態では、第1の提示モードでの第1のコンテンツアイテムの提示中、再生制御は、ユーザの視点から(例えば、ユーザの視点に対応する三次元環境内のポジションから)第1の距離に表示される。いくつかの実施形態では、再生制御ユーザインタフェースが三次元環境内のユーザの視点からの距離は、三次元環境内のメディアユーザインタフェースオブジェクトのロケーションに基づく。例えば、第1のコンテンツアイテムが第1の提示モードで提示されている間に、メディアユーザインタフェースオブジェクトが三次元環境内の第1のロケーションにある場合、再生制御ユーザインタフェースは、任意選択的に、ユーザの視点から第1の距離にある。メディアユーザインタフェースオブジェクトがユーザの視点からより近い三次元環境内のロケーションにある場合、再生制御ユーザインタフェースは、任意選択的に、ユーザの視点からより近い距離にある。
【0373】
いくつかの実施形態では、第2の提示モードで第1のコンテンツアイテムを提示している間に、電子デバイスは、三次元環境内の第2のロケーションで再生制御ユーザインタフェースを提示し(1414b)、三次元環境内の第2のロケーションは、三次元環境内のユーザの視点から第1の距離よりも近い第2の距離にある。例えば、
図13A及び
図13Cの俯瞰
図1327に示されるように、再生制御ユーザインタフェース1312は、メディアアイテム1323が
図13Aの非没入型提示モードで提示されているときと比較して、メディアアイテム1323が
図13Cの没入型提示モードで提示されているときにユーザ1322の視点のより近くに表示される。例えば、第2の提示モードでのコンテンツアイテムの提示中に、再生制御ユーザインタフェースは、第1のコンテンツアイテムが第1の提示モードで提示されているときの再生制御のロケーションと比較して、ユーザの視点のより近くに表示される。いくつかの実施形態では、電子デバイスは、第1の提示モードから第2の提示モードへの遷移に応じて、ユーザの視点のより近くに移動する再生制御ユーザインタフェースのアニメーションを表示する。
【0374】
第1の提示モードと比較して第2の提示モード中に再生制御をユーザのより近くに表示することは、第2の提示モード中にかかるユーザインタフェースにアクセスし、それと対話する効率的な方法を提供し、それによって、再生制御ユーザインタフェースに関与し、第1のコンテンツアイテムの再生を修正するときのユーザへの認知的負担を低減する。
【0375】
いくつかの実施形態では、三次元環境内の第2のロケーションは、ユーザの視点のロケーションに基づく(例えば、その閾値距離内にある)(1416a)。例えば、第1のコンテンツアイテムが第2の提示モードで提示されているとき、三次元環境における再生制御ユーザインタフェースのロケーションは、ユーザの視点に対応する三次元環境におけるロケーションに基づく。いくつかの実施形態では、再生制御ユーザインタフェースは、ユーザの視点のロケーションから閾値距離(例えば、0.1、0.5、0.9、1、1.5、2、3、又は5フィート)である三次元環境内のロケーションにある。いくつかの実施形態では、三次元環境のユーザの視点が変化した場合、再生制御ユーザインタフェースのロケーションは、再生制御ユーザインタフェースが三次元環境の更新された視点からのユーザの視野内(及び任意選択的に、三次元環境のユーザの更新された視点に対応するロケーションから閾値距離にあるロケーション、及び任意選択的に、ユーザの視野の所定の部分(例えば、右下部分)を占有するロケーション)にあるように、三次元環境のユーザの新しい視点に基づいて更新される。いくつかの実施形態では、再生制御ユーザインタフェースは、ユーザの視点からのユーザの視野の下部中央部分に表示される。三次元環境のユーザの視点からの再生制御の閾値距離を表示することは、第2の提示モード中にかかるユーザインタフェースにアクセスし、それと対話する効率的な方法を提供し、それによって、再生制御ユーザインタフェースに関与し、第1のコンテンツアイテムの再生を修正するときのユーザの認知的負担を低減する。
【0376】
いくつかの実施形態では、ユーザの視点が第1の視点であり、メディアユーザインタフェースオブジェクトを第2の提示モードで表示し、再生制御ユーザインタフェースを三次元環境内の第2のロケーションに表示している間に、電子デバイスは、第1の視点から第1の視点とは異なる第2の視点へのユーザの視点の移動を検出する(1418a)。いくつかの実施形態では、ユーザの視点の移動を検出することは、ユーザの少なくとも一部(例えば、ユーザの頭部、胴体、手など)の移動を検出することを含む。いくつかの実施形態では、ユーザの視点の移動を検出することは、(例えば、任意選択的に、ユーザの少なくとも一部の移動と同時に)電子デバイス又は表示生成構成要素の移動を検出することを含む。いくつかの実施形態では、ユーザの視点は、ユーザが電子デバイスの物理的環境内の第1のロケーションに物理的に位置している(かつ任意選択的に第1の方法で配向されている)ため、第1の視点である。いくつかの実施形態では、三次元環境のユーザの視点は、物理的環境内のユーザの配向及び/又は物理的ロケーションが変化した(例えば、第2の方法で向けられるように移動した、及び/又は電子デバイスの物理的環境内の異なるロケーションに移動した)ため、第2の視点に変化する。
【0377】
いくつかの実施形態では、第1の視点から第2の視点へのユーザの視点の移動を検出したことに応じて(1418b)、電子デバイスは、表示生成構成要素を介して、電子デバイスのユーザの第2の視点から三次元環境を表示する(1418c)(例えば、三次元環境は、三次元環境のユーザの新しい視点に基づいて表示される(例えば、三次元環境へのユーザの視野の配向が変化した))。いくつかの実施形態では、三次元環境が第2の視点から表示されている間に、第2の視点からの三次元環境内のユーザの視野は、三次元環境がユーザの第1の視点から表示されていたときに提示されていなかった三次元環境の異なる部分を含む。
【0378】
いくつかの実施形態では、第1の視点から第2の視点へのユーザの視点の移動を検出したことに応じて(例えば、方法1000で説明したように、視点の移動が落ち着いたときなど、1つ以上の第2の基準が満たされるという判定に従って)(1418b)、電子デバイスは、三次元環境内の第2のロケーションとは異なる第3のロケーションに再生制御ユーザインタフェースを表示し(1418d)、第3のロケーションは、ユーザの第2の視点のロケーションに基づく。例えば、三次元環境1304のユーザ1322の視点が、
図13Cの俯瞰
図1327に示される視点から
図13Dの俯瞰
図1327に示される視点に変更された場合、再生制御ユーザインタフェース1312のロケーションは、再生制御ユーザインタフェース1312が三次元環境1304のユーザ1322の新しい視点からユーザ1322の視野内に留まるように更新される。例えば、三次元環境のユーザの視点が第1の視点から第2の視点に変化するとき、再生制御ユーザインタフェースのロケーションは、三次元環境のユーザの新しい視点(第2の視点)に基づいて変化する。いくつかの実施形態では、ユーザの視点が第2の視点であるとき、三次元環境内の再生制御ユーザインタフェースのロケーションは、ユーザの第2の視点からのユーザの視野内にある。いくつかの実施形態では、再生制御ユーザインタフェースは、ユーザの第2の視点に対応する三次元環境内のロケーションから閾値距離(例えば、0.1、0.5、0.9、1、1.5、2、3、又は5フィート)である三次元環境内のロケーションに(及び任意選択的に、前述のようにユーザの視野の所定の部分(例えば、ユーザの視野の下部中心)に)表示される。いくつかの実施形態では、電子デバイスは、ユーザの視点の移動後に、メディアユーザインタフェースに関して方法1000で説明したのと同様の方法で再生制御ユーザインタフェースを表示するか、又はその表示を遅延させる。
【0379】
三次元環境内のユーザの視点が変化するにつれてメディアユーザインタフェースのロケーションを変更することは、三次元環境のユーザの現在の視点にかかわらず、第2の提示モードでの第1のコンテンツアイテムの提示中に再生制御ユーザインタフェースへの連続アクセスを提供する効率的な方法を提供し、それによって、メディアユーザインタフェースに関与するとき、及び三次元環境内の他のコンテンツ又はアプリケーションに関与するときのユーザへの認知的負担を低減させる。
【0380】
いくつかの実施形態では、第1のコンテンツアイテムを個別の提示モード(例えば、第1の提示モード又は第2の提示モード)で提示している間に、電子デバイスは、1つ以上の入力デバイスを介して、ユーザの個別の部分(例えば、手)の移動を含む第2の入力を受信し(1420a)、第2の入力は、第1のコンテンツアイテムをスクラブする要求に対応する。ある実施形態では、電子デバイスは、ユーザがユーザの手の人差し指及び親指でピンチジェスチャを遂行するときに(任意であるが、上述したように、ユーザの視線が第1のコンテンツアイテムに向けられ及び/又は再生制御ユーザインタフェースに表示されたスクラブバーに向けられている間に)、第1のコンテンツアイテムのスクラブを開始する要求を受信する。いくつかの実施形態では、第1のコンテンツアイテムのスクラブポジションは、ユーザの手が、スクラブを開始する要求が受信されたロケーションから水平に移動するにつれて(例えば、ユーザの手がピンチされた形状のままである間に)変化する。いくつかの実施形態では、第2の入力を受信したことに応じて、電子デバイスは、ユーザの個別の部分の移動に従って第1のコンテンツアイテムをスクラブする(1420b)(例えば、ユーザの部分の(例えば、モーション/移動)入力に基づいて、現在のスクラブポジションから前方又は後方にスクラブする)。例えば、
図13Aにおいて、電子デバイス101は、ユーザ1322の手1331が物理的環境1302内の対応するロケーションに移動することに応じて、視覚的インジケーション1312kによって示されるスクラブロケーションをスクラブする。例えば、ユーザの手が、スクラブを開始する要求が受信された場所に対して左方向に移動する場合、第1のコンテンツアイテムのスクラブポジションは、ユーザの手の(左方向の)移動の量に従って、任意選択的に、時間的に後方に移動される。同様に、ユーザの手が(ユーザの手の人差し指及び親指で)動いたロケーションに対して右方向に動く場合、第1のコンテンツアイテムのスクラブポジションは、任意選択的に、ユーザの手の(右方向の)移動の量に従って時間的に前方に移動される。いくつかの実施形態では、ピンチの終了(例えば、人差し指がユーザの親指から離れて移動すること)を検出すると、第1のコンテンツアイテムは、第1のコンテンツアイテム内のスクラブされたポジションからスクラブポジションへの再生を開始する。以下でより詳細に説明されるように、いくつかの実施形態では、第1のコンテンツアイテムに関連付けられた提示モードは、第1のコンテンツアイテムがスクラブされる方法を決定する。
【0381】
ユーザの一部(例えば、ユーザの手)の移動に基づいて第1のコンテンツアイテムをスクラブすることは、第1の提示モードと第2の提示モードの両方において均一に第1のコンテンツアイテムをスクラブする効率的な方法を提供し、それによって、個別の提示モードにおいて第1のコンテンツアイテムをスクラブするときのユーザへの認知的負担を低減する。
【0382】
いくつかの実施形態では、第1のコンテンツアイテムをスクラブすることは、第2の入力を検出している間に、1つ以上の第2の基準が満たされているという判定に従って(例えば、第1のコンテンツアイテムが第1の提示モードで提示されていた間に第2の入力が受信された場合、及び/又は第1のコンテンツアイテムがユーザの視野の閾値部分未満(例えば、70%、60%、50%、40%、30、20%、10%、又は5%未満)を占有している場合)、ユーザの個別の部分が移動するにつれて変化する第1のコンテンツアイテム内の現在のスクラブポジションに対応するコンテンツをメディアユーザインタフェースオブジェクト内に表示すること(1422b)を含む(1422a)。例えば、
図13Aのスクラブポジションは、ユーザの手1331が以前のスクラブポジションに対応する物理的環境1302内のロケーションから現在のスクラブポジションに対応する物理的環境1302内のロケーションに移動したときに変化した。例えば、第1の提示モードでの第1のコンテンツアイテムの提示中のスクラブは、現在のスクラブポジションでコンテンツを示すために三次元環境内に新しい要素を表示することなく、ユーザの一部(例えば、手)の移動に関連付けられた現在のスクラブポジションに対応するように第1のコンテンツアイテムを(例えば、リアルタイムで)更新させる。いくつかの実施形態では、個別の部分が第1の方向(例えば、右方向)に移動するとき、スクラブポジションは、時間的に前方に移動する(例えば、第1のコンテンツアイテムを通って早送りする)。いくつかの実施形態では、スクラブポジションは、個別の部分が第2の方向(例えば、左方向)に移動するときに、時間的に後方に移動する(例えば、第1のコンテンツアイテムを巻き戻す)。
【0383】
メディアユーザインタフェースオブジェクト内のユーザの部分の移動によって定義される現在のスクラブポジションに対応するコンテンツを表示することは、コンテンツが第1の提示モードで提示されている間に第1のコンテンツアイテムをスクラブする効率的な方法を提供し、それにより、第1のコンテンツアイテムをスクラブするときのユーザの認知的負担を低減する。
【0384】
いくつかの実施形態では、第2の入力を検出している間に、1つ以上の第2の基準が満たされず、コンテンツが没入コンテンツとして表示される(例えば、第1のコンテンツアイテムが第2の提示モードで提示されていた間に第2の入力が受信された)という判定に従って(1424a)、第1のコンテンツアイテムがユーザの視野の閾値部分を超えて(例えば、70%、60%、50%、40%、30、又は20%を超えて)占有している場合、電子デバイスは、メディアユーザインタフェースオブジェクト内の第1のコンテンツアイテムの再生を一時停止する(1424b)。例えば、
図13Dにおいて、メディアアイテム1323は、電子デバイス101がスクラブバー1312jでスクラブする要求を検出したことに応じて一時停止される。
【0385】
いくつかの実施形態では、第2の入力を検出している間に、1つ以上の第2の基準が満たされず、コンテンツが没入コンテンツとして表示されるという判定に従って(1424a)、電子デバイスは、三次元環境において(例えば、メディアユーザインタフェースオブジェクトにおいて、又は再生制御ユーザインタフェースにおいて)、没入コンテンツとは別個の第1のコンテンツアイテム内の個別のコンテンツ(の例えばサムネイル表現)の視覚的インジケーション(例えばプレビュー表現1346)を表示し(1424c)(例えば、いくつかの実施形態では、第1のコンテンツアイテム内の個別のコンテンツの視覚的インジケーションは、メディアユーザインタフェースオブジェクトよりも小さい(例えば、角度又は表示)サイズで表示される)、個別のコンテンツは、ユーザの個別の部分が移動するにつれて没入コンテンツの外観を変化させることなく、ユーザの個別の部分が移動するにつれて変化する第1のコンテンツアイテム内の現在のスクラブポジションに対応する。例えば、第1のコンテンツアイテムが第2の提示モードで提示されている間に第1のコンテンツアイテムをスクラブする要求が受信されると、第1のコンテンツアイテムの(例えば、第1のコンテンツアイテムに関連付けられた)スクラブポジションは、ユーザの個別の部分の移動に基づいて(例えば、リアルタイムで)変化するが、スクラブポジションの変化は、メディアユーザインタフェースオブジェクトに提示されているコンテンツを変化させない。その代わりに、現在のスクラブポジションでのコンテンツのプレビューは、ポップアップするサムネイルで表示され、左右の手の移動とともに左右に移動する。いくつかの実施形態では、個別の部分が第1の方向(例えば、右方向)に移動するとき、スクラブポジションは、時間的に前方に移動する(例えば、第1のコンテンツアイテムを通って早送りする)。いくつかの実施形態では、スクラブポジションは、個別の部分が第2の方向(例えば、左方向)に移動するときに、時間的に後方に移動する(例えば、第1のコンテンツアイテムを巻き戻す)。いくつかの実施形態では、視覚的インジケーションは、ユーザの視野内で占有するメディアユーザインタフェースの量と比較して、ユーザの視野のより少ない部分(例えば、ユーザの視野の70%、60%、50%、40%、30、又は20%)を占有する。
【0386】
いくつかの実施形態では、第2の入力の終了を検出したことに応じて(例えば、いくつかの実施形態では、ユーザの個別の部分が閾値時間量(例えば、3、5、10、15秒)を超えて移動しない場合、第2の入力の終了が検出される。いくつかの実施形態では、個別の部分がユーザの手に対応し、ユーザの手の親指と人差し指が互いに閾値距離(例えば、互いに0.1、0.3、0.5、1、2インチ以内)離れている間にユーザの手が移動している場合、第2の入力の終了は、ユーザの親指と人差し指が互いに閾値距離離れて移動すること(例えば、互いに離れるように(例えば、0.1、0.3、0.5、1、又は2インチ)移動すること)を含む第3の入力が受信されたときに、任意選択的に検出される。)電子デバイスは、個別のコンテンツの視覚的インジケーションの表示を中止し(1424d)、第2の入力の終了が検出された個別のスクラブポジションから開始して、メディアユーザインタフェースオブジェクト内の第1のコンテンツアイテムを没入コンテンツとして再生する(1424d)。例えば、ユーザが第1のコンテンツアイテムのスクラブを終了すると(第2の入力の終了が検出されることによって示される)、視覚的インジケーションは三次元環境内に表示されることを停止し、メディアユーザオブジェクト内の第1のコンテンツアイテムは、ユーザが最後にスクラブした場所(例えば、第2の入力の終了が検出される直前に検出されたスクラブポジション)に基づいて再生を再開する(例えば、再生を開始する)。
【0387】
第1のコンテンツアイテムが表示されるメディアユーザインタフェースオブジェクトを直接修正する代わりに、現在のスクラブポジションに対応する第1のコンテンツアイテム内のコンテンツの視覚的インジケーションを表示することは、コンテンツが第2の提示モードで提示されている間に第1のコンテンツアイテムをスクラブする効率的な方法を提供し、それにより、第1のコンテンツアイテムをスクラブするときのユーザの認知的負担を低減する。
【0388】
いくつかの実施形態では、1つ以上の第2の基準は、第1のコンテンツアイテム(例えば、メディアアイテム1323)がユーザの視野の閾値部分未満(例えば、ユーザの視野の70%、60%、50%、40%、30、又は20%未満)を占有していた間に第2の入力が受信されたときに満たされ、第1のコンテンツアイテム(例えば、メディアアイテム1323)がユーザの視野の閾値部分を超える部分(例えば、ユーザの視野の70%、60%、50%、40%、30、又は20%を超える部分)を占有していた間に第2の入力が受信されたときに満たされない基準を含む(1426a)。例えば、1つ又は第2の基準が満たされる場合、ユーザの個別の部分(例えば、手)の移動に基づいて第1のコンテンツアイテムをスクラブすることは、ユーザの個別の部分の移動によって定義される現在のスクラブポジションに対応するようにメディアユーザインタフェースオブジェクトを(例えば、リアルタイムで)更新させる。逆に、1つ以上の第2の基準が満たされない場合、いくつかの実施形態では、ユーザの個別の部分の移動に従って第1のコンテンツアイテムをスクラブすることは、ユーザの個別の部分の移動によって定義される現在のスクラブポジションに対応するようにメディアユーザインタフェースオブジェクト内のコンテンツを(例えば、リアルタイムで)更新させない。満たされた1つ以上の基準に基づいて異なる方法で第1のコンテンツアイテムをスクラブすることは、メディアユーザインタフェースオブジェクト、第1のコンテンツアイテム、及び/又は三次元環境の特性に基づいて第1のコンテンツアイテムをスクラブする効率的な方法を提供し、それによって、第1のコンテンツアイテムをスクラブするときのユーザの認知的負担を低減する。
【0389】
いくつかの実施形態では、第1の提示モードでの第1のコンテンツアイテムの提示中に、第1のコンテンツアイテムは、三次元環境において第1のサイズ(例えば、
図13Aに示すメディアアイテム1323のサイズ)で表示され、第2の提示モードでの第1のコンテンツアイテムの提示中に、第1のコンテンツアイテムは、三次元環境において第1のサイズよりも大きい第2のサイズ(例えば、
図13Cに示すメディアアイテム1323のサイズ)で表示される(1428a)。例えば、第1の提示モード中の第1のコンテンツアイテムの第1のサイズは、ユーザの視野の75%、60%、50%、40%、30%、20%、10%、又は5%未満を占有し、第2の提示モード中の第1のコンテンツアイテムの第2のサイズは、ユーザの視野の75%、60%、50%、40%、30%、20%、10%、又は5%超を占有する。いくつかの実施形態では、第1のコンテンツアイテムが第2のサイズで表示されている場合、第1の提示モード中の第1のコンテンツアイテムのサイズと比較して、第1のコンテンツアイテムのサイズが増加するだけでなく、第1のコンテンツアイテムに含まれる特徴/要素のサイズも増加する。したがって、いくつかの実施形態では、第2のサイズで第1のコンテンツアイテムを表示することは、(メディアユーザインタフェースオブジェクトのサイズだけでなく)第1のコンテンツアイテム内の特徴/要素のサイズ、深度、及び/又は寸法を増加させることを含む。例えば、いくつかの実施形態では、第1のコンテンツアイテムが第1のサイズで表示されている間に、第1のコンテンツアイテム内の三次元特徴/要素は、第1の長さ、幅、及び/又は深度で表示され、第1のコンテンツアイテムが第2のサイズで表示されるとき、三次元特徴/要素は、第2の(例えば、より大きい)長さ、幅、及び/又は深度で表示される。
【0390】
第1のコンテンツアイテムが第2の提示モードで表示されているときに第1のコンテンツアイテムのサイズを増加させることは、第2の提示モード中に電子デバイスのユーザが第1のコンテンツアイテム内に位置していたかのように第1のコンテンツアイテムを表示する効率的な方法を提供し、それによって、第2の提示モード中に第1のコンテンツアイテムに関与するときのユーザの認知的負担を低減する。
【0391】
いくつかの実施形態では、第1のコンテンツアイテムを第1の提示モードで提示することは、電子デバイスの物理的環境の第1の部分の表現が第1のレベルの視覚的強調を有する間に、第1のコンテンツを三次元環境で提示することを含む(1430a)。例えば、第1のコンテンツアイテムが第1の提示モードで提示されている間に、電子デバイスが位置する物理的環境の一部が三次元環境内に表される(例えば、部屋の角、壁、オブジェクト(例えば、家具)などの表現が三次元環境内に提示される)。いくつかの実施形態では、三次元環境は、第1のレベル(又は量)の不透明度を有する(例えば、完全又は部分的に不透明(80%、85%、90%、又は95%不透明)及び/又は第1の量の透明度を有する)物理的環境の第1の部分の表現を表示している。
【0392】
いくつかの実施形態では、第2の提示モードで第1のコンテンツアイテムを提示することは、物理的環境の第1の部分の視覚的強調を、第1の視覚的強調レベルよりも低い第2の視覚的強調レベルに低減することを含む(1430b)。例えば、ユーザ1322の視野内にある物理的環境の一部は、メディアアイテム1323が没入型提示モードで提示されているとき、非没入型提示モードよりも視覚的に強調されない。例えば、第1のコンテンツアイテムが第2の提示モードで提示されている間に、三次元環境内に表される物理的環境の部分は、第2の(異なる)レベルの不透明度又は透明度(例えば、いくつかの実施形態では、より高い不透明度又は透明度)で表示される。いくつかの実施形態では、第2の提示モードの間、物理的環境の第1の部分の表現は、第1の提示モードと比較して視覚的に強調されない。したがって、いくつかの実施形態では、物理的環境の第1の部分の表現は、第2の提示モードよりも第1の提示モードにおいて視覚的により顕著である。いくつかの実施形態では、第1のコンテンツの輝度は、第1の提示モードでより明るく、第2の提示モードでより暗くなる。いくつかの実施形態では、三次元環境の一部は、第1のコンテンツアイテムによって完全に遮蔽される。
【0393】
第2の提示モード中に電子デバイスの物理的環境の部分の表現を視覚的に強調しないことは、第2の提示モード中に第1のコンテンツアイテムに関連付けられていない三次元環境の部分を強調しない効率的な方法を提供し、それによって、第2の提示モードで第1のコンテンツアイテムに関与するときのユーザの認知的負担を低減する。
【0394】
いくつかの実施形態では、第1のコンテンツアイテムを第2の提示モードで提示している間に、第1のコンテンツアイテムの提示を第2の提示モード(例えば、没入モード)から第1の提示モードに遷移する第2のユーザインタフェース要素(例えば、
図13Dのユーザインタフェース要素1312a)を三次元環境に表示する。いくつかの実施形態では、第2のユーザインタフェースは、上述した同様の再生制御ユーザインタフェースに表示される。いくつかの実施形態では、第2のユーザインタフェース要素は、上述したように、再生制御ユーザインタフェースにおけるユーザインタフェース要素の選択と類似の方法で選択/対話される。いくつかの実施形態では、電子デバイスは、ユーザの視線が第2のユーザインタフェース要素に向けられている間にユーザがユーザの手の人差し指及び親指を使用してピンチングジェスチャを実行したときに、第2のユーザインタフェース要素の選択を検出する。いくつかの実施形態では、電子デバイスは、第2のユーザインタフェース要素のロケーションに対応する電子デバイスのタッチスクリーンのロケーションをユーザがタップしたときに、第2のユーザインタフェース要素の選択を検出する。いくつかの実施形態では、第2のユーザインタフェース要素は、第2のユーザインタフェース要素がフォーカスを有する間にマウス又はタッチパッド上でクリック動作が実行されたときに選択される。
【0395】
個別のユーザインタフェース要素の選択に応じて第1のコンテンツアイテムの提示を没入型提示モードから非没入型提示モードに遷移するオプションを表示することは、同じコンテンツアイテムの提示のモードを切り替える効率的な方法を提供し、それにより、メディアユーザインタフェースオブジェクトに関与するときのユーザの認知的負担を低減する。
【0396】
いくつかの実施形態では、第1の提示モードで第1のコンテンツアイテムを提示している間に、かつユーザの視点が第1の視点に対応している間に、第1のコンテンツアイテムの第1の部分はメディアユーザインタフェースオブジェクトに表示されるが、第1のコンテンツアイテムの第2の部分はメディアユーザインタフェースオブジェクトに表示されない(例えば、第1のコンテンツアイテムの第2の部分は第1の視点からのユーザの視野内にない)。いくつかの実施形態では、第1のコンテンツアイテムの第2の部分は、第1の部分と同時にメディアユーザインタフェースオブジェクトに表示することができない(例えば、第1のコンテンツアイテムの第1の部分及び第2の部分の組み合わされたサイズ、深度、寸法は、メディアユーザインタフェースオブジェクトに同時に表示することができない)ため、第1のコンテンツアイテムの第2の部分は、ユーザの視野内になく、電子デバイスは、第1の視点から第1の視点とは異なる第2の視点へのユーザの視点の移動を検出する(1434a)。いくつかの実施形態では、電子デバイスは、上記と同様の方法でユーザの視点の移動を検出する。いくつかの実施形態では、第1の視点から第2の視点へのユーザの視点の移動を検出したことに応じて、電子デバイスは、ユーザの第2の視点からメディアユーザインタフェースオブジェクト内に第1のコンテンツアイテムを表示し(1434b)、ユーザの第2の視点からメディアユーザインタフェースオブジェクト内に第1のコンテンツアイテムを表示することは、メディアユーザインタフェースオブジェクト内に第1のコンテンツアイテムの第2の部分を表示することを含む(例えば、メディアユーザインタフェースオブジェクトのユーザの視点が変化すると、電子デバイスは、第1のコンテンツアイテムの異なる部分を表示する)。例えば、ユーザ1322の視点が
図13Aの俯瞰
図1327に示される視点から
図13Eの俯瞰
図1327に示される視点に変化すると、メディアアイテム1323の追加の/新しい部分がユーザインタフェース1306に表示される。例えば、メディアユーザインタフェースのユーザの視点がメディアユーザインタフェースオブジェクトに対して垂直である場合、第1のコンテンツアイテムの第2の部分は、任意選択的に表示されない。いくつかの実施形態では、ユーザの視点がもはやメディアユーザインタフェースオブジェクトに対して垂直ではなく、メディアユーザインタフェースオブジェクトに対して異なるポーズ/配向となるようにユーザの視点が変化した場合、電子デバイスは、任意選択的に、第1のコンテンツアイテムの第2の部分を表示する(及び任意選択的に、第1のコンテンツアイテムの第1の部分をほとんど又は全く表示しない)。いくつかの実施形態では、メディアユーザインタフェースオブジェクトのユーザの視点が変化すると、メディアユーザインタフェースオブジェクト及び/又は第1のコンテンツアイテム(及び第1のコンテンツアイテムの特徴/要素)のサイズ及び/又はロケーションは変化せず、むしろ、メディアユーザインタフェースオブジェクトに対するユーザの視点に基づいて、第1のコンテンツアイテムの異なる部分がメディアユーザインタフェースオブジェクト内に表示される。
【0397】
メディアユーザインタフェースオブジェクトのユーザの視点に基づいて、メディアユーザインタフェース内に第1のコンテンツアイテムの部分を表示することは、第1の提示モードで第1のコンテンツの異なる部分を閲覧する効率的な方法を提供し、それによって、メディアユーザインタフェースオブジェクトに関与するときのユーザの認知的負担を低減させる。
【0398】
いくつかの実施形態では、第1のコンテンツアイテムが第2の提示モードで提示されている場合、ユーザの視野の縁部の閾値距離(例えば、1、2、5、7、10、20、40、又は80cm)以内に位置するコンテンツ、及び/又は第1のコンテンツアイテムの縁部の閾値距離以内に位置するコンテンツは、第1の透明度(例えば、80%、70%、60%、50%、又は40%)で表示される。いくつかの実施形態では、ユーザの視野及び/又はコンテンツアイテムの縁部におけるコンテンツの透明度は、ユーザの視野及び/又はコンテンツアイテムの縁部に近いコンテンツが、ユーザの視野及び/又はコンテンツアイテムのユーザの視野の縁部から遠いコンテンツよりも透明であるように、可変である。
【0399】
いくつかの実施形態では、方法800、1000、1200、及び/又は1400の態様/動作は、これらの方法の間で交換、置換、及び/又は追加され得る。例えば、方法800、1000、1200、及び/又は1400の三次元環境及びコンテンツアプリケーションは、任意選択的に、これらの方法間で交換、置換、及び/又は追加される。簡潔にするために、それらの詳細はここでは繰り返さない。
【0400】
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、想到される特定の用途に適した様々な変更で本発明及び様々な記載された実施形態を最良の形で使用することを有効化するために、これらの実施形態を選択し記載した。
【手続補正書】
【提出日】2024-06-24
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
方法であって、
表示生成構成要素及び1つ以上の入力デバイスと通信する電子デバイスにおいて、
三次元環境においてコンテンツアイテムを提示している間に、前記表示生成構成要素を介して、前記コンテンツアイテムに関連付けられたユーザインタフェースであって、前記ユーザインタフェースは、前記コンテンツアイテムの再生を修正するための1つ以上のユーザインタフェース要素と、前記三次元環境の外観に影響を及ぼす仮想照明効果を修正するための個別のユーザインタフェース要素と、を含む、ユーザインタフェースを表示することと、
前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記個別のユーザインタフェース要素に向けられたユーザ入力であって、前記ユーザ入力は、前記仮想照明効果を修正する要求に対応する、ユーザ入力を受信することと、
前記ユーザ入力を受信したことに応じて、
前記三次元環境において前記コンテンツアイテムを提示し続け、
前記仮想照明効果を前記三次元環境に適用することと、を含む、方法。
【請求項2】
前記個別のユーザインタフェースに向けられた前記ユーザ入力を受信する前に、前記電子デバイスは、前記表示生成構成要素を介して、前記仮想照明効果を用いずに前記三次元環境を表示し、
前記ユーザ入力を受信したことに応じて、前記電子デバイスは、前記表示生成構成要素を介して、前記仮想照明効果を用いて前記三次元環境を表示する、請求項1に記載の方法。
【請求項3】
前記個別のユーザインタフェースに向けられた前記ユーザ入力を受信する前に、前記電子デバイスは、前記表示生成構成要素を介して、第1の量の前記仮想照明効果を用いて前記三次元環境を表示し、
前記ユーザ入力を受信したことに応じて、前記電子デバイスは、前記表示生成構成要素を介して、第2の量であって、前記第2の量は、前記第1の量とは異なる、第2の量の前記仮想照明効果を用いて前記三次元環境を表示する、請求項
1に記載の方法。
【請求項4】
前記ユーザ入力を受信する前に、前記コンテンツアイテムを含まない前記三次元環境の領域は、第1の輝度レベルで表示され、
前記ユーザ入力に応じて前記仮想照明効果を用いて前記三次元環境を表示することは、前記コンテンツアイテムを含まない前記三次元環境の前記領域を、前記第1の輝度レベルとは異なる第2の輝度レベルで表示することを含む、請求項
1に記載の方法。
【請求項5】
前記ユーザ入力に応じて前記仮想照明効果を用いて前記三次元環境を表示することは、前記コンテンツアイテムから発する個別の仮想照明効果を前記三次元環境内の1つ以上のオブジェクト上に表示することを含む、請求項
1に記載の方法。
【請求項6】
前記個別のユーザインタフェースに向けられた前記ユーザ入力を受信する前に、前記電子デバイスは、前記表示生成構成要素を介して、前記コンテンツアイテムを含まない前記三次元環境の領域を第1の輝度レベルで表示することと、前記コンテンツアイテムから発する、第1の量の個別の仮想照明効果を前記三次元環境内の1つ以上のオブジェクト上に表示することとを含む、第1の量の前記仮想照明効果を有する前記三次元環境を表示し、
前記ユーザ入力を受信したことに応じて、前記電子デバイスは、前記表示生成構成要素を介して、前記コンテンツアイテムを含まない前記三次元環境の前記領域を第2の輝度レベルで表示することと、前記コンテンツアイテムから発する、第2の量の前記個別の仮想照明効果を前記三次元環境内の前記1つ以上のオブジェクト上に表示することとを含む、第2の量の前記仮想照明効果を有する前記三次元環境を表示する、請求項
1に記載の方法。
【請求項7】
前記ユーザ入力に応じて前記仮想照明効果を用いて前記三次元環境を表示することは、
前記1つ以上の入力デバイスを介して、前記電子デバイスのユーザの注意が前記三次元環境の第1の領域に向けられていることを検出したことに従って、前記表示生成構成要素を介して、第1の量の前記仮想照明効果を用いて前記三次元環境を表示することと、
前記1つ以上の入力デバイスを介して、前記ユーザの前記注意が前記三次元環境の前記第1の領域とは異なる第2の領域に向けられていることを検出したことに従って、前記表示生成構成要素を介して、前記第1の量とは異なる第2の量の前記仮想照明効果を用いて前記三次元環境を表示することと、を含む、請求項
1に記載の方法。
【請求項8】
前記仮想照明効果を用いずに前記三次元環境を表示している間に、前記1つ以上の入力デバイスを介して、所定の時間閾値未満の間、既定のポーズにある前記電子デバイスのユーザの既定の部分を検出することを含む、前記個別のユーザインタフェース要素に向けられた第1の入力を前記1つ以上の入力デバイスを介して受信することと、
前記第1の入力を受信したことに応じて、前記表示生成構成要素を介して、前記仮想照明効果を用いて前記三次元環境を表示することと、
前記仮想照明効果を用いて前記三次元環境を表示している間に、前記1つ以上の入力デバイスを介して、前記所定の時間閾値未満の間、前記既定のポーズにある前記電子デバイスの前記ユーザの前記既定の部分を検出することを含む、前記個別のユーザインタフェース要素に向けられた第2の入力を前記1つ以上の入力デバイスを介して受信することと、
前記第2の入力を受信したことに応じて、前記表示生成構成要素を介して、前記仮想照明効果を用いずに前記三次元環境を表示することと、を更に含む、請求項
1に記載の方法。
【請求項9】
第1の量の前記仮想照明効果を用いて前記三次元環境を表示している間に、ユーザの既定の部分が既定のポーズにある間に前記1つ以上の入力デバイスを介して前記電子デバイスの前記ユーザの前記既定の部分の移動を検出することを含む、前記1つ以上の入力デバイスを介して、前記個別のユーザインタフェース要素に向けられた入力を受信することと、
前記個別のユーザインタフェース要素に向けられた前記入力に応じて、前記表示生成構成要素を介して、第2の量であって、前記第2の量は、前記ユーザの前記既定の部分が前記既定のポーズにある間の前記ユーザの前記既定の部分の前記移動に基づく、第2の量の前記仮想照明効果を用いて前記三次元環境を表示すること、を更に含む、請求項
1に記載の方法。
【請求項10】
前記コンテンツアイテムが再生されている間に、
前記表示生成構成要素を介して、前記仮想照明効果を用いて前記三次元環境を表示し、
前記1つ以上の入力デバイスを介して、前記コンテンツアイテムを一時停止する要求に対応するユーザ入力を受信することと、
前記コンテンツアイテムを一時停止する前記要求に対応する前記ユーザ入力を受信したことに応じて、
前記コンテンツアイテムを一時停止し、
前記表示生成構成要素を介して、前記仮想照明効果を用いずに前記三次元環境を表示することと、を更に含む、請求項
1に記載の方法。
【請求項11】
前記1つ以上の入力デバイスを介して、前記コンテンツアイテムの再生を修正するための前記1つ以上のユーザインタフェース要素の第2の個別のインタフェース要素に向けられた個別のユーザ入力を受信することと、
前記個別のユーザ入力を受信したことに応じて、
前記第2の個別のユーザインタフェース要素が、選択されると、前記電子デバイスに前記コンテンツアイテムの再生と一時停止とを切り替えさせるユーザインタフェース要素であるという判定に従って、前記コンテンツアイテムの再生又は一時停止状態を切り替え、
前記第2の個別のユーザインタフェース要素が、選択されると、前記電子デバイスに前記コンテンツアイテムの再生ポジションを更新させるユーザインタフェース要素であるという判定に従って、前記個別のユーザ入力に従って前記コンテンツアイテムの前記再生ポジションを更新することと、を更に含む、請求項
1に記載の方法。
【請求項12】
前記1つ以上の入力デバイスを介して、前記コンテンツアイテムの再生を修正するための前記1つ以上のユーザインタフェース要素の第2の個別のインタフェース要素に向けられた個別のユーザ入力を受信することと、
前記個別のユーザ入力を受信したことに応じて、
前記第2の個別のユーザインタフェース要素が、選択されると、前記電子デバイスに、前記コンテンツアイテムのオーディオコンテンツのボリュームを修正させるユーザインタフェース要素であるという判定に従って、前記個別の入力に従って前記オーディオコンテンツの前記ボリュームを修正することと、を更に含む、請求項
1に記載の方法。
【請求項13】
前記コンテンツアイテムに関連付けられた前記ユーザインタフェースは、前記コンテンツアイテムとは別個のユーザインタフェースであり、前記表示生成構成要素を介して、前記コンテンツアイテムと前記三次元環境内の前記電子デバイスのユーザの視点との間に表示される、請求項
1に記載の方法。
【請求項14】
前記コンテンツアイテムは、前記表示生成構成要素を介して、前記三次元環境内の前記ユーザの視点に対して第1の角度で表示され、
前記コンテンツアイテムに関連付けられた前記ユーザインタフェースは、前記表示生成構成要素を介して、前記三次元環境内の前記ユーザの前記視点に対して、前記第1の角度とは異なる第2の角度で表示される、請求項13に記載の方法。
【請求項15】
前記電子デバイスは、前記1つ以上の入力デバイスを介して、1つ以上の基準を満たすポーズにある前記電子デバイスのユーザの既定の部分を検出したことに応じて、前記コンテンツアイテムの再生を修正するための前記1つ以上のユーザインタフェース要素を表示する、請求項
1に記載の方法。
【請求項16】
前記コンテンツアイテムの再生を修正するための前記1つ以上のユーザインタフェース要素を表示している間に、前記1つ以上の入力デバイスを介して、前記1つ以上の基準を満たさないポーズにある前記ユーザの前記既定の部分を検出することと、
前記1つ以上の基準を満たさない前記ポーズにおける前記ユーザの前記既定の部分を検出したことに応じて、前記コンテンツアイテムの再生を修正するための前記1つ以上のユーザインタフェース要素の、前記電子デバイスが前記表示生成構成要素を介して表示する視覚的強調を低減することと、を更に含む、請求項1
5に記載の方法。
【請求項17】
前記表示生成構成要素を介して、前記コンテンツアイテムを第1のサイズで、前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを第2のサイズで表示している間に、前記1つ以上の入力デバイスを介して、前記コンテンツアイテムをサイズ変更する要求に対応する入力を受信することと、
前記コンテンツアイテムをサイズ変更する前記要求に対応する前記入力を受信したことに応じて、
前記表示生成構成要素を介して、前記コンテンツアイテムをサイズ変更する前記要求に対応する前記入力に従って、前記第1のサイズとは異なる第3のサイズで前記コンテンツアイテムを表示し、
前記表示生成構成要素を介して、前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを前記第2のサイズで表示することと、を更に含む、請求項
1に記載の方法。
【請求項18】
前記表示生成構成要素を介して、前記三次元環境内
のユーザの視点から第1のサイズ及び第1の距離で前記コンテンツアイテムを表示し、前記三次元環境内の前記ユーザの前記視点から第2のサイズ及び第2の距離で前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記三次元環境において前記コンテンツアイテムを再配置する要求に対応する入力を受信することと、
前記コンテンツアイテムを再配置する前記要求に対応する前記入力を受信したことに応じて、
前記表示生成構成要素を介して、前記コンテンツアイテムを再配置する前記要求に対応する前記入力に従って、前記三次元環境において前記ユーザの前記視点から前記第1の距離とは異なる第3の距離に第3のサイズで前記コンテンツアイテムを表示し、
前記表示生成構成要素を介して、前記コンテンツアイテムを再配置するための前記要求に対応する前記入力に従って、前記コンテンツアイテムに関連付けられた前記ユーザインタフェースを、前記第2のサイズで、前記ユーザの前記視点から第4の距離に表示することと、を更に含む、請求項
1に記載の方法。
【請求項19】
前記コンテンツアイテムは、前記三次元環境内の前記コンテンツアイテムに関連付けられた前記ユーザインタフェースとは別個であり、前記方法は、
前記表示生成構成要素を介して、前記コンテンツアイテムの再生を修正するための1つ以上の第2のユーザインタフェース要素であって、前記1つ以上の第2のユーザインタフェース要素は、前記三次元環境内の前記コンテンツアイテム上にオーバーレイされて表示される、1つ以上の第2のユーザインタフェース要素を表示することを更に含む、請求項
1に記載の方法。
【請求項20】
前記1つ以上の入力デバイスを介して、前記1つ以上のユーザインタフェース要素の個別のユーザインタフェース要素に向けられ
たユーザの注意が1つ以上の第1の基準を満たすことを検出することと、
前記個別のユーザインタフェース要素に向けられた前記ユーザの前記注意が前記1つ以上の第1の基準を満たすことを検出したことに応じて、
前記個別のユーザインタフェース要素が1つ以上の第2の基準を満たすという判定に従って、前記表示生成構成要素を介して、前記個別のユーザインタフェース要素の機能を識別する視覚的インジケーションを表示し、
前記個別のユーザインタフェース要素が前記1つ以上の第2の基準を満たさないという判定に従って、前記個別のユーザインタフェース要素の前記機能を識別する前記視覚的インジケーションの表示を取り止めることと、を更に含む、請求項
1に記載の方法。
【請求項21】
前記表示生成構成要素を介して、前記コンテンツアイテム及び前記コンテンツアイテムに関連付けられた前記ユーザインタフェースとは別に表示される個別のユーザインタフェース要素を表示することと、
前記個別のユーザインタフェース要素を表示している間に、前記1つ以上の入力デバイスを介して、前記個別のユーザインタフェース要素に向けられた入力を受信することと、
前記個別のユーザインタフェース要素に向けられた前記入力を検出したことに応じて、前記個別のユーザインタフェース要素に向けられた前記入力に従って、前記三次元環境において前記コンテンツアイテムをサイズ変更するためのプロセスを開始することと、を更に含む、請求項
1に記載の方法。
【請求項22】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項1から21のいずれか一項に記載の方法を実行する、命令を含む、電子デバイス。
【請求項23】
1つ以上のプログラ
ムであって、前記1つ以上のプログラムが、命令を含み、前記命令が、電子デバイスの1つ以上のプロセッサによって実行されると、前記電子デバイスに、請求項1から21のいずれか一項に記載の方法を実行させる、
1つ以上のプログラム。
【国際調査報告】