IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ アップル インコーポレイテッドの特許一覧

特表2024-537657メディア及び三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-10-16
(54)【発明の名称】メディア及び三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース
(51)【国際特許分類】
   G06F 3/0484 20220101AFI20241008BHJP
   G06F 3/01 20060101ALI20241008BHJP
   G06F 3/0482 20130101ALI20241008BHJP
   G06F 3/0483 20130101ALI20241008BHJP
   G06F 3/04842 20220101ALI20241008BHJP
   G06F 3/0346 20130101ALI20241008BHJP
   G06T 19/00 20110101ALI20241008BHJP
【FI】
G06F3/0484
G06F3/01
G06F3/0482
G06F3/0483
G06F3/01 570
G06F3/04842
G06F3/0346 423
G06T19/00 600
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024515963
(86)(22)【出願日】2022-09-24
(85)【翻訳文提出日】2024-03-18
(86)【国際出願番号】 US2022044637
(87)【国際公開番号】W WO2023049418
(87)【国際公開日】2023-03-30
(31)【優先権主張番号】63/248,222
(32)【優先日】2021-09-24
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】17/952,206
(32)【優先日】2022-09-23
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】63/409,695
(32)【優先日】2022-09-23
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.BLUETOOTH
2.FIREWIRE
3.THUNDERBOLT
4.ZIGBEE
5.ツイッター
(71)【出願人】
【識別番号】503260918
【氏名又は名称】アップル インコーポレイテッド
【氏名又は名称原語表記】Apple Inc.
【住所又は居所原語表記】One Apple Park Way,Cupertino, California 95014, U.S.A.
(74)【代理人】
【識別番号】110003281
【氏名又は名称】弁理士法人大塚国際特許事務所
(72)【発明者】
【氏名】パストラーナ ヴィセンテ, イスラエル
(72)【発明者】
【氏名】アポダカ, グレゴリー エム.
(72)【発明者】
【氏名】ベーゼル, ベンジャミン エイチ.
(72)【発明者】
【氏名】チウ, シ‐サン
(72)【発明者】
【氏名】クラーク, グラハム アール.
(72)【発明者】
【氏名】ホルダー, ウェスリー エム.
(72)【発明者】
【氏名】リン, チア ヤン
(72)【発明者】
【氏名】マンザリ, ジョニー ビー.
(72)【発明者】
【氏名】オルソン, アール エム.
(72)【発明者】
【氏名】オーウェン, ジェームス ジェイ.
(72)【発明者】
【氏名】ラヴァズ, ジョナサン
(72)【発明者】
【氏名】エスタニー ロドリゲス, ミケル
(72)【発明者】
【氏名】サラン, ヴィーダント
(72)【発明者】
【氏名】シュミドチェン, ブライス エル.
(72)【発明者】
【氏名】ソレンティーノ サード, ウィリアム エー.
(72)【発明者】
【氏名】ウェインステイン, マイケル アイ.
【テーマコード(参考)】
5B050
5B087
5E555
【Fターム(参考)】
5B050BA09
5B050BA13
5B050CA07
5B050CA08
5B050DA01
5B050DA10
5B050EA07
5B050EA12
5B050EA18
5B050EA19
5B050FA02
5B050FA09
5B050GA08
5B087AE09
5B087BC06
5B087DD03
5B087DE06
5E555AA24
5E555AA27
5E555AA64
5E555BA04
5E555BB04
5E555BC17
5E555BE16
5E555BE17
5E555CA12
5E555CA42
5E555CB12
5E555CB17
5E555CB19
5E555CB55
5E555CB65
5E555CB66
5E555CB76
5E555CC23
5E555DA08
5E555DA09
5E555DB20
5E555DB53
5E555DB57
5E555DC02
5E555DC09
5E555DC11
5E555DC13
5E555DC24
5E555DC26
5E555DC30
5E555DC36
5E555DC43
5E555DC82
5E555EA07
5E555FA00
(57)【要約】
本開示は、概して、メディアアイテムを視聴し、メディアアイテムと相互作用するためのユーザインタフェースを含む、電子デバイスのためのユーザインタフェースに関する。本開示はまた、いくつかの実施形態による、拡張現実(XR)体験をユーザに提供するユーザインタフェースに関する。本明細書で説明されるシステム、方法、及びグラフィカルユーザインタフェース(GUI)は、複数の方法での仮想/拡張現実環境とのユーザインタフェース相互作用を対象とする。いくつかの実施形態では、表示されたコンテンツの1つ以上の視覚特性は、ユーザの視線が向けられている場所に基づいて修正される。
【特許請求の範囲】
【請求項1】
方法であって、
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、
前記表示生成構成要素を介して、第1のメディアアイテムの表現を含む複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを表示することと、
前記メディアライブラリユーザインタフェースを表示している間に、
第1の時点で、前記1つ以上の入力デバイスを介して、前記メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出したことに応じて、前記第1のメディアアイテムの前記表現の外観を、前記表示生成構成要素を介して、第1の方式で表示されることから、前記第1の方式とは異なる第2の方式で表示されることに変更し、
前記第1の時点の後の第2の時点で、前記1つ以上の入力デバイスを介して、前記第1のポジションとは異なる前記メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出し、
前記メディアライブラリユーザインタフェース内の前記第2のポジションに対応する前記ユーザ視線を検出したことに応じて、前記表示生成構成要素を介して、前記第2の方式とは異なる第3の方式で前記第1のメディアアイテムの前記表現を表示することと、を含む、方法。
【請求項2】
前記表示生成構成要素を介して、前記第1のメディアアイテムとは異なる第2のメディアアイテムの表現を含む前記複数のメディアアイテムの表現を含む前記メディアライブラリユーザインタフェースを表示することと、
前記第2のメディアアイテムの前記表現を含む前記メディアライブラリユーザインタフェースを表示している間に、
前記1つ以上の入力デバイスを介して、前記メディアライブラリユーザインタフェース内の第3のポジションに対応するユーザ視線を検出し、
前記メディアライブラリユーザインタフェース内の前記第3のポジションに対応する前記ユーザ視線を検出したことに応じて、前記第2のメディアアイテムの前記表現の外観を、第4の方式で表示されることから、前記第4の方式とは異なる第5の方式で表示されることに変更することと、
を更に含む、請求項1に記載の方法。
【請求項3】
前記第1のメディアアイテムは、第1の要素及び第2の要素を含む複数の要素を含み、
前記第1のメディアアイテムの前記表現を前記第1の方式で表示することは、前記第1の要素及び前記第2の要素を第1の二次元平面内に表示することを含み、
前記第1のメディアアイテムの前記表現を前記第2の方式で表示することは、前記第1の二次元平面の外側に延びる第3の次元に沿って前記第1の要素と前記第2の要素とを分離すること、
を含む、請求項1又は2に記載の方法。
【請求項4】
前記第1のメディアアイテムの前記表現を前記第1の方式で表示することは、ユーザに対する第1のポジションに前記第1のメディアアイテムの前記表現を表示することを含み、
前記第1のメディアアイテムの前記表現を前記第2の方式で表示することは、前記第1のポジションよりも前記ユーザから更に離れた、前記ユーザに対する第2のポジションに前記第1のメディアアイテムの前記表現を表示すること、
を含む、請求項1~3のいずれか一項に記載の方法。
【請求項5】
前記第1のメディアアイテムは、ビデオコンテンツを含み、
前記第1のメディアアイテムの前記表現を前記第1の方式で表示することは、前記第1のメディアアイテムの前記ビデオコンテンツの静的表現を表示することを含み、
前記第1のメディアアイテムの前記表現を前記第2の方式で表示することは、前記第1のメディアアイテムの前記ビデオコンテンツの再生を表示すること、
を含む、請求項1~4のいずれか一項に記載の方法。
【請求項6】
前記第2の方式とは異なる前記第3の方式で前記第1のメディアアイテムの前記表現を表示することは、前記第1のメディアアイテムの前記ビデオコンテンツの第2の静的表現を表示すること、
を含む、請求項5に記載の方法。
【請求項7】
前記第1のメディアアイテムの前記表現を前記第2の方式で表示することは、前記第1のメディアアイテムの前記ビデオコンテンツにローパスフィルタを適用することを含む、請求項5又は6に記載の方法。
【請求項8】
前記第1のメディアアイテムの前記表現を前記第2の方式で表示している間に、前記第1のメディアアイテムの前記ビデオコンテンツの再生を表示し、前記第1のメディアアイテムのオーディオコンテンツを第1の音量レベルで出力することを含むことと、
前記メディアライブラリユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出することと、
前記第1のメディアアイテムの選択に対応する前記1つ以上のユーザ入力を検出したことに応じて、
前記第1のメディアアイテムのオーディオコンテンツを、前記第1の音量レベルよりも大きい第2の音量レベルで出力することと、
を更に含む、請求項5~7のいずれか一項に記載の方法。
【請求項9】
前記第1のメディアアイテムの前記ビデオコンテンツの再生を表示することは、前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出したことに応じて実行される、請求項5~8のいずれか一項に記載の方法。
【請求項10】
前記第1のメディアアイテムは、第1の要素及び第2の要素を含む複数の要素を含み、前記方法は、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出し続けている間に、
前記表示生成構成要素を介して、前記ユーザの視点が前記第1のメディアアイテムに対してシフトするにつれて、前記第2の要素に対して移動する前記第1の要素を表示することを更に含む、請求項1~9のいずれか一項に記載の方法。
【請求項11】
前記1つ以上の入力デバイスを介して、前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応するユーザ視線を検出することと、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出し続けている間に、前記1つ以上の入力デバイスを介して、1つ以上のユーザジェスチャを検出することと、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出し続けている間に前記1つ以上のユーザジェスチャを検出したことに応じて、前記第1のメディアアイテムの前記表現の外観を、前記表示生成構成要素を介して、第7の方式で表示されることから、前記第7の方式とは異なる第8の方式で表示されることに変更することと、
を更に含む、請求項1~10のいずれか一項に記載の方法。
【請求項12】
前記1つ以上のユーザジェスチャは、ピンチジェスチャを含む、
請求項11に記載の方法。
【請求項13】
前記第1のメディアアイテムは、第1の要素及び第2の要素を含む複数の要素を含み、
前記第7の方式で前記第1のメディアアイテムの前記表現を表示することは、
前記第1の要素を第1のポジションに表示することと、
前記第1のポジションよりも前記コンピュータシステムのユーザに近い第2のポジションに前記第2の要素を表示することと、を含み、
前記1つ以上のユーザジェスチャは、第1のジェスチャを含み、
前記方法が、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出し続けている間に前記第1のジェスチャを検出したことに応じて、前記第1の要素に対して前記第2の要素を移動させて、前記第1の要素と前記第2の要素との間の距離を減少させることを更に含む、
請求項11又は12に記載の方法。
【請求項14】
前記1つ以上のユーザジェスチャは、前記第1のジェスチャに続いて実行される第2のジェスチャを含み、
前記方法が、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出し続けている間に前記第2のジェスチャを検出したことに応じて、前記第1の要素に対して前記第2の要素を移動させて、前記第1の要素と前記第2の要素との間の距離を増加させることを更に含む、
請求項13に記載の方法。
【請求項15】
前記1つ以上のユーザジェスチャは、前記第1のジェスチャに続いて実行される第3のジェスチャを含み、
前記第3のジェスチャは、前記第1のメディアアイテムのユーザ選択を示し、
前記方法が、
前記第3のジェスチャを検出したことに応じて、前記第1の要素と前記第2の要素との間の前記距離を増加させることを更に含む、
請求項13又は14に記載の方法。
【請求項16】
前記メディアライブラリユーザインタフェースを表示することは、前記第1のメディアアイテムの前記表現と同時に、前記第1のメディアアイテムの表現とは異なる第2のメディアアイテムの表現を表示することを含み、
前記1つ以上のユーザジェスチャは、前記第1のメディアアイテムの選択に対応する第1の選択ジェスチャを含み、
前記方法が、
前記第1のメディアアイテムの選択に対応する前記第1の選択ジェスチャを検出したことに応じて、前記第2のメディアアイテムの前記表現を視覚的に不明瞭にすることを更に含む、
請求項11~15のいずれか一項に記載の方法。
【請求項17】
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出している間に
前記1つ以上の入力デバイスを介して、1つ以上のユーザジェスチャの第2のセットを検出することと、
1つ以上のユーザジェスチャの前記第2のセットを検出したことに応じて、1つ以上のユーザジェスチャの前記第2のセットに基づいて前記第1のメディアアイテムの前記表現の視覚的コンテンツをシフトすることと、
を更に含む、請求項1~16のいずれか一項に記載の方法。
【請求項18】
前記メディアライブラリユーザインタフェースを表示している間に、
前記1つ以上の入力デバイスを介して、ピンチジェスチャ及びドラッグジェスチャを含む1つ以上のユーザジェスチャの第3のセットを検出することと、
1つ以上のユーザジェスチャの前記第3のセットを検出したことに応じて、前記メディアライブラリユーザインタフェースのスクロールを表示することと、
を更に含む、請求項1~17のいずれか一項に記載の方法。
【請求項19】
前記メディアライブラリユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出することと、
前記第1のメディアアイテムの選択に対応する前記1つ以上のユーザ入力を検出したことに応じて、前記表示生成構成要素を介して、前記メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース内に前記第1のメディアアイテムを表示することと、
前記選択されたメディアユーザインタフェース内に前記第1のメディアアイテムを表示している間に、前記1つ以上の入力デバイスを介して、ピンチジェスチャ及びドラッグジェスチャを含む1つ以上のユーザジェスチャの第4のセットを検出することと、
1つ以上のユーザジェスチャの前記第4のセットを検出したことに応じて、
前記選択されたメディアユーザインタフェース内の前記第1のメディアアイテムの表示を中止し、
前記表示生成構成要素を介して、前記選択されたメディアユーザインタフェース内に前記第1のメディアアイテムとは異なる第2のメディアアイテムを表示することと、
を更に含む、請求項1~18のいずれか一項に記載の方法。
【請求項20】
前記メディアライブラリユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出することと、
前記第1のメディアアイテムの選択に対応する前記1つ以上のユーザ入力を検出したことに応じて、前記表示生成構成要素を介して、前記メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース内に前記第1のメディアアイテムを表示することと、
前記選択されたメディアユーザインタフェース内に前記第1のメディアアイテムを表示している間に、前記1つ以上の入力デバイスを介して、ピンチジェスチャ及びドラッグジェスチャを含む1つ以上のユーザジェスチャの第5のセットを検出することと、
1つ以上のユーザジェスチャの前記第5のセットを検出したことに応じて、
前記選択されたメディアユーザインタフェースの表示を中止し、
前記表示生成構成要素を介して、前記メディアライブラリユーザインタフェースを表示することと、
を更に含む、請求項1~19のいずれか一項に記載の方法。
【請求項21】
前記メディアライブラリユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出することと、
前記第1のメディアアイテムの選択に対応する前記1つ以上のユーザ入力を検出したことに応じて、前記表示生成構成要素を介して、前記メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース内に前記第1のメディアアイテムを表示することと、
前記選択されたメディアユーザインタフェース内に前記第1のメディアアイテムを表示している間に、前記1つ以上の入力デバイスを介して、ピンチジェスチャ及びドラッグジェスチャを含む1つ以上のユーザジェスチャの第6のセットを検出することと、
1つ以上のユーザジェスチャの前記第6のセットを検出したことに応じて、
前記ドラッグジェスチャが第1の方向に対応するという判定に従って、
前記選択されたメディアユーザインタフェース内の前記第1のメディアアイテムの表示を中止し、
前記表示生成構成要素を介して、前記選択されたメディアユーザインタフェース内に前記第1のメディアアイテムとは異なる第2のメディアアイテムを表示することと、
前記ドラッグジェスチャが前記第1の方向とは異なる第2の方向に対応するという判定に従って、
前記選択されたメディアユーザインタフェースの表示を中止し、
前記表示生成構成要素を介して、前記メディアライブラリユーザインタフェースを表示することと、
を更に含む、請求項1~20のいずれか一項に記載の方法。
【請求項22】
前記メディアライブラリユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出することと、
前記第1のメディアアイテムの選択に対応する前記1つ以上のユーザ入力を検出したことに応じて、前記表示生成構成要素を介して、前記メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース内に前記第1のメディアアイテムを表示することと、
前記選択されたメディアユーザインタフェース内に前記第1のメディアアイテムを表示している間に、
ユーザの手が第1の状態にあるという判定に従って、前記表示生成構成要素を介して、ユーザインタフェースコントロールの第1のセットを表示し、
前記ユーザの前記手が前記第1の状態とは異なる第2の状態にあるという判定に従って、ユーザインタフェースコントロールの前記第1のセットを表示することを取り止めることと、
を更に含む、請求項1~21のいずれか一項に記載の方法。
【請求項23】
前記メディアライブラリユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディアアイテムの選択に対応する1つ以上のユーザジェスチャの第7のセットを検出することと、
1つ以上のユーザジェスチャの前記第7のセットを検出したことに応じて、
照明効果の第1のセットを表示することから、照明効果の前記第1のセットとは異なる照明効果の第2のセットを表示することに遷移させることであって、
照明効果の前記第1のセットを表示することに続いて、前記表示生成構成要素を介して、照明効果の中間セットであって、前記照明効果の中間セットは、照明効果の前記第1のセット及び照明効果の前記第2のセットとは異なる、照明効果の中間セットを表示し、
前記照明効果の中間セットを表示することに続いて、前記表示生成構成要素を介して、照明効果の前記第2のセットを表示することを含む、ことと、
を更に含む、請求項1~22のいずれか一項に記載の方法。
【請求項24】
前記表示生成構成要素を介して、前記メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース内に前記第1のメディアアイテムを表示することと、
前記選択されたメディアユーザインタフェース内に前記第1のメディアアイテムを表示している間に、前記1つ以上の入力デバイスを介して、前記選択されたメディアユーザインタフェースを閉じるためのユーザ要求に対応する1つ以上のユーザジェスチャの第8のセットを検出することと、
1つ以上のユーザジェスチャの前記第8のセットを検出したことに応じて、
照明効果の第3のセットを表示することから、照明効果の前記第3のセットとは異なる照明効果の第4のセットを表示することに遷移させることであって、
照明効果の前記第3のセットを表示することに続いて、前記表示生成構成要素を介して、照明効果の第2の中間セットであって、照明効果の前記第2の中間セットは、照明効果の前記第3のセット及び照明効果の前記第4のセットとは異なる、照明効果の第2の中間セットを表示し、
照明効果の前記第2の中間セットを表示することに続いて、前記表示生成構成要素を介して、照明効果の前記第4のセットを表示することを含む、ことと、
を更に含む、請求項1~23のいずれか一項に記載の方法。
【請求項25】
前記表示生成構成要素を介して、
前記メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース内の前記第1のメディアアイテムと、
視覚的コンテンツをナビゲートするためのナビゲーションユーザインタフェース要素と、を同時に表示することを更に含む、請求項1~24のいずれか一項に記載の方法。
【請求項26】
前記ナビゲーションユーザインタフェース要素は、選択されると、1つ以上のそれぞれのメディアアイテムに関連付けられたそれぞれの機能を実行する1つ以上の選択可能なコントロールを含む、請求項25に記載の方法。
【請求項27】
前記メディアライブラリユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出することと、
前記第1のメディアアイテムの選択に対応する前記1つ以上のユーザ入力を検出したことに応じて、
第1の基準のセットが満たされたという判定に従って、前記表示生成構成要素を介して、前記第1のメディアアイテムを第1の角度サイズで表示し、
前記第1の基準のセットが満たされていないという判定に従って、前記表示生成構成要素を介して、前記第1のメディアアイテムを前記第1の角度サイズとは異なる第2の角度サイズで表示することと、
を更に含む、請求項1~26のいずれか一項に記載の方法。
【請求項28】
前記表示生成構成要素を介して、前記第1のメディアアイテムであって、前記第1のメディアアイテムは、前記第1のメディアアイテムに適用されるビネッティングを伴って表示される、前記第1のメディアアイテムを表示すること、
を更に含む、請求項1~27のいずれか一項に記載の方法。
【請求項29】
前記1つ以上の入力デバイスを介して、前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応するユーザ視線を検出することと、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出し続けている間に、前記1つ以上の入力デバイスを介して、前記第1のメディアアイテムの選択に対応する選択ジェスチャを検出することと、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出し続けている間に、前記第1のメディアアイテムの前記選択に対応する前記選択ジェスチャを検出したことに応じて、
前記選択ジェスチャが第1のタイプの選択ジェスチャに対応するという判定に従って、前記表示生成構成要素を介して、前記第1のメディアアイテムを第9の方式で表示し、
前記選択ジェスチャが前記第1のタイプの選択ジェスチャとは異なる第2のタイプの選択ジェスチャに対応するという判定に従って、前記表示生成構成要素を介して、前記第9の方式とは異なる第10の方式で前記第1のメディアアイテムを表示することと、
を更に含む、請求項1~28のいずれか一項に記載の方法。
【請求項30】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項1~29のいずれか一項に記載の方法を実行するための命令を含む、非一時的コンピュータ可読記憶媒体。
【請求項31】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、請求項1~29のいずれか一項に記載の方法を実行するための命令を含む、コンピュータシステム。
【請求項32】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
請求項1~29のいずれか一項に記載の方法を実行するための手段を備える、コンピュータシステム。
【請求項33】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示生成構成要素を介して、第1のメディアアイテムの表現を含む複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを表示し、
前記メディアライブラリユーザインタフェースを表示している間に、
第1の時点で、前記1つ以上の入力デバイスを介して、前記メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出したことに応じて、前記第1のメディアアイテムの前記表現の外観を、前記表示生成構成要素を介して、第1の方式で表示されることから、前記第1の方式とは異なる第2の方式で表示されることに変更し、
前記第1の時点の後の第2の時点で、前記1つ以上の入力デバイスを介して、前記第1のポジションとは異なる前記メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出し、
前記メディアライブラリユーザインタフェース内の前記第2のポジションに対応する前記ユーザ視線を検出したことに応じて、前記表示生成構成要素を介して、前記第2の方式とは異なる第3の方式で前記第1のメディアアイテムの前記表現を表示する、命令を含む、非一時的コンピュータ可読記憶媒体。
【請求項34】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、
前記表示生成構成要素を介して、第1のメディアアイテムの表現を含む複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを表示し、
前記メディアライブラリユーザインタフェースを表示している間に、
第1の時点で、前記1つ以上の入力デバイスを介して、前記メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出したことに応じて、前記第1のメディアアイテムの前記表現の外観を、前記表示生成構成要素を介して、第1の方式で表示されることから、前記第1の方式とは異なる第2の方式で表示されることに変更し、
前記第1の時点の後の第2の時点で、前記1つ以上の入力デバイスを介して、前記第1のポジションとは異なる前記メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出し、
前記メディアライブラリユーザインタフェース内の前記第2のポジションに対応する前記ユーザ視線を検出したことに応じて、前記表示生成構成要素を介して、前記第2の方式とは異なる第3の方式で前記第1のメディアアイテムの前記表現を表示する、命令を含む、コンピュータシステム。
【請求項35】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
前記表示生成構成要素を介して、第1のメディアアイテムの表現を含む複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを表示するための手段と、
前記メディアライブラリユーザインタフェースを表示している間に、
第1の時点で、前記1つ以上の入力デバイスを介して、前記メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出したことに応じて、前記第1のメディアアイテムの前記表現の外観を、前記表示生成構成要素を介して、第1の方式で表示されることから、前記第1の方式とは異なる第2の方式で表示されることに変更し、
前記第1の時点の後の第2の時点で、前記1つ以上の入力デバイスを介して、前記第1のポジションとは異なる前記メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出し、
前記メディアライブラリユーザインタフェース内の前記第2のポジションに対応する前記ユーザ視線を検出したことに応じて、前記表示生成構成要素を介して、前記第2の方式とは異なる第3の方式で前記第1のメディアアイテムの前記表現を表示するための手段と、を備える、コンピュータシステム。
【請求項36】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備えるコンピュータプログラム製品であって、前記1つ以上のプログラムは、
前記表示生成構成要素を介して、第1のメディアアイテムの表現を含む複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを表示し、
前記メディアライブラリユーザインタフェースを表示している間に、
第1の時点で、前記1つ以上の入力デバイスを介して、前記メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し、
前記メディアライブラリユーザインタフェース内の前記第1のポジションに対応する前記ユーザ視線を検出したことに応じて、前記第1のメディアアイテムの前記表現の外観を、前記表示生成構成要素を介して、第1の方式で表示されることから、前記第1の方式とは異なる第2の方式で表示されることに変更し、
前記第1の時点の後の第2の時点で、前記1つ以上の入力デバイスを介して、前記第1のポジションとは異なる前記メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出し、
前記メディアライブラリユーザインタフェース内の前記第2のポジションに対応する前記ユーザ視線を検出したことに応じて、前記表示生成構成要素を介して、前記第2の方式とは異なる第3の方式で前記第1のメディアアイテムの前記表現を表示する、命令を含む、コンピュータプログラム製品。
【請求項37】
方法であって、
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、
前記表示生成構成要素を介して、第1のズームレベルでユーザインタフェースを表示することと、
前記ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出することと、
前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力を検出したことに応じて、
ユーザ視線が前記ユーザインタフェース内の第1のポジションに対応するという判定に従って、前記表示生成構成要素を介して、前記第1のズームレベルよりも大きい第2のズームレベルで前記ユーザインタフェースを表示することであって、前記第2のズームレベルで前記ユーザインタフェースを表示することは、前記第1のポジションに基づいて選択された第1のズーム中心を使用して前記ユーザインタフェースをズームすることを含み、
前記ユーザ視線が前記第1のポジションとは異なる前記ユーザインタフェース内の第2のポジションに対応するという判定に従って、前記表示生成構成要素を介して、前記第1のズームレベルよりも大きい第3のズームレベルで前記ユーザインタフェースを表示することであって、前記第3のズームレベルで前記ユーザインタフェースを表示することは、前記第2のポジションに基づいて選択された第2のズーム中心を使用して前記ユーザインタフェースをズームすることを含み、前記第2のズーム中心は、前記第1のズーム中心とは異なるロケーションにある、ことと、を含む、方法。
【請求項38】
前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力は、
第1のピンチジェスチャと、
前記第1のピンチジェスチャに続いて発生する第2のピンチジェスチャと、
を含む、請求項37に記載の方法。
【請求項39】
前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力は、両手ピンチ解除ジェスチャを含む、
請求項37又は38に記載の方法。
【請求項40】
前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力を検出したことに応じて、
前記ユーザインタフェースが第1のタイプの第1のメディアアイテムを表示しているという判定に従って、前記第1のサイズで第1のメディアアイテムを表示することと、
前記ユーザインタフェースが前記第1のタイプとは異なる第2のタイプの第2のメディアアイテムを表示しているという判定に従って、前記第1のサイズよりも大きい第2のサイズで前記第2のメディアアイテムを表示することと、
を更に含む、請求項37~39のいずれか一項に記載の方法。
【請求項41】
前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力を検出したことに応じて、
前記ユーザインタフェースが第1のタイプの第1のメディアアイテムを表示しているという判定に従って、前記第1のメディアアイテムを平坦なオブジェクトとして表示することと、
前記ユーザインタフェースが第2のタイプの第2のメディアアイテムを表示しているという判定に従って、前記第2のメディアアイテムを湾曲したオブジェクトとして表示することと、
を更に含む、請求項37~40のいずれか一項に記載の方法。
【請求項42】
前記第1のズームレベルで前記ユーザインタフェースを表示することは、第1のサイズで第1のメディアアイテムの表現を表示することを含み、
三次元環境は、前記ユーザインタフェースを少なくとも部分的に取り囲み、前記ユーザインタフェースの背後の背景コンテンツを含み、
前記方法は、前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力を検出したことに応じて、
前記第1のメディアアイテムの前記表現を、前記第1のサイズで表示されることから、前記第1のサイズよりも大きい第2のサイズで表示されることに遷移させることと、
前記第1のメディアアイテムに対する前記背景コンテンツの視覚的強調を低減させることと、を更に含む、
請求項37~41のいずれか一項に記載の方法。
【請求項43】
前記第1のズームレベルで前記ユーザインタフェースを表示することは、第1のサイズで第1のメディアアイテムの表現を表示することを含み、
前記方法が、
前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力を検出したことに応じて、
前記第1のメディアアイテムの前記表現を、前記第1のサイズで表示されることから、前記第1のサイズよりも大きい第2のサイズで表示されることに遷移させることと、
前記ユーザインタフェースから延びる光スピル効果を表示することと、を更に含む、
請求項37~42のいずれか一項に記載の方法。
【請求項44】
前記ユーザインタフェースを前記第1のズームレベルで表示することは、第1のサイズで第1のメディアアイテムを表示することを含み、
前記第2のズームレベルで前記ユーザインタフェースを表示することは、
前記第1のサイズよりも大きい第2のサイズで前記第1のメディアアイテムを表示することと、
前記第2のサイズが所定の閾値サイズよりも大きいという判定に従って、前記第1のメディアアイテムの少なくとも第1の縁部にぼかし効果が適用された前記第1のメディアアイテムを表示することと、
前記第2のサイズが前記所定の閾値サイズよりも大きくないという判定に従って、前記第1のメディアアイテムのいずれの縁部にも前記ぼかし効果を適用することなく、前記第1のメディアアイテムを表示することと、
を含む、請求項37~43のいずれか一項に記載の方法。
【請求項45】
前記ユーザインタフェースは、第1のメディアアイテムの表現及び第2のメディアアイテムの表現を含む、メディアライブラリ内の複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースであり、
前記第1のズームレベルで前記ユーザインタフェースを表示することは、
第1のサイズでの前記第1のメディアアイテムの前記表現と、
第2のサイズでの前記第2のメディアアイテムの前記表現と、を同時に表示することを含み、
前記第2のズームレベルで前記ユーザインタフェースを表示することは、
前記第1のサイズよりも大きい第3のサイズでの前記第1のメディアアイテムの前記表現と、
前記第2のサイズよりも大きい第4のサイズでの前記第2のメディアアイテムの前記表現と、を同時に表示することを含む、
請求項37~44のいずれか一項に記載の方法。
【請求項46】
前記第1のズームレベルで前記ユーザインタフェースを表示することは、第1のサイズで前記ユーザインタフェースを表示することを含み、
前記方法が、
前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力を検出したことに応じて、
前記ユーザインタフェースが第1のユーザインタフェースであるという判定に従って、前記第1のサイズよりも大きい第2のサイズで前記ユーザインタフェースを表示することと、
前記ユーザインタフェースが前記第1のユーザインタフェースとは異なる第2のユーザインタフェースであるという判定に従って、前記ユーザインタフェースを前記第1のサイズに維持することと、を更に含む、
請求項37~45のいずれか一項に記載の方法。
【請求項47】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項37~46のいずれか一項に記載の方法を実行するための命令を含む、非一時的コンピュータ可読記憶媒体。
【請求項48】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、請求項37~46のいずれか一項に記載の方法を実行するための命令を含む、コンピュータシステム。
【請求項49】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
請求項37~46のいずれか一項に記載の方法を実行するための手段を備える、コンピュータシステム。
【請求項50】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記表示生成構成要素を介して、第1のズームレベルでユーザインタフェースを表示し、
前記ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出し、
前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力を検出したことに応じて、
ユーザ視線が前記ユーザインタフェース内の第1のポジションに対応するという判定に従って、前記表示生成構成要素を介して、前記第1のズームレベルよりも大きい第2のズームレベルで前記ユーザインタフェースを表示し、前記第2のズームレベルで前記ユーザインタフェースを表示することは、前記第1のポジションに基づいて選択された第1のズーム中心を使用して前記ユーザインタフェースをズームすることを含み、
前記ユーザ視線が前記第1のポジションとは異なる前記ユーザインタフェース内の第2のポジションに対応するという判定に従って、前記表示生成構成要素を介して、前記第1のズームレベルよりも大きい第3のズームレベルで前記ユーザインタフェースを表示し、前記第3のズームレベルで前記ユーザインタフェースを表示することは、前記第2のポジションに基づいて選択された第2のズーム中心を使用して前記ユーザインタフェースをズームすることを含み、前記第2のズーム中心は、前記第1のズーム中心とは異なるロケーションにある、命令を含む、非一時的コンピュータ可読記憶媒体。
【請求項51】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、
前記表示生成構成要素を介して、第1のズームレベルでユーザインタフェースを表示し、
前記ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出し、
前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力を検出したことに応じて、
ユーザ視線が前記ユーザインタフェース内の第1のポジションに対応するという判定に従って、前記表示生成構成要素を介して、前記第1のズームレベルよりも大きい第2のズームレベルで前記ユーザインタフェースを表示し、前記第2のズームレベルで前記ユーザインタフェースを表示することは、前記第1のポジションに基づいて選択された第1のズーム中心を使用して前記ユーザインタフェースをズームすることを含み、
前記ユーザ視線が前記第1のポジションとは異なる前記ユーザインタフェース内の第2のポジションに対応するという判定に従って、前記表示生成構成要素を介して、前記第1のズームレベルよりも大きい第3のズームレベルで前記ユーザインタフェースを表示し、前記第3のズームレベルで前記ユーザインタフェースを表示することは、前記第2のポジションに基づいて選択された第2のズーム中心を使用して前記ユーザインタフェースをズームすることを含み、前記第2のズーム中心は、前記第1のズーム中心とは異なるロケーションにある、命令を含む、コンピュータシステム。
【請求項52】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
前記表示生成構成要素を介して、第1のズームレベルでユーザインタフェースを表示するための手段と、
前記ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出するための手段と、
前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力を検出したことに応じて、
ユーザ視線が前記ユーザインタフェース内の第1のポジションに対応するという判定に従って、前記表示生成構成要素を介して、前記第1のズームレベルよりも大きい第2のズームレベルで前記ユーザインタフェースを表示し、前記第2のズームレベルで前記ユーザインタフェースを表示することは、前記第1のポジションに基づいて選択された第1のズーム中心を使用して前記ユーザインタフェースをズームすることを含み、
前記ユーザ視線が前記第1のポジションとは異なる前記ユーザインタフェース内の第2のポジションに対応するという判定に従って、前記表示生成構成要素を介して、前記第1のズームレベルよりも大きい第3のズームレベルで前記ユーザインタフェースを表示し、前記第3のズームレベルで前記ユーザインタフェースを表示することは、前記第2のポジションに基づいて選択された第2のズーム中心を使用して前記ユーザインタフェースをズームすることを含み、前記第2のズーム中心は、前記第1のズーム中心とは異なるロケーションにある、手段と、を備える、コンピュータシステム。
【請求項53】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備えるコンピュータプログラム製品であって、前記1つ以上のプログラムは、
前記表示生成構成要素を介して、第1のズームレベルでユーザインタフェースを表示し、
前記ユーザインタフェースを表示している間に、前記1つ以上の入力デバイスを介して、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出し、
前記ズームインユーザコマンドに対応する前記1つ以上のユーザ入力を検出したことに応じて、
ユーザ視線が前記ユーザインタフェース内の第1のポジションに対応するという判定に従って、前記表示生成構成要素を介して、前記第1のズームレベルよりも大きい第2のズームレベルで前記ユーザインタフェースを表示し、前記第2のズームレベルで前記ユーザインタフェースを表示することは、前記第1のポジションに基づいて選択された第1のズーム中心を使用して前記ユーザインタフェースをズームすることを含み、
前記ユーザ視線が前記第1のポジションとは異なる前記ユーザインタフェース内の第2のポジションに対応するという判定に従って、前記表示生成構成要素を介して、前記第1のズームレベルよりも大きい第3のズームレベルで前記ユーザインタフェースを表示し、前記第3のズームレベルで前記ユーザインタフェースを表示することは、前記第2のポジションに基づいて選択された第2のズーム中心を使用して前記ユーザインタフェースをズームすることを含み、前記第2のズーム中心は、前記第1のズーム中心とは異なるロケーションにある、命令を含む、コンピュータプログラム製品。
【請求項54】
方法であって、
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、
前記1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出することと、
前記第1のメディアアイテムの選択に対応する前記1つ以上のユーザ入力を検出したことに応じて、
前記第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って、前記表示生成構成要素を介して、前記第1のメディアアイテムを第1の方式で表示し、
前記第1のメディアアイテムが前記個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って、前記表示生成構成要素を介して、前記第1の方式とは異なる第2の方式で前記第1のメディアアイテムを表示することと、を含む、方法。
【請求項55】
前記第1のメディアアイテムを前記第1の方式で表示することは、前記第1のメディアアイテムを取り囲む第1のタイプの境界を有する前記第1のメディアアイテムを表示することを含み、
前記第2の方式で前記第1のメディアアイテムを表示することは、前記第1のメディアアイテムを取り囲む前記第1の境界とは異なる第2のタイプの境界を有する前記第1のメディアアイテムを表示することを含む、
請求項54に記載の方法。
【請求項56】
前記第1のメディアアイテムが前記第1の方式で表示されたときに、前記第1のメディアアイテムを少なくとも部分的に取り囲むコンテンツは、第1の外観を有し、
前記第1のメディアアイテムが前記第2の方式で表示されたときに、前記第1のメディアアイテムを少なくとも部分的に取り囲む前記コンテンツは、前記第1の外観とは異なる第2の外観を有する、
請求項54又は55に記載の方法。
【請求項57】
前記第1のメディアアイテムを前記第1の方式で表示することは、
前記第1のメディアアイテムから延びる光線のセットを表示することを含む、請求項54~56のいずれか一項に記載の方法。
【請求項58】
前記光線のセットの1つ以上の視覚特性は、前記第1のメディアアイテムの前記縁部における1つ以上の色に基づいて決定される、請求項57に記載の方法。
【請求項59】
前記光線のセットは、第1の長さを有する第1の光線と、前記第1の長さとは異なる第2の長さを有する第2の光線と、を含む、請求項57又は58に記載の方法。
【請求項60】
前記第1のメディアアイテムは、前記個別のタイプの深度情報を含み、前記第1のメディアアイテムは、前記コンピュータシステムによってキャプチャされた、請求項54~59のいずれか一項に記載の方法。
【請求項61】
前記第1のメディアアイテムを前記第1の方式で表示することは、照明効果の第1のセットを用いて前記第1のメディアアイテムを表示することを含み、
前記第2の方式で前記第1のメディアアイテムを表示することは、照明効果の第2のセットを用いて前記第1のメディアアイテムを表示することを含む、
請求項54~60のいずれか一項に記載の方法。
【請求項62】
照明効果の前記第1のセットは、前記第1のメディアアイテムの前記縁部における色の第1のセットに基づいて、かつ前記第1のメディアアイテムの前記縁部の内側の色の第2のセットに基づいて決定され、前記色の第1のセットは、照明効果の前記第1のセットを決定する際に前記色の第2のセットよりも大きい重みを与えられ、
照明効果の前記第2のセットは、前記第1のメディアアイテムの前記縁部における色の第3のセットに基づいて、かつ前記第1のメディアアイテムの前記縁部の内側の色の第4のセットに基づいて決定され、前記色の第3のセットは、照明効果の前記第2のセットを決定する際に前記色の第4のセットよりも大きい重みを与えられる、
請求項61に記載の方法。
【請求項63】
照明効果の前記第1のセット及び照明効果の前記第2のセットは、
前記第1のメディアアイテムの前に放出される光と、
前記第1のメディアアイテムの背後に放出される光と、
を含む、請求項61又は62に記載の方法。
【請求項64】
前記第1のメディアアイテムを前記第1の方式で表示することは、
前記第1のメディアアイテムがビデオであるという判定に従って、照明効果の第3のセットを用いて前記第1のメディアアイテムを表示することと、
前記第1のメディアアイテムが静止画像であるという判定に従って、照明効果の第4のセットを用いて前記第1のメディアアイテムを表示することと、を含み、
前記第1のメディアアイテムを前記第2の方式で表示することは、
前記第1のメディアアイテムがビデオであるという判定に従って、照明効果の第5のセットを用いて前記第1のメディアアイテムを表示することと、
前記第1のメディアアイテムが静止画像であるという判定に従って、照明効果の第6のセットを用いて前記第1のメディアアイテムを表示することと、を含む、
請求項61~63のいずれか一項に記載の方法。
【請求項65】
前記第1のメディアアイテムは、ビデオであり、
前記ビデオ内の個別の再生時間における照明効果の前記第1のセットは、前記ビデオ内の前記個別の再生時間を含む、前記ビデオ内の複数の再生時間からの前記ビデオからのコンテンツに基づいて生成される照明効果を含む、
請求項61~64のいずれか一項に記載の方法。
【請求項66】
前記第1のメディアアイテムを前記第1の方式で表示することは、前記第1のメディアアイテムの1つ以上の縁部を視覚的に歪ませることを含む、請求項54~65のいずれか一項に記載の方法。
【請求項67】
前記第1のメディアアイテムを前記第1の方式で表示している間に、
前記1つ以上の入力デバイスを介して、前記第1のメディアアイテム内の第1のポジションに対応するユーザ視線を検出することと、
前記第1のメディアアイテム内の前記第1のポジションに対応する前記ユーザ視線を検出したことに応じて、前記第1のメディアアイテムの少なくとも一部を後方に移動して表示することと、
を更に含む、請求項54~66のいずれか一項に記載の方法。
【請求項68】
前記第1のメディアアイテムを前記第1の方式で表示することは、前記第1のメディアアイテムの1つ以上の縁部をぼかすことを含む、請求項54~67のいずれか一項に記載の方法。
【請求項69】
前記第1のメディアアイテムを前記第1の方式で表示することは、
前記第1のメディアアイテムから延びる光スピル照明効果の第1のセットを用いて前記第1のメディアアイテムを表示することと、
前記第1のセットの光スピル照明効果と同時に、1つ以上の追加の照明効果を表示することと、を含み、
前記第1のメディアアイテムを前記第2の方式で表示することは、
前記1つ以上の追加の照明効果を適用することなく、前記第1のメディアアイテムから延びる光スピル照明効果の第2のセットを用いて前記第1のメディアアイテムを表示することを含む、
請求項54~68のいずれか一項に記載の方法。
【請求項70】
前記第1のメディアアイテムを前記第1の方式で表示することは、前記第1のメディアアイテムを、連続的な縁部を有する三次元形状内に表示することを含む、請求項54~69のいずれか一項に記載の方法。
【請求項71】
連続的な縁部を有する前記三次元形状は、湾曲した前面及び湾曲した背面を含む、請求項54~70のいずれか一項に記載の方法。
【請求項72】
連続的な縁部を有する前記三次元形状は、1つ以上の屈折縁部から放出される光に屈折特性を適用する前記1つ以上の屈折縁部を有する、請求項54~71のいずれか一項に記載の方法。
【請求項73】
前記第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという前記判定は、前記第1のメディアアイテムが2つの異なるカメラから同時にキャプチャされたメディアを含む立体視メディアアイテムであるという判定である、請求項54~72のいずれか一項に記載の方法。
【請求項74】
前記第1のメディアアイテムを前記第1の方式で表示することは、前記第1のメディアアイテムの前記外側境界の外側に1つ以上のコントロールを表示すること、
を含む、請求項54~73のいずれか一項に記載の方法。
【請求項75】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項54~74のいずれか一項に記載の方法を実行するための命令を含む、非一時的コンピュータ可読記憶媒体。
【請求項76】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、請求項54~74のいずれか一項に記載の方法を実行するための命令を含む、コンピュータシステム。
【請求項77】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
請求項54~74のいずれか一項に記載の方法を実行するための手段を備える、コンピュータシステム。
【請求項78】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出し、
前記第1のメディアアイテムの選択に対応する前記1つ以上のユーザ入力を検出したことに応じて、
前記第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って、前記表示生成構成要素を介して、前記第1のメディアアイテムを第1の方式で表示し、
前記第1のメディアアイテムが前記個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って、前記表示生成構成要素を介して、前記第1の方式とは異なる第2の方式で前記第1のメディアアイテムを表示する、命令を含む、非一時的コンピュータ可読記憶媒体。
【請求項79】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、
前記1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出し、
前記第1のメディアアイテムの選択に対応する前記1つ以上のユーザ入力を検出したことに応じて、
前記第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って、前記表示生成構成要素を介して、前記第1のメディアアイテムを第1の方式で表示し、
前記第1のメディアアイテムが前記個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って、前記表示生成構成要素を介して、前記第1の方式とは異なる第2の方式で前記第1のメディアアイテムを表示する、命令を含む、コンピュータシステム。
【請求項80】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムであって、前記コンピュータシステムは、
前記1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出するための手段と、
前記第1のメディアアイテムの選択に対応する前記1つ以上のユーザ入力を検出したことに応じて、
前記第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って、前記表示生成構成要素を介して、前記第1のメディアアイテムを第1の方式で表示し、
前記第1のメディアアイテムが前記個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って、前記表示生成構成要素を介して、前記第1の方式とは異なる第2の方式で前記第1のメディアアイテムを表示するための手段と、を備える、コンピュータシステム。
【請求項81】
表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備えるコンピュータプログラム製品であって、前記1つ以上のプログラムは、
前記1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出し、
前記第1のメディアアイテムの選択に対応する前記1つ以上のユーザ入力を検出したことに応じて、
前記第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って、前記表示生成構成要素を介して、前記第1のメディアアイテムを第1の方式で表示し、
前記第1のメディアアイテムが前記個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って、前記表示生成構成要素を介して、前記第1の方式とは異なる第2の方式で前記第1のメディアアイテムを表示する、命令を含む、コンピュータプログラム製品。
【請求項82】
方法であって、
表示生成構成要素と通信するコンピュータシステムにおいて、
前記表示生成構成要素を介して、ユーザインタフェースであって、
立体視メディアアイテムの第1の表現であって、前記立体視メディアアイテムの前記第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、
視覚効果であって、前記視覚効果は、前記立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、前記立体視メディアアイテムの前記第1の表現の少なくとも前記第1の縁部から前記立体視メディアアイテムの前記第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示することを含む、方法。
【請求項83】
前記立体視メディアアイテムは、カメラのセットからキャプチャされ、前記カメラのセットのうちの第1のカメラは、物理的環境の第1の透視図をキャプチャし、前記カメラのセットのうちの第2のカメラは、前記物理的環境の第2の透視図をキャプチャし、前記第2の透視図は、前記第1の透視図とは異なり、前記立体視メディアアイテムの前記第1の表現を表示することは、
前記表示生成構成要素を介して、前記物理的環境の前記第1の透視図をユーザの第2の目ではなく前記ユーザの第1の目に表示することと、
前記表示生成構成要素を介して、前記第2の透視図を前記ユーザの前記第1の目ではなく前記ユーザの前記第2の目に表示することと、を含む、請求項82に記載の方法。
【請求項84】
前記立体視メディアアイテムの前記第1の表現を表示している間に、ユーザの視点の第1の変化を検出することと、
前記ユーザの前記視点の前記第1の変化を検出したことに応じて、前記ユーザの前記視点の前記第1の変化に基づいて、前記立体視メディアアイテムの前記第1の表現の前記外観を変更することと、
を更に含む、請求項82又は83に記載の方法。
【請求項85】
前記立体視メディアアイテムの前記第1の表現の前記外観を変更する前に、前記視覚効果は、前記立体視メディアアイテムの前記第1の表現の前記第1の部分を不明瞭にし、
前記立体視メディアアイテムの前記第1の表現の前記外観を変更することは、前記視覚効果が、前記第1の部分とは異なる前記立体視メディアアイテムの前記第1の表現の第2の部分を不明瞭にするように、前記視覚効果を修正すること、
を含む、請求項84に記載の方法。
【請求項86】
前記立体視メディアアイテムの前記第1の表現の前記外観を変更することは、
第1の方式で、ユーザの右目ではなく前記ユーザの左目に表示される前記立体視メディアアイテムの前記第1の表現の前記外観を変更することと、
前記ユーザの前記左目ではなく前記ユーザの前記右目に表示される前記第1の立体視メディアアイテムの前記第1の表現の前記外観を、第2の方式であって、前記第2の方式は、前記第1の方式とは異なる、第2の方式で変更することと、を含む、請求項84又は85に記載の方法。
【請求項87】
前記視覚効果は、前記視覚効果が前記立体視メディアアイテムの前記第1の表現の少なくとも前記第1の縁部から前記立体視メディアアイテムの前記第1の表現の前記内部に向かって内側に延びるにつれて、複数の値にわたって減少する視覚特性を有する、請求項82~86のいずれか一項に記載の方法。
【請求項88】
前記立体視メディアの前記第1の表現は、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部におけるコンテンツを含み、前記視覚効果は、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部における前記コンテンツのぼかしである、請求項87に記載の方法。
【請求項89】
前記視覚効果は、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部及び第2の縁部上に表示され、前記方法は、
前記立体視メディアアイテムの前記第1の表現を表示している間に、ユーザの前記視点の第2の変化であって、前記ユーザの前記視点の前記第2の変化は、前記立体視メディアアイテムの前記第1の表現の前記表示に対する前記ユーザの前記視点の前記角度の変化を含む、ユーザの前記視点の第2の変化を検出することと、
前記ユーザの前記視点の前記第2の変化を検出したことに応じて、
前記ユーザの前記視点の前記第2の変化が第1の方向であるという判定に従って、前記立体視メディアアイテムの前記第1の表現の少なくとも前記第2の縁部上の前記視覚効果の前記サイズを増大させ、
前記ユーザの前記視点の前記第2の変化が前記第1の方向とは異なる第2の方向であるという判定に従って、前記立体視メディアアイテムの前記第1の表現の少なくとも前記第1の縁部上の前記視覚効果の前記サイズを増大させることと、を更に含む、請求項82~88のいずれか一項に記載の方法。
【請求項90】
前記ユーザインタフェースを表示することは、ぼかし領域を表示することを含み、前記立体視メディアアイテムは、第1の複数の縁部を含み、
前記立体視メディアアイテムの前記第1の複数の縁部が第1のコンテンツを含むという判定に従って、前記ぼかし領域は、前記第1のコンテンツのぼかし表現を含み、前記第1のコンテンツの前記ぼかし表現は、前記第1のコンテンツの外挿に基づき、
前記立体視メディアアイテムの前記第1の複数の縁部が第2のコンテンツを含むという判定に従って、前記ぼかし領域は、前記第2のコンテンツのぼかし表現を含み、前記第2のコンテンツの前記ぼかし表現は、前記第2のコンテンツの外挿に基づく、請求項82~89のいずれか一項に記載の方法。
【請求項91】
前記立体視メディアアイテムの前記第1の表現は、ビネット効果を伴って表示される、請求項82~90のいずれか一項に記載の方法。
【請求項92】
前記ユーザインタフェースを表示することは、仮想ポータルを表示することを含み、前記立体視メディアアイテムの前記第1の表現は、前記仮想ポータル内に表示される、請求項82~91のいずれか一項に記載の方法。
【請求項93】
前記立体視メディアアイテムの前記第1の表現は、前景部分及び背景部分を含み、前記方法は、
前記立体視メディアアイテムの前記第1の表現を表示している間に、ユーザの前記視点の第3の変化を検出することと、
前記ユーザの前記視点の前記第3の変化を検出したことに応じて、前記表示生成構成要素を介して、前記ユーザの前記視点の前記第3の変化に基づいて、前記立体視メディアアイテムの前記第1の表現の前記前景部分を、前記立体視メディアアイテムの前記第1の表現の前記背景部分に対して移動させて表示することと、を更に含む、請求項92に記載の方法。
【請求項94】
前記仮想ポータルを表示することは、ユーザの第1の視点から第1の距離だけ離れた物理的環境の第1の表現内の第1のロケーションに前記仮想ポータルの第1の部分を表示することを含み、前記立体視メディアアイテムの前記第1の表現を表示することは、前記ユーザの前記第1の視点から第2の距離だけ離れた前記物理的環境の前記第1の表現内の第2のロケーションに前記立体視メディアアイテムの前記第1の表現を表示することを含み、前記第2の距離は、前記第1の距離よりも大きい、請求項91~93のいずれか一項に記載の方法。
【請求項95】
前記仮想ポータルは、ある量の厚さを有する三次元仮想オブジェクトであり、ユーザに表示される前記厚さの量は、前記仮想ポータルの前記ディスプレイに対する前記ユーザの前記視点の角度に直接相関する、請求項91~94のいずれか一項に記載の方法。
【請求項96】
前記立体視メディアアイテムの前記第1の表現を表示することは、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部において鏡面反射効果を表示することを含む、請求項82~95のいずれか一項に記載の方法。
【請求項97】
前記立体視メディアアイテムの前記第1の表現は、前記物理的環境の第2の表現内の第1のロケーションに表示され、前記第1のロケーションは、ユーザの第1の視点から第1の距離だけ離れており、前記方法は、
前記物理的環境の前記第2の表現内の前記第1のロケーションに前記立体視メディアアイテムの前記第1の表現を表示している間に、没入型外観で前記立体視メディアアイテムを表示する要求を検出することと、
前記没入型外観で前記立体視メディアアイテムの前記第1の表現を表示する前記要求を検出したことに応じて、
前記物理的環境の前記第2の表現内の第2のロケーションであって、前記第2のロケーションは、前記ユーザの前記第1の視点から第2の距離だけ離れており、前記第2の距離は、前記第1の距離よりも短い、第2のロケーションから、前記立体視メディアアイテムの前記第1の表現を表示し、
前記物理的環境の前記第2の表現内の前記第1のロケーションと前記物理的環境の前記第2の表現内の前記第2のロケーションとの間の前記経路に平行である前記立体視メディアアイテムの前記第1の表現の平面に沿って前記立体視メディアアイテムの前記第1の表現の前記サイズを増大させることと、を更に含む、請求項82~96のいずれか一項に記載の方法。
【請求項98】
前記立体視メディアアイテムの前記第1の表現に含まれるコンテンツは、前記空間メディアがキャプチャされたときにキャプチャされた前記オブジェクトのスケールに対して所定の関係を有する個別のスケールで表示され、前記立体視メディアアイテムの前記第1の表現は、前記没入型外観で表示される、請求項97に記載の方法。
【請求項99】
前記没入型外観を有する前記立体視メディアアイテムの前記第1の表現を表示する前記要求を検出する前に、前記立体視メディアアイテムの前記第1の表現を表示することは、非没入型外観を有する前記立体視メディアアイテムの前記第1の表現を表示することを含み、
前記立体視メディアアイテムの前記第1の表現は、前記没入型外観で表示されたときに、ユーザの第2の視点の第1の角度範囲を占有し、
前記立体視メディアアイテムの前記第1の表現は、前記非没入型外観で表示されたときに、前記ユーザの前記第2の視点の第2の角度範囲であって、前記第2の角度範囲は、前記第1の角度範囲よりも小さい、第2の角度範囲を占有する、請求項97又は98に記載の方法。
【請求項100】
前記立体視メディアアイテムは、第2の複数の縁部を含み、前記方法は、
前記立体視メディアアイテムの前記第1の表現が前記没入型外観で表示されている間に、
前記立体視メディアアイテムの前記第2の複数の縁部が第3のコンテンツを含むという判定に従って、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部において、前記第3のコンテンツの表現であって、前記第3のコンテンツの前記表現は、前記第3のコンテンツの外挿に基づく、前記第3のコンテンツの表現を表示することと、
前記立体視メディアアイテムの前記第2の複数の縁部が第4のコンテンツを含むという判定に従って、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部において、前記第4のコンテンツの表現であって、前記第4のコンテンツの前記表現は、前記第4のコンテンツの外挿に基づく、前記第4のコンテンツの表現を表示することと、を更に含む、請求項97~99のいずれか一項に記載の方法。
【請求項101】
非立体視メディアアイテムであって、前記非立体視メディアアイテムは、前記視覚効果なしに表示される、非立体視メディアアイテムの表現を表示すること、
を更に含む、請求項82~100のいずれか一項に記載の方法。
【請求項102】
前記立体視メディアアイテムの第1の表現とは異なる第2の立体視メディアアイテムの第2の表現であって、前記第2の立体視メディアアイテムの前記第2の表現は、第2の視覚効果とともに表示され、前記第2の視覚効果は、前記第2の立体視メディアアイテムの前記第2の表現の少なくとも第1の部分を不明瞭にし、前記第2の立体視メディアアイテムの前記第2の表現の少なくとも第1の縁部から前記第2の立体視メディアアイテムの前記第2の表現の内部に向かって内側に延びる、第2の立体視メディアアイテムの第2の表現を表示すること、
を更に含む、請求項82~101のいずれか一項に記載の方法。
【請求項103】
表示生成構成要素と通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、請求項82~102のいずれか一項に記載の方法を実行するための命令を含む、非一時的コンピュータ可読記憶媒体。
【請求項104】
表示生成構成要素と通信しているように構成されたコンピュータシステムであって、前記コンピュータシステムが、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、請求項82~102のいずれか一項に記載の方法を実行するための命令を含む、コンピュータシステム。
【請求項105】
表示生成構成要素と通信しているように構成されたコンピュータシステムであって、
請求項82~102のいずれか一項に記載の方法を実行するための手段を備える、コンピュータシステム。
【請求項106】
表示生成構成要素と通信するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備えるコンピュータプログラム製品であって、前記1つ以上のプログラムは、請求項82~102のいずれか一項に記載の方法を実行するための命令を含む、コンピュータプログラム製品。
【請求項107】
表示生成構成要素と通信するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、
前記表示生成構成要素を介して、ユーザインタフェースであって、
立体視メディアアイテムの第1の表現であって、前記立体視メディアアイテムの前記第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、
視覚効果であって、前記視覚効果は、前記立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、前記立体視メディアアイテムの前記第1の表現の少なくとも前記第1の縁部から前記立体視メディアアイテムの前記第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示する、命令を含む、非一時的コンピュータ可読記憶媒体。
【請求項108】
表示生成構成要素と通信しているように構成されたコンピュータシステムであって、
1つ以上のプロセッサと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、前記1つ以上のプログラムは、
前記表示生成構成要素を介して、ユーザインタフェースであって、
立体視メディアアイテムの第1の表現であって、前記立体視メディアアイテムの前記第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、
視覚効果であって、前記視覚効果は、前記立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、前記立体視メディアアイテムの前記第1の表現の少なくとも前記第1の縁部から前記立体視メディアアイテムの前記第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示する、命令を含む、コンピュータシステム。
【請求項109】
表示生成構成要素及び1つ以上の入力デバイスと通信しているように構成されたコンピュータシステムであって、
前記表示生成構成要素を介して、ユーザインタフェースであって、
立体視メディアアイテムの第1の表現であって、前記立体視メディアアイテムの前記第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、
視覚効果であって、前記視覚効果は、前記立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、前記立体視メディアアイテムの前記第1の表現の少なくとも前記第1の縁部から前記立体視メディアアイテムの前記第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示するための手段を備える、コンピュータシステム。
【請求項110】
表示生成構成要素と通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備えるコンピュータプログラム製品であって、前記1つ以上のプログラムが、
前記表示生成構成要素を介して、ユーザインタフェースであって、
立体視メディアアイテムの第1の表現であって、前記立体視メディアアイテムの前記第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、
視覚効果であって、前記視覚効果は、前記立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、前記立体視メディアアイテムの前記第1の表現の少なくとも前記第1の縁部から前記立体視メディアアイテムの前記第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示する、命令を含む、コンピュータプログラム製品。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願の相互参照)
本出願は、2022年9月23日に出願された「DEVICES,METHODS,AND GRAPHICAL USER INTERFACES FOR INTERACTING WITH MEDIA AND THREE-DIMENSIONAL ENVIRONMENTS」と題する米国特許出願第17/952,206号、及び2022年9月23日に出願された「DEVICES,METHODS,AND GRAPHICAL USER INTERFACES FOR INTERACTING WITH MEDIA AND THREE-DIMENSIONAL ENVIRONMENTS」と題する米国仮特許出願第63/409,695号、及び2021年9月24日に出願された「DEVICES,METHODS,AND GRAPHICAL USER INTERFACES FOR INTERACTING WITH MEDIA AND THREE-DIMENSIONAL ENVIRONMENTS」と題する米国仮特許出願第63/248,222号の優先権を主張する。これらの出願のそれぞれの内容は、全体が、参照により本明細書に組み込まれる。
【0002】
本開示は、概して、仮想現実体験及び複合現実体験を提供する電子デバイスを含むがこれらに限定されない、表示生成構成要素と、コンピュータ生成体験を提供する1つ以上の入力デバイスと、通信しているコンピュータシステムに関する。
【背景技術】
【0003】
拡張現実のためのコンピュータシステムの開発は、近年顕著に進んでいる。例示的な拡張現実環境は、物理的世界を置換又は強化する少なくともいくつかの仮想要素を含む。コンピュータシステム及び他の電子コンピューティングデバイス用のカメラ、コントローラ、ジョイスティック、タッチ感知面、及びタッチスクリーンディスプレイなどの入力デバイスが、仮想/拡張現実環境と相互作用するために使用される。例示的な仮想要素は、デジタル画像などの仮想オブジェクト、ビデオ、テキスト、アイコン、並びにボタン及び他のグラフィックなど制御要素を含む。
【発明の概要】
【0004】
少なくともいくつかの仮想要素を含むメディアアイテム及び環境(例えばアプリケーション、拡張現実環境、複合現実環境、及び仮想現実環境)と相互作用するいくつかの方法及びインタフェースは、煩雑で、非効率で、限定されたものである。例えば、仮想オブジェクトに関連付けられたアクションを実行するのに不十分なフィードバックしか提供しないシステム、拡張現実環境において所望の結果を達成するために一連の入力を必要とするシステム、及び仮想オブジェクトの操作が複雑で、エラーを起こしやすいシステムは、ユーザに対して大きな認知負担を引き起こし、仮想/拡張現実環境での体験を損なう。加えて、それらの方法は必要以上に時間がかかり、それによって、コンピュータシステムのエネルギーを浪費する。この後者の考慮事項は、バッテリ動作式デバイスにおいて特に重要である。
【0005】
したがって、コンピュータシステムとの相互作用をユーザにとってより効率的かつ直感的にするコンピュータ生成体験をユーザに提供するための改善された方法及びインタフェースを有するコンピュータシステムが必要とされている。そのような方法及びインタフェースは、メディアアイテムと相互作用し、拡張現実体験をユーザに提供するための従来の方法を任意選択的に補完するか、又は置換する。このような方法及びインタフェースは、提供された入力とその入力に対するデバイス応答との間の接続をユーザが理解することを補助することにより、ユーザからの入力の数、程度及び/又は種類を低減し、それによって、より効率的なヒューマンマシンインタフェースを生成する。
【0006】
コンピュータシステムのユーザインタフェースに関連付けられた上記の欠点及び他の問題は、開示されるシステムによって低減又は解消される。いくつかの実施形態では、コンピュータシステムは、関連付けられたディスプレイを備えたデスクトップコンピュータである。いくつかの実施形態では、コンピュータシステムは、ポータブルデバイスである(例えばノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイスである)。いくつかの実施形態では、コンピュータシステムは、パーソナル電子デバイス(例えば腕時計やヘッドマウントデバイスなどのウェアラブル電子デバイス)である。いくつかの実施形態では、コンピュータシステムは、タッチパッドを有する。いくつかの実施形態では、コンピュータシステムは、1つ以上のカメラを有する。いくつかの実施形態では、コンピュータシステムは、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られる)を有する。いくつかの実施形態では、コンピュータシステムは、1つ以上のアイトラッキングコンポーネントを有する。いくつかの実施形態では、コンピュータシステムは、1つ以上のハンドトラッキングコンポーネントを有する。いくつかの実施形態では、コンピュータシステムは、表示生成構成要素に加えて1つ以上の出力デバイスを有し、出力デバイスは、1つ以上の触知出力ジェネレータ及び/又は1つ以上のオーディオ出力デバイスを含む。いくつかの実施形態では、コンピュータシステムは、グラフィカルユーザインタフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためのメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態では、ユーザは、タッチ感知面上のスタイラス及び/又は指の接触及びジェスチャ、カメラ及び他の移動センサによってキャプチャされたときのGUI(及び/又はコンピュータシステム)又はユーザの身体に対する空間内のユーザの目及び手の移動、並びに1つ以上のオーディオ入力デバイスによってキャプチャされたときの音声入力を通じてGUIと相互作用する。いくつかの実施形態では、相互作用を通じて実行される機能は、任意選択的に、画像編集、描画、プレゼンティング、ワードプロセッシング、スプレッドシートの作成、ゲームプレイ、電話をかけること、ビデオ会議、電子メール送信、インスタントメッセージング、トレーニングサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブブラウジング、デジタル音楽の再生、メモ取り、及び/又はデジタルビデオの再生を含む。それらの機能を実行する実行可能命令は任意選択で、一次的コンピュータ可読記憶媒体及び/又は非一時的コンピュータ可読記憶媒体、あるいは1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。
【0007】
三次元環境内でメディアアイテムと相互作用するための改善された方法及びインタフェースを有する電子デバイスが必要とされている。そのような方法及びインタフェースは、三次元環境内でメディアアイテムと相互作用するための従来の方法を補完するか又は置換することができる。そのような方法及びインタフェースは、ユーザからの入力の数、程度、及び/又は種類を削減し、より効率的なヒューマンマシンインタフェースを生成する。バッテリ動作式コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、バッテリ充電の間隔を長くする。そのような方法及びインタフェースはまた、デバイスの操作性を向上させ、例えば、不必要な及び/又は無関係な受信された入力の数を低減し、改善された視覚的フィードバックをユーザに提供することによって、ユーザデバイスインタフェースをより効率的にする。
【0008】
いくつかの実施形態によれば、方法が記載される。本方法は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、表示生成構成要素を介して、第1のメディアアイテムの表現を含む複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを表示することと、メディアライブラリユーザインタフェースを表示している間に、第1の時点で、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、第1のメディアアイテムの表現の外観を、表示生成構成要素を介して、第1の方式で表示されることから、第1の方式とは異なる第2の方式で表示されることに変更し、第1の時点の後の第2の時点で、1つ以上の入力デバイスを介して、第1のポジションとは異なるメディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出したことに応じて、表示生成構成要素を介して、第2の方式とは異なる第3の方式で第1のメディアアイテムの表現を表示することと、を含む。
【0009】
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。いくつかの実施形態では、非一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、第1のメディアアイテムの表現を含む複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを表示し、メディアライブラリユーザインタフェースを表示している間に、第1の時点で、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、第1のメディアアイテムの表現の外観を、表示生成構成要素を介して、第1の方式で表示されることから、第1の方式とは異なる第2の方式で表示されることに変更し、第1の時点の後の第2の時点で、1つ以上の入力デバイスを介して、第1のポジションとは異なるメディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出したことに応じて、表示生成構成要素を介して、第2の方式とは異なる第3の方式で第1のメディアアイテムの表現を表示する、命令を含む。
【0010】
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。いくつかの実施形態では、一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、第1のメディアアイテムの表現を含む複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを表示し、メディアライブラリユーザインタフェースを表示している間に、第1の時点で、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、第1のメディアアイテムの表現の外観を、表示生成構成要素を介して、第1の方式で表示されることから、第1の方式とは異なる第2の方式で表示されることに変更し、第1の時点の後の第2の時点で、1つ以上の入力デバイスを介して、第1のポジションとは異なるメディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出したことに応じて、表示生成構成要素を介して、第2の方式とは異なる第3の方式で第1のメディアアイテムの表現を表示する、命令を含む。
【0011】
いくつかの実施形態によれば、コンピュータシステムが記載される。いくつかの実施形態では、コンピュータシステムは、表示生成構成要素及び1つ以上の入力デバイスと通信し、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、第1のメディアアイテムの表現を含む複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを、表示生成構成要素を介して表示し、メディアライブラリユーザインタフェースを表示している間に、第1の時点で、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、第1のメディアアイテムの表現の外観を、表示生成構成要素を介して、第1の方式で表示されることから、第1の方式とは異なる第2の方式で表示されることに変更し、第1の時点の後の第2の時点で、1つ以上の入力デバイスを介して、第1のポジションとは異なるメディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出したことに応じて、表示生成構成要素を介して、第2の方式とは異なる第3の方式で第1のメディアアイテムの表現を表示する、命令を含む。
【0012】
いくつかの実施形態では、コンピュータシステムが説明される。いくつかの実施形態では、コンピュータシステムは、表示生成構成要素及び1つ以上の入力デバイスと通信し、表示生成構成要素を介して、第1のメディアアイテムの表現を含む複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを表示するための手段と、メディアライブラリユーザインタフェースを表示している間に、第1の時点で、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、第1のメディアアイテムの表現の外観を、表示生成構成要素を介して、第1の方式で表示されることから、第1の方式とは異なる第2の方式で表示されることに変更し、第1の時点の後の第2の時点で、1つ以上の入力デバイスを介して、第1のポジションとは異なるメディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出したことに応じて、表示生成構成要素を介して、第2の方式とは異なる第3の方式で第1のメディアアイテムの表現を表示するための手段と、を備える。
【0013】
いくつかの実施形態では、コンピュータプログラム製品が説明される。いくつかの実施形態では、コンピュータプログラム製品は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、第1のメディアアイテムの表現を含む複数のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを表示し、メディアライブラリユーザインタフェースを表示している間に、第1の時点で、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、第1のメディアアイテムの表現の外観を、表示生成構成要素を介して、第1の方式で表示されることから、第1の方式とは異なる第2の方式で表示されることに変更し、第1の時点の後の第2の時点で、1つ以上の入力デバイスを介して、第1のポジションとは異なるメディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出し、メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出したことに応じて、表示生成構成要素を介して、第2の方式とは異なる第3の方式で第1のメディアアイテムの表現を表示する、命令を含む。
【0014】
いくつかの実施形態によれば、方法が記載される。本方法は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、表示生成構成要素を介して、第1のズームレベルでユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出することと、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したことに応じて、ユーザ視線がユーザインタフェース内の第1のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第2のズームレベルでユーザインタフェースを表示することであって、第2のズームレベルでユーザインタフェースを表示することは、第1のポジションに基づいて選択された第1のズーム中心を使用してユーザインタフェースをズームすることを含み、ユーザ視線が第1のポジションとは異なるユーザインタフェース内の第2のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第3のズームレベルでユーザインタフェースを表示することであって、第3のズームレベルでユーザインタフェースを表示することは、第2のポジションに基づいて選択された第2のズーム中心を使用してユーザインタフェースをズームすることを含み、第2のズーム中心は、第1のズーム中心とは異なるロケーションにある、ことと、を含む。
【0015】
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。いくつかの実施形態では、非一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、第1のズームレベルでユーザインタフェースを表示し、ユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出し、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したことに応じて、ユーザ視線がユーザインタフェース内の第1のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第2のズームレベルでユーザインタフェースを表示し、第2のズームレベルでユーザインタフェースを表示することは、第1のポジションに基づいて選択された第1のズーム中心を使用してユーザインタフェースをズームすることを含み、ユーザ視線が第1のポジションとは異なるユーザインタフェース内の第2のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第3のズームレベルでユーザインタフェースを表示し、第3のズームレベルでユーザインタフェースを表示することは、第2のポジションに基づいて選択された第2のズーム中心を使用してユーザインタフェースをズームすることを含み、第2のズーム中心は、第1のズーム中心とは異なるロケーションにある、命令を含む。
【0016】
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。いくつかの実施形態では、一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、第1のズームレベルでユーザインタフェースを表示し、ユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出し、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したことに応じて、ユーザ視線がユーザインタフェース内の第1のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第2のズームレベルでユーザインタフェースを表示し、第2のズームレベルでユーザインタフェースを表示することは、第1のポジションに基づいて選択された第1のズーム中心を使用してユーザインタフェースをズームすることを含み、ユーザ視線が第1のポジションとは異なるユーザインタフェース内の第2のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第3のズームレベルでユーザインタフェースを表示し、第3のズームレベルでユーザインタフェースを表示することは、第2のポジションに基づいて選択された第2のズーム中心を使用してユーザインタフェースをズームすることを含み、第2のズーム中心は、第1のズーム中心とは異なるロケーションにある、命令を含む。
【0017】
いくつかの実施形態によれば、コンピュータシステムが記載される。いくつかの実施形態では、コンピュータシステムは、表示生成構成要素及び1つ以上の入力デバイスと通信し、コンピュータシステムは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示生成構成要素を介して、第1のズームレベルでユーザインタフェースを表示し、ユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出し、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したことに応じて、ユーザ視線がユーザインタフェース内の第1のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第2のズームレベルでユーザインタフェースを表示し、第2のズームレベルでユーザインタフェースを表示することは、第1のポジションに基づいて選択された第1のズーム中心を使用してユーザインタフェースをズームすることを含み、ユーザ視線が第1のポジションとは異なるユーザインタフェース内の第2のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第3のズームレベルでユーザインタフェースを表示し、第3のズームレベルでユーザインタフェースを表示することは、第2のポジションに基づいて選択された第2のズーム中心を使用してユーザインタフェースをズームすることを含み、第2のズーム中心は、第1のズーム中心とは異なるロケーションにある、命令を含む。
【0018】
いくつかの実施形態では、コンピュータシステムが説明される。いくつかの実施形態では、コンピュータシステムは、表示生成構成要素及び1つ以上の入力デバイスと通信し、コンピュータシステムは、表示生成構成要素を介して、第1のズームレベルでユーザインタフェースを表示するための手段と、ユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出するための手段と、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したことに応じて、ユーザ視線がユーザインタフェース内の第1のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第2のズームレベルでユーザインタフェースを表示し、第2のズームレベルでユーザインタフェースを表示することは、第1のポジションに基づいて選択された第1のズーム中心を使用してユーザインタフェースをズームすることを含み、ユーザ視線が第1のポジションとは異なるユーザインタフェース内の第2のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第3のズームレベルでユーザインタフェースを表示し、第3のズームレベルでユーザインタフェースを表示することは、第2のポジションに基づいて選択された第2のズーム中心を使用してユーザインタフェースをズームすることを含み、第2のズーム中心は、第1のズーム中心とは異なるロケーションにある、手段と、を備える。
【0019】
いくつかの実施形態では、コンピュータプログラム製品が説明される。いくつかの実施形態では、コンピュータプログラム製品は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを含み、1つ以上のプログラムは、表示生成構成要素を介して、第1のズームレベルでユーザインタフェースを表示し、ユーザインタフェースを表示している間に、1つ以上の入力デバイスを介して、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出し、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したことに応じて、ユーザ視線がユーザインタフェース内の第1のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第2のズームレベルでユーザインタフェースを表示し、第2のズームレベルでユーザインタフェースを表示することは、第1のポジションに基づいて選択された第1のズーム中心を使用してユーザインタフェースをズームすることを含み、ユーザ視線が第1のポジションとは異なるユーザインタフェース内の第2のポジションに対応するという判定に従って、表示生成構成要素を介して、第1のズームレベルよりも大きい第3のズームレベルでユーザインタフェースを表示し、第3のズームレベルでユーザインタフェースを表示することは、第2のポジションに基づいて選択された第2のズーム中心を使用してユーザインタフェースをズームすることを含み、第2のズーム中心は、第1のズーム中心とは異なるロケーションにある、命令を含む。
【0020】
いくつかの実施形態によれば、方法が記載される。本方法は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出することと、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1のメディアアイテムを第1の方式で表示し、第1のメディアアイテムが個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1の方式とは異なる第2の方式で第1のメディアアイテムを表示することと、を含む。
【0021】
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。いくつかの実施形態では、非一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出し、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1のメディアアイテムを第1の方式で表示し、第1のメディアアイテムが個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1の方式とは異なる第2の方式で第1のメディアアイテムを表示する、命令を含む。
【0022】
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。いくつかの実施形態では、一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出し、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1のメディアアイテムを第1の方式で表示し、第1のメディアアイテムが個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1の方式とは異なる第2の方式で第1のメディアアイテムを表示する、命令を含む。
【0023】
いくつかの実施形態によれば、コンピュータシステムが記載される。いくつかの実施形態では、コンピュータシステムは、表示生成構成要素及び1つ以上の入力デバイスと通信し、コンピュータシステムは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出し、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1のメディアアイテムを第1の方式で表示し、第1のメディアアイテムが個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1の方式とは異なる第2の方式で第1のメディアアイテムを表示する、命令を含む。
【0024】
いくつかの実施形態では、コンピュータシステムが説明される。いくつかの実施形態では、コンピュータシステムは、表示生成構成要素及び1つ以上の入力デバイスと通信し、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出するための手段と、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1のメディアアイテムを第1の方式で表示し、第1のメディアアイテムが個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1の方式とは異なる第2の方式で第1のメディアアイテムを表示するための手段と、を備える。
【0025】
いくつかの実施形態では、コンピュータプログラム製品が説明される。いくつかの実施形態では、コンピュータプログラム製品は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出し、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1のメディアアイテムを第1の方式で表示し、第1のメディアアイテムが個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って、表示生成構成要素を介して、第1の方式とは異なる第2の方式で第1のメディアアイテムを表示する、命令を含む。
【0026】
いくつかの実施形態では、表示生成構成要素と通信するコンピュータシステムにおいて実行される方法が説明される。本方法は、表示生成構成要素を介して、ユーザインタフェースであって、立体視メディアアイテムの第1の表現であって、立体視メディアアイテムの第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、視覚効果であって、視覚効果は、立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、立体視メディアアイテムの第1の表現の少なくとも第1の縁部から立体視メディアアイテムの第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示することを含む。
【0027】
いくつかの実施形態では、非一時的コンピュータ可読記憶媒体が説明される。非一時的コンピュータ可読記憶媒体は、コンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、コンピュータシステムは、表示生成構成要素と通信し、1つ以上のプログラムは、表示生成構成要素を介して、ユーザインタフェースであって、立体視メディアアイテムの第1の表現であって、立体視メディアアイテムの第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、視覚効果であって、視覚効果は、立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、立体視メディアアイテムの第1の表現の少なくとも第1の縁部から立体視メディアアイテムの第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示する、命令を含む。
【0028】
いくつかの実施形態では、一時的コンピュータ可読記憶媒体が説明される。一時的コンピュータ可読記憶媒体は、コンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、コンピュータシステムは、表示生成構成要素と通信し、1つ以上のプログラムは、表示生成構成要素を介して、ユーザインタフェースであって、立体視メディアアイテムの第1の表現であって、立体視メディアアイテムの第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、視覚効果であって、視覚効果は、立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、立体視メディアアイテムの第1の表現の少なくとも第1の縁部から立体視メディアアイテムの第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示する、命令を含む。
【0029】
いくつかの実施形態では、コンピュータシステムが説明される。コンピュータシステムは、1つ以上のプロセッサであって、コンピュータシステムが表示生成構成要素と通信する、1つ以上のプロセッサと、と、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示生成構成要素を介して、ユーザインタフェースであって、立体視メディアアイテムの第1の表現であって、立体視メディアアイテムの第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、視覚効果であって、視覚効果は、立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、立体視メディアアイテムの第1の表現の少なくとも第1の縁部から立体視メディアアイテムの第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示する、命令を含む。
【0030】
いくつかの実施形態では、コンピュータシステムが説明される。コンピュータシステムは、表示生成構成要素と通信し、コンピュータシステムは、表示生成構成要素を介して、ユーザインタフェースであって、立体視メディアアイテムの第1の表現であって、立体視メディアアイテムの第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、視覚効果であって、視覚効果は、立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、立体視メディアアイテムの第1の表現の少なくとも第1の縁部から立体視メディアアイテムの第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示するための手段を備える。
【0031】
いくつかの実施形態では、コンピュータプログラム製品が説明される。コンピュータプログラム製品は、表示生成構成要素と通信するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備え、1つ以上のプログラムは、表示生成構成要素を介して、ユーザインタフェースであって、立体視メディアアイテムの第1の表現であって、立体視メディアアイテムの第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、視覚効果であって、視覚効果は、立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、立体視メディアアイテムの第1の表現の少なくとも第1の縁部から立体視メディアアイテムの第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示する、命令を含む。
【0032】
前述の様々な実施形態は、本明細書に記載の任意の他の実施形態と組み合わせることができることに留意されたい。本明細書で説明する特徴及び利点は、包括的なものではなく、特に、図面、明細書及び特許請求の範囲を鑑みると、多くの追加の特徴及び利点が当業者には明らかになるであろう。更に、本明細書において使用される文言は、専ら読みやすさ及び説明の目的で選択されたものであり、本発明の主題を画定又は制限するために選択されたものではないことに留意されたい。
【図面の簡単な説明】
【0033】
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
【0034】
図1】いくつかの実施形態による、拡張現実体験を提供するためのコンピュータシステムの動作環境を示すブロック図である。
【0035】
図2】いくつかの実施形態による、ユーザの拡張現実体験を管理及び調整するように構成されたコンピュータシステムのコントローラを示すブロック図である。
【0036】
図3】いくつかの実施形態による、拡張現実体験の視覚的構成要素をユーザに提供するように構成されたコンピュータシステムの表示生成構成要素を示すブロック図である。
【0037】
図4】いくつかの実施形態による、ユーザのジェスチャ入力をキャプチャするように構成されたコンピュータシステムのハンドトラッキングユニットを示すブロック図である。
【0038】
図5】いくつかの実施形態による、ユーザの視線入力をキャプチャするように構成されたコンピュータシステムのアイトラッキングユニットを示すブロック図である。
【0039】
図6】いくつかの実施形態による、グリント支援視線追跡パイプラインを示すフロー図である。
【0040】
図7A】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7B】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7C】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7D】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7E】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7F】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7G】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7H】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7I】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7J】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7K】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7L】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7M】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
図7N】いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。
【0041】
図8】様々な実施形態による、メディアアイテム及びユーザインタフェースと相互作用する方法のフロー図である。
【0042】
図9】様々な実施形態による、メディアアイテム及びユーザインタフェースと相互作用する方法のフロー図である。
【0043】
図10】様々な実施形態による、メディアアイテム及びユーザインタフェースと相互作用する方法のフロー図である。
【0044】
図11A】いくつかの実施形態による、メディアアイテムを表示するための例示的な技術を示す。
図11B】いくつかの実施形態による、メディアアイテムを表示するための例示的な技術を示す。
図11C】いくつかの実施形態による、メディアアイテムを表示するための例示的な技術を示す。
図11D】いくつかの実施形態による、メディアアイテムを表示するための例示的な技術を示す。
図11E】いくつかの実施形態による、メディアアイテムを表示するための例示的な技術を示す。
図11F】いくつかの実施形態による、メディアアイテムを表示するための例示的な技術を示す。
【0045】
図12】いくつかの実施形態による、メディアアイテムを表示するための方法のフロー図である。
【発明を実施するための形態】
【0046】
本開示は、いくつかの実施形態による、拡張現実(XR)体験をユーザに提供するユーザインタフェースに関する。
【0047】
本明細書に記載するシステム、方法、及びGUIは、複数の方法で仮想/拡張現実環境とのユーザインタフェース相互作用を改善する。
【0048】
いくつかの実施形態では、表示されたコンテンツの1つ以上の視覚特性は、ユーザの視線が向けられている場所に基づいて修正される。例えば、ユーザがメディアライブラリ内の第1のメディアアイテムを注視した場合、第1のメディアアイテムの視覚特性が修正され、ユーザがメディアライブラリ内の第2のメディアアイテムを注視した場合、第2のメディアアイテムの視覚特性が修正される。ユーザの視線のロケーション及び/又はポジションは、例えば、タッチ感知面又は他の物理的コントローラとは対照的に、センサ及び/又はカメラ(例えば、ヘッドマウントデバイスと統合されるか、又はユーザから離れて設置される(例えば、XR室内)センサ及び/又はカメラ)を使用して検出される。ユーザの視線に基づいて表示されたコンテンツの視覚特性を修正することは、コンピュータシステムの状態(例えば、コンピュータシステムがユーザインタフェース内の特定のポジションでユーザ視線を検出したこと)に関する視覚的フィードバックをユーザに提供する。ユーザの視線に基づいて表示されたコンテンツの視覚特性を修正することはまた、ユーザが、複数のコントロールを有するディスプレイを視覚的に散らかすことなく、2つ以上のコンテキストにおいて表示されたコンテンツと効率的に相互作用することを可能にし、ユーザインタフェースの対話効率を改善する(例えば、所望の結果を達成するために必要とされる入力の数を低減する)。
【0049】
いくつかの実施形態では、コンピュータシステムは、ユーザの視線が向けられている場所に基づいて、ユーザがユーザインタフェースにズームインすることを可能にする。例えば、ユーザがズームインコマンド(例えば、1つ以上のハンドジェスチャ)を与えながらユーザインタフェースの第1のポジションを注視する場合には、コンピュータシステムは、第1のポジションをズーム動作の中心点として使用してユーザインタフェースをズームインし、そしてユーザがズームインコマンドを与えながらユーザインタフェースの第2のポジションを注視する場合には、コンピュータシステムは、第2のポジションをズーム動作の中心点として使用してユーザインタフェースをズームインする。ユーザの視線に基づいてユーザインタフェースをズームインすることは、コンピュータシステムの状態(例えば、コンピュータシステムがユーザインタフェース内の特定のポジションでユーザの視線を検出したこと)に関する視覚的フィードバックをユーザに提供し、適切な及び/又は正しい入力を提供する際にユーザを支援する。ユーザの視線に基づいてユーザインタフェースをズームインすることはまた、ユーザが、複数のコントロールを有するディスプレイを視覚的に散らかすことなく、2つ以上のコンテキストにおいて表示されたコンテンツと効率的に相互作用することを可能にし、ユーザインタフェースの対話効率を改善する(例えば、所望の結果を達成するために必要とされる入力の数を低減する)。
【0050】
いくつかの実施形態では、メディアアイテムは、メディアアイテムが特定のタイプの深度情報を含むかどうかに基づいて(例えば、メディアアイテムが立体視キャプチャであるかどうかに基づいて)、異なって(例えば、異なる視覚効果で)表示される。例えば、メディアアイテムが立体視キャプチャである場合、メディアアイテムは、視覚特性の第1のセットとともに表示される(例えば、三次元形状内に表示される、複数の層とともに表示される、屈折及び/又はぼやけた縁部とともに表示される)。メディアアイテムが立体視キャプチャでない場合、メディアアイテムは、視覚特性の第2のセットを用いて表示される(例えば、二次元形状内で表示される、単一の層として表示される、屈折及び/又はぼやけた縁部なしで表示される)。メディアアイテムが特定のタイプの深度情報を含むかどうかに基づいてメディアアイテムを異なるように表示することは、コンピュータシステムの状態に関する視覚的フィードバックをユーザに提供する(例えば、現在表示されているメディアアイテムが特定のタイプの深度情報を含むかどうかをユーザに示す)。
【0051】
いくつかの実施形態では、視覚効果は、以前にキャプチャされたメディアアイテム(例えば、以前にキャプチャされた立体視メディアアイテム)の表現の上にオーバーレイされて表示される。例えば、視覚効果は、以前にキャプチャされたメディアアイテムの表現の1つ以上の縁部に表示することができ、以前にキャプチャされたメディアアイテムの表現の中心に向かって内側に延びることができる。視覚効果は、視覚効果がメディアアイテムの表現の中心に向かって延びるにつれて値及び/又は強度が減少する視覚特性(例えば、ぼかしの量)を有する。メディアアイテムの表現の1つ以上の縁部に視覚効果を表示することは、ユーザが以前にキャプチャされたメディアアイテムの表現を視聴している間にユーザが体験し得る視覚的不快感(例えば、ウィンドウバイオレーション)の量を低減するのを助ける。
【0052】
図1図6は、XR体験をユーザに提供するための例示的なコンピュータシステムを説明する。図7A図7Nは、いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。図8は、様々な実施形態による、メディアアイテム及びユーザインタフェースと相互作用する方法のフロー図である。図9は、様々な実施形態による、メディアアイテム及びユーザインタフェースと相互作用する方法のフロー図である。図10は、様々な実施形態による、メディアアイテム及びユーザインタフェースと相互作用する方法のフロー図である。図7A図7Nのユーザインタフェースは、図8図10のプロセスを示すために使用される。図11A図11Fは、いくつかの実施形態による、メディアアイテムを表示するための例示的な技術を示す。図12は、様々な実施形態による、メディアアイテムを表示するための方法のフロー図である。図11A図11Fのユーザインタフェースは、図12のプロセスを示すために使用される。
【0053】
後述のプロセスは、改善された視覚的なフィードバックをユーザに提供すること、操作を実行するために必要な入力の数を減らすこと、表示される追加のコントロールでユーザインタフェースを混乱させることなく追加の制御オプションを提供すること、条件のセットが満たされたときに更なるユーザ入力を必要とせずに操作を実行すること、プライバシー及び/若しくはセキュリティを改善すること、記憶空間を節約しながらより多様な、詳細な、及び/若しくは現実的なユーザ体験を提供すること、ユーザが体験するウィンドウバイオレーションの量を低減すること、並びに/又は追加の技術を含む、様々な技術を通して、(例えば、ユーザが適切な入力を提供するのを助け、デバイスを動作させる/デバイスと相互作用するときのユーザの誤りを低減することによって)デバイスの操作性を高め、ユーザデバイスインタフェースをより効率的にする。これらの技術はまた、ユーザがデバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。バッテリ電力、従って重量を節約することは、デバイスの人間工学を改善する。これらの技術はまた、リアルタイム通信を可能にし、より少ない及び/又はより精度の低いセンサの使用を可能にし、よりコンパクトで、より軽く、より安価なデバイスをもたらし、デバイスが様々な照明条件で使用されることを可能にする。これらの技術は、エネルギー使用を低減し、それによってデバイスによって放出される熱を低減し、これは、デバイス構成要素のための動作パラメータ内に十分にあるデバイスが、過度に多くの熱を生成している場合、ユーザが装着するには不快になり得るウェアラブルデバイスにとって特に重要である。
【0054】
更に、1つ以上のステップが満たされている1つ以上の条件を条件とする本明細書に記載の方法では、記載の方法は、繰り返しの過程にわたって、本方法のステップが条件とする条件の全てが本方法の異なる繰り返しで満たされるように、複数の繰り返しで繰り返されることができることを理解されたい。例えば、ある方法が、条件が満たされた場合に第1のステップを実行し、条件が満たされなかった場合に第2のステップを実行することを必要とする場合、当業者であれば、条件が満たされ、満たされなくなるまで、請求項に記載のステップが、特定の順序で繰り返されることを理解するであろう。したがって、満たされた1つ以上の条件に依存する1つ以上のステップで説明される方法は、方法に記載された各条件が満たされるまで繰り返される方法として書き換えられることができる。しかしながら、これは、システム又はコンピュータ可読媒体が、対応する1つ以上の条件の充足に基づいて条件付き動作を実行するための命令を含み、したがって、方法のステップが条件付きである全ての条件が満たされるまで、方法のステップを明示的に繰り返すことなく偶発性が満たされたか否かを判定することができる、システム又はコンピュータ可読媒体の請求項には必要とされない。当業者はまた、条件付きステップを有する方法と同様に、システム又はコンピュータ可読記憶媒体が、条件付きステップの全てが実行されたことを確実にするために必要な回数だけ方法のステップを繰り返すことができることを理解するであろう。
【0055】
いくつかの実施形態では、図1に示されるように、XR体験は、コンピュータシステム101を含む動作環境100を介してユーザに提供される。コンピュータシステム101は、コントローラ110(例えば、ポータブル電子デバイス又はリモートサーバのプロセッサ)と、表示生成構成要素120(例えば、ヘッドマウントデバイス(HMD)、ディスプレイ、プロジェクタ、タッチスクリーンなど)と、1つ以上の入力デバイス125(例えば、アイトラッキングデバイス130、ハンドトラッキングデバイス140、他の入力デバイス150)と、1つ以上の出力デバイス155(例えば、スピーカ160、触知出力ジェネレータ170、及び他の出力デバイス180)と、1つ以上のセンサ190(例えば、画像センサ、光センサ、深度センサ、触覚センサ、配向センサ、近接センサ、温度センサ、ロケーションセンサ、運動センサ、速度センサなど)と、任意選択的に1つ以上の周辺デバイス195(例えば、家電製品、ウェアラブルデバイスなど)と、を含む。いくつかの実施形態では、入力デバイス125、出力デバイス155、センサ190、及び周辺デバイス195のうちの1つ以上は、(例えば、ヘッドマウントデバイス又はハンドヘルドデバイス内で)表示生成構成要素120と統合される。
【0056】
XR体験を説明するとき、ユーザが感知する、及び/又は(例えば、XR体験を生成するコンピュータシステムに、XR体験を生成するコンピュータシステム101に提供される様々な入力に対応するオーディオ、視覚、及び/又は触覚フィードバックを生成させる、コンピュータシステム101によって検出された入力を用いて)ユーザが相互作用することができる、いくつかの関連するが、別個の環境に個別的に言及するために様々な用語が使用される。以下は、これらの用語のサブセットである。
【0057】
物理的環境:物理的環境とは、人々が電子システムの助けなしに、感知及び/又は相互作用することができる物理的世界を指す。物理的な公園などの物理的環境には、物理的な木々、物理的な建物、及び物理的な人々などの物理的物品が挙げられる。人々は、視覚、触覚、聴覚、味覚、及び嗅覚などを介して、物理的環境を直接感知し、及び/又はそれと相互作用することができる。
【0058】
拡張現実:これと対照的に、拡張現実(extended reality、XR)環境は、人々が電子システムを介して感知及び/又は対話する、全体的又は部分的に模倣された環境を指す。XRでは、人物の身体運動のサブセット又はその表現が追跡され、それに応じて、XR環境内でシミュレートされた1つ以上の仮想オブジェクトの1つ以上の特性が、少なくとも1つの物理学の法則でふるまうように調節される。例えば、XRシステムは、人物の頭部の回転を検出し、それに応じて、そのようなビュー及び音が物理的環境においてどのように変化するかと同様の方法で、人物に提示されるグラフィックコンテンツ及び音場を調節することができる。状況によっては(例えば、アクセス性の理由から)、XR環境における仮想オブジェクト(単数又は複数)の特性(単数又は複数)に対する調節は、身体運動の表現(例えば、音声コマンド)に応じて行われてもよい。人物は、視覚、聴覚、触覚、味覚及び嗅覚を含むこれらの感覚のうちのいずれか1つを使用して、XRオブジェクトを感知し、かつ/又はXRオブジェクトと相互作用してもよい。例えば、人は、3D空間内のポイントオーディオソースの知覚を提供する、3D又は空間オーディオ環境を作り出すオーディオオブジェクトを感知し、及び/又はそれと対話することができる。別の例では、オーディオオブジェクトによって、コンピュータ生成オーディオを含めて、又は含めずに、物理的環境から周囲音を選択的に組み込むオーディオ透過性が可能になり得る。いくつかのXR環境では、人物は、オーディオオブジェクトのみを感知し、かつ/又はそれと相互作用してもよい。
【0059】
XRの例としては、仮想現実及び複合現実が挙げられる。
【0060】
仮想現実:仮想現実(VR)環境とは、1つ以上の感覚について、コンピュータ生成感覚入力に全面的に基づくように設計された模倣環境を指す。VR環境は、人物が感知かつ/又は相互作用することができる複数の仮想オブジェクトを含む。例えば、木、建物、及び人々を表すアバターのコンピュータ生成画像は、仮想オブジェクトの例である。人物は、コンピュータ生成環境内に人物が存在することのシミュレーションを通じて、かつ/又はコンピュータ生成環境内での人物の物理的移動のサブセットのシミュレーションを通じて、VR環境における仮想オブジェクトを感知し、かつ/又はそれと相互作用することができる。
【0061】
複合現実:複合現実(MR)環境とは、コンピュータ生成感覚入力に全面的に基づくように設計されたVR環境とは対照的に、コンピュータ生成感覚入力(例えば、仮想オブジェクト)を含むことに加えて、物理的環境からの感覚入力又はその表現を組み込むように設計された模倣環境を指す。仮想の連続体上では、複合現実環境は、一方の端部における完全な物理的環境と、他方の端部における仮想現実環境との間であるがこれらを含まない、任意の場所である。いくつかのMR環境では、コンピュータ生成感覚入力は、物理的環境からの感覚入力の変化に応じ得る。また、MR環境を提示するためのいくつかの電子システムは、仮想オブジェクトが現実のオブジェクト(すなわち、物理的環境からの物理的物品又はその表現)と相互作用することを可能にするために、物理的環境に対するロケーション及び/又は配向を追跡してもよい。例えば、システムは、仮想の木が物理的な地面に対して静止して見えるように、移動を考慮に入れてもよい。
【0062】
複合現実の例としては、拡張現実及び拡張仮想が挙げられる。
【0063】
拡張現実:拡張現実(AR)環境とは、1つ以上の仮想オブジェクトが物理的環境上又はその表現上に重ね合わされた模倣環境を指す。例えば、AR環境を提示するための電子システムは、人物が物理的環境を直接見ることができる透明又は半透明のディスプレイを有してもよい。システムは、透明又は半透明のディスプレイに仮想オブジェクトを提示するように構成されていてもよく、それによって、人物はシステムを使用して、物理的環境の上に重ね合わされた仮想オブジェクトを知覚する。あるいは、システムは、不透明ディスプレイと、物理的環境の表現である、物理的環境の画像又はビデオをキャプチャする1つ以上の撮像センサとを有してもよい。システムは、画像又はビデオを仮想オブジェクトと合成し、その合成物を不透明ディスプレイ上に提示する。人物はこのシステムを使用して、物理的環境を、物理的環境の画像又はビデオによって間接的に見て、物理的環境に重ね合わされた仮想オブジェクトを知覚する。本明細書で使用するとき、不透明ディスプレイ上に示される物理的環境のビデオは、「パススルービデオ」と呼ばれ、システムが、1つ以上の画像センサ(単数又は複数)を使用して、物理的環境の画像をキャプチャし、不透明ディスプレイ上にAR環境を提示する際にそれらの画像を使用することを意味する。更に代替的に、システムが仮想オブジェクトを、例えば、ホログラムとして物理的環境の中に、又は物理的表面に投影するプロジェクションシステムを有してもよく、それによって、人物はシステムを使用して、物理的環境に重ね合わされた仮想オブジェクトを知覚する。拡張現実環境はまた、物理的環境の表現がコンピュータ生成感覚情報によって変換される模倣環境を指す。例えば、パススルービデオを提供する際に、システムは、1つ以上のセンサ画像を、撮像センサがキャプチャした透視図とは別の選択された透視図(例えば、視点)を面付けするように変形してもよい。別の例として、物理的環境の表現を、その一部をグラフィカルに修正(例えば、拡大)することによって変形してもよく、それにより、修正された部分を、元のキャプチャ画像を表すが非写実的な、改変版にすることもできる。更なる例として、物理的環境の表現は、その一部をグラフィカルに除去又は不明瞭化することによって変形されてもよい。
【0064】
拡張仮想:拡張仮想(augmented virtuality、AV)環境とは、仮想環境又はコンピュータ生成環境が物理的環境から1つ以上の感覚入力を組み込んだ模倣環境を指す。感覚入力は、物理的環境の1つ以上の特性の表現であり得る。例えば、AVの公園には仮想の木及び仮想の建物があり得るが、顔がある人々は、物理的な人々が撮られた画像から写実的に再現される。別の例として、仮想オブジェクトは、1つ以上の撮像センサによって撮像された物理的物品の形状又は色を採用してもよい。更なる例として、仮想オブジェクトは、物理的環境における太陽のポジションと一致する影を採用することができる。
【0065】
視点ロック仮想オブジェクト:ユーザの視点がシフト(例えば、変化)しても、コンピュータシステムが仮想オブジェクトをユーザの視点内の同じロケーション及び/又はポジションに表示するとき、仮想オブジェクトは視点ロックされる。コンピュータシステムがヘッドマウントデバイスである実施形態では、ユーザの視点は、ユーザの頭部の前向き方向にロックされる(例えば、ユーザの視点は、ユーザが真っ直ぐ前を見ているときのユーザの視野の少なくとも一部分である)。したがって、ユーザの視点は、ユーザの頭部を動かさずに、ユーザの視線が動いても固定されたままである。コンピュータシステムが、ユーザの頭部に対して再配置され得る表示生成構成要素(例えば、表示画面)を有する実施形態では、ユーザの視点は、コンピュータシステムの表示生成構成要素上でユーザに提示されている拡張現実ビューである。例えば、ユーザの視点が第1の配向にある(例えば、ユーザの頭部が北を向いている)ときにユーザの視点の左上隅に表示される視点ロック仮想オブジェクトは、ユーザの視点が第2の配向に変化しても(例えば、ユーザの頭部が西を向いている)、ユーザの視点の左上隅に表示され続ける。言い換えれば、視点ロック仮想オブジェクトがユーザの視点において表示されるロケーション及び/又はポジションは、物理的環境におけるユーザのポジション及び/又は配向とは無関係である。コンピュータシステムがヘッドマウントデバイスである実施形態では、ユーザの視点は、仮想オブジェクトが「頭部ロック仮想オブジェクト」とも称されるように、ユーザの頭部の配向にロックされる。
【0066】
環境ロック仮想オブジェクト:仮想オブジェクトは、コンピュータシステムが、三次元環境(例えば、物理的環境又は仮想環境)内のロケーション及び/又はオブジェクトに基づく(例えば、それを参照して選択される、及び/又はそれに固定される)ユーザの視点内のロケーション及び/又はポジションに仮想オブジェクトを表示するとき、環境ロック(又は、「世界ロック」)される。ユーザの視点がシフトすると、ユーザの視点に対する環境内のロケーション及び/又はオブジェクトが変化し、その結果、環境ロック仮想オブジェクトがユーザの視点内の異なるロケーション及び/又はポジションに表示される。例えば、ユーザの直前にある木にロックされた環境ロック仮想オブジェクトは、ユーザの視点の中心に表示される。ユーザの視点が右にシフトして(例えば、ユーザの頭部が右に向けられて)木がユーザの視点において左寄りになる(例えば、ユーザの視点における木のポジションがシフトする)場合、木にロックされた環境ロック仮想オブジェクトは、ユーザの視点において左寄りに表示される。言い換えれば、環境ロック仮想オブジェクトがユーザの視点において表示されるロケーション及び/又はポジションは、仮想オブジェクトがロックされる環境におけるロケーション及び/又はオブジェクトのポジション及び/又は配向に依存する。いくつかの実施形態では、コンピュータシステムは、ユーザの視点において環境ロック仮想オブジェクトを表示するポジションを決定するために、静止基準フレーム(例えば、物理的環境における固定ロケーション及び/又はオブジェクトに固定される座標系)を使用する。環境ロック仮想オブジェクトは、環境の静止部分(例えば、床、壁、テーブル、又は他の静止オブジェクト)にロックされることができ、又は環境の可動部分(例えば、車両、動物、人、又はユーザの手、手首、腕、足など、ユーザの視点とは無関係に移動するユーザの身体の部分の表現)にロックされることができ、それにより、仮想オブジェクトは、仮想オブジェクトと環境の部分との間の固定された関係を維持するために、視点又は環境の部分が移動するにつれて移動する。
【0067】
いくつかの実施形態では、環境ロック又は視点ロックされた仮想オブジェクトは、仮想オブジェクトが追従している基準点の移動に対して、環境ロック又は視点ロックされた仮想オブジェクトの動きを低減又は遅延させる遅延追従挙動を示す。いくつかの実施形態では、遅延追従挙動を示すとき、コンピュータシステムは、仮想オブジェクトが追従している基準点(例えば、環境の一部、視点、又は視点から5~300cmの間にある点などの視点に対して固定された点)の移動を検出すると、仮想オブジェクトの移動を意図的に遅延させる。例えば、基準点(例えば、環境の一部又は視点)が第1の速度で移動するとき、仮想オブジェクトは、基準点にロックされたままであるようにデバイスによって移動されるが、第1の速度よりも遅い第2の速度で移動する(例えば、基準点が移動を停止又は減速するまで、その時点で仮想オブジェクトが基準点に追いつき始める)。いくつかの実施形態では、仮想オブジェクトが遅延追従挙動を示すとき、デバイスは、基準点の少量の移動を無視する(例えば、0~5度の移動又は0~50cmの移動など、閾値移動量未満である基準点の移動を無視する)。例えば、基準点(例えば、仮想オブジェクトがロックされる環境の部分又は視点)が第1の量だけ移動するとき、基準点と仮想オブジェクトとの間の距離は増加し(例えば、仮想オブジェクトがロックされる基準点とは異なる視点又は環境の部分に対して固定又は実質的に固定されたポジションを維持するように仮想オブジェクトが表示されているので)、基準点(例えば、仮想オブジェクトがロックされる環境の部分又は視点)が第1の量よりも大きい第2の量だけ移動するとき、基準点と仮想オブジェクトとの間の距離は最初に増加し(例えば、仮想オブジェクトがロックされる基準点とは異なる視点又は環境の部分に対して固定又は実質的に固定されたポジションを維持するように仮想オブジェクトが表示されているので)、次いで、仮想オブジェクトが基準点に対して固定又は実質的に固定されたポジションを維持するようにコンピュータシステムによって移動されるので、基準点の移動量が閾値(例えば、「遅延追従」閾値)を超えて増加するにつれて減少する。いくつかの実施形態では、基準点に対して実質的に固定されたポジションを維持する仮想オブジェクトは、仮想オブジェクトが、1つ以上の寸法(例えば、基準点のポジションに対して上/下、左/右、及び/又は前方/後方)において基準点の閾値距離(例えば、1、2、3、5、15、20、50cm)内に表示されることを含む。
【0068】
ハードウェア:人物が様々なXR環境を感知し、及び/又はそれと相互作用することを可能にする、多くの異なるタイプの電子システムが存在する。例としては、ヘッドマウントシステム、プロジェクションベースシステム、ヘッドアップディスプレイ(HUD)、統合表示機能を有する車両フロントガラス、統合表示機能を有する窓、人の目の上に配置されるように設計されたレンズとして形成されたディスプレイ(例えば、コンタクトレンズ類)、ヘッドホン/イヤフォン、スピーカアレイ、入力システム(例えば、触覚フィードバックを有する又は有さない、ウェアラブルコントローラ又はハンドヘルドコントローラ)、スマートフォン、タブレット、及びデスクトップ/ラップトップコンピュータ、が挙げられる。ヘッドマウントシステムは、音声出力を提供するためにヘッドマウントシステムに統合されたスピーカ及び/又は他の音声出力デバイスを含み得る。ヘッドマウントシステムは、1つ以上のスピーカ(単数又は複数)及び一体型不透明ディスプレイを有してもよい。代替的に、ヘッドマウントシステムは、外部の不透明ディスプレイ(例えば、スマートフォン)を受け入れるように構成されていてもよい。ヘッドマウントシステムは、物理的環境の画像若しくはビデオをキャプチャするための1つ以上の撮像センサ、及び/又は物理的環境の音声をキャプチャするための1つ以上のマイクロフォンを組み込んでいてもよい。ヘッドマウントシステムは、不透明ディスプレイではなく、透明又は半透明のディスプレイを有してもよい。透明又は半透明のディスプレイは、画像を表す光が人物の目に向けられる媒体を有してもよい。ディスプレイは、デジタル光投影、OLED、LED、uLED、液晶オンシリコン、レーザスキャン光源、又はこれらの技術の任意の組み合わせを利用することができる。媒体は、光導波路、ホログラム媒体、光結合器、光反射器、又はこれらの任意の組み合わせであってもよい。一実施形態では、透明又は半透明のディスプレイは、選択的に不透明になるように構成されていてもよい。プロジェクションベースシステムは、グラフィカル画像を人物の網膜上に投影する網膜投影技術を採用することができる。プロジェクションシステムはまた、例えば、ホログラムとして、又は物理的表面上に、仮想オブジェクトを物理的環境内に投影するように構成されていてもよい。いくつかの実施形態では、コントローラ110は、ユーザに対するXR体験を管理及び調整するように構成されている。いくつかの実施形態では、コントローラ110は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。コントローラ110については、図2を参照して以下により詳細に記載する。いくつかの実施形態では、コントローラ110は、シーン105(例えば、物理的環境)に対してローカル又はリモートであるコンピューティングデバイスである。例えば、コントローラ110は、シーン105内に位置するローカルサーバである。別の例では、コントローラ110は、シーン105の外側に位置するリモートサーバ(例えば、クラウドサーバ、中央サーバなど)である。いくつかの実施形態では、コントローラ110は、1つ以上の有線又は無線通信チャネル144(例えば、BLUETOOTH、IEEE802.11x、IEEE802.16x、IEEE802.3xなど)を介して、表示生成構成要素120(例えば、HMD、ディスプレイ、プロジェクタ、タッチスクリーンなど)と通信可能に結合される。別の例では、コントローラ110は、表示生成構成要素120(例えば、HMD、又はディスプレイ及び1つ以上のプロセッサなどを含むポータブル電子デバイス)、入力デバイス125のうちの1つ以上、出力デバイス155のうちの1つ以上、センサ190のうちの1つ以上、及び/又は周辺デバイス195のうちの1つ以上の筐体(例えば、物理的ハウジング)内に含まれる、又は上記のうちの1つ以上と同じ物理的筐体又は支持構造を共有する。
【0069】
いくつかの実施形態では、表示生成構成要素120は、XR体験(例えば、XR体験の少なくとも視覚的コンポーネント)をユーザに提供するように構成される。いくつかの実施形態では、表示生成構成要素120は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。表示生成構成要素120について、図3を参照して以下により詳細に説明する。いくつかの実施形態では、コントローラ110の機能は、表示生成構成要素120によって提供される、及び/又は表示生成構成要素120と組み合わされる。
【0070】
いくつかの実施形態によれば、表示生成構成要素120は、ユーザがシーン105内に仮想的及び/又は物理的に存在している間に、XR体験をユーザに提供する。
【0071】
いくつかの実施形態では、表示生成構成要素は、ユーザの身体の一部(例えば、自身の頭部や自身の手など)に装着される。したがって、表示生成構成要素120は、XRコンテンツを表示するために提供された1つ以上のXRディスプレイを含む。例えば、様々な実施形態では、表示生成構成要素120は、ユーザの視野を包囲する。いくつかの実施形態では、表示生成構成要素120は、XRコンテンツを提示するように構成されたハンドヘルドデバイス(スマートフォン又はタブレットなど)であり、ユーザは、ユーザの視野に向けられるディスプレイ及びシーン105に向けられるカメラを備えたデバイスを保持する。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの頭部に装着された筐体内に配置される。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの前の支持体(例えば、三脚)上に配置される。いくつかの実施形態では、表示生成構成要素120は、ユーザが表示生成構成要素120を着用又は保持しない状態でXRコンテンツを提示するように構成されたXRチャンバ、筐体、又は部屋である。XRコンテンツ(例えば、ハンドヘルドデバイス又は三脚上のデバイス)を表示するための1つのタイプのハードウェアを参照して説明される多くのユーザインタフェースは、XRコンテンツ(例えば、HMD又は他のウェアラブルコンピューティングデバイス)を表示するための別のタイプのハードウェア上に実施され得る。例えば、ハンドヘルド又は三脚搭載デバイスの前の空間内で起こる相互作用に基づいてトリガされるXRコンテンツとの相互作用を示すユーザインタフェースは、相互作用がHMDの前の空間で発生し、XRコンテンツの応答がHMDを介して表示されるHMDと同様に実施され得る。同様に、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するハンドヘルド又は三脚搭載デバイスの移動に基づいてトリガされたXRコンテンツとの相互作用を示すユーザインタフェースは、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するHMDの移動によって移動が引き起こされるHMDと同様に実施され得る。
【0072】
動作環境100の関連する特徴が図1に示されているが、当業者は、本明細書に開示される例示的な実施形態のより適切な態様を曖昧にしないように、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。
【0073】
図2は、いくつかの実施形態による、コントローラ110の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。そのため、非限定的な例として、いくつかの実施形態では、コントローラ110は、1つ以上の処理ユニット202(例えば、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、グラフィック処理ユニット(GPU)、中央処理ユニット(CPU)、処理コアなど)、1つ以上の入出力(I/O)デバイス206、1つ以上の通信インタフェース208(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、グローバル移動通信システム(GSM)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、グローバル測位システム(GPS)、赤外線(IR)、BLUETOOTH、ZIGBEE、又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース210、メモリ220、並びにこれら及び様々な他のコンポーネントを相互接続するための1つ以上の通信バス204を含む。
【0074】
いくつかの実施形態では、1つ以上の通信バス204は、システム構成要素を相互接続し、システム構成要素間の通信を制御する、回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス206は、キーボード、マウス、タッチパッド、ジョイスティック、1つ以上のマイクロフォン、1つ以上のスピーカ、1つ以上の画像センサ、1つ以上のディスプレイなどのうちの少なくとも1つを含む。
【0075】
メモリ220は、ダイナミックランダムアクセスメモリ(dynamic random-access memory、DRAM)、スタティックランダムアクセスメモリ(static random-access memory、SRAM)、ダブルデータレートランダムアクセスメモリ(double-data-rate random-access memory、DDRRAM)、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ220は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの非揮発性メモリを含む。メモリ220は、1つ以上の処理ユニット202からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ220は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ220、又はメモリ220の非一時的コンピュータ可読記憶媒体は、任意選択的なオペレーティングシステム230及びXR体験モジュール240を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。
【0076】
オペレーティングシステム230は、様々な基本システムサービスを処理し、ハードウェア依存タスクを実行するための命令を含む。いくつかの実施形態では、XR体験モジュール240は、1人以上のユーザに対する1つ以上のXR体験(例えば、1人以上のユーザに対する単一のXR体験、又は1人以上のユーザのそれぞれのグループに対する複数のXR体験)を管理及び調整するように構成されている。そのために、様々な実施形態では、XR体験モジュール240は、データ取得ユニット241と、トラッキングユニット242と、調整ユニット246と、データ送信ユニット248と、を含む。
【0077】
いくつかの実施形態では、データ取得ユニット241は、少なくとも図1の表示生成構成要素120、並びに任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上からデータ(例えば、提示データ、相互作用データ、センサデータ、ロケーションデータなど)を取得するように構成される。その目的で、様々な実施形態では、データ取得ユニット241は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0078】
いくつかの実施形態では、トラッキングユニット242は、シーン105をマッピングし、図1のシーン105に対して、かつ任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上に対して、少なくとも表示生成構成要素120のポジション/ロケーションを追跡するように構成される。そのために、様々な実施形態では、トラッキングユニット242は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。いくつかの実施形態では、トラッキングユニット242は、ハンドトラッキングユニット244及び/又はアイトラッキングユニット243を含む。いくつかの実施形態では、ハンドトラッキングユニット244は、図1のシーン105に対する、表示生成構成要素120に対する、かつ/又はユーザの手に対して定義された座標系に対する、ユーザの手の1つ以上の部分のポジション/ロケーション、及び/又はユーザの手の1つ以上の部分の運動を追跡するように構成される。ハンドトラッキングユニット244は、図4に関して以下でより詳細に説明される。いくつかの実施形態では、アイトラッキングユニット243は、シーン105に対する(例えば、物理的環境及び/又はユーザ(例えば、ユーザの手)に対する)、又は表示生成構成要素120を介して表示されたXRコンテンツに対する、ユーザの視線(又は、より広範にはユーザの目、顔、又は頭部)のポジション及び移動を追跡するように構成される。アイトラッキングユニット243は、図5に関して以下でより詳細に説明される。
【0079】
いくつかの実施形態では、調整ユニット246は、表示生成構成要素120によって、並びに任意選択的に、出力デバイス155及び/又は周辺デバイス195のうちの1つ以上によって、ユーザに提示されるXR体験を管理及び調整するように構成される。その目的で、様々な実施形態において、調整ユニット246は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0080】
いくつかの実施形態では、データ送信ユニット248は、データ(例えば、提示データ、ロケーションデータなど)を少なくとも表示生成構成要素120、並びに任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上に送信するように構成される。そのために、様々な実施形態では、データ送信ユニット248は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0081】
データ取得ユニット241、トラッキングユニット242(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248が、単一のデバイス(例えば、コントローラ110)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット241、トラッキングユニット242(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
【0082】
更に、図2は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実施形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、図2に別々に示されるいくつかの機能モジュールは、単一のモジュールにおいて実装することができ、単一の機能ブロックの様々な機能は、様々な実施形態において1つ以上の機能ブロックによって実装することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。
【0083】
図3は、いくつかの実施形態による、表示生成構成要素120の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。その目的で、非限定的な例として、いくつかの実施形態では、表示生成構成要素120(例えば、HMD)には、1つ以上の処理ユニット302(例えば、マイクロプロセッサ、ASIC、FPGA、GPU、CPU、処理コアなど)、1つ以上の入出力(I/O)デバイス及びセンサ306、1つ以上の通信インタフェース308(例えば、USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、赤外線、BLUETOOTH、ZIGBEE、及び/又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース310、1つ以上のXRディスプレイ312、1つ以上の任意選択の内向き及び/又は外向き画像センサ314、メモリ320、並びにこれら及び様々な他のコンポーネントを相互接続するための1つ以上の通信バス304、が含まれる。
【0084】
いくつかの実施形態では、1つ以上の通信バス304は、システムコンポーネント間の通信を相互接続及び制御する回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス及びセンサ306は、慣性測定装置(IMU)、加速度計、ジャイロスコープ、温度計、1つ以上の生理的センサ(例えば、血圧モニタ、心拍数モニタ、血液酸素センサ、血糖センサなど)、1つ以上のマイクロフォン、1つ以上のスピーカ、触覚エンジン、1つ以上の深度センサ(例えば、構造化光、飛行時間など)などのうちの少なくとも1つを含む。
【0085】
いくつかの実施形態では、1つ以上のXRディスプレイ312は、XR体験をユーザに提供するように構成される。いくつかの実施形態では、1つ以上のXRディスプレイ312は、ホログラフィック、デジタル光処理(DLP)、液晶ディスプレイ(LCD)、液晶オンシリコン(LCoS)、有機発光電界効果トランジスタ(OLET)、有機発光ダイオード(OLED)、表面伝導型電子放射素子ディスプレイ(SED)、電界放射ディスプレイ(FED)、量子ドット発光ダイオード(QD-LED)、微小電気機械システム(MEMS)、及び/又は同様のディスプレイタイプに相当する。いくつかの実施形態では、1つ以上のXRディスプレイ312は、回折、反射、偏光、ホログラフィックなどの、導波管ディスプレイに相当する。例えば、表示生成構成要素120(例えば、HMD)は、単一のXRディスプレイを含む。別の実施例では、表示生成構成要素120は、ユーザの各目用のXRディスプレイを含む。いくつかの実施形態では、1つ以上のXRディスプレイ312は、MR又はVRコンテンツを提示することができる。いくつかの実施形態では、1つ以上のXRディスプレイ312は、MR又はVRコンテンツを提示することができる。
【0086】
いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの目を含むユーザの顔の少なくとも一部分に対応する画像データを取得するように構成される(及び、アイトラッキングカメラと称する場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの手(単数又は複数)及び任意選択的にユーザの腕(単数又は複数)の少なくとも一部分に対応する画像データを取得するように構成される(及び、ハンドトラッキングカメラと称される場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、表示生成構成要素120(例えばHMD)、が存在しない場合に、ユーザが閲覧するようなシーンに対応する画像データを取得するように前方を向くように構成されている(かつ、シーンカメラと称されることがある)。1つ以上の任意選択的な画像センサ314は、(例えば、相補型金属酸化膜半導体(CMOS)画像センサ若しくは電荷結合デバイス(CCD)画像センサを備えた)1つ以上のRGBカメラ、1つ以上の赤外線(IR)カメラ、1つ以上のイベントベースのカメラ、及び/又は同様のもの、を含むことができる。
【0087】
メモリ320は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの、高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ320は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ320は、1つ以上の処理ユニット302からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ320は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ320、又はメモリ320の非一時的コンピュータ可読記憶媒体は、任意選択のオペレーティングシステム330及びXR提示モジュール340を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。
【0088】
オペレーティングシステム330は、様々な基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含む。いくつかの実施形態では、XR提示モジュール340は、1つ以上のXRディスプレイ312を介してXRコンテンツをユーザに提示するように構成される。その目的で、様々な実施形態では、XR提示モジュール340は、データ取得ユニット342、XR提示ユニット344、XRマップ生成ユニット346、及びデータ送信ユニット348を含む。
【0089】
いくつかの実施形態では、データ取得ユニット342は、少なくとも図1のコントローラ110からデータ(例えば、提示データ、相互作用データ、センサデータ、ロケーションデータなど)を取得するように構成される。その目的で、様々な実施形態では、データ取得ユニット342は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0090】
いくつかの実施形態では、XR提示ユニット344は、1つ以上のXRディスプレイ312を介してXRコンテンツを提示するように構成される。その目的で、様々な実施形態では、XR提示ユニット344は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0091】
いくつかの実施形態では、XRマップ生成ユニット346は、メディアコンテンツデータに基づいて、XRマップ(例えば、複合現実シーンの3Dマップ又はコンピュータ生成オブジェクトを配置して拡張現実を生成することができる物理的環境のマップ)を生成するように構成されている。その目的で、様々な実施形態では、XRマップ生成ユニット346は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0092】
いくつかの実施形態では、データ送信ユニット348は、少なくともコントローラ110、及び任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上にデータ(例えば、提示データ、ロケーションデータなど)を伝送するように構成される。その目的で、様々な実施形態では、データ送信ユニット348は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0093】
データ取得ユニット342は、XR提示ユニット344、XRマップ生成ユニット346、及びデータ送信ユニット348は、単一のデバイス(例えば、図1の表示生成構成要素120)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット342、XR提示ユニット344、XRマップ生成ユニット346、及びデータ送信ユニット348の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
【0094】
更に、図3は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実装形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、図3に別々に示すいくつかの機能モジュールは、単一のモジュール内に実現することができ、単一の機能ブロックの様々な機能は、様々な実施形態では1つ以上の機能ブロックによって実行することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。
【0095】
図4は、ハンドトラッキングデバイス140の例示的な実施形態の概略図である。いくつかの実施形態では、ハンドトラッキングデバイス140(図1)は、図1のシーン105に対する(例えば、ユーザを取り囲む物理的環境の一部に対する、表示生成構成要素120に対する、又はユーザの一部(例えば、ユーザの顔、目、又は頭部)に対する、及び/又はユーザの手に対して定義された座標系に対する)ユーザの手の1つ以上の部分のロケーション/ポジション、及び/又は、ユーザの手の1つ以上の部分の動きを追跡するように、ハンドトラッキングユニット244(図2)によって制御される。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成構成要素120の一部である(例えば、ヘッドマウントデバイスに埋め込まれる、又はヘッドマウントデバイスに取り付けられる)。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成構成要素120とは別個である(例えば、別個のハウジング内に位置する、又は別個の物理的支持構造に取り付けられる)。
【0096】
いくつかの実施形態では、ハンドトラッキングデバイス140は、人間のユーザの少なくとも手406を含む三次元シーン情報をキャプチャする画像センサ404(例えば、1つ以上のIRカメラ、3Dカメラ、深度カメラ、及び/又はカラーカメラなど)を含む。画像センサ404は、指及びそれらのそれぞれのポジションを区別するのを可能にするのに十分な解像度で手画像をキャプチャする。画像センサ404は、典型的には、ユーザの身体の他の部分の画像、又は身体の全ての画像をキャプチャし、ズーム機能又は高倍率を有する専用センサのいずれかを有して、所望の解像度で手の画像をキャプチャすることができる。いくつかの実施形態では、画像センサ404はまた、手406の2Dカラービデオ画像及びシーンの他の要素をキャプチャする。いくつかの実施形態では、画像センサ404は、シーン105の物理的環境をキャプチャする他の画像センサと併せて使用される、又はシーン105の物理的環境をキャプチャする画像センサとして機能する。いくつかの実施形態では、画像センサ404は、画像センサ又はその一部の視野が使用されて、画像センサによってキャプチャされた手の移動がコントローラ110への入力として処理される相互作用空間を定義するように、ユーザ又はユーザの環境に対して位置決めされる。
【0097】
いくつかの実施形態では、画像センサ404は、3Dマップデータ(及び場合によってはカラー画像データも)を含むフレームのシーケンスをコントローラ110に出力し、これにより、マップデータから高レベル情報を抽出する。この高レベル情報は、典型的には、アプリケーションプログラムインタフェース(API)を介して、コントローラ上で実行されるアプリケーションに提供され、それに応じて表示生成構成要素120を駆動する。例えば、ユーザは、自分の手406を移動させて自分の手の姿勢を変化させることによって、コントローラ110上で実行されるソフトウェアと対話することができる。
【0098】
いくつかの実施形態では、画像センサ404は、手406を含むシーン上にスポットパターンを投影し、投影されたパターンの画像をキャプチャする。いくつかの実施形態では、コントローラ110は、パターンのスポットの横方向シフトに基づいて、三角測量によって(ユーザの手の表面上の点を含む)シーン内の点の3D座標を計算する。このアプローチは、ユーザが任意の種類のビーコン、センサ、又は他のマーカを保持又は着用する必要がないという点で有利である。これは、画像センサ404からの特定の距離で、所定の基準面に対するシーン内の点の深度座標を与える。本開示では、画像センサ404は、シーン内の点の深度座標が画像センサによって測定されたzコンポーネントに対応するように、直交する一連のx、y、z軸を定義すると想定される。代替的に、画像センサ404(例えば、ハンドトラッキングデバイス)は、単一又は複数のカメラ又は他のタイプのセンサに基づいて、立体撮像又は飛行時間測定などの他の3Dマッピング方法を使用することができる。
【0099】
いくつかの実施形態では、ハンドトラッキングデバイス140は、ユーザが手(例えば、手全体又は1本以上の指)を移動させている間、ユーザの手を含む深度マップの時間シーケンスをキャプチャし処理する。画像センサ404及び/又はコントローラ110内のプロセッサ上で動作するソフトウェアは、3Dマップデータを処理して、これらの深度マップ内の手のパッチ記述子を抽出する。ソフトウェアは、各フレームにおける手の姿勢を推定するために、以前の学習プロセスに基づいて、これらの記述子をデータベース408に記憶されたパッチ記述子と照合する。姿勢は、典型的には、ユーザの手関節及び指先の3Dロケーションを含む。
【0100】
ソフトウェアはまた、ジェスチャを識別するために、シーケンス内の複数のフレームにわたって手及び/又は指の軌道を解析することができる。本明細書に記載される姿勢推定機能は、運動追跡機能とインターリーブされてもよく、それにより、パッチベースの姿勢推定が2つ(又はそれより多く)のフレーム毎に1回のみ実行される一方、追跡は残りのフレームにわたって発生する姿勢の変化を発見するために使用される。姿勢、運動、及びジェスチャ情報は、上述のAPIを介して、コントローラ110上で実行されるアプリケーションプログラムに提供される。このプログラムは、例えば、姿勢及び/又はジェスチャ情報に応じて、表示生成構成要素120上に提示された画像を移動させ修正する、又は他の機能を実行することができる。
【0101】
いくつかの実施形態では、ジェスチャは、エアジェスチャを含む。エアジェスチャは、ユーザがデバイス(例えば、コンピュータシステム101、1つ以上の入力デバイス125、及び/又は、ハンドトラッキングデバイス140)の一部である入力要素に触れることなく(又はそれとは無関係に)検出されるジェスチャであり、絶対的な基準(例えば、地面に対するユーザの腕の角度、又は地面に対するユーザの手の距離)に対するユーザの身体の動き、ユーザの身体の別の部分(例えば、ユーザの肩に対するユーザの手の移動、ユーザの一方の手のユーザの別の手に対する移動、及び/又はユーザの指の、別の指若しくはユーザの手の一部に対する移動)に対するユーザの身体の動き、及び/又はユーザの身体の一部(例えば、所定の量及び/又は速さによる所定の姿勢での手の移動を含むタップジェスチャ、又は所定の速度又はユーザの身体の一部の回転量を含むシェイクジェスチャ)の絶対的な動きを含む、空中にあるユーザの身体の一部(例えば、頭部、1つ以上の腕、1つ以上の手、1つ以上の指、及び/又は1つ以上の脚)の検出された動きに基づく。
【0102】
いくつかの実施形態では、本明細書に記載の様々な例及び実施形態で使用される入力ジェスチャは、いくつかの実施形態に係る、XR環境(例えば、仮想又は複合現実環境)と相互作用するための他の指(単数又は複数)又はユーザの手の部分(単数又は複数)に対するユーザの指(単数又は複数)の移動によって実行されるエアジェスチャを含む。いくつかの実施形態では、エアジェスチャは、ユーザがデバイスの一部である入力要素に触れることなく(又はデバイスの一部である入力要素から独立して)検出されるジェスチャであり、絶対的な基準に対するユーザの身体の動き(例えば、地面に対するユーザの腕の角度、又は地面に対するユーザの手の距離)、ユーザの身体の別の部分に対するユーザの身体の動き(例えば、ユーザの肩に対するユーザの手の動き、ユーザの一方の手に対するユーザの他方の手の移動、及び/又はユーザの手の別の指若しくは部分に対するユーザの指の移動)、及び/又は、ユーザの身体の一部の絶対的な動き(例えば、所定の量及び/又は速さによる所定のポーズでの手の移動を含むタップジェスチャ、又はユーザの身体の一部の所定の速さ又は量の回転を含むシェイクジェスチャ)を含む、ユーザの身体の一部の検出された動きに基づく。
【0103】
入力ジェスチャがエアジェスチャ(例えば、タッチスクリーン上に表示されたユーザインタフェース要素との接触、又はユーザインタフェース要素にカーソルを移動させるためのマウス又はトラックパッドとの接触など、どのユーザインタフェース要素がユーザ入力のターゲットであるかに関する情報をコンピュータシステムに提供する入力デバイスとの物理的接触がない場合)であるいくつかの実施形態では、ジェスチャは、ユーザ入力のターゲット(例えば、以下で説明するように、直接入力の場合)を決定するためにユーザの注意(例えば、視線)を考慮に入れる。したがって、エアジェスチャを含む実装形態では、入力ジェスチャは、例えば、以下でより詳細に説明するように、ピンチ及び/又はタップ入力を実行するためのユーザの指(単数又は複数)及び/又は手の移動と組み合わせて(例えば、同時)ユーザインタフェース要素に対する検出された注意(例えば、視線)である。
【0104】
いくつかの実施形態では、ユーザインタフェースオブジェクトに向けられた入力ジェスチャは、ユーザインタフェースオブジェクトを参照して直接的又は間接的に実行される。例えば、ユーザ入力は、三次元環境(例えば、ユーザの現在の視点に基づいて決定されるように、)におけるユーザインタフェースオブジェクトのポジションに対応するポジションでユーザの手で入力ジェスチャを実行したことに応じて、ユーザインタフェースオブジェクトに対して直接実行される。いくつかの実施形態では、入力ジェスチャは、ユーザインタフェースオブジェクトに対するユーザの注意(例えば、視線)を検出しながら、ユーザの手のポジションが三次元環境におけるユーザインタフェースオブジェクトのポジションに対応するポジションにない間に入力ジェスチャを実行するユーザに従って、ユーザインタフェースオブジェクトに対して間接的に実行される。例えば、直接入力ジェスチャの場合、ユーザは、ユーザインタフェースオブジェクトの表示ポジション(例えば、オプションの外縁又はオプションの中央部分から測定して、0.5cm、1cm、5cm、又は0~5cmの距離内)に対応するポジション又はその付近でジェスチャを開始することによって、ユーザの入力をユーザインタフェースオブジェクトに向けることができる。間接的な入力ジェスチャの場合、ユーザは、ユーザインタフェースオブジェクトに注意を払うことによって(例えば、ユーザインタフェースオブジェクトを注視することによって)ユーザの入力をユーザインタフェースオブジェクトに向けることができ、オプションに注意を払いながら、ユーザは、入力ジェスチャを開始する(例えば、コンピュータシステムによって検出可能な任意のポジションで)(例えば、ユーザインタフェースオブジェクトの表示ポジションに対応しないポジションで)。
【0105】
いくつかの実施形態では、本明細書に記載の様々な例及び実施形態で使用される入力ジェスチャ(例えば、エアジェスチャ)は、いくつかの実施形態に係る、仮想又は複合現実環境と相互作用するためのピンチ入力及びタップ入力を含む。例えば、後述するピンチ入力やタップ入力は、エアジェスチャとして行われる。
【0106】
いくつかの実施形態では、ピンチ入力は、ピンチジェスチャ、ロングピンチジェスチャ、ピンチアンドドラッグジェスチャ、又はダブルピンチジェスチャのうちの1つ以上を含むエアジェスチャの一部である。例えば、エアジェスチャであるピンチジェスチャは、互いに接触するように手の2本以上の指を動かすこと、すなわち、任意選択的に、互いに接触した直後の(例えば、0~1秒以内)中断を含む。エアジェスチャであるロングピンチジェスチャは、互いに接触している中断を検出する前に、少なくとも閾値時間量(例えば、少なくとも1秒)にわたって互いに接触するように手の2本以上の指を動かすことを含む。例えば、ロングピンチジェスチャは、ユーザがピンチジェスチャ(例えば、2つ以上の指が接触している場合、)を保持することを含み、ロングピンチジェスチャは、2本以上の指の間の接触の中断が検出されるまで継続する。いくつかの実施形態では、エアジェスチャであるダブルピンチジェスチャは、互いに直接(例えば、既定の期間内に)連続して検出される2つ(例えば、又はそれより多く)のピンチ入力(例えば、同じ手で実行される)を含む。例えば、ユーザは、第1のピンチ入力を実行し(例えば、ピンチ入力又はロングピンチ入力)、第1のピンチ入力を解放し(例えば、2つ以上の指の間の接触を破壊する)、第1のピンチ入力を解放した後、既定の期間(例えば、1秒以内又は2秒以内)内に第2のピンチ入力を実行する。
【0107】
いくつかの実施形態では、エアジェスチャであるピンチアンドドラッグジェスチャは、ユーザの手のポジションを第1のポジション(例えば、ドラッグの開始ポジション)から第2のポジション(例えば、抗力の終了ポジション)に変化させるドラッグ入力に関連して(例えば、その後に)実行されるピンチジェスチャ(例えば、ピンチジェスチャ又はロングピンチジェスチャ)を含む。いくつかの実施形態では、ユーザは、ドラッグ入力を実行しながらピンチジェスチャを維持し、(例えば、第2のポジションにおいて)ドラッグジェスチャを終了するためにピンチジェスチャ(例えば、2本以上の指を開く)を解放する。いくつかの実施形態では、ピンチ入力及びドラッグ入力は、同じ手(例えば、ユーザは、2本以上の指をつまんで互いに接触し、ドラッグジェスチャで空中の第2のポジションに同じ手を移動させる)によって実行される。いくつかの実施形態では、ピンチ入力はユーザの第1の手によって実行され、ドラッグ入力はユーザの第2の手によって実行される(例えば、ユーザの第2の手は、ユーザがユーザの第1の手でピンチ入力を継続する間に空中で第1のポジションから第2のポジションに移動する)。いくつかの実施形態では、エアジェスチャである入力ジェスチャは、ユーザの両手の双方を使用して実行される入力(例えば、ピンチ入力及び/又はタップ入力)を含む。例えば、入力ジェスチャは、互いに関連して(例えば、既定の期間と同時に、又は既定の期間内に)行われる2つ(例えば、又はそれより多く)のピンチ入力を含む。例えば、ユーザの第1の手を使用して実行される第1のピンチジェスチャ(例えば、ピンチ入力、ロングピンチ入力、又はピンチ及びドラッグ入力)と、第1の手を使用してピンチ入力を実行することに関連して、他方の手(例えば、ユーザの両手の第2の手)を使用して第2のピンチ入力を実行する。いくつかの実施形態では、ユーザの両手の間の移動(例えば、ユーザの両手の間の距離又は相対的な向きを増加及び/又は減少させるために)。
【0108】
いくつかの実施形態では、エアジェスチャとして実行されるタップ入力(例えば、ユーザインタフェース要素に向けられる)は、ユーザインタフェース要素に向かうユーザの指の移動(単数又は複数)、任意選択的にユーザの指(単数又は複数)をユーザインタフェース要素に向かって伸ばした状態でのユーザの手のユーザインタフェース要素に向かう移動、ユーザの指の下方への動き(例えば、マウスクリック動作又はタッチスクリーン上のタップを模倣する)、又はユーザの手の他の既定の移動を含む。いくつかの実施形態では、エアジェスチャとして実行されるタップ入力は、ユーザの視点から離れて、及び/又は移動の終了が続くタップ入力のターゲットであるオブジェクトに向かって指又は手のタップジェスチャの移動を実行する指又は手の移動特性に基づいて検出される。いくつかの実施形態では、タップジェスチャ(例えば、ユーザの視点から離れる、及び/又はタップ入力の対象であるオブジェクトに向かう移動の終了、指又は手の移動方向の反転、及び/又は指又は手の移動の加速方向の反転)を実行する指又は手の移動特性の変化に基づいて、移動の終了が検出される。
【0109】
いくつかの実施形態では、ユーザの注意は、(任意選択で、他の条件を必要とせずに)三次元環境の一部に向けられた視線の検出に基づいて、三次元環境の一部に向けられていると判定される。いくつかの実施形態では、ユーザの注意が三次元環境の一部に向けられていることをデバイスが判定するために、ユーザの視点が三次元環境の一部から距離閾値内にある間に、少なくとも閾値持続時間(例えば、滞留時間)、視線が三次元環境の一部に向けられていることを必要とすること、及び/又は視線が三次元環境の一部に向けられていることを必要とすることなどの1つ以上の追加の条件を伴う三次元環境の一部に向けられた視線の検出に基づいて、ユーザの注意が三次元環境の一部に向けられていると判定され、追加の条件のうちの1つが満たされていない場合、デバイスは、三次元環境のうちの視線が向けられている部分に注意が向けられていないと判定する(例えば、1つ以上の追加の条件が満たされるまで)。
【0110】
いくつかの実施形態では、ユーザ又はユーザの一部の準備完了状態構成の検出は、コンピュータシステムによって検出される。手の準備完了状態構成の検出は、ユーザが、手によって実行される1つ以上のエアジェスチャ入力(例えば、ピンチ、タップ、ピンチ及びドラッグ、ダブルピンチ、ロングピンチ、又は本明細書に説明される他のエアジェスチャ)を使用して、コンピュータシステムと対話する準備をしている可能性が高いというインジケーションとして、コンピュータシステムによって使用される。例えば、手の準備完了状態は、手が所定の手形状(例えば、親指と1本以上の指が伸ばされて間隔を空けてピンチ若しくはグラブジェスチャを行う準備ができているプレピンチ形状、又は1本以上の指が伸ばされて手のひらがユーザから離れる方向を向いているプレタップ)を有するか否か、手がユーザの視点に対して所定のポジションにあるか否か(例えば、ユーザの頭部の下、ユーザの腰の上、身体から少なくとも15cm、20cm、25cm、30cm、又は50cmだけ伸ばされている)、及び/又は手が特定の方法で移動したか否か(例えば、ユーザの腰の上、ユーザの頭部の下のユーザの正面の領域に向かって移動したか、又はユーザの身体若しくは脚から離れたか)に基づいて決定される。いくつかの実施形態では、準備完了状態は、ユーザインタフェースの対話要素が注意(例えば、視線)入力に応じるかどうかを判定するために使用される。
【0111】
いくつかの実施形態では、ソフトウェアは、例えばネットワーク上で、コントローラ110に電子形態でダウンロードされてもよい、又はその代わりに、光学、磁気、若しくは電子メモリ媒体などの、実体的非一時的媒体に提供されてもよい。いくつかの実施形態では、データベース408は、同様に、コントローラ110に関連付けられたメモリに記憶される。代替的又は追加的に、コンピュータの記載された機能の一部又は全ては、カスタム又は半カスタム集積回路又はプログラム可能なデジタル信号プロセッサ(DSP)などの専用のハードウェアに実装されてもよい。コントローラ110は、例として、画像センサ404とは別個のユニットとして図4に示されているが、コントローラの処理機能の一部又は全部は、好適なマイクロプロセッサ及びソフトウェアによって、又は画像センサ404(例えば、ハンドトラッキングデバイス)のハウジング内の専用回路によって、又は他の方法で画像センサ404に関連付けることができる。いくつかの実施形態では、これらの処理機能のうちの少なくともいくつかは、(例えば、テレビセット、ハンドヘルドデバイス、又はヘッドマウントデバイスにおいて)表示生成構成要素120と統合された好適なプロセッサによって、又はゲームコンソール又はメディアプレーヤーなどの任意の他の適切なコンピュータ化されたデバイスを用いて実行されてもよい。画像センサ404の感知機能は、同様に、センサ出力によって制御されるコンピュータ又は他のコンピュータ化された装置に統合することができる。
【0112】
図4は、いくつかの実施形態による、画像センサ404によってキャプチャされた深度マップ410の概略図を更に含む。深度マップは、上述したように、それぞれの深度値を有するピクセルのマトリックスを含む。手406に対応するピクセル412は、このマップで背景及び手首からセグメント化されている。深度マップ410内の各ピクセルの輝度は、深度値、すなわち、画像センサ404からの測定されたz距離に反比例し、深度が上昇するにつれて階調が濃くなる。コントローラ110は、人間の手の特性を有する画像のコンポーネント(すなわち、隣接ピクセル群)を識別及びセグメント化するために、これらの深度値を処理する。これらの特性は、例えば、深度マップのシーケンスの全体サイズ、形状、フレームからフレームへの動きを含むことができる。
【0113】
図4はまた、いくつかの実施形態による、コントローラ110が手406の深度マップ410から最終的に抽出する手骨格414を概略的に示す。図4では、手の骨格414は、元の深度マップからセグメント化された手の背景416に重ね合わされる。いくつかの実施形態では、手(例えば、指関節、指先、手のひらの中心、手首に接続する手の終端など)、及び任意選択的に手に接続された手首又は腕上の主要な特徴点が、手骨格414上で識別され配置される。いくつかの実施形態では、複数の画像フレーム上にわたるこれらの主要な特徴点のロケーション及び移動がコントローラ110によって使用されて、いくつかの実施形態により、手によって実行される手ジェスチャ又は手の現在の状態を判定する。
【0114】
図5は、アイトラッキングデバイス130(図1)の例示的な実施形態を示す。いくつかの実施形態では、アイトラッキングデバイス130は、シーン105に対する、又は表示生成構成要素120を介して表示されたXRコンテンツに対する、ユーザの視線のポジション及び移動を追跡するように、アイトラッキングユニット243(図2)によって制御される。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成構成要素120と統合される。例えば、いくつかの実施形態では、表示生成構成要素120がヘッドセット、ヘルメット、ゴーグル、又は眼鏡などのヘッドマウントデバイス、又はウェアラブルフレームに配置されたハンドヘルドデバイスである場合、ヘッドマウントデバイスは、ユーザによる視聴のためのXRコンテンツを生成するコンポーネント及びXRコンテンツに対するユーザの視線を追跡するためのコンポーネントの両方を含む。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成構成要素120とは別個である。例えば、表示生成構成要素がハンドヘルドデバイス又はXRチャンバである場合、アイトラッキングデバイス130は、任意選択的に、ハンドヘルドデバイス又はXRチャンバとは別個のデバイスである。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイス又はヘッドマウントデバイスの一部である。いくつかの実施形態では、ヘッドマウントアイトラッキングデバイス130は、任意選択的に、頭部に装着されている表示生成構成要素又は頭部に装着されていない表示生成構成要素とともに使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、ヘッドマウント表示生成構成要素と組み合わせて使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、非ヘッドマウント表示生成構成要素の一部である。
【0115】
いくつかの実施形態では、表示生成構成要素120は、ユーザの目の前に左及び右の画像を含むフレームを表示して、3D仮想ビューをユーザに提供するディスプレイ機構(例えば、左右の目近傍ディスプレイパネル)を使用する。例えば、ヘッドマウント表示生成構成要素は、ディスプレイとユーザの目との間に位置する左右の光学レンズ(本明細書では接眼レンズと称される)を含んでもよい。いくつかの実施形態では、表示生成構成要素は、表示のためにユーザの環境のビデオをキャプチャする1つ以上の外部ビデオカメラを含んでもよい、又はそれに結合されてもよい。いくつかの実施形態では、ヘッドマウント表示生成構成要素は、ユーザが物理的環境を直接視認し、透明又は半透明ディスプレイ上に仮想オブジェクトを表示することができる透明又は半透明のディスプレイを有してもよい。いくつかの実施形態では、表示生成構成要素は、仮想オブジェクトを物理的環境に投影する。仮想オブジェクトは、例えば、物理的表面上に、又はホログラフとして投影され、それによって、個人は、システムを使用して、物理的環境の上に重ね合わされた仮想オブジェクトを観察することができる。そのような場合、左右の目のための別個のディスプレイパネル及び画像フレームが必要とされない場合がある。
【0116】
図5に示すように、いくつかの実施形態では、アイトラッキングデバイス130(例えば、視線トラッキングデバイス)は、少なくとも1つのアイトラッキングカメラ(例えば、赤外線(IR)カメラ又は近IR(NIR)カメラ)、並びに光(例えば、IR光又はNIR光)をユーザの目に向けて発する照明源(例えば、LEDのアレイ若しくはリングなどのIR光源又はNIR光源)を含む。アイトラッキングカメラは、ユーザの目に向けられて、光源からの反射IR又はNIR光を目から直接受信してもよく、又は代替的に、ユーザの目と、視覚的光が通過することを可能にしながら目からアイトラッキングカメラにIR又はNIR光を反射させるディスプレイパネルとの間に配置される「ホット」ミラーに向けられてもよい。アイトラッキングデバイス130は、任意選択的に、ユーザの目の画像を(例えば、60~120フレーム/秒(fps)でキャプチャされるビデオストリームとして)キャプチャし、画像を解析して、視線追跡情報を生成し、視線追跡情報をコントローラ110に通信する。いくつかの実施形態では、ユーザの両目は、それぞれのアイトラッキングカメラ及び照明源によって別々に追跡される。いくつかの実施形態では、ユーザの片目のみが、個別のアイトラッキングカメラ及び照明源によって追跡される。
【0117】
いくつかの実施形態では、アイトラッキングデバイス130は、デバイス固有の較正プロセスを使用して較正されて、特定の動作環境100用のアイトラッキングデバイスのパラメータ、例えば、LED、カメラ、ホットミラー(存在する場合)、接眼レンズ、及びディスプレイスクリーンの3D幾何学的関係及びパラメータを判定する。デバイス固有の較正プロセスは、AR/VR機器のエンドユーザへの配送前に、工場又は別の施設で実行されてもよい。デバイス固有の較正プロセスは、自動較正プロセスであってもよく、又は手動較正プロセスであってもよい。ユーザ固有の較正プロセスは、特定のユーザの目パラメータ、例えば、瞳孔ロケーション、中心視覚ロケーション、光軸、視軸、目間隔などの推定を含んでもよい。いくつかの実施形態によれば、いったんアイトラッキングデバイス130についてデバイス固有及びユーザ固有のパラメータが判定されると、アイトラッキングカメラによってキャプチャされた画像は、グリント支援方法を使用して処理され、ディスプレイに対するユーザの現在の視覚軸及び視点を判定することができる。
【0118】
図5に示されるように、アイトラッキングデバイス130(例えば、130A又は130B)は、接眼レンズ(単数又は複数)520と、アイトラッキングが行われるユーザの顔の側に配置された少なくとも1つのアイトラッキングカメラ540(例えば、赤外線(IR)又は近IR(NIR)カメラ)と光(例えば、IR又はNIR光)をユーザの目(単数又は複数)592に向かって発する照明源530(例えば、NIR発光ダイオード(LED)のアレイ若しくはリングなどのIR又はNIR光源)とを含む視線トラッキングシステムと、を含む。アイトラッキングカメラ540は、ユーザの目(単数又は複数)592とディスプレイ510(例えば、ヘッドマウントディスプレイの左若しくは右側のディスプレイパネル、又はハンドヘルドデバイスのディスプレイ、プロジェクタなど)との間に位置し、(例えば、図5の上部に示されるように)可視光を透過させながら、目(単数又は複数)592からのIR又はNIR光を反射するミラー550に向けられてもよく、あるいは、(例えば、図5の下部に示されるように)反射された目(単数又は複数)592からのIR又はNIR光を受光するようにユーザの目(単数又は複数)592に向けられてもよい。
【0119】
いくつかの実施形態では、コントローラ110は、AR又はVRフレーム562(例えば、左及び右のディスプレイパネルの左及び右のフレーム)をレンダリングし、フレーム562をディスプレイ510に提供する。コントローラ110は、様々な目的のために、例えば、表示のためにフレーム562を処理する際に、アイトラッキングカメラ540からの視線トラッキング入力542を使用する。コントローラ110は、任意選択的に、グリント支援方法又は他の適切な方法を使用して、アイトラッキングカメラ540から得られた視線トラッキング入力542に基づいて、ディスプレイ510上のユーザの視点を推定する。視線トラッキング入力542から推定された視点は、任意選択的に、ユーザが現在見ている方向を判定するために使用される。
【0120】
以下、ユーザの現在の視線方向のいくつかの可能な使用事例について説明するが、これは限定することを意図するものではない。例示的な使用例として、コントローラ110は、判定されたユーザの視線方向に基づいて、仮想コンテンツを異なってレンダリングすることができる。例えば、コントローラ110は、周辺領域においてよりもユーザの現在の視線方向から判定された中心視覚領域において、より高い解像度で仮想コンテンツを生成してもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内の仮想コンテンツを位置決め又は移動させてもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内に特定の仮想コンテンツを表示してもよい。ARアプリケーションにおける別の例示的な使用事例として、コントローラ110は、XR体験の物理的環境をキャプチャして、判定された方向に焦点を合わせるように外部カメラを方向付けることができる。次いで、外部カメラの自動焦点機構は、ユーザが現在ディスプレイ510上で見ている環境内のオブジェクト又は表面に焦点を合わせることができる。別の例示的な使用事例として、接眼レンズ520は集束可能なレンズであってもよく、視線トラッキング情報がコントローラによって使用されて、ユーザが現在見ている仮想オブジェクトが、ユーザの目592の収束に一致するために適切な両目連動を有するように接眼レンズ520の焦点を調整する。コントローラ110は、視線トラッキング情報を活用して、ユーザが見ている近接オブジェクトが正しい距離で現れるように接眼レンズ520を方向付けて焦点を調整することができる。
【0121】
いくつかの実施形態では、アイトラッキングデバイスは、ウェアラブルハウジングに取り付けられた、ディスプレイ(例えば、ディスプレイ510)、2つの接眼レンズ(例えば、接眼レンズ(単数又は複数)520)、アイトラッキングカメラ(例えば、アイトラッキングカメラ(単数又は複数)540)、及び光源(例えば、光源530(例えば、IR LED又はNIR LED))を含むヘッドマウントデバイスの一部である。光源は、ユーザの目(単数又は複数)592に向かって光(例えば、IR光又はNIR光)を発する。いくつかの実施形態では、光源は、図5に示されるように、各レンズの周りにリング又は円状に配置されてもよい。いくつかの実施形態では、8つの光源530(例えば、LED)が、一例として各レンズ520の周りに配置される。しかしながら、より多くの又はより少ない光源530が使用されてもよく、光源530の他の配置及びロケーションが用いられてもよい。
【0122】
いくつかの実施形態では、ディスプレイ510は、可視光範囲内の光を発し、IR又はNIR範囲内の光を発さないため、視線トラッキングシステムにノイズを導入しない。アイトラッキングカメラ(単数又は複数)540のロケーション及び角度は、例として与えられ、限定することを意図するものではないことに留意されたい。いくつかの実施形態では、単一のアイトラッキングカメラ540がユーザの顔の各側に位置する。いくつかの実施形態では、2つ以上のNIRカメラ540をユーザの顔の各側に使用することができる。いくつかの実施形態では、より広い視野(FOV)を有するカメラ540と狭いFOVを有するカメラ540が、ユーザの顔の各側に使用されてもよい。いくつかの実施形態では、1つの波長(例えば、850nm)で動作するカメラ540と異なる波長(例えば、940nm)で動作するカメラ540とが、ユーザの顔の各側に使用されてもよい。
【0123】
図5に示すような視線トラッキングシステムの実施形態は、例えば、コンピュータ生成現実、仮想現実、及び/又は複合現実アプリケーションに使用されて、コンピュータ生成現実、仮想現実、拡張現実、及び/又は拡張仮想の体験をユーザに提供することができる。
【0124】
図6は、いくつかの実施形態による、グリント支援視線追跡パイプラインを示す。いくつかの実施形態では、視線トラッキングパイプラインは、グリント支援視線トラッキングシステム(例えば、図1及び図5に示されるようなアイトラッキングデバイス130)によって実現される。グリント支援視線トラッキングシステムは、追跡状態を維持することができる。当初、追跡状態はオフ又は「いいえ」である。追跡状態にあるとき、グリント支援視線トラッキングシステムは、現フレームを解析する際に前のフレームからの先行情報を使用して、現フレーム内の瞳孔輪郭及びグリントを追跡する。追跡状態にない場合、グリント支援視線トラッキングシステムは、現フレーム内の瞳孔及びグリントを検出しようとし、それに成功した場合、追跡状態を「はい」に初期化し、追跡状態で次のフレームに続く。
【0125】
図6に示されるように、視線追跡カメラは、ユーザの左目及び右目の左右の画像をキャプチャすることができる。次いで、キャプチャされた画像は、610で開始される処理のために視線トラッキングパイプラインに入力される。要素600に戻る矢印によって示されるように、視線トラッキングシステムは、例えば、毎秒60~120フレームの速度で、ユーザの目の画像をキャプチャし続けることができる。いくつかの実施形態では、キャプチャされた画像の各セットが、処理のためにパイプラインに入力されてもよい。しかしながら、いくつかの実施形態、又はいくつかの条件下では、全てのキャプチャされたフレームがパイプラインによって処理されるわけではない。
【0126】
610で、現在のキャプチャされた画像について、追跡状態がはいである場合、この方法は要素640に進む。610で、追跡状態がいいえである場合、620に示されるように、画像が解析されて、画像内のユーザの瞳孔及びグリントを検出する。630で、瞳孔とグリントが正常に検出される場合、方法は要素640に進む。正常に検出されない場合、方法は要素610に戻り、ユーザの目の次の画像を処理する。
【0127】
640において、要素610から進む場合、以前のフレームからの前の情報に部分的に基づいて瞳孔及びグリントを追跡するために、現在のフレームが分析される。640で、要素630から進む場合、現フレーム内の検出された瞳孔及びグリントに基づいて、追跡状態が初期化される。要素640での処理の結果は、追跡又は検出の結果が信頼できることを確認するためにチェックされる。例えば、結果は、瞳孔及び視線推定を実行するための十分な数のグリントが現フレームで正常に追跡又は検出されるかどうかを判定するためにチェックすることができる。650で、結果が信頼できない場合、追跡状態は要素660でいいえに設定され、方法は要素610に戻り、ユーザの目の次の画像を処理する。650で、結果が信頼できる場合、方法は要素670に進む。670で、追跡状態は、はいに設定され(まだ、はいではない場合)、瞳孔及びグリント情報が要素680に渡されて、ユーザの視点を推定する。
【0128】
図6は、特定の実施で使用され得るアイトラッキング技術の一例として機能することを意図している。当業者によって認識されるように、現在存在するか、又は将来開発される他のアイトラッキング技術は、様々な実施形態によるXR体験をユーザに提供するためにコンピュータシステム101において、本明細書に記載されるグリント支援アイトラッキング技術の代わりに、又はそれと組み合わせて使用することができる。
【0129】
本開示では、コンピュータシステムとの相互作用に関して、様々な入力方法が説明される。一例が1つの入力デバイス又は入力方法を使用して提供され、別の例が別の入力デバイス又は入力方法を使用して提供される場合、各例は、別の例に関して記載された入力デバイス又は入力方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。同様に、様々な出力方法が、コンピュータシステムとの相互作用に関して説明される。一例が1つの出力デバイス又は出力方法を使用して提供され、別の例が別の出力デバイス又は出力方法を使用して提供される場合、各例は、別の例に関して記載された出力デバイス又は出力方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。同様に、様々な方法が、コンピュータシステムを介した仮想環境又は複合現実環境との相互作用に関して説明される。一例が仮想環境との相互作用を使用して提供され、別の例が複合現実環境を使用して提供される場合、各例は、別の例に関して説明された方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。したがって、本開示は、各例示的な実施形態の説明における実施形態の全ての特徴を網羅的に列挙することなく、複数の例の特徴の組み合わせである実施形態を開示する。
ユーザインタフェース及び関連するプロセス
【0130】
ここで、ユーザインタフェース(user interfaces、「UI」)の実施形態、並びに、表示生成構成要素及び1つ以上の入力デバイスと通信しているポータブル多機能デバイス又はヘッドマウントデバイスなどのコンピュータシステム上で実現することができる関連プロセスに注目する。
【0131】
図7A図7Nは、いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な技術を示す。図8図10は、それぞれ、メディアアイテム及びユーザインタフェースと相互作用するための例示的な方法800、900、及び1000のフロー図である。図7A図7Nのユーザインタフェースは、図8図10のプロセスを含む、以下で説明されるプロセスを示すために使用される。
【0132】
図7Aは、ディスプレイデバイス(例えば、タッチ感知ディスプレイ)702と、1つ以上の入力センサ715(例えば、1つ以上のカメラ、視線追跡装置、手の移動追跡装置、及び/又は頭部の移動追跡装置)とを含むタブレットであるコンピュータシステム700を示す。以下で説明するいくつかの実施形態では、コンピュータシステム700はタブレットである。いくつかの実施形態では、コンピュータシステム700は、スマートフォン、ウェアラブルデバイス、ウェアラブルスマートウォッチデバイス、ヘッドマウントシステム(例えば、ヘッドセット)、又はディスプレイデバイス(例えば、ディスプレイスクリーン、投影デバイスなど)を含む、かつ/又はそれと通信している他のコンピュータシステムである。コンピュータシステム700は、コンピュータシステム(例えば、図1のコンピュータシステム101)である。
【0133】
図7Aにおいて、コンピュータシステム700は、ディスプレイデバイス(例えば、タッチ感知ディスプレイ又はHMDのディスプレイ)702を介して、メディアウィンドウ704及び三次元環境706を表示する。いくつかの実施形態では、三次元環境706は、(図7Aに示されるように)ディスプレイによって表示される。いくつかの実施形態では、三次元環境706は、1つ以上のカメラによってキャプチャされた物理的環境の仮想環境像又は画像(又はビデオ)である。いくつかの実施形態では、三次元環境706は、メディアウィンドウ704の背後でユーザに可視であるが、ディスプレイによって表示されない。例えば、いくつかの実施形態では、三次元環境706は、ディスプレイによって表示されることなく、メディアウィンドウ704の背後で(例えば、透明なディスプレイを通して)ユーザに可視である物理的環境である。
【0134】
図7Aにおいて、電子機器700は、メディアウィンドウ704内に、メディアライブラリユーザインタフェース708を表示する。メディアライブラリユーザインタフェース708は、複数のメディアアイテム710A~710Eの表現を含む。いくつかの実施形態では、複数のメディアアイテムは、写真及び/又はビデオ(例えば、立体視写真及び/又はビデオ及び/又は非立体視写真及び/又はビデオ)を含む。いくつかの実施形態では、複数のメディアアイテムは、メディアライブラリ(例えば、デバイス700及び/又はデバイス700のユーザに関連付けられたメディアライブラリ)からの複数のメディアアイテム及び/又はメディアアイテムのサブセットを含む。いくつかの実施形態では、複数のメディアアイテム710A~710Eは、1つ以上の立体視メディアアイテム(例えば、立体視写真及び/又は立体視ビデオ)と、1つ以上の非立体視メディアアイテム(例えば、非立体視写真及び/又は非立体視ビデオ)とを含む。いくつかの実施形態では、立体視メディアアイテムは、特定のタイプの深度情報を含むが、非立体視メディアアイテムは、特定のタイプの深度情報を含まない。いくつかの実施形態では、立体視メディアアイテムは、2つの異なるカメラ(又はカメラの2つの異なるセット)を使用して同時にキャプチャされた少なくとも2つの画像を含むメディアアイテムである。いくつかの実施形態では、立体視メディアアイテムは、ユーザの第1の目に対して、第1のカメラ(又はカメラの第1のセット)によってキャプチャされた第1の画像を表示し(例えば、第1の画像がユーザの第2の目に対して表示されることなく)、ユーザの第2の目に対して、第1の画像とは異なるが、第2のカメラ(又はカメラの第2のセット)によって第1の画像と同時にキャプチャされた第2の画像を同時に表示する(例えば、第2の画像がユーザの第1の目に対して表示されることなく)ことによって表示される。非立体視画像は、例えば、単一のカメラによってキャプチャされた静止画像及び/又は単一のカメラによってキャプチャされたビデオを含む。いくつかの実施形態では、非立体視メディアアイテムは、例えば、複数のカメラによってキャプチャされる(例えば、複数のカメラによって同時にキャプチャされる)複数の画像を含むが、異なる画像は、ユーザの異なる目に同時に提示されない(例えば、複数の画像は、ユーザの両目に提示される単一の画像に組み合わせられる)。いくつかの実施形態では、立体視メディアアイテム及び/又は非立体視メディアアイテムは、(例えば、デバイス700の一部である、及び/又はデバイス700と通信している1つ以上のカメラを使用して)デバイス700によってキャプチャされる。
【0135】
メディアライブラリユーザインタフェース708は、オプション712A~712Eを含む。オプション712Aは、(例えば、非立体視メディアアイテムを表示することなく)立体視メディアアイテムのセットを表示するために選択可能である。いくつかの実施形態では、オプション712Aは、非立体視メディアアイテムの表現を含むことなく、1つ以上の立体視メディアアイテムの表現を含むユーザインタフェースを表示するために選択可能である。オプション712Bは、メディアライブラリからの複数のメディアアイテム(例えば、特定の時間、イベント、及び/又はロケーションに関連付けられたメディアアイテムの集合)を集約することによって(例えば、自動的に)生成される集約コンテンツアイテムのセットを表示するために選択可能である。オプション712Cは、メディアライブラリユーザインタフェース708を表示するために選択可能である。オプション712Dは、メディアアイテムのアルバム(例えば、メディアアイテムの収集)(例えば、手動でキュレーションされたメディアアイテムの収集及び/又は自動的に生成されたメディアアイテムの収集)を表示するために選択可能である。オプション712Eは、メディアアイテムのテキスト検索を行うプロセスを開始するために選択可能である(例えば、テキスト検索ユーザインタフェースを表示するために選択可能である)。
【0136】
図7Aにおいて、コンピュータシステム700は、視覚特性の第1のセットを用いてメディアアイテム710Aを表示する。図7Aにおいて、コンピュータシステム700は、注視インジケーション714によって示されるように、ユーザがメディアアイテム710Aを注視していることを(例えば、センサ715を介して)検出する。いくつかの実施形態では、注視インジケーション714は、コンピュータシステム700によって表示されない。
【0137】
図7Bにおいて、ユーザが閾値持続時間にわたって(例えば、別のメディアアイテムを注視することなく継続的に)メディアアイテム710Aを注視したという判定に応じて、コンピュータシステム700は、メディアアイテム710Aの1つ以上の視覚特性を修正し、視覚特性の第1のセットとは異なる視覚特性の第2のセットを用いてメディアアイテム710Aを表示する。
【0138】
いくつかの実施形態では、メディアアイテム710Aの1つ以上の視覚特性を修正すること、及び/又はメディアアイテム710Aを視覚特性の第2のセットを用いて表示することは、メディアアイテム710Aの要素を所定の軸に沿って分離及び/又は拡張すること(例えば、メディアアイテム710Aの表示を二次元オブジェクトから三次元オブジェクトに変更すること)を含む。例えば、いくつかの実施形態では、メディアアイテム710Aの1つ以上の視覚特性を修正することの一部として、コンピュータシステム700は、メディアアイテム710Aの表示をメディアアイテム710Aの個別の軸(例えば、メディアアイテム710Aのz軸)に沿って拡大して、ユーザがメディアアイテム710Aを深度(例えば、厚さ)を有する三次元オブジェクトとして知覚するようにする。いくつかの実施形態では、メディアアイテム710Aは、メディアアイテム710Aが深度情報(例えば、特定のタイプの深度情報)を含む(例えば、メディアアイテム710Aが立体視メディアアイテムである)という判定に基づいて(例えば、判定に応じて)、メディアアイテム710Aの個別の軸に沿って拡大される。例えば、メディアアイテム710Aがメディアアイテム710Aの個別の軸に沿って拡張されると、メディアアイテム710A内の要素の第1のセットは、第1の深度(例えば、拡張されたメディアアイテム710Aのz軸に沿った第1のzポジション)で表示され、メディアアイテム710A内の要素の第2のセットは、第1の深度とは異なる第2の深度(例えば、拡張されたメディアアイテム710Aのz軸上の第2のzポジション)で表示される。
【0139】
いくつかの実施形態では、メディアアイテム710Aを注視している間に、ユーザが(例えば、HMDを装着しながら自身の頭部を動かす及び/若しくは回すことによって、並びに/又はディスプレイデバイス702に対して自身の身体を動かすことによって)自身の視点をシフトさせると、メディアアイテム710A内のコンテンツは、ユーザが自身の視点をシフトさせることに応じてシフトする。いくつかの実施形態では、視差効果は、例えば、ユーザからより遠いメディアアイテム710Aの層が、ユーザにより近いメディアアイテム710Aの層よりもゆっくりと(又はより少ない量だけ)移動するように実現される。
【0140】
いくつかの実施形態では、メディアアイテム710Aの1つ以上の視覚特性を修正すること、及び/又は視覚特性の第2のセットを用いてメディアアイテム710Aを表示することは、メディアアイテム710Aを後方に(例えば、ユーザから離れるように)押すことを含む。例えば、いくつかの実施形態では、図7Bにおいて、ユーザが閾値持続時間にわたってメディアアイテム710Aを注視したという判定に応じて、コンピュータシステム700は、メディアアイテム710Aをプッシュバックしながら、メディアアイテム710B~710Eの表示された深度を維持する。いくつかの実施形態では、メディアアイテム710Aは、メディアアイテム710Aが特定のタイプの深度情報を含む(例えば、立体視メディアアイテムである)という判定に基づいて、後方に押される。
【0141】
いくつかの実施形態では、メディアアイテム710Aの1つ以上の視覚特性を修正すること、及び/又は視覚特性の第2のセットを用いてメディアアイテム710Aを表示することは、メディアアイテム710Aを自動再生すること(例えば、(例えば、ユーザ視線以外の更なるユーザ入力なしに)自動的に再生すること)を含む。例えば、いくつかの実施形態では、メディアアイテム710Aがビデオ(例えば、立体視ビデオ又は非立体視ビデオ)である場合、ユーザが閾値持続時間にわたってメディアアイテム710Aを注視したという判定に応じて、コンピュータシステム700は、メディアライブラリユーザインタフェース708内でメディアアイテム710Aのビデオコンテンツの再生を開始する。いくつかの実施形態では、(例えば、ユーザの視線に応じて)メディアアイテム710Aを自動再生することは、メディアライブラリユーザインタフェース708内でメディアアイテム710Aを再生するときにローパスフィルタ(例えば、ぼかしフィルタ及び/又は平滑化フィルタ)を適用することを含む。いくつかの実施形態では、ローパスフィルタは、(例えば、以下の図7M図7Nを参照して説明されるように、例えば、選択されたメディアユーザインタフェース719内で)選択された状態のメディアアイテム710Aを再生するときに除去される。いくつかの実施形態では、メディアライブラリユーザインタフェース708内でメディアアイテム710Aを自動再生することは、メディアアイテム710Aが選択された状態で(例えば、以下の図7M図7Nを参照して説明されるように、例えば、選択されたメディアユーザインタフェース719内で)再生されるときよりも低い音量でメディアアイテム710Aのオーディオコンテンツを出力することを含む。
【0142】
いくつかの実施形態では、ユーザの視線がメディアアイテム710Aから離れて(例えば、別のメディアアイテム710B~710Eに)移動すると、コンピュータシステム700は、視覚特性の第2のセットを用いたメディアアイテム710Aの表示を中止する(例えば、メディアアイテム710Aの自動再生を中止する)(例えば、視覚特性の第2のセットを用いたメディアアイテム710Aの表示から、視覚特性の第1のセットを用いたメディアアイテム710Aの表示及び/又は視覚特性の第3のセットを用いたメディアアイテム710Aの表示に戻る)。
【0143】
図7Cにおいて、視覚特性の第2のセットを用いてメディアアイテム710Aを表示している間に、コンピュータシステム700は、注視インジケーション714によって示されるように、ユーザの視線がメディアアイテム710Cに対応するメディアライブラリユーザインタフェース708内の異なるポジションに移動したことを検出する。図7Cにおいて、ユーザの視線がメディアアイテム710Cに移動したと判定したことに応じて、コンピュータシステム700は、視覚特性の第2のセットを用いたメディアアイテム710Aの表示を中止し、(図7Aに表示されていたように)視覚特性の第1のセットを用いてメディアアイテム710Aを表示する。更に、ユーザの視線がメディアアイテム710Cに移動した(及び、任意選択的に、閾値持続時間にわたって維持された)という判定に応じて、コンピュータシステム700は、メディアアイテム710Cを、視覚特性の第3のセット(例えば、図7A図7B)で表示される状態から、視覚特性の第4のセット(例えば、図7C)で表示される状態に遷移させる。いくつかの実施形態では、視覚特性の第3のセットは、視覚特性の第1のセットと同じである。いくつかの実施形態では、視覚特性の第4のセットは、視覚特性の第2のセットと同じである。いくつかの実施形態では、視覚特性の第1のセットから視覚特性の第2のセットへの遷移に関して上記で説明した例は、視覚特性の第3のセットから視覚特性の第4のセットへの遷移に適用され得る。
【0144】
図7Cにおいて、メディアライブラリユーザインタフェース708内に視覚特性の第4のセットを用いてメディアアイテム710Cを表示している間に、コンピュータシステム700は、ユーザジェスチャ716を(例えば、センサ715を介して)検出する。いくつかの実施形態では、ユーザジェスチャ716及び本明細書で説明される様々なユーザジェスチャは、1つ以上のタッチ入力(例えば、タッチ感知ディスプレイなどのディスプレイデバイス702)を含む。いくつかの実施形態では、ユーザジェスチャ716及び本明細書で説明される様々なユーザジェスチャは、(例えば、カメラ及び/又は身体移動センサ(例えば、手移動センサ及び/又は頭部移動センサ)によってキャプチャされるような)1つ以上のエアジェスチャ(例えば、既定の方式でのユーザの身体の1つ以上の部分の移動)を含む。いくつかの実施形態では、エアジェスチャは、ユーザがデバイスの一部である入力要素に触れることなく(又はデバイスの一部である入力要素から独立して)検出されるジェスチャであり、絶対的な基準に対するユーザの身体の動き(例えば、地面に対するユーザの腕の角度、又は地面に対するユーザの手の距離)、ユーザの身体の別の部分に対するユーザの身体の動き(例えば、ユーザの肩に対するユーザの手の動き、ユーザの一方の手に対するユーザの他方の手の移動、及び/又はユーザの手の別の指若しくは部分に対するユーザの指の移動)、及び/又は、ユーザの身体の一部の絶対的な動き(例えば、所定の量及び/又は速さによる所定のポーズでの手の移動を含むタップジェスチャ、又はユーザの身体の一部の所定の速さ又は量の回転を含むシェイクジェスチャ)を含む、ユーザの身体の一部の検出された動きに基づく。いくつかの実施形態では、ユーザジェスチャ716は、ピンチアンドドラッグジェスチャ(例えば、ピンチアンドドラッグエアジェスチャ)を含み、ユーザは、自分の手で既定のピンチ形状を形成し、(例えば、手が既定のピンチ形状を維持している間に)既定のピンチ形状を形成している手を特定の方向にドラッグする(例えば、移動させる)(例えば、上方向のピンチアンドドラッグジェスチャ)。いくつかの実施形態では、既定のピンチ形状は、ユーザが一方の手の親指の端部に近接した領域を同じ手の1本以上の他の指の端部(単数又は複数)と接触させる形状である。いくつかの実施形態では、図7Cにおいて、メディアライブラリユーザインタフェース708を表示している間に、コンピュータシステム700は、(例えば、センサ715を介して)既定の形状(例えば、既定のピンチ形状)を作るユーザの手を検出し、(例えば、既定の形状を維持しながら)既定の(例えば、上)方向に移動するユーザの手を検出する。
【0145】
図7Dにおいて、ユーザジェスチャ716の検出に応じて、コンピュータシステム700は、メディアライブラリユーザインタフェース708を上方にスクロールする。いくつかの実施形態では、メディアライブラリユーザインタフェース708は、ユーザジェスチャ716の方向及び大きさに基づいて(例えば、ピンチアンドドラッグジェスチャの移動の方向及び大きさに基づいて(例えば、ユーザのピンチされた手の方向、及びユーザのピンチされた手がどれだけ移動するかに基づいて))上方にスクロールされる。その結果、メディアライブラリユーザインタフェース708は、もはやメディアアイテム710A~710Bを含まず、メディアアイテム710C~710Eを上方に移動させ、メディアアイテム710Fを表示する。更に、図7Dにおいて、コンピュータシステム700は、注視インジケーション714によって示されるように、ユーザの視線がメディアアイテム710Fに向けられていることを検出する。図7Dにおいて、ユーザの視線が閾値持続時間にわたってメディアアイテム710F上に維持されているという判定に応じて、コンピュータシステム700は、視覚特性の第5のセット(例えば、二次元及び/又は拡張されていない)を有するメディアアイテム710Fの表示から、視覚特性の第5のセットとは異なる視覚特性の第6のセット(例えば、三次元及び/又は拡張された)を有するメディアアイテム710Fの表示に遷移させる。いくつかの実施形態では、視覚特性の第5のセットは、第1及び/又は視覚特性の第3のセットと同じである。いくつかの実施形態では、視覚特性の第6のセットは、第2の及び/又は視覚特性の第4のセットと同じである。いくつかの実施形態では、視覚特性の第1のセットから視覚特性の第2のセットへの遷移に関して上記で説明した例は、視覚特性の第5のセットから視覚特性の第6のセットへの遷移にも適用され得る。
【0146】
図7Dにおいて、ユーザの視線がメディアアイテム710F上に維持されている間、コンピュータシステム700は、ユーザジェスチャ718を検出する。いくつかの実施形態では、ユーザジェスチャ718は、ズームインコマンドに対応する。いくつかの実施形態では、ユーザジェスチャ718は、両手ピンチ解除ジェスチャ(例えば、両手ピンチ解除エアジェスチャ)(例えば、2つのピンチされた手が互いから離れるように動かされるジェスチャ)を含む。いくつかの実施形態では、両手ピンチ解除ジェスチャを検出することは、コンピュータシステム700が、ユーザの第1の手が既定の形状(例えば、既定のピンチ形状)を形成したことを検出することと、コンピュータシステム700が、ユーザの第2の手が既定の形状(例えば、所定のピンチ形状)を形成したことを検出することと、コンピュータシステム700が、第1の時点で、既定の形状を形成する第1の手と、既定の形状を形成する第2の手とが互いに第1の距離にあることを検出することと、第2の時点に続いて、コンピュータシステム700が、既定の形状を形成する第1の手と、既定の形状を形成する第2の手とが互いに第2の距離に移動されたことを検出することと、を含み、第2の距離は第1の距離よりも大きい。いくつかの実施形態では、ユーザジェスチャ718は、片手ピンチジェスチャ又は片手ダブルピンチジェスチャ(例えば、ユーザの片手が素早く連続して2つのピンチジェスチャ(例えば、互いの閾値持続時間内に2つのピンチジェスチャ)を行う)を含む。いくつかの実施形態では、コンピュータシステム700が片手ピンチジェスチャを検出することは、コンピュータシステム700が、2本の指が互いの閾値距離内になるまで(例えば、2本の指が閾値距離よりも互いに近くなるまで(例えば、2本の指が互いに接触するまで))ユーザの指のうちの2本以上が互いに近づくことを含むピンチを検出することを含む。いくつかの実施形態では、コンピュータシステム700が片手ダブルピンチジェスチャを検出することは、コンピュータシステム700が、2本の指が互いの閾値距離内になるまで(例えば、2本の指が閾値距離よりも互いに近くなるまで(例えば、2本の指が互いに接触するまで))ユーザの指のうちの2本以上が互いに近づくことを含む第1のピンチを検出することを含む。2本の指が離れていることを検出した後に、コンピュータシステム700は、2本の指が互いの閾値距離内になるまで(例えば、2本の指が閾値距離よりも互いに近づくまで(例えば、2本の指が互いに接触するまで))ユーザの指のうちの2本以上が互いに近づくことを含む第2のピンチを検出する。いくつかの実施形態では、片手ダブルピンチジェスチャは、第1のピンチの閾値期間内に第2のピンチを検出することを含む(例えば、第2のピンチは、第1のピンチが開始及び/又は完了された後の閾値期間内に開始及び/又は完了される)。
【0147】
図7Eにおいて、ユーザの視線がメディアアイテム710Fに向けられている間にズームインコマンドに対応するユーザジェスチャ718を検出したことに応じて、コンピュータシステム700は、メディアアイテム710Fをズームイン動作の中心及び/又はフォーカスとしてメディアライブラリユーザインタフェース708上でズームインする。したがって、図7Eでは、メディアアイテム710Fは、図7Dよりも大きいサイズで表示される。いくつかの実施形態では、ユーザの視線が異なるメディアアイテムに向けられた場合、ズームインユーザコマンドは、メディアアイテム710Fにズームインするのではなく、異なるメディアアイテムにズームインすることになる。いくつかの実施形態では、ズーム動作の大きさ(例えば、コンピュータシステム700がメディアライブラリユーザインタフェース708上でどの程度ズームインするか)は、両手ピンチ解除ジェスチャ(例えば、エアジェスチャ)の方向及び/又は大きさに基づいて(例えば、ユーザの第1のピンチされた手がユーザの第2のピンチされた手からどの程度移動するかに基づいて)判定される。いくつかの実施形態では、ユーザジェスチャ718が片手ピンチ及び/又は片手ダブルピンチジェスチャ(例えば、エアジェスチャ)である場合、コンピュータシステム700は、メディアライブラリユーザインタフェース708を所定の量(例えば、デフォルト量)だけズームインする。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、コンピュータシステム700の2つの別個のディスプレイデバイス上のメディア710Fの表示のズームレベルを別個に増加させ、コンピュータシステム700の各ディスプレイデバイスは、ユーザの個別の目に対応する(例えば、各ディスプレイデバイスは、ユーザの個別の目に可視である)。
【0148】
図7Dに戻ると、ユーザの視線がメディアアイテム710F上に維持されている間に、コンピュータシステム700は、ユーザジェスチャ718を検出する。いくつかの実施形態では、図7Eを参照して上述したように、ユーザジェスチャ718がズームインユーザコマンドに対応するのではなく、ユーザジェスチャ718がメディアアイテム選択コマンドに対応する。いくつかの実施形態では、メディアアイテム選択コマンドは、(例えば、上述したような)片手ピンチジェスチャ(例えば、エアジェスチャ)を含む(例えば、片手ピンチジェスチャである)。いくつかの実施形態では、メディアアイテム選択コマンドは、(例えば、上述したような)両手ピンチ解除ジェスチャ(例えば、エアジェスチャ)を含む(例えば、両手ピンチ解除ジェスチャである)。いくつかの実施形態では、複数のジェスチャが単一のコマンドに対応する(例えば、異なるジェスチャが同じ結果をもたらす)。
【0149】
図7Fにおいて、ユーザの視線がメディアアイテム710Fに向けられている間にメディアアイテム選択コマンドに対応するユーザジェスチャ718を検出したことに応じて、コンピュータシステム700は、メディアウィンドウ704内のメディアライブラリユーザインタフェース708の表示を中止し、メディアウィンドウ704内に、選択されたメディアユーザインタフェース719内のメディアアイテム710Fを表示する。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、メディアアイテム710Fの第1の表現(例えば、含まれたメディアアイテム710Fに含まれる環境の第1の透視図)をユーザの第1の目に表示し、コンピュータシステム700は、メディアアイテム710Fの第2の表現(例えば、メディアアイテム710Fに含まれる環境の第2の透視図)をユーザの第2の目に表示し、それによって、ユーザは、立体視深度効果を伴ってメディアアイテム710Fを視認する。
【0150】
いくつかの実施形態では、図7Dのユーザジェスチャ718は、図7Fに示すシナリオでは、メディアアイテム選択コマンドに対応し、1つ以上の中間状態を含む。例えば、メディアアイテム選択コマンドが片手ピンチジェスチャである場合、ユーザは、ピンチジェスチャを実行するために、ゆっくりと及び/又は徐々に人差し指を親指に近づけることができる。いくつかの実施形態では、ユーザがメディアアイテム選択コマンドを進めるにつれて、図7Dのメディアアイテム710Fの1つ以上の分離された要素は、(例えば、既定の軸に沿って(例えば、z軸に沿って))徐々に互いに近づくように移動する。いくつかの実施形態では、ユーザジェスチャが完了閾値を超えると、メディアアイテム710Fは、(例えば、図7Fに見られるように)1つ以上の要素が再拡張された状態で、選択されたメディアユーザインタフェース719に表示される。いくつかの実施形態では、完了閾値に達する前にユーザがメディアアイテム選択ジェスチャの実行を中止した(例えば、ユーザが完了閾値に達する前にピンチジェスチャを停止した、及び/又は完了閾値に達する前に自身の人差し指と親指を離して広げた)場合、図7Dのメディアアイテム710Fの要素は、メディアライブラリユーザインタフェース708内で再拡張及び/又は分離する。いくつかの実施形態では、ユーザがメディアアイテム選択コマンドを進めるにつれて、図7Dの他のメディアアイテム(例えば、メディアアイテム710C~710E)は徐々にぼかされる(例えば、メディアアイテム選択コマンドが完了閾値に向かって進むにつれて、よりぼかされるようになる)。いくつかの実施形態では、特定のタイプのユーザジェスチャは、図7D図7Fとの間の中間段階の表示(例えば、メディアアイテムの漸進的なぼかし、並びに/又はメディアアイテム層及び/若しくは要素が互いに近づく漸進的な移動)をもたらすが、他のタイプのユーザジェスチャは、中間段階を表示することなく、図7Dのメディアライブラリユーザインタフェース708から図7Fの選択されたメディアユーザインタフェース719への遷移を直ちに引き起こす。例えば、いくつかの実施形態では、素早い片手ピンチジェスチャ(例えば、閾値時間内に完了する片手ピンチジェスチャ)は、中間状態を表示することなくメディアライブラリユーザインタフェース708から選択されたメディアユーザインタフェース719への即時の遷移をもたらし、一方、遅い片手ピンチジェスチャ又は両手ピンチ解除ジェスチャは、ユーザジェスチャに基づいてメディアライブラリユーザインタフェース708から選択されたメディアユーザインタフェース719へ遷移する間に中間状態を表示する。
【0151】
図7Fでは、選択されたメディアユーザインタフェース719が表示されると、三次元環境706が暗くなることが分かる。更に、メディアウィンドウ704は、メディアウィンドウ704から(例えば、三次元環境706内に)延びる1つ以上の照明効果726-1とともに表示される。いくつかの実施形態では、メディアアイテムを開くとき(例えば、メディアライブラリユーザインタフェース708から選択されたメディアユーザインタフェース719に遷移するとき)、メディアウィンドウ704から延びる照明効果(例えば、726-1)及び三次元環境706に適用される照明効果が徐々に実現及び/又は表示される。例えば、いくつかの実施形態では、図7Dから図7Fまで、ユーザジェスチャ718(メディアアイテム選択コマンド)に応じて、メディアアイテム710Fのサイズは、メディアウィンドウ704を満たすように徐々に増大され、三次元環境706は、徐々に暗くされ、照明効果726-1は、メディアウィンドウ704から徐々に延び、強度が徐々に増加する。同様に、いくつかの実施形態では、(例えば、選択されたメディアユーザインタフェース719からメディアライブラリユーザインタフェース708に遷移するために)メディアアイテムが閉じられると、メディアウィンドウ704から延び、三次元環境706に適用される照明効果が徐々に除去される(例えば、照明効果726-1の強度及びサイズが徐々に減少し、三次元環境706が徐々に明るくなる)。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスである場合、コンピュータシステム700は、ユーザが(例えば、コンピュータシステム700を装着しながら)自身の頭部を回転させること及び/又は物理的環境の周りを歩くことに応じて、照明効果726-1の外観を変化させる。いくつかの実施形態では、照明効果726-1は、メディアウィンドウ704から延びる複数の光線を含む。いくつかの実施形態では、複数の光線の視覚特性(例えば、1つ以上の光線の長さ、1つ以上の光線の色(単数又は複数)、及び/又は1つ以上の光線の輝度及び/又は強度)は、表示されたメディアアイテム(例えば、選択されたメディアユーザインタフェース719内に表示されたメディアアイテム)の視覚的コンテンツに基づいて決定される。いくつかの実施形態では、メディアウィンドウ704の縁部における視覚的コンテンツ(例えば、メディアウィンドウ704の縁部及び/又は境界の閾値距離内の視覚的コンテンツ)は、複数の光線の視覚特性を決定する際に、メディアウィンドウ704の縁部の内部のコンテンツよりも重く重み付けされる。いくつかの実施形態では、1つ以上の光線は、(例えば、表示されたメディアアイテムの視覚的コンテンツに基づいて)可変長、可変色、可変輝度、及び/又は可変強度を有する。したがって、いくつかの実施形態では、表示されたメディアアイテムの視覚的コンテンツが変化する(例えば、表示されたメディアアイテムが1つのメディアアイテムから別のメディアアイテムに変化する、表示されたメディアアイテムが、ビデオが再生されるときに変化する視覚的コンテンツを有するビデオである、及び/又はユーザがメディアアイテム内でズームイン又はズームアウトする)とき、複数の光線を含む照明効果726-1は、それに応じて変化する。いくつかの実施形態では、表示されたメディアアイテムがビデオである場合、照明効果726-1(例えば、複数の光線)の変化は、経時的に平滑化される。いくつかの実施形態では、照明効果726-1は、メディアウィンドウ704の前面(例えば、前面層720)から延びる(例えば、前方に延びる)光線と、メディアウィンドウ704の背面(例えば、背面層722)から延びる(例えば、後方に延びる)光線と、を含む。
【0152】
いくつかの実施形態では、照明効果726-1は、表示されるメディアアイテム(例えば、選択されたメディアユーザインタフェース719内に表示されるメディアアイテム)が立体視メディアアイテムであるか非立体視メディアアイテムであるかに関わらず、メディアウィンドウ704から拡張される。いくつかの実施形態では、メディアウィンドウ704から延びる光線は、示されたメディアアイテムが(例えば、図7F、7G、7H、及び7Nに示されるような)立体視メディアアイテムであるかどうか、又は示されたメディアアイテムが(例えば、図7J図7Mに示されるような)非立体視メディアアイテムであるかどうかに基づいて異なる。例えば、光線の視覚特性を決定するために使用される1つ以上のアルゴリズムは、表示されたメディアアイテムが立体視メディアアイテムであるか非立体視メディアアイテムであるかに基づいて異なる。いくつかの実施形態では、光線(又は光線の視覚特性を決定するために使用されるアルゴリズム)は、表示されたメディアアイテムが立体視メディアアイテムであるか非立体視メディアアイテムであるかに基づいて異なることはない。
【0153】
いくつかの実施形態では、メディアアイテム、メディアウィンドウ704、及び/又は三次元環境706の視覚特性は、表示されたメディアアイテムが立体視メディアアイテムであるか、又は非立体視メディアアイテムであるかに依存する。図7Fにおいて、表示されたメディアアイテムは、立体視メディアアイテムである。表示されたメディアアイテムが立体視メディアアイテムであるという判定に基づいて、コンピュータシステム700は、立体視メディアアイテムに対応する視覚特性のセットとともにメディアアイテムを表示する。例えば、図示の実施形態では、メディアウィンドウ704は、表示されたメディアアイテムを三次元的に表示し、メディアアイテムの要素は軸に沿って展開される。図示した実施形態では、メディアウィンドウ704は、前面層720、背面層722、及び前面層720と背面層722との間の1つ以上の中間層724とともに示されている。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、ユーザが物理的環境内で自身を再配置すること、及び/又は(例えば、コンピュータシステム700を自身の頭部に装着しながら)自身の頭部を回転させることに応じて、メディアウィンドウ704内に表示されたメディアアイテムの異なる透視図を表示する。
【0154】
いくつかの実施形態では、表示されたメディアアイテムが立体視メディアアイテムであるという判定に従って、表示されたメディアアイテムは、連続的な縁部を有する連続的な三次元形状内に表示される(例えば、メディアウィンドウ704は、連続的な縁部を有する連続的な三次元形状である)。図7Iは、連続的な縁部を伴う連続三次元形状の例示的な実施形態の側面プロファイル図を示し、前面層720は、図7Iにおける形状の左表面として示され、背面層722は、図7Iにおける形状の右表面として示される。いくつかの実施形態では、図7Iに示すように、メディアウィンドウ704の三次元形状は、湾曲した前面及び/又は湾曲した背面を有する。いくつかの実施形態では、メディアウィンドウ704の三次元形状は、屈折縁部(例えば、ぼやけた縁部及び/又はガラス状の縁部)を有する。対照的に、いくつかの実施形態では、表示されたメディアアイテムが非立体視メディアアイテムであるという判定に従って、表示されたメディアアイテムは、(図7Jに示されるように)二次元オブジェクト内に及び/又は二次元オブジェクトとして表示される(例えば、メディアウィンドウ704は、二次元オブジェクト及び/又は形状である)。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、ユーザが物理的環境内で自身を再配置すること、及び/又は自身の頭部を回転させること(例えば、ユーザが自身の頭部にコンピュータシステム700を装着している間)に応じて、立体視メディアアイテムの三次元形状の異なる透視図を表示する。
【0155】
図7Fにおいて、コンピュータシステム700は、共有オプション728A、時間及びロケーション情報728B、並びにクローズオプション728Cも表示する。共有オプション728Aは、表示されたメディアアイテムを共有するための1つ以上のオプションを表示するために選択可能である。時間及びロケーション情報728Bは、表示されたメディアアイテムに対応する時間及びロケーション情報728B(例えば、表示されたメディアアイテムのキャプチャの時間及びロケーション)を表示する。クローズオプション728Cは、表示されたメディアアイテムを閉じるために選択可能である(例えば、選択されたメディアユーザインタフェース719の表示を中止し、メディアライブラリユーザインタフェース708を再表示するために選択可能である)。いくつかの実施形態では、表示されたメディアアイテムが立体視メディアアイテムであるという判定に従って、共有オプション728A、日時情報728B、及びクローズオプション728Cなどの1つ以上のコントロールが表示される(例えば、メディアウィンドウ704の外側に、及び/又は1つ以上のコントロールが表示された立体視メディアアイテム710Fに重複しない及び/又はオーバーレイしないような方法で)。
【0156】
いくつかの実施形態では、メディアアイテムが選択されたメディアユーザインタフェース719に表示されるとき、メディアアイテムは、(例えば、表示されたメディアアイテムが立体視メディアアイテムであるか非立体視メディアアイテムであるかに関わらず)メディアアイテムに適用されるビネッティング(例えば、暗くされた角部及び/又は縁部)を伴って表示される。いくつかの実施形態では、メディアアイテムが選択されたメディアユーザインタフェース719に表示されるとき、メディアアイテムは、任意選択的に没入状態で表示される。いくつかの実施形態では、条件の第1のセットが満たされる場合、メディアアイテムは没入状態で表示され、条件の第1のセットが満たされない場合、メディアアイテムは没入状態で表示されない。様々な実施形態において、条件の第1のセットは、例えば、第1のユーザ設定(例えば、没入型視聴設定)が有効及び/又は無効にされているという判定、第1のメディアアイテムが特定のタイプ(例えば、非立体視と比較して立体視)であるという判定(例えば、第1のメディアアイテムが立体視メディアアイテムであるという判定に従って)、及び/又は特定のタイプの1つ以上のユーザ入力(例えば、1つ以上のジェスチャ(例えば、1つ以上のエアジェスチャ))が検出されたという判定のうちの1つ以上を含む。いくつかの実施形態では、非没入状態は第1の角度サイズに対応し、没入状態は第1の角度サイズよりも大きい第2の角度サイズに対応する。換言すれば、没入状態では、表示されたメディアアイテムは、より大きい角度表示サイズで表示され、非没入状態では、表示されたメディアアイテムは、より小さい角度表示サイズで表示される。いくつかの実施形態では、メディアアイテムが没入状態で表示され、コンピュータシステム700がヘッドマウントデバイスである場合、コンピュータシステム700は、ユーザが物理的環境内で自身を再配置すること、及び/又は(例えば、ユーザがコンピュータシステム700を頭部に装着している間に)自身の頭部を回転させることに基づいて、メディアアイテムの異なる透視図を表示する。
【0157】
図7Fにおいて、選択されたメディアユーザインタフェース719にメディアアイテム710Fを表示している間に、コンピュータシステム700は、ユーザジェスチャ732を検出する。ユーザジェスチャ732のための異なるタイプのユーザジェスチャに対応する様々な異なるシナリオが、以下で順に説明される。
【0158】
第1のシナリオでは、ユーザジェスチャ732は、例えば、選択されたメディアユーザインタフェース719の表示を中止し、かつ/又はメディアライブラリユーザインタフェース708を再表示するためのメディアアイテムクローズコマンドに対応する。いくつかの実施形態では、メディアアイテムクローズコマンドは、ピンチアンドドラッグジェスチャ(例えば、エアジェスチャ)(例えば、既定の方向へのピンチアンドドラッグジェスチャ(例えば、下方向へのピンチアンドドラッグジェスチャ))を含む。いくつかの実施形態では、第1の方向(例えば、左)へのピンチアンドドラッグジェスチャは、選択されたメディアユーザインタフェース719内の後続のメディアアイテム(例えば、メディアアイテムの順序付けられたシーケンス内の直後のメディアアイテム)を表示するための次のメディアアイテムコマンドに対応し、第2の方向(例えば、第1の方向とは反対の第2の方向)(例えば、右)へのピンチアンドドラッグジェスチャは、選択されたメディアユーザインタフェース719内の前のメディアアイテム(例えば、メディアアイテムの順序付けられたシーケンス内の直前のメディアアイテム)を表示するための前のメディアアイテムコマンドに対応し、第3の方向(例えば、下)へのピンチアンドドラッグジェスチャは、メディアアイテムを閉じるコマンドに対応する。上述のように、いくつかの実施形態では、コンピュータシステム700がピンチアンドドラッグジェスチャ(例えば、ピンチアンドドラッグエアジェスチャ)を検出することは、コンピュータシステム700が、ユーザの手が既定の形状(例えば、既定のピンチ形状)を形成することを検出することと、コンピュータシステム700が、(例えば、ユーザの手が既定の形状を形成及び/又は維持している間に)既定の形状を形成する手の特定の方向の移動を検出することと、を含む。いくつかの実施形態では、コンピュータシステム700がピンチアンドドラッグジェスチャを検出することは、コンピュータシステム700が、特定の方向に少なくとも閾値距離にわたって既定の形状を形成する手の移動を検出することを更に含む。
【0159】
第2のシナリオでは、ユーザジェスチャ732は、注視インジケーション714-1によって示されるように、ユーザの視線がメディアウィンドウ704の右下隅で検出されている間に受信されるズームインコマンド(例えば、図7Dを参照して様々な実施形態が上述された、片手ダブルピンチジェスチャ又は両手ピンチ解除ジェスチャ)に対応する。第3のシナリオでは、ユーザジェスチャ732は、注視インジケーション714-2によって示されるように、ユーザの視線がメディアウィンドウ704の左上隅で検出されている間に受信されるズームインコマンドに対応する。第2のシナリオでは、ユーザの視線がメディアウィンドウ704の右下隅に向けられている間にズームインコマンドに対応するユーザジェスチャ732に応じて、コンピュータシステム700は、図7Gに示されるように、メディアウィンドウ704の右下隅にズームインする。第3のシナリオでは、ユーザの視線がメディアウィンドウ704の左上隅に向けられている間にズームインコマンドに対応するユーザジェスチャ732に応じて、コンピュータシステム700は、図7Hに示すように、メディアウィンドウ704の左上隅にズームインする。
【0160】
図7Jは、非立体視メディアアイテム731を表示する選択されたメディアユーザインタフェース719を示す。図7Jにおいて、メディアアイテム731は、パノラマ非立体視画像である。図7Jにおいて、三次元環境706は、図7Fにおけるように暗くされ、照明効果730-1は、メディアウィンドウ704から広がる。図7Fを参照して上述した照明効果726-1と同様に、いくつかの実施形態では、照明効果730-1は、メディアウィンドウ704に示された視覚的コンテンツ(例えば、表示されたメディアアイテム731の視覚的コンテンツ)に基づいて決定される。いくつかの実施形態では、照明効果730-1は、メディアウィンドウ704内に表示される視覚的コンテンツの差に基づいて照明効果726-1とは異なるが、照明効果730-1を生成及び/又は決定するために使用されるアルゴリズムは、照明効果726-1を生成及び/又は決定するために使用されるアルゴリズムと同じである。いくつかの実施形態では、メディアアイテム731が非立体視メディアアイテムであり、メディアアイテム710Fが立体視メディアアイテムであったという事実に基づいて、照明効果730-1を生成及び/又は決定するために使用されるアルゴリズムは、照明効果726-1を生成及び/又は決定するために使用されるアルゴリズムとは異なる。いくつかの実施形態では、図7Fを参照して上述した照明効果726-1の様々な特性は、照明効果730-1、及び本明細書に記載の他の照明効果(例えば、730-2、730-3、730-4、726-2、726-3、及び/又は726-4)に適用可能である。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、メディアアイテム731が非立体視メディアアイテムである結果として、ユーザが物理的環境を歩き回ること、及び/又は(例えば、ユーザがコンピュータシステム700を頭部に装着している間に)ユーザの頭部を回すことに応じて、メディアアイテム731に含まれるコンテンツの様々な透視図を表示しない。
【0161】
いくつかの実施形態では、図7Jのメディアウィンドウ704及び選択されたメディアユーザインタフェース719の特定の視覚特性は、表示されたメディアアイテム731が非立体視メディアアイテムであるという判定に基づいて、図7Fの視覚特性とは異なる。例えば、いくつかの実施形態では、図7Jの表示されたメディアアイテム731が非立体視メディアアイテムであるという判定に基づいて、共有オプション728A、時間及びロケーション情報728B、並びにクローズオプション728Cなどの1つ以上のコントロールが、表示されたメディアアイテム731上にオーバーレイされて表示される。別の例では、いくつかの実施形態において、図7Jの表示されたメディアアイテム731が非立体視メディアアイテムであるという判定に基づいて、メディアアイテム731は、二次元オブジェクト内に及び/又は二次元オブジェクトとして表示される(一方、図7Fのメディアアイテム710Fは、三次元オブジェクト内に表示されている)。立体視メディアアイテムと非立体視メディアアイテムとの間の他の差異は、図7Fを参照して上記でより詳細に説明された。
【0162】
図7Jにおいて、選択されたメディアユーザインタフェース719内に非立体視パノラマ状のメディアアイテム731を表示している間に、コンピュータシステム700は、(例えば、センサ715を介して)ユーザジェスチャ733を検出する。図示されたシナリオでは、ユーザジェスチャ733はズームインコマンドに対応する。いくつかの実施形態では、ズームインコマンドは、(例えば、図7Dを参照して)上述したように、片手ダブルピンチジェスチャ及び/又は両手ピンチ解除ジェスチャを含む。更に、図7Jにおいて、コンピュータシステム700は、ユーザジェスチャ733を検出している間に、注視インジケーション714によって示されるように、表示されたメディアアイテム731内の第1のポジションに向けられたユーザ視線を検出する。
【0163】
図7Kにおいて、ユーザの視線が表示されたメディアアイテム731内の第1のポジションに向けられている間にユーザジェスチャ733(例えば、ズームインコマンド)を検出したことに応じて、コンピュータシステム700は、第1のポジションをズームイン動作の中心点としてメディアアイテム731をズームインする。更に、図7Kにおいて、ユーザジェスチャ733(例えば、ズームインコマンド)を検出したことに応じて、かつ表示されたメディアアイテム731がパノラマ状のメディアアイテムであるという判定に従って、コンピュータシステム700は、メディアウィンドウ704のサイズを拡大し、またメディアウィンドウ704を湾曲させる。図7Kにおいて、照明効果730-2は、メディアウィンドウ704から延びる。いくつかの実施形態では、照明効果730-2は、メディアウィンドウ704に表示されている視覚的コンテンツの変化に基づいて、照明効果730-1とは異なる。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスである場合、メディアウィンドウ704の表示は、メディアウィンドウ704が湾曲した外観で表示されている間に(例えば、メディアウィンドウ704が湾曲した外観なしで表示されている場合とは対照的に)、ユーザのより広い視野を占有する。
【0164】
図7Kにおいて、コンピュータシステム700は、ユーザジェスチャ734を(例えば、センサ715を介して)検出する。いくつかの実施形態では、ユーザジェスチャ734は、ユーザジェスチャ733のズームインコマンドの継続(例えば、両手ピンチ解除ジェスチャ(例えば、(例えば、図7Dを参照して)上述した様々な実施形態)の継続)である。更に、図7Kにおいて、コンピュータシステム700は、ユーザジェスチャ734を検出している間に、注視インジケーション714によって示されるように、表示されたメディアアイテム内の第2のポジションに向けられたユーザ視線を検出する。
【0165】
図7Lにおいて、ユーザの視線が表示されたメディアアイテム内の第2のポジションに向けられていた間にユーザジェスチャ734(例えば、ズームインコマンド(例えば、(例えば、図7Dを参照して)上述した様々な実施形態))を検出したことに応じて、コンピュータシステム700は、第2のポジションをズームイン動作の中心点としてパノラマ状のメディアアイテム731を更にズームインする。更に、図7Lにおいて、ユーザジェスチャ734(例えば、ズームインコマンド)を検出したことに応じて、かつ表示されたメディアアイテム731がパノラマ状のメディアアイテムであるという判定に従って、コンピュータシステム700は、メディアウィンドウ704のサイズを更に拡大し、メディアウィンドウ704を更に湾曲させる。図7Lにおいて、照明効果730-3は、メディアウィンドウ704から延びる。いくつかの実施形態では、照明効果730-3は、メディアウィンドウ704に表示されている変化する視覚的コンテンツに基づいて、照明効果730-2及び730-1とは異なる。
【0166】
更に、図7Lでは、メディアアイテム731が更にズームインされるにつれて、メディアアイテム731は、メディアアイテム731の左側及び右側の特定のコンテンツがメディアウィンドウ704内でもはや可視ではなくなるほど十分にズームインされる。図7Lでは、メディアウィンドウ704内で可視ではない追加のコンテンツがメディアアイテム731の左側にあるという判定に従って、コンピュータシステム700は、メディアウィンドウ704の左側に視覚効果736Aを表示する。同様に、メディアウィンドウ704内で可視ではない追加のコンテンツがメディアアイテム731の右側にあるという判定に従って、コンピュータシステム700は、メディアウィンドウ704の右側に視覚効果736Bを表示する。いくつかの実施形態では、視覚効果736Aは、メディアウィンドウ704の左縁部をぼかすこと及び/又は視覚的に不明瞭にすることを含み、視覚効果736Bは、メディアウィンドウ704の右縁部をぼかすこと及び/又は視覚的に不明瞭にすることを含む。
【0167】
図7Lにおいて、選択されたメディアユーザインタフェース719にメディアアイテム731を表示している間に、コンピュータシステム700はユーザジェスチャ738を検出する。いくつかの実施形態では、ユーザジェスチャ738は、前のコンテンツアイテムコマンド(例えば、第1の(例えば、右)方向へのピンチアンドドラッグジェスチャ(例えば、(例えば、図7D及び図7Fを参照して)上述した様々な実施形態))及び/又は次のコンテンツアイテムコマンド(例えば、第2の(例えば、左)方向へのピンチアンドドラッグジェスチャ(例えば、(例えば、図7D及び図7Fを参照して)上述した様々な実施形態))に対応する。
【0168】
図7Mにおいて、ユーザジェスチャ738を検出したことに応じて、コンピュータシステム700は、選択されたメディアユーザインタフェース719内に図7Lのメディアアイテム731を表示することを中止し、選択されたメディアユーザインタフェース719内に非立体視ビデオメディアアイテム741を表示する。図7Mでは、示されたメディアアイテム741が非立体視メディアアイテムであるという判定に従って、1つ以上のコントロールがメディアアイテム上にオーバーレイされて表示される。1つ以上のコントロールは、例えば、共有オプション728A、時間及びロケーション情報728B、並びにクローズオプション728C、並びにスクラバ740を含む。スクラバ740は、ビデオメディアアイテム741内をナビゲートするためにユーザによって操作されることができ(例えば、ユーザは、スクラバ740と相互作用することができる)、一時停止ボタン、再生ボタン、早送りボタン、及び/又は巻き戻しボタンなどの1つ以上の再生コントロールも含む。図7Mにおいて、照明効果730-4は、メディアウィンドウ704から延びる。図7Fを参照して上述したように、いくつかの実施形態では、ビデオの照明効果は、ビデオ内の個別の時間における照明効果が複数のビデオフレーム(例えば、個別の時間の直前及び/又は直後の複数のビデオフレーム)に基づいて決定されるように、経時的に平滑化される。
【0169】
図7Mにおいて、選択されたメディアユーザインタフェース719に非立体視ビデオメディアアイテム741を表示している間に、コンピュータシステム700は、ユーザジェスチャ742を検出する。いくつかの実施形態では、ユーザジェスチャ742は、前のコンテンツアイテムコマンド(例えば、第1の(例えば、右)方向へのピンチアンドドラッグジェスチャ(例えば、(例えば、図7D及び図7Fを参照して)上述した様々な実施形態))及び/又は次のコンテンツアイテムコマンド(例えば、第2の(例えば、左)方向へのピンチアンドドラッグジェスチャ(例えば、(例えば、図7D及び図7Fを参照して)上述した様々な実施形態))に対応する。
【0170】
図7Nにおいて、ユーザジェスチャ742を検出したことに応じて、コンピュータシステム700は、選択されたメディアユーザインタフェース719内に図7Mの非立体視ビデオメディアアイテム741を表示することを中止し、選択されたメディアユーザインタフェース719内に立体視ビデオメディアアイテム743を表示する。図7Nでは、示されたメディアアイテム743が立体視メディアアイテムであるという判定に従って、1つ以上のコントロール(例えば、共有オプション728A、時間及びロケーション情報728B、クローズオプション728C、スクラバ740)がメディアウィンドウ704に表示される(例えば、外側に及び/又は重複せずに)。いくつかの実施形態では、1つ以上のコントロール(例えば、728A、728B、728C、及び/又は740)は、ユーザの手が第1のポジション(例えば、上昇ポジション)にあるときに表示され、ユーザの手が第1のポジションにないとき(例えば、ユーザの手が下降ポジションにあるとき)に隠される/表示されない。いくつかの実施形態では、1つ以上のコントロールは、ユーザの手が第1のポジションにあるときに表示され、そしてユーザの手が第1のポジションにないときには、表示されるメディアアイテムが立体視メディアアイテムであるか又は非立体視メディアアイテムであるかに関わらず、隠される。いくつかの実施形態では、1つ以上のコントロールは、ユーザの手が第1のポジションにあるときに表示され、そしてユーザの手が第1のポジションにないときには、表示されるメディアアイテムが静止画像であるか又はビデオであるかに関わらず、隠される。
【0171】
更に、示されたメディアアイテム743が立体視メディアアイテムであるという判定に従って、メディアアイテム743は、複数の層(例えば、720、722、及び724)を有する三次元形状内に表示される。図7Nにおいて、照明効果726-4は、メディアウィンドウ704から延びる。図7F及び図7Mを参照して上述したように、いくつかの実施形態では、ビデオの照明効果は、ビデオ内の個別の時間における照明効果が複数のビデオフレーム(例えば、個別の時間の直前及び/又は直後の複数のビデオフレーム)に基づいて決定されるように、経時的に平滑化される。
【0172】
図7A図7Nに関する追加の説明が、図8図10を参照しながら説明された方法800、900、及び1000を参照しながら以下で与えられる。
【0173】
図8は、いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な方法800のフロー図である。いくつかの実施形態では、方法800は、表示生成構成要素(例えば、702)(例えば、ディスプレイコントローラ、タッチ感知ディスプレイシステム、ディスプレイ(例えば、統合及び/又は接続された)、3Dディスプレイ、透明ディスプレイ、プロジェクタ、及び/又はヘッドアップディスプレイ)及び1つ以上の入力デバイス(例えば、715)(例えば、タッチ感知面(例えば、タッチ感知ディスプレイ))と通信するコンピュータシステム(例えば、700)(例えば、図1のコンピュータシステム101)(例えば、スマートフォン、スマートウォッチ、タブレット、及び/又はウェアラブルデバイス)、マウス、キーボード、リモートコントロール、視覚入力デバイス(例えば、カメラ)、オーディオ入力デバイス(例えば、マイクロフォン)、及び/又はバイオメトリックセンサ(例えば、指紋センサ、顔識別センサ、及び/又は虹彩識別センサ))で実行される。いくつかの実施形態では、方法800は、非一時的(又は一時的)コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aのコントロール110)などのコンピュータシステムの1つ以上のプロセッサによって実行される命令によって統御される。方法800のいくつかの動作は、任意選択的に、組み合わされ、かつ/又はいくつかの動作の順序は、任意選択的に、変更される。
【0174】
いくつかの実施形態では、コンピュータシステム(例えば、700)は、表示生成構成要素(例えば、702)を介して、第1のメディアアイテム(例えば、710A~710F)の表現を含む複数のメディアアイテム(例えば、710A~710F)(例えば、画像、写真、及び/又はビデオ)の表現(例えば、サムネイル及び/又はプレビュー)を含むメディアライブラリユーザインタフェース(例えば、708)を表示する(802)。
【0175】
メディアライブラリユーザインタフェースを表示している間に(804)、コンピュータシステムは、第1の時点で、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線(例えば、714)を検出する(806)(例えば、ユーザがメディアライブラリユーザインタフェース内の第1のポジションを注視していることを検出及び/又は判定する)。いくつかの実施形態では、メディアライブラリユーザインタフェース内の第1のポジションは、第1のメディアアイテムの表現に対応するポジションであるか、又は第1のメディアアイテムの表現に対応しない(例えば、第1のメディアアイテムとは異なる第2のメディアアイテムの表現に対応する)メディアライブラリユーザインタフェース内のポジションである。
【0176】
メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて(808)、コンピュータシステムは、第1のメディアアイテムの表現の外観を、表示生成構成要素を介して、第1の方式で(例えば、視覚特性の第1のセットを用いて)表示されることから、第1の方式とは異なる第2の方式で(例えば、視覚特性の第2のセットを用いて)表示されることに変更する(810)(例えば、図7A図7Bのメディアアイテム710A及び/又は図7B図7Cのメディアアイテム710C)。
【0177】
コンピュータシステムは、第1の時点の後の第2の時点で(例えば、第2の方式で第1のメディアアイテムの表現を表示した後又は表示している間に)、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース内の第2のポジション(例えば、図7Cの714)に対応するユーザ視線を検出する(812)(例えば、ユーザがメディアライブラリユーザインタフェース内の第2のポジションを注視していることを検出及び/又は判定する)。いくつかの実施形態では、メディアライブラリユーザインタフェース内の第2のポジションは、第1のメディアアイテムの表現に対応するポジション、又は第1のポジションとは異なる第1のメディアアイテムの表現に対応しない(例えば、第1のメディアアイテムとは異なる第2のメディアアイテムの表現に対応する)メディアライブラリユーザインタフェース内のポジションである。
【0178】
メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出したことに応じて(814)、コンピュータシステムは、表示生成構成要素を介して、第2の方式とは異なる第3の方式で(例えば、視覚特性の第2のセットとは異なる視覚特性の第3のセットを用いて)第1のメディアアイテムの表現を表示する(816)(例えば、図7Bから図7Cのメディアアイテム710A)。いくつかの実施形態では、第3の方式は第1の方式と同じである。
【0179】
メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、第1のメディアアイテムの表現の外観を第1の方式で表示されることから第2の方式で表示されることに変更することは、システムの状態に関する視覚的フィードバック(例えば、第1のポジションに対応するユーザ視線が検出されたこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0180】
いくつかの実施形態では、コンピュータシステムは、表示生成構成要素を介して、第1のメディアアイテムとは異なる第2のメディアアイテムの表現を含む複数のメディアアイテム(例えば、710A~710F)(例えば、画像、写真、及び/又はビデオ)の表現(例えば、サムネイル及び/又はプレビュー)を含むメディアライブラリユーザインタフェース(例えば、708)を(例えば、第2の時点の後の第3の時点で)表示する。第2のメディアアイテムの表現を含むメディアライブラリユーザインタフェースを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース(例えば、図7Cの714)内の第3のポジション(例えば、第2のポジション、又は第1のポジション及び/又は第2のポジションとは異なる第3のポジション)(例えば、第2のメディアアイテムの表現に対応するメディアライブラリユーザインタフェース内の第3のポジション、又は第2のメディアアイテムの表現に対応しない(例えば、第2のメディアアイテムとは異なる第3のメディアアイテムの表現に対応する)メディアライブラリユーザインタフェース内の第3のポジション)に対応するユーザ視線を(例えば、第3の時点の後の第4の時点で)検出する(例えば、ユーザがメディアライブラリユーザインタフェース内の第3のポジションを注視していることを検出及び/又は決定する)。メディアライブラリユーザインタフェース内の第3のポジションに対応するユーザ視線を検出したことに応じて、コンピュータシステムは、第2のメディアアイテム(例えば、710C)の表現の外観を、第4の方式(例えば、視覚特性の第4のセットを用いて)(いくつかの実施形態では、第4の方式は、第1の方式、第2の方式、及び/又は第3の方式と同じである)で表示されることから、第4の方式とは異なる第5の方式(例えば、図7B図7Cのメディアアイテム710C)で表示されること(例えば、視覚特性の第4のセットとは異なる視覚特性の第5のセットを用いて)に変更する。いくつかの実施形態では、第5の方式は、第1の方式、第2の方式、及び/又は第3の方式と同じである。
【0181】
いくつかの実施形態では、コンピュータシステムは、第3のポジションとは異なるメディアライブラリユーザインタフェース内の第4のポジション(例えば、第2のメディアアイテムの表現に対応するメディアライブラリユーザインタフェース内の第4のポジション、又は第2のメディアアイテムの表現に対応しない(例えば、第2のメディアアイテムとは異なる第3のメディアアイテムの表現に対応する)メディアライブラリユーザインタフェース内の第4のポジション)に対応するユーザ視線を、1つ以上の入力デバイスを介して(例えば、第4の時点の後の第5の時点で)(例えば、第5の方式で第2のメディアアイテムの表現を表示した後又は表示している間に)検出する。(例えば、ユーザがメディアライブラリユーザインタフェース内の第4のポジションを注視していることを検出及び/又は判定する)。メディアライブラリユーザインタフェース内の第4のポジションに対応するユーザ視線を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、第5の方式とは異なる第6の方式で(例えば、視覚特性の第5のセットとは異なる視覚特性の第6のセットを用いて)第2のメディアアイテムの表現を表示する。いくつかの実施形態では、第6の方式は第4の方式と同じである。
【0182】
メディアライブラリユーザインタフェース内の第3のポジションに対応するユーザ視線を検出したことに応じて、第2のメディアアイテムの表現の外観を第4の方式で表示されることから第5の方式で表示されることに変更することは、システムの状態についての視覚的フィードバック(例えば、第3のポジションに対応するユーザ視線が検出されたこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0183】
いくつかの実施形態では、第1のメディアアイテム(例えば、710A)は、第1の要素及び第2の要素を含む複数の要素を含む。いくつかの実施形態では、第1のメディアアイテムの表現を第1の方式で表示することは、第1の要素及び第2の要素を第1の二次元平面(例えば、図7Aのメディアアイテム710A)(例えば、第1の次元及び第1の次元とは異なる(例えば、第1の次元に対して垂直な)第2の次元を含む二次元平面)内に表示する(例えば、第1の要素及び第2の要素を二次元オブジェクト内に及び/又は単一の二次元オブジェクトの一部として表示する)ことを含む。いくつかの実施形態では、第2の方式で第1のメディアアイテムの表現を表示することは、第1の二次元平面(例えば、図7Bのメディアアイテム710A)の外側に延びる第3の次元(例えば、第1の二次元平面に垂直な第3の次元)に沿って第1の要素と第2の要素とを分離することを含む。
【0184】
いくつかの実施形態では、メディアライブラリユーザインタフェースは、x軸及びx軸に垂直なy軸を有する第1の平面を定義し(例えば、メディアライブラリユーザインタフェースは少なくとも1つの平面を含み、平面はx軸及びy軸を定義する)(いくつかの実施形態では、複数のメディアアイテムの表現は、第1の平面上に(例えば、第1の平面内に)表示される)、第1のメディアアイテムは、第1の要素及び第2の要素を含む複数の要素を含み、第1のメディアアイテムの表現を第1の方式で表示することは、z軸上の第1のポジションに複数の要素を表示することを含み、z軸は、x軸及びy軸の両方に垂直であり(例えば、第1のメディアアイテムの表現は、二次元オブジェクトとして表示される)(例えば、第1のメディアアイテム内の複数の要素は、単一の二次元平面(例えば、第1の平面)上に表示される)(いくつかの実施形態では、第1の方式で表示されたときに、第1のメディアアイテムの表現は、第1の平面内に提示される二次元平面オブジェクトとして表示される)(いくつかの実施形態では、メディアライブラリユーザインタフェースによって定義される第1の平面は、z軸上の第1のポジションに位置決めされる)、第1のメディアアイテムの表現を第2の方式で表示することは、第1の要素をz軸上の第2のポジション(いくつかの実施形態では、z軸上の第2のポジションは、z軸上の第1のポジションと同じであるか、又はz軸上の第1のポジションとは異なる)に同時に表示することを含み、第2の要素は、z軸上の第2のポジションとは異なる第3のポジションにある。
【0185】
いくつかの実施形態では、第1のメディアアイテムは第3の要素を含み、第2の方式で第1のメディアアイテムの表現を表示することは、z軸上の第2のポジションに第1の要素を同時に表示することを含み、第2の要素は、第2のポジションとは異なるz軸上の第3のポジションにあり、第3の要素は、第2の及び第3のポジションとは異なるz軸上の第4のポジションにある。
【0186】
メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、要素を第3の次元に拡張することによって、第1のメディアアイテムの表現の外観を第1の方式で表示されることから第2の方式で表示されることに変更することは、システムの状態に関する視覚的フィードバック(例えば、第1のポジションに対応するユーザ視線が検出されたこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0187】
いくつかの実施形態では、第1のメディアアイテムの表現を第1の方式で表示することは、第1のメディアアイテムの表現をユーザに対して第1のポジションに表示することを含む。いくつかの実施形態では、第2の方式で第1のメディアアイテムの表現を表示することは、(例えば、図7A図7Dのメディアアイテム710A~710Fを参照して説明したように)第1のポジションよりもユーザから離れたユーザに対する第2のポジションに第1のメディアアイテムの表現を表示することを含む(例えば、第1のメディアアイテムの表現は、後方に及び/又はユーザから離れるように押される)。
【0188】
いくつかの実施形態では、メディアライブラリユーザインタフェースを表示することは、第1のメディアアイテムの表現と同時に、第1のメディアアイテムの表現とは異なる第3のメディアアイテムの表現を表示することを含み、第2の方式で第1のメディアアイテムの表現を表示することは、ユーザに対する第3のメディアアイテムのポジションを維持しながら、ユーザに対する第2のポジションに第1のメディアアイテムの表現を表示すること(例えば、ユーザに対する第3のメディアアイテムのポジションを維持しながら、第1のメディアアイテムの表現を後方に及び/又はユーザから離れるように移動させること)を含む。
【0189】
いくつかの実施形態では、メディアライブラリユーザインタフェースは、x軸及びx軸に垂直なy軸を有する第1の平面を定義し(例えば、メディアライブラリユーザインタフェースは少なくとも1つの平面を含み、平面はx軸及びy軸を定義する)(いくつかの実施形態では、複数のメディアアイテムの表現は、第1の平面上に(例えば、第1の平面内に)表示される)、第1のメディアアイテムの表現を第1の方式で表示することは、第1のメディアアイテムの表現をz軸上の第1のポジションに表示することを含み、z軸は、x軸及びy軸の両方に垂直であり、更に、メディアライブラリユーザインタフェースの前面は、z軸の正方向を定義し、メディアライブラリユーザインタフェースの背面は、z軸の負方向を定義し(いくつかの実施形態では、z軸の正方向は、ユーザに向かって延び、z軸の負方向は、ユーザから離れて延びる)、第1のメディアアイテムの表現を第2の方式で表示することは、第1のポジションとは異なるz軸上の第2のポジションに第1のメディアアイテムの表現を表示することを含み、第2のポジションは、第1のポジションよりも負のz軸ポジションである(例えば、第1のメディアアイテムは、第1の方式と比較して第2の方式で後方に(例えば、ユーザから更に離れて)押される)(いくつかの実施形態では、第1のメディアアイテムの表現は、z軸上の第2のポジションに、第1の平面と平行に表示される)。
【0190】
いくつかの実施形態では、第1のメディアアイテムの表現を第1の方式で表示している間に、1つ以上(例えば、2つ以上)の他のメディアアイテムの表現がz軸上の第1のポジションに表示され、第1のメディアアイテムの表現を第2の方式で表示している間に、1つ以上(例えば、2つ以上)の他のメディアアイテムの表現がz軸上の第1のポジションに表示される(例えば、維持される)。
【0191】
メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、第1のメディアアイテムの表現をユーザから離れるように移動させることによって、第1のメディアアイテムの表現の外観を第1の方式で表示されることから第2の方式で表示されることに変更することは、システムの状態に関する視覚的フィードバック(例えば、第1のポジションに対応するユーザの視線が検出されたこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0192】
いくつかの実施形態では、第1のメディアアイテムは、ビデオコンテンツ(例えば、映画コンテンツ及び/又は動画コンテンツ)を含む。第1のメディアアイテムの表現を第1の方式で表示することは、第1のメディアアイテムのビデオコンテンツの静的表現を表示すること(例えば、第1のメディアアイテムの静的サムネイル画像表現を表示すること)を含み、第2の方式で第1のメディアアイテムの表現を表示することは、第1のメディアアイテムのビデオコンテンツの再生(例えば、第1のメディアアイテムのビデオコンテンツの少なくともサブセットの再生)を表示すること(例えば、図7A図7Dのメディアアイテム710A~710Fを参照して説明したように)(例えば、第1のメディアアイテムの動画コンテンツ及び/又は映画コンテンツを表示すること)(例えば、メディアライブラリユーザインタフェース内に第1のメディアアイテムのビデオコンテンツの再生を表示すること)(例えば、メディアライブラリユーザインタフェース内の任意の他のメディアアイテムのビデオコンテンツの再生を表示することなく、メディアライブラリユーザインタフェース内の第1のメディアアイテムのビデオコンテンツの再生を表示すること)を含む。メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、第1のメディアアイテムのビデオコンテンツの再生を表示することによって、第1のメディアアイテムの表現の外観を第1の方式で表示されることから第2の方式で表示されることに変更することは、システムの状態に関する視覚的フィードバック(例えば、第1のポジションに対応するユーザ視線が検出されたこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0193】
いくつかの実施形態では、第2の方式とは異なる第3の方式で第1のメディアアイテムの表現を表示することは、(例えば、図7A図7Dのメディアアイテム710A~710Fを参照して説明したように)第1のメディアアイテムのビデオコンテンツの第2の静的表現を表示すること(例えば、第1のメディアアイテムの静的サムネイル画像表現を表示すること)を含む。いくつかの実施形態では、第2の静的表現は、静的表現と同じであるか、又は静的表現とは異なる。いくつかの実施形態では、メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出したことに応じて、コンピュータシステムは、第1のアイテムのビデオコンテンツの再生を中止する。いくつかの実施形態では、メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出したことに応じて、コンピュータシステムは、第1のメディアアイテムとは異なる第2のメディアアイテムの表現の外観を、第2のメディアアイテムのビデオコンテンツの静的表現を表示すること(例えば、第1のアイテムのビデオコンテンツの静的サムネイル画像表現を表示すること)から、第2のメディアアイテムのビデオコンテンツの再生を表示すること(例えば、第2のメディアアイテムの動画コンテンツ及び/又は映画コンテンツを表示すること)に変更する。メディアライブラリユーザインタフェース内の第2のポジションに対応するユーザ視線を検出したことに応じて、(例えば、第1のメディアアイテムのビデオコンテンツの静的表現を表示することによって)第1のメディアアイテムの表現の外観を第2の方式で表示されることから第3の方式で表示されることに変更することは、システムの状態に関する視覚的フィードバック(例えば、第2のポジションに対応するユーザ視線が検出されたこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0194】
いくつかの実施形態では、第2の方式で第1のメディアアイテムの表現を表示することは、(例えば、図7A図7Dのメディアアイテム710A~710Fを参照して説明したように)第1のメディアアイテムのビデオコンテンツにローパスフィルタ(例えば、ぼかしフィルタ及び/又は平滑化フィルタ)を適用することを含む(いくつかの実施形態では、第1のメディアアイテムのビデオコンテンツの再生を表示することは、それを含む)。いくつかの実施形態では、メディアライブラリユーザインタフェースを表示している間に、コンピュータシステムは、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力(例えば、1つ以上のタッチ入力、1つ以上の非タッチ入力、1つ以上のジェスチャ(例えば、1つ以上のエアジェスチャ))を検出し(例えば、ユーザの視線が第1のメディアアイテム上に維持されている及び/又は第1のメディアアイテムに向けられている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、ローパスフィルタが適用されていない第1のメディアアイテムのビデオコンテンツの再生を表示する。いくつかの実施形態では、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、メディアライブラリユーザインタフェースとは異なるメディアプレーヤーユーザインタフェースを表示し(いくつかの実施形態では、コンピュータシステムは、メディアライブラリユーザインタフェースの表示を中止し、及び/又はメディアライブラリユーザインタフェースの少なくとも一部の表示を中止する)、メディアプレーヤーユーザインタフェース内に、低域通過フィルタが適用されていない第1のメディアアイテムのビデオコンテンツの再生を表示する。メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、第1のメディアアイテムの表現の外観を第1の方式で表示されることから第2の方式で表示されることに(例えば、ローパスフィルタが適用された第1のメディアアイテムのビデオコンテンツの再生を表示することによって)変更することは、システムの状態に関する視覚的フィードバック(例えば、第1のポジションに対応するユーザ視線が検出されたこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0195】
いくつかの実施形態では、第1のメディアアイテムのビデオコンテンツの再生を表示することを含む第2の方式で第1のメディアアイテムの表現を表示している間に、コンピュータシステムは、第1のメディアアイテムのオーディオコンテンツ(例えば、第1のメディアアイテムのビデオコンテンツに対応するオーディオコンテンツ)を第1の音量レベルで出力する。メディアライブラリユーザインタフェースを表示している間に(いくつかの実施形態では、第1のメディアアイテムのビデオコンテンツの再生を(例えば、メディアライブラリユーザインタフェース内に)表示している間に、及び/又は第1のメディアアイテムのオーディオコンテンツを第1の音量レベルで出力している間に)、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力(例えば、1つ以上のタッチ入力、1つ以上の非タッチ入力、及び/又は1つ以上のジェスチャ(例えば、1つ以上のエアジェスチャ))(例えば、ユーザの視線が第1のメディアアイテム上に維持されている及び/又は第1のメディアアイテムに向けられている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)を検出する。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、(例えば、図7A図7Dのメディアアイテム710A~710Fを参照して説明したように)第1のメディアアイテムのオーディオコンテンツを第1の音量レベルよりも大きい第2の音量レベルで出力する。いくつかの実施形態では、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力は、1つ以上のエアジェスチャを含む。いくつかの実施形態では、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出することは、ユーザの視線が第1のメディアアイテム上に維持されている及び/又は第1のメディアアイテムに向けられている間に、片手ピンチジェスチャ(例えば、片手ピンチエアジェスチャ)及び/又は両手ピンチ解除ジェスチャ(例えば、両手ピンチ解除エアジェスチャ)を検出すること(例えば、ユーザの視線が第1のメディアアイテム上に維持されている及び/又は第1のメディアアイテムに向けられていることを検出しながら、片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャを検出すること)を含む。いくつかの実施形態では、コンピュータシステムは、第1のメディアアイテムのビデオコンテンツの再生を表示し続けながら、第2の音量レベルで第1のメディアアイテムのオーディオコンテンツを出力する。いくつかの実施形態では、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、メディアライブラリユーザインタフェースとは異なるメディアプレーヤーユーザインタフェースを表示し(いくつかの実施形態では、コンピュータシステムは、メディアライブラリユーザインタフェースの表示を中止し、及び/又はメディアライブラリユーザインタフェースの少なくとも一部の表示を中止する)、メディアプレーヤーユーザインタフェース内に、第1のメディアアイテムのオーディオコンテンツを第2の音量レベルで出力しながら、第1のメディアアイテムのビデオコンテンツの再生を表示する。第1のメディアアイテムのオープン及び/又は選択に応じて、第1のメディアアイテムのオーディオコンテンツが出力される音量を自動的に増加させることは、ユーザが更なるユーザ入力を提供することなく再生音量を増加させることを可能にし、これにより、動作を実行するのに必要な入力の数が低減される。
【0196】
いくつかの実施形態では、第1のメディアアイテムのビデオコンテンツの再生を表示することは、(例えば、図7A図7Dのメディアアイテム710A~710Fを参照して説明したように)メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて(例えば、追加のユーザ入力なしに)実行される。いくつかの実施形態では、第1のメディアアイテムのビデオコンテンツの再生は、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線が閾値持続時間にわたって維持されたという判定に従って表示される。メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出したことに応じて、第1のメディアアイテムのビデオコンテンツの再生を表示することにより、ユーザは、追加のユーザ入力なしに第1のメディアアイテムのビデオコンテンツを再生することができ、これにより、動作を実行するのに必要な入力の数が低減される。
【0197】
いくつかの実施形態では、第1のメディアアイテムは、第1の要素及び第2の要素を含む複数の要素(例えば、第1の層内の第1の要素及び第2の層内の第2の要素を含む、複数の層内に位置決めされた複数の要素(いくつかの実施形態では、各層は、z軸に沿って異なるポジションに位置決めされる))を含む。いくつかの実施形態では、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に、コンピュータシステムは、(例えば、図7A図7Dのメディアアイテム710A~710Fを参照して説明したように)ユーザの視点が第1のメディアアイテムに対してシフトする(例えば、ユーザの視点の移動に応じて、又はユーザの視点が同じ場所に留まっている間の第1のメディアアイテムの移動に応じて、第1の要素を第2の要素に対して移動させる)と、表示生成構成要素を介して、第1の要素を第2の要素に対して移動させて表示する。いくつかの実施形態では、第1の要素は、第1のメディアアイテムに対するユーザの視点の変化の量に基づく量だけ、第2の要素に対してシフトする。いくつかの実施形態では、第1の要素は、第1のメディアアイテムに対するユーザの視点の変化の方向に基づく方向に、第2の要素に対してシフトする。いくつかの実施形態では、第2の要素に対して移動する第1の要素を表示することは、1つ以上のユーザ入力(例えば、1つ以上のジェスチャ(例えば、ユーザの手及び/又は頭部の動き)(例えば、1つ以上のエアジェスチャ)及び/又は1つ以上の非ジェスチャ入力)を検出したことに応じて実行される。メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出している間に第2の要素に対して移動する第1の要素を表示することは、システムの状態に関する視覚的フィードバック(例えば、第1のポジションに対応するユーザ視線が検出されたこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0198】
いくつかの実施形態では、コンピュータシステムは、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース(例えば、708)内の第1のポジションに対応するユーザ視線(例えば、714)を検出する(例えば、第3の方式で第1のメディアアイテムの表現を表示した後及び/又は表示している間に)(例えば、ユーザがメディアライブラリユーザインタフェース内の第1のポジション(例えば、第1のメディアアイテムの表現に対応するメディアライブラリユーザインタフェース内の第1のポジション)を注視していることを検出及び/又は判定する)。メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に(例えば、第3の時点の後の第4の時点で)、コンピュータシステムは、1つ以上の入力デバイスを介して、1つ以上のユーザジェスチャ(例えば、716又は718)(例えば、ユーザの手、頭部、及び/又は身体の移動)(例えば、1つ以上のエアジェスチャ(例えば、片手ピンチエアジェスチャ、片手ダブルピンチエアジェスチャ、ピンチアンドドラッグエアジェスチャ、両手ピンチエアジェスチャ、及び/又は両手ピンチ解除エアジェスチャ))(いくつかの実施形態では、1つ以上の非ジェスチャ入力)(いくつかの実施形態では、第1のメディアアイテムの選択に対応する1つ以上のユーザジェスチャ)を検出する。メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に1つ以上のユーザジェスチャを検出したことに応じて、コンピュータシステムは、第1のメディアアイテムの表現の外観を、表示生成構成要素を介して、第7の方式で(例えば、視覚特性の第7のセットを用いて)表示されることから、第7の方式とは異なる第8の方式で(例えば、視覚特性の第8のセットを用いて)表示されることに変更する(例えば、図7D図7Fを参照して説明したように、ユーザジェスチャ718に応じてメディアアイテム710Fの外観を変更する)。いくつかの実施形態では、第7の方式は第2の方式と同じである。いくつかの実施形態では、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に1つ以上のユーザジェスチャを検出したことに応じて、コンピュータシステムは、第1のメディアアイテムの表現の外観を、第2の方式で表示されることから、第2の方式とは異なる第8の方式で表示されることに変更する。メディアライブラリ内の第1のポジションに対応するユーザ視線を検出し続けている間に1つ以上のユーザジェスチャを検出したことに応じて第1のメディアアイテムの表現の外観を変更することは、システムの状態(例えば、システムが、第1のポジションに対応するユーザ視線を検出し続けている間に1つ以上のユーザジェスチャを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0199】
いくつかの実施形態では、1つ以上のユーザジェスチャは、ピンチジェスチャ(例えば、ピンチエアジェスチャ)(例えば、片手ピンチジェスチャ又は両手ピンチジェスチャ)(例えば、(例えば、図7D図7Fを参照して説明されるように)2本の指(例えば、片手又は両手の2本の指)が互いに対して第1の距離から互いに対して第2の距離まで移動し、第2の距離が第1の距離よりも小さい)を含む。いくつかの実施形態では、第2の距離は、閾値距離よりも小さい(例えば、2本の指は、距離閾値を満たすのに十分に近いポジションに移動される)。いくつかの実施形態では、ピンチジェスチャは、第1のメディアアイテムのユーザ選択(例えば、任意の他のメディアアイテムの選択を伴わない第1のメディアアイテムのユーザ選択(例えば、第1のメディアアイテムのみのユーザ選択))を示す選択ジェスチャに対応し、第8の方式での第1のメディアアイテムの表現の表示は、第1のメディアアイテムのユーザ選択を示し(例えば、複数のメディアアイテムのうちの任意の他のメディアアイテムを選択することなく、複数のメディアアイテムからの第1のメディアアイテムのユーザ選択(例えば、第1のメディアアイテムのみのユーザ選択)を示す)、第7の方式での第1のメディアアイテムの表現の表示は、第1のメディアアイテムのユーザ選択を示さない。
【0200】
いくつかの実施形態では、第1のメディアアイテムの表現の外観を第7の方式で表示されることから第8の方式で表示されることに変更することは、第1のメディアアイテムの表現のサイズを拡大することを含む。いくつかの実施形態では、第1のメディアアイテムの表現の外観を第7の方式で表示されることから第8の方式で表示されることに変更することは、第1のメディアアイテムの再生を開始すること(例えば、第1のメディアアイテムのビデオ再生を開始すること)を含む。いくつかの実施形態では、第1のメディアアイテムの表現の外観を第7の方式で表示されることから第8の方式で表示されることに変更することは、メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース内に第1のメディアアイテムの表現を表示することを含む。いくつかの実施形態では、ピンチジェスチャを含む1つ以上のユーザジェスチャを検出したことに応じて、コンピュータシステムは、第1のメディアアイテムの表現とは異なる1つ以上のメディアアイテムの表現(例えば、メディアライブラリユーザインタフェースに表示されていた1つ以上のメディアアイテムの表現)を表示することを中止する。
【0201】
メディアライブラリ内の第1のポジションに対応するユーザ視線を検出し続けている間に1つ以上のユーザジェスチャを検出したことに応じて第1のメディアアイテムの表現の外観を変更することは、システムの状態(例えば、システムが、第1のポジションに対応するユーザ視線を検出し続けている間に1つ以上のユーザジェスチャを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0202】
いくつかの実施形態では、第1のメディアアイテム(例えば、710A~710F)は、第1の要素及び第2の要素を含む複数の要素を含む。いくつかの実施形態において、第7の方式で第1のメディアアイテムの表現を表示することは、第1の要素を第1のポジションに表示することと、第2の要素を、第1のポジションよりもコンピュータシステムのユーザに近い第2のポジションに表示することと、を含む。いくつかの実施形態では、1つ以上のユーザジェスチャ(例えば、1つ以上のエアジェスチャ)は、第1のジェスチャ(例えば、第1のエアジェスチャ)を含む。いくつかの実施形態では、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に第1のジェスチャを検出したことに応じて、コンピュータシステムは、(例えば、図7D図7Fを参照して説明したように)第1の要素に対して第2の要素を移動させて、第1の要素と第2の要素との間の距離を減少させる。いくつかの実施形態では、第1のジェスチャは、ピンチジェスチャ(例えば、ピンチエアジェスチャ)(例えば、第1の指が第2の指のより近くに移動するジェスチャ)であり、第2の要素は、ピンチジェスチャの大きさに基づいて(例えば、1本の指の別の指に対する移動量に基づいて)、軸に沿った第1の要素と第2の要素との間の距離を減少させるために、第1の要素に対して軸に沿って移動される。
【0203】
いくつかの実施形態では、メディアライブラリユーザインタフェースは、x軸及びx軸に垂直なy軸を有する第1の平面を定義し(例えば、メディアライブラリユーザインタフェースは少なくとも1つの平面を含み、平面はx軸及びy軸を定義する)(いくつかの実施形態では、複数のメディアアイテムの表現は、第1の平面上に(例えば、第1の平面内に)表示される)、第1のメディアアイテムは、第1の要素及び第2の要素を含む複数の要素を含み、第7の方式で第1のメディアアイテムの表現を表示することは、第1の要素をz軸上の第1のポジションに、第2の要素をz軸上の第2のポジションとは異なる第2のポジションに同時に表示することを含み、1つ以上のユーザジェスチャは、第1のジェスチャを含み、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に第1のジェスチャを検出したことに応じて、コンピュータシステムは、第1のジェスチャの大きさに基づいて、第1の要素に対してz軸に沿って第2の要素を移動させて、z軸に沿った第1の要素と第2の要素との間の距離を減少させる。いくつかの実施形態では、第1のジェスチャは、ピンチジェスチャ(例えば、ピンチエアジェスチャ)(例えば、第1の指が第2の指のより近くに移動するジェスチャ)であり、第2の要素は、ピンチジェスチャの大きさに基づいて(例えば、別の指に対する1本の指の移動量に基づいて)、z軸に沿った第1の要素と第2の要素との間の距離を減少させるように、第1の要素に対してz軸に沿って移動される。
【0204】
第1のポジションに対応するユーザ視線を検出し続けている間に第1のジェスチャを検出したことに応じて第1の要素に対して第2の要素を移動させることは、システムの状態(例えば、第1のポジションに対応するユーザ視線を検出し続けている間にシステムが第1のジェスチャを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0205】
いくつかの実施形態では、1つ以上のユーザジェスチャは、第1のジェスチャに続いて実行される第2のジェスチャ(例えば、第2のエアジェスチャ)を含む。いくつかの実施形態では、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に第2のジェスチャを検出したことに応じて、コンピュータシステムは、(例えば、図7D図7Fを参照して説明されるように)(例えば、第2のジェスチャの大きさに基づいて)第1の要素と第2の要素との間の距離を増加させるために、第1の要素に対して第2の要素を移動させる(例えば、所定の軸に沿って第2の要素を移動させる)。いくつかの実施形態では、第1の要素と第2の要素との間の距離を増加させるように第1の要素に対して第2の要素を移動させることは、第1の要素を軸(例えば、所定の軸(例えば、コンピュータシステムのユーザに向かって延びる軸))上の第1のポジションに移動させること、及び/又は第2の要素を軸上の第2のポジションに移動させることを含む。いくつかの実施形態では、第2のジェスチャは、ピンチ解除ジェスチャ(例えば、エアピンチ解除ジェスチャ)(例えば、第1の指が第2の指から更に移動するジェスチャ)である。いくつかの実施形態では、第2の要素は、第1の要素に対して移動され(例えば、軸に沿って移動され)、ピンチ解除ジェスチャの大きさに基づいて(例えば、別の指に対する1本の指の移動量に基づいて)、第1の要素と第2の要素との間の距離を増加させる。いくつかの実施形態では、第1の要素と第2の要素との間の距離を増加させるために第1の要素に対して第2の要素を移動させることは、第1のジェスチャが完了閾値を満たさなかったという判定に従って実行される。メディアライブラリ内の第1のポジションに対応するユーザ視線を検出し続けている間に第2のジェスチャを検出したことに応じて第1の要素に対して第2の要素を移動させることは、システムの状態(例えば、第1のポジションに対応するユーザ視線を検出し続けている間にシステムが第2のジェスチャを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0206】
いくつかの実施形態では、1つ以上のユーザジェスチャ(例えば、718)は、第1のジェスチャに続いて実行される第3のジェスチャ(例えば、第3のエアジェスチャ)を含み、第3のジェスチャは、第1のメディアアイテムのユーザ選択(例えば、任意の他のメディアアイテムを選択しない第1のメディアアイテムのユーザ選択(例えば、第1のメディアアイテムのみの選択))を示す。いくつかの実施形態では、第3のジェスチャは、第1のジェスチャの継続(例えば、完了閾値を超える第1のジェスチャの継続)である。いくつかの実施形態では、第3のジェスチャを検出したことに応じて、コンピュータシステムは、(例えば、図7D図7Fを参照して説明されるように)第1の要素と第2の要素との間の距離を(例えば、所定の軸に沿って)増加させる。いくつかの実施形態では、第1のジェスチャを検出したことに応じて、第1の要素と第2の要素との間の距離を第1の距離まで減少させ、第3のジェスチャを検出したことに応じて、第1の要素と第2の要素との間の距離を第1の距離から第2の距離まで増加させる。いくつかの実施形態では、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に第1のジェスチャを検出したことに応じて、コンピュータシステムは、第1のジェスチャの大きさに基づいて、第1の要素に対して第2の要素を移動させて、第1の要素と第2の要素との間の距離を第1の距離まで減少させ、第1の要素に対して第2の要素を移動させて、第1の要素と第2の要素との間の距離を第1の距離まで減少させた後に、第1のジェスチャが完了閾値を満たすという判定に従って、コンピュータシステムは、第1の要素と第2の要素との間の距離を第2の距離まで増加させる。第3のジェスチャを検出したことに応じて第1の要素と第2の要素との間の距離を増加させることは、システムの状態(例えば、システムが第3のジェスチャを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0207】
いくつかの実施形態では、メディアライブラリユーザインタフェース(例えば、708)を表示することは、第1のメディアアイテム(例えば、710A~710F)の表現と同時に、第1のメディアアイテム(例えば、710A~710F)の表現とは異なる第2のメディアアイテムの表現を表示することを含む。1つ以上のユーザジェスチャは、第1の選択ジェスチャ(例えば、エアジェスチャ)(例えば、718)(例えば、エアタップジェスチャ(例えば、いかなる表面又はオブジェクトにも接触しないタップジェスチャ)、第1のメディアアイテムの選択(例えば、図7Dにおけるメディアアイテム710Fの選択)(例えば、任意の他のメディアアイテムの選択を伴わない第1のメディアアイテムの選択(例えば、第1のメディアアイテムのみの選択))に対応する2本指のピンチジェスチャ、2本指のピンチ解除ジェスチャ、片手ピンチジェスチャ、及び/又は片手ピンチ解除ジェスチャ)を含む。いくつかの実施形態では、第1の選択ジェスチャを検出することは、既定のジェスチャ(例えば、エアジェスチャ)を検出するとともに、ユーザの視線が第1のメディアアイテムに向けられている及び/又は第1のメディアアイテム上に維持されていること(例えば、ユーザの視線が第1のメディアアイテムに向けられている及び/又は第1のメディアアイテム上に維持されている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)も検出することを含む。いくつかの実施形態では、第1のメディアアイテムの選択に対応する第1の選択ジェスチャを検出したことに応じて、コンピュータシステムは、(例えば、図7D図7Fを参照して説明したように)第2のメディアアイテムの表現を視覚的に不明瞭にする(例えば、第2のメディアアイテムの表現をぼかす)。第1の選択ジェスチャを検出したことに応じて第2のメディアアイテムの表現を視覚的に不明瞭にすることは、システムの状態(例えば、システムが第1のメディアアイテムの選択に対応する第1の選択ジェスチャを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0208】
いくつかの実施形態では、メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線(例えば、714)を検出している間に(及び、任意選択的に、第2の方式で第1のメディアアイテムの表現を表示している間に)、コンピュータシステムは、1つ以上の入力デバイスを介して、1つ以上のユーザジェスチャ(例えば、718)(例えば、ユーザの手、頭部(例えば、左右)、及び/又は身体部分の移動(例えば、1つ以上のエアジェスチャ))の第2のセットを検出する。1つ以上のユーザジェスチャの第2のセットを検出したことに応じて、コンピュータシステムは、1つ以上のユーザジェスチャの第2のセットに基づいて(例えば、1つ以上のユーザジェスチャの第2のセットの移動の方向に基づいて)第1のメディアアイテムの表現の視覚的コンテンツをシフトする(例えば、図7C図7D)。いくつかの実施形態では、1つ以上のユーザジェスチャの第2のセットを検出したことに応じて、コンピュータシステムは、追加のコンテンツ(例えば、第1のメディアアイテムの追加のコンテンツ及び/又はメディアライブラリユーザインタフェースの追加のコンテンツ)を表示する。1つ以上のユーザジェスチャの第2のセットを検出したことに応じて第1のメディアアイテムの表現の視覚的コンテンツをシフトすることは、システムの状態(例えば、システムが1つ以上のユーザジェスチャの第2のセットを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスであるとき、1つ以上のユーザジェスチャの第2のセットは、ユーザの頭部の回転に対応する。
【0209】
いくつかの実施形態では、メディアライブラリユーザインタフェース(例えば、708)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、ピンチジェスチャ(例えば、ピンチエアジェスチャ)(例えば、2本の指を互いに隣り合わせに配置すること、及び/又は2本の指を互いに近づける移動)及びドラッグジェスチャ(例えば、ドラッグエアジェスチャ)(例えば、ある方向への手の移動(例えば、ピンチされた手の移動))(例えば、ピンチアンドドラッグジェスチャ)を含む1つ以上のユーザジェスチャの第3のセット(例えば、716)(例えば、1つ以上のエアジェスチャ)を検出する。1つ以上のユーザジェスチャの第3のセットを検出したことに応じて、コンピュータシステムは、メディアライブラリユーザインタフェースのスクロールを表示する(例えば、図7C図7D)。いくつかの実施形態では、1つ以上のユーザジェスチャの第3のセットを検出する前に、コンピュータシステムは、メディアアイテムの第1のセットの表現を表示し、メディアライブラリユーザインタフェースのスクロールを表示することは、1つ以上のユーザジェスチャの第3のセットを検出した後に、メディアアイテムの第1のセットとは異なるメディアアイテムの第2のセットの表現を表示することを含む。いくつかの実施形態では、メディアライブラリユーザインタフェースのスクロールを表示することは、メディアアイテムの第1のセットの少なくともサブセットがもはや表示されなくなるまで、ある方向にメディアアイテムの第1のセットのスクロールを表示することを含む。1つ以上のユーザジェスチャの第3のセットを検出したことに応じてメディアライブラリユーザインタフェースのスクロールを表示することは、システムの状態(例えば、システムが1つ以上のユーザジェスチャの第3のセットを検出したこと)についての視覚的フィードバックをユーザに与え、これは、改善された視覚的フィードバックを提供する。
【0210】
いくつかの実施形態では、メディアライブラリユーザインタフェース(例えば、708)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテム(例えば、710F)の選択に対応する1つ以上のユーザ入力(例えば、718)(例えば、1つ以上のジェスチャ入力(例えば、1つ以上のエアジェスチャ)及び/又は1つ以上の非ジェスチャ入力(例えば、ユーザの視線が第1のメディアアイテムに向けられている及び/又は第1のメディアアイテム上に維持されている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)(例えば、任意の他のメディアアイテムを選択することなく第1のメディアアイテムを選択すること(例えば、第1のメディアアイテムのみを選択すること))を検出する。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース(例えば、719)に第1のメディアアイテムを表示する。いくつかの実施形態では、選択されたメディアユーザインタフェースは、メディアライブラリユーザインタフェースをオーバーレイする。いくつかの実施形態では、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、メディアライブラリユーザインタフェースの表示を中止するか、又はメディアライブラリユーザインタフェースの少なくとも一部の表示を中止する。選択されたメディアユーザインタフェース内に第1のメディアアイテムを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、ピンチジェスチャ(例えば、ピンチエアジェスチャ)(例えば、互いに隣り合う2本の指の配置及び/又は互いに近づく2本の指の移動)及びドラッグジェスチャ(例えば、ドラッグエアジェスチャ)(例えば、ある方向への手の移動(例えば、ピンチされた手の移動))(例えば、第1の方向へのピンチアンドドラッグジェスチャ)を含む1つ以上のユーザジェスチャの第4のセット(例えば、732)(例えば、1つ以上のエアジェスチャ)を検出する。1つ以上のユーザジェスチャの第4のセットを検出したことに応じて、コンピュータシステムは、選択されたメディアユーザインタフェース内の第1のメディアアイテムの表示を中止し、表示生成構成要素を介して、選択されたメディアユーザインタフェース内に第1のメディアアイテムとは異なる第2のメディアアイテムを表示する(例えば、図7Fを参照して説明したように)。いくつかの実施形態では、コンピュータシステムは、選択されたメディアユーザインタフェース内の第1のメディアアイテムの表示を、選択されたメディアユーザインタフェース内の第2のメディアアイテムの表示に置換する。いくつかの実施形態では、選択されたメディアユーザインタフェース内に第2のメディアアイテムを表示することは、ドラッグジェスチャ(例えば、ピンチアンドドラッグジェスチャ)が特定の方向(例えば、左方向、右方向、上方向、及び/又は下方向)に対応するという判定に従って実行される。いくつかの実施形態では、特定の方向とは異なる方向へのピンチアンドドラッグジェスチャは、異なるアクション(例えば、選択されたメディアユーザインタフェースの表示を中止すること、及び/又はメディアライブラリユーザインタフェースを表示すること)をもたらす。1つ以上のユーザジェスチャの第4のセットを検出したことに応じて、選択されたメディアユーザインタフェース内の第1のメディアアイテムの表示を中止し、選択されたメディアユーザインタフェース内の第1のメディアアイテムとは異なる第2のメディアアイテムを表示することは、システムの状態(例えば、システムが1つ以上のユーザジェスチャの第4のセットを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0211】
いくつかの実施形態では、メディアライブラリユーザインタフェース(例えば、708)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテム(例えば、710F)の選択に対応する1つ以上のユーザ入力(例えば、718)(例えば、1つ以上のジェスチャ入力(例えば、1つ以上のエアジェスチャ)及び/又は1つ以上の非ジェスチャ入力(例えば、ユーザの視線が第1のメディアアイテムに向けられている及び/又は第1のメディアアイテム上に維持されている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)(例えば、任意の他のメディアアイテムを選択することなく第1のメディアアイテムを選択すること(例えば、第1のメディアアイテムのみを選択すること))を検出する。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース(例えば、719)に第1のメディアアイテム(例えば、710F)を表示する。いくつかの実施形態では、選択されたメディアユーザインタフェースは、メディアライブラリユーザインタフェースをオーバーレイする。いくつかの実施形態では、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、メディアライブラリユーザインタフェースの表示を中止するか、又はメディアライブラリユーザインタフェースの少なくとも一部の表示を中止する。選択されたメディアユーザインタフェース内に第1のメディアアイテムを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、ピンチジェスチャ(例えば、2本の指を互いに隣り合わせに配置すること、及び/又は2本の指を互いに近づける移動)及びドラッグジェスチャ(例えば、ある方向への手の移動(例えば、ピンチされた手の移動))(例えば、第1の方向へのピンチアンドドラッグジェスチャ)を含む1つ以上のユーザジェスチャの第5のセット(例えば、732)(例えば、1つ以上のエアジェスチャ)を検出する。1つ以上のユーザジェスチャの第5のセットを検出したことに応じて、コンピュータシステムは、選択されたメディアユーザインタフェースの表示を中止し、表示生成構成要素を介して、(例えば、図7Fを参照して説明したように)メディアライブラリユーザインタフェース(例えば、708)を(例えば、選択されたメディアユーザインタフェースによって以前に占有されていたロケーションに)表示する。いくつかの実施形態では、選択されたメディアユーザインタフェースの表示を中止し、メディアライブラリユーザインタフェースを表示することは、ドラッグジェスチャ(例えば、ピンチアンドドラッグジェスチャ)が特定の方向(例えば、左方向、右方向、上方向、及び/又は下方向)に対応するという判定に従って実行される。いくつかの実施形態では、特定の方向とは異なる方向へのピンチアンドドラッグジェスチャは、異なるアクションをもたらす(例えば、選択されたメディアユーザインタフェース内の第1のメディアアイテムの表示を、選択されたメディアユーザインタフェース内の異なるメディアアイテムと置換する)。1つ以上のユーザジェスチャの第5のセットを検出したことに応じて、選択されたメディアユーザインタフェースの表示を中止し、メディアライブラリユーザインタフェースを表示することは、システムの状態(例えば、システムが1つ以上のユーザジェスチャの第5のセットを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0212】
いくつかの実施形態では、メディアライブラリユーザインタフェース(例えば、708)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテム(例えば、710F)の選択に対応する1つ以上のユーザ入力(例えば、718)(例えば、1つ以上のジェスチャ入力(例えば、1つ以上のエアジェスチャ)及び/又は1つ以上の非ジェスチャ入力(例えば、ユーザの視線が第1のメディアアイテムに向けられている及び/又は第1のメディアアイテム上に維持されている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)(例えば、任意の他のメディアアイテムを選択することなく第1のメディアアイテムを選択すること(例えば、第1のメディアアイテムのみを選択すること))を検出する。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース(例えば、719)に第1のメディアアイテム(例えば、710F)を表示する。いくつかの実施形態では、選択されたメディアユーザインタフェースは、メディアライブラリユーザインタフェースをオーバーレイする。いくつかの実施形態では、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、メディアライブラリユーザインタフェースの表示を中止するか、又はメディアライブラリユーザインタフェースの少なくとも一部の表示を中止する。選択されたメディアユーザインタフェース内に第1のメディアアイテムを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、ピンチジェスチャ(例えば、2本の指を互いに隣り合わせに配置すること、及び/又は2本の指を互いに近づける移動)及びドラッグジェスチャ(例えば、ある方向への手の移動(例えば、ピンチされた手の移動))(例えば、第1の方向へのピンチアンドドラッグジェスチャ)を含む1つ以上のユーザジェスチャの第6のセット(例えば、1つ以上のエアジェスチャ)(例えば、732)を検出する。1つ以上のユーザジェスチャの第6のセットを検出したことに応じて、ドラッグジェスチャ(例えば、ピンチアンドドラッグジェスチャ)が第1の方向(例えば、左方向、右方向、上方向、及び/又は下方向)に対応するという判定に従って、コンピュータシステムは、選択されたメディアユーザインタフェース内での第1のメディアアイテムの表示を中止し、表示生成構成要素を介して、選択されたメディアユーザインタフェース内で第1のメディアアイテムとは異なる第2のメディアアイテムを表示する。いくつかの実施形態では、第2のメディアアイテムを表示することは、選択されたメディアユーザインタフェース内の第1のメディアアイテムの表示を、選択されたメディアユーザインタフェース内の第2のメディアアイテムの表示と置換することを含む。いくつかの実施形態では、1つ以上のユーザジェスチャの第6のセットを検出したことに応じて、ドラッグジェスチャ(例えば、ピンチアンドドラッグジェスチャ)が第1の方向とは異なる第2の方向(例えば、左方向、右方向、上方向、及び/又は下方向)に対応するという判定に従って、コンピュータシステムは、選択されたメディアユーザインタフェースの表示を中止し、表示生成構成要素を介して、(例えば、図7Fを参照して説明されるように)メディアライブラリユーザインタフェースを表示する。
【0213】
いくつかの実施形態では、1つ以上のユーザジェスチャの第6のセットを検出したことに応じて、ドラッグジェスチャが第1の方向及び第2の方向とは異なる(かつ、任意選択的に第1の方向とは反対の)第3の方向であるという判定に従って、コンピュータシステムは、選択されたメディアユーザインタフェース内の第1のメディアアイテムの表示を中止し、表示生成構成要素を介して、選択されたメディアユーザインタフェース内の第1のメディアアイテム及び第2のメディアアイテムとは異なる第3のメディアアイテムを表示する。いくつかの実施形態では、コンピュータシステムは、選択されたメディアユーザインタフェース内の第1のメディアアイテムの表示を、選択されたメディアユーザインタフェース内の第3のメディアアイテムの表示に置換する。
【0214】
1つ以上のユーザジェスチャの第6のセットを検出したことに応じて、かつドラッグジェスチャが第1の方向に対応するという判定に従って、選択されたメディアユーザインタフェース内の第1のメディアアイテムの表示を中止し、選択されたメディアユーザインタフェース内の第1のメディアアイテムとは異なる第2のメディアアイテムを表示することは、システムの状態(例えば、システムが1つ以上のユーザジェスチャの第6のセットを検出し、ジェスチャの第6のセットが第1の方向に対応すると判定したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0215】
1つ以上のユーザジェスチャの第6のセットを検出したことに応じて、ドラッグジェスチャが第2の方向に対応するという判定に従って、選択されたメディアユーザインタフェースの表示を中止し、メディアライブラリユーザインタフェースを表示することは、システムの状態(例えば、システムが1つ以上のユーザジェスチャの第6のセットを検出し、1つ以上のユーザジェスチャの第6のセットが第2の方向に対応すると判定したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0216】
いくつかの実施形態では、メディアライブラリユーザインタフェース(例えば、708)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテム(例えば、710F)の選択(例えば、ユーザの視線が第1のメディアアイテムに向けられている及び/又は第1のメディアアイテム上に維持されている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)に対応する1つ以上のユーザ入力(例えば、718)(例えば、1つ以上のジェスチャ入力(例えば、1つ以上のエアジェスチャ)及び/又は1つ以上の非ジェスチャ入力)を検出する(例えば、任意の他のメディアアイテムを選択せずに第1のメディアアイテムを選択する(例えば、第1のメディアアイテムのみを選択する))。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、表示生成構成要素を介して、メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース(例えば、719)に第1のメディアアイテム(例えば、710F)を表示する。いくつかの実施形態では、選択されたメディアユーザインタフェースは、メディアライブラリユーザインタフェースをオーバーレイする。いくつかの実施形態では、第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、メディアライブラリユーザインタフェースの表示を中止するか、又はメディアライブラリユーザインタフェースの少なくとも一部の表示を中止する。選択されたメディアユーザインタフェース内に第1のメディアアイテムを表示している間に、ユーザの手(例えば、ユーザの1つ以上の手)が第1の状態(例えば、持ち上げられた状態及び/又は第1のポーズ)にあるという判定に従って、コンピュータシステムは、表示生成構成要素を介して、ユーザインタフェースコントロールの第1のセット(例えば、728A、728B、728C、及び/又は740)(例えば、選択可能なコントロール、クローズオプション、共有オプション、時間情報、日付情報、ロケーション情報、及び/又は再生コントロール(例えば、再生オプション、一時停止オプション、早送りオプション、及び/又は巻き戻しオプション))を表示する。いくつかの実施形態では、ユーザインタフェースコントロールの第1のセットを表示している間に、コンピュータシステムは、ユーザインタフェースコントロールの第1のセットの第1のユーザインタフェースコントロールの選択に対応する1つ以上の選択入力を検出し、1つ以上の選択入力を検出したことに応じて、第1のメディアアイテムの表示を修正する(例えば、第1のメディアアイテムを閉じる(例えば、表示を中止する)、第1のメディアアイテムの再生を開始及び/又は一時停止する、第1のメディアアイテムの再生を前方及び/又は後方にスキップする、第1のメディアアイテムの再生を減速及び/又は加速する)。いくつかの実施形態では、ユーザインタフェースコントロールの第1のセットは、第1のメディアアイテムを閉じる(例えば、その表示を中止する)ために選択可能な第1のユーザインタフェースコントロール(例えば、クローズオプション)を含む。いくつかの実施形態では、1つ以上のユーザインタフェースコントロールの第1のセットは、第1のメディアアイテムを1つ以上の外部電子デバイス(例えば、共有オプション)に共有するためのプロセスを開始するために選択可能な第2のユーザインタフェースコントロールを含む。いくつかの実施形態では、1つ以上のユーザインタフェースコントロールの第1のセットは、第1のメディアアイテムの再生を再開及び/又は開始するために選択可能な第3のユーザインタフェースコントロール(例えば、再生オプション)を含む。いくつかの実施形態では、1つ以上のユーザインタフェースコントロールの第1のセットは、第1のメディアアイテムの再生を一時停止するために選択可能な第4のユーザインタフェースコントロール(例えば、一時停止オプション)を含む。いくつかの実施形態では、1つ以上のユーザインタフェースコントロールの第1のセットは、第1のメディアアイテムの再生をスキップ及び/又は加速するように選択可能な第5のユーザインタフェースコントロール(例えば、早送りオプション)を含む。いくつかの実施形態では、1つ以上のユーザインタフェースコントロールの第1のセットは、第1のメディアアイテムの再生を後方にスキップ、減速、及び/又は逆再生するように選択可能な第6のユーザインタフェースコントロール(例えば、巻き戻しオプション)を含む。ユーザの手(例えば、ユーザの1つ以上の手)が第1の状態とは異なる第2の状態(例えば、下げられた状態及び/又は第2のポーズ)にあるという判定に従って、コンピュータシステムは、(例えば、図7Nを参照して説明されるように)ユーザインタフェースコントロールの第1のセットを表示することを取り止める。
【0217】
いくつかの実施形態では、ユーザインタフェースコントロールの第1のセットは、第1のメディアアイテム上にオーバーレイされることなく(例えば、第1のメディアアイテムの上及び/又は下に)表示される。いくつかの実施形態では、ユーザインタフェースコントロールの第1のセットを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、ユーザの手が第1の状態から第2の状態に移動したことを検出し、ユーザの手が第1の状態から第2の状態に移動したことを検出したことに応じて、ユーザインタフェースコントロールの第1のセットの表示を中止する。
【0218】
ユーザの手が第1の状態にあるという判定に従ってユーザインタフェースコントロールの第1のセットを表示することは、システムの状態(例えば、ユーザの手が第1の状態にあることをシステムが検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0219】
ユーザの手が第2の状態にあるときにユーザインタフェースコントロールの第1のセットを表示することを取り止めること、及びユーザの手が第1の状態にあるときにユーザインタフェースコントロールの第1のセットを表示することは、ユーザインタフェースを混乱させることなく追加のコントロールオプションを提供する。
【0220】
いくつかの実施形態では、メディアライブラリユーザインタフェース(例えば、708)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテム(例えば、710F)の選択に対応する1つ以上のユーザジェスチャの第7のセット(例えば、718)(例えば、1つ以上のエアジェスチャ)(例えば、ユーザの視線が第1のメディアアイテムに向けられている及び/又は第1のメディアアイテム上に維持されている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)(例えば、他のメディアアイテムを選択することなく第1のメディアアイテムを選択すること(例えば、第1のメディアアイテムのみを選択すること))を検出する。1つ以上のユーザジェスチャの第7のセットを検出したことに応じて、コンピュータシステムは、照明効果の第1のセット(例えば、視覚的照明特性の第1のセット)を表示することから、照明効果の第1のセットとは異なる照明効果の第2のセット(例えば、視覚的照明特性の第2のセット)を表示することに遷移させ、照明効果の第1のセットを表示することに続いて、表示生成構成要素を介して、照明効果の中間セット(例えば、視覚的照明特性の第1のセット及び視覚的照明特性の第2のセットとは異なる視覚的照明特性の中間セット)を表示することであって、照明効果の中間セットは、照明効果の第1のセット及び照明効果の第2のセットとは異なる(いくつかの実施形態では、照明効果の第1のセットは、第1の照明特性(例えば、輝度、コントラスト、彩度)に対する第1の値(例えば、第1の数値)を有し、照明効果の第2のセットは、第1の照明特性に対する第1の値とは異なる第2の値を有し、照明効果の中間セットは、第1の照明特性に対する第1及び第2の値とは異なる第3の値を有し、第3の値は、第1の値と第2の値との間にある)、ことと、照明効果の中間セットを表示することに続いて、表示生成構成要素を介して、(例えば、図7D図7Fを参照して説明したように)照明効果の第2のセットを表示することと、を含む。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスである場合、照明効果の第1のセット及び/又は第2のセットの外観は、ユーザが物理的環境内で自身を再配置したこと及び/又はユーザが(例えば、ユーザがコンピュータシステムを装着している間に)自身の頭部を回転させたことをコンピュータシステムが検出したことに応じて変化する。
【0221】
いくつかの実施形態では、照明効果の第1のセットを表示することから照明効果の第2のセットを表示することに遷移させることは、照明効果の第1のセットから照明効果の第2のセットに徐々に遷移させることを含む(例えば、照明効果の第1のセットと照明効果の第2のセットとの間に適用される複数の中間照明効果)。いくつかの実施形態では、照明効果の第1のセットを表示することから照明効果の第2のセットを表示することに遷移させることは、複数の光線(例えば、様々な色、長さ、及び/又は強度の複数の光線)がメディアウィンドウから延びる光スピル効果を徐々に適用する(例えば、光スピル効果の輝度及び/又は強度を徐々に増加させる)ことを含む。いくつかの実施形態では、光スピル効果は、選択されたメディアアイテムに基づいて決定される(例えば、どのメディアアイテムが選択されたかに基づいて異なる)。いくつかの実施形態では、照明効果の第1のセットを表示することから照明効果の第2のセットを表示することに遷移させることは、メディアライブラリユーザインタフェースと同時に表示される背景コンテンツを徐々に暗くすることを含む。いくつかの実施形態では、1つ以上のユーザジェスチャの第7のセットを検出したことに応じて、選択された第1のメディアアイテムは、選択されたメディアアイテムユーザインタフェースに表示される。いくつかの実施形態では、背景コンテンツは、第1の時点でメディアライブラリユーザインタフェースと同時に表示され、第2の時点で選択されたメディアアイテムユーザインタフェースと同時に表示される。いくつかの実施形態では、背景コンテンツは、メディアライブラリユーザインタフェースと同時に表示されている間は明るい状態で表示され、選択されたメディアアイテムユーザインタフェースと同時に表示されている間は暗い状態で表示される。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスである場合、照明効果の第1のセット及び/又は第2のセットの外観は、ユーザが物理的環境内で自身を再配置したこと及び/又はユーザが(例えば、ユーザがコンピュータシステムを装着している間に)自身の頭部を回転させたことをコンピュータシステムが検出したことに応じて変化する。
【0222】
1つ以上のユーザジェスチャの第7のセットを検出したことに応じて照明効果の第1のセットを表示することから照明効果の第2のセットを表示することに遷移させることは、システムの状態(例えば、システムが1つ以上のユーザジェスチャの第7のセットを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0223】
いくつかの実施形態では、コンピュータシステムは、表示生成構成要素を介して、メディアライブラリユーザインタフェース(例えば、708)とは異なる選択されたメディアユーザインタフェース(例えば、719)(例えば、第1のメディアアイテムの選択を示す(例えば、第1のメディアアイテムのみの選択を示す)選択されたメディアユーザインタフェース(例えば、第1のメディアアイテムが視覚的に強調される(例えば、他のメディアアイテムよりも大きいサイズで表示される、及び/又は表示されているメディアライブラリの唯一のメディアアイテムである)選択されたメディアユーザインタフェース)に第1のメディアアイテム(例えば、710F)を表示する。選択されたメディアユーザインタフェース内に第1のメディアアイテムを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、選択されたメディアユーザインタフェースを閉じるユーザ要求(例えば、ピンチアンドドラッグジェスチャ(例えば、所定の方向へのピンチアンドドラッグジェスチャ))に対応する1つ以上のユーザジェスチャの第8のセット(例えば、732)(例えば、1つ以上のエアジェスチャ)を検出する。1つ以上のユーザジェスチャの第8のセットを検出したことに応じて、コンピュータシステムは、照明効果の第3のセット(例えば、視覚的照明特性の第3のセット)(例えば、選択されたメディアユーザインタフェースにおいて第1のメディアアイテムと同時に表示される照明効果の第3のセット)を表示することから、照明効果の第3のセットとは異なる照明効果の第4のセット(例えば、視覚的照明特性の第4のセット)を表示することに遷移させ、照明効果の第3のセットを表示することに続いて、表示生成構成要素を介して、照明効果の第2の中間セット(例えば、視覚的照明特性の第3のセット及び視覚的照明特性の第4のセットとは異なる視覚的照明特性の第2の中間セット)を表示することであって、照明効果の第2の中間セットは、照明効果の第3のセット及び照明効果の第4のセットとは異なる(いくつかの実施形態では、照明効果の第3のセットは、第1の照明特性(例えば、輝度、コントラスト、彩度)に対する第1の値(例えば、第1の数値)を有し、照明効果の第4のセットは、第1の照明特性に対する第1の値とは異なる第2の値を有し、照明効果の第2の中間セットは、第1の照明特性に対する第1及び第2の値とは異なる第3の値を有し、第3の値は、第1の値と第2の値との間にある)、ことと、照明効果の第2の中間セットを表示することに続いて、表示生成構成要素を介して、(例えば、図7Fを参照して説明したように)照明効果の第4のセットを表示することと、を含む。
【0224】
いくつかの実施形態では、照明効果の第3のセットを表示することから照明効果の第4のセットを表示することに遷移させることは、照明効果の第3のセットから照明効果の第4のセットに徐々に遷移させることを含む(例えば、照明効果の第3のセットと照明効果の第4のセットとの間に適用される複数の中間照明効果)。いくつかの実施形態では、照明効果の第3のセットを表示することから照明効果の第4のセットを表示することに遷移させることは、複数の光線(例えば、様々な色、長さ、及び/又は強度の複数の光線)がメディアウィンドウから延びる(例えば、選択されたメディアユーザインタフェースから延びる)光スピル効果を徐々に減少させる(例えば、光スピル効果の輝度及び/又は強度を徐々に減少させる)ことを含む。いくつかの実施形態では、光スピル効果は、選択されたメディアアイテムに基づいて決定される(例えば、どのメディアアイテムが選択されたかに基づいて異なる)。いくつかの実施形態では、照明効果の第3のセットを表示することから照明効果の第4のセットを表示することに遷移させることは、選択されたメディアユーザインタフェースと同時に表示される背景コンテンツを徐々に明るくすることを含む。いくつかの実施形態では、1つ以上のユーザジェスチャの第8のセットを検出したことに応じて、コンピュータシステムは、選択されたメディアユーザインタフェースの表示を中止し、メディアライブラリユーザインタフェースを表示する。いくつかの実施形態では、背景コンテンツは、第1の時点で選択されたメディアユーザインタフェースと同時に表示され、第2の時点でメディアライブラリユーザインタフェースと同時に表示される。いくつかの実施形態では、背景コンテンツは、選択されたメディアユーザインタフェースと同時に表示されている間は暗くされた状態で表示され、メディアライブラリユーザインタフェースと同時に表示されている間は明るくされた状態で表示される。
【0225】
1つ以上のユーザジェスチャの第8のセットを検出したことに応じて照明効果の第3のセットを表示することから照明効果の第4のセットを表示することに遷移させることは、システムの状態(例えば、システムが1つ以上のユーザジェスチャの第8のセットを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0226】
いくつかの実施形態では、コンピュータシステムは、表示生成構成要素を介して、メディアライブラリユーザインタフェース(例えば、708)とは異なる選択されたメディアユーザインタフェース(例えば、719)(例えば、第1のメディアアイテムの選択を示す(例えば、第1のメディアアイテムのみの選択を示す)選択されたメディアユーザインタフェース(例えば、第1のメディアアイテムが視覚的に強調される(例えば、他のメディアアイテムよりも大きいサイズで表示される、及び/又は表示されているメディアライブラリの唯一のメディアアイテムである)選択されたメディアユーザインタフェース)に第1のメディアアイテム(例えば、741又は743)と、視覚的コンテンツをナビゲートする(例えば、複数のフレーム(例えば、ビデオの画像)をナビゲートする、及び/又は複数のメディアアイテムをナビゲートする)ためのナビゲーションユーザインタフェース要素(例えば、740)(例えば、スクラババー)と、を同時に表示する。選択されたメディアユーザインタフェース内の第1のメディアアイテムと同時にナビゲーションユーザインタフェース要素を表示することは、ユーザがより少ない入力でコンテンツをナビゲートすることを可能にし、これにより、動作を実行するのに必要な入力の数が低減される。
【0227】
いくつかの実施形態では、ナビゲーションユーザインタフェース要素(例えば、740)は、選択されると、1つ以上のそれぞれのメディアアイテム(例えば、図7M図7Nのスクラバ740に示される一時停止オプション)に関連付けられたそれぞれの機能(例えば、再生オプション、一時停止オプション、早送りオプション、巻き戻しオプション、及び/又はスキップオプション)を実行する1つ以上の選択可能なコントロールを含む。いくつかの実施形態では、ナビゲーションユーザインタフェース要素を表示している間に、コンピュータシステムは、1つ以上の選択可能なコントロールのうちの第1の選択可能なコントロールの選択に対応する1つ以上の選択入力(例えば、1つ以上のエアジェスチャ)を検出し、1つ以上の選択入力を検出したことに応じて、コンピュータシステムは、第1のメディアアイテムの表示を修正する(例えば、第1のメディアアイテムの再生を開始及び/又は一時停止する、第1のメディアアイテムの再生を前方及び/又は後方にスキップする、第1のメディアアイテムの再生を減速及び/又は加速する)。いくつかの実施形態では、1つ以上の選択可能なコントロールは、第1のメディアアイテムの再生を再開及び/又は開始するために選択可能な第1のコントロール(例えば、再生オプション)を含む。いくつかの実施形態では、1つ以上の選択可能なコントロールは、第1のメディアアイテムの再生を一時停止するために選択可能な第2のコントロール(例えば、一時停止オプション)を含む。いくつかの実施形態では、1つ以上の選択可能なコントロールは、第1のメディアアイテムの再生を前方にスキップする及び/又は加速するために選択可能な第3のコントロール(例えば、早送りオプション)を含む。いくつかの実施形態では、1つ以上の選択可能なコントロールは、第1のメディアアイテムの再生を後方にスキップする、減速する、及び/又は逆再生するように選択可能な第4のコントロール(例えば、巻き戻しオプション)を含む。1つ以上の選択可能なコントロールを表示することは、ユーザがより少ない入力で様々なそれぞれの機能を実行することを可能にし、これにより、動作を実行するのに必要な入力の数が低減される。
【0228】
いくつかの実施形態では、メディアライブラリユーザインタフェース(例えば、708)を表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテム(例えば、710F)の選択に対応する1つ以上のユーザ入力(例えば、718)(例えば、1つ以上のタッチ入力、1つ以上の非タッチ入力、及び/又は1つ以上のジェスチャ(例えば、1つ以上のエアジェスチャ))(例えば、ユーザの視線が第1のメディアアイテムに向けられている及び/又は第1のメディアアイテム上に維持されている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)を検出する。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、第1の基準のセットが満たされたという判定に従って(例えば、第1のユーザ設定(例えば、没入型視聴設定)が有効及び/又は無効であるという判定に従って、第1のメディアアイテムが特定のタイプであるという判定に従って、かつ/又は特定のタイプの1つ以上のユーザ入力が検出されたという判定に従って)、コンピュータシステムは、表示生成構成要素を介して、第1のメディアアイテムを第1の角度サイズで表示し、第1の基準のセットが満たされなかったという判定に従って、コンピュータシステムは、表示生成構成要素を介して、第1のメディアアイテムを第1の角度サイズとは異なる第2の角度サイズで表示する(例えば、図7Fを参照して説明したように)。いくつかの実施形態では、第1の角度サイズは、没入型視聴体験(例えば、視聴されているメディアアイテムに対してより大きい角度サイズを有する)に対応し、第2の角度サイズは、非没入型視聴体験に対応する(例えば、第2の角度サイズは、第1の角度サイズより小さい)。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスであるとき、第1のメディアアイテムが第1の角度サイズで表示されている間に、コンピュータシステムは、ユーザが物理的環境内で自身を再配置したこと、及び/又は(例えば、ユーザがコンピュータシステムを装着している間に)自身の頭部を回転させたことをコンピュータシステムが検出したことに応じて、第1のメディアアイテムが表示される透視図を変更する。第1の基準のセットが満たされたという判定に従って第1のメディアアイテムを第1の角度サイズで表示することは、システムの状態に関する視覚的フィードバック(例えば、第1の基準のセットが満たされたこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0229】
いくつかの実施形態では、コンピュータシステムは、表示生成構成要素を介して、第1のメディアアイテム(例えば、710F)を(例えば、メディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェース内に)表示し(例えば、第1のメディアアイテムの選択を示す(例えば、第1のメディアアイテムのみの選択を示す)選択されたメディアユーザインタフェース)(例えば、第1のメディアアイテムが他のメディアアイテムに対して視覚的に強調される(例えば、他のメディアアイテムよりも大きいサイズで表示される、及び/又は表示されているメディアライブラリの唯一のメディアアイテムである)選択されたメディアユーザインタフェース)、第1のメディアアイテムは、(例えば、図7Fを参照して説明したように)第1のメディアアイテムに適用されるビネッティング(例えば、第1のメディアアイテムの縁部及び/又は角部を暗くする、薄くする、不明瞭にする、及び/又はぼかす)を伴って(例えば、選択されたメディアユーザインタフェース内に)表示される。第1のメディアアイテムに適用されるビネッティングを用いて第1のメディアアイテムの表現を表示することは、第1のメディアアイテムの表現が、例えば、選択された状態で表示されていることをユーザに示し、これは、改善された視覚的フィードバックを提供する。
【0230】
いくつかの実施形態では、コンピュータシステムは、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース(例えば、708)内の第1のポジションに対応するユーザ視線(例えば、714)を検出する(例えば、第2の時点の後の第6の時点で)(例えば、第3の方式で第1のメディアアイテムの表現を表示した後又は表示している間に)(例えば、ユーザがメディアライブラリユーザインタフェース内の第1のポジション(例えば、第1のメディアアイテムの表現に対応するメディアライブラリユーザインタフェース内の第1のポジション)を注視していることを検出及び/又は判定する)。メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に(例えば、第6の時点の後の第7の時点で)、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテム(例えば、710F)の選択に対応する選択ジェスチャ(例えば、718)(例えば、エアジェスチャ)(例えば、ユーザの手、頭部、及び/又は身体の移動)(いくつかの実施形態では、1つ以上の非ジェスチャ入力)(例えば、ユーザの視線が第1のメディアアイテムに向けられている及び/又はその上に維持されている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)を検出する。メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に第1のメディアアイテムの選択に対応する選択ジェスチャを検出したことを検出したことに応じて、選択ジェスチャが第1のタイプの選択ジェスチャ(例えば、エアジェスチャ)(例えば、片手ピンチジェスチャ、片手ダブルピンチジェスチャ、両手ピンチジェスチャ、両手ピンチ解除ジェスチャ、部分的に完了した片手ピンチジェスチャ、及び/又は完了した片手ピンチジェスチャ)に対応するという判定に従って、コンピュータシステムは、表示生成構成要素を介して、第9の方式で(例えば、視覚特性の第9のセットを用いて)第1のメディアアイテムを表示し(例えば、中間選択状態で(例えば、メディアライブラリユーザインタフェースから選択されたメディアユーザインタフェースに遷移させる遷移状態で)第1のメディアアイテムを表示する)(例えば、選択されたメディアユーザインタフェースに表示された第1のメディアアイテムのサイズよりも小さく、メディアライブラリユーザインタフェース内の第1のメディアアイテムの表現のサイズよりも大きいサイズで第1のメディアアイテムを表示する)、選択ジェスチャが、第1のタイプの選択ジェスチャとは異なる第2のタイプの選択ジェスチャ(例えば、片手ピンチジェスチャ、片手ダブルピンチジェスチャ、両手ピンチジェスチャ、両手ピンチ解除ジェスチャ、部分的に完了した片手ピンチジェスチャ、及び/又は完了した片手ピンチジェスチャ)に対応するという判定に従って、コンピュータシステムは、表示生成構成要素を介して、第9の方式とは異なる第10の方式で(例えば、視覚特性の第9のセットとは異なる視覚特性の第10のセットを用いて)(例えば、第1のメディアアイテムのユーザ選択を示すメディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェースにおいて)第1のメディアアイテムを表示する、いくつかの実施形態では、第9の方式で第1のメディアアイテムを表示することは、遷移状態で第1のメディアアイテムを表示することを含み、第10の方式で第1のメディアアイテムを表示することは、選択状態で第1のメディアアイテムを表示することを含む。いくつかの実施形態では、第9の方式で第1のメディアアイテムを表示することは、メディアライブラリユーザインタフェース内の第1のメディアアイテムの表現のサイズよりも大きい第1のサイズで第1のメディアアイテムを表示することを含み、第10の方式で第1のメディアアイテムを表示することは、(例えば、図7Fを参照して説明されるように)第1のサイズよりも大きい第2のサイズで第1のメディアアイテムを表示することを含む。第1のメディアアイテムの選択に対応する選択ジェスチャを検出したことに応じて、第9の方式及び/又は第10の方式で第1のメディアアイテムを表示することは、システムの状態(例えば、システムが第1のメディアアイテムの選択に対応する選択ジェスチャを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0231】
いくつかの実施形態では、方法800、900、1000、及び1100の態様/動作は、これらの方法の間で交換、置換、及び/又は追加され得る。例えば、方法800で表示されるメディアライブラリユーザインタフェースは、任意選択的に、方法900で表示されるユーザインタフェースであり、及び/又は方法800で表示される第1のメディアアイテムは、任意選択的に、方法900及び/又は1000で表示される第1のメディアアイテムである。簡潔にするために、それらの詳細はここでは繰り返さない。
【0232】
図9は、いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な方法900のフロー図である。いくつかの実施形態では、方法1000は、表示生成構成要素(例えば、702)(例えば、ディスプレイコントローラ、タッチ感知ディスプレイシステム、ディスプレイ(例えば、統合及び/又は接続された)、3Dディスプレイ、透明ディスプレイ、プロジェクタ、及び/又はヘッドアップディスプレイ)及び1つ以上の入力デバイス(例えば、715)(例えば、タッチ感知面(例えば、タッチ感知ディスプレイ))と通信するコンピュータシステム(例えば、700)(例えば、図1のコンピュータシステム101)(例えば、スマートフォン、スマートウォッチ、タブレット、及び/又はウェアラブルデバイス)、マウス、キーボード、リモートコントロール、視覚入力デバイス(例えば、カメラ)、オーディオ入力デバイス(例えば、マイクロフォン)、及び/又はバイオメトリックセンサ(例えば、指紋センサ、顔識別センサ、及び/又は虹彩識別センサ))で実行される。いくつかの実施形態では、方法1000は、非一時的(又は一時的)コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aのコントロール110)などのコンピュータシステムの1つ以上のプロセッサによって実行される命令によって統御される。方法900のいくつかの動作は、任意選択的に、組み合わされ、かつ/又はいくつかの動作の順序は、任意選択的に、変更される。
【0233】
いくつかの実施形態では、コンピュータシステム(例えば、700)は、表示生成構成要素(例えば、702)を介して、第1のズームレベルのユーザインタフェース(例えば、図7Dのユーザインタフェース708、図7F又は図7Jのユーザインタフェース719)(例えば、1つ以上のコンテンツアイテム(例えば、1つ以上の選択可能なコンテンツアイテム及び/又はメディアアイテム(例えば、写真及び/又はビデオ))及び/又は1つ以上のコンテンツアイテムの表現(例えば、1つ以上のメディアアイテムの選択可能な表現)を含むユーザインタフェース)(例えば、708、719)を表示する(902)。ユーザインタフェースを表示している間に(904)、コンピュータシステムは、1つ以上の入力デバイスを介して、ズームインユーザコマンド(例えば、片手ピンチジェスチャ、片手ダブルピンチジェスチャ、両手ピンチジェスチャ、及び/又は両手ピンチ解除ジェスチャ)に対応する1つ以上のユーザ入力(例えば、718、732、733、734)(例えば、1つ以上のタップ入力、1つ以上のジェスチャ(例えば、1つ以上のエアジェスチャ)、及び/又は1つ以上の他の入力)を検出する(906)。ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したことに応じて(908)、ユーザ視線(例えば、714)(例えば、1つ以上のユーザ入力を検出している間及び/又は1つ以上のユーザ入力を検出した後に検出されたユーザ視線)がユーザインタフェース内の第1のポジションに対応するという判定に従って(910)(例えば、ユーザがユーザインタフェース内の第1のポジションを注視しているという判定に従って)、コンピュータシステムは、表示生成構成要素を介して、第1のズームレベルよりも大きい第2のズームレベルでユーザインタフェース(例えば、図7Eのユーザインタフェース708、図7Gのユーザインタフェース719、図7Hのユーザインタフェース719、図7Kのユーザインタフェース719)を表示し(912)、第2のズームレベルでユーザインタフェースを表示することは、第1のポジションに基づいて選択された第1のズーム中心を使用してユーザインタフェースをズームすること(例えば、ユーザインタフェースを拡大及び/又はズームしながら、ユーザインタフェースの第1のポジションを表示生成構成要素上のその現在の表示ポジションに維持すること(例えば、ズーム動作の少なくとも一部の間、ユーザインタフェースの第1のポジションを表示生成構成要素上のその現在の表示ポジションに維持すること))を含む。ユーザ視線(例えば、1つ以上のユーザ入力を検出している間及び/又は1つ以上のユーザ入力を検出した後に検出されたユーザ視線)がユーザインタフェース内の第1のポジションとは異なる第2のポジションに対応するという判定に従って(914)(例えば、ユーザがユーザインタフェース内の第2のポジションを注視しているという判定に従って)、コンピュータシステムは、表示生成構成要素を介して、第1のズームレベルよりも大きい第3のズームレベル(例えば、第2のズームレベルと等しい又は異なる第3のズームレベル)でユーザインタフェース(例えば、図7Eのユーザインタフェース708、図7Gのユーザインタフェース719、図7Hのユーザインタフェース719、図7Kのユーザインタフェース719)を表示し(916)、第3のズームレベルでユーザインタフェースを表示することは、第2のポジションに基づいて選択された第2のズーム中心を使用してユーザインタフェースをズームすることを含み、第2のズーム中心は、第1のズーム中心とは異なるロケーションにある(例えば、ユーザインタフェースを拡大及び/又はズームしながら、ユーザインタフェースの第2のポジションを表示生成構成要素上の現在の表示ポジションに維持する(例えば、ズーム動作の少なくとも一部の間、ユーザインタフェースの第2のポジションを表示生成構成要素上の現在の表示ポジションに維持する))。ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したことに応じて、ユーザ視線のポジションに基づいて選択された第1のズーム中心を使用して第2のズームレベルでユーザインタフェースを表示することは、システムの状態(例えば、システムが1つ以上のユーザ入力を検出し、ユーザ視線のポジションを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0234】
いくつかの実施形態では、ズームインユーザコマンド(例えば、718、732、733、又は734)に対応する1つ以上のユーザ入力は、第1のピンチジェスチャ(例えば、エアジェスチャ)(例えば、2本の指が互いに近づくように移動するジェスチャ(例えば、手の人差し指と親指が互いに近づくように移動するジェスチャ))(例えば、片手ピンチジェスチャ(例えば、片手の2本の指が互いに近づくように移動する))と、第1のピンチジェスチャ(例えば、第2の片手ピンチジェスチャ(例えば、第1のピンチジェスチャと同じ手による))に続いて発生する第2のピンチジェスチャ(例えば、エアジェスチャ)(例えば、互いの閾値持続時間内に発生及び/又は検出される第1のピンチジェスチャ及び第2のピンチジェスチャ)と、を含む。第1のピンチジェスチャ及び第2のピンチジェスチャに応じてユーザ視線のポジションに基づいて選択された第1のズーム中心を使用して第2のズームレベルでユーザインタフェースを表示することは、システムの状態(例えば、システムが第1のピンチジェスチャ及び第2のピンチジェスチャを検出し、ユーザ視線のポジションを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0235】
いくつかの実施形態では、ズームインユーザコマンド(例えば、718、732、733、又は734)に対応する1つ以上のユーザ入力は、両手ピンチ解除ジェスチャ(例えば、エアジェスチャ)(例えば、第1の手が別の手から離れるジェスチャ)(例えば、ピンチ形状(例えば、既定のピンチ形状(例えば、手の人差し指と親指が接触している形状)を作る第1の手が、ピンチ形状を作る第2の手から離れるジェスチャ)を含む。両手ピンチ解除ジェスチャに応じて、ユーザの視線のポジションに基づいて選択された第1のズーム中心を使用して第2のズームレベルでユーザインタフェースを表示することは、システムの状態(例えば、システムが両手ピンチ解除ジェスチャを検出し、ユーザの視線のポジションを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0236】
いくつかの実施形態では、ズームインユーザコマンド(例えば、718、732、733、又は734)に対応する1つ以上のユーザ入力を検出したことに応じて、ユーザインタフェースが第1のタイプ(例えば、非パノラマ画像)の第1のメディアアイテムを表示しているという判定に従って、コンピュータシステムは、第1のサイズ(例えば、第1のカバーエリア及び/又は第1の寸法のセット)(例えば、第1のタイプのメディアアイテムの既定の最大サイズ)で第1のメディアアイテムを表示する。ユーザインタフェースが第1のタイプとは異なる第2のタイプの第2のメディアアイテム(例えば、パノラマ画像(例えば、複数の画像キャプチャを特定の方向に一緒にスティッチングすることによって生成された画像)(例えば、パノラマ寸法として識別された寸法のセットを有する画像))(例えば、閾値アスペクト比よりも大きいアスペクト比を有する画像(例えば、16:9よりも大きい及び/又は16:9以上であるアスペクト比を有する画像))を表示しているという判定に従って、コンピュータシステムは、(例えば、図7J図7Lを参照して説明したように)第1のサイズ(例えば、第1のタイプのメディアアイテムの既定の最大サイズよりも大きいサイズ)よりも大きい第2のサイズ(例えば、第2のカバレッジエリア及び/又は第2の寸法セット)で第2のメディアアイテムを表示する(例えば、図7K図7Lのメディアウィンドウ704)。いくつかの実施形態では、パノラマ画像は、非パノラマ画像よりも大きいサイズに拡大することができる。ユーザインタフェースが第2のタイプのメディアアイテムを表示しているという判定に従って、第1のサイズよりも大きい第2のサイズで第2のメディアアイテムを自動的に表示することにより、ユーザは、追加のユーザ入力を必要とすることなく、第2のタイプのメディアアイテム(例えば、パノラマ画像)をより大きいサイズで表示することができ、これは、更なるユーザ入力を必要とすることなく、条件のセットが満たされたときに動作を実行する。
【0237】
いくつかの実施形態では、ズームインユーザコマンド(例えば、718、732、733、又は734)に対応する1つ以上のユーザ入力を検出したことに応じて、ユーザインタフェースが第1のタイプの第1のメディアアイテム(例えば、非パノラマ画像)を表示しているという判定に従って、コンピュータシステムは、第1のメディアアイテムを平坦なオブジェクト(例えば、二次元オブジェクト、非湾曲オブジェクト、平坦な平面オブジェクト、及び/又は平坦な非湾曲表面を有するオブジェクト)として表示する。ユーザインタフェースが第2のタイプの第2のメディアアイテム(例えば、パノラマ画像(例えば、複数の画像キャプチャを特定の方向に互いにスティッチングすることによって生成された画像)(例えば、パノラマ寸法として識別された寸法(例えば、幅及び/又は高さ)のセットを有する画像))を表示しているという判定に従って、コンピュータシステムは、第2のメディアアイテムを湾曲したオブジェクト(例えば、三次元オブジェクト、湾曲面オブジェクト、及び/又は1つ以上の湾曲表面を有するオブジェクト)(例えば、図7K図7Lのメディアウィンドウ704)として表示する(例えば、図7J図7Lを参照して説明したように)。いくつかの実施形態では、パノラマ画像は、ズームされるにつれて湾曲され、非パノラマ画像は、ズームされるにつれて湾曲されない。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスであるとき、第2のメディアアイテムは、第1のメディアアイテムが平坦なオブジェクトとして表示されるときとは対照的に、第2のメディアアイテムが湾曲したオブジェクトとして表示されるとき、ユーザの視野のより多くを占有する。ユーザインタフェースが第2のタイプのメディアアイテムを表示しているという判定に従って、第2のメディアアイテムを湾曲したオブジェクトとして自動的に表示することにより、ユーザは、追加のユーザ入力を必要とせずに、第2のタイプのメディアアイテム(例えば、パノラマ画像)を湾曲したオブジェクトとして表示することが可能になり、これは、更なるユーザ入力を必要とせずに、条件のセットが満たされたときに動作を実行する。
【0238】
いくつかの実施形態では、ユーザインタフェースを第1のズームレベルで表示することは、第1のメディアアイテムの表現(例えば、第1のメディアアイテムのサムネイル表現)を第1のサイズ(例えば、図7Dの710F)で表示することを含む。三次元環境(例えば、706)は、ユーザインタフェース(例えば、708)を少なくとも部分的に取り囲み、ユーザインタフェースの背後の背景コンテンツ(例えば、物理的環境又は仮想環境の表現)を含む。いくつかの実施形態では、背景コンテンツは、ユーザインタフェースを少なくとも部分的に取り囲む。いくつかの実施形態では、三次元環境及び/又は背景コンテンツは、表示生成構成要素によって(例えば、ユーザインタフェースの背後に)表示される。いくつかの実施形態では、三次元環境及び/又は背景コンテンツは、(例えば、ユーザインタフェースの背後で)ユーザに可視であるが、表示生成構成要素によって表示されない(例えば、三次元環境及び/又は背景コンテンツは、表示生成構成要素によって表示されることなく、ユーザインタフェースの背後でユーザによって可視である有形物理的オブジェクトである)。いくつかの実施形態では、ズームインユーザコマンド(例えば、718)に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、第1のメディアアイテムの表現を、第1のサイズ(例えば、図7Dの710F)で表示されることから、第1のサイズよりも大きい第2のサイズ(例えば、図7Fの710F)で表示されることに遷移させる(例えば、第1のメディアアイテムの表示を拡大する)。そして、第1のメディアアイテム(例えば、図7Fの三次元環境706)に対する背景コンテンツの視覚的強調を低減させる(例えば、背景コンテンツを暗くする)。いくつかの実施形態では、背景コンテンツは、第1のメディアアイテムの表現が第1のサイズで表示されることから第2のサイズで表示されることに遷移させるのと同時に、第1の輝度レベルで表示されることから第2の輝度レベルで表示されることに遷移される。ユーザが第1のメディアアイテムをズームインしたときに背景コンテンツを暗くした状態で表示することは、システムの状態に関するフィードバック(例えば、システムが第1のメディアアイテムをズームイン状態で表示していること)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0239】
いくつかの実施形態では、ユーザインタフェースを第1のズームレベルで表示することは、第1のメディアアイテムの表現(例えば、第1のメディアアイテムのサムネイル表現)を第1のサイズ(例えば、図7Dの710F)で表示することを含む。いくつかの実施形態では、ズームインユーザコマンド(例えば、718)に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、第1のメディアアイテムの表現を、第1のサイズ(例えば、図7Dの710F)で表示されることから、第1のサイズよりも大きい第2のサイズ(例えば、図7Fの710F)で表示されることに遷移させる(例えば、第1のメディアアイテムの表示を拡大する)。そして、ユーザインタフェース(例えば、704)から延びる(例えば、第1のメディアアイテムから延びる)光スピル効果(例えば、726-1)を表示する。いくつかの実施形態では、光スピル効果は、第1のメディアアイテムの視覚的コンテンツ(例えば、視覚特性)に基づいて決定される1つ以上の視覚特性(例えば、輝度、強度、サイズ及び/又は長さ、色、彩度、コントラスト)を含む(例えば、異なるメディアアイテムは、異なる光スピル効果をもたらす)。いくつかの実施形態では、光スピル効果は、アイテムの縁部の周囲の輝き、アイテムを取り囲む光の出現、アイテムの周囲の光線の出現、及び/又はアイテムの中間又は中心の背後の光源の出現のうちの1つ以上を含む。いくつかの実施形態では、第1のメディアアイテムの表現のサイズは、ズームインユーザコマンドに対応する1つ以上のユーザ入力に応じて徐々に増大する。いくつかの実施形態では、ユーザインタフェースから背景コンテンツに及ぶ光スピル効果は、第1のメディアアイテムの表現のサイズの漸増と同時に徐々に修正される(例えば、徐々に強調される)。ユーザが第1のメディアアイテムをズームインしたときに光スピル効果を表示することは、システムの状態(例えば、システムがズームイン状態で第1のメディアアイテムを表示していること)に関するフィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0240】
いくつかの実施形態では、ユーザインタフェースを第1のズームレベルで表示することは、第1のメディアアイテムを第1のサイズ(例えば、図7J図7Kの731)で表示すること(例えば、第1のメディアアイテムのユーザ選択を示す選択されたメディアユーザインタフェース内に第1のメディアアイテムの表現を表示すること)を含む。いくつかの実施形態では、ユーザインタフェースを第2のズームレベルで表示することは、第1のメディアアイテムを第1のサイズよりも大きい第2のサイズ(例えば、図7Lの731)で表示することと、第2のサイズが所定の閾値サイズよりも大きいという判定に従って、第1のメディアアイテム(例えば、736A又は736B)の少なくとも第1の縁部にぼかし効果が適用された第1のメディアアイテムを表示することと、第2のサイズが所定の閾値サイズよりも大きくないという判定に従って、第1のメディアアイテムのいずれの縁部にもぼかし効果を適用せずに、第1のメディアアイテムを表示すること(例えば、図7J)と、を含む。いくつかの実施形態では、ぼかし効果は、第1の縁部を越えて延びる第1のメディアアイテムの追加のコンテンツが表示されないこと、及び/又はユーザが第1のメディアアイテムの追加のコンテンツを見るために第1の縁部の方向にスクロールすることができることを示すものとして、第1のメディアアイテムの第1の縁部に適用される。いくつかの実施形態では、ぼかし効果は、第1のメディアアイテムの第1の縁部における視覚的コンテンツをぼかすこと、及び/又は第1のメディアアイテムの第1の縁部における視覚的コンテンツを別様に視覚的に不明瞭にすることを含む。いくつかの実施形態では、第1のメディアアイテムのいずれの縁部にもぼかし効果が適用されずに第1のメディアアイテムを表示することは、第1のメディアアイテムの全体が表示されていることを示す。第1のメディアアイテムの第1の縁部に適用されたぼかし効果を有する第1のメディアアイテムを表示することは、システムの状態に関するフィードバック(例えば、表示されていない第1の縁部を越えて延びる第1のメディアアイテムの追加のコンテンツがあること)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0241】
いくつかの実施形態では、ユーザインタフェースは、第1のメディアアイテムの表現及び第2のメディアアイテムの表現を含む、メディアライブラリ(例えば、デバイスに関連付けられた(例えば、デバイスに記憶された)及び/又はユーザに関連付けられたメディアアイテムの集合)内の複数のメディアアイテム(例えば、710A~710F)の表現を含むメディアライブラリユーザインタフェース(例えば、708)である。いくつかの実施形態では、ユーザインタフェースを第1のズームレベルで表示することは、第1のサイズ(例えば、第1の寸法のセット(例えば、高さ及び/又は幅)を有する)での第1のメディアアイテムの表現と、第2のサイズ(いくつかの実施形態では、第2のサイズは第1のサイズと異なるか又は同じである)での第2のメディアアイテムの表現とを同時に表示することを含む(例えば、図7Dの708)。いくつかの実施形態では、ユーザインタフェースを第2のズームレベルで表示することは、第1のメディアアイテムの表現を第1のサイズよりも大きい第3のサイズで、及び第2のメディアアイテムの表現を第2のサイズよりも大きい第4のサイズで、同時に表示することを含む(例えば、図7E)。いくつかの実施形態では、第4のサイズは、第3のサイズと異なるか、又は同じである。いくつかの実施形態では、ユーザインタフェースを第1のズームレベルで表示することは、複数のメディアアイテムの表現を有するメディアライブラリグリッドを表示することを含み、ユーザインタフェースを第2のズームレベルで表示することは、メディアライブラリグリッドをズームインする(例えば、より少ないメディアアイテムの表現をより大きいサイズで表示する)ことを含む。ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したことに応じて、第1のメディアアイテムの表現を第3のサイズで表示し、第2のメディアアイテムの表現を第4のサイズで表示することは、システムの状態(例えば、システムがズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0242】
いくつかの実施形態では、第1のズームレベルでユーザインタフェースを表示することは、(例えば、第1の寸法のセット(例えば、高さ及び/又は幅)を有する)第1のサイズでユーザインタフェースを表示することを含む。いくつかの実施形態では、ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したことに応じて、ユーザインタフェースが第1のユーザインタフェース(例えば、719)(例えば、選択されたメディアユーザインタフェース(例えば、ユーザによって選択されたメディアアイテムを表示するユーザインタフェース、並びに/又はメディアアイテムのユーザ選択を示す及び/若しくはメディアアイテムのユーザ選択に応答するユーザインタフェース))であるという判定に従って、コンピュータシステムは、第1のサイズよりも大きい第2のサイズでユーザインタフェース(例えば、図7J図7Lの選択されたメディアユーザインタフェース719)を表示する。ユーザインタフェースが第1のユーザインタフェース(例えば、708)とは異なる第2のユーザインタフェース(例えば、メディアライブラリユーザインタフェース(例えば、メディアライブラリの複数のメディアアイテムの表現を表示するユーザインタフェース))であるという判定に従って、コンピュータシステムは、ユーザインタフェースを第1のサイズ(例えば、図7D図7Eのメディアライブラリユーザインタフェース708)に維持する(いくつかの実施形態では、選択されたメディアユーザインタフェース(例えば、719)は、ズームインコマンドに応じてより大きなサイズに拡大することができるが、メディアライブラリユーザインタフェース(例えば、708)は、ズームインコマンドに応じてより大きなサイズに拡大されない)。ズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したことに応じて、第1のサイズよりも大きい第2のサイズでユーザインタフェースを表示することは、システムの状態(例えば、システムがズームインユーザコマンドに対応する1つ以上のユーザ入力を検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0243】
いくつかの実施形態では、方法800、900、1000、及び1100の態様/動作は、これらの方法の間で交換、置換、及び/又は追加され得る。例えば、方法800で表示されるメディアライブラリユーザインタフェースは、任意選択的に、方法900で表示されるユーザインタフェースであり、及び/又は方法800で表示される第1のメディアアイテムは、任意選択的に、方法900及び/又は1000で表示される第1のメディアアイテムである。簡潔にするために、それらの詳細はここでは繰り返さない。
【0244】
図10は、いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な方法1000のフロー図である。いくつかの実施形態では、方法1000は、表示生成構成要素(例えば、702)(例えば、ディスプレイコントローラ、タッチ感知ディスプレイシステム、ディスプレイ(例えば、統合及び/又は接続された)、3Dディスプレイ、透明ディスプレイ、プロジェクタ、及び/又はヘッドアップディスプレイ)及び1つ以上の入力デバイス(例えば、715)(例えば、タッチ感知面(例えば、タッチ感知ディスプレイ))と通信するコンピュータシステム(例えば、700)(例えば、図1のコンピュータシステム101)、マウス、キーボード、リモートコントロール、視覚入力デバイス(例えば、カメラ)、オーディオ入力デバイス(例えば、マイクロフォン)、及び/又はバイオメトリックセンサ(例えば、指紋センサ、顔識別センサ、及び/又は虹彩識別センサ))で実行される。いくつかの実施形態では、方法1000は、非一時的(又は一時的)コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aのコントロール110)などのコンピュータシステムの1つ以上のプロセッサによって実行される命令によって統御される。方法1000のいくつかの動作は、任意選択的に、組み合わされ、かつ/又はいくつかの動作の順序は、任意選択的に、変更される。
【0245】
いくつかの実施形態では、コンピュータシステム(例えば、700)は、1つ以上の入力デバイスを介して、第1のメディアアイテム(例えば、710F)の選択に対応する1つ以上のユーザ入力(例えば、718)(例えば、1つ以上のタップ入力、1つ以上のジェスチャ(例えば、1つ以上のエアジェスチャ)、及び/又は1つ以上の他の入力)(例えば、ユーザの視線が第1のメディアアイテムに向けられている及び/又は維持されている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)(例えば、メディアライブラリの第1のメディアアイテムの選択、メディアライブラリ内の複数のメディアアイテムの第1のメディアアイテムの選択、複数のメディアアイテムの第1のメディアアイテムの選択、及び/又は複数の表示されたメディアアイテムの第1のメディアアイテムの選択(例えば、メディアアイテムの複数の表示された表現のうちの第1のメディアアイテムの表現の選択))を検出する(1002)。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて(1004)、第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテム(例えば、ユーザの第1の目のための1つ以上のカメラの第1のセットからの画像及びユーザの第2の目のための1つ以上のカメラの第2のセットからの画像を表示することによって表示される2つの異なるカメラ(又はカメラのセット)から同時にキャプチャされたメディアを有する立体視メディアアイテム)であるという判定に従って(1006)、コンピュータシステムは、表示生成構成要素を通じて、第1のメディアアイテムを第1の方式で表示し(1008)(例えば、図7F)(例えば、視覚特性の第1のセットを用いて)、第1のメディアアイテムが個別のタイプの深度情報を含まないメディアアイテムであるという判定に従って(1010)、コンピュータシステムは、表示生成構成要素を介して、(例えば、図7F及び図7Jを参照して説明したように)第1の方式(例えば、図7J)とは異なる第2の方式(例えば、視覚特性の第2のセットを用いて)で第1のメディアアイテムを表示する(1012)。第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って第1のメディアアイテムを第1の方式で表示することは、システムの状態に関する視覚的フィードバック(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むとシステムが判定したこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0246】
いくつかの実施形態では、第1の方式で第1のメディアアイテムを表示することは、第1のメディアアイテムを取り囲む第1のタイプの境界(例えば、周囲縁部及び/又は境界)(例えば、第1の形状を有する第1の境界、視覚特性の第1のセットを有する第1の境界)(例えば、屈折縁部を有する第1の境界及び/又は丸い角部を有する第1の境界)を有する第1のメディアアイテムを表示することを含む(例えば、図7F)。いくつかの実施形態では、第2の方式で第1のメディアアイテムを表示することは、第1のメディアアイテムを取り囲む第1の境界とは異なる第2のタイプの境界(例えば、周囲縁部及び/又は境界)を有する第1のメディアアイテム(例えば、図7Fを参照して説明したように)(例えば、図7J)(例えば、第2の形状を有する第2の境界、視覚特性の第2のセットを有する第2の境界)(例えば、非屈折縁部を有する第2の境界、及び/又は非円形(例えば、矩形及び/又は尖った)角部を有する第2の境界)を表示することを含む。いくつかの実施形態では、(例えば、メディアライブラリユーザインタフェースに提示される)メディアライブラリは、第1のタイプのメディアアイテムのセット(例えば、複数のメディアアイテム)と、第2のタイプのメディアアイテムのセット(例えば、複数のメディアアイテム)と、を含む。第1のタイプの個別のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、第1のタイプの個別のメディアアイテムを取り囲む第1のタイプの境界を有する第1のタイプの個別のメディアアイテムを表示することを含む第1の方式で、第1のタイプの個別のメディアアイテムを表示する。第2のタイプの個別のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、コンピュータシステムは、第2のタイプの個別のメディアアイテムを取り囲む第2のタイプの境界を有する第2のタイプの個別のメディアアイテムを表示することを含む、第2の方式で第2のタイプの個別のメディアアイテムを表示する。いくつかの実施形態では、第1のタイプのメディアアイテムは、第1のタイプの境界で表示されることを含む第1の方式で表示され、第2のタイプのメディアアイテムは、第2のタイプの境界で表示されることを含む第2の方式で表示される。第1のメディアアイテムが個別のタイプの深度情報を含むかどうかに基づいて第1のメディアアイテムの境界を異なって表示することは、システムの状態(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むか否か)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0247】
いくつかの実施形態では、第1のメディアアイテムが第1の方式で表示されたときに、第1のメディアアイテム(例えば、706)を少なくとも部分的に取り囲む(例えば、完全に取り囲む)コンテンツ(例えば、背景コンテンツ)(例えば、第1のメディアアイテムの背後に表示され、第1のメディアアイテムを部分的に取り囲む背景コンテンツ)は、第1の外観(例えば、図7F)(例えば、視覚特性の第3のセットを有する)(例えば、第1のメディアアイテムの境界の外側に表示される選択可能なコントロールを有する、及び/又は背景コンテンツに適用される照明効果の第3のセットを有する)を有する(例えば、有するように表示生成構成要素によって修正される)。第1のメディアアイテムが第2の方式で表示されたときに、第1のメディアアイテムを少なくとも部分的に取り囲む(例えば、完全に取り囲む)コンテンツ(例えば、背景コンテンツ)は、(例えば、図7Fを参照して説明されるように)(例えば、第1のメディアアイテムの境界の外側に選択可能なコントロールを表示することなく、及び/又は背景コンテンツに適用される照明効果の第4のセットを有することなく)(例えば、視覚特性の第4のセットを有する)第1の外観(例えば、図7J)とは異なる第2の外観を有する(例えば、有するように表示生成構成要素によって修正される)。いくつかの実施形態では、第1のメディアアイテムを少なくとも部分的に取り囲むコンテンツは、表示生成構成要素によって表示される。いくつかの実施形態では、第1のメディアアイテムを少なくとも部分的に取り囲むコンテンツは、表示生成構成要素によって表示されない(例えば、第1のメディアアイテムを少なくとも部分的に取り囲むコンテンツは、コンテンツが表示生成構成要素によって表示されることなく、ユーザインタフェースの背後のユーザによって可視である1つ以上の有形物理的オブジェクトを含む)。第1のメディアアイテムが個別のタイプの深度情報を含むかどうかに基づいて、第1のメディアアイテムを取り囲むコンテンツを異なって表示することは、システムの状態(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むか否か)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0248】
いくつかの実施形態では、コンピュータシステムは、第1のメディアアイテムから延びる光線のセット(例えば、726-1、726-2、726-3、726-4、730-1、730-2、730-3、又は730-4)(例えば、光スピル照明効果)(例えば、第1のメディアアイテムの外側境界から、第1のメディアアイテムを少なくとも部分的に取り囲む背景コンテンツ内に延びる光線)を表示する。いくつかの実施形態では、光線は、光線の1つ以上の視覚特性(例えば、輝度、強度、サイズ、長さ、色、彩度、及び/又はコントラスト)が第1のメディアアイテムの視覚的コンテンツ(例えば、視覚特性)に基づいて決定される視覚効果である(例えば、異なるメディアアイテムは、異なる光スピル光線をもたらす)。いくつかの実施形態では、第2の方式で第1のメディアアイテムを表示することは、第1のメディアアイテムから延びる光線のセットを表示することを取り止めることを含む。いくつかの実施形態では、第1のメディアアイテムから延びる光線のセットは、経時的に変化する(例えば、第1のメディアアイテムから延びる光線のセットは、第1のメディアアイテムの視覚的コンテンツが経時的に変化するにつれて(例えば、第1のメディアアイテムの視覚的コンテンツ(例えば、ビデオコンテンツ)が再生するにつれて)経時的に変化する)。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力の検出に応じて、第1のメディアアイテムから延びる光線のセットを表示することは、システムの状態(例えば、システムが第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0249】
いくつかの実施形態では、光線のセットの1つ以上の視覚特性(例えば、輝度、強度、サイズ、長さ、色、彩度、及び/又はコントラスト)(例えば、726-1、726-2、726-3、726-4、730-1、730-2、730-3、又は730-4)は、(例えば、図7Fを参照して説明したように)第1のメディアアイテムの縁部(例えば、外側境界又は縁部から所定の距離内)における1つ以上の色に基づいて決定される(例えば、いくつかの実施形態では、第1のメディアアイテムの第1の縁部から延びる光線の視覚特性は、第1のメディアアイテムの第1の縁部に表示された色に基づいて決定され、及び/又は第1のメディアアイテムの第2の縁部から延びる光線の視覚特性は、第1のメディアアイテムの第2の縁部に表示された色に基づいて決定される)。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力の検出に応じて、第1のメディアアイテムから延びる光線のセットを表示することは、システムの状態(例えば、システムが第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0250】
いくつかの実施形態では、光線のセット(例えば、726-1、726-2、726-3、726-4、730-1、730-2、730-3、又は730-4)は、第1の長さを有する第1の光線と、第1の長さとは異なる第2の長さを有する第2の光線と、を含む(例えば、光線のセットは、異なる長さ又は可変長を有する光線を含む)。いくつかの実施形態では、光線のセットは、第1の長さ及び第2の長さとは異なる第3の長さを有する第3の光線を含む。いくつかの実施形態では、第1の光線は、第1のメディアアイテムの第1の側部(例えば、上、下、左、及び/又は右)から延び、第2の光線は、第1のサイズとは異なる第1のメディアアイテムの第2の側部から延び、第3の光線は、第1及び第2の側部とは異なる第1のメディアアイテムの第3の側部から延び、第4の光線は、第1の、第2の、及び第3の側部とは異なる第1のメディアアイテムの第4の側部から延びる。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力の検出に応じて、第1のメディアアイテムから延びる光線のセットを表示することは、システムの状態(例えば、システムが第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0251】
いくつかの実施形態では、第1のメディアアイテムは、個別のタイプの深度情報(例えば、ユーザの第1の目のための1つ以上のカメラの第1のセットからの画像、及びユーザの第2の目のための1つ以上のカメラの第2のセットからの画像を表示することによって表示される、2つの異なるカメラ(又はカメラのセット)から同時にキャプチャされたメディアを伴う立体視メディアアイテム)を含み、第1のメディアアイテムは、コンピュータシステム(例えば、700)によって(例えば、コンピュータシステムに接続及び/又は統合された複数のカメラを使用して)キャプチャされた。いくつかの実施形態では、1つ以上のユーザ入力を検出する前に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテムをキャプチャする(例えば、コンピュータシステムに接続された及び/又は統合された複数のカメラを使用して)。いくつかの実施形態では、メディアアイテムは、第1のメディアアイテムが立体視キャプチャ(例えば、立体視メディアアイテム)である場合、個別のタイプの深度情報を含む。いくつかの実施形態では、立体視キャプチャは、離間された(例えば、人の目とほぼ同じ距離で離間された)2つの異なるカメラから同時にキャプチャされた2つの画像を含み、2つの画像は、キャプチャされたシーンの深度を再現するために、ユーザに同時に表示される(ユーザの第1の目のための第1の画像、及びユーザの第2の目のための第2の画像)。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスであり、第1のメディアアイテムが深度情報を含むとき、コンピュータシステムは、ユーザがメディアアイテムに含まれるコンテンツ間の立体視深度を知覚するように、コンピュータシステムの第1のディスプレイ上にメディアアイテムに含まれる物理的環境の第1の透視図を表示し、コンピュータシステムは、電子デバイスの第2のディスプレイ上にメディアアイテムに含まれる物理的環境の第2の透視図を表示する。第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定に従って第1のメディアアイテムを第1の方式で表示することは、システムの状態に関する視覚的フィードバック(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むとシステムが判定したこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0252】
いくつかの実施形態では、第1のメディアアイテムを第1の方式で表示することは、照明効果の第1のセット(例えば、726-1、726-2、726-3、又は726-4)(例えば、第1のメディアアイテムから延びる光スピル照明効果の第1のセット(例えば、第1のメディアアイテムの視覚的コンテンツに基づいて決定された1つ以上の視覚特性(例えば、輝度、強度、サイズ、長さ、色、彩度、及び/又はコントラスト)を有する光スピル照明効果の第1のセット)を有する第1のメディアアイテムを表示することを含む。いくつかの実施形態では、第2の方式で第1のメディアアイテムを表示することは、照明効果の第2のセット(例えば、730-1、730-2、730-3、又は730-4)(例えば、照明効果の第1のセットとは異なる照明効果の第2のセット、又は照明効果の第1のセットと同じ照明効果の第2のセット)(例えば、第1のメディアアイテムから延びる光スピル照明効果の第2のセット(例えば、第1のメディアアイテムの視覚的コンテンツに基づいて決定された1つ以上の視覚特性(例えば、輝度、強度、サイズ、長さ、色、彩度、及び/又はコントラスト)を有する光スピル照明効果の第2のセット))を有する第1のメディアアイテムを表示することを含む。例えば、いくつかの実施形態では、第1のメディアアイテムが、個別のタイプの深度情報を含むメディアアイテムである(例えば、立体視メディアアイテムである)か、又は個別のタイプの深度情報を含まないメディアアイテムである(例えば、立体視メディアアイテムではない)かに関わらず、第1のメディアアイテムは、第1のメディアアイテムに適用される照明効果とともに表示される。いくつかの実施形態では、第1のメディアアイテムが、個別のタイプの深度情報を含むメディアアイテムである(例えば、立体視メディアアイテムである)か、又は個別のタイプの深度情報を含まないメディアアイテムである(例えば、立体視メディアアイテムではない)かに関わらず、第1のメディアアイテムは、第1のメディアアイテムから延びる光スピル光線とともに表示される。いくつかの実施形態では、第1のメディアアイテムから延びる光スピル光線は、第1のメディアアイテムが個別のタイプの深度情報を含むか、又は個別のタイプの深度情報を含まないかに基づいて異なる(例えば、第1のメディアアイテムから延びる光スピル光線を決定するための1つ以上のアルゴリズムは、第1のメディアアイテムが個別のタイプの深度情報を含むか、又は個別のタイプの深度情報を含まないかに基づいて異なる)。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力の検出に応じて第1の照明効果セット又は第2の照明効果セットを用いて第1のメディアアイテムを表示することは、システムの状態(例えば、システムが第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0253】
いくつかの実施形態では、第1のセットの照明効果(例えば、726-1、726-2、726-3、又は726-4)は、第1のメディアアイテムの縁部における第1のセットの色(例えば、第1のメディアアイテムの最も外側の縁部、境界、及び/又は境界に表示される色)(例えば、縁部から所定の距離内)に基づいて、かつ第1のメディアアイテムの縁部の内側の第2のセットの色(例えば、第1のメディアアイテムの内側部分に表示される色(例えば、第1のメディアアイテムの縁部上ではない)(例えば、縁部から所定の距離よりも大きい)(例えば、第1のセットの色よりも第1のメディアアイテムの中心に近い及び/又は縁部から遠い))に基づいて決定され、第1のセットの色は、第1のセットの照明効果を決定する際に第2のセットの色よりも大きい重みを与えられる。いくつかの実施形態では、第2のセットの照明効果(例えば、730-1、730-2、730-3、又は730-4)は、第1のメディアアイテムの縁部における第3のセットの色(例えば、第1のメディアアイテムの最も外側の縁部、境界、及び/又は境界に表示される色)(例えば、縁部から所定の距離内)に基づいて、かつ第1のメディアアイテムの縁部の内側の第4のセットの色(例えば、第1のメディアアイテムの内側部分に表示される色(例えば、第1のメディアアイテムの縁部上ではない)(例えば、縁部から所定の距離よりも大きい)(例えば、第3のセットの色よりも第1のメディアアイテムの中心に近い及び/又は縁部から遠い))に基づいて決定され、第3のセットの色は、(例えば、図7Fを参照して説明されるように)第2のセットの照明効果を決定する際に第4のセットの色よりも大きい重みを与えられる。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力の検出に応じて第1の照明効果セット又は第2の照明効果セットを用いて第1のメディアアイテムを表示することは、システムの状態(例えば、システムが第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0254】
いくつかの実施形態では、照明効果の第1のセット及び照明効果の第2のセットは、第1のメディアアイテムの前に放出される光(例えば、第1のメディアアイテムの前面から外向きに延びる光)と、(例えば、図7Fを参照して説明したように)第1のメディアアイテムの背後に放出された光(例えば、第1のメディアアイテムの背面から外側に延びる光)(例えば、メディアウィンドウ704の前に放出された光及びメディアウィンドウ704の背後に放出された光)と、を含む。例えば、いくつかの実施形態では、第1のメディアアイテムが、個別のタイプの深度情報を含むメディアアイテムである(例えば、立体視メディアアイテムである)か、又は個別のタイプの深度情報を含まないメディアアイテムである(例えば、立体視メディアアイテムではない)かに関わらず、第1のメディアアイテムは、第1のメディアアイテムの前に放出される光と、第1のメディアアイテムの背後に放出される光とを含む照明効果とともに表示される。いくつかの実施形態では、第1のメディアアイテムの前に放出された光及び/又は第1のメディアアイテムの背後に放出された光は、ユーザに可視である他のコンテンツ(例えば、第1のメディアアイテムを少なくとも部分的に取り囲むコンテンツ(例えば、背景コンテンツ))から反射する。いくつかの実施形態では、ユーザに可視である他のコンテンツは、表示生成構成要素によって表示される。いくつかの実施形態では、ユーザに可視である他のコンテンツは、表示生成構成要素によって表示されない(例えば、他のコンテンツは、第1のメディアアイテムの背後に可視であるが、表示生成構成要素によって表示されない物理的(例えば、現実の)背景コンテンツを含む)。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したことに応じて、第1のメディアアイテムの前に放出される光及び第1のメディアアイテムの背後に放出される光を含む第1の照明効果セット又は第2の照明効果セットを用いて第1のメディアアイテムを表示することは、システムの状態(例えば、システムが第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0255】
いくつかの実施形態では、第1のメディアアイテムを第1の方式で表示することは、第1のメディアアイテムがビデオであるという判定に従って、照明効果の第3のセット(例えば、726-4)を有する第1のメディアアイテムを表示することと、第1のメディアアイテムが静止画像であるという判定に従って、照明効果の第4のセット(例えば、726-1、726-2、又は726-3)(例えば、照明効果の第3のセットと同じか又は異なる照明効果の第4のセット)を有する第1のメディアアイテムを表示することと、を含む。いくつかの実施形態では、第2の方式で第1のメディアアイテムを表示することは、第1のメディアアイテムがビデオであるという判定に従って、照明効果の第5のセット(例えば、730-4)で第1のメディアアイテムを表示することと、第1のメディアアイテムが静止画像であるという判定に従って、(例えば、図7F図7N、及び図7Mを参照して説明したように)第6のセットの照明効果(例えば、730-1、730-2、又は730-3)(例えば、第5のセットの照明効果と同じか又は異なる第6のセットの照明効果)を有する第1のメディアアイテムを表示することと、を含む。いくつかの実施形態では、第1のメディアアイテムが静止画像であるかビデオであるかに関わらず、第1のメディアアイテムは、第1のメディアアイテムに適用される照明効果とともに表示される。いくつかの実施形態では、照明効果は、第1のメディアアイテムがビデオであるか静止画像であるかに基づいて異なる。いくつかの実施形態では、照明効果は、第1のメディアアイテムがビデオであるか静止画像であるかに関わらず同じである。いくつかの実施形態では、照明効果の第3のセット及び照明効果の第5のセット(例えば、ビデオ用の照明効果)は、経時的に変化する(例えば、第1のメディアアイテムから延びる光線のセットは、第1のメディアアイテムの視覚的コンテンツが経時的に変化するにつれて(例えば、第1のメディアアイテムのビデオコンテンツが再生されるにつれて)経時的に変化する)。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力の検出に応じて第1の照明効果セット又は第2の照明効果セットを用いて第1のメディアアイテムを表示することは、システムの状態(例えば、システムが第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0256】
いくつかの実施形態では、第1のメディアアイテムはビデオであり、ビデオ内の個別の再生時間における照明効果の第1のセット(例えば、730-4又は726-4)は、(例えば、図7F図7N、及び図7Mを参照して説明したように)ビデオ内の個別の再生時間を含むビデオ内の複数の再生時間からのビデオからのコンテンツに基づいて生成された照明効果を含む(例えば、照明効果は、ビデオからの時間平均されたコンテンツに基づいてビデオから光を放出し、その結果、複数のフレームからのコンテンツが組み合わされて、照明効果を生成するために使用される平均色を生成する)。いくつかの実施形態では、照明効果の第1のセットが適用された第1のメディアアイテムを表示することは、第1のメディアアイテムがビデオであるという判定に従って、照明効果の第1の初期セットに第1の平滑化関数を適用すること(例えば、照明効果の第1の初期セットに第1の平滑化関数を適用することによって照明効果のセットを決定すること)を含む(いくつかの実施形態では、第1の平滑化関数は、ある期間(例えば、所定の持続時間)にわたって照明効果の第1の初期セットを平滑化する)。いくつかの実施形態では、照明効果の第2のセットが適用された第1のメディアアイテムを表示することは、第1のメディアアイテムがビデオであるという判定に従って、照明効果の第2の初期セットに第2の平滑化関数(いくつかの実施形態では、第2の平滑化関数は、第1の平滑化関数と同じであるか又は異なる)を適用すること(例えば、照明効果の第2の初期セットに第2の平滑化関数を適用することによって照明効果のセットを決定すること)を含む(いくつかの実施形態では、第2の平滑化関数は、ある期間(例えば、所定の持続時間)にわたって照明効果の第2の初期セットを平滑化する)。第1のメディアアイテムの選択に対応する1つ以上のユーザ入力の検出に応じて第1の照明効果セット又は第2の照明効果セットを用いて第1のメディアアイテムを表示することは、システムの状態(例えば、システムが第1のメディアアイテムの選択に対応する1つ以上のユーザ入力を検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0257】
いくつかの実施形態では、第1のメディアアイテムを第1の方式で表示することは、(例えば、図7Fを参照して説明されるように)第1のメディアアイテムの1つ以上の縁部を視覚的に歪ませること(例えば、視覚的に不明瞭にすること及び/又はぼかすこと)(例えば、第1のメディアアイテムの全ての縁部並びに/又は外側境界及び/若しくは境界全体を視覚的に歪ませること)を含む。いくつかの実施形態では、第1のメディアアイテムを第1の方式で表示することは、いくらかの歪みを示すガラス状の縁部を表示することを含む。いくつかの実施形態では、第2の方式で第1のメディアアイテムを表示することは、第1のメディアアイテムの1つ以上の縁部を視覚的に歪ませることを取り止めること(例えば、第1のメディアアイテムの任意の縁部及び/又は外側境界を視覚的に歪ませることを取り止めること)を含む。個別のタイプの深度情報を含む第1のメディアアイテムに基づいて視覚的に歪められた1つ以上の縁部を有する第1のメディアアイテムを表示することは、システムの状態に関する視覚的フィードバック(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0258】
いくつかの実施形態では、第1のメディアアイテムを第1の方式で表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテム内の第1のポジションに対応するユーザ視線(例えば、714)を検出する(例えば、ユーザが第1のメディアアイテム内の第1のポジションを注視していることを検出及び/又は判定する)。第1のメディアアイテム内の第1のポジションに対応するユーザ視線を検出したことに応じて、コンピュータシステムは、(例えば、図7A図7Dを参照して説明したように)後方に(例えば、ユーザの視点から離れるように)移動する第1のメディアアイテムの少なくとも一部を表示する。個別のタイプの深度情報を含む第1のメディアアイテムに基づいて、第1のポジションに対応するユーザ視線を検出したことに応じて、後方に移動された第1のメディアアイテムを表示することは、システムの状態(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むとシステムが判定し、第1のポジションに対応するユーザ視線を検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0259】
いくつかの実施形態では、第1のメディアアイテムを第1の方式で表示することは、第1のメディアアイテムの1つ以上の縁部をぼかすこと(例えば、第1のメディアアイテムの全ての縁部及び/又は外側境界全体及び/又は境界をぼかすこと)を含む。いくつかの実施形態では、第2の方式で第1のメディアアイテムを表示することは、(例えば、図7Fを参照して説明されるように)第1のメディアアイテムの1つ以上の縁部をぼかすことを取り止めること(例えば、第1のメディアアイテムの任意の縁部又は境界をぼかすことを取り止めること)を含む。第1のメディアアイテムが個別のタイプの深度情報を含むことに基づいて、第1のメディアアイテムの1つ以上の縁部がぼかされた状態で第1のメディアアイテムを表示することは、システムの状態についての視覚的フィードバック(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むとシステムが判定したこと)をユーザに与え、これは、改善された視覚的フィードバックを提供する。
【0260】
いくつかの実施形態では、第1のメディアアイテムを第1の方式で表示することは、第1のメディアアイテム(例えば、704)から延びる第1のセットの光スピル照明効果(例えば、726-1)(例えば、第1のメディアアイテムの視覚的コンテンツに基づいて決定された1つ以上の視覚特性(例えば、輝度、強度、サイズ、長さ、色、彩度、及び/又はコントラスト)を有する第1のセットの光スピル照明効果)で第1のメディアアイテムを表示することと、光スピル照明効果の第1のセットと同時に、(例えば、図7Fを参照して説明したような)1つ以上の追加の照明効果(例えば、第1のメディアアイテムから延びる追加の光線、第1のメディアアイテムを取り囲む追加の光、第1のメディアアイテムの境界に適用される照明効果(例えば、屈折及び/又はガラス境界)、及び/又は第1のメディアアイテムから延びる照明効果に適用される1つ以上の平滑化関数)を表示することと、を含む。いくつかの実施形態では、第2の方式で第1のメディアアイテムを表示することは、(例えば、図7Fを参照して説明したように)1つ以上の追加の照明効果を適用することなく第1のメディアアイテム(例えば、704)から延びる第2のセットの光スピル照明効果(例えば、730-1)(例えば、第1のメディアアイテムの視覚的コンテンツに基づいて決定された1つ以上の視覚特性(例えば、輝度、強度、サイズ、長さ、色、彩度、及び/又はコントラスト)を有する第2のセットの光スピル照明効果)(いくつかの実施形態では、第1のセットの光スピル照明効果と同じか又は第1のセットの光スピル照明効果とは異なる)を用いて第1のメディアアイテムを表示することを含む。個別のタイプの深度情報を含む第1のメディアアイテムに基づいて1つ以上の追加の照明効果を有する第1のメディアアイテムを表示することは、システムの状態に関する視覚的フィードバック(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むとシステムが決定したこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0261】
いくつかの実施形態では、第1のメディアアイテムを第1の方式で表示することは、(例えば、図7F及び図7Iを参照して説明したように)連続的な縁部を有する三次元形状(例えば、図7Iの704)(例えば、鋭い及び/又は尖った角部のない三次元形状、例えば、連続した導関数の個別の数(例えば、2、3、4、10、100、又は無限)で微分可能な表面を有する凸形状などの連続した滑らかな形状)内に第1のメディアアイテムを表示することを含む。いくつかの実施形態では、第2の方式で第1のメディアアイテムを表示することは、連続的な縁部を有する三次元形状内に第1のメディアアイテムを表示することを取り止めること(例えば、二次元形状で、及び/又は連続的な縁部を有さない(例えば、鋭い及び/又は尖った角部を有する)三次元形状で、及び/又は異なる三次元形状で第1のメディアアイテムを表示すること)を含む。個別のタイプの深度情報を含む第1のメディアアイテムに基づいて、連続的な縁部を有する三次元形状内に第1のメディアアイテムを表示することは、システムの状態に関する視覚的フィードバック(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むとシステムが判定したこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスであるとき、コンピュータシステム700は、ユーザが物理的環境内で自身を再配置したこと、及び/又は(例えば、ユーザがコンピュータシステム700を自身の頭部に装着している間に)自身の頭部を回転させたことをコンピュータシステムが検出したことに応じて、第1のメディアアイテムの三次元形状の異なる透視図を表示する。
【0262】
いくつかの実施形態では、連続的な縁部を伴う三次元形状は、(例えば、図7F及び7Iを参照して説明されるように)湾曲した前面及び湾曲した背面(例えば、図7Iにおける704)(例えば、湾曲した前面から直接横断して、かつ/又はその反対側に位置決めされる湾曲した背面)を含む。個別のタイプの深度情報を含む第1のメディアアイテムに基づいて、連続的な縁部を有する三次元形状内に第1のメディアアイテムを表示することは、システムの状態に関する視覚的フィードバック(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むとシステムが判定したこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0263】
いくつかの実施形態では、連続的な縁部を伴う三次元形状は、(例えば、図7F及び7Iを参照して説明されるように)1つ以上の屈折縁部(例えば、図7Iの704)から放出されている光に屈折特性を適用する(例えば、偏向させる、屈曲させる、又はその方向を変化させる)1つ以上の屈折縁部を有する。個別のタイプの深度情報を含む第1のメディアアイテムに基づいて、連続的な縁部を有する三次元形状内に第1のメディアアイテムを表示することは、システムの状態に関する視覚的フィードバック(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むとシステムが判定したこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0264】
いくつかの実施形態では、第1のメディアアイテムが個別のタイプの深度情報を含むメディアアイテムであるという判定は、第1のメディアアイテムが、(例えば、図7A図7Dを参照して説明したように)2つの異なるカメラ(又は2つの異なるカメラのセット)から同時にキャプチャされたメディアを含む立体視メディアアイテムであるという判定である。いくつかの実施形態では、立体視メディアアイテムは、ユーザの第1の目のために1つ以上のカメラの第1のセットによってキャプチャされた第1の画像を表示し、ユーザの第2の目のために1つ以上のカメラの第2のセットによってキャプチャされた第2の画像を(例えば、第1の画像と並行して、かつ/又は同時に)表示することによって表示される。いくつかの実施形態では、立体視メディアアイテムは、離間した(例えば、人の目とほぼ同じ距離で離間した)2つの異なるカメラから同時にキャプチャされた2つの異なる画像を含み、キャプチャされたシーンの深度を再現するために、2つの異なる画像がユーザに同時に表示される(第1の画像がユーザの第1の目に表示され、第1の画像とは異なる第2の画像がユーザの第2の目に表示される)。第1のメディアアイテムが2つの異なるカメラから同時にキャプチャされたメディアを含む立体視メディアアイテムであるという判定に従って、第1のメディアアイテムを第1の方式で表示することは、システムの状態に関する視覚的フィードバック(例えば、第1のメディアアイテムが2つの異なるカメラから同時にキャプチャされたメディアを含む立体視メディアアイテムであるとシステムが判定したこと)をユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0265】
いくつかの実施形態では、第1のメディアアイテムを第1の方式で表示することは、1つ以上のコントロール(例えば、728A、728B、728C、又は740)(例えば、再生コントロール(例えば、再生、一時停止、巻き戻し、早送り)、停止、及び/又はクローズオプション)を第1のメディアアイテムの外側境界の外側(例えば、メディアウィンドウ704の外側)(例えば、図7F図7H及び図7N)に表示する(例えば、第1のメディアアイテム上にオーバーレイされない)ことを含む。いくつかの実施形態では、第2の方式で第1のメディアアイテムを表示することは、第1のメディアアイテム上にオーバーレイされた1つ以上のコントロールを表示することを含む。いくつかの実施形態では、1つ以上のコントロールは、第1のメディアアイテムを閉じる(例えば、その表示を中止する)ように選択可能な第1のコントロール(例えば、クローズオプション)を含む。いくつかの実施形態では、1つ以上のコントロールは、第1のメディアアイテムを1つ以上の外部電子デバイス(例えば、共有オプション)に共有するためのプロセスを開始するために選択可能な第2のコントロールを含む。いくつかの実施形態では、1つ以上のコントロールは、第1のメディアアイテムの再生を再開及び/又は開始するために選択可能な第3のコントロール(例えば、再生オプション)を含む。いくつかの実施形態では、1つ以上のコントロールは、第1のメディアアイテムの再生を一時停止するために選択可能な第4のコントロール(例えば、一時停止オプション)を含む。いくつかの実施形態では、1つ以上のコントロールは、第1のメディアアイテムの再生を前方にスキップする及び/又は加速するように選択可能な第5のコントロール(例えば、早送りオプション)を含む。いくつかの実施形態では、1つ以上のコントロールは、第1のメディアアイテムの再生を後方にスキップする、減速する、及び/又は逆再生するように選択可能な第6のコントロール(例えば、巻き戻しオプション)を含む。第1のメディアアイテムが個別のタイプの深度情報を含むことに基づいて、第1のメディアアイテムの外側境界の外側に表示された1つ以上のコントロールとともに第1のメディアアイテムを表示することは、システムの状態(例えば、第1のメディアアイテムが個別のタイプの深度情報を含むとシステムが判定したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0266】
いくつかの実施形態では、方法800、900、1000、及び1100の態様/動作は、これらの方法の間で交換、置換、及び/又は追加され得る。例えば、方法800で表示されるメディアライブラリユーザインタフェースは、任意選択的に、方法900で表示されるユーザインタフェースであり、及び/又は方法800で表示される第1のメディアアイテムは、任意選択的に、方法900及び/又は1000で表示される第1のメディアアイテムである。簡潔にするために、それらの詳細はここでは繰り返さない。
【0267】
図11A図11Fは、メディアを表示する例を示す。図1200は、メディアを表示するための例示的な方法1200のフロー図である。図11A図11Fのユーザインタフェースは、図12のプロセスを含む、以下で説明するプロセスを示すために使用される。
【0268】
図11Aは、ディスプレイデバイス702及び1つ以上のカメラを含むタブレットであるコンピュータシステム700を示す(例えば、コンピュータシステム700は、1つ以上のカメラと有線通信及び/又は無線通信する)。図11Aは、コンピュータシステム700をタブレットとして示しているが、以下に説明する技術は、ヘッドマウントデバイスに適用可能である。コンピュータシステム700がヘッドマウントデバイスであるいくつかの実施形態では、コンピュータシステム700は、任意選択的に2つのディスプレイ(コンピュータシステム700のユーザの各目に対して1つ)を含み、各ディスプレイは様々なコンテンツを表示する。コンピュータシステム700がヘッドマウントデバイスである場合、コンピュータシステム700は、様々な要素(例えば、後述する視覚効果1112など)を立体的に表示して、深度の知覚を作り出す。更に、コンピュータシステム700がヘッドマウントデバイスである場合、ユーザは、仮想ポータル1102などのオブジェクトの異なる透視図を得るために、物理的環境を歩き回り、かつ/又は頭部を回すことができる。
【0269】
図11Aに示すように、コンピュータシステム700は、ディスプレイデバイス702にメディアユーザインタフェース1104を表示する。図11Aに示すように、メディアユーザインタフェースは、物理的環境1106の表現を含む。図11Aにおいて、椅子1106a、ソファ1106b、及び給水器1106cは、コンピュータシステム700と通信する1つ以上のカメラの視野内にある。図11Aにおいて、椅子1106a、ソファ1106b、及び給水器1106cは、コンピュータシステム700と通信する1つ以上のカメラの視野内にあるため、物理的環境1106の表現は、椅子1106a、ソファ1106b、及び給水器1106cを含む。ユーザがディスプレイデバイス(例えば、タッチ感知ディスプレイ)702を見ると、ユーザは、(例えば、図11A図11Fに示すように)コンピュータシステム700が表示する1つ以上の仮想オブジェクトとともに物理的環境1106の表現を見ることができる。したがって、コンピュータシステム700は、ディスプレイデバイス702を介して拡張現実環境を提示する。いくつかの実施形態では、物理的環境1106の表現に含まれるコンテンツは、コンピュータシステム700の視点から(例えば、ユーザに)可視であるコンテンツに対応する。いくつかの実施形態では、物理的環境1106の表現に含まれるコンテンツは、コンピュータシステム700のユーザの視点から可視であるコンテンツに対応する。いくつかの実施形態では、物理的環境1106の表現は、ディスプレイによって表示されることなく、(例えば、透明ディスプレイを通して)ユーザに可視である物理的環境である。
【0270】
図11A図11Fの実施形態では、コンピュータシステム700の視点は、コンピュータシステム700と通信する1つ以上のカメラの視野に対応する。したがって、コンピュータシステム700が物理的環境全体にわたって移動されると、コンピュータシステム700の視点が変化し、それに応じて1つ以上のカメラの視野が変化する。
【0271】
図11Aに示すように、コンピュータシステム700は、物理的環境1106の表現内に仮想ポータル1102を表示する。コンピュータシステム700は、仮想ポータル1102を物理的環境1106の表現内の三次元オブジェクトとして表示する。したがって、コンピュータシステム700は、ある量の深度を有する仮想ポータル1102を表示する。コンピュータシステム700が仮想ポータル1102を有するものとして表示する深度の量は、仮想ポータル1102のディスプレイに対するコンピュータシステム700の位置決めの角度に直接相関する(例えば、人物がある角度から薄いガラスシートを見たときに、薄いガラスシートの厚さがどのように見えるかと同様)。仮想ポータル1102のディスプレイは、ワールドロックされる。したがって、コンピュータシステム700は、コンピュータシステム700の視点が変化するにつれて(例えば、コンピュータシステム700が物理的環境全体にわたって移動されるにつれて)、物理的環境1106の表現内の仮想ポータル1102の相対的なポジションを維持する。
【0272】
図11Aに示されるように、コンピュータシステム700は、仮想ポータル1102内にメディアアイテム1108の表現を表示する。ユーザは、仮想ウィンドウ1118を通して見ることによって、メディアアイテム1108の表現を見ることができる。仮想ウィンドウ1118は、ユーザが見ることができる仮想ポータル1102の半透明部分である。仮想ウィンドウ1118は、仮想ポータル1102の前面に位置決めされる。メディアアイテム1108の表現は、以前にキャプチャされた立体視メディアアイテムに対応する(例えば、写真又はビデオ)(例えば、物理的環境内の共通のロケーションに位置するカメラのセット(例えば、2つ以上のカメラ)からキャプチャされたメディアアイテム(例えば、カメラのセットは、人間の目が離間されるのとほぼ同じ距離だけ離間される)、カメラのセット内の各カメラは、物理的環境の固有の透視図をキャプチャする)。更に、図11Aに示すように、コンピュータシステム700は、メディアアイテム1108の表現の上にオーバーレイされた視覚効果1112を表示する。図11Aにおいて、視覚効果1112は、メディアアイテム1108の表現の縁部に表示されるコンテンツをカバーするぼかし効果である。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、第1の画像(例えば、メディアアイテム1108の表現で示される環境の第1の透視図)をユーザの第1の目に表示し、コンピュータシステム700は、第2の画像(例えば、メディアアイテム1108の表現で示される環境の第2の透視図)をユーザの第2の目に表示し、したがって、ユーザは、立体視深度効果を伴ってメディアアイテム1108を視認する(例えば、別個の画像をユーザの異なる目に表示することは、立体視深度効果を生成する)。
【0273】
図11Aにおいて、コンピュータシステム700は、仮想ポータル1102内にメディアアイテム1108、後方ぼかし層1112a、及び衝突ぼかし層1112bの表現を表示する。後方ぼかし層1112a及び衝突ぼかし層1112bは組み合わされて、コンピュータシステム700がメディアアイテム1108の表現の縁部を不明瞭にするように表示する視覚効果1112を生成する。更に、図11Aに示すように、コンピュータシステム700は、メディアアイテム1108の表現を表示することの一部として、ビネット効果を表示する。したがって、図11Aに示すように、コンピュータシステム700は、メディアアイテム1108の表現の周囲をメディアアイテム1108の表現の中心よりも暗く表示する。
【0274】
図11Aは、仮想ポータル1102内の後方ぼかし層と、衝突ぼかし層と、メディアアイテム1108の表現との間のポジション関係を示すのに役立つ視覚的補助としての概略図1114を含む。概略図1114は、(例えば、仮想ポータル1102内に表示される後方ぼかし層に対応する)後方ぼかし層1114bの表現、(例えば、仮想ポータル1102内に表示される衝突ぼかし層に対応する)衝突ぼかし層1114cの表現、(例えば、仮想ポータル1102内に表示されるメディアアイテム1108の表現に対応する)コンテンツ1114dの表現、及び(例えば、仮想ポータル1102の仮想ウィンドウ1118に対応する)ウィンドウ1114eの表現を含む。
【0275】
図11Aにおいて、概略図1114は、コンテンツ1114dの表現が、後方ぼかし層1114bの表現と衝突ぼかし層1114cの表現との間に位置決めされることを示す。したがって、コンピュータシステム700は、仮想ポータル1102内の後方ぼかし層1112aと衝突ぼかし層1112bとの間にメディアアイテム1108の表現を表示する(例えば、レンダリングする)。更に、概略図1114によって示されるように、後方ぼかし層1112aは、コンテンツ1114dの表現よりも広く、衝突ぼかし層1112bは、メディアアイテム1108の表現の縁部に衝突する。
【0276】
後方ぼかし層1112aは、メディアアイテム1108の表現に対応する立体視メディアアイテムの縁部にあるコンテンツの外挿のぼかしである。立体視メディアアイテムの縁部にあるコンテンツが変化すると(例えば、立体視メディアアイテムがビデオメディアアイテムに対応するとき)、後方ぼかし層1112aに含まれるコンテンツは、立体視メディアアイテムの縁部におけるコンテンツに対する変化に基づいて変化する。
【0277】
衝突ぼかし層1112bは、メディアアイテム1108の表現に対応する立体視メディアアイテムの縁部にあるコンテンツのぼかしである。コンピュータシステム700は、メディアアイテム1108の表現の縁部からメディアアイテム1108の表現の中央に向かって内側に延びるものとして、衝突ぼかし層1112bを表示する。更に、衝突ぼかし層1112bは、衝突ぼかし層1112bがメディアアイテム1108の表現の中心に向かって延びるにつれて大きさ(例えば、強度)が減少するぼかし効果である。すなわち、衝突ぼかし層1112bは、衝突ぼかし層1112bがメディアアイテム1108の表現の中心に向かって延びる(例えば、衝突ぼかし層1112bがフェザリングされる)につれて、より半透明になる。後方ぼかし層1112aと同様に、衝突ぼかし層1112bによってぼかされるコンテンツは、立体視メディアアイテムの縁部におけるコンテンツが変化するにつれて(例えば、立体視メディアアイテムがビデオメディアアイテムに対応するとき)変化する。
【0278】
図11Aに示すように、概略図1114は、電子デバイス1114aの表現を含む。電子デバイス1114aの表現は、仮想ポータル1102のディスプレイのロケーションに対するコンピュータシステム700の位置決めを示す。図11Aにおいて、概略図1114内のウィンドウ1114eの表現に対する電子デバイス1114aの表現の位置決めによって示されるように、コンピュータシステム700は、仮想ポータル1102のディスプレイの真正面にある物理的環境内のロケーションに位置決めされる。更に、概略図1114におけるコンテンツ1114dの表現及びウィンドウ1114eの表現の位置決めによって示されるように、コンピュータシステム700は、仮想ポータル1102の仮想ウィンドウ1118の背後にメディアアイテム1108の表現を表示する(例えば、メディアアイテム1108の表現は、仮想ポータル1102の仮想ウィンドウ1118よりもコンピュータシステム700から更に離れている)。図11A図11Fの実施形態では、コンピュータシステム700は、ユーザによって保持及び/又は装着されている。したがって、コンピュータシステム700の視点は、ユーザの視点に対応する。
【0279】
図11Aにおいて、コンピュータシステム700は、コンピュータシステム700の位置決めが仮想ポータル1102のディスプレイの中心にあると判定する。図11Aにおいて、コンピュータシステム700は、コンピュータシステム700の位置決めが仮想ポータル1102のディスプレイの中心にあると判定するため、コンピュータシステム700は、メディアアイテム1108の表現の周囲に視覚効果1112を均一に表示する。図11Aにおいて、コンピュータシステム700は、物理的環境内で再配置される。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、ユーザの異なる目にそれぞれ対応する2つのディスプレイデバイス上でメディアアイテム1108の表現の周囲に均一に視覚効果1112を別々に表示する(例えば、コンピュータシステム700は、ユーザの2つの目に対してメディアアイテム1112の表現の周囲に均一に視覚効果1112を別々に表示する)。いくつかの実施形態では、コンピュータシステム700は、視覚効果を有する立体視メディアアイテム1112の2つ以上の表現を同時に表示する。いくつかの実施形態では、コンピュータシステム700は、視覚効果1112のない非立体視メディアアイテムの表現を表示する。いくつかの実施形態では、コンピュータシステム700は、視覚効果1112を有するメディアアイテム1108の表現と、視覚効果1112のない非立体視メディアアイテムの表現とを同時に表示する。いくつかの実施形態では、メディアアイテム1108の表現は、コンピュータシステム700と通信する1つ以上のカメラを介してキャプチャされたメディアアイテムの描写である。いくつかの実施形態では、メディアアイテム1108の表現は、コンピュータシステム700と通信する(例えば、有線通信及び/又は無線通信)外部デバイスを介してキャプチャされたメディアアイテムの描写である。いくつかの実施形態では、メディアアイテム1108の表現は、2つ以上の固有の透視図からキャプチャされた物理的環境の表現であり、コンピュータシステム700は、物理的環境の異なる透視図をユーザの各目に表示する。
【0280】
図11Bにおいて、コンピュータシステム700は、コンピュータシステム700が仮想ポータル1102のディスプレイの右側に位置決めされていると判定する。コンピュータシステム700は、コンピュータシステム700が仮想ポータル1102のディスプレイの右側に位置決めされていると判定するため、コンピュータシステム700は、コンピュータシステム700のディスプレイデバイス702の中心の左側に仮想ポータル1102を表示する。コンピュータシステム700は、仮想ポータル1102のディスプレイに対するコンピュータシステム700の位置決めに基づいて、ディスプレイデバイス702上の仮想ポータル1102のディスプレイのロケーションを変更する(例えば、コンピュータシステム700が仮想ポータル1102のディスプレイの左側に位置決めされる場合、コンピュータシステム700は、ディスプレイデバイス702の中心の右側に仮想ポータル1102を表示する)。上述したように、仮想ポータル1102のディスプレイはワールドロックされる。したがって、物理的環境1106の表現に含まれるコンテンツに対する仮想ポータル1102のディスプレイのポジションは、コンピュータシステム700の位置決めが変化することに応じて変化しない。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、それぞれがユーザの異なる目に対応する2つの別個のディスプレイデバイスの中心の左側に仮想ポータル1102を別個に表示する(例えば、コンピュータシステム700は、ユーザの目毎に2つの別個のディスプレイデバイスの中心の左側に視覚効果1112を別個に表示する)。
【0281】
更に、図11Bにおいて、コンピュータシステム700は、コンピュータシステム700が仮想ポータル1102のディスプレイの右側に位置決めされていると判定するため、コンピュータシステム700は、仮想ポータル1102の左境界上に表示される視覚効果1112のサイズを大きくする。より具体的には、コンピュータシステム700は、仮想ポータル1102の左境界上に表示される(例えば、視覚効果1112の一部を構成する)後方ぼかし層1112aの量を増加させる。
【0282】
後方ぼかし層1112aの表示は動的である。すなわち、コンピュータシステム700は、仮想ポータル1102のディスプレイに対するコンピュータシステム700の位置決めの角度が増加すると判定されたとき、仮想ポータル1102の個別の境界上に表示される後方ぼかし層1112aの量を増加させる。より具体的には、コンピュータシステム700は、コンピュータシステム700の位置決めの反対側にある仮想ポータル1102の境界上に表示される後方ぼかし層1112aの量を増加させる(例えば、コンピュータシステム700が仮想ポータル1102のディスプレイの左側に位置決めされる場合、コンピュータシステム700は、仮想ポータル1102の右境界上に表示される後方ぼかし層1112aの量を増加させ、その逆も同様である)。したがって、コンピュータシステム700の視点が物理的環境全体にわたって変化すると、メディアアイテム1108の表現の外観は、コンピュータシステム700の視点の変化に基づいて変化する。より具体的には、コンピュータシステム700の視点が物理的環境全体にわたって変化するにつれて、視覚効果1112によって不明瞭にされるメディアアイテム1108の表現の部分が変化する。
【0283】
コンピュータシステム700が表示する後方ぼかし領域の量は、コンピュータシステム700の位置決めと仮想ポータル1102のディスプレイとの間の相対角度に依存する。コンピュータシステム700の位置決めと仮想ポータル1102のディスプレイとの間の相対角度が大きいほど、コンピュータシステム700のポジションの反対側にある仮想ポータル1102の境界上にコンピュータシステム700が表示する後方ぼかし領域の量が大きくなる。
【0284】
11Bにおいて、コンピュータシステム700は、コンピュータシステム700が、(例えば、図11Aにおけるコンピュータシステム700の位置決めと比較して)コンピュータシステム700の以前のポジションよりも仮想ポータル1102のディスプレイの近くに位置決めされているという判定を行う。図11Bにおいて、コンピュータシステム700は、コンピュータシステム700がコンピュータシステム700の以前のポジションよりも仮想ポータル1102のディスプレイの近くに位置決めされていると判定するため、コンピュータシステム700は、(例えば、図11Aにおける仮想ポータル1102のディスプレイのサイズと比較して)仮想ポータル1102のディスプレイのサイズを大きくする(例えば、コンピュータシステム700と物理的環境1106の表現内の仮想ポータル1102のディスプレイとの間の距離が減少したことを示すために)。
【0285】
上で説明したように、コンピュータシステム700の移動は、コンピュータシステム700と通信する1つ以上のカメラの視野を変化させる。更に、上述したように、物理的環境1106の表現の外観は、1つ以上のカメラの視野内にある物理的環境の部分に対応する。したがって、コンピュータシステム700が物理的環境内で再配置されると、それに応じて物理的環境1106の表現の外観が変化する。したがって、図11Bでは、コンピュータシステム700の位置決めが物理的環境内で右にシフトしているため、物理的環境1106の表現に含まれるコンテンツ(例えば、ソファ1106b及びウォーターディスペンサ1106c)の位置決めは、メディアユーザインタフェース1104内で左にシフトする(例えば、図11Aの物理的環境1106の表現に含まれるコンテンツの位置決めと比較して)。
【0286】
図11Bに示すように、コンピュータシステム700は、仮想ポータル1102の角部に鏡面反射効果1120を表示する。鏡面反射効果1120の表示は、仮想ポータル1102が物理的環境1106の表現内の三次元オブジェクトであるという知覚を作成するのに役立つ。図11Bにおいて、コンピュータシステム700は、物理的環境内で再配置される。いくつかの実施形態では、鏡面反射効果1120は、仮想ポータル1102の周囲に表示される。いくつかの実施形態では、コンピュータシステム700は、コンピュータシステム700が物理的環境内で再配置されると、視差効果を用いてメディアアイテム1108の表現を表示する(例えば、コンピュータシステム700は、メディアアイテム1108の表現の前景部分をメディアアイテム1109の表現の背景部分に対してシフト/移動させて示す)。いくつかの実施形態では、コンピュータシステム700は、コンピュータシステム700の視点の変化を検出したことに応じて、メディアアイテム1108の表現のどの部分が視覚効果1112の衝突層によって不明瞭にされるかを変更する。いくつかの実施形態では、コンピュータシステム700の視点の変化を検出したことに応じて、コンピュータシステム700は、ユーザの目ごとに異なるようにメディアアイテム1108の表現の外観を変更する。
【0287】
図11Cにおいて、コンピュータシステム700は、コンピュータシステム700が仮想ポータル1102のディスプレイの左側に位置決めされている(例えば、コンピュータシステム700が仮想ポータル1102のディスプレイに対してある角度で位置決めされている)と判定する。図11Cにおいて、コンピュータシステム700は、コンピュータシステム700が仮想ポータル1102のディスプレイの左側に位置決めされていると判定するため、コンピュータシステム700は、コンピュータシステム700のディスプレイデバイス702の中心の右側に仮想ポータル1102を表示する。更に、図11Cにおいて、コンピュータシステム700は、コンピュータシステム700が仮想ポータル1102のディスプレイの左側に位置決めされているという判定を行うため、コンピュータシステム700は、仮想ポータル1102の右境界上に表示される(例えば、視覚効果1112の一部を形成する)後方ぼかし層1112aの量を(例えば、図11A及び図11Bにおいて仮想ポータル1102の右境界上に表示される後方ぼかし層1112aの量と比較して)増加させる。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、ユーザの異なる目にそれぞれ対応する、コンピュータシステム700の2つの別個のディスプレイデバイスの中心の右側に仮想ポータル1102を別個に表示する(例えば、コンピュータシステム700は、ユーザの目毎に、ディスプレイの中心の右側に視覚ポータル1102を別個に表示する)。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、ユーザの異なる目にそれぞれ対応する、コンピュータシステム700の2つの別個のディスプレイデバイスのための仮想ポータル1102の右境界上の後方ぼかし層1112aの表示の量を別個に増加させる(例えば、コンピュータシステム700は、ユーザの各目のための仮想ポータル1102のディスプレイの量を別個に増加させる)。
【0288】
更に、図11Cにおいて、コンピュータシステム700は、コンピュータシステム700が、物理的環境内のコンピュータシステム700の以前のポジション(例えば、図11Bにおけるコンピュータシステム700のポジション)よりも仮想ポータル1102のディスプレイから遠くに位置決めされているという判定を行う。コンピュータシステム700は、コンピュータシステム700がコンピュータシステム700の以前のポジションよりも仮想ポータル1102のディスプレイから遠くにポジションしていると判定するため、コンピュータシステム700は、(例えば、図11Bにおける仮想ポータル1102のサイズと比較して)仮想ポータル1102のディスプレイのサイズを減少させる(例えば、コンピュータシステム700と仮想ポータル1102のディスプレイとの間の距離が増加したことを示すために)。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、ユーザの異なる目にそれぞれ対応する、コンピュータシステム700の2つの別個のディスプレイデバイス上の仮想ポータル1102のディスプレイのサイズを別個に減少させる。
【0289】
図において、コンピュータシステム700は、コンピュータシステム700の以前のポジション(例えば、図11Bにおけるコンピュータシステム700のポジション)よりも仮想ポータル1102のディスプレイから左に離れて位置決めされているため、物理的環境1106の表現に含まれるコンテンツ(例えば、椅子1106a、ソファ1106b、及び給水器1106c)の位置決めは、メディアユーザインタフェース1104内で右にシフトする(例えば、図11Bにおける物理的環境1106の表現に含まれるコンテンツの位置決めと比較して)。図11Cに示すように、コンピュータシステム700は、仮想ポータル1102の左隅に鏡面反射効果1120の表示を維持する。図11Cにおいて、コンピュータシステム700は、物理的環境内で再配置される。いくつかの実施形態では、鏡面反射効果1120の表示のロケーションは、仮想ポータル1102のディスプレイに対するコンピュータシステム700の視点に基づく。
【0290】
図11Dにおいて、コンピュータシステム700は、コンピュータシステム700の位置決めが仮想ポータル1102のディスプレイの中心にあると判定する。図11Dにおいて、コンピュータシステム700は、コンピュータシステム700の位置決めが仮想ポータル1102のディスプレイの中心にあると判定するため、コンピュータシステム700は、仮想ポータル1102の周囲に後方ぼかし層1112aを均一に表示する(例えば、コンピュータシステム700は、仮想ポータル1102の各境界上に同じ量の後方ぼかし層1112aを表示する)。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、各々がユーザの異なる目に対応する、コンピュータシステム700の2つの別個のディスプレイデバイス上に、仮想ポータル1102の周縁の周囲に後方ぼかし層1112aを均一に表示する。
【0291】
更に、図11Dにおいて、コンピュータシステム700は、物理的環境内のコンピュータシステム700の位置決めが、コンピュータシステム700の以前の位置決め(例えば、図11Cにおけるコンピュータシステム700の位置決め)よりも仮想ポータル1102のディスプレイに近いという判定を行う。コンピュータシステム700は、コンピュータシステム700のポジションがコンピュータシステム700の以前のポジションよりも仮想ポータルのディスプレイに近いという判定を行うため、コンピュータシステム700は、(例えば、コンピュータシステム700と仮想ポータル1102のディスプレイとの間の距離の減少を示すために)ディスプレイ仮想ポータル1102のサイズを増大させる。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、ユーザの異なる目にそれぞれ対応する、コンピュータシステム700の2つの別個のディスプレイデバイス上の仮想ポータル1102のディスプレイのサイズを別個に増大させる。
【0292】
図11Dにおいて、コンピュータシステム700は、没入型外観を有するメディアアイテム1108の表現を表示する要求を検出する。いくつかの実施形態では、没入型外観を有するメディアアイテム1108の表現を表示する要求は、コンピュータシステム700が、コンピュータシステム700と通信する1つ以上のハードウェア入力機構のアクティブ化(例えば、1つ以上のハードウェア入力機構が押下及び/又は回転される)に対応する入力を検出することに対応する。いくつかの実施形態では、没入型外観を有するメディアアイテム1108の表現を表示する要求は、コンピュータシステム700が、仮想ポータル1102のディスプレイに対応する物理的環境内のロケーションに再配置されたことを検出することに対応する。
【0293】
図11Eにおいて、没入型外観を有するメディアアイテム1108の表現を表示する要求を検出したことに応じて、コンピュータシステム700は、没入型外観を有するメディアアイテム1108の表現を表示する。図11Eにおいて、メディアアイテム1108の表現の表示は、ディスプレイデバイス702の全体を占有する。すなわち、コンピュータシステム700は、没入型外観で表示されるメディアアイテム1108の表現を表示するが、物理的環境1106の表現は可視ではない。コンピュータシステム700は、メディアアイテム1108に含まれるコンテンツ(例えば、木及び女性)をフルスケール(例えば、現実世界スケール)で表示し、コンピュータシステム700は、没入型外観を有するメディアアイテム1108の表現を表示する。メディアアイテム1108の表現が非没入型外観(例えば、図11A図11Dにおけるメディアアイテム1108の表現の外観)で表示されるときとは対照的に、メディアアイテム1108の表現が没入型外観で表示される間に、メディアアイテム1108の表現は、ユーザの視点のより大きな量を占有する。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、コンピュータシステム700が没入型外観でメディアアイテム1108の表現を表示するときにユーザの異なる目にそれぞれ対応するコンピュータシステム700の2つの別個のディスプレイデバイスの大部分(例えば、全体)にメディアアイテム1108の表現を表示する。
【0294】
図11Eにおいて、コンピュータシステム700は、コンピュータシステム700の視点が物理的環境において左に回転されたことを検出する。いくつかの実施形態では、コンピュータシステム700は、ユーザの視点を包み込むようにメディアアイテム1108の表現を表示し、コンピュータシステム700は、没入型外観を有するメディアアイテム1108の表現を表示する。いくつかの実施形態では、没入型外観を有するメディアアイテム1108の表現を表示する要求を検出したことに応じて、コンピュータシステム700と仮想ポータル1102との間の距離が減少する(例えば、コンピュータシステム700は、仮想ポータル1102のディスプレイをコンピュータシステム700のポジションのより近くに移動させ、かつ/又はコンピュータシステム700は、物理的環境1106の表現内の仮想ポータル1102のディスプレイのより近くに移動される)。いくつかの実施形態では、没入型外観を有するメディアアイテム1108の表現を表示する要求を検出したことに応じて、コンピュータシステム700は、メディアアイテム1108の表現のz軸に沿ってメディアアイテム1108の表現のサイズを増大させる(例えば、コンピュータシステム700は、仮想ポータル1102の厚さを増加させる)。いくつかの実施形態では、没入型外観を有するメディアアイテム1108の表現を表示することの一部として、コンピュータシステム700は、立体視メディアアイテムの縁部に含まれるコンテンツの外挿に基づく後方ぼかし層1112aを表示する。
【0295】
図11Fにおいて、コンピュータシステム700の視点が左に回転されたことをコンピュータシステム700が検出したことに応じて、コンピュータシステム700は、メディアアイテム1108の表現の表示を更新して、メディアアイテム1108の表現の左半分を示す。より具体的には、コンピュータシステム700は、メディアアイテム1108の表現の左半分(例えば、木を含むメディアアイテム1108の表現の部分)が可視であり、メディアアイテム1108の表現の右部分(例えば、人物を含むメディアアイテムの表現の部分)が不可視であるように、メディアアイテム1108の表現の表示を更新する。すなわち、コンピュータシステム700は、没入型外観でメディアアイテム1108の表現を表示するが、メディアアイテム1108の表現の表示は、コンピュータシステム700の視点に対する変化に基づいて変化する。いくつかの実施形態では、コンピュータシステム700は、コンピュータシステム700が非没入型外観(例えば、図11A図11Dにおけるメディアアイテム1108の表現の外観)でメディアアイテム1108の表現を表示する要求を検出したことに応じて、没入型外観でメディアアイテム1108の表現を表示することを中止する。いくつかの実施形態では、コンピュータシステム700は、コンピュータシステム700が仮想ポータル1102のディスプレイに対応する物理的環境内のロケーションから離れて再配置されたことをコンピュータシステム700が検出したことに応じて、没入型外観を有するメディアアイテム1108の表現を表示することを中止する。
【0296】
図11A図11Fに関する追加の説明は、図12に関して説明される方法1200を参照して以下に提供される。
【0297】
図12は、いくつかの実施形態による、メディアアイテムを表示するための例示的な方法1200のフロー図である。いくつかの実施形態では、方法1200は、表示生成構成要素(例えば、702)(例えば、ディスプレイコントローラ、タッチ感知ディスプレイシステム、ディスプレイ(例えば、統合及び/又は接続された)、3Dディスプレイ、透明ディスプレイ、ヘッドアップディスプレイ、及び/又はヘッドマウントディスプレイ)と通信(例えば、有線通信及び/又は無線通信)するコンピュータシステム(例えば、700)(例えば、スマートフォン、タブレット、及び/又はヘッドマウントデバイス)において実行される。いくつかの実施形態では、方法1200は、非一時的(又は一時的)コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1のコントロール110)などのコンピュータシステムの1つ以上のプロセッサによって実行される命令によって統御される。方法1200のいくつかの動作は、任意選択的に、組み合わされ、かつ/又はいくつかの動作の順序は、任意選択的に、変更される。
【0298】
コンピュータシステムは、表示生成構成要素を介して、立体視メディアアイテム(例えば、1108)の第1の表現(1204)(例えば、立体視メディアアイテムは、以前にキャプチャされた(例えば、コンピュータシステムと通信する1つ以上のカメラを使用して以前にキャプチャされた))(例えば、深度を伝えるようにユーザに提示することができるメディアアイテム(例えば、ビデオ又は静止写真)、異なる透視図を有する2つ以上のカメラ(又はカメラのセット)を使用してキャプチャされたメディアアイテム、及び/又はコンピュータシステムと通信する(例えば、有線通信又は無線)カメラを使用してキャプチャされたメディアアイテム)であって、立体視メディアアイテムの第1の表現は、少なくとも第1の縁部(例えば、1108の境界)を含む、第1の表現と、視覚効果(例えば、衝突ぼかし層1112b)(1206)(例えば、グラフィカル要素及び/又は効果;ぼかし領域)であって、視覚効果は、立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、立体視メディアアイテムの第1の表現の少なくとも第1の縁部から内部(例えば、立体視メディアアイテムの第1の表現の中心)に向かって内側に(例えば、(例えば、図11Aを参照して上述したように)立体視メディアアイテムの第1の表現の第1の縁部の方向に垂直な、キャプチャされた立体視メディアアイテムの第1の表現の中心に向かって内側に延びる方向に)延びる(キャプチャされた立体視メディアアイテムの第1の表現及び視覚効果は、物理的環境(例えば、コンピュータシステムのロケーションの物理的環境)(例えば、物理的環境のリアルタイム表現)の表現(例えば、仮想表現又は光学表現)がコンピュータシステムのユーザに可視である間に表示される)(例えば、視覚効果は、キャプチャされた立体視メディアアイテムの第1の表現と同時に表示される)(例えば、コンピュータシステムは、視覚効果とキャプチャされた立体視メディアアイテムの第1の表現とを別個の層にレンダリングする(例えば、視覚効果は、キャプチャされた立体視メディアアイテムの表現の背後にレンダリングされる))、視覚効果と、を含むユーザインタフェース(例えば、1104)(例えば、コンピュータシステムにインストールされたメディア視聴アプリケーション(例えば、サードパーティメディア視聴アプリケーション、又はコンピュータシステムの製造業者によってコンピュータシステムにインストールされたメディア視聴アプリケーション)に対応するユーザインタフェース)を表示する(1202)。いくつかの実施形態では、視覚効果によって覆われるキャプチャされた立体視メディアアイテムの第1の表現に含まれるコンテンツは、可視である(例えば、コンピュータシステムのユーザに可視である)(例えば、視覚効果は、ある程度の半透明性を有する)。いくつかの実施形態では、キャプチャされた立体視メディアアイテムの第1の表現に含まれるコンテンツは、視覚効果の一部を不明瞭にする(例えば、キャプチャされた立体視メディアアイテムに含まれるコンテンツは、ユーザが視覚効果の一部を見ることを妨げる)。いくつかの実施形態では、コンピュータシステムは、キャプチャされた立体視メディアアイテムの第1の表現の周囲に境界(例えば、色付き(例えば、黒)の実線)を表示する。いくつかの実施形態では、キャプチャされた立体視メディアアイテムの第1の表現はヘッドロックされる(例えば、コンピュータシステムの配向が物理的環境内で変化するにつれて、物理的環境の表現に対するキャプチャされた立体視メディアアイテムの第1の表現の位置決めが変化する)。いくつかの実施形態では、キャプチャされた立体視メディアアイテムの第1の表現は、ワールドロックされる(例えば、物理的環境の表現に対するキャプチャされた立体視メディアアイテムの位置決めは、コンピュータシステムの配向が物理的環境内で変化するときに維持される)。立体視メディアアイテムの第1の部分を不明瞭にし、立体視メディアアイテムの第1の縁部から立体視メディアアイテムの内部に向かって内側に延びる視覚効果を表示することは、ユーザが特定の角度(例えば、極端な角度)から立体視メディアアイテムを視聴している間にユーザが検出するウィンドウバイオレーション(例えば、立体視メディアアイテムのコンテンツがウィンドウの前で知覚される時点で、立体視メディアアイテムが背後に表示されるウィンドウの縁部によって、立体視メディアアイテム内のオブジェクトが不明瞭にされるときに発生する視覚効果)の量を低減するのに役立ち、その結果、ユーザの視聴体験が向上し、ウィンドウバイオレーションを低減することにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。そうすることはまた、ユーザがデバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用を低減し、コンピュータシステムのバッテリ寿命を改善する。
【0299】
いくつかの実施形態では、立体視メディアアイテム(例えば、1108によって表される)は、カメラのセット(例えば、物理的環境内の異なるロケーション(例えば、わずかに異なる(例えば、1インチ、2インチ、3インチ、及び/又は人の平均瞳孔間距離によって分離される))に位置決めされる2つ以上のカメラ)(例えば、コンピュータシステムと通信(例えば、有線通信及び/又は無線通信)している2つ以上のカメラ)からキャプチャされ、カメラのセットからの第1のカメラは、物理的環境の第1の透視図をキャプチャし、カメラのセットからの第2のカメラ(例えば、第1のカメラとは異なる)は、物理的環境の第2の透視図をキャプチャし、第2の透視図は、第1の透視図とは異なる(例えば、図11Aを参照して上述したように)。いくつかの実施形態では、コンピュータシステムは、(例えば、図11Aを参照して上述したように)表示生成構成要素(例えば、702)を介して、物理的環境の第1の透視図をユーザの第2の目(例えば、ユーザの右目)ではなくユーザの第1の目(例えば、ユーザの左目)に表示し(例えば、第1のカメラを介してキャプチャされた物理的環境の透視図は、ユーザの第2の目ではなくユーザの第1の目に可視である(例えば、第2のカメラを介してキャプチャされた物理的環境の透視図は、ユーザの第2の目には可視でない))、コンピュータシステムは、(例えば、図11Aを参照して上述したように)表示生成構成要素を介して、第2の透視図をユーザの第1の目ではなくユーザの第2の目に表示する(例えば、第2のカメラを介してキャプチャされた物理的環境の透視図は、ユーザの第1の目ではなく、ユーザの第2の目に可視である)(例えば、第2の透視図は、第1の透視図に含まれないコンテンツを含み、その逆も同様である)(例えば、立体視メディアアイテムは、同じ一般的な方向を指し、画像がユーザの異なる目に同時に表示されるときに立体視効果を生成するために人間の目が離間される距離だけほぼ離間された2つ以上の離間されたカメラによってキャプチャされた)。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスであるとき、コンピュータシステムは、コンピュータシステムの第1のディスプレイデバイス上に物理的環境の第1の透視図を表示し、コンピュータシステムは、電子デバイスの第2のディスプレイデバイス上に物理的環境の第2の透視図を表示し、第1のディスプレイデバイスは、ユーザの第1の目に対応し(例えば、ユーザの第1の目に可視であり)、第2のディスプレイデバイスは、ユーザの第2の目に対応する(例えば、ユーザの第2の目に可視である)。物理的環境の第1の透視図をユーザの第1の目に表示し、物理的環境の第2の透視図をユーザの第2の目に表示することにより、立体視メディアアイテムの第1の表現に含まれるコンテンツ間のユーザの深度の知覚が向上し、その結果、ユーザの視聴体験が向上し、より正確になる。
【0300】
いくつかの実施形態では、立体視メディアアイテム(例えば、1108)の第1の表現を表示している間に、コンピュータシステムは、ユーザの視点の第1の変化(例えば、700の視点の変化)(例えば、ユーザの全身の位置決めの変化、ユーザの身体の第1の部分(例えば、ユーザの頭部)の位置決めの変化)(例えば、ユーザの側方移動、ユーザの左右移動、及び/又は水平面に沿ったユーザの移動)を検出する。いくつかの実施形態では、ユーザの視点の第1の変化を検出したことに応じて、コンピュータシステムは、(例えば、図11Bを参照して上述したように)ユーザの視点の第1の変化に基づいて、立体視メディアアイテムの第1の表現の外観を変化させる(例えば、立体視メディアの第1の表現の外観の変化は、ユーザの視点の変化に相関する)。いくつかの実施形態では、立体視メディアアイテムの第1の表現の外観を変更することの一部として、立体視メディアアイテムの第1の表現の2つ以上の視覚特性が変更される。いくつかの実施形態では、ユーザの視点の変更前に可視でなかった立体視メディアアイテムの第1の表現の部分は、ユーザの視点の変更後に可視である。ユーザの視点の変化を検出したことに応じて立体視メディアアイテムの外観を変更することは、ユーザが、追加のコントロールを表示することなく立体視メディアアイテムの表現の外観を制御することを可能にし、これは、ユーザインタフェースを混乱させることなく追加のコントロールオプションを提供する。ユーザの視点の変化を検出したことに応じて立体視メディアアイテムの外観を変化させることは、コンピュータシステムの状態(例えば、コンピュータシステムがユーザの視点の変化を検出した)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0301】
いくつかの実施形態では、立体視メディアアイテム(例えば、1108)の第1の表現の外観を変更する前に、視覚効果(例えば、衝突ぼかし層1112b)は、立体視メディアアイテムの第1の表現の第1の部分を不明瞭にする(例えば、視覚効果は、立体視メディアアイテムの第1の表現の第3の部分を不明瞭にしない)。いくつかの実施形態では、立体視メディアアイテムの第1の表現の外観を変更することは、視覚効果が、(例えば、図11Bを参照して上述したように)第1の部分とは異なる立体視メディアアイテムの第1の表現の第2の部分を不明瞭にするように、視覚効果を修正することを含む(例えば、視覚効果は、立体視メディアアイテムの表現の第1の部分を不明瞭にしない)。いくつかの実施形態では、立体視メディアアイテムの第1の表現の第1の部分は、立体視メディアアイテムの表現の第2の部分に含まれるコンテンツを含む(例えば、立体視メディアアイテムの表現の第1の部分内のコンテンツは、立体視メディアアイテムの表現の第3の部分に含まれるコンテンツと重複する)。ユーザの視点の変化を検出したことに応じて、立体視メディアアイテムの第1の表現のどの部分を視覚効果が不明瞭にするかを変更することは、ユーザが、追加のコントロールを表示することなく視覚効果の表示を制御することを可能にし、これは、ユーザインタフェースを混乱させることなく追加のコントロールオプションを提供する。
【0302】
いくつかの実施形態では、立体視メディアアイテム(例えば、1108)の第1の表現の外観を変更することは、(例えば、図11Bを参照して上述したように)第1の方式でユーザの右目ではなくユーザの左目に表示される立体視メディアアイテムの第1の表現の外観を変更することと、第2の方式でユーザの左目ではなくユーザの右目に表示される(例えば、ユーザの左目とは異なる)第1の立体視メディアアイテムの第1の表現の外観を変更することと、を含み、第2の方式は、(例えば、図11Bを参照して上述したように)第1の方式とは異なる(例えば、ユーザの左目とユーザの右目の両方に表示される立体視メディアアイテムの第1の表現のコンテンツの重複がある)(例えば、立体視メディアアイテムの第1の表現に含まれるコンテンツは、ユーザの右目ではなくユーザの左目に可視であり、逆もまた同様である)(例えば、コンピュータシステムは、ユーザの左目に可視である視覚効果の量を増加させ、コンピュータシステムは、ユーザの右目に可視である視覚効果の量を減少させる)。いくつかの実施形態では、コンピュータシステムは、立体視メディアアイテムの第1の表現の同じ視覚特性(例えば、輝度、半透明性、及び/又はサイズ)の変化をユーザの左目及びユーザの右目の両方に表示する。いくつかの実施形態では、コンピュータシステムは、立体視メディアアイテムの第1の表現の第1の視覚特性(例えば、輝度、半透明性、及び/又はサイズ)の変化をユーザの左目に表示し、コンピュータシステムは、立体視メディアアイテムの第1の表現の第2の視覚特性の変化をユーザの右目に表示し、第1の視覚特性は第2の視覚特性とは異なる。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスであるとき、コンピュータシステムは、コンピュータシステムの第1のディスプレイデバイス(例えば、ユーザの第1の目に対応する(例えば、第1のディスプレイデバイスは、ユーザの第1の目に可視である))上に表示される立体視メディアアイテムの第1の表現の外観を、コンピュータシステムがコンピュータシステムの第2のディスプレイデバイス(例えば、ユーザの第2の目に対応する(例えば、第2のディスプレイデバイスは、ユーザの第2の目に可視である))上に表示される立体視メディアアイテムの表現の外観を変化させる方法とは異なるように変化させる。ユーザの右目(例えば、ユーザの第2の目)に表示される立体視メディアアイテムの第1の表現がどのように変更されるかとは異なるように、ユーザの左目に表示される立体視メディアアイテムの第1の表現の外観を変更することは、ユーザが、追加のコントロールを表示することなく、ユーザの両目に独立して表示されるものを制御することを可能にし、これは、ユーザインタフェースを混乱させることなく、追加のコントロールオプションを提供する。ユーザの右目(例えば、ユーザの第2の目)に表示される立体視メディアアイテムの第1の表現がどのように変更されるかとは異なるように、ユーザの左目に表示される立体視メディアアイテムの第1の表現の外観を変更することは、ユーザが極端な角度から立体視メディアアイテムを見たときにユーザが検出するウィンドウバイオレーション(例えば、立体視メディアアイテムのコンテンツがウィンドウの前で知覚される時点で、立体視メディアアイテムが背後に表示されるウィンドウの縁部によって立体視メディアアイテム内のオブジェクトが不明瞭にされるときに生じる視覚効果)の量を軽減するのに役立ち、その結果、ユーザの視聴体験が向上する。
【0303】
いくつかの実施形態では、視覚効果(例えば、衝突ぼかし層1112b)は、視覚効果が立体視メディアアイテムの第1の表現の少なくとも第1の縁部(例えば、1108の境界)から立体視メディアアイテムの第1の表現の内部に向かって内側に延びるにつれて(例えば、図11Aを参照して上述したように)、複数の値を通じて(例えば、徐々に又は複数の離散的なステップを通じて)減少する視覚特性(例えば、密度及び/又は色(例えば、単色又は多色である色勾配))(例えば、透光性の量(例えば、視覚特性の背後に可視である物理的環境の表現の量))(例えば、視覚特性は、物理的環境の表現の第1の部分にオーバーレイされ、物理的環境の表現の第2の部分にオーバーレイされない)を有する。いくつかの実施形態では、視覚効果の第2の視覚特性(例えば、半透明性)は、立体視メディアアイテムの第1の表現の中心に向かう距離が減少するにつれて、複数の値にわたって増加する。ぼかし効果の視覚特性を減少させることは、ユーザが、2つ以上のカメラのキャプチャ領域の重複内にあるコンテンツを視聴する一方で、2つ以上のカメラのキャプチャ領域の重複内にないコンテンツを視聴しないことを支援し、これは、ユーザが立体視メディアアイテムを視聴している間に検出するウィンドウバイオレーション(例えば、立体視メディアアイテム内のオブジェクトが、立体視メディアアイテムのコンテンツがウィンドウの前で知覚される時点で立体視メディアアイテムが背後に表示されるウィンドウの縁部によって不明瞭にされるときに発生する視覚効果)の量を軽減するのを助け、その結果、ユーザの視聴体験が向上する。
【0304】
いくつかの実施形態では、立体視メディアの第1の表現(例えば、1108)は、立体視メディアアイテムの第1の表現の第1の縁部(例えば、1108の境界)における(及び任意選択で、立体視メディアアイテムの第1の表現の1つ以上の他の縁部における)コンテンツを含む。いくつかの実施形態では、視覚効果(例えば、衝突ぼかし層1112b)は、(例えば、図11Aを参照して上述したように)立体視メディアアイテムの第1の表現の第1の縁部における(及び任意選択的に立体視メディアアイテムの第1の表現の1つ以上の他の縁部における)コンテンツのぼかしである。立体視メディアの第1の表現の第1の縁部においてコンテンツをぼかすことは、ユーザが極端な角度から立体視メディアアイテムを視聴している間にユーザが検出するウィンドウバイオレーション(例えば、立体視メディアアイテム内のオブジェクトが、立体視メディアアイテムが背後に表示されるウィンドウの縁部によって、立体視メディアアイテムのコンテンツがウィンドウの前で知覚される時点において不明瞭にされるときに発生する視覚効果)の量を軽減するのを助け、その結果、ユーザの視聴体験が向上する。
【0305】
いくつかの実施形態では、視覚効果は、立体視メディアアイテム(例えば、1108)の第1の表現の第1の縁部及び第2の縁部に表示される(例えば、同時に表示される)。いくつかの実施形態では、立体視メディアアイテムの第1の表現を表示している間に、コンピュータシステムは、ユーザの視点の第2の変化(例えば、700の視点の変化)(例えば、ユーザの全身の位置決めの変化、ユーザの身体の第1の部分(例えば、ユーザの頭部)の位置決めの変化)(例えば、ユーザの側方移動、ユーザの左右移動、及び/又は水平面に沿ったユーザの移動)を検出する。いくつかの実施形態では、ユーザの視点の第2の変化は、立体視メディアアイテムの第1の表現の表示に対するユーザの視点の角度の変化を含む(例えば、立体視メディアアイテムの第1の表現の表示に対するユーザの視点の角度は、5、10、15、25、30、35、40、55、又は60度だけ変化する)。いくつかの実施形態では、ユーザの視点の第2の変化を検出したことに応じて、かつユーザの視点の第2の変化が第1の方向(例えば、左、右、上、及び/又は下)であるという判定に従って、ユーザの視点の第2の変化が第1の方向とは異なる第2の方向(例えば、左、右、上、及び/又は下)であるという判定に従って、コンピュータシステムは、(例えば、図11B及び図11Cを参照して上述したように)立体視メディアアイテムの第1の表現の少なくとも第2の縁部上の視覚効果(例えば、後方ぼかし層1112a)のサイズを増大させ(例えば、立体視メディアアイテムの表現の背後に表示されるぼかし領域のサイズが増大する)(例えば、立体視メディアアイテムの第1の表現の第1の縁部上の視覚効果のサイズを減少させる)(例えば、第2の縁部は、第1の方向とは反対の立体視メディアアイテムの第1の表現の側にある(例えば、第1の方向が右である場合、第2の縁部は、立体視メディアアイテムの左側にある))、コンピュータシステムは、(例えば、図11B及び図11Cを参照して上述したように)立体視メディアアイテムの第1の表現の少なくとも第1の縁部上の視覚効果のサイズを増大させる(例えば、立体視メディアアイテムの表現の背後に表示されるぼかし領域のサイズが増大する)(例えば、立体視メディアアイテムの第1の表現の第2の縁部上に表示される視覚効果のサイズを減少させる)(例えば、第1の縁部は、第2の方向とは反対の立体視メディアアイテムの第1の表現の側部にある(例えば、第2の方向が下向きである場合、第1の側部は、立体視メディアアイテムの第1の表現の上部にある))。いくつかの実施形態では、第1の縁部及び第2の縁部は、立体視メディアアイテムの第1の表現の反対側にあり、第1の方向は、第2の方向の反対である。いくつかの実施形態では、立体視メディアアイテムの第1の表現の第2の縁部上の視覚効果のサイズが変更されるとき、立体視メディアの第1の表現の第1の縁部上の視覚効果のサイズは変更されず、その逆も同様である。いくつかの実施形態では、第1の縁部及び第2の縁部は、第1の表現の反対側にある(例えば、左縁部及び右縁部)。ユーザの視点の変化を検出したことに応じて、立体視メディアアイテムの第1の表現の個別の縁部上の視覚効果のサイズを変更することは、ユーザが特定の角度から立体視メディアアイテムをいつ見るかをユーザが検出するウィンドウバイオレーション(例えば、立体視メディアアイテムのコンテンツがウィンドウの前で知覚される時点で、立体視メディアアイテムが背後に表示されるウィンドウの縁部によって立体視メディアアイテム内のオブジェクトが不明瞭にされるときに発生する視覚効果)の量を軽減し、その結果、ユーザの視聴体験が向上する。ユーザの視点の変化を検出したことに応じて、立体視メディアアイテムの第1の表現の個別の縁部上の視覚効果のサイズを変更することは、ユーザが、追加のコントロールを表示することなく視覚効果の表示を制御することを可能にし、これは、ユーザインタフェースを混乱させることなく追加のコントロールオプションを提供する。
【0306】
いくつかの実施形態では、ユーザインタフェース(例えば、1104)を表示することは、ぼかし領域(例えば、視覚効果1112の後方ぼかし領域)を表示することを含み、立体視メディアアイテムは、第1の複数の縁部(例えば、3つの縁部、4つの縁部、5つの縁部、6つの縁部、又は7つの縁部)を含む。いくつかの実施形態では、(例えば、1108に対応する)立体視メディアアイテムの第1の複数の縁部が第1のコンテンツを含むという判定に従って、ぼかし領域は、第1のコンテンツのぼかし表現を含み、第1のコンテンツのぼかし表現は、(例えば、図11Aを参照して上述したように)第1のコンテンツの外挿に基づき(例えば、第1のコンテンツのぼかし表現は、立体視メディアアイテムの複数の縁部にあるコンテンツの外挿を含む)(例えば、ぼかし表現は、立体視メディアアイテム内で可視ではないコンテンツを含む)、(例えば、1108に対応する)立体視メディアアイテムの第1の複数の縁部が(例えば、第1のコンテンツとは異なる)第2のコンテンツを含むという判定に従って、ぼかし領域は、(例えば、図11Aを参照して上述したように)第2のコンテンツのぼかし表現を含み、第2のコンテンツのぼかし表現は、第2のコンテンツの外挿に基づく(例えば、ぼかし領域は、第1のコンテンツの外挿を含まない)。いくつかの実施形態では、ぼかし領域に含まれるコンテンツは、コンピュータシステムがユーザの視点の変化を検出したことに応じて変化する(例えば、ぼかし領域に含まれるコンテンツは、コンピュータシステムの視点に基づいて動的に変化する)。いくつかの実施形態では、ぼかし領域は、立体視メディアアイテムの第1の表現の少なくとも第1の縁部から外側に延びる。
【0307】
いくつかの実施形態では、立体視メディアアイテムの第1の表現は、(例えば、図11Aを参照して上述したような)ビネット効果(例えば、立体視メディアアイテムの第1の表現の周囲における立体視メディアアイテムの第1の表現の輝度及び/又は彩度の低減(例えば、立体視メディアアイテムの第1の表現の周囲からの(例えば、立体視メディアアイテムの第1の表現の中心に向かう)距離が減少するにつれて、立体視メディアアイテムの第1の表現の輝度が増加する))で表示される(例えば、立体視メディアアイテムの第1の表現は、立体視メディアアイテムの第1の表現の中心で最も明るく、縁部で最も暗い)。いくつかの実施形態では、コンピュータシステムは、立体視メディアアイテムの第1の表現が最初に表示された後に、ビネット効果を適用する。いくつかの実施形態では、コンピュータシステムは、立体視メディアアイテムの第1の表現を最初に表示することの一部として、ビネット効果を適用する。
【0308】
いくつかの実施形態では、ユーザインタフェース(例えば、1104)を表示することは、仮想ポータル(例えば、1102)を表示することを含み、立体視メディアアイテム(例えば、1108)の第1の表現は、(例えば、図11Aを参照して上述したように)仮想ポータル内に表示される(例えば、仮想ポータルは、立体視メディアアイテムの第1の表現の周囲に表示される)。いくつかの実施形態では、仮想ポータルは、物理的環境の表現(例えば、光学又は仮想表現)の上にオーバーレイされる。いくつかの実施形態では、仮想ポータルは、三次元オブジェクトとして表示される(例えば、仮想ポータルは、深度を伴って表示される)。いくつかの実施形態では、コンピュータシステムは、ユーザが仮想ポータルのディスプレイの周りを移動するときにコンテンツがユーザに継続的に可視であるように、仮想ポータル内にコンテンツを表示する。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスであるとき、コンピュータシステムは、ユーザが物理的環境を歩き回っていること、及び/又は(例えば、ユーザがコンピュータシステムを装着している間に)ユーザの頭部を回していることを検出したことに応じて、仮想ポータルの異なる透視図を表示する。仮想ポータル内に立体視メディアアイテムの表現を表示することは、立体視メディアアイテムの第1の表現に含まれるコンテンツ間の(例えば、ユーザによって体験されるような)相対的な深度の知覚を向上させ、その結果、ユーザの視聴体験が向上する。
【0309】
いくつかの実施形態では、立体視メディアアイテム(例えば、1108)の第1の表現は、前景部分及び背景部分を含む。いくつかの実施形態では、立体視メディアアイテムの第1の表現を表示している間に、コンピュータシステムは、(例えば、図11A図11B、及び図11Cを参照して上述したように)ユーザの視点の第3の変化(例えば、700の視点の変化)(例えば、ユーザの全身の位置決めの変化、ユーザの身体の第1の部分(例えば、ユーザの身体)の位置決めの変化)(例えば、ユーザの側方移動、ユーザの左右移動、及び/又は水平面に沿ったユーザの移動)を検出する。いくつかの実施形態では、ユーザの視点の第3の変化の検出に応じて、コンピュータシステムは、表示生成構成要素(例えば、702)を介して、ユーザの視点の第3の変化に基づいて、立体視メディアアイテムの第1の表現の前景部分を立体視メディアアイテムの第1の表現の背景部分に対して移動させて表示しする(例えば、図11Bを参照して上述したように)(例えば、コンピュータシステムは、立体視メディアアイテムの第1の表現の前景部分及び背景部分に対して視差効果を表示する)(例えば、立体視メディアアイテムの第1の表現の前景部分は、立体視メディアアイテムの第1の表現の背景部分とは異なるようにシフトする(例えば、より速く移動する))(例えば、立体視メディアアイテムの第1の表現の前景部分内のオブジェクトは、ユーザの視点の変化に基づく第1の可変速度で移動し、立体視メディアアイテムの第1の表現の背景部分内のオブジェクトは、ユーザの視点の変化に基づく第2の可変速度で移動する)。立体視メディアアイテムの第1の表現の前景部分を立体視メディアアイテムの第1の表現の背景部分に対して移動させて表示することは、立体視メディアアイテムの第1の表現に関連付けられた深度データに関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【0310】
いくつかの実施形態では、仮想ポータル(例えば、1102)を表示することは、仮想ポータル(例えば、1102)の第1の部分(例えば、1118)(例えば、仮想ポータルのウィンドウ(例えば、立体視メディアアイテムの第1の表現がウィンドウ内に位置する))(例えば、仮想ポータルの全体よりも少ない)を、ユーザの第1の視点から第1の距離だけ離れた物理的環境(例えば、1106)の第1の表現内の第1のロケーションに表示することを含み、立体視メディアアイテムの第1の表現を表示する(例えば、レンダリングする)ことは、立体視メディアアイテムの第1の表現(例えば、1108)を、ユーザの第1の視点から第2の距離だけ離れた物理的環境(例えば、700の位置決め)の第1の表現内の第2のロケーションに表示することを含み、第2の距離は、第1の距離よりも大きい(例えば、仮想ポータルの第1の部分と立体視メディアアイテムの第1の表現との間にある量の立体視深度が存在する(例えば、コンピュータシステムは、立体視メディアアイテムの第1の表現が仮想ポータルの第1の部分の背後に位置決めされることをユーザに知覚させる別個の画像をユーザの2つの目に表示する))(例えば、表現は、仮想ポータルの第1の部分よりもユーザから遠い)。いくつかの実施形態では、コンピュータシステムは、ウィンドウとぼかし層との間に立体視メディアアイテムの第1の表現をレンダリングする。いくつかの実施形態では、コンピュータシステムは、第1のぼかしと第2のぼかしとの間で立体視メディアアイテムの第1の表現をレンダリングする。ポータルの第1の部分よりもユーザから更に離れて立体視メディアアイテムの表現を表示することは、コンピュータシステムが立体視メディアアイテムの第1の表現の上に様々な仮想オブジェクト(例えば、選択可能な仮想オブジェクト)を表示するときにユーザが体験し得るウィンドウバイオレーション(例えば、立体視メディアアイテムのコンテンツがウィンドウの前で知覚される時点で立体視メディアアイテムが背後に表示されるウィンドウの縁部によって立体視メディアアイテム内のオブジェクトが不明瞭にされるときに発生する視覚効果)の量を軽減し、これは、ユーザのための向上した視聴体験を提供する。
【0311】
いくつかの実施形態では、仮想ポータル(例えば、1102)は、ある量の厚さを有する三次元仮想オブジェクトであり、ユーザに表示される(例えば、可視である)厚さの量は、(例えば、図11Aに関連して上述したように)仮想ポータルのディスプレイに対するユーザの視点の角度に直接相関する(例えば、ユーザに可視である厚さの量は、仮想ポータルのディスプレイに対するユーザの視点の角度が増加すると増加する)。
【0312】
いくつかの実施形態では、立体視メディアアイテム(例えば、1108)の第1の表現を表示することは、立体視メディアアイテムの第1の表現の第1の縁部において(及び任意選択で、立体視メディアアイテムの第1の表現の1つ以上の他の縁部において)鏡面反射効果(例えば、1120)(例えば、仮想鏡面反射効果)(例えば、光の鏡のような反射)を表示することを含む。いくつかの実施形態では、鏡面反射効果は、立体視メディアアイテムの第1の表現の縁部のうちの2つ、3つ、又はそれ以上(例えば、全て)上に表示される。いくつかの実施形態では、鏡面反射効果は、立体視メディアアイテムの第1の表現の周囲に表示される。いくつかの実施形態では、鏡面反射効果の外観は、ユーザの視点の検出された変化に基づいて変化する。いくつかの実施形態では、コンピュータシステムは、物理的環境内の周囲照明が照明閾値を下回るという判定に従って、鏡面反射効果を表示することを中止する。いくつかの実施形態では、鏡面反射効果は静的である(例えば、鏡面反射効果の外観は、ユーザの視点が変化しても変化しない)。立体視メディアアイテムの表現の第1の縁部に鏡面反射効果を表示することは、仮想ポータルが物理的環境内の三次元オブジェクトであるという知覚を作成するのに役立ち、これは、ユーザが立体視メディアアイテムに関連付けられた深度データを視覚化するのを支援し、これは、ユーザのための向上した視聴体験を提供する。
【0313】
いくつかの実施形態では、立体視メディアアイテムの第1の表現(例えば、1108)は、物理的環境の第2の表現(例えば、1106)(例えば、光学表現又は仮想表現)内の第1のロケーション(例えば、仮想ロケーション)に表示され(例えば、第1のロケーションは、物理的環境内のコンピュータシステムの位置決めの正面にある物理的環境内のロケーションに対応する)、第1のロケーションは、ユーザの第1の視点(例えば、700の視点)から第1の距離(例えば、仮想距離)だけ離れている(例えば、6インチ、1フィート、1.5フィート、5フィート、又は10フィート)。いくつかの実施形態では、物理的環境の第2の表現内の第1のロケーションに立体視メディアアイテムの第1の表現を表示している間に、コンピュータシステムは、要求(例えば、コンピュータシステムと通信(例えば、有線通信及び/又は無線通信)しているハードウェアボタンのアクティブ化、エアジェスチャ(例えば、エアピンチ、エアスワイプ、及び/又はエアタップ)の(例えば、コンピュータシステムと通信している1つ以上のカメラを介した)検出)、及び/又は音声コマンド)(例えば、コンピュータシステムは、立体視メディアアイテムの第1の表現の表示のロケーションに対応する物理的環境内のロケーションにユーザが移動したことを検出する)を検出し、没入型外観を有する立体視メディアアイテムを表示する(例えば、図11Dにおいて上述したように)(例えば、第1の人物ビュー)。いくつかの実施形態では、没入型外観で立体視メディアアイテムの第1の表現を表示する要求を検出したことに応じて、コンピュータシステムは、物理的環境の第2の表現内の第2のロケーションから立体視メディアアイテムの第1の表現を表示し、第2のロケーションは、ユーザの第1の視点(例えば、700の視点)から第2の距離だけ離れており、第2の距離は、第1の距離未満であり(例えば、図11Eを参照して上述したように)(例えば、コンピュータシステムは、立体視メディアアイテムの第1の表現の表示をユーザの視点に向かって移動させ、かつ/又はコンピュータシステムは、ユーザが立体視メディアアイテムの第1の表現の表示のより近くに移動したことを検出する)(例えば、コンピュータシステムがメディアアイテムの第1の表現を第1のロケーションから第2のロケーションに移動させている間に、コンピュータシステムは、立体視メディアアイテムの第1の表現の表示を維持する)、コンピュータシステムは、(例えば、図11Eを参照して上述したように)物理的環境の第2の表現内の第1のロケーションと物理的環境の第2の表現内の第2のロケーションとの間の経路に平行な立体視メディアアイテムの第1の表現の平面に沿って、立体視メディアアイテムの第1の表現のサイズを増大させる(例えば、立体視メディアアイテムの第1の表現の表示は、立体視メディアアイテムの第1の表現のサイズが増大された後(例えば、立体視メディアアイテムの第1の表現が没入型外観で表示されている間)、ユーザの視野のより多くを占有する)(例えば、z軸に沿った立体視メディアアイテムの第1の表現の厚さが増加される)。いくつかの実施形態では、没入型外観を有する立体視メディアアイテムを表示することは、立体視メディアアイテムの第1の表現に含まれるコンテンツの表現の異なる透視図を表示することを含み、異なる透視図は、環境内の共通点にある。いくつかの実施形態では、物理的環境の表現は、ユーザに可視である一方、立体視メディアアイテムの第1の表現は、没入型外観で表示される。いくつかの実施形態では、コンピュータシステムは、立体視メディアアイテムの第1の表現を、物理的環境の表現内の第1のロケーションから物理的環境の表現内の第2のロケーションに移動するものとして表示し、一方、コンピュータシステムは、立体視メディアアイテムの第1の表現のサイズを増大させて表示する。いくつかの実施形態では、コンピュータシステムは、コンピュータシステムが立体視メディアアイテムの第1の表現のサイズを増大させて表示する前又は後に、物理的環境の表現内の第1のロケーションから物理的環境の表現内の第2のロケーションに移動するように立体視メディアアイテムの第1の表現を表示する。いくつかの実施形態では、コンピュータシステムは、立体視メディアアイテムの第1の表現を非没入型外観で表示する要求を検出したことに応じて、立体視メディアアイテムの第1の表現を没入型外観で表示することを中止する。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスであるとき、立体視メディアアイテムの外観は、立体視メディアアイテムが没入型外観で表示されている間のユーザの頭部の位置的配向に対応する。いくつかの実施形態では、コンピュータシステムがヘッドマウントデバイスであるとき、コンピュータシステムは、コンピュータシステムの第1のディスプレイデバイスの大部分(例えば、全体)上に立体視メディアアイテムを表示し、コンピュータシステムは、コンピュータシステムの第2のディスプレイデバイスの大部分(例えば、全体)上に立体視メディアアイテムを表示し、コンピュータシステムの第1のディスプレイデバイスは、ユーザの第1の目に対応し(例えば、第1のディスプレイデバイスは、ユーザの第1の目に可視である)、コンピュータシステムの第2のディスプレイデバイスは、ユーザの第2の目に対応する(例えば、第2のディスプレイデバイスは、ユーザの第2の目に可視である)。立体視メディアアイテムの第1の表現をユーザのより近くに表示し、立体視メディアアイテムの第1の表現のサイズを大きくすることは、コンピュータシステムの状態に関する視覚的フィードバックをユーザに提供し(例えば、コンピュータシステムは、没入型外観で立体視メディアアイテムの第1の表現を表示する要求を検出した)、これは、改善された視覚的フィードバックを提供する。
【0314】
いくつかの実施形態では、立体視メディアアイテム(例えば、1108)の第1の表現に含まれるコンテンツ(例えば、1108の木及び人物)は、空間メディアがキャプチャされたときにキャプチャされたオブジェクトのスケールに対して所定の関係を有する個別のスケールで表示される(例えば、立体視メディアアイテムの第1の表現に含まれるコンテンツは、立体視メディアアイテムがキャプチャされたときにオブジェクトが位置していた物理的環境に対するメディアアイテム内のオブジェクトのスケールと比較して、物理的環境の表現に対して1:1のスケールで表示される)(例えば、立体視メディアアイテムの第1の表現に含まれるコンテンツは、現実世界スケールで表示される)立体視メディアアイテムの第1の表現は、(例えば、図11Eで上述したように)没入型外観で表示される。いくつかの実施形態では、コンピュータシステムは、没入型外観で立体視メディアアイテムの第1の表現を表示する要求をコンピュータシステムが検出する前に、フルスケール未満で立体視メディアアイテムの第1の表現に含まれるコンテンツを表示する(例えば、立体視メディアアイテムの第1の表現は、非没入型外観で表示される)。空間メディアがキャプチャされたときにキャプチャされたオブジェクトのスケールに対して所定の関係を有する個別のスケールで立体視メディアアイテムの第1の表現に含まれるコンテンツを表示することは、立体視メディアアイテムの第1の表現が没入型外観を有する間にユーザの視聴体験を向上させる、立体視メディアアイテムの第1の表現に含まれるコンテンツの相対的な現実世界サイズ及び位置決めの正確な表現をユーザに提供する。
【0315】
いくつかの実施形態では、没入型外観を有する立体視メディアアイテムの第1の表現(例えば、図11E図11Fの1108)を表示する要求を検出する前に、立体視メディアアイテムの第1の表現を表示することは、非没入型外観を有する立体視メディアアイテムの第1の表現(例えば、図11A図11Dの1108)を表示することを含む(例えば、立体視メディアアイテムの第1の表現に含まれるコンテンツの外観は、コンピュータシステムの視点の変化に基づいて変化しない)。いくつかの実施形態では、(例えば、図11Eを参照して上述したように)立体視メディアアイテムの第1の表現は、没入型外観で表示されたときに、ユーザの第2の視点の第1の角度範囲(例えば、ユーザの視点の周りの180、270、又は360度)を占有する(例えば、立体視メディアアイテムの第1の表現は、ユーザの第2の視点の第1の角度範囲を占有せず、(例えば、コンピュータシステムが没入型外観で第1の表現を表示する要求を検出する前に)立体視メディアアイテムの第1の表現は、非没入型外観で表示される)。いくつかの実施形態では、立体視メディアアイテムの第1の表現は、非没入型外観で表示されたときに、ユーザの第2の視点の第2の角度範囲(例えば、30、45、60、120、又は180度)を占有し、第2の角度範囲は、(例えば、図11Eを参照して上述したように)第1の角度範囲よりも小さい。立体視メディアアイテムの第1の表現が没入型外観で表示されている間に、ユーザの視点のより大きい角度範囲の周りに立体視メディアアイテムの第1の表現を表示することは、立体視メディアアイテムの第1の表現に含まれるコンテンツのビューを維持しながら、より大きい動きの範囲内で移動する能力をユーザに提供し、これは、ユーザのための向上した視聴体験を提供する。
【0316】
いくつかの実施形態では、立体視メディアアイテムは、第2の複数の縁部(例えば、3つの縁部、4つの縁部、5つの縁部、又は6つの縁部)を含む。いくつかの実施形態では、立体視メディアアイテムの第1の表現が没入型外観(例えば、図11E及び図11Fの1108)で表示されている間に、立体視メディアアイテム(例えば、1108によって表されるメディアアイテム)の第2の複数の縁部が第3のコンテンツを含むという判定に従って、コンピュータシステムは、立体視メディアアイテムの第1の表現の第1の縁部に第3のコンテンツの表現を表示し(例えば、少なくとも第3の縁部から外側に延びる)、第3のコンテンツの表現は、(例えば、図11Eを参照して上述したように)第3のコンテンツの外挿に基づき(例えば、第3のコンテンツの表現は、立体視メディアアイテムの複数の縁部の各縁部において可視であるコンテンツの外挿を含む)(例えば、第3の表現は、立体視メディアアイテムにおいて可視でないコンテンツを含む)、立体視メディアアイテムの第2の複数の縁部が第4のコンテンツを含むという判定に従って、コンピュータシステムは、立体視メディアアイテムの第1の表現の第1の縁部に第4のコンテンツの表現を表示し、第4のコンテンツの表現は、(例えば、図11Eを参照して上述したように)第4のコンテンツの外挿に基づく。いくつかの実施形態では、第3のコンテンツの外挿に基づく第3のコンテンツの表現はぼかされる。いくつかの実施形態では、第4のコンテンツの外挿に基づく第4のコンテンツの表現はぼかされる。いくつかの実施形態では、第3のコンテンツ/第4のコンテンツの表現は、ユーザの視点の変化の検出に応じて変化する。
【0317】
いくつかの実施形態では、コンピュータシステムは、非立体視メディアアイテム(例えば、複数の透視図からキャプチャされたコンテンツを含まないメディアアイテム)の表現を表示し、非立体視メディアアイテムは、(例えば、図11Aを参照して上述したように)視覚効果(例えば、衝突ぼかし1112b)なしで表示される(例えば、非立体視メディアアイテムは、立体視メディアアイテムが表示される上述した視覚効果なしで表示される(例えば、非立体視メディアアイテムは、ぼかし効果が非立体視メディアアイテムの中央に向かって延びるにつれて強度が減少するぼかし効果で表示されず、非立体視メディアアイテムは、非立体視メディアアイテムに含まれるコンテンツの一部分を不明瞭にするぼかし効果で表示されず、非立体視メディアアイテムで表示されるぼかし効果の量は、コンピュータシステムの視点の変化に応じて変化せず、ぼかし効果が不明瞭にするコンテンツの部分は、コンピュータシステムの視点が変化することに応じて変化せず、非立体視メディアアイテムは、非立体視メディアアイテムに含まれるコンテンツの外挿に基づくぼかし領域で表示されず、非立体視メディアアイテムは、没入型外観で表示されず、ユーザの両目は、コンピュータシステムの視点の変化に応じて非立体視メディアアイテムの外観の同じ変化を見る)。いくつかの実施形態では、非立体視メディアアイテムの表現は、立体視メディアアイテムの第1の表現と同時に表示される。いくつかの実施形態では、コンピュータシステムは、非立体視メディアアイテムを表示することに応じて、立体視メディアアイテムの第1の表現を表示することを中止する。いくつかの実施形態において、上述した視覚効果のいくつかの組み合わせは、立体視メディアアイテムに適用され、非立体視メディアアイテムには適用されない。いくつかの実施形態では、上記で説明した視覚効果のいくつかの組み合わせが、立体視メディアアイテムと非立体視メディアアイテムの両方に適用される。
【0318】
いくつかの実施形態では、コンピュータシステムは、立体視メディアアイテムの第1の表現とは異なる第2の立体視メディアアイテムの第2の表現を表示する(例えば、第2の立体視メディアアイテムの第2の表現は、立体視メディアアイテムの第1の表現に含まれるコンテンツとは異なるコンテンツを含む)、第2の立体視メディアアイテムの第2の表現は、第2の視覚効果(例えば、衝突ぼけ1112b)を用いて表示され(例えば、第2の立体視メディアアイテムの第2の表現は、立体視メディアアイテムが有する上記の視覚効果を用いて表示される)(例えば、第2の立体視メディアアイテムの第2の表現は、ぼかし効果が第2の立体視メディアアイテムの第2の表現の中央に向かって延びるにつれて強度が減少するぼかし効果を伴って表示される、第2の立体視メディアアイテムの第2の表現は、第2の立体視メディアアイテムの第2の表現に含まれるコンテンツの一部を不明瞭にするぼかし効果を伴って表示され、第2の立体視メディアアイテムの第2の表現内に表示されるぼかし効果の量は、コンピュータシステムの視点が変化するにつれて変化し、ぼかし効果が不明瞭にする第2の立体視メディアアイテムの第2の表現内のコンテンツの部分は、コンピュータシステムの視点が変化することに応じて変化し、第2の立体視メディアアイテムの第2の表現は、第2の立体視メディアアイテムの第2の表現に含まれるコンテンツの外挿に基づくぼかし領域とともに表示され、第2の立体視メディアアイテムの第2の表現は、没入型外観で表示されることができ、ユーザの目は、コンピュータシステムの視点が変化することに応じて、第2の立体視メディアアイテムの第2の表現の外観に対する異なる変化を見る)、第2の視覚効果は、第2の立体視メディアアイテムの第2の表現の少なくとも第1の部分を不明瞭にし、第2の立体視メディアアイテムの第2の表現の少なくとも第1の縁部から第2の立体視メディアアイテムの第2の表現の内部(例えば、図11Aを参照して上述したように)(例えば、第2の立体視メディアアイテムの第2の表現の中心)(例えば、第1のエッジの方向に対して垂直である第2の立体視メディアアイテムの第2の表現の中心に向かって内側に延びる方向に)に向かって内側に延在する。いくつかの実施形態では、コンピュータシステムは、第2の立体視メディアアイテムの第2の表現を表示することの一部として、立体視メディアアイテムの第1の表現を表示することを中止する。いくつかの実施形態では、コンピュータシステムは、立体視メディアアイテムの第1の表現と第2の立体視メディアアイテムの第2の表現とを同時に表示する。
【0319】
いくつかの実施形態では、方法800、900、1000、及び1100の態様/動作は、これらの方法の間で交換、置換、及び/又は追加され得る。例えば、方法900で説明されるズーム動作は、任意選択的に、増加及び/又は減少したズームレベルでメディアアイテムの表現を表示するために使用される。簡潔にするために、それらの詳細はここでは繰り返さない。
【0320】
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、想到される特定の用途に適した様々な変更で本発明及び様々な記載された実施形態を最良の形で使用することを有効化するために、これらの実施形態を選択し記載した。
【0321】
上述したように、本技術の一態様は、ユーザのXR体験を改善するために、様々なソースから入手可能なデータを収集及び使用することである。本開示は、いくつかの場合には、この収集されたデータが、特定の人を一意に識別する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを考察する。そのような個人情報データとしては、人口統計データ、ロケーションベースのデータ、電話番号、電子メールアドレス、ツイッターID、自宅の住所、ユーザの健康若しくはフィットネスのレベルに関するデータ若しくは記録(例えば、バイタルサイン測定値、投薬情報、運動情報)、生年月日、又は任意の他の識別情報若しくは個人情報を挙げることができる。
【0322】
本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。例えば、個人情報データは、ユーザのXR体験を向上させるために使用することができる。更に、ユーザに利益をもたらす個人情報データに関する他の使用も本開示によって意図されている。例えば、健康データ及びフィットネスデータは、ユーザの全般的なウェルネスについての洞察を提供するために使用することができ、又は、ウェルネスの目標を追求する技術を使用している個人への、積極的なフィードバックとして使用することもできる。
【0323】
本開示は、そのような個人情報データの収集、分析、開示、送信、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変更されるにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。その上、そのようなエンティティは、そのような個人情報データへのアクセスを保護及び安全化し、個人情報データへのアクセス権を有する他者が、それらのプライバシーポリシー及び手順を忠実に守ることを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更に、そのようなエンティティは、広く受け入れられているプライバシーポリシー及び慣行に対する自身の遵守を証明するために、サードパーティによる評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はそれへのアクセスは、医療保険の相互運用性と説明責任に関する法律(HIPAA)などの、連邦法及び/又は州法に準拠し得る。その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国において、異なる個人データのタイプに関して異なるプライバシー慣行が保たれるべきである。
【0324】
前述のことがらにも関わらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素が提供され得ることを意図している。例えば、XR体験の場合において、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成され得る。別の例では、ユーザは、サービスのカスタマイズのためにデータを提供しないことを選択することができる。更に別の実施例では、ユーザは、データが維持される時間長を制限するか、又はカスタマイズされたサービスの展開を完全に禁止するかを選択することができる。「オプトイン」及び「オプトアウト」のオプションを提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを意図している。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。
【0325】
更には、本開示の意図は、個人情報データを、非意図的若しくは許可のないアクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなると削除することにより、リスクを最小化することができる。加えて、特定の健康関連アプリケーションにおいて適用可能な場合、ユーザのプライバシーを保護するために、データの匿名化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、ロケーションデータを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって集約すること)及び/又は他の方法によって、容易にすることができる。
【0326】
それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものであるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することも可能であることを想到する。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部が欠如することにより、動作不可能にされるものではない。例えば、ユーザに関連付けられたデバイスによって要求されているコンテンツなどの非個人情報データ若しくは必要最小量の個人情報、サービスに利用可能な他の非個人情報、又は公的に入手可能な情報に基づき嗜好を推測することによって、XR体験を生成できる。
図1
図2
図3
図4
図5
図6
図7A
図7B
図7C
図7D
図7E
図7F
図7G
図7H
図7I
図7J
図7K
図7L
図7M
図7N
図8
図9
図10
図11A
図11B
図11C
図11D
図11E
図11F
図12
【手続補正書】
【提出日】2024-03-18
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
方法であって、
表示生成構成要素と通信しているコンピュータシステムにおいて、
前記表示生成構成要素を介して、ユーザインタフェースであって、
立体視メディアアイテムの第1の表現であって、前記立体視メディアアイテムの前記第1の表現は、少なくとも第1の縁部を含む、立体視メディアアイテムの第1の表現と、
視覚効果であって、前記視覚効果は、前記立体視メディアアイテムの少なくとも第1の部分を不明瞭にし、前記立体視メディアアイテムの前記第1の表現の少なくとも前記第1の縁部から前記立体視メディアアイテムの前記第1の表現の内部に向かって内側に延びる、視覚効果と、を含む、ユーザインタフェースを表示することを含む、方法。
【請求項2】
前記立体視メディアアイテムは、カメラのセットからキャプチャされ、前記カメラのセットのうちの第1のカメラは、物理的環境の第1の透視図をキャプチャし、前記カメラのセットのうちの第2のカメラは、前記物理的環境の第2の透視図をキャプチャし、前記第2の透視図は、前記第1の透視図とは異なり、前記立体視メディアアイテムの前記第1の表現を表示することは、
前記表示生成構成要素を介して、前記物理的環境の前記第1の透視図をユーザの第2の目ではなく前記ユーザの第1の目に表示することと、
前記表示生成構成要素を介して、前記第2の透視図を前記ユーザの前記第1の目ではなく前記ユーザの前記第2の目に表示することと、を含む、請求項1に記載の方法。
【請求項3】
前記立体視メディアアイテムの前記第1の表現を表示している間に、ユーザの視点の第1の変化を検出することと、
前記ユーザの前記視点の前記第1の変化を検出したことに応じて、前記ユーザの前記視点の前記第1の変化に基づいて、前記立体視メディアアイテムの前記第1の表現の外観を変更することと、
を更に含む、請求項1に記載の方法。
【請求項4】
前記立体視メディアアイテムの前記第1の表現の前記外観を変更する前に、前記視覚効果は、前記立体視メディアアイテムの前記第1の表現の前記第1の部分を不明瞭にし、
前記立体視メディアアイテムの前記第1の表現の前記外観を変更することは、前記視覚効果が、前記第1の部分とは異なる前記立体視メディアアイテムの前記第1の表現の第2の部分を不明瞭にするように、前記視覚効果を修正すること、
を含む、請求項3に記載の方法。
【請求項5】
前記立体視メディアアイテムの前記第1の表現の前記外観を変更することは、
第1の方式で、ユーザの右目ではなく前記ユーザの左目に表示される前記立体視メディアアイテムの前記第1の表現の前記外観を変更することと、
前記ユーザの前記左目ではなく前記ユーザの前記右目に表示される前記立体視メディアアイテムの前記第1の表現の前記外観を、第2の方式であって、前記第2の方式は、前記第1の方式とは異なる、第2の方式で変更することと、を含む、請求項3に記載の方法。
【請求項6】
前記視覚効果は、前記視覚効果が前記立体視メディアアイテムの前記第1の表現の少なくとも前記第1の縁部から前記立体視メディアアイテムの前記第1の表現の前記内部に向かって内側に延びるにつれて、複数の値にわたって減少する視覚特性を有する、請求項1に記載の方法。
【請求項7】
前記立体視メディアアイテムの前記第1の表現は、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部におけるコンテンツを含み、前記視覚効果は、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部における前記コンテンツのぼかしである、請求項6に記載の方法。
【請求項8】
前記視覚効果は、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部及び第2の縁部上に表示され、前記方法は、
前記立体視メディアアイテムの前記第1の表現を表示している間に、ユーザの前記視点の第2の変化であって、前記ユーザの前記視点の前記第2の変化は、前記立体視メディアアイテムの前記第1の表現の前記表示に対する前記ユーザの前記視点の角度の変化を含む、ユーザの前記視点の第2の変化を検出することと、
前記ユーザの前記視点の前記第2の変化を検出したことに応じて、
前記ユーザの前記視点の前記第2の変化が第1の方向であるという判定に従って、前記立体視メディアアイテムの前記第1の表現の少なくとも前記第2の縁部上の前記視覚効果のサイズを増大させ、
前記ユーザの前記視点の前記第2の変化が前記第1の方向とは異なる第2の方向であるという判定に従って、前記立体視メディアアイテムの前記第1の表現の少なくとも前記第1の縁部上の前記視覚効果の前記サイズを増大させることと、を更に含む、請求項3に記載の方法。
【請求項9】
前記ユーザインタフェースを表示することは、ぼかし領域を表示することを含み、前記立体視メディアアイテムは、第1の複数の縁部を含み、
前記立体視メディアアイテムの前記第1の複数の縁部が第1のコンテンツを含むという判定に従って、前記ぼかし領域は、前記第1のコンテンツのぼかし表現を含み、前記第1のコンテンツの前記ぼかし表現は、前記第1のコンテンツの外挿に基づき、
前記立体視メディアアイテムの前記第1の複数の縁部が第2のコンテンツを含むという判定に従って、前記ぼかし領域は、前記第2のコンテンツのぼかし表現を含み、前記第2のコンテンツの前記ぼかし表現は、前記第2のコンテンツの外挿に基づく、請求項1に記載の方法。
【請求項10】
前記立体視メディアアイテムの前記第1の表現は、ビネット効果を伴って表示される、請求項1に記載の方法。
【請求項11】
前記ユーザインタフェースを表示することは、仮想ポータルを表示することを含み、前記立体視メディアアイテムの前記第1の表現は、前記仮想ポータル内に表示される、請求項1に記載の方法。
【請求項12】
前記立体視メディアアイテムの前記第1の表現は、前景部分及び背景部分を含み、前記方法は、
前記立体視メディアアイテムの前記第1の表現を表示している間に、ユーザの前記視点の第3の変化を検出することと、
前記ユーザの前記視点の前記第3の変化を検出したことに応じて、前記表示生成構成要素を介して、前記ユーザの前記視点の前記第3の変化に基づいて、前記立体視メディアアイテムの前記第1の表現の前記前景部分を、前記立体視メディアアイテムの前記第1の表現の前記背景部分に対して移動させて表示することと、を更に含む、請求項8に記載の方法。
【請求項13】
前記仮想ポータルを表示することは、ユーザの第1の視点から第1の距離だけ離れた物理的環境の第1の表現内の第1のロケーションに前記仮想ポータルの第1の部分を表示することを含み、前記立体視メディアアイテムの前記第1の表現を表示することは、前記ユーザの前記第1の視点から第2の距離だけ離れた前記物理的環境の前記第1の表現内の第2のロケーションに前記立体視メディアアイテムの前記第1の表現を表示することを含み、前記第2の距離は、前記第1の距離よりも大きい、請求項11に記載の方法。
【請求項14】
前記仮想ポータルは、ある量の厚さを有する三次元仮想オブジェクトであり、ユーザに表示される前記厚さの量は、前記仮想ポータルのディスプレイに対する前記ユーザの視点の角度に直接相関する、請求項11に記載の方法。
【請求項15】
前記立体視メディアアイテムの前記第1の表現を表示することは、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部において鏡面反射効果を表示することを含む、請求項1に記載の方法。
【請求項16】
前記立体視メディアアイテムの前記第1の表現は、前記物理的環境の第2の表現内の第1のロケーションに表示され、前記第1のロケーションは、ユーザの第1の視点から第1の距離だけ離れており、前記方法は、
前記物理的環境の前記第2の表現内の前記第1のロケーションに前記立体視メディアアイテムの前記第1の表現を表示している間に、没入型外観で前記立体視メディアアイテムを表示する要求を検出することと、
前記没入型外観で前記立体視メディアアイテムの前記第1の表現を表示する前記要求を検出したことに応じて、
前記物理的環境の前記第2の表現内の第2のロケーションであって、前記第2のロケーションは、前記ユーザの前記第1の視点から第2の距離だけ離れており、前記第2の距離は、前記第1の距離よりも短い、第2のロケーションから、前記立体視メディアアイテムの前記第1の表現を表示し、
前記物理的環境の前記第2の表現内の前記第1のロケーションと前記物理的環境の前記第2の表現内の前記第2のロケーションとの間の経路に平行である前記立体視メディアアイテムの前記第1の表現の平面に沿って前記立体視メディアアイテムの前記第1の表現のサイズを増大させることと、を更に含む、請求項2に記載の方法。
【請求項17】
前記立体視メディアアイテムの前記第1の表現に含まれるコンテンツは、空間メディアがキャプチャされたときにキャプチャされたオブジェクトのスケールに対して所定の関係を有する個別のスケールで表示され、前記立体視メディアアイテムの前記第1の表現は、前記没入型外観で表示される、請求項16に記載の方法。
【請求項18】
前記没入型外観を有する前記立体視メディアアイテムの前記第1の表現を表示する前記要求を検出する前に、前記立体視メディアアイテムの前記第1の表現を表示することは、非没入型外観を有する前記立体視メディアアイテムの前記第1の表現を表示することを含み、
前記立体視メディアアイテムの前記第1の表現は、前記没入型外観で表示されたときに、ユーザの第2の視点の第1の角度範囲を占有し、
前記立体視メディアアイテムの前記第1の表現は、前記非没入型外観で表示されたときに、前記ユーザの前記第2の視点の第2の角度範囲であって、前記第2の角度範囲は、前記第1の角度範囲よりも小さい、第2の角度範囲を占有する、請求項16に記載の方法。
【請求項19】
前記立体視メディアアイテムは、第2の複数の縁部を含み、前記方法は、
前記立体視メディアアイテムの前記第1の表現が前記没入型外観で表示されている間に、
前記立体視メディアアイテムの前記第2の複数の縁部が第3のコンテンツを含むという判定に従って、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部において、前記第3のコンテンツの表現であって、前記第3のコンテンツの前記表現は、前記第3のコンテンツの外挿に基づく、前記第3のコンテンツの表現を表示することと、
前記立体視メディアアイテムの前記第2の複数の縁部が第4のコンテンツを含むという判定に従って、前記立体視メディアアイテムの前記第1の表現の前記第1の縁部において、前記第4のコンテンツの表現であって、前記第4のコンテンツの前記表現は、前記第4のコンテンツの外挿に基づく、前記第4のコンテンツの表現を表示することと、を更に含む、請求項16に記載の方法。
【請求項20】
非立体視メディアアイテムであって、前記非立体視メディアアイテムは、前記視覚効果なしに表示される、非立体視メディアアイテムの表現を表示すること、
を更に含む、請求項1に記載の方法。
【請求項21】
前記立体視メディアアイテムの第1の表現とは異なる第2の立体視メディアアイテムの第2の表現であって、前記第2の立体視メディアアイテムの前記第2の表現は、第2の視覚効果とともに表示され、前記第2の視覚効果は、前記第2の立体視メディアアイテムの前記第2の表現の少なくとも第1の部分を不明瞭にし、前記第2の立体視メディアアイテムの前記第2の表現の少なくとも第1の縁部から前記第2の立体視メディアアイテムの前記第2の表現の内部に向かって内側に延びる、第2の立体視メディアアイテムの第2の表現を表示すること、
を更に含む、請求項1に記載の方法。
【請求項22】
コンピュータに請求項1~21のいずれか一項に記載の方法を実行させるコンピュータプログラム
【請求項23】
コンピュータシステムであって、
請求項22に記載のコンピュータプログラムを格納したメモリと、
前記メモリに格納された前記コンピュータプログラムを実行可能な1以上のプロセッサと
を備え、
前記コンピュータシステムは、表示生成構成要素と通信するように構成される、コンピュータシステム
【請求項24】
表示生成構成要素と通信するように構成されたコンピュータシステムであって、
請求項1~21のいずれか一項に記載の方法を実行するための手段を備える、コンピュータシステム。
【手続補正書】
【提出日】2024-09-19
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0173
【補正方法】変更
【補正の内容】
【0173】
図8は、いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な方法800のフロー図である。いくつかの実施形態では、方法800は、表示生成構成要素(例えば、702)(例えば、ディスプレイコントローラ、タッチ感知ディスプレイシステム、ディスプレイ(例えば、統合及び/又は接続された)、3Dディスプレイ、透明ディスプレイ、プロジェクタ、及び/又はヘッドアップディスプレイ)及び1つ以上の入力デバイス(例えば、715)(例えば、タッチ感知面(例えば、タッチ感知ディスプレイ))と通信するコンピュータシステム(例えば、700)(例えば、図1のコンピュータシステム101)(例えば、スマートフォン、スマートウォッチ、タブレット、及び/又はウェアラブルデバイス)、マウス、キーボード、リモートコントロール、視覚入力デバイス(例えば、カメラ)、オーディオ入力デバイス(例えば、マイクロフォン)、及び/又はバイオメトリックセンサ(例えば、指紋センサ、顔識別センサ、及び/又は虹彩識別センサ))で実行される。いくつかの実施形態では、方法800は、非一時的(又は一時的)コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1のコントロール110)などのコンピュータシステムの1つ以上のプロセッサによって実行される命令によって統御される。方法800のいくつかの動作は、任意選択的に、組み合わされ、かつ/又はいくつかの動作の順序は、任意選択的に、変更される。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0230
【補正方法】変更
【補正の内容】
【0230】
いくつかの実施形態では、コンピュータシステムは、1つ以上の入力デバイスを介して、メディアライブラリユーザインタフェース(例えば、708)内の第1のポジションに対応するユーザ視線(例えば、714)を検出する(例えば、第2の時点の後の第6の時点で)(例えば、第3の方式で第1のメディアアイテムの表現を表示した後又は表示している間に)(例えば、ユーザがメディアライブラリユーザインタフェース内の第1のポジション(例えば、第1のメディアアイテムの表現に対応するメディアライブラリユーザインタフェース内の第1のポジション)を注視していることを検出及び/又は判定する)。メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に(例えば、第6の時点の後の第7の時点で)、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディアアイテム(例えば、710F)の選択に対応する選択ジェスチャ(例えば、718)(例えば、エアジェスチャ)(例えば、ユーザの手、頭部、及び/又は身体の移動)(いくつかの実施形態では、1つ以上の非ジェスチャ入力)(例えば、ユーザの視線が第1のメディアアイテムに向けられている及び/又はその上に維持されている間の片手ピンチジェスチャ及び/又は両手ピンチ解除ジェスチャ)を検出する。メディアライブラリユーザインタフェース内の第1のポジションに対応するユーザ視線を検出し続けている間に第1のメディアアイテムの選択に対応する選択ジェスチャを検出したことに応じて、選択ジェスチャが第1のタイプの選択ジェスチャ(例えば、エアジェスチャ)(例えば、片手ピンチジェスチャ、片手ダブルピンチジェスチャ、両手ピンチジェスチャ、両手ピンチ解除ジェスチャ、部分的に完了した片手ピンチジェスチャ、及び/又は完了した片手ピンチジェスチャ)に対応するという判定に従って、コンピュータシステムは、表示生成構成要素を介して、第9の方式で(例えば、視覚特性の第9のセットを用いて)第1のメディアアイテムを表示し(例えば、中間選択状態で(例えば、メディアライブラリユーザインタフェースから選択されたメディアユーザインタフェースに遷移させる遷移状態で)第1のメディアアイテムを表示する)(例えば、選択されたメディアユーザインタフェースに表示された第1のメディアアイテムのサイズよりも小さく、メディアライブラリユーザインタフェース内の第1のメディアアイテムの表現のサイズよりも大きいサイズで第1のメディアアイテムを表示する)、選択ジェスチャが、第1のタイプの選択ジェスチャとは異なる第2のタイプの選択ジェスチャ(例えば、片手ピンチジェスチャ、片手ダブルピンチジェスチャ、両手ピンチジェスチャ、両手ピンチ解除ジェスチャ、部分的に完了した片手ピンチジェスチャ、及び/又は完了した片手ピンチジェスチャ)に対応するという判定に従って、コンピュータシステムは、表示生成構成要素を介して、第9の方式とは異なる第10の方式で(例えば、視覚特性の第9のセットとは異なる視覚特性の第10のセットを用いて)(例えば、第1のメディアアイテムのユーザ選択を示すメディアライブラリユーザインタフェースとは異なる選択されたメディアユーザインタフェースにおいて)第1のメディアアイテムを表示する、いくつかの実施形態では、第9の方式で第1のメディアアイテムを表示することは、遷移状態で第1のメディアアイテムを表示することを含み、第10の方式で第1のメディアアイテムを表示することは、選択状態で第1のメディアアイテムを表示することを含む。いくつかの実施形態では、第9の方式で第1のメディアアイテムを表示することは、メディアライブラリユーザインタフェース内の第1のメディアアイテムの表現のサイズよりも大きい第1のサイズで第1のメディアアイテムを表示することを含み、第10の方式で第1のメディアアイテムを表示することは、(例えば、図7Fを参照して説明されるように)第1のサイズよりも大きい第2のサイズで第1のメディアアイテムを表示することを含む。第1のメディアアイテムの選択に対応する選択ジェスチャを検出したことに応じて、第9の方式及び/又は第10の方式で第1のメディアアイテムを表示することは、システムの状態(例えば、システムが第1のメディアアイテムの選択に対応する選択ジェスチャを検出したこと)に関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0232
【補正方法】変更
【補正の内容】
【0232】
図9は、いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な方法900のフロー図である。いくつかの実施形態では、方法1000は、表示生成構成要素(例えば、702)(例えば、ディスプレイコントローラ、タッチ感知ディスプレイシステム、ディスプレイ(例えば、統合及び/又は接続された)、3Dディスプレイ、透明ディスプレイ、プロジェクタ、及び/又はヘッドアップディスプレイ)及び1つ以上の入力デバイス(例えば、715)(例えば、タッチ感知面(例えば、タッチ感知ディスプレイ))と通信するコンピュータシステム(例えば、700)(例えば、図1のコンピュータシステム101)(例えば、スマートフォン、スマートウォッチ、タブレット、及び/又はウェアラブルデバイス)、マウス、キーボード、リモートコントロール、視覚入力デバイス(例えば、カメラ)、オーディオ入力デバイス(例えば、マイクロフォン)、及び/又はバイオメトリックセンサ(例えば、指紋センサ、顔識別センサ、及び/又は虹彩識別センサ))で実行される。いくつかの実施形態では、方法1000は、非一時的(又は一時的)コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1のコントロール110)などのコンピュータシステムの1つ以上のプロセッサによって実行される命令によって統御される。方法900のいくつかの動作は、任意選択的に、組み合わされ、かつ/又はいくつかの動作の順序は、任意選択的に、変更される。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0244
【補正方法】変更
【補正の内容】
【0244】
図10は、いくつかの実施形態による、メディアアイテム及びユーザインタフェースと相互作用するための例示的な方法1000のフロー図である。いくつかの実施形態では、方法1000は、表示生成構成要素(例えば、702)(例えば、ディスプレイコントローラ、タッチ感知ディスプレイシステム、ディスプレイ(例えば、統合及び/又は接続された)、3Dディスプレイ、透明ディスプレイ、プロジェクタ、及び/又はヘッドアップディスプレイ)及び1つ以上の入力デバイス(例えば、715)(例えば、タッチ感知面(例えば、タッチ感知ディスプレイ))と通信するコンピュータシステム(例えば、700)(例えば、図1のコンピュータシステム101)、マウス、キーボード、リモートコントロール、視覚入力デバイス(例えば、カメラ)、オーディオ入力デバイス(例えば、マイクロフォン)、及び/又はバイオメトリックセンサ(例えば、指紋センサ、顔識別センサ、及び/又は虹彩識別センサ))で実行される。いくつかの実施形態では、方法1000は、非一時的(又は一時的)コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1のコントロール110)などのコンピュータシステムの1つ以上のプロセッサによって実行される命令によって統御される。方法1000のいくつかの動作は、任意選択的に、組み合わされ、かつ/又はいくつかの動作の順序は、任意選択的に、変更される。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0287
【補正方法】変更
【補正の内容】
【0287】
図11Cにおいて、コンピュータシステム700は、コンピュータシステム700が仮想ポータル1102のディスプレイの左側に位置決めされている(例えば、コンピュータシステム700が仮想ポータル1102のディスプレイに対してある角度で位置決めされている)と判定する。図11Cにおいて、コンピュータシステム700は、コンピュータシステム700が仮想ポータル1102のディスプレイの左側に位置決めされていると判定するため、コンピュータシステム700は、コンピュータシステム700のディスプレイデバイス702の中心の右側に仮想ポータル1102を表示する。更に、図11Cにおいて、コンピュータシステム700は、コンピュータシステム700が仮想ポータル1102のディスプレイの左側に位置決めされているという判定を行うため、コンピュータシステム700は、仮想ポータル1102の右境界上に表示される(例えば、視覚効果1112の一部を形成する)後方ぼかし層1112aの量を(例えば、図11A及び図11Bにおいて仮想ポータル1102の右境界上に表示される後方ぼかし層1112aの量と比較して)増加させる。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、ユーザの異なる目にそれぞれ対応する、コンピュータシステム700の2つの別個のディスプレイデバイスの中心の右側に仮想ポータル1102を別個に表示する(例えば、コンピュータシステム700は、ユーザの目毎に、ディスプレイの中心の右側に仮想ポータル1102を別個に表示する)。いくつかの実施形態では、コンピュータシステム700がヘッドマウントデバイスであるとき、コンピュータシステム700は、ユーザの異なる目にそれぞれ対応する、コンピュータシステム700の2つの別個のディスプレイデバイスのための仮想ポータル1102の右境界上の後方ぼかし層1112aの表示の量を別個に増加させる(例えば、コンピュータシステム700は、ユーザの各目のための仮想ポータル1102のディスプレイの量を別個に増加させる)。
【国際調査報告】