(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-04-21
(54)【発明の名称】コンピュータ生成体験を提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
(51)【国際特許分類】
G06F 3/01 20060101AFI20230414BHJP
G06T 19/00 20110101ALI20230414BHJP
【FI】
G06F3/01 510
G06T19/00 600
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2022554242
(86)(22)【出願日】2021-03-15
(85)【翻訳文提出日】2022-09-07
(86)【国際出願番号】 US2021022378
(87)【国際公開番号】W WO2021188439
(87)【国際公開日】2021-09-23
(32)【優先日】2020-03-16
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2021-03-12
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】503260918
【氏名又は名称】アップル インコーポレイテッド
【氏名又は名称原語表記】Apple Inc.
【住所又は居所原語表記】One Apple Park Way,Cupertino, California 95014, U.S.A.
(74)【代理人】
【識別番号】110003281
【氏名又は名称】弁理士法人大塚国際特許事務所
(72)【発明者】
【氏名】ルメイ, ステファン オー.
(72)【発明者】
【氏名】アイブ, ジョナサン
(72)【発明者】
【氏名】ソレンティーノ サード, ウィリアム エー.
(72)【発明者】
【氏名】フュエルゴ ワグナー, アルフレッド ビー.
(72)【発明者】
【氏名】バシム, デ アラウージョ イー シルヴァ, フェリペ
(72)【発明者】
【氏名】ダイ, アラン シー.
(72)【発明者】
【氏名】スズキ, グレッグ エス.
(72)【発明者】
【氏名】アントン, ピーター ディー.
(72)【発明者】
【氏名】ライオンズ, リチャード ディー.
(72)【発明者】
【氏名】ワン, ワン シ
(72)【発明者】
【氏名】ピヴォンカ, パヴェル
(72)【発明者】
【氏名】キム, スン, ウック
(72)【発明者】
【氏名】リンドメイヤー, ウィリアム ディー.
(72)【発明者】
【氏名】バウリー, クリスティ イー.エス.
【テーマコード(参考)】
5B050
5E555
【Fターム(参考)】
5B050AA03
5B050BA06
5B050BA09
5B050BA12
5B050BA13
5B050CA07
5B050CA08
5B050DA04
5B050EA04
5B050EA19
5B050EA26
5B050FA02
5B050FA05
5B050FA06
5B050FA13
5B050FA14
5E555AA64
5E555BA02
5E555BB02
5E555BC04
5E555BD07
5E555BE17
5E555CA42
5E555CB66
5E555CC01
5E555DB31
5E555DB32
5E555DC19
5E555DC30
5E555FA00
(57)【要約】
コンピューティングシステムは、第1の表示生成コンポーネントを介して、第1のコンピュータ生成環境を表示し、第2の表示生成コンポーネントを介して、第1の表示生成コンポーネントを介して第1のコンピュータ生成環境を閲覧する位置にいるコンピューティングシステムのユーザの一部分の視覚表現と、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素と、を同時に表示する。コンピューティングシステムは、ユーザの一部分の視覚表現を変更して、個別の期間にわたるユーザの外観の変化を表し、1つ以上のグラフィック要素を変更して、個別の期間にわたる第1のコンピュータ生成環境の変化を表す。
【特許請求の範囲】
【請求項1】
第1の表示生成コンポーネントと、第2の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて、
前記第1の表示生成コンポーネントを介して、第1のコンピュータ生成環境を表示することと、
前記第1の表示生成コンポーネントを介して前記第1のコンピュータ生成環境を表示している間に、前記第2の表示生成コンポーネントを介して、
前記第1の表示生成コンポーネントを介して前記第1のコンピュータ生成環境を閲覧する位置にいる前記コンピューティングシステムのユーザの一部分の視覚表現と、
前記第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素と、
を同時に表示することであって、
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、
前記ユーザの前記一部分の前記視覚表現を変更して、個別の期間にわたる前記ユーザの外観の変化を表すことと、
前記第1のコンピュータ生成環境内のコンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を変更して、前記個別の期間にわたる前記第1のコンピュータ生成環境の変化を表すことと、
を含む、ことと、
を含む、方法。
【請求項2】
前記ユーザの前記一部分の前記視覚表現を変更して、前記個別の期間にわたる前記ユーザの前記外観の変化を表すことが、
前記第1の表示生成コンポーネントに対する第1の方向の前記ユーザの前記一部分の移動に従って、前記第2の表示生成コンポーネント上の前記第1の方向の前記ユーザの前記一部分の前記視覚表現の移動を表示することと、
前記第1の表示生成コンポーネントに対する前記第1の方向に実質的に垂直な第2の方向の前記ユーザの前記一部分の移動に従って、前記第2の方向と実質的に反対の前記第2の表示生成コンポーネント上の第3の方向の前記ユーザの前記一部分の前記視覚表現の移動を表示することと、
を含む、請求項1に記載の方法。
【請求項3】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、前記視覚表現の第1の表示特性に対して指定された既定の特性値に従って、前記ユーザの前記一部分の前記視覚表現を生成することを含む、請求項1に記載の方法。
【請求項4】
前記視覚表現の前記第1の表示特性に対して指定された前記既定の特性値が、前記ユーザの前記一部分の前記視覚表現の不透明度の既定の低減量を含む、請求項3に記載の方法。
【請求項5】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、前記ユーザの前記一部分の前記視覚表現に既定の視覚効果を適用することを含む、請求項1から4のいずれか一項に記載の方法。
【請求項6】
前記第2の表示生成コンポーネントを介して前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、前記ユーザの前記一部分の前記視覚表現と、前記第1のコンピュータ生成環境の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素との間に、拡散着色層を表示することを含む、請求項1から5のいずれか一項に記載の方法。
【請求項7】
前記第2の表示生成コンポーネントを介して前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、前記ユーザの前記一部分の前記視覚表現を第1のグラフィック解像度で表示することと、前記第1のコンピュータ生成環境の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を前記第1のグラフィック解像度とは異なる第2のグラフィック解像度で表示することと、を含む、請求項1から6のいずれか一項に記載の方法。
【請求項8】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、
前記ユーザの前記外観の第1の変化が検出されたとの判定に従って、前記第1のコンピュータ生成環境内の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を変更することなく、前記ユーザの前記外観の前記第1の変化に従って、前記ユーザの前記一部分の前記視覚表現を変更することを含む、請求項1から7のいずれか一項に記載の方法。
【請求項9】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、
前記ユーザの前記外観が変更されないままでいる間に、前記第1のコンピュータ生成環境内の前記コンテンツの第2の変化が検出されたとの判定に従って、前記ユーザの前記一部分の前記視覚表現を変更することなく、前記第1のコンピュータ生成環境内の前記コンテンツの前記第2の変化に従って、前記第1のコンピュータ生成環境内の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素のうちの少なくとも1つを変更することを含む、請求項1から8のいずれか一項に記載の方法。
【請求項10】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、
前記ユーザの前記外観の第3の変化が前記第1のコンピュータ生成環境内の前記コンテンツの第4の変化とともに検出されたとの判定に従って、前記第1のコンピュータ生成環境内の前記コンテンツの前記第4の変化に従って、前記第1のコンピュータ生成環境内の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を変更することと連動して、前記ユーザの前記外観の前記第3の変化に従って、前記ユーザの前記一部分の前記視覚表現を変更することを含む、請求項1から9のいずれか一項に記載の方法。
【請求項11】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、前記ユーザの前記一部分の前記視覚表現と同時に前記コンテンツの修正バージョンを表示することを含み、前記コンテンツの前記修正バージョンが、前記コンテンツの画像に適用されると、前記画像の画像忠実度を低減する、1つ以上の画像フィルタを用いて生成され、
前記第1のコンピュータ生成環境内のコンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を変更して、前記個別の期間にわたる前記第1のコンピュータ生成環境の変化を表すことが、前記コンテンツが変化するにつれて、前記コンテンツの画像に前記1つ以上の画像フィルタを適用することによって、前記コンテンツの前記修正バージョンを更新することを含む、
請求項1から10のいずれか一項に記載の方法。
【請求項12】
前記ユーザの前記一部分の前記視覚表現が、前記ユーザの目の画像を含む、請求項1から11のいずれか一項に記載の方法。
【請求項13】
前記ユーザの前記一部分の前記視覚表現が、前記ユーザの目の1つ以上の画像に基づいて生成される仮想オブジェクトを含み、前記仮想オブジェクトの外観及び移動が、前記コンピューティングシステムの1つ以上のセンサによってキャプチャされた前記ユーザの目の外観及び移動に対応する、請求項1から11のいずれか一項に記載の方法。
【請求項14】
前記ユーザの前記一部分の前記視覚表現を変更して、前記個別の期間にわたる前記ユーザの前記外観の変化を表すことが、
前記ユーザに対応するアイトラッキングデータを取得することと、
前記ユーザに対応する前記アイトラッキングデータに基づいて、前記ユーザの前記一部分の前記視覚表現を更新することと、
を含む、請求項1から13のいずれか一項に記載の方法。
【請求項15】
第1の表示生成コンポーネントと、第2の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて、
前記第1の表示生成コンポーネントを介して、コンピュータ生成環境を表示することと、
前記第1の表示生成コンポーネントを介して前記コンピュータ生成環境を表示している間に、前記第2の表示生成コンポーネントを介して前記コンピューティングシステムに対応する状態情報を表示することであって、
前記第1の表示生成コンポーネントを介して前記コンピュータ生成環境を閲覧する位置にいる前記コンピューティングシステムのユーザの一部分の視覚表現と、
前記コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素と、
を同時に表示することを含む、ことと、
個別のイベントを検出することと、
前記個別のイベントを検出したことに応じて、
前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の没入レベルを変更することと、
前記コンピューティングシステムの前記ユーザの前記一部分の前記視覚表現の外観を変更することを含む、前記第2の表示生成コンポーネントを介して表示される前記状態情報を変更することと、
を含む、方法。
【請求項16】
前記コンピューティングシステムが、少なくとも第1の没入レベル、第2の没入レベル、及び第3の没入レベルで前記コンピュータ生成環境を表示するように構成されている、
請求項15に記載の方法。
【請求項17】
前記個別のイベントを検出したことに応じて、前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の前記没入レベルを変更することが、
前記個別のイベントが第1の基準を満たすイベントであるとの判定に従って、前記コンピュータ生成環境を前記第2の没入レベルで表示することから前記コンピュータ生成環境を前記第1の没入レベルで表示することに切り替えることと、
前記個別のイベントが前記第1の基準とは異なる第2の基準を満たすイベントであるとの判定に従って、前記コンピュータ生成環境を前記第2の没入レベルで表示することから前記コンピュータ生成環境を前記第3の没入レベルで表示することに切り替えることと、
を含む、請求項16に記載の方法。
【請求項18】
前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の前記没入レベルを変更することが、前記コンピュータ生成環境を第2の没入レベルで表示することから前記コンピュータ生成環境を第1の没入レベルで表示することに切り替えることを含み、前記第1の没入レベルで表示される前記コンピュータ生成環境が、閾値量未満のコンピュータ生成コンテンツを有する前記物理的環境 のビューを提供し、
前記第2の表示生成コンポーネントを介して表示される前記状態情報を変更することが、前記コンピュータ生成環境を前記第2の没入レベルで表示することから前記コンピュータ生成環境を前記第1の没入レベルで表示することに切り替えることと連動して、前記コンピュータ生成環境内の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素とともに前記コンピューティングシステムの前記ユーザの前記一部分の前記視覚表現を表示することから、前記1つ以上のグラフィック要素なしで前記ユーザの前記一部分の前記視覚表現を表示することに切り替えることを含む、
請求項15から17のいずれか一項に記載の方法。
【請求項19】
前記コンピューティングシステムが、前記コンピュータ生成環境が前記第1の表示生成コンポーネントを取り囲む物理的環境の表現及び少なくとも閾値量の仮想オブジェクトを含む複合現実環境であるとの判定に従って、前記ユーザの前記一部分の前記視覚表現と前記コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する前記1つ以上のグラフィック要素を同時に表示する、請求項15から18のいずれか一項に記載の方法。
【請求項20】
前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の前記没入レベルを変更することが、前記コンピュータ生成環境を第2の没入レベルで表示することから前記コンピュータ生成環境を第3の没入レベルで表示することに切り替えることを含み、前記第3の没入レベルで表示される前記コンピュータ生成環境が、前記物理的環境の閾値量未満の表現を有する仮想環境を提供し、
前記第2の表示生成コンポーネントを介して表示される前記状態情報を変更することが、前記コンピュータ生成環境を前記第2の没入レベルで表示することから前記コンピュータ生成環境を前記第3没入レベルで表示することに切り替えることと連動して、前記コンピュータ生成環境内の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素とともに前記コンピューティングシステムの前記ユーザの前記一部分の前記視覚表現を表示することから、前記ユーザの前記一部分の前記視覚表現なしで前記1つ以上のグラフィック要素を表示することに切り替えることを含む、
請求項15から19のいずれか一項に記載の方法。
【請求項21】
前記第1の表示生成コンポーネントを介して前記コンピュータ生成環境を表示し、かつ前記第2の表示生成コンポーネントを介して前記コンピューティングシステムに対応する前記状態情報を表示している間に、前記第2の表示生成コンポーネントを介して表示される前記1つ以上のグラフィック要素が第1の閾値視認性未満の視認性を有することを必要とする、前記コンピューティングデバイス のプライバシーモードをアクティブ化する第1のユーザ要求を検出することと、
前記第1のユーザ要求を検出したことに応じて、
前記コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する前記1つ以上のグラフィック要素の視認性が前記プライバシーモードに対応する前記第1の閾値視認性を上回っている間に、前記第1のユーザ要求が受信されたとの判定に従って、前記第2の表示生成コンポーネント上の前記1つ以上のグラフィック要素の前記視認性を前記プライバシーモードに対応する前記第1の閾値視認性を下回って減少させることと、
前記コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する前記1つ以上のグラフィック要素の前記視認性が前記プライバシーモードに対応する前記第1の閾値視認性を上回らない間に、前記第1のユーザ要求が受信されたとの判定に従って、前記1つ以上のグラフィック要素の前記視認性を前記プライバシーモードに対応する前記第1の閾値視認性を下回って維持することと、
を含む、請求項15から20のいずれか一項に記載の方法。
【請求項22】
前記プライバシーモードが、前記第2の表示生成コンポーネントを介して表示される前記ユーザの前記一部分の前記視覚表現が第2の閾値視認性未満の視認性を有することを必要とし、前記方法が、
前記第1のユーザ要求を検出したことに応じて、
前記ユーザの前記一部分の前記視覚表現の視認性が前記プライバシーモードに対応する前記第2の閾値視認性を上回っている間に、前記第1のユーザ要求が受信されたとの判定に従って、前記第2の表示生成コンポーネント上の前記ユーザの前記一部分の前記視覚表現の前記視認性を前記プライバシーモードに対応する前記第2の閾値視認性を下回って減少させることと、
前記ユーザの前記一部分の前記視覚表現の前記視認性が前記プライバシーモードに対応する前記第2の閾値視認性を上回らない間に、前記第1のユーザ要求が受信されたとの判定に従って、前記ユーザの前記一部分の前記視覚表現の前記視認性を前記プライバシーモードに対応する前記第2の閾値視認性を下回って維持することと、
を含む、請求項21に記載の方法。
【請求項23】
前記プライバシーモードが前記コンピューティングシステム上でアクティブである間に、前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の没入レベルを変更する第2の個別のイベントを検出することと、
前記第2の個別のイベント及び前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の前記没入レベルの前記対応する変化を検出したことに応じて、前記第2の表示生成コンポーネントを介して表示される前記状態情報を変更することを取り止めることと、
を含む、請求項21又は22に記載の方法。
【請求項24】
前記第1の表示生成コンポーネントを介して前記コンピュータ生成環境を表示している間に、前記コンピューティングデバイスのサイレント(DND)モードをアクティブ化する第2のユーザ要求を検出することと、
前記第2のユーザ要求を検出したことに応じて、前記第2の表示生成コンポーネントを介して視覚インジケータを表示して、前記DNDモードがアクティブであることを示すことと、
を含む、請求項15から23のいずれか一項に記載の方法。
【請求項25】
前記DNDモードが前記コンピューティングシステム上でアクティブである間に、前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の没入レベルを変更する第3の個別のイベントを検出することと、
前記第3の個別のイベント及び前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の前記没入レベルの前記対応する変化を検出したことに応じて、前記第2の表示生成コンポーネントを介して表示される前記状態情報を変更することを取り止めることと、
を含む、請求項24に記載の方法。
【請求項26】
前記第1の表示生成コンポーネントを介して前記コンピュータ生成環境を表示している間に、前記コンピューティングデバイスのペアレンタルコントロールモードであって、前記第2の表示生成コンポーネントを介して表示される前記1つ以上のグラフィック要素が第3の閾値視認性より大きい視認性を有することを必要とする、ペアレンタルコントロールモードをアクティブ化する第3のユーザ要求を検出することと、
前記第3のユーザ要求を検出したことに応じて、
前記コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する前記1つ以上のグラフィック要素の視認性が前記ペアレンタルコントロールモードに対応する前記第3の閾値視認性未満である間に、前記第3のユーザ要求が受信されたとの判定に従って、前記第2の表示生成コンポーネント上の前記1つ以上のグラフィック要素の前記視認性を前記ペアレンタルコントロールモードに対応する前記第3の閾値視認性を上回って増加させることと、
を含む、請求項15から25のいずれか一項に記載の方法。
【請求項27】
前記ペアレンタルコントロールモードが前記コンピューティングシステム上でアクティブである間に、前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の没入レベルを変更する第4の個別のイベントを検出することと、
前記第4の個別のイベント及び前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の前記没入レベルの前記対応する変化を検出したことに応じて、前記第2の表示生成コンポーネントを介して表示される前記状態情報を変更することを取り止めることと、
を含む、請求項26に記載の方法。
【請求項28】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、第1の深度で前記ユーザの前記一部分の前記視覚表現を表示することと、前記第2の表示生成コンポーネントを介して表示される前記状態情報の外部視点から前記第1の深度よりも小さい第2の深度で前記1つ以上のグラフィック要素を表示することと、を含む、請求項15から27のいずれか一項に記載の方法。
【請求項29】
前記コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する前記1つ以上のグラフィック要素が、少なくとも、前記第1の表示生成コンポーネントを介して表示されるときの前記コンピュータ生成環境内の前記コンテンツの進度を示す進度インジケータを含む、請求項15から28のいずれか一項に記載の方法。
【請求項30】
前記コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する前記1つ以上のグラフィック要素が、第1の表示特性であって、前記第1の表示特性の値が前記コンピュータ生成環境内の前記コンテンツの前記第1の表示特性の値に基づく、第1の表示特性を有する、請求項15から29のいずれか一項に記載の方法。
【請求項31】
前記コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する前記1つ以上のグラフィック要素が、前記コンピュータ生成環境の前記コンテンツの1つ以上のサブ部分を含む、請求項15から30のいずれか一項に記載の方法。
【請求項32】
前記コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する前記1つ以上のグラフィック要素が、前記コンピュータ生成環境の前記コンテンツを識別するメタデータを含む、請求項15から31のいずれか一項に記載の方法。
【請求項33】
前記コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する前記1つ以上のグラフィック要素を表示することが、
前記第2の表示生成コンポーネントに対する前記第2の表示生成コンポーネントを介して表示される前記状態情報を閲覧する位置にいる第2のユーザの第1の移動を検出することと、
前記第2の表示生成コンポーネントに対する前記第2のユーザの前記第1の移動を検出したことに応じて、前記第2のユーザと前記第2の表示生成コンポーネントとの間の距離が第1の閾値距離の上から前記第1の閾値距離の下まで減少したとの判定に従って、前記1つ以上のグラフィック要素の表示を更新して、前記1つ以上のグラフィック要素によって提供される前記コンピュータ生成環境内のコンテンツの前記視覚インジケーションの情報密度を増加させることと、
を含む、請求項15から32のいずれか一項に記載の方法。
【請求項34】
前記第1の表示生成コンポーネントを介して前記コンピュータ生成環境を表示し、かつ前記第2の表示生成コンポーネントを介して前記コンピューティングシステムに対応する前記状態情報を表示している間に、前記第2の表示生成コンポーネントを介して表示される前記状態情報を閲覧する位置にいる第3のユーザによってトリガされる第5の個別のイベントを検出することと、
前記第5の個別のイベントを検出したことに応じて、前記第5の個別のイベントが第4の基準であって、前記第4の基準が満たされるために、前記第5の個別のイベントの結果として相互作用の事前設定された尺度が事前設定された閾値の下から前記事前設定された閾値の上に増加したこと、及び前記コンピュータ生成環境が第3の没入レベルで表示されていることを必要とする第4の基準を満たすとの判定に従って、
前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の没入レベルを前記第3の没入レベルから第2の没入レベルであって、前記第2の没入レベルで表示される前記コンピュータ生成環境が、前記第3の没入レベルで表示される前記コンピュータ生成環境よりも前記物理的環境の増加した量の表現を含む、第2の没入レベルに変更することと、
を含む、請求項15から33のいずれか一項に記載の方法。
【請求項35】
前記第5の個別のイベントを検出したことに応じて、前記第5の個別のイベントが前記第4の基準を満たすとの判定に従って、
前記第1の表示生成コンポーネントを介して表示される前記コンピュータ生成環境の前記没入レベルを前記第3の没入レベルから前記第2の没入レベルに変更することと連動して、前記コンピューティングシステムの前記ユーザの前記一部分の前記視覚表現の視認性を増加させることを含む、前記第2の表示生成コンポーネントを介して表示される前記状態情報を変更すること、
を含む、請求項34に記載の方法。
【請求項36】
前記第5の個別のイベントを検出することが、前記コンピューティングシステムの前記ユーザを取り囲む既定の領域内への前記第3のユーザの立ち入りを検出することを含む、請求項35に記載の方法。
【請求項37】
前記第5の個別のイベントを検出することが、前記第3のユーザが前記コンピューティングシステムの前記ユーザに向かって既定のジェスチャを実行することを検出することを含む、請求項35又は36に記載の方法。
【請求項38】
第1の表示生成コンポーネントと、第2の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて、
前記第2の表示生成コンポーネントを介して1つ以上のユーザインタフェース要素を表示することと、
前記第2の表示生成コンポーネントを介して前記1つ以上のユーザインタフェース要素を表示している間に、前記第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたことを検出することと、
前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きに移動されたことを検出したことに応じて、
前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きに移動されたときに、前記第2の表示生成コンポーネントを介して第1のユーザインタフェース要素を表示することに対応する第1の状態に前記コンピューティングシステムがあったとの判定に従って、前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きにある間に、前記第1の表示生成コンポーネントを介して第1のユーザインタフェースを表示することと、
前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きに移動されたときに、前記第2の表示生成コンポーネントを介して前記第1のユーザインタフェース要素を表示する代わりに、前記第2の表示生成コンポーネントを介して第2のユーザインタフェース要素を表示することに対応する第2の状態に前記コンピューティングシステムがあったとの判定に従って、前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きにある間に、前記第1の表示生成コンポーネントを介して、前記第1のユーザインタフェースとは異なる第2のユーザインタフェースを表示することと、
を含む、方法。
【請求項39】
前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きに移動されたことを検出したことに応じて、
前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きに移動されたときに、前記第2の表示生成コンポーネントを介して第3のユーザインタフェース要素を表示することに対応する第3の状態に前記コンピューティングシステムがあったとの判定に従って、前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きにある間に、前記第1の表示生成コンポーネントを介して、前記第1のユーザインタフェース及び前記第2のユーザインタフェースとは異なる第3のユーザインタフェースを表示すること、
を含む、請求項38に記載の方法。
【請求項40】
前記第1のユーザインタフェースが、第1の仮想コンテンツを含む第1の三次元環境であり、前記第2のユーザインタフェースが、前記第1の仮想コンテンツとは異なる第2の仮想コンテンツを含む第2の三次元環境である、請求項38又は39に記載の方法。
【請求項41】
前記第1のユーザインタフェースが、前記第1の表示生成コンポーネントを取り囲む物理的環境の表現を有さずに第1の仮想コンテンツを含む第1の三次元環境であり、前記第2のユーザインタフェースが、前記第1の表示生成コンポーネントを取り囲む前記物理的環境の表現を有さずに第2の仮想コンテンツを含む、前記第1の三次元環境とは異なる第2の三次元環境である、請求項38又は39に記載の方法。
【請求項42】
前記第1のユーザインタフェースが、前記第1の表示生成コンポーネントを取り囲む物理的環境の表現とともに第1の仮想コンテンツを含む第1の三次元環境であり、前記第2のユーザインタフェースが、前記第1の表示生成コンポーネントを取り囲む前記物理的環境の表現とともに第2の仮想コンテンツを含む、前記第1の三次元環境とは異なる第2の三次元環境である、請求項38又は39に記載の方法。
【請求項43】
前記第1のユーザインタフェースが、第1の三次元環境であり、前記第2のユーザインタフェースが、第2の三次元環境であり、前記第1の三次元環境及び前記第2の三次元環境のうちの1つが、前記第1の表示生成コンポーネントを取り囲む物理的環境の表現とともに第1の仮想コンテンツを含み、前記第1の三次元環境及び前記第2の三次元環境のうちの1つが、前記第1の表示生成コンポーネントを取り囲む前記物理的環境の表現を有さずに第2の仮想コンテンツを含む、請求項38又は39に記載の方法。
【請求項44】
前記1つ以上のユーザインタフェース要素を表示することが、カレンダーの要素を表示することを含み、
前記第1のユーザインタフェース及び前記第2のユーザインタフェースが、前記カレンダーに対応するそれぞれのユーザインタフェースである、
請求項38から43のいずれか一項に記載の方法。
【請求項45】
前記第1の状態の前記コンピューティングシステムが、前記カレンダーに対応する第1のイベントを検出して、前記1つ以上のユーザインタフェース要素の一部として前記第1のイベントに対応する第1の通知を表示し、
前記第1のユーザインタフェースが、前記第1の通知よりも前記第1のイベントのより詳細を含む前記第1のイベントに対応するユーザインタフェースである、
請求項44に記載の方法。
【請求項46】
前記1つ以上のユーザインタフェース要素を表示することが、個別のメディアアイテムの視覚表現を表示することを含み、
前記第1のユーザインタフェース及び前記第2のユーザインタフェースが、前記メディアアイテムのコンテンツを再生する、
請求項38から43のいずれか一項に記載の方法。
【請求項47】
前記第1の状態の前記コンピューティングシステムが、第1のメディアアイテムの利用可能性に対応する第3のイベントを検出して、前記コンピューティングシステムが、前記1つ以上のユーザインタフェース要素の一部として前記第1のメディアアイテムの第1の視覚表現を表示し、
前記第1のユーザインタフェースが、前記第1のメディアアイテムを再生するユーザインタフェースである、
請求項44に記載の方法。
【請求項48】
前記1つ以上のユーザインタフェース要素を表示することが、個別の着信通信要求の通知を表示することを含み、
前記第1のユーザインタフェース及び前記第2のユーザインタフェースが、前記個別の着信通信要求に対応する通信インタフェースである、
請求項38から43のいずれか一項に記載の方法。
【請求項49】
前記第1の状態の前記コンピューティングシステムが、第1の通信要求に対応する第5のイベントを検出して、前記コンピューティングシステムが、前記1つ以上のユーザインタフェース要素の一部として前記第1の通信要求の第1の視覚表現を表示し、
前記第1のユーザインタフェースが、前記第1の通信要求に対応する第1の通信セッションを提供するユーザインタフェースである、
請求項48に記載の方法。
【請求項50】
前記1つ以上のユーザインタフェース要素を表示することが、
前記ユーザが第1の識別情報を有するとの判定に従って、前記第1の識別情報に対応する規則の第1のセットに従って、前記1つ以上のユーザインタフェース要素の表示をカスタマイズすることと、
前記ユーザが前記第1の識別情報とは異なる第2の識別情報を有するとの判定に従って、前記第2の識別情報に対応する規則の第2のセットであって、規則の前記第1のセットとは異なる規則の第2のセットに従って、前記1つ以上のユーザインタフェース要素の表示をカスタマイズすることと、
を含む、請求項38から49のいずれか一項に記載の方法。
【請求項51】
前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きに移動されたことを検出する前に、前記第2の表示生成コンポーネントを介して、前記第1のユーザインタフェース及び前記第2のユーザインタフェースのうちの個別の1つが前記第1の表示生成コンポーネントを介して提示するために利用可能である、前記コンピューティングシステムの2つ以上のモードのセットに対応する選択可能なオプションを表示することと、
前記コンピューティングシステムの2つ以上のモードの前記セットのうちの1つに対応する個別の選択可能なオプションを選択するユーザ入力を検出することと、
前記ユーザ入力を検出したことに応じて、
前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きに移動されたとの判定に従って、前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きにある間に、前記個別の選択可能なオプションに対応する前記モードで前記第1の表示生成コンポーネントを介して前記第1のユーザインタフェース及び前記第2のユーザインタフェースのうちの前記個別の1つを表示することと、
を含む、請求項38から50のいずれか一項に記載の方法。
【請求項52】
前記1つ以上のユーザインタフェース要素が、前記第1の表示生成コンポーネントが前記ユーザの前記個別の一部分に対して前記所定の向きに移動されると、前記第1の表示生成コンポーネントを介して表示するために利用可能な三次元体験のプレビューを含む、請求項38から51のいずれか一項に記載の方法。
【請求項53】
第1の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて、
前記第1の表示生成コンポーネントがユーザに対して第1の既定の構成に配置されていることに対応する第1のトリガイベントを検出することと、
前記第1のトリガイベントを検出したことに応じて、
前記第1の表示生成コンポーネントを含む前記コンピューティングシステムが前記ユーザに対して前記第1の既定の構成にある間に前記ユーザによって着用されているとの判定に従って、前記第1の表示生成コンポーネントを介して、第1のコンピュータ生成体験を提供することと、
前記第1の表示生成コンポーネントを含む前記コンピューティングシステムが前記ユーザに対して前記第1の既定の構成にある間に前記ユーザによって着用されていないとの判定に従って、前記第1の表示生成コンポーネントを介して、前記第1のコンピュータ生成体験とは別個の第2のコンピュータ生成体験を提供することと、
を含む、方法。
【請求項54】
前記第1の表示生成コンポーネントを含む前記コンピューティングシステムが前記ユーザに対して前記第1の既定の構成にある間に前記ユーザによって着用されているとの判定に従って、前記コンピューティングシステムが、前記第1のコンピュータ生成体験と相互作用するために、前記第1の表示生成コンポーネント又は前記第1の表示生成コンポーネントのハウジングと接触していない前記ユーザの手の移動に基づく少なくとも第1の入力方式を提供し、
前記第1の表示生成コンポーネントを含む前記コンピューティングシステムが前記ユーザに対して前記第1の既定の構成にある間に前記ユーザによって着用されていないとの判定に従って、前記コンピューティングシステムが、前記第2のコンピュータ生成体験と相互作用するために、前記第1の表示生成コンポーネント又は前記第1の表示生成コンポーネントの前記ハウジングと接触していない前記ユーザの前記手の移動に基づく前記第1の入力方式を提供しない、
請求項53に記載の方法。
【請求項55】
前記第1の表示生成コンポーネントを含む前記コンピューティングシステムが前記ユーザに対して前記第1の既定の構成にある間に前記ユーザによって着用されていないとの判定に従って、前記コンピューティングシステムが、前記第2のコンピュータ生成体験と相互作用するために、前記第1の表示生成コンポーネント又は前記第1の表示生成コンポーネントのハウジングと接触している前記ユーザの手のうちの少なくとも1つの移動に基づく少なくとも第2の入力方式を提供する、
請求項53又は54に記載の方法。
【請求項56】
前記第1の表示生成コンポーネントを含む前記コンピューティングシステムが前記ユーザに対して前記第1の既定の構成にある間に前記ユーザによって着用されているとの判定に従って、前記コンピューティングシステムが、前記第1のコンピュータ生成体験と相互作用するために、前記第1の表示生成コンポーネント又は前記第1の表示生成コンポーネントの前記ハウジング上に配置された少なくとも1つの入力デバイスについて前記第2の入力方式を無効にする、
請求項55に記載の方法。
【請求項57】
前記コンピューティングシステムが、前記第1のコンピュータ生成体験及び前記第2のコンピュータ生成体験の両方に第1の仮想コンテンツを提供し、
前記コンピューティングシステムが、前記第1の仮想コンテンツが前記第1のコンピュータ生成体験に提供されているときに、前記第1の仮想コンテンツに対して第1の相互作用方式を有効にし、
前記コンピューティングシステムが、前記第1の仮想コンテンツが前記第2のコンピュータ生成体験に提供されているときに、前記第1の仮想コンテンツに対して前記第1の相互作用方式とは異なる第2の相互作用方式を有効にする、
請求項53から56のいずれか一項に記載の方法。
【請求項58】
前記第1のコンピュータ生成体験が、異なるコンピュータ生成体験に対応する複数のユーザインタフェースオブジェクトを含み、前記複数のユーザインタフェースオブジェクトの各々が、ユーザ入力によってアクティブ化されると、前記コンピューティングシステムに、前記ユーザインタフェースオブジェクトに対応する個別のコンピュータ生成体験を開始させ、
前記第2のコンピュータ生成体験が、前記コンピューティングシステムのカメラを制御するためのカメラユーザインタフェースである、
請求項53から57のいずれか一項に記載の方法。
【請求項59】
前記第1の表示生成コンポーネントを含む前記コンピューティングシステムが前記ユーザに対して前記第1の既定の構成にある間に前記ユーザによって着用されているとの判定に従って、前記コンピューティングシステムが、前記第1の表示生成コンポーネント及び前記第1の表示生成コンポーネントのハウジングから離れた手によって実行されたジェスチャに基づいて、前記第1のコンピュータ生成体験との相互作用を有効にし、
前記第1の表示生成コンポーネントを含む前記コンピューティングシステムが前記ユーザに対して前記第1の既定の構成にある間に前記ユーザによって着用されていないとの判定に従って、前記コンピューティングシステムが、前記第1の表示生成コンポーネント又は前記第1の表示生成コンポーネントの前記ハウジング上の手によって実行されたジェスチャに基づいて、前記第2のコンピュータ生成体験との相互作用を有効にする、
請求項53から58のいずれか一項に記載の方法。
【請求項60】
第1の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて、
物理的環境内の物理的オブジェクトの位置に対応する三次元環境内の位置に前記物理的オブジェクトの表現を表示している間に、前記物理的オブジェクトに対応するコンピュータ生成体験が前記第1の表示生成コンポーネントを介して表示するために利用可能であるという視覚インジケーションを表示することと、
コンピュータ生成体験が前記第1の表示生成コンポーネントを介して表示するために利用可能であるという前記視覚インジケーションを表示している間に、前記物理的環境内の前記物理的オブジェクトとの相互作用を検出することと、
前記物理的環境内の前記物理的オブジェクトとの前記相互作用を検出したことに応じて、
前記物理的環境内の前記物理的オブジェクトとの前記相互作用が前記物理的オブジェクトに対応する第1の基準を満たすとの判定に従って、前記第1の表示生成コンポーネントを介して、前記物理的オブジェクトに対応する前記コンピュータ生成体験を表示することと、
前記物理的環境内の前記物理的オブジェクトとの前記相互作用が前記第1の基準を満たさないとの判定に従って、前記物理的オブジェクトに対応する前記コンピュータ生成体験を表示することを取り止めることと、
を含む、方法。
【請求項61】
前記物理的環境の第1の一部分の表現を表示することから前記物理的環境の第2の一部分の表現を表示することに切り替えることを含む、前記第1の表示生成コンポーネントを介して表示される前記三次元環境のビューを変更することと、
前記三次元環境の前記ビューを変更したことに応じて、
前記物理的環境の前記第1の一部分が前記物理的オブジェクトの閾値部分未満を含み、かつ前記物理的環境の前記第2の一部分が前記物理的オブジェクトの前記閾値部分より多くを含むとの判定に従って、前記物理的環境内の前記物理的オブジェクトの前記位置に対応する前記三次元環境の前記ビュー内の位置に前記視覚インジケーションを表示することと、
前記物理的環境の前記第1の一部分が前記物理的オブジェクトの前記閾値部分より多くを含み、かつ前記物理的環境の前記第2の一部分が前記物理的オブジェクトの前記閾値部分未満を含むとの判定に従って、前記三次元環境の前記ビュー内に前記視覚インジケーションを表示することを停止することと、
を含む、請求項60に記載の方法。
【請求項62】
前記物理的環境内の前記物理的オブジェクトとの前記相互作用を検出したことに応じて、
前記物理的環境内の前記物理的オブジェクトとの前記相互作用が前記物理的オブジェクトに対応する前記第1の基準とは異なる前記物理的オブジェクトに対応する第2の基準を満たすとの判定に従って、前記第1の表示生成コンポーネントを介して、前記コンピュータ生成体験の利用可能性を示す視覚フィードバックであって、前記視覚インジケーションとは異なり、前記コンピュータ生成体験とは異なる、視覚フィードバックを表示すること、
を含む、請求項60又は61に記載の方法。
【請求項63】
前記視覚フィードバックが、前記第1の基準を満たす前記物理的オブジェクトとの相互作用のタイプに関するガイダンスを提供する、請求項62に記載の方法。
【請求項64】
前記三次元環境内の前記視覚フィードバックの位置が、前記物理的環境内の前記物理的オブジェクトとの前記相互作用に応じて、前記物理的オブジェクトが移動している間の前記物理的オブジェクトの現在の位置に基づいて選択される、請求項62又は63に記載の方法。
【請求項65】
前記視覚フィードバックの第1の特性の値が、前記物理的環境内の前記物理的オブジェクトとの前記相互作用の第2の特性の値に従って調整される、請求項62から64のいずれか一項に記載の方法。
【請求項66】
前記物理的環境内の前記物理的オブジェクトとの前記相互作用の第1の特性の第1の変化量が、前記視覚フィードバックの第2の特性の値の第1の変化量を引き起こし、
前記物理的環境内の前記物理的オブジェクトとの前記相互作用の前記第1の特性の第2の変化量が、前記視覚フィードバックの前記第2の特性の前記値の第2の変化量を引き起こす、
請求項62から65のいずれか一項に記載の方法。
【請求項67】
前記第1の表示生成コンポーネントを介して、前記物理的オブジェクトに対応する前記コンピュータ生成体験を表示することが、
前記物理的オブジェクトとの前記相互作用が第1の所定の入力モダリティに対応するとの判定に従って、前記第1の所定の入力モダリティに対応する前記コンピュータ生成体験の第1のバージョンを表示することと、
前記物理的オブジェクトとの前記相互作用が第2の所定の入力モダリティに対応するとの判定に従って、前記第2の所定の入力モダリティに対応する前記コンピュータ生成体験の第2のバージョンを表示することと、
を含む、請求項60から66のいずれか一項に記載の方法。
【請求項68】
前記コンピュータ生成体験が、仮想現実体験であり、前記コンピュータ生成体験を表示することが、前記三次元環境内の前記物理的オブジェクトの前記表現を表示することを停止することを含む、請求項60から67のいずれか一項に記載の方法。
【請求項69】
前記コンピュータ生成体験が、拡張現実体験であり、前記コンピュータ生成体験を表示することが、前記三次元環境内の前記物理的オブジェクトの前記表現の表示を維持することを含む、請求項60から67のいずれか一項に記載の方法。
【請求項70】
ハウジングと、前記ハウジングに収容された第1の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて、
前記第1の表示生成コンポーネントを収容する前記ハウジング上の第1の手を検出することと、
前記第1の表示生成コンポーネントを収容する前記ハウジング上の前記第1の手を検出したことに応じて、
第2の手が前記ハウジング上で検出されることと連動して、前記第1の手が検出されたとの判定に従って、前記第1の手に関連付けられた動作の実行を取り止めることと、
前記ハウジング上の別の手を検出することなく、前記第1の手が前記ハウジング上で検出されたとの判定に従って、前記第1の手に関連付けられた動作を実行することと、
を含む、方法。
【請求項71】
前記コンピューティングシステムが、複数の動作状態を有し、前記第1の手に関連付けられた前記動作を実行することが、
前記ハウジング上の前記第1の手が第1の基準を満たすとの判定に従って、前記第1の基準に対応する第1の方法で前記コンピューティングシステムの動作状態を変更する第1の動作を実行することと、
前記ハウジング上の前記第1の手が前記第1の基準とは異なる第2の基準を満たすとの判定に従って、前記第1の方法とは異なる前記第2の基準に対応する第2の方法で前記コンピューティングシステムの前記動作状態を変更する第2の動作を実行することと、
を含む、請求項70に記載の方法。
【請求項72】
前記第1の基準が、第1の位置基準であって、前記第1の位置基準が満たされるために、前記ハウジングの第1の所定の一部分上で前記第1の手が検出されることを必要とする第1の位置基準を含み、
前記第2の基準が、第2の位置基準であって、前記第2の位置基準が満たされるために、前記ハウジングの第2の所定の一部分上で前記第1の手が検出されることを必要とする第2の位置基準を含み、前記ハウジングの前記第2の所定の一部分が、前記ハウジングの前記第1の所定の一部分とは異なる、
請求項70又は71に記載の方法。
【請求項73】
前記第1の基準が、前記第1の基準が満たされるために、前記第1の手が前記ハウジングに対して第1の移動を行うことを必要とする第1の移動基準を含み、
前記第2の基準が、前記第2の基準が満たされるために、前記第1の手が前記ハウジングに対して第2の移動を行うことを必要とする第2の移動基準を含み、前記第2の移動が、前記第1の移動とは異なる、
請求項70から72のいずれか一項に記載の方法。
【請求項74】
前記第1の基準が、前記第1の基準が満たされるために、前記第1の手が前記ハウジング上にある間に第1の所定の姿勢にあることを必要とする第1の姿勢基準を含み、
前記第2の基準が、前記第2の基準が満たされるために、前記第1の手が前記ハウジング上にある間に第2の所定の姿勢にあることを必要とする第2の姿勢基準を含み、前記第2の所定の姿勢が、前記第1の所定の姿勢とは異なる、
請求項70から73のいずれか一項に記載の方法。
【請求項75】
前記第1の表示生成コンポーネントを収容する前記ハウジング上の前記第1の手を検出したことに応じて、かつ、前記ハウジング上の別の手を検出することなく、前記第1の手が前記ハウジング上で検出されたとの判定に従って、前記第1の手に関連付けられた前記動作を実行することが、
視覚調整基準であって、前記視覚調整基準が満たされるために、前記コンピューティングシステムが第1の動作状態で動作している間に前記第1の手によって互いに連動して満たされるための個別の位置基準及び個別の姿勢基準を含む視覚調整基準が満たされるとの判定に従って、前記コンピューティングシステムの動作状態を前記第1の動作状態から前記第1の動作状態とは異なる第2の動作状態に変更することを含み、前記第1の表示生成コンポーネントが、前記コンピューティングシステムが前記第1の動作状態にあったときと比較して、前記コンピューティングシステムが前記第2の動作状態にある間に、前記第1の表示生成コンポーネントを取り囲む物理的環境の増加したビューを提供する、
請求項70から74のいずれか一項に記載の方法。
【請求項76】
前記コンピューティングシステムが前記第2の動作状態にある間に、前記視覚調整基準が前記第1の手によってもはや満たされないことを検出することと、
前記視覚調整基準が前記第1の手によってもはや満たされないことを検出したことに応じて、前記コンピューティングシステムの前記動作状態を前記第2の動作状態から前記第1の動作状態に復元することと、
を含む、請求項75に記載の方法。
【請求項77】
前記第1の表示生成コンポーネントを収容する前記ハウジング上の前記第1の手を検出したことに応じて、かつ、前記ハウジング上の別の手を検出することなく、前記第1の手が前記ハウジング上で検出されたとの判定に従って、前記第1の手に関連付けられた前記動作を実行することが、
オーディオ調整基準であって、前記オーディオ調整基準が満たされるために、前記コンピューティングシステムが第3の動作状態で動作している間に前記第1の手によって互いに連動して満たされるための個別の位置基準及び個別の姿勢基準を含むオーディオ調整基準が満たされるとの判定に従って、前記コンピューティングシステムの動作状態を前記第3の動作状態から前記第3の動作状態とは異なる第4の動作状態に変更することを含み、前記コンピューティングシステムの第1のオーディオ生成コンポーネントが、前記コンピューティングシステムが前記第3の動作状態にあったときと比較して、前記コンピューティングシステムが前記第4の動作状態にある間に、前記第1のオーディオ生成コンポーネントを取り囲む物理的環境からの増加した量のパススルー音を提供する、
請求項70から76のいずれ一項に記載の方法。
【請求項78】
前記コンピューティングシステムが前記第4の動作状態にある間に、前記オーディオ調整基準が前記第1の手によってもはや満たされないことを検出することと、
前記オーディオ調整基準が前記第1の手によってもはや満たされないことを検出したことに応じて、前記コンピューティングシステムの前記動作状態を前記第4の動作状態から前記第3の動作状態に復元することと、
を含む、請求項77に記載の方法。
【請求項79】
前記第1の表示生成コンポーネントを収容する前記ハウジング上の第1の手を検出したことに応じて、かつ、前記ハウジング上の前記別の手を検出することなく、前記第1の手が前記ハウジング上で検出されたとの判定に従って、前記第1の手に関連付けられた前記動作を実行することが、
プライバシー調整基準であって、前記プライバシー調整基準が満たされるために、前記第1の手によって互いに連動して満たされるための個別の移動基準及び個別の姿勢基準を含むプライバシー調整基準が満たされるとの判定に従って、前記コンピューティングシステムの動作状態を第5の動作状態から前記第5の動作状態とは異なる第6の動作状態に変更することを含み、前記コンピューティングシステムの第2の表示生成コンポーネントが、前記第1の表示生成コンポーネントを介して表示されるコンテンツに関する第1の量の状態情報を提供することと前記第1の表示生成コンポーネントを介して表示される前記コンテンツに関する第2の量の状態情報を提供することとの間で切り替える、請求項70から78のいずれか一項に記載の方法。
【請求項80】
前記状態情報がまた、前記第1の表示生成コンポーネントのコンテンツ表示面に面するユーザの目の表現を含み、前記コンピューティングシステムの前記動作状態を前記第5の動作状態から前記第5の動作状態とは異なる前記第6の動作状態に変更することが、前記第1の表示生成コンポーネントを介して前記ユーザの目の前記表現を表示することと前記ユーザの目の前記表現を表示しないこととの間で切り替えることを含む、請求項79に記載の方法。
【請求項81】
前記コンピューティングシステムが前記第6の動作状態にある間に、前記プライバシー調整基準が前記第1の手によってもはや満たされないことを検出することと、
前記プライバシー調整基準が前記第1の手によってもはや満たされないことを検出したことに応じて、前記コンピューティングシステムの前記動作状態を前記第6の動作状態に維持することと、
を含む、請求項79又は80に記載の方法。
【請求項82】
前記コンピューティングシステムが前記第6の動作状態にある間に、前記プライバシー調整基準が前記第1の手によって再び満たされることを検出することと、
前記コンピューティングシステムが前記第6の動作状態にある間に前記プライバシー調整基準が再び満たされることを検出したことに応じて、前記コンピューティングシステムの前記動作状態を前記第6の動作状態から前記第5の動作状態に変更することであって、前記コンピューティングシステムの前記第2の表示生成コンポーネントが、前記プライバシー調整基準が最後に満たされたことに応じて行われた、前記第1の表示生成コンポーネントを介して表示されるコンテンツに関する前記第1の量の状態情報を提供することと前記第1の表示生成コンポーネントを介して表示される前記コンテンツに関する前記第2の量の状態情報を提供することとの間で前記切り替えることを反転する、ことと、
を含む、請求項79から81のいずれか一項に記載の方法。
【請求項83】
前記プライバシー調整基準が満たされるとの前記判定に従って、前記コンピューティングシステムの前記動作状態を前記第5の動作状態から前記第6の動作状態に変更することが、
前記第1の手が前記プライバシー調整基準の前記個別の移動基準及び前記個別の姿勢基準を満たしている間に第1の方向に移動するとの判定に従って、前記第2の表示生成コンポーネントが、前記第1の表示生成コンポーネントを介して表示される前記コンテンツに関する状態情報の量を増加させることと、
前記第1の手が前記第1の方向とは異なる第2の方向に移動するとの判定に従って、前記第2の表示生成コンポーネントが、前記第1の表示生成コンポーネントを介して表示される前記コンテンツに関する状態情報の前記量を減少させることと、
を含む、請求項79から81のいずれか一項に記載の方法。
【請求項84】
前記第1の表示生成コンポーネントを収容する前記ハウジング上の前記第1の手を検出したことに応じて、前記第1の表示生成コンポーネントを介して、前記コンピューティングシステムの1つ以上の機能に対応するそれぞれの視覚表現を表示すること、
を含む、請求項70から83のいずれか一項に記載の方法。
【請求項85】
前記第1の表示生成コンポーネントを収容する前記ハウジングに接近する前記第1の手を検出したことに応じて、前記第1の表示生成コンポーネントを介して、前記第1の表示生成コンポーネントによって提供される前記視野 の周辺領域から現れる前記コンピューティングシステムの前記1つ以上の機能に対応する前記それぞれの視覚表現を示すアニメーション化された遷移を表示すること、
を含む、請求項84に記載の方法。
【請求項86】
前記ハウジング上の別の手を検出しないことと連動して前記第1の手が検出されたとの前記判定に従って、前記第1の手に関連付けられた前記動作を実行することが、
前記第1の手が前記コンピューティングシステムの第1の機能に対応する第1の視覚表現に対応する第1の位置で前記ハウジングと接触し、かつ前記第1の手が前記第1の機能に関連付けられたそれぞれの制御アクティブ化基準を満たすとの判定に従って、前記コンピューティングシステムの前記第1の機能をアクティブ化することと、
前記第1の手が前記コンピューティングシステムの第2の機能に対応する第2の視覚表現に対応する第2の位置で前記ハウジングと接触し、かつ前記第1の手が前記第2の機能に関連付けられたそれぞれの制御アクティブ化基準を満たすとの判定に従って、前記コンピューティングシステムの前記第2の機能をアクティブ化することと、
を含む、請求項84又は85に記載の方法。
【請求項87】
1つ以上のプロセッサと、第1の表示生成コンポーネントと、第2の表示生成コンポーネントとを有するコンピューティングシステムによって実行されると、前記コンピューティングシステムに、請求項1から14のいずれか一項に記載の方法を実行させる、実行可能命令を記憶する非一時的コンピュータ可読記憶媒体。
【請求項88】
1つ以上のプロセッサと、
第1の表示生成コンポーネントと、
第2の表示生成コンポーネントと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリであって、前記1つ以上のプログラムが、請求項1から14のいずれか一項に記載の方法を実行する命令を含む、メモリと、 を備える、コンピューティングシステム。
【請求項89】
1つ以上のプロセッサと、第1の表示生成システム と、第2の表示生成コンポーネントとを有するコンピューティングシステムであって、
請求項1から14のいずれか一項に記載の方法を実行する手段を備える、コンピューティングシステム。
【請求項90】
1つ以上のプロセッサと、第1の表示生成コンポーネントと、第2の表示生成コンポーネントとを有するコンピューティングシステムで使用するための情報処理装置であって、
請求項1から14のいずれか一項に記載の方法を実行する手段を備える、情報処理装置。
【請求項91】
1つ以上のプロセッサと、第1の表示生成コンポーネントと、第2の表示生成コンポーネントとを有するコンピューティングシステムによって実行されると、前記コンピューティングシステムに、請求項15から37のいずれか一項に記載の方法を実行させる、実行可能命令を記憶する非一時的コンピュータ可読記憶媒体。
【請求項92】
1つ以上のプロセッサと、
第1の表示生成コンポーネントと、
第2の表示生成コンポーネントと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリであって、前記1つ以上のプログラムが、請求項15から37のいずれか一項に記載の方法を実行する命令を含む、メモリと、
を備える、コンピューティングシステム。
【請求項93】
1つ以上のプロセッサと、第1の表示生成システムと、第2の表示生成コンポーネントとを有するコンピューティングシステムであって、
請求項15から37のいずれか一項に記載の方法を実行する手段
を備える、コンピューティングシステム。
【請求項94】
1つ以上のプロセッサと、第1の表示生成コンポーネントと、第2の表示生成コンポーネントとを有するコンピューティングシステムで使用するための情報処理装置であって、
請求項15から37のいずれか一項に記載の方法を実行する手段を備える、情報処理装置。
【請求項95】
1つ以上のプロセッサと、第1の表示生成コンポーネントと、第2の表示生成コンポーネントとを有するコンピューティングシステムによって実行されると、前記コンピューティングシステムに、請求項38から52のいずれか一項に記載の方法を実行させる、実行可能命令を記憶する非一時的コンピュータ可読記憶媒体。
【請求項96】
1つ以上のプロセッサと、
第1の表示生成コンポーネントと、
第2の表示生成コンポーネントと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリであって、前記1つ以上のプログラムが、請求項38から52のいずれか一項に記載の方法を実行する命令を含む、メモリと、
を備える、コンピューティングシステム。
【請求項97】
1つ以上のプロセッサと、第1の表示生成システムと、第2の表示生成コンポーネントとを有するコンピューティングシステムであって、
請求項38から52のいずれか一項に記載の方法を実行する手段を備える、コンピューティングシステム。
【請求項98】
1つ以上のプロセッサと、第1の表示生成コンポーネントと、第2の表示生成コンポーネントとを有するコンピューティングシステムで使用するための情報処理装置であって、
請求項38から52のいずれか一項に記載の方法を実行する手段を備える、情報処理装置。
【請求項99】
1つ以上のプロセッサと、第1の表示生成コンポーネントと、第2の表示生成コンポーネントとを有するコンピューティングシステムによって実行されると、前記コンピューティングシステムに、請求項53から59のいずれか一項に記載の方法を実行させる、実行可能命令を記憶する非一時的コンピュータ可読記憶媒体。
【請求項100】
1つ以上のプロセッサと、
第1の表示生成コンポーネントと、
第2の表示生成コンポーネントと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリであって、前記1つ以上のプログラムが、請求項53から59のいずれか一項に記載の方法を実行する命令を含む、メモリと、
を備える、コンピューティングシステム。
【請求項101】
1つ以上のプロセッサと、第1の表示生成システムと、第2の表示生成コンポーネントとを有するコンピューティングシステムであって、
請求項53から59のいずれか一項に記載の方法を実行する手段を備える、コンピューティングシステム。
【請求項102】
1つ以上のプロセッサと、第1の表示生成コンポーネントと、第2の表示生成コンポーネントとを有するコンピューティングシステムで使用するための情報処理装置であって、
請求項53から59のいずれか一項に記載の方法を実行する手段を備える、情報処理装置。
【請求項103】
1つ以上のプロセッサと、第1の表示生成コンポーネントとを有するコンピューティングシステムによって実行されると、前記コンピューティングシステムに、請求項60から69のいずれか一項に記載の方法を実行させる、実行可能命令を記憶する非一時的コンピュータ可読記憶媒体。
【請求項104】
1つ以上のプロセッサと、
第1の表示生成コンポーネントと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリであって、前記1つ以上のプログラムが、請求項60から69のいずれか一項に記載の方法を実行する命令を含む、メモリと、
を備える、コンピューティングシステム。
【請求項105】
1つ以上のプロセッサと、第1の表示生成システムとを有するコンピューティングシステムであって、
請求項60から69のいずれか一項に記載の方法を実行する手段を備える、コンピューティングシステム。
【請求項106】
1つ以上のプロセッサと、第1の表示生成コンポーネントとを有するコンピューティングシステムで使用するための情報処理装置であって、
請求項60から69のいずれか一項に記載の方法を実行する手段を備える、情報処理装置。
【請求項107】
1つ以上のプロセッサと、第1の表示生成コンポーネントとを有するコンピューティングシステムによって実行されると、前記コンピューティングシステムに、請求項70から86のいずれか一項に記載の方法を実行させる、実行可能命令を記憶する非一時的コンピュータ可読記憶媒体。
【請求項108】
1つ以上のプロセッサと、
第1の表示生成コンポーネントと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリであって、前記1つ以上のプログラムが、請求項70から86のいずれか一項に記載の方法を実行する命令を含む、メモリと、
を備える、コンピューティングシステム。
【請求項109】
1つ以上のプロセッサと、第1の表示生成システムとを有するコンピューティングシステムであって、
請求項70から86のいずれか一項に記載の方法を実行する手段を備える、コンピューティングシステム。
【請求項110】
1つ以上のプロセッサと、第1の表示生成コンポーネントとを有するコンピューティングシステムで使用するための情報処理装置であって、
請求項70から86のいずれか一項に記載の方法を実行する手段を備える、情報処理装置。
【発明の詳細な説明】
【関連出願の相互参照】
【0001】
(優先権及び関連出願)
本出願は、2020年3月16日出願の米国仮出願第62/990,408号の優先権を主張する、2021年3月12日出願の「DEVICES,METHODS,AND GRAPHICAL USER INTERFACES FOR PROVIDING COMPUTER-GENERATED EXPERIENCES」と題された米国特許出願第17/200,676号の継続出願である。
【技術分野】
【0002】
本開示は、概して、1つ以上のディスプレイを介して仮想現実及び複合現実体験を提供する電子デバイスを含むがこれらに限定されない、コンピュータ生成体験を提供する、1つ以上の表示生成コンポーネントと、1つ以上の入力デバイスと、を有するコンピューティングシステムに関する。
【背景技術】
【0003】
拡張現実のためのコンピューティングシステムの開発は、近年顕著に進んでいる。例示的な拡張現実環境は、物理的世界の表現を置換又は拡張する少なくともいくつかの仮想要素を含む。コンピューティングシステム及び他の電子コンピューティングデバイス用のカメラ、コントローラ、ジョイスティック、タッチ感知面、及びタッチスクリーンディスプレイなどの入力デバイスが、仮想/拡張現実環境と相互作用するために使用される。例示的な仮想要素としては、仮想三次元オブジェクト、デジタル画像、ビデオ、テキスト、アイコン、並びにボタン及びその他のグラフィックなどの制御要素が挙げられる。
【0004】
しかし、少なくともいくつかの仮想要素を含む環境(例えばアプリケーション、拡張現実環境、複合現実環境、及び仮想現実環境)と相互作用する方法及びインタフェースは、煩雑で、非効率で、限定されたものである。例えば、仮想オブジェクトに関連付けられたアクションを実行するのに不十分なフィードバックしか提供しないシステム、拡張現実環境において所望の結果を達成するために一連の入力を必要とするシステム、及び仮想オブジェクトの操作が複雑で、エラーを起こしやすいシステムは、ユーザに対して大きな認知負担を引き起こしし、仮想/拡張現実環境での体験を損なう。加えて、それらの方法は必要以上に時間がかかり、それによってエネルギを浪費する。この後者の考慮事項は、バッテリ動作式デバイスにおいて特に重要である。加えて、仮想現実及び/又は複合現実体験を提供する多くのシステムは、ユーザが仮想現実及び複合現実体験に関与するときに、ユーザの顔をユーザの周囲から物理的に遮蔽して、外界との社会的相互作用及び情報交換を妨げる、ヘッドマウントディスプレイデバイスを使用する。
【発明の概要】
【0005】
したがって、コンピューティングシステムとの相互作用をユーザにとってより効率的かつ直感的にするコンピュータ生成体験をユーザに提供するための改善された方法及びインタフェースを有するコンピューティングシステムが必要とされている。また、ユーザが様々な仮想現実及び複合現実体験に関与している間に、周囲環境とのより良好な社会的相互作用、エチケット、及び情報交換を容易にするコンピュータ生成体験をユーザに提供するための改善された方法及びインタフェースを有するコンピューティングシステムが必要とされている。このような方法及びインタフェースは、ユーザにコンピュータ生成現実体験を提供する従来の方法を任意選択的に補完又は置換する。このような方法及びインタフェースは、提供された入力とその入力に対するデバイス応答との間の接続をユーザが理解することを補助することにより、ユーザからの入力の数、程度及び/又は種類を低減し、それによって、より効率的なヒューマンマシンインタフェースを生成する。そのような方法及びインタフェースはまた、例えば、ユーザがコンピューティングシステムによって提供される仮想現実体験及び/又は複合現実体験に関与するときに、同じ物理的環境に存在するユーザ及び他者の側における社会的手掛かり及び視覚情報の欠如による、誤り、中断、及び時間遅延を低減することによって、ユーザの体験を改善する。
【0006】
表示生成コンポーネント及び1つ以上の入力デバイスを有するコンピューティングシステムのためのユーザインタフェースに関連する上記の欠陥及び他の問題は、開示されたシステムによって低減又は排除される。いくつかの実施形態では、コンピューティングシステムは、1つ以上の関連付けられたディスプレイを備えたデスクトップコンピュータである。いくつかの実施形態では、コンピューティングシステムは、ポータブルデバイスである(例えば、ノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイスである)。いくつかの実施形態では、コンピューティングシステムは、パーソナル電子デバイス(例えば、ウォッチ又はヘッドマウントデバイスなどのウェアラブル電子デバイス)である。いくつかの実施形態では、コンピューティングシステムは、タッチパッドを有する。いくつかの実施形態では、コンピューティングシステムは、1つ以上のカメラを有する。いくつかの実施形態では、コンピューティングシステムは、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られる)を有する。いくつかの実施形態では、コンピューティングシステムは、1つ以上のアイトラッキングコンポーネントを有する。いくつかの実施形態では、コンピューティングシステムは、1つ以上のハンドトラッキングコンポーネントを有する。いくつかの実施形態では、コンピューティングシステムは、1つ以上の表示生成コンポーネントに加えて、1つ以上の出力デバイスを有し、出力デバイスは、1つ以上の触知出力ジェネレータ及び1つ以上のオーディオ出力デバイスを含む。いくつかの実施形態では、コンピューティングシステムは、グラフィカルユーザインタフェース(graphical user interface、GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためのメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態では、ユーザは、タッチ感知面上のスタイラス及び/又は指の接触及びジェスチャ、カメラ及び他の移動センサによってキャプチャされたときのGUI又はユーザの身体に対する空間内のユーザの目及び手の移動、並びに1つ以上のオーディオ入力デバイスによってキャプチャされたときの音声入力を通じてGUIと相互作用する。いくつかの実施形態では、相互作用を通じて実行される機能は、任意選択的に、画像編集、描画、プレゼンティング、ワードプロセッシング、スプレッドシートの作成、ゲームプレイ、電話をかけること、ビデオ会議、電子メール送信、インスタントメッセージング、トレーニングサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブブラウジング、デジタル音楽の再生、メモ取り、及び/又はデジタルビデオの再生を含む。それらの機能を実行する実行可能命令は任意選択で、非一時的コンピュータ可読記憶媒体又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。
【0007】
本明細書に開示されるように、コンピューティングシステムは、少なくとも2つの表示生成コンポーネントを含み、第1の表示生成コンポーネントは、ユーザに面し、三次元コンピュータ生成体験をユーザに提供し、第2の表示生成コンポーネントは、ユーザから離れる方向に向き、ユーザに関連する状態情報(例えば、ユーザの目の移動)及び/又はユーザによって現在閲覧されているコンピュータ生成体験に関連する状態情報(例えば、ユーザによって閲覧されたコンテンツに関連するメタデータ及びコンテンツに関連付けられた没入レベル)を提供する。第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、任意選択的に、ヘッドマウントディスプレイデバイス(head-mounted display device、HMD)の同じハウジングに囲まれ、HMDを着用しているユーザに向かって内側に、及びユーザを取り囲む物理的環境に向かって外側にそれぞれ向く、2つのディスプレイである。第2の表示生成コンポーネントは、任意選択的に、第1の表示生成コンポーネントの背後に遮蔽されているユーザの一部分の視覚表現を含み、かつ第1の表示生成コンポーネントを介してユーザに現在示されているコンテンツに関連するメタデータ及び/又はそれに関連付けられた没入レベルを含む、リアルタイム状態情報を提供し、それにより、ユーザの周囲の物理的環境内の別の人(単数又は複数)は、第2の表示生成コンポーネントによって提供される視覚情報及びメタデータを見て、それに応じて行動することができ、例えば、ユーザが第1の表示生成コンポーネントを介してコンピュータ生成コンテンツを閲覧している間に、ユーザとの対話を不必要に回避する、又はユーザを不適切に邪魔するのとは対照的に、適切な場合にユーザに関与することができる。いくつかの実施形態では、コンピューティングシステムのユーザは、任意選択的に、第1の表示生成コンポーネントを介して提供されるコンピュータ生成環境に関与するときに、ユーザの意図した関与レベル及びプライバシーの必要性に適合させるために、コンピューティングシステムの異なるモードをアクティブ化し、コンピューティングシステムは、ユーザのそのような意図及び必要性を周囲の物理的環境内の人々に警告するために、様々なモードに関連する状態情報を提供し、それにより、周囲の物理的環境内の人々による意図しない、望ましくない、かつ/又は不必要な中断及び相互作用の回避が低減される。
【0008】
本明細書に開示されるように、コンピューティングシステムが同じハウジング内に少なくとも2つの表示生成コンポーネントを含む場合、第2の(例えば、外側を向く)表示生成コンポーネントは、任意選択的に、現在のコンテキストに基づいてコンピュータ生成体験の利用可能性を示すコンテキスト情報を表示する。第1の(例えば、内側を向く)表示生成コンポーネントがユーザの目の前に配置されている(例えば、ユーザが、内側を向くディスプレイがユーザの目に面した状態でHMDを着用している、又はユーザが、内側を向くディスプレイがユーザの目の前にある状態でHMDを保持している)ことを検出したことに応じて、コンピューティングシステムは、第1の表示生成コンポーネントを介してコンピュータ生成体験をユーザに提供する。現在のコンテキストに基づいて外側を向くディスプレイを介して利用可能なコンピュータ生成体験をユーザに自動的に警告すること(例えば、ユーザが外側を向くディスプレイを閲覧する位置にいる間に(ユーザがユーザの頭部にHMDを着用していない間に、HMDがテーブル上に配置されている間に、など))、及び/又は内側を向くディスプレイがユーザの目の前に配置されているときに(例えば、ユーザがユーザの頭部にHMDを着用する、又は内部ディスプレイがユーザの顔若しくは目に面した状態でHMDを保持しているときに)現在のコンテキストに対応するコンピュータ生成体験を自動的に表示することにより、様々なコンテキストにおいてユーザがどんなコンピュータ生成体験が利用可能かを見つけて、所望のコンピュータ生成体験を選択的に閲覧するために必要な入力の数、複雑さ、及び範囲を低減する(例えば、HMDを常に着用する必要なしに、かつ/又は所望のCGRコンテンツアイテムの位置を特定するために選択可能なオプションを通してブラウザする、及び/若しくは所望のCGR体験を開始するためにHMDを着用している間に表示されたコントロールをアクティブ化する必要なしに)。いくつかの実施形態では、第1の表示生成コンポーネントがユーザによって実際に着用されている(例えば、ユーザの手(単数又は複数)でユーザの目の前に保持されているのとは対照的に、ユーザの頭部又は身体にストラップで固定されている)かどうかに応じて、コンピューティングシステムは、任意選択的に、第1の表示生成コンポーネントの着用状態に対応する異なるコンピュータ生成体験を提供する(例えば、第1の表示生成コンポーネントがユーザによって実際に着用されていないときに、利用可能なコンピュータ生成体験のプレビュー(例えば、短縮した、二次元又は三次元の、対話型の、など)を表示し、第1の表示生成コンポーネントがユーザによって着用されているときに、利用可能なコンピュータ生成体験の完全なバージョンを表示する)。ユーザに対する表示生成コンポーネントの位置(例えば、ユーザがCGR体験を見ることを位置が可能にするかどうかに基づいて)だけでなく、表示生成コンポーネントがユーザによってしっかりと着用されているかどうか(例えば、ユーザの手が自由である、又は表示生成コンポーネントを現在の位置に保持するために必要であるかに基づいて)にも応じて、コンピュータ生成体験の異なるバージョン又は異なるコンピュータ生成体験を選択的に表示することにより、意図した結果をトリガするために必要な入力の数を低減し、完全なコンピュータ生成体験を不必要にアクティブ化することを回避し、それによって、ユーザがコンピュータ生成体験を簡単にプレビューすることを望むだけのときに、ユーザの時間を節約し、バッテリで電力を供給されている場合に、表示生成コンポーネント及びコンピューティングシステムのバッテリ電力を節約する。
【0009】
本明細書に開示されるように、いくつかの実施形態では、コンピューティングシステムは、同じハウジング内の、又は同じ物理的支持構造体に取り付けられた、第1の表示生成コンポーネント及び第2の表示生成コンポーネントを含む。第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、任意選択的に、非透明であり、反対方向を向く、それらのそれぞれの表示面を有する。表示生成コンポーネントは、ハウジング又は支持構造体とともに、かなりかさばることがあり、ユーザの頭部/身体に着脱することが煩雑であり得る。表示生成コンポーネントはまた、ユーザと周囲の物理的環境内の他者との間に有意な物理的バリアを一緒に形成する。外部ディスプレイ(例えば、第2の表示生成コンポーネント)を利用して、内部ディスプレイ(例えば、第1の表示生成コンポーネント)に表示されたCGRコンテンツのメタデータに関連する状態情報(例えば、タイトル、進度、タイプなど)、表示されたCGRコンテンツに関連付けられた没入レベル(例えば、完全なパススルー、複合現実、仮想現実など)、及び/又は表示されたCGRコンテンツの視覚特性(例えば、変化する色、輝度など)、コンピューティングシステムの現在の表示モード(例えば、プライバシーモード、ペアレンタルコントロールモード、サイレントモードなど)、及び/又はユーザの特性(例えば、ユーザの目の外観、ユーザの識別子など)を示すことによって、ユーザが表示生成コンポーネントを物理的に取り外す必要なしに、ユーザと周囲環境内の他者との間の物理的バリアの存在の影響が低減され、所望の社会的相互作用への不必要な障害及びコンピュータ生成体験とのユーザの関与への不必要な中断が低減される。更に、外部ディスプレイを利用して、コンテキスト情報及びコンテキスト上関連するコンピュータ生成体験のインジケーションを示すことによって、ユーザは、どんなCGRコンテンツが利用可能であるかを見つけるために、HMDを常に手に取って内部ディスプレイをユーザの目の前に置く必要がない。ユーザはまた、利用可能なCGR体験をプレビューするためにHMDに完全にストラップで固定する必要がない。ユーザは、ユーザがCGR体験に完全に関与する(例えば、空中ジェスチャ及びマイクロジェスチャを用いてCGR環境と相互作用する)ことを望むときにHMDを完全に着用する必要があるだけである。このようにして、ユーザがHMDの内部ディスプレイをユーザの目の前に置く、及び/又はHMDをユーザの頭部に完全にストラップで固定する必要がある回数は、どんなCGR体験が利用可能であるかを知るユーザの必要性を損なうことなく、及び/又は所望のCGR体験を楽しむユーザの能力を妨げることなく、低減される。
【0010】
本明細書に開示されるように、コンピュータ生成体験は、現実世界の物理的オブジェクトとのユーザの物理的相互作用に応じて、コンピューティングシステムの表示生成コンポーネント(例えば、デバイスの単一の表示生成コンポーネント、HMDの内部ディスプレイなど)を介して提供される。具体的には、コンピューティングシステムは、表示生成コンポーネントを介して表示される三次元環境内の位置でコンピュータ生成体験が利用可能であるという視覚インジケーションを表示し、視覚インジケーションの位置は、三次元環境内の物理的オブジェクトの表現の位置に対応する。物理的オブジェクトに関連付けられた事前設定された基準を満たす第1の方法での物理的オブジェクトとの物理的相互作用を検出したことに応じて、コンピューティングシステムは、物理的オブジェクトと、任意選択的に第1の方法の物理的相互作用とに関連付けられたコンピュータ生成体験を表示する。例えば、コンピューティングシステムは、事前設定された基準が物理的オブジェクトのユーザの操作によって満たされる前に、ユーザの手及び物理的オブジェクトのパススルービューを表示し、コンピューティングシステムは、事前設定された基準が満たされた後に、物理的オブジェクトを操作するユーザの手(単数又は複数)のコンピュータ拡張表現を表示する。現実世界の物理的オブジェクトとの事前設定された物理的相互作用を検出したことに応じて、コンピュータ生成体験を自動的に開始することにより、物理的オブジェクトと相互作用するユーザの体験を向上させ、相互作用をより直感的にし、物理的オブジェクトと相互作用するときのユーザの誤りを低減する。
【0011】
本明細書に開示されるように、コンピューティングシステムは、ハウジング内に表示生成コンポーネント(例えば、デバイスの単一の表示生成コンポーネント、HMDの内部ディスプレイなど)を含み、表示生成コンポーネントのハウジング上にユーザインタフェース(例えば、ボタン、タッチ感知面など)を提供する。コンピューティングシステムは、入力がユーザインタフェースを介して検出された時点で、ハウジングにタッチするユーザの手の事前設定された構成(例えば、2つの手の両方)が表示生成コンポーネントのハウジング上で検出されたかどうかに応じて、表示生成コンポーネントのハウジング上のユーザインタフェースを介して検出された入力に関連付けられた動作を実行する、又は動作の実行を取り止めるかを判定する。表示生成コンポーネントのハウジング上の手の構成と連動して入力を検出したことに応じて、動作を実行する又は実行しないことを選択することにより、ユーザの意図的な入力と、特定の動作をトリガするための入力を提供すること以外の目的のための表示生成コンポーネントのハウジングとの他のタッチとを自動的に区別し、意図しない結果を回避するのを助け、ユーザの混乱を低減し、ユーザが表示生成コンポーネントを操作するのをより速く、かつより容易にする。
【0012】
いくつかの実施形態によれば、方法は、第1の表示生成コンポーネントと、第2の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて実行され、第1の表示生成コンポーネントを介して、第1のコンピュータ生成環境を表示することと、第1の表示生成コンポーネントを介して第1のコンピュータ生成環境を表示している間に、第2の表示生成コンポーネントを介して、第1の表示生成コンポーネントを介して第1のコンピュータ生成環境を閲覧する位置にいるコンピューティングシステムのユーザの一部分の視覚表現と、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素と、を同時に表示することと、を含み、ユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することは、ユーザの一部分の視覚表現を変更して、個別の期間にわたるユーザの外観の変化を表すことと、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を変更して、個別の期間にわたる第1のコンピュータ生成環境の変化を表すことと、を含む。
【0013】
いくつかの実施形態によれば、方法は、第1の表示生成コンポーネントと、第2の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて実行され、第1の表示生成コンポーネントを介して、コンピュータ生成環境を表示することと、第1の表示生成コンポーネントを介してコンピュータ生成環境を表示している間に、第1の表示生成コンポーネントを介してコンピュータ生成環境を閲覧する位置にいるコンピューティングシステムのユーザの一部分の視覚表現と、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素と、を同時に表示することを含む、第2の表示生成コンポーネントを介してコンピューティングシステムに対応する状態情報を表示することと、個別のイベントを検出することと、個別のイベントを検出したことに応じて、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを変更することと、コンピューティングシステムのユーザの一部分の視覚表現の外観を変更することを含む、第2の表示生成コンポーネントを介して表示される状態情報を変更することと、を含む。
【0014】
いくつかの実施形態によれば、方法は、第1の表示生成コンポーネントと、第2の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて実行され、第2の表示生成コンポーネントを介して1つ以上のユーザインタフェース要素を表示することと、第2の表示生成コンポーネントを介して1つ以上のユーザインタフェース要素を表示している間に、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたことを検出することと、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたことを検出したことに応じて、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、第2の表示生成コンポーネントを介して第1のユーザインタフェース要素を表示することに対応する第1の状態にコンピューティングシステムがあったとの判定に従って、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きにある間に、第1の表示生成コンポーネントを介して第1のユーザインタフェースを表示することと、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、第2の表示生成コンポーネントを介して第1のユーザインタフェース要素を表示する代わりに、第2の表示生成コンポーネントを介して第2のユーザインタフェース要素を表示することに対応する第2の状態にコンピューティングシステムがあったとの判定に従って、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きにある間に、第1の表示生成コンポーネントを介して、第1のユーザインタフェースとは異なる第2のユーザインタフェースを表示することと、を含む。
【0015】
いくつかの実施形態によれば、方法は、第1の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて実行され、第1の表示生成コンポーネントがユーザに対して第1の既定の構成に配置されることに対応する第1のトリガイベントを検出することと、第1のトリガイベントを検出したことに応じて、第1の表示生成コンポーネントを含むコンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されているとの判定に従って、第1の表示生成コンポーネントを介して、第1のコンピュータ生成体験を提供することと、第1の表示生成コンポーネントを含むコンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されていないとの判定に従って、第1の表示生成コンポーネントを介して、第1のコンピュータ生成体験とは別個の第2のコンピュータ生成体験を提供することと、を含む。
【0016】
いくつかの実施形態によれば、方法は、第1の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて実行され、物理的環境内の物理的オブジェクトの位置に対応する三次元環境内の位置に物理的オブジェクトの表現を表示している間に、物理的オブジェクトに対応するコンピュータ生成体験が第1の表示生成コンポーネントを介して表示するために利用可能であるという視覚インジケーションを表示することと、コンピュータ生成体験が第1の表示生成コンポーネントを介して表示するために利用可能であるという視覚インジケーションを表示している間に、物理的環境内の物理的オブジェクトとの相互作用を検出することと、物理的環境内の物理的オブジェクトとの相互作用を検出したことに応じて、物理的環境内の物理的オブジェクトとの相互作用が物理的オブジェクトに対応する第1の基準を満たすとの判定に従って、第1の表示生成コンポーネントを介して、物理的オブジェクトに対応するコンピュータ生成体験を表示することと、物理的環境内の物理的オブジェクトとの相互作用が第1の基準を満たさないとの判定に従って、物理的オブジェクトに対応するコンピュータ生成体験を表示することを取り止めることと、を含む。
【0017】
いくつかの実施形態によれば、方法は、ハウジングと、ハウジングに収容された第1の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて実行され、第1の表示生成コンポーネントを収容するハウジング上の第1の手を検出することと、第1の表示生成コンポーネントを収容するハウジング上の第1の手を検出したことに応じて、第2の手がハウジング上で検出されることと連動して、第1の手が検出されたとの判定に従って、第1の手に関連付けられた動作の実行を取り止めることと、ハウジング上の別の手を検出することなく、第1の手がハウジング上で検出されたとの判定に従って、第1の手に関連付けられた動作を実行することと、を含む。
【0018】
いくつかの実施形態によれば、コンピューティングシステムは、1つ以上の表示生成コンポーネント(例えば、同じハウジング又は異なるハウジングに囲まれた1つ以上のディスプレイ、プロジェクタ、ヘッドマウントディスプレイなど)と、1つ以上の入力デバイス(例えば、1つ以上のカメラ、タッチ感知面、任意選択的にタッチ感知面との接触の強度を検出する1つ以上のセンサ)と、任意選択的に1つ以上の触覚出力ジェネレータと、1つ以上のプロセッサと、1つ以上のプログラムを記憶するメモリと、を含み、1つ以上のプログラムは、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、本明細書に記載の方法のいずれかの動作を実行する、又は実行させる命令を含む。いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体は、命令を内部に記憶しており、命令は、1つ以上の表示生成コンポーネントと、1つ以上の入力デバイス(例えば、1つ以上のカメラ、タッチ感知面、任意選択的にタッチ感知面との接触の強度を検出する1つ以上のセンサ)と、任意選択的に1つ以上の触知出力ジェネレータと、を有するコンピューティングシステムによって実行されると、デバイスに本明細書に記載の方法のいずれかの動作を実行させる、又は動作の実行を行わせる。いくつかの実施形態によれば、1つ以上の表示生成コンポーネントと、1つ以上の入力デバイス(例えば、1つ以上のカメラ、タッチ感知面、任意選択的にタッチ感知面との接触の強度を検出する1つ以上のセンサ)と、任意選択的に1つ以上の触知出力ジェネレータと、メモリと、メモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサと、を有するコンピューティングシステム上のグラフィカルユーザインタフェースは、本明細書に記載の方法のいずれかにおいて表示される要素のうちの1つ以上を含み、これらの要素は、本明細書に記載の方法のいずれかで説明するように、入力に応じて更新される。いくつかの実施形態によれば、コンピューティングシステムは、1つ以上の表示生成コンポーネントと、1つ以上の入力デバイス(例えば、1つ以上のカメラ、タッチ感知面、任意選択的にタッチ感知面との接触の強度を検出する1つ以上のセンサ)と、任意選択的に1つ以上の触知出力ジェネレータと、本明細書に記載の方法のいずれかの動作を実行する、又は実行させる手段と、を含む。いくつかの実施形態によれば、1つ以上の表示生成コンポーネントと、1つ以上の入力デバイス(例えば、1つ以上のカメラ、タッチ感知面、任意選択的にタッチ感知面との接触の強度を検出する1つ以上のセンサ)と、任意選択的に1つ以上の触知出力ジェネレータと、を有するコンピューティングシステムで使用するための情報処理装置は、本明細書に記載の方法のいずれかの動作を実行する、又は実行させる手段を含む。
【0019】
したがって、コンピューティングシステムとの相互作用をユーザにとってより効率的かつ直感的にするコンピュータ生成体験をユーザに提供するための改善された方法及びインタフェースを有する、1つ以上の表示生成コンポーネントを有するコンピューティングシステムが提供される。また、ユーザが様々な仮想現実及び複合現実体験に関与している間に、周囲環境とのより良好な社会的相互作用、エチケット、及び情報交換を容易にするコンピュータ生成体験をユーザに提供するための改善された方法及びインタフェースを有するコンピューティングシステムが提供される。このような方法及びインタフェースは、ユーザにコンピュータ生成現実体験を提供する従来の方法を任意選択的に補完又は置換する。このような方法及びインタフェースは、提供された入力とその入力に対するデバイス応答との間の接続をユーザが理解することを補助することにより、ユーザからの入力の数、程度及び/又は種類を低減し、それによって、より効率的なヒューマンマシンインタフェースを生成する。そのような方法及びインタフェースはまた、例えば、ユーザがコンピューティングシステムによって提供される仮想現実体験及び/又は複合現実体験に関与するときに、同じ物理的環境に存在するユーザ及び他者の側における社会的手掛かり及び視覚情報の欠如による、誤り、中断、及び時間遅延を低減することによって、ユーザの体験を改善する。
【0020】
前述の様々な実施形態は、本明細書に記載の任意の他の実施形態と組み合わせることができることに留意されたい。本明細書で説明する機能及び利点は、包括的なものではなく、特に、図面、明細書及び特許請求の範囲を鑑みると、多くの追加の機能及び利点が当業者には明らかになるであろう。更に、本明細書において使用される文言は、専ら読みやすさ及び説明の目的で選択されたものであり、本発明の主題を画定又は制限するために選択されたものではないことに留意されたい。
【図面の簡単な説明】
【0021】
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
【0022】
【
図1】いくつかの実施形態による、CGR体験を提供するためのコンピューティングシステムの動作環境を示すブロック図である。
【0023】
【
図2】いくつかの実施形態による、ユーザのCGR体験を管理及び調整するように構成されたコンピューティングシステムのコントローラを示すブロック図である。
【0024】
【
図3】いくつかの実施形態による、CGR体験の視覚的コンポーネントをユーザに提供するように構成されたコンピューティングシステムの表示生成コンポーネントを示すブロック図である。
【0025】
【
図4】いくつかの実施形態による、ユーザのジェスチャ入力をキャプチャするように構成されたコンピューティングシステムのハンドトラッキングユニットを示すブロック図である。
【0026】
【
図5】いくつかの実施形態による、ユーザの視線入力をキャプチャするように構成されたコンピューティングシステムのアイトラッキングユニットを示すブロック図である。
【0027】
【
図6】いくつかの実施形態による、グリント支援視線追跡パイプラインを示すフローチャートである。
【0028】
【
図7A】第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、異なる方向を向く別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムを示す。いくつかの実施形態では、コンピューティングシステムは、いくつかの実施形態による、第2の表示生成コンポーネントを介してユーザ及び/又はコンテンツに関連付けられた動的に更新された状態情報(例えば、第1の表示生成コンポーネントの背後のユーザの外観の変化に対応する表現、コンテンツのメタデータ、コンテンツ再生に関連付けられた没入レベルの変化など)を表示している間に、第1の表示生成コンポーネントを介してユーザにコンテンツを表示する。
【
図7B】第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、異なる方向を向く別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムを示す。いくつかの実施形態では、コンピューティングシステムは、いくつかの実施形態による、第2の表示生成コンポーネントを介してユーザ及び/又はコンテンツに関連付けられた動的に更新された状態情報(例えば、第1の表示生成コンポーネントの背後のユーザの外観の変化に対応する表現、コンテンツのメタデータ、コンテンツ再生に関連付けられた没入レベルの変化など)を表示している間に、第1の表示生成コンポーネントを介してユーザにコンテンツを表示する。
【
図7C】第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、異なる方向を向く別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムを示す。いくつかの実施形態では、コンピューティングシステムは、いくつかの実施形態による、第2の表示生成コンポーネントを介してユーザ及び/又はコンテンツに関連付けられた動的に更新された状態情報(例えば、第1の表示生成コンポーネントの背後のユーザの外観の変化に対応する表現、コンテンツのメタデータ、コンテンツ再生に関連付けられた没入レベルの変化など)を表示している間に、第1の表示生成コンポーネントを介してユーザにコンテンツを表示する。
【
図7D】第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、異なる方向を向く別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムを示す。いくつかの実施形態では、コンピューティングシステムは、いくつかの実施形態による、第2の表示生成コンポーネントを介してユーザ及び/又はコンテンツに関連付けられた動的に更新された状態情報(例えば、第1の表示生成コンポーネントの背後のユーザの外観の変化に対応する表現、コンテンツのメタデータ、コンテンツ再生に関連付けられた没入レベルの変化など)を表示している間に、第1の表示生成コンポーネントを介してユーザにコンテンツを表示する。
【
図7E】第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、異なる方向を向く別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムを示す。いくつかの実施形態では、コンピューティングシステムは、いくつかの実施形態による、第2の表示生成コンポーネントを介してユーザ及び/又はコンテンツに関連付けられた動的に更新された状態情報(例えば、第1の表示生成コンポーネントの背後のユーザの外観の変化に対応する表現、コンテンツのメタデータ、コンテンツ再生に関連付けられた没入レベルの変化など)を表示している間に、第1の表示生成コンポーネントを介してユーザにコンテンツを表示する。
【0029】
【
図7F】第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、異なる方向を向く別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムを示す。いくつかの実施形態では、コンピューティングシステムは、いくつかの実施形態による、コンピューティングシステムに関連付けられたコンテキスト情報(例えば、第1及び第2の表示生成コンポーネントの位置、ユーザの識別情報、現在時刻など)に基づいて、第2の表示生成コンポーネントを介して異なるコンピュータ生成体験のインジケーションを表示し、空間的関係の変化(例えば、ユーザの目に面していないことからユーザの目に面していることに、テーブル上又はバッグの中に静止していることからユーザの目レベルに持ち上げられることに、など)、及び/又はユーザに対する第1の表示生成コンポーネントの着用状態の変化(例えば、ユーザの手によって支持されていることからユーザの頭部/鼻/耳によって支持されていることに、ユーザの頭部/身体に着用されていないことからユーザの頭部/身体に着用されていることに、など)に応じて、第1の表示生成コンポーネントを介してコンテキスト情報に対応する異なるコンピュータ生成体験の表示をトリガする。いくつかの実施形態では、コンピューティングシステムは、単一の表示生成コンポーネントのみを含み、かつ/又は、ユーザに対して事前設定された構成に配置されて、表示生成コンポーネントの着用状態に基づいて異なるコンピュータ生成体験を表示することを開始する前に、利用可能なコンピュータ生成体験のインジケーションを表示しない。
【
図7G】第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、異なる方向を向く別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムを示す。いくつかの実施形態では、コンピューティングシステムは、いくつかの実施形態による、コンピューティングシステムに関連付けられたコンテキスト情報(例えば、第1及び第2の表示生成コンポーネントの位置、ユーザの識別情報、現在時刻など)に基づいて、第2の表示生成コンポーネントを介して異なるコンピュータ生成体験のインジケーションを表示し、空間的関係の変化(例えば、ユーザの目に面していないことからユーザの目に面していることに、テーブル上又はバッグの中に静止していることからユーザの目レベルに持ち上げられることに、など)、及び/又はユーザに対する第1の表示生成コンポーネントの着用状態の変化(例えば、ユーザの手によって支持されていることからユーザの頭部/鼻/耳によって支持されていることに、ユーザの頭部/身体に着用されていないことからユーザの頭部/身体に着用されていることに、など)に応じて、第1の表示生成コンポーネントを介してコンテキスト情報に対応する異なるコンピュータ生成体験の表示をトリガする。いくつかの実施形態では、コンピューティングシステムは、単一の表示生成コンポーネントのみを含み、かつ/又は、ユーザに対して事前設定された構成に配置されて、表示生成コンポーネントの着用状態に基づいて異なるコンピュータ生成体験を表示することを開始する前に、利用可能なコンピュータ生成体験のインジケーションを表示しない。
【
図7H】第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、異なる方向を向く別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムを示す。いくつかの実施形態では、コンピューティングシステムは、いくつかの実施形態による、コンピューティングシステムに関連付けられたコンテキスト情報(例えば、第1及び第2の表示生成コンポーネントの位置、ユーザの識別情報、現在時刻など)に基づいて、第2の表示生成コンポーネントを介して異なるコンピュータ生成体験のインジケーションを表示し、空間的関係の変化(例えば、ユーザの目に面していないことからユーザの目に面していることに、テーブル上又はバッグの中に静止していることからユーザの目レベルに持ち上げられることに、など)、及び/又はユーザに対する第1の表示生成コンポーネントの着用状態の変化(例えば、ユーザの手によって支持されていることからユーザの頭部/鼻/耳によって支持されていることに、ユーザの頭部/身体に着用されていないことからユーザの頭部/身体に着用されていることに、など)に応じて、第1の表示生成コンポーネントを介してコンテキスト情報に対応する異なるコンピュータ生成体験の表示をトリガする。いくつかの実施形態では、コンピューティングシステムは、単一の表示生成コンポーネントのみを含み、かつ/又は、ユーザに対して事前設定された構成に配置されて、表示生成コンポーネントの着用状態に基づいて異なるコンピュータ生成体験を表示することを開始する前に、利用可能なコンピュータ生成体験のインジケーションを表示しない。
【
図7I】第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、異なる方向を向く別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムを示す。いくつかの実施形態では、コンピューティングシステムは、いくつかの実施形態による、コンピューティングシステムに関連付けられたコンテキスト情報(例えば、第1及び第2の表示生成コンポーネントの位置、ユーザの識別情報、現在時刻など)に基づいて、第2の表示生成コンポーネントを介して異なるコンピュータ生成体験のインジケーションを表示し、空間的関係の変化(例えば、ユーザの目に面していないことからユーザの目に面していることに、テーブル上又はバッグの中に静止していることからユーザの目レベルに持ち上げられることに、など)、及び/又はユーザに対する第1の表示生成コンポーネントの着用状態の変化(例えば、ユーザの手によって支持されていることからユーザの頭部/鼻/耳によって支持されていることに、ユーザの頭部/身体に着用されていないことからユーザの頭部/身体に着用されていることに、など)に応じて、第1の表示生成コンポーネントを介してコンテキスト情報に対応する異なるコンピュータ生成体験の表示をトリガする。いくつかの実施形態では、コンピューティングシステムは、単一の表示生成コンポーネントのみを含み、かつ/又は、ユーザに対して事前設定された構成に配置されて、表示生成コンポーネントの着用状態に基づいて異なるコンピュータ生成体験を表示することを開始する前に、利用可能なコンピュータ生成体験のインジケーションを表示しない。
【
図7J】第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、異なる方向を向く別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムを示す。いくつかの実施形態では、コンピューティングシステムは、いくつかの実施形態による、コンピューティングシステムに関連付けられたコンテキスト情報(例えば、第1及び第2の表示生成コンポーネントの位置、ユーザの識別情報、現在時刻など)に基づいて、第2の表示生成コンポーネントを介して異なるコンピュータ生成体験のインジケーションを表示し、空間的関係の変化(例えば、ユーザの目に面していないことからユーザの目に面していることに、テーブル上又はバッグの中に静止していることからユーザの目レベルに持ち上げられることに、など)、及び/又はユーザに対する第1の表示生成コンポーネントの着用状態の変化(例えば、ユーザの手によって支持されていることからユーザの頭部/鼻/耳によって支持されていることに、ユーザの頭部/身体に着用されていないことからユーザの頭部/身体に着用されていることに、など)に応じて、第1の表示生成コンポーネントを介してコンテキスト情報に対応する異なるコンピュータ生成体験の表示をトリガする。いくつかの実施形態では、コンピューティングシステムは、単一の表示生成コンポーネントのみを含み、かつ/又は、ユーザに対して事前設定された構成に配置されて、表示生成コンポーネントの着用状態に基づいて異なるコンピュータ生成体験を表示することを開始する前に、利用可能なコンピュータ生成体験のインジケーションを表示しない。
【0030】
【
図7K】いくつかの実施形態による、複合現実環境内の物理的オブジェクトの表現に対応する位置にコンピュータ生成体験の利用可能性のインジケーションを表示し、現実世界の物理的オブジェクトとの事前設定された物理的相互作用を検出したことに応じて、物理的オブジェクトに対応するコンピュータ生成体験の表示をトリガすることを示す。
【
図7L】いくつかの実施形態による、複合現実環境内の物理的オブジェクトの表現に対応する位置にコンピュータ生成体験の利用可能性のインジケーションを表示し、現実世界の物理的オブジェクトとの事前設定された物理的相互作用を検出したことに応じて、物理的オブジェクトに対応するコンピュータ生成体験の表示をトリガすることを示す。
【
図7M】いくつかの実施形態による、複合現実環境内の物理的オブジェクトの表現に対応する位置にコンピュータ生成体験の利用可能性のインジケーションを表示し、現実世界の物理的オブジェクトとの事前設定された物理的相互作用を検出したことに応じて、物理的オブジェクトに対応するコンピュータ生成体験の表示をトリガすることを示す。
【0031】
【
図7N】いくつかの実施形態による、入力が検出された時点で片手又は両手がハウジング上で検出されたかに従って、表示生成コンポーネントのハウジング上で検出された入力に応じて、動作を実行する又は実行しないことを選択することを示す。
【
図7O】いくつかの実施形態による、入力が検出された時点で片手又は両手がハウジング上で検出されたかに従って、表示生成コンポーネントのハウジング上で検出された入力に応じて、動作を実行する又は実行しないことを選択することを示す。
【
図7P】いくつかの実施形態による、入力が検出された時点で片手又は両手がハウジング上で検出されたかに従って、表示生成コンポーネントのハウジング上で検出された入力に応じて、動作を実行する又は実行しないことを選択することを示す。
【
図7Q】いくつかの実施形態による、入力が検出された時点で片手又は両手がハウジング上で検出されたかに従って、表示生成コンポーネントのハウジング上で検出された入力に応じて、動作を実行する又は実行しないことを選択することを示す。
【0032】
【
図8】いくつかの実施形態による、コンピュータ生成環境と、コンピュータ生成環境に関連付けられた状態情報及びコンピュータ生成環境を閲覧する位置にいるユーザに関連付けられた状態情報と、を表示する方法のフローチャートである。
【0033】
【
図9】いくつかの実施形態による、コンピュータ生成環境と、コンピュータ生成環境に関連付けられた状態情報及びコンピュータ生成環境を閲覧する位置にいるユーザに関連付けられた状態情報と、を表示する方法のフローチャートである。
【0034】
【
図10】いくつかの実施形態による、コンテキスト情報に基づいてコンピュータ生成体験を提供する方法のフローチャートである。
【0035】
【
図11】いくつかの実施形態による、表示生成コンポーネントの着用状態に基づいてコンピュータ生成体験を提供する方法のフローチャートである。
【0036】
【
図12】いくつかの実施形態による、現実世界の物理的オブジェクトとの事前設定された物理的相互作用を検出したことに基づいてコンピュータ生成体験の表示をトリガする方法のフローチャートである。
【0037】
【
図13】いくつかの実施形態による、表示生成コンポーネントのハウジング上の入力に応じて動作を実行する方法のフローチャートである。
【発明を実施するための形態】
【0038】
本開示は、いくつかの実施形態による、コンピュータ生成現実(computer-generated reality、CGR)体験をユーザに提供するユーザインタフェースに関する。
【0039】
本明細書に記載するシステム、方法、及びGUIは、複数の方法で仮想/拡張現実環境とのユーザインタフェース相互作用を改善する。
【0040】
いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含む。第1の表示生成コンポーネントは、第1の表示生成コンポーネントを介して提示されたコンテンツを閲覧する位置にいるユーザにコンピュータ生成体験を提供する、コンピュータ生成環境を表示する(例えば、ユーザは、表示生成コンポーネントの表示面(例えば、プロジェクタによって照明されている物理的環境の面、ユーザの網膜上に画像を形成する光を発するディスプレイの面)に面している)。第1の表示生成コンポーネントは、任意選択的に、コンピュータ生成体験が第1の表示生成コンポーネントによって提供されているときに第1の表示生成コンポーネントを介して依然として知覚可能である、周囲の物理的環境からの異なる量の視覚情報及びオーディオ情報に対応する、異なる没入レベルを伴うコンピュータ生成体験を提供する。通常動作中(例えば、ユーザが第1の表示生成コンポーネントを含むHMDを着用し、かつ/又は第1の表示生成コンポーネントの表示面に面しているとき)、第1の表示生成コンポーネントは、ユーザが第1の表示生成コンポーネントを介して示されるコンテンツを閲覧する位置にいるときに、周囲の物理的環境のユーザの直視を遮断し、同時に、ユーザの顔又は目の他者の視野を遮断する。いくつかの実施形態では、第1の表示生成コンポーネントは、HMDがユーザの頭部に配置されたときに、ユーザの目に面するHMDの内部ディスプレイである。従来、ユーザが表示生成コンポーネントを介して示されるコンテンツを閲覧する位置にいるとき、ユーザは、異なる出現レベル を伴うコンピュータ生成環境を表示することの間で切り替えること(例えば、完全なパススルーモード、複合現実モード、又は仮想現実モードの間で切り替えること)によって、物理的環境を見るオプション、又は物理的環境を見ないオプションを有する。しかしながら、表示生成コンポーネントの背面に面する周囲環境内の他者は、ユーザの注意状態、どんなコンテンツが表示生成コンポーネント上に示されているか、並びに/又はユーザが周囲環境及びその中の人々を見ることができるかどうかに関する視覚的手掛かりをほとんど又は全く有さない。表示生成コンポーネントの2つの面における視覚情報(及び任意選択的にオーディオ情報)のこの不均衡は、ユーザと周囲環境内の他者との間での社会的相互作用を不自然かつ非効率的にする。多くの考慮事項は、第2の表示生成コンポーネントを使用して、ユーザ及び/又は第1の表示生成コンポーネントを介してユーザに表示されるコンテンツに関連する状態情報を伝達する適切な量の視覚情報を周囲環境内の人々に表示する、コンピューティングシステムから利益を得ることができる。第2の表示生成コンポーネントによる状態情報の表示は、任意選択的に、第1の表示生成コンポーネントが使用中である限り、表示される、又は任意選択的に、同じ物理的環境内の他の人々の存在を検出したことに応じて、かつ/若しくは(例えば、同じ部屋に入ること、ユーザの方向を見ること、ユーザに手を振ることなどによって)他者がユーザに社会的会話に関与することを望み得るというインジケーションを検出したことに応じて、トリガされる。いくつかの実施形態では、第2の表示生成コンポーネント上に状態情報を示すことは、ユーザの外観の変化(例えば、第1の表示生成コンポーネントによって遮断されるユーザの一部分の変化)に従って動的に更新される、ユーザの一部分(例えば、ユーザが第1の表示生成コンポーネントを介して表示されるコンテンツを閲覧する位置にいるときに、第1の表示生成コンポーネントによって遮断されるユーザの一部分)の表現を表示することを含む。いくつかの実施形態では、状態情報を示すことは、(例えば、ユーザの一部分の表現を示すことと同時に)第1の表示生成コンポーネントを介して現在示されているコンテンツの視覚インジケーションを提供するグラフィック要素を表示することも含む。第2の表示生成コンポーネントを使用して、第1の表示生成コンポーネントを介して示されるコンテンツを閲覧するユーザに関連する更新された状態情報、及びコンテンツの状態に関連付けられたメタデータ(例えば、タイトル、進度、没入レベル、表示モードなど)を表示する、この方法及びシステムは、ユーザがコンピュータ生成体験に関与している間に、しかしコンピュータ生成体験を周囲環境に完全に明らかにすることなく、ユーザの周囲環境内の他者がユーザの現在の状態への有用な洞察を得ることを可能にする。いくつかの実施形態では、第1の表示生成コンポーネントによって遮断されたユーザの一部分(例えば、ユーザの目の又は顔)の表現、及び第1の表示生成コンポーネントを介して表示されるコンテンツの状態を示すグラフィック要素は、第2の表示生成コンポーネントの異なるディスプレイ層上にそれぞれ表示され、互いに独立して更新される。いくつかの実施形態では、第2の表示生成コンポーネントの異なるディスプレイ層上のユーザの一部分の表現及びコンテンツの状態を示すグラフィック要素への更新により、第1の表示生成コンポーネント及び第2の表示生成コンポーネントの両方を収容するヘッドマウントディスプレイデバイスの背後のユーザの状態のより現実的なビューを提供する。第2の表示生成コンポーネント上に示される状態情報により、第1の表示生成コンポーネントを介してコンピュータ生成体験に関与するときに、ユーザが周囲環境内の人々に社会的に接続されたままでいることが可能になる。ユーザの目の状態及びユーザに示されるコンテンツの状態を示す第2の表示生成コンポーネント上の動的に更新された状態情報により、例えば、そのような相互作用がユーザによって所望されるときに適切な社会的相互作用を促進することによって、ユーザが公共又は半公共環境にいるときに、コンピュータ生成体験とのユーザの関与を改善し、社会的に関与するためのユーザの許可についての視覚的手掛かりの欠如に起因する周囲環境内の他者による社会的相互作用の不必要な回避を低減し、コンピュータ生成体験とのユーザの関与を中断する好適な時間を他者に知らせ、邪魔されないままでいたいというユーザの要望についての視覚的手掛かりの欠如に起因するユーザの関与体験への歓迎されない中断を低減する。
【0041】
上述のように、多くの考慮事項は、第2の表示生成コンポーネントを使用して、ユーザ及び第1の表示生成コンポーネントを介してユーザに表示されるコンテンツに関連する状態情報を伝達する適切な量の視覚情報を周囲環境内の他の人々に表示する、コンピューティングシステムから利益を得ることができる。いくつかの実施形態では、状態情報は、第1の表示生成コンポーネントが使用中である限り、第2の表示生成コンポーネント上に表示される。いくつかの実施形態では、状態情報は、同じ物理的環境内の他の人々の存在を検出したことに応じて、かつ/又は同じ物理的環境内の他者がユーザに社会的会話に関与することを望み得る(例えば、同じ部屋に入ること、ユーザの方向を見ること、ユーザに手を振ることなどによって)というなんらかのインジケーションを検出したことに応じて、のみ表示される。第2の表示生成コンポーネント上に状態情報を示すことは、任意選択的に、ユーザの一部分(例えば、ユーザが第1の表示生成コンポーネントを介して表示されるコンテンツを閲覧する位置にいるときに、第1の表示生成コンポーネントによって遮断されるユーザの一部分)の表現を表示することと、第1の表示生成コンポーネントを介して現在示されているコンテンツの視覚インジケーションを提供するグラフィック要素を表示することと、を含む。更に、いくつかの実施形態では、ユーザの一部分の表現は、第1の表示生成コンポーネントを介して表示されるコンピュータ生成体験の没入レベルの変化と連動して、更新される。第2の表示生成コンポーネントを使用して、第1の表示生成コンポーネントを介して示されるコンテンツを閲覧するユーザに関連し、かつユーザによって閲覧されるコンテンツに関連する、状態情報を表示し、コンテンツの提供に関連付けられた没入レベルの変化に従って、ユーザの一部分の表現の外観を更新することを含む、状態情報を更新する、この方法及びシステムは、コンピュータ生成体験を周囲環境に完全に明らかにすることなく、ユーザがコンピュータ生成体験に関与している間に、ユーザの周囲環境内の他者がユーザの現在の状態への有用な洞察を得ることを可能にする。いくつかの実施形態では、第1の表示生成コンポーネントによって遮断されたユーザの一部分(例えば、ユーザの目の又は顔)の表現への更新、及び第1の表示生成コンポーネントによって表示されるコンテンツの状態を示すグラフィック要素への更新は、異なるディスプレイ層上に示され、互いに独立して更新される。異なるディスプレイ層上にユーザの一部分の表現及びコンテンツの状態を示すグラフィック要素を表示することにより、第1の表示生成コンポーネント及び第2の表示生成コンポーネントの両方を収容するヘッドマウントディスプレイデバイスの背後のユーザの状態のより現実的なビューを提供する。いくつかの実施形態では、第2の表示生成コンポーネントを介して示される(例えば、ユーザの表現及びコンテンツの状態を示すグラフィック要素を含む)状態情報は、任意選択的に、ユーザ及びユーザと同じ物理的環境内の他者の異なる必要性に対応するコンピューティングシステムの多くの異なる使用モードの視覚インジケーションを提供する。これにより、コンピュータ生成体験に関与するときに、ユーザが周囲環境内の人々に社会的に接続されたままでいることが可能になる。ユーザの目の状態及びユーザに示されるコンテンツの状態を示す第2の表示生成コンポーネント上の動的に更新された状態情報により、例えば、そのような相互作用がユーザによって所望されるときに適切な社会的相互作用を促進することによって、ユーザが公共又は半公共環境にいるときに、コンピュータ生成体験とのユーザの関与を改善し、社会的に関与するためのユーザの許可についての視覚的手掛かりの欠如に起因する周囲環境内の他者による社会的相互作用の不必要な回避を低減し、コンピュータ生成体験とのユーザの関与を中断する好適な時間を他者に知らせ、邪魔されないままでいたいというユーザの要望についての視覚的手掛かりの欠如に起因するユーザの関与体験への歓迎されない中断を低減する。
【0042】
いくつかの実施形態では、コンピューティングシステムは、異なる2つの方向を向く、第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含む。第1の表示生成コンポーネントは、ユーザが第1の表示生成コンポーネントを介して提示されたコンテンツを閲覧する(例えば、プロジェクタによって照明されている物理的環境の面を向く、ユーザの網膜上に画像を形成する光を発するディスプレイの面に向く、など)位置に来たときに、ユーザにコンピュータ生成体験を提供する、コンピュータ生成環境を表示する。(例えば、表示生成コンポーネント若しくはユーザ自身、又はその両方を移動させることによって)ユーザが第1の表示生成コンポーネントをその上に表示されたコンテンツを閲覧するユーザに対する位置及び向きに配置する前に、ユーザは、第2の表示生成コンポーネント上に提示されたコンテンツを見る位置にいてもよい。例示的なシナリオでは、第1の表示生成コンポーネントは、HMDがユーザの頭部に配置されたときに、ユーザの目に面するHMDの内部ディスプレイであり、第2の表示生成コンポーネントは、HMDがテーブル上にある、又はユーザの顔から離れて延びたユーザの手にあり、かつユーザの頭部に配置されていない、又はユーザの目に近接して保持されていないときに、ユーザが見ることができるHMDの外部ディスプレイである。本明細書に開示されるように、コンピューティングシステムは、第2の表示生成コンポーネントを利用して、コンテキスト情報(例えば、位置、時間、ユーザ識別情報、ユーザの許可レベルなど)に基づいて、異なるコンピュータ生成体験の利用可能性のインジケーションを表示し、ユーザが第1の表示生成コンポーネントを介して示されるコンテンツを閲覧することを可能にする(例えば、第1の表示生成コンポーネントが移動の結果としてユーザの目に面する)ユーザに対する所定の位置及び向きに第1の表示生成コンポーネントが移動されたことを検出したことに応じて、選択されたコンピュータ生成体験の表示をトリガする。表示されるコンピュータ生成体験は、任意選択的に、第1の表示生成コンポーネントがユーザに対して所定の位置及び向きに移動されたことに対応する時点の第2の表示生成コンポーネントの状態に基づいて、選択される。コンテキスト情報に基づいて第2の表示生成コンポーネント上のコンピュータ生成体験の利用可能性を示し、第2の表示生成コンポーネント(及びそのコンテキスト情報)の状態及びユーザに対する第1の表示生成コンポーネントの向きの変化に基づいて第1の表示生成コンポーネント上の選択されたコンピュータ生成体験の表示を自動的にトリガすることにより、所望の結果を達成する(例えば、現在のコンテキストに関連する利用可能な体験に関連する情報を取得し、所望のコンピュータ生成体験を開始する)ために必要な時間及び入力の数を低減し、従来のユーザインタフェースを使用して利用可能なコンピュータ生成体験を通してブラウズして開始することに対して、ユーザの誤り及び費やす時間を低減する。
【0043】
いくつかの実施形態では、ユーザは、異なる方法で、例えば、即席の若しくは一時的な方法(例えば、ある距離でユーザの目の前に保持される、又は手でユーザの目に近接して保持される)、又はより正式かつ確立された方法(例えば、ユーザの手で支持されることなく、ユーザの頭部又は顔にストラップで固定される、又は別の方法で着用される)で、第1の表示生成コンポーネントをその上に表示されたコンテンツを閲覧するユーザに対する位置及び向きに配置することができる。コンピューティングシステムは、ユーザが第1の表示生成コンポーネント上に表示されるコンテンツを閲覧することを可能にする、ユーザに対する位置及び向きに第1の表示生成コンポーネントが配置される方法に応じて、異なるコンピュータ生成体験(例えば、コンピュータ生成体験の異なるバージョン、ユーザ又はコンテキストプロパティの異なる特性に対応する異なるコンピュータ生成体験、体験のプレビュー対実際の体験など)を選択的に表示する。第1の表示生成コンポーネントがユーザに対して既定の構成に配置されたことに対応するトリガイベントに応じて、かつ第1の表示生成コンポーネントがその位置及び向きに保持される方法に従って(例えば、ユーザの手の支持により、又はその支持なしに、ユーザの手以外の別の機構の支持により、又はその支持なしに、など)、異なるコンピュータ生成体験を選択的に表示する(例えば、第1の表示生成コンポーネントによって提供されるユーザインタフェース内の追加のユーザ入力なしに、第1の表示生成コンポーネントを介してコンピュータ生成体験の表示を自動的に開始する)ことにより、所望の結果を達成する(例えば、所望のコンピュータ生成体験を開始する)ために必要な時間及び入力の数を低減し、従来のユーザインタフェースを使用して利用可能なコンピュータ生成体験を通してブラウズして開始することに対して、ユーザの誤り及び費やす時間を低減する。
【0044】
いくつかの実施形態では、第2の表示生成コンポーネント上に情報(例えば、ユーザの目に関連する状態情報、第1の表示生成コンポーネントを介して表示されているコンテンツの状態、コンピューティングシステムの表示モード、利用可能なコンピュータ生成体験のインジケーションなど)を表示することにより、例えば、周囲の物理的環境内の他者に対応するため、及び/又は望ましいコンピュータ生成体験を見つけるために、ユーザが第1の表示生成コンポーネント及び第2の表示生成コンポーネントの両方を含むHMDを着脱する、かつ/又はコンピュータ生成体験をアクティブ化若しくは停止する必要がある回数を低減するのを支援する。これにより、ユーザが表示生成コンポーネントを使用するときに、ユーザの時間を節約し、電力使用を低減し、かつユーザの誤りを低減するのを支援し、ユーザ体験を改善する。いくつかの実施形態では、現実世界の物理的オブジェクトの物理的操作の事前設定された方法が、検出され、物理的オブジェクトに関連するコンピュータ生成体験を起動するためのトリガとして使用される。いくつかの実施形態では、物理的オブジェクトに関連するコンピュータ生成体験を起動する前に、利用可能なコンピュータ生成体験の視覚インジケーション(単数又は複数)、及び任意選択的に、コンピュータ生成体験を起動する方法に関する視覚ガイド(例えば、プレビュー及びアニメーション)は、複合現実環境内の物理的オブジェクトの表現の位置に対応する複合現実環境内の位置に表示される。コンピュータ生成体験の利用可能性に関する視覚インジケーション及び/又はコンピュータ生成体験をトリガするために必要な物理的操作に関する視覚ガイドを表示することに加えて、物理的オブジェクトの事前設定された物理的操作を使用して、物理的オブジェクトに関連付けられたコンピュータ生成体験の表示をトリガすることにより、より直感的に、より迅速に、かつより少ない入力でユーザが所望の結果を達成する(例えば、所望のコンピュータ生成体験に入る)ことを可能にする。このユーザ相互作用ヒューリスティックはまた、ユーザが物理的オブジェクトと相互作用するときのユーザの誤りを低減するのに役立ち、それによって、ヒューマンマシンインタフェースをより効率的にし、これにより、バッテリ動作式コンピューティングシステム上の電力を節約する。
【0045】
いくつかの実施形態では、表示生成コンポーネントは、ハウジングの様々な部分の近くの又はその上のタッチ又はホバー入力を検出するためのセンサを含む(又は別の方法で関連付けられた外部センサを有する)ハウジングに収容されている。異なるタイプの(例えば、移動パターン(例えば、タップ、スワイプなど)、持続時間(例えば、長い、短いなど)、強度(例えば、軽い、深いなど)などに基づく)及びハウジングの外部上の又はその近くの異なる位置のタッチ入力及び/又はホバー入力は、表示生成コンポーネント又は表示生成コンポーネントによって表示されるコンピュータ生成環境に関連付けられた異なる動作をトリガするために使用される。相互作用ヒューリスティックは、入力が検出された時点で片手又は両手がハウジング上で検出されたかに応じて、動作が実行されるべきかどうかを判定するために使用される。ユーザが入力を提供することを意図している、又は単にユーザの手で表示生成コンポーネントの位置を調整しているかのインジケータとしてハウジング上で検出された手の数を使用することにより、表示生成コンポーネントの不注意な又は意図しない動作を低減するのを支援し、それによって、ヒューマンマシンインタフェースをより効率的にし、これにより、バッテリ駆動式コンピューティングシステム上の電力を節約する。
【0046】
図1~
図6は、CGR体験をユーザに提供するための例示的なコンピューティングシステムを説明する。
図7A~
図7Eは、いくつかの実施形態による、第2の表示生成コンポーネントを介してユーザ及び/又はコンテンツに関連付けられた動的に更新された状態情報を表示している間に、第1の表示生成コンポーネントを介してユーザにコンテンツを表示するコンピューティングシステムを示す。
図7F~
図7Jは、いくつかの実施形態による、コンテキスト情報に基づいて第2の表示生成コンポーネントを介して異なるコンピュータ生成体験のインジケーションを表示し、ユーザに対する空間的関係の変化を検出したことに応じて、かつ任意選択的に、ユーザに対する第1の表示生成コンポーネントの着用状態に従って、第1の表示生成コンポーネントを介してコンテキスト情報に対応する異なるコンピュータ生成体験の表示をトリガする、コンピューティングシステムを示す。
図7K~
図7Mは、いくつかの実施形態による、拡張現実環境内の物理的オブジェクトに関連付けられたコンピュータ生成体験の利用可能性のインジケーションを表示し、物理的オブジェクトとの事前設定された物理的相互作用を検出したことに応じて、物理的オブジェクトに対応するコンピュータ生成体験の表示をトリガすることを示す。
図7N~
図7Qは、いくつかの実施形態による、入力がハウジング上で検出された時点で片手又は両手がハウジング上で検出されたかの判定に従って、表示生成コンポーネントのハウジング上で検出された入力に関連付けられた動作を実行する又は実行しないことを選択することを示す。
図8は、いくつかの実施形態による、コンピュータ生成環境及び状態情報を表示する方法のフローチャートである。
図9は、いくつかの実施形態による、コンピュータ生成環境及び状態情報を表示する方法のフローチャートである。
図10は、いくつかの実施形態による、コンテキスト情報に基づいてコンピュータ生成体験を提供する方法のフローチャートである。
図11は、いくつかの実施形態による、表示生成コンポーネントの着用状態に基づいてコンピュータ生成体験を提供する方法のフローチャートである。
図12は、いくつかの実施形態による、物理的オブジェクトとの物理的相互作用に基づいてコンピュータ生成体験の表示をトリガする方法のフローチャートである。
図13は、いくつかの実施形態による、表示生成コンポーネントのハウジング上で検出された入力に応じて動作を実行する方法のフローチャートである。
図7A~
図7Qのユーザインタフェースは、
図8~
図13のプロセスそれぞれを例示するために使用される。
【0047】
いくつかの実施形態では、
図1に示すように、CGR体験は、コンピューティングシステム101を含む動作環境100を介してユーザに提供される。コンピューティングシステム101は、コントローラ110(例えば、ポータブル電子デバイス又はリモートサーバのプロセッサ)と、1つ以上の表示生成コンポーネント120(例えば、同じハウジングに囲まれ、かつ異なる方向を向く、又は別個のハウジングに囲まれた、1つ以上のヘッドマウントデバイス(HMD)、内部ディスプレイ及び外部ディスプレイを有するHMD、1つ以上のディスプレイ、1つ以上のプロジェクタ、1つ以上のタッチスクリーンなど)と、1つ以上の入力デバイス125(例えば、アイトラッキングデバイス130、ハンドトラッキングデバイス140、他の入力デバイス150)と、1つ以上の出力デバイス155(例えば、スピーカ160、触知出力ジェネレータ170、及び他の出力デバイス180)と、1つ以上のセンサ190(例えば、画像センサ、光センサ、深度センサ、触覚センサ、向きセンサ、近接センサ、温度センサ、位置センサ、動きセンサ、速度センサなど)と、任意選択的に1つ以上の周辺デバイス195(例えば、家電製品、ウェアラブルデバイスなど)と、を含む。いくつかの実施形態では、入力デバイス125、出力デバイス155、センサ190、及び周辺デバイス195のうちの1つ以上は、(例えば、ヘッドマウントデバイス(例えば、HMDのハウジング又はHMDの外側を向くディスプレイ上)又はハンドヘルドデバイス内の)表示生成コンポーネント120と統合される。
【0048】
CGR体験を説明するとき、ユーザが感知することができる、及び/又は(例えば、CGR体験を生成するコンピューティングシステムに、コンピューティングシステム101に提供される様々な入力に対応するオーディオ、視覚、及び/又は触覚フィードバックを生成させる、CGR体験を生成するコンピューティングシステム101によって検出された入力を用いて)ユーザが相互作用することができる、いくつかの関連するが、別個の環境に個別的に言及するために様々な用語が使用される。以下は、これらの用語のサブセットである。
【0049】
物理的環境:物理的環境とは、人々が電子システムの助け無しに、感知及び/又は相互作用することができる物理的世界を指す。物理的な公園などの物理的環境には、物理的な木々、物理的な建物、及び物理的な人々などの物理的物品が挙げられる。人々は、視覚、触覚、聴覚、味覚、及び臭覚などを介して、物理的環境を直接感知し、及び/又はそれと相互作用することができる。
【0050】
コンピュータ生成現実:対照的に、コンピュータ生成現実(CGR)環境とは、人々が電子システムを介して感知及び/又は相互作用する、全体的又は部分的に模倣された環境を指す。CGRでは、人の身体運動のサブセット又はその表現が追跡され、それに応答して、CGR環境内でシミュレートされた1つ以上の仮想オブジェクトの1つ以上の特性が、少なくとも1つの物理学の法則でふるまうように調節される。例えば、CGRシステムは、人の頭部の回転を検出し、それに応答して、そのようなビュー及び音が物理的環境においてどのように変化するかと同様の方法で、人に提示されるグラフィックコンテンツ及び音場を調節することができる。状況によっては(例えば、アクセス性の理由から)、CGR環境における仮想オブジェクト(単数又は複数)の特性(単数又は複数)に対する調節は、身体運動の表現(例えば、音声コマンド)に応答して行われてもよい。人は、視覚、聴覚、触覚、味覚及び嗅覚を含むこれらの感覚のうちのいずれか1つを使用して、CGRオブジェクトを感知し、かつ/又はCGRオブジェクトと相互作用してもよい。例えば、人は、3D空間において点音源の知覚を提供する、3D又は空間的広がりを有するオーディオ環境を作り出す音声オブジェクトを感知し、かつ/又はそれと相互作用することができる。別の例では、オーディオオブジェクトによって、コンピュータ生成オーディオを含めて、又は含めずに、物理的環境から周囲音を選択的に組み込むオーディオ透過性が可能になり得る。いくつかのCGR環境では、人は、音声オブジェクトのみを感知し、かつ/又はそれと相互作用してもよい。
【0051】
CGRの例としては、仮想現実及び複合現実が挙げられる。
【0052】
仮想現実:仮想現実(VR)環境とは、1つ以上の感覚について、コンピュータ生成感覚入力に全面的に基づくように設計された模倣環境を指す。VR環境は、人が感知かつ/又は相互作用することができる複数の仮想オブジェクトを含む。例えば、木、建物、及び人々を表すアバターのコンピュータ生成画像は、仮想オブジェクトの例である。人は、コンピュータ生成環境内に人が存在することのシミュレーションを通じて、かつ/又はコンピュータ生成環境内での人の身体運動のサブセットのシミュレーションを通じて、VR環境における仮想オブジェクトを感知し、かつ/又はそれと相互作用することができる。
【0053】
複合現実:複合現実(MR)環境とは、コンピュータ生成感覚入力に全面的に基づくように設計されたVR環境とは対照的に、コンピュータ生成感覚入力(例えば、仮想オブジェクト)を含むことに加えて、物理的環境からの感覚入力又はその表現を組み込むように設計された模倣環境を指す。仮想の連続体上では、複合現実環境は、一方の端部における完全な物理的環境と、他方の端部における仮想現実環境との間であるがこれらを含まない、任意の場所である。いくつかのMR環境では、コンピュータ生成感覚入力は、物理的環境からの感覚入力の変更に応答し得る。また、MR環境を提示するためのいくつかの電子システムは、仮想オブジェクトが現実のオブジェクト(即ち、物理的環境からの物理的物品又はその表現)と相互作用することを可能にするために、物理的環境に対する位置及び/又は配向を追跡してもよい。例えば、システムは、仮想の木が物理的な地面に対して静止して見えるように、動きを考慮することができる。
【0054】
複合現実の例としては、拡張現実及び拡張仮想が挙げられる。
【0055】
拡張現実:拡張現実(AR)環境とは、1つ以上の仮想オブジェクトが物理的環境上又はその表現上に重ねられた模倣環境を指す。例えば、AR環境を提示するための電子システムは、人が物理的環境を直接見ることができる透明又は半透明のディスプレイを有してもよい。システムは、透明又は半透明のディスプレイに仮想オブジェクトを提示するように構成されていてもよく、それによって、人はシステムを使用して、物理的環境の上に重ね合わされた仮想オブジェクトを知覚する。あるいは、システムは、不透明ディスプレイと、物理的環境の表現である、物理的環境の画像又は動画をキャプチャする1つ以上の撮像センサとを有してもよい。システムは、画像又は動画を仮想オブジェクトと合成し、その合成物を不透明ディスプレイ上に提示する。人はこのシステムを使用して、物理的環境を、物理的環境の画像又は動画によって間接的に見て、物理的環境に重ね合わされた仮想オブジェクトを知覚する。本明細書で使用するとき、不透明ディスプレイ上に示される物理的環境の動画は、「パススルービデオ」と呼ばれ、システムが、1つ以上の画像センサ(単数又は複数)を使用して、物理的環境の画像をキャプチャし、不透明ディスプレイ上にAR環境を提示する際にそれらの画像を使用することを意味する。更に代替的に、システムが仮想オブジェクトを、例えば、ホログラムとして物理的環境の中に、又は物理的表面に投影するプロジェクションシステムを有してもよく、それによって、人はシステムを使用して、物理的環境に重ね合わされた仮想オブジェクトを知覚する。拡張現実環境はまた、物理的環境の表現がコンピュータ生成感覚情報によって変換されるシミュレーション環境を指す。例えば、パススルービデオを提供する際に、システムは、1つ以上のセンサ画像を、イメージセンサがキャプチャした透視図とは別の選択された透視図(例えば、視点)を面付けするように変形してもよい。別の例として、物理的環境の表現を、その一部分をグラフィカルに変更(例えば、拡大)することによって変形してもよく、それにより、変更された部分を、元のキャプチャ画像を表すが非写実的な、改変版にすることもできる。更なる例として、物理的環境の表現は、その一部分をグラフィカルに除去又は不明瞭化することによって変形されてもよい。
【0056】
拡張仮想:拡張仮想(augmented virtuality、AV)環境とは、仮想環境又はコンピュータ生成環境が物理的環境から1つ以上の感覚入力を組み込んだ模倣環境を指す。感覚入力は、物理的環境の1つ以上の特性の表現であり得る。例えば、AVの公園には仮想の木及び仮想の建物があり得るが、顔がある人々は、物理的な人々が撮られた画像から写実的に再現される。別の例として、仮想オブジェクトは、1つ以上の撮像センサによって撮像された物理的物品の形状又は色を採用してもよい。更なる例として、仮想オブジェクトは、物理的環境における太陽の位置と一致する影を採用することができる。
【0057】
ハードウェア:人が様々なCGR環境を感知し、及び/又はそれと相互作用することを可能にする、多くの異なるタイプの電子システムが存在する。例としては、ヘッドマウントシステム、プロジェクションベースシステム、ヘッドアップディスプレイ(heads-up displays、HUD)、統合表示機能を有する車両ウィンドシールド、統合表示機能を有する窓、(例えば、コンタクトレンズと同様に)人の目の上に配置されるように設計されたレンズとして形成されたディスプレイ、ヘッドホン/イヤフォン、スピーカアレイ、入力システム(例えば、触覚フィードバックを有する又は有さない、装着型コントローラ又はハンドヘルドコントローラ)、スマートフォン、タブレット、及びデスクトップ/ラップトップコンピュータ、が挙げられる。ヘッドマウントシステムは、1つ以上のスピーカ(単数又は複数)及び一体型不透明ディスプレイを有してもよい。あるいは、ヘッドマウントシステムは、外部の不透明ディスプレイ(例えば、スマートフォン)を受容するように構成されていてもよい。ヘッドマウントシステムは、物理的環境の画像若しくは動画をキャプチャするための1つ以上の撮像センサ、及び/又は物理的環境のオーディオをキャプチャするための1つ以上のマイクロフォンを組み込んでいてもよい。ヘッドマウントシステムは、不透明ディスプレイではなく、透明又は半透明のディスプレイを有してもよい。透明又は半透明のディスプレイは、画像を表す光が人の目に向けられる媒体を有してもよい。ディスプレイは、デジタル光投影、OLED、LED、uLED、液晶オンシリコン、レーザスキャン光源、又はこれらの技術の任意の組み合わせを利用することができる。媒体は、光導波路、ホログラム媒体、光結合器、光反射器、又はこれらの任意の組み合わせであってもよい。一実施形態では、透明又は半透明のディスプレイは、選択的に不透明になるように構成されていてもよい。プロジェクションベースシステムは、グラフィカル画像を人の網膜上に投影する網膜投影技術を採用することができる。プロジェクションシステムはまた、仮想オブジェクトを、例えば、ホログラムとして、又は物理的表面として物理的環境に投影するように構成されてもよい。いくつかの実施形態では、コントローラ110は、ユーザのCGR体験を管理及び調整するように構成される。いくつかの実施形態では、コントローラ110は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。コントローラ110については、
図2を参照して以下より詳細に記載する。いくつかの実施形態では、コントローラ110は、シーン105(例えば、物理的設定/環境)に対してローカル又はリモートであるコンピューティングデバイスである。例えば、コントローラ110は、シーン105内に位置するローカルサーバである。別の例では、コントローラ110は、シーン105の外側に位置するリモートサーバ(例えば、クラウドサーバ、中央サーバなど)である。いくつかの実施形態では、コントローラ110は、1つ以上の有線又は無線通信チャネル144(例えば、BLUETOOTH、IEEE802.11x、IEEE802.16x、IEEE802.3xなど)を介して、表示生成コンポーネント120(例えば、同じハウジング又は異なるハウジングに囲まれた、1つ以上のHMD、ディスプレイ、プロジェクタ、タッチスクリーンなど)と通信可能に結合される。別の実施例では、コントローラ110は、表示生成コンポーネント(単数又は複数)120(例えば、HMD、又はディスプレイ及び1つ以上のプロセッサなどを含むポータブル電子デバイス)、入力デバイス125のうちの1つ以上、出力デバイス155のうちの1つ以上、センサ190のうちの1つ以上、及び/又は周辺デバイス195のうちの1つ以上の筐体(例えば、物理的ハウジング)内に含まれる、又は上記のうちの1つ以上と同じ物理的筐体若しくは支持構造体を共有する。
【0058】
いくつかの実施形態では、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つは、CGR体験(例えば、CGR体験の少なくとも視覚的コンポーネント)をユーザに提供するように構成されている。いくつかの実施形態では、表示生成コンポーネント(単数又は複数)120は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。表示生成コンポーネント120の一実施例について、
図3を参照して以下より詳細に説明する。いくつかの実施形態では、コントローラ110の機能は、表示生成コンポーネント(単数又は複数)120によって提供される、かつ/又は表示生成コンポーネント(単数又は複数)120と組み合わされる。
【0059】
いくつかの実施形態によれば、表示生成コンポーネント120のうちの少なくとも1つは、ユーザがシーン105内に仮想的かつ/又は物理的に存在している間に、CGR体験をユーザに提供する。
【0060】
いくつかの実施形態では、表示生成コンポーネント(単数又は複数)は、ユーザの身体の一部(例えば、ユーザの頭部、ユーザの手など)に着用される。したがって、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つは、CGRコンテンツを表示するために提供された1つ以上のCGRディスプレイを含む。例えば、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つは、ユーザの視野を包囲する。いくつかの実施形態では、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つは、CGRコンテンツを提示するように構成されたハンドヘルドデバイス(スマートフォン又はタブレットなど)であり、ユーザは、ユーザの視野に向けられるディスプレイ及びシーン105に向けられるカメラを備えたデバイスを保持する。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの頭部に装着された筐体内に配置される。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの前の支持体(例えば、三脚)上に配置される。いくつかの実施形態では、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つは、ユーザが表示生成コンポーネント120を着用又は保持しない状態でCGRコンテンツを提示するように構成されたCGRチャンバ、筐体、又は部屋である。CGRコンテンツ(例えば、ハンドヘルドデバイス又は三脚上のデバイス)を表示するための1つのタイプのハードウェアを参照して説明される多くのユーザインタフェースは、CGRコンテンツ(例えば、HMD又は他のウェアラブルコンピューティングデバイス)を表示するための別のタイプのハードウェア上に実施され得る。例えば、ハンドヘルド又は三脚搭載デバイスの前の空間内で起こる相互作用に基づいてトリガされるCGRコンテンツとの相互作用を示すユーザインタフェースは、相互作用がHMDの前の空間で発生し、CGRコンテンツの応答がHMDを介して表示されるHMDと同様に実施され得る。同様に、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するハンドヘルド又は三脚搭載デバイスの移動に基づいてトリガされたCGRコンテンツとの相互作用を示すユーザインタフェースは、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するHMDの移動によって引き起こされるHMDと同様に実施され得る。
【0061】
動作環境100の関連する特徴が
図1に示されているが、当業者は、本明細書に開示される例示的な実施形態のより適切な態様を曖昧にしないように、簡潔化のための様々な他の特徴が示されていないことを、本開示から理解されよう。
【0062】
図2は、いくつかの実施形態による、コントローラ110の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。そのため、非限定的な例として、いくつかの実施形態では、コントローラ110は、1つ以上の処理ユニット202(例えば、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、グラフィック処理ユニット(GPU)、中央処理ユニット(CPU)、処理コアなど)、1つ以上の入出力(I/O)デバイス206、1つ以上の通信インタフェース208(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、グローバル移動通信システム(GSM)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、グローバル測位システム(GPS)、赤外線(IR)、BLUETOOTH、ZIGBEE、又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース210、メモリ220、並びにこれら及び様々な他のコンポーネントを相互接続するための1つ以上の通信バス204を含む。
【0063】
いくつかの実施形態では、1つ以上の通信バス204は、システムコンポーネントを相互接続し、システムコンポーネント間の通信を制御する回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス206は、キーボード、マウス、タッチパッド、ジョイスティック、1つ以上のマイクロフォン、1つ以上のスピーカ、1つ以上の画像センサ、1つ以上のディスプレイなどのうちの少なくとも1つを含む。
【0064】
メモリ220は、ダイナミックランダムアクセスメモリ(dynamic random-access memory、DRAM)、スタティックランダムアクセスメモリ(static random-access memory、SRAM)、ダブルデータレートランダムアクセスメモリ(double-data-rate random-access memory、DDRRAM)、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ220は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性記憶デバイスなどの不揮発性メモリを含む。メモリ220は、1つ以上の処理ユニット202からリモートに所在する1つ以上の記憶デバイスを任意選択的に含む。メモリ220は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ220、又はメモリ220の非一時的コンピュータ可読記憶媒体は、任意選択的なオペレーティングシステム230及びCGR体験モジュール240を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。
【0065】
オペレーティングシステム230は、様々な基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含む。いくつかの実施形態では、CGR体験モジュール240は、1人以上のユーザに対する1つ以上のCGR体験(例えば、1人以上のユーザに対する単一のCGR体験、又は1人以上のユーザの各グループに対する複数のCGR体験)を管理及び調整するように構成されている。その目的で、様々な実施形態では、CGR体験モジュール240は、データ取得ユニット241、トラッキングユニット242、調整ユニット246、及びデータ送信ユニット248を含む。
【0066】
いくつかの実施形態では、データ取得ユニット241は、
図1の表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つ以上、並びに任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上からデータ(例えば、提示データ、相互作用データ、センサデータ、位置データなど)を取得するように構成されている。その目的で、様々な実施形態では、データ取得ユニット241は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0067】
いくつかの実施形態では、トラッキングユニット242は、シーン105をマッピングして、
図1のシーン105、並びに任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上に対する表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つ以上の位置(position)/位置(location)を追跡するように構成されている。その目的で、様々な実施形態では、トラッキングユニット242は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。いくつかの実施形態では、トラッキングユニット242は、ハンドトラッキングユニット244及び/又はアイトラッキングユニット243を含む。いくつかの実施形態では、ハンドトラッキングユニット244は、
図1のシーン105に対する、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つに対する、かつ/又はユーザの手に対して定義された座標系に対する、ユーザの手の1つ以上の部分の位置、及び/又はユーザの手の1つ以上の部分の動きを追跡するように構成されている。ハンドトラッキングユニット244について、
図4を参照して以下でより詳細に説明する。いくつかの実施形態では、アイトラッキングユニット243は、シーン105に対する(例えば、物理的環境及び/又はユーザ(例えば、ユーザの手)に対する)、又は表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つを介して表示されるCGRコンテンツに対する、ユーザの視線(又は、より広範にはユーザの目、顔、又は頭部)の位置及び移動を追跡するように構成されている。アイトラッキングユニット243について、
図5を参照して以下でより詳細に説明する。
【0068】
いくつかの実施形態では、調整ユニット246は、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つによって、並びに任意選択的に、出力デバイス155及び/又は周辺デバイス195のうちの1つ以上によって、ユーザに提示されるCGR体験を管理及び調整するように構成されている。その目的で、様々な実施形態において、調整ユニット246は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0069】
いくつかの実施形態では、データ送信ユニット248は、データ(例えば、提示データ、位置データなど)を表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つ以上、並びに任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上に送信するように構成されている。その目的で、様々な実施形態では、データ送信ユニット248は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0070】
データ取得ユニット241、トラッキングユニット242(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248が、単一のデバイス(例えば、コントローラ110)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット241、トラッキングユニット242(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
【0071】
更に、
図2は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実施形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、
図2に別々に示すいくつかの機能モジュールは、単一のモジュール内に実施することができ、単一の機能ブロックの様々な機能は、様々な実施形態において1つ以上の機能ブロックによって実行することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実施形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。
【0072】
図3は、いくつかの実施形態による、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つの一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。その目的で、非限定的な例として、いくつかの実施形態では、表示生成コンポーネント(単数又は複数)120を含むコンピューティングシステム(例えば、HMD)はまた、同じハウジング内に、1つ以上の処理ユニット302(例えば、マイクロプロセッサ、ASIC、FPGA、GPU、CPU、処理コアなど)、1つ以上の入出力(input/output、I/O)デバイス及びセンサ306、1つ以上の通信インタフェース308(例えば、USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、IR、BLUETOOTH、ZIGBEE、及び/又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース310、1つ以上のCGRディスプレイ312、1つ以上の任意選択の内向き及び/又は外向き画像センサ314、メモリ320、並びにこれら及び様々な他のコンポーネントを相互接続するための1つ以上の通信バス304を含む。
【0073】
いくつかの実施形態では、1つ以上の通信バス304は、システムコンポーネントを相互接続し、システムコンポーネント間の通信を制御する、回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス及びセンサ306は、慣性測定装置(IMU)、加速度計、磁力計、ジャイロスコープ、温度計、1つ以上の生理的センサ(例えば、血圧モニタ、心拍数モニタ、血液酸素センサ、血糖センサなど)、1つ以上のマイクロフォン、1つ以上のスピーカ、触覚エンジン、1つ以上の深度センサ(例えば、構造化光、飛行時間など)などのうちの少なくとも1つを含む。
【0074】
いくつかの実施形態では、1つ以上のCGRディスプレイ312は、ユーザにCGR体験、及び任意選択的にCGR体験に関連する状態情報を提供するように構成されている。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、ホログラフィック、デジタル光処理(DLP)、液晶ディスプレイ(LCD)、液晶オンシリコン(LCoS)、有機発光電界効果トランジスタ(OLET)、有機発光ダイオード(OLED)、表面伝導型電子放射素子ディスプレイ(SED)、電界放射ディスプレイ(FED)、量子ドット発光ダイオード(QD-LED)、MEMS、及び/又は同様のディスプレイタイプに相当する。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、回折、反射、偏光、ホログラフィックなどの、導波管ディスプレイに相当する。例えば、HMDは、単一のCGRディスプレイを含む。別の実施例では、HMDは、ユーザの各目用のCGRディスプレイを含む。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、MR又はVRコンテンツを提示することができる。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、MR又はVRコンテンツを提示することができる。いくつかの実施形態では、HMDは、HMDがユーザの頭部に配置されたときに、ユーザの目に面する1つ以上のCGRディスプレイと、ユーザの目から離れて(例えば、外部環境に向かって)向く1つ以上のCGRディスプレイと、を含む。いくつかの実施形態では、コンピューティングシステムは、CGR部屋又はCGR筐体であり、CGR部屋又はCGR筐体は、CGR部屋又は筐体内のユーザにCGRコンテンツを提供する内側のCGRディスプレイを含み、任意選択的に、CGRコンテンツに関連する状態情報及び内部のユーザの状態を表示する外側の1つ以上の周辺ディスプレイを含む。
【0075】
いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの目を含むユーザの顔の少なくとも一部に対応する画像データを取得するように構成される(及び、アイトラッキングカメラと称する場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの手(単数又は複数)及び任意選択的にユーザの腕(単数又は複数)の少なくとも一部に対応する画像データを取得するように構成される(及び、ハンドトラッキングカメラと称される場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、表示生成コンポーネント(単数又は複数)120が存在しない場合に、ユーザが閲覧するようなシーンに対応する画像データを取得するように前方を向くように構成されている(かつ、シーンカメラと呼ばれることがある)。1つ以上の任意選択的な画像センサ314は、(例えば、相補型金属酸化膜半導体(CMOS)画像センサ若しくは電荷結合デバイス(CCD)画像センサを備えた)1つ以上のRGBカメラ、1つ以上の赤外線(IR)カメラ、1つ以上のイベントベースのカメラ、及び/又は同様のもの、を含むことができる。
【0076】
メモリ320は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの、高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ320は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ320は、1つ以上の処理ユニット302からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ320は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ320、又はメモリ320の非一時的コンピュータ可読記憶媒体は、任意選択のオペレーティングシステム330及びCGR提示モジュール340を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。
【0077】
オペレーティングシステム330は、様々な基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含む。いくつかの実施形態では、CGR提示モジュール340は、1つ以上のCGRディスプレイ312を介してCGRコンテンツをユーザに提示するように構成される。その目的で、様々な実施形態では、CGR提示モジュール340は、データ取得ユニット342、CGR提示ユニット344、CGRマップ生成ユニット346、データ送信ユニット348、並びに任意選択的に、ユーザ及びCGRコンテンツに関連する状態情報を表示するための他の動作ユニットを含む。
【0078】
いくつかの実施形態では、データ取得ユニット342は、少なくとも
図1のコントローラ110からデータ(例えば、提示データ、相互作用データ、センサデータ、位置データなど)を取得するように構成される。その目的で、様々な実施形態では、データ取得ユニット342は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0079】
いくつかの実施形態では、CGR提示ユニット344は、1つ以上のCGRディスプレイ312を介してCGRコンテンツ及び関連付けられた状態情報を提示するように構成されている。その目的で、様々な実施形態では、CGR提示ユニット344は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0080】
いくつかの実施形態では、CGRマップ生成ユニット346は、メディアコンテンツデータに基づいて、CGRマップ(例えば、複合現実シーンの3Dマップ又はコンピュータ生成オブジェクトを配置してコンピュータ生成現実を生成することができる物理的環境のマップ)を生成するように構成されている。その目的で、様々な実施形態では、CGRマップ生成ユニット346は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0081】
いくつかの実施形態では、データ送信ユニット348は、少なくともコントローラ110、及び任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上にデータ(例えば、提示データ、位置データなど)を伝送するように構成される。その目的で、様々な実施形態では、データ送信ユニット348は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
【0082】
データ取得ユニット342は、CGR提示ユニット344、CGRマップ生成ユニット346、及びデータ送信ユニット348は、単一のデバイス(例えば、
図1の表示生成コンポーネント120)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット342、CGR提示ユニット344、CGRマップ生成ユニット346、及びデータ送信ユニット348の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
【0083】
更に、
図3は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実施形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、
図3に別々に示すいくつかの機能モジュールは、単一のモジュール内に実現することができ、単一の機能ブロックの様々な機能は、様々な実施形態では1つ以上の機能ブロックによって実行することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実施形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。
【0084】
図4は、ハンドトラッキングデバイス140の例示的な実施形態の概略図である。いくつかの実施形態では、ハンドトラッキングデバイス140(
図1)は、ハンドトラッキングユニット244(
図2)によって制御されて、
図1のシーン105に対する(例えば、ユーザを取り囲む物理的環境の一部分に対する、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つに対する、若しくはユーザの一部分(例えば、ユーザの顔、目、若しくは頭部)に対する、及び/又はユーザの手に対して定義された座標系に対する)ユーザの手の1つ以上の部分の位置及び/又はユーザの手の1つ以上の部分の動きを追跡する。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つの一部である(例えば、(例えば、ヘッドマウントデバイス内の)表示生成コンポーネント(単数又は複数)と同じハウジングに埋め込まれる、又は取り付けられる)。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成コンポーネント(単数又は複数)120とは別個である(例えば、別個のハウジング内に位置する、又は別個の物理的支持構造体に取り付けられる)。
【0085】
いくつかの実施形態では、ハンドトラッキングデバイス140は、人間のユーザの少なくとも手406を含む三次元シーン情報をキャプチャする画像センサ404(例えば、1つ以上のIRカメラ、3Dカメラ、深度カメラ、及び/又はカラーカメラなど)を含む。画像センサ404は、指及びそれらのそれぞれの位置を区別するのを可能にするのに十分な解像度で手画像をキャプチャする。画像センサ404は、典型的には、ユーザの身体の他の部分の画像、又は身体の全ての画像をキャプチャし、ズーム機能又は高倍率を有する専用センサのいずれかを有して、所望の解像度で手の画像をキャプチャすることができる。いくつかの実施形態では、画像センサ404はまた、手406の2Dカラービデオ画像及びシーンの他の要素をキャプチャする。いくつかの実施形態では、画像センサ404は、シーン105の物理的環境をキャプチャする他の画像センサと併せて使用される、又はシーン105の物理的環境をキャプチャする画像センサとして機能する。いくつかの実施形態では、画像センサ404は、画像センサ又はその一部の視野が使用されて、画像センサによってキャプチャされた手の移動がコントローラ110への入力として処理される相互作用空間を定義するように、ユーザ又はユーザの環境に対して位置決めされる。
【0086】
いくつかの実施形態では、画像センサ404は、3Dマップデータ(及び場合によってはカラー画像データも)を含むフレームのシーケンスをコントローラ110に出力し、これにより、マップデータから高レベル情報を抽出する。この高レベル情報は、典型的には、アプリケーションプログラムインタフェース(Application Program Interface、API)を介して、コントローラ上で実行されるアプリケーションに提供され、それに応じて表示生成コンポーネント(単数又は複数)120を駆動する。例えば、ユーザは、手408を移動させ、手の姿勢を変化させることによって、コントローラ110上で動作するソフトウェアと相互作用することができる。
【0087】
いくつかの実施形態では、画像センサ404は、手406を含むシーン上にスポットパターンを投射し、投射されたパターンの画像をキャプチャする。いくつかの実施形態では、コントローラ110は、パターンのスポットの横方向シフトに基づいて、三角測量によって(ユーザの手の表面上の点を含む)シーン内の点の3D座標を計算する。このアプローチは、ユーザが任意の種類のビーコン、センサ、又は他のマーカを保持又は着用する必要がないという点で有利である。これは、画像センサ404からの特定の距離で、所定の基準面に対するシーン内の点の深度座標を与える。本開示では、画像センサ404は、シーン内の点の深度座標が画像センサによって測定されたz成分に対応するように、x、y、z軸の直交セットを定義すると想定される。あるいは、ハンドトラッキングデバイス440は、単一又は複数のカメラ又は他のタイプのセンサに基づいて、立体撮像又は飛行時間測定などの他の3Dマッピング方法を使用することができる。
【0088】
いくつかの実施形態では、ハンドトラッキングデバイス140は、ユーザが手(例えば、手全体又は1つ以上の指)を移動させている間、ユーザの手を含む深度マップの時間シーケンスをキャプチャし処理する。画像センサ404及び/又はコントローラ110内のプロセッサ上で動作するソフトウェアは、3Dマップデータを処理して、これらの深度マップ内の手のパッチ記述子を抽出する。ソフトウェアは、各フレームにおける手の姿勢を推定するために、以前の学習プロセスに基づいて、これらの記述子をデータベース408に記憶されたパッチ記述子と照合する。姿勢は、典型的には、ユーザの手関節及び指先の3D位置を含む。
【0089】
ソフトウェアはまた、ジェスチャを識別するために、シーケンス内の複数のフレームにわたって手及び/又は指の軌道を解析することができる。本明細書に記載される姿勢推定機能は、運動追跡機能とインターリーブされてもよく、それにより、パッチベースの姿勢推定が2つ(又はそれ以上)のフレーム毎に1回のみ実行される一方、追跡は残りのフレームにわたって発生する姿勢の変化を発見するために使用される。姿勢、運動、及びジェスチャ情報は、上述のAPIを介して、コントローラ110上で実行されるアプリケーションプログラムに提供される。このプログラムは、例えば、姿勢及び/又はジェスチャ情報に応答して、表示生成コンポーネント120上に提示された画像を移動させ修正する、又は他の機能を実行することができる。
【0090】
いくつかの実施形態では、ソフトウェアは、例えばネットワーク上で、コントローラ110に電子形態でダウンロードされてもよい、又はその代わりに、光学、磁気、若しくは電子メモリ媒体などの、実体的非一時的媒体に提供されてもよい。いくつかの実施形態では、データベース408は、同様に、コントローラ110に関連付けられたメモリに記憶される。代替的又は追加的に、コンピュータの記載された機能の一部又は全ては、カスタム又は半カスタム集積回路又はプログラム可能なデジタル信号プロセッサ(DSP)などの専用のハードウェアに実行されてもよい。コントローラ110は、例として、画像センサ440からの別個のユニットとして
図4に示されているが、コントローラの処理機能の一部又は全部は、好適なマイクロプロセッサ及びソフトウェアによって、又はハンドトラッキングデバイス402のハウジング内の専用回路によって、又は他の方法で画像センサ404に関連付けることができる。いくつかの実施形態では、これらの処理機能のうちの少なくともいくつかは、(例えば、テレビセット、ハンドヘルドデバイス、又はヘッドマウントデバイス内の)表示生成コンポーネント(単数又は複数)120と統合された好適なプロセッサによって、又はゲームコンソール若しくはメディアプレーヤなどの任意の他の好適なコンピュータ化されたデバイスを用いて実行されてもよい。画像センサ404の感知機能は、同様に、センサ出力によって制御されるコンピュータ又は他のコンピュータ化された装置に統合することができる。
【0091】
図4は、いくつかの実施形態による、画像センサ404によってキャプチャされた深度マップ410の概略図を更に含む。深度マップは、上述したように、それぞれの深度値を有するピクセルのマトリックスを含む。手406に対応するピクセル412は、このマップで背景及び手首からセグメント化されている。深度マップ410内の各ピクセルの輝度は、深度値、即ち、画像センサ404からの測定されたz距離に反比例し、深度が上昇するにつれて階調が濃くなる。コントローラ110は、人間の手の特徴を有する画像の成分(即ち、隣接ピクセル群)を識別及びセグメント化するために、これらの深度値を処理する。これらの特性は、例えば、深度マップのシーケンスの全体サイズ、形状、フレームからフレームへの運動を含むことができる。
【0092】
図4はまた、いくつかの実施形態による、コントローラ110が手406の深度マップ410から最終的に抽出する手骨格414を概略的に示す。
図4では、骨格414は、元の深度マップからセグメント化された手の背景416に重畳される。いくつかの実施形態では、手(例えば、指関節、指先、掌の中心、手首に接続する手の終端など)、及び任意選択的に手に接続された手首又は腕上の主要な特徴点が、手の骨格414上で識別され配置される。いくつかの実施形態では、複数の画像フレーム上にわたるこれらの主要な特徴点の位置及び移動がコントローラ110によって使用されて、いくつかの実施形態により、手によって実行される手ジェスチャ又は手の現在の状態を判定する。
【0093】
図5は、アイトラッキングデバイス130(
図1)の例示的な実施形態を示す。いくつかの実施形態では、アイトラッキングデバイス130は、アイトラッキングユニット244(
図2)によって制御されて、シーン105に対する、又は表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つを介して表示されるCGRコンテンツに対するユーザの視線の位置及び移動を追跡する。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つと統合される。例えば、いくつかの実施形態では、表示生成コンポーネント(単数又は複数)120がヘッドセット、ヘルメット、ゴーグル、又は眼鏡などのヘッドマウントデバイス、又はウェアラブルフレームに配置されたハンドヘルドデバイスの一部である場合、ヘッドマウントデバイスは、ユーザによる閲覧のためのCGRコンテンツを生成するコンポーネント及びCGRコンテンツに対するユーザの視線を追跡するためのコンポーネントの両方を含む。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成コンポーネント(単数又は複数)120とは別個である。例えば、表示生成コンポーネント(単数又は複数)がハンドヘルドデバイス又はCGRチャンバによって提供される場合、アイトラッキングデバイス130は、任意選択的に、ハンドヘルドデバイス又はCGRチャンバとは別個のデバイスである。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイス又はヘッドマウントデバイスの一部である。いくつかの実施形態では、ヘッドマウントアイトラッキングデバイス130は、任意選択的に、また頭部に装着されている表示生成コンポーネント(単数又は複数)のうちの少なくとも1つ又は頭部に装着されていない表示生成コンポーネント(単数又は複数)のうちの少なくとも1つと共に使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、ヘッドマウント表示生成コンポーネントと組み合わせて使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、非ヘッドマウント表示生成コンポーネントの一部である。
【0094】
いくつかの実施形態では、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つは、ユーザの目の前に左及び右の画像を含むフレームを表示して、したがって、3D仮想ビューをユーザに提供する、ディスプレイ機構(例えば、左右の目の近傍のディスプレイパネル)を使用する。例えば、ヘッドマウント表示生成コンポーネントは、ディスプレイとユーザの目との間に位置する左右の光学レンズ(本明細書では接眼レンズと称される)を含んでもよい。いくつかの実施形態では、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つは、表示するためにユーザの環境のビデオをキャプチャする1つ以上の外部ビデオカメラを含んでもよい、又はそれに結合されてもよい。いくつかの実施形態では、ヘッドマウント表示生成コンポーネントは、ユーザが物理的環境を直接視認し、透明又は半透明ディスプレイ上に仮想オブジェクトを表示することができる透明又は半透明のディスプレイを有してもよい。いくつかの実施形態では、表示生成コンポーネント(単数又は複数)120のうちの少なくとも1つは、仮想オブジェクトを物理的環境に投影する。仮想オブジェクトは、例えば、物理的表面上に、又はホログラフとして投影され、それによって、個人は、システムを使用して、物理的環境の上に重ねられた仮想オブジェクトを観察することができる。そのような場合、左右の目のための別個のディスプレイパネル及び画像フレームが必要とされない場合がある。
【0095】
図5に示すように、いくつかの実施形態では、視線トラッキングデバイス130は、少なくとも1つのアイトラッキングカメラ(例えば、赤外線(IR)又は近IR(NIR)カメラ)、並びに光(例えば、IR又はNIR光)をユーザの目に向けて発する照明源(例えば、LEDのアレイ若しくはリングなどのIR又はNIR光源)を含む。アイトラッキングカメラは、ユーザの目に向けられて、光源からの反射IR又はNIR光を目から直接受信してもよく、又は代替的に、ユーザの目と、視覚的光が通過することを可能にしながら目からアイトラッキングカメラにIR又はNIR光を反射させるディスプレイパネルとの間に配置される「ホット」ミラーに向けられてもよい。視線トラッキングデバイス130は、任意選択的に、ユーザの目の画像を(例えば、1秒当たり60~120フレーム(fps)でキャプチャされるビデオストリームとして)キャプチャし、画像を解析して、視線追跡情報を生成し、視線追跡情報をコントローラ110に通信する。いくつかの実施形態では、ユーザの両目は、それぞれのアイトラッキングカメラ及び照明源によって別々に追跡される。いくつかの実施形態では、ユーザの片目のみが、対応するアイトラッキングカメラ及び照明源によって追跡される。
【0096】
いくつかの実施形態では、アイトラッキングデバイス130は、デバイス固有の較正プロセスを使用して較正されて、特定の動作環境100用のアイトラッキングデバイスのパラメータ、例えば、LED、カメラ、ホットミラー(存在する場合)、接眼レンズ、及びディスプレイスクリーンの3D幾何学的関係及びパラメータを判定する。デバイス固有の較正プロセスは、AR/VR機器のエンドユーザへの配送前に、工場又は別の施設で実行されてもよい。デバイス固有の較正プロセスは、自動較正プロセスであってもよく、又は手動較正プロセスであってもよい。ユーザ固有の較正プロセスは、特定のユーザの目パラメータ、例えば、瞳孔位置、中心視覚位置、光軸、視軸、目間隔などの推定を含んでもよい。いくつかの実施形態によれば、いったんアイトラッキングデバイス130についてデバイス固有及びユーザ固有のパラメータが判定されると、アイトラッキングカメラによってキャプチャされた画像は、グリント支援方法を使用して処理され、ディスプレイに対するユーザの現在の視覚軸及び視点を判定することができる。
【0097】
図5に示すように、アイトラッキングデバイス130(例えば、130A又は130B)は、接眼レンズ(単数又は複数)520と、アイトラッキングが行われるユーザの顔の側に配置された少なくとも1つのアイトラッキングカメラ540(例えば、赤外線(IR)又は近IR(NIR)カメラ)と光(例えば、IR又はNIR光)をユーザの目(単数又は複数)592に向かって発する照明源530(例えば、NIR発光ダイオード(LED)のアレイ若しくはリングなどのIR又はNIR光源)とを含む視線追跡システムと、を含む。アイトラッキングカメラ540は、ユーザの目(単数又は複数)592とディスプレイ510(例えば、ヘッドマウントディスプレイの左若しくは右側のディスプレイパネル、ヘッドマウントデバイスの内部ディスプレイ、又はハンドヘルドデバイスのディスプレイ、プロジェクタなど)との間に位置する、(例えば、
図5の上部に示すように)可視光を透過させながら、目(単数又は複数)592からのIR又はNIR光を反射する、ミラー550に向けられてもよく、あるいは、(例えば、
図5の下部に示すように)ユーザの目592(単数又は複数)からの反射されたIR又はNIR光を受け取るようにユーザの目(単数又は複数)592に向けられてもよい。
【0098】
いくつかの実施形態では、コントローラ110は、AR又はVRフレーム562(例えば、左及び右のディスプレイパネルの左及び右のフレーム)をレンダリングし、フレーム562をディスプレイ510に提供する。コントローラ110は、様々な目的のために、例えば、表示のためにフレーム562を処理する際に、アイトラッキングカメラ540からの視線追跡入力542を使用する。コントローラ110は、任意選択的に、グリント支援方法又は他の適切な方法を使用して、アイトラッキングカメラ540から得られた視線追跡入力542に基づいて、ディスプレイ510上のユーザの視点を推定する。視線追跡入力542から推定された視点は、任意選択的に、ユーザが現在見ている方向を判定するために使用される。
【0099】
以下、ユーザの現在の視線方向のいくつかの可能な使用事例について説明するが、これは限定することを意図するものではない。例示的な使用例として、コントローラ110は、判定されたユーザの視線方向に基づいて、仮想コンテンツを異なってレンダリングすることができる。例えば、コントローラ110は、周辺領域よりもユーザの現在の視線方向から判定された中心視覚領域において、より高い解像度で仮想コンテンツを生成してもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内の仮想コンテンツを位置決め又は移動させてもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内に特定の仮想コンテンツを表示してもよい。ARアプリケーションにおける別の例示的な使用事例として、コントローラ110は、CGR体験の物理的環境をキャプチャして、判定された方向に焦点を合わせるように外部カメラを方向付けることができる。次いで、外部カメラの自動焦点機構は、ユーザが現在ディスプレイ510上で見ている環境内のオブジェクト又は表面に焦点を合わせることができる。別の例示的な使用事例として、接眼レンズ520は集束可能なレンズであってもよく、視線追跡情報がコントローラによって使用されて、ユーザが現在見ている仮想オブジェクトが、ユーザの目592の収束に一致するために適切な両目連動を有するように接眼レンズ520の焦点を調整する。コントローラ110は、視線追跡情報を活用して、ユーザが見ている近接オブジェクトが正しい距離で現れるように接眼レンズ520を方向付けて焦点を調整することができる。
【0100】
いくつかの実施形態では、アイトラッキングデバイスは、ウェアラブルハウジングに取り付けられた、ディスプレイ(例えば、ディスプレイ510)、2つの接眼レンズ(例えば、接眼レンズ(単数又は複数)520)、アイトラッキングカメラ(例えば、アイトラッキングカメラ(単数又は複数)540)、及び光源(例えば、光源530(例えば、IR又はNIR LED))を含むヘッドマウントデバイスの一部である。光源は、ユーザの目(単数又は複数)592に向かって光(例えば、IR又はNIR光)を発する。いくつかの実施形態では、光源は、
図5に示されるように、各レンズの周りにリング又は円状に配置されてもよい。いくつかの実施形態では、8つの光源530(例えば、LED)が、一例として各レンズ520の周りに配置される。しかしながら、より多くの又はより少ない光源530が使用されてもよく、光源530の他の配置及び位置が用いられてもよい。
【0101】
いくつかの実施形態では、ディスプレイ510は、可視光範囲内の光を発し、IR又はNIR範囲内の光を発さないため、視線追跡システムにノイズを導入しない。アイトラッキングカメラ(単数又は複数)540の位置及び角度は、例として与えられ、限定することを意図するものではないことに留意されたい。いくつかの実施形態では、単一のアイトラッキングカメラ540がユーザの顔の各側に位置する。いくつかの実施形態では、2つ以上のNIRカメラ540をユーザの顔の各側に使用することができる。いくつかの実施形態では、広い視野(FOV)を有するカメラ540と狭いFOVを有するカメラ540が、ユーザの顔の各側に使用されてもよい。いくつかの実施形態では、1つの波長(例えば、850nm)で動作するカメラ540と異なる波長(例えば、940nm)で動作するカメラ540とが、ユーザの顔の各側に使用されてもよい。
【0102】
図5に示すような視線追跡システムの実施形態は、例えば、コンピュータ生成現実(例えば、仮想現実、及び/又は複合現実を含む)アプリケーションに使用されて、コンピュータ生成現実(例えば、仮想現実、拡張現実、及び/又は拡張仮想を含む)の体験をユーザに提供することができる。
【0103】
図6は、いくつかの実施形態による、グリント支援視線追跡パイプラインを示す。いくつかの実施形態では、視線追跡パイプラインは、グリント支援視線追跡システム(例えば、
図1及び
図5に示されるようなアイトラッキングデバイス130)によって実現される。グリント支援視線追跡システムは、追跡状態を維持することができる。当初、追跡状態はオフ又は「いいえ」である。追跡状態にあるとき、グリント支援視線追跡システムは、現フレームを解析する際に前のフレームからの先行情報を使用して、現フレーム内の瞳孔輪郭及びグリントを追跡する。追跡状態にない場合、グリント支援視線追跡システムは、現フレーム内の瞳孔及びグリントを検出しようとし、それに成功した場合、追跡状態を「はい」に初期化し、追跡状態で次のフレームに続く。
【0104】
図6に示すように、視線追跡カメラは、ユーザの左目及び右目の左右の画像をキャプチャすることができる。次いで、キャプチャされた画像は、610で開始される処理のために視線追跡パイプラインに入力される。要素600に戻る矢印によって示されるように、視線追跡システムは、例えば、毎秒60~120フレームの速度で、ユーザの目の画像をキャプチャし続けることができる。いくつかの実施形態では、キャプチャされた画像の各セットが、処理のためにパイプラインに入力されてもよい。しかしながら、いくつかの実施形態、又はいくつかの条件下では、全てのキャプチャされたフレームがパイプラインによって処理されるわけではない。
【0105】
610で、現在のキャプチャされた画像について、追跡状態がはいである場合、この方法は要素640に進む。610で、追跡状態がいいえである場合、620に示されるように、画像が解析されて、画像内のユーザの瞳孔及びグリントを検出する。630で、瞳孔とグリントが正常に検出される場合、方法は要素640に進む。正常に検出されない場合、方法は要素610に戻り、ユーザの目の次の画像を処理する。
【0106】
640で、要素410から進む場合、前のフレームからの先行情報に部分的に基づいて、現フレームが解析されて、瞳孔及びグリントを追跡する。640で、要素630から進む場合、現フレーム内の検出された瞳孔及びグリントに基づいて、追跡状態が初期化される。要素640での処理の結果は、追跡又は検出の結果が信頼できることを確認するためにチェックされる。例えば、結果は、瞳孔及び視線推定を実行するための十分な数のグリントが現フレームで正常に追跡又は検出されるかどうかを判定するためにチェックすることができる。650で、結果が信頼できない場合、追跡状態はいいえに設定され、方法は要素610に戻り、ユーザの目の次の画像を処理する。650で、結果が信頼できる場合、方法は要素670に進む。670で、追跡状態ははいに設定され(まだはいではない場合)、瞳孔及びグリント情報が要素680に渡されて、ユーザの視点を推定する。
【0107】
図6は、特定の実施で使用され得るアイトラッキング技術の一例として機能することを意図している。当業者によって認識されるように、現在存在する、又は将来開発される他のアイトラッキング技術は、様々な実施形態によるCGR体験をユーザに提供するためにコンピューティングシステム101において、本明細書に記載されるグリント支援視アイトラッキング技術の代わりに、又はそれと組み合わせて使用することができる。
【0108】
本開示では、コンピューティングシステムとの相互作用に関して、様々な入力方法が説明される。一例が1つの入力デバイス又は入力方法を使用して提供され、別の例が別の入力デバイス又は入力方法を使用して提供される場合、各例は、別の例に関して記載された入力デバイス又は入力方法と互換性があり、任意選択的に利用され得ることを理解されたい。同様に、様々な出力方法が、コンピューティングシステムとの相互作用に関して説明される。一例が1つの出力デバイス又は出力方法を使用して提供され、別の例が別の出力デバイス又は出力方法を使用して提供される場合、各例は、別の例に関して記載された出力デバイス又は出力方法と互換性があり、任意選択的に利用され得ることを理解されたい。同様に、様々な方法が、コンピューティングシステムを介した仮想環境又は複合現実環境との相互作用に関して説明される。実施例が仮想環境との相互作用を使用して提供され、別の例が複合現実環境を使用して提供される場合、各例は、別の例に関して説明された方法と互換性があり、任意選択的に利用され得ることを理解されたい。したがって、本開示は、各実施形態の説明における実施形態の全ての特徴を網羅的に列挙することなく、複数の例の特徴の組み合わせである実施形態を開示する。
ユーザインタフェース及び関連するプロセス
【0109】
ここで、ユーザインタフェース(user interfaces、「UI」)の実施形態、及び、1つ以上の表示生成コンポーネント、1つ以上の入力デバイス、及び(任意選択的に)1つ又はカメラ を備えた、ポータブル多機能デバイス又はヘッドマウントデバイスなどのコンピューティングシステム上で実行することができる関連プロセスに注目する。
【0110】
図7A~
図7Eは、いくつかの実施形態による、少なくとも第1の表示生成コンポーネント(例えば、ディスプレイ7100)及び第2の表示生成コンポーネント(例えば、ディスプレイ7102)を含むコンピューティングシステム(
図1のコンピューティングシステム101又は
図4のコンピューティングシステム140など)を示し、コンピューティングシステムは、第2の表示生成コンポーネント(例えば、ディスプレイ7102)を介してユーザ及び/又はコンテンツに関連付けられた動的に更新された状態情報を表示している間に、第1の表示生成コンポーネント(例えば、ディスプレイ7100)を介してコンピュータ生成コンテンツをユーザに表示する。
図7A~
図7Eは、
図8~
図13のプロセスを含む、後述のプロセスを例示するために使用される。
【0111】
図7Aの左側部分に示すように、第1の表示生成コンポーネント(例えば、ディスプレイ7100)は、位置A7000-aに存在し、CGRコンテンツ(例えば、三次元映画、仮想現実ゲーム、ビデオ、ユーザインタフェースオブジェクトを含む三次元環境など)を表示している。第1のユーザ7202も、位置A7000-aに存在する。
【0112】
図7Aの右側部分に示すように、第2の表示生成コンポーネント(例えば、ディスプレイ7102)は、位置B7000-bに存在し、第1のユーザ7202及び/又は第1の表示生成コンポーネント(例えば、ディスプレイ7100)を介して提示されるCGRコンテンツに対応する状態情報を表示している。
図7Aに示す例示的なシナリオでは、第2のユーザ7204も、位置B7000-bに存在する。
【0113】
図7Aに示すように、第1の表示生成コンポーネント(例えば、ディスプレイ7100)と第1のユーザ7202との間の空間的関係は、第1のユーザ7202が第1の表示生成コンポーネントを介して提示されるCGRコンテンツを閲覧する位置にいるようになっている。例えば、第1のユーザ7202は、第1の表示生成コンポーネントの表示面に面している。いくつかの実施形態では、第1の表示生成コンポーネントは、HMDの内部ディスプレイであり、同じ位置A7000-aにおけるディスプレイ7100と第1のユーザ7202の同時存在によって表される空間的関係は、HMDの内部ディスプレイがユーザの目に面した状態で第1のユーザがHMDを着用又は保持していることに対応する。いくつかの実施形態では、第1のユーザは、第1のユーザが第1の表示生成コンポーネントの投影システムによって照明された物理的環境の一部分に面しているときに、第1の表示生成コンポーネントを介して提示されたCGRコンテンツを閲覧する位置にいる。例えば、仮想コンテンツは、物理的環境の一部分上に投影され、仮想コンテンツ及び物理的環境の一部分は、ユーザが第1の表示生成コンポーネントの表示面に面しているときに、物理的環境の一部分のカメラビュー又は第1の表示生成コンポーネントの透明部分を介してユーザによって見られる。いくつかの実施形態では、第1の表示生成コンポーネントは、ユーザが第1の表示生成コンポーネントの表示面に面しているときに、ユーザの網膜上に画像を形成する光を発する。例えば、仮想コンテンツは、LCD又はLEDディスプレイによって、LCD又はLEDディスプレイによって表示される物理的環境のビューの一部分に重ね合わせて又は置き換えて表示され、LCD又はLEDディスプレイの表示面に面するユーザは、物理的環境の一部分のビューと共に仮想コンテンツを見ることができる。いくつかの実施形態では、第1の表示生成コンポーネントは、第1のユーザの前の物理的環境のカメラビューを表示し、又は第1のユーザの前の物理的環境の一部分が第1のユーザに見える透明若しくは半透明の部分を含む。いくつかの実施形態では、第1の表示生成コンポーネントを介して第1のユーザに見えるようにされた物理的環境の一部分は、第2の表示生成コンポーネント7102の表示面(例えば、第2の表示生成コンポーネントの表示面及び任意選択的に第2のユーザ7204を含む位置B7000-b)に対応する物理的環境の一部分である。いくつかの実施形態では、第2の表示生成コンポーネントの表示面は、第1のユーザが第1の表示生成コンポーネントによって示されるコンテンツを閲覧する位置にいるとき(例えば、第1のユーザが第1の表示生成コンポーネントの表示面に面しているとき)の、第1のユーザから離れる方向を向く第2の表示生成コンポーネントの面であり、第1のユーザの事前設定された部分に面する他者(例えば、物理的環境内の第1のユーザの顔又は目に面している第2のユーザ7204又は他者)によって視認可能な画像を形成する光を発する面である。
【0114】
図7Aに示すように、第2の表示生成コンポーネント(例えば、ディスプレイ7102)と第2のユーザ7204との間の空間的関係は、第2のユーザ7204が第2の表示生成コンポーネントによって提示される状態情報を閲覧する位置にいるようになっている。例えば、第2のユーザ7204は、第2の表示生成コンポーネントの表示面の前にいる、かつ/又はそれに面している。いくつかの実施形態では、第2の表示生成コンポーネントは、CGRコンテンツを第1のユーザ7202に提示している(例えば、ディスプレイ7100によって表される)内部ディスプレイも含むHMDの外部ディスプレイである。そのような実施形態では、同じ位置B7000-bのディスプレイ7102と第2のユーザ7204の同時存在によって表される空間的関係は、HMDの外部ディスプレイが面している物理的環境の一部分に第2のユーザがいる(例えば、物理的環境は第1の表示生成コンポーネント及び第1のユーザ7202も受け入れている)ことに対応する。いくつかの実施形態では、第1の表示生成コンポーネントは、第1のユーザの前の物理的環境のカメラビューを表示し、又は第1のユーザの前の物理的環境の一部分が第1のユーザに見える透明若しくは半透明のパススルー部分を含み、カメラビュー又はパススルー部分に含まれる物理的環境の一部分はまた、第2の表示生成コンポーネントの表示面の前にある物理的環境の一部分である。いくつかの実施形態では、第2の表示生成コンポーネントは、第2の表示生成コンポーネント7102の表示面の前にある物理的環境の一部分(例えば、第2の表示生成コンポーネントの表示面及び任意選択的に第2のユーザ7204を含む位置B7000-b)も第1のユーザの前にあり、かつ、第1及び第2の表示生成コンポーネントが第1のユーザの顔を遮断していなかった場合に第1のユーザの視野内にあるように、第1の表示生成コンポーネントと背中合わせに配置されている。
【0115】
上述し、かつ本明細書で繰り返し言うように、
図7A(及び
図7B~
図7J)は、第1の表示生成コンポーネント(例えば、ディスプレイ7100)及び第2の表示生成コンポーネント(例えば、ディスプレイ7102)が物理的環境の2つの別個かつ分離した部分に位置するように示しているが、第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、任意選択的に、同じハウジング(例えば、単一のHMDのハウジング)に収容された、又は同じ支持構造体に取り付けられた(例えば、互いに背中合わせに、又は単一の壁若しくは表面の2つの面上に取り付けられた)、かつ異なる(例えば、実質的に反対の)方向を向く、2つの表示生成コンポーネントであることを理解されたい。したがって、位置A7000-aは、第1の表示生成コンポーネントを介して提示されるコンテンツ(例えば、CGRコンテンツ)を第1の表示生成コンポーネントの表示面に面している第1のユーザ(例えば、第1のユーザ7202)によって見ることができ、かつ第2の表示生成コンポーネントを介して提示されるコンテンツ(例えば、状態情報)を第1のユーザ(例えば、第1のユーザ7202)によって見ることができない、物理的環境の第1の一部分を表し、位置B7000-bは、第1の表示生成コンポーネントを介して提示されるコンテンツ(例えば、CGRコンテンツ)を第2の表示生成コンポーネントの表示面に面する別のユーザ(例えば、第2のユーザ7204)によって見ることができず、かつ第2の表示生成コンポーネントを介して提示されるコンテンツ(例えば、状態情報)をその別のユーザ(例えば、第2のユーザ7204)によって見ることができる、同じ物理的環境の第2の一部分を表す。本明細書に提示される本開示では、第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、同じコンピューティングシステム(例えば、HMD、表示生成コンポーネントとは別個に収容されたポータブル電子デバイス、異なる方向を向く2つのディスプレイを有するポータブル電子デバイス、リモートサーバコンピュータなど)によって制御され、コンピューティングシステムのユーザは、別途規定されない限り、一般に、少なくとも第1の表示生成コンポーネントの制御を有して、第1の表示生成コンポーネントを介して示されるCGRコンテンツを自身が見ることを可能にする位置にそれ又は自身を配置する人を指す。
【0116】
図7Aに示すように、第1の表示生成コンポーネント及び第2の表示生成コンポーネントを制御するコンピューティングシステムは、第1の画像センサ(例えば、カメラ7104)及び第2の画像センサ(例えば、カメラ7106)と通信する。第1の画像センサは、第1の表示生成コンポーネント(例えば、ディスプレイ7100)の表示面に面し、かつ第2のユーザ7204(又は、第1の表示生成コンポーネントが第1のユーザによって着用されるHMDの内部ディスプレイである場合は、任意の他のユーザ)を含まない、第1のユーザの少なくとも一部分(例えば、第1のユーザ7202の顔及び/又は目)を含む物理的環境の一部分(例えば、位置A7000-a)の画像をキャプチャするように構成されている。第2の画像センサは、第1のユーザの一部分(例えば、第1のユーザ7202の顔又は目)を含まないが、第2のユーザの少なくとも一部分(例えば、第1の表示生成コンポーネントによって提供される第1のユーザ7202の視野内にある第2のユーザ7204の一部分)を含む、物理的環境の一部分(例えば、位置B7000-b)の画像をキャプチャするように構成されている。前述のように、いくつかの実施形態では、第2の画像センサ7106によってキャプチャされた物理的環境の一部分は、第1のユーザの目が第2の表示生成コンポーネントの存在(及び任意選択的に、第1の表示生成コンポーネントの存在)によって物理的に遮断されなかった場合に、第1のユーザの視野内にある物理的環境の一部分を含む。同様に、いくつかの実施形態では、第1の画像センサ7104によってキャプチャされた物理的環境の一部分は、第1の表示生成コンポーネントの存在(及び任意選択的に、第2の表示生成コンポーネントの存在)によって物理的に遮断されるユーザの一部分(例えば、ユーザの顔又は目)を含む。いくつかの実施形態では、コンピューティングシステムはまた、第1の画像センサ、第2の画像センサ、及び/又は他の画像センサと通信して、第1のユーザ及び/又は第2のユーザによって提供されるジェスチャ入力を識別するために、第1のユーザ及び/又は第2のユーザの手及び手首の画像を受信する。いくつかの実施形態では、第1の画像センサ7104はまた、第1のユーザによって提供される視線入力をキャプチャするために使用される。いくつかの実施形態では、第1の画像センサ及び第2の画像センサは、任意選択的に、第1のユーザ及び/又は第2のユーザのジェスチャ入力をキャプチャするための画像センサとして機能する。
【0117】
いくつかの実施形態では、コンピューティングシステムは、任意選択的に、位置A7000-aに存在する第1のユーザにオーディオ出力(例えば、CGRコンテンツの音)を、及び任意選択的に、位置B7000-bに存在する第2のユーザにオーディオ出力(例えば、状態インジケーション音又は警報、CGRコンテンツの音など)をそれぞれ提供する、1つ以上のオーディオ出力デバイスを制御する。いくつかの実施形態では、コンピューティングシステムは、任意選択的に、位置Bから伝搬する音から位置A及び第1のユーザを(例えば、1つ以上のアクティブ又はパッシブノイズ抑制又はキャンセルコンポーネントを介して)部分的に又は完全に遮蔽し、かつ任意選択的に、位置Aから伝搬する音から位置B及び第2のユーザを部分的に又は完全に遮蔽する。いくつかの実施形態では、アクティブ遮音又は音パススルーの量は、第1の表示生成コンポーネントを介して示されるCGRコンテンツに関連付けられた現在の没入レベルに基づいて(例えば、パススルーモードにあるときに、遮音がない、又は複合現実モードにあるときに、部分的遮音、仮想現実モードにあるときに、完全遮音、など)、及び任意選択的に、位置Bに存在する別のユーザがいるかどうかに基づいて(例えば、位置Bにだれも存在しない場合に、遮音がない、位置Bに人々が存在する又はノイズレベルが閾値レベルを上回るときに、遮音、など)、コンピューティングシステムによって判定される。
【0118】
いくつかの実施形態では、
図7Aに示すように、コンピューティングシステムは、第1のユーザ7202がCGRコンテンツを閲覧する位置にいる(例えば、第1のユーザ7202が第1の表示生成コンポーネントの表示面と位置Aに併置され、かつそれに少なくとも部分的に面している、第1のユーザが頭部にHMDを着用している、内部ディスプレイがユーザの目の前にある状態でHMDを保持している、など)間に、第1の表示生成コンポーネント(例えば、ディスプレイ7100、又はHMDの内部ディスプレイ)を介して(例えば、
図7Aに7002-aとして示される)CGRコンテンツ7002を表示する。
図7Aに示される瞬間において、コンピューティングシステムは、映画X(例えば、三次元映画、2次元映画、対話型コンピュータ生成体験など)を表示している。映画は、第1の表示生成コンポーネントを介して映画のコンテンツが物理的環境の表現(例えば、位置Bの表現(例えば、第1の表示生成コンポーネントの存在によって遮断される、第1のユーザの前にある物理的環境の一部分))と同時に見える、複合現実モードで表示される。いくつかの実施形態では、この複合現実モードは、第1の表示生成コンポーネントを介して提示されるCGRコンテンツに関連付けられた中間没入レベルに対応する。いくつかの実施形態では、中間没入レベルはまた、物理的環境(例えば、位置B(例えば、第1のユーザを取り囲む物理的環境の一部分))から伝搬する音の部分遮蔽又は部分パススルーに対応する。この実施例では、物理的環境の表現は、第2の表示生成コンポーネント7102の前の(例えば、また第1の表示生成コンポーネント7100の背面の前の)位置B7000-bに位置する第2のユーザ7204の表現7010(例えば、
図7Aの7010-aとして示される)を含む。いくつかの実施形態では、物理的環境の表現は、ユーザの目が第1の表示生成コンポーネント及び第2の表示生成コンポーネントの存在によって遮断されなかった場合(例えば、第1のユーザがHMDを着用していなかった、又はHMDをユーザの目の前に保持していなかった場合)に第1のユーザの視野内にある、物理的環境の一部分のカメラビューを含む。複合現実モードでは、CGRコンテンツ7002(例えば、映画X、三次元拡張現実環境、ユーザインタフェース、仮想オブジェクトなど)は、物理的環境の表現の全てではないが少なくとも一部分に重ね合わせる、又はそれを置き換えるように表示される。いくつかの実施形態では、第1の表示生成コンポーネントは、物理的環境の一部分が第1のユーザに見える、透明部分を含む。いくつかの実施形態では、複合現実モードでは、CGRコンテンツ7002(例えば、映画X、三次元拡張現実環境、ユーザインタフェース、仮想オブジェクトなど)は、物理的環境内の物理的表面又は空の空間に投影され、物理的環境とともに透明部分を介して見え、第1の表示生成コンポーネントの透明部分を介して視認可能である、又は第1の表示生成コンポーネントによって提供される物理的環境のカメラビューを介して視認可能である。いくつかの実施形態では、CGRコンテンツ7002は、ディスプレイの一部分に重ね合わせるように表示され、第1の表示生成コンポーネントの透明又は半透明部分を介して見える物理的環境の全てではないが少なくとも一部分のビューを遮断する。いくつかの実施形態では、第1の表示生成コンポーネント7100は、物理的環境のビューを提供せず、1つ以上のセンサ(例えば、カメラ、動きセンサ、他の姿勢センサなど)によって現在キャプチャされているように、物理的環境のリアルタイム視覚表現(単数又は複数)(例えば、様式化された表現又はセグメント化されたカメラ画像)で拡張された完全な仮想環境(例えば、カメラビュー又は透明パススルー部分なし)を提供する。複合現実モード(例えば、カメラビュー若しくは透明ディスプレイに基づく拡張現実、又は物理的環境の仮想化表現に基づく拡張仮想)では、第1のユーザは、コンピュータ生成環境に完全には没入せず、第1のユーザ及び第1の表示生成コンポーネントを取り囲む物理的環境に直接対応する感覚情報(例えば、視覚及びオーディオ)を依然として受信している。
【0119】
図7Aに示すように、コンピューティングシステムが第1の表示生成コンポーネント7100を介して複合現実モードでCGRコンテンツ7002-a(例えば、映画X、三次元拡張現実環境、ユーザインタフェース、仮想オブジェクトなど)を表示すると同時に、コンピューティングシステムは、第2の表示生成コンポーネント(例えば、ディスプレイ7102、又はHMDの外部ディスプレイ)を介して第1のユーザ及びCGRコンテンツに関連する状態情報を表示する。
図7Aの右側部分に示すように、第2の表示生成コンポーネント(例えば、ディスプレイ7102、又はHMDの外部ディスプレイ)は、第1の表示生成コンポーネント(例えば、ディスプレイ7100又はHMDの内部ディスプレイ)を介して表示されているCGRコンテンツ7002の状態を表す1つ以上のグラフィック要素、並びに第1の表示生成コンポーネント(例えば、ディスプレイ7100又はHMDの内部ディスプレイ)の表示面の前にある第1のユーザ7202の少なくとも一部分の(例えば、
図7Aの7006-aとして示される)表現7006を表示する。この実施例では、第1の表示生成コンポーネントを介して表示されているCGRコンテンツの状態を表す1つ以上のグラフィック要素は、任意選択的に、CGRコンテンツの識別子(例えば、映画Xのタイトル)、CGRコンテンツの現在の進度を示す進度バー7004(例えば、
図7Aの7004-aとして示される)、及びCGRコンテンツの視覚表現7008(例えば、
図7Aの7008-aとして示される)を含む。いくつかの実施形態では、CGRコンテンツの視覚表現7008は、(例えば、ぼかし、歪みなどを介して)CGRコンテンツの一部を不明瞭化し、CGRコンテンツの変化の感覚及び色又は階調を単に伝える。
図7Aの右側部分に示すように、第1のユーザ7202の一部分の表現7006は、任意選択的に、第1のユーザの顔のカメラビュー、又は第1のユーザの顔のカメラビューに基づいて生成されるグラフィック表現を含む。いくつかの実施形態では、第1のユーザ7202の一部分の表現は、任意選択的に、第1のユーザの目のカメラビュー、又は第1の表示生成コンポーネントの表示面の前にいる第1のユーザの目のカメラビューに基づいて生成されるグラフィック表現を含む。いくつかの実施形態では、第1のユーザ7202の一部分の表現は、第1の表示生成コンポーネントを介して表示されているCGRコンテンツの状態を表す1つ以上のグラフィック要素のディスプレイ層(単数又は複数)とは異なるディスプレイ層に表示される。いくつかの実施形態では、第2の表示生成コンポーネントによるCGRコンテンツの状態の表現と第1のユーザの一部分の表現の同時表示により、CGRコンテンツが複合現実モードで第1の表示生成コンポーネントを介して表示されており、かつ第1のユーザにCGRコンテンツと共に物理的環境のビューが提供されているというインジケーションを提供する。第1のユーザの顔及び/又は目が第1の表示生成コンポーネントの存在(及び任意選択的に第2の表示生成コンポーネントの存在)によって(例えば、内部ディスプレイ及び外部ディスプレイを含むHMDの存在によって)遮蔽されている間に、第2の表示生成コンポーネント上に、第1のユーザの顔及び/又は目の視覚表現、並びに第1のユーザによって閲覧されているCGRコンテンツの状態の表現を表示することによって、第1のユーザの周囲の物理的環境内の他のユーザに、第1のユーザとの対話を開始する又は控えるための、又は第1のユーザの存在下で適切な方法で行動するためのより多くの情報が提供される。
【0120】
図7Bは、
図7Aに続き、その後、CGRコンテンツが第1の表示生成コンポーネント(例えば、ディスプレイ7100又はHMDの内部ディスプレイ)上で更に進行し、第1のユーザの外観が変化したことを示す。例えば、第1のユーザの外観の変化は、位置A7000-a内の(例えば、第1のユーザが依然としてHMDを着用しており、かつ/又はHMDの内部ディスプレイに面している間の)第1の表示生成コンポーネントに対する第1のユーザ7202の少なくとも一部分(例えば、第1のユーザの目又は顔)の移動によるものである(例えば、移動は、第1のユーザの眼球の横方向の移動、ユーザの目のまばたき、ユーザの目の開閉、ユーザの眼球の上下の移動など含む、及び/又は移動は、第1の表示生成コンポーネントの表示面に対する(例えば、第1の表示生成コンポーネントから離れて又は向かって移動する)ユーザの顔又は頭部の移動を含む)。この時点で、CGRコンテンツ7002は、複合現実モードで依然として表示されており、物理的環境(例えば、第2のユーザ7204を含む位置B)の(例えば、7010-bとして示される)表現7010は、第1の表示生成コンポーネントを介してCGRコンテンツ7002と同時に表示されたままである。いくつかの実施形態では、物理的環境の外観の任意の変化(例えば、第1の表示生成コンポーネント、第2の表示生成コンポーネント、及び/又は第1のユーザに対する第2のユーザ7204の移動など)は、同様に、第1の表示生成コンポーネントによって示される物理的環境の表現7010によって反映される。いくつかの実施形態では、第1の表示生成コンポーネントに対する第1のユーザの一部分の移動(例えば、第1のユーザの目又は顔の移動)に従って、コンピューティングシステムは、第2の表示生成コンポーネント7102を介して表示される(例えば、
図7Bの7006-bとして示される)表現7006を更新する。例えば、第1のユーザ7202又はその一部分(例えば、ユーザの顔又は目)が第1の表示生成コンポーネント7100の第1の縁部(例えば、第1の表示生成コンポーネントの表示面の左縁部、第1の表示生成コンポーネントの表示面の上縁部など)に向かう方向に移動したとき、第2の表示生成コンポーネントの表示面上に示される第1のユーザの一部分の表現7006もまた、第2の表示生成コンポーネントの対応する第2の縁部(例えば、第2の表示生成コンポーネントの表示面の右縁部(例えば、第1の表示生成コンポーネントの表示面の左縁部に対応する)、第2の表示生成コンポーネントの表示面の上縁部(例えば、第1の表示生成コンポーネントの表示面の上縁部に対応する)など)に向かって移動する。第1のユーザの一部分の表現7006を更新することに加えて、コンピューティングシステムはまた、第2の表示生成コンポーネント上のCGRコンテンツの状態の表現を更新する。例えば、進度バー7004(例えば、
図7Bの7004-bとして示される)は、更新されて、CGRコンテンツの再生が
図7Aに示される時間から第1の量だけ進行したことを示す。いくつかの実施形態では、第2の表示生成コンポーネント(例えば、ディスプレイ7102、HMDの外部ディスプレイなど)上に示されるような、CGRコンテンツの(例えば、
図7Bの7008-bとして示される)表現7008はまた、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイなど)上に示されるCGRコンテンツ7002の現在の外観に従って更新される。いくつかの実施形態では、第1のユーザの一部分の外観のリアルタイム更新を示し(例えば、第1の表示生成コンポーネントの背後の第1のユーザの顔及び目の変化及び移動を示す)、かつ第1の表示生成コンポーネントによって示されるCGRコンテンツの状態のリアルタイム又は周期的更新を示すことにより、第1のユーザの周囲の物理的環境内の(例えば、位置Bの)他者が第1のユーザの注意状態及び現時点で第1のユーザに関与する又は割り込むことが適切であるかどうかに関する情報を得ることが可能になる。いくつかの実施形態では、第1のユーザの外観及びCGRコンテンツの変化が第2の表示生成コンポーネントによって示される状態情報への更新によって反映されている間に、物理的環境の外観の任意の変化(例えば、第1の表示生成コンポーネント、第2の表示生成コンポーネント、及び/又は第1のユーザに対する第2のユーザ7204の移動など)は、同様に、第1の表示生成コンポーネントによって示される物理的環境の表現7010によって反映される。
【0121】
図7Cは、
図7Aに続き、その後、CGRコンテンツが第1の表示生成コンポーネント7100上で更に進行し、第2のユーザ7204が第2の表示生成コンポーネント7204に対して移動し、
図7Aに示されるシナリオと比較して異なる角度から第2の表示生成コンポーネントを閲覧していることを示す。この時点で、CGRコンテンツ7002は、複合現実モードで依然として表示されており、物理的環境(例えば、第2のユーザ7204を含む位置B)の(例えば、7010-cとして示される)表現7010は、第1の表示生成コンポーネント7100を介して同時に表示されたままである。第2の表示生成コンポーネントに対する(並びに、第1及び第2の表示生成コンポーネントが互いに対して固定された空間的関係を有する(例えば、HMDの同じハウジング内に背中合わせに固定されている)場合、第1の表示生成コンポーネントに対する)第2のユーザ7204の移動に従って、コンピューティングシステムは、第1の表示生成コンポーネント(例えば、ディスプレイ7100又はHMDの内部ディスプレイ)を介して表示される(例えば、
図7Cの7010-cとして示される)表現7010を更新する。例えば、第2のユーザ7204又はその一部分が第2の表示生成コンポーネント7102の表示面の第3の縁部(例えば、右縁部、上縁部など)に向かう方向に移動したとき、第1の表示生成コンポーネント7100の表示面上に示される第2のユーザの一部分の表現7010もまた、第1の表示生成コンポーネントの対応する第4の縁部(例えば、第1の表示生成コンポーネントの表示面の左縁部(例えば、第2の表示生成コンポーネントの表示面の右縁部に対応する)、第1の表示生成コンポーネントの表示面の上縁部(例えば、第2の表示生成コンポーネントの表示面の上縁部に対応する))に向かって移動する。第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイなど)上に示されるCGRコンテンツの変化に従って、コンピューティングシステムはまた、第2の表示生成コンポーネント(例えば、ディスプレイ7102、HMDの外部ディスプレイなど)上に示されるCGRコンテンツの状態の表現を更新する。例えば、進度バー7004(例えば、
図7Cの7004-cとして示される)は、更新されて、CGRコンテンツの再生が
図7Aに示される時間から第2の量だけ、及び
図7Bに示される時間から第3の量だけ、進行したことを示す。いくつかの実施形態では、第2の表示生成コンポーネント(例えば、ディスプレイ7102、HMDの外部ディスプレイなど)上に示されるような、CGRコンテンツ7002の(例えば、
図7Cの7008-cとして示される)表現7008はまた、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイなど)上に示されるCGRコンテンツ7002の現在の外観に従って更新される。
図7A及び
図7Bに示される状態情報(例えば、表現7006、表現7008、進度バー7004などを含む)の外観のコントラストは、第2の表示生成コンポーネントによって示される状態情報に表される第1の表示生成コンポーネントと第1のユーザ7202の一部分との間の同じ相対空間位置について、第1のユーザ7202の一部分の表現7006がCGRコンテンツの表現7008のものとは異なる深度、及び任意選択的に、他の状態情報(例えば、進度バー7004)のものとは異なる深度で表示されることを示す。第2の表示生成コンポーネント7102の表示面からの、又は第2のユーザ7204の位置からの表示深度の差は、視覚視差効果をもたらす。例えば、第2のユーザ7204が第2の表示生成コンポーネント(例えば、ディスプレイ7102、HMDの外部ディスプレイなど)に対して移動すると、第1のユーザ7202の一部分の表現7006及びCGRコンテンツの表現7008は、第2の表示生成コンポーネントの表示面上で異なる量だけ移動するように見える(かつ互いに対して移動するように見える)。いくつかの実施形態では、CGRコンテンツの表現7008は、第1のユーザの一部分の表現7006と他の状態情報の表現(例えば、CGRコンテンツのタイトル、進度バー7004など)との間の拡散層として表示される。いくつかの実施形態では、第1のユーザの一部分の表現は、第2の表示生成コンポーネントによって示されるCGRコンテンツの表現及び他の状態情報の表現のディスプレイ層と比較して、第2の表示生成コンポーネントの表示面から最も遠く離れたディスプレイ層に表示される。
【0122】
いくつかの実施形態では、第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、第1のユーザの頭部に着用されている、又はユーザの顔の前に配置されたHMD内に背中合わせに(例えば、それらのそれぞれの表示面が異なる方向(例えば、実質的に反対方向)を向いた状態で)配置されている。いくつかの実施形態では、第2の表示生成コンポーネントは、1つ以上の画像処理フィルタを使用して第1のユーザの目の実際の画像に基づいて生成された、第1のユーザの目の視覚表現を示す。例えば、第1のユーザの目の視覚表現は、任意選択的に、第1のユーザの目のカメラ画像の不透明度を低減すること、透明度を増加すること、色飽和レベルを低減すること、ルミナンスレベルを低減すること、ピクセル解像度を低減すること、色解像度を低減することなどによって生成される。いくつかの実施形態では、第1のユーザの目の個別のカメラ画像の様々な表示特性に適用される修正の量は、任意選択的に、第2の表示生成コンポーネント7102によって同時に示されるCGRコンテンツの表現7008の様々な表示特性の値に対して指定される。例えば、CGRコンテンツの表現が比較的暗い場合(例えば、第1の範囲のルミナンス値を有する)、目の表現もまた、より暗く、より半透明に、かつ/又はより小さい色飽和度にされ(例えば、第1の範囲のルミナンス値に基づいて選択される、第2の範囲のルミナンス値、第2の範囲の透明度値、第2の範囲の色飽和度値を有する)、CGRコンテンツの表現がより明るい場合(例えば、第1の範囲のルミナンス値よりも大きい第2の範囲のルミナンス値を有する)、目の表現は、より明るく、より半透明でなく、かつ/又はより大きな色飽和度にされる(例えば、第2の範囲のルミナンス値に基づいて選択される、第3の範囲のルミナンス値、第3の範囲の透明度値、第3の範囲の色飽和度値)。いくつかの実施形態では、他の表示特性(例えば、色飽和度、ピクセル解像度、色解像度、階調など)は、ユーザの一部分(例えば、ユーザの顔又は目)の表現の表示特性の値範囲を選択するための基礎として使用される。いくつかの実施形態では、第1のユーザの目の表現は、表現が第2の表示生成コンポーネントによって表示されるときに第1のユーザの目の元の外観を変更する、ボケフィルタ、カラーフィルタ、ルミナンスフィルタなどの1つ以上の事前設定された画像フィルタを適用することによって生成される。
【0123】
いくつかの実施形態では、第2の表示生成コンポーネントによって示されるCGRコンテンツの表現(例えば、表現7008)は、第1の表示生成コンポーネントによって表示されるCGRコンテンツ(例えば、全ての可視コンテンツ、メディアコンテンツのみ、又は任意選択的に、物理的環境のパススルービューを除く可視コンテンツ)に拡散フィルタを適用することによって生成される。例えば、シーンの色及び階調は、CGRコンテンツの表現7008によって保存されるが、CGRコンテンツ内のオブジェクトの輪郭は、ぼかされており、CGRコンテンツの表現7008内に明確に定義されない。いくつかの実施形態では、CGRコンテンツの表現は、半透明であり、それを通して第1のユーザの一部分の表現7006が見える。いくつかの実施形態では、CGRコンテンツ(例えば、進度バー7004、CGRコンテンツのタイトルなど)に関連付けられたメタデータを表すグラフィカルユーザインタフェース要素は、第2の表示生成コンポーネントによって(例えば、CGRコンテンツの表現7008と同じディスプレイ層若しくは異なるディスプレイ層に、及び/又は、第1のユーザの一部分の表現7006と同じディスプレイ層若しくは異なるディスプレイ層に)表示される。いくつかの実施形態では、CGRコンテンツに関連付けられたメタデータを表すグラフィカルユーザインタフェース要素は、CGRコンテンツの表現7008及び/又は第1のユーザの一部分の表現7006と比較して、より高いピクセル解像度、より高い色解像度、より高い色飽和度、より高い不透明度、より高いルミナンス、及び/又はより良好に定義された輪郭で表示される。
【0124】
いくつかの実施形態では、第1のユーザの一部分(例えば、第1のユーザの顔又は目)は、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイ)に対して移動し、一方、第1の表示生成コンポーネントによって提示されるCGRコンテンツ7002は、変化しない。そのような場合、ユーザの一部分の表現7006は、任意選択的に、CGRコンテンツの表現7006 及び進度バー7004が更新されることなく、第2の表示生成コンポーネント7102上で更新される。いくつかの実施形態では、CGRコンテンツは、表示されない、又は一時停止され、第1のユーザは、CGRコンテンツの同時表示なしに、第1の表示生成コンポーネントを介して物理的環境のパススルービューを閲覧しており、第2の表示生成コンポーネントは、任意選択的に、CGRコンテンツの任意の表現を表示する又は静止若しくは一時停止状態のCGRコンテンツの表現を示すことなく、第1のユーザの一部分の外観の変化(例えば、ユーザの一部分の移動又は他の変化による)に従って、第1のユーザの一部分の表現を更新する。
【0125】
いくつかの実施形態では、CGRコンテンツは、第1の表示生成コンポーネント上で変化し、一方、第1のユーザの一部分は、その外観を変化させない(例えば、他の理由により、移動又は変化しない)。したがって、第1のユーザの一部分の表現7006は、変更されないままであり、第2の表示生成コンポーネントは、第1の表示生成コンポーネントによって示されるCGRコンテンツの変化に従って、CGRコンテンツの表現7008及びCGRコンテンツの状態の他のインジケータ(例えば、進度バー7004)のみを更新する。
【0126】
いくつかの実施形態では、CGRコンテンツ及び第1のユーザの一部分の外観の両方の変化が同じ期間中に(例えば、同時に、かつ/又は互いの事前設定された時間ウィンドウの間に、など)検出された場合、第2の表示生成コンポーネントは、検出される変化に従って、ユーザの一部分の視覚表現及びCGRコンテンツの状態を示す1つ以上のグラフィック要素(例えば、CGRコンテンツの表現7008及び進度バー7004)の両方を更新する。
【0127】
図7A~
図7Cは、第2の表示生成コンポーネント7102を介して、第1のユーザの外観の変化(例えば、第1のユーザの目の移動又は表情を変えること、照明の変化などによる)に従って、第1のユーザ7202(例えば、第1のユーザの目又は顔)の視覚表現(例えば、表現7006)の外観を更新し、第2の表示生成コンポーネント7102を介して、CGR環境の変化に従って、第1の表示生成コンポーネント7100を介して示されるCGR環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素(例えば、進度バー7004、CGRコンテンツ7002の表現7008など)を更新することを示す。
図7A~
図7Cに示す例示的なシナリオでは、CGRコンテンツに関連付けられた没入レベル及び第1のユーザ7202の注意状態は、変化せず、CGRコンテンツの提示に関連付けられた中間没入レベルに対応する。いくつかの実施形態では、CGRコンテンツの提示に関連付けられた没入レベル及び第1のユーザの対応する注意状態は、任意選択的に、ある期間にわたって変更され、例えば、より大きな没入レベル及びより関与するユーザ注意状態に増加する、又はより小さな没入レベル及びより関与しないユーザ注意状態に減少する。いくつかの実施形態では、第2の表示生成コンポーネントによって示される状態情報は、第1の表示生成コンポーネントによってCGRコンテンツが提示される没入レベルの変化に基づいて、更新される。いくつかの実施形態では、状態情報への更新は、第1のユーザの一部分の表現への更新(例えば、第1のユーザの一部分の表現の視認性の更新、第1のユーザの一部分の表現の外観の更新など)を含む。
【0128】
いくつかの実施形態では、コンピューティングシステムは、少なくとも第1の没入レベル、第2の没入レベル、及び第3の没入レベルでCGRコンテンツ7002を表示するように構成されている。いくつかの実施形態では、コンピューティングシステムは、一連の1つ以上のイベント(例えば、アプリケーション又は体験の自然な終了又は進行、ユーザ入力に応じた体験の開始、停止、及び/又は一時停止、ユーザ入力に応じた体験の没入レベルの変更、コンピューティングデバイスの状態の変化、外部環境の変化など)に応じて、第1の表示生成コンポーネントを介して表示されるCGRコンテンツを異なる没入レベル間で遷移させる。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、CGR環境に存在する仮想コンテンツの量を増加させること、及び/又はCGR環境に存在する周囲の物理的環境の表現(例えば、位置B又は第2の表示生成コンポーネント7102の表示面の前の物理的環境の一部分の表現)の量を減少させることに対応する。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、コンピュータ生成コンテンツの増加する画像忠実度(例えば、増加するピクセル解像度、増加する色解像度、増加する色飽和度、増加するルミナンス、増加する不透明度、増加する画像詳細など)及び/若しくは空間範囲(例えば、角度範囲、空間深度など)、並びに/又は周囲の物理的環境の表現(例えば、位置B又は第2の表示生成コンポーネントの表示面の前の物理的環境の一部分の表現)の減少する画像忠実度及び/若しくは空間範囲を有する、コンテンツ表示の異なるモードに対応する。いくつかの実施形態では、第1の没入レベルは、第1の表示生成コンポーネントを介して(例えば、物理的環境のカメラビューとして、又は第1の表示生成コンポーネントの透明部分を介して)物理的環境(例えば、位置B又は第2の表示生成コンポーネントの表示面の前の物理的環境の一部分)が第1のユーザに完全に見える、パススルーモードである。いくつかの実施形態では、パススルーモードで提示されるCGRコンテンツは、物理的環境のビューとして同時に見える最小量の仮想要素を有する、又は物理的環境のユーザのビューの周辺の仮想要素(例えば、ディスプレイの周辺領域に表示されるインジケータ及びコントロール)のみを有する、物理的環境のパススルービューを含む。
図7Eは、いくつかの実施形態による、CGRコンテンツ7002に関連付けられた第1の没入レベルの例を示す。例えば、物理的環境のビュー(例えば、第2の表示生成コンポーネントの表示面の前の物理的環境の一部分(例えば、また第1のユーザの前の物理的環境の一部分))は、第1の表示生成コンポーネントによって提供される視野の中央領域及び大部分の領域を占有し、いくつかのコントロール(例えば、映画のタイトル、進度バー、再生コントロール(例えば、再生ボタン)など)のみが、第1の表示生成コンポーネントによって提供される視野の周辺領域に表示される。いくつかの実施形態では、第2の没入レベルは、物理的環境のパススルービューがコンピューティングシステムによって生成された仮想要素で拡張された複合現実モードであり、仮想要素は、ユーザの視野の中央領域及び/又は大部分の領域を占有する(例えば、仮想コンテンツは、コンピュータ生成環境のビュー内の物理的環境と統合される)。いくつかの実施形態による、CGRコンテンツ7002に関連付けられた第2の没入レベルの例を、
図7A~
図7Cに示す。いくつかの実施形態では、第3の没入レベルは、物理的環境のそのユーザのビューが第1の表示生成コンポーネントによって提供される仮想コンテンツのビューによって完全に置き換えられる又は遮断される、仮想現実モードである。
図7Dは、いくつかの実施形態による、CGRコンテンツ7002に関連付けられた第3の没入レベルの例を示す。
【0129】
図7Cに続く
図7Dに示すように、コンピューティングシステムは、複合現実モードでのCGRコンテンツ7002を表示することから、物理的環境(例えば、第2のユーザ7204を含む位置B(例えば、第2の表示生成コンポーネント7102の表示面の前にある物理的環境の一部分))の表現なしで仮想現実モードでCGRコンテンツ7002(例えば、7002-dとして示される映画X)を表示することへの切り替えを有する 。いくつかの実施形態では、コンピューティングシステムによって実行される切り替えは、第1のユーザからの要求(例えば、CGRコンテンツの没入レベルを変更するための事前設定された基準を満たすジェスチャ入力(例えば、HMDから離れて第1のユーザの手を持ち上げること))に応じてである。第1の表示生成コンポーネント7100を介して複合現実モードでCGRコンテンツ7002を表示することから仮想現実モードでCGRコンテンツ7002を表示することへの切り替えに連動して、コンピューティングシステムは、第2の表示生成コンポーネント7102を介して表示される状態情報を変更する。
図7Dに示すように、CGRコンテンツ7002(例えば、タイトル、進度バー7004(例えば、
図7Dの7004-dとして示される)、及び表現7008(例えば、
図7Dの7008-dとして示される))を示す1つ以上のグラフィック要素は、依然として表示され、第1の表示生成コンポーネント7100によって示されるCGRコンテンツ7002(例えば、
図7Dの7002-dとして示される)の変化に従って更新され続けるが、第1のユーザの一部分(例えば、第1のユーザの目又は顔)の表現7006は、第2の表示生成コンポーネント7100によってもはや表示されない。いくつかの実施形態では、第1のユーザの一部分の表現を完全に表示するのを完全に停止する代わりに、コンピューティングシステムは、第2の表示生成コンポーネント上の他の状態情報(例えば、CGRコンテンツの表現、CGRコンテンツ又はユーザに関連するメタデータの表現など)の視認性に対して第1のユーザの一部分の表現の視認性を減少させる(例えば、ルミナンスを低減する、色解像度を低減する、不透明度を低減する、ピクセル解像度を低減する、など)。いくつかの実施形態では、第1のユーザの一部分の表現7006は、任意選択的に、その以前の外観に対して低減した視認性(例えば、全く見えない、又は低減したルミナンス、増加した透明度、低減した不透明度、低減した色飽和度、増加したボケレベルなど)で表示されて、第1の表示生成コンポーネントによって示されるCGRコンテンツに関連付けられた没入レベルの増加を示す。他の状態情報(例えば、CGRコンテンツの表現7008及び進度バー7004)は、第1の表示生成コンポーネントによって示されるCGRコンテンツ7002の変化に従って、連続的又は周期的に更新され、一方で、そのような他の状態情報は、第2の表示生成コンポーネント7102によって表示されたままである(例えば、低減がCGRコンテンツの外観の変化によるものでない限り、その以前の外観に対して視認性の低減なしに)。
【0130】
いくつかの実施形態では、複合現実モードから仮想現実モードへの切り替えは、第1のユーザの目が第1及び/又は第2の表示生成コンポーネントの存在によって遮断されなかったときに第1のユーザが有したであろう推定された視野を出る第2のユーザ7204の移動によってトリガされる。いくつかの実施形態では、複合現実モードから仮想現実モードへの切り替えは、第1のユーザを取り囲む物理的環境を出る(例えば、第1のユーザによって占められた部屋の外への)第2のユーザ7204の移動によってトリガされる。いくつかの実施形態では、コンピューティングシステムは、物理的環境に存在する他のユーザがいない場合、物理的環境の表現(例えば、位置Bの表現(例えば、第1のユーザの前の物理的環境の一部分の表現)など)を表示することを停止する。いくつかの実施形態では、位置Bの第1のユーザのビューが第1及び/若しくは第2の表示生成コンポーネントの存在によって遮断されなかったときに第1のユーザが有するであろう推定された視野に、並びに/又は第1のユーザを取り囲む物理的環境に(例えば、第1のユーザによって占められている部屋に)入る第2のユーザ7204の移動、第2のユーザによって実行される既定のジェスチャ(例えば、第1のユーザに手を振る第2のユーザ)、第1のユーザの閾値距離範囲内に移動する第2のユーザなどは、任意選択的に、仮想現実モードから複合現実モードへの切り替えをトリガするための条件として使用される。いくつかの実施形態では、表示モードを仮想現実モードから複合現実モードに切り替えることと連動して、コンピューティングシステムは、第2の表示生成コンポーネント7102によって示される状態情報の要素の中で第1のユーザの一部分の表現7006の視認性のレベルを復元する(例えば、表現が見えていなかった場合に第1のユーザの一部分の表現の表示を復元する、又はユーザの一部分の表現のルミナンス、色飽和度、ピクセル解像度、不透明度、及び/若しくは色解像度などを増加させる、など)。それに応じて、複合現実モードでは、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイなど)は、コンピュータ生成仮想コンテンツ(例えば、映画X)と共に、第2の表示生成コンポーネントの表示面の前の(かつそれに応じて、第1の表示生成コンポーネント及び第2の表示生成コンポーネントが第1のユーザによって着用されたHMDの同じハウジング内に背中合わせに囲まれている場合、第1のユーザの前の)物理的環境の一部分の表現(例えば、表現7010)を表示する。
【0131】
図7Eに示すように(例えば、
図7C又は
図7Dの後に)、コンピューティングシステムは、(例えば、
図7A~
図7Cに示すように)複合現実モード又は(例えば、
図7Dに示すように)仮想現実モードでCGRコンテンツを表示することから、ディスプレイの周辺領域(例えば、ディスプレイの上縁部及び下縁部)上に物理的環境(例えば、第2のユーザ7204を含む位置B(例えば、第2の表示生成コンポーネント7102の表示面の前にある物理的環境の一部分))の表現(例えば、
図7Eの7010-eとして示される)、及び任意選択的に、最小量の仮想コンテンツ(例えば、インジケータ(例えば、映画Xのタイトル、進度バー、再生コントロールなど)のみ、かつ再生コンテンツなし)のみを有する完全なパススルーモード又は現実モード(例えば、映画Xが完了して、もう示されていない)でCGRコンテンツ(例えば、CGRコンテンツ7002)を表示することに切り替えている。いくつかの実施形態では、表示モードの切り替えは、CGRコンテンツの再生の終了若しくは一時停止、及び/又は第1のユーザからの要求(例えば、CGRコンテンツの没入レベルを変更するための事前設定された基準を満たすジェスチャ入力(例えば、第1のユーザの眉の上に手を置くこと、HMDの面上でピンチした指で引き下げること、など))に応じて、コンピューティングシステムによって実行される。いくつかの実施形態では、第1の表示生成コンポーネント7100を介して複合現実モード又は仮想現実モードでCGRコンテンツを表示することから完全パススルーモード又は現実モードでCGRコンテンツを表示することへの切り替えに連動して、コンピューティングシステムは、第2の表示生成コンポーネント7102を介して表示される状態情報を変更する。
図7Eに示すように、CGRコンテンツの外観及び状態を示す1つ以上のグラフィック要素(例えば、タイトル、進度バー7004(例えば、
図7Cの7004-c、及び
図7Dの7004-dなどとして示される)、及び表現7008(例えば、
図7Cの7008-c、及び
図7Dの7008-dなどとして示される))は、第2の表示生成コンポーネントによってもはや表示されず、第1のユーザの一部分の表現7006(例えば、
図7Eの7006-eとして示される)は、第2の表示生成コンポーネントによって増加した視認性で完全に表示される(例えば、以前は見えなかった場合に見えるようになる、又は増加したルミナンス、減少した透明度、増加した不透明度、増加した色飽和度、増加したピクセル解像度、増加した色解像度、低減したボケレベルなどで表示される)。いくつかの実施形態では、第1のユーザの一部分の表現7006は、任意選択的に、その以前の外観に対して増加した視認性で表示されて、第1の表示生成コンポーネントによって示されるCGRコンテンツに関連付けられた没入レベルの減少を示す。いくつかの実施形態では、第1のユーザの一部分の表現7006は、第1のユーザの一部分の表現7006が第2の表示生成コンポーネントによって表示されている間に、第1のユーザ7202の外観の変化に従って連続的に更新される。
【0132】
いくつかの実施形態では、複合現実モード又は仮想現実モードから完全なパススルーモード又は現実モードへの切り替えは、第1のユーザの目が第1及び/又は第2の表示生成コンポーネントの存在によって遮断されなかったときに第1のユーザが有したであろう推定された視野への第2のユーザ7204の移動によってトリガされる。いくつかの実施形態では、複合現実モード又は仮想現実モードから完全パススルーモード又は現実モードへの切り替えは、第1のユーザ7202から閾値距離内(例えば、第1のユーザからの腕の長さ以内、第1のユーザから3フィート以内など)の個人空間への第2のユーザ7204の移動によってトリガされる。いくつかの実施形態では、コンピューティングシステムは、完全なパススルーモード又は現実モードに入ると (例えば、事前設定された条件が満たされると、例えば、事前設定された人(例えば、配偶者、教師、チームメート、子供など)が第1のユーザ7202の推定された視野に入ると)、第1の表示生成コンポーネントを介してCGRコンテンツを表示することを停止し、物理的環境(例えば、位置B、第1のユーザの前の物理的環境など)の表現のみを表示する。いくつかの実施形態では、第1のユーザ7202の推定された視野を出る及び/若しくは第1のユーザ7202から閾値距離内の個人空間を出る第2のユーザ7204の移動、並びに/又は他の条件は、完全なパススルーモード又は現実モードから複合現実モード又は仮想現実モード(例えば、事前設定されたモード又は以前のモード)に戻す自動切り替えをトリガするために使用される。いくつかの実施形態では、表示モードを完全パススルーモードから仮想現実モード又は複合現実モードに切り替えることと連動して、コンピューティングシステムは、第2の表示生成コンポーネント7102によって示される状態情報の要素中の第1のユーザの一部分の表現7006の視認性のレベルを復元し(例えば、完全に表示することを停止する、又は完全に見えなくすることなく、その視認性を減少するなど)、かつCGRコンテンツの表現7008の視認性のレベルを復元する(例えば、その視認性を増加する)。
【0133】
図7C~
図7Eは、いくつかの実施形態による、第2の没入レベル(例えば、複合現実モード)から第1の没入レベル(例えば、パススルーモード)に下げ、第3の没入レベル(例えば、仮想現実モード)へ上げる遷移、並びに第1の表示生成コンポーネント7100によって示される情報及び第2の表示生成コンポーネント7102によって示される情報の対応する変化を示す。いくつかの実施形態では、3つのレベルの没入のうちの任意の2つの間の直接遷移は、そのような直接遷移のためのそれぞれの基準を満たす異なるイベントに応じて、可能である。それに応じて、第1の表示生成コンポーネントによって表示される情報及び第2の表示生成コンポーネントによって表示される情報は、更新されて(例えば、情報の異なるコンポーネント(例えば、CGRコンテンツ、物理的環境の表現、CGRコンテンツの表現、第1のユーザの一部分の表現、CGRコンテンツに関連付けられた静的メタデータの表現など)の視認性を変更する)、第1の表示生成コンポーネント7100によってCGRコンテンツが表示される現在の没入レベルを反映する。
【0134】
いくつかの実施形態では、
図7Eに示すように、第1のユーザの一部分の表現7006(例えば、第1のユーザの顔又は目の表現)は、コンピューティングシステムが複合現実モードを使用してCGRコンテンツを表示することから完全なパススルーモード又は現実モードを使用してCGRコンテンツを表示することに切り替えることの結果として、CGRコンテンツの表現の同時表示なしに(例えば、CGRコンテンツ、タイトル、又は進度バーなどの拡散バージョンの重ね合わせなしに)、又はCGRコンテンツの表現に対して増加した視認性で表示される(例えば、表現7006の視認性はその以前のレベルに対して増加される、CGRコンテンツの表現の視認性はそれ自体の以前のレベルに対して減少される、及び/又はCGRコンテンツを表すためのグラフィック要素のいくつかはもはや表示されない、など)。
【0135】
いくつかの実施形態では、第1のユーザの一部分の表現7006(例えば、第1のユーザの顔又は目の表現)は、コンピューティングシステムが仮想現実モード又はパススルーモードを使用してCGRコンテンツを表示することから複合現実モードを使用してCGRコンテンツを表示することに切り替えることの結果として、CGRコンテンツの表現7008と共に(例えば、CGRコンテンツの拡散バージョンの重ね合わせと共に)(例えば、CGRコンテンツの表現7008に対して同等の視認性(例えば、それらのそれぞれの以前のレベルに対して増加又は減少した表現7006の視認性及び/又は表現7008の視認性)で)表示される。
【0136】
いくつかの実施形態では、コンピューティングシステムが複合現実モードを使用してCGRコンテンツを表示することから仮想現実モードを使用してCGRコンテンツを表示することに切り替えると、第1のユーザの一部分の表現7006(例えば、第1のユーザの顔又は目の表現)は、CGRコンテンツの表現7008と共に表示されない(例えば、CGRコンテンツの拡散バージョンと共に表示されない)、又はCGRコンテンツの表現7008に対して低減した視認性で表示される。
【0137】
いくつかの実施形態では、コンピューティングシステムは、プライベートモード、サイレント(Do-Not-Disturb、DND)モード(DNDモード)、ペアレンタルコントロールモードなどの他の特別な表示モードを使用してCGRコンテンツを表示することができる。これらの特別な表示モードのうちの1つ以上がオンにされると、状態情報が第2の表示生成コンポーネント上で表示及び/又は更新される方法は、そのような特別なモードがオンにされていないときに状態情報が第2の表示生成コンポーネント上で表示及び/又は更新される方法(例えば、
図7A~
図7Eを参照して上述したような方法)から調整される。
【0138】
例えば、プライベートモードは、任意選択的に、コンピューティングシステム又は第1のユーザによってアクティブ化されて、第1の表示生成コンポーネントによって現在表示されているCGRコンテンツに関連付けられた状態情報、及び/又は第1のユーザの注意状態に関連付けられた状態情報を隠す。いくつかの実施形態では、プライベートモードがオンにされている間に(例えば、第1のユーザの要求に応じて)、第1のユーザの一部分の表現7006及び/又はCGRコンテンツの表現7008は、第2の表示生成コンポーネント上で、もはや更新されず、表示されることを停止し、かつ/又は他のプレースホルダコンテンツに置き換えられ、その結果、第1のユーザの一部分の外観で検出された変化、及び/又は第1の表示生成コンポーネントによって表示されているCGRコンテンツで検出された変化をもはや反映しない。いくつかの実施形態では、プライベートモードは、コンピューティングシステムによって検出される(例えば、コンピューティングシステムが複合現実モード又は仮想現実モードを使用して、CGRコンテンツを第1のユーザに表示しているとき、及び/又はCGRコンテンツが開始される前に、など)ユーザ要求(例えば、HMD上の第1のユーザによる事前設定されたジェスチャ入力、事前設定された音声コマンドなど)に応じて、アクティブ化される。いくつかの実施形態では、プライベートモードは、ユーザが第1の閾値プライバシーレベル(例えば、デフォルトのプライバシーレベル、第1のユーザに関連付けられたプライバシーレベルなど)を上回る事前設定されたプライバシーレベルに関連付けられた特定のCGRコンテンツにアクセスしたことに応じて、アクティブ化される。いくつかの実施形態では、プライバシーモードがオンにされている間、第1のユーザの一部分の表現7006及び/又はCGRコンテンツの表現7008は、もはや更新されず、表示されることを停止し、かつ/又は他のプレースホルダコンテンツに置き換えられ、その結果、第1の表示生成コンポーネントによってCGRコンテンツが表示される没入レベルの変化をもはや反映しない。プライベートモードにより、第1のユーザがよりプライバシーを享受し、第2の表示生成コンポーネントによって表示されるコンテンツを介してユーザ自身の注意状態、没入レベル、及び第1の表示生成コンポーネントを使用してユーザが閲覧しているコンテンツに関する情報をより共有しないことを可能にする。
【0139】
いくつかの実施形態では、DNDモードは、第1のユーザによって前もって、かつ/又は事前設定された条件に基づいてコンピューティングシステムによって自動的にオンにされて、第1のユーザがCGRコンテンツとのユーザの関与中に外部環境の他者によって中断又は妨害されることを望まないことを外部環境に示す。いくつかの実施形態では、DNDモードは、任意選択的に、コンピューティングシステム内及び/又は周囲環境内で発生する他の侵入イベントに適用可能である。例えば、いくつかの実施形態では、DNDモードのアクティブ化に応じて、コンピューティングシステムは、任意選択的に、ノイズキャンセルをアクティブ化して、周囲環境からの音を遮断し、第1の表示生成コンポーネント上の通知及び/又は警告の提示を停止/一時停止し、通知及び/又は警告が第1の表示生成コンポーネントによって示されるCGR環境で提示される方法の煩わしさを低減し(例えば、オーディオ警告ではなく視覚警告を選択する、音声出力ではなく短い警告音を選択する、通知及び警告の視覚的な目立ちを低減する、など)、第1のユーザに通知することなく、ボイスメールに通話を自動的に転送し、かつ/又は第2の表示生成コンポーネント上にサイレントモードのサインを表示する、などをする。いくつかの実施形態では、コンピューティングシステムが第1のユーザへのイベントの煩わしさを低減するために使用する1つ以上の方法は、物理的環境の表現(例えば、表現7010、位置Bの表現、第1のユーザの前の物理的環境の一部分の表現など)が第1の表示生成コンポーネント上に表示される方法の変更、及び/又は第2の表示生成コンポーネントによって状態情報が表示される方法の変更に伴う。いくつかの実施形態では、DNDモードは、任意選択的に、コンピューティングシステムが複合現実モード又は仮想現実モードを使用してCGRコンテンツを表示している間に、オンにされる。いくつかの実施形態では、DNDモードがオンにされたことに応じて、コンピューティングシステムは、任意選択的に、第2の表示生成コンポーネントを介して視覚インジケータ(例えば、HMDの外部ディスプレイ上のテキストラベル「DND」、HMDの外部ディスプレイの周囲に赤色縁部が点灯される、など)を表示し、DNDモードがアクティブであることを示す。いくつかの実施形態では、DNDモードがコンピューティングシステム上でアクティブである間に、CGRコンテンツの表現は、任意選択的に、第1の表示生成コンポーネントによって表示されるCGRコンテンツの変化に従って更新されるが、第1のユーザの一部分の表現は、もはや更新されず、プレースホルダコンテンツによって置き換えられ、又は第2の表示生成コンポーネントによって表示されることを停止する(例えば、第1のユーザの一部分の外観の変化(例えば、第1のユーザの目の変化)及び/又は第1の表示生成コンポーネントによってCGRコンテンツが表示される没入レベルの変化に関係なく)。
【0140】
いくつかの実施形態では、ペアレンタルモードは、第2の表示生成コンポーネントによる状態情報の通常の表示をオーバーライドするようにオンにされる(例えば、
図7A~
図7Eを参照して説明するように)。ペアレンタルモードは、親、教師、又は監督者が第1のユーザに提示されるCGRコンテンツ、及び任意選択的に、CGRコンテンツを変更及び/又はそれと相互作用するために第1のユーザによって提供される入力を見て監視することができるようにオンにされる。いくつかの実施形態では、ペアレンタルモードは、任意選択的に、CGRコンテンツが第1の表示生成コンポーネントによって提示されている間に、第2のユーザによってオンにされる(例えば、事前設定されたジェスチャ入力、第2の表示生成コンポーネント又はHMDのハウジング上のタッチ入力、音声コマンドなどを介して)。いくつかの実施形態では、ペアレンタルモードは、任意選択的に、特定のCGRコンテンツが第1の表示生成コンポーネント上で開始される前にオンにされ(例えば、第1の表示生成コンポーネントによって提示されるユーザインタフェースとの相互作用、第2の表示生成コンポーネントによって提示されるユーザインタフェースとの相互作用、コンピューティングシステムのハウジング又は他の入力デバイスとの相互作用などを介して)、特定のCGRコンテンツが第1の表示生成コンポーネントによって表示されている間にオンにされたままである。いくつかの実施形態では、ペアレンタルモードがオンにされている間に、コンピューティングシステムは、没入レベルの変化及び/又はプライベートモードがオンにされているかどうかに関係なく、第1の表示生成コンポーネント及び第2の表示生成コンポーネントの両方を介して同時に同じCGRコンテンツを表示する。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントによって示されるCGRコンテンツの仮想コンテンツ部分のみを第2の表示生成コンポーネント上に表示する。いくつかの実施形態では、ペアレンタルモードがオンにされている間に、コンピューティングシステムは、第2の表示生成コンポーネントを使用して示される状態情報の一部として、第1のユーザの一部分の表現7006を表示しない(例えば、ペアレンタルモードが単に第1のユーザに示されるコンテンツを監視するために使用され、第1のユーザ自身を監視するために使用されない場合)。いくつかの実施形態では、ペアレンタルモードがオンにされている間に、コンピューティングシステムは、CGRコンテンツと同等の視認性でユーザの一部分の表現7006及びCGRコンテンツを表示する(例えば、表現7006の視認性は、ペアレンタルモードがオンにされていなかった場合にそれが有した視認性の以前のレベルと比較して向上している)(例えば、ペアレンタルモードが第1のユーザに示されるコンテンツ、並びに第1のユーザの注意状態及び外観を監視するために使用されている場合)。いくつかの実施形態では、ペアレンタルモード中にユーザの一部分の表現が第2の表示生成コンポーネントによって表示されるかどうかは、ペアレンタルモードがアクティブ化される方法(例えば、第1のタイプの入力を使用すること対第2のタイプの入力を使用すること、第1のコントロールを使用すること対第2のコントロールを使用すること、など)に従って判定される。いくつかの実施形態では、ペアレンタルモード中にユーザの一部分の表現が第2の表示生成コンポーネントによって表示されるかどうかは、プライベートモードがオンにされているかどうかに従って判定される。例えば、プライベートモードがオンにされている場合、ユーザの一部分の表現は、第2の表示生成コンポーネントによってCGRコンテンツと共に表示されず、プライベートがオンにされていない場合、ユーザの一部分の表現は、第2の表示生成コンポーネントによってCGRコンテンツと共に表示される。いくつかの実施形態では、ペアレンタルモードがオンにされている間に、第1の表示生成コンポーネントによってCGRコンテンツが表示される没入レベルの変化は、第2の表示生成コンポーネントによって示される情報を変更しない(例えば、同じCGRコンテンツは、任意選択的に、第1のユーザの一部分の表現の現在の視認性レベルが変化しない状態で、又は第1のユーザの表現の表示なしに、第1の表示生成コンポーネント及び第2の表示生成コンポーネントの両方に依然として示される)。
【0141】
いくつかの実施形態では、第2の表示生成コンポーネントによって示される状態情報の視認性及び情報密度は、第2のユーザが第2の表示生成コンポーネントによって示されるコンテンツを閲覧することを可能にする位置に(例えば、第2の表示生成コンポーネントの表示面の前に直接又は部分的に)存在する第2のユーザの距離に従って、コンピューティングシステムによって動的に調整される。例えば、第2のユーザが第2の表示生成コンポーネントの表示面の近くに移動する(例えば、閾値距離内に移動する、閾値視野角内に移動する、など)(例えば、第1の表示生成コンポーネント及び第2の表示生成コンポーネントが第1のユーザによって着用されたHMDの同じハウジング内に背中合わせに配置されている場合、第1のユーザ及び第1の表示生成コンポーネントの近くに移動する)とき、コンピューティングシステムは、第2の表示生成コンポーネント上に提供される情報詳細の量(例えば、グラフィック特徴の詳細、単位表示領域当たりのテキスト文字の量、色解像度、ピクセル解像度など)を変更して(例えば、増加させる)、第1のユーザの状態並びにCGRコンテンツの状態及びメタデータを第2のユーザに知らせる。それに応じて、第2のユーザが第2の表示生成コンポーネントの表示面から遠くに離れて移動する(例えば、閾値距離を超えて移動する、閾値視野角の外側に移動する、など)とき、コンピューティングシステムは、第2の表示生成コンポーネント上に提供される情報詳細の量を反対方向に変更する(例えば、情報詳細の量を減少させる)。
【0142】
いくつかの実施形態では、コンピューティングシステムは、事前設定された基準(例えば、人々が部屋に入る又は第1のユーザの閾値距離内に入ること、他のユーザが第1のユーザに向かって手を振る又はジェスチャをすること、など)を満たす周囲の物理的環境の変化を検出したことに応じて、コンピュータ生成体験を完全没入モードで表示すること(例えば、仮想現実環境を表示すること、又は第3の没入レベルでCGRコンテンツを表示すること)からコンピュータ生成体験をより没入しないモードで表示すること(例えば、仮想現実環境内に物理的環境のインジケーションを表示すること(例えば、視覚歪み、影などとして物理的環境内の人々及びオブジェクトの輪郭を表示すること)、コンピュータ生成環境のビューにパススルー部分(例えば、物理的環境のカメラビュー)を表示すること、など)に自動的に遷移する。いくつかの実施形態では、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを自動的に変更することと連動して、コンピューティングシステムはまた、コンピューティングシステムのユーザの一部分の視覚表現の視認性を増加させることを含む、第2の表示生成コンポーネントを介して表示される状態情報を変更する(例えば、ユーザの視覚表現の視認性を増加させることは、ユーザの一部分の視覚表現を表示しないことからユーザの一部分の視覚表現を表示することに切り替えること、又はユーザの一部分の視覚表現のルミナンス、鮮明度、不透明度、及び/若しくは解像度を増加させることを含む)。このようにして、第1のユーザと周囲環境内の他者を分離する視覚的バリア(例えば、第1のユーザの顔に表示生成コンポーネントが存在すること)は、同時に低減され、第1のユーザと周囲のユーザとの間のより情報に基づく相互作用を促進する。いくつかの実施形態では、第2のユーザのアクションに応じて(例えば、第2のユーザが第1のユーザに手を振ったことに応じて、及び/又は第2のユーザが第1のユーザの近くに移動しすぎたことに応じて、など)、コンピューティングシステムが第1の表示生成コンポーネント上に示されるコンテンツの没入レベルを減少させる場合、コンピューティングシステムは、CGRコンテンツの表現を表示することを停止する、又はCGRコンテンツの表現を表示せず、第2の表示生成コンポーネント上に第1のユーザの一部分(例えば、第1のユーザの顔又は目)の表現のみを表示する(例えば、第1のユーザが第1の表示生成コンポーネントを介して第2のユーザを見ることができることを第2のユーザに知らせるために)。いくつかの実施形態では、第2のユーザのアクションに応じて(例えば、第2のユーザがHMDを着用したことに応じて、及び/又は第2のユーザが第1のユーザから遠ざかったことに応じて、など)、コンピューティングシステムが第1の表示生成コンポーネント上に示されるコンテンツの没入レベルを増加させる場合、コンピューティングシステムは、第2の表示生成コンポーネント上にCGRコンテンツの表現を再表示し、第1のユーザの一部分(例えば、第1のユーザの顔又は目)の表現を表示することを停止する(又はそのルミナンス、鮮明度、不透明度、色、及びピクセル解像度などを低減する)。
【0143】
コンピューティングシステムのユーザインタフェース及び動作モードに関するより詳細は、
図7F~
図7Q、及び
図8~
図13、及び付随する説明を参照して提供される。
【0144】
図7F~
図7Iは、少なくとも第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイなど)及び第2の表示生成コンポーネント(例えば、ディスプレイ7102、HMDの外部ディスプレイなど)を含むコンピューティングシステム(例えば、
図1のコンピューティングシステム101又は
図4のコンピューティングシステム140)を示し、コンピューティングシステムの第1の表示生成コンポーネントは、第1の表示生成コンポーネントが所定の空間的関係(例えば、ユーザ(例えば、第1のユーザ7202)又はユーザの一部分(例えば、第1のユーザの顔又は目)に対して所定の向き(例えば、表示面が第1のユーザの顔又は目に面した状態))に配置されたとコンピューティングシステムが判定したときに、視覚コンテンツ(例えば、ユーザインタフェース、コンピュータ生成体験、メディアコンテンツなど)をユーザ(例えば、第1のユーザ7202)に表示するように構成されている。いくつかの実施形態では、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイなど)を介してユーザに視覚コンテンツを表示する前に、コンピューティングシステムは、第2の表示生成コンポーネント(例えば、ディスプレイ7102、HMDの外部ディスプレイなど)を使用して、コンテンツの表示をトリガするための条件(例えば、第1の表示生成コンポーネントとユーザとの間の空間的関係に関する条件)が満たされた場合に、第1の表示生成コンポーネントを介して表示するために利用可能な視覚コンテンツに関してユーザに促す1つ以上のユーザインタフェース要素(例えば、ユーザインタフェース、コンピュータ生成体験(例えば、ARコンテンツ、VRコンテンツなど)、メディアコンテンツなど)を表示する。いくつかの実施形態では、1つ以上のユーザインタフェース要素は、どの利用可能なコンテンツが第1の表示生成コンポーネントを介して表示するために現在利用可能になるかに基づいて、コンテキスト情報(例えば、現在時刻、位置、外部条件、ユーザ識別情報、及び/又はコンピューティングシステムの現在の状態下、又は他のプロンプト、通知など)を伝達するユーザインタフェースオブジェクトを含む。
図7F~
図7G 及び
図7H~
図7Iは、第1の表示生成コンポーネントとユーザとの間の事前設定された空間的関係が満たされる前に、第2の表示生成コンポーネントによって示される異なるユーザインタフェースオブジェクトによって反映されるようなコンピューティングシステムの異なる状態に基づいて、異なるコンピュータ生成体験が第1の表示生成コンポーネントによって表示されることを示す、2つの並列の実施例を示す。
【0145】
図7F及び
図7Hのそれぞれの左側部分に示すように、第1の表示生成コンポーネント(例えば、ディスプレイ7100)は、第1の表示生成コンポーネントの表示面に面するユーザがいない状態で、位置A7000-aに存在する。結果として、第1の表示生成コンポーネントは、現時点で任意のCGRコンテンツを表示していない。
図7F及び
図7Hのそれぞれの右側部分に示すように、第2の表示生成コンポーネント(例えば、ディスプレイ7102)は、位置B7000-bに存在し、
図7Fに示すコンピューティングシステムの現在のコンテキスト状態を所与として、第1の表示生成コンポーネントを介して表示するために利用可能な第1のコンピュータ生成体験7024に対応する第1のユーザインタフェース要素(例えば、円7012)と、
図7Hに示すコンピューティングシステムの現在のコンテキスト状態を所与として、第1の表示生成コンポーネントを介して表示するために利用可能な第2のコンピュータ生成体験7030に対応する第2のユーザインタフェース要素(例えば、正方形7026)と、をそれぞれ含む、1つ以上のユーザインタフェース要素を表示している。コンピューティングシステムのコンテキスト状態は、例えば、現在時刻、第1の表示生成コンポーネントの現在の位置(いくつかの実施形態では、第1のユーザ及び第2の表示生成コンポーネントの位置でもある)、第2の表示生成コンポーネントの表示面の前に存在する第1のユーザ7202のユーザ識別情報若しくは許可レベル、コンピューティングシステムによる個別のアプリケーションの通知の受信若しくは生成、コンピューティングシステム上の事前設定されたイベントの発生、及び/又は、その他のコンテキスト情報などに基づいて判定される。
【0146】
図7F及び
図7Hに示す例示的なシナリオでは、第1のユーザ7202は、位置B7000-bに存在するように示されている。いくつかの実施形態では、第2の表示生成コンポーネント(例えば、ディスプレイ7102、HMDの外部ディスプレイなど)と第1のユーザ7202との間の空間的関係は、第1のユーザ7202が第2の表示生成コンポーネントによって提示される1つ以上のユーザインタフェース要素(例えば、それぞれ、ユーザインタフェース要素7012とユーザインタフェース要素7026)を閲覧する位置にいるようになっている。例えば、第1のユーザ7202は、1つ以上のユーザインタフェース要素が表示されているときに、第2の表示生成コンポーネントの表示面に面している。いくつかの実施形態では、第2の表示生成コンポーネントは、HMDの外部ディスプレイ上に示されるユーザインタフェース要素に対応するCGRコンテンツを提示するように構成されている内部ディスプレイ(例えば、ディスプレイ7100によって表される第1の表示生成コンポーネント)も含むHMDの外部ディスプレイである。そのような実施形態では、同じ位置B7000-bのディスプレイ7102と第1のユーザ7202の同時存在によって表される空間的関係は、HMDの外部ディスプレイが面している物理的環境(例えば、第2の表示生成コンポーネント及び第1のユーザ7202も受け入れている物理的環境)の一部分に第1のユーザがいることに対応する。いくつかの実施形態では、第2の表示生成コンポーネントは、第2の表示生成コンポーネント7102の表示面の前にある物理的環境の一部分(例えば、第2の表示生成コンポーネントの表示面を含む位置B7000-b)も第1の表示生成コンポーネントによって提供されるパススルービュー内にあるように、第1の表示生成コンポーネントと背中合わせに配置されている。例えば、第2の表示生成コンポーネント7102の表示面の前の物理的環境の一部分に位置する物理的オブジェクト7014(又は
図7Hの物理的オブジェクト7014及び物理的オブジェクト7028の両方)は、第1のユーザ7102が第1の表示生成コンポーネントの表示面に移動する(例えば、位置A7000-aに移動する、かつ/又は第1の表示生成コンポーネントの表示面に面する、など)場合、第1の表示生成コンポーネントによって提供されるパススルービュー内にあることになる。いくつかの実施形態では、コンピューティングシステムは、第1のユーザが第2の表示生成コンポーネントによって表示されたコンテンツを閲覧する位置にいることを検出したことに応じてのみ、1つ以上のユーザインタフェース要素を表示し、ユーザが第2の表示生成コンポーネントによって提示されたコンテンツを閲覧することを可能にする第2の表示生成コンポーネントに対する位置にユーザが位置していないときに、第2の表示生成コンポーネントを使用して1つ以上のユーザインタフェース要素を表示することを停止する。いくつかの実施形態では、コンピューティングシステムは、コンピューティングシステムの現在の状態又はコンテキストに基づいて第1のコンピュータ生成体験の利用可能性を示すイベント(例えば、時間ベースの警告又は位置ベースの通知がコンピューティングシステム上で生成される、ユーザがバッグからHMDを取り出した、ユーザがHMDをオンにする、ユーザが充電ステーション上でHMDをプラグ接続する、など)を検出したことに応じて、1つ以上のユーザインタフェース要素を表示する。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントが任意のCGRコンテンツを表示していない(例えば、第1の表示生成コンポーネントがアクティブではない、省電力状態にある、など)ときにのみ、第2の表示生成コンポーネント上で1つ以上のユーザインタフェースオブジェクトを開示する。いくつかの実施形態では、第1のユーザ7202が第1の表示生成コンポーネントと位置A又は第1の表示生成コンポーネントによって表示されるコンテンツを閲覧する位置に同時に存在しないことを示す
図7F及び
図7Hの例示は、第1のユーザが(例えば、内部ディスプレイがユーザの顔に面する状態でHMDを持ち上げることによって、又はHMDをユーザの頭部に着用することによって、のいずれかで)ユーザの顔又は目の前にHMDの内部ディスプレイを置いていないことに対応する。いくつかの実施形態では、1つ以上のユーザインタフェースオブジェクトは、第1のユーザが第2の表示生成コンポーネントに示されるコンテンツを閲覧する位置にいるかどうかに関係なく、第2の表示生成コンポーネント上に表示される。
【0147】
図7Fに続く
図7G、及び
図7Hに続く
図7Iに示すように、コンピューティングシステムが第2の表示生成コンポーネントを使用して1つ以上のユーザインタフェースオブジェクト(例えば、それぞれ、円7012又は正方形7026)を表示している間に、コンピューティングシステムは、(例えば、第1のユーザ7202の移動、第1の表示生成コンポーネントの移動、又はその両方により)第1の表示生成コンポーネント(例えば、ディスプレイ7100又はHMDの内部ディスプレイ)が第1のユーザ7202に対して事前設定された空間的関係に現在あることを検出する。
図7F及び
図7Gに示す実施例では、第1のユーザ7202は、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイなど)の表示面の前の位置A7000-aに移動しており、第1のユーザが第1の表示生成コンポーネントの表示面の前の位置A7000-aに移動したことを検出したことに応じて、コンピューティングシステムは、第1の表示生成コンポーネントを介して、第2の表示生成コンポーネント上に以前に示された1つ以上のユーザインタフェースオブジェクト(例えば、それぞれ、円7012又は正方形7026)に対応する個別のコンピュータ生成体験(例えば、第1のコンピュータ生成体験7024又は第2のコンピュータ生成体験7030)を表示する。例えば、
図7Gに示すように、コンピューティングシステムは、第1のユーザインタフェースオブジェクト(例えば、円7012)が第2の表示生成コンポーネントによって表示されている間に(
図7F)、第1の表示生成コンポーネントと第1のユーザの相対移動が第1の表示生成コンポーネント及び第1のユーザ(又は第1のユーザの顔若しくは目)を事前設定された空間的関係又は構成(例えば、第1のユーザが第1の表示生成コンポーネントの表示面に面している、又はHMDがユーザの目の前に配置されている、HMDがユーザの頭部に配置されている、など)に配置したことを示すイベントに応じて、第1のコンピュータ生成体験7024を表示する。
図7Iに示すように、コンピューティングシステムは、第2のユーザインタフェースオブジェクト(例えば、正方形7026)が第2の表示生成コンポーネントによって表示されている間に(
図7H)、第1の表示生成コンポーネントと第1のユーザの相対移動が第1の表示生成コンポーネント及び第1のユーザ(又は第1のユーザの顔若しくは目)を事前設定された空間的関係又は構成(例えば、第1のユーザが第1の表示生成コンポーネントの表示面に面している、又はHMDがユーザの目の前に配置されている、HMDがユーザの頭部に配置されている、など)に配置したことを示すイベントに応じて、第2のコンピュータ生成体験7030を表示する。
【0148】
図7Fに続く
図7Gに示すように、第1のコンピュータ生成体験7024の実施例は、第2の表示生成コンポーネントの表示面の前の物理的環境の一部分(例えば、HMDを着用している、かつ/又はHMDの内部ディスプレイに面している第1のユーザの前の物理的環境の一部分でもある、HMDの外部ディスプレイの前の物理的環境の一部分)を示す拡張現実体験である。第1のコンピュータ生成体験は、任意選択的に、なんらかの仮想コンテンツ(例えば、物理的オブジェクト7014の表現7014’の上に置かれている仮想ボール7020、及び/又はなんらかの他の仮想オブジェクト)で拡張された、物理的オブジェクト7014の表現7014’を含む。いくつかの実施形態では、第1のコンピュータ生成体験は、純粋な仮想体験であり、第1の表示生成コンポーネント及び/又は第2の表示生成コンポーネントを取り囲む物理的環境の表現を含まない。
【0149】
図7Hに続く
図7Iに示すように、第2のコンピュータ生成体験7030の実施例は、第2の表示生成コンポーネントの表示面の前の物理的環境の一部分(例えば、HMDを着用している、かつ/又はHMDの内部ディスプレイに面している第1のユーザの前の物理的環境の一部分でもある、HMDの外部ディスプレイの前の物理的環境の一部分)を示す拡張現実体験である。第2のコンピュータ生成体験は、任意選択的に、一緒に積み重ねられ、なんらかの仮想コンテンツ(例えば、物理的オブジェクト7014及び7028の表現7014’及び7028’の隣に置かれている仮想箱7032、又はなんらかの他の仮想オブジェクト)で拡張された、物理的オブジェクト7014及び物理的オブジェクト7028を含む。いくつかの実施形態では、第2のコンピュータ生成体験は、純粋な仮想体験であり、第1の表示生成コンポーネント及び/又は第2の表示生成コンポーネントを取り囲む物理的環境の表現を含まない。
【0150】
いくつかの実施形態では、本開示に前述したように、第1の表示生成コンポーネントは、HMDの内部ディスプレイであり、第2の表示生成コンポーネントは、HMDの外部ディスプレイであり、同じ位置A7000-aにおけるディスプレイ7100と第1のユーザ7202の同時存在によって表される空間的関係は、HMDの内部ディスプレイがユーザの目又は顔に面した状態で第1のユーザがHMDを着用又は保持していることに対応する。いくつかの実施形態では、第1の表示生成コンポーネントは、第1のユーザの前の物理的環境のカメラビューを表示し、又は第1のユーザの前の物理的環境の一部分が第1のユーザに見える透明若しくは半透明の部分を含む。いくつかの実施形態では、第1の表示生成コンポーネントを介して第1のユーザに見えるようにされた物理的環境は、第2の表示生成コンポーネントの表示面の前にある物理的環境(例えば、第2の表示生成コンポーネントの表示面の前の領域、及び物理的オブジェクト7014(及び任意選択的に物理的オブジェクト7028)、HMDの外部ディスプレイの前の領域などを含む位置B7000-b)の一部分である。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントを介してコンピュータ生成体験の表示をトリガするために、第1のユーザ又は第1のユーザの個別の一部分に対して既定の向きに第1の表示生成コンポーネントが移動される(例えば、HMDの内部ディスプレイがユーザの目又は顔に面するように向けられる、第1のユーザが第1の表示生成コンポーネントの表示面に面するように移動する、及び/又はHMDの内部ディスプレイがユーザの顔に対して直立している、など)ことを必要とする。いくつかの実施形態では、個別のコンピュータ生成体験は、ユーザと第1の表示生成コンポーネントとの間の事前設定された空間的関係への移動が開始及び/又は完了したときの、コンピューティングシステムの現在の状態(例えば、コンテキスト情報(例えば、時間、位置、どんな物理的オブジェクトがユーザの前に存在するか、ユーザの識別情報、コンピューティングシステム上に生成された新しい通知又は警告など)に基づいて判定される1つ以上の状態)、及び/又はどのユーザインタフェース要素(単数又は複数)(例えば、選択されたコンピュータ生成体験の識別情報及び特性を伝達するユーザインタフェース要素、及び/又は選択されたコンピュータ生成体験に使用されるコンテキスト情報を伝達するユーザインタフェース要素などのうちの1つ以上)が第2の表示生成コンポーネントによって表示されるかに従って選択される。
図7F及び
図7Gに示す実施例では、コンピューティングシステムの現在の状態は、表示生成コンポーネント(単数又は複数)の現在の位置及び/又は第2の表示生成コンポーネントの表示面の前に存在する物理的オブジェクト(単数又は複数)(並びに任意選択的に、また現在の位置、並びに第1の表示生成コンポーネント及び第2の表示生成コンポーネントの両方を収容するHMDの外部ディスプレイの前に存在する物理的オブジェクト)に基づいて判定される。
【0151】
図7A~
図7Eに関して上述し、かつ本明細書で繰り返し言うように、第1の表示生成コンポーネント(例えば、ディスプレイ7100)及び第2の表示生成コンポーネント(例えば、ディスプレイ7102)は、物理的環境の2つの別個かつ分離した部分に位置するように
図7F~
図7Iに示されているが、第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、任意選択的に、同じハウジング(例えば、単一のHMDのハウジング)に収容された、又は同じ支持構造体に取り付けられた(例えば、互いに背中合わせに、又は単一の壁若しくは表面の2つの面上に取り付けられた)、かつ異なる方向を向く(例えば、反対方向を向く、異なる角度に向く、など)、2つの表示生成コンポーネントであることを理解されたい。いくつかの実施形態によれば、ユーザは、第1の表示生成コンポーネント及び第2の表示生成コンポーネントのハウジング又は支持構造体を移動させて(例えば、回転させる、方向を変える、又は垂直若しくは水平に反転させる)、第1の表示生成コンポーネントをユーザ自身又はユーザの顔若しくは目に対して事前設定された空間的構成に移動させることができる。いくつかの実施形態によれば、ユーザは、表示生成コンポーネントのハウジング内にユーザの頭部を挿入する、又は表示生成コンポーネントの支持構造体をユーザの身体の一部(例えば、頭部、肩、鼻、耳など)に取り付けて、第1の表示生成コンポーネントをユーザ自身又はユーザの顔若しくは目に対して事前設定された空間的構成に移動させることができる。したがって、位置B7000-bにおける第1のユーザと第2の表示生成コンポーネントの同時存在と位置A7000-aにおける第1のユーザと第1の表示生成コンポーネントの同時存在は、コンピュータ生成体験の表示をトリガするためのユーザと第1の表示生成コンポーネントとの間の事前設定された空間的関係が満たされる前の、かつ第2の表示生成コンポーネントが利用可能なCGR体験を示すユーザインタフェース要素を表示している第1の時間と、ユーザ及び/又は表示生成コンポーネント(単数又は複数)の移動によって事前設定された空間的関係が満たされた後の、かつ利用可能なCGR体験が第1の表示生成コンポーネントを介して表示されているときの第2の時間と、をそれぞれ表す。
【0152】
いくつかの実施形態では、第2の表示生成コンポーネントは、低解像度、より小さい、より単純な、モノ立体、単色、低電力、かつ/又は二次的なディスプレイであり、第1の表示生成コンポーネントは、コンピューティングシステムのより高い解像度、より大きな、より複雑な、立体、フルカラー、全出力、かつ/又は一次的なディスプレイである。いくつかの実施形態では、第2の表示生成コンポーネントは、コンピューティングシステムによって使用されて、状態情報、イベント情報、コンピューティングシステムに関連する状態情報、特に、現在のコンテキストに関連する追加の利用可能なコンテンツを閲覧するために第1の表示生成コンポーネントをユーザの目に対して事前設定された空間的関係に配置するためのユーザへの通知及びプロンプトを表示する。いくつかの実施形態では、第2の表示生成コンポーネントは、第1の表示生成コンポーネントがユーザの目の前に配置されていない(又はより一般的には、ユーザが第1の表示生成コンポーネント上に表示されたCGRコンテンツを完全に楽しむ位置にない)とき、及び/又は(例えば、単一のHMDの一部としての)コンピューティングシステムの表示生成コンポーネントが机の上に、ユーザの手に、容器(例えば、バックパック、ホルダー、ケースなど)の中に、又はスタンバイ状態に(例えば、充電ステーションでプラグ接続されて、低電力モードに設定されて、など)配置されているとき、などに、コンピューティングシステムによって使用される。いくつかの実施形態では、第2の表示生成コンポーネントを使用して情報を表示している間に、コンピューティングシステムは、ユーザ(例えば、第1のユーザ又は任意のユーザ)と第1の表示生成コンポーネントとの間の空間的関係を監視し続ける(例えば、第1表示生成コンポーネントのハウジングに取り付けられた、又は囲まれたセンサ(例えば、動きセンサ、向きセンサ、画像センサ、タッチセンサなど)、及び/又は外部センサ(動きセンサ、向きセンサ、画像センサなど)を使用して)。いくつかの実施形態では、第1の表示生成コンポーネントとユーザとの間の相対移動を検出したことに応じて(例えば、ユーザが同じハウジングに囲まれた、若しくは同じ支持構造体に取り付けらた表示生成コンポーネントを手に取って、第1の表示生成コンポーネントの表示面をユーザの目若しくは顔に向けて方向を変えたことに応じて、かつ/又はユーザが第1及び第2の表示生成コンポーネントを含むHMDをユーザの頭部に着用したことに応じて、など)、ユーザと第1の表示生成コンポーネントとの間の事前設定された空間的関係が満たされたとの判定に従って、コンピューティングシステムは、事前設定された空間的関係が満たされた時点のコンピューティングシステムの状態(例えば、任意選択的に、これは、相対移動の開始時に情報(例えば、コンピュータ生成体験の利用可能性を示す1つ以上のユーザインタフェースオブジェクト)が第2の表示生成コンポーネントによって表示されていた時点でコンピューティングシステムが有したのと同じ状態である)に対応するコンピュータ生成体験を表示する。
【0153】
いくつかの実施形態では、
図7G及び
図7Iに示すように、コンピューティングシステムが第1の表示生成コンポーネントを介して現在のコンテキスト(例えば、
図7F及び
図7Hのユーザインタフェースオブジェクト7012及び7026によって示されるようなコンピューティングシステムのそれぞれの状態)に対応する個別のコンピュータ生成体験を表示しているとき、コンピューティングシステムは、任意選択的に、第2の表示生成コンポーネントを使用して状態情報(それぞれ、状態情報7022と7034)を表示する。いくつかの実施形態では、表示された状態情報は、第1の表示生成コンポーネントを介して表示されるコンピュータ生成コンテンツ、及び任意選択的に、第1の表示生成コンポーネントを介してコンピュータ生成コンテンツを閲覧しているユーザの状態(例えば、ユーザの顔又は目の外観)に関する情報を伝達する。コンピューティングシステムが第1の表示生成コンポーネントを使用してコンピュータ生成コンテンツを表示している間の第2の表示生成コンポーネントを使用した状態情報の表示に関連する他の態様及び詳細は、
図7A~
図7E及び付随する説明、並びに
図8~
図13を参照して説明するプロセスを参照して説明する。いくつかの実施形態では、第2の表示生成コンポーネントは、第1の表示生成コンポーネントがコンテンツを表示し始めると、かつ/又はユーザと第1の表示生成コンポーネントとの間の事前設定された空間的関係が満たされると、任意のコンテンツ(例えば、ユーザインタフェース要素7012又は7026など)を表示することを停止する。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントを使用してコンピュータ生成体験を表示しているときに、状態情報又は任意の他のコンテンツを表示しない。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントを使用してコンピュータ生成体験を表示しているときに、第2の表示生成コンポーネントを使用して他の情報(例えば、デジタル時計、天気予報、コンピュータ生成体験の持続時間に基づくカウントダウンタイマー、又は第1の表示生成コンポーネントを使用するために第1のユーザに割り当てられた時間など)を表示する。
【0154】
いくつかの実施形態では、第1の表示生成コンポーネントを介して表示される個別のコンピュータ生成体験は、仮想コンテンツが物理的環境(例えば、位置B、第1のユーザの前にある物理的環境の一部分など)の表現と同時に見える、複合現実体験である。いくつかの実施形態では、物理的環境の表現は、ユーザの目が第1の表示生成コンポーネント及び第2の表示生成コンポーネントの存在によって遮断されなかった場合(例えば、第1のユーザがHMDを着用していなかった、又はHMDをユーザの目の前に保持していなかった場合)に第1のユーザの視野内にある、物理的環境の一部分のカメラビューを含む。複合現実モードでは、CGRコンテンツ(例えば、映画、三次元拡張現実環境、ユーザインタフェース、及び/又は仮想オブジェクトなど)は、物理的環境の表現の全てではないが少なくとも一部分に重ね合わせる、又はそれを置き換えるように表示される。いくつかの実施形態では、第1の表示生成コンポーネントは、物理的環境の一部分が第1のユーザに見える透明部分を含み、複合現実モードでは、CGRコンテンツ(例えば、映画、三次元拡張現実環境、ユーザインタフェース、仮想オブジェクトなど)は、物理的環境内の物理的表面又は空の空間に投影され、物理的環境と共に透明部分を通して見える。いくつかの実施形態では、CGRコンテンツは、ディスプレイの一部分上に表示され、第1の表示生成コンポーネントの透明又は半透明部分を介して見える物理的環境の全てではないが少なくとも一部分のビューを遮断する。いくつかの実施形態では、第1の表示生成コンポーネント7100は、物理的環境のビューを提供せず、1つ以上のセンサ(例えば、カメラ、動きセンサ、他の姿勢センサなど)によって現在キャプチャされているように、物理的環境のリアルタイム視覚表現(単数又は複数)(例えば、様式化された表現又はセグメント化されたカメラ画像)で拡張された完全な仮想環境(例えば、カメラビュー又は透明パススルー部分なし)を提供する。いくつかの実施形態では、複合現実モード(例えば、カメラビュー又は透明ディスプレイに基づく拡張現実、又は物理的環境の仮想化表現に基づく拡張仮想)では、第1のユーザは、コンピュータ生成環境に完全には没入せず、第1のユーザ及び第1の表示生成コンポーネントを取り囲む物理的環境に直接対応する感覚情報(例えば、視覚、オーディオなど)を依然として提供されている。いくつかの実施形態では、第1の表示生成コンポーネントが完全没入環境を表示している間に、第2の表示生成コンポーネントは、任意選択的に、ユーザの目の状態に関する情報なしで(例えば、CGRコンテンツに関する状態情報のみ)、又は任意の状態情報を全く表示することなく、状態情報を表示する。
【0155】
いくつかの実施形態では、コンピューティングシステムは、任意選択的に、第1の表示生成コンポーネントを介した表示のための異なるコンピュータ生成体験の利用可能性に対応する、任意の数の異なる状態を有する。コンピューティングシステムの各異なる状態は、任意選択的に、コンピューティングシステムがその状態に入る、かつ/又は留まるときに、第2の表示生成コンポーネントによって表示される1つ以上のユーザインタフェース要素の対応するセットを有する。コンピューティングシステムの各異なる状態は、任意選択的に、対応するイベント若しくはイベントのセット、及び/又は1つ以上の事前設定された基準の対応するセットの満足によってトリガされる。コンピューティングシステムの2つの状態、2つの状態に対応する2つのユーザインタフェースオブジェクト、及び異なる2つのコンピュータ生成体験のみが
図7F~
図7Iを参照して説明した実施例に示されているが、第3の状態、第3のユーザインタフェース要素、及び第3のコンピュータ生成体験が、任意選択的に、実施例に記載されている2つの状態、ユーザインタフェース要素、及びコンピュータ生成体験に関して説明した方法と類似の方法でコンピューティングシステムによって実施される。いくつかの実施形態では、任意の有限数の状態、ユーザインタフェース要素、及びコンピュータ生成体験が、任意選択的に実施される。
【0156】
いくつかの実施形態では、第1の表示生成コンポーネントによって提供されるコンピュータ生成体験は、没入型体験(例えば、AR又はVR体験)であり、物理的環境内の第1のユーザのアクション(例えば、ジェスチャ、移動、スピーチ、及び/又は視線など)を考慮に入れる。例えば、ユーザの手が物理的環境内で移動するとき、又はユーザが物理的環境内で移動する(例えば、方向を変える又は歩く)とき、コンピュータ生成三次元環境のユーザインタフェース及び/又はユーザのビューは、更新されて、ユーザの手の移動を反映する(例えば、AR環境内の仮想ウィンドウを押して開く、AR環境内に提示されたホーム画面又はメニュー内のユーザインタフェース要素をアクティブ化する、など)、又はユーザの移動を反映する(例えば、ユーザの視点がAR環境又は仮想三次元ゲーム世界に対して移動する、など)。
【0157】
いくつかの実施形態では、異なるコンピュータ生成体験(例えば、第1のコンピュータ生成体験、第2のコンピュータ生成体験など)は、同じ物理的環境の表現だが、コンピューティングシステムの状態に基づいて選択される異なる仮想要素(例えば、第2の表示生成コンポーネントによって表示される1つ以上のユーザインタフェース要素(例えば、円7012、正方形7026など)によって示されるような)を含むAR体験である。例えば、いくつかの実施形態では、コンピュータ生成体験は、任意選択的に、第1のユーザが位置する同じ部屋のビューを含む。ユーザが第1の表示生成コンポーネントの表示面をユーザの目の前に配置する直前に、コンピューティングシステムが第2の表示生成コンポーネント上にいくつかの異なるイベントリマインダのうちの個別の1つを表示したとの判定に従って、コンピューティングシステムは、個別のイベントリマインダに対応するイベントのための個別の導入ビデオを表示している間に、部屋の壁の表現上にいくつかの異なるテーマの仮想壁紙のうちの個別の1つを有する部屋の表現を表示する。
【0158】
いくつかの実施形態では、異なるコンピュータ生成体験は、コンテキスト(例えば、関連するコンテキスト情報(例えば、位置、時間、ユーザ識別情報、通知又は警告の受信など)及び/又は第2の表示生成コンポーネント上になにが示されているかに基づいて判定されるような、コンピューティングシステムの状態)に応じて、拡張現実体験又は仮想体験のいずれかである。いくつかの実施形態では、コンピュータ生成体験がAR及びVRモードのうちの1つのモードで開始された後に、体験は、AR及びVRモードのうちの他のモードに遷移することができる(例えば、ユーザ要求に応じて、他の事前設定された条件が満たされたことに応じて、など)。
【0159】
いくつかの実施形態では、コンピューティングシステムは、コンピューティングシステムの状態に基づいて、第2の表示生成コンポーネントを使用して様々なアプリケーションのそれぞれのユーザインタフェース及び/又はユーザインタフェースオブジェクトを表示するように構成されている。例えば、いくつかの実施形態では、第2の表示生成コンポーネント上に表示される1つ以上のユーザインタフェース要素は、スケジュールされたイベント、予定、休日、及び/又はリマインダーなどを有する電子カレンダー(例えば、ソーシャルカレンダー、仕事カレンダー、日次プランナー、週次プランナー、月次カレンダー、日付及び週を月ごとに示す標準のカレンダーなど)の要素を含む。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントと第1のユーザとの間の事前設定された空間的構成(例えば、第1のユーザ又はユーザの目が第1の表示生成コンポーネントの表示面に面している、第1のユーザが第1の表示生成コンポーネントによって表示されたコンテンツを閲覧することを可能にする位置にいる、など)が満たされると、第1の表示生成コンポーネントを介して異なるコンピューティング生成体験を表示し、表示される特定のコンピュータ生成体験は、第1の表示生成コンポーネント及び第1のユーザを事前設定された空間的構成に置いた移動が開始及び/又は完了する直前に、どんなカレンダーコンテンツが第2の表示生成コンポーネント上に示されていたかに基づく。例えば、第2の表示生成コンポーネント上に示された1つ以上のユーザインタフェース要素が第1のカレンダーイベントに対応する(例えば、ユーザインタフェース要素が第1のカレンダーイベントのイベント情報、警告、通知、カレンダーデータ、メモなどを示す)との判定に従って、コンピューティングシステムは、第1のカレンダーイベントに対応する第1のコンピュータ生成体験(例えば、詳細情報及び/又は対話型情報(例えば、プレビュー、ビデオ、会場及び出席者のモデルなど))を表示する。第2の表示生成コンポーネント上に示された1つ以上のユーザインタフェース要素が第2のカレンダーイベントに対応する(例えば、ユーザインタフェース要素が第2のカレンダーイベントのイベント情報、警告、通知、カレンダーデータ、メモなどを示す)との判定に従って、コンピューティングシステムは、第2のカレンダーイベントに対応する第2のコンピュータ生成体験(例えば、詳細情報及び/又は対話型情報(例えば、プレビュー、ビデオ、会場及び出席者のモデルなど))を表示する。いくつかの実施形態では、両面HMDがユーザによって着用されていない(例えば、外部ディスプレイがユーザに面した状態で机上に配置されている)とき、HMDの外部ディスプレイは、現在の日付、時間、気象情報、地理的位置、及び/又はその日の若しくは事前設定された期間内に(例えば、次の2時間に、次の5分に、など)来るタスク若しくはスケジュールされた予定のリストを含むカレンダーを表示するために使用される。ユーザがHMDを手に取って、HMDの内部ディスプレイをユーザの目の前に置くと(例えば、HMDを持ち上げることによって、又はHMDをユーザの頭部に着用することによって、など)、HMDの内部ディスプレイは、カレンダーの詳細を表示する(例えば、現在の週又は現在の月を含むより完全なカレンダーを示す、その日の全てのスケジュールされたイベントを示す、次に来るイベントのより詳細を示す、など)。いくつかの実施形態では、第1のカレンダーイベントに対応する1つ以上のユーザインタフェース要素は、第1のカレンダーイベントの通知を含み、第2のカレンダーイベントに対応するユーザインタフェース要素は、第2のカレンダーイベントの通知である。
【0160】
いくつかの実施形態では、コンピューティングシステムは、第2の表示生成コンポーネントを使用して、写真、及び/又は2次元画像を有するビデオクリップなどのメディアオブジェクトを表示し、第1の表示生成コンポーネントを使用して、第2の表示生成コンポーネント上に表示されたメディアオブジェクトに対応する三次元体験又は省略されていないメディアコンテンツを表示する。例えば、第2の表示生成コンポーネント上に示されるユーザインタフェース要素は、任意選択的に、長いビデオからのスナップショット又はクリップ、三次元ビデオの低減された解像度又は二次元バージョン、対話型コンピュータ環境に対応する非対話型ユーザインタフェースなどを含み、そのような拡張されたコンテンツの表示をトリガするための基準が満たされると(例えば、第1の表示生成コンポーネント及び第1のユーザが事前設定された空間的構成、及び任意選択的に、他の条件(例えばユーザが座った、HMDに十分な電力がある、など)に配置されると)、第1の表示生成コンポーネントは、長いビデオ、三次元ビデオ、対話型コンピュータ環境などを表示する。いくつかの実施形態では、両面HMDがユーザによって着用されていない(例えば、外部ディスプレイがユーザに面した状態で机上に配置されている)とき、HMDの外部ディスプレイは、HMDの内部ディスプレイを介して表示することができる利用可能なメディアアイテムの視覚表現を表示するために使用される。いくつかの実施形態では、利用可能なメディアアイテムは、HMDの現在の位置、及び/又はメディアアイテムの提供者によって指定されたメディアアイテムの利用可能性などに応じて変更される。ユーザがHMDを手に取って、ユーザの目の前に内部ディスプレイを置くと、第1の表示生成コンポーネントは、メディアアイテムの実際のコンテンツを表示する(例えば、より完全な映画、より没入型の体験を示す、及び/又はメディアアイテムのより対話型の機能を有効にする、など)。
【0161】
いくつかの実施形態では、コンピューティングシステムは、第2の表示生成コンポーネントを使用して、着信通信要求(例えば、着信電話通話、オーディオ/ビデオチャット要求、ビデオ会議要求など)の警告を表示し、コンピューティングシステムは、第1の表示生成コンポーネントが第1のユーザに対して事前設定された物理的構成に配置されると(例えば、第1のユーザ、第1の表示生成コンポーネント、又はその両方の移動によって)、第1の表示生成コンポーネントを使用して、対応する通信環境を表示する。いくつかの実施形態では、第1の表示生成コンポーネントを介して表示される通信環境は、各参加者の仮想アバター又は画像が存在する(例えば、アバターが第1のユーザの前にあるテーブルの表現の周りに座っている、又は第1のユーザの前のテーブル表面上の話し手としてある、など)模倣環境を示す。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントの第1のユーザに対する事前設定された物理的構成への配置を検出したことに応じて、着信通信要求を受け入れ、対応する通信セッションを開始する(例えば、第1の表示生成コンポーネント及びコンピューティングシステムの他のコンポーネントを使用して)。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントの第1のユーザに対する事前設定された物理的構成への配置を検出したことに応じて、着信通信要求に対応するアプリケーションを開始し、第1のユーザが着信通信要求を受け入れることを選択することができるアプリケーションのユーザインタフェースを(例えば、第1の表示生成コンポーネントを使用して)表示する。いくつかの実施形態では、両面HMDがユーザによって着用されていない(例えば、外部ディスプレイがユーザに面した状態で机上に配置されている)とき、HMDの外部ディスプレイは、そのような要求がコンピューティングシステムによって受信されたときに、着信通信要求の通知を表示するために使用される。いくつかの実施形態では、通知は、発信者の識別情報及び要求される通信セッションのタイプのインジケーションを提供する。ユーザがHMDを手に取って、HMDの内部ディスプレイをユーザの目の前に置くと(例えば、ユーザの手を使用してHMDを持ち上げることによって、又はHMDをユーザの頭部に着用することによって、など)、HMDの内部ディスプレイは、受信された通信要求に対応する通信インタフェースを表示し、ユーザは、HMDの内部ディスプレイを使用して発信者と通信を開始することができる。いくつかの実施形態では、コンピューティングシステムは、着信通信要求の特性(例えば、要求者の識別情報、時刻、通話の主題など)に応じて、異なるアプリケーションを開始する(又は同じアプリケーションの異なるモードを開始する)。例えば、同僚からの着信要求に対して、コンピューティングシステムは、通信セッションを開始する前に第1のユーザからの事前設定された入力を待つユーザインタフェースを第1の表示生成コンポーネント上に表示し、家族の一員からの着信要求に対して、コンピューティングシステムは、ユーザインタフェースを表示することなく、かつ/又は第1のユーザから事前設定された入力を必要とすることなく、通信セッションを開始する。別の実施例では、ユーザの家に到着した着信要求に対して、コンピューティングシステムは、カジュアルな服装の第1のユーザのアバターで通信セッションを開始し、ユーザのオフィスに到着した着信要求に対して、コンピューティングシステムは、仕事用の服装の第1のユーザのアバターで通信セッションを開始する。別の実施例では、電話通話の着信要求に対して、コンピューティングシステムは、各参加者の詳細な話し手の表現を表示し、ビデオチャットの着信要求に対して、コンピューティングシステムは、参加者の実際の体の動きを示す各参加者の全身表現を表示する。いくつかの実施形態では、第2の表示生成コンポーネント上に示される1つ以上のユーザインタフェース要素は、コンピューティングシステムによって使用される着信通信要求の特定の特性を視覚的に示して、コンピュータ生成体験の特性(例えば、通信セッションのユーザインタフェース又は環境の特性)を判定する。いくつかの実施形態では、コンピュータ生成体験の選択された特性もまた、コンピュータ生成体験が第1の表示生成コンポーネントによって表示される前に、第2の表示生成コンポーネントによって示される1つ以上のユーザインタフェース要素によって視覚的に表される。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントを使用してコンピュータ生成体験を表示する前に受信されるユーザ入力(例えば、第2の表示生成コンポーネント上のタッチジェスチャ、第1及び/又は第2の表示生成コンポーネントのハウジング上のタッチジェスチャ、空中ジェスチャ、音声コマンドなど)に従って、コンピュータ生成体験の特性を修正する。
【0162】
いくつかの実施形態では、コンピューティングシステムは、様々なパラメータ(例えば、ユーザの距離、ユーザの識別情報、ユーザのジェスチャなど)に応じて、第2の表示生成コンポーネント上に表示されるコンテンツ(例えば、1つ以上のユーザインタフェース要素)を修正する。例えば、第2の表示生成コンポーネントから離れた第1の距離(例えば、第1の距離は、第1の閾値距離よりも小さいが、第2の閾値距離よりも大きい)にいる第1のユーザを検出したことに従って、コンピューティングシステムは、1つ以上のユーザインタフェース要素の第1のバージョン(例えば大きな単純なアイコン又はテキスト)を表示して、個別のコンピュータ生成体験の利用可能性を示し、第2の表示生成コンポーネントから離れた第2の距離(例えば、第2の距離は、第2の閾値距離よりも小さい)にいる第1のユーザを検出したことに従って、コンピューティングシステムは、1つ以上のユーザインタフェース要素の第2のバージョン(例えばグラフィック、より詳細など)を表示して、個別のコンピュータ生成体験の利用可能性を示す(例えば、第1のユーザが第2の表示生成コンポーネントの近くに移動すると、1つ以上のユーザインタフェース要素の第1のバージョンの表示を置き換える)。別の実施例では、第2の表示生成コンポーネントの閾値距離内のユーザを検出したことに従って、コンピューティングシステムは、1つ以上のユーザインタフェース要素の汎用バージョン(例えば、大きな単純なアイコン又はテキスト)を表示して、個別のコンピュータ生成体験の利用可能性を示し、ユーザの識別情報を検出したことに従って(例えば、第1/第2の表示生成コンポーネント(例えば、HMD)を手に取ったときのユーザの指紋を検出したことに応じて、又はユーザが第2の表示生成コンポーネントの近くに移動したことに応じて、など)、コンピューティングシステムは、ユーザの識別情報に対応する(例えば、ユーザの選好、使用履歴、人口統計などに基づいてカスタマイズされた)1つ以上のユーザインタフェース要素のユーザ固有のバージョンを表示する。
【0163】
いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントが第1のユーザに対して事前設定された物理的構成に配置されたことを検出する前に、選択可能なオプション(例えば、1つ以上のユーザインタフェース要素、及び/又は1つ以上のユーザインタフェース要素以外のユーザインタフェースオブジェクト)を含むユーザインタフェースを表示し、選択可能なオプションのうちの1つ以上を選択するユーザ入力を検出し、選択可能なオプションは、第1の表示生成コンポーネントを介して表示するために利用可能な1つ以上のユーザインタフェース要素に対応するコンピュータ生成体験をカスタマイズするための選好を含む。第1の表示生成コンポーネントが第1のユーザに対して事前設定された物理的構成に配置されると、コンピューティングシステムは、ユーザが選択したオプション(単数又は複数)に基づいてカスタマイズされたコンピュータ生成体験を表示する。いくつかの実施形態では、選択可能なオプションは、コンピュータ生成体験を第1の表示生成コンポーネントを介して提示することができる、コンピューティングシステムの2つ以上のモード(例えば、ARモード、VRモード、2Dモード、プライベートモード、ペアレンタルコントロールモード、DNDモードなど)のセットに対応する。
【0164】
いくつかの実施形態では、第2の表示生成コンポーネントによって表示される1つ以上のユーザインタフェース要素は、第1の表示生成コンポーネントによって表示するために利用可能である三次元体験のプレビューを含む。いくつかの実施形態では、第2の表示生成コンポーネントによって提供されるプレビューは、三次元体験へのビューポートをシミュレートする三次元プレビューである。ユーザは、第2の表示生成コンポーネントに対してユーザの頭部を移動させて、三次元体験で表される三次元環境の異なる部分を見ることができる。いくつかの実施形態では、プレビューは、ユーザが第2の表示生成コンポーネントを手に取る(例えば、両面HMDを手に取る)、かつ/又は第2の表示生成コンポーネントを第1のユーザに対して事前設定された空間的構成に置く(例えば、外部ディスプレイがユーザの目に面した状態でHMDを保持する)と開始される。いくつかの実施形態では、プレビューが第1の表示生成コンポーネント上で開始された後に、ユーザが第1の表示生成コンポーネントを第1のユーザとの事前設定された空間的関係に置く(例えば、内部ディスプレイがユーザの顔又は目に面した状態でユーザがHMDを保持する、ユーザがHMDをユーザの頭部に着用する、など)ことを検出したことに応じて、コンピューティングシステムは、第1の表示生成コンポーネント上でコンピュータ生成体験を開始する。
【0165】
図7H~
図7Jは、いくつかの実施形態による、コンピュータ生成体験の提示中に、第1の表示生成コンポーネントが第1のユーザに対して事前設定された空間的関係又は構成に維持される方法に応じて、異なるコンピュータ生成体験を表示することを示す。いくつかの実施形態では、異なるコンピュータ生成体験は、互いに関連している。例えば、異なるコンピュータ生成体験は、それぞれ、三次元コンピュータ生成体験のプレビューと三次元コンピュータ生成体験それ自体であり、又は、それぞれ、コンピュータ生成体験のセグメント若しくは編集バージョンとコンピュータ生成体験の完全バージョンなどである。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントの表示面が第1のユーザ又は第1のユーザの事前設定された部分(例えば、ユーザの目又は顔)に面しているとき、及び/又はユーザが第1の表示生成コンポーネント上に示されるコンテンツを閲覧する位置にいる(例えば、ユーザがHMDを着用している、HMDを保持している、HMDを手で持ち上げた、HMDを事前設定された閲覧ステーションに配置した、HMDを事前設定された出力デバイスに接続した、など)ときに、第1の表示生成コンポーネントが第1のユーザに対して事前設定された空間的関係又は構成に配置されたことを判定する。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネント(又は任意選択的に、第1の表示生成コンポーネント(及び任意選択の第2の表示生成コンポーネント)を囲むHMD全体)が第1のユーザによって着用されている(例えば、ストラップで固定されている、ユーザの手(単数又は複数)の支持なしでユーザの目の前に留まっている)かどうかに基づいて、コンピュータ生成体験のうちのどれを第1の表示生成コンポーネント上に表示するかを判定する。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネント以外のデバイス又はセンサ(例えば、第1の表示生成コンポーネントのハウジング上のストラップ又はバックル、第1の表示生成コンポーネントのハウジングに取り付けられたタッチセンサ又は位置センサなど)の状態に基づいて、第1の表示生成コンポーネントが第1のユーザによって着用されているかどうかを判定する。例えば、ストラップ又はバックルは、任意選択的に、開放状態及び閉鎖状態を有し、第1の表示生成コンポーネントが第1のユーザによって着用されているときに、ストラップ又はバックルは、閉鎖状態にあり、第1の表示生成コンポーネントがユーザの前に一時的にのみ配置されており(例えば、ユーザの手によって目レベルに持ち上げられている)、かつユーザによって着用されていないときに、ストラップ又はバックルは、開放状態にある。いくつかの実施形態では、第1の表示生成コンポーネントのハウジング上のタッチセンサ又は位置センサは、第1の表示生成コンポーネントのハウジングがユーザの鼻、耳、頭部、及び/又はユーザの手以外のユーザの身体の他の部分に静止して支持されているときに、第1の状態(「はい」状態)に切り替わり、タッチセンサ又は位置センサは、第1の表示生成コンポーネントのハウジングがユーザの手(単数又は複数)によって支持されているときに、第2の状態(「いいえ」状態)に切り替わる。いくつかの実施形態では、ユーザが第1の表示生成コンポーネント上に表示されたコンピュータ生成体験を閲覧するために第1の表示生成コンポーネント(又は第1の表示生成コンポーネントを含むHMD)が第1のユーザに対して事前設定された構成に維持される方法を区別することによって、コンピューティングシステムは、相互作用モデル及びユーザに提示されるコンテンツの深度をより適切に調整することができる。例えば、コンピューティングシステムは、第1の表示生成コンポーネントがユーザの手(単数又は複数)によって第1のユーザに対して事前設定された構成に維持されていないときにのみ、入力としてユーザの手の移動(例えば、空中ジェスチャ、マイクロジェスチャ、第1の表示生成コンポーネントのハウジングとは別個の制御デバイス上に提供される入力など)を必要とする第1の相互作用モデルを有効にし、第1の表示生成コンポーネントがユーザの手(単数又は複数)によって第1のユーザに対して事前設定された構成に維持されている間に、コンピューティングシステムは、ユーザの手(単数又は複数)が第1の表示生成コンポーネントのハウジングから離れて移動する必要がない他のタイプの相互作用モデル(例えば、発話相互作用、視線相互作用、第1の表示生成コンポーネントのハウジング上のタッチ相互作用など)のみを有効にする。
【0166】
図7Iでは、第1のユーザ7202は、位置A7000-aに第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイなど)と併置され、第1の表示生成コンポーネントの表示面に面している。これは、いくつかの実施形態による、第1の表示生成コンポーネントが第1のユーザ又は第1のユーザの事前設定された部分に対して事前設定された構成にある(例えば、第1の表示生成コンポーネントがユーザの顔又は目の前に配置されている)例示的なシナリオを示すためのものである。
図7Iに示す例示的なシナリオでは、第1のユーザ7202は、センサオブジェクト7016をユーザの手に保持している。ユーザの手に対するセンサオブジェクト7016のこの位置は、第1の表示生成コンポーネントが第1のユーザ7202によって着用されていないときの第1の表示生成コンポーネントの状態に対応する。第1の表示生成コンポーネントが第1のユーザによって着用されていないときの第1の表示生成コンポーネントの状態に対応する別の例示的なシナリオは、第1の表示生成コンポーネントがHMDのディスプレイ(例えば、HMDの内部ディスプレイ、HMDの単一のディスプレイなど)であり、かつHMDのディスプレイが(例えば、ユーザの頭部、鼻、耳、又はユーザの手ではないユーザの他の部分によって支持されるのとは対照的に)第1のユーザの手によって第1のユーザの目に面するように保持されている又は持ち上げられているときである。いくつかの実施形態では、センサオブジェクト7016が第1のユーザの手に保持されている(ユーザの顔又は目の前に配置されたときに、第1の表示生成コンポーネントがユーザの手で支持されている、又は第1のユーザによって着用されていないことにも対応する)ときのシナリオでは、コンピューティングシステムは、第2のコンピュータ生成体験7030(例えば、
図7Hに示されるコンピューティングシステムの第2の状態に対応する体験)を表示する。
【0167】
図7Jでは、第1のユーザは、位置A7000-aに第1の表示生成コンポーネントと併置され、第1の表示生成コンポーネント7100の表示面に面している。これは、いくつかの実施形態による、第1の表示生成コンポーネント7100が第1のユーザ又は第1のユーザの事前設定された部分に対して事前設定された構成にある(例えば、第1の表示生成コンポーネントがユーザの顔又は目の前に配置されている)別の例示的なシナリオを示すためのものである。
図7Jに示すシナリオでは、第1のユーザ7202は、センサオブジェクト7016をユーザの手にもはや保持していないが、センサオブジェクトをユーザの身体(例えば、ユーザの背)に配置しており、その結果、第1のユーザ7202は、ここでセンサオブジェクト7016を着用している。ユーザの手及び身体に対するセンサオブジェクト7016のこの位置は、第1の表示生成コンポーネント7100が第1のユーザによって着用されているときの第1の表示生成コンポーネントの状態に対応する。第1の表示生成コンポーネントが第1のユーザによって着用されているときの第1の表示生成コンポーネントの状態に対応する別の例示的なシナリオは、第1の表示生成コンポーネントがHMDのディスプレイ(例えば、HMDの内部ディスプレイ)であり、かつHMDが第1のユーザの頭部に普通に着用されている(例えば、ユーザの手(単数又は複数)で支持されることとは対照的に、ユーザの鼻、耳、及び/又は頭部に完全にストラップで固定されている、バックル留めされている、静止している)ときである。いくつかの実施形態では、センサオブジェクト7016がユーザによって着用され、かつ第1のユーザの手に保持されていない(ユーザの顔又は目の前に配置されたときに、第1の表示生成コンポーネントがユーザによって着用され、かつユーザの手によって支持されていないことにも対応する)シナリオでは、コンピューティングシステムは、第3のコンピュータ生成体験7036(例えば、
図7Hに示す(例えば正方形7026を示す)コンピューティングシステムの第2の状態にも対応するが、センサオブジェクト7016の状態(及びそれに応じて、第1の表示生成コンポーネント(例えば、ディスプレイ7100又はHMDの内部ディスプレイ)の着用状態)に起因して第2のコンピュータ生成体験(例えば
図7Iの体験7030)とは異なる、異なる体験)を表示する。
【0168】
図7Jに示すように、コンピューティングシステムは、第1のユーザ7202が空中でユーザの手を移動させて、空中ジェスチャを提供することを(例えば、カメラ7104及び/又は他のセンサを使用して)検出し、それに応じて、仮想オブジェクト7032を物理的オブジェクト7028の表現7028’の上部に移動させる。いくつかの実施形態では、コンピューティングシステムは、第3のコンピュータ生成体験7036を表示している間に、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイ、HMDの単一のディスプレイなど)のハウジング上に提供される入力デバイス(例えば、タッチ感知面、ボタン、スイッチなど)のうちの少なくともいくつかを無効にする。いくつかの実施形態では、コンピューティングシステムは、(例えば、センサオブジェクト7016又は他のセンサなどの状態に基づいて判定されるように)第1の表示生成コンポーネントが第1のユーザ7202によって着用されていなかったときに有効にされていなかった、少なくとも1つの相互作用モデル(例えば、空中ハンドジェスチャ、マイクロジェスチャ、及び/又は第1の表示生成コンポーネントのハウジングとは別個の入力デバイスを介して検出された入力などをサポートする相互作用モデル)を有効にする。いくつかの実施形態では、第3のコンピュータ生成体験7036及び第2のコンピュータ生成体験7030は、対応するコンテンツ(例えば、同じコンテンツ、又は同じコンテンツの異なるバージョン)を有するが、異なる相互作用モデル(例えば、異なる相互作用モデル、又は相互作用モデルの重複するが異なるセットなど)を有する関連体験である。
【0169】
図7I及び7Jに示すように、いくつかの実施形態では、コンピューティングシステムは、任意選択的に、第2の表示生成コンポーネント(例えば、第1の表示生成コンポーネントとは異なるハウジングに含まれるディスプレイ(例えば、ディスプレイ7102)、又は第1の表示生成コンポーネントと(例えば、背中合わせの、又は別の方法で異なる方向を向く)同じハウジングに含まれるディスプレイ(例えば、内部ディスプレイ及び外部ディスプレイを有するHMD))を含む。いくつかの実施形態では、第2の表示生成コンポーネントは、任意選択的に、第1の表示生成コンポーネントを介して示されるコンテンツに関連する状態情報(例えば、コンテンツの変更された視覚表現)を表示し、任意選択的に、第1のユーザの状態に関連する状態情報(例えば、ユーザの顔又は目の画像又は表現)及び/又はコンピューティングシステムの動作モード(例えば、複合現実モード、仮想現実モード、完全パススルーモード、ペアレンタルコントロールモード、プライベートモード、DNDモードなど)を表示する。いくつかの実施形態では、第2の表示生成コンポーネントはまた、第1の表示生成コンポーネントによって表示するために利用可能なコンピュータ生成体験に対応するユーザインタフェース要素を表示する。第2の表示生成コンポーネントの動作及び第1の表示生成コンポーネントの対応する動作のより詳細は、
図7A~
図7E及び
図7F~
図7I、並びに
図8~
図13を参照して説明するプロセスを参照して説明する。いくつかの実施形態では、第1の表示生成コンポーネントがユーザに対して事前設定された構成に配置されているときに、第1の表示生成コンポーネントがユーザによって着用されているかどうかに基づいて異なるコンピュータ生成体験を表示するコンピューティングシステムは、第1の表示生成コンポーネント以外の別の表示生成コンポーネントを有さず、したがって、本明細書に記載のコンピュータ生成体験の利用可能性を示す状態情報及び/又はユーザインタフェース要素を表示しない。
【0170】
いくつかの実施形態では、第1の表示生成コンポーネントが第1のユーザに対して事前設定された構成に配置されている(例えば第1の表示生成コンポーネントの表示面がユーザの目若しくは顔に面している、かつ/又はユーザの顔から閾値距離内にある、など)ときに、第1の表示生成コンポーネントが第1のユーザによって着用されているかどうか(例えば、HMDがユーザの頭部にストラップで固定されている若しくはバックル留めされており、かつユーザの手(単数又は複数)の支持なしにユーザの目の前に留まることができる、又は単にユーザの手(単数又は複数)によってユーザの目の前に保持されており、ユーザの手(単数又は複数)の支持なしには落ちて離れることになるか)に応じて、コンピューティングシステムは、任意選択的に、第1の表示生成コンポーネントを使用して異なるタイプのユーザインタフェース(例えば、システムユーザインタフェース(例えば、アプリケーション起動ユーザインタフェース、ホーム画面、マルチタスクユーザインタフェース、構成ユーザインタフェースなど)対アプリケーションユーザインタフェース(例えば、カメラユーザインタフェース、赤外線スキャナユーザインタフェース(例えば、現在の物理的環境のヒートマップを示す)、拡張現実測定アプリケーション(例えば、カメラビュー内の物理的オブジェクトの測定値を自動的に表示する)など))を表示する。いくつかの実施形態では、コンピューティングシステムは、コンピューティングシステムが第1の表示生成コンポーネントを使用してアプリケーションユーザインタフェースを表示しているときに、第1の表示生成コンポーネントのハウジング上に配置された入力デバイス(例えば、タッチセンサ、接触強度センサ、ボタン、スイッチなど)を介して検出されたユーザ入力に応じて、カメラビュー内にキャプチャされた物理的環境の写真又はビデオを撮る。
【0171】
いくつかの実施形態では、コンピューティングシステムは、ユーザが第1の表示生成コンポーネントをユーザの目の前に保持しており、かつ第1の表示生成コンポーネントを着用していない間に検出されたユーザ入力への応答を判定するときに、第1のユーザの前で検出されたマイクロジェスチャ入力及び/又は空中ジェスチャ入力(例えば、マイクロジェスチャ入力及び空中ジェスチャ入力は、第1の表示生成コンポーネントのハウジングを保持していないユーザの手によって実行される)に対して、第1の表示生成コンポーネントのハウジング上に位置するタッチベースの入力デバイス上で検出されたタッチ入力を優先する。いくつかの実施形態では、コンピューティングシステムは、ユーザが第1の表示生成コンポーネントを着用しているとき(例えば、ユーザの手が第1の表示生成コンポーネントを支持する必要がないとき)に検出されたユーザ入力への応答を判定するときに、第1の表示生成コンポーネントのハウジング上に位置するタッチベースの入力デバイス上で検出されたタッチ入力に対して、第1のユーザの前で検出されたマイクロジェスチャ入力及び/又は空中ジェスチャ入力を優先する。いくつかの実施形態では、同時に複数のタイプの入力(例えば、第1の表示生成コンポーネントから離れた手で実行される入力、第1の表示生成コンポーネント又はそのハウジングをタッチする手によって実行される入力、など)を検出したことに応じて、第1の表示生成コンポーネントがユーザに対して事前設定された構成にある間にユーザによって着用されている(例えば、第1の表示生成コンポーネントを含むHMDがユーザの頭部にストラップで固定されている、バックル留めされている、ユーザの手によって支持されていない、など)との判定に従って、コンピューティングシステムは、第1の表示生成コンポーネント及びそのハウジングから離れて位置する手によって実行されたジェスチャ(例えば、空中ジェスチャ、マイクロジェスチャなど)(例えば、ジェスチャは、HMD上のカメラ、機械的若しくはタッチ感知式入力デバイス、又はユーザの手に着用されたセンサなどによってキャプチャされる)に基づいて、表示されたコンピュータ生成体験との相互作用を有効にする。第1の表示生成コンポーネントがユーザに対して事前設定された構成にある間にユーザによって着用されていない(例えば、ユーザの頭部にストラップで固定されていない、バックル留めされていない、ユーザの手によって支持されている、など)との判定に従って、コンピューティングシステムは、第1の表示生成コンポーネント又はそのハウジング上の手によって実行されたジェスチャ(例えば、タッチジェスチャ、物理的コントロールの操作など)(例えば、ジェスチャは、HMDのハウジングのタッチ感知面、HMDのハウジング上のボタン又はスイッチなどによってキャプチャされる)に基づいて、表示されたコンピュータ生成体験との相互作用を有効にする。
【0172】
図7K~
図7Mは、少なくとも第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイ、HMDの単一のディスプレイなど)及び任意選択的に第2の表示生成コンポーネント(例えば、ディスプレイ7102、HMDの外部ディスプレイなど)を含むコンピューティングシステム(例えば、
図1のコンピューティングシステム101、又は
図4のコンピューティングシステム140)を示し、コンピューティングシステムは、物理的環境内のユーザと物理的オブジェクトとの間の物理的相互作用(例えば、楽器を手に取って楽器を演奏すること、本を手に取って本を開くこと、箱を保持して箱を開くこと、など)に従って、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイ、HMDの単一のディスプレイなど)を介してコンピュータ生成体験(例えば、拡張現実体験、拡張仮想体験、仮想現実体験など)をユーザに表示する。いくつかの実施形態では、物理的オブジェクトに対応する事前設定された基準を満たす特定の物理的相互作用のみが、コンピュータ生成体験の表示をトリガすることができる。いくつかの実施形態では、基準の複数のセットのどれが物理的オブジェクトとの物理的相互作用によって満たされるかに応じて、異なるコンピュータ生成体験が任意選択的に表示される。いくつかの実施形態では、異なるコンピュータ生成体験は、物理的オブジェクトを動作させる異なるモード(例えば、タップすること、弾くこと、たたくこと、開くこと、振ることなど)に対応する異なる拡張現実体験を含む。
図7K~
図7Mは、
図8~
図13のプロセスを含む、後述のプロセスを例示するために使用される。
【0173】
図7Kに示すように、ユーザ(例えば、ユーザ7202)は、壁及び床を有する部屋内の物理的オブジェクト(例えば、箱の蓋7042及び箱本体7040、本、楽器などを含むオブジェクト)を含むシーン105に存在する。
図7Kでは、ユーザは、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMD、ハンドヘルドデバイスなど)を手7036で保持している。いくつかの実施形態では、第1の表示生成コンポーネントは、ユーザの手7036に保持されていないが、ユーザの身体(例えば、頭部、耳、鼻など)上に置かれたハウジング又は支持構造体によって支持されている。いくつかの実施形態では、第1の表示生成コンポーネント(例えば、ヘッドアップディスプレイ、プロジェクタなど)は、第1のユーザの目又は顔の前に配置され、ユーザの身体の一部ではない他の支持構造体(例えば、テーブルトップ、TVスタンドなど)によって支持されている。
【0174】
いくつかの実施形態では、
図7Kに示すように、コンピューティングシステムは、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDのディスプレイなど)を介して、物理的環境(例えば、物理的オブジェクトを含む部屋)の拡張現実ビュー105’を提供する。物理的環境の拡張現実ビューでは、物理的環境の一部分のビューは、物理的オブジェクトの表現(例えば、箱の蓋7042の表現7042’及び箱本体7040の表現7040’を含む)、及び任意選択的に、周囲環境の表現(例えば、物理的オブジェクトを支持する支持構造体7044の表現7044’並びに部屋の壁及び床の表現)を含む。環境内の物理的オブジェクトの表現に加えて、コンピューティングシステムはまた、物理的オブジェクト(例えば、蓋7042及び本体7040を含む箱、環境内の別の物理的オブジェクトなど)に対応する1つ以上のコンピュータ生成体験が第1の表示生成コンポーネントを介して表示するために利用可能であるという視覚インジケーション(例えば、ラベル7046又は他の視覚インジケーションなど)を含む、なんらかの仮想コンテンツ(例えば、ユーザインタフェースオブジェクト、物理的オブジェクトの視覚的拡張など)を表示する。
図7K(B)に示すように、いくつかの実施形態では、視覚インジケーション(例えば、ラベル7046)は、物理的オブジェクトの位置に対応する位置で(例えば、箱の蓋7042の位置で)物理的環境のビューに表示される。例えば、ラベル7046は、第1の表示生成コンポーネントを介して表示される物理的環境のビュー内の箱の蓋7042の上部に位置しているように見える。
【0175】
いくつかの実施形態では、視覚インジケーション(例えば、ラベル7046、又は他の視覚インジケーションなど)は、第1の表示生成コンポーネントによって表示するために利用可能なコンピュータ生成体験に関する記述情報(例えば、アイコン、グラフィック、テキスト、アニメーション、ビデオクリップ、画像など)を含む。いくつかの実施形態では、コンピューティングシステムの第1の表示生成コンポーネント又は1つ以上のカメラが物理的環境内で移動するとき、及び/又は物理的オブジェクトが物理的環境内で移動するとき、それにより、第1の表示生成コンポーネントによって示される物理的環境の拡張現実ビューは、物理的オブジェクトの閾値部分未満(例えば、物理的オブジェクトの50%未満、又は物理的オブジェクトの主要部分(例えば、箱の蓋7042、本のタイトルテキスト、楽器の音生成部分など)を含むことなく、など)の表現のみを含み、コンピューティングシステムは、拡張現実環境のビュー内の視覚インジケーションを表示することを停止する(又は表示することを取り止める)。
【0176】
いくつかの実施形態では、視覚インジケーションは、コンピュータ生成体験の表示をトリガするために必要な物理的相互作用に関するプロンプト又はガイダンス情報(例えば、アニメーション化された図、物理的オブジェクトの表現の特定の部分を指すインジケータなど)を含む。いくつかの実施形態では、コンピューティングシステムは、事前設定された第1の基準(例えば、ユーザがコンピュータ生成体験を見ることに関心があることを評価するために使用される基準、ユーザの存在を検出するために使用される基準、物理的オブジェクト上のユーザの手の接触を検出するための基準など)を満たすいくつかのユーザ入力を検出したことに応じてのみ、コンピュータ生成体験の表示をトリガするために必要な物理的相互作用に関するプロンプト又はガイダンス情報を表示する。
図7Lに示すように、いくつかの実施形態では、コンピューティングシステムは、ユーザがユーザの手で物理的オブジェクトにタッチしているが、コンピュータ生成体験の表示をトリガするために必要な相互作用を実行していない(例えば、手7038が物理的オブジェクトの箱の蓋7042又は箱本体7040にタッチしているが、箱の蓋7042を開いていない)ことをコンピューティングシステムが検出すると、箱の蓋7042の位置に対応する拡張現実環境のビュー内の位置にプロンプト又はガイダンス情報(例えば、アニメーション化された矢印7048、又は他の視覚効果若しくは仮想オブジェクトなど)を表示して、ユーザに箱の蓋7042を開けるように促す。いくつかの実施形態では、プロンプト及びガイダンス情報(例えば、矢印の方向、アニメーションのシーケンスなど)は、ユーザが物理的オブジェクトと相互作用する方法に応じて、更新される。いくつかの実施形態では、ユーザの手の表現(例えば、手の7038の表現7038’)は、ユーザがその手を使用して物理的環境内の物理的オブジェクトを操作する際に、物理的環境の拡張現実ビュー105’に示される。プロンプト及びガイダンス情報は、物理的オブジェクトとの必要な物理的相互作用(例えば、蓋7042 を開くこと、他のなんらかの他の相互作用(例えば、蓋7042 を外した後に支持体7044から箱7040を手に取ること)など)が検出されると、第1の表示生成コンポーネントを介して表示するために利用可能な実際のコンピュータ生成体験とは異なることに留意されたい。いくつかの実施形態では、コンピューティングシステムは、コンピュータ生成体験の表示をトリガするための基準を満たさない物理的オブジェクトとの物理的相互作用に応じて、任意のプロンプト又はガイダンス情報を表示しない(例えば、コンピューティングシステムは、コンピュータ生成体験を表示せず、プロンプト及びガイダンス情報を表示しないが、任意選択的に、視覚インジケーション(例えば、ラベル7046)の表示を維持して、コンピュータ生成体験が表示するために利用可能であることを示す)。
【0177】
図7Mに示すように、いくつかの実施形態では、ユーザがコンピュータ生成体験の表示をトリガするために必要な物理的オブジェクトとの物理的相互作用を実行したことをコンピューティングシステムが検出すると、コンピューティングシステムは、コンピュータ生成体験を表示する。例えば、ユーザの手7038が箱本体7040から箱の蓋7042を持ち上げることを検出したことに応じて、コンピューティングシステムは、物理的オブジェクトとの必要な物理的相互作用がコンピュータ生成体験の表示をトリガするための事前設定された基準を満たしたと判定し、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイ、HMDの単一のディスプレイなど)を使用してコンピュータ生成体験を表示する。
図7Mでは、コンピュータ生成体験は、ユーザの手7038の表現7038’、箱の蓋7042の表現7042’、及び箱本体7040の表現7040’を物理的環境内のそれらの物理的位置及び向きに対応する位置及び向きで示す拡張現実体験である。加えて、いくつかの実施形態では、拡張現実体験はまた、仮想コンテンツ(例えば、箱本体7040から飛び出すように見え、かつ箱本体の内側に仮想影を落とす仮想ボール7050、箱7040の下の物理的支持体7044の表現を置き換える仮想プラットフォーム7052など)を物理的環境の表現と同時に示す。加えて、いくつかの実施形態では、物理的環境内の壁の表現は、拡張現実体験の仮想オーバーレイに置き換えられる。いくつかの実施形態では、コンピュータ生成体験が開始されると、ユーザが物理的オブジェクトと相互作用し続けるにつれて、コンピューティングシステムは、物理的オブジェクト(例えば、箱本体7040、箱の蓋7042など)のユーザの物理的操作に従って、かつ任意選択的に、コンピューティングシステムの様々な入力デバイスを介して検出された他の入力(例えば、ジェスチャ入力、タッチ入力、視線入力、音声入力など)に従って、拡張現実環境の変化を表示する。いくつかの実施形態では、コンピュータ生成体験は、物理的オブジェクトとの継続した物理的相互作用に従って判定される方法で進行する。例えば、ユーザが物理的環境内の箱の蓋7042を移動させることを検出したことに応じて、コンピューティングシステムは、箱の蓋7042の表現7042’を移動させて、仮想ボール7050を箱本体7040の表現7040’の上の空の空間に押し、ユーザが箱の蓋7042を箱本体7040上に戻しておくことを検出したことに応じて、コンピューティングシステムは、箱の蓋7042の表現7042’を箱本体7040の表現7040’上に戻して表示し、仮想ボール7050を表示することを停止する。いくつかの実施形態では、コンピューティングシステムは、必要な物理的相互作用を実行してコンピュータ生成体験の表示をトリガするときに、ユーザが物理的オブジェクトと物理的に接触していることを必要とし、コンピューティングシステムは、ユーザが閾値時間よりも長く物理的オブジェクトとの物理的接触を停止したとの判定に従って、コンピュータ生成体験を表示することを停止する。例えば、いくつかの実施形態では、コンピューティングシステムは、物理的オブジェクトがユーザの手から解放されていることを検出した直後に、コンピュータ生成体験を表示することを停止する。いくつかの実施形態では、コンピューティングシステムは、物理的オブジェクトがユーザの手から解放された後に別の物理的表面に着地して静止したことを検出すると、コンピュータ生成体験を表示することを停止する。
【0178】
いくつかの実施形態では、コンピュータ生成体験の表示をトリガするための基準の前に、物理的オブジェクトとのユーザの物理的相互作用を検出したことに応じて提供される視覚フィードバックは、コンピュータ生成体験のプレビューを含み、物理的相互作用が検出されると物理的相互作用の特性に従って動的に更新される視覚特性を有する。例えば、アニメーション、視覚効果、及び/又は仮想オブジェクトの範囲(例えば、サイズ、寸法、角度範囲など)、視覚フィードバックの詳細の量、視覚フィードバックなどの輝度、色飽和度、視覚的鮮明度などは、任意選択的に、物理的環境内の物理的オブジェクトとの相互作用の特性値(例えば、特性値は、移動距離、移動の角度範囲、移動速度、相互作用のタイプ、所定の基準点までの距離などを含む)に従って調整される(例えば、リアルタイムで動的に、周期的になど)。例えば、いくつかの実施形態では、物理的オブジェクトが本である場合、本の表紙が物理的環境内のユーザによってゆっくりと開かれるにつれて、コンピュータ生成体験の色及び光が、表紙と最初のページとの間の間隙から現れてきて、表紙がますます開かれるにつれて、より明るくなり、より飽和する。完全なコンピュータ生成体験は、任意選択的に、本の表紙が閾値量を超えて開かれて、かつ第1の基準が満たされると、三次元環境内で開始される。別の実施例では、ユーザが箱の蓋7042の角を持ち上げると、仮想光が箱本体7040の表現7040’から現れるように示され、仮想ボール7050がちらりと見えることが示される。ユーザが箱の蓋7042の角をより高く持ち上げるにつれて、より多くの仮想光が箱本体7040の表現7040’から現れるように示され、仮想ボール7050は、箱本体7040の表現7040’内で動き回り始める。ユーザが最終的に箱の蓋7042を箱本体7040から離れて持ち上げると、コンピュータ生成体験が開始され、三次元環境全体が変化し、部屋の表現は、仮想プラットフォーム7052に置き換えられ、仮想ボール7050は、箱の表現7040’から飛び出す。
【0179】
いくつかの実施形態では、コンピュータ生成体験は、任意選択的に、2つ以上のタイプの物理的相互作用によってトリガされる。言い換えれば、物理的オブジェクトに関連付けられたコンピュータ生成体験をトリガするための基準は、任意選択的に、物理的オブジェクトと相互作用する第1の方法及び物理的オブジェクトと相互作用する第2の方法によって満たされる。例えば、本に関連付けられたコンピュータ生成体験は、任意選択的に、ユーザが本を手に取って本の表紙がユーザの顔に対して直立した状態で本立てに本が立て掛けられたことに応じて、及びユーザが本を手に取ってユーザの手で表紙を開いたことに応じて、開始される。いくつかの実施形態では、コンピュータ生成体験は、任意選択的に、コンピュータ生成体験の異なる部分から開始される。例えば、物理的オブジェクトに関連付けられたコンピュータ生成体験をトリガするための基準は、任意選択的に、物理的オブジェクトと相互作用するが、異なるパラメータ値(例えば、異なるページ、異なる速度、異なる時間など)で相互作用する同じ方法で満たされる。例えば、本に関連付けられたコンピュータ生成体験は、任意選択的に、ユーザが本を手に取って最初のページから開いたことに応じて、コンピュータ生成体験の第1の一部分から開始され、任意選択的に、ユーザが本を手に取って以前にブックマークしたページから開いたことに応じて、コンピュータ生成体験の第2の異なる部分から開始される。別の実施例では、本をゆっくりと開くことにより、落ち着いた背景音楽及び/又はより落ち着いた色を有するコンピュータ生成体験をトリガし、本をすばやく開くことにより、より活気のある背景音楽及びより明るい色を有するコンピュータ生成体験をトリガする。本の実施例は、単なる例示である。同じ原理は、他のタイプの物理的オブジェクトに関連付けられた他のコンピュータ生成体験及び他のトリガする物理的相互作用に適用される。いくつかの実施形態では、異なるコンピュータ生成体験は、同じ物理的オブジェクトに関連付けられ、物理的オブジェクトと相互作用する異なる方法によってトリガされる。例えば、箱は、異なる2つのコンピュータ生成体験に関連付けられ、第1のコンピュータ生成体験は、ユーザが箱の蓋を開いたときにトリガされ(例えば、ユーザが蓋で押すと仮想ボールが箱から飛び出す)、第2のコンピュータ生成体験は、ユーザが逆さまに箱を反転させたときにトリガされる(例えば、仮想の虫が箱の底部から現れて、箱の底部上を移動するユーザの指を追いかける)。いくつかの実施形態では、物理的オブジェクトと相互作用する異なる方法は、異なる入力モダリティを可能にするコンピュータ生成体験の異なるバージョンをトリガする。例えば、本が片手で保持されて、他方の手によって開かれると、片手の空中ジェスチャ(例えば、エアタップジェスチャ、手を振ること、手話ジェスチャなど)及びマイクロジェスチャが、コンピュータ生成体験と相互作用するために有効にされ、タッチジェスチャは、コンピュータ生成体験と相互作用するために有効にされない。本が両手で開いて保持されているときに、空中ジェスチャが無効にされ、本の背面、前、及び/又は側面上のタッチジェスチャ(例えば、タップ、スワイプなど)が、コンピュータ生成体験と相互作用するために有効にされる。
【0180】
図7N~
図7Qは、いくつかの実施形態による、入力の時点で片手又は両手がハウジング上で検出されたかに従って、表示生成コンポーネントのハウジング上で検出された入力に応じて、動作を実行する又は実行しないことを選択することを示す。いくつかの実施形態では、入力モダリティとしてのタッチ入力は、表示生成コンポーネントのハウジング上(例えば、表示生成コンポーネントを収容するHMDのハウジング上、表示生成コンポーネントのフレーム上など)で両手が同時に検出されると無効にされる。いくつかの実施形態では、コンピューティングシステムは、片手(例えば、タッチ入力を提供する手)のみが表示生成コンポーネントのハウジングにタッチしている限り、表示生成コンポーネントのハウジング上(例えば、表示生成コンポーネントの構造体上又はその周囲に配置されたタッチ感知面又は他のタッチセンサ上)のユーザのいずれかの手によって実行されるタッチ入力に応答することになり、タッチ入力が検出された時点で追加の手も表示生成コンポーネントのハウジングをタッチしていることをコンピューティングが検出した場合、コンピューティングシステムは、タッチ入力を無視し、タッチ入力に対応する動作(例えば、コントロールをアクティブ化すること、コンピュータ生成体験と相互作用することなど)を実行することを取り止める。いくつかの実施形態では、コンピューティングシステムは、片手によって提供されるタッチ入力を検出するために使用される同じセンサ及び入力デバイスを使用して、両手の存在を検出する。いくつかの実施形態では、カメラを使用して、ユーザの手の位置をキャプチャし、カメラからの画像をコンピューティングシステムによって使用して、タッチ入力が表示生成コンポーネントのハウジング上に存在する1つ以上のタッチセンサによって検出されたときに、ユーザの手の両方が表示生成コンポーネントのハウジングにタッチしているかどうかを判定する。いくつかの実施形態では、タッチ入力、及び/又はユーザの片手若しくは両手が表示生成コンポーネントのハウジングにタッチしている、若しくはハウジングを支持しているかどうかを検出する他の手段が実行される。例えば、様々な実施形態によれば、位置センサ、近接センサ、機械的センサなどを使用して、表示生成コンポーネントのハウジング上のユーザの手(単数又は複数)の存在及び姿勢を検出することができる。
【0181】
図7Nでは、ユーザ(例えば、ユーザ7202)は、物理的オブジェクト(例えば、箱7052)、壁7054及び7056、並びに床7058を含む物理的シーン105に存在している。ユーザ7202は、スタンドによって支持された表示生成コンポーネント7100(例えば、タブレットディスプレイデバイス、プロジェクタ、HMD、HMDの内部ディスプレイ、ヘッドアップディスプレイなど)の前に立っている。表示生成コンポーネント7100は、物理的環境105のビューを表示する。例えば、いくつかの実施形態では、物理的環境のビューは、物理的環境のカメラビューである。いくつかの実施形態では、物理的環境のビューは、表示生成コンポーネントの透明部分を介して提供される。いくつかの実施形態では、表示生成コンポーネント7100は、物理的環境のビュー、並びに物理的環境のビューの一部分の上に重ね合わせて又はそれに置き換えて表示された仮想オブジェクト及びコンテンツの両方を有する拡張現実環境を表示する。
図7Nに示すように、物理的環境のビューは、箱7052の表現7052’、壁7054及び7056の表現7054’及び7056’、並びに床7058の表現7058’を含む。
図7Nでは、ユーザ7202は、表示生成コンポーネントのハウジングにタッチしておらず、コンピューティングシステムは、表示生成コンポーネントのハウジング上の任意のタッチ入力を検出しない。いくつかの実施形態では、ユーザの手7038の表現7038’は、物理的環境の表現の一部として、表示生成コンポーネント7100を介して示されている。いくつかの実施形態では、表示生成コンポーネント7100は、任意のタッチ入力がそのハウジング上で検出される前に、仮想環境を表示する、又は何も表示しない。
【0182】
いくつかの実施形態では、タッチ入力に加えて、コンピューティングシステムは、任意選択的に、表示生成コンポーネントのハウジング近くのホバー入力を検出するように構成されている。いくつかの実施形態では、表示生成コンポーネントのハウジング上に配置された近接センサは、表示生成コンポーネントのハウジングに接近するユーザの指又は手を検出して、表示生成コンポーネントのハウジングに対する指又は手の近接(例えば、タッチ入力を検出するように構成されたハウジングの部分、ハウジングの他の部分などへの近接)に基づいて入力信号を生成するように構成されている。いくつかの実施形態では、コンピューティングシステムは、(例えば、表示生成コンポーネントのハウジングの異なる部分に位置する近接センサを使用して)、表示生成コンポーネントのハウジング近くの異なる位置でのそれぞれのホバー入力を検出して、ホバー入力の位置に従って異なるフィードバックを提供するように構成されている。いくつかの実施形態では、コンピューティングシステムは、検出されるホバー入力のホバー距離(例えば、ハウジングの表面又はハウジングのタッチ感知部分からの指先(単数又は複数)の距離)に基づいて、視覚フィードバックの様々な特性の値を調整する。
【0183】
図7Oに示すように、いくつかの実施形態では、コンピューティングシステムは、手7038又はその一部分(例えば、手7038の指、又は手7038の2本の指など)が表示生成コンポーネント7100のハウジングの第1のタッチ感知部分(例えば、表示生成コンポーネント7100のハウジングの左縁部の上部部分、HMDの左又は上縁部部分など)から閾値距離内に移動したことを検出する。手7038又はその一部分が表示生成コンポーネント7100のハウジングの第1のタッチ感知部分から閾値距離内に移動したことを検出したことに応じて、コンピューティングシステムは、任意選択的に、手7038又はその一部分の位置に対応する位置に1つ以上のユーザインタフェースオブジェクトを表示する。例えば、ユーザインタフェースオブジェクト7060は、手7038又は手7038の持ち上げられた指の隣の、表示生成コンポーネント7100のハウジングの左縁部の上部部分(又はHMDの左若しくは上縁部部分など)の近くに表示される。いくつかの実施形態では、コンピューティングシステムは、表示生成コンポーネントのハウジングの近くの手7038又はその一部分の位置の変化(例えば、近くに/遠くに離れて移動すること、及び/又は左縁部に沿って上下に移動すること、など)に従って、表示される1つ以上のユーザインタフェースオブジェクトの位置を動的に更新する(例えば、ユーザインタフェースオブジェクト7060をハウジングの左縁部の近くに若しくはそれから遠くに離れて、及び/又はハウジングの左縁部を上下に移動させる)。いくつかの実施形態では、コンピューティングシステムは、表示生成コンポーネントのハウジングの近くの手又はその一部分の位置の変化に従って、表示される1つ以上のユーザインタフェースオブジェクトの外観を動的に更新する(例えば、サイズ、形状、色、不透明度、解像度、コンテンツなどを変更する)。いくつかの実施形態では、コンピューティングシステムは、任意選択的に、表示生成コンポーネントのハウジングの近くの手7038の姿勢の変化(例えば、1本の指の代わりに2本の指を持ち上げること、異なる指を持ち上げること、など)に従って、表示生成コンポーネントのハウジングの第1のタッチ感知部分の近くに表示されるユーザインタフェースオブジェクト(単数又は複数)のタイプを変更する(例えば、第1のコントロール(例えば、音量コントロール、電源コントロールなど)の表現を表示することから第2のコントロール(例えば、表示輝度コントロール、WiFiコントロールなど)の表現を表示することに変更する、第1のタイプのアフォーダンス(例えば、スクロールバー、ボタンなど)を表示することから第2のタイプのアフォーダンス(例えば、スクロールホイール、スイッチなど)を表示することに変更する、など)。いくつかの実施形態では、1つ以上のユーザインタフェースオブジェクトは、手7038が表示生成コンポーネントのハウジングの第1のタッチ感知部分の近くに移動するにつれて、コントロールの単なるインジケーション(例えば、小さなドット、薄い影など)からコントロールのより具体的かつ明確な表現(例えば、コンピューティングシステム又は表示生成コンポーネントの状態を示す、それらの上のグラフィック及び/又はテキストを有するボタン又はスイッチ)に成長する。いくつかの実施形態では、1つ以上のユーザインタフェースオブジェクト(例えば、ユーザインタフェースオブジェクト7060、又は他のユーザインタフェースオブジェクトなど)は、物理的環境のビューと同時に表示される。いくつかの実施形態では、1つ以上のユーザインタフェースオブジェクトは、例えば、手7038によるホバー入力の検出の前に仮想環境が表示されていた場合、仮想環境と同時に表示される。いくつかの実施形態では、1つ以上のユーザインタフェースオブジェクトは、例えば、ホバー入力を検出する前に、表示生成コンポーネントが物理的環境のビュー又は任意の他の仮想コンテンツのいずれかを表示していなかった場合、物理的環境のビュー又は任意の他の仮想コンテンツのいずれかの同時表示なしに表示される。
【0184】
いくつかの実施形態では、
図7Oに示すように、コンピューティングシステムは、例えば、表示生成コンポーネントのハウジング上の第1のタッチ感知部分の近くのホバー入力を検出した後に、表示生成コンポーネントのハウジング上の第1のタッチ感知部分でのタッチ入力を検出する。いくつかの実施形態では、表示生成コンポーネントのハウジングのタッチ感知部分の第1の一部分でのタッチ入力を検出したことに応じて、別の手が表示生成コンポーネントのハウジング上で検出されることなく、タッチ入力が検出されたとの判定に従って、コンピューティングシステムは、タッチ入力に対応する第1の動作を実行する。例えば、
図7Oに示すように、表示生成コンポーネントのハウジングの左縁部の上部部分上のタッチ入力を検出したことに応じて、コンピューティングシステムは、物理的環境のビューと組み合わせて、なんらかの仮想コンテンツ(例えば、仮想オーバーレイ7062)を含む拡張現実体験をアクティブ化した(例えば、仮想オーバーレイ7062は、箱7052の位置に対応する位置に表示され、その結果、オーバーレイ7062は、拡張現実環境内の箱7052の表現7052’の前面に配置されているように見える)。いくつかの実施形態では、ユーザの手7038又は手の一部分の初期タッチダウンは、タッチが表示生成コンポーネントのハウジング上で検出されるという視覚フィードバックのみを引き起こし、タッチは、コンピューティングシステム上の任意の特定の動作を開始するための基準をまだ満たさない(例えば、ユーザインタフェースオブジェクト(例えば、ユーザインタフェースオブジェクト7060)は、それらが表示されていなかった、又は単にインジケーションとして表示されていた場合に、それらの完全な機能状態で表示され、ユーザインタフェースオブジェクト(例えば、ユーザインタフェースオブジェクト7060)は、それらの外観を変更して、タッチが検出されたことを示す、など)。いくつかの実施形態では、コンピューティングシステムは、1つ以上の有効なタッチ入力を検出するための基準に対して手7038によって提供されるタッチ入力を評価し、タッチ入力が1つ以上のユーザインタフェースオブジェクト(例えば、ユーザインタフェースオブジェクト7060又はユーザインタフェースオブジェクト7060の代わりに表示される別のユーザインタフェースオブジェクトなど)に関連付けられた第1の動作(例えば、表示輝度を下げる、音量を下げる、ARモードに切り替える、など)をトリガするための基準(例えば、上向き方向のスワイプ、ダブルタップ入力、単一の指タップなどを検出するための基準)を満たすとの判定に従って、コンピューティングシステムは、1つ以上のユーザインタフェースオブジェクトに関連付けられた第1の動作を実行し、タッチ入力が1つ以上のユーザインタフェースオブジェクト(例えば、ユーザインタフェースオブジェクト7060又はユーザインタフェースオブジェクト7060の代わりに表示される別のユーザインタフェースオブジェクトなど)に関連付けられた第2の動作(例えば、表示輝度を上げる、音量を上げる、VRモードに切り替える、など)をトリガするための基準(例えば、下向き方向のスワイプ、単一のタップ、2本の指のタップなどを検出するための基準)を満たすとの判定に従って、コンピューティングシステムは、1つ以上のユーザインタフェースオブジェクトに関連付けられた第2の動作を実行する。
【0185】
いくつかの実施形態では、
図7Pに示すように、コンピューティングシステムは、表示生成コンポーネントのハウジングの第2のタッチ感知部分(例えば、表示生成コンポーネントのハウジングの左縁部の下部部分、HMDの左下縁部、HMDの右上縁部など)に接近するユーザの手7038を検出し、任意選択的に、それに応じて1つ以上のユーザインタフェースオブジェクト(例えば、ユーザインタフェースオブジェクト7064又は他のユーザインタフェースオブジェクト)を表示する。コンピューティングシステムが表示生成コンポーネントのハウジングの第2のタッチ感知部分上のタッチ入力を検出すると、タッチ入力が検出されたときに、片手(例えば、手7038)のみが表示生成コンポーネントのハウジングにタッチしているとの判定に従って、コンピューティングシステムは、手7038又はその一部分によって実行されたタッチ入力に対応する第2の動作を実行する。この実施例では、コントロール7064のアクティブ化により、物理的環境のビューと組み合わせて表示される、なんらかの仮想コンテンツ(例えば、仮想ボール7066、他の仮想オブジェクトなど)を含んだ拡張現実体験を開始させる(例えば、仮想ボール7066は、床7058の位置に対応する位置に表示され、その結果、仮想ボール7066は、床7058の表現7058’の表面上に置かれているように見える)。この例示的なシナリオに関連する他の特徴は、
図7Oに関して説明したものと類似しており、唯一の差は、手7038が表示生成コンポーネントのハウジングの第1のタッチ感知部分の近くで、かつ/又は第1のタッチ感知部分で検出されていることに起因しており、特定の視覚フィードバック及び実行される動作(単数又は複数)は、表示生成コンポーネントのハウジングの第1のタッチ感知部分上又はその近くで検出されたタッチ入力に対応していた。簡潔にするために、類似の特徴は、本明細書では繰り返し説明しない。
【0186】
図7Qは、手7038によるタッチ入力が表示生成コンポーネントのハウジング上で検出されたときに、別の手(例えば、手7036)が表示生成コンポーネント(例えば、ディスプレイ7100、HMDなど)のハウジングにタッチしている(例えば、保持している、支持している、別の方法で接触している、など)ことを示す。
図7Qでは、手7038は、表示生成コンポーネントのハウジングの第1のタッチ感知部分及びハウジングの第2のタッチ感知部分にそれぞれタッチしており、第1の動作(例えば、
図7Oの仮想オーバーレイ7062を表示すること)及び第2の動作(例えば、
図7Pの仮想ボール7066を表示すること)の実行を以前にそれぞれトリガしたものと同じタッチ入力を提供している。しかしながら、手7038によるタッチ入力のうちの1つが検出された時点で、別の手(例えば、手7036)も表示生成コンポーネントのハウジングにタッチしている間に、タッチ入力が検出されたとの判定に従って(例えば、別の手がタッチ入力が検出された側とはハウジングの反対側にタッチしているとの判定、別の手がハウジングの上のどこかにタッチしているとの判定などに従って)、コンピューティングシステムは、検出されたタッチ入力に対応する動作を実行することを取り止める。例えば、
図7Qに示すように、コンピューティングシステムは、依然として任意選択的に、有効なタッチ入力を提供した手7038の位置の近くにユーザインタフェースオブジェクト(例えば、ユーザインタフェースオブジェクト7060、ユーザインタフェースオブジェクト7064など)を表示するが、他方の手7036が表示生成コンポーネントのハウジングにタッチしているときに、対応するコンピュータ生成体験を開始しない。いくつかの実施形態では、コンピューティングシステムは、2つの手からのホバー入力が表示生成コンポーネントのハウジングのタッチ感知部分の近くで同時に検出された場合、及び/又はタッチ入力が表示生成コンポーネントのハウジングの2つの側面上で同時に検出された場合、任意のユーザインタフェースオブジェクトを表示しない。いくつかの実施形態では、2つの手が表示生成コンポーネント(例えば、HMD、他のタイプの表示生成コンポーネントなど)に接近する、かつ/又は表示生成コンポーネントにタッチするように同時に検出された場合、ユーザが表示生成コンポーネントへの入力を提供するのではなく、表示生成コンポーネントを取り除くことを望む可能性がより高い。したがって、ユーザの明示的な命令なしに、そのようなホバー入力又はタッチ入力を無視する(例えば、ユーザの混乱を低減する、電力を節約する、など)ことがより有利である。
【0187】
いくつかの実施形態では、表示生成コンポーネントのハウジング上で検出されたタッチ入力に従って実行される動作は、コンピューティングシステムの状態を変更する。例えば、タッチ入力が第1の基準を満たすとの判定に従って、コンピューティングシステムは、第1の状態に切り替わり、タッチ入力が第1の基準とは異なる第2の基準を満たすとの判定に従って、コンピューティングシステムは、第1の状態とは異なる第2の状態に切り替わる。いくつかの実施形態では、第1の基準及び第2の基準は、タッチ入力がハウジング上の異なる位置で検出されることを必要とする異なる位置ベースの基準を有する。いくつかの実施形態では、第1の基準及び第2の基準は、タッチ入力が異なる強度閾値を満たすことを必要とする異なる強度ベースの基準を有する。いくつかの実施形態では、第1の基準及び第2の基準は、タッチ入力がハウジング上の異なる閾値時間にわたる閾値移動量未満で検出されることを必要とする異なる持続時間ベースの基準を有する。いくつかの実施形態では、第1の基準及び第2の基準は、タッチ入力が異なる閾値距離よりも多くだけ移動することを必要とする異なる距離ベースの基準を有する。いくつかの実施形態では、第1の基準及び第2の基準は、タッチ入力が異なる数の接触及び/又は接触の移動パターンを含むことを必要とする異なるタッチパターン基準を有する。いくつかの実施形態では、第1の基準及び第2の基準は、タッチ入力が異なる速度閾値及び/又は方向要件を満たす接触(単数又は複数)の移動を含むことを必要とする異なる移動基準を有する。いくつかの実施形態では、第1の基準及び第2の基準は、タッチ入力を提供する手の異なる姿勢要件を有する。いくつかの実施形態では、第1の基準及び第2の基準は、上記の基準(例えば、位置、強度、持続時間、移動、及び/又は接触の数、手の姿勢などに関連する基準)の2つ以上の異なる組み合わせを有する。
【0188】
いくつかの実施形態では、タッチ入力に従って実行される動作は、表示生成コンポーネントによって表示されるコンテンツに関連付けられた没入レベルを変更する。例えば、コンピューティングシステムは、任意選択的に、片手のみが表示生成コンポーネントのハウジング上で検出されたときに実行される第1のタッチ入力に応じて、コンピューティングシステムが物理的環境のビューを有するパススルーモード(例えば、複合現実モード)でコンピュータ生成体験を表示する第1の状態から、物理的環境のパススルービューを有さない没入モード(仮想現実モード)で同じコンピュータ生成体験を表示する第2の状態に変化する。いくつかの実施形態では、コンピューティングシステムは、片手のみが表示生成コンポーネントのハウジングにタッチしている間に、第2のタッチ入力が表示生成コンポーネントのハウジング上で検出されたときに、第2の状態から第1の状態に戻って切り替わる。いくつかの実施形態では、コンピューティングシステムは、任意選択的に、片手のみが表示生成コンポーネントのハウジング上で検出されたときに実行される第3のタッチ入力を検出したことに応じて、コンピューティングシステムが任意のコンピュータ生成体験を表示していない(例えば、なにも表示していない、又は物理的環境の完全なパススルービューを表示している(例えば、現実モード))第3の状態から第1の状態(例えば、パススルーモード又は複合現実モード)又は第2の状態(例えば、没入モード又は仮想現実モード)に変化する。いくつかの実施形態では、コンピューティングシステムが表示生成コンポーネントを介して没入モード(例えば、物理的環境のパススルービューを有さない仮想現実モードなど)でコンピュータ生成コンテンツを表示しているとき、両手が表示生成コンポーネントのハウジング上で検出された場合、コンピューティングシステムは、任意選択的に、特別な動作として、パススルービュー、又は最も近い物理的オブジェクトが仮想コンテンツ内に視覚的に示される特別なモードに切り替わる。ユーザは、ユーザが物理的環境内のユーザの位置がよく分からないとき(例えば、ユーザが何かにぶつかりそうだと恐れているとき)に、両手をHMDのハウジング上に本能的に置くことができ、仮想コンテンツを停止することなく、仮想コンテンツ内の最も近い物理的オブジェクト(単数又は複数)を視覚的に示すことにより、ユーザが没入型体験を完全に停止することなく、自分自身の向きを変えるのを助けることができる。いくつかの実施形態では、コンピューティングシステムは、タッチ入力に従って、表示生成コンポーネント又はオーディオ生成コンポーネントのオーディオ機能を変更する。例えば、第1のタッチ入力に従って、コンピューティングシステムは、第1のオーディオ出力モード(例えば、オーディオパススルーモード又は他のオーディオ出力モード)から第2のオーディオ出力モード(例えば、オーディオ没入モード又は他のオーディオ出力モード)に変化し、かつ/又は第1のオーディオ遮断モード(例えば、ノイズキャンセルなしモード又は他のオーディオ遮断モード)から第2のオーディオ遮断モード(例えば、完全ノイズキャンセルモード又は他のオーディオ遮断モード)に変化する。いくつかの実施形態では、オーディオ出力モードは、タッチ入力によって引き起こされる没入レベルの変化と連動して変更される。
【0189】
いくつかの実施形態では、1つ以上のユーザインタフェースオブジェクト(例えば、
図7O~
図7Qのユーザインタフェースオブジェクト7060及び7064)及び/又はコンピュータ生成体験(例えば、
図7O及び
図7Pの仮想オーバーレイ7062及び仮想ボール7066)を表示している間に、コンピューティングシステムは、タッチ入力が検出されることを停止したことを検出し、コンピューティングシステムは、任意選択的に、ユーザインタフェースオブジェクト及び/又はコンピュータ生成体験を表示することを停止する。
【0190】
いくつかの実施形態では、2つ以上の表示生成コンポーネントが同じハウジングに囲まれている。ユーザに面する表示生成コンポーネントに加えて、別の表示生成コンポーネントが任意選択的に含まれ、ユーザから離れるように向く。いくつかの実施形態では、2つの表示生成コンポーネントを含むコンピューティングシステムが
図7A~
図7Jに関して説明されており、第2の表示生成コンポーネントは、任意選択的に、第1の表示生成コンポーネント及び第1の表示生成コンポーネントの表示面を見ているユーザの状態に関連する状態情報及び/又はコンテキスト情報を表示するために使用される。いくつかの実施形態では、タッチ入力に応じて、第1の表示生成コンポーネントのプライバシーモードのオン/オフ状態が変更され、コンピューティングシステムは、タッチ入力、及びプライバシーモードの変化に従って、第2の表示生成コンポーネント上に示される状態情報を調整する。いくつかの実施形態では、コンピューティングシステムは、コンピュータ生成体験に関連付けられた没入レベルの変化が第1の表示生成コンポーネントのハウジング(及び任意選択的に、また第2の表示生成コンポーネントのハウジング)上で検出されたタッチ入力によって引き起こされたときに、第1の表示生成コンポーネントを介して示されるコンピュータ生成体験に関連付けられた没入レベルの変化に従って、第2の表示生成コンポーネント上に示される状態情報を調整する。いくつかの実施形態では、状態情報はまた、第1の表示生成コンポーネントの表示面の前のユーザの目の状態を含み、ユーザの目の表現もまた、タッチ入力に応じて更新される。第2の表示生成コンポーネントの状態に加えられる変更の他の態様は、
図7A~
図7Jに関して説明されており、これらは、片手のみが第1の表示生成コンポーネントのハウジング上で検出されたときに第1の表示生成コンポーネントのハウジング上で検出されたタッチ入力の結果としての第1の表示生成コンポーネントの状態の変化に連動して提供される。
【0191】
いくつかの実施形態では、本明細書に記載される各種実施例及び実施形態で使用される入力ジェスチャは、任意選択的に、いくつかの実施形態によると、仮想又は複合現実環境と相互作用するために、ジェスチャの直前又は最中に動作を実行するためにユーザの手全体又は腕をそれらの自然な位置(単数又は複数)及び姿勢(単数又は複数)から離れるように大きく移動させることを任意選択的に必要とせずに、ユーザの指(単数又は複数)を他の指(単数又は複数)又はユーザの手の一部(単数又は複数)に対して移動させることによって実行される離散の小さな運動ジェスチャを含む。
【0192】
いくつかの実施形態では、入力ジェスチャは、センサシステム(例えば、
図1のセンサ190、
図3の画像センサ314)によってキャプチャされるデータ及び信号を解析することによって検出される。いくつかの実施形態では、センサシステムは、1つ以上の撮像センサ(例えば、モーションRGBカメラ、赤外線カメラ、深度カメラなどの1つ以上のカメラ)を含む。例えば、1つ以上の撮像センサは、表示生成コンポーネント(例えば、
図1、
図3、及び
図4の表示生成コンポーネント120(例えば、ディスプレイ及びタッチ感知面として機能するタッチスクリーンディスプレイ、立体ディスプレイ、パススルー部分を有するディスプレイなど))を含むコンピューティングシステム(例えば、
図1のコンピューティングシステム101(例えば、ポータブル電子デバイス7100又はHMD))のコンポーネントである、又は上記コンピューティングシステムにデータを提供する。いくつかの実施形態では、1つ以上の撮像センサは、デバイスのディスプレイとは反対側のデバイスの側に1つ以上の後面カメラを含む。いくつかの実施形態では、入力ジェスチャは、ヘッドマウントシステムのセンサシステム(例えば、ユーザの左目の左画像及びユーザの右目の右画像を提供する立体ディスプレイを含むVRヘッドセット)によって検出される。例えば、ヘッドマウントシステムのコンポーネントである1つ以上のカメラは、ヘッドマウントシステムの前側及び/又は下側に取り付けられている。いくつかの実施形態では、1つ以上の撮像センサは、撮像センサがヘッドマウントシステム及び/又はヘッドマウントシステムのユーザの画像をキャプチャするように、ヘッドマウントシステムが使用される空間に配置される(例えば、部屋内の様々な位置でヘッドマウントシステムの周りに配列される)。いくつかの実施形態では、入力ジェスチャは、ヘッドアップデバイス(例えば、ヘッドアップディスプレイ、グラフィックを表示する能力を有する自動車フロントガラス、グラフィックを表示する能力を有する窓、グラフィックを表示する能力を有するレンズ)のセンサシステムによって検出される。例えば、1つ以上の撮像センサは、自動車の内面に取り付けられる。いくつかの実施形態では、センサシステムは、1つ以上の深度センサ(例えば、センサアレイ)を含む。例えば、1つ以上の深度センサは、1つ以上の光ベースの(例えば、赤外線)センサ及び/又は1つ以上の音響ベースの(例えば、超音波)センサを含む。いくつかの実施形態では、センサシステムは、光エミッタ(例えば、赤外線エミッタ)及び/又は音声エミッタ(例えば、超音波エミッタ)などの1つ以上の信号エミッタを含む。例えば、光(例えば、所定パターンを有する赤外光エミッタアレイからの光)が手(例えば、手7200)に投射されている間、光の照明下の手の画像が1つ以上のカメラによってキャプチャされ、キャプチャされた画像が手の位置及び/又は構成を判定するために解析される。タッチ感知面又は他の直接接触機構又は近接ベースの機構の信号を使用することと対照的に、手に向けられた画像センサからの信号を使用して入力ジェスチャを判定することで、ユーザは、特定の入力デバイス又は入力領域によって課せられる制約を経験せずに、手で入力ジェスチャを提供するときに、大きな運動を実行するか、又は相対的に静止状態を保つかを自由に選択することができる。
【0193】
いくつかの実施形態では、マイクロタップ入力は、ユーザの手の人差し指上の(例えば、親指に隣接する人差し指の側部上の)親指のタップ入力を示す。いくつかの実施形態では、人差し指の側部から親指を持ち上げる必要なく、タップ入力が検出される。いくつかの実施形態では、タップ入力は、親指の下方移動の後に親指の上方移動が続き、親指が閾値時間未満、人差し指の側部と接触しているという判定に従って検出される。いくつかの実施形態では、タップホールド入力は、親指が上昇位置からタッチダウン位置まで移動し、少なくとも第1の閾値時間(例えば、タップ時間閾値又はタップ時間閾値よりも長い別の時間閾値)、タッチダウン位置に留まるという判定に従って検出される。いくつかの実施形態では、コンピューティングシステムは、人差し指上の親指によるタップホールド入力を検出するために、手全体が、少なくとも第1の閾値時間、ある位置で実質的に静止したままであることを必要とする。いくつかの実施形態では、タッチホールド入力は、手が実質的に静止したままであることを必要とせずに検出される(例えば、親指が人差し指の側部に置かれている間、手全体が移動することができる)。いくつかの実施形態では、タップホールドラッグ入力は、親指が人差し指の側部にタッチし、親指が人差し指の側部に静止している間に手全体が移動するときに検出される。
【0194】
いくつかの実施形態では、マイクロフリックジェスチャは、人差し指を横切る親指の移動(例えば、人差し指の掌側から後側への)プッシュ又はフリック入力を示す。いくつかの実施形態では、親指の伸長移動は、例えば、親指による上方フリック入力のように、人差し指の側部から離れる上方移動を伴う。いくつかの実施形態では、人差し指は、親指が前方及び上方に移動する間、親指の方向と反対方向に移動する。いくつかの実施形態では、逆フリック入力は、伸長位置から後退位置に移動する親指によって実行される。いくつかの実施形態では、人差し指は、親指が後方及び下方に移動する間、親指の方向と反対方向に移動する。
【0195】
いくつかの実施形態では、マイクロスワイプジェスチャは、人差し指に沿った(例えば、親指に隣接する人差し指の側部又は掌の側部に沿った)親指の移動によるスワイプ入力である。いくつかの実施形態では、人差し指は、任意選択的に、伸長状態(例えば、実質的に直線)又は屈曲状態である。いくつかの実施形態では、人差し指は、スワイプ入力ジェスチャで親指が移動する間、伸張状態と屈曲状態との間を移動する。
【0196】
いくつかの実施形態では、様々な指の異なる指骨は、異なる入力に対応する。様々な指(例えば、人差し指、中指、薬指、及び任意選択的に小指)の様々な指骨にわたる親指のマイクロタップ入力は、任意選択的に、異なる動作にマッピングされる。同様に、いくつかの実施形態では、異なるプッシュ又はクリック入力が、異なる指及び/又は指の異なる部分を横切る親指によって実行されて、それぞれのユーザインタフェース接触で異なる動作をトリガすることができる。同様に、いくつかの実施形態では、異なる指に沿って、及び/又は異なる方向に(例えば、指の遠位端又は近位端に向かって)親指によって実行される異なるスワイプ入力が、それぞれのユーザインタフェースコンテキストで異なる動作をトリガする。
【0197】
いくつかの実施形態では、コンピューティングシステムは、タップ入力、フリック入力、及びスワイプ入力を、親指の移動のタイプに基づいて異なるタイプの入力として処理する。 いくつかの実施形態では、コンピュータシステムは、所与の入力タイプ(例えば、タップ入力タイプ、フリック入力タイプ、スワイプ入力タイプなど)の異なるサブ入力タイプ(例えば、近位、中間、遠位サブタイプ、又は人差し指、中指、薬指、若しくは小指サブタイプ)として親指によってタップ、タッチ、又はスワイプされる異なる指位置を有する入力を処理する。いくつかの実施形態では、移動する指(例えば、親指)によって実行される移動量、及び/又は指の移動に関連付けられる他の移動の尺度(例えば、速度、初期速度、終了速度、持続時間、方向、移動パターンなど)が使用されて、指入力によってトリガされる動作に定量的に影響を与える。
【0198】
いくつかの実施形態では、コンピュータシステムは、タップスワイプ入力(例えば、親指が他の指へのタッチダウン後に、指の側部に沿ってスワイプする)、タップフリック入力(例えば、親指が他の指へのタッチダウン後に、掌の側部から指の後部まで指を横切ってフリックする)、ダブルタップ入力(例えば、ほぼ同じ位置での指の側部上の2連続タップ)などの、親指による一連の移動を組み合わせた組み合わせ入力タイプを認識する。
【0199】
いくつかの実施形態では、ジェスチャ入力は、親指の代わりに人差し指によって実行される(例えば、人差し指が親指上でタップ又はスワイプを実行するか、又は親指及び人差し指が互いに向かって動いてピンチジェスチャを実行する)。いくつかの実施形態では、手首の移動(例えば、水平方向又は垂直方向での手首のフリック)は、指の移動入力の直前、直後(例えば、閾値時間内)、又は同時に実行されて、手首の移動による修正入力のない指の移動入力と比較して、現在のユーザインタフェースコンテキストで追加の動作、異なる動作、又は修正された動作をトリガする。いくつかの実施形態では、ユーザの顔に面するユーザの掌で実行される指入力ジェスチャは、ユーザの顔と反対に面するユーザの掌で実行される指入力ジェスチャとは異なるタイプのジェスチャとして処理される。例えば、ユーザに面するユーザの掌で実行されるタップジェスチャは、ユーザの顔と反対に面するユーザの掌で実行されるタップジェスチャに応答して実行される動作(例えば、同じ動作)と比較して、プライバシー保護が追加(又は低減)された動作を実行する。
【0200】
1つのタイプの指入力を使用して、本開示で提供される実施例において動作タイプをトリガすることができるが、他の実施形態では、同じタイプの動作をトリガするために、他のタイプの指入力が任意選択的に使用される。
【0201】
図7A~
図7Qに関する追加の説明は、以下の
図8~
図13に関して記載された方法8000、9000、10000、11000、12000、及び13000を参照して以下に提供される。
【0202】
図8は、いくつかの実施形態による、コンピュータ生成環境と、コンピュータ生成環境に関連付けられた状態情報及びコンピュータ生成環境を閲覧する位置にいるユーザに関連付けられた状態情報と、を表示する方法8000のフローチャートである。
【0203】
方法8000は、第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムに関する。第1の表示生成コンポーネントは、第1の表示生成コンポーネントを介して提示されたコンテンツを閲覧する位置にいるユーザにコンピュータ生成体験を提供する、コンピュータ生成環境を表示する(例えば、ユーザは、表示生成コンポーネントの表示面(例えば、プロジェクタによって照明されている物理的環境の面、ユーザの網膜上に画像を形成する光を発するディスプレイの面)に面している)。第1の表示生成コンポーネントは、任意選択的に、コンピュータ生成体験が第1の表示生成コンポーネントによって提供されているときに第1の表示生成コンポーネントを介して依然として知覚可能である、周囲の物理的環境からの異なる量の視覚情報及びオーディオ情報に対応する、異なる没入レベルを伴うコンピュータ生成体験を提供する。通常動作中(例えば、ユーザが第1の表示生成コンポーネントを含むHMDを着用し、かつ/又は第1の表示生成コンポーネントの表示面に面しているとき)、第1の表示生成コンポーネントは、ユーザが第1の表示生成コンポーネントを介して示されるコンテンツを閲覧する位置にいるときに、周囲の物理的環境のユーザの直視を遮断し、同時に、ユーザの顔又は目の他者の視野を遮断する。いくつかの実施形態では、第1の表示生成コンポーネントは、HMDがユーザの頭部に配置されたときに、ユーザの目に面するHMDの内部ディスプレイである。従来、ユーザが表示生成コンポーネントを介して示されるコンテンツを閲覧する位置にいるとき、ユーザは、異なる出現レベルを伴うコンピュータ生成環境を表示することの間で切り替えること(例えば、完全なパススルーモード、複合現実モード、又は仮想現実モードの間で切り替えること)によって、物理的環境を見るオプション、又は物理的環境を見ないオプションを有する。しかしながら、表示生成コンポーネントの背面に面する周囲環境内の他者は、ユーザの注意状態、どんなコンテンツが表示生成コンポーネント上に示されているか、並びに/又はユーザが周囲環境及びその中の人々を見ることができるかどうかに関する視覚的手掛かりをほとんど又は全く有さない。表示生成コンポーネントの2つの面における視覚情報(及び任意選択的にオーディオ情報)のこの不均衡は、ユーザと周囲環境内の他者との間での社会的相互作用を不自然かつ非効率的にする。多くの考慮事項は、第2の表示生成コンポーネントを使用して、ユーザ及び/又は第1の表示生成コンポーネントを介してユーザに表示されるコンテンツに関連する状態情報を伝達する適切な量の視覚情報を周囲環境内の人々に表示する、コンピューティングシステムから利益を得ることができる。第2の表示生成コンポーネントによる状態情報の表示は、任意選択的に、第1の表示生成コンポーネントが使用中である限り、表示される、又は任意選択的に、同じ物理的環境内の他の人々の存在を検出したことに応じて、かつ/若しくは(例えば、同じ部屋に入ること、ユーザの方向を見ること、ユーザに手を振ることなどによって)他者がユーザに社会的会話に関与することを望み得るというインジケーションを検出したことに応じて、トリガされる。いくつかの実施形態では、第2の表示生成コンポーネント上に状態情報を示すことは、ユーザの外観の変化(例えば、第1の表示生成コンポーネントによって遮断されるユーザの一部分の変化)に従って動的に更新される、ユーザの一部分(例えば、ユーザが第1の表示生成コンポーネントを介して表示されるコンテンツを閲覧する位置にいるときに、第1の表示生成コンポーネントによって遮断されるユーザの一部分)の表現を表示することを含む。いくつかの実施形態では、状態情報を示すことは、(例えば、ユーザの一部分の表現を示すことと同時に)第1の表示生成コンポーネントを介して現在示されているコンテンツの視覚インジケーションを提供するグラフィック要素を表示することも含む。第2の表示生成コンポーネントを使用して、第1の表示生成コンポーネントを介して示されるコンテンツを閲覧するユーザに関連する更新された状態情報、及びコンテンツの状態に関連付けられたメタデータ(例えば、タイトル、進度、没入レベル、表示モードなど)を表示する、この方法及びシステムは、ユーザがコンピュータ生成体験に関与している間に、しかしコンピュータ生成体験を周囲環境に完全に明らかにすることなく、ユーザの周囲環境内の他者がユーザの現在の状態への有用な洞察を得ることを可能にする。いくつかの実施形態では、第1の表示生成コンポーネントによって遮断されたユーザの一部分(例えば、ユーザの目の又は顔)の表現、及び第1の表示生成コンポーネントを介して表示されるコンテンツの状態を示すグラフィック要素は、第2の表示生成コンポーネントの異なるディスプレイ層上にそれぞれ表示され、互いに独立して更新される。いくつかの実施形態では、第2の表示生成コンポーネントの異なるディスプレイ層上のユーザの一部分の表現及びコンテンツの状態を示すグラフィック要素への更新により、第1の表示生成コンポーネント及び第2の表示生成コンポーネントの両方を収容するヘッドマウントディスプレイデバイスの背後のユーザの状態のより現実的なビューを提供する。第2の表示生成コンポーネント上に示される状態情報により、第1の表示生成コンポーネントを介してコンピュータ生成体験に関与するときに、ユーザが周囲環境内の人々に社会的に接続されたままでいることが可能になる。ユーザの目の状態及びユーザに示されるコンテンツの状態を示す第2の表示生成コンポーネント上の動的に更新された状態情報により、例えば、そのような相互作用がユーザによって所望されるときに適切な社会的相互作用を促進することによって、ユーザが公共又は半公共環境にいるときに、コンピュータ生成体験とのユーザの関与を改善し、社会的に関与するためのユーザの許可についての視覚的手掛かりの欠如に起因する周囲環境内の他者による社会的相互作用の不必要な回避を低減し、コンピュータ生成体験とのユーザの関与を中断する好適な時間を他者に知らせ、邪魔されないままでいたいというユーザの要望についての視覚的手掛かりの欠如に起因するユーザの関与体験への歓迎されない中断を低減する。
【0204】
いくつかの実施形態では、方法8000は、第1の表示生成コンポーネント(例えば、
図7A~
図7Qのディスプレイ7100、HMDの内部ディスプレイなど)と、第2の表示生成コンポーネント(例えば、
図7A~
図7Jのディスプレイ7102、HMDの外部ディスプレイなど)と、1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタン、グローブ、ウォッチ、動きセンサ、向きセンサなど)と、を含むコンピューティングシステム(例えば、
図1のコンピューティングシステム101)において実行される(8002)。いくつかの実施形態では、第1の表示生成コンポーネント及び第2の表示コンポーネントは各々、ヘッドアップディスプレイ、ヘッドマウントディスプレイ(HMD)、ディスプレイ、タッチスクリーン、プロジェクタなどである、又はヘッドアップディスプレイ、ヘッドマウントディスプレイ(HMD)、ディスプレイ、タッチスクリーン、プロジェクタなどの同じハウジングの別個のディスプレイである、かつ/若しくは同じハウジングに囲まれている。いくつかの実施形態では、第1の表示生成コンポーネントは、ユーザに面する表示コンポーネントであり、ユーザにCGR体験を提供し、第2の表示生成コンポーネントは、ユーザから離れて、かつユーザの外部環境に向かって向く表示コンポーネントであり、任意選択的に、第1の表示生成コンポーネント(例えば、表示されたコンテンツ、動作状態など)及び/又はユーザ(例えば、ユーザの目の移動、ユーザの注意状態など)に関連する状態情報を外部環境内の他のユーザに提供する。いくつかの実施形態では、第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、第1の表示生成コンポーネントに対応する第1の面上の第1のユーザインタフェース及び第2の表示生成コンポーネントに対応する第2の面上の第2のユーザインタフェースを表示する両面ディスプレイデバイス(例えば、両面HMD)を形成する。いくつかの実施形態では、コンピューティングシステムは、第1及び第2の表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピューティングシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネント(例えば、サーバ、スマートフォン又はタブレットデバイスなどのモバイル電子デバイス、ウォッチ、リストバンド、又はイヤフォンなどのウェアラブルデバイス、デスクトップコンピュータ、ラップトップコンピュータなど)を含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。いくつかの実施形態では、方法8000は、非一時的コンピュータ可読記憶媒体に記憶され、かつコンピューティングシステム101の1つ以上のプロセッサ202(例えば、
図1Aの制御ユニット110)などのコンピューティングシステムの1つ以上のプロセッサによって実行される、命令によって統制される。方法8000の一部の動作は、任意選択的に組み合わされ、及び/又は一部の動作の順序は、任意選択的に変更される。
【0205】
コンピューティングシステムは、第1の表示生成コンポーネントを介して(例えば、HMDの内部ディスプレイを使用して表示する)、第1のコンピュータ生成環境(例えば、(例えば、仮想コンテンツのみを有する純粋な仮想環境(例えば、VRビュー)を表示する、仮想コンテンツ及び周囲の物理的環境の表現の両方を含む複合現実環境(例えば、コンピューティングシステムの周囲環境のARビュー)を表示する、又は任意の仮想コンテンツなしに周囲の物理的環境の表現(例えば、完全なパススルービュー)を表示する)1つ以上の仮想オブジェクト及び第1の表示生成コンポーネントを取り囲む物理的環境の表現のうちの少なくとも1つを含むコンピュータ生成環境)を表示する(8004)。第1の表示生成コンポーネントを介して第1のコンピュータ生成環境を表示している間に、コンピューティングシステムは、第2の表示生成コンポーネントを介して、第1の表示生成コンポーネントを介して第1のコンピュータ生成環境を閲覧する位置にいる(例えば、ユーザがHMDを着用しており、かつユーザの顔又は目がHMDの内部ディスプレイに面しており、かつHMDがユーザの顔又は目の他者の直視及び周囲環境のユーザの直視を遮断しているときの)、コンピューティングシステムのユーザ(例えば、第1のユーザ7202)の一部分の視覚表現(例えば、
図7A~
図7Eの表現7006)(例えば、視覚表現は、コンピュータ生成画像(例えば、ユーザの目のカメラビューに基づいて生成された現実的な又は様式化された画像)又はユーザの目のカメラビューである)と、第1のコンピュータ生成環境内のコンテンツ(例えば、
図7A~
図7Eのコンテンツ7002)の視覚インジケーションを提供する1つ以上のグラフィック要素(例えば、
図7A~7Eの表現7008、進度バー7004、映画のタイトルなど)(例えば、アイコン、グラフィック、テキスト、色、及び/又はそのアニメーション化された視覚変化)と、を同時に表示する(8006)。ユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することは、ユーザの一部分の視覚表現を変更して(例えば、
図7A~
図7Eの表現7006を変更すること)、個別の期間にわたるユーザの外観の変化(例えば、第1の表示生成コンポーネントに対するユーザの一部分の移動による変化)を表すこと(例えば、個別の期間中の(例えば、ユーザが第1のコンピュータ生成環境を第1の没入レベルで閲覧している(例えば、ユーザは、HMDを介して提供されるパススルービューを介して外部環境を見ることができる)間の)HMDの背後のユーザの目のリアルタイムの移動に従って、ユーザの目のコンピュータ生成画像又はカメラビューへのリアルタイム更新を表示すること)と、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を変更して(例えば、
図7A~
図7Eの表現7008、進度バー7004などを変更すること)、個別の期間にわたる第1のコンピュータ生成環境の変化を表すこと(例えば、個別の期間中に第1のコンピュータ生成環境内で発生するリアルタイム又は周期的変化に従って、1つ以上のグラフィック要素へのリアルタイム又は周期的な更新を表示すること)と、を含む。いくつかの実施形態では、ユーザの一部分の視覚表現は、第1の表示深度でHMDの外部ディスプレイ上に表示され、1つ以上のグラフィック要素は、第1の表示深度とは異なる第2の表示深度(例えば、第2の表示生成コンポーネントの外部の閲覧者から離れてより深い又はより遠い(例えば、ユーザの目の画像は、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を表示する第2のグラフィック層の背後の第1のグラフィック層に表示される))でHMDの外部ディスプレイ上に表示される。いくつかの実施形態では、第1の表示生成コンポーネント及び第2の表示コンポーネントは、それぞれ、同じデバイス(例えば、ヘッドマウントディスプレイ、又は両面ディスプレイデバイス)に統合され、統合デバイスが通常動作中にユーザに対してある位置に配置されたときに(例えば、HMDがユーザの頭に着用され、かつ/又はユーザの目の前に配置されたときに)、第1の表示生成コンポーネントは、ユーザに面し、第2の表示生成コンポーネントは、外部環境に面する。これは、
図7A~
図7Cに示されており、例えば、第1のユーザの一部分の外観の変化及び第1の表示生成コンポーネントを介して表示されるコンピュータ生成体験の変化により、第2の表示生成コンポーネントによって表示される状態情報も変化させる。
【0206】
いくつかの実施形態では、ユーザの一部分の視覚表現を変更して、個別の期間にわたるユーザの外観の変化を表すことは、第1の表示生成コンポーネントに対する第1の方向のユーザの一部分の移動(例えば、眼球又はまぶたの上下移動)に従って、第2の表示生成コンポーネント上に第1の方向の(例えば、上下の、ユーザの一部分の移動と実質的に同じ方向の)ユーザの一部分の視覚表現の移動を表示することと、第1の表示生成コンポーネントに対する、第1の方向に実質的に垂直な第2の方向のユーザの一部分の移動(例えば、眼球の横方向の移動)に従って、第2の方向と実質的に反対の第2の表示生成コンポーネント上の第3の方向のユーザの一部分の視覚表現の移動を表示することと、を含む。例えば、第1の表示生成コンポーネントの表示面の左縁部と第2の表示生成コンポーネントの表示面の右縁部が第1及び第2の表示生成コンポーネントのハウジングの同じ側にあり、かつ第1の表示生成コンポーネントの表示面の右縁部と第2の表示生成コンポーネントの表示面の左縁部が第1及び第2の表示生成コンポーネントのハウジングの同じ側にあるという条件で、眼球が第1の表示生成コンポーネントの表示面の左縁部に向かって移動しているとき、眼球の表現は、第2の表示生成コンポーネントの表示面の右縁部に向かって移動し、眼球が第1の表示生成コンポーネントの表示面の右縁部に向かって移動しているとき、眼球の表現は、第2の表示生成コンポーネントの表示面の左縁部に向かって移動する。例えば、第2の表示生成コンポーネント上の目の画像(例えば、HMDの外部ディスプレイ上に示される)は、ユーザの目の鏡像ではないが、外側から見たときのユーザの目のカメラフィードである。言い換えれば、HMDの外部ディスプレイは、ユーザの目の外部の閲覧者の直視を物理的に遮断している間に、ユーザの目の擬似パススルービューを提供するように機能する。第1の表示生成コンポーネントに対する第1の方向のユーザの一部分の移動に従って、第1の方向の第1のユーザの一部分の視覚表現の移動を表示し、第1の表示生成コンポーネントに対する第2の方向のユーザの一部分の移動に従って、第1の方向に実質的に垂直な第2の方向に実質的に反対の第2の表示生成コンポーネント上の第3の方向のユーザの一部分の視覚表現の移動を表示することにより、改善された視覚フィードバック(例えば、第1又は第2の方向のユーザの一部分の移動に関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0207】
いくつかの実施形態では、ユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することは、視覚表現の第1の表示特性に対して指定された既定の特性値(例えば、80%の不透明度、30%の透明度、25%低減した飽和度、[0.2、0.8]の低減したルミナンス範囲、など)(例えば、1つ以上のグラフィック要素、又はHMDの内部ディスプレイ上に示されるユーザの目の視覚表現を生成するための基礎として機能する1つ以上のカメラによってキャプチャされたときのユーザの目の元の生画像と比較して、低減した不透明度、低減した色飽和度、低減したルミナンス、増加したボケ半径など)に従って、ユーザの一部分の視覚表現を生成することを含む。視覚表現の第1の表示特性に対して指定された既定の特性値に従って、ユーザの一部分の視覚表現を生成することを含む、ユーザの一部分の視覚表現及び1つ以上のグラフィック要素を表示することにより、改善された視覚フィードバックをユーザに提供する(例えば、1つ以上のグラフィック要素と比較してユーザの一部分の視覚表現を視覚的に区別する)。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0208】
いくつかの実施形態では、視覚表現の第1の表示特性に対して指定された既定の特性値は、ユーザの一部分の視覚表現の不透明度の既定の低減量を含む(これは、任意選択的に、ユーザの一部分の視覚表現の半透明度の増加として実施される)。いくつかの実施形態では、ユーザの一部分の視覚表現が不透明度の既定の低減で表示されている間に、第1の表示生成コンポーネント(例えば、HMDの内部ディスプレイ)上に現在示されている第1のコンピュータ生成環境のコンテンツのインジケーションを提供するための1つ以上のグラフィック要素は、不透明度のそのような低減を伴わずに、第2の表示生成コンポーネント(例えば、HMDの外部ディスプレイ)上に表示される。指定されたユーザの一部分の視覚表現の不透明度の既定の低減量に従って、ユーザの一部分の視覚表現を生成することを含む、ユーザの一部分の視覚表現及び1つ以上のグラフィック要素を表示することにより、改善された視覚フィードバックをユーザに提供する(例えば、1つ以上のグラフィック要素と比較してユーザの一部分の視覚表現を視覚的に区別する)。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0209】
いくつかの実施形態では、ユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することは、ユーザの一部分の視覚表現に既定の視覚効果(例えば、ボケフィルタ、カラーフィルタ、ルミナンスフィルタなど)を適用すること(例えば、視覚表現がHMDの内部ディスプレイ上に表示されたときに、ボケフィルタ(例えば、ガウスボケフィルタ)をユーザの目の視覚表現に適用すること)を含む。いくつかの実施形態では、ユーザの一部分の視覚表現が既定の視覚効果(例えば、ボケフィルタ)で表示されている間に、第1の表示生成コンポーネント(例えば、HMDの内部ディスプレイ)上に現在示されている第1のコンピュータ生成環境のコンテンツのインジケーションを提供するための1つ以上のグラフィック要素は、そのような既定の視覚効果なしに(例えば、ボケフィルタなしに)、第2の表示生成コンポーネント(例えば、HMDの外部ディスプレイ)上に表示される。ユーザの一部分の視覚表現に既定の視覚効果を適用することにより、(例えば、1つ以上のグラフィック要素と比較してユーザの一部分の視覚表現を視覚的に区別することによって)改善された視覚フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0210】
いくつかの実施形態では、第2の表示生成コンポーネントを介してユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することは、ユーザの一部分の視覚表現と、第1のコンピュータ生成環境のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素との間に、拡散着色層を表示することを含む。いくつかの実施形態では、ユーザの一部分の視覚表現は、第1のグラフィック層上に表示され、1つ以上のグラフィック要素は、第2のグラフィック層上に表示され、拡散着色層は、第1のグラフィック層と第2のグラフィック層との間にある第3のグラフィック層上に表示され、任意選択的に、第3のグラフィック層は、第2のグラフィック層よりも第1のグラフィック層に近い。ユーザの一部分の視覚表現と第1のコンピュータ生成環境のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素との間に拡散着色層を表示することにより、(例えば、1つ以上のグラフィック要素と比較してユーザの一部分の視覚表現を視覚的に区別することによって)改善された視覚フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0211】
いくつかの実施形態では、第2の表示生成コンポーネントを介してユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することは、ユーザの一部分の視覚表現を第1のグラフィック解像度で表示することと、第1のコンピュータ生成環境のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を第1のグラフィック解像度とは異なる(例えば、より大きい、又はより小さい)第2のグラフィック解像度で表示することと、を含む。いくつかの実施形態では、ユーザの目の表現は、第1のコンピュータ生成環境のコンテンツのインジケーションを提供するための1つ以上のグラフィック要素よりも低い解像度で表示される。ユーザの一部分の視覚表現を第1のグラフィック解像度で表示し、第1のコンピュータ生成環境のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を第1のグラフィック解像度とは異なる第2のグラフィック解像度で表示することにより、(例えば、1つ以上のグラフィック要素と比較してユーザの一部分の視覚表現を視覚的に区別することによって)改善された視覚フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0212】
いくつかの実施形態では、ユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することは、ユーザの外観の第1の変化(例えば、第1の表示生成コンポーネントがユーザの顔に対して適所に固定されている間に、ユーザの眼球又はまぶたが第1の表示生成コンポーネントに対して閾値移動量より多くだけ移動した)が検出された(例えば、既定の基準に従って第1のコンピュータ生成環境内のコンテンツが変更されないまま(例えば、全く変更されない、又は没入レベルが変更されないまま、又はコンテンツのチャプターが変更されないまま、など)でいる間に)との判定に従って、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を変更することなく、ユーザの外観の第1の変化に従ってユーザの一部分の視覚表現を変更すること(例えば、HMDの背後のユーザの目に向いているカメラによってキャプチャされたときのユーザの眼球の実際の移動及び目のまばたきに従って、外部ディスプレイ上に眼球のリアルタイムの移動及びユーザの目のまばたきを示すこと)(例えば、HMDの背後のユーザの目のリアルタイムの移動に従って、ユーザの目のコンピュータ生成画像又はカメラビューへのリアルタイム更新を表示すること(例えば、ユーザによって閲覧される第1のコンピュータ生成環境のコンテンツ及び現在の状態に関する外部閲覧者への情報を提供するオーバーレイを変更することなく、ユーザが第1のコンピュータ生成環境を第1の没入レベルで閲覧している(例えば、ユーザがHMDを介して提供されるパススルービューを介して外部環境を見ることができる)間に))を含む。いくつかの実施形態では、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素は、ユーザの一部分の視覚表現ほど頻繁に更新されないため、1つ以上のグラフィック要素への更新が行われる間のなんらかの時間間隔にわたって、1つ以上のグラフィック要素は、第1のコンピュータ生成環境内のコンテンツが変更されても、変化しない。例えば、ユーザの目の表現は、HMDの背後のユーザの目の移動に従って、外部ディスプレイ上でリアルタイムに更新されるが、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供するグラフィック要素は、20秒、30秒ごとに、又はアクティブなアプリケーションの変化、第1のコンピュータ生成環境の関与若しくは没入レベルの変化などのいくつかの既定のトリガイベントに従って、更新される。第1のコンピュータ生成環境のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を変更することなく、ユーザの外観の第1の変化に従ってユーザの一部分の視覚表現を変更すること(例えば、ユーザの外観の第1の変化に関する改善された視覚フィードバック)。 改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0213】
いくつかの実施形態では、ユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することは、ユーザの外観が変更されないままでいる(例えば、ユーザの目が第1の表示生成コンポーネントに対して閾値量より多くだけ移動していない(例えば、ユーザがまばたきしていない又はユーザの眼球を移動していない))間に、第1のコンピュータ生成環境内のコンテンツの第2の変化(例えば、既定の基準に従って第1のコンピュータ生成環境内のコンテンツが変化した(例えば、全くすべて変化した、又は没入レベルの変化、又は表示されているコンテンツのチャプターの変化など))が検出されたとの判定に従って、ユーザの一部分の視覚表現を変更する(例えば、HMDの背後のユーザの目に向いているカメラによってキャプチャされたときのユーザの目の眼球及びまぶたの実際の静止を示す)ことなく、第1のコンピュータ生成環境内のコンテンツの第2の変化に従って、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素のうちの少なくとも1つを変更すること(例えば、ユーザによって閲覧される第1のコンピュータ生成環境のコンテンツ及び現在の状態に関する外部閲覧者への情報を提供するオーバーレイへの更新を表示すること(例えば、第1の表示コンポーネントを介して表示される映画の進度バーを示すこと、没入レベル、ユーザの注意状態、又は関与レベルの変化に基づいてコンテンツの没入レベル、ユーザの注意状態、又は関与レベルのインジケータへの更新を示すこと、など))を含む。 ユーザの一部分の視覚表現を変更することなく、第1のコンピュータ生成環境内のコンテンツの第2の変化に従って、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素のうちの少なくとも1つを変更することにより、改善された視覚フィードバック(例えば、第1のコンピュータ生成環境内のコンテンツの第2の変化に関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0214】
いくつかの実施形態では、ユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することは、ユーザの外観の第3の変化(例えば、第1の表示生成コンポーネントがユーザの顔に対して適所に固定されている間に、ユーザの眼球又はまぶたが第1の表示生成コンポーネントに対して閾値移動量より多くだけ移動した)が第1のコンピュータ生成環境内のコンテンツの第4の変化とともに検出された(例えば、既定の基準に従って第1のコンピュータ生成環境内のコンテンツが変化した(例えば、全くすべて変化した、又は没入レベルの変化、又は表示されているコンテンツのチャプターの変化、など))との判定に従って、第1のコンピュータ生成環境内のコンテンツの第4の変化に従って、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を変更することと連動して(例えば、同時に、同じ期間中に)、ユーザの外観の第3の変化に従ってユーザの一部分の視覚表現を変更すること(例えば、HMDの背後のユーザの目に向いているカメラによってキャプチャされたときのユーザの眼球の実際の移動及び目のまばたきに従って、外部ディスプレイ上にユーザの眼球のリアルタイムの移動及び目のまばたきを示すこと)(例えば、HMDの背後のユーザの目のリアルタイムの移動に従って、ユーザの目のコンピュータ生成画像又はカメラビューへのリアルタイム更新を表示すること(例えば、ユーザによって閲覧される第1のコンピュータ生成環境のコンテンツ及び現在の状態に関する外部閲覧者への情報を提供するオーバーレイを変更している間に、ユーザが第1のコンピュータ生成環境を第1の没入レベルで閲覧している(例えば、ユーザがHMDを介して提供されるパススルービューを介して外部環境を見ることができる)間に))を含む。 第1のコンピュータ生成環境内のコンテンツの第4の変化に従って、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を変更することと連動して、ユーザの外観の第3の変化に従ってユーザの一部分の視覚表現を変更することにより、改善された視覚フィードバック(例えば、ユーザの外観の第3の変化及び第1のコンピュータ生成環境内のコンテンツの第4の変化に関する改善された視覚フィードバック)をユーザに提供する。
【0215】
いくつかの実施形態では、ユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することは、ユーザの一部分の視覚表現と同時にコンテンツの修正バージョンを表示すること(例えば、ユーザの目の画像の元の又は修正バージョンの上のディスプレイ層に同時に表示されたコンテンツの拡散画像を表示すること)を含み、コンテンツの修正バージョンは、コンテンツの画像に適用されると画像の画像忠実度を低減する(例えば、その結果、画像は、低減した解像度及び/又はより制限されたカラーパレットにより、よりぼかされ、暗くなって、色が落ち着いて、より粒子が粗く見える)1つ以上の画像フィルタ(例えば、1つ以上のボケフィルタ、入力画像又はビデオの解像度、鮮明度、輝度、色飽和度を低減する1つ以上のフィルタなど)を用いて生成される。いくつかの実施形態では、第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を変更して、個別の期間にわたる第1のコンピュータ生成環境の変化を表すことは、コンテンツが変化するにつれて、コンテンツの画像に1つ以上の画像フィルタを適用することによって、コンテンツの修正バージョンを更新することを含む。ユーザの一部分の視覚表現と同時に画像の画像忠実度を低減する1つ以上の画像フィルタを用いて生成されたコンテンツの修正バージョンを表示し、コンテンツが変化するにつれて、コンテンツの画像に画像忠実度を低減する1つ以上の画像フィルタを適用することによって、1つ以上のグラフィック要素を変更して、個別の期間にわたる第1のコンピュータ生成環境の変化を表すことにより、(例えば、1つ以上のグラフィック要素と比較してユーザの一部分の視覚表現を視覚的に区別することによって)改善された視覚フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0216】
いくつかの実施形態では、ユーザの一部分の視覚表現は、ユーザの目の画像(例えば、第1の表示生成コンポーネントの前のユーザの目のカメラビュー、ユーザの目のカメラビューの修正された(例えば、ぼかされた、拡散した、暗くなった、かつ/又は低減した不透明度など)バージョン)を含む。ユーザの目の画像を含むユーザの一部分の視覚表現を表示することにより、(例えば、ユーザの一部分の視覚表現を視覚的に区別することによって、ユーザの一部分(例えば、ユーザの目)の検出された移動に関する改善された視覚フィードバックを提供することによって)改善された視覚フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0217】
いくつかの実施形態では、ユーザの一部分の視覚表現は、ユーザの目の1つ以上の画像に基づいて生成された仮想オブジェクト(例えば、複数の二次元画像又は三次元モデルである一対の仮想目)を含み、仮想オブジェクトの外観(例えば、色、サイズ、構造など)及び移動(例えば、まぶた及び眼球の移動など)は、コンピューティングシステムの1つ以上のセンサによってキャプチャされたユーザの目の外観及び移動に対応する(例えば、第1の表示生成コンポーネントの前のユーザの目のカメラビューに基づいて、ユーザの目のアニメバージョンが生成され、ユーザの目のアニメバージョンが、ユーザの目に向いているカメラによってキャプチャされたときのユーザの目の移動に従って移動する)。仮想オブジェクトの外観及び移動が1つ以上のセンサによってキャプチャされたユーザの目の外観及び移動に対応する、ユーザの目の1つ以上の画像に基づいて生成された仮想オブジェクトを含むユーザの一部分の視覚表現を表示することにより、(例えば、ユーザの一部分の視覚表現を視覚的に区別することによって、ユーザの目の検出された外観及び移動に関する改善された視覚フィードバックを提供することによって)改善された視覚フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0218】
いくつかの実施形態では、ユーザの一部分の視覚表現を変更して、個別の期間にわたるユーザの外観の変化を表すことは、ユーザに対応するアイトラッキングデータ(例えば、ユーザの眼球の移動、並びにユーザの視線の焦点の方向及び位置)(例えば、アイトラッキングデータは、任意選択的に、ユーザの目に向いている1つ以上のカメラによってキャプチャされて、ユーザの視線を判定し、かつ第1の表示生成コンポーネントを介して表示されたコンテンツと相互作用するための入力として使用される)を取得することと、ユーザに対応するアイトラッキングデータに基づいて、ユーザの一部分の視覚表現を更新すること(例えば、アイトラッキングデータに従って、ユーザの一部分(例えば、ユーザの顔又は目の近くの領域)の視覚表現内のユーザの目の移動を表すこと)と、を含む。ユーザに対応するアイトラッキングデータを取得することを含む、ユーザの一部分の視覚表現を変更して、個別の期間にわたるユーザの外観の変化を表し、ユーザに対応するアイトラッキングデータに基づいて、ユーザの一部分の視覚表現を更新することにより、改善された視覚フィードバックをユーザに提供する(例えば、ユーザに対応するアイトラッキングデータに基づいて、ユーザの目の外観及び移動に関するより正確な視覚フィードバックを提供する)。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0219】
図8における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法9000、10000、11000、12000、及び13000)に関して本明細書で記載された他のプロセスの詳細はまた、
図8に関連して上述された方法8000に類似の方法で適用可能であることも留意されたい。例えば、方法8000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記述した他の方法(例えば、方法9000、10000、11000、12000、及び13000)を参照して本明細書に記述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
【0220】
図9は、いくつかの実施形態による、コンピュータ生成環境と、コンピュータ生成環境に関連付けられた状態情報及びコンピュータ生成環境を閲覧する位置にいるユーザに関連付けられた状態情報と、を表示する方法9000のフローチャートである。
【0221】
方法9000はまた、第1の表示生成コンポーネント及び第2の表示生成コンポーネントを有するコンピューティングシステムに関する。上述のように、多くの考慮事項は、第2の表示生成コンポーネントを使用して、ユーザ及び第1の表示生成コンポーネントを介してユーザに表示されるコンテンツに関連する状態情報を伝達する適切な量の視覚情報を周囲環境内の他の人々に表示する、コンピューティングシステムから利益を得ることができる。いくつかの実施形態では、状態情報は、第1の表示生成コンポーネントが使用中である限り、第2の表示生成コンポーネント上に表示される。いくつかの実施形態では、状態情報は、同じ物理的環境内の他の人々の存在を検出したことに応じて、かつ/又は同じ物理的環境内の他者がユーザに社会的会話に関与することを望み得る(例えば、同じ部屋に入ること、ユーザの方向を見ること、ユーザに手を振ることなどによって)というなんらかのインジケーションを検出したことに応じて、のみ表示される。第2の表示生成コンポーネント上に状態情報を示すことは、任意選択的に、ユーザの一部分(例えば、ユーザが第1の表示生成コンポーネントを介して表示されるコンテンツを閲覧する位置にいるときに、第1の表示生成コンポーネントによって遮断されるユーザの一部分)の表現を表示することと、第1の表示生成コンポーネントを介して現在示されているコンテンツの視覚インジケーションを提供するグラフィック要素を表示することと、を含む。更に、いくつかの実施形態では、ユーザの一部分の表現は、第1の表示生成コンポーネントを介して表示されるコンピュータ生成体験の没入レベルの変化と連動して、更新される。第2の表示生成コンポーネントを使用して、第1の表示生成コンポーネントを介して示されるコンテンツを閲覧するユーザに関連し、かつユーザによって閲覧されるコンテンツに関連する、状態情報を表示し、コンテンツの提供に関連付けられた没入レベルの変化に従って、ユーザの一部分の表現の外観を更新することを含む、状態情報を更新する、この方法及びシステムは、コンピュータ生成体験を周囲環境に完全に明らかにすることなく、ユーザがコンピュータ生成体験に関与している間に、ユーザの周囲環境内の他者がユーザの現在の状態への有用な洞察を得ることを可能にする。いくつかの実施形態では、第1の表示生成コンポーネントによって遮断されたユーザの一部分(例えば、ユーザの目の又は顔)の表現への更新、及び第1の表示生成コンポーネントによって表示されるコンテンツの状態を示すグラフィック要素への更新は、異なるディスプレイ層上に示され、互いに独立して更新される。異なるディスプレイ層上にユーザの一部分の表現及びコンテンツの状態を示すグラフィック要素を表示することにより、第1の表示生成コンポーネント及び第2の表示生成コンポーネントの両方を収容するヘッドマウントディスプレイデバイスの背後のユーザの状態のより現実的なビューを提供する。いくつかの実施形態では、第2の表示生成コンポーネントを介して示される(例えば、ユーザの表現及びコンテンツの状態を示すグラフィック要素を含む)状態情報は、任意選択的に、ユーザ及びユーザと同じ物理的環境内の他者の異なる必要性に対応するコンピューティングシステムの多くの異なる使用モードの視覚インジケーションを提供する。これにより、コンピュータ生成体験に関与するときに、ユーザが周囲環境内の人々に社会的に接続されたままでいることが可能になる。ユーザの目の状態及びユーザに示されるコンテンツの状態を示す第2の表示生成コンポーネント上の動的に更新された状態情報により、例えば、そのような相互作用がユーザによって所望されるときに適切な社会的相互作用を促進することによって、ユーザが公共又は半公共環境にいるときに、コンピュータ生成体験とのユーザの関与を改善し、社会的に関与するためのユーザの許可についての視覚的手掛かりの欠如に起因する周囲環境内の他者による社会的相互作用の不必要な回避を低減し、コンピュータ生成体験とのユーザの関与を中断する好適な時間を他者に知らせ、邪魔されないままでいたいというユーザの要望についての視覚的手掛かりの欠如に起因するユーザの関与体験への歓迎されない中断を低減する。
【0222】
いくつかの実施形態では、方法9000は、第1の表示生成コンポーネント(例えば、ディスプレイ7100、HMDの内部ディスプレイなど)と、第2の表示生成コンポーネント(例えば、ディスプレイ7102、HMDの外部ディスプレイなど)と(例えば、第1の表示生成コンポーネント及び第2の表示コンポーネントはそれぞれ、ヘッドアップディスプレイ、ヘッドマウントディスプレイ(HMD)、ディスプレイ、タッチスクリーン、プロジェクタなどである、又は、ヘッドアップディスプレイ、ヘッドマウントディスプレイ(HMD)、ディスプレイ、タッチスクリーン、プロジェクタなどの同じハウジングの別個のディスプレイである、かつ/若しくは同じハウジングに囲まれている)、1つ以上の入力デバイス(カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタン、グローブ、ウォッチ、動きセンサ、向きセンサなど)と、を含むコンピューティングシステム(例えば、
図1のコンピューティングシステム101)において実行される(9002)。いくつかの実施形態では、第1の表示生成コンポーネントは、ユーザに面する表示生成コンポーネントであり、ユーザにCGR体験を提供し、第2の表示生成コンポーネントは、ユーザから離れて、かつユーザの外部環境に向かって向く表示生成コンポーネントであり、第1の表示生成コンポーネント(例えば、表示されたコンテンツ、動作状態など)及び/又はユーザ(例えば、ユーザの目の移動、ユーザの注意状態など)に関連する状態情報を外部環境内の他のユーザに提供する。いくつかの実施形態では、第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、第1の表示生成コンポーネントに対応する第1の面上の第1のユーザインタフェース及び第2の表示生成コンポーネントに対応する第2の面上の第2のユーザインタフェースを表示する両面ディスプレイデバイス(例えば、両面HMD)を形成する。いくつかの実施形態では、コンピューティングシステムは、第1及び第2の表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピューティングシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネント(例えば、サーバ、スマートフォン又はタブレットデバイスなどのモバイル電子デバイス、ウォッチ、リストバンド、又はイヤフォンなどのウェアラブルデバイス、デスクトップコンピュータ、ラップトップコンピュータなど)を含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。
【0223】
方法9000では、コンピューティングシステムは、第1の表示生成コンポーネントを介して(例えば、HMDの内部ディスプレイ又はユーザに面する第1のディスプレイなどを使用して表示する)、コンピュータ生成環境(例えば、
図7A~
図7Eのコンテンツ7002)を表示する(9004)(例えば、仮想コンテンツのみを有する純粋な仮想環境(例えば、VRビュー)を表示する、仮想コンテンツ及び周囲の物理的環境の表現の両方を含む複合現実環境(例えば、ARビュー)を表示する、又は任意の仮想コンテンツを有さない周囲の物理的環境の表現(例えば、完全なパススルービュー)を表示する)。第1の表示生成コンポーネントを介してコンピュータ生成環境を表示している間に、コンピューティングシステムは、第1の表示生成コンポーネントを介してコンピュータ生成環境を閲覧する位置にいるコンピューティングシステムのユーザ(例えば、第1のユーザ7202)の一部分の視覚表現(例えば、表現7006)と、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素(例えば、表現7008、進度バー7004など)とを同時に表示することを含む、第2の表示生成コンポーネントを介してコンピューティングシステムに対応する状態情報(例えば、表現7006、表現7008、進度バー7004など)を表示する(9006 )(例えば、HMDの外部ディスプレイ、又はユーザの顔から離れて外部環境に面する第2のディスプレイを使用して状態情報を表示する)。コンピューティングシステムは、個別のイベントを検出する(9008)(例えば、第1の表示生成コンポーネントを介してコンピュータ生成環境を表示し、かつ第2の表示生成コンポーネントを介してコンピューティングシステムに対応する状態情報(例えば、視覚表現と1つ以上のグラフィック要素の同時表示を含む)を表示している間に(例えば、コンピュータ生成環境が第1の没入レベル(例えば、現実モード又はパススルーモード)より大きく、かつ第3の没入レベル(例えば、仮想現実モード)より小さい、第2の没入レベル(例えば、複合現実モード、又は仮想現実モード中に提供される一時的なパススルーモード)で提供されている間に)、コンピューティングシステムは、個別のイベント(例えば、コンピュータ生成環境の没入の変化をトリガするイベント)を検出する)。個別のイベントを検出した(例えば、コンピュータ生成体験の自然な終了を検出した、通知を検出した、現在のモードを中断又は終了するユーザ入力を検出した)ことに応じて(9010)、コンピューティングシステムは、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを変更し(例えば、より没入するモードに変更する、又はより没入しないモードに変更する、又は1つ以上の特別なモードのうちの特別なモードに変更する)、コンピューティングシステムは、コンピューティングシステムのユーザの一部分の視覚表現の外観を変更すること(例えば、ユーザの一部分の視覚表現の視認性を増加又は減少させること(例えば、ユーザの視覚表現の視認性を減少させることは、ユーザの一部分の視覚表現を表示することを完全に停止することを含む))を含む、第2の表示生成コンポーネントを介して表示される状態情報を変更する(例えば、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素の外観を変更する(例えば、1つ以上のグラフィック要素の視認性を増加又は減少させる(例えば、視認性を減少させることは、表示することを停止することを含む)、1つ以上のグラフィック要素を変形させる、など)又は追加のグラフィック要素を表示する、など)。これは、
図7C~
図7Eに示されており、第1の表示生成コンポーネントを介して表示されるコンピュータ生成体験の没入レベルを変更することにより、第2の表示生成コンポーネントによって表示される状態情報も変化させる。
【0224】
いくつかの実施形態では、コンピューティングシステムは、少なくとも第1の没入レベル、第2の没入レベル、及び第3の没入レベルでコンピュータ生成環境を表示するように構成されている(例えば、コンピューティングシステムは、一連の1つ以上のイベント(例えば、アプリケーション又は体験の自然な終了又は進行、ユーザ入力に応じた体験の開始、停止、又は一時停止、など)に応じて、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境を異なる没入レベル間で遷移させる)。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、コンピュータ生成環境内に存在する仮想コンテンツの量を増加させること、及び/又はコンピュータ生成環境内に存在する周囲の物理的環境の表現の量を減少させることに対応する。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、コンピュータ生成コンテンツの増加した画像忠実度及び/又は空間範囲(例えば、角度範囲、空間深度など)、並びに周囲の物理的環境の表現の減少した画像忠実度及び/又は空間範囲を有する、コンテンツ表示の異なるモードに対応する。いくつかの実施形態では、第1の没入レベルは、物理的環境が第1の表示生成コンポーネントを介して(例えば、物理的環境のカメラビューとして、又は第1の表示生成コンポーネントの透明部分を介して)ユーザに完全に見えるパススルーモードであり、コンピュータ生成環境は、物理的環境のビューとして同時に見える最小量の仮想要素を有する、又は物理的環境のユーザのビューの周辺の仮想要素(例えば、ディスプレイの周辺領域に表示されたインジケータ及びコントロール)を含む、物理的環境のパススルービューを含む。いくつかの実施形態では、第2の没入レベルは、物理的環境のパススルービューがコンピューティングシステムによって生成された仮想要素で拡張され、かつ、物理的環境のユーザのビューの中央部分に対応するコンピュータ生成環境内の位置を有し、かつ/又は物理的環境内の位置及びオブジェクトに対応するコンピュータ生成環境内の位置を有する(例えば、仮想コンテンツがコンピュータ生成環境のビュー内の物理的環境と統合される)複合現実モードである。いくつかの実施形態では、第3の没入レベル は、物理的環境のそのユーザのビューが第1の表示生成コンポーネントによって提供される仮想コンテンツのビューによって完全に置き換えられる又は遮断される、仮想現実モードである。いくつかの実施形態では、異なる4つの没入レベルが存在し、第1の没入レベルは、第1の表示生成コンポーネントのパススルーモードに対応し、第2の没入レベルは、第1の表示生成コンポーネントの2つの別個のサブモードに対応する2つのサブレベルA及びB(例えば、物理的環境のパススルービューがユーザインタフェース又はユーザインタフェースオブジェクトの背景に表示されている間にユーザインタフェース又はユーザインタフェースオブジェクトがユーザの視野の主要部分に表示されている第2のレベル-A、及び仮想要素が物理的環境の拡張現実ビュー内の物理的環境内の物理的オブジェクトの表現と統合される第2のレベル-B)を含み、第3の没入レベルは、第1の表示生成コンポーネントの仮想現実モードに対応する。コンピュータ生成環境を少なくとも第1の没入レベル、第2の没入レベル、及び第3の没入レベルで表示することにより、改善された視覚フィードバック(例えば、個別のイベントが検出されたという改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0225】
いくつかの実施形態では、個別のイベントを検出したことに応じて、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを変更することは、個別のイベントが第1の基準を満たす(例えば、第1の基準は、コンピュータ生成環境が第2の没入レベルで現在表示されており、かつ個別のイベントが、ユーザがユーザの両手をHMDの側面に置いてコンピューティングシステムによって提供される複合現実又は拡張現実体験を一時停止させることを検出することを含むときに満たされる)イベントであるとの判定に従って、コンピュータ生成環境を第2の没入レベルで表示することからコンピュータ生成環境を第1の没入レベルで表示することに切り替えること(例えば、複合現実モード又は拡張現実モードから完全なパススルーモードに切り替えること)と、個別のイベントが第1の基準と異なる第2の基準を満たす(例えば、第2の基準は、コンピュータ生成環境が第2の没入レベルで現在表示されており、かつ個別のイベントが仮想現実体験を開始させるユーザ入力を検出することを含むときに満たされる)イベントであるとの判定に従って、コンピュータ生成環境を第2の没入レベル(例えば、複合現実のモードのサブモードB)で表示することからコンピュータ生成環境を第3の没入レベル(例えば、仮想現実モード)で表示するに切り替えることと、を含む。いくつかの実施形態では、個別のイベントを検出したことに応じて、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを変更することは、個別のイベントが第3の基準を満たす(例えば、第3の基準は、コンピュータ生成環境が第3の没入レベルで現在表示されており、かつ個別のイベントが、ユーザがユーザの両手をHMDの側面に置いてコンピューティングシステムによって提供される仮想体験を一時停止させることを検出すること、又は仮想現実体験の終了を引き起こすユーザ入力を検出すること(例えば、グラフィカルユーザインタフェース(例えば、ホーム画面、アプリケーション起動ユーザインタフェース)又はユーザインタフェースオブジェクト(例えば、アプリケーション起動アイコン、コンテンツアイテム及び体験の表現など)をユーザの視野の主要部分に再表示すること、又は仮想現実体験の拡張現実バージョンに戻るユーザ入力を検出すること、又は仮想現実コンテンツが物理的環境のパススルービューと共に表示され続けている間に、物理的環境のパススルービューを一時的にアクティブ化するユーザ入力(例えば、ユーザがユーザの手を探す姿勢でHMDの上縁部の上に置くこと)を検出すること)を含むときに満たされる)イベントであるとの判定に従って、コンピュータ生成環境を第3の没入レベル(例えば、仮想現実モード)で表示することからコンピュータ生成環境を第2の没入レベル(例えば、複合現実モード、又は、任意選択的に仮想現実コンテンツの同時表示を伴う、一時的パススルーモード)で表示することに切り替えることを含む。いくつかの実施形態では、コンピュータ生成環境が第1の没入レベルで現在表示されており、かつ、コンピュータシステムによって提供されるアプリケーション又は体験が選択される前に、ユーザがHMDを着用した、かつ/又はHMDをユーザの頭部に着けて座った後にユーザの手をHMDから外すことをコンピューティングシステムが検出したときに、コンピューティングシステムは、コンピュータ生成環境を第1の没入レベルで表示することからコンピュータ生成環境を第2の没入レベルで表示することに切り替える(例えば、完全なパススルーモードから複合現実モード(例えば、複合現実モードのサブモードA)に切り替える、又はグラフィカルユーザインタフェース(例えば、ホーム画面、アプリケーション起動ユーザインタフェース)若しくはユーザインタフェースオブジェクト(例えば、アプリケーション起動アイコン、コンテンツアイテム及び体験の表現など)の表示をユーザの視野の主要部分に表示させる)。個別のイベントが第1の基準を満たすイベントであるとの判定に従って、コンピュータ生成環境を第2の没入レベルで表示することからコンピュータ生成環境を第1の没入レベルで表示することに切り替え、個別のイベントが第1の基準とは異なる第2の基準を満たすイベントであるとの判定に従って、コンピュータ生成環境を第2の没入レベルで表示することからコンピュータ生成環境を第3の没入レベルで表示することに切り替えることにより、追加の表示されるコントロール(例えば、第2の没入レベルから第1の没入レベルに切り替えることから、又は第2の没入レベルから第3の没入レベルに切り替えるための、追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0226】
いくつかの実施形態では、(例えば、一連の1つ以上のイベントの第1のイベントに応じて)第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを変更することは、コンピュータ生成環境を第2の没入レベル(例えば、第2の没入レベルは、複合現実モード(例えば、第2の没入レベルのサブモードA、第2の没入レベルのサブモードB、物理的環境の拡張現実ビュー)に対応する)で表示することからコンピュータ生成環境を第1の没入レベル(例えば、第1の没入レベルは、現実モード又は完全なパススルーモードに対応する)で表示することに切り替えることを含み、第1の没入レベルで表示されるコンピュータ生成環境は、閾値量未満のコンピュータ生成コンテンツを有する(例えば、仮想コンテンツなし、又はディスプレイの周辺領域の仮想コントロール及び状態情報のみを有する)物理的環境のビューを提供する。 いくつかの実施形態では、第2の没入レベルでのコンピュータ生成環境は、閾値量より多いコンピュータ生成コンテンツを有する(例えば、ディスプレイの中央部分に、かつ/又は物理的環境内の物理的表面及びオブジェクトの表現と視覚的に統合された、ユーザインタフェース又はユーザインタフェースオブジェクトを有する)物理的環境のビューを提供する。いくつかの実施形態では、(例えば、一連の1つ以上のイベントの第1のイベントに応じて)第2の表示生成コンポーネントを介して表示される状態情報を変更することは、コンピュータ生成環境を第2の没入レベルで表示することからコンピュータ生成環境を第1の没入レベルで表示することに切り替えることと連動して(例えば、複合現実モードから現実モード又はパススルーモードに切り替えることと連動して)、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素とともにコンピューティングシステムのユーザの一部分の視覚表現を表示することから、1つ以上のグラフィック要素なしでユーザの一部分の視覚表現を表示することに切り替えることを含む(例えば、第1の表示生成コンポーネント上で複合現実モードから現実モード又は完全なパススルーモードに切り替えるときに、第2の表示生成コンポーネントは、ユーザの目の表現とともに第1の表示生成コンポーネント上に示されるコンテンツの状態インジケータを表示することから、ユーザによって閲覧されているコンテンツの状態インジケータなしにユーザの目の表現のみを表示することに切り替える)。コンピュータ生成環境を第2の没入レベルで表示することからコンピュータ生成環境を第1の没入レベルで表示することに切り替えるときに、閾値量未満のコンピュータ生成コンテンツを有する物理的環境のビューを表示し、表示される状態情報を変更することと連動して、コンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素とともにコンピューティングシステムのユーザの一部分の視覚表現を表示することから、1つ以上のグラフィック要素なしにユーザの一部分の視覚表現を表示することに切り替えることにより、改善された視覚フィードバック(例えば、現在の没入レベルに関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0227】
いくつかの実施形態では、コンピューティングシステムは、コンピュータ生成環境が第1の表示生成コンポーネント(及び第2の表示生成コンポーネント)を取り囲む物理的環境の表現及び少なくとも閾値量の仮想オブジェクトを含む複合現実環境であるとの判定に従って、ユーザの一部分の視覚表現(例えば、ユーザの目の又は目の近くの顔の一部分の表現)とコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素(例えば、第1の表示生成コンポーネントを介して示されるコンテンツの拡散バージョンである仮想オーバーレイ)を同時に表示する(例えば、コンピューティングシステムは、(例えば、AR体験が第1の表示生成コンポーネント(例えば、HMDの内部ディスプレイ)を介して提供されるときの)物理的環境の表現と少なくとも閾値量の仮想オブジェクトの同時存在がコンピュータ生成環境内に起こって第2の没入レベルを引き起こすとき、第2の表示生成コンポーネント(例えば、HMDの外部ディスプレイ)を介して、第1の表示生成コンポーネントを介して表示されているコンテンツのヒントを示すオーバーレイとともにユーザの目のリアルタイム画像を表示する)。コンピュータ生成環境が第1の表示生成コンポーネントを取り囲む物理的環境の表現及び少なくとも閾値量の仮想オブジェクトを含む複合現実環境であるとの判定に従って、ユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することにより、改善された視覚フィードバック(例えば、第1の表示生成コンポーネントを取り囲む物理的環境及び少なくとも閾値量の仮想オブジェクトに関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0228】
いくつかの実施形態では、(例えば、一連の1つ以上のイベントの第2のイベントに応じて)第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを変更することは、コンピュータ生成環境を第2の没入レベル(例えば、第2の没入レベルは、複合現実モード(例えば、第2の没入レベルのサブモードA、第2の没入レベルのサブモードB、物理的環境の拡張現実ビュー)に対応する)で表示することからコンピュータ生成環境を第3の没入レベル(例えば、第3の没入レベルは、仮想現実モードに対応する)で表示することに切り替えることを含み、第3の没入レベルで表示されるコンピュータ生成環境は、閾値量未満の物理的環境の表現を有する(例えば、カメラビュー若しくは物理的環境のパススルービューなし、又は物理的環境の名前、位置、及び/若しくは天気を説明するテキスト情報のみを有する)仮想環境(例えば、仮想三次元環境)を提供する。いくつかの実施形態では、第2の没入レベルで表示されるコンピュータ生成環境は、閾値量より多いコンピュータ生成コンテンツ(例えば、ディスプレイの中央部分に、かつ/又は物理的環境内の物理的表面及びオブジェクトの表現と視覚的に統合された、ユーザインタフェース又はユーザインタフェースオブジェクトを有する)及び閾値量より多い物理的環境の表現(例えば、カメラビュー又は第1の表示生成コンポーネントの透明パススルー部分を介したビューを含む)を有する物理的環境のビューを提供する。いくつかの実施形態では、(例えば、一連の1つ以上のイベントの第2のイベントに応じて)第2の表示生成コンポーネントを介して表示される状態情報を変更することは、コンピュータ生成環境を第2の没入レベルで表示することからコンピュータ生成環境を第3の没入レベルで表示することに切り替えることと連動して(例えば、複合現実モードから仮想現実モードに切り替えることと連動して)、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素とともにコンピューティングシステムのユーザの一部分の視覚表現を表示することから、ユーザの一部分の視覚表現なしで1つ以上のグラフィック要素を表示することに切り替えることを含む(例えば、第1の表示生成コンポーネント上で複合現実モードから仮想現実モードに切り替えるときに、第2の表示生成コンポーネントは、ユーザの目の表現とともに第1の表示生成コンポーネント上に示されるコンテンツの状態インジケータを表示することから、ユーザの目の表現を表示することなしに、ユーザによって閲覧されているコンテンツの状態インジケータのみを表示することに切り替える)。1つ以上のグラフィック要素をとともにユーザの一部分の視覚表現を表示することからユーザの一部分の視覚表現なしで1つ以上のグラフィック要素を表示することに切り替えることと連動して、コンピュータ生成環境を第2の没入レベルで表示することからコンピュータ生成環境を物理的環境の閾値量未満の表現を有する仮想環境を提供する第3の没入レベルで表示することに切り替えることにより、改善された視覚フィードバック(例えば、変更された没入レベル及び変更された状態情報に関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0229】
いくつかの実施形態では、第1の表示生成コンポーネントを介してコンピュータ生成環境を表示し、かつ第2の表示生成コンポーネントを介してコンピューティングシステムに対応する状態情報を表示している間に(例えば、第1没入レベル(例えば、現実モード又はパススルーモード)より大きく、かつ第3の没入レベル(例えば、例えば、仮想現実モード)より小さい第2の没入レベル(例えば、複合現実モード、又は仮想現実モード中に提供される一時的なパススルーモード)でコンピュータ生成環境が提供されている間に)、コンピューティングシステムは、コンピューティングデバイスのプライバシーモードをアクティブ化する第1のユーザ要求を検出し(例えば、(例えば、ユーザがHMD上にブラインドを引き下ろしているかのように)ピンチジェスチャで維持される手の下方移動であるユーザ入力を検出する、又はプライベートモードをアクティブ化する要求(例えば、第1の表示生成コンポーネント上にその後に表示される全てのアプリケーションに適用されるシステム要求、又は現在表示されているアプリケーションに適用されるアプリケーション固有の要求)に対応するコンピュータ生成環境内のコントロールをアクティブ化するユーザ入力を検出する、又はユーザがコンピュータ生成環境内の「プライベート」とマークされたコンテンツにアクセスしているとき、など)、プライバシーモードは、第2の表示生成コンポーネントを介して表示される1つ以上のグラフィック要素(例えば、第1の表示生成コンポーネントを介して現在示されているコンピュータ生成環境のコンテンツに基づいて生成され、かつそのコンテンツを反映するオーバーレイ)が第1の閾値視認性未満の視認性(例えば、閾値未満の解像度、輝度、不透明度、及び/若しくは鮮明度、閾値量より大きいぼかし、又は全く表示されない若しくは見えない)を有することを必要とする。第1のユーザ要求を検出したことに応じて、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素の視認性がプライバシーモードに対応する第1の閾値視認性を上回っている間に、第1のユーザ要求が受信されたとの判定に従って、コンピューティングシステムは、第2の表示生成コンポーネント上の1つ以上のグラフィック要素の視認性をプライバシーモードに対応する第1の閾値視認性を下回って減少させる(例えば、フェードアウトさせる、更にぼかす、より半透明にする、又はコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を表示することを停止する)。第1のユーザ要求を検出したことに応じて、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素の視認性がプライバシーモードに対応する第1の閾値視認性を上回らない間に、第1のユーザ要求が受信されたとの判定に従って、コンピューティングシステムは、1つ以上のグラフィック要素の視認性をプライバシーモードに対応する第1の閾値視認性を下回って維持する(例えば、1つ以上のグラフィック要素を表示しない、又はそれらを最小限に見えて、かつ変更されないで維持する)。いくつかの実施形態では、プライバシーモードがアクティブである間に、1つ以上のグラフィック要素は、コンピュータ生成環境のコンテンツが第1の表示生成コンポーネント上で変化し続ける場合でも、表示されない、又は、第2の表示生成コンポーネント上に最小限の情報を表示し、かつ変更されないままである状態になる。1つ以上のグラフィック要素の視認性がプライバシーモードに対応する第1の閾値視認性を上回っている間に、プライバシーモードをアクティブ化する第1のユーザ要求が受信されたとの判定に従って、第2の表示生成コンポーネント上の1つ以上のグラフィック要素の視認性をプライバシーモードに対応する第1の閾値視認性を下回って減少させ、1つ以上のグラフィック要素の視認性がプライバシーモードに対応する第1の閾値視認性を上回らない間に、プライバシーモードをアクティブ化する第1のユーザ要求が受信されたとの判定に従って、1つ以上のグラフィック要素の視認性をプライバシーモードに対応する第1の閾値視認性を下回って維持することにより、追加の表示されるコントロール(例えば、1つ以上のグラフィック要素の視認性を減少させる又は維持するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0230】
いくつかの実施形態では、プライバシーモードは、第2の表示生成コンポーネントを介して表示されるユーザの一部分の視覚表現が第2の閾値視認性未満の視認性(例えば、閾値未満の解像度、輝度、不透明度、及び/若しくは鮮明度、閾値量より大きいぼかし、又は全く表示されない若しくは見えない)を有することを必要とする。いくつかの実施形態では、第1のユーザ要求を検出したことに応じて、ユーザの一部分の視覚表現の視認性がプライバシーモードに対応する第2の閾値視認性を上回っている間に、第1のユーザ要求が受信されたとの判定に従って、コンピューティングシステムは、第2の表示生成コンポーネント上のユーザの一部分の視覚表現の視認性をプライバシーモードに対応する第2の閾値視認性を下回って減少させる(例えば、フェードアウトさせる、更にぼかす、より半透明にする、又はユーザの目の表現を表示することを停止する)。いくつかの実施形態では、第1のユーザ要求を検出したことに応じて、ユーザの一部分の視覚表現の視認性がプライバシーモードに対応する第2の閾値視認性を上回らない間に、第1のユーザ要求が受信されたとの判定に従って、ユーザの一部分の視覚表現の視認性をプライバシーモードに対応する第2の閾値視認性を下回って維持する(例えば、ユーザの目の表現を表示しない、又はそれを最小限に見えて、かつ変更されないで維持する)。いくつかの実施形態では、プライバシーモードがアクティブである間、ユーザの目の視覚表現は、目が第1の表示生成コンポーネントの背後で移動し続ける場合でも、表示されない、又は、第2の表示生成コンポーネント上で最小限に見えており、かつ/若しくは変更されないままである状態になる。ユーザの一部分の視覚表現の視認性がプライバシーモードに対応する第2の閾値視認性を上回っている間に、第1のユーザ要求が受信されたとの判定に従って、第2の表示生成コンポーネント上のユーザの一部分の視覚表現の視認性をプライバシーモードに対応する第2の閾値視認性を下回って減少させ、ユーザの一部分の視覚表現の視認性がプライバシーモードに対応する第2の閾値視認性を上回らない間に、第1のユーザ要求が受信されたとの判定に従って、ユーザの一部分の視覚表現の視認性をプライバシーモードに対応する第2の閾値視認性を下回って維持することにより、追加の表示されるコントロール(例えば、ユーザの一部分の視認性を減少させる又は維持するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0231】
いくつかの実施形態では、プライバシーモードがコンピューティングシステム上でアクティブである間に、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを変更する(例えば、第2の没入レベルから第1の没入レベルに、第2の没入レベルから第3の没入レベルに、第3の没入レベルから第2の没入レベルに、第3の没入レベルから第1の没入レベルに、第1の没入レベルから第3の没入レベルに、など変更する)第2の個別のイベントを検出する。第2の個別のイベント及び第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルの対応する変化を検出したことに応じて、コンピューティングシステムは、第2の表示生成コンポーネントを介して表示される状態情報を変更することを取り止める(例えば、第2の表示生成コンポーネント上の1つ以上のグラフィック要素の現在の視認性(例えば、最小限の視認性又は全く見えない)及び外観を変更することを取り止める、かつ第2の表示生成コンポーネント上のユーザの目の視覚表現の現在の視認性(例えば、最小限の視認性又は全く見えない)及び外観を変更することを取り止める)。第2の個別のイベント及びコンピュータ生成環境の没入レベルの対応する変化を検出したことに応じて、かつプライバシーモードがコンピューティングシステム上でアクティブである間に、第2の表示生成コンポーネントを介して表示される状態情報を変更することを取り止めることにより、第2の表示生成コンポーネントを介して表示される状態情報を変更することを取り止めるために必要な入力の数を低減する(例えば、ユーザは、プライバシーモードがアクティブである間に、第2の表示生成コンポーネントを介して表示される状態情報への変更を防止する又は元に戻すために追加の入力を実行する必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0232】
いくつかの実施形態では、第1の表示生成コンポーネントを介してコンピュータ生成環境を表示している間に(例えば、コンピュータ生成環境が第2の没入レベル(例えば、複合現実モード、又は仮想現実モード中に提供される一時的なパススルーモード)又は第3の没入レベル(例えば、仮想現実モード)で提供されており、かつ第2の表示生成コンポーネントが状態情報(例えば、ユーザの目の視覚表現及び第1の表示生成コンポーネントを介して現在表示されているコンピュータ生成環境のコンテンツを示すグラフィック要素)を表示している間に)、コンピューティングシステムは、コンピューティングデバイスのサイレント(DND)モードをアクティブ化する第2のユーザ要求を検出する(例えば、HMDの前面を覆う手であるユーザ入力を検出する、又はサイレントモードをアクティブ化する要求(例えば、第1の表示生成コンポーネント上にその後に表示される全てのアプリケーションに適用されるシステム要求、又は現在表示されているアプリケーションに適用されるアプリケーション固有の要求)に対応する、コンピュータ生成環境内のコントロールをアクティブ化するユーザ入力を検出する、又はユーザが「DND」フラグでマークされたコンテンツにアクセスしているとき、など)。いくつかの実施形態では、コンピューティングデバイスのDNDモードをアクティブ化する第2の要求を検出したことに応じて、コンピューティングシステムは、任意選択的に、コンピューティングシステム又は他のアプリケーション(例えば、現在表示されているコンピュータ生成環境に対応するアプリケーションとは異なるアプリケーション、又はアプリケーション(例えば、以前にユーザによって指定された重要ではないアプリケーションなど)の選択されたサブセットなど)によって生成された通知をミュートする、若しくは表示することを取り止めること、又はそれらをより煩わしくない方法で表示すること(例えば、ポップアップ通知を表示することからバッジを表示すること又はブザー音を提供することなどに変更すること、オーディオ警告を出力することからオーディオ警告を出力しないことに変更すること、など)によって、コンピュータ生成体験への中断を低減する。いくつかの実施形態では、DNDモードをアクティブ化する第2の要求を検出したことに応じて、コンピューティングシステムは、着信通信要求(例えば、着信通話、着信チャット要求など)のオーディオ警告及び/又は視覚警告を自動的にオフにし、任意選択的に、着信通信要求に対応するコンピューティングシステムのボイスメールシステム又は自動応答機能をアクティブ化することによって、着信通信要求に応答する。いくつかの実施形態では、DNDモードをアクティブ化する第2の要求を検出したことに応じて、コンピューティングシステムは、ノイズキャンセルシステム又は他の機構をオンにして、周囲環境から第1のユーザの耳に伝搬するノイズ又は音を低減する。いくつかの実施形態では、DNDモードをアクティブ化する第2の要求を検出したことに応じて、コンピューティングシステムは、第1の表示生成コンポーネントを介してコンピュータ生成体験が表示される没入レベルを増加させる。いくつかの実施形態では、上述した複数の動作は、第2のユーザ要求を検出したことに応じて実行される。いくつかの実施形態では、第2のユーザ要求を検出したことに応じて(かつ任意選択的に、DNDモードをアクティブ化するために実行される1つ以上の他の動作を実行することと連動して)、コンピューティングシステムは、第2の表示生成コンポーネントを介して視覚インジケータ(例えば、HMDの外部ディスプレイ上のテキストラベル「DND」、HMDの外部ディスプレイの周囲に赤色縁部が点灯される、など)を表示し、DNDモードがアクティブであることを示す。コンピューティングデバイスのDNDモードをアクティブ化する第2のユーザ要求を検出したことに応じて、DNDモードがアクティブであることを示す視覚インジケータを表示することにより、改善された視覚フィードバック(例えば、DNDモードがアクティブであるという改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0233】
いくつかの実施形態では、DNDモードがコンピューティングシステム上でアクティブである間に、コンピューティングシステムは、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを変更する(例えば、第2の没入レベルから第1の没入レベルに、第2の没入レベルから第3の没入レベルに、第3の没入レベルから第2の没入レベルに、第3の没入レベルから第1の没入レベルに、第1の没入レベルから第3の没入レベルに、など変更する)第3の個別のイベントを検出する。第3の個別のイベント及び第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルの対応する変化を検出したことに応じて、コンピューティングシステムは、第2の表示生成コンポーネントを介して表示される状態情報を変更することを取り止める(例えば、第2の表示生成コンポーネント上の1つ以上のグラフィック要素の現在の視認性(例えば、通常の視認性、最小限の視認性、又は全く見えない)及び外観を変更することを取り止める、かつ第2の表示生成コンポーネント上のユーザの目の視覚表現の現在の視認性(例えば、通常の視認性、最小限の視認性、又は全く見えない)及び外観を変更することを取り止める)。第3の個別のイベント及び没入レベルの対応する変化を検出したことに応じて、かつDNDモードがコンピューティングシステム上でアクティブである間に、第2の表示生成コンポーネントを介して表示される状態情報を変更することを取り止めることにより、第2の表示生成コンポーネントを介して状態情報を表示するために必要な入力の数を低減する(例えば、ユーザは、DNDモードがアクティブである間に、表示される状態情報への任意の変更を防止する又は元に戻すために追加の入力を実行する必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0234】
いくつかの実施形態では、第1の表示生成コンポーネントを介してコンピュータ生成環境を表示している間に(例えば、コンピュータ生成環境が第2の没入レベル(例えば、複合現実モード、又は仮想現実モード中に提供される一時的なパススルーモード)又は第3の没入レベル(例えば、仮想現実モード)で提供されている間に)、コンピューティングシステムは、コンピューティングデバイスのペアレンタルコントロールモードをアクティブ化する第3のユーザ要求を検出する(例えば、HMDのハウジング上の指紋入力であるユーザ入力を検出する、又はペアレンタルコントロールモードをアクティブ化する要求(例えば、第1の表示生成コンポーネント上にその後に表示される全てのアプリケーションに適用されるシステム要求、又は現在表示されているアプリケーションに適用されるアプリケーション固有の要求)に対応する、コンピュータ生成環境内のコントロールをアクティブ化するユーザ入力を検出する、又はユーザがコンピュータ生成環境内の「制御されている」としてマークされたコンテンツにアクセスしているとき、又は制御しているデバイス(例えば、親のモバイルデバイス)からリモート要求が受信されたとき、など)。ペアレンタルコントロールモードは、第2の表示生成コンポーネントを介して表示される1つ以上のグラフィック要素(例えば、第1の表示生成コンポーネントを介して現在示されているコンピュータ生成環境のコンテンツに基づいて生成される、かつそれを反映するオーバーレイ)が第3の閾値視認性より大きい視認性(例えば、閾値より大きい解像度、輝度、不透明度、及び/若しくは鮮明度、閾値量未満のぼかし、又は第1の表示生成コンポーネント上に示されるものと同一のコンテンツを示すこと)を有することを必要とする。第3のユーザ要求を検出したことに応じて、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素の視認性がペアレンタルコントロールモードに対応する第3の閾値視認性未満である間に、第3のユーザ要求が受信されたとの判定に従って、コンピューティングシステムは、第2の表示生成コンポーネント上の1つ以上のグラフィック要素の視認性をペアレンタルコントロールモードに対応する第3の閾値視認性を上回って増加させる(例えば、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素の忠実度及び解像度を増加させる、又は1つ以上のグラフィック要素の代わりに、コンピュータ生成環境のコンテンツを表示する)。いくつかの実施形態では、第3のユーザ要求に応じて、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素の視認性がペアレンタルコントロールモードに対応する第3の閾値視認性を既に上回っている間に、第3のユーザ要求が受信されたとの判定に従って、コンピューティングシステムは、1つ以上のグラフィック要素の視認性をペアレンタルコントロールモードに対応する第3の閾値視認性を上回って維持する。いくつかの実施形態では、ペアレンタルコントロールモードがアクティブである間に、コンピュータ生成環境のコンテンツは、第1の表示生成コンポーネント及び第2の表示生成コンポーネントの両方上に表示され、第1の表示生成コンポーネント及び第2の表示生成コンポーネントの両方上で変化し続ける。いくつかの実施形態では、ペアレンタルコントロールモードは、第1の表示生成コンポーネントを介して表示されたるコンテンツを閲覧する位置にいるユーザ以外の人(例えば、親、教師、監督者、管理者など)によって(例えば、コンピュータ生成体験が開始される前に、又はコンピュータ生成体験が表示されている間に、のいずれかで)有効にされる。ペアレンタルコントロールモードは、第1の表示生成コンポーネントの表示面が第1の表示生成コンポーネントの物理的ハードウェアから離れて面しており、かつ/又はそれによって遮断されており、かつコンテンツが外部閲覧者に見えないときに、親、教師、監督者、管理者が第1の表示生成コンポーネント(例えば、HMDの内部ディスプレイ)上で発生する活動を監視することを可能にする。1つ以上のグラフィック要素の視認性がペアレンタルコントロールモードに対応する第3の閾値視認性未満である間に、ペアレンタルコントロールモードをアクティブ化する第3のユーザ要求が受信されたとの判定に従って、1つ以上のグラフィック要素の視認性をペアレンタルコントロールモードに対応する第3の閾値視認性を上回って増加させることにより、1つ以上のグラフィック要素の視認性を第3の閾値視認性を上回って増加させるために必要な入力の数を低減する(例えば、ユーザは、ペアレンタルコントロールモードをアクティブ化する別個の入力及び1つ以上のグラフィック要素の視認性を増加させる別個の入力を実行する必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0235】
いくつかの実施形態では、ペアレンタルコントロールモードがコンピューティングシステム上でアクティブである間に、コンピューティングシステムは、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを変更する(例えば、第2の没入レベルから第1の没入レベルに、第2の没入レベルから第3の没入レベルに、第3の没入レベルから第2の没入レベルに、第3の没入レベルから第1の没入レベルに、第1の没入レベルから第3の没入レベルに、など変更する)第4の個別のイベントを検出する。第4の個別のイベント及び第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルの対応する変化を検出したことに応じて、コンピューティングシステムは、第2の表示生成コンポーネントを介して表示される状態情報を変更することを取り止める(例えば、現在の視認性を変更することを取り止める(例えば、コンピュータ生成環境のコンテンツの完全な視認性を維持する)、かつ第2の表示生成コンポーネント上のユーザの目の視覚表現の現在の視認性(例えば、通常の視認性、最小限の視認性、又は全く見えない)及び外観を変更することを取り止める)。第4の個別のイベント及び没入レベルの対応する変化を検出したことに応じて、かつペアレンタルコントロールモードがコンピューティングシステム上でアクティブである間に、第2の生成コンポーネントを介して表示される状態情報を変更することを取り止めることにより、第2の表示生成コンポーネントを介して状態情報を表示するために必要な入力の数を低減する(例えば、ユーザは、ペアレンタルコントロールモードがアクティブである間に、表示される状態情報への任意の変更を防止する又は元に戻すために追加の入力を実行する必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0236】
いくつかの実施形態では、ユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することは、第1の深度でユーザの一部分の視覚表現を表示することと、第2の表示生成コンポーネントを介して表示される状態情報(例えば、ユーザの一部分の視覚表現及び1つ以上のグラフィック要素を含む)の外部視点から第1の深度よりも小さい第2の深度で1つ以上のグラフィック要素を表示することと、を含む。例えば、状態情報の閲覧者が第2の表示生成コンポーネントの周りを移動するときに、閲覧者は、閲覧者からのユーザの一部分の視覚表現と1つ以上のグラフィック要素の異なる深度、(例えば、シミュレートされた視差効果)により、ユーザの一部分の視覚表現が1つ以上のグラフィック要素に対して移動するのを見る。第1の深度でユーザの一部分の視覚表現を表示することと、状態情報の外部視点から第1の深度よりも小さい第2の深度で1つ以上のグラフィック要素を表示することと、を含む、ユーザの一部分の視覚表現と1つ以上のグラフィック要素を同時に表示することにより、(例えば、ユーザの一部分と1つ以上のグラフィック要素を深度によって視覚的に区別することによって)改善された視覚フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0237】
いくつかの実施形態では、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素は、少なくとも、第1の表示生成コンポーネントを介して表示されるときのコンピュータ生成環境内のコンテンツの進度を示す進度インジケータを含む。例えば、メディアアイテムがコンピュータ生成環境内で再生されている場合、進度インジケータは、任意選択的に、メディアアイテムの全持続時間に対するメディアアイテムの現在の再生位置を示す進度バー(例えば、本の現在のページ/章、映画の現在の再生位置、ゲームの現在のチャプター又はタスク番号、テストの現在の問題番号などを示す進度バー)を表示する。少なくとも、第1の表示生成コンポーネントを介して表示されるときのコンピュータ生成環境内のコンテンツの進度を示す進度インジケータを含む、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を表示することにより、(例えば、コンピュータ生成環境内のコンテンツの進度に関する)改善された視覚フィードバックをユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0238】
いくつかの実施形態では、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素は、その値がコンピュータ生成環境内のコンテンツの第1の表示特性の値に基づく(が、それとは異なる)、第1の表示特性(例えば、色、輝度など)を有する。例えば、コンテンツがほとんど青色を含む場合、第2の表示生成コンポーネントを介して示されるオーバーレイも、ほとんど青色を有し、コンテンツがほとんどピンク色に変化する場合、オーバーレイも、ほとんどピンク色に変化する。いくつかの実施形態では、オーバーレイは、コンピュータ生成環境内のコンテンツの画像に適用される広いボケ半径を有するボケフィルタを使用することによって生成され、その結果、オブジェクトの輪郭は、はっきりと見えないが、大きなパッチの色及びコンテンツの色調全体は、第2の表示生成コンポーネントを介して示されるオーバーレイ上に大部分は保存される。その値がコンピュータ生成環境内のコンテンツの第1の表示特性の値に基づく、第1の表示特性でコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を表示することにより、改善された視覚フィードバック(例えば、コンピュータ生成環境内のコンテンツの第1の表示特性に関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0239】
いくつかの実施形態では、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素は、コンピュータ生成環境のコンテンツの1つ以上のサブ部分を含む(例えば、コンテンツの画像の小片がスクランブルをかけられる、又はコンテンツの画像の1つ以上のサブ部分が第2の表示生成コンポーネントを介して示される)。例えば、いくつかの実施形態では、コンピュータ生成環境のコンテンツの画像は、既定のサイズ及び/又は形状の小片に分割され、この小片は、1つ以上のスクランブルアルゴリズムに従ってスクランブルをかけられ、小片のサイズは、異なるコンテンツ(例えば、シーンの変化)が、閲覧者がそれらを見分けるのに十分な差を有するスクランブルをかけられた画像をもたし得るように十分に大きく、かつコンテンツの正確な画像が閲覧者に識別可能でないように十分に小さい。いくつかの実施形態では、コンピュータ生成環境のコンテンツの視覚インジケーションは、オーバーレイの周りを移動する小さなスポットライトによって提供され、オーバーレイの一部分に対応するコンテンツを、スポットライトによって照らし、オーバーレイの閲覧者に見えるようにする。コンピュータ生成環境内のコンテンツの1つ以上のサブ部分を含む、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を表示することにより、改善された視覚フィードバック(例えば、コンピュータ生成環境のコンテンツに関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0240】
いくつかの実施形態では、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素は、コンピュータ生成環境のコンテンツを識別するメタデータを含む。例えば、コンテンツが映画である場合、1つ以上のグラフィック要素は、任意選択的に、映画のタイトル、映画のジャンル、映画の年などを含む。コンテンツがゲームである場合、1つ以上のグラフィック要素は、任意選択的に、ゲームのタイトル、ゲームの現在のチャプター、ゲームの製作者などを含む。コンテンツがテストである場合、メタデータは、テストの主題、テストの合計持続時間、受験者の名前などを含む。コンピュータ生成環境のコンテンツを識別するメタデータを含む、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を表示することにより、改善された視覚フィードバック(例えば、コンピュータ生成環境のコンテンツを識別するメタデータに関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0241】
いくつかの実施形態では、コンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素を表示することは、第2の表示生成コンポーネントに対する第2の表示生成コンポーネントを介して表示される状態情報を閲覧する位置にいる第2のユーザの第1の移動(例えば、ユーザ及び/又は第1の表示生成コンポーネントに向かう又はそれから離れる移動)を検出することと、第2の表示生成コンポーネントに対する第2のユーザの第1の移動を検出したことに応じて、第2のユーザと第2の表示生成コンポーネントとの間の距離が第1の閾値距離の上から第1の閾値距離の下まで減少したとの判定に従って、1つ以上のグラフィック要素の表示を更新して、1つ以上のグラフィック要素によって提供されるコンピュータ生成環境内のコンテンツの視覚インジケーションの情報密度を増加させることと、を含む。いくつかの実施形態では、第2の表示生成コンポーネントに対する第2のユーザの第1の移動を検出したことに応じて、第2のユーザと第2の表示生成コンポーネントとの間の距離が第1の閾値距離の下から第1の閾値距離の上まで増加したとの判定に従って、1つ以上のグラフィック要素の表示を更新して、1つ以上のグラフィック要素によって提供されるコンピュータ生成環境内のコンテンツの視覚インジケーションの情報密度を減少させる。いくつかの実施形態では、2つ以上の閾値距離に対して、情報密度の3つ以上のレベル が、1つ以上のグラフィック要素によって提供される。いくつかの実施形態では、第2の表示生成コンポーネントに対する第2のユーザの移動が第2のユーザと第2の表示生成コンポーネントとの間の距離を個別の距離閾値を横切らせない場合、視覚インジケーションの情報密度は、第2のユーザの移動の結果として変更されない。いくつかの実施形態では、情報密度は、オーバーレイ内に存在するインジケータオブジェクトの数に基づいて判定され、インジケータオブジェクトの数の低減は、情報密度の低減に対応する。いくつかの実施形態では、情報密度は、1つ以上のグラフィック要素によって提供される情報詳細の量(例えば、グラフィック特徴の詳細、単位表示領域当たりのテキスト文字の量など)に基づいて判定され、情報詳細の量の低減は、情報密度の低減に対応する。いくつかの実施形態では、情報密度は、1つ以上のグラフィック要素の鮮明度及び解像度に基づいて判定され、1つ以上のグラフィック要素の鮮明度及び解像度の低減は、情報密度の低減に対応する。第2の表示生成コンポーネントに対する第2のユーザの第1の移動を検出したことに応じて、1つ以上のグラフィック要素の表示を更新して、1つ以上のグラフィック要素によって提供されるコンテンツの視覚インジケーションの情報密度を増加させることにより、1つ以上のグラフィック要素を快適に表示するために必要な入力の数を低減する(例えば、ユーザは、第2のユーザが第2の表示生成コンポーネントに対して移動するときに、コンテンツの視覚インジケーションの情報密度を調整する追加の入力を実行する必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0242】
いくつかの実施形態では、第1の表示生成コンポーネントを介してコンピュータ生成環境を表示し、かつ第2の表示生成コンポーネントを介してコンピューティングシステムに対応する状態情報を表示している間に、コンピューティングシステムは、第2の表示生成コンポーネントを介して表示される状態情報を閲覧する位置にいる第3のユーザによってトリガされる第5の個別のイベント(例えば、第3のユーザの移動、存在、ジェスチャなど)を検出する。第5の個別のイベント(例えば、ユーザ及び/又は第1の表示生成コンポーネントに向かう又はそれから離れる移動、コンピューティングシステムのユーザと同じ部屋にいる第3のユーザの存在、第3のユーザのジェスチャなど)を検出したことに応じて、第5の個別のイベントが第4の基準(例えば、第4の基準は、コンピューティングシステムのユーザと第3のユーザとの間の相互作用が発生することになる可能性の閾値尺度を提供する)であって、第4の基準が満たされるために、第5の個別のイベントの結果として相互作用の事前設定された尺度が事前設定された閾値の下から事前設定された閾値の上まで増加したこと、及びコンピュータ生成環境が第3の没入レベル(例えば、仮想現実モード)で表示されていることを必要とする、第4の基準を満たすとの判定に従って、コンピューティングシステムは、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを第3の没入レベル(例えば、仮想現実モード)から第2の没入レベルに変更し(例えば、より没入しないモード(例えば、複合現実モード)に変更する、又は一時的なパススルーモードに変更して、仮想コンテンツは進行し続ける)、第2の没入レベルで表示されるコンピュータ生成環境は、第3の没入レベルで表示されるコンピュータ生成環境よりも物理的環境の増加した量の表現を含む(例えば、第3のユーザの表現は、第2の没入レベルで表示されるコンピュータ生成環境内に第1の表示生成コンポーネントを介して表示され、第3のユーザの表現は、第3の没入レベル で表示されるコンピュータ生成環境内に第1の表示生成コンポーネントを介して表示されない)。第5の個別のイベントを検出したことに応じて、かつ、第5の個別のイベントが、第5の個別のイベントの結果として相互作用の事前設定された尺度が事前設定された閾値の下から事前設定された閾値の上に増加したこと、及びコンピュータ生成環境が第3の没入レベルで表示されていることを必要とする第4の基準を満たすとの判定に従って、第3の没入レベルから、第3の没入レベルと比較して物理的環境の増加した量の表現を含む第2の没入レベルに没入レベルを変更することにより、更なるユーザ入力(例えば、没入レベルを変更する更なるユーザ入力、物理的環境の表現の量を増加させる更なるユーザ入力など)を必要とすることなく、条件のセットが満たされたときに、没入レベルを変更する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0243】
いくつかの実施形態では、第5の個別のイベント(例えば、ユーザ及び/又は第1の表示生成コンポーネントに向かう又はそれから離れる移動、コンピューティングシステムのユーザと同じ部屋内の第3のユーザの存在、第3のユーザのジェスチャなど)を検出したことに応じて、第5の個別のイベントが第4の基準(例えば、第4の基準は、コンピューティングシステムのユーザと第3のユーザとの間の相互作用が発生することになる可能性の閾値尺度を提供する)を満たすとの判定に従って、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを第3の没入レベルから第2の没入レベルに変更することと連動して、コンピューティングシステムは、コンピューティングシステムのユーザの一部分の視覚表現の視認性を増加させることを含む、第2の表示生成コンポーネントを介して表示される状態情報を変更する(例えば、ユーザの視覚表現の視認性を増加させることは、ユーザの一部分の視覚表現を表示しないことからユーザの一部分の視覚表現を表示することに切り替えること、又はユーザの一部分の視覚表現の輝度、鮮明度、解像度を増加させることを含む)。コンピュータ生成環境の没入レベルを第3の没入レベルから第2の没入レベルに変更することと連動して、かつ第4の基準を満たす第5の個別のイベントを検出したことに応じて、コンピューティングシステムのユーザの一部分の視覚表現の視認性を増加させることを含む、表示される状態情報を変更することにより、更なるユーザ入力(例えば、状態情報を変更する更なるユーザ入力、ユーザの一部分の視覚表現の視認性を増加させる更なるユーザ入力など)を必要とすることなく、条件のセットが満たされたときに、表示される状態情報を変更する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0244】
いくつかの実施形態では、第5の個別のイベントを検出することは、コンピューティングシステムのユーザを取り囲む既定の領域内への第3のユーザの立ち入りを検出することを含む。例えば、第3のユーザがコンピューティングシステムのユーザと同じ部屋に入るとき、又は第3のユーザがコンピューティングシステムのユーザの閾値距離内に移動するとき、かつ/又は第3のユーザがコンピューティングシステムのユーザに接近しているときなど、コンピューティングシステムは、コンピュータ生成環境のコンテンツの没入レベルを変更して、ユーザが第1の表示生成コンポーネントを介して表示されたコンピュータ生成環境内の第3のユーザの表現を見ることを可能にする(例えば、コンピュータ生成環境のコンテンツに落とされた影として、又は物理的環境のパススルービューの一部として)。同時に、ユーザの目の表現は、第2の表示生成コンポーネントを介して表示され、その結果、第3のユーザは、コンピューティングシステムのユーザが第3のユーザを見ることができることを認識する。コンピュータ生成環境の没入レベルを第3の没入レベルから第2の没入レベルに変更することと連動して、かつ、第4の基準を満たし、かつコンピューティングシステムのユーザを取り囲む既定の領域内への第3のユーザの立ち入りを検出することを含む、第5の個別のイベントを検出したことに応じて、コンピューティングシステムのユーザの一部分の視覚表現の視認性を増加させることを含む、表示される状態情報を変更することにより、更なるユーザ入力(例えば、状態情報を変更する更なるユーザ入力、ユーザの一部分の視覚表現の視認性を増加させる更なるユーザ入力など)を必要とすることなく、条件のセットが満たされたときに、表示される状態情報を変更する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0245】
いくつかの実施形態では、第5の個別のイベントを検出することは、第3のユーザがコンピューティングシステムのユーザに向かって既定のジェスチャを実行する(例えば、ユーザの手を振る、又は人差し指で指すなど)ことを検出することを含む。例えば、第3のユーザがコンピューティングシステムのユーザに手を振るとき(例えば、第3のユーザがコンピューティングシステムのユーザと同じ部屋に入った後、又は第3のユーザがコンピューティングシステムのユーザの閾値距離内に移動するとき、かつ/又は第3のユーザがコンピューティングシステムのユーザに接近しているときなど)、コンピューティングシステムは、コンピュータ生成環境のコンテンツの没入レベルを変更して、ユーザが第1の表示生成コンポーネントを介して表示されたコンピュータ生成環境内の第3のユーザの表現を見ることを可能にする(例えば、コンピュータ生成環境のコンテンツに落とされた影として、又は物理的環境のパススルービューの一部として)。同時に、ユーザの目の表現は、第2の表示生成コンポーネントを介して表示され、その結果、第3のユーザは、コンピューティングシステムのユーザが第3のユーザを見ることができることを認識する。コンピュータ生成環境の没入レベルを第3の没入レベルから第2の没入レベルに変更することと連動して、かつ、第4の基準を満たし、かつ第3のユーザがコンピューティングシステムのユーザに向かって既定のジェスチャを実行することを検出することを含む、第5の個別のイベントを検出したことに応じて、コンピューティングシステムのユーザの一部分の視覚表現の視認性を増加させることを含む、表示される状態情報を変更することにより、更なるユーザ入力(例えば、状態情報を変更する更なるユーザ入力、ユーザの一部分の視覚表現の視認性を増加させる更なるユーザ入力など)を必要とすることなく、条件のセットが満たされたときに、表示される状態情報を変更する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0246】
図9における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、10000、11000、12000、及び13000)に関して本明細書で記載した他のプロセスの詳細はまた、
図9に関連して上述した方法9000に類似の方法で適用可能であることに留意されたい。例えば、方法9000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記述した他の方法(例えば、方法8000、10000、11000、12000、及び13000)を参照して本明細書に記述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
【0247】
図10は、いくつかの実施形態による、コンテキスト情報に基づいてコンピュータ生成体験を提供する方法10000のフローチャートである。方法10000は、異なる2つの方向を向く、第1の表示生成コンポーネント及び第2の表示生成コンポーネント(例えば、別個のディスプレイ、同じハウジングに囲まれているが、異なる方向を向く(例えば、背中合わせに反対の方向を向く、同時に同じユーザによって閲覧することができないように異なる角度に向く、など)ディスプレイ)を含むコンピューティングシステムに関する。第1の表示生成コンポーネントは、ユーザが第1の表示生成コンポーネントを介して提示されたコンテンツを閲覧する(例えば、プロジェクタによって照明されている物理的環境の面を向く、ユーザの網膜上に画像を形成する光を発するディスプレイの面に向く、など)位置に来たときに、ユーザにコンピュータ生成体験を提供する、コンピュータ生成環境を表示する。(例えば、表示生成コンポーネント若しくはユーザ自身、又はその両方を移動させることによって)ユーザが第1の表示生成コンポーネントをその上に表示されたコンテンツを閲覧するユーザに対する位置及び向きに配置する前に、ユーザは、第2の表示生成コンポーネント上に提示されたコンテンツを見る位置にいてもよい。例示的なシナリオでは、第1の表示生成コンポーネントは、HMDがユーザの頭部に配置されたときに、ユーザの目に面するHMDの内部ディスプレイであり、第2の表示生成コンポーネントは、HMDがテーブル上にある、又はユーザの顔から離れて延びたユーザの手にあり、かつユーザの頭部に配置されていない、又はユーザの目に近接して保持されていないときに、ユーザが見ることができるHMDの外部ディスプレイである。本明細書に開示されるように、コンピューティングシステムは、第2の表示生成コンポーネントを利用して、コンテキスト情報(例えば、位置、時間、ユーザ識別情報、ユーザの許可レベルなど)に基づいて、異なるコンピュータ生成体験の利用可能性のインジケーションを表示し、ユーザが第1の表示生成コンポーネントを介して示されるコンテンツを閲覧することを可能にする(例えば、第1の表示生成コンポーネントが移動の結果としてユーザの目に面する)ユーザに対する所定の位置及び向きに第1の表示生成コンポーネントが移動されたことを検出したことに応じて、選択されたコンピュータ生成体験の表示をトリガする。表示されるコンピュータ生成体験は、任意選択的に、第1の表示生成コンポーネントがユーザに対して所定の位置及び向きに移動されたことに対応する時点の第2の表示生成コンポーネントの状態に基づいて、選択される。コンテキスト情報に基づいて第2の表示生成コンポーネント上のコンピュータ生成体験の利用可能性を示し、第2の表示生成コンポーネント(及びそのコンテキスト情報)の状態及びユーザに対する第1の表示生成コンポーネントの向きの変化に基づいて第1の表示生成コンポーネント上の選択されたコンピュータ生成体験の表示を自動的にトリガすることにより、所望の結果を達成する(例えば、現在のコンテキストに関連する利用可能な体験に関連する情報を取得し、所望のコンピュータ生成体験を開始する)ために必要な時間及び入力の数を低減し、従来のユーザインタフェースを使用して利用可能なコンピュータ生成体験を通してブラウズして開始することに対して、ユーザの誤り及び費やす時間を低減する。
【0248】
いくつかの実施形態では、方法10000は、第1の表示生成コンポーネントと、第2の表示生成コンポーネントと(例えば、第1の表示生成コンポーネント及び第2の表示コンポーネントはそれぞれ、ヘッドアップディスプレイ、ヘッドマウントディスプレイ(HMD)、ディスプレイ、タッチスクリーン、プロジェクタなどである、又は、ヘッドアップディスプレイ、ヘッドマウントディスプレイ(HMD)、ディスプレイ、タッチスクリーン、プロジェクタなどの同じハウジングの別個のディスプレイである、かつ/若しくは同じハウジングに囲まれている)、1つ以上の入力デバイス(カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタン、グローブ、ウォッチ、動きセンサ、向きセンサなど)と、を含むコンピューティングシステムにおいて実行される(10002)。いくつかの実施形態では、第1の表示生成コンポーネントは、ユーザに面する表示コンポーネントであり、ユーザにCGR体験を提供し、第2の表示生成コンポーネントは、ユーザから離れて、かつユーザの外部環境に向かって向く表示コンポーネントであり、任意選択的に、第1の表示生成コンポーネント(例えば、表示されたコンテンツ、動作状態など)及び/又はユーザ(例えば、ユーザの目の移動、ユーザの注意状態など)に関連する状態情報を外部環境内の他のユーザに提供する。いくつかの実施形態では、第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、第1の表示生成コンポーネントに対応する第1の面上の第1のユーザインタフェース及び第2の表示生成コンポーネントに対応する第2の面上の第2のユーザインタフェースを表示する両面ディスプレイデバイス(例えば、両面HMD)を形成する。いくつかの実施形態では、コンピューティングシステムは、第1及び第2の表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピューティングシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネント(例えば、サーバ、スマートフォン又はタブレットデバイスなどのモバイル電子デバイス、ウォッチ、リストバンド、又はイヤフォンなどのウェアラブルデバイス、デスクトップコンピュータ、ラップトップコンピュータなど)を含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。方法10000では、コンピューティングシステムは、第2の表示生成コンポーネント(例えば、第2のディスプレイ又は両面HMDの外部ディスプレイなど)を介して1つ以上のユーザインタフェース要素(例えば、
図7F及び
図7Hのオブジェクト7012、オブジェクト7026など)を表示する(10004)(例えば、1つ以上のユーザインタフェース要素は、第1の表示生成コンポーネント(例えば、第1のディスプレイ又は両面HMDの内部ディスプレイ)を介してコンピューティングシステムによって提供することができる個別の体験に対応する)。第2の表示生成コンポーネント(例えば、第2のディスプレイ又は両面HMDの外部ディスプレイなど)を介して1つ以上のユーザインタフェース要素を表示している間に、コンピューティングシステムは、第1の表示生成コンポーネント(例えば、第1のディスプレイ又は両面HMDの内部ディスプレイなど)がユーザの個別の一部分に対して所定の向きに移動された(例えば、HMDの内部ディスプレイがユーザの顔又は目に面した状態で、HMDがユーザの顔又は目の前に配置された)(例えば、
図7G及び
図7Iに示すように、第1のユーザ7202が第1の表示生成コンポーネントの表示面に面している)ことを検出する(10006)。第1の表示生成コンポーネント(例えば、第1のディスプレイ又は両面HMDの内部ディスプレイなど)がユーザの個別の一部分に対して所定の向きに移動された(例えば、HMDの内部ディスプレイがユーザの顔又は目に面した状態で、HMDがユーザの顔又は目の前に配置された)(例えば、これは、1つ以上のユーザインタフェース要素を選択入力及び/又はアクティブ化入力で、及び第1の表示生成コンポーネントをユーザの個別の一部分に対して所定の向きに置く(例えば、アクティブ化入力及び選択入力とは異なる)異なるアクションにより、アクティブ化することとは別個である)ことを検出したことに応じて(10010)、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、第2の表示生成コンポーネントを介して第1のユーザインタフェース要素(例えば、
図7Fのオブジェクト7012)を表示する(例えば、第1の表示生成コンポーネントを介してコンピューティングシステムによって表示するために利用可能な(例えば、第1のユーザインタフェースを含む)第1のコンピュータ生成体験に対応する第1のアプリケーションプレビュー又は第1のアイコン若しくはアバターを表示すること)ことに対応する第1の状態にコンピューティングシステムがあったとの判定に従って、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きにある間に、第1の表示生成コンポーネントを介して第1のユーザインタフェース(例えば、
図7Gの体験7024)を表示し、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、第2の表示生成コンポーネントを介して第1のユーザインタフェース要素を表示する代わりに、第2の表示生成コンポーネントを介して第2のユーザインタフェース要素(例えば、
図7Hのオブジェクト7026)を表示すること(例えば、第1の表示生成コンポーネントを介してコンピューティングシステムによって表示するために利用可能な(例えば、第2のユーザインタフェースを含む)第2のコンピュータ生成体験に対応する第2のアプリケーションプレビュー又は第2のアイコン若しくはアバターを表示すること)に対応する第2の状態にコンピューティングシステムがあったとの判定に従って、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きにある間に、第1の表示生成コンポーネントを介して第2のユーザインタフェース(例えば、
図7Iの体験7030、又は
図7Jの体験7036など)を表示し、第2のユーザインタフェースは、第1のユーザインタフェースとは異なる。これは、例えば、
図7F~
図7Iに示されており、第1の表示生成コンポーネントが第1のユーザに対して事前設定された構成に配置される直前の時点でのコンピューティングシステム(及び第2の表示生成コンポーネントによって表示されるユーザインタフェースオブジェクト)の状態に応じて、第1の表示生成コンポーネントは、第1の表示生成コンポーネントが第1のユーザに対して事前設定された構成に配置されたことに応じて、コンピューティングシステム(及び表示ユーザインタフェースオブジェクト)の状態に対応する複数の異なる体験から選択される体験を表示する。
【0249】
いくつかの実施形態では、第1の表示生成コンポーネント(例えば、第1のディスプレイ又は両面HMDの内部ディスプレイなど)がユーザの個別の一部分に対して所定の向きに移動された(例えば、HMDの内部ディスプレイがユーザの顔又は目に面した状態で、HMDがユーザの顔又は目の前に配置された)ことを検出したことに応じて、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、第2の表示生成コンポーネントを介して第3のユーザインタフェース要素を表示すること(例えば、第1の表示生成コンポーネントを介してコンピューティングシステムによって表示するために利用可能な(例えば、第3のユーザインタフェースを含む)第3のコンピュータ生成体験に対応する第3のアプリケーションプレビュー又は第3のアイコン若しくはアバターを表示すること)に対応する、第3の状態にコンピューティングシステムがあったとの判定に従って、コンピューティングシステムは、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きにある間に、第1の表示生成コンポーネントを介して第3のユーザインタフェースを表示し、第3のユーザインタフェースは、第1のユーザインタフェース及び第2のユーザインタフェースとは異なる。ユーザの個別の一部分に対して所定の向きに移動されたときに、第3のユーザインタフェース要素を表示することに対応する第3の状態にコンピューティングシステムがあったとの判定に従って、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きにある間に、第1の表示生成コンポーネントを介して第1のユーザインタフェース及び第2のユーザインタフェースとは異なる第3のユーザインタフェースを表示することにより、追加の表示されるコントロール(例えば、第1のユーザインタフェース、第2のユーザインタフェース、及び/又は第3のユーザインタフェースを表示するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0250】
いくつかの実施形態では、第1のユーザインタフェースは、第1の仮想コンテンツを含む第1の三次元環境(例えば、AR環境、VR環境、複合現実環境など)であり、第2のユーザインタフェースは、第1の仮想コンテンツとは異なる第2の仮想コンテンツを含む第2の三次元環境(例えば、AR環境、VR環境、複合現実環境など)である。例えば、ユーザの手が物理的環境内で移動するとき、又はユーザが物理的環境内で移動する(例えば、方向を変える又は歩く)とき、第1のユーザインタフェース及び第2のユーザインタフェースは、更新されて、第1及び第2の三次元環境に対するユーザの手の移動又はユーザの移動を反映する。第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたたときに、コンピューティングシステムが第1の状態にあったとの判定に従って、第1の仮想コンテンツを含む第1の三次元環境を表示し、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたたときに、コンピューティングシステムが第2の状態にあったとの判定に従って、第1の仮想コンテンツとは異なる第2の仮想コンテンツを含む第2の三次元環境を表示することにより、追加の表示されるコントロール(例えば、第1の仮想コンテンツを含む第1の三次元環境及び/又は第1の仮想コンテンツとは異なる第2の仮想コンテンツを含む第2の三次元環境を表示するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0251】
いくつかの実施形態では、第1のユーザインタフェースは、第1の表示生成コンポーネントを取り囲む物理的環境の表現を有さずに第1の仮想コンテンツを含む第1の三次元環境であり(例えば、第1の三次元環境は、VR環境である)、第2のユーザインタフェースは、第1の表示生成コンポーネントを取り囲む物理的環境の表現を有さずに第2の仮想コンテンツを含む、第1の三次元環境とは異なる第2の三次元環境である(例えば、第2の三次元環境は、VR環境である)。第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたたときに、コンピューティングシステムが第1の状態にあったとの判定に従って、第1の表示生成コンポーネントを取り囲む物理的環境の表現を有さずに第1の仮想コンテンツを含む第1の三次元環境を表示し、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたたときに、コンピューティングシステムが第2の状態にあったとの判定に従って、第1の表示生成コンポーネントを取り囲む物理的環境の表現を有さずに第2の仮想コンテンツを含む、第1の三次元環境とは異なる第2の三次元環境を表示することにより、追加の表示されるコントロール(例えば、第1の表示生成コンポーネントを取り囲む物理的環境の表現を有さずに第1の仮想コンテンツを含む第1の三次元環境、及び/又は第1の表示生成コンポーネントを取り囲む物理的環境の表現を有さずに第2の仮想コンテンツを含む、第1の三次元環境とは異なる第2の三次元環境を表示するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0252】
いくつかの実施形態では、第1のユーザインタフェースは、第1の表示生成コンポーネントを取り囲む物理的環境の表現とともに第1の仮想コンテンツを含む第1の三次元環境であり(例えば、第1の三次元環境は、AR環境である)、第2のユーザインタフェースは、第1の表示生成コンポーネントを取り囲む物理的環境の表現とともに第2の仮想コンテンツを含む、第1の三次元環境とは異なる第2の三次元環境である(例えば、第2の三次元環境は、AR環境である)。第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたたときに、コンピューティングシステムが第1の状態にあったとの判定に従って、第1の表示生成コンポーネントを取り囲む物理的環境の表現とともに第1の仮想コンテンツを含む第1の三次元環境を表示し、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたたときに、コンピューティングシステムが第2の状態にあったとの判定に従って、第1の表示生成コンポーネントを取り囲む物理的環境の表現とともに第2の仮想コンテンツを含む、第1の三次元環境とは異なる第2の三次元環境を表示することにより、追加の表示されるコントロール(例えば、第1の表示生成コンポーネントを取り囲む物理的環境の表現とともに第1の仮想コンテンツを含む第1の三次元環境、及び/又は第1の表示生成コンポーネントを取り囲む物理的環境の表現とともに第2の仮想コンテンツを含む、第1の三次元環境とは異なる第2の三次元環境を表示するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0253】
いくつかの実施形態では、第1のユーザインタフェースは、第1の三次元環境であり、第2のユーザインタフェースは、第2の三次元環境であり、第1の三次元環境及び第2の三次元環境のうちの1つは、第1の表示生成コンポーネントを取り囲む物理的環境の表現とともに第1の仮想コンテンツを含み(例えば、三次元環境のうちの1つは、AR環境である)、第1の三次元環境及び第2の三次元環境のうちの1つは、第1の表示生成コンポーネントを取り囲む物理的環境の表現を有さずに第2の仮想コンテンツを含む(例えば、三次元環境のうちの1つは、VR環境である)。いくつかの実施形態では、ARモード及びVRモードのうちの1つのモードで体験が開始されると、体験は、ARモード及びVRモードのうちの他のモードに遷移させることができる。第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、コンピューティングシステムが第1の状態にあったとの判定に従って、第1の三次元環境を表示し、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、コンピューティングシステムが第2の状態にあったとの判定に従って、第2の三次元環境を表示し、第1の三次元環境及び第2の三次元環境のうちの1つが、第1の表示生成コンポーネントを取り囲む物理的環境の表現とともに第1の仮想コンテンツを含み、第1の三次元環境及び第2の三次元環境のうちの1つが、第1の表示生成コンポーネントを取り囲む物理的環境の表現を有さずに第2の仮想コンテンツを含むことにより、追加の表示されるコントロール(例えば、第1及び/又は第2の三次元環境を表示するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0254】
いくつかの実施形態では、1つ以上のユーザインタフェース要素を表示することは、カレンダーの要素(例えば、スケジュールされたイベント、予定、休日、及び/又はリマインダーなどを有するカレンダー(例えば、ソーシャルカレンダー、又は仕事カレンダー、日次プランナー、週次プランナー、月次カレンダー、日付及び週を月ごとに示す標準のカレンダーなど)の要素)を表示することを含み、第1のユーザインタフェース及び第2のユーザインタフェースは、カレンダーに対応するそれぞれのユーザインタフェースである(例えば、第1のユーザインタフェース及び第2のユーザインタフェースは、カレンダー内のイベントに対応するイベント情報、又は第2の表示生成コンポーネント上に表示される通知をトリガしたイベント、予定、リマインダーに関するメモなどを含む)。いくつかの実施形態では、両面HMDがユーザによって着用されていない(例えば、外部ディスプレイがユーザに面した状態で机上に配置されている)とき、HMDの外部ディスプレイは、現在の日付、時間、気象情報、地理的位置、及びその日の若しくは事前設定された期間内に(例えば、次の2時間に、など)来るタスク又はスケジュールされた予定のリストを含むカレンダーを表示するために使用される。ユーザがHMDを手に取って、内部ディスプレイをユーザの目の前に置くと、第1の表示生成コンポーネントは、カレンダーの詳細を表示する(例えば、現在の週又は現在の月を示すより完全なカレンダーを示す、その日の全てのスケジュールされたイベントを示す、次に来るイベントのより詳細を示す、など)。第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、コンピューティングシステムが第1の状態にあったとの判定に従って、カレンダーの要素を表示することを含む、1つ以上のユーザインタフェース要素を表示し、カレンダーに対応する第1のユーザインタフェースを表示し、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、コンピューティングシステムが第2の状態にあったとの判定に従って、カレンダーに対応する第2のユーザインタフェースを表示することにより、追加の表示されるコントロール(例えば、カレンダーに対応する第1のユーザインタフェース及び/又はカレンダーに対応する第2のユーザインタフェースを表示するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0255】
いくつかの実施形態では、第1の状態のコンピューティングシステムは、カレンダーに対応する第1のイベント(例えば、第1の通知又はリマインダー)を検出して、1つ以上のユーザインタフェース要素の一部として第1のイベントに対応する第1の通知を表示し、第1のユーザインタフェースは、第1の通知よりも第1のイベントのより詳細を含む第1のイベントに対応するユーザインタフェースである。同様に、第2の状態のコンピューティングシステムは、カレンダーに対応する第2のイベント(例えば、第2の通知又はリマインダー)を検出して、1つ以上のユーザインタフェース要素の一部として第2のイベントに対応する第2の通知を表示し、第2のユーザインタフェースは、第2の通知よりも第2のイベントのより詳細を含む第2のイベントに対応するユーザインタフェースである。カレンダーに対応する第1のイベントを検出し、1つ以上のユーザインタフェース要素の一部として第1のイベントに対応する第1の通知を表示し、第1の通知よりも第1のイベントのより詳細を含む、第1のイベントを含む第1のユーザインタフェースを表示することにより、第1のイベントの追加の詳細を表示するために必要な入力の数を低減する(例えば、ユーザは、第1のイベントのより詳細を表示するために、第1の表示生成コンポーネントをユーザの個別の一部分に対して所定の向きに移動した後に、追加の入力を実行する必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0256】
いくつかの実施形態では、1つ以上のユーザインタフェース要素を表示することは、個別のメディアアイテム(例えば、ミュージックビデオのカバーアート、映画、ビデオクリップ、三次元映画など)の視覚表現(例えば、ビデオクリップ、プレビュー、画像など)を表示することを含み、第1のユーザインタフェース及び第2のユーザインタフェースは、メディアアイテムのコンテンツを再生する(例えば、第1のユーザインタフェース及び第2のユーザインタフェースは、メディアアイテムの完全なコンテンツ(例えば、三次元の、アニメーション化された、対話型の、など)を示す)。いくつかの実施形態では、両面HMDがユーザによって着用されていない(例えば、外部ディスプレイがユーザに面した状態で机上に配置されている)とき、HMDの外部ディスプレイは、HMDの内部ディスプレイを介して表示することができる利用可能なメディアアイテムの視覚表現を表示するために使用される。いくつかの実施形態では、利用可能なメディアアイテムは、HMDの現在の位置、及び/又はメディアアイテムの提供者によって指定されたアイテムの利用可能性などに応じて変更される。ユーザがHMDを手に取って、ユーザの目の前に内部ディスプレイを置くと、第1の表示生成コンポーネントは、メディアアイテムの実際のコンテンツを表示する(例えば、より完全な映画又はより没入型の体験を示す、メディアアイテムのより対話型の機能を有効にする、など)。第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、コンピューティングシステムが第1の状態にあったとの判定に従って、個別のメディアアイテムの視覚表現を含む、1つ以上のユーザインタフェース要素を表示し、メディアアイテムのコンテンツを再生する第1のユーザインタフェースを表示し、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、コンピューティングシステムが第2の状態にあったとの判定に従って、メディアアイテムのコンテンツを再生する第2のユーザインタフェースを表示することにより、追加の表示されるコントロール(例えば、メディアアイテムのコンテンツを再生する第1のユーザインタフェース及び/又はメディアアイテムのコンテンツを再生する第2のユーザインタフェースを表示するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0257】
いくつかの実施形態では、第1の状態のコンピューティングシステムは、第1のメディアアイテムの利用可能性に対応する第3のイベント(例えば、第1の利用可能なメディアコンテンツを有する位置への位置の変化)を検出して、コンピューティングシステムは、1つ以上のユーザインタフェース要素の一部として第1のメディアアイテムの第1の視覚表現を表示し、第1のユーザインタフェースは、第1のメディアアイテムを再生するユーザインタフェースである。同様に、第2の状態のコンピューティングシステムは、第2のメディアアイテムの利用可能性に対応する第4のイベント(例えば、第2の利用可能なメディアコンテンツを有する位置への位置の変化)を検出して、コンピューティングシステムは、1つ以上のユーザインタフェース要素の一部として第2のメディアアイテムの第2の視覚表現を表示し、第2のユーザインタフェースは、第2のメディアアイテムを再生するユーザインタフェースである。第1のメディアアイテムの利用可能性に対応する第3のイベントを検出し、1つ以上のユーザインタフェース要素の一部として第1のメディアアイテムの第1の視覚表現を表示し、第1のメディアアイテムを再生する第1のユーザインタフェースを表示することにより、第1のメディアアイテムを再生するために必要な入力の数を低減する(例えば、ユーザは、第1のメディアアイテムを再生するために、第1の表示生成コンポーネントをユーザの個別の一部分に対して所定の向きに移動した後に、追加の入力を実行する必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0258】
いくつかの実施形態では、1つ以上のユーザインタフェース要素を表示することは、個別の着信通信要求(例えば、電話通話、インターネット通話、ビデオ会議通話など)の通知を表示することを含み、第1のユーザインタフェース及び第2のユーザインタフェースは、個別の着信通信要求に対応する通信インタフェースである(例えば、第1のユーザインタフェース及び第2のユーザインタフェースは、通信セッションの発信者の顔又は会議内容(例えば、三次元の、アニメーション化された、対話型の、など)を示す通信インタフェースである)。いくつかの実施形態では、両面HMDがユーザによって着用されていない(例えば、外部ディスプレイがユーザに面した状態で机上に配置されている)とき、HMDの外部ディスプレイは、そのような要求がコンピューティングシステムによって受信されたときに、着信通信要求の通知を表示するために使用される。いくつかの実施形態では、通知は、発信者の識別情報及び要求される通信セッションのタイプのインジケーションを提供する。ユーザがHMDを手に取って、内部ディスプレイをユーザの目の前に置くと、第1の表示生成コンポーネントは、受信された通信要求に対応する通信インタフェースを表示し、ユーザは、第1の表示生成コンポーネントを使用して発信者と通信を開始することができる。第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、コンピューティングシステムが第1の状態にあったとの判定に従って、個別の着信通信要求の通知を含む、1つ以上のユーザインタフェース要素を表示し、個別の着信通信要求に対応する通信インタフェースである第1のユーザインタフェースを表示し、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されたときに、コンピューティングシステムが第2の状態にあったとの判定に従って、個別の着信通信要求に対応する通信インタフェースである第2のユーザインタフェースを表示することにより、追加の表示されるコントロール(例えば、個別の着信通信要求に対応する通信インタフェースである第1のユーザインタフェース及び/又は個別の着信通信要求に対応する通信インタフェースである第2のユーザインタフェースを表示するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0259】
いくつかの実施形態では、第1の状態のコンピューティングシステムは、第1の通信要求に対応する第5のイベント(例えば、(例えば、第1の発信者からの、第1の通信プロトコルを使用した、など)第1の通信要求の受信)を検出して、コンピューティングシステムは、1つ以上のユーザインタフェース要素の一部として第1の通信要求の第1の視覚表現を表示し(例えば、発信者のアバターを示す、かつ/又は要求される通信セッションのタイプを識別する)、第1のユーザインタフェースは、第1の通信要求に対応する第1の通信セッションを提供するユーザインタフェースである。同様に、第2の状態のコンピューティングシステムは、第2の通信要求に対応する第6のイベント(例えば、(例えば、第2の発信者からの、第2の通信プロトコルを使用した、など)第2の通信要求の受信)を検出して、コンピューティングシステムは、1つ以上のユーザインタフェース要素の一部として第2の通信要求の第2の視覚表現を表示し(例えば、発信者のアバターを示す、かつ/又は要求される通信セッションのタイプを識別する)、第2のユーザインタフェースは、第2の通信要求に対応する第2の通信セッションを提供するユーザインタフェースである。第1の通信要求に対応する第5のイベントを検出し、1つ以上のユーザインタフェース要素の一部として第1の通信要求の第1の視覚表現を表示し、第1の通信要求に対応する第1の通信セッションを提供する第1のユーザインタフェースを表示することにより、第1の通信要求に対応する第1の通信セッションを開始するために必要な入力の数を低減する(例えば、ユーザは、第1の通信要求に対応する第1の通信セッションを開始するために、第1の表示生成コンポーネントをユーザの個別の一部分に対して所定の向きに移動した後に、追加の入力を実行する必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0260】
いくつかの実施形態では、1つ以上のユーザインタフェース要素を表示することは、ユーザが第1の識別情報を有するとの判定に従って(例えば、コンピューティングシステムのカメラによってキャプチャされたユーザの画像を使用する顔認識に基づいて、表示生成コンポーネントのハウジング上の指紋センサに基づいて、他のセンサ信号(例えば、ユーザに取り付けられたRFIDタグ)に基づいて、など)、第1の識別情報に対応する規則の第1のセットに従って、1つ以上のユーザインタフェース要素の表示をカスタマイズすることと、ユーザが第1の識別情報とは異なる第2の識別情報を有する(例えば、第1の識別情報及び第2の識別情報は、異なる年齢層、性別グループ、人、許可レベル、セキュリティクリアランスレベル、異なる役割、異なる任務、異なる選好などに対応する)との判定に従って、第2の識別情報に対応する規則の第2のセットに従って、1つ以上のユーザインタフェース要素の表示をカスタマイズすることと、を含み、規則の第2のセットは、規則の第1のセットとは異なる(例えば、規則は、ユーザの異なる識別情報に基づいて、1つ以上のユーザインタフェース要素のコンテンツ、形式、情報量などに異なる制限を課すことに関連する)。ユーザが第1の識別情報を有するとの判定に従って、かつ第1の識別情報に対応する規則の第1のセットに従って、1つ以上のユーザインタフェース要素の表示をカスタマイズし、ユーザが第1の識別情報とは異なる第2の識別情報を有するとの判定に従って、かつ第2の識別情報に対応する、規則の第1のセットとは異なる規則の第2のセットに従って、1つ以上のユーザインタフェース要素の表示をカスタマイズすることにより、更なるユーザ入力(例えば、所望のカスタマイズを選択する更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、1つ以上のユーザインタフェース要素の表示をカスタマイズする。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0261】
いくつかの実施形態では、第1の表示生成コンポーネント(例えば、第1のディスプレイ又は両面HMDの内部ディスプレイなど)がユーザの個別の一部分に対して所定の向きに移動された(例えば、HMDの内部ディスプレイがユーザの顔又は目に面した状態で、HMDがユーザの顔又は目の前に配置された)ことを検出する前に、コンピューティングシステムは、第2の表示生成コンポーネントを介して(かつ1つ以上のユーザインタフェース要素と同時に)、第1のユーザインタフェース及び第2のユーザインタフェースのうちの個別の1つが第1の表示生成コンポーネントを介して提示するために利用可能である、コンピューティングシステムの2つ以上のモードのセット(例えば、ARモード、VRモード、2Dモード、プライベートモード、ペアレンタルコントロールモード、DNDモードなど)に対応する選択可能なオプションを表示する。コンピューティングシステムは、コンピューティングシステムの2つ以上のモードのセットのうちの1つに対応する個別の選択可能なオプションを選択するユーザ入力を検出する。ユーザ入力を検出したことに応じて、第1の表示生成コンポーネント(例えば、第1のディスプレイ又は両面HMDなどの内部ディスプレイなど)がユーザの個別の一部分に対して所定の向きに移動された(例えば、HMDの内部ディスプレイがユーザの顔又は目に面した状態で、HMDがユーザの顔又は目の前に配置された)との判定に従って、コンピューティングシステムは、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きにある間に、第1の表示生成コンポーネントを介して第1のユーザインタフェース及び第2のユーザインタフェースのうちの個別の1つを個別の選択可能なオプションに対応するモードで表示する。コンピューティングシステムの2つ以上のモードのセットのうちの1つに対応する選択可能なオプションを選択するユーザ入力を検出したことに応じて、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きにある間に、個別の選択可能なオプションに対応するモードで第1のユーザインタフェース及び第2のユーザインタフェースのうちの個別の1つを表示することにより、所望のモードで第1又は第2のユーザインタフェースを表示するために必要な入力の数を低減する(例えば、ユーザは、第1の表示生成コンポーネントが移動された後に、所望のモードを選択(又は再選択)する追加の入力を実行をする必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0262】
いくつかの実施形態では、1つ以上のユーザインタフェース要素は、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されると、第1の表示生成コンポーネントを介して表示するために利用可能な三次元体験のプレビューを含む。いくつかの実施形態では、プレビューは、ユーザが第2の表示生成コンポーネント(例えば、ユーザに面するHMDの外部ディスプレイを有する両面HMD)を手に取ると開始される。いくつかの実施形態では、プレビューは、三次元体験へのビューポートを提供する。第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動されると、第1の表示生成コンポーネントを介して表示するために利用可能な三次元体験のプレビューを含むことにより、改善されたフィードバック(例えば、第1の表示生成コンポーネントがユーザの個別の一部分に対して所定の向きに移動された場合に利用可能な三次元体験に関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0263】
図10における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、9000、11000、12000、及び13000)に関して本明細書で記載した他のプロセスの詳細はまた、
図10に関連して上述した方法10000に類似の方法で適用可能であることに留意されたい。例えば、方法10000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記述した他の方法(例えば、方法8000、9000、11000、12000、及び13000)を参照して本明細書に記述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
【0264】
図11は、いくつかの実施形態による、表示生成コンポーネントの着用状態に基づいてコンピュータ生成体験を提供する方法11000のフローチャートである。
【0265】
いくつかの実施形態では、ユーザは、異なる方法で、例えば、即席の若しくは一時的な方法(例えば、ある距離でユーザの目の前に保持される、又は手でユーザの目に近接して保持される)、又はより正式かつ確立された方法(例えば、ユーザの手で支持されることなく、ユーザの頭部又は顔にストラップで固定される、又は別の方法で着用される)で、第1の表示生成コンポーネントをその上に表示されたコンテンツを閲覧するユーザに対する位置及び向きに配置することができる。方法11000は、ユーザが第1の表示生成コンポーネント上に表示されるコンテンツを閲覧することを可能にする、ユーザに対する位置及び向きに第1の表示生成コンポーネントが配置される方法に応じて、異なるコンピュータ生成体験(例えば、コンピュータ生成体験の異なるバージョン、ユーザ又はコンテキストプロパティの異なる特性に対応する異なるコンピュータ生成体験、体験のプレビュー対実際の体験など)を選択的に表示するコンピューティングシステムに関する。第1の表示生成コンポーネントがユーザに対して既定の構成に配置されたことに対応するトリガイベントに応じて、かつ第1の表示生成コンポーネントがその位置及び向きに保持される方法に従って(例えば、ユーザの手の支持により、又はその支持なしに、ユーザの手以外の別の機構の支持により、又はその支持なしに、など)、異なるコンピュータ生成体験を選択的に表示する(例えば、第1の表示生成コンポーネントによって提供されるユーザインタフェース内の追加のユーザ入力なしに、第1の表示生成コンポーネントを介してコンピュータ生成体験の表示を自動的に開始する)ことにより、所望の結果を達成する(例えば、所望のコンピュータ生成体験を開始する)ために必要な時間及び入力の数を低減し、従来のユーザインタフェースを使用して利用可能なコンピュータ生成体験を通してブラウズして開始することに対して、ユーザの誤り及び費やす時間を低減する。
【0266】
いくつかの実施形態では、方法11000は、第1の表示生成コンポーネント(例えば、ヘッドアップディスプレイ、ヘッドマウントディスプレイ(HMD)、ディスプレイ、タッチスクリーン、プロジェクタなど)と、1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタン、グローブ、ウォッチ、動きセンサ、向きセンサなど)と、を含むコンピューティングシステムにおいて実行される(11002)。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネント及び第2の表示生成コンポーネントを含む(例えば、第1の表示生成コンポーネントは、ユーザに面するディスプレイであり、ユーザにCGR体験を提供し、第2の表示生成コンポーネントは、ユーザから離れて、かつユーザの外部環境に向かって向くディスプレイであり、任意選択的に、第1の表示生成コンポーネント(例えば、表示されたコンテンツ、動作状態など)及び/又はユーザ(例えば、ユーザの目の移動、ユーザの注意状態など)に関連する状態情報を外部環境内の他のユーザに提供する)。いくつかの実施形態では、第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、第1の表示生成コンポーネントに対応する第1の面上の第1のユーザインタフェース及び第2の表示生成コンポーネントに対応する第2の面上の第2のユーザインタフェースを表示する両面ディスプレイデバイス(例えば、両面HMD)を形成する。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネント及び任意選択的に第2の表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピューティングシステムは、表示生成コンポーネント(単数又は複数)及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント(単数又は複数)及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。方法11000では、コンピューティングシステムは、第1の表示生成コンポーネントがユーザに対して第1の既定の構成に配置される(例えば、第1のユーザ7202が
図7I及び
図7Jの第1の表示生成コンポーネントの表示面に面する)(例えば、HMDがユーザの顔若しくは目の前、又はユーザの鼻の上などに配置される)ことに対応する第1のトリガイベントを検出する(11004 )(例えば、1つ以上のセンサ(例えば、カメラ、赤外線センサ、動きセンサ、容量性センサ、光センサなど)からの入力に基づいて)。 第1のトリガイベントを検出したことに応じて(11006 )、第1の表示生成コンポーネントを含むコンピューティングシステムがユーザに対して第1の既定の構成にある(例えば、
図7Jに示すように、第1の表示生成コンポーネントを着用することに対応する、第1のユーザが第1の表示生成コンポーネントに関連付けられたセンサオブジェクト7016を着用している)間にユーザによって着用されている(例えば、ユーザの頭部にストラップで固定されている、バックル留めされている、ユーザの手によって支持されていない、など)との判定に従って、コンピューティングシステムは、第1の表示生成コンポーネントを介して、第1のコンピュータ生成体験(例えば、
図7Jの体験7036)を提供し(例えば、完全なAR又はVR体験を表示する、ホーム画面ユーザインタフェースを表示する、など)、第1の表示生成コンポーネントを含むコンピューティングシステムがユーザに対して第1の既定の構成にある(例えば、
図7Jに示すように、第1の表示生成コンポーネントを着用しないことに対応する、第1のユーザが第1の表示生成コンポーネントに関連付けられたセンサオブジェクト7016をユーザの手に保持している)間にユーザによって着用されていない(例えば、ユーザの頭部にストラップで固定されていない、バックル留めされていない、ユーザの手によって支持されている、など)との判定に従って、コンピューティングシステムは、第1の表示生成コンポーネントを介して、第1のコンピュータ生成体験(例えば、完全なAR又はVR体験を表示すること、ホーム画面ユーザインタフェースを表示すること、など)とは別個の第2のコンピュータ生成体験(例えば、
図7Iの体験7030)を提供する(例えば、AR又はVR体験のプレビューを表示する、カメラユーザインタフェースを表示する、など)。これは、例えば、
図7H~
図7Jに示されており、例えば、第1の表示生成コンポーネントが第1のユーザ7202に対して事前設定された構成に配置されたときの(例えば、第1の表示生成コンポーネントに関連付けられたセンサオブジェクト7106の状態に基づいて判定されるような)第1の表示生成コンポーネントの着用状態に応じて、コンピューティングシステムは、異なるコンピュータ生成体験(例えば、それぞれ、体験7036又は体験7030)を表示する。いくつかの実施形態では、コンピューティングシステムはまた、遷移前のコンピューティングシステムの状態に基づいて、2つのコンピュータ生成体験のうちの1つが開始された後に、第1の表示生成コンポーネントの着用状態が変化すると、異なる2つの体験を表示することの間で遷移する。
【0267】
いくつかの実施形態では、第1の表示生成コンポーネントを含むコンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されている(例えば、ユーザの頭部にストラップで固定されている、バックル留めされている、ユーザの手によって支持されていない、など)との判定に従って、コンピューティングシステムは、第1のコンピュータ生成体験と相互作用するために、第1の表示生成コンポーネント又はそのハウジングと接触していないユーザの手(又は両手)の移動に基づく少なくとも第1の入力方式(例えば、空中ハンドジェスチャ入力方式、マイクロジェスチャ入力方式、第1の表示生成コンポーネント及びそのハウジングとは別個のタッチ感知面を使用したタッチジェスチャ入力方式、など)を提供し(例えば、コンピューティングシステムは、HMDの位置をユーザの目の前に維持するためにユーザの手が必要でないときに、空中ハンドジェスチャ又は他の入力デバイス上の制御入力を介した第1のコンピュータ生成体験との相互作用を可能にする)、第1の表示生成コンポーネントを含むコンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されていない(例えば、ユーザの頭部にストラップで固定されていない、バックル留めされていない、ユーザの手によって支持されている、など)との判定に従って、コンピューティングシステムは、第2のコンピュータ生成体験と相互作用するために、第1の表示生成コンポーネント又はそのハウジングと接触していないユーザの手の移動に基づく第1の入力方式を提供しない(例えば、ユーザの手のうちの少なくとも1つが第1の表示コンポーネントの位置をユーザの目の前に維持するために必要なため、コンピューティングシステムは、第2のコンピュータ生成体験と相互作用するための自由な手の移動に依存する入力メカニズムを無効にし、代わりに、ユーザは、第1の表示生成コンポーネント若しくはそのハウジング又は他の入力デバイス上の制御入力を介して第2のコンピュータ生成体験と相互作用することができる)。コンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されているとの判定に従って、第1の表示生成コンポーネント又はそのハウジングと接触していないユーザの手の移動に基づく少なくとも第1の入力方式を提供し、コンピューティングシステムが第1の既定の構成にある間にユーザによって着用されていないとの判定に従って、第1の入力方式を提供しないことにより、更なるユーザ入力(例えば、特定の入力方式を選択するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、適切な入力方式を提供する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0268】
いくつかの実施形態では、第1の表示生成コンポーネントを含むコンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されていない(例えば、ユーザの頭部にストラップで固定されていない、バックル留めされていない、ユーザの手によって支持されている、など)との判定に従って、コンピューティングシステムは、第2のコンピュータ生成体験と相互作用するために、第1の表示生成コンポーネント又はそのハウジングと接触している(かつ任意選択的に、その位置を維持する)ユーザの手のうちの少なくとも1つの移動に基づく、少なくとも第2の入力方式(例えば、第1の表示生成コンポーネント又はそのハウジング上のタッチ感知面を使用するタッチジェスチャ入力方式、第1の表示生成コンポーネント又はそのハウジング上の物理的コントローラ(例えば、スイッチ、ボタンなど)上の物理的入力、など)を提供する(例えば、コンピューティングシステムは、HMDの位置をユーザの目の前に維持するためにユーザの手がHMDを保持しているときに、第2のコンピュータ生成体験との相互作用を可能にする)。コンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されていないとの判定に従って、第1の表示生成コンポーネント又はそのハウジングと接触しているユーザの手のうちの少なくとも1つの移動に基づく少なくとも第2の入力方式を提供することにより、更なるユーザ入力(例えば、第2の入力方式を有効にするための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、少なくとも第2の入力方式を提供する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0269】
いくつかの実施形態では、第1の表示生成コンポーネントを含むコンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されている(例えば、ユーザの頭部にストラップで固定されている、バックル留めされている、ユーザの手によって支持されていない、など)との判定に従って、コンピューティングシステムは、第1のコンピュータ生成体験と相互作用するために、第1の表示生成コンポーネント又はそのハウジング上に配置された少なくとも1つの入力デバイス(例えば、タッチ感知面、スイッチ、ボタンなど)について、第2の入力方式(例えば、第1の表示生成コンポーネント又はそのハウジング上のタッチ感知面を使用するタッチジェスチャ入力方式、第1の表示生成コンポーネント又はそのハウジング上の物理的コントローラ(例えば、スイッチ、ボタンなど)上の物理的入力、など)を無効にする(例えば、コンピューティングシステムは、例えば、第1のコンピュータ生成体験中にユーザの手がHMDを保持していないため、HMD上に配置された入力デバイス上の入力に基づく第1のコンピュータ生成体験との相互作用を無効にする)。コンピューティングシステムが第1の既定の構成にある間にユーザによって着用されているとの判定に従って、第1の表示生成コンポーネント又はそのハウジング上に配置された少なくとも1つの入力デバイスについて第2の入力方式を無効にすることにより、更なるユーザ入力(例えば、第2の入力方式を手動で無効にするための更なるユーザ入力)を必要とすることなく、少なくとも1つの入力デバイスについて第2の入力方式を無効にする。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0270】
いくつかの実施形態では、コンピューティングシステムは、第1のコンピュータ生成体験及び第2のコンピュータ生成体験の両方に第1の仮想コンテンツを提供し、コンピューティングシステムは、第1の仮想コンテンツが第1のコンピュータ生成体験に提供されているときに、第1の仮想コンテンツに対して(例えば、第2の相互作用方式を有効にすることなく)第1の相互作用方式を有効にし、コンピューティングシステムは、第1の仮想コンテンツが第2のコンピュータ生成体験に提供されているときに、第1の仮想コンテンツに対して(例えば、第1の相互作用方式を有効にすることなく)第1の相互作用方式とは異なる第2の相互作用方式を有効にする。例えば、いくつかの実施形態では、HMDは、(1)AR/VR体験がユーザの顔にストラップで固定された(かつ、ユーザの手がHMDから外されている)HMDに提供されているときに、空中ハンドジェスチャ、又はハンドコントローラ、マイクロジェスチャ、及びユーザの手がHMD上の入力デバイスにタッチ又は操作することを必要としない他の入力メカニズムを使用して、ユーザがAR/VR環境と相互作用することをコンピューティングシステムが可能にする(かつ任意選択的に、HMDハウジング上に提供される入力デバイスを介して行われる入力を介して実行される同じ相互作用を無効にする)こと、及び(2)HMDがユーザの頭部にストラップで固定されることなく、ユーザの手によってユーザの顔に保持されている間に、AR/VR体験が提供されているときに、HMDハウジング上に提供される入力デバイスを介して行われる入力によって ユーザがAR/VR環境と相互作用することをコンピューティングシステムが可能にする(かつ任意選択的に、空中ハンドジェスチャ、又はハンドコントローラ、マイクロジェスチャ、及びユーザの手がHMD上の入力デバイスにタッチ又は操作することを必要としない他の入力メカニズムを使用して実行される同じ相互作用を無効にする)ことを除いて、同じAR/VR体験を表示する。コンピューティングシステムが第1のコンピュータ生成体験及び第2のコンピュータ生成体験の両方に第1の仮想コンテンツを提供する場合に、第1のコンピュータ生成体験に提供される第1の仮想コンテンツに対して第1の相互作用方式を有効にし、第2のコンピュータ生成体験に提供される第1の仮想コンテンツに対して、第1の相互作用方式とは異なる第2の相互作用方式を有効にすることにより、更なるユーザ入力(例えば、第1又は第2の相互作用方式を有効にするための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、適切な相互作用方式を有効にする。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0271】
いくつかの実施形態では、第1のコンピュータ生成体験は、異なるコンピュータ生成体験に対応する複数のユーザインタフェースオブジェクトを含み、複数のユーザインタフェースオブジェクトの各々は、ユーザ入力(例えば、視線入力、マイクロジェスチャ入力、空中ジェスチャ入力など)によってアクティブ化されると、コンピューティングシステムに、ユーザインタフェースオブジェクトに対応する個別のコンピュータ生成体験を開始させ、第2のコンピュータ生成体験は、コンピューティングシステムのカメラを制御するためのカメラユーザインタフェース(例えば、物理的環境のカメラビュー、及び任意選択的に1つ以上のカメラコントロール(例えば、スチール写真、ビデオ、スローモーション、パノラマなど))である。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネントのハウジング上に配置された入力デバイス(例えば、タッチセンサ、接触強度センサ、ボタン、スイッチなど)を介して検出されたユーザ入力に応じて、カメラビュー内の物理的環境の写真又はビデオを撮る。異なるコンピュータ生成体験に対応する複数のユーザインタフェースオブジェクトを含む第1のコンピュータ生成体験を提供し、コンピューティングシステムのカメラを制御するためのカメラユーザインタフェースを含む第2のコンピュータ生成体験を提供することにより、追加の表示されるコントロール(例えば、第1のコンピュータ生成体験及び/又は第2のコンピュータ生成体験のための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0272】
いくつかの実施形態では、第1の表示生成コンポーネントを含むコンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されている(例えば、ユーザの頭部にストラップで固定されている、バックル留めされている、ユーザの手によって支持されていない、など)との判定に従って、コンピューティングシステムは、第1の表示生成コンポーネント及びそのハウジングから離れた手によって実行されたジェスチャ(例えば、空中ジェスチャ、マイクロジェスチャなど)(例えば、ジェスチャは、HMD上のカメラによってキャプチャされる)に基づいて、第1のコンピュータ生成体験との相互作用を有効にし、第1の表示生成コンポーネントを含むコンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されていない(例えば、ユーザの頭部にストラップで固定されていない、バックル留めされていない、ユーザの手によって支持されている、など)との判定に従って、コンピューティングシステムは、第1の表示生成コンポーネント又はそのハウジング上の手によって実行されたジェスチャ(例えば、タッチジェスチャ、物理的コントロールの操作など)(例えば、ジェスチャは、HMDのハウジングのタッチ感知面によってキャプチャされる)に基づいて、第2のコンピュータ生成体験との相互作用を有効にする。コンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されているとの判定に従って、第1の表示生成コンポーネント及びそのハウジングから離れた手によって実行されたジェスチャに基づいて第1のコンピュータ生成体験との相互作用を有効にし、コンピューティングシステムがユーザに対して第1の既定の構成にある間にユーザによって着用されていないとの判定に従って、第1の表示生成コンポーネント又はそのハウジング上の手によって実行されたジェスチャに基づいて第2のコンピュータ生成体験との相互作用を有効にすることにより、更なるユーザ入力(例えば、相互作用が第1の表示生成コンポーネント若しくはそのハウジングから離れた、又はその上の手によって実行されたジェスチャに基づくかを指定するための更なるユーザ入力)を必要とすることなく、適切な方法で個別のコンピュータ生成体験との相互作用を可能にする。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0273】
図11における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、9000、10000、12000、及び13000)に関して本明細書で記載した他のプロセスの詳細はまた、
図11に関連して上述した方法11000に類似の方法で適用可能であることに留意されたい。例えば、方法11000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記述した他の方法(例えば、方法8000、9000、10000、12000、及び13000 )を参照して本明細書に記述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
【0274】
方法8000、9000、10000、及び11000に関して説明したように、第2の表示生成コンポーネント上に情報(例えば、ユーザの目に関連する状態情報、第1の表示生成コンポーネントを介して表示されているコンテンツの状態、コンピューティングシステムの表示モード、利用可能なコンピュータ生成体験のインジケーションなど)を表示することにより、例えば、周囲の物理的環境内の他者に対応するため、及び/又は望ましいコンピュータ生成体験を見つけるために、ユーザが第1の表示生成コンポーネント及び第2の表示生成コンポーネントの両方を含むHMDを着脱する、かつ/又はコンピュータ生成体験をアクティブ化若しくは停止する必要がある回数を低減するのを支援する。これにより、ユーザが表示生成コンポーネントを使用するときに、ユーザの時間を節約し、電力使用を低減し、かつユーザの誤りを低減するのを支援し、ユーザ体験を改善する。
【0275】
図12は、いくつかの実施形態による、現実世界の物理的オブジェクトとの事前設定された物理的相互作用を検出したことに基づいてコンピュータ生成体験の表示をトリガする方法12000のフローチャートである。
【0276】
方法12000は、オブジェクトとの物理的相互作用を使用して、オブジェクトに関連するコンピュータ生成体験をトリガすることに関する。いくつかの実施形態では、現実世界の物理的オブジェクトの物理的操作の事前設定された方法が、検出され、物理的オブジェクトに関連するコンピュータ生成体験を起動するためのトリガとして使用される。いくつかの実施形態では、物理的オブジェクトに関連するコンピュータ生成体験を起動する前に、利用可能なコンピュータ生成体験の視覚インジケーション(単数又は複数)、及び任意選択的に、コンピュータ生成体験を起動する方法に関する視覚ガイド(例えば、プレビュー及びアニメーション)は、複合現実環境内の物理的オブジェクトの表現の位置に対応する複合現実環境内の位置に表示される。コンピュータ生成体験の利用可能性に関する視覚インジケーション及び/又はコンピュータ生成体験をトリガするために必要な物理的操作に関する視覚ガイドを表示することに加えて、物理的オブジェクトの事前設定された物理的操作を使用して、物理的オブジェクトに関連付けられたコンピュータ生成体験の表示をトリガすることにより、より直感的に、より迅速に、かつより少ない入力でユーザが所望の結果を達成する(例えば、所望のコンピュータ生成体験に入る)ことを可能にする。このユーザ相互作用ヒューリスティックはまた、ユーザが物理的オブジェクトと相互作用するときのユーザの誤りを低減するのに役立ち、それによって、ヒューマンマシンインタフェースをより効率的にし、これにより、バッテリ動作式コンピューティングシステム上の電力を節約する。
【0277】
いくつかの実施形態では、方法12000は、第1の表示生成コンポーネント(例えば、ヘッドアップディスプレイ、ヘッドマウントディスプレイ(HMD)、ディスプレイ、タッチスクリーン、プロジェクタなど)と、1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタン、グローブ、ウォッチ、動きセンサ、向きセンサなど)と、を含むコンピューティングシステムにおいて実行される(12002)。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネント及び第2の表示生成コンポーネントを含む(例えば、第1の表示生成コンポーネントは、ユーザに面するディスプレイであり、ユーザにCGR体験を提供し、第2の表示生成コンポーネントは、ユーザから離れて、かつユーザの外部環境に向かって向くディスプレイであり、任意選択的に、第1の表示生成コンポーネント(例えば、表示されたコンテンツ、動作状態など)及び/又はユーザ(例えば、ユーザの目の移動、ユーザの注意状態など)に関連する状態情報を外部環境内の他のユーザに提供する)。いくつかの実施形態では、第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、第1の表示生成コンポーネントに対応する第1の面上の第1のユーザインタフェース及び第2の表示生成コンポーネントに対応する第2の面上の第2のユーザインタフェースを表示する両面ディスプレイデバイス(例えば、両面HMD)を形成する。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネント及び任意選択的に第2の表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピューティングシステムは、表示生成コンポーネント(単数又は複数)及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント(単数又は複数)及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。
【0278】
方法12000では、物理的環境内の物理的オブジェクトの位置に対応する三次元環境(例えば、複合現実環境、又は表示生成コンポーネントの透明部分を介して見たときの物理的環境のビュー、又はカメラビュー)内の位置に物理的オブジェクトの表現を表示している間に、コンピューティングシステムは、物理的オブジェクト(例えば、
図7Kの箱の蓋7042及び箱本体7040を含む箱)に対応するコンピュータ生成体験(例えば、仮想現実体験、又は拡張現実体験)が第1の表示生成コンポーネントを介して表示するために利用可能であるという視覚インジケーション(例えば、
図7Kのラベル7046、又は他の視覚インジケーションなど)(例えば、ポップアップラベル、物理的オブジェクトの位置に対応する位置に表示される視覚効果(例えば、きらめく効果、スポットライト、輪郭など))を表示する(12004)(例えば、ユーザが物理的オブジェクトと接触する又は他の方法で三次元環境内の物理的オブジェクトの表現と相互作用する前に)(例えば、コンピュータ生成体験を開始することなく、三次元環境内の物理的オブジェクトの表現の上にポップアップを表示する(例えば、ポップアップは、物理的オブジェクトの表現が第1の表示生成コンポーネントを介して示される視野に入ってきたことに応じて、又は視線入力が物理的オブジェクトの表現上で検出されたことに応じて、表示される))。コンピュータ生成体験が第1の表示生成コンポーネントを介して表示するために利用可能であるという視覚インジケーションを表示している間に、コンピューティングシステムは、物理的環境内の物理的オブジェクトとの相互作用(例えば、
図7L及び
図7Mに示す相互作用)を検出する(12006)(例えば、ユーザの手が物理的オブジェクトに向かって伸ばされる、物理的オブジェクトと接触する、かつ/又は物理的オブジェクトを手に取ることを検出する)(例えば、(例えば、物理的オブジェクトに直接タッチする又は物理的オブジェクトを移動させることによる)物理的環境内の物理的オブジェクトとの相互作用は、(例えば、仮想コントロール若しくは三次元環境内の物理的オブジェクトの表現に向けられたユーザのジェスチャ及び/又は視線入力を介した)物理的オブジェクトに関連付けられた仮想コントロール又は三次元環境内に表示された物理的オブジェクトの表現との相互作用とは異なる)。物理的環境内の物理的オブジェクトとの相互作用を検出したことに応じて(12008)、(例えば、
図7Mに示すように)物理的環境内の物理的オブジェクトとの相互作用が物理的オブジェクトに対応する第1の基準を満たす(例えば、物理的オブジェクトが楽器であり、楽器がユーザの手によって持ち上げられると第1の基準が満たされる、物理的オブジェクトが本であり、本がユーザによって開かれると第1の基準が満たされる、物理的オブジェクトがタブレットコンピュータであり、タブレットコンピュータがユーザの顔の前に保持されると第1の基準が満たされる、など)との判定に従って、コンピューティングシステムは、第1の表示生成コンポーネントを介して、物理的オブジェクトに対応するコンピュータ生成体験(例えば、
図7Mの体験7054)を表示し(例えば、物理的オブジェクトが楽器である場合に楽器を演奏するための視覚ガイドを表示する、物理的オブジェクトが本である場合に本のコンテンツに対応するアニメーション化されたコンテンツ又はビデオを表示する、物理的オブジェクトがタブレットコンピュータである場合にタブレットコンピュータの表面に重ね合わさる仮想コンテンツを表示する、など)、物理的環境内の物理的オブジェクトとの相互作用が第1の基準を満たさないとの判定に従って、コンピューティングシステムは、物理的オブジェクトに対応するコンピュータ生成体験を表示することを取り止める(例えば、
図7Lに示すように、体験7054は表示されない)(例えば、視覚インジケーションの表示を維持している間に)。いくつかの実施形態では、物理的オブジェクトに対応する第1の基準を満たす物理的環境内の物理的オブジェクトとの直接相互作用なしに、コンピューティングシステムは、コンピュータ生成体験を開始せず、第1の表示生成コンポーネントは、物理的オブジェクトに対応するコンピュータ生成体験が第1の表示生成コンポーネントを介して表示するために利用可能であるという視覚インジケーションを表示し続ける、又は第1の表示生成コンポーネントは、どのようにコンピュータ生成体験を開始することができるかに関してユーザをガイドする(例えば、視覚インジケーション及び実際のコンピュータ生成体験とは別個の)視覚プロンプトを表示する。いくつかの実施形態では、視覚プロンプトは、物理的環境内の物理的オブジェクトとのなんらかのユーザ相互作用を検出したことに応じて表示されるが、相互作用は、物理的オブジェクトに対応する第1の基準をまだ満たさない。これは、例えば、
図7K~
図7Mに示されており、コンピュータ生成体験は、物理的オブジェクトとの事前設定された物理的相互作用が検出されると表示され、事前設定された物理的相互作用が検出されなかったときには表示されない。
【0279】
いくつかの実施形態では、コンピューティングシステムは、(例えば、コンピューティングシステムの1つ以上のカメラの移動を検出したこと、又は表示生成コンポーネント(例えば、ヘッドアップディスプレイ、HMDなど)の移動を検出した、及び/又は物理的環境に対するユーザの頭部若しくは目の移動を検出したことに応じて)物理的環境の第1の一部分の表現を表示することから物理的環境の第2の一部分の表現を表示することに切り替えることを含む、第1の表示生成コンポーネントを介して表示される三次元環境のビューを変更する。三次元環境のビューを変更したことに応じて、物理的環境の第1の一部分が物理的オブジェクトの閾値部分未満を含み(例えば、物理的オブジェクトが第1の表示生成コンポーネントの視野内に見える物理的環境の一部分の完全に又はほとんど外側にある)、かつ物理的環境の第2の一部分が物理的オブジェクトの閾値部分より多くを含む(例えば、物理的オブジェクトが第1の表示生成コンポーネントの視野内に見える物理的環境の一部分の完全に又はほとんど内側にある)との判定に従って、コンピューティングシステムは、物理的環境内の物理的オブジェクトの位置に対応する三次元環境のビュー内の位置に視覚インジケーションを表示し(例えば、物理的オブジェクトが第1の表示生成コンポーネントを介してユーザの視野に入ると、視覚インジケーションを表示する)、物理的環境の第1の一部分が物理的オブジェクトの閾値部分より多くを含み、かつ物理的環境の第2の一部分が物理的オブジェクトの閾値部分未満を含むとの判定に従って、コンピューティングシステムは、三次元環境のビュー内に視覚インジケーションを表示することを停止する(例えば、物理的オブジェクトが第1の表示生成コンポーネントを介してユーザの視野を出ると、視覚インジケーションを表示することを停止する)。物理的環境の第1の一部分が物理的オブジェクトの閾値部分未満を含み、かつ物理的環境の第2の一部分が物理的オブジェクトの閾値部分より多くを含むとの判定に従って、物理的環境内の物理的オブジェクトの位置に対応する三次元環境内の位置に視覚インジケーションを表示し、物理的環境の第1の一部分が物理的オブジェクトの閾値部分より多くを含み、かつ物理的環境の第2の一部分が物理的オブジェクトの閾値部分未満を含むとの判定に従って、三次元環境のビュー内に視覚インジケーションを表示することを停止することにより、改善された視覚フィードバック(例えば、物理的環境の第1又は第2の一部分が物理的オブジェクトの閾値部分より多く又は未満を含むかに関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0280】
いくつかの実施形態では、物理的環境内の物理的オブジェクトとの相互作用を検出したことに応じて、物理的環境内の物理的オブジェクトとの相互作用が物理的オブジェクトに対応する第1の基準とは異なる物理的オブジェクトに対応する第2の基準を満たすとの判定に従って、コンピューティングシステムは、第1の表示生成コンポーネントを介して、コンピュータ生成体験の利用可能性を示す視覚フィードバックを表示し、視覚フィードバックは、視覚インジケーションとは異なり、コンピュータ生成体験とは異なる。物理的オブジェクトとの相互作用が第1の基準とは異なる第2の基準を満たすとの判定に従って、視覚インジケーションとは異なり、かつコンピュータ生成体験とは異なる、コンピュータ生成体験の利用可能性を示す視覚フィードバックを表示することにより、改善された視覚フィードバック(例えば、コンピュータ生成体験の利用可能性に関する改善された視覚フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0281】
いくつかの実施形態では、視覚フィードバックは、第1の基準を満たす物理的オブジェクトとの相互作用のタイプに関するガイダンスを提供する(例えば、視覚フィードバックは、物理的環境内の物理的オブジェクトと相互作用してコンピュータ生成体験を開始する方法を示すアニメーションである)。例えば、ユーザが本を手に取ったときに、アニメーション化された矢印が、本の表紙の近くに現れて、ユーザに本の表紙を開くように促す。別の実施例では、ユーザが弦楽器を手に取ったときに、弦楽器の弦に対応する位置にきらめく効果が適用されて、ユーザに弦楽器の弦をユーザの指又はピック若しくは弓でタッチする又はかき鳴らすように促す。別の実施例では、ユーザがタブレットコンピュータを手に取ったときに、タブレットコンピュータのアニメーション化されたワイヤフレーム画像がユーザの顔に向かって移動して、ユーザにタブレットコンピュータをユーザの顔に対して移動するように促す。第1の基準を満たす物理的オブジェクトとの相互作用のタイプに関するガイダンスを提供する視覚フィードバックを表示することにより、改善された視覚フィードバック(例えば、第1の基準を満たす方法に関してユーザをガイドするための改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0282】
いくつかの実施形態では、三次元環境内の視覚フィードバックの位置は、物理的環境内の物理的オブジェクトとの相互作用に応じて、物理的オブジェクトが移動している間の物理的オブジェクトの現在の位置に基づいて選択される。例えば、ユーザが本を手に取った後に、開かれていない本が物理的環境内のユーザの手とともに移動されると、アニメーション化された矢印は、三次元環境内の本の表紙に追従する。同様に、ユーザが弦楽器を手に取った後に、弦楽器がユーザの手の中で物理的環境内で全体として移動するにつれて、きらめく効果は、弦楽器の弦に追従する。同様に、ユーザがタブレットコンピュータを手に取ったときに、ユーザに提示されたそれぞれのアニメーション化されたシーケンスにおいて、タブレットコンピュータのワイヤフレーム画像は、タブレットコンピュータがユーザによって保持されている間に異なる向き及び位置を有し得る場合でも、タブレットコンピュータの現在の位置から常に開始し、ユーザに面するように方向を変え、ユーザの顔に向かって移動する。物理的環境内の物理的オブジェクトとの相互作用に応じて、物理的オブジェクトが移動している間に、物理的オブジェクトの現在の位置に基づいて選択された三次元環境内の位置に視覚フィードバックを表示することにより、改善された視覚フィードバック(例えば、物理的オブジェクトが移動しているという改善された視覚フィードバック、及び物理的オブジェクトの現在の位置に関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0283】
いくつかの実施形態では、視覚フィードバックの第1の特性の値(例えば、アニメーション、視覚効果、及び/又は仮想オブジェクトの範囲(例えば、サイズ、寸法、角度範囲など)、視覚フィードバックの詳細の量、視覚フィードバックなどの輝度、色飽和度、視覚的鮮明度など)は、物理的環境内の物理的オブジェクトとの相互作用の第2の特性の値(例えば、移動距離、移動の角度範囲、移動速度、相互作用のタイプ、所定の基準点までの距離など)に従って調整される(例えば、リアルタイムで動的に)。例えば、いくつかの実施形態では、視覚フィードバックは、ページの表紙が物理的環境内のユーザによってゆっくりと開かれたときに表示される、三次元コンピュータ生成体験のプレビューを示し、表示されるプレビューの量は、大きくなってくるが、表紙と本の最初のページとの間の間隙によって制限され続ける。表紙が閾値量を超えて開かれて、かつ第1の基準が満たされると、プレビューは、表示されることを停止し、完全なコンピュータ生成体験が、三次元環境内で開始される。別の実施例では、ユーザが楽器の弦をランダムにかき鳴らすと、視覚フィードバックは、かき鳴らされた弦から少量のきらめきが出るのを示し、ユーザが楽器を演奏し続けて、ユーザの指の移動のリズムがますます規則的かつ認識可能になると、コンピューティングシステムは、楽器上のユーザの指の移動のリズム及び位置に従って、音楽及び対応する視覚効果を生成し、そして最終的に、楽器上のユーザの指の移動が十分に規則的かつリズミカルであるため、第1の基準が満たされると、コンピュータ生成体験のプレビューが、完全なコンピュータ生成体験に変換される(例えば、他の楽器の伴奏が追加され、三次元環境に仮想ダンサーが追加される、など)。物理的環境内の物理的オブジェクトとの相互作用の第2の特性の値に従って調整される視覚フィードバックの第1の特性の値で視覚フィードバックを表示することにより、改善された視覚フィードバック(例えば、物理的環境内の物理的オブジェクトとの相互作用の第2の特性に関する改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0284】
いくつかの実施形態では、物理的環境内の物理的オブジェクトとの相互作用の第1の特性の第1の変化量(例えば、移動距離、移動の角度範囲、移動速度、又は所定の基準点までの距離などの第1の変化量)は、視覚フィードバックの第2の特性の値の第1の変化量(例えば、視覚フィードバックの詳細の量、視覚フィードバックの輝度、色飽和度、視覚的鮮明度などのアニメーション、視覚効果、及び/又は仮想オブジェクトの範囲(例えば、サイズ、寸法、角度範囲など)の第1の変化量など)を引き起こし、物理的環境内の物理的オブジェクトとの相互作用の第1の特性の第2の変化量(例えば、移動距離、移動の角度範囲、移動速度、又は所定の基準点までの距離などの第2の変化量)は、視覚フィードバックの第2の特性の値の第2の変化量(例えば、視覚フィードバックの詳細の量、視覚フィードバックの輝度、色飽和度、視覚的鮮明度などのアニメーション、視覚効果、及び/又は仮想オブジェクトの範囲(例えば、サイズ、寸法、角度範囲など)の第2の変化量など)を引き起こす。例えば、体験は、本が開かれるにつれて徐々に現れるなど、相互作用が発生するにつれて、徐々に現れる(例えば、フェードインする、又は増加した量の空間を占める)。物理的環境内の物理的オブジェクトとの相互作用の第1の特性の第1の変化量に従って、視覚フィードバックの第2の特性の値を第1の量だけ変更し、物理的環境内の物理的オブジェクトとの相互作用の第1の特性の第2の変化量に従って、視覚フィードバックの第2の特性の値を第2の量に従って変更することにより、改善された視覚フィードバック(例えば、物理的環境内の物理的オブジェクトとの相互作用に関する改善された、かつ連続的な視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0285】
いくつかの実施形態では、第1の表示生成コンポーネントを介して、物理的オブジェクトに対応するコンピュータ生成体験を表示することは、物理的オブジェクトとの相互作用が第1の所定の入力モダリティに対応する(例えば、相互作用がタブレットコンピュータを手に取ってそれをユーザの顔の前に持ち上げることである、相互作用が楽器を手に取ってそれをユーザの身体を横切って置くことである、又は相互作用が本を手に取って表示を開くことである、など)との判定に従って、第1の所定の入力モダリティに対応するコンピュータ生成体験の第1のバージョンを表示する(例えば、第1の表示生成コンポーネントは、ユーザの顔の前に拡大した三次元ユーザインタフェースを表示し、ユーザインタフェースは、三次元ユーザインタフェースに向けた空中ジェスチャ入力及び視線入力に応答する、第1の表示生成コンポーネントは、ギター又はベースに対応する弦を表示し、楽器に対応する位置でのユーザの指のかき鳴らす動きに応答する、又は第1の表示生成コンポーネントは、本の各章のプレビューを順に表示し、次の章のプレビューに行くための空中スワイプ若しくは現在プレビューされている章に対応するCGRを開始するための空中タップに応答する、など)ことと、物理的オブジェクトとの相互作用が第2の所定の入力モダリティに対応する(例えば、相互作用がタブレットコンピュータを手に取ってそれを横向きに回転させそれをユーザの前の机の上に置くことである、相互作用が楽器を手に取ってそれをユーザの膝の上若しくはユーザが足を組んだ間の床の上に置くことである、又は相互作用が本を手に取って真ん中から本を開くことである、など)との判定に従って、第2の所定の入力モダリティに対応するコンピュータ生成体験の第2のバージョンを表示する(例えば、第1の表示生成コンポーネントは、机上のタブレットコンピュータの位置に対応する位置に仮想キーボードを表示し、ユーザが仮想キーボード上の異なるキーに対応する位置で机をタップすると、三次元環境内でユーザによって入力されたテキストを表示する(例えば、タブレットコンピュータ上に示されるユーザインタフェースは、隠されている)、第1の表示生成コンポーネントは、1つ以上のドラム表面を表示し、空中又はユーザの膝の上のユーザの指のタップに応じて、ドラムビートを生成する、又は第1の表示生成コンポーネントは、現在開かれている本の部分に対応する三次元映画を表示する、など)ことと、を含む。物理的オブジェクトとの相互作用が第1の所定の入力モダリティに対応するとの判定に従って、第1の所定の入力モダリティに対応するコンピュータ生成体験の第1のバージョンを表示し、物理的オブジェクトとの相互作用が第2の所定の入力モダリティに対応するとの判定に従って、第2の所定の入力モダリティに対応するコンピュータ生成体験の第2のバージョンを表示することにより、更なるユーザ入力(例えば、コンピュータ生成体験の第1又は第2のバージョンを選択するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、コンピュータ生成体験の第1又は第2のバージョンを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0286】
いくつかの実施形態では、コンピュータ生成体験は、仮想現実体験であり、コンピュータ生成体験を表示することは、三次元環境内の物理的オブジェクトの表現(例えば、現実的なレンダリング、パススルービュー、又はカメラビュー)を表示することを停止することを含む(例えば、物理的環境のユーザのビューが第1の表示生成コンポーネントの存在によって遮断されていなかった場合に物理的オブジェクトの物理的位置がユーザの視野内にあっても、物理的オブジェクトの表現(例えば、物理的オブジェクトのカメラビュー又は第1の表示生成コンポーネントの透明部分を介して見たときの物理的オブジェクトのビュー)は、第1の表示生成コンポーネントを介してもはや表示されない又は見えない)。いくつかの実施形態では、物理的オブジェクトの輪郭又は存在のインジケーション(例えば、物理的オブジェクトの影、輪郭、仮想化された表現、又は様式化された表現)が、任意選択的に、コンピュータ生成体験中の物理的環境内のオブジェクトの位置に対応する位置に表示される。物理的環境内の物理的オブジェクトとの相互作用が物理的オブジェクトに対応する第1の基準を満たすとの判定に従って、三次元環境内の物理的オブジェクトの表現を表示することを停止することを含む、仮想現実体験であるコンピュータ生成体験を表示し、物理的環境内の物理的オブジェクトとの相互作用が第1の基準を満たさないとの判定に従って、コンピュータ生成体験を表示することを取り止めることにより、追加の表示されるコントロール(例えば、仮想現実体験であるコンピュータ生成体験を表示するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0287】
いくつかの実施形態では、コンピュータ生成体験は、拡張現実体験であり、コンピュータ生成体験を表示することは、三次元環境内の物理的オブジェクトの表現(例えば、現実的なレンダリング、パススルービュー、又はカメラビュー)の表示を維持することを含む(例えば、物理的環境のユーザのビューが第1の表示生成コンポーネントの存在によって遮断されていなかった場合に物理的オブジェクトの物理的位置がユーザの視野内にあるときに、物理的オブジェクトの表現(例えば、物理的オブジェクトのカメラビュー又は第1の表示生成コンポーネントの透明部分を介して見たときの物理的オブジェクトのビュー)は、第1の表示生成コンポーネントを介して表示される又は見える)。いくつかの実施形態では、仮想オーバーレイが、コンピュータ生成体験中の物理的環境内の物理的オブジェクトの位置に対応する位置に表示されて、物理的オブジェクトとのユーザの体験を拡張する。物理的環境内の物理的オブジェクトとの相互作用が物理的オブジェクトに対応する第1の基準を満たすとの判定に従って、三次元環境内の物理的オブジェクトの表現の表示を維持することを含む、拡張現実体験であるコンピュータ生成体験を表示し、物理的環境内の物理的オブジェクトとの相互作用が第1の基準を満たさないとの判定に従って、コンピュータ生成体験を表示することを取り止めることにより、追加の表示されるコントロール(例えば、拡張現実体験 であるコンピュータ生成体験を表示するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0288】
図12における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、9000、10000、11000、及び13000)に関して本明細書で記載した他のプロセスの詳細はまた、
図12に関連して上述した方法12000に類似の方法で適用可能であることに留意されたい。例えば、方法12000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記述した他の方法(例えば、方法8000、9000、10000、11000、及び13000 )を参照して本明細書に記述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
【0289】
図13は、いくつかの実施形態による、表示生成コンポーネントのハウジング上の入力に応じて動作を実行する方法13000のフローチャートである。
【0290】
いくつかの実施形態では、表示生成コンポーネントは、ハウジングの様々な部分の近くの又はその上のタッチ又はホバー入力を検出するためのセンサを含む(又は別の方法で関連付けられた外部センサを有する)ハウジングに収容されている。異なるタイプの(例えば、移動パターン(例えば、タップ、スワイプなど)、持続時間(例えば、長い、短いなど)、強度(例えば、軽い、深いなど)などに基づく)及びハウジングの外部上の又はその近くの異なる位置のタッチ入力及び/又はホバー入力は、表示生成コンポーネント又は表示生成コンポーネントによって表示されるコンピュータ生成環境に関連付けられた異なる動作をトリガするために使用される。相互作用ヒューリスティックは、入力が検出された時点で片手又は両手がハウジング上で検出されたかに応じて、動作が実行されるべきかどうかを判定するために使用される。ユーザが入力を提供することを意図している、又は単にユーザの手で表示生成コンポーネントの位置を調整しているかのインジケータとしてハウジング上で検出された手の数を使用することにより、表示生成コンポーネントの不注意な又は意図しない動作を低減するのを支援し、それによって、ヒューマンマシンインタフェースをより効率的にし、これにより、バッテリ駆動式コンピューティングシステム上の電力を節約する。
【0291】
いくつかの実施形態では、方法13000は、ハウジングと、ハウジング内に収容された第1の表示生成コンポーネント(例えば、第1の表示生成コンポーネント及びハウジングは、ヘッドアップディスプレイ、ヘッドマウントディスプレイ(HMD)、ディスプレイ、タッチスクリーン、プロジェクタなどを構成する)と、1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタン、グローブ、ウォッチ、動きセンサ、向きセンサなど)と、を含むコンピューティングシステムにおいて実行される(13002)。いくつかの実施形態では、コンピューティングシステムは、ヘッドアップディスプレイ、ヘッドマウントディスプレイ(HMD)、ディスプレイ、タッチスクリーン、プロジェクタなどの同じハウジング内に収容された第1の表示生成コンポーネント及び第2の表示生成コンポーネントを含む(例えば、第1の表示生成コンポーネントは、ユーザに面する表示コンポーネントであり、ユーザにCGR体験を提供し、第2の表示生成コンポーネントは、ユーザから離れて、かつユーザの外部環境に向かって向く表示コンポーネントであり、任意選択的に、第1の表示生成コンポーネント(例えば、表示されたコンテンツ、動作状態など)及び/又はユーザ(例えば、ユーザの目の移動、ユーザの注意状態など)に関連する状態情報を外部環境内の他のユーザに提供する)。いくつかの実施形態では、第1の表示生成コンポーネント及び第2の表示生成コンポーネントは、第1の表示生成コンポーネントに対応する第1の面上の第1のユーザインタフェース及び第2の表示生成コンポーネントに対応する第2の面上の第2のユーザインタフェースを表示する両面ディスプレイデバイス(例えば、両面HMD)を形成する。いくつかの実施形態では、コンピューティングシステムは、第1の表示生成コンポーネント及び任意選択的に第2の表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピューティングシステムは、表示生成コンポーネント(単数又は複数)及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント(単数又は複数)及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。
【0292】
方法13000では、コンピューティングシステムは、(例えば、
図7O、
図7P、及び
図7Qそれぞれに示すように)第1の表示生成コンポーネントを収容するハウジング上の第1の手を検出する(13004)。第1の表示生成コンポーネントを収容するハウジング上の第1の手を検出したことに応じて(13006)、(例えば、
図7Qに示すように)第2の手がハウジング上で検出されることと連動して、第1の手が検出されたとの判定に従って、コンピューティングシステムは、第1の手に関連付けられた動作(例えば、ハウジング上の第1の手によって提供される入力に対応する動作)の実行を取り止め、(例えば、
図7Q及び
図7Pに示すように)ハウジング上の別の手を検出することなく、第1の手がハウジング上で検出されたとの判定に従って、コンピューティングシステムは、第1の手に関連付けられた動作(例えば、ハウジング上の第1の手によって提供される入力に対応する動作)を実行する。
【0293】
いくつかの実施形態では、コンピューティングシステムは、複数の動作状態を有し、第1の手に関連付けられた動作を実行することは、ハウジング上の第1の手が第1の基準(例えば、第1の手のタッチ又はジェスチャ基準)を満たすとの判定に従って、第1の基準に対応する第1の方法でコンピューティングシステムの動作状態を変更する第1の動作を実行することと、ハウジング上の第1の手が第1の基準とは異なる第2の基準(例えば、第2の手のタッチ又はジェスチャ基準)を満たすとの判定に従って、第1の方法とは異なる第2の基準に対応する第2の方法でコンピューティングシステムの動作状態を変更する第2の動作を実行することと、を含む。ハウジング上の第1の手が第1の基準を満たすとの判定に従って、第1の基準に対応する第1の方法でコンピューティングシステムの動作状態を変更する第1の動作を実行し、ハウジング上の第1の手が第1の基準とは異なる第2の基準を満たすとの判定に従って、第2の基準に対応する第1の方法とは異なる第2の方法でコンピューティングシステムの動作状態を変更する第2の動作を実行することにより、追加の表示されるコントロール(例えば、第1の動作を実行するため及び/又は第2の動作を実行するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0294】
いくつかの実施形態では、第1の基準は、第1の位置基準であって、第1の位置基準が満たされるために、ハウジングの第1の所定の一部分(例えば、ハウジングの左側、上縁部、左上角など)上で第1の手が検出されることを必要とする第1の位置基準を含み、第2の基準は、第2の位置基準であって、第2の位置基準が満たされるために、ハウジングの第2の所定の一部分(例えば、ハウジングの右側、底縁部、左下角など)上で第1の手が検出されることを必要とする第2の位置基準を含み、ハウジングの第2の所定の一部分は、ハウジングの第1の所定の一部分とは異なる。いくつかの実施形態では、ハウジングは、ハウジングとの接触の位置を検出する1つ以上のセンサ(例えば、ハウジングの外側の手及び/又は指のタッチ位置並びに任意選択的に接触強度を検出する、タッチセンサ及び/又は強度センサ)を含む。ハウジングの第1の所定の一部分上で第1の手が検出されることを必要とする第1の基準に対応する第1の方法でコンピューティングシステムの動作状態を変更する第1の動作を実行し、ハウジングの第1の所定の一部分とは異なるハウジングの第2の所定の一部分上で第1の手が検出されることを必要とする第2の基準に対応する第1の方法とは異なる第2の方法でコンピューティングシステムの動作状態を変更する第2の動作を実行することにより、追加の表示されるコントロール(例えば、第1の動作を実行するため及び/又は第2の動作を実行するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0295】
いくつかの実施形態では、第1の基準は、第1の基準が満たされるために、第1の手がハウジングに対して第1の移動を行うことを必要とする第1の移動基準を含み(例えば、第1の手の第1の移動を検出することは、第1の所定の方向(例えば、ハウジングの縁部に沿って上から下へ、ハウジングの側面に沿って前から後ろへ、又は時計回りなど)の、並びに/又は第1の所定の移動パターンに従う(例えば、まっすぐに移動する、又は外側にらせん状に移動するなど)、並びに/又は第1の所定の手の姿勢及び/若しくはハウジングに対する第1の空間的関係(例えば、第1の手がハウジングの上縁部の上からハウジングに接近する、第1の手がハウジングの左側からのハウジングに接近する、など)を形成する(例えば、第1の手がハウジングにタッチダウンした後に、第1の手の4本の指が掌を下に向けた状態で延びる、又はハウジングにタッチダウンした後に、第1の手の2本の指が互いに向かってピンチする、など)、ハウジング上の第1の手による1つ以上の接触の移動を検出することを含む)、第2の基準は、第2の基準が満たされるために、第1の手がハウジングに対して第2の移動を行うことを必要とする第2の移動基準を含み(例えば、第1の手の第2の移動を検出することは、第2の所定の方向(例えば、ハウジングの縁部に沿って下から上へ、又はハウジングの側面に沿って後ろから前へなど)の、並びに/又は第2の所定の移動パターンに従う(例えば、ジグザグに、又はらせん状に内側に移動するなど)、並びに/又は第2の所定の手の姿勢及び/若しくはハウジングに対する第2の空間的関係(例えば、第1の手がハウジングの右上角の上からハウジングに接近する、第1の手がハウジングの左下角からハウジングに接近する、など)を形成する(例えば、第1の手がハウジングにタッチダウンした後に、3本の指が延びた状態で第1の手の2本の指がハウジングをピンチする、又はハウジングにタッチダウンした後に、2本の指がハウジングから離れて延びた状態で第1の手の3本の指がハウジングと接触したままでいる、など)、ハウジング上の第1の手による1つ以上の接触の移動を検出することを含む)、第2の移動は、第1の移動とは異なる。第1の手がハウジングに対して第1の移動を行うことを必要とする第1の基準に対応する第1の方法でコンピューティングシステムの動作状態を変更する第1の動作を実行し、第1の手がハウジングに対して第2の移動を行うことを必要とする第2の基準に対応する第1の方法とは異なる第2の方法でコンピューティングシステムの動作状態を変更する第2の動作を実行することにより、追加の表示されるコントロール(例えば、第1の動作を実行するため及び/又は第2の動作を実行するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0296】
いくつかの実施形態では、第1の基準は、第1の基準が満たされるために、第1の手がハウジング上にある間に第1の所定の姿勢にあることを必要とする第1の姿勢基準を含み(例えば、第1の所定の姿勢の第1の手を検出することは、指が完全に延ばされ、かつ掌がハウジングの左側に面した状態で第1の手を検出すること、又は掌側がハウジングの左側に面した状態で拳を形成する第1の手を検出することなどを含む)、第2の基準は、第2の基準が満たされるために、第1の手がハウジング上にある間に第2の所定の姿勢にあることを必要とする第2の姿勢基準を含み(例えば、第2の所定の姿勢の第1の手を検出することは、指が完全に延ばされ、かつ掌がハウジングの上縁部の上で下を向いた状態で第1の手を検出すること、又は2本若しくは3本の指だけでハウジングをピンチする第1の手を検出することなどを含む)、第2の所定の姿勢は、第1の所定の姿勢とは異なる。第1の手がハウジング上にある間に第1の所定の姿勢にあることを必要とする第1の基準に対応する第1の方法でコンピューティングシステムの動作状態を変更する第1の動作を実行し、第1の手がハウジング上にある間に第1の所定の姿勢とは異なる第2の所定の姿勢にあることを必要とする第2の基準に対応する第1の方法とは異なる第2の方法でコンピューティングシステムの動作状態を変更する第2の動作を実行することにより、追加の表示されるコントロール(例えば、第1の動作を実行するため及び/又は第2の動作を実行するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0297】
いくつかの実施形態では、第1の表示生成コンポーネントを収容するハウジング上の第1の手を検出したことに応じて、かつ、ハウジング上の別の手を検出することなく、第1の手がハウジング上で検出されたとの判定に従って、コンピューティングシステムは、視覚調整基準であって、視覚調整基準が満たされるために、コンピューティングシステムが第1の動作状態(例えば、完全な没入型コンテンツ又は半没入型コンテンツを提供する没入状態)で動作している間に第1の手によって互いに連動して満たされるための個別の位置基準及び個別の姿勢基準を含む視覚調整基準(例えば、第1の基準は、第1の表示生成コンポーネントを介して表示されるコンテンツの視覚没入レベルを低減するための(かつ第1の生成コンポーネントを介して提供されるパススルーコンテンツをアクティブ化及び/又は増加させるための)視覚的調整基準である)が満たされる(例えば、視覚調整基準は、第1の手が第1の表示生成コンポーネントを収容するハウジングに対して第1の位置に位置している間に第1の姿勢にあることを必要とする(例えば、視覚調整基準は、第1の手の掌側が下を向いた状態で第1の手の少なくとも4本の指の少なくとも第1の遠位部分(例えば、末節骨、中間指骨まで、基節骨まで、又は中手骨まで)がハウジングの上部の上に延ばされる(例えば、ユーザが遠く離れた位置を見ることを望むかのように)ことを必要とする))との判定に従って、コンピューティングシステムの動作状態を第1の動作状態から第1の動作状態とは異なる第2の動作状態に変更することを含む、第1の手に関連付けられた動作を実行し、第1の表示生成コンポーネントは、コンピューティングシステムが第1の動作状態にあったときと比較して、コンピューティングシステムが第2の動作状態にある間に、第1の表示生成コンポーネントを取り囲む物理的環境の増加したビュー(例えば、物理的環境のビューに対してより広い視野を有する、より高い鮮明度若しくは透明度を有する、より増加した輝度を有する、より鮮明なフォーカスを有する、より小さいボケを有する、より小さいコンピュータ生成視覚不明瞭化を有するなど、又は全くビューなしから物理的環境のなんらかの量のビューに遷移すること)を提供する。いくつかの実施形態では、ユーザの手がHMDのハウジングに対して第1の位置に位置している間に第1の姿勢にあることを検出したことに応じて、コンピューティングシステムは、ユーザに面する第1の表示生成コンポーネントがユーザを取り囲む物理的環境のパススルービューを示すパススルーモードに(例えば、完全没入モードから半没入モード(例えば、第1の半パススルーモード)に、又は半没入モードから非没入モード(例えば、第2の完全パススルーモード)に)遷移する命令を実行する(例えば、物理的環境のカメラビューが、第1の表示生成コンポーネントによって表示される、又は第1の表示生成コンポーネントは、より透明になって、同時に表示される仮想コンテンツの有無にかかわらず、ユーザが第1の表示生成コンポーネントの透明部分を介して見ることを可能にする)。いくつかの実施形態では、視覚調整基準の個別の位置基準及び個別の姿勢基準を満たす位置及び姿勢で第1の手がハウジング上で検出されたが、第2の手が第1の手と同時にハウジング上で検出された場合、視覚調整基準は満たされず、結果として、コンピューティングシステムは、第1の動作状態から第2の動作状態に遷移しない。加えて、第1の手が視覚調整基準の個別の位置基準及び個別の姿勢基準のいずれかを満たさないため、視覚調整基準が満たされないとの判定に従って、コンピューティングシステムはまた、第1の動作状態から第2の動作状態に遷移しない。コンピューティングシステムが第1の動作状態で動作している間に第1の手によって互いに連動して満たされるための 個別の位置基準及び個別の姿勢基準との判定に従って、コンピューティングシステムの動作状態を第1の動作状態から第1の動作状態とは異なる第2の動作状態に変更し、コンピューティングシステムが第2の動作状態にある間に、第1の表示生成コンポーネントを取り囲む物理的環境の増加したビューを提供することにより、追加の表示されるコントロール(例えば、第1の表示生成コンポーネントを取り囲む物理的環境の増加したビューを提供するための追加の表示されるコントロール、第1の動作状態から第2の動作状態に変更するための追加の表示されるコントロールなど)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0298】
いくつかの実施形態では、コンピューティングシステムが第2の動作状態にある(例えば、第1の表示生成コンポーネントが周囲の物理的環境の第1又は第2のパススルービューを表示している)間に、コンピューティングシステムは、(例えば、ハウジングに対して第1の手の姿勢及び/又は位置を変更する第1の手の移動により)視覚調整基準が第1の手によってもはや満たされないことを検出し、視覚調整基準が第1の手によってもはや満たされないことを検出したことに応じて、コンピューティングシステムは、コンピューティングシステムの動作状態を第2の動作状態から第1の動作状態に復元する(例えば、コンピューティングシステムが第1の動作状態にある間に、第1の表示生成コンポーネントは、コンピューティングシステムが第2の動作状態にあるときと比較して、第1の表示生成コンポーネントを取り囲む物理的環境の低減したビュー(例えば、物理的環境のビューに対してより狭い視野を有する、より低い鮮明度若しくは透明度を有する、低減した輝度を有する、より柔らかなフォーカスを有する、より大きなボケを有する、より大きなコンピュータ生成視覚不明瞭化を有するなど、又は物理的環境のなんらかの量のビューから全く物理的環境のビューなしに遷移すること)を提供する)。例えば、ユーザがユーザの手をHMDの上部から離れるように移動させたことを検出したことに応じて、コンピューティングデバイスは、物理的環境のパススルービューを表示することを停止し、第1の表示生成コンポーネントを介して没入型仮想コンテンツを表示し続ける。視覚調整基準がもはや第1の手によってもはや満たされないこと を検出したことに応じて、コンピューティングシステムの動作状態を第2の動作状態から第1の動作状態に復元することにより、更なるユーザ入力(例えば、コンピューティングシステムの動作状態を第2の動作状態から第1の動作状態に復元するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに動作状態を復元する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0299】
いくつかの実施形態では、第1の表示生成コンポーネントを収容するハウジング上で第1の手を検出したことに応じて、かつ、ハウジング上の別の手を検出することなく、第1の手がハウジング上で検出されたとの判定に従って、コンピューティングシステムは、オーディオ調整基準であって、オーディオ調整基準が満たされるために、コンピューティングシステムが第3の動作状態(例えば、完全な没入型オーディオを提供するオーディオ没入状態(例えば、完全なノイズキャンセル及びコンピュータ生成コンテンツの周囲の音を有する)、又は半オーディオ没入状態(例えば、ノイズキャンセルなしだが、コンピュータ生成コンテンツの左右両方のオーディオチャネル上で通常のオーディオ音量を有する))で動作している間に第1の手によって互いに連動して満たされるための個別の位置基準及び個別の姿勢基準を含むオーディオ調整基準(例えば、第2の基準は、第1の表示生成コンポーネントと同じハウジングに含まれる第1のオーディオ生成コンポーネント(例えば、HMDのスピーカ又はイヤフォン)を介して提供されるコンテンツのオーディオ没入レベルを低減するための及び/又は第1のオーディオ生成コンポーネントを介して提供されるパススルーオーディオ(例えば、物理的環境からの音)を低減するためのオーディオ調整基準である)が満たされる(例えば、オーディオ調整基準は、第1の手が第1の表示生成コンポーネント及び第1のオーディオ生成コンポーネントを収容するハウジングに対して第2の位置に位置する間に第2の姿勢にあることを必要とする(例えば、オーディオ調整基準は、(例えば、ユーザが何かを聞くことを望むかのように)第1の手の掌側が前に向いた状態で第1の手がユーザの頭部の側面の隣(例えば、同じハウジング内に第1の表示生成コンポーネント及び第1のオーディオ生成コンポーネントの両方を含むHMDの側面の隣)に少なくとも半開であることを必要とする))との判定に従って、コンピューティングシステムの動作状態を第3の動作状態から第3の動作状態とは異なる第4の動作状態に変更することを含む、第1の手に関連付けられた動作を実行し、コンピューティングシステムの第1のオーディオ生成コンポーネント(例えば、第1のオーディオ生成コンポーネントは、第1の表示生成コンポーネントと同じハウジングに含まれる、又は第1のオーディオ生成コンポーネントは、ハウジングによって第1の表示生成コンポーネントから分離されており、コンピューティングシステムの動作中にユーザの耳(例えば、第1の手の隣のユーザの頭部の側面上の耳)の上又は中に配置されている)は、コンピューティングシステムが第3の動作状態にあったときと比較して、コンピューティングシステムが第4の動作状態にある間に、第1のオーディオ生成コンポーネントを取り囲む物理的環境からの増加した量のパススルー音を提供する(例えば、第1のオーディオ生成コンポーネントによって提供されるアクティブコンピュータ生成ノイズキャンセルがない又は低減した状態で、第1の表示生成コンポーネントを介して提供されfるコンピュータ生成視覚コンテンツに付随するオーディオの低減した音量又は消音の状態で、外部の物理的環境からの音の低減したオーディオ不明瞭化で、など)。いくつかの実施形態では、ユーザの手がHMDのハウジングに対して第2の位置に位置している間に第2の姿勢にあることを検出したことに応じて、コンピューティングシステムは、第1の手の隣のユーザの頭部の側面上又はユーザの頭部の両側面上の第1のオーディオ生成コンポーネントがユーザを取り囲む物理的環境からの音の増加したオーディオパススルーを提供するオーディオパススルーモードに(例えば、完全没入モードから半没入モード(例えば、第3の半パススルーモード)に、又は半没入モードから非没入モード(例えば、第4の完全パススルーモード)に)遷移する命令を実行する(例えば、同時に表示される仮想コンテンツの有無にかかわらず、コンピュータ生成オーディオコンテンツは、音量若しくは忠実度が低減される、並びに/又は第1のオーディオ生成コンポーネントによる周囲の物理的環境からの音の遮断、キャンセル、及び/若しくは不明瞭化が低減される)。いくつかの実施形態では、視覚調整基準の個別の位置基準及び個別の姿勢基準を満たす位置及び姿勢で第1の手がハウジング上で検出されたが、第2の手が第1の手と同時にハウジング上で検出された場合、オーディオ調整基準 は満たされず、結果として、コンピューティングシステムは、第3の動作状態から第4の動作状態に遷移しない。加えて、第1の手がオーディオ調整基準の個別の位置基準及び個別の姿勢基準のいずれかを満たさないため、オーディオ調整基準が満たされないとの判定に従って、コンピューティングシステムはまた、第3の動作状態から第4の動作状態に遷移しない。コンピューティングシステムが第3の動作状態にあったときと比較して、コンピューティングシステムが第4の動作状態にある間に、かつ個別の位置基準及び個別の姿勢基準が第1の手によって互いに連動して満たされるとの判定に従って、コンピューティングシステムの動作状態を第3の動作状態から第3の動作状態とは異なる第4の動作状態に変更し、コンピューティングシステムの第1のオーディオ生成コンポーネントが第1のオーディオ生成コンポーネントを取り囲む物理的環境からの増加した量のパススルー音を提供することにより、追加の表示されるコントロール(例えば、第1のオーディオ生成コンポーネントを取り囲む物理的環境からのパススルー音の量を増加するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0300】
いくつかの実施形態では、コンピューティングシステムが第4の動作状態にある(例えば、第1のオーディオ生成コンポーネントがコンピュータ生成干渉及び/若しくは不明瞭化がない又は低減した状態で外部の音をユーザの耳にパススルーさせている)間に、コンピューティングシステムは、(例えば、ハウジングに対して第1の手の姿勢及び/又は位置を変更する第1の手の移動により)オーディオ調整基準が第1の手によってもはや満たされないことを検出する。オーディオ調整基準が第1の手によってもはや満たされないことを検出したことに応じて、コンピューティングシステムは、コンピューティングシステムの動作状態を第4の動作状態から第3の動作状態に復元する(例えば、コンピューティングシステムが第3の動作状態にある間に、第1のオーディオ生成コンポーネントは、コンピューティングシステムが第4の動作状態にあるときと比較して、第1のオーディオ生成コンポーネントを取り囲む物理的環境からの音の増加した干渉及び不明瞭化を提供する(例えば、コンピュータ生成コンテンツに対してより高い音量で、より強いノイズキャンセル効果で、より多くのホワイトノイズで、又は外部の音に対してオーディオ遮断、キャンセル、若しくは不明瞭化なしから外部の音に対してなんらかのレベルのコンピュータ生成オーディオ遮断、キャンセル、若しくは不明瞭化に遷移する))。例えば、ユーザがユーザの手をHMDの側面から離れるように移動させたことを検出したことに応じて、コンピューティングデバイスは、コンピュータ生成コンテンツの通常の音量を再開することによって、及び/又は物理的環境からの外部音に対してノイズキャンセルを増加させることによって、外部音をユーザの耳にパススルーさせることを停止し、第1のオーディオ生成コンポーネントを介して没入型オーディオコンテンツを生成し続ける。オーディオ調整基準が第1の手によってもはや満たされないことを検出したことに応じて、コンピューティングシステムの動作状態を第4の動作状態から第3の動作状態に復元することにより、更なるユーザ入力(例えば、動作状態を第4の動作状態から第3の動作状態に変更するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに動作状態を復元する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0301】
いくつかの実施形態では、第1の表示生成コンポーネントを収容するハウジング上の第1の手を検出したことに応じて、かつ、ハウジング上の別の手を検出することなく、第1の手がハウジング上で検出されたとの判定に従って、コンピューティングシステムは、プライバシー調整基準であって、プライバシー調整基準が満たされるために、第1の手によって互いに連動して満たされるための個別の移動基準及び個別の姿勢基準を含むプライバシー調整基準(例えば、第1の基準、又は第2の基準、又は第3の基準は、コンピューティングシステムの第2の表示生成コンポーネント上のコンピューティングシステムの動作状態に関する状態情報を表示することと表示しないこととの間でトグルするためのプライバシー調整基準であり(例えば、第2の表示生成コンポーネントは、第1の表示生成コンポーネントと同じハウジングに含まれており、ユーザから離れて向いている)、状態情報は、第1のオーディオ/表示生成コンポーネント(単数又は複数)を介して提供されるオーディオ/視覚コンテンツの没入レベルに基づく)(例えば、プライバシー調整基準は、第1の手が第1の表示生成コンポーネントを収容するハウジングに対して第1の方向に移動している間に第3の姿勢にあることを必要とする(例えば、プライバシー調整基準は、第1の手の親指及び人差し指がピンチジェスチャを形成すること、及び(例えば、ユーザが窓に対してブラインドを引き下げている又は引き上げているかのように)第1の手がピンチジェスチャを維持している間のハウジングの側面の隣の第1の手の下方又は上方移動を必要とする))が満たされるとの判定に従って、コンピューティングシステムの動作状態を第5の動作状態から第5の動作状態とは異なる第6の動作状態に変更することを含む第1の手に関連付けられた動作を実行し、コンピューティングシステムの第2の表示生成コンポーネント(例えば、第2の表示生成コンポーネントは、第1の表示生成コンポーネントと同じハウジングに含まれている、又は第2の表示生成コンポーネントは、ハウジングによって第1の表示生成コンポーネントから分離されており、コンピューティングシステムの動作中に第1の表示生成コンポーネントと背中合わせに配置されている)は、第1の表示生成コンポーネントを介して表示されるコンテンツに関する第1の量の状態情報を提供することと第1の表示生成コンポーネントを介して表示されるコンテンツに関する第2の量の状態情報を提供することとの間で切り替える(例えば、それから切り替える、又はそれらの間でトグルする)(例えば、第1の表示生成コンポーネントがコンテンツを表示しているときにリアルタイムで)。いくつかの実施形態では、プライバシー調整基準の個別の移動基準及び個別の姿勢基準を満たす移動及び姿勢で第1の手がハウジング上で検出されたが、第2の手が第1の手と同時にハウジング上で検出された場合、プライバシー調整基準は満たされず、結果として、コンピューティングシステムは、第5の動作状態から第6の動作状態に遷移しない。加えて、第1の手がプライバシー調整基準の個別の移動基準及び個別の姿勢基準のいずれかを満たさないため、プライバシー調整基準が満たされないとの判定に従って、コンピューティングシステムはまた、第5の動作状態から第6の動作状態に遷移しない。個別の移動基準及び個別の姿勢基準が第1の手によって互いに連動して満たされるとの判定に従って、コンピューティングシステムの動作状態を第5の動作状態から第5の動作状態とは異なる第6の動作状態に変更し、コンピューティングシステムが第1の表示生成コンポーネントを介して表示されるコンテンツに関する第1の量の状態情報を提供することと第1の表示生成コンポーネントを介して表示されるコンテンツに関する第2の量の状態情報を提供することとの間で切り替えることにより、追加の表示されるコントロール(例えば、第1の量の状態情報を提供することと第2の量の状態情報を提供することとの間で切り替えるための追加の表示されるコントロール、第5の動作状態から第6の動作状態に変更するための追加の表示されるコントロールなど)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0302】
いくつかの実施形態では、状態情報はまた、第1の表示生成コンポーネントのコンテンツ表示面に面するユーザの目の表現を含み、コンピューティングシステムの動作状態を第5の動作状態から第5の動作状態とは異なる第6の動作状態に変更することは、第1の表示生成コンポーネントを介してユーザの目の表現を表示することとユーザの目の表現を表示しないこととの間で切り替えることを含む(例えば、ユーザの目の表現は、第1の表示生成コンポーネントがコンピュータ生成コンテンツをユーザに表示している間のユーザの目のリアルタイム画像に基づく)。個別の移動基準及び個別の姿勢基準が第1の手によって互いに連動して満たされるとの判定に従って、ユーザの目の表現を表示することとユーザの目の表現を表示しないこととの間で切り替えることを含む、コンピューティングシステムの動作状態を第5の動作状態から第6の動作状態に変更することにより、追加の表示されるコントロール(例えば、第1の量の状態情報を提供することと第2の量の状態情報を提供することとの間で切り替えるための追加の表示されるコントロール、第5の動作状態から第6の動作状態に変更するための追加の表示されるコントロールなど)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0303】
いくつかの実施形態では、コンピューティングシステムが第6の動作状態(例えば、第6の動作状態は、第2の表示生成コンポーネントによって表示される状態情報を有する低プライバシー状態である、又は第6の動作状態は、第2の表示生成コンポーネントによって表示される低減した状態情報を有さない若しくは有する高プライバシー状態である)である間に、コンピューティングシステムは、(例えば、第1の手の姿勢を変更する第1の手又はハウジングの側面から離れて移動する第1の手の移動により)プライバシー調整基準が第1の手によってもはや満たされないことを検出する。プライバシー調整基準が第1の手によってもはや満たされないことを検出したことに応じて、コンピューティングシステムは、コンピューティングシステムの動作状態を第6の動作状態に維持する。プライバシー調整基準が第1の手によってもはや満たされないことを検出したことに応じて、コンピューティングシステムの動作状態を第6の動作状態に維持することにより、第6の動作状態を維持するために必要な入力の数を低減する(例えば、ユーザは、第6の動作状態を維持するために追加の入力を実行する必要がなく、第1の手は、第6の動作状態を維持するためにプライバシー調整基準を満たし続ける必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0304】
いくつかの実施形態では、コンピューティングシステムが第6の動作状態にある(例えば、第2の表示生成コンポーネントが第1の表示生成コンポーネントを介して提供されるコンピュータ生成コンテンツに対応する状態情報を表示している(例えば、低プライバシー状態))間に、コンピューティングシステムは、プライバシー調整基準が第1の手によって再び満たされることを検出する(例えば、第1の手が第1の表示生成コンポーネントのハウジングから離れて移動した後に、プライバシー調整基準の個別の移動基準及び個別の姿勢基準を満たす同じジェスチャが検出される)。コンピューティングシステムが第6の動作状態にある間にプライバシー調整基準が再び満たされることを検出したことに応じて、コンピューティングシステムは、コンピューティングシステムの動作状態を第6の動作状態から第5の動作状態に変更し、コンピューティングシステムの第2の表示生成コンポーネントは、プライバシー調整基準が最後に満たされたことに応じて行われた、(例えば、第1の表示生成コンポーネントがコンテンツを表示しているときにリアルタイムで)第1の表示生成コンポーネントを介して表示されるコンテンツに関する第1の量の状態情報を提供することと第1の表示生成コンポーネントを介して表示されるコンテンツに関する第2の量の状態情報を提供することとの間で切り替えることを反転する。コンピューティングシステムが第6の動作状態にある間にプライバシー調整基準が再び満たされることを検出したことに応じて、コンピューティングシステムの動作状態を第6の動作状態から第5の動作状態に変更し、コンピューティングシステムがプライバシー調整基準が最後に満たされたことに応じて行われた第1の表示生成コンポーネントを介して表示されるコンテンツに関する第1の量の状態情報を提供することと第1の表示生成コンポーネントを介して表示されるコンテンツに関する第2の量の状態情報を提供することとの間で切り替えることを反転することにより、追加の表示されるコントロール(例えば、第1の量の状態情報と第2の量の状態情報との間で切り替えるための追加の表示されるコントロール、第6の動作状態から第5の動作状態に変更するための追加の表示されるコントロールなど)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0305】
いくつかの実施形態では、プライバシー調整基準が満たされるとの判定に従って、コンピューティングシステムの動作状態を第5の動作状態から第6の動作状態に変更することは、第1の手がプライバシー調整基準の個別の移動基準及び個別の姿勢基準を満たしている間に第1の方向(例えば、下方又は上方)に移動するとの判定に従って、第2の表示生成コンポーネントが第1の表示生成コンポーネントを介して表示されるコンテンツに関する状態情報の量を増加させること(例えば、第2の量よりも小さい第1の量の状態情報を表示することから第2の量の状態情報を表示することに切り替えること、又は任意の状態情報を表示しないことからなんらかの状態情報を表示することに切り替えること)と、第1の手が第1の方向とは異なる第2の方向(例えば、上方又は下方)(例えば、第1の方向に逆平行)に移動するとの判定に従って、第2の表示生成コンポーネントが第1の表示生成コンポーネントを介して表示されるコンテンツに関する状態情報の量を減少させること(例えば、第2の量の状態情報を表示することから第2の量よりも小さい第1の量の状態情報を表示することに切り替えること、又はなんらかの状態情報を表示することから任意の状態情報を表示しないことに切り替えること)と、を含む。いくつかの実施形態では、コンピューティングシステムの動作状態を第5の動作状態から第6の動作状態に変更することは、第1の手がプライバシー調整基準の個別の移動基準及び個別の姿勢基準を満たしている間に第1の方向(例えば、下方又は上方)に移動するとの判定に従って、第1の表示生成コンポーネントを介してコンテンツが表示されている間に、第2の表示生成コンポーネントがユーザの目の表現を表示しないことからユーザの目の表現を表示することに切り替えることと、第1の手がプライバシー調整基準の個別の移動基準及び個別の姿勢基準を満たしている間に第2の方向(例えば、上方又は下方)に移動するとの判定に従って、第1の表示生成コンポーネントを介してコンテンツが表示されている間に、第2の表示生成コンポーネントがユーザの目の表現を表示することからユーザの目の表現を表示しないことに切り替えることと、を更に含む。第1の手がプライバシー調整基準の個別の移動基準及び個別の姿勢基準を満たしている間に第1の方向に移動するとの判定に従って、第1の表示生成コンポーネントを介して表示されるコンテンツに関する状態情報の量を増加させ、第1の手が第1の方向とは異なる第2の方向に移動するとの判定に従って、第1の表示生成コンポーネントを介して表示されるコンテンツに関する状態情報の量を減少させることにより、追加の表示されるコントロール(例えば、第1の表示生成コンポーネントを介して表示される上記状態情報の量 を増加及び/又は減少させるための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。
【0306】
いくつかの実施形態では、第1の表示生成コンポーネントを収容するハウジング上の第1の手を検出したことに応じて、コンピューティングシステムは、第1の表示生成コンポーネントを介して(例えば、第1の表示生成コンポーネントによって提供される視野の周辺領域の周りに)、コンピューティングシステムの1つ以上の機能に対応するそれぞれの視覚表現(例えば、コンピューティングシステムのオーディオ生成コンポーネント(単数又は複数)の現在の状態を示す音量コントロール、コンピューティングシステムの現在のプライバシーモードの表現又はコントロール、第1の表示生成コンポーネントの没入状態の表現又はコントロール、カメラシャッターコントロール、カメラモード選択コントロールなど)を表示する。いくつかの実施形態では、これらの視覚表現は、第1の表示生成コンポーネントのハウジング上の接触の位置に又はその近くに選択的に表示される。いくつかの実施形態では、視覚表現の異なるサブセットが、第1の表示生成コンポーネントのハウジング上の異なる手の姿勢及び/又は接触の位置に従って表示される。第1の表示生成コンポーネントを収容するハウジング上の第1の手を検出したことに応じて、コンピューティングシステムの1つ以上の機能に対応するそれぞれの視覚表現を表示することにより、更なるユーザ入力(例えば、コンピューティングシステムの1つ以上の機能に対応するそれぞれの仮想表現を表示するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、コンピューティングシステムの1つ以上の機能に対応するそれぞれの視覚表現を表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0307】
いくつかの実施形態では、第1の表示生成コンポーネントを収容するハウジングに接近する第1の手を検出したことに応じて、コンピューティングシステムは、第1の表示生成コンポーネントを介して(例えば、第1の表示生成コンポーネントによって提供される視野の周辺領域の周りに)、第1の表示生成コンポーネントによって提供される視野の周辺領域から現れるコンピューティングシステムの1つ以上の機能に対応するそれぞれの視覚表現を示すアニメーション化された遷移を表示する(例えば、第1の手の指がハウジングに向かって移動するにつれて、視覚表現は、サイズが大きくなり、第1の手が第1の表示生成コンポーネントのハウジングに接近するにつれて、視覚表現は、第1の手の指の現在の位置に基づいて、第1の表示生成コンポーネントによって提供される視野の周辺境界の周りを移動する)。視野の周辺領域から現れるそれぞれの視覚表現を示すアニメーション化された遷移を表示することにより、改善された視覚フィードバック(例えば、第1の手が第1の表示生成コンポーネントを収容するハウジングに接近しているという改善された視覚フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0308】
いくつかの実施形態では、ハウジング上の別の手を検出しないことと連動して第1の手が検出されたとの判定に従って、第1の手に関連付けられた動作を実行することは、第1の手がコンピューティングシステムの第1の機能に対応する第1の視覚表現に対応する第1の位置でハウジングと接触し、かつ第1の手が第1の機能に関連付けられたそれぞれの制御アクティブ化基準(例えば、タップ入力、押圧入力、タッチホールド入力、スワイプ入力などを検出するための基準)を満たすとの判定に従って、コンピューティングシステムの第1の機能をアクティブ化すること(例えば、コンピューティングシステムのカメラを使用してスナップショットを撮ること、第1の表示生成コンポーネントに関する状態情報をオン/オフにすること、など)と、第1の手がコンピューティングシステムの第2の機能に対応する第2の視覚表現に対応する第2の位置でハウジングと接触し、かつ第1の手が第2の機能に関連付けられたそれぞれの制御アクティブ化基準(例えば、タップ入力、押圧入力、タッチホールド入力、スワイプ入力などを検出するための基準)を満たすとの判定に従って、コンピューティングシステムの第2の機能をアクティブ化すること(例えば、コンピューティングシステムのカメラを使用してビデオを開始すること、コンピューティングシステムのオーディオ生成コンポーネントの音量を上げること又はノイズキャンセルをオンにすること、など)と、を含む。いくつかの実施形態では、コントロールは、第1の表示生成コンポーネントによって提供される視野の周辺領域の周りの所定の位置の隣に表示され、この位置は、ハウジングの外側に形成されたそれぞれの物理的テクスチャ(例えば、バンプ、稜線、ライン、又は/又は粗いパターンなど)に対応する。いくつかの実施形態では、異なる機能の視覚表現は、ハウジング上の異なるタイプの表面テクスチャに対応する位置に表示される。例えば、音量を調整するためのコントロールは、第1の表示生成コンポーネントのハウジング上の隆起した稜線の位置に対応する第1の表示生成コンポーネントによって提供される視野の第1の周辺部分に表示され(例えば、ユーザは、隆起した稜線に沿ってユーザの指を移動させて、コンピューティングシステムのオーディオ生成コンポーネントの音量を調整することができる)、カメラを使用してスナップショットを撮るためのコントロールは、第1の表示生成コンポーネントのハウジング上の丸みを帯びたバンプの位置に対応する第1の表示生成コンポーネントによって提供される視野の第2の周辺部分に表示される(例えば、ユーザは、丸みを帯びたバンプを押圧して、スナップショットを撮ることができる、又は丸みを帯びたバンプを押圧して保持して、コンピューティングシステムのカメラを使用してビデオのキャプチャを開始することができる)。第1の手がコンピューティングシステムの第1の機能に対応する第1の視覚表現に対応する第1の位置でハウジングと接触し、かつ第1の手が第1の機能に関連付けられたそれぞれの制御アクティブ化基準を満たすとの判定に従って、コンピューティングシステムの第1の機能をアクティブ化し、第1の手がコンピューティングシステムの第2の機能に対応する第2の視覚表現に対応する第2の位置でハウジングと接触し、かつ第1の手が第2の機能に関連付けられたそれぞれの制御アクティブ化基準を満たすとの判定に従って、コンピューティングシステムの第2の機能をアクティブ化することにより、追加の表示されるコントロール(例えば、コンピューティングシステムの第1及び/又は第2の機能をアクティブ化するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザーがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
【0309】
図13における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、9000、10000、11000、及び12000)に関して本明細書で記載した他のプロセスの詳細はまた、
図13に関連して上述した方法13000に類似の方法で適用可能であることに留意されたい。例えば、方法13000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションは、任意選択で、本明細書に記述した他の方法(例えば、方法8000、9000、10000、11000、及び12000)を参照して本明細書に記述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
【0310】
図8、
図9、
図10、
図11、
図12、及び
図13を参照して上述した動作は、任意選択的に、
図1~
図6に示すコンポーネントにより実施される。いくつかの実施形態では、方法8000、9000、10000、11000、12000、及び13000の態様/動作は、これらの方法の間で交換、置換、及び/又は追加されてもよい。簡潔にするために、それらの詳細はここでは繰り返さない。
【0311】
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、想到される特定の用途に適した様々な変更で本発明及び様々な記載された実施形態を最良の形で使用することを有効化するために、これらの実施形態を選択し記載した。
【手続補正書】
【提出日】2022-09-07
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
第1の表示生成コンポーネントと、第2の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピューティングシステムにおいて、
前記第1の表示生成コンポーネントを介して、第1のコンピュータ生成環境を表示することと、
前記第1の表示生成コンポーネントを介して前記第1のコンピュータ生成環境を表示している間に、前記第2の表示生成コンポーネントを介して、
前記第1の表示生成コンポーネントを介して前記第1のコンピュータ生成環境を閲覧する位置にいる前記コンピューティングシステムのユーザの一部分の視覚表現と、
前記第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素と、
を同時に表示することであって、
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、
前記ユーザの前記一部分の前記視覚表現を変更して、個別の期間にわたる前記ユーザの外観の変化を表すことと、
前記第1のコンピュータ生成環境内のコンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を変更して、前記個別の期間にわたる前記第1のコンピュータ生成環境の変化を表すことと、
を含む、ことと、
を含む、方法。
【請求項2】
前記ユーザの前記一部分の前記視覚表現を変更して、前記個別の期間にわたる前記ユーザの前記外観の変化を表すことが、
前記第1の表示生成コンポーネントに対する第1の方向の前記ユーザの前記一部分の移動に従って、前記第2の表示生成コンポーネント上の前記第1の方向の前記ユーザの前記一部分の前記視覚表現の移動を表示することと、
前記第1の表示生成コンポーネントに対する前記第1の方向に実質的に垂直な第2の方向の前記ユーザの前記一部分の移動に従って、前記第2の方向と実質的に反対の前記第2の表示生成コンポーネント上の第3の方向の前記ユーザの前記一部分の前記視覚表現の移動を表示することと、
を含む、請求項1に記載の方法。
【請求項3】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、前記視覚表現の第1の表示特性に対して指定された既定の特性値に従って、前記ユーザの前記一部分の前記視覚表現を生成することを含む、請求項1に記載の方法。
【請求項4】
前記視覚表現の前記第1の表示特性に対して指定された前記既定の特性値が、前記ユーザの前記一部分の前記視覚表現の不透明度の既定の低減量を含む、請求項3に記載の方法。
【請求項5】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、前記ユーザの前記一部分の前記視覚表現に既定の視覚効果を適用することを含む、請求項1から4のいずれか一項に記載の方法。
【請求項6】
前記第2の表示生成コンポーネントを介して前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、前記ユーザの前記一部分の前記視覚表現と、前記第1のコンピュータ生成環境の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素との間に、拡散着色層を表示することを含む、請求項1から5のいずれか一項に記載の方法。
【請求項7】
前記第2の表示生成コンポーネントを介して前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、前記ユーザの前記一部分の前記視覚表現を第1のグラフィック解像度で表示することと、前記第1のコンピュータ生成環境の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を前記第1のグラフィック解像度とは異なる第2のグラフィック解像度で表示することと、を含む、請求項1から6のいずれか一項に記載の方法。
【請求項8】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、
前記ユーザの前記外観の第1の変化が検出されたとの判定に従って、前記第1のコンピュータ生成環境内の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を変更することなく、前記ユーザの前記外観の前記第1の変化に従って、前記ユーザの前記一部分の前記視覚表現を変更することを含む、請求項1から7のいずれか一項に記載の方法。
【請求項9】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、
前記ユーザの前記外観が変更されないままでいる間に、前記第1のコンピュータ生成環境内の前記コンテンツの第2の変化が検出されたとの判定に従って、前記ユーザの前記一部分の前記視覚表現を変更することなく、前記第1のコンピュータ生成環境内の前記コンテンツの前記第2の変化に従って、前記第1のコンピュータ生成環境内の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素のうちの少なくとも1つを変更することを含む、請求項1から8のいずれか一項に記載の方法。
【請求項10】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、
前記ユーザの前記外観の第3の変化が前記第1のコンピュータ生成環境内の前記コンテンツの第4の変化とともに検出されたとの判定に従って、前記第1のコンピュータ生成環境内の前記コンテンツの前記第4の変化に従って、前記第1のコンピュータ生成環境内の前記コンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を変更することと連動して、前記ユーザの前記外観の前記第3の変化に従って、前記ユーザの前記一部分の前記視覚表現を変更することを含む、請求項1から9のいずれか一項に記載の方法。
【請求項11】
前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、前記ユーザの前記一部分の前記視覚表現と同時に前記コンテンツの修正バージョンを表示することを含み、前記コンテンツの前記修正バージョンが、前記コンテンツの画像に適用されると、前記画像の画像忠実度を低減する、1つ以上の画像フィルタを用いて生成され、
前記第1のコンピュータ生成環境内のコンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を変更して、前記個別の期間にわたる前記第1のコンピュータ生成環境の変化を表すことが、前記コンテンツが変化するにつれて、前記コンテンツの画像に前記1つ以上の画像フィルタを適用することによって、前記コンテンツの前記修正バージョンを更新することを含む、
請求項1から10のいずれか一項に記載の方法。
【請求項12】
前記ユーザの前記一部分の前記視覚表現が、前記ユーザの目の画像を含む、請求項1から11のいずれか一項に記載の方法。
【請求項13】
前記ユーザの前記一部分の前記視覚表現が、前記ユーザの目の1つ以上の画像に基づいて生成される仮想オブジェクトを含み、前記仮想オブジェクトの外観及び移動が、前記コンピューティングシステムの1つ以上のセンサによってキャプチャされた前記ユーザの目の外観及び移動に対応する、請求項1から11のいずれか一項に記載の方法。
【請求項14】
前記ユーザの前記一部分の前記視覚表現を変更して、前記個別の期間にわたる前記ユーザの前記外観の変化を表すことが、
前記ユーザに対応するアイトラッキングデータを取得することと、
前記ユーザに対応する前記アイトラッキングデータに基づいて、前記ユーザの前記一部分の前記視覚表現を更新することと、
を含む、請求項1から13のいずれか一項に記載の方法。
【請求項15】
1つ以上のプロセッサと、
第1の表示生成コンポーネントと、
第2の表示生成コンポーネントと、
前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリであって、前記1つ以上のプログラムが、
前記第1の表示生成コンポーネントを介して第1のコンピュータ生成環境を表示し、
前記第1の表示生成コンポーネントを介して前記第1のコンピュータ生成環境を表示している間に、前記第2の表示生成コンポーネントを介して、
前記第1の表示生成コンポーネントを介して前記第1のコンピュータ生成環境を閲覧する位置にいるコンピューティングシステムのユーザの一部分の視覚表現と、
前記第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素と、
を同時に表示する、命令を含み、前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、
前記ユーザの前記一部分の前記視覚表現を変更して、個別の期間にわたる前記ユーザの外観の変化を表すことと、
前記第1のコンピュータ生成環境内のコンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を変更して、前記個別の期間にわたる前記第1のコンピュータ生成環境の変化を表すことと、を含む、メモリと、を備える、コンピューティングシステム。
【請求項16】
前記1つ以上のプログラムは、請求項2から14のいずれかに一項に記載の方法を実行する命令を含む、請求項15に記載のコンピューティングシステム。
【請求項17】
第1の表示生成コンポーネント、第2の表示生成コンポーネント、及び1つ以上の入力デバイスに通信可能であるコンピュータシステムによって実行されると、前記コンピューティングシステムに、
前記第1の表示生成コンポーネントを介して第1のコンピュータ生成環境を表示させ、
前記第1の表示生成コンポーネントを介して前記第1のコンピュータ生成環境を表示している間に、前記第2の表示生成コンポーネントを介して、
前記第1の表示生成コンポーネントを介して前記第1のコンピュータ生成環境を閲覧する位置にいる前記コンピューティングシステムのユーザの一部分の視覚表現と、
前記第1のコンピュータ生成環境内のコンテンツの視覚インジケーションを提供する1つ以上のグラフィック要素と、
を同時に表示させる、命令を備えるプログラムであって、前記ユーザの前記一部分の前記視覚表現と前記1つ以上のグラフィック要素を同時に表示することが、
前記ユーザの前記一部分の前記視覚表現を変更して、個別の期間にわたる前記ユーザの外観の変化を表すことと、
前記第1のコンピュータ生成環境内のコンテンツの前記視覚インジケーションを提供する前記1つ以上のグラフィック要素を変更して、前記個別の期間にわたる前記第1のコンピュータ生成環境の変化を表すことと、を含む、プログラム。
【請求項18】
前記コンピューティングシステムによって実行されると、前記コンピューティングシステムに、請求項2から14のいずれかに一項に記載の方法を実行させる命令を更に備える、請求項17に記載のプログラム。
【国際調査報告】