IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ アップル インコーポレイテッドの特許一覧

特許7665074仮想環境内で仮想オブジェクトを提示するためのデバイス、方法、及びグラフィカルユーザインタフェース
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-04-10
(45)【発行日】2025-04-18
(54)【発明の名称】仮想環境内で仮想オブジェクトを提示するためのデバイス、方法、及びグラフィカルユーザインタフェース
(51)【国際特許分類】
   G06F 3/0481 20220101AFI20250411BHJP
   G06F 3/01 20060101ALI20250411BHJP
【FI】
G06F3/0481
G06F3/01 510
【請求項の数】 20
【外国語出願】
(21)【出願番号】P 2024070736
(22)【出願日】2024-04-24
(65)【公開番号】P2024157550
(43)【公開日】2024-11-07
【審査請求日】2024-05-20
(31)【優先権主張番号】63/498,239
(32)【優先日】2023-04-25
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】18/429,294
(32)【優先日】2024-01-31
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】18/429,301
(32)【優先日】2024-01-31
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】503260918
【氏名又は名称】アップル インコーポレイテッド
【氏名又は名称原語表記】Apple Inc.
【住所又は居所原語表記】One Apple Park Way,Cupertino, California 95014, U.S.A.
(74)【代理人】
【識別番号】110003281
【氏名又は名称】弁理士法人大塚国際特許事務所
(72)【発明者】
【氏名】カルデロン, タイラー アール.
(72)【発明者】
【氏名】セグイン, ショーン エル.
(72)【発明者】
【氏名】パズミノ, ロレーナ エス.
(72)【発明者】
【氏名】シャリフィアン, アリヤン
【審査官】槙 俊秋
(56)【参考文献】
【文献】欧州特許出願公開第04155867(EP,A1)
【文献】米国特許出願公開第2010/0293504(US,A1)
【文献】米国特許出願公開第2022/0253125(US,A1)
【文献】米国特許出願公開第2023/0100689(US,A1)
【文献】米国特許出願公開第2023/0094522(US,A1)
【文献】米国特許出願公開第2021/0158624(US,A1)
【文献】米国特許出願公開第2018/0275753(US,A1)
【文献】米国特許出願公開第2018/0077383(US,A1)
【文献】国際公開第2022/208797(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01-3/04895
(57)【特許請求の範囲】
【請求項1】
第1の電子デバイスのディスプレイ及び1つ以上の入力デバイスと通信を行う、前記第1の電子デバイスにおいて、
前記ディスプレイを介して、前記第1の電子デバイス上で実行中のアプリケーションの第1のユーザインタフェースを含むコンピュータ生成環境を提示している間に、第2の電子デバイスから、前記第2の電子デバイスの第2のユーザインタフェースを表す表示データを受信することと、
前記表示データを受信したことに応じて、前記ディスプレイを介して、前記表示データに基づいて前記第2の電子デバイスの前記第2のユーザインタフェースの表現を提示することと、
前記アプリケーションの前記第1のユーザインタフェース及び前記第2の電子デバイスの前記第2のユーザインタフェースの前記表現を提示している間に、ユーザ入力に対応する個別のイベントを検出することと、
前記個別のイベントを検出したことに応じて、
前記個別のイベントが検出されたときに前記第1の電子デバイスのユーザの視線が前記第2の電子デバイスの前記第2のユーザインタフェースの前記表現に向けられているとの判定に従って、前記第2の電子デバイスに、前記個別のイベントに基づいて前記第2の電子デバイスの前記第2のユーザインタフェースに向けられた第1の動作を実行させることと、
前記視線が前記第1の電子デバイス上で実行中の前記アプリケーションの前記第1のユーザインタフェースに向けられているとの判定に従って、前記個別のイベントに基づいて前記第1のユーザインタフェースに向けられた第2の動作を実行することと、
を含む、方法。
【請求項2】
前記個別のイベントを検出することは、前記第2の電子デバイスと通信を行う1つ以上の入力デバイスを介して受信された個別の入力の指示を検出することを含む、請求項1に記載の方法。
【請求項3】
前記個別の入力の指示を検出したことに応じて、
前記指示が検出されたときに前記視線が前記第2の電子デバイスの前記第2のユーザインタフェースの前記表現に向けられているとの判定に従って、前記視線のロケーションに関する視線データを前記第2の電子デバイスに送信することを更に含み、前記第2の電子デバイスは、前記個別の入力に対応する入力データを前記第1の電子デバイスに送信することなく、前記視線の前記ロケーションに関する前記視線データに従って前記第1の動作を実行する、
請求項2に記載の方法。
【請求項4】
前記個別の入力の指示を検出したことに応じて、
前記指示が検出されたときに前記視線が前記第2の電子デバイスの前記第2のユーザインタフェースの前記表現に向けられているとの判定に従って、前記視線のロケーションに関する視線データを、前記第2の電子デバイスであって、前記視線の前記ロケーションに関する前記視線データに従って前記第1の動作を実行する、前記第2の電子デバイスに送信することと、
前記第1の動作が前記第2の電子デバイスにおいて実行される際に従う前記第2の電子デバイスからの前記個別の入力に対応する入力データを受信することと、
を更に含む、請求項2に記載の方法。
【請求項5】
前記個別の入力の指示を検出したことに応じて、
前記指示が検出されたときに前記視線が第1の電子デバイス上で実行中の前記アプリケーションの前記第1のユーザインタフェースに向けられているとの判定に従って、前記個別の入力に対応する入力データを前記第2の電子デバイスに送信することなく、前記個別の入力に従って前記第1のユーザインタフェースに向けられた前記第2の動作を実行すること、
を更に含む、請求項2に記載の方法。
【請求項6】
前記個別のイベントを検出することは、前記第1の電子デバイスの前記1つ以上の入力デバイスを介して、前記個別の入力を検出することを含む、請求項1に記載の方法。
【請求項7】
前記個別の入力を検出したことに応じて、
前記個別の入力が検出されたときに前記視線が前記第2の電子デバイスの前記第2のユーザインタフェースの前記表現に向けられているとの判定に従って、前記個別の入力に対応する入力データを前記第2の電子デバイスに送信すること、
を更に含む、請求項6に記載の方法。
【請求項8】
前記個別の入力を検出したことに応じて、
前記個別の入力が検出されたときに前記視線が前記第1の電子デバイス上で実行中の前記アプリケーションの前記第1のユーザインタフェースに向けられているとの判定に従って、前記個別の入力に対応する入力データを前記第2の電子デバイスに送信することなく、前記個別の入力に従って前記第1のユーザインタフェースに向けられた前記第2の動作を実行すること、
を更に含む、請求項6に記載の方法。
【請求項9】
前記第2の電子デバイスに前記第1の動作を実行させることは、前記個別のイベントが検出されたときに前記視線が前記第2の電子デバイスの前記第2のユーザインタフェースの前記表現に向けられたことを示す情報を含む視線データを前記第2の電子デバイスに送信することを含む、請求項1に記載の方法。
【請求項10】
前記情報は、前記第2のユーザインタフェースの前記表現内の前記視線のロケーションに対応するポジション情報を含む、請求項9に記載の方法。
【請求項11】
前記第2の電子デバイスが前記第2のユーザインタフェースを表示していない、請求項1に記載の方法。
【請求項12】
前記第2の電子デバイスに前記第2のユーザインタフェースに向けられた前記第1の動作を実行させることは、前記第2のユーザインタフェースの視覚的外観を更新することを含み、前記方法が、
前記第2の電子デバイスに前記第2のユーザインタフェースに向けられた前記第1の動作を実行させた後に、前記第2の電子デバイスから、前記第2の電子デバイスの前記第2のユーザインタフェースの前記視覚的外観に対する1つ以上の更新を表す更新された表示データを受信することと、
前記更新された表示データを受信したことに応じて、前記更新された表示データに基づいて前記第2のユーザインタフェースの前記表現の表示を更新することと、を更に含む、請求項1に記載の方法。
【請求項13】
方法であって、前記第2の電子デバイスが前記第2のユーザインタフェースを表示しており、前記方法が、
前記第2の電子デバイスから、前記第2の電子デバイスの前記第2のユーザインタフェースを表す前記表示データを受信する前に、前記ディスプレイを介して、前記コンピュータ生成環境に、前記第2の電子デバイスの表現に関連付けられた第1のアフォーダンスを提示することと、
前記第1のアフォーダンスを含む前記コンピュータ生成環境を提示している間に、前記1つ以上の入力デバイスを介して、前記第1のアフォーダンスの選択に対応する入力を受信することと、
前記入力を受信したことに応じて、前記コンピュータ生成環境において、前記表示データに基づいて前記第2の電子デバイスの前記第2のユーザインタフェースの前記表現を提示することと、を更に含む、請求項1に記載の方法。
【請求項14】
前記入力を受信したことに応じて、前記第2の電子デバイスに、第2のユーザインタフェースの表示を停止させること、
を更に含む、請求項13に記載の方法。
【請求項15】
前記コンピュータ生成環境において前記第2の電子デバイスの前記表現に関連付けられた前記第1のアフォーダンスを表示する前に、前記第1の電子デバイスが前記第2の電子デバイスと通信するように、前記第1の電子デバイスと前記第2の電子デバイスとをペアリングすること、
を更に含む、請求項13に記載の方法。
【請求項16】
前記コンピュータ生成環境を提示している間に、前記第1の電子デバイスのユーザからの前記第1の電子デバイスの関連付け解除を検出することと、
前記第1の電子デバイスの前記ユーザからの関連付け解除を検出したことに応じて、
前記第2の電子デバイスに、前記関連付け解除の指示であって、前記第2の電子デバイスに前記第2のユーザインタフェースを表示させる、指示を送信することと、
を更に含む、請求項1に記載の方法。
【請求項17】
前記第1の電子デバイスと前記第1の電子デバイスの前記ユーザとの再関連付けを検出することと、
前記第1の電子デバイスと前記ユーザとの前記再関連付けを検出したことに応じて、
前記コンピュータ生成環境を提示することと、
前記再関連付けの指示を前記第2の電子デバイスに送信することと、
前記コンピュータ生成環境を提示している間に、前記第2のユーザインタフェースの現在の状態を表す更新された表示データを前記第2の電子デバイスから受信することと、
前記更新された表示データを受信したことに応じて、
前記第2のユーザインタフェースの前記現在の状態に基づいて、前記コンピュータ生成環境において前記第2のユーザインタフェースの前記表現を再表示することと、
を更に含む、請求項16に記載の方法。
【請求項18】
前記コンピュータ生成環境を提示している間に、第3の電子デバイスのユーザとの通信セッションに参加するための招待を受信することと、
前記招待を受信したことに応じて、
前記招待が前記第1の電子デバイスの前記ユーザによって受け入れられたという判定に従って、前記第3の電子デバイスの前記ユーザに対応するアバターと前記第1のユーザインタフェースとを同時に表示することを含む、前記第3の電子デバイスの前記ユーザとの前記通信セッションに入ることと、
を更に含む、請求項1に記載の方法。
【請求項19】
電子デバイスであって、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムが、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、請求項1から18のいずれか1項に記載の方法を実行するための命令を含む、電子デバイス。
【請求項20】
1つ以上のプログラムを記憶している非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、電子デバイスの1つ以上のプロセッサによって実行されると、前記電子デバイスに、請求項1から18のいずれか1項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
【発明の詳細な説明】
【関連出願へのクロスリファレンス】
【0001】
(関連出願の相互参照)
本出願は、2023年4月25日に出願された米国仮特許出願第63/498,239号、2024年1月31日に出願された米国特許出願第18/429,294号、及び2024年1月31日に出願された米国特許出願第18/429,301号の利益を主張し、その内容は全ての目的のためにその全体が参照により本明細書に組み込まれる。
【技術分野】
【0002】
本発明は、概して、電子デバイスのユーザインタフェースの表現を表示し、電子デバイスのユーザインタフェースの表現との対話を容易にするシステム及び方法に関する。
【背景技術】
【0003】
携帯電話、タブレット、タッチパッド、ポータブル又はデスクトップコンピュータ、ポータブルメディアプレーヤ、及びウェアラブルデバイスなど、多くのタイプのコンピューティングシステムが利用可能である。コンピューティングシステムは、ユーザ対話を可能にするためのディスプレイ又はタッチスクリーンを含み得る。しかしながら、これらのコンピューティングシステムは、ディスプレイ又はタッチスクリーンの物理的制約によって制限される。
【発明の概要】
【0004】
本開示の一部の例は、3次元環境における電子デバイスのユーザインタフェースの表現の表示及びそれとの対話を容易にするためのシステム及び方法を対象とする。一部の例では、ユーザインタフェースの表現は、3次元環境内の電子デバイスの仮想拡張ディスプレイ内に表示される。一部の例では、第1の電子デバイスは、第1の電子デバイスのディスプレイ及び1つ以上の入力デバイスと通信していてもよい。一部の例では、第1の電子デバイスは、1つ以上の入力デバイスを介して、第1の電子デバイスを取り囲む現実世界環境の少なくとも一部をキャプチャし、現実世界環境は、第2の電子デバイスの第1のユーザインタフェースの第1の表現を表示するように構成されたディスプレイを有する第2の電子デバイスを含む。一部の例では、第2の電子デバイスは第1の電子デバイスと通信している。一部の例では、第1の電子デバイスは、ディスプレイを介して、現実世界環境のキャプチャされた部分の表現と、第2の電子デバイスの表現に関連付けられた第1のアフォーダンスとを含むコンピュータ生成環境を提示する。一部の例では、第1のアフォーダンスは、第1の電子デバイスのディスプレイの所定の領域に表示される。一部の例では、現実世界環境のキャプチャされた部分の表現及び第1のアフォーダンスを含むコンピュータ生成環境を提示している間に、第1の電子デバイスは、1つ以上の入力デバイスを介して、第1のアフォーダンスの選択に対応する入力を受信する。一部の例では、入力を受信したことに応じて、第1の電子デバイスは、コンピュータ生成環境において、第1のユーザインタフェースの第1の表現とは異なる、第2の電子デバイスの第2のユーザインタフェースの第2の表現を提示する。一部の例では、第2のユーザインタフェースの第2の表現は、コンピュータ生成環境における仮想拡張ディスプレイに表示される。
【0005】
一部の例では、第2のユーザインタフェースの第2の表現を含むコンピュータ生成環境を提示している間に、第1の電子デバイスは、第2の電子デバイスの1つ以上の入力デバイスを介して受信された第1の個別の入力の第1の指示を検出する。一部の例では、第1の指示を検出したことに応じて、第1の電子デバイスのユーザの視線が第1のユーザインタフェースの第1の表現に向けられているという判定に従って、第2の電子デバイスに、第1の個別の入力に従って第1のユーザインタフェースに向けられた第1の動作を実行させる。一部の例では、視線が第2のユーザインタフェースの第2の表現に向けられているとの判定に従って、第1の個別の入力に従って第2のユーザインタフェースの第2の表現に向けられた第2の動作を実行する。
【0006】
これらの例の全説明は、「図面」及び「詳細な説明」に記載され、この「発明の概要」は、本開示の範囲をいかなるように限定するものでもないことを理解されたい。
【図面の簡単な説明】
【0007】
本明細書で説明する様々な例の理解を向上させるために、以下の図面と共に以下の「発明を実施するための形態」を参照すべきである。類似の参照番号は、図面全体を通して対応する部分を指す。
【0008】
図1】本開示の一部の例による、拡張現実環境を提示する電子デバイスを示す。
【0009】
図2】本開示の実施形態によるシステム又はデバイスの例示的なアーキテクチャのブロック図を示す。
【0010】
図3A】本開示の一部の例による、3次元環境において電子デバイスのユーザインタフェースの表現の表示を開始するための例示的な対話を示す。
図3B】本開示の一部の例による、3次元環境において電子デバイスのユーザインタフェースの表現の表示を開始するための例示的な対話を示す。
図3C】本開示の一部の例による、3次元環境において電子デバイスのユーザインタフェースの表現の表示を開始するための例示的な対話を示す。
図3D】本開示の一部の例による、3次元環境において電子デバイスのユーザインタフェースの表現の表示を開始するための例示的な対話を示す。
図3E】本開示の一部の例による、3次元環境において電子デバイスのユーザインタフェースの表現の表示を開始するための例示的な対話を示す。
図3F】本開示の一部の例による、3次元環境において電子デバイスのユーザインタフェースの表現の表示を開始するための例示的な対話を示す。
図3G】本開示の一部の例による、3次元環境において電子デバイスのユーザインタフェースの表現の表示を開始するための例示的な対話を示す。
図3H】本開示の一部の例による、3次元環境において電子デバイスのユーザインタフェースの表現の表示を開始するための例示的な対話を示す。
図3I】本開示の一部の例による、3次元環境において電子デバイスのユーザインタフェースの表現の表示を開始するための例示的な対話を示す。
【0011】
図4A】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4B】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4C】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4D】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4E】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4F】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4G】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4H】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4I】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4J】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4K】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4L】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4M】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4N】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
図4O】本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。
【0012】
図5A】本開示の一部の例による、マルチユーザ通信セッション内の電子デバイスのユーザインタフェースの表現との例示的な対話を示す。
図5B】本開示の一部の例による、マルチユーザ通信セッション内の電子デバイスのユーザインタフェースの表現との例示的な対話を示す。
図5C】本開示の一部の例による、マルチユーザ通信セッション内の電子デバイスのユーザインタフェースの表現との例示的な対話を示す。
図5D】本開示の一部の例による、マルチユーザ通信セッション内の電子デバイスのユーザインタフェースの表現との例示的な対話を示す。
図5E】本開示の一部の例による、マルチユーザ通信セッション内の電子デバイスのユーザインタフェースの表現との例示的な対話を示す。
図5F】本開示の一部の例による、マルチユーザ通信セッション内の電子デバイスのユーザインタフェースの表現との例示的な対話を示す。
図5G】本開示の一部の例による、マルチユーザ通信セッション内の電子デバイスのユーザインタフェースの表現との例示的な対話を示す。
【0013】
図6A】本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。
図6B】本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。
図6C】本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。
図6D】本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。
図6E】本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。
図6F】本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。
図6G】本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。
図6H】本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。
図6I】本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。
図6J】本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。
図6K】本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。
【0014】
図7A】本開示の一部の例による、3次元環境における電子デバイスのユーザインタフェースの表現の表示及びそれとの対話を容易にするための例示的なプロセスを示す流れ図である。
図7B】本開示の一部の例による、3次元環境における電子デバイスのユーザインタフェースの表現の表示及びそれとの対話を容易にするための例示的なプロセスを示す流れ図である。
【0015】
図8】本開示の一部の例による、3次元環境における2つの電子デバイス間のユーザインタフェースの表現の表示及び対話を容易にするための例示的なプロセスを示す流れ図である。
【発明を実施するための形態】
【0016】
本開示の一部の例は、3次元環境における電子デバイスのユーザインタフェースの表現の表示及びそれとの対話を容易にするためのシステム及び方法を対象とする。一部の例では、ユーザインタフェースの表現は、3次元環境内の電子デバイスの仮想拡張ディスプレイ内に表示される。一部の例では、第1の電子デバイスは、第1の電子デバイスのディスプレイ及び1つ以上の入力デバイスと通信していてもよい。一部の例では、第1の電子デバイスは、1つ以上の入力デバイスを介して、第1の電子デバイスを取り囲む現実世界環境の少なくとも一部をキャプチャし、現実世界環境は、第2の電子デバイスの第1のユーザインタフェースの第1の表現を表示するように構成されたディスプレイを有する第2の電子デバイスを含む。一部の例では、第2の電子デバイスは第1の電子デバイスと通信している。一部の例では、第1の電子デバイスは、ディスプレイを介して、現実世界環境のキャプチャされた部分の表現と、第2の電子デバイスの表現に関連付けられた第1のアフォーダンスとを含むコンピュータ生成環境を提示する。一部の例では、第1のアフォーダンスは、第1の電子デバイスのディスプレイの所定の領域に表示される。一部の例では、現実世界環境のキャプチャされた部分の表現及び第1のアフォーダンスを含むコンピュータ生成環境を提示している間に、第1の電子デバイスは、1つ以上の入力デバイスを介して、第1のアフォーダンスの選択に対応する入力を受信する。一部の例では、入力を受信したことに応じて、第1の電子デバイスは、コンピュータ生成環境において、第1のユーザインタフェースの第1の表現とは異なる、第2の電子デバイスの第2のユーザインタフェースの第2の表現を提示する。一部の例では、第2のユーザインタフェースの第2の表現は、コンピュータ生成環境における仮想拡張ディスプレイに表示される。
【0017】
一部の例では、第2のユーザインタフェースの第2の表現を含むコンピュータ生成環境を提示している間に、第1の電子デバイスは、第2の電子デバイスの1つ以上の入力デバイスを介して受信された第1の個別の入力の第1の指示を検出する。一部の例では、第1の指示を検出したことに応じて、第1の電子デバイスのユーザの視線が第1のユーザインタフェースの第1の表現に向けられているという判定に従って、第2の電子デバイスに、第1の個別の入力に従って第1のユーザインタフェースに向けられた第1の動作を実行させる。一部の例では、視線が第2のユーザインタフェースの第2の表現に向けられているとの判定に従って、第1の個別の入力に従って第2のユーザインタフェースの第2の表現に向けられた第2の動作を実行する。
【0018】
一部の例では、現実世界の電子デバイスのユーザインタフェースを表示するように構成された3次元(例えば、コンピュータ生成)環境において仮想拡張ディスプレイを表示することは、3次元環境における1つ以上のユーザインタフェースオブジェクトとの対話を含み得る。例えば、3次元環境における仮想拡張ディスプレイの表示の開始は、3次元環境に表示された1つ以上の仮想オプション/アフォーダンスとの対話を含むことができる。一部の例では、ユーザの視線は、3次元環境において仮想拡張ディスプレイの表示を開始するときに、選択の対象となる1つ以上の仮想オプション/アフォーダンスを識別するための入力として、電子デバイスによってトラッキングされてもよい。例えば、視線を使用して、別の選択入力を使用する選択の対象となる1つ以上の仮想オプション/アフォーダンスを識別することができる。一部の例では、仮想オプション/アフォーダンスは、電子デバイスと通信している入力デバイスを介して検出されるハンドトラッキング入力を使用して選択されてもよい。一部の例では、3次元環境内に表示されるオブジェクトは、入力デバイスを介して検出される移動入力に従って、3次元環境内で移動及び/又は向き変更されてもよい。
【0019】
図1は、本開示の一部の例による拡張現実(XR)環境(例えば、コンピュータ生成環境)を提示する電子デバイス101を示す。一部の例では、電子デバイス101は、タブレットコンピュータ、ラップトップコンピュータ、スマートフォン、又はヘッドマウントディスプレイなどのハンドヘルド又はモバイルデバイスである。電子デバイス101の例は、図2のアーキテクチャブロック図を参照して以下に説明される。図1に示すように、電子デバイス101、テーブル106、コンピュータ115、及びフロアランプ132は、物理環境100内に位置する。物理環境は、物理的表面(例えば、床、壁)又は物理的オブジェクト(例えば、テーブル、ランプなど)などの物理的特徴を含んでもよい。一部の例では、電子デバイス101は、テーブル106、コンピュータ115、及びフロアランプ132(電子デバイス101の視野内に示される)を含む物理環境100の画像をキャプチャするように構成され得る。一部の例では、トリガに応じて、電子デバイス101は、物理環境100内に存在しないが、現実世界テーブル106のコンピュータ生成表現106’の上部に配置された(例えば、固定された)コンピュータ生成環境内に表示される仮想オブジェクト104(例えば、2次元仮想コンテンツ)を、(例えば、図1に示される矩形によって表される)コンピュータ生成環境内に表示するように構成され得る。例えば、仮想オブジェクト104は、物理環境100内のテーブル106の平面を検出したこと(又は何らかの他のトリガ)に応じて、電子デバイス101を介して表示される現実世界コンピュータ115のコンピュータ生成表現106’の隣のコンピュータ生成環境内のテーブルのコンピュータ生成表現115’の表面上に表示され得る。
【0020】
仮想オブジェクト104は、代表的な仮想オブジェクトであり、1つ以上の(例えば、2次元又は3次元オブジェクトなどの様々な次元の)異なる仮想オブジェクトが、2次元又は3次元コンピュータ生成環境に含まれ、レンダリングされ得ることを理解されたい。例えば、仮想オブジェクトは、コンピュータ生成環境内に表示されるアプリケーション又はユーザインタフェースを表すことができる。一部の例では、仮想オブジェクトは、アプリケーションに対応する、及び/又はコンピュータ生成環境においてユーザインタフェースを介して表示されるコンテンツを表すことができる。一部の例では、ユーザインタフェースは、物理環境100内のコンピュータ115(の、例えば、ディスプレイな)を介して表示されるようにも構成されたユーザインタフェースである。一部の例では、仮想オブジェクト104は、ユーザが仮想オブジェクト104に仮想的にタッチ、タップ、移動、回転、又は他の方法で対話し得るように、対話型であり、ユーザ入力に応答するように任意選択的に構成される。加えて、本明細書で説明する3D環境(又は3D仮想オブジェクト)は、電子デバイスにおいて投影又は提示される3D環境(又は3次元仮想オブジェクト)の表現であり得ることを理解されたい。
【0021】
以下の説明では、表示生成構成要素及び1つ以上の入力デバイスと通信する電子デバイスについて説明する。電子デバイスは、任意選択的に、タッチ感知面、物理キーボード、マウス、ジョイスティック、ハンドトラッキングデバイス、アイトラッキングデバイス、スタイラスなどの1つ以上の他の物理ユーザインタフェースデバイスと通信することを理解されたい。更に、上述したように、説明した電子デバイス、ディスプレイ、及びタッチ感知面は、任意選択的に、2つ以上のデバイスに分散されることを理解されたい。したがって、本開示で使用する場合、電子デバイス上に又は電子デバイスにより表示された情報を任意選択的に使用して、別のディスプレイデバイス(タッチ感知式又は非タッチ感知式)上の表示用電子デバイスにより出力された情報を説明する場合がある。同様に、本開示で使用されるように、電子デバイス(例えば、電子デバイスのタッチ感知面上で受信されたタッチ入力、又はスタイラスの表面上で受信されたタッチ入力)で受信された入力は、電子デバイスが入力情報を受信する別個の入力デバイスで受信された入力を記述するために任意選択的に使用される。
【0022】
そのデバイスは、一般的に、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽再生アプリケーション、テレビチャンネル閲覧アプリケーション、及び/又はデジタルビデオ再生アプリケーションのうちの1つ以上など、様々なアプリケーションをサポートする。
【0023】
図2は、本開示の例によるシステム又はデバイス200の例示的なアーキテクチャのブロック図を示す。一部の例では、システム200は、携帯電話(例えば、スマートフォン)、タブレットコンピュータ、ラップトップコンピュータ、デスクトップコンピュータ、ヘッドマウントディスプレイ、別のデバイスと通信する補助デバイスなどのモバイルデバイスである。システム200は、任意選択的に、様々なセンサ(例えば、1つ以上のハンドトラッキングセンサ(単数又は複数)、1つ以上のロケーションセンサ(単数又は複数)、1つ以上の画像センサ(単数又は複数)、1つ以上のタッチ感知面(単数又は複数)、1つ以上の動き及び/又は向きセンサ(単数又は複数)、1つ以上のアイトラッキングセンサ(単数又は複数)、1つ以上のマイクロフォン(単数又は複数)又は他の音声センサ(単数又は複数)など)、1つ以上の表示生成構成要素(単数又は複数)、1つ以上のスピーカ(単数又は複数)、1つ以上のプロセッサ(単数又は複数)、1つ以上のメモリ、及び/又は通信回路を含む。システム200の上述の構成要素間の通信には、任意選択的に、1つ以上の通信バスが使用される。
【0024】
一部の例では、図2に示すように、システム/デバイス200は、複数のデバイス間で分割され得る。例えば、第1のデバイス230は、プロセッサ(単数又は複数)218A、1つ以上のメモリ220A、通信回路222A、タッチ感知面(単数又は複数)216A、及び通信バス208Aを介して任意選択的に通信する表示生成構成要素(単数又は複数)又はディスプレイ(単数又は複数)214Aを任意選択的に含む。第2のデバイス240(例えば、電子デバイス101に対応する)は、任意選択的に、様々なセンサ(例えば、1つ以上のハンドトラッキングセンサ(単数又は複数)202、1つ以上のロケーションセンサ(単数又は複数)204、1つ以上の画像センサ(単数又は複数)206、1つ以上のタッチ感知面(単数又は複数)216B、1つ以上の動き及び/又は向きセンサ(単数又は複数)210、1つ以上のアイトラッキングセンサ(単数又は複数)212、1つ以上のマイクロフォン(単数又は複数)213又は他の音声センサ(単数又は複数)など)、1つ以上の表示生成構成要素(単数又は複数)214B、1つ以上のスピーカ(単数又は複数)216、1つ以上のプロセッサ218B、1つ以上のメモリ220B、及び/又は通信回路222Bを含む。デバイス240の上述の構成要素間の通信のために、1つ以上の通信バス208Bが任意選択的に使用される。第1のデバイス230及び第2のデバイス240は、任意選択的に、2つのデバイス間のワイヤード接続又はワイヤレス接続を介して(例えば、通信回路構成222A~222Bを介して)通信する。
【0025】
通信回路222A、222Bは、任意選択的に、電子デバイス、インターネット、イントラネット、ワイヤードネットワーク及び/又はワイヤレスネットワークなどのネットワーク、セルラーネットワーク、及びワイヤレスローカルエリアネットワーク(LAN)と通信するための回路を含む。通信回路222A、222Bは、任意選択的に、近距離ワイヤレス通信(NFC)及び/又はBluetooth(登録商標)などの短距離通信を使用して通信するための回路を含む。
【0026】
プロセッサ(単数又は複数)218A、218Bは、1つ以上の汎用プロセッサ、1つ以上のグラフィックスプロセッサ、及び/又は1つ以上のデジタル信号プロセッサを含む。一部の例では、メモリ220A、220Bは、後述する技術、プロセス、及び/又は方法を実行するためにプロセッサ(単数又は複数)218A、218Bによって実行されるように構成されたコンピュータ可読命令を記憶する非一時的コンピュータ可読記憶媒体(例えば、フラッシュメモリ、ランダムアクセスメモリ、又は他の揮発性若しくは不揮発性メモリ若しくはストレージ)である。一部の例では、メモリ220A、220Bは、2つ以上の非一時的コンピュータ可読記憶媒体を含むことができる。非一時的コンピュータ可読記憶媒体は、命令実行システム、装置、若しくはデバイスによって又は関連して使用されるコンピュータ実行可能命令を、有形に格納又は記憶することができる任意の(信号以外の)媒体であり得る。いくつかの実施形態では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの実施形態では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それらに限定されるものではないが、磁気記憶装置、光学記憶装置、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu-ray技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの永続性ソリッドステートメモリなどが挙げられる。
【0027】
一部の例では、表示生成構成要素(単数又は複数)214A、214Bは、単一のディスプレイ(例えば、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)、又は他のタイプのディスプレイ)を含む。一部の例では、表示生成構成要素(単数又は複数)214A、214Bは、複数のディスプレイを含む。一部の例では、表示生成構成要素(単数又は複数)214A、214Bは、タッチ機能を有するディスプレイ(例えば、タッチスクリーン)、プロジェクタ、ホログラフィックプロジェクタ、網膜プロジェクタなどを含むことができる一部の例では、デバイス240は、タップ入力及びスワイプ入力又は他のジェスチャなどのユーザ入力を受信するためのタッチ感知面(単数又は複数)216Bを含む。一部の例では、表示生成構成要素(単数又は複数)214A、214B及びタッチ感知面216A、216Bは、タッチ感知ディスプレイ(例えば、デバイス230、240と一体化されたタッチスクリーン、又はデバイス230、240と通信するデバイス230、240の外部のタッチスクリーン)を形成する。
【0028】
デバイス240は、任意選択的に、画像センサ(単数又は複数)206を含む。画像センサ(単数又は複数)206は、任意選択的に、現実世界環境から物理的オブジェクトの画像を取得するように動作可能な電荷結合素子(CCD)センサ、及び/又は相補型金属酸化膜半導体(CMOS)センサなどの、1つ以上の可視光画像センサを含む。画像センサ(単数又は複数)206はまた、任意選択的に、現実世界環境からの赤外光を検出するための、パッシブ又はアクティブIRセンサなどの、1つ以上の赤外線(IR)センサを含む。例えば、能動型IRセンサは、赤外光を現実世界環境内に放射するためのIRエミッタを含む。画像センサ(単数又は複数)206はまた、任意選択的に、現実世界環境内の物理的オブジェクトの移動をキャプチャするように構成された1つ以上のカメラを含む。画像センサ(単数又は複数)206は、任意選択的に、デバイス240からの物理的オブジェクトの距離を検出するように構成された1つ以上の奥行きセンサを含む。一部の例では、1つ以上の奥行きセンサからの情報は、デバイスが、現実世界環境内のオブジェクトを識別し、それを現実世界環境内の他のオブジェクトから区別することを可能にすることができる。一部の例では、1つ以上の奥行きセンサは、デバイスが、現実世界環境内のオブジェクトのテクスチャ及び/又はトポグラフィを判定することを可能にすることができる。
【0029】
一部の例では、デバイス240は、CCDセンサ、イベントカメラ、及び奥行きセンサを組み合わせて使用して、デバイス240の周囲の物理環境を検出する。一部の例では、画像センサ(単数又は複数)206は、第1の画像センサと第2の画像センサとを含む。第1の画像センサ及び第2の画像センサは協働し、任意選択的に、現実世界環境内の物理的オブジェクトの異なる情報をキャプチャするように構成される。一部の例では、第1の画像センサは可視光画像センサであり、第2の画像センサは奥行きセンサである。一部の例では、デバイス240は、画像センサ(単数又は複数)206を使用して、現実世界環境内のデバイス240及び/又は表示生成構成要素(単数又は複数)214のポジション及び向きを検出する。例えば、デバイス240は、画像センサ(単数又は複数)206を使用して、現実世界環境内の1つ以上の固定オブジェクトに対する表示生成構成要素(単数又は複数)214Bのポジション及び向きをトラッキングする。
【0030】
一部の例では、デバイス240は、マイクロフォン(単数又は複数)213又は他の音声センサを含む。デバイス240は、マイクロフォン(単数又は複数)213を使用して、ユーザ及び/又はユーザの現実世界環境からの音を検出する。一部の例において、マイクロフォン(単数又は複数)213は、任意選択的に、周囲雑音を特定するために、又は現実世界環境の空間内の音源の位置を特定するなどのために、協調して動作する(複数のマイクロフォンを含む)マイクロフォンの配列を含む。
【0031】
デバイス240は、任意選択的に、デバイス240及び/又は表示生成構成要素(単数又は複数)214Bのロケーションを検出するように構成されたロケーションセンサ(単数又は複数)204を含む。例えば、ロケーションセンサ(単数又は複数)204は、1つ以上の衛星からデータを受信し、物理的世界におけるデバイスの絶対ポジションをデバイス240が判定することを可能にするGPS受信機を含み得る。
【0032】
デバイス240は、デバイス240及び/又は表示生成構成要素(単数又は複数)214Bの向き及び/又は移動を検出する向きセンサ(単数又は複数)210を含む。例えば、デバイス240は、向きセンサ210を使用して、現実世界環境における物理的オブジェクトなどに関する、デバイス240及び/又は表示生成構成要素214Bのポジション及び/又は向きの変化をトラッキングする。向きセンサ(単数又は複数)210は、任意選択的に、1つ以上のジャイロスコープ及び/又は1つ以上の加速度計を含む。
【0033】
一部の例では、デバイス240は、任意選択的に、ハンドトラッキングセンサ(単数又は複数)202及び/又はアイトラッキングセンサ(単数又は複数)212を含む。ハンドトラッキングセンサ(単数又は複数)202は、拡張現実環境に対する、表示生成構成要素(単数又は複数)214Bに対する、及び/又は別の定義された座標系に対する、ユーザの手の1つ以上の部分のポジション/ロケーション、及び/又はユーザの手の1つ以上の部分の動きをトラッキングするように構成される。アイトラッキングセンサ(単数又は複数)212は、現実世界若しくは拡張現実環境に対する、及び/又は表示生成構成要素(単数又は複数)214Bに対するユーザの視線(より一般的には、眼、顔、又は頭部)のポジション及び移動をトラッキングするように構成される。一部の例では、ハンドトラッキングセンサ(単数又は複数)202及び/又はアイトラッキングセンサ(単数又は複数)212は、表示生成構成要素(単数又は複数)214Bと共に実装される。一部の例では、ハンドトラッキングセンサ(単数又は複数)202及び/又はアイトラッキングセンサ(単数又は複数)212は、表示生成構成要素(単数又は複数)214Bとは別個に実装される。
【0034】
一部の例では、ハンドトラッキングセンサ(単数又は複数)202は、(例えば、人間のユーザの)1つ以上の手を含む現実世界から3次元情報をキャプチャする画像センサ(単数又は複数)206(例えば、1つ以上のIRカメラ、3Dカメラ、奥行きカメラなど)を使用できる。いくつかの例では、手は、指及びそれらのそれぞれのポジションを区別するのに十分な解像度で分解され得る。一部の例では、1つ以上の画像センサ(単数又は複数)206は、画像センサ(単数又は複数)206の視野と、画像センサによってキャプチャされた指/手のポジション、向き、及び/又は移動が(例えば、ユーザの静止している手又は現実世界環境内の他の人の他の手と区別するための)入力として使用される対話空間とを画定するように、ユーザに対して配置される。入力(例えば、ジェスチャ、タッチ、タップなど)のために指/手をトラッキングすることは、ユーザが任意の種類のビーコン、センサ、又は他のマーカにタッチしたり、保持したり、装着したりする必要がないという点で有利であり得る。
【0035】
一部の例では、アイトラッキングセンサ(単数又は複数)212は、少なくとも1つのアイトラッキングカメラ(例えば、赤外線(IR)カメラ)及び/又はユーザの眼に向かって光を放射する照明源(例えば、IR光源、LEDなど)を含む。アイトラッキングカメラは、光源からの反射IR光を眼から直接的又は間接的に受け取るように、ユーザの眼に向けられてもよい。一部の例では、両眼は、それぞれのアイトラッキングカメラ及び照明源によって別個にトラッキングされ、焦点/視線は、両眼のトラッキングから判定することができる。一部の例では、一方の眼(例えば、利き眼)が、個別のアイトラッキングカメラ/照明源(単数又は複数)によってトラッキングされる。
【0036】
システム200は、図2の構成要素及び構成に限定されず、複数の構成においてより少ない、代替的な、又は追加の構成要素を含むことができる。一部の例では、システム200は単一のデバイスに実装することができる。システム200を使用する人は、本明細書では、任意選択的に、システムのユーザ(例えば、及び/又はデバイスのユーザ)と呼ばれる。次に、3次元環境において見える物理的電子デバイスに関連付けられた仮想拡張ディスプレイの表示を開始することを含む例示的な対話に注意を向ける。以下で説明するように、3次元環境は、第1の電子デバイスを使用して表示し得、第1の電子デバイスとは異なる第2の電子デバイスを、3次元環境に含まれる物理環境内に位置し得、第1の電子デバイスは、第2の電子デバイスの仮想拡張ディスプレイを提示するように構成される。一部の例では、仮想拡張ディスプレイの表示を開始し、以下に説明される3次元環境における仮想拡張ディスプレイとの対話を容易にするプロセスは、デバイス230及び240のプロセッサ218A、218Bによって実行することができる。
【0037】
図3A図3Iは、本開示の一部の例による、3次元環境において電子デバイスのユーザインタフェースの表現の表示を開始するための例示的な対話を示す。一部の例では、第1の電子デバイス301は、3次元環境350を提示し得る。第1の電子デバイス301は、上述した電子デバイス101又は240と同様であってもよく、及び/又は、例えば、ヘッドアップディスプレイ(HUD)、ヘッドマウントディスプレイ(HMD)、一体化された表示能力を有するウィンドウ、又は人の眼に配置されるように設計されたレンズとして形成されたディスプレイ(例えば、コンタクトレンズと同様)などの、3次元環境を生成及び提示するように構成されたヘッドマウントシステム/デバイス及び/又は投影ベースシステム/デバイス(ホログラムベースシステム/デバイスを含む)であってもよい。図3A図3Iの例では、3次元環境350が、第1の電子デバイスの視点(例えば、電子デバイス301のユーザに関連付けられた視点)から見たX軸、Y軸、及びZ軸によって定義され得るように、ユーザは任意選択的に第1の電子デバイス301を装着している。したがって、本明細書で使用される場合、第1の電子デバイス301は、第1の電子デバイス301がロール方向、ピッチ方向、及び/又はヨー方向に移動され得るように、ユーザ(例えば、ユーザの頭部)の動きに基づいて6自由度で移動可能であるように構成される。
【0038】
図3Aに示すように、第1の電子デバイス301は、テーブル306(例えば、図1の現実世界テーブル106に対応する)、第2の電子デバイス315、及び1つ以上の物理入力デバイス331/332を含む物理環境内に配置されてもよい。したがって、第1の電子デバイス301を使用して提示される3次元環境350は、任意選択的に、テーブル306’の表現、第2の電子デバイス315’の表現、及び1つ以上の物理入力デバイス331’/332’の1つ以上の表現などの、電子デバイス301を取り囲む物理環境のキャプチャされた部分を含む。一部の例では、第2の電子デバイス315’は、上述のデバイス230と同様であってもよく、及び/又はデスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、若しくは他のモバイルコンピューティングデバイスであってもよい。一部の例では、1つ以上の物理入力デバイスは、第2の電子デバイス315’と通信する(例えば、第2の電子デバイス315’と一体化されるか、又はワイヤード若しくはワイヤレス通信手段を介して第2の電子デバイス315’と通信する)キーボード331’及びマウス332’(又はトラックパッド)を含んでもよい。図3Aの入力デバイス(例えば、キーボード331’及びマウス332’)は単に代表的なものであり、追加の、より少ない、又は異なる入力デバイスが第2の電子デバイス315’と通信してもよいことを理解されたい。一部の例では、表現は、第1の電子デバイス301の透明又は半透明のディスプレイを通して見られる物理環境の部分を含むことができる。
【0039】
一部の例では、図3Aに示すように、3次元環境350内の第2の電子デバイス315’は、1つ以上のユーザインタフェースを表示するように構成される。例えば、図3Aに示されるように、第2の電子デバイス315’は、ディスプレイ314’の表現として3次元環境350内で見えるディスプレイを含む。一部の例では、ディスプレイ314’は、第1のユーザインタフェース(例えば、「ウィンドウA」)を表示しており、これは、第1のユーザインタフェース311’の表現として3次元環境350において見える。一部の例では、第1のユーザインタフェース311’は、図3Aに示されるように、検索バー313’の表現として3次元環境350において見える検索バーを含むウェブブラウジングアプリケーション(例えば、「ブラウザ」)のユーザインタフェースである。加えて、図3Aに示されるように、第1のユーザインタフェース311’は、第2の電子デバイス315’にローカルなアプリケーション、画像、又は他のファイルに対応する複数のアイコンを含むドック309’の表現として3次元環境350において見えるドックと共に表示されてもよい。最後に、図3Aに示されるように、一部の例では、第2の電子デバイス315’は、ディスプレイ314’のユーザインタフェース要素に向けられた入力を提供するためにマウス332’を介して制御可能な(例えば、ユーザインタフェース要素に向けられた選択入力及び関連入力を提供するためにマウス332’を介して移動可能及び/又はマウス332’を介して制御可能な)カーソル312’の表現として3次元環境350において見えるカーソル(例えば、又は他のポインタオブジェクト)を表示してもよい。
【0040】
一部の例では、現実世界環境における第2の電子デバイスとの慣習的な対話を表す完全に機能的な作業環境を3次元で提供することが有利であり得る。したがって、3次元環境において第2の電子デバイスの1つ以上のユーザインタフェースの表現を含むように構成された仮想拡張ディスプレイを提供することは、第2の電子デバイスの物理的ディスプレイ(例えば、ディスプレイ314’)の制約なしに第2の電子デバイスの1つ以上のユーザインタフェースと対話するのに特に有用であり得る。例えば、本明細書で説明されるように、仮想拡張ディスプレイは、第2の電子デバイスの物理的ディスプレイの寸法を超えるサイズで第2の電子デバイスの1つ以上のユーザインタフェースを表示することを提供することができる(例えば、ユーザインタフェースを拡大するか、又は第2の電子デバイスのディスプレイに対応する領域を超えてユーザインタフェースの表示のための複数の領域を提供する)。一部の例では、第2の電子デバイスの1つ以上のオブジェクト(例えば、3次元グラフィカルデータに対応するオブジェクト)を3次元で提示することが有利であり得る。例えば、2次元コンテンツは3次元で閲覧又は編集することができるが、第2の電子デバイスのディスプレイは2次元に限定される。そのような例では、3次元環境で表示するためのコンテンツを作成するユーザは、仮想拡張ディスプレイを介してコンテンツを3次元で見ることができる。一部の例では、本明細書でより詳細に説明するように、第2の電子デバイスと通信する物理入力デバイスを介して検出された入力に基づいて、仮想拡張ディスプレイのコンテンツとの対話を容易にすることが有利であり得る。
【0041】
一部の例では、第1の電子デバイス301は、3次元環境350内の第2の電子デバイス315’に関連付けられた仮想拡張ディスプレイの表示を開始するために、第2の電子デバイス315’とのペアリングを提供し得る。例えば、図3Bに示すように、第1の電子デバイス301は、第1の電子デバイス301を1つ以上の他の電子デバイスとペアリングすることを提供する個別のアプリケーション(例えば、第1の電子デバイス301上で実行されるペアリングアプリケーション又は設定アプリケーション)に関連付けられたユーザインタフェースオブジェクト317を表示してもよい。一部の例では、図3Bに示すように、ユーザインタフェースオブジェクト317は、「デバイス1」に対応する第1の指示317-1を含む。一部の例では、デバイス1は、図3Bにおいて第1の電子デバイス315と現在ペアリングされていない第2の電子デバイス301’に対応する。一部の例では、第2の電子デバイス301’が第1の電子デバイス315の閾値距離(例えば、0.1、0.25、0.5、1、2、3、5、10、15、20mなど)内にあるため、第1の指示317-1は、ユーザインタフェースオブジェクト317に含まれる。一部の例では、第2の電子デバイス315’が第1の電子デバイス301又は第1の電子デバイス301のユーザの視野内に見える(例えば、第2の電子デバイス315’が、ユーザの現在の視点から3次元環境350内に見える物理環境の一部に位置する)ので、第1の指示317-1は、ユーザインタフェースオブジェクト317に含まれる。一部の例では、第1の指示317-1は、第1の電子デバイス301が第2の電子デバイス315’に関連付けられた仮想拡張ディスプレイを提示することを可能にするために、第2の電子デバイス315’を第1の電子デバイス301とペアリングするためのプロセスを開始するように選択可能である。
【0042】
一部の例では、図3Bに示すように、第1の電子デバイス301は、第1の指示317-1に向けられた選択入力371Aを検出する。例えば、図3Bでは、第1の電子デバイス301は、任意選択的にユーザの視線が第1の指示317-1に向けられている間に、エアピンチジェスチャ(例えば、ユーザの手の人差し指と親指が一緒になって接触する)、タップ又はタッチ入力(例えば、手の人差し指によって提供される)、口頭コマンド、又は他の入力を検出する。一部の例では、以下で説明するように、第1の指示317-1の選択を検出したことに応じて、第1の電子デバイス301は、第2の電子デバイス315’を第1の電子デバイス301とペアリングするためのプロセスを開始する。
【0043】
一部の例では、第2の電子デバイス315’を第1の電子デバイス301とペアリングするためのプロセスを開始することは、ペアリングの要求を第2の電子デバイス315’に(例えば、第2の電子デバイス315’に直接、又はサーバ(例えば、第2の電子デバイス315’と通信しているワイヤレス通信端末)を介して間接的に)送信することを含む。一部の例では、ペアリングの要求を受信したことに応じて、第2の電子デバイス315’は、第1の電子デバイス301を第2の電子デバイス315’とペアリングするために、データを(例えば、直接的又は間接的に)第1の電子デバイス301に送信/出力する。例えば、図3Bに示すように、第2の電子デバイス315’は、ディスプレイ314’上に表示されたコンテンツの表現を送信し得、それにより、第1の電子デバイス301は、受信した表現を第1の電子デバイス301によってキャプチャされた画像の一部と照合することによって、第2の電子デバイス315’を視覚的に識別し得る。別の例では、図3Cに示すように、第2の電子デバイス315’は、ディスプレイ314’を介して一意の識別子を表示し、この一意の識別子は、第2の電子デバイス315’に関連付けられ、第1の電子デバイス301によって検出可能な一意の識別子321’の表現として3次元環境350内で見える。図3Cに示すように、一意の識別子321’は、任意選択的に、第1の電子デバイス315の1つ以上の画像センサ又はカメラを介して検出可能な第2の電子デバイス301’の識別データを記憶する、QRコード(登録商標)、バーコード、又は他の機械可読コードなどの機械可読画像である。一部の例では、一意の識別子321’は、任意選択的に、一意の識別子321’が第1の電子デバイス301によって検出可能であるが、第1の電子デバイス301のユーザには見えないことを可能にする頻度で表示される。一部の例では、図3Cに示されるように、第2の電子デバイス315’が一意の識別子321’を表示するとき、第2の電子デバイス315’は、第1の電子デバイス301のユーザに一意の識別子321’を特定するよう促すための指示を第1の電子デバイス301に送信する。例えば、図3Cに示すように、この指示は、第1の電子デバイス301が一意の識別子321’に含まれる識別データをスキャン/アクセスし得るように、第1の電子デバイス301のユーザに、第2の電子デバイス315’上に表示される一意の識別子321’(例えば、「デバイス1上のコードをスキャン」)に注意(例えば、視線を含む)を向けるように促すメッセージ要素320を第1の電子デバイス301に表示させる。一部の例では、第1の電子デバイス301が一意の識別子321’をスキャンするように、ユーザの注意が一意の識別子321’に向けられる(及び/又は、一意の識別子321’は、1、2、3、5、10、30、45、60秒などの閾値時間量を超えてユーザの視野内に留まる)と、第1の電子デバイス301は、第1の電子デバイス315を第2の電子デバイス301’とペアリングさせる確認データを第2の電子デバイス315’に送信する。
【0044】
追加的に又は代替的に、一部の例では、第2の電子デバイス315’は、第1の電子デバイス301を第2の電子デバイス315’とペアリングするために、第1の電子デバイス301によって検出可能な音声を出力する。例えば、図3Cに示すように、第2の電子デバイス315’は、第1の電子デバイス301によって検出可能な周波数で出力され得る(例えば、第1の電子デバイス301のユーザに可聴であってもなくてもよい)音声322を出力する。一部の例では、音声322が第1の電子デバイス301によって検出されると、第1の電子デバイス301は、第1の電子デバイス301を第2の電子デバイス315’とペアリングさせる確認データを第2の電子デバイス315’に送信する。追加的に又は代替的に、一部の例では、第2の電子デバイス315’は、第1の電子デバイス301を第2の電子デバイス315’とペアリングするために第1の電子デバイス301によって検出可能な赤外光326を、ディスプレイ314’などを介して放射する。一部の例では、赤外光326は、第1の電子デバイス301のユーザに見えない場合がある。一部の例では、赤外光326が第1の電子デバイス301によって(例えば、1つ以上の赤外線センサ又は他の画像センサを介して)検出されると、第1の電子デバイス301は、第1の電子デバイス301を第2の電子デバイス315’とペアリングさせる確認データを第2の電子デバイス315’に送信する。
【0045】
一部の例では、図3Dに示されるように、第2の電子デバイス315’は、第1の電子デバイス301を第2の電子デバイス301’とペアリングするために第2の電子デバイス315’によって検出可能な入力を提供するように第1の電子デバイス301のユーザに促す要求を第1の電子デバイス315に送信する。例えば、図3Dに示されるように、要求は、第1の電子デバイス301に、1つ以上の入力デバイス331’/332’を介して入力を提供するように第1の電子デバイス301のユーザに促す命令要素320A及び/又は命令要素320Bを表示させる。一例として、図3Dでは、命令要素320Aは、第1の電子デバイス301のユーザに、第2の電子デバイス315’と通信しているキーボード331’に向けられた選択入力を提供するように促す命令(例えば、「キーボード上のキーを押下」)を含む。一部の例では、ユーザは、キーボード331’上の特定のキーを選択するように促される。一部の例では、図3Dに示されるように、命令要素320Bは、第1の電子デバイス301のユーザに、第2の電子デバイス315’と通信しているマウス332’に向けられた選択入力を提供するように促す命令(例えば、「マウスをクリック」)を含む。
【0046】
図3Dでは、第2の電子デバイス315’は、キーボード331’に向けられた選択入力373A及び/又はマウス332’に向けられた選択入力373Bを検出する。例えば、第2の電子デバイス315’は、第1の電子デバイス301のユーザによって提供される、キーボード331’上のキーの押下及び/又はマウス332’上のボタンの押下(又はマウス332’のタッチ感知面上のタップ)を検出する。一部の例では、図3Eに示すように、選択入力373A及び/又は選択入力373Bを検出したことに応じて、第2の電子デバイス315’は、選択入力373A及び/又は選択入力373Bが検出されたという確認を提供する。例えば、図3Eに示すように、第2の電子デバイス315’は、ディスプレイ314’を介して確認メッセージを表示し、この確認メッセージは、3次元環境350において確認メッセージ323’として見ることができ、上述の入力が成功裏に検出されたこと(例えば、「入力検出」)を示し、これにより、第1の電子デバイス301が第2の電子デバイス315’とペアリングされることが可能になる。
【0047】
一部の例では、第1の電子デバイス301は、1つ以上の基準が満たされているという判定に従って、上述の例に従って、第2の電子デバイス315’を第1の電子デバイス301とペアリングするためのプロセスを開始する。一部の例では、1つ以上の基準は、第2の電子デバイス315’が仮想拡張ディスプレイを介してユーザインタフェースを表示するための状態にあるという判定に従って満たされる基準を含む。一部の例では、1つ以上の基準は、第2の電子デバイス315’が第1の電子デバイス301の1つ以上のセンサによって検出されたという判定に従って(例えば、第2の電子デバイスが第1の電子デバイスの1つ以上の画像センサ又はカメラによってキャプチャされたときに)満たされる基準を含む。一部の例では、1つ以上の基準は、第2の電子デバイス315’が第1の電子デバイス301と通信することができるように構成されているという判定に従って(例えば、ワイヤード又はワイヤレス通信チャンネルが確立されると)満たされる基準を含む。一部の例では、1つ以上の基準は、第2の電子デバイス315’が適格な電子デバイスである(例えば、一部の電子デバイスは、拡張仮想ディスプレイのコンテキストにおいて動作する能力を有し得るが、他の電子デバイスは有し得ない)という判定に従って満たされる基準を含む。一部の例では、1つ以上の基準は、第1の電子デバイス301及び第2の電子デバイス315’が同じユーザに属し、及び/又は電子デバイスにログインされた同じユーザアカウントに関連付けられている場合など、第1及び第2の電子デバイスが情報(例えば、プライバシー設定、ユーザ情報、ユーザデータなど)を共有することを許可されているという判定に従って満たされる基準を含む。一部の例では、第1の電子デバイス301が第2の電子デバイス315’とペアリングされるためには、上記の基準の一部又は全部が満たされなければならない。
【0048】
一部の例では、第1の電子デバイス301は、上述した例示的なプロセスに従うことなく、第2の電子デバイス315’とペアリングされ得る。例えば、図3Bでは、第1の指示317-1の選択を検出したことに応じて、第1の電子デバイス301は、第2の電子デバイス315’とペアリングする要求を送信し、上記の1つ以上の基準が満たされる場合、第1の電子デバイス301は、第2の電子デバイス315’と自動的にペアリングする。一部の例では、第1の電子デバイス301及び第2の電子デバイス315’は、Bluetooth(登録商標)、Wi-Fiなどの任意の適切な通信手段を介してペアリングされてもよい。
【0049】
一部の例では、図3Fに示されるように、第1の電子デバイス301が上述のように第2の電子デバイス315’とペアリングされている場合、第1の電子デバイス301は、第1の電子デバイス301が第2の電子デバイス315’とペアリングされていること(例えば、「デバイス1ペアリング済み」)を第1の電子デバイス301のユーザに警告するメッセージ要素320(例えば、通知)を表示する。一部の例では、第1の電子デバイス301が第2の電子デバイス315’とペアリングされた後、第1の電子デバイス301は、第2の電子デバイス315’に関連付けられた仮想拡張ディスプレイを表示するためのプロセスを開始する。例えば、図3Gでは、第1の電子デバイス301が第2の電子デバイス315’と通信しており、第2の電子デバイス315’が第1の電子デバイス301のユーザの視野内にある間、第1の電子デバイス301は、3次元環境350内に第1のアフォーダンス319を表示し、第1のアフォーダンス319は、第2の電子デバイス315’の仮想拡張ディスプレイを表示するために選択可能である。一部の例では、図3Gに示すように、第1のアフォーダンス319は、第2の電子デバイス315’のディスプレイの縁部に近接して(例えば、ディスプレイの縁部の閾値距離(例えば、1、2、3、5、8、10、15、20、30cmなど)内に)提示されてもよい。例えば、図3Gに示すように、第1のアフォーダンス319は、3次元環境350内の第2の電子デバイス315’の上に(例えば、第2の電子デバイス315’のディスプレイ314’の角の閾値距離内に)提示される。一部の例では、第1のアフォーダンス319は、第2の電子デバイス315’のディスプレイ314’と同じ平面に現れるように、3次元環境350内のある奥行きに提示されてもよい。
【0050】
一部の例では、第1のアフォーダンス319は、3次元環境350内で異なって配置されてもよい。例えば、第1のアフォーダンス319は、第2の電子デバイス315’の上、付近、下、若しくは前に、及び/又は3次元環境350内の他のロケーション(例えば、第2の電子デバイスから規定の距離だけ離れた位置)に提示されてもよい。追加的に又は代替的に、一部の例では、第1のアフォーダンスは、(例えば、3次元環境350における第2の電子デバイス315’のロケーションに関係なく)第1の電子デバイス301のディスプレイの規定の領域に表示されてもよい。例えば、図3Gに示されるように、第1のアフォーダンスは、複数のシステムオプション318内に第1のシステムオプション318Aとして表示されてもよい。一部の例では、図3Gに示すように、複数のシステムオプション318は、第1の電子デバイス301のディスプレイの上縁部に沿って中央に表示される。一部の例では、第1のシステムオプション318A以外の複数のシステムオプション318は、表示設定(例えば、輝度レベル及び/又は没入コンテンツレベル)及び/又は音声設定(例えば、音量レベル)などの第1の電子デバイス301の1つ以上の設定にアクセスするために、及び/又はホームユーザインタフェースなどを介して第1の電子デバイス301の1つ以上のアプリケーションにアクセスするために選択可能である。
【0051】
一部の例では、第2の電子デバイス315’は、ディスプレイ314’を介して、第2の電子デバイス315による仮想拡張ディスプレイの表示を開始するために(例えば、キーボード331’、マウス332’、第1の電子デバイス301の入力などを使用して)選択可能なアフォーダンスを提示してもよい。例えば、第2の電子デバイス315’は、仮想拡張ディスプレイを表示する要求を第1の電子デバイス301に第2の電子デバイス315’に送信させるために選択可能な設定又は他のアプリケーション内で、第1のアフォーダンス319と異なる、類似する、又は同一のアフォーダンスを提供してもよい。
【0052】
一部の例では、図3Gに示すように、第1の電子デバイス301を取り囲む物理環境は、コーヒーテーブル308の上に配置された第3の電子デバイス325を含んでもよい。例えば、第3の電子デバイス325’の表現及びコーヒーテーブル308’の表現は、図3Gに示すように、3次元環境350において見える。一部の例では、第3の電子デバイス325は、セルラー電子デバイス又はタブレットコンピュータなどのモバイル電子デバイスであってもよい。図3Gに示すように、第3の電子デバイス325は、任意選択的に、第1の電子デバイス301とペアリングされない。代替的に、図3Gにおいて、第3の電子デバイス325は、任意選択的に第1の電子デバイス301とペアリングされるが、拡張仮想ディスプレイのコンテキストにおいて動作する能力を有していなくてもよい。したがって、図3Gに示すように、第3の電子デバイス325’の表現は、第3の電子デバイス325の拡張仮想ディスプレイを表示するために選択可能なアフォーダンス(例えば、第3の電子デバイス325’の表現に近接して、又は複数のシステムオプション318の中のいずれか)と共に表示されない。
【0053】
図3Hにおいて、第1の電子デバイス301は、上述した第1のシステムオプション318Aに向けられた選択入力371Bを検出する。例えば、第1の電子デバイス301は、第1のシステムオプション318Aの選択に対応するエアピンチジェスチャ、タップ又はタッチジェスチャ、口頭コマンド、視線滞留などを検出する。一部の例では、図3Iに示すように、仮想拡張ディスプレイを開始するための第1のシステムオプション318A、第1のアフォーダンス319、又は他のアフォーダンスの選択を検出したことに応じて、第1の電子デバイス301は、3次元環境350内の第2の電子デバイス315’に関連付けられている(例えば、上述した第3の電子デバイス325’に関連付けられていない)仮想拡張ディスプレイ304を提示する。
【0054】
一部の例では、図3Iに示すように、仮想拡張ディスプレイ304は、第2の電子デバイス315’のための第2の(例えば、仮想)ディスプレイとして機能する。例えば、図3Iに示すように、仮想拡張ディスプレイは、第2の電子デバイス315’のディスプレイ314’上に表示されるドック309’’の表現を含む。一部の例では、本明細書で説明するように、仮想拡張ディスプレイ304は、ディスプレイ314’上に表示されてもされなくてもよい、第2の電子デバイス315’の1つ以上のユーザインタフェース(例えば、アプリケーションウィンドウ)、コンテンツ、及び/又は他のユーザインタフェース要素を表示するように構成される。加えて、一部の例では、カーソル312’は、第2の電子デバイス315’のディスプレイ314’と仮想拡張ディスプレイ304との間で移動可能であるように、マウス332’を介して制御可能である。一部の例では、本明細書で後述するように、キーボード331’及び/又はマウス332’を介して検出されたユーザ入力は、第1の電子デバイス301のユーザの視線のロケーション(位置)に応じて、ディスプレイ314’のユーザインタフェース又は仮想拡張ディスプレイ304のユーザインタフェースに向けられてもよい。次に、3次元環境における電子デバイスのための仮想拡張ディスプレイとの例示的な対話に注意を向ける。
【0055】
一部の例では、第1の電子デバイス301が3次元環境350において仮想拡張ディスプレイ304を提示するとき、第2の電子デバイス315’のディスプレイ314’はオフにされてもよい(例えば、第2の電子デバイス315’がディスプレイ314’を介してユーザインタフェースをもはや表示しないように、第2の電子デバイス315’が低電力モード若しくはスリープ状態に入る、又は電源が切られている)。例えば、第1の電子デバイス301が第2の電子デバイス315’とペアリングされた後、及び第1の電子デバイス301が仮想拡張ディスプレイ304を生成して3次元環境350に表示した後、第2の電子デバイス315’は(例えば、自動的に)ディスプレイ314’の電源を切る。一部の例では、第2の電子デバイス315’のディスプレイ314’は、第1の電子デバイス301が、第1の電子デバイス301と第2の電子デバイス315’とをペアリングするための上述したプロセスを開始するときにオフにされ得る。そのようなシナリオでは、第2の電子デバイス315’のディスプレイ314’は、ペアリングプロセスのために(例えば、一意の識別子321’及び/又は確認メッセージ323’を表示するために)電源をオンにされ得る。
【0056】
図4A図4Oは、本開示の一部の例による、3次元環境において第2の電子デバイスのユーザインタフェースの表現との対話を容易にする第1の電子デバイスの例を示す。一部の例では、図4Aに示すように、第1の電子デバイス401を使用して3次元環境450を提示し得る。一部の例では、第1の電子デバイス401は、任意選択的に、上述の第1の電子デバイス301に対応する。一部の例では、3次元環境450は、第1の電子デバイス401が位置する物理環境のキャプチャされた部分を含む。例えば、3次元環境450は、図4Aに示すように、テーブル(例えば、テーブル406’の表現)を任意選択的に含む。加えて、3次元環境450は、第2の電子デバイス(例えば、第2の電子デバイス415’の表現)と、(例えば、物理環境内のテーブルの上に配置された)第2の電子デバイスと通信している1つ以上の物理入力デバイス(例えば、1つ以上の入力デバイス431’/432’の1つ以上の表現)とを含む。一部の例では、3次元環境450は、任意選択的に、上述の3次元環境350に対応する。一部の例では、第2の電子デバイス415’は、上述の第2の電子デバイス315’に対応する。一部の例では、1つ以上の入力デバイス431’/432’は、上述の1つ以上の入力デバイス331’/332’に対応する。一部の例では、物理環境の表現は、第1の電子デバイス401の透明又は半透明のディスプレイを通して見られる物理環境の部分を含むことができる。
【0057】
同様に上述したように、一部の例では、第1の電子デバイス401は、第2の電子デバイス415’と通信する。加えて、一部の例では、図4Aに示すように、第1の電子デバイス401は、第2の電子デバイス415’に関連付けられた仮想拡張ディスプレイ404を提示している。例えば、図4Aである。仮想拡張ディスプレイ404は、第2の電子デバイス415’の物理的ディスプレイ(例えば、ディスプレイ414’の表現)に対する第2の(例えば、仮想)ディスプレイとして機能する。一部の例では、仮想拡張ディスプレイ404は、上述の仮想拡張ディスプレイ304に対応する。一部の例では、図4Aに示すように、第2の電子デバイス415’のディスプレイ414’は、第1のユーザインタフェース(例えば、第1のユーザインタフェース411’の表現)を表示しており、仮想拡張ディスプレイ404は、第2の電子デバイス415’のディスプレイ414’上に表示されるように構成された第2のユーザインタフェース425を表示している。一部の例では、第1のユーザインタフェース411’及び第2のユーザインタフェース425は、個別のアプリケーション(例えば、第2の電子デバイス514’上で動作しているウェブブラウジングアプリケーション(「ブラウザ」))に関連付けられてもよい。例えば、第1のユーザインタフェース411’は、個別のアプリケーションの第1のウィンドウ(例えば、「ウィンドウA」)であり、第2のユーザインタフェース425は、個別のアプリケーションの第2のウィンドウ(例えば、「ウィンドウB」)である。加えて、図4Aに示すように、第2の電子デバイス415’のディスプレイ414’は、ドック(例えば、ドック409’の表現)を表示しており、仮想拡張ディスプレイ404は、ドック409’’の表現を表示している。一部の例では、ドック409’は、上述のドック309’に対応する。一部の例では、図4Aに示すように、第2の電子デバイス415’のディスプレイ414’は、マウス432’を使用して制御可能なカーソル(例えば、カーソル412’の表現)を含む。一部の例では、カーソル412’は、上述のカーソル312’に対応する。
【0058】
一部の例では、図4Aに示すように、第1のユーザインタフェース411’は、検索クエリをウェブブラウザに提供するためのテキストを入力するために選択可能なテキスト入力フィールド(例えば、テキスト入力フィールド413’の表現)を含む。加えて、図4Aに示されるように、第2のユーザインタフェース425は、ウェブブラウザによって提供される(例えば、URL「www.Search.com」に関連付けられた)複数の検索結果を含む。例えば、図4Aにおいて、第2のユーザインタフェース425は、第1のウェブサイト(例えば、「www.URL1.com」)に関連付けられた第1の検索結果426A(例えば、「検索結果A」)と、第2のウェブサイト(例えば、「www.URL2.com」)に関連付けられた第2の検索結果426B(例えば、「検索結果B」)と、第3のウェブサイトに関連付けられた第3の検索結果426C(例えば、「検索結果C」)とを含む。一部の例では、複数の検索結果426は、それぞれのソース(例えば、ウェブサイト)を介してコンテンツ(例えば、テキスト、画像、ビデオ、音楽など)にアクセスするために選択可能である。
【0059】
一部の例では、第1の電子デバイス401は、第2の電子デバイス415’によって(例えば、直接的に又はサーバを介して間接的に)第1の電子デバイス401に送信された画像データ(例えば、ピクセル又は表示データ)に基づいて、仮想拡張ディスプレイ404内に第2のユーザインタフェース425を表示する。例えば、上述したように、第2のユーザインタフェース425は、第2の電子デバイス415’のディスプレイ414’上に表示されるように構成される(例えば、第2のユーザインタフェース425は、第2の電子デバイス415’のユーザインタフェースである)。したがって、一部の例では、第1の電子デバイス401は、第2の電子デバイス415’によって提供される画像データに基づいて、上述の第2のユーザインタフェース425のコンテンツを含む第2のユーザインタフェース425をレンダリング(例えば、生成)する。例えば、画像データは、第2のユーザインタフェース425の外観、第2のユーザインタフェース425のコンテンツの特性(例えば、コンテンツが選択可能、スクロール可能などの対話型であるかどうか)、及び/又は第2のユーザインタフェース425及びそのコンテンツの品質(例えば、精細度などの画質)に対応する情報を含む。一部の例では、第2の電子デバイス401’によって第1の電子デバイス415に送信された画像データは、第1の電子デバイス415によって仮想拡張ディスプレイ404に表示される、第2の電子デバイス401’によって生成された画像を含む。
【0060】
一部の例では、1つ以上の入力デバイス431’/432’を介して検出されたユーザ入力は、3次元環境450における第1の電子デバイス401のユーザの視線のロケーションに基づいて、第1の電子デバイス401によって選択的にルーティングされてもよい。本明細書で使用される場合、第1の電子デバイス401のユーザは、第2の電子デバイス415’のユーザであってもよい。図4Bでは、ユーザの視線427がディスプレイ414’の第1のユーザインタフェース411’に向けられている間に、第2の電子デバイス415’は、第2の電子デバイス415’と通信しているマウス432’を介して入力473Aを検出する。例えば、図4Bに示すように、第2の電子デバイス415’は、テーブル406’の表面上のマウス432’の移動を検出する。
【0061】
一部の例では、上述したように、第1の電子デバイス401は、視線427のロケーションに基づいてユーザ入力の適用可能性を制御する。例えば、入力473Aを検出したことに応じて、第2の電子デバイス415’は、(例えば、カーソル412’を移動させる要求に対応する)マウス432’の移動に対応する情報を含む入力データを(例えば、直接的に又はサーバを介して間接的に)第1の電子デバイス401に送信する。一部の例では、第1の電子デバイス401が第2の電子デバイス415’によって提供された入力データを受信すると、第1の電子デバイス401は、3次元環境450におけるユーザの視線427のロケーションを判定する。上述し、図4Bに示すように、入力473Aがマウス432’を介して提供されると、視線427は、ディスプレイ414’上に表示された第1のユーザインタフェース411’に向けられる。したがって、第1の電子デバイス401は、マウス432’を介して検出された入力473Aを第2の電子デバイス415’にルーティングする。例えば、図4Bでは、第1の電子デバイス401は、入力473Aに従って第2の電子デバイス415’のディスプレイ414’内でカーソル412’を第2の電子デバイス415’に移動させるための1つ以上のコマンド/命令を含む出力データを第2の電子デバイス415’に送信する。したがって、図4Cでは、第2の電子デバイス415’は、マウス432’の移動に従って、ディスプレイ414’内のカーソル412’を第1のユーザインタフェース411’の新しいロケーションに移動させる。
【0062】
図4Cでは、ユーザの視線427が第1のユーザインタフェース411’内のテキスト入力フィールド413’に向けられている間に、第2の電子デバイス415’は、マウス432’を介して選択入力473Bを検出する。例えば、図4Cに示すように、カーソル412’がテキスト入力フィールド413’の上に位置している間に、第2の電子デバイス415’は、マウス432’のボタンのクリック又は押下(又はマウス432’のタッチ感知面のタップ)を検出する。一部の例では、同様に上述したように、選択入力473Bを検出したことに応じて、第2の電子デバイス415’は、第1の電子デバイス401が選択入力473Bをどこにルーティングするかを判定し得るように、入力データを第1の電子デバイス401に送信する。同様に上述したように、第1の電子デバイス401は、3次元環境における視線427のロケーションに基づいて、選択入力473Bをどこに向けるべきかを判定する。図4Cでは、視線427が第1のユーザインタフェース411’内のテキスト入力フィールド413’に向けられているので(又は、一部の例では、視線427が第1のユーザインタフェース411’、ディスプレイ414’などに向けられているので)、第1の電子デバイス401は、上述したように、第2の電子デバイス415’に選択入力473Bを第1のユーザインタフェース411’、特にマウス432’を介して制御可能なカーソル412’のロケーションに向けさせる。したがって、図4Dに示されるように、第2の電子デバイス415’は、第1のユーザインタフェース411’内のテキスト入力フィールド413’を選択することを含む、カーソル412’のロケーションにおける選択を実行する。図4Dに示すように、一部の例では、テキスト入力フィールド413’が選択されると、第2の電子デバイス415’は、テキスト入力フィールド413’にテキストが入力され得ることを示すテキストカーソル(例えば、テキストカーソル428’の表現)をテキスト入力フィールド413’に表示する。
【0063】
一部の例では、図4Cにおいて、視線427iとして代替的に表されるユーザの視線が、代替的に、第1のユーザインタフェース411’(又は、一部の例では、ディスプレイ414’)にも第2のユーザインタフェース425(又は、一部の例では、仮想拡張ディスプレイ404)にも向けられていなかった場合、第1の電子デバイス401及び第2の電子デバイス415’は、選択入力473Bに応じて動作を任意選択的に実行しない。例えば、第1の電子デバイス401が、マウス432’上で検出された選択に対応する第2の電子デバイス415’によって提供された入力データを受信すると、第1の電子デバイス401は、ユーザの視線427iが第1のユーザインタフェース411’及び第2のユーザインタフェース425から離れるように向けられていると判定し、選択に応じて任意の動作を実行することを取り止める命令を第2の電子デバイス415’に送信する。或いは、一部の例では、図4Dに示すように、図4Cの選択入力473Bが第2の電子デバイス401’によって検出されたときに、ユーザの視線427iが第1のユーザインタフェース411’にも第2のユーザインタフェース425にも向けられていない場合、第1の電子デバイス415は、入力を3次元環境450内の現在アクティブなユーザインタフェースにルーティングさせる入力ラッチ動作を実装する。例えば、入力は、視線427iが第1のユーザインタフェース411’及び第2のユーザインタフェース425から離れるように向けられている間に、選択入力473Bが検出される前に視線427が向けられていた最後のユーザインタフェースに自動的にルーティングされる。この例によれば、視線427は、図4Cにおいて選択入力473Bが検出される前に図4Bにおいて第1のユーザインタフェース411’に最後に向けられていたので、入力は第1のユーザインタフェース411’にラッチされ、これにより、第1の電子デバイス401は、図4Dに示すように、及び同様に上述したように、選択入力473Bを第1のユーザインタフェース411’にルーティングする(例えば、テキスト入力フィールド413’を選択する)。
【0064】
図4Dにおいて、テキストカーソル428’がテキスト入力フィールド413’に表示されている間に、及びユーザの視線427が第1のユーザインタフェース411’に向けられている間に、第2の電子デバイス415’は、第2の電子デバイス415’と通信しているキーボード431’を介して一連の1つ以上の入力473Cを検出する。例えば、図4Dにおいて、第2の電子デバイス415’は、キーボード431’の1つ以上のキーの選択を検出する。一部の例では、同様に上述したように、一連の1つ以上の入力473Cを検出したことに応じて、第2の電子デバイス415’は、キーボード431’の1つ以上のキーの選択に対応する情報を含む入力データを第1の電子デバイス401に送信する。一部の例では、同様に上述したように、第1の電子デバイス401が第2の電子デバイス415’によって提供された入力データを受信すると、第1の電子デバイス401は、3次元環境450内の視線427のロケーションに基づいてキーボード入力をどこにルーティングするかを判定する。図4Dでは、一連の1つ以上の入力473Cが第2の電子デバイス415’によって検出されたときに視線427が第1のユーザインタフェース411’に向けられているので、第1の電子デバイス401は、(例えば、1つ以上のコマンド/命令を含む出力データを介して)第2の電子デバイス415’に一連の1つ以上の入力473Cを第1のユーザインタフェース411’、特にテキスト入力フィールド413’に向けさせる。したがって、図4Eに示すように、テキストカーソル428’がテキスト入力フィールド413’内でアクティブであり、一連の1つ以上の入力473Cが第1のユーザインタフェース411’に向けられているので、第2の電子デバイス415’は、キーボード431’の1つ以上のキーの選択に従って、テキスト入力フィールド413’内のテキストカーソル428’のロケーションにテキスト(例えば、「apartmen」を綴るテキスト429’の表現)を表示する。
【0065】
一部の例では、カーソル412’は、第2の電子デバイス415’の物理的ディスプレイ414’と3次元環境450内の仮想拡張ディスプレイ404との間で移動可能であるように構成可能である。一部の例では、カーソル412’は、カーソル412’を制御するマウス432’の移動に基づいて、第2の電子デバイス415’の物理的ディスプレイ414’と仮想拡張ディスプレイ404との間で移動されてもよい。例えば、図4Fにおいて、第2の電子デバイス415’は、マウス432’の移動(例えば、テーブル406’の上部を右方向に横切る動き)に対応する移動入力473Dを検出する。加えて、一部の例では、カーソル412’は、ユーザの視線427のロケーションに基づいて、第2の電子デバイス415’の物理的ディスプレイ414’と仮想拡張ディスプレイ404との間で移動されてもよい。例えば、図4Fでは、マウス432’の移動が第2の電子デバイス415’によって検出されている間に、視線427は第2のユーザインタフェース425に向けられている。
【0066】
一部の例では、カーソル412’は、マウス432’の移動が移動閾値を超えたという判定に従って、第2の電子デバイス415’のディスプレイ414’と仮想拡張ディスプレイ404との間で移動される。例えば、マウス432’の移動は、マウス432’の移動の速度又は加速度が速度又は加速度閾値を超える場合、移動閾値を超える。一部の例では、マウス432’の移動が、ディスプレイの境界の閾値距離(例えば、0.5、1、1.5、2、3、5、10、15、25cmなど)を超える、任意選択で仮想拡張ディスプレイ404の方向へのカーソル412’の移動に対応する場合、マウス432’の移動は移動閾値を超える。例えば、図4Fでは、第2の電子デバイス415’によって検出されたマウス432’の移動は、第2の電子デバイス415’のディスプレイ414’の境界の閾値距離未満のカーソル412’の移動に対応する。したがって、図4Gに示すように、カーソル412’の表示は、第2の電子デバイス415’のディスプレイ414’内(例えば、ディスプレイ414’の右境界又はその付近)に維持される。例えば、第2の電子デバイス415’は、ディスプレイ414’の境界の閾値距離未満のカーソル412’の移動に対応する情報を含む入力データを第1の電子デバイス401に送信し、これは、第1の電子デバイス401に出力データを第2の電子デバイス415’に送信させ、これは、(例えば、マウス432’の移動に従ってカーソル412’を右方向に移動させるにもかかわらず)第2の電子デバイス415’にディスプレイ414’上のカーソル412’の表示を維持させる。他の例では、第2の電子デバイス415’は、カーソル412’の移動が移動閾値を超えないと判定されたとき、入力データを第1の電子デバイス401に送信することを取り止めることができ、カーソル412’の移動が移動閾値を超えるときのみ、入力データを送信し得る。
【0067】
図4Gでは、カーソル412’が第2の電子デバイス415’のディスプレイ414’上に表示されている間に、第2の電子デバイス415’は、マウス432’の更なる移動を検出する。例えば、図4Gに示されるように、第2の電子デバイス415’は、任意選択的に、ユーザの視線427が依然として仮想拡張ディスプレイ404の第2のユーザインタフェース425に向けられている間に、ディスプレイ414’上で右方向への、上述のディスプレイ414’の境界の閾値距離を超えるカーソル412’の移動に対応する移動入力473Eを検出する。代替的に、図4Gでは、視線427が第2のユーザインタフェース425に向けられている間に、第2の電子デバイス415’は、マウス432’を介した選択入力を検出する。例えば、第2の電子デバイス415’は、マウス432’上のボタンのクリック又は押下(例えば、又はマウス432’のタッチ感知面上のタップ)を検出する。
【0068】
一部の例では、図4Hに示すように、ディスプレイ414’の境界の閾値距離を超えて、任意選択的に仮想拡張ディスプレイ404の方向へのカーソル412’の移動に対応するマウス432’の移動を検出したことに応じて、第1の電子デバイス401は、3次元環境450内の仮想拡張ディスプレイ404内にカーソル412’を表示する。例えば、第1の電子デバイス401は、第2の電子デバイス415’にディスプレイ414’上のカーソル412’の表示を停止させ、マウス432’の移動に基づくロケーションで仮想拡張ディスプレイ404内にカーソル412’を再表示する(例えば、第1の電子デバイス401は、第2の電子デバイス415’によって提供されるマウス432’の移動に対応する情報を含む入力データに基づいて、第2のユーザインタフェース425内にカーソル412’を表示する)。一部の例では、第1の電子デバイス301は、第2の電子デバイス415’によって判定されたマウス432’の移動に基づいて仮想拡張ディスプレイ404内のロケーションにカーソル412’を示す、第2の電子デバイス415’から受信された画像データ(例えば、上述した)に基づいて、仮想拡張ディスプレイ404内にカーソル412’を表示する。
【0069】
代替的に、図4Hでは、ユーザの視線427が第2のユーザインタフェース425に向けられている間に第2の電子デバイス415’がマウス432’を介して選択入力を検出したことに応じて、第1の電子デバイス401は、カーソル412’を第2のユーザインタフェース425に移動させる。別の例では、視線427がカーソル412’によって現在対象となっているものとは異なるインタフェース(例えば、第2のユーザインタフェース425)又はディスプレイ(例えば、仮想拡張ディスプレイ404)に向けられている間に、又は視線427がカーソル412’から閾値距離であるロケーション(同じ又は異なるインタフェース、ディスプレイなどの中)に向けられている間に、第2の電子デバイス415’が図4Fの移動入力473Dを検出したことに応じて、第1の電子デバイス401は、視線427に基づくロケーションにカーソル412’を移動させてもよい。例えば、同様に上述したように、第1の電子デバイス401は、第2の電子デバイス415’にディスプレイ414’上のカーソル412’の表示を停止させ、仮想拡張ディスプレイ404内の視線427のロケーションに基づくロケーションにカーソル412’を再表示する。図4Hに示すように、第1の電子デバイス401は、任意選択的に、第2のユーザインタフェース425内の視線427のロケーションに(例えば、第1の検索結果426A上に)カーソル412’を表示する。一部の例では、同様に上述したように、第1の電子デバイス401は、第2の電子デバイス415’によって提供されるカーソル412’に対応する画像データに基づいて、仮想拡張ディスプレイ404内にカーソル412’をレンダリングして表示する。
【0070】
一部の例では、第2の電子デバイス401’と通信しているキーボード431’及び/又はマウス432’を介して検出された入力は、第1の電子デバイス415において3次元環境450に表示される仮想拡張ディスプレイ404と対話するために、第1の電子デバイス401によってルーティングされてもよい。一部の例では、同様に上述したように、入力は、3次元環境450におけるユーザの視線427のロケーションに基づいてルーティングされる。図4Hにおいて、カーソル412’が第1の電子デバイス415の第2のユーザインタフェース425に表示されている間に、第2の電子デバイス401’は、マウス432’を介して選択入力473Fを検出する。例えば、図4Hでは、第2の電子デバイス415’は、マウス432’上のボタンのクリック又は押下(又はマウス432’のタッチ感知面のタップ)を検出する。
【0071】
一部の例では、図4Iに示すように、マウス432’上の選択入力473Fを検出したことに応じて、第1の電子デバイス401は、第2のユーザインタフェース425内のカーソル412’のロケーションに基づいて選択動作を実行する。例えば、図4Iに示すように、選択入力473Fが検出されたときにカーソル412’が第2のユーザインタフェース425内の第1の検索結果426A上に位置し、視線427が第2のユーザインタフェース425に向けられているので、第1の電子デバイス401は、第1の検索結果426Aに関連付けられたコンテンツ(例えば、ウェブサイト「www.URL1.com」からアクセス可能な「ウェブサイト1コンテンツ」)を表示することを含む第1の検索結果426Aを選択する。具体的には、本明細書で上述したように、第2の電子デバイス415’は、選択入力473Fに対応する情報を含む入力データを第1の電子デバイス401に送信し、入力データを検出したことに応じて、3次元環境450における視線427のロケーションを判定する。図4Iでは、図4Hで選択入力473Fが検出されたときに視線427が第2のユーザインタフェース425に向けられたので、第1の電子デバイス401は、選択入力を仮想拡張ディスプレイ404に向ける、すなわち、第2のユーザインタフェース425内のカーソル412’のロケーションで選択を実行する。第2の電子デバイス415が仮想拡張ディスプレイ404のコンテンツを生成する他の例では、第2の電子デバイス415は、入力データを第1の電子デバイスに送信することを取り止めてもよく、代わりに、第2のユーザインタフェース425内のカーソル412’のロケーションで選択を実行してもよい。第1の電子デバイス401は、選択入力473Fに基づいて第2の電子デバイス415’によって判定されたものに基づいて仮想拡張ディスプレイ404のコンテンツに対する変更を示す、第2の電子デバイス415’から受信された画像データ(例えば、上述した)に基づいて、仮想拡張ディスプレイ404のコンテンツに対する任意の結果として生じる更新を表示し得る。
【0072】
図4Iにおいて、第2の電子デバイス415’は、マウス432’を介して移動入力473Gを検出する。例えば、図4Iにおいて、第2の電子デバイス415’は、カーソル412’が第1の電子デバイス401の第2のユーザインタフェース425内に表示されている間に、テーブル406’の表面を右方向に横切るマウス432’の移動を検出する。一部の例では、図4Jに示すように、第2の電子デバイス415’においてマウス432’の移動を検出したことに応じて、第1の電子デバイス415は、第2の電子デバイス401’において検出されたマウス432’の移動に従って、第2のユーザインタフェース425内のカーソル412’を移動させる。例えば、移動入力473Gを検出したことに応じて、第2の電子デバイス415’は、マウス432’の移動に対応する情報(例えば、移動の方向及び/又は移動の距離若しくは速度)を含む入力データを第1の電子デバイス401に送信する。一部の例では、本明細書で同様に論じられるように、第1の電子デバイス401が第2の電子デバイス415’によって提供される入力データを受信すると、第1の電子デバイス401は、移動入力473Gが第2の電子デバイス415’において検出されたときのユーザの視線427のロケーションを判定する。図4Jでは、視線427が仮想拡張ディスプレイ404内の第2のユーザインタフェース425に向けられたので、第1の電子デバイス401は、入力データに従って第2のユーザインタフェース425内でカーソル412’を移動させる。一部の例では、第1の電子デバイス301は、第2の電子デバイス415’によって判定されたマウス432’の移動に基づいて仮想拡張ディスプレイ404内の更新されたポジションを有するカーソル412’を示す、第2の電子デバイス415’から受信された画像データ(例えば、上述)に基づいて、仮想拡張ディスプレイ404内の第2のユーザインタフェース425内のカーソル412’の移動を表示する(例えば、カーソル412’が表示されるポジションを変更する)。
【0073】
図4Jでは、第1の電子デバイス401が第2のユーザインタフェース425内にカーソル412’を表示している間に、第2の電子デバイス415’は、マウス432’を介して選択入力473Hを検出する。例えば、同様に上述したように、第2の電子デバイス415’は、マウス432’上のボタンのクリック又は押下(又はマウス432’のタッチ感知面のタップ)を検出する。一部の例では、図4Kに示すように、第2の電子デバイス415’が選択入力473Hを検出したことに応じて、第1の電子デバイス401は、カーソル412’のロケーションに基づいて第2のユーザインタフェース425において選択動作を実行する。例えば、上述したのと同様に、第2の電子デバイス415’が図4Jの選択入力473Hを検出したときにユーザの視線427が第2のユーザインタフェース425に向けられているので、第1の電子デバイス401は、検出された選択入力473Hに従って選択入力を第2のユーザインタフェース425に向け、特に、第2のユーザインタフェース425のテキスト入力フィールド416の選択を実行する。一部の例では、同様に上述したように、第2の電子デバイス415’は、代わりに、第2のユーザインタフェース425のテキスト入力フィールド416の選択を実行し、仮想拡張ディスプレイ404のための更新された画像データを第1の電子デバイス401に提供してもよい。図4Kに示されるように、一部の例では、テキスト入力フィールド416を選択することは、キーボード入力に応じてテキストがテキスト入力フィールドに入力され得ることを示すテキストカーソル428をテキスト入力フィールド416内に表示することを含む。
【0074】
図4Kでは、第1の電子デバイス401がテキスト入力フィールド416にテキストカーソル428を表示している間に、第2の電子デバイス415’は、キーボード431’を介して一連の1つ以上の選択入力473Iを検出する。例えば、図4Kでは、第2の電子デバイス415’は、キーボード431’の1つ以上のキーの1つ以上の選択又は押下を検出する。一部の例では、図4Lに示すように、第2の電子デバイス415’が一連の1つ以上の選択入力473Iを検出したことに応じて、第1の電子デバイス401は、キーボード431’を介して検出された一連の1つ以上の選択入力473Iに従ってテキスト入力フィールド416にテキスト449を入力する。例えば、図4Lにおいて、第1の電子デバイス401は、キーボード431’の選択されたキーに従って、テキスト入力フィールド416内のテキストカーソル428のロケーションに、「restaura」を綴るテキスト449を表示する。特に、本明細書で上述したのと同様に、一連の1つ以上の選択入力473Iが第2の電子デバイス415’によって検出されたときに視線427が第2のユーザインタフェース425に向けられたので、第1の電子デバイス401は、第2の電子デバイス415’によって提供されたキーボード431’の選択されたキーに対応する情報を含む入力データに従ってテキスト449を表示する。一部の例では、同様に上述したように、第2の電子デバイス415’は、代わりに、キーボード431’を介して検出された一連の1つ以上の選択入力473Iに従って、テキスト449をテキスト入力フィールド416に入力してもよい。これらの例では、第1の電子デバイス415’は、第2の電子デバイス415’から受信された「restaura」を示す画像データに基づいて、テキスト入力フィールド416内に「restaura」を綴るテキスト449を表示し得る。
【0075】
図4Lでは、第1の電子デバイス401が第2のユーザインタフェース425のテキスト入力フィールド416にテキスト449を表示している間に、第2の電子デバイス415’は、キーボード431’を介して更なる選択入力473Jを検出する。例えば、図4Lにおいて、第2の電子デバイス415’は、キーボード431’上の1つ以上の追加のキーの選択を検出する。図4Lに示すように、第2の電子デバイス415’は、ユーザの視線427が第2の電子デバイス415’のディスプレイ414’上の第1のユーザインタフェース411’に向けられている間に、キーボード431’を介して選択入力473Jを検出する。
【0076】
一部の例では、図4Mに示すように、第2の電子デバイス415’がキーボード431’を介して選択入力473Jを検出したことに応じて、第1の電子デバイス401は、視線427のロケーションに基づいて、選択入力473Jを第2の電子デバイス415’の第1のユーザインタフェース411’にルーティングする。例えば、本明細書で上述したのと同様に、第1の電子デバイス401は、選択入力473Jが図4Lのキーボード431’上で検出されたときに視線427がディスプレイ414’に向けられていると判定し、第2の電子デバイス415’にキーボード431’の選択されたキーに従ってテキスト入力フィールド413’内のテキスト429’を更新させる出力データを第2の電子デバイス415’に送信する。図4Mに示されるように、第1のユーザインタフェース411’内のテキスト429’は、テキスト入力フィールド413’内のテキストカーソル428’のロケーションにテキスト「apartments fo」を含むように更新される。更に、図4Mに示されるように、第1の電子デバイス401は、キーボード431’の選択されたキーに従って、第2のユーザインタフェース425内のテキスト入力フィールド416内のテキスト449を更新することを取り止める。
【0077】
加えて、一部の例では、図4Mに示すように、第2の電子デバイス415’が選択入力473Jに従って第1のユーザインタフェース411’内のテキスト429’を更新すると、カーソル412’は、任意選択的に3次元環境450内の視線427のロケーションに基づいて、第1のユーザインタフェース411’内に再表示される。例えば、図4Mでは、第1の電子デバイス401は、第2のユーザインタフェース411内のカーソル412’の表示を停止し、第2の電子デバイス415’にデータ(例えば、出力データ)を送信して、第2の電子デバイス415’に、3次元環境450内の(例えば、テキスト入力フィールド413’上の)視線427のロケーションに対応する第1のユーザインタフェース425’のロケーションにカーソル412’を再表示させる。一部の例では、本明細書で上述したように、カーソル412’がディスプレイ414’上の第1のユーザインタフェース411’内に位置し(例えば、表示され)、視線427が第2の電子デバイス415’のディスプレイ414’に向けられている間に、カーソル412’は、上述した方法のうちの1つ以上でディスプレイ414’(例えば、第1のユーザインタフェース411’及び/又はドック409’)のユーザインタフェース要素と対話するようにマウス432’を介して制御可能である。
【0078】
一部の例では、第1の電子デバイス401のユーザからの第1の電子デバイス401の関連付け解除は、第2の電子デバイス415’のディスプレイ414’を、第1のユーザインタフェース411’及び第2のユーザインタフェース425のための唯一のディスプレイとして再構成させる。例えば、図4Mにおいて、第1の電子デバイス401は、矢印475Aによって表されるように、ユーザの頭部からの第1の電子デバイス401の取り外しを(例えば、図2の向きセンサ210を介して)検出する。一部の例では、ユーザからの第1の電子デバイス401の関連付け解除は、(例えば、第1の電子デバイス401のディスプレイがもはやユーザの眼の上又は眼の前に配置されないように)ユーザを取り囲む物理環境を第1の電子デバイス401のディスプレイを介してもはや見えなくさせる。一部の例では、第1の電子デバイス401の関連付け解除は、第1の電子デバイス401の電源が切られている又はスリープ状態の開始に対応し、これは、任意選択的に、第1の電子デバイス401のディスプレイに動作を停止又は一時停止させる。
【0079】
一部の例では、図4Nに示されるように、第1の電子デバイス401のユーザからの第1の電子デバイス401の関連付け解除を検出したことに応じて、第1の電子デバイス401は、3次元環境450の提示を停止する。例えば、図4Nに示されるように、全ての仮想オブジェクトは、第1の電子デバイス401、すなわち仮想拡張ディスプレイ404によって表示されることを停止する。加えて、図4Nに示されるように、一部の例では、第1の電子デバイス401がもはやユーザによって使用されていないとき、現実世界環境400内の第2の電子デバイス415のディスプレイ414は、ディスプレイ414及び仮想拡張ディスプレイ404にわたって以前に表示された全てのウィンドウ、アプリケーション、ファイル、及び他のユーザインタフェース要素のための唯一の利用可能なディスプレイとして再構成される。例えば、図4Nに示すように、第1のユーザインタフェース411及び第2のユーザインタフェース425は、仮想拡張ディスプレイ404が上記で概説したように第2のユーザインタフェース425のための表示手段としてもはや利用可能ではないので、第2の電子デバイス415のディスプレイ414上に同時に表示される。一部の例では、第1の電子デバイス401のユーザからの第1の電子デバイス401の関連付け解除を検出したことに応じて、第1の電子デバイス401上で実行される(第2の電子デバイス415上で実行されない)アプリケーションに関連付けられたインタフェースは、ディスプレイ414上に表示されなくてもよい。他の例では、(第2の電子デバイス415ではなく)第1の電子デバイス401上で実行されるアプリケーションに関連付けられたインタフェースは、(例えば、第2の電子デバイス415’の表示能力に基づいて)第1の電子デバイス401のユーザからの第1の電子デバイス401の関連付け解除を検出したことに応じて、ディスプレイ414上に表示されてもよい。
【0080】
特に、一部の例では、第1の電子デバイス401がユーザから関連付け解除されると、第1の電子デバイス401は、第2のユーザインタフェース425の表示の状態に対応する情報を含むコンテキストデータを第2の電子デバイス415に送信する。例えば、図4Nにおいて、第2のユーザインタフェース425の表示の状態に対応する情報は、第2のユーザインタフェース425の外観に関する詳細、図示されるようなテキスト「restaura」などの第2のユーザインタフェース425に含まれるコンテンツ、及び/又は第2のユーザインタフェース425の表示モード(例えば、第2のユーザインタフェース425が仮想拡張ディスプレイ404上に拡張フルスクリーンモードで表示されるかどうか)を含む。図4Nに示されるように、第1の電子デバイス401がもはや使用されていない後に第2のユーザインタフェース425が第2の電子デバイス415のディスプレイ414上に表示されるとき、第2のユーザインタフェース425は、第1の電子デバイス401によって提供されるコンテキストデータに従って(例えば、ディスプレイ414が唯一のディスプレイとして再構成されるときにテキスト「restaura」が第2のユーザインタフェース425内に依然として表示されるように)表示される。第2の電子デバイス415が仮想拡張ディスプレイ404のコンテンツを生成し、第2のユーザインタフェース425の表示の状態に対応する情報を含むコンテキストデータを管理する他の例では、第1の電子デバイス401は、コンテキストデータを第2の電子デバイス415に送信することを取り止めてもよく、代わりに、第1の電子デバイス401がユーザから関連付け解除されたという指示を送信してもよい。
【0081】
一部の例では、第1の電子デバイス401のディスプレイが動作している(例えば、電源オン、又はスリープ状態から起動されている)ように第1の電子デバイス401がユーザに再関連付けられた場合、第1の電子デバイス401は、第1の電子デバイス401における仮想拡張ディスプレイ404の以前の表示に基づいて仮想拡張ディスプレイ404を再表示する。図4Nでは、矢印475Bによって表されるように、ユーザは、第1の電子デバイス401をユーザの頭部上に戻す。例えば、ユーザは、第1の電子デバイス401のディスプレイをユーザの眼の上及び/又は前に配置して、現実世界環境400が第1の電子デバイス401のディスプレイを介してもう一度見えるようにする。
【0082】
一部の例では、図4Oに示すように、第1の電子デバイス401がユーザと再関連付けられると、第1の電子デバイス401は3次元環境450を再表示する。加えて、図4Oに示すように、第1の電子デバイス401は、仮想拡張ディスプレイ404が第2の電子デバイス415’のための第2の(例えば、仮想)ディスプレイとして復元されるので、第2のユーザインタフェース425を含む仮想拡張ディスプレイ404を再表示する。例えば、図4Oに示すように、第2の電子デバイス415’は、第2のユーザインタフェース425の表示を停止し、第1の電子デバイスは、図4Mにおいて第1の電子デバイス401がユーザから関連付け解除される前の第2のユーザインタフェース425の表示状態に従って、仮想拡張ディスプレイ404内に第2のユーザインタフェース425を表示する。
【0083】
加えて、一部の例では、図4Oに示されるように、第2のユーザインタフェース425が第1の電子デバイス401において仮想拡張ディスプレイ404に再表示されるとき、第2のユーザインタフェース425は、第2のユーザインタフェース425が第1の電子デバイス401において最後に表示されて以来、第2のユーザインタフェース425のコンテンツに対する更新を含む、第2のユーザインタフェース425の提示に対する任意の更新を含む。例えば、図4Oでは、第2のユーザインタフェース425が図4Mで第1の電子デバイス401に最後に表示されてから(例えば、キーボード431’を介した選択入力を検出したことに応じて)、テキスト「restaurants」が第2のユーザインタフェース425において更新されている。したがって、図4Oに示すように、第2のユーザインタフェース425が第1の電子デバイス401において仮想拡張ディスプレイ404に再表示されるとき、第2のユーザインタフェース425は、上述の更新されたテキストを含む。
【0084】
一部の例では、仮想拡張ディスプレイ404は、第1の電子デバイス415がユーザに再関連付けられたとき、再関連付けが関連付け解除の閾値時間量内に行われた場合、第2の電子デバイス401’の第2のディスプレイとして再構成される。例えば、仮想拡張ディスプレイ404は、ユーザが最初に第1の電子デバイス401を自分の頭部から(例えば、及び/又は眼から離して)取り外した後、ユーザが第1の電子デバイス401を取り外してから1、2、5、10、15、20、30、60、80、100、120分など以内に第1の電子デバイス401を自分の頭部に(例えば、眼の上又は前に)置いた場合、第2の電子デバイス415’のコンテンツ(例えば、ユーザインタフェース)を表示するように構成されたままである。一部の例では、ユーザからの第1の電子デバイス401の関連付け解除の閾値時間量内に再関連付けが発生しない場合、第1の電子デバイス401は、仮想拡張ディスプレイ404内に第2のユーザインタフェース425を再表示することを取り止める。一部の例では、第1の電子デバイス401はまた、仮想拡張ディスプレイ404を再表示することを取り止める。いくつかのそのような例では、仮想拡張ディスプレイ404は、図3Gの第1のアフォーダンス319と同様のアフォーダンスを使用するなどして、仮想拡張ディスプレイ404を再起動することによって再表示されてもよい。
【0085】
一部の例では、第2の電子デバイス415によって最初に検出された入力は、入力が第2の電子デバイス415に向けられるべきであるという判定に従って(例えば、視線427がディスプレイ414’、ディスプレイ414’のインタフェース、仮想拡張ディスプレイ404、又は仮想拡張ディスプレイ404のインタフェースに向けられていることに基づいて)、第1の電子デバイス401に送信されなくてもよいことに留意されたい。これらの例では、第1の電子デバイス401は、断続的に、周期的に、又は任意の他の所望の間隔で、ユーザ入力の現在の宛先を示す情報を第2の電子デバイス415’に送信し得る。現在の宛先が第2の電子デバイス415’である場合、第2の電子デバイス415’は、検出された入力を第1の電子デバイス401に送信することを取り止めてもよく、代わりに、入力をローカルに処理してもよい。現在の宛先が第1の電子デバイス401(又は第2の電子デバイス415’以外の任意のデバイス)である場合、第2の電子デバイス415’は、検出された入力に対応する情報を含む入力データを(例えば、直接的に又はサーバを介して間接的に)第1の電子デバイス401に送信し得る。
【0086】
一部の例では、第1のユーザインタフェース411’及び/又は第2のユーザインタフェース425は、追加的に又は代替的に、第1の電子デバイス401によって検出される入力を介して対話されてもよいことに留意されたい。例えば、第1のユーザインタフェース411’及び/又は第2のユーザインタフェース425の個々の要素(例えば、テキスト入力フィールド413’/416など)は、入力をルーティングするための上述の視線ベースのルールに従って、声又は手に基づく入力を介して、例えば、エアピンチ入力(例えば、ユーザの手の人差し指と親指が一緒になって接触する)又はエアタップ若しくはタッチジェスチャ(例えば、手の人差し指によって提供される)を介して選択されてもよい。加えて、一部の例では、仮想拡張ディスプレイ404自体が、第1の電子デバイス401によって検出される手に基づく入力を介して対話されてもよい。例えば、第1の電子デバイス401は、(例えば、エアピンチ入力などを介して)仮想拡張ディスプレイ404の選択を検出し、続いてユーザの手の移動を検出したことに応じて、3次元環境450内で仮想拡張ディスプレイ404を再配置し得る。別の例として、第1の電子デバイス401は、第2のユーザインタフェース425のサイズが3次元環境450において増減され得るように、及び/又は追加のユーザインタフェースが仮想拡張ディスプレイ404に表示され得るように、3次元環境450内で仮想拡張ディスプレイ404を拡大縮小してもよい。入力が仮想拡張ディスプレイ404のコンテンツ(例えば、第2のユーザインタフェース425)ではなく仮想拡張ディスプレイ404自体に向けられるそのような例では、入力は、第2の電子デバイス301’ではなく第1の電子デバイス415によって(例えば、上述の手に基づく入力は、第2の電子デバイス415’とは独立して第1の電子デバイス301によって検出されるため)応答される。
【0087】
一部の例では、1つ以上の物理入力デバイス(例えば、マウス332’、432’及びキーボード331’、431’などの物理入力デバイス)は、追加的に又は代替的に、第1の電子デバイス(例えば、第1の電子デバイス301又は401)と通信可能に結合されてもよい(例えば、ワイヤード又はワイヤレスで)ことにも留意されたい。これらの例では、物理入力デバイスからの入力は、上述したのと同じ方法で適切なデバイス又はインタフェースにルーティングされ得る。しかしながら、これらの例では、物理入力デバイスからの入力は、適切なデバイス又はインタフェースにルーティングされる前に、第2の電子デバイス(例えば、第2の電子デバイス315’又は415’)によって最初に検出され、第1の電子デバイスに送信される必要はない。
【0088】
したがって、上記で概説したように、電子デバイスと通信している物理入力デバイス上で検出された入力を介して対話され得る3次元環境内の電子デバイスのための拡張仮想ディスプレイを提供することは、利点として、ユーザが別個の入力手段を利用することを必要とせずに、電子デバイスのディスプレイ及び拡張仮想ディスプレイとのシームレスで効率的な対話を容易にする。上記のシステム及び方法の別の利点は、第1の物理的電子デバイスの入力デバイス(例えば、キーボード、マウス、トラックパッドなど)のセットと、第2の物理的電子デバイスの入力デバイス(例えば、アイトラッキングセンサ、ハンドトラッキングセンサ、向きセンサなど)のセットとのシームレスな統合であり、これは、入力デバイスの両方のセットにおいて受信された入力が、3次元環境内の同じ1つ以上のユーザインタフェースに向けられることを可能にする。次に、リアルタイムマルチユーザ通信セッション内の仮想拡張ディスプレイの画像との例示的な対話に注意を向ける。
【0089】
図5A図5Gは、本開示の一部の例による、マルチユーザ通信セッション内の電子デバイスのユーザインタフェースの表現との例示的な対話を示す。一部の例では、図5Aに示すように、第1の電子デバイス501を使用して3次元環境550を提示し得る。一部の例では、第1の電子デバイス501は、任意選択的に、上述の第1の電子デバイス401/301に対応する。一部の例では、3次元環境550は、第1の電子デバイス501が位置する物理環境のキャプチャされた部分を含む。例えば、3次元環境550は、図5Aに示すように、テーブル(例えば、テーブル506’の表現)を任意選択的に含む。加えて、3次元環境550は、第2の電子デバイス(例えば、第2の電子デバイス515’の表現)と、(例えば、物理環境内のテーブルの上に配置された)第2の電子デバイスと通信している1つ以上の物理入力デバイス(例えば、1つ以上の入力デバイス531’/532’の1つ以上の表現)とを含む。一部の例では、3次元環境550は、任意選択的に、上述の3次元環境450/350に対応する。一部の例では、第2の電子デバイス515’は、上述の第2の電子デバイス415’/315’に対応する。一部の例では、1つ以上の入力デバイス531’/532’は、上述の1つ以上の入力デバイス431’/432’及び/又は331’/332’に対応する。一部の例では、物理環境の表現は、第1の電子デバイス501の透明又は半透明のディスプレイを通して見られる物理環境の部分を含むことができる。
【0090】
一部の例では、本明細書で上述したのと同様に、第1の電子デバイス501が第2の電子デバイス515’のための仮想拡張ディスプレイを表示するように構成可能であり得るように、第1の電子デバイス501は、第2の電子デバイス515’と通信し得る。例えば、図5Aに示すように、3次元環境550は、第2の電子デバイス515’で表示される第1のアフォーダンス519を含む。一部の例では、第1のアフォーダンス519は、上述した第1のアフォーダンス319に対応する。図5Aでは、第1のアフォーダンス519が第1の電子デバイス501のユーザによって選択されていないので、第1の電子デバイス501は、第2の電子デバイス515’のための仮想拡張ディスプレイを表示していない。
【0091】
加えて、一部の例では、図5Aに示すように、3次元環境550は、マルチユーザ通信セッションにおいて、第1の電子デバイス515及び第2の電子デバイス501’とは異なる第3の電子デバイスに参加するための招待に対応する招待要素535を含む。例えば、第1の電子デバイス501は、マルチユーザ通信セッションにおいて第3の電子デバイスのユーザに参加するように第1の電子デバイス501のユーザを招待する第3の電子デバイス(図示せず)からの指示を検出したことに応じて、招待要素535を表示する。一部の例では、図5Aに示すように、招待要素535は、マルチユーザ通信セッションに参加する招待を受け入れるために選択可能な第1のオプション537-1と、マルチユーザ通信セッションに参加する招待を拒否するために選択可能な第2のオプション537-2とを含む(例えば、3次元環境550における招待要素535の表示を停止することを含む)。
【0092】
図5Aにおいて、招待要素535を3次元環境550に表示している間に、第1の電子デバイス501は、招待要素535の第1のオプション537-1に向けられた選択入力571Aを検出する。例えば、第1の電子デバイス501は、第1の電子デバイス501の1つ以上のセンサを介して、ユーザの手によって実行されるエアピンチジェスチャ、手によって実行されるタップ又はタッチジェスチャ、口頭コマンド、第1のオプション537-1に向けられた視線滞留などを検出する。一部の例では、図5Bに示すように、第1のオプション537-1の選択を検出したことに応じて、第1の電子デバイス501は、以下で説明するように、マルチユーザ通信セッションにおいて第3の電子デバイスに参加する。
【0093】
一部の例では、第1の電子デバイス501が第3の電子デバイス(図示せず)とのマルチユーザ通信セッションに参加するとき、第1の電子デバイス501及び第3の電子デバイスは、1つ以上の共有仮想オブジェクト(例えば、画像、ビデオ、音声などのコンテンツ、アプリケーションのユーザインタフェースの表現など)を含む共有3次元環境を提示するように構成される。本明細書で使用される場合、「共有3次元環境」という用語は、コンテンツ、アプリケーション、データなどが2つ以上の電子デバイスのユーザに共有及び/又は提示され得る、2つ以上の電子デバイスにおいて独立して提示され、表示され、及び/又は見える3次元環境を指す。一部の例では、第1の電子デバイス501が第2の電子デバイスとマルチユーザ通信セッションにある間、1つの電子デバイスのユーザに対応するアバターが、他の電子デバイスを介して表示される3次元環境内に任意選択的に表示される。例えば、図5Bに示すように、第1の電子デバイス501において、第3の電子デバイスのユーザに対応するアバター536が3次元環境550に表示される。
【0094】
一部の例では、共有3次元環境の一部としてのアバター536の提示は、任意選択的に、第3の電子デバイスのユーザの声に対応するオーディオエフェクトを伴う。例えば、第1の電子デバイス501を使用して3次元環境550内に表示されるアバター536は、任意選択的に、第3の電子デバイスのユーザの声に対応するオーディオエフェクトを伴う。いくつかのそのような例では、第3の電子デバイスのユーザが話すとき、ユーザの声は、第3の電子デバイスによって(例えば、マイクロフォンを介して)検出され、第1の電子デバイス501に(例えば、直接又はサーバ(例えば、ワイヤレス通信端末)を介して)送信されてもよく、それにより、第3の電子デバイスのユーザの検出された声は、3次元環境550内の第1の電子デバイス501のユーザに音声として(例えば、スピーカ(単数又は複数)216を使用して)提示されてもよい。一部の例では、第3の電子デバイスのユーザの声に対応するオーディオエフェクトは、(例えば、第1の電子デバイス501のスピーカから出力されているにもかかわらず)第1の電子デバイス501のユーザには3次元環境550内のアバター536のロケーションから発するように見えるように、空間化されてもよい。一部の例では、第3の電子デバイスのユーザの声に対応するオーディオエフェクトは、代替的に、第1の電子デバイス501においてモノラル又はステレオで提示されてもよい。
【0095】
一部の例では、第1の電子デバイス501及び第3の電子デバイスがマルチユーザ通信セッションにある間、アバター536は、第3の電子デバイスを取り囲む物理環境における第3の電子デバイス(及び/又は第3の電子デバイスのユーザ)の向きに対応する及び/又は基づく個別の向きで3次元環境550内に表示される。例えば、図5Bでは、3次元環境550において、アバター536は、任意選択的に、第1の電子デバイス501のユーザの視点の方を向いている。マルチユーザ通信セッション内で、特定のユーザが物理環境内で電子デバイス(及び/又はユーザ自身)を移動させると、ユーザの視点は移動に従って変化し、したがって、3次元環境内のユーザのアバターの向きも変化し得る。例えば、図5Bを参照すると、第3の電子デバイスのユーザが、第3の電子デバイスが左に(例えば、反時計回りに)(例えば、対応する量)回転されるように、3次元環境において左向きを見る場合、第1の電子デバイス501のユーザは、第3の電子デバイスの移動に従って、第3の電子デバイスのユーザに対応するアバター536が第1の電子デバイス501のユーザの視点に対して右に(例えば、時計回りに)回転するのを見ることになる。
【0096】
加えて、一部の例では、第1の電子デバイス501及び第3の電子デバイスがマルチユーザ通信セッションにある間、共有3次元環境の視野及び/又は共有3次元環境内のユーザの視点のロケーションは、任意選択的に、(例えば、電子デバイスのユーザによる)電子デバイスの移動に従って変化する。例えば、通信セッション中に、(例えば、第1の電子デバイス501のユーザが第1の電子デバイス501を取り囲む物理環境内で前方に移動したために)第1の電子デバイス501がテーブル506’及び/又はアバター536の表現に近づくように移動された場合、3次元環境550の視野はそれに応じて変化し、テーブル506’の表現、第2の電子デバイス515’の表現及びアバター536が視野内でより大きく見えるようになる。一部の例では、第1の電子デバイス501による3次元環境550内の視点の変更及び/又は3次元環境550内の仮想オブジェクトとの対話が、第3の電子デバイスにおいて3次元環境内に示されるものに任意選択的に影響を及ぼさず、逆もまた同様であるように、各ユーザは、共有3次元環境と独立して対話し得る。
【0097】
一部の例では、アバター536は、第3の電子デバイスのユーザの表現(例えば、全身レンダリング)である。一部の例では、アバター536は、第3の電子デバイスのユーザの一部分の表現(例えば、頭部、顔、頭及び胴体などのレンダリング)である。一部の例では、アバター536は、3次元環境550に表示される、第3の電子デバイスのユーザを表す、ユーザ個人化された、ユーザ選択された、及び/又はユーザ作成された表現である。図5Bに示すアバター536は、第3の電子デバイスのユーザの全身表現に対応するが、上述したもののうちの1つなどの代替アバターが提供されてもよいことを理解されたい。
【0098】
一部の例では、第1の電子デバイス501及び第3の電子デバイスがマルチユーザ通信セッションにある間、1つの電子デバイスにおいて1人のユーザによって視聴されるコンテンツは、マルチユーザ通信セッションにおいて別の電子デバイスにおいて別のユーザと共有され得る。いくつかのそのような例では、コンテンツは、共有3次元環境において両方のユーザによって(例えば、それぞれの電子デバイスを介して)体験(例えば、閲覧及び/又は対話)され得る(例えば、コンテンツは、3次元環境において共有されるコンテンツである)。例えば、図5Cでは、第1の電子デバイス501は、コンテンツ(例えば、「コンテンツA」)を第1の電子デバイス501のユーザと共有するための第3の電子デバイスのユーザ(例えば、「ユーザ1」)からの要求に対応する視覚的指示539を表示している。図5Cに示すように、視覚的指示539は、第1の電子デバイス501のユーザとコンテンツを共有するための第3の電子デバイスのユーザからの要求を承認するために選択可能な選択可能オプション539-1を任意選択的に含む。一部の例では、第1の電子デバイス501は、上述の共有要求に対応するデータを検出したことに応じて、3次元環境550内に視覚的指示539を表示する。
【0099】
加えて、一部の例では、共有3次元環境は、マルチユーザ通信セッションにおける1人のユーザにプライベートな非共有コンテンツを含む。例えば、図5B図5Cにおいて、第3の電子デバイスは、第3の電子デバイスにおいて3次元環境内にプライベートアプリケーションウィンドウを表示していてもよく、これは、任意選択的に、マルチユーザ通信セッションにおいて第1の電子デバイス501と第3の電子デバイスとの間で共有されないオブジェクトである。一部の例では、プライベートアプリケーションウィンドウは、第3の電子デバイス上で動作している個別のアプリケーション(例えば、仮想拡張ディスプレイアプリケーション、メディアプレーヤアプリケーション、ウェブブラウジングアプリケーション、メッセージングアプリケーションなど)に関連付けられてもよい。プライベートアプリケーションウィンドウは第1の電子デバイス501と共有されないので、第1の電子デバイス501は、任意選択的に、図5B図5Cに示すように、3次元環境550内にプライベートアプリケーションウィンドウ504’’の表現を表示する。図5B図5Cに示すように、一部の例では、プライベートアプリケーションウィンドウ504’’の表現は、第1の電子デバイス501のユーザがプライベートアプリケーションウィンドウのコンテンツを見ることを防止する、プライベートアプリケーションウィンドウのフェード、遮蔽、変色、及び/又は半透明の表現であってもよい。
【0100】
図5Cでは、3次元環境550内に視覚的指示539を表示している間に、第1の電子デバイス501は、視覚的指示539の選択可能オプション539-1に向けられた選択入力571Bを検出する。例えば、同様に上述したように、第1の電子デバイス501は、エアピンチジェスチャ、タップ又はタッチジェスチャ、口頭コマンド、選択可能オプション539-1に向けられた視線滞留などを検出する。図5Cなどの一部の例では、第1の電子デバイス501とコンテンツを共有する要求は、第1の電子デバイス501のユーザとプライベートアプリケーションウィンドウ504”(3次元環境550で見える)を共有する要求に対応する。
【0101】
一部の例では、図5Dに示すように、選択可能オプション539-1の選択を検出したことに応じて、第1の電子デバイス501は、コンテンツを第1の電子デバイス501と共有するための第3の電子デバイスからの要求を承認する。一部の例では、第1の電子デバイス501と共有されるコンテンツは、上述のプライベートアプリケーションウィンドウのコンテンツに対応するので、第1の電子デバイス501は、3次元環境550におけるプライベートアプリケーションウィンドウ504’’の表現の表示を停止する。また、図5Dに示すように、コンテンツが第1の電子デバイス501と共有される場合、第1の電子デバイス501は、共有されたコンテンツに対応する画像504を3次元環境550に表示する。一部の例では、図5Dに示すように、第1の電子デバイス501が3次元環境550において画像504を表示するとき、第3の電子デバイスのユーザに対応するアバター536のポジションは、3次元環境550において任意選択的に変化する。例えば、アバター536は、図5Dに示すように、アバター536が3次元環境550内の画像504のコンテンツの方を向くように、第1の電子デバイス501のユーザの視点に隣接する(例えば、その右側の)ロケーションに移動される。
【0102】
一部の例では、画像504は、第1の電子デバイス501及び第2の電子デバイス515’とは異なる第4の電子デバイスの仮想拡張ディスプレイの画像に対応する。例えば、仮想拡張ディスプレイは、上述した電子デバイス401と415との間の通信と同様に、第3の電子デバイスと通信している第4の電子デバイスのための第2のディスプレイである。一部の例では、第3の電子デバイスは、第3の電子デバイスにおいて3次元環境内に仮想拡張ディスプレイを表示しており、第3の電子デバイスのユーザからのユーザ入力を検出したことに応じて、上述のように、仮想拡張ディスプレイの画像を第1の電子デバイス501のユーザと共有する要求を(例えば、アプリケーション共有アプリケーションを介して)送信した。図5Dに示されるように、仮想拡張ディスプレイの画像504は、ユーザインタフェース540を含む。例えば、仮想拡張ディスプレイの画像が第1の電子デバイス501と共有される前に、ユーザインタフェース540は、第3の電子デバイスにおいて仮想拡張ディスプレイに表示されていた。一部の例では、図5Dにおいて、ユーザインタフェース540は音楽プレーヤアプリケーションのユーザインタフェースである。例えば、図5Dに示されるように、ユーザインタフェース540は、第1の音楽アルバムの第1の表現541-1及び第2の音楽アルバムの第2の表現541-2を含み、各々が、第4の電子デバイス及び/又は第3の電子デバイス上での消費に利用可能な音楽トラックの選択可能な指示を含む。
【0103】
一部の例では、第1の電子デバイス501のユーザは、第1の電子デバイス501と第3の電子デバイスとの間で共有される画像504のコンテンツを見ることができるが、第1の電子デバイス501は、ユーザインタフェース540との対話など、画像504のコンテンツとの直接的なユーザ対話を任意選択的に制限及び/又は防止する。特に、一部の例では、第1の電子デバイス501のユーザは、仮想拡張ディスプレイ自体が真の共有体験であるのではなく、仮想拡張ディスプレイの画像のみが第1の電子デバイス501と共有されるので、画像504のコンテンツと対話するための入力を提供することができない。したがって、上述したように、仮想拡張ディスプレイは第3の電子デバイスによって任意選択的に共有されているので、第3の電子デバイスのユーザは、第3の電子デバイスにおいてユーザインタフェース540と対話し得、これにより、画像504が3次元環境550において更新されるが、第1の電子デバイス501のユーザは、以下で説明するように、これを行うことができない場合がある。
【0104】
図5Eでは、仮想拡張ディスプレイの画像504が第1の電子デバイス515において3次元環境550に表示されている間に、第2の電子デバイス501’は、第2の電子デバイス515’と通信しているマウス532’を介して選択入力573を検出する。例えば、第2の電子デバイス514’は、マウス532’上のボタンの押下又はクリック(又はマウス532’のタッチ感知面上のタップ)を検出する。加えて、図5Eに示されるように、第2の電子デバイス514’は、第1の電子デバイス501のユーザの視線527が3次元環境550内の画像504のユーザインタフェース540に向けられている間に選択入力573を検出する。
【0105】
一部の例では、図5Fに示すように、第1の電子デバイス501が画像504のユーザインタフェース540に向けられた視線427を検出している間に、第2の電子デバイス514’がマウス532’を介して選択入力573を検出したことに応じて、第1の電子デバイス501は、画像504に向けられた動作を実行することを取り止める。例えば、画像504の仮想拡張ディスプレイは、上述したように第2の電子デバイス514’の拡張ディスプレイではないため、マウス532’を介して検出された入力は、第1の電子デバイス501によって画像504に向けられていると解釈されない。むしろ、一部の例では、第2の電子デバイス514’によって検出される選択入力573は、第2の電子デバイス514’に対してローカルのままである(例えば、第2の電子デバイス514’は、上述のように入力データを第1の電子デバイス501に送信することなく、選択入力573に従って選択動作を実行する)。
【0106】
図5Fでは、3次元環境550において仮想拡張ディスプレイの画像504を表示している間に、第1の電子デバイス501は、画像504内のユーザインタフェース540の第1の表現541-1に向けられた選択入力571Cを検出する。例えば、本明細書で上述したのと同様に、第1の電子デバイス501は、エアピンチジェスチャ、エアタップ又はタッチジェスチャ、口頭コマンド、第1の表現541-1に向けられた視線滞留などを検出する。一部の例では、画像504内の第1の表現541-1の選択を検出したことに応じて、第1の電子デバイス501は、図5Gに示すように、第1の表現541-1に向けられた選択動作を実行することを取り止める。例えば、図5Gに示すように、選択入力571Cに応じて、第1のアルバム(例えば、「アルバムA」)に関連付けられた音楽トラックがユーザインタフェース540に表示されるように、画像504は更新されない。
【0107】
一部の例では、同様に上述したように、画像504の仮想拡張ディスプレイは、第1の電子デバイス501と第3の電子デバイスとの間の真の共有体験ではないので(例えば、仮想拡張ディスプレイが第1の電子デバイス501のユーザと共有されず、むしろ仮想拡張ディスプレイの画像であるので)、ユーザインタフェース540を含む画像504に向けられた第1の電子デバイス501によって検出されたユーザ入力は、画像504をユーザ入力に基づいて更新させない。したがって、図5Gに示すように、画像504は、3次元環境550において変化しないままである。したがって、上記で概説したように、第1の電子デバイス501及び第3の電子デバイスがマルチユーザ通信セッションにおいて通信可能にリンクされている間に、第3の電子デバイスにおいて表示される仮想拡張ディスプレイの画像が第1の電子デバイス501と共有される場合、第1の電子デバイス501のユーザによって提供される入力は、画像(例えば、画像504)のコンテンツを入力に従って更新させない場合がある。
【0108】
一部の例では、画像504のコンテンツではなく、画像504自体に向けられた対話が提供されてもよい。例えば、第1の電子デバイス501のユーザが、(例えば、画像504内でユーザインタフェース540を移動させるための入力とは対照的に)3次元環境550内で画像504を移動させるための入力を提供する場合、第1の電子デバイス501は、入力に従って画像504を移動させることができる。同様に、第1の電子デバイス501のユーザが3次元環境550内で画像504を拡大縮小するための入力を提供する場合(例えば、画像504内のユーザインタフェース540のサイズを変更するのとは対照的に)、第1の電子デバイス501は入力に従って画像504を拡大縮小してもよい。一部の例では、第3の電子デバイスのユーザが画像504自体のコンテンツを共有する場合、そのような共有コンテンツは、第1の電子デバイス501のユーザによって対話されるように構成されてもよい。例えば、図5Cにおいて、第1の電子デバイス501のユーザと共有されているコンテンツがユーザインタフェース540自体である場合、第1の電子デバイス501は、図5Dのユーザインタフェース540に対応する共有アプリケーションウィンドウを表示し、共有アプリケーションウィンドウのコンテンツ(例えば、第1の表現541-1及び/又は第2の表現541-2など)に向けられた入力は、第1の電子デバイス501によって作用される。
【0109】
本明細書に示され説明される例は単なる例示であり、仮想オブジェクト及び要素と対話するために、3次元環境内に追加及び/又は代替の要素が提供されてもよいことが理解される。本明細書に示され説明される様々なユーザインタフェース要素及びオブジェクトの各々の外観、形状、形態、及びサイズは例示的なものであり、代替的な外観、形状、形態、及び/又はサイズが提供されてもよいことを理解されたい。例えば、仮想拡張ディスプレイ(例えば、仮想拡張ディスプレイ304/404)及び/又はユーザインタフェース(例えば、ユーザインタフェース411、425、及び/又は540)を表す仮想オブジェクトは、円形、三角形などの矩形以外の形状で提供されてもよい。一部の例では、本明細書に記載の様々な選択可能なアフォーダンス(例えば、第1のアフォーダンス319/519、及び/又はオプション537-1/537-2又は539-1)は、ユーザの口頭コマンド(例えば、「オプション選択」又は「仮想オブジェクト選択」口頭コマンド)を介して口頭で選択されてもよい。追加的又は代替的に、一部の例では、本明細書に記載される様々なオプション、ユーザインタフェース要素、制御要素などは、電子デバイス(単数又は複数)と通信する1つ以上の別個の入力デバイスを介して受信されるユーザ入力を介して選択及び/又は操作され得る。例えば、選択入力は、電子デバイス(単数又は複数)と通信するマウス、トラックパッド、キーボードなどの物理入力デバイスを介して受信され得る。
【0110】
加えて、単一のインタフェースのみが、物理的及び仮想拡張ディスプレイ内に示されているが、任意の数のインタフェースが、各ディスプレイ内に含まれてもよいことを理解されたい。更に、単一の電子デバイス(例えば、第2の電子デバイス315/415)に対して単一の仮想拡張ディスプレイ(例えば、仮想拡張ディスプレイ304/404)のみが示されているが、任意の数の他の電子デバイスの各々に対して任意の数の仮想拡張ディスプレイが提示され得ることを理解されたい。これらの例では、電子デバイスのいずれかによって検出された入力は、上述したのと同じ方法で適切な電子デバイス又はインタフェースにルーティングされてもよい。
【0111】
一部の例では、仮想拡張ディスプレイを表示することに加えて、第1の電子デバイスは、図6A図6Kを参照してより詳細に説明するように、第1の電子デバイス上で実行中のアプリケーションに対応する1つ以上の追加の仮想オブジェクト又はウィンドウを表示してもよい。例えば、第1の電子デバイス415は、図4Aで第2の電子デバイス401’のウェブブラウジングアプリケーションのための第2のユーザインタフェース425を含む仮想拡張ディスプレイ404を表示することに加えて、第1の電子デバイス415(第2の電子デバイス401’ではない)で実行されるテキスト文書編集アプリケーションに対応する仮想ウィンドウを更に表示し得る。これらの例では、第1の電子デバイス401、第2の電子デバイス415’、又は他の結合された電子デバイスによって検出された入力は、上述したのと同じ方法で適切なデバイス、アプリケーション、及び/又は、及び/又はインタフェースにルーティングされ得る。
【0112】
図6A図6Kは、本開示の一部の例による、第2の電子デバイスのユーザインタフェースの表現と第1の電子デバイスのユーザインタフェースとの対話を容易にする第1の電子デバイスの例を示す。一部の例では、図6Aに示されるように、3次元環境650は、第1の電子デバイス601を使用して提示され得る。一部の例では、第1の電子デバイス601は、任意選択的に、上述の第1の電子デバイス301/401/501に対応する。一部の例では、3次元環境650は、第1の電子デバイス401が位置する物理環境のキャプチャされた部分を含む。例えば、3次元環境650は、図6Aに示すように、テーブル(例えば、テーブル606’の表現)を任意選択的に含む。加えて、3次元環境650は、第2の電子デバイス(例えば、第2の電子デバイス615’の表現)と、(例えば、物理環境内のテーブルの上に配置された)第2の電子デバイスと通信している1つ以上の物理入力デバイス(例えば、1つ以上の入力デバイス631’/632’の1つ以上の表現)とを含む。一部の例では、3次元環境650は、任意選択的に、上述の3次元環境350/450/550に対応する。一部の例では、第2の電子デバイス615’は、上述の第2の電子デバイス315’/415’/515’に対応する。一部の例では、1つ以上の入力デバイス631’/632’は、上述の1つ以上の入力デバイス331’/332’、431’/432’、531’/532’に対応する。一部の例では、物理環境の表現は、第1の電子デバイス601の透明又は半透明のディスプレイを通して見られる物理環境の部分を含むことができる。
【0113】
同様に上述したように、一部の例では、第1の電子デバイス601は、第2の電子デバイス615’と通信する。加えて、一部の例では、図6Aに示すように、第1の電子デバイス601は、第2の電子デバイス615’に関連付けられた仮想ディスプレイ604を提示している。例えば、図6Aである。仮想ディスプレイ604は、第2の電子デバイス615’の物理的ディスプレイ(例えば、ディスプレイ614’の表現)に対する(例えば、仮想)ディスプレイとして機能する。一部の例では、仮想ディスプレイ604は、上述した仮想拡張ディスプレイ304/404/504の1つ以上の特性を有する。一部の例では、図6Aに示すように、仮想ディスプレイ604が3次元環境650に表示されている間に、第2の電子デバイス615’のディスプレイ614’は、任意選択的に電源オフされる(例えば、第2の電子デバイス615’は、低電力モード若しくはスリープ状態にあるか、又は電源が切られている)。
【0114】
一部の例では、図6Aに示すように、仮想ディスプレイ604は、任意選択的に、第2の電子デバイス615’の(例えば、物理的)ディスプレイ614’上に表示されるように構成された(例えば、又は現在表示されている)ユーザインタフェースの表現であるユーザインタフェース625を含む。一部の例では、図6Aに示すように、ユーザインタフェース625は、ウェブブラウザによって提供される(例えば、URL「www.Search.com」に関連付けられた)複数の検索結果を含む。例えば、図6Aにおいて、ユーザインタフェース625は、第1のウェブサイト(例えば、「www.URL1.com」)に関連付けられた第1の検索結果626A(例えば、「検索結果A」)と、第2のウェブサイト(例えば、「www.URL2.com」)に関連付けられた第2の検索結果626B(例えば、「検索結果B」)と、第3のウェブサイトに関連付けられた第3の検索結果626C(例えば、「検索結果C」)とを含む。一部の例では、複数の検索結果626は、それぞれのソース(例えば、ウェブサイト)を介してコンテンツ(例えば、テキスト、画像、ビデオ、音楽など)にアクセスするために選択可能である。一部の例では、ユーザインタフェース625は、上述の第2のユーザインタフェース425に対応する。加えて、図6Aに示すように、仮想ディスプレイ604は、第2の電子デバイス615’の(例えば、物理的な)ディスプレイ614’上に表示されるように構成されたドック(図示せず)に対応するドック609”(例えば、上述のドック309//409’/509/など)の表現を含む。一部の例では、図6Aに示すように、仮想ディスプレイ604はまた、第2の電子デバイス615’のディスプレイ614’上に表示されるように構成され、マウス632’を使用して制御可能なカーソル(例えば、カーソル612’の表現)を含む。一部の例では、カーソル612’は、上述のカーソル312’/412’/512’に対応する。
【0115】
一部の例では、同様に上述したように、第1の電子デバイス601は、第2の電子デバイス615’によって(例えば、直接的に又はサーバを介して間接的に)第1の電子デバイス601に送信された画像データに基づいて、仮想ディスプレイ604内にユーザインタフェース625を表示する。例えば、上述したように、ユーザインタフェース625は、第2の電子デバイス615’のディスプレイ614’上に表示されるように構成される(例えば、ユーザインタフェース625は、第2の電子デバイス615’のユーザインタフェースである)。したがって、一部の例では、第1の電子デバイス601は、第2の電子デバイス615’によって提供される画像データに基づいて、上述のユーザインタフェース625のコンテンツを含むユーザインタフェース625をレンダリング(例えば、生成)する。例えば、画像データは、ユーザインタフェース625の外観、ユーザインタフェース625のコンテンツの特性(例えば、コンテンツが選択可能、スクロール可能などの対話型であるかどうか)、及び/又はユーザインタフェース625及びそのコンテンツの品質(例えば、精細度などの画質)に対応する情報を含む。一部の例では、第2の電子デバイス601’によって第1の電子デバイス615に送信される画像データは、第1の電子デバイス615によって仮想ディスプレイ604に表示される、第2の電子デバイス601’によって生成された画像を含む。
【0116】
一部の例では、第1の電子デバイス601は、仮想ディスプレイ604と同時に、第1の電子デバイス601上で(例えば、ローカルに)実行されるアプリケーションに関連付けられたコンテンツを表示するように構成される。一部の例では、以下で説明するように、第1の電子デバイス601は、仮想ディスプレイ604のコンテンツ及び第1の電子デバイス601上でローカルに実行されるアプリケーションのコンテンツとの対話を容易にするように構成される。図6Aでは、第1の電子デバイス601は、3次元環境650内の個別のアプリケーションに関連付けられたユーザインタフェースオブジェクト624を表示している。一部の例では、図6Aに示すように、ユーザインタフェースオブジェクト624は、3次元環境650内の個別のアプリケーションに対応するコンテンツ(例えば、「コンテンツA」)を表示するために選択可能な選択可能オプション623Aを含む。一部の例では、コンテンツは、ユーザインタフェース、ビデオ、画像、3次元オブジェクト(例えば、モデル)などを含む。
【0117】
一部の例では、図6Aに示すように、第1の電子デバイス601は、選択可能オプション623Aに向けられた選択入力672Aを検出する。例えば、図6Aでは、第1の電子デバイス601は、(例えば、カメラ又は他のハンドトラッキングセンサなどの1つ以上のセンサを介して)エアピンチジェスチャ、エアタップ又はタッチジェスチャを、任意選択的にユーザの視線が選択可能オプション623Aに向けられている間に、口頭コマンド、視線滞留などを検出する。
【0118】
一部の例では、図6Bに示すように、選択入力672Aを検出したことに応じて、第1の電子デバイス601は、上述した個別のアプリケーション(例えば、第1の電子デバイス601上で実行されるビデオ再生アプリケーション)に関連付けられたビデオコンテンツ(図6Aに示すコンテンツA)を表示する。例えば、図6Bに示されるように、第1の電子デバイス601は、3次元環境650においてビデオコンテンツ(例えば、映画、テレビ番組、ビデオクリップ、音楽ビデオなど)を表示している仮想アプリケーションウィンドウ656(例えば、ビデオ再生ユーザインタフェース)を表示する。図6Bに示されるように、仮想アプリケーションウィンドウ656は、仮想アプリケーションウィンドウ656に表示されているビデオコンテンツの再生を制御するための再生コントロール645(例えば、他の可能性の中でも、再生/一時停止ボタン、巻き戻しボタン、及び早送りボタンを含む)を含む。一部の例では、図6Bに示すように、仮想アプリケーションウィンドウ656は、3次元環境650内で仮想アプリケーションウィンドウ656の移動を開始するためにユーザ入力を介して選択可能なグラバーアフォーダンス635(例えば、ハンドルバーアフォーダンス)と共に表示される。
【0119】
一部の例では、本明細書で上述したのと同様に、第1の電子デバイス601は、第2の電子デバイス615’と通信して、第1の電子デバイス601のユーザの視線のロケーションに基づくユーザ入力に応じて、仮想ディスプレイ604のコンテンツ及び/又は仮想アプリケーションウィンドウ656のコンテンツとの対話を容易にし、調整する。例えば、図6Cに示すように、第1の電子デバイス601は、(例えば、アイトラッキングセンサ及び/又は画像センサを介して)ユーザの視線627が仮想ディスプレイ604に向けられていることを検出する。特に、図6Cでは、第1の電子デバイス601は、視線627が仮想ディスプレイ604のコンテンツに対応する特定のロケーションに向けられていることを検出する。
【0120】
図6Cでは、第1の電子デバイス601が、ユーザの視線627が3次元環境650内の仮想ディスプレイ604に向けられていることを検出している間に、第2の電子デバイス615’は、第2の電子デバイス615’と通信しているマウス632’上の選択入力673Aを検出する。例えば、図6Cでは、第2の電子デバイス615’は、マウス632’のボタン又はタッチ感知面のクリック、タップ、又はタッチを検出する。同様に上述したように、視線627が3次元環境650内の仮想ディスプレイ604に向けられているので、選択入力673Aを検出したことに応じて、第2の電子デバイス615’は、選択入力673Aを第2の電子デバイス615’に対してローカルに維持する。例えば、第1の電子デバイス601は、3次元環境602における視線627のロケーションに対応する情報を含む視線データを第2の電子デバイス615’に(例えば、連続的に、周期的に、及び/又は第2の電子デバイス615’からの要求に応じて)通信(例えば、送信)する。
【0121】
一部の例では、視線627が仮想ディスプレイ604(例えば、特にユーザインタフェース625)に向けられているという判定に従って、第1の電子デバイス601は、第2の電子デバイス615’に選択入力673Aに従った動作を実行させる。例えば、図6Cでは、第2の電子デバイス615’は、ユーザインタフェース625内のカーソル612’のロケーションで選択を実行する。特に、図6Cに示されるように、第2の電子デバイス615’は、ユーザインタフェース625内のカーソル612’のロケーションに基づいて第2の検索結果626Bを選択する(例えば、アクティブ化する)。図6Cの例では、ユーザインタフェース625は第2の電子デバイス615’の(例えば、物理的な)ディスプレイ上に表示されていないが、選択動作を実行することは、(例えば、ユーザインタフェース625が第2の電子デバイス615’のディスプレイ上に表示されたかのように)ユーザインタフェース625を表す画像データを更新することを含むことを理解されたい。一部の例では、第2の電子デバイス615’が選択動作を実行すると、第2の電子デバイス615’は、更新された画像データを第1の電子デバイス601に送信し、これにより、第1の電子デバイス601は、選択動作の実行に基づいて3次元環境650内の仮想ディスプレイ604の表現を更新する。例えば、図6Dに示すように、第1の電子デバイス601は、ユーザインタフェース625の更新された表現を含むように仮想ディスプレイ604の表示を更新する。特に、図6Dに示されるように、ユーザインタフェース625は、図6Cにおける第2の検索結果626Bの選択の結果を含むように、すなわち、第2の検索結果626Bに関連付けられたウェブサイト(例えば、「www.URL2.com」)からのウェブサイトコンテンツ(例えば、テキスト入力フィールド616における「ウェブサイトコンテンツ」)を表示するように更新される。
【0122】
図6Eでは、第1の電子デバイス601は、ユーザの視線627が3次元環境650内の仮想アプリケーションウィンドウ656に向けられていることを検出する。特に、図6Eに示されるように、第1の電子デバイス601は、視線627が再生コントロール645(例えば、再生コントロール645の一時停止ボタン)に向けられていることを検出する。図6Eでは、第1の電子デバイス601が仮想アプリケーションウィンドウ656に向けられた視線627を検出している間に、第2の電子デバイス615’は、上述したのと同様に、第2の電子デバイス615’と通信しているマウス632’を介して選択入力673Bを検出する。
【0123】
一部の例では、上述したのと同様に、視線627が3次元環境650内の仮想アプリケーションウィンドウ656に向けられているので、選択入力673Bを検出したことに応じて、第2の電子デバイス615’は、選択入力673Bに対応する入力データを第1の電子デバイス601に送信する。例えば、第2の電子デバイス615’は、同様に上述したように、第1の電子デバイス601によって第2の電子デバイス615’に通信(例えば、送信)された視線データに基づいて、入力データを第1の電子デバイス601に送信する。
【0124】
一部の例では、視線627が仮想アプリケーションウィンドウ656(例えば、特に再生コントロール645)に向けられているとの判定に従って、第1の電子デバイス601は、選択入力673Bに従って動作を実行する。例えば、図6Eにおいて、第1の電子デバイス601は、仮想アプリケーションウィンドウ656内の視線627のロケーションで選択を実行する。具体的には、図6Eに示すように、第1の電子デバイス601は、仮想アプリケーションウィンドウ656内の視線627のロケーションに基づいて(例えば、本明細書で上述したように、ユーザインタフェース625内のカーソル612’のロケーションに基づくのではなく)、再生コントロール645の一時停止ボタンを選択する(例えば、アクティブ化する)。他の例では、選択入力673Bは、カーソル612’のロケーションに従って実行されてもよい。一部の例では、図6Fに示されるように、第1の電子デバイス601が再生コントロール645の一時停止ボタンを選択すると、第1の電子デバイス601は、3次元環境650内の仮想アプリケーションウィンドウ656内のビデオコンテンツの再生を一時停止する。加えて、図6Fに示されるように、第1の電子デバイス601は、任意選択的に、仮想アプリケーションウィンドウ656内の再生コントロール645内の一時停止ボタンを再生ボタンに更新する。一部の例では、第1の電子デバイス601が仮想アプリケーションウィンドウ656に向けられた選択動作を実行するとき、第1の電子デバイス601は、仮想アプリケーションウィンドウ656内の再生コントロール645の一時停止ボタンの選択に対応する出力データを第2の電子デバイス615’に送信することを取り止める。
【0125】
図6Gでは、視線627が3次元環境650内の仮想ディスプレイ604に向けられている間に、第1の電子デバイス601は、第1の電子デバイス601の1つ以上の入力デバイスを介して、仮想ディスプレイ604のコンテンツに向けられた選択入力672Bを検出する。例えば、図6Gに示すように、第1の電子デバイス601は、視線627が仮想ディスプレイ604内のユーザインタフェース625のテキスト入力フィールド616に向けられている間に、エアピンチジェスチャ、タップ又はタッチジェスチャ、口頭コマンドなどを検出する。
【0126】
一部の例では、視線627が仮想ディスプレイ604に向けられている間に選択入力672Bを検出したことに応じて、第1の電子デバイス601は、選択入力672Bに対応する入力データを第2の電子デバイス615’に送信する。一部の例では、第2の電子デバイス615’は、選択入力672Bに対応する入力データに基づいて、ユーザインタフェース625に向けられた動作を実行する。例えば、第1の電子デバイス601は、第2の電子デバイス615’に、図6Gの視線627のロケーションに基づいてテキスト入力フィールド616に向けられた選択動作を実行させる。一部の例では、上述したのと同様に、第2の電子デバイス615’が選択動作を実行すると、第2の電子デバイス615’は、更新された画像データを第1の電子デバイス601に送信し、第1の電子デバイス601に、選択動作の実行に基づいて3次元環境650内の仮想ディスプレイ604の表現を更新させる。例えば、図6Hに示すように、第1の電子デバイス601は、ユーザインタフェース625の更新された表現を含むように仮想ディスプレイ604の表示を更新する。特に、図6Hに示されるように、テキスト入力フィールド616は、テキストカーソル628を含み、もはや図6Gからのテキスト「www.URL2.com」を含まない。加えて、図6Hに示されるように、カーソル612’のロケーションは、本明細書で同様に論じられるように、ユーザインタフェース625内の視線627のロケーションに対応するように任意選択的に更新される。
【0127】
図6Hでは、視線627が仮想ディスプレイ604に向けられたままである間に、第2の電子デバイス615’は、第2の電子デバイス615’と通信しているキーボード631’の1つ以上のキーを介して選択入力673Cを検出する。例えば、本明細書で同様に説明されるように、第2の電子デバイス615’は、第1の電子デバイス601が仮想ディスプレイ604内のユーザインタフェース625に向けられた視線627を検出している間に、キーボード631’の1つ以上のキーの1つ以上の押下又はタップを検出する。
【0128】
一部の例では、同様に上述したように、視線627が3次元環境650内の仮想ディスプレイ604に向けられているので、選択入力673Cを検出したことに応じて、第2の電子デバイス615’は、(例えば、選択入力673Cに対応する入力データを第1の電子デバイス601に送信することなく)選択入力673Cを第2の電子デバイス615’に対してローカルに維持する。例えば、図6Hにおいて、第2の電子デバイス615’は、同様に上述したように、選択入力673Cに従ってユーザインタフェース625に向けられた動作を実行する。一部の例では、第2の電子デバイス615’が選択入力673Cに従って動作を実行すると、第2の電子デバイス615’は、その動作に基づいてユーザインタフェース625を表す画像データ(例えば、ピクセル又は表示データ)を更新し、更新された画像データを第1の電子デバイス601に送信して、第1の電子デバイス601に仮想ディスプレイ604内のユーザインタフェース625の表現を更新させる。例えば、図6Iに示すように、第1の電子デバイス601は、テキスト入力フィールド616が、キーボード631’の選択されたキーに基づいてテキストカーソル628のロケーションに入力されたテキスト649(例えば、「www.URL4.com」)を含むように更新されるように、仮想ディスプレイ604内のユーザインタフェース625を更新する。図6Iでは、視線627が3次元環境650内の仮想ディスプレイ604に向けられている間に、第1の電子デバイス601は、第1の電子デバイス601のユーザによって提供される選択入力672Cを検出する。例えば、図6Iに示すように、視線627がテキスト入力フィールド616内のオプション651(例えば、入力又は検索オプション)に向けられている間に、第1の電子デバイス601は、第1の電子デバイス601の1つ以上のセンサ又は入力デバイスを介して、本明細書で同様に説明されるように、エアピンチジェスチャ、タップ又はタッチジェスチャ、口頭コマンド、視線滞留などを検出する。一部の例では、同様に上述したように、選択入力672Cが検出されたときに視線627が仮想ディスプレイ604に向けられているので、第1の電子デバイス601は、選択入力672Cに対応する入力データを第2の電子デバイス615’に送信し、これにより、第2の電子デバイス615’は、視線627のロケーションに基づいてユーザインタフェース625に向けられた動作を実行する。特に、図6Iでは、第2の電子デバイス615’は、視線627のロケーションに基づいて(例えば、ユーザインタフェース625内の視線627のロケーションに対応する情報を含む上述の視線データに従って)オプション651に向けられた選択動作を実行する。
【0129】
一部の例では、本明細書で同様に説明されるように、第2の電子デバイス615’がオプション651を対象とする選択動作を実行すると、第2の電子デバイス615’は、ユーザインタフェース625を表す画像データを更新し、更新された画像データを第1の電子デバイス601に送信する。一部の例では、図6Jに示されるように、第2の電子デバイス615’から更新された画像データを受信したことに応じて、第1の電子デバイス601は、3次元環境650内の仮想ディスプレイ604に表示されるユーザインタフェース625の表示を更新する。具体的には、図6Jに示すように、図6Iのオプション651を選択すると、第2の電子デバイス615’は、ウェブサイト「www.URL4.com」にナビゲートし、ウェブサイトからのコンテンツ(例えば、「URL4ウェブサイトコンテンツ」)を表示し、これは、3次元環境650内の仮想ディスプレイ604内のユーザインタフェース625の更新された表現に反映される。加えて、一部の例では、本明細書で上述したように、第1の電子デバイス601は、図6Iにおいて選択入力672Cが検出されたときにカーソル612’のロケーションが視線627のロケーションに移動されるように、更新された画像データに基づいてユーザインタフェース625内のカーソル612’のロケーションを更新する。
【0130】
図6Jでは、視線627が3次元環境650内の仮想アプリケーションウィンドウ656に向けられている間に、第1の電子デバイス601は、上述したのと同様に選択入力672Dを検出する。具体的には、図6Jに示すように、第1の電子デバイス601は、視線627が仮想アプリケーションウィンドウ656内の再生コントロール645(例えば、再生コントロール645内の再生ボタン)に向けられている間に、選択入力672D(例えば、エアピンチジェスチャ、エアタップ又はタッチジェスチャ、口頭コマンドなど)を検出する。
【0131】
一部の例では、図6Kに示すように、図6Jにおいて選択入力672Dが検出されたときに視線627が仮想アプリケーションウィンドウ656に向けられたので、第1の電子デバイス601は、選択入力672Dに従って仮想アプリケーションウィンドウ656に向けられた動作を実行する。例えば、図6Kに示すように、第1の電子デバイス601は、再生コントロール645の再生ボタンを選択し、これにより、仮想アプリケーションウィンドウ656に表示されたビデオコンテンツは、3次元環境650における再生を再開する。加えて、図6Kに示すように、第1の電子デバイス601は、上述と同様に、再生コントロール645において、再生ボタンを一時停止ボタンに置き換える。
【0132】
一部の例では、本明細書で同様に説明されるように、第1の電子デバイス601が上述の選択動作を実行するとき、第1の電子デバイス601は、選択動作に対応する出力データを第2の電子デバイス615’に送信することを取り止める。特に、図6Jの選択入力672Dに対応する入力データは、上述したように第1の電子デバイス601に対してローカルに維持され、選択入力672Dに応じた選択動作の結果も、第1の電子デバイス601に対してローカルに維持される。したがって、上述したように、第2の電子デバイスと通信する物理入力デバイス又は第1の電子デバイスと通信する入力デバイス上で検出された入力を介して対話し得る3次元環境内の第2の電子デバイスのための仮想ディスプレイを提供することは、利点として、ユーザが別個の入力手段を利用することを必要とせずに、第2の電子デバイスの仮想ディスプレイ及び第1の電子デバイス上で実行されるアプリケーションとのシームレスで効率的な対話を容易にする。上記のシステム及び方法の別の利点は、第1の物理的電子デバイスの入力デバイス(例えば、キーボード、マウス、トラックパッドなど)のセットと、第2の物理的電子デバイスの入力デバイス(例えば、アイトラッキングセンサ、ハンドトラッキングセンサ、向きセンサなど)のセットとのシームレスな統合であり、これは、入力デバイスの両方のセットにおいて受信された入力が、3次元環境内の同じ1つ以上のユーザインタフェースに向けられることを可能にし、これは、ユーザ-デバイス対話を向上させる。
【0133】
図7A図7Bは、本開示の一部の例による、3次元環境における電子デバイスのユーザインタフェースの表現の表示及びそれとの対話を容易にするための例示的なプロセスを示す流れ図である。一部の例では、プロセス700は、第1の電子デバイスのディスプレイ及び1つ以上の入力デバイスと通信する第1の電子デバイスにおいて開始する。一部の例では、第1の電子デバイスは、任意選択的に、図2のデバイス240に類似又は対応するヘッドマウントディスプレイである。図7Aに示すように、一部の例では、702において、第1の電子デバイスは、1つ以上の入力デバイスを介して、第2の電子デバイスの第1のユーザインタフェースの第1の表現を表示するように構成されたディスプレイを有する第2の電子デバイスを含む現実世界環境の少なくとも一部をキャプチャする。例えば、図4Aに示すように、第1の電子デバイス401は、ディスプレイ414を有する第2の電子デバイス415を含む第1の電子デバイス401を取り囲む物理環境の一部をキャプチャし、ディスプレイ414は、第1のユーザインタフェース411を表示している。一部の例では、第2の電子デバイスは、任意選択的に、図2のデバイス230に類似又は対応するコンピュータ(例えば、ラップトップコンピュータ、デスクトップコンピュータ、又はタブレットコンピュータ)である。
【0134】
一部の例では、704において、第1の電子デバイスは、ディスプレイを介して、現実世界環境のキャプチャされた部分の表現と、第2の電子デバイスの表現に関連付けられた第1のアフォーダンスとを含むコンピュータ生成環境を提示する。例えば、図3Gに示すように、第1の電子デバイス301は、第2の電子デバイス315’の表現、第2の電子デバイス315’が配置されたテーブル306’の表現、並びに第2の電子デバイス315’に関連付けられた第1のアフォーダンス319及び/又はシステムオプション318Aを含む3次元環境350を提示する。一部の例では、706において、第1の電子デバイスは、現実世界環境のキャプチャされた部分の表現及び第1のアフォーダンスを含むコンピュータ生成環境を提示している間に、第1の電子デバイスは、1つ以上の入力デバイスを介して、第1のアフォーダンスの選択に対応する入力を受信する。例えば、図3Hに示すように、第1の電子デバイス301は、第1の電子デバイス301のディスプレイの所定の領域に表示されたシステムオプション318Aに向けられた選択入力371B(例えば、エアピンチジェスチャ)を検出する。
【0135】
一部の例では、708において、入力を受信したことに応じて、第1の電子デバイスは、コンピュータ生成環境において、第1のユーザインタフェースの第1の表現とは異なる、第2の電子デバイスの第2のユーザインタフェースの第2の表現を提示する。例えば、図4Aに示すように、第1の電子デバイス401は、3次元環境450において第2の電子デバイス415’のディスプレイ414’上に表示されるように構成された第2のユーザインタフェース425を任意選択的に含む仮想拡張ディスプレイ404を表示する。一部の例では、図7Bに示すように、710において、第2のユーザインタフェースの第2の表現を含むコンピュータ生成環境を提示している間に、第1の電子デバイスは、第2の電子デバイスの1つ以上の入力デバイスを介して受信された第1の個別の入力の第1の指示を検出する。例えば、図4Bに示すように、第1の電子デバイス401は、第2の電子デバイス415’と通信しているマウス432’を介して検出される移動入力473Aに対応する情報を含む入力データを受信する。
【0136】
一部の例では、712において、第1の指示を検出したことに応じて、614において、第1の電子デバイスのユーザの視線が第1のユーザインタフェースの第1の表現に向けられているという判定に従って、第1の電子デバイスは、第1の個別の入力に従って第1のユーザインタフェースに向けられた第1の動作を第2の電子デバイスに実行させる。例えば、図4Bにおいて、移動入力473Aがマウス432’を介して第2の電子デバイス415’によって検出されると、第1の電子デバイス401のユーザの視線427は第1のユーザインタフェース411’に向けられ、これにより、第1の電子デバイス401は移動入力473Aを第2の電子デバイス415’にルーティングし、これにより、第2の電子デバイス415’は、図4Cに示すように、第1のユーザインタフェース411’内のカーソル412’を移動させる。代替的に、一部の例では、移動入力473Aがマウス432’を介して第2の電子デバイス415’によって検出される前に、第1の電子デバイス401は、入力が第1のユーザインタフェース411’に向けられるべきであるという指示を第2の電子デバイス415’に送信してもよく、これにより、第2の電子デバイス415’は、移動入力473Aに対応する情報を第1の電子デバイス401に送信することなく、移動入力473Aをローカルに処理する。一部の例では、716において、視線が第2のユーザインタフェースの第2の表現に向けられているという判定に従って、第1の電子デバイスは、第1の個別の入力に従って、第2のユーザインタフェースの第2の表現に向けられた第2の動作を実行する。例えば、図4Iにおいて、移動入力473Gがマウス432’を介して第2の電子デバイス415’によって検出されると、第1の電子デバイス401のユーザの視線427は、仮想拡張ディスプレイ404の第2のユーザインタフェース425に向けられ、これにより、図4Jに示すように、第1の電子デバイス401は、移動入力473Gに従って第2のユーザインタフェース425内でカーソル412’を移動させる。
【0137】
プロセス700は一例であり、より多くの、より少ない、又は異なる動作が、同じ又は異なる順序で実行され得ることが理解される。更に、上述したプロセス700における動作は、任意選択的に、汎用プロセッサ(例えば、図2に関して説明したように、)又は特定用途向けチップなどの情報処理装置内の1つ以上の機能モジュールを実行することによって、及び/又は図2の他の構成要素によって実装される。
【0138】
図8は、本開示の一部の例による、3次元環境における2つの電子デバイス間のユーザインタフェースの表現の表示及び対話を容易にするための例示的なプロセスを示す流れ図である。一部の例では、プロセス800は、第1の電子デバイスのディスプレイ及び1つ以上の入力デバイスと通信する第1の電子デバイスにおいて開始する。一部の例では、第1の電子デバイスは、任意選択的に、図2のデバイス240に類似又は対応するヘッドマウントディスプレイである。図8に示すように、一部の例では、802において、ディスプレイを介して、第1の電子デバイス上で実行されるアプリケーションの第1のユーザインタフェースを含むコンピュータ生成環境を提示している間に、第1の電子デバイスは、第2の電子デバイスから、第2の電子デバイスの第2のユーザインタフェースを表す表示データを受信する。例えば、図6Aに同様に示されるように、第1の電子デバイス601は、第1の電子デバイス601のユーザの視野内に位置する第2の電子デバイス615’からユーザインタフェース625を表す画像データを受信する。一部の例では、第2の電子デバイスは、任意選択的に、図2のデバイス230に類似又は対応するコンピュータ(例えば、ラップトップコンピュータ、デスクトップコンピュータ、又はタブレットコンピュータ)である。
【0139】
一部の例では、804において、表示データを受信したことに応じて、第1の電子デバイスは、ディスプレイを介して、表示データに基づいて第2の電子デバイスの第2のユーザインタフェースの表現を提示する。例えば、図6Cに示すように、第1の電子デバイス601は、ユーザインタフェース625の表現を含む仮想ディスプレイ604を、第1の電子デバイス601上で実行中のアプリケーションに関連付けられた仮想アプリケーションウィンドウ656と同時に表示する。一部の例では、806において、アプリケーションの第1のユーザインタフェース及び第2の電子デバイスの第2のユーザインタフェースの表現を提示している間に、第1の電子デバイス601は、ユーザ入力に対応する個別のイベントを検出する。例えば、図6Eに示すように、第2の電子デバイス615’は、第2の電子デバイス601’と通信している物理マウス632’を介して選択入力673Bを検出するか、又は図6Gに示すように、第1の電子デバイス601は、第1の電子デバイス615の1つ以上のセンサを介して選択入力672Bを検出する。
【0140】
一部の例では、808において、個別のイベントを検出したことに応じて、810において、個別のイベントが検出されたときに第1の電子デバイスのユーザの視線が第2の電子デバイスの第2のユーザインタフェースの表現に向けられているという判定に従って、第1の電子デバイスは、個別のイベントに基づいて第2の電子デバイスの第2のユーザインタフェースに向けられた第1の動作を第2の電子デバイスに実行させる。例えば、図6Gにおいて、選択入力672Bが第1の電子デバイス601によって検出されると、第1の電子デバイス601は、仮想ディスプレイ604内のユーザインタフェース625に向けられた視線627を検出する。したがって、図6Hに示すように、第1の電子デバイス601は、第2の電子デバイス615’に、3次元環境650内の仮想ディスプレイ604内に表示されるユーザインタフェース625の表現内に示される視線627のロケーションに基づいて、ユーザインタフェース625のテキスト入力フィールド616を選択させる。
【0141】
一部の例では、812において、個別のイベントが検出されたときに、第1の電子デバイス上で実行中のアプリケーションの第1のユーザインタフェースに視線が向けられているという判定に従って、第1の電子デバイスは、個別のイベントに基づいて、第1のユーザインタフェースに向けられた第2の動作(例えば、上記の第1の動作とは異なる)を実行する。例えば、図6Eにおいて、選択入力673Bが第2の電子デバイス601’によってマウス632’を介して検出されると、第1の電子デバイス615は、仮想アプリケーションウィンドウ656に向けられた視線627を検出する。したがって、図6Fに示すように、第1の電子デバイス601は、図6Eの第2の電子デバイス615’から受信した選択入力673Bに対応する入力データに従って、視線627のロケーションに基づいて仮想アプリケーションウィンドウ656の再生コントロール645内の一時停止オプションを選択する。
【0142】
プロセス800は一例であり、より多くの、より少ない、又は異なる動作が、同じ又は異なる順序で実行され得ることが理解される。更に、上述したプロセス800における動作は、任意選択的に、汎用プロセッサ(例えば、図2に関して説明したように、)又は特定用途向けチップなどの情報処理装置内の1つ以上の機能モジュールを実行することによって、及び/又は図2の他の構成要素によって実装される。
【0143】
したがって、上記によれば、本開示の一部の例は、第1の電子デバイスのディスプレイ及び1つ以上の入力デバイスと通信する第1の電子デバイスにおいて、1つ以上の入力デバイスを介して、第2の電子デバイスの第1のユーザインタフェースの第1の表現を表示するように構成されたディスプレイを有する第2の電子デバイスを含む現実世界環境の少なくとも一部分をキャプチャすることと、ディスプレイを介して、現実世界環境のキャプチャされた部分の表現と、第2の電子デバイスの表現に関連付けられた第1のアフォーダンスとを含むコンピュータ生成環境を提示することと、現実世界環境のキャプチャされた部分の表現及び第1のアフォーダンスを含むコンピュータ生成環境を提示している間に、1つ以上の入力デバイスを介して、第1のアフォーダンスの選択に対応する入力を受信することと、入力を受信したことに応じて、コンピュータ生成環境において、第1のユーザインタフェースの第1の表現とは異なる、第2の電子デバイスの第2のユーザインタフェースの第2の表現を提示することと、第2のユーザインタフェースの第2の表現を含むコンピュータ生成環境を提示している間に、第2の電子デバイスの1つ以上の入力デバイスを介して受信された第1の個別の入力の第1の指示を検出することと、第1の指示を検出したことに応じて、第1の電子デバイスのユーザの視線が第1のユーザインタフェースの第1の表現に向けられているという判定に従って、第2の電子デバイスに、第1の個別の入力に従って第1のユーザインタフェースに向けられた第1の動作を実行させ、視線が第2のユーザインタフェースの第2の表現に向けられているという判定に従って、第1の個別の入力に従って第2のユーザインタフェースの第2の表現に向けられた第2の動作を実行させることと、を含む、方法を対象とする。
【0144】
追加的又は代替的に、一部の例では、第1のアフォーダンスは、コンピュータ生成環境内の第2の電子デバイスの表現とは別個のディスプレイの所定の領域に表示される。追加的に又は代替的に、一部の例では、本方法は、指示を検出したことに応じて、ユーザの視線が、第1のユーザインタフェースの第1の表現又は第2のユーザインタフェースの第2の表現を含まないコンピュータ生成環境内の個別のロケーションに向けられているという判定に従って、第1のユーザインタフェースの第1の表現又は第2のユーザインタフェースの第2の表現を任意の動作を実行することを取り止めることを更に含む。追加的に又は代替的に、一部の例では、本方法は、第2のユーザインタフェースの第2の表現を含むコンピュータ生成環境を提示している間に、第2の電子デバイスの1つ以上の入力デバイスを介して受信された第2の個別の入力の第2の指示を検出することであって、第1の指示を検出した後、第2の指示を検出する前に入力の指示が検出されなかった、検出することと、第2の指示を検出したことに応じて、第1のユーザインタフェースの第1の表現又は第2のユーザインタフェースの第2の表現を含まないコンピュータ生成環境内の個別のロケーションにユーザの視線が向けられたとの判定に従って、第2の個別の入力に従って第1のユーザインタフェースの第1の表現に視線が向けられたとの判定に従って、第1の指示が検出されたときに視線が第1のユーザインタフェースの第1の表現に向けられていたという判定に従って、第2の電子デバイスに、第2の個別の入力に従って第1のユーザインタフェースに向けられた第3の動作を実行させ、第1の指示が検出されたときに視線が第2のユーザインタフェースの第2の表現に向けられていたという判定に従って、第2の個別の入力に従って第2のユーザインタフェースの第2の表現に向けられた第4の動作を実行することと、を更に含む。
【0145】
追加的に又は代替的に、一部の例では、本方法は、第2のユーザインタフェースの第2の表現を含むコンピュータ生成環境を提示している間に、第1の電子デバイスの1つ以上の入力デバイスを介して、個別の入力を検出することと、個別の入力を検出したことに応じて、視線が第1のユーザインタフェースの第1の表現に向けられているとの判定に従って、第2の電子デバイスに、個別の入力に従って第1のユーザインタフェースに向けられた第3の動作を実行させ、視線が第2のユーザインタフェースの第2の表現に向けられているとの判定に従って、個別の入力に従って第2のユーザインタフェースの第2の表現に向けられた第4の動作を実行させることと、を更に含む。追加的又は代替的に、一部の例では、第1のユーザインタフェースの第1の表現は、第2の電子デバイスの1つ以上の入力デバイスのうちの1つ以上を介して制御可能なカーソルを含む。追加的に又は代替的に、一部の例では、第1の個別の入力は、カーソルの移動に対応し、第1の指示を検出したことに応じて、視線が第2のユーザインタフェースの第2の表現に向けられているという判定に従って、第2のユーザインタフェースの第2の表現に向けられた第4の動作を実行することは、カーソルの移動に従って第1のユーザインタフェースの第1の表現から第2のユーザインタフェースの第2の表現にカーソルを移動させることを含む。追加的又は代替的に、一部の例では、1つ以上の入力デバイスのうちの1つ以上は、タッチ感知面を有する第1の入力デバイスを含み、第1の個別の入力は、1つ以上の基準を満たすタッチ感知面上の接触の移動を含む。
【0146】
追加的又は代替的に、一部の例では、1つ以上の基準は、接触の移動がタッチ感知面からの接触のリフトオフを含むときに満たされる基準を含む。追加的又は代替的に、一部の例では、1つ以上の基準は、タッチ感知面上の接触の移動が閾値移動を超えるときに満たされる基準を含む。追加的又は代替的に、一部の例では、現実世界環境は、第3の電子デバイスを更に含む。一部の例では、本方法は、第1の指示を検出したことに応じて、第3の電子デバイスが関与する任意の動作を実行することを取り止めることを更に含む。追加的又は代替的に、一部の例では、本方法は、コンピュータ生成環境において第2の電子デバイスの表現に関連付けられた第1のアフォーダンスを表示する前に、第1の電子デバイスが第2の電子デバイスと通信するように、第1の電子デバイスと第2の電子デバイスとをペアリングすることを更に含む。追加的に又は代替的に、一部の例では、第1の電子デバイスと第2の電子デバイスとをペアリングすることは、第1の電子デバイスの1つ以上の入力デバイスを介して、第1の電子デバイスを第2の電子デバイスと通信させる第2の電子デバイスのディスプレイを介して表示される画像をスキャンすることを含む。追加的又は代替的に、一部の例では、第1の電子デバイスと第2の電子デバイスとをペアリングすることは、第1の電子デバイスの1つ以上の入力デバイスを介して、第1の電子デバイスを第2の電子デバイスと通信させる第2の電子デバイスから出力される個別の音声を検出することを含む。追加的に又は代替的に、一部の例では、第1の電子デバイスと第2の電子デバイスとをペアリングすることは、第1の電子デバイスを第2の電子デバイスと通信させる第2の電子デバイスの1つ以上の入力デバイスを介して受信された入力の指示を検出することを含む。
【0147】
追加的に又は代替的に、一部の例では、本方法は、第2のユーザインタフェースの第2の表現を含むコンピュータ生成環境を提示している間に、第1の電子デバイスのユーザからの第1の電子デバイスの関連付け解除を検出することと、ユーザからの第1の電子デバイスの関連付け解除を検出したことに応じて、第2のユーザインタフェースの第2の表現の状態を示すデータを含む関連付け解除の指示を第2の電子デバイスに送信することと、を更に含み、指示は、第2の電子デバイスに第1のユーザインタフェース及び第2のユーザインタフェースを同時に表示させる。追加的に又は代替的に、一部の例では、本方法は、第1の電子デバイスと第1の電子デバイスのユーザとの再関連付けを検出することと、第1の電子デバイスとユーザとの再関連付けを検出したことに応じて、コンピュータ生成環境を提示し、再関連付けの指示を第2の電子デバイスに送信することと、コンピュータ生成環境を提示している間に、第2の電子デバイスから、第2のユーザインタフェースの現在の状態を示すデータを受信することと、データを受信したことに応じて、第2のユーザインタフェースの現在の状態に基づいて、コンピュータ生成環境において第2のユーザインタフェースの第2の表現を再表示することと、を更に含む。追加的に又は代替的に、一部の例では、第1の電子デバイスはヘッドマウントディスプレイを含み、第2の電子デバイスはラップトップコンピュータ、デスクトップコンピュータ、又はタブレットコンピュータである。追加的又は代替的に、一部の例では、本方法は、コンピュータ生成環境を提示している間に、第3の電子デバイスのユーザとの通信セッションに参加するための招待を受信することと、招待を受信したことに応じて、招待が第1の電子デバイスのユーザによって受け入れられたという判定に従って、第3の電子デバイスのユーザとの通信セッションに入り、第3の電子デバイスのユーザに対応するアバターと第1のユーザインタフェースの第1の表現とを同時に表示することと、を更に含む。
【0148】
追加的又は代替的に、一部の例では、本方法は、第3の電子デバイスのユーザに対応するアバター及び第1のユーザインタフェースの第1の表現を含むコンピュータ生成環境を提示している間に、第1の電子デバイスとコンテンツを共有する要求に対応する指示を第3の電子デバイスから受信することと、指示を受信したことに応じて、要求が第1の電子デバイスのユーザによって受け入れられたという判定に従って、コンテンツに対応する第3のユーザインタフェースの第3の表現をコンピュータ生成環境に表示することと、を更に含み、第3のユーザインタフェースは、第3の電子デバイス上に表示されるように構成される。追加的に又は代替的に、一部の例では、本方法は、第3のユーザインタフェースの第3の表現を含むコンピュータ生成環境を提示している間に、第1の電子デバイスの1つ以上の入力デバイスを介して、第3のユーザインタフェースの第3の表現に向けられた入力を検出することと、入力を検出したことに応じて、入力に従って第3のユーザインタフェースの第3の表現に向けられた動作を実行することを取り止めることと、を更に含む。
【0149】
本開示の一部の例は、第1の電子デバイスのディスプレイ及び1つ以上の入力デバイスと通信する第1の電子デバイスにおいてディスプレイを介して、第1の電子デバイス上で実行されるアプリケーションの第1のユーザインタフェースを含むコンピュータ生成環境を提示している間に、第2の電子デバイスから、第2の電子デバイスの第2のユーザインタフェースを表す表示データを受信することと、表示データを受信したことに応じて、ディスプレイを介して、表示データに基づいて第2の電子デバイスの第2のユーザインタフェースの表現を提示することと、アプリケーションの第1のユーザインタフェース及び第2の電子デバイスの第2のユーザインタフェースの表現を提示している間に、ユーザ入力に対応する個別のイベントを検出することと、個別のイベントを検出したことに応じて、個別のイベントが検出されたときに第1の電子デバイスのユーザの視線が第2の電子デバイスの第2のユーザインタフェースの表現に向けられているという判定に従って、個別のイベントに基づいて第2の電子デバイスの第2のユーザインタフェースに向けられた第1の動作を第2の電子デバイスに実行させ、視線が第1の電子デバイス上で実行中のアプリケーションの第1のユーザインタフェースに向けられているという判定に従って、個別のイベントに基づいて第1のユーザインタフェースに向けられた第2の動作を第2の電子デバイスに実行させることと、を含む、方法を対象とする。
【0150】
追加的又は代替的に、一部の例では、個別のイベントを検出することは、第2の電子デバイスと通信している1つ以上の入力デバイスを介して受信された個別の入力の指示を検出することを含む。追加的に又は代替的に、一部の例では、本方法は、個別の入力の指示を検出したことに応じて、指示が検出されたときに視線が第2の電子デバイスの第2のユーザインタフェースの表現に向けられているという判定に従って、視線のロケーションに関する視線データを第2の電子デバイスに送信することを更に含み、第2の電子デバイスは、個別の入力に対応する入力データを第1の電子デバイスに送信することなく、視線のロケーションに関するデータに従って第1の動作を実行する。追加的に又は代替的に、一部の例では、本方法は、個別の入力の指示を検出したことに応じて、指示が検出されたときに視線が第2の電子デバイスの第2のユーザインタフェースの表現に向けられているという判定に従って、視線のロケーションに関する視線データを、第2の電子デバイスであって、第2の電子デバイスは、視線のロケーションに関するデータに従って第1の動作を実行する、第2の電子デバイスに送信することと、個別の入力に対応する入力データを第2の電子デバイスから受信することと、を更に含み、それに従って第1の動作が第2の電子デバイスにおいて実行される。追加的に又は代替的に、一部の例では、本方法は、個別の入力の指示を検出したことに応じて、指示が検出されたときに第1の電子デバイス上で実行中のアプリケーションの第1のユーザインタフェースに視線が向けられているという判定に従って、個別の入力に対応する入力データを第2の電子デバイスに送信することなく、個別の入力に従って第1のユーザインタフェースに向けられた第2の動作を実行することを更に含む。
【0151】
追加的又は代替的に、一部の例では、個別のイベントを検出することは、第1の電子デバイスの1つ以上の入力デバイスを介して、個別の入力を検出することを含む。追加的に又は代替的に、一部の例では、本方法は、個別の入力を検出したことに応じて、個別の入力が検出されたときに視線が第2の電子デバイスの第2のユーザインタフェースの表現に向けられているという判定に従って、個別の入力に対応する入力データを第2の電子デバイスに送信することを更に含む。追加的に又は代替的に、一部の例では、本方法は、個別の入力を検出したことに応じて、個別の入力が検出されたときに視線が第1の電子デバイス上で実行中のアプリケーションの第1のユーザインタフェースに向けられているという判定に従って、個別の入力に対応する入力データを第2の電子デバイスに送信することなく、個別の入力に従って第1のユーザインタフェースに向けられた第2の動作を実行することを更に含む。追加的に又は代替的に、一部の例では、第2の電子デバイスに第1の動作を実行させることは、個別のイベントが検出されたときに視線が第2の電子デバイスの第2のユーザインタフェースの表現に向けられたことを示す情報を含む視線データを第2の電子デバイスに送信することを含む。追加的又は代替的に、一部の例では、情報は、第2のユーザインタフェースの表現内の視線のロケーションに対応するポジション情報を含む。追加的又は代替的に、一部の例では、第2の電子デバイスは、第2のユーザインタフェースを表示していない。
【0152】
追加的に又は代替的に、一部の例では、第2の電子デバイスに第2のユーザインタフェースに向けられた第1の動作を実行させることは、第2のユーザインタフェースの外観を更新することを含む。追加的に又は代替的に、一部の例では、本方法は、第2の電子デバイスに第2のユーザインタフェースに向けられた第1の動作を実行させた後に、第2の電子デバイスの第2のユーザインタフェースの外観に対する1つ以上の更新を表す更新された表示データを第2の電子デバイスから受信することと、更新された表示データを受信したことに応じて、更新された表示データに基づいて第2のユーザインタフェースの表現の表示を更新することと、を更に含む。追加的又は代替的に、一部の例では、第2の電子デバイスは、第2のユーザインタフェースを表示している。追加的又は代替的に、一部の例では、本方法は、第2の電子デバイスから、第2の電子デバイスの第2のユーザインタフェースを表す表示データを受信する前に、ディスプレイを介して、コンピュータ生成環境に、第2の電子デバイスの表現に関連付けられた第1のアフォーダンスを提示することと、第1のアフォーダンスを含むコンピュータ生成環境を提示している間に、1つ以上の入力デバイスを介して、第1のアフォーダンスの選択に対応する入力を受信することと、入力を受信したことに応じて、コンピュータ生成環境において、表示データに基づいて、第2の電子デバイスの第2のユーザインタフェースの表現を提示することと、を更に含む。追加的又は代替的に、一部の例では、本方法は、入力を受信したことに応じて、第2の電子デバイスに第2のユーザインタフェースの表示を停止させることを更に含む。追加的又は代替的に、一部の例では、本方法は、コンピュータ生成環境において第2の電子デバイスの表現に関連付けられた第1のアフォーダンスを表示する前に、第1の電子デバイスが第2の電子デバイスと通信するように、第1の電子デバイスと第2の電子デバイスとをペアリングすることを更に含む。
【0153】
追加的に又は代替的に、一部の例では、本方法は、コンピュータ生成環境を提示している間に、第1の電子デバイスのユーザからの第1の電子デバイスの関連付け解除を検出することと、ユーザからの第1の電子デバイスの関連付け解除を検出したことに応じて、関連付け解除の指示を第2の電子デバイスに送信することと、を更に含み、指示は、第2の電子デバイスに第2のユーザインタフェースを表示させる。追加的に又は代替的に、一部の例では、本方法は、第1の電子デバイスと第1の電子デバイスのユーザとの再関連付けを検出することと、第1の電子デバイスとユーザとの再関連付けを検出したことに応じて、コンピュータ生成環境を提示し、再関連付けの指示を第2の電子デバイスに送信することと、コンピュータ生成環境を提示している間に、第2の電子デバイスから、第2のユーザインタフェースの現在の状態を表す更新された表示データを受信することと、更新された表示データを受信したことに応じて、第2のユーザインタフェースの現在の状態に基づいて、コンピュータ生成環境において第2のユーザインタフェースの表現を再表示することと、を更に含む。追加的又は代替的に、一部の例では、本方法は、コンピュータ生成環境を提示している間に、第3の電子デバイスのユーザとの通信セッションに参加するための招待を受信することと、招待を受信したことに応じて、招待が第1の電子デバイスのユーザによって受け入れられたという判定に従って、第3の電子デバイスのユーザとの通信セッションに入り、第3の電子デバイスのユーザに対応するアバターと第1のユーザインタフェースの第1の表現とを同時に表示することと、を更に含む。追加的に又は代替的に、一部の例では、本方法は、第3の電子デバイスのユーザに対応するアバター及び第1の電子デバイス上で実行中のアプリケーションの第1のユーザインタフェースを含むコンピュータ生成環境を提示している間に、第1の電子デバイスとコンテンツを共有する要求に対応する指示を第3の電子デバイスから受信することと、指示を受信したことに応じて、要求が第1の電子デバイスのユーザによって受け入れられたという判定に従って、第3の電子デバイス上に表示されるように構成される、第3のユーザインタフェースのコンテンツに対応する表現をコンピュータ生成環境に表示することと、を更に含む。
【0154】
本開示の一部の例は、1つ以上のプロセッサと、メモリと、1つ以上のプログラムと、を備え、1つ以上のプログラムが、メモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムが、上記のいずれかに記載の方法のいずれかを実行する命令を含む、電子デバイスを対象とする。
【0155】
本開示の一部の例は、1つ以上のプログラムを記憶している非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、電子デバイスの1つ以上のプロセッサによって実行されると、電子デバイスに、上記のいずれかに記載の方法を実行させる、非一時的コンピュータ可読記憶媒体を対象とする。
【0156】
本開示の一部の例は、1つ以上のプロセッサと、メモリと、上記の方法のいずれかを実行するための手段とを備える電子デバイスを対象とする。
【0157】
本開示の一部の例は、電子デバイスにおいて使用するための情報処理装置を対象とし、情報処理装置は、上記の方法のいずれかを実行するための手段を備える。
【0158】
以上の記載は、説明の目的で、特定の実施例を参照して記載されたものである。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。実施例は、本発明の原理及びその実際の用途を最もよく説明し、それにより、他の当業者が本発明及び企図される特定の用途に適した様々な修正を伴う様々な記載された実施例を最もよく使用することを可能にするために選択及び記載された。
図1
図2
図3A
図3B
図3C
図3D
図3E
図3F
図3G
図3H
図3I
図4A
図4B
図4C
図4D
図4E
図4F
図4G
図4H
図4I
図4J
図4K
図4L
図4M
図4N
図4O
図5A
図5B
図5C
図5D
図5E
図5F
図5G
図6A
図6B
図6C
図6D
図6E
図6F
図6G
図6H
図6I
図6J
図6K
図7A
図7B
図8