IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ロヴィ ガイズ, インコーポレイテッドの特許一覧

特表2023-548795眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム
<>
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図1
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図2
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図3
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図4
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図5
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図6
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図7
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図8
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図9
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図10
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図11
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図12
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図13
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図14
  • 特表-眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-11-21
(54)【発明の名称】眼運動に基づくエクステンデッドリアリティ環境相互作用の方法およびシステム
(51)【国際特許分類】
   G06F 3/01 20060101AFI20231114BHJP
   G06F 3/0346 20130101ALI20231114BHJP
   G06F 3/038 20130101ALI20231114BHJP
   G06F 3/16 20060101ALI20231114BHJP
   G06F 3/04812 20220101ALI20231114BHJP
   G06T 19/00 20110101ALI20231114BHJP
【FI】
G06F3/01 510
G06F3/0346 421
G06F3/038 310A
G06F3/16 630
G06F3/04812
G06F3/038 350D
G06T19/00 A
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023524125
(86)(22)【出願日】2020-12-29
(85)【翻訳文提出日】2023-05-29
(86)【国際出願番号】 US2020067335
(87)【国際公開番号】W WO2022086577
(87)【国際公開日】2022-04-28
(31)【優先権主張番号】17/075,222
(32)【優先日】2020-10-20
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】17/075,224
(32)【優先日】2020-10-20
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】17/075,227
(32)【優先日】2020-10-20
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】17/075,229
(32)【優先日】2020-10-20
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】17/075,232
(32)【優先日】2020-10-20
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】518345664
【氏名又は名称】ロヴィ ガイズ, インコーポレイテッド
(74)【代理人】
【識別番号】100078282
【弁理士】
【氏名又は名称】山本 秀策
(74)【代理人】
【識別番号】100113413
【弁理士】
【氏名又は名称】森下 夏樹
(74)【代理人】
【識別番号】100181674
【弁理士】
【氏名又は名称】飯田 貴敏
(74)【代理人】
【識別番号】100181641
【弁理士】
【氏名又は名称】石川 大輔
(74)【代理人】
【識別番号】230113332
【弁護士】
【氏名又は名称】山本 健策
(72)【発明者】
【氏名】アヘル, アンクル アニル
(72)【発明者】
【氏名】セン, スサント
(72)【発明者】
【氏名】バラジ, アール
(72)【発明者】
【氏名】プリクンタ, サイ ドゥルガ ヴェンカット レディ
(72)【発明者】
【氏名】ロバート ジョゼ, ジェフリー コップス
(72)【発明者】
【氏名】ティー ブイ, アルン クマール
(72)【発明者】
【氏名】齋藤 さくら
【テーマコード(参考)】
5B050
5B087
5E555
【Fターム(参考)】
5B050AA10
5B050BA09
5B050CA07
5B050CA08
5B050EA09
5B050EA27
5B050FA02
5B050FA05
5B050FA08
5B087AA09
5B087AB05
5B087BC05
5B087BC32
5B087DD03
5B087DD06
5B087DE03
5B087DE07
5E555AA11
5E555AA46
5E555BA02
5E555BA06
5E555BA38
5E555BB02
5E555BB06
5E555BB38
5E555BC04
5E555BC17
5E555BE17
5E555CA42
5E555CA44
5E555CA47
5E555CB19
5E555CB21
5E555CB64
5E555CB65
5E555CC01
5E555DA08
5E555DA09
5E555DB06
5E555DB53
5E555DB57
5E555DC09
5E555DC18
5E555DC19
5E555DC63
5E555DD06
5E555EA22
5E555EA23
5E555FA00
(57)【要約】
エクステンデッドリアリティ環境相互作用のためのシステムおよび方法が、説明される。オブジェクトを含む、エクステンデッドリアリティ環境が、表示のために発生され、第1のセンサが、注視がエクステンデッドリアリティ環境の第1の部分からエクステンデッドリアリティ環境の第2の部分に偏移していることを検出するために使用され、オブジェクトは、エクステンデッドリアリティ環境の第1の部分から除外され、エクステンデッドリアリティ環境の第2の部分内に含まれる。注視における偏移のインジケータが、注視偏移を検出することに応答して、エクステンデッドリアリティ環境内での表示のために発生され、音声コマンドが、インジケータがオブジェクトの近傍にある間に第2のセンサによって検出される。音声コマンドを検出することに応答して、音声コマンドに対応するアクションが、実行され得る。
【特許請求の範囲】
【請求項1】
エクステンデッドリアリティ環境相互作用のための方法であって、
オブジェクトを備えるエクステンデッドリアリティ環境を表示のために発生させることと、
第1のセンサを使用することによって、注視が前記エクステンデッドリアリティ環境の第1の部分から前記エクステンデッドリアリティ環境の第2の部分に偏移していることを検出することであって、前記オブジェクトは、前記エクステンデッドリアリティ環境の第1の部分から除外され、前記エクステンデッドリアリティ環境の第2の部分内に含まれる、ことと、
前記注視偏移を検出することに応答して、前記注視における偏移のインジケータを前記エクステンデッドリアリティ環境内での表示のために発生させることと、
第2のセンサを使用することによって、前記インジケータが前記オブジェクトの近傍にある間に音声コマンドを検出することと、
前記音声コマンドを検出することに応答して、前記音声コマンドに対応するアクションを実行することと
を含む、方法。
【請求項2】
双方向性メディアガイドが、前記表示上に提供され、前記アクションは、前記双方向性メディアガイドを介してアクセス可能なメディアアセットに関連する命令である、請求項1に記載の方法。
【請求項3】
前記注視は、眼の網膜移動に基づいて検出され、前記方法はさらに、
前記網膜移動を前記表示上の前記インジケータの移動に変換することを含む、請求項1または2に記載の方法。
【請求項4】
網膜移動のレートが、所定の値を超えるかどうかを決定することと、
前記網膜移動のレートが、前記所定の値を超えることを決定することに応答して、前記網膜移動を前記表示上の前記インジケータの移動に変換するとき、前記網膜移動を正規化することと
をさらに含む、請求項3に記載の方法。
【請求項5】
前記音声コマンドは、前記メディアアセットの識別と、前記アクションを実行するためのコマンドとを含む、請求項2-4のいずれかに記載の方法。
【請求項6】
前記音声コマンドは、前記表示上に新しいメディアアセットを提示するための命令を含む、請求項2-5のいずれかに記載の方法。
【請求項7】
前記オブジェクトは、エンティティと関連付けられ、前記音声コマンドは、前記エンティティに関連するコンテンツを読み出すための命令を備える、請求項2-6のいずれかに記載の方法。
【請求項8】
前記インジケータが前記オブジェクトの近傍にある間に前記音声コマンドを検出することは、前記注視が少なくとも所定の閾値期間にわたって前記オブジェクトに指向されていることを決定することを含む、請求項1-7のいずれかに記載の方法。
【請求項9】
前記インジケータが前記オブジェクトの近傍にあることは、前記インジケータが前記オブジェクトに重複することを含む、請求項1-8のいずれかに記載の方法。
【請求項10】
前記表示は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、請求項1-9のいずれかに記載の方法。
【請求項11】
エクステンデッドリアリティ環境相互作用のためのシステムであって、前記システムは、請求項1-10のいずれかに記載の方法を実行するように構成される制御回路網を備える、システム。
【請求項12】
エクステンデッドリアリティ環境相互作用のためのシステムであって、
ディスプレイと、
制御回路網であって、
オブジェクトを備えるエクステンデッドリアリティ環境を表示のために発生させることと、
第1のセンサを使用することによって、注視が前記エクステンデッドリアリティ環境の第1の部分から前記エクステンデッドリアリティ環境の第2の部分に偏移していることを検出することであって、前記オブジェクトは、前記エクステンデッドリアリティ環境の第1の部分から除外され、前記エクステンデッドリアリティ環境の第2の部分内に含まれる、ことと、
前記注視偏移を検出することに応答して、前記注視における偏移のインジケータを前記エクステンデッドリアリティ環境内での表示のために発生させることと、
第2のセンサを使用することによって、前記インジケータが前記オブジェクトの近傍にある間に音声コマンドを検出することと、
前記音声コマンドを検出することに応答して、前記音声コマンドに対応するアクションを実行することと
を行うように構成される、制御回路網と
を備える、システム。
【請求項13】
双方向性メディアガイドが、前記表示上に提供され、前記アクションは、前記双方向性メディアガイドを介してアクセス可能なメディアアセットに関連する命令である、請求項12に記載のシステム。
【請求項14】
前記制御回路網はさらに、
眼の網膜移動に基づいて、前記注視を検出することと、
前記網膜移動を前記表示上の前記インジケータの移動に変換することと
を行うように構成される、請求項12または13に記載のシステム。
【請求項15】
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、その上にエンコードされる命令を有し、前記命令は、制御回路網によって実行されると、前記制御回路網に、請求項1-10のいずれかに記載の方法を実施させる、非一過性コンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、改良されたエクステンデッドリアリティ環境相互作用に関し、特に、眼運動を検出し、検出された眼運動に基づいて、エクステンデッドリアリティ環境内で動作を実施するためのシステムおよび方法が、開示される。
【発明の概要】
【課題を解決するための手段】
【0002】
メディア技術における進歩は、仮想現実(VR)、拡張現実(AR)、および複合現実(MR)技術等のエクステンデッドリアリティ(XR)技術の開発につながっている。VRシステムは、3次元コンピュータ発生環境内にユーザを完全に没入させる(例えば、ユーザに環境内にいる感覚を与える)、または部分的に没入させ得る(例えば、ユーザに環境を見ている感覚を与える)。環境は、ユーザが相互作用し得るオブジェクトまたはアイテムを含み得る。ARシステムは、実世界物体にわたってオーバーレイされる拡張された情報等の現実の修正されたバージョンを提供し得る。MRシステムは、双方向性仮想オブジェクトを実世界にマッピングする。そのようなシステムは、立体ディスプレイまたはスマートグラスを備える、頭部搭載型デバイス等のウェアラブルを利用し得る。
【0003】
XRシステムは、多くの課題を導入する。例えば、環境を視認するために使用されているウェアラブルデバイスは、外部デバイス(例えば、レンズ)を含まない場合があるため、XRシステムが、ユーザがXR環境内で自身の視野または焦点を改変するときを検出することは、困難であり得る。別の実施例として、散瞳および縮瞳は、ユーザがXR環境内で視認しているものまたはユーザの眼に入射する光の量に応じて、変動し得るが、ユーザは、自身の瞳孔に対する制御を有し得ず、したがって、ユーザの瞳孔を監視することは、XR環境内のユーザの注視または視野を決定するための信頼性のある方法ではない場合がある。さらに悪いことに、ユーザの視野が、正確に確認される場合であっても、ユーザの視野内に複数のオブジェクトが、存在する場合、ユーザが相互作用することを所望するオブジェクトを決定することは、困難であり得る。
【0004】
加えて、XRに対する現在のアプローチは、ある欠点に悩まされている。1つのアプローチでは、ユーザは、XR環境をナビゲートするために、ハンドジェスチャまたはジョイスティックを採用する。しかしながら、XR環境と相互作用するためにそのようなユーザ入力を要求することは、XRの体験を損なう(すなわち、XR環境が現実ではないことをユーザに思い出させる)ことは言うまでもなく、ユーザにとって面倒または不便であり得る。加えて、XRに対する現在のアプローチでは、ユーザが自身の視野内のオブジェクトに関する情報を便宜的に取得すること、またはユーザがXR環境内で相互作用することは、可能ではない場合がある。
【0005】
これらの問題を克服するために、ユーザの視野内のオブジェクトを識別し、ユーザの眼瞼運動を検出し、そのような検出に基づいて、修正された詳細レベルを用いてエクステンデッドリアリティ環境内でオブジェクトを表示のために再発生させるためのシステムおよび方法が、本明細書に提供される。本明細書に説明されるシステムおよび方法はまた、検出された眼瞼運動および記憶された眼瞼運動識別子を合致させるステップと、そのような合致に基づいて、オブジェクトに対してアクションを実施するステップとを提供する。加えて、オブジェクトを含む、エクステンデッドリアリティ環境の新しい部分へのユーザの注視偏移を反映するためのインジケータを発生させ、インジケータがオブジェクトの近傍にある間に音声コマンドが受信されるとき、アクションを実行するためのシステムおよび方法が、提供される。本明細書に説明されるシステムおよび方法はまた、オブジェクトを含む、エクステンデッドリアリティ環境の一部の近傍において、不透明度ベースのインジケータをエクステンデッドリアリティ環境内での表示のために発生させるステップと、オブジェクトの識別された境界に基づいて、そのようなインジケータの不透明度を変動させるステップとを提供する。加えて、ユーザが、エクステンデッドリアリティ環境内のアイテムについての付加的情報を便宜的に取得することを可能にするためのシステムおよび方法が、提供される。
【0006】
本開示のいくつかの側面では、エクステンデッドリアリティシステムは、第1のオブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させ、1つまたはそれを上回るセンサから入力を受信する。受信された入力に基づいて、本システムは、視野内の第1のオブジェクトを識別し、眼瞼運動を検出し、眼瞼運動を検出することに応答して、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させる。したがって、眼瞼運動は、ユーザに着目されるユーザの視野内のオブジェクトを決定することと関連付けられる課題を克服するために、監視されることができる。加えて、ユーザのそのような眼瞼運動を検出することは、ユーザが、例えば、エクステンデッドリアリティ環境内のユーザから遠く離れているように見えるオブジェクトのより細かい詳細を視認することを可能にし、これは、特に、視覚障害を有するユーザに関して、エクステンデッドリアリティシステムにおけるユーザ体験を改良し得る。
【0007】
エクステンデッドリアリティ環境は、視野内の第1のオブジェクトおよび第2のオブジェクトを含む、複数のオブジェクトを備えてもよく、本システムは、検出された眼瞼運動が第1のオブジェクトと関連付けられることを決定することに応答して、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させてもよい。本システムが、検出された眼瞼運動が第2のオブジェクトと関連付けられることを決定する場合、本システムは、修正された詳細レベルを用いて第2のオブジェクトを表示のために再発生させてもよい。第1のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの一方にあってもよく、第2のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの他方にあってもよい。
【0008】
いくつかの実施形態では、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させるステップは、より高い分解能においてオブジェクトを提示するステップを含む。加えて、または代替として、1つまたはそれを上回るアクションが、1つまたはそれを上回る検出された眼瞼運動に基づいて、第1のオブジェクトに対して実施されてもよい。
【0009】
本開示のいくつかの側面では、本システムは、ユーザに対する複数のオブジェクトの個別の仮想距離を算出し、視野内の第1のオブジェクトを識別するステップは、第1のオブジェクトが個別の仮想距離のユーザに最近接する仮想距離にあることを決定するステップを含む。
【0010】
いくつかの実施形態では、眼瞼運動を検出するステップは、眼瞼の運動の量を決定するステップを含む、および/または眼瞼運動を検出するステップは、1つまたはそれを上回る眼瞼レベルを決定するステップを含む。本システムは、第1のオブジェクトが視野内に留まる間、ユーザがエクステンデッドリアリティ環境内で第1の位置から新しい位置にナビゲートしていることを検出し、新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンを表示のために発生させてもよい。
【0011】
本開示のいくつかの側面では、エクステンデッドリアリティシステムは、オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させ、エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子および対応するアクションのテーブルをメモリ内に記憶する。センサを使用して、本システムは、眼瞼運動を検出し、検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させる。検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させることに応答して、本システムは、合致された眼瞼運動に対応するアクションに基づいて、エクステンデッドリアリティ環境の更新されたバージョンを表示のために発生させる。したがって、眼瞼運動は、ユーザが相互作用することを所望する視野内のオブジェクトを決定することと関連付けられる課題を克服するために、監視されることができる。加えて、ユーザのそのような眼瞼運動を検出することは、ユーザが、エクステンデッドリアリティ環境内のユーザから遠く離れているように見えるオブジェクトと相互作用することを可能にし、これは、特に、視覚障害を有するユーザに関して、エクステンデッドリアリティシステムにおけるユーザ体験を改良し得る。
【0012】
オブジェクトは、ユーザの注視がオブジェクトに指向されていることを検出することによって、エクステンデッドリアリティ環境内の複数のオブジェクトから選択されてもよい。本システムは、(例えば、ある眼瞼運動が実施させるアクションに関してユーザに思い出させる、またはユーザを誘導するために)ユーザの注視が指向されるオブジェクトに対して実施可能な眼瞼運動識別子のサブセットを表示のために発生させてもよい。複数のアクションのアクションは、オブジェクトを操作すること、および/またはオブジェクトの外観を改変することに対応してもよい。(例えば、オブジェクトが、書籍である場合、アクションは、書籍のページをめくること、書籍を傾けること、書籍のページを破ること等であってもよい)。本システムは、ユーザの注視がオブジェクト上に留まる間、ユーザがエクステンデッドリアリティ環境内で第1の位置から新しい位置にナビゲートしていることを検出し、新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンであって、改変された外観を有する、オブジェクトの更新されたバージョンを表示のために発生させてもよい。
【0013】
いくつかの実施形態では、ユーザは、エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子と対応するアクションとの間の関係を規定する、ユーザプロファイルと関連付けられてもよい。オブジェクトに対して実施可能なアクションは、オブジェクトのタイプに基づいて、変動してもよい。眼瞼運動を検出するために、本システムは、所定の期間にわたって眼瞼が閉じられたままであるかどうかを決定し、(例えば、眼瞼運動が不随意の瞬目ではないことを確実にするために)所定の期間にわたって眼瞼が閉じられたままであることを決定することに応答して、検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させてもよい。
【0014】
本開示のいくつかの側面では、エクステンデッドリアリティシステムは、オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させ、第1のセンサを使用して、注視がエクステンデッドリアリティ環境の第1の部分からエクステンデッドリアリティ環境の第2の部分に偏移していることを検出し、オブジェクトは、エクステンデッドリアリティ環境の第1の部分から除外され、エクステンデッドリアリティ環境の第2の部分内に含まれる。注視偏移を検出することに応答して、本システムは、注視における偏移のインジケータをエクステンデッドリアリティ環境内での表示のために発生させ、第2のセンサを使用することによって、インジケータがオブジェクトの近傍にある間に音声コマンドを検出する。音声コマンドを検出することに応答して、エクステンデッドリアリティシステムは、音声コマンドに対応するアクションを実行する。したがって、エクステンデッドリアリティは、ユーザ体験を改良するために、音声と組み合わせて活用されてもよい。より具体的には、ユーザは、エクステンデッドリアリティ環境をナビ-ゲートするために(例えば、マウスまたはトラックパッドがデスクトップ、ラップトップ、またはモバイルデバイスと併用される方法の代理として)自身の眼を便宜的に使用し、自身の注視の場所に関するリアルタイム確認を受け取り、ユーザの注視のインジケータが、エクステンデッドリアリティ環境内の着目オブジェクトの近傍にあるとき、音声コマンドを介して環境内で所望のアクションを実施してもよい。
【0015】
双方向性メディアガイドが、表示上に提供されてもよく、上記に言及されるアクションは、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連する命令であってもよい。音声コマンドは、メディアアセットの識別およびアクションを実行するためのコマンド、および/または表示上に新しいメディアアセットを提示するための命令および/またはエンティティに関連するコンテンツを読み出すための命令を含んでもよく、オブジェクトは、エンティティと関連付けられる。
【0016】
いくつかの実施形態では、エクステンデッドリアリティシステムは、網膜移動のレートが、所定の値を超えるかどうかを決定し、網膜移動のレートが、所定の値を超えることを決定することに応答して、網膜移動を表示上のインジケータの移動に変換するとき、網膜移動を正規化してもよい。本システムは、注視が少なくとも所定の閾値期間にわたってオブジェクトに指向されていることを決定することに応じて、インジケータがオブジェクトの近傍にある(例えば、オブジェクトに重複する)間に音声コマンドを検出してもよい。表示は、仮想現実頭部搭載型デバイスを介して提示される。
【0017】
本開示のいくつかの側面では、エクステンデッドリアリティシステムは、オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させ、センサを使用することによって、注視がエクステンデッドリアリティ環境の第1の部分に指向されていることを検出してもよく、オブジェクトは、エクステンデッドリアリティ環境の第1の部分内に含まれる。エクステンデッドリアリティシステムは、エクステンデッドリアリティ環境の第1の部分の近傍において、複数の不透明度ベースのインジケータをエクステンデッドリアリティ環境内での表示のために発生させ、オブジェクトの境界を識別し、オブジェクトの識別された境界に基づいて、複数の不透明度ベースのインジケータのうちの少なくとも1つの不透明度を変動させてもよい。したがって、ユーザは、エクステンデッドリアリティ環境をナビ-ゲートするために(例えば、マウスまたはトラックパッドがデスクトップ、ラップトップ、またはモバイルデバイスと併用される方法の代理として)自身の眼を便宜的に使用し、自身の注視の場所に関するリアルタイム確認を受け取ってもよく、そのようなリアルタイム注視のインジケータの不透明度は、ユーザの視野を不明瞭にせず、ユーザの体験を劣化させることを回避するように、便宜的に調節される。
【0018】
エクステンデッドリアリティシステムは、不透明度ベースのインジケータのうちの少なくとも1つがオブジェクトの境界に重複するかどうかを決定し、境界に重複する不透明度ベースのインジケータの個別の不透明度を変動させてもよい。複数の不透明度ベースのインジケータは、オブジェクトに向かって指向される矢印である。エクステンデッドリアリティシステムは、センサを使用することによって、注視がエクステンデッドリアリティ環境の第2の部分に偏移しているかどうかを検出し、注視が第2の部分に偏移していることを決定することに応答して、複数の不透明度ベースのインジケータを表示の第2の部分の近傍にオーバーレイさせてもよい。
【0019】
いくつかの実施形態では、個別の不透明度は、オブジェクトからの距離に基づいて変動される。例えば、インジケータの個別の不透明度は、(例えば、ユーザが注視しているオブジェクトを強調するために)インジケータとオブジェクトとの間の距離が減少するにつれて増加し、または、(例えば、ユーザが注視しているオブジェクトを不明瞭にすることを回避するために)インジケータとオブジェクトとの間の距離が減少するにつれて増加してもよい。
【0020】
いくつかの実施形態では、双方向性メディアガイドが、表示上に提供されてもよく、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連するアクションが、少なくとも部分的に、検出された注視に基づいて受信される。そのような表示は、仮想現実頭部搭載型デバイスを介して提示される、または仮想現実頭部搭載型デバイスの使用を伴わずに提示されてもよい。
【0021】
本開示のいくつかの側面では、エクステンデッドリアリティシステムは、オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させ、眼運動を検出し、検出に基づいて、オブジェクトが少なくとも所定の期間にわたって視野内にあるかどうかを決定する。オブジェクトが少なくとも所定の期間にわたって視野内にあることを決定することに応答して、本システムは、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させる。したがって、着目オブジェクトに関する情報が、着目オブジェクトに関連するユーザの眼運動を検出することに基づいて、ユーザに便宜的に表示されてもよい。
【0022】
オブジェクトに関連する1つまたはそれを上回るアイテムは、テキスト情報、画像、ビデオ、またはそれらの任意の組み合わせを備えてもよい。本システムはさらに、オブジェクトが第1の所定の期間にわたって視野内に存在することなく、1つまたはそれを上回るアイテムの表示の開始から少なくとも第2の所定の期間が経過していることを決定し、そのような決定に応答して、1つまたはそれを上回るアイテムの表示を停止してもよい。エクステンデッドリアリティ環境は、仮想現実頭部搭載型デバイスを介して提示されてもよい。いくつかの実施形態では、眼運動を検出するステップは、眼瞼運動を監視するステップまたは注視を監視するステップを含む。
【0023】
本システムは、仮想現実セッションの間の所定の期間にわたって、視野が連続的に(または非連続的に)オブジェクト上にあることを決定することに応じて、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定してもよい。
【0024】
いくつかの実施形態では、本システムは、新しいオブジェクトが少なくとも所定の時間にわたって視野内にあることを決定し、そのような決定に応答して、新しいオブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させる一方、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させ続けてもよい。
【図面の簡単な説明】
【0025】
本開示の上記および他の目的および利点が、同様の参照文字が全体を通して同様の部分を指す、付随の図面と併せて検討される、以下の詳細な説明の考慮に応じて、明白となるであろう。
【0026】
図1図1は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内でオブジェクトを表示のために再発生させる実施例を示す。
【0027】
図2図2は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内でオブジェクトを表示のために再発生させる実施例を示す。
【0028】
図3図3は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内のオブジェクトに対してアクションを実施する実施例を示す。
【0029】
図4図4A-4Bは、本開示のいくつかの実施形態による、インジケータがエクステンデッドリアリティ環境内のオブジェクトの近傍にある間に音声コマンドを受信する実施例を示す。
【0030】
図5図5は、本開示のいくつかの実施形態による、インジケータがエクステンデッドリアリティ環境内のオブジェクトの近傍にある間に音声コマンドを受信する実施例を示す。
【0031】
図6図6は、本開示のいくつかの実施形態による、インジケータがエクステンデッドリアリティ環境内のオブジェクトの近傍にある間に音声コマンドを受信する実施例を示す。
【0032】
図7図7は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内のアイテムに関連する情報を提示する実施例を示す。
【0033】
図8図8は、本開示のいくつかの実施形態による、エクステンデッドリアリティシステムにおける例証的デバイスのブロック図である。
【0034】
図9図9は、本開示のいくつかの実施形態による、例証的エクステンデッドリアリティシステムのブロック図である。
【0035】
図10図10は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内でオブジェクトを表示のために再発生させるための詳細な例証的プロセスのフローチャートである。
【0036】
図11図11は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内でオブジェクトを表示のために再発生させるための詳細な例証的プロセスのフローチャートである。
【0037】
図12図12は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内のオブジェクトに対してアクションを実施するための詳細な例証的プロセスのフローチャートである。
【0038】
図13図13は、本開示のいくつかの実施形態による、インジケータがエクステンデッドリアリティ環境内のオブジェクトの近傍にある間に音声コマンドを受信するための詳細な例証的プロセスのフローチャートである。
【0039】
図14図14は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内のインジケータの不透明度を変動させるための詳細な例証的プロセスのフローチャートである。
【0040】
図15図15は、本開示のいくつかの実施形態による、エクステンデッドリアリティ環境内でアイテムに関連する付加的情報を提示するための詳細な例証的プロセスのフローチャートである。
【発明を実施するための形態】
【0041】
詳細な説明
図1は、本開示のいくつかの実施形態による、エクステンデッドリアリティ(XR)環境内でオブジェクトを表示のために再発生させる例示的プロセスを図示する。頭部搭載型ディスプレイ102は、画像を投影し、ユーザをその中に没入させるための3次元XR環境100を発生させてもよい。ユーザは、XR環境100内に完全または部分的に没入されてもよく、そのような環境は、完全に仮想環境であってもよい。頭部搭載型ディスプレイ102は、代替として、環境100の発生を促進するために、ウェアラブルデバイス(例えば、スマートグラス)またはカメラおよびXRアプリケーションを装備するコンピュータまたはモバイルデバイスであってもよい。環境100は、代替として、実世界物体がコンピュータ発生オブジェクトまたは情報を用いて補完される、拡張現実(AR)環境、または、例えば、仮想オブジェクトが実世界と相互作用する、または実世界が別様に仮想オブジェクトに接続される、複合現実(MR)であってもよい。いくつかの実施形態では、環境100のユーザの視野または視点は、ユーザが自身の頭部を移動させる際に変化し、他の特徴(例えば、オーディオ)が、好適に修正され、物理的世界をシミュレートする。環境100は、娯楽目的(例えば、ビデオゲーム、映画、ビデオ、スポーツ等)、通信(例えば、ソーシャルメディア)、教育目的(例えば、仮想教室)、職業目的(例えば、訓練シミュレーション)、医療目的等のためのものであってもよい。
【0042】
XRシステムは、ユーザの視野内の1つまたはそれを上回るオブジェクトを識別してもよい。視野は、ディスプレイ102によって所与の時間にユーザに提示される、XR環境100の一部(例えば、360度球体環境におけるある角度)である。視野は、VRデバイスの場合では、立体視を生成するための2D画像の対を備えてもよく、ARデバイス(例えば、スマートグラス)の場合では、視野は、実物体およびARデバイスを使用して実物体の上にオーバーレイされる仮想オブジェクトの混合物(例えば、スマートグラスに関して、カメラを用いて捕捉された写真およびスマートグラスによって追加されたコンテンツ)を含み得る、3Dまたは2D画像を備えてもよい。XR環境が、単一の自由度、例えば、360度の回転を有する場合、任意の視野が、エッジ角度座標(例えば、+135度、+225度)によって、または視野の既知の角度開きと組み合わせられる単一の角度座標(例えば、-55度)によってのいずれかで定義されてもよい。XR環境が、6自由度、すなわち、360度の3つの回転および3つの空間位置を有する場合、任意の視野が、3つの角度座標および3つの空間座標によって定義されてもよい。視野は、したがって、ユーザがXR環境内の特定の場所におり、XRセットを特定の方向に配向しているときに表示される、XR環境の一部として理解され得る。
【0043】
XRシステム(例えば、図9のシステム900)は、視野内の仮想オブジェクトと関連付けられるオブジェクト識別子を含む、視野に関するデータ構造を発生させてもよく、そのようなデータ構造は、XR環境内の視野の位置を表す座標を含んでもよい。本システムは、XRデバイス102によって捕捉されたデータ構造および/または画像に基づいて、現在の視野を決定し、ユーザの視野内のオブジェクトを識別してもよい。図1の実施例に示されるように、環境100内のユーザの検出された視野は、自動車として描写される、オブジェクト104を含むが、当業者は、任意の数または組み合わせの異なるタイプのオブジェクトが、環境100内に含まれ得ることを理解するであろう。XRシステムは、デフォルト詳細レベル(例えば、デフォルト分解能または表示されるピクセルの数、またはデフォルトサイズまたは外観)においてオブジェクト104を表示のために発生させてもよい。例えば、環境100内のオブジェクトは、デフォルトで4K分解能(3,840×2,160)または任意の他の好適な分解能において提示されてもよい。環境100内のオブジェクトの分解能は、ユーザの眼毎に同一である、または変動してもよい。いくつかの実施形態では、詳細レベルは、オブジェクトのサイズまたは外観を指し得、例えば、オブジェクトは、デフォルトサイズまたはデフォルト色において発生されてもよい。
【0044】
いくつかの実施形態では、ユーザの視野内の1つまたはそれを上回るオブジェクト104を決定することに応じて、XRシステムは、特定の眼瞼運動があるアクションをオブジェクト104に対して実施させる方法に関してユーザに示す、または別様にガイダンスを提供し得る、識別子106(例えば、「自動車の詳細を修正するために1回瞬目する」)を表示のために発生させてもよい。いくつかの実施形態では、XRシステムは、XR環境内のオブジェクト104に対して実施可能な複数の眼瞼運動識別子および対応するアクションを含む、テーブル(例えば、図8の記憶装置808内に記憶され得る、図3のテーブル316)を参照してもよい。例えば、テーブルは、加えて、示される眼瞼運動を検出することに応じて、ユーザに表示されるオブジェクトのサイズを増加または減少させることに対応し得る、識別子(例えば、2回瞬目する)を記憶してもよい。
【0045】
いったん視野内の着目オブジェクトが、識別されると、XRシステムは、センサ(例えば、カメラ)を使用することによって、ユーザの眼瞼運動108を検出してもよい。いくつかの実施形態では、XRシステムは、不随意の瞬目に基づいてアクションを実施することを回避するために(例えば、そのようなアクションがユーザによって所望されない場合)、眼瞼運動が、所定の期間(例えば、0.5秒または1秒)を超えるかどうかを検出してもよい。ユーザの眼瞼運動108(例えば、着目オブジェクトの詳細を修正するアクションに対応する単一の瞬目)を検出することに応答して、XRは、頭部搭載型ディスプレイ102を介してユーザに提供される、オブジェクト104を表示のために再発生させる。例えば、オブジェクト104は、最初に提供されるもの(例えば、4K分解能、3,840×2,160)よりも高い分解能(例えば、8K分解能、7,680×4,320)においてユーザに提示されてもよい。いくつかの実施形態では、検出された眼瞼運動は、XRシステムに、異なる様式でオブジェクト104の詳細を修正させてもよい(例えば、オブジェクトの初期提示と比較してオブジェクトのサイズを増加または減少させる、オブジェクトの初期外観と比較してオブジェクトの色またはテクスチャを変更する等)。
【0046】
いくつかの実施形態では、眼瞼運動を検出するステップは、眼瞼の運動の量を決定するステップを含む、または眼瞼運動を検出するステップは、1つまたはそれを上回る眼瞼レベルを決定するステップを含む。例えば、XRシステムは、センサ(例えば、カメラ)を使用して、眼瞼の運動の量を検出してもよく、検出された量と所定の期間にわたる運動の閾値量(例えば、3秒期間にわたって検出される5回の眼瞼運動)を比較してもよく、眼瞼の運動の検出された量が、所定の期間にわたる運動の閾値量を超えるとき、画像が、修正または選択されてもよい。別の実施例として、XRシステムは、センサ(例えば、カメラ)を使用して、所定の期間にわたる1つまたはそれを上回る眼瞼レベル(例えば、明確に異なる眼瞼レベル)を検出してもよく、検出された量と所定の期間にわたる眼瞼レベルの閾値数(例えば、3秒期間にわたって検出される5つの明確に異なる眼瞼レベル)を比較してもよく、眼瞼レベルの検出された数が、所定の期間にわたる眼レベルの閾値数を超えるとき、画像が、修正または選択されてもよい。
【0047】
図2は、複数のオブジェクトがユーザの視野内で検出される、例示的プロセスを示す。XRシステムは、オブジェクト204および208がそれぞれ、頭部搭載型ディスプレイ202を介してXR環境200を表示されているユーザの視野内にあることを検出してもよい。図2の最上部分における環境200に示されるように、ユーザの視野内にあるものとして検出されるオブジェクト204、208は、最初に、デフォルト詳細レベル(例えば、デフォルト分解能またはデフォルトサイズ)で提示されてもよい。眼瞼運動210(例えば、識別子206において示される「自動車の詳細を修正するために1回瞬目する」に対応する)を検出することに応じて、XRシステムは、修正された詳細レベルを用いて視野内のオブジェクト204を表示のために再発生させてもよい(例えば、オブジェクト204の分解能を向上させる)。他方、眼瞼運動212(例えば、識別子206において示される「飛行機の詳細を修正するために2回瞬目する」に対応する)を検出することに応じて、XRシステムは、修正された詳細レベルを用いて視野内のオブジェクト208を表示のために再発生させてもよい(例えば、オブジェクト208の分解能を向上させる)。
【0048】
いくつかの実施形態では、さらなる眼瞼運動212を検出することは、眼瞼運動210を検出することに応答して実施される修正を、続けて逆転させてもよい(例えば、オブジェクト204は、最初にユーザに提示されたデフォルト分解能に戻ってもよい一方、オブジェクト208は、修正された詳細を用いて提示される)。代替として、オブジェクトは、XRセッション全体を通して、および/または将来のセッションにおいて、修正された状態において維持されてもよい。いくつかの実施形態では、眼瞼運動が再実施されていることを検出することは、アクションを逆転させてもよい(例えば、眼瞼運動210を2回目に検出することは、オブジェクト204を最初にユーザに提示されたデフォルト分解能に戻させてもよい)。いくつかの実施形態では、ユーザの視野内にあり得る複数のオブジェクトのうち、そのようなオブジェクトのうちの一方(例えば、オブジェクト204)は、XR環境200の表示の前景にあってもよく、そのようなオブジェクトのうちの他方は、XR環境200内の表示(例えば、オブジェクト208)の背景にあってもよい。加えて、1つまたはそれを上回るアクションが、ユーザの視野内の修正されたオブジェクトに対して実施されてもよい(例えば、特定の眼瞼運動が、自動車オブジェクト204の扉を開放すること、または飛行機オブジェクト208と相互作用することに対応してもよい)。視野内の直近で修正されたオブジェクトは、アクションがそのようなオブジェクトに対して実施され得るように、「選択された」オブジェクトであってもよい。そのような側面は、ユーザから遠い、または別様に詳細に見られることができないほど小さすぎるオブジェクトが、ユーザがオブジェクトを明確に視認することを可能にするために、修正された詳細での表示のために再発生されることを可能にし得る。
【0049】
本開示のいくつかの側面では、XRシステムは、ユーザの視野内のオブジェクトと一致するユーザの眼瞼運動を検出してもよく、眼瞼が閉じられる相対的な程度を算出し、ユーザの視野内の最初に焦点を合わせるオブジェクトを決定してもよい。いくつかの実施形態では、ユーザが、XR環境に進入すると、XRシステムは、デフォルト視野を設定し、環境内および/または視野内のオブジェクトの数を検出し、ユーザに対する検出されたオブジェクトのそれぞれの個別の仮想距離または焦点距離を算出してもよい。オブジェクトは、ユーザからの異なる仮想距離にあり得る。いくつかの実施形態では、視野内のオブジェクトを識別するステップは、オブジェクトが、個別の仮想距離または焦点距離のユーザに最近接する仮想距離にあることを決定するステップを含む。仮想距離は、例えば、XR環境内のオブジェクトがユーザから位置する知覚距離であってもよく、XR環境内のオブジェクトの座標に基づいて、計算されてもよい。ユーザの眼瞼レベルは、少なくとも部分的に、そのような仮想距離に基づいて計算されてもよく、眼瞼レベルの変化を検出することに応じて、ユーザに最近接する仮想距離にあるオブジェクトが、検出され、それに修正が実施され得る、着目オブジェクトとして選択されてもよい。
【0050】
いくつかの実施形態では、XRシステムは、XR環境200の周囲のユーザの移動を検出し、ユーザが動き回る際、ユーザの視野が変化することを検出してもよい。そのような状況では、ユーザの視野は、ユーザの新しい視野内のオブジェクトの数を決定するために、リセットされてもよい。他方、XRシステムが、XR環境200の周囲のユーザの移動を検出するが、ユーザの注視が、依然として特定のオブジェクト上に固定されたままであることを検出する場合、表示200は、ユーザの移動と一貫する、変動された視点からのそのようなオブジェクトを表示のために発生させ、シミュレートされた環境を維持してもよい。いくつかの実施形態では、仮想現実システムによって検出される眼瞼レベルの任意の変化は、ユーザの視野内のその詳細が修正されるべきであるオブジェクトを決定するために使用されてもよい。XRシステムは、センサ(例えば、制御回路網と組み合わせたジャイロスコープ、加速度計、カメラ等)を使用することによって、XR環境内のユーザの移動を追跡してもよい。
【0051】
図3は、本開示のいくつかの実施形態による、XR環境内のオブジェクトに対してアクションを実施する例示的プロセスを示す。頭部搭載型ディスプレイ302は、オブジェクト304、310、312、314を含む、XR環境300を表示のために発生させてもよい。4つのオブジェクト(書籍オブジェクト304、ランプオブジェクト310、机オブジェクト312、および椅子オブジェクト314)が、環境300内に示されるが、任意の数のオブジェクトおよび任意のタイプのオブジェクトが、表示のために発生され得ることを理解されたい。XRシステム(例えば、図9のシステム900)は、XR環境内のオブジェクトに対して実施可能な眼瞼運動識別子および対応するアクションのテーブル316を(例えば、図8の記憶装置808内に)記憶してもよい。例えば、テーブル316は、所望のアクション「書籍のページをめくるために1回瞬目する、書籍を傾けるために2回瞬目する、書籍からページを破るために3回瞬目する」を促進するためにユーザに表示され得る、識別子306によって示されるような書籍オブジェクト304に関する関連付けを含む、複数の関連付けを記憶してもよい。任意の数のアクションおよび任意のタイプの識別子が、テーブル316内に記憶され得、アクションが、オブジェクトのタイプに依存し得る(例えば、テーブル316は、ランプオブジェクト310に関連する仮想電球をオンにするアクションと関連付けられる識別子を記憶し得る)ことを理解されたい。環境が複数のオブジェクトを含む場合では、オブジェクトは、ユーザの注視がオブジェクトに指向されていることを(例えば、センサを使用して)検出することによって、複数から選択されてもよい。
【0052】
XRシステムは、センサ(例えば、カメラ)を使用することによって、ユーザの眼瞼運動を検出する。本システムは、例えば、センサ出力を分析し、そのような出力と記憶される識別子(例えば、所定の数の瞬目、瞬目パターン、眼瞼運動の量、眼瞼レベル等)を比較することによって、検出された眼瞼運動が、テーブル316内の識別子のうちのいずれかに合致するかどうかを決定してもよい。いくつかの実施形態では、記憶される識別子は、音声コマンドまたは他の入力と組み合わせた眼瞼運動を含んでもよい。いくつかの実施形態では、XRシステムは、不随意の瞬目に基づいてアクションを実施することを回避するために(例えば、そのようなアクションがユーザによって所望されない場合)、眼瞼運動が、所定の期間(例えば、0.5秒)を超えるかどうかを検出してもよい。本システムは、経時的なユーザの眼瞼の開放および閉鎖の程度に基づいて、ユーザの眼瞼運動を検出してもよい。
【0053】
検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させることに応答して、XRシステムは、合致された眼瞼運動に対応するアクションに基づいて、XR環境300の更新されたバージョンを表示のために発生させる。図3の実施例では、本システムは、書籍のページをめくることと関連付けられる眼瞼運動を検出し(318)、閉じられた書籍を描写する、環境300の上側部分における書籍オブジェクト304と比較して、書籍オブジェクト304のめくられたページを描写する、図3の下側部分における環境300に示されるように、そのようなアクションを実行する。当業者は、環境300内のオブジェクトが、種々の方法で操作され得、例えば、椅子オブジェクト314が、机オブジェクト312の異なる部分に隣接して移動され、または種々の方法で改変され、例えば、椅子オブジェクト314からクッションを除去し得ることを理解するであろう。
【0054】
いくつかの実施形態では、選択された着目オブジェクトのために好適な識別子306のサブセットが、特定の眼瞼運動に基づいて実施されるべき利用可能なアクションを決定する際のユーザの便宜のために、ユーザに表示されてもよい。いくつかの実施形態では、XRシステムは、XR環境300内のオブジェクトに対して実施可能な眼瞼運動識別子と対応するアクションとの間の関係を規定する、1つまたはそれを上回るユーザプロファイルを記憶してもよい。例えば、ユーザプロファイルは、例えば、ユーザの便宜のために識別子306と関連付けて表示され得る、ユーザ選好に調整されるアクション、ユーザのお気に入りのアクション、ユーザの直近で実施されたアクション、ユーザの最も一般的に実施されるアクション、ユーザの購入アクション等を含んでもよい。
【0055】
いくつかの実施形態では、XRシステムは、XR環境200の周囲のユーザの移動を検出してもよく、ユーザが動き回る際、ユーザの注視が変化することを検出してもよい。そのような状況では、本システムは、新しい着目オブジェクトを選択してもよい。代替として、本システムは、ユーザの注視がオブジェクト上に留まる間、ユーザがXR環境内で第1の位置から新しい位置にナビゲートしていることを検出し、そのような決定に応答して、ユーザの視点に基づいて、オブジェクトの更新されたバージョンを表示のために発生させてもよい(例えば、ユーザに提示されるオブジェクトのサイズまたは角度を改変する)。オブジェクトの更新されたバージョンは、改変された外観(例えば、ユーザがテーブル316内のそのようなアクションと関連付けられる眼瞼運動を以前に実施した場合では、破かれたページを伴う書籍)を有するオブジェクトをユーザに提示することを含んでもよい。
【0056】
いくつかの実施形態では、図1-2に議論される側面は、図3の実施形態と組み合わせられてもよい(例えば、XR環境内の単一のユーザセッションにおいて、XR環境内のオブジェクトが、より詳細に再発生されてもよく、種々のアクションが、そのようなオブジェクトに対して実施されてもよい)。
【0057】
図4A-4Bは、本開示のいくつかの実施形態による、インジケータがXR環境内のオブジェクトの近傍にある間に音声コマンドを受信する実施例を示す。XRシステム(例えば、図9のシステム900)は、頭部搭載型ディスプレイ402を介して、ユーザにXR環境400を表示のために発生させてもよい。いくつかの実施形態では、XR環境400は、メディアコンテンツの選択および消費を促進するために、双方向性メディアガイドアプリケーションを含んでもよい。XR環境400は、選択可能なメディアコンテンツに関する識別子に対応し得る、1つまたはそれを上回るオブジェクト408、410を含んでもよい。本システムは、センサ(例えば、カメラ)を使用することによって、ユーザの注視が、XR環境の一部(例えば、オブジェクト408の近傍における(図4A))から、XR環境の別の部分(例えば、オブジェクト410の近傍における(図4B))に偏移していることを検出する。図4A-4Bが、例示的であり、ユーザの注視が、いかなるオブジェクトも含有しない、または複数のオブジェクトを含有し得る、XR環境400の一部から、XR環境400の別の部分に偏移していることを理解されたい。
【0058】
注視偏移を検出することに応答して、XRシステムは、XR環境400内に、注視における偏移を示すインジケータ406を表示のために発生させてもよい。例えば、図4Aにおけるインジケータ406は、ユーザの注視が、オブジェクト408(例えば、映画「The Dark Knight」に関する識別子)上にあることを反映し、図4Bでは、インジケータ406は、ユーザの注視が、オブジェクト410(例えば、映画「American Psycho」に関する識別子)に偏移していることを反映する。いくつかの実施形態では、単一のインジケータが、表示のために発生されてもよい、または代替として、複数のインジケータが、表示のために発生されてもよい。いくつかの実施形態では、インジケータは、着目オブジェクトへの近接に基づいて、半透明度において変動してもよい。図4A-4Bの実施例では、インジケータ406は、着目オブジェクトに指向される矢印として示されるが、インジケータが、関連付けられるオブジェクトをユーザに強調させる、または顕著に表示させるための任意の好適な印またはマーキングを備え得ることが、当業者によって理解されるであろう。例えば、インジケータは、着目オブジェクトを強調するためのある色または形状、眼球の画像または絵文字、インジケータの近傍におけるオブジェクトの拡大、インジケータの近傍におけるオブジェクトのアニメーション等であってもよい。
【0059】
本システムは、センサ(例えば、マイクロホン)を使用することによって、(例えば、インジケータが、着目オブジェクトに重複する、または別様にその所定の距離内にある場合)インジケータ406がオブジェクト410の近傍にある間に音声コマンドを検出してもよい。XRシステムは、音声コマンドを処理し、(例えば、音声コマンド内に含まれるオブジェクトと、インジケータ406によって示されるようなユーザの注視が指向されるオブジェクトとの間の合致が存在するという条件で)アクションを実行してもよい。例えば、図4Aの実施例における音声コマンド404を受信することに応じて、本システムは、オブジェクト408と関連付けられるメディアアセット「The Dark Knight」の提示を開始してもよく、図4Bの実施例における音声コマンド405を受信することに応じて、本システムは、オブジェクト410と関連付けられるメディアアセット「American Psycho」の提示を開始してもよい。いくつかの実施形態では、インジケータが、ユーザの注視を正確に反映していないことがユーザによって決定される場合、本システムは、本システムがユーザの注視を再較正することを要求する、および/またはユーザが自身が注視していると考える表示の部分を示す、好適な音声コマンドをユーザから受け取ってもよい。
【0060】
いくつかの実施形態では、ユーザの注視は、眼の網膜移動(センサ、例えば、網膜からの光源の反射を測定するカメラ、眼追跡グラス、画面ベースの眼追跡によって追跡される)に基づいて検出される。ユーザの網膜移動は、表示上のインジケータ406の移動として、XR環境の表示にプロットまたは変換されてもよい。本開示のいくつかの側面では、本システムは、網膜移動のレートが、所定の値を超えるかどうかを決定してもよく、そのような決定に応答して、網膜移動をXR環境の表示上のインジケータ406の移動に変換するとき、正規化を実施する。例えば、注視偏移の速度が、所定の値を超える場合、正規化が、表示上のインジケータ406の移動を減速させるために(例えば、ユーザが表示上のインジケータ406の移動をより容易に追跡することを可能にするために)実施されてもよい。インジケータのクラスタ全体が、表示のそのような新しい部分に移動してもよい。
【0061】
いくつかの実施形態では、本システムは、ユーザ音声コマンドに応答する電子音声認識(または音声支援)デバイス(例えば、テレビ、コンピュータ、音声アシスタント)を含み、音声入力は、オーディオまたはデジタル信号(またはオーディオまたはデジタル入力)の形態であってもよい。本システムは、自然言語理解(NLU)技法を実施してもよく、音声コマンドをテキストに転写するために、自然言語理解回路網および/または音声テキスト化回路網を含んでもよく、音声コマンドを解析し、音声入力からキーワードを識別および抽出してもよい。本システムは、抽出されたキーワードと着目オブジェクトと関連付けられるメタデータを比較し、合致が存在するかどうか、例えば、音声コマンドを実行するかどうかを決定してもよい。いくつかの実施形態では、受信された音声コマンドが、インジケータの近傍におけるオブジェクトに合致しない場合、本システムは、ユーザに不一致を通知し、関連付けられるアクションを実行することを控える、または新しい音声コマンドに関してユーザをプロンプトしてもよい。
【0062】
いくつかの実施形態では、音声コマンドは、メディアアセットの識別およびアクション(例えば、再生、早送り、巻き戻し等)を実行するためのコマンドまたは表示上に新しいメディアアセットを提示する(例えば、他のメディアアセットを通してスクロールする、またはカルーセル内のメディアアセットの新しいページに移動する)ための命令を含む。本開示のいくつかの側面では、インジケータがオブジェクトの近傍にあることを決定するステップは、ユーザの注視が少なくとも所定の閾値期間(例えば、5秒)にわたってオブジェクトに指向されていることを決定するステップを含む。
【0063】
図5は、本開示のいくつかの実施形態による、インジケータがXR環境内のオブジェクトの近傍にある間に音声コマンドを受信する実施例を示す。XRシステム(例えば、図9のシステム900)は、頭部搭載型ディスプレイ502を含み、頭部搭載型ディスプレイ502を用いて、オブジェクト508、510を含む、XR環境500を表示のために発生させてもよい。図5の上側環境500に示されるように、本システムは、センサ(例えば、カメラ)を使用することによって、ユーザの注視がXR環境の一部(例えば、オブジェクト508を含む)に指向されていることを検出してもよい。本システムは、XR環境500のオブジェクト508を含む部分の近傍において、複数の不透明度ベースのインジケータ506をXR環境500内での表示のために発生させてもよい。図5の実施例では、インジケータ506は、着目オブジェクトに指向される矢印として示されるが、インジケータが、関連付けられるオブジェクトをユーザに強調させる、または顕著に表示させるための任意の好適な印またはマーキングを備え得ることが、当業者によって理解されるであろう。例えば、インジケータは、着目オブジェクトを強調するためのある色または形状、眼球の画像または絵文字、インジケータの近傍におけるオブジェクトの拡大、インジケータの近傍におけるオブジェクトのアニメーション等であってもよい。
【0064】
本システムは、例えば、エッジ検出技法、オブジェクト508の座標を読み出すこと、オブジェクト508を囲繞する面積のピクセル値を分析すること等によって、オブジェクト508の境界(例えば、エッジ、形状輪郭、端)を識別してもよい。オブジェクトの識別された境界に基づいて、XRシステムは、複数の不透明度ベースのインジケータ506のうちの少なくとも1つの不透明度を変動させてもよい。いくつかの実施形態では、本システムは、複数の不透明度ベースのインジケータのうちの少なくとも1つが、オブジェクトの境界に重複する、またはその所定の距離内にあるかどうかを決定してもよく、そのような決定に応答して、オブジェクト508の境界に重複する1つまたはそれを上回るインジケータ506の個別の不透明度を変動させてもよい。例えば、本システムは、図9のXRシステム900における着目オブジェクトの座標とインジケータ506の座標を比較してもよい。いくつかの実施形態では、本システムが、ユーザの注視が表示の一部(例えば、オブジェクト508を含む)から、別のオブジェクト(例えば、オブジェクト510)を含む表示の一部に偏移していることを検出する場合、本システムは、複数の透明度ベースのインジケータを、オブジェクト510を含む表示の部分の近傍にオーバーレイさせる。インジケータのクラスタ全体が、表示のそのような新しい部分に移動してもよい。
【0065】
本システムは、オブジェクトからの距離に基づいて、個別の不透明度を変動させてもよい。図5の実施例に示されるように、インジケータ506の個別の不透明度は、インジケータ506とオブジェクト508との間の距離が減少するにつれて、増加してもよい。これは、それにユーザの注視が指向される表示の部分をユーザに強調するために望ましくあり得る。代替として、図6の実施例に示されるように、インジケータ606の個別の不透明度は、個別のインジケータ606とオブジェクト608との間の距離が減少するにつれて、減少してもよい。これは、着目オブジェクトの部分を不明瞭にすることを最小限にするために望ましくあり得る。いくつかの実施形態では、本システムは、インジケータのうちのいずれかが、着目されない場合がある、別のオブジェクトに重複する、または別様にその近傍にあるかどうかを決定してもよく、そのような状況では、インジケータは、そのような着目されないオブジェクトの部分を不明瞭にすること、またはそのようなオブジェクトが着目されることをユーザに誤って示すことのいずれかを回避するために、半透明であるように設定されてもよい。
【0066】
図5および図6の実施例に示されるように、それぞれ、XR環境500、600は、双方向性メディアガイドを含んでもよい。インジケータ506、606の近傍におけるオブジェクトと関連付けられるアクションを実施するための音声コマンドを受信することに応答して、本システムは、アクションを実施してもよい(例えば、オブジェクト508、608と関連付けられる俳優である「Christian Bale」と関連付けられるメタデータを有する映画に関する識別子を提示のために発生させる)。図5-6の実施例は、「俳優」カテゴリに関連するオブジェクトを示すが、種々の他のカテゴリが、表示のために発生され、閲覧されてもよい(例えば、ジャンル、キャスト、監督等)。いくつかの実施形態では、環境500、600は、XR頭部搭載型デバイスの有無を問わずに提示されてもよい。例えば、XR環境は、完全没入型VRとして、または図5-6に示されるようなテレビ画面上にオーバーレイされるARまたはMRにおいて提示されてもよい。
【0067】
いくつかの実施形態では、図1-4の実施例の特徴は、図5-6の実施例の特徴と併せて使用されてもよい。例えば、インジケータ(例えば、図1におけるインジケータ106等)は、(例えば、図3のテーブル316における)実施可能なアクションと関連付けられ得る、眼瞼運動または注視を実施する際にユーザを誘導するために、ユーザに表示されてもよい。図5および6のインジケータはまた、他の環境(例えば、ビデオゲーム、スポーツ、通信、ソーシャルメディア等)に関連して使用されてもよい。
【0068】
図7は、本開示のいくつかの実施形態による、XR環境内のアイテムに関連する付加的情報を提示する実施例を示す。頭部搭載型ディスプレイ702は、XR環境700をユーザに提示する。XR環境700は、1つまたはそれを上回るオブジェクト、例えば、洗濯機オブジェクト702、冷蔵庫オブジェクト704、壁オブジェクト708等を含んでもよい。いくつかの実施形態では、XR環境700は、環境700内でとられ得るアクションをユーザに示し得る、識別子706を含む。環境700は、建物(例えば、家屋またはアパート)内の部屋を示すが、環境700は、任意の仮想または拡張環境、例えば、山脈、景色の良い場所、ユーザによってプレーされているビデオゲーム等を備えてもよい。
【0069】
本システムは、(例えば、センサを介して)ユーザの眼運動を検出し、検出された眼運動に基づいて、オブジェクト(例えば、洗濯機オブジェクト702、冷蔵庫オブジェクト704、および/または壁オブジェクト708)が少なくとも所定の期間710(例えば、5秒)にわたってユーザの視野内にあるかどうかを決定する。オブジェクト(例えば、壁オブジェクト)が、少なくとも所定の期間にわたって視野内にあることを決定することに応答して、本システムは、オブジェクト708に関連する1つまたはそれを上回るアイテム714をXR環境内での表示のために発生させる。オブジェクトに関連する1つまたはそれを上回るアイテム714は、テキスト情報、画像、ビデオ、またはそれらの任意の組み合わせを備えてもよく、(例えば、図8の記憶装置808内に記憶される)アイテム情報データベース712から読み出されてもよい。例えば、アイテム714は、壁オブジェクト708の厚さを示し、そのような付加的情報は、ユーザがXR環境700内で頭部搭載型ディスプレイ702を介して壁オブジェクト708を注視するときに提供されてもよい。いくつかの実施形態では、眼運動を検出するステップは、眼瞼運動を監視するステップを含む。本開示のいくつかの側面では、オブジェクト708に関連する1つまたはそれを上回るアイテム714をXR環境内での表示のために発生させるステップは、オブジェクト708が、少なくとも所定の期間にわたって視野内にあること、およびユーザの注視内にあることの両方を検出することに応答して、実施される。いくつかの実施形態では、本システムは、(例えば、ユーザによる、またはユーザの履歴データに基づいて本システムによって推奨される)所定の期間の修正を可能にする。
【0070】
別の実施例として、環境700は、山脈であってもよく、ユーザの(例えば、センサを介して検出された)検出された眼運動に基づいて、オブジェクト(例えば、山)が少なくとも所定の期間にわたってユーザの視野内にあることを決定することに応じて、山オブジェクトに関する情報が、ユーザへの表示のために発生されてもよい(例えば、山の名前、山の標高、山の場所等)。
【0071】
本開示のいくつかの側面では、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定するステップは、XRセッションの間の所定の期間(例えば、5秒)にわたって視野がオブジェクト上に連続的にあることを決定するステップを含んでもよい。例えば、本システムが、ユーザの視野が所定の期間へのタイマのカウントダウンの間に偏移していることを検出する場合、カウントダウンは、リセットされてもよい。代替として、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定するステップは、XRセッションの間の所定の期間(例えば、5秒)にわたって視野がオブジェクト上に非連続的にあることを決定するステップを含んでもよい。例えば、本システムが、ユーザの視野が所定の期間へのタイマのカウントダウンの間に偏移していることを検出する場合、カウントダウンは、一時停止され、ユーザの注視がオブジェクトに戻ったことを検出することに応じて、再開されてもよい。
【0072】
いくつかの実施形態では、本システムは、新しいオブジェクトが少なくとも所定の時間にわたって視野内にあるかどうかを決定してもよい。例えば、本システムがそのような決定を行うことに応答して、本システムは、新しいオブジェクトに関連する1つまたはそれを上回るアイテムをXR環境内での表示のために発生させる一方、オブジェクトに関連する1つまたはそれを上回るアイテム(例えば、オブジェクト708およびアイテム714)をXR環境内での表示のために発生させ続けてもよい。これは、ユーザが、少なくともXRセッションの持続時間の間に複数のアイテムに関する付加的情報を視認することを可能にする。いくつかの実施形態では、付加的情報アイテムは、XR環境内の次のユーザセッションにおいて維持されてもよい。
【0073】
いくつかの実施形態では、本システムは、オブジェクト708が第1の所定の期間にわたって視野内に存在することなく、1つまたはそれを上回るアイテム714の表示の開始から少なくとも所定の期間(例えば、10秒)が経過していることを決定してもよい。例えば、アイテム714がユーザに提供されて以降、少なくとも所定の期間(例えば、10秒)が経過しており、アイテム714と関連付けられるオブジェクト708が、そのような期間の間に視野内にない場合、アイテム714の表示は、停止されてもよい(例えば、ユーザが、もはやオブジェクト708に着目していない場合があるため)。
【0074】
ある実施形態では、付加的入力(例えば、音声コマンド、ハンドジェスチャ、タッチ)が、ユーザの眼運動を検出することと組み合わせて利用されてもよい。例えば、本システムは、ユーザが、もはや着目アイテムに関連する付加的情報を視認することを所望していないことを示す音声コマンドを受信してもよい、または付加的情報を表示するための音声コマンドを受信してもよく、アイテム情報データベース712から着目アイテム(例えば、アイテム708)に関連する付加的情報を読み出してもよい。
【0075】
図8は、本開示のいくつかの実施形態による、XRシステムにおける例証的デバイスのブロック図である。XRシステムにおけるデバイス800は、コンピュータネットワークを経由してXRデバイス(例えば、それぞれ、図1-7のデバイス102、202、302、402、502、602、702)に伝送される、XR環境を発生させる、表示する、および/または管理するための1つまたはそれを上回るサーバを含んでもよい。デバイス800は、制御回路網804および/またはI/O経路810を含んでもよい。制御回路網804は、処理回路網806等の任意の好適な処理回路網に基づいてもよい。本明細書に言及されるように、処理回路網は、1つまたはそれを上回るマイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ、プログラマブル論理デバイス、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)等に基づく回路網を意味するように理解されるべきであり、マルチコアプロセッサ(例えば、デュアルコア、クアッドコア、ヘキサコア、または任意の好適な数のコア)またはスーパーコンピュータを含んでもよい。
【0076】
いくつかの実施形態では、処理回路網806は、複数の別個のプロセッサまたは処理ユニット、例えば、複数の同一のタイプの処理ユニット(例えば、2つのIntel Core i7プロセッサ)または複数の異なるプロセッサ(例えば、Intel Core i5プロセッサおよびIntel Core i7プロセッサ)を横断して分散されてもよい。I/O経路810は、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を経由して、デバイス情報または他のデータおよび/または他のコンテンツおよびデータを、処理回路網806および記憶装置808を含む制御回路網804に提供してもよい。制御回路網804は、I/O経路810を使用して、コマンド、要求、信号(デジタルおよびアナログ)、および他の好適なデータを送信および受信するために使用されてもよい。I/O経路810は、制御回路網804(および具体的には、処理回路網806)を1つまたはそれを上回る通信経路に接続してもよい。いくつかの実施形態では、記憶装置808は、図3のテーブル316および/または図7のアイテム情報データベース712を含んでもよい。
【0077】
いくつかの実施形態では、制御回路網804は、メモリ(例えば、記憶装置808)内に記憶される、XRコンテンツ発生および/または処理機能の実行のための命令を実行する。命令は、不揮発性メモリ814および/または揮発性メモリ812のいずれかの中に記憶され、実行時に処理回路網806にロードされてもよい。XRコンテンツを発生および処理するためのシステム(例えば、図1-7を参照して説明されるシステム)は、ユーザデバイス(例えば、エンドユーザデバイス920)および/またはサーバ(例えば、サーバ900)上で実装されるスタンドアロンアプリケーションである、またはデバイス800に従って複数のデバイスを横断して分散されてもよい。本システムは、ソフトウェアまたは実行可能命令のセットとして実装されてもよい。XR処理の本明細書に議論される実施形態のうちのいずれかを実施するための命令は、非一過性コンピュータ可読媒体(例えば、ハードドライブ、DRAM集積回路上のランダムアクセスメモリ、BLURAYディスク上の読取専用メモリ等)または一過性コンピュータ可読媒体(例えば、データおよび/または命令を搬送する伝搬信号)上でエンコードされてもよい。例えば、本明細書に説明されるプロセスによる命令は、記憶装置808内に記憶され、デバイス800の制御回路網804によって実行されてもよい。
【0078】
制御回路網804は、1つまたはそれを上回るアナログチューナ、1つまたはそれを上回るMPEG-2デコーダまたは他のデジタルデコード回路網、高精細チューナ、または任意の他の好適な同調またはビデオ回路またはそのような回路の組み合わせ等のビデオ発生回路網および同調回路網を含んでもよい。エンコード回路網(例えば、無線、アナログ、またはデジタル信号を記憶のためのMPEG信号に変換するため)もまた、含まれてもよい。制御回路網804はまた、コンテンツを図9のエンドユーザデバイス920、925、930の好ましい出力フォーマットにアップコンバートおよびダウンコンバートするためのスケーラ回路網を含んでもよい。回路網804はまた、デジタル信号とアナログ信号との間で変換するためのデジタル/アナログコンバータ回路網と、アナログ/デジタルコンバータ回路網とを含んでもよい。同調およびエンコード回路網は、コンテンツを受信し、表示する、再生する、または記録するために使用されてもよい。同調およびエンコード回路網はまた、ガイダンスデータを受信するために使用されてもよい。例えば、同調、ビデオ発生、エンコード、デコード、暗号化、復号化、スケーラ、およびアナログ/デジタル回路網を含む、本明細書に説明される回路網は、1つまたはそれを上回る汎用または特殊化プロセッサ上で起動するソフトウェアを使用して実装されてもよい。複数のチューナが、同時同調機能(例えば、視聴および記録機能、物理的環境のビデオまたは他の記録を組み込むための機能、複数チューナ記録等)を取り扱うために提供されてもよい。記憶装置808が、デバイス800とは別個のデバイスとして提供される場合、同調およびエンコード回路網(複数のチューナを含む)は、記憶装置808と関連付けられてもよい。デバイス800は、各デバイス(例えば、102、202、302、402、502、602、702)と通信する中央デバイスであってもよい。代替として、デバイス800は、デバイス104に対応してもよく、すなわち、各システム(例えば、図1-7の)は、その独自のデバイス920を有していない場合があり、むしろ、単一の中央デバイス800が、システム毎にXR環境発生およびプロセスを実行してもよい。
【0079】
図9は、本開示のいくつかの実施形態による、XRコンテンツシステムの例証的ブロック図を示す。少なくとも1つのXRコンテンツサーバ900が、本明細書に説明されるもの等のXRコンテンツを発生させる。XRコンテンツサーバ900は、インターネット910を経由して、デバイス920、925、930を含む、複数のエンドユーザデバイスにコンテンツを伝送してもよい。エンドユーザXRデバイスは、例えば、パーソナルコンピュータ、モバイルデバイス(例えば、スマートフォン)、および/またはXR環境を提示し、それとの相互作用を可能にするように構成される、XRヘッドセット、ゴーグル、スーツ、グローブ等を含む、ウェアラブルデバイスを含んでもよい。これらのデバイスは、オペレータ/ユーザが、(例えば、表示画面を介して)マルチユーザXRコンテンツを視認し、それと相互作用することを可能にするように構成される。これらのデバイスは、例えば、本明細書に説明されるような視点および注意指向キューを提示する、視覚、オーディオ、および触覚フィードバックを提供してもよい。エンドユーザデバイス920、925、930はまた、インターネット910を介してサーバ900にデータを伝送し、そのようなデータは、デバイス920、925、930が向いている方向(したがって、サーバ900が各デバイス920、925、930上で表示のために発生させなければならないビュー)を示す配向情報、各デバイス920、925、930によって検出されるオーディオ信号、およびXRオブジェクトの選択等のユーザ入力を含む。サーバ900は、次いで、デバイス920、925、930毎にXR環境のビューを発生させてもよい。
【0080】
図10は、本開示のいくつかの実施形態による、XR環境内でオブジェクトを表示のために再発生させるための詳細な例証的プロセスのフローチャートである。プロセス1000またはその任意のステップが、図8-9に示されるデバイスのうちのいずれかの上で実施される、またはそれによって提供され得ることに留意されたい。例えば、プロセス1300は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1000の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図11のプロセス1100、図12のプロセス1200、図13のプロセス1300、図14のプロセス1400、図15のプロセス1500)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。
【0081】
1002において、入力/出力(I/O)回路網(例えば、頭部搭載型ディスプレイ102のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。
【0082】
1004において、制御回路網(例えば、図8の制御回路網804および/または図1の頭部搭載型ディスプレイ102の制御回路網)が、ユーザ選択を受信することに応答して、オブジェクト(例えば、図1の自動車オブジェクト104)を含む、XR環境を表示のために(例えば、図1の頭部搭載型デバイス102を介して)発生させてもよい。
【0083】
1006において、I/O回路網(例えば、頭部搭載型ディスプレイ102のI/O回路網)が、センサ(例えば、カメラ)から入力を受信してもよい。センサは、ユーザの眼の種々の属性(例えば、眼瞼運動、注視)を検出してもよい。
【0084】
1008において、制御回路網(例えば、図8の制御回路網804および/または図1の頭部搭載型ディスプレイ102の制御回路網)は、受信された入力に基づいて、ユーザの視野内のオブジェクト(例えば、図1の自動車オブジェクト104)を識別してもよい。いくつかの実施形態では、制御回路網は、視野内の仮想オブジェクトと関連付けられるオブジェクト識別子を含む、視野に関するデータ構造を発生させてもよく、そのようなデータ構造は、XR環境内の視野の位置を表す座標を含んでもよい。制御回路網は、XRデバイス102によって捕捉されたデータ構造および/または画像に基づいて、現在の視野を決定し、ユーザの視野内のオブジェクトを識別してもよい。
【0085】
1010において、制御回路網は、センサ(例えば、カメラ)からの受信された入力に基づいて、ユーザの眼瞼運動(例えば、眼瞼運動の量、瞬目パターン、眼瞼レベル等)を検出してもよい。いくつかの実施形態では、そのような眼瞼運動は、ユーザのそのような不随意の瞬目をコマンドとして解釈することを回避するために、不随意の瞬目から区別されてもよい。例えば、本システムは、眼が所定の時間量(例えば、0.5秒)未満にわたって閉じられたままである瞬目パターンを無視してもよい。
【0086】
1012において、制御回路網は、眼瞼運動を検出することに応答して、修正された詳細レベルを用いてオブジェクト(例えば、図1の自動車オブジェクト104)を表示のために再発生させてもよい。例えば、制御回路網は、特定の瞬目パターンを検出することに応じて、より高い分解能においてオブジェクトを表示のために再発生させてもよい。いくつかの実施形態では、制御回路網は、検出された眼瞼運動が、オブジェクトの詳細レベルを修正するための眼瞼運動識別子に合致するかどうかを決定するために、眼瞼運動識別子と実施可能なアクションとの間の関連付けを記憶する、テーブル(例えば、図3のテーブル316)を参照してもよい。
【0087】
図11は、本開示のいくつかの実施形態による、XR環境内でオブジェクトを表示のために再発生させるための詳細な例証的プロセスのフローチャートである。例えば、プロセス1100は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1100の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図10のプロセス1000、図12のプロセス1200、図13のプロセス1300、図14のプロセス1400、図15のプロセス1500)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。
【0088】
1102において、I/O回路網(例えば、頭部搭載型ディスプレイ202のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。
【0089】
1104において、制御回路網(例えば、図8の制御回路網804および/または図2の頭部搭載型ディスプレイ202の制御回路網)が、ユーザ選択を受信することに応答して、複数のオブジェクト(例えば、図2の自動車オブジェクト204および図2の飛行機オブジェクト208)を含む、XR環境を表示のために(例えば、図2の頭部搭載型デバイス202を介して)発生させてもよい。
【0090】
1106において、I/O回路網(例えば、頭部搭載型ディスプレイ102のI/O回路網)が、センサ(例えば、カメラ)から入力を受信してもよい。センサは、ユーザの眼の種々の属性(例えば、眼瞼運動、注視)を検出してもよい。
【0091】
1108において、制御回路網(例えば、図8の制御回路網804および/または図1の頭部搭載型ディスプレイ202の制御回路網)は、受信された入力に基づいて、ユーザの視野内のオブジェクト(例えば、図2の自動車オブジェクト204および図2の飛行機オブジェクト208)を識別してもよい。いくつかの実施形態では、制御回路網は、視野内の仮想オブジェクトと関連付けられるオブジェクト識別子を含む、視野に関するデータ構造を発生させてもよく、そのようなデータ構造は、XR環境内の視野の位置を表す座標を含んでもよい。制御回路網は、XRデバイス202によって捕捉されたデータ構造および/または画像に基づいて、現在の視野を決定し、ユーザの視野内のオブジェクトを識別してもよい。
【0092】
1110において、制御回路網は、センサ(例えば、カメラ)からの受信された入力に基づいて、ユーザの眼瞼運動(例えば、眼瞼運動の量、瞬目パターン、眼瞼レベル等)を検出してもよい。いくつかの実施形態では、そのような眼瞼運動は、ユーザのそのような不随意の瞬目をコマンドとして解釈することを回避するために、不随意の瞬目から区別されてもよい。例えば、本システムは、眼が所定の時間量(例えば、0.5秒)未満にわたって閉じられたままである瞬目パターンを無視してもよい。
【0093】
1112において、制御回路網は、眼瞼運動が、第1のオブジェクト(例えば、図2の自動車オブジェクト204)と関連付けられるかどうかを決定してもよい。図2の実施例では、制御回路網は、検出された眼瞼運動が、眼瞼運動識別子「自動車の詳細を修正するために1回瞬目する」(例えば、図3のテーブル316内に記憶される)に合致するかどうかを決定してもよい。
【0094】
1114において、検出された眼瞼運動が、第1のオブジェクト(例えば、図2の自動車オブジェクト204)に関する眼瞼運動識別子に合致することを決定することに応じて、制御回路網は、修正された詳細レベルを用いてそのようなオブジェクトを表示のために再発生させてもよい。例えば、制御回路網は、特定の瞬目パターンを検出することに応じて、最初に提示されるものよりも高い分解能において、または特定の瞬目パターンを検出することに応じて、最初に提示されるものよりも大きいサイズにおいて、そのようなオブジェクトを表示のために再発生させてもよい。
【0095】
1116において、制御回路網が、眼瞼運動が第1のオブジェクト(例えば、図2の自動車オブジェクト204)と関連付けられないことを決定する場合、制御回路網は、眼瞼運動が別のオブジェクト(例えば、図2の飛行機オブジェクト208)と関連付けられるかどうかを決定してもよい。図2の実施例では、制御回路網は、検出された眼瞼運動が、眼瞼運動識別子「飛行機の詳細を修正するために2回瞬目する」(例えば、図3のテーブル316内に記憶される)に合致するかどうかを決定してもよい。
【0096】
1118において、検出された眼瞼運動が、第2のオブジェクト(例えば、図2の飛行機オブジェクト208)に関する眼瞼運動識別子に合致することを決定することに応じて、制御回路網は、修正された詳細レベルを用いてそのようなオブジェクトを表示のために再発生させてもよい。例えば、制御回路網は、特定の瞬目パターンを検出することに応じて、最初に提示されるものよりも高い分解能において、または特定の瞬目パターンを検出することに応じて、最初に提示されるものよりも大きいサイズにおいて、オブジェクトを表示のために再発生させてもよい。したがって、ユーザは、自身の眼瞼を作動させることによって、選択的に自身の注視または焦点をXR環境内で偏移させ得る。
【0097】
図12は、本開示のいくつかの実施形態による、XR環境内のオブジェクトに対してアクションを実施するための詳細な例証的プロセスのフローチャートである。例えば、プロセス1200は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1200の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図10のプロセス1000、図11のプロセス1100、図13のプロセス1300、図14のプロセス1400、図15のプロセス1500)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。
【0098】
1202において、I/O回路網(例えば、頭部搭載型ディスプレイ302のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。
【0099】
1204において、制御回路網(例えば、図8の制御回路網804および/または図3の頭部搭載型ディスプレイ302の制御回路網)が、ユーザ選択を受信することに応答して、オブジェクト(例えば、図3の書籍オブジェクト304)を含む、XR環境を表示のために(例えば、図3の頭部搭載型デバイス302を介して)発生させてもよい。いくつかの実施形態では、制御回路網は、複数のオブジェクト(例えば、図3の書籍オブジェクト304、ランプオブジェクト310、机312、椅子314)を発生させてもよい。
【0100】
1206において、制御回路網は、オブジェクトに対して実施可能な眼瞼運動識別子および対応するアクションのテーブル(例えば、図3のテーブル316)をメモリ(例えば、図8の記憶装置808および/または図3の頭部搭載型ディスプレイ302の記憶装置)内に記憶する、またはそれにメモリ内でアクセスしてもよい。
【0101】
1208において、制御回路網は、センサ(例えば、カメラ)からの受信された入力に基づいて、ユーザの眼瞼運動(例えば、眼瞼運動の量、瞬目パターン、眼瞼レベル等)を検出してもよい。いくつかの実施形態では、そのような眼瞼運動は、ユーザのそのような不随意の瞬目をコマンドとして解釈することを回避するために、不随意の瞬目から区別されてもよい。例えば、本システムは、眼が所定の時間量(例えば、0.5秒)未満にわたって閉じられたままである瞬目パターンを無視してもよい。
【0102】
1210において、制御回路網は、検出された眼瞼運動が、テーブル(例えば、図3のテーブル316)内の識別子のうちのいずれかに合致するかどうかを決定する。いくつかの実施形態では、制御回路網は、センサ出力を分析し、そのような出力と記憶される識別子(例えば、所定の数の瞬目、瞬目パターン、眼瞼運動の量、眼瞼レベル等)を比較してもよい。いくつかの実施形態では、記憶される識別子は、音声コマンドまたは他の入力と組み合わせた眼瞼運動を含んでもよい。
【0103】
1212において、制御回路網は、検出された眼瞼運動が、記憶される眼瞼運動識別子に合致するかどうかを決定する。いくつかの実施形態では、制御回路網は、合致スコアを算出してもよく、算出された合致スコアが所定の閾値を超えるとき、検出された眼瞼運動と記憶される眼瞼運動識別子との間に合致が存在することを決定してもよい。
【0104】
1214において、検出された眼瞼運動が記憶される眼瞼運動識別子に合致することを決定することに応じて、制御回路網は、合致された眼瞼運動に対応するアクションに基づいて、XR環境の更新されたバージョンを表示のために発生させる。図3の実施例では、XR環境300の更新されたバージョンは、(例えば、書籍オブジェクト304が閉じられている、図3の上側部分に図示される環境300と比較して、図3の下側部分に図示される環境300において)めくられたページを有する、書籍オブジェクト304を含む。
【0105】
図13は、本開示のいくつかの実施形態による、インジケータがXR環境内のオブジェクトの近傍にある間に音声コマンドを受信するための詳細な例証的プロセスのフローチャートである。例えば、プロセス1300は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1300の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図10のプロセス1000、図11のプロセス1100、図12のプロセス1200、図14のプロセス1400、図15のプロセス1500)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。
【0106】
1302において、I/O回路網(例えば、図4A-4Bの頭部搭載型ディスプレイ402のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。
【0107】
1304において、制御回路網(例えば、図8の制御回路網804および/または図4Aの頭部搭載型ディスプレイ402の制御回路網)が、ユーザ選択を受信することに応答して、オブジェクト(例えば、図4のオブジェクト408)を含む、XR環境を表示のために(例えば、図4の頭部搭載型デバイス402を介して)発生させてもよい。いくつかの実施形態では、制御回路網は、複数のオブジェクト(例えば、図4のオブジェクト408および410)を発生させてもよい。
【0108】
1306において、制御回路網は、ユーザの注視を検出してもよい。例えば、センサ(例えば、カメラ)が、ユーザの網膜移動を追跡するために使用されてもよく、ユーザのそのような網膜移動は、XR環境(例えば、図4A-4Bの環境400)の表示にプロットされてもよい。
【0109】
1308において、制御回路網は、ユーザの注視が、オブジェクト(例えば、図4A-4Bのオブジェクト410)を含む、XR環境の第2の部分に偏移しているかどうかを決定してもよい。いくつかの実施形態では、ユーザの注視は、いかなるオブジェクトも含まれない表示の第1の部分から偏移している場合がある。代替として、表示のそのような第1の部分は、オブジェクト(例えば、図4A-4Bのオブジェクト408)を含んでもよい。
【0110】
1310において、ユーザの注視が、オブジェクト(例えば、図4A-4Bのオブジェクト410)を含む、XR環境のそのような第2の部分に偏移していることを決定することに応答して、制御回路網は、注視における偏移のインジケータ(例えば、図4のインジケータ406)を表示のために発生させてもよい。例えば、そのようなインジケータは、ユーザが、本システムが自身の注視を正確に追跡していることを確認することを可能にする。
【0111】
1312において、ユーザの注視が、XR環境のそのような第2の部分に偏移していないことを決定することに応答して、制御回路網は、ユーザの注視が偏移していない、または表示の異なる部分に偏移していることを決定してもよく、ユーザの注視が指向される表示の部分において、インジケータ(例えば、図4のインジケータ406)を表示のために発生させてもよい。
【0112】
1314において、I/O回路網(例えば、図4A-4Bの頭部搭載型ディスプレイ402のI/O回路網)が、インジケータ(例えば、図4のインジケータ406)が着目オブジェクト(例えば、図4Aのオブジェクト408または図4Bのオブジェクト410)の近傍にある間に音声コマンドを受信してもよい。いくつかの実施形態では、制御回路網(例えば、図8の制御回路網804および/または図4Aの頭部搭載型ディスプレイ402の制御回路網)は、音声コマンドがそのような着目オブジェクトに関連するかどうかを決定してもよい。図4Aの実施例では、制御回路網は、「「The Dark Knight」を再生する」の音声コマンドからキーワードを抽出し、抽出されたキーワードとそれにユーザの注視が指向されるオブジェクト(例えば、オブジェクト408)と関連付けられるメタデータを比較し、音声コマンドが着目オブジェクトに関連するかどうかを決定してもよい。
【0113】
1316において、制御回路網は、オブジェクトに関連する音声コマンドに対応するアクションを実行してもよい。例えば、図4Bの実施例では、オブジェクト410、すなわち、メディアコンテンツアイテム「American Psycho」に関する識別子が、インジケータ406の近傍にあり、音声コマンド405(「「American Psycho」を再生する」)を受信することに応じて、ユーザへのそのようなメディアアセットの提示が、開始されてもよい。
【0114】
図14は、本開示のいくつかの実施形態による、XR環境内のインジケータの不透明度を変動させるための詳細な例証的プロセスのフローチャートである。プロセス1400またはその任意のステップが、図8-9に示されるデバイスのうちのいずれかの上で実施される、またはそれによって提供され得ることに留意されたい。例えば、プロセス1400は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1400の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図10のプロセス1000、図11のプロセス1100、図12のプロセス1200、図13のプロセス1300、図15のプロセス1500)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。
【0115】
1402において、I/O回路網(例えば、図5の頭部搭載型ディスプレイ502のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。
【0116】
1404において、制御回路網(例えば、図8の制御回路網804および/または図5の頭部搭載型ディスプレイ502の制御回路網)が、ユーザ選択を受信することに応答して、オブジェクト(例えば、図5のオブジェクト508)を含む、XR環境を表示のために(例えば、図5の頭部搭載型デバイス502を介して)発生させてもよい。いくつかの実施形態では、制御回路網は、複数のオブジェクト(例えば、図5のオブジェクト508および510)を発生させてもよい。
【0117】
1406において、制御回路網は、ユーザの注視を検出してもよい。例えば、センサ(例えば、カメラ)が、ユーザの網膜移動を追跡するために使用されてもよく、ユーザのそのような網膜移動は、XR環境(例えば、図5の環境500)の表示にプロットされてもよい。制御回路網は、ユーザの注視が、オブジェクト(例えば、図5のオブジェクト508)を含む、XR環境の一部に指向されているかどうかを決定してもよい。
【0118】
1410において、ユーザの注視が、オブジェクト(例えば、図5のオブジェクト508)を含む、XR環境の一部に指向されていないことを決定することに応じて、制御回路網は、ユーザの注視が、異なるオブジェクト(例えば、図5のオブジェクト510)を含む、XR環境の異なる部分に指向されているかどうかを決定してもよい。
【0119】
1410において、ユーザの注視が、オブジェクト(例えば、図5のオブジェクト508)を含む、XR環境の一部に指向されていることを決定することに応じて、制御回路網は、XR環境のそのような部分の近傍において、不透明度ベースのインジケータ(例えば、図6のインジケータ506)をXR環境内での表示のために発生させてもよい。他方、ユーザの注視が、異なるオブジェクト(例えば、図5のオブジェクト510)を含む、XR環境の異なる部分に指向されていることを決定することに応じて、制御回路網は、XR環境のそのような異なる部分の近傍において、不透明度ベースのインジケータ(例えば、図6のインジケータ506)をXR環境内での表示のために発生させてもよい。
【0120】
1412において、制御回路網は、着目オブジェクト(例えば、図5におけるオブジェクト508)の境界を決定してもよい。例えば、制御回路網は、オブジェクトの境界を決定するために、エッジ検出技法および/またはピクセル比較を実施してもよい。
【0121】
1414において、制御回路網は、オブジェクトの識別された境界に基づいて、少なくとも1つの不透明度ベースのインジケータ(例えば、図5のインジケータ506)の不透明度を変動させる。いくつかの実施形態では、着目オブジェクトの境界に重複するインジケータの不透明度は、変動される。例えば、着目オブジェクトの境界に重複するインジケータの不透明度は、着目オブジェクトを不明瞭にすることを回避するために、減少されてもよい(図6)、またはユーザの注視が着目オブジェクトに指向されていることを強調するために、増加されてもよい(図5)。
【0122】
図15は、本開示のいくつかの実施形態による、XR環境内でアイテムに関連する付加的情報を提示するための詳細な例証的プロセスのフローチャートである。プロセス1500またはその任意のステップが、図8-9に示されるデバイスのうちのいずれかの上で実施される、またはそれによって提供され得ることに留意されたい。例えば、プロセス1500は、複数のデバイス間でエクステンデッドリアリティ環境の制御を分散させるため等、ネットワークデバイス800、および/またはサーバ900、および/またはデバイス920、925、930上で実装され得るコンピュータ実行可能命令の1つまたはそれを上回るプログラムによって命令されるように、ネットワークデバイス800(例えば、制御回路網804を介して)、および/またはサーバ900の制御回路網、および/またはデバイス920、925、930の制御回路網によって実行されてもよい。加えて、プロセス1500の1つまたはそれを上回るステップは、任意の他のプロセスまたは実施形態(例えば、図10のプロセス1000、図11のプロセス1100、図12のプロセス1200、図13のプロセス1300、図14のプロセス1400)の1つまたはそれを上回るステップに組み込まれる、またはそれと組み合わせられてもよい。
【0123】
1502において、I/O回路網(例えば、図7の頭部搭載型ディスプレイ702のI/O回路網)が、XR環境(例えば、VR、AR、またはMR環境)に進入するためのユーザ選択を受信してもよい。そのようなユーザ選択は、入力(例えば、音声コマンドまたはタッチスクリーン)を介して受信されてもよい。
【0124】
1504において、制御回路網(例えば、図8の制御回路網804および/または図7の頭部搭載型ディスプレイ702の制御回路網)が、ユーザ選択を受信することに応答して、オブジェクト(例えば、図7のオブジェクト708)を含む、XR環境を表示のために(例えば、図7の頭部搭載型デバイス702を介して)発生させてもよい。いくつかの実施形態では、制御回路網は、複数のオブジェクト(例えば、図7のオブジェクト702、704、708)を発生させてもよい。
【0125】
1506において、制御回路網(例えば、図8の制御回路網804および/または図7の頭部搭載型ディスプレイ702の制御回路網)が、(例えば、センサを使用して)ユーザの眼運動を検出してもよい。
【0126】
1508において、制御回路網は、オブジェクトが少なくとも所定の期間にわたってユーザの視野内にあるかどうかを決定してもよい。いくつかの実施形態では、制御回路網は、視野内の仮想オブジェクトと関連付けられるオブジェクト識別子を含む、視野に関するデータ構造を発生させてもよく、そのようなデータ構造は、VR環境内の視野の位置を表す座標を含んでもよい。制御回路網は、頭部搭載型ディスプレイ702によって捕捉されたデータ構造および/または画像に基づいて、現在の視野を決定し、ユーザの視野内のオブジェクトを識別してもよい。ある実施形態では、制御回路網は、加えて、ユーザの注視が視野内のオブジェクトに指向されているかどうかを検出してもよい。
【0127】
1510において、制御回路網は、オブジェクトが少なくとも所定の期間(例えば、5秒)にわたって視野内にあることを決定することに応答して、制御回路網は、オブジェクト(例えば、図7のオブジェクト708)に関連する1つまたはそれを上回るアイテム(例えば、図7のアイテム714)をXR環境内での表示のために発生させる。いくつかの実施形態では、オブジェクトが少なくとも所定の期間にわたって視野内にあるかどうかを決定する際、制御回路網は、オブジェクトが、XRセッションの間の連続的(または非連続的)期間にわたってユーザの視野内に留まるかどうかを決定してもよい。
【0128】
上記に議論されるプロセスは、限定ではなく、例証的であることを意図している。当業者は、本明細書に議論されるプロセスのステップが、省略され、修正され、組み合わせられ、および/または再配列され得、任意の付加的ステップが、本発明の範囲から逸脱することなく、実施され得ることを理解するであろう。より一般的には、上記の開示は、限定ではなく、例示的であることを意味する。続く請求項のみが、本発明が含む内容に関する境界を設定することを意味する。さらに、任意の1つの実施形態に説明される特徴および限定が、本明細書の任意の他の実施形態に適用され得、1つの実施形態に関するフローチャートまたは実施例が、好適な様式で任意の他の実施形態と組み合わせられる、異なる順序で行われる、または並行して行われ得ることに留意されたい。加えて、本明細書に説明されるシステムおよび方法は、リアルタイムで実施され得る。また、上記に説明されるシステムおよび/または方法が、他のシステムおよび/または方法に適用される、またはそれに従って使用され得ることに留意されたい。
本明細書は、限定ではないが、以下を含む、実施形態を開示する。
1.エクステンデッドリアリティ環境相互作用のための方法であって、
オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させるステップと、
第1のセンサを使用することによって、注視がエクステンデッドリアリティ環境の第1の部分からエクステンデッドリアリティ環境の第2の部分に偏移していることを検出するステップであって、オブジェクトは、エクステンデッドリアリティ環境の第1の部分から除外され、エクステンデッドリアリティ環境の第2の部分内に含まれる、ステップと、
注視偏移を検出することに応答して、注視における偏移のインジケータをエクステンデッドリアリティ環境内での表示のために発生させるステップと、
第2のセンサを使用することによって、インジケータがオブジェクトの近傍にある間に音声コマンドを検出するステップと、
音声コマンドを検出することに応答して、音声コマンドに対応するアクションを実行するステップと、
を含む、方法。
2.双方向性メディアガイドが、表示上に提供され、アクションは、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連する命令である、項目1に記載の方法。
3.注視は、眼の網膜移動に基づいて検出され、本方法はさらに、
網膜移動を表示上のインジケータの移動に変換するステップを含む、項目1または2に記載の方法。
4.網膜移動のレートが、所定の値を超えるかどうかを決定するステップと、
網膜移動のレートが、所定の値を超えることを決定することに応答して、網膜移動を表示上のインジケータの移動に変換するとき、網膜移動を正規化するステップと、
をさらに含む、項目3に記載の方法。
5.音声コマンドは、メディアアセットの識別と、アクションを実行するためのコマンドとを含む、項目2-4のいずれかに記載の方法。
6.音声コマンドは、表示上に新しいメディアアセットを提示するための命令を含む、項目2-5のいずれかに記載の方法。
7.オブジェクトは、エンティティと関連付けられ、音声コマンドは、エンティティに関連するコンテンツを読み出すための命令を備える、項目2-6のいずれかに記載の方法。
8.インジケータがオブジェクトの近傍にある間に音声コマンドを検出するステップは、注視が少なくとも所定の閾値期間にわたってオブジェクトに指向されていることを決定するステップを含む、項目1-7のいずれかに記載の方法。
9.インジケータがオブジェクトの近傍にあることは、インジケータがオブジェクトに重複することを含む、項目1-8のいずれかに記載の方法。
10.表示は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目1-9のいずれかに記載の方法。
11.エクステンデッドリアリティ環境相互作用のためのシステムであって、
ディスプレイと、
オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させ、
第1のセンサを使用することによって、注視がエクステンデッドリアリティ環境の第1の部分からエクステンデッドリアリティ環境の第2の部分に偏移していることを検出し、オブジェクトは、エクステンデッドリアリティ環境の第1の部分から除外され、エクステンデッドリアリティ環境の第2の部分内に含まれ、
注視偏移を検出することに応答して、注視における偏移のインジケータをエクステンデッドリアリティ環境内での表示のために発生させ、
第2のセンサを使用することによって、インジケータがオブジェクトの近傍にある間に音声コマンドを検出し、
音声コマンドを検出することに応答して、音声コマンドに対応するアクションを実行する、
ように構成される、制御回路網と、
を備える、システム。
12.双方向性メディアガイドが、表示上に提供され、アクションは、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連する命令である、項目11に記載のシステム。
13.制御回路網はさらに、
眼の網膜移動に基づいて、注視を検出し、
網膜移動を表示上のインジケータの移動に変換する、
ように構成される、項目11または12に記載のシステム。
14.制御回路網はさらに、
網膜移動のレートが、所定の値を超えるかどうかを決定し、
網膜移動のレートが、所定の値を超えることを決定することに応答して、網膜移動を表示上のインジケータの移動に変換するとき、網膜移動を正規化する、
ように構成される、項目13に記載のシステム。
15.音声コマンドは、メディアアセットの識別と、アクションを実行するためのコマンドとを含む、項目12-14のいずれかに記載のシステム。
16.音声コマンドは、表示上に新しいメディアアセットを提示するための命令を含む、項目12-15のいずれかに記載のシステム。
17.オブジェクトは、エンティティと関連付けられ、音声コマンドは、エンティティに関連するコンテンツを読み出すための命令を備える、項目12-16のいずれかに記載のシステム。
18.制御回路網はさらに、インジケータがオブジェクトの近傍にある間に音声コマンドを検出する際、注視が少なくとも所定の閾値期間にわたってオブジェクトに指向されていることを決定するように構成される、項目11-17のいずれかに記載のシステム。
19.インジケータがオブジェクトの近傍にあることは、インジケータがオブジェクトに重複することを含む、項目11-18のいずれかに記載のシステム。
20.表示は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目11-19のいずれかに記載のシステム。
21.エクステンデッドリアリティ環境相互作用のための方法であって、
第1のオブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させるステップと、
1つまたはそれを上回るセンサから入力を受信するステップと、
受信された入力に基づいて、視野内の第1のオブジェクトを識別するステップと、
受信された入力に基づいて、眼瞼運動を検出するステップと、
眼瞼運動を検出することに応答して、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させるステップと、
を含む、方法。
22.エクステンデッドリアリティ環境は、複数のオブジェクトを備え、複数のオブジェクトは、第1のオブジェクトと、第2のオブジェクトとを含み、
識別するステップはさらに、視野内の第2のオブジェクトを識別するステップを含み、
修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させるステップは、検出された眼瞼運動が第1のオブジェクトと関連付けられることを決定することに応答して実施される、
項目21に記載の方法。
23.検出された眼瞼運動が第2のオブジェクトと関連付けられることを決定することに応答して、修正された詳細レベルを用いて第2のオブジェクトを表示のために再発生させるステップをさらに含む、項目22に記載の方法。
24.第1のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの一方にあり、第2のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの他方にある、項目22または23に記載の方法。
25.修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させるステップは、より高い分解能においてオブジェクトを提示するステップを含む、項目21-24のいずれかに記載の方法。
26.1つまたはそれを上回る検出された眼瞼運動に基づいて、識別されたオブジェクトに対して1つまたはそれを上回るアクションを実施するステップをさらに含む、項目21-25のいずれかに記載の方法。
27.ユーザに対する複数のオブジェクトの個別の仮想距離を算出するステップをさらに含み、
視野内の第1のオブジェクトを識別するステップは、第1のオブジェクトが個別の仮想距離のユーザに最近接する仮想距離にあることを決定するステップを含む、
項目22-26のいずれかに記載の方法。
28.眼瞼運動を検出するステップは、眼瞼の運動の量を決定するステップを含む、項目21-27のいずれかに記載の方法。
29.眼瞼運動を検出するステップは、1つまたはそれを上回る眼瞼レベルを決定するステップを含む、項目21-28のいずれかに記載の方法。
30.第1のオブジェクトがユーザの視野内に留まる間、ユーザがエクステンデッドリアリティ環境内の第1の位置から新しい位置にナビゲートしていることを検出するステップと、
新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンを表示のために発生させるステップと、
をさらに含む、項目21-29のいずれかに記載の方法。
31.エクステンデッドリアリティ環境相互作用のためのシステムであって、
第1のオブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させる、
ように構成される、制御回路網と、
1つまたはそれを上回るセンサから入力を受信する、
ように構成される、入力/出力(I/O)回路網と、
を備え、
制御回路網はさらに、
受信された入力に基づいて、視野内の第1のオブジェクトを識別し、
受信された入力に基づいて、眼瞼運動を検出し、
眼瞼運動を検出することに応答して、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させる、
ように構成される、システム。
32.エクステンデッドリアリティ環境は、複数のオブジェクトを備え、複数のオブジェクトは、第1のオブジェクトと、第2のオブジェクトとを含み、
制御回路網はさらに、視野内の第2のオブジェクトを識別するように構成され、
制御回路網はさらに、検出された眼瞼運動が第1のオブジェクトと関連付けられることを決定することに応答して、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させるステップを実施するように構成される、
項目31に記載のシステム。
33.制御回路網はさらに、
検出された眼瞼運動が第2のオブジェクトと関連付けられることを決定することに応答して、修正された詳細レベルを用いて第2のオブジェクトを表示のために再発生させるように構成される、項目32に記載のシステム。
34.第1のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの一方にあり、第2のオブジェクトは、エクステンデッドリアリティ環境内の視野内の前景または背景のうちの他方にある、項目31または33に記載のシステム。
35.制御回路網はさらに、修正された詳細レベルを用いて第1のオブジェクトを表示のために再発生させる際、より高い分解能においてオブジェクトを提示するように構成される、項目31-34のいずれかに記載のシステム。
36.制御回路網はさらに、
1つまたはそれを上回る検出された眼瞼運動に基づいて、識別されたオブジェクトに対して1つまたはそれを上回るアクションを実施するように構成される、項目31-35のいずれかに記載のシステム。
37.制御回路網はさらに、
ユーザに対する複数のオブジェクトの個別の仮想距離を算出し、
視野内の第1のオブジェクトを識別する際、第1のオブジェクトが個別の仮想距離のユーザに最近接する仮想距離にあることを決定する、
ように構成される、項目32-36のいずれかに記載のシステム。
38.制御回路網はさらに、眼瞼運動を検出する際、眼瞼の運動の量を決定するように構成される、項目31-37のいずれかに記載のシステム。
39.制御回路網はさらに、眼瞼運動を検出する際、1つまたはそれを上回る眼瞼レベルを決定するように構成される、項目31-38のいずれかに記載のシステム。
40.制御回路網はさらに、
第1のオブジェクトが視野内に留まる間、ユーザがエクステンデッドリアリティ環境内の第1の位置から新しい位置にナビゲートしていることを検出し、
新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンを表示のために発生させる、
ように構成される、項目31-38のいずれかに記載のシステム。
41.エクステンデッドリアリティ環境相互作用のための方法であって、
オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させるステップと、
エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子および対応するアクションのテーブルをメモリ内に記憶するステップと、
センサを使用することによって、眼瞼運動を検出するステップと、
検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させるステップと、
検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させることに応答して、合致された眼瞼運動に対応するアクションに基づいて、エクステンデッドリアリティ環境の更新されたバージョンを表示のために発生させるステップと、
を含む、方法。
42.ユーザの注視がオブジェクトに指向されていることを検出することによって、エクステンデッドリアリティ環境内の複数のオブジェクトからオブジェクトを選択するステップをさらに含む、項目41に記載の方法。
43.ユーザの注視が指向されるオブジェクトに対して実施可能な眼瞼運動識別子のサブセットを表示のために発生させるステップをさらに含む、項目42に記載の方法。
44.複数のアクションのアクションは、オブジェクトを操作することに対応する、項目41-43のいずれかに記載の方法。
45.アクションは、オブジェクトの外観を改変することに対応する、項目41-44のいずれかに記載の方法。
46.ユーザは、エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子と対応するアクションとの間の関係を規定する、ユーザプロファイルと関連付けられる、項目41-45のいずれかに記載の方法。
47.ユーザの注視がオブジェクト上に留まる間、ユーザがエクステンデッドリアリティ環境内の第1の位置から新しい位置にナビゲートしていることを検出するステップと、
新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンを表示のために発生させるステップであって、オブジェクトの更新されたバージョンは、改変された外観を有する、ステップと、
をさらに含む、項目45-46に記載の方法。
48.オブジェクトに対して実施可能なアクションは、オブジェクトのタイプに基づいて変動する、項目41-47のいずれかに記載の方法。
49.眼瞼運動を検出するステップは、
眼瞼が所定の期間にわたって閉じられたままであるかどうかを決定するステップを含む、項目41-48のいずれかに記載の方法。
50.検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させるステップは、眼瞼が所定の期間にわたって閉じられたままであることを決定することに応答して、実施される、項目49に記載の方法。
51.エクステンデッドリアリティ環境相互作用のためのシステムであって、
オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させる、
ように構成される、制御回路網と、
エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子および対応するアクションのテーブルを記憶する、
ように構成される、メモリと、
を備え、
制御回路網はさらに、
センサを使用することによって、眼瞼運動を検出し、
検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させ、
検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させることに応答して、合致された眼瞼運動に対応するアクションに基づいて、エクステンデッドリアリティ環境の更新されたバージョンを表示のために発生させる、
ように構成される、システム。
52.制御回路網はさらに、
ユーザの注視がオブジェクトに指向されていることを検出することによって、エクステンデッドリアリティ環境内の複数のオブジェクトからオブジェクトを選択するように構成される、項目51に記載のシステム。
53.制御回路網はさらに、
ユーザの注視が指向されるオブジェクトに対して実施可能な眼瞼運動識別子のサブセットを表示のために発生させるように構成される、項目51または52に記載のシステム。
54.複数のアクションのアクションは、オブジェクトを操作することに対応する、項目51-53のいずれかに記載のシステム。
55.アクションは、オブジェクトの外観を改変することに対応する、項目51-54のいずれかに記載のシステム。
56.ユーザは、エクステンデッドリアリティ環境内のオブジェクトに対して実施可能な眼瞼運動識別子と対応するアクションとの間の関係を規定する、ユーザプロファイルと関連付けられる、項目51-55のいずれかに記載のシステム。
57.制御回路網はさらに、
ユーザの注視がオブジェクト上に留まる間、ユーザがエクステンデッドリアリティ環境内の第1の位置から新しい位置にナビゲートしていることを検出し、
新しい位置におけるユーザの視点に基づいて、第1のオブジェクトの更新されたバージョンを表示のために発生させ、第1のオブジェクトの更新されたバージョンは、改変された外観を有する、
ように構成される、項目55または56に記載のシステム。
58.オブジェクトに対して実施可能なアクションは、オブジェクトのタイプに基づいて変動する、項目51-57のいずれかに記載のシステム。
59.制御回路網はさらに、眼瞼運動を検出する際、
眼瞼が所定の期間にわたって閉じられたままであるかどうかを決定するように構成される、項目51-58のいずれかに記載のシステム。
60.制御回路網はさらに、眼瞼が所定の期間にわたって閉じられたままであることを決定することに応答して、検出された眼瞼運動を記憶される眼瞼運動識別子のうちの1つに合致させるステップを実施するように構成される、項目59に記載のシステム。
61.エクステンデッドリアリティ環境相互作用のための方法であって、
オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させるステップと、
センサを使用することによって、注視がエクステンデッドリアリティ環境の第1の部分に指向されていることを検出するステップであって、オブジェクトは、エクステンデッドリアリティ環境の第1の部分内に含まれる、ステップと、
エクステンデッドリアリティ環境の第1の部分の近傍において、複数の不透明度ベースのインジケータをエクステンデッドリアリティ環境内での表示のために発生させるステップと、
オブジェクトの境界を識別するステップと、
オブジェクトの識別された境界に基づいて、複数の不透明度ベースのインジケータのうちの少なくとも1つの不透明度を変動させるステップと、
を含む、方法。
62.複数の不透明度ベースのインジケータのうちの少なくとも1つがオブジェクトの境界に重複するかどうかを決定するステップをさらに含み、
オブジェクトの境界に基づいて、複数の不透明度ベースのインジケータのうちの少なくとも1つの不透明度を変動させるステップは、境界に重複する複数の不透明度ベースのインジケータのうちの少なくとも1つの個別の不透明度を変動させるステップを含む、項目61に記載の方法。
63.複数の不透明度ベースのインジケータは、オブジェクトに向かって指向される矢印である、項目61または62に記載の方法。
64.センサを使用することによって、注視がエクステンデッドリアリティ環境の第2の部分に偏移しているかどうかを検出するステップと、
注視が第2の部分に偏移していることを決定することに応答して、複数の不透明度ベースのインジケータを表示の第2の部分の近傍にオーバーレイさせるステップと、
をさらに含む、項目61-63のいずれかに記載の方法。
65.個別の不透明度は、オブジェクトからの距離に基づいて変動される、項目61-64のいずれかに記載の方法。
66.インジケータの個別の不透明度は、個別のインジケータとオブジェクトとの間の距離が減少するにつれて増加する、項目65に記載の方法。
67.インジケータの個別の不透明度は、個別のインジケータとオブジェクトとの間の距離が増加するにつれて増加する、項目65または66に記載の方法。
68.双方向性メディアガイドが、表示上に提供され、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連するアクションが、少なくとも部分的に、検出された注視に基づいて受信される、項目61-67のいずれかに記載の方法。
69.表示は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目61-68のいずれかに記載の方法。
70.表示は、エクステンデッドリアリティ頭部搭載型デバイスの使用を伴わずに提示される、項目61-69のいずれかに記載の方法。
71.エクステンデッドリアリティ環境相互作用のためのシステムであって、
ディスプレイと、
オブジェクトを備える、エクステンデッドリアリティ環境を表示のために発生させ、
センサを使用することによって、注視がエクステンデッドリアリティ環境の第1の部分に指向されていることを検出し、オブジェクトは、エクステンデッドリアリティ環境の第1の部分内に含まれ、
エクステンデッドリアリティ環境の第1の部分の近傍において、複数の不透明度ベースのインジケータをエクステンデッドリアリティ環境内での表示のために発生させ、
オブジェクトの境界を識別し、
オブジェクトの識別された境界に基づいて、複数の不透明度ベースのインジケータのうちの少なくとも1つの不透明度を変動させる、
ように構成される、制御回路網と、
を備える、システム。
72.制御回路網はさらに、
複数の不透明度ベースのインジケータのうちの少なくとも1つがオブジェクトの境界に重複するかどうかを決定し、
オブジェクトの境界に基づいて、複数の不透明度ベースのインジケータのうちの少なくとも1つの不透明度を変動させる際、境界に重複する複数の不透明度ベースのインジケータのうちの少なくとも1つの個別の不透明度を変動させる、
ように構成される、項目71に記載のシステム。
73.複数の不透明度ベースのインジケータは、オブジェクトに向かって指向される矢印である、項目71または72に記載のシステム。
74.制御回路網はさらに、
センサを使用することによって、注視がエクステンデッドリアリティ環境の第2の部分に偏移しているかどうかを検出し、
注視が第2の部分に偏移していることを決定することに応答して、複数の不透明度ベースのインジケータを表示の第2の部分の近傍にオーバーレイさせる、
ように構成される、項目71-73のいずれかに記載のシステム。
75.個別の不透明度は、オブジェクトからの距離に基づいて変動される、項目71-74のいずれかに記載のシステム。
76.インジケータの個別の不透明度は、個別のインジケータとオブジェクトとの間の距離が減少するにつれて増加する、項目75に記載のシステム。
77.インジケータの個別の不透明度は、個別のインジケータとオブジェクトとの間の距離が増加するにつれて増加する、項目75または76に記載のシステム。
78.双方向性メディアガイドが、表示上に提供され、双方向性メディアガイドを介してアクセス可能なメディアアセットに関連するアクションが、少なくとも部分的に、検出された注視に基づいて受信される、項目71-77のいずれかに記載のシステム。
79.表示は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目71-78のいずれかに記載のシステム。
80.表示は、エクステンデッドリアリティ頭部搭載型デバイスの使用を伴わずに提示される、項目71-79のいずれかに記載のシステム。
81.エクステンデッドリアリティ環境相互作用のための方法であって、
オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させるステップと、
眼運動を検出するステップと、
検出に基づいて、オブジェクトが少なくとも所定の期間にわたって視野内にあるかどうかを決定するステップと、
オブジェクトが少なくとも所定の期間にわたって視野内にあることを決定することに応答して、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させるステップと、
を含む、方法。
82.オブジェクトに関連する1つまたはそれを上回るアイテムは、テキスト情報、画像、ビデオ、またはそれらの任意の組み合わせを備える、項目81に記載の方法。
83.オブジェクトが第1の所定の期間にわたって視野内に存在することなく、1つまたはそれを上回るアイテムの表示の開始から少なくとも第2の所定の期間が経過していることを決定するステップと、
オブジェクトが視野内に存在することなく、1つまたはそれを上回るアイテムの表示の開始から第2の所定の期間が経過していることを決定することに応答して、1つまたはそれを上回るアイテムの表示を停止するステップと、
をさらに含む、項目81または82に記載の方法。
84.眼運動を検出するステップは、眼瞼運動を監視するステップを含む、項目81-83のいずれかに記載の方法。
85.オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させるステップは、オブジェクトが、少なくとも所定の期間にわたって視野内および注視内にあることを決定することに応答して実施される、項目81-84のいずれかに記載の方法。
86.検出に基づいて、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定するステップは、視野がエクステンデッドリアリティセッションの間の所定の期間にわたって連続的にオブジェクト上にあることを決定するステップを含む、項目81-85のいずれかに記載の方法。
87.検出に基づいて、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定するステップは、視野がエクステンデッドリアリティセッションの間の所定の期間にわたって非連続的にオブジェクト上にあることを決定するステップを含む、項目81-86のいずれかに記載の方法。
88.新しいオブジェクトが少なくとも所定の時間にわたって視野内にあることを決定するステップと、
新しいオブジェクトが少なくとも所定の期間にわたって視野内にあることを決定することに応答して、新しいオブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させる一方、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させ続けるステップと、
をさらに含む、項目81-87のいずれかに記載の方法。
89.所定の期間に関する時間量の修正を可能にするステップをさらに含む、項目81-88のいずれかに記載の方法。
90.エクステンデッドリアリティ環境は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目81-89のいずれかに記載の方法。
91.エクステンデッドリアリティ環境相互作用のためのシステムであって、
ディスプレイと、
オブジェクトを含む、エクステンデッドリアリティ環境を表示のために発生させ、
眼運動を検出し、
検出に基づいて、オブジェクトが少なくとも所定の期間にわたって視野内にあるかどうかを決定し、
オブジェクトが少なくとも所定の期間にわたって視野内にあることを決定することに応答して、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させる、
ように構成される、制御回路網と、
を備える、システム。
92.オブジェクトに関連する1つまたはそれを上回るアイテムは、テキスト情報、画像、ビデオ、またはそれらの任意の組み合わせを備える、項目91に記載のシステム。
93.制御回路網はさらに、
オブジェクトが第1の所定の期間にわたって視野内に存在することなく、1つまたはそれを上回るアイテムの表示の開始から少なくとも第2の所定の期間が経過していることを決定し、
オブジェクトが視野内に存在することなく、1つまたはそれを上回るアイテムの表示の開始から第2の所定の期間が経過していることを決定することに応答して、1つまたはそれを上回るアイテムの表示を停止する、
ように構成される、項目91または92に記載のシステム。
94.制御回路網はさらに、眼運動を検出する際、眼瞼運動を監視するように構成される、項目91-93のいずれかに記載のシステム。
95.制御回路網はさらに、オブジェクトが、少なくとも所定の期間にわたって視野内および注視内にあることを決定することに応答して、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させるように構成される、項目91-94のいずれかに記載のシステム。
96.制御回路網はさらに、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定する際、視野がエクステンデッドリアリティセッションの間の所定の期間にわたって連続的にオブジェクト上にあることを決定するように構成される、項目91-95のいずれかに記載のシステム。
97.制御回路網はさらに、オブジェクトが所定の期間にわたって視野内にあるかどうかを決定する際、視野がエクステンデッドリアリティセッションの間の所定の期間にわたって非連続的にオブジェクト上にあることを決定するように構成される、項目91-96のいずれかに記載のシステム。
98.制御回路網はさらに、
新しいオブジェクトが少なくとも所定の時間にわたって視野内にあることを決定し、
新しいオブジェクトが少なくとも所定の期間にわたって視野内にあることを決定することに応答して、新しいオブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させる一方、オブジェクトに関連する1つまたはそれを上回るアイテムをエクステンデッドリアリティ環境内での表示のために発生させ続ける、
ように構成される、項目91-97のいずれかに記載のシステム。
99.制御回路網はさらに、
所定の期間に関する時間量の修正を可能にするように構成される、項目91-98のいずれかに記載のシステム。
100.エクステンデッドリアリティ環境は、エクステンデッドリアリティ頭部搭載型デバイスを介して提示される、項目91-99のいずれかに記載のシステム。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
【国際調査報告】