(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-09-20
(54)【発明の名称】焦点遷移を補強するための注意追跡
(51)【国際特許分類】
G06F 3/01 20060101AFI20240912BHJP
【FI】
G06F3/01 510
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024517522
(86)(22)【出願日】2022-09-21
(85)【翻訳文提出日】2024-05-10
(86)【国際出願番号】 US2022076779
(87)【国際公開番号】W WO2023049746
(87)【国際公開日】2023-03-30
(32)【優先日】2021-09-21
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2022-09-20
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】502208397
【氏名又は名称】グーグル エルエルシー
【氏名又は名称原語表記】Google LLC
【住所又は居所原語表記】1600 Amphitheatre Parkway 94043 Mountain View, CA U.S.A.
(74)【代理人】
【識別番号】110001195
【氏名又は名称】弁理士法人深見特許事務所
(72)【発明者】
【氏名】オルワル,アレックス
(72)【発明者】
【氏名】ドゥ,ルオフェイ
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA22
5E555AA28
5E555AA64
5E555BA02
5E555BA04
5E555BA38
5E555BB02
5E555BB04
5E555BB38
5E555BC04
5E555BE17
5E555CA41
5E555CA42
5E555CA44
5E555CA45
5E555CA47
5E555CB65
5E555CB76
5E555DA08
5E555DA09
5E555DA21
5E555DA24
5E555DB53
5E555DC02
5E555DC09
5E555DC11
5E555DC13
5E555DC26
5E555DC31
5E555DC82
5E555DC85
5E555EA19
5E555EA20
5E555FA00
(57)【要約】
システムおよび方法は、仮想画面に提示されるコンテンツに対するユーザの注意を追跡すること、コンテンツの第1の領域と関連付けられた焦点外れ事象を検出すること、およびコンテンツの第2の領域と関連付けられた次の合焦事象を決定することに関する。決定は、焦点外れ事象およびユーザの追跡された注意に少なくとも部分的に基づき得る。本システムおよび方法は、決定した次の合焦事象に基づいて、コンテンツの第2の領域をコンテンツの残部と区別するためのマーカを生成すること、および仮想画面と関連付けられた再合焦事象を検出することに応答して、コンテンツの第2の領域と関連付けられたマーカの実行をトリガすることを含み得る。
【特許請求の範囲】
【請求項1】
仮想画面に提示されるコンテンツに対するユーザの注意を追跡することと、
前記コンテンツの第1の領域と関連付けられた焦点外れ事象を検出することと、
前記コンテンツの第2の領域と関連付けられた次の合焦事象を決定することとを含む、方法であって、前記決定は、前記焦点外れ事象および前記ユーザの前記追跡された注意に少なくとも部分的に基づき、前記方法は、
前記決定した次の合焦事象に基づいて、前記コンテンツの前記第2の領域を前記コンテンツの残部と区別するためのマーカを生成することと、
前記仮想画面と関連付けられた再合焦事象を検出することに応答して、前記コンテンツの前記第2の領域と関連付けられた前記マーカの実行をトリガすることと
をさらに含む、方法。
【請求項2】
前記マーカは、前記第2の領域の一部分の上に重ね合わされる、少なくとも1つの制御部およびハイライト表示されたインジケータを含み、
前記マーカは、前記再合焦事象後の既定の時間期間に従ってディスプレイから次第に除去される、請求項1に記載の方法。
【請求項3】
前記ユーザの前記注意は、前記コンテンツとの検出したユーザインタラクションに基づいてさらに追跡され、
前記次の合焦事象は、前記検出したユーザインタラクション、および前記コンテンツと関連付けられたアクションのシーケンス内の既定の次のアクションに従ってさらに決定される、請求項1または請求項2に記載の方法。
【請求項4】
前記コンテンツは、動きのシーケンスを描写し、
前記第1の領域は、動きの第1のシーケンスを表し、
前記第2の領域は、前記動きの第1のシーケンスの後に発生するように構成される動きの第2のシーケンスを表し、
前記コンテンツの前記第2の領域と関連付けられた前記マーカの実行をトリガすることは、前記動きの第2のシーケンスで描写される前記マーカを用いて前記第2のシーケンスを実行することをトリガすることを含む、請求項1~請求項3のいずれか1項に記載の方法。
【請求項5】
前記焦点外れ事象と関連付けられた前記マーカは、前記仮想画面に描写される前記コンテンツに対する実質的な変化が発生しなかったことを決定することに応答して抑制される、先行する請求項のいずれか1項に記載の方法。
【請求項6】
前記マーカは、前記焦点外れ事象と関連付けられた時間から、および前記再合焦事象と関連付けられた時間からの前記コンテンツにおける検出した変化の再生を表し、前記変化の前記再生は、前記変化に対応する触覚合図を含む、先行する請求項のいずれか1項に記載の方法。
【請求項7】
前記コンテンツは、前記仮想画面のユーザインターフェース内に提示され、前記方法は、
第1の時間期間にわたって前記ユーザの前記追跡された注意に基づいて前記ユーザの前記注意のモデルを生成することと、
前記ユーザインターフェースのためのモデルを獲得することとをさらに含み、前記モデルは、前記ユーザインターフェースと関連付けられた複数の状態およびインタラクションを規定し、前記方法は、
第2の時間期間にわたって、前記第2の領域の少なくとも一部分の上に重ね合わされる少なくとも1つの追加のマーカを、前記ユーザの前記追跡された注意、前記注意の前記モデル、および前記ユーザインターフェースの、前記複数の状態からの決定した状態に基づいて、レンダリングすることをトリガすることをさらに含む、先行する請求項のいずれか1項に記載の方法。
【請求項8】
前記仮想画面は、拡張現実ビューおよび物質的世界ビューを含む視野を提供するように構成される拡張現実デバイスと関連付けられ、
前記ユーザの前記注意を追跡することは、前記ユーザの前記注意が前記拡張現実ビューと関連付けられるか、または前記物質的世界ビューと関連付けられるかを決定することを含み、
前記第2の領域と関連付けられた前記マーカの実行をトリガすることは、
前記ユーザの前記注意が前記拡張現実ビューと関連付けられる場合、前記焦点外れ事象と関連付けられた時間から前記コンテンツを再開すること、または
前記ユーザの前記注意が前記物質的世界ビューと関連付けられる場合、前記再合焦事象が検出されるまで前記コンテンツを一時停止およびフェードさせることを含む、先行する請求項のいずれか1項に記載の方法。
【請求項9】
少なくとも1つの処理デバイスと、
少なくとも1つのセンサと、
命令を記憶するメモリと、を備える、ウェアラブルコンピューティングデバイスであって、前記命令は、実行されると、
前記少なくとも1つのセンサが、仮想画面に対するユーザの焦点を追跡することと、
前記少なくとも1つのセンサが、前記仮想画面の第1の領域と関連付けられた焦点外れ事象を検出することと、
前記少なくとも1つのセンサが、前記仮想画面の第2の領域と関連付けられた次の合焦事象を決定することとを含み、前記決定は、前記焦点外れ事象、および前記ユーザの検出された注視軌道に対応する前記ユーザの前記追跡された焦点に少なくとも部分的に基づき、
前記決定した次の合焦事象に基づいて、前記仮想画面の前記第2の領域を前記仮想画面の残部と区別するための焦点遷移マーカの生成をトリガすることと、
前記少なくとも1つのセンサが、前記仮想画面と関連付けられた再合焦事象を検出することに応答して、前記コンテンツの前記第2の領域と関連付けられた前記焦点遷移マーカの実行をトリガすることとを含む動作を前記ウェアラブルコンピューティングデバイスに実施させる、ウェアラブルコンピューティングデバイス。
【請求項10】
前記焦点遷移マーカは、前記第2の領域の一部分の上に重ね合わされる、少なくとも1つの制御部およびハイライト表示されたインジケータを含み、
前記焦点遷移マーカは、前記再合焦事象の後の時間期間に従ってディスプレイから次第に除去される、請求項9に記載のウェアラブルコンピューティングデバイス。
【請求項11】
前記ユーザの前記焦点は、前記仮想画面との検出されたユーザインタラクションに基づいてさらに決定され、
前記次の合焦事象は、前記検出されたユーザインタラクション、および前記仮想画面と関連付けられたアクションのシーケンス内の既定の次のアクションに従って、さらに決定される、請求項9または請求項10に記載のウェアラブルコンピューティングデバイス。
【請求項12】
前記仮想画面に対する前記ユーザの前記焦点は、前記仮想画面上に描写されるコンテンツに対する前記ユーザの焦点に対応し、
前記コンテンツは、動きのシーケンスを描写し、
前記第1の領域は、動きの第1のシーケンスを表し、
前記第2の領域は、前記動きの第1のシーケンスの後に発生するように構成される動きの第2のシーケンスを表し、
前記第2の領域と関連付けられた前記焦点遷移マーカの実行をトリガすることは、前記動きの第2のシーケンスで描写される前記焦点遷移マーカを用いて第2のシーケンスを実行することをトリガすることを含む、請求項9~請求項11のいずれか1項に記載のウェアラブルコンピューティングデバイス。
【請求項13】
前記焦点遷移マーカは、前記焦点外れ事象と関連付けられた時間および前記再合焦事象と関連付けられた時間からの前記コンテンツにおける検出した変化のビデオまたは音声の再生を表し、前記検出した変化の前記再生は、前記検出した変化に対応する視覚または聴覚合図を含む、請求項12に記載のウェアラブルコンピューティングデバイス。
【請求項14】
前記焦点遷移マーカは、前記焦点外れ事象と関連付けられた時間および前記再合焦事象と関連付けられた時間からの前記コンテンツにおける検出した変化の再生を表し、前記検出した変化の前記再生は、前記検出した変化に対応する触覚合図を含む、請求項12に記載のウェアラブルコンピューティングデバイス。
【請求項15】
前記コンテンツは、前記仮想画面のユーザインターフェース内に提示され、前記動作は、
第1の時間期間にわたって前記ユーザの前記追跡された焦点に基づいて前記ユーザの注意のモデルを生成することと、
前記ユーザインターフェースのためのモデルを獲得することとをさらに含み、前記モデルは、前記ユーザインターフェースと関連付けられた複数の状態およびインタラクションを規定し、
第2の時間期間にわたって、前記第2の領域の少なくとも一部分の上に重ね合わされる少なくとも1つの焦点遷移マーカを、前記ユーザの前記追跡された焦点、前記注意の前記モデル、および前記ユーザインターフェースの、前記複数の状態からの決定した状態に基づいて、レンダリングすることをトリガすることとをさらに含む、請求項12~請求項14のいずれか1項に記載のウェアラブルコンピューティングデバイス。
【請求項16】
前記仮想画面は、拡張現実ビューおよび物質的世界ビューを含む視野を提供するように構成される拡張現実デバイスと関連付けられ、
前記ユーザの前記焦点を追跡することは、前記ユーザの前記焦点が前記拡張現実ビューと関連付けられるか、または前記物質的世界ビューと関連付けられるかを決定することを含む、請求項9~請求項15のいずれか1項に記載のウェアラブルコンピューティングデバイス。
【請求項17】
命令が記憶されている非一時的なコンピュータ可読媒体であって、前記命令は、処理回路によって実行されると、
仮想画面に提示されるコンテンツに対するユーザの焦点を追跡することと、
前記コンテンツの第1の領域と関連付けられた焦点外れ事象を検出することと、
前記コンテンツの第2の領域と関連付けられた次の合焦事象を決定することとをウェアラブルコンピューティングデバイスに行わせ、前記決定は、前記焦点外れ事象、および前記ユーザの検出された注視軌道に対応する前記ユーザの前記追跡された焦点に少なくとも部分的に基づき、
前記決定した次の合焦事象に基づいて、前記コンテンツの前記第2の領域を前記コンテンツの残部と区別するための焦点遷移マーカを生成することと、
前記仮想画面と関連付けられた再合焦事象を検出することに応答して、前記コンテンツの前記第2の領域と関連付けられた前記焦点遷移マーカの実行をトリガすることとをウェアラブルコンピューティングデバイスに行わせる、非一時的なコンピュータ可読媒体。
【請求項18】
前記焦点遷移マーカは、前記第2の領域の一部分の上に重ね合わされる、少なくとも1つの制御部およびハイライト表示されたインジケータを含み、
前記焦点遷移マーカは、前記再合焦事象の後の時間期間に従ってディスプレイから次第に除去される、請求項17に記載の非一時的なコンピュータ可読媒体。
【請求項19】
前記ユーザの前記焦点は、前記コンテンツとの検出されたユーザインタラクションに基づいてさらに決定され、
前記次の合焦事象は、前記検出したユーザインタラクション、および前記コンテンツと関連付けられたアクションのシーケンス内の既定の次のアクションに従ってさらに決定される、請求項17または請求項18に記載の非一時的なコンピュータ可読媒体。
【請求項20】
前記焦点遷移マーカは、前記焦点外れ事象と関連付けられた時間および前記再合焦事象と関連付けられた時間からの前記コンテンツにおける検出した変化のビデオまたは音声の再生を表し、前記検出した変化の前記再生は、前記検出した変化に対応する視覚または聴覚合図を含む、請求項17~請求項19のいずれか1項に記載の非一時的なコンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願への相互参照
本出願は、「ATTENTION TRACKING TO AUGMENT FOCUS TRANSITIONS」という表題の2021年9月21日に出願された米国仮特許出願第63/261,449号に対する優先権を主張する、「ATTENTION TRACKING TO AUGMENT FOCUS TRANSITIONS」という表題の2022年9月20日に出願された米国非仮特許出願第17/933,631号の継続出願であり、またそれに対する優先権を主張するものであり、それらの開示は、それらの全体が参照により本明細書に組み込まれる。
【0002】
本出願はまた、2021年9月21日に出願された米国仮特許出願第63/261,449号に対する優先権を主張するものでもあり、その開示は、その全体が参照により本明細書に組み込まれる。
【背景技術】
【0003】
技術分野
本説明は、概して、コンテンツに対するユーザ注意を処理するために使用される方法、デバイス、およびアルゴリズムに関する。
【0004】
背景
ディスプレイデバイスは、ディスプレイデバイス上で視野内に提示される仮想コンテンツとのユーザインタラクションを可能にし得る。ディスプレイデバイスのユーザは、インタラクションおよび/または他のコンテンツにより中断され得る。そのような中断が発生した後、ユーザが、仮想コンテンツと関連付けられたタスクを再開することは困難であり得る。従来のディスプレイデバイスは、中断に遭遇した後に仮想コンテンツに再度没頭することを試みるときに発生する認知欠損を考慮しない。故に、ディスプレイデバイスで見られる仮想コンテンツと関連付けられたタスクを追跡して、例えば、そのような中断に基づいてユーザに応答するようにディスプレイデバイスをトリガするための機構を提供することが有益であり得る。
【発明の概要】
【0005】
概要
ウェアラブルディスプレイデバイスは、物理的世界および拡張コンテンツの両方を見ることができる拡張現実デバイスとして構成され得る。そのようなデバイスを装着しているユーザの視野は、物理的世界で発生する事象により妨害され得る。そのような妨害は、1つまたは複数の感覚の外部刺激(例えば、聴覚、視覚、触覚、嗅覚、味覚、前庭、または固有受容刺激)から生じ得る。例えば、ウェアラブルディスプレイデバイスのユーザへの音声通話、周辺に出現する人、ユーザに触れる人、匂いもしくは味の検知、バランスシフト(例えば、移動中)、または障害物の発見がある。そのような妨害は、焦点のシフトを引き起こすものについてユーザが思い出す、または考えることなど、内的シフトからも生じ得る。電力および熱が断続的なディスプレイスリープまたはオフモードをトリガし得る、画面タイムアウトなど、技術的制約も存在する。そのような妨害のいずれも、ユーザが以前の活動を再開しようとするとき、またはこれに戻ろうとするとき、ユーザに対して認知的課題をもたらし得る。例えば、妨害または中断が発生した後、ユーザは、ウェアラブルディスプレイデバイスの仮想画面上のコンテンツとのエンゲージメントを再開するのに苦労し得る。本明細書に説明されるシステムおよび方法は、例えば、ユーザの焦点を分析し、刺激のタイプを分析し、以前に分析したコンテンツを用いてユーザに再度関わるために特定の焦点遷移マーカ(例えば、視覚コンテンツ、可視化、音声コンテンツ)を生成するように構成され得る。
【0006】
1つまたは複数のコンピュータのシステムは、動作中にシステムにアクションを実施させる、システムにインストールされたソフトウェア、ファームウェア、ハードウェア、またはそれらの組み合わせを有するおかげで、特定の動作またはアクションを実施するように構成され得る。1つまたは複数のコンピュータプログラムは、データ処理装置によって実行されると装置にアクションを実施させる命令を含むことにより、特定の動作またはアクションを実施するように構成され得る。
【0007】
1つの一般的態様において、仮想画面に提示されるコンテンツに対するユーザの注意を追跡すること、コンテンツの第1の領域と関連付けられた焦点外れ事象を検出すること、およびコンテンツの第2の領域と関連付けられた次の合焦事象を決定することを含む、方法が提案され、該決定は、焦点外れ事象およびユーザの追跡された注意に少なくとも部分的に基づく。本方法は、決定した次の合焦事象に基づいて、コンテンツの第2の領域をコンテンツの残部と区別するためのマーカを生成すること、および仮想画面と関連付けられた再合焦事象を検出することに応答して、コンテンツの第2の領域と関連付けられたマーカの実行をトリガすることをさらに含む。制御部を有するマーカを実行することは、仮想画面上に仮想制御要素を伴うマーキングを表示することに関連し得、このときユーザは、仮想画面上で少なくともアクションをトリガするために行動し得る。例えば、ユーザは、マーカの制御部を介して、提示されたコンテンツとインタラクトすることができてもよい。
【0008】
1つの実施形態例において、コンテンツの第1の領域と関連付けられた焦点外れ事象を検出することは、ユーザがコンテンツの第1の領域に以前に焦点を合わせていて、もはや第1の領域に焦点を合わせていないことを電子的に検出することであり得る(例えば、ユーザの片目またはユーザの両目の注視軌道、および故にユーザの視野焦点によって決定される)。例えば、焦点外れ事象は、ユーザが第1の領域から離れる方を見ることを決定することによって検出され得る。
【0009】
コンテンツの第2の領域と関連付けられた次の合焦事象を決定することは、ユーザが焦点外れ事象の後に見ている可能性の高いコンテンツの第2の領域を決定することであり得、ユーザが第2の領域に焦点を合わせている可能性、特に可能性スコア、および/または第2の領域は、予測モデルを使用して決定され、この予測モデルには、検出された焦点外れ事象に関する情報(例えば、焦点外れ事象が発生した時間、焦点外れ事象が発生したときのユーザの周囲の音など)、およびユーザの追跡された注意に関する情報(例えば、ユーザが提示されたコンテンツの第1または別の領域に焦点を合わせている持続時間、焦点外れ事象前のとある時間量など)が、入力パラメータとして供給され、またこの予測モデルは、検出された焦点外れ事象およびその状況ならびに提示されたコンテンツに対する以前に追跡されたユーザ注意を前提として、ユーザが焦点外れ事象後のしきい値時間量内で仮想画面上に提示されるコンテンツのどの第2の領域に焦点を合わせるかに関する表示を出力する。
【0010】
再合焦事象を検出することは、ユーザが仮想画面上に提示されるコンテンツに再び焦点を合わせることを決定することであり得る。ユーザがコンテンツに再び焦点を合わせることは、同じコンテンツと関連付けられた焦点外れ事象の後に発生する。例えば、再合焦事象は、以前に見たコンテンツおよび/またはユーザが焦点外れ事象の前に関わったコンテンツに焦点を合わせた検出された視線を含み得る。故に、再合焦事象は、焦点外れ事象後のしきい値よりも小さい時間量の後に発生する。
【0011】
第2の領域を区別するためのマーカは、その実行時に視覚的に提示される焦点遷移マーカに関連し得る。故に、対応するマーカが、次の合焦事象を決定した後に生成され得る。しかしながら、例えば、第2の領域とコンテンツの残部との違いを視覚化するため、ならびに/または第2の領域を視覚的、聴覚的に、および/もしくは触覚的に強調するための、仮想画面上でのマーカの実行、ならびに故に、例えば、起動および/または提示は、再合焦事象の検出時に、すなわち、ユーザが仮想画面上に提示されるコンテンツに再び焦点を合わせることを検出した後に、トリガされるだけでもよい。
【0012】
実装形態は、以下の特徴のいずれかを単独で、または組み合わせて含み得る。
説明された技術の実装形態は、ハードウェア、方法もしくはプロセス、またはコンピュータアクセス可能媒体上のコンピュータソフトウェアを含み得る。1つまたは複数の実装形態の詳細事項は、添付の図面および以下の説明に明記される。他の特徴は、説明および図面、ならびにクレームから明らかになるものとする。
【図面の簡単な説明】
【0013】
【
図1】本開示全体を通して説明される実装形態による、ユーザ注意を追跡し、焦点遷移マーカを生成して、ユーザがウェアラブルコンピューティングデバイスによって提供されるコンテンツに戻ることを支援するためのウェアラブルコンピューティングデバイスの例を示す図である。
【
図2】本開示全体を通して説明される実装形態による、ユーザ注意をモデル化および追跡し、ユーザ注意に基づいてコンテンツを生成するためのシステムを例証する図である。
【
図3A】本開示全体を通して説明される実装形態による、ウェアラブルコンピューティングデバイスのディスプレイ上のユーザの焦点を追跡し、追跡された焦点に基づいてコンテンツを生成する例を例証する図である。
【
図3B】本開示全体を通して説明される実装形態による、ウェアラブルコンピューティングデバイスのディスプレイ上のユーザの焦点を追跡し、追跡された焦点に基づいてコンテンツを生成する例を例証する図である。
【
図3C】本開示全体を通して説明される実装形態による、ウェアラブルコンピューティングデバイスのディスプレイ上のユーザの焦点を追跡し、追跡された焦点に基づいてコンテンツを生成する例を例証する図である。
【
図3D】本開示全体を通して説明される実装形態による、ウェアラブルコンピューティングデバイスのディスプレイ上のユーザの焦点を追跡し、追跡された焦点に基づいてコンテンツを生成する例を例証する図である。
【
図4A】本開示全体を通して説明される実装形態による、焦点遷移マーカを描写するユーザインターフェースの例を例証する図である。
【
図4B】本開示全体を通して説明される実装形態による、焦点遷移マーカを描写するユーザインターフェースの例を例証する図である。
【
図4C】本開示全体を通して説明される実装形態による、焦点遷移マーカを描写するユーザインターフェースの例を例証する図である。
【
図4D】本開示全体を通して説明される実装形態による、焦点遷移マーカを描写するユーザインターフェースの例を例証する図である。
【
図5】本開示全体を通して説明される実装形態による、ユーザ焦点を追跡し、ユーザ焦点に応答して焦点遷移コンテンツを生成するためのプロセスの一例を図形化するフローチャートである。
【
図6】本明細書に説明される技術と共に使用され得る、コンピュータデバイスおよびモバイルコンピュータデバイスの例を例証する図である。
【発明を実施するための形態】
【0014】
様々な図面内の同じ参照符号は、同じ要素を示す。
詳細な説明
本開示は、モデル化および/または追跡されたユーザ注意(例えば、焦点、注視、および/またはインタラクション)に基づいてユーザインターフェース(UI)コンテンツ、音声コンテンツ、および/または触覚コンテンツを生成するためのシステムおよび方法を説明する。既存のディスプレイコンテンツのためのUIコンテンツまたは効果は、物理的世界からディスプレイ画面(例えば、ウェアラブルコンピューティングデバイスの仮想画面)上のコンテンツへ焦点(例えば、注意)を再獲得することにおいてユーザを支援するために生成され得る。例えば、ユーザが仮想画面から物理的世界へと気がそれるとき、本明細書に説明されるシステムおよび方法は、再合焦事象を予測することができ、また、再合焦事象の発生に応答して、本システムは、ユーザが仮想画面上のコンテンツに再び没入するのを助けるために、仮想画面上への表示のためのコンテンツを生成および/または修正し得る。
【0015】
本明細書に説明されるUIコンテンツ、音声コンテンツ、および/または触覚コンテンツは、UIマーカ、UI変更、音声出力、触覚フィードバック、提示したUIコンテンツの拡張、音声コンテンツの拡張、触覚事象の拡張、および同様のもののうちのいずれかまたはすべてを含み得る焦点遷移マーカとして説明され得る。焦点遷移マーカは、ユーザが、例えば、物理的世界から戻って仮想画面へと素早く遷移するために、仮想画面によりコンテンツを見ることおよび/またはこれにアクセスすることを支援し得る。いくつかの実装形態において、焦点遷移マーカは、バッテリ駆動のコンピューティングデバイスの仮想画面のために構成されるコンピューティングインターフェースの一部であり得る。コンピューティングインターフェースは、コンピューティングインターフェースにアクセスするユーザと関連付けられた注意(例えば、焦点)挙動の特定の側面を分析および/または検出し得る。いくつかの実装形態において、仮想画面(または仮想画面を収容するコンピューティングデバイス)と関連付けられた特定のセンサは、ユーザと関連付けられた注意挙動の特定の側面を分析および/または検出するために使用され得る。
【0016】
いくつかの実装形態において、触覚効果は、焦点外れ事象中および焦点外れ事象後、しかしながら検出された再合焦事象前に発生していた可能性がある変化を示すために触覚合図を含み得る。いくつかの実装形態において、触覚効果は、ヘッドホンドライバ(例えば、スピーカ信号に基づいた骨伝導信号)によって提供され得る。いくつかの実装形態において、触覚効果は、デバイスの構成要素によって生成される振動によって提供され得る。例えば、触覚効果は、デバイス内に設置され、触覚信号を生成するように構成される線形アクチュエータ(図示せず)によって提供され得る。
【0017】
いくつかの実装形態において、ユーザの注意(例えば、焦点)は、例えば、ディスプレイ画面(例えば、ARデバイス(例えば、光学シースルー方式のウェアラブルディスプレイデバイス、ビデオシースルー方式のウェアラブルディスプレイデバイス)上の仮想画面)との、および物理的世界との1つまたは複数のインタラクションに関してモデル化および/または追跡され得る。モデル化されたユーザ注意は、仮想画面とのインタラクション中にそのようなUIコンテンツ、音声コンテンツ、および/または触覚コンテンツをいつ表示するべきかを決定するために使用され得る。
【0018】
ユーザの注意(例えば、焦点)をモデル化および/または追跡することは、本明細書に説明されるシステムおよび方法が、ユーザが次に実施し得るアクションおよび/またはインタラクションを予測することを可能にし得る。ユーザの注意および予測アクションは、UIコンテンツの拡張(例えば、可視化)、音声コンテンツの拡張、触覚事象の拡張、および同様のものを表し得る1つまたは複数の焦点遷移マーカを生成するために使用され得る。焦点遷移マーカは、仮想画面内のコンテンツの領域間の違いを示すための特定の可視化技術として生成され得る。いくつかの実装形態において、焦点遷移マーカの提示は、仮想画面の部分においてコンテンツを切り替えるために使用される時間を最小限にするという利点をもたらし得る。
【0019】
いくつかの実装形態において、焦点遷移マーカは、仮想画面上の焦点領域と物理的世界内の焦点領域とを切り替えることにおいてユーザを支援する働きをし得る。例えば、ユーザが、仮想画面を有する電子デバイスを装着しており(または見ており)、画面から離れて物理的世界を見る場合、本明細書に説明されるシステムは、画面の閲覧を妨害するものを検出し、ユーザによって画面内で実施および/または見られるべき次の見込みタスクを決定し、画面コンテンツの閲覧に戻ることにおいてユーザを支援するために焦点遷移マーカを生成し得る。
【0020】
焦点遷移マーカを生成して、仮想画面から視線をそらす(および仮想画面に視線を戻す)ことが決定されているユーザに提示することは、ユーザが妨害をされる、および/または仮想画面から物理的世界へと焦点が外れるときにユーザに発生する時間コストおよび/または認知遷移コストを最小限にするという利点をもたらし得る。焦点外れは、ユーザの注意を変化させることを含み得る。焦点遷移マーカは、拡張現実(AR)ウェアラブルデバイスを通じて、物理的世界を見ることから、例えば、仮想画面の領域を見ることへ、注意(例えば、焦点、インタラクション、視線など)を再獲得するために利用される時間量を最小限にするように設計され得る。
【0021】
一般に、焦点遷移マーカ(例えば、コンテンツ)は、ウェアラブルコンピューティングデバイスのユーザインターフェースまたは関連音声インターフェースにおける表示および/または実行のために生成され得る。いくつかの実装形態において、焦点遷移マーカは、特定の視覚効果、音声効果、運動効果、または表示もしくは実行されている他のコンテンツアイテムへユーザの注意を引くためにユーザに焦点に合わせることが意図される視覚、音声、および/または触覚コンテンツを含み得る。
【0022】
本明細書で使用される場合、焦点遷移マーカは、UIコンテンツ、UI制御部、UIコンテンツ、音声コンテンツ、触覚コンテンツ、および/または触覚事象の変更、アニメーション、コンテンツ巻き戻しおよび再生、空間音響/ビデオ効果、ハイライト効果、強調低減効果、テキストおよび/または画像強調効果、3次元効果、オーバーレイ効果、ならびに同様のもののうちの任意の1つまたは複数(または任意の組み合わせ)を含み得るが、これらに限定されない。
【0023】
焦点遷移マーカは、いくつかの信号に基づいて表示(または実行)のためにトリガされ得る。信号の例は、任意の1つまたは複数の注視信号(例えば、視線)、頭部トラッキング信号、明示的なユーザ入力、および/または遠隔ユーザ入力(またはその任意の組み合わせ)を含み得る。いくつかの実装形態において、本明細書に説明されるシステムは、焦点遷移マーカが表示される、または画面から除去されるようにトリガするために、上記信号のうちの1つまたは複数における特定の変化を検出し得る。制御部を有するマーカを実行することは、仮想画面上に仮想制御要素を伴うマーキングを表示することに関連し得、このときユーザは、仮想画面上で少なくともアクションをトリガするために行動し得る。例えば、ユーザは、マーカの制御部を介して、提示されたコンテンツとインタラクトすることができてもよい。
【0024】
いくつかの実装形態において、本明細書に説明されるシステムおよび方法は、ウェアラブルコンピューティングデバイスに搭載の1つまたは複数のセンサを利用し得る。センサは、焦点遷移マーカが表示されること、またはディスプレイから除去されることをトリガし得る信号を検出し得る。そのようなセンサ信号はまた、特定の焦点遷移マーカの形態および/または機能を決定するために使用され得る。いくつかの実装形態において、センサ信号は、特定のコンテンツのための焦点遷移マーカの形態および/または機能を決定し得る機械学習および/または他のモデル化タスクを実行するための入力として使用され得る。
【0025】
図1は、本開示全体を通して説明される実装形態による、ユーザ注意を追跡し、焦点遷移マーカを生成して、ユーザがウェアラブルコンピューティングデバイス100によって提供されるコンテンツに戻ることを支援するためのウェアラブルコンピューティングデバイス100の例である。この例では、ウェアラブルコンピューティングデバイス100は、ARスマートグラス(例えば、光学シースルー方式のウェアラブルディスプレイデバイス、ビデオシースルー方式のウェアラブルディスプレイデバイス)の形態で描写される(例えば、提示される)。しかしながら、任意の形状因子のバッテリ駆動デバイスが、本明細書に説明されるシステムおよび方法と置き換えられ、またこれと組み合わされ得る。いくつかの実装形態において、ウェアラブルコンピューティングデバイス100は、1つまたは複数のセンサ、注意入力、機械学習(ML)モデル、プロセッサ、エンコーダ、および同様のもののいずれかまたはすべてに搭載されてこれらと通信状態にある(またはこれらへの通信アクセスを有する)システムオンチップ(SOC)アーキテクチャ(図示せず)を含む。
【0026】
動作中、ウェアラブルコンピューティングデバイス100は、仮想画面104内にコンテンツ(例えば、コンテンツ102a、102b、および102c)のビューを、ならびに仮想画面104の背後に物質的世界ビュー106のビューを提供し得る。画面104上またはその背後に描写されるコンテンツは、物理的コンテンツならびに拡張現実(AR)コンテンツを含み得る。いくつかの実装形態において、ウェアラブルコンピューティングデバイス100は、モバイルコンピューティングデバイス、サーバコンピューティングデバイス、トラッキングデバイス、および同様のものなど、他のデバイスと通信可能に結合され得る。
【0027】
ウェアラブルコンピューティングデバイス100は、仮想画面104上に描写されるコンテンツ(例えば、102a、102b、102c)に対するユーザの注意入力108(例えば、焦点、注視、注意)を検出するために1つまたは複数のセンサ(図示せず)を含み得る。検出された注意108(例えば、焦点)は、どのコンテンツ102a、102b、102cが見られているかを決定するための基礎として使用され得る。決定されたコンテンツ102a、102b、102cのいずれかまたはすべては、例えば、デバイス100が、焦点外れ事象(例えば、ユーザの注意の変化)を検出するとき、および/または焦点外れ事象を検出し、次いで画面104上の再合焦事象を検出するとき、焦点遷移マーカ110(例えば、コンテンツ効果)を生成するために何らかの形式で修正され得る。
【0028】
注意入力108は、デバイス100によって生成されるか、デバイス100によって獲得される任意の数のモデルに提供され得る。モデルは、注意/焦点モデル112、リアルタイムユーザモデル114、およびコンテンツ認識モデル116を含み得る。各モデル112~116は、ユーザ注意および/またはデバイス100によりアクセスされるコンテンツの特定の態様を分析して、ユーザが妨害されたタスクまたはコンテンツ閲覧に戻ることを支援し得る特定の焦点遷移マーカを生成するように構成され得る。
【0029】
注意/焦点モデル112は、例えば、デバイス100によって捕捉されるリアルタイムセンサデータに基づいた、ユーザの注意(例えば、焦点)および/またはインタラクションのリアルタイムモデルを表し得る。モデル112は、仮想画面104上のユーザ焦点(例えば、注意108)を検出および追跡し、ならびに/または、仮想画面104とのインタラクションを追跡するだけでなく、焦点および/もしくは注意、および/もしくは物理的世界とのインタラクションも追跡し得る。いくつかの実装形態において、モデル112は、そのような焦点および/またはインタラクションを追跡するために特定の信号(例えば、視線追跡またはユーザ入力)を受信または検出し得る。信号は、仮想画面104内のコンテンツのどの部分が現在ユーザの焦点であるかを決定するために活用され得る。
【0030】
簡単に言うと、注意/焦点モデル112は、デバイス100のユーザが仮想画面104内のユーザインターフェースコンテンツを注視しているか否か、または代わりに、ユーザインターフェースを超えて物理的世界を注視しているかどうかを決定するために使用され得る。例えば、モデル112は、デバイス100のユーザに提供される視線信号を分析し得る。視線信号は、ユーザの注意のモデルを生成するために使用され得る。例えば、視線信号は、予め定められた時間期間内の視線位置のヒートマップ118を生成するために使用され得る。デバイス100は、予め定められた時間期間にわたって、ヒートマップ118が仮想画面104の上に重ね合わさる量(例えば、画面104のパーセンテージ)を決定し得る。この量が既定のしきい値よりも大きいことが決定される場合、デバイス100は、ユーザがヒートマップによって示される特定のユーザインターフェースに注意を払っていることをマップが示すことを決定し得る。この量が既定のしきい値よりも小さいことが決定される場合、デバイス100は、ユーザがユーザインターフェースから気をそらされていることをマップが示すことを決定し得る。
【0031】
コンテンツ認識モデル116は、仮想ディスプレイ上の特定のコンテンツに対する現在および予期されるユーザ注意を表し得る。注意/焦点モデルと同様に、ユーザの焦点および/または注意は、視線に基づいて検出および/または追跡され得る。モデル116は、ユーザがコンテンツおよび/または仮想画面104に対して実施しようとしている可能性のあるアクションを予測するための基礎として特定の動きの軌道を決定(または推定)し得る。予測は、リアルタイムユーザモデル114に提供され得、これは、例えば、ユーザの現在の注意/焦点およびコンテンツとのインタラクションの状態をモデル化するために生成される。モデル116は、ユーザがユーザインターフェース(例えば、コンテンツ)へ焦点/注意を戻す際に行い得るタスクを予測するために、コンテンツを描写するユーザインターフェースの状態を決定および予測するために使用され得る。
【0032】
いくつかの実装形態において、コンテンツ認識モデル116は、連続コンテンツ内の動きを予測し得る。例えば、コンテンツ認識モデル116は、動きのシーケンスとして説明され得る要素を含むコンテンツをモデル化し得る。そのようなコンテンツを用いて、モデル116は、コンテンツへ焦点/注意を戻す際にユーザを誘導するために、ユーザの予測された焦点/および注意を決定し得る。例えば、モデル116は、焦点が仮想画面104のコンテンツ上に残っていた場合に、ユーザが見ていた可能性のある1つまたは複数の場所をハイライト表示(または別途マーク)するために注視または動きの軌道を推定し得る。例えば、ユーザが、物体が動くことをトリガするアクションを実施する場合、ユーザは、物体の軌道を目で追い得る。ユーザは目を離す(すなわち、コンテンツ上で焦点を外す)が、物体は、軌道内を動き続ける。故に、ユーザがコンテンツに再び焦点を合わせるとき、モデル116は、ユーザを物体の現在の位置へ誘導するために焦点遷移マーカを生成およびレンダリングし得る。
【0033】
いくつかの実装形態において、コンテンツ認識モデル116は、連続アクションにおける遷移を予測し得る。すなわち、アクションのシーケンスとして説明され得る要素を有するコンテンツの場合(例えば、ユーザインターフェース内でトリガされる)、焦点遷移マーカは、特定のアクションの結果を強調するために生成され得る。例えば、ボタンをクリックすることが仮想画面104上のある場所においてアイコンを露出させる場合、モデル116は、そのアクションのシーケンス内のコンテンツおよび/または位置に基づいて、ユーザが妨害から仮想画面へと再び焦点を合わせるとき、アイコンがハイライト表示され得ることを決定し得る。そのようなハイライト表示は、ユーザの注視を変化の方へ誘導し得る。
【0034】
いくつかの実装形態において、モデル112~116は、ユーザ入力、注意入力などに基づいて事前訓練を伴うMLモデルとして機能し得る。いくつかの実装形態において、モデル112~116は、リアルタイムユーザ注意データに基づいて機能し得る。いくつかの実装形態において、モデル112~116は、MLモデルおよびリアルタイムモデルの組み合わせとして機能し得る。
【0035】
いくつかの実装形態において、ウェアラブルコンピューティングデバイス100は、ユーザの特定の検出された焦点または注意の近くで発生し得る焦点外れ事象および再合焦事象を検出し得る。焦点外れおよび再合焦事象は、焦点遷移マーカおよび関連コンテンツを生成するために、モデル112~116のうちの任意の1つまたは複数の使用をトリガし得る。例えば、ウェアラブルコンピューティングデバイス100は、そのような事象を検出し、例えば、ユーザが画面104内のコンテンツに再び焦点を合わせることを支援するためにどのように焦点遷移コンテンツを生成するかを決定し得る。この決定は、ユーザ焦点を特定の予測した次のアクションと一致させて、更新されたおよびユーザに関連したコンテンツを生成および提供するために、コンテンツアイテムおよび/またはユーザインタラクションを分析することを含み得る。いくつかの実装形態において、焦点遷移コンテンツは、焦点遷移マーカとして追加のコンテンツを生成することなくユーザが特定のコンテンツへ再び焦点を合わせることを支援するために、描写したコンテンツを拡大すること、または描写したコンテンツを縮小することを含む。
【0036】
非限定的な例において、ユーザは、仮想画面104上でコンテンツ102aを見ていてもよい。ウェアラブルコンピューティングデバイス100は、画面104上のコンテンツ102a(例えば、コンテンツ102aの領域120)に対するユーザの焦点を追跡し得る。
図1に示されるように、追跡された焦点は、ヒートマップ118として描写され得、主な焦点が中心領域120にある。故に、この例では、デバイス100は、ユーザが、作曲アプリケーションによって示される、領域120近くの楽譜に焦点を合わせていることを決定し得る。
【0037】
ある時点で、ユーザは、他のコンテンツによって、または外部の物質的世界ビュー106によって、中断、または別途妨害され得る。デバイス100は、焦点外れ事象が、以前に焦点を合わせていたコンテンツ102aに対して発生したことを決定し得る。ユーザが中断される(例えば、コンテンツ102aから焦点が外れることが決定される)場合、デバイス100は、例えば、コンテンツ102aの別の領域122(または他のコンテンツまたは領域)と関連付けられた次の合焦事象を決定し得る。この決定は、焦点外れ事象、および検出された焦点外れ事象の前の既定の時間期間中に発生した注視軌道に対応するユーザの連続的な追跡された焦点に少なくとも部分的に基づき得る。
【0038】
例えば、楽譜コンテンツ102aにおいて、デバイス100は、ユーザがコンテンツ102a上に(または一般に、仮想画面104へ)焦点を戻すとき、ユーザが、領域120の近くの(例えば、ユーザによって既に見られていたおよび/または作成されていた可能性のある領域120コンテンツの後の)作曲アプリケーションと少なくとも関与することを含む次の合焦事象またはアクションを実施する可能性があり得ることを決定し得る。デバイス100は、次いで、決定した次の合焦事象に基づいて、焦点遷移コンテンツの形態にある少なくとも1つの焦点遷移マーカを生成して、コンテンツの第2の領域122を仮想画面104に示されるコンテンツの残部と区別し得る。
【0039】
別の例では、ユーザが楽譜コンテンツ102aを見ており、楽譜コンテンツ102aを目で追いながら楽器を演奏している場合、ユーザは、楽譜の別の領域へカーソルを戻して、ユーザがあるセクションを再び演奏すること、またはセクションを飛ばすことを可能にし得る。
【0040】
この例では、焦点遷移コンテンツは、直近の既知の焦点領域120bに基づいて次の合焦事象を実施するべき強調領域を示す第2の領域122bの拡大版を、次のステップのためのメニュー124と共に含み、これらのすべては、出力コンテンツ102bとして提示され得る。この例では、焦点遷移マーカは、ユーザが次の楽句を編集する作業を始めることを可能にするために、拡大したコンテンツ領域122bを含む。次の楽句は、ユーザの直近の焦点領域が120aであったことを決定したコンテンツ認識モデル116に基づいて選択され、マーカ120bとして出力コンテンツ102bに描写される。メニュー124は、ユーザが焦点外れ事象の前に使用した直近のアプリケーションにおいて次のタスクを開始することを可能にするために、焦点遷移マーカ(例えば、コンテンツ)を示す。ここでは、メニューは、ユーザが作曲モードを開くこと、マーカ120b(例えば、ブックマーク)まで音楽を演奏すること、および直近のエントリを開くことを可能にする選択肢を含む。他の選択肢も可能である。簡単に言うと、出力コンテンツ102bは、ユーザが仮想画面104上のコンテンツに焦点を取り戻すことを支援するために、焦点遷移マーカと共にコンテンツ102aを示す。
【0041】
本明細書で使用される場合、焦点外れ事象とは、以前にユーザの焦点(例えば、注意)であったコンテンツへの注意の欠如の検出を指し得る。例えば、焦点外れ事象は、ウェアラブルコンピューティングデバイス100によって検出されるユーザの視線そらしを含み得る。いくつかの実装形態において、焦点外れ事象は、頭部の回転、頭部を上もしくは下へ向けること、ユーザからのデバイス取り外し(例えば、ウェアラブルコンピューティングデバイスを取り外すこと)、および/またはそれらの任意の組み合わせなど、ユーザ関連の動きを含み得る。いくつかの実装形態において、焦点外れ事象は、ユーザがコンテンツから離脱し、他のコンテンツ、仮想画面上に提示する異なるコンテンツの集合、および/またはそれらの任意の組み合わせへ切り替えることをトリガするデバイス100によって検出される外部事象を含み得る。
【0042】
本明細書で使用される場合、再合焦事象とは、同じコンテンツと関連付けられた焦点外れ事象の後に発生するコンテンツへの継続した注意(または焦点)の検出を指し得る。例えば、再合焦事象は、以前に見たコンテンツおよび/またはユーザが焦点外れ事象の前に関わったコンテンツに焦点を合わせた検出された視線を含み得る。故に、再合焦事象は、焦点外れ事象の後のしきい値時間量の後に発生し得る。
【0043】
本明細書で使用される場合、次の合焦事象とは、ユーザが焦点外れ事象の後に実施することが予測され得る任意の次のステップ、アクション、合焦、または注意を指し得る。次の合焦事象は、本明細書に説明されるモデルによって決定され得る。
【0044】
動作中、デバイス100は、注意入力108を検出し得、また、デバイス100がユーザ注意/焦点における変化を検出する126とき、注意/焦点モデル112、リアルタイムユーザモデル114、および/またはコンテンツ認識モデル116(または他のユーザ入力またはデバイス100入力)のうちのいずれかまたはすべてを使用し得る。注意/焦点における変化が決定されると、デバイス100は、画面104と関連付けられた再合焦事象を検出することに応答して仮想画面104上への出力102bの表示をトリガするために、焦点遷移マーカの生成128および焦点遷移マーカの実行130をトリガし得る。
【0045】
いくつかの実装形態において、本明細書に説明されるシステムおよび方法は、ウェアラブルコンピューティングデバイスのディスプレイ(例えば、仮想画面)内またはその先のユーザ注意(例えば、焦点、インタラクション、視線など)を追跡および誘導するために、コンテンツ認識焦点遷移マーカ(例えば、ユーザインターフェースにおける拡張)を実装し得る。コンテンツ認識焦点遷移マーカは、2つ以上の焦点領域間で遷移するときにユーザを支援するために、UI、音声、および/または触覚コンテンツを含み得る。焦点遷移マーカは、仮想世界コンテンツと物理的世界コンテンツとの間の切り替えにおける混乱を少なくするコンテンツ拡張を含み得る。
【0046】
いくつかの実装形態において、本明細書に説明されるシステムおよび方法は、ユーザがどんなアクションをとろうとしているかを予期するために注視および/または動きの軌道を推定するために、現在および予期したユーザ注意(例えば、焦点、インタラクション、視線など)のコンテンツ認識モデルを生成および使用し得る。この情報は、ユーザの状態のリアルタイムユーザモデルに提供され得、これは、現在のUIモデルおよびUI状態と組み合わされ得る。故に、本明細書に説明されるシステムおよび方法は、ユーザが、ある時間期間にわたって視線をそらした後に、どこのおよびどんな領域/コンテンツに戻ることが期待されるかを予測し得る。
【0047】
複数のモデル112~116が描写されるが、単一のモデルまたは複数の追加のモデルが、デバイス100上ですべてのモデル化および予測タスクを実行するために利用され得る。いくつかの実装形態において、各モデル112、114、および116は、例えば、デバイス100に搭載された、および/またはモバイルデバイスを介してデバイス100に通信可能に結合される、1つまたは複数のプロセッサ上で実行され得る異なるアルゴリズムまたはコードスニペットを表し得る。
【0048】
ウェアラブルコンピューティングデバイス100は、この例では、ARグラスとして描写される。一般に、デバイス100は、システム100および/または200および/または600のいずれかまたはすべての構成要素を含み得る。ウェアラブルコンピューティングデバイス100は、眼鏡の形状で設計される光学ヘッドマウントディスプレイデバイスを表すスマートグラスとしても示され得る。例えば、デバイス100は、装着者がデバイス100を通じて見るものと一緒に、情報を追加(例えば、ディスプレイを投影)し得るハードウェアおよびソフトウェアを表し得る。
【0049】
デバイス100は、本明細書に説明されるウェアラブルコンピューティングデバイスとして示されるが、他のタイプのコンピューティングデバイスも可能である。例えば、ウェアラブルコンピューティングデバイス100は、光学ヘッドマウントディスプレイ(OHMD)デバイスなどのヘッドマウントディスプレイ(HMD)デバイス、透明ヘッドアップディスプレイ(HUD)デバイス、拡張現実(AR)デバイス、または、センサ、ディスプレイ、およびコンピューティング能力を有するゴーグルもしくはヘッドセットなどの他のデバイスを含むが、これらに限定されない、任意のバッテリ駆動デバイスを含み得る。いくつかの例では、ウェアラブルコンピューティングデバイス100は、代わりに、腕時計、モバイルデバイス、宝飾品、リングコントローラ、または他のウェアラブルコントローラであってもよい。
【0050】
図2は、本開示全体を通して説明される実装形態による、ウェアラブルコンピューティングデバイス100と関連付けられた、ユーザ注意をモデル化および追跡し、ユーザ注意に基づいてコンテンツを生成するためのシステム200を例証する。いくつかの実装形態において、モデル化および/または追跡は、ウェアラブルコンピューティングデバイス100上で実施され得る。いくつかの実装形態において、モデル化および/または追跡は、1つまたは複数のデバイス間で共有され得る。例えば、モデル化および/または追跡は、部分的にウェアラブルコンピューティングデバイス100上で完了され、また部分的にモバイルコンピューティングデバイス202(例えば、デバイス100に通信可能に結合されるモバイルコンパニオンデバイスなど)および/またはサーバコンピューティングデバイス204上で完了され得る。いくつかの実装形態において、モデル化および/または追跡は、ウェアラブルコンピューティングデバイス100上で実施され得、そのような処理からの出力は、さらなる分析のためにモバイルコンピューティングデバイス202および/またはサーバコンピューティングデバイス204に提供される。
【0051】
いくつかの実装形態において、ウェアラブルコンピューティングデバイス100は、1つまたは複数のコンピューティングデバイスを含み、デバイスのうちの少なくとも1つは、人間の皮膚上またはその近くに身に着けることができるディスプレイデバイスである。いくつかの例では、ウェアラブルコンピューティングデバイス100は、1つもしくは複数のウェアラブルコンピューティングデバイス構成要素であるか、またはこれを含む。いくつかの実装形態において、ウェアラブルコンピューティングデバイス100は、光学ヘッドマウントディスプレイ(OHMD)デバイスなどのヘッドマウントディスプレイ(HMD)デバイス、透明ヘッドアップディスプレイ(HUD)デバイス、仮想現実(VR)デバイス、ARデバイス、または、センサ、ディスプレイ、およびコンピューティング能力を有するゴーグルもしくはヘッドセットなどの他のデバイスを含み得る。いくつかの実装形態において、ウェアラブルコンピューティングデバイス100は、ARグラス(例えば、スマートグラス)を含む。ARグラスは、眼鏡の形状で設計される光学ヘッドマウントディスプレイデバイスを表す。いくつかの実装形態において、ウェアラブルコンピューティングデバイス100は、スマートウォッチであるか、またはこれを含む。いくつかの実装形態において、ウェアラブルコンピューティングデバイス100は、宝飾品であるか、またはこれを含む。いくつかの実装形態において、ウェアラブルコンピューティングデバイス100は、リングコントローラデバイスまたは他のウェアラブルコントローラであるか、またはこれを含む。いくつかの実装形態において、ウェアラブルコンピューティングデバイス100は、イヤバッズ/ヘッドホンまたはスマートイヤバッズ/ヘッドホンであるか、またはこれを含む。
【0052】
図2に示されるように、システム200は、モバイルコンピューティングデバイス202に通信可能に結合され、任意選択的にサーバコンピューティングデバイス204に通信可能に結合される、ウェアラブルコンピューティングデバイス100を含む。いくつかの実装形態において、通信可能な結合は、ネットワーク206を介して発生し得る。いくつかの実装形態において、通信可能な結合は、ウェアラブルコンピューティングデバイス100、モバイルコンピューティングデバイス202、および/またはサーバコンピューティングデバイス204の間に直接発生し得る。
【0053】
ウェアラブルコンピューティングデバイス100は、1つもしくは複数のマシン可読命令、またはソフトウェア、ファームウェア、もしくはそれらの組み合わせを実行するように構成される基板内に形成され得る1つまたは複数のプロセッサ208を含む。プロセッサ208は、半導体ベースであり得、デジタル論理を実施し得る半導体材料を含み得る。プロセッサ208は、例えばいくつか例を挙げると、CPU、GPU、および/またはDSPを含み得る。
【0054】
ウェアラブルコンピューティングデバイス100は、1つまたは複数のメモリデバイス210も含み得る。メモリデバイス210は、プロセッサ208によって読み出され得る、および/または実行され得る形式で情報を記憶する、任意のタイプのストレージデバイスを含み得る。メモリデバイス210は、プロセッサ208によって実行されると、特定の動作を実施する、アプリケーション212およびモジュールを記憶し得る。いくつかの例では、アプリケーション212およびモジュールは、外部ストレージデバイスに記憶され、メモリデバイス210内へ読み込まれ得る。
【0055】
ウェアラブルコンピューティングデバイス100は、センサシステム214を含む。センサシステム214は、表示されたコンテンツの、および/またはユーザが見ているコンテンツの画像データを検出および/または獲得するように構成される1つまたは複数の画像センサ216を含む。いくつかの実装形態において、センサシステム214は、複数の画像センサ216を含む。画像センサ216は、画像(例えば、画像の画素、フレーム、および/または部分)およびビデオを捕捉および記録し得る。
【0056】
いくつかの実装形態において、画像センサ216は、赤、緑、青(RGB)カメラである。いくつかの例では、画像センサ216は、パルスレーザセンサ(例えば、LiDARセンサ)および/または深度カメラを含む。例えば、画像センサ216は、画像を作成するために使用される情報を検出および伝達するように構成されるカメラであり得る。いくつかの実装形態において、画像センサ216は、例えば、デバイス100にアクセスするユーザの目の運動を捕捉する視線/注視トラッカ218など、視線追跡センサ(またはカメラ)である。
【0057】
視線/注視トラッカ218は、メモリ210に記憶される命令を含み、この命令は、プロセッサ208によって実行されると、本明細書に説明される注視検出動作をプロセッサ208に実施させる。例えば、視線/注視トラッカ218は、ユーザの注視が向けられる仮想画面226上の場所を決定し得る。視線/注視トラッカ218は、センサシステム214の撮像デバイス(例えば、センサ216および/またはカメラ224)によって捕捉される画像内のユーザの瞳孔の場所を識別および追跡することに基づいてこの決定を行い得る。
【0058】
動作中、画像センサ216は、デバイス100が起動されている間、連続的または周期的に画像データ(例えば、光学センサデータ)を獲得(例えば、捕捉)するように構成される。いくつかの実装形態において、画像センサ216は、常時オンのセンサとして動作するように構成される。いくつかの実装形態において、画像センサ216は、ユーザと関連付けられた注意/焦点変化または注視変化の検出に応答して起動され得る。いくつかの実装形態において、画像センサ216は、目的の物体または領域を追跡し得る。
【0059】
センサシステム214はまた、慣性運動装置(IMU)センサ220を含み得る。IMUセンサ220は、ウェアラブルコンピューティングデバイス100の動き、運動、および/または加速を検出し得る。IMUセンサ220は、例えば、加速度計、ジャイロスコープ、磁力計、および他のそのようなセンサなど、様々な異なるタイプのセンサを含み得る。いくつかの実装形態において、センサシステム214は、特定のユーザアクション、動きなどを仮想画面から直接的に検出し得る画面埋め込み型センサを含み得る。
【0060】
いくつかの実装形態において、センサシステム214は、ウェアラブルコンピューティングデバイス100によって受信される音声を検出するように構成される音声センサ222も含み得る。センサシステム214は、光センサ、距離および/もしくは近接センサ、容量センサなどの接触センサ、タイマ、ならびに/または他のセンサおよび/もしくはセンサの異なる組み合わせなど、他のタイプのセンサを含み得る。センサシステム214は、ウェアラブルコンピューティングデバイス100の位置および/または配向と関連付けられた情報を獲得するために使用され得る。いくつかの実装形態において、センサシステム214はまた、音声コンテンツを出力するようにトリガされ得る音声出力デバイス(例えば、1つまたは複数のスピーカ)を含むか、またはこれへのアクセスを有する。
【0061】
センサシステム214は、静止画および/または動画を捕捉することができるカメラ224も含み得る。いくつかの実装形態において、カメラ224は、カメラ224からの外部の物体の距離に関連したデータを収集し得る深度カメラであり得る。いくつかの実装形態において、カメラ224は、例えば入力デバイス上の光学マーカまたは画面上の指など、例えば、外部デバイス上の1つまたは複数の光学マーカを検出すること、または追うことができる点追尾カメラであり得る。入力は、例えば、入力検出器215によって検出され得る。
【0062】
ウェアラブルコンピューティングデバイス100は、仮想画面226(例えば、ディスプレイ)を含む。仮想画面226は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機発光ディスプレイ(OLED)、電気泳動ディスプレイ(EPD)、またはLED光源を採用するマイクロ投影ディスプレイを含み得る。いくつかの例では、仮想画面226は、ユーザの視野上へ投影される。いくつかの例では、ARグラスの場合、仮想画面226は、ARグラスを装着しているユーザが、仮想画面226によって提供される画像だけでなく、投影画像の裏のARグラスの視野に配置される情報も見ることができるように、透明または半透明ディスプレイを提供し得る。いくつかの実装形態において、仮想画面226は、物理的に存在するよりも大きい画面画像を生成する仮想モニタを表す。
【0063】
ウェアラブルコンピューティングデバイス100は、UIレンダラ228も含む。UIレンダラ228は、ウェアラブルコンピューティングデバイス100のユーザに対してユーザインターフェース物体または他のコンテンツを描写するために画面226と共に機能し得る。例えば、UIレンダラ228は、デバイス100によって捕捉される画像を受信して、焦点遷移マーカ230などの追加のユーザインターフェースコンテンツを生成およびレンダリングし得る。
【0064】
焦点遷移マーカ230は、コンテンツ232、UI効果234、音声効果236、および/または触覚効果238のうちのいずれかまたはすべてを含み得る。コンテンツ232は、UIレンダラ228によって提供され、仮想画面226上に表示され得る。コンテンツ232は、モデル248、および1つまたは複数のしきい値条件254に従うコンテンツ生成器252を使用して生成され得る。例えば、コンテンツ232は、モデル248に基づいてコンテンツ生成器252によって生成され、しきい値条件254を満たすことに応答して、UIレンダラ228によって仮想画面226上でレンダリングされ得る。例えば、コンテンツ232は、(ある時間期間にわたって焦点外れ事象を検出した後に)仮想画面226と関連付けられた再合焦事象を検出することに応答して生成され得る。デバイス100は、焦点外れ事象後の既定の時間期間に発生した再合焦事象を検出することに基づいて、仮想画面226の決定された領域において、焦点遷移マーカ230(例えば、コンテンツ232)の実行(および/またはレンダリング)をトリガし得る。
【0065】
コンテンツ232は、画面226内の既存の表示コンテンツの上に描写される新規コンテンツのうちの任意の1つまたは複数を含み得る。例えば、コンテンツ232は、既存のコンテンツもしくはテキストに対する装飾、ハイライト、もしくはフォント変更、符号、矢印、アウトライン、下線、ボールド表示、または既存のコンテンツに対する他の強調を含み得る。同様の様式で、コンテンツの変化がないことは、ユーザが経験した妨害また中断の間(例えば、焦点外れ事象の間)変化が発生しなかったことをユーザに示し得る。
【0066】
UI効果234は、アニメーション、照明効果、コンテンツのオン/オフのフラッシング、テキストまたは画像の運動、テキストまたは画像の置換、コンテンツを再生するためのビデオスニペット、新規または見逃したコンテンツを強調するためのコンテンツの縮小/拡大、および同様のもののうちの任意の1つまたは複数を含み得る。同様の様式で、表示されたUI効果がないことは、ユーザが経験した妨害また中断の間(例えば、焦点外れ事象の間)変化が発生しなかったことをユーザに示し得る。すなわち、焦点外れ事象と関連付けられた焦点遷移マーカは、仮想画面上に描写されるコンテンツに対する変化(例えば、実質的な変化)が発生しなかったことを決定することに応答して(すなわち、焦点外れ事象の間、および次の合焦事象の前)、抑制され得る。
【0067】
音声効果236は、変化が、焦点外れ事象の間および後、しかしながら検出した再合焦事象の前に発生していた可能性があることを示すために聴覚合図を含み得る。音声効果236は、例えば、焦点外れ時間の間にコンテンツを見逃したことを示すためにユーザによって事前設定される音声合図など、仮想画面226上での表示のために既に利用可能なコンテンツに追加される音声を含み得る。事前設定された音声合図には、ユーザが焦点を外していた間に発生していた可能性のある任意の変化と関連付けられた視覚または触覚データも提供され得る。いくつかの実装形態において、焦点遷移マーカ230は、焦点外れ事象と関連付けられた時間から再合焦事象と関連付けられた時間までの、提示されたコンテンツ内の検出された変化のビデオまたは音声の再生を含む。検出された変化の再生は、検出された変化に対応する視覚または聴覚合図を含み得る。同様の様式で、音声効果がないことは、ユーザが経験した妨害また中断の間(例えば、焦点外れ事象の間)変化が発生しなかったことをユーザに示し得る。
【0068】
触覚効果238は、変化が、焦点外れ事象の間および後、しかしながら検出した再合焦事象の前に発生していた可能性があることを示すために触覚合図を含み得る。いくつかの実装形態において、触覚効果238は、ヘッドホンドライバ(例えば、スピーカ信号に基づいた骨伝導信号)によって提供され得る。いくつかの実装形態において、触覚効果238は、デバイス100の構成要素によって生成される振動によって提供され得る。例えば、触覚効果238は、デバイス100内に設置され、触覚信号を生成するように構成される線形アクチュエータ(図示せず)によって提供され得る。
【0069】
触覚効果は、画面226もしくはデバイス100、またはウェアラブルイヤバッズと関連付けられたスピーカからの振動など、触覚コンテンツを含み得る。触覚効果238はまた、画面226上に提示されるジェスチャ、するべき選択または焦点外れ時間期間の間に見逃した変化を示すアニメーション、焦点外れ時間期間の間に見逃した変化を示す再生事象などを含み得る。
【0070】
いくつかの実装形態において、焦点遷移マーカ230は、焦点外れ事象と関連付けられた時間から再合焦事象と関連付けられた時間までの、提示されたコンテンツ内の検出された変化のビデオまたは音声の再生を含む。検出された変化の再生は、検出された変化に対応する触覚合図(例えば、効果)を含む。
【0071】
いくつかの実装形態において、触覚効果は、焦点外れ事象の間に発生した変化に関して指示を提供し得る。例えば、触覚効果238は、動きの再生、メニュー提示および選択、ならびに/またはユーザが見逃したコンテンツを見直すためにとり得る他のタイプの選択可能なアクションを示唆するために振動を含み得る。同様の様式で、触覚効果がないことは、ユーザが経験した妨害また中断の間(例えば、焦点外れ事象の間)変化が発生しなかったことをユーザに示し得る。
【0072】
ウェアラブルコンピューティングデバイス100は、ウェアラブルコンピューティングデバイス100の動作を促進するために、様々な制御システムデバイスを含む制御システム240も含む。制御システム240は、プロセッサ208、センサシステム214、ならびに/または、ウェアラブルコンピューティングデバイス100の構成要素に動作可能に結合される任意の数の搭載CPU、GPUS、DSP、および同様のもの)を利用し得る。
【0073】
ウェアラブルコンピューティングデバイス100は、通信モジュール242も含む。通信モジュール242は、ウェアラブルコンピューティングデバイス100が、デバイス100の範囲内の別のコンピューティングデバイスと情報を交換するために通信することを可能にし得る。例えば、ウェアラブルコンピューティングデバイス100は、アンテナ244を介して、例えば、有線接続、例えばWi-FiもしくはBluetooth(登録商標)を介したワイヤレス接続、または他のタイプの接続を通じて、通信を促進するために別のコンピューティングデバイスに動作可能に結合され得る。
【0074】
ウェアラブルコンピューティングデバイス100は、ワイヤレス信号を介して他のコンピューティングデバイスと通信するように構成される1つまたは複数のアンテナ244も含み得る。例えば、ウェアラブルコンピューティングデバイス100は、1つまたは複数のワイヤレス信号を受信し、そのワイヤレス信号を使用して、モバイルコンピューティングデバイス202および/もしくはサーバコンピューティングデバイス204などの他のデバイス、またはアンテナ244の範囲内の他のデバイスと通信し得る。ワイヤレス信号は、短距離接続(例えば、ブルートゥース(登録商標)接続または近距離通信(NFC)接続)またはインターネット接続(例えば、Wi-Fiまたはモバイルネットワーク)などのワイヤレス接続を介してトリガされ得る。
【0075】
ウェアラブルコンピューティングデバイス100はまた、ユーザ許可246を含み得るか、またはそこへのアクセスを有し得る。そのような許可246は、コンテンツに対するユーザ提供および認証の許可に基づいて予め構成され得る。例えば、許可246は、カメラ、コンテンツアクセス、習性、過去の入力および/または挙動、ならびに同様のものに対する許可を含み得る。ユーザは、そのような許可を提供して、デバイス100が、例えば、次のユーザアクションを予期するために使用され得る、ユーザに関する文脈上の合図を識別することを可能にし得る。ユーザが許可246を構成しなかった場合、本明細書に説明されるシステムは、焦点遷移マーカおよびコンテンツを生成しない場合がある。
【0076】
いくつかの実装形態において、ウェアラブルコンピューティングデバイス100は、ネットワーク206を通じてサーバコンピューティングデバイス204および/またはモバイルコンピューティングデバイス202と通信するように構成される。サーバコンピューティングデバイス204は、いくつかの異なるデバイス、例えば標準サーバ、そのようなサーバのグループ、またはラックサーバシステムの形態をとり得る1つまたは複数のコンピューティングデバイスを表し得る。いくつかの実装形態において、サーバコンピューティングデバイス204は、プロセッサおよびメモリなどの構成要素を共有する単一のシステムである。ネットワーク206は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、セルラネットワーク、衛星ネットワーク、または他のタイプのデータネットワークなど、インターネットおよび/または他のタイプのデータネットワークを含み得る。ネットワーク206は、ネットワーク206内でデータを受信および/または送信するように構成される任意の数のコンピューティングデバイス(例えば、コンピュータ、サーバ、ルータ、ネットワークスイッチなど)も含み得る。
【0077】
入力検出器215は、例えば、センサシステム214から受信される入力、および/または仮想画面226上で受信される明白なユーザ入力を処理し得る。入力検出器215は、仮想画面226上に描写されるコンテンツに対するユーザの注意入力(例えば、焦点、注視、注意)を検出し得る。検出された注意(例えば、焦点)は、どのコンテンツが見られているかを決定するための基礎として使用され得る。決定されたコンテンツのいずれかまたはすべては、例えば、デバイス100が、焦点外れ事象を検出するとき、および/または焦点外れ事象を検出し、次いで画面226上の再合焦事象を検出するとき、焦点遷移マーカ230(例えば、コンテンツ効果)を生成するために何らかの形式で修正され得る。
【0078】
注意入力は、デバイス100によって生成されるか、デバイス100によって獲得される任意の数のモデル248に提供され得る。
図2に示されるモデル248は、注意モデル112、リアルタイムユーザモデル114、およびコンテンツ認識モデル116を含むが、これらに限定されず、これらの各々は、上に詳細に説明される。モデルのいずれかまたはすべては、デバイス100に搭載された機械学習タスクを実行するためにニューラルネットワーク(NN)250を呼び出すか、またはこれにアクセスし得る。NNは、特定の注意合焦および焦点外れを予測および/または検出するため、ならびにデバイス100のユーザが仮想画面226の領域に焦点を取り戻すことを支援するために焦点遷移マーカ230(例えば、コンテンツ232、UI効果234、音声効果236、および/または触覚効果238)を生成するために、機械学習モデルおよび/または動作と共に使用され得る。
【0079】
いくつかの実装形態において、センサシステム214によって獲得されるセンサデータに対して実施される処理は、機械学習(ML)推論動作と称される。推論動作とは、1つまたは複数の予測を行う(またはこれを導く)MLモデルに関与する画像処理動作、ステップ、またはサブステップを指し得る。ウェアラブルコンピューティングデバイス100によって実行される特定のタイプの処理は、MLモデルを使用して予測を行い得る。例えば、機械学習は、新規データに関する決定をもたらすために、既存データからデータを学習する統計アルゴリズムを使用し得、これは推論と呼ばれるプロセスである。言い換えると、推論とは、既に訓練されているモデルを取り込み、その訓練済みモデルを使用して予測を行うプロセスを指す。
【0080】
図3A~
図3Dは、本開示全体を通して説明される実装形態による、ウェアラブルコンピューティングデバイスのディスプレイ上のユーザの焦点を追跡し、追跡された焦点に基づいてコンテンツを生成する例を例証する。
図3Aは、背景に物質的世界ビュー304Aを伴った仮想画面302Aを描写する。いくつかの実装形態において、仮想画面302Aは示されるが、物質的世界ビュー304Aは示されない。この例では、物質的世界ビュー304Aは、参照のために示されるが、動作中、ユーザは、仮想画面302A上のコンテンツを見ているものと検出され得、そのため、物質的世界ビュー304Aは、ユーザが画面302A上に描写されるコンテンツに焦点を合わせることを可能にするために、ビュー効果、ぼかし効果、透明効果、または他の効果から除去され得る。
【0081】
この例では、ウェアラブルコンピューティングデバイス100は、視線/注視トラッカ218(またはセンサシステム214と関連付けられた他のデバイス)を介して、デバイス100を操作しているユーザが、ここでは音楽アプリケーションとして示されるコンテンツ306に注意を向けている(例えば、焦点を合わせている)ことを決定し得る。視線/注視トラッカ218は、ユーザの視線/注視を追跡し、最も高い強度の注視が注視ターゲット310として示されるマップ308を生成し得る。マップ308は、一般的に、デバイス100を操作しているユーザが見るために提供されるものではなく、ここでは例証の目的のために示される。しかしながら、マップ308は、画面302Aのコンテンツおよび/または物質的世界ビュー304Aのコンテンツに対するユーザの注視(例えば、注意、焦点)を決定するためにセンサシステム214によって実施される代表的な注視分析を描写し得る。
【0082】
デバイス100は、ユーザがコンテンツ306に焦点を合わせていることを検出することから、デバイス100は、画面302Aのより中心の部分にコンテンツ306を置くためにコンテンツ306を修正し得る。いくつかの実装形態において、デバイス100は、コンテンツ306を拡大して、ユーザがコンテンツ306と関連付けられた追加のコンテンツとインタラクトすることを可能にし得る。注視ターゲット310は、ユーザがコンテンツ310、312、314、および/または画面302A内への表示のために構成される他のコンテンツとインタラクトすると、次第に変化し得る。加えて、注視ターゲット310は、ユーザが物質的世界ビュー304Aからの妨害を受ける場合に変化し得る。例えば、ある時点で、ユーザは、画面302Aの別の領域またはビュー304A内のコンテンツへと注意/焦点を変化させ得る。
【0083】
図3Bに示されるように、ユーザは、物理的世界からの妨害を受けていた可能性がある。妨害は、本質的に視覚、聴覚、または触覚であり得る。妨害は、ユーザの視線が、別の焦点へ移ること、または元の焦点(例えば、注視ターゲット)から外されることをトリガし得る。例えば、インジケータ318によって示されるように、ユーザは、別のユーザがユーザの名前を呼ぶのを聞き得る。ユーザは、このとき、画面302B内のコンテンツ306から焦点を外し得、焦点(例えば、注意、注視ターゲット)は、ユーザの視線変化を描写するマップ316によって示されるように、変化し得る。この例では、視線/注視トラッカ218は、例えば、ユーザが画面302Bの先を見ていることを検出し得、デバイス100上のコンテンツの提示における変化をトリガし始め得る。例えば、デバイス100は、画面302Bを通じて物質的世界ビュー304Bを透過的に示し始める。いくつかの実装形態において、デバイス100は、ビューから画面302Bを除去し得るか、または、ユーザが物理的ビュー304B内に描写されるコンテンツに焦点を合わせることを可能にするために、ぼかし得るか、もしくは他の効果を提示し得る。
【0084】
デバイス100(例えば、視線/注視トラッカ218)が310(
図3A)から316(
図3B)への注視の変化を検出すると、デバイス100は、
図3Cに示されるように、既定の時間量の後、画面302Bの表示をオフにし得る。この例では、デバイス100は、ユーザがマップ322によって示されるように視線/注視を領域320へ変化させることによって示されるような、ユーザ焦点の変化を検出し得る。加えて、デバイス100は、インジケータ324によって示されるように、話しているユーザが検出されないことを検出し得る。インジケータ324は、デバイス100のユーザに示されなくてもよく、代わりに、デバイス100によって決定および/または検出され、物理的環境304Cからのユーザが話すのをやめたことを示すために入力(例えば、入力検出器215を介した)として使用され得る。注視/焦点/注意(例えば、領域320への)におけるユーザの変化と組み合わせた、この音声合図は、物理的世界ではなく仮想画面と関連付けられた焦点位置へとユーザを引き戻すために、入力に基づいて焦点遷移マーカ230をトリガするようにデバイス100をトリガし得る。
【0085】
例えば、視線/注視トラッカ218は、ユーザがもはや物質的世界ビュー304Cに焦点を合わせていないことを検出し得、また、ユーザが仮想画面302Dとして
図3Dに示されるような仮想画面に再び焦点を合わせようとしている(例えば、または明らかにアクセスしようとしている)ことを検出し得る。この例では、デバイス100は、ユーザが以前のインターフェース(302A)からのコンテンツ312に注意を向け得る次の論理アイテムを決定していてもよい。コンテンツ312を選択するためのそのような決定は、ユーザが音楽アプリケーションを修正するためにコンテンツ310に以前に焦点を合わせていたが、ユーザの注視が、進行中の方向を伴う地図アプリケーションであるコンテンツ312の方へ(マップ308によって示されるように)推移し始めていたことに基づき得る。この推移は、検出された焦点外れ事象の前の予め定められた時間期間の間に発生した注視軌道と解釈され得る。
【0086】
動作中、デバイス100は、以前のステップまたはアクションに基づいて次のステップまたはアクションを決定するようにモデル248をトリガし得る。トリガは、例えば、画面302Aからの焦点外れの時間に発生し得る。デバイス100が、コンテンツ312が見込みの次の注視ターゲットまたはアクションであることを決定すると、システムは、焦点/注意が、
図3Dでは仮想画面302D内に示されるような、仮想画面へ戻ることが検出されるとき、ユーザが素早くコンテンツ312に焦点を合わせることを支援するために、焦点遷移マーカ230を生成し得る。
【0087】
ユーザがコンテンツ312にすぐに注意を払うことが予測されることを検出することに応答して、コンテンツ生成器252は、ユーザが画面302Dのコンテンツ312へのユーザ注意/焦点に没頭するのを助けるために焦点遷移マーカを生成し得る。焦点遷移マーカは、ここでは、例えば、ユーザが304Cに注意を払っていた間に受信していた可能性のある、見逃した道順および道順に関するメッセージを示すコンテンツ326を含む。ここでは、コンテンツ326は、見逃した行先道順328および別のユーザからの見逃したメッセージ330を含む。コンテンツ326は、ユーザが、直近35秒に発生していた可能性のある任意の他の見逃したコンテンツを見るために、この例では、35秒の、時間334を巻き戻すことを可能にし得る制御部332を含む。いくつかの実装形態において、そのような制御部332は、コンテンツ326が、ユーザが妨害の前に画面302C上で見ていた可能性のあるビデオ、音声、命令、または他の連続コンテンツであるとき、提供され得る。いくつかの実装形態において、時間334は、ユーザが任意またはすべての見逃したコンテンツを取り戻す、および/または再生することを可能にするために、焦点外れ事象と再合焦事象との間の正確な時間量へと調節され得る。いくつかの実装形態において、制御部332は、ハイライト336によって示されるように、選択を示すためにハイライト表示または別途強調され得る。当然ながら、他の可視化も可能である。
【0088】
いくつかの実装形態において、再生および/または制御部332は、見逃したコンテンツを標準速度または加速した速度で再生するオプションを提供し得る。いくつかの実装形態において、再生は、再合焦事象、およびユーザがUIの特定の物体、制御部、または領域に焦点を合わせていることを検出されることに基づいて、トリガされ得る。例えば、ユーザは、楽譜の始めを注視しているとき楽譜の再生をトリガし得る。別の例では、ユーザは、教師から目をそらし、また教師に戻した後に再生をトリガすることによって、授業の概要をトリガし得る。このやり方では、ユーザは、ユーザが以前の数秒または数分のコンテンツを見逃したときリアルタイムで使用され得る即時再生機能を有し得る。
【0089】
いくつかの実装形態において、デバイス100は、ユーザ入力、ユーザの存在、コンテンツに対するユーザ近接性、ユーザまたはコンテンツまたはデバイス配向、発話活動、注視活動、コンテンツインタラクション、および同様のものなどの特徴を測定または検出することによって、ユーザが現在何に参加している(例えば、焦点を合わせている)かを識別するためにモデル248を用い得る。モデル248は、ユーザの注意を管理する優先度に関する知識を推測(例えば、決定、予測)するために使用され得る。この知識は、ユーザによって実施される注意および他のインタラクティブな挙動を統計的にモデル化するために使用され得る。モデル248は、現在のユーザ活動の文脈において、情報またはアクションの関連性を決定し得る。情報の関連性は、ユーザが能動的に選択し得る、または受動的に関与し得る任意の数のオプションおよび/または焦点遷移マーカ(例えば、コンテンツ)を提示するために使用され得る。したがって、デバイス100は、ユーザが焦点を合わせていることが決定される領域に提示されるデータおよび/またはコンテンツを強化し得る焦点遷移マーカを生成し得ると同時に、他の周辺または背景の詳細を薄くする。
【0090】
図4A~
図4Dは、本開示全体を通して説明される実装形態による、焦点遷移マーカを描写するユーザインターフェースの例を例証する。焦点遷移マーカを生成するため、デバイス100は、ユーザ注意を表すリアルタイムユーザモデル114を生成および使用し得る。例えば、デバイス100は、仮想画面(例えば、HMDまたはARグラス内のユーザインターフェース)および物理的世界(例えば、会議での会話の相手)にわたってユーザの焦点(例えば、注意)および/またはインタラクションを追跡し得る。デバイス100は、画面コンテンツのどの部分(または領域)とユーザがインタラクトしているかを高精度で予測するために、注視追跡または明白なユーザ入力から獲得される検出信号を活用し得る。
【0091】
図4Aに示されるように、ビデオ会議が、デバイス100の仮想画面402Aでホストされており、物質的世界ビュー404Aが背景に示される。ここでは、ユーザは、何人かの他のユーザとの新規通話に参加していてもよい。ある時点で、ユーザは、妨害をされ得、デバイス100は、画面402Aの特定の領域と関連付けられた焦点外れ事象を検出し得る。焦点外れ事象の間、デバイス100は、画面402Aの第2の領域と関連付けられた次の合焦事象(または同じ第1の領域と関連付けられた次の合焦事象)を決定し得る。次の合焦事象は、焦点外れ事象、およびユーザの追跡された焦点に少なくとも部分的に基づき得る。ユーザの追跡された焦点は、検出された焦点外れ事象野の前の時間中に発生した注視軌道に対応し得る。例えば、時間は、焦点外れ事象の前の数秒の時間から焦点外れ事象の時間までを含み得る。
【0092】
デバイス100は、コンテンツの第2の領域をコンテンツの残部と区別するために、決定された次の合焦事象に基づいて、焦点遷移マーカ230(例えば、および/またはコンテンツ)を生成し得る。いくつかの実装形態において、焦点遷移マーカ230は、第1の領域と、経時的に発生していた可能性のある第1の領域の更新版とを区別するためのものであり得る。
【0093】
図4Bに示されるように、焦点外れ事象および再合焦事象が発生していた可能性がある。デバイス100は、ユーザが
図4Aからの以前および進行中のコンテンツへと遷移することを支援するために、マーカ230として機能するように仮想画面402B内にコンテンツを生成していてもよい。
【0094】
いくつかの実装形態において、焦点遷移マーカ230は、リアルタイムストリーム内に新規のコンテンツを示すために使用され得る。例えば、ユーザがライブストリーム、転写、翻訳(translation)、またはビデオ中に焦点を外すとき(例えば、焦点外れ事象)、デバイス100は、ライブストリームなどへ戻る再合焦事象を検出する際に現れる新規コンテンツをハイライト表示し得る。再合焦事象が発生すると、システムは、新規コンテンツを旧コンテンツから区別し得る。故に、ハイライトは、ユーザの焦点/注意を画面内の有用および実用的な場所へと導くように機能する焦点遷移マーカであり得る。いくつかの実装形態において、ハイライトは、短いタイムアウト後に徐々に消え得る。いくつかの実装形態において、転写はまた、ユーザの注意が最後に検出された場所までスクロールアップ(例えば、20秒前にスクロールバック)し得る。
【0095】
この例では、ユーザが焦点を外していた間、Ellaが12:32に通話に参加し406、会議の録音がトリガされ408、Slavoがさらなる発言をした410。デバイス100は、新規コンテンツ406、408、および410を、画面402Bの既に見た(ボールド表示ではない)コンテンツから区別するために、ボールド表示の新規コンテンツ406、408、および410としてマーカ230を生成した。当然ながら、他の効果が、テキスト修飾のために置き換えられ得る。テキストを修飾することに加えて、デバイス100は、再び焦点を合わせようとしているユーザにとって変化をより明白にするために、関連のあるコンテンツセットを示すように画面402Bのコンテンツをサイズ変更した。画面402Bに示されるコンテンツは、例えば、仮想画面402B(または402A)と関連付けられた再合焦事象を検出することに応答して、UI内での表示(例えば、レンダリング)のために生成、実行、およびトリガされ得る。
【0096】
いくつかの実装形態において、予め定められた時間量の後、ライブストリームは、
図4Cに示されるように、画面402Cおよび物質的世界ビュー404Cに対して、再び完全に描写される。この例では、ボールド表示のテキストは、マーカ/コンテンツのハイライトなしの元のテキストへと徐々に戻って示される。
【0097】
ある時点で、ユーザは、焦点を外したり、再び焦点を合わせたりし得る。
図4Dは、再合焦事象の別の例を描写しており、焦点遷移マーカ230が、ユーザを支援するために生成され得る。この例では、ユーザは、妨害により数分のコンテンツを見逃していた可能性があり、見逃したアイテムを見ることを望み得る。ここでは、ユーザは、スクロール可能なコンテンツ414のボックスを描写するマーカ412として提示される会議の更新を読むことを望まなくてもよい。コンテンツがかなりの量になり得、ユーザが焦点外れ事象の前の直近の既知のコンテンツを見つけることが困難であり得ることをデバイス100が検出した場合、デバイス100は、見逃した情報の音声をダウンロードおよび再生するための制御部を含むマーカ416などのマーカを生成し得る。ユーザにマーカ416が提示され得、ユーザは、焦点外れの時点から音声を開始するためにマーカ416を選択し得る。
【0098】
いくつかの実装形態において、デバイス100は、動きのシーケンスとして説明され得る要素を有するコンテンツのためのコンテンツ(例えば、焦点遷移マーカ)を生成し得る。例えば、デバイス100は、センサシステム214を利用して、動きのシーケンスを検出し、そのシーケンスおよびそのシーケンス内のUI/コンテンツ/ユーザアクションの状態に基づいてユーザ注意を予期し得る。例えば、注視または動きの軌道は、センサシステム214によって検出され、動きのシーケンスのための焦点遷移マーカ230を生成するために使用され得る。注視または動きの軌道を推定することによって、デバイス100は、ユーザが仮想画面に焦点を合わせたままであった場合に、ユーザが見ていた領域または位置を(例えば、予測モデル248に基づいて)ハイライト表示し得る。例えば、ユーザが、物体が動くことをトリガするアクションを実施する場合、デバイス100(およびユーザ)は、物体の軌道を追い得る。ユーザが焦点を外している(例えば、目を離している)間、物体は動き続け、ユーザが再び焦点を合わせる(例えば、視線を戻す)とき、デバイス100は、コンテンツ、形状、ハイライト、または他のそのようなマーカを使用して物体の現在の位置へとユーザを誘導し得る。
【0099】
いくつかの実装形態において、デバイス100は、連続アクションにおける遷移を予測し得る。すなわち、アクションのシーケンスとして説明され得る(例えば、ユーザインターフェース内でトリガされる)要素を有するコンテンツの場合、焦点遷移マーカは、特定のアクションの結果へとユーザを向け得る。例えば、UIボタンを選択することにより仮想画面上のある領域内のアイコンを露出させる場合、アイコンは、ユーザの注視を変化の方へ誘導するため、ユーザが仮想画面に焦点を戻すときにハイライト表示され得る。
【0100】
いくつかの実装形態において、焦点遷移マーカは、連続コンテンツ内の違いを示し得る。例えば、予測を実施せずに、デバイス100は、仮想画面上で何が変化したかを簡単にハイライト表示するためにマーカ230を生成し得る。別の例では、ユーザが記録物を見ており、ユーザが焦点を外していた(例えば、目を離していた)間にいくつかの言葉が訂正された場合、訂正された言葉は、ユーザが再び焦点を合わせたときにユーザへの表示のためにマーカとしてハイライト表示され得る。空間的な違いの場合、または動きが合図である場合、デバイス100は、例えば、ストリームラインおよび同様のものと共に運動ベクトルを図示することなど、異なる視覚化技術を使用してハイライト表示し得る。
【0101】
図5は、本開示全体を通して説明される実装形態による、コンピューティングデバイス上で画像処理タスクを実施するためのプロセス500の一例を図形化したフローチャートである。いくつかの実装形態において、コンピューティングデバイスは、バッテリ駆動であるウェアラブルコンピューティングデバイスである。いくつかの実装形態において、コンピューティングデバイスは、バッテリ駆動である非ウェアラブルコンピューティングデバイスである。
【0102】
プロセス500は、少なくとも1つの処理デバイス、スピーカ、任意選択の表示能力、および命令を記憶するメモリを有するコンピューティングデバイス上で処理システムを利用し得、該命令は、実行されると、クレームに説明される複数の動作およびコンピュータ実装のステップを処理デバイスに実施させる。一般に、コンピューティングデバイス100、システム200、および/または600は、プロセス500の記述および実行において使用され得る。デバイス100ならびにシステム200および/または600の組み合わせは、いくつかの実装形態において、単一のシステムを表し得る。一般に、プロセス500は、本明細書に説明されるシステムおよびアルゴリズムを利用してユーザ注意を検出し、そのユーザ注意を使用して、ユーザが注意/焦点を仮想画面へ戻すとき素早く焦点を合わせることを支援するために焦点遷移マーカ(例えば、コンテンツ)を生成および表示する。
【0103】
ブロック502において、プロセス500は、仮想画面に提示されるコンテンツに対するユーザの焦点を追跡することを含む。追跡された焦点は、注視、注意、インタラクション、および同様のものを含み得る。例えば、センサシステム214および/または入力検出器215は、仮想画面226上への表示のために提示されるコンテンツ(例えば、コンテンツ310、320など)に対するユーザの焦点および/または注意を追跡し得る。いくつかの実装形態において、追跡は、視線/注視トラッカ218によって実施され得る。いくつかの実装形態において、追跡は、画像センサ216および/またはカメラ224によって実施され得る。いくつかの実装形態において、追跡は、IMU220によって実施され得る。いくつかの実装形態において、追跡は、任意の1つまたは複数の注視信号(例えば、視線)、頭部追跡信号、明白なユーザ入力、および/または遠隔ユーザ入力(またはその任意の組み合わせ)を含む信号を分析および追跡することを含み得る。いくつかの実装形態において、モデル248は、追跡された焦点または関連信号を分析して、次のステップおよび/または次の合焦事象を決定するために使用され得る。上記の任意の組み合わせが、ユーザの焦点を特定および追跡するために使用され得る。
【0104】
ブロック504において、プロセス500は、コンテンツの第1の領域と関連付けられた焦点外れ事象を検出することを含む。例えば、センサシステム214は、ユーザが第1の領域から別の領域の方へと視線を離したこと、またはユーザが物理的世界を見るために焦点または注意を画面から離れる方へ動かしたことを検出し得る。
【0105】
ブロック506において、プロセス500は、コンテンツの第2の領域と関連付けられた次の合焦事象を決定することを含む。この決定は、焦点外れ事象、および検出された焦点外れ事象の前の既定の時間期間の間に発生した注視軌道に対応するユーザの追跡された焦点に少なくとも部分的に基づき得る。例えば、視線/注視トラッカ218は、ユーザが仮想画面226上のコンテンツと、および/または物質的世界ビュー304Cに関与するときに焦点を追跡し得る。トラッカ218によって追跡される運動または動きの軌道は、どんなアクション(例えば、事象)をユーザが次に実施し得るかを予測するために、1つまたは複数のしきい値条件254および/またはモデル248と組み合わせて使用され得る。例えば、リアルタイムユーザモデル114およびユーザの注意/焦点の状態は、どの事象/アクションがユーザによって次に実施され得るかを予測するために、検出されたUIモデルおよびUI状態と組み合わせて使用され得る。
【0106】
いくつかの実装形態において、ユーザの焦点は、コンテンツ(例えば、コンテンツ310)との検出されたユーザインタラクションに基づいてさらに決定される。次の合焦事象は、検出されたユーザインタラクション、ならびにコンテンツと関連付けられたおよび/または仮想画面226に描写されるUIと関連付けられアクションのシーケンス内の既定の次のアクションに従って決定され得る。すなわち、デバイス100は、ユーザ焦点がコンテンツ310へ戻る場合、次のアクションは、直前の小節に対して発生している焦点外れ事象に基づいてシーケンス内の次の小節について作曲アプリケーション内で作業することであり得ることを予測し得る。いくつかの実装形態において、第2の領域は、以前のユーザ挙動に関する許可ベースの取得知識に基づいて、ユーザがアプリケーションを変更することが予測される場合、第1の領域とは異なるコンテンツの部分であり得る。いくつかの実装形態において、第2の領域は、一般的な動きの軌道が、他のコンテンツ内で発生する次の事象を決定するためにモデル248によって使用される場合、第1の領域とは異なるコンテンツの部分であり得る。
【0107】
ブロック508において、プロセス500は、決定した次の合焦事象に基づいて、コンテンツの第2の領域をコンテンツの残部と区別するための焦点遷移マーカを生成することを含む。例えば、コンテンツ生成器252は、第2の領域に置くべき焦点遷移マーカ230の構成および/または見た目を決定するために、センサシステム214およびモデル248と一緒に機能し得る。例えば、デバイス100は、第2の領域を仮想画面226に描写される他のコンテンツから区別するために、コンテンツ232、UI効果234、音声効果236、触覚効果238、および/または他の可視化を生成するべきかどうかを決定し得る。
【0108】
いくつかの実装形態において、焦点遷移マーカ230は、焦点外れ事象と関連付けられた時間および再合焦事象と関連付けられた時間から、コンテンツ内の検出された変化のビデオまたは音声の再生を表す。一般に、検出された変化の再生は、検出された変化に対応する視覚または聴覚合図を含み得る。例えば、焦点遷移マーカ230は、ユーザにより実行されトラッカ218により検出される焦点外れ事象と再合焦事象との間で見逃していた可能性のあるコンテンツに基づいた、ビデオ、音声、または生成されたUI遷移のスニペットであり得る。
【0109】
いくつかの実装形態において、焦点遷移マーカ230は、焦点外れ事象と関連付けられた時間および再合焦事象と関連付けられた時間からのコンテンツにおける検出された変化の再生を表し、変化の再生は、変化に対応する触覚合図を含む。例えば、再生は、ユーザが焦点外れ事象と再合焦事象との間に発生した可能性のある変化を見直すために焦点遷移マーカ230を選択すべきであることを示すコンテンツを含み得る。
【0110】
ブロック510において、プロセス500は、仮想画面と関連付けられた再合焦事象を検出することに応答して、第2の領域における、またはこれと関連付けられた焦点遷移マーカの実行をトリガすることを含む。例えば、デバイス100は、焦点遷移マーカ230を生成し得るが、再合焦事象が検出されるまで、第2の領域における、またはこれと関連付けられたマーカを実行および/または表示することを待ち得る。
【0111】
いくつかの実装形態において、特定の焦点外れ事象と関連付けられた焦点遷移マーカ230は、仮想画面上に描写されるコンテンツへの実質的な変化が発生しなかったことを決定することに応答して、抑制されるように構成され得る。例えば、デバイス100は、仮想画面226上に描写されるコンテンツに対して発生したユーザ焦点外れ事象以降、変化が発生していなかった(または最小しきい値レベルの変化しか発生しなかった)ことを検出し得る。それに応じて、デバイス100は、焦点遷移マーカ230を表示しなくてもよい。いくつかの実装形態において、デバイス100は、代わりに、焦点外れ事象の前に焦点を合わせた直近の決定されたコンテンツを暗くし、次いで明るくすることによって、焦点遷移マーカ230の効果を和らげ得る。
【0112】
いくつかの実装形態において、焦点遷移マーカ230は、ハイライト336および制御部332によって
図3Dに示されるように、第2の領域の一部分の上に重ね合わされる少なくとも1つの制御部およびハイライト表示されたインジケータを含む。焦点遷移マーカは、再合焦事象の後の既定の時間期間の後ディスプレイから次第に除去され得る。例えば、再合焦コンテンツ/マーカ326は、画面302Dのコンテンツ上へのユーザ再合焦の後に数秒から1分間示され得る。
【0113】
いくつかの実装形態において、コンテンツは、動きのシーケンスを描写する。例えば、コンテンツは、動くボールを伴うスポーツ競技におけるシーケンスであり得る。第1の領域は、ユーザが試合中に注意/焦点を向けていた動きの第1のシーケンスを表し得る。ある時点で、ユーザは、仮想画面226から焦点を外し(例えば、目を離し)得る。第2の領域は、第1のシーケンスの後に発生するように構成される動きの第2のシーケンスを表し得る。ユーザが動きの第1のシーケンスの後に焦点を外した場合、デバイス100は、動きの第2のシーケンス中コンテンツ(例えば、動くボール)を追跡し続け得る。
【0114】
ユーザが再び焦点を合わせるとき、デバイス100は、ユーザが画面226上の試合に注意を払っていなかった間、コンテンツ追跡に基づいて焦点遷移マーカ230を生成していてもよい。遷移マーカ230は、第2の領域内のボールを描写し得るが、焦点外れ事象と再合焦事象との間の時間に試合中何が発生したかをユーザに素早く示すために、第1の領域と第2の領域との間(例えば、動きの第1のシーケンスと動きの第2のシーケンスとの間およびその先)のボールの軌道を示し得る。遷移マーカ230は、コンテンツの第2の領域と関連付けられた場所における実行(および/またはレンダリング)のためにトリガされ得る。いくつかの実装形態において、第2の領域と関連付けられた焦点遷移マーカ230の実行をトリガすることは、動きの第2のシーケンスで描写される焦点遷移マーカ230を用いて実行するように第2のシーケンスをトリガすることを含む。
【0115】
いくつかの実装形態において、コンテンツは、仮想画面302Aのユーザインターフェース(例えば、コンテンツ310、312、および314によって示される)内に提示される。センサシステム214は、ユーザ焦点/注意を検出して、画面302Aに描写されるUIと関わった第1の時間期間にわたるユーザの追跡された焦点に基づいてユーザの注意のモデルを生成し得る。デバイス100は、次いで、UIのためのモデルを獲得し得る。UIのためのモデルは、UIの複数の状態、およびUIと関連付けられたユーザインタラクションを規定し得る。ユーザの追跡された焦点、注意のモデル、およびUIの複数の状態からの決定された状態に基づいて、デバイス100は、第2の時間期間にわたって、画面302Dの第2の領域の少なくとも一部分およびその中のコンテンツの上に重ね合わされる少なくとも1つの焦点遷移マーカ(例えば、マーカ326)をレンダリングすることをトリガし得る。
【0116】
いくつかの実装形態において、仮想画面226は、拡張現実ビュー(例えば、画面302A)および物質的世界ビュー(例えば、304A)を含む視野を提供するように構成される拡張現実デバイス(例えば、ウェアラブルコンピューティングデバイス100)と関連付けられる。いくつかの実装形態において、ユーザの焦点を追跡することは、ユーザの焦点が、拡張現実ビュー(例えば、画面302A)と関連付けられた検出された注視であるか、または物質的世界ビュー(例えば、ビュー304A)と関連付けられた検出された注視であるかを決定することを含む。
【0117】
いくつかの実装形態において、第2の領域と関連付けられた焦点遷移マーカの実行をトリガすることは、ユーザの焦点が拡張現実ビュー(例えば、302A)と関連付けられた検出された注視である場合、焦点外れ事象と関連付けられた時間からコンテンツを再開すること(例えば、コンテンツと関連付けられた事象/音声/視覚の順次再生を実施すること)、およびユーザの焦点が物質的世界ビュー(例えば、304A)と関連付けられた検出された注視である場合、再合焦事象が検出されるまで、コンテンツを一時停止し、徐々に消すことを含む。
【0118】
図6は、(例えば、クライアントコンピューティングデバイス600、サーバコンピューティングデバイス204、および/またはモバイルコンピューティングデバイス202を実装するために)ここに説明される技術と一緒に使用され得るコンピュータデバイス600およびモバイルコンピュータデバイス650の一例を例証する。コンピューティングデバイス600は、プロセッサ602、メモリ604、ストレージデバイス606、メモリ604および高速拡張ポート610に接続する高速インターフェース608、ならびに低速バス614およびストレージデバイス606に接続する低速インターフェース612を含む。構成要素602、604、606、608、610、および612の各々は、様々なバスを使用して相互接続され、共通マザーボード上に、または適切な他の様式で取り付けられ得る。プロセッサ602は、高速インターフェース608に結合されるディスプレイ616などの外部入力/出力デバイス上にGUIのためのグラフィック情報を表示するためにメモリ604内またはストレージデバイス606上に記憶される命令など、コンピューティングデバイス600内での実行のための命令を処理し得る。他の実装形態において、複数のプロセッサおよび/または複数のバスが、適切な場合、複数のメモリおよびメモリのタイプと一緒に使用され得る。また、複数のコンピューティングデバイス600が接続され得、各々のデバイスが、(例えば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)必要な動作の部分を提供する。
【0119】
メモリ604は、コンピューティングデバイス600内に情報を記憶する。1つの実装形態において、メモリ604は、揮発性メモリユニット(複数可)である。別の実装形態において、メモリ604は、不揮発性メモリユニット(複数可)である。メモリ604はまた、磁気または光学ディスクなど、別の形態のコンピュータ可読媒体であってもよい。
【0120】
ストレージデバイス606は、コンピューティングデバイス600のためのマスストレージを提供することができる。1つの実装形態において、ストレージデバイス606は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光学ディスクデバイス、もしくはテープデバイスなどのコンピュータ可読媒体、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、またはストレージエリアネットワークもしくは他の構成にあるデバイスを含むデバイスのアレイであり得るか、またはこれらを含み得る。コンピュータプログラム製品は、情報担体で有形に具現化され得る。コンピュータプログラム製品はまた、実行されると上に説明されるものなどの1つまたは複数の方法を実施する命令を含み得る。情報担体は、メモリ604、ストレージデバイス606、またはメモリオンプロセッサ602など、コンピュータまたはマシン可読媒体である。
【0121】
高速コントローラ608は、コンピューティングデバイス600のための帯域幅集中型動作を管理する一方、低速コントローラ612は、より低い帯域幅集中型動作を管理する。そのような機能の割り当ては、単に例示である。1つの実装形態において、高速コントローラ608は、メモリ604、ディスプレイ616に(例えば、グラフィックスプロセッサまたはアクセラレータを通じて)、および様々な拡張カード(図示せず)を受容し得る高速拡張ポート610に結合される。実装形態において、低速コントローラ612は、ストレージデバイス606および低速拡張ポート614に結合される。様々な通信ポート(例えば、USB、ブルートゥース、イーサネット(登録商標)、ワイヤレスイーサネット)を含み得る低速拡張ポートは、例えば、ネットワークアダプタを通じて、キーボード、ポインティングデバイス、スキャナ、またはスイッチもしくはルータなどのネットワーキングデバイスなど、1つまたは複数の入力/出力デバイスに結合され得る。
【0122】
コンピューティングデバイス600は、図に示されるように、いくつかの異なる形態で実装され得る。例えば、それは、標準サーバ620として、またはそのようなサーバのグループ内で複数回、実装され得る。それはまた、ラックサーバシステム624の一部として実装され得る。加えて、ラップトップコンピュータ622などのパーソナルコンピュータにおいて実装され得る。代替的に、コンピューティングデバイス600からの構成要素は、デバイス650などのモバイルデバイス(図示せず)内の他の構成要素と組み合わせられ得る。そのようなデバイスの各々は、1つまたは複数のコンピューティングデバイス600、650を含み得、システム全体は、互いと通信する複数のコンピューティングデバイス600、650で構成され得る。
【0123】
コンピューティングデバイス650は、数ある構成要素の中でも、プロセッサ652、メモリ664、ディスプレイ654などの入力/出力デバイス、通信インターフェース666、および送受信機668を含む。デバイス650にはまた、追加のストレージを提供するために、マイクロドライブまたは他のデバイスなどのストレージデバイスが設けられ得る。構成要素650、652、664、654、666、および668の各々は、様々なバスを使用して相互接続され、構成要素のうちのいくつかは、共通マザーボード上に、または適切な他の様式で取り付けられ得る。
【0124】
プロセッサ652は、メモリ664に記憶される命令など、コンピューティングデバイス650内の命令を実行し得る。プロセッサは、別個および複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実装され得る。例えば、プロセッサは、ユーザインターフェースの制御部、デバイス650によって実行されるアプリケーション、およびデバイス650によるワイヤレス通信など、デバイス650の他の構成要素の調整を提供し得る。
【0125】
プロセッサ652は、制御インターフェース658、およびディスプレイ654に結合されるディスプレイインターフェース656を通じてユーザと通信し得る。ディスプレイ654は、例えば、TFT LCD(薄膜トランジスタ液晶ディスプレイ)、LED(発光ダイオード)もしくはOLED(有機発光ダイオード)ディスプレイ、または他の適切なディスプレイ技術であり得る。ディスプレイインターフェース656は、ユーザにグラフィック情報および他の情報を提示するためにディスプレイ654を駆動するための適切な回路を含み得る。制御インターフェース658は、ユーザからコマンドを受信し、それらをプロセッサ652への提出のために変換し得る。加えて、外部インターフェース662が、他のデバイスとのデバイス650の近領域通信を可能にするようにプロセッサ652と通信状態で提供され得る。例えば、外部インターフェース662は、いくつかの実装形態においては、有線通信を、または他の実装形態においては、ワイヤレス通信を提供し得、複数のインターフェースも使用され得る。
【0126】
メモリ664は、コンピューティングデバイス650内に情報を記憶する。メモリ664は、コンピュータ可読媒体(複数可)、揮発性メモリユニット(複数可)、または不揮発性メモリユニット(複数可)のうちの1つまたは複数として実装され得る。拡張メモリ674もまた、提供され、拡張インターフェース672を通じてデバイス650に接続され得、この拡張インターフェース672は、例えば、SIMM(シム:Single In-Line Memory Module)カードインターフェースを含み得る。そのような拡張メモリ674は、デバイス650のためのさらなるストレージ空間を提供し得るか、またはデバイス650のためのアプリケーションもしくは他の情報も記憶し得る。具体的には、拡張メモリ674は、上に説明されるプロセスを実行または補足するために命令を含み得、セキュアな情報も含み得る。故に、例えば、拡張メモリ674は、デバイス650のためのセキュリティモジュールとして提供され得、デバイス650のセキュアな使用を可能にする命令でプログラムされ得る。加えて、セキュアなアプリケーションが、ハッキング不可能な様式でSIMMカードに識別情報を配置することなど、追加の情報と一緒に、SIMMカードを介して提供され得る。
【0127】
メモリは、例えば、以下に論じられるように、フラッシュメモリおよび/またはNVRAMメモリを含み得る。1つの実装形態において、コンピュータプログラム製品は、情報担体で有形に具現化される。コンピュータプログラム製品は、実行されると上に説明されるものなどの1つまたは複数の方法を実施する命令を含む。情報担体は、例えば、送受信機668または外部インターフェース662を介して受信され得る、メモリ664、拡張メモリ674、またはメモリオンプロセッサ652などのコンピュータもしくはマシン可読媒体である。
【0128】
デバイス650は、必要な場合デジタル信号処理回路を含み得る通信インターフェース666を通じてワイヤレス通信し得る。通信インターフェース666は、数ある中でも、GSM(登録商標)音声通話、SMS、EMS、またはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSなど、様々なモードまたはプロトコルの下での通信を提供し得る。そのような通信は、例えば、無線周波数送受信機668を通じて発生し得る。加えて、近距離通信は、ブルートゥース、Wi-Fi、または他のそのような送受信機(図示せず)を使用するなどして発生し得る。加えて、GPS(全地球測位システム)受信機モジュール670は、追加のナビゲーション関連および場所関連のワイヤレスデータをデバイス650に提供し得、これは、デバイス650上で実行するアプリケーションによって適切な場合に使用され得る。
【0129】
デバイス650はまた、ユーザからの発話情報を受信し、それを使用可能なデジタル情報へ変換し得るオーディオコーデック660を使用して、音声により通信し得る。オーディオコーデック660は、同様に、例えば、デバイス650のヘッドセット内の、スピーカを通じてなど、ユーザのために可聴音を生成し得る。そのような音は、電話による音声通話からの音を含み得、録音された音(例えば、ボイスメッセージ、音楽ファイルなど)も含み得、また、デバイス650上で動作するアプリケーションによって生成される音も含み得る。
【0130】
コンピューティングデバイス650は、図に示されるように、いくつかの異なる形態で実装され得る。例えば、それは、携帯電話680として実装され得る。それはまた、スマートフォン682、パーソナルデジタルアシスタント、または他の同様のモバイルデバイスの一部として実装され得る。
【0131】
ここに説明されるシステムおよび技術の様々な実装形態は、デジタル電子回路、集積回路、特別に設計されたASIC(特別用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせで実現され得る。これらの様々な実装形態は、ストレージシステム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信するため、およびこれらにデータおよび命令を送信するために結合される、専用または汎用であり得る少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステム上の実行可能および/または解釈可能である1つまたは複数のコンピュータプログラムでの実装を含み得る。
【0132】
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても知られる)は、プログラム可能なプロセッサのためのマシン命令を含み、また、高レベル手続き型および/もしくはオブジェクト指向プログラミング言語で、ならびに/またはアセンブリ/マシン言語で実装され得る。本明細書で使用される場合、用語「マシン可読媒体」、「コンピュータ可読媒体」とは、マシン命令をマシン可読信号として受信するマシン可読媒体を含む、マシン命令および/またはデータをプログラム可能なプロセッサに提供するために使用される任意のコンピュータプログラム製品、装置、および/またはデバイス(例えば、磁気ディスク、光学ディスク、メモリ、プログラム可能な論理デバイス(PLD))を指す。用語「マシン可読信号」とは、マシン命令および/またはデータをプログラム可能なプロセッサに提供するために使用される任意の信号を指す。
【0133】
ユーザとのインタラクションを提供するため、ここに説明されるシステムおよび技術は、ユーザに情報を表示するためのディスプレイデバイス(LED(発光ダイオード)、またはOLED(有機LED)、またはLCD(液晶ディスプレイ)モニタ/画面)、およびユーザがコンピュータに入力を提供することができるキーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)を有するコンピュータ上に実装され得る。他の種類のデバイスも同様に、ユーザとのインタラクションを提供するために使用され得、例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であり得、ユーザからの入力は、音声、発話、または触覚入力を含む任意の形態で受信され得る。
【0134】
ここに説明されるシステムおよび技術は、バックエンド構成要素を(例えば、データサーバとして)含むか、またはミドルウェア構成要素を(例えば、アプリケーションサーバとして)含むか、もしくはフロントエンド構成要素(例えば、グラフィックユーザインターフェースを有するクライアントコンピュータまたは、ユーザがここに説明されるシステムおよび技術の実装形態とインタラクトすることができるウェブブラウザ)を含む、コンピューティングシステム、またはそのようなバックエンド、ミドルウェア、もしくはフロントエンド構成要素の任意の組み合わせで実装され得る。システムの構成要素は、デジタルデータ通信(例えば、通信ネットワーク)の任意の形態または媒体によって相互接続され得る。通信ネットワークの例としては、ローカルエリアネットワーク(「LAN」)、広域ネットワーク(「WAN」)、およびインターネットが挙げられる。
【0135】
コンピューティングシステムは、クライアントおよびサーバを含み得る。クライアントおよびサーバは、一般的には、互いから遠隔にあり、典型的には、通信ネットワークを通じてインタラクトする。クライアントおよびサーバの関係は、それぞれのコンピュータ上で実行し、互いに対してクライアント-サーバ関係を有するコンピュータプログラムが理由で生じる。
【0136】
いくつかの実装形態において、図に描写されるコンピューティングデバイスは、物理的空間内の挿入コンテンツを見るための拡張環境を生成するためにARヘッドセット/HMDデバイス690とインターフェースをとるセンサを含み得る。例えば、図に描写されるコンピューティングデバイス650または他のコンピューティングデバイス上に含まれる1つまたは複数のセンサは、ARヘッドセット690への入力を提供し、または一般に、AR空間への入力を提供し得る。センサは、限定されるものではないが、タッチスクリーン、加速度計、ジャイロスコープ、圧力センサ、生体センサ、温度センサ、湿度センサ、および周囲光センサを含み得る。コンピューティングデバイス650は、AR空間への入力としてその後使用され得るAR空間におけるコンピューティングデバイスの絶対位置および/または検出した回転を決定するためにセンサを使用し得る。例えば、コンピューティングデバイス650は、コントローラ、レーザポインタ、キーボード、武器などの仮想物体としてAR空間内へ組み込まれ得る。AR空間内へ組み込まれるときのユーザによるコンピューティングデバイス/仮想物体の位置付けは、ユーザがAR空間においてとある様式で仮想物体を見るようにコンピューティングデバイスを位置付けることを可能にし得る。
【0137】
いくつかの実装形態において、ARヘッドセット/HMDデバイス690は、デバイス600を表し、水盤または導波光学系を使用するものなどのシースルーニアアイディスプレイを含み得るディスプレイデバイス(例えば、仮想画面)を含む。例えば、そのような光学設計は、ディスプレイ源からの光を、45度の角度で置かれたビームスプリッタとして機能するテレプロンプタガラスの一部分の上へ投影し得る。ビームスプリッタは、ディスプレイ源からの光が部分的に反射される一方で、残りの光が透過される、反射および透過値を可能にし得る。そのような光学設計は、ユーザが、ディスプレイによって生成されるデジタル画像(例えば、UI要素、仮想コンテンツ、焦点遷移マーカなど)の隣に実世界の物理的アイテムの両方を見ることを可能にし得る。いくつかの実装形態において、導波光学系は、デバイス600の仮想画面上にコンテンツを描写するために使用され得る。
【0138】
いくつかの実装形態において、コンピューティングデバイス650上に含まれる、またはこれに接続される1つまたは複数の入力デバイスは、AR空間への入力として使用され得る。入力デバイスは、限定されるものではないが、タッチスクリーン、キーボード、1つもしくは複数のボタン、トラックパッド、タッチパッド、ポインティングデバイス、マウス、トラックボール、ジョイスティック、カメラ、マイク、入力機能を有するイヤホンもしくはイヤホン、ゲームコントローラ、または他の接続可能な入力デバイスを含み得る。コンピューティングデバイスがAR空間に組み込まれるとき、コンピューティングデバイス650上に含まれる入力デバイスとインタラクトするユーザは、特定のアクションをAR空間内で発生させ得る。
【0139】
いくつかの実装形態において、コンピューティングデバイス650のタッチスクリーンは、AR空間内のタッチパッドとしてレンダリングされ得る。ユーザは、コンピューティングデバイス650のタッチスクリーンとインタラクトし得る。インタラクションは、ARヘッドセット690内で、例えば、AR空間内のレンダリングされたタッチパッド上の運動として、レンダリングされる。レンダリングされた運動は、AR空間内の仮想物体を制御し得る。
【0140】
いくつかの実装形態において、コンピューティングデバイス650上に含まれる1つまたは複数の出力デバイスは、AR空間内のARヘッドセット690のユーザに出力および/またはフィードバックを提供し得る。出力およびフィードバックは、視覚、触覚、または音声であり得る。出力および/またはフィードバックは、限定されるものではないが、振動、1つまたは複数の光またはストロボをオンおよびオフにすること、または点滅および/もしくは閃光させること、アラームを鳴らすこと、チャイムを鳴らすこと、歌を再生すること、また音声ファイルの再生を含み得る。出力デバイスは、限定されるものではないが、振動モータ、振動コイル、圧電デバイス、静電デバイス、発光ダイオード(LED)、ストロボ、およびスピーカを含み得る。
【0141】
いくつかの実装形態において、コンピューティングデバイス650は、コンピュータ生成された3D環境内に別の物体として登場し得る。コンピューティングデバイス650とのユーザによるインタラクション(例えば、タッチスクリーンを回転させること、振動させること、これに触れること、タッチスクリーンを指でスワイプすること)は、AR空間内の物体とのインタラクションと解釈され得る。AR空間内のレーザポインタの例では、コンピューティングデバイス650は、コンピュータ生成された3D環境内に仮想レーザポインタとして登場する。ユーザがコンピューティングデバイス650を操作する際、AR空間内のユーザは、レーザポインタの移動を目にする。ユーザは、コンピューティングデバイス650上またはARヘッドセット690上のAR環境内でコンピューティングデバイス650とのインタラクションからフィードバックを受信する。コンピューティングデバイスとのユーザのインタラクションは、制御可能なデバイスのためにAR環境内で生成されるユーザインターフェースとのインタラクションへと変換され得る。
【0142】
いくつかの実装形態において、コンピューティングデバイス650は、タッチスクリーンを含み得る。例えば、ユーザは、タッチスクリーンとインタラクトして、制御可能なデバイスのためのユーザインターフェースとインタラクトし得る。例えば、タッチスクリーンは、制御可能なデバイスのプロパティを制御し得るスライダなどのユーザインターフェース要素を含み得る。
【0143】
コンピューティングデバイス600は、限定されるものではないが、ラップトップ、デスクトップ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータを含む、様々な形態のデジタルコンピュータおよびデバイスを表すことが意図される。コンピューティングデバイス650は、パーソナルデジタルアシスタント、携帯電話、スマートフォン、および他の同様のコンピューティングデバイスなど、様々な形態のモバイルデバイスを表すことが意図される。ここに示される構成要素、それらの接続および関係、ならびにそれらの機能は、単に例であることが意図され、本文書に説明および/または特許請求される主題の実装形態を制限することは意図されない。
【0144】
いくつかの実施形態が説明されている。それにもかかわらず、様々な修正が、本明細書の趣旨および範囲から逸脱することなくなされ得る。
【0145】
加えて、図に描写される論理フローは、望ましい結果を達成するために、示される特定の順序または連番を必要としない。加えて、他のステップが提供され得るか、またはステップは、説明されたフローから除外され得、他の構成要素が、説明されたシステムに追加され得るか、またはそこから除去され得る。したがって、他の実施形態は、以下のクレームの範囲内である。
【0146】
上の説明に付け加えて、ユーザには、本明細書に説明されるシステム、プログラム、または特徴が、ユーザ情報(例えば、ユーザのソーシャルネットワーク、ソーシャルアクション、もしくは活動、職業、ユーザの好み、またはユーザの現在の場所に関する情報)の収集を有効にし得るか否かおよびいつ有効にし得るか、ならびにユーザにサーバからコンテンツまたは通信が送信されるか否かに関して、ユーザが選択を行うことを可能にする制御部が提供され得る。加えて、とあるデータは、個人を特定できる情報が除去されるように、それが記憶または使用される前に1つまたは複数の方式で処理され得る。例えば、ユーザのアイデンティティは、ユーザについて個人を特定できる情報を決定することができないように処理され得るか、または、ユーザの地理的場所は、ユーザの特定の場所を決定することができないように、場所情報が獲得される場合は(例えば、都市、郵便番号、または州レベルへと)一般化され得る。故に、ユーザは、ユーザに関してどんな情報が収集されるか、その情報がどのように使用されるか、およびどんな情報がユーザに提供されるかについての制御を有し得る。
【0147】
説明された実装形態のとある特徴が、本明細書に説明されるように例証されているが、多くの修正形態、置き換え、変更、および等価物が、当業者にここで想起されるものとする。したがって、添付のクレームは、本実装形態の範囲内に入るようなすべてのそのような修正および変更を網羅することが意図されるということを理解されたい。それらは、限定ではなく単に例として提示されており、形態および詳細において様々な変更がなされ得るということを理解されたい。本明細書に説明される装置および/または方法の任意の部分は、相互に排他的な組み合わせを除き、任意の組み合わせで組み合わされ得る。本明細書に説明される実装形態は、説明される異なる実装形態の機能、構成要素、および/または特徴の様々な組み合わせおよび/または部分組み合わせを含み得る。
【手続補正書】
【提出日】2024-05-21
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
仮想画面に提示されるコンテンツに対するユーザの注意を追跡することと、
前記コンテンツの第1の領域と関連付けられた焦点外れ事象を検出することと、
前記コンテンツの第2の領域と関連付けられた次の合焦事象を決定することとを含む、方法であって、前記決定は、前記焦点外れ事象および前記ユーザの前記追跡された注意に少なくとも部分的に基づき、前記方法は、
前記決定した次の合焦事象に基づいて、前記コンテンツの前記第2の領域を前記コンテンツの残部と区別するためのマーカを生成することと、
前記仮想画面と関連付けられた再合焦事象を検出することに応答して、前記コンテンツの前記第2の領域と関連付けられた前記マーカの実行をトリガすることと
をさらに含む、方法。
【請求項2】
前記マーカは、前記第2の領域の一部分の上に重ね合わされる、少なくとも1つの制御部およびハイライト表示されたインジケータを含み、
前記マーカは、前記再合焦事象後の既定の時間期間に従ってディスプレイから次第に除去される、請求項1に記載の方法。
【請求項3】
前記ユーザの前記注意は、前記コンテンツとの検出したユーザインタラクションに基づいてさらに追跡され、
前記次の合焦事象は、前記検出したユーザインタラクション、および前記コンテンツと関連付けられたアクションのシーケンス内の既定の次のアクションに従ってさらに決定される、請求項1または請求項2に記載の方法。
【請求項4】
前記コンテンツは、動きのシーケンスを描写し、
前記第1の領域は、動きの第1のシーケンスを表し、
前記第2の領域は、前記動きの第1のシーケンスの後に発生するように構成される動きの第2のシーケンスを表し、
前記コンテンツの前記第2の領域と関連付けられた前記マーカの実行をトリガすることは、前記動きの第2のシーケンスで描写される前記マーカを用いて前記第2のシーケンスを実行することをトリガすることを含む、請求項1
または請求項2に記載の方法。
【請求項5】
前記焦点外れ事象と関連付けられた前記マーカは、前記仮想画面に描写される前記コンテンツに対する実質的な変化が発生しなかったことを決定することに応答して抑制される、
請求項1または請求項2に記載の方法。
【請求項6】
前記マーカは、前記焦点外れ事象と関連付けられた時間から、および前記再合焦事象と関連付けられた時間からの前記コンテンツにおける検出した変化の再生を表し、前記変化の前記再生は、前記変化に対応する触覚合図を含む、
請求項1または請求項2に記載の方法。
【請求項7】
前記コンテンツは、前記仮想画面のユーザインターフェース内に提示され、前記方法は、
第1の時間期間にわたって前記ユーザの前記追跡された注意に基づいて前記ユーザの前記注意のモデルを生成することと、
前記ユーザインターフェースのためのモデルを獲得することとをさらに含み、前記モデルは、前記ユーザインターフェースと関連付けられた複数の状態およびインタラクションを規定し、前記方法は、
第2の時間期間にわたって、前記第2の領域の少なくとも一部分の上に重ね合わされる少なくとも1つの追加のマーカを、前記ユーザの前記追跡された注意、前記注意の前記モデル、および前記ユーザインターフェースの、前記複数の状態からの決定した状態に基づいて、レンダリングすることをトリガすることをさらに含む、
請求項1または請求項2に記載の方法。
【請求項8】
前記仮想画面は、拡張現実ビューおよび物質的世界ビューを含む視野を提供するように構成される拡張現実デバイスと関連付けられ、
前記ユーザの前記注意を追跡することは、前記ユーザの前記注意が前記拡張現実ビューと関連付けられるか、または前記物質的世界ビューと関連付けられるかを決定することを含み、
前記第2の領域と関連付けられた前記マーカの実行をトリガすることは、
前記ユーザの前記注意が前記拡張現実ビューと関連付けられる場合、前記焦点外れ事象と関連付けられた時間から前記コンテンツを再開すること、または
前記ユーザの前記注意が前記物質的世界ビューと関連付けられる場合、前記再合焦事象が検出されるまで前記コンテンツを一時停止およびフェードさせることを含む、
請求項1または請求項2に記載の方法。
【請求項9】
少なくとも1つの処理デバイスと、
少なくとも1つのセンサと、
命令を記憶するメモリと、を備える、ウェアラブルコンピューティングデバイスであって、前記命令は、実行されると、
前記少なくとも1つのセンサが、仮想画面に対するユーザの焦点を追跡することと、
前記少なくとも1つのセンサが、前記仮想画面の第1の領域と関連付けられた焦点外れ事象を検出することと、
前記少なくとも1つのセンサが、前記仮想画面の第2の領域と関連付けられた次の合焦事象を決定することとを含み、前記決定は、前記焦点外れ事象、および前記ユーザの検出された注視軌道に対応する前記ユーザの前記追跡された焦点に少なくとも部分的に基づき、
前記決定した次の合焦事象に基づいて、前記仮想画面の前記第2の領域を前記仮想画面の残部と区別するための焦点遷移マーカの生成をトリガすることと、
前記少なくとも1つのセンサが、前記仮想画面と関連付けられた再合焦事象を検出することに応答して、前記
仮想画面の前記第2の領域と関連付けられた前記焦点遷移マーカの実行をトリガすることとを含む動作を前記ウェアラブルコンピューティングデバイスに実施させる、ウェアラブルコンピューティングデバイス。
【請求項10】
前記焦点遷移マーカは、前記第2の領域の一部分の上に重ね合わされる、少なくとも1つの制御部およびハイライト表示されたインジケータを含み、
前記焦点遷移マーカは、前記再合焦事象の後の時間期間に従ってディスプレイから次第に除去される、請求項9に記載のウェアラブルコンピューティングデバイス。
【請求項11】
前記ユーザの前記焦点は、前記仮想画面との検出されたユーザインタラクションに基づいてさらに決定され、
前記次の合焦事象は、前記検出されたユーザインタラクション、および前記仮想画面と関連付けられたアクションのシーケンス内の既定の次のアクションに従って、さらに決定される、請求項9または請求項10に記載のウェアラブルコンピューティングデバイス。
【請求項12】
前記仮想画面に対する前記ユーザの前記焦点は、前記仮想画面上に描写されるコンテンツに対する前記ユーザの焦点に対応し、
前記コンテンツは、動きのシーケンスを描写し、
前記第1の領域は、動きの第1のシーケンスを表し、
前記第2の領域は、前記動きの第1のシーケンスの後に発生するように構成される動きの第2のシーケンスを表し、
前記第2の領域と関連付けられた前記焦点遷移マーカの実行をトリガすることは、前記動きの第2のシーケンスで描写される前記焦点遷移マーカを用いて第2のシーケンスを実行することをトリガすることを含む、請求項9
または請求項10に記載のウェアラブルコンピューティングデバイス。
【請求項13】
前記焦点遷移マーカは、前記焦点外れ事象と関連付けられた時間および前記再合焦事象と関連付けられた時間からの前記コンテンツにおける検出した変化のビデオまたは音声の再生を表し、前記検出した変化の前記再生は、前記検出した変化に対応する視覚または聴覚合図を含む、請求項12に記載のウェアラブルコンピューティングデバイス。
【請求項14】
前記焦点遷移マーカは、前記焦点外れ事象と関連付けられた時間および前記再合焦事象と関連付けられた時間からの前記コンテンツにおける検出した変化の再生を表し、前記検出した変化の前記再生は、前記検出した変化に対応する触覚合図を含む、請求項12に記載のウェアラブルコンピューティングデバイス。
【請求項15】
前記コンテンツは、前記仮想画面のユーザインターフェース内に提示され、前記動作は、
第1の時間期間にわたって前記ユーザの前記追跡された焦点に基づいて前記ユーザの注意のモデルを生成することと、
前記ユーザインターフェースのためのモデルを獲得することとをさらに含み、前記モデルは、前記ユーザインターフェースと関連付けられた複数の状態およびインタラクションを規定し、
第2の時間期間にわたって、前記第2の領域の少なくとも一部分の上に重ね合わされる少なくとも1つの焦点遷移マーカを、前記ユーザの前記追跡された焦点、前記注意の前記モデル、および前記ユーザインターフェースの、前記複数の状態からの決定した状態に基づいて、レンダリングすることをトリガすることとをさらに含む、請求項12
に記載のウェアラブルコンピューティングデバイス。
【請求項16】
前記仮想画面は、拡張現実ビューおよび物質的世界ビューを含む視野を提供するように構成される拡張現実デバイスと関連付けられ、
前記ユーザの前記焦点を追跡することは、前記ユーザの前記焦点が前記拡張現実ビューと関連付けられるか、または前記物質的世界ビューと関連付けられるかを決定することを含む、請求項9
または請求項10に記載のウェアラブルコンピューティングデバイス。
【請求項17】
命令
を含むプログラムであって、前記命令は、
ウェアラブルコンピューティングデバイスの処理回路によって実行されると、
仮想画面に提示されるコンテンツに対するユーザの焦点を追跡することと、
前記コンテンツの第1の領域と関連付けられた焦点外れ事象を検出することと、
前記コンテンツの第2の領域と関連付けられた次の合焦事象を決定することとを
前記ウェアラブルコンピューティングデバイスに行わせ、前記決定は、前記焦点外れ事象、および前記ユーザの検出された注視軌道に対応する前記ユーザの前記追跡された焦点に少なくとも部分的に基づき、
前記決定した次の合焦事象に基づいて、前記コンテンツの前記第2の領域を前記コンテンツの残部と区別するための焦点遷移マーカを生成することと、
前記仮想画面と関連付けられた再合焦事象を検出することに応答して、前記コンテンツの前記第2の領域と関連付けられた前記焦点遷移マーカの実行をトリガすることとを
前記ウェアラブルコンピューティングデバイスに行わせる、
プログラム。
【請求項18】
前記焦点遷移マーカは、前記第2の領域の一部分の上に重ね合わされる、少なくとも1つの制御部およびハイライト表示されたインジケータを含み、
前記焦点遷移マーカは、前記再合焦事象の後の時間期間に従ってディスプレイから次第に除去される、請求項17に記載の
プログラム。
【請求項19】
前記ユーザの前記焦点は、前記コンテンツとの検出されたユーザインタラクションに基づいてさらに決定され、
前記次の合焦事象は、前記検出したユーザインタラクション、および前記コンテンツと関連付けられたアクションのシーケンス内の既定の次のアクションに従ってさらに決定される、請求項17または請求項18に記載の
プログラム。
【請求項20】
前記焦点遷移マーカは、前記焦点外れ事象と関連付けられた時間および前記再合焦事象と関連付けられた時間からの前記コンテンツにおける検出した変化のビデオまたは音声の再生を表し、前記検出した変化の前記再生は、前記検出した変化に対応する視覚または聴覚合図を含む、請求項17
または請求項
18に記載の
プログラム。
【国際調査報告】