IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ グーグル インコーポレイテッドの特許一覧

特表2024-530481コンテキスト信号に基づく関与状態の保存
<>
  • 特表-コンテキスト信号に基づく関与状態の保存 図1
  • 特表-コンテキスト信号に基づく関与状態の保存 図2A
  • 特表-コンテキスト信号に基づく関与状態の保存 図2B
  • 特表-コンテキスト信号に基づく関与状態の保存 図3
  • 特表-コンテキスト信号に基づく関与状態の保存 図4
  • 特表-コンテキスト信号に基づく関与状態の保存 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-08-21
(54)【発明の名称】コンテキスト信号に基づく関与状態の保存
(51)【国際特許分類】
   G06F 3/16 20060101AFI20240814BHJP
【FI】
G06F3/16 650
G06F3/16 620
G06F3/16 610
G06F3/16 630
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024506978
(86)(22)【出願日】2022-07-18
(85)【翻訳文提出日】2024-03-14
(86)【国際出願番号】 US2022073820
(87)【国際公開番号】W WO2023015103
(87)【国際公開日】2023-02-09
(31)【優先権主張番号】17/444,656
(32)【優先日】2021-08-06
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.BLUETOOTH
(71)【出願人】
【識別番号】502208397
【氏名又は名称】グーグル エルエルシー
【氏名又は名称原語表記】Google LLC
【住所又は居所原語表記】1600 Amphitheatre Parkway 94043 Mountain View, CA U.S.A.
(74)【代理人】
【識別番号】100108453
【弁理士】
【氏名又は名称】村山 靖彦
(74)【代理人】
【識別番号】100110364
【弁理士】
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100133400
【弁理士】
【氏名又は名称】阿部 達彦
(72)【発明者】
【氏名】ブレット・アラジン・バロス
(72)【発明者】
【氏名】テオフィル・ヴァンソン・ゴゲリー
(57)【要約】
グラフィカルユーザインターフェース要素を動的に変更するための方法(400)は、時間的ユーザインターフェース要素(202)がユーザデバイス(110)のユーザインターフェース上で表示されていることを検出したことに応答して行われる。方法は、ユーザデバイスにおいて、ユーザ(10)の状態(16)を特徴づけるコンテキスト信号(204)を受信することを含む。方法は、ユーザデバイスによって、ユーザの状態を特徴づけるコンテキスト信号がユーザが時間的ユーザインターフェース要素と対話しようとしていることを示すと決定することをさらに含む。方法はまた、コンテキスト信号がユーザが時間的ユーザインターフェース要素と対話しようとしていることを示すとの決定に応答して、ユーザデバイスのユーザインターフェース上で表示されている時間的ユーザインターフェース要素のそれぞれの状態を修正することを含む。
【特許請求の範囲】
【請求項1】
データ処理ハードウェア(510)によって実行されると前記データ処理ハードウェア(510)に動作を実行させる、コンピュータにより実施される方法(400)であって、前記動作が、
時間的ユーザインターフェース要素(202)がユーザデバイス(110)のユーザインターフェース上で表示されていることを検出したことに応答して、
前記ユーザデバイス(110)において、ユーザ(10)の状態(16)を特徴づけるコンテキスト信号(204)を受信することと、
前記ユーザデバイス(110)によって、前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することと、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すとの決定に応答して、前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)のそれぞれの状態を修正することと
を含む、方法(400)。
【請求項2】
前記ユーザ(10)の前記状態(16)が、前記ユーザ(10)が前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)と関与しようと試みているかまたは関与していることを示す関与状態(16e)を含む、請求項1に記載の方法(400)。
【請求項3】
前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を増やすことを含む、請求項2に記載の方法(400)。
【請求項4】
前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を一時停止することを含む、請求項2に記載の方法(400)。
【請求項5】
前記ユーザ(10)の前記状態(16)が、前記ユーザ(10)が前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)との関与から離れていることを示す非関与状態(16d)を含む、請求項1から4のいずれか一項に記載の方法(400)。
【請求項6】
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記非関与状態(16d)を含むとの決定に応答して、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間の満了前に前記時間的ユーザインターフェース要素(202)を削除することを含む、請求項5に記載の方法(400)。
【請求項7】
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記非関与状態(16d)を含むとの決定に応答して、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を減らすことを含む、請求項5に記載の方法(400)。
【請求項8】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の近接度を示すユーザ近接度信号を含む、請求項1から7のいずれか一項に記載の方法(400)。
【請求項9】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に関連付けられたセンサー(162)の視野内の前記ユーザ(10)の存在を示す存在検出信号を含む、請求項1から7のいずれか一項に記載の方法(400)。
【請求項10】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の注意を示す注意検出信号を含む、請求項1から7のいずれか一項に記載の方法(400)。
【請求項11】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に関連付けられたセンサー(162)の視野内の前記ユーザ(10)の存在を示す存在検出信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記存在検出信号が前記センサー(162)の前記視野内の前記ユーザ(10)の前記存在が不在から存在に変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項1から7のいずれか一項に記載の方法(400)。
【請求項12】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の近接度を示すユーザ近接度信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記ユーザ近接度信号が前記ユーザデバイス(110)に対する前記ユーザ(10)の前記近接度が前記ユーザデバイス(110)により近くなるように変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項1から7のいずれか一項に記載の方法(400)。
【請求項13】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の注意を示す注意検出信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記注意検出信号が前記ユーザ(10)の前記注意が前記ユーザデバイス(110)に注目するように変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項1から7のいずれか一項に記載の方法(400)。
【請求項14】
前記動作が、前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すとの決定に応答して、前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正する前に、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態が時間期間内にしきい値回数だけ以前に修正されるのに失敗していると決定することをさらに含む、請求項1から13のいずれか一項に記載の方法(400)。
【請求項15】
前記時間的ユーザインターフェース要素(202)が、前記ユーザデバイス(110)によってキャプチャされたストリーミングオーディオにおいて検出されたクエリ(22)によって指定されたアクションを表す、請求項1から14のいずれか一項に記載の方法(400)。
【請求項16】
システム(100)であって、
データ処理ハードウェア(510)と、
前記データ処理ハードウェア(510)と通信しているメモリハードウェア(520)とを備え、前記メモリハードウェア(520)が、前記データ処理ハードウェア(510)上で実行されると、前記データ処理ハードウェア(510)に動作を実施させる命令を記憶し、前記動作が、
時間的ユーザインターフェース要素(202)がユーザデバイス(110)のユーザインターフェース上で表示されていることを検出したことに応答して、
前記ユーザデバイス(110)において、ユーザ(10)の状態(16)を特徴づけるコンテキスト信号(204)を受信することと、
前記ユーザデバイス(110)によって、前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することと、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記時間的ユーザインターフェース要素(202)との前記ユーザ対話を示すとの決定に応答して、前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)のそれぞれの状態を修正することと
を含む、システム(100)。
【請求項17】
前記ユーザ(10)の前記状態(16)が、前記ユーザ(10)が前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)と関与しようと試みているかまたは関与していることを示す関与状態(16e)を含む、請求項16に記載のシステム(100)。
【請求項18】
前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を増やすことを含む、請求項17に記載のシステム(100)。
【請求項19】
前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を一時停止することを含む、請求項17に記載のシステム(100)。
【請求項20】
前記ユーザ(10)の前記状態(16)が、前記ユーザ(10)が前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)との関与から離れていることを示す非関与状態(16d)を含む、請求項16から19のいずれか一項に記載のシステム。
【請求項21】
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記非関与状態(16d)を含むとの決定に応答して、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間の満了前に前記時間的ユーザインターフェース要素(202)を削除することを含む、請求項20に記載のシステム(100)。
【請求項22】
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記非関与状態(16d)を含むとの決定に応答して、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を減らすことを含む、請求項20に記載のシステム(100)。
【請求項23】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の近接度を示すユーザ近接度信号を含む、請求項16から22のいずれか一項に記載のシステム(100)。
【請求項24】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に関連付けられたセンサー(162)の視野内の前記ユーザ(10)の存在を示す存在検出信号を含む、請求項16から22のいずれか一項に記載のシステム(100)。
【請求項25】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の注意を示す注意検出信号を含む、請求項16から22のいずれか一項に記載のシステム(100)。
【請求項26】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に関連付けられたセンサー(162)の視野内の前記ユーザ(10)の存在を示す存在検出信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記存在検出信号が前記センサー(162)の前記視野内の前記ユーザ(10)の前記存在が不在から存在に変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項16から22のいずれか一項に記載のシステム(100)。
【請求項27】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の近接度を示すユーザ近接度信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記ユーザ近接度信号が前記ユーザデバイス(110)に対する前記ユーザ(10)の前記近接度が前記ユーザデバイス(110)により近くなるように変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項16から22のいずれか一項に記載のシステム(100)。
【請求項28】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の注意を示す注意検出信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記注意検出信号が前記ユーザ(10)の前記注意が前記ユーザデバイス(110)に注目するように変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項16から22のいずれか一項に記載のシステム(100)。
【請求項29】
前記動作が、前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すとの決定に応答して、前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正する前に、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態が時間期間内にしきい値回数だけ以前に修正されるのに失敗していると決定することをさらに含む、請求項16から28のいずれか一項に記載のシステム(100)。
【請求項30】
前記時間的ユーザインターフェース要素(202)が、前記ユーザデバイス(110)によってキャプチャされたストリーミングオーディオにおいて検出されたクエリによって指定されたアクションを表す、請求項16から29のいずれか一項に記載のシステム(100)。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、コンテキスト信号に基づいて関与状態を保存することに関する。
【背景技術】
【0002】
音声対応環境(たとえば、自宅、仕事場、学校、自動車など)は、ユーザがコンピュータベースのシステムにクエリまたはコマンドを声に出して話すことを可能にし、コンピュータベースのシステムは、クエリをさばいて返答し、かつ/またはコマンドに基づいて機能を実施する。音声対応環境は、環境の様々な部屋またはエリアにわたって分散されている接続されたマイクロフォンデバイスのネットワークを使用して実装され得る。これらのデバイスは、環境中に存在する別の個人に向けられた発話に対立するものとして、いつ所与の発話がシステムに向けられたかを識別するのを助けるために、ホットワードを使用し得る。したがって、デバイスは、スリープ状態または休止状態で動作し、検出された発話がホットワードを含むときのみ、ウェイクアップすることができる。アウェイクすると、デバイスは、完全オンデバイス自動音声認識(ASR:automated speech recognition)またはサーバベースASRなどの、より高価な処理を実施することに進むことができる。
【発明の概要】
【課題を解決するための手段】
【0003】
本開示の一態様は、グラフィカルユーザインターフェース要素を動的に変更するための、コンピュータにより実施される方法を提供する。コンピュータにより実施される方法は、データ処理ハードウェアによって実行されると、データ処理ハードウェアに動作を実行させる。動作は、時間的ユーザインターフェース要素がユーザデバイスのユーザインターフェース上で表示されていることを検出したことに応答して行われる。動作は、ユーザデバイスにおいて、ユーザの状態を特徴づけるコンテキスト信号を受信することを含む。動作は、ユーザデバイスによって、ユーザの状態を特徴づけるコンテキスト信号がユーザが時間的ユーザインターフェース要素と対話しようとしていることを示すと決定することをさらに含む。動作はまた、ユーザの状態を特徴づけるコンテキスト信号がユーザが時間的ユーザインターフェース要素と対話しようとしていることを示すとの決定に応答して、ユーザデバイスのユーザインターフェース上で表示されている時間的ユーザインターフェース要素のそれぞれの状態を修正することを含む。
【0004】
本開示の別の態様は、グラフィカルユーザインターフェース要素を動的に変更するためのシステムを提供する。システムは、データ処理ハードウェアと、データ処理ハードウェアと通信しているメモリハードウェアとを含む。メモリハードウェアは、データ処理ハードウェア上で実行されると、データ処理ハードウェアに動作を実施させる命令を記憶する。動作は、時間的ユーザインターフェース要素がユーザデバイスのユーザインターフェース上で表示されていることを検出したことに応答して行われる。動作は、ユーザデバイスにおいて、ユーザの状態を特徴づけるコンテキスト信号を受信することを含む。動作は、ユーザデバイスによって、ユーザの状態を特徴づけるコンテキスト信号がユーザが時間的ユーザインターフェース要素と対話しようとしていることを示すと決定することをさらに含む。動作はまた、ユーザの状態を特徴づけるコンテキスト信号がユーザが時間的ユーザインターフェース要素と対話しようとしていることを示すとの決定に応答して、ユーザデバイスのユーザインターフェース上で表示されている時間的ユーザインターフェース要素のそれぞれの状態を修正することを含む。
【0005】
本開示のいずれかの態様の実装形態は、以下の任意選択の特徴のうちの1つまたは複数を含み得る。いくつかの実装形態では、ユーザの状態は、ユーザがユーザデバイスのユーザインターフェース上で表示されている時間的ユーザインターフェース要素と関与しようと試みているかまたは関与していることを示す関与状態(engagement state)を含む。いくつかの例では、口頭ユーザインターフェース要素のそれぞれの状態を修正することは、時間的ユーザインターフェース要素のタイムアウト持続時間を増やすことまたは一時停止することを含む。いくつかの構成では、ユーザの状態は、ユーザがユーザデバイスのユーザインターフェース上で表示されている時間的ユーザインターフェース要素との関与から離れていることを示す非関与状態(disengagement state)を含む。これらの構成では、ユーザの状態を特徴づけるコンテキスト信号が非関与状態を含むとの決定に応答して、時間的ユーザインターフェース要素のそれぞれの状態を修正することは、時間的ユーザインターフェース要素のタイムアウト持続時間の満了前に時間的ユーザインターフェース要素を削除することを含み得る。これらの構成では、ユーザの状態を特徴づけるコンテキスト信号が非関与状態を含むとの決定に応答して、時間的ユーザインターフェース要素のそれぞれの状態を修正することは、時間的ユーザインターフェース要素のタイムアウト持続時間を減らすことを含み得る。コンテキスト信号のいくつかの例は、ユーザデバイスに対するユーザの近接度を示すユーザ近接度信号、ユーザデバイスに関連付けられたセンサーの視野内のユーザの存在を示す存在検出信号、およびユーザデバイスに対するユーザの注意を示す注意検出信号を含む。時間的ユーザインターフェース要素は、ユーザデバイスによってキャプチャされたストリーミングオーディオにおいて検出されたクエリによって指定されたアクションを表し得る。任意選択で、動作は、ユーザの状態を特徴づけるコンテキスト信号がユーザが時間的ユーザインターフェース要素と対話しようとしていることを示すとの決定に応答して、ユーザデバイスのユーザインターフェース上で表示されている時間的ユーザインターフェース要素のそれぞれの状態を修正する前に、時間的ユーザインターフェース要素のそれぞれの状態が時間期間内にしきい値回数だけ以前に修正されるのに失敗していると決定することをさらに含む。
【0006】
本開示のいずれかの態様のいくつかの例では、コンテキスト信号は、ユーザデバイスに関連付けられたセンサーの視野内のユーザの存在を示す存在検出信号を含む。ここで、ユーザの状態を特徴づけるコンテキスト信号がユーザが時間的ユーザインターフェース要素と対話しようとしていることを示すと決定することは、存在検出信号がセンサーの視野内のユーザの存在が不在から存在に変化したことを示すと決定することを含み、ユーザインターフェース上で表示されている時間的ユーザインターフェース要素のそれぞれの状態を修正することは、タイムアウト持続時間を増やすことまたは時間的ユーザインターフェース要素のタイムアウト持続時間を一時停止することを含む。
【0007】
本開示のいずれかの態様のいくつかの実装形態では、コンテキスト信号は、ユーザデバイスに対するユーザの近接度を示すユーザ近接度信号を含む。ここで、ユーザの状態を特徴づけるコンテキスト信号がユーザが時間的ユーザインターフェース要素と対話しようとしていることを示すと決定することは、ユーザ近接度信号がユーザデバイスに対するユーザの近接度がユーザデバイスにより近くなるように変化したことを示すと決定することを含み、ユーザインターフェース上で表示されている時間的ユーザインターフェース要素のそれぞれの状態を修正することは、タイムアウト持続時間を増やすことまたは時間的ユーザインターフェース要素のタイムアウト持続時間を一時停止することを含む。
【0008】
本開示のいずれかの態様のいくつかの構成では、コンテキスト信号は、ユーザデバイスに対するユーザの注意を示す注意検出信号を含む。ここで、ユーザの状態を特徴づけるコンテキスト信号がユーザが時間的ユーザインターフェース要素と対話しようとしていることを示すと決定することは、注意検出信号がユーザの注意がユーザデバイスに注目するように変化したことを示すと決定することを含み、ユーザインターフェース上で表示されている時間的ユーザインターフェース要素のそれぞれの状態を修正することは、タイムアウト持続時間を増やすことまたは時間的ユーザインターフェース要素のタイムアウト持続時間を一時停止することを含む。
【0009】
本開示の1つまたは複数の実装形態の詳細が、添付の図面および以下の説明に記載される。他の態様、特徴、および利点は、説明および図面から、ならびに特許請求の範囲から明らかになろう。
【図面の簡単な説明】
【0010】
図1】例示的な音声対応環境の概略図である。
図2A図1の音声対応環境のための例示的な保存器の概略図である。
図2B図1の音声対応環境のための例示的な保存器の概略図である。
図3】保存器を使用する例示的な音声対応環境の概略図である。
図4】グラフィカルユーザインターフェース要素の状態を変更する方法のための動作の例示的な構成のフローチャートである。
図5】本明細書で説明されるシステムおよび方法を実装するために使用され得る例示的なコンピューティングデバイスの概略図である。
【発明を実施するための形態】
【0011】
様々な図面における同様の参照符号は、同様の要素を示す。
【0012】
ボイス対応デバイス(たとえば、ボイスアシスタントを実行するユーザデバイス)は、ユーザがクエリもしくはコマンドを声に出して話し、クエリに対する返答をさばくこと、および/またはコマンドに基づいて機能を実施することを可能にする。しばしば、ボイス対応デバイスがクエリに応答するとき、ボイス対応デバイスは、クエリによって要求されたアクションを表す視覚応答を生成する。たとえば、ボイス対応デバイスのユーザは、ボイス対応デバイスがボイス対応デバイスの音楽ストリーミングアプリケーション上で特定の曲をかけることを要求する発話を行う。ユーザによるこの要求に応答して、ボイス対応デバイスは、音楽ストリーミングサービスに関連付けられた音楽ストリーミングアプリケーション上でボイス対応デバイスが要求された曲をかけていることを示すグラフィカル要素を、ボイス対応デバイスに関連付けられたディスプレイ上に表示する。
【0013】
いくつかの状況では、グラフィカル要素は、グラフィカル要素が特定の時間量の後にボイス対応デバイスのディスプレイから削除されるように、本質的に一時的または時間的である。すなわち、グラフィカル要素は設定されたタイムアウト値を有することがあり、タイムアウト値は、グラフィカル要素が削除される(すなわち、タイムアウトする)前に視覚的に存在する持続時間を指す。たとえば、グラフィカル要素は、ユーザによるクエリに応答してボイス対応デバイスが実施しているまたは実施することができるアクションを視覚的に示す一時的な通知である。
【0014】
いくつかの例では、ボイス対応デバイスは、ボイス対応デバイスに関連付けられたユーザが、ユーザがアクションが実施されるのを望むことを何らかの形で確認するまで、クエリに応答してアクションを実施しない。ここで、確認は、音声入力などの言葉による確認(たとえば、「Yes」)、ジェスチャーなどの動きによる確認、またはユーザがアクションの実施を肯定するためにボイス対応デバイスのディスプレイをタップするなどの触覚による確認であってもよい。確認アプローチを使用する際、確認アプローチは、ボイス対応デバイスがユーザによって望まれていないアクションをうっかり実施することを防ぐことができる。さらに、このアプローチは、ボイス対応デバイスが、ユーザが要求したかつユーザが選択すべき、ボイス対応デバイスが知覚した1つまたは複数のアクションを提案すること、またはアクションのいずれかがユーザによって実際に要求されたかどうか(すなわち、ボイス対応デバイスが実施することをユーザが意図した任意のアクション)を示すことを可能にする。
【0015】
いくつかの実装形態では、ボイス対応デバイスは、アクションが実施されることをユーザが実際に要求したという確信に欠けるので、ボイス対応デバイスは、アクションを自動的に実施するのではなく、ユーザによるクエリに応答してアクションを提案する。たとえば、あるユーザがボイス対応デバイスに近接して別のユーザと会話をしており、ボイス対応デバイスが、会話の何らかの側面がボイス対応デバイスがアクションを実施するためのクエリであったことを知覚する。また、これはボイス対応デバイスに向けられていない副次的な音声会話であるので、ボイス対応デバイスは、アクションを自動的に実施するための特定のレベルの信頼性を有するアクションを決定することができない。ここで、アクションの自動的な実施に応じないより低い信頼性に起因して、ボイス対応デバイスは代わりに、ユーザが検出されたアクションを実施したいかどうかを質問するグラフィカル要素を表示する。たとえば、ボイス対応デバイスは、「マイケルジャクソンのスリラーをかけましょうか?」と述べるプロンプトを表示する。したがって、このプロンプトは、それがユーザが意図したものであると確認する能力(すなわち、プロンプト中の選択可能な「yes」ボタン)をユーザに与えるか、またはそれがユーザが意図したものではなかったことを示す能力(すなわち、プロンプト中の選択可能な「no」ボタン)をユーザに与える。ここで、プロンプトは、ユーザがプロンプトを無視するかまたはプロンプトに気づくことができず、プロンプトによって提案されたアクションを実施させないことを可能にする時間的グラフィカル要素としてセットアップされてもよい。言い換えれば、ボイス対応デバイスがプロンプトに関するユーザからのいかなる入力も受信しない場合、プロンプト、したがって、提案されたアクションはタイムアウトし、行われない。
【0016】
残念ながら、ユーザがボイス対応デバイスによって特定のアクションが実施されることを要求したが、ユーザがアクションが実施されるのを望むという確認をユーザが提供することができない状況が生じる。例示すると、ボイス対応デバイスはユーザの自宅のキッチンにある場合がある。ユーザが食料品店から自宅に戻ると、ユーザは車からの一連の移動において食料品をキッチンに運び込み始める。最初にキッチンにいる間に、ユーザは、ボイス対応デバイスがユーザが食料品店から家に帰る途中で聞いていた地元のラジオ局をかけることを要求する。このシナリオでは、ユーザはボイス対応デバイスが地元のラジオ局をかけることを明示的に要求したが、ユーザが動き回っていた可能性があり、その結果として、ボイス対応デバイスは確信をもってコマンドを検出しなかった。この信頼性の欠如に起因して、ボイス対応デバイスは、ボイス対応デバイスが地元のラジオ局をかけることをユーザが望むかどうかを質問するプロンプトを生成する。この提案されたアクションが実際にユーザが要求したものであるにもかかわらず、ユーザはプロンプトを見逃し、ボイス対応デバイスのボイス能力が期待以下であることにいら立つことがある。代替的に、ユーザが両腕に食料品をいっぱい抱えて車への移動から戻ってくると、地元のラジオ局がかかっておらず、プロンプトがボイス対応デバイスのディスプレイ上に時間的グラフィカル要素として存在しているだけであることに気づくことがある。また、ユーザが食料品を降ろすことができるかまたは言葉で応答する機会を得る前に、プロンプトが消える(すなわち、タイムアウトする)ことがある。この例では、プロンプト/提案されたアクションがタイムアウトする前に、ユーザはプロンプト上でyesをタップするためにボイス対応デバイスに向かって移動していた可能性がある。
【0017】
食料品の例のような状況の場合、時間的グラフィカル要素の状態はユーザの状態に気づくことから恩恵を受けることができる。すなわち、食料品の例では、プロンプトが消えた(すなわち、タイムアウトした)ときに、ユーザはボイス対応デバイスに向かって移動していた。つまり、ボイス対応デバイスに関連付けられた何らかのシステムがユーザの状態をボイス対応デバイスと対話しようと試みているものとして認識した場合、そのシステムは、ボイス対応デバイス(またはその何らかのシステム)に時間的グラフィカル要素のタイムアウト持続時間を延長するように通知してもよい(たとえば、ユーザが地元のラジオ局をかけたかったかどうかを尋ねるプロンプト)。したがって、ユーザの状態に起因してタイムアウト持続時間が延長された場合、ユーザは、ボイス対応デバイスにおいてアクションの確認を入力するのに十分な時間を有することができ、結果として、ボイス対応デバイスは成功裡に地元のラジオ局をかけてユーザを楽しませる。
【0018】
対照的に、食料品の例において、ユーザが食料品を抱えてキッチンに入ってきて、セルフォンで話しながら「この素晴らしい曲が地元のラジオ局でかかっていたのをたった今聞いたところです」と言っていた場合、時間的グラフィカル要素はやはり、そのタイムアウトを加速させるかまたは直ちにタイムアウトする(すなわち、時間的要素の状態を変更する)ために、ユーザの状態に気づくことから恩恵を受けることができる。たとえば、例に対するこの代替では、ユーザは、ボイス対応デバイスが地元のラジオ局をかけるためのプロンプトを生成したことを通知するボイス対応デバイスを見つめ、次いで、食料品を持ち込み続けるために立ち去ることがある。ここで、ユーザの視覚的認識(すなわち、凝視)とその後に立ち去ることの組合せは、ユーザによる提案されたアクションへの関心の暗黙的な欠如に起因して、ボイス対応デバイスにプロンプトを直ちにタイムアウトするように通知することができる。
【0019】
時間的要素がユーザの状態に気づくために、ボイス対応デバイスに関連付けられた1つまたは複数のシステムは、コンテキスト信号を分析して、これらの信号のうちの1つまたは複数がユーザの状態が時間的要素の状態に影響を及ぼすべきであることを示すかどうかを決定するように構成され得る。言い換えれば、コンテキスト信号がユーザの状態を、ボイス対応デバイスと積極的に対話しようと試みている(たとえば、関与しようと試みている)もの(すなわち、関与状態)として特徴づける場合、時間的要素の状態は、積極的な対話に適応するように修正され得る(たとえば、タイムアウトが延長されるかまたは完全に一時停止される)。一方、コンテキスト信号がユーザの状態を、ボイス対応デバイスと消極的に対話しようと試みている(たとえば、関与しないように試みている)もの(すなわち、非関与状態)として特徴づける場合、時間的要素の状態は、消極的な対話に適応するように修正され得る(たとえば、タイムアウトが短縮されるかまたは直ちに実行される)。このアプローチを用いると、時間的要素は、コンテキスト信号(たとえば、収集された/受信されたセンサーデータ)がその保存を正当化するときに保存され得る。
【0020】
図1を参照すると、いくつかの例では、音声環境100は、デジタルアシスタントインターフェース120を実行するボイス対応デバイス110(デバイス110またはユーザデバイス110とも呼ばれる)の可聴範囲内で発話20を行うユーザ10を含む。ここで、ユーザ10によってなされた発話20は、ストリーミングオーディオ12においてデバイス110によってキャプチャされることがあり、アクションを実施するためのクエリ22、またはより詳細には、デジタルアシスタントインターフェース120がアクションを実施するためのクエリ22に対応することがある。ユーザ10は、ホットワード24がスリープ状態または休止状態である間にデバイス110上で動作するホットワード検出器(たとえば、ソフトアクセプタ200)によってストリーミングオーディオ12において検出されたときにスリープ状態または休止状態からデバイス110をトリガするために、ホットワード24(たとえば、呼出し句)でクエリ22をプレフィックスしてもよい。ユーザ10はまた、ホットワード24でクエリ22をエンドポイントしてもよい。ホットワード24を話すこと以外でスリープ状態または休止状態からデバイス110をトリガするために他の技法が使用されてもよい。たとえば、呼出しイベントが、スリープ状態または休止状態からデバイス110をトリガしてもよい。呼出しイベントは、限定はしないが、クエリ22を話す前または話している間にユーザがジェスチャーを行うこと、クエリ22を話すときにユーザがデバイスのほうに向くこと、ユーザが突然デバイス110の前に現れてクエリ22を話すこと、または音声(たとえば、クエリ22)がデバイス110のほうへ向けられることが予想される尤度を示すコンテキストキューを含んでもよい。アクションは、動作またはタスクと呼ばれることもある。この意味で、ユーザ10は、計算活動を実施するためにまたは質問に対する答えを見つけるために、ボイス対応デバイス110上で実行されるデジタルアシスタントインターフェース120との会話型対話を有してもよい。
【0021】
デバイス110は、ユーザ10に関連付けられた、環境100からオーディオをキャプチャすることが可能な、任意のコンピューティングデバイスに対応してもよい。いくつかの例では、ユーザデバイス110は、限定はしないが、モバイルデバイス(たとえば、モバイルフォン、タブレット、ラップトップ、電子ブックリーダーなど)、コンピュータ、ウェアラブルデバイス(たとえば、スマートウォッチ)、音楽プレーヤ、キャスティングデバイス、スマートアプライアンス(たとえば、スマートテレビジョン)およびモノのインターネット(IoT)デバイス、リモートコントロール、スマートスピーカーなどを含む。デバイス110は、データ処理ハードウェア112と、データ処理ハードウェア112と通信しており、データ処理ハードウェア112によって実行されると、データ処理ハードウェア112に音声処理に関連する1つまたは複数の動作を実施させる命令を記憶する、メモリハードウェア114とを含む。
【0022】
デバイス110は、音声環境100内のオーディオをキャプチャし電子信号(たとえば、オーディオデータ14)に変換するためのオーディオキャプチャデバイス116、116a(たとえば、1つまたは複数のマイクロフォンのアレイ)を有するオーディオサブシステム116をさらに含む。デバイス110は、図示の例ではオーディオキャプチャデバイス116a(一般にマイクロフォン116aとも呼ばれる)を実装するが、オーディオキャプチャデバイス116aは、デバイス110上に物理的に存在していなくてもよいが、オーディオサブシステム116(たとえば、デバイス110の周辺装置)と通信していてもよい。たとえば、デバイス110は、車両全体にわたって位置するマイクロフォンのアレイを活用する車両インフォテインメントシステムに対応してもよい。別の例では、オーディオキャプチャデバイス116aは、アクションを実施することになるユーザデバイス110と通信している別のデバイス上に存在していてもよい。加えて、オーディオサブシステム116は、ユーザデバイス110によって生成/出力されたオーディオ(たとえば、合成オーディオ、合成音声、または様々なタイプのメディアに関連するオーディオ)を再生するための再生デバイス116、116b(たとえば、1つまたは複数のスピーカー116bなど)を含んでもよい。
【0023】
デバイス110はまた、グラフィカルユーザインターフェース(GUI)要素(たとえば、グラフィカルユーザインターフェース要素202)および/またはグラフィカルコンテンツを表示するためのディスプレイ118を含んでもよい。GUI要素のいくつかの例は、ウィンドウ、スクリーン、アイコン、メニューなどを含む。たとえば、デバイス110は、ディスプレイ118のためのGUI要素(たとえば、GUI要素202など)または他のグラフィカルコンテンツを生成するアプリケーション(ローカルアプリケーションまたはリモートアプリケーション)をロードまたは起動してもよい。さらに、ディスプレイ118において生成された要素は、ユーザ10によって選択可能であってもよく、また、デバイス110上で行われる処理活動および/または動作に対する何らかの形態の視覚フィードバックを提供するように働いてもよい。たとえば、要素は、ユーザ10からのクエリ22に応答してデバイス110が実施しているかまたは実施することを示唆しているアクションを表す。さらに、デバイス110はボイス対応デバイス110であるので、ユーザ10は、様々なボイスコマンドならびに他のタイプのコマンド(たとえば、ジェスチャーコマンドまたはタッチ入力コマンド)を使用して、ディスプレイ118上で生成された要素と対話してもよい。たとえば、ディスプレイ118は、特定のアプリケーション用のオプションのメニューを図示してもよく、ユーザ10は、音声またはフィードバックの他の手段(たとえば、触覚入力、動き/ジェスチャー入力など)によってオプションを選択するためにインターフェース120を使用してもよい。ユーザ10が提示されたオプションを選択するために話すとき、デバイス110は、提示されたオプションを選択するために特定の句が話されたかどうかを決定するために、縮小音声認識状態で動作しているか、またはデバイス110に関連付けられたウォームワードモデルを使用していてもよい。一例として、ウォームワードモデルは、オプションがデバイス110によって(たとえば、デバイス110のディスプレイ118上で)提示されている時間の間に(たとえば、タイムアウトウィンドウの間に)バイナリ音声(たとえば、「yes」または「no」)を検出するように動作する。
【0024】
音声対応インターフェース(たとえば、デジタルアシスタントインターフェース)120は、デバイス110によってキャプチャされた発話20において搬送されたクエリ22またはコマンドをさばいてもよい。音声対応インターフェース120(インターフェース120またはアシスタントインターフェース120とも呼ばれる)は一般に、発話20に対応するオーディオデータ14を受信すること、およびオーディオデータ14に対する音声処理または発話20に由来する他の活動を協調させることを容易にする。インターフェース120は、デバイス110のデータ処理ハードウェア112上で実行されてもよい。インターフェース120は、発話20を含むオーディオデータ14を、音声処理またはクエリ遂行に関連する様々なシステムにチャネリングしてもよい。
【0025】
さらに、デバイス110は、ネットワーク130を介してリモートシステム140と通信するように構成される。リモートシステム140は、リモートデータ処理ハードウェア144(たとえば、リモートサーバもしくはCPU)および/またはリモートメモリハードウェア146(たとえば、リモートデータベースもしくは他のストレージハードウェア)などの、スケーラブルなリモートリソース142を含んでもよい。デバイス110は、(たとえば、音声処理システム150による)音声処理および/または(たとえば、保存器200による)GUI要素の状態保存に関連する様々な機能を実施するためにリモートリソース142を利用してもよい。たとえば、デバイス110は、音声認識システム152を使用して音声認識を、および/または音声解釈器154を使用して音声解釈を実施するように構成される。いくつかの例では、図示されていないが、デバイス110は追加として、テキスト音声(TTS:text-to-speech)システムを使用して音声処理の間にTTSを変換してもよい。
【0026】
デバイス110はまた、音声処理システム150と通信するように構成される。音声処理システム150は一般に、音声認識および音声解釈(クエリ解釈としても知られている)などの、音声処理に関連する様々な機能を実施することが可能である。たとえば、図1の音声処理システム150は、自動音声認識(ASR:automated speech recognition)を実施する音声認識器152と、認識された音声の意味を(すなわち、音声を理解するために)決定する音声解釈器154と、認識された音声において特定されたクエリに応答して任意の検索結果を取り出す検索エンジン156とを含むことが示されている。(たとえば、アシスタントインターフェース120に関連付けられた)ホットワード検出器がホットワードイベントを検出したとき、ホットワード検出器はオーディオデータ14を音声処理システム150に渡す。ホットワードイベントは、ホットワード検出器がオーディオデータ14の一部分(たとえば、第1のオーディオセグメント)をホットワード24として受け入れることを示す。オーディオデータ14の一部分がホットワード24として特定されると、ホットワード検出器および/またはアシスタントインターフェース120は、音声処理システム150がオーディオデータ14に対して音声処理を実施することができるように、オーディオデータ14をホットワードイベントとして通信する。オーディオデータ14に対して音声処理を実施することによって、音声認識器152は、音声解釈器154との組合せで、オーディオデータ14の(たとえば、クエリ22として示された)第2のオーディオセグメントがクエリタイプの発話を示すかどうかを決定することが可能である。
【0027】
音声認識器152は、ホットワードイベントに対応するオーディオデータ14を入力として受信し、オーディオデータ14を音声認識結果Rと呼ばれる出力としてトランスクリプションに転写する。概して、オーディオデータ14をトランスクリプションに変換することによって、音声認識器152は、デバイス110が、ユーザ10からなされた発話20がクエリ22(もしくはコマンド)または何らかの他の形態のオーディオ通信に対応するときを認識することを可能にする。トランスクリプションは、次いでデバイス110(たとえば、アシスタントインターフェース120または音声処理システム150)がクエリまたはコマンドへの応答を生成するために使用し得る一連のテキストを指す。音声認識器152および/またはインターフェース120は、音声認識結果Rに対して意味論的解釈を実施して、特定のアクション158が実施されることを要求するクエリ22をオーディオデータ14が含むかどうかを決定するために、その結果Rを音声解釈器154(たとえば、自然言語理解(NLU:natural language understand)モジュール)に提供してもよい。言い換えれば、音声解釈器154は、オーディオデータ14におけるクエリ22またはコマンドを特定するために、かつ音声処理システム150がクエリ22によって呼び出された対応するアクション158でクエリ22に応答することを可能にするために、結果Rの解釈Iを生成する。たとえば、クエリ22が音楽を再生するためのコマンドである場合、クエリ22によって呼び出された対応するアクション158は、(たとえば、音楽を再生することが可能なアプリケーションを実行することによって)音楽を再生することである。いくつかの例では、音声処理システム150は、音声処理システム150がクエリ22に応答する(すなわち、クエリ22を遂行する)ことを可能にする検索結果を取り出すために、検索エンジン156を用いる。
【0028】
ユーザデバイス110はまた、ユーザデバイス110の環境内のセンサーデータ164をキャプチャするようにセンサー162で構成されたセンサーシステム160を含むか、またはセンサーシステム160に関連付けられる。ユーザデバイス110は、ユーザデバイス110のユーザ10の現在の状態16を決定するために、継続的にまたは少なくとも周期的間隔の間に、センサーシステム160によってキャプチャされたセンサーデータ164を受信してもよい。センサーデータ164のいくつかの例は、動きデータ、画像データ、接続データ、雑音データ、音声データ、またはユーザ10/ユーザデバイス110の状態16もしくはユーザデバイス110の近傍の環境の状態を示す他のデータを含む。動きデータは、ユーザデバイス110の移動によってユーザ10の移動を特徴づける加速度計データを含んでもよい。たとえば、ユーザ10がデバイス110を持っており、ユーザ10が親指を動かして(たとえば、GUI要素と対話するために)デバイス110のディスプレイ118をタップすると、動きデータは、ユーザ10の状態16がデバイス110に関与していることを示す。動きデータはまた、ユーザのポケットの中のスマートフォンまたはユーザが身に着けたスマートウォッチなどの、ユーザに関連付けられた別のデバイスから、デバイス110において受信され得る。画像データは、ユーザ10の注意、ユーザデバイス110に対するユーザ10の近接度(たとえば、ユーザ10とユーザデバイス110との間の距離)、ユーザ10の存在(たとえば、ユーザ10が1つまたは複数のセンサー162の視野内に存在しているか否か)、および/またはユーザ10の環境の特徴を検出するために使用されてもよい。たとえば、画像データは、(たとえば、身体の特徴によってユーザ10のジェスチャーを特徴づけるために、顔の特徴によってユーザ10の視線を特徴づけるために、またはユーザ10の姿勢/向きを特徴づけるために)ユーザ10の特徴をキャプチャすることによってユーザ10の注意を検出する。接続/通信データは、ユーザデバイス110が他の電子機器またはデバイス(たとえば、スマートウォッチまたはモバイルフォン)に接続されているかまたはそれらと通信しているかどうかを決定するために使用されてもよい。たとえば、接続データは、近距離接続/通信データ、Bluetooth接続/通信データ、Wi-Fi接続/通信データ、または何らかの他の無線帯域接続/通信データ(たとえば、ウルトラワイドバンド(UWB)データ)であってもよい。雑音データまたは音声データなどの音響データは、センサーシステム160(たとえば、デバイス110のマイクロフォン116a)によってキャプチャされてもよく、ユーザデバイス110の環境(たとえば、特定の音響シグネチャを有する環境の特性またはプロパティ)を決定するか、またはユーザ10もしくは別の当事者が話しているかどうかを特定するために使用されてもよい。いくつかの構成では、センサーシステム160は、超音波データをキャプチャして、デバイス110の環境内のユーザ10または他の物体の場所を検出する。たとえば、デバイス110は、そのスピーカー116bとそのマイクロフォン116aの組合せを活用して、デバイス110の環境についての超音波データをキャプチャする。センサーシステム160のセンサー162は、オンデバイスで埋め込まれるかもしくはホストされる(たとえば、画像データをキャプチャするカメラもしくは音響データをキャプチャするマイクロフォン116a)、オフデバイスで存在するがデバイス110と通信している、またはそれらの何らかの組合せであってもよい。図1は、デバイス110上に含まれるカメラを例示的なセンサー162として図示しているが、デバイス110の他の周辺装置も、オーディオサブシステム116のマイクロフォン116aおよびスピーカー116bなどのセンサー162として機能してもよい。
【0029】
システム150、160、200は、デバイス110上に存在する(オンデバイスシステムと呼ばれる)か、またはリモートで存在する(たとえば、リモートシステム140上に存在する)がデバイス110と通信していてもよい。いくつかの例では、これらのシステム150、160、200のうちのいくつかはローカルにまたはオンデバイスで存在するが、他のものはリモートで存在する。言い換えれば、これらのシステム150、160、200のいずれも、任意の組合せでローカルまたはリモートであってもよい。たとえば、システム150、160、200のサイズまたは処理要件がかなり大きいとき、システム150、160、200はリモートシステム140に存在してもよい。また、デバイス110が1つまたは複数のシステム150、160、200のサイズまたは処理要件をサポートすることができるとき、1つまたは複数のシステム150、160、200は、データ処理ハードウェア112および/またはメモリハードウェア114を使用してデバイス110上に存在してもよい。任意選択で、システム150、160、200のうちの1つまたは複数は、ローカルに/オンデバイスでおよびリモートでの両方で存在してもよい。たとえば、システム150、160、200のうちの1つまたは複数は、デバイス110とリモートシステム140との間のネットワーク130への接続が利用可能であるとき、リモートシステム140上で実行されるようにデフォルト設定されてもよいが、接続が失われるかまたはネットワーク130が利用不可能であるとき、システム150、160、200は代わりに、デバイス110上でローカルに実行される。
【0030】
保存器200は一般に、ユーザデバイス110(たとえば、デバイス110のディスプレイ118などのユーザインターフェース)上で表示されているGUI要素(ユーザインターフェース(UI)要素とも呼ばれる)の状態Sを動的に適応させるためのシステムとして機能する。GUI要素の状態Sは、広くGUI要素のプロパティを指す。すなわち、GUI要素の状態Sは、GUI要素の場所、GUI要素が提示される時間量(すなわち、タイムアウト値)、および/またはGUI要素に関連付けられたグラフィックスの特性(たとえば、色、書体、フォント、スタイル、サイズなど)を指すことがある。この点で、GUI要素の状態Sを変更することは、たとえば、GUI要素のサイズを変更すること、ディスプレイ内のGUI要素の場所を変更すること、GUI要素が提示される時間を変更すること、GUI要素のフォントを変更すること、GUI要素のコンテンツを変更すること(たとえば、GUI要素のテキストまたはメディアコンテンツを変更すること)などを含む。保存器200は任意のGUI要素の状態Sを適応させることが可能であるが、本明細書の例は、より具体的に、時間的GUI要素202の状態Sを変更する保存器200を示す。時間的GUI要素202は、本質的に一時的であるグラフィカル要素である。たとえば、時間的GUI要素202は、削除されるかまたは自動的に閉じられる前に時間的GUI要素が存在する(たとえば、表示される)時間Tを指定するタイムアウト値を含む。
【0031】
本明細書の例は、ディスプレイ118上で表示される時間的GUI要素に言及するが、本明細書の実装形態は、光の点滅および/または音の可聴出力(たとえば、ビープ/チャイム)などの非グラフィカルインターフェースによって時間的要素を提示することに等しく適用可能である。ユーザは、デバイス上の物理ボタンを押すこと、ボイス入力を提供すること、またはジェスチャーを行うことによって、このタイプの非グラフィカルインターフェース要素202と対話してもよい。
【0032】
保存器200がユーザデバイス110上で表示されている時間的GUI要素202の状態Sを変更する(すなわち、動的に適応させる)べきかどうか、およびいつ変更するべきかを特定するために、保存器200は、デバイス110がアクセス可能なコンテキスト信号204を受信するようにまたは監視するように構成される。いくつかの例では、センサーシステム160によってキャプチャされたセンサーデータ164は、デバイスの環境の態様を特徴づける1つまたは複数のコンテキスト信号204として働く。保存器200は、センサーデータ164のいかなるさらなる処理もなしにセンサーデータ164をコンテキスト信号204として使用するか、またはセンサーデータ164に対してさらなる処理を実施してデバイスの環境の態様を特徴づけるコンテキスト信号204を生成してもよい。デバイス110は、保存器200を活用して、ユーザ10が時間的GUI要素202とその消滅前に対話しようとしていることをコンテキスト信号204が示すかどうかを決定してもよい。すなわち、コンテキスト信号204は、ユーザ10の状態16を示すことが可能であり、状態16は、ユーザ10が時間的GUI要素202と対話しようとしている関与状態、またはユーザ10が時間的GUI要素202と対話していないもしくは意図的に関与から離れている非関与状態を示す。コンテキスト信号204によって特徴づけられたユーザ10の状態16に応じて、保存器200は、最初に指定されたものよりも長い時間期間の間、時間的GUI要素202を保存すること、時間的GUI要素202の消滅(すなわち、削除)を早めること、または時間的GUI要素202の時間ベースのプロパティ(たとえば、タイムアウト値)を維持する(すなわち、時間的GUI要素202のいかなる状態Sも変更しない)ことのいずれかを行ってもよい。
【0033】
第1の食料品の例に戻ると、ユーザ10がデバイス110に向かって移動しているとき、保存器200は、ユーザ10の状態16を関与状態16、16eとして特徴づける1つまたは複数のコンテキスト信号204を受信してもよい。たとえば、コンテキスト信号204は、ユーザ10をユーザデバイス110により近接させる(すなわち、ユーザ10とユーザデバイス110との間の距離が減少している)方法でユーザデバイス110に対するユーザ10の近接度が変化していることを示す。コンテキスト信号204はユーザ10の状態16が変化していることを示すので、このことは、ユーザ10がユーザデバイス110上で表示されているプロンプトと対話しようとしていることを示唆する。ここで、保存器200は、時間的GUI要素202であるプロンプト「地元のラジオ局をかけたいですか」の状態Sを修正する。この例では、保存器200は、プロンプトが満了する前にユーザ10がプロンプトと成功裡に対話することを可能にするためにプロンプトのタイムアウト持続時間を延長または一時停止することによって、プロンプトの状態Sを修正することになる。コンテキスト信号204は、関与状態16eであるユーザ10の状態16を特徴づけることができる、ユーザによって実施される任意のアクションを示してもよい。別の例として、リモートコントロールを手に取るユーザ10は、ユーザ10の状態がテレビジョン上で表示されている時間的GUI要素202と対話するために関与状態16であることを特徴づけることができる。
【0034】
対照的に、ユーザ10が電話で話しており、地元のラジオ局をかけるようにデバイス110に命令しなかったとき、保存器200は、ユーザ10の状態16を非関与状態16dとして特徴づける1つまたは複数のコンテキスト信号204を受信してもよい。たとえば、例のこのバージョンで説明されるように、ユーザ10は、プロンプト「地元のラジオ局をかけたいですか」を表示するデバイス110を見つめ、次いで、向きを変えて、食料品を持ち込み続けることに移る。これらがユーザ10のアクションであるとき、保存器200は、ユーザ10の注意をデバイス110に関与しているものまたはデバイス110を見つめているものとして特徴づけるコンテキスト信号204を受信してもよい。次いで、これらのコンテキスト信号204の後に、時間的GUI要素202に関与しようとする試みを示すユーザ10によるいかなるアクションもなしに、デバイス110との非関与(すなわち、デバイス110から目を背ける)を特徴づけるコンテキスト信号204が続く。実際には、その場合、保存器200によって受信されるコンテキスト信号204は、ユーザ10が非関与状態16dを示すデバイス110に対する近接度を減少させていることを示すことになる。非関与状態16dが後に続く関与状態16eを全体的に示すこれらの変化するコンテキスト信号204によって、保存器200は、時間的GUI要素202の状態Sを維持する(すなわち、プロンプトを満了させる)こと、時間的GUI要素202の状態Sを進める(すなわち、タイムアウト持続時間または残りのタイムアウト持続時間を短縮する)こと、または時間的GUI要素202の状態Sを変更して時間的GUI要素202を直ちに削除することのいずれかを行ってもよい。この例では、保存器200は、コンテキスト信号204を、関与状態16e(たとえば、時間的GUI要素202を認識する状態16)から非関与状態16dへの変更に起因する意図的な非関与を特徴づけるものとして解釈し、この解釈がなされると時間的GUI要素202を即座に削除してもよい。
【0035】
図2Aおよび図2Bを参照すると、保存器200は状態決定器210および修正器220を含む。状態決定器210は、1つまたは複数のコンテキスト信号204を受信し、デバイス110に対するユーザ10の状態16を決定するように構成される。いくつかの例では、状態決定器210は、センサーシステム160からセンサーデータ164(たとえば、生のセンサーデータ)を受信し、センサーデータ164を、ユーザ10の状態16を特徴づけるコンテキスト信号204に変換するか、または処理する。たとえば、状態決定器210は、センサーデータ164を受信し、コンテキスト信号204を形成するためにセンサーデータ164に基づいてデバイス110に対するユーザ10の物理的状態(たとえば、ユーザ10の位置または向き)を特徴づけてもよい。追加または代替として、状態決定器210は、センサーデータ164を受信し、ユーザ10の非物理的状態16を特徴づけてもよい。たとえば、状態決定器210は、ユーザ10の状態16を特徴づける音響データ164を受信する。例示すると、状態決定器210は、ユーザ10が話していて、デバイス110が時間的GUI要素202を表示したことに応答して、話を中断したかまたはゆっくり話したことを示す音響データ164を受信する。言い換えれば、ユーザ10が別のユーザとの副次的な音声会話を行っていて、デバイス110が時間的GUI要素202としてのプロンプトを表示したことに気づいた可能性がある。ユーザ10がプロンプトに気づいたことにより、ユーザ10が一時的に会話の中でゆっくり話し(すなわち、プロンプトを読むかまたは見るために一瞬中断し)、次いで、プロンプトを無視して会話を続けた可能性がある。この状況では、音響データ164の韻律の変化が、ユーザ10の状態16を示すコンテキスト信号204であり得る。ここで、この例示では、ユーザ10が話の韻律(たとえば、リズム)を変更したことによって、状態決定器210は、ユーザ10が関与状態16eになっていると決定してもよい。次いで、ユーザ10が元の韻律に戻すと、状態決定器210は、ユーザ10が非関与状態16dになっていると決定してもよい。
【0036】
いくつかの例では、コンテキスト信号204は、ユーザ10の状態16の知覚された変化を指す。すなわち、状態決定器210は、第1の時間インスタンスからのセンサーデータ164を特定し、第1の時間インスタンスからのセンサーデータ164を第2の時間インスタンスからのセンサーデータ164と比較して、センサーデータ164の比較がユーザ10の状態変化(たとえば、場所または向きの変化)を示すかどうかを決定する。ユーザ10の状態16の知覚された変化により、状態決定器210は、状態16の変化が、ユーザ10が何らかの方法でデバイス110と対話しようと(すなわち、時間的GUI要素202と対話することによってデバイス110に関与しようと)しているかまたはデバイス110と対話しないようにしていることを示すかどうかを特定してもよい。ユーザ10の状態16の変化が、ユーザ10がデバイス110と対話しようとしていることを示すとき、ユーザ10は関与状態16eになっている。一方、ユーザ10の状態16の変化が、ユーザ10がデバイス110と対話しないようにしていることを示すとき、ユーザ10は非関与状態16dになっている。いくつかの構成では、状態決定器210は、関与または非関与よりも高い粒度でユーザ10の状態16を分類してもよい。たとえば、状態決定器210は、ユーザ関与のタイプ(たとえば、近づく、肯定のジェスチャーをする、確認を話す、など)またはユーザ非関与のタイプ(たとえば、離れる、否定のジェスチャーをする、否定的に話す、など)を分類するように構成される。
【0037】
状態決定器210がユーザ10の状態16を特定すると、状態決定器210は状態16を修正器220に渡す。修正器220は、ユーザ10の状態16に基づいて、デバイス110上で表示されている時間的GUI要素202の状態Sを修正するように構成される。すなわち、修正器220は、時間的GUI要素がデバイス110上で表示されている間に、時間的GUI要素202の状態Sがユーザ10の状態16に適応することを可能にすることができる。図2Aを参照すると、修正器220は、時間的GUI要素202の状態Sを第1の状態S、Sから第2の状態S、Sに変更するか、または時間的GUI要素202の状態Sがユーザ10の状態16に基づいて変化すべきではない(たとえば、第1の状態Sにとどまる)と決定してもよい。修正器220は、異なる方法で時間的GUI要素202の状態Sを変更するように構成されてもよい。いくつかの例では、修正器220は、時間的GUI要素202が表示される時間(または残り時間)を増やすことによって、時間的GUI要素202の状態Sを修正または変更する。図2Bは、ユーザ状態16が関与状態16eであるとき、修正器220がタイムアウト値を7秒の時間Tから15秒の時間Tに増やしてもよいことを図示している。他の例では、ユーザ状態16が関与状態16eであるとき、修正器220は、時間的GUI要素202のタイムアウト機能を一時停止することによって、時間的GUI要素202の状態Sを修正する。すなわち、ユーザ10がデバイス110に関与していることを保存器200が知覚している間、修正器220は、無期限の持続時間の間(またはユーザ状態16が非関与状態16dに変化するまで)時間的GUI要素202が存在することを可能にする。
【0038】
同じく図2Bに示されているように、修正器220は、ユーザ状態16が非関与状態16dであるとき、時間的GUI要素202の状態Sを修正してもよい。たとえば、ユーザ10が非関与状態16dになっているとき、修正器220は、時間的GUI要素202がタイムアウトするまで残り時間を加速させるかまたは早める。ここで、図2Bは、このことが起こり得る2つの状況を示している。第1のシナリオでは、ユーザ状態16が非関与状態16dであるとき、修正器220は、ユーザ10が時間的GUI要素202に関与することに関心がないことに基づいて時間的GUI要素202を満了させることによって応答する。このことは、ユーザ10がデバイス110を見つめてから立ち去る第2の食料品の例によく似て、時間的GUI要素202が表示されている間にユーザ状態16が関与状態16eから非関与状態16dに変化するときに起こり得る。図2Bは、第1の状態Sにおける7秒のタイムアウト時間Tが第2の状態Sにおける0秒のタイムアウト時間Tに変化することを図示することによって、この第1のシナリオを示している。第2のシナリオでは、ユーザ状態16が非関与状態16dであるとき、修正器220は、時間的GUI要素202が満了するまで時間Tを早めることによって応答する。たとえば、修正器220は、タイムアウト時間Tを7秒から3秒に変更する。
【0039】
図2Aなどのいくつかの構成では、保存器200は状態モニタ230をさらに含む。状態モニタ230は、ユーザ10の状態16が時間的GUI要素202の状態Sに影響を及ぼす回数を監視および/または調節するように構成されてもよい。なぜこのことが有利であり得るかを例示すると、食料品の例のユーザ10は、車から食料品を持ち込み終わり、食料品を片付け始める場合がある。この時間の間、ユーザ10はキッチンの中であちこちに移動している場合があり、その結果として、状態決定器210は、デバイス110が時間的GUI要素202を表示している間に、ユーザ10がデバイス110に関与していることおよび関与から離れていることを知覚する。この関与および非関与により、修正器220は時間的GUI要素202の状態Sを変更している場合がある。たとえば、修正器220は、ユーザのアクションをミラーリングする何らかの反復的なやり方で、タイムアウト持続時間を増やし、次いでタイムアウト持続時間を減らしている場合がある。残念ながら、このことが数回起こると、本来ならユーザ10がすでに時間的GUI要素202を選択したかまたは時間的GUI要素202と対話したはずなので、時間的GUI要素202は動的に変更されるべきではなく、むしろ満了したかまたは満了したままにされたことを示す可能性が高い。状態変化が行ったり来たりすることまたはあまりにも多くの状態変化が生じることを防ぐために、モニタ230は状態変化しきい値232で構成されてもよい。いくつかの例では、時間的GUI要素202の状態変化の数が状態変化しきい値232を満たすとき、モニタ230は、時間的GUI要素202に対して修正器220を非アクティブ化するか、または場合によっては、時間的GUI要素202が満了(たとえば、タイムアウト)することを可能にする/強制する。モニタ230が動作しているとき、時間的GUI要素202の状態変化の数が状態変化しきい値232を満たさない場合、モニタ230は、修正器220が時間的GUI要素202を修正するのを妨げない(たとえば、修正器220は動作し続ける)。
【0040】
いくつかの構成では、モニタ230は、状態決定器210に関連付けられた1つまたは複数のしきい値を調整することが可能である。たとえば、状態決定器210は、ユーザ10がデバイス110に対して遠距離場所から近距離場所に移動することに基づいて、ユーザ10の状態変化を特定することができる。ここで、遠距離場および近距離場は、近距離場と遠距離場との間の近接境界を確立する(たとえば、しきい値212として図3に示された)しきい値によって定められてもよい。言い換えれば、ユーザ10がデバイス110に向かって移動してしきい値を越えた場合、ユーザは近距離場に入っている(たとえば、遠距離場を離れている)が、ユーザ10がデバイス110から離れて移動してしきい値を越えた場合、ユーザは遠距離場に入っている(たとえば、近距離場を離れている)。また、ユーザ10がこの境界であちこちに移動している場合がある状況がある。例示すると、ユーザ10が食料品をキッチンアイランドから冷蔵庫の中に片付けている場合があり、境界がキッチンアイランドと冷蔵庫との間に位置する場合がある。ユーザ10がこの境界上で絶えずあちこちに動いている可能性があるので、モニタ230は、しきい値においてこのアクティビティを認識し、一種のデバウンサとして機能する場合がある。すなわち、ユーザ10は数フィートしか移動していない場合があり、状態決定器210がこの移動を関与状態16eと非関与状態16dとの間で変化するものとして特定することを可能にする代わりに、モニタ230は、状態決定器210の状態変化感度を安定させるためにしきい値を調整する。言い換えれば、状態16の変化をトリガするためには、ユーザ10は、単にアイランドよりもデバイス110に向かってまたはデバイスから離れてさらに動かなければならないことになる。
【0041】
図3は、第1の時間インスタンスTおよび第1の時間インスタンスTの後に生じる第2の時間インスタンスTにおけるユーザ10の状態16(たとえば、ユーザの物理的状態16)を特徴づけることができるいくつかのタイプのコンテキスト信号204を示すシナリオである。このシナリオでは、ユーザ10は、モバイルフォンで話しながらデバイス110を持って部屋に歩いて入り、「この素晴らしい曲が地元のラジオ局94.5でかかっていたのをたった今聞いたところです」と言っている。ユーザ10によるこの発話20に応答して、デバイス110は、ユーザ10が地元のラジオ局94.5をかけたいかどうかを質問する時間的GUI要素202としてのプロンプトを生成する。ここで、保存器200は、ユーザデバイス110に対するユーザ10の場所を図示する第1の時間インスタンスTにおける画像データに対応するセンサーデータ164を受信する。画像データを用いて、状態決定器210は、受信された画像データに基づいて第1の時間インスタンスTにおけるユーザ10とデバイス110との間の距離D、Dを推定して、デバイス110に対するユーザ10の状態16を特徴づけるコンテキスト信号204を形成する。ここで、デバイス110に対するユーザの近接度を示すコンテキスト信号204は、ユーザ近接度信号と見なされる。第1の時間インスタンスTにおいて、状態決定器210は、推定された距離D、Dがユーザ10が近遠境界212内のデバイス110に近い近距離場にいることを意味すると特定する。たとえば、状態決定器210は、推定された距離Dが、デバイス110から境界212までの距離よりも少ない、デバイス110までの距離Dを有すると決定する。デバイス110に対するユーザの近接度に基づいて、状態決定器210は、ユーザ10が第1の時間インスタンスTにおいて関与状態16eになっていると決定する。ユーザ近接度信号は、デバイス110に対するユーザ10の近接度がデバイス110により近くなるように変化した(たとえば、ユーザ10が、第1の推定された距離Dになるように図3のデバイス110に向かって歩く)ことを示すので、修正器220は次いで、たとえば、タイムアウト持続時間を増やすことまたは時間的GUI要素202のタイムアウト持続時間を一時停止することによって、時間的GUI要素202の状態Sを修正してもよい。
【0042】
特に、時間的GUI要素202のプロンプトが表示されている間、デバイス110は、局94.5(または局94.5をストリーミングすることが可能な音楽ストリーミングサービス)との接続を開始し、そこからのオーディオをストリーミングすることによって、地元のラジオ局94.5をかけるという知覚されたコマンドの遂行を開始してもよい。しかしながら、デバイス110は、ユーザ10がオーディオをストリーミングするための時間的GUI要素202の選択を示すユーザ入力指示を肯定的に提供するまで、ストリーミングオーディオを可聴的に出力し始めない場合がある。したがって、この例では、ユーザ10が局94.5からのオーディオをストリーミングするために音声をデバイス110に向けなかったので、デバイス110は、決してストリーミングオーディオを可聴的に出力することなしに、時間的GUI要素202がタイムアウトした(またはユーザが「No」を選択する入力指示を肯定的に提供した)ことに応答してストリーミング接続を終了することになる。
【0043】
加えて、本明細書の例はユーザデバイス110がプロンプトを時間的GUI要素202として生成することを対象とするが、ユーザデバイス110は同様に、ユーザが時間タイムアウト期間内の認識されたボイスコマンドの実施を肯定または否定することを可能にする視覚(たとえば、フラッシュ光)および/または可聴(たとえば、ビープ)プロンプトを邪魔にならないやり方で出力してもよい。たとえば、ユーザ10は単に「yes」または「no」と話す場合がある。このシナリオでは、ユーザデバイス110は、オーディオ中の2値項(たとえば、「yes」および「no」)をリッスンするウォームワードモデルをアクティブ化することができる。
【0044】
状態決定器210がコンテキスト信号204に対するユーザ近接度信号を生成することを可能にすることに加えて、このシナリオにおけるセンサーデータ164は、状態決定器210が注意検出信号と呼ばれるコンテキスト信号204を生成することも可能にする。注意検出信号は、ユーザ10がデバイス110に注意を払っているかどうかを特徴づける信号を指す。注意検出信号は、ユーザ10が関与状態16eになっているかまたは非関与状態16dになっているかを示すことができる。言い換えれば、(たとえば、センサーデータ164に基づく)注意検出信号は、ユーザ10がデバイス110のほうへまたはデバイス110から離れてのいずれかに注目を変えたことを示すことができる。デバイス110が時間的GUI要素202を表示している間にユーザ10の注目がデバイス110のほうへ変わったとき、状態決定器210は、ユーザ10が関与状態16eになっていると決定してもよい。ユーザ10がデバイス110に注意を払っているいくつかの例は、デバイス110に向けられたユーザ10の視線、デバイス110のほうに向けられたユーザ10のジェスチャー、またはデバイス110のほうに向けられたユーザ10の姿勢/向き(すなわち、デバイス110のほうを向く)を含む。図3を参照すると、画像データは、デバイス110に向けられたユーザ10の視線(たとえば、ユーザ10の顔からの点線の視線として示される)をキャプチャする。この注意検出信号204がユーザ10が注意をデバイス110に集中させていることを示すと、状態決定器210は、ユーザ10が第1の時間インスタンスTにおいて関与状態16eになっていることを注意検出信号204が特徴づけると決定する。注意検出信号が単独でユーザ10の注意がデバイス110に集中していることを示すので、修正器220は、たとえば、タイムアウト持続時間を増やすことまたは時間的GUI要素202のタイムアウト持続時間を一時停止することによって、時間的GUI要素202の状態Sを修正してもよい。このシナリオなどのいくつかの例では、複数のコンテキスト信号204が利用可能であるとき、保存器200は、ユーザ10の状態16が時間的GUI要素202の状態Sに影響を及ぼす(たとえば、修正する)べきかどうかを決定するためにコンテキスト信号204のいずれかまたはすべてを活用してもよい。
【0045】
図3はまた、ユーザ10が、第2の時間インスタンスTにおいて、デバイス110から第1の距離Dにある第1の場所からデバイス110から第2の距離Dにある第2の場所に移動することを示す。第2の時間インスタンスTにおいて、コンテキスト信号204は、ユーザ10が、ユーザ10が時間的GUI要素202と対話しようとしていない非関与状態16dになっていることを示す。たとえば、第2の時間インスタンスTにおいて、ユーザ近接度信号は、デバイス110に対するユーザ10がデバイス110から離れるように変化し、境界212を越えて遠距離場にいることを示す。さらに、第2の時間インスタンスTにおいて、注意検出信号は、ユーザ10がデバイス110から注意をそらしたことを示す。コンテキスト信号204の両方がユーザ10が非関与状態16dになっていることを示すので、修正器220は、(たとえば、時間的GUI要素202を早めることまたは満了させることによって)時間的GUI要素202の状態Sを修正するか、または時間的GUI要素202の状態Sを維持して時間的GUI要素202をそれに応じて満了させてもよい。
【0046】
図示されていないが、ユーザ10が第2の時間インスタンスTにおいて遠距離場に位置するのではなく、ユーザ10が完全に部屋を離れている場合がある。この状況では、状態決定器210は、存在検出信号と呼ばれるコンテキスト信号204を生成してもよい。存在検出信号は、ユーザ10が1つまたは複数のセンサー162の特定の視野の中に存在しているか否かを特徴づける信号である。言い換えれば、存在検出信号は、画像データまたは何らかの他の形態のセンサーデータ164がユーザ10がデバイス110のセンサー162の視野内に存在することを示すかどうかの2値決定として機能することができる。存在検出信号はユーザの状態を示すことができ、これは、存在検出信号の変化が、ユーザ10が関与状態16eまたは非関与状態16dになっていることを特徴づけるアクションをユーザ10が実施しているかどうかを示し得るからである。たとえば、ユーザ10がデバイス110の(たとえば、デバイス110に関連付けられたセンサー162の)視野の中に存在しておらず、次いで、デバイス110の視野の中に存在するようになり、時間的GUI要素202がユーザデバイス110のディスプレイ118上で表示されている間にこの変化が生じた場合、状態決定器210は、ユーザの存在の変化がユーザが時間的GUI要素202と対話しようとしていることを示すと解釈することができる。すなわち、ユーザ10は時間的GUI要素202と関与するために存在するようになり、その結果として、ユーザ10の状態16は関与状態である。逆の状況では、ユーザ10が最初に、デバイス110の(たとえば、デバイス110に関連付けられたセンサー162の)視野の中に存在しており、次いで、もはやデバイス110の視野の中に存在しておらず、時間的GUI要素202がユーザデバイス110のディスプレイ118上で表示されている間にこの変化が生じた場合、状態決定器210は、ユーザの存在の変化がユーザが時間的GUI要素202と対話することに関心がない(たとえば、積極的に非関与である)ことを示し、その結果として、ユーザ10の状態16が非関与状態16dであると解釈することができる。存在検出信号がセンサー162の視野内のユーザ10の存在が不在から存在に変化したことを示すとき、修正器220は、たとえば、タイムアウト持続時間を増やすことまたは時間的GUI要素202のタイムアウト持続時間を一時停止することによって、時間的GUI要素202の状態Sを修正してもよい。対照的に、存在検出信号がセンサー162の視野内のユーザ10の存在が存在から不在に変化したことを示すとき、修正器220は、たとえば、タイムアウト持続時間を減らすこと、時間的GUI要素202を直ちに満了させること、または時間的GUI要素202のタイムアウト持続時間を維持して時間的GUI要素202がそれに応じて満了することを可能にすることによって、時間的GUI要素202の状態Sを修正してもよい。
【0047】
図4は、グラフィカルユーザインターフェース要素202の状態を変更する方法400のための動作の例示的な構成のフローチャートである。方法400は、時間的GUI要素202がユーザデバイス110のユーザインターフェース上で表示されていることを検出したことに応答して、動作402~406を実施する。動作402において、方法400は、ユーザデバイス110において、ユーザ10の状態16を特徴づけるコンテキスト信号204を受信する。動作404において、方法400は、ユーザデバイス110によって、ユーザ10の状態16を特徴づけるコンテキスト信号204がユーザが時間的GUI要素202と対話しようとしていることを示すと決定する。ユーザ10の状態16を特徴づけるコンテキスト信号204がユーザが時間的GUI要素202と対話しようとしていることを示すとの決定に応答して、動作406において、方法400は、ユーザデバイス110のユーザインターフェース上で表示されている時間的GUI要素202のそれぞれの状態Sを修正する。
【0048】
図5は、本文書で説明されるシステム(たとえば、システム150、160、200)および方法(たとえば、方法400)を実施するために使用され得る例示的なコンピューティングデバイス500の概略図である。コンピューティングデバイス500は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータなどの、様々な形態のデジタルコンピュータを表すことを意図している。ここで示される構成要素、それらの接続および関係、ならびにそれらの機能は、例示的なものにすぎないことが意図されており、本文書で説明および/または特許請求される例の実装形態を限定することは意図されていない。
【0049】
コンピューティングデバイス500は、プロセッサ510(たとえば、データ処理ハードウェア112、144)と、メモリ520(たとえば、メモリハードウェア114、146)と、記憶デバイス530と、メモリ520および高速拡張ポート550に接続する高速インターフェース/コントローラ540と、低速バス570および記憶デバイス530に接続する低速インターフェース/コントローラ560とを含む。構成要素510、520、530、540、550、および560の各々は、様々なバスを使用して相互接続され、共通マザーボード上に、または適宜に他の方式で搭載され得る。プロセッサ510は、グラフィカルユーザインターフェース(GUI)についてのグラフィカル情報を、高速インターフェース540に結合されたディスプレイ580などの外部入力/出力デバイス上で表示するための、メモリ520中または記憶デバイス530上に記憶された命令を含む、コンピューティングデバイス500内での実行のための命令を処理することができる。他の実装形態では、複数のプロセッサおよび/または複数のバスが、適宜に、複数のメモリおよび複数のタイプのメモリとともに使用されてもよい。また、複数のコンピューティングデバイス500が接続されてもよく、各デバイスは、必要な動作の部分を(たとえば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)提供する。
【0050】
メモリ520は、コンピューティングデバイス500内に情報を非一時的に記憶する。メモリ520は、コンピュータ可読媒体、揮発性メモリユニット、または不揮発性メモリユニットであってもよい。非一時的メモリ520は、プログラム(たとえば、命令のシーケンス)またはデータ(たとえば、プログラム状態情報)を、コンピューティングデバイス500による使用のために、一時的または永続的に記憶するために使用される物理デバイスであってもよい。不揮発性メモリの例は、限定はしないが、フラッシュメモリおよび読取り専用メモリ(ROM)/プログラマブル読取り専用メモリ(PROM)/消去可能プログラマブル読取り専用メモリ(EPROM)/電気的消去可能プログラマブル読取り専用メモリ(EEPROM)(たとえば、通常は、ブートプログラムなどのファームウェア用に使用される)を含む。揮発性メモリの例は、限定はしないが、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、スタティックランダムアクセスメモリ(SRAM)、相変化メモリ(PCM)ならびにディスクまたはテープを含む。
【0051】
記憶デバイス530は、コンピューティングデバイス500に大容量記憶を提供することが可能である。いくつかの実装形態では、記憶デバイス530は、コンピュータ可読媒体である。様々な異なる実装形態では、記憶デバイス530は、フロッピーディスクデバイス、ハードディスクデバイス、光ディスクデバイス、またはテープデバイス、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、あるいは、ストレージエリアネットワークまたは他の構成におけるデバイスを含むデバイスのアレイであり得る。追加の実施形態では、コンピュータプログラム製品は、情報キャリアにおいて有形に具現化される。コンピュータプログラム製品は、実行されると、上記で説明されたものなどの1つまたは複数の方法を実施する命令を含む。情報キャリアは、メモリ520、記憶デバイス530、またはプロセッサ510上のメモリなどの、コンピュータ可読媒体または機械可読媒体である。
【0052】
高速コントローラ540は、コンピューティングデバイス500のための帯域幅集約的な動作を管理するが、低速コントローラ560は、帯域幅低集約的な動作を管理する。義務のそのような割振りは、例示的なものにすぎない。いくつかの実装形態では、高速コントローラ540は、メモリ520、ディスプレイ580に(たとえば、グラフィックスプロセッサまたはアクセラレータを通じて)、および様々な拡張カード(図示せず)を受け入れることができる高速拡張ポート550に結合される。いくつかの実装形態では、低速コントローラ560は、記憶デバイス530および低速拡張ポート590に結合される。様々な通信ポート(たとえば、USB、Bluetooth、イーサネット、ワイヤレスイーサネット)を含み得る低速拡張ポート590は、たとえば、ネットワークアダプタを通じて、キーボード、ポインティングデバイス、スキャナ、またはスイッチもしくはルータなどのネットワーキングデバイスなどの1つまたは複数の入力/出力デバイスに結合され得る。
【0053】
コンピューティングデバイス500は、図に示されているように、いくつかの異なる形態で実装されてもよい。たとえば、コンピューティングデバイス500は、標準サーバ500aとして、もしくはそのようなサーバ500aのグループにおいて複数回、ラップトップコンピュータ500bとして、またはラックサーバシステム500cの一部として実装されてもよい。
【0054】
本明細書で説明されるシステムおよび技法の様々な実装形態は、デジタル電子および/もしくは光回路構成、集積回路構成、特別に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、ならびに/またはそれらの組合せで実現され得る。これらの様々な実装形態は、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能および/または解釈可能な1つまたは複数のコンピュータプログラムにおける実装を含むことができ、プログラマブルプロセッサは、記憶システム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信するように、かつそれらにデータおよび命令を送信するように結合された、専用または汎用であってもよい。
【0055】
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても知られている)は、プログラマブルプロセッサ用の機械命令を含み、高水準手続き型および/もしくはオブジェクト指向プログラミング言語で、ならびに/またはアセンブリ/機械言語で実装され得る。本明細書で使用される「機械可読媒体」および「コンピュータ可読媒体」という用語は、機械命令を機械可読信号として受信する機械可読媒体を含むプログラマブルプロセッサに機械命令および/またはデータを提供するために使用される、任意のコンピュータプログラム製品、非一時的コンピュータ可読媒体、装置および/またはデバイス(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブル論理デバイス(PLD))を指す。「機械可読信号」という用語は、プログラマブルプロセッサに機械命令および/またはデータを提供するために使用される任意の信号を指す。
【0056】
本明細書で説明されるプロセスおよび論理フローは、入力データを操作し出力を生成することによって機能を実施するために1つまたは複数のコンピュータプログラムを実行する1つまたは複数のプログラマブルプロセッサによって実施され得る。プロセスおよび論理フローは、専用論理回路構成、たとえば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)によっても実施され得る。コンピュータプログラムの実行に適したプロセッサは、例として、汎用マイクロプロセッサと専用マイクロプロセッサの両方、および任意の種類のデジタルコンピュータの任意の1つまたは複数のプロセッサを含む。一般に、プロセッサは、読取り専用メモリもしくはランダムアクセスメモリまたは両方から命令およびデータを受信する。コンピュータの必須要素は、命令を実施するためのプロセッサ、ならびに命令およびデータを記憶するための1つまたは複数のメモリデバイスである。一般に、コンピュータは、データを記憶するための1つまたは複数の大容量記憶デバイス、たとえば、磁気ディスク、光磁気ディスク、または光ディスクも含むか、あるいは1つまたは複数の大容量記憶デバイスからデータを受信することもしくは1つまたは複数の大容量記憶デバイスにデータを転送すること、またはその両方を行うように動作可能に結合される。しかしながら、コンピュータはそのようなデバイスを有する必要はない。コンピュータプログラム命令およびデータを記憶するのに適したコンピュータ可読媒体は、例として、半導体メモリデバイス、たとえば、EPROM、EEPROM、およびフラッシュメモリデバイスと、磁気ディスク、たとえば、内部ハードディスクまたはリムーバブルディスクと、光磁気ディスクと、CD ROMおよびDVD-ROMディスクとを含む、すべての形態の不揮発性メモリ、媒体およびメモリデバイスを含む。プロセッサおよびメモリは、専用論理回路構成によって補完され得るか、専用論理回路構成に組み込まれ得る。
【0057】
ユーザとの対話を可能にするために、本開示の1つまたは複数の態様は、情報をユーザに表示するためのディスプレイデバイス、たとえば、CRT(陰極線管)、LCD(液晶ディスプレイ)モニタ、またはタッチスクリーンと、任意選択で、それによってユーザがコンピュータに入力を与えることができるキーボードおよびポインティングデバイス、たとえば、マウスまたはトラックボールとを有するコンピュータ上で実装され得る。他の種類のデバイスも、ユーザとの対話を可能にするために使用されることが可能であり、たとえば、ユーザに与えられるフィードバックは、任意の形態の感覚フィードバック、たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバックであることができ、ユーザからの入力は、音響、音声、または触覚入力を含む、任意の形態で受信されることが可能である。加えて、コンピュータは、ユーザによって使用されるデバイスに文書を送信し、そのデバイスから文書を受信することによって、たとえば、ユーザのクライアントデバイス上のウェブブラウザから受信された要求に応答して、そのウェブブラウザにウェブページを送信することによって、ユーザと対話することができる。
【0058】
いくつかの実装形態について説明した。それでも、本開示の趣旨および範囲から逸脱することなしに様々な修正が行われ得ることが理解されよう。したがって、他の実装形態は、以下の特許請求の範囲内に入る。
【符号の説明】
【0059】
10 ユーザ
12 ストリーミングオーディオ
14 オーディオデータ
16 状態、関与状態、ユーザ状態、物理的状態
16d 非関与状態
16e 関与状態
20 発話
22 クエリ
24 ホットワード
100 音声環境、環境、システム
110 ボイス対応デバイス、デバイス、ユーザデバイス
112 データ処理ハードウェア
114 メモリハードウェア
116、116a オーディオキャプチャデバイス
116、116b 再生デバイス
116 オーディオサブシステム
116a オーディオキャプチャデバイス、マイクロフォン
116b スピーカー
118 ディスプレイ
120 デジタルアシスタントインターフェース、インターフェース、音声対応インターフェース、アシスタントインターフェース
130 ネットワーク
140 リモートシステム
142 リモートリソース
144 データ処理ハードウェア
146 メモリハードウェア
150 音声処理システム、システム
152 音声認識システム
154 音声解釈器
156 検索エンジン
158 アクション
160 センサーシステム、システム
162 センサー
164 センサーデータ、音響データ
200 ソフトアクセプタ、保存器、システム
202 グラフィカルユーザインターフェース要素、GUI要素、非グラフィカルインターフェース要素、時間的GUI要素
204 コンテキスト信号、注意検出信号
210 状態決定器
212 しきい値、近遠境界、境界
220 修正器
230 状態モニタ、モニタ
232 状態変化しきい値
400 方法、コンピュータにより実施される方法
500 コンピューティングデバイス
500a 標準サーバ
500b ラップトップコンピュータ
500c ラックサーバシステム
510 プロセッサ、構成要素、データ処理ハードウェア
520 メモリ、非一時的メモリ、構成要素、メモリハードウェア
530 記憶デバイス、構成要素
540 高速インターフェース/コントローラ、高速インターフェース、高速コントローラ、構成要素
550 高速拡張ポート、構成要素
560 低速インターフェース/コントローラ、低速コントローラ、構成要素
570 低速バス
580 ディスプレイ
590 低速拡張ポート
D 距離
第1の距離
第2の距離
R 音声認識結果、結果
S 状態
第1の状態
第2の状態
T 時間
第1の時間インスタンス
第2の時間インスタンス
図1
図2A
図2B
図3
図4
図5
【手続補正書】
【提出日】2024-03-14
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
データ処理ハードウェア(510)によって実行されると前記データ処理ハードウェア(510)に動作を実行させる、コンピュータにより実施される方法(400)であって、前記動作が、
時間的ユーザインターフェース要素(202)がユーザデバイス(110)のユーザインターフェース上で表示されていることを検出したことに応答して、
前記ユーザデバイス(110)において、ユーザ(10)の状態(16)を特徴づけるコンテキスト信号(204)を受信することと、
前記ユーザデバイス(110)によって、前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することと、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すとの決定に応答して、前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)のそれぞれの状態を修正することと
を含む、方法(400)。
【請求項2】
前記ユーザ(10)の前記状態(16)が、前記ユーザ(10)が前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)と関与しようと試みているかまたは関与していることを示す関与状態(16e)を含む、請求項1に記載の方法(400)。
【請求項3】
前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を増やすことを含む、請求項2に記載の方法(400)。
【請求項4】
前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を一時停止することを含む、請求項2に記載の方法(400)。
【請求項5】
前記ユーザ(10)の前記状態(16)が、前記ユーザ(10)が前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)との関与から離れていることを示す非関与状態(16d)を含む、請求項1から4のいずれか一項に記載の方法(400)。
【請求項6】
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記非関与状態(16d)を含むとの決定に応答して、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間の満了前に前記時間的ユーザインターフェース要素(202)を削除することを含む、請求項5に記載の方法(400)。
【請求項7】
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記非関与状態(16d)を含むとの決定に応答して、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を減らすことを含む、請求項5に記載の方法(400)。
【請求項8】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の近接度を示すユーザ近接度信号を含む、請求項1に記載の方法(400)。
【請求項9】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に関連付けられたセンサー(162)の視野内の前記ユーザ(10)の存在を示す存在検出信号を含む、請求項1に記載の方法(400)。
【請求項10】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の注意を示す注意検出信号を含む、請求項1に記載の方法(400)。
【請求項11】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に関連付けられたセンサー(162)の視野内の前記ユーザ(10)の存在を示す存在検出信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記存在検出信号が前記センサー(162)の前記視野内の前記ユーザ(10)の前記存在が不在から存在に変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項1に記載の方法(400)。
【請求項12】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の近接度を示すユーザ近接度信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記ユーザ近接度信号が前記ユーザデバイス(110)に対する前記ユーザ(10)の前記近接度が前記ユーザデバイス(110)により近くなるように変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項1に記載の方法(400)。
【請求項13】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の注意を示す注意検出信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記注意検出信号が前記ユーザ(10)の前記注意が前記ユーザデバイス(110)に注目するように変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項1に記載の方法(400)。
【請求項14】
前記動作が、前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すとの決定に応答して、前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正する前に、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態が時間期間内にしきい値回数だけ以前に修正されるのに失敗していると決定することをさらに含む、請求項1に記載の方法(400)。
【請求項15】
前記時間的ユーザインターフェース要素(202)が、前記ユーザデバイス(110)によってキャプチャされたストリーミングオーディオにおいて検出されたクエリ(22)によって指定されたアクションを表す、請求項1に記載の方法(400)。
【請求項16】
システム(100)であって、
データ処理ハードウェア(510)と、
前記データ処理ハードウェア(510)と通信しているメモリハードウェア(520)とを備え、前記メモリハードウェア(520)が、前記データ処理ハードウェア(510)上で実行されると、前記データ処理ハードウェア(510)に動作を実施させる命令を記憶し、前記動作が、
時間的ユーザインターフェース要素(202)がユーザデバイス(110)のユーザインターフェース上で表示されていることを検出したことに応答して、
前記ユーザデバイス(110)において、ユーザ(10)の状態(16)を特徴づけるコンテキスト信号(204)を受信することと、
前記ユーザデバイス(110)によって、前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することと、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が、前記時間的ユーザインターフェース要素(202)と前記ユーザ(10)が対話しようとしていることを示すとの決定に応答して、前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)のそれぞれの状態を修正することと
を含む、システム(100)。
【請求項17】
前記ユーザ(10)の前記状態(16)が、前記ユーザ(10)が前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)と関与しようと試みているかまたは関与していることを示す関与状態(16e)を含む、請求項16に記載のシステム(100)。
【請求項18】
前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を増やすことを含む、請求項17に記載のシステム(100)。
【請求項19】
前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を一時停止することを含む、請求項17に記載のシステム(100)。
【請求項20】
前記ユーザ(10)の前記状態(16)が、前記ユーザ(10)が前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)との関与から離れていることを示す非関与状態(16d)を含む、請求項16から19のいずれか一項に記載のシステム(100)
【請求項21】
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記非関与状態(16d)を含むとの決定に応答して、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間の満了前に前記時間的ユーザインターフェース要素(202)を削除することを含む、請求項20に記載のシステム(100)。
【請求項22】
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記非関与状態(16d)を含むとの決定に応答して、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、前記時間的ユーザインターフェース要素(202)のタイムアウト持続時間を減らすことを含む、請求項20に記載のシステム(100)。
【請求項23】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の近接度を示すユーザ近接度信号を含む、請求項16に記載のシステム(100)。
【請求項24】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に関連付けられたセンサー(162)の視野内の前記ユーザ(10)の存在を示す存在検出信号を含む、請求項16に記載のシステム(100)。
【請求項25】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の注意を示す注意検出信号を含む、請求項16に記載のシステム(100)。
【請求項26】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に関連付けられたセンサー(162)の視野内の前記ユーザ(10)の存在を示す存在検出信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記存在検出信号が前記センサー(162)の前記視野内の前記ユーザ(10)の前記存在が不在から存在に変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項16に記載のシステム(100)。
【請求項27】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の近接度を示すユーザ近接度信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記ユーザ近接度信号が前記ユーザデバイス(110)に対する前記ユーザ(10)の前記近接度が前記ユーザデバイス(110)により近くなるように変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項16に記載のシステム(100)。
【請求項28】
前記コンテキスト信号(204)が、前記ユーザデバイス(110)に対する前記ユーザ(10)の注意を示す注意検出信号を含み、
前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すと決定することが、前記注意検出信号が前記ユーザ(10)の前記注意が前記ユーザデバイス(110)に注目するように変化したことを示すと決定することを含み、
前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正することが、タイムアウト持続時間を増やすことまたは前記時間的ユーザインターフェース要素(202)の前記タイムアウト持続時間を一時停止することを含む、
請求項16に記載のシステム(100)。
【請求項29】
前記動作が、前記ユーザ(10)の前記状態(16)を特徴づける前記コンテキスト信号(204)が前記ユーザ(10)が前記時間的ユーザインターフェース要素(202)と対話しようとしていることを示すとの決定に応答して、前記ユーザデバイス(110)の前記ユーザインターフェース上で表示されている前記時間的ユーザインターフェース要素(202)の前記それぞれの状態を修正する前に、前記時間的ユーザインターフェース要素(202)の前記それぞれの状態が時間期間内にしきい値回数だけ以前に修正されるのに失敗していると決定することをさらに含む、請求項16に記載のシステム(100)。
【請求項30】
前記時間的ユーザインターフェース要素(202)が、前記ユーザデバイス(110)によってキャプチャされたストリーミングオーディオにおいて検出されたクエリによって指定されたアクションを表す、請求項16に記載のシステム(100)。
【国際調査報告】