(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-03-17
(54)【発明の名称】ユーザ入力デバイスの機能性の注視タイマベースの拡張
(51)【国際特許分類】
G06F 3/01 20060101AFI20230310BHJP
G06F 3/04817 20220101ALI20230310BHJP
G06F 3/0346 20130101ALI20230310BHJP
【FI】
G06F3/01 510
G06F3/04817
G06F3/0346 423
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2022543471
(86)(22)【出願日】2020-12-28
(85)【翻訳文提出日】2022-09-02
(86)【国際出願番号】 US2020067152
(87)【国際公開番号】W WO2021154437
(87)【国際公開日】2021-08-05
(32)【優先日】2020-01-27
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】514108838
【氏名又は名称】マジック リープ, インコーポレイテッド
【氏名又は名称原語表記】Magic Leap,Inc.
【住所又は居所原語表記】7500 W SUNRISE BLVD,PLANTATION,FL 33322 USA
(74)【代理人】
【識別番号】100078282
【氏名又は名称】山本 秀策
(74)【代理人】
【識別番号】100113413
【氏名又は名称】森下 夏樹
(74)【代理人】
【識別番号】100181674
【氏名又は名称】飯田 貴敏
(74)【代理人】
【識別番号】100181641
【氏名又は名称】石川 大輔
(74)【代理人】
【識別番号】230113332
【氏名又は名称】山本 健策
(72)【発明者】
【氏名】ストールゼンバーグ, カレン
(72)【発明者】
【氏名】マッコール, マーク アラン
(72)【発明者】
【氏名】ハミルトン, フランク アレクサンダー ザ フォース
(72)【発明者】
【氏名】ハイナー, コール パーカー
(72)【発明者】
【氏名】デイ, ジョン オースティン
【テーマコード(参考)】
5B087
5E555
【Fターム(参考)】
5B087AA07
5B087DE03
5E555AA02
5E555BA06
5E555BA08
5E555BB06
5E555BB08
5E555BB38
5E555BE16
5E555BE17
5E555CA42
5E555CB65
5E555CC01
5E555DA08
5E555DA09
5E555DB16
5E555DB18
5E555DB25
5E555FA00
(57)【要約】
頭部搭載型ディスプレイ(110)を含む、ウェアラブルコンピューティングシステム(100)が、ユーザがハンドヘルドコントローラまたは他のユーザ入力デバイス(104)の機能性を一時的に拡大することを有効にするための注視タイマ特徴を実装する。一実施形態では、ユーザが、所定の期間にわたって、ハンドヘルドコントローラ(104)またはその近傍を注視すると、ハンドヘルドコントローラ(104)の1つまたはそれを上回る入力要素(130)の機能性が、一時的に修正される。例えば、特定のコントローラボタン(130)と関連付けられる機能が、ユーザが、ボタンを使用して、特定のメニュー(506)を開くことを有効にするように修正されてもよい。
【特許請求の範囲】
【請求項1】
1つまたはそれを上回るハードウェアプロセッサによって実行されるプログラム命令の制御下で実施されるコンピュータ化されたプロセスであって、前記プロセスは、
複合現実または拡張現実セッションの間に収集されたセンサデータに基づいて、ユーザがハンドヘルドコントローラまたはその定義された領域内を注視しているコントローラ注視イベントを検出することと、
前記コントローラ注視イベントの検出に応答して、前記ハンドヘルドコントローラの機能性を一時的に修正するために、前記コントローラ注視イベントの持続時間が条件を充足させるかどうかを測定するために使用されるタイマを開始することと、
前記コントローラ注視イベントの持続時間が前記条件を充足させることの決定に応答して、前記ハンドヘルドコントローラのユーザ入力要素の機能を修正することと
を含む、プロセス。
【請求項2】
前記ユーザによって装着される頭部搭載型ディスプレイによって生成されたディスプレイ上に、前記タイマが開始されたことの視覚的インジケーションを表示することをさらに含む、請求項1に記載のプロセス。
【請求項3】
前記注視イベントの間、前記視覚的インジケーションを更新し、前記ユーザ入力要素の機能が修正されるまで前記注視イベントが継続する必要がある時間量を示すことをさらに含む、請求項2に記載のプロセス。
【請求項4】
前記ユーザ入力デバイスの機能を修正後、
前記センサデータに基づいて、前記コントローラ注視イベントの終了を検出することと、
前記コントローラ注視イベントの終了の検出に応答して、前記ユーザ入力要素の以前の機能を復元することと
をさらに含む、請求項1に記載のプロセス。
【請求項5】
前記ユーザ入力要素の機能を修正することは、前記ハンドヘルドコントローラのボタンをメニューを表示する機能にマッピングさせることを含む、請求項1に記載のプロセス。
【請求項6】
前記コントローラ注視イベントの持続時間が前記条件を充足させることの決定に応答して、前記ユーザ入力要素に割り当てられる新しい機能の視覚的インジケーションを表示することをさらに含む、請求項1に記載のプロセス。
【請求項7】
前記センサデータは、少なくとも、前記ユーザの頭部配向を反映する頭部追跡データを備える、請求項1に記載のプロセス。
【請求項8】
前記センサデータは、眼追跡データを備える、請求項1に記載のプロセス。
【請求項9】
前記センサデータは、前記コントローラの位置を反映するコントローラ位置データを備える、請求項1に記載のプロセス。
【請求項10】
前記センサデータは、頭部搭載型カメラによって収集されたデータを備える、請求項1に記載のプロセス。
【請求項11】
ウェアラブルコンピューティングシステムであって、
頭部搭載可能ディスプレイシステムであって、ディスプレイと、1つまたはそれを上回るセンサとを備える頭部搭載可能ディスプレイシステムと、
ユーザ入力を受信するように構成されるユーザ入力デバイスと、
1つまたはそれを上回るプロセッサであって、
少なくとも部分的に、前記1つまたはそれを上回るセンサからのセンサデータに基づいて、ユーザの姿勢が物理的オブジェクトまたはその所定の領域内に指向されているオブジェクト注視イベントを検出することと、
前記オブジェクト注視イベントの持続時間が定義された条件を充足させるかどうかを決定することと、
前記持続時間が前記条件を充足させるとき、前記ユーザ入力デバイスの機能を修正することと
を含むプロセスを実装するようにプログラムされる、1つまたはそれを上回るプロセッサと
を備える、ウェアラブルコンピューティングシステム。
【請求項12】
前記物理的オブジェクトは、前記ユーザ入力デバイスである、請求項11に記載のウェアラブルコンピューティングシステム。
【請求項13】
前記プロセスはさらに、前記頭部搭載可能ディスプレイシステムに、前記オブジェクト注視イベントが検出されたことの視覚的インジケーションを表示させることを含む、請求項11に記載のウェアラブルコンピューティングシステム。
【請求項14】
前記プロセスはさらに、前記オブジェクト注視イベントの間、前記視覚的インジケーションを更新し、前記ユーザ入力デバイスの機能が修正されるまで前記オブジェクト注視イベントが継続する必要がある時間量を示すことを含む、請求項11に記載のウェアラブルコンピューティングシステム。
【請求項15】
前記プロセスはさらに、前記ユーザ入力デバイスの機能を修正後、
前記オブジェクト注視イベントの終了を検出することと、
前記オブジェクト注視イベントの終了の検出に応答して、前記ユーザ入力デバイスの以前の機能を復元することと
を含む、請求項11に記載のウェアラブルコンピューティングシステム。
【請求項16】
前記ユーザ入力デバイスの機能を修正することは、前記ユーザ入力デバイスのボタンをメニューを前記ディスプレイ上に表示する機能にマッピングされた状態にさせることを含む、請求項11に記載のウェアラブルコンピューティングシステム。
【請求項17】
前記プロセスはさらに、前記オブジェクト注視イベントの持続時間が前記条件を充足させることの決定に応答して、前記ディスプレイ上に、前記ユーザ入力デバイスに割り当てられる新しい機能の視覚的インジケーションを表示することを含む、請求項11に記載のウェアラブルコンピューティングシステム。
【請求項18】
前記プロセスは、眼姿勢にかかわらず、前記ユーザの頭部姿勢に基づいて、前記オブジェクト注視イベントを検出することを含む、請求項11に記載のウェアラブルコンピューティングシステム。
【請求項19】
前記プロセスは、少なくとも部分的に、前記ユーザの感知される眼姿勢に基づいて、前記注視イベントを検出することを含む、請求項11に記載のウェアラブルコンピューティングシステム。
【請求項20】
1つまたはそれを上回るハードウェアプロセッサによって実行されるプログラム命令の制御下で実施されるコンピュータ化されたプロセスであって、前記プロセスは、
複合現実または拡張現実セッションの間に収集されたデータに基づいて、ユーザが物理的オブジェクトまたはその定義された領域内を注視している注視イベントを検出することと、
前記注視イベントの検出に応答して、前記注視イベントの持続時間がユーザ入力デバイスの機能性を一時的に修正するための条件を充足させるかどうかを測定するために使用されるタイマを開始することと、
前記注視イベントの持続時間が前記条件を充足させることの決定に応答して、前記ユーザ入力デバイスの機能を修正することと
を含む、プロセス。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、拡張現実および複合現実システムに関し、より具体的には、ハンドヘルドコントローラまたはそのようなシステムにおける他のユーザ入力デバイスの機能性を拡大するためのユーザインターフェースおよびプロセスに関する。
【背景技術】
【0002】
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」、「拡張現実」、および「複合現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実のように現れるようにユーザに提示される。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実、すなわち、「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。複合現実、すなわち、「MR」シナリオは、典型的には、実世界および仮想世界を融合し、物理的および仮想オブジェクトが、共存し、リアルタイムで相互作用する、新しい環境を生産することを伴う。
【0003】
Magic Leapから利用可能なもの等のいくつかのシステムは、ヘッドセットと、ハンドヘルドコントローラとを含む。ヘッドセットは、典型的には、ユーザの環境をマッピングするための追跡カメラと、内向きに向いた眼追跡カメラと、内向きに向いたディスプレイを形成する導波管伴う、レンズとを含む。ヘッドセットはまた、1つまたはそれを上回る他のタイプのセンサを含んでもよい。コントローラは、典型的には、MRまたはARセッションを制御するために使用される、ボタンおよび/またはタッチパッド等のうちの1つまたはそれを上回るタイプの入力要素を含む。
【0004】
MRおよびARセッションをサポートする、システムはまた、ケーブルによってヘッドセットに接続される、ウェアラブルデバイス等の別個のコンピューティングデバイスを含んでもよい。コンピューティングデバイスは、オペレーティングシステムおよびアプリケーション等の種々のソフトウェアコンポーネントを実行してもよい。これらのソフトウェアコンポーネントのうちの1つまたはそれを上回るものは、特定のコントローラ入力要素またはアクションを、ユーザによって呼び出され得る、特定の機能にマッピングしてもよい。例えば、オペレーティングシステムは、ハンドヘルドコントローラの特定のボタンを特定の機能にマッピングしてもよい、または具体的タッチパッドアクション(シングルまたはダブルタップアクション等)を別の機能にマッピングしてもよい。
【発明の概要】
【課題を解決するための手段】
【0005】
既存のMRおよびARシステムに関する1つの問題は、ハンドヘルドコントローラまたは任意の他の入力デバイスまたはオブジェクトを介してユーザに利用可能にされる機能の数が、コントローラ(またはデバイスまたはオブジェクト)上に含まれるユーザ入力ボタンまたは表面の数によって、および/またはそのような入力デバイス上で実施され得る、ユーザアクション(シングルおよびダブルタップアクションおよびジェスチャ等)の数によって、制限されることである。コントローラの機能性は、時として、新しいコントローラベースの機能を暴露するために、セッションコンテキストを使用することによって、拡大され得るが、多くの場合、ユーザに、コントローラの機能性を選択的に拡大するための直感的方法を与えることが望ましい。
【0006】
アプリコンテンツを共有し、同じ場所に位置するユーザおよびアバタとして表される遠隔ユーザの両方とチャットするためのネットワーク化された共存体験等の種々のユースケースは、ユーザの邪魔にならないようにされ得る、フレキシブルなオンデマンドインターフェースから利益を享受する。そのようなセッションは、ユーザが、例えば、アバタ、共有コンテンツ、メニュー等の異なる要素を追跡することを要求し得る。本明細書における開示は、ユーザが、セッションメニューにアクセスすることを可能にする、これらの他のソーシャルアクティビティおよび全体的体験の通信目標からユーザの注意を逸らさらない、システムおよび方法を説明する。特に、下記に説明されるものは、いくつかの実施形態では、ユーザが、動き回り、他者と協働および通信し、依然として、具体的世界場所に戻る必要がある不便を伴わずに(例えば、セッションメニューは、静的に位置してもよい)、セッションユーザインターフェースにアクセスし得るように、任意の既存のUIまたは世界ベースの基準を伴わずに、コンテキストメニューにアクセスするための方法である。一実施形態では、セッションユーザインターフェースは、ユーザが存在する場所にかかわらず、彼らに追従するように構成される(2020年1月24日に出願され、「CONTENT MOVEMENT AND INTERACTION USING A SINGLE CONTROLLER」と題された、米国仮出願第62/965,708号(その開示全体が参照することによって本明細書に組み込まれる)のシステムおよび方法等を使用して)。したがって、重要なセッションツール(例えば、ミュートにする、ブロックする、招待する、終了する)は、離散して、かつアクセスが容易な場所において、常時、ユーザの近くにある。
【0007】
これらの共有共存体験内では、(例えば、セッションメニュー内の)セッションツールへのアクセスは、本明細書で議論される注視タイマ機能性等を通してユーザによって要求されるまで、隠蔽されてもよい。本注視タイマ機能性は、例えば、共有共存体験において利用可能な入力デバイスの機能性を限定せずに、既存のユーザ入力デバイスの機能性を拡張させ、ユーザが、必要に応じて、セッションメニューを要求することを可能にする方法を提供する。
【0008】
本開示は、ユーザが、所定の期間にわたって、定義された視認または「注視」アクションを実施することによって、ハンドヘルドコントローラ(または他のユーザ入力デバイス)の1つまたはそれを上回るボタンまたは表面の機能性を一時的に修正することを有効にする、ユーザインターフェース特徴(「注視タイマ」または「焦点タイマ」特徴とも称される)を提供することによって、上記および他の問題に対処する。例えば、好ましい実施形態では、ユーザが、所定の期間(0.5秒または1秒等)にわたって、ハンドヘルドコントローラまたはその所定の領域内を注視すると、コントローラアクションと機能のマッピングが、一時的に修正され、1つまたはそれを上回る付加的機能または選択を利用可能にする、または1つまたはそれを上回るユーザ入力デバイスのための代替マッピングに一時的に切り替える。所定の時間量は、偶発的アクティブ化の尤度を低減させるように選択されてもよい。いくつかの実施形態では、修正されたマッピングは、注視アクションが終了するまで、またはユーザが特定のアクションを実施する(例えば、その機能が修正されたボタンを押下する)まで、有効なままである。
【0009】
一実施例として、ハンドヘルドコントローラの特定のボタン(または他のユーザ入力要素)と関連付けられる機能は、コントローラ注視アクションに応答して、ボタンの押下が、ヘッドセットに、そうでなければコントローラを介して表示可能ではない、メニューを表示させるように、一時的に修正されてもよい。したがって、本メニューを表示することを所望するユーザは、所定の期間にわたって、コントローラを注視し、次いで、ボタンを押下することによって、そのように行うことができる(随意に、セッションコンテキストにかかわらず)。本システムは、ユーザがボタンを押下すると、またはユーザがメニューを閉じると、ボタンの機能性を復元してもよい。いくつかの実施形態では、本システムは、加えて、または代替として、ユーザがコントローラ注視動作を中止すると、ボタンの機能性を復元してもよい。
【0010】
注視アクションが、開始すると、ヘッドセットは、「注視タイマ」アイコンおよび/または別のタイプの視覚的インジケータを表示し、コントローラ注視アクションが検出されたことを示してもよい。本アイコンまたは視覚的インジケータの外観は、次いで、実質的に持続的に更新され、注視アクションがコントローラの機能性が修正されるであろう前に継続する必要がある、時間量をグラフィック描写してもよい。いったんタイマが、満了する(すなわち、所定の注視持続時間に到達する)と、ディスプレイは、更新され、コントローラの機能性が修正されたことを示してもよい。例えば、上記のメニュー実施例では、メッセージは、短く表示され、ユーザが、特定のボタンを押下することによって、メニューを表示することができることを示してもよい。
【0011】
注視タイマは、MRおよび/またはARセッションをサポートする、ウェアラブルコンピューティングシステムの1つまたはそれを上回るコンポーネントによって実行される、ソフトウェア内に実装されてもよい。ウェアラブルコンピューティングシステムは、頭部姿勢、眼姿勢、または両方に基づいて、注視アクションを検出してもよい。いくつかの実施形態では、注視アクションの標的は、コントローラ以外のオブジェクトであってもよい。例えば、ユーザは、特定の手姿勢またはジェスチャを実施しながら、所定の期間にわたって、手注視アクションを実施し得る。
【0012】
本開示の一側面は、したがって、1つまたはそれを上回るハードウェアプロセッサによって実行されるプログラム命令の制御下で実施される、コンピュータ化されたプロセスである。プロセスは、複合現実または拡張現実セッションの間に収集されたセンサデータに基づいて、ユーザがハンドヘルドコントローラまたはその定義された領域内を注視している、コントローラ注視イベントを検出することと、コントローラ注視イベントの検出に応答して、ハンドヘルドコントローラの機能性を一時的に修正するために、コントローラ注視イベントの持続時間が条件を充足させるかどうかを測定するために使用される、タイマを開始することと、コントローラ注視イベントの持続時間が条件を充足させることの決定に応答して、ハンドヘルドコントローラのユーザ入力要素の機能を修正することとを含む。センサデータは、ユーザの頭部配向を反映する、頭部追跡データ、眼追跡データ、コントローラの位置を反映する、コントローラ位置データ、および/または頭部搭載型カメラによって収集されたデータを含んでもよい。いくつかの実施形態では、ユーザ入力要素の機能を修正することは、ハンドヘルドコントローラのボタンをメニューを表示する機能にマッピングさせることを含む。
【0013】
コンピュータ化されたプロセスはまた、以下、すなわち、(1)ユーザによって装着される頭部搭載型ディスプレイによって生成されたディスプレイ上に、タイマが開始されたことの視覚的インジケーションを表示すること、(2)注視イベントの間、視覚的インジケーションを更新し、ユーザ入力要素の機能が修正されるまで注視イベントが継続する必要がある、時間量を示すこと、(3)ユーザ入力デバイスの機能を修正後、センサデータに基づいて、コントローラ注視イベントの終了を検出し、コントローラ注視イベントの終了の検出に応答して、ユーザ入力要素の以前の機能を復元すること、(4)コントローラ注視イベントの持続時間が条件を充足させることの決定に応答して、ユーザ入力要素に割り当てられる新しい機能の視覚的インジケーションを表示することのうちの1つまたはそれを上回るものを含んでもよい。
【0014】
本開示の別の側面は、ウェアラブルコンピューティングシステムであって、ディスプレイと、1つまたはそれを上回るセンサとを備える、頭部搭載可能ディスプレイシステムと、ユーザ入力を受信するように構成される、ユーザ入力デバイスと、少なくとも部分的に、1つまたはそれを上回るセンサからのセンサデータに基づいて、ユーザの姿勢が物理的オブジェクトまたはその所定の領域内に指向されている、オブジェクト注視イベントを検出することと、オブジェクト注視イベントの持続時間が定義された条件を充足させるかどうかを決定することと、持続時間が該条件を充足させるとき、ユーザ入力デバイスの機能を修正することと含む、プロセスを実装するようにプログラムされる、1つまたはそれを上回るプロセッサとを備える、ウェアラブルコンピューティングシステムである。物理的オブジェクトは、ユーザ入力デバイスであってもよい。プロセスはまた、以下、すなわち、(1)頭部搭載可能ディスプレイシステムに、オブジェクト注視イベントが検出されたことの視覚的インジケーションを表示させること、(2)オブジェクト注視イベントの間、視覚的インジケーションを更新し、ユーザ入力デバイスの機能が修正されるまでオブジェクト注視イベントが継続する必要がある、時間量を示すこと、(3)ユーザ入力デバイスの機能を修正後、オブジェクト注視イベントの終了を検出し、オブジェクト注視イベントの終了の検出に応答して、ユーザ入力デバイスの以前の機能を復元すること、(4)オブジェクト注視イベントの持続時間が条件を充足させることの決定に応答して、ディスプレイ上に、ユーザ入力デバイスに割り当てられる新しい機能の視覚的インジケーションを表示すること、(5)眼姿勢にかかわらず、ユーザの頭部姿勢に基づいて、オブジェクト注視イベントを検出すること、(6)少なくとも部分的に、ユーザの感知される眼姿勢に基づいて、注視イベントを検出することのうちの1つまたはそれを上回るものを含んでもよい。いくつかの実施形態では、ユーザ入力デバイスの機能を修正することは、ユーザ入力デバイスのボタンをメニューをディスプレイ上に表示する機能にマッピングされた状態にさせることを含む。
【0015】
本開示の別の側面は、1つまたはそれを上回るハードウェアプロセッサによって実行される、プログラム命令の制御下で実施される、コンピュータ化されたプロセスであって、複合現実または拡張現実セッションの間に収集されたデータに基づいて、ユーザが物理的オブジェクトまたはその定義された領域内を注視している注視イベントを検出することと、注視イベントの検出に応答して、注視イベントの持続時間がユーザ入力デバイスの機能性を一時的に修正するための条件を充足させるかどうかを測定するために使用されるタイマを開始することと、注視イベントの持続時間が条件を充足させることの決定に応答して、ユーザ入力デバイスの機能を修正することとを含む、プロセスである。
【図面の簡単な説明】
【0016】
【
図1】
図1は、一実施形態による、その中に注視タイマ特徴が実装され得る、ウェアラブルコンピューティングシステムの一次コンポーネントを図示する。
【0017】
【
図2】
図2は、
図1のヘッドセットおよびウェアラブルコンピューティングデバイスコンポーネントの実施例を図示する。
【0018】
【
図3】
図3は、
図1のハンドヘルドコントローラの一実施例を図示する。
【0019】
【
図4】
図4は、一実施形態による、注視タイマ特徴の動作を図示する、状態図である。
【0020】
【
図5-1】
図5A-5Dは、順次、一実施形態における、注視タイマ特徴の使用の間、ヘッドセットを通して見える、拡張ビューを描写する。
【
図5-2】
図5A-5Dは、順次、一実施形態における、注視タイマ特徴の使用の間、ヘッドセットを通して見える、拡張ビューを描写する。
【0021】
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用され得る。図面は、本明細書に説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図するものではない。
【発明を実施するための形態】
【0022】
詳細な説明
I.
例示的システムコンポーネント
図1-3は、一実施形態による、注視タイマ特徴を実装する、ウェアラブルコンピューティングシステム100の一次コンポーネントを図示する。ウェアラブルコンピューティングシステム100は、ヘッドセット102と、ハンドヘルドコントローラ104と、ケーブル108によって、または無線で、ヘッドセットに接続される、ウェアラブルコンピューティングデバイス106とを含む。その中にウェアラブルコンピューティングデバイス106のいくつかまたは全てのコンポーネントがヘッドセット102および/またはハンドヘルドコントローラ104(または別のタイプのユーザ入力デバイス)の中に統合される、システム等、他の構成のウェアラブルコンピューティングシステムも、可能性として考えられる。下記に解説されるように、図示される実施形態では、注視タイマは、ウェアラブルコンピューティングデバイス106によって実行される、ソフトウェア内に実装され、ユーザが、定義された期間にわたって、特定のタイプの注視動作を実施することによって、効率的かつ直感的に、ハンドヘルドコントローラの機能性を拡大することを有効にする。開示されるプロセスはまた、キーボード、ワンド、ポインティングデバイス、電子描画パッド、ヘッドセット、ジョイスティック、および携帯電話等、他のタイプのユーザ入力デバイスの機能性を拡張させるために使用されることができる。
【0023】
図1に示されるように、ヘッドセット102は、ディスプレイ110と、1つまたはそれを上回る内向きに向いたカメラ112と、1つまたはそれを上回る外向きに向いたカメラ114と、他のセンサ116と、1つまたはそれを上回るハードウェアプロセッサ118と、メモリ120のアレイとを含む。
図2に示されるように、ヘッドセット102は、ディスプレイ110を形成する、半透明または透明レンズを有する、一対のゴーグルまたは眼鏡に類似してもよい。いくつかの実施形態では、ヘッドセットは、任意の好適な頭部搭載型ディスプレイまたはデバイスであってもよく、片眼用の単一レンズおよび/またはディスプレイ、両眼用の2つのレンズおよび/またはディスプレイ、または両眼用の単一レンズおよび/またはディスプレイを有してもよい。ディスプレイ110は、レンズの中に組み込まれる、導波管を使用して実装されてもよく、米国特許公開第2018/0157398号(その開示は、参照することによって本明細書に組み込まれる)開示されているようなものである。ヘッドセット102は、代替として、部分的または完全に、ユーザの頭部を被覆する、ヘルメットの形態にあってもよい。複合現実または拡張現実セッションの間、ディスプレイ110は、典型的には、その実世界環境のユーザのビュー(レンズを通して見られるように)をデジタルオブジェクトおよび情報で拡張させる。
【0024】
内向きに向いたカメラまたはカメラ112は、存在する場合、ユーザの片眼または両眼の移動および位置を追跡するために使用される。ユーザの眼の追跡された状態は、「眼姿勢」と称される。カメラ以外の他のタイプのセンサも、加えて、または代替として、ユーザの眼を追跡するために使用されてもよい。注視タイマは、眼移動を追跡せずに、頭部姿勢のみに基づいて実装されてもよく、その場合、内向きに向いたカメラ112は、省略される、または他の機能のためのみに使用されてもよい。
【0025】
図1に描写される他のセンサ116は、頭部位置、移動、および配向を感知するための種々のタイプのセンサを含んでもよい。実施例は、加速度計、慣性測定ユニット(IMU)、コンパス、無線デバイス、およびジャイロスコープを含む。ユーザの頭部の感知される位置および配向は、「頭部姿勢」と称される。プロセッサ118は、メモリ120内に記憶されるコードを実行する、汎用プロセッサを含んでもよく、および/またはディスプレイプロセッサ/コントローラまたは頭部姿勢プロセッサ等の1つまたはそれを上回る特殊プロセッサを含んでもよい。特殊プロセッサは、いくつかの実施形態では、ASIC(特定用途向け集積回路)、FPGA、および/または他の特殊ハードウェアデバイスとして実装されてもよい。
図1に図示されないが、ヘッドセット102はまた、マイクロホンおよびスピーカ等の他のタイプの入力および出力デバイスを含んでもよい。
【0026】
図1に示されるように、ハンドヘルドコントローラ104は、ボタン、タッチパッド、ジョイスティック、回転可能ホイール、マイクロホン等のユーザ入力要素130のセットを含む。これらのユーザ入力要素130は、MR(またはVRまたはARセッション)の種々の側面を制御するために使用されてもよい。
図3に示される実施例では、コントローラの入力要素は、円形タッチパッド130aと、ホーム/戻るボタン130bと、バンパボタン130cと、トリガボタン130dとを含む。下記に解説されるように、ウェアラブルコンピューティングデバイス106(またはシステム100の別のコンポーネント)は、具体的ユーザ入力要素130および関連付けられるユーザアクションを具体的機能にマッピングする、マッピングデータを記憶してもよい。典型的には、ホーム/戻るボタン130bは、アプリケーション内で後方に移動させる、またはランチャに戻るために使用され、バンパボタン130cは、コンテキストメニューを表示するために使用され、トリガボタンは、握持および選択相互作用のために使用される。タッチパッド130aは、親指を用いて実施され得る、種々のジェスチャを検出することが可能であって、各ジェスチャは、個別の機能または動作をトリガすることができる。認識されるであろうように、ハンドヘルドコントローラ104は、
図3に示されるものと異なるタイプおよび数の入力要素130を有することができ、および/または各入力要素130と関連付けられる異なる機能性を有してもよい。
【0027】
ハンドヘルドコントローラ104はまた、コントローラの位置および配向(「コントローラ姿勢」と称される)を感知するためのセンサ等、1つまたはそれを上回るセンサ132のセットを含む。実施例は、加速度計、慣性測定ユニット(IMU)、コンパス、無線デバイス、およびジャイロスコープを含む。コントローラ104は、好ましくは、多自由度(DOF)コントローラ(例えば、3DOFまたは6DOFコントローラ)であって、コントローラの複数の平行移動(例えば、左/右、前/後、または上/下)および/または回転(例えば、ヨー、ピッチ、またはロール)においてユーザ入力を感知することができることを意味する。平行移動をサポートする、多DOFコントローラは、3DOFコントローラと称され得る一方、平行移動および回転をサポートする、多DOFコントローラは、6DOFコントローラと称され得る。
【0028】
図1にさらに示されるように、ハンドヘルドコントローラ104はまた、Bluetooth(登録商標)またはWIFI送受信機等の無線送受信機134(または複数の無線送受信機)、または無線規格に基づかない、送受信機を含んでもよい。無線送受信機134は、ハンドヘルドコントローラ104が、ウェアラブルコンピューティングデバイス106および可能性として他のデバイスと無線で通信することを有効にする。例えば、ユーザが、入力動作(例えば、ボタンを押下する)をコントローラ104上で実施すると、無線送受信機134は、ウェアラブルコンピューティングデバイス106に、入力イベントを通知してもよい。他の実施形態では、無線送受信機134は、省略されてもよく、その場合、ハンドヘルドコントローラ104は、ケーブルによって、ウェアラブルコンピューティングデバイス106に接続されてもよい。示されるように、ハンドヘルドコントローラ104はまた、前述のコントローラコンポーネント130、132、134に接続される、1つまたはそれを上回るハードウェアプロセッサ140を含み、かつプロセッサ140によって実行されるプログラムコードを記憶する、メモリ142を含む。コントローラ104はまた、触知フィードバックをユーザに提供するための1つまたはそれを上回る触知デバイス、およびコントローラの姿勢(位置および配向)を決定するための姿勢プロセッサ等、他のタイプのコンポーネントを含んでもよい。
【0029】
図1にさらに示されるように、ウェアラブルコンピューティングデバイス106は、1つまたはそれを上回るハードウェアプロセッサ150と、1つまたはそれを上回る無線送受信機152(例えば、Bluetooth(登録商標)、WIFI、セルラー等)と、ソリッドステートメモリデバイスのアレイ等のメモリ154とを含む。メモリ154は、複合および拡張現実アプリケーションおよびセッションをサポートする、オペレーティングシステムのオペレーティングシステム(OS)ファイルを記憶し、複合および/または拡張現実アプリケーション等の1つまたはそれを上回るアプリケーション162のアプリケーションファイルを含む。上記に述べられたように、いくつかの実装では、ウェアラブルコンピューティングデバイス106を参照して議論されるコンポーネントおよび/または機能性は、別個のウェアラブルコンピューティングデバイス106がウェアラブルコンピューティングシステムから省略され得るように、ヘッドセット102内に実装されてもよい。
【0030】
図1に示されるように、ウェアラブルコンピューティングデバイス106のメモリはまた、ハンドヘルドコントローラ104上の入力動作を対応する機能にマッピングする、マッピングテーブル164、166のセットを記憶する。これらのテーブルは、オペレーティングシステム160、アプリケーション162、または両方によって維持および使用されてもよい。一次マッピングテーブル164は、コントローラの機能性が注視タイマ特徴によって拡大されていないときに使用される、マッピングを記憶する。本テーブル164内の各エントリは、ユーザコントローラ104上の入力動作(例えば、特定のボタンのアクティブ化または特定のジェスチャまたはタッチパッド上のタップシーケンス)をウェアラブルコンピューティングシステム100によって実施されるべき対応する機能にマッピングする。
【0031】
二次マッピングテーブル166は、コントローラの機能性が注視タイマ特徴を使用して一時的に拡大されているときに使用される、マッピングを記憶する。いくつかの実施形態では、機能性における拡大は、ハンドヘルドコントローラ104の単一ユーザ入力要素130のみに適用されてもよい。例えば、単一ボタン(例えば、
図3における130b、130c、または130d)の機能性は、修正されてもよい一方、コントローラの他のユーザ入力要素130の機能性は、不変のままであってもよい。したがって、一次および二次マッピングテーブル164、166は、単一マッピングのみにおいて異なってもよい、または二次マッピング166は、一次マッピング164におけるものと異なる、入力のためのマッピングのみを含んでもよい。他の実施形態では、マッピングのうちの2つまたはそれを上回るものは、これらの2つのマッピングテーブル164、166間で異なってもよい。例えば、2つまたはそれを上回る異なるコントローラボタンまたは2つまたはそれを上回る異なるタッチパッドジェスチャの機能性が、修正されてもよい。
【0032】
図示される実施形態は、マッピングテーブルを使用するが、注視タイマ特徴は、代替として、マッピングテーブルを伴わずに実装されてもよい。例えば、コントローラ機能性における変化は、注視タイマ特徴を実装する、実行可能コード内にハードコーディングされ得る。加えて、1つの一次マッピングテーブル164および1つの二次マッピングテーブル166のみが、示されるが、複数の一次テーブルおよび複数の二次テーブルが、記憶および使用されてもよい。例えば、異なるアプリケーション162は、異なる一次/二次マッピングテーブル対を使用してもよく、および/または異なるコントローラ(または他のユーザ入力デバイスまたはオブジェクト)は、異なる一次/二次マッピングテーブル対を使用してもよい。
【0033】
いくつかの実施形態では、ウェアラブルコンピューティングシステム100は、1つまたはそれを上回るタイプの外部デバイスと相互作用してもよい。例えば、システム100は、ヘッドセット102およびコントローラ104の場所および配向を追跡する目的のために、ユーザの部屋または建物内の固定された場所内に搭載される、1つまたはそれを上回る無線周波数デバイス(例えば、ビーコン)と通信してもよい。別の実施例として、ウェアラブルコンピューティングシステム100は、遠隔サーバまたはクラウドベースのシステム等の遠隔コンピューティングシステムと通信してもよい。
II.注視タイマ状態図
【0034】
図4は、ウェアラブルシステム100によって、特に、ウェアラブルコンピューティングデバイス106によって実装され、注視タイマ特徴を実装し得る、プロセスの一実施形態を図示する、状態図である。本プロセスは、オペレーティングシステム160によって、および/またはアプリケーション162のうちの1つまたはそれを上回るものによって実装されてもよい。
図4の実施形態では、ユーザは、設定期間にわたって、ハンドヘルドコントローラ104を注視することによって、コントローラの機能性を修正させる。下記に解説されるように、いくつかの実施形態では、ユーザは、コントローラを保持していない、ユーザの手、または特定のジェスチャを実施するユーザの手等、別の実世界オブジェクトを注視することによって、コントローラの機能性を拡大してもよい。
【0035】
「開始」矢印によって図示されるように、混合または拡張現実セッション等のセッションが開始されると、監視状態400に入り、コントローラ注視イベントの開始を監視する。より具体的には、プロセスは、ユーザの頭部姿勢および/または眼姿勢を反映し、ハンドヘルドコントローラ104の位置を反映する、センサデータを監視し、ユーザがコントローラまたはその所定の距離内を注視しているかどうかを決定する。ユーザがオブジェクトを注視しているかどうかを検出するための方法は、当技術分野において周知である。
【0036】
コントローラ注視イベントが、検出されると、プロセスは、「ディスプレイカウントダウンタイマ」状態402に遷移し、注視イベントが終了する、またはカウントダウンタイマが満了するまで、本状態に留まる。タイマの主要目的は、偶発的コントローラ注視イベントの結果としてコントローラの機能性を修正することを回避することである。換言すると、タイマの主要目的は、「誤検出」を低減させることである。いくつかの実施形態では、本目的は、ユーザに、ユーザが、タイマが満了する前に、単に、コントローラから眼を逸らすことによって、コントローラ修正を回避し得るように、コントローラ注視イベントが検出されたことの視覚的インジケーションまたは他のユーザフィードバックを表示することによって促進され得る。本システムは、加えて、または代替として、ユーザに、可聴および/または触知信号等の他のタイプのユーザフィードバックを介して、コントローラ注視イベントの検出を通知してもよい。例えば、コントローラ(またはコントローラ上の特定のボタン)は、注視イベントが最初に検出されると、振動してもよい。
【0037】
いくつかの実施形態では、カウントダウン期間は、0.5秒であるが、より短いおよびより長い所定の期間も、使用されてもよい。好ましくは、期間は、0.3秒~2秒の範囲内、より好ましくは、0.4秒~1.2秒の範囲内である。カウントダウンタイマのリアルタイム状態は、好ましくは、リアルタイムタイマオブジェクト(下記に議論される
図5B参照)等を表示することによって、ユーザにグラフィック表示される。状態402から状態400に戻る矢印によって図示されるように、コントローラ注視イベントが、タイマが満了する前に、終了する場合、プロセスは、状態400に戻り、次のコントローラ注視イベントを監視する。タイマはまた、本状態遷移が生じると、リセットされる。
【0038】
タイマが、注視イベントが終了する前に、満了する場合、プロセスは、状態402から状態404に遷移し、コントローラの機能性は、一時的に修正される。プロセスは、ユーザに、ユーザフィードバック、例えば、視覚的、触知、および/または可聴通知を介して、本遷移を通知してもよい。修正が、単一コントローラボタンのみに適用される場合、通知は、本ボタンを識別してもよく(例えば、ボタンを介して、触知信号を出力することによって)、および/またはボタンに割り当てられる新しい機能を識別してもよい(例えば、
図5Cに示されるように、テキストメッセージをディスプレイ110上に表示することによって)。本状態404にある間、ウェアラブルシステム100は、二次マッピングテーブル166(
図1)を使用する。したがって、コントローラ入力イベントが、プロセスが本状態404にある間に生じる場合、入力イベントに応答して実施される機能は、二次マッピングテーブル166に基づいて決定されるであろう。上記に述べられたように、異なる二次マッピングテーブルが、いくつかの実施形態では、コントローラの修正された機能性がアプリケーション依存であるように、異なるアプリケーション162によって使用されてもよい。いくつかの実施形態では、付加的二次マッピングテーブルが、使用されてもよく、他のコントローラ、デバイス、および/またはオブジェクトと関連付けられてもよい。例えば、ユーザは、ユーザの手の中の電話を注視してもよく、これは、焦点タイマをトリガしてもよく、これは、電話と関連付けられる二次マッピングテーブルにアクセスさせてもよい。二次マッピングテーブルは、ユーザの環境コンテキストから独立してもよい(ユーザが存在する部屋、履歴データ等を認識する)。
【0039】
図示される実施形態では、プロセスは、復元イベントが生じるまで、状態404に留まる。復元イベントは、例えば、以下、すなわち、(1)ユーザが、拡大されたコントローラ機能性を使用する(例えば、その機能が修正されたコントローラボタンを押下する)、(2)ユーザが、拡大されたコントローラ機能性を使用して開かれたメニューまたは他のユーザインターフェースを閉じる、(3)ユーザが、拡大されたコントローラ機能性を利用せずに、コントローラ注視アクションを中止することのうちの1つまたはそれを上回るものであってもよい。これらおよび他のタイプの復元イベントの任意の組み合わせが、本システム内に実装されてもよい。いったん復元イベントが生じると、プロセスは、監視状態400に戻り、一次マッピングテーブル164のその使用を再開する。
【0040】
上記に説明されるプロセスは、コントローラ入力イベント(またはボタン押下イベント等の特定のタイプの入力イベント)が特定の機能に割り当てるために利用可能ではない、「オーバーマッピング」シナリオをハンドリングするために有用である。そのようなシナリオは、例えば、全てのボタンが個別の機能にすでに割り当てられているとき、または可能性として考えられるコントローラ入力イベント(ボタン押下、タッチパッドジェスチャ等)の全てが個別の機能にすでに割り当てられているときに生じ得る。プロセスはまた、非オーバーマッピングシナリオで使用されてもよい。例えば、いくつかのコントローラ入力イベント(特定のタッチパッドジェスチャ等)が、マッピングされていないままであり得るが、開発者が、特定のボタン130b-130dの押下等、所与の機能をより一般的または容易に使用される入力イベントに一時的に割り当てることを所望し得る。一実施例として、バンパまたはトリガボタンの機能が、世界コンテキストに依存しない、特定のメニューを表示させるように一時的に修正され得る。
【0041】
図4のプロセスは、コントローラ104以外の別のタイプの実世界オブジェクトへの注視イベントによって、注視タイマが呼び出されるように修正されてもよい。例えば、ユーザは、設定期間にわたって、コントローラを保持していない手、指差しジェスチャ等の特定のジェスチャを実施するその手、特定の仮想または実世界オブジェクト、または任意の他のオブジェクトを注視することによって、コントローラの機能性を拡大し得る。さらに、注視イベントの標的は、タイマ満了に応じて生じる、コントローラ修正を決定付け得る。例えば、本システムは、ユーザが第1のジェスチャを実施するその手を注視すると、1つの修正を実施するように構成され得、ユーザが第2のジェスチャを実施するその手を注視すると、異なる修正を実施し得る。リアルタイムオブジェクト認識プロセスは、外部に向いたカメラからのビデオ/画像ストリームに適用され、ユーザの注視の標的が、注視タイマ特徴を呼び出す、何らかのものであるかどうかを決定してもよい。
III.
例示的ユーザインターフェース
【0042】
図5A-5Dは、順次、一実施形態による、注視タイマ特徴の使用の間、ヘッドセット102を通してユーザによって見られるビューを描写する。これらの図面では、以下の要素は、レンズを通してユーザによって見られる実世界ビューを拡張させる、デジタルオブジェクト、すなわち、
図5Aにおけるコントローラ場所アイコン500、
図5Bにおける注視タイマグラフィック502、
図5Cにおけるテキストメッセージ504、および
図5Dにおけるメニュー506である。これらのビュー内の全ての他のオブジェクトは、レンズを通して見られる、実際の物理的オブジェクトである。
【0043】
図5A-5Dの本特定の実施形態では、ユーザは、設定期間にわたって、ハンドヘルドコントローラ104を注視し、その時点で、コントローラのトリガボタン130d(
図3)は、二次マッピングテーブルに基づいて、そうでなければコントローラを介して(一次マッピングテーブルを使用して)表示可能ではない、メニュー506(または他のユーザインターフェース)の表示を開始するように再構成される。
図5Aは、ユーザがコントローラ注視動作を開始する前にユーザによって見られる、ビューを図示する。本実施例では、ユーザは、ヘッドセット102のレンズを通して見られる、机、椅子、テーブル、および窓を含む、部屋内に、立っている、または座っている。
図5Aにおけるビューはまた、コントローラ104を保持しているユーザの手を示す。ヘッドセットは、本実施例では、コントローラ位置アイコン500を表示し、センサデータに基づいてウェアラブルシステム100によって検出されるようなコントローラ104のリアルタイム場所および姿勢を表す。ユーザが、コントローラ104を移動させるにつれて、アイコン500は、3D空間内のコントローラの正面の固定距離に現れるように、コントローラとともに移動する。アイコン500は、いくつかの実施形態では、省略されてもよく、および/またはコントローラが向けられている方向を示す、線またはビームで補完される、またはそれと置換されてもよい。
【0044】
コントローラ104は、
図5Aでは、ユーザに可視であるが、まだ注視動作の標的ではなく、したがって、注視タイマは、まだ開始されていない。
図4の状態図を参照すると、本システムは、コントローラ注視イベントの開始が監視されている、状態400にある。一実施形態では、ユーザは、アイコン500またはコントローラ104のいずれかを注視することによって、コントローラ注視動作を開始することができる。上記に議論されるように、ウェアラブルシステムは、頭部姿勢、眼姿勢、または両方に基づいて、ユーザがコントローラ注視動作を実施しているかどうかを決定してもよい。いくつかの実施形態では、コントローラ注視は、ユーザがコントローラ位置アイコン500またはその所定の距離を注視しているかどうかの検出に基づいてもよい。頭部姿勢および/または眼姿勢に基づいて、ユーザがデジタルまたは物理的オブジェクトを見ているかどうかを決定するための方法は、当技術分野において公知である。
【0045】
コントローラ注視イベントが、最初に検出されると、本システムは、状態400から状態402(
図4)に移行し、ウェアラブルシステム100は、アイコン500の外観を短く変化させる、可聴信号を出力する、および/またはハンドヘルドコントローラ104を介して触知信号を出力すること等によって、ユーザに通知してもよい。
図5Bに示されるように、ウェアラブルシステムはまた、アイコン500と、タイマが満了するまでの残りの時間量(すなわち、コントローラ注視動作がコントローラの機能性を修正させるために継続する必要がある、時間量)をグラフィック描写する、タイマグラフィック502を置換してもよい。本タイマアイコン502の外観は、タイマがゼロまでカウントダウンするにつれて、リアルタイムで変化してもよい。
【0046】
図5Cに示されるように、いったん注視タイマが、満了すると、本システムは、状態402から404(
図4)に移行し、修正されたコントローラ機能性が、二次マッピングテーブルに基づいてアクティブ化される。
図5Cの実施例では、ヘッドセットは、テキストメッセージ504を表示し、ユーザが、コントローラのトリガボタンを押下することによって、メニューを立ち上げ得ることを示す。メッセージは、代替として、新しく割り当てられた機能(例えば、「トリガを押下して継続する」)を規定せずに、再マッピングされた特定のボタンを識別してもよい。複数のコントローラボタンが再マッピングされる、ユースケースでは、テキストメッセージが、該当する場合、各そのようなボタンに割り当てられる新しい機能を示してもよい。ユーザが、トリガボタンを押下する前に、コントローラ104から眼を逸らす場合、いくつかの実施形態では、トリガボタンの以前の機能性は、復元され(例えば、本システムは、
図4の状態図の実施例では、状態400に戻る)、ディスプレイは、
図5Aに示されるタイプのビューに戻るように復帰するであろう。他方では、ユーザが、眼を逸らす前に、トリガボタンを押下する場合、双方向メニュー506が、
図5Dに示されるように、表示される。メニュー506は、本実施例では、そうでなければトリガボタンを介して表示可能ではない(すなわち、トリガボタンは、通常、異なる機能にマッピングされる)。メニュー506は、コンテキスト依存であってもよいが、そうである必要はない。メニュー506は、実質的に不透明であるように
図5Dに示されるが、ユーザにメニューの背後に現れる物理的オブジェクトが見えるように、半透明メニューが、表示されてもよい。
【0047】
いくつかの実施形態では、本メニュー506の表示は、ユーザがコントローラ注視動作を中止した後、ユーザが、メニューを閉じさせる、別の動作を実施するまで、継続する。例えば、メニュー506は、コントローラがユーザによって移動され、および/またはユーザが環境を動き回っても、コントローラの近くの位置を維持すること等によって、コントローラ104に追従してもよい。ユーザは、指を用いて、コントローラ104を使用して、および/または他の既知の方法を使用して、メニューと相互作用してもよい。いくつかの実施形態では、メニュー506の表示場所は、コントローラ104の場所を追跡し、したがって、メニューは、ユーザが、例えば、部屋を見渡す、または動き回るにつれて、ユーザにアクセス可能なままである。ユーザはまた、メニューを特定の実世界場所に「ドロップする」または「残す」ことが可能であり得、それに対してユーザは、後に、所望に応じて、戻ることができる。
IV.結論
【0048】
上記に説明されるような注視タイマ特徴は、ウェアラブルコンピューティングシステム100のコンポーネントのうちの1つまたはそれを上回るものによって実行される、プログラムコード(命令)内に実装されてもよい。例えば、注視タイマは、ウェアラブルコンピューティングデバイス106のプロセッサ150(または複数のプロセッサ)によって実行されるプログラム命令、および/またはヘッドセットのプロセッサ118(または複数のプロセッサ)によって実行されるプログラム命令内に実装されてもよい。注視タイマ特徴はまた、部分的または全体的に、ウェアラブルシステム100の一部ではない、デバイスまたはシステムによって実行されるソフトウェア内に実装されてもよい。例えば、注視タイマ特徴を実装するためのソフトウェアのいくつかまたは全ては、無線リンクを経由してウェアラブルシステム100と通信する、ローカルまたは遠隔コンピューティングデバイス上で起動され得る。
【0049】
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
【0050】
とりわけ、「~できる(can)」、「~し得る(could)」、「~し得る(might)」、「~し得る(may)」、「例えば(e.g.)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/またはステップが、1つまたはそれを上回る実施形態に対していかようにも要求されること、または1つまたはそれを上回る実施形態実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれる、または実施されるべきかどうかを決定するための論理を必然的に含むことを含意することを意図されない。用語「~を備える(comprising)」、「~を含む(including)」、「~を有する(having)」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つまたはそれを上回る」または「少なくとも1つ」を意味するように解釈されるべきである。
【0051】
本明細書で使用されるように、項目のリスト「~のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図するものではない。
【0052】
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、または連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。
【国際調査報告】