(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-08-08
(54)【発明の名称】リモート制御するために視界内の制御可能デバイスの情報の視線追跡デバイスにおけるレンダリング
(51)【国際特許分類】
G06F 3/01 20060101AFI20240801BHJP
G06F 3/038 20130101ALI20240801BHJP
G06F 3/04815 20220101ALI20240801BHJP
【FI】
G06F3/01 510
G06F3/038 310A
G06F3/04815
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2024508538
(86)(22)【出願日】2022-08-02
(85)【翻訳文提出日】2024-02-09
(86)【国際出願番号】 EP2022071718
(87)【国際公開番号】W WO2023016869
(87)【国際公開日】2023-02-16
(32)【優先日】2021-08-12
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】390009531
【氏名又は名称】インターナショナル・ビジネス・マシーンズ・コーポレーション
【氏名又は名称原語表記】INTERNATIONAL BUSINESS MACHINES CORPORATION
【住所又は居所原語表記】New Orchard Road, Armonk, New York 10504, United States of America
(74)【代理人】
【識別番号】100112690
【氏名又は名称】太佐 種一
(74)【代理人】
【識別番号】100120710
【氏名又は名称】片岡 忠彦
(74)【復代理人】
【識別番号】110000420
【氏名又は名称】弁理士法人MIP
(72)【発明者】
【氏名】ナガー、ラグベアー、プラサド
(72)【発明者】
【氏名】ラクシット、サルバジット
(72)【発明者】
【氏名】ホセ、レジ
(72)【発明者】
【氏名】アグラワル、マニシュ
【テーマコード(参考)】
5B087
5E555
【Fターム(参考)】
5B087AA07
5B087AA09
5B087BC05
5B087BC12
5B087BC13
5B087BC16
5B087BC32
5B087DD03
5B087DD12
5E555AA04
5E555AA27
5E555BA02
5E555BA38
5E555BB38
5E555BC01
5E555BE17
5E555CA42
5E555CA47
5E555CB45
5E555CB64
5E555CB65
5E555CB66
5E555CC01
5E555CC05
5E555DA08
5E555DA09
5E555DB39
5E555DB53
5E555DC13
5E555DC19
5E555DC26
5E555DC43
5E555DC52
5E555DC63
5E555DC72
5E555DD06
5E555EA12
5E555EA14
5E555EA19
5E555EA22
5E555EA27
5E555FA00
(57)【要約】
リモート制御するために視界内の制御可能デバイスの情報を視線追跡デバイスにおいてレンダリングするためのコンピュータ・プログラム製品、システム、および方法が提供される。ユーザ位置に基づいて、ユーザの視線追跡デバイスから視界の決定が行われる。視線追跡デバイスにおいてレンダリングするためにユーザがリモート制御し得る視界内のデバイスが決定される。決定されたデバイスの情報の拡張現実表現が、視線追跡デバイスの表示にレンダリングされる。視線追跡デバイスにおいて自身の情報がレンダリングされた決定されたデバイスのうちの1つを含むターゲット・デバイスをリモート制御するためのユーザ制御が受信される。受信されたユーザ制御はターゲット・デバイスに送信されて、ターゲット・デバイスが制御される。
【特許請求の範囲】
【請求項1】
リモート制御するために視界内の制御可能デバイスの情報を視線追跡デバイスにおいてレンダリングするためのコンピュータ・プログラム製品であって、前記コンピュータ・プログラム製品が、動作を行うために実行されるコンピュータ可読プログラム・コードが具現化されたコンピュータ可読記憶媒体を含み、前記動作が、
ユーザ位置に基づいてユーザの前記視線追跡デバイスから視界を決定することと、
前記視線追跡デバイスにおいてレンダリングするために前記ユーザがリモート制御し得る前記視界内のデバイスを決定することと、
前記決定されたデバイスの情報の拡張現実表現を前記視線追跡デバイスの表示にレンダリングすることと、
前記視線追跡デバイスにおいて自身の情報がレンダリングされた前記決定されたデバイスのうちの1つを含むターゲット・デバイスをリモート制御するためのユーザ制御を受信することと、
前記受信されたユーザ制御を前記ターゲット・デバイスに送信して前記ターゲット・デバイスを制御することと
を含む、コンピュータ・プログラム製品。
【請求項2】
前記動作が、
前記ユーザの視線における前記視界のサブセットである地理的座標を含むターゲット領域を決定することと、
前記ターゲット領域の前記地理的座標に位置するデバイスの情報を有する少なくとも1つのシステムに要求を送信することと、
前記少なくとも1つのシステムから、前記ターゲット領域内のデバイスおよび前記デバイスのユーザ制御を示す少なくとも1つの応答を受信することとをさらに含み、前記少なくとも1つの応答において示される前記デバイスが前記決定されたデバイスを含み、前記視線追跡デバイスの前記表示における情報の前記レンダリングされた拡張現実表現が、前記少なくとも1つの応答において示される前記ユーザ制御を含む、請求項1に記載のコンピュータ・プログラム製品。
【請求項3】
前記少なくとも1つの応答が前記ターゲット領域内の前記デバイスの前記ユーザ制御の現在の状態を示し、情報の前記レンダリングされた拡張現実表現が、前記ユーザの前記視界内の拡張現実画像としてレンダリングされた前記デバイスの前記ユーザ制御の前記現在の状態を含む、請求項2に記載のコンピュータ・プログラム製品。
【請求項4】
前記デバイスの前記ユーザ制御の前記現在の状態の情報の前記レンダリングされた拡張現実表現が、前記ユーザ制御の前記現在の状態を決定するために前記少なくとも1つのシステムにおける少なくとも1つのカメラまたは前記ターゲット領域内の前記デバイスと通信する前記少なくとも1つのシステムによって取り込まれた前記デバイスの前記ユーザ制御の画像を含む、請求項3に記載のコンピュータ・プログラム製品。
【請求項5】
前記視線追跡デバイスにおいて自身の情報がレンダリングされた前記ターゲット領域内の前記決定されたデバイスが、前記ユーザの前記視界において別のデバイスによって遮られている少なくとも1つのデバイスを含む、請求項2に記載のコンピュータ・プログラム製品。
【請求項6】
前記デバイスを前記決定することが、
機械学習モジュールにおいて、現在の時間、前記ユーザのアイデンティティ、組織における前記ユーザの役割、ユーザの承認レベル、前記ユーザが過去に制御した前記視界内のデバイスおよびそれらが制御された時間を含む入力のセットのメンバーである複数の入力を受信することと、
前記機械学習モジュールによって、前記受信された入力を処理して前記視界内の前記デバイスのうちの少なくとも1つのデバイスを出力することとを含み、前記出力された少なくとも1つのデバイスが、前記視線追跡デバイスの前記表示に自身の情報がレンダリングされた前記決定されたデバイスを含む、請求項1に記載のコンピュータ・プログラム製品。
【請求項7】
前記動作が、
前記出力された少なくとも1つのデバイスをユーザがリモート制御することとなる確率を示す、前記出力された少なくとも1つのデバイスに対する信頼水準を決定することと、
前記ユーザがリモート制御した前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのポジティブ・トレーニング・セットと、前記ユーザがリモート制御しなかった前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのネガティブ・トレーニング・セットとを決定することと、
前記受信された入力に応答して、前記ポジティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも高い信頼水準を有する前記ポジティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと、
前記受信された入力に応答して、前記ネガティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも低い信頼水準を有する前記ネガティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと
をさらに含む、請求項6に記載のコンピュータ・プログラム製品。
【請求項8】
前記動作が、
前記ターゲット・デバイスに前記ユーザ制御を送信したことに応答して、前記ユーザ制御が前記ターゲット・デバイスに送信された後に行われるべき前記ターゲット・デバイスまたは別のデバイスの関連ユーザ制御を決定することと、
前記視線追跡デバイスにおいて、前記ユーザ制御が前記ターゲット・デバイスに送信された後に前記ターゲット・デバイスまたは別のデバイスにおいて行われるべき前記関連ユーザ制御の情報の拡張現実表現をレンダリングすることと
をさらに含む、請求項1に記載のコンピュータ・プログラム製品。
【請求項9】
前記ユーザ位置が温度制御された閉鎖空間内にあり、前記動作が、
前記ユーザから測定された生体健康パラメータと、前記閉鎖空間の温度を制御するために前記閉鎖空間において利用可能な温度制御の情報とを機械学習モジュールに入力して、前記閉鎖空間内の前記温度を制御するために前記ユーザがリモート制御し得る温度制御デバイスを出力することと、
前記出力された温度制御デバイスを制御するために選択するために、前記視線追跡デバイスの前記ユーザに対する前記視線追跡デバイスの前記表示に前記出力された温度制御デバイスの拡張現実表現をレンダリングすることと
をさらに含む、請求項1に記載のコンピュータ・プログラム製品。
【請求項10】
リモート制御するために視界内の制御可能デバイスの情報を視線追跡デバイスにおいてレンダリングするためのシステムであって、
プロセッサと、
前記プロセッサによって実行されるときに動作を行うコンピュータ可読プログラム・コードが具現化されたコンピュータ可読記憶媒体とを含み、前記動作が、
ユーザ位置に基づいてユーザの前記視線追跡デバイスから視界を決定することと、
前記視線追跡デバイスにおいてレンダリングするために前記ユーザがリモート制御し得る前記視界内のデバイスを決定することと、
前記決定されたデバイスの情報の拡張現実表現を前記視線追跡デバイスの表示にレンダリングすることと、
前記視線追跡デバイスにおいて自身の情報がレンダリングされた前記決定されたデバイスのうちの1つを含むターゲット・デバイスをリモート制御するためのユーザ制御を受信することと、
前記受信されたユーザ制御を前記ターゲット・デバイスに送信して前記ターゲット・デバイスを制御することと
を含む、システム。
【請求項11】
前記動作が、
前記ユーザの視線における前記視界のサブセットである地理的座標を含むターゲット領域を決定することと、
前記ターゲット領域の前記地理的座標に位置するデバイスの情報を有する少なくとも1つのシステムに要求を送信することと、
前記少なくとも1つのシステムから、前記ターゲット領域内のデバイスおよび前記デバイスのユーザ制御を示す少なくとも1つの応答を受信することとをさらに含み、前記少なくとも1つの応答において示される前記デバイスが前記決定されたデバイスを含み、前記視線追跡デバイスの前記表示における情報の前記レンダリングされた拡張現実表現が、前記少なくとも1つの応答において示される前記ユーザ制御を含む、請求項10に記載のシステム。
【請求項12】
前記少なくとも1つの応答が前記ターゲット領域内の前記デバイスの前記ユーザ制御の現在の状態を示し、情報の前記レンダリングされた拡張現実表現が、前記ユーザの前記視界内の拡張現実画像としてレンダリングされた前記デバイスの前記ユーザ制御の前記現在の状態を含む、請求項11に記載のシステム。
【請求項13】
前記デバイスを前記決定することが、
機械学習モジュールにおいて、現在の時間、前記ユーザのアイデンティティ、組織における前記ユーザの役割、ユーザの承認レベル、前記ユーザが過去に制御した前記視界内のデバイスおよびそれらが制御された時間を含む入力のセットのメンバーである複数の入力を受信することと、
前記機械学習モジュールによって、前記受信された入力を処理して前記視界内の前記デバイスのうちの少なくとも1つのデバイスを出力することとを含み、前記出力された少なくとも1つのデバイスが、前記視線追跡デバイスの前記表示に自身の情報がレンダリングされた前記決定されたデバイスを含む、請求項10に記載のシステム。
【請求項14】
前記動作が、
前記出力された少なくとも1つのデバイスをユーザがリモート制御することとなる確率を示す、前記出力された少なくとも1つのデバイスに対する信頼水準を決定することと、
前記ユーザがリモート制御した前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのポジティブ・トレーニング・セットと、前記ユーザがリモート制御しなかった前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのネガティブ・トレーニング・セットとを決定することと、
前記受信された入力に応答して、前記ポジティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも高い信頼水準を有する前記ポジティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと、
前記受信された入力に応答して、前記ネガティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも低い信頼水準を有する前記ネガティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと
をさらに含む、請求項13に記載のシステム。
【請求項15】
前記動作が、
前記ターゲット・デバイスに前記ユーザ制御を送信したことに応答して、前記ユーザ制御が前記ターゲット・デバイスに送信された後に行われるべき前記ターゲット・デバイスまたは別のデバイスの関連ユーザ制御を決定することと、
前記視線追跡デバイスにおいて、前記ユーザ制御が前記ターゲット・デバイスに送信された後に前記ターゲット・デバイスまたは別のデバイスにおいて行われるべき前記関連ユーザ制御の情報の拡張現実表現をレンダリングすることと
をさらに含む、請求項10に記載のシステム。
【請求項16】
リモート制御するために視界内の制御可能デバイスの情報を視線追跡デバイスにおいてレンダリングするための方法であって、
ユーザ位置に基づいてユーザの前記視線追跡デバイスから視界を決定することと、
前記視線追跡デバイスにおいてレンダリングするために前記ユーザがリモート制御し得る前記視界内のデバイスを決定することと、
前記決定されたデバイスの情報の拡張現実表現を前記視線追跡デバイスの表示にレンダリングすることと、
前記視線追跡デバイスにおいて自身の情報がレンダリングされた前記決定されたデバイスのうちの1つを含むターゲット・デバイスをリモート制御するためのユーザ制御を受信することと、
前記受信されたユーザ制御を前記ターゲット・デバイスに送信して前記ターゲット・デバイスを制御することと
を含む、方法。
【請求項17】
前記ユーザの視線における前記視界のサブセットである地理的座標を含むターゲット領域を決定することと、
前記ターゲット領域の前記地理的座標に位置するデバイスの情報を有する少なくとも1つのシステムに要求を送信することと、
前記少なくとも1つのシステムから、前記ターゲット領域内のデバイスおよび前記デバイスのユーザ制御を示す少なくとも1つの応答を受信することとをさらに含み、前記少なくとも1つの応答において示される前記デバイスが前記決定されたデバイスを含み、前記視線追跡デバイスの前記表示における情報の前記レンダリングされた拡張現実表現が、前記少なくとも1つの応答において示される前記ユーザ制御を含む、請求項16に記載の方法。
【請求項18】
前記少なくとも1つの応答が前記ターゲット領域内の前記デバイスの前記ユーザ制御の現在の状態を示し、情報の前記レンダリングされた拡張現実表現が、前記ユーザの前記視界内の拡張現実画像としてレンダリングされた前記デバイスの前記ユーザ制御の前記現在の状態を含む、請求項17に記載の方法。
【請求項19】
前記デバイスを前記決定することが、
機械学習モジュールにおいて、現在の時間、前記ユーザのアイデンティティ、組織における前記ユーザの役割、ユーザの承認レベル、前記ユーザが過去に制御した前記視界内のデバイスおよびそれらが制御された時間を含む入力のセットのメンバーである複数の入力を受信することと、
前記機械学習モジュールによって、前記受信された入力を処理して前記視界内の前記デバイスのうちの少なくとも1つのデバイスを出力することとを含み、前記出力された少なくとも1つのデバイスが、前記視線追跡デバイスの前記表示に自身の情報がレンダリングされた前記決定されたデバイスを含む、請求項16に記載の方法。
【請求項20】
前記出力された少なくとも1つのデバイスをユーザがリモート制御することとなる確率を示す、前記出力された少なくとも1つのデバイスに対する信頼水準を決定することと、
前記ユーザがリモート制御した前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのポジティブ・トレーニング・セットと、前記ユーザがリモート制御しなかった前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのネガティブ・トレーニング・セットとを決定することと、
前記受信された入力に応答して、前記ポジティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも高い信頼水準を有する前記ポジティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと、
前記受信された入力に応答して、前記ネガティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも低い信頼水準を有する前記ネガティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと
をさらに含む、請求項19に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、リモート制御するために視界内の制御可能デバイスの情報を視線追跡デバイスにおいてレンダリングするためのコンピュータ・プログラム製品、システム、および方法に関する。
【背景技術】
【0002】
インターネット・オブ・シングス(IOT:Internet of Things)において接続された機械およびデバイスを制御するために、拡張現実システムが用いられることがある。拡張現実(AR:Augmented reality)は、物理的な現実世界の環境のライブでの直接的または間接的な表示であり、その表示のエレメントは、コンピュータに生成される感覚入力、たとえば音声、映像、およびグラフィックスなどによって拡張(または補足)され、それらは拡張現実表現を作成する視線追跡デバイスを着用したユーザの視界内にレンダリングされてもよい。拡張現実は、現実世界にコンテンツを重ね合わせたものである。複合現実(MR:Mixed reality)は、現実世界と仮想世界とを融合させて、物理オブジェクトとデジタル・オブジェクトとがリアル・タイムで共存および相互作用する新たな環境および視覚化を生成したものである。複合現実は、現実世界に固定されて現実世界と相互作用する合成コンテンツを現実世界に重ね合わせることを伴う。
【0003】
拡張現実アプリケーションは、産業環境において複雑な機械の維持、診断、および動作のために用いられてきた。承認された従業員の限られたグループがデバイスを制御するための拡張現実ツールにアクセスできてもよく、これによって任意の人物がアクセス可能な物理制御パネルを実装する必要がなくなる。この拡張現実とインターネット・オブ・シングスとの融合は、「拡張されたモノのインターネット(Internet of Augmented Things)」と呼ばれる。
【0004】
当該技術分野において、ユーザの視界内のデバイスを制御するユーザの能力を高めるために、ユーザの視界に拡張現実表現を重ね合わせるための視線追跡デバイスに対するアプリケーションの開発が必要とされている。
【発明の概要】
【0005】
リモート制御するために視界内の制御可能デバイスの情報を視線追跡デバイスにおいてレンダリングするためのコンピュータ・プログラム製品、システム、および方法が提供される。ユーザ位置に基づいて、ユーザの視線追跡デバイスから視界の決定が行われる。視線追跡デバイスにおいてレンダリングするためにユーザがリモート制御し得る視界内のデバイスが決定される。決定されたデバイスの情報の拡張現実表現が、視線追跡デバイスの表示にレンダリングされる。視線追跡デバイスにおいて自身の情報がレンダリングされた決定されたデバイスのうちの1つを含むターゲット・デバイスをリモート制御するためのユーザ制御が受信される。受信されたユーザ制御はターゲット・デバイスに送信されて、ターゲット・デバイスが制御される。
【0006】
ここで添付の図面を参照して、単なる例として本発明の実施形態を説明することとする。
【図面の簡単な説明】
【0007】
【
図1】視線追跡デバイスとインターフェースするパーソナル・デバイス・コントローラの実施形態を示す図である。
【
図2】ユーザの視界内のデバイスの情報を要求するためのデバイス情報要求の実施形態を示す図である。
【
図3】デバイス情報要求に応答して受信されたデバイス情報の実施形態を示す図である。
【
図4】視線追跡デバイスにおいてレンダリングされた視界内のデバイスとユーザが対話したかどうかを示す履歴デバイス制御情報の実施形態を示す図である。
【
図5】ユーザがリモート制御し得るユーザの視界内のデバイスの情報を視線追跡デバイスにおいてレンダリングするための動作の実施形態を示す図である。
【
図6】ユーザの視界の拡大ターゲット領域を表示して、ユーザの制御のために拡大ターゲット領域内の制御可能デバイスの拡張現実表現を提供するための動作の実施形態を示す図である。
【
図7】ユーザの制御のためにユーザの視界のターゲット領域内のデバイスの拡張現実表現をレンダリングするための動作の実施形態を示す図である。
【
図8】ユーザの視界内のデバイスに対する拡張現実表現がどのようにレンダリングされるかの例を示す図である。
【
図9】ユーザの視界内のデバイスに対する拡張現実表現がどのようにレンダリングされるかの例を示す図である。
【
図10】視線追跡デバイスにおいてレンダリングするために、デバイス提案機械学習モジュールから視界内のデバイスの情報を得るための動作の実施形態を示す図である。
【
図11】拡張現実表現によってレンダリングするためのデバイスを出力するためにデバイス提案機械学習モジュールをトレーニングするための動作の実施形態を示す図である。
【
図12】視線追跡デバイスにおいてレンダリングするための温度制御デバイスの情報を決定するための動作の実施形態を示す図である。
【
図13】
図1のコンポーネントが実装され得るコンピューティング環境を示す図である。
【発明を実施するための形態】
【0008】
「ARグラス」とも呼ばれる拡張現実視線追跡デバイスによって、視線追跡デバイスは拡張現実の視覚を用いてユーザの視界内のデバイスに対する補足情報を提供してもよい。視界が、たとえば非常に大きい製造施設または倉庫の中の多数の機械などの制御すべき多数のデバイスを有する大きな範囲に及ぶとき、ユーザは、ユーザから離れて見えるか、または他のデバイスとクラスタ化したデバイスを制御するためにデバイスを正確に選択して制御を指示することに困難を感じることがある。
【0009】
記載される実施形態は、周囲の視界が非常に大きくてユーザの視線における多数のデバイスを有し、結果としてユーザがデバイスを選択および制御することが困難な状況における、デバイスを制御するための拡張現実技術に対する改善を提供する。記載される実施形態は、ユーザが視界の所望のターゲット領域を選択し、次いでより視覚的に詳細に、ターゲット領域の拡大表示の拡張現実表現を通じてターゲット領域内のデバイスの情報もしくは表示を提供するか、またはユーザが制御するためのデバイスに対する画像および情報を提供することを可能にするための拡張現実技術に対する改善を提供する。視界のターゲット領域内のデバイスの強調された表示を提供することによって、ユーザはターゲット領域の拡張現実表現に提示されたそれらのデバイスをより容易に選択してそれらに対する制御を指示してもよい。
【0010】
図1は、ユーザの視線の軸上の視界内の制御可能デバイス102の拡張現実表現をレンダリングするように構成されたパーソナル・デバイス・コントローラ100の実施形態を示す。パーソナル・デバイス・コントローラ100は、プロセッサ104と、メイン・メモリ106と、ウェアラブル視線追跡デバイス110、制御可能デバイス102、モニタリング・システム134、およびデバイス提案システム140を含む外部デバイスと(無線通信または有線接続を介して)通信するための通信トランシーバ108と、パーソナル・デバイス・コントローラ100の外部の音声を入力として受信するためのマイクロホン112と、パーソナル・デバイス・コントローラ100のユーザに対するディスプレイ出力をレンダリングするためのディスプレイ・スクリーン114と、ユーザに対する音声出力を生成するためのスピーカ118と、ユーザ入力を受信するためのたとえばキーボードを含むボタンおよびその他のソフトウェアまたは機械的ボタンなどの入力制御装置116と、パーソナル・コンピュータ・デバイスのグローバル・ポジショニング・システム(GPS:global positioning system)の位置を決定するためのGPSモジュール120とを含む。コンポーネント104~120は、1つ以上のバス・インターフェース122を通じて通信してもよい。
【0011】
メイン・メモリ106は、パーソナル・デバイス・コントローラ100の動作を管理し、かつデバイス・コンポーネント104~120とインターフェースするためのオペレーティング・システム124;視界に重ね合わされた拡張現実表現、および視線追跡デバイス110によって取り込まれた視界128内でユーザが見ているサイトライン、視軸とも呼ばれる視線の軸の座標に対する情報をレンダリングして、注視される画像128を取得するアイ・トラッキング・カメラによって検出されたデバイス102を選択するか、または追跡される目が注視するデバイス102を選択するための視線追跡デバイス110とインターフェースするための視線トラッカ・プログラム126;ユーザの視線および手のジェスチャーをリアル・タイムで追跡および解釈し、手のジェスチャーおよび視線追跡を解釈することによってユーザが視界のターゲット領域または制御可能デバイス102に対する制御を選択することを可能にする、視線およびジェスチャー・インタープリタ128;ターゲット領域およびデバイス制御のユーザ選択を管理して、たとえばカメラを用いて制御可能デバイス102の画像を取り込むことおよび制御可能デバイス102と通信してデバイス制御の現在の状態を収集することなどによって制御可能デバイス102の情報を取り込むモニタリング・システム134に送信するためのデバイス情報要求200を生成するためのデバイス・マネージャ130;たとえば画像、説明などの制御可能デバイス102の情報を有する、デバイス情報要求200に応答してモニタリング・システム134またはデバイス102から受信されるデバイス情報300;受信されたデバイス情報300に基づいて、視線追跡デバイス110グラスにおけるユーザの視線の軸において制御可能デバイス102に対する拡張現実表現を生成するための拡張現実生成器136;および、たとえば同じまたは異なるデバイス102に対するユーザ制御が選択された後にデバイスにおいて行われるべきユーザ制御などの、デバイス102に対する関連ユーザ制御138を含むさまざまなプログラム・コンポーネントを含んでもよい。
【0012】
視線追跡デバイス110は、視線追跡デバイス110グラスまたはユーザが見るディスプレイに拡張現実表現を投影することを含む、コンピュータ100からの情報および拡張現実表現を表示するためのコンピュータ・ディスプレイ機能を含む。
【0013】
本明細書において用いられる「拡張現実」という用語は、現実世界の視界に重ね合わせて拡張現実画像および情報がレンダリングされる拡張現実、複合現実、およびその他の視覚的表現を示す。
【0014】
モニタリング・システム134は、制御可能デバイス102の情報を収集するインターネット・オブ・シングス(IoT)デバイスを含んでもよく、制御可能デバイス102もIoTにおいて通信する。さらに、制御可能デバイス102はインターネット・オブ・シングス(IoT)デバイスを含んでもよく、このインターネット・オブ・シングス(IoT)デバイスによって、パーソナル・デバイス・コントローラ100がトランシーバ108を介して直接通信して、デバイス102における制御の情報を得てもよい。
【0015】
パーソナル・デバイス・コントローラ100はデバイス提案システム140と通信して、視線追跡デバイス110においてレンダリングするための制御可能デバイス102の情報を得てもよい。デバイス提案システムは、動作を管理するためのマネージャ142と、視線追跡デバイス110においてレンダリングされた制御可能デバイスに対するユーザ制御を提出するユーザの結果に対する1つ以上のパーソナル・デバイス・コントローラ100から収集された履歴デバイス制御情報400とを含む。デバイス提案システム140は、ユーザと、ユーザが動作している環境の環境パラメータとに関係するパーソナル・デバイス・コントローラ100におけるユーザからの入力146を受信して、ユーザが制御するために視線追跡デバイス110においてレンダリングするための出力制御可能デバイス148を生成するためのデバイス提案機械学習モジュール(machine learning module)(「MLM」)144を含む。
【0016】
特定の実施形態において、デバイス提案MLM144は、たとえばディシジョン・ツリー学習、アソシエーション・ルール学習、ニューラル・ネットワーク、帰納プログラミング論理、サポート・ベクター・マシン、ベイズ(Bayesian)ネットワークなどの機械学習およびディープ・ラーニング・アルゴリズムを使用してもよい。人工ニューラル・ネットワーク・プログラムの実装に対して、ニューラル・ネットワークは逆方向伝播を用いてトレーニングされて、隠されたレイヤのノードにおける重みおよびバイアスを調整して計算出力148を生成してもよい。ニューラル・ネットワーク機械学習モジュールをトレーニングするために用いられる逆方向伝播において、隠されたレイヤのノードにおけるバイアスはそれに従って調整されて、たとえばユーザ情報およびユーザが動作している環境のパラメータなどの入力パラメータ146に基づいて指定された信頼水準を有する出力制御可能デバイス148を生成する。逆方向伝播は、勾配降下を用いた人工ニューラル・ネットワークの教師あり学習のためのアルゴリズムを含んでもよい。人工ニューラル・ネットワークおよび誤差関数が与えられるとき、この方法は、ニューラル・ネットワークの重みおよびバイアスに関する誤差関数の勾配を算出してもよい。
【0017】
たとえばデバイス提案MLM144などのニューラル・ネットワーク機械学習モジュールをトレーニングするために用いられる逆方向伝播において、算出された予測と、出力制御可能デバイス148が実際にユーザによって制御されたかどうかとの相違に基づいて、誤差の範囲が決定される。ユーザが出力制御可能デバイス148を制御したかどうかのこの情報を用いて、入力146に基づく出力制御可能デバイス148の信頼水準を修正してもよい。それに従って、隠されたレイヤのノードにおけるバイアスが調整されて、ユーザが制御しなかった視線追跡デバイス110においてレンダリングされた出力制御可能デバイス148に対する信頼水準が減少し、ユーザが実際に制御した視線追跡デバイス110においてレンダリングされた出力制御可能デバイス148に対する信頼水準が増加する。
【0018】
特定の実施形態において、デバイス提案MLM144は、履歴デバイス制御情報400からの入力146を用いてトレーニングされて、出力制御可能デバイス148を生成してもよい。
【0019】
代替的な実施形態において、デバイス提案MLM144は機械学習モジュールとして実装されずに、入力から出力を決定するためのルール・ベースのシステムを用いて実装されてもよい。
【0020】
図1において、デバイス提案MLM144およびデバイス提案マネージャ142は、別個のデバイス提案システム140において実装される。代替的な実施形態において、デバイス提案MLM144およびデバイス提案マネージャ142は、パーソナル・デバイス・コントローラ100において実装されてもよい。
【0021】
図1において、メモリ106内のコンポーネントおよびオブジェクトの間に示される矢印は、コンポーネント間のデータ・フローを表す。
【0022】
パーソナル・デバイス・コントローラ100は、視線追跡デバイス110を通じて観察されたユーザ情報を処理し得るスマート・フォン、パーソナル・デジタル・アシスタンス(PDA:personal digital assistance)、スマート・ウォッチ、または固定コンピュータ・デバイスを含んでもよい。さらなる実装において、パーソナル・デバイス・コントローラ100は視線追跡デバイス110の電子機器に統合されてもよい。
【0023】
トランシーバ108はBluetooth(登録商標)、Wi-Fi(登録商標)、セルラ、もしくはその他の通信技術、またはその組み合わせを含んでもよい。(Bluetooth(登録商標)はBluetooth SIG社の登録商標であり、WIFI(登録商標)はWi-Fiアライアンス(Wi-Fi Alliance)の商標である。)
【0024】
メモリ106は、不揮発性もしくは揮発性のメモリ・タイプまたはその両方を含んでもよく、それはたとえばフラッシュ・メモリ(フラッシュ・メモリ・セルのNANDダイ)、不揮発性デュアル・インライン・メモリ・モジュール(NVDIMM:non-volatile dual in-line memory module)、DIMM、スタティック・ランダム・アクセス・メモリ(SRAM:Static Random Access Memory)、強誘電体ランダム・アクセス・メモリ(FeTRAM:ferroelectric random-access memory)、ランダム・アクセス・メモリ(RAM)ドライブ、ダイナミックRAM(DRAM:Dynamic RAM)、ストレージクラス・メモリ(SCM:storage-class memory)、相変化メモリ(PCM:Phase Change Memory)、抵抗変化型ランダム・アクセス・メモリ(RRAM:resistive random access memory)、スピン・トランスファー・トルク・メモリ(STM-RAM:spin transfer torque memory)、導電性ブリッジRAM(CBRAM:conductive bridging RAM)、ナノワイヤ・ベースの不揮発性メモリ、磁気抵抗変化型ランダム・アクセス・メモリ(MRAM:magnetoresistive random-access memory)、およびその他の電気的消去可能プログラマブル・リード・オンリ・メモリ(EEPROM:electrically erasable programmable read only memory)タイプのデバイス、ハード・ディスク・ドライブ、取り外し可能なメモリ/ストレージ・デバイスなどである。
【0025】
バス122は、メモリ・バスまたはメモリ・コントローラ、ペリフェラル・バス、アクセラレーテッド・グラフィックス・ポート、およびさまざまなバス・アーキテクチャのいずれかを用いるプロセッサまたはローカル・バスを含むいくつかのタイプのバス構造のいずれか1つ以上を表す。限定ではなく例として、こうしたアーキテクチャは、インダストリ・スタンダード・アーキテクチャ(ISA:Industry Standard Architecture)バス、マイクロ・チャネル・アーキテクチャ(MCA:Micro Channel Architecture)バス、拡張ISA(EISA:Enhanced ISA)バス、ビデオ・エレクトロニクス・スタンダーズ・アソシエーション(VESA:Video Electronics Standards Association)ローカル・バス、およびペリフェラル・コンポーネント・インターコネクト(PCI:Peripheral Component Interconnects)バスを含む。
【0026】
一般的に、たとえばプログラム・コンポーネント124、126、128、130、136、142、144などのプログラム・モジュールは、特定のタスクを行うか、または特定の抽象データ・タイプを実装するルーチン、プログラム、オブジェクト、コンポーネント、論理、およびデータ構造などを含んでもよい。プログラム・モジュールは、通信ネットワークを通じてリンクされたリモート処理デバイスによってタスクが行われる分散型クラウド・コンピューティング環境において実施されてもよい。分散型クラウド・コンピューティング環境において、プログラム・モジュールは、メモリ・ストレージ・デバイスを含むローカルおよびリモートのコンピュータ・システム記憶媒体の両方に位置してもよい。
【0027】
図1のパーソナル・デバイス・コントローラ100のプログラム・コンポーネントおよびハードウェア・デバイスは、1つ以上のコンピュータ・システムにおいて実装されてもよい。それらが複数のコンピュータ・システムにおいて実装されるとき、それらのコンピュータ・システムはネットワークを通じて通信してもよい。
【0028】
プログラム・コンポーネント124、126、128、130、136、142、144は、実行のためにメモリ106からプロセッサによってアクセスされてもよい。代替的には、プログラム・コンポーネント124、126、128、130、136、142、144のいくつかまたはすべてが、たとえば特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)ハードウェア・デバイスなどの別個のハードウェア・デバイスにおいて実装されてもよい。
【0029】
プログラム・コンポーネント124、126、128、130、136、142、144によって行われると記載される機能は、示されるよりも少ないプログラム・モジュールにおけるプログラム・コードとして実装されるか、または示されるよりも多数のプログラム・モジュールにわたるプログラム・コードとして実装されてもよい。
【0030】
図2は、ユーザの視界内の制御可能デバイス102の情報を要求するためにデバイス・マネージャ130が一斉送信し得るデバイス情報要求200の実施形態を示し、このデバイス情報要求200は、制御可能デバイス要求コマンド202と、自身に対する情報が要求される制御可能デバイス102を有するターゲット領域の地理的座標204と、パーソナル・デバイス・コントローラ100の送信デバイス・アドレス206とを含む。
【0031】
図3は、デバイス情報要求200に応答してモニタリング・システム134から受信されたか、または制御可能デバイス102から直接受信されたデバイス情報300の実施形態を示し、このデバイス情報300は、制御可能デバイス名302または識別子と、デバイス制御の現在の状態の情報304と、デバイス302の画像およびデバイス制御の現在の状態306と、制御可能デバイス302の位置座標308と、デバイス・ネットワーク・アドレス310とを含む。
【0032】
図4は、自身に対する情報が視線追跡デバイス110においてレンダリングされる制御可能デバイス102のユーザ制御に基づいてデバイス・マネージャ130が生成する履歴デバイス制御情報400の実施形態を示し、この履歴デバイス制御情報400は、制御可能デバイス名402または識別子と、たとえば組織におけるユーザの役割、承認レベル、ユーザの位置座標などのユーザ情報404と、制御可能デバイスの位置座標406と、たとえば建物、時刻、温度、およびデバイスを制御する必要があることに関係するその他のビジネス動作条件などの環境条件408と、視線追跡デバイス110においてレンダリングされている間にユーザがデバイス402を制御するための制御を提出したかどうかを示す制御フラグ410とを含む。
【0033】
図5は、制御のためにパーソナル・デバイス・コントローラ100のユーザに対する視線追跡デバイス110において制御可能デバイス102の情報をレンダリングするために、デバイス・マネージャ130およびパーソナル・デバイス・コントローラ100の他のコンポーネントによって行われる動作の実施形態を示す。視線追跡デバイス110の表示において制御可能デバイス102の情報を提供するための動作を開始するとき(ブロック500)、デバイス・マネージャ130はGPSモジュール120からのユーザ位置座標を決定し(ブロック502)、視線追跡デバイス110からユーザの視線およびユーザの視線の座標軸を決定する(ブロック504)。
図6および
図7にさらに記載されるとおり、デバイス・マネージャ130は、視線追跡デバイスにおいて提示するためのユーザの視線における視界内の制御可能デバイス102を決定してもよい(ブロック506)。決定されたデバイスの情報は、たとえば実際の視界に重ね合わされた拡張現実表現などによって視線追跡デバイス110の表示にレンダリングされる(ブロック508)。デバイス・マネージャ130は視線およびジェスチャー・インタープリタ128から、視線追跡デバイス110において自身の情報がレンダリングされた決定されたデバイスのうちの1つを含むターゲット・デバイス102をリモート制御するためのユーザ制御を受信する(ブロック510)。視線およびジェスチャー・インタープリタ128は、ユーザの手の制御および目の動きを解釈して、ユーザが注視している制御可能デバイス102および選択されたユーザ制御を決定して、デバイス・マネージャ130に提供してもよい。受信された制御はターゲット・デバイス102に送信されて、ターゲット・デバイス102が制御される(ブロック512)。
【0034】
(ブロック514において)もし送信されたユーザ制御がターゲット・デバイス102で実行された後に行われるべきターゲット・デバイス102または別のデバイスの関連ユーザ制御138が存在すれば、次いでデバイス・マネージャ130は、送信されたユーザ制御がターゲット・デバイス102で実行された後にターゲット・デバイス110または別のデバイスで行われるべき関連ユーザ制御のたとえば拡張現実表現などの情報を視線追跡デバイス110においてレンダリングする(ブロック516)。(ブロック514において)もしターゲット・デバイス102に対する関連ユーザ制御138が存在しなければ、ただユーザ制御が実行され、次いで制御が終了する。
【0035】
図5の実施形態によって、視線追跡デバイス110における拡張現実表現を用いてユーザの視界内のデバイスの情報がレンダリングされ、ユーザのジェスチャーまたは視線が特定のデバイス・ユーザ制御として解釈され、次いでそれらのユーザ制御がターゲット・デバイス102に送信されることによって、ユーザがデバイスを制御できるようになる。このやり方で、記載される実施形態は、視線追跡デバイス110を用いて、ユーザが制御可能デバイス102のリモート制御を提供するためにユーザの視界内のデバイスを制御できるようにするための技術を提供する。たとえばユーザは、多数の機械で満たされた産業工場、またはサーバおよびストレージの多数のラックで満たされたサーバ・ファームなどにおいて視線追跡デバイス110を着用していてもよい。こうした場合に、ユーザは視線追跡デバイス110を用いてこれらの機械またはサーバを制御してもよい。
【0036】
さらに、関連ユーザ制御を識別することによって、ユーザに必要な関連動作を行うことを警告する。たとえば、ユーザがスイッチAを入れてから15分後にスイッチBを切る必要があるとき、視線追跡デバイス110は、スイッチAを入れてから15分後にスイッチBおよび関連制御をレンダリングすることによって、ユーザがスイッチBを切り得るように制御される。
【0037】
さらなる実施形態においては、ユーザが視界の遠くにあるデバイスを選択することが困難であるという判断に応答するときにのみ
図5~8の動作が行われてもよい。ユーザが視線追跡デバイス110を用いてより大きい視界内のデバイスを選択および制御することに困難を感じていないときは、
図5~8の動作が行われなくてもよい。
【0038】
図5の実施形態において、ユーザの視界内のデバイスの拡張現実表現と相互作用している間、視線追跡デバイス110はユーザの視線を継続的に識別し、それに従ってデバイス制御の拡張現実表現を表示してもよい。ユーザに対して表示されるデバイスは、ユーザの視線の変化に基づいて動的に変化することとなる。
【0039】
図5の実施形態において、拡張現実表現されるデバイス情報は、ユーザの視界において他のデバイス102または物体によって表示が遮られているデバイス102を含んでもよい。
【0040】
図6は、視界内の制御可能デバイス102の情報をレンダリングするための
図5のブロック506および508において行われる動作の一部として、パーソナル・デバイス・コントローラ100の視線およびジェスチャー・インタープリタ128と、視線トラッカ126と、拡張現実生成器136とによって行われる動作の実施形態を示す。視線およびジェスチャー・インタープリタ128がユーザの視線を追跡して、より大きい視界のサブセットである地理的座標を含むユーザの視界内のターゲット領域を決定するとき(ブロック600)、拡張現実生成器136はターゲット領域を拡大して、拡大されたターゲット領域を視線追跡デバイス110の表示において拡張現実表現として表示して、拡大されたターゲット領域内の制御可能デバイスを示してもよい(ブロック602)。ターゲット領域を拡大した後、
図5のブロック510以下に参照される動作が行われて、視界内の実際の物理的位置よりもユーザの近くに仮想的に位置する拡張現実表現として提示された拡大ターゲット領域においてレンダリングされたデバイス102をユーザが制御することが可能にされてもよい。
【0041】
図6の実施形態によって、ユーザは視界のサブセットであるターゲット領域を選択し、拡張現実を用いてそれを拡大することによって、ユーザが選択されたターゲット領域内のデバイス102に送信するための制御を生成するために手のジェスチャーまたは目の動きを用いる能力を高めてもよい。ターゲット領域内のデバイス102のサイズを拡大して、それらのデバイスを仮想的にユーザのより近くに配置することによって、拡大されたデバイスが視線追跡デバイス110の表示においてより大きく見えるため、ユーザはより容易に手のジェスチャーおよび目の動きを用いてデバイス102にユーザ制御を指示してもよい。
【0042】
図7は、視線追跡デバイス110の表示において重ね合わされる拡張現実画像としてレンダリングするためのターゲット領域内の制御可能デバイス102の情報を決定するための
図5のブロック506および508において行われる動作の一部として、たとえば視線トラッカ126、視線およびジェスチャー・インタープリタ128、デバイス・マネージャ130、および拡張現実生成器136などのパーソナル・デバイス・コントローラ100のコンポーネントによって行われる動作の実施形態を示す。手のジェスチャーまたはユーザが直接注視している領域を用いてユーザが選択したユーザの視線における視界のサブセットである地理的座標を含むターゲット領域が決定される(ブロック700)。ターゲット領域は、視線およびジェスチャー・インタープリタ128によって視界内のターゲット領域に向かう目の動きを追跡すること、または視界のターゲット領域を選択する手のジェスチャーを解釈すること、またはたとえばマイクロホン112を介した音声コマンドなどのその他の手段によって決定されてもよい。デバイス・マネージャ130は、トランシーバ108を介して、ターゲット領域の地理的座標に位置するデバイス102の情報を有するモニタリング・システム134に、たとえば一斉送信などによってデバイス情報要求200を送信する(ブロック702)。この送信は、視界内のすべてのモニタリング・システム134に向けたデバイス情報要求200の一斉送信を含んでもよく、ターゲット領域内の座標を有するデバイス102をモニタするモニタリング・システム134のみが、ターゲット領域内でモニタリング・システム134がモニタするデバイス102のデバイス情報300によって応答するだろう。ターゲット領域内のデバイス102をモニタしていないモニタリング・システム134は、要求200の送信を無視するだろう。
【0043】
次いでデバイス・マネージャ130は、トランシーバ108を介して、デバイスにおけるユーザ制御の現在の状態、デバイスおよびユーザ制御のクローズアップ画像を含む、ターゲット領域内の制御可能デバイス102に対するモニタリング・システム134からのデバイス情報応答300を受信する(ブロック704)。デバイス102に対するユーザ制御のレンダリングは、ユーザが操作または選択し得る仮想制御であってもよいし、デバイス102が制御パネルを有するときは制御パネルにおける制御の画像であってもよい。モニタリング・システム134は、たとえばリアル・タイムなどでデバイス102の画像を取り込むためのカメラを含んでもよいし、直接デバイス102と電子的に通信してそれらの制御の現在の状態を決定してもよい。拡張現実生成器136は、視線追跡デバイス110の表示にターゲット領域内のユーザ制御の現在の状態の情報を含む制御可能デバイス102の受信画像の拡張現実表現をレンダリングしてもよい(ブロック706)。受信画像の拡張現実表現は、ユーザの視線において実際の地理的位置にあるよりも近くに見えることによって、デバイス102の拡大表示を提供して、ユーザが拡大表示中に提示されるデバイスを選択してコマンドを指示することをより容易にしてもよい。
【0044】
図7の実施形態によって、ターゲット領域内のデバイス102をモニタするモニタリング・システム134から、選択されたターゲット領域内のデバイス102のリアル・タイム情報が収集されて、デバイス102における状態および制御の現在の情報ならびにターゲット・デバイス102の詳細な画像が提供されることによって、ユーザが目の動き、手のジェスチャー、音声コマンド、およびその他の手段を用いてターゲット・デバイス102を制御する能力が改善される。代替的な実施形態において、パーソナル・デバイス・コントローラ100はターゲット領域内のデバイス102と直接通信して、デバイス102におけるユーザ制御の現在の状態の情報を得てもよい。
【0045】
図8は、視線802において多数の制御可能デバイスを有する作業現場を見ているパーソナル・デバイス・コントローラ100のユーザ800の例を示す。視線追跡デバイス110は
図5、
図6、および
図7の動作を行って、選択されたターゲット領域806内の制御可能デバイスの拡大表現804をレンダリングしてもよく、その拡大表現804はユーザ800の視線802においてそれらの実際の位置よりも近くに大きく見える。拡大表現804は、視界内のターゲット領域806のカメラ・ズーム拡大(
図6)か、またはモニタリング・システム134および直接デバイス102によって提供されるターゲット領域806内のデバイスの画像の拡張現実表現(
図7)を含んでもよい。
【0046】
図9は、視線追跡デバイス110を用いてターゲット領域内の視線904の軸に沿ったデバイス902
1、902
2、902
3....902
nの拡張現実表現を見ている視線追跡デバイス110のユーザ900の例を示す。視線904の軸において第1のデバイス902
1に続くデバイス902
2...902
nは、可視であってもよいし、オブジェクトまたはその他の障害物によって見えなくされてもよい。
図9の例において、デバイス902
1、902
2、902
3....902
nの拡張現実表現はターゲット領域内のデバイス102の画像を含んでもよく、拡張現実表現906
1、906
2、906
3....906
nはたとえばユーザ制御の現在の状態などのデバイスの追加情報を含んでもよい。視線追跡デバイス110はさらに、ユーザが目の動き、手のジェスチャー、または音声コマンドを用いてデバイス902
1、902
2、902
3....902
nの拡張現実表現を通じた奥行きスクロールを行って、視線904のさらに遠くにある選択された拡張現実表現902
iが視線904において物理的により近いデバイス102よりも近くに大きく見えるようにすることを可能にしてもよい。
【0047】
さらなる実施形態において、ユーザは、たとえば手首の動きまたはその他の入力制御装置を介して動きを入力することなどによって、デバイスの拡張現実表現を順次選択するための奥行きスクロールを行ってもよい。選択された拡張現実表現を視線における第1の拡張現実表現と同様のより大きい寸法で表示することによって、選択された拡張現実表現はユーザに向かって移動するように見えるだろう。ユーザと選択された拡張現実表現との間の拡張現実表現は、視線において選択された拡張現実表現に続いて選択された拡張現実表現よりも小さく表示されることによって、遠くに移動するように見えるだろう。選択された拡張現実表現の寸法および追加のコンテンツを増加させることによって、ユーザが選択された拡張現実表現における追加の必要なコンテンツを視覚化できるようになる。
【0048】
さらなる奥行きまたはユーザからの距離における拡張現実表現9062....906nは、関連するデバイスのより少ない情報を伴ってより小さくレンダリングされる。選択されたデバイスの拡張現実表現は、選択されたデバイスに対するより多くの情報および説明をレンダリングするためにより大きい寸法を伴ってレンダリングされる。
【0049】
図8および
図9の実施形態によって、斜視図における異なる距離または奥行きにおける拡張現実表現を選択するためのユーザのジェスチャーもしくは音声コマンドまたはその両方によって、より良好な視認性のために選択されたオブジェクトをユーザの視線904において視覚的に前に動かすことができる。ある距離における拡張現実表現がユーザによって前に移動されるとき、その拡張現実表現に関連する追加のデジタル情報(現実世界のデバイスに関するより多くの情報を提供し得る)がユーザに示されることとなる。
【0050】
図10は、たとえば拡張現実表現などで視線追跡デバイス110の拡大表示にレンダリングするためのユーザの視界またはユーザに対するターゲット領域内のデバイス102を決定するために、パーソナル・デバイス・コントローラ100のデバイス・マネージャ130と、デバイス提案マネージャ142と、デバイス提案MLM144とによって行われる動作の実施形態を示す。デバイス提案システム140からレンダリングするためのデバイス102を決定するための動作を開始するとき(ブロック1000)、パーソナル・デバイス・コントローラ100のデバイス・マネージャ130は、たとえば現在の時間、ユーザのアイデンティティ、組織におけるユーザの役割、ユーザの承認レベル、ユーザの視界座標、ターゲット領域、ユーザの位置などの入力146をデバイス提案システム140に送信する(ブロック1002)。デバイス提案MLM144は受信された入力146を処理して、視界内のデバイスのうちの少なくとも1つのデバイス102と、施設またはターゲット領域と、出力されたデバイス148をユーザがリモート制御することとなる確率を示す出力デバイス148に対する信頼水準とを出力する(ブロック1004)。デバイス・マネージャ130は、出力デバイス148およびそれらの信頼水準を受信する(ブロック1006)。デバイス・マネージャ130は
図7の動作を行って、視線追跡デバイス110の表示にレンダリングするための信頼水準要件を満たす信頼水準を有する出力デバイスの情報を要求してもよい。代替的に、デバイス提案マネージャ142は、たとえば90%などの信頼水準要件を満たす信頼水準を有する出力デバイス148のみをパーソナル・デバイス・コントローラ100に返してもよい。
【0051】
図10の実施形態によって、パーソナル・デバイス・コントローラ100は、ユーザと、ユーザが動作している環境のパラメータと、この特定の状況においてユーザが制御を望むと考えられるデバイスの推定に関係するその他の情報とに基づいて、視線追跡デバイス110の表示における拡張現実表現にレンダリングするためのデバイス102を決定するために、デバイス提案MLM144を呼び出してもよい。デバイス提案MLM144を用いることによって、ユーザが所与の状況において最も制御を望むと考えられるデバイス102の拡張現実強調表現がユーザに提供される。
【0052】
一例において、デバイス提案MLM144は、ユーザが特定の時間に定期的に行う機械制御タスクを理解するためにユーザの挙動を分析するようにトレーニングされる。たとえば、ユーザは毎日午前9時にスイッチを入れてもよい。視線追跡デバイス110は、この挙動/パターンを学習した後は、午前9時にユーザに対してスイッチの仮想画像をレンダリングするように制御されて、たとえユーザがスイッチの方向を注視していなくてもユーザがスイッチを入れ得るようにしてもよい。
【0053】
図11は、視線追跡デバイス110における拡張現実表現としてレンダリングされたデバイス102を制御するか制御しないかを決定するユーザの新たな履歴デバイス制御情報400に基づいてデバイス提案MLM144を再トレーニングするために、デバイス提案マネージャ142およびデバイス提案MLM144によって行われる動作の実施形態を示す。デバイス提案システム140は、異なるユーザが動作させる複数のパーソナル・デバイス・コントローラ100から更新された履歴デバイス制御情報400を受信してもよい。デバイス提案MLM144をトレーニングするための動作を開始するとき、デバイス提案マネージャ142は、制御フラグ410に示されるとおり、ユーザがリモート制御した履歴デバイス制御情報400からの出力デバイスのポジティブ・トレーニング・セットと、制御フラグ410に示されるとおり、ユーザがリモート制御しなかった履歴デバイス制御情報400からの出力デバイスのネガティブ・トレーニング・セットとを生成する(ブロック1104)。ポジティブ・トレーニング・セットのデバイスを過去に出力するために用いられた受信入力に応答して、ポジティブ・トレーニング・セットのデバイスに対して決定された信頼水準よりも高い信頼水準を有するポジティブ・トレーニング・セットのデバイスを出力するように、デバイス提案MLM144が再トレーニングされる(ブロック1106)。ネガティブ・トレーニング・セットのデバイスを過去に出力するために用いられた受信入力に応答して、ネガティブ・トレーニング・セットのデバイスに対して決定された信頼水準よりも低い信頼水準を有するネガティブ・トレーニング・セットのデバイスを出力するように、デバイス提案MLM144が再トレーニングされる(ブロック1108)。
【0054】
デバイス提案MLM144の人工ニューラル・ネットワーク・プログラムの実装に対して、ニューラル・ネットワーク144は逆方向伝播を用いてトレーニングされて、隠されたレイヤのノードにおける重みおよびバイアスを調整して計算出力を生成してもよい。ニューラル・ネットワーク機械学習モジュールをトレーニングするために用いられる逆方向伝播において、隠されたレイヤのノードにおけるバイアスはそれに従って調整されて、過去に出力148を生成するために用いられた入力146に基づいて指定された信頼水準を有するデバイス102を生成する。逆方向伝播は、勾配降下を用いた人工ニューラル・ネットワークの教師あり学習のためのアルゴリズムを含んでもよい。人工ニューラル・ネットワークおよび誤差関数が与えられるとき、この方法は、ニューラル・ネットワークの重みおよびバイアスに関する誤差関数の勾配を算出してもよい。
【0055】
図11の実施形態によって、デバイス提案MLM144は継続的に再トレーニングされることによって、特定の入力146に基づいて出力されるデバイスと、その出力デバイスに対して決定される信頼水準とを改善して、ユーザが制御したいと考えられるデバイスのみがユーザに提示され、ユーザが制御しないと考えられるデバイスの拡張現実表現は提示されなくなる可能性を増加させてもよい。
【0056】
図12は、デバイス提案MLM144を用いて、視線追跡デバイス110のユーザの健康パラメータに基づいて温度制御デバイスを提案するときに行われる動作の実施形態を示す。温度制御動作を開始するとき(ブロック1200)、ユーザから測定された生体健康パラメータ(例、体温、血圧、酸素レベルなど)と、閉鎖空間において利用可能な温度制御の情報とがデバイス提案MLM144に入力されて(ブロック1202)、閉鎖空間内の温度を制御するためにユーザがリモート制御し得る温度制御デバイスが出力される。デバイス・マネージャ130は、デバイス提案MLM144から出力温度制御デバイスの情報を受信して(ブロック1204)、視線追跡デバイス110の表示に温度制御デバイスの受信された情報をレンダリングする(ブロック1206)。デバイス・マネージャ130は、視線追跡デバイスにおいて自身の情報がレンダリングされた決定された温度制御デバイスをリモート制御するためのユーザ温度制御を受信する(ブロック1208)。ユーザ制御は、視線およびジェスチャー・インタープリタ128が目の動きおよび手のジェスチャーを追跡することによって検出されてもよい。デバイス・マネージャ130は、受信されたユーザ温度制御を自身に対する制御が受信された温度制御デバイスに送信する(ブロック1210)。
【0057】
図12の実施形態によって、デバイス提案MLM144は入力として、たとえばスマート・ウォッチまたはその他のウェアラブル・デバイスを介して測定されたものなどの、リアル・タイムで測定されたユーザの健康パラメータを受信してもよく、次いでその情報を用いて、入力ユーザ健康パラメータに示されるとおり、それらの測定された健康パラメータがユーザが不快を感じていることを示しており、かつユーザが位置する温度制御された閉鎖空間に対する温度制御を変更することによってその不快感を軽減し得るときは、ユーザに温度制御デバイスを制御することを提案するべきかどうかを決定してもよい。
【0058】
本発明は、システム、方法、もしくはコンピュータ・プログラム製品、またはその組み合わせであってもよい。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ可読プログラム命令を有するコンピュータ可読記憶媒体(または複数の媒体)を含んでもよい。
【0059】
コンピュータ可読記憶媒体は、命令実行デバイスによって使用するための命令を保持および記憶できる有形デバイスであり得る。コンピュータ可読記憶媒体は、たとえば電子ストレージ・デバイス、磁気ストレージ・デバイス、光ストレージ・デバイス、電磁気ストレージ・デバイス、半導体ストレージ・デバイス、または前述の任意の好適な組み合わせなどであってもよいが、それに限定されない。コンピュータ可読記憶媒体のより具体的な例の非網羅的なリストは以下を含む。ポータブル・コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、リード・オンリ・メモリ(ROM)、消去可能プログラマブル・リード・オンリ・メモリ(EPROMまたはフラッシュ・メモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク・リード・オンリ・メモリ(CD-ROM:compact disc read-only memory)、デジタル多用途ディスク(DVD:digital versatile disk)、メモリ・スティック(登録商標)、フレキシブル・ディスク、機械的にコード化されたデバイス、たとえばパンチ・カードまたは記録された命令を有する溝の中の隆起構造体など、および前述の任意の好適な組み合わせ。本明細書において用いられるコンピュータ可読記憶媒体は、たとえば電波もしくはその他の自由に伝播する電磁波、導波路もしくはその他の伝送媒体を通じて伝播する電磁波(例、光ファイバ・ケーブルを通過する光パルス)、またはワイヤを通じて伝送される電気信号など、それ自体が一時的な信号であると解釈されるべきではない。
【0060】
本明細書に記載されるコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理デバイスにダウンロードされ得るか、あるいはたとえばインターネット、ローカル・エリア・ネットワーク、広域ネットワーク、もしくは無線ネットワーク、またはその組み合わせなどのネットワークを介して外部コンピュータまたは外部ストレージ・デバイスにダウンロードされ得る。ネットワークは銅伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、もしくはエッジ・サーバ、またはその組み合わせを含んでもよい。各コンピューティング/処理デバイス内のネットワーク・アダプタ・カードまたはネットワーク・インターフェースは、ネットワークからコンピュータ可読プログラム命令を受信して、そのコンピュータ可読プログラム命令をそれぞれのコンピューティング/処理デバイス内のコンピュータ可読記憶媒体に記憶するために転送する。
【0061】
本発明の動作を実行するためのコンピュータ可読プログラム命令はアセンブラ命令、命令セット・アーキテクチャ(ISA:instruction-set-architecture)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、または1つ以上のプログラミング言語の任意の組み合わせで書かれたソース・コードもしくはオブジェクト・コードであってもよく、このプログラミング言語はオブジェクト指向プログラミング言語、たとえばJava(登録商標)、Smalltalk(登録商標)、またはC++など、および従来の手続き型プログラミング言語、たとえば「C」プログラミング言語または類似のプログラミング言語などを含む。コンピュータ可読プログラム命令は、すべてがユーザのコンピュータで実行されてもよいし、スタンドアロン・ソフトウェア・パッケージとして部分的にユーザのコンピュータで実行されてもよいし、一部がユーザのコンピュータで、一部がリモート・コンピュータで実行されてもよいし、すべてがリモート・コンピュータまたはサーバで実行されてもよい。後者のシナリオにおいて、リモート・コンピュータは、ローカル・エリア・ネットワーク(LAN:local area network)または広域ネットワーク(WAN:wide area network)を含む任意のタイプのネットワークを通じてユーザのコンピュータに接続されてもよいし、(たとえば、インターネット・サービス・プロバイダを用いてインターネットを通じて)外部コンピュータへの接続が行われてもよい。いくつかの実施形態において、たとえばプログラマブル論理回路、フィールド・プログラマブル・ゲート・アレイ(FPGA:field-programmable gate arrays)、またはプログラマブル論理アレイ(PLA:programmable logic arrays)などを含む電子回路は、本発明の態様を行うために電子回路をパーソナライズするためのコンピュータ可読プログラム命令の状態情報を使用することによって、コンピュータ可読プログラム命令を実行してもよい。
【0062】
本明細書において、本発明の実施形態による方法、装置(システム)、およびコンピュータ・プログラム製品のフローチャート図もしくはブロック図またはその両方を参照して、本発明の態様が説明される。フローチャート図もしくはブロック図またはその両方の各ブロック、およびフローチャート図もしくはブロック図またはその両方におけるブロックの組み合わせは、コンピュータ可読プログラム命令によって実装され得ることが理解されるだろう。
【0063】
これらのコンピュータ可読プログラム命令は、汎用目的のコンピュータか、特定目的のコンピュータか、またはマシンを生成するためのその他のプログラマブル・データ処理装置のプロセッサに提供されることによって、そのコンピュータまたはその他のプログラマブル・データ処理装置のプロセッサを介して実行される命令が、フローチャートもしくはブロック図またはその両方の単数または複数のブロックにおいて指定される機能/動作を実装するための手段を生じてもよい。これらのコンピュータ可読プログラム命令は、コンピュータ、プログラマブル・データ処理装置、もしくはその他のデバイス、またはその組み合わせに特定の方式で機能するように指示できるコンピュータ可読記憶媒体にも記憶されることによって、命令が記憶されたコンピュータ可読記憶媒体が、フローチャートもしくはブロック図またはその両方の単数または複数のブロックにおいて指定される機能/動作の態様を実装する命令を含む製造物を含んでもよい。
【0064】
コンピュータ可読プログラム命令は、コンピュータ、他のプログラマブル・データ処理装置、または他のデバイスにもロードされて、コンピュータに実装されるプロセスを生成するためにコンピュータ、他のプログラマブル装置、または他のデバイスにおいて一連の動作ステップを行わせることによって、そのコンピュータ、他のプログラマブル装置、または他のデバイスにおいて実行される命令が、フローチャートもしくはブロック図またはその両方の単数または複数のブロックにおいて指定される機能/動作を実装してもよい。
【0065】
図面におけるフローチャートおよびブロック図は、本発明のさまざまな実施形態によるシステム、方法、およびコンピュータ・プログラム製品の可能な実装のアーキテクチャ、機能、および動作を示すものである。これに関して、フローチャートまたはブロック図の各ブロックは、命令のモジュール、セグメント、または一部分を表してもよく、これは指定される論理機能(単数または複数)を実装するための1つ以上の実行可能命令を含む。いくつかの代替的実装において、ブロック内に示される機能は、図面に示されるものとは異なる順序で起こってもよい。たとえば、連続して示される2つのブロックは、実際には実質的に同時に実行されてもよく、または関与する機能に依存して、これらのブロックがときには逆の順序で実行されてもよい。加えて、ブロック図もしくはフローチャート図またはその両方の各ブロック、およびブロック図もしくはフローチャート図またはその両方のブロックの組み合わせは、指定された機能もしくは動作を行うか、または特定目的のハードウェアおよびコンピュータ命令の組み合わせを実行する特定目的のハードウェア・ベースのシステムによって実装され得ることが注目されるだろう。
【0066】
図1のパーソナル・デバイス・コントローラ、視線追跡デバイス110、制御可能デバイス102、モニタリング・システム134、およびデバイス提案システム140を含むコンピュータのコンポーネントは、たとえば
図13に示されるコンピュータ・システム1302などの1つ以上のコンピュータ・システムによって実装されてもよい。コンピュータ・システム/サーバ1302は、コンピュータ・システムによって実行されるたとえばプログラム・モジュールなどのコンピュータ・システム実行可能命令の一般的な文脈で説明されてもよい。一般的に、プログラム・モジュールは、特定のタスクを実行するか、または特定の抽象データ・タイプを実装するルーチン、プログラム、オブジェクト、コンポーネント、論理、およびデータ構造などを含んでもよい。コンピュータ・システム/サーバ1302は、通信ネットワークを通じてリンクされたリモート処理デバイスによってタスクが行われる分散型クラウド・コンピューティング環境において実施されてもよい。分散型クラウド・コンピューティング環境において、プログラム・モジュールは、メモリ・ストレージ・デバイスを含むローカルおよびリモートのコンピュータ・システム記憶媒体の両方に位置してもよい。
【0067】
図13に示されるとおり、コンピュータ・システム/サーバ1302は汎用目的のコンピュータ・デバイスの形態で示される。コンピュータ・システム/サーバ1302のコンポーネントは、1つ以上のプロセッサまたは処理ユニット1304、システム・メモリ1306、およびシステム・メモリ1306を含むさまざまなシステム・コンポーネントをプロセッサ1304に結合するバス1308を含んでもよいが、それらに限定されない。バス1308は、メモリ・バスまたはメモリ・コントローラ、ペリフェラル・バス、アクセラレーテッド・グラフィックス・ポート、およびさまざまなバス・アーキテクチャのいずれかを用いるプロセッサまたはローカル・バスを含むいくつかのタイプのバス構造のいずれか1つ以上を表す。限定ではなく例として、こうしたアーキテクチャは、インダストリ・スタンダード・アーキテクチャ(ISA)バス、マイクロ・チャネル・アーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオ・エレクトロニクス・スタンダーズ・アソシエーション(VESA)ローカル・バス、およびペリフェラル・コンポーネント・インターコネクト(PCI)バスを含む。
【0068】
コンピュータ・システム/サーバ1302は通常、さまざまなコンピュータ・システム可読媒体を含む。こうした媒体は、コンピュータ・システム/サーバ1302がアクセス可能な任意の利用可能な媒体であってもよく、それは揮発性および不揮発性媒体、取り外し可能および取り外し不可能媒体の両方を含む。
【0069】
システム・メモリ1306は、たとえばランダム・アクセス・メモリ(RAM)1310もしくはキャッシュ・メモリ1312またはその両方などの揮発性メモリの形態のコンピュータ・システム可読媒体を含み得る。コンピュータ・システム/サーバ1302は、他の取り外し可能/取り外し不可能な揮発性/不揮発性コンピュータ・システム記憶媒体をさらに含んでもよい。単なる例として、取り外し不可能な不揮発性磁気媒体(図示せず、通常「ハード・ドライブ」と呼ばれる)からの読取りおよびそこへの書込みのために、ストレージ・システム1313が提供され得る。示されていないが、取り外し可能な不揮発性磁気ディスク(例、「フレキシブル・ディスク」)からの読取りおよびそこへの書込みのための磁気ディスク・ドライブ、ならびにたとえばCD-ROM、DVD-ROM、またはその他の光媒体などの取り外し可能な不揮発性光ディスクからの読取りまたはそこへの書込みのための光ディスク・ドライブが提供され得る。こうした場合に、各々は1つ以上のデータ媒体インターフェースによってバス1308に接続され得る。以下にさらに示されて説明されるとおり、メモリ1306は、本発明の実施形態の機能を実行するように構成されたプログラム・モジュールのセット(例、少なくとも1つ)を有する少なくとも1つのプログラム製品を含んでもよい。
【0070】
プログラム・モジュール1316のセット(少なくとも1つ)を有するプログラム/ユーティリティ1314は、限定ではなく例としてメモリ1306に記憶されてもよく、加えてオペレーティング・システム、1つ以上のアプリケーション・プログラム、その他のプログラム・モジュール、およびプログラム・データが記憶されてもよい。オペレーティング・システム、1つ以上のアプリケーション・プログラム、その他のプログラム・モジュール、およびプログラム・データ、またはそれらの何らかの組み合わせの各々は、ネットワーク形成環境の実装を含んでもよい。コンピュータ1302のコンポーネントは、一般的に本明細書に記載される本発明の実施形態の機能もしくは方法またはその両方を実行するプログラム・モジュール1316として実装されてもよい。
図1のシステムは、1つ以上のコンピュータ・システム1302に実装されてもよく、それらが複数のコンピュータ・システム1302に実装されるときは、それらのコンピュータ・システムがネットワークを通じて通信してもよい。
【0071】
コンピュータ・システム/サーバ1302は、たとえばキーボード、ポインティング・デバイス、ディスプレイ1320など;ユーザがコンピュータ・システム/サーバ1302と対話することを可能にする1つ以上のデバイス;もしくはコンピュータ・システム/サーバ1302が1つ以上の他のコンピュータ・デバイスと通信することを可能にする任意のデバイス(例、ネットワーク・カード、モデムなど)、またはその組み合わせなどの1つ以上の外部デバイス1318とも通信してもよい。こうした通信は、入力/出力(I/O:Input/Output)インターフェース1322を介してもたらされ得る。さらにコンピュータ・システム/サーバ1302は、ネットワーク・アダプタ1324を介して、たとえばローカル・エリア・ネットワーク(LAN)、一般的な広域ネットワーク(WAN)、もしくは公共ネットワーク(例、インターネット)、またはその組み合わせなどの1つ以上のネットワークと通信し得る。示されるとおり、ネットワーク・アダプタ1324は、バス1308を介してコンピュータ・システム/サーバ1302のその他のコンポーネントと通信する。示されていないが、コンピュータ・システム/サーバ1302と共に他のハードウェアもしくはソフトウェア・コンポーネントまたはその両方が用いられ得ることが理解されるべきである。その例はマイクロコード、デバイス・ドライバ、冗長処理ユニット、外部ディスク・ドライブ・アレイ、RAIDシステム、テープ・ドライブ、およびデータ・アーカイバル・ストレージ・システムなどを含むが、それに限定されない。
【0072】
エレメントのいくつかのインスタンスを示すために用いられる、たとえばiおよびnなどの文字指示子は、同じまたは異なるエレメントと共に用いられるときにそのエレメントのインスタンスの変数を示してもよい。
【0073】
「ある実施形態(an embodiment)」、「実施形態(embodiment)」、「複数の実施形態(embodiments)」、「その実施形態(the embodiment)」、「それらの実施形態(the embodiments)」、「1つ以上の実施形態(one or more embodiments)」、「いくつかの実施形態(some embodiments)」、および「一実施形態(one embodiment)」という用語は、別様に明確に指定されていない限り、「本発明(単数または複数)の1つ以上(だがすべてではない)の実施形態」を意味する。
【0074】
「含む(including)」、「含む(comprising)」、「有する(having)」という用語およびそれらの変形は、別様に明確に指定されない限り、「含むがそれに限定されない」を意味する。
【0075】
列挙される項目のリストは、別様に明確に指定されない限り、任意またはすべての項目が互いに排他的であることを意味するものではない。
【0076】
「a」、「an」、および「the」という用語は、別様に明確に指定されない限り、「1つ以上」を意味する。
【0077】
別様に明確に指定されない限り、互いに通信するデバイスは、互いに継続的に通信する必要はない。加えて、互いに通信するデバイスは直接通信してもよいし、1つ以上の中間物を通じて間接的に通信してもよい。
【0078】
互いに通信するいくつかのコンポーネントを有する実施形態の記載は、こうしたコンポーネントがすべて必要であることを意味するものではない。反対に、本発明の多様な可能な実施形態を例示するためにさまざまな任意のコンポーネントが記載されている。
【0079】
本明細書において単一のデバイスまたは物品が記載されるとき、単一のデバイス/物品の代わりに2つ以上のデバイス/物品(それらが協働してもしなくても)が用いられてもよいことが容易に明らかとなるだろう。同様に、本明細書において2つ以上のデバイスまたは物品が記載されるとき(それらが協働してもしなくても)、2つ以上のデバイスまたは物品の代わりに単一のデバイス/物品が用いられてもよいし、示される数のデバイスまたは物品の代わりに異なる数のデバイス/物品が用いられてもよいことが容易に明らかとなるだろう。あるデバイスの機能もしくは特徴またはその両方が、こうした機能/特徴を有することが明確に記載されていない1つ以上の他のデバイスによって代替的に具現化されてもよい。よって、本発明の他の実施形態はそのデバイス自体を含む必要はない。
【0080】
本発明のさまざまな実施形態の前述の記載は、例示および説明の目的のために提供されたものである。それは網羅的になったり、開示される厳密な形に本発明を限定したりすることは意図されていない。上記の教示に鑑みて、多くの修正および変更が可能である。本発明の範囲は、この詳細な説明ではなく、添付される請求項によって限定されることが意図される。上記の明細書、実施例、およびデータは、本発明の構成の製造および使用の完全な説明を提供する。本発明の思想および範囲から逸脱することなく本発明の多くの実施形態が作成され得るため、本発明は本明細書の後ろに添付される請求項に存在する。
【手続補正書】
【提出日】2024-03-08
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
リモート制御するために視界内の制御可能デバイスの情報を視線追跡デバイスにおいてレンダリングするためのコンピュータ・プログラ
ムであって、前記コンピュータ・プログラ
ムは、コンピュータに、
ユーザ位置に基づいてユーザの前記視線追跡デバイスから視界を決定することと、
前記視線追跡デバイスにおいてレンダリングするために前記ユーザがリモート制御し得る前記視界内のデバイスを決定することと、
前記決定されたデバイスの情報の拡張現実表現を前記視線追跡デバイスの表示にレンダリングすることと、
前記視線追跡デバイスにおいて自身の情報がレンダリングされた前記決定されたデバイスのうちの1つを含むターゲット・デバイスをリモート制御するためのユーザ制御を受信することと、
前記受信されたユーザ制御を前記ターゲット・デバイスに送信して前記ターゲット・デバイスを制御することと
を
実行させる、コンピュータ・プログラ
ム。
【請求項2】
前記コンピュータに、
前記ユーザの視線における前記視界のサブセットである地理的座標を含むターゲット領域を決定することと、
前記ターゲット領域の前記地理的座標に位置するデバイスの情報を有する少なくとも1つのシステムに要求を送信することと、
前記少なくとも1つのシステムから、前記ターゲット領域内のデバイスおよび前記デバイスのユーザ制御を示す少なくとも1つの応答を受信することとをさらに
実行させ、前記少なくとも1つの応答において示される前記デバイスが前記決定されたデバイスを含み、前記視線追跡デバイスの前記表示における情報の前記レンダリングされた拡張現実表現が、前記少なくとも1つの応答において示される前記ユーザ制御を含む、請求項1に記載のコンピュータ・プログラ
ム。
【請求項3】
前記少なくとも1つの応答が前記ターゲット領域内の前記デバイスの前記ユーザ制御の現在の状態を示し、情報の前記レンダリングされた拡張現実表現が、前記ユーザの前記視界内の拡張現実画像としてレンダリングされた前記デバイスの前記ユーザ制御の前記現在の状態を含む、請求項2に記載のコンピュータ・プログラ
ム。
【請求項4】
前記デバイスの前記ユーザ制御の前記現在の状態の情報の前記レンダリングされた拡張現実表現が、前記ユーザ制御の前記現在の状態を決定するために前記少なくとも1つのシステムにおける少なくとも1つのカメラまたは前記ターゲット領域内の前記デバイスと通信する前記少なくとも1つのシステムによって取り込まれた前記デバイスの前記ユーザ制御の画像を含む、請求項3に記載のコンピュータ・プログラ
ム。
【請求項5】
前記視線追跡デバイスにおいて自身の情報がレンダリングされた前記ターゲット領域内の前記決定されたデバイスが、前記ユーザの前記視界において別のデバイスによって遮られている少なくとも1つのデバイスを含む、請求項2に記載のコンピュータ・プログラ
ム。
【請求項6】
前記デバイスを前記決定することが、
機械学習モジュールにおいて、現在の時間、前記ユーザのアイデンティティ、組織における前記ユーザの役割、ユーザの承認レベル、前記ユーザが過去に制御した前記視界内のデバイスおよびそれらが制御された時間を含む入力のセットのメンバーである複数の入力を受信することと、
前記機械学習モジュールによって、前記受信された入力を処理して前記視界内の前記デバイスのうちの少なくとも1つのデバイスを出力することとを含み、前記出力された少なくとも1つのデバイスが、前記視線追跡デバイスの前記表示に自身の情報がレンダリングされた前記決定されたデバイスを含む、請求項1に記載のコンピュータ・プログラ
ム。
【請求項7】
前記コンピュータに、
前記出力された少なくとも1つのデバイスをユーザがリモート制御することとなる確率を示す、前記出力された少なくとも1つのデバイスに対する信頼水準を決定することと、
前記ユーザがリモート制御した前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのポジティブ・トレーニング・セットと、前記ユーザがリモート制御しなかった前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのネガティブ・トレーニング・セットとを決定することと、
前記受信された入力に応答して、前記ポジティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも高い信頼水準を有する前記ポジティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと、
前記受信された入力に応答して、前記ネガティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも低い信頼水準を有する前記ネガティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと
をさらに
実行させる、請求項6に記載のコンピュータ・プログラ
ム。
【請求項8】
前記コンピュータに、
前記ターゲット・デバイスに前記ユーザ制御を送信したことに応答して、前記ユーザ制御が前記ターゲット・デバイスに送信された後に行われるべき前記ターゲット・デバイスまたは別のデバイスの関連ユーザ制御を決定することと、
前記視線追跡デバイスにおいて、前記ユーザ制御が前記ターゲット・デバイスに送信された後に前記ターゲット・デバイスまたは別のデバイスにおいて行われるべき前記関連ユーザ制御の情報の拡張現実表現をレンダリングすることと
をさらに
実行させる、請求項1に記載のコンピュータ・プログラ
ム。
【請求項9】
前記ユーザ位置が温度制御された閉鎖空間内にあり、
前記コンピュータに、
前記ユーザから測定された生体健康パラメータと、前記閉鎖空間の温度を制御するために前記閉鎖空間において利用可能な温度制御の情報とを機械学習モジュールに入力して、前記閉鎖空間内の前記温度を制御するために前記ユーザがリモート制御し得る温度制御デバイスを出力することと、
前記出力された温度制御デバイスを制御するために選択するために、前記視線追跡デバイスの前記ユーザに対する前記視線追跡デバイスの前記表示に前記出力された温度制御デバイスの拡張現実表現をレンダリングすることと
をさらに
実行させる、請求項1に記載のコンピュータ・プログラ
ム。
【請求項10】
リモート制御するために視界内の制御可能デバイスの情報を視線追跡デバイスにおいてレンダリングするためのシステムであって、
プロセッサと、
前記プロセッサによって実行されるときに動作を行うコンピュータ可読プログラム・コードが具現化されたコンピュータ可読記憶媒体とを含み、前記動作が、
ユーザ位置に基づいてユーザの前記視線追跡デバイスから視界を決定することと、
前記視線追跡デバイスにおいてレンダリングするために前記ユーザがリモート制御し得る前記視界内のデバイスを決定することと、
前記決定されたデバイスの情報の拡張現実表現を前記視線追跡デバイスの表示にレンダリングすることと、
前記視線追跡デバイスにおいて自身の情報がレンダリングされた前記決定されたデバイスのうちの1つを含むターゲット・デバイスをリモート制御するためのユーザ制御を受信することと、
前記受信されたユーザ制御を前記ターゲット・デバイスに送信して前記ターゲット・デバイスを制御することと
を含む、システム。
【請求項11】
前記動作が、
前記ユーザの視線における前記視界のサブセットである地理的座標を含むターゲット領域を決定することと、
前記ターゲット領域の前記地理的座標に位置するデバイスの情報を有する少なくとも1つのシステムに要求を送信することと、
前記少なくとも1つのシステムから、前記ターゲット領域内のデバイスおよび前記デバイスのユーザ制御を示す少なくとも1つの応答を受信することとをさらに含み、前記少なくとも1つの応答において示される前記デバイスが前記決定されたデバイスを含み、前記視線追跡デバイスの前記表示における情報の前記レンダリングされた拡張現実表現が、前記少なくとも1つの応答において示される前記ユーザ制御を含む、請求項10に記載のシステム。
【請求項12】
前記少なくとも1つの応答が前記ターゲット領域内の前記デバイスの前記ユーザ制御の現在の状態を示し、情報の前記レンダリングされた拡張現実表現が、前記ユーザの前記視界内の拡張現実画像としてレンダリングされた前記デバイスの前記ユーザ制御の前記現在の状態を含む、請求項11に記載のシステム。
【請求項13】
前記デバイスを前記決定することが、
機械学習モジュールにおいて、現在の時間、前記ユーザのアイデンティティ、組織における前記ユーザの役割、ユーザの承認レベル、前記ユーザが過去に制御した前記視界内のデバイスおよびそれらが制御された時間を含む入力のセットのメンバーである複数の入力を受信することと、
前記機械学習モジュールによって、前記受信された入力を処理して前記視界内の前記デバイスのうちの少なくとも1つのデバイスを出力することとを含み、前記出力された少なくとも1つのデバイスが、前記視線追跡デバイスの前記表示に自身の情報がレンダリングされた前記決定されたデバイスを含む、請求項10に記載のシステム。
【請求項14】
前記動作が、
前記出力された少なくとも1つのデバイスをユーザがリモート制御することとなる確率を示す、前記出力された少なくとも1つのデバイスに対する信頼水準を決定することと、
前記ユーザがリモート制御した前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのポジティブ・トレーニング・セットと、前記ユーザがリモート制御しなかった前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのネガティブ・トレーニング・セットとを決定することと、
前記受信された入力に応答して、前記ポジティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも高い信頼水準を有する前記ポジティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと、
前記受信された入力に応答して、前記ネガティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも低い信頼水準を有する前記ネガティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと
をさらに含む、請求項13に記載のシステム。
【請求項15】
前記動作が、
前記ターゲット・デバイスに前記ユーザ制御を送信したことに応答して、前記ユーザ制御が前記ターゲット・デバイスに送信された後に行われるべき前記ターゲット・デバイスまたは別のデバイスの関連ユーザ制御を決定することと、
前記視線追跡デバイスにおいて、前記ユーザ制御が前記ターゲット・デバイスに送信された後に前記ターゲット・デバイスまたは別のデバイスにおいて行われるべき前記関連ユーザ制御の情報の拡張現実表現をレンダリングすることと
をさらに含む、請求項10に記載のシステム。
【請求項16】
リモート制御するために視界内の制御可能デバイスの情報を視線追跡デバイスにおいてレンダリングするための方法であって、
ユーザ位置に基づいてユーザの前記視線追跡デバイスから視界を決定することと、
前記視線追跡デバイスにおいてレンダリングするために前記ユーザがリモート制御し得る前記視界内のデバイスを決定することと、
前記決定されたデバイスの情報の拡張現実表現を前記視線追跡デバイスの表示にレンダリングすることと、
前記視線追跡デバイスにおいて自身の情報がレンダリングされた前記決定されたデバイスのうちの1つを含むターゲット・デバイスをリモート制御するためのユーザ制御を受信することと、
前記受信されたユーザ制御を前記ターゲット・デバイスに送信して前記ターゲット・デバイスを制御することと
を含む、方法。
【請求項17】
前記ユーザの視線における前記視界のサブセットである地理的座標を含むターゲット領域を決定することと、
前記ターゲット領域の前記地理的座標に位置するデバイスの情報を有する少なくとも1つのシステムに要求を送信することと、
前記少なくとも1つのシステムから、前記ターゲット領域内のデバイスおよび前記デバイスのユーザ制御を示す少なくとも1つの応答を受信することとをさらに含み、前記少なくとも1つの応答において示される前記デバイスが前記決定されたデバイスを含み、前記視線追跡デバイスの前記表示における情報の前記レンダリングされた拡張現実表現が、前記少なくとも1つの応答において示される前記ユーザ制御を含む、請求項16に記載の方法。
【請求項18】
前記少なくとも1つの応答が前記ターゲット領域内の前記デバイスの前記ユーザ制御の現在の状態を示し、情報の前記レンダリングされた拡張現実表現が、前記ユーザの前記視界内の拡張現実画像としてレンダリングされた前記デバイスの前記ユーザ制御の前記現在の状態を含む、請求項17に記載の方法。
【請求項19】
前記デバイスを前記決定することが、
機械学習モジュールにおいて、現在の時間、前記ユーザのアイデンティティ、組織における前記ユーザの役割、ユーザの承認レベル、前記ユーザが過去に制御した前記視界内のデバイスおよびそれらが制御された時間を含む入力のセットのメンバーである複数の入力を受信することと、
前記機械学習モジュールによって、前記受信された入力を処理して前記視界内の前記デバイスのうちの少なくとも1つのデバイスを出力することとを含み、前記出力された少なくとも1つのデバイスが、前記視線追跡デバイスの前記表示に自身の情報がレンダリングされた前記決定されたデバイスを含む、請求項16に記載の方法。
【請求項20】
前記出力された少なくとも1つのデバイスをユーザがリモート制御することとなる確率を示す、前記出力された少なくとも1つのデバイスに対する信頼水準を決定することと、
前記ユーザがリモート制御した前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのポジティブ・トレーニング・セットと、前記ユーザがリモート制御しなかった前記視線追跡デバイスにおいてレンダリングされた前記出力された少なくとも1つのデバイスのネガティブ・トレーニング・セットとを決定することと、
前記受信された入力に応答して、前記ポジティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも高い信頼水準を有する前記ポジティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと、
前記受信された入力に応答して、前記ネガティブ・トレーニング・セットの前記デバイスに対して決定された前記信頼水準よりも低い信頼水準を有する前記ネガティブ・トレーニング・セットの前記デバイスを出力するように前記機械学習モジュールを再トレーニングすることと
をさらに含む、請求項19に記載の方法。
【国際調査報告】