IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ニューラブル インコーポレイテッドの特許一覧

特許7492951ユーザ相互作用の高速且つ正確な追跡を使用する人間/コンピュータインターフェース
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-05-22
(45)【発行日】2024-05-30
(54)【発明の名称】ユーザ相互作用の高速且つ正確な追跡を使用する人間/コンピュータインターフェース
(51)【国際特許分類】
   G06F 3/01 20060101AFI20240523BHJP
   G06F 3/0346 20130101ALI20240523BHJP
   G06F 3/038 20130101ALI20240523BHJP
【FI】
G06F3/01 510
G06F3/0346 423
G06F3/01 515
G06F3/038 310A
【請求項の数】 12
(21)【出願番号】P 2021515495
(86)(22)【出願日】2019-09-19
(65)【公表番号】
(43)【公表日】2022-01-06
(86)【国際出願番号】 US2019051997
(87)【国際公開番号】W WO2020061358
(87)【国際公開日】2020-03-26
【審査請求日】2022-09-20
(31)【優先権主張番号】16/138,791
(32)【優先日】2018-09-21
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】520061723
【氏名又は名称】ニューラブル インコーポレイテッド
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【弁理士】
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【弁理士】
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【弁理士】
【氏名又は名称】内藤 和彦
(72)【発明者】
【氏名】アルケイド,ラムセス
(72)【発明者】
【氏名】パッデン,デレク
(72)【発明者】
【氏名】ハーメット,ジェームス
(72)【発明者】
【氏名】モーリス ジュニア,ジェフリー
(72)【発明者】
【氏名】ペレイラ,アルナルド
(72)【発明者】
【氏名】ジャンツ,ジェイ
【審査官】酒井 優一
(56)【参考文献】
【文献】米国特許出願公開第2013/0050432(US,A1)
【文献】国際公開第2018/064627(WO,A1)
【文献】特開2016-126773(JP,A)
【文献】国際公開第2018/127782(WO,A1)
【文献】米国特許出願公開第2015/0042558(US,A1)
【文献】特表2018-505457(JP,A)
【文献】特開2013-190942(JP,A)
【文献】国際公開第2012/137801(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/0346
G06F 3/038
(57)【特許請求の範囲】
【請求項1】
相互作用型環境をユーザへ提示するように構成されたディスプレイと、
前記ディスプレイに接続された視線追跡器であって、前記ユーザの眼の複数組の眼球運動信号を記録するように構成された少なくとも2つのセンサを含み、各一組の前記眼球運動信号は前記少なくとも2つのセンサにより記録され、前記少なくとも2つのセンサのそれぞれによって記録された一組の眼球運動信号のそれぞれは、前記少なくとも2つのセンサのうちの他のセンサにより記録された一組の眼球運動信号と無関係である、視線追跡器と、
前記ディスプレイ及び前記視線追跡器と動作可能に接続されたインターフェースデバイスと、を含む装置であって、
前記インターフェースデバイスは、
メモリと、
前記メモリと動作可能に接続されたプロセッサとを含み、
前記プロセッサは、
前記視線追跡器内の前記少なくとも2つのセンサから前記複数組の眼球運動信号を受信し、
刺激を生成し、前記相互作用型環境及び前記ディスプレイを介して前記ユーザへ前記刺激を提示し、
前記複数組の眼球運動信号のそれぞれの組の前記眼球運動信号に基づき、前記少なくとも2つのセンサからのそれぞれのセンサに関連付けられた視線ベクトルであって、前記ユーザの前記眼の視線角を示す視線ベクトルを計算し、
前記少なくとも2つのセンサのそれぞれのセンサに関連付けられた前記視線ベクトルの斜度であって、当該センサに関連する頂角に対する斜度を判断し、
一組の重みを生成するために、前記少なくとも2つのセンサのそれぞれの前記センサに関連付けられた前記視線ベクトルの前記斜度に基づき、前記少なくとも2つのセンサのそれぞれの前記センサに関連付けられた重みを判断し、
一組の校正された眼球運動信号を判断するために前記一組の重みを前記複数組の前記眼球運動信号に適用し、
前記一組の校正された眼球運動信号に基づき前記ユーザの焦点を判断し、
前記ユーザにより意図された行為を前記ユーザの前記焦点に基づき判断し、
前記ユーザにより意図された前記行為を実行するように構成される、装置。
【請求項2】
前記ディスプレイは前記相互作用型環境を前記ユーザへ投影するように構成された表示レンズを含み、
前記視線追跡器内の前記少なくとも2つのセンサは、前記表示レンズの1つの軸に沿って、前記表示レンズの周囲に設けられる、請求項1に記載の装置。
【請求項3】
前記ディスプレイは前記相互作用型環境を前記ユーザへ投影するように構成された表示レンズを含み、
前記視線追跡器は前記少なくとも2つのセンサとして、少なくとも4つのセンサを含み、前記少なくとも4つのセンサは、前記表示レンズの直交する2つの軸に沿って、前記表示レンズの周囲に設けられる、請求項1に記載の装置。
【請求項4】
前記視線追跡器はさらに、前記少なくとも2つのセンサのそれぞれのセンサにより記録された前記複数組の眼球運動信号を、別々に前記プロセッサへ送信するように構成される、請求項1に記載の装置。
【請求項5】
前記少なくとも2つのセンサのそれぞれの前記センサに関連付けられた重みは、経験的に予め定められた重み付け関数にさらに基づいて、判断される、請求項1に記載の装置。
【請求項6】
記プロセッサはさらに、
前記複数組の前記眼球運動信号内の一組の消失データ点を識別し、
前記視線追跡器から前記少なくとも2つのセンサに関係する情報を受信し、
前記少なくとも2つのセンサに関係する前記情報に基づき、シミュレートされたユーザの一組のシミュレートされた眼球運動の運動学モデルを生成し、
前記運動学モデルに基づき、それぞれが前記少なくとも2つのセンサのうち少なくとも1つのセンサのそれぞれに関連付けられた複数組のシミュレートされた眼球運動信号を計算し、
前記少なくとも2つのセンサから受信された前記複数組の眼球運動信号内の前記一組の消失データ点を置換するために一組の置換データ点を前記複数組のシミュレートされた眼球運動信号に基づき計算し、
前記一組の消失データ点を置換するため及び前記少なくとも2つのセンサのそれぞれのセンサに関連付けられた前記一組の校正された眼球運動信号を生成するために、前記一組の置換データ点を取り込むように構成され、
前記ユーザの前記焦点は前記一組の校正された眼球運動信号に基づき判断される、請求項1に記載の装置。
【請求項7】
前記視線追跡器は前記少なくとも2つのセンサとして、2つの直交軸に沿って設けられた少なくとも4つのセンサを含み、前記プロセッサはさらに、前記2つの直交軸に対して範囲を定められた一組の視線ベクトルであって、前記ユーザの前記眼の前記視線角を集合的に表すように構成された一組の視線ベクトルを前記複数組の眼球運動信号に基づき計算するように構成される、請求項1に記載の装置。
【請求項8】
前記複数組の眼球運動信号は第1の時点における前記ユーザの前記眼の前記視線角に対応し、前記プロセッサはさらに、前記第1の時点とは異なる第2の時点であって、前記第1の時点の後に発生する第2の時点における前記ユーザの前記眼の視線角を前記複数組の眼球運動信号に基づき判断するように構成される、請求項1に記載の装置。
【請求項9】
前記複数組の眼球運動信号は、第1の時点における前記ユーザの前記眼の前記視線角に対応し、前記第1の時点における運動量の第1の測定値に関連付けられ、
前記プロセッサはさらに、前記複数組の眼球運動信号に基づき、前記第1の時点における前記視線角、前記第1の時点における運動量の前記第1の測定値、及び前記第1の時点とは異なる第2の時点であって、前記第1の時点の後に発生する第2の時点における前記ユーザの前記眼の視線角を判断するように構成される、請求項1に記載の装置。
【請求項10】
前記装置はさらに、前記ユーザにより生成される神経信号であって、脳波図(EEG)信号を含む神経信号を記録するように構成された神経記録デバイスを含み、
前記焦点は計算された焦点であり、前記プロセッサはさらに、
視覚誘発電位(VEP)、聴性誘発反応(AEP)、運動像信号、事象関連電位(ERP)及び脳状態依存信号のうちの少なくとも1つを含むEEG信号を受信し、
前記ユーザの予測焦点を前記EEG信号に基づき判断し、
前記計算された焦点に関連付けられた誤差の値を前記計算された焦点と前記予測焦点との比較に基づき計算し、
前記ユーザの校正された焦点を生成するために前記誤差の前記値に基づき前記計算された焦点を補正するように構成される、請求項1に記載の装置。
【請求項11】
相互作用型環境をユーザへ提示するように構成されたディスプレイと、
前記ディスプレイに接続された視線追跡器であって、前記ユーザの眼の複数組の眼球運動信号を記録するようにそれぞれ構成された少なくとも2つのセンサを含み、各一組の前記眼球運動信号は前記少なくとも2つのセンサにより記録され、前記少なくとも2つのセンサのそれぞれによって記録された一組の眼球運動信号のそれぞれは、前記少なくとも2つのセンサのうちの他のセンサにより記録された複数組の眼球運動信号と無関係である、視線追跡器と、
前記ディスプレイ及び前記視線追跡器と動作可能に接続されたインターフェースデバイスと、を含む装置であって、
前記インターフェースデバイスは、
メモリと、
前記メモリと動作可能に接続されたプロセッサとを含み、
前記プロセッサは、
前記視線追跡器内の前記少なくとも2つのセンサから前記複数組の眼球運動信号を受信し、
刺激を生成し、前記相互作用型環境及び前記ディスプレイを介して前記ユーザへ前記刺激を提示し、
前記複数組の眼球運動信号のそれぞれの組の前記眼球運動信号に基づき、前記少なくとも2つのセンサからのそれぞれのセンサに関連付けられた視線ベクトルであって、前記ユーザの前記眼の視線角を示す視線ベクトルを計算し、
前記少なくとも2つのセンサのそれぞれのセンサに関連付けられたそれぞれの前記視線ベクトルの斜度であって、当該センサに関連する頂角に対する斜度を判断し、
一組の重みを生成するために、前記少なくとも2つのセンサのそれぞれの前記センサに関連付けられたそれぞれの前記視線ベクトルの前記斜度及びめ定められた重み付け関数に基づき、前記少なくとも2つのセンサのそれぞれの前記センサに関連付けられた重みを判断し、
一組の校正された眼球運動信号を判断するために前記一組の重みを前記複数組の前記眼球運動信号に適用し、
前記一組の校正された眼球運動信号に基づき前記ユーザの焦点を判断し、
前記ユーザにより意図された行為を前記ユーザの前記焦点に基づき判断し、
前記ユーザにより意図された前記行為を実行するように構成される、装置。
【請求項12】
相互作用型環境をユーザへ提示するように構成されたディスプレイと、
前記ディスプレイに接続された視線追跡器であって、前記ユーザの眼の複数組の眼球運動信号を記録するようにそれぞれ構成された少なくとも2つのセンサを含み、各一組の前記眼球運動信号は前記少なくとも2つのセンサにより記録され、前記少なくとも2つのセンサのそれぞれによって記録された一組の眼球運動信号のそれぞれは、前記少なくとも2つのセンサのうちの他のセンサにより記録された複数組の眼球運動信号と無関係である、視線追跡器と、
前記ディスプレイ及び前記視線追跡器と動作可能に接続されたインターフェースデバイスと、を含む装置であって、
前記インターフェースデバイスは、
メモリと、
前記メモリと動作可能に接続されたプロセッサとを含み、
前記プロセッサは、
前記視線追跡器内の前記少なくとも2つのセンサから前記複数組の眼球運動信号を受信し、
刺激を生成し、前記相互作用型環境及び前記ディスプレイを介して前記ユーザへ前記刺激を提示し、
前記プロセッサはさらに、
前記複数組の前記眼球運動信号内の一組の消失データ点を識別し、
前記視線追跡器から前記少なくとも2つのセンサに関係する情報を受信し、
前記少なくとも2つのセンサに関係する前記情報に基づき、シミュレートされたユーザの一組のシミュレートされた眼球運動の運動学モデルを生成し、
前記運動学モデルに基づき、それぞれが前記少なくとも2つのセンサに関連付けられた複数組のシミュレートされた眼球運動信号を計算し、
前記少なくとも2つのセンサから受信された前記眼球運動信号内の前記一組の消失データ点を置換するために一組の置換データ点を前記複数組のシミュレートされた眼球運動信号に基づき計算し、
前記一組の消失データ点を置換するため及び前記少なくとも2つのセンサのそれぞれのセンサに関連付けられた校正された眼球運動信号を生成するために、前記一組の置換データ点を取り込み、
前記校正された眼球運動信号に基づき前記ユーザの焦点を判断し、
前記ユーザにより意図された行為を前記ユーザの前記焦点に基づき判断するように構成される、装置。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願への相互参照
[0001]本出願は、参照のためその開示を本明細書に援用する2018年9月21日出願の米国非仮特許出願第16/138,791号:題名「ユーザ相互作用の高速且つ正確な追跡を使用する人間/コンピュータインターフェース:HUMAN-COMPUTER INTERFACE USING HIGH-SPEED AND ACCURATE TRACKING OF USER INTERACTIONS」からの優先権及び便宜を主張する。
【背景技術】
【0002】
背景
[0002]本明細書において説明される実施形態は、高速且つ高精度の人間/機械相互作用のために戦略的に設計されたユーザインターフェース(UI:user interface)又はユーザ体験(UX:user experience)を提示及び更新するためにリアルタイム眼球運動及び/又は頭運動追跡と脳活動追跡とを一体化する脳/コンピュータインターフェースの実装に使用されるシステム、デバイス及び方法に関する。本明細書において説明される実施形態はまた、機械のユーザ操作を仲介するためにリアルタイム視線追跡及び神経活動のオンライン解析を使用するハードウェア無関知型脳/コンピュータインターフェースの実装に関する。
【0003】
[0003]人間/コンピュータインターフェース(HCI:human-computer interface)は、配線が付けられた脳と外部デバイスとの間の直接通信経路により脳活動がコンピュータ又は外部デバイスを制御することを許容するハードウェア及びソフトウェア通信システムである。HCIは、脳信号を解釈することにより直接的に機械及びアプリケーションを操作するためのアクセスを提供する支援技術として主に設計されてきた。HCI開発の主ゴールの1つは、筋萎縮性側索硬化症、脳幹梗塞又は脊髄損傷などの神経学的神経筋障害により完全に麻痺又は「固定」された重度障害を持つ人(他の人との効果的コミュニケーションが極めて困難であり得る人)へコミュニケーション能力を提供することである。
【0004】
[0004]脳/コンピュータインターフェースのいくつかの知られた実装はFarwell及びDonchinにより設計されたたような綴り器(speller)を含む。この綴り器では、いくつかの他のシンボル及び命令と一緒にアルファベットの26個の文字が、ランダムに点滅する行及び列を有する6×6行列で画面上に表示される。ユーザは、画面に注意を集中し、そして書くべき文字に逐次集中する一方で、脳の神経応答がシグネチャ神経/脳信号のために監視される。検出されると、シグネチャ脳信号は、本システムが所望シンボルを識別することを可能にする。Farwell-Donchin綴り器は毎分約2文字の速度で人が綴ることを可能にする。
【発明の概要】
【課題を解決するための手段】
【0005】
概要
[0005]ユーザの視線又は注意のリアルタイム位置決め及び所望行為の選択/活性化を仲介するために眼球運動及び脳活動を追跡するハードウェア無関知型一体化動眼神経ハイブリッド脳/コンピュータインターフェース(HCI:hybrid brain computer interface)プラットホームの様々な実施形態のためのシステム、デバイス及び方法が本明細書において説明される。本開示は高速且つ高精度で動作する脳/コンピュータインターフェースのニーズに対処するために一体化HCIシステムを提示する。
【0006】
図面の簡単な説明
[0006]本特許又は出願ファイルはカラーで描かれた少なくとも1つの図を含む。カラー図面を含む本特許又は特許出願公開の複製が、要求され所要手数料が支払われると特許商標庁により提供される。
【図面の簡単な説明】
【0007】
図1】[0007]一実施形態によるハイブリッド人間/コンピュータインターフェース(HCI)システムの概略図である。
図2A】[0008]一実施形態によるHCIシステムを介したユーザへの例示的ユーザインターフェース(UI)/ユーザ体験(UX)の提示の図である。
図2B】[0009]一実施形態による視線追跡器及び神経記録ヘッドセットを使用するHCIシステムのユーザインターフェースとのユーザの相互作用中に記録された例示的眼球運動信号及び神経信号をそれぞれ示す。
図2C】[0009]一実施形態による視線追跡器及び神経記録ヘッドセットを使用するHCIシステムのユーザインターフェースとのユーザの相互作用中に記録された例示的眼球運動信号及び神経信号をそれぞれ示す。
図3】[0010]一実施形態によるHCIシステムの例示的実施形態における一連の工程の図である。
図4A】[0011]一実施形態によるHCIシステムにおいて使用される例示的視線追跡器の正面図の概略図である。
図4B】[0011]一実施形態によるHCIシステムにおいて使用される例示的視線追跡器の背面図の概略図である。
図4C】[0012]一実施形態によるHCIシステムにおいて使用される頭部装着型ディスプレイを含む例示的視線追跡器の斜視図の概略図である。
図4D】[0013]一実施形態によるHCIシステムに含まれる例示的視線追跡器内の投影レンズに対して位置決めされたセンサの概略図である。
図5A】[0014]中央及び斜め視線中のユーザの眼球運動信号を捕捉するために例示的HCIシステムの視線追跡器内のレンズに対して位置決めされたセンサの概略図である。
図5B】[0014]中央及び斜め視線中のユーザの眼球運動信号を捕捉するために例示的HCIシステムの視線追跡器内のレンズに対して位置決めされたセンサの概略図である。
図5C】[0015]一実施形態によるHCIシステムを使用して視線追跡を改善するための、視線位置に基づき眼球運動センサを優先的に重み付ける例示的重み付け関数を示す。
図6】[0016]一実施形態によるHCIシステムにおける視線追跡の潜在的較正に使用されるUI/UXにおいて提示される例示的刺激の画像を示す。
図7A】[0017]UI/UXにおいて提示される例示的画像を示す。
図7B】[0017]一実施形態によるHCIシステムにおける視線追跡の潜在的較正において使用される図7Aの画像に関する例示的解析の結果を示す。
図8A】[0018]一実施形態によるHCIシステムにおける視線追跡において使用されるスケーリング及びバイアスの較正前後の例示的視線軌道を示す。
図8B】[0018]一実施形態によるHCIシステムにおける視線追跡において使用されるスケーリング及びバイアスの較正前後の例示的視線軌道を示す。
図9】[0019]一実施形態による、ユーザがHCIシステムにおける視線追跡の較正のためにUI/UXにおいて3次元刺激を提示されるときの視差の使用の例示的図である。
図10】[0020]一実施形態による視線追跡を校正するために脳信号を使用するHCIシステムの例示的実施形態の図である。
図11A】[0021]一実施形態によるHCIシステムにおいて半教師付き(semi-supervised)眼球運動分類システムの実装において行われた解析を示す。
図11B】[0021]一実施形態によるHCIシステムにおいて半教師付き(semi-supervised)眼球運動分類システムの実装において行われた解析を示す。
図11C】[0021]一実施形態によるHCIシステムにおいて半教師付き(semi-supervised)眼球運動分類システムの実装において行われた解析を示す。
図12A】[0022]一実施形態によるHCIシステムにおける視線追跡を評価するためのベンチマークシステムの例示的実施を示す。
図12B】[0022]一実施形態によるHCIシステムにおける視線追跡を評価するためのベンチマークシステムの例示的実施を示す。
図13】[0023]一実施形態によるHCIシステムにおいて提示される例示的UI/UXにおいてユーザの視線とオブジェクトとの相互作用を評価するためにHCIシステムにより生成される相互作用可能オブジェクト及び境界を示す例示的画像である。
図14A】[0024]UI/UXにおけるユーザの視線と描画されたオブジェクトとの相互作用を解析するために図13の例示的UI/UXにおいて描画かれたオブジェクトの投影の概略図である。
図14B】[0025]一実施形態によるHCIシステムの実装におけるUI/UXにおけるユーザの視線とオブジェクトとの相互作用を解析する一方で使用されるスケーリングの例示的処理の概略図である。
図15】[0026]一実施形態によるHCIシステムにおいてユーザ生成信号に基づきユーザにとって興味のある標的刺激を識別するための例示的手順の概略フローチャートを示す。
図16】[0027]一実施形態によるHCIシステムにおいて眼球運動信号を使用してユーザの標的刺激を識別するための例示的手順の概略フローチャートを示す。
図17A】[0028]一実施形態による耳ベース神経記録デバイスと筋電図検査デバイスと視線追跡器との組み合わせを有するHCIシステムを示す画像である。
図17B】[0028]一実施形態による耳ベース神経記録デバイスと筋電図検査デバイスと視線追跡器との組み合わせを有するHCIシステムを示す画像である。
図17C】[0028]一実施形態による耳ベース神経記録デバイスと筋電図検査デバイスと視線追跡器との組み合わせを有するHCIシステムを示す画像である。
図17D】[0028]一実施形態による耳ベース神経記録デバイスと筋電図検査デバイスと視線追跡器との組み合わせを有するHCIシステムを示す画像である。
図18】[0029]一実施形態による現実世界環境を解析及びナビゲートするためのHCIシステムにおいて視線追跡を使用する例示的手順の概略フローチャートである。
図19A】[0030]ユーザの注意集中と、ユーザの眼球運動と、視覚的顕著性マップにより表される画像の顕著な特性との関係を示す。
図19B】[0031]一実施形態によるHCIシステムのユーザにより見られた例示的画像の視覚的顕著性マップを示す。
図19C】[0031]一実施形態によるHCIシステムのユーザにより見られた例示的画像の視覚的注意マップを示す。
図20】[0032]一実施形態によるHCIシステムを使用する視覚的顕著性マップ及び視覚的注意マップを生成する例示的手順の概略フローチャートである。
図21】[0033]一実施態様のHCIシステムにより生成され得る視覚的注意マップの例である。
図22A】[0034]情動状態の例示的モデルによる感情の様々な状態の概略図である。
図22B】[0035]一実施形態によるHCIシステムを使用して検出することと比較したユーザ報告方法により様々な情動状態を検出する精度を示すプロットである。
図22C】[0036]一実施態様のHCIシステムにおける多次元表現を使用して感情の様々な状態を統計的にモデル化するための例示的手順の概略図である。
【発明を実施するための形態】
【0008】
詳細な説明
[0037]人間/コンピュータインターフェースを実装するためのデバイス、システム及び方法が本明細書において開示される。本明細書において説明される実施形態は、ユーザへ戦略的に提示されるユーザインターフェース/ユーザ体験とのユーザ相互作用の高速且つ高効率的追跡を使用する人間/コンピュータインターフェースの実装において使用されるシステム、デバイス及び方法に関する。本明細書において説明される実施形態はまた、機械及びデバイスのユーザ操作を仲介するために神経、眼球運動及び筋電図検査信号を使用するハードウェア無関知型人間/マシン又は人間/コンピュータインターフェースの実装に関する。
【0009】
[0038]本明細書において説明されるいくつかの実施形態は、相互作用型環境をユーザへ提示するように構成されたディスプレイ、ディスプレイに接続された視線追跡器であって、ユーザの眼から眼球運動信号を記録するように構成された少なくとも1つのセンサを含む視線追跡器、並びにディスプレイ及び視線追跡器と動作可能に接続されたインターフェースデバイスを含む装置に関する。本明細書において説明されるいくつかの実施形態は、相互作用型環境をユーザへ提示するように構成されたディスプレイ、ディスプレイに接続された視線追跡器であって、ユーザの眼から眼球運動信号を記録するように構成された少なくとも2つのセンサを含む視線追跡器、並びにディスプレイ及び視線追跡器と動作可能に接続されたインターフェースデバイスを含む装置に関する。インターフェースデバイスはメモリ及びメモリと動作可能に接続されたプロセッサを含み得る。プロセッサは、視線追跡器内の少なくとも2つのセンサから眼球運動信号を受信し、刺激を生成し、そしてこれを相互作用型環境及びディスプレイを介しユーザへ提示するように構成され得る。プロセッサはさらに、ユーザの焦点を眼球運動信号に基づき判断し、ユーザにより意図された行為をユーザの焦点に基づき判断し、そしてユーザにより意図された行為を実施するように構成され得る。
【0010】
[0039]本明細書において説明されるいくつかの実施形態は、プロセッサにより実行される指示を表すコードを格納する非一時的プロセッサ可読媒体に関する。この指示は、一組の行為を行うためにユーザにより操作され得る相互作用型ユーザ環境をプロセッサに生成させるためのためコードを含み得る。この指示はさらに、プロセッサに、相互作用型ユーザ環境を介しユーザへ提示され得る一組の刺激を定義させ、一組の刺激から少なくとも1つの刺激をディスプレイを介しユーザへ提示させ、ユーザにより生成された眼球運動信号を視線追跡器から受信させ、そして一組の校正された眼球運動信号を生成するために、提示された刺激に関係する情報に基づき眼球運動信号を自動的に校正させるためのコードを含み得る。この指示はさらに、プロセッサに、ユーザの焦点を一組の校正された眼球運動信号及び提示された刺激に基づき判断させ、ユーザにより意図された行為をユーザの焦点に基づき判断させ、そしてこの行為を相互作用型ユーザ環境を介し実施させるためのコードを含み得る。
【0011】
[0040]本明細書において説明されるいくつかの実施形態は、相互作用型ユーザインターフェースに含まれる刺激をディスプレイを介しユーザへ提示することと、ユーザ挙動に関連付けられた眼球運動信号であって、視線追跡器上に位置決めされた1つ又は複数のセンサにより独立に記録された眼球運動信号を視線追跡器から受信することとを含む方法に関する。いくつかの例では、眼球運動信号は視線追跡器上に位置決めされた少なくとも2つのセンサにより記録され得る。本方法はさらに、提示された刺激に関係する情報を受信すること、ユーザの焦点を眼球運動信号に基づき判断すること、ユーザにより意図された行為を焦点及び刺激に基づき判断すること、そしてこの行為を相互作用型ユーザインターフェースを介し実施することを含み得る。
【0012】
[0041]本明細書において使用されるように、単数形式の冠詞は文脈が明確に規定しない限り複数の指示対象物を含む。したがって、例えば、用語「システム」は単一システム又はシステムの組み合わせを意味するように意図されており、「アルゴリズム」又は「手順」は、1つ又は複数のアルゴリズム又は手順又は指示又はそれらの組み合わせを意味するように意図されている。HCIシステムの一実施形態を参照して説明される部品(視線追跡器、神経記録デバイス、EMGデバイス、又は周辺頭又は体追跡装置など)又は部品の組み合わせのうちの任意のものは文脈が特に指示しない限り本明細書において説明される任意の他の実施態様と共に使用され得る。
【0013】
例示的人間/コンピュータインターフェースシステム
[0042]HCIシステムは仮想現実環境又は体験をユーザへ提示するように設計され得る。HCIシステムは、マウス及びキーボードなどの従来の入力又は出力インターフェースの必要性無しに人がコンピュータ又は他のデータ処理機械及び/又はソフトウェアアプリケーションを操作するやり方を支援又は強化するために使用され得る。HCIシステムはまた、現実世界との相互作用を強化するために拡張現実環境をユーザへ提示するように構成され得る。HCIはまた、障害又は運動制限の患者の生活の質を強化及び改善するために使用され得る。HCIはまた、従来の入力方法よりコンピュータとのより直観的且つ自然な相互作用のためのインターフェースを提供し得る。加えて、HCIはまた、人間及び動物認知及び/又は感覚運動システム並びにそれらの機能を拡張、修理、並びにマッピング及び研究することを含む多くの他の機能をサービスするために開発され得る。いくつかの例示的HCIアプリケーションは、とりわけワードプロセッサ、適応化ウェブブラウザ、車椅子の脳仲介制御すなわち神経機能代替、及びゲームを含む。
【0014】
[0043]患者に適し、一般大衆にとって有用であり、そして現実世界タスクの制御において採用されるHCI技術に関し、情報転送速度は自然な対話ペースを満たすように改善される必要があり、誤り率は低減される必要があり、そして相互作用インターフェースの複雑性が現在の実装と比較して最小化される必要がある。加えて、HCIアプリケーションはユーザから高い認知的負荷を要求し、したがって、UI/UX及び信号の基礎的処理は、静かな実験室環境から離れて現実世界へ入るために改善される必要がある。HCIデバイス及びアプリケーションをより容易且つより直観的となるように構成するために、自然な過程を介しユーザ仲介行為選択を可能にするために直観的やり方で高速且つ高精度で動作する人間機械インターフェース又は人間/コンピュータインターフェースの実装における改善されたデバイス及び技術のニーズがある。
【0015】
[0044]本明細書で述べるように、HCIシステムは、コンピュータ又は外部機器を制御するためのユーザの眼球運動活動又は脳活動又は他の運動活動などの人間活動を解釈するハードウェア、指示、及びソフトウェア通信システムを含む。いくつかの実施形態では、HCIシステムは、その開示を全体として参照により本明細書に援用する2018年8月22日出願(「‘598出願」)の国際特許出願第PCT/US2018/047598号:題名「高速眼追跡機能を有する脳/コンピュータインターフェース:Brain-computer interface with high-speed eye tracking features」に記載のものとほぼ同様であり得る。
【0016】
[0045]いくつかの実施形態では、HCIシステムは、HCIシステム及び/又は接続機械との高速度且つ直観的ユーザ相互作用を実施するための構成及び/又は適応化を含み得る。この構成又は適応化は、その開示を全体として参照により本明細書に援用する2017年11月13日出願(「‘209出願」)の米国特許出願第62/585,209号:題名「正確且つ直観的相互作用のために適用化された脳/コンピュータインターフェース:Brain-computer interface with adaptations for accurate and intuitive user interactions」に記載されるものとほぼ同様であり得る。
【0017】
[0046]図1は一実施形態による人間/コンピュータインターフェースシステム100の概略図である。例示的人間/コンピュータインターフェースシステム100(本明細書では「ハイブリッドHCIシステム」又は「HCIシステム」又は「システム」とも呼ぶ)は視線追跡器102及び人間/コンピュータインターフェースデバイス110を含む。HCIシステムは、図1において点線ブロックにより指示されるように、神経記録デバイス104、ユーザインターフェース/ユーザ体験(UI/UX)プレゼンタ106、及び筋電図検査信号を記録するように構成された筋電図検査(EMG:electromyography)デバイス108を任意選択的に含む。
【0018】
視線追跡器
[0047]HCIシステム100内の視線追跡器102は、眼球運動が所定時刻にユーザの焦点を指示する(すなわち、上述のポインティング制御機能を実施する)ために使用され得るようにユーザの片眼又は両眼の眼球運動信号を捕捉、記録、格納、及び/又は送信するように構成され得る。換言すれば、視線追跡器102は、2又は3次元空間内のユーザの眼球運動に急速に追随することにより、ユーザが所定時刻にその視野内のどこを見ているかを判断するために使用され得る。視線追跡器102はHCIデバイス110へ結合され得、HCIデバイス110は視線追跡器102により取得された信号を処理するように構成される。
【0019】
[0048]視線追跡器102はユーザの各眼を照明するために位置決めされ構成された1つ又は複数の光源を含み得る。照明源は、任意の好適な波長の光を発射するように構成され得、そして、ユーザの瞳を照明しそして表面角膜反射(CR:corneal reflection)を生成するために任意の好適な位置に取り付けられ得る。照明源は、コンパクトであり頭部装着される電力系を介し好適に給電され得る。照明源は、データの制御及び送信などを仲介するためにデータ通信のための有線又は無線接続を介し好適に接続され得る。
【0020】
[0049]眼追跡器102は、ユーザの片眼又は両目を撮像するために1つ又は複数の装着型センサ又はカメラ(例えば頭部装着型ビデオカメラ)を含み得る。例えば、いくつかの実施形態では、視線追跡器102は各眼を撮像するように位置決めされた1つ又は複数のセンサを含み得る。いくつかの実施形態では、視線追跡器102は片眼(例えば利き眼)により使用されるように構成され得る。装着型センサ又はカメラはコンパクトな頭部装着型電源を介し給電され得る。装着型センサ又はカメラは、HCIデバイス110が各センサ又はカメラにより取得された信号をセンサ毎のやり方で独立に受信し得るように人間/コンピュータインターフェースデバイス110へ直接的且つ独立に結合され得る。HCIデバイス110は、本明細書においてさらに詳細に説明されるように、センサのそれぞれにより取得された信号を処理し得る。いくつかの実施形態では、カメラは互いに通信するように接続され得る。
【0021】
[0050]いくつかの実施形態では、視線追跡器102は、本明細書において説明されるように、ユーザに相互作用型インターフェースを提示するために使用され得るUI/UXプレゼンタへ結合され得る。いくつかの実施形態では、UI/UXプレゼンタは視線追跡器102にすら含まれ得る。視線追跡器102がUI/UXへ結合される又はそれを含むこのようないくつかの実施形態では、視線追跡器102は、仮想現実(VR:virtual reality)環境の場合、ユーザの各眼に対して位置決めされる任意選択レンズ(例えば表示レンズ)であって、UI/UXを介し提示された視覚的刺激をユーザの眼へ投影するために使用されるレンズを含み得る。いくつかの他の実施態様では、視線追跡器102は、UI/UXの形式のシミュレートされた相互作用型ユーザインターフェースの代わりに、ユーザの周囲の現実世界環境を見るように構成された覗き窓を含み得る。このような実施形態では、視線追跡器102は、一対の眼鏡と同様に、ユーザの直接現実世界環境を投影するために各眼に対して位置決めされたレンズ(例えば視認レンズ)を含み得る。いくつかの実施形態では、視線追跡器102は、現実世界ビューをオーバーレイするために、シミュレートされた又は合成的に生成されたユーザインターフェースも投影する一方で現実世界環境を投影するためにユーザの各眼に対して位置決めされた特別に構成されたレンズを含み得る。このような実施形態では、視線追跡器102は拡張現実(AR:augmented reality)環境をユーザへ提供するために使用され得る。
【0022】
[0051]視線追跡器102を参照すると、センサ又はカメラは、ユーザの視線角が、ユーザが現実環境、仮想環境、又は拡張環境を見ているかどうかにかかわらず、計算され得るように、ユーザの眼球運動に関する情報を捕捉するために戦略的に位置決めされ得る。例えば、いくつかの実施形態では、センサ又はカメラは、ユーザが眼球運動を行うと光源により生成されるユーザの瞳と表面角膜反射とのリアルタイム相対位置及び構成を捕捉するように構成され得る。このような実施形態では、視線追跡器102は、ユーザの頭に対するユーザの眼の配向及び/又は位置を判断するために瞳と表面CRとの間の位置の差を使用するように構成され得る。
【0023】
[0052]投影レンズ(例えば表示レンズ又は視認レンズ)を含む実施態様では、一方の眼から眼球運動情報を捕捉するように向けられた1つ又は複数のセンサが、視角の邪魔をしない一方で眼球運動信号を最適に捕捉するために投影レンズの周囲に位置決めされ得る。各眼を撮像するように構成された2つ以上のセンサ又はカメラを含む実施態様では、センサは、特定軸に沿って範囲を定められた成分又はベクトルの形式の眼球運動信号を最適に捕捉するために特定軸に沿って位置決めされ得る。例えば、視線追跡器102のいくつかの実施形態は、各眼から眼球運動信号を捕捉するように構成された少なくとも2つのセンサを含み得、少なくとも2つのセンサは直交軸に沿って対で投影レンズの周囲に位置決めされる。一例として、眼当たり2つのセンサを含む視線追跡器が水平軸に沿って位置決めされ得る。別の例として、4つのセンサを含む視線追跡器が、本明細書においてさらに詳細に説明されるように互いに直交する水平軸及び垂直軸に沿って対で位置決めされ得る。
【0024】
[0053]視線追跡器102は、場合によっては、商業的に入手可能な頭部装着型視線追跡デバイス(例えば数ある商業ベンダーの中でもSenseMotoric Instruments、Tobii Eye Tracking及びPupil-labsから入手可能な視線追跡デバイスなど)を含み得る。
【0025】
神経記録デバイス
[0054]HCIシステム100内の任意選択的神経記録ヘッドセット104は、ユーザの認識意図を指示する1つ又は複数の脳領域からの神経制御信号を捕捉、記録、及び/又は送信するように構成され得る。神経記録デバイス104は、任意の好適な手法を使用して神経間の神経活動を記録するように構成された任意の好適な記録デバイス又はシステムを含み得る。神経制御信号は、ユーザが行おうとする行為の選択を指示する行為制御機能として働き得る。いくつかの実施形態では、神経記録デバイス104は、ユーザの焦点を指示するために使用され得る神経信号を捕捉するように、又はポインティング制御機能を実施することによりユーザの焦点を指示するために視線追跡器102から取得された情報を補完するように構成され得る。例えば、いくつかの実施形態では、神経記録デバイス104はポインティング制御機能を実施するために使用され得るユーザの髄意筋運動(例えば眼球運動、姿勢運動、身振り)を表す神経信号を記録及び送信するように構成され得る。いくつかの実施形態では、神経記録デバイス104は運動像(例えば行われた又は撮像された運動)に対応する神経信号を記録し送信するように構成され得る。いくつかの実施形態では、神経記録デバイス104により捕捉される信号は、ユーザの認識状態、情動状態、又は注意状態など脳状態に対応する神経信号を含み得る。神経記録デバイス104はHCIデバイス110へ結合され得る。HCIデバイス110は本明細書において説明されるようにポインティング制御機能又は行為制御機能を実施するために神経信号を処理する。
【0026】
[0055]いくつかの実施形態では、神経記録デバイス104は神経により生成される主イオン電流(神経細胞群内に及び神経細胞群全体にわたって流れるイオン電流)を直接電気的に記録することにより神経信号を捕捉するように構成され得る。いくつかの実施形態では、神経記録デバイス104は神経系内の二次電流(一次電流に関連付けられた又はそれから生じる)又は他の変化を間接的に記録することにより神経信号を捕捉するように構成され得る。例えば、神経活動はまた、一次電流の結果として起きる光学的変化を記録することにより光学的撮像(例えば機能的磁気共鳴映像法:fMRI(functional magnetic resonance imaging))のような他の方法を介し監視され得る。脳の神経活動を記録するための他の手法は、脳波記録法(EEG:electroencephalography)、皮質脳波記録法(ECoG:electrocorticography)、機能的近赤外線(FNIR:Functional Near-Infrared)撮像、及び他の同様な固有信号撮像(ISI:Intrinsic Signal Imaging)方法、脳磁気図記録法(MEG:magnetoencephalography)などを含む。
【0027】
[0056]いくつかの実施形態では、神経記録デバイス104は、事象関連電位(ERP:Event Related Potential)、誘発電位(EP:Evoked Potential、例えば、視覚誘発電位(VEP:visually evoked potential)、聴性誘発反応(AEP:auditory evoked potential)、運動誘発電位のような知覚誘発電位)、運動像、脳状態依存信号、スロー皮質電位、及び未発見の様々な認識タスク、注意タスク、又は感覚運動タスクの基礎となる他のシグネチャ活動電位などの多様なシグネチャ脳信号を含む1つ又は複数の信号を記録するように特に適応化され得る。いくつかの実施形態では、神経記録デバイス104は当該周波数領域内の1つ又は複数の信号を記録するように特に適応化され得る。数ある中でもいくつかの例は、感覚運動リズム、事象関連スペクトル摂動(ERSP:Event Related Spectral Perturbation)、θ、γ又はμリズムのような特定信号周波数帯域などを含む。
【0028】
[0057]本明細書で述べるように、神経記録デバイス104は、脳活動を測定する記録段を介しユーザ意図に関する情報を収集するために神経活動信号を記録し得、そしてこの情報を、命令へ変換され得る扱い易い電気信号へ変換する。いくつかの実施形態では、例えば、神経記録ヘッドセット104は、高い時間分解能/低コストのセットアップ及びメンテナンスと高い携帯性とを有しそしてユーザに対して非侵入性である脳波記録法(EEG)を介し電気生理学的活動を記録するように構成され得る。このような実施形態では、神経記録デバイス104は、様々な脳エリアからの脳波記録法信号を取得するセンサを有する一組の電極を含み得る。これらのセンサは、神経細胞内の樹枝状結晶のシナプス興奮中の電流の流れにより引き起こされる電気信号を測定し得、これにより二次電流の影響を伝える。神経信号は、ユーザの頭皮又は頭の一部分の上に置かれると所望脳エリア全体にわたって適切に配置される神経記録デバイス104内の電極を介し記録され得る。例示的神経記録デバイスは数ある中でもBiosemi,Wearable Sensing及びG.Tecのような商業ベンダーから入手可能であり得る。例えば、いくつかの実施形態では、神経記録デバイス104、神経脳活動信号を収集する際のその動作、及び神経記録ヘッドセット104からの信号転送は上にその開示を全体として参照により本明細書に援用した「‘253出願」に記載のものとほぼ同様であり得る。
【0029】
UI/UXプレゼンタ
[0058]HCIシステム100に含まれる任意選択的UI/UXプレゼンタ106はユーザに相互作用型UI/UXを提示するように構成され得る。UI/UXプレゼンタ106はユーザへ視聴覚入力を提供するように構成された視聴覚ディスプレイであり得る。いくつかの実施形態では、UI/UXプレゼンタ106は、1つ又は複数の周辺アクチュエータを使用して触覚入力、体知覚入力などの追加モダリティの入力を提供し得る。いくつかの例示的アクチュエータはオーディオスピーカ、触覚刺激プロバイダなどを含み得る。
【0030】
[0059]いくつかの実施形態では、視線追跡器102及び/又は神経記録デバイス104は一体化UI/UXプレゼンタ106を含み得る。いくつかの他の実施態様では、HCIシステムは、視線追跡器102及び神経記録デバイス104から分離されるとともにHCIシステム100の残りとのデータ通信状態に在るスタンドアロンUI/UXを含み得る。例えば、UI/UXプレゼンタ106と一体化された視線追跡器102は仮想現実環境を体験するように構成されたシステムであり得る。いくつかの実施形態では、UI/UXプレゼンタ106と一体化された視線追跡器102は拡張現実空間を見るように構成され得る。すなわち、UI/UXプレゼンタと一体化された視線追跡器は、視線追跡器102を参照して上に説明したようにディスプレイ又は投影エリア(例えば投影レンズ)を介し提示された重畳又はオーバーレイUI/UXにより、一対の眼鏡として、現実世界環境を見るように機能し得る。
【0031】
EMGデバイス
[0060]HCIシステム100は図1に示すEMGデバイス108を任意選択的に含み得る。EMGデバイス108は、HCIシステム100を使用する際にユーザからの筋電図検査信号を記録し送信するためにユーザの体上に好適に位置決めされるように構成され得る。EMGデバイス108はHCIデバイス110へ結合され得る。EMGデバイス108は、捕捉された信号を、処理されるためにHCIデバイス110へ送信するように構成され得る。例えば、EMGデバイス108は、所定顔領域全体にわたるユーザの顔の筋肉活動を観察することにより顔EMG信号を記録するように構成され得る。EMGデバイス108を使用して記録された顔EMG信号は、HCIデバイス110へ送信され得、そして様々な認識状態及び運動状態又はユーザを検出し、解釈し、そしてUI/UXをユーザの状態へ適合させる際にHCIシステム100により使用され得る。別の例として、EMGデバイス108により記録された顔EMG信号は、HCIシステム100を使用してUI/UXが提示されている間のユーザの情動反応又は情動状態を検出するために使用され得る。EMGデバイス108を使用して監視され得るいくつかの例示的顔筋肉は陽性情動状態を指示し得る頬骨筋及び陰性情動状態を指示し得る皺眉筋を含み得る。
【0032】
人間/コンピュータインターフェースデバイス
[0061]本明細書では「デバイス」とも呼ばれる人間/コンピュータインターフェースデバイス(すなわちHCIデバイス)110は、ハードウェアベースコンピュータデバイス及び/又はマルチメディアデバイス(例えばコンピュータデバイス、サーバ、デスクトップコンピュータデバイス、スマートフォン、タブレット、ウェアラブルデバイス、ラップトップなど)であり得る。HCIデバイス110はプロセッサ120、メモリ160及びコミュニケータ180を含む。
【0033】
[0062]プロセッサ120は例えば、一組の指示又はコードを走らせる及び/又は実行するように構成されたハードウェアベース集積回路(IC)又は任意の他の好適な処理デバイスであり得る。例えば、プロセッサ120は、汎用プロセッサ、中央処理ユニット(CPU:central processing unit)、加速処理ユニット(APU:accelerated processing unit)、特定用途向け集積回路(ASIC:application specific integrated circuit)、フィールドプログラム可能ゲートアレイ(FPGA:field programmable gate array)、プログラム可能論理アレイ(PLA:programmable logic array)、コンプレックスプログラム可能論理デバイス(CPLD:complex programmable logic device)、プログラム可能論理コントローラ(PLC:programmable logic controller)等々であり得る。
プロセッサ120はシステムバス(例えばアドレスバス、データバス、及び/又は制御バス)を介しメモリ160へ動作可能に接続される。
【0034】
[0063]手短に言えば、プロセッサ120は視線追跡器102により記録され送信された眼球運動信号を受信し処理するように構成され得る。プロセッサは以下にさらに詳細に説明されるように眼球運動信号の自動校正などの高速視線追跡に関連付けられた機能を行うように構成され得る。プロセッサ120はさらに、UI/UXプレゼンタ106を介しユーザへ提示される相互作用型UI/UXを生成し更新し、神経記録デバイス104により記録され送信される神経信号、UI/UXプレゼンタ106により送信されるデータ、EMGデバイス108により送信された筋電図検査信号、及びHCIシステム100へ結合された様々な周辺センサ及び/又はアクチュエータから受信される任意の他の信号を受信及び処理するように構成され得る。プロセッサ120は、受信された信号及びデータを個々に、別々に、又は集合体として一緒に処理し得る。視線追跡器102、神経記録デバイス104、UI/UXプレゼンタ106及びEMGデバイス108のような様々な他の部品から受信される信号を処理することは、信号取得、信号前処理、信号較正、及び/又は信号強調などのような手順を含み得る、
【0035】
[0064]プロセッサ120はさらに、ポインティング制御機能及び行為制御機能を使用して、UI/UXとのユーザ相互作用を実施するように、そして視線追跡器102、神経記録デバイス104、UI/UXプレゼンタ106、EMGデバイス108、様々な他の周辺センサ及び/又はアクチュエータ、並びHCIシステムへ結合され得る機械と通信するように構成される。
【0036】
[0065]プロセッサ120は1又は複数のユーザの特定ニーズを満足するために戦略的に設計されたUI/UXを生成するように構成され得る。戦略的に設計されたUI/UXは、教育、娯楽、ゲーミング、機器管理、身体障害者のための通信インターフェース(例えば綴り器)などの様々なニーズのために生成され得る。場合によっては、UI/UXは、ユーザが特定行為(例えば洗練化された機器を制御すること)を行うためにHCIシステムを使用する能力を得るように、トレーニングセッションのためのものであり得る。プロセッサ120は1又は複数のユーザについて学習しそれに適応するように構成され得る。次に、ユーザ固有トレーニングUI/UXが、試験及び現実世界実現のためのUI/UXを生成するように適応化され得る。いくつかの実施形態では、UI/UXは仮想現実環境又は拡張現実環境として設計され得る。いくつかの実施形態では、UI/UXは、例えば特定ユーザ履歴、反応時間、ユーザ嗜好など特定ユーザの特定ニーズのためにカスタム構築され得る。
プロセッサ120は、UI/UXを生成及び更新する際にこれらすべての要件を考慮し得る。
【0037】
[0066]いくつかの実施形態では、眼球運動信号、眼神経信号、EMG信号及び/又は周辺センサからの信号を処理することに関連して、プロセッサ120はまた、原因であった刺激又は処理されている信号を引き起こしたUI/UXを介し提示された刺激に関係するデータにアクセスしこれを処理し得る。これらの組み合わされた情報により、プロセッサ120は、ユーザの意図を予測するために、以下にさらに詳細に説明されるように統計モデルに基づき当該信号特徴を検出し好適な信頼スコアを適用し得る。次に、この予測された意図は、例えばUI/UXプレゼンタ106を介し提示されたUI/UXを介しユーザへ伝達され、そしてUI/UXにおける及び任意の連結制御可能機械又は機器における変更を行うために使用され得る。
【0038】
[0067]プロセッサ120は、信号の解析のための任意の好適な方法を行い得る。例えば、プロセッサ120は、信号を解釈するために統計モデルを構築しそしてそれを適用するために使用され得る信号から一組の特徴を検出し得る。例えば、プロセッサ120は、信号を分類し、信号と信号を引き起こした刺激とをスコア付けし、信号と信号を引き起こした可能性のあるUI/UXにおける1つ又は複数の標的刺激とを相関付け、ユーザにより意図された標的刺激に関連付けられた行為を判断し行うように構成され得る。プロセッサ120は、ポインティング制御機能及び行為制御機能を実施することにより、ユーザにより意図された行為を判断し行い得る。プロセッサ120は、ユーザ行為が意図された結果事象に繋がるように、ユーザが提示されたUI/UXと相互作用することを可能にし、そしてユーザ相互作用に基づきUI/UXを更新するように構成される。例えば、HCIシステム100が機器を操作するためにユーザにより使用され得るいくつかの実施形態では、プロセッサ120は、UI/UXを提示し、ユーザから眼球運動信号、ニューラル信号、EMG信号、及び/又は他の周辺信号を受信しこれらを処理し、これらの信号をユーザ相互作用へ解釈し、これらのユーザ相互作用に基づきUI/UXを更新し、これらのUI/UXとのユーザ相互作用に基づき機器を制御する。
【0039】
[0068]いくつかの実施形態では、プロセッサ120は、プロセッサ120の上に説明した機能又は機能における他の関連処理のうちの1つ又は複数を行うように構成された部品又はユニット(図1に示さず)を含み得る。例えば、プロセッサは、それぞれが視線追跡器、神経記録デバイス、EMGデバイス、UI/UXプレゼンタなどから信号を受信し、受信された信号を処理し解析し解釈する等々するように構成された部品又はユニットを含み得る。プロセッサはさらに、UI/UXプレゼンタを介しユーザへ提示されるUI/UXを生成するように構成された部品及びユーザから受信された信号の解釈に基づきUI/UXにおける好適な変更を実施するように構成された部品を含み得る。プロセッサ120は、ユーザから受信された信号(例えば視線追跡器信号、神経記録符号、EMG信号など)とユーザの意図との関連性を学習するために好適なツール(例えば機械学習ツール)を使用して統計モデルを構築するように構成された部品をさらに含み得る。これらの関連性は、HCIシステム100をトレーニングして特定ユーザニーズを満足するように動作させるために使用され得る。いくつかの実施形態では、プロセッサ120に含まれる様々な部品は、メモリ160内に格納されそしてプロセッサ120により実行され得るコードの形式のソフトウェアアプリケーション又はルーチン又は指示であり得る。いくつかの実施形態では、HCIデバイス110及びプロセッサ120は、上に参照によりその全体を本明細書に援用した‘253出願に記載のHCIデバイス及びプロセッサとほぼ同様であり得る。
【0040】
[0069]HCIデバイス110のメモリ160は例えばランダムアクセスメモリ(RAM)、メモリバッファ、ハードドライブ、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROM)等々であり得る。メモリ120は例えば、1つ又は複数のソフトウェアモジュール、及び/又はプロセッサ120に1つ又は複数の処理、機能等々(例えばUI/UXの生成、ユーザから受信された眼球運動信号、神経信号又はEMG信号とユーザ意図とを関連付けるために統計モデルを構築すること、HCIシステムをユーザへトレーニングし、ユーザ意図を予測するために統計モデルを使用すること、HCIシステムなどへ結合された機械又は機器を制御すること)を行わせる指示を含み得るコードを格納し得る。いくつかの実施形態では、メモリ160は、プロセッサ120へ動作可能に接続され得るポータブルメモリ(例えばフラッシュドライブ、ポータブルハードディスク等々)であり得る。他の場合には、メモリはHCIデバイス110と遠隔的動作可能に接続され得る。例えば、リモートデータベースサーバがHCIデバイス110へ動作可能に接続され得る。
【0041】
[0070]HCIデバイスは、HCIデバイス110と、視線追跡器102、神経記録デバイス104、UI/UXプレゼンタ106、EMGデバイス108、及びHCIシステム100に含まれ得る他の周辺センサ又はアクチュエータ(図1に示さず)との間のコミュニケーションを送受信するように構成されたコミュニケータ180を含む。コミュニケータ213は、プロセッサ120及びメモリ160へ動作可能に接続されたハードウェアデバイス及び/又はプロセッサ120により実行されるメモリ160内に格納されるソフトウェアであり得る。コミュニケータ180は例えばネットワークインターフェースカード(NIC)、Wi-Fi(商標)モジュール、Bluetooth(登録商標)モジュール、及び/又は任意の他の好適な有線及び/又は無線通信デバイスであり得る。さらに、コミュニケータはスイッチ、ルータ、ハブ、及び/又は任意の他のネットワークデバイスを含み得る。いくつかの実施形態では、コミュニケータ120はさらに、HCIデバイス110をHCIシステム100と同様な又は異なるHCIシステムの他のユーザによりアクセス可能であり得る通信ネットワークへ接続するように構成され得る。場合によっては、コミュニケータ180は例えばインターネット、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN:wide area network)、都市域ネットワーク(MAN:metropolitan area network)、worldwide interoperability for microwave access network(WiMAX(登録商標))、光ファイバベースネットワーク、Bluetooth(登録商標)ネットワーク、仮想ネットワーク、及び/又はそれらの任意の組み合わせなどの通信ネットワークへ接続するように構成され得る。HCIデバイス110はまた、リモートサーバ(図1に示さず)へ接続し、そしてコミュニケータ180を介し、リモートサーバに含まれるデータベース又は他の好適な情報へアクセスすることができるように構成され得る。
【0042】
[0071]図1の概略図に示さないが、いくつかの実施形態では、HCIシステム100は、音声、接触、配向などの他のモダリティを介しユーザの挙動に関するデータを収集するために1つ又は複数の任意選択的周辺センサと、豊かなマルチモーダルユーザ体験を提示するために周辺アクチュエータとを含み得る。
【0043】
[0072]図1の概略図に示さないが、いくつかの実施形態では、HCIシステム100は、中央制御システム又はサーバシステムを含む他のHCIシステムのネットワークと接続され一体化され得る。このようないくつかの実施形態では、HCIシステム100は各HCIシステムを使用してマルチユーザ体験を各ユーザへ提示し得る。このようないくつかの実施形態では、中央制御システムはHCIデバイス110とほぼ同様であり得、中央制御システムはすべてのユーザに共通であり得る機能のうちのいくつか(マルチユーザUI/UXを生成及び更新すること、すべてのユーザ運動に関係する入力を受信することなど)を行い得る。一体化されたHCIシステムのそれぞれのHCIシステムの各HCIデバイス110は、単一ユーザ用に適合された局所化機能(単一ユーザUI/UXを生成及び更新すること、単一ユーザ運動に関係する入力を受信することなど)を行い得る。
【0044】
HCIシステムの仕組み
[0073]上述のように、HCIシステムは相互作用型UI/UXを介し刺激をユーザへ提示するために使用され得る。ユーザにより生成される信号(眼球運動信号、神経信号、又はEMG信号など)は相互作用型UI/UXの制御を行うために記録、解析、解釈、及び使用され得る。場合によっては、HCIシステムは外部機器又は装置へ結合され得る、又は現実世界環境及びUI/UXに関するユーザの制御の他の態様は、外部機器又は装置又は関連現実世界態様に関する制御を仲介するために使用され得る。UI/UXに関するユーザの制御は、(UI/UX)機能とのユーザの相互作用を仲介するポインティング制御機能及び行為制御機能を含み得る。ポインティング制御機能は、ユーザが小さな一組の1つ又は複数のマニュピレータ又は相互作用可能行為アイテム(例えばアイコン、オブジェクト、刺激、タグなど)に絞ることを可能にするマウスポインタのような従来のポインティングデバイスであると類推され得る。行為制御機能は、ユーザがUI/UXを介しUI/UX又は連結機械又は機器(例えば車椅子)における変更を行うための行為を実施することを可能にする例えばマウスクリック、キーボード上のキーストロークなどの行為(例えば選択、選択解除など)を仲介するデバイスであると類推され得る。HCIシステムにおけるUI/UX機能は、選択メニュー、ナビゲーション制御等々を提示することのような他の機能に加えてポインティング及び行為制御機能を実現する環境を生成し維持するオペレーティングシステムであると類推され得る。
【0045】
[0074]行為制御機能により行われる行為は、多くののうちの1つであり得、そして様々なデバイス又は機械を制御するように設計されたUI/UXの様々なバージョンに適するように適応化され得る。いくつかの例を挙げると、行為は、UI/UXに対する活性化又は非活性化、連続的又は半連続的変更であり得る。例えば、数ある中でもスクローリング、ホバーリング、ピンチング、ズーミング、タイトル付け、回転移動、スワイピング。行為はまた、ハイライトなどのような個別開始及び停止を伴うUI/UXに対する緊急変更を行い得る。UI/UXを介する行為制御の他のいくつかの例は、仮想キーボード制御、メニューナビゲーション、オブジェクト又はアイテムを置く行為及び取り除く行為、オブジェクト又はアイテムを移動する行為、オブジェクトを拡大及び/又は縮小する行為、第1の観察者又はプレーヤの運動又はナビゲーション、観察者の観点を変更すること、及び掴むこと、摘まむこと、又はホバーリングのような行為を含み得る。行為制御のこれらの態様のいくつかが以下に開示される。
【0046】
[0075]HCIシステムを実現するいくつかの実施形態では、ユーザの焦点を識別するためのポインティング制御機能及び方法は、ユーザの眼球運動信号を処理することにより実施され得る。いくつかの実施形態では、ユーザの焦点を識別するためのポインティング制御機能及び方法は、UI/UXの操作を介し、及び/又はユーザの焦点に関し有益であり得る神経信号自体を使用することにより、又は場合によってはこれらの神経信号を眼球運動信号を処理することと補完的に又はこれに加えて使用することにより、のいずれかにより実施され得る。本明細書において説明されるHCIシステムのいくつかの実施形態では、ポインティング制御機能は、筋電図検査などの様々な方法を介し骨格筋群の運動又は個々の筋肉の運動から記録される信号を含み得る。さらに他の実施形態では、脳信号、筋肉運動の信号、及び眼球運動信号の組み合わせ並びにUI/UXの戦略的操作がポインティング制御機能を実施するために同時に(例えばHCIシステム)又は個々に使用され得る。上述の信号に加えて、ハイブリッドである又はそうではないHCIシステムがまた、様々な周辺センサからの他の信号(例えば頭位置追跡信号、身振り、姿勢調整など)を監視し使用し得る。
【0047】
[0076]いくつかの実施形態では、HCIシステムはUI/UX又は機械の人間挙動ベース制御を実施する洗練化されたUI/UXを実現し得る。これらの機能のうちの1つ又は複数に対する特別の適応化が、以下に述べるように、HCIシステムとの人間相互作用の高速且つ高精度を実現するために実施され得る。例えば、いくつかの実施形態では、HCIシステムは、上に参照により援用された‘598出願において説明したものとほぼ同様であり得る。
【0048】
[0077]UI/UXは、HCIシステムにより満足されるべきニーズを考慮して適応化され得る。例えば、移動可能性のために患者により使用されることになるHCIシステムは、低認知負荷による使い易さを標的とするUI/UXを含み得る。別の例として、学習ツールとして子供達に使用されるHCIシステムは、子供達による直観的相互作用に合わせて作られたUI/UXを含み得る。同様に、ゲーミング体験を対象としたHCIシステムは、高速且つ高精度等々のために設計されたUI/UXを含み得る。例えば、いくつかの実施形態では、HCIシステム及び/又はユーザインターフェース/ユーザ体験(UI/UX)は、上に参照により援用された‘209出願に記載のものとほぼ同様であり得る。
【0049】
[0078]HCIシステムは、1又は複数組の基礎的方法を使用することにより操作される洗練化されたUI/UXを介し1又は複数のユーザと相互作用するように構成され得る。例えば、HCIシステムは、その開示を全体として参照により本明細書に援用する2018年1月18日(「‘846出願」)出願の米国特許出願第62/618,846号:題名「高速度、高精度、直観的ユーザ相互作用のための適応化を有する脳/コンピュータインターフェース:Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions」に記載のものとほぼ同様な基礎的解析ツール及び方法により構成され得る。
【0050】
[0079]図2Aは例示的UI/UX271を介した例示的HCIシステム200との例示的ユーザ相互作用を示す。システム200は構造及び/又は機能において上述のHCIシステム100とほぼ同様であり得る。例えば、BCIシステム200は視線追跡器202、神経記録デバイス204、HCIデバイス(図示せず)、及びUI/UX271を提示するUI/UXプレゼンタ206を含み得る。図2Aに示すように、HCIシステム200は、ユーザが単語及び/又は文章を綴るのを助けるために視線追跡器202を介し眼球運動信号を捕捉しそして神経記録デバイス204を介し神経信号を捕捉し得る。UI/UX271は、図2Aに示すようなタグ179(例えばキーボード上で一般的に見出される文字、数及びシンボル)を含むタグ又はオブジェクトのグループ(タググループフラッシュとも呼ばれる)の形式で刺激を提示し得る。フラッシュされたタグの1つはユーザにとって興味のある標的タグ285(例えば図2Aの概略図内の文字Q)であり得る。文字を選択し単語を綴るためにUI/UX171において標的タグ285上の文字「Q」を凝視する又は中心窩で捉えるために眼球運動を行うユーザが示される。図2B、2Cは、ユーザの中心窩に関連付けられた又は焦点を標的タグへ向ける例示的眼球運動信号及び神経信号(黒色)を示し、この関連付けられた神経信号は標的タグを見る際のシグネチャ形状(例えば事象関連電位)を含む。図2Cはまた、比較のために、ユーザが標的タグではないタグを見たときの神経信号(マゼンタ色)を示す。
【0051】
[0080]図3はHCIシステム300の例示的実施形態を処理350の概略フローチャートの形式で示す。システム300は、構造及び/又は機能の点で上述のシステム100及び/又はシステム200とほぼ同様であり得る。図3に示す例示的実施形態では、ユーザは相互作用可能オブジェクト379(本明細書ではタグともは呼ばれる)の選択を含む刺激をUI/UX371を介し提示される。例示的概略図は、タグ379のうちの1つ(例えば八角形)がユーザの関心の標的タグ385であり得る。図3に示す例における一連の事象は、刺激(例えば一組の行為に関連付けられた一組のタグを含む刺激)の提示、その後の神経活動信号及び眼球運動信号及び/又は妥当な場合周辺信号を取得すること、取得された信号を解析すること、ユーザの意図を推論又は復号化するためにこれらの信号を解釈すること、そして、UI/UXにおける変更を行うこと(例えば、行為の1つ又は複数に関連付けられたタグの1つ又は複数を選択することにより)を含む。UI/UXを変更するために実施される1つ又は複数の行為はまた、UI/UXを介し接続された1つ又は複数の外部機械を制御し得る。
【0052】
[0081]図3に示すHCIシステムの例示的実施形態では、工程351において、ユーザは入力刺激を提示される。入力刺激は例えば、例示的UI/UX371において示される一組のタグ又はシンボル379であり得る。UI/UX371におけるすべてのタグ379は可視であり得るが、タグ379の1つ又は複数は、選択のために、それらの有用性を指示するために外観が一時的に変化するように構成され得る。外観の変化はタグの任意の好適な特性(例えば、塗りつぶし、透明度、強度、コントラスト、色、形状、サイズ、配向など)の変化であり得る。例えば、タグ379の1又は複数は、可能な選択を指示するために点滅(そうでなければ本明細書では「タグ点滅」とも呼ばれる)するように構成され得る。様々なグループの可視タグ379が、一緒に点滅していくつかの組み合わせのタグ点滅(又はいくつかのタググループ点滅)を生じるように構成され得、各タグ点滅又はタググループ点滅は刺激である。例示的刺激は視覚的モダリティにおける刺激であるように説明され、変更は視覚的モダリティで提示されるが、任意の好適なモダリティが刺激を提示するとともに同様な行為選択を行うために使用され得るということに留意すべきである。例えば、音調がタグとして使用され得る。聴覚的タグの任意の好適な聴覚特性が、選択されるべきそれらの可用性を指示するために一時的に変更され得る。例えば、ラウドネス、継続時間、ピッチ、チャープ、音色などのような特性が、UI/UXの聴空間においてタグ点滅として使用されるために一時的に変更され得る。
【0053】
[0082]351では、UI/UX371において提示される3つのタグ379はそれぞれ、選択されると別個の行為を仲介するように構成され得る。可視タグの1つは標的タグ又はユーザが選択したいタグであり得る。図3に示す例示的手順を介したHCIシステム(上述のHCIシステム100のような)のゴールは、提示されたタグ379のどれがユーザが選択したい標的タグであるかを判断することである。
【0054】
[0083]UI/UX371は、工程351において、各可視タグ379を刺激として1又は複数回提示する(例えばタグ点滅により)ように構成され得、そして工程353において、HCIシステム(例えばシステム100)は、適用可能であれば、その後の脳活動信号373及び/又は眼球運動信号375並びにユーザ挙動(図3に示さず)を報告する任意の他の信号を、刺激提示377(例えば、どのタグ又はタググループが、どの時点で、UI/UX371のどの場所において等々に提示されたか)に関する情報と共に取得する。
【0055】
[0084]利用可能タグ379は、単にタグ点滅を介し又はタググループの組み合わせで提示され得る。タググループにおけるタグ点滅は、標的タグ385を見出すために必要とされる点滅の数を低減し得る。場合によっては、刺激提示はまたタグへ結び付けられなくそしてユーザにより気付かれないと予測されるゴースト点滅の非可視刺激の疑似提示を含み得る。ゴースト点滅はUI/UX371による刺激提示を校正するために使用され得る。例えば、ゴースト点滅は、特定タグ379上のユーザの焦点又は注意を指示する信号の解析中の検出閾値を設定するために使用され得る。ユーザは、両眼を使用して注意を標的タグに合わせることにより興味ある標的タグを中心窩で捉えるように誘導され得る。
【0056】
[0085]355において、HCIシステムは取得された眼球運動信号375、神経信号373(及び他のセンサからの他の周辺信号)を解析するが、これは個々に実行され得る又は統合的アプローチで集合体として実行され得る。神経信号及び眼球運動信号(並びにEMG信号、周辺信号)の解析は刺激情報377の文脈で行われる。例えば、提示された刺激の時空間特性は取得された眼球運動、神経信号、及び/又はEMG信号と相関付けられ得る。解析は、信号の前処理、特徴検出及び特徴抽出、次元低減、教師付き(supervised)、教師無し(unsupervised)、半教師付き(semi-supervised)分類、信号を解釈するために1つ又は複数の事前構築統計モデルを構築又は適用すること、各解析の信頼スコア(例えば分類の信頼スコア)の計算、刺激情報377を取り込み使用するための好適なやり方の計算(例えば1つ又は複数のスケーリング関数の適用)、各タグ379が各標的タグ385である尤度の計算、標的タグ385の識別子の判断に関する復号化及び/又は意思決定などのいくつかのコンピュータ的方法を含み得る。図3の概略図は、351において提示された3つの可能タグのうちのどれがユーザの関心の標的タグであり得るかを識別するためにHCIシステムにより行われる例示的分類手順を示す。
【0057】
[0086]工程357は、工程355において行われた解析に基づく標的タグ385の識別子の判断を含む。工程357における意思決定又は判断は任意の好適な方法を使用して行われ得る。例えば、1つ又は複数の閾値交差アルゴリズム(threshold crossing algorithm)又は他の好適な機械学習ツールを使用すること。
【0058】
[0087]工程357における意思決定は、UI/UX371A、37B、371Cにより示される3つの可能な結果により指示されるように、工程359におけるタグ379のうちの1つの選択に繋がり得る。工程359における選択は、延いては、関連行為が行われることに繋がり得る。例えば、標的タグ385が八角形タグであると正しく識別されれば、八角形に関連付けられた行為3が行われ得る。ユーザ検証の1つ又は複数の工程もまた、標的タグ385の識別が正しかったかどうかを確定するために含まれ得る。ユーザは、標的タグ385の識別が正しかった又は誤っていたかに関するフィードバックを与え得る。このユーザフィードバックは、特定ユーザ又は特定使用ケースにマッチするようにHCIシステムをトレーニングすることにより、標的タグ385の判断に使用される様々な解析処理及び統計モデルを確認又は訂正するために使用され得る。フィードバックはまたユーザをトレーニングするために使用され得る。例えば、357において意思決定するための情報が例えば曖昧性のために又は1つ又は複数の信号が弱過ぎるために十分でなければ、ユーザは異なる環境(例えばより良い焦点)下で再び試みるために指示子を提供され得る。
【0059】
正確且つ高速視線追跡のために眼球運動信号を処理すること
[0088]本明細書で述べるように、HCIシステム100、200、300は、ユーザの焦点及びユーザの意図する行為を判断するために眼球運動信号を高速及び高精度で処理し得る。眼球運動信号は上述の視線追跡器により捕捉され得る。図4A、4Bは、システム100、200それぞれの先に説明された視線追跡器102、202に構造及び/又は機能の点でほぼ同様であり得るHCIシステム400の例示的視線追跡器402の正面図及び背面図を示す。視線追跡器402は、左眼の運動(例えば左眼により生成される視線角)を捕捉し記録するように構成された左眼カメラ422及び右眼の運動を捕捉し記録するように構成された右眼カメラ424を含む。視線追跡器402はまた、ユーザにより見られるシーン又は環境(例えば現実世界環境)を捕捉し記録するように構成されたシーンカメラを含む。
【0060】
独立センサ
[0089]場合によっては、HCIシステムが仮想環境を提示するために使用され得る場合、視線追跡器は、関連UI/UXにより仮想環境を投影するために投影レンズを含み得る。HCIシステム500に含まれるこのような視線追跡器502の例が図4Cに示される。システム500は構造及び/又は機能の点でシステム100、200、300、400とほぼ同様であり得る。例示的視線追跡器502は、左眼及び右眼それぞれのために位置決めされた2枚の投影レンズ521、523を含む。視線追跡器502は、左眼及び右眼の運動をそれぞれ捕捉するためにレンズ521、523の周囲に位置決めされたセンサ522、524それぞれを含む。
【0061】
センサ位置及び視線角計算
[0090]高速且つ正確な眼球運動追跡を達成するために、HCIシステムに含まれる視線追跡器(例えば視線追跡器102、202、402、502)は、所定のやり方で眼球運動信号を捕捉し記録するために、一つの眼あたりいくつかのセンサを含むように適応化され得る。例えば、先に説明したように、いくつかの実施形態では、視線追跡器は、ユーザの各眼により生成される眼球運動を捕捉するように位置決めされた2つ以上のセンサを含み得る。視線追跡器はUI/UX又は現実世界を各眼へ投影するように位置決めされた投影レンズを含み得、そして眼球運動信号を捕捉するように構成された2つ以上のセンサ又はカメラは各眼の投影レンズの周囲に位置決めされ得る。図4Dは、構造及び/又は機能の点でシステム100、200、300、400及び/又は500とほぼ同様であり得るHCIシステム600に含まれる視線追跡器602の斜視図を示す。視線追跡器602の概略図は、ユーザの一方の眼(例えば左眼)の運動を捕捉するように向けられる4つのセンサ622A、622B、622C、622Dの位置決めを示す。センサは、2つの軸(水平軸及び垂直軸)に沿って当該眼の投影レンズ621の周囲に位置決めされる。文字は4つのセンサのそれぞれの位置を指示し、622Aは左上(TL)、622Bは右上(TR)、622Cは左下(BL)、622Dは右下(BR)である。2つの軸は、例えば視線位置及び視線角の観点で眼位置及び眼球運動の最良の指示を提供するように好適に選択され得る。示されるように、この例では、場合によっては、センサは、直交方向(例えば水平方向及び垂直方向)に沿った視線角を補完的に伝えるために互いに直交する軸に沿って対で位置決めされ得る。
【0062】
[0091]上の視線追跡器102を参照して先に説明したように、視線追跡器のセンサは、眼位置及び眼球運動信号を独立に捕捉し記録し、そして記録された信号をHCIデバイス(例えば上述のHCIデバイス110)へセンサ固有のやり方で独立に送信するように構成され得る。別の言い方をすると、1つのセンサにより捕捉され送信される信号は別のセンサにより捕捉され送信される信号により損われ得ない。
【0063】
[0092]HCIデバイスは、センサから取得された信号に基づき好適な処理及び解析を行い得る。例えば、HCIデバイスは、センサのそれぞれから眼球運動信号を取得し、そして目毎の視線角を指示する視線方向ベクトルを独立に計算するように構成され得る。視線方向ベクトルは、視線位置(例えば、水平軸及び/又は垂直軸に沿った位置)又はユーザの焦点を判断するために使用されることになる1つ又は複数の軸に関して計算され得る(例えば水平軸に対して定義された大きさ及び方向を有する水平視線ベクトル又は垂直軸に対して定義された大きさ及び方向を有する垂直視線ベクトル)。2つ以上の軸に関して範囲を定められる際の視線ベクトルが、ユーザの視線角を集合的に表すために使用され得る。例えば、HCIデバイスは水平方向の視線ベクトル(例えば左向きベクトル)と垂直方向(例えば、上向き)の視線ベクトルとを計算し得、併せて、これらは左上に向かう視線角を表し得る。
【0064】
[0093]HCIデバイスは、視線追跡器の構成、センサ位置、センサの数、ユーザの眼から投影レンズまでの距離、視線追跡の光学素子に関係する好適な情報(例えば投影レンズの結像特性)、提示されたUI/UXなどの追加情報を視線追跡器及び/又はUI/UXプレゼンタから取得し得る。HCIデバイスはUI/UXに対するユーザの焦点を見出すために追加情報を使用し得る。
【0065】
[0094]場合によっては、HCIデバイスは、別の軸に沿った眼球運動の正確な推定値を取得するために1つの軸に沿って位置決めされたセンサのそれぞれから取得された生の眼球運動信号を組み合わせ得る。いくつかの他の場合では、HCIデバイスは、センサのそれぞれからの眼球運動信号に基づき計算し、そして次に、別の軸に沿った眼球運動の正確な推定値を取得するために1つの軸に沿って位置決めされたセンサから計算された視線ベクトルを組み合わせ得る。一例として、HCIデバイスは、垂直軸における視線ベクトルの平均推定値(例えば、垂直運動=平均(平均(BL,BR),平均(TL,TR)))を取得するために、図4Dの左上位置においてセンサ622Aから取得された信号又は視線ベクトルと右上位置においてセンサ622Bから取得された信号又は視線ベクトルとを組み合わせ(例えば、平均(TL,TR))、そして左下位置においてセンサ622Cから取得された信号又は視線ベクトルと右下位置においてセンサ622Dから取得された信号又は視線のベクトルとを組み合わせ得る(例えば、平均(BL,BR))。別の例として、HCIデバイスは、水平軸における視線ベクトルの平均推定値(例えば、水平運動=平均(平均(TR,BR),平均(TL,BL))を取得するために、右上及び右下位置においてセンサ622B、622Dから取得された信号又は視線ベクトルを組み合わせ(例えば、平均(TR,BR))そして左上及び左下位置においてセンサ622A、622Cから取得された信号又は視線ベクトルを組み合わせ得る(例えば、平均(TL,BL))。前述のように、互いに直交する2つの軸に沿った視線ベクトルは2つの軸により定義された2次元面内のユーザの視線角又は眼球運動を集合的に表し得る。
【0066】
[0095]場合によっては、3次元空間におけるユーザの視線位置又は焦点は、両眼からの情報を使用することにより(例えば、双眼視線判断からの焦点深度を使用することにより)、及び/又は計算された視線角に関連付けられUI/UXにおいて知覚された深度を有するオブジェクトなどのUI/UXにおいて提示された刺激からの追加ヒントを使用することにより判断され得る。他のオブジェクトにより部分的に閉塞(例えば視る人に最も近いと知覚されたオブジェクトによる閉塞)されたオブジェクトは、UI/UXにおける他のオブジェクトと比較して、オブジェクトの相対的サイズ及び位置のようなUI/UXにおける様々な特徴を操作することにより、そしてオブジェクトの相対運動(例えば、遠く離れたオブジェクトは視る人に近いオブジェクトよりゆっくり動く)により、知覚された深度に関連付けられ得る(例えば、小さく背の高いオブジェクトは深度という点で遠く離れているように知覚される傾向がある)。
【0067】
センサ重み付け
[0096]いくつかの実施形態では、HCIデバイスは、視線追跡器上のセンサのそれぞれから取得された信号が様々な重み付け係数により重み付けられ得るように、一組の重み付け係数を生成するように構成され得る。いくつかの実施形態では、重み付けは、2つの例示的場合には図5A、5Bに示すようにユーザの眼球運動又は視線角に基づき判断され得る。例えば、いくつかの実施形態では、視線追跡器センサ又はカメラは、眼がセンサ又はカメラに直接面している場合には増加された精度と低減された変動性とを有し得る。すなわち、ユーザが左方向の眼球運動又は視線シフトを行うと、眼は左側に配置されたセンサにより近く、左側センサは低減された変動性と共に増加された精度を有し得る。逆に、斜め視線は、センサにより捕捉されるために利用可能な低減された瞳面のために検出するのが困難であり得る。これらの観察に基づき、ユーザが、方向付けられた眼球運動を行う場合、HCIデバイスは、増加された精度及び低減された変動性から恩恵を受け得るセンサが眼球運動方向に起因する不利な立場のセンサの残りのセンサより大きく依存され得るように、眼球運動を粗く評価してそして視線追跡器へ結合された各センサに関連付けられた重み付け係数を更新するように構成され得る。
【0068】
[0097]図5A、5Bは、例示的視線追跡器702の左投影レンズ721と左眼に対してこのレンズ721の周囲に位置決めされたセンサ722A、722Bとを示す。視線追跡器702は、先に説明したHCIシステム100、200、300、400、500、600と構造的及び/又は機能的に同様であるHCIシステム700(図示せず)に含まれ得る。レンズ721は標的刺激779をUI/UX表面内の様々な位置に投影するために使用され得る。図5Aでは標的刺激729は中心に在り、一方図5Bでは標的刺激はレンズ721の左縁にある。図5Aに示すように、ユーザが、中央に在る標的刺激729に向かって前向き眼球運動を行う(すなわち、ユーザが前方を中心窩で捉える)場合、水平方向に沿ったセンサ722A、722B(例えば左側センサ、右側センサ)はそれぞれ、各センサの垂直軸に対し法線方向(矢印により指示される)である計算された視線ベクトルを生じ得る眼球運動信号を送信し得る。2つのセンサは同程度の精度及び変動性を有するものと判断され得る。したがって、等しい重み付け(又は2つのセンサ間の50:50重み付け)がHCIデバイスにより採用され得る。しかし、図5Bに示すように、ユーザが左縁において標的刺激729に向かって斜め左向き眼球運動を行うと、左側センサ722Aは、センサ722Aの中心軸に対し垂直である視線ベクトルを生じる眼球運動信号を送信し、増加された精度及び低減された変動性を有し得る。右側センサ722Bは、低減された精度及び/又は増加された変動性に悩まされ、そして、角度付けされた矢印により指示されるように高い斜度を有する計算された視線ベクトルを生成し得る。このような場合、2つのセンサ間の偏った重み付け(例えば80:20重み付け)は、ユーザの焦点を指示するために眼球運動信号をより良好に推定するためにセンサ722Aにより大きくそしてセンサ722Bにより小さく依存するように採用され得る。
【0069】
[0098]別の言い方をすると、視線ベクトルはセンサのそれぞれを使用して眼毎に計算され得、各センサに関連付けられた視線ベクトルは、視線角の当該センサの頂角に対する斜度などの眼球運動の特性に基づき適切に重み付けられ得る。ユーザがリアルタイムに眼球運動を行うと、各センサに関連付けられた重み付けが各眼球運動に基づき動的に変更され得る。
【0070】
[0099]いくつかの実施形態では、上述のように、視線追跡器は、図4Dの例に示すように、直交軸に沿って対のレンズの周囲に位置決めされた3個以上のセンサを目毎に含み得る。例えば、視線追跡器は、各眼の眼球運動を捕捉するために各レンズの周囲に且つ垂直軸及び水平軸に沿って対で配置された4つのセンサを含み得る。HCIデバイスは、センサのそれぞれから取得された信号から生じる重み付けられた垂直方向視線ベクトルを組み合わせることにより垂直方向視線ベクトルの平均推定値を計算するための重み付けを各センサへ割り当て得る。組み合わされた垂直方向視線ベクトルを計算するためにセンサのそれぞれへ割り当てられた重み付け(例えばwTL-V、wTR-V、wBL-V、wBR-V)は水平方向正常軸に関して範囲を定められた視線ベクトルの斜度に基づき得る。同様に、HCIデバイスは、センサのそれぞれから取得された信号から生じる重み付けられた水平視線ベクトルを組み合わせることにより水平視線ベクトルの平均推定値を計算し得る。水平視線ベクトルを計算するためにセンサのそれぞれへ割り当てられた重み付け(例えばwTL-H、wTR-H、wBL-H、wBR-H)は垂直方向正常軸に関して範囲を定められた視線ベクトルの斜度に基づき得る。
【0071】
[00100]一例として、図4Dを参照すると、HCIデバイスは、右上及び右下位置におけるセンサ622B、622Dから取得された重み付けられた水平方向ベクトル(例えば、平均(TR,BR))と左上及び左下位置におけるセンサ622A、622Cから取得された重み付けられた水平方向ベクトル(例えば、平均(TL,BL))とを組み合わせることにより組み合わされた水平視線ベクトルを生成し得る。各センサへ割り振られる重み付けは、計算の方向に垂直な軸に対するベクトルの斜度を推定することにより動的に判断され得、センサは斜度が低減されればより大きく重み付けられる。例えば、水平方向ベクトルを計算する際、斜度は垂直軸に対して計算される。
【0072】
[00101]したがって、センサ622B、622Dからの水平視線ベクトルは各センサの垂直軸に対する斜度に基づく重み付けとして組み合わされ得(平均(wTR-H*TR-H,wBR-H*BR-H))、センサ622A、622Cからの水平視線ベクトルは各センサの垂直軸に対する斜度に基づく重み付けとして組み合わされ得る(平均(wTL-H*TL-H,wBL-H*BL-H))。いくつかの実施形態では、水平軸に沿って(例えば左及び右に)分解された組み合わせ視線ベクトルは他のパラメータ(水平軸における視線ベクトルの正味推定値を取得するためのセンサ位置など)に基づきさらに重み付け(例えば、重み付けR及び重み付けL)られ得る(例えば、水平運動=平均(重み付けR*平均(wTR-H*TR-H,wBR-H*BR-H),重み付けL*平均(wTL-H*TL-H,wBL-H*BL-H))。場合によっては、重み付け係数は所定重み付け関数又は重み付け式に基づき判断され得る。図5Cは右眼センサに関連付けられた重み付けを判断する例示的重み付け関数を示す。場合によっては、重み付けられた視線角は、ユーザの焦点を正確に判断するために、校正された眼球運動信号として働き得る一方で、重み付け無し視線角は視線位置の粗い推定値として働き得る。いくつかの実施形態では、HCIデバイスは、視線追跡器に含まれるセンサから取得された信号を処理する総合解析を行うように構成され得る。換言すれば、センサからの信号は、集合体を形成するために連結され、そして各センサからの信号の適切な重み付けを使用する統合的アプローチを使用して処理され得る。例示的解析パイプラインは以下のものを含み得る:(1)1つ又は複数のフィルタシステム(例えばデュアルカルマンフィルタ又は任意の他の無遅延フィルタ)を介した、1つ又は複数の信号の好適な前処理、(2)信号の重大エポック(例えば刺激又はタグ点滅が続く又はそれと同時のエポック)で登録された事象を分類するBayesian線形弁別分類器、(3)重み付けられた信号パッケージに関する空間フィルタ、(4)バッギングアンサンブル(bagging ensemble)分類器アルゴリズム、及び(5)選択精度を改善するために実験的タスク中に分類アルゴリズムからの情報とプログラムルーチンとを組み合わせる高次オラクルアルゴリズム。
【0073】
[00102]いくつかの実施形態では、HCIシステムは、視線追跡器の1つ又は複数のセンサから取得された眼球運動信号内の消失データ又は人工データが置換され補整され得るように、シミュレートされた眼球運動に基づく運動学モデルを生成し得る。運動学モデルは、眼の生体構造、視線追跡器の構成、頭位置などユーザに関係する情報、投影レンズのUI/UXプレゼンタとユーザの眼との間の距離、ユーザの眼の間隔、等々を含む情報を使用して生成され得る。いくつかの実施形態では、運動学モデルは、センサベースでセンサ内にシミュレートされたユーザ(実際のユーザを真似たユーザ)のシミュレートされた眼球運動信号を生成するように構成され得る。
【0074】
[00103]いくつかの実施形態では、HCIデバイスは、他のユーザからの統合データ又は以前のセッションにおける同じユーザから収集された眼球運動データのいずれかに基づき、又はユーザの眼球運動を真似るシミュレートされた眼球運動データから、ユーザの眼球運動の統計モデルを構築し得る。次に、HCIデバイスはユーザの予測眼球運動信号を生成するためのモデルを使用し得、このモデルは高速視線追跡を支援し得る。場合によっては、HCIデバイスは、所定時刻に眼球運動の特性(例えば、時刻Tsにおける、継続中の眼球運動の運動量及び方向)を収集し、そして将来時点(例えばT+t秒、ここでT、tは時間間隔値であり得る)における視線位置又は眼球運動を予測するためにこれらの特性を使用し得る。HCIデバイスはまた、ユーザにより意図された行為を判断するために、ユーザの予測視線位置又は視線ベクトルを判断する際の追加精度のために運動学モデルを利用し得る。
【0075】
自動校正
[00104]本明細書において説明されるHCIシステムのいくつかの実施形態では、ユーザの焦点を判断するために及び/又はユーザにとって興味のある標的刺激を判断するためにユーザの眼球運動信号を解析する処理は視線追跡器の正確な較正を含み得る。視線追跡器の較正は、以下に述べるように、1つ又は複数の増分的且つ独立的処理において行われ得る。場合によっては、較正は実施毎又はユーザ毎に自動的に行われ得る。
【0076】
[00105]いくつかの実施形態では、較正は明白に行われ得る(すなわちユーザの明示的な知識により)。例えば、HCIシステムは、ユーザが教師付きやり方で所定期間の間凝視するように指示される所定較正点(例えば5~9点)を含む視線追跡器較正(例えば5~9点較正ルーチン)のために明示的に設計された刺激を生成し使用し得る。他のいくつかの実施形態では、自動校正は、ユーザの知識無しに潜在的(covert)に、したがって目立たないやり方で行われ得る。
【0077】
[00106]潜在的較正は、ユーザの注意及び焦点を捕捉する高尤度を有する(すなわち、ユーザに特定組の点を中心窩で捉えさせる可能性が最も高い)刺激を使用して行われ得る。例えば、UI/UXは、ユーザが一組の点を中心窩で捉えることを要求される又は一組の点を中心窩で捉える可能性が高い刺激を含むように戦略的に設計され得る。図6は、ユーザが次のシーン又は環境へ進むためにドアにアクセスすることを要求されるUI/UXにおいて提示された仮想環境からの例示的画像を示す。ドア上の点(例えば、ドアを操作するために使用される点)はユーザ焦点を有する可能性が高い点を表す。したがって、ドア上の点は、(1)ユーザの眼球運動信号をより良く捕捉するために、そして(2)刺激を提示するためにUI/UXをより良く利用するために、視線追跡器及び/又はHCIシステムを潜在的に較正するために使用され得る。同様に、オブジェクトの中心は、ユーザの注目を集める高尤度を有し得そして潜在的較正点として働き得る。
【0078】
[00107]別の例として、高い視覚的顕著性(視覚的特質)を含む視覚的刺激内のいくつかのエリアは眼球運動追跡の潜在的較正点として働き得る。顕著性(サリエンシー)は、UI/UXを介し投影された視角シーン又は視覚像の創発特性であり得る。視覚的顕著性は、視覚的特性の差を有するオブジェクト及び/又は文脈的関連情報を含む高尤度を有するオブジェクトに帰し得る。HCIシステムは、潜在的較正において使用されるべき高い視覚的顕著性の点を判断するためにUI/UXに含まれる画像を解析するように構成され得る。図7A、7Bは高い視覚的顕著性の点を判断するための例示的な一組の解析を示す。
【0079】
[00108]画像内の視覚的顕著性は高特質の点を予測するためにコンピュータ的にモデル化され得る(例えば2017年1月24日に雑誌Nature Communicationsでホワイトらにより公開された科学刊行物:題名「上丘神経は自然な動画の自由視聴中に視覚的顕著性マップを符号化する:Superior colliculus neurons encode a visual saliency map during free viewing of natural dynamic video」において概説された手順など)。高特質のオブジェクトを含む視覚的刺激は較正における使用のために生成され得る。このような視覚的刺激はまた、リモートサーバから利用可能な既存データセット(様々な計算モデルからのラベル付き特質レベルを有するシーンを含む)からの例を使用して生成され得る。場合によっては、高特質オブジェクトを含む視覚刺激は、CNNを使用して特質モデルを組み合わせることにより生成され得る。
【0080】
[00109]いくつかの実施形態では、HCIシステムは明示的な較正ルーチンを使用し得る。高特質のこのようなオブジェクトは、鋭い端を有するエリア、鮮明な交差線又は面を有するエリア、高コントラストを有するエリア、又は運動を有するエリアを含むオブジェクト、又は文脈的関連情報を伝えるオブジェクトを含み得る。ユーザに高視覚的顕著性の点に焦点を合わせるように指図する一方で5又は9点などの顕在的較正アルゴリズムを使用する。いくつかの実施形態では、HCIシステムは、センサから取得された眼球運動信号を処理するためにカルマンフィルタを使用し得、そして、眼球運動信号を校正するために統計モデル又は運動学モデルに基づき、意図された眼球運動の理論的予測を使用し得る。いくつかの実施形態では、2つ以上の較正方法がユーザの焦点の判断を増分的に改善するために使用され得る。
【0081】
スケーリング及び値域定め
[00110]HCIシステムでは、UI/UXプレゼンタ上に提示されるUI/UXを十分に利用しそしてユーザの焦点を正確に推定するために、UI/UXは、ユーザの眼球運動を最良フィッティングするためにスケーリングされ、値域を定められ得る。HCIシステムの視線追跡器へ結合されたHCIデバイスは、ユーザの眼球運動に目立たないやり方で適合するためにUI/UXを潜在的に自動的にスケーリングするとともに値域を定めるために一組の予めプログラムされた指示を実行するように構成され得る。例えば、いくつかの実施形態では、HCIデバイスは、ユーザに所定期間の間に広範囲の視覚的探索を行うように喚起する視覚刺激をUI/UXプレゼンタを介し生成し提示し得る。視線追跡器は、ユーザの焦点の境界を定める視線位置の軌道を形成する一連の眼球運動を捕捉し記録し、そしてこの眼球運動信号をHCIデバイスへ伝える。図8Aは、UI/UX871を見る際にユーザの視線又は焦点により追随された例示的軌道を示す。
【0082】
[00111]HCIデバイスは、軌道マップがUI/UXプレゼンタのより良く定義されたエリア又は領域全体にわたるようにUI/UXをスケーリングし値域を定めるように構成され得る。一例として、HCIデバイスは、水平方向及び垂直方向に沿った軌道の最大値と最小値との差を判断するように構成され得る。HCIは、UI/UXプレゼンタ(例えばLCDディスプレイ)の表示解像度に関係する情報を取得し得る。2つの方向に沿った最大値及び最小値並びに解像度情報に基づき、HCIデバイスは、軌道がUI/UXを中心とするようにUI/UXを更新することにより、ユーザに利用可能なUI/UXのエリア内のいかなるバイアスも補正し得る。HCIデバイスはまた、軌道が、表示エリアを最良に利用するためにUI/UXの利用可能表面全体にまたがるように、UI/UXをスケーリングし得る。図8Aの軌道のスケーリングされ且つバイアス補正された軌道の例示的概略図が、更新されたUI/UX871を介し図8Bに示される。
【0083】
[00112]場合によっては、スケーリングは図8A、8Bに示すように線形関数を使用して行われ得る。いくつかの他の場合では、スケーリングは指数関数などの様々な非線形関数を使用して行われ得る。このような実施形態は、増加された視線角又は視線角の増加された偏心度と共に指数関数的に増加するバイアスが存在する事例下で特に有用かもしれない。スケーリング及び値域定め及びバイアスの補正は、眼球運動信号を捕捉して伝える視線追跡器へ結合されたセンサの配置及び位置決めを考慮して実行され得る。
【0084】
3次元での視線追跡の較正
[00113]先に説明したように、UI/UXプレゼンタはユーザに3次元UI/UXを提示し得、3次元空間におけるユーザの視線位置又は焦点は視線追跡を介し判断され得る。HCIシステムのいくつかの実施形態では、3次元空間における焦点を判断する精度は、好適に構成された刺激を使用して校正され得る。例えば、ユーザ(例えばユーザの眼)に対するUI/UXにおけるオブジェクトの位置決め及び運動の特性がユーザの視線追跡を校正するために使用され得る。3次元視線追跡に使用される1つの例示的特性は視差である。視差は、オブジェクトの位置又は方向が異なる位置から見ると異なるように見える効果である。したがって、HCIシステムでは、データは、ユーザの位置(例えば、ユーザの眼、頭及び/又は体の位置)に関し収集され、そして静止したUI/UXを見る際のユーザの運動を追跡するために使用され得る。代替的に、静止したユーザは可動式UI/UXを提示され得る。
【0085】
[00114]UI/UXにおけるオブジェクトの予測位置は、ユーザと提示されたUI/UXとの間隔に関係する既知情報から計算され得る。予測位置情報から、予測視線角及び視線位置がユーザの予測焦点を判断するために計算され得る。視線追跡器からの眼球運動信号は、UI/UXの3次元空間におけるユーザの実際の視線位置又は焦点を判断するために、本明細書において説明されるように、取得され処理され得る。3次元空間における実際の焦点は、誤差の測度を計算するために予測焦点と比較され得る。次に、計算された実際の焦点は、校正された眼球運動信号及び/又は校正された実際の焦点を生成するために、好適な補正手順を眼球運動信号へ及び/又は眼球運動信号から計算された視線ベクトルへ適用することにより補正され得る。
【0086】
[00115]いくつかの実施形態では、ユーザは円滑追跡眼球運動(断続性眼球運動とは異なる)を生成し得る。円滑追跡眼球運動はユーザが移動刺激を追跡し追随する際に又はユーザが動いているときに静止刺激を追跡する際に生成される。ユーザは、UI/UXの3次元空間内の異なる深度のオブジェクトに対し異なる相対運動を有すると予測される。UI/UX971における例示的3次元刺激が図9に示され、ここでは、ユーザは、少なくとも3つの異なる深度:前景(木々のライン)、中景(都市風景)、及び背景(遠い水平)、におけるオブジェクトに対して移動する車中にいるとしてシミュレートされる。車が矢印により指示される方向に移動すると、3つの深度の既知固定点が3つの異なる相対速度で降順に移動すると予測される。様々な深度における既知オブジェクト又は点とユーザとの予測相対速度が、眼球運動信号から計算される実際の相対速度と比較され得る。誤差の測度がこの比較に基づき計算され得、補正測度が、上述のように眼球運動信号及び/又は焦点判断を校正するために使用され得る。
【0087】
視線追跡の較正のために神経信号を使用すること
[00116]HCIデバイスは、本明細書において説明されるように、神経記録デバイスを介し収集された神経信号を受信し処理するように構成され得る。いくつかの実施形態では、神経信号は、視線追跡器から受信された眼球運動信号に基づき眼球運動追跡を校正するために使用され得る。例えば、UI/UXはUI/UXプレゼンタ上の特定位置において特定の所定刺激を提示するように構成され得る。様々な形式の神経信号が、視覚刺激の提示の時にユーザの焦点の二次推定値を判断するために使用され得る。例えば、定常状態VEPを含む視覚誘発電位VEP(VEP:visually evoked potential)が焦点の二次推定値を判断するために使用され得る。いくつかの実施形態では、事象関連電位(ERP:event related potential)のような神経信号(P300信号など)が、記録された神経信号において検出され得、そして焦点の二次推定値を判断するために刺激提示により確証され得る。いくつかの実施形態では、二次推定値は、視線追跡器から取得された眼球運動信号に基づく焦点判断を標的方向に軽く押すために使用され得る。図10は、数字5がUI/UX1071においてERP(例えばP300信号)を生成すると予測される例示的実施形態を示す。視線追跡器から取得された眼球運動信号から判断された焦点は、赤色マーカにより指示される(数字5に対してオフ位置に在ることが示される)。HCIデバイスは、神経記録デバイスから神経信号を受信し、処理し、そして神経信号(例えばEEG信号)内のP300信号を検出し得る。検出されたP300信号に基づき、焦点の二次推定が数字5の位置に在ると判断される(橙色マーカにより指示される)。HCIデバイスは、誤差の測度及び橙色ベクトルにより指示される補正ズレを計算するために、眼球運動信号から計算された焦点(赤色マーカ)と焦点の二次推定(橙色マーカ)とを比較するように構成され得る。眼球運動信号は補正ズレベクトルに基づき自動的に校正され得る。
【0088】
視線運動分類器
[00117]いくつかの実施形態では、HCIデバイスは眼球運動分類器を使用して眼球運動信号を処理するように構成され得る。教師付き、教師無し、及び半教師付きクラスタリング方法及び分類方法を含む任意の好適な分類器がユーザの視線を分類するために使用され得る。線形分類器、ロジスティックス回帰(logistic regression)に訴える方法、線形判別分析に訴える方法、サポートベクトルマシンに訴える方法、及び他の好適な機械学習ツールに訴える方法などの分類器が、眼球運動を、断続性(サッケード)運動、非断続性運動、平滑追跡運動、微小断続性運動などのようなクラスに分類するために使用され得る。例えば、いくつかの実施形態では、眼球運動分類システムは半教師付き学習手法を使用し得、ここでは、断続性及び非断続性眼球運動のラベルがK平均クラスタリングのような手順を使用して生成され得る。クラスタはサポートベクトルマシン内へ送られ得る。
【0089】
[00118]場合によっては、断続性及び非断続性運動のクラスタは本来、非円形、非球形、又は非卵形であり得る。このような場合、K平均クラスタリングは誤分類を生じ得る。このような場合、Density Based Spatial Clustering of Applications with Noise(DBSCAN)などの密度ベース空間クラスタリング方法が使用され得る。いくつかの実施形態では、様々なクラスタの密度は不均等であり得、不均等密度はDBSCAN手順を使用する効果的分類を妨げ得る。不均等密度を有する様々なクラスの眼球運動信号のサンプルを有する例示的クラスタが図11Aにおける概略図に示され、クラスタ1はクラスタ2より低密度のサンプルを有する。低密度のサンプルを有するクラスタは本明細書において説明されるようにアップサンプリングされ得る。例えば、眼球運動信号の既存データセット(例えば図11Cに示す眼球運動信号の分布を含むデータセット)が取り出され得る。既存データセット内の一組のサンプル眼球運動信号が、所定距離メトリック「d」を使用して選択され評価され得る、距離メトリック「d」は、眼球運動信号の分類において重要であると思われる一組の特徴に基づき定義され得る。距離メトリックに基づく測度が低密度を有するクラスタ2に近い一組のサンプル眼球運動信号が、図11Bに示すような同程度密度のクラスタを生成するために、密度性に欠けるクラスタをアップサンプリングするために使用され得、これに続いて、DBSCANのような手順が眼球運動信号を分類するために効果的に使用され得る。サンプルを選択し、距離メトリックを定義し、アップサンプリングし、分類する処理は、反復によりますます良くなる結果を達成するために反復的に行われ得る。DBSCANは、クラスタの数の手入力仕様を必要としなく、したがって、このシステムはまた、スプリアストレーニング雑音(これは、2クラスタK平均システムにおいて、最も近いクラスタの重心をずらす外れ値になる)に対して頑強であり得る。DBSCANクラスタは、さらなる処理のためにSVM眼球運動分類器内へ送信される盲検試験に使用され得る。新しい点を予め規定されたクラスタへ割り当てることが効率的やり方で容易に実行され得ない場合、トレーニングされたクラスタの表現が将来の分類ニーズにおける使用のために格納され得る。例えば、トレーニングされたクラスタは中心及び外周を有するn次元凸包又はポイントクラウドとして定義され得、クラスタ内の新しい点は、クラスタの凸包までの又はクラスタ中心及び外周までの最短距離に基づき割り当てられ得る。
【0090】
視線追跡性能のベンチマーキング
[00119]HCIシステムのいくつかの実施形態では、HCIデバイスは、眼球運動追跡の精度を評価するために内蔵ベンチマーキングシステムを実装し得る。ベンチマーキングツールは、ユーザの視線位置又は焦点の推定の誤差を計算するように構成された特別に設計された刺激を含み得る。図12A、12Bは、一実施態様によるHCIシステムにおいて使用される例示的ベンチマーキングツール1285内の例示的インターフェース1271を示す。図12A、12Bにおける例は、点又はオブジェクト1280のグリッドにより指示されるデバッググリッドを含む。オブジェクトのグリッドは2次元空間又は3次元空間において定義され得る。グリッド内のオブジェクト1280の特性は必要に応じて独立に定義され得る。例えば、オブジェクトの密度、オブジェクトの間隔、オブジェクトのサイズ及び形状のような特性がHCIシステムのオペレータの要件に従って定義され得る。ベンチマーキングツール1285は、オブジェクトの特性及びグリッドを変更するために一組の制御を含み得、オペレータが視線追跡を評価する間の使用中に特性を動的に修正するための一組の表示制御を提供し得る。
【0091】
[00120]ユーザは、図12Aに示すように、標的などの視覚的又はグラフィック指示子を使用することによりグリッド内の一組のオブジェクトから1つの選択されたオブジェクト(斜線円)に焦点を合わすように導かれ得る。選択されたオブジェクトの予測位置が記録される。ユーザの視線位置又は焦点は、本明細書に説明されるように視線追跡器から取得された眼球運動信号を使用して計算され得る。標的物体の予測位置とユーザの視線位置又は焦点の計算された位置とが誤差の測度を判断するために比較され得る。本処理はグリッド内のいくつかの又はすべての点又はオブジェクトに関し反復され得る。誤差の測度から、信頼性の測度が標的オブジェクトの空間位置に応じて計算され得る。信頼性の例示的空間マップが、図12Bに示され、UI/UXプレゼンタの左下部分内の視線追跡のより高い信頼性を示す。信頼性の空間マップは、視線追跡器に関連付けられた誤差のマージンを計算するためにHCIデバイスにより使用され得る。空間マップは、ユーザが焦点を合わせようとするUI/UXプレゼンタの部分に基づき眼球運動信号をモデル化及び/又は校正するために使用され得る。例えば、空間マップは、当該信頼性は眼がUI/UXの中心から離れると低下するということを明らかにし得、したがって、眼球運動信号は、較正ずれのますますの増加、偏心度の増加、又は中心から離れる距離の増加と共に、適切に補正され得る。
【0092】
オブジェクトとの視線追跡ユーザ相互作用
[00121]HCIシステムのいくつかの実施形態では、UI/UXにおいて提示される刺激又はオブジェクトとのユーザ相互作用の正確且つ高速な計算がHCIシステムの効果的機能に必要である。いくつかの実施形態では、ユーザへ提示されるUI/UXは、3次元空間において位置決めされたオブジェクトを有する3次元環境を含み得る。このようないくつかの実施形態では、3次元空間内の特定オブジェクトとのユーザの相互作用はレイトレーシング(ray-tracing)又はレイキャスティング(ray casting)と呼ばれる処理により判断される。レイトレーシングは、像面内の画素に沿ったユーザの眼からの光路又は視経路を追跡することにより画像を生成するとともに仮想オブジェクトとの遭遇の影響をシミュレートするための描画技術である。レイキャスティングは、カメラを介しそしてUI/UXにおけるすべてのオブジェクトとの予測交差点を介し画素として光束を形成するために、光路又はユーザの視線角に追随することにより実施される。これに続いて、最も近い交差点からの画素値が、取得され、そして投影のためのベースとしてさらに設定される。レイキャスティングは、二次光束を再帰的に追跡しないであろう描画アルゴリズムである一方でレイトレーシングはそうすることができるという点でレイトレーシングとは異なり得る。
【0093】
[00122]しかし、いくつかの実施形態では、レイトレーシング及びレイキャスティングの両方は計算集約的及び/又は時間消費的であり得る、このような実施形態では、UI/UXが、3次元的に位置決めされたオブジェクトを有する3次元空間を含めば、HCIデバイスは、UI/UXの3D空間におけるオブジェクトの2D投影を使用することにより、本明細書において説明されるように、改善されたユーザ/オブジェクト相互作用手順を実施し得る。改善されたユーザ/オブジェクト相互作用手順は、衝突まで3Dレイトレーシングよりはるかに計算効率的であるとともに被験者がオブジェクトを凝視するやり方に対しより頑強であるやり方でユーザの視線相互作用を計算し得、そしてオブジェクトの形状及びサイズのオペレータの知識を活用し得る。
【0094】
[00123]改善されたユーザ/オブジェクト相互作用手順を実施するために、HCIシステムはユーザの頭の位置を追跡するための頭部追跡デバイスを含み得る。HCIシステムはさらに、ユーザの眼から追跡対象頭基準点までの距離の測定結果を取得し得る。いくつかの実施形態では、HCIシステムは、原点と共に物理座標系を定義し、そしてユーザに関する物理座標系に関係する情報を取得し得る。仮想環境又は拡張環境を実現する際、HCIシステムは、既知のスケーリング係数を使用することによりVR又はAR環境を仮想座標系から物理座標系へ変換するように構成され得る。いくつかの実施形態では、VR/AR環境の物理座標系上へのマッピングは、UI/UXをユーザへ投影する際に使用される変換行列及び投影行列を描画することに関係する情報を使用することを含み得、そして、投影レンズを介し投影する際のレンズ歪みなど投影中に発生する任意の歪み又は視覚効果に関係する情報を含み得る。
【0095】
[00124]改善されたユーザ/オブジェクト相互作用手順では、ユーザの単一視線点が、眼の面と平行であり且つユーザの頭の前の選択面と双眼3D視線ベクトルとの交差点を計算することにより推定される。便利な2D空間上へのこの選択された面の2D投影が計算される。例えば、図13は3次元室内の一組の3次元オブジェクトを示す。部屋の正面により近い面が、ユーザの眼の前に在り且つユーザの眼の面と平行となるように選択され得る。3次元空間内の様々な深度に在り得るオブジェクトのそれぞれが、この選択された面上へ投影され得る。いくつかの実施形態では、選択された2D面は、ユーザにより見られるVR/ARシーンを表す3D投影錐台のクリッピング面近くに在り得る。いくつかの実施形態では、クリッピング面(すなわち、ユーザの眼の中間点から離れた位置の面)は現実世界3D設定へ一般化可能であり得る。
【0096】
[00125]各相互作用可能3Dオブジェクトが評価され得、その中心は2D面上へ投影される。場合によっては、HCIデバイスは、単純オブジェクトとしてオブジェクトの2D投影の境界(例えば円、楕円又は矩形)を計算する。これらの境界は、柔軟であり、したがってシーンレイアウト及び視線追跡器雑音に基づき拡大又は縮小され得る。図13の概略図は、例示的シーン内のオブジェクトの各オブジェクトの周囲の例示的円状境界を示す。次に、HCIデバイスは、ユーザの視線が特定オブジェクトの上に在るかどうかとすべてのオブジェクトまでのその距離とを、3Dレイトレーシングと比較してコンピュータ的に効率的で正確なやり方で計算する。例えば、HCIデバイスは、ユーザの視線位置又は焦点とオブジェクトの投影画像とのオーバーラップの測度を計算する。場合によっては、HCIは、ユーザの視線位置とオブジェクトの投影の境界とのオーバーラップの測度に基づきユーザ相互作用を判断する。場合によっては、ユーザ相互作用は、眼球運動信号から計算されたユーザの視線位置と選択された2D面上のオブジェクトの投影画像の中心又は周囲との間の距離測度に基づき判断され得る。
【0097】
[00126]いくつかの実施形態では、3Dオブジェクトとのユーザ相互作用は、HCIデバイスが相互作用可能な3Dオブジェクトの各3Dオブジェクト上の3次元分布点のサンプルを識別しそして識別された点を、ユーザの視線位置が在り得る選択された2D面上へ投影することにより実行される。識別された点は、例えば図14Aのオブジェクト上にオーバーレイされた黒点により示されるように、境界体積の頂点、又はオブジェクトモデルの頂点の間引きされた集合を含み得る。次に、各オブジェクトのサンプリングされた点の2D投影が、オブジェクトのユーザの視界に対応する2次元面上へのオブジェクトの投影の凸包を計算するために使用される。
【0098】
[00127]いくつかの実施形態では、HCIデバイスは、ユーザの視線がオブジェクト上にあるかどうか又は視線が最近傍オブジェクトの凸包の縁までどれくらい離れているかを判断するために計算幾何学技術を適用し得る。計算される凸包は、点の数、点間隔などのような所定パラメータに基づき定義され得る。HCIデバイスは、凸包の計算を定義するパラメータを修正するために一組の制御を生成及び表示し、そして柔軟となり且つ様々なUI/UX環境へカスタム化されるようにパラメータを動的に変更するための制御をHCIシステムのオペレータへ提示し得る。例えば、凸包は、図14Bに示された例に示すようにシーンレイアウト及び視線追跡器雑音に基づき拡大又は縮小され得る。
【0099】
[00128]サンプリングされた点を含む凸包又は単純な2Dオブジェクト表現のいずれかを使用することにより、HCIデバイスは、ユーザが相互作用しているシーン内の活性可視オブジェクトの密度及びそれらの境界に基づきオブジェクトの2D投影の境界を拡大又は縮小し得る。本手順又はアルゴリズムにより使用される正確なスケーリングは利用可能データセットから体験的に導出され得る。
【0100】
[00129]加えて、ユーザの視線までの距離に基づき相互作用可能オブジェクトをスコア付けするために使用される任意の非線形スケーリング(例えば指数関数的スケーリング)パラメータ(本明細書において説明される)がまた、活性シーン内の相互作用可能オブジェクト間の平均距離に基づき動的に調整され得る(例えば、オペレータによりリアルタイムで調整され得る)。
【0101】
意図された標的オブジェクトを識別するための相互作用可能オブジェクトのスコア付け
[00130]いくつかの実施形態では、HCIシステムは、刺激として一組の選択肢を提示するように、そしてユーザの挙動を指示するユーザから記録された信号(例えば眼球運動信号又は神経信号)から、行為を開始又は仲介し得る1つの特定刺激を選択するユーザの意図を復号化するように構成される。ユーザへ提示される一組の刺激は、そのうちの特定の1つのオブジェクトがユーザにとって興味ある一組の相互作用可能オブジェクト(タグとも呼ばれる)であり得る。興味のあるこのオブジェクトは標的オブジェクトと呼ばれ得る。したがって、別の言い方をすると、このようなHCIシステムの1つのゴールは、ユーザへ提示される一組の利用可能な相互作用可能又は可視オブジェクトから標的オブジェクトの識別子をある程度の精度及び信頼性で識別することであり得る。標的オブジェクトの識別子の処理は、「特定オブジェクトが提示される」以前の尤度、特定オブジェクトがシグネチャ脳活動応答を喚起し得る尤度等々のようないくつかの情報源を取り込み得る。本明細書において説明されるHCIシステム(例えばHCIシステム100、200、300、1200、1300)は、一組の相互作用可能オブジェクトのユーザへの提示を実現するために任意の好適な手順を使用し得、そしてユーザにより選択されるべき意図された標的オブジェクトを識別するための任意の好適な手順を実施し得、これらの手順は、その全体を参照により本明細書に援用する‘846出願に記載のものとほぼ同様であり得る。
【0102】
[00131]図15は、一組の相互作用可能オブジェクトをユーザへ提示するHCIシステム(本明細書において説明されるHCIシステムと同様な)であって、意図された行為を引き起こし得るオブジェクトをユーザが選択することを可能にするHCIシステムを実現する処理1550を概説するフローチャートを示す。本処理1550は本明細書において説明される処理350及び/又は上に参照された‘846出願に記載された処理と同じ又はほぼ同様であり得る。本処理1550は、選択するとそれぞれが1つ又は複数の行為へリンクされる1つ又は複数の相互作用可能オブジェクトを含む刺激をHCIシステムのユーザへ提示する工程1501を含む。処理1550の1503では、ユーザの挙動に関係する信号が記録される。例えば、神経信号及び/又は眼球運動信号が神経記録デバイス及び視線追跡器を介し記録される。1505では、取得された信号が処理され解析される。例えば、これらの信号は眼球運動又は認識状態などのユーザ挙動を指示する特徴を抽出するために解析され得る。眼球運動信号及び/又は神経信号はユーザの視線位置を計算するために解析され得る。視線ベクトル及び視線角がユーザの焦点を判断するために計算され得る。相互作用可能オブジェクトとのユーザ相互作用を計算する手順は本明細書において説明されるように実行され得る。別の例として、神経信号はユーザ意図を検出するために解析され得る。1507では、好適な統計モデル又は解析ツールが、信号内のエポック(例えば眼球運動信号内の断続性エポック、神経信号内のシグネチャ事象関連電位など)を分類、ラベル付け及び/又は識別するために使用され得る。解析された信号のエポックは解析された信号を評価し分類するためのスコアを割り当てられ得る。
【0103】
[00132]1509において、UI/UXを介しユーザに利用可能な各相互作用可能オブジェクトは、識別、ラベル付け及び/又は解析された信号に基づきスコア付けされる。尤度に対応するように構成された相互作用可能オブジェクトに関連付けられたスコアは、取得され処理された信号に基づき、オブジェクトがユーザにとって興味のある標的オブジェクトであるということを推定する。スコアは、オブジェクト及びそれらの関連スコアを列挙することによりスコア表を形成するために、1つ又は複数の好適なスコア付け方式を使用して、解析された信号に基づき、オブジェクトに割り当てられ得る又は関連付けられ得る。別個のスコア表が、各相互作用可能オブジェクトを、HCIシステムに利用可能な情報の様々なストリームに基づき、興味のある物体であるという尤度に関しスコア付けするために生成され得る。例えば、HCIシステムは、眼球運動信号の解析に基づくオブジェクトの別個のスコア表(例えば視覚スコア表)、神経信号の解析から生成される別個のスコア表(例えば神経スコア表)、刺激の提示に関する利用可能情報に基づく別個のスコア表(例えば距離スコア表)、及びユーザの視線相互作用に基づく別個のスコア表(例えば相互作用スコア表)などを生成し得る。場合によっては、1又は複数の表が任意の好適な段階において解析を組み合わせることにより纏められ得る。例えば、眼球運動信号及びユーザ相互作用は、図16を参照して以下にさらに詳細に説明されるように、組み合わされた視覚スコア表を生成するために一緒に解析され得る。1511では、様々なスコア表がマスタースコア表を生成するために組み合わされる。1513では、最高スコア(すなわち標的オブジェクトである最高尤度)を有するオブジェクトが識別され戻される。場合によっては、HCIシステムは識別されたオブジェクトを再び提示することによりユーザから検証を求め得る。場合によっては、識別された標的オブジェクトに関連付けられた行為がHCIシステムにより実行又は実施される。
【0104】
[00133]図16は、眼球運動信号及びユーザ相互作用に基づきスコアを計算して例示的視覚スコア表を生成するためにHCIシステムのいくつかの実施形態において使用される例示的手順1650を描写する概略フローチャートを示す。この例示的方法では、ユーザは、図16の例示的UI/UX1671における5つの番号付き菱形により示される5つの相互作用可能オブジェクトを含む刺激を提示され得る。一例として、オブジェクト1がユーザにとって興味があり得る。ユーザが刺激を見る又は体験すると、神経信号がHCIシステムにより眼球運動信号と共に取得される。神経信号内のEEG信号は、興味ある標的オブジェクトを選択することに関係する意思決定の選択を行うユーザに対応し得るエポックを識別するために解析される。
【0105】
[00134]1601では、EEG信号内の識別されたエポックに対応する視線追跡又は眼球運動信号が取得される。1603では、眼球運動信号は例えばカルマンフィルタ手順を使用して処理される。1605では、処理された眼球運動信号は、さらに解析するために又はアーチファクト又は望ましくない情報を除去するためのいずれかのために使用され得る特徴検出手順を使用してさらに解析される。例えば、処理された眼球運動信号は、微小断続性眼球運動すなわち瞬きを指示する部分を検出しこのような部分を除去するために解析され得る。
【0106】
[00135]1607では、利用可能相互作用可能オブジェクトの相対的及び/又は絶対的位置が計算される。例えば、UI/UXの3次元空間は、図13、14A、14Bを参照して上に説明したように2次元面又は2次元座標空間上へマッピングされる。1609では、平均視線ベクトルが、ユーザの視線角を判断するために眼球運動信号に基づき計算される。場合によっては、2次元座標空間上のユーザの視線位置が、2次元投影面の場所に関係する知識を使用して計算され得る。場合によっては、刺激は複数回提示され得、視線角又は視線位置は、平均値を取得するために、反復された提示に毎に計算され得る。
【0107】
[00136]1611では、各相互作用可能オブジェクトの周囲の曖昧な境界に対する視線角が計算される。いくつかの実施形態では、曖昧な境界情報は、取得される眼球運動信号内の雑音の考慮を含み得る。いくつかの実施形態では、境界は、各相互作用可能オブジェクトの凸包に関して定義された境界又はオブジェクトの2D投影を表す単純オブジェクト(例えば円又は楕円)により定義された境界により部分的に判断され得る。
【0108】
[00137]1613では、視力モデルが、ユーザの視線と相互作用可能オブジェクトの境界との相互作用の計算へ適用され得る。1615では、各相互作用可能オブジェクトは、オブジェクトがユーザにとって興味のある標的オブジェクトであるという尤度を計算するために、好適なスコア付け方式(例えば-100~100のスケールの)を使用してスコア付けされる。いくつかの実施形態では、HCIシステムは、予測視線ベクトルを生成するために眼球運動運動学、人間の眼の生体構造、及び/又はユーザの眼球運動に関する情報を使用する視力モデルを含み得る。場合によっては、スコアは、生物学的に導出された視力モデルの変換に基づき得る。場合によっては、視力モデルは、例えば偏心の増加に伴う視力の指数関数的低下を取り込むために指数関数的スケーリングモデルに基づき得る。
HCIシステムは、利用可能な他のユーザデータ(例えば、ユーザの眼間隔、視線追跡器の製造者及びモデル等々)と併せて視力モデルから予測視角を取り込むみ得る。
【0109】
[00138]1617では、スコア表は、ユーザに利用可能な相互作用可能オブジェクトと興味ある標的オブジェクトであるというその尤度を指示する各相互作用可能オブジェクトの関連スコアとのリストを含むように生成又は更新される。視覚スコア表は、視力モデル及び断続性眼球運動信号からの結果、相互作用可能オブジェクトとのユーザ相互作用、及び解析される視線ベクトルの組み合わせを使用して生成され得、視覚スコア表は、計算された視線ベクトルに対するその近接性に基づき各相互作用可能オブジェクトへ割り当てられた眼球運動スコアにより生成され得る。図15に示すように、スコアv1、v2、v3などを有する視覚スコア表が、先に説明されたマスタースコアを更新するために使用され得る。
【0110】
[00139]例示的処理1650は、1601において神経信号を使用することを説明するが、場合によっては、これは、記録された時間フレーム全体から眼球運動信号を解析するために省略され得る。
【0111】
一体化された視線追跡器を有する例示的HCIシステムはEEGデバイス及びEMGデバイス
[00140]図17A~17Dは、4つの様々な実施形態による耳ベース神経記録デバイス、筋電図検査デバイス及び視線追跡器の組み合わせを有する例示的HCIシステムをそれぞれ示す。図17Aは、視線追跡器(図示せず)に加えて、1つ又は複数のEMGデバイスの耳内及び/又は耳周囲配置及び神経記録デバイスの後頭配置を含むHCIシステムを示す。図17Bは、EMGデバイスの耳周囲配置及び/又は神経記録デバイスの後頭配置を含む例示的HCIシステムを示す。
【0112】
[00141]図17Cは、EMGデバイスの耳周囲及び/又は耳内配置を示す例示的HCIデバイスの一部分を示す。図17Dは、脳の所定領域から神経記録を受信するために所定位置(例えば中央脳領域及び頭頂枝領域からEEG記録を取得するためのCz及びPz位置)においてインターフェースするためのEMGデバイスの耳周囲配置及び神経記録デバイスの配置を含む例示的HCIシステムを示す。
【0113】
HCIシステムを使用する現実世界相互作用
[00142]先に説明したように、HCIシステムは、現実世界とのユーザの相互作用を容易にするために、そして場合によっては拡張現実又は環境をユーザへ提示するために使用され得る。いくつかの実施形態では、HCIシステムは、ユーザが相互作用することになるUI/UXインターフェースを提示していなくても現実世界環境とのユーザの相互作用を解釈するために使用され得る。例えば、HCIシステムは、ユーザにより(例えば前向きカメラ又はマイクロホンを介し)見られる又は体験される画像又は環境に関係する情報を受信し得、HCIシステムは、ユーザがより頑強、効率的又は有益であり得るやり方で環境と相互作用するための情報を処理し得る。
【0114】
[00143]場合によっては、HCIシステムは現実世界環境から取得された画像を処理するようにトレーニングされ得る。例えば、興味あるオブジェクトは、IR反射テープで、又はユーザにより使用されるHCIシステムに含まれる視線追跡器又は眼鏡内のカメラにより容易に認識され得る任意の好適なマーキング物質でタグを付けされ得る。取得された情報は、眼鏡に対する物理座標を三角測量して取得するために使用され得る。
【0115】
[00144]例示的実施形態では、HCIシステムは、興味あるオブジェクトから標本点を抽出するために、眼鏡内のカメラにより記録された画像の2D映像空間に直接働きかけそしてコンピュータビジョン技術(コンピュータニューラルネット及びエッジ検出アルゴリズムなど)を使用してその中のオブジェクトを識別するためにトレーニング又は使用され得、したがって、我々は先のスライドにおいて説明された技術をそれらへ適用し得る。この方法は、我々が興味あるオブジェクトを予めタグ付けする必要が無いという利点を有する。視線データの2D投影が、ビデオ画像を生成する視錐台に対応させられる限り、視線及びオブジェクト特性は同じ2D空間において操作され得る。画像処理及び画像セグメント化のような解析が、現実世界環境の特徴(例えば、オブジェクトの頂点、縁、中心など)を検出又は識別するために行われ得る。図18は、HCIシステムを介した道路標識の現実世界ビューとのユーザ相互作用のユーザ実施の例を示す。
【0116】
[00145]図18に示す例示的処理1850では、画像フレームがビデオクリップから取得され、エッジ検出手順が、フレームに含まれるオブジェクトの縁を判断するために実行される。閉塞境界が、分画され、そしてフレームの前景と背景領域とを識別するために使用される。前景及び背景領域の割り当てに続いて、輪郭が検出され、潜在的オブジェクトがそれらの特徴(例えば色、固体輪郭など)に基づきセグメント化及び分類される。この分類に基づき、フレーム内で識別されたオブジェクトは番号付けされて提示される(例えば、オブジェクト1:一時停止標識)。このような識別子は、環境のナビゲーションにおいてそして環境内のオブジェクトとの相互作用においてユーザを支援し得る。
【0117】
[00146]いくつかの実施形態によるHCIシステムは、環境とのユーザの相互作用に関する情報を収集するために使用され得る。場合によっては、所定又は既知環境とのユーザ相互作用に関係するデータは、製品又はサービスの広告主又は販売業者などのオペレータにとって高価値のものであり得る。
【0118】
[00147]例えば、人の眼球運動は人の注意の顕在的測度として役立ち得る。標的視聴者の注意の測度は、人間挙動の点で興味のある組織(例えばマーケティング会社(マーケティングツールとして)又はゲーミング会社(環境の設計を支援する)、映画製作会社など)の多くのアプリケーションの非常に貴重な情報であり得る。
【0119】
[00148]視線位置は人の注意集中に関する情報を収集するために使用され得る。しかし、視線位置は、図19Aの概略図に示すように被検者の脳内のボトムアップ(色、形状、輝度など)信号とトップダウン(文脈的実行機能)信号との組み合わせにより制御される。これらの研究は、トップダウン信号だけがオブジェクト又は環境の購入/享受の尤度に強く(因果的に)リンクされ得るということを示す。例えば、人が、製品又はサービスのタイトルが「赤色」であり且つ高い視覚的顕著性を有しているのでこれを見たとしても、このことは人が製品又はサービスを購入する確率に影響を与えない。赤色は人の注意を引いたかもしれないが、ユーザの購入挙動に関係するそれ以上に大きな情報は存在しなく、したがって、赤色タイトルにリンクされたユーザの高い注意は、ユーザが製品又はサービスを購入するという尤度の点に興味のあるマーケティング会社にとって重要でないかもしれない。
【0120】
[00149]トップダウン仲介型注意に関係する電位情報を取得する例示的処理(例えば実行機能に関連する)は、視線だけのトップダウン制御を判断するために視線位置熱マップ(トップダウン+ボトムアップ)から視覚的顕著性マップ(ボトムアップだけ)を減じることであり得る。この情報は人間挙動の態様に関して非常に有益であり得る。例えば、この情報は、人の実行挙動を予測し検証するために使用され、そして、視線だけ又は視覚的顕著性だけに関する情報を含むデータより効率的なやり方でマーケティング情報として使用され得る。一例として、図19Bは、ユーザの眼球運動を定量化する空間マップを示し、より熱い色は視線位置のより高い尤度を指示する。これは、製品名への高いユーザの関心を間違って指示し得る。しかし、視覚的顕著性マップを減じた後の眼球運動の空間マップを使用する図19Cに示すように、ユーザの注意は、製品ではなく着色テキストとモデルとに主として集中され得る。
【0121】
[00150]図20は、視覚的顕著性マップと画像フレーム又はビュー(例えば現実世界の画像又は仮想現実環境の画像)に関連付けられた視覚的注意マップとを計算する例示的処理2050を示す。2051では、フレーム又はシーンの視覚像が取得される。2052では、この画像は、高い視覚的顕著性(例えば輝度、空間周波数、色、前フレームに対する運動、コントラストなど)に関連付けられたボトムアップ特徴に基づき高い特質を有する部分を識別するために分解される。2054では、視覚的顕著性マップが画像の分解に基づき生成される。2056では、画像の一部分と交差するユーザの視線の確率を予測する視線確率マップが、2054で生成された視覚的顕著性マップ上へマッピングされる。
【0122】
[00151]2053では、ユーザのリアルタイム視線部分が視線追跡器から取得された眼球運動信号に基づき計算される。2055では、実際の視線確率マップが、計算され、そして画像により定義された視空間上へマッピングされる。2057では、2055で生成された視線確率マップに基づきそれぞれが画像の定義された部分(例えば画素)に関連付けられた一組の重み付けが定義される。
【0123】
[00152]2058では、2056で生成された予測視線確率マップが、画像の各部分(例えば画素)に対応する一組の重み付けへ変換され、予測視線確率マップから導出される重み付けは、重み付けアレイを形成するために実際の視線確率マップから導出される重み付けと組み合わせられる。
【0124】
[00153]2058では、一組の組み合わせられた重み付けが、重み付けられた画像(例えば視線確率及び視覚的顕著性の差から生成される画像)を生成するために画像へ適用される。2059では、2058において重み付けられた画像に基づき、リアルタイム視覚的注意推定マップ(例えば熱マップ)が生成され、より高い実行機能へリンクされ得るユーザ関心の点数を指示する。図21はユーザ注意の点数を示す例示的熱マップを示す。上記手順の実施は、(例えばユーザが高速運動中に環境を見る場合に)そうでなければ利用可能ではないであろう情景に関する情報を推定する又は与えるためにスマートフィルタとして場合によっては使用され得る。
【0125】
感情状態判断
[00154]いくつかの実施形態では、本明細書において説明されるHCIシステムは先に説明したようにユーザの感情状態又は認識状態に関する情報を収集するために使用され得る。例えば、HCIシステムは、一組のユーザが所定UI/UX環境を体験している間に監視される場合の感情状態検出システムとして使用され得る。図22Aは覚醒軸及び感情価軸により定義された表面上の様々な感情状態のマッピング概略図を示す。
【0126】
[00155]感情状態モデルの現在の実施形態は、感情の明示的範囲を生成するためにユーザ毎ベース及びセッション毎ベースでトレーニングされる必要があり得る。トレーニングはユーザが約30~60分のビデオを視聴する又は体験する(時間消費的であり得る)ことから構成され得る。さらに、現在の技術は、固有バイアスにより汚染され得且つ時間消費的であり且つ不正確であり得る関連感情状態に関して自己報告することを含む。したがって、教師無し又は半教師付きやり方でHCIシステムを使用する自動感情状態判断が現在の方法と比較して効率的且つ正確であり得る。
【0127】
[00156]HCIシステムの例示的実施形態は神経信号及び/又は眼球運動信号を取得しそしてこれらの信号を処理するように構成され得る。いくつかの例示的解析的処理は、信号の濾過、EEG信号のような神経信号の抽出、エポックの抽出、シグネチャ信号の制御に対応する特徴の抽出、有意軸に沿った回帰分析を行うこと、等々を含み得る。HCIシステムは、低い感情価/覚醒から高い感情価/覚醒までの超平面の統計モデルを使用してトレーニングされ得る。モデルは、利用可能データに基づき適切にスケーリングされ得る(例えば、高い及び低い感情価/覚醒極値を喚起する2つのトレーニングファイルだけから最大及び最小をスケーリングし得る)。例示的超平面が図22Cに示される。ユーザ報告値に基づき及びHCIシステムに基づき感情を検出した際の例示的な一組の結果が図22Bのプロットに示される。
【0128】
結論
[00157]要約すると、リアルタイムでユーザにより作動可能な又は複数ユーザにより共同で作動可能な一体化されたハイブリッド人間/コンピュータインターフェースシステムの実施において使用されるシステム及び方法が本明細書において説明された。開示されたシステムの実施態様は、眼球運動追跡システム、神経活動追跡システム、及びユーザ挙動を追跡するように構成されたいくつかの追加システム(EMG追跡システム、体位置又は頭位置追跡システムなど)を含む。本明細書において説明される実施形態は、ポインティング制御機能及び/又は行為制御機能を実施するように構成される。いくつか例では、実施形態は、解析に使用されるユーザの挙動に関係するデータを収集するように構成される。いくつかの実施形態では、ポインティング及び行為制御機能は、高速且つ正確な動作を可能にするように戦略的に設計されたUI/UXの提示を介し実施される。加えて、開示されたシステム及び方法のいくつかの実施態様は、仮想、拡張又は現実環境のユーザ操作を仲介するために任意の好適なプラットホーム上にリアルタイムHCIを実装することに関知しないハードウェアであり得るように構成される。
【0129】
[00158]様々な実施形態について上に説明したが、これらはほんの一例として提示したのであって制限するためではないということを理解すべきである。上述の方法はある順序で発生するいくつかの事象を示すが、いくつかの事象の順序は修正され得る。加えて、事象のいくつかは、可能であれば並列処理で同時に行われ得るだけでなく、上述のように順次行われ得る。
【0130】
[00159]上述の概略図及び/又は実施形態がいくつかの配向又は位置で配置されたいくつかの部品を指示する場合、部品の配置は修正され得る。いくつかの実施態様が特に示され説明されたが、形式及び詳細の様々な変更が行われ得るということが理解されることになる。本明細書において説明された装置及び/又は方法の任意の部分は相互に排他的な組み合わせを除いて任意の組み合わせで組み合わされ得る。本明細書において説明された実施形態は、説明された様々な実施形態の機能、部品、及び/又は特徴の様々な組み合わせ及び/又は下位組み合わせを含み得る。
図1
図2A
図2B
図2C
図3
図4A
図4B
図4C
図4D
図5A
図5B
図5C
図6
図7A
図7B
図8A
図8B
図9
図10
図11A
図11B
図11C
図12A
図12B
図13
図14A
図14B
図15
図16
図17A
図17B
図17C
図17D
図18
図19A
図19B
図19C
図20
図21
図22A
図22B
図22C