(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-12
(45)【発行日】2024-04-22
(54)【発明の名称】視線追跡
(51)【国際特許分類】
A61B 3/113 20060101AFI20240415BHJP
【FI】
A61B3/113
(21)【出願番号】P 2022550670
(86)(22)【出願日】2021-02-12
(86)【国際出願番号】 FI2021050098
(87)【国際公開番号】W WO2021165570
(87)【国際公開日】2021-08-26
【審査請求日】2024-01-25
(32)【優先日】2020-02-21
(33)【優先権主張国・地域又は機関】FI
【早期審査対象出願】
(73)【特許権者】
【識別番号】522330946
【氏名又は名称】シートゥルー テクノロジーズ オーイー
【氏名又は名称原語表記】SEETRUE TECHNOLOGIES OY
(74)【代理人】
【識別番号】100107364
【氏名又は名称】斉藤 達也
(72)【発明者】
【氏名】トイヴァネン,ミイカ
(72)【発明者】
【氏名】ルカンダー,クリスチャン
(72)【発明者】
【氏名】ベドナリック,ローマン
(72)【発明者】
【氏名】バルトチャック,ピオトル
【審査官】増渕 俊仁
(56)【参考文献】
【文献】特開2006-75348(JP,A)
【文献】特開2017-111746(JP,A)
【文献】中国特許出願公開第110441901(CN,A)
【文献】欧州特許第3129849(EP,B1)
【文献】米国特許出願公開第2016/0210503(US,A1)
【文献】米国特許出願公開第2018/0335840(US,A1)
【文献】米国特許出願公開第2019/0050664(US,A1)
【文献】米国特許第6005710(US,A)
【文献】国際公開第2019/190561(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
A61B 3/00-3/18
(57)【特許請求の範囲】
【請求項1】
少なくとも1つの処理コア(210)と、コンピュータプログラムコードを含む少なくとも1つのメモリ(220)と、を含む装置(200)であって、前記少なくとも1つのメモリ(220)及び前記コンピュータプログラムコードは、前記少なくとも1つの処理コア(210)とともに、少なくとも、
前記装置(200)に、
ユーザの眼の第1及び第2のフィーチャの位置と、前記ユーザの視線距離と、に少なくともある程度基づいて3次元空間内で基準点を決定するステップ(340)と、
眼に近い光学デバイスを使用している前記ユーザの推定注視点及び/又は推定視線方向を取得する為に、前記基準点を前記眼に近い光学デバイスの見えているシーンにマッピングするステップ(370)であって、前記マッピングは、前記ユーザに関連付けられた較正情報に少なくともある程度基づ
き、前記眼に近い光学デバイスがライトガイドを含む、前記マッピングするステップと、
を行わせるように構成されており、
前記眼に近い光学デバイスが接眼デバイスを含むことと、前記装置が、
前記ライトガイドと仮想平面との間の距離を最小化して、前記仮想平面を前記ライトガイドの位置にフィッティングすること、前記仮想平面を、ランダムに生成されるか又はユーザ較正に基づく距離だけその法線方向にシフトさせること、及び、前記シフトされた仮想平面と、前記ユーザの眼の前記第1及び第2のフィーチャをトラバースするベクトルと、の交点を計算することによって、前記視線距離を取得する(350)ように構成されていることと、を特徴とする
、
装置(200)。
【請求項2】
前記ユーザの眼の前記第1及び第2のフィーチャは角膜中心及び瞳中心である、請求項1に記載の装置(200)。
【請求項3】
前記装置は更に、前記較正情報を、較正プロセスに基づく較正行列として取得するように構成されており、前記較正プロセスでは、前記ユーザが3つ以上の標的点を順番に見つめ、前記較正において使用された各標的点ごとに別々の較正基準点が前記3次元空間内で決定される、請求項1又は2に記載の装置(200)。
【請求項4】
前記眼に近い光学デバイスは顕微鏡であり、装置は、前記ユーザの2つの眼のそれぞれに対して別々に前記視線方向を取得するように構成されている、請求項1から3のいずれか一項に記載の装置(200)。
【請求項5】
前記装置は、前記眼に近い光学デバイスに含まれる、請求項1から4のいずれか一項に記載の装置(200)。
【請求項6】
ユーザの眼の第1及び第2のフィーチャの位置と、前記ユーザの視線距離と、に少なくともある程度基づいて3次元空間内で基準点を決定するステップ(340)と、
眼に近い光学デバイスを使用している前記ユーザの推定注視点及び/又は推定視線方向を取得する為に、前記基準点を前記眼に近い光学デバイスの見えているシーンにマッピングするステップ(370)であって、前記マッピングは、前記ユーザに関連付けられた較正情報に少なくともある程度基づ
き、前記眼に近い光学デバイスがライトガイドを含む、前記マッピングするステップと、
を含む方法であって、
前記眼に近い光学デバイスが接眼デバイスを含むことと、
前記ライトガイドと仮想平面との間の距離を最小化して、前記仮想平面を前記ライトガイドの位置にフィッティングすること、前記仮想平面を、ランダムに生成されるか又はユーザ較正に基づく距離だけその法線方向にシフトさせること、及び、前記シフトされた仮想平面と、前記ユーザの眼の前記第1及び第2のフィーチャをトラバースするベクトルと、の交点を計算することによって
、前記視線距離を取得する(350)ことと、によって特徴付けられる、
方法。
【請求項7】
前記較正情報を、較正プロセスに基づく較正行列として取得するステップを更に含み、前記較正プロセスでは、前記ユーザが3つ以上の標的点を順番に見つめ、前記較正において使用された各標的点ごとに別々の較正基準点が前記3次元空間内で決定される、請求項6に記載の方法。
【請求項8】
前記眼に近い光学デバイスは顕微鏡であり、前記方法は更に、前記ユーザの2つの眼のそれぞれに対して別々に前記視線方向を取得するステップを含む、請求項6又は7のいずれか一項に記載の方法。
【請求項9】
前記ユーザの前記推定注視点及び/又は前記視線方向に少なくともある程度基づいて顕微鏡を制御するステップと、前記較正情報に基づいて前記ユーザを識別するステップと、のうちの少なくとも一方を更に含む、請求項6から8のいずれか一項に記載の方法。
【請求項10】
少なくとも1つのプロセッサ(210)によって実行された場合に、少なくとも、
ユーザの眼の第1及び第2のフィーチャの位置と、前記ユーザの視線距離と、に少なくともある程度基づいて3次元空間内で基準点を決定するステップ(340)と、
眼に近い光学デバイスを使用している前記ユーザの推定注視点及び/又は推定視線方向を取得する為に、前記基準点を前記眼に近い光学デバイスの見えているシーンにマッピングするステップ(370)であって、前記マッピングは、前記ユーザに関連付けられた較正情報に少なくともある程度基づ
き、前記眼に近い光学デバイスがライトガイドを含む、前記マッピングするステップと、
を装置(200)に行わせるコンピュータ可読命令セットが記憶されている非一時的コンピュータ可読媒体であって、
前記眼に近い光学デバイスが接眼デバイスを含むことと、
前記ライトガイドと仮想平面との間の距離を最小化して、前記仮想平面を前記ライトガイドの位置にフィッティングすること、前記仮想平面を、ランダムに生成されるか又はユーザ較正に基づく距離だけその法線方向にシフトさせること、及び、前記シフトされた仮想平面と、前記ユーザの眼の前記第1及び第2のフィーチャをトラバースするベクトルと、の交点を計算することによって
、前記視線距離を取得する(350)ことと、によって特徴付けられる、
非一時的コンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、ユーザの視線の方向及び/又は標的を特定することに関する。
【背景技術】
【0002】
ユーザが何を見ているかを特定することは、様々な分野における関心事である。例えば、身体障害者が視線追跡器を装備することにより、文字を入力して語句や文を作成することが可能になりうる。別の例として、救急車の運転者が救急車の設備を安全に操作することが可能になりうる。或いは、原子力発電所のオペレータの視線をシフト中に追跡することにより、疲労の発現を検出することが可能である。
【0003】
視線追跡は、異なる幾つかの技術に基づいて行われてよく、それらの技術の共通の特徴の1つとして、片眼又は両眼の位置を測定することにより、例えば、デバイスを制御する為に視線追跡システムに入力される情報が取得される。
【発明の概要】
【発明が解決しようとする課題】
【0004】
本発明は、上記従来の技術における課題を解決するためになされたものである。
【課題を解決するための手段】
【0005】
幾つかの態様によれば、独立請求項の対象が提供される。幾つかの実施形態は従属請求項で定義される。
【0006】
本開示の第1の態様によれば、少なくとも1つの処理コアと、コンピュータプログラムコードを含む少なくとも1つのメモリと、を含む装置が提供され、少なくとも1つのメモリ及びコンピュータプログラムコードは、少なくとも1つの処理コアとともに、少なくとも、ユーザの眼の第1及び第2のフィーチャの位置と、ユーザの視線距離と、に少なくともある程度基づいて3次元空間内で基準点を決定するステップと、
眼に近い光学デバイスを使用しているユーザの推定注視点及び/又は推定視線方向を取得する為に、基準点を眼に近い光学デバイスの見えているシーンにマッピングするステップであって、マッピングは、ユーザに関連付けられた較正情報に少なくともある程度基づく、上記マッピングするステップと、を装置に行わせるように構成されている。
【0007】
本開示の第2の態様によれば、ユーザの眼の第1及び第2のフィーチャの位置と、ユーザの視線距離と、に少なくともある程度基づいて3次元空間内で基準点を決定するステップと、眼に近い光学デバイスを使用しているユーザの推定注視点及び/又は推定視線方向を取得する為に、基準点を眼に近い光学デバイスの見えているシーンにマッピングするステップであって、マッピングは、ユーザに関連付けられた較正情報に少なくともある程度基づく、上記マッピングするステップと、を含む方法が提供される。
【0008】
本開示の第3の態様によれば、少なくとも1つのプロセッサによって実行された場合に、少なくとも、ユーザの眼の第1及び第2のフィーチャの位置と、ユーザの視線距離と、に少なくともある程度基づいて3次元空間内で基準点を決定するステップと、眼に近い光学デバイスを使用しているユーザの推定注視点及び/又は推定視線方向を取得する為に、基準点を眼に近い光学デバイスの見えているシーンにマッピングするステップであって、マッピングは、ユーザに関連付けられた較正情報に少なくともある程度基づく、上記マッピングするステップと、を装置に行わせるコンピュータ可読命令セットが記憶されている非一時的コンピュータ可読媒体が提供される。
【図面の簡単な説明】
【0009】
【
図1A】本発明の少なくとも幾つかの実施形態によるシステムの一例を示す。
【
図1B】本発明の少なくとも幾つかの実施形態による座標マッピングを示す。
【
図2】本発明の少なくとも幾つかの実施形態をサポートすることが可能な装置の一例を示す。
【
図3】本発明の少なくとも幾つかの実施形態による一方法のフローグラフである。
【発明を実施するための形態】
【0010】
本明細書で開示するのは、眼に近い光学デバイス(例えば、顕微鏡や双眼鏡のような接眼デバイス)の為の視線追跡方法である。ユーザの頭部が動いても(少なくともある程度は)不変である、信頼できる視線追跡を接眼デバイス内で達成する為に、ユーザの視線の方向及び距離に基づいて3次元空間内に基準点が決定され、基準点は、較正プロセスにおいてユーザから取得された較正行列に基づいて、見えているシーンの中の一点にマッピングされる。従って、有利なことに、(カメラ等の)視線追跡センサの座標系と(例えば、シーンカメラで取得可能な)ユーザに見えているシーンの座標系との間の座標変換の特性を決定する必要がない。見えているシーンは様々な技術で取得されて(そのような技術として、網膜投射、画像投影、画像融合及びインジェクションがあり、これらに限定されない)、提示の例のようにシーンカメラで表示又はキャプチャされることが可能である。実際、そのような特性を決定することは、レンズ、フィルタ、ビームスプリッタ、ライトガイド、及び/又はミラー等の複数の光学部品を使用する眼に近い光学デバイスの場合には困難である可能性がある。眼に近い光学デバイスの例として、顕微鏡等の接眼デバイスがある。視線追跡方法の望ましい特徴の1つは、測定センサに対して、眼が動いても不変であることである。
【0011】
図1Aは、本発明の少なくとも幾つかの実施形態によるシステムの一例を示す。図はユーザの眼100を示しており、これは瞳110を含む。図示の例では、ユーザは顕微鏡120を使用している。これは、接眼デバイス、又は一般に、眼に近い光学デバイスの一例である。顕微鏡120は、レンズ、フィルタ、ビームスプリッタ、ライトガイド、及び/又はミラー等の複数の光学部品を含み、これらは概略的に参照符号130で示してある。試料が顕微鏡越しにプレート140上に見える。プレート140は、例えば、ガラス製であってよく、試料を下から照らすことが可能である。プレート140上に、2つの可能な視線標的150を概略的に示す。
【0012】
顕微鏡のユーザの視線を追跡することにより、被検試料をユーザがどのように観察しているか(例えば、試料のどの部分にユーザが注目しているか、どれだけの時間、どのような視線戦略をユーザが用いているか)に関する貴重な情報が得られる。更に、瞳のサイズが推定されてよい。この情報を使用して、教育目的で、並びに画像領域に注釈を付けることを支援する為に、ユーザの認識、作業負荷、及び専門性のレベルを推定することが可能である。視線情報は、光学デバイス(例えば、顕微鏡等)の機能を制御することに使用可能である。これにより、手動制御を減らすことが可能である。
【0013】
病理学者や実験室研究者が試料プレート上の注視点を使用して、試料を動かすように顕微鏡をガイドすることも可能である。別の例として、人間かもしれない標的をユーザが見ているときにデジタルビューファインダに可視表示が与えられてよい。更に、識別された注視点に基づいて、試料と、試料の分析がどの程度行われているか(例えば、閾値に達しているかどうか)を示すメタデータとが自動的に関連付けられてよい。例えば、試料は、その含有物の少なくとも70%に対して分析が行われなければならない。
【0014】
図1Aのシステムでは、視線追跡カメラ(簡潔さの為に図示せず)が眼100を画像化するように構成されている。視線追跡カメラは眼100を下から画像化してよく、視線追跡カメラは、例えば、使用されている接眼デバイスに含まれて、接眼デバイス内の、可視光を通すが赤外線を通さない半透過性ミラーを介して眼を画像化することが可能であってよい。眼は、この目的の為に、ガイドライト又は光成形素子又は光生成素子で照らされてよく、例えば、可視光又は赤外(IR)光で照らされてよく、これらは、例えば、発光ダイオード(LED)で生成されてよい。IR光の利点は、光が人間の眼に見えない為にユーザの目障りにならないことである。IR光は又、ユーザが見ている又は環境内で見えている可視光源の照明及び反射を除去することを可能にし、これは照明方式を制御することに役立つ。
図1Bに示した角膜の形状は、眼の湿った表面における光の輝きに基づいて、眼が向きを変えた方向に関する情報を抽出することを可能にする。ユーザの眼の情報をキャプチャすることが可能な視線追跡センサ(例えば、カメラセンサ等)は、眼のデジタルビデオデータ又はデジタルスチルデータを生成する為に、例えば、電荷結合素子(CCD)技術、相補型金属酸化膜半導体(CMOS)技術、及び/又は感光性フォトダイオードを少なくとも部分的にベースとしてよい。そのような、眼のデジタルビデオデータ又はデジタルスチルデータは、ガイドライトの反射(輝き)を含んでよい。
【0015】
同様に、
図1Aのシステムでは、シーンカメラ(簡潔さの為に図示せず)がプレート140を画像化するように構成されている。シーンカメラも同様に、試料のデジタルビデオデータ又はデジタルスチルデータを生成する為に、例えば、CCD技術をベースとしてよい。シーンカメラ及び視線追跡カメラは、眼100及びプレート140のタイムアライメントされた画像を生成する為に、互いに同期してよい。
【0016】
一般に視線追跡では、視線追跡カメラの3D座標系からシーンカメラの3D座標系への変換が必要とされうる。視線追跡カメラは、眼が向きを変えた方向を特定することを可能にする為に、上述のように、ライトガイドから支援を受けて輝きを生成することが可能である。しかしながら、接眼デバイスの場合は、光学機器130が存在する為に、3D注視点をシーンカメラの2D座標に投影することがより困難になる。
【0017】
幾つかの視線追跡ソリューションは、ユーザの頭部の、視線追跡カメラに対して相対的な動きに敏感である。そのような場合、あるユーザに関して較正が行われた後にそのユーザが動いた場合、視線追跡結果は不正確になる。同様に、当該の光学デバイスが操作中に動いた場合も、同様のアライメントずれエラーが発生する。接眼デバイスの典型的な使用セッションは、最適な視野角を調節する為の頭部の絶え間ない小さな動き、又はユーザが接眼デバイスのビューの外から対象物を見る為に操作姿勢から外れたりそこに戻ったりすることによる頭部の動きを含む。そのような頭部の動きに起因する不正確さが視線追跡の妨げになる。本明細書に開示の方法は、上述の不要な頭部の動きや操作姿勢に入ったり外れたりすることがあってもロバストな視線追跡を可能にする。
【0018】
視線追跡のこれまでの取り組みの多くは、視線追跡座標からシーンカメラ座標への2次元(2D)マッピングを採用しており、これはロバスト性で3次元(3D)アルゴリズムに劣る。しかしながら、3Dアプローチは実施するには複雑である。これは、3D注視点がその中で計算されることになる視線追跡カメラ座標系と、2Dシーンカメラ座標系との間の投影を算出することが光学機器130の影響の為に簡単ではない為である。
【0019】
視線追跡カメラの座標系からシーンカメラの座標系への変換を定義することの困難さを克服する為に、2フェーズの視線追跡方法を用いてよい。第1のフェーズでは、視線追跡カメラからのデータを処理して、ユーザの瞳の中心とユーザの角膜の中心とを特定してよい。これらを本明細書では瞳中心Pc及び角膜中心Ccと呼ぶ。これらは、3次元空間において、光学ベクトルLが、これらの点をトラバースして視線の方向を確定する正規化ベクトルとして決定されることを可能にする点として決定されてよい。角膜中心から光学ベクトルの方向に視線距離dだけ進むことによって光学点Op(本明細書では基準点とも呼ぶ)が決定されてよい(即ち、Op=Cc+d*L)。幾つかの実施形態では、角膜及び瞳とは別の、眼の3Dフィーチャを使用して、その眼に関係する3D光学点が計算される。より大まかには、第1の眼フィーチャと第2の眼フィーチャとを使用して、光学点が取得されてよい。角膜及び瞳以外の眼フィーチャの例として虹彩があり、従って、第1及び第2の眼フィーチャは、例えば、虹彩及び瞳を含んでよい。
【0020】
視線距離は次のように決定されてよい。即ち、第1に、ライトガイド(の、例えば、IR LEDの場所)に仮想平面が設定されてよい。第2に、その仮想平面が、仮想平面に垂直な方向に、ユーザから一定値だけ離れるようにシフトされてよい。その一定値は推測されるか、ユーザ較正時に推定される。第3に、シフトされた平面と(パラメータ化された)ベクトルCc+d*Lとの交点が計算される(即ち、dが求められる)。従って、視線距離は、測定のたびに推定されてよく、毎回少なくとも若干異なってよい。別の方法で視線距離を決定することも可能である。視線距離は、眼から、ユーザの視線がフォーカスされる場所までの距離である。
【0021】
図4は、視線距離推定の一例を示す。LED内にLED平面が設定される。これは、LEDと仮想平面との間の距離が最小になるように行われる。視線距離を推定する為に、仮想平面の場所を数学的に変化させる。これは、仮想平面がLED素子に設定されたときに、LED平面に垂直な方向に距離D_fixedだけ仮想平面が目から離れるように行われる。この結果、仮想平面は、
図4に示したビューイング平面の場所にある。距離D_fixedは、推測されてよく、又はユーザ較正時に推定されてよく、又は先行知識に基づいて既知であってよい。光学点Opは、ベクトル(Cc+dL)とビューイング平面との交点として画定される。図には、3つの可能な光学ベクトルと、それぞれに対応する光学点Op1、Op2、及びOp3を示している。
【0022】
基準点の3つの座標が決定されたら、全体で2フェーズのプロセスの第2のフェーズにおいて、3D基準点が2次元シーンカメラ座標系にマッピングされてよく、それにより、ユーザの較正行列Kを使用して注視点Gpが次式のように得られる。
【0023】
Gp=K*Op
【0024】
較正行列Kは、ユーザと較正手順を実施することによって決定されてよい。ユーザは幾つかの標的点に視線を定める。標的点の数は、少なくとも3以上であってよい。標的点は、理想的な動作の為には直線配列であってはならず、例えば、標的点は、標的点が直線上に配置される直線配列を避ける標的点のグリッドを形成してよい。各標的点ごとに視線追跡カメラから較正サンプルが収集され、これは注釈付き標的点Gp_truth及び光学点を構成する。集められたこれらの較正サンプルは行列方程式を形成し、この行列方程式から較正行列Kを解くことが可能である。3次元空間の、光学点が決定される場所にある較正基準点が標的点のそれぞれに対応する。標的点及びサンプルの数が多いほど、較正行列に基づく視線追跡の正確さが高まることが期待される。本明細書では較正行列について論じているが、より一般的には較正情報が使用されてよい。
【0025】
全体として、本手順は、視線追跡カメラの2次元画素シーンから第1及び第2の眼フィーチャを取得するものとして特徴付けられてよい。第1及び第2の眼フィーチャの例として、角膜中心及び瞳中心がある。3D空間内の第1及び第2の眼フィーチャの場所から3次元座標系での基準点が決定され、その基準点から、2次元シーンカメラビューでの注視点が取得される。注視点の座標は、注視点がシーンカメラのビューの外側にある場合でもシーンカメラの座標系内で決定されうる。
【0026】
視線追跡カメラの出力から角膜中心及び瞳中心を取得することは、例えば、ヘネシー(Hennessey)、クレイグ(Craig)、ボーナ・ヌレディン(Borna Noureddin)、ピーター・ローレンス(Peter Lawrence)、2006年、「頭部自由運動状況下における単一カメラ視線追跡システム(A Single Camera Eye-Gaze Tracking System with Free Head Motion)」、視線追跡の研究及び応用に関するシンポジウム2006(2006 Symposium on Eye Tracking Research & Applications)の議事録、87~94頁、ACMに記載の物理的眼モデルを使用して行われてよい。代替として、ニューラルネットワークベースの方法が用いられてよく、その場合、ニューラルネットワークは、視線追跡カメラ画像が入力として与えられたときに光学ベクトルを出力するようにトレーニングされる。
【0027】
本明細書に記載の少なくとも幾つかの実施形態の視線追跡プロセスは、基準点が眼の3D特性に基づいて決定され、その為に、その場所が頭部の小さな動きに対してある程度は不変である点で有用且つ有利である。更に、代替又は追加として、注視点は、シーンカメラのビューの外に配置された場合でも決定可能である。
【0028】
図1Bは、本発明の少なくとも幾つかの実施形態による座標マッピングを示す。眼100が
右側に配置されており、その上で瞳110及び角膜中心160がマーキングされている。光学ベクトルに視線距離を掛けたもの(d*L)をエレメント161として表しており、これは基準点170をポイントしている。
【0029】
基準点170は、3次元座標系165内にある。
図1Bでは、座標系165からシーンカメラの2次元座標系185へのマッピング180をマッピング180として表している。このマッピングにより、基準点170がシーンカメラの座標系185内の注視点190に関連付けられる。
【0030】
例えば、実用的実施態様の観点で言えば、顕微鏡の接眼部に、視線追跡カメラ、適切な回路、及び少なくとも1つの構造化光用光源(例えば、赤外線発光素子)を含むモジュールが追加されてよい。顕微鏡が両眼用接眼部を含む場合は、両接眼部に同様のモジュールが装備されてよい。その場合、推定注視点は、別々に決定された左眼注視点及び右眼注視点の重み付き結合として決定されてよい。顕微鏡は又、試料をビュー内に捉え、ビューのうちの少なくともユーザが見ている部分を認識するシーンカメラを含んでよい。シーンカメラまでの光路は、ビームスプリッタを通るように方向付けられてよく、ビームスプリッタは、異なる光学素子により、同じビューをユーザ方向とシーンカメラ方向とに向ける。
【0031】
カメラは、適切なインタフェースでコンピュータに接続されてよく、例えば、ユニバーサルシリアルバス(USB)コネクタ、又は一体型導線で接続されてよい。コンピュータは、カメラストリームを読み込み、
図1Bに示したようにシーンカメラ座標内の注視点を推定するコンピュータプログラムを備えてよい。コンピュータプログラムはグラフィカルユーザインタフェースを装備してよく、グラフィカルユーザインタフェースは、例えば、推定注視点がスーパインポーズされたシーンカメラビューを表示するように構成されてよい。コンピュータプログラムは又、ユーザとの構成プロセスを実行して較正行列Kを決定するように構成されてよい。
【0032】
本明細書では瞳及び輝きの位置と物理的眼モデルとを利用することに関して述べているが、光学点は、代替として、物理的眼モデル以外の手段で決定することも可能である。例えば、瞳及び輝きの位置を注視点及び/又は視線方向に自動的に変換する為に、深層畳み込みネットワークに基づく機械学習アプローチが教示されてよい。例えば、使用する接眼デバイスが照準器であれば、シーンカメラの2次元出力は、ユーザが見つめている複数の視線方向に対応する。
【0033】
図2は、本発明の少なくとも幾つかの実施形態をサポートすることが可能な装置の一例を示す。図示のデバイス200は、例えば、接眼デバイス用視線追跡モジュールを含んでよい。デバイス200はプロセッサ210を含み、プロセッサ210は、例えば、シングルコア又はマルチコアのプロセッサを含んでよい。シングルコアプロセッサは1つの処理コアを含み、マルチコアプロセッサは2つ以上の処理コアを含む。プロセッサ210は、一般に、制御装置を含んでよい。プロセッサ210は、2つ以上のプロセッサを含んでよい。プロセッサ210は、制御装置であってよい。処理コアは、例えば、ARMホールディングス(ARM Holdings)が製造したCortex-A8処理コア、又はアドバンストマイクロデバイセズコーポレーション(Advanced Micro Devices Corporation)が設計したSteamroller処理コアを含んでよい。プロセッサ210は、少なくとも1つのクワルコム(Qualcomm)製Snapdragonプロセッサ及び/又はインテル(Intel)製Atomプロセッサを含んでよい。プロセッサ210は、少なくとも1つの特定用途向け集積回路(ASIC)を含んでよい。プロセッサ210は、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)を含んでよい。プロセッサ210は、デバイス200において方法ステップ(例えば、基準点を決定し、マッピングを実施するステップ)を実施する手段であってよい。プロセッサ210は、少なくとも部分的にはコンピュータ命令によって、アクションを実施するように構成されてよい。
【0034】
デバイス200はメモリ220を含んでよい。メモリ220は、ランダムアクセスメモリ及び/又は永久メモリを含んでよい。メモリ220は、少なくとも1つのRAMチップを含んでよい。メモリ220は、例えば、ソリッドステートメモリ、磁気メモリ、光学式メモリ、及び/又はホログラフィックメモリを含んでよい。メモリ220は、少なくとも一部がプロセッサ210からアクセス可能であってよい。メモリ220は、少なくとも一部がプロセッサ210に含まれてよい。メモリ220は、情報を記憶する手段であってよい。メモリ220は、プロセッサ210が実行するように構成されているコンピュータ命令を含んでよい。特定のアクションをプロセッサ210に実施させるように構成されたコンピュータ命令がメモリ220に記憶されていて、デバイス200全体が、メモリ220からのコンピュータ命令を使用するプロセッサ210の指示で動作するように構成されている場合、プロセッサ210及び/又はプロセッサ210の少なくとも1つの処理コアは、前記特定アクションを実施するように構成されていると見なされてよい。メモリ220は、少なくとも一部がプロセッサ210に含まれてよい。メモリ220は、少なくとも一部がデバイス200の外にありながらもデバイス200からアクセス可能であってよい。
【0035】
デバイス200は送信器230を含んでよい。デバイス200は受信器240を含んでよい。送信器230及び受信器240は、それぞれ、少なくとも1つの通信規格に準拠して情報を送信及び受信するように構成されてよい。送信器230は、2つ以上の送信器を含んでよい。受信器240は、2つ以上の受信器を含んでよい。送信器230及び/又は受信器240は、例えば、モバイル通信用グローバルシステム(global system for mobile communication)(GSM)、広帯域符号分割多重アクセス(wideband code division multiple access)(WCDMA(登録商標))、5G、ロングタームエヴォリューション(long term evolution)(LTE)、IS-95、無線ローカルエリアネットワーク(WLAN)、USB、イーサネット、及び/又はマイクロ波アクセス用世界規模相互運用性(worldwide interoperability for microwave access)(WiMAX)の各規格に準拠して動作するように構成されてよい。
【0036】
デバイス200は、近距離無線通信(NFC)送受信器250を含んでよい。NFC送受信器250は、少なくとも1つのNFC技術(例えば、NFC、Bluetooth、Wibree、又は同様の技術)をサポートしてよい。
【0037】
デバイス200はユーザインタフェース(UI)260を含んでよい。UI260は、ディスプレイ、キーボード、タッチスクリーン、バイブレータ(デバイス200を振動させてユーザに合図するように構成されている)、スピーカ、及びマイクロホンのうちの少なくとも1つを含んでよい。ユーザは、UI260からデバイス200を操作して、例えば、較正プロセス操作及び/又は視線追跡操作を行うことが可能であってよい。
【0038】
プロセッサ210は、情報をプロセッサ210からデバイス200内の導線を介してデバイス200に含まれる他の装置に出力するように構成された送信器を備えてよい。そのような送信器はシリアルバス送信器を含んでよく、この送信器は、例えば、情報を、メモリ220への少なくとも1つの導線を介してメモリ220に記憶させる為に出力するように構成されている。シリアルバスの代替として、送信器はパラレルバス送信器を含んでよい。同様に、プロセッサ210は、デバイス200に含まれる他の装置からの情報を、デバイス200内の導線を介してプロセッサ210で受け取るように構成された受信器を含んでよい。そのような受信器はシリアルバス受信器を含んでよく、この受信器は、例えば、情報を、プロセッサ210で処理する為に受信器240から少なくとも1つの導線を介して受け取るように構成されている。シリアルバスの代替として、受信器はパラレルバス受信器を含んでよい。
【0039】
デバイス200は、
図2に示されていない更なる装置を含んでよい。デバイス200は、デバイス200のユーザを少なくともある程度認証するように構成された指紋センサを含んでよい。幾つかの実施形態では、デバイス200は、少なくとも1つの上述の装置を含まない。例えば、デバイス200は、NFC送受信器250及び/又は少なくとも1つの他の上述の装置を含まない場合がある。
【0040】
プロセッサ210、メモリ220、送信器230、受信器240、NFC送受信器250、及び/又はUI260は、デバイス200内の導線により、多様な様式で相互接続されてよい。例えば、上述のデバイスのそれぞれは別々にデバイス200内のマスタバスに接続されてよく、それにより、デバイス間の情報交換が可能になる。しかしながら、当業者であれば理解されるように、これは一例に過ぎず、本発明の範囲から逸脱しない限り、実施形態に応じて、上述のデバイスのうちの少なくとも2つを相互接続する様々な様式が選択されてよい。
【0041】
図3は、本発明の少なくとも幾つかの実施形態による一方法のフローグラフである。図示の方法の各フェーズは、例えば、デバイス200、予備デバイス、又はパーソナルコンピュータにおいて実施されてよく、或いは、それらの機能を制御するように構成された制御装置がそれらにインストールされていればその制御装置において実施されてよい。
【0042】
フェーズ310で、少なくとも1つの眼画像が視線追跡カメラから取得される。フェーズ320で、少なくとも1つの眼画像において瞳とガイドライトの輝きとが見つけられる。フェーズ330で、(例えば、眼の物理的形状のモデルの支援により)瞳及び輝きに基づいて、ユーザの3D瞳中心(Pc)及び3D角膜中心(Cc)が特定される。フェーズ340で、本明細書で上述のように、光学ベクトルLが決定される。フェーズ350で、視線距離が決定される。
【0043】
フェーズ360で、光学点Opとも呼ばれる3次元基準点が、Op=Cc+d*Lとして決定される。最後に、フェーズ370で、光学点を2次元シーンカメラビューにマッピングすることにより、ユーザの較正行列Kを使用して注視点GpがGp=K*Opで得られる。注視点は、プレート140上の、ユーザが見ている点である。
【0044】
当然のことながら、開示された本発明の実施形態は、本明細書で開示された特定の構造、処理手順、又は材料に限定されず、当業者であれば理解されるであろう、その等価物まで拡張される。更に、当然のことながら、本明細書で使用された術語は、特定の実施形態の説明の為にのみ使用されており、限定的であることを意図されていない。
【0045】
本明細書を通しての一実施形態(one embodiment)又は一実施形態(an embodiment)への参照は、その実施形態に関連して説明された特定の特徴、構造、又は特性が、本発明の少なくとも1つの実施形態に含まれることを意味する。従って、本明細書全体の様々な場所での「一実施形態では(in one embodiment)」又は「一実施形態では(in an embodiment)」という語句の出現は、必ずしも全てが同じ実施形態を参照しているわけではない。例えば、約(about)又はほぼ(substantially)等の語句を使用して数値が参照された場合は、厳密な数値も開示されている。
【0046】
本明細書で使用されている複数のアイテム、構造要素、組成要素、及び/又は材料は、便宜上、一般的なリストに存在してよい。しかしながら、これらのリストは、リストの各要素が別個且つ固有の要素として個別に識別されるかのように解釈されるべきである。従って、そのようなリストの個々の要素は、反対の意味で示されているのでない限り、それらが一般的なグループに存在することにのみ基づいて、同じリストの他の任意の要素の事実上の等価物として解釈されるべきである。更に、本明細書では、本発明の様々な実施形態及び実施例は、それらの様々な構成要素に関しては代替形態と併せて参照されてよい。当然のことながら、そのような実施形態、実施例、及び代替形態は、互いの事実上の等価物として解釈されるべきではなく、本発明の別個且つ独立の表現と見なされるべきである。
【0047】
更に、記載の特徴、構造、又は特性は、1つ以上の実施形態において任意の適切な様式で組み合わされてよい。ここまでの説明では、本発明の実施形態が十分理解されるように、長さ、幅、形状等の例のような様々な具体的詳細を示されている。しかしながら、当業者であれば理解されるように、本発明は、これらの具体的詳細のうちの1つ以上がなくても、或いは、他の方法、構成要素、材料等によっても実施可能である。他の例では、よく知られている構造、材料、又は動作が詳しく図示又は説明されていないが、これは、本発明の態様が曖昧にならないようにする為である。
【0048】
上述の各実施例は、本発明の原理を1つ以上の特定用途において例示したものであるが、当業者であれば明らかなように、発明的能力を行使することなく、且つ、本発明の原理及び概念から逸脱しない限り、実施態様の形式、用法、及び細部の様々な変更が行われてよい。従って、本発明は、後述の特許請求項によって限定される場合を除いて限定されないものとする。
【0049】
本文書では「含む(to comprise)」及び「含む(to include)」という動詞は、記載されていない特徴の存在を排除することも必要とすることもない開放的限定(open limitations)として使用されている。従属請求項に記載された特徴は、特に別段に明記されない限りは、相互に自由に組み合わされてよい。更に、当然のことながら、「a」又は「an」、即ち、単数形の使用は、本文書全体を通して複数性を排除しない。
〔付記1〕
少なくとも1つの処理コア(210)と、コンピュータプログラムコードを含む少なくとも1つのメモリ(220)と、を含む装置(200)であって、前記少なくとも1つのメモリ(220)及び前記コンピュータプログラムコードは、前記少なくとも1つの処理コア(210)とともに、少なくとも、
ユーザの眼の第1及び第2のフィーチャの位置と、前記ユーザの視線距離と、に少なくともある程度基づいて3次元空間内で基準点を決定するステップ(340)と、
眼に近い光学デバイスを使用している前記ユーザの推定注視点及び/又は推定視線方向を取得する為に、前記基準点を前記眼に近い光学デバイスの見えているシーンにマッピングするステップ(370)であって、前記マッピングは、前記ユーザに関連付けられた較正情報に少なくともある程度基づく、前記マッピングするステップと、
を前記装置(200)に行わせるように構成されており、
前記眼に近い光学デバイスが接眼デバイスを含むことと、前記装置が、ライトガイド位置に設定された所定の仮想平面と、前記ユーザの眼の前記第1及び第2のフィーチャをトラバースするベクトルと、の交点を計算することによって前記視線距離を取得する(350)ように構成されていることと、を特徴とする装置(200)。
〔付記2〕
前記ユーザの眼の前記第1及び第2のフィーチャは角膜中心及び瞳中心である、付記1に記載の装置(200)。
〔付記3〕
前記装置は更に、前記較正情報を、較正プロセスに基づく較正行列として取得するように構成されており、前記較正プロセスでは、前記ユーザが3つ以上の標的点を順番に見つめ、前記較正において使用された各標的点ごとに別々の較正基準点が前記3次元空間内で決定される、付記1又は2に記載の装置(200)。
〔付記4〕
前記眼に近い光学デバイスは顕微鏡であり、装置は、前記ユーザの2つの眼のそれぞれに対して別々に前記視線方向を取得するように構成されている、付記1~3のいずれか一項に記載の装置(200)。
〔付記5〕
前記眼に近い光学デバイスに含まれる、付記1~4のいずれか一項に記載の装置(200)。
〔付記6〕
ユーザの眼の第1及び第2のフィーチャの位置と、前記ユーザの視線距離と、に少なくともある程度基づいて3次元空間内で基準点を決定するステップ(340)と、
眼に近い光学デバイスを使用している前記ユーザの推定注視点及び/又は推定視線方向を取得する為に、前記基準点を前記眼に近い光学デバイスの見えているシーンにマッピングするステップ(370)であって、前記マッピングは、前記ユーザに関連付けられた較正情報に少なくともある程度基づく、前記マッピングするステップと、
を含む方法であって、
前記眼に近い光学デバイスが接眼デバイスを含むことと、ライトガイド位置に設定された所定の仮想平面と、前記ユーザの眼の前記第1及び第2のフィーチャをトラバースするベクトルと、の交点を計算することによって前記視線距離を取得する(350)ことと、によって特徴付けられる方法。
〔付記7〕
前記較正情報を、較正プロセスに基づく較正行列として取得するステップを更に含み、前記較正プロセスでは、前記ユーザが3つ以上の標的点を順番に見つめ、前記較正において使用された各標的点ごとに別々の較正基準点が前記3次元空間内で決定される、付記6に記載の方法。
〔付記8〕
前記眼に近い光学デバイスは顕微鏡であり、前記方法は更に、前記ユーザの2つの眼のそれぞれに対して別々に前記視線方向を取得するステップを含む、付記6~7のいずれか一項に記載の方法。
〔付記9〕
前記ユーザの前記推定注視点及び/又は前記視線方向に少なくともある程度基づいて顕微鏡を制御するステップと、前記較正情報に基づいて前記ユーザを識別するステップと、のうちの少なくとも一方を更に含む、請求項6~8のいずれか一項に記載の方法。
〔付記10〕
少なくとも1つのプロセッサ(210)によって実行された場合に、少なくとも、
ユーザの眼の第1及び第2のフィーチャの位置と、前記ユーザの視線距離と、に少なくともある程度基づいて3次元空間内で基準点を決定するステップ(340)と、
眼に近い光学デバイスを使用している前記ユーザの推定注視点及び/又は推定視線方向を取得する為に、前記基準点を前記眼に近い光学デバイスの見えているシーンにマッピングするステップ(370)であって、前記マッピングは、前記ユーザに関連付けられた較正情報に少なくともある程度基づく、前記マッピングするステップと、
を装置(200)に行わせるコンピュータ可読命令セットが記憶されている非一時的コンピュータ可読媒体であって、
前記眼に近い光学デバイスが接眼デバイスを含むことと、ライトガイド位置に設定された所定の仮想平面と、前記ユーザの眼の前記第1及び第2のフィーチャをトラバースするベクトルと、の交点を計算することによって前記視線距離を取得する(350)ことを前記装置に行わせるように構成された前記コンピュータ可読命令セットと、によって特徴付けられる非一時的コンピュータ可読媒体。
【産業上の利用可能性】
【0050】
本発明の少なくとも幾つかの実施形態は、接眼デバイスにおいてユーザ視線を追跡することに産業上の応用を見出す。
頭字語リスト
2D 2次元
3D 3次元
CCD 電荷結合素子
CMOS 相補型金属酸化膜半導体
USB ユニバーサルシリアルバス
参照符号リスト
100 眼
110 瞳
120 顕微鏡
130 光学機器
140 プレート
150 視線標的
160 角膜中心
161 ベクトルd*L
165 3次元座標系
170 光学点(基準点)
180 マッピング
185 シーンカメラの座標系
190 注視点
技術条項
第1条
少なくとも1つの処理コアと、コンピュータプログラムコードを含む少なくとも1つのメモリと、を含む装置であって、少なくとも1つのメモリ及びコンピュータプログラムコードは、少なくとも1つの処理コアとともに、少なくとも、
ユーザの眼の第1及び第2のフィーチャの位置と、ユーザの視線距離と、に少なくともある程度基づいて3次元空間内で基準点を決定するステップと、
眼に近い光学デバイスを使用しているユーザの推定注視点及び/又は推定視線方向を取得する為に、基準点を眼に近い光学デバイスの見えているシーンにマッピングするステップであって、マッピングは、ユーザに関連付けられた較正情報に少なくともある程度基づく、上記マッピングするステップと、
を装置に行わせるように構成されている、
装置。
第2条
ユーザの眼の第1及び第2のフィーチャは角膜中心及び瞳中心である、第1条に記載の装置(200)。
第3条
装置は更に、較正情報を、較正プロセスに基づく較正行列として取得するように構成されており、較正プロセスでは、ユーザが3つ以上の標的点を順番に見つめ、較正において使用された各標的点ごとに別々の較正基準点が3次元空間内で決定される、第1条又は第2条に記載の装置。
第4条
装置は更に、所定の仮想平面と、ユーザの眼の第1及び第2のフィーチャをトラバースするベクトルと、の交点を計算することによって視線距離を取得するように構成されている、第1~3条のいずれか一条に記載の装置。
第5条
眼に近い光学デバイスは顕微鏡であり、装置は、ユーザの2つの眼のそれぞれに対して別々に視線方向を取得するように構成されている、第1~4条のいずれか一条に記載の装置。
第6条
眼に近い光学デバイスに含まれる、第1~5条のいずれか一条に記載の装置。