【文献】
Karen PIERCE et al,Preference for geometric patterns early in life as arisk factor for autism,Arch Gen Psychiatry,2011年 1月,vol.68, no.1,pp.101-109
【文献】
松村 佳亮、他,「近赤外瞳孔検出法に基づくカラーカメラ顔画像中の高精度実時間瞳孔位置推定」,映像情報メディア学会誌,日本,(社)映像情報メディア学会 The Institute of Image,2011年,第65巻 第12号,P1783-P1787
(58)【調査した分野】(Int.Cl.,DB名)
前記評価部は、所定期間内の前記視点の移動距離、前記所定期間内の前記視点の移動速度、前記所定期間内に前記分割領域で前記視点が検出された個数、および、前記所定期間内に複数の前記分割領域間で前記視点が移動した回数、の少なくとも1つに基づく前記評価値を算出すること、
を特徴とする請求項1に記載の診断支援装置。
前記評価部は、前記模様画像を含む分割領域で前記視点が検出された時間と、前記模様画像を含む分割領域以外で前記視点が検出された時間と、に基づく前記評価値を算出すること、
を特徴とする請求項1に記載の診断支援装置。
【発明を実施するための形態】
【0012】
以下に、本発明にかかる診断支援装置および診断支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。
【0013】
(第1の実施形態)
上述のように、発達障がいの診断支援装置では、より精度の高い方法が求められていた。また、多種の発達障がいに対して診断支援できる効率の良い装置が求められていた。これまでは、例えば、何も表示されていない画面を見た時のサッカードを検出してADHDを診断支援する技術が提案されている。第1の実施形態の診断支援装置は、グループ化した複数のウィンドウに対する注視点を検出して判断する。これにより、ADHDを従来より高い精度で診断支援するとともに、ASDの診断支援も実現できるようにする。
【0014】
図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。
図1に示すように、本実施形態では、表示画面101の下側に、1組のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。
【0015】
右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光源203および205は、発光する波長が相互に異なる内周のLEDと外周のLEDとを含む。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方法としては、例えば特許文献2に記載された方法などを適用できる。
【0016】
視線を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示画面101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
【0017】
図2は、診断支援装置100の機能の概要を示す図である。
図2では、
図1に示した構成の一部と、この構成の駆動などに用いられる構成を示している。
図2に示すように、診断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203および205と、スピーカ105と、駆動・IF(interface)部208と、制御部300と、記憶部150と、表示部210と、を含む。
図2において、表示画面101は、右カメラ202および左カメラ204との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。
【0018】
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。
【0019】
駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。
【0020】
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、診断のための対象画像等、各種情報を表示する。
【0021】
図3は、
図2に示す各部の詳細な機能の一例を示すブロック図である。
図3に示すように、制御部300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
【0022】
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。
【0023】
赤外LED光源203は、波長1−LED303と、波長2−LED304と、を備えている。赤外LED光源205は、波長1−LED305と、波長2−LED306と、を備えている。
【0024】
波長1−LED303、305は、波長1の赤外線を照射する。波長2−LED304、306は、波長2の赤外線を照射する。
【0025】
波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。なお、照射する赤外線の波長については、上記に限らず、波長1の赤外線を照射して瞳孔で反射された反射光を撮像した結果と、波長2の赤外線を照射して瞳孔で反射された反射光を撮像した結果とで、差が出せるものであればよい。
【0026】
スピーカ駆動部322は、スピーカ105を駆動する。なお、診断支援装置100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置100の内部に備えるように構成してもよい。
【0027】
制御部300は、診断支援装置100全体を制御する。制御部300は、視線検出部351と、視点検出部352と、出力制御部353と、評価部354と、を備えている。
【0028】
視線検出部351は、撮像部(ステレオカメラ102)により撮像された撮像画像から、被験者の視線(視線方向)を検出する。視線を検出する処理には、被験者の目の位置を検出する処理が含まれる。視点検出部352は、検出された視線方向を用いて被験者の視点を検出する。視点検出部352は、例えば、表示画面101に表示された対象画像のうち、被験者が注視する点である視点(注視点)を検出する。視線検出部351による視線検出方法、および、視点検出部352による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラを用いて被験者の視線方向および注視点を検出する場合を例に説明する。
【0029】
この場合、まず視線検出部351は、ステレオカメラ102で撮影された画像から、被験者の視線方向を検出する。視線検出部351は、例えば、特許文献1および2に記載された方法などを用いて、被験者の視線方向を検出する。具体的には、視線検出部351は、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像との差分を求め、瞳孔像が明確化された画像を生成する。視線検出部351は、左右のカメラ(右カメラ202、左カメラ204)で撮影された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により被験者の瞳孔の位置(目の位置)を算出する。また、視線検出部351は、左右のカメラで撮影された画像を用いて被験者の角膜反射の位置を算出する。そして、視線検出部351は、被験者の瞳孔の位置と角膜反射位置とから、被験者の視線方向を表す視線ベクトルを算出する。
【0030】
なお、被験者の目の位置および視線の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の目の位置および視線を検出してもよい。
【0031】
視点検出部352は、例えば
図1のような座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。両目の視線方向が得られた場合は、被験者の左右の視線の交点を求めることによって注視点を計測してもよい。
【0032】
図4は、2台のカメラ(右カメラ202、左カメラ204)を使用した場合の目および距離の検出の一例を示す図である。2台のカメラは、事前にステレオ較正法によるカメラキャリブレーション理論を適用し、カメラパラメータを求めておく。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。右カメラ202で撮影された画像から検出した目の位置と、左カメラ204で撮影された画像から検出した目の位置と、カメラパラメータとを用いて、世界座標系における目の3次元座標が得られる。これにより、目とステレオカメラ102間の距離、および、瞳孔座標を推定することができる。瞳孔座標とは、XY平面上での被験者の目(瞳孔)の位置を表す座標値である。瞳孔座標は、例えば、世界座標系で表される目の位置をXY平面に投影した座標値とすることができる。通常は、左右両目の瞳孔座標が求められる。表示画面101には、診断画像が表示される。後述するように、診断画像は、例えば自然画(人物画像およびキャラクタ画像など)と模様画像とを含む。
【0033】
模様画像は、例えば1以上の幾何学模様を含む画像(幾何学画像)である。自然画は、幾何学画像以外の、自然物または自然物を連想させるような画像であればよい。例えば、人物、動物、植物、および自然の景観などをカメラで撮像した画像(静止画、動画)を自然画として用いてもよい。また、人物および動物などを模したキャラクタの画像(静止画、動画)を自然画として用いてもよい。
【0034】
図3に戻り、出力制御部353は、表示部210およびスピーカ105などに対する各種情報の出力を制御する。例えば、出力制御部353は、診断画像、および、評価部354による評価結果などの表示部210に対する出力を制御する。出力制御部353は、人物画像と、幾何学画像と、キャラクタ画像と、のうち少なくとも2つを、複数の分割領域のうち相互に異なる分割領域に、それぞれ診断画像として表示させる。分割領域とは、表示部210の表示領域(表示画面101)を分割した領域を表す。分割領域の具体例については後述する。
【0035】
評価部354は、診断画像と、視点検出部352により検出された注視点とに基づいて、発達障がいの程度に関する指標として評価値を算出する。評価部354は、例えば、後述する
図5のような診断画像を表示した際の被験者の注視点の位置に基づいて、所定期間内の注視点の移動距離、所定期間内の注視点の移動速度、所定期間内に分割領域で注視点が検出された個数、および、所定期間内に複数の分割領域間で注視点が移動した回数、の少なくとも1つに基づく評価値を算出する。評価部354は、診断画像と注視点とに基づいて、評価値を算出すればよく、その算出方法は、実施の形態に限定されるものではない。
【0036】
図5は、表示される診断画像の一例を示す説明図である。
図5に示すように、表示画面101は、複数の分割領域に分割される。以下では、分割領域をエリアともいう。
図5の例では、表示画面101は、4つのエリアA1、エリアA2、エリアA3、エリアA4に分割されている。なお、エリアの個数は4に限られるものではない。
【0037】
本実施形態では、各エリアをさらに4つの領域(部分領域)に分割する。以下では、エリアを分割した領域をウィンドウともいう。
図5の例では、各エリアがさらに4つのウィンドウに分割される。なお、エリアをさらに分割せず、各エリアにそれぞれ1つの診断画像を表示するように構成してもよい。
【0038】
エリアA1の中には、4つのウィンドウW1、W2、W3、W4が設定されている。ウィンドウW1、W2、W3、W4の中に人物映像(人物画像)が表示される。ここで、各映像(画像)は静止画・動画のいずれでもよいが、動画の方が注視されやすいので好ましい形態である。エリアA2の中には、4つのウィンドウW5、W6、W7、W8が設定されている。ウィンドウW5、W6、W7、W8の中にキャラクタ画像としての動物映像(動物画像)が表示される。エリアA3の中には、4つのウィンドウW9、W10、W11、W12が設定されている。ウィンドウW9、W10、W11、W12の中に幾何学映像(幾何学画像)が表示される。エリアA4の中には、4つのウィンドウW13、W14、W15、W16が設定されている。ウィンドウW13、W14、W15、W16の中にキャラクタ画像としての乗り物映像(乗り物画像)が表示される。
【0039】
なお、出力制御部353が、複数の測定期間(第1期間、第2期間)で、診断画像を表示するエリアを変更するように構成してもよい。この場合、評価部354が、各期間で算出された評価値の平均値を、最終的な評価値として求めてもよい。例えば、エリアA1とエリアA3、エリアA2とエリアA4の位置を入れ替えた2つのパターンそれぞれで算出された評価値を平均化してもよい。これにより、注視の好み(いつも右上から見始めるなど)などの影響を排除することが可能である。
【0040】
次に、このように構成された第1の実施形態にかかる診断支援装置100による診断支援処理について
図6〜
図10を用いて説明する。
図6は、本実施形態における診断支援処理の一例を示すフローチャートである。なお、これ以前に個別のキャリブレーションは完了しているものとする。キャリブレーションには、上述のようなカメラキャリブレーション、および、視線検出のためのキャリブレーション(視線検出用較正)が含まれる。
【0041】
まず、出力制御部353は、映像(診断画像)の再生を開始する(ステップS101)。出力制御部353は、映像再生時間を決めるタイマをリセットする(ステップS102)。評価部354は、記憶部150などに保存されている映像再生期間中の注視点の移動距離の累積値(累積距離)をクリア(初期化)する(ステップS103)。
【0042】
評価部354は、評価値の算出に用いる以下のような各カウンタをリセット(初期化)する(ステップS104)。
・エリア内に注視点がある場合にインクリメントするエリアカウンタCA1〜CA4
・ウィンドウ内に注視点がある場合にインクリメントするウィンドウカウンタCW1〜CW16
・注視点がウィンドウから別のウィンドウに移った場合にインクリメントするウィンドウ移動カウンタCM
【0043】
評価部354は、評価値の算出に用いる以下の各情報をクリア(初期化)する(ステップS105)。
・各ウィンドウに注視点が存在する場合に、1をセットするウィンドウOKフラグFW1〜FW16
・現在または過去の最近の時刻で注視点が検出されたウィンドウを示す現在ウィンドウNW
【0044】
次に、視点検出部352は、注視点を検出する(ステップS106)。視点検出部352は、瞬きなどの影響で注視点検出を失敗したか否かを判断する(ステップS107)。瞬きなどが生じた場合、瞳孔検出ができないので注視点の検出が不可能となる。注視点検出を失敗した場合(ステップS107:Yes)、ステップS120に進む。注視点を検出できた場合(ステップS107:No)、ステップS108に進む。
【0045】
ステップS108では、視点検出部352は、注視点の座標が、エリアA1内にあるか否かを判断する(ステップS108)。エリアA1内にある場合(ステップS108:Yes)、ステップS109に進む。ステップS109では、視点検出部352は、エリアA1に対応した処理(エリアA1処理)を行う(ステップS109)。エリアA1処理の詳細は後述する。エリアA1ではない場合(ステップS108:No)、ステップS110に進む。
【0046】
ステップS110では、視点検出部352は、注視点の座標が、エリアA2内にあるか否かを判断する(ステップS110)。エリアA2内にある場合(ステップS110:Yes)、ステップS111に進む。ステップS111では、視点検出部352は、エリアA2に対応した処理(エリアA2処理)を行う(ステップS111)。エリアA2ではない場合(ステップS110:No)、ステップS112に進む。
【0047】
ステップS112では、視点検出部352は、注視点の座標が、エリアA3内にあるか否かを判断する(ステップS112)。エリアA3内にある場合(ステップS112:Yes)、ステップS113に進む。ステップS113では、視点検出部352は、エリアA3に対応した処理(エリアA3処理)を行う(ステップS113)。エリアA3ではない場合(ステップS112:No)、ステップS114に進む。
【0048】
ステップS114では、視点検出部352は、注視点の座標が、エリアA4内にあるか否かを判断する(ステップS114)。エリアA4内にある場合(ステップS114:Yes)、ステップS115に進む。ステップS115では、視点検出部352は、エリアA4に対応した処理(エリアA4処理)を行う(ステップS115)。エリアA4ではない場合、例えば、注視点が表示画面外などの場合(ステップS114:No)、ステップS116に進む。
【0049】
ステップS116では、視点検出部352は、現在の注視点の座標と前回の注視点の座標との間の距離を計算する(ステップS116)。次に、視点検出部352は、累積距離に、今回計算した距離を加算する(ステップS117)。次に、視点検出部352は、前回の注視点の座標に、現在の注視点の座標を代入する(ステップS118)。次に、視点検出部352は、ウィンドウ移動処理を実行する(ステップS119)。ウィンドウ移動処理の詳細は後述する。
【0050】
次に、出力制御部353は、映像の再生が終わったか否かを判断する(ステップS120)。出力制御部353は、例えば、タイマが所定の値(再生時間)になったか否かにより、映像の再生が終わったか否かを判断する。映像の再生が終了していない場合(ステップS120:No)、ステップS106に戻り処理を繰り返す。映像の再生が終了した場合(ステップS120:Yes)、ステップS121に進む。
【0051】
出力制御部353は、映像の再生を停止する(ステップS121)。評価部354は、注視点移動の累積距離を取得する(ステップS122)。さらに、評価部354は、累積距離と映像の再生時間とから、注視点移動の平均速度を求める(ステップS123)。次に、評価部354は、エリアカウンタCA1〜CA4の値を取得し、ウィンドウカウンタCW1〜CW16の値を取得し、ウィンドウ移動カウンタCMの値を取得する(ステップS124)。次に、評価部354は、人物映像が表示されたエリア(エリアA1)と幾何学映像が表示されたエリア(エリアA3)で検出された注視点の個数の合計に対する、幾何学映像が表示されたエリア(エリアA3)で検出された注視点の個数の割合ANSを求める(ステップS125)。割合ANSは、人物映像と幾何学映像を見たうちの、幾何学映像を見た割合を示す。割合ANSが高いほどASDの可能性が高くなる。
【0052】
なお、ASDの診断支援に用いる評価値は割合ANSに限られるものではない。例えば、人物映像が表示されたエリアで検出された注視点の個数と、幾何学映像が表示されたエリアで検出された注視点の個数との差分に基づく値を評価値として用いてもよい。また、本実施形態では人物映像と幾何学映像とを比較したが、人物映像とキャラクタ映像(動物映像や乗り物映像)との注視点の割合や個数を比較してもよく、またキャラクタ映像と幾何学映像との注視点の割合や個数を比較してもよい。人物映像とキャラクタ映像とを比較した場合、キャラクタ映像を注視する割合が高いほど、ASDの可能性が高く、キャラクタ映像と幾何学映像を比較した場合、幾何学映像を注視する割合が高いほど、ASDの可能性が高い。
【0053】
次に、評価部354は、ウィンドウOKフラグFW1〜FW16を取得する(ステップS126)。ウィンドウOKフラグは、対応するウィンドウを1回注視するとフラグが0から1へと変化する。ウィンドウOKフラグFW1〜FW16は、それぞれウィンドウW1〜W16に対応する。評価部354は、ウィンドウOKフラグにより、いずれのウィンドウを見たかを判定する。
【0054】
最後に、評価部354は、総合評価を行う(ステップS127)。総合評価処理の詳細は後述する。
【0055】
図7は、
図6のウィンドウ移動処理(ステップS119)の一例を示すフローチャートである。まず、視点検出部352は、現在ウィンドウが前回ウィンドウと同一かを判断する(ステップS201)。
【0056】
上述のように、現在ウィンドウとは、現在または過去の最近の時刻で注視点が検出されたウィンドウである。現時点で注視点が検出され(ステップS107:No)、かつ、各エリア内のいずれかのウィンドウ内で注視点が検出された場合は、現時点で注視点が検出されたウィンドウが現在ウィンドウとなる。一方、現時点で注視点が検出されたが(ステップS107:No)、注視点が各エリア内のいずれかのウィンドウ内に含まれない場合は、現在ウィンドウは更新されない。すなわち、現時点ではない過去の時刻に注視点が検出されたウィンドウが現在ウィンドウとなる。
【0057】
前回ウィンドウとは、現在ウィンドウの1つ前に注視点が検出されたウィンドウである。現在ウィンドウおよび前回ウィンドウは、例えば診断支援処理の開始時に初期化しておく。いずれかのウィンドウで最初に注視点を検出した場合は、前回ウィンドウは初期化されているので、前回ウィンドウに現在ウィンドウを代入してウィンドウ移動処理を終了してもよい。
【0058】
現在ウィンドウが前回ウィンドウと同一であった場合(ステップS201:Yes)、視点検出部352は、ウィンドウ移動処理を終了する。同一でなかった場合(ステップS201:No)、視点検出部352は、ウィンドウ移動カウンタCMをインクリメントする(ステップS202)。次に、視点検出部352は、前回ウィンドウに現在ウィンドウを代入する(ステップS203)。このように、注視点がウィンドウ間を移動するごとに、ウィンドウ移動カウンタCMの値が1ずつ加算される。
【0059】
ウィンドウ移動処理は、ウィンドウ間の注視点の移動を確認するための処理である。従って、注視点がウィンドウ以外の場所で検出された場合はウィンドウ間の移動には関係ないので無視する。
【0060】
図8は、
図6の総合評価処理(ステップS127)の一例を示すフローチャートである。まず、評価部354は、注視点の累積距離が閾値B1より大きいかを判断する(ステップS301)。大きい場合(ステップS301:Yes)、評価部354は、ADHDの可能性があることを示す評価結果を出力する(ステップS305)。
【0061】
累積距離が閾値B1以下の場合(ステップS301:No)、評価部354は、注視点の平均移動速度が閾値B2より大きいかを判断する(ステップS302)。大きい場合(ステップS302:Yes)、評価部354は、ADHDの可能性があることを示す評価結果を出力する(ステップS305)。
【0062】
平均移動速度が閾値B2以下の場合(ステップS302:No)、評価部354は、ウィンドウ移動カウンタCMの値が閾値B3より大きいかを判断する(ステップS303)。大きい場合(ステップS303:Yes)、評価部354は、ADHDの可能性があることを示す評価結果を出力する(ステップS305)。
【0063】
ウィンドウ移動カウンタCMの値が閾値B3以下の場合(ステップS303:No)、評価部354は、ウィンドウOKフラグ=1の数が閾値B4より大きいかを判断する(ステップS304)。大きい場合(ステップS304:Yes)、評価部354は、ADHDの可能性があることを示す評価結果を出力する(ステップS305)。
【0064】
ウィンドウOKフラグ=1の数が閾値B4以下の場合(ステップS304:No)、または、ステップS305の後、評価部354は、ASDの評価値である割合ANSが、閾値B5より大きいかを判断する(ステップS306)。大きい場合(ステップS306:Yes)は、評価部354は、ASDの可能性があることを示す評価結果を出力する(ステップS307)。割合ANSが閾値B5以下の場合(ステップS306:No)、または、ステップS307の後、総合評価処理を終了する。
【0065】
なお、
図8の総合評価処理は一例でありこれに限られるものではない。上記のように、評価部354が、注視点の位置に基づいて、注視点の移動距離(累積距離など)、注視点の移動速度(平均移動速度など)、エリアで注視点が検出された個数(ウィンドウOKフラグの総数など)、および、エリア間で注視点が移動した回数(ウィンドウ移動カウンタなど)、の少なくとも1つに基づく評価値を算出すればよい。
【0066】
本実施形態では、表示領域を分割したエリアごとに異なる診断画像を表示して評価値を算出できるため、診断の精度を向上することができる。
【0067】
図9は、
図6の総合評価処理(ステップS127)の他の例を示すフローチャートである。まず、評価部354は、累積距離の平均値AV1に対する注視点の累積距離の割合P1を求める(ステップS401)。評価部354は、平均移動速度の平均値AV2に対する注視点の平均移動速度の割合P2を求める(ステップS402)。評価部354は、CMの値の平均値AV3に対するウィンドウ移動カウンタCMの値の割合P3を求める(ステップS403)。評価部354は、ウィンドウOKフラグ=1の数の平均値AV4に対するウィンドウOKフラグ=1の数の割合P4を求める(ステップS404)。
【0068】
平均値AV1、AV2、AV3、および、AV4は、それぞれ、例えば多数の被験者から算出された累積距離、平均移動速度、ウィンドウ移動カウンタCM、および、ウィンドウOKフラグ=1の数、の平均値を用いる。
【0069】
次に、評価部354は、各割合P1〜P4に、重み付け係数(K1〜K4)をそれぞれ乗じた値の総和であるADHDの評価値Eを求める(ステップS405)。次に、評価部354は、ADHDの評価値Eが、閾値B6より大きいかを判断する(ステップS406)。大きい場合(ステップS406:Yes)、評価部354は、ADHDの可能性があることを示す評価結果を出力する(ステップS407)。
【0070】
ADHDの評価値Eが閾値B6以下の場合(ステップS406:No)、または、ステップS407の後、評価部354は、ASDの評価値である割合ANSが、閾値B5より大きいかを判断する(ステップS408)。大きい場合(ステップS408:Yes)、評価部354は、ASDの可能性があることを示す評価結果を出力する(ステップS409)。割合ANSが閾値B5以下の場合(ステップS408:No)、または、ステップS409の後、総合評価処理を終了する。
【0071】
図10は、
図6のエリアA1処理(ステップS109)の一例を示すフローチャートである。エリアA1処理は、ステップS108の判断により、現在の注視点がエリアA1に存在することが前提となる。
【0072】
まず、注視点がエリアA1に存在するので、視点検出部352は、エリアカウンタCA1をインクリメントする(ステップS501)。
【0073】
視点検出部352は、エリアA1内のウィンドウW1内に注視点があるか否かを判断する(ステップS502)。注視点がW1内にない場合(ステップS502:No)、ステップS506に進む。注視点がW1内にある場合(ステップS502:Yes)、ステップS503に進む。ステップS503では、視点検出部352は、ウィンドウカウンタCW1をインクリメントし、現在ウィンドウをW1に設定する(ステップS503)。
【0074】
次に、視点検出部352は、ウィンドウOKフラグFW1が0か否かを判断する(ステップS504)。FW1=0の場合(ステップS504:Yes)、視点検出部352は、FW1=1を設定してエリアA1処理を終了する(ステップS505)。既にFW1=1の場合(ステップS504:No)、エリアA1処理を終了する。
【0075】
ステップS506では、視点検出部352は、エリアA1内のウィンドウW2内に注視点があるか否かを判断する(ステップS506)。注視点がW2内にない場合(ステップS506:No)、ステップS510に進む。注視点がW2内にある場合(ステップS506:Yes)、ステップS507に進む。ステップS507では、視点検出部352は、ウィンドウカウンタCW2をインクリメントし、現在ウィンドウをW2に設定する(ステップS507)。
【0076】
次に、視点検出部352は、ウィンドウOKフラグFW2が0か否かを判断する(ステップS508)。FW2=0の場合(ステップS508:Yes)、視点検出部352は、FW2=1を設定してエリアA1処理を終了する(ステップS509)。既にFW2=1の場合(ステップS508:No)、エリアA1処理を終了する。
【0077】
ステップS510では、視点検出部352は、エリアA1内のウィンドウW3内に注視点があるか否かを判断する(ステップS510)。注視点がW3内にない場合(ステップS510:No)、ステップS514に進む。注視点がW3内にある場合(ステップS510:Yes)、ステップS511に進む。ステップS511では、視点検出部352は、ウィンドウカウンタCW3をインクリメントし、現在ウィンドウをW3に設定する(ステップS511)。
【0078】
次に、視点検出部352は、ウィンドウOKフラグFW3が0か否かを判断する(ステップS512)。FW3=0の場合(ステップS512:Yes)、視点検出部352は、FW3=1を設定してエリアA1処理を終了する(ステップS513)。既にFW3=1の場合(ステップS512:No)、エリアA1処理を終了する。
【0079】
ステップS514では、視点検出部352は、エリアA1内のウィンドウW4内に注視点があるか否かを判断する(ステップS514)。注視点がW4内にない場合(ステップS514:No)、エリアA1処理を終了する。注視点がW4内にある場合(ステップS514:Yes)、ステップS515に進む。ステップS515では、視点検出部352は、ウィンドウカウンタCW4をインクリメントし、現在ウィンドウをW4に設定する(ステップS515)。
【0080】
次に、視点検出部352は、ウィンドウOKフラグFW4が0か否かを判断する(ステップS516)。FW4=0の場合(ステップS516:Yes)、FW4=1を設定してエリアA1処理を終了する(ステップS517)。既にFW4=1の場合(ステップS516:No)、エリアA1処理を終了する。
【0081】
エリアA2処理(ステップS111)、エリアA3処理(ステップS113)、および、エリアA4処理(ステップS115)も、
図10のエリアA1処理と同様である。
【0082】
図10のフローチャートは一例であり、エリア内に注視点が存在するか(エリアカウンタCA1〜CA4など)、ウィンドウ内に注視点が存在するか(ウィンドウカウンタCW1〜CW16など)などを判定できる方法であればどのような方法を適用してもよい。また、エリアをウィンドウに分割せず、各エリアにそれぞれ1つの診断画像を表示する構成の場合は、ウィンドウに対する処理をエリアに対する処理に置き換えることにより、上記と同様の機能を実現できる。
【0083】
以上のように、第1の実施形態によれば、例えば以下のような効果が得られる。
(1)精度に問題があった従来装置に対して高精度である。
(2)専用メガネが不要であり、乳幼児でも使用できる。
(3)ADHDだけでなく同時にASDの診断支援も可能である。
【0084】
(第2の実施形態)
第2の実施形態では、第1の実施形態よりも一層、装置構成を簡略化できる視線検出装置および視線検出方法を実現する。
【0085】
以下に、第2の実施形態の視線検出装置および視線検出方法を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、以下では、視線検出結果を用いて発達障がいなどの診断を支援する診断支援装置に視線検出装置を用いた例を説明する。適用可能な装置は診断支援装置に限られるものではない。
【0086】
本実施形態の視線検出装置(診断支援装置)は、1ヵ所に設置された照明部を用いて視線を検出する。また、本実施形態の視線検出装置(診断支援装置)は、視線検出前に被験者に1点を注視させて測定した結果を用いて、角膜曲率中心位置を高精度に算出する。
【0087】
なお、照明部とは、光源を含み、被験者の眼球に光を照射可能な要素である。光源とは、例えばLED(Light Emitting Diode)などの光を発生する素子である。光源は、1個のLEDから構成されてもよいし、複数のLEDを組み合わせて1ヵ所に配置することにより構成されてもよい。以下では、このように照明部を表す用語として「光源」を用いる場合がある。
【0088】
図11および12は、第2の実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。なお、第1の実施形態と同様の構成については同一の符号を付し、説明を省略する場合がある。
【0089】
図11に示すように、第2の実施形態の診断支援装置は、表示部210と、ステレオカメラ2102と、LED光源2103と、を含む。ステレオカメラ2102は、表示部210の下に配置される。LED光源2103は、ステレオカメラ2102に含まれる2つのカメラの中心位置に配置される。LED光源2103は、例えば波長850nmの近赤外線を照射する光源である。
図11では、9個のLEDによりLED光源2103(照明部)を構成する例が示されている。なお、ステレオカメラ2102は、波長850nmの近赤外光を透過できるレンズを使用する。
【0090】
図12に示すように、ステレオカメラ2102は、右カメラ2202と左カメラ2203とを備えている。LED光源2103は、被験者の眼球111に向かって近赤外光を照射する。ステレオカメラ2102で取得される画像では、瞳孔112が低輝度で反射して暗くなり、眼球111内に虚像として生じる角膜反射113が高輝度で反射して明るくなる。従って、瞳孔112および角膜反射113の画像上の位置を2台のカメラ(右カメラ2202、左カメラ2203)それぞれで取得することができる。
【0091】
さらに2台のカメラにより得られる瞳孔112および角膜反射113の位置から、瞳孔112および角膜反射113の位置の三次元世界座標値を算出する。本実施形態では、三次元世界座標として、表示画面101の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
【0092】
図13は、第2の実施形態の診断支援装置2100の機能の概要を示す図である。
図13では、
図11および12に示した構成の一部と、この構成の駆動などに用いられる構成を示している。
図13に示すように、診断支援装置2100は、右カメラ2202と、左カメラ2203と、LED光源2103と、スピーカ105と、駆動・IF(interface)部208と、制御部2300と、記憶部150と、表示部210と、を含む。
図13において、表示画面101は、右カメラ2202および左カメラ2203との位置関係を分かりやすく示しているが、表示画面101は表示部210において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。
【0093】
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。
【0094】
駆動・IF部208は、ステレオカメラ2102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ2102に含まれる各部と、制御部2300とのインタフェースとなる。
【0095】
制御部2300は、例えば、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、ネットワークに接続して通信を行う通信I/Fと、各部を接続するバスを備えているコンピュータなどにより実現できる。
【0096】
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部210に表示する画像等を記憶する。表示部210は、診断のための対象画像等、各種情報を表示する。
【0097】
図14は、
図13に示す各部の詳細な機能の一例を示すブロック図である。
図14に示すように、制御部2300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
【0098】
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ2202、左カメラ2203が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。
【0099】
スピーカ駆動部322は、スピーカ105を駆動する。なお、診断支援装置2100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置2100の内部に備えるように構成してもよい。
【0100】
制御部2300は、診断支援装置2100全体を制御する。制御部2300は、第1算出部2351と、第2算出部2352と、第3算出部2353と、視線検出部2354と、視点検出部2355と、出力制御部2356と、評価部2357と、を備えている。なお、視線検出装置としては、少なくとも第1算出部2351、第2算出部2352、第3算出部2353、および、視線検出部2354が備えられていればよい。
【0101】
制御部2300に含まれる各要素(第1算出部2351、第2算出部2352、第3算出部2353、視線検出部2354、視点検出部2355、出力制御部2356、および、評価部2357)は、ソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。
【0102】
プログラムで実現する場合、当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
【0103】
第1算出部2351は、ステレオカメラ2102により撮像された眼球の画像から、瞳孔の中心を示す瞳孔中心の位置(第1位置)を算出する。第2算出部2352は、撮像された眼球の画像から、角膜反射の中心を示す角膜反射中心の位置(第2位置)を算出する。
【0104】
第3算出部2353は、LED光源2103と角膜反射中心とを結ぶ直線と、から角膜曲率中心(第3位置)を算出する。例えば、第3算出部2353は、この直線上で、角膜反射中心からの距離が所定値となる位置を、角膜曲率中心として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値を用いることができる。
【0105】
角膜の曲率半径値には個人差が生じうるため、事前に定められた値を用いて角膜曲率中心を算出すると誤差が大きくなる可能性がある。従って、第3算出部2353が、個人差を考慮して角膜曲率中心を算出してもよい。この場合、第3算出部2353は、まず目標位置を被験者に注視させたときに算出された瞳孔中心および角膜反射中心を用いて、瞳孔中心と目標位置とを結ぶ直線と、角膜反射中心とLED光源2103とを結ぶ直線と、の交点(第4位置)を算出する。そして第3算出部2353は、瞳孔中心と算出した交点との距離を(第1距離)を算出し、例えば記憶部150に記憶する。
【0106】
目標位置は、予め定められ、三次元世界座標値が算出できる位置であればよい。例えば、表示画面101の中央位置(三次元世界座標の原点)を目標位置とすることができる。この場合、例えば出力制御部2356が、表示画面101上の目標位置(中央)に、被験者に注視させる画像(目標画像)等を表示する。これにより、被験者に目標位置を注視させることができる。
【0107】
目標画像は、被験者を注目させることができる画像であればどのような画像であってもよい。例えば、輝度や色などの表示態様が変化する画像、および、表示態様が他の領域と異なる画像などを目標画像として用いることができる。
【0108】
なお、目標位置は表示画面101の中央に限られるものではなく、任意の位置でよい。表示画面101の中央を目標位置とすれば、表示画面101の任意の端部との距離が最小になる。このため、例えば視線検出時の測定誤差をより小さくすることが可能となる。
【0109】
距離の算出までの処理は、例えば実際の視線検出を開始するまでに事前に実行しておく。実際の視線検出時には、第3算出部2353は、LED光源2103と角膜反射中心とを結ぶ直線上で、瞳孔中心からの距離が、事前に算出した距離となる位置を、角膜曲率中心として算出する。
【0110】
視線検出部2354は、瞳孔中心と角膜曲率中心とから被験者の視線を検出する。例えば視線検出部2354は、角膜曲率中心から瞳孔中心へ向かう方向を被験者の視線方向として検出する。
【0111】
視点検出部2355は、検出された視線方向を用いて被験者の視点を検出する。視点検出部2355は、例えば、表示画面101で被験者が注視する点である視点(注視点)を検出する。視点検出部2355は、例えば
図12のような三次元世界座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。
【0112】
出力制御部2356は、表示部210およびスピーカ105などに対する各種情報の出力を制御する。例えば、出力制御部2356は、表示部210上の目標位置に目標画像を出力させる。また、出力制御部2356は、診断画像、および、評価部2357による評価結果などの表示部210に対する出力を制御する。
【0113】
診断画像は、視線(視点)検出結果に基づく評価処理に応じた画像であればよい。例えば発達障がいを診断する場合であれば、発達障がいの被験者が好む画像(幾何学模様映像など)と、それ以外の画像(人物映像など)と、を含む診断画像を用いてもよい。
【0114】
評価部2357は、診断画像と、視点検出部2355により検出された注視点とに基づく評価処理を行う。例えば発達障がいを診断する場合であれば、評価部2357は、診断画像と注視点とを解析し、発達障がいの被験者が好む画像を注視したか否かを評価する。
【0115】
出力制御部2356が第1の実施形態と同様の診断画像を表示し、評価部2357が第1の実施形態の評価部354と同様の評価処理を行ってもよい。言い換えると、第1の実施形態の視線検出処理(視線検出部351)を、第2の実施形態の視線検出処理(第1算出部2351、第2算出部2352、第3算出部2353、視線検出部2354)で置き換えてもよい。これにより、第1の実施形態の効果に加えて、第2の実施形態の効果(装置構成の簡略化など)を達成可能となる。
【0116】
図15は、本実施形態の診断支援装置2100により実行される処理の概要を説明する図である。
図11〜
図14で説明した要素については同一の符号を付し説明を省略する。
【0117】
瞳孔中心407および角膜反射中心408は、それぞれ、LED光源2103を点灯させた際に検出される瞳孔の中心、および、角膜反射点の中心を表している。角膜曲率半径409は、角膜表面から角膜曲率中心410までの距離を表す。
【0118】
図16は、2つの光源(照明部)を用いる方法(以下、方法Aとする)と、1つの光源(照明部)を用いる本実施形態との違いを示す説明図である。
図11〜
図14で説明した要素については同一の符号を付し説明を省略する。
【0119】
方法Aは、LED光源2103の代わりに、2つのLED光源511、512を用いる。方法Aでは、LED光源511を照射したときの角膜反射中心513とLED光源511とを結ぶ直線515と、LED光源512を照射したときの角膜反射中心514とLED光源512とを結ぶ直線516との交点が算出される。この交点が角膜曲率中心505となる。
【0120】
これに対し、本実施形態では、LED光源2103を照射したときの、角膜反射中心522とLED光源2103とを結ぶ直線523を考える。直線523は、角膜曲率中心505を通る。また角膜の曲率半径は個人差による影響が少なくほぼ一定の値になることが知られている。このことから、LED光源2103を照射したときの角膜曲率中心は、直線523上に存在し、一般的な曲率半径値を用いることにより算出することが可能である。
【0121】
しかし、一般的な曲率半径値を用いて求めた角膜曲率中心の位置を使用して視点を算出すると、眼球の個人差により視点位置が本来の位置からずれて、正確な視点位置検出ができない場合がある。
【0122】
図17は、視点検出(視線検出)を行う前に、角膜曲率中心位置と、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。
図11〜
図14で説明した要素については同一の符号を付し説明を省略する。なお、左右カメラ(右カメラ2202、左カメラ2203)と制御部2300とが接続することについては図示せず省略する。
【0123】
目標位置605は、表示部210上の一点に目標画像等を出して、被験者に見つめさせるための位置である。本実施形態では表示画面101の中央位置としている。直線613は、LED光源2103と角膜反射中心612とを結ぶ直線である。直線614は、被験者が見つめる目標位置605(注視点)と瞳孔中心611とを結ぶ直線である。角膜曲率中心615は、直線613と直線614との交点である。第3算出部2353は、瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。
【0124】
図18は、本実施形態の算出処理の一例を示すフローチャートである。
【0125】
まず出力制御部2356は、表示画面101上の1点に目標画像を再生し(ステップS601)、被験者にその1点を注視させる。次に、制御部2300は、LED駆動制御部316を用いてLED光源2103を被験者の目に向けて点灯させる(ステップS602)。制御部2300は、左右カメラ(右カメラ2202、左カメラ2203)で被験者の目を撮像する(ステップS603)。
【0126】
LED光源2103の照射により、瞳孔部分は暗い部分(暗瞳孔)として検出される。またLED照射の反射として、角膜反射の虚像が発生し、明るい部分として角膜反射点(角膜反射中心)が検出される。すなわち、第1算出部2351は、撮像された画像から瞳孔部分を検出し、瞳孔中心の位置を示す座標を算出する。また、第2算出部2352は、撮像された画像から角膜反射部分を検出し、角膜反射中心の位置を示す座標を算出する。なお、第1算出部2351および第2算出部2352は、左右カメラで取得した2つの画像それぞれに対して、各座標値を算出する(ステップS604)。
【0127】
なお、左右カメラは、三次元世界座標を取得するために、事前にステレオ較正法によるカメラ較正が行われており、変換パラメータが算出されている。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。
【0128】
第1算出部2351および第2算出部2352は、この変換パラメータを使用して、左右カメラの座標から、瞳孔中心と角膜反射中心の三次元世界座標に変換を行う(ステップS605)。第3算出部2353は、求めた角膜反射中心の世界座標と、LED光源2103の中心位置の世界座標とを結ぶ直線を求める(ステップS606)。次に、第3算出部2353は、表示画面101の1点に表示される目標画像の中心の世界座標と、瞳孔中心の世界座標とを結ぶ直線を算出する(ステップS607)。第3算出部2353は、ステップS606で算出した直線とステップS607で算出した直線との交点を求め、この交点を角膜曲率中心とする(ステップS608)。第3算出部2353は、このときの瞳孔中心と角膜曲率中心との間の距離を算出して記憶部150などに記憶する(ステップS609)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。
【0129】
算出処理で表示部210上の1点を見つめる際の瞳孔中心と角膜曲率中心との間の距離は、表示部210内の視点を検出する範囲で一定に保たれている。瞳孔中心と角膜曲率中心との間の距離は、目標画像を再生中に算出された値全体の平均から求めてもよいし、再生中に算出された値のうち何回かの値の平均から求めてもよい。
【0130】
図19は、視点検出を行う際に、事前に求めた瞳孔中心と角膜曲率中心との距離を使用して、補正された角膜曲率中心の位置を算出する方法を示した図である。注視点805は、一般的な曲率半径値を用いて算出した角膜曲率中心から求めた注視点を表す。注視点806は、事前に求めた距離を用いて算出した角膜曲率中心から求めた注視点を表す。
【0131】
瞳孔中心811および角膜反射中心812は、それぞれ、視点検出時に算出された瞳孔中心の位置、および、角膜反射中心の位置を示す。直線813は、LED光源2103と角膜反射中心812とを結ぶ直線である。角膜曲率中心814は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離815は、事前の算出処理により算出した瞳孔中心と角膜曲率中心との距離である。角膜曲率中心816は、事前に求めた距離を用いて算出した角膜曲率中心の位置である。角膜曲率中心816は、角膜曲率中心が直線813上に存在すること、および、瞳孔中心と角膜曲率中心との距離が距離815であることから求められる。これにより一般的な曲率半径値を用いる場合に算出される視線817は、視線818に補正される。また、表示画面101上の注視点は、注視点805から注視点806に補正される。なお、左右カメラ(右カメラ2202、左カメラ2203)と制御部2300とが接続することについては図示せず省略する。
【0132】
図20は、本実施形態の視線検出処理の一例を示すフローチャートである。例えば、診断画像を用いた診断処理の中で視線を検出する処理として、
図20の視線検出処理を実行することができる。診断処理では、
図20の各ステップ以外に、診断画像を表示する処理、および、注視点の検出結果を用いた評価部2357による評価処理などが実行される。
【0133】
ステップS701〜ステップS705は、
図18のステップS602〜ステップS606と同様であるため説明を省略する。
【0134】
第3算出部2353は、ステップS705で算出した直線上であって、瞳孔中心からの距離が、事前の算出処理によって求めた距離と等しい位置を角膜曲率中心として算出する(ステップS706)。
【0135】
視線検出部2354は、瞳孔中心と角膜曲率中心とを結ぶベクトル(視線ベクトル)を求める(ステップS707)。このベクトルが、被験者が見ている視線方向を示している。視点検出部2355は、この視線方向と表示画面101との交点の三次元世界座標値を算出する(ステップS708)。この値が、被験者が注視する表示部210上の1点を世界座標で表した座標値である。視点検出部2355は、求めた三次元世界座標値を、表示部210の二次元座標系で表される座標値(x,y)に変換する(ステップS709)。これにより、被験者が見つめる表示部210上の視点(注視点)を算出することができる。
【0136】
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)光源(照明部)を2ヶ所に配置する必要がなく、1ヵ所に配置した光源で視線検出を行うことが可能となる。
(2)光源が1ヵ所になったため、装置をコンパクトにすることが可能となり、コストダウンも実現できる。