(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0011】
以下に、本発明にかかる診断支援装置および診断支援方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。
【0012】
(第1の実施形態)
上述の特許文献1では、目領域と口領域とを定め、各領域に注視点座標が検出された動画像のフレーム数を用いて、発達障害を診断している。しかし、例えば目領域は確実に対象者(観察対象者)の目が含まれるように大きく定められている。従って、被験者が実際には対象者の目を注視していない場合であっても、目を注視していると誤って判断する可能性がある。また、特許文献1の方法では、例えば対象者が変わった場合や、対象者が撮像領域内で動いた場合など、カメラで撮影された対象者の画像が変更される場合がある。一方、各領域は対象者によらず固定で定められる。このため、対象者の画像が変更されることにより、例えば実際の対象者の画像内の目の位置が目領域から外れる可能性がある。このように、特許文献1のような方法では、診断の精度が低下する可能性があった。
【0013】
そこで、第1の実施形態では、表示部に表示する画像を複数の領域(ブロック)に分割し、対象者の特定の要素(目、口など)が含まれるブロックを特定する。その後、特定したブロックを被験者が注視するかなどを判断する。これにより、対象者の画像が変更される場合であっても、特定の要素が含まれるブロックを適切に特定でき、診断の精度が低下することを回避できる。
【0014】
第1の実施形態は、被験者の観察する対象となる診断用画像(対象画像)を表示部(モニタ)に表示して被験者の発達障害を診断する例である。
図1は、第1の実施形態で用いる表示部、ステレオカメラ、および光源の配置の一例を示す図である。
図1に示すように、第1の実施形態では、表示部101の横近傍に、1組のステレオカメラ102を配置する。ステレオカメラ102は、赤外線によるステレオ撮影が可能な撮像部であり、右カメラ202と左カメラ204とを備えている。
【0015】
右カメラ202および左カメラ204の各レンズの直前には、円周方向に赤外LED(Light Emitting Diode)光源203および205がそれぞれ配置される。赤外LED光源203および205は、発光する波長が相互に異なる内周のLEDと外周のLEDとを含む。赤外LED光源203および205により被験者の瞳孔を検出する。瞳孔の検出方法としては、例えば特許文献2に記載された方法などを適用できる。
【0016】
視線を検出する際には、空間を座標で表現して位置を特定する。本実施形態では、表示部101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
【0017】
図2は、診断支援装置100の機能の概要を示す図である。
図2では、
図1に示した構成の一部と、この構成の駆動などに用いられる構成を示している。
図2に示すように、診断支援装置100は、右カメラ202と、左カメラ204と、赤外LED光源203および205と、スピーカ105と、駆動・IF部208と、制御部300と、表示部101と、表示部210と、を含む。
【0018】
スピーカ105は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する。
【0019】
駆動・IF部208は、ステレオカメラ102に含まれる各部を駆動する。また、駆動・IF部208は、ステレオカメラ102に含まれる各部と、制御部300とのインタフェースとなる。
【0020】
表示部101は、対象画像を表示する。表示部210は、装置の操作や、診断支援結果を表示する。
【0021】
図3は、
図2に示す各部の詳細な機能の一例を示すブロック図である。
図3に示すように、制御部300には、表示部210と、駆動・IF部208が接続される。駆動・IF部208は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
【0022】
駆動・IF部208には、カメラIF314、315を介して、それぞれ、右カメラ202、左カメラ204が接続される。駆動・IF部208がこれらのカメラを駆動することにより、被験者を撮像する。
【0023】
右カメラ202からはフレーム同期信号が出力される。フレーム同期信号は、左カメラ204とLED駆動制御部316とに入力される。これにより、第1フレームで、タイミングをずらして左右の波長1の赤外線光源(波長1−LED303、波長1−LED305)を発光させ、それに対応して左右カメラ(右カメラ202、左カメラ204)による画像を取り込み、第2フレームで、タイミングをずらして左右の波長2の赤外線光源(波長2−LED304、波長2−LED306)を発光させ、それに対応して左右カメラによる画像を取り込んでいる。
【0024】
赤外LED光源203は、波長1−LED303と、波長2−LED304と、を備えている。赤外LED光源205は、波長1−LED305と、波長2−LED306と、を備えている。
【0025】
波長1−LED303、305は、波長1の赤外線を照射する。波長2−LED304、306は、波長2の赤外線を照射する。
【0026】
波長1および波長2は、それぞれ例えば900nm未満の波長および900nm以上の波長とする。900nm未満の波長の赤外線を照射して瞳孔で反射された反射光を撮像すると、900nm以上の波長の赤外線を照射して瞳孔で反射された反射光を撮像した場合に比べて、明るい瞳孔像が得られるためである。
【0027】
スピーカ駆動部322は、スピーカ105を駆動する。
【0028】
制御部300は、診断支援装置100全体を制御して、結果を表示部210およびスピーカ105などに出力する。制御部300は、表示制御部351と、分割部352と、領域検出部353と、視点検出部354と、判定部355と、を備えている。
【0029】
表示制御部351は、表示部101および表示部210に対する各種情報の表示を制御する。例えば、表示制御部351は、対象者の画像(対象画像)を表示部101に表示する。また、表示制御部351は、診断結果を表示部210に表示する。
【0030】
分割部352は、表示部210に表示される画像を複数の領域に分割する。
【0031】
領域検出部353は、分割された領域のうち、特定要素の画像を含む特定領域を検出する。特定要素とは、例えば、対象者の目および口の少なくとも一方である。なお、特定要素はこれに限られるものではない。例えば、対象者以外の動作する物体を特定要素としてもよい。
【0032】
視点検出部354は、被験者の視点を検出する。本実施形態では、視点検出部354は、例えば、被験者の母親の画像などを含む表示部101に表示された対象画像のうち、被験者が注視する点である視点を検出する。視点検出部354による視点検出方法としては、従来から用いられているあらゆる方法を適用できる。以下では、特許文献3と同様に、ステレオカメラ102を用いて被験者の視点を検出する場合を例に説明する。
【0033】
この場合、まず視点検出部354は、ステレオカメラ102で撮影された画像から、被験者の視線方向を検出する。視点検出部354は、例えば、特許文献1および2に記載された方法などを用いて、被験者の視線方向を検出する。具体的には、視点検出部354は、波長1の赤外線を照射して撮影した画像と、波長2の赤外線を照射して撮影した画像との差分を求め、瞳孔像が明確化された画像を生成する。視点検出部354は、左右のカメラ(右カメラ202、左カメラ204)で撮影された画像それぞれから上記のように生成された2つの画像を用いて、ステレオ視の手法により被験者の瞳孔の位置を算出する。また、視点検出部354は、左右のカメラで撮影された画像を用いて被験者の角膜反射の位置を算出する。そして、視点検出部354は、被験者の瞳孔の位置と角膜反射位置とから、被験者の視線方向を表す視線ベクトルを算出する。
【0034】
視点検出部354は、例えば
図1のような座標系で表される視線ベクトルとXY平面との交点を、被験者の視点として検出する。両目の視線方向が得られた場合は、被験者の左右の視線の交点を求めることによって視点を計測してもよい。
【0035】
なお、被験者の視点の検出方法はこれに限られるものではない。例えば、赤外線ではなく、可視光を用いて撮影した画像を解析することにより、被験者の視点を検出してもよい。
【0036】
判定部355は、視点検出部354によって検出された視点が、領域検出部353によって検出された特定領域に含まれるか否かを判断する。判定部355は、判断結果に基づいて被験者の発達障害の程度を判定する。
【0037】
制御部300および制御部300内の各部の一部または全部は、ハードウェアにより実現してもよいし、CPUなどにより実行されるソフトウェア(プログラム)により実現してもよい。
【0038】
本実施形態の診断支援装置100で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
【0039】
また、本実施形態の診断支援装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の診断支援装置100で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、本実施形態の診断支援装置100で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
【0040】
本実施形態の診断支援装置100で実行されるプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
【0041】
次に、このように構成された第1の実施形態にかかる診断支援装置100による診断支援処理について説明する。
図4は、第1の実施形態における診断支援処理の一例を示すフローチャートである。なお、本実施形態では被験者が対象画像の人物の目を見る割合が規定値(例えば60%)以上であるか否かを判断基準とする。
【0042】
まず、表示制御部351は、被験者が見る人物(対象者)の顔の画像を含む対象画像を表示部101に表示する(ステップS101)。
図5は、表示部101に表示される画像の一例を示す図である。
図5では、対象画像として、対象者の顔の画像501を含む画像が表示される例が示されている。顔の画像501は、対象者の目502を含んでいる。
【0043】
次に、制御部300は、注視点の計測が終了するまで、表示部101に対する被験者の注視点座標を検出し、検出した座標を保存し続ける(ステップS102〜ステップS105)。
【0044】
具体的には、視点検出部354は、瞳孔中心と角膜反射位置との関係を用いて、被験者の視線方向を計算する(ステップS102)。視点検出部354は、視線方向と表示部101(
図1ではXY平面)との交点(注視点)を検出する(ステップS103)。視点検出部354は、検出した注視点の座標値を記憶部(図示せず)等に保存する(ステップS104)。
【0045】
制御部300は、計測が終了したか否かを判断する(ステップS105)。制御部300は、例えば、予め定められた計測時間を経過したか、または、予め定められた個数分の注視点の座標値が得られたか、などによって計測が終了したかを判断する。計測時間(回数)および座標値の個数は、被験者の年齢や状況を考慮して適切な値を決定する。
【0046】
計測が終了していない場合(ステップS105:No)、ステップS102に戻り処理を繰り返す。計測が終了した場合(ステップS105:Yes)、制御部300は、計測した座標値を用いた診断処理を実行する(ステップS106〜ステップS111)。なお、座標値の検出処理(ステップS101〜ステップS105)を実行しながら、診断処理(ステップS106〜ステップS111)も実行するように構成してもよい。
図4のように検出処理と診断処理とを分離すれば、処理負荷を分散することができる。
【0047】
図6〜
図9は注視点検出結果の一例を示す図である。
図6の画像は、
図5の画像上に被験者の注視点を示す複数のマーカ601を重ねて表示した画像の例である。表示制御部351は、
図6のような画像を、被験者用の表示部101および結果出力用の表示部210の少なくとも一方に表示する。
【0048】
診断処理では、まず、分割部352が、対象画像全体を複数のブロックに分割する(ステップS106)。本実施形態では、分割部352は、対象画像を横方向に23分割し、縦方向に33分割している。なお、分割方法はこれに限られるものではなく、対象画像を複数の領域に分割する方法であればあらゆる方法を適用できる。例えば、分割数は23および33に限られるものではない。また、分割して得られる領域の形状は矩形(正方形)に限られるものではなく、任意の形状とすることができる。
【0049】
図7は、
図6の対象画像の分割例を示す模式図である。なお、
図7の下部は説明のために一部のブロック(目の画像付近のブロック)を拡大したものである。A−0〜A−11およびB−0〜B−6は、横方向に12個、縦方向に7個並んだ各ブロックを特定するための情報であり、説明の便宜上付与したものである。
【0050】
図4に戻り、領域検出部353は、分割されたブロックのうち、特定要素として人物の目が含まれているブロック(特定領域)を抽出する(ステップS107)。領域検出部353は、例えば、パターンマッチングなどの一般的に利用されている画像認識技術を用いて、画像から目を検出する。そして、領域検出部353は、検出した目が含まれるブロックを特定領域として検出する。なお、ブロックの検出(抽出)方法はこれに限られるものではない。例えば、表示する対象画像が事前に分かっている場合等であれば、目が含まれているブロックを予め手作業によって設定しておく方法を用いてもよい。
【0051】
次に、判定部355は、ブロックごとの注視点の検出回数をカウントする(ステップS108)。例えば、判定部355は、ステップS104で記憶された注視点の座標値と、ステップS106で分割された各ブロックの座標値等を参照し、各ブロックに含まれる注視点の個数をカウントする。このカウント値が、ブロックごとの注視点の検出回数に相当する。
【0052】
図8および
図9は、それぞれのブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。
図9では、説明のために、目の画像が含まれているブロック(特定領域)の背景を灰色としている。
【0053】
図4に戻る。判定部355は、検出された注視点が特定領域に含まれるか否かを判断する。判定部355は、予め決められたルールと判断結果とから、被験者の発達障害の程度を判定する。上述のように、本実施形態では、判定部355は、被験者が対象画像の人物の目を見る割合が規定値以上であるか否かをルールとして発達障害の程度を判定する(ステップS109)。
【0054】
図6の例では、以下のように判定される。
注視点全体の検出回数=57
人物の目が含まれているブロックを見た回数=37
人物の目を見た割合=37/57=64.9%
【0055】
仮に規定値を60%と仮定すると、割合が規定値を超えているため発達障害の可能性は低いと判断される。なお、
図8(
図9)内では注視点の検出回数は51である。
図6に示すように、目の周辺以外でも注視点が検出されるため、注視点全体の検出回数は57としている。
【0056】
次に別の判定例を
図10〜
図13に示す。
図10の画像は、
図5の画像上に被験者の注視点を示す複数のマーカ1001を重ねて表示した画像の例である。
図11は、
図10の対象画像の分割例を示す模式図である。
図12および
図13は、それぞれのブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。
図13では、説明のために、目の画像が含まれているブロック(特定領域)の背景を灰色としている。
【0057】
図10の例では、以下のように判定される。
注視点全体の検出回数=44
人物の目が含まれているブロックを見た回数=4
人物の目を見た割合=4/44=9.1%
【0058】
同様に規定値を60%と仮定すると、
図10の診断例では規定値を大きく下回るため発達障害の可能性が高いと判断される。
【0059】
このように、本実施形態では、検出された被験者の視線位置をブロック単位で扱うことにより、数値化された明確な判断ルールに基づいた診断支援を行うことが可能になる。また、本実施形態では、対象者の特定要素(目、口など)が含まれるブロックを特定し、特定したブロックを被験者が注視するかによって発達障害を判定する。これにより、対象者の画像が変更される場合であっても、特定要素が含まれるブロックを適切に特定でき、診断の精度が低下することを回避できる。
【0060】
(第2の実施形態)
第1の実施形態では、対象画像内の特定要素(目、口など)の位置と無関係に、対象画像をブロック(領域)に分割していた。この方法では、例えば、あるブロックの端部に目の端部のみが含まれるように対象画像が分割される場合がありうる。例えば
図7の例で対象者の左目が少し左にずれて表示されたとすると、A−11、B−2に対応するブロック(以下、ブロック11−2という)、および、A−11、B−3に対応するブロック(以下、ブロック11−3という)が、このようなブロック(端部に目の端部が含まれるブロック)に相当する。そしてこの場合、ブロック11−2およびブロック11−3は、目が含まれるブロック(特定領域)となる。従って、ブロック11−2およびブロック11−3を注視した回数が、本来、対象者の目を注視した回数としてカウントすべきでない場合であっても、注視した回数に誤ってカウントされるという可能性が生じうる。
【0061】
そこで、第2の実施形態では、対象画像から対象者の目の位置を検出し、検出した目の位置を基準として、対象画像を複数のブロック(領域)に分割する。これにより、特定要素(目など)を注視していないにも関わらず、目を注視したと判定される可能性を低減できるようになる。なお、分割の基準位置とする特定要素は目に限られず、口およびその他の物体の位置を基準とし分割してもよい。
【0062】
図14は、第2の実施形態の制御部300−2の構成例を示すブロック図である。なお、制御部300−2以外の機能は、第1の実施形態の診断支援装置100の機能の概要を示す
図2と同様であるため、説明を省略する。
【0063】
図14に示すように、制御部300−2は、表示制御部351と、分割部352−2と、領域検出部353と、視点検出部354と、判定部355と、位置検出部356−2と、を備えている。
【0064】
第2の実施形態では、位置検出部356−2を追加したこと、および、分割部352−2の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる制御部300のブロック図である
図3と同様であるので、同一符号を付し、ここでの説明は省略する。
【0065】
位置検出部356−2は、対象画像内での特定要素(目など)の画像の位置(座標)を検出する。特定要素を目とする場合は、位置検出部356−2は、対象画像内での対象者の右目および左目それぞれの座標値(右目位置および左目位置)を検出する。
【0066】
分割部352−2は、位置検出部356−2によって検出された位置に応じて対象画像内でのブロック(領域)の分割位置を変更する。例えば、分割部352−2は、いずれか2つのブロック間の境界が、右目位置および左目位置の略中心を通るように分割位置を変更する。略中心とは、例えば、右目位置および左目位置中心から予め定められた範囲内の位置である。
【0067】
次に、このように構成された第2の実施形態にかかる診断支援装置による診断支援処理について説明する。
図15は、第2の実施形態における診断支援処理の一例を示すフローチャートである。なお、本実施形態では被験者が対象画像の人物の目を見る割合が規定値(例えば60%)以上であるか否かを判断基準とする。
【0068】
ステップS201からステップS205までは、第1の実施形態にかかる診断支援装置100の診断支援処理を示す
図4のステップS101からステップS105までと同様の処理なので、その説明を省略する。
【0069】
本実施形態では、位置検出部356−2が、対象画像内の人物の目の位置の座標を求める(ステップS206)。位置検出部356−2は、例えば、パターンマッチングなどの一般的に利用されている画像認識技術を用いて、画像から目を検出する。そして、位置検出部356−2は、検出した目の中心位置などを、人物の目の位置の座標として検出する。なお、目の位置の検出方法はこれに限られるものではない。例えば、表示する対象画像が事前に分かっている場合等であれば、目の位置を予め手作業によって設定しておく方法を用いてもよい。
【0070】
次に、分割部352−2は、検出された座標を元に対象画像全体を複数のブロックに分割する(ステップS207)。
図16は、
図6の対象画像の分割例を示す模式図である。
図16に示すように、本実施形態では、分割部352−2は、左右の目の間隔aと同じ高さおよび幅の正方形の中心を、それぞれ両目の中心と一致するように並べたブロックに分割する。この方法により画像中の目の位置と被験者の視線位置との関係をより的確に捉えることが可能になる。
【0071】
なお、目の位置を基準とした対象画像の分割方法は
図16の例に限られるものではない。少なくともいずれかのブロックの境界が、両目の中心位置付近を通るように分割する方法であれば、
図7と同様の効果を得ることができる。例えば、
図16に示す各ブロックをさらに縦にm分割(mは2以上の整数)、横にn分割(nは2以上の整数)するように構成してもよい。また、分割して得られる領域の形状は矩形(正方形)に限られるものではなく、任意の形状とすることができる。
【0072】
図15のステップS208〜ステップS212は、第1の実施形態にかかる診断支援装置100の診断支援処理を示す
図4のステップS107からステップS111までと同様の処理なので、その説明を省略する。
【0073】
次に、第2の実施形態での診断支援処理の具体例について
図17および
図18を用いて説明する。
図17および
図18は、それぞれのブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。
図18では、説明のために、目の画像が含まれているブロック(特定領域)の背景を灰色としている。A−0〜A−5およびB−0〜B−3は、横方向に6個、縦方向に4個並んだ各ブロックを特定するための情報であり、説明の便宜上付与したものである。以下では、A−x(xは0〜5)、B−y(yは0〜3)に対応するブロックをブロックx−yのように表す。
【0074】
判定部355は、ブロックごとの注視点の検出回数をカウントする。
図17および
図18の例では、検出回数は以下のようになる。
ブロック3−0:1
ブロック1−1:3
ブロック2−1:15
ブロック3−1:19
ブロック2−2:2
ブロック3−2:1
上記以外:0
【0075】
判定部355は、被験者が対象画像の人物の目を見る割合が規定値以上であるか否かをルールとして発達障害の程度を判定する。
図17の例では、以下のように判定される。
注視点全体の検出回数=1+3+15+19+2+1=41
人物の目が含まれているブロックを見た回数=15+19=34
人物の目を見た割合=34/41=82.9%
【0076】
仮に規定値を60%と仮定すると、割合が規定値を超えているため発達障害の可能性は低いと判断される。
【0077】
次に別の診断例を
図19〜
図21に示す。
図19は、上述の
図10の対象画像の分割例を示す模式図である。
図20および
図21は、それぞれのブロックに含まれる注視点マーカの数をカウントした結果の一例を示す図である。
図21では、説明のために、目の画像が含まれているブロック(特定領域)の背景を灰色としている。
【0078】
図19〜21の例では、以下のように判定される。
注視点全体の検出回数=2+4+2+1+7+5+6+3+1+2+4+4+1=42
人物の目が含まれているブロックを見た回数=5+6=11
人物の目を見た割合=11/42=26.2%
【0079】
同様に規定値を60%と仮定すると、人物の目を見る割合が規定値を大きく下回るため発達障害の可能性が高いと判断される。
【0080】
(第3の実施形態)
上記実施形態では、注視点の頻度のみを発達障害の判断ルールとしていた。判断ルールはこれに限られるものではない。特定領域に注視点が含まれるか否かの判断結果に基づいて判断するルールであればどのようなルールを用いてもよい。例えば、注視点位置を時系列で比較して注視点のブロック移動パターンを判断する判断ルールなどを用いてもよい。第3の実施形態では、注視点がブロックを移動するパターンを用いて発達障害を判定する例を説明する。
【0081】
図22は、第3の実施形態の制御部300−3の構成例を示すブロック図である。なお、制御部300−3以外の機能は、第1の実施形態の診断支援装置100の機能の概要を示す
図2と同様であるため、説明を省略する。
【0082】
図22に示すように、制御部300−3は、表示制御部351と、分割部352と、視点検出部354と、判定部355−3と、パターン検出部357−3と、を備えている。
【0083】
第3の実施形態では、領域検出部353を削除したこと、パターン検出部357−3を追加したこと、および、判定部355−3の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる制御部300のブロック図である
図3と同様であるので、同一符号を付し、ここでの説明は省略する。
【0084】
パターン検出部357−3は、複数のブロック間での、被験者の視点が移動するパターン(移動パターン)を検出する。パターン検出部357−3は、例えば、分割された各ブロックの
図1の座標系での座標値と、視点検出部354により検出された視点の
図1の座標系での座標値と、を比較することにより、視点の移動パターンを検出することができる。
【0085】
判定部355−3は、検出された移動パターンと基準パターンとを比較することにより、被験者の発達障害の程度を判定する。基準パターンは、視点の予め定められた移動のパターンを表す。例えば、特定要素(目、口など)が含まれるブロック(特定領域)以外のブロックから、特定領域に移動するパターンを基準パターンとすることができる。上述のように、発達障害者の特徴の1つとして、対面する相手の目を見ないことが挙げられる。従って、特定領域以外のブロックから特定領域に移動する基準パターンに適合する場合、判定部355−3は、発達障害の程度が低いと判定する。
【0086】
基準パターンとしては、健常者の視点の移動を表すパターン、および、発達障害者の視点の移動を表すパターンのいずれを用いてもよい。移動パターンが前者の基準パターンに適合する場合は、判定部355−3は、発達障害の程度が低いと判定すればよい。逆に、移動パターンが後者の基準パターンに適合する場合は、判定部355−3は、発達障害の程度が高いと判定すればよい。
【0087】
また、基準パターンは、2つのブロック間の視点の移動のパターンに限られるものではない。3つ以上のブロック間の視点の移動のパターンを基準パターンとしてもよい。また、対象の動作部分が動作するパターン(動作パターン)に応じて定められる基準パターンを用いてもよい。
【0088】
例えば、発達障害者は、対象者の目が動作した場合に、目を注視するが、目から視点を逸らして他の部分を注視する傾向がある。また、発達障害者は、口が動作した場合に、口を注視するが、再び目を注視することが少ないという傾向がある。従って、例えば、「口が動作する動作パターンの対象画像が表示されたときに、口ブロックに視点が移動し、さらに、移動後の所定時間以内に目を含むブロックに視点が移動する」という基準パターンを用いてもよい。判定部355−3は、検出された移動パターンが、この基準パターンに適合する場合に、発達障害の程度が低いと判定すればよい。
【0089】
また、動作パターンに対する視点移動のタイミングも含めた基準パターンを用いてもよい。例えば、対象者の目が動作した後、所定時間経過までに視点が目を含むブロックに移動した場合に、所定時間経過後に視点が目を含むブロックに移動した場合より、発達障害の程度が大きい(または小さい)と判定するように構成してもよい。
【0090】
次に、このように構成された第3の実施形態にかかる診断支援装置による診断支援処理について説明する。
図23は、第3の実施形態における診断支援処理の一例を示すフローチャートである。
図23では、被験者の注視点位置が対象画像の人物の目と口との間を行き来する基準パターンを用いて発達障害の可能性を判断する例を説明する。すなわち、被験者に3種類の画像を見せて、これらの画像を見ている間の注視点位置を、第1の実施形態と同様の方法でブロックごとに検出する。そして、人物の目、口、および、それ以外のブロックに分けて検出した注視点位置の移動のパターンを用いて評価を行う。
図24〜
図26は、この例で用いる対象画像の一例を示す図である。
【0091】
まず、表示制御部351は、
図24の対象画像1を表示部101に表示する(ステップS301)。対象画像1は、目1402と、口1401とを含む。対象画像1は、口1401が動いていない画像である。
【0092】
図23のステップS302、ステップS303、およびステップS304は、それぞれ、第1の実施形態にかかる診断支援装置100の診断支援処理を示す
図4のステップS102、ステップS103、およびステップS106と同様の処理なので、その説明を省略する。なお、後述するステップS307、ステップS308、およびステップS309、並びに、ステップS312、ステップS313、およびステップS314も、それぞれ、
図4のステップS102、ステップS103、およびステップS106と同様の処理なので、その説明を省略する。
【0093】
判定部355−3は、検出された注視点の位置が、対象画像の目を含むブロック内に存在するか否かを判断する(ステップS305)。注視点の位置が目を含むブロック内に存在しない場合(ステップS305:No)、発達障害を判断できないので診断支援処理を終了する(ステップS316)。
【0094】
注視点の位置が目を含むブロック内に存在する場合(ステップS305:Yes)、表示制御部351は、
図25の対象画像2を表示部101に表示する(ステップS306)。
図25の対象画像2は、対象画像2は、目1502と、口1501とを含む。対象画像2は、
図24、
図26と異なり口1501が動いている画像である。従って、被験者の注視点位置は一般的に口1501が含まれるブロックに移動する。
【0095】
判定部355−3は、検出された注視点の位置が、対象画像の口を含むブロック内に存在するか否かを判断する(ステップS310)。注視点の位置が口を含むブロック内に存在しない場合(ステップS310:No)、発達障害を判断できないので診断支援処理を終了する(ステップS316)。
【0096】
注視点の位置が口を含むブロック内に存在する場合(ステップS310:Yes)、表示制御部351は、
図26の対象画像3を表示部101に表示する(ステップS311)。対象画像3は、目1602と、口1601とを含む。対象画像3は、
図24と同様に口1601が動いていない画像である。
【0097】
判定部355−3は、検出された注視点の位置が、対象画像の目を含むブロック内に存在するか否かを判断する(ステップS315)。注視点の位置が目を含むブロック内に存在する場合(ステップS315:Yes)、判定部355−3は、障害の可能性は低いと判定する(ステップS317)。注視点の位置が目を含むブロック内に存在しない場合(ステップS317:No)、判定部355−3は、障害の可能性が高いと判定する(ステップS318)。例えば、注視点の位置が人物の口が含まれているブロックから移動しない場合、判定部355−3は、障害の可能性が高いと判断する。
【0098】
このように、第3の実施形態では、注視点がブロック間を移動するパターンを用いて発達障害を判定することができる。なお、第3の実施形態のようにパターンを用いる方法は、第2の実施形態にも適用することができる。
【0099】
以上のように、第1〜第3の実施形態によれば、例えば以下のような効果が得られる。
(1)対象者の画像が変更される場合であっても、特定要素(目、口など)が含まれるブロックを適切に特定でき、診断の精度が低下することを回避できる。
(2)対象画像から検出した特定要素(目、口など)の位置を基準として、対象画像を複数のブロックに分割する。このため、より適切な位置でブロックを分割することができ、診断の精度を向上させることができる。
(3)視点の位置だけでなく、視点の移動も判断することにより高精度の診断を実現することができる。