(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022037827
(43)【公開日】2022-03-09
(54)【発明の名称】検出装置及び検出方法
(51)【国際特許分類】
A61B 3/113 20060101AFI20220302BHJP
【FI】
A61B3/113
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2020142169
(22)【出願日】2020-08-25
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 公開の事実1:2019年9月4日にThe ACM International Joint Conference on Pervasive and Ubiquitous Computing (UbiComp 2019)予稿集のウェブサイト(https://dl.acm.org/conference/ubicomp)に掲載 公開の事実2:2019年9月9日のThe ACM International Joint Conference on Pervasive and Ubiquitous Computing(UbiComp 2019)のワークショップで発表 公開の事実3:2020年3月2日に情報処理学会インタラクション2020予稿集の発行のウェブサイト(https://www.interaction-ipsj.org/proceedings/2020/)に掲載 公開の事実4:2020年3月11日に情報処理学会インタラクション2020(オンライン開催(https://www.youtube.com/user/interactionipsj/live))で発表
(71)【出願人】
【識別番号】593006630
【氏名又は名称】学校法人立命館
(74)【代理人】
【識別番号】100111567
【弁理士】
【氏名又は名称】坂本 寛
(72)【発明者】
【氏名】双見 京介
【テーマコード(参考)】
4C316
【Fターム(参考)】
4C316AA21
4C316FZ03
(57)【要約】
【課題】簡易な装置で高精度に目の活動を検出できる検出装置を提供する。
【解決手段】検出装置100は、目の活動を検出する検出装置であって、目の近傍の複数個所の皮膚の動きを検出可能なセンサ31-1~32-12と、センサからの信号を用いて目の活動を算出する演算部10と、を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
目の活動を検出する検出装置であって、
目の近傍の複数個所の皮膚の動きを検出可能なセンサと、
前記センサからの信号を用いて前記目の活動を算出する演算部と、を備える
検出装置。
【請求項2】
前記演算部が前記目の活動を算出することは、前記目の活動の算出に用いるために、前記センサによって検出された前記複数個所の皮膚の動きから、1又は複数の皮膚の動きの検出結果を用いることを含む
請求項1に記載の検出装置。
【請求項3】
前記目の活動は眼球の運動を含み、
前記演算部は、前記センサによって検出された前記複数個所の皮膚の動きから、複数の皮膚の動きの検出結果を用いて前記眼球の運動を判定する
請求項1又は2に記載の検出装置。
【請求項4】
前記眼球の運動を判定することは、前記複数の皮膚の動きの検出結果から得られた特徴量を演算モデルに入力し、前記演算モデルからの出力を得ることを含み、
前記演算モデルは、入力値としての前記複数個所の皮膚の動きを表す特徴量、及び、出力値としての前記複数個所の皮膚の動きに対応した眼球の運動を学習データとして得られた機械学習モデルである
請求項3に記載の検出装置。
【請求項5】
前記センサは、前記皮膚までの距離を検出する距離センサを含む
請求項1~4のいずれか一項に記載の検出装置。
【請求項6】
前記目の近傍の複数個所は、目の上と、目の下と、を含む
請求項1~5のいずれか一項に記載の検出装置。
【請求項7】
前記目の近傍の複数個所は、前記目の上及び前記目の下それぞれの複数個所を含む
請求項6に記載の検出装置。
【請求項8】
前記センサの検出範囲が前記目の近傍となるように被検者の顔に装着可能なメガネ型である
請求項1~7のいずれか一項に記載の検出装置。
【請求項9】
目の近傍の複数個所の皮膚の動きをセンシングし、
前記センシングの結果に基づいて、前記目の活動を判定する
検出方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、検出装置及び検出方法に関する。
【背景技術】
【0002】
目の活動は心身活動の指標となり得る。心身活動は、人の精神や、身体の活動などである。そのため、目の活動のセンシング結果は多くの分野で有用な情報となり得る。近年では、目の活動のセンシング技術は、一般の多くの人が日常の多くの場面で常時利用できることが、望まれている。
【0003】
目の活動は、瞼の動きや眼球の運動などであって、瞬きの回数や間隔や開眼程度、眼球の移動や向きなどがセンシングされる。目の活動をセンシングする技術として、例えば、国際公開WO2016/080042号公報(以下、特許文献1)は、フレームに複数の赤外線センサが取り付けられたメガネ型の検出装置であって、赤外線で装着したユーザの眼球を測定することによって眼球運動を検出する装置を開示している。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】国際公開WO2016/080042号公報
【発明の概要】
【0005】
特許文献1に開示されているような赤外線センサは、直接目の動きを検出することによって、瞬き回数や、眼球の振動、閉眼時の眼球方向などを検出するものではあるが、その認識率や検出率が高くないことが知られている。
【0006】
一方で、検出精度を向上させるためには高精度な検出装置を利用することが考えられるものの、目の活動は広く有用な情報であるため、日常的に検出して得たいという要望もあり、機械的にも価格的にも簡易な装置であることが望まれる。このため、簡易な装置で高精度に目の活動を検出できる検出装置及び検出方法が望まれる。
【0007】
ある実施の形態に従うと、検出装置は、目の活動を検出する検出装置であって、目の近傍の複数個所の皮膚の動きを検出可能なセンサと、センサからの信号を用いて目の活動を算出する演算部と、を備える。
【0008】
ある実施の形態に従うと、検出方法は、目の近傍の複数個所の皮膚の動きをセンシングし、センシングの結果に基づいて、目の活動を判定する。
【0009】
更なる詳細は、後述の実施形態として説明される。
【図面の簡単な説明】
【0010】
【
図1】
図1は、実施の形態に係る検出装置の構成の具体例を表した概略図である。
【
図2】
図2は、検出装置の演算部として機能する演算装置の機能構成の一例を表した概略ブロック図である。
【
図3】
図3は、実施の形態に係る検出方法の一例を表したフローチャートである。
【
図4】
図4は、検出対象とする目の活動が瞬きであるときの学習データの学習方法を表した図である。
【
図5】
図5は、瞬き時のセンサによるセンシング結果を表したグラフである。
【
図6】
図6は、発明者による瞬きの検出精度を検証する評価実験の概要を説明するための図である。
【
図7】
図7は、発明者による瞬きの検出精度を検証する評価実験の結果を示したグラフである。
【
図8】
図8は、検出対象とする目の活動が眼球の向きであるときの学習データの学習方法を表した図である。
【
図9】
図9は、発明者による眼球の向きの検出精度を検証する評価実験の概要を説明するための図である。
【
図10】
図10は、発明者による眼球の向きの検出精度を検証する評価実験の結果を示したグラフである。
【
図11】
図11は、発明者による眼球の向きの検出精度を検証する評価実験の結果を示したグラフである。
【
図12】
図12は、検出対象とする目の活動が眼球の移動方向であるときの学習データの学習方法を表した図である。
【
図13】
図13は、発明者による眼球の移動方向の検出精度を検証する評価実験の概要を説明するための図である。
【
図14】
図14は、発明者による眼球の移動方向の検出精度を検証する評価実験の結果を示したグラフである。
【
図15】
図15は、発明者による眼球の移動方向の検出精度を検証する評価実験の結果を示したグラフである。
【発明を実施するための形態】
【0011】
<1.検出装置及び検出方法の概要>
【0012】
(1)ある実施の形態に従う検出装置は、目の活動を検出する検出装置であって、目の近傍の複数個所の皮膚の動きを検出可能なセンサと、センサからの信号を用いて目の活動を算出する演算部と、を備える。目の活動は、瞼の動きや眼球の運動などである。具体的には、瞬きや眼球の向きや眼球の動く方向などである。目の近傍の複数個所は、例えば、目の上及び目の下、又は、目の上及び目の下それぞれの複数個所などの、目の周囲である。
【0013】
目の近傍の複数個所の皮膚は、目の活動によって影響を及ぼされる。そのため、これら皮膚の動きを検出することで、目の活動を検出可能であることを発明者は見出した。皮膚の動きは、例えば、皮膚までの距離を測定することで得られる。その場合、目の活動の検出に必要なセンサは、赤外線距離センサなど、目の近傍の複数個所の皮膚までの距離を測定するためのセンサとなる。これにより、電位を利用したり、画像解析を行ったりして目の活動を検出する装置よりも安価にすることができる。また、高精度で検出されることは、後述する発明者による評価実験により検証された。
【0014】
(2)好ましくは、演算部が目の活動を算出することは、目の活動の算出に用いるために、センサによって検出された複数個所の皮膚の動きから、1又は複数の皮膚の動きの検出結果を用いることを含む。これにより、高精度で目の活動を検出することができる。
【0015】
(3)好ましくは、目の活動は眼球の運動を含み、演算部は、センサによって検出された複数個所の皮膚の動きから、複数の皮膚の動きの検出結果を用いて眼球の運動を判定する。
【0016】
(4)好ましくは、眼球の運動を判定することは、複数の皮膚の動きの検出結果から得られた特徴量を演算モデルに入力し、演算モデルからの出力を得ることを含み、演算モデルは、入力値としての複数個所の皮膚の動きを表す特徴量、及び、出力値としての複数個所の皮膚の動きに対応した眼球の運動を学習データとして得られた機械学習モデルである。眼球の運動は、例えば、眼球の向きや眼球の移動方向などである。機械学習モデルを用いることで、容易で高精度に眼球の運動が検出される。
【0017】
(5)好ましくは、センサは、皮膚までの距離を検出する距離センサを含む。距離センサは、例えば、赤外線距離センサなどである。これにより、検出装置を安価に構成することができる。
【0018】
(6)好ましくは、目の近傍の複数個所は、目の上と、目の下と、を含む。これにより、高精度で目の活動を検出することができる。これにより、精度よく目の活動を検出できる。
【0019】
(7)好ましくは、目の近傍の複数個所は、目の上及び目の下それぞれの複数個所を含む。これにより、精度よく目の活動を検出できる。
【0020】
(8)好ましくは、検出装置は、センサの検出範囲が目の近傍となるように被検者の顔に装着可能なメガネ型である。メガネ型とすることで、被験者は装着しやすく、長時間の装着の負担を抑えることができる。それにより、長期にわたる目の活動の検出が可能になる。
【0021】
(9)ある実施の形態に従う検出方法は、目の近傍の複数個所の皮膚の動きをセンシングし、センシングの結果に基づいて、目の活動を判定する。この検出方法で検出することにより、検出装置を安価にすることができるとともに、目の活動が高精度で検出されることは、後述する発明者による評価実験により検証された。
【0022】
<2.検出装置及び検出方法の例>
【0023】
本実施の形態に係る検出装置100は、目の活動を検出する検出装置である。目の活動は、瞼の動きや眼球の運動などである。具体的には、瞬きや眼球の向きや眼球の移動方向などである。
【0024】
図1を参照して、本実施の形態に係る検出装置100は、複数のセンサ31-1~32-12を有する。これらセンサ31-1~32-12は、メガネ型センサを構成している。具体的には、
図1に示されたように、センサ31-1~31-12は、メガネ30の右目用レンズLAのリムに装着され、センサ32-1~32-12は、メガネ30の左目用レンズLBのリムに装着されている。メガネ型センサとすることで、ユーザは装着しやすく、長時間の装着の負担を抑えることができる。それにより、長期にわたる目の活動の検出が可能になる。
【0025】
センサ31-1~32-12は、目の近傍の複数個所の皮膚の動きを検出可能なセンサである。目の近傍の複数個所は、少なくとも、目の上と目の下とを含む。好ましくは、目の近傍の複数個所は、目の上及び目の下それぞれの複数個所を含む。一例として、
図1に示されたように、センサ31-1~31-12及びセンサ32-1~32-12は、メガネ30の右目用レンズLA及び左目用レンズLBそれぞれのリムに、目の周囲に概ね均等となるように配置されている。具体的には、センサ31-1~31-5は、右目の上の目頭から眦に向けて均等に、センサ31-7~31-11は右目の下の眦から目頭に向けて均等に、センサ31-6は眦の横、及び、センサ31-12は目頭の横に配置されている。
【0026】
センサ31-1~32-12での皮膚の動きの検出は、一例として、皮膚までの距離を測定することを含む。具体例として、センサ31-1~32-12は、赤外線距離センサである。赤外線距離センサを用い、測定された距離を用いて後述のように目の活動を検出することで、電位を用いたり画像解析を行ったりする場合よりも安価に装置を構成することができる。
【0027】
センサ31-1~32-12は目の近傍に配置されることによって目の近傍の複数個所において皮膚までの距離を測定する。具体例として、
図1のA-A断面図に示されているように、右目の上に配置されたセンサ31-3は右目の上瞼までの距離を測定し、右目の下に配置されたセンサ31-9は右目の下瞼までの距離を測定する。
【0028】
検出装置100は、さらに、演算装置10を有する。演算装置10はセンサ31-1~32-12と無線又は有線にて接続されて、センサ31-1~32-12からセンシング結果を示すセンサ信号を受信する。センサ信号は、それぞれの位置での皮膚までの距離を示している。演算装置10は、センサ31-1~32-12からの信号を用いて目の活動を算出する演算部として機能する。
【0029】
なお、演算装置10は、
図1に示されたような一般的なコンピュータであってもよいし、インターネットなどの通信網を介してセンサ31-1~32-12と接続されたサーバなどであってもよい。また、演算装置10は、スマートフォンなどの端末装置であってもよいし、メガネ20に搭載され得る小型の演算装置であってもよい。
【0030】
図2を参照して、演算装置10は、プロセッサ11とメモリ12とを有するコンピュータで構成される。プロセッサ11は、例えば、CPUである。メモリ12は、フラッシュメモリ、EEPROM、ROM、RAMなどを含む。または、メモリ12は、一次記憶装置であってもよいし、二次記憶装置であってもよい。メモリ12は、プロセッサ11で実行されるプログラム122を記憶している。
【0031】
演算装置10は、センサ31-1~32-12からのセンサ信号を受信するための通信装置13をさらに有する。通信装置13は、センサ31-1~32-12からのセンサ信号を受信し、プロセッサ11に渡す。つまり、通信装置13は、センサ31-1~32-12からのセンサ信号の入力部として機能する。
【0032】
好ましくは、メモリ12は、ユーザデータ121を記憶している。ユーザデータ121は、目の活動を検出するためにメガネ30を装着するユーザ(以下、被検者)ごとの、後述する判定処理114に用いる学習モデル115の識別情報を含む。この場合、プロセッサ11は、判定処理114の実行の際に、被験者に応じた学習モデル115を用いることができる。
【0033】
プロセッサ11は、メモリ12に記憶されているプログラム122を実行することによって、被験者の目の活動を検出する検出処理を実行する。検出処理は、特徴量抽出処理111を含む。特徴量抽出処理111は、通信装置13がセンサ31-1~32-12から受信したセンサ信号から特徴量を抽出する処理である。プロセッサ11は、検出対象とする目の活動の種類に応じた特徴量を抽出する。このとき、プロセッサ11は、センサ31-1~32-12のうちの複数のセンサ信号を用い、一例として、すべてのセンサからのセンサ信号を用いる。なお、詳細は後述する。
【0034】
検出処理は、さらに判定処理114を含む。判定処理114は、検出対象の目の活動の有無や内容を判定する処理である。詳しくは、検出対象の目の活動が瞬きであった場合、目の活動の判定は瞬きの判定を含み、瞬きの判定は、瞬きのあったことを判定することや、瞬きのあったことに基づいて回数を判定すること、を含む。検出対象の目の活動が眼球の運動であった場合には、目の活動の判定は眼球の運動の判定を含み、眼球の運動の判定は、眼球の向きを判定することや、眼球の動く方向を判定すること、を含む。
【0035】
好ましくは、判定処理114では、学習モデル115を用いる。具体的には、判定処理114は、学習モデル115に特徴量抽出処理111で抽出された特徴量を入力し、学習モデル115からの出力を得ることを含む。
【0036】
学習モデル115は、
図4等に表されたように、入力データT1と出力データT2との教師データを用いて機械学習された機械学習モデルである。入力データT1はセンサ31-1~32-12のセンサ信号から得られた特徴量であって、後述するように、検出対象の目の活動に応じた特徴量である。詳細は、検出対象の目の活動ごとに後述する。好ましくは、学習モデル115は被験者に応じた教師データを用いて機械学習されている。これにより、検出精度の向上が期待される。
【0037】
好ましくは、検出処理は、出力制御処理117を含む。出力制御処理117は、判定処理114での判定結果を、演算装置10に含まれる出力装置14で出力するために出力装置14を制御する処理である。出力装置14は、ディスプレイやスピーカや他の装置への送信装置などである。これにより、検出装置100での検出結果を外部から把握できる。
【0038】
検出装置100では、
図3のフローチャートに示される検出方法にて被検者の目の活動が検出される。詳しくは、
図3を参照して、メガネ30を装着した被検者の目の近傍の複数個所について、それぞれセンサ31-1~32-12によって皮膚までの距離を測定する(ステップS1)。測定された距離を示すセンサ31-1~32-12からのセンサ信号は、演算装置10に入力される(ステップS2)。
【0039】
ここで、検出装置100では、目の活動として、瞬き、眼球の向き、眼球の移動方向などの複数種類の活動を検出することが可能であり、後述する発明者による評価実験において、それぞれ高精度で検出可能であることが検証されている。そこで、好ましくは、演算装置10は、検出対象とする目の活動の指定を受け付けて、その指定に応じて以降の処理での演算を異ならせる。
【0040】
センサ信号の入力を受け付けた演算装置10では、プロセッサ11がプログラム122を実行することによって、センサ信号から特徴量を抽出する処理が行われる(ステップS3)。好ましくは、ステップS3でプロセッサ11は、センサ31-1~32-12それぞれからのセンサ信号のうちの複数のセンサ信号を用いて特徴量を抽出する。上記のように、検出対象とする目の活動の種類の指定を受け付けた場合、ステップS3でプロセッサ11は、検出対象とする目の活動の種類に応じた特徴量を抽出する。
【0041】
プロセッサ11は、ステップS3で抽出した特徴量を用いて、被験者の目の活動を判定する(ステップS4)。ステップS4では、具体的に、ステップS3で抽出した特徴量を学習モデル115に入力し(ステップS41)、学習モデル115から出力値を得る(ステップS42)。このとき、検出対象とする目の活動の種類の指定を受け付けた場合、ステップS4の処理は、検出対象とする目の活動の種類に応じて機械学習された学習モデル115を選択することを含む。また、被験者ごとに学習モデル115が用意されている場合には、ステップS4の処理は、被験者に応じた学習モデル115を選択することを含む。
【0042】
(瞬きの検出)
【0043】
ここで、目の活動として瞬きを検出する場合について説明する。
図4を参照して、目の活動として瞬きを検出する場合、学習モデル115の機械学習に用いられる教師データには、一例として、瞬き時の目の周囲をセンシングしたセンサ31-1~32-12のセンサ信号から得られた特徴量を入力データT1とし、「瞬きあり」という判定結果を出力データT2として用いた。
【0044】
図5の曲線L1は、瞬き時のセンサ31-1~32-12のうちの1つのセンサによるセンシング結果を表している。
図5において、縦軸は皮膚までの距離の測定結果を正規化した値であり、横軸は時間である。つまり、
図5には、瞬き時の目の近傍のある位置での皮膚までの距離の時間変化が表されている。曲線L2は、曲線L1の微分値を表している。
【0045】
発明者は、曲線L1,L2を分析することで、曲線L2で示される微分値がマイナスの区間では瞼を閉じる運動が行われ、微分値がプラスの区間では瞼を開ける運動が行われていることを見出した。このことから、微分値のプラスとマイナスとが反転する時点が瞼の開閉運動の折り返し時点となることを見出した。具体的には、
図5において、点P1が瞬きの開始、点P2が瞬きの終了、及び、点P3が折り返し点、つまり、瞼が開く時点に相当している。
【0046】
本実施の形態に係る検出装置100では、発明者の見出したこの原理を利用して学習モデル115が機械学習されている。すなわち、特徴量として、センシング結果の曲線L1そのもの、又は、その微分値である曲線L2の値を入力データT1として用いて、微分値がプラスからマイナスに変化した点を瞬きの開始点P1、マイナスからプラスに変化した点を瞬きの折り返し点P3、及び、プラスの変化が所定以上小さくなった点を瞬きの終了点P2として1回の瞬きとして機械学習されている。
【0047】
なお、機械学習の際に、曲線L1の値が領域Rである範囲において、曲線L1の値に閾値を設け、閾値以上で瞬きの折り返し点として検出された点をノイズとして除いて機械学習してもよい。曲線L1の値が領域Rである範囲は瞼が開いている状態であるため、瞬きの折り返し点は存在しないためである。これにより、瞬きの検出精度を向上させることができる。
【0048】
好ましくは、センサ31-1~32-12のうちセンシングされる距離の差が閾値以上のセンサを機械学習に用いる。これにより、目の近傍のうち、皮膚までの距離が瞬きの影響を受けやすい位置のセンシング結果を用いることができ、瞬きの検出精度を向上させることができる。用いるセンサは、瞬きに関して実験的に求められた1又は複数の位置であってもよいし、被験者ごとに実験的に求められるものであってもよい。後者の場合、ユーザデータ121は被験者に対応した学習モデル115の識別情報を含む。
【0049】
瞬きを検出する際、プロセッサ11は、センサ31-1~32-12のうちの特定のセンサのセンサ信号から微分値である特徴量を抽出し、
図4のように学習された学習モデル115に入力する。プロセッサ11は、学習モデル115から「瞬きあり」の出力値を得ることで、瞬きを検出する。また、一連のセンサ信号から得られる一連の特徴量を入力して学習モデル115から得られる「瞬きあり」の出力値をカウントすることで、瞬きの回数を検出する。
【0050】
発明者は、検出装置100での瞬きの検出精度を検証するための評価実験を行った。具体的に、
図6に示されるように、ディスプレイ200に相対して座し、正面を向いた被検者Hが、顔の向きを変化させずにディスプレイ200に表された15点それぞれを注視した状態で20回、1秒1回のペースで瞬きを行い、その期間をセンシングした。
【0051】
このとき、被検者Hの瞬き時のセンシング結果より、センサ31-1~32-12のうちの瞬きの検出精度の最も高いセンサを検出用のセンサとした。学習モデル115の学習には被検者Hの、検出用センサでのセンシング結果を用いた。
【0052】
図7は、評価実験の結果として、15点それぞれの正解率を示している。正解率は、瞬きの回数(20回)に対する検出された瞬きの回数の比率であって、100%が20回すべて検出を表している。
図7に示されたように、検出装置100では、概ねすべての点において100%又は100%に近い正解率であった。従って、本検出装置100を用いることによって高精度で瞬きが検出されることが検証された。
【0053】
(眼球の運動(眼球の向き)の検出)
【0054】
次に、目の活動として眼球の運動、特に眼球の向きを検出する場合について説明する。眼球の向きは、視線の向きに相当する。発明者は、眼球が特定の方向を向いた状態で目の近傍の皮膚がその向きに特有に変化するため、眼球の向きが皮膚までの距離のセンシング結果で表されるということを見出した。
【0055】
そこで、目の活動として眼球の向きを検出する場合、
図8を参照して、学習モデル115の機械学習に用いられる教師データには、特定の方向に眼球を向けた状態で目の周囲をセンシングしたセンサ31-1~32-12のセンサ信号から得られた特徴量を入力データT1とし、その特定の方向を出力データT2として用いた。
【0056】
一例として、
図8を参照して、ディスプレイ200に配置された複数のマーク1-1~3-3それぞれに眼球を向けるようにして眼球の向きを9分割し、各方向での特徴量を入力データT1とした。この場合に用いる特徴量は、目の近傍の複数個所の皮膚の状態を表すものであり、一例として、
図8の折れ線グラフで示されたような、各センサ31-1~32-12から同タイミングに得られたセンサ値である。好ましくは、センサ信号に対して平滑化処理を行ってノイズを軽減させて用いる。
図8のグラフでは、方向ごとに各センサからのセンサ値が示されている。
【0057】
眼球の向きを検出する際、プロセッサ11は、センサ31-1~32-12から同タイミングに得られたセンサ値を特徴量とし、
図8のように機械学習された学習モデル115に入力する。プロセッサ11は、学習モデル115から方向の出力値を得ることで、眼球の向きを検出する。
【0058】
発明者は、検出装置100での眼球の向きの検出精度を検証するための評価実験を行った。具体的に、
図9に示されるように、ディスプレイ200に相対して座し、正面を向いた被検者Hが、顔の向きを変化させずにディスプレイ200に表された15点それぞれを30秒ずつ注視し、その期間をセンシングした。各点間の角度変化は概ね11度である。学習モデル115の学習には被検者Hの、検出用センサでのセンシング結果を用いた。
【0059】
図10は、評価実験の結果として、15点それぞれの認識精度を示している。認識精度は、K近傍法(Knn:K Nearest Neighbor)、サポートベクターマシン(SVM:support vector machine)、決定木(Decision Tree)、及び、ランダムフォレスト(Random Forest)それぞれの分類器を用いた場合のF値で表している。また、
図10の右端は、15点の平均を表している。
図11は、分類器ごとの15点のF値の平均値であって、
図10の右端の結果を拡大したものである。
【0060】
図10の結果より、いずれの方向も精度の高い分類器では、F値が0.9程度であった。なお、
図11の結果より、分類器による評価にばらつきが生じることもわかった。従って、この評価実験より、本検出装置100を用いることによって高精度で眼球の向きが検出されることが検証された。
【0061】
(眼球の運動(眼球の移動方向)の検出)
【0062】
次に、目の活動として眼球の運動、特に眼球の移動方向を検出する場合について説明する。発明者は、眼球の移動方向は眼球の向きの変化で表されるという視点に立ち、眼球の向きが皮膚までの距離のセンシング結果で表されるという発明者の見出した原理より、眼球の移動方向が短い時間間隔でのセンサ値の変化量から得られることを見出した。
【0063】
そこで、目の活動として眼球の移動方向を検出する場合、
図12を参照して、学習モデル115の機械学習に用いられる教師データには、例えば、上下左右などの特定の方向に眼球を移動させた際の特徴量を入力データT1とした。この場合に用いる特徴量は、目の近傍の複数個所の皮膚の状態の変化を表すものであり、一例として、
図12の折れ線グラフで示されたような、各センサ31-1~32-12について一定期間の最初のセンサ値と最後のセンサ値との差分、などである。好ましくは、センサ信号に対して平滑化処理を行ってノイズを軽減させて用いる。一定期間は、例えば、0.3秒程度である。
図12のグラフでは、上下左右それぞれについて、各センサからの一定期間の最初のセンサ値と最後のセンサ値との差分が示されている。
【0064】
眼球の移動方向を検出する際、プロセッサ11は、センサ31-1~32-12から一定期間に得られたセンサ値から上記の特徴量を抽出し、
図12のように機械学習された学習モデル115に入力する。プロセッサ11は、学習モデル115から移動方向の出力値を得ることで、眼球の移動方向を検出する。
【0065】
発明者は、検出装置100での眼球の向きの検出精度を検証するための評価実験を行った。具体的に、
図13に示されたように、ディスプレイ200に相対して座し、正面を向いた被検者Hが、顔の向きを変化させずにディスプレイ200に表された4点のうちの2点間で視線移動を行い、その期間をセンシングした。1回の移動は2~3秒で行い、各方向合計20秒となる回数、行った。学習モデル115の学習には被検者Hの、検出用センサでのセンシング結果を用いた。
【0066】
図14は、評価実験の結果として、下方向、左方向、右方向、上方向それぞれの認識精度を示している。認識精度は、K近傍法(Knn:K Nearest Neighbor)、サポートベクターマシン(SVM:support vector machine)、決定木(Decision Tree)、及び、ランダムフォレスト(Random Forest)それぞれの分類器を用いた場合のF値で表している。
図15は、分類器ごとの4方向のF値の平均値である。
【0067】
図14の結果より、いずれの方向も精度の高い分類器では、F値が0.9程度であった。また、
図15の結果より、4方向の平均で見ると分類器による評価にばらつきが大きくは生じないこともわかった。従って、この評価実験より、本検出装置100を用いることによって高精度で眼球の移動方向が検出されることが検証された。
【0068】
<3.付記>
本発明は、上記実施形態に限定されるものではなく、様々な変形が可能である。
【符号の説明】
【0069】
10 :演算装置
11 :プロセッサ
12 :メモリ
13 :通信装置
14 :出力装置
30 :メガネ
31-1 :センサ
31-2 :センサ
31-3 :センサ
31-4 :センサ
31-5 :センサ
31-6 :センサ
31-7 :センサ
31-8 :センサ
31-9 :センサ
31-10 :センサ
31-11 :センサ
31-12 :センサ
32-1 :センサ
32-2 :センサ
32-3 :センサ
32-4 :センサ
32-5 :センサ
32-6 :センサ
32-7 :センサ
32-8 :センサ
32-9 :センサ
32-10 :センサ
32-11 :センサ
32-12 :センサ
100 :検出装置
111 :特徴量抽出処理
114 :判定処理
115 :学習モデル
117 :出力制御処理
121 :ユーザデータ
122 :プログラム
200 :ディスプレイ
H :被検者
LA :右目用レンズ
LB :左目用レンズ
P1 :開始点
P2 :終了点
P3 :折り返し点
R :領域
T1 :入力データ
T2 :出力データ