IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社半導体エネルギー研究所の特許一覧

<>
  • 特開-分類装置 図1
  • 特開-分類装置 図2
  • 特開-分類装置 図3
  • 特開-分類装置 図4
  • 特開-分類装置 図5
  • 特開-分類装置 図6
  • 特開-分類装置 図7
  • 特開-分類装置 図8
  • 特開-分類装置 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024133228
(43)【公開日】2024-10-01
(54)【発明の名称】分類装置
(51)【国際特許分類】
   G06T 7/00 20170101AFI20240920BHJP
   G06V 10/72 20220101ALI20240920BHJP
   G06V 10/82 20220101ALI20240920BHJP
【FI】
G06T7/00 660Z
G06T7/00 616
G06V10/72
G06V10/82
【審査請求】有
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2024112211
(22)【出願日】2024-07-12
(62)【分割の表示】P 2021544974の分割
【原出願日】2020-09-01
(31)【優先権主張番号】P 2019166161
(32)【優先日】2019-09-12
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000153878
【氏名又は名称】株式会社半導体エネルギー研究所
(72)【発明者】
【氏名】小國 哲平
(72)【発明者】
【氏名】福留 貴浩
(57)【要約】
【課題】眼の情報から人物の状態を分類する。
【解決手段】撮像装置、特徴抽出部、および分類器を用いることで眼の情報から人物の状態を分類する。撮像装置は、連続撮影することで画像群を生成する機能を有し、画像群には、眼の領域の画像が含まれることが好ましい。眼は、黒目の領域および白目の領域を有する。特徴抽出部が、画像群から眼の領域を抽出するステップを有し、次に瞬目振幅を抽出するステップを有し、次に瞬目を開始したと判断する画像を検出するステップを有し、次に瞬目が終了したと判断する画像を第1のデータとして記憶するステップを有し、次に第1のデータから任意の時間が経過した画像を第2のデータとして記憶するステップを有する。特徴抽出部が、第1のデータおよび第2のデータから白目の領域を抽出するステップを有する。分類器は、白目の領域を学習データとして用いることができる。
【選択図】図1
【特許請求の範囲】
【請求項1】
撮像装置と、特徴抽出部と、分類器と、を有する分類装置であって、
前記撮像装置は、連続撮影することで画像群を生成する機能を有し、
前記画像群には、眼の領域の画像が含まれており、
前記眼の領域には、白目の領域が含まれており、
前記特徴抽出部は、前記画像群から前記眼の領域を抽出する機能と、前記画像群から瞬目振幅を抽出する機能と、瞬目が開始された瞬間の画像を前記画像群から検出する機能と、前記瞬目が終了した瞬間の第1の画像を前記画像群から検出し、前記第1の画像を第1のデータとして記憶する機能と、前記第1の画像から任意の時間が経過した瞬間の第2の画像を検出し、前記第2の画像を第2のデータとして記憶する機能と、前記第1のデータ及び前記第2のデータから前記白目の領域の面積情報を抽出する機能と、前記白目の領域の面積情報を学習データとして前記分類器に与える機能と、を有し、
前記分類器は、前記学習データを用いて分類モデルを生成する機能を有する、
分類装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の一態様は、眼の情報から人物の状態を分類する分類装置および分類方法である。
【0002】
なお、本発明の一態様は、コンピュータ装置を利用した眼の情報から人物の状態を分類することができる分類器の生成方法に関する。または、本発明の一態様は、眼の情報を学習するための学習データの生成方法に関する。または、本発明の一態様は、撮像装置によって連続撮影された画像群の中から眼の領域を抽出し、眼の領域から得られる眼の情報から特徴量を抽出する方法に関する。または、本発明の一態様は、当該特徴量を学習データとして分類器に与えることで分類器を学習させる方法に関する。
【背景技術】
【0003】
近年では、社会的に生活の質の向上が求められてきている。例えば、自分自身では、過労な状態または精神的な病の症状などに気づきにくい。自分自身の状態把握を早期に発見することができれば、状態が悪化する前に対策(休息など)をとるなど適切な手段を講じることができる。例えば、自己カウンセリングでは、自分が気付かない変化をセルフチェックする方法の研究が進められている。
【0004】
例えば、感情、心理状態、または身体的な疲労は、眼の動き、表情、声、または心拍などの身体反応に現れることが知られている。これらの身体反応を測定することは、自分ではわからなかった自分の変化に気づけるようになると考えられている。そこで、感情、心理状態、または身体的な疲労を表す要素として、眼についての様々な研究が進められている。これは、眼が、人の心の部分を司る脳からの指令を直接受けるためである。したがって、眼に現れる変化を解析することで得られる情報(以降、眼の情報)は、脳の研究をするためにも重要な要素として考えられている。
【0005】
眼の情報は、撮像装置で取得した画像を用いることができるため人の動作または作業などを妨害することなく入手することができる。自己カウンセリングの方法の一例として、瞳孔の変化から身体的な疲労の一つである眠気を検出する研究がおこなわれている。例えば、特許文献1では、赤外線を用いて撮影した目の画像から瞳孔の状態を判定し、人物の状態を判定する検出する方法が開示されている。
【0006】
特許文献2では、眼球運動の一つであるマイクロサッカードを検出することで神経疾患を検出するためのシステムが開示されている。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】特開平7-249197号公報
【特許文献2】特表2016-523112号公報
【発明の概要】
【発明が解決しようとする課題】
【0008】
眼の情報を取得する方法の一つに、眼球運動によって発生する電気信号を検出するEOG(electrooculogram)検出方法がある。ただし、EOG検出方法は、正確ではあるが複数の電極を眼の周辺に設置する必要があるため日常的に実施するのは難しいのが課題である。例えば、目の情報を用いて自己カウンセリングを行う場合、目の情報は、日常生活の中で負担にならないように取得できることが好ましい。したがって、目の情報を得るためには、低侵襲性および低接触性であることが求められる。
【0009】
例えば、撮像装置を用いることで、眼の情報は、画像として取得することができる。さらに、近年の機械学習の進歩により、取得画像から眼の領域を認識して抽出することができるようになってきた。しかし、眼には、黒目の領域と白目の領域とがある。さらに黒目の領域には、黒目を構成する虹彩と瞳孔がある。虹彩の色は、遺伝的な影響を受けることが知られている。
【0010】
瞳孔は、人物の感情または身体的疲労などと関係があるとされ、眼の情報の中でも注目されている。しかし、瞳孔の状態を検出する場合、虹彩の色の影響を受ける課題がある。例えば、瞳孔と明度が近い色を有する虹彩では、瞳孔と虹彩を識別することが難しい課題がある。しかし、赤外線を用いて撮像できる撮像装置は、虹彩と瞳孔とを識別しやすい画像を取得することができる。ただし、強い赤外線を用いた場合には、眼の角膜、虹彩、水晶体、網膜などに影響を及ぼす問題がある。また、瞳孔は、環境の明るさなどにも反応する。したがって、瞳孔は、人物の感情または身体的疲労などの状態と相関関係を有するが、環境依存性のノイズが多く含まれる課題がある。
【0011】
また、眼の情報を取得する場合、眼は、不定期な瞬き(以下、瞬目)を行う。例えば、瞬目には、眼球の乾燥などから保護するために行う無意識に行われる瞬目反射がある。瞬目には、瞬目反射以外にも様々な種類がある。したがって、目の情報には、瞬目がノイズ成分として含まれる課題がある。また、目の情報を用いた分析をする場合、対象とする目の画像が、不定期な瞬目の間隔、または周囲の環境の明るさなどにより影響を受ける課題がある。
【0012】
上記問題に鑑み、本発明の一態様は、コンピュータ装置を利用した眼の情報から人物の状態を分類する方法を提供することを課題の一とする。本発明の一態様は、眼の情報を学習するための学習データの生成方法を提供することを課題の一とする。本発明の一態様は、撮像装置によって連続撮影された画像群の中から眼の領域を抽出し、眼の情報から特徴量を抽出する方法を提供することを課題の一とする。本発明の一態様は、当該特徴量を学習データとして分類器に与えることで分類器を学習させる方法を提供することを課題の一とする。
【0013】
なお、これらの課題の記載は、他の課題の存在を妨げるものではない。なお、本発明の一態様は、これらの課題の全てを解決する必要はないものとする。なお、これら以外の課題は、明細書、図面、請求項などの記載から、自ずと明らかとなるものであり、明細書、図面、請求項などの記載から、これら以外の課題を抽出することが可能である。
【課題を解決するための手段】
【0014】
本発明の一態様は、撮像装置と、特徴抽出部と、分類器と、を用いた分類方法である。なお、分類器は、分類モデルを有する。撮像装置は、連続撮影することで画像群を生成する機能を有する。画像群には、眼の領域の画像が含まれる。眼は、黒目の領域と、白目の領域と、を有する。黒目の領域は、虹彩と、瞳孔と、で構成される領域を有し、白目の領域は、眼球が白色の被膜に覆われた領域である。分類方法において、特徴抽出部が、画像群から眼の領域を抽出するステップを有し、画像群から瞬目振幅を抽出するステップを有し、画像群から瞬目を開始したと判断する画像を検出するステップを有し、画像群から瞬目が終了したと判断する画像を第1のデータとして記憶するステップを有し、画像群から第1のデータから任意の時間が経過した画像を第2のデータとして記憶するステップを有する。分類方法において、特徴抽出部が、第1のデータおよび第2のデータから白目の領域の面積情報を抽出するステップを有する。分類方法において、特徴抽出部が、白目の領域の面積情報を学習データとして分類器に与えるステップを有する。分類方法において、分類器が、学習データを用いて分類モデルを生成するステップを有する。
【0015】
上記構成において、第1のデータおよび第2のデータに含まれる眼の領域の画像には、それぞれ黒目の領域と、白目の領域と、が含まれる。検出された白目の領域の面積情報が独立した第1の領域および第2の領域を有する場合、分類方法は、特徴抽出部が、第1の領域と第2の領域との比を出力するステップを有する。検出された白目の領域の面積情報が第3の領域として検出される場合、分類方法は、特徴抽出部が、第3の領域から円の領域を検出するステップを有し、円の領域から円の中心を求めるステップを有し、円の中心のx座標を用いて第3の領域を第1の領域と第2の領域に分割するステップを有し、第1の領域と第2の領域との比を出力するステップを有する。分類方法は、特徴抽出部が、第1の領域と第2の領域との比から白目の振動幅を算出するステップを有する。分類器は、白目の振動幅を学習データとして用いることが好ましい。
【0016】
上記各構成において、分類方法は、特徴抽出部が、白目の振動幅と、瞬目振幅と、を学習データとして分類器に与えるステップを有する。分類方法は、分類器が、白目の振動幅と、瞬目振幅とを用いて分類モデルを生成するステップを有することが好ましい。
【0017】
上記各構成において、分類方法は、分類器が、学習データを用いて学習するステップを有する。分類方法は、特徴抽出部に、新たな第1のデータおよび第2のデータが与えられるステップを有する。分類方法は、分類器が、分類モデルを用いて人物の感情、体調の変化などの状態を分類するステップを有することが好ましい。
【0018】
上記各構成において、分類方法は、学習データに、教師用ラベルが付与されるステップを有する。分類方法は、分類器が、教師用ラベルが付与された学習データを用いて学習するステップを有することが好ましい。
【発明の効果】
【0019】
本発明の一態様は、コンピュータ装置を利用した眼の情報から人物の状態を分類する方法を提供することができる。本発明の一態様は、眼の情報を学習するための学習データの生成方法を提供することができる。本発明の一態様は、撮像装置によって連続撮影された画像群の中から眼の領域を抽出し、眼の情報から特徴量を抽出する方法を提供することができる。本発明の一態様は、学習データとして当該特徴量を与えることで分類器を生成する方法を提供することができる。
【0020】
なお本発明の一態様の効果は、上記列挙した効果に限定されない。上記列挙した効果は、他の効果の存在を妨げるものではない。なお他の効果は、以下の記載で述べる、本項目で言及していない効果である。本項目で言及していない効果は、当業者であれば明細書又は図面等の記載から導き出せるものであり、これらの記載から適宜抽出することができる。なお、本発明の一態様は、上記列挙した効果、及び/又は他の効果のうち、少なくとも一つの効果を有するものである。したがって本発明の一態様は、場合によっては、上記列挙した効果を有さない場合もある。
【図面の簡単な説明】
【0021】
図1図1は、眼の情報から人物の状態を分類する方法を説明するブロック図である。
図2図2Aは、眼の構成を説明する図である。図2Bは、学習データの生成方法を説明する図である。
図3図3は、学習データの生成方法を説明するフローチャートである。
図4図4は、学習データの生成方法を説明するフローチャートである。
図5図5A乃至図5Cは、眼の情報を説明する図である。
図6図6Aは、眼の情報を説明する図である。図6Bおよび図6Cは、抽出された白目の領域を説明する図である。
図7図7は、白目の領域を検出する方法を説明するフローチャートである。
図8図8A乃至図8Cは、学習データの生成方法を説明する図である。
図9図9は、分類装置を説明するブロック図である。
【発明を実施するための形態】
【0022】
実施の形態について、図面を用いて詳細に説明する。但し、本発明は以下の説明に限定されず、本発明の趣旨及びその範囲から逸脱することなくその形態及び詳細を様々に変更し得ることは当業者であれば容易に理解される。したがって、本発明は以下に示す実施の形態の記載内容に限定して解釈されるものではない。
【0023】
なお、以下に説明する発明の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、その繰り返しの説明は省略する。また、同様の機能を指す場合には、ハッチパターンを同じくし、特に符号を付さない場合がある。
【0024】
また、図面において示す各構成の、位置、大きさ、範囲などは、理解の簡単のため、実際の位置、大きさ、範囲などを表していない場合がある。このため、開示する発明は、必ずしも、図面に開示された位置、大きさ、範囲などに限定されない。
【0025】
(実施の形態)
本実施の形態では、眼の情報から人物の状態を分類する方法について図1乃至図9を用いて説明する。なお、本実施の形態では、左右の眼のいずれか一方に着目して説明する。ただし、本実施の形態で示す構成、方法は、左右の眼に対して適用することができる。
【0026】
本実施の形態で説明する眼の情報から人物の状態を分類する方法は、コンピュータ装置上で動作するプログラムによって制御される。したがって、コンピュータ装置は、眼の情報から人物の状態を分類する方法を備える分類装置と言い換えることができる。なお、眼の情報から人物の状態を分類する分類装置については、図9で詳細に説明する。当該プログラムは、コンピュータ装置が有するメモリまたはストレージに保存される。もしくは、当該プログラムは、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなど)を介して接続されているコンピュータ、又はデータベースを有するサーバコンピュータに保存される。
【0027】
眼の情報から人物の状態を分類する方法を備える分類装置は、撮像装置、特徴抽出部、および分類器を有する。撮像装置は、画像群を生成し、コンピュータ装置が有するメモリまたはストレージに保存することができる。なお、画像群とは、連続撮影された画像または動画などを指し、複数の画像を指す。よって、分類装置は、コンピュータ装置が有するメモリまたはストレージに保存される画像群を用いることができる。例えば、分類装置がモバイル機器などの携帯端末に組み込まれる場合、分類装置は、撮像装置を含むことが好ましい。なお、分類装置には、webカメラ(監視カメラを含む)のようなネットワークに接続されたカメラから画像群が与えられてもよい。
【0028】
画像群には、対象となる人物の顔が含まれることが好ましい。人物の顔が記憶された画像からは、機械学習(Machine Learning)を用いて目の領域の画像を抽出することができる。機械学習の処理には、人工知能(AI:Artificial Intelligence)を用いることが好ましい。例えば、目の領域の画像を抽出するには、特に、人工ニューラルネットワーク(ANN:Artificial Neural Network)を用いることができる。なお、本発明の一態様において、人工ニューラルネットワークを、単にニューラルネットワーク(NN:Neural Network)と記す場合がある。ニューラルネットワークの演算処理は、回路(ハードウェア)又はプログラム(ソフトウェア)により実現される。
【0029】
例えば、人物の顔が記憶された画像から眼の領域の画像を検索する場合は、代表的な眼の領域の画像をクエリ画像として与えることができる。画像群に含まれる人物の顔が記憶された画像からクエリ画像と類似度の高い領域を抽出する。一例として、類似度の高い領域を検索する場合、画像検索方法には、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)、パターンマッチングなどを用いることができる。なお、本発明の一態様では、クエリ画像が登録されていればよく、検索をする度にクエリ画像を与えなくてもよい。なお、抽出された眼の領域は、画像として保存される。
【0030】
詳細な目の情報は、抽出された眼の領域の画像から抽出する。眼は、黒目の領域と、白目の領域と、を有する。黒目の領域は、虹彩および瞳孔で構成される領域を有し、白目の領域は、眼球が白色の被膜(強膜と呼ばれる場合がある)によって覆われた領域を指す。また上瞼および下瞼で挟まれた領域の最大幅を瞬目振幅とする。また瞼で挟まれた領域の最小値を、瞬目振幅の最小値とする。なお、画像群には、様々な眼の状態が記憶されている。瞬目振幅は、検出した瞬目振幅の大きいものから上位複数を選択し平均値を算出することで求めることができる。
【0031】
ここで、特徴抽出部の機能について説明する。特徴抽出部は、抽出された眼の領域の画像から詳細な目の情報を抽出する機能を有する。なお、特徴抽出部は、画像群に含まれる人物の顔が記憶されたそれぞれの画像に対し、次に示す処理を行う。なお、次に示す処理は、瞬目によるノイズの影響を低減した眼の学習データを作成する方法である。
【0032】
上記方法は、特徴抽出部が、人物の顔が記憶された画像から眼の領域の画像を抽出するステップを有する。
【0033】
また、上記方法は、特徴抽出部が、眼の領域の画像から瞬目振幅を抽出するステップを有する。特徴抽出部は、瞬目振幅を抽出することで以降のステップにおける瞬目を検出するための判定しきい値を設定することができる。一例として、当該判定しきい値は、瞬目振幅の半分の幅を設定することができる。ただし、判定しきい値は、対象とする人物に対してそれぞれ異なる値を設定できることが好ましい。また、画像群を眼の領域の画像群に変換することで、コンピュータが取り扱う画像のサイズを小さくすることができる。したがって、メモリの使用量を減らし、消費電力を小さくすることができる。
【0034】
また、上記方法は、特徴抽出部が、眼の領域の画像から瞬目を開始したと判断する画像を検出するステップを有する。なお、瞬目の開始とは、瞼が閉じていると判断される画像が検出された場合である。また、瞬目の終了とは、瞼が開いていると判断される画像が検出された場合である。なお、瞼の開閉を判断するには、当該判定しきい値を用いることができる。
【0035】
なお、瞬目は、瞬目の開始の画像から抽出する瞬目振幅、瞬目の終了の画像から抽出する瞬目振幅、ならびに瞬目の開始及び終了から抽出された瞬目振幅よりも小さな振幅が抽出される画像によって判断される。瞬目期間は、人によりばらつきがあるものの約300msといわれている。当該撮像装置は、瞬目期間に瞬目振幅が判定しきい値よりも小さな眼の領域の画像を少なくとも3つ以上取得できることが好ましい。
【0036】
また、上記方法は、特徴抽出部が、眼の領域の画像から瞬目が終了したと判断する画像から任意の時間経過した画像を第1のデータとして記憶するステップを有する。第1のデータは、瞬目後の眼の状態を表している。したがって、瞬目が瞬目反射によって発生している場合、第1のデータは、概ね人物の状態を適切に表している。なお、当該任意の時間は、自由に設定できることが好ましい。
【0037】
また、上記方法は、特徴抽出部が、第1のデータから任意の時間が経過した画像を第2のデータとして記憶するステップを有する。第2のデータは、概ね人物の感情または体調の変化などの状態を表している。なお、当該任意の時間は、自由に設定できることが好ましい。
【0038】
例えば、人物の感情が昂っている場合、第2のデータに記憶される眼は、第1のデータに記憶された眼よりも大きくなったり、小さくなったりする。また、人物が眠気などを有する場合、第1のデータよりも第2のデータに記憶される眼の振幅は小さくなることがある。ただし、眠気等を判断する場合は、瞬目率を判断に追加することができる。瞬目率とは、1分間に何回瞬目するかを表している。
【0039】
また、上記方法は、特徴抽出部が、第1のデータおよび第2のデータから白目の領域の面積情報を抽出するステップを有する。本発明の一態様では、白目の領域から得られる情報を用いることで眼球運動の状態を把握することができる。例えば、白目の領域の面積情報とは、黒目の中心座標を用いて白目の領域を第1の領域および第2の領域に分割した場合の面積比、または瞼の開閉によって変化する第1の領域および第2の領域の面積の変化などである。
【0040】
例えば、視線が同じ場所に留まっている場合でも黒目は常に動き続けていることが知られている。これは固視微動と呼ばれ、固視微動の中で1回の動きが最も大きいものは、マイクロサッカードと呼ばれる。マイクロサッカードは、瞳孔から入射した光が網膜の同じ箇所にあたり続けるのを回避する役目がある。例えば、マイクロサッカードが発生せず瞳孔から入射した光が網膜の同じ箇所にあたり続けた場合、網膜は、光の変化を認識できなくなる。よって、網膜は、瞳孔を介して入射する像を認識できなくなることが知られている。本発明の一態様では、マイクロサッカードを検出するために白目の面積比からマイクロサッカードによって発生する黒目の振動幅を検出することができる。なお、マイクロサッカードによって発生する黒目の振動幅のことを、白目の振動幅と言い換えて説明する場合がある。なお、黒目および白目の振動幅は、眼球の振動幅と言い換えることができる。
【0041】
マイクロサッカードの動きが大きく且つ早い場合、眼は視覚を生み出す能力が高い状態であるといわれている。したがって、マイクロサッカードの動きが大きく且つ早い場合、人物は対象物に対し集中力が高い状態にある。また、マイクロサッカードの動きが小さく且つゆっくりの場合、人物は対象物に対し集中力を失っている状態にあるといえる。これは、眠気を感じていると判断することができる。ただし、人物の状態をより正しく分類するためには、白目の面積比、瞬目振幅、または白目の振動幅など複数の条件を用いて判断することが好ましい。
【0042】
また、上記方法は、特徴抽出部が、白目の領域の情報を学習データとして分類器に与えるステップを有する。例えば、学習データには、白目の領域の情報として、白目の面積比、瞬目振幅、白目の振動幅、または瞼の位置の変化などが与えられることが好ましい。
【0043】
また、上記方法は、分類器が、学習データを用いて分類モデルを生成するステップを有する。
【0044】
なお、上述した学習データを用いて教師無しの機械学習による分類を行うことができる。例えば、分類モデルとして、K-means、またはDBSCAN(density-based spatial clustering of applications with noise)などのアルゴリズムを用いることができる。
【0045】
異なる例として、分類モデルには、さらに教師データを与えることができる。例えば、教師データには、感情分類または白目の振動幅の判定しきい値などを与えることができる。教師データが付与された学習データを用いて教師ありの機械学習による分類を行うことができる。例えば、分類モデルとして、決定木、ナイーブベイズ、KNN(k Nearest Neighbor)、SVM(Support Vector Machines)、パーセプトロン、ロジスティック回帰、ニューラルネットワークなどの機械学習のアルゴリズムを用いることができる。
【0046】
続いて、本実施の形態で説明する眼の情報から人物の状態を分類する方法について図1を用いて説明する。以降において、当該分類器の生成方法を分類装置10と言い換えて説明する場合がある。
【0047】
分類装置10は、撮像装置20、特徴抽出部30、および特徴推定部40を有する。特徴抽出部30は、瞬目検出部31、メモリ管理部32、記憶部33、検出部34、および情報検出部35を有する。特徴推定部40は、分類器40aを有する。記憶部33は、記憶装置33a、および記憶装置33bを有する。なお、記憶部33が有する記憶装置の数は2つに限定されない。1つまたは3つ以上でもよい。
【0048】
撮像装置20は、撮像装置20が有する撮像素子を用いて人物の画像21a乃至画像21nを取得することができる。当該画像には、人物の眼の領域が含まれる。なお、眼の領域には、白目の領域101、黒目の領域102a、および瞼104が含まれる。なお黒目の領域は、瞳孔の領域と、虹彩の領域とを有する。画像21a乃至画像21nは、瞬目検出部31に与えられる。なお、aまたはnは、正の整数である。また、nは、aよりも大きい。
【0049】
瞬目検出部31は、画像21a乃至画像21nからそれぞれ眼の領域を抽出することができる。瞬目検出部31は、当該抽出される眼の領域を画像22a乃至画像22nとして保存する。なお、画像22a乃至画像22nは、画素数が同じ画像に変換することが好ましい。また、眼の幅を同じにするように変換することが好ましい。以降において、画像22a乃至画像22nのいずれか一つの画像について説明する場合、説明を簡略化するために眼の領域の画像22と呼ぶ場合がある。なお、瞬目検出部31は、眼の領域を抽出するためにCNNを用いることが好ましい。
【0050】
瞬目検出部31は、眼の領域の画像から瞬目振幅を抽出することができる。瞬目振幅とは、眼が開いていると判断される状態の上瞼と下瞼間の距離の最大値、または複数の画像から抽出した当該距離の最大値の平均値であることが好ましい。瞬目検出部31は、当該瞬目振幅を用いて眼の領域の画像が瞬目状態かを判断するための判定しきい値を決定することができる。
【0051】
また、瞬目検出部31は、判定しきい値を用いて画像22a乃至画像22nから瞬目を開始したと判断する画像22pを検出することができる。例えば、瞬目検出部31は、画像22pから検出した瞬目振幅が判定しきい値より小さくなったことを検出した場合に眼が瞬目を開始したと判断することができる。次に、瞬目検出部31は、画像22p以降の画像から瞬目が終了したと判断する画像を検出する。例えば、瞬目検出部31は、画像22p以降の画像から検出した瞬目振幅が判定しきい値より大きくなったことを検出した場合に眼が瞬目を終了したと判断することができる。なお、pは、正の整数である。
【0052】
一例として、画像22p+2が、瞬目が終了したと判断された画像の場合、画像22p+3を第1のデータとしてメモリ管理部32に与えることができる。メモリ管理部32は、画像22p+3を記憶装置33aに保存する。なお、本発明の一態様では、瞬目が終了したと判断された画像22p+2の次の画像22p+3を第1のデータとして記憶装置33aに保存したが、第1のデータとして保存するのは画像22p+2の次の画像に限定されない。任意の時間経過後の画像22qを保存することもできる。なお、qは、正の整数である。また、qは、pよりも大きい。
【0053】
さらに、瞬目検出部31は、画像22p+3から任意の時間経過後の画像22rを第2のデータとしてメモリ管理部32に与えることができる。メモリ管理部32は、画像22rを記憶装置33bに保存する。なお、rは、正の整数である。また、rは、qよりも大きい。
【0054】
なお、記憶装置の数は、2つに限定されない。複数の記憶装置には、1回の瞬目に対して異なる時間経過後の眼の領域の画像を保存することができる。なお、瞬目検出部31の処理内容については、図3および図4を用いて詳細に説明する。
【0055】
検出部34は、記憶装置33aに保存されている第1のデータおよび記憶装置33bに保存されている第2のデータから白目の領域の面積情報を抽出することができる。白目の領域の面積情報を抽出するにはCNNを用いると効率的である。
【0056】
情報検出部35は、検出部34で抽出された白目の領域の面積情報からより詳細な白目の領域の情報を検出することができる。例えば、黒目の中心座標を用いることで白目の領域を第1の領域および第2の領域に分割することができる。また、第1の領域および第2の領域の面積比を抽出することができる。または、第1の領域および第2の領域の面積が、瞼の開閉によって変化することを抽出することができる。白目の領域の面積情報の抽出方法については、図6を用いて詳細に説明する。なお、検出部34および情報検出部35は、黒目の領域から、瞳孔の大きさを抽出することができる。
【0057】
特徴推定部40には、特徴抽出部30で抽出された白目の領域の情報が学習データとして与えられる。例えば、分類器40aには、学習データとして、白目の面積比、瞬目振幅、白目の振動幅、または瞼の位置の変化などが与えられる。さらに、瞳孔の大きさなどが与えられてもよい。
【0058】
特徴推定部40が有する分類器40aは、学習データを用いて分類モデルを生成することができる。分類モデルには、さらに、教師データ41を与えることができる。例えば、教師データ41として、感情分類、白目の振動幅の判定しきい値などを与えることができる。上述した学習データ、さらに教師データを与えることで、分類モデルは学習を行う。したがって、分類モデルを有する分類器40aは、眼の情報から人物の感情または体調の変化などを推定できるようになる。
【0059】
続いて、特徴抽出部30には、新たな第1のデータおよび第2のデータが与えられる。特徴推定部40には、新たな学習データが与えられる。特徴推定部40は、学習済の分類モデルを有する分類器40aを用いて人物の感情、または体調の変化などの状態を分類し、分類結果Coutを出力することができる。
【0060】
図2Aは、眼の構成を説明する図である。眼の構成要素には、白目の領域、黒目の領域、および瞼104などがある。白目の領域は、黒目を中心に分割される白目の領域101Aおよび白目の領域101Bを有する。黒目の領域は、瞳孔102および虹彩103を有する。続いて、眼の構成のそれぞれの寸法について定義する。例えば、眼は、眼の横方向の幅x、虹彩の幅k、瞳孔の幅m、および眼の縦方向の幅(瞬目振幅y)として定義することができる。
【0061】
続いて、図2Bは、学習データの生成方法を説明する図である。眼には、不定期な瞬目が発生する。一例として、図2Bでは、時刻BT1乃至時刻BT6を瞬目が発生した時刻として示している。眼の学習データを生成する場合、安定した眼の情報を把握することが重要である。例えば、画像22a乃至画像22nの中から瞬目している画像をノイズとして除去する必要がある。瞬目の画像を含む画像群を学習データとして用いる場合、分類モデルの学習にはより多くの画像を学習させなければならない。また、分類装置10は、学習すべき画像の量が多くなることで、消費電力が大きくなり、且つ画像を処理する時間を多く必要とする。
【0062】
本発明の一態様では、瞬目をイベント発生のトリガーとして使用する。一例として、時刻BT2の瞬目について詳細に説明する。
【0063】
時刻T1は、瞬目が開始される前の状態(イベントが発生していない状態)である。
【0064】
時刻T2は、瞬目振幅yが判定しきい値より小さくなったことを検出した時刻である。詳細に説明すると、瞬目検出部31が、瞬目が開始されたと判断する画像22pを検出した時刻である。
【0065】
時刻T3は、瞬目振幅yが判定しきい値より小さく、且つ画像22pで検出した瞬目振幅yよりも小さいことを検出した時刻である。詳細に説明すると、瞬目検出部31が、瞬目振幅yが最も小さくなっていると判断する画像22p+1を検出した時刻である。
【0066】
時刻T4は、瞬目振幅yが判定しきい値より大きくなったことを検出した時刻である。詳細に説明すると、瞬目検出部31が、瞬目が終了したと判断する画像22p+2を検出した時刻である。
【0067】
時刻T5は、瞬目が終了後の画像22p+3を検出した時刻である。なお、画像22p+3は、データData1として記憶装置33aに保存される。なお、時刻T4から任意の時間経過後の画像22qをデータData1としてもよい。
【0068】
時刻T6は、画像22p+3を検出した時刻からさらに任意の時間経過後の画像22rである。なお、画像22rは、データData2として記憶装置33bに保存される。
【0069】
上述したような時刻T1乃至時刻T6の手順によって取得された学習データは、ノイズが含まれる量を低減し、消費電力を低減し、必要とする記憶装置の量を低減した学習データを生成することができる。
【0070】
データData1およびデータData2は、それぞれを独立した学習データとして扱うことができる。または、データData1およびデータData2は、一つの学習データとして扱うことができる。または、データData2からデータの差分を抽出することで第3のデータを生成し、第3のデータを学習データとして用いることができる。なお、データData1、データData2、および第3のデータを他の機械学習の学習データとして用いることができる。なお、データData1、データData2、および第3のデータには、瞬目の発生頻度または瞳孔の幅を加えることができる。瞬目の発生頻度または瞳孔の幅は、人物の感情、または体調の変化を表す学習データの一つとしても使用することができる。
【0071】
図3は、学習データの生成方法を説明するフローチャートである。まず、画像22a乃至画像22nの画像群を用いて瞬目振幅を抽出する。次に、当該瞬目振幅を用いて瞬目の開始および終了の判定をするための判定しきい値を設定する。
【0072】
ステップST01は、当該画像群の中の任意の数の画像から瞬目振幅yの抽出を行うステップである。なお、ステップST01では、瞬目振幅yの最大値y_max、瞬目振幅yの最小値y_minについても抽出する。なお、瞬目振幅yの最小値y_minは、画像から検出された最小値を示している。なお、瞬目振幅yの最大値y_max、瞬目振幅yの最小値y_minは、常に加算平均を行うことで、対象の人物が有する眼の開き具合といった特徴を抽出することができる。
【0073】
ステップST02は、瞬目振幅yの平均値を算出するステップである。一例として、ステップST01で抽出された瞬目振幅yの上位3つ以上を用いて平均値y_aveを算出する。なお、平均化する数は設定できることが好ましい。
【0074】
ステップST03は、瞬目の開始および終了の判定をするための判定しきい値を設定するステップである。一例として、瞬目の開始および終了を判定条件とした場合、平均値y_aveの50%を判定しきい値として設定する。なお、瞬目の開始および終了の判定条件は、50%に限定されず、それぞれ任意に設定できることが好ましい。
【0075】
ステップST04は、データData1およびデータData2を検出および保存するステップである。なお、データData1およびデータData2の検出および保存については、図4を用いて詳細に説明する。
【0076】
ステップST05は、学習データの生成を終了するステップである。
【0077】
図4は、学習データの生成方法を説明するフローチャートである。図4では、学習データであるデータData1およびデータData2を検出および保存する方法を詳細に説明する。なお、図4では、眼の領域が画像として保存されている画像22a乃至画像22nの画素群を用いる。
【0078】
ステップST11は、画像群の中から任意の画像22pを選択するステップである。
【0079】
ステップST12は、新規画像があるかを確認するステップである。画像22p+1が存在するならばステップST13に移行する。画像22p+1が存在しないのであればステップST1B(return)に移行した後、ステップST05に移行し学習データの生成を終了する。
【0080】
ステップST13は、画像から眼の領域を抽出するステップである。
【0081】
ステップST14は、当該眼の領域から瞬目振幅yを抽出するステップである。
【0082】
ステップST15は、瞬目振幅yが、判定しきい値よりも小さいかを判定するステップである。瞬目振幅yが判定しきい値よりも小さい場合は、瞬目が開始されていると判断されるためステップST16に移行する。瞬目振幅yが判定しきい値よりも大きい場合は、瞬目が開始されていないと判断されるためステップST12に移行する。
【0083】
ステップST16は、新規画像があるかを確認するステップである。画像22p+2が存在するならばステップST17に移行する。画像22p+2が存在しないのであればステップ1Bに移行した後、ステップST05に移行し学習データの生成を終了する。なお、ステップST16には、ステップST13およびステップST14の処理が含まれるが図面のスペースの関係により記号“*1”で表している。以降において記号“*1”が付与されるステップは、ステップST13およびステップST14の処理を含む。
【0084】
ステップST17は、瞬目振幅yが、判定しきい値よりも大きいかを判定するステップである。瞬目振幅yが判定しきい値よりも大きい場合は、瞬目が終了したと判断されるためステップST18に移行する。瞬目振幅yが判定しきい値よりも小さい場合は、瞬目が終了していないと判断されるためステップST16に移行する。
【0085】
ステップST18は、画像22p+3をデータData1として記憶装置33aに保存するステップである。
【0086】
ステップST19は、新規画像があるかを確認するステップである。画像22rが存在するならばステップST1Aに移行する。画像22rが存在しないのであればステップST1Bに移行した後、ステップST05に移行し学習データの生成を終了する。
【0087】
ステップST1Aは、画像22rをデータData2として記憶装置33bに保存するステップである。次に、ステップST12に移行する。
【0088】
上述したように、瞬目をイベントとして検出し、瞬目が終了してから任意の時間経過後の画像を学習データとして収集することができる。当該学習データは、瞬目後という条件のもと集められた学習データであるためノイズ成分を低減することができる。なお、瞬目の回数などは、ステップST16などにカウンタなどを設けることで容易に情報を収集することができる。
【0089】
図5A乃至図5Cは、眼の情報を説明する図である。図5Aは、一例として、瞬目後の眼の状態を示している。よって、図5Aは、データData1に相当する。瞬目後の眼は、画像の人物の感情、または体調の変化などの自分では意識していない状態を表している場合が多い。なお、図5Aの瞬目振幅y1は、平均値y_aveの-20%より大きく且つ+20より小さいことが好ましい。瞬目振幅y1は、平均値y_aveの-10%より大きく且つ+10%より小さいことがより好ましい。瞬目振幅y1は、平均値y_aveの-5%より大きく且つ+5%より小さいことがさらに好ましい。
【0090】
なお、検出部34および情報検出部35は、眼の情報として、白目の領域101Aの面積、白目の領域101Bの面積、白目の領域101Aと白目の領域101Bの合計面積、および白目の領域101Aと領域101Bの面積比などを算出することができる。なお、検出部34および情報検出部35は、それぞれの面積を抽出するためにCNNを用いることが好ましい。
【0091】
図5Bは、一例として、瞬目後から任意の時間経過後の眼の状態を示している。瞬目後から任意の時間が経過した場合、眼は、人物の感情または体調の変化などの状態によって表情筋が影響を受けることがある。当該表情筋が影響を受ける場合、瞬目振幅y2または瞳孔などに変化が表れる。図5Bは、一例として、人物が驚いたとき、または感情が昂っているときなどに現れる眼の形状の変化を示している。例えば、上の瞼104が、方向EL1のように上に向かって動いている。この変化は、白目の領域101Aと領域101Bの合計面積の変化として検出することができる。
【0092】
異なる例として、図5Cは、瞬目後から任意の時間経過後の眼の状態を示している図5Bとは異なる眼の状態を示している。瞬目後から任意の時間経過後の眼の状態は、瞬目から瞬目までの期間に現れる人物の感情または体調の変化などの状態を表している場合が多い。図5Cは、一例として、人物が眠気を催している場合などに現れる眼の形状の変化を示している。当該表情筋が影響を受ける場合、瞬目振幅y3または瞳孔などに変化が表れる。例えば、上の瞼104が、方向EL1のように下に向かってに動いている。なお、瞬目振幅y3は、判定しきい値よりも大きいことが好ましい。
【0093】
この変化は、白目の領域101Aおよび領域101Bの面積の変化として検出することができる。なお、図5Cに示すように方向EL2、または方向EL3の変化量は異なる場合がある。このような細かな変化は、人物の感情に影響を受けている場合があり、自己カウンセリングには有効である。
【0094】
よって図5Bおよび図5Cは、データData2に相当する場合が多い。ただし、図5Bまたは図5Cが瞬目後の眼の状態の場合もあり、瞬目後に図5Bまたは図5Cのような状態であれば、人物の感情または体調の変化などの状態が顕著に表れている可能性がある。なお、これらの分類は、学習データを用いて学習した分類モデルを用いて行われる。
【0095】
異なる例として、図5Cのような眼の状態の場合、人物の状態は、集中力が高くなっている場合がある。このような場合を差別化する方法としてマイクロサッカードの振動幅を利用する方法がある。
【0096】
本発明の一態様では、白目の面積比からマイクロサッカードによって発生する白目(眼球)の振動幅を検出することができる。白目の振動幅の検出方法は、図6を用いて詳細に説明する。
【0097】
白目の振動幅を検出する方法を説明するために、図6Aは、図5Bを援用して説明をする。白目の振動幅を検出するためには、白目の面積を求める必要がある。しかし、図6Aに示すように白目の領域が一つのオブジェクトとして検出される場合、白目の領域を分割するための分割ラインSLを設定する必要がある。
【0098】
図6Bは、検出部34によって抽出された図5Bの白目の領域を説明する図である。なお、白目の領域101は、オブジェクトとして抽出される。当該オブジェクトが1つの場合、情報検出部35は、当該白目の領域から黒目の領域に概ね等しい円の領域を抽出する。次に、当該抽出した円の中心座標C(a,b)を検出する。次に、当該中心座標のx座標を用いて白目の領域101を、白目の領域101Aおよび白目の領域101Bに分割する分割ラインSLを設定することができる。
【0099】
図6Cは、検出部34によって抽出された図5Cの白目の領域を説明する図である。なお、白目の領域101は、白目の領域101Aおよび白目の領域101Bを示す2つのオブジェクトとして抽出される。
【0100】
図6Bおよび図6Cは、分割ラインSLを中心に白目の領域101Aおよび白目の領域101Bに分割される。例えば、黒目の振動幅を検出する場合、黒目の中心の変動を検出することが好ましい。ただし、黒目の振動幅の検出精度は、画像の画素数の分解能に依存する。しかし、白目の振動幅は、対象とする変動量が面積で比較され、さらに、白目の領域101Aが大きくなれば白目の領域101Bは必ず小さくなる反比例の関係を有する。よって検出精度は、白目の振動幅の検出の方が黒目の振動幅の検出よりも高くなる。
【0101】
図7は、白目の領域を検出する方法を説明するフローチャートである。
【0102】
ステップST20は、CNNを用いて眼の領域の画像から白目の領域を抽出するステップである。
【0103】
ステップST21は、白目の領域が一つのオブジェクトであるかを判定するステップである。白目の領域が一つのオブジェクトで検出された場合、ステップST22に移行する。白目の領域が複数のオブジェクトで検出された場合は、ステップST25に移行する。
【0104】
ステップST22は、一つのオブジェクトで検出された白目の領域から、円(黒目(虹彩・瞳孔))の領域を検出するステップである。
【0105】
ステップST23は、当該円の領域の中心座標C(a,b)を検出するステップである。
【0106】
ステップST24は、白目の領域を、中心座標C(a,b)のx座標を中心に分割するステップである。白目の領域101は、白目の領域101Aおよび白目の領域101Bに分割される。
【0107】
ステップST25は、検出された白目の領域101Aおよび白目の領域101Bのそれぞれの面積を算出するステップである。
【0108】
図8A乃至図8Cは、学習データの生成方法を説明する図である。図8A乃至図8Cにおいて、時刻T11、時刻T21、および時刻T31は、瞬目が開始される前の時刻である。時刻T12、時刻T22、および時刻T32は、特徴抽出部30が瞬目の開始を検出する時刻である。時刻T13、時刻T23、および時刻T33は、瞬目検出部31が、瞬目振幅yが最も小さくなっていると判断する画像を検出した時刻である。時刻T14、時刻T24、および時刻T34は、特徴抽出部30が瞬目の終了を検出する時刻である。時刻T15、時刻T25、および時刻T35は、瞬目が終了後の任意の時間経過後の時刻である。時刻T16、時刻T26、および時刻T36は、瞬目の終了後からさらに任意の時間経過後の時刻である。時刻T17、時刻T27、および時刻T37はそれぞれ、時刻T16、時刻T26、および時刻T36とは異なる、瞬目の終了後からさらに任意の時間経過後の時刻である。
【0109】
図8A乃至図8Cでは、特徴抽出部30が瞬目の終了を検出する時刻T14、時刻T24、または時刻T34の後の異なる時刻の画像をそれぞれ、データData1、データData2、およびデータData3として保存する。
【0110】
図8Aは、白目が横方向に振動する例である。白目の振動がx軸方向の場合は、白目の振動幅を容易に検出することができる。
【0111】
図8Bは、白目が斜め方向に振動する例である。白目の振動が斜め方向の場合は、斜め方向の振動をx軸方向の変動に置き換えて白目の振動幅として検出することができる。なお、斜め方向の振動を判断する場合、白目の領域をさらに中心座標C(a,b)のy座標を中心に分割し、白目の領域101A乃至白目の領域101Dの4つの領域の面積を比較することができる。斜め方向の移動量などを検出する処理を削減することができるので消費電力を低減することができる。
【0112】
図8Cは、瞼が上下に変動する場合である。白目の面積比では検出が難しいので瞬目振幅yを検出することが好ましい。なお、図8Cにおいて、x軸方向または斜め方向に白目が変動する場合は、容易に白目の変動幅を検出することができる。なお、白目の振動幅を組み合わせることで人物の状態をより正確に分類することができる。
【0113】
図9は、眼の情報から人物の状態を分類する方法を備える分類装置100を説明するブロック図である。
【0114】
分類装置100は、演算部81、メモリ82、入出力インターフェース83、通信デバイス84、およびストレージ85を有している。つまり、分類装置100による眼の情報から人物の状態を分類する方法は、撮像装置20、特徴抽出部30、および特徴推定部40を含むプログラムによって提供される。なお当該プログラムは、ストレージ85又は、メモリ82に保存され、演算部81を用いてパラメータの探索を行う。
【0115】
入出力インターフェース83には、表示装置86a、キーボード86b、カメラ86c等が電気的に接続される。なお、図9では図示していないが、マウスなどが接続されてもよい。
【0116】
通信デバイス84は、ネットワークインターフェース87を介して他のネットワークと電気的に接続される。なお、ネットワークインターフェース87は、有線、又は無線による通信を含む。当該ネットワークには、監視カメラ88、Webカメラ89、データベース8A、リモートコンピュータ8B、又はリモートコンピュータ8Cなどが電気的に接続される。なお、ネットワークを介して電気的に接続される監視カメラ88、Webカメラ89、データベース8A、リモートコンピュータ8B、又はリモートコンピュータ8Cは、異なる建物、異なる地域、異なる国に設置されていてもよい。
【0117】
以上、本発明の一態様で示す構成、方法は、その一部を適宜組み合わせて用いることができる。
【符号の説明】
【0118】
:Data1:データ、Data2:データ、Data3:データ、T1:時刻、T2:時刻、T3:時刻、T4:時刻、T5:時刻、T6:時刻、T11:時刻、T12:時刻、T13:時刻、T14:時刻、T15:時刻、T16:時刻、T17:時刻、T21:時刻、T22:時刻、T23:時刻、T24:時刻、T25:時刻、T26:時刻、T27:時刻、T31:時刻、T32:時刻、T33:時刻、T34:時刻、T35:時刻、T36:時刻、T37:時刻、y1:瞬目振幅、y2:瞬目振幅、y3:瞬目振幅、8A:データベース、8B:リモートコンピュータ、8C:リモートコンピュータ、10:分類装置、20:撮像装置、21a:画像、21n:画像、22:画像、22a:画像、22n:画像、22p:画像、22q:画像、22r:画像、30:特徴抽出部、31:瞬目検出部、32:メモリ管理部、33:記憶部、33a:記憶装置、33b:記憶装置、34:検出部、35:情報検出部、40:特徴推定部、40a:分類器、41:教師データ、81:演算部、82:メモリ、83:入出力インターフェース、84:通信デバイス、85:ストレージ、86a:表示装置、86b:キーボード、86c:カメラ、87:ネットワークインターフェース、88:監視カメラ、89:Webカメラ、100:分類装置、101:白目の領域、101A:白目の領域、101B:白目の領域、102:瞳孔、102a:黒目の領域、103:虹彩、104:瞼
図1
図2
図3
図4
図5
図6
図7
図8
図9
【手続補正書】
【提出日】2024-07-29
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
撮像装置と、特徴抽出部と、分類器と、を有する分類装置であって、
前記撮像装置は、連続撮影することで画像群を生成する機能を有し、
前記画像群には、眼の領域の画像が含まれており、
前記眼の領域には、白目の領域が含まれており、
前記特徴抽出部は、前記画像群から前記眼の領域を抽出する機能と、前記画像群から瞬目振幅を抽出する機能と、瞬目が開始された瞬間の画像を前記画像群から検出する機能と、前記瞬目が終了した瞬間の第1の画像を前記画像群から検出し、前記第1の画像を第1のデータとして記憶する機能と、前記第1の画像から任意の時間が経過した瞬間の第2の画像を検出し、前記第2の画像を第2のデータとして記憶する機能と、前記第1のデータ及び前記第2のデータから前記白目の領域の面積情報を抽出する機能と、前記白目の領域の面積情報を学習データとして前記分類器に与える機能と、を有し、
前記分類器は、前記学習データを用いて分類モデルを生成する機能を有する、
分類装置。
【請求項2】
請求項1において、
前記特徴抽出部は、抽出された前記白目の領域の面積情報において、前記白目の領域が独立した第1の領域及び第2の領域であった場合に、前記第1の領域と前記第2の領域との面積比を算力する機能を有し、
前記特徴抽出部は、抽出された前記白目の領域の面積情報において、前記白目の領域が1つの第3の領域であった場合に、黒目の領域に該当する円の領域を前記第3の領域から検出する機能と、前記円の領域から前記円の中心を求める機能と、前記円の中心のx座標を用いて前記第3の領域を前記第1の領域と前記第2の領域に分割する機能と、前記第1の領域と前記第2の領域との前記面積比を算力する機能と、を有し、
前記特徴抽出部は、算出された前記面積比から前記白目の振動幅を算出する機能を有し、
前記分類器は、前記白目の振動幅を前記学習データとして用いる、
分類装置。
【請求項3】
請求項2において、
前記特徴抽出部は、前記白目の振動幅と、前記瞬目振幅とを、前記学習データとして前記分類器に与える機能を有し、
前記分類器は、前記白目の振動幅と、前記瞬目振幅とを用いて前記分類モデルを生成する機能を有する、
分類装置。
【請求項4】
請求項1乃至請求項3のいずれか一において、
前記分類器は、前記分類モデルを用いて人物の感情、体調の変化などの状態を分類する機能を有する、
分類装置。
【請求項5】
請求項1乃至請求項4のいずれか一において、
前記分類器は、教師用ラベルが付与された前記学習データを用いて学習する機能を有する、
分類装置。