(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-09-11
(45)【発行日】2023-09-20
(54)【発明の名称】画像処理装置、画像処理方法および画像処理プログラム
(51)【国際特許分類】
G06T 7/20 20170101AFI20230912BHJP
【FI】
G06T7/20 300B
(21)【出願番号】P 2019164718
(22)【出願日】2019-09-10
【審査請求日】2022-08-05
(73)【特許権者】
【識別番号】000006895
【氏名又は名称】矢崎総業株式会社
(74)【代理人】
【識別番号】110002000
【氏名又は名称】弁理士法人栄光事務所
(72)【発明者】
【氏名】▲高▼橋 勇氣
【審査官】藤原 敬利
(56)【参考文献】
【文献】特開2006-228061(JP,A)
【文献】特開2018-101211(JP,A)
【文献】特開2017-010337(JP,A)
【文献】特開2000-142164(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 1/00 - 7/90
G06V 10/00 -20/90
G06V 40/00 -40/70
G08G 1/00 -99/00
H04N 5/222- 5/257
H04N 7/18
(57)【特許請求の範囲】
【請求項1】
顔を含むように撮影された画像に対してデータ処理を行うデータ処理部を備える画像処理装置であって、
前記データ処理部は、
前記画像中の顔及び黒目を検出する顔追従モード部と、
前記画像中の黒目を検出する眼球追従モード部と
、
前記顔追従モード部及び前記眼球追従モード部のうち何れか一方に前記黒目の検出を実行させる切替部と、を有し、
前記切替部は、前記顔の動きが大きい場合に、前記顔追従モード部による検出を実行させ、前記顔の動きが小さい場合に、前記眼球追従モード部による検出を実行させる、
画像処理装置。
【請求項2】
請求項1に記載の画像処理装置であって、
前記顔追従モード部は、前記画像に対してデータ処理を行い前記顔が撮影されている顔領域を検出し、前記顔領域に対してデータ処理を行い目が撮影されている目領域を検出し、前記目領域に対してデータ処理を行い黒目を検出し、
前記眼球追従モード部は、前記画像のうち、直近に実行された前記顔追従モード部により検出された前記顔領域又は前記目領域に対してデータ処理を行い前記黒目を検出する、
画像処理装置。
【請求項3】
請求項
1又は2に記載の画像処理装置であって、
前記顔追従モード部による検出時に、前記画像内における前記顔の基準の第1変位量を求める第1変位量算出部を備え、
前記切替部は、前記第1変位量が第1所定値よりも小さい場合に、前記顔の動きが小さいと判定して、前記顔追従モード部から前記眼球追従モード部に切り替える、
画像処理装置。
【請求項4】
請求項
3に記載の画像処理装置であって、
前記第1変位量算出部は、前記画像内における前記顔のエッジ点を抽出し、当該抽出したエッジ点の中心を前記顔の基準とする、又は、前記画像内における前記顔の特徴点を前記顔の基準とする、
画像処理装置。
【請求項5】
請求項
1~
4何れか1項に記載の画像処理装置であって、
前記眼球追従モード部による検出時に、前記画像内における目の基準の第2変位量を求める第2変位量算出部を備え、
前記切替部は、前記第2変位量が第2所定値よりも大きい場合に、前記顔の動きが大きいと判定して、前記眼球追従モード部から前記顔追従モード部に切り替える、
画像処理装置。
【請求項6】
請求項
5に記載の画像処理装置であって、
前記第2変位量算出部は、前記画像内における前記目のエッジ点を抽出し、当該抽出したエッジ点の中心を前記目の基準とする、又は、前記画像内における前記目の特徴点を前記目の基準とする、
画像処理装置。
【請求項7】
顔を含むように撮影された画像に対してデータ処理を行う画像処理方法であって、
前記画像中の顔及び黒目を検出する顔追従ステップと、
前記画像中の黒目を検出する眼球追従ステップと
、
前記顔追従ステップ及び前記眼球追従ステップのうち何れか一方に前記黒目の検出を実行させる切替ステップと、を有し、
前記切替ステップは、前記顔の動きが大きい場合に、前記顔追従ステップによる検出を実行させ、前記顔の動きが小さい場合に、前記眼球追従ステップによる検出を実行させる、
画像処理方法。
【請求項8】
コンピュータに請求項
7に記載の画像処理方法の各ステップを実行させるための画像処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。
【背景技術】
【0002】
従来より、人物の顔をカメラで撮影して得た画像のデータを処理して瞳孔または虹彩(黒目)を検出する画像処理装置が提案されている(特許文献1~3)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2018-88236号公報
【文献】特開2018-183532号公報
【文献】特開2018-22349号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、眼球運動は非常に微細な運動であるため、高速かつ高解像度で撮影した画像のデータを処理する必要があり、高性能の画像処理装置を用いる必要があった。
【0005】
本発明は、上述した事情に鑑みてなされたものであり、その目的は、処理負担の低減を図った画像処理装置、画像処理方法および画像処理プログラムを提供することにある。
【課題を解決するための手段】
【0006】
前述した目的を達成するために、本発明に係る画像処理装置、画像処理方法および画像処理プログラムは、下記[1]~[8]を特徴としている。
[1]
顔を含むように撮影された画像に対してデータ処理を行うデータ処理部を備える画像処理装置であって、
前記データ処理部は、
前記画像中の顔及び黒目を検出する顔追従モード部と、
前記画像中の黒目を検出する眼球追従モード部と、
前記顔追従モード部及び前記眼球追従モード部のうち何れか一方に前記黒目の検出を実行させる切替部と、を有し、
前記切替部は、前記顔の動きが大きい場合に、前記顔追従モード部による検出を実行させ、前記顔の動きが小さい場合に、前記眼球追従モード部による検出を実行させる、
画像処理装置であること。
[2]
[1]に記載の画像処理装置であって、
前記顔追従モード部は、前記画像に対してデータ処理を行い前記顔が撮影されている顔領域を検出し、前記顔領域に対してデータ処理を行い目が撮影されている目領域を検出し、前記目領域に対してデータ処理を行い黒目を検出し、
前記眼球追従モード部は、前記画像のうち、直近に実行された前記顔追従モード部により検出された前記顔領域又は前記目領域に対してデータ処理を行い前記黒目を検出する、
画像処理装置であること。
[3]
[1]又は[2]に記載の画像処理装置であって、
前記顔追従モード部による検出時に、前記画像内における前記顔の基準の第1変位量を求める第1変位量算出部を備え、
前記切替部は、前記第1変位量が第1所定値よりも小さい場合に、前記顔の動きが小さいと判定して、前記顔追従モード部から前記眼球追従モード部に切り替える、
画像処理装置であること。
[4]
[3]に記載の画像処理装置であって、
前記第1変位量算出部は、前記画像内における前記顔のエッジ点を抽出し、当該抽出したエッジ点の中心を前記顔の基準とする、又は、前記画像内における前記顔の特徴点を前記顔の基準とする、
画像処理装置であること。
[5]
[1]~[4]何れか1に記載の画像処理装置であって、
前記眼球追従モード部による検出時に、前記画像内における目の基準の第2変位量を求める第2変位量算出部を備え、
前記切替部は、前記第2変位量が第2所定値よりも大きい場合に、前記顔の動きが大きいと判定して、前記眼球追従モード部から前記顔追従モード部に切り替える、
画像処理装置であること。
[6]
[5]に記載の画像処理装置であって、
前記第2変位量算出部は、前記画像内における前記目のエッジ点を抽出し、当該抽出したエッジ点の中心を前記目の基準とする、又は、前記画像内における前記目の特徴点を前記目の基準とする、
画像処理装置であること。
[7]
顔を含むように撮影された画像に対してデータ処理を行う画像処理方法であって、
前記画像中の顔及び黒目を検出する顔追従ステップと、
前記画像中の黒目を検出する眼球追従ステップと、
前記顔追従ステップ及び前記眼球追従ステップのうち何れか一方に前記黒目の検出を実行させる切替ステップと、を有し、
前記切替ステップは、前記顔の動きが大きい場合に、前記顔追従ステップによる検出を実行させ、前記顔の動きが小さい場合に、前記眼球追従ステップによる検出を実行させる、
画像処理方法であること。
[8]
コンピュータに[7]に記載の画像処理方法の各ステップを実行させるための画像処理プログラムであること。
【0007】
上記[1]の構成の画像処理装置によれば、顔追従モード部が、画像から顔及び黒目を検出し、眼球追従モード部が、画像から黒目を検出する。これにより、顔の検出が必要ないときは、眼球追従モード部が黒目の検出のみを行い、顔検出を省略できるので、処理負担の低減を図ることができる。
更に、上記[1]の構成の画像処理装置によれば、眼球追従モード部及び顔追従モード部の何れか一方に黒目の検出を実行させることができる。
更に、上記[1]の構成の画像処理装置によれば、顔の動きが大きい場合、顔を検出して精度向上を図り、顔の変動が小さい場合、黒目だけ検出して処理負担の低減を図ることができる。
上記[2]の構成の画像処理装置によれば、眼球追従モード部が、顔追従モード部により検出された顔領域又は目領域を利用して、黒目を検出する。これにより、眼球追従モード部が、顔領域又は目領域の検出を省略できるので、より一層、処理負担の低減を図ることができる。
上記[3]、[4]の構成の画像処理装置によれば、顔追従モード部による検出時には、顔の基準の第1変位量を求めることにより、顔の動きが小さいことを容易に判定できる。
上記[5]、[6]の構成の画像処理装置によれば、眼球追従モード部による検出時には、目の基準の第2変位量を求めることにより、顔の動きが大きいことを容易に判定できる。
上記[7]、[8]の構成の画像処理方法及び画像処理プログラムによれば、顔追従ステップで、画像から顔及び黒目を検出し、眼球追従ステップで、画像から黒目を検出する。これにより、顔の検出が必要ないときは、眼球追従ステップが黒目の検出のみを行い、顔検出を省略できるので、処理負担の低減を図ることができる。
【発明の効果】
【0008】
本発明によれば、処理負担の低減を図った画像処理装置、画像処理方法および画像処理プログラムを提供できる。
【0009】
以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。
【図面の簡単な説明】
【0010】
【
図1】
図1は、車両に搭載した画像処理装置の配置状態の具体例を示す斜視図である。
【
図2】
図2は、
図1に示す画像処理装置の動作の概要を示す状態遷移図である。
【
図3】
図3は、本発明に係る実施形態の画像処理装置が実施する顔追従モードにおける視線検出アルゴリズムの概要を示すフローチャートである。
【
図4】
図4は、
図1に示すカメラで撮影した撮影画像の一例を示す図である。
【
図5】
図5は、
図3に示す黒目検出アルゴリズムの概要を示すフローチャートである。
【
図6】
図6は、眼球の三次元モデルおよび二次元画像の関係を示す模式図である。
【
図7】
図7は、本発明に係る実施形態の画像処理装置が実施する眼球追従モードにおける視線検出アルゴリズムの概要を示すフローチャートである。
【
図8】
図8は、本発明に係る実施形態の画像処理装置が実施する初期設定モードにおけるアルゴリズムの概要を示すフローチャートである。
【
図9】
図9は、
図1に示す画像処理装置が各モードで実行する処理の一覧である。
【
図10】
図10は、従来品及び
図1に示す本実施品の動作を示すタイムチャートである。
【発明を実施するための形態】
【0011】
本発明の画像処理装置、画像処理方法および画像処理プログラムに関する具体的な実施形態について、各図を参照しながら以下に説明する。
【0012】
<本実施形態が適用される環境の具体例>
車両に搭載した画像処理装置の配置状態の具体例を
図1に示す。
図1に示した例では、車両の車室内10にカメラ12および処理部13(データ処理部)が設置されている。具体的には、運転席に着座している人物11、すなわち運転者の目の領域11aを含む顔などをカメラ12で撮影できるように、運転席前方のメータユニット内、あるいはコラムカバーの箇所にカメラ12が設置されている。
【0013】
処理部13は、カメラ12が人物11の顔を撮影して得られる二次元画像データを処理して、目の領域11aのデータから視線11bの方向を示す情報を推定する。処理部13が推定した視線11bの情報は、代表例として、車両を運転する運転者が安全確認のための視線移動をしているかどうかを車載装置が認識するために利用できる。勿論、このような視線の情報は様々な用途が利用可能である。したがって、本発明の画像処理装置は、例えば
図1中の処理部13、あるいはその一部として構成することが想定される。
【0014】
<本実施形態の画像処理装置の動作の概要>
また、本実施形態の画像処理装置は、
図2に示すように、顔追従モード、眼球追従モードの2つのモードで各々視線11bの方向を示す情報を推定することができる。本実施形態では、画像処理装置は、顔が大きく動いて落ち着かない場合(条件B)、顔追従モードへ移行する。即ち、人物11が、注視と注視との間の大きな視線移動や、脇見、姿勢変動などの動作を行い、顔が大きく動いている場合、画像処理装置は顔追従モードとなる。顔追従モードにおいて画像処理装置は、カメラ12で1フレーム撮影する毎に、撮影された1フレームの画像に対してデータ処理を行い、顔及び黒目を検出して、顔向き及び視線11bの方向を推定する。
【0015】
一方、画像処理装置は、顔の動きが少ない場合(条件A)、眼球追従モードへ移行する。即ち、人物11が、顔を動かさずに物を注視している場合や、顔を動かさずに目だけで物を追跡している場合、画像処理装置は眼球追従モードとなる。顔追従モードにおいて画像処理装置は、カメラ12で1フレーム撮影する毎に、撮影された1フレームの画像に対してデータ処理を行い、黒目の位置を検出して、この結果から視線11bの方向を推定する。顔追従モードにおいて画像処理装置は、顔の検出を行わない。
【0016】
本実施形態の画像処理装置は、条件Aになると顔追従モードから眼球追従モードに切り替え、条件Bになると眼球追従モードから顔追従モードに切り替える。この条件A、Bについての詳細は、後述する。また、画像処理装置は、電源投入直後は、人物11の認証を行う初期設定を行い、初期設定後は顔追従モードに切り替わる。
【0017】
<顔追従モードにおける視線検出アルゴリズムの概要>
本発明に係る実施形態の画像処理装置が実行する顔追従モードにおける視線検出アルゴリズムの概要を説明する。
図3は、本発明に係る実施形態の画像処理装置が実行する顔追従モードにおける視線検出アルゴリズムの概要を示すフローチャートである。画像処理装置のコンピュータが所定のプログラムを実行することにより、顔追従モード部として機能し、
図3に示した顔追従モードにおける視線検出アルゴリズムに従って動作が順次行われる。
【0018】
カメラ12は、人物11の顔を含む領域の映像を一定の周期で常時撮影し、映像の信号を出力する。画像処理装置のコンピュータ(以下、単に「画像処理装置」と略す)は、ステップS11でカメラ12から映像の信号を1フレーム分取り込む。
【0019】
次のステップS12では、画像処理装置は、例えば「Viola-Jones法」を用いて人物11の顔検出を行い、1フレームの二次元画像データの中から顔を含む領域を矩形の顔領域R1(
図4参照)として検出する。すなわち、画像処理装置は、顔の陰影差を特徴とし「Boosting」を用いた学習によって作成された検出器を使って顔領域R1を抽出する。「Viola-Jones法」の技術は、例えば以下の文献に示されている。
「P.viola and M.J.Jones,"Rapid Object Detection Using a Boosted Cascade of Simple Features," IEEE CVPR(2001).」
【0020】
次のステップS13では、画像処理装置は、ステップS12で検出した顔領域R1に対してデータ処理を行い、顔の特徴点(目、鼻、口、輪郭など)を検出する。これは、画像処理ライブラリ「Dlib」で実装されている方法や、有償の顔検出ライブラリを用いることができる。なお、顔検出ライブラリには、画像を入力すると顔検出と顔特徴点とを出力するものもあり、その場合はステップS12の顔検出とステップS13の特徴点検出の処理をセットで使用することができる。
【0021】
次のステップS14では、画像処理装置は、人物11の顔の向きを検出する顔向き検出を行う。この顔向きは、顔の特徴点モデルと、ステップS13で検出された顔の特徴点位置と、の対応関係により検出することができる。
【0022】
次のステップS15では、画像処理装置は、1フレームの二次元画像データに基づいて人物11の姿勢の検出を行う。これは、人物11の肩から頭にかけたシルエットをモデル化して当てはめる方法や、肩、肘、鼻などのキーポイントを検出する方法を適応することができる。なお、ステップS15の姿勢検出については省略してもよい。
【0023】
次のステップS16では、画像処理装置は、画像から黒目を検出する。このステップS16の処理の詳細について
図5を参照して説明する。まず、ステップS161において、画像処理装置は、ステップS12で検出した顔領域R1の中から、例えば「Viola-Jones法」を用いて目の矩形の領域である目領域R2(
図4参照)を検出する。
【0024】
本実施形態では後述する眼球3Dモデルを用いるモデルベース手法によって視線11bを検出する場合を想定しているので、眼球中心を特定する必要がある。この眼球中心をステップS162で推定する。ここでは、ステップS161で検出した目領域R2の中心座標を眼球中心と仮定する。なお、例えばステップS13で特徴点として検出した目尻、目頭位置に基づき眼球中心を決定する方法や、顔の特徴点より骨格を推定し同時に眼球中心位置を算出する方法を利用することも想定される。
【0025】
ステップS163では、ステップS161で抽出した目領域R2のデータについて、テンプレートマッチングの手法を適用して、瞳孔33または虹彩32の粗探索を行う。具体的には、目領域R2を二値化した画像に対して、テンプレートとして黒丸画像をマッチングさせて最も尤度の大きかった黒丸画像の画像中心(黒丸の中心)の座標を目領域R2中の瞳孔33または虹彩32の中心位置とし、最も尤度の大きかった黒丸画像の半径を目領域R2中の瞳孔33または虹彩32の半径とする。なお、ステップS163の処理は、目領域R2中の瞳孔33または虹彩32の中心位置及び半径に関しておおよその目処をつけるために行うものである。
【0026】
ステップS164では、画像処理装置は、S163で探索した瞳孔33または虹彩32の中心位置及び半径を利用し、パーティクルフィルタの手法を適用して、より精度の高い瞳孔33または虹彩32の中心位置及び半径を検出する。ここでは、ステップS163で粗探索した瞳孔33または虹彩32の中心位置を起点として眼球モデルを回転させ、瞳孔33または虹彩32の形状候補を取り出し、それらの候補と目領域R2のエッジ画像の相関関数の尤度計算によって瞳孔33または虹彩32部分を正確に検出する。この内容の詳細については、特開2018-88236号公報に記載されているため、ここでは詳細な説明について省略する。なお、黒目検出についてはこれに限らず、一般の画像処理手法を用いてもよい。
【0027】
次のステップS17(
図3)では、画像処理装置は、ステップS16で検出された瞳孔または虹彩(黒目)の中心位置及び眼球中心位置に基づいて人物11の視線11bの方向を検出する。
【0028】
次のステップS18では、画像処理装置は、検出した顔の位置、顔特徴点位置、顔の向き、姿勢、視線11bの方向等の情報を保存すると共に、アプリケーションの必要に応じて出力した後、ステップS11に戻る。これにより、ステップS11~S20のループ状の処理を繰り返すことで、1フレーム毎にリアルタイムでの顔向き、視線検出を実現する。
【0029】
次に、視線11bの方向を検出するためにの眼球の3D(三次元)モデルおよび2D(二次元)画像の関係を
図6に示す。
図6に示した眼球3Dモデル30において、この眼球は眼球中心31と、半径Rとで表される球体である。また、この眼球の表面に円形形状の虹彩32があり、虹彩32の中央に円形形状の瞳孔33がある。
【0030】
したがって、視線11bの方向は、眼球中心31から虹彩32または瞳孔33の中央に向かう方向として特定でき、水平面内の基準方向に対する回転角度ヨー(yaw)、および上下方向の基準方向に対する回転角度ピッチ(pitch)により表すことができる。また、虹彩32または瞳孔33の中心座標は、眼球中心31を基準とした場合、眼球半径R、ヨー(yaw)、およびピッチ(pitch)により表すことができる。
【0031】
一方、カメラ12が撮影する映像は特定の2次元平面を表している。したがって、カメラ12の撮影で得た二次元画像34を眼球3Dモデル30に適用する場合には、二次元/三次元の相互変換を行う必要がある。そこで、例えば次の計算式を用いて変換する。
【0032】
X=-R×cos(pitch)×sin(yaw) …(1)
Y=R×sin(pitch) …(2)
X:二次元画像平面状での眼球中心31からのx方向の距離
Y:二次元画像平面状での眼球中心31からのy方向の距離
【0033】
<眼球追従モードにおける視線検出アルゴリズムの概要>
本発明にかかる実施形態の画像処理装置が実行する眼球追従モードにおける視線検出アルゴリズムの概要を説明する。
図7は、本発明に係る実施形態の画像処理装置が実行する眼球追従モードにおける視線検出アルゴリズムの概要を示すフローチャートである。画像処理装置のコンピュータが所定のプログラムを実行することにより、眼球追従モード部として機能し、
図7に示した眼球追従モードにおける視線検出アルゴリズムに従って動作が順次行われる。
【0034】
画像処理装置は、ステップS21でカメラ12からの映像の信号を1フレーム分取り込む。次のステップS22では、画像処理装置は、取り込んだ1フレーム分の画像のうち、直前(直近)の顔追従モードのステップS12で検出した顔領域R1に対応する領域(以下単に「顔領域R1」と略記)から瞼を検出する。詳しくは、画像処理装置は、
図5のステップS161と同様に、顔領域R1の中から、目領域R2を検出する。その後、画像処理装置は、目領域R2にエッジフィルタを用いてエッジ特徴量を抽出し、目頭位置を起点として瞼形状を模した円弧を探索する。瞼を検出することで、顔向き変動を伴う目の動き/瞬目を区別することができ、眼球追従精度が向上する。また、瞬目は「眼球運動のリセット機能」でもあるため、眼球運動解釈のための重要な情報となる。なお、ステップS22の瞼検出については省略してもよい。
【0035】
次のステップS23では、画像処理装置は、上記目領域R2から目頭を検出する。目頭は基本的な画像処理手法である、テンプレートマッチングを用いて検出することができる。また、エッジ方向を特徴点として、目頭の固有の形を探索する手法を用いてもよい。
【0036】
次のステップS24では、画像処理装置は、黒目を検出する。上述したステップS22で目領域R2が既に検出されているので、ステップS24において、画像処理装置は、
図5のステップS162~S164と同様のデータ処理を実行して、瞳孔33または虹彩32(黒目)を検出する。
【0037】
次のステップS25では、画像処理装置は、ステップS24で検出した瞳孔33または虹彩32の中心位置及び半径に基づいて、ステップS17と同様に、視線11bの方向を検出する。
【0038】
次のステップS26では、画像処理装置は、検出した視線11bの方向から視線11bの運動角、視線11bの速度を求めて、求めた視線11bの運動角、速度やステップS22、S23で検出した瞼、目頭の検出結果に基づいて、例えば跳躍運動(サッカード)、追従運動、視運動性眼振、固視運動、前庭動眼反射といった複数種類の眼球運動を検出する。
【0039】
次のステップS27では、画像処理装置は、検出した視線11bの方向の情報、眼球運動を保存すると共に、アプリケーションの必要に応じて出力した後、ステップS21に戻る。これにより、ステップS21~S27のループ状の処理を繰り返すことで、1フレーム毎にリアルタイムでの視線11b及び眼球運動の検出を実現する。
【0040】
<初期設定におけるアルゴリズムの概要>
本発明の実施形態の画像処理相違が実行する設定モードのアルゴリズムの概要を説明する。
図8は、本発明に係る実施形態の画像処理装置が実行する初期設定におけるアルゴリズムの概要を示すフローチャートである。画像処理装置のコンピュータが所定のプログラムを実行することにより、
図8に示した設定モードにおけるアルゴリズムに従って動作が順次行われる。
【0041】
画像処理装置は、ステップS31でカメラ12からの映像の信号を1フレーム分取り込む。次のステップS32~S35では、画像処理装置は、上述したステップS12~S15と同様に、顔検出、顔特徴点検出、顔向き検出、姿勢検出を行う。その後、ステップS36では、画像処理装置は、上述したステップS32~S35により検出した結果に基づいて、人物11が予め登録された運転者のうちどの運転者であるか個人認証を行う。その後、ステップS37において、画像処理装置は、検出した顔の位置、顔特徴点位置、顔の向き、視線11bの方向の情報を保存すると共に、アプリケーションの必要に応じて出力した後、処理を終了する。画像処理装置は、
図2に示すように、この初期設定を終了した後は自動的に顔追従モードでの視線検出を行う。なお、個人認証において、人物11が予め登録された運転者のいずれでもない場合は、エラーとなる。
【0042】
<顔追従モードから眼球追従モードへ遷移する条件A>
画像処理装置のコンピュータは、切替部として機能し、人物11の顔の動きが少なくなると、顔追従モードから眼球追従モードに遷移する。この顔の動きが少ない、との判断は下記のようにして行う。画像処理装置のコンピュータは、第1変位量算出部として機能し、顔領域R1から顔の予め定めた基準点(基準)を求め、求めた基準点の動きが少ない場合、顔の動きが少なくなると判断する。本実施形態では、基準点としてはステップS13の顔特徴点で検出した鼻や目頭などの特徴点を基準点とする。具体的には、下記の式(3)の式を満たすとき(顔の基準点の第1変位量ΔFPが、閾値VTaより小さいとき)、顔の動きが少ないと判断する。
【数1】
ΔFP:顔の基準点の第1変位量、FP
t(x、y):時刻tでの顔の基準点、FP
t-1(x、y):時刻tよりも1フレーム前の時刻t-1での顔の基準点、Δt:検定時間(=時刻t-時刻t-1)、VTa:閾値(第1所定値)
【0043】
また、画像処理装置は、人物11の顔の動きが大きくなると、眼球追従モードから顔追従モードに遷移する。この顔の動きが少ない、との判断は下記のようにして行う。画像処理装置のコンピュータは、第2変位量算出部として機能し、目領域R2のうち黒目以外の部分に目の予め定めた基準点を求め、求めた基準点の動きが大きい場合、顔の動きが大きいと判断する。本実施形態では、ステップS23で検出した目頭の位置を基準点とする。具体的には、下記の式(4)を満たすとき(目の基準点の第2変化量ΔEPが、閾値VTbより大きいとき)、顔の動きが大きいと判断する。
【数2】
ΔEP:目の基準点の第2変位量、EP
t(x、y):時刻tでの目の基準点、EP
t-1(x、y):時刻tよりも1フレーム前の時刻t-1での目の基準点、Δt:検定時間(=時刻t-時刻t-1)、VTb:閾値(第2所定値)
【0044】
<モード移行の閾値VTa、VTbについて>
両眼でみることのできる±60°の範囲のうち、サッカードのみで視野を探索できる範囲は±15°と言われている(高齢者と視線、H30.11.25日本交通医学工学研究会会報 第52号 東海大学 山田光穂)。サッカードで検索できる範囲外のものを見ようとしたときに、顔向きに伴う視認行動が発生する。この値を考慮し、Vta、Vtbの基準値は(±15°/τ)で求めることができる。実際のシステムでは、入力画像の解像度や計測誤差、カメラのフレームレート等を考慮して設定する。
【0045】
<各モードで実行される処理>
次に、画像処理装置が、各モードで実行する処理について
図9を参照して説明する。同図に示すように、初期設定モードにおいて画像処理装置は、顔検出、顔特徴点検出、顔向き検出、姿勢検出を実行する。顔追従モードにおいて画像処理装置は、顔検出、顔特徴検出、顔向き検出、姿勢検出、黒目検出、視線検出を実行する。眼球追従モードにおいて画像処理装置は、瞼検出、黒目検出、目頭検出、視線検出、眼球運動検出を実行する。
【0046】
上述した実施形態によれば、顔追従モードにおいて、画像から顔及び黒目を検出し、眼球追従モードにおいて、画像から黒目を検出する。
図10を参照して詳しく説明すると、従来品では、画像処理装置は、顔追従モードでのみ検出を行っているため、顔、特徴点検出及び黒目検出の両方を必ず行っていた。特に、顔、特徴点検出は、黒目検出に比べて処理量が多く、処理時間が長い。一方、
図1に示す本実施品の画像処理装置は、顔が動いていない期間は、眼球追従モードに切り替えられ、顔、特徴点の検出を行わずに、黒目検出のみ行っている。これにより、目頭、瞼検出を行ったとしても、顔追従モードでの処理時間に比べて眼球追従モードでの処理時間が短くなり、高速で画像処理を行うことができる。よって、眼球追従モードでは、非常に微細な運動である眼球運動を検出することができる。
【0047】
上述した実施形態によれば、画像処理装置は、眼球追従モードにおいて、顔追従モードにより検出された顔領域R1を利用して、黒目を検出する。これにより、眼球追従モードにおいて、顔領域R1の検出を省略できるので、より一層、処理負担の低減を図ることができる。
【0048】
上述した実施形態によれば、顔の動きが大きい場合、顔を検出して精度向上を図り、顔の変動が小さい場合、黒目だけ検出して処理負担の低減を図ることができる。
【0049】
上述した実施形態によれば、画像処理装置は、顔追従モードにおいては、顔の基準点の第1変位量ΔFPを求めることにより、顔の動きが小さいことを容易に判定できる。
【0050】
上述した実施形態によれば、画像処理装置は、眼球追従モードにおいては、目の基準点の第2変位量ΔEPを求めることにより、顔の動きが大きいことを容易に判定できる。
【0051】
なお、本発明は、上述した実施形態に限定されるものではなく、適宜、変形、改良、等が可能である。その他、上述した実施形態における各構成要素の材質、形状、寸法、数、配置箇所、等は本発明を達成できるものであれば任意であり、限定されない。
【0052】
上述した実施形態によれば、眼球追従モードにおいて、画像処理装置は、画像のうち、直近の顔追従モードで検出した顔領域R1をデータ処理して、目領域R2を求め、さらに目領域R2をデータ処理して黒目を検出していたいが、これに限ったものではない。画像処理装置は、画像のうち直近の顔追従モードで検出した目領域R2をデータ処理して、黒目を検出するようにしてもよい。これにより、画像処理装置では、眼球追従モードで目領域R2の検出をさらに省略することができり、より処理負担の低減を図ることができる。
【0053】
また、上述した実施形態によれば、顔の基準点として、鼻や目頭などの特徴点を用いていたが、これに限ったものではない。例えば、目尻などの特徴点を基準点としてもよいし、顔領域R1からエッジを抽出し、抽出したエッジの中心を顔の基準点としてもよい。
【0054】
また、上述した実施形態によれば、目の基準点として、目頭を用いていたが、これに限ったものではない。例えば、目頭などの特徴点を基準点としてもよいし、目領域R2からエッジを抽出し、抽出したエッジの中心を目の基準点としてもよい。
【0055】
また、上述した実施形態によれば、画像処理装置が行うデータ処理は、車両内10に搭載された処理部13が全て行っていたが、これに限ったものではない。例えば、処理部13が外部のサーバ装置と通信可能に設けられ、サーバ装置が画像に対するデータ処理の全部または一部を実行するようにしてもよい。
【0056】
ここで、上述した本発明に係る画像処理装置、画像処理方法及び画像処理プログラムの実施形態の特徴をそれぞれ以下[1]~[10]に簡潔に纏めて列記する。
[1]
顔を含むように撮影された画像に対してデータ処理を行うデータ処理部(13)を備える画像処理装置であって、
前記データ処理部(13)は、
前記画像中の顔及び黒目を検出する顔追従モード部(13)と、
前記画像中の黒目を検出する眼球追従モード部(13)と、を有する、
画像処理装置。
[2]
[1]に記載の画像処理装置であって、
前記顔追従モード部(13)は、前記画像に対してデータ処理を行い前記顔が撮影されている顔領域(R1)を検出し、前記顔領域(R1)に対してデータ処理を行い目が撮影されている目領域(R2)を検出し、前記目領域(R2)に対してデータ処理を行い黒目を検出し、
前記眼球追従モード部(13)は、前記画像のうち、直近に実行された前記顔追従モード部(13)により検出された前記顔領域(R1)又は前記目領域(R2)に対してデータ処理を行い前記黒目を検出する、
画像処理装置。
[3]
[1]又は[2]に記載の画像処理装置であって、
前記データ処理部(13)は、前記顔追従モード部(13)及び前記眼球追従モード部(13)のうち何れか一方に前記黒目の検出を実行させる切替部(13)を有する、
画像処理装置。
[4]
[3]に記載の画像処理装置であって、
前記切替部(13)は、前記顔の動きが大きい場合に、前記顔追従モード部(13)による検出を実行させ、前記顔の動きが小さい場合に、前記眼球追従モード部(13)による検出を実行させる、
画像処理装置。
[5]
[4]
に記載の画像処理装置であって、
前記顔追従モード部(13)による検出時に、前記画像内における前記顔の基準の第1変位量を求める第1変位量算出部を備え、
前記切替部(13)は、前記第1変位量が第1所定値よりも小さい場合に、前記顔の動きが小さいと判定して、前記顔追従モード部(13)から前記眼球追従モード部(13)に切り替える、
画像処理装置。
[6]
[5]に記載の画像処理装置であって、
前記第1変位量算出部は(13)、前記画像内における前記顔のエッジ点を抽出し、当該抽出したエッジ点の中心を前記顔の基準とする、又は、前記画像内における前記顔の特徴点を前記顔の基準とする、
画像処理装置。
[7]
[4]~[6]何れか1項に記載の画像処理装置であって、
前記眼球追従モード部(13)による検出時に、前記画像内における目の基準の第2変位量を求める第2変位量算出部(13)を備え、
前記切替部(13)は、前記第2変位量が第2所定値よりも大きい場合に、前記顔の動きが大きいと判定して、前記眼球追従モード部(13)から前記顔追従モード部(13)に切り替える、
画像処理装置。
[8]
[7]に記載の画像処理装置であって、
前記第2変位量算出部(13)は、前記画像内における前記目のエッジ点を抽出し、当該抽出したエッジ点の中心を前記目の基準とする、又は、前記画像内における前記目の特徴点を前記目の基準とする、
画像処理装置。
[9]
顔を含むように撮影された画像に対してデータ処理を行う画像処理方法であって、
前記画像中の顔及び黒目を検出する顔追従ステップと、
前記画像中の黒目を検出する眼球追従ステップと、を有する、
画像処理方法。
[10]
コンピュータ(13)に[9]に記載の画像処理方法の各ステップを実行させるための画像処理プログラム。
【符号の説明】
【0057】
13 処理部(データ処理部、顔追従モード部、眼球追従モード部、切替部、第1変位量算出部、第2変位量算出部、コンピュータ)
R1 顔領域
R2 目領域