(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024162514
(43)【公開日】2024-11-21
(54)【発明の名称】開閉眼推定装置、開閉眼推定方法及びプログラム
(51)【国際特許分類】
G06T 7/00 20170101AFI20241114BHJP
G06T 7/20 20170101ALI20241114BHJP
G08G 1/16 20060101ALI20241114BHJP
【FI】
G06T7/00 660A
G06T7/20 300B
G06T7/00 350B
G08G1/16 F
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023078078
(22)【出願日】2023-05-10
(71)【出願人】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(71)【出願人】
【識別番号】000000011
【氏名又は名称】株式会社アイシン
(74)【代理人】
【識別番号】100099759
【弁理士】
【氏名又は名称】青木 篤
(74)【代理人】
【識別番号】100123582
【弁理士】
【氏名又は名称】三橋 真二
(74)【代理人】
【識別番号】100092624
【弁理士】
【氏名又は名称】鶴田 準一
(74)【代理人】
【識別番号】100147555
【弁理士】
【氏名又は名称】伊藤 公一
(74)【代理人】
【識別番号】100123593
【弁理士】
【氏名又は名称】関根 宣夫
(74)【代理人】
【識別番号】100133835
【弁理士】
【氏名又は名称】河野 努
(72)【発明者】
【氏名】江▲崎▼ 大嗣
【テーマコード(参考)】
5H181
5L096
【Fターム(参考)】
5H181AA01
5H181BB13
5H181BB20
5H181CC03
5H181CC04
5H181CC12
5H181CC14
5H181EE02
5H181FF04
5H181FF22
5H181FF27
5H181FF32
5H181LL09
5H181LL20
5L096AA06
5L096BA04
5L096CA04
5L096DA02
5L096FA09
5L096FA67
5L096GA08
5L096HA02
5L096HA04
5L096KA04
(57)【要約】
【課題】開閉眼推定対象者が伏目状態のときであっても開閉眼推定対象者が開眼状態であるか否かを適切に判定する。
【解決手段】開閉眼推定装置10は、開閉眼推定対象者の顔を含む画像から切り出された開閉眼推定対象者の目領域の画像に基づいて開閉眼推定対象者が開眼状態であるか否かを判定する開閉眼判定部234と、開閉眼判定部234の判定結果の信頼度を算出する信頼度算出部235と、信頼度が閾値以下である場合に開閉眼推定対象者の瞼動作を検出する瞼動作検出部236と、瞼動作検出部236の検出結果に基づいて判定結果を補正する補正部237とを備える。
【選択図】
図4
【特許請求の範囲】
【請求項1】
開閉眼推定対象者の顔を含む画像から切り出された前記開閉眼推定対象者の目領域の画像に基づいて前記開閉眼推定対象者が開眼状態であるか否かを判定する開閉眼判定部と、
前記開閉眼判定部の判定結果の信頼度を算出する信頼度算出部と、
前記信頼度が閾値以下である場合に前記開閉眼推定対象者の瞼動作を検出する瞼動作検出部と、
前記瞼動作検出部の検出結果に基づいて前記判定結果を補正する補正部とを備える開閉眼推定装置。
【請求項2】
前記補正部は、
前記開閉眼判定部によって前記開閉眼推定対象者が閉眼状態であると判定され、かつ、前記前記瞼動作検出部によって前記開閉眼推定対象者の瞼動作が検出された場合に、
前記開閉眼推定対象者が閉眼状態であることを示す前記判定結果を前記開閉眼推定対象者が開眼状態であることを示す前記判定結果に補正する、請求項1に記載の開閉眼推定装置。
【請求項3】
前記補正部は、
前記開閉眼判定部によって前記開閉眼推定対象者が開眼状態であると判定され、かつ、前記前記瞼動作検出部によって前記開閉眼推定対象者の瞼動作が検出されなかった場合に、
前記開閉眼推定対象者が開眼状態であることを示す前記判定結果を前記開閉眼推定対象者が閉眼状態であることを示す前記判定結果に補正する、請求項1又は2に記載の開閉眼推定装置。
【請求項4】
前記開閉眼推定対象者の顔を含む画像から前記開閉眼推定対象者の顔特徴点を検出する顔特徴点検出部を備え、
前記信頼度算出部は、
前記顔特徴点検出部の検出結果を用いることによって前記開閉眼推定対象者の顔向きを算出し、
前記開閉眼推定対象者の顔向きが下向きであるほど、前記信頼度として低い値を算出する、請求項1又は2に記載の開閉眼推定装置。
【請求項5】
前記信頼度算出部は、予め学習された機械学習モデルを用いることによって前記信頼度を算出し、
前記機械学習モデルの学習は、所定の画像を用いて行われ、
前記信頼度算出部は、
前記所定の画像に対する前記開閉眼判定部の判定対象の画像の類似度を算出し、
前記所定の画像に対する前記開閉眼判定部の判定対象の画像の類似度が高いほど、前記信頼度として低い値を算出する、請求項1又は2に記載の開閉眼推定装置。
【請求項6】
前記瞼動作検出部は、前記開閉眼推定対象者の顔を含む動画像の一部を構成する第1フレーム画像と、前記第1フレーム画像とは異なる第2フレーム画像との差分画像を用いて前記開閉眼推定対象者の瞼動作を検出する、請求項1又は2に記載の開閉眼推定装置。
【請求項7】
前記瞼動作検出部は、前記開閉眼推定対象者の顔を含む画像のオプティカルフローを算出し、前記オプティカルフローを用いて前記開閉眼推定対象者の瞼動作を検出する、請求項1又は2に記載の開閉眼推定装置。
【請求項8】
前記瞼動作検出部は、時系列データとしての前記開閉眼推定対象者の顔を含む動画像から、時系列モデルを用いて前記開閉眼推定対象者の瞼動作を検出する、請求項1又は2に記載の開閉眼推定装置。
【請求項9】
開閉眼推定装置が、開閉眼推定対象者の顔を含む画像から切り出された前記開閉眼推定対象者の目領域の画像に基づいて前記開閉眼推定対象者が開眼状態であるか否かを判定する開閉眼判定ステップと、
前記開閉眼判定ステップの判定結果の信頼度を算出する信頼度算出ステップと、
前記信頼度が閾値以下である場合に前記開閉眼推定対象者の瞼動作を検出する瞼動作検出ステップと、
前記瞼動作検出ステップの検出結果に基づいて前記判定結果を補正する補正ステップとを備える開閉眼推定方法。
【請求項10】
プロセッサに、
開閉眼推定対象者の顔を含む画像から切り出された前記開閉眼推定対象者の目領域の画像に基づいて前記開閉眼推定対象者が開眼状態であるか否かを判定する開閉眼判定ステップと、
前記開閉眼判定ステップの判定結果の信頼度を算出する信頼度算出ステップと、
前記信頼度が閾値以下である場合に前記開閉眼推定対象者の瞼動作を検出する瞼動作検出ステップと、
前記瞼動作検出ステップの検出結果に基づいて前記判定結果を補正する補正ステップとを実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、開閉眼推定装置、開閉眼推定方法及びプログラムに関する。
【背景技術】
【0002】
特許文献1には、閉眼開眼判定部により開眼度に基づく開眼状態及び閉眼状態が検知される眠気度推定装置について記載されている。特許文献1に記載された技術では、画像センサがドライバーの顔の画像を撮影し、顔特徴点検出部がドライバーの顔画像の中からドライバー(測定対象者)の顔の特徴点を検出し、開眼度算出部が、特徴点に基づいて複数の曲線をエッジ画像上に投影し、その曲線状のエッジの強度から上下瞼位置を検出し、上下瞼位置のY座標の差から測定対象者の開眼度を算出し、閉眼・開眼判定部が開眼度の閾値処理をおこなって開眼状態・閉眼状態を判定する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、開閉眼推定対象者が開眼状態かつ伏目状態(正面を向いている開閉眼推定対象者がまつ毛のエクステンションをつけおり、開閉眼推定対象者の目の一部がドライバモニタカメラから見えない状態を含む)のときには、開閉眼推定対象者があたかも閉眼状態であるかのように見える。そのため、開閉眼推定対象者が開眼状態かつ伏目状態であるのか、あるいは、開閉眼推定対象者が閉眼状態であるかの区別がつきづらい。
【0005】
一方、特許文献1には、開閉眼推定対象者が開眼状態かつ伏目状態のときに開閉眼推定対象者が開眼状態であると適切に判定するために必要な処理について記載されていない。そのため、特許文献1に記載された技術によっては、開閉眼推定対象者が開眼状態かつ伏目状態のときに開閉眼推定対象者が開眼状態であると適切に判定できないおそれがある。
【0006】
上述した点に鑑み、本発明は、開閉眼推定対象者が伏目状態のときであっても開閉眼推定対象者が開眼状態であるか否かを適切に判定することができる開閉眼推定装置、開閉眼推定方法及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
(1)本発明の一態様は、開閉眼推定対象者の顔を含む画像から切り出された前記開閉眼推定対象者の目領域の画像に基づいて前記開閉眼推定対象者が開眼状態であるか否かを判定する開閉眼判定部と、前記開閉眼判定部の判定結果の信頼度を算出する信頼度算出部と、前記信頼度が閾値以下である場合に前記開閉眼推定対象者の瞼動作を検出する瞼動作検出部と、前記瞼動作検出部の検出結果に基づいて前記判定結果を補正する補正部とを備える開閉眼推定装置である。
【0008】
(2)(1)の開閉眼推定装置では、前記補正部は、前記開閉眼判定部によって前記開閉眼推定対象者が閉眼状態であると判定され、かつ、前記前記瞼動作検出部によって前記開閉眼推定対象者の瞼動作が検出された場合に、前記開閉眼推定対象者が閉眼状態であることを示す前記判定結果を前記開閉眼推定対象者が開眼状態であることを示す前記判定結果に補正してもよい。
【0009】
(3)(1)又は(2)の開閉眼推定装置では、前記補正部は、前記開閉眼判定部によって前記開閉眼推定対象者が開眼状態であると判定され、かつ、前記前記瞼動作検出部によって前記開閉眼推定対象者の瞼動作が検出されなかった場合に、前記開閉眼推定対象者が開眼状態であることを示す前記判定結果を前記開閉眼推定対象者が閉眼状態であることを示す前記判定結果に補正してもよい。
【0010】
(4)(1)~(3)のいずれかの開閉眼推定装置は、前記開閉眼推定対象者の顔を含む画像から前記開閉眼推定対象者の顔特徴点を検出する顔特徴点検出部を備え、前記信頼度算出部は、前記顔特徴点検出部の検出結果を用いることによって前記開閉眼推定対象者の顔向きを算出し、前記開閉眼推定対象者の顔向きが下向きであるほど、前記信頼度として低い値を算出してもよい。
【0011】
(5)(1)~(4)のいずれかの開閉眼推定装置では、前記信頼度算出部は、予め学習された機械学習モデルを用いることによって前記信頼度を算出し、前記機械学習モデルの学習は、所定の画像を用いて行われ、前記信頼度算出部は、前記所定の画像に対する前記開閉眼判定部の判定対象の画像の類似度を算出し、前記所定の画像に対する前記開閉眼判定部の判定対象の画像の類似度が高いほど、前記信頼度として低い値を算出してもよい。
【0012】
(6)(1)~(5)のいずれかの開閉眼推定装置では、前記瞼動作検出部は、前記開閉眼推定対象者の顔を含む動画像の一部を構成する第1フレーム画像と、前記第1フレーム画像とは異なる第2フレーム画像との差分画像を用いて前記開閉眼推定対象者の瞼動作を検出してもよい。
【0013】
(7)(1)~(6)のいずれかの開閉眼推定装置では、前記瞼動作検出部は、前記開閉眼推定対象者の顔を含む画像のオプティカルフローを算出し、前記オプティカルフローを用いて前記開閉眼推定対象者の瞼動作を検出してもよい。
【0014】
(8)(1)~(7)のいずれかの開閉眼推定装置では、前記瞼動作検出部は、時系列データとしての前記開閉眼推定対象者の顔を含む動画像から、時系列モデルを用いて前記開閉眼推定対象者の瞼動作を検出してもよい。
【0015】
(9)本発明の一態様は、開閉眼推定装置が、開閉眼推定対象者の顔を含む画像から切り出された前記開閉眼推定対象者の目領域の画像に基づいて前記開閉眼推定対象者が開眼状態であるか否かを判定する開閉眼判定ステップと、前記開閉眼判定ステップの判定結果の信頼度を算出する信頼度算出ステップと、前記信頼度が閾値以下である場合に前記開閉眼推定対象者の瞼動作を検出する瞼動作検出ステップと、前記瞼動作検出ステップの検出結果に基づいて前記判定結果を補正する補正ステップとを備える開閉眼推定方法である。
【0016】
(10)本発明の一態様は、プロセッサに、開閉眼推定対象者の顔を含む画像から切り出された前記開閉眼推定対象者の目領域の画像に基づいて前記開閉眼推定対象者が開眼状態であるか否かを判定する開閉眼判定ステップと、前記開閉眼判定ステップの判定結果の信頼度を算出する信頼度算出ステップと、前記信頼度が閾値以下である場合に前記開閉眼推定対象者の瞼動作を検出する瞼動作検出ステップと、前記瞼動作検出ステップの検出結果に基づいて前記判定結果を補正する補正ステップとを実行させるためのプログラムである。
【発明の効果】
【0017】
本発明によれば、開閉眼推定対象者が伏目状態のときであっても開閉眼推定対象者が開眼状態であるか否かを適切に判定することができる。
【図面の簡単な説明】
【0018】
【
図1】第1実施形態の開閉眼推定装置10が適用された車両1の概略構成の一例を示す図である。
【
図2】
図1に示す開閉眼推定装置10の具体的な構成の一例を示す図である。
【
図3】
図1に示すドライバモニタカメラ7の配置の一例を示す図である。
【
図4】第1実施形態の開閉眼推定装置10のプロセッサ23によって実行される処理の一例を説明するためのフローチャートである。
【
図5】第5実施形態の開閉眼推定装置60が適用された端末装置51の概略構成の一例を示す図である。
【発明を実施するための形態】
【0019】
以下、図面を参照し、本発明の開閉眼推定装置、開閉眼推定方法及びプログラムの実施形態について説明する。
【0020】
<第1実施形態>
図1は第1実施形態の開閉眼推定装置10が適用された車両1の概略構成の一例を示す図である。
図2は
図1に示す開閉眼推定装置10の具体的な構成の一例を示す図である。
【0021】
図1及び
図2に示す例では、車両1が、車外カメラ2と、レーダー3と、LiDAR(Light Detection And Ranging)4と、自動運転ECU(Electronic Control Unit)12とを備えている。車外カメラ2は、車両1の周辺車両及び車両1の周辺の道路環境(例えば道路構造、ルール等)を示す画像を撮像し、周辺車両及び周辺の道路環境を示す画像データを生成して自動運転ECU12に送信する。レーダー3は、例えばミリ波レーダー等であり、車両1に対する周辺車両及び周辺の道路構造の相対位置及び相対速度を検出し、その検出結果を自動運転ECU12に送信する。LiDAR4は、車両1に対する周辺車両及び周辺の道路構造の相対位置及び相対速度を検出し、その検出結果を自動運転ECU12に送信する。
【0022】
また、車両1は、GPS(Global Positioning System)ユニット5と、地図情報ユニット6とを備えている。GPSユニット5は、GPS信号に基づいて車両1の現在位置を示す位置情報を取得し、車両1の位置情報を自動運転ECU12に送信する。地図情報ユニット6は、例えば車両1に搭載されたHDD(Hard Disk Drive)、SSD(Solid State Drive)等のストレージ内に形成されている。地図情報ユニット6が有する地図情報には、道路構造(道路の位置、道路の形状、車線構造等)、ルール等の各種の情報が含まれる。
更に、車両1は、ドライバモニタカメラ7と、HMI(Human Machine Interface)8と、開閉眼推定装置10を備えている。ドライバモニタカメラ7は、開閉眼推定対象者としての車両1の運転者の顔を含む画像(詳細には、動画像)を撮像する。
【0023】
図3は
図1に示すドライバモニタカメラ7の配置の一例を示す図である。
図1~
図3に示す例では、ドライバモニタカメラ7が、車両1の運転者の顔及び上半身の一部を撮像することができるように、車両1のステアリングコラム(図示せず)の上部に配置されている。
他の例では、ドライバモニタカメラ7が車両1のセンタークラスタに配置されたり、ドライバモニタカメラ7が車両1のルームミラー、メータパネル、メータフード等に配置されたりしてもよい。これらの例においても、ドライバモニタカメラ7は、車両1の運転者の顔及び上半身の一部を撮像することができる。
【0024】
図1及び
図2に示す例では、HMI8が、開閉眼推定装置10等と運転者との間で情報の入出力を行うためのインターフェースである。HMI8は、運転者に各種情報を提供するための情報提供装置、具体的には、文字、画像等を表示するディスプレイ、音声を出力するスピーカ等を備えている。また、HMI8は、運転者の入力操作を受け付ける操作ボタン、タッチパネル等を備えている。
車外カメラ2とレーダー3とLiDAR4とGPSユニット5と地図情報ユニット6とドライバモニタカメラ7とHMI8と開閉眼推定装置10と自動運転ECU12とは、車内ネットワーク13を介して接続されている。
【0025】
また、車両1は、操舵アクチュエータ14と、制動アクチュエータ15と、駆動アクチュエータ16とを備えている。操舵アクチュエータ14には、例えばパワーステアリングシステム、ステアバイワイヤ操舵システム、後輪操舵システム等が含まれる。制動アクチュエータ15は、車両1を減速させる機能を有する。制動アクチュエータ15には、例えば油圧ブレーキ、電力回生ブレーキ等が含まれる。駆動アクチュエータ16は、車両1を加速させる機能を有する。駆動アクチュエータ16には、例えばエンジン、EV(電気自動車)システム、ハイブリッドシステム、燃料電池システム等が含まれる。
【0026】
図1及び
図2に示す例では、自動運転ECU12が、SAE(Society of Automotive Engineers)の定義によるレベル3の運転制御レベル、すなわち、運転者による操舵アクチュエータ14、制動アクチュエータ15及び駆動アクチュエータ16の操作及び車両1の周囲の監視を必要としない運転制御レベルで車両1を制御可能である。また、自動運転ECU12は、運転者が車両1の運転に関与する運転制御レベル、例えばSAEの定義によるレベル0~2の運転制御レベルで車両1を制御する機能を有する。
図1及び
図2に示す例では、車両1が、自動運転車両であり、自動運転ECU12を備えているが、他の例では、車両1が、手動運転車両であり、自動運転制御機能を有さないECU(例えば運転支援ECU等)を自動運転ECU12の代わりに備えていてもよい。
【0027】
SAEの定義によるレベル3の自動運転では、運転交代要請にスムーズに対応できない運転者の居眠り等が許容されない。
そこで、
図1及び
図2に示す例では、開閉眼推定装置10が、ドライバモニタカメラ7を用いることにより、運転者が居眠りしているか否かを監視するために運転者が開眼状態であるか否かを推定する。
【0028】
ドライバモニタカメラ7が車両1のステアリングコラムの上部に配置されたり(
図3に示す例)、ドライバモニタカメラ7が車両1のセンタークラスタに配置されたりする場合、開閉眼推定対象者としての車両1の運転者が開眼状態かつ伏目状態(正面を向いている開閉眼推定対象者がまつ毛のエクステンションをつけおり、開閉眼推定対象者の目の一部がドライバモニタカメラ7から見えない状態を含む)のときに、開閉眼推定対象者があたかも閉眼状態であるかのようにドライバモニタカメラ7の位置から見える。そのため、開閉眼推定対象者が開眼状態かつ伏目状態であるのか、あるいは、開閉眼推定対象者が閉眼状態であるかの区別がつきづらい。
その点に鑑み、第1実施形態の開閉眼推定装置10では、後述する対策が施されている。
【0029】
図1及び
図2に示す例では、開閉眼推定装置10が、開閉眼推定対象者としての車両1の運転者が開眼状態であるか否かを推定する。開閉眼推定装置10は、通信インターフェース(I/F)21とメモリ22とプロセッサ23とを備えるマイクロコンピュータによって構成されている。通信インターフェース21とメモリ22とプロセッサ23とは、信号線24を介して接続されている。通信インターフェース21は、開閉眼推定装置10を車内ネットワーク13に接続するためのインターフェース回路を有する。メモリ22は、記憶部の一例であり、例えば揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。メモリ22は、プロセッサ23により実行される処理において使用されるプログラム及び各種のデータを記憶する。プロセッサ23は、車両1の運転者が開眼状態であるか否かを判定する機能等を有する。
図1及び
図2に示す例では、開閉眼推定装置10が1つのプロセッサ23を備えているが、他の例では、開閉眼推定装置10が複数のプロセッサを備えていてもよい。また、
図1及び
図2に示す例では、開閉眼推定装置10が1つのECU(例えばドライバモニタECU)によって構成されているが、他の例では、開閉眼推定装置10が複数のECU(例えばドライバモニタECU、報知ECU等)によって構成されていてもよい。
【0030】
図1及び
図2に示す例では、プロセッサ23が、取得部231と、顔特徴点検出部232と、目領域画像切り出し部233と、開閉眼判定部234と、信頼度算出部235と、瞼動作検出部236と、補正部237とを備えている。
取得部231は、ドライバモニタカメラ7によって撮像された開閉眼推定対象者としての車両1の運転者の顔を含む画像を取得する。
【0031】
顔特徴点検出部232は、例えば公知の顔特徴点検出(抽出)技術を用いることにより、取得部231によって取得された車両1の運転者の顔を含む画像から、車両1の運転者の顔特徴点としての目尻及び目頭を抽出する。
【0032】
目領域画像切り出し部233は、例えば公知の目領域画像切り出し技術を用いることにより、顔特徴点検出部232によって抽出された車両1の運転者の顔特徴点(つまり、顔特徴点検出部232の検出結果としての目尻及び目頭)を使用して車両1の運転者の顔を含む画像から目領域の画像を切り出す。
【0033】
開閉眼判定部234は、例えば公知の開閉眼判定技術を用いることにより、目領域画像切り出し部233によって切り出された車両1の運転者の目領域の画像に基づいて車両1の運転者が開眼状態であるか否かを判定する。
【0034】
信頼度算出部235は、開閉眼判定部234の判定結果の信頼度を算出する。具体的には、信頼度算出部235が、例えば公知の顔向き判定技術を用いることにより、顔特徴点検出部232の検出結果(つまり、車両1の運転者の例えば目尻、目頭、口角等の顔特徴点)を使用して車両1の運転者の顔向きを算出する。更に、信頼度算出部235は、車両1の運転者の顔の正面に対する顔向きのずれが大きいほど、開閉眼判定部234の判定結果の信頼度として低い値を算出する。具体的には、信頼度算出部235は、車両1の運転者の顔向きが下向きであるほど、開閉眼判定部234の判定結果の信頼度として低い値を算出する。
例えば、車両1の運転者が伏目状態のときに、信頼度算出部235は、車両1の運転者の顔向きとして「下向き」を算出し、開閉眼判定部234の判定結果の信頼度として低い値を算出する。
【0035】
瞼動作検出部236は、信頼度算出部235によって算出された信頼度が所定の閾値以下である場合に、車両1の運転者の瞼動作(詳細には、例えば瞬き等の目の動きの有無)を検出する。詳細には、瞼動作検出部236が、例えば公知の差分画像処理技術を用いることにより、ドライバモニタカメラ7によって撮像された車両1の運転者の顔を含む動画像の一部を構成する第1フレーム画像(例えば現在の画像)と、その第1フレーム画像とは異なる第2フレーム画像(例えば過去の画像)との差分画像を使用して車両1の運転者の瞼動作を検出する。つまり、瞼動作検出部236は、第1フレーム画像と第2フレーム画像との間で変化が大きい部分を強調することによって、車両1の運転者の瞼動作を検出する。
【0036】
図1及び
図2に示す例では、瞼動作検出部236が、車両1の運転者の瞼動作を検出するときに、顔特徴点検出部232の検出結果(顔特徴点検出部232によって検出された車両1の運転者の顔特徴点)を利用しないが、他の例では、瞼動作検出部236が、車両1の運転者の瞼動作を検出するときに、顔特徴点検出部232の検出結果を利用してもよい。
【0037】
図1及び
図2に示す例では、補正部237が、瞼動作検出部236の検出結果に基づいて開閉眼判定部234の判定結果を補正する。
具体的には、車両1の運転者が開眼状態(瞼動作検出部236によって車両1の運転者の瞼動作が検出される状態)かつ伏目状態のとき、仮に、開閉眼判定部234が、車両1の運転者が閉眼状態であると誤判定した場合に、信頼度算出部235は、車両1の運転者の顔向きとして「下向き」を算出して、車両1の運転者が閉眼状態であることを示す開閉眼判定部234の判定結果の信頼度として低い値を算出し、補正部237は、車両1の運転者が閉眼状態であることを示す開閉眼判定部234の判定結果を車両1の運転者が開眼状態であることを示す開閉眼判定部234の判定結果に補正する。
また、車両1の運転者が閉眼状態(瞼動作検出部236によって車両1の運転者の瞼動作が検出されない状態)かつ伏目状態のとき、仮に、開閉眼判定部234が、車両1の運転者が開眼状態であると誤判定した場合に、信頼度算出部235は、車両1の運転者の顔向きとして「下向き」を算出して、車両1の運転者が開眼状態であることを示す開閉眼判定部234の判定結果の信頼度として低い値を算出し、補正部237は、車両1の運転者が開眼状態であることを示す開閉眼判定部234の判定結果を車両1の運転者が閉眼状態であることを示す開閉眼判定部234の判定結果に補正する。
【0038】
図1及び
図2に示す例では、補正部237が、車両1の運転者が開眼状態であることを示す開閉眼判定部234の判定結果を車両1の運転者が閉眼状態であることを示す開閉眼判定部234の判定結果に修正する補正を行うが、他の例では、補正部237が、車両1の運転者が開眼状態であることを示す開閉眼判定部234の判定結果を車両1の運転者が閉眼状態であることを示す開閉眼判定部234の判定結果に修正する補正を行わなくてもよい。
【0039】
図4は第1実施形態の開閉眼推定装置10のプロセッサ23によって実行される処理の一例を説明するためのフローチャートである。
図4に示す例では、ステップS10において、取得部231が、ドライバモニタカメラ7によって撮像された開閉眼推定対象者としての車両1の運転者の顔を含む画像を取得する。
ステップS11では、顔特徴点検出部232が、ステップS10において取得された車両1の運転者の顔を含む画像から、車両1の運転者の顔特徴点としての目尻及び目頭を抽出する。
ステップS12では、目領域画像切り出し部233が、ステップS11において抽出された車両1の運転者の顔特徴点(目尻及び目頭)を使用して車両1の運転者の顔を含む画像から目領域の画像を切り出す。
【0040】
ステップS13では、開閉眼判定部234が、ステップS12において切り出された車両1の運転者の目領域の画像に基づいて車両1の運転者が開眼状態であるか否かを判定する。
ステップS14では、信頼度算出部235が、ステップS13における車両1の運転者が開眼状態であるか否かの判定結果の信頼度を算出する。
ステップS15では、例えば信頼度算出部235が、ステップS14において算出された信頼度が閾値以下であるか否かを判定する。YESの場合にはステップS16に進み、NOの場合には
図4に示すルーチンを終了する。
ステップS16では、瞼動作検出部236が、車両1の運転者の瞼動作を検出する。
【0041】
ステップS17では、補正部237が、ステップS16における車両1の運転者の瞼動作の検出結果に基づいて、ステップS13における車両1の運転者が開眼状態であるか否かの判定結果を補正する。
詳細には、ステップS13において車両1の運転者が閉眼状態であると判定された場合であって、ステップS16において車両1の運転者の瞼動作が検出された場合に、補正部237は、車両1の運転者の瞼動作が検出されたことを示すステップS16における検出結果に基づいて、車両1の運転者が閉眼状態であることを示すステップS13における判定結果を、車両1の運転者が開眼状態であることを示す判定結果に補正する。
一方、ステップS13において車両1の運転者が閉眼状態であると判定された場合であって、ステップS16において車両1の運転者の瞼動作が検出されなかった場合に、補正部237は、車両1の運転者の瞼動作が検出されなかったことを示すステップS16における検出結果に基づいて、車両1の運転者が閉眼状態であることを示すステップS13における判定結果を補正することなく維持する。
また、ステップS13において車両1の運転者が開眼状態であると判定された場合であって、ステップS16において車両1の運転者の瞼動作が検出されなかった場合に、補正部237は、車両1の運転者の瞼動作が検出されなかったことを示すステップS16における検出結果に基づいて、車両1の運転者が開眼状態であることを示すステップS13における判定結果を、車両1の運転者が閉眼状態であることを示す判定結果に補正する。
一方、ステップS13において車両1の運転者が開眼状態であると判定された場合であって、ステップS16において車両1の運転者の瞼動作が検出された場合に、補正部237は、車両1の運転者の瞼動作が検出されたことを示すステップS16における検出結果に基づいて、車両1の運転者が開眼状態であることを示すステップS13における判定結果を補正することなく維持する。
【0042】
すなわち、第1実施形態の開閉眼推定装置10では、車両1の運転者が開眼状態であるときに、例えば瞬き等のような車両1の運転者の瞼動作が検出され得るものの、車両1の運転者が閉眼状態であるときには車両1の運転者の瞼動作が検出され得ない(車両1の運転者が瞬き等をしない)、という考え方が採用されている。
【0043】
上述したように第1実施形態の開閉眼推定装置10では、車両1の運転者が開眼状態であるか否かが誤判定されやすいとき(車両1の運転者が開眼状態であるにもかかわらず、あたかも車両1の運転者が閉眼状態であるかのように見えるとき)である車両1の運転者が伏目状態のとき(車両1の運転者が下向きのとき)に、車両1の運転者の瞼動作の有無に基づいて、車両1の運転者が開眼状態であるか否かの判定結果が補正される。
そのため、第1実施形態の開閉眼推定装置10では、車両1の運転者が伏目状態のときであっても、車両1の運転者が開眼状態であるか否かを適切に判定することができる。
上述したように
図4に示す例では、信頼度が閾値以下である場合に車両1の運転者の瞼動作の検出結果に基づいて、車両1の運転者が開眼状態であるか否かの判定結果が補正される。他の例では、車両1の運転者が閉眼状態であると判定されたときに車両1の運転者の瞼動作の有無を検出し、車両1の運転者の瞼動作が検出された場合に、車両1の運転者が閉眼状態である旨の判定結果を、車両1の運転者が開眼状態である旨の判定結果に補正してもよい(つまり、信頼度を用いることなく瞼動作の検出結果に基づいて判定結果を補正してもよい)。
【0044】
<第2実施形態>
第2実施形態の開閉眼推定装置10が適用された車両1は、後述する点を除き、
図1に示す第1実施形態の開閉眼推定装置10が適用された車両1と同様に構成されている。また、第2実施形態の開閉眼推定装置10は、後述する点を除き、
図2に示す第1実施形態の開閉眼推定装置10と同様に構成されている。
【0045】
上述したように第1実施形態の開閉眼推定装置10では、信頼度算出部235が、顔特徴点検出部232の検出結果(つまり、車両1の運転者の例えば目尻、目頭、口角等の顔特徴点)を用いることによって車両1の運転者の顔向きを算出し、車両1の運転者の顔の正面に対する顔向きのずれが大きいほど(例えば車両1の運転者の顔向きが下向きであるほど)、開閉眼判定部234の判定結果の信頼度として低い値を算出する。
一方、第2実施形態の開閉眼推定装置10では、信頼度算出部235が、予め学習された機械学習モデルを用いることによって、開閉眼判定部234の判定結果の信頼度を算出する。
【0046】
第2実施形態の開閉眼推定装置10では、所定の画像(例えば車両1の運転者が伏目状態のときにおける車両1の運転者の目領域の画像、車両1の運転者が脇見状態のときにおける車両1の運転者の目領域の画像等のような、開閉眼判定部234の判定精度が低くなる傾向がある画像)を用いて機械学習モデルの学習が行われる。
また、信頼度算出部235は、学習済みの機械学習モデルを用いると共に、例えば公知の類似度計算技術を用いることにより、上述した所定の画像に対する開閉眼判定部234の判定対象の画像の類似度を算出する。更に、信頼度算出部235は、その所定の画像に対する開閉眼判定部234の判定対象の画像の類似度が高いほど、開閉眼判定部234の判定結果の信頼度として低い値を算出する。
第2実施形態の開閉眼推定装置10では、車両1の運転者の状態が、開閉眼判定部234の判定精度が低くなる傾向がある状態であるとき(つまり、車両1の運転者が開眼状態であるか否かの判定を開閉眼判定部234が苦手とするシーンであるとき)に、信頼度算出部235が、開閉眼判定部234の判定結果の信頼度として低い値を算出し、補正部237が、瞼動作検出部236の検出結果に基づいて開閉眼判定部234の判定結果を補正する。
そのため、第2実施形態の開閉眼推定装置10では、例えば車両1の運転者が伏目状態のとき、車両1の運転者が脇見状態のとき等のような開閉眼判定部234の判定精度が低くなる傾向があるときであっても、車両1の運転者が開眼状態であるか否かを適切に判定することができる。
【0047】
<第3実施形態>
第3実施形態の開閉眼推定装置10が適用された車両1は、後述する点を除き、
図1に示す第1実施形態の開閉眼推定装置10が適用された車両1と同様に構成されている。また、第3実施形態の開閉眼推定装置10は、後述する点を除き、
図2に示す第1実施形態の開閉眼推定装置10と同様に構成されている。
【0048】
上述したように第1実施形態の開閉眼推定装置10では、瞼動作検出部236が、第1フレーム画像と第2フレーム画像との差分画像を使用して車両1の運転者の瞼動作を検出する。
一方、第3実施形態の開閉眼推定装置10では、瞼動作検出部236が、例えば公知の映像分析技術を用いることによって、車両1の運転者の顔を含む画像のオプティカルフローを算出する。更に、瞼動作検出部236は、そのオプティカルフローを用いて車両1の運転者の瞼動作を検出する。
第3実施形態の開閉眼推定装置10においても、第1実施形態の開閉眼推定装置10と同様に、車両1の運転者が伏目状態のときであっても、車両1の運転者が開眼状態であるか否かを適切に判定することができる。
【0049】
<第4実施形態>
第4実施形態の開閉眼推定装置10が適用された車両1は、後述する点を除き、
図1に示す第1実施形態の開閉眼推定装置10が適用された車両1と同様に構成されている。また、第4実施形態の開閉眼推定装置10は、後述する点を除き、
図2に示す第1実施形態の開閉眼推定装置10と同様に構成されている。
【0050】
第4実施形態の開閉眼推定装置10では、瞼動作検出部236が、公知の画像処理技術である例えばLSTM(Long Short-Term Memory)等のような時系列モデルを用いる。詳細には、瞼動作検出部236が、時系列データとしての車両1の運転者の顔を含む動画像から、時系列モデルを用いて車両1の運転者の瞼動作を検出する。
第4実施形態の開閉眼推定装置10においても、第1実施形態の開閉眼推定装置10と同様に、車両1の運転者が伏目状態のときであっても、車両1の運転者が開眼状態であるか否かを適切に判定することができる。
【0051】
<第5実施形態>
図5は第5実施形態の開閉眼推定装置60が適用された端末装置51の概略構成の一例を示す図である。
図5に示す例では、端末装置51が、例えばオンライン授業、オンライン会議等に用いられる。端末装置51は、カメラ57と、HMI58と、開閉眼推定装置60とを備えている。カメラ57は、開閉眼推定対象者としての端末装置51の利用者の顔を含む画像(詳細には、動画像)を撮像する。
HMI58は、開閉眼推定装置60等と端末装置51の利用者との間で情報の入出力を行うためのインターフェースである。HMI58は、端末装置51の利用者に各種情報を提供するための情報提供装置、具体的には、文字、画像等を表示するディスプレイ、音声を出力するスピーカ等を備えている。また、HMI58は、端末装置51の利用者の入力操作を受け付けるキーボード、マウス、タッチパネル等を備えている。
カメラ57とHMI58と開閉眼推定装置60とは、信号線63を介して接続されている。
【0052】
開閉眼推定装置60は、端末装置51の利用者が開眼状態であるか否かを推定する。開閉眼推定装置60は、入力インターフェース74と出力インターフェース75と通信インターフェース71とメモリ72とプロセッサ73とを備えるコンピュータによって構成されている。入力インターフェース74と出力インターフェース75と通信インターフェース71とメモリ72とプロセッサ73とは、信号線76を介して接続されている。メモリ72は、プロセッサ73により実行される処理において使用されるプログラム及び各種のデータを記憶する。プロセッサ73は、端末装置51の利用者が開眼状態であるか否かを判定する機能等を有する。
プロセッサ73は、取得部231(
図2参照)と同様の機能を有する取得部731と、顔特徴点検出部232(
図2参照)と同様の機能を有する顔特徴点検出部732と、目領域画像切り出し部233(
図2参照)と同様の機能を有する目領域画像切り出し部733と、開閉眼判定部234(
図2参照)と同様の機能を有する開閉眼判定部734と、信頼度算出部235(
図2参照)と同様の機能を有する信頼度算出部735と、瞼動作検出部236(
図2参照)と同様の機能を有する瞼動作検出部736と、補正部237(
図2参照)と同様の機能を有する補正部737とを備えている。
取得部731は、カメラ57によって撮像された開閉眼推定対象者としての端末装置51の利用者の顔を含む画像を取得する。
【0053】
顔特徴点検出部732は、取得部731によって取得された端末装置51の利用者の顔を含む画像から、端末装置51の利用者の顔特徴点としての目尻及び目頭を抽出する。
目領域画像切り出し部733は、顔特徴点検出部732によって抽出された端末装置51の利用者の顔特徴点を使用して端末装置51の利用者の顔を含む画像から目領域の画像を切り出す。
開閉眼判定部734は、目領域画像切り出し部733によって切り出された端末装置51の利用者の目領域の画像に基づいて端末装置51の利用者が開眼状態であるか否かを判定する。
信頼度算出部735は、開閉眼判定部734の判定結果の信頼度を算出する。具体的には、信頼度算出部735が、顔特徴点検出部732の検出結果(つまり、端末装置51の利用者の例えば目尻、目頭、口角等の顔特徴点)を使用して端末装置51の利用者の顔向きを算出する。更に、信頼度算出部735は、端末装置51の利用者の顔の正面に対する顔向きのずれが大きいほど、開閉眼判定部734の判定結果の信頼度として低い値を算出する。具体的には、信頼度算出部735は、端末装置51の利用者の顔向きが下向きであるほど、開閉眼判定部734の判定結果の信頼度として低い値を算出する。
例えば、端末装置51の利用者が伏目状態のときに、信頼度算出部735は、端末装置51の利用者の顔向きとして「下向き」を算出し、開閉眼判定部734の判定結果の信頼度として低い値を算出する。
【0054】
瞼動作検出部736は、信頼度算出部735によって算出された信頼度が所定の閾値以下である場合に、端末装置51の利用者の瞼動作(詳細には、例えば瞬き等の目の動きの有無)を検出する。詳細には、瞼動作検出部736が、カメラ57によって撮像された端末装置51の利用者の顔を含む動画像の一部を構成する第1フレーム画像(例えば現在の画像)と、その第1フレーム画像とは異なる第2フレーム画像(例えば過去の画像)との差分画像を使用して端末装置51の利用者の瞼動作を検出する。つまり、瞼動作検出部736は、第1フレーム画像と第2フレーム画像との間で変化が大きい部分を強調することによって、端末装置51の利用者の瞼動作を検出する。
【0055】
補正部737は、瞼動作検出部736の検出結果に基づいて開閉眼判定部734の判定結果を補正する。
具体的には、端末装置51の利用者が開眼状態(瞼動作検出部736によって端末装置51の利用者の瞼動作が検出される状態)かつ伏目状態のとき、仮に、開閉眼判定部734が、端末装置51の利用者が閉眼状態であると誤判定した場合に、信頼度算出部735は、端末装置51の利用者の顔向きとして「下向き」を算出して、端末装置51の利用者が閉眼状態であることを示す開閉眼判定部734の判定結果の信頼度として低い値を算出し、補正部737は、端末装置51の利用者が閉眼状態であることを示す開閉眼判定部734の判定結果を端末装置51の利用者が開眼状態であることを示す開閉眼判定部734の判定結果に補正する。
また、端末装置51の利用者が閉眼状態(瞼動作検出部736によって端末装置51の利用者の瞼動作が検出されない状態)かつ伏目状態のとき、仮に、開閉眼判定部734が、端末装置51の利用者が開眼状態であると誤判定した場合に、信頼度算出部735は、端末装置51の利用者の顔向きとして「下向き」を算出して、端末装置51の利用者が開眼状態であることを示す開閉眼判定部734の判定結果の信頼度として低い値を算出し、補正部737は、端末装置51の利用者が開眼状態であることを示す開閉眼判定部734の判定結果を端末装置51の利用者が閉眼状態であることを示す開閉眼判定部734の判定結果に補正する。
【0056】
以上のように、本発明の開閉眼推定装置、開閉眼推定方法及びプログラムの実施形態について図面を参照して説明したが、本発明の開閉眼推定装置、開閉眼推定方法及びプログラムは上述した実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。上述した実施形態の各例の構成を適宜組み合わせてもよい。
上述した実施形態の各例では、開閉眼推定装置10、60において行われる処理を、プログラムを実行することにより行われるソフトウエア処理として説明したが、開閉眼推定装置10、60において行われる処理が、ハードウエアにより行われる処理であってもよい。あるいは、開閉眼推定装置10、60において行われる処理が、ソフトウエア及びハードウエアの双方を組み合わせた処理であってもよい。また、開閉眼推定装置10、60のメモリ22、72に記憶されるプログラム(開閉眼推定装置10、60のプロセッサ23、73の機能を実現するプログラム)が、例えば半導体メモリ、磁気記録媒体、光記録媒体等のようなコンピュータ読み取り可能な記憶媒体に記録されて提供、流通等されてもよい。
【符号の説明】
【0057】
1 車両
2 車外カメラ
3 レーダー
4 LiDAR
5 GPSユニット
6 地図情報ユニット
7 ドライバモニタカメラ
8 HMI
10 開閉眼推定装置
12 自動運転ECU
14 操舵アクチュエータ
15 制動アクチュエータ
16 駆動アクチュエータ
21 通信インターフェース
22 メモリ
23 プロセッサ
231 取得部
232 顔特徴点検出部
233 目領域画像切り出し部
234 開閉眼判定部
235 信頼度算出部
236 瞼動作検出部
237 補正部