(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024112560
(43)【公開日】2024-08-21
(54)【発明の名称】運転手用の行動評価装置及び方法
(51)【国際特許分類】
G06V 20/59 20220101AFI20240814BHJP
G06T 7/00 20170101ALI20240814BHJP
G06T 7/70 20170101ALI20240814BHJP
G06V 40/16 20220101ALI20240814BHJP
G08G 1/16 20060101ALI20240814BHJP
【FI】
G06V20/59
G06T7/00 650Z
G06T7/70 B
G06V40/16 C
G08G1/16 A
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023017684
(22)【出願日】2023-02-08
(71)【出願人】
【識別番号】000237592
【氏名又は名称】株式会社デンソーテン
(74)【代理人】
【識別番号】110001933
【氏名又は名称】弁理士法人 佐野特許事務所
(72)【発明者】
【氏名】上松 健治
【テーマコード(参考)】
5H181
5L096
【Fターム(参考)】
5H181AA01
5H181BB04
5H181BB13
5H181CC04
5H181CC27
5H181EE02
5H181FF04
5H181FF10
5H181FF13
5H181FF27
5H181LL06
5H181LL20
5L096AA13
5L096BA02
5L096JA03
5L096JA11
(57)【要約】
【課題】車外に対する運転手の目視行動(確認行動)を適正に評価する。
【解決手段】車両(1)の運転手における両目の虹彩の撮影結果を含む車内画像データ(IN)、及び、車外の撮影結果を含む車外画像データ(OUT)を取得する。車内画像データ及び車外画像データに基づき運転手の車外に対する目視行動を評価する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
車両の運転手における両目の虹彩の撮影結果を含む車内画像データ、及び、車外の撮影結果を含む車外画像データを取得するインターフェースと、
前記車内画像データ及び前記車外画像データに基づき前記運転手の車外に対する目視行動を評価する処理部と、を備えた
、運転手用の行動評価装置。
【請求項2】
前記車内画像データは、前記運転手における右目の虹彩の撮影画像である右虹彩画像の画像データ、及び、前記運転手における左目の虹彩の撮影画像である左虹彩画像の画像データを含み、
前記車外画像データが前記車外に位置する対象物体の画像データを含む場合、前記処理部は、前記車内画像データ及び前記車外画像データに基づき、前記右虹彩画像及び前記左虹彩画像の夫々に前記対象物体の像が含まれるかを検出することにより、前記運転手が前記対象物体の存在位置を含む対象領域を目視しているかを判断する
、請求項1に記載の運転手用の行動評価装置。
【請求項3】
前記車外画像データが前記対象物体の画像データを含む場合において、前記右虹彩画像及び前記左虹彩画像の夫々に前記対象物体の像が含まれると検出したとき、前記処理部は、前記運転手が前記対象物体の存在位置を含む前記対象領域を目視していると判断する
、請求項2に記載の運転手用の行動評価装置。
【請求項4】
前記処理部は、前記車内画像データに基づき前記運転手の顔の向きを検出し、
前記顔の向きの検出結果と、前記車内画像データ及び前記車外画像データと、に基づき、前記運転手の車外に対する目視行動を評価する
、請求項1~3の何れかに記載の運転手用の行動評価装置。
【請求項5】
前記処理部は、前記車内画像データに基づき前記運転手の顔の向きが前記車両の進行方向に対して右向き又は左向きであるかを検出し、
前記車外画像データは、前記車両の進行方向に対して右側の車外領域の撮影結果を示す右側画像データ及び前記車両の進行方向に対して左側の車外領域の撮影結果を示す左側画像データを含み、
前記処理部は、前記運転手の顔の向きが前記右向きであると検出した場合には、前記車内画像データと前記右側画像データとに基づき前記運転手が前記右側の車外領域を目視しているかを判断し、前記運転手の顔の向きが前記左向きであると検出した場合には、前記車内画像データと前記左側画像データとに基づき前記運転手が前記左側の車外領域を目視しているかを判断する
、請求項1~3の何れかに記載の運転手用の行動評価装置。
【請求項6】
前記処理部は、前記車内画像データに基づき前記運転手の顔の向きが前記車両の進行方向に対して右向き又は左向きであるかを検出し、
前記車外画像データは、前記車両の進行方向に対して右側の車外領域の撮影結果を示す右側画像データ及び前記車両の進行方向に対して左側の車外領域の撮影結果を示す左側画像データを含み、
前記運転手の顔の向きが前記右向きであると検出され且つ前記右側画像データが前記右側の車外領域に位置する第1対象物体の画像データを含む場合、前記処理部は、前記車内画像データ及び前記右側画像データに基づき、前記右虹彩画像及び前記左虹彩画像の夫々に前記第1対象物体の像が含まれるかを検出することにより、前記運転手が前記右側の車外領域を目視しているかを判断し、
前記運転手の顔の向きが前記左向きであると検出され且つ前記左側画像データが前記左側の車外領域に位置する第2対象物体の画像データを含む場合、前記処理部は、前記車内画像データ及び前記左側画像データに基づき、前記右虹彩画像及び前記左虹彩画像の夫々に前記第2対象物体の像が含まれるかを検出することにより、前記運転手が前記左側の車外領域を目視しているかを判断する
、請求項2に記載の運転手用の行動評価装置。
【請求項7】
前記運転手の顔の向きが前記右向きであると検出され且つ前記右側画像データが前記第1対象物体の画像データを含む場合において、前記右虹彩画像及び前記左虹彩画像の夫々に前記第1対象物体の像が含まれると検出したとき、前記処理部は、前記運転手が前記右側の車外領域を目視していると判断し、
前記運転手の顔の向きが前記左向きであると検出され且つ前記左側画像データが前記第2対象物体の画像データを含む場合において、前記右虹彩画像及び前記左虹彩画像の夫々に前記第2対象物体の像が含まれると検出したとき、前記処理部は、前記運転手が前記左側の車外領域を目視していると判断する
、請求項6に記載の運転手用の行動評価装置。
【請求項8】
前記処理部は、前記右虹彩画像上における物体の像の特徴点を抽出する右虹彩用の抽出処理と、前記左虹彩画像上における物体の像の特徴点を抽出する左虹彩用の抽出処理と、を実行し、
前記右側画像データにより右車外画像が表され、前記左側画像データにより左車外画像が表され、
前記運転手の顔の向きが前記右向きであると検出され且つ前記右側画像データが前記第1対象物体の画像データを含む場合、前記処理部は、前記右車外画像上における前記第1対象物体の像の特徴点を抽出する右車外用の抽出処理を実行して、前記右車外用の抽出処理の結果と、前記右虹彩用の抽出処理の結果と、前記左虹彩用の抽出処理の結果とに基づき、前記運転手が前記右側の車外領域を目視しているかを判断し、
前記運転手の顔の向きが前記左向きであると検出され且つ前記左側画像データが前記第2対象物体の画像データを含む場合、前記処理部は、前記左車外画像上における前記第2対象物体の像の特徴点を抽出する左車外用の抽出処理を実行して、前記左車外用の抽出処理の結果と、前記右虹彩用の抽出処理の結果と、前記左虹彩用の抽出処理の結果とに基づき、前記運転手が前記左側の車外領域を目視しているかを判断する
、請求項6又は7に記載の運転手用の行動評価装置。
【請求項9】
前記運転手の顔の向きが前記右向きであると検出され且つ前記右側画像データが前記第1対象物体の画像データを含む場合、前記処理部は、前記右車外用の抽出処理にて抽出された特徴点の群に対応する特徴点の群が前記右虹彩画像及び前記左虹彩画像の夫々に存在するかを検出することで、前記運転手が前記右側の車外領域を目視しているかを判断し、
前記運転手の顔の向きが前記左向きであると検出され且つ前記左側画像データが前記第2対象物体の画像データを含む場合、前記処理部は、前記左車外用の抽出処理にて抽出された特徴点の群に対応する特徴点の群が前記右虹彩画像及び前記左虹彩画像の夫々に存在するかを検出することで、前記運転手が前記左側の車外領域を目視しているかを判断する
、請求項8に記載の運転手用の行動評価装置。
【請求項10】
車両の運転手における両目の虹彩の撮影結果を含む車内画像データ、及び、車外の撮影結果を含む車外画像データに基づき、前記運転手の車外に対する目視行動を評価する
、運転手用の行動評価方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、運転手用の行動評価装置及び方法に関する。
【背景技術】
【0002】
車両の運転手は車両周辺の様子を目で確認しながら運転操作を行う。
【0003】
尚、画像処理装置において、瞳画像に基づき人物のうつり込みが発生してるかを判定する方法が提案されている(下記特許文献1参照)。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
運転手は、一時停止場所から車両を再発進させるとき、又は、車両を右折又は左折させるときなどにおいて、左右確認行動をとることが要求される。左右確認行動において、運転手は、顔を左に向ける顔振り運動を伴いながら左側の車外領域を目視する、又は、顔を右に向ける顔振り運動を伴いながら右側の車外領域を目視することが求められる。
【0006】
ドライブレコーダの撮影画像から運転手の視線、顔の向き又は顔の移動量を検出し、検出結果に基づき左右への目視行動(左右確認行動)の実施有無を判断する参考方法が検討される。参考方法では、左右への目視行動(左右確認行動)を行ったときに生じる顔の移動量等の平均値を予め設定しておき、設定した平均値を実際の検出値と比較することで必要な行動の実施有無を評価する。しかしながら、左右への目視行動(左右確認行動)における顔の振り幅等には個人差があるため、参考方法では誤った評価がなされる場合がある。また、顔を振る行動があったとしても、実際には見るべき対象を運転手が見ていないケースもあるので、参考方法では当該ケースにおいても誤った評価がなされ得る。
【0007】
本発明は、車外に対する運転手の目視行動を適正に評価し得る運転手用の行動評価装置及び方法を提供することを目的とする。
【課題を解決するための手段】
【0008】
本発明に係る運転手用の行動評価装置は、車両の運転手における両目の虹彩の撮影結果を含む車内画像データ、及び、車外の撮影結果を含む車外画像データを取得するインターフェースと、前記車内画像データ及び前記車外画像データに基づき前記運転手の車外に対する目視行動を評価する処理部と、を備える。
【発明の効果】
【0009】
本発明によれば、車外に対する運転手の目視行動を適正に評価し得る運転手用の行動評価装置及び方法を提供することが可能となる。
【図面の簡単な説明】
【0010】
【
図1】本発明の実施形態に係る車両システムの概略的な構成図である。
【
図2】本発明の実施形態に係り、車両情報の構成図である。
【
図3】本発明の実施形態に係り、車両との関係において、前後左右と幾つかの領域を定義するための図である。
【
図4】本発明の実施形態に係り、車外画像データの構成及び車外用カメラの構成を示す図である。
【
図5】本発明の実施形態に係り、演算処理部の機能ブロック図である。
【
図6】本発明の実施形態に係り、車内カメラ画像の例を示す図である。
【
図7】本発明の実施形態に係り、運転手の顔が右向きであるときにおいて顔向き検出処理の中で抽出される特徴点群を示す図(a)と、運転手の顔が左向きであるときにおいて顔向き検出処理の中で抽出される特徴点群を示す図(b)である。
【
図8】本発明の実施形態に係り、右目視ケースにおける車両、運転手の視線及び被写体の関係と、右目視ケースにおける運転手の両目の状態を示す図である。
【
図9】本発明の実施形態に係り、左目視ケースにおける車両、運転手の視線及び被写体の関係と、左目視ケースにおける運転手の両目の状態を示す図である。
【
図10】本発明の実施形態に係り、車外カメラ画像を示す図(a)と、車外カメラ画像に内包される右車外画像及び左車外画像を示す図(b)と、右車外画像及び左車外画像の夫々から抽出される領域及び特徴点情報を示す図(c)である。
【
図11】本発明の実施形態に係り、右目視ケースにおいて右虹彩画像及び左虹彩画像の夫々から特徴点情報が抽出されることを説明するための図である。
【
図12】本発明の実施形態に係り、左目視ケースにおいて右虹彩画像及び左虹彩画像の夫々から特徴点情報が抽出されることを説明するための図である。
【
図13】本発明の実施形態に属する第1実施例に係り、車載装置の動作フローチャートである。
【
図14】本発明の実施形態に属する第1実施例に係り、
図13の一部処理の詳細フローチャートである。
【
図15】本発明の実施形態に属する第1実施例に係り、
図13の一部処理の詳細フローチャートである。
【
図16】本発明の実施形態に属する第1実施例に係り、右目視ケースにおいて右車外画像、右虹彩画像及び左虹彩画像から抽出される3つの特徴点情報を示す図である。
【
図17】本発明の実施形態に属する第1実施例に係り、左目視ケースにおいて左車外画像、右虹彩画像及び左虹彩画像から抽出される3つの特徴点情報を示す図である。
【発明を実施するための形態】
【0011】
以下、本発明の実施形態の例を、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。尚、本明細書では、記述の簡略化上、情報、信号、物理量、機能部、回路、素子又は部品等を参照する記号又は符号を記すことによって、該記号又は符号に対応する情報、信号、物理量、機能部、回路、素子又は部品等の名称を省略又は略記することがある。例えば、後述の“IN”によって参照される車内画像データは(
図1参照)、車内画像データINと表記されることもあるし、画像データINと略記されることもあり得るが、それらは全て同じものを指す。
【0012】
図1は本実施形態に係る車両システムの概略的な構成図である。車両システムは車両1に搭載される。車両1は例えば路面上を走行可能な自動車であるが、車両1の種類は任意である。
図1の車載システムは、車載装置100、カメラブロック200及びセンサブロック300を備える。
【0013】
車載装置100は、ハードウェア資源として演算処理部110、メモリ120、インターフェース130及び記録媒体140を備える。演算処理部110は、MPU(Micro Processing Unit)及びGPU(Graphics Processing Unit)等を含む。車載装置100にて実行される任意の制御、動作及び処理は、演算処理部110にて実行される制御、動作及び処理であると解されて良い。演算処理部110においてMPUとGPUが一体に形成されていても良い(例えばMPUにGPUが内蔵されていても良い)。
【0014】
メモリ120は、ROM(Read only memory)又はフラッシュメモリ等の不揮発性メモリ、及び、RAM(Random access memory)等の揮発性メモリを含む。メモリ120に格納されたプログラムを演算処理部110にて実行することで、車載装置100の各機能が実現されて良い。ここにおけるプログラムは複数のプログラムを含んでいて良い。演算処理部110に複数のMPUを設けておき、当該複数のMPUにて複数のプログラムが実行されることで、車載装置100の各機能が実現されても良い。車載装置100は1以上のECU(Electronic Control Unit)にて構成されていて良い。2以上のECUにおける2以上のMPUにより演算処理部110が構成されていても良い。
【0015】
インターフェース130は相手側装置と通信を行う。通信は双方向通信又は一方向通信である。車両1においてCAN(Controller Area Network)を含む通信網が形成される。当該通信網は有線通信網でも良いし、無線通信網でも良い。相手側装置は車両1に設置され且つ上記通信網に接続された任意の装置を含む。車載装置100及び相手側装置は上記通信網を介して任意の情報及び信号の送受信が可能である。本実施形態において、相手側装置はカメラブロック200及びセンサブロック300を含む。インターフェース130にとっての相手側装置は、車両1の外部に設けられた外部装置(サーバ装置等)を含み得る。車載装置100と車両1の内部又は外部における相手側装置との通信は、無線通信若しくは有線通信、又は、無線通信と有線通信との組み合わせであって良い。車載装置100及び相手側装置間の通信は、インターフェース130を用いて実現されるが、以下では、インターフェース130の記述が省略されることがある。
【0016】
記録媒体140は、磁気ディスク又は半導体メモリ等から成る、或いは、それらの組み合わせから成る。記録媒体140は不揮発性の記録媒体であり、演算処理部110の制御の下で、任意のデータを記録する。車載装置100に対して記録媒体装着部(不図示)を設けておき、記録媒体装着部に対して記録媒体140が着脱自在とされていても良い。
【0017】
カメラブロック200は車両1に設置された1以上のカメラから成る。カメラブロック200を構成する各カメラは、自身の撮影領域内の被写体を所定のフレームレートで順次撮影して、撮影結果を示す画像データを順次車載装置100に出力する。カメラの撮影領域は視野とも称される。
【0018】
カメラブロック200から車載装置100に送られる画像データには、車内画像データ及び車外画像データが含まれる。以下では、車内画像データを適宜記号“IN”にて参照し、車外画像データを適宜記号“OUT”にて参照する。車載装置100に送れられた画像データIN及びOUTは、インターフェース130にて受信及び取得される。
【0019】
本実施形態では、カメラブロック200に車内用カメラ210及び車外用カメラ220が設けられることを想定する。車内用カメラ210により車内画像データINが生成され、車外用カメラ220により車外画像データOUTが生成される。
【0020】
車内用カメラ210の撮影領域(視野)に車室内の領域が含まれる。車室とは車両1の車室を指す。車内用カメラ210は、車室内の被写体を所定のフレームレートで順次撮影して、撮影結果を示す画像データを車内画像データINとして生成及び出力する。車内用カメラ210が撮影する被写体には運転手が含まれる。運転手とは車両1の運転手を指す。尚、車内用カメラ210は2以上のカメラにて構成されていて良い。
【0021】
車外用カメラ220の撮影領域(視野)に車外の領域が含まれる。車外とは車両1の外部(詳細には車両1の車体の外側に位置する領域)を指す。車外用カメラ220は、車外の被写体を所定のフレームレートで順次撮影して、撮影結果を示す画像データを車外画像データOUTとして生成及び出力する。車外の被写体とは、車外に位置する被写体を指す。車外用カメラ220が撮影する被写体には、車外に位置する人物、他車両、信号機、路面及び交通標識が含まれる。他車両とは車両1とは異なる車両を指す。
【0022】
車外用カメラ220は2以上のカメラにて構成されていて良い。例えば、車外用カメラ220は、車両1の外部であって且つ車両1の右側領域に視野を持つライトカメラ、及び、車両1の外部であって且つ車両1の左側領域に視野を持つレフトカメラを有していて良い。この場合、ライトカメラの撮影結果とレフトカメラの撮影結果とで車外画像データOUTが形成される。また例えば、車外用カメラ220は、車両1の外部であって且つ車両1の前方側領域に視野を持つフロントカメラ、及び、車両1の外部であって且つ車両1の後方側領域に視野を持つリアカメラを有していて良い。この場合、フロントカメラの撮影結果とリアカメラの撮影結果とで車外画像データOUTが形成される。車外用カメラ220は、上述のフロントカメラ、リアカメラ、ライトカメラ及びレフトカメラを全て有していて良い。この場合、フロントカメラ、リアカメラ、ライトカメラ及びレフトカメラの各撮影結果により車外画像データOUTが形成される。
【0023】
センサブロック300は車両1に搭載された複数のセンサから成り、当該複数のセンサを用いて車両情報を生成する。車両情報は車載装置100に出力される。
図2に示す如く、車両情報は、走行情報、GPS位置情報及びGセンサ情報を含む。センサブロック300に、走行センサ群310、GPSセンサ320及びGセンサ330が設けられる。
【0024】
走行センサ群310は、車両1の走行状態を表す走行情報を生成する。走行情報は、車両1の速度(走行速度)を表す車速情報、車両1の舵角(操舵角)を表す舵角情報、並びに、車両1の加速及び減速の状態を表す加減速情報を含む。加減速情報は、車両1のブレーキの制御量(操作量)を表すブレーキ情報を含んでいて良い。走行情報は、上述の各種情報以外の様々な情報(スロットルの操作量等)を更に含み得る。走行情報は所定周期で順次取得され、取得された走行情報は、順次、車載装置100に出力される。
【0025】
GPSセンサ320は、GPS(Global Positioning System)を形成する複数のGPS衛星からの信号を受信し、受信結果に基づきGPS位置情報を生成する。GPS位置情報は車両1の現在地を表す情報である。GPS位置情報において、車両1の現在地は経度及び緯度によって表される。GPS位置情報は車両1の現在地の高度を更に表すこともある。GPS位置情報は所定周期で順次生成され、生成されたGPS位置情報は順次車載装置100に出力される。
【0026】
Gセンサ330は、車両1に加わる所定軸方向の加速度を検出し、加速度の検出結果をGセンサ情報として生成及び出力する。Gセンサ330において、互いに直交する2軸方向の加速度が検出されても良いし、互いに直交する3軸方向の加速度が検出されても良い。Gセンサ情報は所定周期で順次生成され、生成されたGセンサ情報は順次車載装置100に出力される。
【0027】
ここで、
図3を参照し、車両1との関係において前後左右を以下のように定義する。車両1において、運転席からステアリングホイールに向かう向きを「前方」と定義し、ステアリングホイールから運転席に向かう向きを「後方」と定義する。後方から前方に向かう向きが車両1の進行方向であるとし、車両1の進行方向に対して左右方向が定義される。左右方向は車両1の進行方向に直交し(従って前後方向に直交し)且つ路面に平行である。本実施形態において、路面は、特に記述無き限り、水平面に平行であるとする。左右方向における左、右は、車両1の運転席に座り且つ前方を向いている、車両1の運転手から見た左、右である。
【0028】
図3において軸CXは車両1の車体の中心軸である。中心軸CXは車両1の車体の中心又は重心を通る。但し、中心軸CXは前後方向及びに路面に平行な軸であるとする。
図3において、斜線領域RRは右側の車外領域であり、斜線領域LLは左側の車外領域である。
【0029】
右側の車外領域RRとは、車両1の外部であって且つ車両1の右側に位置する領域である。右側の車外領域RRは中心軸CXより右側に位置する。右側の車外領域RRは、少なくとも車両1の前方且つ右側に位置する領域を含む。右側の車外領域RRは、車両1の側方且つ右側に位置する領域を更に含んでいても良い。右側の車外領域RRは、車両1の後方且つ右側に位置する領域を更に含んでいても良い。
【0030】
左側の車外領域LLとは、車両1の外部であって且つ車両1の左側に位置する領域である。左側の車外領域LLは中心軸CXより左側に位置する。左側の車外領域LLは、少なくとも車両1の前方且つ左側に位置する領域を含む。左側の車外領域LLは、車両1の側方且つ左側に位置する領域を更に含んでいても良い。左側の車外領域LLは、車両1の後方且つ左側に位置する領域を更に含んでいても良い。
【0031】
図4(a)に示す如く、車外画像データOUTは右側画像データと左側画像データを含む。以下では、右側画像データを適宜記号“OR”にて参照し、左側画像データを適宜記号“OL”にて参照する。
【0032】
右側画像データORは、右側の車外領域RRに位置する被写体の撮影結果を示す画像データである。左側画像データOLは、左側の車外領域LLに位置する被写体の撮影結果を示す画像データである。例えば、
図4(b)に示す如く、車外用カメラ220は、右側の車外領域RRを視野に収めたライトカメラ220Rと、左側の車外領域LLを視野に収めたレフトカメラ220Lとを有していて良い。この場合、ライトカメラ220Rの撮影によりライトカメラ220Rにて右側画像データORが生成され、レフトカメラ220Lの撮影によりレフトカメラ220Lにて左側画像データOLが生成される。或いは例えば、
図4(c)に示す如く、車外用カメラ220は、車外領域RR及びLLを視野に収めたフロントカメラ220Fを有していて良い。この場合、フロントカメラ220Fの撮影により、フロントカメラ220Fにて画像データOR及びOLを包含する車外画像データOUTが生成される。
【0033】
一方、車内用カメラ210の視野内に運転手の頭部及び顔が含まれ、故に、運転手の頭部及び顔の撮影結果を示す画像データが車内画像データINに含まれる。更に、車内用カメラ210にて運転手の両目の虹彩が撮影されるよう、車室内の適所に車内用カメラ210が設置される。故に、運転手における両目の虹彩の撮影結果が車内画像データINに含まれる。以下の説明において、頭部、顔、両目、右目、左目、虹彩とは、特に記述無き限り、車両1の運転手における頭部、顔、両目、右目、左目、虹彩を指す。
【0034】
図5に車載装置100の機能ブロック図を示す。車載装置100には機能ブロックF1~F5が設けられる。尚、
図5には、各機能ブロックが実行する処理の名称が付記されている。演算処理部110において、単一のプログラム又は複数のプログラムが実行されることで機能ブロックF1~F5が実現されて良い。演算処理部110に複数のMPUを設けておき、当該複数のMPUにて複数のプログラムが個別に実行されることで任意の複数の機能ブロックが実現されて良い。機能ブロックF1、F4、F5は、夫々、顔向き検出部、行動評価部、記録管理部である。機能ブロックF2及びF3は共に画像解析部である。単一の画像解析部にて機能ブロックF2及びF3が実現されても良い。
【0035】
[顔向き検出部F1]
顔向き検出部F1は、車内画像データINに基づいて運転手の顔の向きを検出する顔向き検出処理を実行する。顔向き検出部F1は、車内画像データINに基づき、運転手の顔が車両1の進行方向に対して、右を向いているのか、左を向いているのか、正面を向いているのかを区別して検出する。以下、運転手の顔の向きは顔向きとも称され得る。車両1の進行方向に対して右、左、正面を向く顔向きを、夫々、右向き、左向き、正面向きと称する。尚、顔向きに関する向きは、水平面に平行な二次元平面上の向きであるとし、ここでは鉛直方向の向きの成分を無視する。
【0036】
運転手の顔が車両1の進行方向に対して右を向いているとき、顔向きは右向きである。運転手の後頭部から運転手の鼻に向かう向きが運転手の存在位置から車両1の右側前方に向かう向きと一致しているとき、顔向きは右向きである。
運転手の顔が車両1の進行方向に対して左を向いているとき、顔向きは左向きである。運転手の後頭部から運転手の鼻に向かう向きが運転手の存在位置から車両1の左側前方に向かう向きと一致しているとき、顔向きは左向きである。
運転手の顔が車両1の進行方向に対して正面を向いているとき、顔向きは正面向きである。運転手の後頭部から運転手の鼻に向かう向きが中心軸CXと平行であるとき、顔向きは正面向きである。
顔向き検出部F1は、車内画像データINに基づき、顔向きが、右向き、左向き及び正面向きの何れであるかを検出できる。
【0037】
車内画像データINにて表される二次元画像を車内カメラ画像と称する。
図6に示す二次元画像600は車内カメラ画像の例である。二次元画像600の如く、車内カメラ画像には運転手の顔の像が含まれる。運転手とは異なる他の物体の像(運転席など)も車内カメラ画像に含まれるが、他の物体の像に関する図示を
図6では省略している。
【0038】
顔向き検出部F1は、車内カメラ画像上における運転手の顔を周知の顔検出処理にて検出した後、顔向き検出用の特徴点抽出処理を実行する。顔向き検出処理に顔向き検出用の特徴点抽出処理が含まれる。顔向き検出用の特徴点抽出処理において、顔向き検出部F1は、顔向きの検出に有益な特徴点を車内カメラ画像から抽出する。顔向きの検出に有益な特徴点として、運転手の目、眉、鼻及び口を示す特徴点並びに顔の輪郭を示す特徴点が挙げられる。
図7(a)に顔向きが右向きであるときに抽出される複数の特徴点の例を黒丸により概略的に示す。
図7(b)に顔向きが左向きであるときに抽出される複数の特徴点の例を黒丸により概略的に示す。尚、
図7(a)及び(b)では、車内用カメラ210が運転手の前方に設置され、車内用カメラ210の光軸が前後方向に平行であることが想定されている。
【0039】
顔向き検出部F1は、顔向き検出用の特徴点抽出処理にて抽出された複数の特徴点の位置関係(車内カメラ画像上の位置関係)に基づき、顔向きを検出する。顔向き検出部F1は、顔向きの検出を行うために形成された人工知能モデルを用いて顔向きの検出を行って良い。
【0040】
顔向きの検出に際して、ワールド座標系と車内用カメラ210のカメラ座標系との対応関係情報が利用されて良い。
【0041】
車両1が存在する実空間(実際の三次元空間)の座標系としてワールド座標系が定義される。ワールド座標系は、車両1の前後方向に平行な軸と車両1の左右方向に平行な軸と鉛直方向に平行な軸とで形成される三次元座標系である。一方、車内用カメラ210の座標系として第1カメラ座標系が定義される。第1カメラ座標系は、車内用カメラ210の存在位置を原点に設置した三次元座標系であり、互いに直交する3つの軸を有する。第1カメラ座標系における3つの軸は、原点から車内用カメラ210の光軸に沿って伸びる軸と、その軸に直交する2つの軸と、から成る。同様に、車外用カメラ220の座標系として第2カメラ座標系が定義される。第2カメラ座標系は、車外用カメラ220の存在位置を原点に設置した三次元座標系であり、互いに直交する3つの軸を有する。第2カメラ座標系における3つの軸は、原点から車外用カメラ220の光軸に沿って伸びる軸と、その軸に直交する2つの軸と、から成る。ワールド座標系と第1カメラ座標系との関係を特定する第1カメラパラメータが演算処理部110に対して予め与えられる。ワールド座標系と第2カメラ座標系との関係を特定する第2カメラパラメータが演算処理部110に対して予め与えられる。演算処理部110は第1及び第2カメラパラメータを用いて必要な処理を行うことができる。顔向き検出部F1に関しては、第1カメラパラメータを参照して顔向きの検出を行って良い。
【0042】
顔向きにおける右向きは、右側の車外領域RR内の被写体を見るのに適した向きである。顔向きが右向きである場合において運転手が実際に車外領域RR内の被写体を目視している状態を右目視状態と称する。右目視状態では、運転手の視線上に右側の車外領域RRが位置し、運転手の右目及び左目の各虹彩に車外領域RR内の被写体の像が写り込む。
【0043】
図8を参照する。右側の車外領域RRに被写体P1が存在しており且つ運転手が被写体P1を右目視状態にて目視しているケースを右目視ケースと称する。
図8には右目視ケースにおける運転手の右目及び左目の様子が概略的に示される。以下、本実施形態では、車外領域RRに被写体P1が存在しているものとする。
図8において矢印付き破線LS1は右目視ケースにおける運転手の視線を表す。運転手が被写体P1を目視しているとき、右目及び左目の虹彩は共に被写体P1の方向を向く。このため、右目視ケースでは、右目の虹彩に被写体P1の像P1cが写り込み、且つ、左目の虹彩に被写体P1の像P1dが写り込む。運転手が被写体P1を目視していないとき、右目及び左目の虹彩には基本的に被写体P1の像が写り込まない。但し、運転手が被写体P1を目視していないときでも、右目及び左目の何れか一方の虹彩に被写体P1の像が偶然写り込むことはあり得る。
【0044】
顔向きにおける左向きは、左側の車外領域LL内の被写体を見るのに適した向きである。顔向きが左向きである場合において運転手が実際に車外領域LL内の被写体を目視している状態を左目視状態と称する。左目視状態では、運転手の視線上に左側の車外領域LLが位置し、運転手の右目及び左目の各虹彩に車外領域LL内の被写体の像が写り込む。
【0045】
図9を参照する。左側の車外領域LLに被写体P2が存在しており且つ運転手が被写体P2を左目視状態にて目視しているケースを左目視ケースと称する。
図9には左目視ケースにおける運転手の右目及び左目の様子が概略的に示される。以下、本実施形態では、車外領域LLに被写体P2が存在しているものとする。
図9において矢印付き破線LS2は左目視ケースにおける運転手の視線を表す。運転手が被写体P2を目視しているとき、右目及び左目の虹彩は共に被写体P2の方向を向く。このため、左目視ケースでは、右目の虹彩に被写体P2の像P2cが写り込み、且つ、左目の虹彩に被写体P2の像P2dが写り込む。運転手が被写体P2を目視していないとき、右目及び左目の虹彩には基本的に被写体P2の像が写り込まない。但し、運転手が被写体P2を目視していないときでも、右目及び左目の何れか一方の虹彩に被写体P2の像が偶然写り込むことはあり得る。
【0046】
尚、
図8では、図示の便宜上、円柱状の三次元物体が被写体P1として示されているが、被写体P1は車外領域RRに位置する任意の三次元物体である。同様に、
図9では、図示の便宜上、三角錐状の三次元物体が被写体P2として示されているが、被写体P2は車外領域LLに位置する任意の三次元物体である。被写体P1及びP2は、例えば、人物、他車両、信号機又は交通標識である。
【0047】
[車外物体用の画像解析部F2(車外解析部)]
機能ブロックF2は車外物体用の画像解析部である(
図5参照)。機能ブロックF2である車外物体用の画像解析部と機能ブロックF3である虹彩用の画像解析部との混合を避けるべく、以下では適宜、車外物体用の画像解析部F2を車外解析部F2と表記し、虹彩用の画像解析部F3を虹彩解析部F3と表記する。車外解析部F2は車外画像データOUTに基づく画像解析(以下、車外画像解析と称する)を行う。
図10(a)等を参照しつつ、車外画像解析を説明する。車外解析部F2は上述の第2カメラパラメータを用いて車外画像解析を実行できる。
【0048】
図10(a)に示す二次元画像700は車外カメラ画像の例である。二次元画像700の如く、車外カメラ画像には被写体P1の像P1a及び被写体P2の像P2aが含まれる。他にも様々な像が車外カメラ画像に含まれ得る。車外カメラ画像は右車外画像と左車外画像とで構成される。右車外画像は、右側の車外領域RR内の被写体を撮影することで得られる画像であり、車外領域RR内の被写体の像を含む。右車外画像は右側画像データORによって表される(
図4(a)参照)。左車外画像は、左側の車外領域LL内の被写体を撮影することで得られる画像であり、車外領域LL内の被写体の像を含む。左車外画像は左側画像データOLによって表される(
図4(a)参照)。車外カメラ画像700であれば、
図10(b)に示す如く、右車外画像710と左車外画像720とで車外カメラ画像700が構成される。
【0049】
車外解析部F2が実行可能な車外画像解析は、右車外画像に対する車外画像解析と、左車外画像に対する車外画像解析と、を含む。
図10(b)の右車外画像710及び左車外画像720を例にとり、車外画像解析を説明する。
【0050】
右車外画像710に対する車外画像解析において、車外解析部F2は、右側画像データORに基づき、右車外画像710上の物体の領域を抽出する領域抽出処理を行う。領域抽出処理をセマンティックセグメンテーションにて行うことができる。尚、任意の画像から物体の領域を抽出することと、物体の像の存在領域を抽出することは、同義である。今、右車外画像710上の物体としての被写体P1に注目する。そうすると、右車外画像710に対する領域抽出処理により、被写体P1の像P1aの存在領域が抽出される。ここで抽出された被写体P1の像P1aの存在領域を、説明の具体化のため、抽出領域P1a_rと称する(
図10(c)参照)。右車外画像710に対する車外画像解析は、右車外用の特徴点抽出処理を含む。右車外用の特徴点抽出処理において、車外解析部F2は、抽出領域P1a_rにおけるエッジ(従って像P1aのエッジ)を特徴点として抽出することで、特徴点情報P1a_tを生成する(
図10(c)参照)。特徴点情報P1a_tは、抽出領域P1a_rにおける像P1aの特徴点の群から成り、像P1aの特徴点の群により像P1aの形状が示される。即ち、特徴点情報P1a_tは像P1aの形状を特定する情報である、と言える。
【0051】
左車外画像720に対する車外画像解析において、車外解析部F2は、左側画像データOLに基づき、左車外画像720上の物体の領域を抽出する領域抽出処理を行う。領域抽出処理をセマンティックセグメンテーションにて行うことができる。今、左車外画像720上の物体としての被写体P2に注目する。そうすると、左車外画像720に対する領域抽出処理により、被写体P2の像P2aの存在領域が抽出される。ここで抽出された被写体P2の像P2aの存在領域を、説明の具体化のため、抽出領域P2a_rと称する(
図10(c)参照)。左車外画像720に対する車外画像解析は、左車外用の特徴点抽出処理を含む。左車外用の特徴点抽出処理において、車外解析部F2は、抽出領域P2a_rにおけるエッジ(従って像P2aのエッジ)を特徴点として抽出することで、特徴点情報P2a_tを生成する(
図10(c)参照)。特徴点情報P2a_tは、抽出領域P2a_rにおける像P2aの特徴点の群から成り、像P2aの特徴点の群により像P2aの形状が示される。即ち、特徴点情報P2a_tは像P2aの形状を特定する情報である、と言える。
【0052】
[虹彩用の画像解析部F3(虹彩解析部)]
上述したように機能ブロックF3は虹彩用の画像解析部であり、虹彩解析部F3と表記され得る(
図5参照)。虹彩解析部F3は車内画像データINに基づく画像解析(以下、虹彩画像解析と称する)を行う。
【0053】
運転手の両目の瞼が閉じていないと仮定すると、任意の車内カメラ画像には右虹彩画像及び左虹彩画像が含まれる。右虹彩画像は運転手における右目の虹彩を撮影することで得られる画像である。左虹彩画像は運転手における左目の虹彩を撮影することで得られる画像である。虹彩解析部F3は、車内画像データINに基づき、車内カメラ画像において右目の虹彩の像が存在する領域及び左目の虹彩の像が存在する領域を抽出し、これによって車内カメラ画像から右虹彩画像及び左虹彩画像を切り出す。車内画像データINの内、右目の虹彩の像が存在する領域の画像データにより右虹彩画像が表され、左目の虹彩の像が存在する領域の画像データにより左虹彩画像が表される。人物の顔の画像から右虹彩画像及び左虹彩画像を切り出す方法は周知であり、当該方法の詳細な説明を省略する。例えばセマンティックセグメンテーションを利用して上記の切り出しを行うことができる。
【0054】
尚、右虹彩画像は右目の虹彩の像に加えて右目の瞳孔の像を含んでいて良く、ここでは右虹彩画像は右目の瞳孔の像を含むものとする。故に右虹彩画像を右瞳画像と称しても良い。同様に、左虹彩画像は左目の虹彩の像に加えて左目の瞳孔の像を含んでいて良く、ここでは左虹彩画像は左目の瞳孔の像を含むものとする。故に左虹彩画像を左瞳画像と称しても良い。
【0055】
図11に示す二次元画像600_Rは車内カメラ画像の例である。
図11の車内カメラ画像600_Rには右虹彩画像610及び左虹彩画像620が含まれる。
図11では、右虹彩画像610及び左虹彩画像620が拡大図示されている。虹彩解析部F3が実行可能な虹彩画像解析は、右虹彩画像に対する虹彩画像解析と、左虹彩画像に対する虹彩画像解析と、を含む。
図11の右虹彩画像610及び左虹彩画像620を例にとり、虹彩画像解析を説明する。
図11の車内カメラ画像600_Rは右目視ケースで得られる車内カメラ画像であり、故に、右虹彩画像610には被写体P1の像P1cが含まれ且つ左虹彩画像620には被写体P1の像P1dが含まれる(
図8も参照)。
【0056】
右虹彩画像610に対する虹彩画像解析において、虹彩解析部F3は、車内画像データINに含まれる右虹彩画像610の画像データに基づき、右虹彩用の特徴点抽出処理を行う。右虹彩用の特徴点抽出処理において、虹彩解析部F3は、右虹彩画像610におけるエッジ(像P1cのエッジを含む)を特徴点として抽出することで、特徴点情報P1c_tを生成する。特徴点情報P1c_tは、右虹彩画像610における像P1cの特徴点の群から成り、像P1cの特徴点の群により像P1cの形状が示される。即ち、特徴点情報P1c_tは像P1cの形状を特定する情報である、と言える。
【0057】
左虹彩画像620に対する虹彩画像解析において、虹彩解析部F3は、車内画像データINに含まれる左虹彩画像620の画像データに基づき、左虹彩用の特徴点抽出処理を行う。左虹彩用の特徴点抽出処理において、虹彩解析部F3は、左虹彩画像620におけるエッジ(像P1dのエッジを含む)を特徴点として抽出することで、特徴点情報P1d_tを生成する。特徴点情報P1d_tは、左虹彩画像620における像P1dの特徴点の群から成り、像P1dの特徴点の群により像P1dの形状が示される。即ち、特徴点情報P1d_tは像P1dの形状を特定する情報である、と言える。
【0058】
運転手の視界に被写体P1が入っていないときには、虹彩画像解析において特徴点情報P1c_t及びP1d_tが生成されず、代わりに、被写体P1とは異なる被写体の特徴点情報が生成され得る。
【0059】
図12に示す二次元画像600_Lは車内カメラ画像の他の例である。
図12の車内カメラ画像600_Lには右虹彩画像630及び左虹彩画像640が含まれる。
図12では、右虹彩画像630及び左虹彩画像640が拡大図示されている。
図12の右虹彩画像630及び左虹彩画像640を例にとり、虹彩画像解析を説明する。
図12の車内カメラ画像600_Lは左目視ケースで得られる車内カメラ画像であり、故に、右虹彩画像630には被写体P2の像P2cが含まれ且つ左虹彩画像640には被写体P2の像P2dが含まれる(
図9も参照)。
【0060】
右虹彩画像630に対する虹彩画像解析において、虹彩解析部F3は、車内画像データINに含まれる右虹彩画像630の画像データに基づき、右虹彩用の特徴点抽出処理を行う。右虹彩用の特徴点抽出処理において、虹彩解析部F3は、右虹彩画像630におけるエッジ(像P2cのエッジを含む)を特徴点として抽出することで、特徴点情報P2c_tを生成する。特徴点情報P2c_tは、右虹彩画像630における像P2cの特徴点の群から成り、像P2cの特徴点の群により像P2cの形状が示される。即ち、特徴点情報P2c_tは像P2cの形状を特定する情報である、と言える。
【0061】
左虹彩画像640に対する虹彩画像解析において、虹彩解析部F3は、車内画像データINに含まれる左虹彩画像640の画像データに基づき、左虹彩用の特徴点抽出処理を行う。左虹彩用の特徴点抽出処理において、虹彩解析部F3は、左虹彩画像640におけるエッジ(像P2dのエッジを含む)を特徴点として抽出することで、特徴点情報P2d_tを生成する。特徴点情報P2d_tは、左虹彩画像640における像P2dの特徴点の群から成り、像P2dの特徴点の群により像P2dの形状が示される。即ち、特徴点情報P2d_tは像P2dの形状を特定する情報である、と言える。
【0062】
運転手の視界に被写体P2が入っていないときには、虹彩画像解析において特徴点情報P2c_t及びP2d_tが生成されず、代わりに、被写体P2とは異なる被写体の特徴点情報が生成され得る。
【0063】
[行動評価部F4]
行動評価部F4は、顔向き検出部F1の検出結果並びに車外解析部F2及び虹彩解析部F3の各画像解析の結果に基づいて運転者の車外に対する目視行動を評価する行動評価処理を実行する。運転者の車外に対する目視行動とは、運転手が車外に位置する特定の領域(従って特定の領域内の物体)を目視する行動を指す。目視行動を評価するとは、運転手が車外に位置する特定の領域(従って特定の領域内の物体)を目視しているか又は目視していたかを評価することを指す。
【0064】
運転手は、特定の領域を目視することで、特定の領域内における物体の存否及び特定の領域内における物体の位置を確認する。この確認を行う行動を確認行動と称する。確認行動は目視行動と実質的に等価であると考えることができ、故に、行動評価処理における評価の対象は、運転者の車外に対する確認行動であると解しても良い。確認行動として左側確認行動と右側確認行動とがあり、これらを合わせて左右確認行動と称する。左側確認行動において運転手は、左側の車外領域LLを目視することで車外領域LL内の物体の存否及び車外領域LL内の物体の位置を確認する。右側確認行動において運転手は、右側の車外領域RRを目視することで車外領域RR内の物体の存否及び車外領域RR内の物体の位置を確認する。
【0065】
行動評価処理の詳細は後述される。端的に言えば、行動評価処理において、特定の物体の像が右虹彩画像及び左虹彩画像の双方に含まれると検出されたとき、特定の物体の存在領域(実空間上の領域)を運転手が目視していると判断される。尚、本明細書において目視は注視であっても良い。
【0066】
[記録管理部F5]
記録管理部F5は記録媒体140に必要なデータを記録させる記録処理を実行する。車載装置100はドライブレコーダであって良い。以下では、車載装置100がドライブレコーダの機能を持つものとする。そうすると、記録処理において記録管理部F5は、画像データIN及びOUT並びに車両情報を時系列に沿って互いに関連付けた状態で記録媒体140に記録させる。尚、車載装置100とカメラブロック200とでドライブレコーダが形成されると考えることもできる。
【0067】
以下、複数の実施例の中で、車載装置100に関する幾つかの具体的な動作例、応用技術、変形技術等を説明する。本実施形態にて上述した事項は、特に記述無き限り且つ矛盾無き限り、以下の各実施例に適用される。各実施例において、上述の事項と矛盾する事項がある場合には、各実施例での記載が優先されて良い。また矛盾無き限り、以下に示す複数の実施例の内、任意の実施例に記載した事項を、他の任意の実施例に適用することもできる(即ち複数の実施例の内の任意の2以上の実施例を組み合わせることも可能である)。
【0068】
<<第1実施例>>
第1実施例を説明する。
図13に第1実施例に係る車載装置100の動作フローチャートを示す。
図13の動作フローチャートに沿って、第1実施例に係る車載装置100の動作の流れを説明する。
図13の動作フローチャートは、任意の時刻である注目時刻において運転手が適正な左右確認行動を行ったかを判断するためのフローチャートである。
【0069】
まずステップS11において、注目時刻における車内画像データIN及び車外画像データOUTがインターフェース130にて取得される(換言すればインターフェース130を通じ演算処理部110にて取得される)。続くステップS12において、顔向き検出部F1は注目時刻における車内画像データINに基づき顔向き検出処理を実行することにより、注目時刻における運転手の顔向きを検出する。その後、ステップS13に進む。
【0070】
ステップS12にて検出された顔向きが左向きであるかが、ステップS13において確認される。検出された顔向きが左向きであれば(ステップS13のY)、ステップS13からステップS31に進む。検出された顔向きが左向きでなければ(ステップS13のN)、ステップS13からステップS14に進む。ステップS12にて検出された顔向きが右向きであるかが、ステップS14において確認される。検出された顔向きが右向きであれば(ステップS14のY)、ステップS14からステップS21に進む。検出された顔向きが右向きでなければ(ステップS14のN)、ステップS14からステップS41に進む。まとめると、ステップS12にて検出された顔向きが左向きであればステップS31に進み、右向きであればステップS21に進み、正面向きであればステップS41に進む。運転手が後方を向く、車内用カメラ210の視界から運転手の顔が外れる場合など、顔向きの検出が不能であった場合にも、ステップS41に進む。
【0071】
ステップS21に進んだ場合、ステップS21~S24の処理が実行される。ステップS21~S23の処理は全て互いに異なる時間に実行されて良い。或いは、ステップS21~S23の処理の内、任意の2以上の処理は同時に実行されても良い。ステップS24の処理はステップS21~S23の処理を経て実行される。
【0072】
ステップS21において、車外解析部F2は注目時刻の右車外画像に対する車外解析処理を実行する(
図5、
図10(a)~(c)参照)。注目時刻の右車外画像は、注目時刻の車外画像データOUTの内、右側画像データORにより表され(
図4(a)参照)、当該右側画像データORに基づきステップS21の車外解析処理が実行される。ステップS21の車外解析処理に含まれる右車外用の特徴点抽出処理により、特徴点情報C
R1が生成される。
【0073】
ステップS22において、虹彩解析部F3は注目時刻の右虹彩画像に対する虹彩解析処理を実行する(
図5参照)。注目時刻の右虹彩画像は、注目時刻の車内画像データINの内、右目の虹彩の像が存在する領域の画像データにより表される。右目の虹彩の像が存在する領域の画像データに基づき、ステップS22の虹彩解析処理が実行される(後述のステップS32でも同様)。ステップS22の虹彩解析処理に含まれる右虹彩用の特徴点抽出処理により、特徴点情報C
R2が生成される。
【0074】
ステップS23において、虹彩解析部F3は注目時刻の左虹彩画像に対する虹彩解析処理を実行する(
図5参照)。注目時刻の左虹彩画像は、注目時刻の車内画像データINの内、左目の虹彩の像が存在する領域の画像データにより表される。左目の虹彩の像が存在する領域の画像データに基づき、ステップS23の虹彩解析処理が実行される(後述のステップS33でも同様)。ステップS23の虹彩解析処理に含まれる左虹彩用の特徴点抽出処理により、特徴点情報C
R3が生成される。
【0075】
ステップS24において、行動評価部F4は、特徴点情報CR1、CR2及びCR3に基づき行動評価処理を実行することにより、右側の車外領域RRに対する運転手の目視行動の有無を評価する。ステップS24の評価は、運転手が右側の車外領域RRを目視しているか否かの評価である。右側の車外領域RRに対する運転手の目視行動は右側確認行動に相当する。
【0076】
今、注目時刻において右側の車外領域RRに存在する特定の物体を第1対象物体と称し、第1対象物体に対するステップS24の処理を説明する。
図8の被写体P1は第1対象物体の例である。ステップS21に進むケースにおいて、注目時刻における右側画像データORは第1対象物体の画像データを含む。
【0077】
図14はステップS24の詳細フローチャートである。ステップS24の処理はステップS24a~S24dの処理に細分化される。ステップS24では、まずステップS24aにおいて、行動評価部F4が、特徴点情報C
R1、C
R2及びC
R3に基づき右虹彩画像及び左虹彩画像の夫々に第1対象物体の像が含まれるかを検出する。ステップS24aに続くステップS24bにおいて、ステップS24aでの検出結果に基づき、ステップS24c又はS24dへの分岐を発生させる。具体的には、右虹彩画像及び左虹彩画像の夫々に第1対象物体の像が含まれると検出された場合(ステップS24bのY)、ステップS24cに進む。右虹彩画像及び左虹彩画像の何れにも第1対象物体の像が含まれていないと検出された場合、又は、右虹彩画像及び左虹彩画像の一方にのみ第1対象物体の像が含まれると検出された場合、ステップS24dに進む。ステップS24cにおいて、行動評価部F4は、運転手が注目時刻にて右側の車外領域RRを目視していると判断する(即ち右側確認行動が実施されていると判断する)。ステップS24cにおいて、行動評価部F4は、運転手が注目時刻にて第1対象物体を目視していると判断しても良い。ステップS24dにおいて、行動評価部F4は、運転手が注目時刻にて右側の車外領域RRを目視していないと判断する(即ち右側確認行動が実施されていないと判断する)。
【0078】
上述のステップS21において、車外解析処理に含まれる右車外用の特徴点抽出処理により(
図10(c)参照)第1対象物体の特徴点の群が抽出され、その抽出結果が特徴点情報C
R1に反映される。ステップS24aに係る行動評価部F4は、ステップS21にて抽出された特徴点の群に対応する特徴点の群が右虹彩画像及び左虹彩画像の夫々に存在するかを検出及び判断する。そして、その判断結果が肯定であるときにステップS23cへの移行を発生させ、否定であるときにステップS23dへの移行を発生させる。
【0079】
ステップS24の処理内容について更に詳細な説明を設ける。説明の具体化のため、右車外画像、右虹彩画像及び左虹彩画像の夫々に被写体の像が1つだけ含まれる状況を考える。特徴点情報CR1により、右車外画像に含まれる被写体の像の形状が特定される。特徴点情報CR2により、右虹彩画像に含まれる被写体の像の形状が特定される(即ち、右目の虹彩に写り込んだ被写体の像の形状が特定される)。特徴点情報CR3により、左虹彩画像に含まれる被写体の像の形状が特定される(即ち、左目の虹彩に写り込んだ被写体の像の形状が特定される)。右車外画像に含まれる被写体の像は、ここでは第1対象物体の像である。
【0080】
行動評価部F4は、特徴点情報CR1により特定される第1対象物体の像の形状と、特徴点情報CR2により特定される被写体の像の形状と、の類似度S[R1:R2]を導出する。行動評価部F4は、特徴点情報CR1により特定される第1対象物体の像の形状と、特徴点情報CR3により特定される被写体の像の形状と、の類似度S[R1:R3]を導出する。
【0081】
そして、行動評価部F4は、類似度S[R1:R2]及びS[R1:R3]が共に所定の基準類似度SREF以上であるときに、右虹彩画像上の被写体及び左虹彩画像上の被写体が第1対象物体であると判断する。換言すれば、行動評価部F4は、“S[R1:R2]≧SREF”及び“S[R1:R3]≧SREF”の成立時に、右虹彩画像及び左虹彩画像の夫々に第1対象物体の像が含まれると検出及び判断する。この判断は、ステップS21にて抽出された特徴点の群に対応する特徴点の群が右虹彩画像及び左虹彩画像の夫々に存在するとの判断と等価である。
【0082】
行動評価部F4は、“S[R1:R2]<SREF”の成立時には右虹彩画像に第1対象物体の像が含まれないと検出及び判断し、“S[R1:R3]<SREF”の成立時には左虹彩画像に第1対象物体の像が含まれないと検出及び判断する。
【0083】
行動評価部F4は周知のパターンマッチングを用いて類似度S[R1:R2]及びS[R1:R3]を導出できる。同一の被写体の像が右車外画像及び右虹彩画像に含まれていたとしても、当該同一の被写体に関する像の大きさは、右虹彩画像において、右車外画像においてよりも小さい。このため、特徴点情報CR1により特定される形状の大きさを、特徴点情報CR2により特定される形状の大きさにまで縮小させるスケールダウン処理を行ってから、類似度S[R1:R2]を導出すれば良い。類似度S[R1:R3]についても同様である。
【0084】
ステップS31に進んだ場合、ステップS31~S34の処理が実行される。ステップS31~S33の処理は全て互いに異なる時間に実行されて良い。或いは、ステップS31~S33の処理の内、任意の2以上の処理は同時に実行されても良い。ステップS34の処理はステップS31~S33の処理を経て実行される。
【0085】
ステップS31において、車外解析部F2は注目時刻の左車外画像に対する車外解析処理を実行する(
図5、
図10(a)~(c)参照)。注目時刻の左車外画像は、注目時刻の車外画像データOUTの内、左側画像データOLにより表され(
図4(a)参照)、当該左側画像データOLに基づきステップS31の車外解析処理が実行される。ステップS31の車外解析処理に含まれる左車外用の特徴点抽出処理により、特徴点情報C
L1が生成される。
【0086】
ステップS32において、虹彩解析部F3は注目時刻の右虹彩画像に対する虹彩解析処理を実行する(
図5参照)。ステップS32の虹彩解析処理に含まれる右虹彩用の特徴点抽出処理により、特徴点情報C
L2が生成される。
【0087】
ステップS33において、虹彩解析部F3は注目時刻の左虹彩画像に対する虹彩解析処理を実行する(
図5参照)。ステップS33の虹彩解析処理に含まれる左虹彩用の特徴点抽出処理により、特徴点情報C
L3が生成される。
【0088】
ステップS34において、行動評価部F4は、特徴点情報CL1、CL2及びCL3に基づき行動評価処理を実行することにより、左側の車外領域LLに対する運転手の目視行動の有無を評価する。ステップS34の評価は、運転手が左側の車外領域LLを目視しているか否かの評価である。左側の車外領域LLに対する運転手の目視行動は左側確認行動に相当する。
【0089】
今、注目時刻において左側の車外領域LLに存在する特定の物体を第2対象物体と称し、第2対象物体に対するステップS34の処理を説明する。
図9の被写体P2は第2対象物体の例である。ステップS31に進むケースにおいて、注目時刻における左側画像データOLは第2対象物体の画像データを含む。
【0090】
図15はステップS34の詳細フローチャートである。ステップS34の処理はステップS34a~S34dの処理に細分化される。ステップS34では、まずステップS34aにおいて、行動評価部F4が、特徴点情報C
L1、C
L2及びC
L3に基づき右虹彩画像及び左虹彩画像の夫々に第2対象物体の像が含まれるかを検出する。ステップS34aに続くステップS34bにおいて、ステップS34aでの検出結果に基づき、ステップS34c又はS34dへの分岐を発生させる。具体的には、右虹彩画像及び左虹彩画像の夫々に第2対象物体の像が含まれると検出された場合(ステップS34bのY)、ステップS34cに進む。右虹彩画像及び左虹彩画像の何れにも第2対象物体の像が含まれていないと検出された場合、又は、右虹彩画像及び左虹彩画像の一方にのみ第2対象物体の像が含まれると検出された場合、ステップS34dに進む。ステップS34cにおいて、行動評価部F4は、運転手が注目時刻にて左側の車外領域LLを目視していると判断する(即ち左側確認行動が実施されていると判断する)。ステップS34cにおいて、行動評価部F4は、運転手が注目時刻にて第2対象物体を目視していると判断しても良い。ステップS34dにおいて、行動評価部F4は、運転手が注目時刻にて左側の車外領域LLを目視していないと判断する(即ち左側確認行動が実施されていないと判断する)。
【0091】
上述のステップS31において、車外解析処理に含まれる左車外用の特徴点抽出処理により(
図10(c)参照)第2対象物体の特徴点の群が抽出され、その抽出結果が特徴点情報C
L1に反映される。ステップS34aに係る行動評価部F4は、ステップS31にて抽出された特徴点の群に対応する特徴点の群が右虹彩画像及び左虹彩画像の夫々に存在するかを検出及び判断する。そして、その判断結果が肯定であるときにステップS33cへの移行を発生させ、否定であるときにステップS33dへの移行を発生させる。
【0092】
ステップS34の処理内容について更に詳細な説明を設ける。説明の具体化のため、左車外画像、右虹彩画像及び左虹彩画像の夫々に被写体の像が1つだけ含まれる状況を考える。特徴点情報CL1により、左車外画像に含まれる被写体の像の形状が特定される。特徴点情報CL2により、右虹彩画像に含まれる被写体の像の形状が特定される(即ち、右目の虹彩に写り込んだ被写体の像の形状が特定される)。特徴点情報CL3により、左虹彩画像に含まれる被写体の像の形状が特定される(即ち、左目の虹彩に写り込んだ被写体の像の形状が特定される)。左車外画像に含まれる被写体の像は、ここでは第2対象物体の像である。
【0093】
行動評価部F4は、特徴点情報CL1により特定される第2対象物体の像の形状と、特徴点情報CL2により特定される被写体の像の形状と、の類似度S[L1:L2]を導出する。行動評価部F4は、特徴点情報CL1により特定される第2対象物体の像の形状と、特徴点情報CL3により特定される被写体の像の形状と、の類似度S[L1:L3]を導出する。
【0094】
そして、行動評価部F4は、類似度S[L1:L2]及びS[L1:L3]が共に所定の基準類似度SREF以上であるときに、右虹彩画像上の被写体及び左虹彩画像上の被写体が第2対象物体であると判断する。換言すれば、行動評価部F4は、“S[L1:L2]≧SREF”及び“S[L1:L3]≧SREF”の成立時に、右虹彩画像及び左虹彩画像の夫々に第2対象物体の像が含まれると検出及び判断する。この判断は、ステップS31にて抽出された特徴点の群に対応する特徴点の群が右虹彩画像及び左虹彩画像の夫々に存在するとの判断と等価である。
【0095】
行動評価部F4は、“S[L1:L2]<SREF”の成立時には右虹彩画像に第2対象物体の像が含まれないと検出及び判断し、“S[L1:L3]<SREF”の成立時には左虹彩画像に第2対象物体の像が含まれないと検出及び判断する。
【0096】
行動評価部F4は周知のパターンマッチングを用いて類似度S[L1:L2]及びS[L1:L3]を導出できる。同一の被写体の像が左車外画像及び右虹彩画像に含まれていたとしても、当該同一の被写体に関する像の大きさは、右虹彩画像において、左車外画像においてよりも小さい。このため、特徴点情報CL1により特定される形状の大きさを、特徴点情報CL2により特定される形状の大きさにまで縮小させるスケールダウン処理を行ってから、類似度S[L1:L2]を導出すれば良い。類似度S[L1:L3]についても同様である。
【0097】
図13を再度参照する。ステップS41において、行動評価処理に係る行動評価部F4は、顔を右又は左に向ける顔振り運動を伴った目視行動(確認行動)が運転手により行われていないと判断する。
【0098】
ステップS24、S34又はS41の後、ステップS50に進む。ステップS50では、行動評価部F4により、又は、行動評価部F4及び記録管理部F5により、結果出力処理が行われる。ステップS24を経た後の結果出力処理では、ステップS24における行動評価処理の評価及び判断結果を示す情報が、注目時刻の画像データIN及びOUT並びに車両情報と関連付けて記録媒体140に記録される。ステップS34を経た後の結果出力処理では、ステップS34における行動評価処理の評価及び判断結果を示す情報が、注目時刻の画像データIN及びOUT並びに車両情報と関連付けて記録媒体140に記録される。ステップS41を経た後の結果出力処理では、ステップS41における行動評価処理の評価及び判断結果を示す情報が、注目時刻の画像データIN及びOUT並びに車両情報と関連付けて記録媒体140に記録される。
【0099】
図13に示す一連の動作は、順次訪れる複数の時刻の夫々を注目時刻として捉えた上で、繰り返し実行される。このため、記録媒体140には、画像データIN及びOUT並びに車両情報と共に、各時刻における行動評価処理の評価及び判断結果が蓄積記録されてゆく。記録媒体140の記録内容を事故等があった場合の原因検証に役立てることができる。ステップS50にて記録媒体140に記録されると上述した任意のデータ及び情報を、インターフェース130を用いて、車両1の外部に設けられた外部装置(サーバ装置等)に送信するようにしても良い。
【0100】
また、演算処理部110は、行動評価処理の評価及び判断結果に応じた通知を運転手に対して行う通知管理部(不図示)を有していて良い。例えば、車両1が右折を行う際に、行動評価処理にて右側確認行動が不十分であると認められる場合、通知管理部は右折中に右側確認行動を促す通知又は右折後に右側確認行動に関する通知を運転手に行うようにしても良い。右側確認行動を促す通知は、例えば「顔を右側に向けて対向車等を確認して下さい」というメッセージの音声通知を含む。右側確認行動に関する通知は、例えば「右折の際には顔を右側に向けて対向車等を確認しましょう」というメッセージの音声通知を含む。任意の音声通知は、車載装置100に設けられたスピーカ(不図示)を用いて、又は、車載装置100に無線又は有線にて接続された電子機器(例えばカーナビゲーション装置又はスマートホン)のスピーカを用いて、実現される。
【0101】
図11に示す右目視ケースに対する
図13の動作を説明する。右目視ケースにおいて上述の第1対象物体は被写体P1である(
図8参照)。
図16に右目視ケースに関わる画像及び特徴点情報を示す。
図16は、
図10(b)及び(c)の一部と、
図11の一部を、併せて示したものである。右目視ケースでは、ステップS21にて右車外画像710に対する車外画像解析が行われることで、特徴点情報P1a_tが特徴点情報C
R1として得られる。右目視ケースでは、ステップS22にて右虹彩画像610に対する虹彩画像解析が行われることで特徴点情報P1c_tが特徴点情報C
R2として得られる。右目視ケースでは、ステップS23にて左虹彩画像620に対する虹彩画像解析が行われることで特徴点情報P1d_tが特徴点情報C
R3として得られる。像P1a、P1c及びP1dは共通の被写体P1の像であるため、右目視ケースにおいて類似度S[R1:R2]及びS[R1:R3]が基準類似度R
REF以上となることが期待される。
【0102】
図12に示す左目視ケースに対する
図13の動作を説明する。左目視ケースにおいて上述の第2対象物体は被写体P2である(
図9参照)。
図17に左目視ケースに関わる画像及び特徴点情報を示す。
図17は、
図10(b)及び(c)の一部と、
図12の一部を、併せて示したものである。左目視ケースでは、ステップS31にて左車外画像720に対する車外画像解析が行われることで、特徴点情報P2a_tが特徴点情報C
L1として得られる。左目視ケースでは、ステップS32にて右虹彩画像630に対する虹彩画像解析が行われることで特徴点情報P2c_tが特徴点情報C
L2として得られる。左目視ケースでは、ステップS33にて左虹彩画像640に対する虹彩画像解析が行われることで特徴点情報P2d_tが特徴点情報C
L3として得られる。像P2a、P2c及びP2dは共通の被写体P2の像であるため、左目視ケースにおいて類似度S[L1:L2]及びS[L1:L3]が基準類似度R
REF以上となることが期待される。
【0103】
このように、運転手における両目の虹彩の撮影結果を含む車内画像データINと、車外の撮影結果を含む車外画像データOUTと、基づき、演算処理部110は、運転手の車外に対する目視行動(換言すれば確認行動)を評価する。
【0104】
虹彩の撮影結果と車外の撮影結果との照合により運転手の目視内容を評価できる。このため、運転手による目視行動を正しく評価することが可能となる。目視行動の正確な評価を、事故等が生じた場合における原因検証に役立てることができると共に、安全運転に関する運転手への啓蒙にも役立てることができる。
【0105】
顔向きが右向きであっても、視線が右側の車外領域RRに向いていないケースもある。上述の参考方法では当該ケースにおいて右側の車外領域RRを運転手が目視及び確認していると誤検出されることがある。本実施例の方法では、運転手が実際に目で見たもの(虹彩に写り込んだ像の撮影結果)を利用するため、このような誤検出が抑制され、参考方法と異なり個人差の影響を受けにくい。
【0106】
また各時刻において運転手が見ていた対象を特定できるため、事故等が生じた場合において、運転手が脇見をしていたか等の検証が容易となる。例えば、事故の発生直前において運転手の目に店舗の看板が映っておれば、その看板への脇見運転が事故に繋がったのではないかとの推測を行うことができる。
【0107】
車外に位置する物体を対象物体と称する。対象物体は車外用カメラ220の視野内に位置するものとする。そうすると、車外画像データOUTは対象物体の画像データを含む。演算処理部110は、画像データIN及びOUTに基づき、右虹彩画像及び左虹彩画像の夫々に対象物体の像が含まれるかを検出することにより、運転手が対象物体の存在位置を含む対象領域を目視しているかを判断する。当該判断は、
図13の動作において顔向きが右向きと検出されたならばステップS21~S24の処理にて実現され、顔向きが左向きと検出されたならばステップS31~S34の処理にて実現される。これにより、運転手による目視行動を正しく評価することが可能となる。上記の対象領域は例えば右側の車外領域RR又は左側の車外領域LLである。対象領域は、対象物体の存在位置を含む任意の大きさ及び形状の領域であっても良い。
【0108】
より具体的には、右虹彩画像及び左虹彩画像の夫々に対象物体の像が含まれると検出したとき、演算処理部110は運転手が上記対象領域を目視していると判断できる(
図14のステップS24c又は
図15のステップS34c)。運転手が対象物体を目視しているとき、運転手の両目の虹彩に対象物体の像が写り込むからであり、上記判断を通じて運転手による目視行動を正しく評価することが可能となる。
【0109】
詳細には顔向き検出処理を利用することが好ましい。即ち、運転手の顔の向きの検出結果と画像データIN及びOUTとに基づき、演算処理部110は運転手の車外に対する目視行動(換言すれば確認行動)を評価することが好ましい。これにより、首振り行動を伴った適正な目視行動(左右確認行動)を運転者が行ったのかを、正しく評価することが可能となる。
【0110】
即ち、運転手の顔向きが右向きであると検出した場合、演算処理部110は、車内画像データINと右側画像データORとに基づき運転手が右側の車外領域RRを目視しているかを判断すれば良い(ステップS21~S24)。逆に、運転手の顔向きが左向きであると検出した場合、演算処理部110は、車内画像データINと左側画像データOLとに基づき運転手が左側の車外領域LLを目視しているかを判断すれば良い(ステップS31~S34)。これにより、首振り行動を伴った適正な目視行動(左右確認行動)を運転者が行ったのかを、正しく評価することが可能となる。 運転手の顔の向きに応じて参照する画像データを右側画像データOR又は左側画像データOLに限定することにより、処理負荷が軽減され、また誤検出の低減も期待される。
【0111】
運転手の顔向きが右向きであると検出され且つ右側の車外領域RRに被写体P1が第1対象物体として存在している第1ケースを想定する。第1ケースにおいて右側画像データORは第1対象物体の画像データを含むことになる。この場合、演算処理部110は、車内画像データIN及び右側画像データORに基づき、右虹彩画像及び左虹彩画像の夫々に第1対象物体の像が含まれるかを検出することにより、運転手が右側の車外領域RRを目視しているかを判断できる。当該判断は、
図13の動作においてステップS21~S24の処理にて実現される(
図14も参照)。具体的には、第1ケースにおいて、右虹彩画像及び左虹彩画像の夫々に第1対象物体の像が含まれると検出したとき、演算処理部110は、運転手が右側の車外領域RRを目視していると判断できる(ステップS24c)。
運転手の顔向きが左向きであると検出され且つ左側の車外領域LLに被写体P2が第2対象物体として存在している第2ケースを想定する。第2ケースにおいて左側画像データOLは第2対象物体の画像データを含むことになる。この場合、演算処理部110は、車内画像データIN及び左側画像データOLに基づき、右虹彩画像及び左虹彩画像の夫々に第2対象物体の像が含まれるかを検出することにより、運転手が左側の車外領域LLを目視しているかを判断できる。当該判断は、
図13の動作においてステップS31~S34の処理にて実現される(
図15も参照)。具体的には、第2ケースにおいて、右虹彩画像及び左虹彩画像の夫々に第2対象物体の像が含まれると検出したとき、演算処理部110は、運転手が左側の車外領域LLを目視していると判断できる(ステップS34c)。
【0112】
より詳細には、第1ケースにおいて、
図13のステップS21~S24の如く、特徴点情報の抽出結果(特徴点情報C
R1~C
R3)を用いて運転手が右側の車外領域RRを目視しているかを判断すれば良い。同様に、第2ケースにおいて、
図13のステップS31~S34の如く、特徴点情報の抽出結果(特徴点情報C
L1~C
L3)を用いて運転手が左側の車外領域LLを目視しているかを判断すれば良い。特徴点を利用することで、第1対象物体の像の画像サイズが小さい場合などにあっても、右虹彩画像及び左虹彩画像の夫々に第1対象物体の像が含まれるかを良好に判断することができる。第2対象物体についても同様である。
【0113】
演算処理部110は、順次取得される画像データIN及びOUTに基づきリアルタイムで
図13の動作を行うことができる。但し、注目時刻に関する
図13に示す動作は、注目時刻以降、任意のタイミングで行われても良い。演算処理部110と同等の機能を持つ演算処理部を車載装置100とは異なる外部装置(サーバ装置等)に設けておき、外部装置における演算処理部に、任意のタイミングにおいて
図13の動作を行わせても良い。
【0114】
<<第2実施例>>
第2実施例を説明する。第2実施例及び後述の他の実施例は、第1実施例を基礎とする実施例である。第2実施例にて特に記述なき事項は、第1実施例の記載が矛盾無き限り第2実施例に適用されて良い(後述の他の実施例でも同様)。
【0115】
行動評価部F4は、車内画像データINに基づき、運転手が居眠りをしている状態又は居眠りに近い状態にあるかを検出しても良い(この検出を居眠り検出と称する)。行動評価部F4は行動評価処理にて居眠り検出を行って良く、従って居眠り検出の結果が記録媒体140に記録されても良い。以下、運転手が居眠りをしている状態を居眠り状態と称する。居眠りに近い状態も居眠り状態に属すると考える。運転手が居眠りを一切行うことなく、完全に覚醒して目を見開いている状態を覚醒状態と称する。
【0116】
運転手において、居眠り状態には覚醒状態と比べて瞼が下がり、車外の被写体が虹彩に写り込む領域が減少する。この減少の有無及び程度を検出することで、行動評価部F4は居眠り検出を行うことができる。
【0117】
居眠り検出を行う際、行動評価部F4は所定の時間長さ(例えば10秒)を有する居眠り評価期間を設定する。居眠り検出では、居眠り評価期間にて取得されるnフレーム分の車内画像データINが参照される。居眠り検出で参照される車内画像データINは、居眠り評価期間にて取得される全フレーム又は一部フレームの車内画像データINである。nは2以上の任意の整数である。各フレームにおいて右虹彩画像の大きさ及び左虹彩画像の大きさの和を、虹彩サイズと称する。虹彩サイズは、運転手の両目において物体が映り込むことのできる領域のサイズに相当する。右虹彩画像の大きさは右虹彩画像の画素数で表される。左虹彩画像の大きさも同様である。行動評価部F4は、居眠り評価期間においてフレームごとに虹彩サイズを導出する。居眠り評価期間において、nフレームに対して導出されるn個の虹彩サイズの平均を平均虹彩サイズと称する。
【0118】
行動評価部F4は以下の第1居眠り検出を行って良い。第1居眠り検出に係る行動評価部F4は平均虹彩サイズを基準サイズSREF1と比較する。第1居眠り検出に係る行動評価部F4は、平均虹彩サイズが基準サイズSREF1以上であれば居眠り評価期間にて運転手が覚醒状態にあると判断し、平均虹彩サイズが基準サイズSREF1未満であれば居眠り評価期間にて運転手が居眠り状態にあると判断する。基準サイズSREF1は、第1居眠り検出が実行される前に行動評価部F4に対して与えられる。覚醒状態にある運転手を車内用カメラ210で撮影することで得た車内画像データINに基づき、基準サイズSREF1が予め行動評価部F4に登録されて良い。これにより、目の大きさに関する個人差を考慮した第1居眠り検出を実行できる。
【0119】
運転手が居眠り状態にあるとき、覚醒状態と比べて瞼が閉じる時間が多くなる。瞼が完全に閉じれば虹彩サイズはゼロとなる。このため、行動評価部F4は以下の第2居眠り検出を行っても良い。第2居眠り検出に係る行動評価部F4は、居眠り評価期間におけるn個の虹彩サイズを個別に基準サイズSREF2と比較し、n個の虹彩サイズの内、基準サイズSREF2以上の虹彩サイズの総数mを求める。第2居眠り検出に係る行動評価部F4は、割合“m/n”が所定値以上であれば居眠り評価期間にて運転手が覚醒状態にあると判断し、割合“m/n”が所定値未満であれば居眠り評価期間にて運転手が居眠り状態にあると判断する。ここにおける所定値は1より小さな正の値(例えば0.8)を持つ。基準サイズSREF2は、第2居眠り検出が実行される前に行動評価部F4に対して与えられる。覚醒状態にある運転手を車内用カメラ210で撮影することで得た車内画像データINに基づき、基準サイズSREF2が予め行動評価部F4に登録されて良い。これにより、瞬きの頻度に関する個人差を考慮した第2居眠り検出を実行できる。
【0120】
演算処理部110は警告部(不図示)を有していて良い。行動評価部F4により運転手が居眠り状態にあると判断されたとき、警告部は、運転手に対して所定の警告通知を行う又は運転席を振動させるなどにより、運転手の覚醒を促す。警告通知は、例えば「居眠りの可能性を検知しました。ご注意下さい」というメッセージの音声通知を含む。警告通知は単なる警告音の出力であっても良い。
【0121】
<<第3実施例>>
第3実施例を説明する。第1実施例では、車外画像データOUTが対象物体の画像データを含む場合、特徴点の抽出を利用して、右虹彩画像及び左虹彩画像の夫々に対象物体の像が含まれるかを検出している。しかしながら、この検出に際し、特徴点の抽出は必須ではない。
【0122】
例えば、車外画像データOUTが対象物体の画像データを含む場合、以下のようにしても良い。即ち、車外解析部F2は、車外カメラ画像から対象物体の画像データが存在する画像領域を切り出すことで、切り出し画像を生成する。その後、虹彩解析部F3は、切り出し画像との類似度が基準類似度以上となる第1マッチング画像が右虹彩画像に含まれるかをパターンマッチングにより探索する。更に、虹彩解析部F3は、切り出し画像との類似度が基準類似度以上となる第2マッチング画像が左虹彩画像に含まれるかをパターンマッチングにより探索する。行動評価部F4は、第1マッチング画像が右虹彩画像に含まれ且つ第2マッチング画像が左虹彩画像に含まれる場合に、右虹彩画像及び左虹彩画像の夫々に対象物体の像が含まれると判断できる。
【0123】
<<第4実施例>>
第4実施例を説明する。顔向き検出処理を非実行とする変形も可能である。顔向き検出処理を非実行とする場合にあっても、対象物体の画像データを含む車外画像データOUTと車内画像データINとに基づき、右虹彩画像及び左虹彩画像の夫々に対象物体の像が含まれるかを検出すれば良い。そして、右虹彩画像及び左虹彩画像の夫々に対象物体の像が含まれると検出されたならば、行動評価部F4は、運転手が対象物体の存在位置を含む対象領域を目視していると判断できる。顔向き検出処理を実行することで顔向きが正面向きであると検出された場合、又は、顔向き検出処理を実行したものの顔向きを検出できなかった場合も、顔向き検出処理を非実行とした場合と同様であって良い。
【0124】
<<第5実施例>>
第5実施例を説明する。
【0125】
十分に広い画角を有する単一のカメラをカメラブロック200に設けておき、当該単一のカメラにて画像データIN及びOUTを生成するようにしても良い。
【0126】
また、中心軸CXより右側の領域であって且つ車室内及び車外の双方の領域を視野に収めた第1カメラと、中心軸CXより左側の領域であって且つ車室内及び車外の双方の領域を視野に収めた第2カメラと、がカメラブロック200に設けられていて良い。この場合、第1カメラにて生成される画像データには、中心軸CXより右側に位置する各被写体の画像データが含まれる。第2カメラにて生成される画像データには、中心軸CXより左側に位置する各被写体の画像データが含まれる。そうすると、第1カメラにて生成される画像データに、車内画像データINの一部と車外画像データOUTの一部(車外領域RRの画像データ)が含まれる。第2カメラにて生成される画像データに、車内画像データINの残部と車外画像データOUTの残部(車外領域LLの画像データ)が含まれる。つまり、第1カメラの生成画像データにおける一部と第2カメラの生成画像データにおける一部とを合成することで車内画像データINが得られる。第1カメラの生成画像データにおける他の一部と第2カメラの生成画像データにおける他の一部とを合成することで車外画像データOUTが得られる。第1カメラの視野と第2カメラの視野は部分的に重複していても良く、重複箇所における各カメラの画像データに基づき、画像データの合成が行われる。
【0127】
車載装置100は運転手用の行動評価装置を内包する。運転手用の行動評価装置は、画像データIN及びOUTを取得するインターフェース130と、画像データIN及びOUTに基づく処理を行う演算処理部110と、を備える。但し、カメラブロック200から車載装置100に送れられた画像データIN及びOUTがインターフェース130を通じて演算処理部110にて取得される、と考えることもできる。このような考えが採用された場合、演算処理部110のみにて運転手用の行動評価装置が形成される、と解され得る。
【0128】
本発明の実施形態にて述べた任意の方法をコンピュータに実行させるプログラム、及び、そのプログラムを記録した記録媒体であって且つコンピュータ読み取り可能な不揮発性の記録媒体は、本発明の実施形態の範囲に含まれる。本発明の実施形態における任意の処理は、半導体集積回路等のハードウェア、上記プログラムに相当するソフトウェア、又は、ハードウェアとソフトウェアの組み合わせによって実現されて良い。ここにおけるソフトウェア及びハードウェアは夫々に複数あっても良い。
【0129】
本発明の一側面に係るプログラムは、車両の運転手における両目の虹彩の撮影結果を含む車内画像データ、及び、車外の撮影結果を含む車外画像データに基づき、前記運転手の車外に対する目視行動を評価する方法を処理部(110)に実行させるプログラムである。
【0130】
本発明の実施形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。
【符号の説明】
【0131】
1 車両
100 車載装置
110 演算処理部
120 メモリ
130 インターフェース
140 記録媒体
200 カメラブロック
210 車内用カメラ
220 車外用カメラ
300 センサブロック
310 走行センサ群
320 GPSセンサ
330 Gセンサ
IN 車内画像データ
OUT 車外画像データ
RR 右側の車外領域
LL 左側の車外領域
OR 右側画像データ
OL 左側画像データ
220R ライトカメラ
220L レフトカメラ
220F フロントカメラ
F1 顔向き検出部
F2 車外物体用の画像解析部(車外解析部)
F3 虹彩用の画像解析部(虹彩解析部)
F4 行動評価部
F5 記録管理部
P1 被写体(第1対象物体)
P2 被写体(第2対象物体)
P1a、P1c、P1d 像
P2a、P2c、P2d 像
LS1、LS2 視線
600、600_R、600_L 車内カメラ画像
610、630 右虹彩画像
620、640 左虹彩画像
700 車外カメラ画像
710 右車外画像
720 左車外画像
P1a_r、P2a_r 抽出領域
P1a_t、P2a_t 特徴点情報
P1c_t、P1d_t、P2c_t、P2d_t 特徴点情報