IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社JVCケンウッドの特許一覧

<>
  • 特許-映像処理装置および映像処理方法 図1
  • 特許-映像処理装置および映像処理方法 図2
  • 特許-映像処理装置および映像処理方法 図3
  • 特許-映像処理装置および映像処理方法 図4
  • 特許-映像処理装置および映像処理方法 図5
  • 特許-映像処理装置および映像処理方法 図6
  • 特許-映像処理装置および映像処理方法 図7
  • 特許-映像処理装置および映像処理方法 図8
  • 特許-映像処理装置および映像処理方法 図9
  • 特許-映像処理装置および映像処理方法 図10
  • 特許-映像処理装置および映像処理方法 図11
  • 特許-映像処理装置および映像処理方法 図12
  • 特許-映像処理装置および映像処理方法 図13
  • 特許-映像処理装置および映像処理方法 図14
  • 特許-映像処理装置および映像処理方法 図15
  • 特許-映像処理装置および映像処理方法 図16
  • 特許-映像処理装置および映像処理方法 図17
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-05-10
(45)【発行日】2023-05-18
(54)【発明の名称】映像処理装置および映像処理方法
(51)【国際特許分類】
   G08G 1/00 20060101AFI20230511BHJP
【FI】
G08G1/00 D
【請求項の数】 4
(21)【出願番号】P 2019003707
(22)【出願日】2019-01-11
(65)【公開番号】P2020113066
(43)【公開日】2020-07-27
【審査請求日】2022-01-11
(73)【特許権者】
【識別番号】308036402
【氏名又は名称】株式会社JVCケンウッド
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】小川 修治
【審査官】増子 真
(56)【参考文献】
【文献】特開2015-211741(JP,A)
【文献】特開2014-194625(JP,A)
【文献】特開2012-008790(JP,A)
【文献】特開2018-069806(JP,A)
【文献】特開2005-182307(JP,A)
【文献】特開2013-016037(JP,A)
【文献】再公表特許第2011/064831(JP,A1)
【文献】特開2014-048885(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/00 - 99/00
G06T 1/00 - 1/40
G06T 3/00 - 5/50
G06T 9/00 - 9/40
(57)【特許請求の範囲】
【請求項1】
車両の周囲を撮像する撮像部から映像データを取得する映像データ取得部と、
前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定する視線推定部と、
前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出する注視点導出部と、
前記注視点を基準とした注視映像データを前記映像データから切出す映像処理部と、
前記注視映像データを出力する出力制御部と、
前記注視点の履歴を管理し、前記注視点の前記履歴に基づいて左方向、右方向および上下方向において、前記運転者が頻繁に見ている少なくとも一方向の最頻注視点を取得する注視点履歴管理部と、
前記車両の左サイドミラー、右サイドミラーまたはルームミラーの位置情報を、前記運転者からの相対位置として算出する相対位置算出部と、を備え、
前記映像処理部は、取得した前記最頻注視点に基づいて、算出された前記左サイドミラー、前記右サイドミラーまたは前記ルームミラーの相対位置と前記注視点の視線の角度とが一致するように切出し位置を調整し整合させることで、前記注視点の基準を補正する、
映像処理装置。
【請求項2】
前記運転者の視線の動きに基づいて、前記運転者の運転技術の習熟度を判定する運転技術判定部をさらに備える、
請求項1に記載の映像処理装置。
【請求項3】
前記車両の車両速度を含む車両情報を取得する車両情報取得部をさらに備え、
前記映像処理部は、前記車両情報と、前記視線方向に基づいて、前記注視映像データの切出し範囲を決定する、
請求項1または2に記載の映像処理装置。
【請求項4】
車両の周囲を撮像する撮像部から映像データを取得するステップと、
前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定するステップと、
前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出するステップと、
前記注視点を基準とした注視映像データを前記映像データから切出すステップと、
前記注視映像データを出力するステップと、
前記注視点の履歴を管理し、前記注視点の前記履歴に基づいて左方向、右方向および上下方向において、前記運転者が頻繁に見ている少なくとも一方向の最頻注視点を取得するステップと、
前記車両の左サイドミラー、右サイドミラーまたはルームミラーの位置情報を、前記運転者からの相対位置として算出するステップと、
取得された前記最頻注視点に基づいて、算出された前記左サイドミラー、前記右サイドミラーまたは前記ルームミラーの相対位置と前記注視点の視線の角度とが一致するように切出し位置を調整し整合させることで、前記注視点の基準を補正するステップと、
を含む、映像処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、映像処理装置、映像処理方法、およびプログラムに関する。
【背景技術】
【0002】
車両事故などが起こった際に、事故を起こした運転者がどのような運転を行っていたのかを把握する技術が知られている。
【0003】
例えば、特許文献1には、車両の周辺画像に、車両を運転している運転者の視線方向を示すマーカを重畳して表示させることで、運転者の視線方向を把握することのできる技術が開示されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2007-72567号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1は、周辺画像における運転者の視線方向を特定できるが、運転者が具体的に何を見ているか特定できない可能性がある。そのため、運転者が、車両事故などを起こした際に、見ていたものを判定することのできる技術が望まれている。
【0006】
本発明は、車両事故などを起こした際に、運転者が見ていたものを判定することのできる映像処理装置、映像処理方法、およびプログラムを提供することを課題とする。
【課題を解決するための手段】
【0007】
本発明の第一の態様の映像処理装置は、車両の周囲を撮像する撮像部から映像データを取得する映像データ取得部と、前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定する視線推定部と、前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出する注視点導出部と、前記注視点を基準とした注視映像データを前記映像データから切出す映像処理部と、前記注視映像データを出力する出力制御部と、を備える。
【0008】
本発明の第二の態様の映像処理方法は、車両の周囲を撮像する撮像部から映像データを取得するステップと、前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定するステップと、前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出するステップと、前記注視点を基準とした注視映像データを前記映像データから切出すステップと、前記注視映像データを出力するステップと、を含む。
【0009】
本発明の第三の態様のプログラムは、車両の周囲を撮像する撮像部から映像データを取得するステップと、前記車両を運転する運転者の頭の位置および向きに基づいて、前記運転者の視線方向を推定するステップと、前記運転者の前記視線方向に基づいて、前記運転者の注視点を導出するステップと、前記注視点を基準とした注視映像データを前記映像データから切出すステップと、前記注視映像データを出力するステップと、を映像処理装置として動作するコンピュータに実行させる。
【発明の効果】
【0010】
本発明によれば車両事故などを起こした際に、運転者が見ていたものを判定することができる。
【図面の簡単な説明】
【0011】
図1図1は、本発明の第一実施形態に係る映像処理システムの構成を示すブロック図である。
図2図2は、本発明の第一実施形態に係る映像処理システムの構成を示す概略図である。
図3図3は、車両周辺を撮像する範囲を説明するための模式図である。
図4図4は、周辺映像データにおける注視点の位置データを導出し、導出した注視点を基準として注視映像データを切出す方法を説明するための図である。
図5図5は、注視映像データを拡大する方法の一例を説明するための図である。
図6図6は、切出した注視映像データを拡大した様子を示す図である。
図7図7は、運転者の視線の軌跡を表示させる方法の一例を説明するための図である。
図8図8は、運転者の視線の軌跡の範囲を表示させる方法の一例を説明するための図である。
図9図9は、本発明の第一実施形態に係る映像処理システムの処理の流れの一例を示すフローチャートである。
図10図10は、本発明の第一実施形態に係る映像処理システムの処理の流れの一例を示すフローチャートである。
図11図11は、本発明の第一実施形態の第一変形例に係る映像処理システムの構成を示すブロック図である。
図12図12は、本発明の第一実施形態の第二変形例に係る映像処理システムの構成を示すブロック図である。
図13図13は、注視映像データの切出す範囲を変更する方法を説明するための図である。
図14図14は、本発明の第一実施形態の第二変形例に係る映像処理システムの処理の流れの一例を示すフローチャートである。
図15図15は、本発明の第二実施形態に係る映像処理システムの構成を示すブロック図である。
図16図16は、本発明の第二実施形態に係る映像処理システムの処理の流れの一例を示すフローチャートである。
図17図17は、本発明の第三実施形態に係る映像処理システムの構成を示すブロック図である。
【発明を実施するための形態】
【0012】
以下、図面を参照しながら、本発明の実施形態について詳細に説明する。なお、各図において同一または相当する部分には同一の符号を付して適宜説明は省略する。また、下記実施形態又は実施例における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能であり、また、実施形態又は実施例が複数ある場合には、各実施形態又は実施例を組み合わせることも可能である。
【0013】
図1は、本発明の第一実施形態に係る映像処理システムの構成を示すブロック図である。図1に示すように、映像処理システム1は、撮像部10と、表示部20と、映像処理装置100とを備える。図2に示すように、映像処理装置100は、車両Cに搭載される。図2には、左サイドミラー2と、右サイドミラー3と、ルームミラー4と、ステアリングホイール5とが示されている。映像処理システム1は、例えば、車両Cに搭載されるドライブレコーダであり、車両Cの周辺の画像と、車両周辺の映像から運転者の見ているものを切出した映像との両方を表示部20に表示したり、記憶媒体に記録したりする。
【0014】
撮像部10は、周辺撮像部11と、運転者撮像部12とを有する。図2では、撮像部10は、ルームミラー4の上方に配置されているが、これは模式的に示した一例であり、撮像部10を配置する位置を限定するものではない。
【0015】
周辺撮像部11は、車両Cの周囲を撮像する。周辺撮像部11は、例えば、全天球カメラなどの広角カメラである。周辺撮像部11は、例えば、車両Cの前方を撮像する前方カメラと、後方を撮像する後方カメラと、左側方を撮像する左側方カメラと、右側方を撮像する右側方カメラとの複数のカメラから構成されていてもよい。周辺撮像部11は、運転者の視線の方向に応じて駆動するカメラであってもよい。この場合、周辺撮像部11は、通常時は車両Cの進行方向を撮像し、後述する運転者撮像部12によって撮像された運転者の頭部や、視線の方向に追従して駆動し、運転者の視線の方向を撮像する構成とすればよい。
【0016】
図3は、周辺撮像部11が撮像した周辺映像データ300を説明するための図である。図3に示すように、周辺撮像部11は、前方と、後方と、左側方と、右側方とを含む車両Cの周辺を撮像する。周辺撮像部11は、撮像した前方を前方映像データ210として映像データ取得部111に出力する。周辺撮像部11は、撮像した後方を後方映像データ220として映像データ取得部111に出力する。周辺撮像部11は、撮像した左側方を左側映像データ230として映像データ取得部111に出力する。周辺撮像部11は、撮像した右側方を右側映像データ240として映像データ取得部111に出力する。周辺撮像部11は、全天球カメラで全天球映像を撮像した場合には、その映像を全天球映像データとして映像データ取得部111に出力する。
【0017】
再び図1を参照する。運転者撮像部12は、少なくとも運転者の顔の向きを判別できるように運転者の頭部を撮像する。運転者撮像部12は、運転者の眼球を撮像できる場合には、運転者の眼球を撮像することが好ましい。運転者撮像部12は、例えば、ルームミラー4の近傍や、ステアリングホイール5の前方に設けられる。なお、運転者撮像部12は、例えば、周辺撮像部11が車両Cの内部に設けられた全天球カメラであり、周辺撮像部11で運転者を撮像できる場合には、備えていなくてもよい。
【0018】
表示部20は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro-Luminescence)ディスプレイなどを含むディスプレイである。表示部20は、映像処理装置100によって処理された映像を表示する。具体的には、表示部20は、周辺映像データ300を表示してもよいし、少なくとも前方映像データ210を表示すればよい。
【0019】
映像処理装置100は、制御部110と、記憶部130とを備える。
【0020】
制御部110は、映像処理システム1を構成する各部を制御する。具体的には、制御部110は、記憶部130に記憶されているプログラムを展開して実行することによって、映像処理システム1を構成する各部を制御する。制御部110は、例えば、CPU(Central Processing Unit)を含む電子的な回路などで実現することができる。制御部110は、映像データ取得部111と、視線推定部112と、注視点導出部113と、映像処理部114と、出力制御部115とを有する。
【0021】
映像データ取得部111は、周辺撮像部11が撮像した車両Cの周辺映像データ300を取得する。映像データ取得部111は、運転者撮像部12が撮像した運転者の頭部映像データを取得する。映像データ取得部111は、周辺映像データ300を注視点導出部113に出力し、頭部映像データを視線推定部112に出力する。映像データ取得部111は、周辺映像データ300を、例えば、記憶部130や、外部の記憶装置などに出力する。すなわち、本実施形態では、周辺映像データ300と、運転者の視線の方向の映像との両方の映像を記憶または出力する。
【0022】
視線推定部112は、運転者の頭部映像データに基づいて、運転者の視線の方向を推定する。具体的には、視線推定部112は、運転者の顔の向きに基づいて、運転者の視線の方向を推定する。視線推定部112は、運転者の視線の方向の推定結果を注視点導出部113に出力する。視線推定部112は、推定結果を記憶部130に履歴として格納する。
【0023】
注視点導出部113は、周辺映像データ300と、運転者の視線の方向の推定結果に基づいて、周辺映像データ300における注視点の位置データを導出する。具体的には、注視点の位置データとは、運転者の視線の方向ベクトルと、周辺映像データ300との交点を意味する。
【0024】
図4は、周辺映像データ300における注視点の位置データを導出し、導出した注視点を基準として注視映像データを切出す方法を説明するための図である。図4には、周辺映像データ300の一例として、前方映像データ210が示されている。まず、注視点導出部113は、運転者の視線の推定結果に基づいて、視線ベクトルVを導出する。そして、注視点導出部113は、例えば、視線ベクトルVと前方映像データ210との交点に、注視点Pの位置データを導出する。注視点導出部113は、導出した注視点Pの位置データを映像処理部114に出力する。以下では、前方映像データ210を例として説明するが、後方映像データ220と、左側映像データ230と、右側映像データ240についても同様である。
【0025】
映像処理部114は、注視点Pの位置を基準(中心)とした所定範囲の注視映像データを前方映像データ210から切出す。図4に示すように、映像処理部114は、注視点Pを基準として範囲Xの注視映像データを前方映像データ210から切出す。ここでは、映像処理部114は、例えば、注視点Pを基準として、人の注意力が及ぶ範囲、言い換えると、人が映像から被撮影物を認識可能な範囲を切出す。映像処理部114は、運転者の視線の方向に応じて切出す範囲Xを変えてもよい。この場合、映像処理部114は、目視などで左右方向を見た場合に切出す範囲を予め設定されていればよい。例えば、映像処理部114は、左側映像データ230や、右側映像データ240から切出す注視映像データの範囲を、前方映像データ210から切出す注視映像データの範囲よりも狭くしてもよい。
【0026】
映像処理部114は、例えば、運転者ごとに切出す範囲を変えてもよい。この場合、例えば、記憶部130に、運転者ごとの切出す範囲を予め記憶しておけばよい。映像処理部114は、例えば、運転者の通常時の視線の動きとは異なる動きをした場合に、導出された注視点Pの周辺を拡大して表示したり、切出す範囲を変更したりしてもよい。この場合、例えば、記憶部130に、運転者の通常時の視線の動きなどを記憶させればよい。通常時の視線の動きと異なる動きとは、運転時に運転者の視線が動く平均的な範囲から外れる動き、視線が動く平均的な速度の範囲から外れた動き、視線が留まる時間が平均的な時間より長い動きなどである。
【0027】
映像処理部114は、例えば、注視点Pの位置が変わるたびに切出す位置を変更してもよいし、注視点Pが第一の位置で検出された後、第一の位置から所定の距離以上離れた位置で注視点Pが検出された場合にのみ切出す位置を変更してもよい。この場合、映像処理部114は、例えば、第一の位置から範囲Xの外縁までの距離の50%以上近づいた位置で注視点Pが検出された場合に切出す位置を変更する。また、映像処理部114は、第一の位置から範囲Xの外縁まで距離の20%以上近づいた位置で注視点Pが検出された場合に切出す位置を変更してもよいし、80%以上近づいた位置で注視点Pが検出された場合に切出す位置を変更してもよい。すなわち、第一の位置からの所定距離は、ユーザの所望の値に設定するようにすればよい。
【0028】
図5を用いて、注視映像データを拡大する方法について説明する。図5は、注視映像データを拡大する方法の一例を説明するための図である。
【0029】
映像処理部114は、例えば、運転者が特定の場所を所定時間(例えば、5秒間)注視していた場合には、その場所を拡大してもよい。図5に示す例では、運転者は、車両C2を所定の時間注視していたとする。この場合、映像処理部114は、注視点Pを基準とした
所定範囲を拡大して表示する。ここで、映像処理部114が拡大する範囲Xaは、図4に示す通常の切出し範囲Xよりも小さくすることが好ましい。
【0030】
図6は、切出した注視映像データを拡大した様子を示す図である。図6に示すように、映像処理部114は、切出した注視映像データを拡大してもよい。この場合、映像処理部114は、例えば、拡大した注視映像データに対して物体認識処理をかけることによって、範囲Xaに含まれる物体を抽出するようにしてもよい。
【0031】
図7を用いて、運転者の視線の軌跡を表示させる方法について説明する。図7は、運転者の視線の軌跡を表示させる方法の一例を説明するための図である。
【0032】
図7に示すように、映像処理部114は、例えば、切出した範囲Xにおける運転者の視線の軌跡を前方映像データ210に重畳して表示させてもよい。図7に示す例では、前方映像データ210において、運転者の視線の軌跡Tが示されている。運転者の視線の軌跡Tには、一定時間注視していたポイントである、第一注視点P1と、第二注視点P2と、第三注視点P3と、第四注視点P4と、第五注視点P5と、第六注視点P6と、第七注視点P7と、第八注視点P8と、第九注視点P9とが白丸で示されている。この場合、運転者は、第一注視点P1から第九注視点P9まで順に視線を動かしたことを意味している。この場合、範囲Xの中心は、第九注視点P9となる。ここで、例えば、運転者が注視していた時間に応じて、第一注視点P1から第九注視点P9の大きさを変えてもよい。図7に示す例では、第一注視点P1が最も大きく、次に第六注視点P6と、第九注視点P9とが大きく、第二注視点P2と、第三注視点P3と、第四注視点P4と、第五注視点P5と、第七注視点P7と、第八注視点P8とが最も小さい。この場合、運転者は、第一注視点P1を注視していた時間が最も長く、次に第六注視点P6と、第九注視点P9とを注視していた時間が長く、第二注視点P2と、第三注視点P3と、第四注視点P4と、第五注視点P5と、第七注視点P7と、第八注視点P8とを注視していた時間が最も短いことを意味している。映像処理部114は、上述したような運転者の視線の軌跡を常時表示させてもよいし、運転者の特定の動作が検出された場合にのみ表示させてもよい。運転者の特定の動作とは、特定のポイントを所定時間(例えば、5秒間)注視する、通常時よりも視線の動きが激しく変動するなどが挙げられるが、これらに限定されない。また、映像処理部114は、車両の走行好況に応じて、運転者の視線の軌跡を表示する時間を変えるようにしてもよい。映像処理部114は、例えば、市街地や、繁華街を走行している場合には、軌跡を表示する時間を短くしたり、長くしたりしてもよい。また、映像処理部114は、交差点の右左折時などの周囲の状況をより注意深く確認する必要のある状況では、軌跡を表示する時間を長くするようにしてもよい。
【0033】
図8は、運転者の視線の軌跡を表示させる方法の図7とは異なる一例を説明するための図である。図8に示すように、映像処理部114は、周辺映像データ300において、運転者が見ていた範囲を表示してもよい。図8には、運転者が見ていた範囲として、左側映像データ230内の第一範囲A1と、前方映像データ210内の第二範囲A2と、右側映像データ240内の第三範囲A3とが示されている。この場合、例えば、第一範囲A1は時刻t1の時点で運転者が見ていた範囲であり、第二範囲A2が時刻t1よりも後の時刻t2の時点で運転者が見ていた範囲であり、第三範囲A3が時刻t2よりも後の時刻t3の時点で運転者が見ていた範囲である。すなわち、映像処理部114は、周辺映像データ300において、見ていた範囲の時間変化を可視化する。
【0034】
映像処理部114は、図6と、図7と、図8との表示方式を状況に応じて切り替えるようにしてもよい。また、図6と、図7と、図8との表示方式は、ユーザが自由に切り替えられるようにしてもよい。
【0035】
映像処理部114は、車両Cが特定の場所を走行している場合に、運転者の視線の軌跡を周辺映像データ300に表示するようにしてもよい。特定の場所とは、例えば、市街地などの死角が多い場所を挙げられるが、これに限定されない。
【0036】
映像処理部114は、注視映像データを出力制御部115に出力する。
【0037】
出力制御部115は、注視映像データを出力する。出力制御部115は、例えば、注視映像データを表示部20に出力する。これにより、運転者などは、表示部20を視認することで、注視映像データを確認することができる。出力制御部115は、例えば、注視映像データを記憶部130に出力してもよいし、図示しないSDカードなどの可搬型記録媒体に出力してもよい。これにより、運転者などは車両以外の場所で注視映像データを確認することができる。
【0038】
記憶部130は、制御部110が映像処理システム1の各部を制御するためのプログラムを記憶している。記憶部130は、例えば、周辺映像データ300から注視映像データを切出す範囲を運転者ごとに記憶してもよい。記憶部130は、例えば、運転をしている際の通常時の視線の動きの傾向を運転者ごとに記憶している。記憶部130は、例えば、推定された運転者の視線の方向を履歴として記憶している。記憶部130は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、ソリッドステートドライブ、光ディスクなどの記憶装置である。
【0039】
図9を用いて、映像処理装置100の制御部110の処理について説明する。図9は、制御部110の処理の流れの一例を示すフローチャートである。
【0040】
まず、制御部110は、周辺画像データと、頭部映像データとを取得する(ステップS101)。具体的には、制御部110は、映像データ取得部111によって、周辺画像データと、頭部映像データとを取得する。そして、制御部110は、ステップS102に進む。
【0041】
制御部110は、頭部映像データに基づいて、運転者の視線の方向を推定する(ステップS102)。具体的には、制御部110は、視線推定部112によって、運転者の視線の方向を推定する。そして、制御部110は、ステップS103に進む。
【0042】
制御部110は、周辺映像データ300と、運転者の視線の方向の推定結果に基づいて、注視点の位置データを導出する(ステップS103)。具体的には、制御部110は、注視点導出部113によって、注視点の位置データを導出する。そして、制御部110は、ステップS104に進む。
【0043】
制御部110は、周辺映像データ300から、注視点を基準とした所定範囲の注視映像データを切出す(ステップS104)。具体的には、制御部110は、映像処理部114によって、周辺映像データ300から注視映像データを切出す。そして、制御部110は、ステップS105に進む。
【0044】
制御部110は、注視映像データを出力する(ステップS105)。具体的には、制御部110は、出力制御部115によって、注視映像データを出力する。そして、制御部110は、図9の処理を終了する。
【0045】
図10を用いて、映像処理装置100の制御部110の図9とは異なる処理について説明する。図10は、制御部110の処理の流れの一例を示すフローチャートである。
【0046】
ステップS201からステップS204は、図9に図示のステップS101からステップS104と同様なので説明は省略する。
【0047】
制御部110は、運転者の特定の動作を検出する(ステップS205)。具体的には、制御部110は、映像処理部114によって運転者の特定の動作を検出する。なお、ステップS205では、特定の場所を走行しているか否かを検出するようにしてもよい。そして、制御部110は、ステップS206に進む。
【0048】
運転者の特定の動作が検出された場合(ステップS206の「Yes」)、制御部110は、ステップS207に進み、拡大した注視映像データと、運転者の視線の軌跡を表示した注視映像データとの少なくとも一方を出力する(ステップS207)。具体的には、制御部110は、映像処理部114によって、拡大した注視映像データと、運転者の視線の軌跡を表示した注視映像データとの少なくとも一方を出力する。そして、制御部110は、図10の処理を終了する。
【0049】
一方、運転者の特定の動作が検出されなかった場合(ステップS206の「No」)、制御部110は、ステップS208に進み、ステップS204で切出した注視映像データを出力する(ステップS208)。具体的には、制御部110は、映像処理部114によって、ステップS204で切出した注視映像データを出力する。そして、制御部110は、図10の処理を終了する。
【0050】
上述のとおり、第一実施形態は、周辺映像データのうち、運転者が運転中に注視したと推定された箇所を注視映像データとして出力することができる。これにより、第一実施形態は、例えば、運転者の視線方向の映像を記録するドライブレコーダを提供することができる。
【0051】
また、第一実施形態は、運転者の視線方向の映像を記録することができるので、赤信号の見落とし、歩行者などの飛び出しに対する気づきの遅れ、わき見運転などを映像から判定することができる。これにより、第一実施形態は、例えば、自動車事故が起こった際の運転者の運転状況を、精度よく分析することができる。
【0052】
さらに、第一実施形態は、運転者の視線方向の映像を記録することができるので、例えば、珍しい建物、綺麗な景色、標識や周囲を走行する車両などを運転者目線で記録することができる。これにより、第一実施形態は、旅行などの楽しい思い出を運転者目線で記録することができる。
【0053】
[第一実施形態の第一変形例]
図11は、本発明の第一実施形態の第一変形例に係る映像処理システム1Aの構成を示すブロック図である。図11に示すように、映像処理システム1Aは、映像処理装置100Aの制御部110Aが、視線検出部116を備えている点で、映像処理システム1と異なっている。
【0054】
映像処理システム1Aにおいては、運転者撮像部12は、運転者の眼球の様子を撮像する。この場合、運転者撮像部12は、運転者の眼球の様子を眼球映像データとして映像データ取得部111に出力する。
【0055】
映像データ取得部111は、運転者撮像部12から眼球映像データを取得する。映像データ取得部111は、眼球映像データを視線検出部116に出力する。
【0056】
視線検出部116は、眼球映像データから例えば目の輪郭および黒目の位置に基づいて、運転者の視線の方向を検出する。視線検出部116が運転者の視線の方向を検出する方法に特に制限なく、公知の技術を用いて検出すればよい。例えば、視線検出部116は、アイトラッキング、ゲイズプロットなどによって運転者の視線を検出する。視線検出部116は、検出結果を注視点導出部113に出力する。視線検出部116は、視線の検出結果を履歴として記憶部130に格納する。
【0057】
注視点導出部113は、周辺映像データ300と、運転者の視線の検出結果に基づいて、周辺映像データ300における注視点の位置データを導出する。注視点導出部113は、注視点の位置データを映像処理部114に出力する。映像処理部114と、出力制御部115との処理は第一実施形態と同じなので、説明は省略する。
【0058】
上述のとおり、第一実施形態の第一変形例は、周辺映像データ300のうち、運転者が運転中に注視した箇所を注視映像データとして切出すことができる。これにより、第一実施形態の第一変形例は、より精度を向上させることができる。
【0059】
[第一実施形態の第二変形例]
図12は、第一実施形態の第二変形例に係る映像処理システム1Bの構成を示すブロック図である。映像処理システム1Bは、照度センサ30と、雨量センサ40とを備えている点、映像処理装置100Bの制御部110Bが車両情報取得部117と、周辺情報取得部118とを備えている点で、映像処理システム1と異なっている。映像処理システム1Bは、照度センサ30や、雨量センサ40の検出結果、車両情報取得部117によって取得された車両情報に応じて切出す範囲を変更する。具体的には、映像処理システム1Bは、車両情報や、周辺情報に応じて変化する、運転者が視認する範囲を切出す。
【0060】
照度センサ30は、映像処理システム1Bを搭載する車両の周囲の照度を検出する。照度センサ30は、検出した照度を映像処理部114に出力する。
【0061】
雨量センサ40は、映像処理システム1Bを搭載する車両の周囲の雨量を検出する。雨量センサ40は、検出した雨量を映像処理部114に出力する。
【0062】
照度センサ30や、雨量センサ40は、映像処理システム1Bが備える車両Cの周辺情報を取得するセンサの一例であり、本実施形態が備えるセンサの種類を限定するものではない。映像処理システム1Bは、照度センサ30や、雨量センサ40に限らず、車両Cの周辺のその他の周辺情報を検出するセンサを備えていてもよい。この場合、映像処理部114は、検出された周辺情報に応じて、切出す範囲を変更する。
【0063】
車両情報取得部117は、例えば、車両Cの速度を含む車両情報を、CAN(Controller Area Network)や車両Cの状態をセンシングする各種センサなどから取得する。車両情報取得部117は、例えば、車両情報として、GPS(Global Positioning System)受信機を使用して取得した車両Cの現在地情報を取得する。車両情報取得部117は、取得した車両情報を映像処理部114に出力する。
【0064】
周辺情報取得部118は、照度センサ30から車両Cの周囲の照度の検出結果を取得する。周辺情報取得部118は、雨量センサ40から車両Cの周囲の雨量の検出結果を取得する。周辺情報取得部118は、映像処理システム1Bがその他の周辺情報を検出するセンサを備えている場合には、そのセンサが取得した周辺情報を取得する。
【0065】
映像処理部114は、車両の周囲の照度に応じて注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両の周囲の明るさが暗いほど注視映像データの切出し範囲を広くする。この場合、映像処理部114は、注視映像データの切出し範囲を線形に変化させてもよいし、段階的に変化させてもよい。
【0066】
映像処理部114は、車両の周囲の雨量に応じて注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両の周囲の雨量が多いほど注視映像データの切出し範囲を広くする。この場合、映像処理部114は、注視映像データの切出し範囲を線形に変化させてもよいし、段階的に変化させてもよい。
【0067】
映像処理部114は、車両情報に応じて注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両情報に含まれる車両の速度情報に基づいて、注視映像データの切出し範囲を変更する。映像処理部114は、例えば、車両の速度が速いほど切出す範囲を狭くする。この場合、映像処理部114は、注視映像データの切出し範囲を線形に変化させてもよいし、段階的に変化させてもよい。
【0068】
映像処理部114は、例えば、車両情報に含まれる位置情報に応じて切出し範囲を変更してもよい。映像処理部114は、例えば、車両Cの現在位置が高速道路であると判定された場合、注視映像データの切出す範囲を狭くする。映像処理部114は、例えば、車両Cの現在位置が商店街などの物が多かったり、道路の幅が狭かったりする場所である場合には、切出す範囲を狭くする。映像処理部114は、例えば、道路の幅が広い場所である場合には、切出す範囲を広くする。
【0069】
映像処理部114は、周辺情報と、車両情報との両方に基づいて、切出し範囲を変更してもよいし、周辺情報と、車両情報との少なくとも一方に基づいて、切出し範囲を変更してもよい。
【0070】
図13は、注視映像データの切出す範囲を変更する方法を説明するための図である。図13に示すように、映像処理部114は、例えば、通常時には、前方映像データ210から注視点Pを基準として範囲X1の注視映像データを切出す。映像処理部114は、周辺情報や、車両情報に基づいて切出し範囲を狭くすると判断した場合には、例えば、前方映像データ210から注視点Pを基準として範囲X2の注視映像データを切出す。映像処理部114は、周辺情報や、車両情報に基づいて切出し範囲を広くすると判断した場合には、例えば、前方映像データ210から注視点Pを基準として範囲X3の注視映像データを切出す。なお、映像処理部114は、注視映像データの範囲を変更し、変更された注視映像データの範囲内における、運転者の視線の軌跡を表示するようにしてもよい。
【0071】
図14を用いて、映像処理装置100Bの制御部110Bの処理について説明する。図14は、制御部110Bの処理の流れの一例を示すフローチャートである。
【0072】
ステップS301からステップS303については、図9に図示のステップS101からステップS103と同様なので説明は省略する。
【0073】
制御部110Bは、車両情報と、周辺情報との少なくとも一方を取得する(ステップS304)。具体的には、制御部110Bは、車両情報取得部117によって車両情報を取得し、周辺情報取得部118によって周辺情報を取得する。そして、制御部110Bは、ステップS305に進む。
【0074】
制御部110Bは、車両情報と、周辺情報との少なくとも一方に基づいて、注視点を基準とした所定範囲の注視映像データを周辺映像データ300から切出す(ステップS305)。具体的には、制御部110Bは、映像処理部114によって、所定範囲の注視映像データを周辺映像データ300から切出す。そして、制御部110Bは、ステップS306に進む。
【0075】
ステップS306は、図9に図示のステップS105と同様なので説明は省略する。そして、制御部110Bは、図14の処理を終了する。
【0076】
上述のとおり、第一実施形態の第二変形例は、車両情報と、周辺情報との少なくとも一方に基づいて、周辺映像データ300から注視映像データを切出す範囲を変更することができる。これにより、第一実施形態の第二変形例は、より精度を向上させることができる。また、第一実施形態の第二変形例は、状況に応じて範囲が変更された注視映像データにおける運転者の目線の軌跡を表示させることによって、より詳細に運転者の視線の動きを判定することができる。
【0077】
[第二実施形態]
図15を用いて、本発明の第二実施形態に係る映像処理システム1Cについて説明する。図15は、映像処理システム1Cの構成を示すブロック図である。
【0078】
図15に示すように、映像処理システム1Cは、映像処理装置100Cの制御部110Cが注視点履歴管理部119と、ミラー位置取得部120と、相対位置算出部121とを備えている点で映像処理システム1とは異なっている。
【0079】
注視点履歴管理部119は、記憶部130が記憶している運転者の視線の方向の履歴に基づいて、例えば、左右方向において運転者が最も頻繁に見ている最頻注視点を取得する。注視点履歴管理部119は、例えば、上下方向において運転者が頻繁に見ている箇所を取得する。注視点履歴管理部119は、取得結果を映像処理部114に出力する。
【0080】
ミラー位置取得部120は、例えば、図2に示すような左サイドミラー2と、右サイドミラー3と、ルームミラー4との車両Cにおける位置を、例えば、CANなどから取得する。ミラー位置取得部120は、左サイドミラー2と、右サイドミラー3と、ルームミラー4との位置情報を、相対位置算出部121に出力する。
【0081】
相対位置算出部121は、左サイドミラー2と、右サイドミラー3と、ルームミラー4との位置情報に基づいて、各ミラーの位置を運転者からの相対位置として算出する。ここでは、例えば、映像データ取得部111が運転者の頭部映像データを相対位置算出部121に出力する。この場合、相対位置算出部121は、左サイドミラー2と、右サイドミラー3と、ルームミラー4との位置情報と、頭部映像データに含まれる運転者の頭部の位置に基づいて、各ミラーの位置を運転者からの相対位置として算出する。相対位置算出部121は、各ミラーの相対位置を映像処理部114に出力する。
【0082】
映像処理部114は、左方向における最頻注視点と、左サイドミラー2の相対位置とを整合させる。映像処理部114は、右方向における最頻注視点と、右サイドミラー3の相対位置とを整合させる。映像処理部114は、上下方向における最頻注視点と、ルームミラー4の相対位置とを整合させる。これは、左方向における最頻注視点は左サイドミラー2の相対位置と一致し、右方向における最頻注視点は右サイドミラー3の相対位置と一致し、上下方向における最頻注視点はルームミラー4の相対位置と一致すると考えられるためである。そして、映像処理部114は、視線の角度と、各ミラーの相対位置とが一致するように注視映像データを切出すように調整する。これにより、本実施形態は、注視点の基準が補正されることになるので、運転者の注視点の導出精度を向上することができる。
【0083】
図16を用いて、映像処理装置100Cの制御部110Cの処理について説明する。図16は、制御部110Cの処理の流れの一例を示すフローチャートである。
【0084】
制御部110Cは、左右方向および上下方向の少なくとも1つの最頻注視点を取得する(ステップS401)。具体的には、制御部110Cは、注視点履歴管理部119によって、最頻注視点を取得する。そして、制御部110Cは、ステップS402に進む。
【0085】
制御部110Cは、左サイドミラー2と、右サイドミラー3と、ルームミラー4との少なくとも1つの位置を取得する(ステップS402)。具体的には、制御部110Cは、ミラー位置取得部120によって、ステップS401で取得した最頻注視点に対応するミラーの位置を取得する。そして、制御部110Cは、ステップS403に進む。
【0086】
制御部110Cは、運転者の頭部映像データを取得する(ステップS403)。具体的には、制御部110Cは、映像データ取得部111によって、運転者の頭部映像データを取得する。そして、制御部110Cは、ステップS404に進む。
【0087】
制御部110Cは、ステップS402で取得したミラーの位置と、ステップS403で取得した運転者の頭部映像データに基づいて、ミラーの相対位置を算出する(ステップS404)。具体的には、制御部110Cは、相対位置算出部121によって、ミラーの相対位置を算出する。そして、制御部110Cは、ステップS405に進む。
【0088】
制御部110Cは、ステップS401で取得した最頻注視点と、ステップS404で算出したミラーの相対位置に基づいて、注視映像データの切出し位置を調整する(ステップS405)。具体的には、制御部110Cは、映像処理部114によって、注視映像データの切出し位置を調整する。そして、制御部110Cは、図16の処理を終了する。
【0089】
上述のとおり、第二実施形態は、運転者の最頻注視点と、ミラーの相対位置に基づいて、注視映像データの切出し位置を調整することができる。これにより、第二実施形態は、より精度を向上させることができる。
【0090】
[第三実施形態]
図17を用いて、本発明の第三実施形態に係る映像処理システム1Dの構成について説明する。図17は、本発明委の第三実施形態に係る映像処理システム1Dの構成を示すブロック図である。
【0091】
図17に示すように、映像処理システム1Dは、映像処理装置100Dの制御部110Dが、運転技術判定部122を備えている点で、映像処理システム1とは異なっている。
【0092】
運転技術判定部122は、例えば、映像データ取得部111が取得した運転者の頭部映像データや、映像処理部114によって処理された注視映像データなどに基づいて、運転者の運転技術の習熟度を判定する。
【0093】
運転技術判定部122は、例えば、頭部映像データに基づいて、図2に示す左サイドミラー2と、右サイドミラー3と、ルームミラー4とを運転者が確認している頻度を判定する。運転技術判定部122は、例えば、注視映像データに基づいて、標識、他車両、歩行者などを確認しているかを判定することによって、運転者の注意力がどこを向いているかを判定する。
【0094】
運転技術判定部122は、例えば、判定結果に応じて、運転者の運転技術に点数を付けてもよい。具体的には、運転技術判定部122は、運転者が適切に視線を動かしていなかったり、標識を適切に視認していなかったりした場合には、点数を低くつける。運転技術判定部122は、例えば、運転者の信号の確認が疎かであり、赤信号から青信号に変わった場合に適切に発進しなかった場合には、運転者に対して警告を発するようにしてもよい。この場合、運転技術判定部122は、例えば、車両Cが備えるスピーカに音声信号を出力し、音声によって警告を発するようにすればよい。
【0095】
上述のとおり、第三実施形態は、頭部映像データや、映像データに基づいて、運転者の運転技術を判定することができる。これにより、運転者は、例えば、判定結果に基づいて、ヒヤリハット事象への気づきの遅れなどを把握することができるので、判定結果を運転技術の向上に役立てることができる。すなわち、第三実施形態は、運転者の運転技術を向上させる運転訓練のための装置として使用することもできる。
【符号の説明】
【0096】
1,1A,1B,1C,1D 映像処理システム
2 左サイドミラー
3 右サイドミラー
4 ルームミラー
5 ステアリングホイール
10 撮像部
11 周辺撮像部
12 運転者撮像部
20 表示部
30 照度センサ
40 雨量センサ
100,100A,100B,100C,100D 映像処理装置
110,110A,110B,110C,110D 制御部
111 映像データ取得部
112 視線推定部
113 注視点導出部
114 映像処理部
115 出力制御部
116 視線検出部
117 車両情報取得部
118 周辺情報取得部
119 注視点履歴管理部
120 ミラー位置取得部
121 相対位置算出部
122 運転技術判定部
130 記憶部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17