(58)【調査した分野】(Int.Cl.,DB名)
前記遮蔽領域判定部は、前記今回画像から検出された対象物が、前記前回画像でも検出されている検出済対象物である場合に、前記前回画像内における前記検出済対象物の検出位置が前記遮蔽領域内に位置しているか否かを判定し、該遮蔽領域内に位置していると判定したときは、前記遮蔽領域の設定を解除することを特徴とする請求項1から請求項3のいずれか一項に記載の車載画像処理装置。
前記撮像部の光学系に付着物が付着していると判定した場合に、画像処理の結果に基づく警報機能を停止させ、前記撮像部の光学系に付着物が付着していないと判定した場合に、前記今回画像から検出された対象物の位置に基づいて、警報を出すかどうかを判定する警報判定部を有することを特徴とする請求項1から請求項4のいずれか一項に記載の車載画像処理装置。
前記撮像部の光学系に付着物が付着していると判定した場合に、画像処理の結果に基づく制御機能を停止させ、前記撮像部の光学系に付着物が付着していないと判定した場合に、前記今回画像から検出された対象物の位置に基づいて、制御量を算出する制御部を有することを特徴とする請求項1から請求項5のいずれか一項に記載の車載画像処理装置。
【発明を実施するための形態】
【0011】
<第1実施形態>
次に、本発明の第1実施形態について以下に図面を用いて説明する。
車載画像処理装置は、車両に搭載されており、撮像部により車両から外部を撮像した画像を画像処理することにより対象物を検出するものであり、より詳しくは、撮像装置で異なる時間で撮像した複数の画像から撮像装置のレンズへの付着物を検出するものである。検出結果は、例えば車両の走行制御や運転者への警報等に用いられる。車載画像処理装置は、撮像部の光学系に付着物があるかどうかを判定して、その判定結果をもとに警報あるいは制御を行う。
【0012】
図1は、本実施形態における車載画像処理装置の全体構成を説明するシステム図である。
車載画像処理装置は、
図1に示すように、撮像部101と、センサ部102と、演算部103と、警報部104と、制御部105と、記憶部106を備えている。
【0013】
撮像部101は、光学系(レンズ)や撮像素子などを有するカメラであり、不図示の光学系が光軸方向の光を集め、撮像素子が光の強度に合わせてデジタル信号に変換することにより、画像を出力する。撮像部101は、例えば車両後部に取り付けられて、車両の後方下部を撮像するバックカメラとして用いられる。センサ部102は、車両の変位を検出するためのセンサとして、車速センサや操舵角センサ、ジャイロなどを有しており、操舵角や、速度及び角速度を計測する。
【0014】
演算部103は、CPU(central processing unit、中央演算処理装置)及びメモリなどのハードウエアと、ハードウエアにより実行されるソフトウエアプログラムとから構成される。演算部103は、その内部機能として、画像取得部111、センサ出力取得部115、対象物検出部113、対象物トラッキング部114、新規対象物判定部117、遮蔽領域判定部118、付着物判定部119、警報判定部120、制御判定部121と、を備えている。
【0015】
画像取得部111は、撮像部101から画像を取得する。センサ出力取得部115は、センサ部102から出力される車両の操舵角や速度及び角速度の車両情報を取得する。対象物検出部113は、撮像部101で撮像された画像に対してエッジ抽出や二値化などの画像処理を行い、対象物を検出して、その画像上の位置を算出する。例えば
図3に示すように、車両301を駐車枠302に入れることを想定して、対象物として駐車枠302の左右の白線303、304を検出する。対象物検出部113は、撮像部101で所定の時間間隔で撮像された各画像に対してそれぞれ対象物を検出する処理を行う。
【0016】
対象物トラッキング部114は、センサ出力取得部115からの車両情報をもとに、車両の方位及び位置の変位を算出する。これにより、対象物に対する車両の相対的な変位を算出することができる。そして、所定のタイミングで撮像された今回画像から検出した対象物が、今回画像よりも前のタイミングで撮像された前回画像でも検出されているか否かを変位に基づいて判定する。具体的には、今回画像における対象物の位置、車両の変位、撮像部101のカメラパラメータに基づいて、前回画像の撮像時における対象物の位置を推定し、推定位置として算出する。ここで、カメラパラメータは、焦点距離、画素ピッチ、レンズ歪、車両におけるカメラの取付位置及び姿勢である。
【0017】
そして、前回画像における対象物の推定位置と前回画像における対象物の実測位置との差が所定の閾値以内である場合に、前回画像における対象物が今回画像における対象物に対応しており、今回画像における対象物が前回画像でも検出されていたと判定する。そして、今回画像における対象物を前回画像でも検出されている検出済対象物であると判定する。
【0018】
新規対象物判定部117は、対象物トラッキング部114により前回画像において今回画像の白線に対応するものがないと判定された場合、すなわち、今回画像で検出された対象物が前回画像では検出されていないと判定された場合に、対象物が新規対象物であると判定する。
【0019】
遮蔽領域判定部118は、新規対象物判定部117により今回画像に新規対象物があると判定された場合、新規対象物の今回画像における位置、車両の変位、撮像部101のカメラパラメータをもとに、前回画像の撮像時における新規対象物の位置を推定し、その推定位置が前回画像内に位置しているか否かを判定する。そして、推定位置が前回画像内に位置している場合、前回画像における新規対象物を少なくとも覆う領域を遮蔽領域として設定する。この遮蔽領域は、記憶部106の遮蔽領域記憶部131に記憶される。付着物判定部119は、遮蔽領域判定部118により遮蔽領域が設定されている場合に、撮像部101の光学系に付着物が付着していると判定する。
【0020】
また、遮蔽領域判定部118は、対象物トラッキング部114により今回画像から検出された対象物が前回画像でも検出されている検出済対象物であると判定された場合に、前回画像内における検出済対象物の検出位置が遮蔽領域内に位置しているか否かを判定する。そして、遮蔽領域内に位置していると判定したときは、撮像部の光学系から付着物が消失したと判定して、遮蔽領域の設定を解除する。
【0021】
警報判定部120は、付着物判定部119により、撮像部101の光学系に付着物が付着していると判定された場合に、警報部104に対して、画像処理の結果に基づく警報機能を停止させる。一方、付着物判定部119により、撮像部101の光学系に付着物が付着していないと判定された場合に、対象物検出部113により検出した対象物の位置に基づいて、警報を出すかどうかを判定する警報判定処理を行う。警報部104は、警報判定部120で警報を停止すると判定された場合、「警報を停止する」という文字あるいは音声を、車内のディスプレイやスピーカから出力させる。そして、警報判定部120で警報を出すと判定された場合、運転手に注意を喚起するための文字あるいは音声を、車内のディスプレイやスピーカから出力させる。
【0022】
制御判定部121は、付着物判定部119により、撮像部101の光学系に付着物が付着していると判定された場合に、制御部105に対して、画像処理の結果に基づく制御機能を停止すると判定する。一方、付着物判定部119により、撮像部101の光学系に付着物が付着していないと判定された場合に、対象物検出部113により検出した対象物の位置に基づいて、制御量を算出する処理を行う。制御部105は、制御判定部121で制御を停止すると判定された場合、制御を中止する。そして、制御すると判定された場合、制御量に基づいて車両制御を行う。
【0023】
次に、上記構成を有する車載用画像認識装置の動作手順について
図2を用いて説明する。
まず、撮像部101により画像が出力され(S201)、センサ部102により車両の操舵角や速度及び角速度が計測される(S202)。そして、撮像部101から出力された画像が画像取得部111で取得される(S203)、センサ部102で計測された速度及び角速度がセンサ出力取得部115で取得される(S204)。
【0024】
次に、対象物検出部113により、今回画像から対象物を検出する処理が行われる(S205)。例えば白線を対象物として検出する場合には、画像取得部111で取得した画像でエッジ抽出を行い、立ち上がりエッジ及び立下りエッジで囲まれた領域を抽出する。また、画像で二値化処理を行い、輝度が閾値以上である領域を抽出する。そして、上記の2つの領域が重なる領域を白線として抽出する。抽出された画像上の白線の領域は、対象物トラッキング部114に送られる。
【0025】
そして、対象物トラッキング部114により、対象物のトラッキングが行われる(ステップS206)。対象物トラッキング部114は、対象物検出部113から今回画像における対象物の領域の情報を受け取る。そして、センサ出力取得部115から車両の操舵角や速度及び角速度等の車両情報を受け取り、これらの車両情報をもとに、前回画像の撮像時から今回画像の撮像時までの間における車両の方位変位及び位置変位を算出する。
【0026】
そして、今回画像の撮像時における対象物の位置と、今回画像の撮像時から前回画像の撮像時までの間における車両の方位変位及び位置変位と、撮像部のカメラパラメータをもとに、今回画像の撮像時から前回画像の撮像時までの間における対象物の位置の変位を算出するとともに、前回画像の撮像時における対象物の位置を推定する。
そして、前回画像の撮像時における対象物の推定位置と、前回画像の撮像時における対象物の実際の検出位置である実測値との差が所定の閾値以内であるか否かを判定する。そして、所定の閾値以内である場合に、前回画像の対象物は今回画像の対象物に対応していると判定し、閾値よりも大きい場合に、前回画像の対象物は今回画像の対象物に対応していないと判定する。
【0027】
例えば、
図4に示すように、前回画像401と今回画像411に写っている白線403、404と白線413、414は対応している、すなわち、前回画像401で撮像されている白線403、404と今回画像411で撮像されている白線413、414は、同じ白線であると判定される。前回画像と今回画像で認識された白線の対応関係は、新規対象物判定部117に送られる。
【0028】
そして、新規対象物判定部117により、新規対象物の判定が行われる(ステップS207)。新規対象物判定部117は、前回画像と今回画像の画像処理で認識された対象物の対応関係を対象物トラッキング部114から受け取る。そして、対象物の対応関係の情報をもとに、前回画像には対応する対象物がなく、今回画像の画像処理で新たに認識された対象物を新規対象物であると判定する。
【0029】
例えば、
図5に示すように、今回画像511に写っている白線513は、前回の処理における画像501に写っていないため、新規の白線であると判定される。新規の白線がある場合、遮蔽領域判定部118及び付着物判定部119に対して新規の白線の位置を示す情報を送る。なお、
図5の前回画像501では、光学系に付着した水滴506によって白線503がかくれている状態が示されている。
【0030】
そして、遮蔽領域判定部118により、遮蔽領域の判定が行われる(ステップS208)。遮蔽領域判定部118は、新規対象物がある場合、新規対象物判定部117から新規対象物の位置を受け取り、そして、対象物トラッキング部114から前回画像と今回画像との間における車両の方位変位及び位置変位を受け取る。そして、それらの情報及びカメラパラメータをもとに、前回画像の撮像時における新規対象物の位置を推定し、推定位置として算出する。
【0031】
前回画像の撮像時における新規対象物の推定位置が前回画像上にある場合、推定位置における新規対象物を少なくとも覆う領域を遮蔽領域515として設定し、その設定した遮蔽領域の位置を示す情報を付着物判定部119と遮蔽領域記憶部131に送る。
【0032】
例えば、
図5に示すように、前回画像の撮像時における白線503(新規対象物)の推定位置を完全に覆う領域が遮蔽領域505として設定される。新規の白線がない場合には、遮蔽領域を設定する処理は実施しない。
【0033】
そして、付着物判定部119により、付着物の判定が行われる(ステップS209)。付着物判定部119は、遮蔽領域判定部118から遮蔽領域の位置の情報を送られた場合、その情報を受け取り、遮蔽領域の位置に対応する光学系の対応位置に付着物が付着していると判定する。遮蔽領域505の情報は、警報判定部120及び制御判定部121に送る。
【0034】
また、付着物の判定では、対象物トラッキング部114から対応関係がある前回画像と今回画像における白線の位置を受け取り、対応関係がある前回画像と今回画像における対象物の位置から所定の距離以内に、過去に判定した遮蔽領域がある場合、その遮蔽領域から付着物が消失したと判定する。例えば、
図6に示すように、今回画像611から検出された白線613が、前回画像601でも検出されている検出済の白線603(検出済対象物)である場合には、前回画像601内における検出済の白線603の検出位置が遮蔽領域605内に位置しているか否かを判定し、遮蔽領域605内に位置していると判定したときは、その遮蔽領域605には付着物がなくなったと判定し、今回画像611における遮蔽領域615の設定を解除する。
【0035】
警報の判定(ステップS210)では、警報判定部120は、付着物判定部119から付着物の情報を受け取る。例えば、画像上に付着物が付着しているとの情報を受け取った場合には、警報機能を停止すると判定して、警報機能を停止する信号を警報部104に送る。一方、画像上に付着物が付着していないとの情報を受け取った場合には、対象物検出部113からの白線の位置と所定の位置との距離をもとに、警報を出すかどうかを判定して、警報の出力結果を警報部104に送る。
【0036】
制御の判定(ステップS211)では、制御判定部121は、付着物判定部119から付着物の領域の情報を受け取る。例えば、画像上に付着物が付着しているとの情報を受け取った場合には、制御機能を停止すると判定して、警報機能を停止する信号を制御部105に送る。一方、画像上に付着物が付着していないとの情報を受け取った場合には、対象物検出部113からの白線の位置をもとに、制御部105の制御量を算出して、制御量を制御部105に送る。
【0037】
警報部104は、警報判定部120から警報機能を停止する信号を受け取った場合、「警報を停止する」という文字あるいは音声を出力し、警報判定部120から警報を出すという信号を受け取った場合、運転手に注意を喚起するための文字あるいは音声を出力する(ステップS212)。
【0038】
制御部105は、制御判定部121から制御量を受け取り、制御量をもとに車両制御を行い、制御判定部121から制御を停止するという信号を受け取った場合に、車両制御を中止する(ステップ213)。
【0039】
本実施形態の車載用画像認識装置によれば、今回画像から検出した対象物が前回画像では検出されていない新規対象物である場合に、前回画像の撮像時における新規対象物の位置を推定し、その推定した新規対象物の推定位置が前回画像内に位置しているときは、撮像部の光学系に付着物が付着していると判定するので、撮像部の光学系に水滴や空気中の浮遊物などの付着物が付着した時点で、付着ありと判定することができる。したがって、付着物の付着を即座に判定でき、警報及び制御の誤動作及び未動作を防ぐことができる。
【0040】
例えば撮像部101についた付着物が水滴である場合、像が歪み、前回画像における白線の位置の推定位置と実測値との差が大きくなり、対象物トラッキング部114が、前回画像と今回画像との間の白線の位置に対応関係がないと判定することにより、新規の白線と認識して、付着物があると判定できる。
【0041】
本実施形態の車載用画像認識装置によれば、今回画像から検出された対象物が、前回画像でも検出されている検出済対象物である場合に、前回画像内における検出済対象物の検出位置が遮蔽領域内に位置しているか否かを判定し、遮蔽領域内に位置していると判定したときは、遮蔽領域の設定を解除するので、撮像部の光学系から水滴や空気中の浮遊物などの付着物が消失したことを判定できる。これにより、警報及び制御ができない中止状態から即座に動作させることができる。
【0042】
なお、上述の実施例では、撮像部101が単眼カメラである場合を例に説明したが、撮像部101の数は一つに限定されるものではなく、複数であってもよい。例えば、撮像部101を車両に複数設置して、画像取得部111、対象物検出部113、対象物トラッキング部114、新規対象物判定部117、遮蔽領域判定部118が複数の画像についてステップ203〜208を実施することにより、より広い領域の情報をもとに警報及び制御を実施することができる。
【0043】
<第2実施形態>
次に、本発明の第2実施形態について
図7から
図13を用いて説明する。
なお、第1実施形態と同様の構成要素については同様の符号を付することでその詳細な説明を省略する。
【0044】
本実施形態において特徴的なことは、画像取得部111により取得した画像の中から、対象物検出部113によって対象物を検出可能な処理領域を選択する処理領域選択部112と、処理領域選択部112によって選択された処理領域内で新規対象物の判定を行う新規対象物判定領域を決定する新規対象物判定領域決定部116を設けたことである。
【0045】
撮像部101は、認識する対象物の種類によって異なる露光枠を用いて基準となる光強度を決定する。例えば、路面上の物体を認識対象物とする場合、路面部分に矩形の露光枠を設けて、その露光枠内の光の平均強度(明るさの平均値)を求め、その光の平均強度を基準値としてデジタル信号に変換する。センサ部102は、撮像部101で決定された光強度を露光値として取得し、センサ出力取得部115に出力することができる。
【0046】
実際の制御では、
図8のフローチャートに示すように、ステップS204でセンサ出力を取得した後、ステップS224で、対象物の処理領域を選択する処理が行われる。処理領域選択部112は、露光値及び画像内輝度の分布から、対象物を認識可能な処理領域を選択する。より詳しくは、センサ出力取得部115が取得したカメラ情報(露光値及び画像内輝度の分布を含む)と、認識する対象物の種類と、カメラからの距離とに基づいて、対象物検出部113が対象物を検出可能な処理領域を選択する。
【0047】
処理領域選択部112がないと、例えば前回処理において画像の露光値が極端に低く、対象物検出部113が対象物を検出できず、今回処理において画像の露光値が通常の範囲となって対象物を検出できた場合に、新規対象物判定部117によって付着物があると誤って判断されるおそれがある。
【0048】
これに対して、本実施形態では処理領域選択部112を設けて処理領域の選択を行っているので、例えば露光値等の問題によって前回処理では対象物を検出できなかったが、今回処理で対象物が検出できた場合でも、異物が付着したとの誤判断を防ぐことができる。
【0049】
図9は、処理領域選択部により処理領域を選択する方法を説明する図である。
例えば、
図9(a)に示す前回画像901のように、画像全体が暗い場合、対象物902を検出可能な処理領域はなく、処理領域は一つも選択されていない。そして、
図9(b)に示す今回画像911のように、画像全体が明るくなった場合でも、処理領域が一つも選択されていないので、対象物検出部113は、対象物912を新規対象物として検出しない。したがって、新規対象物判定部117の誤判断を防ぐことができる。
【0050】
新規対象物判定領域決定部116は、処理領域選択部112によって選択された処理領域と、センサ出力取得部115によって取得された車両情報に基づいて新規対象物判定領域を決定する。
【0051】
新規対象物判定領域決定部116は、処理領域選択部112が選択した処理領域のうち、所定の領域を新規対象物判定領域として決定し、その決定した新規対象物判定領域内で新規対象物判定部117により新規対象物の判定が行われる。新規対象物判定領域の決定は、自車の移動、自車周囲の人などの動体の移動によって決定される。
【0052】
実際の制御では、
図8のフローチャートに示すように、ステップS205で対象物を検出し、ステップS206で対象物のトラッキングを行い、ステップS226で、新規対象物の判定領域を決定する処理がなされる。
【0053】
図10は、車両とその周囲環境を表す他の一例を示す模式図、
図11は、新規対象物の判定範囲が車両の移動に応じて変更される例を示す図である。
【0054】
図10に示すように車両301が後退しながら駐車枠302に進入しようとしている場合、T1秒の位置では、
図11(a)に示すように、駐車枠302の白線303、304に対して、車両301が斜めに配置されている。そして、車両301の旋回によりその後のT2秒の位置では、
図11(b)に示すように、駐車枠302の白線303、304に対して車両301は略平行に配置される。
【0055】
画像1001は、車両301の旋回に応じて画像1011に回転するので、例えば新規対象物判定領域1002の位置が車両301に対して固定されていると、
図10(b)に示すように画像1011内に障害物1021が入ってきた場合に、障害物1021を新規対象物として誤って認識するおそれがある。
【0056】
これに対して、新規対象物判定領域決定部116は、新規対象物判定領域1012を車両301に対して固定せず、車両301の動きに応じて変化させている。本実施形態では、最初に駐車枠302を認識した時点で新規対象物判定領域1002を決定し、その後の車両301の移動にかかわらず、
図11(b)に示すように、新規対象物判定領域1012として路面に対する位置を固定している。したがって、車両301の移動によって、処理領域1011内に侵入してきた障害物1021を、新規対象物であると誤って判定するのを抑制できる。
【0057】
図12は、車両301が進入する駐車枠302内に人などの動体が存在する状態を示す図、
図13は、
図12に示す車両のカメラで撮像した画像を模式的に示す図である。
【0058】
図12に示すように、車両301の進路上に動体1201が存在する場合、
図13に示すように、動体1201の位置は、新規対象物判定領域1012から除外される。新規対象物判定部117は、新規対象物判定領域1012から動体1201を除外した領域について新規対象物の判定処理を行う。
【0059】
以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。