(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0034】
以下、図面を参照しつつ本発明の実施の形態について説明する。
【0035】
<1.第1の実施の形態>
<1−1.システム構成>
図6は、物体検出システム1の第1構成例を示すブロック図である。この物体検出システム1は、車両(本実施の形態では、自動車)に搭載されるものであり、車両の複数の箇所にそれぞれ配置されたカメラの画像に基づいて、車両に対して特定の移動を行う他の物体を検出する機能を有している。代表的には、物体検出システム1は、車両に相対的に接近する物体を検出する機能を有しているが、他の動作を行う物体を検出するために応用することもできる。
【0036】
図6に示すように、物体検出システム1は、カメラの撮影画像に基づいて特定の移動を伴う物体を検出する物体検出部100と、車両の複数箇所にそれぞれ搭載されるカメラ110a〜110xと、ナビゲーション装置120と、警告灯131及び音出力部132とを主に備えている。
【0037】
物体検出部100に対する操作は、ナビゲーション装置120を介して行うことができる。また、物体検出部100による検出結果は、ナビゲーション装置120のディスプレイ121や、警告灯131、音出力部132といったヒューマンマシンインタフェース(HMI: Human Machine Interface)によってユーザに通知される。警告灯131は、例えばLED警告灯であってよく、音出力部132は、例えばスピーカ及びそれに出力する音信号や音声信号を生成する電子回路であってよい。以下、これらのヒューマンマシンインタフェースを、単に「HMI」と表記することがある。
【0038】
例えば、ディスプレイ121は、カメラの撮影画像と共に検出結果を表示したり、検出結果に応じて警告画面を表示してもよい。また例えば、警告灯131は運転席前面に配置されこれを点滅させることによって検出結果が表示されてもよい。また例えば、ナビゲーション装置120の音声や、ビープ音などを併せて出力することによって検出結果が通知されてもよい。
【0039】
ナビゲーション装置120は、ユーザに対しナビゲーション案内を行うものであり、タッチパネル機能を備えた液晶などのディスプレイ121と、ユーザが操作を行うハードスイッチなどで構成される操作部122と、装置全体を制御する制御部123とを備えている。
【0040】
ディスプレイ121の画面がユーザから視認可能なように、ナビゲーション装置120は車両のインストルメントパネルなどに設置される。ユーザの各種の指示は、操作部122とタッチパネルとしてのディスプレイ121とによって受け付けられる。制御部123は、CPU、RAM及びROMなどを備えたコンピュータで構成され、所定のプログラムに従ってCPUが演算処理を行うことでナビゲーション機能を含む各種の機能が実現される。なお、タッチパネルが操作部122を兼ねる構成としてもよい。
【0041】
ナビゲーション装置120は、物体検出装置100と通信可能に接続され、物体検出装置100との間で各種の制御信号の送受信や、カメラ110a〜110xの撮影画像や、物体検出装置100による検出結果の受信が可能となっている。ディスプレイ121には、制御部123の制御により、通常はナビゲーション装置120単体の機能に基づく画像が表示されるが、動作モードを変更することで物体検出装置100にて処理された車両の周辺の様子を示す画像が表示される。
【0042】
物体検出装置100は、カメラの撮影画像に基づいて特定の移動を伴う物体を検出する機能を有するECU(Electronic Control Unit)10と、複数のカメラ110a〜110xの撮影画像のいずれかを選択してECUに入力する画像選択部30を備える。ECU10は、CPU、RAM及びROMなどを備えたコンピュータとして構成される。所定のプログラムに従ってCPUが演算処理を行うことで各種の制御機能を実現する。
【0043】
図中に示す、パラメータ選択部12及び物体検出部13は、このようにしてECU10により実現される機能のうちの一部を示している。また、パラメータ保持部11は、ECU10が備えるRAM、ROM若しくは不揮発性メモリなどとして実現されてよい。
【0044】
パラメータ保持部11は、物体検出部13によって、カメラ110a〜110xの撮影画像に基づいて特定の移動を伴う物体を検出する検出処理を行うためのパラメータを、複数の検出条件に応じてそれぞれ保持する。すなわち、パラメータ保持部11は複数の上記パラメータを保持する。
【0045】
パラメータには、物体検出部13による検出処理に用いられる画像の撮影に使用するカメラの指定が含まれていてよい。その他のパラメータの具体例は後述する。
【0046】
また、上記検出条件の構成要素の具体例には、物体検出システム1が搭載される車両の走行状態、周囲の障害物の存在、ドライバによる操作、車両の位置等が含まれる。また、検出条件の構成要素の具体例には、物体検出部13による個々の検出処理が行われることが想定される状況、すなわち物体検出システム1の利用状況が含まれていてよい。物体検出システム1の利用状況は、走行状態、周囲の障害物の存在、ドライバによる操作、車両の位置等の条件や、これらの条件の組み合わせによって定めてよい。
【0047】
パラメータ選択部12は、パラメータ保持部11に保持されたパラメータから、物体検出部13による検出処理に用いられるものを選択する。
【0048】
画像選択部30は、パラメータ選択部12によるパラメータの選択に従って、カメラ110a〜110xの撮影画像のうちいずれかを選択する。物体検出部13は、画像選択部30により選択された画像に基づき、パラメータ選択部12により選択されたパラメータに従って、特定の移動を伴う物体を検出する検出処理を実行する。
【0049】
ある実施例において物体検出部13は、オプティカルフロー処理を用いて検出処理を行ってよい。他の実施例において物体検出部13は、パターンマッチングを用いた物体形状認識によって特定の移動を伴う物体を検出してもよい。
【0050】
なお、上記の構成例ではカメラの指定をパラメータとして使用したが、これに代えてカメラの指定を検出条件の一つとして使用してもよい。このときパラメータ保持部11は、物体検出部13によって検出処理が行うためのパラメータを、複数のカメラ110a〜110x毎にそれぞれ保持する。
【0051】
画像選択部30は、複数のカメラ110a〜110xのうち検出処理に用いるカメラを選択する。パラメータ選択部12は、画像選択部30によるカメラの選択に従って、パラメータ保持部11に保持されたパラメータから、物体検出部13による検出処理に用いられるものを選択する。
【0052】
図7は、車載カメラの配置位置の例を示す図である。フロントカメラ111は、車両2の前端にあるナンバープレート取付位置の近傍に設けられ、その光軸111aは車両2の直進方向に向けられている。バックカメラ114は、車両2の後端にあるナンバープレート取付位置の近傍に設けられ、その光軸114aは車両2の直進方向の逆方向に向けられている。これらフロントカメラ111やバックカメラ114の取付位置は、左右略中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
【0053】
また、右サイドカメラ112は右のドアミラーに設けられ、その光軸112aは車両2の右方向(直進方向に直交する方向)に沿って車両2の外側に向けられている。左サイドカメラ113は左のドアミラーに設けられ、その光軸113aは車両2の左方向(直進方向に直交する方向)に沿って車両2の外側に向けられている。各カメラ111〜114の画角は、それぞれ180°に近いθ1〜θ4である。
【0054】
続いて、物体検出部13による検出処理に用いられるパラメータの具体例について説明する。パラメータの例には、例えば、カメラ110a〜110xの撮影画像のうち検出に使用する検出範囲の位置が含まれる。
【0055】
図8の(A)及び
図8の(B)は、カメラ毎の検出範囲及び検出フローの相違の説明図である。例えば、フロントカメラ111を用いて見通しの悪い交差点で横手から接近してくる二輪車を検出するとき、検出処理にはフロントカメラ画像PFの左側領域R1と、右側領域R2が使用される。
【0056】
一方で、左サイドカメラ113を用いて同様に二輪車を検出するとき、検出処理には左サイドカメラ画像PLの右側領域R3が使用される。
【0057】
また、パラメータの例には、物体検出部13による検出処理において特定の移動をフローとして検出すべきオプティカルフローの向き及び/又は長さの範囲が含まれる。例えば
図8の(A)において、フロントカメラ111を用いて二輪車S1を検出するとき、フロントカメラ画像PFの左側領域R1と右側領域R2では、画面端から画面中央に向かうフローが検出されるか否かを判定する。なお、以下の説明において画面端から画面中央に向かうフローを「内向きフロー」と表記することがある。
【0058】
一方で、左サイドカメラ113を用いて同様に二輪車を検出するとき、左サイドカメラ画像PLでは、画面中央から画面端に向かうフローが検出されるか否かを判定する。なお、以下の説明において画面中央から画面端に向かうフローを「外向きフロー」と表記することがある。
【0059】
図8の(A)及び
図8の(B)の説明では、物体を検出する検出範囲をカメラの撮影画像内のどの場所に設定するかがカメラ毎に異なっている。
図9の(A)〜
図9の(D)及び
図10の(A)及び
図10の(B)は、同一カメラの撮影画像内においても検出条件に応じて検出範囲の位置が異なる例を説明する。
【0060】
図9の(A)に示すように、車両2を駐車場から出庫する際に横手から接近してくる人間S1を検出する場合を想定する。このときフロントカメラ111により撮影される検出範囲A1及びA2、右サイドカメラ112により撮影される検出範囲A4、左サイドカメラ113により撮影される検出範囲A3において接近物体が検出される状態にある。
【0061】
この場合のフロントカメラ画像PF及び左サイドカメラ画像PL内の検出範囲を
図9の(B)〜
図9の(D)に示す。フロントカメラ画像PFの左側領域R1と右側領域R2、左サイドカメラ画像PLの右側領域R3、右サイドカメラ画像PRの右側領域R4が、検出処理に使用される。なお、
図9の(B)〜
図9の(D)に示す矢印は、
図8の矢印と同様、物体を検出するためのフローの向きを示す。
図9の(B)〜
図9の(D)以降の図面においても同様である。
【0062】
次に
図10の(A)に示すように、合流車線60から走行車線61へ車両2が車線変更する場合に右後方から接近してくる他の車両を検出する場合を想定する。このとき右サイドカメラ112により撮影される検出範囲A5において接近物体が検出される。
【0063】
この場合の右サイドカメラ画像PR内の検出範囲を
図10の(B)に示す。右サイドカメラ画像PRの右側領域R5が、検出処理に使用される。このように、
図9の(D)の場合と
図10の(B)の場合とでは、右サイドカメラ画像PRにおいて検出範囲として使用される範囲が異なる。
【0064】
またパラメータの例には、遠距離の物体を検出するのか近距離の物体を検出するのかの別が含まれていてよい。遠距離の物体を検出する場合には、近距離の物体を検出する場合に比べて時間経過に対する撮影画像上の移動距離が少ない。
【0065】
このため、例えば遠距離並びに近距離の物体を検出するためにそれぞれ使用される遠距離用パラメータ及び近距離用パラメータは、物体の移動を検出するために比較される複数フレーム間のフレーム数の指定を含んでいてよい。遠距離用パラメータでは、近距離用パラメータに比べて比較される複数フレーム間のフレーム数が長く指定される。
【0066】
さらにパラメータの例には、検出対象の物体の種類が含まれていてよい。物体の種類には例えば、人、自動車、二輪車などが含まれていてよい。
【0067】
<1−3.物体検出方法>
図11は、第1構成例の物体検出システム1による処理の例の説明図である。なお、他の実施態様においては、下記のオペレーションAA〜AEの各オペレーションはステップであってもよい。
【0068】
オペレーションAAにおいて複数のカメラ110a〜110xは、車両2の周辺画像を撮影する。
【0069】
オペレーションABにおいてパラメータ選択部12は、パラメータ保持部11に保持されたパラメータにより指定されるカメラ110a〜110xのうち、物体検出部13による検出処理に用いられるものを選択する。画像選択部30は、パラメータ選択部12によるパラメータの選択に従って、カメラ110a〜110xの撮影画像のうちいずれかを選択する。
【0070】
オペレーションACにおいてパラメータ選択部12は、カメラの指定に関するパラメータ以外の残りのパラメータを、画像選択部30が選択した画像に応じて選択する。
【0071】
オペレーションADにおいて物体検出部13は、画像選択部30により選択された画像に基づき、パラメータ選択部12により選択されたパラメータに従って、特定の移動を伴う物体を検出する検出処理を実行する。
【0072】
オペレーションAEにおいてECU10は、HMIを介して物体検出部13の検出結果をユーザに出力する。
【0073】
本実施例によれば、検出条件に応じた複数のパラメータがパラメータ保持部11に保持され、これらを選択して特定の移動を伴う物体の検出処理に使用することが可能なる。このため、検出条件に応じたパラメータを適切に選択することができるようになり、検出精度を向上させることが可能となる。
【0074】
例えば、検出条件に応じて適切なカメラを使用して検出処理を行うことにより検出精度が向上する。また、それぞれのカメラの撮影画像に応じた適切なパラメータを使用して検出処理を行うことにより検出精度が向上する。
【0075】
<2.第2の実施の形態>
続いて、物体検出システム1の他の実施例について説明する。
図12は、物体検出システム1の第2構成例を示すブロック図である。
図6を参照して説明した第1構成例の各構成要素と同様の構成要素には、同一の参照符号を付する。同一の参照符号が付された構成要素は特に説明しない限り同じである。また、以下に説明する第2構成例の構成要素やその機能を他の実施例が備えていてもよい。
【0076】
ECU10は、各カメラ110a〜110xの撮影画像にそれぞれ基づいて特定の移動を伴う物体の検出処理を行う複数の物体検出部13a〜13xを備える。物体検出部13a〜13xの機能は、
図6に示す物体検出部13と同様であってよい。パラメータ保持部11は、物体検出部13a〜13xによって検出処理が行うためのパラメータを、複数のカメラ110a〜110x毎にそれぞれ保持する。以下、第2構成例の説明において、物体検出部13a〜13xを総称して「物体検出部13」と表記することがある。
【0077】
パラメータ選択部12は、パラメータ保持部11から各カメラ110a〜110xの撮影画像に基づく検出処理に使用するためにそれぞれ用意されたパラメータを選択して、それぞれ物体検出部13に供給する。ECU10は、物体検出部13のどれかが特定の動作を伴う物体が検出したとき、HMIを介して検出結果を出力する。
【0078】
パラメータ選択部12は、複数の物体検出部13において同一の物体を検出できるように、これら複数の物体検出部13に与えるパラメータを、パラメータ保持部11から読み出してもよい。このとき、これら複数の物体検出部13に与えるパラメータは、物体検出部13に撮影画像を供給するカメラ110a〜110xの違いに応じて異なっていてもよい。このため、パラメータ保持部11には、複数の物体検出部13が同一の物体を検出する際にそれぞれ使用する異なる値のパラメータが保持される。
【0079】
例えば、
図8の(A)を参照して説明したフロントカメラ画像PFの検知範囲R1においては、内向きフローが検出される否かによって車両2の横手から接近してくる二輪車S1を検出する。一方で、
図8の(B)を参照して説明した左サイドカメラ画像PLの検知範囲R3においては、外向きフローが検出される否かによって同じ二輪車S1を検出する。
【0080】
本実施例によれば、複数のカメラの撮影画像に映る物体を同時に検出することが可能となるため、特定の移動を伴う物体をより早く且つより確実に検出することが可能となる。
【0081】
また、本実施例によれば、複数のカメラの撮影画像に基づいて同一の物体を検出するように、各カメラの撮影画像にそれぞれ適したパラメータを各物体検出部13に与えることが可能となる。このため、複数の物体検出部13で同一物体を検出できる可能性がより高くなり検出感度が向上する。
【0082】
<3.第3の実施の形態>
続いて、物体検出システム1の他の実施例について説明する。
図13は、物体検出システム1の第3構成例を示すブロック図である。
図6を参照して説明した第1構成例の各構成要素と同様の構成要素には、同一の参照符号を付する。同一の参照符号が付された構成要素は特に説明しない限り同じである。また、以下に説明する第3実施例の構成要素やその機能を他の実施例が備えていてもよい。
【0083】
本構成例における物体検出装置100は、各カメラ110a〜110xの数よりも少ない複数の物体検出部13a及び13bと、映像選択部30a及び30bと、トリミング部14a及び14bを備える。トリミング部14a及び14bは、所定のプログラムに従ってECU10のCPUが演算処理を行うことで実現される。
【0084】
映像選択部30a及び30bは、物体検出部13a及び13bにおける検出処理に用いるカメラの撮影画像を選択する。トリミング部14a及び14bは、映像選択部30a及び30bが選択した撮影画像から、物体検出部13a及び13bにおける検出処理に用いる検出範囲を選択して、物体検出部13a及び13bへ入力する。物体検出部13a及び13bの機能は、
図6に示す物体検出部13と同様であってよい。
【0085】
以下、第3構成例の説明において、物体検出部13a及び13bを総称して「物体検出部13」と表記することがある。また、映像選択部30a及び30bを総称して「映像選択部30」と表記することがある、トリミング部14a及び14bを総称して「トリミング部14」と表記することがある。物体検出装置100は、物体検出部13、映像選択部30及びトリミング部14を2組以上備えていてもよい。
【0086】
本実施例において、映像選択部30及びトリミング部14は、パラメータ選択部12によるパラメータの選択に従ってカメラの撮影画像と検出範囲を選択し、選択された検出範囲の部分の映像を物体検出部13に入力する。
【0087】
例えば、映像選択部30による撮影画像の選択及びトリミング部14による検出範囲の選択は、ユーザがHMIを介して操作してもよい。例えば、ユーザはナビゲーション装置120のディスプレイ121に設けられたタッチパネルを操作して、映像選択部30及びトリミング部14により選択される検出範囲の画像を操作してもよい。
図14は、ナビゲーション装置120のディスプレイ121の表示例を示す図である。
【0088】
参照符号Dは、ディスプレイ121の表示を示す。表示Dはカメラ110a〜110xのいずれかで撮影された撮影画像Pの表示と、タッチパネルによって実現される4つの操作ボタンB1〜B4の表示を含む。
【0089】
ユーザが「左前方」ボタンB1を押すと、映像選択部30及びトリミング部14は、車両2の左前方から接近する物体を検出するのに適した撮影画像と検出範囲を選択する。ユーザが「右前方」ボタンB2を押すと、映像選択部30及びトリミング部14は、車両2の右前方から接近する物体を検出するのに適した撮影画像と検出範囲を選択する。
【0090】
ユーザが「左後方」ボタンB3を押すと、映像選択部30及びトリミング部14は、車両2の左後方から接近する物体を検出するのに適した撮影画像と検出範囲を選択する。ユーザが「右後方」ボタンB4を押すと、映像選択部30及びトリミング部14は、車両2の右後方から接近する物体を検出するのに適した撮影画像と検出範囲を選択する。
【0091】
以下に、操作ボタンB1〜B4の使用例を説明する。
図15の(A)に示すような狭い路地の右折時には、ユーザは「右前方」ボタンB2を押すことにより、フロントカメラ111の検出範囲A2及び右サイドカメラ112の検出範囲A4における物体を検出する。
【0092】
このとき映像選択部30は、
図15の(B)及び
図15の(C)に示すフロントカメラ画像PFと右サイドカメラ画像PRを選択する。トリミング部14は、フロントカメラ画像PFの右側領域R2と、右サイドカメラ画像PRの左側領域R4を検出範囲として選択する。
【0093】
図16の(A)に示すような駐車場からの出庫の場合、ユーザは「左前方」ボタンB1及び「右前方」ボタンB2を押す。このとき、フロントカメラ111の検出範囲A1及びA2、並びに左サイドカメラ113の検出範囲A3及び右サイドカメラ112の検出範囲A4において物体が検出される。なお、本例では、これら4つの検出範囲の物体検出を同時に行うために、物体検出部13、映像選択部30及びトリミング部14を4組以上備えていてもよい。
【0094】
このとき映像選択部30は、
図16の(B)〜
図16の(D)に示すフロントカメラ画像PF、左サイドカメラ画像PL、右サイドカメラ画像PRを選択する。トリミング部14は、フロントカメラ画像PFの左側領域R1及び右側領域R2と、左サイドカメラ画像PLの右領域R3と、右サイドカメラ画像PRの左側領域R4を検出範囲として選択する。
【0095】
図17の(A)に示すような車線合流時の場合、ユーザは「右後方」ボタンB4を押す。このとき、右サイドカメラ112の検出範囲A5において物体が検出される。映像選択部30は、
図17の(B)に示す右サイドカメラ画像PRを選択する。トリミング部14は、右サイドカメラ画像PRの左側領域R5を検出範囲として選択する。
【0096】
図18は、第3構成例の物体検出システム1による処理の第1例の説明図である。なお、他の実施態様においては、下記のオペレーションBA〜BFの各オペレーションはステップであってもよい。
【0097】
オペレーションBAにおいて複数のカメラ110a〜110xは、車両2の周辺画像を撮影する。オペレーションBBにおいてナビゲーション装置12は、ディスプレイ121や操作部122により検出範囲の指定を行うユーザの操作があったか否かを判定する。
【0098】
ユーザの操作があった場合(オペレーションBB:Y)、処理はオペレーションBCへ移行する。ユーザの操作がなかった場合(オペレーションBB:N)、処理はオペレーションBBへ戻る。
【0099】
オペレーションBCにおいて画像選択部30及びトリミング部14は、ユーザの操作に応じて物体検出部13に入力する検出範囲の画像を選択する。オペレーションBDにおいてパラメータ選択部12は、撮像画像の検出範囲の指定に関するパラメータ以外の残りのパラメータを、物体検出部13に入力する画像に応じて選択する。
【0100】
オペレーションBEにおいて物体検出部13は、画像選択部30及びトリミング部14により選択された検出範囲の画像に基づき、パラメータ選択部12により選択されたパラメータに従って検出処理を実行する。オペレーションBFにおいてECU10は、HMIを介して物体検出部13の検出結果をユーザに出力する。
【0101】
本実施例によれば、複数個の物体検出部13を備えることにより、例えば
図15の(A)に示す右折時や
図16の(A)に示す駐車場からの出庫時の例のように、複数の検出範囲で同時に物体の検出を行い安全の確認を実施することが可能となる。
【0102】
なお、本実施例においてユーザの操作に代えて、物体検出部13に入力する検出範囲の画像を時分割で切り替えてもよい。このような処理方法の例を
図19に示す。なお、他の実施態様においては、下記のオペレーションCA〜CIの各オペレーションはステップであってもよい。
【0103】
まず、物体検出部13による検出処理が実行されるシーンを予め想定し、それぞれのシーンにおける検出処理で使用される撮影画像及び検出範囲を定めておく。すなわち画像選択部30及びトリミング部14により選択する検出範囲の画像を予め決めておく。いま、各シーンに応じてN種類の検出範囲の画像が定められていると仮定する。
【0104】
オペレーションCAにおいてパラメータ選択部12は、変数iに値「1」を代入する。オペレーションCBにおいて複数のカメラ110a〜110xは、車両2の周辺画像を撮影する。
【0105】
オペレーションCCにおいて画像選択部30及びトリミング部14は、各シーンに応じて予め定められたN種類の検出範囲の画像のうち、第i番目の画像を選択して、物体検出部13に入力する。オペレーションCDにおいてパラメータ選択部12は、撮像画像の検出範囲の指定に関するパラメータ以外の残りのパラメータを、物体検出部13に入力する画像に応じて選択する。
【0106】
オペレーションCEにおいて物体検出部13は、画像選択部30及びトリミング部14により選択された検出範囲の画像に基づき、パラメータ選択部12により選択されたパラメータに従って検出処理を実行する。オペレーションCFにおいてECU10は、HMIを介して物体検出部13の検出結果をユーザに出力する。
【0107】
オペレーションCGにおいてパラメータ選択部12は、変数iの値を1つ増加させる。オペレーションCHにおいてパラメータ選択部12は、変数iの値がNより大きいか否かを判定する。変数iの値がNより大きい場合(オペレーションCH:Y)、オペレーションCHにおいて変数iに値「1」が代入され、処理はオペレーションCBに戻る。変数iの値がN以下の場合(オペレーションCH:N)、処理はオペレーションCBに戻る。上記オペレーションCB〜CGが繰り替えされることにより、物体検出部13に入力する検出範囲の画像が時分割で切り替えられる。
【0108】
<4.第4の実施の形態>
続いて、物体検出システム1の他の実施例について説明する。
図20は、物体検出システム1の第4構成例を示すブロック図である。
図6を参照して説明した第1構成例の各構成要素と同様の構成要素には、同一の参照符号を付する。同一の参照符号が付された構成要素は特に説明しない限り同じである。また、以下に説明する第4実施例の構成要素やその機能を他の実施例が備えていてもよい。
【0109】
ECU10は、複数の物体検出部13a〜13cと、近距離用パラメータ保持部11a及び遠距離用パラメータ保持部11bを備える。また、物体検出システム1は、各カメラ110a〜110xの一例として、フロントカメラ111、右サイドカメラ112及び左サイドカメラ113を備える。
【0110】
物体検出部13a〜13cは、それぞれフロントカメラ111、右サイドカメラ112及び左サイドカメラ113の撮影画像に基づいて、特定の移動を伴う物体の検出処理を行う。物体検出部13a〜13cの機能は、
図6に示す物体検出部13と同様であってよい。
【0111】
近距離用パラメータ保持部11a及び遠距離用パラメータ保持部11bは、ECU10が備えるRAM、ROM若しくは不揮発性メモリなどとして実現され、上述の近距離用パラメータ及び遠距離用パラメータをそれぞれ保持する。
【0112】
パラメータ選択部12は、フロントカメラ111用の物体検出部13aには遠距離用パラメータを提供し、右サイドカメラ112及び左サイドカメラ113用の物体検出部13b及び13cには近距離用パラメータを提供する。
【0113】
フロントカメラ111は、サイドカメラ112及び113よりも遠くまで見通すことができるため遠距離の物体の検出に適している。本実施例によれば、フロントカメラ111の撮影画像は遠距離での検出に使用し、サイドカメラ112及び113の撮影画像は近距離での検出に特化して使用することで、互いのカバー範囲を補完し、広い範囲で検出処理を行う際の検出精度を向上することができる。
【0114】
<5.第5の実施の形態>
続いて、物体検出システム1の他の実施例について説明する。
図21は、物体検出システム1の第5構成例を示すブロック図である。
図6を参照して説明した第1構成例の各構成要素と同様の構成要素には、同一の参照符号を付する。同一の参照符号が付された構成要素は特に説明しない限り同じである。
【0115】
図13の構成と同様に、ECU10は、映像選択部30が選択した撮影画像から物体検出部13における検出処理に用いる検出範囲を選択するトリミング部を備えていてよい。以下の実施例においても同様である。また、以下に説明する第5構成例の構成要素やその機能を他の実施例が備えていてもよい。
【0116】
物体検出システム1は、車両2の走行状態を検出する走行状態センサ133を備える。走行状態センサ133は、車速計や車両2の旋回速度を検出するヨーレートセンサなどであってよい。車両2がこれらのセンサをすでに備えている場合には、車両2のCAN(Controller Area Network)経由でこれらとECU10を接続すればよい。
【0117】
ECU10は、走行状態判定部15と、条件保持部16と、条件判定部17を備える。走行状態判定部15及び条件判定部17は、所定のプログラムに従ってECU10のCPUが演算処理を行うことで実現される。条件保持部16は、ECU10が備えるRAM、ROM若しくは不揮発性メモリなどとして実現される。
【0118】
走行状態判定部15は、走行状態センサ133から取得される情報にしたがって車両2の走行状態を判定する。条件保持部16は、条件判定部17が、走行状態に関して行う判定に使用する所定の条件を記憶する。
【0119】
例えば、条件保持部16は、「車両2の車速が0km/hである」という条件を記憶してよい。また条件保持部16は、「車両2の車速が0km/hより大きく10km/h以下である」という条件を記憶してよい。
【0120】
条件判定部17は、走行状態判定部15によって判定した車両2の走行状態が、条件保持部16に記憶される所定の条件を満たすか否かを判定する。条件判定部17は、判定結果をパラメータ選択部12に入力する。
【0121】
パラメータ選択部12は、車両2の走行状態が条件保持部16に記憶される所定の条件を満たすか否かに応じて、パラメータ保持部11に保持されたパラメータから、物体検出部13の検出処理に用いられるものを選択する。
【0122】
例えば、条件保持部16に「車両2の車速が0km/hである」という条件が記憶されていた場合を想定する。このときパラメータ選択部12は、車両2の車速が0km/hである場合にフロントカメラ画像と遠距離用パラメータを用いて、物体検出部13が検出処理を行うようにパラメータを選択してよい。
【0123】
車両2の車速が0km/hでない場合には、パラメータ選択部12は、右サイドカメラ画像及び左サイドカメラ画像と近距離用パラメータを用いて、物体検出部13が検出処理を行うようにパラメータを選択してよい。
【0124】
また例えば、車両2の車速が0km/hより大きく10km/h以下である場合には、フロントカメラ画像、右サイドカメラ画像及び左サイドカメラ画像を用いて検出処理を行う場合を想定する。
【0125】
この場合、条件保持部16に「車両2の車速が0km/hより大きく10km/h以下である」という条件が記憶する。車両2の車速が0km/hより大きく10km/h以下である場合には、パラメータ選択部12は、フロントカメラ画像と遠距離用パラメータにより物体検出部13が検出処理を行うパラメータと、左右サイドカメラ画像と近距離用パラメータにより物体検出部13が検出処理を行うパラメータと、を時分割で切り替えて選択する。
【0126】
また、他の例としては、
図10の(A)及び
図10の(B)に示す車線変更時において、ヨーレートセンサが車両2の旋回を検出した場合に、パラメータ選択部12は、右サイドカメラ画像PRの右側領域R5を検出範囲として選択してもよい。
【0127】
また、
図9の(A)〜
図9の(D)に示す駐車場からの出庫時において、ヨーレートセンサが車両2の旋回を検出していない場合に、パラメータ選択部12は、フロントカメラ画像PFの左側領域R1と右側領域R2、左サイドカメラ画像PLの右側領域R3、右サイドカメラ画像PRの右側領域R4を検出範囲として選択してもよい。
【0128】
図22は、第5構成例の物体検出システム1による処理の例の説明図である。なお、他の実施態様においては、下記のオペレーションDA〜DFの各オペレーションはステップであってもよい。
【0129】
オペレーションDAにおいて複数のカメラ110a〜110xは、車両2の周辺画像を撮影する。オペレーションDBにおいて走行状態判定部15は、車両2の走行状態を判定する。
【0130】
オペレーションDCにおいて条件判定部17は、車両2の走行状態が、条件保持部16に記憶される所定の条件を満たすか否かを判定する。パラメータ選択部12は、車両2の走行状態が条件保持部16に記憶される所定の条件を満たすか否かに応じて、物体検出部13に入力する画像を選択する。
【0131】
オペレーションDDにおいてパラメータ選択部12は、物体検出部13への入力画像の指定に関するパラメータ以外の残りのパラメータを、物体検出部13の入力画像に応じて選択する。
【0132】
オペレーションDEにおいて物体検出部13は、入力画像に基づき、パラメータ選択部12により選択されたパラメータに従って、検出処理を実行する。オペレーションDFにおいてECU10は、HMIを介して物体検出部13の検出結果をユーザに出力する。
【0133】
本実施例によれば、車両2の走行状態に応じて、物体検出部13の検出処理に使用するパラメータを選択することができる。このため、車両2の走行状態にその都度適した条件で物体の検出処理を行うことができるため、検出条件の精度を向上させ、安全性を向上させることが可能となる。
【0134】
<6.第6の実施の形態>
続いて、物体検出システム1の他の実施例について説明する。
図23は、物体検出システム1の第6構成例を示すブロック図である。
図21を参照して説明した第5構成例の各構成要素と同様の構成要素には、同一の参照符号を付する。同一の参照符号が付された構成要素は特に説明しない限り同じである。また、以下に説明する第6構成例の構成要素やその機能を他の実施例が備えていてもよい。
【0135】
物体検出システム1は、各カメラ110a〜110xの一例として、フロントカメラ111、右サイドカメラ112及び左サイドカメラ113を備える。また、物体検出システム1は、車両2の周囲の障害物を検出する障害物センサ134を備える。例えば、障害物センサ134はクリアランスソナーであってよい。
【0136】
ECU10は、障害物検出部18を備える。障害物検出部18は、所定のプログラムに従ってECU10のCPUが演算処理を行うことで実現される。障害物検出部18は、障害物センサ134の検出結果に従って車両2の周辺の障害物を検出してよい。また、フロントカメラ111、左右サイドカメラ112及び113からの撮影映像によるパターン認識によって車両2の周辺の障害物を検出してもよい。
【0137】
図24の(A)及び
図24の(B)は、障害物の例の説明図である。
図24の(A)に示す例では、車両2の隣の駐車車両S1のため、左サイドカメラ113の視野が遮られている。また、
図24の(B)の例では、車両2の隣の柱S2のため、左サイドカメラ113の視野が遮られている。
【0138】
このため車両2の周辺の障害物が検出された場合には、物体検出部13は、フロントカメラ111の撮影画像のみで検出処理を行う。障害物がない場合にはフロントカメラ111に加えて左サイドカメラ113の撮影画像でも検出処理を行う。
【0139】
図23を参照する。条件判定部17は、障害物検出部18により車両2の周辺の障害物が検出されたか否かを判定する。また、条件判定部17は、車両2の走行状態が条件保持部16に記憶される所定の条件を満たすか否かを判定する。条件判定部17は、判定結果をパラメータ選択部12に入力する。
【0140】
車両2の走行状態が条件保持部16に記憶される所定の条件を満たし、かつ車両2の周辺の障害物が検出された場合には、パラメータ選択部12は、フロントカメラ111の撮影画像のみを物体検出部13への入力画像として選択する。車両2の走行状態が条件保持部16に記憶される所定の条件を満たし、かつ車両2の周辺の障害物が検出されない場合には、パラメータ選択部12は、フロントカメラ111に加えて左右サイドカメラ112及び113の撮影画像を物体検出部13への入力画像として選択する。
【0141】
図25は、第6構成例の物体検出システム1による処理の例の説明図である。なお、他の実施態様においては、下記のオペレーションEA〜EJの各オペレーションはステップであってもよい。
【0142】
オペレーションEAにおいてフロントカメラ111及び左右サイドカメラ112及び113は、車両2の周辺画像を撮影する。オペレーションEBにおいて走行状態判定部15は、車両2の走行状態を判定する。
【0143】
オペレーションECにおいて条件判定部17は、車両2の走行状態が、条件保持部16に記憶される所定の条件を満たすか否かを判定する。パラメータ選択部12は、車両2の走行状態が条件保持部16に記憶される所定の条件を満たすか否かに応じて、物体検出部13に入力する画像を選択する。
【0144】
オペレーションEDにおいてパラメータ選択部12は、オペレーションECにおいてフロントカメラ画像及びサイドカメラ画像が選択されたか否かを判定する。フロントカメラ画像及びサイドカメラ画像が選択された場合(オペレーションED:Y)は、処理はオペレーションEEへ移行する。フロントカメラ画像及びサイドカメラ画像が選択されない場合(オペレーションED:N)は、処理はオペレーションEHへ移行する。
【0145】
オペレーションEEにおいて条件判定部17は、車両2の周辺の障害物が検出されたか否かを判定する。障害物が検出された場合(オペレーションEE:Y)は、処理はオペレーションEFへ進む。障害物が検出されない場合(オペレーションEE:N)は、処理はオペレーションEGへ進む。
【0146】
オペレーションEFにおいてパラメータ選択部12は、フロントカメラ画像のみを物体検出部13への入力画像として選択する。その後処理はオペレーションEHへ進む。
【0147】
オペレーションEGにおいてパラメータ選択部12は、フロントカメラ画像に加えて左右のサイドカメラ画像を物体検出部13への入力画像として選択する。その後処理はオペレーションEHへ進む。
【0148】
オペレーションEHにおいてパラメータ選択部12は、物体検出部13への入力画像の指定に関するパラメータ以外の残りのパラメータを、物体検出部13の入力画像に応じて選択する。
【0149】
オペレーションEIにおいて物体検出部13は、入力画像に基づき、パラメータ選択部12により選択されたパラメータに従って、検出処理を実行する。オペレーションEJにおいてECU10は、HMIを介して物体検出部13の検出結果をユーザに出力する。
【0150】
本実施例によれば、車両2の周辺の障害物に遮られてサイドカメラによる物体検出が実施できないとき、サイドカメラによる物体検出を省略することができる。これによって物体検出部13の無駄な検出処理を削減することができる。
【0151】
また、複数のカメラの撮影画像を時分割で切り替えて物体検出部13に入力させている場合には、障害物で視界が遮られたサイドカメラ画像の処理を省略することにより、他のカメラによる物体検出を行う期間を長くすることができる。このため安全性が向上する。
なお、本実施例では自車両の両側方に存在する障害物を検出対象とし、検出結果に応じてサイドカメラとフロントカメラの選択を行うとしたがそれに限定されない。すなわち、検出された障害物によりあるカメラの視界が遮られることを判断すると、そのカメラを除くカメラで物体を検出するように動作すればよい。
【0152】
<7.第7の実施の形態>
続いて、物体検出システム1の他の実施例について説明する。
図26は、物体検出システム1の第7構成例を示すブロック図である。
図6を参照して説明した第1構成例の各構成要素と同様の構成要素には、同一の参照符号を付する。同一の参照符号が付された構成要素は特に説明しない限り同じである。また、以下に説明する第7構成例の構成要素やその機能を他の実施例が備えていてもよい。
【0153】
物体検出システム1は、ユーザにより車両2に対して行われた操作を検出する操作検出センサ135を備える。操作検出センサ135は、方向指示器スイッチ、シフトレバーの位置を検出するセンサや舵角センサ等であってよい。これらのセンサはすでに車両2が備えているので、車両2のCAN(Controller Area Network)経由でこれらとECU10を接続すればよい。
【0154】
ECU10は、条件保持部16と、条件判定部17と、操作判定部19を備える。条件判定部17及び操作判定部19は、所定のプログラムに従ってECU10のCPUが演算処理を行うことで実現される。条件保持部16は、ECU10が備えるRAM、ROM若しくは不揮発性メモリなどとして実現される。
【0155】
操作判定部19は、ユーザにより車両2に対して行われた操作に関する情報を操作検出センサ135から取得する。操作判定部19は、ユーザにより行われた操作の内容を判定する。操作判定部19は、操作の内容として例えば操作の種類、操作量などを判定してよい。具体的には、操作の内容は、例えば方向指示器スイッチのオンオフ、シフトレバーの位置、舵角センサの操作量であってよい。条件保持部16は、条件判定部17が、操作内容に関して行う判定に使用する所定の条件を記憶する。
【0156】
例えば、条件保持部16は、「右側の方向指示器がオンである」、「シフトレバーの位置がD(ドライブ)である」、「シフトレバーの位置がP(パーキング)からD(ドライブ)へ変更された」及び「ハンドルが右に3°以上きられている」等の条件を記憶してよい。
【0157】
条件判定部17は、操作判定部19によって判定した車両2に対する操作が、条件保持部16に記憶される所定の条件を満たすか否かを判定する。条件判定部17は、判定結果をパラメータ選択部12に入力する。
【0158】
パラメータ選択部12は、車両2に対する操作が条件保持部16に記憶される所定の条件を満たすか否かに応じて、パラメータ保持部11に保持されたパラメータから、物体検出部13の検出処理に用いられるものを選択する。
【0159】
例えば、
図9の(A)〜
図9の(D)に示す駐車場からの出庫の場合のように、シフトレバーの位置がDへ変更されたことが検出された場合に、パラメータ選択部12は、フロントカメラ画像PFの左側領域R1と右側領域R2、左サイドカメラ画像PLの右側領域R3、右サイドカメラ画像PRの左側領域R4を検出範囲として選択してもよい。
【0160】
また
図10の(A)及び
図10の(B)に示す車線変更の場合のように、右側の方向指示器がオンになった場合に、パラメータ選択部12は、右サイドカメラ画像PRの右側領域R5を検出範囲として選択してもよい。
【0161】
図27は、第7構成例の物体検出システム1による処理の例の説明図である。なお、他の実施態様においては、下記のオペレーションFA〜FFの各オペレーションはステップであってもよい。
【0162】
オペレーションFAにおいて複数のカメラ110a〜110xは、車両2の周辺画像を撮影する。オペレーションFBにおいて操作判定部19は、ユーザにより行われた操作の内容を判定する。
【0163】
オペレーションFCにおいて条件判定部17は、車両2に対する操作が、条件保持部16に記憶される所定の条件を満たすか否かを判定する。パラメータ選択部12は、車両2に対する操作が条件保持部16に記憶される所定の条件を満たすか否かに応じて、物体検出部13に入力する画像を選択する。
【0164】
オペレーションFDにおいてパラメータ選択部12は、物体検出部13への入力画像の指定に関するパラメータ以外の残りのパラメータを、物体検出部13の入力画像に応じて選択する。
【0165】
オペレーションFEにおいて物体検出部13は、入力画像に基づき、パラメータ選択部12により選択されたパラメータに従って、検出処理を実行する。オペレーションFFにおいてECU10は、HMIを介して物体検出部13の検出結果をユーザに出力する。
【0166】
なお、他の実施例の物体検出システム1は、
図21に示す走行状態センサ133及び走行状態判定部15を備えてよい。条件判定部17は、操作内容及び走行状態が所定の条件を満たすか否かを判定してよい。すなわち、条件判定部17は、操作内容に関する所定条件と、走行条件に関する所定条件とを組み合わせた条件が満たされるか否かを判定してよい。パラメータ選択部12は、条件判定部17の判定結果に応じて、物体検出部13の検出処理に用いられるパラメータを選択する。
【0167】
表1は、走行状態の条件及び操作内容の条件の組み合わせによるパラメータの選択例を示す。本例では、走行状態の条件として車両2の車速に関する条件が使用される。操作内容の条件として、シフトレバーの位置及び方向指示器のオンオフの条件が使用される。
【0168】
また、選択されるパラメータは、使用するカメラの撮影画像、各撮影画像中の検出範囲の位置、遠距離用パラメータ及び近距離用パラメータの別、検出対象物を指定するパラメータである。
【0170】
車両2の車速が0[km/h]であり、シフトレバーの位置がDであり、方向指示器がオフの場合、車両2の前方左右の領域で物体の検出を行う。この場合には、フロントカメラ画像PF、右サイドカメラ画像PR及び左サイドカメラ画像PLが検出処理に使用される。また、フロントカメラ画像PFの左側領域R1と右側領域R2、左サイドカメラ画像PLの右側領域R3、右サイドカメラ画像PRの左側領域R4が検出範囲として選択される。
【0171】
またフロントカメラ画像PFの処理用のパラメータとして、二輪車及び自動車の検出に適合した遠距離用パラメータが選択される。右サイドカメラ画像PR及び左サイドカメラ画像PLの処理用のパラメータとして、歩行者及び二輪車の検出に適合した近距離用パラメータが選択される。
【0172】
車両2の車速が0[km/h]であり、シフトレバーの位置がD又はN(ニュートラル)であり、右側の方向指示器がONの場合、車両2の右後方の領域で物体の検出を行う。この場合には、右サイドカメラ画像PRが検出処理に使用される。また、右サイドカメラ画像PRの右側領域R5が検出範囲として選択される。右サイドカメラ画像PRの処理用のパラメータとして、歩行者及び二輪車の検出に適合した近距離用パラメータが選択される。
【0173】
車両2の車速が0[km/h]であり、シフトレバーの位置がD又はN(ニュートラル)であり、左側の方向指示器がONの場合、車両2の左後方の領域で物体の検出を行う。この場合には、左サイドカメラ画像PLが検出処理に使用される。また、左サイドカメラ画像PLの左側領域が検出範囲として選択される。左サイドカメラ画像PLの処理用のパラメータとして、歩行者及び二輪車の検出に適合した近距離用パラメータが選択される。
【0174】
車両2の車速が0[km/h]であり、シフトレバーの位置がP(パーキング)であり、左側の方向指示器又はハザードがONの場合、車両2の左右後側方の領域で物体の検出を行う。この場合には、右サイドカメラ画像PR及び左サイドカメラ画像PLが検出処理に使用される。
【0175】
また、右サイドカメラ画像PRの右側領域R5及び左サイドカメラ画像PLの左側領域が検出範囲として選択される。右サイドカメラ画像PR及び左サイドカメラ画像PLの処理用のパラメータとして、歩行者及び二輪車の検出に適合した近距離用パラメータが選択される。
【0176】
本実施例によれば、ユーザが車両2に対して行った操作に応じて物体検出部13の検出処理に使用するパラメータを選択することができる。このため、車両2に対する操作内容から予測される車両2の状態にその都度適した条件で物体の検出処理を行うことができるため、検出条件の精度を向上させ、安全性を向上させることが可能となる。
【0177】
<8.第8の実施の形態>
続いて、物体検出システム1の他の実施例について説明する。
図28は、物体検出システム1の第8構成例を示すブロック図である。
図6を参照して説明した第1構成例の各構成要素と同様の構成要素には、同一の参照符号を付する。同一の参照符号が付された構成要素は特に説明しない限り同じである。
【0178】
物体検出システム1は、車両2の位置を検出する位置検出部136を備える。例えば位置検出部136はナビゲーション装置120と同じ構成要素であってよい。また位置検出部136は、路車間通信を使用して車両2の位置情報を取得できる安全運転支援システム(DSSS:driving safety support systems)であってもよい。
【0179】
ECU10は、条件保持部16と、条件判定部17と、位置情報取得部20を備える。条件判定部17及び位置情報取得部20は、所定のプログラムに従ってECU10のCPUが演算処理を行うことで実現される。条件保持部16は、ECU10が備えるRAM、ROM若しくは不揮発性メモリなどとして実現される。
【0180】
位置情報取得部20は、位置検出部136が検出した車両2の位置の位置情報を取得する。条件保持部16は、条件判定部17が、位置情報に関して行う判定に使用する所定の条件を記憶する。
【0181】
条件判定部17は、位置情報取得部20が取得した位置情報が、条件保持部16に記憶される所定の条件を満たすか否かを判定する。条件判定部17は、判定結果をパラメータ選択部12に入力する。
【0182】
パラメータ選択部12は、車両2の位置が条件保持部16に記憶される所定の条件を満たすか否かに応じて、パラメータ保持部11に保持されたパラメータから、物体検出部13の検出処理に用いられるものを選択する。
【0183】
例えば、
図9の(A)〜
図9の(D)に示すように車両2が駐車場に位置している場合には、パラメータ選択部12は、フロントカメラ画像PFの左側領域R1と右側領域R2、左サイドカメラ画像PLの右側領域R3、右サイドカメラ画像PRの左側領域R4を検出範囲として選択してもよい。
【0184】
例えば
図10の(A)及び
図10の(B)に示す車線変更の場合のように車両2が高速道路、又はその合流車線に位置している場合には、パラメータ選択部12は、右サイドカメラ画像PRの右側領域R5を検出範囲として選択してもよい。
【0185】
なお、他の実施例の物体検出システム1は、
図21に示す走行状態センサ133及び走行状態判定部15を備えてもよい。これに代えて又はこれに加えて、物体検出システム1は、
図26に示す操作検出センサ135及び操作判定部19を備えてよい。
【0186】
このとき条件判定部17は、位置情報に加えて、操作内容及び/又は走行状態が所定の条件を満たすか否かを判定してよい。すなわち、条件判定部17は、位置情報に関する所定条件に、操作内容に関する所定条件及び/又は走行条件に関する所定条件を組み合わせた条件が満たされるか否かを判定してよい。パラメータ選択部12は、条件判定部17の判定結果に応じて、物体検出部13の検出処理に用いられるパラメータを選択する。
【0187】
図29は、第8構成例の物体検出システム1による処理の第1例の説明図である。なお、他の実施態様においては、下記のオペレーションGA〜GFの各オペレーションはステップであってもよい。
【0188】
オペレーションGAにおいて複数のカメラ110a〜110xは、車両2の周辺画像を撮影する。オペレーションGBにおいて位置情報取得部20は、車両2の位置情報を取得する。
【0189】
オペレーションGCにおいて条件判定部17は、車両2の位置情報が、条件保持部16に記憶される所定の条件を満たすか否かを判定する。パラメータ選択部12は、車両2の位置情報が条件保持部16に記憶される所定の条件を満たすか否かに応じて、物体検出部13に入力する画像を選択する。
【0190】
オペレーションGDにおいてパラメータ選択部12は、物体検出部13への入力画像の指定に関するパラメータ以外の残りのパラメータを、物体検出部13の入力画像に応じて選択する。
【0191】
オペレーションGEにおいて入力画像に基づき、パラメータ選択部12により選択されたパラメータに従って、検出処理を実行する。オペレーションGFにおいてECU10は、HMIを介して物体検出部13の検出結果をユーザに出力する。
【0192】
位置情報に関する所定条件と操作内容に関する所定条件とを組み合わせて、物体検出部13の検出処理に用いられるパラメータを選択する場合、車両2の位置情報の確度に応じて、位置情報及び操作内容のうちどちらの判定結果を使用するかを判定してもよい。
【0193】
すなわち車両2の位置情報の確度が所定の確度よりも高い場合には、パラメータ選択部12は、位置情報取得部20が取得した車両2の位置情報に基づいてパラメータを選択する。一方で位置情報の確度が所定の確度よりも低い場合には、パラメータ選択部12は、操作判定部19が判定した車両2に対する操作内容に基づいてパラメータを選択する。
【0194】
図30は、第8構成例の物体検出システム1による処理の第2例の説明図である。なお、他の実施態様においては、下記のオペレーションHA〜HIの各オペレーションはステップであってもよい。
【0195】
オペレーションHAにおいて複数のカメラ110a〜110xは、車両2の周辺画像を撮影する。オペレーションHBにおいて操作判定部19は、ユーザにより行われた操作の内容を判定する。オペレーションHCにおいて位置情報取得部20は、車両2の位置情報を取得する。
【0196】
オペレーションHDにおいて条件判定部17は、車両2の位置情報の確度が所定の確度よりも高いか否かを判定する。これに代えて位置情報取得部20が位置情報の確度の高低を判定してもよい。位置情報の確度が所定の確度よりも高い場合には(オペレーションHD:Y)、処理はオペレーションHEへ移行する。位置情報の確度が所定の確度よりも高くない場合には(オペレーションHD:N)、処理はオペレーションHFへ移行する。
【0197】
オペレーションHEにおいて条件判定部17は、車両2の位置情報が、条件保持部16に記憶される所定の条件を満たすか否かを判定する。パラメータ選択部12は、車両2の位置情報が条件保持部16に記憶される所定の条件を満たすか否かに応じて、物体検出部13に入力する画像を選択する。その後処理はオペレーションHGへ移行する。
【0198】
オペレーションHFにおいて車両2に対する操作が、条件保持部16に記憶される所定の条件を満たすか否かを判定する。パラメータ選択部12は、車両2に対する操作が条件保持部16に記憶される所定の条件を満たすか否かに応じて、物体検出部13に入力する画像を選択する。その後処理はオペレーションHGへ移行する。
【0199】
オペレーションHGにおいて物体検出部13への入力画像の指定に関するパラメータ以外の残りのパラメータを、物体検出部13の入力画像に応じて選択する。オペレーションHHにおいて物体検出部13は、入力画像に基づき、パラメータ選択部12により選択されたパラメータに従って、検出処理を実行する。オペレーションHIにおいてECU10は、HMIを介して物体検出部13の検出結果をユーザに出力する。
【0200】
本実施例によれば、車両2の位置情報に応じて物体検出部13の検出処理に使用するパラメータを選択することができる。このため、車両2の位置情報から予測される車両2の状態にその都度適した条件で物体の検出処理を行うことができるため、検出条件の精度を向上させ、安全性を向上させることが可能となる。
【0201】
次に、HMIによる検出結果の例について説明する。検出結果は、音、音声ガイド、カメラの撮影画像内への重畳表示によってドライバに通知可能である。撮影画像内に検出結果を重畳表示する場合、検出に使用された複数のカメラの撮影画像を全てディスプレイに表示すると、各カメラの撮影画像が小さくなって状況が認識しにくくなるといった問題が生じる。また、確認すべき事項が多すぎることによってドライバが何処に注視すべきか迷ってしまい、危険の認識が後れるという問題がある。
【0202】
そこで、本実施例では、ディスプレイ121には1つのカメラの撮影画像のみを表示し、この画像の表示上に他のカメラの撮影画像の検出結果を重畳表示する。
【0203】
図31は、警報の出力方法の一例の説明図である。本例では、フロントカメラ111により撮影される検出範囲A1及びA2、右サイドカメラ112により撮影される検出範囲A4、左サイドカメラ113により撮影される検出範囲A3において接近物体S1が検出される。
【0204】
この場合、フロントカメラ画像PFの左側領域R1と右側領域R2、左サイドカメラ画像PLの右側領域R3、右サイドカメラ画像PRの左側領域R4が、検出処理に使用される。
【0205】
本実施例では、ディスプレイ121の表示Dにはフロントカメラ画像PFが表示される。フロントカメラ画像PFの左側領域R1及び左サイドカメラ画像PLの右側領域R3のいずれかで接近物体S1が検出された場合、表示Dの左側領域DR1に接近物体S1を検出したことを示す情報を表示する。表示される情報は、カメラの撮影画像から抽出した接近物体S1の画像PPでもよく、または警報用の文字情報やアイコンなどでもよい。
【0206】
一方で、フロントカメラ画像PFの右側領域R2及び右サイドカメラ画像PRの左側領域R4のいずれかで接近物体S1が検出された場合、表示Dの右側領域DR2に接近物体S1を検出したことを示す情報を表示する。
【0207】
本実施例によれば、ユーザはいずれのカメラの撮影画像で物体が検出されたか意識することなく、いずれかのカメラの撮影画像の表示中に検出結果を判断することができるため、上記の問題点を解消することができる。