【実施例1】
【0009】
以下、本発明に係る車両用進入可否判定装置の実施形態について、図面を参照して説明する。
【0010】
本実施例は、本発明を、車両の周囲にある立体物を検出するとともに、検出された立体物に対して、車両が進入可能か否かを判定して、その結果を運転者に伝達する車両用進入可否判定装置として適用したものである。
(全体構成の説明)
【0011】
まず、
図1から
図3を用いて本実施例の機能構成を説明する。本実施例に係る車両用進入可否判定装置100は、
図1に示すように、車両10に搭載されて、車両10の前方の路面を含む画像を撮像する撮像部12と、撮像部12から出力された画像信号を、計算機で取り扱えるデジタル画像形式の原画像70に変換する画像入力部20と、原画像70を、所定の視点位置から見た仮想画像72に変換する画像変換部30と、仮想画像72の中から、路面から高さを有する立体物を検出する立体物検出部40と、検出された立体物の内部または検出された複数の立体物の間隙への車両10の進入可否を判定する車両進入可否判定部50と、車両進入可否判定部50における車両進入可否判定の結果、進入不可または進入可能と判定された範囲を表示する車両進入可否範囲表示部60と、から構成されている。
【0012】
撮像部12は、
図2に示すように車両10の前方に取り付けられており、車両10の直近の路面を含む前方観測範囲14の内部を、約180°の視野範囲に亘って撮像する。
【0013】
立体物検出部40は、詳しくは、
図3に示すように、所定の時間間隔を隔てて撮像部12(
図1)で撮像されて画像変換部30(
図1)で画像変換された、異なる時刻に得られた2枚の原画像70(t),70(t−Δt)から生成された2枚の仮想画像72(t),72(t−Δt)のフレーム差分を行う第1フレーム差分演算部40aと、時刻(t−Δt)に得られた原画像70(t−Δt)から生成された仮想画像72(t−Δt)から、時刻tにおける予測仮想画像72’(t)を生成して、時刻tにおいて実際に得られた仮想画像72(t)から予測仮想画像72’(t)を差し引くフレーム差分を行う第2フレーム差分演算部40bと、仮想画像72(t)の中から、隣接する画素の間で明るさの変化が大きい画素、すなわち、エッジを構成する画素を検出するエッジ検出部40cと、第1フレーム差分演算部40a,第2フレーム差分演算部40bの演算結果とエッジ検出部40cの検出結果に基づいて立体物を構成すると考えられる領域を検出する立体物領域クラスタリング部40dと、からなる。
【0014】
車両進入可否判定部50は、詳しくは、
図1に示すように、原画像70の中から、立体物検出部40で検出された立体物に対応する領域を抽出する立体物領域抽出部50aと、立体物領域抽出部50aで抽出された立体物領域に対して、車両がその立体物に接近できる限界位置を示す路面投影位置を算出する路面投影位置算出部50bと、立体物の内部または異なる立体物の間隙に車両10が進入可能な空間があるか否かを識別する車両進入可能空間識別部50cと、からなる。
【0015】
次に、
図4を用いて本実施例のハードウェア構成を説明する。本実施例に係る車両用進入可否判定装置100は、車両10に搭載されて、必要な画像処理や演算処理を行うECU(電子制御ユニット)110と、ECU110に接続された、撮像部12(
図1)を構成する前方カメラ12aと、車両10の挙動を検出することによって、車両10の移動量と移動方向を算出する、操舵角センサや距離センサで構成された車両状態センサ140と、車両進入可否範囲表示部60(
図1)の処理結果を表示するモニタ150と、から構成されている。
【0016】
ECU110は、さらに、必要なデータの送受信やプログラムの実行を行うCPU112と、CPU112に接続された、前方カメラ12aの制御を行うカメラインタフェース114と、車両状態センサ140の測定結果を取得するセンサインタフェース116と、内部に内蔵された所定のプログラムによって画像処理を実行する画像処理モジュール118と、画像処理の中間結果や、必要な定数、プログラム等を記憶するメモリ120と、モニタ150の制御を行う表示制御部122と、からなる。
【0017】
なお、
図1で説明した画像入力部20,画像変換部30,立体物検出部40,車両進入可否判定部50,車両進入可否範囲表示部60は、それぞれ、後述する作用を実現するソフトウェアによって制御されている。このソフトウェアは、前記したメモリ120の内部に記憶されて、必要に応じて適宜実行される。なお、ソフトウェアは、必要に応じて、CPU112や画像処理モジュール118の内部に記憶しておいてもよい。
(車両用進入可否判定装置で行われる処理の流れの説明)
【0018】
ここで、車両用進入可否判定装置100で行われる一連の処理の流れについて、
図5のフローチャートを用いて説明する。なお、ここでは各処理の概要を説明するに留め、処理内容の詳細な説明は後述する。
【0019】
(ステップS10)画像変換処理を行う。具体的には、撮像された原画像を仮想画像に変換する。
【0020】
(ステップS20)立体物検出処理を行う。具体的な処理の内容は後述する。
【0021】
(ステップS30)立体物領域抽出処理を行う。具体的な処理の内容は後述する。
【0022】
(ステップS40)車両進入可否判定処理を行う。具体的な処理の内容は後述する。
【0023】
(ステップS50)車両進入不可範囲表示処理を行う。具体的な処理の内容は後述する。
【0024】
以下、車両用進入可否判定装置100で行われる各処理の内容について、順を追って説明する。
(画像変換処理の説明)
【0025】
まず、
図1と、
図6A,
図6Bを用いて、画像変換処理の作用について説明する。画像変換処理は、
図1に記載した撮像部12と画像入力部20と画像変換部30において行われる。
【0026】
具体的には、撮像部12を構成する前方カメラ12a(
図4)の出力を、画像入力部20においてデジタル画像に変換して、
図6Aに示す原画像70として画像変換部30に入力する。なお、時刻tに撮像された原画像を70(t)と表記する。
【0027】
図6Aに示す原画像70(t)は、車両10(
図1)の前方の路面80を撮像したものである。路面にはレーンマーカ81が引かれており、そのレーンマーカの奥に、車両10を駐車するガレージ82(立体物)が設置されている。このガレージ82は、左右にそれぞれ脚部83,85を有している。なお、原画像70(t)の下部には、車両10の影である自車影87が映っている。
【0028】
画像変換部30は、
図6Aに示す原画像70(t)を、画像変換部30において、
図6Bに示すように、車両10を真上から見下ろした仮想画像72(t)(俯瞰画像)に変換する。具体的な変換方法の説明は省略するが、前方カメラ12a(
図4)の設置レイアウト情報(カメラの高さ,カメラの俯角,レンズパラメータ)を用いて、原画像70(t)を、車両10が存在する路面に投影する座標変換を行うことによって、仮想画像72(t)が得られる。なお、原画像70(t)が変換された仮想画像を、72(t)と表記することにする。
【0029】
仮想画像72(t)を生成する際、前方カメラ12aで撮像された原画像70(t)に映ったガレージ82(立体物)のうち、左右の脚部83,85の部分が、仮想画像72(t)上で上方に向かって、すなわち、車両10から遠ざかる方向に、路面上に倒れ込むように変形されて映り込む。そして、仮想画像72(t)の上方ほど、脚部83,85の横幅が広くなるように変形される。こうした脚部83,85の変形、すなわち路面から高さを有する領域の変形は、前方カメラ12a(
図4)の設置位置P1(
図6B)から、仮想画像72(t)の周辺に向かって放射状に広がるように発生する。
【0030】
また、仮想画像72(t)には、前方カメラ12aの視野外となる不可視領域86,86が発生するため、この不可視領域86,86には、所定の濃淡値(例えば0)を格納しておく。
(立体物検出処理の概要説明)
【0031】
次に、
図3と、
図7Aから
図7Eを用いて、立体物検出処理の作用について説明する。なお、立体物検出処理は、
図3の立体物検出部40において行われる。
【0032】
立体物検出部40は、
図7A,
図7Bに示すように、時間間隔Δtを隔てて撮像された2枚の原画像からそれぞれ生成された仮想画像の中から立体物を検出する。ここでは、時刻tで撮像された原画像70(t)から生成された仮想画像72(t)と、時刻t−Δtで撮像された原画像70(t−Δt)から生成された仮想画像72(t−Δt)から、立体物を検出するものとして説明を行う。
【0033】
まず、
図7Cに示すように、2枚の仮想画像72(t),72(t―Δt)のフレーム差分を計算する。この処理は、
図3の第1フレーム差分演算部40aで行われる。
【0034】
次に、
図7Dに示すように、仮想画像72(t―Δt)から時刻tにおける仮想画像72(t)を予測して予測仮想画像72’(t)を生成し、この予測仮想画像72’(t)と時刻tにおいて実際に得られた仮想画像72(t)とのフレーム差分を計算する。この処理は、
図3の第2フレーム差分演算部40bで行われる。
【0035】
予測仮想画像72’(t)は、具体的には次のようにして生成する。すなわち、車両状態センサ140(
図4)によって、時間間隔Δtの間における車両10の移動量と移動方向を随時計測する。そして、計測された時間間隔Δtの間の車両10の移動量と移動方向に対応するように、仮想画像72(t―Δt)を平行移動および回転移動させて、時刻tにおける予測仮想画像72’(t)を生成する。なお、このとき、仮想画像72(t―Δt)には全て路面が映っているものと仮定して予測仮想画像72’(t)を生成する。
【0036】
なお、第2フレーム差分演算部40bで行うフレーム差分は、時刻tにおける仮想画像72(t)に基づいて、時刻t−Δtにおける仮想的な予測仮想画像72’(t―Δt)を生成した後で、この予測仮想画像72’(t―Δt)と、時刻(t−Δt)において実際に得られた仮想画像72(t―Δt)と、の間で行っても構わない。
【0037】
このように仮想画像72(t)と予測仮想画像72’(t)のフレーム差分を行うことによって、
図7Bに示したレーンマーカ81のような路面に描かれたパターンの位置が画像上で一致するため、
図7Dに示すように、レーンマーカ81を抑制、すなわち除去することができる。一方、路面上に生じた自車影87は、フレーム差分を行う短い時間間隔の間で考えると、車両10が移動してもほぼ同じ位置に発生するため、
図7Dに示すように、仮想画像と予測仮想画像のフレーム差分によって除去することができない。
【0038】
これに対して、異なる2つの時刻で得た実際の仮想画像72(t),72(t―Δt)同士のフレーム差分によると、
図7Cに示すように、ほぼ同じ位置に発生する自車影87を除去することができる。ただし、レーンマーカ81のように路面に描かれたパターンは、車両10の移動に伴ってその観測位置が移動するため、フレーム差分によって除去することができない。
【0039】
ここで、第1フレーム差分演算部40aで行ったフレーム差分の結果(
図7C)と、第2フレーム差分演算部40bで行ったフレーム差分の結果(
図7D)を比較する。
【0040】
まず、第2フレーム差分演算部40bで行ったフレーム差分の結果、検出された領域のうち、その領域の近傍に、第1フレーム差分演算部40aで行ったフレーム差分によって略同じ特徴(例えば形状)を有する領域が検出されないときには、第2フレーム差分演算部40bで検出された領域は、路面上に生じた自車影87や、太陽や照明灯によって路面に生じる照り返しであると推測することができる。そして、その領域は立体物を示す領域ではないと判断して除去する。
【0041】
次に、前記判断で残った領域のうち、車両10から遠ざかる方向に、路面上に倒れ込んだ領域のみを、路面上にある高さを有する立体物であるとして検出する。すなわち、
図7C,
図7Dの例では、脚部83,85の領域のみが検出される。
【0042】
なお、フレーム差分を行った結果得られた領域が、車両10から遠ざかる方向に、路面上に倒れ込んでいることは、仮想画像72(t)からエッジ検出を行った結果を参照して、フレーム差分の結果得られた領域におけるエッジ方向が、前方カメラ12a(
図4)の設置位置P1(
図6B)を通る放射状の直線に沿って延びていることを確認して判断することができる。
(立体物検出処理の詳細説明)
【0043】
次に、立体物検出処理の具体的な内容について、
図7Cから
図7Eを用いて説明する。
【0044】
まず、
図7Cに示す第1フレーム差分結果を所定のしきい値で2値化して、しきい値よりも大きい濃淡値を有する画素を第1立体物候補領域88(非図示)として検出する。この処理によって、脚部83,85やレーンマーカ81の領域が検出される。
【0045】
次に、
図7Dに示す第2フレーム差分結果を所定のしきい値で2値化して、しきい値よりも大きい濃淡値を有する画素を第2立体物候補領域89(非図示)として検出する。この処理によって、脚部83,85や自車影87の領域が検出される。
【0046】
そして、検出された第1立体物候補領域88と第2立体物候補領域89に対して、互いに近接した位置にあって同じ形状(特徴)を有する領域のみを選出する、いわゆる非立体物の除去を行う。この処理によって、車両の移動とともにその位置が移動する非立体物、すなわち、レーンマーカ81や自車影87の領域を除去することができる。この非立体物の除去は、例えば、検出された第1立体物候補領域88と第2立体物候補領域89に対して論理積演算を行うことによって実行できる。
【0047】
なお、ここで利用する特徴は、領域の形状に限るものではない。すなわち、領域の輝度差を利用して、互いに近接した位置にある領域を検出してもよい。また、特徴として、仮想画像に対してエッジ検出を行った結果の類似性(エッジ強度,エッジ方向の類似性)や、仮想画像を複数の小ブロックに分割して、各小ブロックから得た、濃淡ヒストグラムやエッジ検出結果のヒストグラムの類似性等を用いてもよい。
【0048】
次に、仮想画像72(t)に対して、エッジ検出部40c(
図3)でエッジ検出を行う。エッジ検出は、一般的に行われているように、隣接する画素間の明るさの差を演算することによって行う。
【0049】
非立体物の除去を行って残った領域に対して、その領域と同じ位置にある画素のエッジ検出結果を参照して、各領域の延びる方向を評価する。立体物を構成する領域は、前方カメラ12a(
図4)の設置位置P1(
図6B)から仮想画像72(t)の周辺に向かって放射状に延びる領域に変換されるため、領域の形状や延びる方向が、この条件に合致することを確認して、立体物を構成する領域であると判断する。
【0050】
このとき、フレーム差分で検出された領域をそのまま立体物領域と判断せず、仮想画像72(t)のエッジ検出結果を参照するため、フレーム差分の結果に混入する可能性がある、照明,影,カメラの露光特性の時間変動の影響を低減することができる。また、仮想画像72(t)のエッジ検出結果を参照するため、時刻t−Δtにおける立体物領域が残像として残らない状態とすることができるとともに、立体物が移動していた場合の誤検出抑制効果もある。したがって、立体物の検出性能をより一層向上させることができる。
【0051】
この一連の処理によって、例えば
図7Eに示すように、立体物を構成すると考えられる立体物領域90,92が検出される。そして、さらに、検出された立体物領域90,92の最下部の辺縁位置を、立体物が路面に接地している位置を示す路面接地位置90a,92aとして検出する。
(立体物検出処理の流れの説明)
【0052】
次に、
図8のフローチャートを用いて、立体物検出処理の一連の流れを説明する。
【0053】
(ステップS100)第1フレーム差分演算部40aでフレーム差分を行う。
【0054】
(ステップS110)第2フレーム差分演算部40bでフレーム差分を行う。
【0055】
(ステップS120)ステップS100の結果と、ステップS110の結果を比較して、車両10の移動とともに移動する領域を非立体物として除去する。
【0056】
(ステップS130)仮想画像72(t)のエッジ検出を行う。
【0057】
(ステップS140)ステップS120の結果残った領域の中から、車両10から遠ざかる方向に、路面上に倒れ込んだ領域のみを検出する。
【0058】
(ステップS150)検出された領域の路面接地位置を検出する。
(立体物領域抽出処理の説明)
【0059】
次に、仮想画像72(俯瞰画像)の中から検出された立体物に対して、その立体物と対応する領域を原画像70の中から抽出する。この処理は、立体物領域抽出部50a(
図1)で行われる。以下、
図9Aから
図9Cを用いて、立体物領域抽出処理の作用について説明する。
【0060】
仮想画像72の中から検出された立体物領域を、仮想画像72を作成したときとは逆に、逆俯瞰変換して原画像70の座標系に変換する。この逆俯瞰変換によって、
図9Aに示すように、原画像70(t)の内部において立体物の領域を特定することができる。ただし、
図9Aの場合、仮想画像に変換した際に、ガレージ82(立体物)の高所部分はフレームアウトしてしまうため、地面に近い下方の立体物領域90,92のみが抽出されて重畳される。なお、原画像70に格納された濃淡値はこの後の処理で利用するため、ここでいう重畳とは、原画像70の上に別のレイヤーとして重ね合わせることを意味している。
【0061】
次に、
図9Bに示すように、原画像70(t)の中に、横方向が立体物領域90,92に外接するような矩形領域W1を設定する。矩形領域W1の縦方向サイズは、予め設定した所定の値とする。そして、立体物領域抽出部50aにおいて、矩形領域W1に対応する原画像70(t)の領域内部の濃淡ヒストグラムH(W1)を作成する。このようにして作成された濃淡ヒストグラムH(W1)の例を
図9Cに示す。
【0062】
図9Cからわかるように、濃淡ヒストグラムH(W1)には、立体物領域90,92を形成している暗部領域と、非立体物領域を構成している明部領域の2つの領域が出現している。
【0063】
そして、矩形領域W1の縦方向サイズを所定値ずつ増加させて矩形領域W2,W3,W4を設定して、その都度、各矩形領域に対応する原画像70(t)の濃淡ヒストグラムH(W2),H(W3),H(W4)を作成する。このようにして生成された濃淡ヒストグラムH(W2),H(W3),H(W4)の例を
図9Cに示す。
【0064】
図9Cからわかるように、矩形領域と立体物領域90,92とが重複していると、濃淡ヒストグラムは類似の形態をなす。すなわち、
図9Cの例では、矩形領域W1,W2,W3を設定したときに得られる濃淡ヒストグラムH(W1),H(W2),H(W3)から、立体物領域90,92を形成している暗部領域と、非立体物領域を構成している明部領域の2つの領域が出現することがわかる。そして、矩形領域W4が立体物領域90,92を完全に包含したときに得られる濃淡ヒストグラムH(W4)は、濃淡分布の類似性が崩れることがわかる。
【0065】
本実施例では、
図9Cに示すように、異なる縦方向サイズを有する複数の矩形領域Wi(i=1,2,…)を設定して、その矩形領域Wi内の濃淡ヒストグラムH(Wi)を作成し、作成された濃淡ヒストグラムH(Wi)の類似性を評価して、原画像70(t)の中から立体物に対応する領域を抽出する。
【0066】
なお、濃淡ヒストグラムH(Wi)間の類似性を評価する尺度としては、例えば、ユークリッド距離による判別法、ヒストグラム交差法等の様々な方法が提案されており、それらのいずれの尺度を用いて評価しても構わない。ただし、設定する矩形領域Wi(i=1,2,…)はそれぞれサイズが異なっているため、作成された濃淡ヒストグラムH(Wi)の総面積は全て異なっている。したがって、類似性を算出するためには、濃淡ヒストグラムH(Wi)の総面積が等しくなるように、予め正規化処理を行っておく必要がある。なお、濃淡ヒストグラムH(Wi)間の類似性は、矩形領域Wi内の立体物領域と非立体物領域の面積変動を考慮して、ヒストグラムの双峰性を仮定したモード法や、判別分析等による2値化閾値の安定性に基づいて評価しても構わない。
【0067】
さらに、
図9Bの例では、立体物領域90,92(
図9A)にともに外接する矩形領域Wi(i=1,2,…)を設定したが、これは、立体物領域90と立体物領域92の間に、空中に浮遊した浮遊領域が存在するものと仮定したためである。
【0068】
したがって、立体物領域90,92にそれぞれ外接する領域を設定して、2つの立体物領域をそれぞれ求めても構わない。ただし、その場合には、立体物領域をそれぞれ抽出した後で、それらの立体物が1つの塊であるか否かを、例えば、前述した立体物領域抽出と同様に濃淡ヒストグラムの類似性評価等によって判定して、ひとつの塊であったときには、1つの領域として統合する必要がある。
【0069】
次に、
図10に立体物領域を抽出した別の例について説明する。
図10は、時刻tに撮像された、車両10の前方に他車両11(立体物)が停止している状態を示す原画像70(t)を示している。そして、立体物検出によって検出された立体物領域94が、原画像70(t)に重畳された状態を示している。そして、他車両11(立体物)のタイヤの接地位置が、路面接地位置94a,94bとして検出されている。
【0070】
図10に示した原画像70(t)に対して、前述した立体物領域抽出処理を行う。すなわち、立体物領域94に外接する矩形領域Wi(i=1,…,n)を設定して、濃淡ヒストグラムH(Wi)の類似度を評価する。これによって、他車両11に外接する矩形領域Wnを抽出することができる。
(立体物領域抽出処理の流れの説明)
【0071】
以下、
図11のフローチャートを用いて、立体物領域抽出処理の一連の流れを説明する。
【0072】
(ステップS200)仮想画像72の中から検出された立体物領域を逆変換して原画像70の対応する位置に重畳する。
【0073】
(ステップS210)立体物候補領域として、横方向が、原画像70に重畳された立体物領域に外接するような複数の矩形領域Wi(i=1,2,…)を設定する。
【0074】
(ステップS220)原画像70のうち、矩形領域Wiに対応する領域の濃淡ヒストグラムH(Wi)を生成する。
【0075】
(ステップS230)生成された複数の濃淡ヒストグラムH(Wi)同士の類似度を算出して、類似度の高い濃淡ヒストグラムH(Wi)の組を探す。そして、類似度が高いと判定された濃淡ヒストグラムH(Wi)の組のうち、縦方向サイズが最大の矩形領域Wiを立体物領域として設定する。
【0076】
(ステップS240)立体物領域が設定されたか否かを判定する。立体物領域が設定されたときは
図11の処理を終了して、それ以外のときはステップS210に戻り、別の立体物候補領域に対する処理を繰り返す。
【0077】
なお、
図11は、立体物領域抽出処理の一例を示すものである。実際には、前述したように、領域の濃淡ヒストグラムH(Wi)の類似度のみならず、仮想画像のエッジ検出結果等、別の特徴を用いて立体物領域を抽出してもよい。
(車両進入可否判定処理の説明)
【0078】
次に、
図12Aから
図12Cを用いて、車両進入可否判定処理の作用について説明する。車両進入可否判定処理は、
図1に示した車両進入可否判定部50において行われる。
【0079】
路面上の立体物は、その下端部が全て路面に接地しているとは限らない。すなわち、路面に接地していない浮遊領域を有している場合もある。例えば、
図6A,
図6Bに記載したガレージ82(立体物)は、脚部83,85のみが路面に接地しており、脚部83,85に挟まれた領域は、路面から浮遊している。また、
図10に記載した他車両11(立体物)は、タイヤのみが路面に接地しており、それ以外の部分(車両のボディ部分)は路面から浮遊している。
【0080】
そこで、車両進入可否判定処理を行うにあたり、まず、
図12Aに示すように、前述した立体物領域抽出処理によって抽出された立体物領域である他車両11を、真上から路面に投影した路面投影位置を算出する。この処理は、
図1の路面投影位置算出部50bにおいて行われる。この処理によって、抽出された立体物領域の中に路面から浮遊した部位があるか否かを検出することができる。
【0081】
浮遊部位の検出は、具体的には、
図12Aに示すように、路面接地位置94a,94bを含み、検出された立体物領域である他車両11の左右端まで延びた線分Lを設定して、その線分Lの位置から原画像70(t)上で上方に向かって、立体物領域である他車両11と突き当たる点の位置を検出する。処理の結果、
図12Aの例では、例えば、点Piから探索を行うと空間に浮遊した点Qiが検出される。同様にして、点Pjから探索を行うと空間に浮遊した点Qjが検出される。なお、路面接地位置94a,94bは路面に接地していることがわかっているため、処理の対象から外す。
【0082】
次に、検出された、空間に浮遊した点Qi,Qj,…を、逆に線分L上に投影して、路面接地点Ri,Rj,…を設定する。なお、路面接地位置94a,94bは、そのまま路面接地点とする。
【0083】
このようにして設定された路面接地点Ri,Rj,…は、他車両11(立体物)を真上から路面に投影した路面投影位置を表している。そして、このようにして求めた路面接地点Ri,Rj,…のうち、左右に連続して検出された路面接地点を互いに連結して、一本の線分である路面接地線L1,L2,L3を形成する。この処理によって、車両10は、少なくとも、この路面接地線L1,L2,L3の位置までは他車両11(立体物)に接近することができることがわかる。そして、この路面接地線L1,L2,L3を超えて他車両11に接近すると、車両10が他車両11に接触する虞がある。
【0084】
なお、路面接地線L1,L2は路面接地位置94aと接続しており、また、路面接地線L2,L3は路面接地位置94bと接続しているため、これらの路面接地線L1,L2,L3と路面接地位置94a,94bは、1本の路面接地線Nとして統合する。
【0085】
次に、検出された立体物領域の内部に、車両10が進入可能な空間があるか否かを判定する。この判定は、
図1の車両進入可能空間識別部50cにおいて行われる。
【0086】
具体的には、例えば、
図12Cに示すように、原画像70(t)の内部で検出された路面接地線Li,Lj,Lk(路面接地線Nに対応する)の上方のどの位置に立体物領域が浮遊しているかを確認する。
【0087】
すなわち、車両10が路面接地線Li,Lj,Lkを超えて奥まで進入できるか否かは、路面接地線Li,Lj,Lkの長さが車両10の幅よりも長く、なおかつ、路面接地線Li,Lj,Lkの上方に、車両10の高さを超える空間があることを確認することにより判定できる。
【0088】
ここで、原画像70(t)は遠方にあるものほど、画像の上方に短く映るような透視変換を受けて生成されている。したがって、原画像70(t)の内部で検出された路面接地線Li,Lj,Lkの原画像70(t)上での上下位置と長さによって、路面接地線Li,Lj,Lkの実際の長さを推定することができる。また、路面接地線Li,Lj,Lkの原画像70(t)上での上下位置によって、その路面接地線の位置において、車両10が進入可能な空間の高さを推定することができる。
【0089】
例えば、
図12Cに示すように、原画像70(t)の内部で路面接地線Li,Lj,Lkが検出されたときには、各路面接地線L1,L2,L3を超えて車両10が進入するために必要な、各路面接地線Li,Lj,Lkの上方の空間の高さHi,Hj,Hkを、それぞれ、各路面接地線Li,Lj,Lkの上下位置に基づいて推定することができる。
【0090】
各路面接地線Li,Lj,Lkの実際の長さと、各路面接地線Li,Lj,Lkの上方の空間の高さHi,Hj,Hkは、それぞれ、前方カメラ12a(
図4)の設置レイアウト情報(カメラの高さ,カメラの俯角,レンズパラメータ)に基づいて推定することができる。すなわち、前方カメラ12a(
図4)の設置レイアウトは予めわかっているため、各路面接地線L1,L2,L3の実際の長さと、各路面接地線L1,L2,L3の上方の空間の高さH1,H2,H3は、予め計算によって求めておくことができる。そして、算出された値は、表形式で、車両進入可能空間識別部50c(
図1)に記憶しておく。
【0091】
そして、各路面接地線Li,Lj,Lkが検出されると、記憶された表の内容を参照して、各路面接地線Li,Lj,Lkが車両10の幅を超える値であって、なおかつ、路面接地線Li,Lj,Lkの上部に、車両10の高さを超えるスペースがあるか否かを判定することができる。
(車両進入可否判定処理の流れの説明)
【0092】
以下、
図13のフローチャートを用いて、車両進入可否判定処理の一連の流れを説明する。
【0093】
(ステップS300)立体物領域の路面投影位置を、路面接地点Ri,Rj,…として算出する。具体的な処理の内容は、前述した通りである。
【0094】
(ステップS310)路面接地点Ri,Rj,…のうち連続している点を統合して路面接地線Nとする。そして、路面接地線Nの長さと、路面接地線Nの原画像70上の上下位置を算出する。
【0095】
(ステップS320)路面接地線Nの上方の空間の高さHを算出する。
【0096】
(ステップS330)車両10が路面接地線Nを超えて進入可能か否かを判定する。
(車両進入不可範囲表示処理の説明)
【0097】
次に、
図14A,
図14Bを用いて、車両進入不可範囲表示処理の作用について説明する。車両進入不可範囲表示処理は、
図1に示した車両進入可否範囲表示部60において行われる。
【0098】
図14Aは、
図6A,
図6Bから生成された表示画像74(t)の一例である。この表示画像74(t)は、車両10のモニタ150(
図4)に表示される。
図14Aに示すように、表示画像74(t)には、仮想画像72(t)(俯瞰画像)上に路面接地線L1,L2が太線で描画されるとともに、抽出されたガレージ82に対応する立体物領域が重畳して表示される。そして、路面接地線L1,L2に挟まれた領域は、車両10が進入可能であるため、路面接地線の位置には太線の描画が行われない。車両10の運転者は、この表示画像74(t)を見て、車両10をガレージ82(立体物)の奥まで進入させることができると判断する。なお、路面接地線L1,L2を示す太線には赤色等の所定の色付けを行うことによって、視認性を高めてもよい。
【0099】
なお、表示画像74(t)において、前方カメラ12aの視野外となる不可視領域86およびガレージ82(立体物)の陰となる不可視領域88には、所定の濃淡値(例えば0)が格納される。
【0100】
図14Bは、
図10に示した原画像70(t)が観測されたときに生成される表示画像75(t)の一例である。表示画像75(t)において、他車両11の下部には、路面接地線Nを示す太線が描画される。そして、車両10は路面接地線Nの位置までしか接近できないこと、すなわち、車両10は路面接地線Nを超えて進入することができないことが示される。
【0101】
なお、表示画像74(t)の表示形態は、
図14A,
図14Bに示した例に限定されるものではない。すなわち、路面接地線Nのうち、車両10が進入できない範囲ではなく、車両10が進入可能な範囲に太線を表示しても構わない。
【0102】
以上説明したように、このように構成された本発明の実施例1に係る車両用進入可否判定装置100によれば、前方カメラ12a(撮像部12)で撮像された車両10の周囲の路面を含む原画像70を、画像変換部30が、所定の視点位置から見た仮想画像72(俯瞰画像)に変換して、立体物検出部40が、仮想画像72の中から、路面から高さを有する立体物を検出して、車両進入可否判定部50が、検出された立体物の内部または異なる立体物の間隙への車両10の進入可否を判定するため、路面に接地していない浮遊領域を有する立体物であっても、車両10がその空間に進入可能か否かを判定することができるため、立体物への接触を未然に防止することができる。
【0103】
また、このように構成された本発明の実施例1に係る車両用進入可否判定装置100によれば、立体物領域抽出部50aが、原画像70の中から、立体物と対応する領域を抽出して、路面投影位置算出部50bが、立体物領域抽出部50aによって抽出された立体物領域に対して、立体物領域を構成する、路面に接地していない浮遊領域の有無と浮遊領域の路面からの高さを算出するとともに、浮遊領域を真上から路面に投影した路面投影位置を算出して、車両進入可能空間識別部50cが、路面投影位置算出部50bによって算出された路面投影位置と浮遊領域の有無とに基づいて、立体物の内部または異なる立体物の間隙に、車両10が進入可能な空間があるか否かを識別するため、簡便な処理によって、浮遊領域の有無とその路面投影位置を算出することができる。
【0104】
そして、このように構成された本発明の実施例1に係る車両用進入可否判定装置100によれば、車両進入可否範囲表示部60が、車両進入可否判定部50において、車両10が進入不可能であると判定された進入不可範囲または車両10が進入可能であると判定された進入可能範囲を、仮想画像72の路面位置に重畳して表示するため、路面に接地していない浮遊領域を有する立体物であっても、車両10がその立体物に対してどこまで接近できるかを可視化することができ、立体物への接触を未然に防止することができる。
【0105】
さらに、このように構成された本発明の実施例1に係る車両用進入可否判定装置100によれば、立体物検出部40は、第1フレーム差分演算部40aで演算された、異なる時刻に撮像された2枚の原画像からそれぞれ生成された2枚の仮想画像72(t−Δt),72(t)(俯瞰画像)のフレーム差分の結果と、第2フレーム差分演算部40bで演算された、2枚の仮想画像(俯瞰画像)のうち一方の仮想画像72(t−Δt)から、車両10の移動量と移動方向に基づいて予測された、他方の仮想画像72(t)の変換元である原画像70(t)が撮像された時刻と同じ時刻に撮像された原画像から生成されると予測される予測仮想画像72’(t)と他方の仮想画像72(t)とのフレーム差分の結果と、に基づいて路面上の非立体物を除去するとともに、エッジ検出部40cで検出された仮想画像72(t)のエッジ情報を参照することによって路面上の立体物を検出した。そのため、簡便な画像処理によって、路面から高さを有する立体物を、路面のペイントや汚れ、あるいは車両10の自車影87と識別して確実に検出することができる。
【0106】
また、このように構成された本発明の実施例1に係る車両用進入可否判定装置100によれば、第1フレーム差分演算部40aによって検出された第1立体物候補領域88と、第2フレーム差分演算部40bによって検出された第2立体物候補領域89の中から、互いに近接した位置にあって同じ形状(特徴)を有する領域を検出するとともに、エッジ検出部40cによる仮想画像72(t)のエッジ検出結果に基づいて、検出された領域が車両10から遠ざかる方向に、路面上に倒れ込んでいると判定されたとき、その領域を路面上の立体物を表す領域として検出した。したがって、仮想画像72(t)のエッジ検出結果を参照することにより、フレーム差分の結果に混入する可能性がある、照明,影,カメラの露光特性の時間変動の影響を低減することができるため、立体物の検出性能をより一層向上させることができる。
【0107】
なお、実施例1にあっては、撮像部12として前方カメラ12aを1台設置した例を用いて説明したが、使用するカメラは1台に限定されるものではない。すなわち、車両10の前方,左方,右方,後方に向けて複数のカメラを設置して、車両10の全周囲を監視可能な車両用進入可否判定装置とすることも可能である。この場合、各カメラで撮像された原画像はそれぞれ仮想画像(俯瞰画像)に変換された後、1枚の合成画像に合成されて、この合成画像に対して、実施例で説明した各処理が行われる。
【0108】
また、実施例1では、一つの立体物であるガレージ82や他車両11の内部への車両10の進入可否を判断する例を示したが、これは、単一の立体物の内部への進入判断を行う例に限定されるものではない。すなわち、駐車枠が表示されていない駐車場に、2台の車両が間隔をおいて駐車しているとき、その間のスペースに車両10を進入させて駐車することができるか否かを判断するような場面にも適用することができる。その場合には、立体物として2台の車両をそれぞれ検出した後で、検出された2つの立体物領域の間に存在する空間の横幅と空間の高さをそれぞれ算出して、算出された空間のサイズ(横幅と高さ)と車両10の寸法とを比較して、車両10の進入可否が判定される。
【0109】
さらに、実施例1で説明した画像処理の手順は、実施例に記載した通りである必要はない。例えば、仮想画像72(t)の内部に、ガレージ82が途切れなく映り込んでいたときには、仮想画像72(t)の中から、ガレージ82が1つの立体物領域として検出される。このような場合も想定して、仮想画像72(t)の中から路面接地線Nを検出した後、引き続いて、路面接地線Nの上方の空間の高さHを算出する手順としても構わない。このような手順をとると、仮想画像72(t)の中に立体物全体が映り込んでいるときには、仮想画像72(t)のみを使用して立体物領域抽出処理と進入可否判定処理を行うことができるため、一連の処理をより簡便に行うことができる。
【0110】
また、実施例1で説明した車両用進入可否判定装置100によれば、検出された立体物の路面接地線Nを求めて、路面接地線Nのうち、車両10が進入不可能な範囲のみを表示して運転者に情報伝達を行う構成としたが、この構成に限定されるものではない。すなわち、例えば、算出された路面接地線Nのうち、車両10が進入可能な範囲の情報に基づいて、車両10を自動駐車させる構成とすることも可能である。
【0111】
さらに、実施例1にあっては、仮想画像同士のフレーム差分を行って立体物の検出を行ったが、その際に行うフレーム差分は、仮想画像の明るさを表す濃淡値同士のフレーム差分に限定されるものではない。すなわち、例えば仮想画像のエッジ検出を行って、検出されたエッジ強度が格納された仮想画像同士のフレーム差分を行ってもよいし、検出されたエッジ方向が格納された仮想画像同士のフレーム差分を行って、変化が生じた領域を検出してもよい。また、仮想画像を複数の小ブロックに分割して、各小ブロックの濃淡ヒストグラムやエッジ検出結果のヒストグラムの類似性を用いてもよい。
【0112】
以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。