【実施例1】
【0014】
図1は、本発明の実施例1の接近物検出システム10のブロック図である。
【0015】
広角カメラ1は、例えば、車両に搭載され、約180度程度の視野角を有する。接近物検出システム10は、広角カメラ1によって撮像された撮像画像に基づいて車両に接近する接近物を検出し、接近物を検出した場合、警報部2に接近物に関する情報を出力する。
【0016】
接近物検出システム10は、抽出部101、車両姿勢推定部102、第1接近物検出部11、及び第2接近物検出部12を有する。なお、第1接近物検出部11及び第2接近物検出部12を総称する場合には、接近物検出部と記載する。
【0017】
抽出部101は、広角カメラ1によって撮像された撮像画像F
tから左端部分画像FL
t及び右端部分画像FR
tを抽出する。車両姿勢推定部102は、車両の姿勢に基づいて広角カメラ1の姿勢を示すカメラ姿勢パラメータCp
tを推定する。なお、左端部分画像FL
t及び右端部分画像FR
tを総称して部分画像と記載する。
【0018】
第1接近物検出部11は左端部分画像FL
tに基づいて接近物を検出し、第2接近物検出部12は右端部分画像FR
tに基づいて接近物を検出する。第1接近物検出部11及び第2接近物検出部12は、歪み補正部103、物体検出部104、物体追跡部105、統合判定部106、及び接近物識別部107を有する。
【0019】
以下、第1接近物検出部11を例に、各構成部の処理について説明する。
【0020】
歪み補正部103は、左端部分画像FL
tが入力されると、入力された左端部分画像FL
tを左端部分透視投影画像UL
tに変換することによって、左端部分画像FL
tの歪みを補正し、左端部分透視投影画像UL
tを物体検出部104及び物体追跡部105に入力する。
【0021】
物体検出部104は、左端部分透視投影画像UL
tが入力されると、入力された左端部分透視投影画像UL
tからパターンマッチングを用いて物体を検出する。物体検出部104の詳細は、
図4並びに
図5A及び
図5Bで詳細を説明する。物体追跡部105は、左端部分透視投影画像UL
tが入力されると、入力された左端部分透視投影画像UL
tと前回の接近物識別部107による接近物に関する情報である物体情報OL
t−1とを比較して、物体を追跡する。
【0022】
統合判定部106は、物体検出部104による物体の検出結果と物体追跡部105による物体の追跡結果とに基づいて、検出結果と追跡結果との間の整合性を判定する。具体的な整合性の判定方法については
図3で詳細を説明する。
【0023】
接近物識別部107は、車両姿勢推定部102によるカメラ姿勢パラメータCp
t、及び、物体検出部104によって検出された物体の特徴量の時間経過による変化量に基づいて接近物か否かを識別する。
【0024】
なお、第1接近物検出部11の接近物識別部107及び第2接近物検出部12の接近物識別部107の少なくとも一方で接近物が検出された場合、警報部2から警報が出力される。
【0025】
接近物検出システム10の各部はハードウェアによって構成されてもよいし、ソフトウェアによって構成されていてもよく、ハードウェアとソフトウェアを組み合わせたモジュールであってもよい。
【0026】
図2は、本発明の実施例1の広角カメラ1による撮像画像F
tの説明図である。
【0027】
広角カメラ1は上記したように約180度程度の視野角を有し、広角カメラ1が車両の前方又は後方に取り付けられると、車両の左側方から右側方にわたる範囲を撮影でき、広角カメラ1が車両の側方に取り付けられると、車両の前方から後方にわたる範囲を撮影できる。
【0028】
図2では、Oはレンズ中心であり、fはレンズから撮像素子までの距離である焦点距離であり、θは入射角である。
【0029】
入射角θでレンズに入射した光は、レンズに入射した位置から鉛直に屈折して撮像素子に到達する。撮像素子全面で撮像された画像を撮像画像F
tとする。抽出部101は、撮像画像F
tを、任意の入射角θ
Lの左側の部分画像、任意の入射角θ
Rの右側の部分画像、及び入射角θ
Lの右側から入射角θ
Rの左側までの部分画像に分割し、入射角θ
Lの左側の部分画像を左端部分画像FL
tとして抽出し、入射角θ
Rの右側の部分画像を右端部分画像FR
tとして抽出する。なお、
図2では、入射角θ
Lの右側から入射角θ
Rの左側の部分画像は中央部分画像FC
tと図示する。
【0030】
第1接近物検出部11の歪み補正部103は、広角カメラ1の内部パラメータ(例えば、焦点距離f、撮像素子サイズ、及び像高関数等)と広角カメラ1の外部パラメータ(例えば、広角カメラ1の設置位置、及び設置角度)とを用いて、左端部分画像FL
tを左端部分透視投影画像UL
tに変換し、歪みを補正する。同様に、第2接近物検出部12の歪み補正部103は、右端部分画像FR
tを右端部分透視投影画像UR
tに変換し、歪みを補正する。なお、像高関数とは、入射角に対する撮像位置を規定する関数である。
【0031】
図3は、本発明の実施例1の接近物検出システム10で実行される処理のフローチャートである。
【0032】
まず、接近物検出システム10は、広角カメラ1によって撮像された撮像画像F
tを取得する(S3001)。抽出部101は、S3001の処理で取得した撮像画像F
tから左端部分画像FL
t及び右端部分画像FR
tを抽出し(S3002)、抽出した左端部分画像FL
tを第1接近物検出部11に入力し、抽出した右端部分画像FR
tを第2接近物検出部12に入力する。
【0033】
また、車両姿勢推定部102は、広角カメラ1を設置した車両の姿勢の設計値からの変化を推定し、推定した車両の姿勢の変化に基づいて現時刻の広角カメラ1の姿勢を示すカメラ姿勢パラメータCp
tを算出する(S3003)。なお、例えば、車両姿勢推定部102が算出するカメラ姿勢パラメータCp
tが示す広角カメラ1の姿勢は広角カメラ1の俯角であるものとする。カメラ姿勢パラメータCp
tの算出方法は、例えば、車線逸脱警報及び前方衝突警報等に用いられるカメラ俯角推定方法を利用できる。カメラ俯角推定方法では、例えば、車両姿勢推定部102は、広角カメラ1によって撮像された撮像画像F
tから車線を検出し、検出した車線の傾きから広角カメラ1の俯角を算出し、カメラ姿勢パラメータCp
tを算出する。
【0034】
第1接近物検出部11は、入力された左端部分画像FL
tに基づいて広角カメラ1の左側から接近する物体を検出し、第2接近物検出部12は、入力された右端部分画像FR
tに基づいて広角カメラ1の右側から接近する物体を検出する。第1接近物検出部11及び第2接近物検出部12の処理は同じであるため、第1接近物検出部11の処理を例に説明する。
【0035】
まず、第1接近物検出部11の歪み補正部103は、入力された左端部分画像FL
tの歪み補正し、左端部分透視投影画像UL
tに変換し、左端部分透視投影画像UL
tを物体検出部104及び物体追跡部105に入力する(S3004)。
【0036】
物体検出部104は、左端部分透視投影画像UL
tが入力されると、パターンマッチングを用いて、入力された左端部分透視投影画像UL
tから物体を検出し(S3005)、検出結果を統合判定部106に入力する。物体検出部104の処理は
図4並びに
図5A及び
図5Bで詳細に説明する。物体検出部104による検出結果は、検出された物体の種別(車両、歩行者、及びバイク等)、及び検出された物体の位置の座標等を含む。
【0037】
物体追跡部105は、左端部分透視投影画像UL
tが入力されると、前時刻の物体情報(OL
t−1)と入力された左端部分透視投影画像UL
tとを比較して、物体を追跡し(S3006)、追跡結果を統合判定部106に入力する。例えば、物体追跡部105は、前時刻の物体情報(OL
t−1)の各物体の画像を左端部分透視投影画像ULt上で検出することによって、物体を追跡する。なお、物体追跡部105による追跡結果は、追跡された物体の種別及び追跡された物体の現在の位置の座標等を含む。
【0038】
なお、物体追跡部105が前時刻の物体情報(OL
t−1)と左端部分透視投影画像UL
tとの比較に用いる評価尺度としては、例えば、SAD(Sum of Absolute Difference)、正規化相互相関、エッジベースの評価尺度、及び尤度情報等の少なくとも一つを用いることができる。
【0039】
統合判定部106は、物体検出部104による検出結果及び物体追跡部105による追跡結果が入力されると、入力された検出結果及び追跡結果に基づいて、検出結果と追跡結果との間の整合性を判定する(S3007)。例えば、物体検出部104が新たに検出した物体が物体追跡部105で追跡されている場合、物体が新たに検出されたにもかかわらず、当該物体を前回の物体情報OL
t−1から追跡できているので、統合判定部106は検出結果と追跡結果との間の整合性がないと判定される。なお、前回の物体情報OL
t−1は、接近物識別部107で接近物であると識別された物体に関する情報であり、例えば、当該物体の位置の座標等を含む。物体が物体追跡部105で追跡されている場合とは、物体追跡部105が、前時刻の物体情報(OL
t−1)の各物体の画像を左端部分透視投影画像ULt上で検出している場合をいう。
【0040】
統合判定部106は、検出結果と追跡結果との間の整合性がないと判定した場合、前回の物体情報OL
t−1に含まれる物体の位置から当該物体の現在の位置を予測し、物体検出部104による検出結果及び物体追跡部105による追跡結果のうち予測した位置に近い方に物体が位置する結果を接近物識別部107に出力する。なお、統合判定部106は、物体検出部104による検出結果及び物体追跡部105による追跡結果のうち予測した位置に遠い方に物体が位置する結果を誤検出と判断し、当該結果を破棄する。これによって、物体検出部104又は物体追跡部105が物体を誤検出している場合であっても、当該誤検出を修正できる。
【0041】
次に、接近物識別部107は、物体検出部104及び物体追跡部105によって検出された物体の特徴ベクトル(特徴量)を算出する(S3008)。接近物識別部107は、例えば特徴ベクトルとして、物体の画像上の横幅及び縦幅、物体の接地点座標、物体のエッジ強度、テクスチャ周波数、矩形の拡大率、及び物体の実際の画素数(物体画素数)等の少なくとも一つを算出する。
【0042】
接近物識別部107は、S3008の処理で算出された特徴ベクトルの時系列の変化に基づいて、物体検出部104及び物体追跡部105によって検出された物体が接近物か否か(換言すれば、物体検出部104及び物体追跡部105によって検出された物体が誤検出でないか否か)を判定する(S3009)。S3009の処理は、
図6A及び
図6Bで詳細を説明する。
【0043】
なお、第2接近物検出部12は、S3004〜S3009の処理を右端部分画像FR
tに実行する。
【0044】
第1接近物検出部11が実行するS3009の処理、第2接近物検出部12が実行するS3009の処理の少なくとも一方で、物体検出部104及び物体追跡部105によって検出された物体が接近物であると判定された場合、警報部2が接近物に関する情報(例えば、接近物の位置及び速度等)を出力し(S3010)、処理を終了する。
【0045】
このように、本実施例の接近物検出システム10は、広角カメラ1によって撮像された撮像画像の左端の部分画像及び右端の部分画像からパターンマッチングを用いて接近物を検出するため、接近物の画像が小さくても接近物を検出でき、できるだけ早く接近物を検出することが可能となる。
【0046】
また、物体検出部104及び物体追跡部105は通常、1〜2フレームの撮像画像から物体をパターンマッチングを用いて検出するため、接近物を誤検出する可能性が高い。このため、接近物識別部107は、物体検出部104及び物体追跡部105が検出した物体の特徴ベクトルを算出し、算出した特徴ベクトルの時系列変化に基づいて接近物を識別することによって、接近物を検出するため、接近物の誤検出を低減し、実用性の高い性能を達成できる。
【0047】
次に、物体検出部104について
図4並びに
図5A及び
図5Bを用いて説明する。
【0048】
図4は、本発明の実施例1の物体検出部104の説明図である。
【0049】
物体検出部104は、第1物体識別器401、第2物体識別器402、切替部403、及び識別器走査部404を有する。第1物体識別器401及び第2物体識別器402を総称する場合には物体識別器と記載する。
【0050】
第1物体識別器401及び第2物体識別器402は、例えば、車両、歩行者、自転車、及びバイク等の特定の物体を検出するための識別器であり、第1物体識別器401は昼間の物体を検出するための識別器であり、第2物体識別器402は夜間の物体を検出するための識別器である。第1物体識別器401及び第2物体識別器402は物体概観に関する輝度パターンで構成され、特に第2物体識別器402は車両ヘッドライトのような高輝度パターンも含む。
【0051】
切替部403は、昼夜判定情報を用いて昼間か夜間かを判定し、昼間であると判定した場合には第1物体識別器401を物体の検出に用い、夜間であると判定した場合には第2物体識別器402を物体の検出に用いる。なお、昼夜判定情報は、例えば、広角カメラ1のゲイン、及び現在の時刻等である。例えば、昼夜判定情報が広角カメラ1のゲインである場合には、切替部403は広角カメラ1のゲインが所定値以上であれば夜間であると判定し、広角カメラ1のゲインが所定値より小さければ昼間であると判定する。また、昼夜判定情報が現在の時刻である場合、切替部403は、現在の時刻が所定時刻より前であれば昼間であると判定し、現在の時刻が所定時刻より後であれば夜間であると判定する。
【0052】
識別器走査部404は、第1物体識別器401又は第2物体識別器402を用いて、物体検出部104に入力された部分画像を走査し、当該部分画像から物体を検出する。
【0053】
図5Aは、本発明の実施例1の物体識別器の説明図である。
【0054】
識別器走査部404は、走査先の部分画像501を走査し、物体識別器を用いて特定の物体を検出する。以下、部分画像501から車両が検出される場合を例に説明する。
【0055】
第1物体識別器401は、弱識別器503、重み係数504、総和部505、及び符号関数506を有する。弱識別器503は、走査先の部分画像501のT個の特徴ベクトル502を式1に示す関数(h
t(x))に入力する。式1に示すf
t(x)はt番目の特徴ベクトルを示し、θは閾値であり、t番目の特徴ベクトル(f
t(x))が閾値より大きければh
t(x)は「1」を返し、t番目の特徴ベクトルf
t(x)が閾値以下であればh
t(x)は「−1」を返す。重み係数504は弱識別器503の出力に重み付けする。総和部505は、重み係数504によって重み付けされた弱識別器503の出力の総和を算出する。符号関数506は、総和部505の出力を入力とし、識別情報を出力する。
【数1】
【0056】
第1物体識別器401は式2のように表すことができる。式2では、H(x)は第1物体識別器401を示し、xは特徴ベクトル502を示し、h
t(x)は弱識別器503を示し、α
tは弱識別器503の重み係数504を示す。第1物体識別器401は各弱識別器503の重み付き投票によって実装される。式2のsign()は符号関数506を示し、符号関数506は、式2の右辺の括弧内の値が正の値であれば「+1」を返し、式2の右辺の括弧内の値が負の値であれば「−1」を返す。
【数2】
【0057】
なお、特徴ベクトル502は、例えば、Haar−like特徴(領域間の輝度平均の差分)、HoG(Histograms of Oriented Gradients)特徴であるものとするが、この他の特徴であってもよいし、異なる特徴量を組み合わせた共起特徴量であってもよい。特徴ベクトルの選択及び重み係数の学習には、AdaBoost又はロジスティック線形回帰等の手法を用いることができる。
【0058】
図5Bは、本発明の実施例1の物体識別器の変形例の説明図である。
【0059】
図5Bに示す物体識別器(多クラス識別器)には複数の物体が設定され、複数の物体の中から部分画像501に適合する物体を検出する。
図5Bに示す物体識別器は、入力ユニット(入力層)507、第1重み係数508、隠れユニット(隠れ層)509、第2重み係数510、及び出力ユニット(出力層)511を有する。
【0060】
入力ユニット507にはT個の特徴ベクトル502が入力される。第1重み係数508は、入力ユニット507からの出力に重み付けする。
【0061】
隠れユニット509は、入力ユニット507からの出力と第1重み係数508との線形結合を非線形変換する。本実施例では、隠れユニット509の非線形変換用の関数には式3に示すシグモイド関数を用いる。式3では、g
w(x)は隠れユニット509の出力を示し、xは入力ユニット507の出力を示し、wは第1重み係数508を示す。
【数3】
【0062】
第2重み係数510は隠れユニット509からの出力に重み付けをする。出力ユニット511は、各クラス(例えば、車両、歩行者、及びバイク等)の識別確率を算出する。
図5Bでは、出力ユニット511を三つ示すが、これに限定されない。出力ユニット511の数は、物体識別器が検出可能な物体の数と同じである。出力ユニット511の数を増加させることによって、車両、歩行者、及びバイクの他に、例えば、二輪車、標識、及びベビーカー等、物体識別器が検出可能な物体が増加する。
【0063】
図5Bに示す物体識別器は、三層ニューラルネットワークの例であり、物体識別器は、第1重み係数508及び第2重み係数510を誤差逆伝播法を用いて学習する。また、
図5Bに示す物体識別器は、ニューラルネットワークに限定されるものではなく、多層パーセプトロン及び隠れ層を複数層重ねたディープニューラルネットワークであってもよい。この場合、物体識別器は、第1重み係数508及び第2重み係数510をディープラーニング(深層学習)によって学習すればよい。
【0064】
次に、接近物識別部107について
図6A及び
図6Bを用いて説明する。
【0065】
図6Aは、本発明の実施例1の接近物識別部107の説明図である。
【0066】
接近物識別部107は、接近物識別器600及び接近物識別処理部601を有する。接近物識別器600は、物体検出部104及び物体追跡部105によって検出された物体の特徴量の時間経過による変化量に基づいて接近物を識別するための識別器である。接近物識別器600は、例えば、隠れマルコフモデル(HMM:Hidden Markov Model)であり、
図6Bで詳細を説明する。接近物識別処理部601は、接近物識別器600を用いて物体検出部104及び物体追跡部105によって検出された物体から接近物を識別することによって、接近物を検出する。
【0067】
図6Bは、本発明の実施例1の接近物識別器600の説明図である。
【0068】
接近物識別器600は、接近物を示す状態602(S
TR)及び非接近物を示す状態603(S
FL)を有する。
図6Bに示す604〜609は、
図3に示すS3008の処理で
算出された特徴ベクトル(V={v
1, v
2, v
3,…,v
n})の時間経過による変化量(観測値)を示す。例えば、観測値は10フレーム分の特徴ベクトルの変化量であるとする。また、
図3に示すS3008の処理で説明したように、特徴ベクトルとしては、物体の画像上の横幅及び縦幅、物体の接地点座標、動きベクトル、物体のエッジ強度、テクスチャ周波数、矩形の拡大率、及び物体画素数等の少なくとも一つが算出される。
【0069】
本実施例の接近物識別器600は、接近物を検出するためのパラメータとして状態遷移確率行列Aと観測確率行列Bを有する。
【0070】
まず、状態遷移確率行列Aについて説明する。状態遷移確率行列Aは、状態間の遷移確率(状態602から状態603への遷移確率、状態603から状態602への遷移確率)を規定した行列であり、式4で表すことができる。式4のq
tは時刻tにおける状態を示し、q
t+1は時刻t+1における状態を示し、a
ijは、時刻tから時刻t+1にかけて状態がS
iからS
jに遷移する確率(状態遷移確率)である。
【数4】
【0071】
次に、観測確率行列Bについて説明する。観測確率行列Bは、各状態(状態602及び状態603)からある観測値v
kが得られる確率を規定した行列であり、式5で表すことができる。式5のb
j(k)は状態S
jから観測値v
kが得られる確率である。例えば、接近物を示す状態602(S
TR)からは、車間距離が徐々に短くなる、すなわち動きベクトルが徐々に大きくなるような特徴ベクトルの時間経過による変化が得られやすく、非接近物を示す状態603(S
FL)からは、このような特徴ベクトルの時間経過による変化が得られにくい。観測確率行列Bは、このような知識を確率で表現したものである。
【数5】
【0072】
接近物識別器600は、状態遷移確率A及び観測確率行列Bを、Baum−Welchアルゴリズムを用いて事前に学習できる。
【0073】
接近物識別器600は、接近物識別部107によって判断された物体の前回の状態及び状態遷移確率Aに基づいて状態遷移確率を算出し、各特徴ベクトルの時間経過による変化及び観測確率行列Bに基づいて観測確率を算出する。そして、接近物識別器600は、これら状態遷移確率及び観測確率に基づいて物体が状態602である確率及び状態603である確率を算出し、算出した確率を接近物識別処理部601に入力する。接近物識別処理部601は、入力された二つの確率を比較し、確率が大きい方の状態を物体の状態とする。
【0074】
次に、特徴ベクトルとして算出された物体画素数の観測確率の算出方法の例について
図7を用いて説明する。
図7は、本発明の実施例1の物体画素数の観測確率の算出処理のフローチャートである。当該算出処理は、接近物識別処理部601によって実行される。
【0075】
まず、接近物識別処理部601は、入力された現時刻のカメラ姿勢パラメータCp
t及び物体の接地点座標に基づいて、広角カメラ1から物体までの相対距離を算出する(S7001)。
【0076】
具体的には、接近物識別処理部601は、歪み補正部103によって歪みが補正された画像から地表面を特定する。そして、接近物識別処理部601は、カメラ姿勢パラメータCp
tに基づいて、特定した地表面の各位置の広角カメラ1からの距離を算出していき、物体の接地点の広角カメラ1からの距離を算出する。すなわち、接近物識別処理部601は、カメラ姿勢パラメータCp
tを用いて、画像上の座標(X座標及びY座標)を世界座標(WX座標、WY座標、及びWZ座標)に変換し、物体の接地点の広角カメラ1からの距離を算出する。
【0077】
次に、接近物識別処理部601は、物体検出部104及び物体追跡部105によって検出された物体の種別及びS7001の処理で算出された相対距離に対応する推定画素数を取得する(S7002)。推定画素数は、物体の種別と相対距離とに関連付けられて予め設定されているものとする。例えば、相対距離20mの車両の推定画素数は水平20画素である。
【0078】
次に、接近物識別処理部601は、取得した推定画素数と物体の実際の画素数(物体画素数)との差分を算出する(S7003)。そして、接近物識別処理部601は、S7003の処理で算出された差分に基づいて、物体画素数の観測確率b
j(k)を算出し(S7004)、処理を終了する。
【0079】
具体的には、S7003の処理で算出された差分が大きい程、物体検出部104及び物体追跡部105が物体を誤検出している可能性が高いため、接近物識別処理部601は、物体画素数の接近物を示す状態602の観測確率b
j(k)を小さく算出し、物体画素数の非接近物を示す状態603の観測確率b
j(k)を大きく算出する。一方、S7003の処理で算出された差分が小さい程、物体検出部104及び物体追跡部105が物体を誤検出している可能性が低いため、接近物識別処理部601は、物体画素数の接近物を示す状態602の観測確率b
j(k)を大きく算出し、物体画素数の非接近物を示す状態603の観測確率b
j(k)を小さく算出する。
【0080】
このように、カメラ姿勢パラメータCp
t及び接地点座標に基づいて、物体の広角カメラ1からの相対距離を算出し、算出した相対距離に対応する推定画素数と物体画素数との差分を考慮して、物体画素数の観測確率b
j(k)を算出する。これによって、接近物識別部107は、推定画素数と物体画素数との差分を考慮して接近物を識別することができ、物体検出部104及び物体追跡部105で誤検出された物体を接近物として識別することを防止できる。
【0081】
他の特徴ベクトルの状態観測確率b
j(k)の算出方法も簡単に説明する。接近物識別部107は、特徴ベクトルの時間経過による変化が接近物特有の変化である場合には、各特徴ベクトルの接近物を示す状態602の状態観測確率b
j(k)を大きく算出する。特徴ベクトルの時間経過による変化が接近物特有の変化である場合とは、例えば、動きベクトルが徐々に大きくなっている場合、エッジ強度が徐々に高くなっている場合、テクスチャ周波数が時間経過で高周波帯域にシフトしている場合、矩形の拡大率が時間経過で正になっている場合、相対距離が徐々に小さくなっている場合等である。
【0082】
このように、接近物識別部107は、各特徴ベクトルの時間経過による変化に基づき観測確率b
j(k)を算出する。そして、接近物識別部107は、隠れマルコフモデルにおける状態認識アルゴリズム(例えば、Viterbiアルゴリズム等)を用いて、状態遷移確率a
ij及び観測確率b
j(k)に基づいて、現在の物体の状態が接近物を示す状態602(S
TR)か非接近物を示す状態603(S
FL)かを識別する。なお、接近物識別部107は、物体の状態が状態602と識別されれば、物体が接近物であると識別し、物体の状態が状態603と識別されれば、非接近物であると識別する。
【0083】
本実施例では、広角カメラ1による撮像画像の左端の部分画像及び右端の部分画像から接近物をパターンマッチングを用いて検出することによって、接近物をできるだけ早く検出する。また、パターンマッチングを用いて接近物を検出することによって、オプティカルフローを用いて接近物を検出する場合よりも接近物検出システム10の処理負荷を低減できる。しかし、パターンマッチングを用いた接近物の検出では、接近物を誤検出してしまう可能性が高い。
【0084】
ここで、誤検出と正検出との間には、誤検出を低減させようとすると正検出も低減させてしまい、正検出を増加させるようとすると誤検出も増加させてしまうといったような、トレードオフの関係がある。ある単一の時点における撮像画像に基づくパターンマッチングを用いて物体を検出する限り、このようなトレードオフの大きな改善は見込めない。
【0085】
そこで、本実施例では、接近物検出システム10が接近物識別部107を有することによって、特徴ベクトルの時間経過による変化に基づいて接近物を識別する。これによって、物体検出部104及び物体追跡部105がパターンマッチングを用いて物体を検出し、接近物識別部107がパターンマッチングによる誤検出を排除することによって、広角カメラ1による撮像画像の微小な物体であっても、高い検出率を維持しながら誤検出率を低減させることできる。すなわち、遠方から高速に接近する車両等の接近物もできるだけ早く検出でき、接近物検出システム10は、例えば、当該接近物と車両とが衝突する2秒前までに警報を出力することが可能となる。
【0086】
本実施例では、広角カメラ1による撮像画像の左右端の部分画像から左右の接近物を検出するため、広角カメラ1ではない通常のカメラ(狭角カメラ)を2台設置し、これらのカメラによる撮像画像から接近物を検出する場合と比較して、コストを低減することができる。
【0087】
また、本実施例では、中央の部分画像から接近物を検出しないため処理負荷を軽減できる。なお、第1接近物検出部11及び第2接近物検出部12と同様の第3接近物検出部を用意して、第3接近物検出部が中央部分画像から接近物を検出してもよい。
【0088】
また、物体検出部104が有する物体識別器が
図5Bに示す多クラス識別器であれば、例えば、車両、歩行者、及びバイク等のような複数の物体を検出できる。また、物体検出部104が昼用の第1物体識別器401及び夜用の第2物体識別器402を有するので、広角カメラ1の撮像時の環境によらず、正確に物体を検出できる。
【0089】
また、車両姿勢推定部102がカメラ姿勢パラメータCp
tを逐次算出するため、物体の広角カメラ1からの正確な相対距離を算出でき、物体画素数の観測確率b
j(k)を正確に算出できる。これによって、接近物を正確に検出できる。
【実施例2】
【0090】
以下、本発明の実施例2について
図8及び
図9A〜
図9Dを用いて説明する。
【0091】
実施例2では、実施例1の接近物検出システム10を搭載した車両100について説明する。本実施例においては、実施例1の接近物検出システム10をソフトウェアで実現しているが、実施例1の記載のように、ハードウェア構成で実現してももちろんかまわない。
【0092】
図8は、本発明の実施例2の車両100のブロック図である。
図8では、実施例1と同じ構成は同じ符号を付与し、説明を省略する。
【0093】
車両100は、広角カメラ1、スピーカ801、ディスプレイ802、車速度センサ807、操舵角センサ808、及び接近物検出システム10を備える。
【0094】
広角カメラ1は、車両100に設置され、車両100の周囲を撮影する。スピーカ801は、車両100の室内に設置され、接近物検出システム10が接近物を検出した場合に警報音を出力し、運転者に接近物を警告する。ディスプレイ802は、車両100の室内に設置され、接近物検出システム10が接近物を検出した場合に警報画面を出力し、運転者に接近物を警告する。車速度センサ807は自車両100の車速度を計測する。操舵角センサ808は、自車両100の操舵角を計測する。車速度センサ807によって計測された車速度を示す車速度情報及び操舵角センサ808によって計測された操舵角を示す操舵角情報によって、接近物検出システム10は自身の動作状態を切り替える。例えば、車速度が一定以下の場合は、接近物検出システム10は、衝突の危険性が小さいとみなして自身の動作を停止する。
【0095】
接近物検出システム10は、入出力インタフェース(I/F)803、メモリ804、及びCPU805を有する。
【0096】
入出力I/F803は、広角カメラ1、スピーカ801、ディスプレイ802、車速度センサ807、及び操舵角センサ808と接近物検出システム10との間でデータを入出力するインタフェースである。メモリ804には、CPU805が実行するプログラム、及びCPU805が読み書きするデータが格納される。CPU805は、演算処理を実行する処理部であり、接近物検出部806及び警報部2の機能を有する。
【0097】
接近物検出部806は、実施例1の接近物検出システム10が有する各構成部(抽出部101、車両姿勢推定部102、第1接近物検出部11、及び第2接近物検出部12)であり、CPU80
5が接近物検出部806に対応するプログラムを実行することによって実装される。警報部2は、接近物検出部806が接近物を検出した場合に、スピーカ801から警報音を出力するため、及びディスプレイ802に警報画面を出力するための警報出力指令をスピーカ801及びディスプレイ802に入出力I/F803を介して入力する。なお、警報部2は、スピーカ801及びディスプレイ802の両方に警報出力指令を入出力する必要はなく、スピーカ801及びディスプレイ802の少なくとも一つに警報出力指令を入力してもよい。
【0098】
図9Aは、本発明の実施例2の車両100の前方に広角カメラ1が設置された場合に接近物検出システム10が検出する接近物の例の説明図である。
【0099】
車両100の前方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の前方の左側方の接近物(
図9Aでは二輪車902)、及び車両100の前方の右側方の接近物(
図9Aでは車両901)を検出できる。
【0100】
このため、接近物検出システム10は、車両100の前方の左右側方の接近物を検出できるので、車両100を前進開始時(例えば、交差点及び駐車場で停車していた車両100を前進させる場合)等の運転者の運転を支援できる。
【0101】
なお、接近物検出システム10は、接近物を検出した場合に接近物の危険度を算出し、算出した危険度に応じて出力する警告の種別を変更できる。接近物の危険度は、例えば、広角カメラ1と接近物との距離等に基づいて算出される。例えば、広角カメラ1と接近物との距離が短ければ短いほど危険度が高くなるように算出される。
【0102】
なお、例えば、接近物検出システム10は、危険度が所定値以上である場合のみに警告を出力し、危険度が所定値より小さい場合には警告を出力しないように、危険度に応じて出力する警告の種別を変更してもよい。
【0103】
図9Bは、本発明の実施例2の車両100の後方に広角カメラ1が設置された場合に接近物検出システム10が検出する接近物の例の説明図である。
【0104】
車両100の後方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の後方の左側方の接近物(
図9Bでは車両901)、及び車両100の後方の右側方の接近物(
図9Bでは歩行者903)を検出できる。
【0105】
このため、接近物検出システム10は、車両100の後方の左右側方の接近物を検出できるので、車両100をバックさせる場合等の運転者の運転を支援できる。
【0106】
図9Cは、本発明の実施例2の車両100の左側方に広角カメラ1を設置した場合に接近物検出システム10が検出する接近物の例の説明図である。
【0107】
車両100の左側方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の左側方の前方の接近物、及び車両100の左側方の後方の接近物(
図9Cでは車両901)を検出できる。
【0108】
このため、接近物検出システム10は、車両100の左側方の前方及び後方の接近物を検出できるので、例えば、車両100を左側に車線変更する場合等に運転者の運転を支援できる。また、接近物検出システム10は、車速度センサ807及び操舵角センサ808によって計測された情報を利用することで正確な移動量を算出できるため、接近物の速度及び車両100の左側への移動量を考慮して、より好適に衝突の危険性を判定することができる。
【0109】
図9Dは、本発明の実施例2の車両100の右側方に広角カメラ1を設置した場合に接近物検出システム10が検出する接近物の例の説明図である。
【0110】
車両100の右側方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の右側方の前方の接近物、及び車両100の右側方の後方の接近物(
図9Dでは二輪車902)を検出できる。
【0111】
このため、接近物検出システム10は、車両100の右側方の前方及び後方の接近物を検出できるので、例えば、車両100を右側に車線変更する場合等に運転者の運転を支援できる。また、接近物検出システム100は、車速度センサ807及び操舵角センサ808によって計測された情報を利用することで正確な移動量を算出できるため、接近物の速度及び車両100の右側への移動量を考慮して、より好適に衝突の危険性を判定することができる。
【0112】
なお、
図9C及び
図9Dに示す後方からの接近物は、広角カメラ1が後方に設置された場合の接近物検出システム10でも検出可能である。
【0113】
以上のように、車両100に搭載された接近物検出システム10は、車両100に設置された広角カメラ1による撮像画像から接近物を検出でき、スピーカ801及びディスプレイ802等から警報を出力する衝突警告システムを実現でき、運転者の運転を支援できる。
【0114】
また、広角カメラ1が車両100の前方又は後方に設置されることによって、接近物検出システム10は、車両100の側方からの接近物を検出した場合に警報を出力する側方接近物検出システムを実現できる。また、広角カメラ1が車両100の後方、左側方、又は右側方に設置されることによって、車両100の後方からの接近物を検出した場合に警報を出力する後方接近物警報システムを実現できる。