特許第6266238号(P6266238)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ クラリオン株式会社の特許一覧

<>
  • 特許6266238-接近物検出システム、及び車両 図000007
  • 特許6266238-接近物検出システム、及び車両 図000008
  • 特許6266238-接近物検出システム、及び車両 図000009
  • 特許6266238-接近物検出システム、及び車両 図000010
  • 特許6266238-接近物検出システム、及び車両 図000011
  • 特許6266238-接近物検出システム、及び車両 図000012
  • 特許6266238-接近物検出システム、及び車両 図000013
  • 特許6266238-接近物検出システム、及び車両 図000014
  • 特許6266238-接近物検出システム、及び車両 図000015
  • 特許6266238-接近物検出システム、及び車両 図000016
  • 特許6266238-接近物検出システム、及び車両 図000017
  • 特許6266238-接近物検出システム、及び車両 図000018
  • 特許6266238-接近物検出システム、及び車両 図000019
  • 特許6266238-接近物検出システム、及び車両 図000020
  • 特許6266238-接近物検出システム、及び車両 図000021
  • 特許6266238-接近物検出システム、及び車両 図000022
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6266238
(24)【登録日】2018年1月5日
(45)【発行日】2018年1月24日
(54)【発明の名称】接近物検出システム、及び車両
(51)【国際特許分類】
   G08G 1/16 20060101AFI20180115BHJP
   B60R 1/00 20060101ALI20180115BHJP
   G06T 7/00 20170101ALI20180115BHJP
   H04N 7/18 20060101ALN20180115BHJP
【FI】
   G08G1/16 C
   B60R1/00 A
   G06T7/00 C
   !H04N7/18 J
【請求項の数】5
【全頁数】21
(21)【出願番号】特願2013-139436(P2013-139436)
(22)【出願日】2013年7月3日
(65)【公開番号】特開2015-14819(P2015-14819A)
(43)【公開日】2015年1月22日
【審査請求日】2016年5月13日
(73)【特許権者】
【識別番号】000001487
【氏名又は名称】クラリオン株式会社
(74)【代理人】
【識別番号】110001678
【氏名又は名称】特許業務法人藤央特許事務所
(72)【発明者】
【氏名】中村 克行
(72)【発明者】
【氏名】秋山 靖浩
(72)【発明者】
【氏名】入江 耕太
【審査官】 東 勝之
(56)【参考文献】
【文献】 特開2010−109483(JP,A)
【文献】 特開2009−237887(JP,A)
【文献】 特開平09−282452(JP,A)
【文献】 特開2010−157118(JP,A)
【文献】 特開2010−268520(JP,A)
【文献】 特開2011−118482(JP,A)
【文献】 特開2009−151524(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/00 − 1/16
B60R 1/00
G06T 7/00
H04N 7/18
(57)【特許請求の範囲】
【請求項1】
撮像装置によって撮像された撮像画像に基づいて接近物を検出する接近物検出システムであって、
前記撮像画像から一端側の部分画像と他端側の部分画像とを抽出する抽出部と、
前記抽出部によって抽出された部分画像の歪みを補正する歪み補正部と、
設定された物体の画像情報を参照し、前記歪み補正部によって歪みが補正された部分画像からパターンマッチングを用いて物体を検出する物体検出部と、
前記物体検出部の検出結果に基づいて接近物を識別する接近物識別部と、を有し、
前記接近物識別部は、
前記物体検出部によって検出された物体の特徴量を算出し、
前記算出された物体の特徴量の時間経過による変化量に基づいて、前記物体が接近物か否かを識別し、
前記接近物検出システムは、前記撮像装置の姿勢を推定する姿勢推定部を有し、
前記接近物識別部は、
前記歪み補正部によって歪みが補正された部分画像から前記物体検出部によって検出された物体の接地点を特定し、
前記姿勢推定部によって推定された前記撮像装置の姿勢、及び前記特定された物体の接地点に基づいて、前記撮像装置から前記物体までの相対距離を算出し、
前記算出した相対距離、及び前記物体検出部によって検出された物体の種別に基づいて、前記物体の画素数を推定し、
前記推定された画素数と前記物体の実際の画素数との差を考慮して、前記物体が接近物か否かを判定することを特徴とする接近物検出システム。
【請求項2】
請求項1に記載の接近物検出システムであって、
前記接近物識別部は、前記物体の特徴量として、前記物体の前記部分画像上での横幅、前記物体の前記部分画像上での縦幅、前記物体の接地点の座標、前記物体の動きベクトル、エッジ強度、テクスチャ周波数、矩形の拡大率、及び前記物体の前記部分画像上での実際の画素数の少なくとも一つを算出することを特徴とする接近物検出システム。
【請求項3】
撮像装置によって撮像された撮像画像に基づいて接近物を検出する接近物検出システムであって、
前記撮像画像から一端側の部分画像と他端側の部分画像とを抽出する抽出部と、
前記抽出部によって抽出された部分画像の歪みを補正する歪み補正部と、
設定された物体の画像情報を参照し、前記歪み補正部によって歪みが補正された部分画像からパターンマッチングを用いて物体を検出する物体検出部と、
前記物体検出部の検出結果に基づいて接近物を識別する接近物識別部と、
前回接近物として識別された物体と前記歪み補正部によって歪みが補正された部分画像とを比較して物体を追跡する物体追跡部と、
前記物体検出部による検出結果と前記物体追跡部による追跡結果とに基づいて、前記検出結果と前記追跡結果との間の整合性を判定する統合判定部と、を有し、
前記統合判定部は、
前記物体検出部で物体を新たに検出し、かつ、前記物体検出部で新たに検出された物体が前回接近物として識別された物体であり、前記物体追跡部で当該物体が追跡されている場合、前記検出結果と前記追跡結果との間の整合性がないと判定し、
前記検出結果と前記追跡結果との間の整合性がないと判定された場合、前記前回接近物として識別された物体の位置から現在の位置を予測し、
前記物体検出部による検出結果、及び前記物体追跡部による追跡結果のうち、前記予測した現在の位置に近い方に物体が位置する結果を前記接近物識別部に出力することを特徴とする接近物検出システム。
【請求項4】
請求項1に記載の接近物検出システムであって、
前記物体検出部が参照する物体の画像情報は、昼用の画像情報と夜用の画像情報とを含み、
前記物体検出部は、
前記撮像装置のゲイン情報に基づいて昼か夜かを判定し、
前記判定結果が昼である場合には、前記昼用の画像情報を参照し、前記物体を検出し、
前記判定結果が夜である場合には、前記夜用の画像情報を参照し、前記物体を検出することを特徴とする接近物検出システム。
【請求項5】
請求項1に記載の接近物検出システムであって、
前記物体検出部は、
前記歪み補正部によって歪みが補正された部分画像の複数の特徴量が入力される複数の入力層と、
前記複数の入力層からの出力と重み付け係数とを線形統合した結果を非線形変換する複数の隠れ層と、
前記隠れ層による変換結果に基づいて、各物体の識別確率を算出する複数の出力層と、を有し、
前記出力層の数は、前記物体検出部が検出する物体の数であることを特徴とする接近物検出システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、撮像装置によって撮像された撮像画像に基づいて接近物を検出する接近物検出システムに関する。
【背景技術】
【0002】
交通事故による死傷者数を低減するため、事故を未然に防ぐ予防安全システムの開発が進められている。予防安全システムは、事故が発生する可能性が高い状況下で作動するシステムであり、例えば、自車両の後方に取り付けられたビューカメラによって移動体(車両、歩行者、及び二輪車等)を検出し、移動体と衝突する可能性が生じた場合に警報によって運転者に注意を促すシステムが実用化されている。
【0003】
このような技術分野の背景技術として、国際公開第2013/046409号(特許文献1)がある。
【0004】
特許文献1には、「後方広角カメラ11と、後方広角カメラ11が撮影した後方画像を表示するECU20及びディスプレイ30とを備えた運転支援表示装置1において、ECU20の表示制御部25及びディスプレイ30は、後方画像を左右の後側方画面204及び中央の後方画面202に分割して表示し、中央の後方画面202の画像について、画像と所定のパターンとの照合を行うことにより画像に写った物体を検出し、左右の後側方画面204の画像について、画像中の点が時間の経過とともに動く方向と速さとを解析することにより画像に写った物体を検出し、検出された物体の存在を示す移動物接近検出枠210又は歩行者検出枠212を表示する。このため、自車両100正面近傍で停止している人等をパターンマッチングの手法で検出し、自車両100側方の遠方から接近してくる車両等をオプティカルフローの手法により検出して、検出した車両又は人等の存在をドライバーに報知することができる。」と記載されている(要約参照)。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】国際公開第2013/046409号
【発明の概要】
【発明が解決しようとする課題】
【0006】
上記した予防安全システムでは、運転手がブレーキをかけるために、接近物をできるだけ早い段階で検出したいという要望がある。
【0007】
しかしながら、特許文献1では、側方接近物はオプティカルフローを用いて検出されるが、オプティカルフローでは画像上の見た目の動き量が小さい物体の検出が困難であるという課題がある。この装置を車両に搭載した場合、側方接近物が自車量にある程度近づかなければ、当該接近物検出できず、上記した要求を満足できない。
【0008】
本発明は、接近物をできるだけ早い段階で検出する接近物検出システムを提供することを目的とする。
【課題を解決するための手段】
【0009】
本発明の代表的な一例を示せば、撮像装置によって撮像された撮像画像に基づいて接近物を検出する接近物検出システムであって、前記撮像画像から一端側の部分画像と他端側の部分画像とを抽出する抽出部と、前記抽出部によって抽出された部分画像の歪みを補正する歪み補正部と、設定された物体の画像情報を参照し、前記歪み補正部によって歪みが補正された部分画像からパターンマッチングを用いて物体を検出する物体検出部と、前記物体検出部の検出結果に基づいて接近物を識別する接近物識別部と、を有することを特徴とする。
【発明の効果】
【0010】
本願において開示される発明のうち代表的なものによって得られる効果を簡潔に説明すれば、下記の通りである。すなわち、接近物をできるだけ早い段階で検出する接近物検出システムを提供できる。
【0011】
上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。
【図面の簡単な説明】
【0012】
図1】本発明の実施例1の接近物検出システムのブロック図である。
図2】本発明の実施例1の広角カメラによる撮像画像の説明図である。
図3】本発明の実施例1の接近物検出システムで実行される処理のフローチャートである。
図4】本発明の実施例1の物体検出部の説明図である。
図5A】本発明の実施例1の物体識別器の説明図である。
図5B】本発明の実施例1の物体識別器の変形例の説明図である。
図6A】本発明の実施例1の接近物識別部の説明図である。
図6B】本発明の実施例1の接近物識別器の説明図である。
図7】本発明の実施例1の物体画素数の観測確率の算出処理のフローチャートである。
図8】本発明の実施例2の車両のブロック図である。
図9A】本発明の実施例2の車両の前方に広角カメラが設置された場合に接近物検出システムが検出する接近物の例の説明図である。
図9B】本発明の実施例2の車両の後方に広角カメラが設置された場合に接近物検出システムが検出する接近物の例の説明図である。
図9C】本発明の実施例2の車両の左側方に広角カメラを設置した場合に接近物検出システムが検出する接近物の例の説明図である。
図9D】本発明の実施例2の車両の右側方に広角カメラを設置した場合に接近物検出システムが検出する接近物の例の説明図である。
図10】本発明の実施例3の車両に設置された複数の広角カメラの撮像範囲の説明図である。
図11】本発明の実施例3の車両に搭載される接近物検出システムの説明図である。
【発明を実施するための形態】
【0013】
以下、実施例を図面を用いて説明する。
【実施例1】
【0014】
図1は、本発明の実施例1の接近物検出システム10のブロック図である。
【0015】
広角カメラ1は、例えば、車両に搭載され、約180度程度の視野角を有する。接近物検出システム10は、広角カメラ1によって撮像された撮像画像に基づいて車両に接近する接近物を検出し、接近物を検出した場合、警報部2に接近物に関する情報を出力する。
【0016】
接近物検出システム10は、抽出部101、車両姿勢推定部102、第1接近物検出部11、及び第2接近物検出部12を有する。なお、第1接近物検出部11及び第2接近物検出部12を総称する場合には、接近物検出部と記載する。
【0017】
抽出部101は、広角カメラ1によって撮像された撮像画像Fから左端部分画像FL及び右端部分画像FRを抽出する。車両姿勢推定部102は、車両の姿勢に基づいて広角カメラ1の姿勢を示すカメラ姿勢パラメータCpを推定する。なお、左端部分画像FL及び右端部分画像FRを総称して部分画像と記載する。
【0018】
第1接近物検出部11は左端部分画像FLに基づいて接近物を検出し、第2接近物検出部12は右端部分画像FRに基づいて接近物を検出する。第1接近物検出部11及び第2接近物検出部12は、歪み補正部103、物体検出部104、物体追跡部105、統合判定部106、及び接近物識別部107を有する。
【0019】
以下、第1接近物検出部11を例に、各構成部の処理について説明する。
【0020】
歪み補正部103は、左端部分画像FLが入力されると、入力された左端部分画像FLを左端部分透視投影画像ULに変換することによって、左端部分画像FLの歪みを補正し、左端部分透視投影画像ULを物体検出部104及び物体追跡部105に入力する。
【0021】
物体検出部104は、左端部分透視投影画像ULが入力されると、入力された左端部分透視投影画像ULからパターンマッチングを用いて物体を検出する。物体検出部104の詳細は、図4並びに図5A及び図5Bで詳細を説明する。物体追跡部105は、左端部分透視投影画像ULが入力されると、入力された左端部分透視投影画像ULと前回の接近物識別部107による接近物に関する情報である物体情報OLt−1とを比較して、物体を追跡する。
【0022】
統合判定部106は、物体検出部104による物体の検出結果と物体追跡部105による物体の追跡結果とに基づいて、検出結果と追跡結果との間の整合性を判定する。具体的な整合性の判定方法については図3で詳細を説明する。
【0023】
接近物識別部107は、車両姿勢推定部102によるカメラ姿勢パラメータCp、及び、物体検出部104によって検出された物体の特徴量の時間経過による変化量に基づいて接近物か否かを識別する。
【0024】
なお、第1接近物検出部11の接近物識別部107及び第2接近物検出部12の接近物識別部107の少なくとも一方で接近物が検出された場合、警報部2から警報が出力される。
【0025】
接近物検出システム10の各部はハードウェアによって構成されてもよいし、ソフトウェアによって構成されていてもよく、ハードウェアとソフトウェアを組み合わせたモジュールであってもよい。
【0026】
図2は、本発明の実施例1の広角カメラ1による撮像画像Fの説明図である。
【0027】
広角カメラ1は上記したように約180度程度の視野角を有し、広角カメラ1が車両の前方又は後方に取り付けられると、車両の左側方から右側方にわたる範囲を撮影でき、広角カメラ1が車両の側方に取り付けられると、車両の前方から後方にわたる範囲を撮影できる。
【0028】
図2では、Oはレンズ中心であり、fはレンズから撮像素子までの距離である焦点距離であり、θは入射角である。
【0029】
入射角θでレンズに入射した光は、レンズに入射した位置から鉛直に屈折して撮像素子に到達する。撮像素子全面で撮像された画像を撮像画像Fとする。抽出部101は、撮像画像Fを、任意の入射角θの左側の部分画像、任意の入射角θの右側の部分画像、及び入射角θの右側から入射角θの左側までの部分画像に分割し、入射角θの左側の部分画像を左端部分画像FLとして抽出し、入射角θの右側の部分画像を右端部分画像FRとして抽出する。なお、図2では、入射角θの右側から入射角θの左側の部分画像は中央部分画像FCと図示する。
【0030】
第1接近物検出部11の歪み補正部103は、広角カメラ1の内部パラメータ(例えば、焦点距離f、撮像素子サイズ、及び像高関数等)と広角カメラ1の外部パラメータ(例えば、広角カメラ1の設置位置、及び設置角度)とを用いて、左端部分画像FLを左端部分透視投影画像ULに変換し、歪みを補正する。同様に、第2接近物検出部12の歪み補正部103は、右端部分画像FRを右端部分透視投影画像URに変換し、歪みを補正する。なお、像高関数とは、入射角に対する撮像位置を規定する関数である。
【0031】
図3は、本発明の実施例1の接近物検出システム10で実行される処理のフローチャートである。
【0032】
まず、接近物検出システム10は、広角カメラ1によって撮像された撮像画像Fを取得する(S3001)。抽出部101は、S3001の処理で取得した撮像画像Fから左端部分画像FL及び右端部分画像FRを抽出し(S3002)、抽出した左端部分画像FLを第1接近物検出部11に入力し、抽出した右端部分画像FRを第2接近物検出部12に入力する。
【0033】
また、車両姿勢推定部102は、広角カメラ1を設置した車両の姿勢の設計値からの変化を推定し、推定した車両の姿勢の変化に基づいて現時刻の広角カメラ1の姿勢を示すカメラ姿勢パラメータCpを算出する(S3003)。なお、例えば、車両姿勢推定部102が算出するカメラ姿勢パラメータCpが示す広角カメラ1の姿勢は広角カメラ1の俯角であるものとする。カメラ姿勢パラメータCpの算出方法は、例えば、車線逸脱警報及び前方衝突警報等に用いられるカメラ俯角推定方法を利用できる。カメラ俯角推定方法では、例えば、車両姿勢推定部102は、広角カメラ1によって撮像された撮像画像Fから車線を検出し、検出した車線の傾きから広角カメラ1の俯角を算出し、カメラ姿勢パラメータCpを算出する。
【0034】
第1接近物検出部11は、入力された左端部分画像FLに基づいて広角カメラ1の左側から接近する物体を検出し、第2接近物検出部12は、入力された右端部分画像FRに基づいて広角カメラ1の右側から接近する物体を検出する。第1接近物検出部11及び第2接近物検出部12の処理は同じであるため、第1接近物検出部11の処理を例に説明する。
【0035】
まず、第1接近物検出部11の歪み補正部103は、入力された左端部分画像FLの歪み補正し、左端部分透視投影画像ULに変換し、左端部分透視投影画像ULを物体検出部104及び物体追跡部105に入力する(S3004)。
【0036】
物体検出部104は、左端部分透視投影画像ULが入力されると、パターンマッチングを用いて、入力された左端部分透視投影画像ULから物体を検出し(S3005)、検出結果を統合判定部106に入力する。物体検出部104の処理は図4並びに図5A及び図5Bで詳細に説明する。物体検出部104による検出結果は、検出された物体の種別(車両、歩行者、及びバイク等)、及び検出された物体の位置の座標等を含む。
【0037】
物体追跡部105は、左端部分透視投影画像ULが入力されると、前時刻の物体情報(OLt−1)と入力された左端部分透視投影画像ULとを比較して、物体を追跡し(S3006)、追跡結果を統合判定部106に入力する。例えば、物体追跡部105は、前時刻の物体情報(OLt−1)の各物体の画像を左端部分透視投影画像ULt上で検出することによって、物体を追跡する。なお、物体追跡部105による追跡結果は、追跡された物体の種別及び追跡された物体の現在の位置の座標等を含む。
【0038】
なお、物体追跡部105が前時刻の物体情報(OLt−1)と左端部分透視投影画像ULとの比較に用いる評価尺度としては、例えば、SAD(Sum of Absolute Difference)、正規化相互相関、エッジベースの評価尺度、及び尤度情報等の少なくとも一つを用いることができる。
【0039】
統合判定部106は、物体検出部104による検出結果及び物体追跡部105による追跡結果が入力されると、入力された検出結果及び追跡結果に基づいて、検出結果と追跡結果との間の整合性を判定する(S3007)。例えば、物体検出部104が新たに検出した物体が物体追跡部105で追跡されている場合、物体が新たに検出されたにもかかわらず、当該物体を前回の物体情報OLt−1から追跡できているので、統合判定部106は検出結果と追跡結果との間の整合性がないと判定される。なお、前回の物体情報OLt−1は、接近物識別部107で接近物であると識別された物体に関する情報であり、例えば、当該物体の位置の座標等を含む。物体が物体追跡部105で追跡されている場合とは、物体追跡部105が、前時刻の物体情報(OLt−1)の各物体の画像を左端部分透視投影画像ULt上で検出している場合をいう。
【0040】
統合判定部106は、検出結果と追跡結果との間の整合性がないと判定した場合、前回の物体情報OLt−1に含まれる物体の位置から当該物体の現在の位置を予測し、物体検出部104による検出結果及び物体追跡部105による追跡結果のうち予測した位置に近い方に物体が位置する結果を接近物識別部107に出力する。なお、統合判定部106は、物体検出部104による検出結果及び物体追跡部105による追跡結果のうち予測した位置に遠い方に物体が位置する結果を誤検出と判断し、当該結果を破棄する。これによって、物体検出部104又は物体追跡部105が物体を誤検出している場合であっても、当該誤検出を修正できる。
【0041】
次に、接近物識別部107は、物体検出部104及び物体追跡部105によって検出された物体の特徴ベクトル(特徴量)を算出する(S3008)。接近物識別部107は、例えば特徴ベクトルとして、物体の画像上の横幅及び縦幅、物体の接地点座標、物体のエッジ強度、テクスチャ周波数、矩形の拡大率、及び物体の実際の画素数(物体画素数)等の少なくとも一つを算出する。
【0042】
接近物識別部107は、S3008の処理で算出された特徴ベクトルの時系列の変化に基づいて、物体検出部104及び物体追跡部105によって検出された物体が接近物か否か(換言すれば、物体検出部104及び物体追跡部105によって検出された物体が誤検出でないか否か)を判定する(S3009)。S3009の処理は、図6A及び図6Bで詳細を説明する。
【0043】
なお、第2接近物検出部12は、S3004〜S3009の処理を右端部分画像FRに実行する。
【0044】
第1接近物検出部11が実行するS3009の処理、第2接近物検出部12が実行するS3009の処理の少なくとも一方で、物体検出部104及び物体追跡部105によって検出された物体が接近物であると判定された場合、警報部2が接近物に関する情報(例えば、接近物の位置及び速度等)を出力し(S3010)、処理を終了する。
【0045】
このように、本実施例の接近物検出システム10は、広角カメラ1によって撮像された撮像画像の左端の部分画像及び右端の部分画像からパターンマッチングを用いて接近物を検出するため、接近物の画像が小さくても接近物を検出でき、できるだけ早く接近物を検出することが可能となる。
【0046】
また、物体検出部104及び物体追跡部105は通常、1〜2フレームの撮像画像から物体をパターンマッチングを用いて検出するため、接近物を誤検出する可能性が高い。このため、接近物識別部107は、物体検出部104及び物体追跡部105が検出した物体の特徴ベクトルを算出し、算出した特徴ベクトルの時系列変化に基づいて接近物を識別することによって、接近物を検出するため、接近物の誤検出を低減し、実用性の高い性能を達成できる。
【0047】
次に、物体検出部104について図4並びに図5A及び図5Bを用いて説明する。
【0048】
図4は、本発明の実施例1の物体検出部104の説明図である。
【0049】
物体検出部104は、第1物体識別器401、第2物体識別器402、切替部403、及び識別器走査部404を有する。第1物体識別器401及び第2物体識別器402を総称する場合には物体識別器と記載する。
【0050】
第1物体識別器401及び第2物体識別器402は、例えば、車両、歩行者、自転車、及びバイク等の特定の物体を検出するための識別器であり、第1物体識別器401は昼間の物体を検出するための識別器であり、第2物体識別器402は夜間の物体を検出するための識別器である。第1物体識別器401及び第2物体識別器402は物体概観に関する輝度パターンで構成され、特に第2物体識別器402は車両ヘッドライトのような高輝度パターンも含む。
【0051】
切替部403は、昼夜判定情報を用いて昼間か夜間かを判定し、昼間であると判定した場合には第1物体識別器401を物体の検出に用い、夜間であると判定した場合には第2物体識別器402を物体の検出に用いる。なお、昼夜判定情報は、例えば、広角カメラ1のゲイン、及び現在の時刻等である。例えば、昼夜判定情報が広角カメラ1のゲインである場合には、切替部403は広角カメラ1のゲインが所定値以上であれば夜間であると判定し、広角カメラ1のゲインが所定値より小さければ昼間であると判定する。また、昼夜判定情報が現在の時刻である場合、切替部403は、現在の時刻が所定時刻より前であれば昼間であると判定し、現在の時刻が所定時刻より後であれば夜間であると判定する。
【0052】
識別器走査部404は、第1物体識別器401又は第2物体識別器402を用いて、物体検出部104に入力された部分画像を走査し、当該部分画像から物体を検出する。
【0053】
図5Aは、本発明の実施例1の物体識別器の説明図である。
【0054】
識別器走査部404は、走査先の部分画像501を走査し、物体識別器を用いて特定の物体を検出する。以下、部分画像501から車両が検出される場合を例に説明する。
【0055】
第1物体識別器401は、弱識別器503、重み係数504、総和部505、及び符号関数506を有する。弱識別器503は、走査先の部分画像501のT個の特徴ベクトル502を式1に示す関数(h(x))に入力する。式1に示すf(x)はt番目の特徴ベクトルを示し、θは閾値であり、t番目の特徴ベクトル(f(x))が閾値より大きければh(x)は「1」を返し、t番目の特徴ベクトルf(x)が閾値以下であればh(x)は「−1」を返す。重み係数504は弱識別器503の出力に重み付けする。総和部505は、重み係数504によって重み付けされた弱識別器503の出力の総和を算出する。符号関数506は、総和部505の出力を入力とし、識別情報を出力する。
【数1】
【0056】
第1物体識別器401は式2のように表すことができる。式2では、H(x)は第1物体識別器401を示し、xは特徴ベクトル502を示し、h(x)は弱識別器503を示し、αは弱識別器503の重み係数504を示す。第1物体識別器401は各弱識別器503の重み付き投票によって実装される。式2のsign()は符号関数506を示し、符号関数506は、式2の右辺の括弧内の値が正の値であれば「+1」を返し、式2の右辺の括弧内の値が負の値であれば「−1」を返す。
【数2】
【0057】
なお、特徴ベクトル502は、例えば、Haar−like特徴(領域間の輝度平均の差分)、HoG(Histograms of Oriented Gradients)特徴であるものとするが、この他の特徴であってもよいし、異なる特徴量を組み合わせた共起特徴量であってもよい。特徴ベクトルの選択及び重み係数の学習には、AdaBoost又はロジスティック線形回帰等の手法を用いることができる。
【0058】
図5Bは、本発明の実施例1の物体識別器の変形例の説明図である。
【0059】
図5Bに示す物体識別器(多クラス識別器)には複数の物体が設定され、複数の物体の中から部分画像501に適合する物体を検出する。図5Bに示す物体識別器は、入力ユニット(入力層)507、第1重み係数508、隠れユニット(隠れ層)509、第2重み係数510、及び出力ユニット(出力層)511を有する。
【0060】
入力ユニット507にはT個の特徴ベクトル502が入力される。第1重み係数508は、入力ユニット507からの出力に重み付けする。
【0061】
隠れユニット509は、入力ユニット507からの出力と第1重み係数508との線形結合を非線形変換する。本実施例では、隠れユニット509の非線形変換用の関数には式3に示すシグモイド関数を用いる。式3では、g(x)は隠れユニット509の出力を示し、xは入力ユニット507の出力を示し、wは第1重み係数508を示す。
【数3】
【0062】
第2重み係数510は隠れユニット509からの出力に重み付けをする。出力ユニット511は、各クラス(例えば、車両、歩行者、及びバイク等)の識別確率を算出する。図5Bでは、出力ユニット511を三つ示すが、これに限定されない。出力ユニット511の数は、物体識別器が検出可能な物体の数と同じである。出力ユニット511の数を増加させることによって、車両、歩行者、及びバイクの他に、例えば、二輪車、標識、及びベビーカー等、物体識別器が検出可能な物体が増加する。
【0063】
図5Bに示す物体識別器は、三層ニューラルネットワークの例であり、物体識別器は、第1重み係数508及び第2重み係数510を誤差逆伝播法を用いて学習する。また、図5Bに示す物体識別器は、ニューラルネットワークに限定されるものではなく、多層パーセプトロン及び隠れ層を複数層重ねたディープニューラルネットワークであってもよい。この場合、物体識別器は、第1重み係数508及び第2重み係数510をディープラーニング(深層学習)によって学習すればよい。
【0064】
次に、接近物識別部107について図6A及び図6Bを用いて説明する。
【0065】
図6Aは、本発明の実施例1の接近物識別部107の説明図である。
【0066】
接近物識別部107は、接近物識別器600及び接近物識別処理部601を有する。接近物識別器600は、物体検出部104及び物体追跡部105によって検出された物体の特徴量の時間経過による変化量に基づいて接近物を識別するための識別器である。接近物識別器600は、例えば、隠れマルコフモデル(HMM:Hidden Markov Model)であり、図6Bで詳細を説明する。接近物識別処理部601は、接近物識別器600を用いて物体検出部104及び物体追跡部105によって検出された物体から接近物を識別することによって、接近物を検出する。
【0067】
図6Bは、本発明の実施例1の接近物識別器600の説明図である。
【0068】
接近物識別器600は、接近物を示す状態602(STR)及び非接近物を示す状態603(SFL)を有する。図6Bに示す604〜609は、図3に示すS3008の処理で
算出された特徴ベクトル(V={v1, v2, v3,…,vn})の時間経過による変化量(観測値)を示す。例えば、観測値は10フレーム分の特徴ベクトルの変化量であるとする。また、図3に示すS3008の処理で説明したように、特徴ベクトルとしては、物体の画像上の横幅及び縦幅、物体の接地点座標、動きベクトル、物体のエッジ強度、テクスチャ周波数、矩形の拡大率、及び物体画素数等の少なくとも一つが算出される。
【0069】
本実施例の接近物識別器600は、接近物を検出するためのパラメータとして状態遷移確率行列Aと観測確率行列Bを有する。
【0070】
まず、状態遷移確率行列Aについて説明する。状態遷移確率行列Aは、状態間の遷移確率(状態602から状態603への遷移確率、状態603から状態602への遷移確率)を規定した行列であり、式4で表すことができる。式4のqは時刻tにおける状態を示し、qt+1は時刻t+1における状態を示し、aijは、時刻tから時刻t+1にかけて状態がSからSに遷移する確率(状態遷移確率)である。
【数4】
【0071】
次に、観測確率行列Bについて説明する。観測確率行列Bは、各状態(状態602及び状態603)からある観測値vが得られる確率を規定した行列であり、式5で表すことができる。式5のb(k)は状態Sから観測値vが得られる確率である。例えば、接近物を示す状態602(STR)からは、車間距離が徐々に短くなる、すなわち動きベクトルが徐々に大きくなるような特徴ベクトルの時間経過による変化が得られやすく、非接近物を示す状態603(SFL)からは、このような特徴ベクトルの時間経過による変化が得られにくい。観測確率行列Bは、このような知識を確率で表現したものである。
【数5】
【0072】
接近物識別器600は、状態遷移確率A及び観測確率行列Bを、Baum−Welchアルゴリズムを用いて事前に学習できる。
【0073】
接近物識別器600は、接近物識別部107によって判断された物体の前回の状態及び状態遷移確率Aに基づいて状態遷移確率を算出し、各特徴ベクトルの時間経過による変化及び観測確率行列Bに基づいて観測確率を算出する。そして、接近物識別器600は、これら状態遷移確率及び観測確率に基づいて物体が状態602である確率及び状態603である確率を算出し、算出した確率を接近物識別処理部601に入力する。接近物識別処理部601は、入力された二つの確率を比較し、確率が大きい方の状態を物体の状態とする。
【0074】
次に、特徴ベクトルとして算出された物体画素数の観測確率の算出方法の例について図7を用いて説明する。図7は、本発明の実施例1の物体画素数の観測確率の算出処理のフローチャートである。当該算出処理は、接近物識別処理部601によって実行される。
【0075】
まず、接近物識別処理部601は、入力された現時刻のカメラ姿勢パラメータCp及び物体の接地点座標に基づいて、広角カメラ1から物体までの相対距離を算出する(S7001)。
【0076】
具体的には、接近物識別処理部601は、歪み補正部103によって歪みが補正された画像から地表面を特定する。そして、接近物識別処理部601は、カメラ姿勢パラメータCpに基づいて、特定した地表面の各位置の広角カメラ1からの距離を算出していき、物体の接地点の広角カメラ1からの距離を算出する。すなわち、接近物識別処理部601は、カメラ姿勢パラメータCpを用いて、画像上の座標(X座標及びY座標)を世界座標(WX座標、WY座標、及びWZ座標)に変換し、物体の接地点の広角カメラ1からの距離を算出する。
【0077】
次に、接近物識別処理部601は、物体検出部104及び物体追跡部105によって検出された物体の種別及びS7001の処理で算出された相対距離に対応する推定画素数を取得する(S7002)。推定画素数は、物体の種別と相対距離とに関連付けられて予め設定されているものとする。例えば、相対距離20mの車両の推定画素数は水平20画素である。
【0078】
次に、接近物識別処理部601は、取得した推定画素数と物体の実際の画素数(物体画素数)との差分を算出する(S7003)。そして、接近物識別処理部601は、S7003の処理で算出された差分に基づいて、物体画素数の観測確率b(k)を算出し(S7004)、処理を終了する。
【0079】
具体的には、S7003の処理で算出された差分が大きい程、物体検出部104及び物体追跡部105が物体を誤検出している可能性が高いため、接近物識別処理部601は、物体画素数の接近物を示す状態602の観測確率b(k)を小さく算出し、物体画素数の非接近物を示す状態603の観測確率b(k)を大きく算出する。一方、S7003の処理で算出された差分が小さい程、物体検出部104及び物体追跡部105が物体を誤検出している可能性が低いため、接近物識別処理部601は、物体画素数の接近物を示す状態602の観測確率b(k)を大きく算出し、物体画素数の非接近物を示す状態603の観測確率b(k)を小さく算出する。
【0080】
このように、カメラ姿勢パラメータCp及び接地点座標に基づいて、物体の広角カメラ1からの相対距離を算出し、算出した相対距離に対応する推定画素数と物体画素数との差分を考慮して、物体画素数の観測確率b(k)を算出する。これによって、接近物識別部107は、推定画素数と物体画素数との差分を考慮して接近物を識別することができ、物体検出部104及び物体追跡部105で誤検出された物体を接近物として識別することを防止できる。
【0081】
他の特徴ベクトルの状態観測確率b(k)の算出方法も簡単に説明する。接近物識別部107は、特徴ベクトルの時間経過による変化が接近物特有の変化である場合には、各特徴ベクトルの接近物を示す状態602の状態観測確率b(k)を大きく算出する。特徴ベクトルの時間経過による変化が接近物特有の変化である場合とは、例えば、動きベクトルが徐々に大きくなっている場合、エッジ強度が徐々に高くなっている場合、テクスチャ周波数が時間経過で高周波帯域にシフトしている場合、矩形の拡大率が時間経過で正になっている場合、相対距離が徐々に小さくなっている場合等である。
【0082】
このように、接近物識別部107は、各特徴ベクトルの時間経過による変化に基づき観測確率b(k)を算出する。そして、接近物識別部107は、隠れマルコフモデルにおける状態認識アルゴリズム(例えば、Viterbiアルゴリズム等)を用いて、状態遷移確率aij及び観測確率b(k)に基づいて、現在の物体の状態が接近物を示す状態602(STR)か非接近物を示す状態603(SFL)かを識別する。なお、接近物識別部107は、物体の状態が状態602と識別されれば、物体が接近物であると識別し、物体の状態が状態603と識別されれば、非接近物であると識別する。
【0083】
本実施例では、広角カメラ1による撮像画像の左端の部分画像及び右端の部分画像から接近物をパターンマッチングを用いて検出することによって、接近物をできるだけ早く検出する。また、パターンマッチングを用いて接近物を検出することによって、オプティカルフローを用いて接近物を検出する場合よりも接近物検出システム10の処理負荷を低減できる。しかし、パターンマッチングを用いた接近物の検出では、接近物を誤検出してしまう可能性が高い。
【0084】
ここで、誤検出と正検出との間には、誤検出を低減させようとすると正検出も低減させてしまい、正検出を増加させるようとすると誤検出も増加させてしまうといったような、トレードオフの関係がある。ある単一の時点における撮像画像に基づくパターンマッチングを用いて物体を検出する限り、このようなトレードオフの大きな改善は見込めない。
【0085】
そこで、本実施例では、接近物検出システム10が接近物識別部107を有することによって、特徴ベクトルの時間経過による変化に基づいて接近物を識別する。これによって、物体検出部104及び物体追跡部105がパターンマッチングを用いて物体を検出し、接近物識別部107がパターンマッチングによる誤検出を排除することによって、広角カメラ1による撮像画像の微小な物体であっても、高い検出率を維持しながら誤検出率を低減させることできる。すなわち、遠方から高速に接近する車両等の接近物もできるだけ早く検出でき、接近物検出システム10は、例えば、当該接近物と車両とが衝突する2秒前までに警報を出力することが可能となる。
【0086】
本実施例では、広角カメラ1による撮像画像の左右端の部分画像から左右の接近物を検出するため、広角カメラ1ではない通常のカメラ(狭角カメラ)を2台設置し、これらのカメラによる撮像画像から接近物を検出する場合と比較して、コストを低減することができる。
【0087】
また、本実施例では、中央の部分画像から接近物を検出しないため処理負荷を軽減できる。なお、第1接近物検出部11及び第2接近物検出部12と同様の第3接近物検出部を用意して、第3接近物検出部が中央部分画像から接近物を検出してもよい。
【0088】
また、物体検出部104が有する物体識別器が図5Bに示す多クラス識別器であれば、例えば、車両、歩行者、及びバイク等のような複数の物体を検出できる。また、物体検出部104が昼用の第1物体識別器401及び夜用の第2物体識別器402を有するので、広角カメラ1の撮像時の環境によらず、正確に物体を検出できる。
【0089】
また、車両姿勢推定部102がカメラ姿勢パラメータCpを逐次算出するため、物体の広角カメラ1からの正確な相対距離を算出でき、物体画素数の観測確率b(k)を正確に算出できる。これによって、接近物を正確に検出できる。
【実施例2】
【0090】
以下、本発明の実施例2について図8及び図9A図9Dを用いて説明する。
【0091】
実施例2では、実施例1の接近物検出システム10を搭載した車両100について説明する。本実施例においては、実施例1の接近物検出システム10をソフトウェアで実現しているが、実施例1の記載のように、ハードウェア構成で実現してももちろんかまわない。
【0092】
図8は、本発明の実施例2の車両100のブロック図である。図8では、実施例1と同じ構成は同じ符号を付与し、説明を省略する。
【0093】
車両100は、広角カメラ1、スピーカ801、ディスプレイ802、車速度センサ807、操舵角センサ808、及び接近物検出システム10を備える。
【0094】
広角カメラ1は、車両100に設置され、車両100の周囲を撮影する。スピーカ801は、車両100の室内に設置され、接近物検出システム10が接近物を検出した場合に警報音を出力し、運転者に接近物を警告する。ディスプレイ802は、車両100の室内に設置され、接近物検出システム10が接近物を検出した場合に警報画面を出力し、運転者に接近物を警告する。車速度センサ807は自車両100の車速度を計測する。操舵角センサ808は、自車両100の操舵角を計測する。車速度センサ807によって計測された車速度を示す車速度情報及び操舵角センサ808によって計測された操舵角を示す操舵角情報によって、接近物検出システム10は自身の動作状態を切り替える。例えば、車速度が一定以下の場合は、接近物検出システム10は、衝突の危険性が小さいとみなして自身の動作を停止する。
【0095】
接近物検出システム10は、入出力インタフェース(I/F)803、メモリ804、及びCPU805を有する。
【0096】
入出力I/F803は、広角カメラ1、スピーカ801、ディスプレイ802、車速度センサ807、及び操舵角センサ808と接近物検出システム10との間でデータを入出力するインタフェースである。メモリ804には、CPU805が実行するプログラム、及びCPU805が読み書きするデータが格納される。CPU805は、演算処理を実行する処理部であり、接近物検出部806及び警報部2の機能を有する。
【0097】
接近物検出部806は、実施例1の接近物検出システム10が有する各構成部(抽出部101、車両姿勢推定部102、第1接近物検出部11、及び第2接近物検出部12)であり、CPU80が接近物検出部806に対応するプログラムを実行することによって実装される。警報部2は、接近物検出部806が接近物を検出した場合に、スピーカ801から警報音を出力するため、及びディスプレイ802に警報画面を出力するための警報出力指令をスピーカ801及びディスプレイ802に入出力I/F803を介して入力する。なお、警報部2は、スピーカ801及びディスプレイ802の両方に警報出力指令を入出力する必要はなく、スピーカ801及びディスプレイ802の少なくとも一つに警報出力指令を入力してもよい。
【0098】
図9Aは、本発明の実施例2の車両100の前方に広角カメラ1が設置された場合に接近物検出システム10が検出する接近物の例の説明図である。
【0099】
車両100の前方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の前方の左側方の接近物(図9Aでは二輪車902)、及び車両100の前方の右側方の接近物(図9Aでは車両901)を検出できる。
【0100】
このため、接近物検出システム10は、車両100の前方の左右側方の接近物を検出できるので、車両100を前進開始時(例えば、交差点及び駐車場で停車していた車両100を前進させる場合)等の運転者の運転を支援できる。
【0101】
なお、接近物検出システム10は、接近物を検出した場合に接近物の危険度を算出し、算出した危険度に応じて出力する警告の種別を変更できる。接近物の危険度は、例えば、広角カメラ1と接近物との距離等に基づいて算出される。例えば、広角カメラ1と接近物との距離が短ければ短いほど危険度が高くなるように算出される。
【0102】
なお、例えば、接近物検出システム10は、危険度が所定値以上である場合のみに警告を出力し、危険度が所定値より小さい場合には警告を出力しないように、危険度に応じて出力する警告の種別を変更してもよい。
【0103】
図9Bは、本発明の実施例2の車両100の後方に広角カメラ1が設置された場合に接近物検出システム10が検出する接近物の例の説明図である。
【0104】
車両100の後方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の後方の左側方の接近物(図9Bでは車両901)、及び車両100の後方の右側方の接近物(図9Bでは歩行者903)を検出できる。
【0105】
このため、接近物検出システム10は、車両100の後方の左右側方の接近物を検出できるので、車両100をバックさせる場合等の運転者の運転を支援できる。
【0106】
図9Cは、本発明の実施例2の車両100の左側方に広角カメラ1を設置した場合に接近物検出システム10が検出する接近物の例の説明図である。
【0107】
車両100の左側方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の左側方の前方の接近物、及び車両100の左側方の後方の接近物(図9Cでは車両901)を検出できる。
【0108】
このため、接近物検出システム10は、車両100の左側方の前方及び後方の接近物を検出できるので、例えば、車両100を左側に車線変更する場合等に運転者の運転を支援できる。また、接近物検出システム10は、車速度センサ807及び操舵角センサ808によって計測された情報を利用することで正確な移動量を算出できるため、接近物の速度及び車両100の左側への移動量を考慮して、より好適に衝突の危険性を判定することができる。
【0109】
図9Dは、本発明の実施例2の車両100の右側方に広角カメラ1を設置した場合に接近物検出システム10が検出する接近物の例の説明図である。
【0110】
車両100の右側方に広角カメラ1が設置された場合、接近物検出システム10は、車両100の右側方の前方の接近物、及び車両100の右側方の後方の接近物(図9Dでは二輪車902)を検出できる。
【0111】
このため、接近物検出システム10は、車両100の右側方の前方及び後方の接近物を検出できるので、例えば、車両100を右側に車線変更する場合等に運転者の運転を支援できる。また、接近物検出システム100は、車速度センサ807及び操舵角センサ808によって計測された情報を利用することで正確な移動量を算出できるため、接近物の速度及び車両100の右側への移動量を考慮して、より好適に衝突の危険性を判定することができる。
【0112】
なお、図9C及び図9Dに示す後方からの接近物は、広角カメラ1が後方に設置された場合の接近物検出システム10でも検出可能である。
【0113】
以上のように、車両100に搭載された接近物検出システム10は、車両100に設置された広角カメラ1による撮像画像から接近物を検出でき、スピーカ801及びディスプレイ802等から警報を出力する衝突警告システムを実現でき、運転者の運転を支援できる。
【0114】
また、広角カメラ1が車両100の前方又は後方に設置されることによって、接近物検出システム10は、車両100の側方からの接近物を検出した場合に警報を出力する側方接近物検出システムを実現できる。また、広角カメラ1が車両100の後方、左側方、又は右側方に設置されることによって、車両100の後方からの接近物を検出した場合に警報を出力する後方接近物警報システムを実現できる。
【実施例3】
【0115】
以下、本発明の実施例3について図10及び図11を用いて説明する。
【0116】
本実施例では、車両100に複数の広角カメラ1A〜1D(総称する場合には広角カメラ1と記載する)が設置され、接近物検出システム10が接近物の検出に用いる画像を撮像する広角カメラ1が車両100の状態に応じて選択される場合について説明する。なお、本実施例では、実施例1及び2と同じ構成は同じ符号を付与し、説明を省略する。
【0117】
図10は、本発明の実施例3の車両100に設置された複数の広角カメラ1の撮像範囲の説明図である。
【0118】
車両100の前方に広角カメラ1Aが設置され、車両100の後方に広角カメラ1Bが設置され、車両100の右側方に広角カメラ1Cが設置され、車両100の左側方に広角カメラ1Dが設置される。
【0119】
広角カメラ1Aは、前方の左側方から右側方にわたる範囲(1001)を撮像可能であり、広角カメラ1Bは、後方の左側方から右側方にわたる範囲(1002)を撮像可能であり、広角カメラ1Cは、右側方の前方から後方にわたる範囲(1003)を撮像可能であり、広角カメラ1Dは、左側方の前方から後方にわたる範囲(1004)を撮像可能である。
【0120】
このように、180度程度の視野角を有する4台の広角カメラ1を車両100に設置することによって、車両100の全周囲を撮像できる。なお、車両100に設置される広角カメラ1は複数台であればよく、4台に限定されない。
【0121】
図11は、本発明の実施例3の車両100に搭載される接近物検出システム10の説明図である。
【0122】
接近物検出システム10は、カメラ選択部1101は、4台の広角カメラ1A〜1Dによる撮像画像(FRT、RER、RHT、及びLFT)を入力とし、車両100の状態(例えば、車速度情報、シフト位置情報、及び操舵角情報)に基づいて、1台の広角カメラ1を選択し、選択した広角カメラ1による撮像画像Fを接近物検出システム10に入力する。
【0123】
例えば、車速度が所定値以上であり、シフト位置がドライブであり、操舵角が0から所定範囲内である場合、カメラ選択部1101は、車両100の前方に設置された広角カメラ1Aを選択し、広角カメラ1Aの撮像画像FRTを接近物検出システム10に入力する。また、車速度が所定値以上であり、シフト位置がバックであり、操舵角が0から所定範囲内である場合、カメラ選択部1101は、車両100の後方に設置された広角カメラ1Bを選択し、広角カメラ1Bの撮像画像RERを接近物検出システム10に入力する。
【0124】
車速度が所定値以上であり、操舵角が右方向である場合、カメラ選択部1101は、車両100の右側方に設置された広角カメラ1Cを選択し、広角カメラ1Cの撮像画像RHTを接近物検出システム10に入力する。車速度が所定値以上であり、操舵角が左方向である場合、車両100の左側方に設置された広角カメラ1Dを選択し、広角カメラ1Dの撮像画像LFTを接近物検出システム10に入力する。
【0125】
なお、接近物検出システム10は、カメラ選択部1101によって選択された広角カメラ1による撮像画像に基づいて接近物を検出する。
【0126】
以上のように、本実施例では、車両100に設置された複数の広角カメラ1から、車両100の状態に応じて、接近物の検出に用いる撮像画像を撮像した1台の広角カメラ1が選択されるので、接近物検出システム10は、車両100の状態に応じた適切な方向からの接近物を検出でき、全ての広角カメラ1による撮像画像に基づいて接近物を検出する場合より接近物検出システム10の処理負荷を軽減できる。
【0127】
また、図10に示すように、車両100の前方、後方、左側方及び右側方に広角カメラ1を設置することによって、接近物検出システム10は、車両100の全方位の接近物を検出することが可能となる。
【0128】
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることも可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
【0129】
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
【符号の説明】
【0130】
1 広角カメラ
10 接近物検出システム
11 第1接近物検出部
12 第2接近物検出部
101 抽出部
102 車両姿勢推定部
103 歪み補正部
104 物体検出部
105 物体追跡部
106 統合判定部
107 接近物識別部
図1
図2
図3
図4
図5A
図5B
図6A
図6B
図7
図8
図9A
図9B
図9C
図9D
図10
図11