(58)【調査した分野】(Int.Cl.,DB名)
【発明の概要】
【発明が解決しようとする課題】
【0006】
ところで、例えばデジタルタコグラフ等の車載器においては、例えば以下に示す(1)〜(3)のような様々な運転支援機能を搭載することが望まれている。
(1)自車両と先行車両との間の車間距離の接近しすぎに対して警報を出力する機能。
(2)自車両が所定の走行レーンの範囲を逸脱する場合に警報を出力する機能。
(3)路面の標示に基づき認識した制限速度に対する自車両の速度超過について警報を出力する機能。
【0007】
上記の(1)〜(3)のような機能を実現する際には、例えば自車両の車載カメラで撮影した自車両前方の情景を表す映像信号を処理して様々なパターン認識を行うことが必要になる。すなわち、映像信号から得られる画像データに基づき、先行車両のパターン、走行レーンの左右境界を表す白線等のパターン、路面に標示されている制限速度の標示パターンなどをそれぞれ認識する必要がある。
【0008】
また、車両に搭載される車載カメラについては、自車両前方を撮影する車載カメラの他に、自車両後方の情景を撮影する車載カメラや、車室内の乗員等を撮影する車載カメラが含まれる場合もある。したがって、車載器においては、複数台の車載カメラがそれぞれ出力する複数の映像信号を同時に処理することが必要になる場合もある。
【0009】
しかしながら、自車両の走行等に伴って逐次変化する映像の中から複数のパターンを同時にリアルタイムで認識するためには、高性能の画像処理専用プロセッサや、高性能のマイクロコンピュータのように高価なハードウェアを車載器に搭載しなければならず、装置コストの増大が懸念される。しかし、比較的低コストのハードウェアで上記の機能を実現しようとすると、各パターンの認識処理に遅延が生じるため、安全運転を支援するための各種警報をリアルタイムで出力することが困難になる。
【0010】
そこで、例えば特許文献1および特許文献2に示されているように、画像の中で画像処理の対象とする範囲を予め限定することが想定される。範囲を限定することにより、画像処理の負荷が軽減されるので、比較的低コストのハードウェアを利用する場合であっても、認識処理の遅延をある程度抑制できる。
【0011】
しかし、上記の(1)〜(3)のような複数の機能を同時に実現しようとすると、同じ映像フレーム中の互いに異なる領域に映る複数の認識対象を同時に認識しなければならず、認識対象の範囲を狭くすることができない。その結果、認識対象の範囲のデータ量が増え、認識処理の遅延が増大する。また、複数の車載カメラの映像をそれぞれ処理する場合にも、認識対象物が映像フレーム中の様々な箇所に存在する可能性を考慮すると、対象の範囲を広げる必要がある。
【0012】
また、自車両が前進、停車、後退のいずれの状態であるかに応じて、映像フレーム中の注目すべき重要な領域が互いに異なるので、どの状態でも重要な領域を認識可能にするためには、認識対象の範囲の制限を緩和しなければならない。したがって、認識対象の範囲のデータ量が増え、認識処理の遅延が増大する。
【0013】
本発明は、上述した事情に鑑みてなされたものであり、その目的は、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能にすると共に、画像処理の負荷の低減が可能な車載器および運転支援装置を提供することにある。
【課題を解決するための手段】
【0014】
前述した目的を達成するために、本発明に係る車載器および運転支援装置は、下記(1)〜(5)を特徴としている。
(1) 車両
の後方を撮影可能な車載カメラが出力する映像信号を入力して処理する画像処理部と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更
し、
前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、
前記車両の前進を認識した場合に前記画像処理部が処理する前記領域の数又は大きさが、前記車両の後退を認識した場合及び前記車両の停止を認識した場合に前記画像処理部が処理する前記領域の数又は大きさより小さい、
ことを特徴とする車載器。
【0015】
上記(1)
及び上記(4)の構成の車載器によれば、車両状態検知部の検知状態に応じて、画像処理部が処理する映像信号内の領域を動的に決定することができる。したがって、例えば、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能とし、且つ処理対象のデータ量が削減されるように領域を最適化して、処理の負荷を低減できる。
更に、車両の前進、後退、および停止のいずれかの状態を認識できるので、状態に応じた適切な領域を画像処理部の処理対象として割り当てることができる。すなわち、車両の前進、後退、および停止のいずれの状態においても、映像フレーム中の注目すべき重要な領域のみを処理対象にし、データ量が削減されるように領域を最適化することができる。
【0016】
(2) 前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域の各々の位置および大きさを表す定数データを保持する定数保持部を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる、
ことを特徴とする上記(1)に記載の車載器。
【0017】
上記(2)の構成の車載器によれば、画像領域決定部は、定数保持部が保持している定数データに基づいて、画像処理部が処理する領域の適切な位置および大きさを容易に決定できる。
【0018】
(3) 前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する、
ことを特徴とする上記(2)に記載の車載器。
【0019】
上記(3)の構成の車載器によれば、例えば、自車両の前進、停車、後退等の複数の状態のそれぞれについて、同時に複数の二次元領域を割り当てることができ、二次元領域の数およびその組み合わせを最適化することもできる。また、映像フレーム中で注目すべき複数の重要な箇所が互いに離れた位置に分散している場合であっても、同時に複数の二次元領域を割り当てることにより、各々の二次元領域のサイズを削減し、画像処理部が処理するデータ量を大幅に削減できる。
【0020】
(4)
前記車両の停止を認識した場合に前記画像処理部が処理する前記領域の数又は大きさが、前記車両の後退を認識した場合に前記画像処理部が処理する前記領域の数又は大きさより小さい、
ことを特徴とする上記(1)乃至(3)のいずれかに記載の車載器。
【0022】
(5) 上記(1)乃至(4)のいずれかに記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部と、
を備えたことを特徴とする運転支援装置。
【0023】
上記(5)の構成の運転支援装置によれば、車両状態検知部の検知状態に応じて、画像処理部が処理する映像信号内の領域を動的に決定できる。したがって、入力された映像フレームから同時に複数の移動物体を認識し、複数種類の警報を出力する機能を実現する場合であっても、処理対象のデータ量を削減し、警報の遅延を抑制できる。
【発明の効果】
【0024】
本発明の車載器および運転支援装置によれば、自車両の前進、停車、後退等の複数の状態のいずれにおいても重要な領域の認識を可能にすると共に、画像処理の負荷の低減が可能になる。
【0025】
以上、本発明について簡潔に説明した。更に、以下に説明される発明を実施するための形態(以下、「実施形態」という。)を添付の図面を参照して通読することにより、本発明の詳細は更に明確化されるであろう。
【発明を実施するための形態】
【0027】
本発明に関する具体的な実施形態について、各図を参照しながら以下に説明する。
【0028】
<システムの構成および動作の概要>
本発明の実施の形態における運行管理システム5の構成例を
図1に示す。
図1に示した運行管理システム5は、トラック運送会社やバス会社等の事業者の設備として導入される。この運行管理システム5は、トラックやバス等の各車両の運行状況を管理するものであり、各車両に車載器として搭載された運行記録装置(以下、デジタルタコグラフという)10と、各事業者の事務所等に設置される事務所PC30とで構成されている。デジタルタコグラフ10と、事務所PC30との間は、ネットワーク70を介して通信できるように接続される。
【0029】
事務所PC30は、事務所に設置された汎用のコンピュータ装置で構成され、車両の運行状況を管理する。ネットワーク70は、デジタルタコグラフ10と広域通信を行う無線基地局8や事務所PC30が接続されるインターネット等のパケット通信網であり、デジタルタコグラフ10と事務所PC30と間で行われるデータ通信を中継する。デジタルタコグラフ10と無線基地局8との間の通信は、LTE(Long Term Evolution)/4G(4th Generation)等のモバイル通信網(携帯回線網)で行われてもよいし、無線LAN(Local Area Network)で行われてもよい。
【0030】
デジタルタコグラフ10は、車両に搭載され、出入庫時刻、走行距離、走行時間、走行速度、速度オーバー、エンジン回転数オーバー、急発進、急加速、急減速等の運行データを記録する。また、本実施形態のデジタルタコグラフ10は、それ以外に後述する運転支援機能を搭載している。
【0031】
図1に示したデジタルタコグラフ10は、ハードウェアとして、CPU(マイクロコンピュータ)11、速度I/F(インタフェース)12A、エンジン回転I/F12B、外部入力I/F13、センサ入力I/F14、GPS受信部15、カメラI/F16、不揮発メモリ26A、揮発メモリ26B、記録部17、カードI/F18、音声I/F19、RTC(時計IC)21、SW入力部22、通信部24、表示部27、およびアナログ入力I/F29を内蔵している。
【0032】
CPU11は、予め組み込まれたプログラムに従い、デジタルタコグラフ10の各部を統括的に制御する。不揮発メモリ26Aは、CPU11によって実行される動作プログラムや、CPU11が参照する定数データやテーブルなどを予め保持している。不揮発メモリ26Aは、データの書き換えが可能なメモリであり、保持しているデータは必要に応じて更新できる。
【0033】
記録部17は、運行データや映像等のデータを記録する。カードI/F18には、乗務員が所持するメモリカード65が挿抜自在に接続される。CPU11は、カードI/F18に接続されたメモリカード65に対し運行データ、映像等のデータを書き込む。音声I/F19には、内蔵のスピーカ20が接続される。スピーカ20は、警報等の音声を発する。
【0034】
RTC21(計時部)は、現在時刻を計時する。SW入力部22には、出庫ボタン、入庫ボタン等の各種ボタンのON/OFF信号が入力される。表示部27は、LCD(liquid crystal display)で構成され、通信や動作の状態の他、警報等を表示する。
【0035】
速度I/F12Aには、車両の速度を検出する車速センサ51が接続され、車速センサ51からの速度パルスが入力される。車速センサ51は、デジタルタコグラフ10にオプションとして設けられてもよいし、デジタルタコグラフ10とは別の装置として設けられてもよい。エンジン回転I/F12Bには、エンジン回転数センサ(図示せず)からの回転パルスが入力される。
【0036】
外部入力I/F13の入力には、車両のブレーキのオンオフを表すブレーキ信号や、自動変速機の変速状態(前進/後退の区別を含む)を表す変速信号が、外部機器(図示せず)から印加される。
【0037】
センサ入力I/F14には、加速度(G値)を検知する(衝撃を感知する)加速度センサ(Gセンサ)28が接続され、Gセンサ28からの信号が入力される。Gセンサとしては、加速度による機械的な変位を、振動として読み取る方式や光学的に読み取る方式を有するものが挙げられるが、特に限定されない。また、Gセンサは、車両前方からの衝撃を感知する(減速Gを検知する)他、左右方向からの衝撃を感知しても(横Gを検知しても)よいし、車両後方からの衝撃を感知しても(加速Gを検知しても)よい。Gセンサは、これらの加速度を検知可能なように、1つもしくは複数のセンサで構成される。
【0038】
アナログ入力I/F29には、エンジン温度(冷却水温)を検知する温度センサ(図示せず)、燃料量を検知する燃料量センサ(図示せず)等の信号が入力される。CPU11は、これらのI/Fを介して入力される情報を基に、各種の運転状態を検出する。
【0039】
GPS受信部15は、GPSアンテナ15aに接続され、GPS(Global Positioning System)衛星から送信される信号の電波を受信し、現在位置(GPS位置情報)の情報を計算して取得する。
【0040】
カメラI/F16の入力には、複数の車載カメラ23、23Bが接続されている。本実施形態では、一方の車載カメラ23は自車両の進行方向前方の道路等の情景を撮影できる向きで固定した状態で車室内に設置されている。したがって、車載カメラ23が撮影する映像の中には、自車両の前方に存在する先行車両、走行中の走行レーン境界を表す白線、路面上の交通規制の標示(制限速度など)が現れる。また、他方の車載カメラ23は、自車両の後方の道路等の情景を撮影できる向きで固定した状態で車室内に設置されている。
【0041】
車載カメラ23、23Bは、例えば魚眼レンズを通して撮像される撮像面に例えば30万画素、100万画素、200万画素が配置されたイメージセンサを有する。イメージセンサは、CMOS(相補性金属酸化膜半導体)センサやCCD(電荷結合素子)センサなど公知のセンサで構成されている。
【0042】
車載カメラ23、23Bがそれぞれ出力する映像の信号は、カメラI/F16の内部回路によって画素毎の階調や色を表すデジタル信号に変換され、フレーム毎の画像データとしてカメラI/F16から出力される。
【0043】
各車載カメラ23、23Bで撮影された映像(画像データ)は、記録部17の動作により時系列データとして記録されるが、所定時間分だけ記録されるように繰り返し上書きされる。この所定時間は、例えば事故発生時、事故の状況が分かるように、事故発生前後の数秒間(例えば、2秒、4秒、10秒等)に相当する時間である。カメラ23で撮像される画像は、静止画でもよいし動画であってもよい。事故発生前後の映像は、事務所PC30の表示部33に表示される。
【0044】
また、本実施形態のデジタルタコグラフ10は、例えば以下に示す(1)〜(4)のような運転支援機能を搭載している。
(1)自車両と先行車両との車間距離が近すぎる場合に警報を出力する機能。
(2)自車両が走行中の走行レーンの範囲を逸脱した場合に警報を出力する機能。
(3)自車両の走行速度が路面標示の制限速度を超えた場合に速度超過の警報を出力する機能。
(4)自車両の後退時などの状況において周囲の障害物等の存在を運転者に知らせる機能。
【0045】
上記(1)〜(4)の各機能を実現するためには、各車載カメラ23、23Bで撮影された映像の画像データを処理して、所定の画像認識を行う必要がある。すなわち、画像認識により先行車両の位置及び距離を特定したり、走行レーン境界の白線と自車両との相対位置を検出したり、路面標示の制限速度を検出したり、様々な障害物を検出することが必要になる。
【0046】
上記のような画像認識は、CPU11が組み込まれたプログラムに従って所定の認識アルゴリズムを実行することにより実現できる。しかし、処理対象の画像のデータ量が多い場合には、画像認識に要するCPU11の負荷が非常に大きくなるので、リアルタイムでの処理が困難になり、検出の遅延が発生する可能性がある。特に、複数の車載カメラ23、23Bの映像を同時に処理したり、複数の認識対象を同時に検出するような場合には、遅延の発生が懸念される。そこで、本実施形態においては、画像認識を実行する際に、後述するように検知枠を設けて処理対象のデータ範囲を限定すると共に、車両の状態に応じて特別な処理を実施する。
【0047】
通信部24は、広域通信を行い、携帯回線網(モバイル通信網)を介して無線基地局8に接続されると、無線基地局8と繋がるインターネット等のネットワーク70を介して、事務所PC30と通信を行う。電源部25は、イグニッションスイッチのオン等によりデジタルタコグラフ10の各部に電力を供給する。
【0048】
一方、事務所PC30は、汎用のオペレーティングシステムで動作するPC(パーソナルコンピュータ)により構成されている。事務所PC30は、運行管理装置として機能し、CPU31、通信部32、表示部33、記憶部34、カードI/F35、操作部36、出力部37、音声I/F38及び外部I/F48を有する。
【0049】
CPU31は、事務所PC30の各部を統括的に制御する。通信部32は、ネットワーク70を介してデジタルタコグラフ10と通信可能である。また、通信部32は、ネットワーク70に接続された各種のデータベース(図示せず)とも接続可能であり、必要なデータを取得可能である。
【0050】
表示部33は、運行管理画面の他、事故映像やハザードマップ等を表示する。記憶部34は、デジタルタコグラフ10から受信した映像を表示したり車両の位置情報を地図上に表示するためのシステム解析ソフトウェア等、各種プログラムを保持している。
【0051】
カードI/F35には、メモリカード65が挿抜自在に装着される。カードI/F35は、デジタルタコグラフ10によって計測され、メモリカード65に記憶された運行データを入力する。操作部36は、キーボードやマウス等を有し、事務所の管理者の操作を受け付ける。出力部37は、各種データを出力する。音声I/F38には、マイク41及びスピーカ42が接続される。事務所の管理者は、マイク41及びスピーカ42を用いて音声通話を行うことも可能であり、車両の事故が発生した場合、救急や警察等への連絡を行う。
【0052】
外部I/F48には、外部記憶装置(ストレージメモリ)54が接続される。外部記憶装置54は、事故地点データベース(DB)55、運行データDB56、ハザードマップDB57を保持する。事故地点データベース(DB)55には、デジタルタコグラフ10から送信される、事故発生時の車両のGPS位置情報(緯度,経度)が登録される。運行データDB56には、運行データとして、出入庫時刻、速度、走行距離等の他、急加減速、急ハンドル、速度オーバー、エンジン回転数オーバー等が記録される。ハザードマップDB57には、過去に事故が発生した地点(事故地点)を表すマークが地図に重畳して記述された地図データが登録される。なお、このハザードマップには、天災等の災害が想定される地域や避難場所等が記述されてもよい。
【0053】
CPU31は、ハザードマップDB57から指定された地域(例えば、事故地点を含む地域)のハザードマップを読み出して表示部33に表示する際、事故地点DB55に登録された事故地点のデータを取得し、ハザードマップ上にこれらの事故地点を表すマークを重畳し、新たなハザードマップを生成する。事務所の管理者は、最新の事故地点を地図(ハザードマップ)上で即座に視認できる。
【0054】
<運転支援機能の詳細>
運転支援機能を実現するためのデジタルタコグラフ10の動作例を
図2に示す。
図2に示した動作は、デジタルタコグラフ10内のCPU11により短い時間周期で繰り返し実行される。
【0055】
ステップS21では、各車載カメラ23、23Bの撮影した映像に相当する各フレームの画像データに対して所定の画像認識処理をCPU11が実行する。但し、処理対象のデータは、各画像フレームの中で事前に定めた各検知枠の範囲内のみに限定する。各検知枠の範囲は、例えば検知枠テーブルT2Aを参照することにより特定できる。検知枠テーブルT2Aについては後で説明する。
【0056】
ステップS22では、CPU11がS21の認識結果を利用して、車間距離検出処理を実行する。すなわち、画像フレーム内で検出した先行車両の位置と、自車両との位置関係を把握し、画像上の距離と各カメラの撮影条件とに基づいて車間距離を算出する。更に、算出した車間距離を事前に定めた閾値と比較し、車間距離が近すぎる場合に車間距離の警報を出力する。
【0057】
ステップS23では、CPU11がS21の認識結果を利用して、レーン逸脱検出処理を実行する。すなわち、画像フレーム内で検出した走行レーン境界の白線の位置と、自車両の位置との左右方向の位置関係や距離を算出し、その結果を事前に定めた判定条件と比較することにより、車線逸脱の有無を識別する。そして、車線逸脱ありの場合は車線逸脱の警報を出力する。
【0058】
ステップS24では、CPU11がS21の認識結果を利用して、速度超過検出処理を実行する。すなわち、路面上の制限速度標示に基づき認識した制限速度と、自車両の現在の走行速度とを比較して速度超過の有無を識別する。そして、速度超過ありの場合は速度超過の警報を出力する。
【0059】
ステップS25では、CPU11がS21の認識結果を利用して、上記以外の検出処理を実行する。例えば、様々な障害物の有無、移動する物体の有無、道路上の各種境界位置などを検出する。そして、障害物や移動する物体への接近を検知した場合や、境界位置に自車両が接近したような場合に警報を出力する。
【0060】
<画像フレームと検知枠との関係>
互いに異なる車両の状態で得られる各画像フレーム100A、100B、100Cとその中に割り当てられる各検知枠との関係の具体例を
図3(a)、
図3(b)、および
図3(c)にそれぞれ示す。
【0061】
車載カメラ23、23Bの撮影により得られる画像データをCPU11が画像認識する際に、画像のデータ量が多いとCPU11の処理の負荷が大きくなり、リアルタイムでの処理が困難になり、遅延が発生する。そこで、CPU11の処理の負荷を減らすために、処理対象のデータ量を削減する。具体的には、処理対象のデータの範囲を定める検知枠を設ける。
【0062】
また、特に後方を撮影する車載カメラ23Bの画像を処理する場合には、車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、最適化するように検知枠の総数、各検知枠の位置、各検知枠の大きさなどを変更する。すなわち、車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、画像フレーム中で注目すべき重要な箇所がそれぞれ異なるので、車両の状態に合わせて変更することにより各検知枠を最小化することが可能であり、処理対象のデータ量を効果的に削減できる。
【0063】
図3(a)、
図3(b)、および
図3(c)は、それぞれ「後退」、「停車」、および「前進」の状態における各画像フレーム100A、100B、100Cとその中に割り当てられる各検知枠との関係との具体例を示している。
【0064】
図3(a)に示した画像フレーム100Aにおいては、このフレーム内の互いに異なる位置に、7つの互いに独立した矩形の検知枠F11、F12、F13、F14、F15、F16、F17が割り当ててある。また、
図3(b)に示した画像フレーム100Bにおいては、このフレーム内の互いに異なる位置に、5つの互いに独立した矩形の検知枠F21、F22、F23、F24、F25が割り当ててある。また、
図3(c)に示した画像フレーム100Cにおいては、このフレーム内の互いに異なる位置に、2つの互いに独立した矩形の検知枠F31、F32が割り当ててある。
【0065】
すなわち、自車両が後退する場合には、
図3(a)に示した各検知枠F11〜F17のように、後方の映像における様々な箇所、つまり自車両後方周辺と進行方向先にそれぞれ注目することにより、後退時における安全を十分に確保できる。また、自車両が停車している時には、
図3(b)に示した各検知枠F21〜F25のように、後方の映像における近距離の自車両周辺にそれぞれ注目することにより、自車両が停車状態から動き始める際の安全を十分に確保できる。また、自車両が前進している時には、
図3(c)に示した検知枠F31、F32のように、後方の映像における近距離の左右脇のみに注目するだけで、後方側の安全を十分に確保できる。
【0066】
一方、自車両が前進している時には、車載カメラ23Bが撮影した後方の映像と同時に、車載カメラ23が撮影した前方の映像を認識することが不可欠であり、CPU11の処理の負荷が大きくなる。ここで、前方の映像と後方の映像を同時に処理すると、更にCPU11の負荷が増大する。しかし、後方の映像の中で画像処理の対象範囲を
図3(c)に示した検知枠F31、F32のみに限定することにより、処理対象のデータ量が減り、負荷の増大を抑制できる。
【0067】
<車両の状態に応じた検知枠の自動切替>
車両の状態に応じて使用する検知枠を自動的に決定するためのデジタルタコグラフ10の動作例を
図4に示す。すなわち、デジタルタコグラフ10のCPU11が
図4に示した動作を実行することにより、例えば
図3(a)、
図3(b)、および
図3(c)に示したような検知枠の自動切替が実現する。
図4の動作について以下に説明する。
【0068】
ステップS11では、CPU11は、自車両の前進/後退を識別する。例えば、自車両の自動変速機から得られる変速信号の状態を参照することにより、自車両が前進、後退のいずれの状態であるのかを区別できる。
【0069】
ステップS12では、CPU11は、自車両が停車しているか否かを識別する。例えば、自車両の現在の走行速度の情報と、ブレーキ信号の状態とに基づいて停車の有無を区別できる。
【0070】
ステップS13では、CPU11は、S11、S12の結果に基づき、自車両が「後退」、「停車」、「前進」のいずれの状態であるのかを区別する。そして、「後退」の場合はS13からS14に進み、「停車」の場合はS13からS15に進み、「前進」の場合はS13からS16に進む。
【0071】
ステップS14では、CPU11は、後退時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。車両状態テーブルT1、および検知枠テーブルT2については後で説明する。
【0072】
ステップS15では、CPU11は、停車時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。また、ステップS16では、CPU11は、前進時の検知枠組合せを表す定数データを車両状態テーブルT1、および検知枠テーブルT2から取得する。
【0073】
ステップS17では、CPU11は、S14、S15、S16のいずれかで取得した検知枠組合せの定数データを、検知枠テーブルT2Aに書き込む。この検知枠テーブルT2Aの内容が、
図2に示したステップS21の処理で使用する検知枠に反映される。なお、検知枠テーブルT2Aを省略し、検知枠テーブルT2の中の一部分をS21の処理で選択的に使用するように変更してもよい。
【0074】
<テーブルT1、T2の構成例>
デジタルタコグラフが参照する車両状態テーブルT1の構成例を
図5に示す。また、デジタルタコグラフが参照する検知枠テーブルT2の構成例を
図6に示す。
【0075】
図5に示した車両状態テーブルT1は、「後退」、「停車」、「前進」のそれぞれの状態と、検知枠数N1と、検知枠先頭の番号N2との関係を表す定数データを保持している。
図5の車両状態テーブルT1においては、
図3(a)に示した例と同じように後退時の検知枠数N1が「7」になっている。また、
図3(b)に示した例と同じように、停車時の検知枠数N1が「5」になっている。また、
図3(c)に示した例と同じように、前進時の検知枠数N1が「2」になっている。
【0076】
図6に示した検知枠テーブルT2は、多数の検知枠のそれぞれについて、番号N3、基準位置P、検知枠サイズSの関係を表す定数データを保持している。この検知枠テーブルT2においては、例えば、番号N3が「1」の検知枠は、基準位置PがP1であり、X軸方向のサイズがSx1、Y軸方向のサイズがSy1であることを表す定数データが割り当ててある。
【0077】
例えば、
図5に示した車両状態テーブルT1における検知枠先頭の番号N21が「1」の場合には、検知枠テーブルT2における番号N3が「1」〜「7」の範囲内の定数データが、後退時の検知枠の組合せとして
図4のS14で選択される。したがって、
図3(a)に示した7つの検知枠F11〜F17の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。
【0078】
また、
図5に示した車両状態テーブルT1における検知枠先頭の番号N22が「8」の場合には、検知枠テーブルT2における番号N3が「8」〜「12」の範囲内の定数データが、停車時の検知枠の組合せとして
図4のS15で選択される。したがって、
図3(b)に示した5つの検知枠F21〜F25の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。
【0079】
また、
図5に示した車両状態テーブルT1における検知枠先頭の番号N23が「13」の場合には、検知枠テーブルT2における番号N3が「13」〜「14」の範囲内の定数データが、前進時の検知枠の組合せとして
図4のS16で選択される。したがって、
図3(c)に示した2つの検知枠F31〜F32の各々のフレーム内の位置および縦/横の各サイズをそれぞれ特定できる。
【0080】
検知枠テーブルT2の中からS14、S15、S16のいずれかで抽出した一部のデータが検知枠テーブルT2Aに書き込まれ、この検知枠テーブルT2Aの内容が
図2のステップS21の処理に反映される。したがって、自車両の状態が「後退」、「停車」、「前進」のいずれであるかに応じて、
図3(a)、
図3(b)、
図3(c)に示したように実際に使用する検知枠の数、位置、大きさなどを自動的に切り替えることができる。
【0081】
車両状態テーブルT1および検知枠テーブルT2は、不揮発メモリ26A上の記憶領域に配置され、これらが保持する各定数データは必要に応じて変更される。例えば、車載カメラ23Bを自車両に新たに設置したり位置などを変更する際に、デジタルタコグラフ10の各パラメータを調整するための特別なソフトウェアをCPU11で実行することにより、管理者が車両状態テーブルT1および検知枠テーブルT2を更新できる。
【0082】
<変形の可能性>
図3(a)、
図3(b)、
図3(c)に示した例では、後方を撮影する車載カメラ23Bの映像を処理する場合の検知枠だけを想定しているが、前方を撮影する車載カメラ23や、車両側方、あるいは車室内を撮影する他の車載カメラの映像を処理する場合にも、同じような検知枠を適用して処理対象のデータ量を減らすことが想定される。そして、例えば自車両が後退する場合には、前方の映像を認識する処理が使用する検知枠の数やサイズを削減することにより、CPU11の負荷を低減し、後方の映像を認識する処理における遅延の発生を抑制できる。
【0083】
<デジタルタコグラフ10の利点>
図1に示したデジタルタコグラフ10においては、運転支援機能を実現するために、
図2に示した動作を実行する際に、例えば自車両が前進している時には、ステップS21で検知枠を用いることにより、後方の映像の処理にかかるCPU11の負荷を大幅に低減できる。その結果、前方を撮影した映像に基づいて複数種類の運転支援機能(車間距離の警報、車線逸脱の警報、速度超過の警報など)を同時に実現しようとする場合であっても、高性能のCPUを用いることなく、遅延のないリアルタイムの処理が可能になる。また、例えば自車両が後退するときには、後方の映像を処理する際に使用する検知枠の数を
図3(a)のようにS14で増やすことができるので、後方の安全性を十分に確保できる。
【0084】
ここで、上述した本発明の実施形態に係る車載器および運転支援装置の特徴をそれぞれ以下[1]〜[5]に簡潔に纏めて列記する。
[1] 車両に搭載された1つ以上の車載カメラ(23,23B)が出力する映像信号を入力して処理する画像処理部(CPU11,S21)と、
前記車両における走行の有無および進行方向の少なくとも一方の状態を検知する車両状態検知部(CPU11,S11,S12)と、
前記画像処理部が処理する前記映像信号内の領域を動的に決定する画像領域決定部(CPU11,S13〜S16)と、
を有し、
前記画像領域決定部は、前記車両状態検知部の検知状態を反映して、前記領域を自動的に変更する(S17,S21)、
ことを特徴とする車載器。
【0085】
[2] 前記画像領域決定部は、
前記映像信号内に事前に割り当てた複数の二次元領域(検知枠F11〜F17,F21〜F25,F31,F32)の各々の位置および大きさを表す定数データを保持する定数保持部(検知枠テーブルT2)を有し、
前記複数の二次元領域の中から、前記車両状態検知部の検知状態に応じて選択した1つ以上の二次元領域を、前記画像処理部が処理する前記映像信号内の領域として割り当てる(S17)、
ことを特徴とする上記[1]に記載の車載器。
【0086】
[3] 前記画像領域決定部は、前記車両状態検知部の検知状態に応じて、前記複数の二次元領域の中から選択する二次元領域の数およびその組み合わせを自動的に決定する(S13〜S16)、
ことを特徴とする上記[2]に記載の車載器。
【0087】
[4] 前記画像領域決定部は、前記車両状態検知部の検知状態に基づいて、前記車両の前進、後退、および停止のいずれかの状態を認識し、認識した前記車両の状態に応じて前記領域を自動的に変更する(S13〜S16)、
ことを特徴とする上記[1]乃至[3]のいずれかに記載の車載器。
【0088】
[5] 上記[1]乃至[4]のいずれかに記載の車載器と、
前記画像処理部が前記映像信号の中から認識した結果と、事前に定めた判定基準とに基づいて、前記車両の安全運転を支援する警報を生成する警報生成部(S22〜S25)と、
を備えたことを特徴とする運転支援装置。