IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社創発システム研究所の特許一覧 ▶ 三菱重工メカトロシステムズ株式会社の特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022118950
(43)【公開日】2022-08-16
(54)【発明の名称】交通検知システム
(51)【国際特許分類】
   G08G 1/017 20060101AFI20220808BHJP
   G08G 1/015 20060101ALI20220808BHJP
   G08G 1/04 20060101ALI20220808BHJP
【FI】
G08G1/017
G08G1/015 A
G08G1/04 C
【審査請求】未請求
【請求項の数】15
【出願形態】OL
(21)【出願番号】P 2021015817
(22)【出願日】2021-02-03
【新規性喪失の例外の表示】新規性喪失の例外適用申請有り
(71)【出願人】
【識別番号】501170080
【氏名又は名称】株式会社創発システム研究所
(71)【出願人】
【識別番号】309036221
【氏名又は名称】三菱重工機械システム株式会社
(74)【代理人】
【識別番号】100134669
【弁理士】
【氏名又は名称】永井 道彰
(72)【発明者】
【氏名】鷲見 和彦
【テーマコード(参考)】
5H181
【Fターム(参考)】
5H181AA01
5H181CC02
5H181CC03
5H181CC04
5H181CC18
5H181DD02
5H181EE02
5H181EE07
(57)【要約】
【課題】 カメラ撮影画像から車両を検出して車両走行を追跡できる交通検知システムを提供する。
【解決手段】 道路200に設置した通過車両検知部110により車両速度(V)、車長(L)などを検知し、車両データ推定部130により車両情報を推定する。カメラ装置120は道路に沿って配置されて可視光画像、赤外線画像を撮影する。予測部140は車両データ推定部130の推定データを基に道路上の各地点に車両が現れる時刻(T)と現れる車両画像を予測する。車両追跡部150はカメラ撮影画像を解析して車両を検出するにあたり、予測部140による車両が現れる時刻(T)と現れる車両画像の予測データを参照してパターンマッチングで車両認識を実行する。なお、予測部140が車種ごとのカメラ撮影の視野角に応じた可視光車両画像データおよび赤外線車両画像データを蓄積した車両画像データベース141を装備すれば予測精度がさらに向上する。
【選択図】図2
【特許請求の範囲】
【請求項1】
通過車両検知エリアを通過する車両を検知する通過車両検知部と、
前記通過車両検知部で得られたデータを基に前記車両の走行データと車両形状を推定する車両データ推定部と、
前記通過車両検知エリアおよび前記通過車両検知エリア上の前記車両を所定視野から撮影するカメラと、
前記カメラの撮影画像中から前記車両画像を検出して走行する前記車両を追跡する車両追跡部と、
前記車両データ推定部が推定した前記車両の前記走行データと前記車両形状と、前記カメラの位置関係を基に、前記車両が前記撮影画像中に現れる時刻と前記車両画像に該当する領域を予測する予測部を備え、
前記車両追跡部における前記撮影画像中の前記車両画像の検出処理において、前記予測部が予測した前記車両が現れる前記時刻と前記車両画像に該当する領域を参照して前記車両の検出を支援する車両検出支援機能を備えたことを特徴とする交通検知システム。
【請求項2】
あらかじめ車種ごとの車長を含む車両形状データと、当該車両の前記所定視野に相当する角度から撮影される車両画像データを格納した車両画像データベースを備え、
前記予測部が、前記車両が前記撮影画像中に現れる時刻と前記車両画像に該当する領域の予測において、前記車両画像データベース中から、前記車両データ推定部が推定した前記撮影角度から見た場合における車両画像データを検索し、前記車両追跡部に提供することを特徴とする請求項1に記載の交通検知システム。
【請求項3】
前記車両検出支援機能を用いて前記車両追跡部で得た前記車両画像のエッジ形状をモデル化して車両エッジモデルとする車両エッジモデル化部を備え、
前記カメラが前記道路に沿って複数台設置されており、
前記車両エッジモデル化部による前記車両エッジモデルの取得以降は、前記車両追跡部は、各々のカメラで撮像した撮影画像と車両エッジモデル化部で得た前記車両エッジモデルとのパターンマッチング処理により前記車両検出を実行することを特徴とする請求項1または2に記載の交通検知システム。
【請求項4】
前記車両追跡部が前記車両の追跡を行う範囲の前記道路に沿って前記カメラが複数台設置されており、
前記車両追跡部が、前記車両の進行方向上流側の前記カメラの前記撮影画像中での前記車両の追跡処理から、前記車両の進行方向下流側の前記カメラの前記撮影画像中での前記車両の追跡処理を次々と引き継いでゆくリレー式追跡処理を行うことを特徴とする請求項1から3のいずれかに記載の交通検知システム。
【請求項5】
前記カメラが赤外線カメラであり、
前記車両追跡部の前記車両の検出処理において、赤外線画像中から前記車両が発する赤外線車両画像を検出するものであることを特徴とする請求項1から4のいずれかに記載の交通検知システム。
【請求項6】
前記カメラが赤外線カメラであり、
前記車両画像データベースが、あらかじめ前記車種ごとに前記所定視野に相当する角度から撮影される当該車両が発する赤外線車両画像データをデータベース化したものを含むものであり、
前記予測部が、前記撮影画像である赤外線画像中に前記車両が現れる時刻と前記車両画像に該当する領域の予測において、前記車両画像データベースの前記赤外線車両画像データに基づいて当該車両の赤外線車両画像データを前記車両追跡部に提供し、
前記車両追跡部の前記車両の検出処理において、前記赤外線画像中から前記車両が発する赤外線車両画像を検出するものであることを特徴とする請求項5に記載の交通検知システム。
【請求項7】
前記カメラが赤外線カメラと可視画像カメラであり、
前記車両追跡部の前記車両の検出処理において、昼間時間帯では前記可視画像カメラが撮影した可視画像を前記撮影画像として用いて、前記車両表面で反射した可視光画像を検出するものであり、夜間時間帯では前記赤外線カメラが撮影した赤外線画像を前記撮影画像として用いて、前記車両が発する赤外線車両画像を検出するものであることを特徴とする請求項1から4のいずれかに記載の交通検知システム。
【請求項8】
前記カメラが赤外線カメラと可視画像カメラであり、
前記車両画像データベースが、あらかじめ前記車種ごとに前記所定視野に相当する角度から撮影される昼間時間帯において当該車両表面で反射した可視光車両画像データと、夜間時間帯において当該車両が発する赤外線車両画像データをデータベース化したものを含むものであり、
前記予測部が、前記撮影画像中に現れる時刻と前記車両画像の予測において、昼間時間帯では前記車両画像データベースの前記可視光車両画像データに基づいて、夜間時間帯では前記車両画像データベースの前記赤外線車両画像データに基づいて、当該車両の前記車両画像データを前記車両追跡部に提供し、
前記車両追跡部の前記車両検出処理において、昼間時間帯では前記撮影画像である可視画像中から前記車両表面で反射した可視光車両画像を検出するものであり、前記夜間時間帯では前記撮影画像である赤外線画像中から前記車両が発する赤外線車両画像を検出するものであることを特徴とする請求項7に記載の交通検知システム。
【請求項9】
前記通過車両検知エリアとして第1の通過車両検知エリアと第2の通過車両検知エリアがあり、
前記通過車両検知部が、前記第1の通過車両検知エリアに第1の通過車両検知部を備え、前記第2の通過車両検知エリアに第2の通過車両検知部を備えた構成であり、
前記車両データ推定部が、前記第1の通過車両検知部および前記第2の通過車両検知部で得られたデータと、前記第1の通過車両検知エリアと前記第2の通過車両検知エリアの位置関係を基に前記車両の走行データと車両形状を推定するものであることを特徴とする請求項1から8のいずれかに記載の交通検知システム。
【請求項10】
前記車両データ推定部が、前記第1の通過車両検知エリアおよび前記第2の通過車両検知エリアを前記道路のレーンに応じたレーンゾーンに分けた推定処理を行い、
前記予測部が、前記第1の通過車両検知部および前記第2の通過車両検知部のデータを前記レーンゾーンに対応する範囲ごとに分割処理し、複数の前記レーンゾーンごとに通過する前記車両について、少なくとも前記車両の数、前記車両毎の速度、前記車両毎の車長のいずれかを推定する処理を行うことを可能とした請求項9に記載の交通検知システム。
【請求項11】
前記第1の通過車両検知部および前記第2の通過車両検知部のスキャン速度が前記車両の速度に比べて十分速いものとし、
前記車両データ推定部が、前記第1の通過車両検知部で得られた前記第1の通過車両検知エリアへの前記車両の進入時刻と離脱時刻と、前記第2の通過車両検知部で得られた前記第2の通過車両検知エリアへの前記車両の進入時刻と離脱時刻に基づいて、
前記第1の通過車両検知エリアへの前記車両の進入時刻と前記第2の通過車両検知エリアへの前記車両の進入時刻との差分と前記第1の通過車両検知エリアと前記第2の通過車両検知エリア間の距離から前記車両の速度を推定し、
前記第1の通過車両検知エリアへの前記車両の進入時刻と離脱時刻との差分と前記車両の速度より前記車両の車長を推定する推定処理を行うことを特徴とする請求項9または10に記載の交通検知システム。
【請求項12】
前記通過車両検知部の前記第1の通過車両検知部および前記第2の通過車両検知部が、レーザー光を前記道路に照射してその反射光を検出するレーザー式車両検知装置であることを特徴とする請求項9から11のいずれかに記載の交通検知システム。
【請求項13】
前記通過車両検知部の前記第1の通過車両検知部および前記第2の通過車両検知部が、前記道路を通過する車両により埋設コイルに生じる電流を検出するループコイル式車両検知装置であることを特徴とする請求項9から11のいずれかに記載の交通検知システム。
【請求項14】
通過車両検知エリアを通過する車両の検知する通過車両検知処理を実行し、
前記通過車両検知処理で得られたデータを基に前記車両の走行データと車両形状を推定する車両データ推定処理を実行し、
前記通過車両検知エリアおよび前記通過車両検知エリア上の前記車両を所定視野からカメラで撮影して撮影画像を得る撮影処理を実行し、
前記撮影処理で得た前記撮影画像中から前記車両画像を検出して走行する前記車両を追跡する車両追跡処理を実行し、
前記車両データ推定処理において推定した前記車両の前記走行データと前記車両形状と、前記カメラの位置関係を基に、前記車両が前記撮影画像中に現れる時刻と前記車両画像に該当する領域を予測する予測処理を実行し、
前記車両追跡処理における前記撮影画像中の前記車両画像の検出において、前記予測処理で予測した前記車両が現れる前記時刻と前記車両画像に該当する領域を参照して前記車両の検出を支援する車両検出支援処理を実行することを特徴とする交通検知方法。
【請求項15】
通過車両検知エリアを通過する車両を検知する通過車両ステップと、
前記通過車両検知ステップで得られたデータを基に前記車両の走行データと車両形状を推定する車両データ推定ステップと、
前記通過車両検知エリアおよび前記通過車両検知エリア上の前記車両を所定視野からカメラで撮影した撮影画像を得る撮影画像取得ステップと、
前記撮影画像取得ステップで得た前記撮影画像中から前記車両画像を検出して走行する前記車両を追跡する車両追跡ステップと、
前記車両データ推定ステップで推定した前記車両の前記走行データと前記車両形状と、前記カメラの位置関係を基に、前記車両が前記撮影画像中に現れる時刻と前記車両画像に該当する領域を予測する予測ステップを備え、
前記車両追跡ステップにおける前記撮影画像中の前記車両画像の検出処理において、前記予測ステップで予測した前記車両が現れる前記時刻と前記車両画像に該当する領域を参照して前記車両の検出を支援する車両検出支援ステップを備えたことを特徴とする交通検知プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、高速道路など道路を通行する車両に関する諸情報を収集する交通検知システムに関する。例えば、道路を走行する車両の位置、車両毎の速度、車両毎の車長、渋滞、交通トラブルの有無などを検知する。
【背景技術】
【0002】
従来技術において、道路を通行する通過台数や通過速度や車長などの諸データを計測する通過車両検知システムが知られている。
例えば、「ループコイル」と呼ばれる機器を用いたループコイル式の通過車両検知システムが知られている。ループコイル式の交通検知システムは、ループコイルと呼ばれる導体を道路地中に埋設したシステムである。金属車体である車両が通過すると、地中に埋設したループコイルのインダクタンスが変化する。ループコイル式の交通検知システムは、このループコイルのインダクタンスを道路上に所定間隔(例えば6.9m)を置いて2つ埋設しておき、これら2カ所のループコイルのインダクタンスの変化をそれぞれ検知することで2ヶ所の地点での車両の通過を検知し、交通量を計測するシステムとなっている。ループコイルのインダクタンス変化は精度良く検知することができ、また、ループコイルを埋設した2ヶ所の地点での車両の通過時刻を検知することができるため、ループコイル式の交通検知システムを用いることにより、車両の通過台数のみならず、車両ごとの通過速度や車長などを精度良く計測することができる。現在の技術では、それらデータを99%以上の精度で検知できるとされている。
【0003】
また、レーザーセンサや超音波センサを用いた通過車両検知システムがある。
従来技術である特許文献1で示されたレーザーセンサや超音波センサは、図22(a)や図22(b)に示すように、所定箇所の道路を切るようにレーザービームや超音波を照射し、照射されたレーザービームや超音波ビームが道路面または道路上を通行する車両の表面という対象物から反射されて受信されるまでの時間を計測し、計測された時間に基づいて対象物までの距離を測定するものである(特許文献1)。その測定データを制御装置において解析すれば、レーザービームまたは超音波ビームの照射対象物がフラット、つまり、道路上を通行する車両がなく道路面から反射して受信されたパターンであれば道路上に通過車両がないと判断でき、レーザービームまたは超音波ビームの照射対象物に凹凸があれば、その一部が道路上を通行する車両から反射して受信されたパターンとして道路上に通過車両があると判断できる。このレーザーセンサや超音波センサを用いた通過車両検知システムは、道路を毀損することなく空間に設置することができるため、上記のループコイルによる通過車両検知システムを用いるシステムなどに見られたような道路埋設を伴う工事の有無、コスト、耐久年数の短さなどの問題は発生しないとされている。
【0004】
特に、従来のレーザーセンサを用いた交通検知システムにおいて、2台のレーザーセンサを用いれば、道路を通行する車両の数、車両毎の速度、車両毎の車長を精度よく検出することができる。例えば、道路のA地点にレーザーセンサを設置して直下の道路を通過する車両に対してレーザーを照射して反射を受信することにより車両の進入を検知するとともに、少し離れた道路のB地点にもレーザーセンサを設置して直下の道路を通過する車両に対してレーザーを照射して反射を受信することにより車両の進入を検知することにより、両者のデータを突き合わせれば道路を通行する車両の数、車両毎の速度、車両毎の車長が精度よく検出できる。
【0005】
上記のように、従来の通過車両検知システムを用いれば、比較的精度良く道路を通行する車両の通過台数や通過速度や車長などの諸データを計測することができる。しかし、その計測が可能な箇所はそれら通過車両検知システムが設置されている箇所だけである。道路に沿って多数の通過車両検知システムを設置することはコスト面、工期面から現実的ではない。
【0006】
近年、道路交通管理において、車両数、車両毎の速度、車長のデータという統計的なデータのみならず、道路上の交通状況自体を直接監視する道路交通管理システムが求められている。道路上の交通状況自体を直接監視することにより、道路上で発生する交通トラブルや危険走行を繰り返す車両の早期発見、渋滞の予知および回避、発生した渋滞解消の措置、交通トラブルや事故や火災の早期把握、早期対応などが可能になると期待されている。
【0007】
道路上の交通状況自体を直接監視する手段として、可視画像を撮影する監視カメラがある。実際に、監視カメラで撮影した撮影画像を基に道路上の交通事情をモニタする道路交通管理が導入されつつある。
ここで、監視カメラで撮影した撮影画像を基にした交通管理システムとしては、人間の目視も重要であるが、人間の目視のみに頼った管理ではなく、コンピュータ処理により画像解析を行って、道路上の交通状況自体を自動監視し、道路上で発生する交通トラブルなどを検知することが求められる。さらにAI(人工知能システム)を用いて自動監視精度を向上することも期待されている。
【0008】
【特許文献1】特開2003-308591号公報
【発明の開示】
【発明が解決しようとする課題】
【0009】
しかし、可視画像を撮影する監視カメラの撮影画像を用いる交通管理システムは、検知精度において改善すべき問題がある。
道路を撮像した画像において車両を検知するアルゴリズムは進化しているものの、夜間の時間帯では取得された画像精度が悪く、走行車両を検知する精度にはまだ改善する余地がある。また、夜間の時間帯では、車両のヘッドランプの光が発せられるため、可視画像としてヘッドランプ光が強く受光されてしまい、車両自体は写り込みにくいなどの問題があり、検出精度が低下することがある。また、昼間の時間帯であっても、雨の日は画像がぼやけるなどの問題がある。
【0010】
ここで、夜間の時間帯で比較的精度のよい撮影画像を得る手段として、赤外線カメラがある。赤外線カメラは反射光ではなく、物体自体が発する赤外線を捉えるカメラであるため、夜間の時間帯であっても比較的精度の良い撮影画像を得ることができる。
しかしながら、上記従来の赤外線カメラの赤外線画像を用いた交通管理システムは、可視画像の監視カメラに比べて比較的精度の良い撮影画像が得られるものの、やはり、物体の存在自体は分かるものの、その輪郭は明瞭とまでは言えないケースが多く、その輪郭エッジからは昼間の可視画像のように物体の細かい輪郭エッジは検出できない。つまり、従来の赤外線カメラの赤外線画像からは、車両の区別、車両の同定の精度には問題がある。
【0011】
上記問題を解決するため、本発明は、昼間の時間帯のみならず夜間の時間帯であっても精度良くカメラ撮影画像において車両を検出して撮影画像中の走行車両を検出し、その走行車両を追跡できる交通検知システムを提供するものである。
カメラ撮影画像を基に道路上の交通状況自体を直接監視することにより、道路上で発生する交通トラブルや危険走行を繰り返す車両の早期発見、渋滞の予知、渋滞の把握、交通事故や火災の早期検知を行う。
【課題を解決するための手段】
【0012】
上記目的を達成するため、本発明の交通検知システムは、通過車両検知エリアを通過する車両を検知する通過車両検知部と、前記通過車両検知部で得られたデータを基に前記車両の走行データと車両形状を推定する車両データ推定部と、前記通過車両検知エリアおよび前記通過車両検知エリア上の前記車両を所定視野から撮影するカメラと、前記カメラの撮影画像中から前記車両画像を検出して走行する前記車両を追跡する車両追跡部と、前記車両データ推定部が推定した前記車両の前記走行データと前記車両形状と、前記カメラの位置関係を基に、前記車両が前記撮影画像中に現れる時刻と前記車両画像に該当する領域を予測する予測部を備え、前記車両追跡部における前記撮影画像中の前記車両画像の検出処理において、前記予測部が予測した前記車両が現れる前記時刻と前記車両画像に該当する領域を参照して前記車両の検出を支援する車両検出支援機能を備えたことを特徴とする交通検知システムである。
なお、追跡する道路に沿ってカメラ装置が複数台並べられている場合、車両追跡部は車両の進行方向上流側のカメラの撮影画像中での車両の追跡処理から、車両の進行方向下流側のカメラの撮影画像中での車両の追跡処理という形で次々と引き継いでゆくリレー式追跡処理を行うことができる。
【0013】
上記構成により、カメラ撮影画像を基に撮影画像中に映り込んだ走行する車両を追跡するにあたり、車両画像を検出して車両を特定するだけでなく、通過車両検知部で車両の車長などから車両データ推定部が車両種別(乗用車、軽自動車、軽トラック、小型トラック、大型トラック、特殊車両など)と車両形状を推定するとともに、予測部の車両毎の速度をもとにした予測により当該車両の撮影画像中に現れる時刻と車両画像に該当する領域を予測し、車両データ推定部の車両種別および車両データと、予測部の予測結果と、車両追跡部による車両画像の検出結果による車両追跡結果を突き合わせることにより、車両追跡部による車両追跡処理の速度及び精度を向上させることができる。また、予測部の予測結果と、車両追跡部による車両の検出結果との結果の照合により、当該車両が予測通りの通常走行なのか、予測外の異常走行または異常事態との遭遇があったのかを推測することができる。
【0014】
ここで、車両追跡部の処理速度および精度を向上させる手段として、車両画像データベースを利用する構成も好ましい。道路上を走行する車両は、一般的には市販車が多く、あらかじめ車両画像が既知であることが多い。そこで、あらかじめ車種ごとの車長と車幅を含む車両形状データと、当該車両をカメラの撮影角度から撮影される車両画像データを格納した車両画像データベースを備えておく。
まず、車両データ推定部が推定した車両データをもとに予測部が車両画像データベースを検索すれば、対象車両のカメラ撮影角度から見た車両画像を予測することができる。予測部が、撮影画像中に現れる時刻と、当該車両がその撮影角度で撮影された画像中に現れると予測される車両画像に該当する領域を車両追跡部に提供する。車両追跡部はそれらを車両検出処理に利用することができ、車両検出精度向上と処理速度向上が達成できる。
【0015】
なお、車両追跡部における車両追跡処理において、一度車両画像を基に特定できた車両については、交通事故で変形しない限り車両エッジ形状は不変であるので、毎回精密な車両エッジの切り出し処理および車両画像検出処理を繰り返す必要はない。そこで、車両追跡部が車両エッジモデル化部を備えた構成とし、車両追跡部が一度検出した車両画像の車両エッジ形状を車両エッジモデル化部によりモデル化して車両エッジモデルとすれば、それ以降は、道路に沿って配置されている各々のカメラの撮影画像と車両エッジモデルとのエッジのパターンマッチング処理により車両検出を実行でき、車両の特定および車両の追跡が可能となる。
この撮影画像と車両エッジモデルとのパターンマッチング処理において、予測部による車両走行の予測(撮影画像中に現れる時刻と車両画像に該当する領域)も参照するとさらに照合処理の速度および精度も向上する。つまり、予測部が予測した追跡中の車両の現れる時刻と車両エッジモデルを基にした車両画像に該当する領域を合わせれば、車両追跡部は当該車両の追跡処理を高速化することができる。
【0016】
なお、本発明の交通検知システムでは、上記構成のカメラとして、カメラが赤外線カメラを用いることができる。赤外線カメラを用いた場合、車両追跡部の車両検出処理において、赤外線画像中から車両が発する赤外線車両画像を検出することができる。
つまり、夜間時間帯であっても、赤外線カメラを用いることにより比較的精度良く車両画像を捉えることができる。
なお、赤外線画像を用いて車両追跡を行う場合、車両画像データベースとしては、あらかじめ車種ごとに所定視野に相当する角度から撮影される当該車両が発する赤外線車両画像データを格納したデータを含むものとする。
まず、車両データ推定部が、通過車両検知部を介して得られたデータをもとに車両画像データベースを検索すれば、対象車両の赤外線車両画像データを推定することができる。次に、予測部が、撮影画像中に現れる時刻と、当該車両がその撮影角度で撮影された画像中に現れると予測される車両画像に該当する領域である赤外線車両画像データを車両追跡部に提供し、車両追跡部が、予測部が予測した赤外線画像中に現れる時刻と車両の赤外線車両画像データを参照しつつ、赤外線画像中の車両の赤外線車両画像を追跡処理してゆく。
【0017】
また、上記構成のカメラとして、赤外線カメラと可視画像カメラを併用することができる。赤外線カメラと可視画像カメラを併用すれば、車両追跡部の車両画像の検出処理において、昼間時間帯では可視画像カメラが撮影した可視画像を撮影画像として用いて、車両表面で反射した可視光車両画像を検出でき、夜間時間帯では赤外線カメラが撮影した赤外線画像を撮影画像として用いて車両が発する赤外線車両画像を検出できる。
つまり、昼間時間帯では可視画像を用いた方が画像認識の精度が上がり、夜間時間帯では赤外線画像を用いた方が画像認識の精度が上がるので、双方の良い方を選択してハイブリッド型で画像認識を行うことができる。
【0018】
なお、赤外線カメラと可視画像カメラを併用する構成では、車両画像データベースには、あらかじめ車種ごとに所定視野に相当する角度から撮影される昼間時間帯における当該車両表面で反射した可視光車両画像データと、夜間時間帯における当該車両が発する赤外線車両画像データを格納したデータの両方を備えたものであることが好ましい。
そのように昼間の可視光車両画像データと夜間の赤外線車両画像データの両方のデータを利用することにより、予測部による撮影画像中に現れる時刻と車両画像に該当する領域の予測において、昼間時間帯では可視光車両画像データを利用し、夜間時間帯では赤外線車両画像データを利用でき、車両追跡部の追跡処理の速度および精度が向上する。
【0019】
次に、通過車両検知部の工夫について述べる。
本発明では、通過車両検知エリアとして第1の通過車両検知エリアと第2の通過車両検知エリアを設定し、通過車両検知部として、第1の通過車両検知エリアに第1の通過車両検知部を備え、第2の通過車両検知エリアに第2の通過車両検知部を備えた構成とすることができる。
第1の通過車両検知部および第2の通過車両検知部を備えることにより、車両データ推定部において第1の通過車両検知部および第2の通過車両検知部で得られた各々のデータと、第1の通過車両検知エリアと第2の通過車両検知エリアの位置関係(離隔距離)を基に、車両の走行速度データと、車長などの車両形状データを推定することができる。
【0020】
なお、通過車両検知部の第1の通過車両検知部および第2の通過車両検知部としては、レーザー光を道路に照射してその反射光を検出するいわゆるレーザー式車両検知装置を採用することができる。また、道路を通過する車両により埋設コイルに生じる電流を検出するいわゆるループコイル式のループコイル式車両検知装置を採用することもできる。
【0021】
第1の通過車両検知部および第2の通過車両検知部のスキャン速度が車両の速度に比べて十分速いものであれば、車両データ推定部における推定処理において、車両速度Vは、第1の通過車両検知エリアへの車両の進入時刻T11と第2の通過車両検知エリアへの車両の進入時刻T21との差分と第1の通過車両検知エリアと第2の通過車両検知エリア間の距離Dから車両の速度Vを推定できる。
また、車両車長Lは、第1の通過車両検知エリアへの車両の進入時刻T11と離脱時刻T12との差分と上記で得た車両の速度Vより車両の車長Lを推定することができる。
なお、道路の車線は複数車線ある場合が多く、運転者が車両走行において車線を変更することも多いが同じ車線の走行を継続することも多く、車線ごとの推定も有効である。そこで、車両データ推定部は、第1の通過車両検知エリアおよび第2の通過車両検知エリアを道路のレーンに応じたレーンゾーンに分けた推定処理を行うことが好ましい。
この場合、車両データ推定部は推定処理において、第1の通過車両検知部および第2の通過車両検知部のデータをレーンゾーンに対応する範囲ごとに分割処理し、複数のレーンゾーンごとに通過する車両について、車両の数、車両毎の速度、車両毎の車長を推定する。
【0022】
次に、本発明にかかる交通検知方法は、通過車両検知エリアを通過する車両の検知する通過車両検知処理を実行し、前記通過車両検知処理で得られたデータを基に前記車両の走行データと車両形状を推定する車両データ推定処理を実行し、前記通過車両検知エリアおよび前記通過車両検知エリア上の前記車両を所定視野からカメラで撮影して撮影画像を得る撮影処理を実行し、前記撮影処理で得た前記撮影画像中から前記車両画像を検出して走行する前記車両を追跡する車両追跡処理を実行し、前記車両データ推定処理において推定した前記車両の前記走行データと前記車両形状と、前記カメラの位置関係を基に、前記車両が前記撮影画像中に現れる時刻と前記車両画像に該当する領域を予測する予測処理を実行し、前記車両追跡処理における前記撮影画像中の前記車両画像の検出において、前記予測処理で予測した前記車両が現れる前記時刻と前記車両画像に該当する領域を参照して前記車両の検出を支援する車両検出支援処理を実行することを特徴とする交通検知方法である。
また、本発明の交通検知プログラムは、通過車両検知エリアを通過する車両を検知する通過車両ステップと、前記通過車両検知ステップで得られたデータを基に前記車両の走行データと車両形状を推定する車両データ推定ステップと、前記通過車両検知エリアおよび前記通過車両検知エリア上の前記車両を所定視野からカメラで撮影した撮影画像を得る撮影画像取得ステップと、前記撮影画像取得ステップで得た前記撮影画像中から前記車両画像を検出して走行する前記車両を追跡する車両追跡ステップと、前記車両データ推定ステップで推定した前記車両の前記走行データと前記車両形状と、前記カメラの位置関係を基に、前記車両が前記撮影画像中に現れる時刻と前記車両画像に該当する領域を予測する予測ステップを備え、前記車両追跡ステップにおける前記撮影画像中の前記車両画像の検出処理において、前記予測ステップで予測した前記車両が現れる前記時刻と前記車両画像に該当する領域を参照して前記車両の検出を支援する車両検出支援ステップを備えたことを特徴とする交通検知プログラムである。
【発明の効果】
【0023】
上記構成により、本発明の交通検知システムは、カメラ撮影画像を基に撮影画像中に映り込んだ走行する車両を追跡するにあたり、車両検出を行って車両を特定するだけでなく、通過車両検知部で車両の車長などから車両データ推定部が車両種別(乗用車、軽自動車、軽トラック、小型トラック、大型トラック、特殊車両など)と車両形状を推定するとともに、予測部の車両毎の速度をもとにした予測により当該車両の撮影画像中に現れる時刻と車両画像に該当する領域を予測し、車両データ推定部の車両種別および車両形状と、予測部の予測結果と、車両追跡部による車両の検出結果による車両追跡結果を突き合わせることにより、車両追跡部による車両追跡処理の速度及び精度を向上させることができる。また、予測部の予測結果と、車両追跡部による車両の検出結果による車両追跡結果の照合により、当該車両が予測通りの通常走行なのか、予測外の異常走行または異常事態との遭遇があったのかを推測することができる。
【図面の簡単な説明】
【0024】
図1】実施例1にかかる交通検知システム100を配置した道路上でのデータ収集について簡単に説明した図である。
図2】実施例1にかかる本発明の交通検知システム100の第1の構成例を簡単に示した図である。
図3】1台の車両300の通過があった場合における、第1の通過車両検知部110-1および第2の通過車両検知部110-2での信号検出を示す図である。
図4】第1の通過車両検知部110-1および第2の通過車両検知部110-2で検出された信号を時系列に並べたものである。
図5】第1の通過車両検知部110-1および第2の通過車両検知部110-2のスキャンデータから3つの略扇状のレーンゾーンを設定した例を示す図である。
図6】予測部140による追跡車両の走行予測について簡単に説明した図である。
図7】予測部140による追跡車両のカメラ撮影画像に映り込む車両画像の予測処理の結果表示例を簡単に示す図である。
図8】カメラ撮影装置120によるカメラ撮影画像および車両追跡部150による車両ごとの認識結果を示す図である。
図9】実施例2にかかる本発明の交通検知システム100aの第2の構成を簡単に示す図である。
図10】予測部140aが装備する車両画像データベース中の車両画像データを簡単に示した図である。
図11】予測部140aによる追跡車両のカメラ撮影画像に映り込む車両画像の予測処理の結果表示例を簡単に示す図である。
図12】実施例2におけるカメラ撮影画像と車両追跡部150aの車両追跡処理を簡単に示した図である。
図13】車両エッジ形状モデル化部153を用いた車両エッジモデルの作成、その後の車両認識部における車両認識処理を簡単に示した図である。
図14】実施例3にかかる本発明の交通検知システム100bの第3の構成を簡単に示す図である。
図15】予測部140bが装備する車両画像データベース141中の車両画像データを簡単に示した図である。
図16】予測部140bによる追跡車両のカメラ撮影画像に映り込む車両画像の予測処理の結果表示例を簡単に示す図である。
図17】実施例3における赤外線カメラ撮影画像と車両追跡部150bの車両追跡処理を簡単に示した図である。
図18】夜間時間帯における車両エッジ形状モデル化部153を用いた車両エッジモデルの作成、その後の車両認識部152における車両認識処理を簡単に示した図である。
図19】昼間時間帯および夜間時間帯の可視光カメラ撮影画像の例、さらに、赤外線カメラ装置で撮影した夜間時間帯の赤外線カメラ撮影画像の例を示す図である。
図20】実際の或る道路において、赤外線カメラ装置120Bの設置個所から直線道路の先方まで視野角を確保した場合の赤外線カメラ画像例を示す図である。
図21】当該道路の或る時刻における赤外線カメラ画像例を示す図である。
図22図21で示した赤外線カメラ装置のアングルで撮影した赤外線撮影画像を用いて行った実験結果を示した図である。
図23】従来におけるレーザーセンサを用いた交通検知装置の例を示す図である。
【発明を実施するための最良の形態】
【0025】
以下、図面を参照しつつ、本発明の交通検知システムの実施例を説明する。ただし、本発明の範囲は以下の実施例に示した具体的な用途、形状、個数などには限定されないことは言うまでもない。
本発明の交通検知システム100の基本構成としては数パターンあり得る。ここでは実施例1として第1の構成例、実施例2として第2の構成例、実施例3として第3の構成例を示す。
以下、通過車両検知エリアについて単に道路として表現している場合がある。
【実施例0026】
実施例1として、本発明の交通検知システムの第1の基本構成例を示す。
図1は、実施例1にかかる交通検知システム100を配置した道路上でのデータ収集について簡単に説明した図である。
図1には、交通検知システム100のシステム構成のうち、第1の通過車両検知部110-1、第2の通過車両検知部110-2、カメラ装置120は図示されているが、その他の構成要素(車両データ推定部130、予測部140、車両追跡部150など)は図示されていないが、通過車両検知部110やカメラ装置120同様、構造体210に取り付けられた構成でも良く、データ通信が可能であればそれら他の構成要素は道路200から離れた遠隔地(例えば、交通管理センターなど)に設けられていても良い。
【0027】
図1は、交通検知システム100が道路上からデータを収集する道路や走行車両を簡単に示したものである。ここでは、図1に示すように道路200近辺に設置される構造体210、第1の通過車両検知エリア220、第2の通過車両検知エリア230、カメラ撮影範囲240、車両300が示されている。
なお、車両300は特に車種は問われない。また、道路200には多様なものがあり得るが、図1では一例として片道2車線のものを図示した。なお、本発明の交通検知システムは、高速道路、一般の対面交通道路、一方通行道路であっても適用可能であることは言うまでもない。
【0028】
構造体210は、本発明の交通検知システム100の少なくとも一部の構成を取り付けるための構造物であり、道路200付近に設置されている。図1の構成例では、構造体210はいわゆる道路横に立設された柱状の構造物であるが、道路を跨ぐように設けられた陸橋構造物などでも良い。
なお、交通速度取締システムなど他のシステムとの兼用であっても良く、また、夜間に道路を照らす照明機器などが併設されていても良い。
【0029】
次に、第1の通過車両検知エリア220、第2の通過車両検知エリア230は、道路200を通過する車両の進入と離脱を検出するため道路上に通過車両検知部110が設置された検出エリアである。図1の例では、通過車両検知エリアとして、第1の通過車両検知エリア220および第2の通過車両検知エリア230がある。第1の通過車両検知エリア220に対応して第1の通過車両検知部110-1が設置され、第2の通過車両検知エリア230に対応して第2の通過車両検知部110-2が設置されて通過する車両を検知する仕組みとなっている。
【0030】
次に、カメラ撮影範囲240は、道路200の構造物210などに設置されているカメラ120が所定視野から撮影する道路200上の範囲を示している。この例では、後述するように、カメラ装置120としては可視カメラ、赤外線カメラがあり得るが、それらカメラ装置120が構造物210の所定箇所の所定角度に取り付けられているので当該視野から撮影される範囲がカメラ撮影範囲240である。なお、本発明では、カメラ装置120が固定された例で説明するが、カメラ装置120に首を振る回動機構を備えた構成でも良く、その場合、カメラ装置120の首振りに合わせてカメラ撮影範囲240も振り動くこととなる。
【0031】
次に、交通検知システム100のシステム構成について説明する。
図2は、実施例1にかかる本発明の交通検知システム100の第1の構成例を簡単に示した図である。
図2に示す交通検知システム100の第1の構成(基本構成)では、車両通過検知部110、カメラ装置120、車両データ推定部130、予測部140、車両追跡部150がある。車両追跡部150が車両画像探索部151、車両認識部152を備えた構成となっている。データ通信手段は図示していないが、交通制御センターシステムとデータの送受信ができる構成となっている。
【0032】
以下、各構成要素について説明する。
通過車両検知部110は、通過車両検知エリアに進入して離脱する車両を検出するものである。この例では、第1の通過車両検知エリア220に対応して第1の通過車両検知部110-1が設置され、第2の通過車両検知エリア230に対応して第2の通過車両検知部110-2が設置されて通過する車両を検知する仕組みとなっている。
車両の通過を検出できるものであれば良く多様な装置があり得るが、代表的にはループコイル式検知装置とレーザー式検知装置がある。
【0033】
レーザー式検知装置は、レーザー光を照射するレーザー照射装置と、その反射光を受光する受光装置と、受光装置で受光した信号を出力する出力インタフェースを備え、レーザー照射光を通過車両検知エリアに対して照射し、その反射光を受光することにより進入した車両を検知するものとなっている。なお、レーザー式検知装置のレーザースキャン速度は車両300の速度Vに比べて十分速いものとする。
レーザー式検知装置の場合、第1の通過車両検知エリア220および第2の通過車両検知エリア230の位置は、第1の通過車両検知部110-1からのレーザー照射角度、第2の通過車両検知部110-1からのレーザー照射角度の調整により設定することができる。ここでは、第1の通過車両検知エリア220と第2の通過車両検知エリア230は、所定の距離D(m)だけ離れるように設定されている。
なお、図1の例では、一対の第1の通過車両検知エリア220と第2の通過車両検知エリア230が示されているが、道路200に沿って複数個所設けられていても良い。
図1の構成例では、第1の通過車両検知部110-1からのレーザー照射角度、第2の通過車両検知部110-1からのレーザー照射角度ともに、ほぼ直下付近に設定された例となっている。
【0034】
ループコイル式検知装置の場合、第1の通過車両検知エリア220の位置にループコイルである第1の通過車両検知部110-1が道路内に埋設され、第2の通過車両検知エリア230の位置にループコイルである第2の通過車両検知部110-2が埋設される。
ループコイルが直下にある道路200上を車両が通過するとそのループコイルに流れる電流の静電容量が変化し、ループコイル電流も変化する。ループコイル式検知装置はその車両通過に伴うループコイル電流の変化を捉えて車両通過を検知する。
図1の例では、レーザー式検知装置となっており、レーザー光が道路上の通過車両検知エリアに照射され、その反射光を受光することにより道路上を通過する車両を検知する。
【0035】
車両データ推定部130は、通過車両検知部110において検出されたデータから、通過した車両毎の速度、車両毎の車長、車種などの諸データを推定する部分である。
以下、車両データ推定部130による通過車両検知部110で検出した通過車両に関する諸データの推定処理を説明するが、通過車両検知部110として上記のようにループコイル電流の変化を検知するループコイル式検知装置、レーザー照射光の受光信号の変化を検知するレーザー式検知装置などがあるが、車両データ推定部130においてそれら検知信号の変化を捉えて車両の諸データを推定する点では同様である。通過車両検知部110としてレーザー式検知装置が利用されている場合の推定処理の例を説明する。
【0036】
以下、車両データ推定部130の推定処理をデータ処理の流れを追いつつ説明する。
図3は、1台の車両300の通過があった場合における、第1の通過車両検知部110-1および第2の通過車両検知部110-2での信号検出を示している。分かりやすいように側面視において簡単に示している。
図3(a)は車両300が第1の通過車両検知エリア220へ進入した直後の状態を示す図である。
図3(b)は車両300が第1の通過車両検知エリア220から離脱した直後の状態を示す図である。
図3(c)は車両300が第2の通過車両検知エリア230へ進入した直後の状態を示す図である。
図3(d)は車両300が第2の通過車両検知エリア230から離脱した直後の状態を示す図である。
図4は、第1の通過車両検知部110-1および第2の通過車両検知部110-2で検出された信号を時系列に並べたものである。
【0037】
(1)T<T11(時刻T11の直前まで)
第1の通過車両検知部110-1が照射したレーザー光は途中で遮られることなく道路200に照射され、再び道路200の表面から反射したレーザー光を第1の通過車両検知部110-1において受光する。ここで、図3(a)に示すように、第1の通過車両検知部110-1の信号であるレーザー光を照射して再び受光するまでの受光時間はt1とする。なお、第2の通過車両検知部110-2の信号である、レーザー光を照射して再び受光されるまでの受光時間はt3とする。
【0038】
(2)T=T11(時刻T11のとき)
図3(a)に示すように、時刻T11において、車両300が第1の通過車両検知エリア220へ進入したとする。第1の通過車両検知部110-1から照射されたレーザー光は車両300に遮られて車両300の表面から反射したレーザー光が第1の通過車両検知部110-1において受光される。ここで、図4に示すように、第1の通過車両検知部110-1において、レーザー光を照射してから再び受光するまでの時間はt2となったものとする。ここでt2<t1である。つまり、車両300に反射して受光されるために受光時間が短くなったわけである。
車両データ推定部130は、第1の通過車両検知部110-1から得たデータにおいて、t1であったデータがt2に変化したことが解析される。ここに、車両データ推定部130は時刻T11において第1の通過車両検知エリア220に車両300の進入があったものと推定する。
なお、第1の通過車両検知部110-1は、進行して来る車両300に対して迎えるように照射され、車両300の前面を捉えるため、第1の通過車両検知エリア220への進入は、比較的に精度良く検出することができ、時刻T11を精度よく求めやすい。
【0039】
(3)T11<T<T12(時刻T11から時刻T12までの間)
時刻T11から時刻T12までの間、図4に示すように、第1の通過車両検知部110-1から照射されたレーザー光は通過中の車両300に遮られて車両300の表面から反射したレーザー光が第1の通過車両検知部110-1において受光される。つまり、レーザー光を照射してから再び受光するまでの時間はt2が維持される。
なお、車両300の高さに応じてt2の値が変わるため、車高の高い大型車、車高の中ぐらいの普通車、車高の低い小型車などの概ねの推定も可能となる。また、実際には車両300における凹凸によってレーザーの受光時間については細かく変化するがここでは説明を簡単にするため省略する。
【0040】
(4)T=T12(時刻T12のとき)
図3(b)に示すように、時刻T12において、車両300が第1の通過車両検知エリア220から離脱したとする。第1の通過車両検知部110-1から照射されたレーザー光は車両300に遮られることなく道路200の表面から反射したレーザー光が第1の通過車両検知部110-1において受光される。つまり、レーザー光を照射してから再び受光するまでの時間がt1に戻る。ここで、図4に示すように、第1の通過車両検知部110-1において、レーザー光を照射してから再び受光するまでの時間はt1に戻っている。つまり、車両300が通過して道路200からの反射光を受光することとなり受光時間が元に戻ったわけである。
車両データ推定部130は、第1の通過車両検知部110-1から得たデータにおいて、t2であったデータがt1に変化したことを解析し、ここに、時刻T12において第1の通過車両検知エリア220から車両300の離脱があったものと推定する。
なお、第1の通過車両検知部110-1は、進行する車両300に対して照射され、車両300の離脱はその後端の切れ目を捉えるため、第1の通過車両検知エリア220からの離脱の検出は、第1の通過車両検知エリア220への進入検出よりもそのタイミングを特定しづらい場合があり、時刻T12の特定にバラツキが生じる場合がある。
【0041】
(5)T12<T<T21(時刻T12後、時刻T21までの間)
車両300が第2の通過車両検知エリア230に到達するまでの期間であり、図4に示すように、この間は第1の通過車両検知部110-1で検出されるデータの受光時間はt1、第2の通過車両検知部110-2で検出されるデータの受光時間はt3である。
【0042】
(6)T=T21(時刻T21のとき)
図3(c)に示すように、時刻T21において、車両300が第2の通過車両検知エリア230へ進入したとする。ここで、図4に示すように、第2の通過車両検知部110-2から照射されたレーザー光は車両300に遮られて車両300の表面から反射したレーザー光が第2の通過車両検知部110-2において受光され、レーザー光を照射してから再び受光するまでの時間がt4とする。ここでt4<t3である。つまり、車両300に反射して受光されるために受光時間が短くなったわけである。
車両データ推定部130は、第2の通過車両検知部110-2から得たデータにおいて、t3であったデータがt4に変化したことが解析される。ここに、車両データ推定部130は時刻T21において第2の通過車両検知エリア230に車両300の進入があったものと推定する。
なお、第2の通過車両検知部110-2は、道路直下に照射され、そこに進行する車両300の前端のエッジを捉えるため、第2の通過車両検知エリア230への進入は、比較的に精度良く検出することができ、時刻T21を精度よく求めやすい。
【0043】
(7)T21<T<T22(時刻T21から時刻T22までの間)
時刻T21から時刻T22までの間、第2の通過車両検知部110-2におけるレーザー光の受光時間はt4が維持される。
【0044】
(8)T=T22(時刻T22のとき)
図3(d)に示すように、時刻T22において、車両300が第2の通過車両検知エリア230から離脱したとする。図4に示すように、第2の通過車両検知部110-2におけるレーザー光の受光時間はt3に戻っている。つまり、車両300が通過して道路200からの反射光を受光することとなり受光時間が元に戻ったわけである。
車両データ推定部130は、第2の通過車両検知部110-2から得たデータにおいて、t4であったデータがt3に変化したことを解析し、ここに、時刻T22において第2の通過車両検知エリア230から車両300の離脱があったものと推定する。
なお、第2の通過車両検知部110-2は、道路直下に照射され、そこに進行する車両300の後端のエッジを捉えるため、第2の通過車両検知エリア230からの離脱も、比較的に精度良く検出することができ、時刻T22を精度よく求めやすい。
【0045】
(9)車両情報推定
車両データ推定部130は、上記の(1)から(8)の手順により、第1の通過車両検知部110-1による車両300の第1の通過車両検知エリア220への進入データと離脱データ、さらに、第2の通過車両検知部110-2による車両300の21の通過車両検知エリア230への進入データと離脱データを取得した後、以下の車両情報を推定する。なお、第1の通過車両検知エリア220と第2の通過車両検知エリア230間の距離Dはあらかじめ車両データ推定部130に与えておくものとする。
【0046】
(a)車両速度V
車両データ推定部130は、第1の通過車両検知エリア220への車両300の進入時刻T11と第2の通過車両検知エリア230への車両300の進入時刻T21との差分と、第1の通過車両検知エリア220と第2の通過車両検知エリア230間の距離Dから車両の速度Vを推定する。つまり下記の[数1]により推定できる。なお、ここでは、速度Vは秒速で得られるものとするが、時速への変換も容易である。
[数1]
V=D/(T21-T11)
なお、上記したように、時刻T21は精度良く検出しやすく、時刻T11も比較的精度良く検出しやすいものであるので、車両の速度Vの推定も精度良いものとして得られる。つまり、比較的特定にバラツキが生じやすいT12を用いることなく車両の速度Vの推定ができる。
【0047】
(b)車両長L
車両データ推定部130は、第1の通過車両検知エリア220への車両300の進入時刻T11と離脱時刻T12との差分、または、第2の通過車両検知エリア230への車両300の進入時刻T21と離脱時刻T22との差分と、車両300の速度Vより車両の車長Lを推定する。つまり下記の[数2]により推定できる。この例では、上記したようにそのタイミングが精度良く特定しやすい第2の通過車両検知エリア230への車両300の進入時刻T21と離脱時刻T22の差分から車両長Lを推定するものとし、比較的特定にバラツキが生じやすいT12を用いることなく車両長Lを推定する。
[数2]
L=(T12-T11)・V または L=(T22-T21)・V
【0048】
(c)車両の種別
車両データ推定部130は、上記したように、車両300の表面で反射して得られるレーザー光の受光時間t2またはt4から車両300の高さを概ね推定することも可能である。車高から、例えば、大型トラック類、中型の乗用車類、小型の軽自動車類などを推定できる。また、車長Lからも大型トラック類、中型の乗用車類、小型の軽自動車類などを推定できる。車高と車長を兼ね合わせれば、大型トラックと、中型の乗用車類および小型の軽自動車類との区別は概ね可能である。
【0049】
なお、道路200が複数レーンで構成されている場合において、効率良くレーンごとに分離して通行車両300を検出することが好ましい。つまり、第1の通過車両検知エリア220や第2の通過車両検知エリア230において、隣接するレーンをそれぞれ走行する複数の車両が存在する場合、レーンごとに分離しなければ通過検知される車両の車長が2台分まとめた車長と捉えられると正しい推定ができなくなる。そこで、道路200が複数レーンで構成されている場合は、第1の通過車両検知部110-1および第2の通過車両検知部110-2のスキャンデータをレーンごとに分離する。
【0050】
図5は、第1の通過車両検知部110-1および第2の通過車両検知部110-2のスキャンデータから3つの略扇状のレーンゾーンを設定した例を示す図である。
レーンゾーンの設定については、第1の通過車両検知部110-1および第2の通過車両検知部110-2が、レーンゾーンごとにデータを抽出して選択し、車両データ推定部130に出力する処理であっても良いし、第1の通過車両検知部110-1および第2の通過車両検知部110-2は道路の端から端まで全体をスキャンして得たデータをすべて車両データ推定部130に出力し、車両データ推定部130側において、各々のレーンゾーンに相当するデータ部分を抽出して解析する処理であっても良い。
【0051】
通過車両検知部110がレーザー式車両検知装置である場合、レーザー照射エリアをレーンゾーンごとに設定する。図5(a)に示したそれぞれの略扇状の照射角のレーザー照射光が各々のレーンをスキャンする。
通過車両検知部110がループコイル式車両検知装置である場合、ループコイルをレーンゾーンごとに埋設する。図5(b)に示したように、それぞれのレーンゾーンにループコイルを埋設し、直上を通過した車両によるループコイルの電流の変化を捉える。なお、隣接するレーンを走行する車両によっても各々のループコイルは影響を受けてループコイルに多少の電流が発生する可能性があるが、ループコイルのインピーダンスを調整し、かつ、しきい値を調整することにより、レーン直上を通過した車両による電流は捉え、隣接するレーンを通過した車両による電流はノイズ電流として除去できることが好ましい。
【0052】
車両データ推定部130は、それぞれのレーンにおけるレーザー光の反射時間を解析したり、ループコイルに発生する電流の変化を解析したりすることにより、それぞれのレーンにおける車両300の進入、離脱を検知することができる。つまり、車両データ推定部130は第1の通過車両検知部110-1および第2の通過車両検知部110-2のスキャンデータをレーンゾーンに対応する範囲ごとに分割処理して解析する。
このように、複数のレーンにおいて車両が通過しても、レーンごとに道路を通過した車両の数N、車両毎の速度V、車両毎の車長Lを推定する処理を行うことができる。
【0053】
次に、予測部140を説明する。
予測部140は、車両データ推定部130が推定した車両の走行データおよび車両形状と、カメラ装置120の位置関係を基に、車両がカメラ装置120の撮影画像中に現れる時刻と車両画像に該当する領域を予測する部分である。
(1)追跡車両の走行予測
まず、追跡車両の走行予測について述べる。
通過車両検知部110によって、車両が通過した時刻(T)と走行速度(V)と車両の車長(L)に関する数値はほぼ正確な値が得られる。
通過車両検知部110の設置個所は既知であるので、走行速度(V)で走行する追跡車両がある時刻(Tn)において、道路200上のどのあたりを走行しているか予測することができる。なお、ここでは、交差点における信号器の存在や道路分岐については考慮しないものとする。
【0054】
図6は、予測部140による追跡車両の走行予測について簡単に説明した図である。図6(a)に示すように、対象車両300が通過車両検知部110の設置個所(A地点)を通過した時刻がT1であり、また、そのときに車両データ推定部130が推定した走行速度がVであったとする。
予測部140は、あらかじめ道路200の地図データ、道路の諸データを持っているものとする。多少のカーブなどがある道路でもここでは略直線道路として図示している。予測部140は、車両データ推定部130から追跡車両の通過車両検知部110の設置個所(A地点)の通過時刻(T1)、推定の走行速度(V)を得て、図6(b)に示すように、追跡車両300がそのまま走行を継続した場合の時刻ごとの到達予測地点を計算する。この例では、時刻T2において走行予測地点はB地点であり、時刻T3において走行予測地点はC地点というように計算される。
カメラ装置120のカメラ撮影画像のアングルが固定されているとすると、カメラ撮影画像中のB地点、C地点、・・・F地点などの箇所がどこであるかは既知である。予測部140は車両追跡部150に対して、追跡車両の走行において予測される時刻とその到達地点の情報を出力することにより、車両画像探索部151の車両検出処理、車両認識部152の車両認識処理を支援することができる。
【0055】
(2)追跡車両のカメラ撮影画像に映り込む車両画像に該当する領域の予測
次に、追跡車両のカメラ撮影画像に映り込む車両画像(車両画像に該当する領域)の予測について述べる。
通過車両検知部110が検知できる信号として、車両の車長(L)はほぼ正確な数値が得られる。ここで、車両データ推定部130は車両の車長(L)が分かれば、追跡車両が大型車なのか乗用車なのかミニバンなのか軽自動車なのかと言った車両タイプの推定ができる。車両タイプの推定ができればメーカーの違いはあるが輪郭レベルのラフな車両形状は推定できる場合が多い。そこで予測部140は、車両データ推定部130が推定した輪郭レベルのラフな車両形状と、カメラ装置120が撮影したカメラ撮影画像の撮影角度に基づいて、追跡車両のカメラ撮影画像中に映り込む車両画像(車両画像に該当する領域)を予測する。
【0056】
図7は、予測部140による追跡車両のカメラ撮影画像に映り込む車両画像の予測処理の結果表示例を簡単に示す図である。上記したように、予測部140によって追跡車両の走行予測が得られている。ここでは、この例では、時刻T2において走行予測地点はB地点、時刻T3において走行予測地点はC地点、時刻T4において走行地点はD地点、時刻T5において走行地点はE地点、時刻T6において走行地点はF地点にあるよう予測されており、それぞれの地点までの距離は既知である。また、上記のとおり車両タイプの推定ができ輪郭レベルのラフな車両形状は推定できているものとすれば、その距離に応じた視野角から見た車両形状のラフな車両形状は計算により推定できる。図7の例ではB地点、C地点、D地点、E地点、F地点のカメラ撮影画像に映り込む大まかな位置とラフな車両形状の予測結果が描画された例となっている。例えば、予測部140がコンピュータグラフィックスの描画能力が装備された構成とすることも可能である。
【0057】
次に、カメラ装置120および撮影したカメラ撮影画像から車両を追跡する車両追跡部150について説明する。
カメラ装置120は、道路200に沿って1または複数台配置されている。カメラ装置120は可視光カメラ装置でも良く、赤外線カメラ装置でも良い。ここでは一例として可視光カメラ装置とする。カメラ装置120の配置数であるが、特に限定されないが、実運用上を考慮すれば、数十メートルから数百メートルごとに設置する。また、距離的なインターバルにかかわらず、高速道路であれば合流地点、登板車線、降坂車線ごとにアングルが向けられたカメラ装置120が各々配置されていることが好ましい。一般道であれば交差点には交差点から各方向に各々アングルが向けられたカメラ装置120が各々配置されていることが好ましい。
また、カメラ装置として、昼間の時間帯対応用のカメラ装置(可視光カメラ装置)と夜間時間帯対応用のカメラ装置(赤外線カメラ装置)の両方を装備しておくことも好ましいが、昼間・夜間の切り替えについては実施例3において後述する。
図8はカメラ撮影装置120によるカメラ撮影画像および車両追跡部150による車両ごとの認識結果を示す図である。ここでは例えば、図8(a)のように、カメラ装置120からのカメラ撮影画像が得られたものとする。
【0058】
車両追跡部150は、カメラ装置120のカメラ撮影画像中から車両を検出して車両ごとに認識し、車両ごとに走行を追跡処理する部分である。
車両追跡部150は、基本構成として、車両画像探索部151と車両認識部152を備えている。
【0059】
車両画像探索部151は、カメラ撮影装置120から得られたカメラ撮影画像中の車両の検出処理を行う部分である。車両画像探索部151が実行するカメラ撮影画像中の車両の検出処理は、画像処理手段として様々なアルゴリズムがあり得る。
この例では、車両の検出処理において「車両検出支援機能」を装備する。「車両検出支援機能」とは、予測部140が予測した図6に示した車両が現れる時刻(T)と、予測部140が予測した図7に示した車両画像(車両画像に該当する領域)を参照して車両画像の検出を支援するものである。また、本発明では車両追跡という観点が達成できれば良く、解析するカメラ撮影画像は動画または撮影時間間隔が短い一種の連続画像と捉えることができるので、カメラ画像間の該当箇所における画像セグメンテーション間の相関を求める方法を採用し、パターンマッチングによる相関の大きさを評価することで車両の追跡処理が可能である。
画像セグメンテーション間の相関は様々な計算式が適用できるが、ここでは一例として探索式として、以下の数式1または数式2を用いて相関を求める。
【0060】
数式1は、画像間の正規化相互相関関数の式である。ここで、IはI(u,v)ベクトルとし、Tは平均が0となるよう調整されたものとする。
数式2は、画像のゲインの変動を吸収することができる類似度の尺度であり、画像をベクトルとみなして内積を計算する式となっている。なお、ベクトルの長さ(ゲイン変動)の影響は受けない式となっている。
【0061】
【数1】
【数2】
車両画像探索部151は、上記のような画像探索により車両画像を検出する。
【0062】
次に、車両認識部152は、車両画像探索部151が検出した車両について、車両ごとに認識し、時系列にその車両を追跡してゆく。
図8(b)は、図8(a)でカメラ装置120から得られた或るカメラ撮影画像について車両画像探索部151が検出した車両ごとに認識した結果である。この画像には5台の車両が検出され、それぞれ300A、300B、300C、300D、300Eと車両ごとに認識されている。カメラ撮影画像が時系列に得られれば、車両追跡部150としてそれぞれの車両を追跡することができる。
なお、一度、車両認識部152で車両を認識すれば、同じカメラ装置120で映り込む車両の追跡は、カメラ撮影画像のコマ同士の画像セグメント間の相関を計算するパターンマッチングで効率よく車両を追跡することができる。
車両追跡部150は、車両追跡の結果を交通制御センターのシステムなどにデータ送信する。
【0063】
このように、本発明の交通検知システム100によれば、カメラ装置120で撮影したカメラ撮影画像を解析し、映り込んでいる車両を認識しながら追跡することができ、交通制御に資することができる。また、予測部140の予測結果と、車両追跡部150による車両の追跡結果との照合により、当該車両が予測通りの通常走行なのか、予測外の走行であるのかを推測することができる。さらに、交通トラブルの発生についても推測することができる。
【実施例0064】
次に、実施例2にかかる本発明の交通検知システム100aについて説明する。
図9は、実施例2にかかる本発明の交通検知システム100aの第2の構成を簡単に示す図である。
図9に示す本発明の交通検知システム100の第2の構成は、実施例1の第1の構成と同様、車両通過検知部110、カメラ装置120、車両データ推定部130、予測部140a、車両追跡部150aがあるが、予測部140aが車両画像データベース141を備えた構成であり、車両追跡部150aが車両画像探索部151、車両認識部152に加え、車両エッジモデル化部153を備えた構成となっている。第1の構成に比べて、予測部140aが予測データの中に画像中に現れる車両画像の予測結果を含めて車両追跡部150aの車両画像探索部151の検出支援を行うことと、車両追跡部150aが車両エッジモデル化153を備え、車両エッジモデルを作成してそのモデル化された車両エッジモデルを追跡する構成となっている。
ここでは、実施例1においてすでに説明した構成要素の説明は適宜省略する。
車両通過検知部110、カメラ装置120、車両データ推定部130は実施例1ですでに説明したものと同様で良い。また、予測部140aによる追跡車両の走行予測は、実施例1と同様の予測で良く、ここでは説明を省略する。
【0065】
予測部140aは、車両画像データベース141を備えている。
車両画像データベース141はあらかじめ車種ごとの車長を含む車両形状データと、当該車両の所定視野に相当する角度から撮影された車両画像データを格納したものである。この所定視野がカメラ装置120のアングルであれば、カメラ装置120で撮影される当該車両の画像が検索できることとなる。
図10は、予測部140aが装備する車両画像データベース中の車両画像データを簡単に示したものである。図10に示すように、車両画像データベース141はあらかじめ車種ごとの車長を含む車両形状データと紐づける形で、所定視野に相当する角度から撮影された画像データがデータベース化されている。つまり、予測部140aにおいて、車両データ推定部130が得た車両タイプや車長を検索キーとして車両画像データベース141を検索すれば、代表的なメーカー車種別の車両画像データが検索できるようになっている。
【0066】
予測部140aは、実施例1と同様、車両データ推定部130が推定した車両の走行データおよび車両形状と、カメラ装置120の位置関係を基に、車両がカメラ装置120の撮影画像中に現れる時刻とその車両画像を予測する部分であるが、この例では、車両画像データベース141から検索した車両画像データを取り扱う。
つまり、カメラ撮影画像に映り込む車両画像の予測処理において、予測部140aは、車両データ推定部130が推定した車両タイプや車長などのデータと、カメラ装置120が撮影したカメラ撮影画像の撮影角度に基づいて、カメラ撮影画像中に映り込む車両画像を車両画像データベース141から検索して取得する。
【0067】
図11は、予測部140aによる追跡車両のカメラ撮影画像に映り込む車両画像の予測処理の結果表示例を簡単に示す図である。この例では予測画像は、車両画像データベース141から検索した結果となっている。実施例1では、輪郭レベルのラフな車両形状について距離に応じた視野角から見たラフな車両形状が計算により推定されたが、実施例2ではカメラ撮影画像に映り込む車両画像の予測結果が車両画像データベースの検索結果として得られており、検索であるので高速処理が可能となる。
【0068】
次に、実施例2における車両追跡部150aを説明する。
この実施例2にかかる車両追跡部150aは、車両画像探索部151、車両認識部152に加えて、車両エッジ形状モデル化部153を備えている。
車両画像探索部151は、実施例1と同様であるが、この実施例2では車両画像探索部151に予測部140aから与えられる予測データは、車両がカメラ撮影画像中に現れる予測時刻と、車両画像データベースの検索結果の車両画像(車両画像に該当する領域)である予測画像である。
【0069】
図12は、実施例2におけるカメラ撮影画像と車両追跡部150aの車両追跡処理を簡単に示した図である。図12(a)に示すように、カメラ撮影画像は実施例1と同様であるが、車両追跡部150aの車両画像探索部151の車両追跡処理は、実施例1と同様、探索式として以下の数式1または数式2を用いて相関を求めるが、予測部140aが予測した図11に示した車両画像データベースの検索結果である車両画像を用いることができ、車両認識部152で車両を認識する。
なお、一度、車両認識部152で車両を認識すれば、同じカメラ装置120で映り込む車両の追跡は、カメラ撮影画像のコマ同士の相関を計算するパターンマッチングで良い。
【0070】
次に、車両エッジ形状モデル化部153は、車両画像探索部151で得た前記車両画像からそのエッジ形状をモデル化して車両エッジモデルとする部分である。車両エッジモデルを生成するメリットとしては、車両追跡部150aにおける車両追跡処理の負荷の軽減や高速化がある。一度車両画像を基に特定できた車両については、交通事故で変形しない限り車両エッジ形状は不変であるので、毎回精密な車両エッジの切り出し処理および車両画像検出処理を繰り返す必要はない。そこで、車両追跡部150aが車両エッジモデル化部153を備えた構成とし、車両画像探索部151が一度検出に成功した車両画像について、その車両エッジ形状をモデル化して車両エッジモデルとすれば、それ以降は、各々のカメラ撮影画像と車両エッジモデルとの間のパターンマッチング処理により車両検出を実行できる。
【0071】
図13は、車両エッジ形状モデル化部153を用いた車両エッジモデルの作成、その後の車両認識部における車両認識処理を簡単に示した図である。
車両画像探索部おいてカメラ装置120の画像から得た車両画像から、車両エッジモデル化部153がその車両画像のエッジ形状をモデル化した車両エッジ形状モデルデータを生成する。車両エッジモデル化部153が車両エッジ形状モデルデータを生成した後は、後続のコマのカメラ画像の認識において、車両認識部152が車両エッジ形状モデルデータを基にカメラ撮影画像とのパターンマッチング処理を行って画像に映り込んだ車両を認識して追跡してゆく。
なお、車両エッジモデル化部153が車両画像から車両エッジ形状を得る手段は特に限定されないが、様々なアリゴリズムがある。例えば、車両のエッジラインはカメラ撮影画像上での図柄の連続性や輝度の連続性や色の連続性が失われるパターンが多いためエッジを検出することは可能である。エッジ検出アルゴリズムとしては、一次微分を使った勾配法、二次微分を使ったラプラシアン法などが知られている。どのエッジ検出アルゴリズムであっても適用することができる。
【0072】
実施例2の本発明の交通検知システム100aによれば、車両画像データベースに格納されている車両画像データを用いてカメラ装置120で撮影したカメラ撮影画像を解析し、映り込んでいる車両を認識しながら追跡することができ、交通制御に資することができる。また、車両エッジ形状モデルデータを基にカメラ撮影画像とのパターンマッチング処理を行って画像に映り込んだ車両を認識して追跡してゆくことができる。
【実施例0073】
次に、実施例3にかかる本発明の交通検知システム100bについて説明する。
実施例3は、カメラ装置として、昼間の時間帯対応用のカメラ装置(可視光カメラ装置)と夜間時間帯対応用のカメラ装置(赤外線カメラ装置)の両方を装備し、昼間・夜間で車両認識処理、車両追跡処理に用いる画像を切り替える工夫を施した構成例である。
図14は、実施例3にかかる本発明の交通検知システム100bの第3の構成を簡単に示す図である。
図14に示す本発明の交通検知システム100bの第3の構成は、実施例2の第2の構成と同様、車両通過検知部110、カメラ装置120、車両データ推定部130、予測部140b、車両追跡部150bがあるが、カメラ装置120として、可視カメラ装置120Aと赤外線カメラ装置120Bを備えた構成であり、また、予測部140bの車両画像データベース141として、可視光車両画像データベース141Aと赤外線車両画像データベース141Bを備えた構成であり、また、車両追跡部150bの車両画像探索部151、車両認識部152、車両エッジモデル化部153が、昼間と夜間でパターンマッチング処理する対象画像を切り替える構成となっている。第1の構成および第2の構成に比べて、可視画像を基にした画像処理系と、赤外線画像を基にした画像処理系とを併用できる構成となっている。
【0074】
可視カメラ装置120Aは、一般のカメラ装置であり可視光の画像を捉えるカメラ装置である。
赤外線カメラ装置120Bは、物体が発する赤外線を撮影するカメラ装置であり、暗視用カメラとして普及している。
予測部140bは、実施例2と同様、車両画像データベース141を装備しているが、可視光車両画像データベース141Aに加え、赤外線車両画像データベース141Bも装備している。
赤外線車両画像データベース141Bには、あらかじめ車種ごとの車長を含む車両形状データと、当該車両の夜間時間帯に所定視野に相当する角度から赤外線カメラ装置で撮影された赤外線車両画像データを格納したものである。この所定視野が赤外線カメラ装置120Bのアングルとなっており、夜間時間帯に赤外線カメラ装置120Bで撮影される当該車両の赤外線画像が検索できることとなる。赤外線車両画像データベース141Bを装備することにより、夜間時間帯の赤外線カメラ装置120Bで撮影された赤外線画像中から映り込みが予測される車両画像に関する予測精度を向上することが期待できる。
【0075】
図15は、予測部140bが装備する車両画像データベース141中の車両画像データを簡単に示したものである。図15に示すように、可視光車両画像データベース141Aには実施例2と同様、あらかじめ車種ごとの車長を含む車両形状データと紐づける形で、所定視野に相当する角度から撮影された可視光画像データがデータベース化されている。一方、赤外線車両画像データベース141Bには、あらかじめ車種ごとの車長を含む車両形状データと紐づける形で、所定視野に相当する角度から撮影された夜間時間帯の赤外線画像データがデータベース化されている。
つまり、予測部140bにおいて、昼間時間帯であれば、車両データ推定部130が得た車両タイプや車長を検索キーとして可視光車両画像データベース141Aを検索すれば、代表的なメーカー車種別の昼間時間帯の可視光車両画像データが検索できるようになっており、また、夜間時間帯であれば、車両データ推定部130が得た車両タイプや車長を検索キーとして赤外線車両画像データベース141Bを検索すれば、代表的なメーカー車種別の夜間時間帯の赤外線車両画像データが検索できるようになっている。
【0076】
図16は、予測部140bによる追跡車両のカメラ撮影画像に映り込む車両画像(車両画像に該当する領域)の予測処理の結果表示例を簡単に示す図である。この例では予測画像は、夜間時間帯の赤外線車両画像データベース141Bから検索した結果を示している。
このように、実施例1では、輪郭レベルのラフな車両形状について距離に応じた視野角から見たラフな車両形状が計算による推定であり、実施例2では可視光カメラ撮影画像に映り込む昼間時間帯の可視光車両画像の予測結果であるが、実施例3では、赤外線車両画像データベース141Bの検索結果として得られた赤外線カメラ撮影画像に映り込む夜間時間帯の赤外線車両画像の検索結果が得られる。
【0077】
次に、車両追跡部150bを説明する。
車両追跡部150bは車両画像探索部151、車両認識部152、車両エッジモデル化部153を備えた構成となっており、第2の構成と同様であるが、昼間時間帯と夜間時間帯で車両画像を切り替えてパターンマッチングを行う。
図17は、実施例3における赤外線カメラ撮影画像と車両追跡部150bの車両追跡処理を簡単に示した図である。図17(a)に示すように、赤外線カメラ装置120Bから赤外線カメラ撮影画像が得られ、車両追跡部150cの車両画像探索部151の車両追跡処理は、実施例1や実施例2と同様、探索式として数式1または数式2を用いて相関を求めるが、予測部140bが予測した図16に示した車両画像データベースの検索結果である車両画像を用いることができるため認識精度が向上し、車両認識部152で車両を認識することができる。
なお、一度、車両認識部152で車両を認識すれば、同じ赤外線カメラ装置120Bで映り込む車両の追跡は、赤外線カメラ撮影画像のコマ同士の相関を計算するパターンマッチングで良い。
【0078】
次に、図18は、夜間時間帯における車両エッジ形状モデル化部153を用いた車両エッジモデルの作成、その後の車両認識部152における車両認識処理を簡単に示した図である。
図18に示すように、車両画像探索部151おいて赤外線カメラ装置120Bの画像から得た赤外線車両画像から、車両エッジモデル化部153がその赤外線車両画像のエッジ形状をモデル化した赤外線車両エッジ形状モデルデータを生成する。車両エッジモデル化部153が赤外線車両エッジ形状モデルデータを生成した後は、後続のコマのカメラ画像の認識において、車両認識部152が赤外線車両エッジ形状モデルデータを基に赤外線カメラ撮影画像とのパターンマッチング処理を行って画像に映り込んだ車両を認識して追跡してゆく。
【0079】
最後に、実際の画像例を示す。
図19(a)は、可視光カメラ装置120Aで撮影した昼間時間帯の可視光カメラ撮影画像の例である。図19(b)は、可視光カメラ装置120Aで撮影した夜間時間帯の可視光カメラ撮影画像の例である。
図19(a)に示すように、昼間時間帯であれば、可視光カメラ装置120Aで撮影した可視光カメラ撮影画像は、道路上を走行している車両のエッジ形状も綺麗に撮影されており、車両タイプ、車種、車両メーカーも推定できるほど十分な車両情報を得ることができることが分かる。この昼間時間帯の可視光カメラ撮影画像を用いれば、車両追跡部150におけるパターンマッチングで十分に車両を認識して追跡することができる。
【0080】
一方、図19(b)に示すように、夜間時間帯であれば、可視光カメラ装置120Aで撮影した可視光カメラ撮影画像は、道路上を走行している車両のエッジ形状がぼやけて見え、特に車両が車両後面から放つテールライトや後続車のヘッドライト光により車両の後面エッジが隠され、車両メーカーはおろか車両タイプ、車種も推定不能で十分な車両情報を得ることができないことが分かる。この夜間時間帯の可視光カメラ撮影画像を用いた場合、車両追跡部150bにおけるパターンマッチングはできず、車両追跡が困難である。
【0081】
図19(c)および図19(d)は、いずれも赤外線カメラ装置120Bで撮影した夜間時間帯の赤外線カメラ撮影画像の例である。
図19(c)および図19(d)に示すように、赤外線カメラ装置120Bで撮影した赤外線カメラ撮影画像は、夜間時間帯の赤外線画像は全体として暗いものの、むしろ赤外線を放つ物体である車両は明るく映り込んでおり、道路上を走行している車両のエッジ形状、特に、赤外線カメラ装置に対向する角度の車両の後面画像は比較的良好に見えている。少なくとも、車両タイプ、車種が推定できるほど十分な車両情報を得ることができることが分かる。この夜間時間帯では赤外線カメラ撮影画像を用いることにより、車両追跡部150におけるパターンマッチングで十分に車両を認識して追跡することができる。
【0082】
次に、赤外線カメラ撮影画像における道路上の各地点の視野角ごとの車両エッジの例を示す。
図20は、実際の或る道路において、赤外線カメラ装置120Bの設置個所から直線道路の先方まで視野角を確保した場合の赤外線カメラ画像である。図20に示すように、赤外線カメラ画像において、遠近法で見るように手前の道路部分は大きく見えているが、遠方になるにつれて道路部分が小さく見えている。
【0083】
図21は、当該道路の或る時刻における赤外線カメラ画像である。図20に示すように道路上を多数の車両が走行しているが、いずれの車両も車両の後面画像は比較的良好に見えている。
予測部140における車両画像の予測において、赤外線車両画像データベース141Bには、あらかじめ車種ごと図20に示した赤外線カメラ装置120Bのアングルから夜間時間帯に赤外線カメラ装置で撮影された赤外線車両画像データが蓄積されておれば、当該車両の赤外線画像が検索できることとなる。予測部140bは図17で示したような夜間時間帯の赤外線画像中での映り込みが予測される赤外線車両画像を作成することができる。車両追跡部150bが図21の赤外線撮影画像と、予測部140bが予測した映り込みが予測される赤外線車両画像とをパターンマッチングすることにより撮影画像のコマごとに車両を認識して特定車両を追跡することができる。
【0084】
夜間時間帯における車両追跡実験を行った。
図22は、図20で示した道路において図21で示した赤外線カメラ装置のアングルで撮影した赤外線撮影画像を用いて行った実験結果を示した図である。
追跡は図20(b)で示した20mから170mまでの距離とした。
実験中に車両が197台通過した。つまり、追跡対象車両は197台である。
各々の車両について20mから170mにわたり車両追跡処理を実行した結果、図22に示す結果が得られた。この実験では車両追跡部150bが正しく追跡に成功した車両は187台であった。
【0085】
図22の実験結果に示すように、20m付近の車両追跡初期段階の追跡成功率は80%余りであるが、25m付近に至るまでに徐々に追跡成功率が増えている。これは、大型車など大きな車両形状モデルを当てはめる場合に全体が見える場所が前後するからだと推測される。25m付近で最高の追跡成功率が出ているが、追跡初期に追跡に失敗している事例が約5%程度存在している。これは、後続に大型車があり、前方の小型車と比較的車間距離が短い状態で走行し、後続の大型車に前方の小型車の一部が覆われてパターンマッチングできないためと考えられる。
100m付近から徐々に追跡成功率が数パーセント低下しているが、これは、後続車の隠蔽などによって追跡不能となるケースと考えられる。170mで急激に追跡成功率が落ちているのは170mで追跡を終了するという条件設定をしたためである。
【0086】
以上より、この実験結果では、後続車の隠蔽などの影響がない場合は30m~130mぐらいの距離であればほぼ確実に車両追跡ができることが分かる。また、失敗もあり得るが、は30m~170mまでは比較的良好な車両追跡可能な距離と言える。また、後続車の隠蔽などの影響がある場合でも30m~50mぐらいの距離であれば車両追跡可能であると言える。
【0087】
実施例3の本発明の第3の構成の交通検知システム100bによれば、昼間時間帯では可視光車両画像データベース141Aに格納されている可視光車両画像データを用いて可視光カメラ装置120Aで撮影した可視光カメラ撮影画像を解析し、映り込んでいる車両を認識しながら追跡することができ、一方、夜間時間帯では赤外線車両画像データベース141Bに格納されている赤外線車両画像データを用いて赤外線カメラ装置120Bで撮影した赤外線カメラ撮影画像を解析し、映り込んでいる車両を認識しながら追跡することができ、昼間時間帯、夜間時間帯を問わず、画像認識精度が向上し、交通制御に資することができる。
【産業上の利用可能性】
【0088】
本発明の交通検知システムの交通検知システムは、カメラ撮影画像をもとに高速道路や一般道を通過する車両を追跡することができる交通検知システムに広く適用することができる。
【符号の説明】
【0089】
100 交通検知システム
110 通過車両検知部
120 カメラ装置
120A 可視カメラ装置
120B 赤外線カメラ装置
130 車両データ推定部
141 車両画像データベース
141A 可視光車両画像データベース
141B 赤外線車両画像データベース
132 カメラ撮影画像選択部
140 予測部
150 車両追跡部
151 車両画像探索部
152 車両認識部
153 車両エッジモデル化部
200 道路
210 第1の車両検知エリア
220 第2の車両検知エリア
230 カメラ撮影エリア
240 構造体
300 車両
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23