(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-05-08
(45)【発行日】2024-05-16
(54)【発明の名称】衝突前アラートを提供するためのマルチスペクトルシステム
(51)【国際特許分類】
G08G 1/16 20060101AFI20240509BHJP
G06T 7/593 20170101ALI20240509BHJP
G06T 7/00 20170101ALI20240509BHJP
【FI】
G08G1/16 C
G06T7/593
G06T7/00 650B
(21)【出願番号】P 2020557022
(86)(22)【出願日】2019-01-07
(86)【国際出願番号】 IL2019050034
(87)【国際公開番号】W WO2019135246
(87)【国際公開日】2019-07-11
【審査請求日】2022-01-07
(32)【優先日】2018-01-08
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】520246560
【氏名又は名称】フォーサイト オートモーティブ リミテッド
(74)【代理人】
【識別番号】100092783
【氏名又は名称】小林 浩
(74)【代理人】
【識別番号】100120134
【氏名又は名称】大森 規雄
(74)【代理人】
【識別番号】100147762
【氏名又は名称】藤 拓也
(74)【代理人】
【識別番号】100104282
【氏名又は名称】鈴木 康仁
(72)【発明者】
【氏名】シボニ,ハイム
(72)【発明者】
【氏名】エルバズ,ドロール
(72)【発明者】
【氏名】シュクリアール,ローマン
(72)【発明者】
【氏名】エルキン,エラザール
【審査官】佐々木 佳祐
(56)【参考文献】
【文献】特開2004-243787(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/00-99/00
G06T 7/593
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
衝突前アラートを提供するためのマルチスペクトル車両システムであって、
a. 立体視用赤外線(IR)センサの第1の対および可視光(VL)センサの第2の対であって、前記第1および第2の対のそれぞれのセンサは、相互視野から獲得された対応する画像ストリームを提供し、同期されて立体視を提供する、立体視用赤外線(IR)センサの第1の対および可視光(VL)センサの第2の対と、
b. ステレオデータ融合モジュールであって、
b.1) 前記相互視野内の物体を検出するために、2つの前記対のために前記同期された画像ストリームに関連するデータストリームを相互に処理し、
b.2) 前記相互に処理されたデータに基づいて、前記検出された物体までの推定距離を計算するためのデータ融合モジュールと、
c. 異なる位置から三次元シーンを見る前記第1の対及び前記第2の対によりキャプチャーされる重複エリア上のマッチングポイントのセットを計算し、前記計算されたマッチングポイントを用いて、第1の前記2つのセンサの投影画像空間を第2の前記2つのセンサの投影画像空間に変換するホモグラフィーを計算するように構成された自動キャリブレーションモジュールと、
d. 前記センサの2つの対と、前記システムが取り付けられた車両に設けられた携帯電話またはインフォテインメントシステムとの間の通信を可能にするためのセルラーベースの通信モジュールであって、前記携帯電話またはインフォテインメントシステムのプロセッサは専用のアプリケーションを実行し、前記専用のアプリケーションはバックグラウンドアプリケーションであり、前記通信モジュールは、
d.1) ステレオデータ融合システムおよび前記自動キャリブレーションモジュールと共に他の車両を検出するために、前記車両の付近を監視し、
d.2) 前記車両に対する前記他の車両のそれぞれの速度および進行方位角を計算し、
d.3) 前記車両の速度、および前記他の車両のそれぞれの前記計算された速度および進行方位角に基づいて、1以上の前記他の車両が前記車両との衝突の経路の中にあるときにはいつでも、前記車両のドライバーにアラートを提供するように構成されている、
マルチスペクトル車両システム。
【請求項2】
前記自動キャリブレーションモジュールは、異なる位置から三次元シーンを見る両方のセンサの光軸が平行である間に、前記計算されたマッチングポイントに関連する視差計算およびエピポーラ幾何に基づいて、前記立体視の3D深度マップを再構築するように構成される、請求項1に記載のマルチスペクトル車両システム。
【請求項3】
前記センサの各対に対して、前記センサの前記対から画像を受け取るように構成される、対応するビルトインテスト(BIT)ユニットであって、前記対応するビルトインテスト(BIT)ユニットは、前記受け取った画像の品質が既定の閾値未満であるかを決定し、前記既定の閾値未満の画像品質を有する前記センサのインジケータを前記ステレオデータ融合モジュールに転送する、対応するビルトインテスト(BIT)ユニットをさらに備える、請求項1に記載のマルチスペクトル車両システム。
【請求項4】
前記センサのそれぞれに対して、モノ比較モジュールをさらに備えるマルチスペクトル車両システムであって、前記モノ比較モジュールは、
i. 前記ステレオデータ融合モジュールから出力された処理データと、対応する獲得した画像ストリームに関連するデータとを比較して、第1の比較データインジケータを生成するステップと、
ii. 同じ対のセンサの他のセンサに関連づけられた前記モノ比較モジュールにより生成された第1の比較データインジケータと、前記ステップiにおいて生成された第1の比較データインジケータとを比較して、第2の比較データインジケータを生成するステップと、を実行可能である、
請求項3に記載のマルチスペクトル車両システム。
【請求項5】
前記ステレオデータ融合モジュールから出力された処理データを、モノ比較モジュールの各々により生成された前記第2の比較データインジケータと集計するように構成された追加データ融合モジュールをさらに備える請求項4に記載のマルチスペクトル車両システム。
【請求項6】
前記検出された物体までの平均距離の出力を表す出力を前記追加データ融合モジュールから受け取り、1以上の前記他の車両が前記車両との衝突の経路の中にあるときにはいつでも、前記通信モジュールを介して応答してアラートを出力するように構成された決定モジュールをさらに備える請求項5に記載のマルチスペクトル車両システム。
【請求項7】
歪められていない、適当なホモグラフィーによる変換の後に修正された、および同期された2つの画像を前記自動キャリブレーションモジュールから受け取り
、視差マップを生成するように構成された視差モジュールをさらに備える請求項2に記載のマルチスペクトル車両システム。
【請求項8】
a. 前記視差マップを受け取り、ピクセル毎の距離を提供するための距離測定モジュールと、
b. グランド推定器モジュールであって、前記グランド推定器モジュールは、キャリブレートされ、同期された画像とともに、前記視差マップを受け取り、グランド平面セグメンテーションを提供する、グランド推定器モジュールと、
c. クラスタリングモジュールであって、前記クラスタリングモジュールは、
前記視差マップ
およびグランド平面フィッティングを受け取り、前記画像ストリームから障害物を抽出する、クラスタリングモジュールと、
d. トラッキングモジュールであって、前記トラッキングモジュールは、前記視差マップ、障害物のリスト、ジャイロから出力された値であるジャイロ座標、および車両速度を受け取り、すべてのトラッキングされる障害物のための構造体のアレイを提供する、トラッキングモジュールと、
をさらに備える、請求項7に記載のマルチスペクトル車両システム。
【請求項9】
前記ステレオデータ融合モジュールは、方向指示器ステータス、IR画像BITステータス、VL画像BITステータス、前方の障害物に関する距離、ならびに障害物座標および大きさを受け取り、次の処理されたデータ、すなわち方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに前記障害物までの距離のデータを、前記モノ比較モジュールのそれぞれに出力する、請求項4に記載のマルチスペクトル車両システム。
【請求項10】
前記BITユニットは、少なくとも以下のテスト:
a. 前記受け取った画像の質
b. GLヒストグラムを用いる前記受け取った画像のブライトネス
c. 前記車両のフロントガラス上の染みによる部分的な閉塞を識別
d. カラーヒストグラムを用いる異常なチャネルの検出
e. 同期を検証するためのタイムスタンプ検証
を実行可能である、請求項3に記載のマルチスペクトル車両システム。
【請求項11】
キャリブレーションが、
a) 指定されたターゲットに対して初期キャリブレーションを実施するステップであって、前記指定されたターゲットは、車両の前に設置されており、2つの独立した左及び右カメラが前記車両の上に据え付けられている、ステップと、
b) それぞれの前記カメラの光軸および向きに関してそれぞれの前記カメラの向きを計算するステップと、
c) 加速ロバスト特徴(SURF)アルゴリズムを使用して前記マッチングポイントを見出すステップと、
d) マッチングポイントのセットからの異常値
、および初期基礎行列を精緻
にするステップと、
e) 反復基礎行列推定を最小化によって実施するステップと、
f) エピポーラ幾何を使用して、左ホモグラフィーおよび右ホモグラフィーの初期計算を実施するステップと、
g) 前記カメラの内因性のパラメーター、中心ポイント修正、Wオフセットを使用することによって、最良のホモグラフィーを反復して計算するステップと、
h) フレームの完全なセット上で有効な、前記ホモグラフィーに対する最良にフィットした内因性のパラメーターを推定するステップと、
i) 前記左カメラおよび右カメラによってキャプチャーされる重複エリア上の前記マッチングポイントのセットを計算するステップと、
j) 重複した前記マッチングポイントを使用して、両方の前記カメラの画像空間を変換する前記ホモグラフィーを計算するステップと、
k) 前記車両が移動していないたびに、キャリブレーションプロセスを定期的に繰り返すステップと、
によって実施され、
前記Wオフセットは、それぞれの前記カメラにおける、
それぞれのカメラのセンサの中心と
それぞれのカメラの光軸との間の距離偏差である、
請求項1に記載のマルチスペクトル車両システム。
【請求項12】
前記視差モジュールは、
a) Census相関関係を使用して初期コスト関数を計算するステップと、
b) キャリブレーション結果に基づいて、低減された度数でセミグローバルブロックマッチング(SGBM)アルゴリズムを実施するステップと、
c) 前記画像を垂直方向のストライプにスプリットし、ストライプ毎に前記SGBMアルゴリズムを計算するステップと、
d) すべてのストライプからのグローバルフィットを実施して、グローバル視差マップを生成するステップと、
e) 平均化適応的メジアンフィルターを適用しながら、前記左ステレオ画像の上でステレオセグメンテーションを計算し、テクスチャーマップフィッティングを追加するステップと、
によって、視差マップを生成する、請求項7に記載のマルチスペクトル車両システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、交通安全の分野に関する。より具体的には、本発明は、最小車間距離(headway)の保持違反、居眠り、または集中力の欠如から結果として生じる、自動車事故を回避するためにアラートを提供するための装置に関する。
【背景技術】
【0002】
移動している車両と前方の次の車両との間に安全な車間距離を保持することは、重大な認知的タスクである。不十分な車両車間距離に起因するクラッシュは、すべてのクラッシュのかなりの部分を占めている(米国では29%を超えている)。多くのケースでは、最小車間距離の保持違反は、玉突き衝突を引き起こし、玉突き衝突では、多くの車両が巻き込まれる。通常、停止することを決定したドライバーは、ブレーキペダルを踏んで車両にブレーキをかけ始めた後に初めて、ブレーキライトを起動させるので、そのような玉突き衝突が起こる。結果として、後方の車(「後続の車両」)の中のドライバーは、(運転速度に応じて)比較的に遅過ぎる状態で視覚的なアラートを得る。その理由は、ドライバーの反応時間(アラートを得てからブレーキペダルを踏んで後続の車両をブレーキさせ始めるまでに要する時間)が約0.75秒であるからである。たとえば、車速度が90Km/hである場合には、反応時間の間に、後続の車両は18.75m移動する。この距離は、当然のことながら、合計のブレーキ距離から差し引かれ、したがって、衝突は回避することができない。
【0003】
また、多くの事故は、移動車線の中央からドリフトし、他の車線に進入し、路肩までも通過するドライバーによって引き起こされる。したがって、そのような危険なシナリオを識別して防止することができるシステムが非常に望まれている。
【0004】
米国特許出願公開第2015/0302606号明細書は、車両と物体との間の起こり得る衝突のインディケーションを提供するためのシステムを開示しており、それは、処理デバイスを含み、処理デバイスは、カメラから複数の画像を受け取り、複数の画像の中の物体および車線マーキングを識別するように構成されている。複数の画像が、物体の移動および物体に関連付けられる車線位置を示す情報を決定するために使用される。処理デバイスは、物体の移動を示す情報に基づいて、および、物体に関連付けられる車線位置に基づいて、車両および物体が衝突コースの上にあるかどうかを決定する。
【0005】
しかし、上記に説明されているすべての方法は、悪い天候条件および照明条件の下でも車両同士の間のまたは車両と物体(それは障害物であると考えられる)との間の差し迫った衝突の危険なシナリオを検出するという問題に対して、満足のいく解決策をまだ提供していない。
【発明の概要】
【発明が解決しようとする課題】
【0006】
したがって、本発明の目的は、最小車間距離の保持違反に起因する、または、無認識に起因する、車両同士の間のまたは車両と物体との間の差し迫った衝突の危険なシナリオを連続的におよび自動的に検出するための方法および装置を提供することである。
【0007】
したがって、本発明の目的は、非常に限られた視界の状態においても、ならびに/または、悪い天候条件および照明条件の下で、危険なシナリオを連続的におよび自動的に検出するための方法および装置を提供することである。
【0008】
本発明の他の目的および利点は、説明が進むにつれて明らかになるであろう。
【課題を解決するための手段】
【0009】
衝突前アラートシステムを提供するためのマルチスペクトル車両システムであって、マルチスペクトル車両システムは、
a. 2対の立体視用赤外線(IR)センサおよび可視光(VL)センサ(たとえば、CMOS可視光カメラなど)であって、これらのセンサのそれぞれは、相互視野からの獲得された画像ストリームを提供し、獲得された画像ストリームは、立体視を提供するために同期される、2対の立体視用赤外線(IR)および可視光(VL)センサと、
b. データ融合モジュールであって、
b.1) 視野内の物体を検出するために、データストリームを相互に処理し、
b.2) 検出される物体までの距離を計算する
ためのデータ融合モジュールと、
c. センサと車両の携帯電話/インフォテインメントシステムとの間の通信を可能にするためのセルラーベースの通信モジュールであって、このモジュールは、専用のアプリケーションを実行し、専用のアプリケーションは、
c.1) 同様のシステムを有する他の車両を検出するために、車両の付近を監視し、
c.2) 他の車両のそれぞれの速度および進行方位角を計算し、
c.3) 計算および車両の速度に基づいて、同様のシステムを有する他の車両が車両との衝突の経路の中にあるときにはいつでも、車両のドライバーにアラートを提供する
ように適合されているバックグラウンドアプリケーションである、セルラーベースの通信モジュールと
を備える、マルチスペクトル車両システムである。
【0010】
1つの態様では、マルチスペクトル車両システムは、
a. IRおよびVLステレオ検出モジュールであって、IRおよびVLステレオ検出モジュールのそれぞれは、両方のセンサの光軸が平行である間に、視差計算およびエピポーラ幾何に基づいて、立体視の3D深度マップを再構築するための自動キャリブレーションモジュールから構成されている、IRおよびVLステレオ検出モジュールと、
b. 視差モジュールであって、視差モジュールは、2つの歪められていない(半径方向および接線方向)、修正された(適当なホモグラフィーによる変換後の)、および同期された画像を受け取り、稠密かつ精緻な視差マップを生成する、視差モジュールと、
c. 視差マップを受け取り、ピクセル毎の距離を提供するための距離測定モジュールと、
d. グランド推定器(GroundEstimator)モジュールであって、グランド推定器モジュールは、キャリブレートされ、同期された画像とともに、稠密かつ精緻な視差マップを受け取り、稠密なグランド平面セグメンテーションを提供する、グランド推定器モジュールと、
e. クラスタリングモジュールであって、クラスタリングモジュールは、稠密かつ精緻な視差マップ、V-視差マップ、およびグランド平面フィッティングを受け取り、画像ストリームから障害物を抽出する、クラスタリングモジュールと、
f. トラッキングモジュールであって、トラッキングモジュールは、稠密かつ精緻な視差マップ、障害物のリスト、ジャイロ座標、および車両速度を受け取り、すべてのトラッキングされる障害物を含有する構造体のアレイを提供する、トラッキングモジュールと、
g. 障害物検出モジュールであって、障害物検出モジュールは、障害物のリストおよび速度、ジャイロ座標、車速度、およびグランド平面フィッティングを受け取り、物体IDおよび特質、ならびに、衝突までの推定時間を提供し、障害物が重大な経路の中に見出されるときにはいつでも、および、相関される速度にしたがったブレーキ距離が障害物までの範囲よりも短い場合には、重大な障害物インディケーションを提供する、障害物検出モジュールと、
h. ステレオ融合モジュールであって、ステレオ融合モジュールは、方向指示器ステータス、IR画像BITステータス、VL画像BITステータス、前方の障害物に関する距離測定(IRセットによって計算される)、前方の障害物に関する距離測定(VLセットによって計算される)、障害物座標およびサイズ(IRおよびVLセットによって計算される)を受け取り、方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに、障害物までの距離のデータを、カメラモノモジュールのそれぞれに出力する、ステレオ融合モジュールと、
i. 聴覚的な/視覚的な/触覚的なインディケーションをユーザに提供するための決定モジュールと
を備える(以下、精緻を高密度ともいい、精緻を洗練ともいう)。
【0011】
マルチスペクトル車両システムは、
a. IRセンサからの距離、障害物分類、車線逸脱インディケーション、およびラインタイプを受け取ることによって、ならびに、カメラによって計算される距離を平均することによって、分類タスクの信頼性のレベル、および、車線逸脱インディケーションの信頼性のレベルを増加させるためのIRモノ比較モジュールと、
b. VLセンサからの距離、障害物分類、車線逸脱インディケーション、およびラインタイプを受け取ることによって、ならびに、カメラによって計算される距離を平均することによって、分類タスクの信頼性のレベルおよび車線逸脱インディケーションの信頼性のレベルを増加させるためのVLモノ比較モジュールと
をさらに備え得る。
【0012】
マルチスペクトル車両システムは、モノ+ステレオ融合モジュールをさらに備えてもよく、モノ+ステレオ融合モジュールは、ステレオ融合モジュールから、方向指示器ステータス、障害物座標、ステレオセットに応じたサイズおよび境界ボックス、障害物までの距離、カメラ/画像ステータスを受け取り、ステレオ融合モジュールおよびモノ比較モジュールからの結果を集計し、すべてのインディケーションからの平均距離、車線逸脱決定、および障害物検出決定を出力する。
【0013】
カメラのそれぞれは、セットの中の他のカメラが故障している場合、冗長的であるように適合され得る。
【0014】
カメラのそれぞれは、車両の中のカメラモジュールの独立した設置を可能にする自動キャリブレーションモジュールを有し得る。
【0015】
マルチスペクトル車両システムは、非線形フィッティングおよび適応的グランドティルティングに依存するグランド推定器をさらに備え得る。
【0016】
画像獲得周波数は、車両の速度に相関し得る。
【0017】
マルチスペクトル車両システムは、画像ビルトインテスト(BIT)モジュールをさらに備えることが可能であり、画像ビルトインテスト(BIT)は、少なくとも、
a. 画像獲得(不合格/合格)
b. GLヒストグラム(画像ブライトネス/画像ダークネス)
c. 部分的な閉塞(フロントガラス上の染みを検出する)
d. カラーヒストグラム(異常なチャネルを検出する)
e. 同期を検証するためのタイムスタンプ検証
のテストを実施することができる。
【0018】
マルチスペクトル車両システムは、それぞれのフレーム毎の車両の正確な進行方位(heading)を取得するためのジャイロをさらに備えてもよく、それによって、車両の前に存在しない障害物を無視する。
【0019】
車両は、
- 速度、
- 車線逸脱を検出するための方向指示器状態
の入力うちの1つまたは複数を提供することが可能である。
【0020】
専用のアプリケーションは、両方のセンサの光軸が平行である間に使用され得るエピポーラ幾何に依存し、視差計算に基づいて、深度マップを提供し得る。
【0021】
障害物までの距離は、2つの立体セット間の平均として計算され得る。
【0022】
センサのうちの1つが故障している場合には、残りのモノモジュールが、ワーキングセットにしたがって、距離を受け取り得る。
【図面の簡単な説明】
【0023】
【
図1】本発明によって提案されるシステムのアーキテクチャを示す図である。
【発明を実施するための形態】
【0024】
本発明は、事故を回避するシステムおよび方法に関する。最小車間距離の保持違反に起因する、または、無認識に起因する、車両同士の間のまたは車両と物体との間の差し迫った衝突の危険なシナリオが、非常に限られた視界の状態においても、任意の条件の下で、および/または、厳しい天候条件の下で、自動的におよび正確に検出される。システムは、カメラなどのような2対のセンサを使用する。一方の対は、可視光(VL)センサを含み、他方の対は、赤外線(IR)センサを含む。両方の対から獲得される画像が、立体視を取得するために相互に処理され、立体視は、はるかに良好な距離推定および検出能力を可能にする。
【0025】
本発明によって提案されるシステムは、2つの重要な特徴を有しており、それらは、運転安全を増加させるために必須であり、それは、視線検出能力および視界外衝突前アラートを提供する能力である。
【0026】
視線検出
提案されるシステムは、マルチスペクトルビジョン層を含み、マルチスペクトルビジョン層は、4つのカメラからデータストリームを受け取り、4つのカメラは、1対の立体視用(熱)赤外線(IR)カメラおよび1対の可視光(VL)カメラから構成されている。それぞれの対は、人工モジュールとして動作し、人工モジュールは、人間の奥行き知覚の生物学的なメカニズムを模倣および強化する。両方の対から受け取られたデータストリームは、データのシームレス融合を提供するように処理され、最大精度が取得されるようになっている。赤外線カメラおよび可視光カメラの両方の組み合わせは、システムがすべての天候条件および照明条件(たとえば、真っ暗闇、雨、ヘイズ、霧、およびグレアなど)の下で完全に動作的になることを可能にする。
【0027】
視界外衝突前アラート
また、提案されたシステムは、2対のセンサと携帯電話/インフォテインメントシステム(IoS/Android)との間のセルラーベースの通信を含む。システムは、専用のアプリケーションを実行し、専用のアプリケーションは、車の速度に関してそれぞれの車の付近を監視し、それぞれの車両の計算された速度および進行方位角にしたがって、他の車両が特定の衝突に向かう経路の中にあることが見出されるときにはいつでも、アラートを提供する。
【0028】
提案されたシステム100は、視界外検出を実施するように適合されており、SIMカードおよび専用のアプリケーションを含み、専用のアプリケーションは、インストールされ、連続的にバックグラウンドで実行される。アプリケーションは、車移動を識別し、高い周波数で車の場所をメインサーバーに送る。車の場所は、「ジャイロ、GPS、速度」インディケーションのデータ融合に基づいて、および、道路スナッピング(roads snapping)に基づいて計算される。アプリケーションは、高い周波数でメインサーバーをサンプリングし、車の近くのユーザに関する更新情報を受け取る。最も頻度の高い更新情報に基づいて、アプリケーションは、エリアの中のユーザのそれぞれの方位角および速度を計算し、潜在的な衝突を推測する。潜在的な衝突を検出するケースでは、システムは、視覚的なアラートおよび聴覚的なアラートを提供する。
【0029】
図1は、本発明によって提案されたシステム100のアーキテクチャを図示している。
【0030】
システム100は、1対のIRセンサ101aおよび101bを含み、それらは、2つの長波熱赤外線(IR)カメラであることが可能である。IRカメラは、車両の速度に対応する周波数で、および、最大で45フレーム毎秒(すなわち、ダイナミックフレーム毎秒(FPS))で画像を獲得する-画像獲得周波数は、車の速度に相関する(より高い速度=最大で45FPSまでのより高い周波数)。獲得されたフレームは、3つのIRモジュール:ステレオ検出IRモジュール7、左IRモノモジュール11a、および右IRモノモジュール11bに並列に転送される。
【0031】
また、システムは、1対のVLセンサ102aおよび102bを含み、それらは、2つのCMOS可視光(VL)カメラであることが可能であり、それは、車両の速度に相関する周波数で、および、最大で45フレーム毎秒(「ダイナミックFPS」)で画像を獲得する。獲得されたフレームは、3つのVLモジュール:ステレオ検出VLモジュール8、左VLモジュール10a、および右VLモジュール10bに並列に転送される。
【0032】
立体視を取得するために、2つの同期された画像が必要とされる。2セットの画像(IRおよびVL)のそれぞれは、2つの対応する同期ユニット3aおよび3bに接続されており、同期ユニット3aおよび3bは、同じクロックを2つのセンサに提供し、獲得される画像が正確に同じタイムスタンプを伴うことを確実にする。
【0033】
適当な品質を備えた画像を有するようにするために、2つの画像ビルトインテスト(BIT)ユニット4aおよび4bが、それぞれの対によって用いられる。それぞれのBITユニットは、画像をカメラから受け取り、同様に、車両速度を(車両のOBD6から)受け取り、車両の向きに関するジャイロインディケーションをジャイロユニット5から受け取る。提案されたシステムは、すべての天候条件および照明条件の下ですべての障害物を検出することができるので、システムは、ジャイロデータを使用し、それぞれのフレーム毎の車両の正確な進行方位を取得する。車両の進行方位が既知であるときには、システムは、車両の前に存在しない障害物を無視することが可能である。
【0034】
画像品質が所定のセットの閾値にしたがって良好である限り、BITユニットからのインディケーションは存在しない。画像品質が不十分であり、要求される閾値を満たしていない場合には、BITユニットは、機能不良の画像のIDをステレオ融合モジュール14(それは、後に説明される)に転送する。速度またはジャイロが異常を示している場合には、重大な警告メッセージがステレオ融合モジュールに送られる。
【0035】
車両の速度は、適当なアラートを提供するために、車ブレーキ距離を計算するために必須である。「車線逸脱警告」アルゴリズムは、車両の方向指示器のステータスに基づいて、車線逸脱を検出するために起動される。方向指示器がオンになっている限り、車線逸脱に関するアラートは存在しない。
【0036】
提案されるシステム100は、2つのメイン検出モジュール:IRステレオ検出モジュール7およびVLステレオ検出モジュール8を含む。両方のモジュールは、立体映像技術を使用し、立体映像技術は、現実の深度シーンマップを取得することができ、それは、正確な物体分類および距離推定を助ける。
【0037】
IRステレオ検出モジュール
IRステレオ検出モジュール7は、以下のサブモジュールを含む:
第1のサブモジュールは、自動キャリブレーションモジュール7aであり、自動キャリブレーションモジュール7aは、両方のカメラの光軸が平行である間に使用され得る視差計算およびエピポーラ幾何に基づいて、立体視の3D深度マップを再構築する。自動キャリブレーションは、車両の中のカメラモジュールの独立した設置を可能にする。
【0038】
キャリブレーションは、両方のカメラから受け取られた同期された画像を使用して実施され、それらは、同じシーンに向けられており、既知の拡大係数を伴う整合された画像で終わる。システム100は2つの独立したカメラを含むので、それは、3自由度(左カメラおよび右カメラの両方のX/Y/Z軸線の周りの回転)を有する。したがって、計算された変換は、ホモグラフィーの非一意的な解決策を提供し、それは、距離計算において不安定な結果および大きい誤差を引き起こす可能性がある。システム100は、後に議論されるエピポーラ幾何に基づいて、新しい修正プロセスを使用する。
【0039】
初期キャリブレーションが、異なる距離において異なる回転に関して設置されている事前決定された物体(たとえば、事前決定されたサイズの正方形を備えたチェス盤)を伴うパターンの上で実施される。このプロセスは、それぞれのカメラに関して内因性のパラメーター(たとえば、主点、焦点距離、放射状歪み、および接線歪み)のセットを計算する。それぞれの対のカメラのステレオビジョンキャリブレーションは、たとえば、Burger-Zhangのカメラキャリブレーションアルゴリズム(公知の座標によって空間の中に十分に定義されたポイントに基づくカメラキャリブレーションのためのアルゴリズム)を使用して行われ得る。
【0040】
キャリブレーション方法は、いくつかのステップを含む。第1のステップは、指定されたターゲットに対する(第1の)手動の(粗い)キャリブレーションを含み、ターゲットは、車両の前に設置されており、2つの独立したカメラが車両の上に据え付けられている。2つの独立したカメラは、たとえば、フロントガラスまたは車のビーム、ヘッドライト、車のグリルの後ろなどに据え付けられ得る。第2のステップにおいて、2つの外因性のパラメーターが計算される:それぞれのカメラの光軸および向きに関するそれぞれのカメラの向き(すなわち、回転および並進)。次のステップにおいて、マッチングポイントが、加速ロバスト特徴(SURF:Speeded Up Robust Features)アルゴリズム(それは、物体認識、画像位置合わせ、分類、または3D再構築などのようなタスクのために使用され得るローカル特徴検出器および記述子である)を使用して見出される。次のステップにおいて、マッチングポイントのセットからの異常値が洗練され、初期の基礎行列(ステレオビジョンにおけるマッチングのための手段:画像化するときに、それぞれのピクセル(たとえば、左カメラの中の)は、右カメラの中に対応するピクセルを有しており、このマトリックスは、マッチングを作製している)推定が実施される。次のステップにおいて、反復基礎行列推定が最小化によって実施される。
【0041】
次のステップにおいて、左ホモグラフィーおよび右ホモグラフィーの初期計算(射影幾何学において、ホモグラフィーは、射影空間の同型写像であり、それは、ベクトル空間(射影空間はベクトル空間に由来する)の同型写像によって誘発される。それは、ラインをラインにマッピングする双射(1セットのポイント同士の間の1対1の対応、このケースでは、ステレオマッチング)であり、したがって、コリネーションである。一般的に、いくつかのコリネーションは、ホモグラフィーではなく、射影幾何学の基礎的な定理は、少なくとも2次元の現実の射影空間ではそのようになっていないことを主張する。)が、エピポーラ幾何を使用して実施される(エピポーラ幾何は、ステレオビジョンの幾何である。2つのカメラが2つの別個の位置から3Dシーンを見るときには、3Dポイントと2D画像の上のそれらの投影との間に複数の幾何学的関係が存在しており、それは、画像ポイント同士の間の制約につながる)。
【0042】
次のステップにおいて、カメラの内因性のパラメーター、中心ポイント修正、Wオフセット(センサの中心と光学系の中心との間の距離偏差)修正を使用することによって、最良のホモグラフィーが反復して計算される。次のステップにおいて、ホモグラフィーに関して最良にフィットした内因性のパラメーターが推定され、それは、フレームの完全なセットの上で有効である。ミスアライメント誤差は視差値の2次関数として増大するので、また、カメラは統一されたリジッドの構造体の上には置かれていないので、システム100は、揺れの結果として取得され得るミスアライメントをリアルタイムで修正することができる。この能力は、自動キャリブレーション方法と称され、それは、最後に計算された自動キャリブレーションにしたがって内因性のパラメーターおよび外因性のパラメーターを計算する。次のステップにおいて、左カメラおよび右カメラによってキャプチャーされる重複エリアの上のマッチングポイントのセットが計算される。次のステップにおいて、両方のカメラの画像空間を変換するホモグラフィー(修正プロセス)が、重複したマッチングポイントを使用して計算される。このプロセスは、車両が移動していない(速度=ゼロ)たびに定期的に繰り返される。
【0043】
マッチングFOV
IRおよび可視範囲カメラは、異なるセンサを使用している(サイズ、ピッチ(ピクセルサイズ)、および、当然のことながら、スペクトル範囲の感度が異なる)。カメラの焦点距離は、両方のセンサに関して同じではなく、2つのチャネルのそれぞれが、基本的にそれ自身の視野(FOV)を有するようになっている。キャリブレーションプロセスは同じ向きを保証するが、FOVオーバーラップがさらなるシステム動作のために選択される。オーバーラップマッチングモジュールが、自動的な方式でこの特徴を実施する。
【0044】
第2のサブモジュールは、視差モジュール7bであり、視差モジュール7bは、2つの(半径方向および接線方向に)歪められていない修正された(適当なホモグラフィーによる変換の後に)および同期された画像を受け取り、以下のステップにしたがって、高密度の洗練された視差マップを生成する。第1のステップにおいて、初期コスト関数(初期視差に関する)が、Census相関関係(テクスチャーを追加する)を使用して計算される。次のステップにおいて、セミグローバルブロックマッチング(SGBM)アルゴリズムが、キャリブレーション結果に基づいて、低減された度数で使用される。次のステップにおいて、画像は、垂直方向のストライプにスプリットされ、ストライプ毎にSGBMアルゴリズムを計算する。次のステップにおいて、すべてのストライプからのグローバルフィットが実施され、グローバル視差マップを生成する。次のステップにおいて、ステレオセグメンテーションが、平均化適応的メジアンフィルター(averaging adaptive median filter)を適用しながら、(Census変換を使用することによって)テクスチャーマップフィッティングを追加する左ステレオ画像(左視差)の上で計算される。
【0045】
第3のサブモジュールは、距離測定モジュール7cであり、距離測定モジュール7cは、視差マップを受け取り、計算の標準的な方法を使用して、ピクセル毎の距離を提供する(ピクセル毎の距離=(フォーカルレンズ*ベースライン/視差)。
【0046】
第4のサブモジュールは、グランド推定器モジュール7dであり、グランド推定器モジュール7dは、キャリブレートされたおよび同期された画像とともに、高密度の洗練された視差マップを受け取り、以下のステップにしたがって、高密度のグランド平面セグメンテーションを提供する。第1のステップにおいて、V-視差マップ(V-視差画像のそれぞれの列は、視差マップの中のその列に出現した視差のさまざまな値のヒストグラムである。正しく行われたときには、グランド平面の上のポイントの視差は、V-視差マップの中の強力なラインとして出現する)が計算され、ここで、V-視差画像のそれぞれの列は、コンピューター計算された視差マップの中の適当な列に出現したさまざまな視差値のヒストグラムである。グランド平面の上のポイントの視差は、v-視差マップの中に強力な(非垂直方向の)ラインとして出現する。障害物に属するポイントの視差は、v-視差マップの中に垂直方向のラインセグメントとして出現する。次のステップにおいて、グランド平面ポイントの初期クラスターが、v-視差を使用して見出される(平坦な道路幾何学形状の道路のケースでは、純粋な平面で十分であり得る)。次のステップにおいて、グランド平面ポイントのクラスターの非線形フィッティング(平坦でない道路幾何学形状の一般のケース)が実施される。
【0047】
次数2の表面へのフィッティング(統計的観察によって十分であることが見出される)が、スプラインによって実施される。グランドは、初期グランドポイントクラスター(グランド推定器を定義するために、グランドの上に選択される異なるポイント)をサブエリアに分割することによってタイル化される。サブエリアの上で実施される(ローカル)フィッティングおよびそれに続くグローバルフィットは、消失点制約を含む(舗装されていない道路または構造化された道路の中のグランド推定器に関して、車線境界は、消失を推定することによって設定される:水平線、または、2つの平行線が当然のことながら遠近法で接合されるポイント)、それは、結果を最適化するために実装される。サブエリアが適応的に計算され、ポイントが近ければ近いほどサブエリアは大きくなることとなり、一方、ポイントが遠ければ遠いほどサブエリアが小さくなるようになっている。
【0048】
第5のサブモジュールは、クラスタリングモジュール7eであり、クラスタリングモジュール7eは、高密度の洗練された視差マップ、V-視差マップ、およびグランド平面フィッティング(視差マップに基づいて、すべてのピクセルに関してマッピングする範囲を推定する)を受け取り、それに応答して、(たとえば、境界ボックスを追加することおよび2D座標を提供することによって)画像ストリームから障害物を抽出する。第1のステップにおいて、v-視差マップが、グランド平面クラスターを抽出するために、および、物体の初期セグメンテーションを実施するために使用され、物体は、道路の上にない。障害物に属するポイントの視差は、垂直方向のラインセグメントとして出現する。次のステップにおいて、視差マップの上の同じ物体に属する視差が、局所的に蓄積される。次のステップにおいて、境界ボックスが、障害物を抽出するために、障害物の周りに構築される。
【0049】
第6のサブモジュールは、トラッキングモジュール7fであり、トラッキングモジュール7fは、高密度の洗練された視差マップ、障害物のリスト、ジャイロ座標、および車両速度を受け取り、すべてのトラッキングされる障害物を含有する構造体のアレイを提供する。このプロセスは、たとえば、Kalmanフィルター予測を使用することによって行われ得る。
【0050】
第7のサブモジュールは、障害物検出モジュール7gであり、障害物検出モジュール7gは、障害物のリストおよび速度、ジャイロ座標、車速度、およびグランド平面フィッティングを受け取り、物体IDおよび特質(たとえば、サイズ、速度など)、ならびに、衝突までの推定時間を提供する。障害物が重大な経路の中に(ジャイロマスクの下ではなく)見出される場合には、および、相関される速度(自己速度マイナス障害物速度)にしたがったブレーキ距離が、障害物までの範囲よりも短い場合には、モジュールは、重大な障害物インディケーションを提供する。
【0051】
VLステレオ検出モジュール
VLステレオ検出モジュール8は、IRステレオ検出モジュール8のものと同じサブモジュール8a~8gを含む。同じ処理が実施されるが、VL画像に対して実施される。
【0052】
ステレオ融合モジュール
ステレオ融合モジュール9は、以下の入力:方向指示器ステータス9a、IR画像BITステータス9b、VL画像BITステータス9c、前方の障害物に関する距離測定(IRセットによって計算される)、前方の障害物に関する距離測定(VLセットによって計算される)、障害物座標およびサイズ(IRセットによって計算される)、障害物座標およびサイズ(VLセットによって計算される)を、データバス9dおよび9eを介して受け取る。処理の後に、融合モジュール9は、以下のデータ:方向指示器ステータス、障害物座標、および境界ボックスサイズ、ならびに、障害物までの距離を、カメラモノモジュール11a、11b、10a、および10bのそれぞれに出力する。すべての4つのセンサ(カメラ)101a、101b、102a、102bが(画像BITユニット4aおよび4bにしたがって)利用可能である場合には、距離は、2つの立体セット間の平均として計算される。センサのうちの1つが故障している場合には、システムは、機能不良のカメラについてのインディケーションを提供することとなり、他のモノモジュールは、ワーキングセットにしたがって、距離を受け取る。
【0053】
提案されたシステム100は、いくつかの融合レベルを適用するように適合されている。可視光チャネルとIRチャネルの間のデータ融合が、いくつかの方式で実施され得る。最も簡単な方式は、チャネル同士の間で切り替えることであり、また、事前決定された基準(たとえば、画像品質、SNR/SBR)にしたがって「最良のチャネル」を選択することである。別の方式は、それらの両方を起動させること、および、検出結果を融合させることである。最新式のモジュールは、より早いレベルにおいてチャネルを融合させることが可能である:視差マップ。物体検出に関して単一のマップだけを取り扱うために、(位置合わせの後に)2つのマップの間で融合させることが可能である。
【0054】
BITユニット4aおよび4bにしたがって、すべての4つのセンサ(カメラ)が利用可能である場合には、物体までの距離が、2つの立体セットの間の平均として計算される。センサのうちの1つが故障している場合には、他のモノモジュールが、ワーキングセットにしたがって、距離を受け取る。このアーキテクチャは、システムが4レベルの冗長性を有することを可能にする。完全な動作セットでは、2つのIRカメラ(ステレオ)+2つのVLカメラ(ステレオ)がアクティブになっている。
【0055】
カメラ機能不良
単一のカメラ機能不良に関して、以下の組み合わせが可能である:
1IRカメラ(モノ)+2VLカメラ(ステレオ)
2IRカメラ(モノ)+1VLカメラ(ステレオ)
2つのカメラ機能不良に関して、以下の組み合わせが可能である:
IRカメラ(動作していない)+2VLカメラ(ステレオ)
2IRカメラ(モノ)+0VLカメラ(動作していない)
1IRカメラ(モノ)+1VLカメラ(モノ)
3つのカメラ機能不良に関して、単一のカメラだけが動作しており、以下の組み合わせが可能である:
1つのIRカメラ(モノ)+VLカメラなし(動作していない)
IRカメラなし(動作していない)+1つのVLカメラ(モノ)
このケースでは、それぞれのカメラは、以下の動作を実施する「モノビジョン」カメラとして作用する:
a) 物体分類-ディープラーニング方法論による。モジュールは、センサによって獲得される完全な画像および障害物の境界ボックス(ステレオ層から入手可能であるケースにおいて)を受け取ることによって、たとえば、「車」/「歩行者」/「サイクリスト」を識別することが可能であり、処理の後に、(障害物が車/歩行者/サイクリストである場合には)物体分類を実施し、単一のカメラからのデータにしたがった物体距離推定に基づいて、障害物までの距離を計算する;
b) 車線逸脱警告(LDW)-センサによって獲得される完全な画像および方向指示器ステータスを受け取り、車線識別、ラインのタイプの識別、車線の中心からの偏差のパーセンテージを実施し、偏差のパーセンテージが定義された閾値よりも高いケースでは、アラートのためのインディケーションを提供する。これは、ハフ変換(画像処理検出直線の中で使用される数学的なツール)および適応的GL閾値(現実のラインとノイズとの間を区別するために、GL(グレーレベル)の上に閾値を設定することによる)に基づいて、車線検出のための従来の方法を使用することによって行われる;
c) 交通標識認識(TSR-可視光カメラの中でのみ利用可能である)-センサによって獲得される完全な画像を受け取り、交通標識識別を実施し、それに続いて、以下の場合のうちの1つにおいてアラートインディケーションを提供する:
・ 車速度が特定の許容速度よりも高くなっている
・ 車速度は、識別された「停止」標識の前でドライバーが停止することを可能にしないであろう
・ 「進入禁止」標識識別
物体認識は、ディープラーニング方法論を使用して行われ得る。
【0056】
IRモノ比較モジュール
IRモノ比較モジュール12は、分類タスク(車/歩行者/サイクリスト/その他)の信頼性のレベル、および、車線逸脱インディケーションの信頼性のレベルを増加させる。また、このモジュールは、カメラによって計算される距離を平均する。IRモノ比較モジュール12は、IRセンサからの距離、障害物分類、車線逸脱インディケーション、およびラインタイプを受け取る。障害物分類の間に、両方のセンサが同じ分類について示す場合には、この分類が「モノ+ステレオ融合」モジュール14へ送られる。両方のセンサが車線逸脱について示す場合には、車線逸脱インディケーションが「モノ+ステレオ融合」モジュール14へ送られ、そうでなければ、警告インディケーションが「モノ+ステレオ融合」モジュール14へ送られる。両方のセンサが同じラインタイプについて示す場合には、このラインタイプが「モノ+ステレオ融合」モジュール14へ送られ、そうでなければ、「実線」インディケーションが「モノ+ステレオ融合」モジュール14へ送られる。
【0057】
VLモノ比較モジュール
VLモノ比較モジュール13の機能性は、IRモノ比較モジュール12の機能性と同様であり、交通標識認識を使用した許容速度の追加を伴い、それは、標識の上の最大速度を検出する。両方のセンサが同じ交通標識を示す場合には、許容速度(検出される標識)が「モノ+ステレオ融合」モジュール14へ送られ、そうでなければ、それらの両方によって検出された最低速度が「モノ+ステレオ融合」モジュール14へ送られる。
【0058】
モノ+ステレオ融合モジュール
モノ+ステレオ融合モジュール14は、ステレオ融合モジュール9ならびにモノ比較モジュール12および13からの結果を集計する論理ユニットである。モノ+ステレオ融合モジュール14は、ステレオ融合モジュール9から、方向指示器ステータス、障害物座標、ステレオセットにしたがったサイズおよび境界ボックス、障害物までの距離、(画像BITユニット4aおよび4bにしたがった)カメラ/画像ステータスを受け取る。モノ+ステレオ融合モジュール14は、モノ比較ユニット12および13から、距離、障害物分類、および車線逸脱入力を受け取り、受け取られたデータを処理した後に、すべてのインディケーションからの平均距離、車線逸脱決定、および障害物検出決定を出力する。
【0059】
決定モジュール
決定モジュール15は、ユーザへの出力であり、聴覚的な/視覚的な/触覚的なインディケーションであることが可能である。
【0060】
また、本発明によって提案されるシステムは、予測的な衝突警告を提供するように適合されている。先進運転支援システム(ADAS)は、運転プロセスにおいてドライバーを助けるためのシステムである。ADASシステムは、それらのFOVの中の道路の上の物体(たとえば、歩行者、サイクリストなど)を検出するように設計されており、また、運転している車線の中の潜在的な障害物が前方衝突につながる可能性のあるときには、アラートを出すように設計されている。しかし、別の危険が、仮想経路の外側の物体から生じる可能性がある。可能性のある交差する速度ベクトルを考慮すると、衝突が起こる可能性がある(典型例は、移動している車に対して何らかの角度で道路を渡ろうとしている歩行者であり、危険な道路事故につながる可能性がある)。相対速度ベクトルにしたがってFOVの中のすべての物体に関して潜在的な衝突ポイントを予測するためのモジュールは、帰納的な方式で、必要とされる情報をそのような予測に提供する。
【0061】
天候条件は(主に、冬において)、道路の上の雪、マスキング分離ライン、または、ドライバーを誤らせる可能性のある水たまなどのような障害物を導入する。また、本発明によって提案されるシステムは、(主に、物体境界を強化することおよび深度変化を強調することによって)Ransacアルゴリズムに基づいて、そのような氷および水たまりを検出するように適合されている。
【0062】
また、本発明によって提案されるシステムは、深い穴、陥没穴、および、他の種類の道路の不連続を検出するように適合されている。プラスの/マイナスの視差(マップからの)が、移動している車両が障害物または深い穴もしくは陥没穴の前にいるかどうかを推論するために使用され得る。
【0063】
本発明の実施形態は、実例として説明されてきたが、本発明は、特許請求の範囲を超えることなく、多くの変形例、修正例、および適合例によって実施され得ることが理解されるであろう。
【符号の説明】
【0064】
3a、3b 同期ユニット
4a、4b 画像ビルトインテスト(BIT)ユニット
5 ジャイロユニット
6 OBD
7 ステレオ検出IRモジュール
7a 自動キャリブレーションモジュール
7b 視差モジュール
7c 距離測定モジュール
7d グランド推定器モジュール
7e クラスタリングモジュール
7f トラッキングモジュール
7g 障害物検出モジュール
8 ステレオ検出VLモジュール
8a 自動キャリブレーションモジュール
8b 視差モジュール
8c 距離測定モジュール
8d グランド推定器モジュール
8e クラスタリングモジュール
8f トラッキングモジュール
8g 障害物検出モジュール
9 ステレオ融合モジュール
9a 方向指示器ステータス
9b IR画像BITステータス
9c VL画像BITステータス
9d、9e データバス
10a 左VLモジュール
10b 右VLモジュール
11a 左IRモノモジュール
11b 右IRモノモジュール
12 IRモノ比較モジュール
13 VLモノ比較モジュール
14 モノ+ステレオ融合モジュール
15 決定モジュール
100 システム
101a、101b IRセンサ
102a、102b VLセンサ