IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ コノート、エレクトロニクス、リミテッドの特許一覧

特開2023-31307重なり合わないカメラ視野から取得された画像を調和させる方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023031307
(43)【公開日】2023-03-08
(54)【発明の名称】重なり合わないカメラ視野から取得された画像を調和させる方法
(51)【国際特許分類】
   H04N 7/18 20060101AFI20230301BHJP
   G06T 1/00 20060101ALI20230301BHJP
【FI】
H04N7/18 J
G06T1/00 330A
【審査請求】未請求
【請求項の数】17
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2022132776
(22)【出願日】2022-08-23
(31)【優先権主張番号】21192780.1
(32)【優先日】2021-08-24
(33)【優先権主張国・地域又は機関】EP
(71)【出願人】
【識別番号】514189527
【氏名又は名称】コノート、エレクトロニクス、リミテッド
【氏名又は名称原語表記】CONNAUGHT ELECTRONICS LTD.
(74)【代理人】
【識別番号】100107582
【弁理士】
【氏名又は名称】関根 毅
(74)【代理人】
【識別番号】100137523
【弁理士】
【氏名又は名称】出口 智也
(72)【発明者】
【氏名】マーク、グリフィン
(72)【発明者】
【氏名】エイデン、ケイシー
(72)【発明者】
【氏名】エムレ、トゥルガイ
(72)【発明者】
【氏名】アレックス、パーキンス
【テーマコード(参考)】
5B057
5C054
【Fターム(参考)】
5B057AA16
5B057BA02
5B057CA08
5B057CA12
5B057CA16
5B057CB08
5B057CB12
5B057CB16
5B057CC02
5B057DA07
5B057DA08
5B057DA16
5B057DB02
5B057DB09
5C054CA04
5C054CC02
5C054FD03
5C054FE18
5C054GB02
5C054GB05
5C054HA30
(57)【要約】      (修正有)
【課題】車両に接続され、且つ、重なり合わない視野を有する2つ以上のカメラによって取得した画像を調和させる方法及び車両用マルチカメラビジョンシステムを提供する。
【解決手段】車両に接続され、それらの視野が車両の進行方向に沿って移動する異なる時刻において、同じ道路空間を覆う第1カメラと第2カメラにより取得する画像を調和させる画像処理方法であって、選択されたカメラによって第1時刻に第1画像を取得すること、第1画像から道路の一部を潜在的に囲む第1関心領域を選択すること、第1関心領域をサンプリングすること、もう一方のカメラによって、第2関心領域に潜在的な道路の一部が含まれるように第2画像を取得すること、第2関心領域をサンプリングすること及び第1関心領域と第2関心領域の画像内容の比較に基づいて、第1カメラと第2カメラによって取得された画像を調和するために1つ又は複数の補正パラメータを決定することを含む。
【選択図】図2
【特許請求の範囲】
【請求項1】
車両(11)に接続された第1カメラ(RV、FV)と第2カメラ(TR、RV)により取得された画像を調和させる画像処理方法(100)であって、それらの視野(FOV、FOV)は、前記車両が進行方向に沿って移動する異なる時刻において、同じ道路空間(18)を覆うように構成され、
前記車両の前記進行方向を決定すること(101)、
前記進行方向に基づいて、第1画像(200、400)を取得するように、前記第1カメラと第2カメラの1つを選択すること、
前記選択されたカメラによって、第1時刻に前記第1画像(200、400)を取得すること(102、108)、
前記第1画像の少なくとも1つの第1関心領域(201、202;401、402)を選択すること(103、109)であって、前記第1関心領域は、道路の一部(50、51;60、61)を潜在的に囲む、選択すること(103、109)、
前記第1画像(200、400)から、前記少なくとも1つの第1関心領域(201、202;401、402)をサンプリングすること(104、110)、
前記第1時刻の後に、もう一方のカメラによって第2画像(300、600)を取得するための第2時刻を決定するために、前記第2画像(300、600)の第2関心領域(301、302;601、602)に前記潜在的な道路の一部(50、51;60、61)が含まれるように、前記車両(11)が前記進行方向に沿って移動した距離を監視すること(105、111)、
前記もう一方のカメラによって、前記第2時刻に前記第2画像(300、600)を取得すること(106、112)、
前記第2画像(300、600)から前記第2関心領域(301、302;601、602)をサンプリングすること(107、113)、
前記第1関心領域と第2関心領域(201-301、202-302;401-601、402-602)の両方が道路の一部(50、51;60、61)を含むかを確認すること(116)、及び
前記第1関心領域と第2関心領域の両方が前記道路の一部を含むとの確認に応じて、前記第1関心領域と第2関心領域(201-301、202-302;401-601、402-602)の画像内容の比較に基づいて、前記第1カメラと第2カメラによって取得された画像を調和するために1つ又は複数の補正パラメータを決定すること(117)、
を含む、画像処理方法(100)。
【請求項2】
前記第1カメラが、前記車両(11)の後方カメラ(RV)であり、前記第2カメラは、前記車両に連結手段(14)を介して接続されたトレーラ(12)の後方カメラ(TR)である、請求項1に記載の方法。
【請求項3】
前記車両(11)が前方向に移動していると決定することに応じて、前記第1時刻に前記第1画像(200)を取得する(102)ように、前記第1カメラ(RV)を選択すること、及び、前記第1画像(200)の前記第1関心領域又は少なくとも1つの第1関心領域(201、202)のそれぞれが、前記トレーラ(12)と前記車両(11)の間の道路空間を含むと知られた領域に対応する、請求項2に記載の方法。
【請求項4】
前記第1画像(200)の前記第1関心領域又は少なくとも1つの第1関心領域(201、202)のそれぞれが、前記連結手段を囲む領域の傍にある、請求項3に記載の方法。
【請求項5】
前記少なくとも1つの第1関心領域を選択すること(103)は、
前記第1画像(200)に少なくとも2つの第1関心領域(201、202)を定義することであって、前記トレーラ(12)が長手軸(20)に沿って前記車両(11)に整列されたとき、1つ(201)は前記連結手段(14)を囲む前記領域の第1側(500)に、もう1つ(201)は前記連結手段(14)を囲む前記領域の第2側(510)に、定義すること、
前記2つの第1関心領域(201、202)のいずれかが、前記トレーラ(12)と前記連結手段(14)のうちの少なくとも1つの一部を含むか否かを決定すること、
前記2つの第1関心領域(201、202)のいずれも、前記トレーラ(12)と前記連結手段(14)のうちの少なくとも1つの一部を含まないとの決定に応じて、前記第1画像(200)からサンプリングされるように、前記2つの第1関心領域(201、202)の両方を選択すること(103)、及び
前記2つの第1関心領域(201、202)のいずれかが、前記トレーラ(12)と前記連結手段(14)のうちの少なくとも1つの一部を含むとの決定に応じて、前記第1画像(200)からサンプリングされるように、前記もう一方の第1関心領域を選択すること(103)、
を含む、請求項4に記載の方法。
【請求項6】
前記2つの第1関心領域(201、202)のいずれかが、前記トレーラ(12)と前記連結手段(14)のうちの少なくとも1つの一部を含むか否かを決定することは、
前記トレーラ(12)と前記連結手段(14)のうちの少なくとも1つの一部が、前記2つの第1関心領域(201、202)のいずれかに含まれるか否かを検出することを含む、請求項5に記載の方法。
【請求項7】
前記車両(11)のステアリング角度、及び前記車両(11)と前記トレーラ(12)の間のヒッチ角度のうちの少なくとも1つを計測することを含み、
前記2つの第1関心領域(201、202)のいずれかが、前記トレーラ(12)と前記連結手段(14)のうちの少なくとも1つの一部を含むかを決定することは、前記計測されたステアリング角度及びヒッチ角度のうちの少なくとも1つに基づいてなされる、請求項5に記載の方法。
【請求項8】
前記車両(11)が逆方向に移動していると決定することに応じて、前記第1時刻に前記第1画像(400)を取得する(108)ように、前記第2カメラ(TR)を選択する、請求項2に記載の方法。
【請求項9】
前記第1画像(400)の前記少なくとも1つの第1関心領域(401、402)に対応する前記潜在的な道路の一部(60、61)は、前記車両(11)が前記逆方向に移動するとき、前記第1カメラ(RV)の前記視野(FOV)内で見られるようになる、請求項8に記載の方法。
【請求項10】
前記第1画像(400)の前記少なくとも1つの第1関心領域(401、402)を選択することは、
少なくとも2つの関心領域(401、402)を定義することであって、前記トレーラ(12)が長手軸(30)に沿って前記車両(11)に整列されたとき、1つ(401)は、前記連結手段(14)を囲む前記領域の第1側(500)で、前記第1カメラ(RV)の前記視野(FOV)内で見られるようになる、対応する第1道路の一部(60)を含むように、もう1つ(402)は前記連結手段(14)を囲む前記領域の第2側(510)に位置するように、定義すること、
前記車両(11)のステアリング角度、及び前記車両(11)と前記トレーラ(12)の間のヒッチ角度のうちの少なくとも1つを計測すること、
前記計測されたステアリング角度及びヒッチ角度のうちの少なくとも1つが閾値未満だと決定することに応じて、前記第1画像からサンプリングされるように、前記2つの第1関心領域(401、402)の両方を選択すること(109)、及び
前記計測されたステアリング角度及びヒッチ角度のうちの少なくとも1つが閾値を超えると決定することに応じて、前記計測されたステアリング角度及びヒッチ角度のうちの少なくとも1つに基づいて、前記2つの関心領域(401、402)のうちの1つを選択すること(109)、
を含む、請求項9に記載の方法。
【請求項11】
前記第1カメラと第2カメラは、前記車両(11)の前方カメラ(FV)及び後方カメラ(TR)である、請求項1に記載の方法。
【請求項12】
前記第1関心領域と第2関心領域(201-301、202-302;401-601、402-602)内の画像データをYUVフォーマットに変換すること(114)を含み、
前記第1関心領域と第2関心領域(201-301、202-302;401-601、402-602)の両方が前記道路の一部(50、51;60、61)を含むのか否かを決定することは、
前記第1関心領域(201、202;401、402)内の前記画像データの少なくとも一部から少なくとも1つの第1輝度成分と、前記第2関心領域(301、302;601、602)内の前記画像データの少なくとも一部から少なくとも1つの第2輝度成分を推定すること(115)、及び
前記推定された第1輝度成分と第2輝度成分との差を閾値と比較すること(116)、及び
前記差分が閾値未満であるとの決定に応じて、前記第1及関心領域及び第2関心領域(201-301、202-302;401-601、402-602)の両方が前記道路の一部(50、51;60、61)を含むと確認すること、
を含む、請求項1~11のいずれか一項に記載の方法。
【請求項13】
前記第1及関心領域及び第2関心領域が前記道路の一部を含むとの前記確認に応じて、
前記推定された第1関心領域と第2輝度成分の間の前記差分に基づいて、前記第1カメラと第2カメラ(RV、TR)によって取得された画像の明るさを調和する1つ又は複数の明るさ補正パラメータを決定すること(117)、
前記第1関心領域(201、202;401、402)内の前記画像データの少なくとも一部から第1色度成分を、前記第2関心領域(301、302;601、602)内の前記画像データの少なくとも一部から第2色度成分を推定すること、及び
前記推定された第1色度成分と第2色度成分との間の差分に基づいて、前記第1カメラと第2カメラ(RV、TR)によって取得された画像の色を調和する1つ又は複数の色度補正パラメータを決定すること(117)、
を含む、請求項12に記載の方法。
【請求項14】
前記第1カメラと第2カメラ(RV、TR)によって取得された合成画像(701、702)を含む複合ビュー(700)を生成することであって、前記生成することは、前記決定された1つ又は複数の調和補正パラメータを適用すること(118)を含む、請求項1~13のいずれか一項に記載の方法。
【請求項15】
車両(11)に接続された第1カメラ(RV、FV)と第2カメラ(TR、RV)であって、前記車両が進行方向に沿って移動する異なる時刻において、それらの視野(FOV、FOV)が同じ道路空間(18)を含むように構成される、第1カメラ(RV、FV)と第2カメラ(TR、RV)、及び
請求項1~14のいずれか一項に記載の前記方法(100)を遂行するように構成された1つ又は複数の処理ユニット(15)、
を含む車両用マルチカメラビジョンシステム。
【請求項16】
車両(11)とトレーラ(12)の組み合わせであって、請求項15のマルチカメラビジョンシステムを含み、前記第1カメラは前記車両(11)の前記後方カメラ(RV)であり、前記第2カメラは前記トレーラ(12)の前記後方カメラ(TR)である、車両とトレーラの組み合わせ。
【請求項17】
請求項15に記載の車両用マルチカメラビジョンシステムによってコンピュータプログラムを実行するとき、前記システムに、請求項1~14のいずれか一項に記載の方法(100)を遂行させる指示を有するコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両に接続され、且つ、重なり合わない視野を有する2つ以上のカメラによって取得された画像を調和させる方法に関する。
【背景技術】
【0002】
車両の周りの環境の画像を撮像するために、車両の前方、後方、及び左右のサイドミラーに配置された多数のカメラを含むマルチカメラ自動車ビジョンシステムを車両に設けることが知られている。
【0003】
これらのカメラからの画像は、通常、車両の運転者に支援を提供するため、車両のキャビン内に配置されたディスプレイまたはフロントガラスに1つ又は複数の処理された画像を提供する前に、様々な作業の中で、画像を処理するプロセッサを備える電気制御ユニット(ECU:electronic control unit)に中継される。
【0004】
運転者に表示される前、又は自動・半自動車両駆動などの他のアプリケーションに使われる前に、車両ECUによって複数のカメラから受信した入力画像を合成させることにより、異なる種類の視野が生成され得る。特に、入力カメラ画像からの関心領域が、先ず対象のビューポートに再マッピングされ、次に併合されることができ、その結果、車両の周りの環境の特定の選択された3D点からの視野を表すモザイク画像を生成する。例えば、仮想カメラが中央上部からの眺めで車両の上に設けられ、カメラ画像の関心領域に対応する入力カメラテクスチャが平坦な2D平面に対応する表面ビューポートに投射され、通常上面視(又は鳥瞰視)と言われる、車両の上面と車両の周りの環境を示すモザイク視野を生成するように併合される。、多次元視野(例えば、平坦な2D平面以外に椀型2D投影が使われる3Dボウル視野)などの他の併合された視野が、車両ECUのレンダリング機能を使って生成され得る。
【0005】
各車両カメラはそれぞれのレンズ、画像センサ、そして多くの実装において、独立した画像信号処理チェイン(したがって、車両カメラは異なる露光又はゲインコントロール、異なるホワイトバランス等を有し得る)を有する。さらに、各車両カメラは異なる方向を向き、車両環境の異なる領域を見ている。
【0006】
そのため、各車両カメラによって取得された明るさと色相は、車両カメラの制約(レンズ、画像センサ等)と異なる向きによって若干異なる場合がある。これらの色と明るさとの若干の差は、表示される合成視野の視覚的品質に悪影響を与え、車両の周りの3D点における仮想カメラに対応する視野の、錯視を危うくする。
【0007】
併合された視野の視覚的品質を向上するために、一般的に、明るさと色の調和が適用される。特に、重なり合う視野を有する2つの車両カメラの間の調和は、調和の基準として、カメラによって撮像された共通の地面領域を用いて達成される。例えば、前方カメラと右サイドミラーカメラの間の調和は、これらカメラの視野が重なり合う角の道路領域を用いて達成され得る。
【0008】
例えば、WO2018/087348(Ref:SIE0426)は、併合された入力画像の輝度Y及び色値U、Vを示すヒストグラムを用いて車両の周りの環境の合成画像の明るさと色を調和する方法を開示している。
【0009】
車両に、車両がトレーラを牽引させるヒッチが設けられていることがさらに知られている。トレーラ(当該トレーラによって輸送される物体も含む)は、トレーラの周りの殆どの領域を視認できないため、トレーラが運転者にとって大きな死角となり、特に未熟な運転者が補助なしでトレーラを備える車両を後進させることは難しい。したがって、このようなトレーラには、トレーラの後方へ(及び、場合によってはトレーラの各側面から外向きのトレーラ側面カメラ)向けられた後方カメラを組み込むことも知られている。これらのカメラからの画像はトレーラ内のコントローラによって取得されることができ、運転者を補助する向上されたディスプレイを生成するように車両ECUに提供され得る。場合によっては、任意のトレーラカメラが車両ECUに直接接続され得る。
【0010】
例えば、車両ECUは、車両後方カメラ及びトレーラ後方カメラによって取得された画像を併合することで不可視トレーラ視野が生成され得る。特に、不可視トレーラ視野は、後方カメラによって取得された画像の関心領域を対象ビューポート(不可視トレーラビューポート)に再マッピングし、再マッピングされた関心領域を併合することで構築される。このように、車両ディスプレイやウィンドスクリーンを介して、トレーラが実質的に見えない後方視野が運転者に提供される。例えば、WO2021/032434(Ref:2019PF00307)は、車両の後方カメラから第1カメラ画像を、車両のトレーラに接続されたトレーラの後方カメラから第2カメラ画像を生成することを開示している。車両とトレーラの間のヒッチ角度に依存して第2カメラ画像が第1カメラ画像の一部をカバーするように、これらカメラ画像を重ねることで不可視トレーラ視野が生成される。
【0011】
他のアプリケーションでは、車両及び接続されたトレーラの後方カメラから取得された画像を併合することを必要とし得る。例えば、DE102019133948(Ref:V25-2103-19DE)は、運転者に表示する、車両とトレーラの組み合わせの周りの環境の3D視野を構築するように、車両とトレーラの組み合わせの複数のカメラを用いることを開示している。
【0012】
トレーラと組み合わされた車両の運転者を補助するために生成された併合された視野において、明るさ及び/又は色の不一致は、車両及び接続されたトレーラの後方カメラによって取得された画像の併合領域で運転者に視認され得る。しかし、これらカメラは、それらの視野が共通地面領域を覆うように重なり合わず配置されている。したがって、車両及び接続されたトレーラの後方カメラを調和する、信頼できる共通基準は存在しない。
【0013】
同様に、車両(トレーラの有無にかかわらず)の前方及び後方カメラによって取得された画像を調和する信頼できる基準として利用可能な共通グラウンドも存在しない。
【発明の概要】
【0014】
本発明によれば、請求項1における、車両に接続され、且つ、同時に重なり合わない視野を有する第1カメラと第2カメラによって取得された画像を調和する方法が提供される。
【0015】
本発明の実施形態では、第1カメラと第2カメラが与えられた時刻に同じ道路の一部を取得できないが、第1カメラと第2カメラは、車両が進行方向に沿って移動している異なる時刻において同じ道路の一部を撮像することができ、これを第1カメラと第2カメラによって撮像された合成画像を含む視野を調和させるための、信頼できる指標として有利に用いられるとの認識に基づく。例えば、調和された視野は、第1カメラと第2カメラが車両の後方カメラと車両によって牽引されるトレーラの後方カメラである実施形態における不可視トレーラ視野であり得る。他の実施形態において、第1カメラと第2カメラは車両の前方及び後方カメラであり得る。
【0016】
より詳しくは、発明の実施形態は、車両の決定された方向に基づいて選択された第1カメラと第2カメラのうちの1つによって、第1時刻に、取得された第1画像から、少なくとも1つの第1関心領域(ROI:region of interest)をサンプリングすることに係る。第1ROIは、撮像されたシーン内の基準の道路の一部を含むように第1画像において定義される。第2ROIは、第1時刻の後に監視された車両の移動距離に従って第2ROIも基準の道路の一部を含むように、第2時刻にもう一方のカメラによって取得された第2画像からサンプリングされる。サンプリングされたROI内の画像データの間の比較に基づいて、第1カメラと第2カメラによって取得された画像を調和させるための1つ又は複数の補正パラメータが決定される。
【0017】
いくつかの実施形態で、第1ROIと第2ROI内の画像データは、YUVフォーマットに変換された後に比較される。これらの実施形態において、ROIが撮像されたシーン内に異なる対象を含む場合(例えば、第2画像の取得時の前に対象物が基準の道路の一部の上に移動した又は基準の道路の一部を超えた、又は基準の道路の一部を離れたため)、推定された輝度値Yの差分が有意であるとの認識に基づいて、これらROIが実際に同じ基準の道路の一部を含むか否かを判定する目的として、第1ROIと第2ROIについて推定された輝度値Yの差分が閾値と比較される。
【0018】
本発明の更なる態様は、自動車用マルチカメラビジョンシステム、車両とトレーラの組み合わせ又は車両、及び本発明における方法を実行するように構成されたコンピュータプログラム製品を含む。
【図面の簡単な説明】
【0019】
本発明の実施形態は、例として、添付の図面を参照しながら説明される。
図1】本発明におけるマルチカメラビジョンシステムを含む車両とトレーラの組み合わせを示す図。
図2図1のマルチカメラビジョンシステムによって遂行され得る、本発明における方法を示す図。
図3A】前方向に沿って進む車両を示す図。
図3B】前方向に沿って進む車両を示す図。
図4A図3A及び図3Bに示されたように車両が進むとき、図2の方法の動作によって、車両カメラRVによって取得された画像を示す図。
図4B図3A及び3Bに示されたように車両が進むとき、図2の方法の動作によって、トレーラカメラTRによって取得された画像を示す図。
図5A】逆方向に進む車両を示す図。
図5B】逆方向に進む車両を示す図。
図6A図5A及び5Bに示されたように車両が進むとき、図2の方法の動作によって、トレーラカメラTRによって取得された画像を示す図。
図6B図5A及び5Bに示されたように車両が進むとき、図2の方法の動作によって、車両カメラRVによって取得された画像を示す図。
図7図2の方法の動作によって調和された、表示された併合された不可視トレーラ視野を示す図。
【実施形態の詳細な説明】
【0020】
図1を参照すると、本発明の実施形態における画像調和方法を遂行するように構成されたマルチカメラビジョンシステムを含む、車両11とトレーラ12の組み合わせが示されている。
【0021】
車両11には、車両11が、例えば図1に示されたようなトレーラ12などの物体を牽引することを可能にするヒッチ13が設けられている。特に、トレーラ12はドローバ14を介して、車両10とトレーラ12の間にヒッチ角度が存在するように(車両10が曲がった軌跡に沿って移動するトレーラ12を牽引するとき)ヒッチ13に引っかけられる。
【0022】
なお、図1に示されたトレーラ12は、車両10によって牽引され得るいくつかの種類のトレーラの単なる非限定的な例であることに留意されたい-他の例はキャラバンや馬車も含む。このように、本願においては車両10によって牽引される任意の物体がトレーラとして参照される。このように、トレーラが運転者の後方視野を遮蔽する物体を輸送するためのプラットフォームとして用いられる場合(例えば、船を運ぶボートトレーラやバイクを運ぶバイクトレーラ)、本願の目的のため、運ばれる物体は牽引されるトレーラの一部として扱われる。なお、図1に示された車両11も、トレーラを牽引できる様々な種類の車両(トラックやトラクタ等)の単なる非限定的な例であることに留意されたい。したがって、トレーラを車両に繋ぐ連結手段は、図1に示されたヒッチ13とドローバ14とは異なってもよい。
【0023】
マルチカメラビジョンシステムは、車両の周りの環境の画像を撮像するために、車両の前方(FVカメラ)、後方(RVカメラ)、及び左右サイドミラー(ML、MRカメラ)に配置された複数のカメラを含む。サイドカメラがミラー上に配置される必要はなく、これらは車両の側面の環境からの画像を取得できる任意の適合した場所に配置され得る。
【0024】
システムは、トレーラ12の後方に向けられたトレーラ後方カメラ(TRカメラ)をさらに備える(そして、場合によっては、トレーラ12の各側面から外に向かうサイドカメラも含み得る)。そのため、図1に示されたように、車両カメラRVとトレーラカメラTRの視野FOVとFOVは、車両11が移動している道路18の共通部分で、所与の時刻に重なり合わない。これはFOV、FOVがシーンの一部の領域で重なり合い得ることを除外はしないが、これらの共通領域は均一でなく変動するため、カメラRV、TRの画像調和のためには信頼できない。
【0025】
システムは、車両カメラFV、RV、MR、MLにより取得された画像を受領するように構成されたアプリケーションを実行する車両ECU15、及びトレーラカメラTRによって(存在するならトレーラサイドカメラによっても)取得された画像を収集するように構成された、トレーラ12内のコントローラ16を含む。トレーラコントローラ16によって収取された画像は、ストリーミング、又は無線・有線接続を介して車両ECU15に提供される。場合によっては、任意のトレーラカメラが車両ECU15に直接接続されてよい。
【0026】
車両ECU15のプロセッサは、処理されたイメージを車両11のキャビン内に配置されたディスプレイ22やフロントガラスに提供することを目的として、車両とトレーラカメラFV、RV、MR、ML、TRから取得された画像を処理するように構成される。このようなカメラ情報も、車両の自律・半自律的な運転、駐車、又はブレーキ、及び、例えば、1つ又は複数のカメラにより撮像された画像のストリームを、後に取得するためのダッシュカムやセキュリティ映像として記憶するために、ECU15によって処理され得る。
【0027】
ECU15(又は車両11内の他の処理ユニット)は、(図1において符号17として概略的に表示され、累積的に示された)オドメトリセンサによって提供されたセンサデータを処理することによって、車両11が時間によって移動した距離も推定できる。例えば、オドメトリセンサ17は、ホイール及びステアリング角度のいくつかによって移動された空間を測定するセンサを含み得る。センサ17によって提供されたセンサデータに加えて又は代えて、車両11の位置の時間的変化はGPS追跡を用いて推定されてよい。
【0028】
図2を参照して、システム内で動作できる画像調和方法100が開示される。
【0029】
方法ステップ101において、例えばオドメトリセンサ17及び/又はGPS位置追跡情報を用いて車両11の進行方向が決定される。
【0030】
図3Aを参照すると、ステップ101の決定において、車両11が長手軸20によって示される実質的に直線の方向に沿って前進する場合がまず考慮される。図3Aにおいて、RVカメラの視野FOVは、それぞれトレーラドローバ14の第1側500と第2側510の傍の、それぞれ車両11とトレーラ12の間の間隔の第1の道路の一部50と第2の道路の一部51をカバーする。このように、これら道路の一部50、51は、トレーラ12やドローバ14によって遮蔽されないため、RVカメラによって撮像されてカメラFV、RV(これはより詳しく説明される)を調和させる目的のための信頼できる基準の道路の一部としてサンプリングされ得る。なお、本願において、基準の道路の一部は舗装道路の一部だけでなく、車両が均一的な色とテクスチャを有し得る地面の任意の一部(例えば、高速道路、通り、田舎道、ピッチ、の一部)を含むことに留意されたい。
【0031】
車両11が図3Aに示された前方向に沿って移動しているとの決定に応じて、RVカメラは、図3Aに示された車両11の位置に対応する第1時刻tに第1画像を取得するように選択される(ステップ102)。図4Aは、tにRVカメラによって取得された画像200を示す。
【0032】
次に、2つのROI201、202は、画像200からサンプリングされるように選択される(ステップ103)。特に、ROI201、202は、ドローバ14の傍の、それぞれ道路の一部50及び51に対応するように、取得された画像200内に位置され寸法付けられる。
【0033】
ここで、2つのROI201、202を選択する方法の一例が開示される。
【0034】
車両ECU15がtに取得された画像200を受領すると、ECU15は、トレーラ12が長手軸に沿って車両11に実質的に整列されていると仮定し、ドローバ14の傍の道路の一部500、510が含まれると予想される2つのROI201、202をチェックするように構成される。
【0035】
例えば、ECU15は、トレーラ12が車両11に実質的に整列されたとき、トレーラ12とドローバ14によって占められた画像エリアを知ることでこれらROI201、202を定義するように構成される。1つの実装において、ECU15は、RVカメラにより取得され、且つ、車両11と整列されたトレーラ12を含む、画像のセット内のトレーラ12とドローバ14を検出することでこのエリアを学習することができる。これは高精度のROI(位置と大きさ)の提供を可能とするが、この方式は実装において煩雑さを加えることを理解されたい。或いは、ECU15は車両11とドローバ14の寸法パラメータ(例えば、少なくとも車両11の幅とドローバ14の長さ)を知ることでこのエリアを推定することもできる。この情報は、ユーザの入力からこの情報を受領する、トレーラ12とドローバ14のスキャンを受領する、又はネットワーク接続などを介して車両のCADデータを取得するなど、様々な方法でECU15に提供され得る。いずれの場合でも、既定のROI位置は、車両CADからの車両11上のカメラRVの既知の位置と車両11の既知の幅(これもまた車両CADから取得できる)から決定され得る。これは適切なドローバの最短の長さを示し、ドローバは、少なくとも車両の幅の半分以上であるべきである。これは、ROIの既定の位置が、最低限のユーザ入力と処理能力で決定されることを可能とする。
【0036】
次に、ECU15は、チェックされたROI201、202のいずれかが(画像取得時刻tにおける車両のステアリングによって)ドローバ14又はトレーラ12の一部を含むか否かを決定する。一実施形態において、ECU15は、ROI201、202に画像検出を適用し、ROI201、202のいずれかがドローバ14又はトレーラ12の一部を含むか否かを検出する。別の実施形態において、ECU15は、センサ17及び/又はGPS位置情報によって提供されるオドメトリデータを用いて画像取得時刻tに車両11のステアリング角度を測定し、測定された角度を閾値と比較する。測定されたステアリング角度が閾値未満(ヌル値を含む)であるとの決定に応じて、ECU15はROI201、202のいずれもドローバ14又はトレーラ12の一部を含まないと決定する。加えて、又は代替として、ECU15が車両11とトレーラ12の長手軸の間の測定されたヒッチ角度を用いることで同様の決定がなされ得る。この角度は、例えば、ヒッチ14を通る長手軸の周りでトレーラ12の回転を検出するように、取得された画像200からの画像情報を用いることなど、任意の数の方法で測定され得る。同様に、車両ミラーカメラML、MRからの画像情報は、車両とトレーラの相対角度を推定するために、それぞれの視野内で横方向に移動しているトレーラの表面からの特徴を検出し得る。車両とトレーラの相対角度を決定する他の手法は、車両11の後方に設けられる後向きの超音波又はレーダセンサからの情報を用いること(ここで、センサによって測定された差分の変化は、車両11とトレーラ12の相対角度の変化を通知する)を含む。
【0037】
図4Aに示された画像200を再び参照すると、ECU15は、チェックされたROI201、202のいずれもドローバ14又はトレーラ12の一部を含まないと決定する。この決定に応じて、ROI201、202は画像200からサンプリングされるように選択される(ステップ103)。
【0038】
さらに、図4Aから、選択されたROI201、202は、一日の任意の時刻と光の状態においても、ドローバ14によって(及びトレーラ12によって)投影された影に影響されるとしても最低限になるように、ドローバ14の各側500、510から離間された道路の一部50、51に対応するように定義されることに留意されたい。
【0039】
図3Aを再び参照すると、tにおいて車両11が、直線の軌跡に沿って前進する代わりに、右にステアリングされていたら、ステアリング角度は、tにRVカメラによって取得された画像内でドローバ14の左側500の傍の道路の一部50のみが視認できるものになってもよいことをさらに理解されたい。同様に、tに車両が左にステアリングされていたら、ステアリング角度は、tにRVカメラによって取得された画像内でドローバ14の右側510の傍の道路の一部51のみが視認できるものになってもよい。
【0040】
これらの場合、方法ステップ103は、ステアリング方向におけるRVカメラによって撮像され得る道路の一部50、51に対応するROI201、202のうちの1つのみを選択することを含む。
【0041】
他の実施形態において、ECU15がtにRVカメラによって取得されたが画像を受信すると、ECU15は、トレーラ12とドローバ14によって占められた画像エリアを決定するようにトレーラ12とドローバ14の検出を遂行し、ドローバ14の側500、510の傍のそれぞれの道路の一部50、51を含み得る検出された範囲の周りのうちの1つ又は複数のROI201、202を選択し得る。いくつかの他の実施形態において、例えばテクスチャ志向の方法を用いて、又は画素強度を評価することによって、ROIの選択は撮像されたシーン内の道路の一部の検出に基づいてなされてよい。
【0042】
さらに、上記の記載された実施形態は、取得時刻tにRVカメラによって取得された画像からドローバ14の傍の道路の一部50、51をサンプリングすることに基づくが、加えて、又は代替として、トレーラ12の傍のRVカメラの視野FOV内で見られる道路の一部も画像調和の基準としてサンプリングされ得ることを理解されたい。この場合、ROIの選択にはトレーラが道路18へ投影する影も考慮されるべき(図4Aでみられるように、トレーラが投影する影は太陽の向きによっては周りの道路の一部をカバーする場合があるため)である。
【0043】
方法100の説明は、2つのROI201、202が図4Aに示された画像200からサンプリングされるように、方法ステップ103で選択される場合に戻って参照し続ける。それにもかかわらず、次の開示は、方法ステップ103でROI201、202のうちの1つだけが(ステアリングのため)選択される場合にも適用され得る。
【0044】
選択されたROI201、202は画像200からサンプリングされ(ステップ104)、それぞれの画像データは、システムのメモリ内やシステムによって接近可能な他の記憶手段(例えばネットワーク接続を介してシステムによってアクセス可能なデータベースやサーバ)に記憶される。
【0045】
次に、方法ステップ105で、画像200の取得時刻tの後に車両11が移動した距離は、画像200からサンプリングされたROI201、202に対応する同じ道路の一部50、51が第2画像に定義される対応するROIに含まれるように、トレーラ12のTRカメラによって第2画像を取得する第2時刻tを決定するように監視される。移動距離は、センサ17及び/又はGPS移動距離から提供されるオドメトリデータを用いて監視され得る。
【0046】
例えば、図3Bは、車両11が図3Aに示された位置からさらに前方向に沿って移動し、道路の一部50、51のそれぞれがTRカメラの視野FOV内で視認できるように(移動距離dxを移動している間、シーン内に移動してくる物体によって遮蔽されないとき)距離dxをカバーしていることを示す。
【0047】
移動距離dxに対応する時刻tが決定され、画像300がtにTRカメラによって取得される(ステップ106)。取得された画像300は図4Bに示され、移動距離dxによって道路の一部50、51が含まれると予想される2つのROI301、302を含む(図4Bの例では、物体が道路の一部50、51を遮蔽しないため、ROI301、302は道路の一部50、51を実際に含む)。
【0048】
なお、図3A-3Bに戻って、カメラRVとカメラTRが路面上で同じ高さ、及び路面に対して同じ相対角度にあり、且つ同じ投影モデルを有する場合、移動距離dxはRVカメラとTRカメラの間の距離D(トレーラ12とドローバ14の長さの和に実質的に対応する)とほぼ等しい。この場合、図4B-4Aを参照して、ROI301、302は、画像200及びROI201、202の画素エリア内に実質的に対応する、画像300内の位置の画素エリアであると定義され得る。これはサンプリングされたROI201、202内の画像データとサンプリングされたROI301、302内の画像データとの比較性を向上する。したがって、カメラRVとカメラTRの相対位置、高さ、及び/又は投影モデルが異なる場合、それに応じて距離dxが変わり、及び/又はROI201、202及び301、302が互いに異なる手法でマッピングされる必要があることを理解されたい。
【0049】
いずれの場合も、道路の一部50、51が依然としてTRカメラの視野FOV2内で視認できる限り、TRカメラのために決定された取得時刻tはdxを超過する又は未満の移動距離に対応され得る。
【0050】
に画像300を取得した後、ROI301、302はサンプリングされ(ステップ107)、それぞれの画像データはシステムのメモリ(又はシステムによってアクセス可能な他の記憶手段)内に記憶される。
【0051】
最初の方法ステップ101に戻って、車両11の方向が逆方向であるとの決定に応じて方法100の動作が開示される。
【0052】
特に、図5Aを参照すると、ステップ101の決定において、車両11が長手軸30に対応する実質的に直線の方向に沿って後進する場合が考慮される。図5Aで、TRカメラの視野FOVは、車両11が(図5Bに示されたように)逆方向に進むにつれて、ドローバ14の側の傍500、510のRVカメラの視野FOV内で視認され得る、車両11とトレーラ12の間の間隔内の第1道路の一部60と第2道路の一部61をカバーする。このように、道路の一部60、61がトレーラ12やドローバ14によって遮蔽されなくなるため、TRカメラとRVカメラの両方によって異なる時刻にサンプリングされ、画像調和のための信頼できる基準として用いられることができる。
【0053】
車両11が図5Aに示された逆方向に沿って移動しているとの決定に応じて、TRカメラは、図5Aに示された車両11の位置に対応する第1時刻tに第1画像を取得するように選択される(ステップ108)。図6Aは、tにTRカメラによって取得された画像400を示す。
【0054】
次に、2つのROI401、402が画像400からサンプリングされるように選択される(ステップ109)。特に、ROI401、402は道路の一部60、61を含むように取得された画像400内に位置され寸法決めされる。
【0055】
ここで、2つのROI401、402を選択する例示的な方法が記載される。
【0056】
車両ECU15がtに取得された画像400を受信すると、ECU15は、トレーラ12が長手軸に沿って車両11に実質的に整列されたと仮定し、ドローバ14の側500、510の傍のRVカメラによって視認できる道路の一部に対応する2つのROI401、402をチェックするように構成される。例えば、ECU15は、トレーラ12が車両11と実質的に整列されるとき、トレーラ12とトレーラドローバ14によって占められた画像エリアを知ることで、これらROI401、402を定義するように構成される。
【0057】
それから、ECU15は車両11が実質的に直線の軌跡に沿って後進しているか否かを決定する。例えば、ECU15は、画像取得時刻tに、センサ17及び/又はGPS位置情報によって提供されるオドメトリデータを用いて、車両11のステアリング角度又は車両11とトレーラ12の間のヒッチ角度を測定し、測定された角度を閾値と比較する。測定されたステアリング角度又はヒッチ角度が閾値未満の値(ヌル値を含む)であるとの決定に応じて、ECU15は車両11が直線方向に沿って後進していると決定する。この決定に応じて、ECUは画像400からサンプリングされる2つのROI401、402を選択する。
【0058】
図5Aに戻って、tにおいて、直線の軌跡に沿って後進する代わりに、車両11が右にステアリングしながら後進する場合、車両11が逆方向に進みながら、道路の一部60のみがドローバ14の側500の傍のRVカメラの視野FOV内で視認できるようになり得るようなステアリング角度になり得ることを理解されたい。同様に、tにおいて、直線の軌跡に沿って後進する代わりに、車両11が左にステアリングしながら後進すると、ステアリング角度が、車両11が逆方向に進みながら、道路の一部61のみがドローバ14の側510の傍のRVカメラの視野FOV内で視認できるようになり得るようなステアリング角度になり得る。
【0059】
これらの場合、方法ステップ109は、ステアリング方向におけるRVカメラによっても撮像され得る道路の一部60、61に対応するROI401、402のうちの1つのみを選択することを含む。
【0060】
方法100の説明は、ステップ109で、図6Aに示された画像400からサンプリングされるように2つのROI401、402が選択される場合を参照し続ける。それにもかかわらず、次の開示は、(ステアリングのため)1つのROIのみが方法ステップ109でサンプリングされるように選択される場合にも適用される。
【0061】
ROI401、402は、画像400からサンプリングされ(ステップ110)、それぞれの画像データはシステム内のメモリ(又はシステムによってアクセス可能な他の記憶手段)に格納される。
【0062】
次に、方法ステップ111において、画像400の取得時刻tの後の車両11の移動距離は、(TRカメラによって取得された)画像400からサンプリングされたROI401、402に対応する道路の一部60、61が第2画像に定義された対応するROIに含まれるように、車両11のRVカメラによって第2画像を取得する第2時刻tを決定するために監視される。
【0063】
例えば、図5Bは、車両11が図5Aに示された位置から逆方向に沿ってさらに移動し、道路の一部60、61がそれぞれRVカメラの視野FOV内で視認できるように(移動距離dxを移動している間にシーン内に移動している物体によって遮蔽されない場合)距離dx進むことを示す。移動距離dxに対応する時刻t2が決定され、tにおいてRVカメラによって画像600が取得される(ステップ112)。
【0064】
取得された画像600は図6Bに示され、移動距離dxにしたがって道路の一部60、61が含まれると予想される(図6Bの例において、道路の一部60、61を遮蔽する物体がないため、ROI601、602がこれらの一部60、61を実際に含む)撮像されたドローバ14の側500、510の傍の2つのROI601、602を含む。
【0065】
なお、図5A-5Bに戻ると、道路の一部60、61は、tにおける同じ道路の一部60、61とRVカメラとの間の取得距離とほぼ同じ取得距離で、tに、TRカメラによって撮像される。このように、tに、一部60、61のうちの1つを遮蔽する物体がある可能性が減る。さらに、図6A-6Bを参照すると、ROI401、402は、画像600及びROI601、602の画素エリアに実質的に対応する、画像400内の位置の画素エリアであると定義される。
【0066】
方法100は、画像600からROI601、602をサンプリングすることで次に進み(ステップ113)、それぞれの画像データはシステムのメモリ(又はシステムによってアクセス可能な他の記憶手段)内に記憶される。
【0067】
簡潔さのため、方法100の(最初のステップ101で前方向の決定に続く)ステップ102-107の動作においてサンプリングされたROI201、202、301、302のみを参照した、方法100の実行による調和処理が開示される。なお、本開示の原理は、方法100の(最初のステップ101で逆方向の決定に続く)ステップ108-113においてサンプリングされたROI401、402、601、602に基づく調和処理の動作にも同様に適用されることに留意されたい。
【0068】
(tにRVカメラによって取得された画像200から抽出された)サンプリングされたROI201、202の画像データ、及び(tにTRカメラによって取得された画像300から抽出された)サンプリングされたROI301、302の画像データは、システムのメモリ(又はシステムによってアクセス可能な他の記憶手段)から取り戻され、(車両ECU15又はシステムの他の処理ユニットによって実装される)調和ネットワークに提供され、取り戻された画像データがYUVフォーマットに変換されていない場合、変換される(ステップ114)。
【0069】
次に、輝度成分YとYがROI201、202の画素データから推定され、輝度成分YとYがROI301、302の画素データから推定される(ステップ115)。Y乃至Yを推定することには、様々な方法が使われ得る。例えば、ROI201、202、301、302の輝度を説明するために生成されたヒストグラムに基づいてY乃至Yを推定するいくつかの手法は、上記のWO2018/087348に開示される(非セグメント化(non-segmentation)ベースの方法、ヒストグラムセグメント化ベースの方法、及び二峰性(bi-modal)ヒストグラムセグメント化ベースの方法を含む)。
【0070】
異なる撮像された物体の輝度が著しく異なるとの理解に基づき、ROI201、301の推定Y1とY3との間の差分が、これらROI201、301の両方が同じ基準の道路の一部50を含むか否かを確認する目的で、閾値と比較される(ステップ116)。
【0071】
-Yの絶対値が閾値未満であるとの決定に応じて、この少ない差分はRVカメラとTRカメラの明るさ調和が足りないことによると推定される。このように、ROI201、301内の画像データは同じ基準の道路の一部50に属すると確認される。
【0072】
-Yの絶対値が閾値を超過するとの決定に応じて、ROI201、301内の画像データは異なる撮像された物体に属すと決定される。例えば、これは、ROI201、301が抽出された画像200、300の取得時刻tとtの間に物体(他の車両や人など)が道路の一部50に移動した場合に該当し得る。別の場合では、物体はt1に道路の一部50を覆い、取得時刻t-tの間に一部50から去ることもあり得る。
【0073】
とYとの差分を閾値と比較することによって、2つのROI202、302の両方が同じ基準の道路の一部51を含むか否かを検証するために、同様の検証が遂行される(ステップ116)。
【0074】
差分Y-YとY-Yのうちの少なくとも1つの絶対値が閾値未満であるとの決定に応じて、このような差分は車両11のRVカメラとトレーラ12のTRカメラによって取得された画像の明るさを調和する補正パラメータを決定するために用いられる(ステップ117)。輝度の差分の値に基づいて明るさ補正パラメータを決定するように、WO2018/087348に記載された方法のような様々な方法が適用され得る。一度決定されると、明るさ補正パラメータはシステムのメモリ(又はシステムによってアクセス可能な任意の他の記憶手段)に記憶され得る。
【0075】
さらに、色度値U、VとU、VはROI201、201の画素データから推定され、色度値U、VとU、VはROI301、302の画素データから推定される。U-U、V-Vの差分の値は、RVカメラとTRカメラによって取得された画像の色を調和する補正パラメータを決定するために用いられる(ステップ117)。輝度の差分の値に基づいて色補正パラメータを決定するように、WO2018/087348に記載されたような様々な方法が適用され得る。一度決定されると、色補正パラメータはシステムのメモリ(又はシステムによってアクセス可能な他の記憶手段)に記憶され得る。
【0076】
いくつかの実施形態で、差分U1-U3、V1-V3のそれぞれはその値が閾値未満であると検証した場合にのみ、色補正パラメータを算出するために用いられる。
【0077】
さらに、上記に記載された実施形態はROI201、202、301、302のデータコンテンツ全体を説明するために推定されたY、U、V値の間の比較に基づくが、他の実施形態では、ROI201、202、301が、それぞれのY、U、Vが調和パラメータを決定するために推定され比較されるサブ領域に分割されてもよい。サブ領域は、ROI201、202、301、302内の単一画素又は画素群に対応され得る。
【0078】
Y、U、V補正パラメータの算出後、方法100は後の段階で再実行され、車両11の方向を決定するためにステップ101からまた開始され得る。例えば、システムは、当該方法を定期的に開始する(及び/又は測定の運転活動/環境条件によって引き起こされる)ように構成されてよい。このように、記憶された調和補正パラメータが時間によって更新される。
【0079】
ステップ116に戻って参照すると、方法100はY1-Y3とY2-Y4の両方が閾値を超過する絶対値を有するとの決定の後にも、方法100が再実行される(この決定が方法100の再実行を引き起こしてもよい)。
【0080】
車両11のメインディスプレイ22又はデジタル後方ミラーを提供するフロントガラスなどに表示される不可視トレーラ視野などの、RVカメラとTRカメラによって取得された合成画像を含む複合ビューを生成する処理で適用することを要求されるとき(ステップ118)、決定された調和補正パラメータは、それから、システムによって取り戻され得る。いくつかの実施形態では、これら画像が複合ビューに合成される前に、RVカメラとTRカメラによって取得された画像のうちの少なくとも1つに調和補正パラメータが適用される。他の実施形態では、補正パラメータが複合ビュー、特にRVカメラとTRカメラによって取得された画像の間の合成領域に適用される。
【0081】
図7は、開示された方法100の動作によって決定された補正パラメータを用いて調和された不可視トレーラ視野の表示された画像700の一例を示しており、TRカメラによって取得された画像701が線703に沿ってRVカメラによって取得された画像702と(取得された画像の間の空間間隔のために混合せず)合成される。視野の底にあるボックスの列は、ディスプレイを制御しビジョンシステムの一部を形成するアプリケーションのユーザインタフェースの様々なボタンやウィジェットに対応する。ディスプレイがタッチスクリーンを備える場合、これらウィジェットは対話型でもよく、運転者がそれぞれのウィジェットによって示される機能を直接選択できるようにしてよい。
【0082】
他の複合ビューは、方法100の動作によって取得された調和補正パラメータを適用することで、ディスプレイ22上に表示され自動又は半自動動作を遂行するように用いられる、記憶されて後の段階で取り戻され得る(例えば、事故の後や、トレーラの内容物を盗まれた後の調査のために)映像を提供できるトレーラ12の周りの環境の上面視などのその他の複合ビューを提供することができるなどの利益を得ることができる。
【0083】
ステップ116に戻って、Y-YとY-Y両方の差分が閾値を超過する絶対値を有すると決定された場合、複合ビューを調和させるための更新された調和パラメータはシステムに存在しない。したがって、システムは、方法100の動作によって過去に生成されて記憶された補正パラメータが利用可能か否かを決定する(ステップ119)ことができる。肯定的な決定に応じて、システムは、過去の補正パラメータを適用して複合ビューを調和させる(ステップ120)ことができる。否定的な決定に応じて(例えば、方法が1周回だけ遂行されたか、過去のパラメータが取り戻せないため)、調和は適用されない(ステップ121-そして、この場合、陰の決定は方法100の再実行を引き起こしてよい)。
【0084】
方法100の実行が車両11とトレーラ12のRVとTRカメラを調和するように開示されたが、車両11が進行方向に沿って移動しているにつれて、FVとRVカメラによって同じ道路の一部をサンプリングし、且つサンプリングされた道路の一部を調和の共通基準として用いることに基づいて、同じ原理が車両11(又はトレーラの有無を問わない他の車両)の前方FVカメラと後方カメラRVを調和するためにも同様に適用され得る。
図1
図2
図3A
図3B
図4A
図4B
図5A
図5B
図6A
図6B
図7
【外国語明細書】