IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日立オートモティブシステムズ株式会社の特許一覧

特許7576181可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法
<>
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図1
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図2
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図3
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図4
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図5
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図6
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図7
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図8
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図9
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図10
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図11
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図12
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図13
  • 特許-可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-22
(45)【発行日】2024-10-30
(54)【発明の名称】可視光カメラ情報と熱カメラ情報とを組合せて処理を行うシステム及び方法
(51)【国際特許分類】
   G08G 1/16 20060101AFI20241023BHJP
   B60W 30/08 20120101ALI20241023BHJP
   B60W 40/02 20060101ALI20241023BHJP
【FI】
G08G1/16 C
B60W30/08
B60W40/02
【請求項の数】 20
(21)【出願番号】P 2023542588
(86)(22)【出願日】2021-09-17
(65)【公表番号】
(43)【公表日】2024-01-26
(86)【国際出願番号】 JP2021034258
(87)【国際公開番号】W WO2022158039
(87)【国際公開日】2022-07-28
【審査請求日】2023-07-12
(31)【優先権主張番号】17/153,949
(32)【優先日】2021-01-21
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】509186579
【氏名又は名称】日立Astemo株式会社
(74)【代理人】
【識別番号】110000925
【氏名又は名称】弁理士法人信友国際特許事務所
(72)【発明者】
【氏名】スブラタ クマル クンドゥ
(72)【発明者】
【氏名】ナビ-ン クマール バンガロール ラマイア
【審査官】白石 剛史
(56)【参考文献】
【文献】米国特許出願公開第2018/0197022(US,A1)
【文献】特開2017-60119(JP,A)
【文献】特開2008-234178(JP,A)
【文献】特開2001-101596(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/16
B60W 30/08
B60W 40/02
(57)【特許請求の範囲】
【請求項1】
システムであって、
少なくとも1つの第1の可視光画像と第1の熱画像とを受信することと、
前記少なくとも1つの第1の可視光画像から、前記少なくとも1つの第1の可視光画像におけるエッジ領域を識別するエッジ画像を生成することと、
前記エッジ画像からの情報に少なくとも部分的に基づいて、車線マーカ又は道路エッジ領域の少なくとも一方を決定することと、
前記車線マーカ又は前記道路エッジ領域の前記少なくとも一方に基づいて、前記第1の熱画像内の1つ又は複数の第1の関心領域を決定することと、
前記第1の熱画像内の前記1つ又は複数の第1の関心領域に基づいて熱センサのゲインを調整することと、
1つ又は複数の第2の可視光画像と第2の熱画像とを受信することと、
前記第2の熱画像内の1つ又は複数の第2の関心領域を決定することと、
前記1つ又は複数の第2の関心領域を前記1つ又は複数の第2の可視光画像にマッピングすることと、
前記マッピングに基づいて、前記1つ又は複数の第2の可視光画像から、前記1つ又は複数の第2の関心領域に対応する1つ又は複数の密な視差領域を、前記1つ又は複数の第2の関心領域の外側の領域に対応する1つ又は複数の疎な視差領域と組み合わせた視差マップ画像を生成することとを含む動作を実行する実行可能命令によって構成された1つ又は複数のプロセッサを備える、システム。
【請求項2】
少なくとも2つの第1の可視光画像が存在し、前記動作が、
前記第1の可視光画像から第1の視差マップ画像を決定することと、
第1の視差マップ画像からの情報をエッジ画像からの情報と組み合わせて視差エッジ画像を生成することと、
前記視差エッジ画像に基づいて、前記車線マーカ及び前記道路エッジ領域の少なくとも一方を決定することとをさらに含む、請求項1に記載のシステム。
【請求項3】
前記動作が、前記視差エッジ画像から前記第1の熱画像への軸変換を実行することをさらに含む、請求項2に記載のシステム。
【請求項4】
前記少なくとも2つの第1の可視光画像が、ステレオ可視光カメラから受信した左画像と右画像とを含む、請求項2に記載のシステム。
【請求項5】
前記少なくとも2つの第1の可視光画像が、モノラル可視光カメラから受信した連続した画像を含む、請求項1に記載のシステム。
【請求項6】
前記第2の熱画像内の前記1つ又は複数の第2の関心領域を決定する前記動作が、
前記第2の熱画像の画素に閾値を適用することと、
前記閾値を超える画素に対してクラスタリングを実行して、前記1つ又は複数の第2の関心領域を決定することとをさらに含む、請求項1に記載のシステム。
【請求項7】
前記動作が、
前記視差マップ画像内の1つ又は複数の特徴の認識を実行して認識情報を決定することと、
前記認識情報に基づいて少なくとも1つの制御信号を送信することであって、前記少なくとも1つの制御信号が、
車両を制御して前記車両に加速又は減速させる命令、
前記車両を制御して前記車両に前記車両の車輪を操舵させる命令、又は
警告を提示させる命令のうちの少なくとも1つを含むこととをさらに含む、請求項1に記載のシステム。
【請求項8】
方法であって、
1つ又は複数のプロセッサによって、少なくとも1つの第1の可視光画像と第1の熱画像とを受信することと、
前記少なくとも1つの第1の可視光画像から、前記少なくとも1つの第1の可視光画像におけるエッジ領域を識別するエッジ画像を生成することと、
前記エッジ画像からの情報に少なくとも部分的に基づいて、車線マーカ又は道路エッジ領域の少なくとも一方を決定することと、
前記車線マーカ又は前記道路エッジ領域の前記少なくとも一方に基づいて、前記第1の熱画像内の1つ又は複数の第1の関心領域を決定することと、
前記第1の熱画像内の前記1つ又は複数の第1の関心領域に基づいて熱センサのゲインを調整することとを含む、方法。
【請求項9】
1つ又は複数の第2の可視光画像と第2の熱画像とを受信することと、
前記第2の熱画像内の1つ又は複数の第2の関心領域を決定することと、
前記1つ又は複数の第2の関心領域を前記1つ又は複数の第2の可視光画像にマッピングすることと、
前記マッピングに基づいて、前記1つ又は複数の第2の可視光画像から、前記1つ又は複数の第2の関心領域に対応する1つ又は複数の密な視差領域を、前記1つ又は複数の第2の関心領域の外側の領域に対応する1つ又は複数の疎な視差領域と組み合わせた視差マップ画像を生成することとをさらに含む、請求項8に記載の方法。
【請求項10】
前記視差マップ画像内の1つ又は複数の特徴の認識を実行して認識情報を決定することと、
前記認識情報に基づいて少なくとも1つの制御信号を送信することであって、前記少なくとも1つの制御信号が、
車両を制御して前記車両に加速又は減速させる命令、
前記車両を制御して前記車両に前記車両の車輪を操舵させる命令、又は
警告を提示させる命令のうちの少なくとも1つを含むこととをさらに含む、請求項9に記載の方法。
【請求項11】
ゲインを調整するために適用するゲイン重みを決定するための決定木をナビゲートすることに少なくとも部分的に基づいて前記熱センサの前記ゲインを調整することをさらに含み、前記決定木が複数の組合せ条件に基づいて決定された複数のゲイン重みを含む、請求項8に記載の方法。
【請求項12】
少なくとも2つの第1の可視光画像が存在し、前記方法が、
前記第1の可視光画像から第1の視差マップ画像を決定することと、
第1の視差マップ画像からの情報をエッジ画像からの情報と組み合わせて視差エッジ画像を生成することと、
前記視差エッジ画像に基づいて、前記車線マーカ及び前記道路エッジ領域の少なくとも一方を決定することとをさらに含む、請求項8に記載の方法。
【請求項13】
前記視差エッジ画像から前記第1の熱画像への軸変換を実行することをさらに含む、請求項12に記載の方法。
【請求項14】
前記少なくとも2つの第1の可視光画像が、ステレオ可視光カメラから受信した左画像と右画像とを含む、請求項12に記載の方法。
【請求項15】
1つ又は複数の可視光画像と熱画像とを受信することと、
前記熱画像内の1つ又は複数の関心領域を決定することと、
前記1つ又は複数の関心領域を前記1つ又は複数の可視光画像にマッピングすることと、
前記マッピングに基づいて、前記1つ又は複数の可視光画像から、前記1つ又は複数の関心領域に対応する1つ又は複数の密な視差領域を、前記1つ又は複数の関心領域の外側の領域に対応する1つ又は複数の疎な視差領域と組み合わせた視差マップ画像を生成することとを含む
動作を実行するための実行可能な命令によって構成された
1つ又は複数のプロセッサを備える、システム。
【請求項16】
前記動作が、少なくとも1つの車両制御機能を実行するために前記視差マップ画像内の1つ又は複数の特徴の認識を実行することをさらに含む、請求項15に記載のシステム。
【請求項17】
前記動作が、前記1つ又は複数の可視光画像と前記熱画像を受信する前に、
1つ又は複数のプロセッサによって、少なくとも1つの事前の可視光画像と事前の熱画像とを受信することと、
前記少なくとも1つの事前の可視光画像から、前記少なくとも1つの事前の可視光画像におけるエッジ領域を識別するエッジ画像を生成することと、
前記エッジ画像からの情報に少なくとも部分的に基づいて、車線マーカ又は道路エッジ領域の少なくとも一方を決定することと、
前記車線マーカ又は前記道路エッジ領域の前記少なくとも一方に基づいて、前記事前の熱画像内の1つ又は複数の関心領域を決定することと、
前記事前の熱画像内の前記1つ又は複数の関心領域に基づいて熱センサのゲインを調整することとをさらに含む、請求項15に記載の方法。
【請求項18】
前記動作が、前記1つ又は複数の可視光画像を最初にダウンサンプリングすることによって前記1つ又は複数の疎な視差領域を決定することをさらに含む、請求項15に記載のシステム。
【請求項19】
受信した第2の熱画像内の前記1つ又は複数の第2の関心領域を決定する前記動作が、
前記第2の熱画像の画素に閾値を適用することと、
前記閾値を超える画素に対してクラスタリングを実行して、前記1つ又は複数の第2の関心領域を決定することとをさらに含む、請求項15に記載のシステム。
【請求項20】
受信した第2の熱画像内の前記1つ又は複数の第2の関心領域を決定する前記動作が、訓練データに基づいて前記1つ又は複数の第2の関心領域を識別するように訓練された機械学習モデルに前記第2の熱画像を入力することをさらに含む、請求項15に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、安全性の向上、自動ナビゲーションなどのために車両制御を自動化又は強化するシステム及び方法に関する。
【背景技術】
【0002】
先進運転者支援システム(ADAS)、並びに半自律走行車システム、自動運転システム、又は他の自動運転(AD)システムは、安全性の向上、自動化ナビゲーションなどのために車両制御を自動化又は強化するシステムである。これらのシステムは、通常、道路を認識し、他の車両、障害物、歩行者などを認識して回避するための複数の種類のセンサを使用する。しかし、様々な異なる環境、交通、及び道路条件において限られた処理能力で複数のセンサのセンサ読み取り値をリアルタイムで組み合わせてそれらに応答することは困難な場合がある。
【0003】
特許文献1には、車両用障害物検出装置について記載されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開2000-318513号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
解決すべき問題は、様々な異なる環境、交通、及び道路条件においてリアルタイムの処理能力で複数のセンサのセンサ読み取り値を組み合わせてそれらに応答することである。
【課題を解決するための手段】
【0006】
いくつかの実施形態では、1つ又は複数のプロセッサは、少なくとも1つの第1の可視光画像及び第1の熱画像を受信してもよい。さらに、プロセッサは、少なくとも1つの第1の可視光画像から、少なくとも1つの第1の可視光画像内のエッジ領域を識別するエッジ画像を生成してもよい。車線マーカ又は道路エッジ領域の少なくとも一方は、エッジ画像からの情報に少なくとも部分的に基づいて決定されてもよい。また、第1の熱画像内の1つ又は複数の第1の関心領域は、車線マーカ又は道路エッジ領域の少なくとも一方に基づいて決定されてもよい。さらに、熱センサのゲインは、第1の熱画像内の1つ又は複数の第1の関心領域に基づいて調整されてもよい。
【0007】
また、いくつかの実施形態では、1つ又は複数のプロセッサは、1つ又は複数の可視光画像及び熱画像を受信してもよい。1つ又は複数の関心領域が熱画像内で決定されてもよく、1つ又は複数の関心領域が1つ又は複数の可視光画像にマッピングされてもよい。プロセッサは、1つ又は複数の関心領域に対応する1つ又は複数の密な視差領域を、1つ又は複数の関心領域の外側の領域に対応する1つ又は複数の疎な視差領域と組み合わせる視差マップ画像を、マッピングに基づいて、1つ又は複数の可視光画像から生成してもよい。
【発明の効果】
【0008】
本明細書のいくつかの実施形態は、AD/ADASアプリケーション向けなどのすべての種類の気象条件に対する障害物及び道路特徴の検出及び認識を向上させる。例えば、ステレオ又はモノラルVLカメラのみ、又は熱カメラのみなどの単一のセンサを使用して、すべての気象及び日照条件について障害物、路面、標識、信号機などを検出及び認識することは困難なことがある。したがって、本明細書のいくつかの例は、VLカメラ画像と熱カメラ画像との効率的な融合を提供して、多数の気象及び道路条件に対する高精度の検出及び認識能力を実現する。
【0009】
詳細な説明は、添付の図面を参照して説明される。図面において、参照番号の左端の数字は、参照番号が最初に現れる図を識別する。異なる図における同じ参照番号の使用は、類似又は同一のアイテム又は特徴を示す。
【図面の簡単な説明】
【0010】
図1】いくつかの実施形態による、車両の周囲の認識を実行するように構成された例示的な認識システムを示す図である。
図2】いくつかの実施形態による、車両に含まれ得る認識システムの例示的なアーキテクチャを示す図である。
図3】いくつかの実施形態による、車両に含まれ得る認識及び車両制御システム300の例示的なアーキテクチャを示す図である。
図4】いくつかの実施形態による、カメラシステムによって実行される画像キャプチャの一例を示す図である。
図5】いくつかの実施形態による、ステレオカメラ画像を使用した動的ゲイン調整のための例示的なプロセスを示すフロー図である。
図6】いくつかの実施形態による、モノラルカメラ画像を使用した動的ゲイン調整のための例示的なプロセスを示すフロー図である。
図7】いくつかの実施形態による、視差エッジ画像を生成するための例示的なプロセスを示すフロー図である。
図8】いくつかの実施形態による、熱カメラに対する可視光カメラ、又はその逆の相対姿勢を決定するための例示的なプロセスを示す図である。
図9】いくつかの実施形態による、ゲイン重みを選択するための例示的なルックアップテーブル及び決定木を示す図である。
図10】いくつかの実施形態による、動的較正調整前後の例示的な熱画像を示す図である。
図11】いくつかの実施形態による、疎な視差領域と密な視差領域とを組み合わせる視差マップを生成するための例示的なプロセスを示すフロー図である。
図12】いくつかの実施形態による、高優先度領域及び低優先度領域を決定するための例示的な画像を示す図である。
図13】いくつかの実施形態による、ステレオ画像内の高優先度領域を決定するためのブロックマッチングの一例を示す図である。
図14】いくつかの実施形態によって決定された、疎な視差領域及び密な視差領域が組み合わされた例示的な視差マップ画像を示す図である。
【発明を実施するための形態】
【0011】
本明細書のいくつかの実施形態は、車道認識、障害物認識、障害物回避、又は他の認識及びナビゲーション可能機能などの認識を実行するために、1つ又は複数の可視光(VL)カメラと1つ又は複数の熱カメラとから受信した情報を組み合わせることができる技術及び構成に関する。例えば、本明細書の実施形態は、熱カメラ及び1つ又は複数のVLカメラから受信した情報に少なくとも部分的に基づいて視差マップを生成してもよい。また、本明細書の実施形態は、本明細書の認識結果の精度を高めるために熱カメラゲインの動的調整を実行してもよい。
【0012】
一例として、本明細書に記載の技術は、熱カメラ情報に少なくとも部分的に基づいて、障害物回避及び他のナビゲーション機能に使用するために、疎な視差マップ及び密な視差マップの領域をインテリジェントに計算してもよい。また、いくつかの例は、VLカメラの画像から決定されたエッジ視差情報に基づいて熱カメラゲイン値の動的調整を実行してもよい。例えば、本明細書のエッジ視差情報は、モノラルVLカメラ又はステレオVLカメラなどのVLカメラから受信した画像から抽出してもよい。
【0013】
本明細書のいくつかの実施形態は、AD/ADASアプリケーション向けなどのすべての種類の気象条件に対する障害物及び道路特徴の検出及び認識を向上させる。例えば、ステレオ又はモノラルVLカメラのみ、又は熱カメラのみなどの単一のセンサを使用して、すべての気象及び日照条件について障害物、路面、標識、信号機などを検出及び認識することは困難なことがある。したがって、本明細書のいくつかの例は、VLカメラ画像と熱カメラ画像との効率的な融合を提供して、多数の気象及び道路条件に対する高精度の検出及び認識能力を実現する。
【0014】
一例として、本明細書のシステムは、車両に取り付けられた熱カメラと少なくとも1つのVLカメラとを含んでもよい。熱カメラとVLカメラの両方のそれぞれの視野(FOV)は、車両の前方の道路、並びに道路エッジ及び道路脇の物体を撮像するのに十分な広さであってもよい。熱カメラとVLカメラのFOVがほぼ同じである場合、計算は、熱カメラ及びVLカメラのFOVが異なる本明細書の他の例と比較して幾分単純化され得る。例えば、FOVが異なる場合、熱カメラ及び可視光カメラから受信した画像を融合するときに追加の較正動作を使用してFOVを一致させてもよい。さらに、本明細書の実施形態は、車両の前方の車道を撮像することに限定されず、車両の周囲の環境全体の認識を実行するためなど、車両の側方又は後方を撮像するために使用されてもよい。
【0015】
様々な異なる種類の気象条件に対して障害物の信頼できる認識を実行することは、ADAS/ADシステムにとって困難な問題であり得る。したがって、本明細書の実施形態は、多種多様な状態に対する正確な検出率及び認識率を可能にするための、VLカメラ画像及び熱カメラ画像の効率的な融合技術を含む。例えば、本明細書のいくつかの例は、融合されたカメラデータを使用して障害物の認識を実行するために視差マップの品質及び効率を向上させ、熱カメラセンサゲインの自動調整を提供する生データ融合技術を使用してもよい。これにより、本明細書のシステムは、従来の解決策と比較して向上した認識性能を提供することが可能になる。また、本明細書の実施形態は、比較的長い距離で障害物を検出するためなど、道路シーンの包括的な評価を提供する助けとなり得る。場合によっては人工知能を用いることで、VLカメラ情報及び熱カメラ情報を使用した高精度の認識性能を実現することができる。
【0016】
説明の目的のために、いくつかの例示的な実施形態は、車両周囲を検出して認識するために可視光画像及び熱画像を撮像して融合する環境において説明される。しかしながら、本明細書の実施形態は、提供される特定の例に限定されず、本明細書の開示に照らして当業者には明らかなように、他の種類のカメラ、他の種類の熱検知装置、他の種類の車両、他の種類の道路及び障害物、他の気象条件などに拡張されてもよい。
【0017】
図1は、いくつかの実施形態による、車両102の周囲の認識を実行するように構成された例示的な認識システム100を示す。この例では、車両102が、車道又は他の走行経路104を矢印106によって示される方向に走行していると仮定する。本明細書の認識システム100は、車両102に取り付けられ得る少なくとも1つのカメラシステム108を含んでもよい。図示の例では、カメラシステム108はVLカメラ110と熱カメラ112とを含んでもよい。この例では、VLカメラ110はステレオVLカメラである。他の例では、カメラシステム108は、VLカメラ110としてのVLステレオカメラの代わりに、又はそれに加えて、1つ又は複数のモノラルVLカメラを含んでもよい。さらに、場合によっては、複数の熱カメラ112が含まれてもよい。また、カメラシステム108のカメラ110、112は、この例では車両の屋根上に同じ場所に配置されているように示されているが、他の例では、熱カメラ112及び/又はVLカメラ110は、車両102の様々な異なる場所のうちのいずれかに一緒に又は別々に配置されてもよい。
【0018】
図示の例では、VLカメラ110のFOV114は、熱カメラ112のFOV116と一致する。FOV114、116は、車両102の前方の道路又は他の走行経路104、接近車両118、道路エッジ120、路側領域122、道路車線マーキング124などを撮像するのに十分な幅であってもよい。また、他の例では、VLカメラ110のFOV114は、横方向又は垂直方向の少なくとも一方において異なる撮像角度などを提供することなどによって、熱カメラ112のFOV116と異なっていてもよい。
【0019】
場合によっては、カメラシステム108は、車両102が動作している間、例えば10フレーム/秒、15フレーム/秒、30フレーム/秒、60フレーム/秒、又は回避行動をとるか、他の方法で認識情報に適応するために時間内での走行経路104及び走行経路内の障害物の認識を可能にするのに十分な高速度で画像を提供する任意の他の所望の頻度で、それぞれのFOV114、116に対応する画像を連続的に撮像してもよい。例えば、カメラシステム108の撮像頻度(サンプリング周波数)は、車速が増加するにつれて増加してもよい。また、場合によっては、VLカメラ110は、熱カメラ112のサンプリング周波数とは異なるサンプリング周波数で撮像してもよい。
【0020】
車両102は、以下でさらに説明するように、1つ又は複数の車両計算装置126を含んでもよい。車両計算装置126は、認識プログラム128及び車両制御プログラム130を実行してもよい。場合によっては、認識プログラム128は、カメラシステム108のカメラによって撮像された画像を受信し、画像に対して処理を実行して、車両102の現在の走行経路104に対する認識を実行してもよい。認識プログラム128は、検出され認識された特徴及び障害物に関する認識情報を車両制御プログラム130に提供してもよく、車両制御プログラムは、車両乗員に警告するための警報を発する、車両102を制動する、車両を加速させる、車両102の1つ又は複数の車輪を操舵するなど、認識情報に基づいて1つ又は複数のアクションを開始させてもよい。
【0021】
場合によっては、カメラシステム108は、認識プログラム128を実行する少なくとも1つの車両計算装置126を含んでもよい。他の場合には、車両計算装置126は、カメラシステム108とは別個であってもよく、認識プログラム128を実行するために車両102内の他の場所に配置されてもよい。いずれの場合も、車両計算装置126は、カメラシステム108から画像を受信してもよく、道路、道路特徴、標識、障害物、他の車両などを検出するために画像を処理してもよい。
【0022】
いくつかの例では、認識プログラム128は、例えばステレオカメラ画像、モノラルカメラ画像、又は複数のモノラルカメラから撮影された画像を使用して、受信画像から視差マップを生成してもよい。モノラルカメラが使用される場合、訓練された機械学習モデル(図1には示されていない)を使用して深度マップを計算してもよい。例えば、最初に、単眼画像のセット及びそれらの対応するグランドトゥルースの視差マップを撮像して機械学習モデルの訓練に使用してもよい。続いて、機械学習モデルを使用して、新たに撮像される画像の関数として視差マップの近似値を予測してもよい。
【0023】
あるいは、ステレオカメラ又は複数のカメラの場合、画像は2つ以上のカメラによって撮像してもよい。撮像された画像を使用して、セミグローバルブロックマッチング又は任意の他の適切な技術などのブロックマッチング技術を使用して視差を計算してもよい。視差情報を使用して視差マップを生成してもよい。本明細書のいくつかの例では、いくつかの例示的な実施形態を説明するための例示的なシステムとしてステレオカメラシステムが使用されているが、当業者であれば、単一のモノラルカメラ又は複数のモノラルカメラを有するシステムを使用することによっても同様の構成及び技術を適用し得ることを理解するであろう。
【0024】
熱カメラ(単に「熱センサ」とも呼ばれる)及びVLカメラは、異なる電磁波スペクトルで動作する。例えば、本明細書に記載のモノラルVLカメラ及びステレオVLカメラなどのVLカメラセンサは、可視光スペクトルで動作してもよい。赤外(IR)スペクトルは、可視光スペクトルの公称レッドエッジの約0.75マイクロメートルからほぼ1ミリメートルまでの波長範囲であり得、したがって、室温付近の物体によって放出される熱放射の大部分を含む。したがって、熱放射を含むIRスペクトルは、可視光スペクトルよりも長い波長を有するため、一般に人間の目には見えない。物体によって放出される熱放射は、典型的には遠方熱スペクトルの電磁波に対応するため、熱センサはこれらの波を検出し、熱画像を生成することができる。
【0025】
さらに、いくつかの例では、本明細書の熱カメラは近赤外(IR)カメラと区別され得る。例えば、近IRカメラは、例えば、0.75~1.4マイクロメートルの波長を検出し得るが、本明細書の熱カメラは、一例として、8~15マイクロメートルの範囲の波長を検出し得る。したがって、いくつかの例では、近IRカメラはVLカメラと同じセンサを使用してもよく、必要な波長のIR光を受光するために周囲IR光又はIRダイオードに依存してもよいが、一方で熱カメラは、ここでは中~遠IR波長の放出された熱を検出することに依存する。
【0026】
一般に、VLカメラは、検出範囲、光強度などを考慮するときなど、夜間と比較して昼間により良好な認識性能を画像に提供し得る。視差マップは、車道、障害物などのFOV内の特徴の検出及び認識を可能にし、認識された特徴までの距離を推定するための情報を提供してもよい。一例として、視差マップは、ステレオカメラからの左右カメラ画像を使用して作成されてもよい。生成された視差マップの品質は、認識及び距離推定の性能の品質と相関し得る。「密な」視差マップと呼ばれることが多いより高品質の視差マップは、密な視差マップを作成する際に考慮される画素の大部分に対して高精度の情報を提供し得る。一方、「疎な」視差マップと呼ばれることが多いより低品質の視差マップは、撮像された画像内の限られた数の画素に対してのみ正確な情報を提供し得る。しかしながら、密な視差マップの作成は、疎な視差マップの作成と比較して比較的計算コストが高く、より高価な処理ユニット及びメモリを必要とする場合がある。したがって、疎な視差マップは、必要な画素のすべてについて正しい情報を示さない場合があるが、計算要件を低減するために使用され得る。
【0027】
本明細書の熱カメラは、VLカメラと比較して、低照度条件で優れた性能を提供し得る。しかしながら、熱カメラは、熱センサの画素ゲインの較正に基づいて制限されることがあるため、いくつかの条件下では熱センサが十分に敏感でなくなることがある。したがって、本明細書の実施形態は、様々な異なる条件に対するセンサ画素ゲインの自動補正を提供する。例えば、深夜の温度が低い時などに、熱カメラの較正/ゲインパラメータを調整して、熱カメラで小さな温度差を検出できるようにしてもよい。例えば、本明細書の技術は、本明細書のインテリジェントなセンサゲイン調整に基づいて、夜間に路面と車線マーカとを区別できるようにしてもよい。
【0028】
本明細書の実施形態は、優れた認識結果を可能にするためにVLカメラデータと熱カメラデータとの融合を提供する。例えば、本明細書の技術は、より低コストの処理ユニット及びメモリを使用しつつ認識精度を向上できるように、熱カメラ情報に部分的に基づいて、密な視差マップを計算するための画像の領域及び疎な視差マップのための他の領域をインテリジェントに決定することを含む。例えば、本明細書の技術は、疎な視差計算で十分である低優先度領域を識別し、密な視差計算が適切である画像の高優先度領域を識別するために、熱及びVL画像情報をインテリジェントに融合することを含んでもよい。
【0029】
さらに、本明細書の技術は、夜間の障害物及び道路情報の検出及び認識精度を高めるために、1つ又は複数のVLカメラ画像から決定されたエッジ視差情報を利用することによって熱センサゲイン値の動的調整を含んでもよい。一例として、本明細書の技術は、モノラル/ステレオカメラによって長いエッジが見つかった個々の画素のゲイン値を変更することを含んでもよい。
【0030】
本明細書で撮像される熱画像は、各障害物又は他の物体の検出された温度、道路特徴などに基づく情報を提供し得る。したがって、VLカメラ画像で一般的に利用可能なテクスチャ、色、及び影などの情報を熱カメラ画像から抽出することはできない。したがって、VLスペクトルカメラで使用される既存の障害物検出アルゴリズムは、熱カメラによって撮像された画像とVLカメラによって撮像された画像との間の固有の違いのために、熱カメラ画像での使用に適していないことがある。
【0031】
本明細書のいくつかの例では、疎及び密な視差マップ情報を生成するための領域を決定するために、システムは閾値処理動作とそれに続くクラスタリング動作を使用してもよく、又は、深層学習又はインスタンスセグメンテーションを使用することなどによるセマンティックセグメンテーションネットワークを使用してもよい。閾値処理動作の場合、最初に第1の閾値が撮像された画像内の画素の各々に適用されてもよい。例えば、第1の閾値よりも低い値を有する画素は、低温領域であるとみなして除去してもよく、一方、閾値を超える画素は、高温スポットとみなして保存してもよい。次に、クラスタリング動作を使用して、画像の低優先度領域及び高優先度領域を決定してもよい。特に、低優先度領域は疎な視差処理の対象となってもよく、高優先度領域は密な視差処理の対象となってもよい。
【0032】
あるいは、セマンティックセグメンテーションネットワーク及びディープラーニング、インスタンスセグメンテーション、又は他の機械学習モデルを使用して関心領域を決定する場合、画像内の画素は、対応するセグメント及びクラスにまず分類されてもよい。例えば、各クラス及びセグメントは路面特性を示してもよい。天候、昼、夜、異なる路面タイプなどの様々な異なるシナリオ及び条件の下で撮像された画像を含み、かつ、歩行者、車両、信号機、道路縁石、街灯、交通標識などの様々な障害物及び道路特徴を含む画像も含む、熱画像の大きなセットのデータベース(図1には示されていない)をまとめてもよい。データベース及び対応するラベルが準備されると、セマンティックセグメンテーションネットワークはデータベースの一部を使用して訓練されてもよく、訓練された機械学習モデルはデータベースの別の部分を使用して評価されて正確な出力を確実にしてもよい。続いて、使用中に、撮像された熱画像が訓練された機械学習モデルに入力され、訓練されたモデルが関心領域を出力してもよい。したがって、関心領域は密な視差処理の対象となり、画像の残りは疎な視差処理の対象となることで、組み合わされた疎及び密な視差マップ画像が生成されてもよい。
【0033】
図2は、いくつかの実施形態による、車両102に含まれ得る認識システム200の例示的なアーキテクチャを示す。各車両計算装置126は、1つ又は複数のプロセッサ202と、1つ又は複数のコンピュータ可読媒体204と、1つ又は複数の通信インタフェース206とを含んでもよい。いくつかの例では、車両計算装置126は、1つ又は複数のECU(電子制御ユニット)又は様々な他の種類の計算装置のいずれかを含んでもよい。例えば、車両計算装置126は、ナビゲーション、制動、操舵、加速、減速などのADAS及び/又はADタスクを実行するために重要な車両システムを制御するための1つ又は複数のADAS/AD ECUを含んでもよい。車両計算装置126はまた、他の車両システムを制御するための他のECUを含んでもよい。
【0034】
ECUは、車両内のシステム、サブシステム、又は構成要素のうちの1つ又は複数を制御する任意の組み込みシステムの総称である。認識プログラム128及び車両制御プログラム130などのソフトウェアは、1つ又は複数のECUによって実行されてもよく、ECUが組み込みシステムとして動作できるようにするために、それぞれのECUに関連するコンピュータ可読媒体204(例えば、プログラムROM)の一部に格納されてもよい。ECUは、通常、車両バスプロトコルに従って車両バス208を介して互いに通信してもよい。一例として、コントローラエリアネットワークバス(CANバス)プロトコルは、ECU並びに他の車両装置及びシステムがホストコンピュータなしで互いに通信できるようにする車両バスプロトコルである。CANバスは、少なくとも2つの異なる種類を含んでもよい。例えば、高速CANは、バスが環境の一端から他端まで通っているアプリケーションで使用され得るが、フォールトトレラントCANは、ノードのグループが一緒に接続される場合に使用されることが多い。
【0035】
各ECU又は他の車両計算装置126は、1つ又は複数のプロセッサ202を含んでもよく、プロセッサは、中央処理装置(CPU)、グラフィック処理装置(GPU)、マイクロプロセッサ、マイクロコンピュータ、マイクロコントローラ、デジタル信号プロセッサ、ステートマシン、論理回路、及び/又は動作命令に基づいて信号を操作する任意の装置のうちの1つ又は複数を含んでもよい。一例として、プロセッサ202は、本明細書に記載のアルゴリズム及び他のプロセスを実行するように特にプログラムされ又は構成された任意の適切な種類の1つ又は複数のハードウェアプロセッサ及び/又は論理回路を含んでもよい。プロセッサ202は、コンピュータ可読媒体204に格納されたコンピュータ可読命令をフェッチして実行するように構成されてもよく、コンピュータ可読命令は、本明細書に記載の機能を実行するようにプロセッサ202をプログラムしてもよい。
【0036】
コンピュータ可読媒体204は、コンピュータ可読命令、データ構造、プログラム、プログラムモジュール、及び他のコード又はデータなどの情報を格納するための任意の種類の技術で実装された揮発性及び不揮発性メモリ並びに/又はリムーバブル及び非リムーバブル媒体を含んでもよい。例えば、コンピュータ可読媒体204は、RAM、ROM、EEPROM、フラッシュメモリ若しくは他のメモリ技術、光学記憶装置、固体記憶装置、磁気ディスク、クラウド記憶装置、又は所望の情報を格納するために使用可能でかつ計算装置によってアクセス可能な任意の他の媒体を含んでもよいが、これらに限定されない。車両計算装置126の構成に応じて、コンピュータ可読媒体204は、非一時的コンピュータ可読媒体がエネルギー、搬送波信号、電磁波、及び/又は信号自体などの媒体を除外すると言及される限り、有形の非一時的媒体であってもよい。場合によっては、コンピュータ可読媒体204は、車両計算装置126と同じ場所にあってもよいが、他の例では、コンピュータ可読媒体204は、無線ネットワークなどを介してアクセス可能など、車両計算装置126から部分的に離れていてもよい。
【0037】
コンピュータ可読媒体204は、プロセッサ202によって実行可能な任意の数の機能構成要素を格納するために使用されてもよい。多くの実施形態では、これらの機能構成要素は、プロセッサ202によって実行可能であり、実行されると、本明細書で車両計算装置126に起因するアクションを実行するようにプロセッサ202を具体的にプログラムする命令又はプログラムを含む。コンピュータ可読媒体204に格納された機能構成要素は、認識プログラム128及び車両制御プログラム130を含んでもよく、それらの各々は、1つ又は複数のコンピュータプログラム、アプリケーション、実行可能コード、又はそれらの一部を含んでもよい。さらに、この例ではこれらのプログラムが一緒に示されているが、使用中、これらのプログラムの一部又はすべては、別個の車両計算装置126上で実行されてもよい。
【0038】
また、コンピュータ可読媒体204は、本明細書に記載の機能及びサービスを実行するために使用されるデータ、データ構造、及び他の情報を格納してもよい。例えば、コンピュータ可読媒体204は、認識情報212、車両データ214、画像データ216、1つ又は複数の機械学習モデル(MLM)218、ゲインルックアップテーブル219、他のセンサデータ220などを格納してもよい。さらに、これらのデータ及びデータ構造は、この例では一緒に示されているが、使用中、これらのデータ及び/又はデータ構造の一部又はすべては、別個の車両計算装置126によって又はそれと共に格納されてもよい。車両計算装置126はまた、プログラム、ドライバなどを含み得る他の機能構成要素及びデータ、並びに機能構成要素によって使用又は生成されるデータを含むか維持してもよい。さらに、車両計算装置126は多くの他の論理的、プログラム的、及び物理的構成要素を含んでもよく、これらのうち上述したものは、本明細書の説明に関連する単なる例である。
【0039】
1つ又は複数の通信インタフェース206は、車両バス208及び/又は1つ又は複数のネットワーク(図2には示されていない)を介してなど、様々な他の装置との通信を可能にするための1つ又は複数のソフトウェア及びハードウェア構成要素を含んでもよい。例えば、通信インタフェース206は、LAN、インターネット、ケーブルネットワーク、セルラネットワーク、無線ネットワーク(例えば、Wi-Fi(登録商標))及び有線ネットワーク(例えば、CAN、ファイバチャネル、光ファイバ、イーサネット(登録商標))、直接接続、並びにBLUETOOTH(登録商標)などの近距離通信、及び本明細書の他の場所で追加的に列挙されたもののうちの1つ又は複数を介した通信を可能にしてもよい。
【0040】
車両計算装置126は、車両バス208、直接接続、又はカメラシステム108から画像データ216を受信するための任意の他の種類の接続を介してカメラシステム108と通信可能であってもよい。例えば、以下で詳細に説明するように、認識プログラム128は、カメラシステム108から画像データ216を受信し、画像内の特徴の認識を実行してもよい。図2の例では、受信した画像データ216はVL画像222と熱画像223とを含んでもよい。例えば、画像データ216の一部又は全部は、実質的な処理なしに生画像データとして受信してもよい。あるいは、他の例では、例えば図3に関して以下でさらに説明するように、カメラシステム108は、生画像データを車両計算装置126に送信するのではなく、画像内の認識を実行してもよい。
【0041】
また、車両計算装置126は、車両内の他のシステム及び/又は他のセンサから車両データ214を受信してもよい。例えば、車両は、車両制御プログラム130によって使用されるセンサ情報を提供し得るカメラシステム108に加えて、複数の他のセンサ225を含んでもよい。他のセンサ225のいくつかの非網羅的な例としては、レーダ、LIDAR、超音波、全地球測位システム(GPS)受信機、例えば他の方向を向いた他のカメラなどが含まれ得る。また、車両制御プログラム130によって使用される車両データ214は、サスペンションシステムに関連するサスペンションコントローラ224、ステアリングシステムに関連するステアリングコントローラ226、制動及び加速システムに関連する車速コントローラ228などの様々な車両システムから受信される、又はそれらに関連する情報を含んでもよい。
【0042】
一例として、認識プログラム128は、例えば、車両が動いている間にカメラシステム108が車両の走行経路又は他の周囲の画像を撮像する際に、カメラシステム108から連続的にVL画像222と熱画像223とを画像データ216として受信してもよい。さらに、認識プログラム128は、受信した画像データ216を処理して道路特徴や障害物等を認識してもよい。認識プログラム128は、検出された障害物、道路特徴などに関する認識情報212を車両制御プログラム130に提供し、車両制御プログラムは認識情報に応答して1つ又は複数のアクションをとってもよい。いくつかの例では、車両制御プログラム130及び/又は認識プログラム128は、画像データ216から決定された認識情報212を他のセンサデータ220と融合又は他の方法で組み合わせて統合することで、車両を制御するために追加の利用可能な情報を車両制御プログラム130に提供してもよい。
【0043】
例えば、車両制御プログラム130は、ルールベース及び/又は人工知能ベースの制御アルゴリズムを使用して、車両制御のためのパラメータを決定してもよい。例えば、車両制御プログラム130は、1つ又は複数の機械学習モデル(図2には示されていない)を適用して制動、操舵、減速、加速などの適切なアクションを決定してもよい。さらに、車両制御プログラム130は、認識情報212に応答して、1つ又は複数の制御信号238を1つ又は複数の車両システムに送信してもよい。例えば、車両制御プログラム130は、サスペンションコントローラ224、ステアリングコントローラ226、及び/又は車速コントローラ228に制御信号238を送信してもよい。例えば、制御信号238は、サスペンションコントローラ224に送信される指定のばね係数及び/若しくは減衰制御情報、1つ又は複数の車輪を操舵するためにステアリングコントローラ226に送信される指定のステアリング角度、並びに/又は車速コントローラ228に送信される指定の制動若しくは加速制御情報を含んでもよい。
【0044】
それに加えて、又はその代わりに、車両が運転者人間の運転者の制御下にある場合など、車両制御プログラム130は、警報を提示するために制御信号238をディスプレイ240に送信し、かつ/又は聴覚若しくは視覚警報装置などの1つ又は複数の警報装置242に送信してもよい。警報装置242の例としては、聴覚警報を生成し得るスピーカ、振動又は他の種類の触覚警報を生成し得る触覚装置(例えば、シート又はステアリングホイール内)、及び/又は視覚警報を生成し得る視覚信号装置が含まれる。
【0045】
図3は、いくつかの実施形態による、車両102に含まれ得る認識及び車両制御システム300の例示的なアーキテクチャを示す。この例では、カメラシステム108は、車両計算装置126とは独立して認識情報212を決定するための処理能力を含んでもよい。したがって、カメラシステム108は1つ又は複数のプロセッサ302と、1つ又は複数のコンピュータ可読媒体304と、又は複数の通信インタフェース306とを含む。1つ又は複数のプロセッサ302は、図2に関して上述したプロセッサ202のいずれか、又は本明細書に記載の動作を実行するための他の適切なプロセッサであるかそれらを含んでもよい。さらに、1つ又は複数のコンピュータ可読媒体304は、図2に関して上述したコンピュータ可読媒体204のいずれか、又は他の適切なコンピュータ可読媒体であるかそれらを含んでもよい。同様に、通信インタフェース306は、図2に関して上述した通信インタフェース206又は他の適切な通信インタフェースのいずれかであるかそれらを含んでもよい。
【0046】
また、カメラシステム108はVLカメラ110と熱カメラ112とを含み、これらは、当該技術分野で知られているような1つ又は複数のレンズと、1つ又は複数のフォーカスシステムと、1つ又は複数の画像センサ及び1つ又は複数の熱センサとを含んでもよい。この例では、カメラシステム108は、1つ又は複数のプロセッサ302上で認識プログラム128を実行してもよい。したがって、VLカメラ110及び熱カメラ112はそれぞれの視野内の画像を撮像してもよく、撮像した画像を画像データ216としてコンピュータ可読媒体304に格納してもよい。
【0047】
いくつかの例では、認識プログラム128はVLカメラ110及び熱カメラ112から画像データ216を受信する。例えば、認識プログラム128は、それぞれのVL画像及び熱画像が撮像される際に、VLカメラ110及び熱カメラ112からコンピュータ可読媒体304のバッファ内に画像データ216を連続的に受信してもよい。さらに、認識プログラム128は、以下でさらに詳細に説明するように受信画像に対して認識処理を実行してもよい。次いで、認識プログラム128は、認識情報212を車両計算装置126にリアルタイムで送信してもよい。次いで、車両制御プログラム130は、図2に関して上述したように、かつ以下でさらに説明するように、車両を制御するために認識情報212を処理してもよい。
【0048】
いくつかの例では、車両計算装置126は、最初に認識情報212を受信し、他のセンサデータ220も受信し得る集約プログラム308を実行してもよい。例えば、集約プログラム308は、認識情報212を他のセンサデータと比較して照合し、車両の周囲のより完全な指示を車両制御プログラム130に提供してもよい。上述した図2の例と同様に、車両制御プログラム130は、受信した認識情報212及び他のセンサデータ220に基づいて、1つ又は複数の制御信号238を1つ又は複数のサスペンションコントローラ224、ステアリングコントローラ226、車速コントローラ228、ディスプレイ240及び/又は警報装置242に送信してもよい。さらに、本明細書のいくつかの例では、VLカメラ110及び熱カメラ112は同じプロセッサ302及び/又は同じ車両計算装置126を使用するものとして説明しているが、他の例では、VLカメラ110は、熱カメラ112によって使用されるものとは異なる1つ又は複数のプロセッサ302及び/又は異なる車両計算装置126を使用してもよい。
【0049】
図4は、いくつかの実施形態による、カメラシステム108によって実行される画像キャプチャ400の一例を示す。この例では、カメラシステム108は、ステレオVLカメラ110と熱カメラ112とを含む。例えば、ステレオVLカメラ110は、右レンズ402と左レンズ404とを含んでもよい。右レンズ402は右画像406を撮像し、左レンズ404は左画像408を撮像してもよい。また、熱カメラ112は、マイクロボロメータなどの熱センサ412を使用して熱画像410を撮像してもよい。上述したように、いくつかの例では、ステレオVLカメラ110のFOVと熱カメラ112のFOVとはほぼ同じであってもよい。ステレオVLカメラ110のFOVが熱カメラ112のFOVと大きく異なる他の例では、関連するカメラ110、112のFOVの差を考慮に入れるために追加の変換計算を実行し、それぞれのFOVの重複部分を位置合わせしてもよい。
【0050】
以下でさらに説明するように、システム(例えば、システム100、200、及び/又は300)は、それぞれ、左右の画像406及び408を使用して視差マップ画像と呼ばれる視差の画像を決定してもよい。例えば、システムは、ブロックマッチング法に基づいて、2つのステレオ左右画像406及び408を使用して視差マップ画像を計算してもよい。一例として、当技術分野で知られているように、左画像408内の点PL=(u1,v1)の場合、右画像406内の対応する点PR=(u2,v2)はPLと同じ高さにあり、共通のベースラインから測定してv1=v2であってもよい。したがって、視差測定値は、視差が以下のように定義され得る単純なステレオカメラ理論を使用して決定することができる。
d=u2-u1 式(1)
【0051】
画像上の視差は対応する視差に反比例するため、本明細書の実施形態は、決定した視差に基づいて、視差から3D点の深度情報を決定することによって視差画像を決定してもよい。したがって、深度は、左右の画像及び実際の視差を使用して例えば以下のように計算してもよい。
Z=fb/d 式(2)
ここで、Zはカメラ軸に沿った距離(深度)、fは画素単位の焦点距離、bはメートル単位のベースライン、dは画素単位の視差である。
【0052】
本明細書のいくつかの例では、システムは、少なくとも部分的に熱画像410を使用することによって、視差マップ画像のどの領域を密な視差マップとして計算し、他のどの領域を疎な視差マップとして計算するかを決定してもよく、その結果、処理時間を短縮しかつ/又はより低コストの処理ユニット及びメモリを使用しつつ、認識精度を向上できるようになる。例えば、本明細書の技術は、疎な視差計算で十分である画像の低優先度領域を識別し、密な視差計算が適切である画像の高優先度領域を識別するために、熱画像情報とVL画像情報の両方をインテリジェントに考慮することを含んでもよい。
【0053】
図5図8及び図11の少なくとも一部は、いくつかの実施形態による例示的なアルゴリズム又は他のプロセスを示すフロー図を含む。プロセスは、一連の動作を表す論理フロー図内のブロックの集合として示されており、その一部又は全部は、ハードウェア、ソフトウェア、又はそれらの組合せで実施されてもよい。ソフトウェアの文脈では、ブロックは、1つ又は複数のプロセッサによって実行されると記載された動作を実行するようにプロセッサをプログラムする、1つ又は複数のコンピュータ可読媒体に格納されたコンピュータ実行可能命令を表してもよい。一般に、コンピュータ実行可能命令は、特定の機能を実行するか、又は特定のデータタイプを実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。ブロックが記載される順序は限定として解釈されるべきではない。任意の数の記載されたブロックを任意の順序でかつ/又は並列に組み合わせてプロセス又は代替プロセスを実施することができ、また、すべてのブロックを実行する必要はない。説明の目的のために、プロセスは、本明細書の例に記載されている環境、フレームワーク、及びシステムを参照して説明されるが、プロセスは、多種多様な他の環境、フレームワーク、及びシステムで実施されてもよい。
【0054】
図5は、いくつかの実施形態による、ステレオカメラ画像を使用した動的ゲイン調整のための例示的なプロセス500を示すフロー図である。いくつかの例では、プロセス500は、上述したシステム100、200及び/又は300によって、認識プログラム128の実行によって実行されてもよい。
【0055】
502において、システムは、ステレオVLカメラにVL画像を撮像させるための信号を送信してもよい。例えば、車両が始動するか、運転を開始するか、又は走行を開始する準備をすると、車両制御プログラム130又は他のプログラムはカメラシステム108を含む車両センサに信号を送信して、ステレオVLカメラからの画像を含むセンサ情報の受信及び処理を開始してもよい。
【0056】
504において、システムは、熱カメラに熱画像を撮像させるための信号を送信してもよい。例えば、信号は、VLカメラについて502で上述したのと同じ方法で、又は時刻、日射条件などの異なるトリガに基づいてトリガされてもよい。
【0057】
505において、システムは、現在の気象条件、時刻、熱カメラ視野に対する太陽の位置、道路タイプなど、ゲイン調整の実行に関連する局所条件を決定してもよい。以下でさらに説明するように、これら及び/又は他の条件は、熱カメラのゲイン較正調整を実行するためのゲイン重みを決定するために使用してもよい。いくつかの例では、この情報の一部又は全部は、図2及び図3に関して上述した他のセンサ225から受信したセンサ情報に基づいて決定してもよい。
【0058】
506において、システムは、ステレオVLカメラから左VL画像を受信してもよい。
【0059】
508において、システムは、ステレオVLカメラから右VL画像を受信してもよい。
【0060】
510において、システムは、熱カメラから熱画像を受信してもよい。例えば、熱画像は、左VL画像及び右VL画像と同時に撮像され受信されることで3つの画像の各々によって撮像されたシーンがほぼ同じになるようにしてもよい。
【0061】
512において、システムは、受信された左VL画像及び受信された右VL画像に基づいて視差マップ画像を生成してもよい。例えば、最初に、視差及び画像上の視差を左右の画像から上述のように計算してもよい。この例では、視差マップ画像は疎な視差マップ画像であってもよい。他の例では、視差マップ画像は、図11図14を参照して以下で説明するように生成された、合成された疎及び密な視差マップ画像であってもよい。
【0062】
514において、システムは、この例では508において受信された右VL画像などの、左又は右VL画像の一方からエッジ画像を生成してもよい。例えば、当技術分野で知られている様々なエッジ検出技術のいずれかを使用して、左又は右画像506又は508の少なくとも一方からエッジ画像を決定してもよい。例えば、エッジ画像は右VL画像内で識別されたエッジを示してもよく、エッジ画像について決定されたエッジ情報は、以下でさらに説明するように、視差エッジ画像を決定するときに視差マップ画像からどれだけのノイズを除去するかを決定する助けとなってもよい。
【0063】
516において、システムは、512において決定された視差マップ画像及び514において決定されたエッジ画像から視差エッジ画像を決定してもよい。例えば、視差エッジ画像は、視差マップ画像とエッジ画像とを比較して、エッジ画像情報を使用して強いエッジを有する視差マップ画像の領域を保持し得るようにすることによって決定してもよい。これらの領域はその後のゲイン調整のために選択されてもよく、同時に、視差マップ画像からのノイズが除去されてもよい。例えば、エッジ情報の量は、どれだけのノイズが除去され、どれだけの視差情報が出力されるかを制御する。視差エッジ画像の決定のさらなる詳細は、図7に関して以下で説明される。
【0064】
518において、システムは、視差エッジ画像内の車線マーカ及び道路エッジ領域を決定してもよい。例えば、様々な認識技術を視差エッジ画像に適用してカーブや路肩などの任意の車線マーカや道路エッジを識別してもよい。
【0065】
520において、システムは、ステレオカメラ画像から熱画像への軸変換を実行してもよい。軸変換の例としては、図8に関して以下に説明するようなものがある。
【0066】
522において、システムは、518において視差エッジ画像内で認識された車線マーカ及び道路エッジ領域を含む、変換された視差エッジ画像に基づいて熱画像内の関心領域を決定してもよい。
【0067】
524において、システムは、522において決定された熱画像の関心領域に基づいて熱センサ較正のゲイン調整を実行してもよい。一例として、ゲイン調整は、図9に関して以下に説明するルックアップテーブルに基づいて実行してもよい。
【0068】
526において、システムは、熱センサ較正のゲイン調整後に受信された熱画像から、車線マーカ、道路エッジ、路面粗さなどを決定してもよい。特に、システムは、画像内の特徴の認識を実行するためにゲイン調整後に受信された熱画像を使用して認識を実行してもよい。例えば、ゲイン調整後に受信された熱画像は、典型的には、道路特徴、障害物などをより正確に認識できるようにするために有意な特徴の優れたコントラストを有する。
【0069】
図6は、いくつかの実施形態による、モノラルカメラ画像を使用した動的ゲイン調整のための例示的なプロセス600を示すフロー図である。いくつかの例では、プロセス600は、上述したシステム100、200及び/又は300によって認識プログラム128の実行により実行されてもよいが、上述したステレオVLカメラ110の代わりにモノラルVLカメラを使用して実行されてもよい。
【0070】
602において、システムは、モノラルVLカメラにモノラルVL画像を撮像させるための信号を送信してもよい。例えば、車両が始動するか、運転を開始するか、又は走行を開始する準備をすると、車両制御プログラム130又は他のプログラムはカメラシステム108を含む車両センサに信号を送信して、モノラルVLカメラからの画像を含むセンサ情報の受信及び処理を開始してもよい。
【0071】
604において、システムは、熱カメラに熱画像を撮像させるための信号を送信してもよい。例えば、信号は、VLカメラについて602で上述したのと同じ方法で、又は時刻、日射条件などの異なるトリガに基づいてトリガされてもよい。
【0072】
605において、システムは、現在の気象条件、時刻、熱カメラ視野に対する太陽位置、道路タイプなど、ゲイン調整の実行に関連する局所条件を決定してもよい。以下でさらに説明するように、これら及び/又は他の条件は、熱カメラのゲイン較正調整を実行するためのゲイン重みを決定するために使用してもよい。いくつかの例では、この情報の一部又は全部は、図2及び図3に関して上述した他のセンサ225から受信したセンサ情報に基づいて決定してもよい。
【0073】
606において、システムは、モノラルVLカメラからモノラルVL画像を受信してもよい。
【0074】
608において、システムは、熱カメラから熱画像を受信してもよい。例えば、熱画像は、モノラル画像及び熱画像によって撮像されたシーンがほぼ同じになるようにモノラルVL画像と同時に撮像して受信してもよい。
【0075】
610において、システムは、モノラルVL画像からエッジ画像を生成してもよい。例えば、エッジ画像は、当技術分野で知られている様々なエッジ検出技術のいずれかを使用して決定してもよい。エッジ画像は、モノラルVL画像内で識別されたエッジを示してもよい。
【0076】
612において、システムは、エッジ画像内の潜在的な車線マーカを決定してもよい。例えば、様々な認識技術のいずれかを使用して、エッジ画像内の車線マーカを認識してもよい。
【0077】
614において、システムは、熱カメラ画像内の関心領域を決定する際に使用するための潜在的に認識された車線マーカタイプを提供してもよい。
【0078】
615において、システムは、モノラルVL画像から視差画像を決定してもよい。例えば、システムは、連続するモノラルカメラ画像を互いに比較することなどに基づいて、モノラルカメラ画像の視差マップを決定するように訓練された機械学習モデルを使用してもよい。一例として、機械学習モデルが既知の車速に基づいてその後においてモノカメラ画像から視差マップを生成できるようにするために、畳み込みニューラルネットワークなどの人工ニューラルネットワーク、又は他の種類の機械学習モデルが既知の車速におけるモノラル画像の訓練セットを使用して訓練されてもよい。さらに、1つ又は複数のモノラルカメラ画像から視差マップを生成するための他の技術は、本明細書の開示の利益を有する当業者には明らかであろう。また、代替例では、視差マップは生成されず、エッジ画像のみが関心領域を決定するために使用されてもよい。
【0079】
616において、システムは、615において決定された視差マップ画像及び610において決定されたエッジ画像から視差エッジ画像を決定してもよい。例えば、視差エッジ画像は、視差マップ画像とエッジ画像とを比較して、エッジ画像情報を使用して強いエッジを有する視差マップ画像の領域を保持し得るようにすることによって決定してもよい。これらの領域はその後のゲイン調整のために選択されてもよく、同時に、視差マップ画像からのノイズが除去されてもよい。例えば、エッジ情報の量は、どれだけのノイズが除去され、どれだけの視差情報が出力されるかを制御する。視差エッジ画像の決定のさらなる詳細は、図7に関して以下で説明される。
【0080】
618において、システムは、視差エッジ画像内の車線マーカ及び道路エッジ領域を決定してもよい。例えば、様々な認識技術を視差エッジ画像に適用してカーブや路肩などの任意の車線マーカや道路エッジを識別してもよい。
【0081】
620において、システムは、モノラルカメラ画像から熱画像への軸変換を実行してもよい。軸変換の例としては、図8に関して以下に説明するようなものがある。
【0082】
622において、システムは、618において視差エッジ画像内で認識された車線マーカ領域及び道路エッジ領域を含む、潜在的な車線マーカタイプ及び変換された視差エッジ画像に基づいて熱画像内の関心領域を決定してもよい。
【0083】
624において、システムは、522において決定された熱画像の関心領域に基づいて熱センサ較正のゲイン調整を実行してもよい。一例として、ゲイン調整は、図9に関して以下に説明するルックアップテーブルに基づいて実行してもよい。
【0084】
626において、システムは、熱センサ較正のゲイン調整後に受信された熱画像から、車線マーカ、道路エッジ、路面粗さなどを決定してもよい。特に、システムは、画像内の特徴の認識を実行するためにゲイン調整後に受信された熱画像を使用して認識を実行してもよい。例えば、ゲイン調整後に受信された熱画像は、典型的には、道路特徴、障害物などをより正確に認識できるようにするために有意な特徴の優れたコントラストを有する。
【0085】
図7は、いくつかの実施形態による、エッジ視差画像701を生成するための例示的なプロセス700を示すフロー図である。いくつかの例では、プロセス700は、上述したシステム100、200及び/又は300によって、認識プログラム128の実行によって実行されてもよい。例えば、図5又は図6に関して上述した視差マップ画像を計算した後、システムは、それぞれのエッジ画像を使用して視差画像から無効な視差値を有する画素を除去して、エッジ視差画像を取得してもよい。例えば、それぞれのエッジ画像内のエッジ情報の量により、視差画像から除去するノイズの量及び/又はエッジ視差画像に含める視差情報の量を制御してもよい。
【0086】
702において、システムは、新たに決定された視差マップ画像を受信する。例えば、視差マップ画像は図4図6に関して上述したように決定してもよい。
【0087】
704において、システムは、新たに決定されたエッジ画像を受信する。例えば、エッジ画像は図5及び図6に関して上述したように決定してもよい。
【0088】
706において、システムは、エッジ画像内の各画素について、選択された現在の画素のエッジ値と隣接画素のエッジ値の差がエッジ閾値より大きいかどうかを判定してもよい。
【0089】
708において、画素のエッジ値がエッジ閾値より大きい場合、プロセスは710に進む。そうでない場合、プロセスは716に進む。一例として、エッジ閾値ETHは、大きな画像データセットに対する統計分析を使用して導出してもよい。例えば、画像データは、異なる路面条件(例えば、アスファルト又はコンクリートなどの異なる路面色)、気象条件、時刻などの様々なシナリオをカバーしてもよい。さらに、エッジ閾値ETHは気象条件や路面条件に基づいて更新してもよい。
【0090】
710において、画素のエッジ値がエッジ閾値より大きい場合、システムは、現在の画素の視差情報を隣接画素の視差情報と比較して、現在の画素の視差値が視差閾値DTHより大きいかどうかを判定してもよい。一例として、視差閾値DTHは、大きな画像データセットに対する統計分析を使用して導出してもよい。例えば、画像データは、異なる路面条件(例えば、アスファルト又はコンクリートなどの異なる路面色)、気象条件、時刻などの様々なシナリオをカバーしてもよい。また、視差閾値DTHは気象条件や路面条件に基づいて更新してもよい。システムは、702において受信された視差マップ画像内の対応する画素位置から視差値を決定してもよい。
【0091】
712において、画素の視差値が視差閾値DTHより大きい場合、プロセスは714に進む。画素の視差値が視差閾値DTHより大きくない場合、プロセスは716に進む。
【0092】
714において、現在の画素の視差値が視差閾値よりも大きい場合、システムは、第1の乗数を使用して視差エッジ画像の画素視差値を生成してもよい。
【0093】
716において、画素のエッジ値がエッジ閾値以下であるか、又は画素の視差値が視差閾値以下である場合、システムは、第2の乗数を使用して現在の画素の視差値を生成してもよい。
【0094】
718において、システムは、現在の画素の視差値をエッジ視差画像701に格納してもよい。プロセス700は、視差画像及びエッジ画像内の画素ごとに実行されてもよい。
【0095】
図8は、いくつかの実施形態による、熱カメラに対するVLカメラ、又はその逆の相対姿勢を決定するための例示的なプロセス800を示す。いくつかの例では、プロセス800は、上述したシステム100、200及び/又は300によって、認識プログラム128の実行により実行されてもよく、図5のブロック520及び/又は図6のブロック620に対応してもよい。例えば、熱カメラの軸は可視光カメラの軸とは異なる場合があるため、エッジ視差マップ画像の部分を熱画像の関連部分と位置合わせするために軸変換を実行してもよい。
【0096】
802において、システムは、1つ又は複数のVLカメラ画像を受信してもよい。804において、システムは、1つ又は複数の熱カメラ画像を受信してもよい。
【0097】
806において、システムは、受信したVL画像に対してホモグラフィに基づく較正を実行してもよい。
【0098】
808において、システムは、受信した熱画像に対してホモグラフィに基づく較正を実行してもよい。
【0099】
810において、システムは、VLカメラの初期姿勢及びカメラ固有パラメータを決定してもよい。
【0100】
812において、システムは、熱カメラの初期姿勢及びカメラ固有パラメータを決定してもよい。
【0101】
814において、システムは、810及び812において決定された情報に基づいて相対姿勢の最適化を実行してもよい。
【0102】
816において、システムは、熱カメラに対するVLカメラの最適化された相対姿勢を決定してもよい。
【0103】
818において、システムは、VLカメラに対する熱カメラの最適化された相対姿勢を決定してもよい。したがって、上記のプロセスを使用して、画像の選択された領域をVLカメラ画像軸から熱カメラ画像軸に、又はその逆に変換してもよい。
【0104】
図9は、いくつかの実施形態による、ゲイン重みを選択するための例示的なルックアップテーブル及び決定木900を示す。例えば、図5のブロック524及び図6のブロック624に関して上述したように、システムは、上述した熱カメラ112の熱センサの較正の動的ゲイン調整を実行してもよい。一例として、ゲイン調整はルックアップテーブル及び決定木900にアクセスすることに基づいてもよく、これにより、ゲイン調整計算を毎回実行する必要なくゲイン調整を実行するためのゲイン重みを決定する。例えば、各領域の軸がVLカメラ軸から熱カメラ軸に変換された後、1つ又は複数の関心領域が選択されてもよく、熱センサがマイクロボロメータ又は他の熱センサであり得る場合など、ゲイン値に対するゲイン調整が熱センサの画素の較正を使用して動的に決定されてもよい。
【0105】
いくつかの例では、関心領域は、選択されたすべての領域を考慮して行及び列の最小値及び最大値を見つけることによって計算されてもよい。関心領域に基づいて、各ピクセルのゲインをインテリジェントに計算してもよい。以下の式は、いくつかの例においてゲインがどのように計算され得るかを示す線形方程式の一例である。
スロープゲイン(i,j)=Apix*Wobj*R(i,j)*Θfpa 式(3)
ここで、Apix=画素面積、Wobj=目標投影角度、R(i,j)=センサの温度依存応答性、Θfpa=センサの温度である。
【0106】
ルックアップテーブル及び決定木900は、道路タイプ902、天候904、及び時間906などの様々な異なる条件に基づいてスロープゲイン値のゲイン重みが予め決定され得るように事前に決定されていてもよい。道路タイプ902は、アスファルト908、レンガ910、及びコンクリート912などの様々な異なる道路タイプに分類されてもよい。また、天候904は、晴れ914、曇り916、雨918、霧920、及び雪922などの様々な異なる天候タイプに分類されてもよい。さらに、時間906は、朝924、午後926、及び夜928などの様々な異なる時間に分類されてもよい。例えば、熱画像のゲイン調整を決定するために、決定木930は、現在検出された道路タイプ902、天候904、及び時間906に基づいて、ルート932から45個の異なる葉934のうちの1つにナビゲートされてもよい。各葉934には、異なる各ゲイン重みG1~G45が関連付けられてもよい。さらに、決定木930が図9に示されているが、同じ結果を達成するために他の任意の適切な種類のデータ構造が使用されてもよい。
【0107】
また、図9のルックアップテーブル及び決定木900に使用される条件は、この例に含まれるものに限定されず、より少ない条件、他の条件、又は追加の条件を含んでもよい。一例として、熱カメラのFOVに対する太陽の位置が考慮されてもよい。例えば、太陽はその位置に応じて、熱カメラに光を向けることもあれば熱カメラの側面又は背面から光を向けることもあり得る。さらに、太陽に対する熱カメラの相対位置は車両が移動して方向を変えるにつれて動的に変化することがあり、場合によっては熱カメラのゲインをそれに応じて動的に調整してもよい。
【0108】
図10は、いくつかの実施形態による、動的較正調整前後の例示的な熱画像1000を示す。例えば、動的ゲイン調整の前に熱カメラから第1の画像1002が最初に受信されると仮定する。続いて、動的ゲイン調整手順を熱カメラの熱センサの較正に適用して、その後の第2の画像1004がコントラスト及び特徴認識性を改善できるようにしてもよい。例えば、第1の画像1002では、車線マーカ1006が第2の画像1004よりも路面に実質的に多く溶け込んでいる。動的ゲイン調整は、路面、天候、及び時間などの条件の変化に応じて継続的に実行されてもよい。さらに、条件の3つの例として路面、天候、及び時間が提示されているが、ゲイン調整に使用され得る他の条件は、本明細書の開示の利益を有する当業者には明らかであろう。
【0109】
図11は、いくつかの実施形態による、疎な視差領域と密な視差領域とを組み合わせる視差マップを生成するための例示的なプロセス1100を示すフロー図である。いくつかの例では、プロセス1100は、上述したシステム100、200及び/又は300によって、認識プログラム128の実行によって実行されてもよい。
【0110】
1102において、システムは、ステレオVLカメラにVL画像を撮像させるための信号を送信してもよい。例えば、車両が始動するか、運転を開始するか、又は走行を開始する準備をすると、車両制御プログラム130又は他のプログラムはカメラシステム108を含む車両センサに信号を送信して、ステレオVLカメラからの画像を含むセンサ情報の受信及び処理を開始してもよい。
【0111】
1104において、システムは、熱カメラに熱画像を撮像させるための信号を送信してもよい。例えば、信号は、VLカメラについて502で上述したのと同じ方法で、又は時刻、日射条件などの異なるトリガに基づいてトリガされてもよい。
【0112】
1106において、システムは、ステレオVLカメラから左VL画像を受信してもよい。
【0113】
1108において、システムは、ステレオVLカメラから右VL画像を受信してもよい。
【0114】
1110において、システムは、熱カメラから熱画像を受信してもよい。例えば、熱画像は、左VL画像及び右VL画像と同時に撮像され受信されることで3つの画像の各々によって撮像されたシーンがほぼ同じになるようにしてもよい。いくつかの例では、熱画像は、図5図10に関して上述したゲイン調整後に受信してもよい。
【0115】
1112において、システムは、熱画像内の関心領域を決定して疎及び密な視差マップ情報を生成するための領域を決定してもよい。例えば、システムは(1)閾値処理動作とそれに続くクラスタリング動作を使用してもよく、又は、(2)深層学習又はインスタンスセグメンテーションを使用することなどによるセマンティックセグメンテーションネットワークを使用してもよい。閾値処理動作及びクラスタリング動作の場合、最初に温度を示す第1の閾値が撮像された画像内の画素の各々に適用されてもよい。例えば、指定の閾値よりも低い値を有する画素は、低温領域であるとみなして除去してもよく、一方、閾値を超える画素は、高温スポットとみなして保存してもよい。したがって、システムは、各画素の階調又は階調値に基づいて、閾値より上又は下であるとして撮像された画像を分割できる。
【0116】
あるいは、セマンティックセグメンテーションネットワーク及びディープラーニングインスタンスセグメンテーション又は他の機械学習モデルを使用して関心領域を決定する場合、画像内の画素は、対応するセグメント及びクラスにまず分類されてもよい。例えば、各クラス及びセグメントは路面特性を示してもよい。異なる気象条件、昼や夜の異なる時刻、異なる路面タイプなどの様々な異なるシナリオ及び条件の下で撮像された画像を含み得る熱画像の大きなセットのデータベースを訓練データとしてまとめてもよい。訓練データの熱画像は、歩行者、車両、信号機、道路縁石、街灯、交通標識などの様々な障害物及び道路特徴を含む画像も含んでもよい。データベース及び対応するラベルが準備されると、セマンティックセグメンテーションネットワークは訓練データ画像の第1の部分を使用して訓練されてもよく、訓練された機械学習モデルはデータベースの第2の部分を使用して評価・調整されて正確な出力を確実にしてもよい。続いて、使用中に、撮像された熱画像が訓練された機械学習モデルに入力され、訓練されたモデルが関心領域を出力してもよい。したがって、後述するように、関心領域は密な視差処理の対象となり、画像の残りの部分は疎な視差処理の対象となってもよい。
【0117】
1114において、システムは、熱画像内における優先された密及び疎な視差マップ領域を決定してもよい。例えば、クラスタリング動作を使用して、高温スポットのクラスタを高優先度領域として識別し、これに基づいて、画像の低優先度領域及び高優先度領域を決定してもよい。特に、低優先度領域は疎な視差処理の対象となってもよく、高優先度領域は密な視差処理の対象となってもよい。さらに、障害物の種類や距離情報などに部分的に基づいて高優先度領域と低優先度領域を選択してもよい。例えば、各クラスタは、障害物の種類、物体までの距離などに基づいて個別に考慮されてもよく、システムは、疎及び密な視差マップを生成するために各クラスタに優先度を割り当ててもよい。
【0118】
1116において、システムは、熱画像からステレオ画像への変換として動作してもよい。この動作を実行するための例示的なプロセスは、例えば図8に関して上述されている。
【0119】
1118において、システムは、優先された密な視差領域をVL画像にマッピングするために、受信したステレオVL画像に対して熱画像のブロックマッチングを実行してもよい。例えば、システムは、高優先度領域をVL画像にマッピングするために、ステレオVL画像のブロックを熱画像と一致させてもよい。
【0120】
1120において、システムは、ブロックマッチングに基づいて、いくつかの疎な視差領域といくつかの密な視差領域とを組み合わせた視差マップ画像を生成してもよい。例えば、システムは高優先度領域についてのみ密な視差を計算し、一方で低優先度の他の領域は疎な視差のみが計算される。それに伴い、本明細書の実施形態は認識精度を高めつつ、そうするために必要な処理リソースの量を低減することができる。一例として、低優先度とラベル付けされた領域では、視差マップ計算を実行する前に画像をダウンサンプリングし、疎なマッチングアルゴリズムを使用して画像対間のロバスト一致のセットを確立してもよい。一方、高優先度領域については、ステレオ画像対をダウンサンプリングせずに視差マップ画像を計算し、密なマッチングアルゴリズムを使用してそれぞれの画像内のすべての点について一致を見つけてもよい。
【0121】
より具体的な例として、疎な視差領域を計算するために、低優先度画像領域のダウンサンプリングと共にZSAD(0平均絶対差和)に基づくステレオブロックマッチングアルゴリズムを使用してもよい。さらに、密な視差マップ領域を計算するために、画像をダウンサンプリングせずにセミグローバルマッチング(SGM)アルゴリズムを使用してもよい。さらに、視差マップ計算を実行するのに低コストのECU又は他のプロセッサを使用する場合のように、疎な視差マップ計算と密な視差マップ計算の両方に同じZSADステレオブロックマッチング技術を使用してもよい。しかしながら、疎な視差マップ計算の場合、画像は最初にダウンサンプリングされ得るが、密な視差マップ計算ではダウンサンプリングは実行されない可能性がある。
【0122】
1122において、システムは、組み合わされた疎な/密な視差マップ画像に少なくとも部分的に基づいて認識を実行してもよい。例えば、システムは、当技術分野で知られている様々な認識技術のいずれかを使用して、視差マップ画像内の特徴の認識を実行してもよい。さらに、図11の例はステレオ左右VL画像に関して説明しているが、他の例では、プロセス1100はモノラルVLカメラから受信した画像を使用して実行されてもよい。
【0123】
図12は、いくつかの実施形態による、高優先度領域及び低優先度領域を決定するための例示的な画像1200を示す。例えば、第1の画像1202は、熱カメラから受信した熱画像の一例を示す。第2の画像1204は、上述したようなセマンティックセグメンテーション又は他の機械学習方法を使用することや上述した閾値処理及びクラスタリング技術を使用することなどによる、第1の画像1202の処理の結果を示す。また、第3の画像1206は、高優先度領域を白、低優先度領域を黒で示す関心領域選択処理によって選択された優先領域を示す。
【0124】
図13は、いくつかの実施形態による、ステレオ画像内の高優先度領域を決定するためのブロックマッチングの例1300を示す。この例では、識別された優先領域を有する熱画像と、VLカメラから受信したステレオVL画像との間でブロックマッチングが実行される。例えば、図12の第3の画像1206が、図4に関して上述した右ステレオ画像406及び左ステレオ画像408と一致するブロックであると仮定する。1302及び1304に示すように、ブロックマッチングの結果、それぞれのステレオ画像1302及び1304において優先領域1306が識別される。上述したように、高優先度領域については密な視差マップ処理が実行され、低優先度領域については疎な視差マップ処理が実行されてもよい。
【0125】
図14は、いくつかの実施形態によって決定された、疎な視差領域及び密な視差領域が組み合わされた例示的な視差マップ画像1400を示す。この例では、高優先度領域は密な視差マップ処理を用いて算出され、低優先度領域は疎な視差マップ処理を用いて算出される。したがって、1402及び1403に示すように、画像の平坦な道路領域及び画像の空領域を決定する際には疎な視差マップ処理が使用されている。一方、1404に示すように、悪路領域を決定する際には密な視差マップ処理が使用されている。同様に、障害物については1406で、右ガードレールについては1408で、左ガードレールについては1410で、密な視差マップ処理が使用されている。したがって、視差マップ画像1400の一部のみを密な視差マップ算出技術を使用して算出することで、視差マップ画像1400の生成に要する処理量を削減できる。
【0126】
本明細書に記載の例示的なプロセスは、説明の目的で提供されるプロセスの例にすぎない。本明細書の開示に照らして、多数の他の変形形態が当業者には明らかであろう。さらに、本明細書の開示はプロセスを実行するための適切なフレームワーク、アーキテクチャ、及び環境のいくつかの例を記載しているが、本明細書の実施形態は図示及び説明された特定の例に限定されない。さらに、本開示は、説明されかつ図示されるように、様々な例示的な実施形態を提供する。しかしながら、本開示は、本明細書に説明及び図示された実施形態に限定されず、当業者に知られているように、又は当業者に知られるようになったように、他の実施形態に拡張され得る。
【0127】
本明細書で説明される様々な命令、プロセス、及び技術は、コンピュータ可読媒体に格納され、本明細書のプロセッサによって実行されるコンピュータプログラム及びアプリケーションなどのコンピュータ実行可能命令の一般的な文脈で考慮され得る。一般に、プログラム及びアプリケーションという用語は交換可能に使用されてもよく、特定のタスクを実行するため、又は特定のデータタイプを実装するための命令、ルーチン、モジュール、オブジェクト、コンポーネント、データ構造、実行可能コードなどを含んでもよい。これらのプログラム、アプリケーションなどは、ネイティブコードとして実行されてもよいし、仮想マシン又は他のジャストインタイムコンパイル実行環境などでダウンロード及び実行されてもよい。典型的には、プログラム及びアプリケーションの機能は、様々な実施形態において所望に応じて組み合わされ又は分散されてもよい。これらのプログラム、アプリケーション、及び技術の実装は、コンピュータ記憶媒体に格納されてもよく、又は何らかの形態の通信媒体を介して送信されてもよい。
【0128】
主題は、構造的特徴及び/又は方法論的行為に特有の言語で記載されているが、添付の特許請求の範囲で定義される主題は、記載された特定の特徴又は行為に必ずしも限定されないことを理解されたい。むしろ、特定の特徴及び行為は、特許請求の範囲を実施する例示的な形態として開示されている。
【符号の説明】
【0129】
100 認識システム
102 車両
104 走行経路
108 カメラシステム
110 VLカメラ
112 熱カメラ
114 FOV
116 FOV
118 接近車両
120 道路エッジ
122 路側領域
124 道路車線マーキング
126 車両計算装置
128 認識システム
130 車両制御システム
200 認識システム
202 プロセッサ
204 コンピュータ可読媒体
206 通信インタフェース
208 車両バス
212 認識情報
214 車両データ
216 画像データ
218 機械学習モデル
219 ゲインルックアップテーブル
220 他のセンサデータ
222 VL画像
223 熱画像
225 他のセンサ
238 制御信号
240 ディスプレイ
242 警報装置
300 認識・車両制御システム
302 プロセッサ
304 コンピュータ可読媒体
306 通信インタフェース
308 集約プログラム
400 画像キャプチャ
402 右レンズ
404 左レンズ
406 右画像
408 左画像
410 熱画像
412 熱センサ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14