(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-20
(45)【発行日】2025-01-06
(54)【発明の名称】情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法
(51)【国際特許分類】
G06T 7/00 20170101AFI20241223BHJP
【FI】
G06T7/00 350C
(21)【出願番号】P 2021567333
(86)(22)【出願日】2020-12-16
(86)【国際出願番号】 JP2020046928
(87)【国際公開番号】W WO2021131953
(87)【国際公開日】2021-07-01
【審査請求日】2023-12-08
(31)【優先権主張番号】P 2019239265
(32)【優先日】2019-12-27
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】316005926
【氏名又は名称】ソニーセミコンダクタソリューションズ株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】松永 大
【審査官】藤原 敬利
(56)【参考文献】
【文献】国際公開第2017/057058(WO,A1)
【文献】国際公開第2017/057056(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00- 7/90
G06V 10/00-20/90
G06N 3/00-99/00
(57)【特許請求の範囲】
【請求項1】
第1のセンサの出力に、該第1のセンサとは異なる第2のセンサの出力に基づく物体認識処理の過程で検出される物体尤度に応じて生成される領域情報を付加して対象物を認識する認識処理を行う認識処理部、
を備え
、
前記認識処理部は、
機械学習により得られる物体認識モデルを用いて前記認識処理を行い、
該物体認識モデルは、前記第2のセンサの出力に基づき生成した第1の畳み込み層に含まれる1または複数の層で前記領域情報を生成し、生成した該領域情報を、前記第1のセンサの出力に基づき生成した、該領域情報を生成した該1または複数の層それぞれに1対1に対応する、第2の畳み込み層の1または複数の層のそれぞれに対して付加する、
情報処理装置。
【請求項2】
前記認識処理部は、
前記第1の畳み込み層のうち所定数の第1の畳み込み層のそれぞれで前記領域情報を生成する、
請求項
1に記載の情報処理装置。
【請求項3】
前記第2のセンサは、イメージセンサである、
請求項1に記載の情報処理装置。
【請求項4】
前記第1のセンサは、ミリ波レーダ、光反射測距センサおよび超音波センサの何れかである、
請求項
2に記載の情報処理装置。
【請求項5】
前記第1のセンサは、
イメージセンサ、ミリ波レーダ、光反射測距センサおよび超音波センサのうち2以上のセンサを含み、該2以上のセンサの各出力を統合した出力を、前記第1のセンサの出力とした、
請求項
2に記載の情報処理装置。
【請求項6】
前記第1のセンサは、イメージセンサであり、
前記第2のセンサは、ミリ波レーダ、光反射測距センサおよび超音波センサの何れかである、
請求項1に記載の情報処理装置。
【請求項7】
前記認識処理部は、
前記第1のセンサの出力の、前記第2のセンサの出力における前記物体尤度が第1の閾値以上の領域に対応する領域を強調する、
請求項1に記載の情報処理装置。
【請求項8】
前記認識処理部は、
前記第1のセンサの出力の、前記第2のセンサの出力における前記物体尤度が第2の閾値未満の領域に対応する領域を抑制する、
請求項1に記載の情報処理装置。
【請求項9】
前記認識処理部は、
前記第2のセンサの1フレーム前の出力を用いて前記領域情報を生成する、
請求項1に記載の情報処理装置。
【請求項10】
前記認識処理部は、
前記領域情報に対して前記第2のセンサの出力を連結する、
請求項1に記載の情報処理装置。
【請求項11】
第1のセンサと、
前記第1のセンサとは異なる第2のセンサと、
前記第1のセンサの出力に、前記第2のセンサの出力に基づく物体認識処理の過程で検出される物体尤度に応じて生成される領域情報を付加して、対象物を認識する認識処理を行う認識処理部を備える情報処理装置と、
を含
み、
前記認識処理部は、
機械学習により得られる物体認識モデルを用いて前記認識処理を行い、
該物体認識モデルは、前記第2のセンサの出力に基づき生成した第1の畳み込み層に含まれる1または複数の層で前記領域情報を生成し、生成した該領域情報を、前記第1のセンサの出力に基づき生成した、該領域情報を生成した該1または複数の層それぞれに1対1に対応する、第2の畳み込み層の1または複数の層のそれぞれに対して付加する、
情報処理システム。
【請求項12】
第1のセンサの出力に、該第1のセンサとは異なる第2のセンサの出力に基づく物体認識処理の過程で検出される物体尤度に応じて生成される領域情報を付加して、対象物を認識する認識処理を行う認識処理ステップ
をコンピュータに実行させ
、
前記認識処理ステップは、
機械学習により得られる物体認識モデルを用いて前記認識処理を行い、
該物体認識モデルは、前記第2のセンサの出力に基づき生成した第1の畳み込み層に含まれる1または複数の層で前記領域情報を生成し、生成した該領域情報を、前記第1のセンサの出力に基づき生成した、該領域情報を生成した該1または複数の層それぞれに1対1に対応する、第2の畳み込み層の1または複数の層のそれぞれに対して付加する、
ための情報処理プログラム。
【請求項13】
プロセッサにより実行される、
第1のセンサの出力に、該第1のセンサとは異なる第2のセンサの出力に基づく物体認識処理の過程で検出される物体尤度に応じて生成される領域情報を付加して、対象物を認識する認識処理を行う認識処理ステップ、
を含
み、
前記認識処理ステップは、
機械学習により得られる物体認識モデルを用いて前記認識処理を行い、
該物体認識モデルは、前記第2のセンサの出力に基づき生成した第1の畳み込み層に含まれる1または複数の層で前記領域情報を生成し、生成した該領域情報を、前記第1のセンサの出力に基づき生成した、該領域情報を生成した該1または複数の層それぞれに1対1に対応する、第2の畳み込み層の1または複数の層のそれぞれに対して付加する、
情報処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法に関する。
【背景技術】
【0002】
イメージセンサやミリ波レーダなどのセンサを用いて物体を検出する技術が知られている。物体を検出するためのセンサとしては、様々な検出方式のものがあり、それぞれ適した状況が異なる場合がある。そのため、検出方式の異なる複数のセンサを併用して物体検出を行う技術が提案されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
検出方式の異なる複数のセンサを併用する場合に、これら複数のセンサそれぞれの出力の全てを用いて検出処理を行うと、検出処理の負荷が大きくなってしまうおそれがある。この検出処理の負荷の増大を回避するためには、センサの出力に対して検出窓を設定し、検出処理の範囲を制限する方法が考えられる。しかしながら、従来では、この検出窓の設定方法が定められていなかった。
【0005】
本開示は、異なる複数のセンサを用いる場合の処理負荷を軽減可能な情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法を提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示に係る情報処理装置は、第1のセンサの出力に、該第1のセンサとは異なる第2のセンサの出力に基づく物体認識処理の過程で検出される物体尤度に応じて生成される領域情報を付加して対象物を認識する認識処理を行う認識処理部、を備え、前記認識処理部は、機械学習により得られる物体認識モデルを用いて前記認識処理を行い、該物体認識モデルは、前記第2のセンサの出力に基づき生成した第1の畳み込み層に含まれる1または複数の層で前記領域情報を生成し、生成した該領域情報を、前記第1のセンサの出力に基づき生成した、該領域情報を生成した該1または複数の層それぞれに1対1に対応する、第2の畳み込み層の1または複数の層のそれぞれに対して付加する。
【図面の簡単な説明】
【0007】
【
図1】車両制御システムの概略的な構成の一例を示すブロック図である。
【
図2】車両制御システムにおける車外情報検出ユニットの機能を説明するための一例の機能ブロック図である。
【
図3】認識処理部に用いられる物体認識モデルの構成例を示す図である。
【
図4】学習システムの構成例を示すブロック図である。
【
図5】各実施形態に適用可能な車外情報検出ユニットのハードウェア構成の一例を示すブロック図である。
【
図6】本開示に実施形態に係る物体認識モデルについて概略的に示す図である。
【
図7】第1の実施形態に係る物体認識モデルの一例の構成を示す図である。
【
図8】第1の実施形態に係る合成部の一例の構成を示す図である。
【
図9】第1の実施形態に係る物体認識モデルによるアテンションマップの第1の例を説明するための模式図である。
【
図10】第1の実施形態に係る物体認識モデルによるアテンションマップの第2の例を説明するための模式図である。
【
図11】第2の実施形態に係る物体認識モデルの一例の構成を示す図である。
【
図12】第3の実施形態に係る物体認識モデルの一例の構成を示す図である。
【
図13】第3の実施形態に係る合成部の一例の構成を示す図である。
【
図14】第4の実施形態に係る物体認識モデルの一例の構成を示す図である。
【
図15】第5の実施形態に係る物体認識モデルの一例の構成を示す図である。
【
図16】第6の実施形態に係る車外情報検出ユニットおよびデータ取得部の第1の例を示す一例のブロック図である。
【
図17】第6の実施形態に係る車外情報検出ユニットおよびデータ取得部の第2の例を示す一例のブロック図である。
【
図18】第6の実施形態に係る車外情報検出ユニットおよびデータ取得部の第3の例を示す一例のブロック図である。
【
図19】第6の実施形態に係る車外情報検出ユニットおよびデータ取得部の第4の例を示す一例のブロック図である。
【発明を実施するための形態】
【0008】
以下、本開示の実施形態について、図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより、重複する説明を省略する。
【0009】
以下、本開示の実施形態について、下記の順序に従って説明する。
1.各実施形態に適用可能な技術
1-1.車載システムの例
1-2.機能の概要
1-3.ハードウェア構成例
2.本開示の実施形態の概略
3.第1の実施形態
3-1.具体例
4.第2の実施形態
5.第3の実施形態
6.第4の実施形態
7.第5の実施形態
8.第6の実施形態
8-1.第1の例
8-2.第2の例
8-3.第3の例
8-4.第4の例
8-5.第5の例
8-6.第6の例
【0010】
[1.各実施形態に適用可能な技術]
本開示の各実施形態の説明に先立って、理解を容易とするために、本開示の各実施形態に適用可能な技術について説明する。
【0011】
(1-1.車載システムの例)
先ず、本開示の各実施形態に適用可能な車載システムについて概略的に説明する。
図1は、本開示に係る各実施形態に適用可能な車載システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
【0012】
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。
図1に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット10、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
【0013】
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
【0014】
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
【0015】
車外情報検出ユニット10は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット10には、データ取得部20が接続される。車外情報検出ユニット10は、データ取得部20は、車外の状況を取得するための各種のセンサを含む。例えば、データ取得部20は、可視光あるいは赤外線などの非可視光を受光し、光の受光量に応じた電気信号を出力する光センサを含むことができ、車外情報検出ユニット10は、光センサにより撮像された画像を受信する。また、データ取得部20は、ミリ波レーダ、LiDAR(Light Detection and Ranging、または、Laser Imaging Detection and Ranging)、超音波センサなど、他の方式で外部の状況を取得するセンサをさらに搭載することができる。
【0016】
データ取得部20は、例えば、車両12100のフロントノーズ、サイドミラー、あるいは、車室内のフロントガラスの上部等の位置に、車両の前方をデータ取得方向として設けられる。車外情報検出ユニット10は、データ取得部20から受信した各種センサ出力に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
【0017】
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
【0018】
マイクロコンピュータ12051は、車外情報検出ユニット10又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
【0019】
また、マイクロコンピュータ12051は、車外情報検出ユニット10又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
【0020】
また、マイクロコンピュータ12051は、車外情報検出ユニット10で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット10で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
【0021】
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。
図1の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
【0022】
(1-2.機能の概要)
次に、本開示の各実施形態に適用可能な車外情報検出ユニット10の機能の例について、概略的に説明する。
【0023】
図2は、
図1の車両制御システム12000における車外情報検出ユニット10の機能を説明するための一例の機能ブロック図である。
図2において、データ取得部20は、カメラ21およびミリ波レーダ23を備える。車外情報検出ユニット10は、情報処理部11を備える。情報処理部11は、画像処理部12、信号処理部13、幾何変換部14および認識処理部15を備える。
【0024】
カメラ21は、イメージセンサ22を備える。イメージセンサ22には、CMOSイメージセンサ、CCDイメージセンサ等の任意の種類のイメージセンサを用いることができる。カメラ21(イメージセンサ22)は、当該車両制御システム12000が搭載される車両の前方を撮影し、得られた画像(以下、撮影画像と称する)を画像処理部12に供給する。
【0025】
ミリ波レーダ23は、車両の前方のセンシングを行い、カメラ21とセンシング範囲の少なくとも一部が重なる。例えば、ミリ波レーダ23は、ミリ波からなる送信信号を車両の前方に送信し、車両の前方の物体(反射体)により反射された信号である受信信号を受信アンテナにより受信する。受信アンテナは、例えば、車両の横方向(幅方向)に所定の間隔で複数設けられる。また、受信アンテナを高さ方向にも複数設けるようにしてもよい。ミリ波レーダ23は、各受信アンテナにより受信した受信信号の強度を時系列に示すデータ(以下、ミリ波データと称する)を信号処理部13に供給する。
【0026】
なお、ミリ波レーダ23の送信信号は、例えば2次元平面において所定の角度範囲でスキャンされ、扇状のセンシング範囲を形成する。これを、垂直方向にスキャンすることで、3次元の情報を持つ鳥瞰図を得ることができる。
【0027】
画像処理部12は、撮影画像に対して所定の画像処理を行う。例えば、画像処理部12は、認識処理部15が処理できる画像のサイズに合わせて、撮影画像の画素の間引き処理又はフィルタリング処理等を行い、撮影画像の画素数を削減する(解像度を下げる)。画像処理部12は、解像度を下げた撮影画像(以下、低解像度画像と称する)を認識処理部15に供給する。
【0028】
信号処理部13は、ミリ波データに対して所定の信号処理を行うことにより、ミリ波レーダ23のセンシング結果を示す画像であるミリ波画像を生成する。なお、信号処理部13は、例えば、信号強度画像および速度画像を含む複数ch(チャネル)のミリ波画像を生成する。信号強度画像は、車両の前方の各物体の位置および各物体により反射された信号(受信信号)の強度を示すミリ波画像である。速度画像は、車両の前方の各物体位置および各物体の車両に対する相対速度を示すミリ波画像である。
【0029】
幾何変換部14は、ミリ波画像の幾何変換を行うことにより、ミリ波画像を撮影画像と同じ座標系の画像に変換する。換言すれば、幾何変換部14は、ミリ波画像を撮影画像と同じ視点から見た画像(以下、幾何変換ミリ波画像と称する)に変換する。より具体的には、幾何変換部14は、信号強度画像および速度画像の座標系をミリ波画像の座標系から撮影画像の座標系に変換する。なお、以下、幾何変換後の信号強度画像および速度画像を、幾何変換信号強度画像および幾何変換速度画像と称する。幾何変換部14は、幾何変換信号強度画像および幾何変換速度画像を認識処理部15に供給する。
【0030】
認識処理部15は、機械学習により予め得られた認識モデルを用いて、低解像度画像、幾何変換信号強度画像、および、幾何変換速度画像に基づいて、車両の前方の対象物の認識処理を行う。認識処理部15は、対象物の認識結果を示すデータを、通信ネットワーク12001を介して統合制御ユニット12050に供給する。
【0031】
なお、対象物とは、認識処理部15により認識する対象となる物体であり、任意の物体を対象物とすることが可能である。ただし、ミリ波レーダ23の送信信号の反射率が高い部分を含む物体を対象物とすることが望ましい。以下、対象物が車両である場合を適宜例に挙げながら説明を行う。
【0032】
図3は、認識処理部15に用いられる物体認識モデル40の構成例を示している。
【0033】
物体認識モデル40は、機械学習により得られるモデルである。具体的には、物体認識モデル40は、ディープニューラルネットワークを用い、機械学習の1つであるディープラーニングにより得られるモデルである。より具体的には、物体認識モデル40は、ディープニューラルネットワークを用いた物体認識モデルの1つであるSSD(Single Shot MultiboxDetector)により構成される。物体認識モデル40は、特徴量抽出部44および認識部45を備える。
【0034】
特徴量抽出部44は、畳み込みニューラルネットワークを用いた畳み込み層である特徴抽出層41a~特徴抽出層41c、および、加算部42を備える。特徴抽出層41aは、撮影画像Paの特徴量を抽出し、特徴量の分布を2次元で表す特徴マップ(以下、撮影画像特徴マップと称する)を生成する。特徴抽出層41aは、撮影画像特徴マップを加算部42に供給する。
【0035】
特徴抽出層41bは、幾何変換信号強度画像Pbの特徴量を抽出し、特徴量の分布を2次元で表す特徴マップ(以下、信号強度画像特徴マップと称する)を生成する。特徴抽出層41bは、信号強度画像特徴マップを加算部42に供給する。
【0036】
特徴抽出層41cは、幾何変換速度画像Pcの特徴量を抽出し、特徴量の分布を2次元で表す特徴マップ(以下、速度画像特徴マップと称する)を生成する。特徴抽出層41cは、速度画像特徴マップを加算部42に供給する。
【0037】
加算部42は、撮影画像特徴マップ、信号強度画像特徴マップ、および、速度画像特徴マップを加算することにより、合成特徴マップを生成する。加算部42は、合成特徴マップを認識部45に供給する。
【0038】
認識部45は、畳み込みニューラルネットワークを備える。具体的には、認識部45は、畳み込み層43a~畳み込み層43cを備える。
【0039】
畳み込み層43aは、合成特徴マップの畳み込み演算を行う。畳み込み層43aは、畳み込み演算後の合成特徴マップに基づいて、対象物の認識処理を行う。畳み込み層43aは、畳み込み演算後の合成特徴マップを畳み込み層43bに供給する。
【0040】
畳み込み層43bは、畳み込み層43aから供給される合成特徴マップの畳み込み演算を行う。畳み込み層43bは、畳み込み演算後の合成特徴マップに基づいて、対象物の認識処理を行う。畳み込み層43aは、畳み込み演算後の合成特徴マップを畳み込み層43cに供給する。
【0041】
畳み込み層43cは、畳み込み層43bから供給される合成特徴マップの畳み込み演算を行う。畳み込み層43bは、畳み込み演算後の合成特徴マップに基づいて、対象物の認識処理を行う。
【0042】
物体認識モデル40は、畳み込み層43a乃至畳み込み層43cによる対象物の認識結果を示すデータを出力する。
【0043】
なお、合成特徴マップのサイズ(画素数)は、畳み込み層43aから順に小さくなり、畳み込み層43cで最小になる。そして、合成特徴マップのサイズが大きくなるほど、車両(カメラ)から見てサイズが小さい対象物の認識精度が高くなり、合成特徴マップのサイズが小さくなるほど、車両から見てサイズが大きい対象物の認識精度が高くなる。従って、例えば、対象物が車両である場合、サイズが大きい合成特徴マップでは、遠方の小さな車両が認識されやすくなり、サイズが小さい合成特徴マップでは、近くの大きな車両が認識されやすくなる。
【0044】
図4は、学習システム30の構成例を示すブロック図である。学習システム30は、
図3の物体認識モデル40の学習処理を行う。学習システム30は、入力部31、画像処理部32、正解データ生成部33、信号処理部34、幾何変換部35、教師データ生成部36、および、学習部37を備える。
【0045】
入力部31は、各種の入力デバイスを備え、教師データの生成に必要なデータの入力、および、ユーザ操作等に用いられる。例えば、入力部31は、撮影画像が入力された場合、撮影画像を画像処理部32に供給する。例えば、入力部31は、ミリ波データが入力された場合、ミリ波データを信号処理部34に供給する。例えば、入力部31は、ユーザ操作により入力されたユーザの指示を示すデータを正解データ生成部33および教師データ生成部36に供給する。
【0046】
画像処理部32は、
図2の画像処理部12と同様の処理を行う。すなわち、画像処理部32は、撮影画像に対して所定の画像処理を行うことにより、低解像度画像を生成する。画像処理部32は、低解像度画像を正解データ生成部33および教師データ生成部36に供給する。
【0047】
正解データ生成部33は、低解像度画像に基づいて、正解データを生成する。例えば、ユーザは、入力部31を介して、低解像度画像内の車両の位置を指定する。正解データ生成部33は、ユーザにより指定された車両の位置に基づいて、低解像度画像内の車両の位置を示す正解データを生成する。正解データ生成部33は、正解データを教師データ生成部36に供給する。
【0048】
信号処理部34は、
図2の信号処理部13と同様の処理を行う。すなわし、信号処理部34は、ミリ波データに対して所定の信号処理を行い、信号強度画像および速度画像を生成する。信号処理部34は、信号強度画像および速度画像を幾何変換部35に供給する。
【0049】
幾何変換部35は、
図2の幾何変換部14と同様の処理を行う。すなわち、幾何変換部35は、信号強度画像および速度画像の幾何変換を行う。幾何変換部35は、幾何変換後の幾何変換信号強度画像および幾何変換速度画像を教師データ生成部36に供給する。
【0050】
教師データ生成部36は、低解像度画像、幾何変換信号強度画像、および、幾何変換速度画像を含む入力データ、並びに、正解データを含む教師データを生成する。教師データ生成部36は、教師データを学習部37に供給する。
【0051】
学習部37は、教師データを用いて、物体認識モデル40の学習処理を行う。学習部37は、学習済みの物体認識モデル40を出力する。
【0052】
ここで、学習システム30により実行される物体認識モデル学習処理について説明する。
【0053】
なお、この処理の開始前に、教師データの生成に用いられるデータが収集される。例えば、車両が実際に走行した状態で、車両に設けられたカメラ21およびミリ波レーダ23が車両の前方のセンシングを行う。具体的には、カメラ21は、車両の前方の撮影を行い、得られた撮影画像を記憶部に記憶させる。ミリ波レーダ23は、車両の前方の物体の検出を行い、得られたミリ波データを記憶部に記憶させる。この記憶部に蓄積された撮影画像およびミリ波データに基づいて教師データが生成される。
【0054】
先ず、学習システム30は、教師データを生成する。例えば、ユーザは、入力部31を介して、略同時に取得された撮影画像およびミリ波データを学習システム30に入力する。すなわち、略同じ時刻にセンシングすることにより得られた撮影画像およびミリ波データが、学習システム30に入力される。撮影画像は、画像処理部32に供給され、ミリ波データは、信号処理部34に供給される。
【0055】
画像処理部32は、撮影画像に対して間引き処理等の画像処理を行い、低解像度画像を生成する。画像処理部32は、低解像度画像を正解データ生成部33および教師データ生成部36に供給する。
【0056】
信号処理部34は、ミリ波データに対して所定の信号処理を行うことにより、車両の前方において送信信号を反射した物体の位置および速度を推定する。物体の位置は、例えば、車両から物体までの距離、および、ミリ波レーダ23の光軸方向(車両の進行方向)に対する物体の方向(角度)により表される。なお、ミリ波レーダ23の光軸方向は、例えば、送信信号が放射状に送信される場合、放射される範囲の中心方向と等しくなり、送信信号が走査される場合、走査される範囲の中心方向と等しくなる。物体の速度は、例えば、車両に対する物体の相対速度により表される。
【0057】
信号処理部34は、物体の位置および速度の推定結果に基づいて、信号強度画像および速度画像を生成する。信号処理部34は、信号強度画像および速度画像を幾何変換部35に供給する。なお、図示は省略するが、速度画像は、車両の前方の物体の位置、および、各物体の相対速度の分布を、信号強度画像と同様に、鳥瞰図により表した画像である。
【0058】
幾何変換部35は、信号強度画像および速度画像の幾何変換を行い、信号強度画像および速度画像を撮影画像と同じ座標系の画像に変換することにより、幾何変換信号強度画像および幾何変換速度画像を生成する。幾何変換部35は、幾何変換信号強度画像および幾何変換速度画像を教師データ生成部36に供給する。
【0059】
幾何変換信号強度画像では、信号強度が強い部分ほど明るくなり、信号強度が弱い部分ほど暗くなる。幾何変換速度画像では、相対速度が速い部分ほど明るくなり、相対速度が遅い部分ほど暗くなり、相対速度が検出不能な(物体が存在しない)部分は黒く塗りつぶされる。このように、ミリ波画像(信号強度画像および速度画像)の幾何変換を行うことにより、横方向および奥行き方向の物体の位置だけでなく、高さ方向の物体の位置も表される。
【0060】
ただし、ミリ波レーダ23は、距離が遠くなるほど高さ方向の分解能が低下する。そのため、距離が遠い物体の高さが、実際より大きく検出される場合がある。
【0061】
これに対して、幾何変換部35は、ミリ波画像の幾何変換を行う場合に、所定の距離以上離れた物体の高さを制限する。具体的には、幾何変換部35は、ミリ波画像の幾何変換を行う場合に、所定の距離以上離れた物体の高さが所定の上限値を超えるとき、その物体の高さを上限値に制限して、幾何変換を行う。これにより、例えば、対象物が車両の場合、遠方の車両の高さが実際より大きく検出されることにより誤認識が発生することが防止される。
【0062】
教師データ生成部36は、撮影画像、幾何変換信号強度画像、および、幾何変換速度画像を含む入力データ、並びに、正解データを含む教師データを生成する。教師データ生成部36は、生成した教師データを学習部37に供給する。
【0063】
次に、学習部37は、物体認識モデル40の学習を行う。具体的には、学習部37は、教師データに含まれる入力データを物体認識モデル40に入力する。物体認識モデル40は、対象物の認識処理を行い、認識結果を示すデータを出力する。学習部37は、物体認識モデル40の認識結果と正解データとを比較し、誤差が小さくなるように、物体認識モデル40のパラメータ等を調整する。
【0064】
次に、学習部37は、学習を継続するか否かを判定する。例えば、学習部37は、物体認識モデル40の学習が収束していない場合、学習を継続すると判定し、処理は、最初の教師データ生成処理に戻る。その後、学習を終了すると判定されるまで、上述した各処理が繰り返し実行される。
【0065】
一方、学習部37の判定の結果、例えば、物体認識モデル40の学習が収束している場合、学習を終了すると判定し、物体認識モデル学習処理を終了する。以上のようにして、学習済みの物体認識モデル40が生成される。
【0066】
(1-3.ハードウェア構成例)
次に、本開示の各実施形態に適用可能な、車外情報検出ユニット10のハードウェア構成の例について説明する。
図5は、各実施形態に適用可能な車外情報検出ユニット10のハードウェア構成の一例を示すブロック図である。
図5において、車外情報検出ユニット10は、それぞれバス410により互いに通信可能に接続された、CPU(Central Processing Unit)400と、ROM(Read Only Memory)401と、RAM(Random Access Memory)402と、インタフェース(I/F)403、404および405と、を含む。なお、車外情報検出ユニット10は、フラッシュメモリなどによるストレージ装置をさらに含むこともできる。
【0067】
CPU400は、ROM401に予め記憶されたプログラムやデータに従い、RAM402をワークメモリとして用いて、この車外情報検出ユニット10の全体の動作を制御する。ここで、ROM401またはRAM402には、
図2~
図4を用いて説明した、物体認識モデル40を実現するためのプログラムおよびデータが予め記憶される。CPU400によりこのプログラムが実行されることで、車外情報検出ユニット10において、物体認識モデル40が構築される。
【0068】
インタフェース403は、カメラ21を接続するためのインタフェースである。インタフェース404は、ミリ波レーダ23を接続するためのインタフェースである。車外情報検出ユニット10は、これらインタフェース403および404を介してカメラ21およびミリ波レーダ23を制御すると共に、カメラ21により撮像された撮像画像データ(以下、イメージデータと呼ぶ)や、ミリ波レーダ23により取得されたミリ波データを取得する。車外情報検出ユニット10は、これらのイメージデータおよびミリ波データを入力データとして物体認識モデル40に適用することで、物体を認識する認識処理を実行する。
【0069】
図5において、インタフェース405は、車外情報検出ユニット10と通信ネットワーク12001との間で通信を行うためのインタフェースである。車外情報検出ユニット10は、物体認識モデル40により出力された物体認識結果を示す情報を、インタフェース405から通信ネットワーク12001に対して送信する。
【0070】
[2.本開示の実施形態の概略]
次に、本開示の実施形態の概略について説明する。 本開示の各実施形態では、対象物を検出するための第1のセンサの出力に基づき対象物を検出するための検出窓を、第1のセンサとは異なる方式で該対象物を検出するための第2のセンサの出力に基づき設定し、第2のセンサの出力のうち検出窓に対応する領域の出力に基づき、対象物を認識する認識処理を行うようにしている。
【0071】
図6は、本開示に実施形態に係る物体認識モデル40について概略的に示す図である。物体認識モデル40aにおいて、カメラ21から取得されたイメージデータ100は、特徴抽出層110に入力される。また、ミリ波レーダ23から取得されたミリ波画像によるミリ波画像データ200は、特徴抽出層210に入力される。
【0072】
物体認識モデル40aに入力されるイメージデータ100は、例えば画像処理部12において、1ch以上の特徴量を含むデータに整形される。イメージデータ100は、物体認識モデル40aにおいて特徴抽出層110により特徴抽出され、必要に応じてサイズを変更されると共に特徴量のchを追加されたデータとされる。特徴抽出層110により特徴抽出されたイメージデータ100は、物体認識層120において畳み込み処理され、順次に畳み込まれた複数の物体認識層データが生成される。
【0073】
物体認識モデル40aは、複数の物体認識層データに基づきアテンションマップ130を作成する。アテンションマップ130は、例えばイメージデータ100が示す範囲に対して、物体認識の対象とする領域を限定するための検出窓を示す情報を含む。作成されたアテンションマップ130は、乗算部220に入力される。
【0074】
一方、物体認識モデル40aに入力されるミリ波画像データ200は、例えば信号処理部13および幾何変換部14により、1ch以上の特徴量を含むデータに整形される。ミリ波画像データ200は、物体認識モデル40aにおいて特徴抽出層210により特徴抽出され、必要に応じてサイズを変更される(例えばイメージデータ100と同じサイズとされる)と共に特徴量のchを追加されたデータとされる。特徴抽出層により特徴抽出された各chのミリ波画像データ200は、乗算部220に入力され、アテンションマップ130との間で画素ごとに乗算が行われる。これにより、ミリ波画像データ200において、物体認識を行う領域が制限される。さらに、乗算部220の出力が加算部221に入力され、特徴抽出層210の出力が加算される。加算部221の出力は、物体認識層230に入力され、畳み込み処理される。
【0075】
このように、アテンションマップ130により制限された領域に対して物体認識処理を行うことで、物体認識処理の処理量を削減することができる。
【0076】
なお、イメージデータ100として過去フレーム101のデータを用いることで、処理の高速化を図ることが可能である。
【0077】
[3.第1の実施形態]
次に、本開示の第1の実施形態について説明する。
図7は、第1の実施形態に係る物体認識モデルの一例の構成を示す図である。
図7において、物体認識モデル40bは、同図の左側に示される特徴抽出層110および210、ならびに、物体認識層120および230での処理は、
図6と同等であるので、ここでの説明を省略する。
【0078】
図7の右側は、ミリ波画像データ200に基づく物体認識層230と、イメージデータ100に基づく物体認識層120と、が模式的に示されている。物体認識層230は、ミリ波画像データ200に基づき順次に畳み込み処理された各物体認識層データ230
0、230
1、230
2、230
3、230
4、230
5および~230
6を含む。また、物体認識層120は、イメージデータ100に基づき順次に畳み込み処理された各物体認識層データ120
0、120
1、120
2、120
3、120
4、120
5および120
6を含む。
【0079】
なお、以下では、各物体認識層データ1200~1206を特に区別する必要の無い場合には、これらを物体認識層データ120xで代表させて説明を行う。同様に、各物体認識層データ2300~2306を特に区別する必要の無い場合には、これらを物体認識層データ230xで代表させて説明を行う。
【0080】
図7において、各物体認識層データ120
0~120
7は、それぞれアテンションマップに対応するレイヤ(層)画像#0、#1、#2、#3、#4、#5、#6として、具体的な例が示されている。詳細は後述するが、各レイヤ画像のうち、レイヤ画像#1および#2に示される白い部分が、検出窓を示している。
【0081】
すなわち、物体認識層120では、各レイヤ画像#0、#1、#2、#3、#4、#5、#6の特徴に基づき物体尤度を求め、求めた物体尤度が高い領域を判定する。物体認識層120は、例えばレイヤ画像#1について、画素情報に基づき物体尤度を求める。そして、求めた物体尤度を閾値と比較し、当該物体尤度が閾値より高い領域を判定する。
図7の例では、レイヤ画像#1において白く表現されている領域が、物体尤度が閾値より高い領域を示している。物体認識層120は、当該領域を示す領域情報を生成する。この領域情報は、レイヤ画像#1内での位置を示す情報と、その位置における物体尤度を示す値と、を含む。物体認識層120は、この領域情報に示される領域に基づき検出窓を設定し、アテンションマップを作成する。
【0082】
ここで、各物体認識層データ120
0~120
6は、畳み込みにより順次にサイズが小さくされる。例えば、
図7の例では、レイヤ画像#0(物体認識層データ120
0)におけるサイズが1層分の畳み込みにより1/2とされる。例えば、レイヤ画像#0におけるサイズが640画素×384画素とすると、7層の畳み込み(および整形処理)により、レイヤ画像#6のサイズが1画素×1画素になる。
【0083】
上述したように、畳み込み数が少なくサイズが大きなレイヤ画像は、より小さい(遠方にある)対象物を検出でき、畳み込み数が多くサイズが小さなレイヤ画像は、より大きい(より近距離にある)対象物を検出できる。これは、ミリ波データに基づく各物体認識層データ2300~2306についても同様である。
【0084】
畳み込み数が多く画素数が少ないレイヤ画像や、畳み込み数が少なく物体が小さく認識されるレイヤ画像は、物体認識処理に用いるには適当ではない場合がある。そのため、
図7の例では、アテンションマップを7層全てについて作成せずに、目的に応じた数のレイヤ画像(例えばレイヤ画像#1~#3の3層)を用いてアテンションマップを作成してもよい。
【0085】
各物体認識層データ1200~1207は、それぞれ、対応する合成部300に入力される。また、ミリ波画像データ200に基づく各物体認識層データ2300~2306も同様に、それぞれ対応する合成部300に入力される。各合成部300は、入力された各物体認識層データ1200~1207それぞれと、各物体認識層データ2300~2306それぞれと、を合成し、合成物体認識層データ3100~3106を生成する。
【0086】
図8は、第1の実施形態に係る合成部300の一例の構成を示す図である。合成部300は、乗算部220と、加算部221と、を含む。乗算部220は、一方の入力端にイメージデータ100に基づくアテンションマップによる物体認識層データ120
xが入力される。乗算部220の他方の入力端には、ミリ波画像データ200に基づく物体認識層データ230
xが入力される。乗算部220は、これら一方の入力端に入力された物体認識層データ120
xと、他方の入力端に入力された物体認識層データ230
xと、の画素毎の積を計算する。この乗算部220の計算により、ミリ波画像データ200(物体認識層データ230
x)における、検出窓に対応する領域が強調されることになる。
【0087】
これに限らず、物体認識モデル40aは、ミリ波画像データ200における、検出窓外の領域を抑制するようにしてもよい。
【0088】
乗算部220の乗算結果は、加算部221の一方の入力端に入力される。加算部221の他方の入力端には、ミリ波画像データ200に基づく物体認識層データ230xが入力される。加算部221は、一方の入力端に入力された乗算部220の乗算結果と、物体認識層データ230xとについて、行列の和を算出する。
【0089】
このように、乗算部220および加算部221の処理により、第1のセンサとしてのミリ波レーダ23によるミリ波画像データ200に対して、第1のセンサと異なる第2のセンサとしてのカメラ21によるイメージデータ100に基づく物体認識処理の過程で検出される物体尤度に応じて生成される領域情報が付加される。
【0090】
ここで、加算部221では、乗算部220の乗算結果に対して、元の画像を加算する処理を行う。例えばアテンションマップが画素毎に0または1の値で表現される場合、例えばあるレイヤ画像においてアテンションマップが全て0の場合、あるいは、アテンションマップにおいて0の領域では、情報が無くなってしまう。そのため、後述する予測部150での処理において、当該領域に対する認識処理が不可能になる。そのため、加算部221でミリ波画像データ200に基づく物体認識層データ230xを加算し、当該領域においてデータが無くなってしまう事態を回避する。
【0091】
説明は
図7に戻り、各合成部300から出力された合成物体認識層データ310
0~310
6は、予測部150に入力される。予測部150は、入力された各合成物体認識層データ310
0~310
6に基づき物体認識処理を行い、認識された物体のクラスなどを予測する。予測部150による予測結果は、対象物の認識結果を示すデータとして、車外情報検出ユニット10から出力され、例えば通信ネットワーク12001を介して統合制御ユニット12050に渡される。
【0092】
(3-1.具体例)
第1の実施形態に係る物体認識モデル40aによるアテンションマップについて、
図9および
図10を用いてより具体的に説明する。
【0093】
図9は、第1の実施形態に係る物体認識モデル40aによるアテンションマップの第1の例を説明するための模式図である。
【0094】
図9において、左側に、元となるイメージデータ100aの例を示している。
図9の右側は、上段から物体認識層データ230
x、物体認識層データ230
x、合成物体認識層データ310
xを示している。また、左から順に、レイヤ画像#1(物体認識層データ120
1)と、レイヤ画像#2(物体認識層データ120
2)および#3(物体認識層データ120
3)に対応するように、物体認識層データ230
x、物体認識層データ230
xおよび合成物体認識層データ310
xが示されている。
【0095】
すなわち、
図9の右図上段は、ミリ波画像データ200による特徴を示す特徴マップであり、中段は、イメージデータ100の特徴から作成したアテンションマップを示している。また、下段は、ミリ波画像データ200に基づく特徴マップと、イメージデータ100に基づくアテンションマップと、を合成部300にて合成した合成物体認識層データ310
xとなっている。
【0096】
以下、レイヤ画像#Xに対応する物体認識層データ230xを、レイヤ画像#Xの物体認識層データ230xと呼ぶ。また、レイヤ画像#Xに対応する合成物体認識層データ310xを、レイヤ画像#Xの合成物体認識層データ310xと呼ぶ。
【0097】
図9において、物体認識層データ230
xのうち、レイヤ画像#1の物体認識層データ230
1において、図中の領域231
10で示される部分に、物体らしき認識結果が現れている。また、レイヤ画像#1は、領域121
10および121
11の物体尤度が閾値以上とされ、これら領域121
10および121
11が検出窓とされたアテンションマップが作成された様子を示している。これに対して、レイヤ画像#1の合成物体認識層データ310
1では、領域231
10に対応する領域230
10’と、領域121
10および121
11にそれぞれ対応する121
10’および121
11’とに、物体らしき認識結果が現れている。
【0098】
レイヤ画像#2についても同様に、レイヤ画像#2の物体認識層データ2302において、領域23111で示される部分に、物体らしき認識結果が現れており、レイヤ画像#1は、領域12113の物体尤度が閾値以上とされ、領域12113が検出窓とされたアテンションマップが作成された様子を示している。これに対して、レイヤ画像#2の合成物体認識層データ3102では、領域23111に対応する領域23011’と、領域12113に対応する12113’とに、物体らしき認識結果が現れている。
【0099】
レイヤ画像#3については、レイヤ画像#3の物体認識層データ2303において、領域23112で示される部分に、物体らしき認識結果が現れており、レイヤ画像#1では、物体尤度が閾値以上の領域が検出されず、検出窓が作成されていない。レイヤ画像#3の合成物体認識層データ3103では、領域23112に対応する領域23012’に、物体らしき認識結果が現れている。
【0100】
また、領域12110および12111、ならびに、領域12113において、白色および灰色で示される領域が、検出窓に対応する。この場合、例えば白色の度合いが強い領域ほど物体尤度が高い領域となる。一例として、領域12113において、明るい灰色の縦長矩形の領域と、暗い灰色の横長矩形が交差する白色の度合いが強い領域は、領域12113内で最も物体尤度が高い領域である。検出窓は、上述したように、例えばレイヤ画像内における対応する位置を示す情報と、物体尤度を示す値と、を含む領域情報に基づき設定される。
【0101】
このように、レイヤ画像#1および#2では、ミリ波画像データ200に基づく物体認識層データ230xに対する物体尤度の算出を行うこと無く、ミリ波画像データ200に基づき物体らしき認識結果が現れた領域を強調しつつ、イメージデータ100に基づく検出窓の領域を含めて、合成物体認識層データ310xを生成することができる。
【0102】
また、加算部221でミリ波画像データ200に基づく物体認識層データ230xを加算しているため、レイヤ画像#3のように、レイヤ画像#2に検出窓が設定されなかった場合であっても、ミリ波画像データ200に基づき物体らしき認識結果が現れた領域を強調することができる。
【0103】
図10は、第1の実施形態に係る物体認識モデル40aによるアテンションマップの第2の例を説明するための模式図である。
図10の各部の意味は、上述した
図9と同様なので、ここでの説明を省略する。
図10において、左側に、元となるイメージデータ100bの例を示している。
【0104】
図10において、物体認識層データ230
xのうち、レイヤ画像#1の物体認識層データ230
1において、図中の領域231
20で示される部分に、物体らしき認識結果が現れている。また、レイヤ画像#1は、領域121
20および121
21の物体尤度が閾値以上とされ、これら領域121
20および121
21が検出窓とされたアテンションマップが作成された様子を示している。これに対して、レイヤ画像#1の合成物体認識層データ310
1では、領域231
20に対応する領域230
20’と、領域121
20および121
21にそれぞれ対応する121
20’および121
21’とに、物体らしき認識結果が現れている。
【0105】
レイヤ画像#2についても同様に、レイヤ画像#2の物体認識層データ2302において、領域23121で示される部分に、物体らしき認識結果が現れており、レイヤ画像#2は、領域12122の物体尤度が閾値以上とされ、領域12122が検出窓とされたアテンションマップが作成された様子を示している。これに対して、レイヤ画像#2の合成物体認識層データ3102では、領域23121に対応する領域23021’と、領域12122に対応する12122’とに、物体らしき認識結果が現れている。
【0106】
レイヤ画像#3についても、レイヤ画像#3の物体認識層データ2303において、領域23122で示される部分に、物体らしき認識結果が現れており、レイヤ画像#1は、領域12123の物体尤度が閾値以上とされ、領域12123が検出窓とされたアテンションマップが作成された様子を示している。これに対して、レイヤ画像#3の合成物体認識層データ3103では、領域23123に対応する領域23021’と、領域12123に対応する12123’とに、物体らしき認識結果が現れている。
【0107】
この第2の例でも上述した第1の例と同様に、レイヤ画像#1~#3において、ミリ波画像データ200に基づく物体認識層データ230xに対する物体尤度の算出を行うこと無く、ミリ波画像データ200に基づき物体らしき認識結果が現れた領域を強調しつつ、イメージデータ100に基づく検出窓の領域を含めて、合成物体認識層データ310xを生成することができる。
【0108】
このように、第1の実施形態によれば、ミリ波画像データ200の単体では弱い特徴であっても、カメラ21により撮像したイメージデータ100に基づくアテンションマップを用いて特徴を強調することで、物体認識の性能を向上させることができる。また、これにより、異なる複数のセンサを用いた場合の認識処理に係る負荷を軽減させることができる。
【0109】
なお、
図7の例では、互いに畳み込み層が対応する物体認識層データ120
xと物体認識層データ230
xと、を合成部300により合成した、各畳込み層の合成物体認識層データ310
xそれぞれを予測部150に入力しているが、これはこの例に限定されない。例えば、畳み込み層が異なる物体認識層データ120
xと物体認識層データ230
x(例えば物体認識層データ120
1と物体認識層データ230
2)と、を合成部300で合成した合成物体認識層データ310
xを予測部150に入力することができる。この場合、合成部300で合成する物体認識層データ120
xと物体認識層データ230
xとのサイズを揃えると、好ましい。また、各物体認識層データ120
xおよび各物体認識層データ230
xのうち一部を合成部300により合成して、合成物体認識層データ310
xを生成してもよい。このとき、各物体認識層データ120
xおよび各物体認識層データ230
xから畳み込み層が互いに対応するデータを1つずつ選択して、合成部300で合成してもよいし、それぞれ複数のデータを選択して、合成部300でそれぞれ合成してもよい。
【0110】
[4.第2の実施形態]
次に、本開示の第2の実施形態について説明する。第2の実施形態は、上述した第1の実施形態とは異なる方法でアテンションマップを作成する例である。
図11は、第2の実施形態に係る物体認識モデルの一例の構成を示す図である。
【0111】
図11において、上述と同様に、物体認識モデル40cにおいて、物体認識層120aは、イメージデータ100に基づき畳み込み処理を行い、各物体認識層データ120
0~120
6を生成する(図示しない)。ここで、物体認識層120aは、最も畳み込み層が深く、サイズが小さい物体認識層データ120
6のサイズを例えば2倍に広げて、次の層の物体認識層データ122
1を生成する。
【0112】
この場合、新たに生成した物体認識層データ1221は、物体認識層1200~1206のうち最も小さなサイズを持つ物体認識層データ1206の特徴を引き継ぐため、特徴が弱い。そこで、物体認識層120aは、物体認識層データ1206の次に畳み込み層が深く、サイズが当該物体認識層データ1206の例えば2倍である物体認識層データ1205を物体認識層データ1206に連結させて、新たな物体認識層データ1221を生成する。
【0113】
次も同様にして、物体認識層120aは、生成した物体認識層データ1221のサイズを例えば2倍に広げて、対応する物体認識層データ1205に連結させて、新たな物体認識層データ1222を生成する。このように、第2の実施形態に係る物体認識層120aは、生成した物体認識層データ122xのサイズを例えば2倍に広げ、対応する物体認識層データ120xを結合させて新たに物体認識層データ122x+1を生成する処理を繰り返す。
【0114】
物体認識層120aは、上述のように順次にサイズを2倍にされて生成された各物体認識層データ1206、1221、1222、1223、1224、1225および1226に基づきアテンションマップを作成する。このとき、最大のサイズの物体認識層データ1226をレイヤ画像#0に嵌め込み、レイヤ画像#0のアテンションマップを作成する。次に大きなサイズの物体認識層データ1225をレイヤ画像#1に嵌め込み、レイヤ画像#1のアテンションマップを作成する。以降順次、各物体認識層データ1224、1223、1222、1221および1206をサイズが小さくなる順に、各レイヤ画像#2、#3、#4、#5および#6に嵌め込み、各レイヤ画像#2~#6のアテンションマップを作成する。
【0115】
このように、第2の実施形態では、物体認識層120aは、新しいアテンションマップを、機械学習で作成して嵌め込んで生成する。これにより、例えばガードレールや縁石などの、認識対象以外の強反射物体によるFP(False Positive)を削減し、ミリ波画像データ200単体による物体認識の性能を向上させることができる。一方、第2の実施形態では、イメージデータ100に対して深い畳み込み層まで畳み込みを行った物体認識層データ1206にデータを連結させてアテンションマップを作成しているため、カメラ21での撮像が難しい物体の特徴が弱められてしまう。例えば、水滴や霧などで隠れた物体の認識が難しくなる。そのため、この第2の実施形態に係るアテンションマップの作成方法と、例えば上述した第1の実施形態に係るアテンションマップの作成方法と、を環境に応じて切り替えるようにすると、好ましい。
【0116】
[5.第3の実施形態]
次に、本開示の第3の実施形態について説明する。第3の実施形態は、ミリ波画像データ200に基づく各物体認識層データ230
0~230
6に対して、イメージデータ100に基づく各アテンションマップ(各物体認識層データ120
0~120
6)を掛け合わせるようにした例である。
図12は、第3の実施形態に係る物体認識モデルの一例の構成を示す図である。
【0117】
図12に示す物体認識モデル40dでは、物体認識層230は、上述した第1の実施形態と同様にして、ミリ波画像データ200に基づき各物体認識層データ230
0~230
6を生成する。一方、物体認識層120bは、イメージデータ100に基づき、各物体認識層データ120
0~120
6と、各物体認識層データ120
0’~120
6’と、を生成する。
【0118】
ここで、各物体認識層データ120
0~120
6は、イメージデータ100単体で物体認識を行うようにパラメータを調整されたデータである。これに対し、各物体認識層データ120
0’~120
6’は、ミリ波画像データ200とイメージデータ100との両方を用いて物体認識を行うようにパラメータを調整されたデータである。例えば、
図4を用いて説明した学習システム30において、同一のイメージデータ100に対して、当該イメージデータ100単体で物体認識を行うための学習と、ミリ波画像データ200と共に物体認識を行うための学習とを実行し、それぞれのパラメータを生成する。
【0119】
第1の実施形態と同様に、各合成部301により、物体認識層120bで生成された各物体認識層データ1200~1206および各物体認識層データ1200’~1206’と、物体認識層230で生成された各物体認識層データ2300~2306と、を対応するデータ同士で合成する。
【0120】
図13は、第3の実施形態に係る合成部301の一例の構成を示す図である。
図13に示されるように、合成部301は、
図8の合成部300による乗算部220および加算部221の構成に対して、連結部222が追加されている。
【0121】
合成部301において、乗算部220は、一方の入力端に、イメージデータ100単体で物体認識を行うようにパラメータを調整された物体認識層データ120xが入力され、他方の入力端には、物体認識層データ230xが入力される。乗算部220は、これら一方の入力端に入力された物体認識層データ120xと、他方の入力端に入力された物体認識層データ230xと、の画素毎の積を計算する。乗算部220の乗算結果は、加算部221の一方の入力端に入力される。加算部221の他方の入力端には、物体認識層データ230xが入力される。加算部221は、一方の入力端に入力された乗算部220の乗算結果と、物体認識層データ230xとについて、行列の和を算出する。
【0122】
加算部221の出力が、連結部222の一方の入力端に入力される。連結部222の他方の入力端に対して、イメージデータ100とミリ波画像データ200とを用いて物体認識を行うようにパラメータを調整された物体認識層データ120x’が入力される。連結部222は、加算部221の出力と、物体認識層データ120x’と、を連結(Concatenate)する。
【0123】
この連結処理は、加算部221の出力と、物体認識層データ120x’と、のそれぞれのデータが列挙されるもので、加算部221の出力と、物体認識層データ120xと、のそれぞれに対して互いに影響を与えない処理となる。その結果、連結部222から出力されるデータは、例えば加算部221の出力が有する特徴量と、物体認識層データ120xが有する特徴量とを合計した特徴量を含むデータとなる。
【0124】
この合成部301での合成処理により、イメージデータ100単体で物体の有無を示すアテンションマップを作成し、作成したアテンションマップに対してミリ波画像データ200に基づく特徴量だけを掛け合わせることができる。これにより、ミリ波画像データ200に基づく特徴量が制限され、FPを抑制することが可能となる。
【0125】
したがって、第3の実施形態に係る物体認識モデル40dによれば、カメラ21単体で取得したイメージデータ100に基づきアテンションマップを作成し、カメラ21とミリ波レーダ23とを統合した出力に基づき物体認識を行うことが可能となる。
【0126】
[6.第4の実施形態]
次に、本開示の第4の実施形態について説明する。第4の実施形態は、イメージデータ100に基づく物体認識層データ120xと、ミリ波画像データ200に基づく物体認識層データ230xと、を連結した連結データを生成し、この連結データを用いて物体認識を行うようにした例である。
【0127】
図14は、第4の実施形態に係る物体認識モデルの一例の構成を示す図である。第4の実施形態に係る物体認識モデル40eでは、物体認識処理を行うための各連結データは、既に物体認識層データ120
xと物体認識層データ230
xとを含んでいる。そのため、各連結データにおいてミリ波画像データ200に基づく物体認識層データ230
xに対する検出窓を設定することができない。そのため、第4の実施形態に係る物体認識モデル40eでは、物体認識層データ120
xと物体認識層データ230
xとを連結する連結部222の前段で、ミリ波画像データ200における、検出窓外の領域を抑制する処理を行う。
【0128】
より具体的に説明する。
図14に示す物体認識モデル40eにおいて、ミリ波画像データ200に基づき物体認識層230で生成された各物体認識層データ230
0~230
6(図示しない)は、それぞれ合成部300に入力される。一方、物体認識層120cは、イメージデータ100に基づき各物体認識層データ120
0~120
6を生成し、生成した各物体認識層データ120
0~120
6のうち所定数のデータを重畳してアテンションマップを作成する。このアテンションマップが合成部300に入力される。
【0129】
なお、
図14の例では、物体認識層120cは、各物体認識層データ120
0~120
6から畳み込み層が順次隣接する3つの物体認識層データ120
0、120
1および120
2を重畳させた画像データ123によりアテンションマップを作成している。これはこの例に限られず、例えば、物体認識層120cは、各物体認識層データ120
0~120
6の全てを重畳した画像データ123によりアテンションマップを作成することができる。これに限らず、物体認識層120cは、隣接する2つあるいは4以上の物体認識層データ120
xを重畳させた画像データによりアテンションマップを作成してもよい。また、畳み込み層が隣接する複数の物体認識層データ120
xに限らず、畳み込み層を飛び飛びに選択した複数の物体認識層データ120
xを重畳させた画像データ123によりアテンションマップを作成することもできる。
【0130】
合成部300は、
図8を用いた説明と同様にして、乗算部220により画像データ123と各物体認識層データ230
0~230
6との積を求め、求めた積に対して加算部221により各物体認識層データ230
0~230
6を加算する。合成部300により画像データ123と各物体認識層データ230
0~230
6とがそれぞれ合成された各合成データは、連結部222の一方の入力端に入力される。
【0131】
連結部222の他方の入力端には、イメージデータ100に基づき物体認識層120cにより生成された各物体認識層データ1200~1206が入力される。連結部222は、一方の入力端に入力された各合成データと、他方の入力端に入力された各物体認識層データ1200~1206とを、それぞれ連結し、各物体認識層データ1200~12062それぞれ対応する連結データ2420、2421、2422、2423、2424、2425および2426を生成する。
【0132】
連結部222から出力された各連結データ2420~2426は、それぞれ予測部150に入力される。
【0133】
このような構成とすることで、予測部150が物体認識を行うための各連結データ2420~2426における、検出窓外のミリ波画像データ200の影響を抑制することができる。したがって、第4の実施形態に係る物体認識モデル40eによれば、カメラ21単体で取得したイメージデータ100に基づきアテンションマップを作成し、カメラ21とミリ波レーダ23とを統合した出力に基づき物体認識を行うことが可能となる。
【0134】
[7.第5の実施形態]
次に、本開示に係る第5の実施形態について説明する。第5の実施形態に係る物体認識モデルは、アテンションマップを作成するためのイメージデータ100として、1フレーム前のイメージデータ100を用いるようにした例である。
【0135】
図15は、第5の実施形態に係る物体認識モデルの一例の構成を示す図である。なお、
図15に示す物体認識モデル40fは、上述した第3の実施形態に係る物体認識モデル40d(
図12参照)に対して、第5の実施形態の構成を適用させた例である。
【0136】
図15に示す物体認識モデル40fにおいて、物体認識層120dは、上述した
図12と同様にして、物体認識層120において、カメラ21によりあるフレーム(今回のフレームと呼ぶ)のフレーム画像データとして取得されたイメージデータ100(今回のフレームのイメージデータ100と呼ぶ)に基づき各物体認識層データ120
0~120
6を生成する。また、物体認識層230は、当該今回のフレームと対応してミリ波レーダ23により取得されたミリ波画像データ200(今回のフレームのミリ波画像データ200と呼ぶ)に基づき各物体認識層データ230
0~230
6を生成する。
【0137】
このとき、今回のフレームによるイメージデータ100に基づき生成された各物体認識層データ120
0~120
6は、メモリ420に記憶される。メモリ420は、例えば
図5に示したRAM402を適用することができる。なお、ここでは、メモリ420に対して当該各物体認識層データ120
0~120
6を全て記憶するように説明したが、これはこの例に限定されない。例えば、メモリ420に対して、最も畳み込み層の浅い物体認識層データ120
0のみを記憶させてもよい。
【0138】
一方、物体認識層120dは、カメラ21により、今回のフレームに対して過去(例えば直前のフレーム)に取得されたイメージデータ100(過去フレーム101のイメージデータ100と呼ぶ)に基づき生成されメモリ420に記憶された各物体認識層データ1200~1206に基づき、アテンションマップを作成する。ここで、メモリ420に対して、最も畳み込み層の浅い物体認識層データ1200のみが記憶されている場合は、当該物体認識層データ1200に対して順次に畳み込み処理を実行して、各物体認識層データ1201~1206を生成することができる。
【0139】
それぞれ今回のフレームに対応する各物体認識層データ1200~1206および各物体認識層データ2300~2306がそれぞれ対応する合成部301に入力される。また、過去フレーム101のイメージデータ100に基づき生成された各物体認識層データ1200~1206が、それぞれアテンションマップとして、合成部301に入力される。
【0140】
合成部301では、
図13を用いて説明したように、乗算部220により、各物体認識層データ120
0~120
6と各物体認識層データ230
0~230
6との積をそれぞれ求め、求めた各結果に対して、加算部221により、各物体認識層データ230
0~230
6をそれぞれ加算する。加算部221の各加算結果に対して、連結部222において、過去フレーム101のイメージデータ100に基づき生成された各物体認識層データ120
0~120
6が連結される。
【0141】
このように、イメージデータ100として過去フレーム101のデータを用いてアテンションマップを作成することで、物体認識層120cにおいて1または複数の畳み込み処理を省略することができ、処理の高速化を図ることが可能である。
【0142】
[8.第6の実施形態]
次に、第6の実施形態について説明する。上述した第1~第5の実施形態では、データ取得部20がセンサとしてカメラ21とミリ波レーダ23とを含むものとして説明したが、データ取得部20が含むセンサの組み合わせは、この例に限定されない。第6の実施形態では、データ取得部20が含むセンサの他の組み合わせの例について説明する。
【0143】
(8-1.第1の例)
図16は、第6の実施形態に係る車外情報検出ユニットおよびデータ取得部の第1の例を示す一例のブロック図である。
図16に示されるように、第1の例は、データ取得部20aがセンサとしてカメラ21とLiDAR24とを含む例である。LiDAR24は、光源から射出された光を対象物に反射させて測距を行うLiDAR方式で測距を行うための光反射測距センサであり、光源と受光部とを含む。
【0144】
信号処理部13aは、LiDAR24から出力されたRAWデータに基づき例えば3次元の点群情報を作成する。幾何変換部14aは、信号処理部13aで作成された3次元の点群情報を、カメラ21による撮影画像と同じ視点から見た画像に変換する。より具体的には、幾何変換部14aは、LiDAR24から出力されたRAWデータに基づく3次元点群情報の座標系を、撮影画像の座標系に変換する。幾何変換部14aで座標系が撮像画像の座標系に変換されたLiDAR24の出力データは、認識処理部15aに供給される。認識処理部15aは、上述した認識処理部15におけるミリ波画像データ200の代わりに、座標系が撮像画像の座標系に変換されたLiDAR24の出力データを用いて、物体認識処理を行う。
【0145】
(8-2.第2の例)
図17は、第6の実施形態に係る車外情報検出ユニットおよびデータ取得部の第2の例を示す一例のブロック図である。
図17に示されるように、第2の例は、データ取得部20bがセンサとしてカメラ21と超音波センサ25とを含む例である。超音波センサ25は、可聴周波数帯域よりも高い周波数帯域の音波(超音波)を発信し、その超音波の反射波を受信することで測距を行うもので、例えば超音波の発信を行う発信素子と受信を行う受信素子とを有する。超音波の発信と受信とを1つの素子で行う場合もある。超音波センサ25は、例えば、超音波の発信と受信とを、超音波の発信方向をスキャンしながら所定の周期で繰り返し行うことで、3次元の点群情報を得ることができる。
【0146】
信号処理部13bは、超音波センサ25から出力されたデータに基づき、例えば3次元の点群情報を作成する。幾何変換部14bは、信号処理部13bで作成された3次元の点群情報を、カメラ21による撮影画像と同じ視点から見た画像に変換する。より具体的には、幾何変換部14bは、超音波センサ25から出力されたデータに基づく3次元点群情報の座標系を、撮影画像の座標系に変換する。幾何変換部14bで座標系が撮像画像の座標系に変換された超音波センサ25の出力データは、認識処理部15bに供給される。認識処理部15bは、上述した認識処理部15におけるミリ波画像データ200の代わりに、座標系が撮像画像の座標系に変換された超音波センサ25の出力データを用いて、物体認識処理を行う。
【0147】
(8-3.第3の例)
図18は、第6の実施形態に係る車外情報検出ユニットおよびデータ取得部の第3の例を示す一例のブロック図である。
図18に示されるように、第3の例は、データ取得部20cがセンサとしてカメラ21と、ミリ波レーダ23およびLiDAR24とを含む例である。
【0148】
図18に示す車外情報検出ユニット10において、ミリ波レーダ23から出力されたミリ波データは、信号処理部13に入力される。信号処理部13は、入力されたミリ波データに対して
図2を用いて説明した処理と同様の処理を行い、ミリ波画像を生成する。幾何変換部14は、信号処理部13で生成されたミリ波画像の幾何変換を行うことにより、ミリ波画像を撮影画像と同じ座標系の画像に変換する。幾何変換部14でミリ波画像が変換された画像(変換ミリ波画像と呼ぶ)は、認識処理部15cに供給される。
【0149】
また、車外情報検出ユニット10において、LiDAR24の出力から出力されたRAWデータは、信号処理部13cに入力される。信号処理部13cは、LiDAR24から入力されたRAWデータに基づき例えば3次元の点群情報を作成する。幾何変換部14cは、信号処理部13cで作成された3次元の点群情報を、カメラ21による撮影画像と同じ視点から見た画像に変換する。幾何変換部14で3次元の点群情報が変換された画像(変換LiDAR画像と呼ぶ)は、認識処理部15cに供給される。
【0150】
認識処理部15cは、幾何変換部14および14cのそれぞれから入力された変換ミリ波画像および変換LiDAR画像を統合し、統合された画像を、上述した認識処理部15におけるミリ波画像データ200の代わりに用いて、物体認識処理を行う。ここで、認識処理部15cは、変換ミリ波画像と変換LiDARとを連結して、これら変換ミリ波画像と変換LiDARとを統合することができる。
【0151】
(8-4.第4の例)
図19は、第6の実施形態に係る車外情報検出ユニットおよびデータ取得部の第4の例を示す一例のブロック図である。
図19に示されるように、第4の例は、
図16を用いて説明した、カメラ21とミリ波レーダ23とを含むデータ取得部20aが適用される。一方、車外情報検出ユニット10は、カメラ21の出力に対して画像処理部12と幾何変換部14dとが接続され、ミリ波レーダ23に対して信号処理部13のみが接続される。
【0152】
車外情報検出ユニット10において、画像処理部12は、カメラ21から出力された撮像画像に対して所定の画像処理を施す。画像処理部12により画像処理された撮像画像は、幾何変換部14dに供給される。幾何変換部14dは、撮像画像の座標系を、ミリ波レーダ23から出力されるミリ波データの座標系に変換する。幾何変換部14dでミリ波データの座標系に変換された撮像画像(変換撮像画像と呼ぶ)は、認識処理部15dに供給される。
【0153】
一方、車外情報検出ユニット10において、ミリ波レーダ23から出力されたミリ波データが信号処理部13に入力される。信号処理部13は、入力されたミリ波データに所定の信号処理を施し、ミリ波データに基づきミリ波画像を生成する。信号処理部13で生成されたミリ波画像は、認識処理部15dに供給される。
【0154】
認識処理部15dは、例えば、上述した認識処理部15におけるイメージデータ100の代わりに、信号処理部13から供給されたミリ波画像によるミリ波画像データを用い、ミリ波画像データ200の代わりに、幾何変換部14dから供給された変換撮像画像を用いることができる。例えば、ミリ波レーダ23の性能が高く、カメラ21の性能が低いような場合に、この第4の例による構成を採用することが考えられる。
【0155】
(8-5.第5の例)
上述の第6の実施形態の第1~第4の例では、カメラ21と、カメラ21とは異なる方式のセンサとを組み合わせているが、これはこの例に限定されない。例えば、第6の実施形態の第5の例として、特性の異なるカメラ21の組み合わせを適用することができる。一例として、画角が狭く遠距離の撮像が可能な望遠レンズを用いた第1のカメラ21と、画角が広く広範囲の撮像が可能な広角レンズを用いた第2のカメラ21と、の組み合わせが考えられる。
【0156】
(8-6.第6の例)
次に、第6の実施形態の第5の例について説明する。第5の例は、認識処理部15の構成を、条件に応じて切り替えるようにした例である。なお、以下では、説明のため、第1の実施形態に係る認識処理部15(物体認識モデル40a)を例にとって説明を行う。
【0157】
一例として、天候やシーンに応じてアテンションマップの使用/非使用を切り替えることが考えられる。例えば、夜間且つ降雨の条件下では、カメラ21による撮像画像では物体認識が困難となる可能性がある。この場合には、ミリ波レーダ23の出力のみを用いて物体認識を行う。また、別の例として、データ取得部20に含まれる複数のセンサのうち1つが正常動作しない場合に、アテンションマップの使い方を変えることが考えられる。例えば、カメラ21の故障などにより正常なイメージデータ100が出力されない場合に、アテンションマップを用いない場合と同様の認識レベルで物体認識を行う。さらに別の例として、データ取得部20が3以上のセンサを含むような場合に、複数のセンサの出力に基づき複数のアテンションマップを作成することが考えられる。この場合、複数のセンサ出力に基づき作成された複数のアテンションマップを統合することが考えられる。
【0158】
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
【0159】
なお、本技術は以下のような構成も取ることができる。
(1)
第1のセンサの出力に、該第1のセンサとは異なる第2のセンサの出力に基づく物体認識処理の過程で検出される物体尤度に応じて生成される領域情報を付加して対象物を認識する認識処理を行う認識処理部、
を備える、
情報処理装置。
(2)
前記認識処理部は、
機械学習により得られる物体認識モデルを用いて前記認識処理を行い、
該物体認識モデルは、前記第2のセンサの出力に基づき生成した第1の畳み込み層のうち1つの層で前記領域情報を生成し、生成した該領域情報を、前記第1のセンサの出力に基づき生成した第2の畳み込み層の、該領域情報を生成した層に対応する層に対して付加する、
前記(1)に記載の情報処理装置。
(3)
前記認識処理部は、
機械学習により得られる物体認識モデルを用いて前記認識処理を行い、
該物体認識モデルは、前記第2のセンサの出力に基づき生成した第1の畳み込み層に含まれる複数の層で前記領域情報を生成し、生成した該領域情報を、前記第1のセンサの出力に基づき生成した、該領域情報を生成した該複数の層それぞれに1対1に対応する、第2の畳み込み層の複数の層のそれぞれに対して付加する、
前記(1)に記載の情報処理装置。
(4)
前記認識処理部は、
前記第1の畳み込み層のうち所定数の第1の畳み込み層のそれぞれで前記領域情報を生成する、
前記(3)に記載の情報処理装置。
(5)
前記第2のセンサは、イメージセンサである、
前記(1)乃至(4)の何れかに記載の情報処理装置。
(6)
前記第1のセンサは、ミリ波レーダ、光反射測距センサおよび超音波センサの何れかである、
前記(5)に記載の情報処理装置。
(7)
前記第1のセンサは、
イメージセンサ、ミリ波レーダ、光反射測距センサおよび超音波センサのうち2以上のセンサを含み、該2以上のセンサの各出力を統合した出力を、前記第1のセンサの出力とした、
前記(5)に記載の情報処理装置。
(8)
前記第1のセンサは、イメージセンサであり、
前記第2のセンサは、ミリ波レーダ、光反射測距センサおよび超音波センサの何れかである、
前記(1)乃至(4)の何れかに記載の情報処理装置。
(9)
前記認識処理部は、
前記第1のセンサの出力の、前記第2のセンサの出力における前記物体尤度が第1の閾値以上の領域に対応する領域を強調する、
前記(1)乃至(8)の何れかに記載の情報処理装置。
(10)
前記認識処理部は、
前記第1のセンサの出力の、前記第2のセンサの出力における前記物体尤度が第2の閾値未満の領域に対応する領域を抑制する、
前記(1)乃至(9)の何れかに記載の情報処理装置。
(11)
前記認識処理部は、
前記第2のセンサの1フレーム前の出力を用いて前記領域情報を生成する、
前記(1)乃至(10)の何れかに記載の情報処理装置。
(12)
前記認識処理部は、
前記領域情報に対して前記第2のセンサの出力を連結する、
前記(1)乃至(11)の何れかに記載の情報処理装置。
(13)
第1のセンサと、
前記第1のセンサとは異なる第2のセンサと、
前記第1のセンサの出力に、前記第2のセンサの出力に基づく物体認識処理の過程で検出される物体尤度に応じて生成される領域情報を付加して、対象物を認識する認識処理を行う認識処理部を備える情報処理装置と、
を含む、情報処理システム。
(14)
第1のセンサの出力に、該第1のセンサとは異なる第2のセンサの出力に基づく物体認識処理の過程で検出される物体尤度に応じて生成される領域情報を付加して、対象物を認識する認識処理を行う認識処理ステップ
をコンピュータに実行させるための情報処理プログラム。
(15)
プロセッサにより実行される、
第1のセンサの出力に、該第1のセンサとは異なる第2のセンサの出力に基づく物体認識処理の過程で検出される物体尤度に応じて生成される領域情報を付加して、対象物を認識する認識処理を行う認識処理ステップ、
を含む、
情報処理方法。
【符号の説明】
【0160】
10 車外情報検出ユニット
11 情報処理部
12 画像処理部
13,13a,13b,13c 信号処理部
14,14a,14b,14c,14d 幾何変換部
15a,15b,15c,15d 認識処理部
20,20a,20b,20c データ取得部
21 カメラ
22 イメージセンサ
23 ミリ波レーダ
24 LiDAR
25 超音波センサ
30 学習システム
40,40a,40b,40c,40d,40e,40f 物体認識モデル
41a,41b,41c,110,210 特徴抽出層
100,100a,100b イメージデータ
120,120a,120b,120c 物体認識層
1200,1201,1202,1203,1204,1205,1206,120x,1200’,1201’,1202’,1203’,1204’,1205’,1206’,1221,1222,1223,1224,1225,1226,2300,2301,2302,2303,2304,2305,2306,230x 物体認識層データ
150 予測部
200 ミリ波画像データ
220 乗算部
221 加算部
222 連結部
230 物体認識層
2420,2421,2422,2423,2424,2425,2426 連結データ
300,301 合成部
3100,3101,3102,3103,3104,3105,3106 合成物体認識層データ