(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022154193
(43)【公開日】2022-10-13
(54)【発明の名称】学習装置、学習方法、プログラム、および物体検知装置
(51)【国際特許分類】
G06T 7/00 20170101AFI20221005BHJP
G06T 15/60 20060101ALI20221005BHJP
G08G 1/16 20060101ALI20221005BHJP
【FI】
G06T7/00 350B
G06T7/00 650Z
G06T15/60
G08G1/16 C
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2021057102
(22)【出願日】2021-03-30
(71)【出願人】
【識別番号】000005326
【氏名又は名称】本田技研工業株式会社
(74)【代理人】
【識別番号】100165179
【弁理士】
【氏名又は名称】田▲崎▼ 聡
(74)【代理人】
【識別番号】100126664
【弁理士】
【氏名又は名称】鈴木 慎吾
(74)【代理人】
【識別番号】100154852
【弁理士】
【氏名又は名称】酒井 太一
(74)【代理人】
【識別番号】100194087
【弁理士】
【氏名又は名称】渡辺 伸一
(72)【発明者】
【氏名】安井 裕司
(72)【発明者】
【氏名】松永 英樹
【テーマコード(参考)】
5B080
5H181
5L096
【Fターム(参考)】
5B080AA00
5B080BA01
5B080CA00
5B080FA08
5B080GA00
5H181AA01
5H181BB20
5H181CC04
5H181FF10
5H181LL01
5H181LL06
5H181LL07
5H181LL08
5H181LL09
5L096BA04
5L096FA67
5L096KA04
(57)【要約】 (修正有)
【課題】路上に存在する物体を判別するための学習済モデルを好適に生成する学習装置、学習方法、プログラム及び物体検知装置を提供する。
【解決手段】学習装置100は、路上を撮像した撮像画像を取得する撮像画像取得部110と、撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加するCG画像追加部140と、追加されたコンピュータグラフィック画像の種別を教師データとして、画像が入力されると物体の種別を出力するように学習済モデルのパラメータを学習する学習処理部150と、を備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
路上を撮像した撮像画像を取得する撮像画像取得部と、
前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加するCG画像追加部と、
追加された前記コンピュータグラフィック画像の種別を教師データとして、画像が入力されると前記物体の種別を出力するように学習済モデルのパラメータを学習する学習処理部と、
を備える学習装置。
【請求項2】
前記撮像画像に基づく実写画像に基づいて日射方向を推定する日射方向推定部を更に備え、
前記CG画像追加部は、前記物体のコンピュータグラフィック画像に、前記日射方向に基づく影を付与する、
請求項1記載の学習装置。
【請求項3】
前記撮像画像は、移動体に搭載されたカメラによって撮像された撮像画像であり、
前記撮像画像に基づいて、撮像時点ごとの前記移動体のピッチング量を推定するピッチング量推定部と、
前記撮像画像に対して前記ピッチング量を打ち消す第1補正を行って前記実写画像を生成する第1補正部と、
を更に備える請求項1または2記載の学習装置。
【請求項4】
前記コンピュータグラフィック画像が追加された前記実写画像に対して、前記第1補正を元に戻す第2補正を行って学習用画像を生成する第2補正部を更に備え、
前記学習処理部は、前記学習用画像を学習データとして前記学習済モデルのパラメータを学習する、
請求項3記載の学習装置。
【請求項5】
前記撮像画像は、移動体に搭載されたカメラによって撮像された撮像画像であり、
前記実写画像は、前記撮像画像であり、
前記撮像画像に基づいて、撮像時点ごとの前記移動体のピッチング量を推定するピッチング量推定部を更に備え、
前記CG画像追加部は、前記実写画像における前記ピッチング量に応じた位置に前記コンピュータグラフィック画像を追加する、
請求項1または2記載の学習装置。
【請求項6】
前記撮像画像は、移動体に搭載されたカメラによって撮像された撮像画像であり、
前記移動体の移動量を取得する移動量取得部を更に備え、
前記CG画像追加部は、前記移動体の移動量に基づいて前記コンピュータグラフィック画像の位置およびサイズを決定する、
請求項1から5のうちいずれか1項記載の学習装置。
【請求項7】
コンピュータを用いて実行される学習方法であって、
路上を撮像した撮像画像を取得することと、
前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加することと、
追加された前記コンピュータグラフィック画像の種別を教師データとして、画像が入力されると前記物体の種別を出力するように学習済モデルのパラメータを学習することと、
を備える学習方法。
【請求項8】
コンピュータにより実行されるプログラムであって、前記コンピュータに、
路上を撮像した撮像画像を取得することと、
前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加することと、
追加された前記コンピュータグラフィック画像の種別を教師データとして、画像が入力されると前記物体の種別を出力するように学習済モデルのパラメータを学習することと、
を実行させるプログラム。
【請求項9】
移動体に搭載された物体検知装置であって、
前記移動体に搭載されたカメラによって、前記移動体の進行方向の少なくとも路上を撮像した撮像画像を、請求項1から6のうちいずれか1項記載の学習装置によって学習された前記学習済モデルに入力することで、前記撮像画像に映された路上の物体が、前記移動体が接触を回避すべき物体か否かを判別する、
物体検知装置。
【請求項10】
路上を撮像した撮像画像を取得する撮像画像取得部と、
前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加するCG画像追加部と、
追加された前記コンピュータグラフィック画像の位置を教師データとして、画像が入力されると前記物体の位置を出力するように学習済モデルのパラメータを学習する学習処理部と、
を備える学習装置。
【請求項11】
コンピュータを用いて実行される学習方法であって、
路上を撮像した撮像画像を取得することと、
前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加することと、
追加された前記コンピュータグラフィック画像の位置を教師データとして、画像が入力されると前記物体の位置を出力するように学習済モデルのパラメータを学習することと、
を備える学習方法。
【請求項12】
コンピュータにより実行されるプログラムであって、前記コンピュータに、
路上を撮像した撮像画像を取得することと、
前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加することと、
追加された前記コンピュータグラフィック画像の位置を教師データとして、画像が入力されると前記物体の位置を出力するように学習済モデルのパラメータを学習することと、
を実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習装置、学習方法、プログラム、および物体検知装置に関する。
【背景技術】
【0002】
従来、レンダリング部が描画した3Dグラフィックについて学習用の教師データを作成し、ディープラーニング認識部を学習させる技術が開示されている(特許文献1)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
従来の技術では、移動体に搭載されたカメラの撮像画像において、路上に存在する物体を判別するための学習済モデルを好適に生成できない場合があった。
【0005】
本発明は、このような事情を考慮してなされたものであり、路上に存在する物体を判別するための学習済モデルを好適に生成することができる学習装置、学習方法、プログラム、および物体検知装置を提供することを目的の一つとする。
【課題を解決するための手段】
【0006】
この発明に係る学習装置、学習方法、プログラム、および物体検知装置は、以下の構成を採用した。
(1):この発明の一態様に係る学習装置は、路上を撮像した撮像画像を取得する撮像画像取得部と、前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加するCG画像追加部と、追加された前記コンピュータグラフィック画像の種別を教師データとして、画像が入力されると前記物体の種別を出力するように学習済モデルのパラメータを学習する学習処理部と、を備える。
【0007】
(2):上記(1)の態様において、前記撮像画像に基づく実写画像に基づいて日射方向を推定する日射方向推定部を更に備え、前記CG画像追加部は、前記物体のコンピュータグラフィック画像に、前記日射方向に基づく影を付与するものである。
【0008】
(3):上記(1)または(2)の態様において、前記撮像画像は、移動体に搭載されたカメラによって撮像された撮像画像であり、前記撮像画像に基づいて、撮像時点ごとの前記移動体のピッチング量を推定するピッチング量推定部と、前記撮像画像に対して前記ピッチング量を打ち消す第1補正を行って前記実写画像を生成する第1補正部と、を更に備えるものである。
【0009】
(4):上記(3)の態様において、前記コンピュータグラフィック画像が追加された前記実写画像に対して、前記第1補正を元に戻す第2補正を行って学習用画像を生成する第2補正部を更に備え、前記学習処理部は、前記学習用画像を学習データとして前記学習済モデルのパラメータを学習するものである。
【0010】
(5):上記(1)または(2)の態様において、前記撮像画像は、移動体に搭載されたカメラによって撮像された撮像画像であり、前記実写画像は、前記撮像画像であり、前記撮像画像に基づいて、撮像時点ごとの前記移動体のピッチング量を推定するピッチング量推定部を更に備え、前記CG画像追加部は、前記実写画像における前記ピッチング量に応じた位置に前記コンピュータグラフィック画像を追加するものである。
【0011】
(6):上記(1)から(5)のいずれかの態様において、前記撮像画像は、移動体に搭載されたカメラによって撮像された撮像画像であり、前記移動体の移動量を取得する移動量取得部を更に備え、前記CG画像追加部は、前記移動体の移動量に基づいて前記コンピュータグラフィック画像の位置およびサイズを決定するものである。
【0012】
(7):本発明の他の態様に係る学習方法は、コンピュータを用いて実行される学習方法であって、路上を撮像した撮像画像を取得することと、前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加することと、追加された前記コンピュータグラフィック画像の種別を教師データとして、画像が入力されると前記物体の種別を出力するように学習済モデルのパラメータを学習することと、を備える。
【0013】
(8):本発明の他の態様に係るプログラムは、コンピュータにより実行されるプログラムであって、前記コンピュータに、路上を撮像した撮像画像を取得することと、前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加することと、追加された前記コンピュータグラフィック画像の種別を教師データとして、画像が入力されると前記物体の種別を出力するように学習済モデルのパラメータを学習することと、を実行させるものである。
【0014】
(9):本発明の他の態様に係る物体検知装置は、移動体に搭載された物体検知装置であって、前記移動体に搭載されたカメラによって、前記移動体の進行方向の少なくとも路上を撮像した撮像画像を、上記(1)~(6)のいずれかの態様の学習装置によって学習された前記学習済モデルに入力することで、前記撮像画像に映された路上の物体が、前記移動体が接触を回避すべき物体か否かを判別するものである。
【0015】
(10):本発明の他の態様に係る学習装置は、路上を撮像した撮像画像を取得する撮像画像取得部と、前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加するCG画像追加部と、追加された前記コンピュータグラフィック画像の位置を教師データとして、画像が入力されると前記物体の位置を出力するように学習済モデルのパラメータを学習する学習処理部と、を備える。
【0016】
(11):本発明の他の態様に係る学習方法は、コンピュータを用いて実行される学習方法であって、路上を撮像した撮像画像を取得することと、前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加することと、追加された前記コンピュータグラフィック画像の位置を教師データとして、画像が入力されると前記物体の位置を出力するように学習済モデルのパラメータを学習することと、を備える。
【0017】
(12):本発明の他の態様に係るプログラムは、コンピュータにより実行されるプログラムであって、前記コンピュータに、路上を撮像した撮像画像を取得することと、前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加することと、追加された前記コンピュータグラフィック画像の位置を教師データとして、画像が入力されると前記物体の位置を出力するように学習済モデルのパラメータを学習することと、を実行させる。
【発明の効果】
【0018】
上記(1)~(8)、(10)~(12)の態様によれば、路上に存在する物体を判別するための学習済モデルを好適に生成することができる。
上記(9)の態様によれば、好適に学習された学習済モデルを用いて路上の物体を適切に判別することができる。
【図面の簡単な説明】
【0019】
【
図1】学習装置100の構成の一例を示す図である。
【
図2】学習装置100の各部による処理の流れを例示した図である。
【
図3】補正済画像IM2における路面の位置が勾配によって変化する様子を示す図である。
【
図4】ピッチング量推定部120の処理について説明するための図である。
【
図5】領域補正の内容について説明するための図である。
【
図6】上下シフト処理の内容について説明するための図である。
【
図7】ズレ量dを求める処理の内容について説明するための図である。
【
図8】ピッチング量を推定する処理について説明するための図である。
【
図9】ピッチング量を推定する処理について説明するための図である。
【
図10】横移動量推定部131の処理について説明するための図である。
【
図11】左右シフト・画像切り出し処理の内容について説明するための図である。
【
図12】速度推定部132の処理について説明するための図である。
【
図13】拡大/縮小・画像切り出し処理の内容について説明するための図である。
【
図14】物体検知装置200の構成および使用環境の一例を示す図である。
【発明を実施するための形態】
【0020】
以下、図面を参照し、本発明の学習装置、学習方法、プログラム、および物体検知装置の実施形態について説明する。学習装置は、移動体に搭載される物体検知装置が用いる物体判別用の学習済モデルを生成する装置である。移動体とは、例えば、四輪車両や二輪車両、マイクロモビリティ、ロボット等の自ら移動するもの、或いは、自ら移動する移動体に載置され、または人によって運ばれることで移動するスマートフォンなどの可搬型装置である。以下の説明において移動体は四輪車両であるものとし、移動体のことを「車両」と称して説明を行う。
【0021】
[学習装置]
図1は、学習装置100の構成の一例を示す図である。物体検知装置200は、例えば、撮像画像取得部110と、ピッチング量推定部120と、第1補正部122と、第2補正部124と、日射方向推定部126と、移動量取得部130と、CG(コンピュータグラフィック)画像追加部140と、学習処理部150と、記憶部170とを備える。移動量取得部130は、例えば、横移動量推定部131と、速度推定部132とを備える。CG画像追加部140は、例えば、CG画像生成部141と、CG画像移動量/拡大率算出部142と、路面位置推定部143と、CG画像位置特定部144と、画像合成部145とを備える。記憶部170以外の各部は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。記憶部170には、実走行画像171、機械学習モデル定義情報172などのデータや情報が格納される。
【0022】
撮像画像取得部110は、例えば、車両の進行方向の少なくとも路上を撮像した撮像画像であって、車両が移動している間に(一時的に停止する場合も当然に含まれる)車両に搭載されたカメラによって撮像された撮像画像を取得する。撮像画像は、時系列に画像が連なる動画像である。撮像画像は、定点観測用カメラによって撮像されたものでもよいし、スマートフォンのカメラによって撮像されたものでもよい。例えば、記憶部170に格納された実走行画像171が、この撮像画像の一例である。撮像画像取得部110は、記憶部170から実走行画像171を読みだして他の機能部に提供する(例えば、RAM(Random Access Memory)の共有エリアに展開する)。実走行画像171は、進行方向側を撮像するカメラを搭載した車両において、車両の移動と共に撮像されたものである。実走行画像171は、車載通信装置によってWAN(Wide Area Network)やLAN(Local Area Network)などのネットワークを介して学習装置100に提供されたものでもよいし、各種可搬型記憶装置によって学習装置100まで運ばれて記憶部170に格納されたものでもよい。
【0023】
以降の機能部の処理について、
図2を参照しながら説明する。
図2は、学習装置100の各部による処理の流れを例示した図である。ここでは、実走行画像171のことを実走行画像IM1と称する。
【0024】
ピッチング量推定部120は、実走行画像IM1における、撮像時点ごとの車両のピッチング量を推定する。ピッチング量推定部120は、例えば、撮像時刻(以下、単に時刻と称する)kの実走行画像IM1と、時刻k-1の実走行画像IM1を比較し、時刻kと時刻k-1との間の車両のピッチング量を、時刻kのピッチング量として推定する。ピッチング量推定部120は、係る処理を各時刻について行う。ピッチング量とは、車両の左右方向を軸とした軸まわりの回転量である。ピッチング量が存在すると、時刻kと時刻k-1との間で実走行画像IM1に縦方向の揺れが生じるため、後述するCG画像追加部140の処理のためにピッチング量を補正する処理をしておく必要がある。ピッチング量推定部120の処理の詳細については後述する。
【0025】
第1補正部122は、実走行画像IM1に対して、ピッチング量推定部120によって推定されたピッチング量に応じた画像の上下変動を打ち消すための第1補正を行う。例えば、第1補正部122は、ピッチング量に対して画像上の各画素がどれ位上下に変動するかを規定したテーブルやマップを用いて、第1補正の補正量を決定する。第1補正部122による第1補正が行われた画像を、補正済画像IM2と称する。補正済画像IM2は、「撮像画像に基づく実写画像」の一例である。
【0026】
第2補正部124は、補正済画像IM2に対してCG画像追加部140によってCG画像が追加されたCG追加済画像IM3に対して、第1補正を元に戻す第2補正を行って学習用画像IM4を生成する。
【0027】
日射方向推定部126は、補正済画像IM2に基づいて、実走行画像IM1に映された風景における日射方向を推定する。例えば、日射方向推定部126は、補正済画像IM2に含まれる影の部分と、当該影を作り出したことが推定される立体物とを補正済画像IM2において認識し、認識した両者の位置関係に基づく日射方向を画像平面から実空間に変換することで、実空間における日射方向を導出する。
【0028】
移動量取得部130は、車両の移動量を推定する。具体的には、移動量取得部130は、以下の二つの移動量を推定する。
【0029】
移動量取得部130の横移動量推定部131は、例えば、時刻kの実走行画像IM1と、時刻k-1の実走行画像IM1を比較し、時刻kと時刻k-1との間の車両の横移動量(車両中心軸に直交する方向の移動量、或いは道路幅方向の移動量をいう)を推定する。横移動量推定部131の処理の詳細については後述する。
【0030】
移動量取得部130の速度推定部132は、例えば、時刻kの実走行画像IM1と、時刻k-1の実走行画像IM1を比較し、時刻kにおける車両の速度を推定する。速度推定部132の処理の詳細については後述する。
【0031】
CG画像追加部140は、補正済画像IM2に対して、路上に存在する物体のCG画像を追加する。
【0032】
CG画像追加部140のCG画像生成部141は、例えば、落下物あるいは放置物として路上に存在し得る幾つかの物体(例えば、タイヤ、段ボール箱、自転車、鉄骨といったもの)であって、車両が接触を回避すべき物体のテンプレート画像を記憶部170から読み出し、後述する拡大率に応じたサイズに変換あるいは再レンダリングし、更に、日射方向推定部126により推定された日射方向に基づく影を付与して、CG画像を生成する。また、CG画像生成部141は、路面標示やマンホール、路面材などの車両が回避する必要の無い物体のCG画像を生成する。CG画像生成部141は、撮像画像として収集されなかった路面標示、かすれた路面標示、出現頻度の高い落下物について、色々な角度や状態(つぶれ、割れ、汚れなどが生じた状態)でCG画像を生成する。これによって、撮像画像だけを用いて学習済モデルを生成する場合に比して、学習処理のカバーする範囲を広げることができ、未学習物体として認識される確率を下げることができ、車両において誤回避が生じるのを抑制することができる。
【0033】
CG画像追加部140のCG画像移動量/拡大率算出部142は、移動量取得部130によって推定された車両の移動量に基づいて、CG画像の位置およびサイズを決定する。具体的に、CG画像移動量/拡大率算出部142は、時刻k-1におけるCG画像の位置に対して、時刻k-1から時刻kまでの間に車両が進行した距離および横移動量に基づく画像上の変位量(上空から見た想定平面上の変位量を画像平面に射影して求められる)を加算して、時刻kにおけるCG画像の位置を算出する。CG画像移動量/拡大率算出部142は、時刻kにおけるCG画像の計算上の位置をCG画像位置特定部144に出力する。また、CG画像移動量/拡大率算出部142は、時刻k-1におけるCG画像を、時刻k-1から時刻kまでの間に車両が進行した距離に基づく拡大率を算出する。CG画像移動量/拡大率算出部142は、拡大率をCG画像生成部141に出力する。拡大率は、車両が前進している場合は1を超える値となり、車両が後退している場合は1未満の値となる(すなわち縮小される)。
【0034】
CG画像追加部140の路面位置推定部143は、補正済画像IM2に基づいて移動体1の進行方向の実空間における路面の位置を推定し、路面上の各位置と補正済画像IM2における各位置との対応関係を構築する。
図3は、補正済画像IM2における路面の位置が勾配によって変化する様子を示す図である。図示するように、移動体1の進行方向の実空間における路面が上り坂または下り坂であったり(特に車両の居る位置は平坦であり且つ進行方向側で勾配が発生する場合)、或いは左右にカーブしている場合、補正済画像IM2における路面の位置が変化するため、CG画像を追加すべき画像上の位置が変化する。路面位置推定部143は、その画像上の位置を認識するために上記の処理を行う。路面位置推定部143の処理は、路面が水平でカーブしていない理想状態における画像上の各位置と、現実の状態を示す補正済画像IM2上の各位置との対応関係を構築するものであってよい。
【0035】
CG画像追加部140のCG画像位置特定部144は、CG画像移動量/拡大率算出部142から取得した計算上の位置(前述の理想状態における位置に対応する)と、路面位置推定部143によって推定された路面の位置とに基づいて、画像上のCG画像の位置を特定する。
【0036】
CG画像追加部140の画像合成部145は、CG画像生成部141によって生成されたCG画像を、CG画像位置特定部144によって特定されたCG画像の位置で補正済画像IM2に重畳させる(追加する)。これによって、CG追加済画像IM3が生成される。CG画像追加部140は、CG画像の占める位置に関しては路面の画像を消去して上書きしてもよいし、路面の画像を残したままCG画像の画素値を追加してもよい。
【0037】
前述したように、第2補正部124は、CG追加済画像IM3に対して、第1補正を元に戻す第2補正を行って学習用画像IM4を生成する。
【0038】
学習処理部150は、機械学習モデル定義情報172によって定義される機械学習モデルのパラメータを学習する。機械学習モデル定義情報172は、機械学習モデルの節点数、接続関係などを定義する情報である。機械学習モデルは、
図2に示すように、例えばDNN(Deep Newrala Network)である。学習処理部150は、学習用画像IM4を学習データ、追加されたCG画像の種別を教師データとして、バックプロパゲーションなどの手法により、画像が入力されると物体(車両が接触を回避すべき物体)の種別を出力するように、機械学習モデルのパラメータを学習する。パラメータを学習し終えた機械学習モデルは、学習済モデルとして車載機において利用される。従って、学習処理部150は、学習済モデルのパラメータを学習するとも言える。
【0039】
これに代えて(又は、加えて)、学習処理部150は、学習用画像IM4を学習データ、追加されたCG画像の位置を教師データとして、バックプロパゲーションなどの手法により、画像が入力されると物体(車両が接触を回避すべき物体)の位置を出力するように、機械学習モデルのパラメータを学習してもよい。
【0040】
上記の説明において、CG画像追加部140は、実走行画像IM1に対して、ピッチング量推定部120によって推定されたピッチング量に応じた画像の上下変動を打ち消すための第1補正を行った補正済画像IM2に対して、路上に存在する物体のCG画像を追加し、CG画像が追加されたCG追加済画像IM3も、第1補正を元に戻す第2補正を行って学習用画像IM4が生成されるものとした。これに代えて、CG画像追加部140は、実走行画像IM1に対して、CG画像位置特定部144が特定したCG画像の位置を、ピッチング量推定部120によって推定されたピッチング量に応じて修正した位置に、CG画像を追加してもよい。この場合、第2補正は不要となる。
【0041】
上記説明した処理によって、路上に存在する物体を判別するための学習済モデルを好適に生成することができる。
【0042】
以下、ピッチング量推定部120、横移動量推定部131、速度推定部132の処理について、より詳細に説明する。
図4は、ピッチング量推定部120の処理について説明するための図である。ピッチング量推定部120は、時刻k、時刻k-1の実走行画像IM1をそれぞれグレースケール化する。以下、グレースケール化した画像をグレースケール画像と称する。ピッチング量推定部120は、時刻kのグレースケール画像について、不要な部分を削除して切り出す画像切り出し処理を行う。
【0043】
ピッチング量推定部120は、時刻k-1のグレースケール画像について、車両の速度に基づく領域補正を行う。車両の速度は、後述する速度推定部132の処理結果であってもよいし、車両においてカメラによる撮像と共に速度センサから取得されたもの(撮像画像に付随して提供されたもの)であってもよい。
図5は、領域補正の内容について説明するための図である。ピッチング量推定部120は、時刻k-1から時刻kまでの間の車両が移動した距離を、車両の速度から算出し、移動した距離に基づく拡大率(すなわち速度に基づく拡大率)で時刻k-1のグレースケール画像を拡大する。これは、同じ箇所を撮像した部分に関して、車両が前進しているならば時刻kの方が時刻k-1よりも距離が近くなっている筈であり、時刻kの方がより拡大されて映っているからである。ピッチング量推定部120は、領域補正によって、同じ対象物が同じサイズで時刻kと時刻k-1のグレースケール画像に現れるようにし、画像間の比較を正確に行えるようにする。ピッチング量推定部120は、拡大した画像の上下左右の端部をトリムして、元のサイズに戻す。
【0044】
図4に戻り、ピッチング量推定部120は、領域補正を行った時刻k-1のグレースケール画像に対して上下シフト処理を行い、N個の画像を生成する。
図6は、上下シフト処理の内容について説明するための図である。ピッチング量推定部120は、領域補正を行った時刻k-1のグレースケール画像について、上方向と下方向にそれぞれ、ズレ量を異ならせた複数の(ここではN個の)比較対象画像を生成する。図中、破線は、ズレを生じさせる前のグレースケール画像を示している。そして、時刻kのグレースケール画像から決められた位置の領域を切り出したもの(切り出し領域)と、比較対象画像の切り出し領域との間で画素間の差分を画素とした差分画像をN個生成する(
図3の差分画像生成処理)。
図4に戻り、ピッチング量推定部120は、差分画像の各画素の画素値を閾値と比較して閾値以上である場合は1、閾値未満である場合はゼロの画素値を割り当てる2値化処理を行う。そして、ピッチング量推定部120は、画素値の総和が最も小さい(ゼロである画素の数が最も多い)差分対象画像を選択し、その差分対象画像が生成されるに至ったズレ量を求める。
図7は、ズレ量dを求める処理の内容について説明するための図である。図示する例では、ズレ量dがマイナス2、すなわち下方向に2ピクセルずらした比較対象画像からの差分対象画像が、ピクセル値総和の最も小さいものとして選択される。
【0045】
次に、ピッチング量推定部120は、ズレ量dに基づいてピッチング量を推定する。
図8および
図9は、ピッチング量を推定する処理について説明するための図である。ずれ量dとピッチング量θとの間には、以下の式で表される関係がある。式中、lは画像における消失点VPまでの実空間の距離(例えば100~200[m]程度)であり、hは画像における下端部から消失点VPまでの高さを2倍した値である。ピッチング量推定部120は、この式に基づいてピッチング量θを求める。なお画像のサイズに依存してhが変わるが、ピッチング量θは実質的に画像上のずれ量に戻して利用されるため、係る点で問題は生じない。
【0046】
tan{(α/2)+θ}={d+(h/2)}/l
【0047】
図10は、横移動量推定部131の処理について説明するための図である。横移動量推定部131は、時刻k、時刻k-1の実走行画像IM1をそれぞれグレースケール化する(グレースケール化する処理は、ピッチング量推定部120と共通化されてもよい。速度推定部132についても同様である。)。横移動量推定部131は、時刻k-1のグレースケール画像について、不要な部分を削除して切り出す画像切り出し処理を行う。
【0048】
横移動量推定部131は、時刻kのグレースケール画像について、車両の速度に基づく領域補正を行う。これについてはピッチング量推定部120と同様の趣旨であり、拡大/縮小の方向はピッチング量推定部120と同じになる。
【0049】
横移動量推定部131は、領域補正を行った時刻kのグレースケール画像に対して左右シフト・画像切り出し処理を行い、M個の画像を生成する。
図11は、左右シフト・画像切り出し処理の内容について説明するための図である。横移動量推定部131は、領域補正を行った時刻kのグレースケール画像について、左方向と右方向にそれぞれ、ズレ量を異ならせた複数の(ここではM個の)比較対象画像を生成する。図中、破線は、ズレを生じさせる前のグレースケール画像を示している。そして、時刻k-1のグレースケール画像から決められた位置の領域を切り出したもの(切り出し領域)と、比較対象画像の切り出し領域との間で画素間の差分を画素とした差分画像をM個生成する(
図10の差分画像生成処理)。
図10に戻り、横移動量推定部131は、差分画像の各画素の画素値を閾値と比較して閾値以上である場合は1、閾値未満である場合はゼロの画素値を割り当てる2値化処理を行う。そして、横移動量推定部131は、画素値の総和が最も小さい(ゼロである画素の数が最も多い)差分対象画像を選択し、その差分対象画像が生成されるに至ったシフト量に基づいて、横移動量ΔYを求める。
【0050】
図12は、速度推定部132の処理について説明するための図である。速度推定部132は、時刻k、時刻k-1の実走行画像IM1をそれぞれグレースケール化する。速度推定部132は、時刻k-1のグレースケール画像について、不要な部分を削除して切り出す画像切り出し処理を行う。
【0051】
速度推定部132は、時刻kのグレースケール画像に対して拡大/縮小・画像切り出し処理を行い、R個の画像を生成する。
図13は、拡大/縮小・画像切り出し処理の内容について説明するための図である。速度推定部132は、時刻kのグレースケール画像について、拡大方向と縮小方向にそれぞれ、拡大率(縮小率)を異ならせた複数の(ここではR個の)比較対象画像を生成する。図中、破線は、拡大または縮小する前のグレースケール画像を示している。そして、時刻k-1のグレースケール画像から決められた位置の領域を切り出したもの(切り出し領域)と、比較対象画像の切り出し領域との間で画素間の差分を画素とした差分画像をR個生成する(
図10の差分画像生成処理)。
図12に戻り、速度推定部132は、差分画像の各画素の画素値を閾値と比較して閾値以上である場合は1、閾値未満である場合はゼロの画素値を割り当てる2値化処理を行う。そして、速度推定部132は、画素値の総和が最も小さい(ゼロである画素の数が最も多い)差分対象画像を選択し、その差分対象画像が生成されるに至った拡大率(縮小率)に基づいて、速度Vを求める。
【0052】
以上説明した学習装置の実施形態によれば、移動体の進行方向の少なくとも路上を撮像した撮像画像であって、移動体が移動している間に移動体に搭載されたカメラによって撮像された撮像画像を取得する撮像画像取得部110と、撮像画像に基づく実写画像IM2に対して、路上に存在する物体のコンピュータグラフィック画像を追加するCG画像追加部140と、追加されたコンピュータグラフィック画像の位置を教師データとして、画像が入力されると物体の位置を出力するように学習済モデルのパラメータを学習する学習処理部150と、を備えることにより、路上に存在する物体を判別するための学習済モデルを好適に生成することができる。
【0053】
[物体検知装置]
以下、学習装置100により生成された学習済モデルを利用した物体検知装置の実施形態について説明する。物体検知装置は、例えば、移動体に搭載される。移動体とは、例えば、四輪車両や二輪車両、マイクロモビリティ、ロボット等である。以下の説明において移動体は四輪車両であるものとし、移動体のことを「車両」と称して説明を行う。
【0054】
図14は、物体検知装置200の構成および使用環境の一例を示す図である。物体検知装置200は、カメラ10、走行制御装置300、報知装置310などと通信する。
【0055】
カメラ10は、車両のフロントガラスの裏面等に取り付けられ、車両の進行方向の少なくとも路上を撮像し、撮像画像を物体検知装置200に出力する。なお、カメラ10と物体検知装置200の間には、センサフュージョン装置などが介在してもよいが、これについて説明を省略する。
【0056】
走行制御装置300は、例えば、車両を自律的に走行させる自動運転制御装置、車間距離制御や自動ブレーキ制御、自動車線変更制御などを行う運転支援装置などである。報知装置310は、車両の乗員に対して情報を出力するためのスピーカ、バイブレータ、発光装置、表示装置などである。
【0057】
物体検知装置200は、例えば、取得部210と、低解像度処理部220と、高解像度処理部230と、記憶部250とを備える。記憶部250には、学習装置100によって学習された学習済モデル252が格納されている。取得部210、低解像度処理部220、および高解像度処理部230のそれぞれは、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
【0058】
取得部210は、カメラ10から撮像画像を取得する。取得部210は、取得した撮像画像(のデータ)をRAMなどのワーキングメモリに格納する。
【0059】
低解像度処理部220は、撮像画像に対して間引き処理などを行って、撮像画像よりも画質を低下させた低解像度画像を生成する。低解像度画像は、例えば、撮像画像よりも画素数が少ない画像である。低解像度処理部220は、例えば、低解像度画像の中で特徴的な部分を含む領域を抽出し、着目箇所として高解像度処理部230に出力する。この領域を抽出する処理の具体例については特段の制約は無く、任意の手法を採用してよい。
【0060】
高解像度処理部230は、撮像画像における着目箇所に対応する部分を切り出し、その部分の画像を、学習済モデル252に入力する。学習済モデル252は、着目箇所に映された画像が路面標示であるか落下物(学習装置100においてCG画像を用いた学習されたもの)であるか、それとも不明である(未学習の物体である)かを判別する。
【0061】
高解像度処理部230の判別結果は、走行制御装置300および/または報知装置310に出力させる。走行制御装置300は、「落下物」と判別された物体(実際は画像上の領域)、および、不明である(未学習の物体である)物体と車両の接触を回避するために、自動ブレーキ制御、自動操舵制御などを行う。報知装置310は、「落下物」と判別された物体(同上)と車両とのTTC(Time To Collision)が閾値未満となったときに種々の方法で警報を出力する。
【0062】
以上説明した物体検知装置の実施形態によれば、好適に学習された学習済モデル252を用いて路上の物体を適切に判別することができる。
【0063】
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
路上を撮像した撮像画像を取得し、
前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加し、
追加された前記コンピュータグラフィック画像の種別を教師データとして、画像が入力されると前記物体の種別を出力するように学習済モデルのパラメータを学習する、
ように構成されている、学習装置。
【0064】
上記説明した実施形態は、以下のように表現することもできる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
路上を撮像した撮像画像を取得し、
前記撮像画像に基づく実写画像に対して、路上に存在する物体のコンピュータグラフィック画像を追加し、
追加された前記コンピュータグラフィック画像の位置を教師データとして、画像が入力されると前記物体の位置を出力するように学習済モデルのパラメータを学習する、
ように構成されている、学習装置。
【0065】
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
【符号の説明】
【0066】
10 カメラ
100 学習装置
110 撮像画像取得部
120 ピッチング量推定部
122 第1補正部
124 第2補正部
126 日射方向推定部
130 移動量推定部
140 CG画像追加部
150 学習処理部
170 記憶部
200 物体検知装置
252 学習済モデル