(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-11-13
(45)【発行日】2023-11-21
(54)【発明の名称】学習用データ収集装置
(51)【国際特許分類】
G06T 7/00 20170101AFI20231114BHJP
G08G 1/16 20060101ALI20231114BHJP
【FI】
G06T7/00 350B
G06T7/00 650Z
G08G1/16 C
(21)【出願番号】P 2019174028
(22)【出願日】2019-09-25
【審査請求日】2022-07-11
(73)【特許権者】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(74)【代理人】
【識別番号】100084995
【氏名又は名称】加藤 和詳
(74)【代理人】
【識別番号】100099025
【氏名又は名称】福田 浩志
(72)【発明者】
【氏名】堀口 賢司
(72)【発明者】
【氏名】山中 正雄
(72)【発明者】
【氏名】大串 俊明
【審査官】笠田 和宏
(56)【参考文献】
【文献】特開2019-159659(JP,A)
【文献】特開2017-102838(JP,A)
【文献】特開2018-194912(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G08G 1/16
(57)【特許請求の範囲】
【請求項1】
更新された学習済みモデルを用いて、路上障害物を検出する障害物検出部を含
み、
前記更新された学習済みモデルは、車載カメラにより撮影された複数フレームの画像について、予め学習された学習済みモデルを用いた前記画像中の路上障害物の検出及び前記画像中の物体の検出において、前記路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ前記物体が検出された画像を、学習用データとして用いて更新されている、制御装置。
【請求項2】
予め学習された学習済みモデルを用いて画像中の路上障害物を検出すると共に、
前記画像中の物体を検出し、
車載カメラにより撮影された複数フレームの画像について、前記路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ前記物体が検出された画像を、前記学習済みモデルの学習用データとして、前記学習済みモデルを更新する、
処理をコンピュータが実行する学習済みモデルの更新方法。
【請求項3】
予め学習された学習済みモデルを用いて画像中の路上障害物を検出する障害物検出部と、
前記画像中の物体を検出する物体検出部と、
車載カメラにより撮影された複数フレームの画像について、前記路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ前記物体検出部により前記物体が検出された画像を、前記学習済みモデルの学習用データとして出力する出力部と、
を備えた学習用データ収集装置。
【請求項4】
予め学習された学習済みモデルを用いて画像中の路上障害物を検出する障害物検出部と、
前記画像中の物体を検出する物体検出部と、
車載カメラにより撮影された複数フレームの画像について、前記路上障害物が検出された2つの画像の間の画像のうち、前記物体が存在すると推定されるエリア内に前記物体が検出されず、かつ前記路上障害物が検出された画像を、前記学習済みモデルの学習用データとして出力する出力部と、
を備えた学習用データ収集装置。
【請求項5】
前記障害物検出部は、前記画像を分割して得られた局所領域S
nと、前記学習済みモデルから出力された確率P
mとに基づいて、画像のi番目の局所領域S
iにおける路上障害物らしさL
iを算出することにより、前記路上障害物を検出する
請求項3又は請求項4に記載の学習用データ収集装置。
【請求項6】
前記車載カメラを搭載した車両の車速が遅いほど、連続する複数フレームの画像を多い枚数を用いて、前記2つの画像の間の画像のうちから、前記学習用データとする画像を得る
請求項3~請求項5の何れか1項に記載の学習用データ収集装置。
【請求項7】
車載カメラにより撮影された複数フレームの画像について、路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ物体が検出された画像を、前記路上障害物のデータとして出力する出力部、
を備えた障害物データ収集装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習用データ収集装置に関する。
【背景技術】
【0002】
特許文献1には、機械学習によって得られた学習済みモデルを用いて、車載カメラにより撮影された画像中の路上障害物を検出する路上障害物検出装置が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に記載されているような学習済みモデルを用いて画像中の路上障害物を検出する技術では、路上障害物の検出精度を向上させるために、学習済みモデルを更新するための学習用データを効率的に収集できることが好ましい。しかしながら、特許文献1では、学習済みモデルの学習用データを効率的に収集することは考慮されていない。
【0005】
本発明は、以上の事実を考慮して成されたもので、画像中の路上障害物の検出精度を向上させるための学習済みモデルの学習用データを効率的に収集することを目的とする。
【課題を解決するための手段】
【0006】
請求項1に記載の学習用データ収集装置は、予め学習された学習済みモデルを用いて画像中の路上障害物を検出する障害物検出部と、前記画像中の物体を検出する物体検出部と、車載カメラにより撮影された複数フレームの画像について、前記障害物検出部により路上障害物が検出された2つの画像の間の画像のうち、前記路上障害物が存在すると推定されるエリア内に前記路上障害物が検出されず、かつ前記物体検出部により物体が検出された画像を、前記学習済みモデルの学習用データとして出力する出力部と、を備える。
【0007】
請求項1に記載の学習用データ収集装置によれば、予め学習された学習済みモデルを用いて画像中の路上障害物が検出され、画像中の物体が検出される。そして、車載カメラにより撮影された複数フレームの画像について、路上障害物が検出された2つの画像の間の画像のうち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体が検出された画像が、学習済みモデルの学習用データとして出力される。従って、画像中の路上障害物の検出精度を向上させるための学習済みモデルの学習用データを効率的に収集することができる。
【発明の効果】
【0008】
本発明によれば、画像中の路上障害物の検出精度を向上させるための学習済みモデルの学習用データを効率的に収集することができる、という効果が得られる。
【図面の簡単な説明】
【0009】
【
図1】学習用データ収集システムの構成の一例を示すブロック図である。
【
図2】制御装置のハードウェア構成の一例を示すブロック図である。
【
図4】画像中の物体の位置を推定するための近似式を説明するための図である。
【
図5】近似式を算出するための測定データの一例を示す図である。
【
図6】制御装置の機能的な構成の一例を示すブロック図である。
【
図7】実施形態に係る学習用データの収集処理を説明するための図である。
【
図8】学習用データとして収集される画像の一例を示す図である。
【
図9】画像保存処理の一例を示すフローチャートである。
【
図10】学習用データ収集処理の一例を示すフローチャートである。
【
図11】変形例に係る学習用データの収集処理を説明するための図である。
【発明を実施するための形態】
【0010】
以下、図面を参照して、本発明を実施するための形態例を詳細に説明する。
【0011】
まず、
図1を参照して、本実施形態に係る学習用データ収集システム10の構成を説明する。
図1に示すように、学習用データ収集システム10は、情報処理装置16と、車両12に搭載された制御装置14とを含む。制御装置14及び情報処理装置16は、それぞれネットワークNに接続され、ネットワークNを介して情報の送受信が可能とされる。制御装置14の例としては、ECU(Electronic Control Unit)が挙げられ、情報処理装置16の例としては、サーバコンピュータが挙げられる。
【0012】
次に、
図2を参照して、本実施形態に係る制御装置14のハードウェア構成を説明する。
図2に示すように、制御装置14は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、制御装置14は、無線通信によってネットワークNに接続されるネットワークI/F(InterFace)23、及び入出力I/F24を含む。入出力I/F24には、車速センサ26及び車載カメラ27が接続される。CPU20、メモリ21、記憶部22、ネットワークI/F23、及び入出力I/F24は、バス25に接続される。制御装置14が、開示の技術に係る学習用データ収集装置の一例である。
【0013】
記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、学習用データ収集プログラム30が記憶される。CPU20は、記憶部22から学習用データ収集プログラム30を読み出してからメモリ21に展開し、展開した学習用データ収集プログラム30を実行する。また、記憶部22には、学習済みモデル32及び近似式データ34が記憶される。
【0014】
車速センサ26は、車両12の車速を検出し、検出した車速を制御装置14に出力する。車載カメラ27は、車両12の車室内に搭載され、車両12の前方を撮影して得られた画像を制御装置14に出力する。
【0015】
学習済みモデル32は、情報処理装置16による機械学習によって予め学習されたモデルであり、入力の画像中の路上障害物を検出するために使用される。制御装置14は、情報処理装置16から学習済みモデル32を取得し、取得した学習済みモデル32を記憶部22に記憶する。一例として
図3に示すように、本実施形態に係る学習済みモデル32には、車載カメラ27により撮影された画像が入力される。また、学習済みモデル32は、入力された画像の画素毎に、M個の意味的ラベルのそれぞれに属する確率P
m(mは、1からMまでの整数)を出力する。
【0016】
ここでいう意味的ラベルとは、画像中の物体を表すラベルである。意味的ラベルの例としては、空、道路(例えば、舗装路及び白線等)、車両(例えば、乗用車、トラック、及び自動二輪車等)、自然(例えば、山、森林、及び街路樹等)、人工建築物(例えば、街灯、鉄柱、及びガードレール等)、及び路上障害物等が挙げられる。
【0017】
近似式データ34は、1フレーム前の画像中の物体の位置を推定するために用いられる近似式を表すデータである。近似式データ34が表す近似式は、例えば、車両12を用いた実験によって予め得られる。
【0018】
具体的には、まず、
図4に示すように、路上に物体を設置し、一定の車速で車両12を物体に近づく方向に走行させながら、車載カメラ27により予め定められたフレームレートで撮影を行い、車載カメラ27により撮影された画像中の物体の移動量を測定する。以下では、画像の左右方向をx軸方向とし、上下方向をy軸方向とする。また、以下では、画像中の物体の下端部の位置を画像中の物体の位置とし、物体の位置を画像の予め定められた基準位置(例えば、画像の左上端部の位置)を原点としたy座標で表す。なお、画像中の物体の位置は、物体の下端部の位置に限定されず、例えば、物体の重心の位置を用いてもよい。
【0019】
このように測定されたn-1フレーム目の画像中の物体の位置、nフレーム目の画像中の物体の位置、及び測定時の車速の一例を
図5に示す。
図5の例では、50km/h及び100km/hのそれぞれの車速で車両12を走行させながら、6フレーム(すなわち、n=2~6)の画像を10fps(frames per second)で車載カメラ27により撮影した際の各画像中の物体の位置を示している。
【0020】
以上の測定結果から、最小二乗法等の近似手法によって、以下の(1)式で表される近似式が算出される。(1)式におけるa1及びa2は係数であり、bは定数である。また、(1)式におけるx1はnフレーム目の画像中の物体の位置を表す変数であり、x2は車速を表す変数であり、yはn-1フレーム目の画像中の物体の位置を表す変数である。
y=a1×x1+a2×x2+b・・・(1)
【0021】
図5の測定結果から実際に算出された近似式を、以下の(2)式に示す。
y=0.555449×x
1-0.0795×x
2+9.024482・・・(2)
【0022】
近似式データ34は、以上のように算出された近似式を表すデータである。従って、近似式データ34が表す近似式を用いて、nフレーム目の画像中の物体の位置及び車速から、n-1フレーム目の画像中の物体の位置を推定することができる。なお、本実施形態では、車載カメラ27のフレームレートを固定値とする例を説明するが、これに限定されない。例えば、車載カメラ27のフレームレートの設定値をユーザが変更可能な場合は、設定可能なフレームレート毎に近似式を予め算出しておけばよい。
【0023】
次に、
図6を参照して、本実施形態に係る制御装置14の機能的な構成を説明する。
図6に示すように、制御装置14は、取得部40、障害物検出部42、物体検出部44、判定部46、及び出力部48を含む。制御装置14のCPU20が記憶部22に記憶された学習用データ収集プログラム30を実行することにより、
図6に示す取得部40、障害物検出部42、物体検出部44、判定部46、及び出力部48として機能する。
【0024】
取得部40は、車速センサ26により検出された車速を取得する。また、取得部40は、車載カメラ27により撮影された画像を取得する。
【0025】
障害物検出部42は、学習済みモデル32を用いて、取得部40により取得された画像中の路上障害物を検出する。具体的には、障害物検出部42は、取得部40により取得された画像を学習済みモデル32に対して入力する。この入力に対応して、学習済みモデル32からは、入力された画像の画素毎に、M個の意味的ラベルのそれぞれに属する確率Pmが出力される。
【0026】
また、障害物検出部42は、取得部40により取得された画像をN個の局所領域Sn(nは、1からNまでの整数)に分割する。この分割処理は、スーパーピクセル化処理とも呼ばれる。それぞれの局所領域は連続した領域であり、かつ内部の各点の特徴量が互いに類似する領域である。特徴量としては、色と輝度、エッジ強度、又はテクスチャ等を用いることができる。局所領域は、前景と背景との境界を跨がない領域とも表現できる。
【0027】
障害物検出部42は、画像を分割して得られた局所領域Snと、学習済みモデル32から出力された確率Pmとに基づいて、画像のi(iは、1からNまでの整数)番目の局所領域Siにおける路上障害物らしさLiを算出する。そして、障害物検出部42は、算出した路上障害物Liらしさに基づいて、取得部40により取得された画像中の路上障害物を検出する。以上の障害物検出部42による学習済みモデル32を用いた路上障害物の検出処理の詳細は、特開2018-194912号公報に開示されているため、これ以上の詳細な説明を省略する。
【0028】
物体検出部44は、取得部40により取得された画像に対して公知の物体検出処理を行うことによって、取得部40により取得された画像中の物体を検出する。この物体検出処理の例としては、Faster R-CNN(Regions with Convolutional Neural Networks)、YOLO(You Only Look Once)、又はSSD(Single Shot Multibox Detector)等が挙げられる。すなわち、物体検出部44は、路上障害物であるか否かを考慮せずに、取得部40により取得された画像中の物体を検出する。これに対し、前述した障害物検出部42は、取得部40により取得された画像中の物体のうち、路上障害物を検出する。
【0029】
判定部46は、取得部40により取得された連続する複数フレームの画像について、障害物検出部42により路上障害物が検出された2つの画像の間の画像において、以下の判定を行う。判定部46は、上記2つの画像の間の画像において、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体検出部44により物体が検出された画像が存在するか否かを判定する。
【0030】
図7を参照して、判定部46による判定処理の詳細を説明する。
図7に示すように、ここでは、説明の分かりやすさのために、連続する3フレームの画像を例に挙げ、各フレームの画像を区別するために、各フレームの画像に1~3の番号を付して説明する。
【0031】
また、
図7における「y座標」は、フレーム番号が1~3の画像について、障害物検出部42による路上障害物の検出結果、及び物体検出部44による物体の検出結果を示している。具体的には、
図7の「路上障害物」の「y座標」の数値は、障害物検出部42により検出された路上障害物の下端部のy座標を示す。また、
図7の「物体」の「y座標」の数値は、物体検出部44により検出された物体の下端部のy座標を示す。また、
図7の「y座標」が「-」の箇所は、そのフレーム番号の画像について、路上障害物又は物体が検出されなかったことを表す。すなわち、
図7の例では、フレーム番号が1、3の画像については、障害物検出部42により路上障害物が検出され、かつ物体検出部44により物体が検出されたことを表している。また、
図7の例では、フレーム番号が2の画像については、障害物検出部42により路上障害物が検出されず、かつ物体検出部44により物体が検出されたことを表している。
【0032】
判定部46は、路上障害物が検出された画像について、路上障害物のy座標と、その画像の撮影時に取得部40により取得された車速と、を用いて、近似式データ34が表す上記(1)式に従って、1フレーム前の画像中の路上障害物のy座標の推定値を算出する。同様に、判定部46は、物体が検出された画像について、物体のy座標と、その画像の撮影時に取得部40により取得された車速と、を用いて、上記(1)式に従って、1フレーム前の画像中の物体のy座標の推定値を算出する。
図7の例における「1フレーム前のy座標」は、このように算出されたy座標の推定値を表している。
【0033】
また、判定部46は、路上障害物が検出された画像について、「1フレーム前のy座標」と、1フレーム前の画像の「y座標」との差の絶対値が、予め定められた閾値TH1(例えば、「1」)以下である場合に、その画像と1フレーム前の画像との対応が有ると判定する。同様に、判定部46は、物体が検出された画像について、「1フレーム前のy座標」と、1フレーム前の画像の「y座標」との差の絶対値が、閾値TH1以下である場合に、その画像と1フレーム前の画像との対応が有ると判定する。
図7の例における「対応有無」は、このように判定された対応の有無を表している。すなわち、
図7の例では、路上障害物については各フレームの画像間で対応が無く、物体についてはフレーム番号が1と2の画像間、及びフレーム番号が2と3の画像間で対応が有ることを表している。
図7の例では、判定部46は、3個の連続するフレームの画像から検出された物体は、同じ物体であると判定する。なお、物体検出部44が、検出した物体の物体名も検出可能な場合、判定部46は、物体の「y座標」が対応していることに加えて、更に検出された物体名が同じである場合に、同じ物体であると判定してもよい。
【0034】
また、判定部46は、各フレームの画像について、路上障害物のy座標と物体のy座標との差の絶対値が、予め定められた閾値TH2(例えば、「2」)以下の場合、路上障害物と物体とが対応していると判定する。すなわち、
図7の例では、判定部46は、フレーム番号が1の画像及び3の画像のそれぞれについて、検出された路上障害物と物体とが対応していると判定する。そして、判定部46は、フレーム番号が2の画像については、検出された物体に対応するエリア、すなわち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されていないと判定する。
【0035】
以上の処理により、判定部46は、連続する複数フレームの画像について、路上障害物が検出された2つの画像(
図7の例では、フレーム番号が1の画像と3の画像)の間の画像(
図7の例では、フレーム番号が2の画像)において、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体検出部44により物体が検出された画像が存在するか否かを判定する。なお、判定部46は、連続する複数フレームの画像として4つ以上の画像を用いてもよい。また、車両12の車速が遅いほど、同じ物体が写る画像数は多くなると考えられる。そこで、判定部46は、車両12の車速が遅いほど、連続する複数フレームの画像として多い枚数の画像を用いてもよい。
【0036】
出力部48は、判定部46により上記2つの画像の間に存在すると判定された画像を、学習済みモデル32の学習用データとして出力する。本実施形態では、出力部48は、判定部46により上記2つの画像の間に存在すると判定された画像を、学習済みモデル32の学習用データとして、ネットワークNを介して情報処理装置16に出力(すなわち、送信)する。
【0037】
判定部46により、上記2つの画像の間に存在すると判定された画像は、検出された物体が、路上障害物である可能性が比較的高いにもかかわらず、障害物検出部42により路上障害物として検出されなかった画像である。この画像は、具体的な一例として
図8に示すフレームnの画像である。
図8の例では、フレームn-1、n+1の画像では、車線変更を指示する物体(矩形の破線で囲まれた物体)が路上障害物及び物体として検出されている。これに対し、フレームnの画像では、車線変更を指示する物体が物体としては検出されているが、路上障害物としては検出されていない。従って、このような画像を用いて学習済みモデル32を更に学習させて更新することによって、学習済みモデル32を用いた画像中の路上障害物の検出精度が向上する。
【0038】
次に、
図9及び
図10を参照して、本実施形態に係る制御装置14の作用について説明する。なお、
図9は、制御装置14のCPU20により実行される画像保存処理の流れの一例を示すフローチャートである。また、
図10は、制御装置14のCPU20により実行される学習用データ収集処理の流れの一例を示すフローチャートである。
図9に示す画像保存処理及び
図10に示す学習用データ収集処理は、記憶部22に記憶された学習用データ収集プログラム30をCPU20が実行することにより実行される。
図9に示す画像保存処理は、例えば、車載カメラ27のフレームレートに応じた撮影の時間間隔毎に実行される。また、
図10に示す学習用データ収集処理は、1時間に1回等の定期的なタイミングに実行される。なお、
図10に示す学習用データ収集処理は、
図9に示す画像保存処理により所定数(例えば、100枚)の画像が記憶部22に記憶される毎に実行されてもよいし、車載カメラ27により画像が撮影される毎に実行されてもよい。
【0039】
図9のステップS10で、取得部40は、車載カメラ27により撮影された画像を取得する。ステップS12で、取得部40は、車速センサ26により検出された車速を取得する。ステップS14で、取得部40は、ステップS10で取得した画像と、ステップS12で取得した車速とを対応付けて記憶部22に記憶する。ステップS14の処理が終了すると、画像保存処理が終了する。
【0040】
図10のステップS20で、障害物検出部42は、前述したように、学習済みモデル32を用いて、上記の画像保存処理により記憶部22に記憶された全ての画像中の路上障害物を検出する。ステップS22で、物体検出部44は、前述したように、上記の画像保存処理により記憶部22に記憶された全ての画像に対して公知の物体検出処理を行うことによって、記憶部22に記憶された全ての画像中の物体を検出する。
【0041】
ステップS24で、判定部46は、前述したように、上記の画像保存処理により記憶部22に記憶された全ての画像における連続する複数フレームの画像について、障害物検出部42により路上障害物が検出された2つの画像の間の画像において、以下の判定を行う。判定部46は、上記2つの画像の間の画像において、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体検出部44により物体が検出された画像が存在するか否かを判定する。判定部46は、上記の画像保存処理により記憶部22に記憶された全ての画像における連続する複数フレーム(例えば、3フレーム)の全組合せについて上記の判定を行う。この判定が否定判定となった場合は、学習用データ収集処理が終了し、肯定判定となった場合は、処理はステップS26に移行する。
【0042】
ステップS26で、出力部48は、前述したように、ステップS24の処理により上記2つの画像の間に存在すると判定された画像を、学習済みモデル32の学習用データとして情報処理装置16に出力する。ステップS26の処理が終了すると、学習用データ収集処理が終了する。
【0043】
ステップS26の処理により制御装置14から学習用データとして送信された画像は、情報処理装置16により受信される。ユーザは、情報処理装置16が受信した画像における障害物検出部42により検出されなかった路上障害物に、路上障害物という意味的ラベルを付与する。情報処理装置16は、自装置の記憶部に記憶された学習済みモデル32を、ユーザにより意味的ラベルが付与された画像を用いて学習させることによって更新する。情報処理装置16は、更新した学習済みモデル32を制御装置14に送信する。制御装置14は、情報処理装置16から送信された新たな学習済みモデル32によって記憶部22の学習済みモデル32を更新する。これにより、学習済みモデル32を用いた路上障害物の検出精度が向上する。
【0044】
以上説明したように、本実施形態によれば、複数フレームの画像について、路上障害物が検出された2つの画像の間の画像のうち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体が検出された画像を、学習済みモデル32の学習用データとして出力する。従って、画像中の路上障害物の検出精度を向上させるための学習済みモデル32の学習用データを効率的に収集することができる。
【0045】
なお、上記実施形態では、路上障害物が検出された2つの画像の間の画像のうち、路上障害物が存在すると推定されるエリア内に路上障害物が検出されず、かつ物体が検出された画像を、学習済みモデル32の学習用データとして出力する場合について説明したが、これに限定されない。例えば、
図11に示すように、物体が検出された2つの画像の間の画像のうち、物体が存在すると推定されるエリア内に物体が検出されず、かつ路上障害物が検出された画像を、物体検出部44が物体の検出に用いる学習済みモデルの学習用データとして出力する形態としてもよい。この場合、
図11におけるフレーム番号が2の画像が学習用データとして収集される。なお、
図11における各項目は
図7と同様である。
【0046】
また、上記実施形態において、制御装置14が障害物検出部42及び物体検出部44の何れかを備えてもよい。この場合、制御装置14が備える何れかの機能部による検出結果が安定しない場合に、物体又は路上障害物が検出されなかった画像を学習用データとして出力する形態が例示される。また、物体検出部44が、更に物体名を検出してもよい。この場合、物体検出部44が、連続する複数フレームの画像のそれぞれについて検出した物体が対応する物体ではあるが、物体名が異なる場合に、各フレームの画像を物体検出部44が物体の検出に用いる学習済みモデルの学習用データとして出力する形態が例示される。
【0047】
また、上記実施形態では、1フレーム前の画像における物体の位置の推定に、y軸方向の物体の移動量を用いた場合について説明したが、これに限定されない。例えば、1フレーム前の画像における物体の位置の推定に、x軸方向の物体の移動量を加えてもよい。この場合のy軸方向及びx軸方向の物体の移動量は、例えば、ヨーレート及び車速から算出することができる。
【0048】
また、上記実施形態におけるCPU20により行われる処理は、プログラムを実行することにより行われるソフトウェア処理として説明したが、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)及びFPGA(Field-Programmable Gate Array)等のハードウェアで行われる処理としてもよい。また、CPU20により行われる処理は、ソフトウェア及びハードウェアの双方を組み合わせて行われる処理としてもよい。また、記憶部22に記憶される学習用データ収集プログラム30は、各種記憶媒体に記憶して流通させてもよい。
【0049】
また、本発明は、上記の形態例に限定されるものではなく、上記の形態例以外にも、その主旨を逸脱しない範囲内において種々変形して実施可能であることは勿論である。
【符号の説明】
【0050】
10 学習用データ収集システム
12 車両
14 制御装置(学習用データ収集装置)
16 情報処理装置
20 CPU(障害物検出部、物体検出部、出力部)
30 学習用データ収集プログラム
32 学習済みモデル
40 取得部
42 障害物検出部
44 物体検出部
46 判定部
48 出力部