IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ パナソニックIPマネジメント株式会社の特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-21
(45)【発行日】2024-01-04
(54)【発明の名称】情報処理方法、及び、情報処理システム
(51)【国際特許分類】
   G06T 7/00 20170101AFI20231222BHJP
【FI】
G06T7/00 350C
【請求項の数】 11
(21)【出願番号】P 2021511099
(86)(22)【出願日】2019-11-26
(86)【国際出願番号】 JP2019046123
(87)【国際公開番号】W WO2020202636
(87)【国際公開日】2020-10-08
【審査請求日】2022-09-12
(31)【優先権主張番号】P 2019072242
(32)【優先日】2019-04-04
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】314012076
【氏名又は名称】パナソニックIPマネジメント株式会社
(74)【代理人】
【識別番号】100109210
【弁理士】
【氏名又は名称】新居 広守
(74)【代理人】
【識別番号】100137235
【弁理士】
【氏名又は名称】寺谷 英作
(74)【代理人】
【識別番号】100131417
【弁理士】
【氏名又は名称】道坂 伸一
(72)【発明者】
【氏名】高橋 正樹
(72)【発明者】
【氏名】石川 和史
(72)【発明者】
【氏名】塚本 裕介
(72)【発明者】
【氏名】大西 翔太
【審査官】佐藤 実
(56)【参考文献】
【文献】国際公開第2018/079400(WO,A1)
【文献】国際公開第2013/175792(WO,A1)
【文献】特開2018-116599(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
コンピュータが、
第1画像および前記第1画像に映る物体の物体データを取得し、
画像を入力として物体検出結果を出力する第1学習済みモデルに前記第1画像を入力することにより得られる第1物体検出結果と前記物体データとの差であって、前記第1物体検出結果に誤検出があることを示す差に対応する前記第1画像の部分を抽出し、
抽出された前記第1画像の部分に対応する物体データと同一の物体データに対応する部分を含む第2画像を取得し、
取得された前記第2画像における前記同一の物体データに対応する部分に、抽出された前記第1画像の部分に基づく画像を反映させることにより、前記第1学習済みモデルのトレーニングデータを生成し、
前記物体データは、前記第1学習済みモデルより高性能な第2学習済みモデルに前記第1画像を入力することにより取得され、前記物体の位置及び物体クラスを示す情報を含む第2物体検出結果を含み、
前記第1物体検出結果は、前記物体の位置及び物体クラスを示す情報を含み、
前記第1画像の部分の抽出では、前記第2物体検出結果に基づいて、誤検出した前記物体の物体領域を前記第1画像から切り出すことで前記第1画像の部分を抽出し、
前記第2画像は、事前に格納された画像群から前記第2物体検出結果に基づいて取得された、誤検出した前記物体の物体クラスと同じ物体クラスが存在する画像を含み、
前記トレーニングデータは、前記第2画像に対応するアノテーション情報に基づいて生成された、前記第1画像の部分に基づく画像が反映された前記第2画像に対応するアノテーション情報を含む
情報処理方法。
【請求項2】
さらに、前記第1物体検出結果を取得し、取得された前記第1物体検出結果と前記物体データとを比較し、
比較結果に基づいて前記第1画像の部分を抽出する
請求項1に記載の情報処理方法。
【請求項3】
前記第1画像の部分に基づく画像は、前記第1画像の部分を加工することにより得られた画像である
請求項1又は2に記載の情報処理方法。
【請求項4】
前記第1画像の部分に基づく画像は、予め用意された画像から選択される、前記第1画像の部分と類似する画像である
請求項1又は2に記載の情報処理方法。
【請求項5】
前記第2画像の取得では、撮像時の撮像装置の位置又は姿勢が、前記第1画像の撮像時の撮像装置の位置又は姿勢と同一又は類似である画像を前記第2画像として取得する
請求項1~4のいずれか1項に記載の情報処理方法。
【請求項6】
前記第2画像の取得では、撮像時の時間帯又は天候が、前記第1画像の撮像時の時間帯又は天候と同一又は類似である画像を前記第2画像として取得する
請求項1~5のいずれか1項に記載の情報処理方法。
【請求項7】
前記第2画像の取得では、輝度又は撮像時の撮像方向の明るさが、前記第1画像の輝度又は第1画像の撮像時の撮像方向の明るさと同一又は類似である画像を前記第2画像として取得する
請求項1~6のいずれか1項に記載の情報処理方法。
【請求項8】
前記第2画像の取得では、前記第1画像の部分に対応する物体データと同一の物体データに対応する部分のサイズが、前記第1画像の部分のサイズと同一又は類似である画像を前記第2画像として取得する
請求項1~7のいずれか1項に記載の情報処理方法。
【請求項9】
前記第2画像の取得では、前記第1画像の部分に対応する物体データと同一の物体データに対応する部分の周囲の領域データが、前記第1画像の部分の周囲の領域データと同一又は類似である画像を前記第2画像として取得する
請求項1~8のいずれか1項に記載の情報処理方法。
【請求項10】
前記第1画像、及び、前記第2画像は、撮像画像であり、
前記第2画像の取得では、撮像時の撮像装置の撮像パラメータが、前記第1画像の撮像時の撮像装置の撮像パラメータと同一又は類似である画像を前記第2画像として取得する
請求項1~9のいずれか1項に記載の情報処理方法。
【請求項11】
第1画像および前記第1画像に映る物体の物体データを取得する取得部と、
画像を入力として物体検出結果を出力する第1学習済みモデルに前記第1画像を入力することにより得られる第1物体検出結果と前記物体データとの差であって、前記物体検出結果に誤検出があることを示す差に対応する前記第1画像の部分を抽出し、抽出された前記第1画像の部分に対応する物体データと同一の物体データに対応する部分を含む第2画像を取得し、取得された前記第2画像における前記同一の物体データに対応する部分に、抽出された前記第1画像の部分に基づく画像を反映させることにより、前記第1学習済みモデルのトレーニングデータを生成する生成部とを備え
前記物体データは、前記第1学習済みモデルより高性能な第2学習済みモデルに前記第1画像を入力することにより取得され、前記物体の位置及び物体クラスを示す情報を含む第2物体検出結果を含み、
前記第1物体検出結果は、前記物体の位置及び物体クラスを示す情報を含み、
前記第1画像の部分の抽出では、前記第2物体検出結果に基づいて、誤検出した前記物体の物体領域を前記第1画像から切り出すことで前記第1画像の部分を抽出し、
前記第2画像は、事前に格納された画像群から前記第2物体検出結果に基づいて取得された、誤検出した前記物体の物体クラスと同じ物体クラスが存在する画像を含み、
前記トレーニングデータは、前記第2画像に対応するアノテーション情報に基づいて生成された、前記第1画像の部分に基づく画像が反映された前記第2画像に対応するアノテーション情報を含む
情報処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、機械学習処理における訓練用データセットを生成するための情報処理方法、及び、情報処理システムに関する。より詳しくは、画像から一般物体を検出する物体検出装置における誤検出に対処するための機械学習処理に使用する訓練用データセットを生成する報処理方法、及び、情報処理システムに関する。
【背景技術】
【0002】
近年、一般物体検出装置は、ディープラーニング技術の採用により、飛躍的に性能向上し、研究又は商品化が多数行われている。また、運転手の代わりに機械が運転する自動運転車(ロボットカー)においても、カメラ装置もしくは、レーダ、ステレオカメラ等の測距センサ装置等から転送される画像に対する一般物体検出装置は、自動運転車における要素機能の1つである。一般物体とは、歩行者、乗用車、道路標識、建物及び道路の領域等を示す。自動運転車は、一般物体検出装置からの検出情報に基づき、自動運転車本体を制御し、目的の場所へ安全に移動することが必須要件となる。
【0003】
よって、一般物体検出装置は、正確に物体検出を行う必要があるが、誤った検出(以降、誤検出)を引き起こすことも否定はできない。その場合の対処方法として、誤検出された画像データと検出データを正しく訂正し、それらを訓練用データとしてその物体検出装置に対して再学習処理する手法が存在する。この処理によって、その物体検出装置において同じような誤検出を起こし難くする効果がある。ニューラルネットワーク型検出器では、その再学習処理の手法として、転移学習やファインチューニングなどが存在する。
【0004】
そして、その再学習処理には、誤検出対策のための大量の訓練用データが必要となる。特許文献1には、認識対象が映る領域を幾何変換することにより認識対象を含む訓練用画像データを生成し、同じ背景部分の合成画像(只の背景)、異なる背景部分の合成画像(不自然)、異なる物体部分の合成画像(不自然)を生成し、認識器による認識対象を含まない訓練用画像データを生成する方法が示されている。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2012-88787号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかし、特許文献1で開示される発明では、認識器(物体検出部)の認識性能が再学習において必ずしも向上するとは限らない。例えば、特許文献1では、幾何変換として、認識対象が映る領域をランダムにシフトしたり回転させたりするため、幾何変換後の認識対象が映る領域が元の画像において不自然となり、学習効果に悪影響を及ぼすおそれがある。
【0007】
そこで、本開示では、物体検出用の学習済みモデルの物体検出性能が再学習において向上する確実性を高めることができる情報処理方法、及び、情報処理システムを提供することを目的とする。
【課題を解決するための手段】
【0008】
本開示の一態様に係る情報処理方法は、コンピュータが、第1画像および前記第1画像に映る物体の物体データを取得し、画像を入力として物体検出結果を出力する学習済みモデルに前記第1画像を入力することにより得られる物体検出結果と前記物体データとの差に対応する前記第1画像の部分を抽出し、抽出された前記第1画像の部分に対応する物体データと同一の物体データに対応する部分を含む第2画像を取得し、取得された前記第2画像における前記同一の物体データに対応する部分に、抽出された前記第1画像の部分に基づく画像を反映させることにより、前記学習済みモデルのトレーニングデータを生成する。
【0009】
また、本開示の一態様に係る情報処理システムは、第1画像および前記第1画像に映る物体の物体データを取得する取得部と、画像を入力として物体検出結果を出力する学習済みモデルに前記第1画像を入力することにより得られる物体検出結果と前記物体データとの差に対応する前記第1画像の部分を抽出し、抽出された前記第1画像の部分に対応する物体データと同一の物体データに対応する部分を含む第2画像を取得し、取得された前記第2画像における前記同一の物体データに対応する部分に、抽出された前記第1画像の部分に基づく画像を反映させることにより、前記学習済みモデルのトレーニングデータを生成する生成部とを備える。
【0010】
なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
【発明の効果】
【0011】
本開示の一態様に係る情報処理方法、及び、情報処理システムによれば、物体検出用の学習済みモデルの物体検出性能が再学習において向上する確実性を高めることができる。
【図面の簡単な説明】
【0012】
図1図1は、実施の形態1に係る情報処理システムの機能構成を示すブロック図である。
図2図2は、実施の形態1に係るサーバ装置の動作を示すフローチャートである。
図3図3は、実施の形態1に係るサーバ装置が取得するログ情報の一例を示す構成図である。
図4図4は、実施の形態1に係る判定用検出部に入力される画像の一例である。
図5図5は、実施の形態1に係る判定用検出部の検出結果を示す図である。
図6図6は、実施の形態1に係る切り出し画像の一例を示す図である。
図7図7は、記憶部が格納する画像群の一例を示す図である。
図8図8は、画像群に含まれる画像に対する判定用検出部の検出結果を示す図である。
図9A図9Aは、訓練用データに含まれる画像群の一例を示す図である。
図9B図9Bは、訓練用データに含まれるアノテーション情報の一例を示す図である。
図10図10は、物体検出のカテゴリ構造の一例を示す図である。
図11A図11Aは、実施の形態1の変形例に係る生成部の動作の第1例を示すフローチャートである。
図11B図11Bは、実施の形態1の変形例に係る生成部の動作の第2例を示すフローチャートである。
図11C図11Cは、実施の形態1の変形例に係る生成部の動作の第3例を示すフローチャートである。
図11D図11Dは、実施の形態1の変形例に係る生成部の動作の第4例を示すフローチャートである。
図11E図11Eは、実施の形態1の変形例に係る生成部の動作の第5例を示すフローチャートである。
図11F図11Fは、実施の形態1の変形例に係る生成部の動作の第6例を示すフローチャートである。
図12図12は、実施の形態2に係るサーバ装置の動作を示すフローチャートである。
図13図13は、実施の形態2に係るサーバ装置が取得するログ情報の一例を示す構成図である。
図14図14は、実施の形態2に係る判定用検出部に入力される画像の一例である。
図15図15は、訓練用データに含まれる画像群の一例を示す図である。
【発明を実施するための形態】
【0013】
(本開示の基礎となった知見)
自動運転車を含む様々な工業製品の分野において、ニューラルネットワーク型物体検出装置を搭載し、その検出結果に基づき、自動的に制動を行う製品が市場に投入されている。
【0014】
しかしながら、ニューラルネットワーク型物体検出装置の学習処理においては、膨大な画像データの収集とアノテーション作業とを必要とする。また、アノテーション作業は手作業が一般的であり、非常にコストが掛かる作業となっている。
【0015】
そのため、様々な訓練用データを作成するための自動化手法が提案されている。しかし、物体検出装置の誤検出を効果的に対策するための訓練用データの自動生成における設計及び技術的な解決策に関しては、検討されていなかった。
【0016】
そこで、本願発明者らは、物体検出装置の誤検出を効果的に対策するための訓練用データの生成について鋭意検討を行い、以下に説明する情報処理方法及び情報処理システムを創案した。
【0017】
本開示の一態様に係る情報処理方法は、コンピュータが、第1画像および前記第1画像に映る物体の物体データを取得し、画像を入力として物体検出結果を出力する学習済みモデルに前記第1画像を入力することにより得られる物体検出結果と前記物体データとの差に対応する前記第1画像の部分を抽出し、抽出された前記第1画像の部分に対応する物体データと同一の物体データに対応する部分を含む第2画像を取得し、取得された前記第2画像における前記同一の物体データに対応する部分に、抽出された前記第1画像の部分に基づく画像を反映させることにより、前記学習済みモデルのトレーニングデータを生成する。
【0018】
これにより、トレーニングデータ(訓練用データ)を自動で生成することができる。さらに、第2画像は、第1画像の部分(誤検出した物体)に対応する物体データ(例えば、物体クラス)と同一の物体データに対する部分を含む画像である。このような第2画像に、誤検出した物体が反映(例えば、重畳又は置換)されることにより生成される画像は、違和感の少ない自然な画像となる。つまり、訓練用データが不自然な画像となることで、学習効果に悪影響を及ぼすことが抑制される。
【0019】
よって、本開示の一態様に係る情報処理方法によれば、物体検出用の学習済みモデルの物体検出性能が再学習において向上する確実性を高めることができる。
【0020】
また、例えば、さらに、前記物体検出結果を取得し、取得された前記物体検出結果と前記物体データとを比較する。そして、比較結果に基づいて前記第1画像の部分を抽出する。
【0021】
これにより、コンピュータ(例えば、サーバ装置)において、一括して処理を行うことができる。言い換えると、訓練用データを生成する処理の全てを自動化することができるので、より低コストで訓練用データを生成することができる。
【0022】
また、例えば、前記第1画像の部分に基づく画像は、前記第1画像の部分を加工することにより得られた画像である。
【0023】
これにより、第1画像の部分に基づく画像を、当該第1画像から取得することができる。言い換えると、誤検知した物体(第1画像の部分)そのものに基づいて、訓練用データを生成することができるので、当該誤検知した物体に対して有効な訓練用データを生成することができる。
【0024】
また、例えば、前記第1画像の部分に基づく画像は、予め用意された画像から選択される、前記第1画像の部分と類似する画像である。
【0025】
これにより、第1画像の部分に基づく画像を、当該第1画像を加工することなく取得することができる。例えば、第1画像から当該第1画像の部分を切り出すことが困難である場合であっても、第1画像の部分と類似する画像を用いて訓練用データを生成することができる。また、選択された画像が3D画像である場合、当該3D画像の姿勢(例えば、傾きなど)を容易に変更することができる。よって、第2画像に当該選択された画像を反映するときに、より自然な画像を生成することができるので、さらに有効な訓練データを生成することができる。
【0026】
また、例えば、前記第2画像の取得では、撮像時の撮像装置の位置又は姿勢が、前記第1画像の撮像時の撮像装置の位置又は姿勢と同一又は類似である画像を前記第2画像として取得する。
【0027】
これにより、例えば、路線バス、タクシーなどの決まったコースを走行する乗用車向けの学習処理では効果的となる訓練用データを生成することができる。
【0028】
また、例えば、前記第2画像の取得では、撮像時の時間帯又は天候が、前記第1画像の撮像時の時間帯又は天候と同一又は類似である画像を前記第2画像として取得してもよい。また、例えば、前記第2画像の取得では、輝度又は撮像時の撮像方向の明るさが、前記第1画像の輝度又は第1画像の撮像時の撮像方向の明るさと同一又は類似である画像を前記第2画像として取得してもよい。また、例えば、前記第2画像の取得では、前記第1画像の部分に対応する物体データと同一の物体データに対応する部分の周囲の領域データが、前記第1画像の部分の周囲の領域データと同一又は類似である画像を前記第2画像として取得してもよい。
【0029】
これにより、第1画像を取得した環境により近い第2画像が選択を選択することができる。このような第2画像に、誤検出した物体が反映されることにより生成される画像は、第1画像が撮影された環境に類似した画像となる。例えば、ファインチューニングを行う場合、環境が類似した画像を用いて再学習することで、物体検出用の学習済みモデルの物体検出性能を向上させる確実性を高めることができる。よって、さらに有効な訓練用データを生成することができる。
【0030】
また、例えば、前記第2画像の取得では、前記第1画像の部分に対応する物体データと同一の物体データに対応する部分のサイズが、前記第1画像の部分のサイズと同一又は類似である画像を前記第2画像として取得する。
【0031】
これにより、より違和感の少ない自然な画像が生成されるので、さらに有効な訓練データを生成することができる。
【0032】
また、例えば、前記第1画像、及び、前記第2画像は、撮像画像であり、前記第2画像の取得では、撮像時の撮像装置の撮像パラメータが、前記第1画像の撮像時の撮像装置の撮像パラメータと同一又は類似である画像を前記第2画像として取得する。
【0033】
これにより、被写体(誤検出した物体)以外の情報に基づいて、第1画像が撮影された環境に類似した画像を含む訓練用データを生成することができる。
【0034】
また、本開示の一態様に係る情報処理システムは、第1画像および前記第1画像に映る物体の物体データを取得する取得部と、画像を入力として物体検出結果を出力する学習済みモデルに前記第1画像を入力することにより得られる物体検出結果と前記物体データとの差に対応する前記第1画像の部分を抽出し、抽出された前記第1画像の部分に対応する物体データと同一の物体データに対応する部分を含む第2画像を取得し、取得された前記第2画像における前記同一の物体データに対応する部分に、抽出された前記第1画像の部分に基づく画像を反映させることにより、前記学習済みモデルのトレーニングデータを生成する生成部とを備える。
【0035】
これにより、コンピュータが、プログラムに従って、上記の情報処理方法を実行することができる。
【0036】
さらに、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、又は、コンピュータ読み取り可能なCD-ROMなどの非一時的な記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム、及び、記録媒体の任意な組み合わせで実現されてもよい。
【0037】
以下、実施の形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
【0038】
また、各図は、模式図であり、必ずしも厳密に図示されたものではない。
【0039】
また、本明細書において、同じなどの要素間の関係性を示す用語、および、矩形などの要素の形状を示す用語、並びに、数値及び数値範囲は、厳格な意味のみを表す表現ではなく、実質的に同等な範囲、例えば数%程度の差異をも含むことを意味する表現である。
【0040】
また、本明細書において、物体検出装置(物体検出部)の誤検出とは、未検出を含む。つまり、誤検出は、物体検出部が物体を正しく検出できていないこと、及び、物体を検出できなかったことを含む。また、実施の形態1では、物体を正しく検出できなかった場合について説明し、実施の形態2では、検出対象ではない物体を誤って検出した場合について説明する。
【0041】
(実施の形態1)
以下、本実施の形態に係る情報処理方法、及び、情報処理システムついて、図1図10を参照しながら説明する。
【0042】
[1-1.情報処理システムの構成]
まずは、本実施の形態に係るサーバ装置30を含む情報処理システム1の構成について、図1を参照しながら説明する。図1は、本実施の形態に係る情報処理システム1の機能構成をブロック図である。
【0043】
図1に示すように、情報処理システム1は、移動体10と、サーバ装置30とを備える。
【0044】
移動体10は、例えば、車両である。車両は、例えば、運転者の操作を必要とせずに、車両の運転を制御する自動運転車であるが、自動運転または手動運転の何れかに切り替えて走行することが可能な車両であってもよい。
【0045】
移動体10は、物体検出部11と通信部12とを有する。また、移動体10は、さらに、移動体10の周囲を撮影した画像を生成するカメラ(図示しない)などの光センサを含む複数のセンサを有する。物体検出部11は、光センサなどのセンサから取得した情報に基づいて、移動体10の周囲に存在する物体を検出する。以下では、光センサがカメラであり、物体検出部11は、当該カメラから画像を取得し、取得した画像に基づいて移動体10の周囲に存在する物体を検出する場合を説明する。
【0046】
物体検出部11は、入力されたセンサデータすなわち画像等に基づき物体を検出する。物体検出部11は、物体検出モデル(学習済みモデル)に対する処理を制御する情報処理部であって、電気回路で構成される。物体検出モデルは、複数の層を有するニューラルネットワーク型の数理モデル(推論器)であって、物体検出処理を行うための数理モデルを含む。
【0047】
基本的に、物体検出モデルは、入力層、中間層及び出力層で構成される複数の処理層を有する。入力層には、物体検出処理の処理対象データが入力データ(入力情報)として入力される。そして、出力層から、物体検出処理の処理結果データが出力データ(出力情報)として出力される。入力層と出力層とは異なる処理層であって、入力層と出力層と間の処理層は、中間層と呼ばれる。物体検出モデルは、複数の中間層を有していてもよい。
【0048】
例えば、物体検出部11の内部に、学習データを用いて学習された物体検出モデルが実装される。本実施の形態では、物体検出モデルは、入力データである画像に基づいて、「乗用車」及び「人物」の2つの物体クラスを検出可能に学習されているとする。
【0049】
また、物体検出部11は、検出対象の画像及び検出結果などに基づいて、サーバ装置30に送信するためのログ情報(図3を参照)を生成する。ログ情報については、後述するが、検出対象が映る画像及び物体検出部11における検出結果が含まれる。
【0050】
通信部12は、移動体10がサーバ装置30と通信を行うための通信回路(言い換えれば、通信モジュール)である。通信部12は、ネットワーク20を介してサーバ装置30に物体検出部11が生成したログ情報を転送するログ転送器として機能する。なお、通信部12がログ情報を送信するタイミングは特に限定されず、ログ情報は、逐次送信されてもよいし、定期的に送信されてもよい。
【0051】
なお、移動体10は、ログ情報を格納する記憶部(記憶装置)を備えていてもよい。
【0052】
ネットワーク20は、インターネット等の広域ネットワーク(WAN:Wide Area Network)である。移動体10とサーバ装置30とは、ネットワーク20を介して(具体的には、ネットワーク20の末端に設けられた中継装置(図示しない)を介して)無線通信可能に接続されている。
【0053】
サーバ装置30は、物体検出用の学習済みモデル(物体検出モデル)を再学習させるための訓練用データセットを生成する情報処理装置(訓練用データセット生成装置)である。サーバ装置30は、例えば、移動体10が備える物体検出部11に実装されている物体検出モデルを作製した製造メーカ、その他の事業者等により運用される。
【0054】
サーバ装置30は、通信部31と、判定用検出部32と、誤検出判定部33と、生成部34と、記憶部35とを有する。
【0055】
通信部31は、サーバ装置30が移動体10と通信を行うための通信回路(言い換えれば、通信モジュール)である。通信部31は、ネットワーク20を介して移動体10からログ情報を受信するログ収集器として機能する。通信部31は、受信したログ情報を判定用検出部32及び誤検出判定部33に出力する。なお、通信部31は、取得部の一例である。
【0056】
判定用検出部32は、ログ情報に含まれる画像に対して物体検出処理を行う処理部である。判定用検出部32は、物体検出部11より演算規模が大きく、より正確な物体検出を行うことができる。本実施の形態では、判定用検出部32は、画像セグメンテーション(セマンティックセグメンテーション)を実行可能に学習された物体検出モデルを有し、当該物体検出モデルを用いて画像に対して画像セグメンテーションを実行する。画像セグメンテーションを実行するとは、画像が有する複数の画素のそれぞれに対して、当該画素が示す意味をラベル付けする処理を実行することである。これは、各画素がどのクラスのオブジェクト、つまりどのカテゴリに属しているのかをラベル付けすることに相当する。
【0057】
なお、判定用検出部32は、物体検出部11が検出可能な物体クラス(本実施の形態では、「乗用車」及び「人物」)を含み、かつ、当該物体クラスより多くの物体クラスを検出可能に学習された物体検出モデルを有し、当該学習済みモデルを用いて物体検出処理を実行してもよい。
【0058】
判定用検出部32は、検出結果を誤検出判定部33に出力する。本実施の形態では、判定用検出部32は、画像セグメンテーションを実行した結果であるセグメンテーション結果(図8を参照)を誤検出判定部33に出力する。
【0059】
誤検出判定部33は、物体検出部11から取得したログ情報と、判定用検出部32の検出結果とに基づいて、物体検出部11における検出結果が正しかったか否か(つまり、物体検出部11の物体検出が誤検出であるか否か)を判定する処理部である。誤検出判定部33は、例えば、物体検出部11及び判定用検出部32における検出結果に差があるか否かに基づいて、上記の判定を行う。誤検出判定部33は、判定結果を生成部34に出力する。
【0060】
生成部34は、誤検出判定部33の判定結果に基づいて、物体検出部11が有する物体検出モデルを再学習させるための訓練用データを生成する処理部である。本実施の形態では、生成部34における訓練用データの生成方法に特徴を有する。詳細は後述するが、生成部34は、誤検出判定部33が物体検出部11の検出結果が正しくないと判定した物体が映る画像から当該物体を切り出す。そして、生成部34は、当該物体と物体クラス(例えば、「乗用車」)が同じ物体が映る他の画像に、切り出した画像を重畳する又は置換することにより、有効な訓練用データを増やす(水増しする)処理を行う。なお、切り出すことは、抽出することの一例である。
【0061】
なお、訓練用データは、物体検出モデルを再学習するための入力データに用いられるデータであってもよいし、再学習された物体検出モデルの検出能力を検証するためのテスト用データであってもよい。
【0062】
記憶部35は、訓練用データを水増しするための複数の画像を含む画像群(図7を参照)が格納された記憶装置である。画像群は、予め格納されていてもよい。また、記憶部35は、誤検出判定部33から取得したログ情報に含まれる画像を、画像群として、格納してもよい。この場合、当該画像と、当該画像における判定用検出部32の検出結果とが対応付けられて格納される。
【0063】
なお、記憶部35に格納される画像群に含まれる複数の画像のそれぞれは、後述する図3に示すログ情報に含まれる各種情報が、さらに対応付けられていてもよい。例えば、画像群に含まれる複数の画像のそれぞれは、当該画像を撮影した時刻(又は時間帯)、天候などの情報が対応付けられていてもよい。また、画像群に含まれる複数の画像のそれぞれは、当該画像を撮影したときのカメラの位置又は姿勢などの情報が対応付けられていてもよい。また、画像群に含まれる複数の画像のそれぞれは、当該画像における輝度(例えば、当該画像における物体の輝度)又は明るさ(例えば、当該物体における物体の明るさ)などの情報が対応付けられていてもよい。画像における明るさは、例えば、カメラ以外のセンサにより取得された情報であってもよい。
【0064】
ログ情報に含まれる画像を画像群として格納する場合、ログ情報(図3参照)そのものが格納されてもよい。この場合、ログ情報に含まれる検出情報は、判定用検出部32による物体検出結果が適用される。言い換えると、記憶部35には、物体検出部11の物体検出結果は、格納されなくてもよい。
【0065】
また、記憶部35は、サーバ装置30が備える各処理部が実行するプログラム等を格納していてもよい。記憶部35は、例えば、半導体メモリにより構成される。
【0066】
上記のように、サーバ装置30は、例えば、誤検出シーンデータの画像に対して、強化対象である(再学習の対象である)物体検出部11より精度面で高性能な判定用検出部32を備える。そして、サーバ装置30は、判定用検出部32のセグメンテーション結果又は検出結果を使用して、誤検出された画像領域を切り出し、切り出し画像120を同一の物体クラスの物体が映る他の画像に反映することで、誤検出対策のための訓練用データを生成する。これにより、誤検出対策のための物体検出部11に対する再学習処理の効果を高めることが可能となる。
【0067】
[1-2.サーバ装置の動作]
次に、サーバ装置30の動作、及び、生成する画像等について、図2図10を参照しながら説明する。図2は、本実施の形態に係るサーバ装置30の動作を示すフローチャートである。
【0068】
図2に示すように、まず、サーバ装置30は、移動体10からログ情報を取得する(S10)。具体的には、通信部31は、移動体10からログ情報を受信する。そして、通信部31は、受信したログ情報を判定用検出部32及び誤検出判定部33に出力する。なお、判定用検出部32には、ログ情報に含まれる各種データのうち画像のみが出力されてもよい。
【0069】
ここで、通信部31が移動体10から受信するログ情報、つまり移動体10の物体検出部11が生成するログ情報について、図3を参照しながら説明する。図3は、本実施の形態に係るサーバ装置30が取得するログ情報100の一例を示す構成図である。
【0070】
図3に示すように、ログ情報100には、例えば、シーン画像、撮影機器情報、時刻情報、撮影位置情報、検出情報、撮像パラメータ等が含まれる。
【0071】
シーン画像(以降において、単に画像とも記載する)は、移動体10が備えるカメラが撮像した画像101であり、物体検出処理を実行する対象の画像101である。画像101には、検出情報に対応する領域である物体領域101aが対応付けられていてもよい。図3の例では、対象物体110が存在する領域が物体領域101aである。
【0072】
撮影機器情報は、撮影したカメラに関する情報である。撮影機器情報は、例えば、画像101を撮影したカメラを特定するための情報であり、図3の例では、前方カメラである。
【0073】
時刻情報は、画像101が撮影された時刻を示す情報である。
【0074】
撮影位置情報は、画像101が撮影された位置及び方位を示す情報である。
【0075】
検出情報は、画像101に対する物体検出部11の検出結果等を示す情報である。具体的には、検出情報には、検出結果及び当該検出結果に対応する物体領域101aを示す情報が含まれる。図3では、「乗用車」である対象物体110に対する物体検出部11の検出結果が「人物」である例について示している。つまり、図3に示すログ情報100は、物体検出部11が誤検出した場合のログ情報を示す。なお、物体領域101aを矩形で示しているが、物体領域101aの形状は一例であり、矩形以外であってもよい。
【0076】
撮像パラメータは、画像101を撮影したときのカメラの撮影条件を示す情報である。撮影条件は、例えば、ゲイン、ホワイトバランスなどである。
【0077】
図2を再び参照して、判定用検出部32は、通信部31から取得したログ情報100に含まれる画像101を入力データとして、物体検出処理を実行する(S20)。図4は、本実施の形態に係る判定用検出部32に入力される画像200の一例である。図5は、本実施の形態に係る判定用検出部32の検出結果を示す図である。画像200は、ログ情報100に含まれる画像101と同一の画像である。なお、判定用検出部32に入力される画像200に、物体領域101aは含まれない。
【0078】
図4に示す画像200を判定用検出部32に入力することで、図5に示すセグメンテーション結果300が出力される。図5では、図4に示す対象物体110が「乗用車」であること判定されていることを示している。このように、判定用検出部32は、移動体10の物体検出部11より正確に物体検出を行うことができるため、物体検出部11では誤検出した物体を正確に検出することができる。
【0079】
判定用検出部32は、検出結果(ここでは、セグメンテーション結果300)を誤検出判定部33に出力する。
【0080】
図2を再び参照して、次に、誤検出判定部33は、判定用検出部32から取得した検出結果と、ログ情報100(つまり、移動体10の物体検出部11の検出結果)とに基づいて、物体検出部11の検出に誤検出があるか否かを判定する(S30)。誤検出判定部33は、例えば、判定用検出部32及び物体検出部11の検出結果に差があるか否かにより上記の判定を行う。本実施の形態では、対象物体110に対し、判定用検出部32の検出結果は「乗用車」(図5を参照)であるのに対し、移動体10の物体検出部11の検出結果は「人物」(図3を参照)である。
【0081】
このように、誤検出判定部33は、判定用検出部32の検出結果と物体検出部11の検出結果とに差がある場合に、物体検出部11の検出において、誤検出があると判定する。誤検出判定部33は、誤検出があると判定する(S30でYes)と、当該画像に対応するログ情報100を誤検出シーンデータとして収集する(S40)。そして、誤検出判定部33は、収集した誤検出シーンデータを生成部34に出力する。例えば、誤検出判定部33は、誤検出シーンデータ、及び、当該誤検出シーンデータに対するセグメンテーション結果300を生成部34に出力する。なお、誤検出された画像とは、誤検出された対象物体110が映っている画像を意味する。また、判定用検出部32の検出結果と物体検出部11の検出結果とに差があるとは、例えば、判定用検出部32は物体を検出しているが物体検出部11は当該物体を検出していない場合も含む。つまり、物体検出部11が本来検出するべき物体を検出できていない場合も、物体検出部11の誤検出に含まれる。
【0082】
また、誤検出判定部33は、誤検出がないと判定する(S30でNo)と、処理を終了する。
【0083】
次に、生成部34は、誤検出判定部33から取得した誤検出シーンデータに対してアノテーションの処理を行う(S50)。生成部34は、誤検出シーンデータに対して、判定用検出部32の検出結果に基づいたアノテーションの処理を行う。本実施の形態では、生成部34は、誤検出シーンデータに対してセグメンテーション結果300に基づいたアノテーションの処理を行う。具体的には、対象物体110に対する物体クラスを、「人物」から「乗用車」に変更する。アノテーションされた誤検出シーンデータ(つまり、検出結果が正しくなったログ情報)は、訓練用データとして用いられてもよい。
【0084】
ここで、物体検出部11における誤検出を抑制する、つまり高精度の物体検出を可能にする物体検出モデルを生成するには、訓練用データが多いとよい。移動体10からの複数のログ情報100の中から訓練用データを抽出することも可能ではあるが、有効な訓練用データを抽出するには多くの時間及び人手を要する。そこで、生成部34は、誤検出を抑制するための訓練用データを増やす処理(水増し処理)を行う。生成部34は、物体検出部11の誤検出を抑制するために有効な訓練用データを所定の規則に基づいて生成する。以下では、生成部34における、有効な訓練用データを生成する処理について説明する。
【0085】
生成部34は、誤検出シーンデータの画像101に対して、セグメンテーション結果300に基づいて、誤検出した物体領域101aを切り出した切り出し画像を生成する(S60)。具体的には、図6に示すような対象物体110を切り出した切り出し画像120を生成する。図6は、本実施の形態に係る切り出し画像120の一例を示す図である。
【0086】
なお、生成部34は、例えば、画像101に対象物体110の一部を隠している物体(例えば、移動体10と対象物体110との間に位置しており、移動体10から見て対象物体110と重なっている物体)が存在する場合、当該物体と対象物体110とを一体として切り出してもよい。例えば、切り出し対象の対象物体110と自車両(移動体10)との間に、当該対象物体110を隠している別の物体が存在し、当該別の物体もセグメンテーション結果から事前に設定された表示面積閾値(例えば、切り出し画像の120大きさ)で切り出せるのであれば、一塊で切り出してもよい。例えば、対象物体110と別の物体とは、物体クラスが同じ物体(例えば、乗用車)であってもよい。一塊で切り出された切り出し画像を他の画像に反映させることで、より違和感の少ない自然な画像を訓練用データとして生成することができる。
【0087】
このように、他の画像に重畳又は置換される画像(第1画像の部分に基づく画像の一例)は、例えば、画像101の対象物体110(第1画像の部分の一例)を加工することにより得られた画像(例えば、切り出し画像120)であってもよい。なお、切り出し画像120に所定の画像処理が施されてもよい。
【0088】
図2を再び参照して、次に、生成部34は、誤検出した物体(ここでは、対象物体110)と同じ物体クラス(例えば、乗用車)が存在する他の画像群の中から、切り出し画像120を反映可能な画像を選択する(S70)。なお、反映は、重畳又は置換を含む。
【0089】
図7は、記憶部35が格納する画像群400の一例を示す図である。図8は、画像群400に含まれる画像401に対する判定用検出部32の検出結果を示す図である。具体的には、図8は、画像401に対するセグメンテーション結果500を示す。
【0090】
図7に示すように、画像401には、対象物体410及び420が存在する。図8に示すように、対象物体410は、物体クラスが「乗用車」であり、対象物体420は、物体クラスが「標識」である。対象物体410は、画像101における対象物体110と物体クラスが同じである。生成部34は、対象物体110及び410の物体クラスが同一であるか否かを、それぞれの対象物体における判定用検出部32の検出結果に基づいて判定する。ここでは、対象物体110及び410の物体クラスは、「乗用車」である。
【0091】
このように、生成部34は、事前に格納された画像群400から、判定用検出部32を使用したセグメンテーション結果300及び500に基づいて、誤検出した物体クラスと同じ物体クラスが存在する画像401を選び出す。誤検出した物体クラスと同じ物体クラスが存在する画像401は、切り出し画像120を反映可能な画像の一例である。
【0092】
なお、ステップS70において、生成部34は、画像群400の中から対象物体110をそのままの大きさで反映可能な画像を優先して、反映可能な画像として選択してもよい。また、生成部34は、対象物体110を所定の倍率内で拡大又は縮小して反映可能な画像を反映可能な画像として選択してもよい。
【0093】
図2を再び参照して、次に、生成部34は、選択された画像群に対して切り出し画像120を反映する(S80)。生成部34は、例えば、画像群400から選択された画像401に対して、図7のセグメンテーション結果500の「乗用車」が存在する領域に切り出し画像120を反映する。
【0094】
図9Aは、訓練用データに含まれる画像群600の一例を示す図である。
【0095】
図9Aに示すように、生成部34は、例えば、図7に示す画像401の対象物体410に切り出し画像120が示す対象物体110を切り出した切り出し画像120を重畳することで、画像601を生成する。生成部34は、画像401において「乗用車」が存在している位置に、対象物体110を重畳する。画像601は、対象物体110が現実に存在する位置(本実施の形態では、「乗用車」が存在する車道)に当該対象物体110が重畳された画像である。これにより、現実世界に近い画像を生成することができるので、汎用のニューラルネットワークを移動体10専用のニューラルネットワークにファインチューニングするときに、より精度よく物体を検出することができるようにファインチューニングすることができる。
【0096】
なお、対象物体410に切り出し画像120を重畳する場合、重畳後の画像(例えば、図9Aに示す画像601)において、対象物体410が見えないことが望ましい。そこで、生成部34は、さらに、画像401に対して、図7のセグメンテーション結果500の「乗用車」が存在する領域のサイズをもとにサイズ調整した切り出し画像120を重畳又は置換してもよい。サイズ調整には、拡大及び縮小が含まれる。
【0097】
切り出し画像120をサイズ調整する調整幅(調整割合の一例)は、予め設定されていてもよい。例えば、図6に示す切り出し画像120のサイズに対して、±20%以内の拡大又は縮小であってもよい。なお、切り出し画像120のアスペクト比は一定のまま、拡大及び縮小する処理が実行される。また、切り出し画像120を重畳する場合、重畳後の画像601において、対象物体410が見えない又は見える領域が小さくなる(はみ出し面積が小さくなる)ように拡大率又は縮小率が決定されてもよい。
【0098】
また、生成部34は、画像401に重畳した物体(例えば、切り出し画像120が示す乗用車)が当該画像401において相対的に大きな物体ばかりにならないようにするために、もとの画像(例えば、画像101)の対象物体110の周辺画素を使用して補間しながら重畳してもかまわない。
【0099】
また、図9Bに示すように、生成部34は、図7に示す画像群400に対応するアノテーション情報に基づいて、画像群600に対応するアノテーション情報700を生成する。図9Bに示すように、対象物体110に対して、「乗用車」がアノテーションされている。
【0100】
図2を再び参照して、生成部34は、図9Aに示す画像群600と当該画像群600に対応するアノテーション情報700とにより、訓練用データを生成する(S90)。
【0101】
なお、生成部34は、生成された訓練用データの数が事前に設定した数を下回る場合、カテゴリが類似したアノテーション情報を持つ画像を用いて、追加で訓練用データを生成してもよい。例えば、図10に示すように事前に物体クラスのカテゴリ構造が定められており、「乗用車」と同じ上位カテゴリ「車両」である「バス」又は「トラック」を使用する構成が考えられる。生成部34は、画像群400の中から、物体クラスが「バス」又は「トラック」である画像を選択し、選択した画像に対してステップS80及びS90の処理を実行してもよい。なお、図10は、物体検出のカテゴリ構造の一例を示す図である。
【0102】
また、生成部34は、ステップS70で選択された画像の数が事前に設定した数を上回る場合、選択された画像の全てを用いて訓練用データを生成してもよいし、選択された画像の中から事前に設定した数の画像を抽出してもよい。例えば、生成部34は、物体クラスの下位カテゴリを用いて、当該画像を抽出してもよい。例えば、図10に示すようなカテゴリ構造において、「乗用車」の下位カテゴリ「セダン」及び「SUV」を使用する構成が考えられる。生成部34は、ステップS70で反映可能な画像が事前に設定した数を上回る場合は、さらに、物体クラス「乗用車」である対象物体110における下位カテゴリ(例えば、「セダン」)と同一又は類似するカテゴリの物体が映る画像を優先的に選択し、選択した画像に対してステップS80及びS90の処理を実行してもよい。生成部34は、例えば、「セダン」と同一視される物体が映る画像を優先的に選択する。
【0103】
なお、図10に示すカテゴリ構造は、記憶部35に格納されている。また、判定用検出部32は、例えば、図10に示すカテゴリ構造に含まれる物体クラスを検出可能である。
【0104】
上記では、生成部34は、切り出し画像120を対象物体110と同一の物体クラスが存在する他の画像に重畳又は置換する処理を行う例について説明したが、これに限定されない。生成部34は、例えば、切り出し画像120に類似した3Dモデル等のCG(Computer Graphics)画像をステップS70で選択した画像に反映してもよい。生成部34は、切り出し画像120に基づいてCG画像を生成してもよいし、記憶部35が対象物体のCG画像を格納している場合は、切り出し画像120と特徴量が類似するCG画像を選択してもよい。選択されるCG画像は、切り出し画像120と最も特徴量が類似している画像であってもよいし、特徴量が所定量以上類似する複数のCG画像であってもよい。
【0105】
このように、他の画像(ステップS70で選択された画像)に重畳又は置換される画像(第1画像の部分に基づく画像の一例)は、例えば、予め用意された画像から選択される、対象物体110(第1画像の部分の一例)と類似する画像であってもよい。この場合、CG画像のサイズ及び傾き(例えば、回転角度)が調整されてもよい。CG画像のサイズ及び傾きの調整幅は、調整割合の一例である。なお、調整割合は、CG画像が画像として崩れない程度の割合であり、物体をその物体として検出可能な程度の割合に設定されるとよい。
【0106】
なお、判定用検出部32、誤検出判定部33、及び、生成部34における処理を実行するタイミングは特に限定されない。例えば、通信部31が物体検出部11からログ情報100を取得するたびに実行されてもよし、定期的に実行されてもよいし、所定数又は所定容量のログ情報100が蓄積されたときに実行されてもよい。また、判定用検出部32は、例えば、ログ情報100に物体検出部11における検出結果における信頼度が含まれている場合、当該信頼度に応じて物体検出処理を実行してもよい。判定用検出部32は、例えば、検出結果の信頼度が所定以下である物体が含まれる画像を優先して物体検出処理を実行してもよいし、検出結果の信頼度が所定以下である物体が含まれる画像のみに対して物体検出処理を実行してもよい。これにより、サーバ装置30は、より効率的に訓練用データを生成することができる。
【0107】
なお、上記では、誤検出判定部33は、判定用検出部32から検出結果を取得し、取得した検出結果(物体データの一例)とログ情報100の検出情報(物体検出結果の一例)とを比較し、比較結果に基づいて対象物体110(第1画像の部分の一例)を抽出する例について説明したが、これに限定されない。例えば、サーバ装置30は、ログ情報100の検出情報を取得しなくてもよい。誤検出判定部33は、例えば、判定用検出部32及び物体検出部11の検出結果の差に対応する情報(例えば、対象物体110に関する情報)を、サーバ装置30を管理する管理者から取得してもよい。誤検出判定部33は、管理者からの入力を受け付けるユーザインターフェースである受付部(図示しない)を介して、再学習する対象である対象物体110の指示を受け付け、当該指示を生成部34に出力してもよい。対象物体110の指示とは、ログ情報100に含まれる画像101における対象物体110の位置及び物体クラスを示す情報を含む。
【0108】
なお、上記では、サーバ装置30は、移動体10から検出情報を含むログ情報100を受信する例について説明したが、これに限定されない。サーバ装置30は、移動体10から移動体10が撮像した画像を取得してもよい。サーバ装置30は、例えば、移動体10が備える物体検出部11と同じ学習済みモデルを有する物体検出部(図示しない)を備えていてもよい。そして、誤検出判定部33は、当該物体検出部における検出結果と判定用検出部32における検出結果とを比較することで、差があるか否か(つまり、当該物体検出部の検出結果が正しいか否か)を判定してもよい。
【0109】
以上のように、本実施の形態に係るサーバ装置30における情報処理方法は、コンピュータが、画像101(第1画像の一例)および対象物体110(画像101に映る物体の一例)に関する物体クラス(物体データの一例)を取得し、画像101を入力として物体検出結果を出力する学習済みモデルに画像101を入力することにより得られる物体検出結果(例えば、セグメンテーション結果300)と物体データとの差に対応する画像101の部分(例えば、対象物体110)を抽出し、抽出された画像101の部分に対応する物体データ(例えば、「乗用車」と同一の物体データに対応する部分を含む画像401(第2画像の一例)を取得し、取得された画像401における対象物体410(同一の物体データに対応する部分の一例)に、抽出された画像101の切り出し画像120(第1画像の部分に基づく画像の一例)を反映させることにより、学習済みモデルのトレーニングデータを生成する。
【0110】
これにより、現実世界に近づけた訓練用データを生成することができる。それにより、物体検出用の学習済みモデルの物体検出性能が再学習において向上する確実性を高めることができる。ひいては、ニューラルネットワーク型検出器の誤検出修正に有効な学習処理環境を低コストで実現できる。例えば、有効な訓練用データを自動的に水増し処理することができる。
【0111】
例えば、乗用車のデザインが大幅に変更となると、移動体10の物体検出部11では、当該乗用車を検出できないことが起こり得る。例えば、ニューラルネットワーク型の物体検出部11の場合、当該ニューラルネットワークの再学習(追加学習)が行われるとよい。上記のような方法で、再学習のための訓練用データが生成されることで、デザインが大幅に変更となった乗用車を検出できる確実性を高めることができる。
【0112】
(実施の形態1の変形例)
以下、本実施の形態の変形例に係るサーバ装置等について、図11A図11Fを参照しながら説明する。なお、本変形例に係るサーバ装置の構成は、実施の形態1に係るサーバ装置30と同様であり、説明を省略する。また、実施の形態1のサーバ装置30と同様の処理においては、説明を省略又は簡略化する場合がある。
【0113】
本変形例に係るサーバ装置は、図2に示すステップS70で選択された画像の中から、さらに、以下の処理により訓練用データに用いる画像を優先的に選び出す。図11A図11Fに示される処理は、例えば、ステップS70で選択された画像の数が生成する訓練用データの数を上回る場合に実行されてもよい。なお、以下に示す図11A図11Fの処理は、図2に示すステップS70とS80との間に実行される。
【0114】
図11Aは、本変形例に係る生成部34の動作の第1例を示すフローチャートである。
【0115】
図11Aに示すように、生成部34は、ステップS70で選択した画像に対して、さらに、撮像時の撮像装置の位置又は姿勢が同一又は類似しているか否かを判定してもよい(S110)。具体的には、生成部34は、移動体10から取得したログ情報100に含まれる画像101を撮像したときの撮像装置(例えば、移動体10が備えるカメラ)の位置又は姿勢と、ステップS70で選択された画像を撮像したときの撮像装置(例えば、移動体10とは異なる移動体が備えるカメラ)の位置又は姿勢とが同一又は類似であるか否かを判定する。
【0116】
そして、生成部34は、位置又は姿勢が同一又は類似である場合(S110でYes)、当該画像を反映可能な画像(第2画像の一例)に決定する(S120)。そして、生成部34は、反映可能な画像に決定した画像が所定の数に達してか否かを判定する(S130)。生成部34は、所定の数に達した場合(S130)、ステップS90の処理に進む。また、生成部34は、同一又は類似ではない場合(ステップS110でNo)、及び、所定の数に達していない場合(S130でNo)は、ステップS110に戻り、次の画像に対してステップS110の処理を実行する。
【0117】
なお、撮像装置の位置は、GPS測位結果等により得られる当該撮像装置の位置であり、例えば、画像101を撮像したときの撮像装置の位置は、ログ情報100に含まれる撮影位置情報から取得可能である。また、撮像装置の姿勢は、例えば、撮像装置の光軸の向けられた方向であり、例えば、画像101を撮像したときの撮像装置の姿勢は、ログ情報100に含まれる撮影機器情報及び撮影位置情報から取得可能である。
【0118】
なお、ここでの類似とは、ログ情報100に含まれる位置又は姿勢に対して、ステップS70で選択された画像を撮像した撮像装置の位置又は姿勢が予め設定された所定範囲内であることを意味する。所定範囲は、予め記憶部35に格納されていてもよい。
【0119】
これにより、ステップS70で選択された画像のうち、当該画像の撮影位置情報が事前に設定された所定範囲内で類似する画像(日時は異なる)が存在する場合は、当該画像が優先的に選択される。よって、路線バス、タクシーなどの決まったコースを走行する乗用車向けの学習処理では効果的となる訓練用データを生成することが可能となる。
【0120】
次に、図11Bは、本変形例に係る生成部34の動作の第2例を示すフローチャートである。
【0121】
図11Bに示すように、生成部34は、ステップS70で選択した画像に対して、さらに、撮像時の時間帯又は天候が同一又は類似しているか否かを判定してもよい(S210)。具体的には、生成部34は、移動体10から取得したログ情報100に含まれる画像101を撮像したときの時間帯又は天候と、ステップS70で選択された画像を撮像したときの時間帯又は天候とが同一又は類似であるか否かを判定する。
【0122】
そして、生成部34は、時間帯又は天候が同一又は類似である場合(S210でYes)、ステップS120以降の処理を実行する。また、生成部34は、時間帯又は天候が同一又は類似ではない場合(ステップS210でNo)、及び、所定の数に達していない場合(S130でNo)は、ステップS210に戻り、次の画像に対してステップS210の処理を実行する。
【0123】
なお、撮像時の時間帯は、時刻等であってもよく、例えば、画像101の撮像時の時間帯は、ログ情報100に含まれる時刻情報から取得可能である。また、撮像時の天候は、例えば、気温、湿度、風の状態(風向き又は風量)、雲の状態(くもり雲、きり雲など)、降水又は降雪の有無などの少なくとも1つを含む。例えば、画像101の撮像時の天候は、ログ情報100に含まれる時刻情報、及び、撮影位置情報と、天候情報を格納したデータベースの情報とから取得可能である。
【0124】
なお、ここでの類似とは、ログ情報100に含まれる時刻又は天候に対して、ステップS70で選択された画像を撮像した撮像時の時間帯又は天候が予め設定された所定範囲内であることを意味する。天候が類似とは、例えば、天候の種類が同じ(所定範囲内の一例)であることを意味する。また、天候が類似とは、例えば、気温、湿度などが所定範囲内であることであってもよい。天候の種類とは、例えば、「快晴」、「晴れ」、「曇り」、「霧」、「雨」、「雷」などである。所定範囲は、予め記憶部35に格納されていてもよい。
【0125】
これにより、ステップS70で選択された画像のうち、当該画像の撮影時間帯又は天候が事前に設定された所定範囲内で類似する画像が存在する場合は、当該画像が優先的に選択される。よって、対象物体110を誤検知したときの環境に近い画像を優先的に選ぶことができるので、対象物体110を誤検出した要因が対象物体110の周囲の環境に依存している場合などにおいて、特に有効な訓練用データを生成することが可能となる。
【0126】
次に、図11Cは、本変形例に係る生成部34の動作の第3例を示すフローチャートである。
【0127】
図11Cに示すように、生成部34は、ステップS70で選択した画像に対して、さらに、輝度又は撮像時の撮像方向の明るさが同一又は類似しているか否かを判定してもよい(S310)。具体的には、生成部34は、移動体10から取得したログ情報100に含まれる画像101の輝度又は撮像時の撮像方向の明るさと、ステップS70で選択された画像の輝度又は当該画像の撮像時の撮像方向の明るさとが同一又は類似であるか否かを判定する。
【0128】
そして、生成部34は、輝度又は明るさが同一又は類似である場合(S310でYes)、ステップS120以降の処理を実行する。また、生成部34は、輝度又は明るさが同一又は類似ではない場合(ステップS310でNo)、及び、所定の数に達していない場合(S130でNo)は、ステップS310に戻り、次の画像に対してステップS310の処理を実行する。
【0129】
なお、撮像時の輝度は、画像上の輝度であり、例えば、画像101における撮像時の輝度は、ログ情報100に含まれる画像101から取得可能である。輝度は、例えば、切り出し画像120の輝度であるが、これに限定されず、画像101全体の輝度であってもよい。また、輝度は、統計処理により算出されてもよい。輝度は、例えば、切り出し画像120における輝度の最大値、最小値、平均値、又は、中央値であってもよい。また、撮像時の撮像方向の明るさは、例えば、画像101を撮像した撮像装置以外のセンサ(例えば、検知範囲内に入射する光の量を検知するセンサ)から取得される明るさの情報である。明るさに関する情報は、例えば、ログ情報100に含まれていてもよい。
【0130】
なお、ここでの類似とは、画像101の輝度又は画像101の撮像時の撮像方向の明るさに対して、ステップS70で選択された画像を撮像した画像又は当該画像の撮像時の撮像方向の明るさが予め設定された所定範囲内であることを意味する。所定範囲は、予め記憶部35に格納されていてもよい。
【0131】
これにより、ステップS70で選択された画像のうち、当該画像の輝度又は明るさが所定範囲内で類似する画像が存在する場合は、当該画像が優先的に選択される。よって、対象物体110を誤検知したときの環境に近い画像を優先的に選ぶことができるので、対象物体110を誤検出した要因が対象物体110の周囲の環境に依存している場合などにおいて、特に有効な訓練用データを生成することが可能となる。
【0132】
次に、図11Dは、本変形例に係る生成部34の動作の第4例を示すフローチャートである。
【0133】
図11Dに示すように、生成部34は、ステップS70で選択した画像に対して、さらに、物体データ(例えば、物体クラス)に対応する部分(例えば、対象物体110及び410)のサイズが同一又は類似しているか否かを判定してもよい(S410)。具体的には、生成部34は、移動体10から取得したログ情報100の画像101に存在する対象物体110のサイズと、ステップS70で選択された画像401に存在する対象物体410のサイズとが同一又は類似であるか否かを判定する。
【0134】
そして、生成部34は、物体データに対応する部分のサイズが同一又は類似である場合(S410でYes)、ステップS120以降の処理を実行する。また、生成部34は、物体データに対応する部分のサイズが同一又は類似ではない場合(ステップS410でNo)、及び、所定の数に達していない場合(S130でNo)は、ステップS410に戻り、次の画像に対してステップS410の処理を実行する。
【0135】
なお、対象物体110のサイズは、画像上でのサイズであり、例えば、対象物体110のサイズは、ログ情報100に含まれる画像101から取得可能である。また、対象物体410のサイズは、画像401から取得可能である。
【0136】
なお、ここでの類似とは、対象物体110に対して、ステップS70で選択された画像に存在する対象物体410のサイズが予め設定された所定範囲内であることを意味する。所定範囲は、予め記憶部35に格納されていてもよい。
【0137】
これにより、ステップS70で選択された画像のうち、対象物体410のサイズが所定範囲内で類似する画像が存在する場合は、当該画像が優先的に選択される。よって、生成部34は、違和感の少ない自然な画像を含む訓練用データを生成することが可能となる。
【0138】
次に、図11Eは、本変形例に係る生成部34の動作の第5例を示すフローチャートである。
【0139】
図11Eに示すように、生成部34は、ステップS70で選択した画像に対して、さらに、物体データに対応する部分の周囲の領域データが同一又は類似しているか否かを判定してもよい(S510)。具体的には、生成部34は、移動体10から取得したログ情報100に含まれる画像101のセグメンテーション結果300(例えば、図5を参照)と、ステップS70で選択された画像のセグメンテーション結果500(例えば、図8を参照)とが同一又は類似であるか否かを判定する。
【0140】
そして、生成部34は、物体データに対応する部分の周囲の領域データが同一又は類似である場合(S510でYes)、ステップS120以降の処理を実行する。また、生成部34は、物体データに対応する部分の周囲の領域データが同一又は類似ではない場合(ステップS510でNo)、及び、所定の数に達していない場合(S130でNo)は、ステップS510に戻り、次の画像に対してステップS510の処理を実行する。
【0141】
なお、物体データに対応する部分の周囲の領域データは、判定用検出部32がセグメンテーション結果を出力可能であれば取得可能である。また、画像101における物体データに対応する部分(対象物体110)の周囲の領域データは、例えば、「車道」、「森林」等である。また、画像401における物体データに対応する部分(対象物体410)の周囲の領域データは、例えば、「車道」、「森林」等である。
【0142】
なお、ここでの類似とは、画像101の物体データに対応する部分の周囲の領域データに対して、ステップS70で選択された画像の物体データに対応する部分の周囲の領域データが予め設定された所定範囲内であることを意味する。所定範囲は、同じカテゴリ(例えば、「車道」、「森林」など)の領域データの位置又はサイズの範囲であってもよい。所定範囲は、予め記憶部35に格納されていてもよい。
【0143】
これにより、ステップS70で選択された画像のうち、当該画像の物体データに対応する部分の周囲の領域データが所定範囲内で類似する画像が存在する場合は、当該画像が優先的に選択される。よって、対象物体110を誤検知したときの環境に近い画像を優先的に選ぶことができるので、対象物体110を誤検出した要因が対象物体110の周囲の環境に依存している場合などにおいて、特に有効な訓練用データを生成することが可能となる。
【0144】
次に、図11Fは、本変形例に係る生成部34の動作の第6例を示すフローチャートである。
【0145】
図11Fに示すように、生成部34は、ステップS70で選択した画像に対して、さらに、撮像時の撮像装置の撮像パラメータが同一又は類似しているか否かを判定してもよい(S610)。具体的には、生成部34は、移動体10から取得したログ情報100に含まれる画像101の撮像時の撮像装置の撮像パラメータと、ステップS70で選択された画像の撮像時の撮像装置の撮像パラメータとが同一又は類似であるか否かを判定する。
【0146】
そして、生成部34は、撮像時の撮像装置の撮像パラメータが同一又は類似である場合(S610でYes)、ステップS120以降の処理を実行する。また、生成部34は、撮像時の撮像装置の撮像パラメータが同一又は類似ではない場合(ステップS610でNo)、及び、所定の数に達していない場合(S130でNo)は、ステップS610に戻り、次の画像に対してステップS610の処理を実行する。
【0147】
なお、撮像時の撮像装置の撮像パラメータは、撮像装置の設定条件であり、例えば、画像101の撮像時の撮像装置の撮像パラメータは、ログ情報100に含まれる撮像パラメータから取得可能である。撮像パラメータは、例えば、ゲイン、又は、ホワイトバランスの設定であるが、これに限定されない。
【0148】
なお、ここでの類似とは、画像101の撮像時の撮像装置の撮像パラメータに対して、ステップS70で選択された画像の撮像時の撮像装置の撮像パラメータが予め設定された所定範囲内であることを意味する。所定範囲は、予め記憶部35に格納されていてもよい。
【0149】
これにより、ステップS70で選択された画像のうち、当該画像の撮像時の撮像装置の撮像パラメータが所定範囲内で類似する画像が存在する場合は、当該画像を優先的に選択される。よって、被写体(例えば、対象物体110)以外の情報に基づいて、画像101が撮影された環境に類似した訓練用データを生成することができる。また、対象物体110を誤検出した要因が対象物体110等の被写体に依存していない場合などにおいて、例えば、撮像パラメータが要因である場合において、特に有効な訓練用データを生成することが可能となる。
【0150】
なお、ステップS70とS80との間において、ステップS110、S210、S310、S410、S510及びS610のうち2以上の処理が実行されてもよい。また、上記の所定範囲は、ログ情報100に含まれる画像101に存在する対象物体110の物体クラスごとに設定されてもよい。
【0151】
なお、上記以外の処理がステップS70とS80との間において、実行されてもよい。例えば、画像601の対象物体410のはみ出し面積が小さい状態で重畳処理が可能なシーン画像が存在する場合は、優先的に選択されてもよい。
【0152】
(実施の形態2)
以下、本実施の形態に係るサーバ装置等について、図12図15を参照しながら説明する。なお、本実施の形態に係るサーバ装置の構成は、実施の形態1に係るサーバ装置30と同様であり、説明を省略する。また、実施の形態1のサーバ装置30と同様の処理においては、説明を省略又は簡略化する場合がある。
【0153】
本実施の形態では、物体検出部11が検出対象ではない物体を誤検出した場合について説明する。なお、以下において、物体検出部11は、「人物」のみを検出する検出部である例について説明する。
【0154】
図12は、本実施の形態に係るサーバ装置の動作を示すフローチャートである。
【0155】
図12に示すように、まず、サーバ装置30は、移動体10からログ情報を取得する(S1010)。具体的には、通信部31は、移動体10からログ情報を受信する。そして、通信部31は、受信したログ情報を判定用検出部32及び誤検出判定部33に出力する。
【0156】
ここで、移動体10から受信するログ情報、つまり移動体10の物体検出部11が生成するログ情報について、図13を参照しながら説明する。図13は、本実施の形態に係るサーバ装置30が取得するログ情報800の一例を示す構成図である。
【0157】
図13に示すように、ログ情報800には、ログ情報100と同様、例えば、シーン画像、撮影機器情報、時刻情報、撮影位置情報、検出情報、撮像パラメータ等が含まれる。
【0158】
シーン画像に示すように、画像801には、対象物体810及び820が存在している。また、検出情報に示すように、物体検出部11は、物体領域801aで囲まれた領域内に存在する対象物体820を、「人物」と判定している。対象物体820の物体クラスは、「標識」である。物体検出部11は、本来検出すべき対象ではない「標識」を「人物」と誤検出している。
【0159】
図12を再び参照して、ステップS1020は、図2に示すステップS20と同様の処理であり詳細な説明を省略するが、図14に示す画像900を判定用検出部32に入力することで、セグメンテーション結果(例えば、図8参照)が出力される。図14は、本実施の形態に係る判定用検出部32に入力される画像900の一例である。なお、画像900は、画像401と同じ画像であるとする。言い換えると、画像900のセグメンテーション結果は、図8に示すセグメンテーション結果500と同一である。以下において、画像900のセグメンテーション結果がセグメンテーション結果500であるとして説明する。
【0160】
誤検出判定部33は、判定用検出部32から取得した検出結果(ここでは、セグメンテーション結果500)と、ログ情報(つまり、移動体10の物体検出部11の検出結果)とに基づいて、物体検出部11の検出に誤検出があるか否かを判定する(S1030)。例えば、誤検出判定部33は、検出結果とログ情報(具体的には、物体検出結果である検出情報)との差があるか否かを判定する。本実施の形態では、対象物体820に対し、判定用検出部32の検出結果は「標識」(図8を参照)であるのに対し、移動体10の物体検出部11の検出結果は「人物」(図13を参照)である。
【0161】
このように、誤検出判定部33は、判定用検出部32の検出結果と物体検出部11の検出結果とが異なる場合に、物体検出部11の検出において、誤検出があると判定する。誤検出判定部33は、誤検出があると判定する(S1030でYes)と、ログ情報800を誤検出シーンデータとして収集する(S1040)。そして、誤検出判定部33は、収集した誤検出シーンデータを生成部34に出力する。また、誤検出判定部33は、誤検出がないと判定する(S1030でNo)と処理を終了する。
【0162】
次に、生成部34は、誤検出判定部33から取得した誤検出シーンデータに対してアノテーションの処理を行う(S1050)。本実施の形態では、物体検出部11は、「人物」のみを検出するので、物体検出部11において「標識」という検出カテゴリ(物体クラス)は存在しない。このような場合、一般的には当該領域のアノテーションは行わないが、本実施の形態では、例えば、「背景」などの「人物」ではないことを示すアノテーションを実施する。
【0163】
ステップS1060~S1090の処理は、図2に示すS60~S90の処理と同様であり詳細な説明を省略する。生成部34は、対象物体820を切り出した切り出し画像(図示しない)を生成し、生成した切り出し画像をステップS1070で選択された画像(第2画像の一例)に反映する(S1080)。これにより、生成部34は、図15に示すような画像1001を含む画像群1000を有する訓練用データを生成する(S1090)。つまり、生成部34は、上記の処理により、訓練用データを量産する。なお、図15は、訓練用データに含まれる画像群1000の一例を示す図である。
【0164】
なお、再学習処理対象の物体検出器(例えば、物体検出部11)に比べて検出カテゴリ数の多い演算規模の大きな物体検出器(例えば、判定用検出部32)の検出結果を用いることにより、さらに効率的に誤検出対策のための訓練用データを量産できる。
【0165】
(その他の実施の形態)
以上、本開示について実施の形態等に基づいて説明したが、本開示は、上記実施の形態等に限定されるものではない。
【0166】
例えば、上記実施の形態等では、移動体は、自動車(自動運転車)である例について説明したが、これに限定されない。物体検出部(物体検出装置)を備える移動体であれば、本開示は適用可能である。例えば、移動体は、飛行体(例えば、ドローンなど)又は船舶であってもよいし、周囲を撮像した画像に基づいて自律的に移動するロボット(例えば、自走式掃除機など)であってもよい。言い換えると、本開示に係るサーバ装置(訓練用データセット生成装置)は、自動運転車の分野だけではなく、ロボット及びドローンなどの異なる製品分野でも適用可能である。
【0167】
また、上記実施の形態における移動体が備える物体検出部は、検出結果としてセグメンテーション結果を出力可能であってもよい。
【0168】
また、上記実施の形態において説明された複数の処理の順序は一例である。複数の処理の順序は、変更されてもよいし、複数の処理は、並行して実行されてもよい。
【0169】
また、各実施の形態で説明した各構成要素は、ソフトウェアとして実現されても良いし、典型的には、集積回路であるLSIとして実現されてもよい。これらは、個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現しても良い。LSI製造後に、プログラムすることが可能なFPGA(Field Programmablegate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。更には、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて構成要素の集積化を行っても良い。
【0170】
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを1つの機能ブロックとして実現したり、1つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
【0171】
また、情報処理システムが備えるサーバ装置は、単一の装置として実現されてもよいし、複数の装置によって実現されてもよい。例えば、サーバ装置の各処理部は、2以上のサーバ装置で実現されてもよい。情報処理システムが複数のサーバ装置によって実現される場合、情報処理システムが備える構成要素は、複数のサーバ装置にどのように振り分けられてもよい。また、複数のサーバ装置間の通信方法は、特に限定されない。
【0172】
さらに、本開示の技術は上記プログラムであってもよいし、上記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。例えば、上記プログラム及び上記プログラムからなるデジタル信号は、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものであってもよい。また、上記プログラム及び上記プログラムからなるデジタル信号は、記録媒体に記録して移送されることにより、又はネットワーク等を経由して移送されることにより、独立した他のコンピュータシステムにより実施されてもよい。
【産業上の利用可能性】
【0173】
本開示は、学習済みモデルを再学習するための訓練用データを生成する情報処理方法等に適用可能である。
【符号の説明】
【0174】
1 情報処理システム
10 移動体
11 物体検出部
12 通信部
20 ネットワーク
30 サーバ装置
31 通信部(取得部)
32 判定用検出部
33 誤検出判定部
34 生成部
35 記憶部
100、800 ログ情報
101、200、401、601、801、900、1001 画像
101a、801a 物体領域
110、410、420、810、820 対象物体
120 切り出し画像
300、500 セグメンテーション結果
400、600、1000 画像群
700 アノテーション情報
図1
図2
図3
図4
図5
図6
図7
図8
図9A
図9B
図10
図11A
図11B
図11C
図11D
図11E
図11F
図12
図13
図14
図15