(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-12-19
(54)【発明の名称】検出装置、モデル生成装置、検出方法及びプログラム
(51)【国際特許分類】
G06T 7/00 20170101AFI20241212BHJP
【FI】
G06T7/00 Z
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024539020
(86)(22)【出願日】2022-01-05
(85)【翻訳文提出日】2024-06-26
(86)【国際出願番号】 JP2022000084
(87)【国際公開番号】W WO2023132007
(87)【国際公開日】2023-07-13
(81)【指定国・地域】
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100110928
【氏名又は名称】速水 進治
(72)【発明者】
【氏名】カーン ナグマ サムリーン
(72)【発明者】
【氏名】小倉 一峰
(72)【発明者】
【氏名】住谷 達哉
(72)【発明者】
【氏名】有吉 正行
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA06
5L096AA09
5L096BA02
5L096CA02
5L096DA02
5L096EA03
5L096EA35
5L096FA19
5L096FA69
5L096GA55
5L096HA11
5L096KA04
5L096MA07
(57)【要約】
【解決手段】第1実施形態の検出装置(100)は、位置特定部(12)と、抽出部(14)と、モデル選択部(16)と、検出部(18)と、を備える。位置特定部(12)は、3Dレーダ画像におけるサブジェクトの位置を特定する。抽出部(14)は、特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出する。モデル選択部(16)は、前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択する。検出部(18)は、選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する。
【選択図】
図2
【特許請求の範囲】
【請求項1】
3Dレーダ画像におけるサブジェクトの位置を特定する位置特定部と、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出する抽出部と、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択するモデル選択部と、
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する検出部と、
を備える検出装置。
【請求項2】
少なくとも抽出サイズが複数のサブジェクトIDのそれぞれに対応付けられているサブジェクト情報と、前記3Dレーダ画像に含まれる前記サブジェクトの前記サブジェクトIDと、に基づいて前記3Dサブ画像を抽出するために使用される前記1つの抽出サイズを決定する抽出サイズ決定部
を更に含む請求項1に記載の検出装置。
【請求項3】
前記3Dレーダ画像に含まれる前記サブジェクトの種類を識別することによって、前記1つの抽出サイズを決定するために使用される前記サブジェクトIDを決定するサブジェクトID決定部
を更に含む請求項2に記載の検出装置。
【請求項4】
前記3Dサブ画像の抽出に使用される前記1つの抽出サイズは、前記サブジェクト全体を抽出するためのサブジェクト抽出サイズである
請求項1~3のいずれか1項に記載の検出装置。
【請求項5】
前記3Dサブ画像の抽出に用いられる前記1つの抽出サイズは、前記サブジェクトの一部のみを抽出する部分抽出サイズであり、
前記基準位置は、前記サブジェクトの一部の位置を示す
請求項1~3のいずれか1項に記載の検出装置。
【請求項6】
前記検出部は、前記オブジェクトの有無を示す情報、検出された前記オブジェクトのクラス、及び前記オブジェクトの位置情報の少なくとも1つを出力する
請求項1~5のいずれか1項に記載の検出装置。
【請求項7】
3Dレーダ画像におけるサブジェクトの位置を特定する位置特定部と、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出する抽出部と、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つのモデルを選択するモデル選択部と、
前記3Dサブ画像と前記3Dサブ画像内の前記オブジェクトの位置を示す情報の組み合わせを学習データとして使用して選択された前記モデルに対して機械学習を実行する学習部と、
を備えるモデル生成装置。
【請求項8】
少なくとも抽出サイズが複数のサブジェクトIDのそれぞれに対応付けられているサブジェクト情報と、前記3Dレーダ画像に含まれる前記サブジェクトの前記サブジェクトIDと、に基づいて前記3Dサブ画像を抽出するために使用される前記1つの抽出サイズを決定する抽出サイズ決定部
を更に備える請求項7に記載のモデル生成装置。
【請求項9】
前記3Dレーダ画像に含まれる前記サブジェクトの種類を識別することによって、前記1つの抽出サイズを決定するために使用される前記サブジェクトIDを決定するサブジェクトID決定部
を更に備える請求項8に記載のモデル生成装置。
【請求項10】
前記3Dサブ画像の抽出に使用される前記1つの抽出サイズは、前記サブジェクト全体を抽出するためのサブジェクト抽出サイズである
請求項7~9のいずれか1項に記載のモデル生成装置。
【請求項11】
前記3Dサブ画像の抽出に用いられる前記1つの抽出サイズは、前記サブジェクトの一部のみを抽出する部分抽出サイズであり、
前記基準位置は、前記サブジェクトの一部の位置を示す
請求項7~9のいずれか1項に記載の検出装置。
【請求項12】
3Dレーダ画像におけるサブジェクトの位置を特定し、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出し、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択し
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する
ことを含む、コンピュータによって行われる検出方法。
【請求項13】
少なくとも抽出サイズが複数のサブジェクトIDのそれぞれに対応付けられているサブジェクト情報と、前記3Dレーダ画像に含まれる前記サブジェクトの前記サブジェクトIDと、に基づいて前記3Dサブ画像を抽出するために使用される前記1つの抽出サイズを決定する
ことを更に含む請求項12に記載の検出方法。
【請求項14】
前記3Dレーダ画像に含まれる前記サブジェクトの種類を識別することによって、前記1つの抽出サイズを決定するために使用される前記サブジェクトIDを決定する
ことを更に含む請求項13に記載の検出方法。
【請求項15】
前記3Dサブ画像の抽出に使用される前記1つの抽出サイズは、前記サブジェクト全体を抽出するためのサブジェクト抽出サイズである
請求項12~14のいずれか1項に記載の検出方法。
【請求項16】
前記3Dサブ画像の抽出に用いられる前記1つの抽出サイズは、前記サブジェクトの一部のみを抽出する部分抽出サイズであり、
前記基準位置は、前記サブジェクトの一部の位置を示す
請求項12~14のいずれか1項に記載の検出方法。
【請求項17】
前記オブジェクトの有無を示す情報、検出された前記オブジェクトのクラス、及び前記オブジェクトの位置情報の少なくとも1つを出力する
ことを更に含む請求項12~16のいずれか1項に記載の検出方法。
【請求項18】
3Dレーダ画像におけるサブジェクトの位置を特定し、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出し、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択し、
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する
ことを含む検出方法をコンピュータに実行させるプログラム。
【請求項19】
前記検出方法は、更に、少なくとも抽出サイズが複数のサブジェクトIDのそれぞれに対応付けられているサブジェクト情報と、前記3Dレーダ画像に含まれる前記サブジェクトの前記サブジェクトIDと、に基づいて前記3Dサブ画像を抽出するために使用される前記1つの抽出サイズを決定することを含む
請求項18に記載のプログラム。
【請求項20】
前記検出方法は、更に、前記3Dレーダ画像に含まれる前記サブジェクトの種類を識別することによって、前記1つの抽出サイズを決定するために使用される前記サブジェクトIDを決定することを含む
請求項19に記載のプログラム。
【請求項21】
前記3Dサブ画像の抽出に使用される前記1つの抽出サイズは、前記サブジェクト全体を抽出するためのサブジェクト抽出サイズである
請求項18~20のいずれか1項に記載のプログラム。
【請求項22】
前記3Dサブ画像の抽出に用いられる前記1つの抽出サイズは、前記サブジェクトの一部のみを抽出する部分抽出サイズであり、
前記基準位置は、前記サブジェクトの一部の位置を示す
請求項18~20のいずれか1項に記載のプログラム。
【請求項23】
前記検出方法は、更に、前記オブジェクトの有無を示す情報、検出された前記オブジェクトのクラス、及び前記オブジェクトの位置情報の少なくとも1つを出力することを含む
請求項18~22のいずれか1項に記載のプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、レーダ画像のオブジェクト検出システムに関し、移動するターゲットオブジェクトによる散乱電波を測定し、スキャン中のターゲットの3Dレーダ画像を生成するイメージングが実行される。前記3D画像は、隠れた危険物の有無を検出、つまりチェックするために深層学習モジュールによって使用される。
【背景技術】
【0002】
従来のレーダ画像のオブジェクト検出システムの一例が非特許文献1に記載されている。この従来のオブジェクト検出システムは、レーダ信号測定手段と、画像生成手段と、オブジェクト検知手段とを備えている。具体的には、測定手段は、レーダ波を送信し、反射散乱波を受信するレーダアンテナを含む。また、生成された3Dレーダ画像は2Dに投影され、深層学習モジュールによってレーダ画像内の対象オブジェクトの有無を検出するために利用される。非特許文献1では、レーダ画像によるオブジェクト検出システムを隠蔽兵器の検知に利用している。
【0003】
特許文献1には、監視オブジェクトの種類に応じて、監視オブジェクトの画像部分を抽出するための画像処理領域を設定することが記載されている。
【0004】
特許文献2には、事前検査の結果に基づく画像の一部を対象人物が禁止物を所持しているか否かを判定するために利用することが開示されている。また、特許文献2には、透明画像に映るオブジェクトの形状に基づく判定方法の一例として、機械学習の利用が考えられることが記載されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】国際公開第2008/139529号
【特許文献2】国際公開第2021/166150号
【非特許文献】
【0006】
【非特許文献1】L. Carrer, "Concealed Weapon Detection: A microwave imaging approach", Master of Science Thesis, Delft University of Technology, 2012
【発明の概要】
【発明が解決しようとする課題】
【0007】
しかしながら、非特許文献1の技術では、オブジェクトの検出に時間がかかる。特許文献1の技術は、機械学習による学習済みモデルの利用には適用できなかった。また、特許文献2には、学習済みモデルを用いて判定部の性能を低下させることなく処理時間を短縮する技術については開示されていない。
【0008】
本発明の目的の一例は、学習済みモデルを検出に使用する場合に、検出精度を損なうことなくオブジェクト検出の処理時間を短縮することである。
【課題を解決するための手段】
【0009】
本発明は、
3Dレーダ画像におけるサブジェクトの位置を特定する位置特定部と、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出する抽出部と、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択するモデル選択部と、
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する検出部と、
を備える検出装置
を提供する。
【0010】
本発明は、
3Dレーダ画像におけるサブジェクトの位置を特定する位置特定部と、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出する抽出部と、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つのモデルを選択するモデル選択部と、
前記3Dサブ画像と前記3Dサブ画像内の前記オブジェクトの位置を示す情報の組み合わせを学習データとして使用して選択された前記モデルに対して機械学習を実行する学習部と、
を備えるモデル生成装置
を提供する。
【0011】
本発明は、
3Dレーダ画像におけるサブジェクトの位置を特定し、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出し、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択し、
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する
ことを含む、コンピュータによって行われる検出方法
を提供する。
【0012】
本発明は、
3Dレーダ画像におけるサブジェクトの位置を特定し、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出し、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択し
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する
ことを含む検出方法をコンピュータに実行させるプログラム
を提供する。
【発明の効果】
【0013】
本発明の目的は、学習済みモデルを検出に使用する場合に、検出精度を損なうことなくオブジェクト検出の処理時間を短縮することである。
【図面の簡単な説明】
【0014】
【
図1】
図1は、レーダ画像計測システムのセットアップを説明するとともに、レーダに対するターゲットの相対位置を説明する図である。
【
図2】
図2は、第1実施形態に係る検出装置の機能ベースの構成を例示するブロック図である。
【
図3】
図3は、第1実施形態に係る検出装置を実現するコンピュータのハードウェア構成を例示するブロック図である。
【
図4】
図4は、第1実施形態の検出装置による処理の流れを例示するフローチャートである。
【
図5】
図5は、第1実施形態に係る検出装置の機能ベースの構成例を示すブロック図である。
【
図6】
図6は、第1実施形態に係る検出装置のサブジェクトDBのテーブル例を示す図である。
【
図7】
図7は、第1実施形態に係る検出装置のネットワークアーキテクチャDBの構成例を示す図である。
【
図8】
図8は、第1例のサブジェクトファインダを備えた検出装置の機能ベースの構成を例示するブロック図である。
【
図9】
図9は、第1実施形態に係る検出装置の動作例を示す図的表現である。
【
図10】
図10は、実施例2のサブジェクトファインダを備えた検出装置の機能ベースの構成を例示するブロック図である。
【
図11】
図11は、実施例3のサブジェクトファインダを備えた検出装置の機能ベースの構成を例示するブロック図である。
【
図12】
図12は、第1実施形態に係る検出装置のサブジェクトDBのテーブルの他の例を示す図である。
【
図13】
図13は、第1実施形態に係る検出装置の動作を例示するフローチャートである。
【
図14】
図14は、第2実施形態に係るモデル生成装置の機能ベースの構成を例示するブロック図である。
【
図15】
図15は、第2実施形態に係るモデル生成装置の処理の流れを例示するフローチャートである。
【
図16】
図16は、第2実施形態に係るモデル生成装置の機能ベースの構成例を示すブロック図である。
【
図17】
図17は、第2実施形態に係るモデル生成装置の動作を例示するフローチャートである。
【
図18】
図18は、第3実施形態に係る検出装置の機能ベースの構成例を示すブロック図である。
【
図19】
図19は、実施例3に係る検出装置の動作を例示するフローチャートである。
【発明を実施するための形態】
【0015】
以下、本開示の実施形態について、図面を参照して詳細に説明する。尚、説明の明確化のため、各図面において同一の要素には同一の符号を付し、重複する説明は省略する。
【0016】
第1実施形態
【0017】
<概略>
まず、
図1を参照して、レーダ画像用のオブジェクト検出システム900の構成について説明する。
【0018】
レーダ画像用のオブジェクト検出システム900は次のように動作する。まず、レーダ信号の測定が行われる。測定ステップでは、レーダアンテナが特定の順序でレーダ信号を1つずつ送信し、その反射波がアンテナ受信機で受信される。測定されたレーダ信号は、レーダアンテナ情報を利用して画像生成手段により3Dレーダ画像を作成するために使用される。
【0019】
このシステムの具体的な目的は、人物(ターゲット)90が隠蔽された危険物を所持しているか否かを確認することである。システム900は、ターゲット90がスクリーニングエリア(エリア)96内を歩いているとき、サイドパネル94に設置された固定アンテナ(レーダ92)によってターゲット90を測定する。アンテナ内の送信機が1つずつ信号を送信し、受信した散乱信号が取得される。システム900はまた、レーダ信号と同時にカメラ(カメラ98)を使用してカメラ画像を取得する。しかし、本実施形態に係るシステム900はカメラを含まなくてもよい。レーダ信号はアンテナ情報を使用して処理され、本来的に3Dのレーダ画像が生成される。隠された危険物がその人(ターゲット90)に所持されている場合、それはレーダ画像に表示される。このように、レーダ画像は隠された危険物の検出に使用される。レーダ画像から危険物の存在を検出するには、機械学習による学習済みモデルを利用する。学習済みモデルは、深層学習モジュールに含まれていてもよい。理解できるように、ターゲット90がまだ近くにある間に隠蔽されたオブジェクトの有無情報を取得することを期待しているため、セットアップ全体がリアルタイムで機能することが期待される。しかし、一般に学習済みモデルによる処理がボトルネックとなる。学習済みモデルへの入力画像は本来的に3Dであるため、3Dの計算複雑さの増大により処理時間が長くなることが予想される。処理時間を短縮する既存の方法は、背景技術で示唆されているように、3D画像をスケーリング又はダウンサンプリングするか、3D画像を2Dに投影するのみで、3D画像をより小さいサイズにサイズ変更する。しかし、これは情報の損失により学習済みモデルのパフォーマンスにも影響を与える可能性があるため、これは良い方法ではない。
【0020】
前述したように、学習済みモデルを用いた検出部はリアルタイムに機能することが求められる。なぜなら、我々のターゲットは好ましい形態として移動しており、ターゲット90がまだ検出システム900の近くにある間に危険なオブジェクトを検出することを目指しているからである。前述したように、学習済みモデルへの入力画像は本来的に3Dであり、3Dの計算の複雑さによりリアルタイムで予測を取得することは困難である。本実施形態の検出装置100によれば、レーダ画像に対する性能を損なうことなく、学習済みモデルの処理時間を短縮することができる。これは、元の3D画像の代わりに、抽出されたサブジェクトの3Dレーダ画像(3Dサブ画像)を学習済みモデルへの入力として使用することによって実現される。抽出されたサブジェクトの3D画像は、元の3Dレーダ画像と比較してサイズは縮小されているが、情報は同じである。学習済みモデルの処理時間は、特に3Dの場合、入力サイズの影響を受けやすいため、処理時間が短縮される。特に、本開示は、性能に影響を与えることなく入力画像サイズを縮小することにより学習済みモデルの処理を軽減する3Dレーダ画像用のサブジェクト抽出システムに関する。レーダ画像用のオブジェクト検出システム900は、リアルタイムで機能できることが好ましい。
【0021】
なお、サブジェクトとはターゲットを指し、オブジェクトとは有無情報を知りたい対象となるオブジェクトを指す。オブジェクトはサブジェクトの一部である場合もあるが、同じである必要はない。
【0022】
<機能ベースの構成の例>
図2は、第1実施形態に係る検出装置100の機能ベースの構成の一例を示す図である。第1実施形態の検出装置100は、位置特定部12、抽出部14、モデル選択部16、検出部18を備える。位置特定部12は、3Dレーダ画像におけるサブジェクトの位置を特定する。抽出部14は、特定されたサブジェクトの位置に基づく基準位置と、サブジェクトの種類ごとに定められた抽出サイズの1つとを用いて、3Dレーダ画像から3Dサブ画像を抽出する。モデル選択部16は、3Dサブ画像のサイズ及び3Dレーダ画像に含まれるサブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも学習済みモデルを選択する。検出部18は、選択された学習済みモデルを用いて3Dサブ画像内のオブジェクトを検出する。以下に詳しく説明する。
【0023】
本実施形態の検出装置100は、オブジェクト検出システム900に含まれてもよい。オブジェクトとしては、例えば、ターゲット90が所持する危険物(ナイフ、銃等)が挙げられる。
【0024】
まず、
図1を用いてレーダ画像の取得について説明する。人物(ターゲット90)は、サイドパネル94に設置された固定レーダアンテナ(レーダ92)の前でスクリーニングエリア96を歩いているものとする。スクリーニングエリアにいるとき、ターゲットはカメラ98の視野内にもある可能性があり、カメラ98はレーダセンサーと同期した画像をキャプチャする。測定された散乱レーダ信号は画像化のために送信される。生成されたレーダ画像は本来的に3Dである。3Dレーダ画像は、測定された散乱レーダ信号から生成される。3Dレーダ画像は、検出装置100内で生成されてもよいし、他の装置で生成されてもよい。生成された3Dレーダ画像はレーダ画像データベース(DB)に保存される。レーダ画像DBは、1つ以上の記憶装置によって実現される。レーダ画像DBは、検出装置100に含まれてもよいし、含まれなくてもよい。
【0025】
生成されたレーダ画像は、ターゲットが危険物を所持しているかどうかを検出するために使用される。検出部18は、学習済みモデルを用いて3D画像からオブジェクトを検出する。学習済みモデルには、深層学習ネットワークが含まれる場合がある。深層学習ネットワークから短時間で、好ましくはリアルタイムで予測を取得するために、抽出部は、オブジェクトの存在を見つけるために入力として与えられるより小さいサイズの画像を抽出する。検出装置100は、サブジェクト抽出装置とも呼ばれる。
【0026】
ここで、サブジェクトとは画像を抽出する対象の全体又は一部を指し、オブジェクトとは例えば危険物を指す。上記のサブジェクトとは、画像のサブジェクト、つまり画像内で最大の面積/体積を占めるもので、例としては人間などの生体や車などの移動体などが挙げられる。一般性を失うことなく、複数のサブジェクトが存在する可能性がある。
【0027】
本実施形態では、サブジェクトのアイデンティティは事前情報として検出装置100に既知であると仮定する。例えば、3Dレーダ画像は、サブジェクトIDと対応付けられてレーダ画像DBに格納される。サブジェクトIDは、例えば、大人、子供、高齢者などのサブジェクトの種類を示す。また、サブジェクトIDは、車両の種類や車種を示すものであってもよい。各画像のサブジェクトIDは、ターゲット90の特徴を検出するセンサやターゲット90を撮影するカメラ等の他の手段により特定され、レーダ画像DBに格納される。
【0028】
<ハードウェア構成例>
幾つかの実施形態において、検出装置100に含まれる各機能部は、少なくとも1つのハードウェアコンポーネントによって実現され、各ハードウェアコンポーネントは、1つ以上の機能部を実現してもよい。幾つかの実施形態では、各機能部は少なくとも1つのソフトウェアコンポーネントで実装されてもよい。幾つかの実施形態では、各機能部は、ハードウェアコンポーネントとソフトウェアコンポーネントの組み合わせで実装されてもよい。
【0029】
検出装置100は、検出装置100を実現するために製造された専用コンピュータで実現されてもよいし、パーソナルコンピュータ(PC)、サーバマシン、モバイル機器などの汎用コンピュータで実現されてもよい。
【0030】
図3は、第1実施形態の検出装置100を実現するコンピュータ1000のハードウェア構成の一例を示すブロック図である
図3において、コンピュータ1000は、バス1020、プロセッサ1040、メモリ1060、記憶装置1080、入出力(I/O)インターフェース1100、及びネットワークインターフェース1120を含む。
【0031】
バス1020は、プロセッサ1040、メモリ1060、記憶装置1080が相互にデータを送受信するためのデータ伝送路である。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)などのプロセッサである。メモリ1060は、RAM(Random Access Memory)等の一次記憶装置である。記憶媒体1080は、ハードディスクドライブ、SSD(Solid State Drive)、ROM(Read Only Memory)等の二次記憶装置である。
【0032】
I/Oインターフェースは、コンピュータ1000とキーボード、マウス、表示装置などの周辺機器との間のインターフェースである。ネットワークインターフェースは、コンピュータ1000が他のコンピュータと通信するための通信回線と、コンピュータ1000との間のインターフェースである。
【0033】
記憶装置1080は、検出装置100の各機能部を実現するプログラムモジュールを記憶してもよい。CPU1040が各プログラムモジュールを実行することにより、検出装置100の各機能部が実現される。
【0034】
<処理の流れ>
図4は、第1実施形態の検出装置100の処理手順を例示するフローチャートである。
【0035】
第1実施形態に係る検出方法は、コンピュータによって実行される。この検出方法は、位置特定ステップ(S12)、抽出ステップ(S14)、モデル選択ステップ(S16)、検出ステップ(S18)を含む。位置特定ステップでは、位置特定部12が3Dレーダ画像におけるサブジェクトの位置を特定する。抽出ステップでは、抽出部14が、特定されたサブジェクトの位置に基づく基準位置と、サブジェクトの種類ごとに定められた抽出サイズの1つとを用いて、3Dレーダ画像から3Dサブ画像を抽出する。モデル選択ステップにおいて、モデル選択部16は、3Dサブ画像のサイズ及び3Dレーダ画像に含まれるサブジェクトの種類の少なくとも一方に基づいて、少なくとも学習済みモデルを選択する。検出ステップにおいて、検出部18は、選択された学習済みモデルを用いて3Dサブ画像内のオブジェクトを検出する。
【0036】
<検出装置100の構成例>
第1実施形態に係るレーダ画像検出装置100の構成例について、
図5のブロック図を用いて詳細に説明する。
【0037】
図5に示すように、第1実施形態に係る検出装置100の構成例は、レーダ画像DB記憶部101、サブジェクトファインダ102、画像抽出部103、検出部104、サブジェクトDB記憶部105、アプローチ選択部106、ネットワーク選択部107、ネットワークアーキテクチャDB記憶部117を備える。
【0038】
サブジェクトファインダ102は、位置特定部12として機能する。画像抽出部103は、抽出部14として機能する。ネットワーク選択部107は、モデル選択部16として機能する。検出部104は、検出部18として機能する。
【0039】
レーダ画像DB記憶部101は、検出装置100に含まれていてもよいし、含まれていてもよい。サブジェクトDB記憶部105は、検出装置100に含まれてもよいし、含まれなくてもよい。ネットワークアーキテクチャDB記憶部117は、検出装置100に含まれてもよいし、含まれなくてもよい。
【0040】
この図の例では、検出装置100は、抽出サイズ特定部を更に備える。抽出サイズ特定部は、少なくとも抽出サイズが複数のサブジェクトIDのそれぞれに対応付けられているサブジェクト情報と、3Dレーダ画像に含まれるサブジェクトのサブジェクトIDと、に基づいて、3Dサブ画像の抽出に使用する抽出サイズを特定する。
図5のアプローチ選択部106は、抽出サイズ特定部として機能する。
【0041】
次に、検出装置100の動作について説明する。この操作は深層学習ネットワークの予測フェーズを説明していることに注意されたい。しかし、一般性を失うことなく、同じことを学習フェーズに拡張することができる。動作中は、上述のように3Dレーダ画像が計測され、レーダ画像DB記憶部101に記憶され、そこから1枚ずつ読み出されるものとする。次に、3Dレーダ画像はサブジェクトファインダ102に送られる。サブジェクトファインダ102は、サブジェクト(単一又は複数)の位置を特定し、サブジェクトの位置を3Dレーダ画像とともに画像抽出部103に渡す。サブジェクトファインダ102は、アプローチ選択部106からサブジェクトを見つける手段を受け取る。また、アプローチ選択部106は、抽出された画像サイズ(抽出サイズ)を画像抽出部103に出力する。画像抽出部103は、サブジェクト位置情報を用いてアプローチ選択部106から出力されたサイズの3Dサブ画像を抽出し、検出部104に渡す。検出部104は、オブジェクトの検出に深層学習モジュールを使用することができる。アプローチ選択部106はまた、抽出された画像サイズをネットワーク選択部107に渡し、ネットワーク選択部107は、抽出された画像サイズ及び/又はサブジェクトIDに基づいてDBから適切な深層学習ネットワークアーキテクチャを選択する。選択されたネットワークアーキテクチャは、検出部104への入力として与えられ、検出部104は、オブジェクトを検出するために、より小さいサイズの抽出画像(3Dサブ画像)も受け取る。検出部104は、3Dサブ画像をネットワークアーキテクチャ(学習済みモデル)に入力し、ネットワークアーキテクチャ(学習済みモデル)の出力として予測結果を取得する。検出部104の出力は、オブジェクトの有無情報(場合によっては位置も)を知らせる。
【0042】
検出部18は、オブジェクトの有無を示す情報、検出されたオブジェクトのクラス、及びオブジェクトの位置情報の少なくとも1つを出力してもよい。この構成において、検出部104から期待される出力は、注目オブジェクト(以下、「オブジェクト」と呼ぶ)の有無情報であり、そして、このオブジェクトはサブジェクトの一部であってもよいが、サブジェクトと同じである必要はない。オブジェクトの有無情報は、画像レベルのクラス(分類器)又はピクセルレベルのクラス(セグメンテーション)の形式をとることができる。更に、オブジェクトの位置を出力として与えることもできる。
【0043】
レーダ画像DB記憶部101は、レーダ画像を提供する。レーダ画像DB記憶部101には、計測、生成された3Dレーダ画像が格納される。これは、3Dレーダ画像をサブジェクトファインダ102への入力として提供することにより、データソースとして機能する。
【0044】
サブジェクトDB記憶部105には、複数のサブジェクトサイズが予め記憶されている。各サイズはサブジェクトIDに関連付けられている。本構成例では、サブジェクトDB記憶部105は、サブジェクトの各種情報(サイズ等)をサブジェクトIDに対応付けて表形式で記憶する。サブジェクトDB記憶部105は、主キーとしてIDを使用してサブジェクトの情報を調べることができる。サブジェクトの情報の一例は、
図6のサブジェクトDBのテーブル例に示すように、サブジェクトのサイズである。ここで、サブジェクトDBにおけるサブジェクトサイズとは、3Dレーダ画像において想定されるサブジェクトのサイズである。
【0045】
また、サブジェクトDB記憶部105には、サブジェクト位置を求めるための複数の手段が予め記憶されている。サブジェクトの位置を見つけるための各手段は、サブジェクトIDに関連付けられている。本構成例では、アプローチ選択部106は、サブジェクトDB記憶部105から取得したサブジェクトの情報に基づいて、サブジェクトの位置を求めるアプローチを決定する。アプローチ選択部106は、サブジェクトの位置を見つけるための手段をサブジェクトファインダ102に出力する。また、アプローチ選択部106は、サブジェクト情報に基づいて、抽出された画像サイズとサブジェクトIDを画像抽出部103とネットワーク選択部107に出力する。サブジェクトの位置を見つける手段は、サブジェクトファインダ102の設計に依存し、手段の幾つかの例には、投影軸、位置軸(位置が見つけられる軸)などが含まれてもよい。アプローチ選択部106の幾つかの構成例を、サブジェクトファインダ102の構成例とともに説明する。
【0046】
3Dレーダ画像がサブジェクトIDと対応付けられてレーダ画像DB記憶部101に記憶されている場合、アプローチ選択部106は、処理対象の3Dレーダ画像のサブジェクトIDを取得する。アプローチ選択部106は、取得したサブジェクトIDに基づいて、サブジェクトDB記憶部105から、3Dレーダ画像を適用するサブジェクトのサイズとサブジェクト位置を求める手段を読み出す。
【0047】
ネットワークアーキテクチャDB記憶部117には、複数の学習済みモデルが予め記憶されている。各学習済みモデルは、3Dサブ画像のサイズ及びサブジェクトIDの少なくとも1つに関連付けられている。本構成例では、ネットワークアーキテクチャDB記憶部117は、アーキテクチャを提供する(様々な画像サイズ、サブジェクトの種類などに対して)。ネットワークアーキテクチャDB記憶部117は、様々な画像サイズ、サブジェクトの種類などに対する様々な学習されたネットワークアーキテクチャを含む。ネットワークアーキテクチャは、分類、オブジェクト検出、及び/又はセグメンテーションタスク用に事前学習されており、入力画像サイズ及び/又はサブジェクトIDによって区別できる。ネットワークアーキテクチャDB記憶部117では、例えば、抽出された画像サイズ及び/又はサブジェクトIDなどのメタデータを使用することによって、ネットワークアーキテクチャについて調べることができる。ネットワークアーキテクチャDB記憶部117に記憶されるネットワークアーキテクチャDBの構成例を
図7に示し、
図7において、異なるネットワークアーキテクチャはメタデータ情報によって区別できる。
【0048】
ネットワーク選択部107は、アプローチ選択部106から受け取った抽出された画像サイズ及び/又はサブジェクトIDに基づいて、検出部104のためのネットワークアーキテクチャを選択する。ネットワークアーキテクチャは、抽出された画像サイズ及び/又はサブジェクトIDを検索キーとして使用して、ネットワークアーキテクチャDB記憶部117から選択される。ネットワーク選択部107は、ネットワークアーキテクチャを検出部104に出力する。
【0049】
学習された画像サイズとは異なる画像サイズにネットワークアーキテクチャを使用すると、パフォーマンスの低下につながることが理解されている。ここでは、前述の処理時間とパフォーマンス関連の理由から、画像はサイズ変更せずにネットワークアーキテクチャへの入力として与えられると想定されている。従って、抽出された画像サイズの変化に応じて、ネットワークアーキテクチャへの入力画像サイズが変化し、続いてネットワークアーキテクチャを変更する必要がある。更に、異なる種類のサブジェクトが存在する場合、各サブジェクトの種類のオブジェクトを検出するには専用のネットワークアーキテクチャが必要になる。この与えられた理由は、ネットワーク選択部107の必要性を示す。
【0050】
検出部104は、ネットワーク選択部107からの選択されたネットワークアーキテクチャと、画像抽出部103からの抽出された3Dサブ画像に基づいて、レーダ画像内のオブジェクトの有無情報を取得する。検出部104は、オブジェクトの有無情報を出力する。前述したように、オブジェクトは、前述のサブジェクトの一部である場合があるが、同じでなくてもよい。また、前記深層学習モジュールは、分類器(画像ごとに単一/複数のクラスを出力)、オブジェクト検出器(画像ごとにオブジェクトのクラスと位置を出力)、又はセグメンテーションネットワーク(入力画像と同じサイズのピクセルレベルのクラスマップを出力)であることができる。検出部104は、オブジェクトの有無情報を画像レベルのクラス(分類)又はピクセルレベルのクラス(セグメンテーション)の形式で出力することができる。有無情報に加え、オブジェクトの位置も出力できる。
【0051】
画像抽出部103は、サブジェクトファインダ102から受け取ったサブジェクト位置と、アプローチ選択部106から受け取った抽出された画像サイズとに基づいて、サブジェクトの3Dレーダ画像を抽出する。画像抽出部103は、サブジェクトファインダ102から元の3Dレーダ画像を受け取り、抽出を行う。画像抽出部103は、受信したサブジェクト位置を用いて元の3Dレーダ画像から画像を抽出する。画像抽出部103は、抽出した画像(すなわち、3Dサブ画像)を検出部104に出力する。前記サブジェクト位置は、例えば、サブジェクトの中心位置を示してもよいし、隅のいずれかを示してもよい。抽出された3Dサブ画像は、3Dレーダ画像の一部を単純に切り取った画像であってもよい。各3Dサブ画像には、サブジェクトの一部のみ、又はサブジェクトの全体が含まれる。画像抽出部103は、1つの3Dレーダ画像から複数の3Dサブ画像を生成してもよい。抽出された3Dサブ画像と3Dレーダ画像は、画質、解像度等が同じである。3Dレーダ画像における切り出し位置は、サブジェクトファインダ102から受信したサブジェクト位置に基づいて特定される。3Dサブ画像のサイズは、アプローチ選択部106から受け取った抽出サイズに基づいて特定される。
【0052】
サブジェクトファインダ102は、アプローチ選択部106から受け取ったサブジェクトファインド手段と、レーダ画像DB記憶部101から読み出した元の3Dレーダ画像とに基づいて、3Dレーダ画像中のサブジェクトの位置を求める。サブジェクトファインダ102は、サブジェクト位置を画像抽出部103に出力する。また、サブジェクトファインダ102は、元のレーダ画像を画像抽出部103に出力する。
【0053】
<サブジェクトファインダ102の構成>
次に、サブジェクトファインダ102及びアプローチ選択部106の詳細を、幾つかの構成例を用いて明らかにする。
【0054】
<<サブジェクトファインダ102の第1例>>
本例において、3Dサブ画像の抽出に用いられる抽出サイズは、サブジェクト全体を抽出するためのサブジェクト抽出サイズである。基準位置は、サブジェクトの位置を示す。
【0055】
サブジェクトファインダ102が、2Dプロジェクタ102aとサブジェクト位置ファインダ102bの2つのサブブロックからなる、サブジェクトファインダ102の第1構成例を
図8を参照して説明する。この手法は単一のサブジェクトを想定して説明されているが、同じことを複数のサブジェクトに拡張することができる。この例では、まず2D画像が投影によって生成され、それが処理されてサブジェクトの位置が特定される。2Dプロジェクタ102aは、アプローチ選択部106からの投影軸(サブジェクトを発見する前記手段)に基づいて、投影された2D画像をサブジェクト位置ファインダ102bに出力する。2D画像は、3D画像を前記投影軸に沿って投影することによって生成される。投影は、最大投影、エネルギー投影、又はその他のものにすることができる。サブジェクト位置ファインダ102bは、2Dプロジェクタ102aからの2D投影画像と、アプローチ選択部106からの位置を求める軸(サブジェクトを見つける前記手段)とに基づいて、2D画像におけるサブジェクトの位置を出力する。位置は、例えば、強度が最大である点を見つけるなど、様々な方法で見つけることができる。サブジェクトの位置は、サブジェクトファインダ102から画像抽出部103への出力として与えられる。レーダ画像全体から抽出レーダ画像を取得する全体の操作例を
図9に図示する。
【0056】
<<サブジェクトファインダ102の第2例>>
サブジェクトファインダ102は、例えば、フィルタリング、シャープ化などの幾つかの画像処理アルゴリズムに基づいて処理された2D画像を出力する画像処理部102eから構成される場合がある。画像処理部102eの目的は、例えば、クラスタリング、ピーク検出などの、サブジェクト位置ファインダブロックの動作を支援することである。それを
図10に示す。
【0057】
<<サブジェクトファインダ102の第3例>>
本例では、3Dサブ画像の抽出に用いられる抽出サイズは、サブジェクトの一部のみを抽出する部分抽出サイズである。また、基準位置は、サブジェクトの一部の位置を示す。
【0058】
サブジェクトファインダ102がサブジェクトの(事前に知られている)部分を発見することになっている、第1例の特殊なケースである、サブジェクトファインダ102のこの構成例を
図11を参照して説明する。なお、2Dプロジェクタ102a及びサブジェクト位置ファインダ102bの構成は、上記第1例で説明したものと同様であるため、説明を省略する。ここでの追加ブロックは、部位ファインダ102cが、サブジェクト位置ファインダ102bから受け取ったサブジェクト位置とアプローチ選択部106から受け取ったサブジェクトに対するサブジェクト部位の相対位置とに基づいて、サブジェクト部位の位置を画像抽出部103に出力する。部位ファインダ102cは、サブジェクトの(大域(global))位置情報と、単純な座標数学を用いた、サブジェクトに対する部位の相対位置とを有する場合、サブジェクト部位の(大域(global))位置を出力することができる。この構成例では、サブジェクトDB記憶部105には、サブジェクト部位の相対位置とサブジェクト部位の大きさとの組み合わせが予め複数記憶されている。各組み合わせはサブジェクトIDに関連付けられる。更に、アプローチ選択部106は、サブジェクトIDを用いてサブジェクトDB記憶部105からサブジェクトに対するサブジェクト部位の相対位置とサブジェクト部位のサイズを読み出す。サブジェクトDB記憶部105で使用されるテーブル構成例を
図12に示す。
【0059】
この構成例では、画像抽出部は、部位ファインダ102cから受け取ったサブジェクト部位の位置と、アプローチ選択部106から受け取った各部位の抽出画像サイズに基づいて、サブジェクトの部位の抽出画像(すなわち、3Dサブ画像)を検出部104に出力する。アプローチ選択部106は、サブジェクトIDに基づいてサブジェクトDB記憶部105からサブジェクト部位の相対位置とサブジェクト部位のサイズを読み出す。検出部104は、ネットワーク選択部107により選択されたサブジェクト部位ごとのネットワーク(同一でも異なっていてもよい)を更に受け取る。そして、検出部104は、各サブジェクト部位の画像を個別に解析することにより、抽出された画像中のオブジェクトの有無情報を出力する。
【0060】
次に、
図13に示すフローチャートを参照して、第1実施形態に係るレーダ画像の検出装置100の動作モードにおける動作の一例について説明する。サブジェクト情報(サブジェクトIDに紐付けられたサイズ)は、サブジェクトDB記憶部105に格納されている。更に、様々なネットワークアーキテクチャは、異なる画像サイズに対して事前学習され、ネットワークアーキテクチャDB記憶部117に格納されている。
【0061】
検出装置100が起動すると、ステップS101において、レーダ画像DB記憶部101から3Dレーダ画像が読み込まれる。ステップS105では、サブジェクトDB記憶部105からサブジェクト情報が読み出される。次に、アプローチ選択部106によりアプローチ、すなわちサブジェクトの位置を特定するためにどのような手段が必要かが特定され、画像抽出部103に出力として与えられる(ステップS106)。ネットワーク選択部107によりネットワークアーキテクチャDB記憶部117からネットワークアーキテクチャが選択され、検出部104に出力される(ステップS107)。サブジェクトファインダ102はサブジェクト位置を見つけ、画像抽出部103に出力する(ステップS102)。画像抽出部103は、サブジェクト位置と抽出された画像サイズを用いて画像を抽出し、抽出した画像を検出部104に出力する(ステップS103)。検出部104は、分類又はセグメンテーションを使用して、抽出された3Dサブ画像内のオブジェクトの有無情報を予測する(ステップS104)。
【0062】
以上説明したように、本開示の第1実施形態に係る検出装置100は、サブジェクトの位置情報を利用して、より小さいサイズの画像を抽出する。これにより、学習済みモデル、すなわち検出部におけるオブジェクトの有無情報の予測の処理時間が短縮され、所望のリアルタイム動作が可能となる。画像サイズの縮小による学習済みモデルの処理時間の短縮は、(画像処理操作を実行する)サブジェクトファインダ102による処理時間のわずかな増加に比べてはるかに大きいことが理解できる。
【0063】
第2実施形態
【0064】
図14は、第2実施形態に係るモデル生成装置200の機能ベースの構成例を示す図である。モデル生成装置200は、位置特定部22と、抽出部24と、モデル選択部26と、学習部28とを備える。位置特定部22は、3Dレーダ画像におけるサブジェクトの位置を特定する。抽出部24は、特定されたサブジェクトの位置に基づく基準位置と、サブジェクトの種類ごとに定められた抽出サイズの1つとを用いて、3Dレーダ画像から3Dサブ画像を抽出する。モデル選択部26は、3Dサブ画像のサイズ及び3Dレーダ画像に含まれるサブジェクトの種類のうちの少なくとも1つに基づいて、少なくともモデルを選択する。学習部28は、3Dサブ画像と、3Dサブ画像におけるオブジェクトの位置を示す情報との組み合わせを学習データとして、選択されたモデルに対して機械学習を実行する。以下に詳しく説明する。
【0065】
位置特定部22、抽出部24、及びモデル選択部26は、それぞれ第1実施形態に係る位置特定部12、抽出部14、及びモデル選択部16と同様である。
【0066】
モデル生成装置200は、第1実施形態に係る検出装置100で用いられる学習済みモデルを生成又は更新することができる。モデル生成装置200によって生成又は更新された学習済みモデルは、検出装置100のネットワークアーキテクチャDB記憶部117に記憶されてもよい。
【0067】
モデル生成装置200は、第1実施形態で説明した検出装置100を兼ねてもよい。すなわち、検出装置100がアノテーション調整部209を備え、検出部104が学習部204を兼ねてもよい。この場合、学習済みモデルの出力と、正解データとしての3Dサブ画像内のオブジェクトの位置を示す情報とを比較することにより、検出装置100の性能を評価してもよい。
【0068】
<ハードウェア構成例>
幾つかの実施形態において、モデル生成装置200に含まれる各機能部は、少なくとも1つのハードウェアコンポーネントで実現され、各ハードウェアコンポーネントは、1つ以上の機能部を実現してもよい。幾つかの実施形態では、各機能部は少なくとも1つのソフトウェアコンポーネントで実装されてもよい。幾つかの実施形態では、各機能部は、ハードウェアコンポーネントとソフトウェアコンポーネントの組み合わせで実装されてもよい。
【0069】
モデル生成装置200は、モデル生成装置200を実現するために製造された専用コンピュータで実現されてもよいし、パーソナルコンピュータ(PC)、サーバマシン、モバイル機器などの汎用コンピュータで実現されてもよい。
【0070】
モデル生成装置200は、
図3に示すコンピュータ1000によって実現されてもよい。記憶装置1080は、モデル生成装置200の各機能部を実現するプログラムモジュールを記憶してもよい。CPU1040が各プログラムモジュールを実行することにより、モデル生成装置200の各機能部が実現される。
【0071】
<処理の流れ>
図15は、第2実施形態のモデル生成装置200の処理手順を示すフローチャートである。
【0072】
第2実施形態に係るモデル生成方法は、コンピュータによって実行される。モデル生成方法は、位置特定ステップ(S22)、抽出ステップ(S24)、モデル選択ステップ(S26)、及び学習ステップ(S28)を含む。位置特定ステップでは、位置特定部22が3Dレーダ画像におけるサブジェクトの位置を特定する。抽出ステップでは、抽出部24が、特定されたサブジェクトの位置に基づく基準位置と、サブジェクトの種類ごとに定められた抽出サイズとを用いて、3Dレーダ画像から3Dサブ画像を抽出する。モデル選択ステップにおいて、モデル選択部26は、3Dサブ画像のサイズ及び3Dレーダ画像に含まれるサブジェクトの種類のうちの少なくとも1つに基づいて、少なくともモデルを選択する。学習ステップにおいて、学習部28は、3Dサブ画像と3Dサブ画像におけるオブジェクトの位置を示す情報との組み合わせを学習データとして、選択されたモデルに対して機械学習を行う。
【0073】
<モデル生成装置200の構成例>
次に、
図16のブロック図を参照して、第2実施形態に係るモデル生成装置200の構成例を詳細に説明する。
【0074】
図16に示すように、第2実施形態に係るモデル生成装置200の構成は、レーダ画像DB記憶部201と、サブジェクトファインダ202と、画像抽出部203と、アノテーションDB記憶部208と、アノテーション調整部209、学習部204、サブジェクトDB記憶部205、アプローチ選択部206、ネットワーク選択部207、ネットワークアーキテクチャDB記憶部217を備えることができる。アノテーションDB記憶部208は、モデル生成装置200に含まれていてもよいし、含まれていなくてもよい。尚、レーダ画像DB記憶部201、サブジェクトファインダ202、サブジェクトDB記憶部205、アプローチ選択部206、ネットワーク選択部207の構成と機能は、それぞれ、第1実施形態に係る、レーダ画像DB記憶部101、サブジェクトファインダ102、サブジェクトDB記憶部105、アプローチ選択部106、ネットワーク選択部107の構成と機能と同じである。従って、説明は繰り返さない。また、画像抽出部203は、以下に説明する点を除き、第1実施形態に係る画像抽出部103と同様である。
【0075】
サブジェクトファインダ202は、位置特定部22として機能する。画像抽出部203は、抽出部24として機能する。ネットワーク選択部207は、モデル選択部26として機能する。学習部204は、学習部28として機能する。
【0076】
図16のブロック図を参照して、第2実施形態に係るモデル生成装置200の構成について説明する。この構成でも、サブジェクトのアイデンティティが事前情報としてサブジェクトファインダ202に知られていると仮定される。期待される出力は、有無情報に加えて、オブジェクトの位置であってもよい。このオブジェクトはサブジェクトの一部であってもよいが、サブジェクトと同じである必要はない。オブジェクトの有無や位置情報は、画像レベルのクラス(分類)やバウンディングボックス(オブジェクト検出)の形で表現できる。
【0077】
この特定の実施形態は、グラウンドトゥルースオブジェクト位置が事前にわかっており、目的は、検出装置100の性能を評価すること(予測フェーズ)、又は、検出装置100の性能を向上させること(学習フェーズ)、又はその両方(オンライン予測と学習)である。3Dサブ画像におけるオブジェクトの位置を示す情報(正解データ)は、後述するようにグランドトゥルースオブジェクト位置(ground truth object position)を用いて取得される。
【0078】
オブジェクトのグラウンドトゥルース位置と有無情報を総称してアノテーションと呼ぶ。抽出画像内でのサブジェクトの位置や抽出された画像サイズも変化するため、オブジェクトの位置情報も調整する必要がある。第2実施形態の目的は、抽出された画像内のサブジェクトの位置に応じてオブジェクトの位置を調整する(以下、アノテーション調整と呼ぶ)ことである。
【0079】
アノテーションDB記憶部208には、レーダ画像記憶部201に含まれる全てのレーダ画像のアノテーション情報がレーダ画像の名称で区別可能に格納されている。別の方法でサブジェクトの位置を特定し、アノテーション情報を予め用意しておく。
【0080】
アノテーション調整部209は、サブジェクト位置及び画像抽出部203から受け取った抽出された画像サイズに基づいて、調整されたアノテーションを学習部204に出力する。グランドトゥルースアノテーション情報は、アノテーションDB記憶部208から読み取られる。アノテーション調整部209は、アノテーション調整を支援するために、アノテーション情報の一部として元のレーダ画像サイズも受け取る。この例では、グランドトゥルース位置は、元のレーダ画像に対する長方形の境界ボックスによって指定される。調整とは、サブジェクトの位置に基づいて境界ボックスの中心を移動し、抽出された画像及び元の画像のサイズに基づいてサイズを調整することを意味する。
【0081】
ネットワークアーキテクチャDB記憶部217は、分類及び/又はオブジェクト検出のために、異なる入力画像サイズ及び/又はサブジェクトIDによって区別可能な、様々な学習済み又は未学習のネットワークアーキテクチャを含む。上記のアーキテクチャは、例えば、学習、パフォーマンス評価などの、当面のタスクに応じて事前学習される場合とされない場合がある。ネットワーク選択部207は、本開示の第1実施形態でネットワーク選択部107について説明したように、ネットワークアーキテクチャDB記憶部217を利用してネットワークアーキテクチャを選択する。
【0082】
学習部204は、モデルを含む選択されたネットワークアーキテクチャをネットワーク選択部207から取得する。モデルは、ニューラルネットワークを含む。学習部204は、画像抽出部203から取得した3Dサブ画像をネットワークアーキテクチャ(モデル)に入力する。学習部204は、ネットワーク選択部207から選択されたネットワークアーキテクチャ及び画像抽出部203からの抽出画像に基づいて、有無情報に加えてオブジェクトの位置を出力してもよい。更に、学習部204は、アノテーション調整部209から調整されたアノテーション情報も受信し、アーキテクチャパラメータの更新(学習)又はアーキテクチャの性能評価、又はその両方に使用することができる。学習では、3Dサブ画像と調整されたアノテーション情報の組み合わせが学習データとして使用される。学習部204は、画像レベルのクラス(分類)及びバウンディングボックス(オブジェクト検出)の形式でオブジェクトの有無及び位置情報を出力することができる。
【0083】
次に、
図17に示すフローチャートを参照して、第2実施形態に係るモデル生成装置200の運用モードにおける動作例について説明する。サブジェクト情報(IDに紐付けられたサイズ)はサブジェクトDB記憶部205に格納される。また、ネットワークアーキテクチャDB記憶部217には、異なる画像サイズに応じた様々なネットワークアーキテクチャが記憶されている。なお、ステップS201、S202、S205、S206、及びS207は、本開示の第1実施形態で説明したステップS101、S102、S105、S106、及びS107と同様であるため、説明を省略する。
【0084】
画像抽出部203は、サブジェクト位置と抽出画像サイズを用いて画像を抽出し、学習部204に出力し、更に、画像抽出部203は、サブジェクト位置及び抽出画像サイズをアノテーション調整部209に出力する(ステップS203)。アノテーション調整部209は、3Dレーダ画像の処理のために用意されたアノテーションをアノテーションDB記憶部208から読み出し、入力されたサブジェクトの位置と抽出画像サイズを使用してアノテーションを調整し、次に、アノテーション調整部209は、調整されたアノテーションを学習部204に出力する(ステップS209)。学習部204は、画像抽出部203から抽出画像を受け取り、オブジェクトの有無情報とその位置を予測(分類/オブジェクト検出を用いてもよい)して出力する(ステップS204)。
【0085】
以上説明したように、本開示の第2実施形態に係るモデル生成装置200は、サブジェクトの位置情報を利用して、より小さいサイズの画像を抽出する。これにより、オブジェクトの有無及び位置情報を取得する処理時間が短縮され、所望のリアルタイム動作が可能となる。更に、アノテーション調整機能により、好ましくはリアルタイムでの学習者のパフォーマンス評価及び/又は更新が可能である。
【0086】
第3実施形態
【0087】
第3実施形態の検出装置100は、以下に説明する点を除き、第1実施形態の検出装置100と同様である。
【0088】
第3実施形態の検出装置100は、3Dレーダ画像に含まれるサブジェクトの種類を識別して、1つの抽出サイズを決定するためのサブジェクトIDを決定するサブジェクトID決定部を更に備える。以下に詳しく説明する。
【0089】
図18のブロック図を参照して、本開示の第3実施形態に係るレーダ画像検出装置100の構成例について説明する。前の構成とは対照的に、この構成では、サブジェクトのアイデンティティが事前情報としてサブジェクトファインダに知られているとは想定されていない。ただし、サブジェクトのアイデンティティはリアルタイム情報として取得できる。リアルタイム操作のセットアップでは、サブジェクトのアイデンティティを事前に知ることが常に可能であるとは限らないため、実行時にサブジェクトのアイデンティティを見つける方がより現実的である。期待される出力は、第1実施形態と同様に、オブジェクトの有無情報である。このオブジェクトはサブジェクトの一部であってもよいが、サブジェクトと同じである必要はない。オブジェクトの有無は、画像レベルのクラス(分類)又はピクセルレベルのクラス(セグメンテーション)の形式で表現できる。本実施形態において、レーダ画像DB301に格納される3Dレーダ画像は、サブジェクトIDと対応付けられていなくてもよい。
【0090】
図18に示すように、第3実施形態に係る検出装置100の構成のうち1つは、レーダ画像DB記憶部301、サブジェクトファインダ302、画像抽出部303、検出部304、サブジェクトDB記憶部305、アプローチ選択部306、サブジェクト識別器(サブジェクトID特定部)310、ネットワーク選択部307、及びネットワークアーキテクチャDB記憶部317を含むことができる。尚、レーダ画像DB記憶部301、サブジェクトファインダ302、画像抽出部303、検出部304、サブジェクトDB記憶部305、アプローチ選択部306、ネットワーク選択部307、ネットワークアーキテクチャDB記憶部317の構成と機能は、それぞれ、第1実施形態に係る、レーダ画像DB記憶部101、サブジェクトファインダ102、画像抽出部103、検出部104、サブジェクトDB記憶部105、アプローチ選択部106、ネットワーク選択部107、ネットワークアーキテクチャDB記憶部117の構成と機能と同じである。従って、説明は繰り返さない。
【0091】
サブジェクトファインダ302は、レーダ92から測定された散乱レーダ信号を取得してもよい。3Dレーダ画像は、レーダ画像DB記憶部301から取得する代わりに、検出装置100内で生成されてもよい。
【0092】
サブジェクト識別器310は、サブジェクト識別情報、例えばサブジェクトIDをアプローチ選択部306に出力する。サブジェクト識別器310は、サブジェクトを識別するために使用される追加情報を取得するために外部センサ40に接続されてもよい。サブジェクトとは、レーダ画像DB記憶部301から読み出されて処理対象となる3Dレーダ画像に含まれるサブジェクトである。構成例の1つでは、サブジェクト識別器310は、撮影された光学画像を光学カメラから受け取る。外部センサ40はカメラ98であってもよい。サブジェクト識別器310は、サブジェクトを識別するために(他の手段の中でもとりわけ)オブジェクト検出手段を使用することができる。
【0093】
次に、
図19に示すフローチャートを参照して、第3実施形態に係るレーダ画像の検出装置100の動作モードにおける動作の一例について説明する。サブジェクト情報(IDに紐付けられたサイズ)は、サブジェクトDB記憶部305に格納される。また、ネットワークアーキテクチャDB記憶部317には、異なる画像サイズに応じた様々なネットワークアーキテクチャが記憶されている。なお、ステップS301、S302、S303、S304、S305、S306、及びS307は、本開示の第1実施形態で説明したステップS101、S102、S103、S104、S105、S106、及びS107と同様である。従って、それらの説明は繰り返さない。
【0094】
サブジェクト識別器310はサブジェクトを識別し、その識別情報をアプローチ選択部306に出力する。このステップでは、外部センサ情報を使用してもしなくてもよい(ステップS310)。
【0095】
なお、第2実施形態で説明したモデル生成装置200は、上述したサブジェクト識別器310を備えていてもよい。この場合、レーダ画像DB201に格納される3Dレーダ画像は、サブジェクトIDと対応付けられていなくてもよい。
【0096】
以上説明したように、本開示の第3実施形態に係る検出装置100は、サブジェクトの位置情報を利用して、より小さいサイズの画像を抽出する。これにより、オブジェクトの有無及び位置情報を取得する処理時間が短縮され、所望のリアルタイム動作が可能となる。更に、サブジェクトのアイデンティティーが事前にわかっている前提ではなく、好ましくはリアルタイムでサブジェクトを識別できる柔軟性がある。
【0097】
上記で開示した実施形態の全部又は一部は、以下の付記のようにも記載できるが、これらに限定されるものではない。
1-1. 3Dレーダ画像におけるサブジェクトの位置を特定する位置特定部と、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出する抽出部と、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択するモデル選択部と、
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する検出部と、
を備える検出装置。
1-2.少なくとも抽出サイズが複数のサブジェクトIDのそれぞれに対応付けられているサブジェクト情報と、前記3Dレーダ画像に含まれる前記サブジェクトの前記サブジェクトIDと、に基づいて前記3Dサブ画像を抽出するために使用される前記1つの抽出サイズを決定する抽出サイズ決定部
を更に含む1-1.に記載の検出装置。
1-3.前記3Dレーダ画像に含まれる前記サブジェクトの種類を識別することによって、前記1つの抽出サイズを決定するために使用される前記サブジェクトIDを決定するサブジェクトID決定部
を更に含む1-2.に記載の検出装置。
1-4.前記3Dサブ画像の抽出に使用される前記1つの抽出サイズは、前記サブジェクト全体を抽出するためのサブジェクト抽出サイズである
1-1.~1-3.のいずれか1つに記載の検出装置。
1-5.前記3Dサブ画像の抽出に用いられる前記1つの抽出サイズは、前記サブジェクトの一部のみを抽出する部分抽出サイズであり、
前記基準位置は、前記サブジェクトの一部の位置を示す
1-1.~1-3.のいずれか1つに記載の検出装置。
1-6.前記検出部は、前記オブジェクトの有無を示す情報、検出された前記オブジェクトのクラス、及び前記オブジェクトの位置情報の少なくとも1つを出力する
1-1.~1-5.のいずれか1つに記載の検出装置。
【0098】
2-1.3Dレーダ画像におけるサブジェクトの位置を特定する位置特定部と、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出する抽出部と、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つのモデルを選択するモデル選択部と、
前記3Dサブ画像と前記3Dサブ画像内の前記オブジェクトの位置を示す情報の組み合わせを学習データとして使用して選択された前記モデルに対して機械学習を実行する学習部と、
を備えるモデル生成装置。
2-2.少なくとも抽出サイズが複数のサブジェクトIDのそれぞれに対応付けられているサブジェクト情報と、前記3Dレーダ画像に含まれる前記サブジェクトの前記サブジェクトIDと、に基づいて前記3Dサブ画像を抽出するために使用される前記1つの抽出サイズを決定する抽出サイズ決定部
を更に備える2-1.に記載のモデル生成装置。
2-3.前記3Dレーダ画像に含まれる前記サブジェクトの種類を識別することによって、前記1つの抽出サイズを決定するために使用される前記サブジェクトIDを決定するサブジェクトID決定部
を更に備える2-2.に記載のモデル生成装置。
2-4.前記3Dサブ画像の抽出に使用される前記1つの抽出サイズは、前記サブジェクト全体を抽出するためのサブジェクト抽出サイズである
2-1.~2-3.のいずれか1つに記載のモデル生成装置。
2-5.前記3Dサブ画像の抽出に用いられる前記1つの抽出サイズは、前記サブジェクトの一部のみを抽出する部分抽出サイズであり、
前記基準位置は、前記サブジェクトの一部の位置を示す
2-1.~2-3.のいずれか1つに記載の検出装置。
【0099】
3-1.3Dレーダ画像におけるサブジェクトの位置を特定し、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出し、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択し
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する
ことを含む、コンピュータによって行われる検出方法。
3-2.少なくとも抽出サイズが複数のサブジェクトIDのそれぞれに対応付けられているサブジェクト情報と、前記3Dレーダ画像に含まれる前記サブジェクトの前記サブジェクトIDと、に基づいて前記3Dサブ画像を抽出するために使用される前記1つの抽出サイズを決定する
ことを更に含む3-1.に記載の検出方法。
3-3.前記3Dレーダ画像に含まれる前記サブジェクトの種類を識別することによって、前記1つの抽出サイズを決定するために使用される前記サブジェクトIDを決定する
ことを更に含む3-2.に記載の検出方法。
3-4.前記3Dサブ画像の抽出に使用される前記1つの抽出サイズは、前記サブジェクト全体を抽出するためのサブジェクト抽出サイズである
3-1.~3-3.のいずれか1つに記載の検出方法。
3-5.前記3Dサブ画像の抽出に用いられる前記1つの抽出サイズは、前記サブジェクトの一部のみを抽出する部分抽出サイズであり、
前記基準位置は、前記サブジェクトの一部の位置を示す
3-1.~3-3.のいずれか1つに記載の検出方法。
3-6.前記オブジェクトの有無を示す情報、検出された前記オブジェクトのクラス、及び前記オブジェクトの位置情報の少なくとも1つを出力する
ことを更に含む3-1.~3-5.のいずれか1つに記載の検出方法。
【0100】
4-1.3Dレーダ画像におけるサブジェクトの位置を特定し、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出し、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択し、
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する
ことを含む検出方法をコンピュータに実行させるプログラム。
4-2.前記検出方法は、更に、少なくとも抽出サイズが複数のサブジェクトIDのそれぞれに対応付けられているサブジェクト情報と、前記3Dレーダ画像に含まれる前記サブジェクトの前記サブジェクトIDと、に基づいて前記3Dサブ画像を抽出するために使用される前記1つの抽出サイズを決定することを含む
4-1.に記載のプログラム。
4-3.前記検出方法は、更に、前記3Dレーダ画像に含まれる前記サブジェクトの種類を識別することによって、前記1つの抽出サイズを決定するために使用される前記サブジェクトIDを決定することを含む
4-2.に記載のプログラム。
4-4.前記3Dサブ画像の抽出に使用される前記1つの抽出サイズは、前記サブジェクト全体を抽出するためのサブジェクト抽出サイズである
4-1.~4-3.のいずれか1つに記載のプログラム。
4-5.前記3Dサブ画像の抽出に用いられる前記1つの抽出サイズは、前記サブジェクトの一部のみを抽出する部分抽出サイズであり、
前記基準位置は、前記サブジェクトの一部の位置を示す
4-1.~4-3.のいずれか1つに記載のプログラム。
4-6.前記検出方法は、更に、前記オブジェクトの有無を示す情報、検出された前記オブジェクトのクラス、及び前記オブジェクトの位置情報の少なくとも1つを出力することを含む
4-1.~4-5.のいずれか1つに記載のプログラム。
【符号の説明】
【0101】
100 検出装置
200 モデル生成装置
12 位置特定部
14 抽出部
16 モデル選択部
18 検出部
101,201,301 レーダ画像DB記憶部
102,202,302 サブジェクトファインダ
103,203,303 画像抽出部
104,304 検出部
22 位置特定部
24 抽出部
26 モデル選択部
28 学習部
204 学習部
105,205,305 サブジェクトDB記憶部
106,206,306 アプローチ選択部
107,207,307 ネットワーク選択部
117,217,317 ネットワークアーキテクチャDB記憶部
209 アノテーション調整部
208 アノテーションDB記憶部
310 サブジェクト識別器
【手続補正書】
【提出日】2024-06-26
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
3Dレーダ画像におけるサブジェクトの位置を特定する位置特定部と、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出する抽出部と、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択するモデル選択部と、
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する検出部と、
を備える検出装置。
【請求項2】
少なくとも抽出サイズが複数のサブジェクトIDのそれぞれに対応付けられているサブジェクト情報と、前記3Dレーダ画像に含まれる前記サブジェクトの前記サブジェクトIDと、に基づいて前記3Dサブ画像を抽出するために使用される前記1つの抽出サイズを決定する抽出サイズ決定部
を更に含む請求項1に記載の検出装置。
【請求項3】
前記3Dレーダ画像に含まれる前記サブジェクトの種類を識別することによって、前記1つの抽出サイズを決定するために使用される前記サブジェクトIDを決定するサブジェクトID決定部
を更に含む請求項2に記載の検出装置。
【請求項4】
前記3Dサブ画像の抽出に使用される前記1つの抽出サイズは、前記サブジェクト全体を抽出するためのサブジェクト抽出サイズである
請求項1~3のいずれか1項に記載の検出装置。
【請求項5】
前記3Dサブ画像の抽出に用いられる前記1つの抽出サイズは、前記サブジェクトの一部のみを抽出する部分抽出サイズであり、
前記基準位置は、前記サブジェクトの一部の位置を示す
請求項1~3のいずれか1項に記載の検出装置。
【請求項6】
前記検出部は、前記オブジェクトの有無を示す情報、検出された前記オブジェクトのクラス、及び前記オブジェクトの位置情報の少なくとも1つを出力する
請求項1~5のいずれか1項に記載の検出装置。
【請求項7】
3Dレーダ画像におけるサブジェクトの位置を特定する位置特定部と、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出する抽出部と、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つのモデルを選択するモデル選択部と、
前記3Dサブ画像と前記3Dサブ画像内
のオブジェクトの位置を示す情報の組み合わせを学習データとして使用して選択された前記モデルに対して機械学習を実行する学習部と、
を備えるモデル生成装置。
【請求項8】
3Dレーダ画像におけるサブジェクトの位置を特定し、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出し、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択し
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する
ことを含む、コンピュータによって行われる検出方法。
【請求項9】
3Dレーダ画像におけるサブジェクトの位置を特定し、
特定された前記サブジェクトの位置に基づく基準位置と、前記サブジェクトの種類ごとに指定された抽出サイズの1つと、を使用して、前記3Dレーダ画像から3Dサブ画像を抽出し、
前記3Dサブ画像のサイズ及び前記3Dレーダ画像に含まれる前記サブジェクトの種類のうちの少なくとも1つに基づいて、少なくとも1つの学習済みモデルを選択し、
選択された前記学習済みモデルを使用して前記3Dサブ画像内のオブジェクトを検出する
ことを含む検出方法をコンピュータに実行させるプログラム。
【国際調査報告】