(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-03-10
(45)【発行日】2025-03-18
(54)【発明の名称】物体位置検出装置及び方法
(51)【国際特許分類】
G01S 7/36 20060101AFI20250311BHJP
G01S 13/50 20060101ALI20250311BHJP
G01S 13/42 20060101ALI20250311BHJP
G08G 1/01 20060101ALI20250311BHJP
G06T 7/00 20170101ALI20250311BHJP
【FI】
G01S7/36
G01S13/50
G01S13/42
G08G1/01 C
G06T7/00 350B
(21)【出願番号】P 2021038305
(22)【出願日】2021-03-10
【審査請求日】2024-01-16
(73)【特許権者】
【識別番号】000002945
【氏名又は名称】オムロン株式会社
(74)【代理人】
【識別番号】100101454
【氏名又は名称】山田 卓二
(74)【代理人】
【識別番号】100189555
【氏名又は名称】徳山 英浩
(74)【代理人】
【識別番号】100091524
【氏名又は名称】和田 充夫
(72)【発明者】
【氏名】久保 光明
(72)【発明者】
【氏名】松浦 圭記
(72)【発明者】
【氏名】小泉 昌之
(72)【発明者】
【氏名】七條 大樹
(72)【発明者】
【氏名】岩出 彩花
(72)【発明者】
【氏名】奥野 雄太郎
【審査官】▲高▼場 正光
(56)【参考文献】
【文献】特開2019-152543(JP,A)
【文献】国際公開第2020/022110(WO,A1)
【文献】米国特許出願公開第2020/0278444(US,A1)
【文献】国際公開第2020/261525(WO,A1)
【文献】米国特許第05345539(US,A)
【文献】SANCHEZ-LOPEZ, Jose Luis, 外2名,“Semantic situation awareness of ellipse shapes via deep learning for multirotor aerial robots with a 2D LIDAR”,2020 INTERNATIONAL CONFERENCE ON UNMANNED AIRCRAFT SYSTEMS (ICUAS) [online],2020年10月06日,Pages 1014-1023,<URL: https://doi.org/10.1109/ICUAS48674.2020.9214063 >
(58)【調査した分野】(Int.Cl.,DB名)
G01S 7/00 - G01S 7/51
G01S 13/00 - G01S 13/95
G01S 17/00 - G01S 17/95
(57)【特許請求の範囲】
【請求項1】
レーダ装置からのレーダ信号に基づいて、物体の位置を検出する物体位置検出装置であって、
前記レーダ信号を含む画像データに基づいて、前記物体の位置を表す所定の教師画像データにより学習された機械学習モデルを用いて、前記物体の有無及び位置を推定して、前記推定された物体の有無及び位置を表す画像データを出力する位置推定部を備え、
前記教師画像データは、前記物体の位置を示す複数の画素から構成された図形である物体ラベルで表わされ、
前記物体ラベルは、各次元方向に凸である形状を有
し、
前記教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、点反射源からの反射波を検出したときの各次元方向におけるメインローブ幅を上限として設定される、
物体位置検出装置。
【請求項2】
レーダ装置からのレーダ信号に基づいて、物体の位置を検出する物体位置検出装置であって、
前記レーダ信号を含む画像データに基づいて、前記物体の位置を表す所定の教師画像データにより学習された機械学習モデルを用いて、前記物体の有無及び位置を推定して、前記推定された物体の有無及び位置を表す画像データを出力する位置推定部を備え、
前記教師画像データは、前記物体の位置を示す複数の画素から構成された図形である物体ラベルで表わされ、
前記物体ラベルは、各次元方向に凸である形状を有
し、
前記教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、前記レーダ装置の方位方向のチャンネル数及びレーダ帯域幅から定まる各次元方向におけるメインローブ幅を上限として設定される、
物体位置検出装置。
【請求項3】
前記画像データは、方位に対する距離の2次元画像データである、
請求項1
又は2に記載の物体位置検出装置。
【請求項4】
前記画像データは、距離、方位及び速度のうちの少なくとも2つの次元を有する画像データである、
請求項1
又は2に記載の物体位置検出装置。
【請求項5】
前記物体ラベルは、前記物体の位置が前記物体ラベルの中心に位置するように構成される、請求項1
又は2に記載の物体位置検出装置。
【請求項6】
前記レーダ信号を含む画像データは、方位に対する距離の各位置における反射強度を含む画像データである、
請求項1~
5のいずれか1項に記載の物体位置検出装置。
【請求項7】
前記レーダ信号を含む画像データは、前記方位に対する距離の各位置における反射強度を含む画像データに基づいて、複数の異なる時刻で取得された時系列の複数の画像データである、
請求項
6に記載の物体位置検出装置。
【請求項8】
前記レーダ信号を含む画像データは、前記複数の異なる時刻で取得された時系列の複数の画像データに対して、時間差分の反射強度を計算することで得られる前記時間差分の反射強度を含む画像データである、
請求項
7に記載の物体位置検出装置。
【請求項9】
前記レーダ信号を含む画像データは、
前記方位に対する距離の各位置における反射強度を含む画像データに対してドップラーFFTを行った後、前記ドップラーFFTにより得られたゼロドップラー成分を、前記レーダ信号を含む画像データから減算し、当該減算された画像データに基づいて複数の異なる時刻で取得された時系列の複数の画像データである、
請求項
7に記載の物体位置検出装置。
【請求項10】
前記物体位置検出装置は、
(1)トンネル内の交通流を測定するトンネル交通流監視センサ装置と、
(2)所定の構造物の傍に設けられた交通流監視センサ装置、
(3)交差点に設けられ、交差点の歩行者を測定する歩行者監視センサ装置と、
(4)工場内での自動搬送車もしくは自走ロボットの障害物を検出するセンサ装置との
いずれかである、請求項1~
9のいずれか1項に記載の物体位置検出装置。
【請求項11】
レーダ装置からのレーダ信号に基づいて、物体の位置を検出する物体位置検出装置の物体位置検出方法であって、
位置推定部が、前記レーダ信号を含む画像データに基づいて、前記物体の位置を表す所定の教師画像データにより学習された機械学習モデルを用いて、前記物体の有無及び位置を推定して、前記推定された物体の有無及び位置を表す画像データを出力するステップを含み、
前記教師画像データは、前記物体の位置を示す複数の画素から構成された図形である物体ラベルで表わされる、
前記物体ラベルは、各次元方向に凸である形状を有
し、
前記教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、点反射源からの反射波を検出したときの各次元方向におけるメインローブ幅を上限として設定される、
物体位置検出方法。
【請求項12】
レーダ装置からのレーダ信号に基づいて、物体の位置を検出する物体位置検出装置の物体位置検出方法であって、
位置推定部が、前記レーダ信号を含む画像データに基づいて、前記物体の位置を表す所定の教師画像データにより学習された機械学習モデルを用いて、前記物体の有無及び位置を推定して、前記推定された物体の有無及び位置を表す画像データを出力するステップを含み、
前記教師画像データは、前記物体の位置を示す複数の画素から構成された図形である物体ラベルで表わされる、
前記物体ラベルは、各次元方向に凸である形状を有
し、
前記教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、前記レーダ装置の方位方向のチャンネル数及びレーダ帯域幅から定まる各次元方向におけるメインローブ幅を上限として設定される、
物体位置検出方法。
【請求項13】
前記画像データは、方位に対する距離の2次元画像データである、
請求項
11又は12に記載の物体位置検出方法。
【請求項14】
前記画像データは、距離、方位及び速度のうちの少なくとも2つの次元を有する画像データである、
請求項
11又は12に記載の物体位置検出方法。
【請求項15】
前記物体ラベルは、前記物体の位置が前記物体ラベルの中心に位置するように構成される、請求項
11又は12に記載の物体位置検出方法。
【請求項16】
前記レーダ信号を含む画像データは、方位に対する距離の各位置における反射強度を含む画像データである、
請求項
11~15のいずれか1項に記載の物体位置検出方法。
【請求項17】
前記レーダ信号を含む画像データは、前記方位に対する距離の各位置における反射強度を含む画像データに基づいて、複数の異なる時刻で取得された時系列の複数の画像データである、
請求項
16に記載の物体位置検出方法。
【請求項18】
前記レーダ信号を含む画像データは、前記複数の異なる時刻で取得された時系列の複数の画像データに対して、時間差分の反射強度を計算することで得られる前記時間差分の反射強度を含む画像データである、
請求項
17に記載の物体位置検出方法。
【請求項19】
前記レーダ信号を含む画像データは、
前記方位に対する距離の各位置における反射強度を含む画像データに対してドップラーFFTを行った後、前記ドップラーFFTにより得られたゼロドップラー成分を、前記レーダ信号を含む画像データから減算し、当該減算された画像データに基づいて複数の異なる時刻で取得された時系列の複数の画像データである、
請求項
17に記載の物体位置検出方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、例えばレーダ装置からのレーダ情報に基づいて、物体の位置を推定して検出する物体位置検出装置及び方法に関する。
【背景技術】
【0002】
一般的に、レーダ装置は、受信されたレーダ信号から生成された観測エリアの反射強度及びドップラー速度に対してピーク検出(CFAR(Constant False Alarm Rate))やクラスタ分析を適用することで、物標である移動物体を検出している。
【0003】
例えば、特許文献1では、誤検出を抑圧し、目標物体のみを高精度に抽出することのできるレーダ装置が開示されている。当該レーダ装置は、パルス又は連続波を送受信してN回(N≧1)のCPI(Coherent Pulse Interval)データからレンジ-ドップラー(RD)データを作成し、前記RDデータについて所定のスレショルドを超えるレンジ-ドップラー軸のセルを抽出する。そして、レーダ装置は、抽出されたセルを用いてクラスタを分析することで目標候補となるクラスタの代表値を選出し、前記代表値から目標のレンジ-ドップラーを抽出し、測距、測速及び測角の少なくともいずれかの処理を行って目標観測値を出力する。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかし、光学系センサと比較して、レーダ装置はアンテナ数の制約により角度分離分解能を高めることが難しいため、CFARやクラスタ分析の様な手法では、反射波が干渉するような近接する複数の物体や構造物が近接する状況において、物体検出は難しいという問題点があった。
【0006】
例えば、CFARの手法を用いたとき、2つの物体が同一距離かつレーダ固有の角度分解能よりも狭い距離で近接する場合、2つの物体からの反射波が干渉し、物標由来の反射波源のピークの検出が困難になる。また、クラスタリングの手法を用いたとき、2つの物体が同一速度で近接移動する場合、クラスタの分離が困難になる。
【0007】
本発明の目的は以上の問題点を解決し、従来技術に比較して、反射波が干渉するような近接する複数の物体又は構造物が近接する状況においても高精度で物体を検出することができる物体位置検出装置及び方法を提供することにある。
【課題を解決するための手段】
【0008】
本発明の一態様に係る物体位置検出装置は、
レーダ装置からのレーダ信号に基づいて、物体の位置を検出する物体位置検出装置であって、
前記レーダ信号を含む画像データに基づいて、前記物体の位置を表す所定の教師画像データにより学習された機械学習モデルを用いて、前記物体の有無及び位置を推定して、前記推定された物体の有無及び位置を表す画像データを出力する位置推定部を、
備える。
【発明の効果】
【0009】
従って、本発明に係る物体位置検出装置等によれば、反射波が干渉するような近接する複数の物体又は構造物が近接する状況においても高精度で物体を検出することができる。
【図面の簡単な説明】
【0010】
【
図1】実施形態に係る物体推定時の物体位置検出装置の構成例を示すブロック図である。
【
図2】実施形態に係る学習時の物体位置検出装置の構成例を示すブロック図である。
【
図3】
図1及び
図2のレーダ装置から送信される無線信号のチャープ信号のタイミングチャートである。
【
図4】
図1及び
図2の機械学習モデルの第1の構成例を示すブロック図である。
【
図5】
図1及び
図2の機械学習モデルの第2の構成例を示すブロック図である。
【
図6A】
図1及び
図2の機械学習モデルのための画像データ例であって、物標の位置を表す画像データを示す図である。
【
図6B】
図6Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示す図である。
【
図7A】
図1及び
図2の機械学習モデルのための画像データの第1例であって、物標の位置を表す画像データを示す図である。
【
図7B】
図7Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示す図である。
【
図7C】
図7Bの画像データに対応し、機械学習モデルの教師データとして与える学習用教師画像データであるレーダ画像データの一例を示す図である。
【
図8A】
図1及び
図2の機械学習モデルのための画像データの第2例であって、物標の位置を表す画像データを示す図である。
【
図8B】
図8Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示す図である。
【
図8C】
図8Bの画像データに対応し、機械学習モデルの教師データとして与える学習用教師画像データであるレーダ画像データの一例を示す図である。
【
図9】
図1の物体座標検出部の構成例及び処理例を示すブロック図である。
【
図10】変形例に係る物体位置検出装置で用いる画像データの次元を示す図である。
【発明を実施するための形態】
【0011】
以下、本発明に係る実施形態について図面を参照して説明する。なお、同一又は同様の構成要素については同一の符号を付している。
【0012】
(発明者の知見)
本発明者らは、レーダ装置を用いた例えば通行車両数計測のアプリケーションにおいて、トンネル内や防音壁が近接する場所等で、マルチパスフェージングやクラッタが発生する環境内で、計数がうまくいかないという課題があることを知り、それに対する解決手段として本発明の実施形態を考案したものである。
【0013】
本発明では、物標の位置を推定する手段としてCFARとクラスタリングを組み合わせる方法ではなく、機械学習によるレーダ信号の波源推定手法を考案し、信号処理によって生成した時間差分時系列情報と画像認識用の機械学習モデルを用いることで、物標の位置に対応するラベルを描画した画像を生成することを考案した。それにより、CFARやクラスタリングで課題が発生する状況においても、それぞれの物標の位置を高精度に推定することを特徴としている。以下、実施形態について説明する。
【0014】
(実施形態)
図1は実施形態に係る物体推定時の物体位置検出装置の構成例を示すブロック図であり、
図2は実施形態に係る学習時の物体位置検出装置の構成例を示すブロック図である。
【0015】
図1の物体推定時において、実施形態に係る物体位置検出装置は、レーダ装置1と、信号処理部2と、入力処理部3と、物体検出部4と、出力処理部5と、物体座標検出部6と、表示部7と、記憶部8を備えて構成される。また、
図2の学習時において、本実施形態の物体位置検出装置は、レーダ装置1と、信号処理部2と、入力処理部3と、物体検出部4と、出力処理部5Aと、記憶部8を備えて構成される。ここで、物体検出部4は機械学習モデル40を有し、学習後の機械学習モデル40を、推定検出時に用いるために、学習済み機械学習モデル81として記憶部8に格納する。なお、
図1及び
図2においては、物体推定時と学習時で、異なる図で図示しているが、物体検出部4に対して出力処理部5又は5Aを、スイッチを用いて選択的に切り換えて接続するように構成してもよい。
【0016】
図1及び
図2において、レーダ装置1は、例えばFCM(Fast Chirp Modulation)方式を用いて、チャープ信号を含む無線信号を物標に向けて送信し、当該物標で反射されてくる無線信号を受信して、物標との距離及び相対速度を推定するためのレーダ信号であるビート信号を生成する。ここで、FCM方式では、周波数が連続的に変化する複数のチャープ信号が繰り返されるチャープ信号を含む無線信号を、物標に対して無線送信して、検出範囲内に存在する各物標との距離及び相対速度を検出する。具体的には、FCM方式は、チャープ信号を生成する変調信号と物標による送信信号の反射波を受信して得られる受信信号とから生成されたビート信号に対して距離(レンジ)高速フーリエ変換処理(以下、距離FFT処理という)を実行して物標との距離を推定する(後述する距離FFT部22の説明参照)。
【0017】
図3は
図1及び
図2のレーダ装置から送信される無線信号のチャープ信号のタイミングチャートである。本実施形態において、1枚の電波画像データを構成する受信データを「1フレーム」と呼び、1フレームは複数のチャープ信号から構成される。
図3は、高速FMCW(Frequency Modulation Continuous Wave)方式のフレームを表しており、Bはチャープ信号の帯域幅を示し、Tはチャープ信号の反復時間、T・Mは1つのフレーム内にあるアクティブチャープ時間を示す。なお、フレーム時間には、アイドル時間を含む。ここで、例えば、1フレーム当たりのチャープ数は24として、受信された無線信号の複数のチャープ信号を積算平均することでノイズ耐性を高めることができる。
【0018】
さらに、レーダ装置1の無線受信部は、例えば複数のアンテナを含むアレーアンテナを用いて、物標で反射された無線信号を受信した後、無線送信部の送信無線信号と混合しかつローパスフィルタリングすることで、各アンテナに対応する複数のビート信号を計算して信号処理部2に出力する。
【0019】
図1及び
図2において、信号処理部2は、AD変換部21と、距離FFT部22と、到来方向推定部23とを備える。AD変換部21は、レーダ装置1から出力されるレーダ信号の複数のビート信号をAD変換して距離FFT部22に出力する。距離FFT部22は、入力されるAD変換されたビート信号に対して距離FFT処理を実行して、処理後の距離FFTスペクトルを到来方向推定部23に出力する。到来方向推定部23は、入力される距離FFTスペクトルに基づいて、例えばビームフォーミング法を用いて、物標から反射された無線信号の到来方向(方位)を推定し、方位に対する距離の2次元画像において、画素値として反射信号強度(例えば互いに直交するI信号及びQ信号の振幅値を対数値に変換した値)の情報を含む2次元画像データ(所定の離散時間間隔を有する)の形式で入力処理部3に出力する。
【0020】
図1及び
図2において、入力処理部3は、時間差分部31と、正規化部32とを備える。時間差分部31は、入力される、方位に対する距離の2次元画像において、画素値として反射信号強度の情報(物標の有無及び位置を示す)を含む画像データのうち、互いに時間的に隣接する各1対の時間フレームの2次元画像データに対して後退差分演算(時間方向の有限差分を演算する)を順次、時系列の所定数(例えば31個)のフレーム毎に行って、方位に対する距離のフレームが時間的に複数ある、方位、距離及び時間の3次元画像データを生成して出力する。次いで、正規化部32は、後退差分演算後の3次元画像データに基づいて、その各画素値を所定の最大値で正規化し、正規化処理後の3次元画像データを生成し、これを機械学習モデル40に対する入力データとする。
【0021】
なお、時間差分部31の処理は、例えば上述のように、画素値として反射信号強度の情報を含む画像データのうち、互いに時間的に隣接する各1対の時間フレームの2次元画像データに対して後退差分演算を順次、時系列の所定数のフレーム毎に行っており、推定頻度は当該時系列の所定数のフレームに係るフレーム数に対して1回となる。これに対して、本発明はこれに限らず、時間差分部31の処理は、例えば上述のように、画素値として反射信号強度の情報を含む画像データのうち、互いに時間的に隣接する各1対の時間フレームの2次元画像データに対して後退差分演算を順次、時系列の1フレーム毎にシフトさせながら行ってもよい。この場合、推定頻度は1フレームに対して1回となる。
【0022】
また、時間差分部31の処理は、方位に対する距離の2次元画像データにおいて、画素値として反射信号強度の情報(物標の有無及び位置を示す)を含む画像データのうち、互いに時間的に隣接する各1対の時間フレームの2次元画像データに対して後退差分演算を行って、方位に対する距離のフレームが時間的に複数ある、方位、距離及び時間の次元を有する時系列の3次元画像データを生成している。ここで、後退差分演算の代替手段として、方位に対する距離の2次元画像データに対して、クラッタ抑圧のために、ドップラーFFTを行ってゼロドップラー成分を計算し、元の2次元画像データから当該ゼロドップラー成分を減算してもよい。このとき、前記減算された2次元画像データに基づいて、互いに時間的に隣接する各1対の時間フレームの2次元画像データに対して後退差分演算を行って、方位に対する距離のフレームが時間的に複数ある、方位、距離及び時間の次元を有する時系列の3次元画像データを生成する。
【0023】
一方、出力処理部5Aは、レーダ装置1を用いて物標の位置検出したときの2次元教師画像データ(
図7A~
図9Cを参照して後述するように、既知の物標位置に対して複数画素を2次元画像データ(物標の位置情報を鳥瞰図として表す)において与える)を内蔵メモリに格納しておき、機械学習モデル40に対する学習時に出力データとして物体検出部4に入力する。なお、物体推定時の出力処理部に対して符号5を付し、出力処理部5は、物体検出部4からの推定結果の2次元画像データを内蔵バッファメモリに格納した後、
図1の物体座標検出部6に出力する。
【0024】
以下の表1に、信号処理部2及び入力処理部3の信号処理(信号データの種類)と出力データフォーマットを示す。
【0025】
[表1]
信号処理部2及び入力処理部3の信号処理(信号データの種類)と
出力データフォーマット
――――――――――――――――――――――――――――――――――
レーダ装置1のI/Q信号取得処理(複素数データ):
フレーム数×チャープ数×仮想受信アンテナ数×取得サンプル数
――――――――――――――――――――――――――――――――――
レーダ装置1のチャープ信号の積算処理(複素数データ):
フレーム数×仮想受信アンテナ数×取得サンプル数
――――――――――――――――――――――――――――――――――
距離FFT処理(複素数データ):
フレーム数×仮想受信アンテナ数×距離ビン数
――――――――――――――――――――――――――――――――――
到来方向推定処理(デジタルビームフォーミング法)(複素数データ):
フレーム数×方位ビン数×距離ビン数
――――――――――――――――――――――――――――――――――
到来方向推定処理後のI/Q信号の振幅絶対値演算及び対数変換処理
(複素数データ):
フレーム数×方位ビン数×距離ビン数
――――――――――――――――――――――――――――――――――
時間差分処理(複素数データ):
(フレーム数-1)×方位ビン数×距離ビン数
――――――――――――――――――――――――――――――――――
正規化処理(複素数データ):
(フレーム数-1)×方位ビン数×距離ビン数
――――――――――――――――――――――――――――――――――
【0026】
図1及び
図2の物体検出部4は位置推定部の一例であって、例えば畳み込みエンコーダと畳み込みデコーダで構成されるDNN(ディープニューラルネットワーク)で構成される機械学習モデル40を有し、入力データとして前記正規化処理後の3次元画像データを入力する一方、出力データとして出力処理部5Aから前記2次元教師画像データを入力して、機械学習モデル40を学習させた後、学習済み機械学習モデル40を、学習済み機械学習モデル81として記憶部8に保存する。次いで、物体検出部4は、
図1の物体検出時において、記憶部8内の学習済み機械学習モデル81を、機械学習モデル40として物体検出部4の内蔵メモリに保存格納して推定検出に用いる。
【0027】
図1の物体検出時においては、レーダ装置1から信号処理部2及び入力処理部3を経て物体検出部4に至る処理は、学習時と同じであるが、物体検出部4は、入力データに用いて機械学習モデル40を用いて物体検出時の推定を行って、2次元画像データである出力データを出力処理部5に出力する。出力処理部5は、物体検出部4からの推定結果の2次元画像データを内蔵バッファメモリに格納した後、
図1の物体座標検出部6に出力する。
【0028】
図4は
図1及び
図2の機械学習モデル40の第1の構成例(実施形態)である機械学習モデル40Aを示すブロック図である。
図4において、機械学習モデル40Aは、3次元畳み込みエンコーダ41と、2次元畳み込みデコーダ42とを備えて構成される。
【0029】
図4の3次元畳み込みエンコーダ41は4個の信号処理部を備え、3次元変換フィルタ3×3×3(16又は32)と、最大プーリング処理部2×2×2と、活性化関数処理部(関数Relu)とを用いて構成される。ここで、括弧内はフィルタ数を示す。また、2次元畳み込みデコーダ42は5個の信号処理部を備え、2次元変換フィルタ3×3(16又は32)と、アップサンプリング処理部2×2と、活性化関数処理部(関数Relu)と、出力層の活性化関数処理部(シグモイド関数)とを用いて構成される。
【0030】
3次元畳み込みエンコーダ41の入力データは、例えば次式のデータフォーマットを有する。
(時間,距離,方位,チャネル)=(80,128,80,1)
【0031】
また、2次元畳み込みデコーダ42の出力データは、例えば次式のデータフォーマットを有する。
(距離,方位,チャネル)=(128,80,1)
【0032】
以上のように構成された
図4の機械学習モデル40Aの基本構成に対して、例えば一般的な深層学習のディープドロップ又はバッチノーマライゼション等の追加処理を行ってもよい。
【0033】
図5は
図1及び
図2の機械学習モデルの第2の構成例(変形例)である機械学習モデル40Bを示すブロック図である。
図4の機械学習モデル40Aに対して、
図5の機械学習モデル40Bは、2次元畳み込みエンコーダ51と、2次元畳み込みデコーダ52とを備えて構成される。
【0034】
図5の2次元畳み込みエンコーダ51は4個の信号処理部を備え、2次元変換フィルタ3×3(16又は32)と、最大プーリング処理部2×2と、活性化関数処理部(関数Relu)とを用いて構成される。ここで、括弧内はフィルタ数を示す。また、2次元畳み込みデコーダ52は5個の信号処理部を備え、2次元変換フィルタ3×3(16又は32)と、アップサンプリング処理部2×2と、活性化関数処理部(関数Relu)と、出力層の活性化関数処理部(シグモイド関数)とを用いて構成される。
【0035】
2次元畳み込みエンコーダ51の入力データは、例えば次式のデータフォーマットを有する。
(距離,方位,チャネル)=(128,80,1)
【0036】
また、2次元畳み込みデコーダ52の出力データは、例えば次式のデータフォーマットを有する。
(距離,方位,チャネル)=(128,80,1)
【0037】
以上のように構成された
図5の機械学習モデル40Bでは、入力データにおいて時間方向の次元を無くし(すなわち、
図1及び
図2において、時間差分部31を省略する)、畳み込みエンコーダ51を2次元で構成したことを特徴としている。これにより、物体検出の認識性能は、機械学習モデル40Aに比較して低下するが、計算負荷が小さくなるという特有の効果を有する。
【0038】
次いで、
図1及び
図2の機械学習モデル40の画像データの一例について以下に説明する。
【0039】
図6Aは
図1及び
図2の機械学習モデルのための画像データ例であって、物標の位置を表す画像データを示す図である。
図6Aに、方位に対する距離を表す2次元画像において、物標が存在する座標点に対応する画素101を示している。これに対して、
図6Bは
図6Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示している。
図6Bにおいて、物標の存在に対応するレーダ信号のメインローブの方位方向の幅は、レーダ装置1の方位方向のチャンネル数によって決まる。
図6Bの実施例では、レーダ装置1の方位方向のチャンネル数は8であり、そのメインローブ幅はおよそ22度に相当する。実施例では1度を1画素で表現しているため、メインローブは22画素に相当する。
【0040】
図7Aは
図1及び
図2の機械学習モデルのための画像データの第1例であって、物標の位置を表す画像データを示す図である。
図7Aに、方位に対する距離を表す2次元画像において、物標が存在する座標点に対応する画素101を示している。これに対して、
図7Bは
図7Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示しており、
図7Cは
図7Bの画像データに対応し、機械学習モデル40の教師データとして与える学習用教師画像データであるレーダ画像データの一例を示している。
【0041】
図7Cに示すように、機械学習モデル40の教師データとして与える画像データ(教師画像データ)における物標の位置を表す点(
図7Aの画素101の位置に対応する)は、1画素の点ではなく複数画素からなる範囲を持った図形である「物体ラベル」(ここで、例えば物体ラベルの中心に、画素101が位置する。)とすることで、学習が精度よく収束する。このとき、上記の実施例で、物標の位置を表す図形の方位方向の幅を、22ピクセル以下(
図7Cの中央部の白部分の横方向の幅)とすることで、元々のレーダ信号のもつ方位分解能を損なわずに物標の位置の推定を行うことができる。同様に距離の次元やその他の次元に対しても、レーダ装置1のパラメータによって定められるメインローブの幅を、物標の位置を表す図形の対応する次元方向の幅の上限とすることが望ましい。
【0042】
図8Aは
図1及び
図2の機械学習モデルのための画像データの第2例であって、物標の位置を表す画像データを示す図である。
図8Aに、方位に対する距離を表す2次元画像において、物標が存在する座標点に対応する画素101を示している。これに対して、
図8Bは
図8Aの画像データに対応する位置に物標が存在するときに得られるレーダ信号の画像データを示す図である。
図8Cは
図8Bの画像データに対応し、機械学習モデルの教師データとして与える学習用教師画像データであるレーダ画像データの一例を示す図である。
【0043】
発明者らのシミュレーション及び実験によれば、経験的に、物標の位置を表す図形の方位方向の幅をレーダ装置1のメインローブ幅の0.25倍~0.75倍の範囲とすることが、学習の収束性と分解能を両立させる上で望ましい。上記の実施例では、11画素程度(
図8Cの中央部の白部分の横方向の幅)とすると最も推定精度がよく、これはメインローブ幅の0.5倍に対応する。また、物標の位置を表す図形の形状は、テンプレートマッチングの際にどの次元方向に対しても分離がされやすいように、
図8Cに示すように、楕円のようにどの方向にも凸な形状が望ましい。そのため、物体ラベルのサイズはどの次元方向に対しても凸な形状になるよう、好ましくは最低でも各次元で3ピクセル以上である必要がある。
【0044】
図6A~
図7Cを参照して説明したように、
(1)教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、点反射源からの反射波を検出したときの各次元方向におけるメインローブ幅を上限として設定され、もしくは
(2)教師画像データにおける前記物体ラベルの各次元方向におけるサイズは、前記レーダ装置の方位方向のチャンネル数及びレーダ帯域幅から定まる各次元方向におけるメインローブ幅を上限として設定される、
ことが好ましい。
【0045】
以上説明したように、本実施形態で用いる機械学習モデル40は以下のように構成することが好ましい。
【0046】
1.機械学習モデル40の入力データ
(1)入力データは、各方位及び各距離における反射強度の情報を含むレーダ画像を時間フレームで後退差分したヒートマップを表す画像データある。
(2)距離及び方位の範囲はアプリケーションに合わせて任意に設定可能である。
(3)入力される画像データは必ずしも3次元である必要はなく、時系列をなくして1フレームで推論してもよい。
(4)入力と出力の距離及び方位の範囲(画像サイズ)は必ずしも同じである必要はない。
(5)入力データのモーダルを増やすことも可能であって、例えば、時間差分前の反射強度画像を2つ目のモーダルとして、RGB画像のように2つ目のチャネルとして用意してもよい。
【0047】
2.機械学習モデル40の教師データ及び出力データ
(1)教師画像データ及び出力画像データは、例えば0~1の出力範囲で表現されたグレースケールの画像を含む。
(2)検出対象となる物標以外の背景等を0として表現する。
(3)検出対象となる物標を1とし、複数画素の所定形状の図形の物体ラベルで表現する。
(4)物標の位置は時系列中の特定のフレームを基準に決定し、
図6A~
図8Cの実施例では時系列中の中心フレームを基準に物標の位置を決定した。
(5)物体ラベルの中心座標は物標の位置情報を示す。
(6)物体ラベルのサイズは物標のサイズには依存せず一定のサイズで表す。
【0048】
次いで、
図1の物体座標検出部6の構成例及び処理例について以下に説明する。
【0049】
図9は
図1の物体座標検出部6の構成例及び処理例を示すブロック図である。
図1及び
図9において、物体座標検出部6は、テンプレートマッチング部61と、ピークサーチ部62とを備える。本実施形態では、出力処理部5からの出力データの後処理において、機械学習モデル40の出力データの結果から物標の検出点数及び座標情報を抽出するためにテンプレートマッチングとピークサーチを行った。
【0050】
テンプレートマッチング部61は、入力される画像データのうち、物標の物体ラベルのパターンを、予め格納した物標の正解物標の物体ラベルのパターンと相互相関値を求めてパターンマッチング処理を行うことで、合致度の計算を行って類似度マップの画像データを計算する。次いで、ピークサーチ部62は、テンプレートマッチング部61から出力される類似度マップの画像データに対して以下のピークサーチ処理を行う。
(1)最大値フィルタ(6×6のフィルタであって、正解ラベルサイズやアプリケーションに応じて任意にサイズを決定することが可能)を用いて最大値のピーク位置を検索し、検索結果の画素を有する画像データを得る。
(2)次いで、得られた画像データに対してマスク処理を行うことで元の配列と同じ値を持つ要素だけ残した画像データを得る。
(3)さらに、得られた画像データに対してノイズ除去のために、所定のしきい値以下の低値ピークの画素を排除して画像データを得る。
【0051】
さらに、物体座標検出部6は、ピークサーチ部62で得られた画像データとともに、物標の検出点数及び物標の座標位置(距離、方位)を表示部7に出力して表示させる。
【0052】
以上説明したように、物体座標検出部6では、テンプレートマッチング部61及びピークサーチ部62との各処理を組み合わせることで、レーダ装置1の観測エリアに含まれる物標の数や座標を求めることができる。また、ここで用いた処理以外にも一般的な図形の中心座標の求め方を適用することができ、発明の基本的な効果を損なうことはない。
【0053】
(実施形態の作用効果)
以上説明したように、本実施形態によれば、物標の位置を推定する手段としてCFARとクラスタリングを組み合わせる方法ではなく、信号処理によって生成した時間差分時系列情報と画像認識用の機械学習モデルを用いることで、物標の位置に対応する物体ラベルを描画した画像データを生成することができる。それにより、CFARやクラスタリングで課題が発生する状況においても、それぞれの物標の位置を、従来技術に比較して高精度に推定することが可能になった。ここで、従来技術であるドップラーFFT、CFAR、クラスタ分析では計数がうまくいかない物体近接状況において、正しく波源数を計数でき位置を検出できるという、特有の効果を有する。
【0054】
本実施形態では、特に、画像認識用の機械学習モデル40に対して、信号処理部2によって処理された各方位及び各距離における反射強度情報を含む時系列の時間差分レーダ画像データを物体検出部4の機械学習モデル40に入力することで、物標の位置に対応する物体ラベルを描画された画像データを生成できる。これにより、ユーザは、移動する複数の物標が近接する環境内でも、各移動物体の位置を従来技術に比較して高精度で同時に検出することができる。また、例えばトンネルや高速道路の防音壁など壁が近接しレーダデータにおいてクラッタが発生するような状況下でも各移動物体の位置を従来技術に比較して高精度で同時に検出することができる。
【0055】
本実施形態では,以下の特有の効果をさらに有する。
(1)信号処理部2において、信号を分離するためのドップラー速度FFT処理が不要になる。なお、従来技術では、距離(レンジ)及びドップラー速度(相対速度)の2次元FFT処理を行うことが一般的である。
(2)CFAR及びクラスタ分析が不要である。
(3)クラッタやサイドローブを抑圧する必要がない。
(4)所望する物標からの反射信号が微弱であっても検知が可能である。
(5)実施形態に係る物体検出処理では、レーダ画像の情報は欠損しない。
(6)アンテナ素子が少なくても高精度な検知が可能である。
【0056】
(変形例)
図10は変形例に係る物体位置検出装置で用いる画像データの次元を示す図である。以上の実施形態では、方位に対する距離を表す2次元画像データを用いて物標を検出している。しかし、本発明はこれに限らず、
図10に示すように、方位及び距離の次元にさらに、相対速度(ドップラー速度)を含み、方位に対する距離及び速度を表す3次元画像データを用いて物標を検出してもよい。この場合、距離FFT部22に代えて、距離及び速度FFT部を備え、公知の距離及び速度の2次元FFT処理を行う。
【0057】
さらに、例えば、方位に対するチャンネルを持たず距離の一次元のみに対して物標の位置を検出するレーダ装置も考えられ、位置を距離として使用する場合もある。この場合に、本発明を適用して距離-速度平面上での波源位置推定を行うと、より正確な物標位置を求めることができる。従って、本発明に係る画像データは、距離、方位及び速度のうちの少なくとも2つの次元を有する画像データであってもよい。
【0058】
(応用例)
本実施形態に係る物体位置検出装置の応用例について以下に説明する。
【0059】
(1)トンネル内の交通流の監視
レーダ装置はトンネル内の天井に搭載されて、トンネル内の交通流(交通トラフィック)の監視のために使用される。本発明の実施形態によって、内壁や車両同士による虚像の影響を受けずに観測エリアに存在する物標(移動体)の位置を正しく検出することができる。また、その結果に対してトラッキングを加えることで交通流の監視や通知の制御に適用することができる。
【0060】
(2)道路に近接する大きな構造物が存在する環境での交通流の監視
レーダ装置は高速道路の防音壁(遮音壁)のように道路に近接する大きな構造物が存在する環境の路側機に搭載されて、交通流の監視のために使用される。本発明の実施形態によって、防音壁や車両同士による虚像の影響を受けずに観測エリアに存在する物標(移動体)の位置を正しく検出することができる。また、その結果に対してトラッキングを加えることで交通流の監視や通知の制御に適用することができる。
【0061】
(3)交差点での歩行者の安全監視
レーダ装置は交差点の路側機に搭載されて、交通流の監視のために使用される。本発明の実施形態によって、人間同士や電柱や建物などによる虚像の影響を受けずに観測エリアに存在する物標(移動体)の位置を正しく検出し、その結果が歩行者の安全監視や通知の制御に用いられる。
【0062】
(4)工場内での自動搬送車もしくは自走ロボットの障害物検知のセンサ
レーダ装置は工場内で稼働する自動搬送車や自走ロボットに搭載され、障害物を検知するために使用される。本発明の実施形態によって、工場内における製造ラインの機械や作業者などによる虚像の影響を受けずに観測エリアに存在する物標(障害物)の位置を正しく検出し、その結果が自動搬送車や自走ロボットの走行制御に用いられる。
【0063】
(従来技術との相違点と特有の効果)
本発明の実施形態では、機械学習モデル40は、物体の位置に対応する情報を画像データとして出力することを特徴としている。ここで、機械学習モデル40の入力データは、方位に対する距離の各位置における反射強度の情報を含むレーダ信号の画像データを時間フレームで差分した後、時系列化した画像データである。また、機械学習モデル40の教師出力データは、物体の位置情報を複数の画素で表すことを特徴としている。これにより、例えばRAD(Range Azimuth Doppler)のヒートマップのテンソル及び正解ボックスのクラス及び位置を用いる従来技術に比較して、複数の物体の有無と位置に関する情報を1枚の画像データの形式で出力するために、計算コストがきわめて小さい。また、機械学習モデル40の構造も従来技術に比較して簡単である。
【産業上の利用可能性】
【0064】
以上詳述したように、本発明によれば、従来技術に比較して、反射波が干渉するような近接する複数の物体又は構造物が近接する状況においても高精度で物体を検出することができる。本発明の物体位置検出装置は、例えば、車両又は歩行者を計数するカウンタ装置、トラフィックカウンタ装置、インフラレーダ装置、及び工場内での自動搬送車の障害物を検出するセンサ装置に適用することができる。
【符号の説明】
【0065】
1 レーダ装置
2 信号処理部
3 入力処理部
4 物体検出部
5 出力処理部
6 物体座標検出部
7 表示部
8 記憶部
21 AD変換部
22 距離FFT部
23 到来方向推定部
31 時間差分部
32 正規化部
40,40A,40B 機械学習モデル
41 3次元畳み込みエンコーダ
42 2次元畳み込みデコーダ
51 2次元畳み込みエンコーダ
52 2次元畳み込みデコーダ
61 テンプレートマッチング部
62 ピークサーチ部
81 学習済み機械学習モデル
101 物標が存在する座標点に対応する画素