IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ JRCモビリティ株式会社の特許一覧

特開2024-97620物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデル
<>
  • 特開-物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデル 図1
  • 特開-物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデル 図2
  • 特開-物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデル 図3
  • 特開-物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデル 図4
  • 特開-物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデル 図5
  • 特開-物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデル 図6
  • 特開-物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデル 図7
  • 特開-物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデル 図8
  • 特開-物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデル 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024097620
(43)【公開日】2024-07-19
(54)【発明の名称】物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデル
(51)【国際特許分類】
   G01S 13/86 20060101AFI20240711BHJP
   G01S 13/931 20200101ALN20240711BHJP
【FI】
G01S13/86
G01S13/931
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2023001202
(22)【出願日】2023-01-06
(71)【出願人】
【識別番号】318006365
【氏名又は名称】JRCモビリティ株式会社
(74)【代理人】
【識別番号】100119677
【弁理士】
【氏名又は名称】岡田 賢治
(74)【代理人】
【識別番号】100160495
【弁理士】
【氏名又は名称】畑 雅明
(74)【代理人】
【識別番号】100173716
【弁理士】
【氏名又は名称】田中 真理
(74)【代理人】
【識別番号】100115794
【弁理士】
【氏名又は名称】今下 勝博
(72)【発明者】
【氏名】宮地 倖平
(72)【発明者】
【氏名】星 将広
(72)【発明者】
【氏名】時枝 幸伸
【テーマコード(参考)】
5J070
【Fターム(参考)】
5J070AB24
5J070AC02
5J070AC13
5J070AE07
5J070AE09
5J070AF03
5J070BD08
(57)【要約】      (修正有)
【課題】本開示は、人間等の物標が障害物等に隠れており、又は、人間等の物標が地面等に接触しておらず、又は、地面等が傾斜面であっても、カメラ画像とレーダ情報とを高精度に統合し、人間等の物標を検知することを目的とする。
【解決手段】本開示は、カメラ物標を属性情報とともに検知し、カメラ物標の深度推定に基づいて、カメラ物標の概算距離を算出し、カメラ物標の画素座標に基づいて、カメラ物標の方位を算出するカメラ物標検知部31と、レーダ物標をクラスタとして検知し、レーダ物標のレーダ反射時間に基づいて、レーダ物標の距離を算出し、レーダ物標のレーダ反射方位に基づいて、レーダ物標の方位を算出するレーダ物標検知部32と、カメラ物標の概算距離及び方位と、レーダ物標の距離及び方位と、の一致に基づいて、カメラ物標とレーダ物標とを同一物標に統合する物標統合部33と、を備える物標検知装置3である。
【選択図】図2
【特許請求の範囲】
【請求項1】
カメラ画像とレーダ情報とを統合し、物標を検知する物標検知装置であって、
前記カメラ画像において、カメラ物標を属性情報とともに検知し、前記カメラ物標の深度推定に基づいて、前記カメラ物標の概算距離を算出し、前記カメラ物標の画素座標に基づいて、前記カメラ物標の方位を算出するカメラ物標検知部と、
前記レーダ情報において、レーダ物標をクラスタとして検知し、前記レーダ物標のレーダ反射時間に基づいて、前記レーダ物標の距離を算出し、前記レーダ物標のレーダ反射方位に基づいて、前記レーダ物標の方位を算出するレーダ物標検知部と、
前記カメラ物標の概算距離及び方位と、前記レーダ物標の距離及び方位と、の一致に基づいて、前記カメラ物標と前記レーダ物標とを同一物標に統合する物標統合部と、
を備えることを特徴とする物標検知装置。
【請求項2】
前記カメラ物標検知部は、前記カメラ画像を入力し、前記カメラ物標の概算距離を出力する深度推定AIを用いて、前記カメラ物標の概算距離を算出する
ことを特徴とする、請求項1に記載の物標検知装置。
【請求項3】
前記カメラ物標検知部は、前記カメラ画像及び前記カメラ物標を構成する全ての画素情報を入力し、前記カメラ物標を代表する代表画素座標の概算距離を出力する前記深度推定AIを用いて、前記カメラ物標を代表する代表画素座標の概算距離を算出する
ことを特徴とする、請求項2に記載の物標検知装置。
【請求項4】
前記レーダ物標検知部は、前記レーダ物標の距離及び方位について、ノイズを低減可能であるとともに、時間変化を追従可能であるように、平滑化処理を実行する
ことを特徴とする、請求項1から3のいずれかに記載の物標検知装置。
【請求項5】
請求項1に記載の物標検知装置が備える前記カメラ物標検知部、前記レーダ物標検知部及び前記物標統合部が行なう各処理を、コンピュータに実行させる物標検知プログラム。
【請求項6】
請求項1に記載の物標検知装置と、前記カメラ画像を生成するカメラ装置と、前記レーダ情報を生成するレーダ装置と、を備えることを特徴とする物標検知システム。
【請求項7】
カメラ画像及びカメラ物標を構成する全ての画素情報が入力される入力層と、
前記カメラ物標を代表する代表画素座標の概算距離を出力する出力層と、
前記カメラ画像及び前記カメラ物標を構成する全ての画素情報と、前記カメラ物標を代表する代表画素座標の概算距離と、を備える複数の教師データを用いて、ニューラルネットワークの重み情報が学習された中間層と、を備え、
前記カメラ画像及び前記カメラ物標を構成する全ての画素情報を前記入力層へと入力し、前記中間層において演算し、前記カメラ物標を代表する代表画素座標の概算距離を前記出力層から出力するように、コンピュータを機能させるカメラ距離学習モデル。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、カメラ画像とレーダ情報とを統合し、物標を検知する技術に関する。
【背景技術】
【0002】
自動車、農機、建機又はロボット等では、周辺の人間又は障害物等を監視したうえで、周辺の人間又は障害物等と衝突しないような、人間又は障害物等の物標を検知する技術が要望されている。そして、周辺の人間等を特別に警告するために、周辺の障害物等をあえて注意しないような、人間又は障害物等の物標を識別する技術も要望されている。
【0003】
特許文献1では、カメラ画像とレーダ情報とを統合し、物標を検知する技術が開示されている。ここで、カメラ画像では、カメラ物標の属性情報を識別することに優位性がある。一方で、レーダ情報では、レーダ物標の距離及び方位を検知することに優位性がある。そこで、カメラ画像とレーダ情報とを統合し、物標を検知及び識別することができる。
【0004】
なお、物標検知システムの高性能化を図るために、カメラ装置としてステレオカメラ又はTOFカメラ等を使ってもよく、レーダ装置としてLiDAR等を使ってもよい。また、物標検知システムの低価格化を図るために、カメラ装置として単眼カメラ又は赤外線カメラ等を使ってもよく、レーダ装置としてミリ波レーダ等を使ってもよい。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2022-039102号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
従来技術のカメラ画像とレーダ情報との統合処理を図1に示す。図1の上段では、人間Pが存在している。図1の下段では、人間P及び手前の障害物Oが存在している。
【0007】
不図示のカメラ物標検知部は、カメラ画像Cにおいて、カメラ物標CTを属性情報とともに検知し、カメラ物標CTの底部座標Gに基づいて、カメラ物標CTの概算距離を算出し、カメラ物標CTの画素座標に基づいて、カメラ物標CTの方位を算出する。
【0008】
不図示のレーダ物標検知部は、レーダ情報において、レーダ物標RTをクラスタとして検知し、レーダ物標RTのレーダ反射時間に基づいて、レーダ物標RTの距離を算出し、レーダ物標RTのレーダ反射方位に基づいて、レーダ物標RTの方位を算出する。
【0009】
不図示の物標統合部は、統合結果Iにおいて、カメラ物標CTの概算距離及び方位と、レーダ物標RTの距離及び方位と、の一致に基づいて、カメラ物標CTとレーダ物標RTとを同一物標に統合し、物標検知システムの周辺の監視領域Mとの位置関係を表示する。
【0010】
ここで、不図示のカメラ物標検知部は、以下の数式に基づいて、カメラ物標CTの概算距離を算出する:カメラ物標CTの概算距離=(カメラ装置の焦点距離×カメラ画像Cの画像サイズ×カメラ装置の設置高さ)/{(カメラ物標CTの矩形領域Bの底部座標G-カメラ画像Cの消失点座標)×カメラ装置のセンササイズ×100}。
【0011】
図1の上段では、人間Pの足元が手前の障害物Оに隠れておらず、かつ、人間Pの足元が地面に接触しており、かつ、地面が水平面である。よって、不図示のカメラ物標検知部は、カメラ物標CTの矩形領域Bを高精度に算出でき、カメラ物標CTの矩形領域Bの底部座標Gを高さ0の地面に一致させ、カメラ物標CTの概算距離を高精度に算出することができる。そして、不図示の物標統合部は、カメラ物標CTとレーダ物標RTとを高精度に同一物標に統合でき、物標の未検知又は誤検知を防止することができる。
【0012】
図1の下段では、人間Pの足元が手前の障害物Оに隠れており、又は、人間Pの足元が地面に接触しておらず、又は、地面が傾斜面である。よって、不図示のカメラ物標検知部は、カメラ物標CTの矩形領域Bを高精度に算出できず、カメラ物標CTの矩形領域Bの底部座標Gを高さ0の地面に一致させず、カメラ物標CTの概算距離を高精度に算出することができない。そして、不図示の物標統合部は、カメラ物標CTとレーダ物標RTとを高精度に同一物標に統合できず、物標の未検知又は誤検知を防止することができない。
【0013】
そこで、前記課題を解決するために、本開示は、人間等の物標が障害物等に隠れており、又は、人間等の物標が地面等に接触しておらず、又は、地面等が傾斜面であっても、カメラ画像とレーダ情報とを高精度に統合し、人間等の物標を検知することを目的とする。
【課題を解決するための手段】
【0014】
前記課題を解決するために、カメラ物標の底部座標ではなく、カメラ物標の深度推定に基づいて、カメラ物標の概算距離を算出することとした。ここで、カメラ物標の深度推定では、カメラ物標の底部座標を考慮するのみならず、カメラ物標を構成する全ての画素情報(画素座標又は画素輝度等)を考慮するため、カメラ物標の概算距離を算出するための情報量が増加する。
【0015】
具体的には、本開示は、カメラ画像とレーダ情報とを統合し、物標を検知する物標検知装置であって、前記カメラ画像において、カメラ物標を属性情報とともに検知し、前記カメラ物標の深度推定に基づいて、前記カメラ物標の概算距離を算出し、前記カメラ物標の画素座標に基づいて、前記カメラ物標の方位を算出するカメラ物標検知部と、前記レーダ情報において、レーダ物標をクラスタとして検知し、前記レーダ物標のレーダ反射時間に基づいて、前記レーダ物標の距離を算出し、前記レーダ物標のレーダ反射方位に基づいて、前記レーダ物標の方位を算出するレーダ物標検知部と、前記カメラ物標の概算距離及び方位と、前記レーダ物標の距離及び方位と、の一致に基づいて、前記カメラ物標と前記レーダ物標とを同一物標に統合する物標統合部と、を備えることを特徴とする物標検知装置である。
【0016】
この構成によれば、人間等の物標が障害物等に隠れており、又は、人間等の物標が地面等に接触しておらず、又は、地面等が傾斜面であっても、カメラ物標の概算距離を高精度に算出でき、カメラ画像とレーダ情報とを高精度に統合することができる。そして、カメラ装置が障害物等に隠されていても、カメラ装置及びレーダ装置が設置中心位置を揃えていれば、カメラ物標の概算距離を高精度に算出でき、カメラ画像とレーダ情報とを高精度に統合することができる。
【0017】
また、本開示は、前記カメラ物標検知部は、前記カメラ画像を入力し、前記カメラ物標の概算距離を出力する深度推定AIを用いて、前記カメラ物標の概算距離を算出することを特徴とする物標検知装置である。
【0018】
この構成によれば、人間等の物標と障害物等との間の位置関係が時間変化しても、カメラ物標の概算距離を高精度に算出でき、カメラ画像とレーダ情報とを高精度に統合することができる。
【0019】
また、本開示は、前記カメラ物標検知部は、前記カメラ画像及び前記カメラ物標を構成する全ての画素情報を入力し、前記カメラ物標を代表する代表画素座標の概算距離を出力する前記深度推定AIを用いて、前記カメラ物標を代表する代表画素座標の概算距離を算出することを特徴とする物標検知装置である。
【0020】
この構成によれば、計算資源に限りのあるエッジ端末等であっても、カメラ物標の概算距離を高速度に算出でき、カメラ画像とレーダ情報とを高速度に統合することができる。
【0021】
また、本開示は、前記レーダ物標検知部は、前記レーダ物標の距離及び方位について、ノイズを低減可能であるとともに、時間変化を追従可能であるように、平滑化処理を実行することを特徴とする物標検知装置である。
【0022】
この構成によれば、レーダ物標の代表座標がノイズを含んでも、レーダ物標の距離及び方位を平滑化でき、カメラ画像とレーダ情報とを高精度に統合することができる。
【0023】
また、本開示は、以上に記載の物標検知装置が備える前記カメラ物標検知部、前記レーダ物標検知部及び前記物標統合部が行なう各処理を、コンピュータに実行させる物標検知プログラムである。
【0024】
この構成によれば、以上に記載の効果を有するプログラムを提供することができる。
【0025】
また、本開示は、以上に記載の物標検知装置と、前記カメラ画像を生成するカメラ装置と、前記レーダ情報を生成するレーダ装置と、を備えることを特徴とする物標検知システムである。
【0026】
この構成によれば、以上に記載の効果を有するシステムを提供することができる。
【0027】
また、本開示は、カメラ画像及びカメラ物標を構成する全ての画素情報が入力される入力層と、前記カメラ物標を代表する代表画素座標の概算距離を出力する出力層と、前記カメラ画像及び前記カメラ物標を構成する全ての画素情報と、前記カメラ物標を代表する代表画素座標の概算距離と、を備える複数の教師データを用いて、ニューラルネットワークの重み情報が学習された中間層と、を備え、前記カメラ画像及び前記カメラ物標を構成する全ての画素情報を前記入力層へと入力し、前記中間層において演算し、前記カメラ物標を代表する代表画素座標の概算距離を前記出力層から出力するように、コンピュータを機能させるカメラ距離学習モデルである。
【0028】
この構成によれば、計算資源に限りのあるエッジ端末等であっても、カメラ物標の概算距離を高速度に算出するための、カメラ距離学習モデルを提供することができる。
【0029】
なお、上記各開示の発明は、可能な限り組み合わせることができる。
【発明の効果】
【0030】
このように、本開示は、人間等の物標が障害物等に隠れており、又は、人間等の物標が地面等に接触しておらず、又は、地面等が傾斜面であっても、カメラ画像とレーダ情報とを高精度に統合し、人間等の物標を検知することができる。
【図面の簡単な説明】
【0031】
図1】従来技術のカメラ画像とレーダ情報との統合処理を示す図である。
図2】本開示の物標検知システムの構成を示す図である。
図3】本開示の物標検知処理の手順を示す図である。
図4】本開示の第1のカメラ物標の検知処理を示す図である。
図5】本開示の第2のカメラ物標の検知処理を示す図である。
図6】本開示のカメラ距離学習モデルの構成を示す図である。
図7】本開示のレーダ物標の検知処理を示す図である。
図8】本開示のカメラ画像とレーダ情報との統合処理を示す図である。
図9】本開示のカメラ物標の検知結果を示す図である。
【発明を実施するための形態】
【0032】
添付の図面を参照して本開示の実施形態を説明する。以下に説明する実施形態は本開示の実施の例であり、本開示は以下の実施形態に制限されるものではない。
【0033】
(本開示の物標検知システムの概要)
本開示の物標検知システムの構成を図2に示す。本開示の物標検知処理の手順を図3に示す。物標検知システムSは、カメラ装置1、レーダ装置2及び物標検知装置3を備える。物標検知装置3は、カメラ物標検知部31、レーダ物標検知部32及び物標統合部33を備え、図3に示した物標検知プログラムをコンピュータにインストールしている。
【0034】
本開示では、物標検知システムSの低価格化を図るために、カメラ装置1として単眼カメラを使っており(赤外線カメラ等を使ってもよい。)、レーダ装置2としてミリ波レーダを使っている(MIMOレーダ等を使ってもよい。)。変形例として、物標検知システムSの高性能化を図るために、カメラ装置1としてステレオカメラ又はTOFカメラ等を使ってもよく、レーダ装置2としてLiDAR等を使ってもよい。
【0035】
本開示では、カメラ物標の底部座標ではなく、カメラ物標の深度推定に基づいて、カメラ物標の概算距離を算出することとした。ここで、カメラ物標の深度推定では、カメラ物標の底部座標を考慮するのみならず、カメラ物標を構成する全ての画素情報(画素座標又は画素輝度等)を考慮するため、カメラ物標の概算距離を算出するための情報量が増加する。
【0036】
よって、人間等の物標が障害物等に隠れており、又は、人間等の物標が地面等に接触しておらず、又は、地面等が傾斜面であっても、カメラ物標の概算距離を高精度に算出でき、カメラ画像とレーダ情報とを高精度に統合することができる。そして、カメラ装置1が障害物等に隠されていても、カメラ装置1及びレーダ装置2が設置中心位置を揃えていれば、カメラ物標の概算距離を高精度に算出でき、カメラ画像とレーダ情報とを高精度に統合することができる。以下に、カメラ物標検知部31、レーダ物標検知部32及び物標統合部33の処理を具体的に説明する。
【0037】
(本開示のカメラ物標の検知処理)
本開示の第1のカメラ物標の検知処理を図4に示す。本開示の第2のカメラ物標の検知処理を図5に示す。図4、5では、人間P1、P2が存在しており、人間P1の手前に障害物Oが存在しているが、人間P2の手前に障害物Oが存在していない。
【0038】
カメラ物標検知部31は、カメラ画像Cにおいて、カメラ物標を属性情報とともに検知する(ステップS1)。図4、5では、カメラ物標検知部31は、人間P1、P2の矩形領域B1、B2を算出し、矩形領域B1、B2の属性情報確度を算出する。
【0039】
カメラ物標検知部31は、カメラ画像Cにおいて、カメラ物標の深度推定に基づいて、カメラ物標の概算距離を算出する(ステップS2)。図4、5では、カメラ物標検知部31は、カメラ画像Cを入力し、カメラ物標の概算距離を出力する深度推定AIを用いて、カメラ物標の概算距離を算出するが、異なるタイプの深度推定AIを用いる。
【0040】
変形例として、カメラ物標検知部31は、カメラ装置1の焦点距離、カメラ装置1の絞り値、カメラ画像Cの領域毎のボケ程度、カメラ物標の大きさ及びカメラ物標の周辺環境に基づいて、第一原理計算を用いて、カメラ物標の概算距離を算出してもよい。
【0041】
本開示では、人間等の物標と障害物等との間の位置関係が時間変化しても、カメラ物標の概算距離を高精度に算出でき、カメラ画像とレーダ情報とを高精度に統合することができる。
【0042】
図4では、カメラ物標検知部31は、カメラ画像Cを入力し、カメラ画像Cを構成する全ての画素座標の概算距離を出力する深度推定AIを用いて、カメラ画像Cを構成する全ての画素座標の概算距離を算出する。つまり、カメラ物標検知部31は、矩形領域B1、B2を含む全画素座標の概算距離を算出し、矩形領域B1、B2のみの各画素座標の概算距離の平均値又は中央値を算出し、カメラ物標の概算距離を算出する。
【0043】
図4のカメラ距離学習モデルの構成は図示しない。カメラ距離学習モデルは、入力層、中間層及び出力層を備える。入力層は、カメラ画像Cが入力される。出力層は、カメラ画像Cを構成する全ての画素座標の概算距離を出力する。中間層は、カメラ画像Cと、カメラ画像Cを構成する全ての画素座標の概算距離と、を備える複数の教師データを用いて、ニューラルネットワークの重み情報が学習される。カメラ距離学習モデルは、カメラ画像Cを入力層へと入力し、中間層において演算し、カメラ画像Cを構成する全ての画素座標の概算距離を出力層から出力するように、コンピュータを機能させる。
【0044】
よって、計算資源に限りのないコンピュータ等であれば、カメラ物標の概算距離を高精度に算出でき、カメラ画像とレーダ情報とを高精度に統合することができる。
【0045】
図5では、カメラ物標検知部31は、カメラ画像C及びカメラ物標を構成する全ての画素情報(画素座標又は画素輝度等)を入力し、カメラ物標を代表する代表画素座標の概算距離を出力する深度推定AIを用いて、カメラ物標を代表する代表画素座標の概算距離を算出する。つまり、カメラ物標検知部31は、矩形領域B1、B2を含む全画素座標の概算距離を算出せず、矩形領域B1、B2のみの代表画素座標の概算距離を算出し、カメラ物標の概算距離を算出する。
【0046】
図5のカメラ距離学習モデルの構成を図6に示す。カメラ距離学習モデル4は、入力層41、中間層42及び出力層43を備える。入力層41は、カメラ画像C及びカメラ物標を構成する全ての画素情報(画素座標又は画素輝度等)が入力される。出力層43は、カメラ物標を代表する代表画素座標の概算距離を出力する。中間層42は、カメラ画像C及びカメラ物標を構成する全ての画素情報(画素座標又は画素輝度等)と、カメラ物標を代表する代表画素座標の概算距離と、を備える複数の教師データを用いて、ニューラルネットワークの重み情報が学習される。カメラ距離学習モデル4は、カメラ画像C及びカメラ物標を構成する全ての画素情報(画素座標又は画素輝度等)を入力層41へと入力し、中間層42において演算し、カメラ物標を代表する代表画素座標の概算距離を出力層43から出力するように、コンピュータを機能させる。
【0047】
よって、計算資源に限りのあるエッジ端末等であっても、カメラ物標の概算距離を高速度に算出でき、カメラ画像とレーダ情報とを高速度に統合することができる。
【0048】
カメラ物標検知部31は、カメラ画像Cにおいて、カメラ物標の画素座標に基づいて、カメラ物標の方位を算出する(ステップS3)。図4、5では、カメラ物標検知部31は、以下の数式に基づいて、矩形領域B1、B2の方位θ、θを算出する:矩形領域B1、B2の方位θ、θ=(矩形領域B1、B2の中心画素座標-カメラ画像Cの中心画素座標)×カメラ装置1の全画角範囲/カメラ画像Cの全画素個数。
【0049】
(本開示のレーダ物標の検知処理)
本開示のレーダ物標の検知処理を図7に示す。図7では、人間又は障害物等として、レーダ物標RT1、RT2、RT3、RT4が存在している。
【0050】
レーダ物標検知部32は、レーダ情報Rにおいて、レーダ物標をクラスタとして検知する(ステップS4)。図7では、レーダ物標検知部32は、レーダ物標RT1、RT2、RT3、RT4を検知し、物標検知システムSの周辺の監視領域Mとの位置関係を検知する。
【0051】
レーダ物標検知部32は、レーダ情報Rにおいて、レーダ物標のレーダ反射時間に基づいて、レーダ物標の距離(=レーダ反射時間×光速/2)を算出する(ステップS5)。レーダ物標検知部32は、レーダ情報Rにおいて、レーダ物標のレーダ反射方位に基づいて、レーダ物標の方位(位相モノパルス方式等)を算出する(ステップS6)。
【0052】
レーダ物標検知部32は、レーダ物標の距離及び方位について、時間変化のデータ欠損をなくすように、複数フレームのレーダ情報Rの重畳処理を実行する。レーダ物標検知部32は、レーダ物標の距離及び方位について、ノイズを低減可能であるとともに、時間変化を追従可能であるように、複数フレームのレーダ情報Rの平滑化処理を実行する。
【0053】
よって、レーダ物標の代表座標がノイズを含んでも、レーダ物標の距離及び方位を平滑化でき、カメラ画像とレーダ情報とを高精度に統合することができる。ただし、カメラ物標の代表画素座標がノイズを含んでも、カメラ物標が近距離物標であり、座標ノイズが1画素程度であれば、カメラ物標の距離及び方位を平滑化する必要はない。
【0054】
(本開示のカメラ画像とレーダ情報との統合処理)
本開示のカメラ画像とレーダ情報との統合処理を図8に示す。図8では、検知対象である人間が2人存在しており、非検知対象である障害物が2個存在している。
【0055】
物標統合部33は、統合結果Iにおいて、カメラ物標の概算距離及び方位と、レーダ物標の距離及び方位と、の一致に基づいて、カメラ物標とレーダ物標とを同一物標に統合し、物標検知システムSの周辺の監視領域Mとの位置関係を表示する(ステップS7)。
【0056】
図8では、カメラ物標検知部31は、カメラ検知結果Cにおいて、カメラ距離情報CR1及びカメラ方位情報CD1の組み合わせと、カメラ距離情報CR2及びカメラ方位情報CD2の組み合わせと、を検知する。そして、レーダ物標検知部32は、レーダ情報Rにおいて、レーダ物標RT1、RT2、RT3、RT4の距離及び方位を検知する。
【0057】
すると、物標統合部33は、統合結果Iにおいて、カメラ距離情報CR1及びカメラ方位情報CD1の組み合わせと、レーダ物標RT2の距離及び方位と、の一致に基づいて、当該カメラ物標とレーダ物標RT2とを同一の統合物標IT1(人間)に統合する。そして、物標統合部33は、統合結果Iにおいて、カメラ距離情報CR2及びカメラ方位情報CD2の組み合わせと、レーダ物標RT4の距離及び方位と、の一致に基づいて、当該カメラ物標とレーダ物標RT4とを同一の統合物標IT2(人間)に統合する。
【0058】
よって、人間等の物標が障害物等に隠れており、又は、人間等の物標が地面等に接触しておらず、又は、地面等が傾斜面であっても、カメラ物標の概算距離を高精度に算出でき、カメラ画像とレーダ情報とを高精度に統合することができる。そして、カメラ装置1が障害物等に隠されていても、カメラ装置1及びレーダ装置2が設置中心位置を揃えていれば、カメラ物標の概算距離を高精度に算出でき、カメラ画像とレーダ情報とを高精度に統合することができる。
【0059】
本開示のカメラ物標の検知結果を図9に示す。図9では、検知対象である人間が、一定の距離及び方位において、台座へと昇ったり、台座から降りたりする。
【0060】
従来技術では、検知対象である人間が、台座へと昇るときには、カメラ物標の概算距離が、カメラ物標の底部座標の上昇に応じて、真距離から増加してしまう。本開示では、検知対象である人間が、台座へと昇るときでも、カメラ物標の概算距離が、カメラ物標の底部座標の上昇によらず、カメラ物標の深度推定に基づいて、真距離からほぼ変化しない。
【産業上の利用可能性】
【0061】
本開示の物標検知装置、物標検知プログラム、物標検知システム及びカメラ距離学習モデルは、自動車、農機、建機又はロボット等において、(1)周辺の人間又は障害物等を監視したうえで、周辺の人間又は障害物等と衝突しないような、人間又は障害物等の物標を検知する技術と、(2)周辺の人間等を特別に警告するために、周辺の障害物等をあえて注意しないような、人間又は障害物等の物標を識別する技術と、を提供することができる。
【符号の説明】
【0062】
C:カメラ画像、カメラ検知結果
P、P1、P2:人間
O:障害物
B、B1、B2:矩形領域
G:底部座標
CT:カメラ物標
D:深度推定結果
CR1、CR2:カメラ距離情報
CD1、CD2:カメラ方位情報
R:レーダ情報
RT、RT1~RT4:レーダ物標
I:統合結果
IT1、IT2:統合物標
M:監視領域
S:物標検知システム
1:カメラ装置
2:レーダ装置
3:物標検知装置
4:カメラ距離学習モデル
31:カメラ物標検知部
32:レーダ物標検知部
33:物標統合部
41:入力層
42:中間層
43:出力層
図1
図2
図3
図4
図5
図6
図7
図8
図9