(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024162321
(43)【公開日】2024-11-21
(54)【発明の名称】速度補正方法、運転支援装置、および、プログラム
(51)【国際特許分類】
G01S 13/86 20060101AFI20241114BHJP
G01S 13/931 20200101ALI20241114BHJP
G08G 1/16 20060101ALI20241114BHJP
G01S 13/58 20060101ALI20241114BHJP
G01S 7/40 20060101ALI20241114BHJP
【FI】
G01S13/86
G01S13/931
G08G1/16 C
G01S13/58 200
G01S7/40
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023077704
(22)【出願日】2023-05-10
(71)【出願人】
【識別番号】000004260
【氏名又は名称】株式会社デンソー
(71)【出願人】
【識別番号】000003207
【氏名又は名称】トヨタ自動車株式会社
(71)【出願人】
【識別番号】520124752
【氏名又は名称】株式会社ミライズテクノロジーズ
(74)【代理人】
【識別番号】110000028
【氏名又は名称】弁理士法人明成国際特許事務所
(72)【発明者】
【氏名】金田 泰成
【テーマコード(参考)】
5H181
5J070
【Fターム(参考)】
5H181AA01
5H181BB20
5H181CC04
5H181CC14
5H181LL01
5H181LL04
5H181LL09
5J070AC02
5J070AC06
5J070AC11
5J070AE01
5J070AF03
5J070AK04
5J070BD08
(57)【要約】
【課題】対象車両の速度を精度よく求める。
【解決手段】速度補正方法は、(A)レーダ12を用いて、対象車線における少なくとも1つのターゲットからの反射点の集合を表す第1点群を取得するステップと、(B)第1点群を用いて車両に対するターゲットの相対速度を取得するステップと、(C)カメラが撮像した入力画像に基づいて、撮像範囲に存在する物体の形状を表す三次元情報を生成するステップと、(D)三次元情報を用いて平面視画像IM1を生成するステップと、(E)平面視画像におけるターゲットが存在する第1範囲内における第1点群の平面視における位置を表す対応情報を生成するステップと、(F)対応情報を用いて、ターゲットを車両から見た方向と、平面視画像に基づいて求められたターゲットの進行方向と、がなす角度を算出するステップと、(G)角度を用いて相対速度を補正するステップと、を含む。
【選択図】
図2
【特許請求の範囲】
【請求項1】
運転支援装置(100)が、車両(50)に設けられ、前記車両の前方を撮像するカメラ(11)と、前記車両に設けられ、電磁波を放射して、前記カメラの撮像範囲と少なくとも一部が重複する範囲に存在する複数の物体からの前記電磁波の反射点を取得するレーダ(12)と、を用いて、着目する物体であるターゲット(T1)の速度を補正する速度補正方法であって、
(A)前記レーダを用いて、前記車両が走行している車線の隣接の対象車線における少なくとも1つのターゲットからの前記反射点の集合を表す第1点群を取得するステップと、
(B)前記第1点群を用いて前記車両に対する前記ターゲットの相対速度を取得するステップと、
(C)前記カメラが撮像した入力画像を用いて、前記撮像範囲に存在する物体の形状を表す三次元情報を生成するステップと、
(D)前記三次元情報を用いてに基づいて平面視画像(IM1)を生成するステップと、
(E)前記平面視画像における前記ターゲットが存在する第1範囲内における前記第1点群の平面視における位置を表す対応情報を生成するステップと、
(F)前記対応情報を用いて、前記ターゲットを前記車両から見た方向と、前記平面視画像に基づいて求められた前記ターゲットの進行方向と、がなす角度を算出するステップと、
(G)前記角度を用いて、前記相対速度を補正するステップと、
を含む速度補正方法。
【請求項2】
請求項1に記載の速度補正方法であって、
前記ステップ(C)は、
前記入力画像から第1機械学習モデルを用いて、前記カメラの前記撮像範囲に存在する物体の前記三次元情報を生成し、
前記ステップ(D)は、
前記三次元情報を用いて、座標変換により前記平面視画像を生成する、
ことを含む、
速度補正方法。
【請求項3】
請求項2に記載の速度補正方法であって、
前記ステップ(E)における、
前記第1範囲は、
前記平面視画像において前記ターゲットが存在する範囲をあらかじめ決められた倍率で拡大した範囲である、
速度補正方法。
【請求項4】
請求項3に記載の速度補正方法であって、
前記ステップ(A)は、
前記レーダを用いて、前記少なくとも一部が重複する範囲に存在する前記複数の物体からの前記反射点の集合を取得し、
前記複数の物体からの前記反射点の集合をクラスタリングにより物体ごとに分割することにより、前記ターゲットからの前記反射点を表す前記第1点群を取得する、
ことを含む、
速度補正方法。
【請求項5】
請求項4に記載の速度補正方法であって、
前記ステップ(E)は、
前記平面視画像に基づいて物体検出用の第2機械学習モデルを用いて、前記平面視画像内の物体が存在する範囲、および、前記物体の種類を表す情報を出力する、
ことを含む、
速度補正方法。
【請求項6】
請求項5に記載の速度補正方法であって、
前記ステップ(E)は、
前記物体があらかじめ決められた種類の物体であることを含む、あらかじめ決められた条件を満たす場合、前記物体を前記ターゲットとして取り扱い、前記対応情報を出力し、
前記あらかじめ決められた条件を満たさない場合、前記対応情報を出力しない、
ことを含む、
速度補正方法。
【請求項7】
請求項6に記載の速度補正方法であって、
前記ステップ(E)において前記第1範囲と前記第1点群との対応付けができない場合に、前記ステップ(F)および前記ステップ(G)が実行されず、
前記ステップ(E)において前記第1範囲と前記第1点群との対応付けができる場合に、前記ステップ(F)および前記ステップ(G)が実行される、
速度補正方法。
【請求項8】
車両(50)に設けられ、前記車両の前方を撮像するカメラ(11)と、前記車両に設けられ、電磁波を放射して、前記カメラの撮像範囲と少なくとも一部が重複する範囲に存在する複数の物体からの前記電磁波の反射点を取得するレーダ(12)と、を用いて、着目する物体であるターゲット(T1)の速度を補正する運転支援装置(100)であって、
前記レーダが取得した第1点群であって、前記車両が走行している車線の隣接の対象車線における少なくとも1つのターゲットからの前記反射点の集合を表す第1点群を用いて、前記車両に対する前記ターゲットの相対速度を取得する相対速度取得部(110)と、
前記カメラが撮像した入力画像を用いて、前記撮像範囲に存在する物体の形状を表す三次元情報を生成し、前記三次元情報を用いて平面視画像を生成する画像生成部(120)と、
前記平面視画像において前記ターゲットが存在する第1範囲内における前記第1点群の平面視における位置を表す対応情報を生成するフュージョン部(130)と、
前記対応情報を用いて、前記ターゲットを前記車両から見た方向と、前記平面視画像に基づいて求められた前記ターゲットの進行方向と、がなす角度を算出し、
前記角度を用いて前記相対速度を補正する補正部(140)と、
を備える運転支援装置。
【請求項9】
車両(50)に設けられ、前記車両の前方を撮像するカメラ(11)と、前記車両に設けられ、電磁波を放射して、前記カメラの撮像範囲と少なくとも一部が重複する範囲に存在する複数の物体からの前記電磁波の反射点を取得するレーダ(12)と、を用いて、着目する物体であるターゲット(T1)の速度を補正するコンピュータ(100)が実行するプログラムであって、
前記コンピュータに、
前記レーダを用いて、前記車両が走行している車線の隣接の対象車線における少なくとも1つのターゲットからの前記反射点の集合を表す第1点群を取得する機能と、
前記第1点群を用いて前記車両に対する前記ターゲットの相対速度を取得する機能と、
前記カメラが撮像した入力画像を用いて、前記撮像範囲に存在する物体の形状を表す三次元情報を生成する機能と、
前記三次元情報を用いて平面視画像(IM1)を生成する機能と、
前記平面視画像における前記ターゲットが存在する第1範囲内における前記第1点群の平面視における位置を表す対応情報を生成する機能と、
前記対応情報を用いて、前記ターゲットを前記車両から見た方向と、前記平面視画像に基づいて求められた前記ターゲットの進行方向と、がなす角度を算出する機能と、
前記角度を用いて、前記相対速度を補正する機能と、
を実現させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、速度補正方法、運転支援装置、および、プログラムに関する。
【背景技術】
【0002】
特許文献1には、レーダの検出点から推定された対象車両の進行方向を補正する技術について記載されている。対象車両が対向車線を走行している車両である場合、対象車両の進行方向と、自車両が備えるレーダが電磁波を放射する方向とは正対していない。このため、レーダが検出できるのは電磁波の放射方向に沿った対象車両の速度成分である。対象車両の正確な速度を得るためには、対象車両の進行方向を正確に求める必要がある。
【0003】
特許文献1には、対象車両を上から見た場合の平面視における対象車両が存在する領域として、レーダの検出点すべてを囲むボックスが設定されることが記載されている。また、特許文献1には、基準となる検出点とボックス内に含まれるいずれかの検出点とを結んだ直線が任意の手法で決定された基準方向に対してなす角度を、対象車両の補正後の進行方向の候補とすることが記載されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】米国特許出願公開第2019/0004166号明細書
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1に記載の技術においては、レーダの検出点の数があらかじめ決められた数より少ない場合に、対象車両が存在する領域を表すためのボックスを設定することができない。よって、レーダの検出点の数が少ない場合であっても、対象車両の進行方向を求め、対象車両の速度を精度よく求めることができる技術が望まれていた。
【課題を解決するための手段】
【0006】
本開示の一形態によれば、速度補正方法が提供される。この速度補正方法は、運転支援装置(100)が、車両に設けられ、車両(50)の前方を撮像するカメラ(11)と、前記車両に設けられ、電磁波を放射して、前記カメラの撮像範囲と少なくとも一部が重複する範囲に存在する複数の物体からの前記電磁波の反射点を取得するレーダ(12)と、を用いて、着目する物体であるターゲット(T1)の速度を補正する速度補正方法であって、(A)前記レーダを用いて、前記車両が走行している車線の隣接の対象車線における少なくとも1つのターゲットからの前記反射点の集合を表す第1点群を取得するステップと、(B)前記第1点群を用いて前記車両に対する前記ターゲットの相対速度を取得するステップと、(C)前記カメラが撮像した入力画像を用いて、前記撮像範囲に存在する物体の形状を表す三次元情報を生成するステップと、(D)前記三次元情報を用いて平面視画像(IM1)を生成するステップと、(E)前記平面視画像における前記ターゲットが存在する第1範囲内における前記第1点群の平面視における位置を表す対応情報を生成するステップと、(F)前記対応情報を用いて、前記ターゲットを前記車両から見た方向と、前記平面視画像に基づいて推定される前記ターゲットの前記進行方向と、がなす角度を算出するステップと、(G)前記角度を用いて、前記相対速度を補正するステップと、を含む。
【0007】
上記形態によれば、レーダが検出した反射点が少ない場合であっても、カメラが撮像した入力画像から得られる情報を用いてターゲットが存在する範囲とターゲットの進行方向とを特定できる。よって、レーダの検出点の数が少ない場合であっても、対象車両の進行方向を精度よく求め、対象車両の速度を精度よく補正できる。
【図面の簡単な説明】
【0008】
【
図1】運転支援システムの概略構成を表すブロック図である。
【
図2】ターゲットの相対速度を補正する速度補正処理のフローチャートである。
【
図4】平面視画像においてターゲットを囲むボックスの設定についての説明図である。
【
図5】平面視画像においてターゲットを囲むボックスの拡大についての説明図である。
【
図8】右折するターゲットについての説明図である。
【発明を実施するための形態】
【0009】
A.実施形態:
図1に示すように、運転支援システム10は車両50に搭載されている。車両50はADAS(Advanced Driving Assistant System: 先進運転システム)による走行が可能である。運転支援システム10は、車両50が走行する車線に隣接する車線を走行する物標の相対速度を求める。運転支援システム10は、カメラ11と、レーダ12と、運転支援装置100と、運転制御部200と、駆動力ECU(Electronic Control Unit)300と、ブレーキECU400と、操舵ECU500と、を備える。運転支援装置100と、運転制御部200と、駆動力ECU300と、ブレーキECU400と、操舵ECU500とは、車載ネットワークVNを介して接続される。車載ネットワークVNは、例えば、CAN(Controller Area Network)である。
【0010】
カメラ11は、車両50の前方に存在する物標(物体)を検出するための画像センサである。カメラ11は、例えば、車両50のフロントガラスの上端近傍に設置されている単眼カメラである。カメラ11はあらかじめ決められたフレームレートで車両50の前方の決められた撮像範囲を撮像する。カメラ11は撮像したフレームのデータを運転支援装置100に出力する。
【0011】
レーダ12は、車両50の前方に存在する物標(物体)を検出するためのミリ波レーダである。レーダ12は、例えば、車両50のフロントグリルの中央部の内側に設置されている。レーダ12は、反射波を受信するまでの時間に基づいて、カメラ11の撮像範囲と少なくとも一部が重複する範囲の物標(物体)についての測距を行う。レーダ12はあらかじめ決められた範囲を二次元的に走査しながら測距を行う。また、レーダ12は受信した反射波に基づいて電磁波が反射した物標に関する測距データを生成する。測距データには、反射波の受信強度、反射点が存在する方位角、反射点までの距離、および、反射点の相対速度が含まれる。レーダ12は測距データを運転支援装置100に出力する。
【0012】
運転支援装置100は、カメラ11が取得したフレームおよびレーダ12が取得した測距データを用いて、車両50の対向車の相対速度を求める。運転支援装置100は、プロセッサ101、メモリ102を備えたマイクロコンピュータである。プロセッサ101はメモリ102に格納されたプログラムを実行することにより様々な機能を実現する。実施形態において、プロセッサ101はメモリ102に格納されているプログラムを実行することにより、レーダ物標検出部110と、画像物標検出部120と、フュージョン部130と、補正部140の機能を実現する。
【0013】
レーダ物標検出部110は、レーダ12により取得された測距データに基づいて物標を検出する。さらに、レーダ物標検出部110は、検出した物標から少なくとも1つのターゲットを特定する。ターゲットは着目すべき物標である。ターゲットは、車両50が走行する車線に隣接する対向車線(以下、対象車線)を走行している他の車両であって、車両50との距離があらかじめ決められた距離以下となる範囲に存在する車両である。車両は、四輪車、二輪車、自転車を含む。また、レーダ物標検出部110は測距データを用いてターゲットの相対速度を求める。レーダ物標検出部110の処理の詳細については後述する。レーダ物標検出部110を相対速度取得部ともよぶ。
【0014】
画像物標検出部120は、入力画像に基づいた推定処理によりカメラ11の撮像範囲に存在する物標の形状を表す三次元情報を生成する。入力画像はカメラ11が撮像したフレームである。画像物標検出部120は、生成した三次元情報を用いて平面視画像を生成する。画像物標検出部120は、平面視画像に基づいて物標を検出する。さらに、画像物標検出部120は、検出した物標からターゲットを特定する。また、画像物標検出部120は、平面視画像を用いてターゲットの進行方向を特定する。画像物標検出部120の処理の詳細については後述する。画像物標検出部120を画像生成部ともよぶ。
【0015】
フュージョン部130は、平面視画像においてターゲットが存在する範囲と、測距データにおけるターゲットを表す反射点との対応付けを行う。フュージョン部130は対応付けを表す対応情報を生成する。フュージョン部130の処理の詳細については後述する。
【0016】
補正部140は、フュージョン部130により生成された対応情報とターゲットの進行方向とを用いて、レーダ12の電磁波の放射方向とターゲットの進行方向とがなす角度を算出する。補正部140は、算出した角度を用いて測距データに基づくターゲットの相対速度を補正する。補正部140の処理の詳細については後述する。
【0017】
運転制御部200は、プロセッサ、メモリを備えたマイクロコンピュータである。プロセッサがメモリに格納されたプログラムを実行することにより、運転制御部200の機能が実現される。運転制御部200は、駆動力ECU300と、ブレーキECU400と、操舵ECU500とを制御する。
【0018】
駆動力ECU300は車両50のエンジンの動作状態を制御する。運転手が手動で運転を行う場合、駆動力ECU300は、アクセルペダルの操作量に応じて車両50の動力源であるエンジンまたは電気モータを制御する。一方、自動運転を行う場合、駆動力ECU300は、運転制御部200で演算された要求駆動力に応じてエンジンまたは電気モータを制御する。
【0019】
ブレーキECU400は車両50のブレーキ機構の動作を制御する。運転手が手動で運転を行う場合、ブレーキECU400はブレーキペダルの操作量に応じてブレーキ機構を構成する各装置を制御する。一方、自動運転を行う場合、ブレーキECU400は、運転制御部200で演算された要求制動力に応じてブレーキ機構を構成する各装置を制御する。
【0020】
操舵ECU500は車両50の操舵機構の動作を制御する。運転手が手動で運転を行う場合、操舵ECU500は、ステアリングハンドルの操作に応じてモータを制御して、ステアリング操作に対するアシストトルクを発生させる。これにより、運転手は少量の力でステアリングを操作できる。一方、自動運転を行う場合、操舵ECU500は、運転制御部200で演算された要求操舵角に応じてモータを制御することにより操舵を行う。
【0021】
図2に、運転支援装置100が測距データに基づいたターゲットの相対速度を補正する速度補正処理を示す。運転支援装置100は、運転制御部200から指示を受け付けると
図2に示す処理を開始する。なお、カメラ11は、車両50の前方を決められた時間間隔で撮像している。運転支援装置100は、カメラ11から受け付けたフレームのデータをメモリ102に順次格納している。レーダ12は、車両50の前方の測距を決められた時間間隔で行っている。運転支援装置100は、レーダ12から受け付けた測距データをメモリ102に順次格納している。
【0022】
ステップS101において、レーダ物標検出部110は、測距データを用いてターゲットからの反射点の集合である点群を取得する。
【0023】
まず、レーダ物標検出部110は測距データが表す複数の反射点のうち、同じ物標で反射した反射点である1または複数の反射点を1つのセグメントに分類する。例えば、反射点の相対速度、または、XY平面内における反射点の位置に応じて、測距データが表す複数の反射点が分割される。本実施形態では、車両50の車幅方向をX軸、車長方向をY軸と設定する。レーダ物標検出部110は、測距データが表す複数の反射点すべてをクラスタリングの手法を用いて複数のセグメントに分割する。
【0024】
さらに、レーダ物標検出部110は、反射点の方位角、距離、および、相対速度に基づいて、複数のセグメントからターゲットを表すセグメントを特定する。特定されたターゲットを表すセグメントに含まれる反射点の集合である点群を第1点群ともよぶ。
【0025】
ステップS103において、レーダ物標検出部110はターゲットの相対速度を取得する。
【0026】
まず、レーダ物標検出部110は、ターゲットを表すセグメント(以下、対象セグメントという)に属する複数の反射点から、ターゲットを代表する反射点を選ぶ。ターゲットを代表する反射点を代表点という。例えば、レーダ物標検出部110は、対象セグメントに属する複数の反射点のうち、受信強度が最も大きい反射点を代表点として選ぶ。なお、対象セグメントに属する反射点が1つだけの場合、その反射点が代表点となる。レーダ物標検出部110は、対象セグメントの代表点の相対速度をセグメントの相対速度として特定する。なお、代表点を含む反射点それぞれの相対速度は測距データに含まれている。
【0027】
ステップS105において、画像物標検出部120は、入力画像を用いて三次元情報を生成する。
【0028】
まず、画像物標検出部120は、入力画像を用いて奥行きを推定する。入力画像は、カメラ11が撮像したフレームである。奥行きの推定には、深度推定用の機械学習モデルが用いられる。深度推定用の機械学習モデルを第1機械学習モデルともよぶ。深度推定用の機械学習モデルを用いることにより、二次元情報である入力画像から奥行きを容易に推定できる。画像物標検出部120は、推定した奥行きを表す奥行き情報と入力画像が表す二次元情報とを用いて、三次元情報を生成する。生成された三次元情報は撮像範囲に存在する物標の形状を表す。画像物標検出部120は、生成した三次元情報をメモリ102に格納する。
【0029】
ステップS107において、画像物標検出部120は三次元情報を用いて平面視画像IM1を生成する。平面視画像IM1は、上方から見た場合の視点画像である。平面視画像IM1の生成には、例えば、鳥瞰変換に関する周知の座標変換の手法が用いられる。
【0030】
図3に示すように、生成される平面視画像IM1は、上方から路面を見た場合の視点画像である。生成された平面視画像IM1には、合成された車両50が含まれている。平面視画像IM1の生成により、物標の位置情報がXY平面に対応付けられる。画像物標検出部120は生成した平面視画像IM1をメモリ102に格納する。
【0031】
図2に示す、ステップS109において、画像物標検出部120は、平面視画像IM1においてターゲットが存在する範囲を囲むボックスとターゲットの向きとを特定する。
【0032】
まず、画像物標検出部120は、物体検出用の機械学習モデルを用いて、平面視画像IM1における物標が存在する範囲および物標に関する種類を検出する。物体検出用の機械学習モデルを第2機械学習モデルともよぶ。物体検出用の機械学習モデルを用いることにより、物標が存在する範囲および物標に関する種類を容易に検出できる。検出される物標は、四輪車、二輪車、自転車、電動カート、車椅子、歩行者、標識、ガードレール、路面上の白線等である。画像物標検出部120は、平面視画像IM1における物標が存在する範囲および物標に関する種類を表す情報をメモリ102に格納する。
【0033】
画像物標検出部120は、平面視画像IM1から検出した物標のうち、あらかじめ決められた条件を満たす物標をターゲットとして特定する。あらかじめ決められた条件は、車両50との距離があらかじめ決められた距離以下となる位置に存在している物標であること、および、物標があらかじめ決められた種類の物体であることである。あらかじめ決められた種類の物体は、例えば、四輪車、二輪車、自転車である。例えば、対象車線を走行している他の四輪車であって、車両50との距離があらかじめ決められた距離以下となる位置に存在する四輪車が、ターゲットとして特定される。平面視画像IM1における車両間の距離と実際の距離との対応付けに用いられる情報は、あらかじめメモリ102に格納されている。画像物標検出部120は、平面視画像IM1におけるターゲットの位置を表す座標値と、ターゲットの種類を表す情報をメモリ102に格納する。
【0034】
画像物標検出部120は、特定したターゲットが存在する範囲を囲むボックスを平面視画像IM1に設定する。
図4に示す例では、特定したターゲットT1が存在する範囲を囲むボックスB1が設定されている。ここで、設定されるボックスB1は、平面視画像IM1においてターゲットの周縁に接するボックスである。画像物標検出部120は、平面視画像IM1におけるボックスB1の位置を表す座標値をメモリ102に格納する。
【0035】
さらに、画像物標検出部120はターゲットの向きを特定する。画像物標検出部120は、例えば、異なる複数の車種の車両を上方から撮像した学習用画像を用いて機械学習により生成された機械学習モデルを用いてターゲットの進行方向を特定する。機械学習モデルを用いることにより、ターゲットの進行方向を容易に認識できる。画像物標検出部120は、ターゲットの進行方向を表す情報をメモリ102に格納する。
【0036】
図2に示す、ステップS111において、フュージョン部130は、平面視画像IM1におけるボックスB1と、測距データにおけるターゲットを表す反射点との対応付けを行う。
【0037】
まず、フュージョン部130は、平面視画像IM1に設定されているボックスB1をあらかじめ決められた倍率で拡大する。あらかじめ決められた倍率は、例えば、1.1倍である。
【0038】
図5に、拡大後のボックスB2が設定されている平面視画像IM1を示す。平面視画像IM1は、奥行き推定により入力画像から生成された三次元情報から生成されている。このため、平面視画像IM1内のターゲットが存在する範囲についての確度は、ターゲットを実際にカメラで上方から撮像する画像に比べて低くなる。よって、入力画像に基づいて生成された平面視画像IM1内のターゲットが存在する範囲についての誤差を減らすため、平面視画像IM1内のターゲットを囲む範囲をあらかじめ決められた倍率で拡大する。拡大されたボックスB2が示す範囲を第1範囲ともよぶ。
【0039】
フュージョン部130は、測距データに基づくターゲットを表す反射点の方位角、距離、および、受信強度を用いて、ターゲットを表す反射点の位置が表された2次元の画像IM3を生成する。
図6に示すように、生成された画像IM3にターゲットを表す4つの反射点RP1が含まれているとする。
図6においては画像IM3に表されている反射点を黒丸で示す。フュージョン部130は、平面視画像IM1と、画像IM3とを用いて、ターゲットを表す反射点を、平面視画像IM1における拡大されたボックスB2内に配置する。フュージョン部130は、例えば、ターゲットを表す複数の反射点のうち、最も受信強度が高い反射点をターゲットの右前方のコーナー部分と判別する。ここで、右前方とはターゲットの運転手から見た場合の方向である。フュージョン部130は、平面視画像IM1における拡大されたボックスB2内における4つの反射点それぞれの位置を決定すると、決定されたボックスB2内における4つの反射点それぞれの位置を表す画像IM5を生成する。
【0040】
フュージョン部130は、平面視画像IM1におけるターゲットが存在する範囲(ボックスB2が示す範囲)における、ターゲットを表すセグメントに含まれる点群(第1点群)の平面視における位置を表す対応情報をメモリ102に格納する。対応情報は、画像IM5におけるボックスB2の位置を表す座標値、ボックスB2内における反射点それぞれの位置を表す座標値、を含む。
【0041】
図2に示す、ステップS113において、補正部140は、ターゲットの進行方向と対応情報とを用いて、レーダ12の電磁波の放射方向とターゲットの進行方向とがなす角度θ1を算出する。実施形態においては、レーダ12の電磁波の放射方向が、車両50からターゲットを見た方向と同じであるとする。
【0042】
図7に示すように、ターゲットを囲むボックスB2の対向する短辺それぞれの中心を通る直線L1がターゲットの進行方向である仮定される。
図7に示す例では、角度θ1は、ターゲットの進行方向を表す直線L1と、車両50からターゲットを見た方向を表す直線L2とがなす角度である。直線L2は、車両50の前端中央部とボックスB2の短辺の中央部とを結んだ直線である。
【0043】
図2に示す、ステップS115において、補正部140は、算出した角度θ1を用いてターゲットの相対速度を補正する。補正の対象となる相対速度は、ステップS103で取得された、測距データに基づくターゲットの相対速度である。補正後の相対速度v1は下記式(1)により求められる。相対速度v1は、ターゲットの進行方向に沿った相対速度である。相対速度v0は、ステップS103で取得された、測距データに基づくターゲットの相対速度である。
v1=v0/cosθ1・・・・(1)
【0044】
補正部140は算出した相対速度v1をメモリ102に格納する。例えば、補正部140は、算出した相対速度v1を運転制御部200に出力する。
【0045】
ステップS117において、処理を終了すべき場合(ステップS117;YES)、
図2に示す処理が終了される。例えば、不図示のADAS-ECU(Electronic Control Unit)から処理を終了すべき旨の指示を受けた場合に、
図2に示す処理が終了される。一方、処理を継続する場合(ステップS117;NO)、ステップS101の処理が再び実行される。次のサイクルにおいては、メモリ102に格納されている複数の測距データのうち、次のひとつの測距データと、メモリ102に格納されている複数の入力画像のうち、次のひとつの入力画像と、が用いられて、相対速度の補正の処理が行われる。以上が、速度補正にかかる一連の処理となる。
【0046】
以上説明したように、実施形態においては、運転支援装置100は、カメラ11が撮像した入力画像から生成された平面視画像IM1を用いて、ターゲットが存在する範囲とターゲットの進行方向を特定する。さらに、運転支援装置100は、平面視画像IM1において特定したターゲットが存在する範囲を表す情報を、測距データを補足する情報として用いる。例えば、ターゲットを表す反射点が1つだけ取得された場合、その反射点をターゲットの右前方のコーナー部分と特定し、反射点を平面視画像IM1に設定したボックス内に配置することにより、ターゲットの進行方向を特定できる。よって、レーダ12が検出した反射点の数が少ない場合であっても、カメラ11が撮像した入力画像から得られる平面視画像IM1を用いてターゲットが存在する範囲を特定できる。このように、カメラ11が撮像した入力画像から推定される情報を、測距データを補足する情報として用いる。
【0047】
また、前述したように、レーダ12が検出できるのは電磁波の放射方向に沿ったターゲットの速度成分である。特定したターゲットの進行方向を用いて、測距データに基づいたターゲットの相対速度を補正するので、より正確なターゲットの相対速度を求めることができる。
【0048】
図8に示すように、車両50が車線Ln1を走行しており、ターゲットT1が対向車線である車線Ln2を走行しているとする。ターゲットT1が交差点CPで右折する状況が発生することがある。運転支援装置100は、測距データに基づく相対速度v0を補正することにより求めた相対速度v1をターゲットの相対速度として運転制御部200に出力する。運転制御部200は、運転支援装置100から受け付けたターゲットT1の相対速度v1に基づいて、ターゲットT1への衝突を回避することが必要であると判定した場合には、駆動力ECU300、ブレーキECU400、および、操舵ECU500を制御して、車両50を減速、あるいは、停止させることができる。
【0049】
従来のように、測距データに基づく相対速度をターゲットの相対速度として用いる場合、測距データに基づく相対速度と、ターゲットT1の進行方向に沿った相対速度とに誤差があるため、安全を担保するため、運転制御部200は時間的に余裕を持って車両50の減速の開始または停止を制御していた。しかしながら、実施形態にかかる速度補正方法を用いることにより、ターゲットT1の進行方向に沿った相対速度を精度よく求めることができるので、車両50の減速の開始または停止についてより高精度に制御を行うことができる。
【0050】
B.他の実施形態:
B1.他の実施形態1:
実施形態においては、三次元情報を生成するため、単眼カメラであるカメラ11が撮像した入力画像から機械学習モデルを用いて奥行きを推定する例を説明した。あるいは、カメラ11としてステレオカメラを用いることができる。この場合、ステレオカメラが出力する三次元画像に含まれる奥行き情報を用いて三次元情報を生成できる。
【0051】
B2.他の実施形態2:
また、測距データに基づくターゲットを表すセグメントに含まれる反射点の集合が、平面視画像IM1において特定されたターゲットに対応付けられない場合も生じうる。この場合、測距データに基づくターゲットの相対速度を補正しなくてよい。平面視画像IM1において特定された第1範囲との対応付けができない第1点群が表すターゲットについては測距データに基づく相対速度の補正を行わないため、処理の効率化を図ることができる。
【0052】
実施形態においては、平面視画像IM1から検出した物標からターゲットを特定するための条件が、車両50との距離があらかじめ決められた距離以下となる位置に存在している物標であること、および、物標があらかじめ決められた種類の物体であることであった。あるいは、ターゲットを特定するための条件は、車両50との距離があらかじめ決められた距離以下となる位置に存在している物標であること、物標があらかじめ決められた種類の物体であること、および、物標が移動していること、であってもよい。あるいは、ターゲットを特定するための条件は、車両50との距離があらかじめ決められた距離以下となる位置に存在している物標であること、物標があらかじめ決められた種類の物体であること、および、物標が一定速度以上で移動していること、であってもよい。
【0053】
B3.他の実施形態3:
実施形態においては、平面視画像IM1において特定したターゲットが存在する範囲を囲むボックスB1を拡大する例を説明した。しかしながら、平面視画像IM1においてターゲットが存在する範囲を囲むボックスB1は拡大しなくてもよい。
【0054】
実施形態においては、測距データが表す複数の反射点すべてをクラスタリングの手法を用いてセグメントに分割する例を説明した。あるいは、クラスタリングの手法によらず、例えば、車両50から一定の距離内にある点群をターゲットからの反射点を表す第1点群として選択してもよい。この場合、その他の点群については、処理の対象としない。
【0055】
B4.他の実施形態4:
実施形態においては、ターゲットを表す反射点の集合である第1点群を取得するため、測距データが表す複数の反射点をクラスタリングの手法を用いてセグメントに分割する例を説明した。しかしながら、測距データに基づいて、ターゲットを含む物標を検出する手法はこれに限られない。例えば、ディープニューラルネットワークに基づく手法を用いて、複数の反射点を物標ごとに分類してもよい。
【0056】
実施形態においては、物体検出用の機械学習モデルを用いて平面視画像に含まれる物標を検出する例を説明した。あるいは、平面視画像に含まれる物標を検出するため、セグメンテーションの手法が用いられてもよい。
【0057】
本開示に記載の制御部およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部およびその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
【0058】
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
【符号の説明】
【0059】
10…運転支援システム、11…カメラ、12…レーダ、50…車両、100…運転支援装置、110…レーダ物標検出部、120…画像物標検出部、130…フュージョン部、140…補正部、210…運転制御部、IM1…平面視画像、T1…ターゲット