特開2021-195018(P2021-195018A)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社日立製作所の特許一覧

<>
  • 特開2021195018-センサ認識統合装置 図000003
  • 特開2021195018-センサ認識統合装置 図000004
  • 特開2021195018-センサ認識統合装置 図000005
  • 特開2021195018-センサ認識統合装置 図000006
  • 特開2021195018-センサ認識統合装置 図000007
  • 特開2021195018-センサ認識統合装置 図000008
  • 特開2021195018-センサ認識統合装置 図000009
  • 特開2021195018-センサ認識統合装置 図000010
  • 特開2021195018-センサ認識統合装置 図000011
  • 特開2021195018-センサ認識統合装置 図000012
  • 特開2021195018-センサ認識統合装置 図000013
  • 特開2021195018-センサ認識統合装置 図000014
  • 特開2021195018-センサ認識統合装置 図000015
  • 特開2021195018-センサ認識統合装置 図000016
  • 特開2021195018-センサ認識統合装置 図000017
  • 特開2021195018-センサ認識統合装置 図000018
  • 特開2021195018-センサ認識統合装置 図000019
  • 特開2021195018-センサ認識統合装置 図000020
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】特開2021-195018(P2021-195018A)
(43)【公開日】2021年12月27日
(54)【発明の名称】センサ認識統合装置
(51)【国際特許分類】
   B60W 40/02 20060101AFI20211129BHJP
   B60W 60/00 20200101ALI20211129BHJP
   G01S 13/86 20060101ALI20211129BHJP
   G01S 13/931 20200101ALI20211129BHJP
【FI】
   B60W40/02
   B60W60/00
   G01S13/86
   G01S13/931
【審査請求】未請求
【請求項の数】15
【出願形態】OL
【全頁数】21
(21)【出願番号】特願2020-103101(P2020-103101)
(22)【出願日】2020年6月15日
(71)【出願人】
【識別番号】000005108
【氏名又は名称】株式会社日立製作所
(74)【代理人】
【識別番号】110002572
【氏名又は名称】特許業務法人平木国際特許事務所
(72)【発明者】
【氏名】田中 裕也
(72)【発明者】
【氏名】渡邉 克朗
【テーマコード(参考)】
3D241
5J070
【Fターム(参考)】
3D241BA41
3D241BA42
3D241CE04
3D241CE05
3D241DA52Z
3D241DB05Z
3D241DB12Z
3D241DB32Z
5J070AC01
5J070AC02
5J070AC06
5J070AE01
5J070AF03
5J070AJ02
5J070BD04
5J070BD08
5J070BF21
(57)【要約】
【課題】車両走行制御が必要とする必要最小限の精度を満たすよう統合処理の負荷低減を図ることができ、ECUの処理性能向上、コストアップを抑止することのできるセンサ認識統合装置を提供する。
【解決手段】複数の外界認識センサで検知した自車周辺の物体に関する複数の物体情報を統合するセンサ認識統合装置B006であって、前記物体の行動を予測した予測物体情報を生成する予測更新部100と、前記予測物体情報と前記複数の物体情報との関連を算出するアソシエーション部101と、前記複数の外界認識センサの検知領域の重複領域における特定領域(例えば境界部)と前記予測物体情報の位置関係に基づいて、前記複数の物体情報の統合方法を決定する統合処理モードを切り替える統合処理モード判定部102と、前記統合処理モードに基づいて、前記予測物体情報に関連づいた前記複数の物体情報を統合する統合対象情報生成部104と、を備える。
【選択図】図3
【特許請求の範囲】
【請求項1】
複数の外界認識センサで検知した自車周辺の物体に関する複数の物体情報を統合するセンサ認識統合装置であって、
前記自車の挙動から推定した前記自車の行動と前記外界認識センサで検知した物体情報に基づき、前記物体の行動を予測した予測物体情報を生成する予測更新部と、
前記予測物体情報と前記複数の物体情報との関連を算出するアソシエーション部と、
前記複数の外界認識センサの検知領域の重複領域における特定領域と前記予測物体情報の位置関係に基づいて、前記複数の物体情報の統合方法を決定する統合処理モードを切り替える統合処理モード判定部と、
前記統合処理モードに基づいて、前記予測物体情報に関連づいた前記複数の物体情報を統合する統合対象情報生成部と、を備えることを特徴とするセンサ認識統合装置。
【請求項2】
請求項1に記載のセンサ認識統合装置において、
前記特定領域は、前記複数の外界認識センサの検知領域の重複領域における境界部であることを特徴とするセンサ認識統合装置。
【請求項3】
請求項1に記載のセンサ認識統合装置において、
前記特定領域は、前記自車の挙動から推定した前記自車の進行路上に位置する前記複数の外界認識センサの検知領域の重複領域であることを特徴とするセンサ認識統合装置。
【請求項4】
請求項1に記載のセンサ認識統合装置において、
前記特定領域は、前記複数の外界認識センサの検知領域の重複領域において前記外界認識センサの信頼度が低下する領域であることを特徴とするセンサ認識統合装置。
【請求項5】
請求項1に記載のセンサ認識統合装置において、
前記統合処理モードは、前記複数の物体情報が前記特定領域に属する場合に前記複数の物体情報の統合処理を相対的に詳細な処理とする第一のモードと、前記複数の物体情報の少なくとも一つが前記特定領域に属さない場合に前記複数の物体情報の統合処理を相対的に簡易な処理とする第二のモードとを有することを特徴とするセンサ認識統合装置。
【請求項6】
請求項1に記載のセンサ認識統合装置において、
前記統合対象情報生成部は、各外界認識センサの誤差分布に基づく前記統合処理モードに基づいて、前記複数の物体情報を統合することを特徴とするセンサ認識統合装置。
【請求項7】
請求項1に記載のセンサ認識統合装置において、
前記統合処理モード判定部は、前記統合処理モードの切り替えを前記物体の追跡状態に基づいて行うことを特徴とするセンサ認識統合装置。
【請求項8】
請求項7に記載のセンサ認識統合装置において、
前記物体の追跡状態は、前記物体の追跡時間であることを特徴とするセンサ認識統合装置。
【請求項9】
請求項7に記載のセンサ認識統合装置において、
前記物体の追跡状態は、前記物体の存在確率であることを特徴とするセンサ認識統合装置。
【請求項10】
請求項1に記載のセンサ認識統合装置において、
前記統合処理モードの切り替え時に前記統合後の物体情報を連続的に変化させることを特徴とするセンサ認識統合装置。
【請求項11】
請求項1に記載のセンサ認識統合装置において、
統合された物体情報により前記自車を制御するための計画軌道を計画する計画判断部を備え、
前記統合処理モード判定部は、前記計画軌道に基づき、前記統合処理モードを切り替えることを特徴とするセンサ認識統合装置。
【請求項12】
請求項5に記載のセンサ認識統合装置において、
前記詳細な処理の処理周期を前記物体の追跡状態に基づき可変とすることを特徴とするセンサ認識統合装置。
【請求項13】
請求項3に記載のセンサ認識統合装置において、
前記自車の挙動から推定した前記自車の進行路に対する前記物体の影響度により、前記統合処理モードを切り替えることを特徴とするセンサ認識統合装置。
【請求項14】
請求項1に記載のセンサ認識統合装置において、
前記アソシエーション部における前記物体のアソシエーション処理を相対的に詳細な処理と相対的に簡易な処理に切り替えるアソシエーション処理モード判定部を有することを特徴とするセンサ認識統合装置。
【請求項15】
請求項1に記載のセンサ認識統合装置において、
前記統合処理モード判定部は、前記自車から前記物体までの距離に基づいて、前記統合処理モードを切り替えることを特徴とするセンサ認識統合装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、例えば異なる種類の複数センサからの複数物体データ(物体情報)の統合を低負荷で処理するためのセンサ認識統合装置に関する。
【背景技術】
【0002】
自動車の自動運転では、自車周辺の物体を認識し、それに従って運転の計画・判断を行う。物体を検知するためのセンサは、レーダ、カメラ、ソナー、レーザレーダなど多岐にわたる。これらのセンサは、検知範囲、検知可能な物体、検知精度、コストなどの条件が様々であるため、目的に応じて複数のセンサを組み合わせ、各センサで検知ないし取得した物体情報を統合する必要がある。しかし、取り扱う物体数が増加すると統合の処理コストに依存してECUの処理性能の向上が必要となるため、統合処理の負荷低減が必要である。なお、「処理コスト」とは統合のための処理時間を指す。
【0003】
複数センサからの情報の処理負荷を低減する先行技術文献として特許文献1がある。特許文献1の図1に開示された技術は、第1検出範囲を有する長演算時間の第1レーダと、第1検出範囲に重複する第2検出範囲を有する短演算時間の第2レーダと、第1レーダの演算結果に基づき物標の存在判定を行う第1判定手段と、第2レーダの演算結果に基づき物標の存在判定を行う第2判定手段と、第1判定手段の存在判定結果から物標の存在を確定する存在確定手段と、存在確定手段によって前回の存在が確定した物標が、第1及び第2レーダの重複範囲において存在する場合には、第2レーダの演算結果を第2判定手段に入力して、当該第2判定手段で前回の物標の確定後の今回の存在判定を行わせる指定手段とを備えることを特徴とする。この物標検出装置では、第1及び第2レーダの重複範囲において物標の存在が確定した場合には、次の物標の存在の有無は、低い確度であっても確定できるため、指定手段は、存在確定手段によって存在が確定した物標が重複範囲に存在する場合、短演算時間の第2レーダの演算結果を第2判定手段に入力し、前回の物標の確定後の今回の存在を、第2判定手段で判定させる。これにより、物標を高速に検知できる。物標が第2レーダの非重複検出範囲から第1レーダとの重複領域に入ってきた場合には、重複範囲と非重複範囲との境界付近に重点的検出範囲を設定して検出範囲を狭めることで、演算量を低減できる。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2006−046962号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1では、センサがレーダという同種類のセンサであることが前提であり、かつ、物標が第2レーダの非重複検出範囲から第1レーダとの重複領域に入ってきた場合に、重複範囲と非重複範囲との境界付近に検出範囲を狭めるだけであり、例えば複数種類のセンサを扱うシステム構成において、複数種類のセンサの特徴を活かして精度を保ちながら、統合処理の負荷低減が図れないといった課題がある。
【0006】
本発明は、上記事情に鑑みてなされたもので、その目的とするところは、車両走行制御が必要とする必要最小限の精度を満たすよう統合処理の負荷低減を図ることができ、ECUの処理性能向上、コストアップを抑止することのできるセンサ認識統合装置を提供することにある。
【課題を解決するための手段】
【0007】
上記課題を解決するため、本発明によるセンサ認識統合装置は、複数の外界認識センサで検知した自車周辺の物体に関する複数の物体情報を統合するセンサ認識統合装置であって、前記自車の挙動から推定した前記自車の行動と前記外界認識センサで検知した物体情報に基づき、前記物体の行動を予測した予測物体情報を生成する予測更新部と、前記予測物体情報と前記複数の物体情報との関連を算出するアソシエーション部と、前記複数の外界認識センサの検知領域の重複領域における特定領域と前記予測物体情報の位置関係に基づいて、前記複数の物体情報の統合方法を決定する統合処理モードを切り替える統合処理モード判定部と、前記統合処理モードに基づいて、前記予測物体情報に関連づいた前記複数の物体情報を統合する統合対象情報生成部と、を備えることを特徴とする。
【発明の効果】
【0008】
本発明によれば、検知状況に応じて、車両走行制御が必要とする必要最小限の精度を満たすよう統合処理の負荷低減が可能となり、ECUの処理性能向上、コストアップを抑止する効果が得られる。
【0009】
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
【図面の簡単な説明】
【0010】
図1】本発明の第1実施形態のセンサ認識統合装置B006を含む自動運転システムの構成図である。
図2】本発明の第1実施形態のセンサ認識統合装置B006のセンサ物体情報統合部B010が対象とするセンサ構成例である。
図3】本発明の第1実施形態のセンサ認識統合装置B006のセンサ物体情報統合部B010の機能ブロック図である。
図4】本発明の第1実施形態のセンサ物体情報統合部B010が実行する、アソシエーション部101のフローチャートである。
図5】本発明の第1実施形態のセンサ物体情報統合部B010が実行する、統合処理モード判定部102のフローチャートである。
図6】本発明の第1実施形態のセンサ物体情報統合部B010が実行する、統合対象情報生成部104のフローチャートである。
図7】本発明の第1実施形態のセンサ物体情報統合部B010が実行する、予測更新部100のフローチャートである。
図8】本発明の第1実施形態のセンサ物体情報統合部B010が実行する、統合更新部105のフローチャートである。
図9図6の統合対象情報生成部104の統合処理として各センサの誤差が少ない成分を組み合わせる統合例(高処理負荷統合処理モード)の図である。
図10図6の統合対象情報生成部104の統合処理として各センサの物体を平均処理で求める統合例(低処理負荷統合処理モード)の図である。
図11図5の統合処理モード判定部102の条件として検知範囲の重複領域と境界部を用いる例を表す図である。
図12図11の検知範囲の重複領域の境界部と物標との距離を算出する模式図である。
図13】本発明の第2実施形態の、進行路推定部B012を有するセンサ認識統合装置B006を含む自動運転システムの構成図である。
図14図5の統合処理モード判定部102の条件として進行路を用いる例を表す図である。
図15図5の統合処理モード判定部102の条件として信頼度を用いる例を表す図である。
図16】統合処理モード判定部102の複数条件の組み合わせを表す図である。
図17】本発明の第5実施形態の、自動運転計画判断装置B007からの計画軌道を入力とするセンサ認識統合装置B006を含む自動運転システムの構成図である。
図18】本発明の第7実施形態のセンサ認識統合装置B006のセンサ物体情報統合部B010の機能ブロック図である。
【発明を実施するための形態】
【0011】
以下、本発明を実施するための形態を図面に基づいて詳細に説明する。なお、発明を実施するための形態を説明するための全図において、同一の機能を有する部分には同一の符号を付し、その繰り返しの説明は省略する。
【0012】
≪第1実施形態≫
<自動運転システムの全体構成>
図1は、本発明の第1実施形態のセンサ認識統合装置B006を含む自動運転システムの構成図である。本実施形態の自動運転システムは、自動車等の車両において、自車周辺(外界)の物体を認識し、それに従って運転の計画・判断を行い、車両走行制御を自動で行う、あるいは、運転者の運転操作(操縦)の支援を行うシステムである。
【0013】
[構成説明]
本実施形態の自動運転システムは、情報取得装置B000、入力通信網B005、センサ認識統合装置B006、自動運転計画判断装置B007、アクチュエータ群B008から成り立つ。情報取得装置B000は、自車挙動認識センサB001、外界認識センサ群B002、測位システムB003、地図ユニットB004から成り立つ。センサ認識統合装置B006は、情報記憶部B009、センサ物体情報統合部B010、自車周辺情報統合部B011から成り立つ。
【0014】
[入出力説明]
自車挙動認識センサB001は、認識した情報D001を入力通信網B005に出力する。
【0015】
外界認識センサ群B002は、認識した情報D002を入力通信網B005に出力する。
【0016】
測位システムB003は、測位した情報D003を入力通信網B005に出力する。
【0017】
地図ユニットB004は、取得した情報D004を入力通信網B005に出力する。
【0018】
入力通信網B005は、D001、D002、D003、D004を入力とし、通信網に流れる情報D005aをセンサ認識統合装置B006に出力する。また、入力通信網B005は、D001を入力とし、通信網に流れる情報D005bを自動運転計画判断装置B007に出力する。
【0019】
センサ認識統合装置B006は、入力通信網B005からの情報D005aを入力とし、自車周辺情報である統合結果D011を出力情報として自動運転計画判断装置B007に出力する。
【0020】
自動運転計画判断装置B007は、入力通信網B005からの情報D005bとセンサ認識統合装置B006からの統合結果D011を入力とし、命令情報である計画判断結果D007を出力情報としてアクチュエータ群B008に出力する。
【0021】
情報記憶部B009は、入力通信網B005からの情報D005aを入力とし、記憶した情報D009aをセンサ物体情報統合部B010に出力する。また、情報記憶部B009は、記憶した情報D009bを自車周辺情報統合部B011に出力する。
【0022】
センサ物体情報統合部B010は、情報記憶部B009からの情報D009aを入力とし、統合物体情報である統合結果D010を出力情報として自車周辺情報統合部B011に出力する。
【0023】
自車周辺情報統合部B011は、情報記憶部B009からの情報D009bを入力とし、自車周辺情報である統合結果D011を出力情報として自動運転計画判断装置B007に出力する。
【0024】
[データ説明]
自車挙動認識センサB001は、車両に搭載されるジャイロセンサ、車輪速度センサ、舵角センサ、加速度センサ等を含み、認識した情報D001には、それぞれ、自車の挙動を表すヨーレート、車輪速度、舵角、加速度等を含む。
【0025】
外界認識センサ群B002からの認識した情報D002は、自車両の外(周辺)にある物体や、道路の白線、標識などを検知した情報(位置情報、速度情報等を含む)を含む。外界認識センサ群B002には、レーダ、カメラ、ソナーなどの複数の外界認識センサ(以下、単にセンサと呼ぶ)の組み合わせが用いられる。また、V2XやC2Xを含めてもよく、センサの構成には、特に制限はない。
【0026】
測位システムB003からの測位した情報D003は、自車両の位置を推定した結果を含む。測位システムB003として用いられるものの一例として、衛星測位システムが挙げられる。
【0027】
地図ユニットB004からの取得した情報D004は、自車周辺の地図情報を含む。また、取得した情報D004は、ナビゲーションと連携して経路情報を含んでもよい。
【0028】
入力通信網B005からの情報D005aは、情報D001、D002、D003、D004の全て又は一部を含む。また、情報D005bは、少なくとも情報D001を含む。入力通信網B005は、車載システムで一般的に使用されているネットワークであるCAN(Controller Area Network)や、Ethernet(登録商標)、無線通信などが利用される。
【0029】
センサ認識統合装置B006からの出力情報D011は、入力通信網B005から自車挙動情報、センサ物体情報、センサ道路情報、測位情報、地図情報のデータを自車周辺情報として統合したものを含む。
【0030】
自動運転計画判断装置B007からの命令情報D007は、入力通信網B005からの情報と、センサ認識統合装置B006からの自車周辺情報に基づき、自車両をどのように移動するかを計画・判断した情報を含む。
【0031】
アクチュエータ群B008は、自動運転計画判断装置B007からの命令情報D007に従い車両を動作させる。アクチュエータ群B008は、車両に搭載されるアクセル装置、ブレーキ装置、ステアリング装置等の各種アクチュエータを含む。
【0032】
[サブ構成説明]
本実施形態のセンサ認識統合装置B006は、情報記憶部B009、センサ物体情報統合部B010、自車周辺情報統合部B011から成り立つ。
【0033】
[サブデータ説明]
情報記憶部B009は、入力通信網B005からの情報を記憶し、センサ物体情報統合部B010と自車周辺情報統合部B011からの要求に応じて情報D009aを出力する。センサ物体情報統合部B010と自車周辺情報統合部B011からの要求とは、外界認識センサ群B002を構成する複数センサからの情報D002のデータの時刻同期や、座標系の共通化等を含む。センサ物体情報統合部B010は、情報記憶部B009から情報(センサ物体情報)D009aを取得し、外界認識センサ群B002を構成する複数のセンサで検知した同一物体の情報を同じものとして統合し(後で詳しく説明)、統合物体情報D010として自車周辺情報統合部B011に出力する。従って、センサ物体情報統合部B010については、測位システムB003及び地図ユニットB004を搭載しない場合においても、統合物体情報D010は出力可能であり、自車周辺情報統合部B011の出力情報D011の代わりに統合物体情報D010を出力することでシステムとして成立する。そのため、測位システムB003及び地図ユニットB004が必ずしも搭載されていなくても、本実施形態の動作が妨げられることはない。自車周辺情報統合部B011は、センサ物体情報統合部B010からの統合物体情報D010と、情報記憶部B009からの情報D009b(自車挙動情報、センサ道路情報、測位情報、地図情報を含む)を取得し、それらを自車周辺情報D011として統合して自動運転計画判断装置B007に出力する。自車周辺情報D011には、センサ物体情報統合部B010からの統合物体情報D010が道路上の白線や地図上の車線のいずれに属するかを付与した情報を含む。
【0034】
<外界認識センサ群B002の取り付け構成>
図2は、本発明の第1実施形態の外界認識センサ群B002の一取り付け例である。自車F01の周辺にセンサ検知範囲F02を持つカメラセンサ、センサ検知範囲F03を持つ左前方レーダセンサ、センサ検知範囲F04を持つ右前方レーダセンサ、センサ検知範囲F05を持つ左後方レーダセンサ、センサ検知範囲F06を持つ右後方レーダセンサを配置し、それぞれのセンサ間で検知範囲が重複する(換言すれば、検知領域の重複領域を有する)構成を想定する。なお、取り付けの構成やセンサの種別は限定しない。冗長性や精度向上の観点より、種類の異なるセンサ構成が望ましい。
【0035】
<センサ認識統合装置B006のセンサ物体情報統合部B010の機能ブロック構成>
図3は、本発明の第1実施形態のセンサ認識統合装置B006のセンサ物体情報統合部B010の機能ブロック図である。
【0036】
[構成説明]
センサ物体情報統合部B010は、予測更新部100、アソシエーション部101、統合処理モード判定部102、統合対象情報生成部104、統合更新部105、統合物体情報記憶部106から成り立つ。センサ物体情報統合部B010の処理は、連続的に何回も繰り返し実行される。それぞれの実行で、どの時刻における情報を推定することを目的とするかが定められている。説明のため、時刻t1における情報を推定する実行がなされた後、時間Δt後の時刻である時刻t2における情報を推定する実行がされたものとする。
【0037】
[データ説明]
センサ物体情報207A、207Bは、外界認識センサ群B002を構成するセンサ内の追跡処理により付与されたセンサ物体ID、自車両との相対位置、自車両との相対速度、誤差共分散を持つ。物体種別、検知時刻、情報の信頼度などの情報を追加で持っていてもよい。
【0038】
統合処理モード209は、統合対象情報生成部104での統合方法を決定するモードを持つ。
【0039】
予測物体情報200、統合物体情報205A、205B(図1の統合物体情報D010と同義)は、推定対象の時刻、物体ID、物体の相対位置、物体の相対速度の情報、誤差共分散、あるいはそれらに相当するものを持つ。他に、物体種別、情報の信頼度などの情報を追加で持つ場合もある。
【0040】
統合対象情報204については、予測物体情報200の各物体の物体IDに対して、関連付け対象である統合後のセンサ物体についての情報が含まれる。統合対象情報204に含まれるセンサ物体情報の位置・速度は、元のセンサ物体情報207Aとは必ずしも一致せず、統合処理モード判定部102の統合処理モード209に基づき、外界認識センサ群B002を構成する複数センサの特徴を活かした統合値が算出される。
【0041】
アソシエーション情報201A、201Bは、予測物体情報200と複数のセンサ物体情報207A、207Bの対応を表す情報を持つ。
【0042】
センサ検知範囲(検知領域とも呼ぶ)208は、図2に示すように外界認識センサ群B002を構成する各センサの水平FOV(Field of view)、取り付け角度や最大検知距離等を持つ。
【0043】
[流れ説明]
(予測更新部100)
予測更新部100は、統合物体情報記憶部106からの時刻t1における統合物体情報205Bを入力とし、時刻t2における予測物体情報200を生成して出力する。
【0044】
(アソシエーション部101)
アソシエーション部101は、外界認識センサ群B002からの複数のセンサ物体情報207A、予測更新部100からの時刻t2における予測物体情報200を入力とし、時刻t2において、どの予測物体情報が複数のどのセンサ物体情報と対応づいているかを表すアソシエーション情報201Aを出力する。また、センサ物体情報207Aを変更せずに、センサ物体情報207Bとして出力する。なお、センサ物体情報207A及び207Bは、時刻t2における予測物体情報200と同じ時刻帯である必要があり、センサ物体情報207A及び207Bは、図1の情報記憶部B009で、時刻t2に時刻同期する。
【0045】
(統合処理モード判定部102)
統合処理モード判定部102は、アソシエーション部101からのセンサ物体情報207B及びアソシエーション情報201A、予め図1の情報記憶部B009等に記憶されたセンサ検知範囲208に基づき、統合処理モード209を算出して(切り替えて)出力する(後で詳しく説明)。また、アソシエーション情報201Aを変更せずに、アソシエーション情報201Bとして出力する。
【0046】
(統合対象情報生成部104)
統合対象情報生成部104は、統合処理モード判定部102からの時刻t2におけるアソシエーション情報201B、アソシエーション部101からのセンサ物体情報207B、統合処理モード判定部102からの統合処理モード209を入力とし、時刻t2における各予測物体について、対応づいている物体情報の座標・速度から統合値を算出し、統合対象情報204として出力する。この際、統合処理モード判定部102からの統合処理モード209に基づき、統合方法を切り替える機能を持つ(後で詳しく説明)。
【0047】
(統合更新部105)
統合更新部105は、統合対象情報生成部104からの統合対象情報204と、予測更新部100からの時刻t2における予測物体情報200を入力とし、時刻t2において各物体がどのような状態(座標・速度等)であるかを推定し、統合物体情報205Aとして出力する。統合更新部105内部で、統合対象情報生成部104で統合方法が切り替わった場合でも物体の位置情報や速度情報が急に変化しないように統合物体情報205Aを作成するとよい。なお、統合対象情報生成部104で統合方法(すなわち、統合処理モード209)が切り替わった時に統合後の物体情報である統合物体情報205Aを滑らかに(連続的に)変化させるために、位置情報や速度情報が急変した場合は、変化前の値から変化後の値に線形補間で変化させる方法が考えられる。また、変化の方法は、線形補間だけでなく、スプラインによる補間としてもよい。
【0048】
(統合物体情報記憶部106)
統合物体情報記憶部106は、統合更新部105からの統合物体情報205Aを記憶し、統合物体情報205Bとして予測更新部100へ出力する。
【0049】
[フローチャート説明]
(アソシエーション部101)
図4は、本発明の第1実施形態のセンサ物体情報統合部B010が実行する、アソシエーション部101のフローチャートである。処理を開始(S500)する。予測更新部100からの予測物体情報200から未処理の予測物体を抽出(S502)する。S504において、未処理の予測物体が存在した場合(S504:Yes)、S508に進む。そして、時刻t2においてアソシエーション対象候補となるセンサ物体情報207Aのうちの全てのセンサ物体を抽出(S508)する。あるいはインデックス化などの手法により、少なくともアソシエーション対象となるもの全てが含まれる集合を抜き出すことも可である。次にS510において、アソシエーション対象候補のセンサ物体のうち、未処理のセンサ物体が存在する場合(S510:Yes)、S512において、未処理のセンサ物体に対して、アソシエーション判定(S512)を行い、S508に戻る。S510において未処理のセンサ物体が存在しなかった場合は(S510:No)、S502に戻る。S504において、未処理の予測物体が存在しない場合(S504:No)、処理を終了(S538)する。
【0050】
アソシエーション判定(S512)では、予測更新部100からの予測物体情報200と外界認識センサ群B002からの複数のセンサ物体情報207Aに含まれるセンサ物体の位置情報や速度情報等の距離が近いかを判定し、アソシエーションするか否かを判定する。また、その結果をアソシエーション情報201Aとして出力する。この際に求める距離は、各センサにおける座標・速度のユークリッド空間上の距離や各センサにおける座標・速度、誤差共分散に基づきマハラノビス距離を用いてもよい。なお、マハラノビス距離は一般的に定義されている距離であり、本実施形態では説明を割愛する。
【0051】
(統合処理モード判定部102)
図5は、本発明の第1実施形態のセンサ物体情報統合部B010が実行する、統合処理モード判定部102のフローチャートである。処理を開始(S550)し、S551に進む。S551では、予測更新部100からの予測物体情報200から未処理の予測物体を抽出する。そして、S554において、未処理の予測物体が存在する場合(S554:Yes)、S557に進む。S557において、アソシエーション部101で算出した予測物体情報200に紐づくアソシエーション情報201Aに複数のセンサ物体が存在する場合(S557:Yes)、S560に進む。S560では、予測物体情報200の位置情報と予め図1の情報記憶部B009等に記憶されたセンサ検知範囲208における境界までの距離561を算出し、S565に進む。S565において、算出された距離561が閾値以下の場合(S565:Yes)、高処理負荷統合処理モード(以下、高処理負荷モードとも呼ぶ)を設定(S571)する。S565において、算出された距離561が閾値以下ではない場合(S565:No)、低処理負荷統合処理モード(以下、低処理負荷モードとも呼ぶ)を設定(S572)する。なお、例えば、高処理負荷モードは、相対的に詳細に物体の位置及び速度に関する演算結果を求めるモードを指す。また、低処理負荷モードは、相対的に簡易的に物体の位置及び速度に関する演算結果を求めるモードを指す。S557において、アソシエーション情報201Aに単一のセンサ物体しか存在しない場合は(S557:No)、セレクト処理モードを設定(S573)する。また、S571、S572、S573の設定の結果を統合処理モード209として出力する。
【0052】
S571、S572、S573の設定をすると、S551に戻る。そして、S554において未処理の予測物体が存在しなくなるまで繰り返し、未処理の予測物体が存在しない場合は(S554:No)、S588で、統合処理モード判定部102の処理を終了する。
【0053】
なお、セレクト処理モード(S573)とは、単独のセンサの物体情報を採用することを意味する。低処理負荷統合処理モード(S572)でセレクト処理モード(S573)を実施してもよい。
【0054】
ここで、予測物体情報200の位置情報とセンサ検知範囲208の重複領域における境界までの距離561を判定基準として、統合処理モード209(高処理負荷統合処理モード、低処理負荷統合処理モード)の設定(切り替え)を行うのは、センサ検知範囲208の重複領域における境界と境界以外の領域とでセンサの検知誤差が異なる、詳しくは、センサ検知範囲208の重複領域における境界のセンサの検知誤差が相対的に大きくなる傾向があるためである。
【0055】
(統合対象情報生成部104)
図6は、本発明の第1実施形態のセンサ物体情報統合部B010が実行する、統合対象情報生成部104のフローチャートである。S600で統合対象情報生成部104の処理を開始し、S603に進む。S603で、統合処理モード判定部102からのアソシエーション情報201Bから未処理の予測物体を抽出し、S606に進む。S606で、未処理の予測物体が存在する場合(S606:Yes)、S609に進む。S609で、抽出した予測物体に関連づいたセンサ物体を抽出し、S618において、統合処理モード判定部102で算出した統合処理モード209に基づき、抽出したセンサ物体の情報を統合する(後で説明)。また、統合した結果を統合対象情報204として出力する。そして、S603に戻る。S606において、未処理の予測物体が存在しない場合(S606:No)、S624において統合対象情報生成を終了する。
【0056】
どの予測物体とも紐づかないセンサからの物体については、各センサの物体間で図4の通りアソシエーションの判断を実施し、図5の統合処理モードを判定し、図6で同様に統合するとよい。
【0057】
(予測更新部100)
図7は、本発明の第1実施形態のセンサ物体情報統合部B010が実行する、予測更新部100のフローチャートである。S650において、予測更新部100の処理を開始し、S653に進む。S653で、統合物体情報記憶部106からの統合物体情報205Bを基に、未処理の統合物体を抽出し、S656に進む。S656において、未処理の統合物体が存在する場合(S656:Yes)、S659に進み、未処理の統合物体が存在しない場合(S656:No)、S662に進む。S659において、外界認識センサ群B002からのセンサ物体情報は利用せずに、時刻t2での物体の状態を予測し、予測した結果を予測物体情報200として出力し、S653に戻る。S662において予測更新部100の処理を終了する。S659の予測の際は、自車の行動と物体の行動に基づき予測することを想定する。自車の行動は、自車の速度やヨーレート等により推定する。また、物体の行動は、物体の速度やヨーレート等により推定する。
【0058】
(統合更新部105)
図8は、本発明の第1実施形態のセンサ物体情報統合部B010が実行する、統合更新部105のフローチャートである。S700で統合更新部105の処理を開始し、S703に進む。S703で、統合対象情報生成部104からの統合対象情報204から未処理の予測物体を抽出し、S706に進む。S706で、未処理の予測物体が存在する場合(S706:Yes)、S712に進み、未処理の予測物体が存在しない場合(S706:No)、S718に進む。S712で予測物体のアソシエーション対象である複数のセンサ物体を抽出し、S715に進む。S715で、予測更新部100からの予測物体と複数のセンサ物体から物体位置を推定し、推定した結果を統合物体情報205Aとして出力し、S703に戻る。S715のセンサ物体とは、統合後の物体を指す。S718において統合更新部105の処理を終了する。
【0059】
[統合処理モードの追加説明]
統合処理モード判定部102における高処理負荷統合処理モードの一例、換言すれば、統合対象情報生成部104の統合処理で用いる高処理負荷統合処理モードの一例として、図9に示す統合方法があげられる。図9は自車の進行方向が上に向かう例である。
【0060】
図9のF41はレーダによる物体の検知位置を表し、F44は誤差共分散を表す。外界認識センサとしてのレーダの誤差は角度分解能に依存するため、センサの取り付け方向に対して横方向に誤差が広がる。また、図9のF42はカメラによる物体の検知位置を表し、F45は誤差共分散を表す。外界認識センサとしてのカメラによる物体の誤差共分散は、画素ピッチのサイズ等によりセンサの取り付け方向に対して縦方向に誤差が広がる。このように原理の異なるセンサを扱う場合は、誤差の広がり(誤差分布)が異なることが考えられる。高処理負荷統合処理モードでは、各センサの誤差が少ない成分を取り、統合対象情報生成部104にて、その高処理負荷統合処理モードに基づき、統合結果F43を算出することで、物体の位置精度を高めることが可能である。本処理は、誤差共分散行列の逆行列演算が必要となり、高処理負荷な(詳細な)統合処理である。
【0061】
また、統合処理モード判定部102における低処理負荷統合処理モードの一例、換言すれば、統合対象情報生成部104の統合処理で用いる低処理負荷統合処理モードの一例として、図10に示す統合方法があげられる。
【0062】
図9と同様に、図10のF41はレーダによる物体の検知位置を表し、F44は誤差共分散を表す。また、図10のF42はカメラによる物体の検知位置を表し、F45は誤差共分散を表す。図10のF46が低処理負荷統合処理モードに基づく統合結果を表し、ここでの低処理負荷統合処理モードは、各センサの物体の位置の平均をとる方法である。本処理は、演算が単純であり、低処理負荷な(簡易な)統合処理である。なお、平均は重みづけ平均としてもよく、重みパラメータを誤差共分散から算出してもよい。低処理負荷でもセンサの特徴を考慮できるよう、重みをセンサ特有の情報から設定するのが望ましい。他にも低処理負荷な統合処理として、複数センサで検知した物体が存在する場合、どちらかのセンサの情報を採用する方法と使い分けるとよい。なお、どちらかのセンサの情報を採用する方法と図5のセレクト処理モード(S573)は同義である。
【0063】
[境界までの距離算出の追加説明]
図5のS560における予測物体情報200の位置情報とセンサ検知範囲208における境界までの距離561の算出方法について補足する。図11において、予測物体情報F15がセンサ検知範囲に属している。F11、F14は単独のセンサ(例えばカメラ、又は、レーダ)の検知範囲、F12、F13は複数センサ(例えばカメラとレーダ)の検知範囲が重複する領域を表す。F13の点線は重複領域の境界部を表し、F12は重複領域の非境界部を表す。
【0064】
統合対象情報生成部104では、センサ検知範囲が重複する領域が対象となり、F12、F13に位置する予測物体情報F15が統合の対象となる。なお、予測物体情報F15に対し、センサからの複数の物体をアソシエーション部101にてアソシエーションし、アソシエーションの対象となるセンサからの複数の物体が得られる。センサからの複数の物体同士が統合の対象となる。まず、予測物体情報F15がF12に属するかF13に属するかを決定するために、F13の境界部と予測物体情報F15の位置との距離を算出する。単純な方法として、図12に示す通り、F13の境界部に対し、予測更新情報F15の位置から垂線を引き、最も近い辺との距離d=min(d1,d2,d3)を境界部までの距離561(図12に示す例ではd1)とする。境界部の形状が複雑な場合は、多角形ポリゴンを定義し、各辺に対して距離を算出してもよい。図5におけるS565の距離が閾値以下かの判定では、境界部からのマージンを見て閾値を設定するとよい。また、センサ毎に閾値を変えてもよいし、閾値を可変としてもよい。
【0065】
別途、図5の条件に加え、自車から物体(物標とも呼ぶ)までの距離が閾値以上の場合は、高処理負荷統合処理モードとし、自車から物体(物標)までの距離が閾値未満の場合は低処理負荷モードとしてもよい。これは、自車から物体までの距離が遠いほど、センサの検知誤差が拡大する傾向にあるため、センサの誤差が少ない成分を取り、統合結果の精度を高める高処理負荷モードとするとよい。
【0066】
[効果の説明]
以上で説明したように、本実施形態は、複数の外界認識センサで検知した自車周辺の物体に関する複数の物体情報(センサ物体情報)を統合するセンサ認識統合装置B006であって、前記自車の挙動から推定した前記自車の行動と前記外界認識センサで検知した物体情報に基づき、前記物体の行動を予測した予測物体情報を生成する予測更新部100と、前記予測物体情報と前記複数の物体情報との関連(アソシエーション情報)を算出するアソシエーション部101と、前記複数の外界認識センサの検知領域の重複領域における特定領域(例えば境界部)と前記予測物体情報の位置関係に基づいて、前記複数の物体情報の統合方法を決定する統合処理モード(前記複数の物体情報の統合処理を相対的に詳細な処理とする高処理負荷統合処理モード、前記複数の物体情報の統合処理を相対的に簡易な処理とする低処理負荷統合処理モード)を切り替える統合処理モード判定部102と、前記統合処理モードに基づいて、前記予測物体情報に関連づいた(対応づいた)前記複数の物体情報を統合する統合対象情報生成部104と、を備える。
【0067】
本実施形態により、例えば、センサの重複領域における境界部に高処理負荷な統合処理を割り当て、それ以外は低処理負荷の統合処理とすることで、全体の高処理負荷な統合処理の割合を最小化し、処理負荷の低減効果が見込める。また、高処理負荷統合処理や低処理負荷統合処理に関わらず、物体の誤差共分散(誤差分布)を考慮した統合対象情報生成部104により、複数センサの誤差が少ない成分を取り合い、システムとしての精度向上が可能となる。
【0068】
本実施形態によれば、検知状況に応じて、車両走行制御が必要とする必要最小限の精度を満たすよう統合処理の負荷低減が可能となり、ECUの処理性能向上、コストアップを抑止する効果が得られる。
【0069】
≪第2実施形態≫
本第2実施形態では、第1実施形態と同じく、図3の機能ブロック図、図4図8のフローチャートを採用する。ただし、図1の自動運転システム構成、図5の統合処理モード判定部102の判定条件が第1実施形態と異なる。図13は、本発明の第2実施形態のセンサ認識統合装置B006を含む自動運転システムの構成図である。
【0070】
図13では、図1の自動運転システム構成にサブ構成を追加している。追加箇所は、センサ認識統合装置B006に進行路推定部B012を追加するとともに、情報記憶部B009から情報(データ)D009cを進行路推定部B012に出力する。また、進行路推定部B012は、進行路推定結果D012をセンサ物体情報統合部B010に出力する。
【0071】
進行路推定部B012は、情報記憶部B009からのデータD009cに基づき、自車F20の進行路F22(図14参照)を推定する。なお、自車の進行路とは、自車の走行軌跡を表し、付加的な情報として、軌跡上の自車の速度やヨーレートを持ってもよい。データD009cは、自車速度やヨーレート、舵角などの情報(例えば、自車挙動認識センサB001で取得されて情報記憶部B009に記憶)を表し、これらの情報に基づき、進行路推定部B012で今後自車がどのような走行軌跡をとるかを算出(推定)する。具体的には、舵角やヨーレートの状態に基づき自車の旋回半径を推定する。旋回半径に基づき自車がいつどの位置にいるかを予測し、進行路推定結果D012として、センサ物体情報統合部B010に出力する。
【0072】
図14に示すシーンは、歩行者F21が道路を横断している状況で、自車F20が交差点を左折するシーンである。図14では、自車速度とヨーレートから推定した進行路F22(進行路推定部B012により算出)の予測位置がセンサ検知範囲F23、F24上に位置する。この場合、自車F20が走行する進行路F22に関連性の高い物体を優先とし、自車F20の進行路F22上に位置するF23、F24のセンサ検知範囲の重複部分においてのみ高処理負荷モードとし、それ以外のセンサ検知範囲F25、F26、F27に関しては、低処理負荷モードに切り替える。なお、第1実施形態に記載の図5のセンサ検知範囲(の重複領域)の境界部に基づく条件と組み合わせてもよい。
【0073】
本第2実施形態の進行路F22を採用することにより、第1実施形態の効果に加え、より高処理負荷な統合処理の割合を最小化でき、処理負荷の低減効果が高まる。なお、自車が走行する進行路を重視するため、警報やブレーキが必要となる可能性が高い歩行者F21は優先的に処理される。また、自車の左隣を通過する自転車やバイクが存在する場合は、図14のF26のセンサ検知範囲も優先度が高いため、シーンによって高処理負荷モードとする条件を切り替える必要がある。例えば、進行路F22の向きが左側だとすると、自車F20の左側に搭載のセンサの優先度を上げる方法が考えられる。また、別の考え方として、物体の予測位置を推定し、進行路F22に対し、横切る可能性があり、物体の相対速度が速いものに対し(つまり、進行路F22に対する物体の影響度が高いものに対し)、高処理負荷モードを適用し、それ以外の横切る可能性が低い物体に対しては(つまり、進行路F22に対する物体の影響度が低いものに対しては)低処理負荷モードとしてもよい。
【0074】
≪第3実施形態≫
本第3実施形態では、第1実施形態と同じく、図1の自動運転システム構成、図3の機能ブロック図、図4図8のフローチャートを採用する。ただし、図5の統合処理モード判定部102の判定条件が第1実施形態と異なる。
【0075】
図15に示すF31、F32は、センサ検知範囲に存在する信頼度が低下する領域の例である。F31は、カメラの検知範囲F02における信頼度が低下する領域を表し、信頼度が低下すると物体の位置や速度の精度低下や誤検知が起こりえる。また、F32は、レーダの検知範囲F03における信頼度が低下する領域を表し、信頼度が低下すると物体の位置や速度の精度低下や誤検知が起こりえる。従って、信頼度が他の領域よりも低下する領域については、検知範囲F02、F03の重複領域の境界部であっても、低処理負荷モードを適用する。信頼度が他の領域よりも高い領域に対し、検知範囲F02、F03の重複領域の境界部では、高処理負荷モードを適用する。この際、低処理負荷モードでは、信頼度が高いセンサの物体情報をセレクトする。
【0076】
本第3実施形態のセンサ(外界認識センサ)の信頼度の考え方を採用することにより、第1実施形態の効果に加え、より高処理負荷な統合処理の割合を最小化でき、処理負荷の低減効果が高まる。また、信頼度が低いセンサからの情報を除外することで、統合結果の誤検知や精度の低下を防止する効果がある。
【0077】
また、上記第1、第2、第3実施形態を組み合わせ、図16に示すように各条件の組み合わせで高処理負荷モードか低処理負荷モードかセレクト処理モードかを切り替えてもよい。自車からの距離条件が非近傍の場合は、遠い位置にある物体を指し、近傍の場合は、近い位置にある物体を指す(第1実施形態の条件を参照)。また、重複条件が境界領域とは、検知範囲の重複領域の境界部を指し、非境界領域とは、検知範囲の重複領域の境界部以外を指す。重複条件が非重複領域とは、検知範囲が重複しない領域を指す(第1実施形態の条件を参照)。進行路条件が「○」のものは、進行路上に存在する検知範囲を指す。「×」の場合は、進行路上に存在しない検知範囲を指す(第2実施形態の条件を参照)。信頼度条件が「○」のものは、センサの信頼度が高い領域を指し、「×」の場合は、センサの信頼度が低い領域を指す(第3実施形態の条件を参照)。図16に示すように各条件の組み合わせで、より高処理負荷な統合処理の割合を最小化でき、処理負荷の低減効果が高まる。
【0078】
≪第4実施形態≫
本第4実施形態では、第1実施形態と同じく、図1の自動運転システム構成、図3の機能ブロック図、図4図8のフローチャートを採用する。ただし、図5の統合処理モード判定部102の判定条件が第1実施形態と異なる。
【0079】
本第4実施形態では、統合処理モード209を予測物体の追跡状態に基づき切り替える(設定する)。ここでの追跡状態とは、予測物体を途切れることなく連続して追跡できた追跡時間を指す。連続して追跡できた場合は、追跡物体は同じ追跡IDが付与される。予測物体の追跡時間が短い初期検知である場合は、高処理負荷モードとし、ある程度、追跡時間が長くなった場合は、低処理負荷モードに切り替える。また、条件を追跡時間が長いかつ自車からの物体の距離が遠い場合としてもよい。また、予測物体の存在確率(例えば、予測物体の追跡時間等から算出)が低いと判断した場合は、低処理負荷モードとし、予測物体の存在確率が高いと判断した場合は、高処理負荷モードとする。他にも予測物体ではなく、センサで検知したセンサ物体の存在確率に応じて、高処理負荷モード、低処理負荷モード、セレクト処理モードを切り替えてもよい。
【0080】
本第4実施形態の予測物体あるいはセンサ物体等からなる物体の追跡状態の考え方を採用することにより、第1実施形態の効果に加え、より高処理負荷な統合処理の割合を最小化でき、処理負荷の低減効果が高まる。
【0081】
≪第5実施形態≫
本第5実施形態では、第1実施形態と同じく、図3の機能ブロック図、図4図8のフローチャートを採用する。ただし、図1の自動運転システム構成、図5の統合処理モード判定部102の判定条件が第1実施形態と異なる。図17は、本発明の第5実施形態のセンサ認識統合装置B006を含む自動運転システムの構成図である。
【0082】
図17では、図13の自動運転システム構成に信号接続を追加している。追加箇所は、自動運転計画判断装置B007から計画軌道D007bをセンサ認識統合装置B006の情報記憶部B009に出力する。また、情報記憶部B009は、計画軌道D009dをセンサ物体情報統合部B010に出力する。
【0083】
計画軌道とは、自動運転の際に統合結果D011を基に自動運転計画判断装置B007が計画した自車の走行軌道の目標値を指す。計画軌道は、地図ユニットB004からのナビゲーション情報に基づき、自動運転計画判断装置B007で車線レベルの計画軌道に変換したものである。
【0084】
計画軌道D009dを、上記第2実施形態における図13の進行路推定結果D012、つまり図14の進行路F22に置き換えて、図5の統合処理モード判定部102で統合処理モードを切り替える。
【0085】
本第5実施形態の車両(自車)を制御するための計画軌道D009dを採用することにより、第1実施形態の効果に加え、より高処理負荷な統合処理の割合を最小化でき、処理負荷の低減効果が高まる。また、第2実施形態より精度の高い軌道を用いて、統合処理モード209を切り替え可能となり、誤ったモード切り替えが少なくなり、精度が高まる。
【0086】
≪第6実施形態≫
本第6実施形態では、第1実施形態と同じく、図1の自動運転システム構成、図3の機能ブロック図、図4図8のフローチャートを採用する。ただし、図6の統合対象情報生成部104の統合条件が第1実施形態と異なる。
【0087】
本第6実施形態では、予測物体の追跡状態に基づき、追跡状態が安定している場合は、高負荷処理モードの実行頻度(処理周期)を間引き、代わりに間引いた処理周期では、低処理負荷モードを実行する。すなわち、高負荷処理モードの処理周期を予測物体の追跡状態に基づき可変とし、追跡状態が安定している場合は、高負荷処理モードの実行頻度(処理周期)を長く設定する。追跡状態が安定しているとは、物体が一定走行している場合やこれまでの追跡時間が長い場合、統合するセンサからの物体が頻繁に検知・非検知を繰り返していない状況が継続している場合などがあげられる。他にも予測物体ではなく、センサで検知したセンサ物体の追跡状態に応じて、高処理負荷モード等の統合処理モードの処理周期を可変としてもよい。
【0088】
本第6実施形態の高負荷処理モードの実行周期を長く設定することにより、第1実施形態の効果に加え、より高処理負荷な統合処理の割合を最小化でき、処理負荷の低減効果が高まる。また、予測物体等の物体の追跡状態が安定している場合に限られるため、予測更新との統合更新により、急な物体の位置の変化は抑えられる。
【0089】
≪第7実施形態≫
本第7実施形態では、第1〜第6実施形態と同じく、図1の自動運転システム構成、図3の機能ブロック図、図4図8のフローチャートを採用する。ただし、図5の統合処理モード判定部102の統合処理モードを参照する処理が図4のアソシエーション部101となる。図18は、本発明の第7実施形態のセンサ認識統合装置B006のセンサ物体情報統合部B010の機能ブロック図である。
【0090】
図18に示すように、アソシエーション部101の前段処理にアソシエーション処理モード判定部107を配置する。アソシエーション処理モード判定部107は、センサ検知範囲208と予測更新部100の予測物体情報200の情報に基づき、アソシエーション部101で参照するアソシエーション処理モード210を算出して(切り替えて)、アソシエーション部101に出力する。なお、アソシエーション処理モード判定部107の基本的な考え方は統合処理モード判定部102と同様である。第1実施形態と同様に、センサ検知範囲208で境界領域に予測物体情報200が位置する場合、アソシエーション処理モードを高処理負荷アソシエーションモードに設定する。それ以外の場合は、アソシエーション処理モードを低処理負荷アソシエーションモードに設定する。その他、上記第2〜第6実施形態の考え方に準ずる。
【0091】
また、図4のアソシエーション部101の処理では、アソシエーション処理モード210に基づき、アソシエーションの判定内容を高処理負荷の演算(相対的に詳細な処理)と低処理負荷の演算(相対的に簡易な処理)に切り替える。高処理負荷とは、例えば、予測物体とセンサからの物体の関連性を算出するために誤差共分散に基づきマハラノビス距離を算出する処理があげられる。低処理負荷では、ユークリッド距離から関連性を判定してもよい。但し、アソシエーションの精度を保つために、低処理負荷とする場合は、別途自車から物体が遠い場合など車両走行制御への影響が小さいシーンに限るとよい。
【0092】
本第7実施形態により、第1実施形態と同様に、高処理負荷な統合処理の割合を最小化でき、処理負荷の低減効果が高まる。
【0093】
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
【0094】
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
【0095】
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
【符号の説明】
【0096】
B000:情報取得装置
B001:自車挙動認識センサ
B002:外界認識センサ群
B003:測位システム
B004:地図ユニット
B005:入力通信網
B006:センサ認識統合装置
B007:自動運転計画判断装置(計画判断部)
B008:アクチュエータ群
B009:情報記憶部
B010:センサ物体情報統合部
B011:自車周辺情報統合部
B012:進行路推定部(第2実施形態)
100:予測更新部
101:アソシエーション部
102:統合処理モード判定部
104:統合対象情報生成部
105:統合更新部
106:統合物体情報記憶部
107:アソシエーション処理モード判定部(第7実施形態)
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18