IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ コンチネンタル オートモーティブ システムズ インコーポレイテッドの特許一覧

特許7438222交通参加者の運転マヌーバ予測のための方法
<>
  • 特許-交通参加者の運転マヌーバ予測のための方法 図1
  • 特許-交通参加者の運転マヌーバ予測のための方法 図2
  • 特許-交通参加者の運転マヌーバ予測のための方法 図3
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-02-15
(45)【発行日】2024-02-26
(54)【発明の名称】交通参加者の運転マヌーバ予測のための方法
(51)【国際特許分類】
   G08G 1/09 20060101AFI20240216BHJP
   G08G 1/16 20060101ALI20240216BHJP
【FI】
G08G1/09 H
G08G1/16 A
【請求項の数】 13
(21)【出願番号】P 2021537907
(86)(22)【出願日】2019-12-13
(65)【公表番号】
(43)【公表日】2022-03-03
(86)【国際出願番号】 US2019066289
(87)【国際公開番号】W WO2020139587
(87)【国際公開日】2020-07-02
【審査請求日】2021-08-06
(31)【優先権主張番号】62/785,339
(32)【優先日】2018-12-27
(33)【優先権主張国・地域又は機関】US
(31)【優先権主張番号】16/688,603
(32)【優先日】2019-11-19
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】313005662
【氏名又は名称】コンチネンタル オートモーティブ システムズ インコーポレイテッド
【氏名又は名称原語表記】CONTINENTAL AUTOMOTIVE SYSTEMS, INC.
【住所又は居所原語表記】1 Continental Drive, Auburn Hills, Michigan 48326-1581, USA
(74)【代理人】
【識別番号】100114890
【弁理士】
【氏名又は名称】アインゼル・フェリックス=ラインハルト
(74)【代理人】
【識別番号】100098501
【弁理士】
【氏名又は名称】森田 拓
(74)【代理人】
【識別番号】100116403
【弁理士】
【氏名又は名称】前川 純一
(74)【代理人】
【識別番号】100134315
【弁理士】
【氏名又は名称】永島 秀郎
(74)【代理人】
【識別番号】100135633
【弁理士】
【氏名又は名称】二宮 浩康
(74)【代理人】
【識別番号】100162880
【弁理士】
【氏名又は名称】上島 類
(72)【発明者】
【氏名】シャン チャン
【審査官】佐々木 佳祐
(56)【参考文献】
【文献】特開2016-051465(JP,A)
【文献】特開2010-086269(JP,A)
【文献】特開2018-055141(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G08G 1/00-99/00
(57)【特許請求の範囲】
【請求項1】
自律制御可能な車両の交通をナビゲートする方法であって、前記方法が、
第1の車両に配置されたシステムが、前記第1の車両に配置された少なくとも1つの画像センサを用いて交通環境内の少なくとも1つのターゲット車両を検出するステップと、
前記システムが、前記第1の車両に配置された複数のセンサを用いて、前記交通環境の情報および少なくとも1つの前記ターゲット車両の情報を取得するステップであって、前記交通環境の情報は、前記少なくとも1つのターゲット車両と、静止および/または非静止の他の交通参加者、ならびに車道との間の関係の交通状況を含み、前記少なくとも1つの前記ターゲット車両の情報は、前記第1の車両に配置された前記少なくとも1つの画像センサによりキャプチャされた画像からの、前記少なくとも1つの前記ターゲット車両に対応する画像領域の局所領域特徴マップを含む、ステップと、
前記システムが、前記交通状況および前記局所領域特徴マップに基づいて、未来時間に対して、前記第1の車両に配置されたコントローラを用いて少なくとも1つの前記ターゲット車両の運転マヌーバを予測するステップと、
前記システムが、少なくとも1つの前記ターゲット車両の予測された運転マヌーバに基づいて、前記コントローラを用いて、少なくとも1つの前記ターゲット車両の未来位置との衝突を回避する、前記第1の車両用の推奨経路を生成するステップと、
を含み、
前記少なくとも1つの前記ターゲット車両の運転マヌーバを予測する前記ステップが、前記交通状況および前記局所領域特徴マップを受けとって少なくとも1つの前記ターゲット車両の可能な位置および運転マヌーバを予測するリカレントニューラルネットワークを利用することを含む、
方法。
【請求項2】
前記リカレントニューラルネットワークが、複数の未来時間に対して、少なくとも1つの前記ターゲット車両の可能な位置および運転マヌーバを予測する、請求項1記載の方法。
【請求項3】
前記交通環境に関連する情報が、前記第1の車両と少なくとも1つの前記ターゲット車両との間の空間的関係に関連する情報を含む、請求項1または2記載の方法。
【請求項4】
前記交通環境に関連する情報が、少なくとも1つの前記ターゲット車両と他の交通参加者との間の空間的関係に関連する情報を含む、請求項1から3までのいずれか1項記載の方法。
【請求項5】
前記交通環境に関連する情報が、少なくとも1つの前記ターゲット車両と車道の境界との間の空間的関係に関連する情報を含む、請求項1から4までのいずれか1項記載の方法。
【請求項6】
前記交通環境に関連する情報が、少なくとも1つの前記ターゲット車両から直に取得された情報を含む、請求項1から5までのいずれか1項記載の方法。
【請求項7】
前記第1の車両が、運転者の操作を支援するために第1の車両機能の操作を生成する部分的自律車両を含むか、または前記第1の車両が、独立して操作を行う完全自律車両を含む、請求項1から6までのいずれか1項記載の方法。
【請求項8】
交通環境内で自律制御可能な車両をナビゲートするための車両システムナビゲーションシステムであって、
近接する少なくとも1つの交通参加者に関する情報を取得するための検出モジュールであって、前記検出モジュールが、前記少なくとも1つの交通参加者の画像をキャプチャするカメラと、前記自律制御可能な車両内に配置され、前記少なくとも1つの交通参加者の情報を取得するセンサとを備える検出モジュールと、
車両コントローラと、
を備え、
前記車両コントローラは、前記検出モジュールを用いて、前記交通環境の情報および前記少なくとも1つの交通参加者の情報を取得し、前記交通環境の情報は、前記検出モジュールにより検出された、前記少なくとも1つの交通参加者および他の静止および非静止オブジェクト、ならびに車道との間の関係の交通状況を含み、前記少なくとも1つの交通参加者の情報は、前記カメラによりキャプチャされた画像からの、前記少なくとも1つの交通参加者に対応する画像領域の局所領域特徴マップを含み、
前記車両コントローラは、前記交通状況および前記局所領域特徴マップを受けとり、未来の運転マヌーバを示す複数の予測される可能なアクションと、前記未来の運転マヌーバに基づく複数の未来時間ステップにおける前記少なくとも1つの交通参加者の複数の予測される位置とを生成するリカレントニューラルネットワークを実行し、
前記車両コントローラは、前記少なくとも1つの交通参加者の前記複数の予測される未来位置に基づいて前記車両の経路を変更するコマンドを生成する、
車両システムナビゲーションシステム。
【請求項9】
前記車両システムが、前記交通環境内での車両の操作を示す情報を提供する少なくとも1つのセンサを含む、請求項8記載のシステム。
【請求項10】
前記車両コントローラが、前記少なくとも1つの交通参加者と他の交通参加者との間の関係を検出するように構成されている、請求項8または9記載のシステム。
【請求項11】
前記少なくとも1つの交通参加者が、第1の車両を含み、前記車両コントローラが、車道の境界内の前記第1の車両の位置を検出するように構成されている、請求項10記載のシステム。
【請求項12】
前記車両コントローラが、前記第1の車両から直に、未来の運転マヌーバを示すアクションを検出する、請求項11記載のシステム。
【請求項13】
前記車両コントローラが、部分的自律車両の一部であり、かつ運転者の操作を支援するために車両機能の操作を生成するか、または前記車両コントローラが、独立して操作を行う完全自律車両を含む第1の車両用のコマンドを生成する、請求項8から12までのいずれか1項記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、自律的な車両操作を支援するために、周囲の車両および交通参加者の運転マヌーバを予測するためのシステムおよび方法に関する。
【0002】
背景技術
自律的に操作できる車両には、データを提供し、周囲の車両および他の交通参加者による運転マヌーバへの反応を可能にするセンサが含まれている。周囲の車両の現在のアクションに反応することにより、運転マヌーバ操作が制限される可能性があり、他の車両の意図に関する不確実性のための幾らかの不正確さが含まれる場合がある。さらに、他の車両の運転マヌーバが発生した後にこれに反応することにより、オプションが制限され、非効率となる可能性もある。
【0003】
本明細書で提供される背景説明は、本開示の文脈を一般的に提示することを目的としている。この背景セクションに記載されている範囲で、本明細書に氏名を挙げている発明者の著作物、ならびにそれ以外で出願時に先行技術とされていない記載の態様はいずれも、明示的にも黙示的にも本開示に対する先行技術として認められない。
【0004】
概要
本開示の例示的な実施形態による、自律制御可能な車両の交通をナビゲートする方法は、とりわけ、第1の車両に配置された少なくとも1つのセンサを用いて交通環境内の少なくとも1つのターゲット車両を検出することと、交通環境の第1の車両および少なくともターゲット車両に配置された複数のセンサを用いて情報を取得することと、交通環境および少なくとも1つのターゲット車両に関連して取得された情報に基づいて、未来時間(future time)に対して、第1の車両に配置されたコントローラを用いて少なくとも1つのターゲット車両の運転マヌーバ(maneuver)を予測することと、少なくとも1つのターゲット車両の予測された運転マヌーバに基づいて、コントローラを用いて、少なくとも1つのターゲット車両の未来位置(future position)との衝突を回避する、第1の車両用の推奨経路を生成することと、を含む。
【0005】
自律制御可能な車両の交通をナビゲートする前述の方法のさらなる実施形態では、交通環境に関する情報を取得するステップは、第1の車両に配置されたカメラによってキャプチャされた画像から局所領域特徴マップを生成することを含む。
【0006】
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、少なくとも1つのターゲット車両の運転マヌーバを予測することは、交通環境および局所領域特徴マップについて取得された情報を利用して少なくとも1つのターゲット車両の可能な位置および運転マヌーバを予測するリカレントニューラルネットワークを利用することを含む。
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、リカレントニューラルネットワークは、複数の未来時間に対して、少なくとも1つのターゲット車両の可能な位置および運転マヌーバを予測する。
【0007】
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、交通環境に関連する情報は、第1の車両と少なくとも1つのターゲット車両との間の空間的関係に関連する情報を含む。
【0008】
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、交通環境に関連する情報は、少なくとも1つのターゲット車両と他の交通参加者(traffic participants)との間の空間的関係に関連する情報を含む。
【0009】
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、交通環境に関連する情報は、少なくとも1つのターゲット車両と道路の境界との間の空間的関係に関連する情報を含む。
【0010】
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、交通環境に関連する情報は、少なくとも1つのターゲット車両から直接に取得された情報を含む。
【0011】
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、第1の車両は、運転者の操作を支援するために第1の車両機能の操作を生成する部分的自律車両(partially autonomously vehicle)を含む。
【0012】
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、第1の車両は、独立して操作を行う完全自律車両(fully autonomous vehicle)を含む。
【0013】
別の開示された例示的な実施形態による、交通環境内で自律制御可能な車両をナビゲートするための車両ナビゲーションシステムは、とりわけ、近接する交通参加者に関する情報を取得するための検出モジュールと、検出モジュールからの情報に基づいて継続的に更新される局所領域特徴マップと、複数の未来時間ステップにおいて少なくとも1つの交通参加者の複数の予測された可能な未来位置(possible future positions)を生成するためのリカレントニューラルネットワークと、少なくとも1つの交通参加者の複数の予測された未来位置に基づいて車両の経路を変更するコマンドを生成するための車両コントローラと、を備える。
【0014】
前述の車両ナビゲーションシステムのさらなる実施形態では、車両検出モジュールは、少なくとも1つの交通参加者、車両を取り囲む他の静止および非静止オブジェクトの画像をキャプチャするカメラを備える。
【0015】
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、少なくとも1つのセンサは、交通環境内での車両の操作を示す情報を提供する。
【0016】
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、車両コントローラは、少なくとも1つの交通参加者と他の交通参加者との間の関係を検出するように構成されている。
【0017】
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、少なくとも1つの交通参加者は、第1の車両を含み、車両コントローラは、車道の境界内の第1の車両の位置を検出するように構成されている。
【0018】
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、車両コントローラは、第1の車両から直接に、未来の運転マヌーバを示すアクションを検出する。
【0019】
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、車両コントローラは、部分的自律車両の一部を生成し、かつ運転者の操作を支援するための車両機能の操作を生成する。
【0020】
前述の車両ナビゲーションシステムのうちのいずれかのさらなる実施形態では、車両コントローラは、独立して操作を行う完全自律型車両を含む第1の車両用のコマンドを生成する。
【0021】
本明細書に開示されるこれらおよび他の特徴は、以下の明細書および図面から最もよく理解することができ、以下はその簡単な説明である。
【図面の簡単な説明】
【0022】
図1】交通環境内の例示的なナビゲーションシステムを含む例示的な車両の概略図である。
図2】自律運転用の例示的な車両ナビゲーションシステムの概略図である。
図3】例示的なナビゲーションシステムの実施形態を利用する車両用の例示的なナビゲーションステップを示すフロー図である。
【0023】
詳細な説明
図1を参照すると、第1の車両10は、車両12,14などの周囲の交通参加者の操作を評価し、かつ他の車両12,14によって実行される潜在的な運転マヌーバを予測するシステム15を含む。第1の車両10は、少なくとも1つの周囲の車両および/または交通参加者を示す情報を取得するためのカメラ16およびレーダデバイス24を含む。周囲の交通参加者に関する情報を提供する他の感知装置を利用することができ、それらが本開示の文脈内にあることを理解されたい。
【0024】
第1の車両10は、予測を使用して予測アクションを実行し、意図しない遅延を回避し、乗員の快適さを改善し、かつ改善された交通管理を提供するための経路を定義する。さらに、結果として得られる経路は、他の交通参加者との経路の潜在的で望ましくない交差を予測することによって、事故を回避しうる。開示されたシステム15は、車両10、他の車両12,14、および静的構造内の多くの異なるセンサシステムからの情報を組み合わせることによって、車道20、および車道に近接する路肩25に沿った交通状況を示すデータを抽出する。交通環境内のセンサからの組み合わされた情報は、使用されてターゲット車両12、14に対応する画像領域の特徴マップを構築し、かつリカレントニューラルネットワーク(RNN)で組み合わされて、12’,14’で示されるように、未来時間ステップ[t0,t1,t2,…,tn]においてターゲット車両12,14の可能な運転マヌーバおよび経路を予測する。
【0025】
図1を引き続き参照しながら図2を参照すると、例示的に開示されたシステム15が、第1の車両10に設けられている。システム15は、車両コントローラ25の制御を指示するソフトウェアとして実装されうる。システム15はまた、車両にすでに設けられているセンサおよび他の検出デバイスからの情報を使用する別個のシステムとして提供されうる。車両10は、完全自律車両、部分的自律車両であってよく、または運転者の操作を支援する特徴を含んでもよい。
【0026】
車両10は、22で概略的に示されている既存の交通状況に関して取得された情報を収集および使用して、所望の経路を生成する。交通状況22は、ターゲット車両12,14と、静止および/または非静止の他の交通参加者、ならびに車道20との間の関係である。交通状況22は、1つの例示的な実施形態では、センサ融合モジュールからの出力を処理することによって取得される。センサ融合モジュールは、レーダー24、カメラ16、ならびに予測モデルおよびネットワークによって車両10の経路を定義および/または変更するために使用されるマップ/位置特定モジュールなど、様々な異なる入力ソースからオブジェクト情報、車線情報、ならびに道路端部情報を収集して融合する。
【0027】
例示的に開示されたシステム15は、交通状況22、およびターゲット車両12,14のキャプチャされた画像18に関連して収集されたデータから局所領域特徴マップ28を生成する。例示的な画像18は、検出システムから取得される。この実施例では、検出システムは、第1の車両10に設けられたカメラ16を備える。局所領域特徴マップ28は、2つの主要ステップを使用して生成される。例示的な第1のステップには、生のカメラ画像18から局所領域特徴マップを取得することを含む。34に概略的に示されているように、キャプチャされた画像内の車両12,14の検出および位置特定を可能にするために、コンピュータビジョン技術が生のカメラ画像18に適用される。対象のターゲット車両12の画像領域は、この場合、転置された変換層を含むことなく、全ての畳み込み層から構成される完全畳み込みネットワーク(FCN)26として構築される。FCN26は、他のターゲット車両12、14に直接に関連する情報を含む特徴マップ28を抽出するために使用される。
【0028】
リカレントニューラルネットワーク30(RNN)によって利用される完全畳み込みネットワーク26を生成するために、情報が取得されて使用される。RNN30は、ターゲット車両12,14のそれぞれについての運転マヌーバの予測32を提供し、これらの予測を車両コントローラ25に通信する。車両コントローラ25は、予測32を使用して、車両の操作を変更して潜在的なターゲット車両の動きに適応して考慮する。
【0029】
交通状況情報22および局所領域特徴マップ28は、訓練されたRNN30に供給されて、ターゲット車両12,14の未来の運転マヌーバを推測する。RNN30によって確認および利用される情報の例には、ターゲット車両12,14が左右の車線マーカ36および/または路肩25からどれだけ離れているか/近づいているか、ならびにどの方向指示器が作動されているかなど、ターゲット車両12,14から直接に取得される情報が含まれる。
【0030】
以前のシステムは、車線に対するターゲット車両の横方向の運動学的情報に依存して、可能な未来の運転マヌーバを推測するのを支援する。しかしながら、たとえセンサ融合を使用しても、横方向の運動学的情報および車線推定は、不明確な情報を提供し、そのような「直接的な指標」に基づくアルゴリズムは偽陽性エラーの影響を受けやすい。対照的に、開示されたシステムおよび方法は、機械学習技術を活用して、生のカメラ画像18から情報(例えば、車両が車線マーカ36からどれだけ離れているか/近づいているか)を直接に抽出する。生のカメラ映像18は、オブジェクトおよび車線の情報を別々に処理してその後で組み合わせる代わりに、直接に利用される。したがって、例示的なシステム15は、不確実性を大幅に低減する。また、本開示で提案する方法を用いて、方向指示器などの運転者の意図に関連するより抽象的な情報さえも抽出できて特徴マップ28に含んで、システム15からの予測のロバスト性をさらに強化することができる。
【0031】
図1および図2を引き続き参照しながら図3を参照すると、開示された方法の例示的な実施形態が、40として概略的に示されている。例示的な方法40は、第1の車両10に配置された少なくとも1つのセンサ16,24を用いて、交通環境22内の少なくとも1つのターゲット車両12,14を検出することによって開始する。他の交通参加者の検出は、第1の車両10の前後および横にある他の車両の検出を含む。検出は、既知でありかつ第1の車両10内に設置されている、センサおよびカメラを用いて提供される。特定の情報が、44に示されているように、センサ16,24を用いて取得される。特定の情報には、車道20、車線マーカ36、および路肩25内の他の交通参加者に対する現在の位置を含みうる。さらに、他の車両12から直接に、情報が収集される。他の車両12,14からの直接的な情報には、方向指示器の作動およびブレーキの作動を含みうる。他の車両12,14の画像は、他の車両から直接に、操作が取得されて利用されるように処理される。収集された情報は、46に示されているように、他の車両12,14および交通参加者の運転マヌーバを予測するために使用される。この例示的な実施形態では、システム15は、第1の車両10を制御するために使用される実用的な情報を生成するためのモジュールおよび命令として、車両コントローラ25に実装される。この例示的な実施形態では、RNN30は、少なくとも1つの未来時間に対して、他の車両の少なくとも1つおよび/または複数の運転マヌーバを予測するために利用される。実際には、RNN30は、感知された状態の変化に基づいて常に更新され、単一の予測経路が最も可能性が高くなるまで狭められた、未来時間に対する複数の経路を予測する。代替的な経路もさらに判定される。いったん他の車両12,14の経路が理解されて予測されると、例示的なシステム15は、48に示されているように、第1の車両10用の推奨経路を生成する。予測経路は、他の車両12,14の未来位置との衝突を回避するように判定され、かつ以前のステップで収集されて継続的に更新される情報に基づいている。
【0032】
例示的なシステム15および方法は、予測結果のより高い解像度を提供する。以前のシステムは、限られた時間範囲内でのTPOの可能性のある未来の運転マヌーバ、例えば、次の2秒以内の左への車線変更しか予測できない。例示的なシステムによれば、リカレントニューラルネットワークの出力のサイズが可変であるために、未来時間ステップ[t0,t1,t2,…,tn]における交通参加者の運転マヌーバの確率を予測することができる。
【0033】
例示的な実施形態を開示してきたが、当業者であれば、特定の修正が本開示の範囲内に入るであろうことを認識するであろう。そのため、本開示の範囲および内容を判定するために、以下の特許請求の範囲を検討すべきである。
図1
図2
図3