IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 国立大学法人金沢大学の特許一覧

特開2024-154715車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法
<>
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図1
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図2
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図3
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図4
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図5
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図6
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図7
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図8
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図9
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図10
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図11
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図12
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図13
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図14
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図15
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図16
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図17
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図18
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図19
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図20
  • 特開-車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法 図21
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024154715
(43)【公開日】2024-10-31
(54)【発明の名称】車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法
(51)【国際特許分類】
   G01C 21/30 20060101AFI20241024BHJP
   G08G 1/0969 20060101ALI20241024BHJP
【FI】
G01C21/30
G08G1/0969
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023068694
(22)【出願日】2023-04-19
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 令和4年5月6日に、MDPIのウェブサイト(https://www.mdpi.com/1424-8220/22/9/3545)にて論文が掲載
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成30年度、国立研究開発法人新エネルギー・産業技術総合開発機構、「戦略的イノベーション創造プログラム(SIP)第2期/自動運転(システムとサービスの拡張)/自動運転技術(レベル3、4)に必要な認識技術等に関する研究」委託研究、産業技術力強化法第17条の適用を受ける特許出願
(71)【出願人】
【識別番号】504160781
【氏名又は名称】国立大学法人金沢大学
(74)【代理人】
【識別番号】100109210
【弁理士】
【氏名又は名称】新居 広守
(72)【発明者】
【氏名】柳瀬 龍
(72)【発明者】
【氏名】米陀 佳祐
(72)【発明者】
【氏名】菅沼 直樹
【テーマコード(参考)】
2F129
5H181
【Fターム(参考)】
2F129AA03
2F129BB02
2F129BB22
2F129BB26
2F129BB33
2F129BB66
2F129CC06
2F129CC15
2F129CC20
2F129EE69
2F129EE78
2F129GG17
2F129GG18
2F129HH18
2F129HH19
2F129HH21
5H181AA01
5H181BB13
5H181BB20
5H181CC03
5H181CC04
5H181CC12
5H181CC14
5H181CC24
5H181FF04
5H181FF05
5H181FF07
(57)【要約】
【課題】観測画像において区画線などの路面標示を認識できる尤度を示す信頼度を容易かつ精度良く出力することができる車両位置推定方法などを提供する。
【解決手段】車両位置推定方法は、自車両の位置を推定する車両位置推定方法であって、自車両が走行する道路の画像を含む第一観測画像を取得する第一観測画像取得ステップS10と、第一観測画像に対応する地図画像を取得する地図画像取得ステップS30と、第一観測画像及び地図画像に基づいて、第一観測画像における道路の路面標示が認識できる尤度を示す信頼度を出力する信頼度出力ステップS40と、第一観測画像、地図画像、及び信頼度を用いて自車両の位置を推定する推定ステップS50とを含み、信頼度出力ステップS40において、第一観測画像及び地図画像が入力され、信頼度を推定する、学習済みの機械学習モデルを用いて信頼度を出力する。
【選択図】図7
【特許請求の範囲】
【請求項1】
自車両の位置を推定する車両位置推定方法であって、
前記自車両が走行する道路の画像を含む第一観測画像を取得する第一観測画像取得ステップと、
前記第一観測画像に対応する地図画像を取得する地図画像取得ステップと、
前記第一観測画像及び前記地図画像に基づいて、前記第一観測画像における前記道路の路面標示が認識できる尤度を示す信頼度を出力する信頼度出力ステップと、
前記第一観測画像、前記地図画像、及び前記信頼度を用いて前記自車両の位置を推定する推定ステップとを含み、
前記信頼度出力ステップにおいて、前記第一観測画像及び前記地図画像が入力され、前記信頼度を推定する、学習済みの機械学習モデルを用いて前記信頼度を出力する
車両位置推定方法。
【請求項2】
前記信頼度は、3段階以上のレベルで表される
請求項1に記載の車両位置推定方法。
【請求項3】
前記自車両が走行する前記道路の画像を含む第二観測画像を取得する第二観測画像取得ステップを含み、
前記第一観測画像取得ステップにおいて、LiDAR(Light Detection and Ranging)によって前記第一観測画像を取得し、
前記第二観測画像取得ステップにおいて、ミリ波レーダによって前記第二観測画像を取得し、
前記推定ステップにおいて、前記第一観測画像、前記第二観測画像、及び前記信頼度を用いて前記自車両の位置を推定する
請求項1又は2に記載の車両位置推定方法。
【請求項4】
前記推定ステップにおいて、
前記第一観測画像に基づく前記自車両の推定位置である第一推定位置、及び、前記第二観測画像に基づく前記自車両の推定位置である第二推定位置に、前記信頼度に基づく重み付けを行うことで、前記自車両の位置を推定する
請求項3に記載の車両位置推定方法。
【請求項5】
前記機械学習モデルは、
前記第一観測画像の特徴点である第一特徴点を抽出する第一抽出部と、
前記地図画像の特徴点である第二特徴点を抽出する第二抽出部とを有する
請求項1又は2に記載の車両位置推定方法。
【請求項6】
前記機械学習モデルは、
前記第一特徴点と前記第二特徴点との一致度に基づいて前記信頼度を算出する算出部を有する
請求項5に記載の車両位置推定方法。
【請求項7】
請求項1又は2に記載の車両位置推定方法をコンピュータに実行させるための
プログラム。
【請求項8】
自車両の位置を推定する車両位置推定装置であって、
前記自車両が走行する道路の画像を含む第一観測画像を取得する第一取得部と、
前記第一観測画像に対応する地図画像を取得する地図画像取得部と、
前記第一観測画像及び前記地図画像に基づいて、前記第一観測画像における前記道路の路面標示が認識できる尤度を示す信頼度を出力する信頼度出力部と、
前記第一観測画像、前記地図画像及び前記信頼度を用いて前記自車両の位置を推定する推定部とを含み、
前記信頼度出力部は、前記第一観測画像及び前記地図画像が入力され、前記信頼度を推定する、学習済みの機械学習モデルを用いて前記信頼度を出力する
車両位置推定装置。
【請求項9】
請求項8に記載の車両位置推定装置と、
前記自車両の走行を制御する走行制御部とを備える
自律移動体。
【請求項10】
機械学習モデルの学習方法であって、
前記機械学習モデルは、自車両が走行する道路の画像を含む第一観測画像、及び、前記第一観測画像に対応する地図画像が入力され、前記第一観測画像における前記道路の路面標示が認識できる尤度を示す信頼度を推定し、
前記機械学習モデルの学習方法は、
前記第一観測画像、前記地図画像、及び、前記信頼度の教師データを準備する準備ステップと、
前記教師データを用いて前記機械学習モデルに学習させる学習ステップとを含む
機械学習モデルの学習方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法に関する。
【背景技術】
【0002】
現在、自動車等の移動体の自動運転に関する研究が活発に進められている(特許文献1等参照)。移動体の自動運転において、移動体の位置を推定する必要がある。例えば、特許文献1には、撮像装置によって取得された観測画像に基づいて自車両の位置を推定する技術が記載されている。特許文献1に記載された技術においては、観測画像に含まれる区画線と、当該観測画像に対応する地図画像に含まれる区画線とを検出し、それらの区画線の一致度に基づいて、推定した位置の信頼性を評価している。これにより、特許文献1に記載された技術では、信頼性の低い観測画像に基づく位置推定を回避しようとしている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2020-26985号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載された発明においては、取得された観測画像及び地図画像から区画線を検出する必要がある。また、区画線の検出において、例えば、路面に線状に残った積雪などを区画線として誤検出するおそれがある。
【0005】
そこで、本発明は、観測画像において区画線などの路面標示を認識できる尤度を示す信頼度を容易かつ精度良く出力することができる車両位置推定方法などを提供することを目的とする。
【課題を解決するための手段】
【0006】
上記目的を達成するために、本発明の一態様に係る車両位置推定方法は、自車両の位置を推定する車両位置推定方法であって、前記自車両が走行する道路の画像を含む第一観測画像を取得する第一観測画像取得ステップと、前記第一観測画像に対応する地図画像を取得する地図画像取得ステップと、前記第一観測画像及び前記地図画像に基づいて、前記第一観測画像における前記道路の路面標示が認識できる尤度を示す信頼度を出力する信頼度出力ステップと、前記第一観測画像、前記地図画像、及び前記信頼度を用いて前記自車両の位置を推定する推定ステップとを含み、前記信頼度出力ステップにおいて、前記第一観測画像及び前記地図画像が入力され、前記信頼度を推定する、学習済みの機械学習モデルを用いて前記信頼度を出力する。
【0007】
また、上記目的を達成するために、本発明の一態様に係るプログラムは、上記車両位置推定方法をコンピュータに実行させるためのプログラムである。
【0008】
また、上記目的を達成するために、本発明の一態様に係る車両位置推定装置は、自車両の位置を推定する車両位置推定装置であって、前記自車両が走行する道路の画像を含む第一観測画像を取得する第一取得部と、前記第一観測画像に対応する地図画像を取得する地図画像取得部と、前記第一観測画像及び前記地図画像に基づいて、前記第一観測画像における前記道路の路面標示が認識できる尤度を示す信頼度を出力する信頼度出力部と、前記第一観測画像、前記地図画像及び前記信頼度を用いて前記自車両の位置を推定する推定部とを含み、前記信頼度出力部は、前記第一観測画像及び前記地図画像が入力され、前記信頼度を推定する、学習済みの機械学習モデルを用いて前記信頼度を出力する。
【0009】
また、上記目的を達成するために、本発明の一態様に係る自律移動体は、上記車両位置推定装置と、前記自車両の走行を制御する走行制御部とを備える。
【0010】
また、上記目的を達成するために、本発明の一態様に係る機械学習モデルの学習方法は、機械学習モデルの学習方法であって、前記機械学習モデルは、自車両が走行する道路の画像を含む第一観測画像、及び、前記第一観測画像に対応する地図画像が入力され、前記第一観測画像における前記道路の路面標示が認識できる尤度を示す信頼度を推定し、前記機械学習モデルの学習方法は、前記第一観測画像、前記地図画像、及び、前記信頼度の教師データを準備する準備ステップと、前記教師データを用いて前記機械学習モデルに学習させる学習ステップとを含む。
【0011】
なお、これらの包括的又は具体的な態様は、システム、方法、集積回路、コンピュータプログラム又は非一時的なコンピュータ読み取り可能なCD-ROM等の記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
【発明の効果】
【0012】
本発明によれば、観測画像において区画線などの路面標示を認識できる尤度を示す信頼度を容易かつ精度良く出力することができる車両位置推定方法などを提供できる。
【図面の簡単な説明】
【0013】
図1】実施の形態に係る車両位置推定装置及び自律移動体の構成の一例を示すブロック図である。
図2】実施の形態に係る信頼度出力部の構成例を示すブロック図である。
図3】第一観測画像の一例を示す画像である。
図4】地図画像の一例を示す画像である。
図5】実施の形態に係る推定部の構成例を示すブロック図である。
図6】第二観測画像の一例を示す画像である。
図7】実施の形態に係る車両位置推定方法の流れを示すフローチャートである。
図8】実施の形態に係る機械学習モデルの学習方法の流れを示すフローチャートである。
図9】実施の形態に係る第一観測画像の教師データの第一例を示す画像である。
図10】実施の形態に係る地図画像の教師データの第一例を示す画像である。
図11】実施の形態に係る第一観測画像の教師データの第二例を示す画像である。
図12】実施の形態に係る地図画像の教師データの第二例を示す画像である。
図13】実施の形態に係る第一観測画像の一例を示す画像である。
図14】実施の形態に係る地図画像の一例を示す画像である。
図15図13に示される第一観測画像と、図14に示される地図画像とのマッチング結果を示す図である。
図16】積雪のない状態における本実施の形態に係る信頼度と、第一観測画像と地図画像とのマッチングによって得られる最大相関値とを示すグラフである。
図17】積雪のある状態における本実施の形態に係る信頼度と、第一観測画像と地図画像とのマッチングによって得られる最大相関値とを示すグラフである。
図18】積雪のない道路において、本実施の形態に係る車両位置推定方法によって推定される縦方向位置の誤差の大きさの分布を示すグラフである。
図19】積雪のない道路において、本実施の形態に係る車両位置推定方法によって推定される横方向位置の誤差の大きさの分布を示すグラフである。
図20】積雪のある道路において、本実施の形態に係る車両位置推定方法によって推定される縦方向位置の誤差の大きさの分布を示すグラフである。
図21】積雪のある道路において、本実施の形態に係る車両位置推定方法によって推定される横方向位置の誤差の大きさの分布を示すグラフである。
【発明を実施するための形態】
【0014】
以下、本発明の実施の形態について、図面を参照しながら具体的に説明する。
【0015】
なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序等は、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
【0016】
また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。
【0017】
(実施の形態)
実施の形態に係る車両位置推定方法、プログラム、車両位置推定装置、自律移動体、及び機械学習モデルの学習方法について説明する。
【0018】
[1.車両位置推定装置及び自律移動体の構成]
本実施の形態に係る車両位置推定装置及び自律移動体の構成について図1を用いて説明する。
【0019】
図1は、本実施の形態に係る車両位置推定装置100及び自律移動体V10の構成の一例を示すブロック図である。
【0020】
自律移動体V10は、車両位置推定装置100と、走行制御部70と、記憶部80を備え、自動運転を行う移動体である。自律移動体V10は、移動体であれば特に限定されない。本実施の形態では、自律移動体V10は、自動運転を行う車両である。
【0021】
車両位置推定装置100は、自車両の位置を推定する装置である。図1に示されるように、車両位置推定装置100は、第一取得部10と、地図画像取得部40と、信頼度出力部50と、推定部60とを備える。本実施の形態では、車両位置推定装置100は、第二取得部20と、第三取得部30とをさらに備える。
【0022】
第一取得部10は、自車両が走行する道路の画像を含む第一観測画像を取得する。自車両とは、車両位置推定装置100によって、位置を推定する対象の車両である。本実施の形態では、自車両は、自律移動体V10である。以下では、自律移動体V10のことを自車両とも称する。また、本実施の形態では、自車両の周辺の物体の位置情報を取得する。第一取得部10が位置情報を取得する物体には、自車両の周辺の移動体、及び静止物体が含まれる。例えば、移動体には、車両、歩行者等が含まれ、静止物体には、停止車両、建造物、標識等が含まれる。本実施の形態では、第一取得部10は、第一取得部10の設置位置を基準として、周辺の物体が位置する方向、物体の表面まで距離、及び高さの3次元情報を取得する。第一取得部10として、例えば、LiDAR(Light Detection and Ranging)、ステレオカメラ等の3次元情報取得装置を用いることができる。また、第一取得部10として、単眼カメラとAIと組み合わせたシステムを用いることができる。このようなシステムでは、単眼カメラで撮影した画像からAIを用いて3次元情報を抽出することができる。本実施の形態では、第一取得部10は、LiDARを含む。
【0023】
LiDARは、対象物体に対してレーザ光を照射し、対象物体から反射したレーザ光を取得することで、対象物体とLiDARを搭載した観測体との距離を計測する。第一取得部10は、計測された距離、LiDARの位置、及びレーザ光の照射の向きから、道路の路面の水平方向位置と高さとの関係を示す高さ情報として、3次元点群データを取得する。
【0024】
LiDARは、例えば、128本のレーザ光を垂直方向(つまり、鉛直方向)に互いに異なる照射角度で照射する。LiDARの垂直方向視野角は、水平方向(つまり、鉛直方向に対して垂直な方向)を0degとして、例えば、-25deg以上、15deg以下である。LiDARは、これらのレーザ光の照射の向きを水平方向に360deg回転させることで全方位の3次元点群データを取得できる。レーザ光によるスキャンレートは、例えば、5Hz以上、20Hz以下である。本実施の形態では、スキャンレートは、10Hzに設定される。つまり、本実施の形態では、LiDARは、1秒間に10フレームの3次元点群データを取得する。
【0025】
第一取得部10は、3次元点群データから第一観測画像を取得する。第一観測画像には、例えば、道路の路面標示、道路の横方向の端の位置、路側帯の位置などの情報が含まれる。これにより、第一観測画像から、自車両の位置(つまり、道路が延在する方向)に関する情報などを得られる。第一取得部10が観測する領域と、当該領域における自車両の位置との相対的な関係は特定できるため、第一観測画像と、自車両の位置との相対的な関係を特定できる。
【0026】
第二取得部20は、自車両が走行する道路の画像を含む第二観測画像を取得する。第二取得部20は、第一取得部10とは異なる手法を用いて第二観測画像を取得する。本実施の形態では、第二取得部20は、ミリ波レーダ(Millimeter-Wave Radar;MWR)を含む。第二取得部20は、複数のミリ波レーダにより構成される全方位MWRシステムを含んでもよい。全方位MWRシステムにおいて、複数のミリ波レーダは、互いに異なる向きにミリ波を出射し、その反射波を受ける。全方位MWRシステムは例えば9個のミリ波レーダで構成される。ミリ波レーダは、例えば、観測周期20Hzで自車両の周辺を観測し、観測情報(観測対象までの距離、観測対象の位置する方位角、観測対象との相対速度)を取得する。第二取得部20がミリ波レーダを含む場合には、第一観測画像と比較して、第二観測画像に含まれる路面標示の情報は少ないが、道路及びその周辺の構造物(信号機、ガードレール、標識など)の位置情報を精度良く取得できる。
【0027】
第三取得部30は、自車両の位置情報を取得する。第三取得部30は、位置情報と併せて、姿勢、速度、加速度などの情報をさらに取得してもよい。第三取得部30は、これらの情報を検出するために、例えば、GNSS/INS(Global Navigation Satellite System/Inertial Navigation System)を用いる。本実施の形態では、GNSS/INSにより、人工衛星を観測することによって得られる位置情報と、IMU(Inertial Measurement Unit)の計測情報とを統合することで、自車両の位置、姿勢、速度、加速度などの情報を例えば100Hzの周期で検出する。なお、IMUは、ジャイロセンサ、加速度センサなどの複合システムである。
【0028】
地図画像取得部40は、第一取得部10によって取得された第一観測画像に対応する地図画像を取得する。ここで、地図画像とは、自車両の位置及びその周辺における実際の地図を示す画像である。地図画像は、例えば、事前に取得された高精度3次元地図データ(HDマップ)、ダイナミックマップなどから抽出される。高精度3次元地図データ、ダイナミックマップなどは、予め各位置で計測することによって取得される。高精度3次元地図データ、ダイナミックマップなどは、自車両に予め保存されていてもよいし、通信によって自車両へ送られてもよい。地図画像取得部40は、例えば、第三取得部30によって取得された自車両の位置情報などに基づいて、自車両の周辺の地図画像を取得する。自車両の周辺の地図画像は、自車両の周辺を観測することによって得られる第一観測画像に対応する。地図画像は、例えば、記憶部80に記憶されていてもよいし、自律移動体V10の外部から無線通信などによって取得されてもよい。また、自車両の位置情報は、第三取得部30によって取得された位置情報でなくてもよい。例えば、自車両の位置情報として、地図画像を取得する直前に車両位置推定装置100が推定した自車両の位置と、自車両の速度情報とに基づいて推定した位置を用いてもよい。
【0029】
信頼度出力部50は、第一観測画像及び地図画像に基づいて、第一観測画像における道路の路面標示が認識できる尤度を示す信頼度を出力する。路面標示には、区画線及び道路標示が含まれる。区画線には、例えば、車道中央線、車線境界線、車道外側線などが含まれる。道路標示には、例えば、停止線、横断歩道などが含まれる。第一観測画像における道路の路面標示が認識できる尤度とは、第一観測画像における道路の路面標示がかすれたり、雪などによって隠れたりすることなく認識可能であることのもっともらしさを示す指標である。例えば、路面標示が雪などによって隠れている場合においても、第一観測画像と地図画像とのマッチングを行うことで、第一観測画像と地図画像との相関を求めることは可能である。しかしながら、路面標示が雪などによって隠れている場合などにおいては、マッチング結果の精度が良くないことがある。本実施の形態では、上述した信頼度に基づいて、マッチング結果の信頼性を推定できる。
【0030】
本実施の形態では、第一観測画像において、路面標示が問題なく認識できる場合に、信頼度を1とし、認識できない場合に信頼度を0とする。また、信頼度は、3段階以上のレベルで表される。信頼度は、例えば、高レベル、中レベル、及び低レベルの3段階で表されてもよい。本実施の形態では、信頼度は、0以上、1以下の任意の値で表される。
【0031】
信頼度出力部50の構成例について、図2図4を用いて説明する。図2は、本実施の形態に係る信頼度出力部50の構成例を示すブロック図である。図3及び図4は、それぞれ、第一観測画像及び地図画像の一例を示す画像である。信頼度出力部50は、図3に示されるような第一観測画像、及び、図4に示されるような地図画像が入力され、信頼度を推定する、学習済みの機械学習モデルを用いて信頼度を出力する。なお、図3に示される第一観測画像では、図4に示される地図画像と同様に路面標示(図3に示される区画線L1、及び図4に示される区画線L0)を認識できるため、図3に示される第一観測画像の信頼度は高い。
【0032】
図2に示されるように、本実施の形態では、信頼度出力部50は、第一抽出部51と、第二抽出部52と、算出部53とを有する。信頼度出力部50が用いる学習済みの機械学習モデルには、第一抽出部51と、第二抽出部52とが含まれる。本実施の形態では、信頼度出力部50が用いる学習済みの機械学習モデルには、さらに、算出部53が含まれる。つまり、本実施の形態では、信頼度出力部50が用いる学習済みの機械学習モデルは、第一抽出部51、第二抽出部52、及び算出部53で構成される。機械学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)を用いて作成される。
【0033】
第一抽出部51は、第一観測画像の特徴点である第一特徴点を抽出する。第一抽出部51は、例えば、1以上の畳み込み層と、1以上のプーリング層とを有する。
【0034】
第二抽出部52は、地図画像の特徴点である第二特徴点を抽出する。第二抽出部52は、例えば、1以上の畳み込み層と、1以上のプーリング層とを有する。
【0035】
算出部53は、第一抽出部51によって抽出された第一特徴点と、第二抽出部52によって抽出された第二特徴点との一致度に基づいて信頼度を算出する。算出部53は、例えば、1以上の全結合層、1以上のReLU層、1以上のドロップアウト層を有する。算出部53は、1以上の全結合層、1以上のReLU層、1以上のドロップアウト層を用いて信頼度に対応する値を算出する。算出部53は、例えば、算出された値を、シグモイド関数を用いて0以上、1以下の値に変換し、変換された値を信頼度として出力する。
【0036】
信頼度出力部50が用いる機械学習モデルの学習方法については後述する。
【0037】
推定部60は、第一観測画像、地図画像及び信頼度を用いて自車両の位置を推定する。推定部60の構成例について、図5及び図6を用いて説明する。図5は、本実施の形態に係る推定部60の構成例を示すブロック図である。図6は、第二観測画像の一例を示す画像である。図5に示されるように、推定部60は、第一照合部61と、第二照合部62と、位置算出部63とを有する。
【0038】
第一照合部61は、第一観測画像と、第一観測画像に対応する地図画像とのマッチング(照合)を行う。つまり、第一照合部61は、第一観測画像と地図画像との、相対位置及び相関値の関係を算出し、相関値が最も大きい相対位置を求める。第一照合部61は、相関値が最も大きい相対位置に基づく自車両の推定位置である第一推定位置を位置算出部へ出力する。
【0039】
第二照合部62は、第二観測画像と、第二観測画像に対応する地図画像とのマッチングを行う。つまり、第二照合部62は、第二観測画像と地図画像との、相対位置及び相関値の関係を算出し、相関値が最も大きい相対位置を求める。第一照合部61は、相関値が最も大きい相対位置に基づく自車両の推定位置である第二推定位置を位置算出部へ出力する。第二観測画像は、第一観測画像(図3参照)とは異なる手法を用いて取得された画像である。図6には、ミリ波レーダを用いて取得された第二観測画像の一例が示されている。
【0040】
位置算出部63は、第一照合部61から出力された第一相対位置情報と、第二照合部62から出力された第二相対位置情報と、信頼度出力部50から出力された信頼度とを用いて、自車両の位置を推定する。本実施の形態では、位置算出部63は、第一観測画像に基づく自車両の推定位置である第一推定位置、及び、第二観測画像に基づく自車両の推定位置である第二推定位置に、信頼度に基づく重み付けを行うことで、自車両の位置を推定する。位置算出部63は、例えば、第一推定位置及び第二推定位置に対する重みとして、それぞれ信頼度Vc及び1-Vcを用いた重み付け平均を行うことで、自車両の位置を推定する。なお、位置算出部63における自車両の位置の推定(算出)方法はこれに限定されない。例えば、位置算出部63は、信頼度が0.5以上であれば、第一推定位置を自車両の位置と推定し、信頼度が0.5未満であれば、第二推定位置を自車両の位置と推定してもよい。また、上述したように信頼度が高レベル、中レベル、及び低レベルの3段階で表される場合には、以下のように自車両の位置を推定してもよい。すなわち、信頼度が高レベルである場合は、第一観測画像を用いて自車両の位置を推定し、信頼度が低レベルである場合は、他の画像(例えば、第二観測画像)を用いて自車両の位置を推定してもよい。また、信頼度が中レベルである場合は、第一観測画像を用いて得た自車両の推定位置と、他の画像を用いて得た自車両の推定位置とに、重みづけを行うことで取得した推定位置を自車両の推定位置としてもよい。このように、信頼度が、例えば、3段階以上、20段階以下で表されることで、計算量を削減できるため、短時間で車両位置推定を行うことができる。また、信頼度は、3段階以上10段階以下で表されてもよい。これにより、さらに計算量を削減できる。
【0041】
走行制御部70は、自車両の走行を制御する処理部である。本実施の形態では、走行制御部70は、推定部60によって推定された自車両の位置に基づいて、走行を制御する。走行制御部70は、例えば、自車両の位置、記憶部80に記憶される地図情報などに基づいて、自車両の進行方向などを制御する。
【0042】
記憶部80は、自車両の位置推定のための情報を記憶する。例えば、記憶部80は、自車両が運転する道路の情報を含む地図情報等を記憶する。また、記憶部80は、自動運転のための情報を記憶してもよい。
【0043】
[2.車両位置推定方法]
本実施の車両位置推定方法について、図7を用いて説明する。図7は、本実施の形態に係る車両位置推定方法の流れを示すフローチャートである。
【0044】
本実施の形態に係る車両位置推定方法は、自車両の位置を推定する方法である。本実施の形態に係る車両位置推定方法において、まず、図7に示されるように、車両位置推定装置100の第一取得部10が、自車両が走行する道路の画像を含む第一観測画像を取得する(第一観測画像取得ステップS10)。本実施の形態では、第一観測画像取得ステップS10において、LiDARによって第一観測画像を取得する。
【0045】
続いて、第二取得部20が、自車両が走行する道路の画像を含む第二観測画像を取得する(第二観測画像取得ステップS20)。本実施の形態では、第二観測画像取得ステップS20において、ミリ波レーダによって第二観測画像を取得する。
【0046】
続いて、地図画像取得部40が、第一観測画像に対応する地図画像を取得する(地図画像取得ステップS30)。本実施の形態では、第一観測画像に対応する地図画像として、自車両の位置情報に対応する地図画像を記憶部80から取得する。自車両の位置情報は、例えば、第三取得部30によって取得される。
【0047】
なお、第一観測画像取得ステップS10、第二観測画像取得ステップS20、及び地図画像取得ステップS30を実行する順序は上記順序に限定されない。いずれの取得ステップが先に実行されてもよいし、すべての取得ステップが同時に(並行して)実行されてもよい。
【0048】
続いて、信頼度出力部50は、第一観測画像及び地図画像に基づいて、第一観測画像における道路の路面標示が認識できる尤度を示す信頼度を出力する(信頼度出力ステップS40)。信頼度出力ステップS40において、第一観測画像及び地図画像が入力され、信頼度を推定する、学習済みの機械学習モデルを用いて信頼度を出力する。本実施の形態では、信頼度出力ステップS40において、信頼度は、3段階以上のレベルで表される。
【0049】
機械学習モデルは、第一観測画像の特徴点である第一特徴点を抽出する第一抽出部51と、地図画像の特徴点である第二特徴点を抽出する第二抽出部52とを有する。本実施の形態では、機械学習モデルは、第一特徴点と第二特徴点との一致度に基づいて信頼度を算出する算出部をさらに有する。
【0050】
続いて、推定部60は、第一観測画像、地図画像、及び信頼度を用いて自車両の位置を推定する(推定ステップS50)。本実施の形態では、推定ステップS50において、第一観測画像、第二観測画像、及び信頼度を用いて自車両の位置を推定する。より具体的には、推定ステップS50において、推定部60は、第一観測画像に基づく自車両の推定位置である第一推定位置、及び、第二観測画像に基づく自車両の推定位置である第二推定位置に、信頼度に基づく重み付けを行うことで、自車両の位置を推定する。
【0051】
以上のように本実施の形態に係る車両位置推定方法により、自車両の位置を推定できる。
【0052】
[3.機械学習モデルの学習方法]
本実施の形態に係る車両位置推定装置100の信頼度出力部50が用いる機械学習モデルの学習方法について、図8を用いて説明する。図8は、本実施の形態に係る機械学習モデルの学習方法の流れを示すフローチャートである。
【0053】
本実施の形態に係る機械学習モデルは、自車両が走行する道路の画像を含む第一観測画像、及び、第一観測画像に対応する地図画像が入力され、第一観測画像における道路の路面標示が認識できる尤度を示す信頼度を推定する。
【0054】
本実施の形態に係る機械学習モデルの学習方法において、図8に示されるように、まず、第一観測画像、地図画像、及び、信頼度の教師データを準備する(準備ステップS110)。ここで、第一観測画像及び地図画像について、図9図12を用いて説明する。図9及び図11は、それぞれ、本実施の形態に係る第一観測画像の教師データの第一例及び第二例を示す画像である。図10及び図12は、それぞれ、本実施の形態に係る地図画像の教師データの第一例及び第二例を示す画像である。
【0055】
図9は、積雪のない晴れた日に車両からLiDARによって観測された第一観測画像の一例である。図10は、図9に示される第一観測画像の教師データに対応する地図画像の教師データである。図9に示される第一観測画像においては、路面標示(区画線L1など)が、図10に示される地図画像における路面標示(区画線L0など)と同様に、明瞭に認識される。したがって、図9に示される第一観測画像に対応する信頼度の教師データは1である。
【0056】
図11は、積雪のある日に車両からLiDARによって観測された第一観測画像の一例である。図12は、図11に示される第一観測画像の教師データに対応する地図画像の教師データである。図11に示される第一観測画像においては、図12に示される地図画像における路面標示(区画線L0など)を、ほとんど認識できない。したがって、図11に示される第一観測画像に対応する信頼度の教師データは0である。
【0057】
本実施の形態に係る機械学習モデルの学習方法では、以上のような教師データを準備する。
【0058】
続いて、教師データを用いて機械学習モデルに学習させる(学習ステップS120)。例えば、図9に示されるような第一観測画像のデータ、及び、図10に示されるような地図画像のデータを、信頼度が1となる場合の入力データとして機械学習モデルに入力し、機械学習モデルに学習させる。また、図11に示されるような第一観測画像のデータ、及び、図12に示されるような地図画像のデータを、信頼度が0となる場合の入力データとして機械学習モデルに入力し、機械学習モデルに学習させる。
【0059】
以上のような機械学習モデルの学習方法により、信頼度出力部50において用いられる学習済みの機械学習モデルを得ることができる。
【0060】
[4.効果など]
本実施の形態に係る車両位置推定方法などの効果について説明する。
【0061】
本実施の形態に係る車両位置推定方法は、自車両の位置を推定する。車両位置推定方法は、自車両が走行する道路の画像を含む第一観測画像を取得する第一観測画像取得ステップS10と、第一観測画像に対応する地図画像を取得する地図画像取得ステップS30と、第一観測画像及び地図画像に基づいて、第一観測画像における道路の路面標示が認識できる尤度を示す信頼度を出力する信頼度出力ステップS40と、第一観測画像、地図画像、及び信頼度を用いて自車両の位置を推定する推定ステップS50とを含む。信頼度出力ステップS40において、第一観測画像及び地図画像が入力され、信頼度を推定する、学習済みの機械学習モデルを用いて信頼度を出力する。
【0062】
このように、学習済みの機械学習モデルを用いて信頼度を出力することで、第一観測画像及び地図画像における路面標示を検出することなく容易に信頼度を出力することができる。また、路面標示を検出する必要がないため、路面に線状に残った積雪などを路面標示として誤検出することがないため、精度の良い信頼度を得ることができる。また、路面に積雪が線状に残っている教師データなどを用いて機械学習モデルに学習させることで、機械学習モデルが推定する信頼度の精度をより一層高めることが可能となる。
【0063】
ここで、本実施の形態に係る車両位置推定方法の効果について、図13図17を用いて説明する。図13は、本実施の形態に係る第一観測画像の一例を示す画像である。図13に示される画像は、路面に積雪がある状態においてLiDARを用いて取得された第一観測画像である。図14は、本実施の形態に係る地図画像の一例を示す画像である。図14に示される画像は、図13に示される第一観測画像に対応する地図画像である。図15は、図13に示される第一観測画像と、図14に示される地図画像とのマッチング結果を示す図である。図15には、図14に示される地図画像に対する第一観測画像の相対位置と相関値(つまり、類似度)との関係がグレイスケールで示されている。図14に示される相関値は、テンプレートマッチングによって求められる。図15において色が白くなるにしたがって相関値が高くなる。第一観測画像は、自車両の位置に対応する画像であるため、図15に示される類似度は、第一観測画像と地図画像とのマッチングに基づいて推定される自車両の位置の尤度に対応する。つまり、図15には、第一観測画像と地図画像とのマッチングに基づいて推定される、地図画像における自車両の位置の尤度が示されているとも言える。また、図15に示される十字状の線の交差点は、GPSによって取得された自車両の位置P0に対応し、地図画像に対する自車両の正確な位置を示す。図16及び図17は、それぞれ、積雪のない状態、及び積雪のある状態における本実施の形態に係る信頼度と、第一観測画像と地図画像とのマッチングによって得られる最大相関値とを示すグラフである。図16及び図17は、自律移動体V10を車両位置推定方法を実行しながら移動させた際に得られる信頼度及び最大相関値を示す。図16及び図17の横軸は時間を表し、縦軸は信頼度及び最大相関値を表す。図16及び図17に示される実線が信頼度を表し、点線が最大相関値を表す。
【0064】
図13に示される第一観測画像においては、積雪の影響で、図14に示される地図画像に示される路面標示(区画線L0)を認識できない。このような第一観測画像と地図画像とをテンプレートマッチングによって照合した場合、図15に白い領域で示されるように、自車両の位置が推定される。図15に示される例では、マッチングによって得られる最大相関値は0.549であり、比較的高い値が得られる。しかしながら、図15に示されるように、マッチング結果から推定される自車両の位置(図15の画像内において白で示される位置)は、正確な位置P0からずれており、マッチング結果を信用できない。
【0065】
また、図17に点線で示されるように、積雪の影響で最大相関値が、図16に示される最大相関値と比較して低くなる傾向が見られる。しかしながら、図17においても最大相関値が図16に示される最大相関値と同程度に高くなる場合もあるため、最大相関値だけからは、マッチング結果の信頼性の有無(及び積雪の有無など)を判断しがたい。以上のように、マッチング結果だけからは、マッチング結果を信用できるか否かを判断できない。
【0066】
これに対して、図17に示されるように、本実施の形態に係る車両位置推定方法に基づいて出力された信頼度は、積雪がある場合には、ほぼゼロであり、路面標示を認識できないことを明確に判断できる。なお、図16に示される積雪が無い場合の信頼度は、1であることが多い。図16の一部の時間において信頼度が1未満であるのは、路面標示が消えている場合などがあるためであると推測される。
【0067】
このように、本実施の形態に係る車両位置推定方法によれば、精度の良い信頼度を出力できる。このため、信頼度が低い場合には、第一観測画像を用いて車両位置推定を行わないことで、精度の低い車両位置推定を行うことを抑制できる。
【0068】
また、本実施の形態に係る車両位置推定方法において、信頼度は、3段階以上のレベルで表されてもよい。
【0069】
これにより、路面標示を認識できる尤度に応じて、精細に信頼度を表現することができる。したがって、第一観測画像の利用の仕方を、信頼度に応じて適切に調整することが可能となる。
【0070】
また、本実施の形態に係る車両位置推定方法は、自車両が走行する道路の画像を含む第二観測画像を取得する第二観測画像取得ステップS20を含み、第一観測画像取得ステップS10において、LiDARによって第一観測画像を取得し、第二観測画像取得ステップS20において、ミリ波レーダによって第二観測画像を取得し、推定ステップS50において、第一観測画像、第二観測画像、及び信頼度を用いて自車両の位置を推定してもよい。
【0071】
第一観測画像取得ステップS10のように、LiDARを用いることで、道路に積雪などが無い場合には、路面標示を精度良く検出できるが、道路に積雪などがあり、路面が隠れている場合には、LiDARを用いても路面標示を認識できない。本実施の形態では、ミリ波レーダによって取得される第二観測画像を用いて、道路の周辺の構造物などの位置情報を精度良くに取得することで、LiDARによって路面標示を認識できない場合の位置推定の誤差を低減することが可能となる。
【0072】
また、本実施の形態に係る車両位置推定方法の推定ステップS50において、第一観測画像に基づく自車両の推定位置である第一推定位置、及び、第二観測画像に基づく自車両の推定位置である第二推定位置に、信頼度に基づく重み付けを行うことで、自車両の位置を推定してもよい。
【0073】
このような構成による効果について、図18図21を用いて説明する。図18及び図19は、それぞれ、積雪のない道路において、本実施の形態に係る車両位置推定方法によって推定される縦方向位置及び横方向位置の誤差の大きさの分布を示すグラフである。図20及び図21は、それぞれ、積雪のある道路において、本実施の形態に係る車両位置推定方法によって推定される縦方向位置及び横方向位置の誤差の大きさの分布を示すグラフである。図18図21において、一点鎖線は本実施の形態に係る位置推定方法による位置推定の誤差を示し、破線は、第一観測画像と地図画像とを用いてマッチングを行うことで推定される自車両の位置の誤差を示し、点線は、第二観測画像と地図画像とを用いてマッチングを行うことで推定される自車両の位置の誤差を示す。図18図21において、横軸は、縦方向位置又は横方向の誤差を表し、縦軸は累積割合を示す。例えば、図18において、本実施の形態に係る位置推定方法によれば、縦方向位置の誤差は、0.2m以下が全体の80%以上を占め、0.3m以下の誤差が全体の90%以上を占める。
【0074】
図18及び図19に示されるように、積雪の無い道路においては、第一観測画像と地図画像とを用いてマッチングを行うことで推定される自車両の位置(第一推定位置)の誤差と、本実施の形態に係る位置推定方法によって推定される自車両の位置の誤差とに大差はない。一方、図20及び図21に示されるように、積雪のある道路においては、第一推定位置の誤差が大幅に大きくなる。これに対して、本実施の形態では、積雪のある道路においては、信頼度出力ステップS40において出力される信頼度が低くなり、第一推定位置より、第二観測画像と地図画像とを用いてマッチングを行うことで推定される自車両の位置(第二推定位置)に対する重みが大きくなる。このため、本実施の形態に係る車両位置推定方法によれば、信頼度が低い場合に、第一推定位置の誤差の影響を低減できる。よって、路面標示を認識できない場合における車両位置推定の精度の低下を抑制できる。
【0075】
また、本実施の形態に係る車両位置推定方法において、機械学習モデルは、第一観測画像の特徴点である第一特徴点を抽出する第一抽出部51と、地図画像の特徴点である第二特徴点を抽出する第二抽出部52とを有してもよい。
【0076】
これにより、第一観測画像と地図画像とから信頼度に対して影響の大きい特徴点を抽出できる。
【0077】
また、本実施の形態に係る車両位置推定方法において、機械学習モデルは、第一特徴点と第二特徴点との一致度に基づいて信頼度を算出する算出部を有してもよい。
【0078】
これにより、第一特徴点と第二特徴点との相関に対応する信頼度を算出することができる。
【0079】
また、本実施の形態に係るプログラムは、上記車両位置推定方法をコンピュータに実行させるためのプログラムである。
【0080】
このようなプログラムを実行することで、上記車両位置推定方法と同様の効果が奏される。
【0081】
また、本実施の形態に係る車両位置推定装置100は、自車両の位置を推定する。車両位置推定装置100は、自車両が走行する道路の画像を含む第一観測画像を取得する第一取得部10と、第一観測画像に対応する地図画像を取得する地図画像取得部40と、第一観測画像及び地図画像に基づいて、第一観測画像における道路の路面標示が認識できる尤度を示す信頼度を出力する信頼度出力部50と、第一観測画像、地図画像及び信頼度を用いて自車両の位置を推定する推定部60とを含む。信頼度出力部50は、第一観測画像及び地図画像が入力され、信頼度を推定する、学習済みの機械学習モデルを用いて信頼度を出力する。
【0082】
このような車両位置推定装置100によれば、上記車両位置推定方法と同様の効果が奏される。
【0083】
また、本実施の形態に係る自律移動体V10は、車両位置推定装置100と、自車両の走行を制御する走行制御部70とを備える。
【0084】
このような自律移動体V10によれば、上記車両位置推定方法と同様の効果が奏される。
【0085】
また、本実施の形態に係る機械学習モデルは、自車両が走行する道路の画像を含む第一観測画像、及び、第一観測画像に対応する地図画像が入力され、第一観測画像における道路の路面標示が認識できる尤度を示す信頼度を推定する。本実施の形態に係る機械学習モデルの学習方法は、第一観測画像、地図画像、及び、信頼度の教師データを準備する準備ステップと、教師データを用いて機械学習モデルに学習させる学習ステップとを含む。
【0086】
これにより、容易に、かつ、精度良く信頼度を出力できる、学習済みの機械学習モデルを実現できる。
【0087】
(変形例等)
以上、本発明の一態様に係る車両位置推定方法等について、実施の形態に基づいて説明したが、本発明は、実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を実施の形態に施したものも、本発明の範囲内に含まれてもよい。
【0088】
例えば、上記実施の形態に係る車両位置推定装置100及び車両位置推定方法においては、第二観測画像を用いて自車両の位置を推定したが、第二観測画像を用いなくてもよい。例えば、信頼度が低い場合には、他の方法を用いて位置を推定してもよいし、車両位置推定を停止してもよい。
【0089】
また、上記実施の形態では、移動体の一例として自律移動体V10を用いる例を示したが、移動体は、自律移動体V10に限定されない。道路上を移動し得る、車両位置推定装置100によって位置を推定可能な物体であればよい。
【0090】
また、以下に示す形態も、本開示の一つ又は複数の態様の範囲内に含まれてもよい。
【0091】
(1)上記の車両位置推定装置100に含まれる構成要素の一部は、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウス等から構成されるコンピュータシステムであってもよい。前記RAM又はハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
【0092】
(2)上記の車両位置推定装置100に含まれる構成要素の一部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAM等を含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
【0093】
(3)上記の車両位置推定装置100に含まれる構成要素の一部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。前記ICカード又は前記モジュールは、マイクロプロセッサ、ROM、RAM等から構成されるコンピュータシステムである。前記ICカード又は前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカード又は前記モジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。
【0094】
(4)また、上記の車両位置推定装置100に含まれる構成要素の一部は、前記コンピュータプログラム又は前記デジタル信号をコンピュータで読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(登録商標) Disc)、半導体メモリ等に記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
【0095】
また、上記の車両位置推定装置100に含まれる構成要素の一部は、前記コンピュータプログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
【0096】
(5)本開示は、上記に示す車両位置推定方法であるとしてもよい。また、上記の車両位置推定方法をコンピュータにより実現させるためのコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。さらに、本開示は、そのコンピュータプログラムを記録したCD-ROM等である非一時的なコンピュータ読み取り可能な記録媒体として実現してもよい。
【0097】
(6)また、本開示は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
【0098】
(7)また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を、前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
【0099】
(付記)
また、以上の記載により、下記の技術が開示される。
【0100】
(技術1)自車両の位置を推定する車両位置推定方法であって、前記自車両が走行する道路の画像を含む第一観測画像を取得する第一観測画像取得ステップと、前記第一観測画像に対応する地図画像を取得する地図画像取得ステップと、前記第一観測画像及び前記地図画像に基づいて、前記第一観測画像における前記道路の路面標示が認識できる尤度を示す信頼度を出力する信頼度出力ステップと、前記第一観測画像、前記地図画像、及び前記信頼度を用いて前記自車両の位置を推定する推定ステップとを含み、前記信頼度出力ステップにおいて、前記第一観測画像及び前記地図画像が入力され、前記信頼度を推定する、学習済みの機械学習モデルを用いて前記信頼度を出力する車両位置推定方法。
【0101】
(技術2)前記信頼度は、3段階以上のレベルで表される技術1に記載の車両位置推定方法。
【0102】
(技術3)前記自車両が走行する前記道路の画像を含む第二観測画像を取得する第二観測画像取得ステップを含み、前記第一観測画像取得ステップにおいて、LiDARによって前記第一観測画像を取得し、前記第二観測画像取得ステップにおいて、ミリ波レーダによって前記第二観測画像を取得し、前記推定ステップにおいて、前記第一観測画像、前記第二観測画像、及び前記信頼度を用いて前記自車両の位置を推定する技術1又は2に記載の車両位置推定方法。
【0103】
(技術4)前記推定ステップにおいて、前記第一観測画像に基づく前記自車両の推定位置である第一推定位置、及び、前記第二観測画像に基づく前記自車両の推定位置である第二推定位置に、前記信頼度に基づく重み付けを行うことで、前記自車両の位置を推定する技術3に記載の車両位置推定方法。
【0104】
(技術5)前記機械学習モデルは、前記第一観測画像の特徴点である第一特徴点を抽出する第一抽出部と、前記地図画像の特徴点である第二特徴点を抽出する第二抽出部とを有する技術1~4のいずれかに記載の車両位置推定方法。
【0105】
(技術6)前記機械学習モデルは、前記第一特徴点と前記第二特徴点との一致度に基づいて前記信頼度を算出する算出部を有する技術5に記載の車両位置推定方法。
【0106】
(技術7)技術1~6のいずれか1項に記載の車両位置推定方法をコンピュータに実行させるためのプログラム。
【0107】
(技術8)自車両の位置を推定する車両位置推定装置であって、前記自車両が走行する道路の画像を含む第一観測画像を取得する第一取得部と、前記第一観測画像に対応する地図画像を取得する地図画像取得部と、前記第一観測画像及び前記地図画像に基づいて、前記第一観測画像における前記道路の路面標示が認識できる尤度を示す信頼度を出力する信頼度出力部と、前記第一観測画像、前記地図画像及び前記信頼度を用いて前記自車両の位置を推定する推定部とを含み、前記信頼度出力部は、前記第一観測画像及び前記地図画像が入力され、前記信頼度を推定する、学習済みの機械学習モデルを用いて前記信頼度を出力する車両位置推定装置。
【0108】
(技術9)技術8に記載の車両位置推定装置と、前記自車両の走行を制御する走行制御部とを備える自律移動体。
【0109】
(技術10)機械学習モデルの学習方法であって、前記機械学習モデルは、自車両が走行する道路の画像を含む第一観測画像、及び、前記第一観測画像に対応する地図画像が入力され、前記第一観測画像における前記道路の路面標示が認識できる尤度を示す信頼度を推定し、前記機械学習モデルの学習方法は、前記第一観測画像、前記地図画像、及び、前記信頼度の教師データを準備する準備ステップと、前記教師データを用いて前記機械学習モデルに学習させる学習ステップとを含む機械学習モデルの学習方法。
【産業上の利用可能性】
【0110】
本発明の一態様に係る車両位置推定方法等は、例えば、自動運転のために車両等に適用することができる。
【符号の説明】
【0111】
10 第一取得部
20 第二取得部
30 第三取得部
40 地図画像取得部
50 信頼度出力部
51 第一抽出部
52 第二抽出部
53 算出部
60 推定部
61 第一照合部
62 第二照合部
63 位置算出部
70 走行制御部
80 記憶部
100 車両位置推定装置
V10 自律移動体
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21