IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 国立大学法人金沢大学の特許一覧

特開2024-21916自己位置推定方法、自己位置推定装置、および、プログラム
<>
  • 特開-自己位置推定方法、自己位置推定装置、および、プログラム 図1
  • 特開-自己位置推定方法、自己位置推定装置、および、プログラム 図2
  • 特開-自己位置推定方法、自己位置推定装置、および、プログラム 図3
  • 特開-自己位置推定方法、自己位置推定装置、および、プログラム 図4
  • 特開-自己位置推定方法、自己位置推定装置、および、プログラム 図5
  • 特開-自己位置推定方法、自己位置推定装置、および、プログラム 図6
  • 特開-自己位置推定方法、自己位置推定装置、および、プログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024021916
(43)【公開日】2024-02-16
(54)【発明の名称】自己位置推定方法、自己位置推定装置、および、プログラム
(51)【国際特許分類】
   G01C 21/30 20060101AFI20240208BHJP
   G09B 29/00 20060101ALI20240208BHJP
【FI】
G01C21/30
G09B29/00 A
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022125117
(22)【出願日】2022-08-04
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成30年度、国立研究開発法人新エネルギー・産業技術総合開発機構、「戦略的イノベーション創造プログラム(SIP)第2期/自動運転(システムとサービスの拡張)/自動運転技術(レベル3、4)に必要な認識技術等に関する委託研究」、産業技術力強化法第17条の適用を受ける特許出願
(71)【出願人】
【識別番号】504160781
【氏名又は名称】国立大学法人金沢大学
(74)【代理人】
【識別番号】100109210
【弁理士】
【氏名又は名称】新居 広守
(72)【発明者】
【氏名】柳瀬 龍
(72)【発明者】
【氏名】平野 大智
(72)【発明者】
【氏名】米陀 佳祐
(72)【発明者】
【氏名】菅沼 直樹
【テーマコード(参考)】
2C032
2F129
【Fターム(参考)】
2C032HB11
2F129AA03
2F129BB33
2F129BB49
(57)【要約】
【課題】積雪等によって本来あるべき道路の状態が変更されていた場合でも、従来よりも正確に自己位置推定を行うことができる自己位置推定方法等を提供する。
【解決手段】観測部を備える観測体の地図上における位置を推定する自己位置推定方法であって、記憶部に記憶された所定の領域における道路のランドマークの位置を示す参照用地図情報に対する上記ランドマークの領域の割合と、上記道路の情報を含み上記観測体が備える観測部によって取得された観測情報に対する上記ランドマークの領域の割合とを計算する計算ステップと、2つの上記割合から、参照用地図画像に含まれる上記ランドマークを示す領域と、上記観測情報に含まれる上記ランドマークを示す領域とが一致する度合いを示すマッチング度を算出する算出ステップと、上記マッチング度に基づいて、上記観測体の位置を推定する推定ステップと、を含む、自己位置推定方法を用いる。
【選択図】図2
【特許請求の範囲】
【請求項1】
観測部を備える観測体の地図上における位置を推定する自己位置推定方法であって、
記憶部に記憶された所定の領域における道路のランドマークの位置を示す参照用地図情報に対する前記ランドマークの領域の割合と、前記道路の情報を含み前記観測部によって取得された観測情報に対する前記ランドマークの領域の割合とを計算する計算ステップと、
2つの前記割合から、参照用地図画像に含まれる前記ランドマークを示す領域と、前記観測情報に含まれる前記ランドマークを示す領域とが一致する度合いを表すマッチング度を算出する算出ステップと、
前記マッチング度に基づいて、前記観測体の位置を推定する推定ステップと、を含む、
自己位置推定方法。
【請求項2】
前記推定ステップで、合格した場合、前記参照用地図画像の位置を前記地図上における前記観測体の位置の推定に用いる採用ステップと、を含む、
請求項1に記載の自己位置推定方法。
【請求項3】
前記計算ステップでは、前記所定の領域における前記道路のランドマークの位置を示す参照用地図画像に含まれるランドマークを示す領域の比率である第1比率と、前記所定の領域と対応する前記領域における前記観測情報に含まれる前記ランドマークを示す領域の比率である第2比率とを計算し、
前記算出ステップでは、前記第1比率と前記第2比率との比を算出し、
前記推定ステップでは、前記第1比率と前記第2比率との前記比が所定の閾値の範囲なら前記合格と判定する、
請求項2に記載の自己位置推定方法。
【請求項4】
前記計算ステップでは、前記観測体の備える撮像部が取得した画像から、前記ランドマークの位置を示す前記参照用地図画像を生成する、
請求項1または2に記載の自己位置推定方法。
【請求項5】
前記計算ステップでは、前記参照用地図画像を深層学習で生成する、
請求項4に記載の自己位置推定方法。
【請求項6】
前記計算ステップでは、前記所定の領域における参照用地図画像と、前記所定の領域と対応する領域における前記観測情報とをさらに小さい、複数の小領域に分割し、前記複数の小領域ごとに、前記参照用地図画像と前記観測情報との相関から前記参照用地図画像と前記観測情報とを特定し、前記計算ステップを行う、
請求項1または2に記載の自己位置推定方法。
【請求項7】
前記推定ステップで、前記観測体の位置を推定したとき、前記ランドマークを示す領域の情報のみを用いて、前記参照用地図画像を更新する、
請求項1または2に記載の自己位置推定方法。
【請求項8】
請求項1に記載の自己位置推定方法をコンピュータに実行させるためのプログラム。
【請求項9】
観測部を備える観測体の地図上における位置を推定する自己位置推定装置であって、
記憶部に記憶された所定の領域における道路のランドマークの位置を示す参照用地図情報に対して前記ランドマークの領域の割合と、前記観測部によって取得された観測情報に対する前記ランドマークの領域の割合とを計算する計算部と、
2つの前記割合から参照用地図画像に含まれる前記ランドマークを示す領域と、前記観測情報に含まれる前記ランドマークを示す領域とが一致する度合いを表すマッチング度を算出する算出部と、
算出した前記マッチング度に基づいて、前記観測体の位置を推定する推定部と、を備える、
自己位置推定装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、自己位置推定方法、自己位置推定装置、および、プログラムに関する。
【背景技術】
【0002】
自動運転等において、走行する車両の自己位置推定に関する技術が提案されている。特許文献1には、LiDAR(Light Detection and Ranging)により取得された第1特徴点と地図データベース内の第2特徴点とに基づいてマッピングパラメータを決定し、第1特徴点と第2特徴点との差が所定値以内の場合には第1特徴点に対する精度チェックが成功したと決定するステップを含むオンボードセンサの外部パラメータを校正する方法が開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】国際公開第2019/007263号
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記従来技術では、積雪等によって本来あるべき道路の状態が変更されていた場合に、正確に自己位置推定を行うことが難しいという問題がある。
【0005】
そこで、本発明は、積雪等によって本来あるべき道路の状態が変更されていた場合でも、従来よりも正確に自己位置推定を行うことができる自己位置推定方法等を提供する。
【課題を解決するための手段】
【0006】
本発明の一態様に係る自己位置推定方法は、観測部を備える観測体の地図上における位置を推定する自己位置推定方法であって、記憶部に記憶された所定の領域における道路のランドマークの位置を示す参照用地図情報に対する前記ランドマークの領域の割合と、前記道路の情報を含み前記観測部によって取得された観測情報に対する前記ランドマークの領域の割合とを計算する計算ステップと、2つの前記割合から、参照用地図画像に含まれる前記ランドマークを示す領域と、前記観測情報に含まれる前記ランドマークを示す領域とが一致する度合いを表すマッチング度を算出する算出ステップと、前記マッチング度に基づいて、前記観測体の位置を推定する推定ステップと、を含む。
【0007】
また、本発明の一態様に係るプログラムは、本発明の一態様に係る自己位置推定方法をコンピュータに実行させるためのプログラムである。
【0008】
また、本発明の一態様に係る自己位置推定装置は、観測部を備える観測体の地図上における位置を推定する自己位置推定装置であって、記憶部に記憶された所定の領域における道路のランドマークの位置を示す参照用地図情報に対して前記ランドマークの領域の割合と、前記観測部によって取得された観測情報に対する前記ランドマークの領域の割合とを計算する計算部と、2つの前記割合から参照用地図画像に含まれる前記ランドマークを示す領域と、前記観測情報に含まれる前記ランドマークを示す領域とが一致する度合いを表すマッチング度を算出する算出部と、算出した前記マッチング度に基づいて、前記観測体の位置を推定する推定部と、を備える。
【発明の効果】
【0009】
本発明の一態様に係る自己位置推定方法等は、積雪等によって本来あるべき道路の状態が変更されていた場合でも、従来よりも正確に自己位置推定を行うことができる。
【図面の簡単な説明】
【0010】
図1図1は、実施の形態における自己位置推定装置の構成を示すブロック図である。
図2図2は、実施の形態における自己位置推定方法の動作の概略を表すフローチャートである。
図3図3は、生成地図画像と参照用地図画像とから相関を計算する例を示す図である。
図4図4は、生成地図画像と参照用地図画像とから割合を計算する例を示す図である。
図5図5は、第1比率と第2比率との比を示すグラフである。
図6図6は、実施の形態における自己位置推定方法のマッチング度が低いときに自己位置推定結果を棄却する動作を示すフローチャートである。
図7図7は、実施の形態における自己位置推定装置の詳細な動作を表すフローチャートである。
【発明を実施するための形態】
【0011】
(実施の形態)
本実施の形態において、積雪等によって本来あるべき道路の状態が変更されていた場合でも、従来よりも正確に自己位置推定を行うことができる自己位置推定方法および自己位置推定装置等について説明する。
【0012】
[構成]
まず、実施の形態における自己位置推定装置の構成について説明する。図1は、実施の形態における自己位置推定装置1の構成を示すブロック図である。自己位置推定装置1は、制御部10と、記憶部20と、を備える。そして、制御部10は、計算部30と、算出部31と、推定部32と、棄却部33と、採用部34とを備える。自己位置推定装置1は、観測体80と通信部(図視せず)等を通じて通信可能に構成される。
【0013】
自己位置推定装置1は、観測体80の観測部によって取得されたデータとしての観測情報に基づいて生成する生成地図画像と、記憶部20に記憶している地図情報である参照用地図画像と比較することで、観測体80の存在する地図上の位置を推定する。
【0014】
ここで、観測体80は、観測部としてのセンサを備えており、当該センサによって、道路情報を含む観測情報を取得する。センサとしては、撮像部としてのカメラや、距離検知部としてのLiDAR等が挙げられ、観測情報は、画像情報、映像情報、観測体80と被観測体との間の距離情報等である。道路情報には、少なくとも、道路に関する目印となるランドマークが含まれる。ランドマークは、道路上の白線が最も好ましいが、これに限られず、ガードレール、道路の縁石、または、標識等であってもよい。また、ランドマークは、白線、ガードレール、縁石及び標識の中から選ばれる少なくとも2つの組み合わせであってもよい。なお、道路情報には、道路の形状や幅などが含まれてもよい。
【0015】
生成地図画像は、観測体80のセンサ等が取得した観測情報に基づいてリアルタイムで生成された鳥瞰図の地図画像をオルソ補正した画像である。なお、オルソ補正を行う前の鳥観図の地図画像を生成地図画像として使用してもよい。生成地図画像は、観測情報の具体例である。
【0016】
参照用地図画像にも、上記と同様に、道路に関するランドマークが少なくとも含まれる。なお、参照用地図画像は、予め記憶部20に記憶されていてもよいし、外部から取得されて記憶部20に格納してもよい。参照用地図画像とは、道路及びその周辺の三次元地理空間情報である。例えば、参照用画像とは、以前、センサで取得した道路情報を含む観測情報、または、別途、事前に作成された道路情報を含む観測情報、自動運転用に作成されたダイナミックマップなどである。また、参照用画像とは、道路及びその周辺に係る自車両の位置が車線レベルで特定できる高精度三次元地理空間情報(基盤的地図情報)でもよい。参照用地図画像は、さらに、高精度三次元地理空間情報の上に自動走行などをサポートするために必要な各種の付加的地図情報(例えば、速度制限など静的情報に加え、事故・工事情報など動的情報を含めた交通規制情報など)を載せたものでもよい。
【0017】
制御部10は、CPU(Central Processing Unit)、プロセッサ、半導体素子などからなる。
【0018】
記憶部20は、メモリ等からなる。記憶部20は、道路の白線などのランドマークの位置を含む参照用地図画像、観測体80が備えるセンサが取得した観測情報、観測体80が備えるセンサが取得したデータから生成される、道路情報を示す生成地図画像、および、算出部31が算出したマッチング度等を記憶する。
【0019】
計算部30は、参照用地図画像に含まれる所定の領域におけるランドマークを示す領域の割合と、生成地図画像に含まれ、かつ、参照用地図画像の所定の領域に対応する領域におけるランドマークを示す領域の割合とを計算する。なお、所定の領域に対応する領域とは、参照用地図画像上で指し示す位置と、略同じ位置を指し示す生成地図画像における領域でもよい。参照用地図画像と生成地図画像との縮尺が同じ場合、参照用地図画像上で指し示される位置と同じ位置を指し示す、生成地図画像における領域であって、参照用地図画像上の領域と同じ大きさの領域であってもよい。
【0020】
算出部31は、上記2つの割合から参照用地図画像に含まれるランドマークを示す領域と、生成地図画像に含まれるランドマークを示す領域との一致する度合いを表すマッチング度を算出する。
【0021】
推定部32は、算出したマッチング度に基づいて、観測体80の位置を推定する。
【0022】
棄却部33は、推定部32で、観測体80の位置を推定場合、上記参照用地図画像を、道路地図上における観測体80の位置の推定に用いないことを、推定部32に指示してもよい。
【0023】
採用部34は、推定部32で、位置を推定した場合、上記参照用地図画像を、道路地図上における観測体80の位置の推定に用いることを、推定部32に指示する。
【0024】
つまり、推定部32は、マッチング度が合格した場合、参照用地図画像の位置を道路地図上における観測体80の位置の推定に用いる。
【0025】
[動作]
次に、自己位置推定装置1の動作の概略について説明する。図2は、実施の形態における自己位置推定方法の動作の概略を表すフローチャートである。
【0026】
自己位置推定装置1は、カメラ等のセンサを有する装置であって、例えば、当該装置は自走する車両等でもよい。自己位置推定装置1は、例えば、観測体80のセンサが取得したデータから生成した生成地図画像と、あらかじめ保持している参照用地図画像とを、比較することで、観測体80の位置をリアルタイムに推定する。
【0027】
まず、計算部30は、記憶部20に記憶された参照用地図画像に含まれる所定の領域におけるランドマークを示す領域の割合と、所定の領域と対応する領域における、観測情報に含まれるランドマークを示す領域の割合を計算する(ステップS10)。所定の領域とは、例えば、地図上の64m×64m四方の領域である。
【0028】
上記で算出される割合とは、参照用地図画像全体に対してランドマークを示す領域の割合(以下、第1比率という)と、生成地図画像全体に対してランドマークを示す領域の割合(以下、第2比率という)である。
【0029】
この場合、参照用地図画像と生成地図画像とは同じ寸法である。計算部30は、所定の領域における参照用地図画像と、所定の領域と対応する領域における観測情報とをさらに小さい、複数の小領域に分割し、複数の小領域ごとに、参照用地図画像と観測情報との相関から参照用地図画像と観測情報とを特定して、上記計算をおこなってもよい。
【0030】
次に、算出部31は、算出した割合から参照用地図画像に含まれるランドマークを示す領域と、生成地図画像に含まれるランドマークを示す領域とのマッチング度を算出する(ステップS11)。マッチング度とは、参照用地図画像に含まれるランドマークを示す領域と、生成地図画像に含まれるランドマークを示す領域との一致する度合いである。例えば、マッチング度は、第1比率に対する第2比率との比で判断してもよい。第1比率と第2比率との値が近いほど、マッチング度が高いとする。すなわち、第1比率と第2比率との比が1に近いほど、マッチング度が高いとしてもよい。
【0031】
続いて、推定部32は、マッチング度に基づいて、観測体80の位置を推定する(ステップS12)。マッチング度は、上記の比が閾値の範囲内であれば、高いとしてよい。
【0032】
[処理の詳細]
次に、実施の形態における自己位置推定方法のマッチング度の判定方法について、説明する。図3は、生成地図画像と参照用地図画像とを用いて比を計算する例を示す図である。
【0033】
図3の(a)は、道路の形状等を表す参照用地図画像に含まれる道路50a上の白線40aが示される画像を表している。参照用地図画像として、白線40aのみが抽出された地図画像が用いられてもよい。なお、参照用地図画像は、地図画像から白線40aの領域のみを深層学習を用いたパターン認識によって、生成されてもよい。
【0034】
図3の(b)は、観測体80が備えるセンサが取得したデータから生成される、道路の形状等を表す生成地図画像において、道路50b上の白線40bが示される画像を表している。
【0035】
図3の(c)は、図3の(a)に表される参照用地図画像と、図3の(b)に表される生成地図画像との、画像間の相関性を表す図である。図3の(c)では、図3の(a)に表される参照用地図画像と、図3の(b)に表される生成地図画像との一致度が高くなるにつれて、黒色から白色で示される。図3の(c)におけるピーク位置(図3の(a)と図3の(b)との相関が最も高い部分、すなわち、白色の部分)が、観測体80の位置として最も確からしいと言える。
【0036】
なお、計算部30は、図3の(b)を図3の(a)に対して、相対的に位置を変えて、一致度が高い位置で、上記判断をしている。つまり、計算部30は、相関性の最も高い上記ピーク位置で、参照用地図画像と生成地図画像との2つの画像を重ねたときが、観測体80の位置として最も確からしいと判断する。
【0037】
図4は、生成地図画像と参照用地図画像とを用いてマッチング度を判定する例を示す図である。図4の(a)は、道路の形状を示す生成地図画像ある。図4(a)の生成地図画像では、道路上の白線40aが示されている。図4(a)の生成地図画像は、二値化されてもよい。例えば、図4の(e)に示される画像は、図4の(a)に示される画像を二値化したものである。図4の(e)で、道路50a上の白線40aが白色で表示されている。
【0038】
次に、計算部30は、図4の(b)に示される膨張白線地図画像を生成する。膨張白線地図画像とは、白線の位置を示す参照用地図画像に示される白線の領域を強調した地図である。膨張白線地図画像は、生成地図画像の白線40aと相関が高い位置で切り出されて生成された画像である。図4の(b)には、生成地図画像の白線40aと相関が高い位置で切り出された白線40bが膨張白線地図画像として示されている。
【0039】
そして、図4の(c)に示されるように、計算部30は、白線40aをマスク処理した白線マスク画像を生成する。ここで、白線40aに対するマスク処理とは、画像において、白線部分のみを抽出するような処理であってもよい。なお、マスク処理は行われなくてもよい。そして、図4(d)に示されるように、白線マスク画像を二値化する。例えば、白線領域を白色、その他の領域を黒色に二値化してもよい。
【0040】
そして、計算部30は、生成地図画像の輝度値が所定の閾値より高い領域(例えば、白色の領域)の画素数NRefLaneHighを計算する。輝度値が所定の閾値より高い領域とは、例えば、白線40a(図4(d)を参照)の領域である。続いて、計算部30は、生成地図画像の輝度値が所定の閾値以下の領域(例えば、黒色の領域)の画素数NRefLaneLowを計算する。輝度値が所定の閾値以下の領域とは、例えば、黒色部60の領域(図4(d)を参照)である。
【0041】
次に、計算部30は、輝度値が所定の閾値より高い領域と、輝度値が所定の閾値以下の領域との比を計算する。
【0042】
同様に、計算部30は、膨張白線地図画像についても同様の処理を行う。つまり、計算部30は、膨張白線地図画像の輝度値が所定の閾値より高い領域(例えば、白色の領域)の画素数NRefLaneHighを計算する。輝度値が所定の閾値より高い領域とは、例えば、白線40aの領域である。続いて、計算部30は、膨張白線地図画像の輝度値が所定の閾値以下の領域(例えば、黒色の領域)の画素数NRefLaneLowを計算する。輝度値が所定の閾値以下の領域とは、例えば、黒色の領域である。
【0043】
上記により、参照用地図画像全体に対してランドマーク(白線)を示す領域の割合である第1比率が求まる。また、生成地図画像全体に対してランドマーク(白線)を示す領域の割合である第2比率が求まる。
【0044】
図5は、第1比率に対する第2比率の比を示すグラフである。比は、第2比率÷第1比率で表される。図5の(a)に示されるデータ70aは、晴れの日の第1比率に対する第2比率の比を示す折れ線グラフである。直線71および72は、第1比率に対する第2比率の比の閾値の例を表す。なお、図5(a)で、平均値が1以下であるのは、センサで観測される白線が、経時的に小さくなる要因(経年劣化による白線のかすれ等)を含むためである。
【0045】
また、図5の(b)に示されるデータ70bは、雨の日の第1比率に対する第2比率の比を示す折れ線グラフであり、図5の(c)に示されるデータ70cは、雪の日の第1比率に対する第2比率の比を示す折れ線グラフである。
【0046】
推定部32は、第1比率に対する第2比率の比(第2比率/第1比率)が、閾値の範囲内のとき、マッチング度が高く合格と判定する。閾値の上限bは、図5の直線71であり、閾値の下限aは、図5の直線72である。a<比<bの時、マッチング度が高い。ここで、比は、算出部31が算出する所定の計算式で算出される比率等の値である。
【0047】
そして、採用部34は、マッチング度が高く、合格と判定した場合、その時の参照用地図画像の位置を、道路地図上における観測体80の位置として推定に用いると推定部32に指示する。その場合、推定部32は、算出部31が算出したマッチング度に基づいて、道路地図上における観測体80の位置を推定する。
【0048】
また、推定部32は、比が、その閾値の範囲内(a<比<b)でない場合、マッチング度が低く、不合格と判定する。そして、棄却部33は、生成地図画像の位置を、道路地図上における観測体80の位置に推定しないと、推定部32に指示する。その場合、推定部32は、算出部31が算出したマッチング度に基づいて、道路地図上における観測体80の位置を推定しない。例えば、推定部32は、道路地図上でマッチング度が低い場所(閾値の範囲外)を、観測体80が存在する位置として推定しない。
【0049】
次に、自己位置を推定しない場合の動作について説明する。図6は、マッチング度が低い時に自己位置推定結果を棄却する動作を示すフローチャートである。
【0050】
まず、推定部32は、比が閾値の範囲内か否かを判定する(ステップS20)。ここで、比は、参照用地図画像における白線を示す画素の比率と、生成地図画像における白線を示す画素の比率との比であり、比が閾値の範囲内であるか否かで判断される。
【0051】
推定部32が、第1比率に対する第2比率の比(第2比率/第1比率)が閾値の範囲外と判断した場合(ステップS20でNo)、棄却部33は、その参照用地図画像の位置を、道路地図上における観測体80の位置の推定に用いないことを推定部32に指示する(ステップS21)。すなわち、推定部32は、第1比率に対する第2比率の比が閾値の範囲外の時、観測体80がその参照用地図画像の位置に存在するという推定を行わない。
【0052】
推定部32が、第1比率に対する第2比率の比が閾値の範囲内と判断した場合(ステップS20でYes)、採用部34は、その時の参照用地図画像の位置を、道路地図上における観測体80の位置の推定に用いることを推定部32に指示する(ステップS22)。すなわち、推定部32は、第1比率に対する第2比率の比が閾値の範囲内の箇所に観測体80が存在すると推定する。また、ステップS21では、ステップS11で算出された第1比率に対する第2比率の比が閾値の範囲内のランドマークを示す領域の情報のみを用いて、参照用地図画像を更新してもよい。
【0053】
なお、道路の場所やその他の条件などによりa、b(閾値の下限、上限)の値は、特定できないが、例えば、比が1.3~2程度で異なった時、閾値外とできる。その時は、a:0.5~0.7,b:1.3~2.0と設定できる。
【0054】
また、比は、第2比率に対する第1比率の比としてもよい。また、比率は、ランドマークの領域の割合、つまり、面積の割合としたが、ランドマークの幅や長さなど他のパタメータでもよい。
【0055】
続いて、自己位置推定装置1の動作の詳細について、説明する。図7は、実施の形態における自己位置推定装置1の詳細な動作を表すフローチャートである。
【0056】
まず、計算部30は、参照用地図画像の64m×64mの領域を切り出す(ステップS30)。計算部30は、参照用地図画像の4万画素の領域を処理対象領域とする。ここで、計算部30は、記憶部20に記憶されている参照用地図画像を用いてもよいし、一般的な道路地図画像の64m×64mの領域を切り出して、深層学習によって道路地図画像から生成した参照用地図画像を用いてもよい。
【0057】
また、計算部30は、観測体80が備えるセンサ(カメラなど)によって、以前に取得された画像から、白線40a(図3図4を参照)の位置を示す参照用地図画像を生成してもよい。また、計算部30は、道路地図に含まれる白線40aを示す領域の正解データを深層学習等の学習アルゴリズムによって学習し、学習アルゴリズムに基づいて、参照用地図画像を生成してもよい。
【0058】
次に、計算部30は、生成地図画像の24m×24mの領域を切り出す(ステップS31)。計算部30は、カメラ等の観測体80が備えるセンサが取得したデータから生成された生成地図画像の24m×24mの領域を処理対象領域とする。
【0059】
続いて、計算部30は、処理対象領域の中で、200画素四方の領域を、1画素ずつ垂直方向または水平方向に移動させながら、それぞれの領域で処理を行う。計算部30は、処理対象領域の中で、合計4万回の後述するステップ32aの処理を繰り返し行う(ステップS32)。
【0060】
例えば、計算部30は、i(整数)を0に設定し、0≦i≦39999の間、後述するステップ32aの処理を行う。このとき、整数iは、ステップ32aの処理が終わるごとに、1ずつインクリメントされる。
【0061】
ステップ32aでは、毎回、参照用地図画像と生成地図画像との相関性を計算する(ステップ32a)。ステップ33では、図3と同様に、参照用地図画像と生成地図画像との一致度が高い位置を求める。その位置で、次のステップS34を行う。つまり、算出部31は、4万回の各200画素四方の領域において、ステップS32aで計算した相関のうち、最大の値を有する画素の位置が、相関性が最も高いとし、ベスト位置を判定する(ステップS33)。つまり、算出部31は、24m×24m四方の処理対象領域のうち、相関性が最も高い200画素四方の領域をベスト位置に決定する。
【0062】
次に、計算部30は、参照用地図画像に含まれる白線を示す領域の第1比率と、所定の領域と同じ大きさの領域における、生成地図画像に含まれる白線を示す領域の第2比率とを計算する(ステップS34)。例えば、計算部30は、図4に示されるように、参照用地図画像と生成地図画像とに含まれる白線領域を二値化して、参照用地図画像と生成地図画像とに含まれる白線領域の割合をそれぞれ、第1比率、第2比率として計算する。
【0063】
ここで、第1比率は、参照用地図画像において、処理対象領域に含まれる白線を示す領域の画素数の処理対象領域の画素数に対する割合である。また、第2比率は、生成地図画像において、処理対象領域に含まれる白線を示す領域の画素数の処理対象領域の画素数に対する割合である。
【0064】
続いて、算出部31は、第1比率と第2比率との比を算出しマッチング度を判断する(ステップS35)。算出部31は、第1比率に対する第2比率の比を計算する。
【0065】
続いて、算出部31は、ベスト位置の比が閾値の範囲内か否かを判定する(ステップS36)。つまり、算出部31は、ベスト位置のマッチング度が閾値より1に近いか否かを判定する。
【0066】
算出部31が、ベスト位置での比が閾値の範囲内と判定した場合(ステップS36でYes、マッチング度が高い)、推定部32は、ベスト位置を観測体80の位置と推定する(ステップS37)。この場合、採用部34は、ベスト位置を、観測体80の位置と推定に採用する。
【0067】
算出部31が、ベスト位置の比が閾値の範囲外と判定した場合(ステップS36でNo)、推定部32は、ベスト位置を観測体80の位置と推定しない(ステップS38)。つまり、推定部32が、ベスト位置の比が閾値の範囲外と判定した場合、棄却部34は、ベスト位置を、観測体80の位置の推定に採用しない。
【0068】
なお、自己位置推定装置1および自己位置推定方法は、高度情報を有しない道路の参照用地図画像に適用されるとしたが、高度情報を有するエレベーションマップに適用されてもよい。実施の形態における自己位置推定方法によって、白線の領域のマッチング度を算出し、マッチング度を判定することで、マッチング度が低い場所において、積雪または破損等により道路の形状が変化したことを検知することができる。
【0069】
[効果等]
本開示の一態様における自己位置推定方法は、道路の観測を行う観測体80の道路地図上における位置を推定する自己位置推定方法であって、所定の領域における道路50aの白線40aの位置を示す参照用地図画像に含まれる白線40aを示す領域の割合と、所定の領域と同じ大きさの領域における、観測体80が備えるセンサが取得したデータから生成される道路50bの形状を示す生成地図画像に含まれる白線50bを示す領域の割合を計算する計算ステップ(ステップS10)と、参照用地図画像に含まれる白線40aを示す領域と、生成地図画像に含まれる白線40bを示す領域との一致する度合いを表すマッチング度を上記割合から算出する算出ステップ(ステップS11)と、算出したマッチング度に基づいて、観測体80の位置を推定する推定ステップ(ステップS12)と、を含む。
【0070】
これにより、本開示の一態様における自己位置推定方法は、上記マッチング度に基づいて、観測体80の位置の推定を行うか否かを決定することができる。よって、本開示の一態様における推定方法は、積雪等によって本来あるべき道路の状態が変更されていた場合でも、従来よりも正確に自己位置推定を行うことができる。
【0071】
また、例えば、本開示の一態様における自己位置推定方法は、さらに、マッチング度が高く合格の時、道路地図上における観測体80の位置の推定に用いる採用ステップ(ステップS22)と、を含む。
【0072】
これにより、本開示の一態様における自己位置推定方法は、観測された道路50bの白線40bの形状の参照用地図画像上の白線40aの形状との一致度が高いとき、一致度の高い位置において、観測体80の位置の推定をすることができる。
【0073】
また、例えば、本開示の一態様における自己位置推定方法において、計算ステップでは、所定の領域における道路50aの白線40aの位置を示す参照用地図画像に含まれる白線を示す領域の比率である第1比率と、所定の領域と同じ大きさの領域における生成地図画像に含まれる白線50bを示す領域の比率である第2比率とを計算し、算出ステップでは、前記第1比率と前記第2比率との比を算出し、算出ステップでは、第1比率と第2比率の比が閾値の範囲なら、マッチング度が高いとする。
【0074】
これにより、本開示の一態様における自己位置推定方法は、道路50aの白線40aの占める割合と、道路50bの白線50bの占める割合とを比較することで、精度良く、白線40aと白線40bとの形状が一致している位置を発見することができる。
【0075】
また、例えば、本開示の一態様における自己位置推定方法において、計算ステップでは、観測体80の備えるカメラが、以前に取得した画像から、白線40aの位置を示す参照用地図画像を生成する。
【0076】
これにより、本開示の一態様における自己位置推定方法は、センサ等が取得したデータからリアルタイムに参照用地図画像を生成することができる。
【0077】
また、例えば、本開示の一態様における自己位置推定方法において、計算ステップでは、参照用地図画像を深層学習で生成する。
【0078】
これにより、本開示の一態様における自己位置推定方法は、センサ等が取得したデータから精度よく自動で参照用地図画像を生成することができる。
【0079】
また、本開示の一態様における自己位置推定方法において、計算ステップでは、所定の領域における参照用地図画像と、所定の領域と同じ大きさの領域における生成地図画像とをさらに小さい、複数の小領域に分割し、複数の小領域ごとに、相関を計算し、算出ステップでは、複数の小領域ごとに、前記参照用地図画像と前記観測情報との相関を算出する。
【0080】
これにより、本開示の一態様における自己位置推定方法は、細かい粒度で、観測体80の位置を推定することができる。
【0081】
また、本開示の一態様におけるプログラムは、本開示の一態様における自己位置推定方法をコンピュータに実行させるためのプログラムであってもよい。
【0082】
これにより、本開示の一態様におけるプログラムは、上記自己位置推定方法と同様の効果を奏することができる。
【0083】
また、本開示の一態様における自己位置推定装置1は、道路の観測を行う観測体80の道路地図上における位置を推定する自己位置推定装置1であって、所定の領域における道路50aの白線の位置を示す参照用地図画像に対する白線40aを示す領域の割合と、所定の領域と同じ大きさの領域における、観測体80が備えるセンサが取得したデータから生成される道路50bの形状を示す生成地図画像に対する白線40bを示す領域の割合を計算する計算部30と、割合から参照用地図画像に含まれる白線40aを示す領域と、生成地図画像に含まれる白線40bを示す領域との一致する度合いを表すマッチング度を算出する算出部31と、算出したマッチング度に基づいて、観測体80の位置を推定する推定部32と、を備える。
【0084】
これにより、本開示の一態様における自己位置推定装置1は、上記自己位置推定方法と同様の効果を奏することができる。
【0085】
[その他の実施の形態]
以上、実施の形態について説明したが、本発明は、上記実施の形態に限定されるものではない。
【0086】
例えば、上記実施の形態では、マッチング度として、参照用地図画像と生成地図画像とにおける白線の割合が用いられたが、マッチング度の判定は上記の方法に限定されない。例えば、マッチング度は、参照用地図画像と観測情報としての観測地図画像とにおける白線を示す画素の絶対値を用いて算出されてもよく、参照用地図画像と観測地図画像とにおける白線を示す画素の絶対値の差が閾値以内か否かでマッチング度が判定されてもよい。
【0087】
また、上記実施の形態において、特定の処理部が実行する処理を別の処理部が実行してもよい。また、複数の処理の順序が変更されてもよいし、複数の処理が並行して実行されてもよい。
【0088】
また、上記実施の形態において、各構成要素は、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサなどのプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
【0089】
また、各構成要素は、ハードウェアによって実現されてもよい。各構成要素は、回路(又は集積回路)でもよい。これらの回路は、全体として1つの回路を構成してもよいし、それぞれ別々の回路でもよい。また、これらの回路は、それぞれ、汎用的な回路でもよいし、専用の回路でもよい。
【0090】
また、本発明の全般的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよい。また、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
【0091】
例えば、本発明は、上記実施の形態の端末として実現されてもよいし、端末に相当するシステムとして実現されてもよい。また、本発明は、自己位置推定方法として実現されてもよいし、自己位置推定方法をコンピュータに実行させるためのプログラムとして実現されてもよいし、このようなプログラムが記録されたコンピュータ読み取り可能な非一時的な記録媒体として実現されてもよい。なお、プログラムには、汎用の携帯端末を上記実施の形態の携帯端末として動作させるためのアプリケーションプログラムが含まれる。
【0092】
また、上記実施の形態では、自己位置推定装置1は、単一の装置によって実現されたが、複数の装置として実現されてもよい。また、自己位置推定装置1が複数の装置によって実現される場合、上記実施の形態で説明された刺激出力システムが備える構成要素は、複数の装置にどのように振り分けられてもよい。
【0093】
その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、又は、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。
【符号の説明】
【0094】
1 自己位置推定装置
10 制御部
20 記憶部
30 計算部
31 算出部
32 推定部
33 棄却部
34 採用部
40a、40b 白線
50a、50b 道路
60 黒色領域
70a、70b、70c データ
71 直線
80 観測体
図1
図2
図3
図4
図5
図6
図7