IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ シングパイロット プライベート リミテッドの特許一覧

特表2023-510507ナビゲーション用の順次マッピング及び位置推定(SMAL)
<>
  • 特表-ナビゲーション用の順次マッピング及び位置推定(SMAL) 図1
  • 特表-ナビゲーション用の順次マッピング及び位置推定(SMAL) 図2
  • 特表-ナビゲーション用の順次マッピング及び位置推定(SMAL) 図3
  • 特表-ナビゲーション用の順次マッピング及び位置推定(SMAL) 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-03-14
(54)【発明の名称】ナビゲーション用の順次マッピング及び位置推定(SMAL)
(51)【国際特許分類】
   G01C 21/30 20060101AFI20230307BHJP
   G08G 1/16 20060101ALI20230307BHJP
   G08G 1/0969 20060101ALI20230307BHJP
   B60W 40/06 20120101ALI20230307BHJP
【FI】
G01C21/30
G08G1/16 C
G08G1/0969
B60W40/06
【審査請求】有
【予備審査請求】有
(21)【出願番号】P 2022538195
(86)(22)【出願日】2020-02-03
(85)【翻訳文提出日】2022-08-04
(86)【国際出願番号】 SG2020050050
(87)【国際公開番号】W WO2021137750
(87)【国際公開日】2021-07-08
(31)【優先権主張番号】10201913873Q
(32)【優先日】2019-12-30
(33)【優先権主張国・地域又は機関】SG
(81)【指定国・地域】
(71)【出願人】
【識別番号】522243819
【氏名又は名称】シングパイロット プライベート リミテッド
(74)【代理人】
【識別番号】110000855
【氏名又は名称】弁理士法人浅村特許事務所
(72)【発明者】
【氏名】ソン、ジーウェイ
【テーマコード(参考)】
2F129
3D241
5H181
【Fターム(参考)】
2F129AA03
2F129BB02
2F129BB15
2F129BB33
2F129BB49
2F129GG17
2F129GG18
3D241BA49
3D241CD03
3D241CE04
3D241CE05
3D241DC34Z
3D241DC42Z
3D241DC50Z
5H181AA01
5H181AA27
5H181CC03
5H181CC04
5H181CC11
5H181CC14
5H181CC24
5H181FF05
(57)【要約】
移動体をナビゲートするための順次マッピング及び位置推定SMALの方法、すなわち、SMALの方法が開示される。SMALの方法は、マッピングプロセスにおいて未知の環境の初期マップを生成するステップと、位置推定プロセスにおいて初期マップ内の移動体の位置を決定するステップと、例えば、移動体に対する制御値又は命令を作成することによって、未知の環境内の移動体を誘導するステップとを備える。SMALの方法を使用したシステム、及びSMALの方法を実装するためのコンピュータプログラム製品も、それに応じて開示される。
【特許請求の範囲】
【請求項1】
移動体をナビゲートするための順次マッピング及び位置推定(SMAL:Sequential Mapping And Localization)の方法であって、
マッピングプロセスにおいて未知の環境の初期マップを生成するステップと、
位置推定プロセスにおいて前記初期マップ内の前記移動体の位置を決定するステップと、
前記未知の環境内の前記移動体を誘導するステップと
を含む、方法。
【請求項2】
前記未知の環境が、開放領域を含む、請求項1に記載の方法。
【請求項3】
前記マッピングプロセスが、
検出デバイスから複数の第1の環境データを収集するステップと、
前記複数の第1の環境データを融合データにマージするステップと、
前記融合データにエッジ検出を適用するステップと、
前記融合データから第1の路上特徴量のセットを抽出するステップと、
前記第1の路上特徴量のセットを前記初期マップに保存するステップと
によって実行される、請求項1に記載の方法。
【請求項4】
前記検出デバイスが、距離ベースのセンサ、視覚ベースのセンサ、又はそれらの組合せを備える、請求項3に記載の方法。
【請求項5】
前記距離ベースのセンサが、光検出及び測距(LIDAR:Light Detection And Ranging)、音響センサ、又はそれらの組合せを備える、請求項4に記載の方法。
【請求項6】
前記視覚ベースのセンサが、単眼カメラ、全方位カメラ、イベントカメラ、又はそれらの組合せを備える、請求項4に記載の方法。
【請求項7】
前記第1の路上特徴量のセットが、マーキング、道路縁石、草、特別な線、スポット、前記道路の端、異なる道路表面の端、又はそれらの任意の組合せを備える、請求項3に記載の方法。
【請求項8】
前記第1の環境データからノイズを除去するために、前記第1の環境データに確率論的アプローチを適用するステップを更に含む、請求項3に記載の方法。
【請求項9】
前記マッピングプロセスが、オフライン方式で実行される、請求項3に記載の方法。
【請求項10】
前記収集するステップが、フレームバイフレーム方式で実行される、請求項3に記載の方法。
【請求項11】
前記マージするステップが、前記フレームを世界座標システムに位置合わせすることによって実行される、請求項10に記載の方法。
【請求項12】
前記マージするステップが、前記世界座標システムにおいて不正確な位置を有する下位フレームを補正するステップを更に備える、請求項11に記載の方法。
【請求項13】
前記補正するステップが、正確な位置を有する正常フレームと前記下位フレームとの元のオーバーラップを参照することによって実行される、請求項12に記載の方法。
【請求項14】
追加のオーバーラップを生成するために、前記下位フレームの近くの追加の正常フレームを収集するステップを更に備える、請求項13に記載の方法。
【請求項15】
前記エッジ検出が、ブロブ検出を含む、請求項3に記載の方法。
【請求項16】
前記位置推定プロセスが、
前記移動体の近くの複数の第2の環境データを収集するステップと、
前記第2の環境データから第2の路上特徴量のセットを認識するステップと、
前記未知の環境の前記第2の路上特徴量のセットを前記初期マップ内の前記第1の路上特徴量のセットにマッチングさせるステップと
によって実行される、請求項3に記載の方法。
【請求項17】
移動体をナビゲートするための順次マッピング及び位置推定(SMAL)を使用するシステムであって、
マッピング機構を使用して未知の環境の初期マップを生成する手段と、
位置推定機構を使用して前記初期マップ内の前記移動体の位置を決定する手段と、
前記未知の環境内の前記移動体を誘導する手段と
を備えるシステム。
【請求項18】
前記マッピング機構が、
検出デバイスから複数の第1の環境データを収集する手段と、
前記複数の第1の環境データを融合データにマージする手段と、
前記融合データにエッジ検出を適用する手段と、
前記融合データから第1の路上特徴量のセットを抽出する手段と、
前記第1の路上特徴量のセットを前記初期マップに保存する手段と
を備え、
前記マッピング機構はオフライン方式で動作する、請求項31に記載のシステム。
【請求項19】
前記位置推定機構が、
前記移動体の近くの複数の第2の環境データを収集する手段と、
前記第2の環境データから第2の路上特徴量のセットを認識する手段と、
前記未知の環境の前記第2の路上特徴量のセットを前記初期マップ内の前記第1の路上特徴量のセットにマッチングさせる手段と
を備え、
前記位置推定機構はオンライン方式で動作する、請求項31に記載のシステム。
【請求項20】
移動体をナビゲートするための順次マッピング及び位置推定(SMAL)の方法を実装するためにコンピュータプログラム命令及びそれに組み入れられるデータを有する非一時的なコンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって、前記SMALの方法は、
マッピングプロセスにおける未知の環境の初期マップを生成するステップと、
位置推定プロセスにおける前記初期マップ内の前記移動体の位置を決定するステップと、
前記未知の環境内の前記移動体を誘導するステップと
を備える、コンピュータプログラム製品。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、2019年12月30日にIPOS(Intellectual Property Office of Singapore)に出願された、シンガポール特許出願第10201913873Q号の出願日を優先日として主張するものであり、「Sequential Mapping And Localization(SMAL)for Navigation」と同じ表題のものである。先の優先特許出願のすべての関連する内容及び/又は主題は、適切な場合はいつでも参照により本明細書に組み込まれる。
【0002】
本出願は、移動体をナビゲートするようなナビゲーション用の順次マッピング及び位置推定(SMAL:Sequential Mapping And Localization)の方法に関する。また、本出願は、ナビゲーション用の順次マッピング及び位置推定(SMAL)を使用するシステム、並びにナビゲーション用の順次マッピング及び位置推定(SMAL)の方法を実装するためのコンピュータプログラム製品を開示する。
【背景技術】
【0003】
移動体のナビゲートを始めとするナビゲーションは、マッピングプロセス及び位置推定プロセスを含む。位置推定は、移動体(自律車両又はロボットなど)にとって主要な機能である。移動体は、移動体自体を目的地にナビゲートし、そのタスクを完了する前に、移動体の位置及び方向を知る必要がある。従来、リアルタイムキネマティック(RTK:Real-Time Kinematic)、米国の全地球測位システム(GPS:Global Positioning System)、中国の北斗(Beidou)、欧州のガリレオ(Galileo)及びロシアのGLONASSを含む全球測位衛星システム(GNSS:Global Navigation Satellite System)、並びに慣性計測装置(IMU:Inertial Measurement Unit)のナビゲーションシステム(RTK‐GNSS/IMUナビゲーションシステムと略す)が、移動体のナビゲーションに使用される。また、高解像度マップ(HDマップ)も位置推定のために提供される。HDマップは、予め収集される。近年、移動体(自律車両又はロボットなど)の位置推定機能に、地図内の移動体の位置の経過を追いながら同時に、未知の環境の地図を構成又は更新することによる、自己位置推定と環境地図作成の同時実行(SLAM)ソリューションが使用される。SLAMソリューションは、建物、樹木、公道の柱、又は屋内環境の壁、テーブル、椅子など、その環境内で十分に固定された周囲特徴量がある場合にうまく機能する。
【0004】
しかしながら、GNSSの衛星信号がガントリークレーン又はコンテナターミナル内の積み重ねられたコンテナによって容易に遮断されるときには、GNSSの結果が大きくドリフトすることが多いので、コンテナターミナルのようないくつかの特定の領域ではRTK-GNSS/IMUナビゲーションシステムはうまく機能しない。HDマップには、位置推定のための構造体、経路計画のためのマーキング形成を伴うレーン接続部、及びきれいなグラフィカルユーザーインターフェース(GUI:Graphical User Interface)のための詳細なマーキング位置など、複数の目標がある。そのため、HDマップは、独立して生成され、依然として、建物、樹木、柱及びその他のものなど、HDマップ内の構造体に基づいている。
【0005】
一方、SLAMソリューションは、コンテナターミナル及び空港フィールドのような開放環境では、固定された周囲物体がほとんど存在しない場合も、満足のいく程度にパフォーマンスを発揮しない。例えば、コンテナターミナルには多くのコンテナが存在するが、それらは固定されておらず、それらの位置は大きく変化し、SLAMソリューションの位置推定結果に悪影響を及ぼす。コンテナターミナルでは、自律車両はまだ配備されていないが、無線自動識別(RFID:Radio-Frequency Identification)タグ又は超広帯域(UWB:Ultra-wideband)ステーションのように、大規模なビーコンを環境内に配備する必要がある無人搬送車(AGV:Automated Guided Vehicle)のみが配備されている。
【発明の概要】
【課題を解決するための手段】
【0006】
したがって、本出願は、開放環境(空港フィールド及びコンテナターミナルなど)における移動体(自律車両又はロボットなど)の位置推定問題を解決するための順次マッピング及び位置推定(SMAL)の方法を開示する。SMALの方法では、マッピング及び位置推定のために、1つ又は複数の既存の自然のままの路上特徴量を連続的に使用する。
【0007】
第1の態様として、本出願は、移動体をナビゲートするための順次マッピング及び位置推定(SMAL)の方法(すなわち、SMALの方法)を開示する。SMALの方法は、マッピングプロセスにおいて未知の環境の初期マップを生成するステップと、位置推定プロセスにおいて初期マップ内の移動体の位置を決定するステップと、例えば、移動体に対する制御値又は命令を作成することによって、未知の環境内の移動体を誘導するステップとを含む。SLAMソリューションとは対照的に、SMALの方法は、生成ステップにおけるマッピングプロセスを、計算ステップにおける位置推定プロセスから分離する。更に、未知の環境の一連の観測値は、未知の環境が移動体の近くで大きく変化しない限り、初期マップを更新するために離散時間ステップにわたって計ることはない。
【0008】
未知の環境は、選択的に、いかなるビーコンもない開放領域(空港フィールド又はコンテナターミナルなど)を含む。開放領域内の自律車両(RFIDタグ又はUWBステーションなど)のための現在の技術とは対照的に、SMALの方法は、未知の環境を検出し、移動体に信号を送信するためのビーコンを構築又は確立する必要がない。更に、SMALの方法は、ビーコンが未知の環境で構築される場合、現在の技術と併用して採用され得る。その上、SMALの方法は、市街地のような開放領域以外の未知の環境において、RTK-GNSS/IMUナビゲーションシステム、高解像度マップ(HDマップ)、及び/又はSLAMソリューションを含む従来の技術と連携して機能してもよい。
【0009】
マッピングプロセスは、未知の環境の初期マップを構成するために使用される。SMALの方法のマッピングプロセスは、検出デバイスから複数の第1の環境データを収集するステップと、複数の第1の環境データを融合データ(RGB-DDイメージ又はポイントクラウド)にマージするステップと、エッジ特徴量を検出するために融合データにエッジ検出を適用するステップと、融合データから第1の路上特徴量のセットを抽出するステップと、第1の路上特徴量のセットを初期マップに保存するステップとによって選択的に実行される。第1の環境データは、路上特徴量及び周囲特徴量を含む未知の環境の多くの特徴量を記述する。周囲特徴量(建物、樹木、及び柱など)を使用する現在の技術とは対照的に、SMALの方法は、路上特徴量が既に開放領域内で利用可能であるため、開放領域内では適応性がいっそう高くなる。
【0010】
収集するステップの検出デバイスは、選択的に、距離ベースのセンサ、視覚ベースのセンサ、又はそれらの組合せを備える。距離ベースのセンサは、特徴量が豊富でないにもかかわらず、正確な深度情報を提供する。対照的に、視覚ベースのセンサは、深度の推定値を欠く特徴量が豊富な情報を提供する。したがって、距離ベースのセンサ及び視覚ベースのセンサとの組合せは、深度の推定値と十分な特徴量の両方を有する情報を提供し得る。
【0011】
距離ベースのセンサは、光検出測距(LIDAR:Light Detection And Ranging)、音響センサ、又はそれらの組合せを備え得る。音響センサは、移動する物体から反射したエコー音信号を受信することにより移動する物体の位置を特定する音響ナビゲーション測距(SONAR:Sound Navigation And Ranging)センサとしても知られている。音響センサは、通常、0.01~1ワットの範囲の消費電力、及び2~5メートルの深度範囲を有する。音響センサは、一般に、色及び透過性には影響を受けず、したがって、暗い環境に好適である。特に、音響センサは、20kHzを超える超音波を使用する超音波センサを備え得る。超音波センサは、深度情報の精度がより高いことがあり得る。更に、音響センサは、数立方インチ以内のコンパクトな外形を有する。しかしながら、音響センサは、エコー音信号が柔軟な材料によって容易に吸収されるので、未知の環境が多くの柔軟な材料を有する場合にはうまく機能しない。音響センサの処理能力は、温度、湿度、及び圧力などの未知の環境の他の要因によっても影響され得る。音響センサの検出結果を補正するために、音響センサの処理能力に補償を加え得る。
【0012】
LIDARは、音響センサと同様の動作原理を有する。音波の代わりに、LIDARは、エコー信号として電磁波(光など)を採用している。LIDARは、1秒間に最大100万パルスを放つことで、未知の環境から360度の可視性で3次元(3D)ビジュアライゼーション(ポイントクラウドと呼ばれる)を選択的に生成する。LIDARは、通常50~200ワットの範囲の音響センサよりも高い消費電力を有し、通常50~300メートルのより深い深度範囲を有する。特に、LIDARは、深度精度がより高く、音響センサよりも高い深度精度を有し得、これらは両方とも数センチメートル(cm)以内である。更に、LIDARは、0.1~1度の範囲の正確な角度分解能を提供し得る。したがって、LIDARは、自律車両の用途として音響センサよりも好ましい。例えば、Velodyne HDL-64E LIDARは、自動運転車に好適である。しかしながら、LIDARは、かさばる外形を有しており、また低電力用途には好適ではない。
【0013】
視覚ベースのセンサは、単眼カメラ、全方位カメラ、イベントカメラ、又はそれらの組合せを備える。単眼カメラは、カラーTV及びビデオカメラ、イメージスキャナ、並びにデジタルカメラを含む、1つ又は複数の標準RGBカメラを備え得る。単眼カメラは、選択的に、単純なハードウェア(GoPro Hero-4など)、及び数立方インチの範囲のコンパクトな外形を有し、したがって、単眼カメラは、いかなる追加のハードウェアなしで、小さな移動体(携帯電話など)に取り付け得る。また、単眼カメラは、標準のRGBカメラが受動センサであるため、0.01~10ワットの範囲の消費電力を有する。しかしながら、単眼カメラは、単眼カメラが静止イメージから深度情報を直接推測することができないので、複雑なアルゴリズムと連動して機能する必要がある。更に、単眼カメラには、スケールドリフトの問題がある。
【0014】
全方位カメラは、2つの魚眼レンズを有するSamsung Gear 360、GoPro Fusion、Ricoh Theta V、Detu Twin、LGR105、及びYi Technology 360VRなど、360度の視界を有する1つ又は複数の標準のRGBカメラを備えることもあり得る。このように、全方位では、いかなる後処理もせずにリアルタイムでパノラマ写真を提供し得る。全方位カメラは、コンパクトな外形及び1~20ワットの範囲の消費電力を有する。しかしながら、全方位カメラは深度情報を提供できない。
【0015】
イベントカメラ(ダイナミック視覚センサなど)は、バイオインスパイアード視覚センサであり、標準の輝度フレームの代わりにピクセルレベルの輝度変化を出力する。したがって、イベントカメラは、高いダイナミックレンジ、モーションブラー(motion blur)がないこと、及びマイクロ秒オーダーのレイテンシなど、いくつかの利点を有する。イベントカメラは還元情報(reductant information)をキャプチャしないので、非常に電力効率が良い。イベントカメラは、通常、0.15~1ワットの範囲の消費電力を有する。しかしながら、イベントカメラは、高い時間分解能及び非同期イベントを探索する特別なアルゴリズムを必要とする。従来のアルゴリズムは、実際の強度イメージではなく一連の非同期イベントを出力するイベントカメラには好適ではない。
【0016】
或いは、検出デバイスは、選択的に、RGB-Dセンサ、ステレオカメラ、又は同様のものを備える。RGB-Dセンサ又はステレオカメラは、深度情報と豊富な特徴量情報の両方を提供できる。RGB-Dセンサ(Microsoft Kinect RGB-Dセンサなど)では、単眼カメラ、赤外線(IR)送信機、及びIR受信機を組み合わせて提供する。したがって、RGB-Dセンサは、シーンの詳細及びシーンの各ピクセルの推定深度を提供し得る。特に、RGB-Dセンサは、構造光(SL:Structural Light)技術又は飛行時間(TOF:Time-Of-Flight)技術の2つの深度計算技術を選択的に使用する。SL技術は、赤外線(IR)スペックルパターンを投影するためにIR送信機を使用し、次いで、IR受信機によってキャプチャされる。IRスペックルパターンは、既知の深度で予め提供される基準パターンと部分毎に比較される。RGB-Dセンサは、IRスペックルパターンと基準パターンをマッチングした後、各ピクセルにおける深度を推定する。一方、TOF技術は、LIDARと同様の原理で機能する。RGB-Dセンサは、通常、2~5ワットの範囲の消費電力、及び3~5メートルの深度範囲を有する。更に、RGB-Dセンサは、単眼カメラに起因するスケールドリフトの問題も有する。
【0017】
ステレオカメラ(Bumblebee Stereo Cameraなど)は、深度情報を計算するために、両方とも同じシーンを観察する2つのカメラ画像の視差を使用する。RGB-Dセンサとは対照的に、ステレオカメラは、受動カメラであり、それにより、スケールドリフトの問題はない。ステレオカメラは、2~15ワットの範囲の消費電力を有し、5~20メートルの深度範囲を有する。更に、ステレオカメラは、一般に、2、3ミリメートル(mm)から数センチメートル(cm)の範囲の深度精度を有する。
【0018】
移動体は、選択的に、検出デバイスと通信するための通信ハブ、及び地上で移動体を移動させるための駆動機構(モータなど)を有する。移動体は、通信ハブから未知の環境の観測値を受信し、観測値を処理して、移動体を移動させるように誘導するための駆動機構への命令を生成するための処理ユニットを更に備え得る。したがって、検出デバイス、処理ユニット、及び駆動機構は、未知の環境内で移動するために移動体を誘導するための閉ループを形成する。いくつかの実施態様では、検出デバイスは移動体に搭載され、それにより、検出デバイスが移動体とともに移動する(動的検出デバイスと呼ばれる)。動的検出デバイスは、選択的に、未知の環境から360度の可視性を検出するために、移動体のブロックされていない位置(移動体の屋根又は頂部など)にある。いくつかの実施態様では、検出デバイスは、未知の環境で静的に構成され、それにより、移動体とともに移動はしない(静的検出デバイスと呼ばれる)。静的検出デバイスは、静的検出デバイスの脇を通過する移動体に観測値を送信する。したがって、静的検出デバイスは、未知の環境が相当安定した状態にあるので、離散時間ステップにわたって観測値を取得する必要がない。その代わりに、静的検出デバイスは、未知の環境が大きく変化するときにのみ機能するように作動する。
【0019】
路上特徴量は、開放領域(公道など)に既に存在する。抽出ステップにおける第1の路上特徴量のセットは、選択的に、マーキング(白色マーキング及び黄色マーキングなど)、道路縁石、草、特別な線、スポット、道路の端、異なる道路表面の端、又はそれらの任意の組合せを含む。路上特徴量は、特に夜間及び雨天において、周囲特徴量(建物、樹木及び柱など)よりも正確であり、区別可能である。いくつかの実施態様では、検出デバイスは、夜間及び雨天時にリアルタイムで検出するために、距離ベースのセンサとしてLIDAR、及び視覚ベースのセンサとしてカメラを備える。いくつかの実施態様では、LIDARが夜間及び雨天時にカメラよりも正確な位置推定を提供し得るので、検出デバイスはLIDARのみを備える。
【0020】
検出デバイスは、収集するステップにおいて、未知の環境から第1の環境データとともにノイズを収集し得る。マッピングプロセスは、第1の環境データからノイズを除去するために、確率論的アプローチを第1の環境データに適用するステップを更に備え得る。確率論的アプローチは、最初にノイズと第1の環境データを分配し、次にノイズを異常情報として特定し、最後に第1の環境データから異常情報を除去することにより、第1の環境データ(路上特徴量及び周囲特徴量を含む)からノイズを分離する。確率論的アプローチは、選択的に、再帰的ベイズ推定(ベイズフィルタとしても知られる)を備える。再帰的ベイズ推定は、システムに関する与えられた逐次的な観測値又は測定値を、時間内に導き出すシステムの動的状態を推定するのに好適である。したがって、未知の環境が大きく変化した場合に実行されるマッピング処理に、再帰的ベイズ推定を適用することができる。
【0021】
マッピングプロセスは、選択的に、オフライン方式で行われる。マッピングプロセスは、一旦保存ステップが終了すると完了し、未知の環境が大きく変化しない限り作動しようとしない。すなわち、初期マップは、未知の環境が大きく変化しない限り、同一に保たれ、更新されないので、移動体を誘導するために適用できない。
【0022】
収集するステップは、選択的に、フレームバイフレーム方式で実行される。すなわち、第1の環境データを提示するために複数のフレームが収集される。フレームは、カメラ、LIDAR、又はカメラ及びLIDARの組合せなどの検出デバイスから得られる。
【0023】
マージするステップは、選択的に、フレームをRTK-GNSS/IMUなどの世界座標システムに位置合わせすることによって実行される。特に、各フレームは、RTK-GNSS/IMUなどの世界座標システムからの位置に関連付け得る。各フレームは、RTK-GNSS/IMUからの正確な位置に関連付けられるようになっている。マージするステップは、選択的に、RTK-GNSS/IMUナビゲーションシステムなどの世界座標システムにおいて、不正確な位置を有する下位フレームを補正するステップを更に含む。不正確な位置は、RTK-GNSS/IMUにおける下位フレームのその実際の位置からドリフトしている。すなわち、GNSSの位置が実際の位置からドリフトしている場合、正確な位置は、下位フレームに関連付けられるために利用できない。補正するステップは、選択的に、元のオーバーラップ又は正確な位置を有する他のフレーム(正常フレームとして知られる)との下位フレームのオーバーラップを参照することによって実行される。しかしながら、補正するステップは、下位フレームの正確な位置を決定するのに十分なオーバーラップを必要とする。オーバーラップがその目的のために十分でない場合、補正するステップは、多くの元のオーバーラップがある閾値未満であるときに、追加のオーバーラップを生成するために、下位フレームの近くの検出デバイスから追加の正常フレームを収集するステップを備え得る。すなわち、十分なオーバーラップを生成するために、追加の正常フレームが下位フレームの近くで収集される。或いは、下位フレームは放棄され、新しい正常フレームが下位フレームのGNSSの位置に収集される。
【0024】
エッジ検出には、一般に、単一イメージ又はポイントクラウド内の特定のポイントを識別するための様々な数学的方法が適用される。特定のポイントは、不連続性を有し、すなわち、特定のポイントの各々におけるいくつかの特性(輝度など)は急激に変化する。特定のポイントは、通常、エッジとして知られる一組の線分に編成される。路上特徴量はそれぞれの隣接した環境からの示差的特性を有するので、エッジ検出は路上特徴量を認識するために使用され得る。エッジ検出は、選択的に、路上特徴量を抽出するためのブロブ検出を備える。ブロブは、特性が実質的に一定又はほぼ一定である領域として定義される。このように、特性は、単一イメージ又はポイントクラウド上の各ポイントの機能として表される。エッジ検出は、微分法若しくは関数に対する極値に基づく方法又は深層学習によって実行され得る。微分法は、位置に関する関数の導関数に基づき、一方、極値に基づく方法は、関数の極大値及び極小値を見つけることを目標とする。ブロブ検出は、選択的に、単一イメージ又はポイントクラウドの畳み込みを備える。ブロブ検出は、最大応答を見つけるためのいくつかのスケールでのラプラシアン、K平均距離でのクラスタリング、及び深層学習を含む、異なる方法で実行され得る。
【0025】
マッピングアルゴリズムを以下に示す。
SMALにおけるマッピングアルゴリズムの擬似コード。
入力:カメラからのイメージ{I}及び/又はLidarからのポイントクラウド{C}
出力:マップM
アルゴリズム:
【数1】
【0026】
位置推定プロセスは、未知の環境内の移動体を、初期マップ内のその対応する位置に決定するために使用される。位置推定プロセスは、選択的に、移動体の近くの複数の第2の環境データを収集するステップと、第2の環境データから第2の路上特徴量のセットを認識するステップと、未知の環境の第2の路上特徴量のセットを初期マップ内の第1の路上特徴量のセットにマッチングさせるステップとによって実行される。次に、初期マップ内のその位置に基づいて未知の環境内で移動するように移動体を誘導する。更に、位置プロセスは、選択的に、移動後の初期マップ内の移動体の位置を更新するステップを更に備える。
【0027】
いくつかの実装態様では、第2の環境データは、動的検出デバイス及び静的検出デバイスを含む、第1の環境データを生成する検出デバイス(すなわち、既存の検出デバイス)から収集される。いくつかの実施態様では、第2の環境データが追加の検出デバイスから収集される。また、追加の検出デバイスは、距離ベースのセンサ、視覚ベースのセンサ、又はそれらの組合せを備え得る。追加の検出デバイスは、単独で機能するか、又は既存の検出デバイスと連動して機能し得る。
【0028】
マッピングプロセスとは対照的に、位置推定プロセスは、選択的に、オンライン方式で実行される。すなわち、初期マップ内の移動体の位置は、離散時間ステップにわたって未知の環境内の移動オブジェクションの位置と一致して更新される。
【0029】
未知の環境は、移動体が通過する間に移動しない静的特徴量、及び移動体の周りを能動的に移動する動的特徴量を備え得る。例えば、多くの車両が、乗客及び物品を運搬するために空港フィールドに現れ得る。別の実例としては、コンテナを持ち上げて移動するために、コンテナターミナル内で少数のフォークリフトが作業し得る。したがって、移動体は、未知の環境における動的特徴量とのいかなる衝突も回避するために誘導されるべきである。位置推定プロセスの収集するステップは、選択的に、移動体の近くの静的特徴量の第2の環境データの第1の部分を、移動体の近くの動的特徴量の第2の環境データの第2の部分から分離するステップを備える。
【0030】
位置プロセスの収集するステップは、選択的に、動的特徴量の観測値を経時的に集約することによって、移動体の近くの動的特徴量を追跡するステップを更に備える。いくつかの実装態様では、追跡ステップが、観測値からその状態を経時的に推定するためのフィルタリング法を使用して、特定の動的特徴量を追跡するステップを備える。いくつかの実装態様では、追跡ステップが、観測値をそれらそれぞれの動的特徴量に対して識別するためのデータ結合を使用して複数の動的特徴量を追跡するステップと、観測値からその状態を経時的に推定するためのフィルタリング法を使用して各々の複数の動的特徴量を追跡するステップとを備える。
【0031】
SMALの方法は、未知の環境が第1の所定の閾値を超えて変化するときに、初期マップを第1の更新されたマップに更新するステップを更に備え得る。初期マップは、未知の環境内の移動体を誘導するために第1の更新されたマップと置き換えられる。同様に、SMALの方法は、未知の環境が第2の所定の閾値を超えて変化したときに、第1の更新されたマップを第2の更新されたマップに更新するステップを更に備え得る。第1の更新されたマップは、未知の環境内の移動体を誘導するために、第2の更新されたマップと置き換えられる。同様に、SMALの方法は、未知の環境が第3の所定の閾値及び他の後続の所定の閾値を超えて変化するときに、第2の更新されたマップ及び他の後続の更新されたマップをそれぞれ更新するステップを備えることもあり得る。
【0032】
第2の態様として、本出願は、移動体をナビゲートするための順次マッピング及び位置推定(SMAL)を使用するシステムを開示する。このシステムは、マッピング機構を使用して未知の環境の初期マップを生成する手段と、位置推定機構を使用して初期マップ内の移動体の位置を決定する手段と、制御値又は命令を作成することによって未知の環境内の移動体を誘導する手段とを備える。
【0033】
マッピング機構は、選択的に、検出デバイスから複数の第1の環境データを収集する手段と、複数の第1の環境データを融合データ(RGB-Dイメージ又はポイントクラウド)にマージする手段と、エッジ特徴量を検出するために融合データにエッジ検出を適用する手段と、融合データから第1の路上特徴量のセットを抽出する手段と、第1の路上特徴量のセットを初期マップに保存する手段とを備える。特に、マッピング機構は、オフライン方式で動作し得る。
【0034】
位置推定機構は、選択的に、移動体の近くの複数の第2の環境データを収集する手段と、第2の環境データから第2の路上特徴量のセットを認識する手段と、未知の環境の第2の路上特徴量のセットを初期マップ内の第1の路上特徴量のセットにマッチングさせる手段とを備える。特に、位置推定機構は、オンライン方式で動作し得る。更に、位置推定機構は、初期マップ内の移動体の位置を更新する手段を更に備え得る。
【0035】
このシステムは、選択的に、未知の環境が第1の所定の閾値を超えて変化したときに、初期マップを第1の更新されたマップに更新する手段を更に備える。すなわち、未知の環境の変化が第1の所定の閾値よりも小さい場合には、初期マップを更新する手段は作動しない。
【0036】
このシステムは、選択的に、未知の環境が第2の所定の閾値を超えて変化したときに、第1の更新されたマップを第2の更新されたマップに更新する手段を更に備える。すなわち、未知の環境の変化が第2の所定の閾値よりも小さい場合、第1の更新されたマップを更新する手段は作動しない。同様に、このシステムは、未知の環境が第3の所定の閾値及び他の後続の所定の閾値を超えて変化したときに、第2の更新されたマップ及び他の後続の更新されたマップを更新する手段をそれぞれ備えることもあり得る。
【0037】
第3の態様として、本出願は、移動体をナビゲートするための順次マッピング及び位置推定(SMAL)の方法を実装するために、コンピュータプログラム命令及びそれに組み入れられたデータを有する非一時的なコンピュータ可読記憶媒体を備えるコンピュータプログラム製品を開示する。SMALの方法は、マッピングプロセスにおいて未知の環境の初期マップを生成するステップと、位置推定プロセスにおいて初期マップ内の移動体の位置を決定するステップと、未知の環境内の移動体を誘導するステップとを備える。
【0038】
マッピングプロセスは、選択的に、検出デバイスから複数の第1の環境データを収集するステップと、複数の第1の環境データを融合データ(RGB-Dイメージ又はポイントクラウド)にマージするステップと、エッジ特徴量を検出するための融合データにエッジ検出を適用するステップと、融合データから第1の路上特徴量のセットを抽出するステップと、第1の路上特徴量のセットを初期マップに保存するステップとによって実行される。特に、マッピングプロセスは、オフライン方式で動作する。
【0039】
位置推定プロセスは、選択的に、移動体の近くの複数の第2の環境データを収集するステップと、第2の環境データから第2の路上特徴量のセットを認識するステップと、未知の環境の第2の路上特徴量のセットを初期マップ内の第1の路上特徴量のセットにマッチングさせるステップとによって実行される。特に、位置推定機構は、オンライン方式で動作する。更に、位置推定プロセスは、初期マップ内の移動体の位置を更新するステップを更に備え得る。
【0040】
位置推定アルゴリズムを以下に示す。
SMALにおける位置推定アルゴリズムの擬似コード。
入力:マップM、カメラからのイメージIのフレーム、及び/又はLidarからのポイントクラウドC
出力:ポーズ(位置p及び方向o)
メモリ:ポイントP={}
アルゴリズム:
【数2】
【0041】
SMALの方法は、未知の環境が第1の所定の閾値を超えて変化するときに、初期マップを第1の更新されたマップに更新するステップを更に備え得る。SMALの方法は、未知の環境が第2の所定の閾値を超えて変化したときに、第1の更新されたマップを第2の更新されたマップに更新するステップを更に備え得る。同様に、SMALの方法は、未知の環境が第3の所定の閾値及び他の後続の所定の閾値を超えて変化するときに、第2の更新されたマップ及び他の後続の更新されたマップをそれぞれ更新するステップを備えることもあり得る。
【0042】
添付の図面(図)は実施例を示し、開示された実施例の原理を説明するのに役立つ。しかしながら、これらの図面は説明のみを目的として提示されており、関連する出願の限定を定義するためではないことを理解されたい。
【図面の簡単な説明】
【0043】
図1】自己位置推定と環境地図作成の同時実行(SLAM)ナビゲーションの概略図である。
図2】順次マッピング及び位置推定(SMAL)ナビゲーションの概略図である。
図3】SMALナビゲーションのマッピングプロセスを示す図である。
図4】SMALナビゲーションの位置推定プロセスを示す図である。
【発明を実施するための形態】
【0044】
図1は、自己位置推定と環境地図作成の同時実行(SLAM)ナビゲーション100の概略図を示す。SLAMナビゲーション100は、未知の環境104内の自律車両102を出発地点112から目的地点113までナビゲートするために使用される。SLAMナビゲーション100が地図106内の自律車両102の位置108を同時に追跡し続けるために、未知の環境104の地図106は離散時間ステップ(t)にわたって構成され、更新される。
【0045】
第1のステップ110では、自律車両102は出発地点112にあり、出発地112の周囲で第1のセンサ観測値oが得られる。第1のセンサ観測値oは、出発地点112の周囲の第1のマップmを構成するために自律車両102に送信される。自律車両102の位置108は、第1のマップmでは第1の位置xとして計算される。次いで、自律車両102は、第1のマップm内の第1の位置xに従って、未知の環境104内の出発地点112から自律車両102を移動させる第1の制御値uを生成する。第1のマップm及びその中の第1の位置xは、第1のステップ110において同時に更新されることが明確に示されている。
【0046】
自律車両102は、第1の離散時間ステップ114の後に、出発地点112から第2の地点122に移動する。第2のステップ120では、自律車両102は第2の地点122にあり、第2の地点122の周囲の第2のセンサ観測値oが得られる。第2のセンサ観測値oは、第1のマップmを第2の地点122の周囲の第2のマップmに更新するために、自律車両102に送信される。第2のマップm内の自律車両102の位置108は、それに応じて第2の位置xとして更新される。次いで、自律車両102は、第2のマップm内の第2の位置xに従って、未知の環境104内の第2の地点122から自律車両102を移動させる第2の制御値uを生成する。第2のステップ120では、第2のマップm及び第2の位置xが同時に更新される。
【0047】
自律車両102は、第2の離散時間ステップ124の後に、第2の地点122から次の地点に移動する。このステップバイステップ方式では、自律車両102は、未知の環境104内で連続的に移動する。一方、位置108も、それに応じてマップ106内で更新される。第2の最終ステップ130では、第2の最後のセンサ観測値ot-1が第2の最後の地点132の周囲で得られる。第2の最後の地点132の周囲の第2の最後のマップmt-1が更新される。第2の最後のマップmt-1内の自律車両102の位置108は、それに応じて第2の最後の位置xt-1として更新される。次いで、自律車両102は最後のマップmt-1内の第2の最後の位置xt-1に従って、自律車両102を第2の最後の地点132から移動させるために、第2の最後の制御値ut-1を生成する。第2の最後のマップmt-1及び第2の位置xt-1は、第2の最後のステップ130で同時に更新される。
【0048】
最終ステップ140では、最後のセンサ観測値oが、未知の環境104から、第2の最後の離散時間ステップ134の後に得られる。最後のセンサ観測値oは、第2の最後のマップmt-1を最後のマップmに更新するために自律車両102に送信される。最後のマップm内の自律車両102の位置108は、それに応じて最後の位置xとして更新される。次いで、自律車両102は、最後のマップm内の最後の位置xに応じて、目的地点113に自律車両102を停止させるために、最後の制御値uを生成する。したがって、最後のマップm及びその中の最後の位置xは、最終ステップ140で同時に更新される。
【0049】
図2は、順次マッピング及び位置推定(SMAL)ナビゲーション200の概略図を示す。SMALナビゲーション200は、未知の環境204内の自律車両202をナビゲートするためにも使用される。未知の環境204のマップ206は、マップ206内の自律車両202の位置208の追跡を同時に維持するために、SMALナビゲーション200のために構成され、更新される。
【0050】
SMALナビゲーション200は、初期ステージ210、位置推定ステージ220、及びマッピングステージ230の3つのステージに分けられる。初期ステージ210では、未知の環境204から初期センサの観測値oが得られ、未知の環境204の初期マップmを生成する(212)ために自律車両202に送信される。自律車両202の位置208は、初期マップm内の初期位置xとして計算される。次いで、自律車両202は、初期マップm内の初期位置xに従って、未知の環境104内で自律車両202を移動させる初期制御値uを生成する。
【0051】
位置推定ステージ220では、第1のセンサ観測値oが、未知の環境204内の第1の地点222の周囲で取得される。自律車両102の位置108は、それに応じて第1の位置xとして、初期マップmで計算される。次いで、自律車両102は、初期マップmで第1の位置xに従って、未知の環境204内で自律車両202を移動させる第1の制御値uを生成する。SLAMナビゲーション100とは対照的に、第1のセンサ観測値oは、初期マップmを更新するために使用される。
【0052】
自律車両202は、第1の地点222からその後の地点へ続く離散時間の間ずっと、最後の地点224まで初期マップmを更新することなく移動する。最後のセンサ観測値oは、未知の環境204内の最後の地点224の周囲で得られる。同様に、最後のセンサ観測値oは、初期マップmを更新するためには使用されない。未知の環境204内の自律車両202の位置208は、初期マップm内の最終位置xとして更新される。次いで、自律車両202は、初期マップm内の最後の位置xに従って、次の地点に対する最後の地点224の周囲に自律車両202を移動させるための最後の制御値uを生成する。
【0053】
マッピングステージ230では、未知の環境104が第1の所定の閾値を大きく超えて変化するので、初期マップmには適用できない。更新されたセンサ観測値oiiは未知の環境204から得られ、初期マップmを未知の環境204の第1の更新されたマップmiiに更新する(232)ために、自律車両202に送信される。次いで、自律車両102を誘導するために、位置推定ステージ220が繰り返され(234)、第1の更新された地図mを用いて未知の環境104内を移動する。同様に、未知の環境104が第2の所定の閾値及びその後の所定の閾値を大きく超えて変化するときに、更新されたマップmiiは、それぞれ、第2の更新されたマップ及びその後の更新されたマップに更新される。
【0054】
図3は、SMALナビゲーション200のマッピングプロセス300を示す。マッピングプロセス300は、検出デバイスから複数の第1の環境データを収集する第1のステップと、複数の第1の環境データを融合データ(RGB-Dイメージ又はポイントクラウド)にマージする第2のステップ304と、エッジ特徴量を検出するための融合データにエッジ検出を適用する第3のステップ306と、融合データから第1の路上特徴量のセットを抽出する第4のステップ308と、第1の路上特徴量のセットを初期マップに保存する第5のステップ310とによって実行される。SMALナビゲーション200の場合、マッピングプロセス300は、初期マップ212を生成するための初期ステージ210、及び初期マップmを第1の更新されたマップmiiに更新する(232)ためのマッピングステージに適用できる。同様に、マッピングプロセス300は、未知の環境が大きく変化するときに、第1の更新されたマップ、第2の更新されたマップ、及びその後の更新されたマップを更新するために適用することもできる。
【0055】
第1のステップ302では、第1の環境データが、LIDAR、カメラ、又はLIDAR及びカメラの組合せのいずれかから検出デバイスとしてフレームバイフレームで収集される。第2のステップ304では、フレームが位置合わせされ、単一のフレームにマージされる。マージ中には、リアルタイムキネマティック(RTK)、米国の全地球測位システム(GPS)、中国の北斗、欧州のガリレオ及びロシアのGLONASSを含む全球測位衛星システム(GNSS)、並びに慣性計測装置(IMU)ナビゲーションシステム(RTK-GNSS/IMUナビゲーションシステムと略す)も関与する。各フレームは、RTK-GNSS/IMUナビゲーションシステム(正常フレームとして知られる)からのその正確な位置に関連付けられる。フレームのGNSSの位置がドリフトしている(下位フレームとして知られる)場合、下位フレームは正確な位置を有さない。この場合、下位フレーム及び正常フレームのオーバーラップから、下位フレームの正確な位置が決定される。オーバーラップが見つからないか、又は十分なオーバーラップが見つからない場合、下位フレームは放棄され、下位フレームを置き換えるために下位フレームの近くに新しいフレームを取得する。第3のステップ306では、エッジ検出アルゴリズムを単一フレームに適用して、エッジ特徴量を検出する。第4のステップ308では、エッジ特徴量にブロブ検出アルゴリズムを適用して、エッジ特徴量から路上特徴量を抽出する。第5のステップ310では、路上特徴量が、初期マップm、第1の更新されたマップmii、第2の更新されたマップ及びその後の更新されたマップに組み込まれる。
【0056】
図4は、SMALナビゲーション200の位置推定プロセス400を示す。位置推定プロセス400は、移動体の近くの複数の第2の環境データを収集する第1のステップ402と、第2の環境データから第2の路上特徴量のセットを認識する第2のステップ404と、未知の環境の第2の路上特徴量のセットを初期マップ内の第1の路上特徴量のセットにマッチングさせる第3のステップ406と、初期マップm、第1の更新されたマップmii、第2の更新されたマップ、及びその後の更新されたマップを含む、マップ106内の自律車両102の位置108を更新する第4のステップとによって実行される。位置推定ステージ220及びマッピングステージ230を繰り返すことによって、自律車両102は、SMALナビゲーション200によって未知の環境104内を移動するように誘導される。
【0057】
本出願では、別段の指定がない限り、用語「備えている」、「備える」、及びその文法的変形は列挙された要素を含むが、追加の非明示的に列挙された要素の包含も可能にするように、「開放的」又は「包括的」言語を表すことを意図する。
【0058】
本明細書で使用される場合、用語「約」は、配合物の成分の濃度の文脈においては、代表的には記載された値の+/-5%、より代表的には記載された値の+/-4%、より代表的には記載された値の+/-3%、より代表的には記載された値の+/-2%、更により代表的には記載された値の+/-1%、及び更により代表的には記載された値の+/-0.5%を意味する。
【0059】
本開示を通じて、特定の実施例は範囲形式で開示され得る。範囲形式での記載は、単に便宜及び簡潔さのためであり、開示された範囲の有効範囲について不可変の限定として解釈されるべきではない。したがって、範囲の記載は、すべての可能な副次的範囲並びにその範囲内の個々の数値を具体的に開示したものとみなされるべきである。例えば、1~6のような範囲の記載は、1~3、1~4、1~5、2~4、2~6、3~6などの副次的範囲、並びにその範囲内の個々の数値、例えば、1、2、3、4、5、及び6を具体的に開示したものとみなされるべきである。これは、範囲の幅に関係なく適用される。
【0060】
本出願の趣旨及び範囲から逸脱することなく、前述の開示を読んだ後、本出願の様々な他の変更及び適合が当業者には明らかであり、すべてのそのような変更及び適合が添付の特許請求の範囲内に入ることが意図されることが明らかであろう。
【符号の説明】
【0061】
100 自己位置推定と環境地図作成の同時実行(SLAM)ナビゲーション
102 自律車両
104 未知の環境
106 マップ
108 位置
110 第1のステップ
112 出発地点
113 目的地点
114 第1の離散時間ステップ
120 第2のステップ
122 第2の地点
124 第2の離散時間ステップ
130 第2の最終ステップ
132 第2の最後の地点
134 第2の最後の離散時間ステップ
140 最終ステップ
200 順次マッピング及び位置推定(SMAL)ナビゲーション
202 自律車両
204 未知の環境
206 マップ
208 位置
210 初期ステージ
212 初期マップの生成
220 位置推定ステージ
222 第1の地点
224 最後の地点
230 マッピングステージ
232 初期マップの更新
234 位置推定ステージ220の繰り返し
300 マッピングプロセス
302 第1のステップ
304 第2のステップ
306 第3のステップ
308 第4のステップ
310 第5のステップ
400 位置推定プロセス
402 第1のステップ
404 第2のステップ
406 第3のステップ
408 第4のステップ
第1のセンサ観測値
第1のマップ
. 第1の位置
第1の制御値
第2のセンサ観測値
第2のマップ
. 第2の位置
第2の制御値
t-1 第2の最後のセンサ観測値
t-1 第2の最後のマップ
t-1. 第2の最後の位置
t-1 第2の最後の制御値
最後のセンサ観測値
最後のマップ
. 最後の位置
最後の制御値
初期のセンサ観測値
初期マップ
ii 更新されたセンサ観測値
ii 第1の更新されたマップ
図1
図2
図3
図4
【手続補正書】
【提出日】2021-01-27
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【発明の詳細な説明】
【技術分野】
【0001】
本願は、2019年12月30日にIPOS(Intellectual Property Office of Singapore)に出願された、シンガポール特許出願第10201913873Q号の出願日を優先日として主張するものであり、「Sequential Mapping And Localization(SMAL)for Navigation」と同じ表題のものである。先の優先特許出願のすべての関連する内容及び/又は主題は、適切な場合はいつでも参照により本明細書に組み込まれる。
【0002】
本出願は、移動体をナビゲートするようなナビゲーション用の順次マッピング及び位置推定(SMAL:Sequential Mapping And Localization)の方法に関する。また、本出願は、ナビゲーション用の順次マッピング及び位置推定(SMAL)を使用するシステム、並びにナビゲーション用の順次マッピング及び位置推定(SMAL)の方法を実装するためのコンピュータプログラム製品を開示する。
【背景技術】
【0003】
移動体のナビゲートを始めとするナビゲーションは、マッピングプロセス及び位置推定プロセスを含む。位置推定は、移動体(自律車両又はロボットなど)にとって主要な機能である。移動体は、移動体自体を目的地にナビゲートし、そのタスクを完了する前に、移動体の位置及び方向を知る必要がある。従来、リアルタイムキネマティック(RTK:Real-Time Kinematic)、米国の全地球測位システム(GPS:Global Positioning System)、中国の北斗(Beidou)、欧州のガリレオ(Galileo)及びロシアのGLONASSを含む全球測位衛星システム(GNSS:Global Navigation Satellite System)、並びに慣性計測装置(IMU:Inertial Measurement Unit)のナビゲーションシステム(RTK‐GNSS/IMUナビゲーションシステムと略す)が、移動体のナビゲーションに使用される。また、高解像度マップ(HDマップ)も位置推定のために提供される。HDマップは、予め収集される。近年、移動体(自律車両又はロボットなど)の位置推定機能に、地図内の移動体の位置の経過を追いながら同時に、未知の環境の地図を構成又は更新することによる、自己位置推定と環境地図作成の同時実行(SLAM)ソリューションが使用される。SLAMソリューションは、建物、樹木、公道の柱、又は屋内環境の壁、テーブル、椅子など、その環境内で十分に固定された周囲特徴量がある場合にうまく機能する。
【0004】
しかしながら、GNSSの衛星信号がガントリークレーン又はコンテナターミナル内の積み重ねられたコンテナによって容易に遮断されるときには、GNSSの結果が大きくドリフトすることが多いので、コンテナターミナルのようないくつかの特定の領域ではRTK-GNSS/IMUナビゲーションシステムはうまく機能しない。HDマップには、位置推定のための構造体、経路計画のためのマーキング形成を伴うレーン接続部、及びきれいなグラフィカルユーザーインターフェース(GUI:Graphical User Interface)のための詳細なマーキング位置など、複数の目標がある。そのため、HDマップは、独立して生成され、依然として、建物、樹木、柱及びその他のものなど、HDマップ内の構造体に基づいている。
【0005】
一方、SLAMソリューションは、コンテナターミナル及び空港フィールドのような開放環境では、固定された周囲物体がほとんど存在しない場合も、満足のいく程度にパフォーマンスを発揮しない。例えば、コンテナターミナルには多くのコンテナが存在するが、それらは固定されておらず、それらの位置は大きく変化し、SLAMソリューションの位置推定結果に悪影響を及ぼす。コンテナターミナルでは、自律車両はまだ配備されていないが、無線自動識別(RFID:Radio-Frequency Identification)タグ又は超広帯域(UWB:Ultra-wideband)ステーションのように、大規模なビーコンを環境内に配備する必要がある無人搬送車(AGV:Automated Guided Vehicle)のみが配備されている。
【0006】
本出願に関連する背景技術として、OCEANS 2010, IEEE (XP031832816, ISBN: 978-1-4244-4332-1)の1~7頁にて出版された非特許文献「The HUGIN real-time terrain navigation system」を含む。インサイチュ(in situ)での順次マッピング及び位置推定の技術が採用され、それは、マッピング及び位置推定が分離された状態として考慮される点でSLAMとは異なる。また、背景技術として、OCEANS 2015, MTS/IEEE (XP032861839)の1~5頁にて出版された非特許文献「Improving autonomous navigation and positioning for commercial AUV operations」を含む。同様に、インサイチュ(in situ)での順次マッピング及び位置推定の技術が採用されて、既存のDTMなしでテライン・ナビゲーション(terrain navigation)を実行する能力を提供する。特に、DTMはSLAMがそうであるように同時に推定しない。背景技術として、さらに欧州特許出願第18200475.4号(欧州特許第3451097号として公開された)を含み、ある環境におけるロボットデバイスの動的なマッピング動作のための方法及びシステムが、ロボットデバイスの動的に維持されたマップに基づいて提供される。
【先行技術文献】
【特許文献】
【0007】
【特許文献1】欧州特許第3451097号
【非特許文献】
【0008】
【非特許文献1】The HUGIN real-time terrain navigation system,OCEANS 2010, IEEE (XP031832816, ISBN: 978-1-4244-4332-1),p.1~7
【非特許文献2】Improving autonomous navigation and positioning for commercial AUV operations,OCEANS 2015, MTS/IEEE (XP032861839),p.1-5
【発明の概要】
【課題を解決するための手段】
【0009】
したがって、本出願は、開放環境(空港フィールド及びコンテナターミナルなど)における移動体(自律車両又はロボットなど)の位置推定問題を解決するための順次マッピング及び位置推定(SMAL)の方法を開示する。SMALの方法では、マッピング及び位置推定のために、1つ又は複数の既存の自然のままの路上特徴量を連続的に使用する。
【0010】
第1の態様として、本出願は、移動体をナビゲートするための順次マッピング及び位置推定(SMAL)の方法(すなわち、SMALの方法)を開示する。SMALの方法は、マッピングプロセスにおいて未知の環境の初期マップを生成するステップと、位置推定プロセスにおいて初期マップ内の移動体の位置を決定するステップと、例えば、移動体に対する制御値又は命令を作成することによって、未知の環境内の移動体を誘導するステップとを含む。SLAMソリューションとは対照的に、SMALの方法は、生成ステップにおけるマッピングプロセスを、計算ステップにおける位置推定プロセスから分離する。更に、未知の環境の一連の観測値は、未知の環境が移動体の近くで大きく変化しない限り、初期マップを更新するために離散時間ステップにわたって計ることはない。
【0011】
未知の環境は、選択的に、いかなるビーコンもない開放領域(空港フィールド又はコンテナターミナルなど)を含む。開放領域内の自律車両(RFIDタグ又はUWBステーションなど)のための現在の技術とは対照的に、SMALの方法は、未知の環境を検出し、移動体に信号を送信するためのビーコンを構築又は確立する必要がない。更に、SMALの方法は、ビーコンが未知の環境で構築される場合、現在の技術と併用して採用され得る。その上、SMALの方法は、市街地のような開放領域以外の未知の環境において、RTK-GNSS/IMUナビゲーションシステム、高解像度マップ(HDマップ)、及び/又はSLAMソリューションを含む従来の技術と連携して機能してもよい。
【0012】
マッピングプロセスは、未知の環境の初期マップを構成するために使用される。SMALの方法のマッピングプロセスは、検出デバイスから複数の第1の環境データを収集するステップと、複数の第1の環境データを融合データ(RGB-DDイメージ又はポイントクラウド)にマージするステップと、エッジ特徴量を検出するために融合データにエッジ検出を適用するステップと、融合データから第1の路上特徴量のセットを抽出するステップと、第1の路上特徴量のセットを初期マップに保存するステップとによって選択的に実行される。第1の環境データは、路上特徴量及び周囲特徴量を含む未知の環境の多くの特徴量を記述する。周囲特徴量(建物、樹木、及び柱など)を使用する現在の技術とは対照的に、SMALの方法は、路上特徴量が既に開放領域内で利用可能であるため、開放領域内では適応性がいっそう高くなる。
【0013】
収集するステップの検出デバイスは、選択的に、距離ベースのセンサ、視覚ベースのセンサ、又はそれらの組合せを備える。距離ベースのセンサは、特徴量が豊富でないにもかかわらず、正確な深度情報を提供する。対照的に、視覚ベースのセンサは、深度の推定値を欠く特徴量が豊富な情報を提供する。したがって、距離ベースのセンサ及び視覚ベースのセンサとの組合せは、深度の推定値と十分な特徴量の両方を有する情報を提供し得る。
【0014】
距離ベースのセンサは、光検出測距(LIDAR:Light Detection And Ranging)、音響センサ、又はそれらの組合せを備え得る。音響センサは、移動する物体から反射したエコー音信号を受信することにより移動する物体の位置を特定する音響ナビゲーション測距(SONAR:Sound Navigation And Ranging)センサとしても知られている。音響センサは、通常、0.01~1ワットの範囲の消費電力、及び2~5メートルの深度範囲を有する。音響センサは、一般に、色及び透過性には影響を受けず、したがって、暗い環境に好適である。特に、音響センサは、20kHzを超える超音波を使用する超音波センサを備え得る。超音波センサは、深度情報の精度がより高いことがあり得る。更に、音響センサは、数立方インチ以内のコンパクトな外形を有する。しかしながら、音響センサは、エコー音信号が柔軟な材料によって容易に吸収されるので、未知の環境が多くの柔軟な材料を有する場合にはうまく機能しない。音響センサの処理能力は、温度、湿度、及び圧力などの未知の環境の他の要因によっても影響され得る。音響センサの検出結果を補正するために、音響センサの処理能力に補償を加え得る。
【0015】
LIDARは、音響センサと同様の動作原理を有する。音波の代わりに、LIDARは、エコー信号として電磁波(光など)を採用している。LIDARは、1秒間に最大100万パルスを放つことで、未知の環境から360度の可視性で3次元(3D)ビジュアライゼーション(ポイントクラウドと呼ばれる)を選択的に生成する。LIDARは、通常50~200ワットの範囲の音響センサよりも高い消費電力を有し、通常50~300メートルのより深い深度範囲を有する。特に、LIDARは、深度精度がより高く、音響センサよりも高い深度精度を有し得、これらは両方とも数センチメートル(cm)以内である。更に、LIDARは、0.1~1度の範囲の正確な角度分解能を提供し得る。したがって、LIDARは、自律車両の用途として音響センサよりも好ましい。例えば、Velodyne HDL-64E LIDARは、自動運転車に好適である。しかしながら、LIDARは、かさばる外形を有しており、また低電力用途には好適ではない。
【0016】
視覚ベースのセンサは、単眼カメラ、全方位カメラ、イベントカメラ、又はそれらの組合せを備える。単眼カメラは、カラーTV及びビデオカメラ、イメージスキャナ、並びにデジタルカメラを含む、1つ又は複数の標準RGBカメラを備え得る。単眼カメラは、選択的に、単純なハードウェア(GoPro Hero-4など)、及び数立方インチの範囲のコンパクトな外形を有し、したがって、単眼カメラは、いかなる追加のハードウェアなしで、小さな移動体(携帯電話など)に取り付け得る。また、単眼カメラは、標準のRGBカメラが受動センサであるため、0.01~10ワットの範囲の消費電力を有する。しかしながら、単眼カメラは、単眼カメラが静止イメージから深度情報を直接推測することができないので、複雑なアルゴリズムと連動して機能する必要がある。更に、単眼カメラには、スケールドリフトの問題がある。
【0017】
全方位カメラは、2つの魚眼レンズを有するSamsung Gear 360、GoPro Fusion、Ricoh Theta V、Detu Twin、LGR105、及びYi Technology 360VRなど、360度の視界を有する1つ又は複数の標準のRGBカメラを備えることもあり得る。このように、全方位では、いかなる後処理もせずにリアルタイムでパノラマ写真を提供し得る。全方位カメラは、コンパクトな外形及び1~20ワットの範囲の消費電力を有する。しかしながら、全方位カメラは深度情報を提供できない。
【0018】
イベントカメラ(ダイナミック視覚センサなど)は、バイオインスパイアード視覚センサであり、標準の輝度フレームの代わりにピクセルレベルの輝度変化を出力する。したがって、イベントカメラは、高いダイナミックレンジ、モーションブラー(motion blur)がないこと、及びマイクロ秒オーダーのレイテンシなど、いくつかの利点を有する。イベントカメラは還元情報(reductant information)をキャプチャしないので、非常に電力効率が良い。イベントカメラは、通常、0.15~1ワットの範囲の消費電力を有する。しかしながら、イベントカメラは、高い時間分解能及び非同期イベントを探索する特別なアルゴリズムを必要とする。従来のアルゴリズムは、実際の強度イメージではなく一連の非同期イベントを出力するイベントカメラには好適ではない。
【0019】
或いは、検出デバイスは、選択的に、RGB-Dセンサ、ステレオカメラ、又は同様のものを備える。RGB-Dセンサ又はステレオカメラは、深度情報と豊富な特徴量情報の両方を提供できる。RGB-Dセンサ(Microsoft Kinect RGB-Dセンサなど)では、単眼カメラ、赤外線(IR)送信機、及びIR受信機を組み合わせて提供する。したがって、RGB-Dセンサは、シーンの詳細及びシーンの各ピクセルの推定深度を提供し得る。特に、RGB-Dセンサは、構造光(SL:Structural Light)技術又は飛行時間(TOF:Time-Of-Flight)技術の2つの深度計算技術を選択的に使用する。SL技術は、赤外線(IR)スペックルパターンを投影するためにIR送信機を使用し、次いで、IR受信機によってキャプチャされる。IRスペックルパターンは、既知の深度で予め提供される基準パターンと部分毎に比較される。RGB-Dセンサは、IRスペックルパターンと基準パターンをマッチングした後、各ピクセルにおける深度を推定する。一方、TOF技術は、LIDARと同様の原理で機能する。RGB-Dセンサは、通常、2~5ワットの範囲の消費電力、及び3~5メートルの深度範囲を有する。更に、RGB-Dセンサは、単眼カメラに起因するスケールドリフトの問題も有する。
【0020】
ステレオカメラ(Bumblebee Stereo Cameraなど)は、深度情報を計算するために、両方とも同じシーンを観察する2つのカメラ画像の視差を使用する。RGB-Dセンサとは対照的に、ステレオカメラは、受動カメラであり、それにより、スケールドリフトの問題はない。ステレオカメラは、2~15ワットの範囲の消費電力を有し、5~20メートルの深度範囲を有する。更に、ステレオカメラは、一般に、2、3ミリメートル(mm)から数センチメートル(cm)の範囲の深度精度を有する。
【0021】
移動体は、選択的に、検出デバイスと通信するための通信ハブ、及び地上で移動体を移動させるための駆動機構(モータなど)を有する。移動体は、通信ハブから未知の環境の観測値を受信し、観測値を処理して、移動体を移動させるように誘導するための駆動機構への命令を生成するための処理ユニットを更に備え得る。したがって、検出デバイス、処理ユニット、及び駆動機構は、未知の環境内で移動するために移動体を誘導するための閉ループを形成する。いくつかの実施態様では、検出デバイスは移動体に搭載され、それにより、検出デバイスが移動体とともに移動する(動的検出デバイスと呼ばれる)。動的検出デバイスは、選択的に、未知の環境から360度の可視性を検出するために、移動体のブロックされていない位置(移動体の屋根又は頂部など)にある。いくつかの実施態様では、検出デバイスは、未知の環境で静的に構成され、それにより、移動体とともに移動はしない(静的検出デバイスと呼ばれる)。静的検出デバイスは、静的検出デバイスの脇を通過する移動体に観測値を送信する。したがって、静的検出デバイスは、未知の環境が相当安定した状態にあるので、離散時間ステップにわたって観測値を取得する必要がない。その代わりに、静的検出デバイスは、未知の環境が大きく変化するときにのみ機能するように作動する。
【0022】
路上特徴量は、開放領域(公道など)に既に存在する。抽出ステップにおける第1の路上特徴量のセットは、選択的に、マーキング(白色マーキング及び黄色マーキングなど)、道路縁石、草、特別な線、スポット、道路の端、異なる道路表面の端、又はそれらの任意の組合せを含む。路上特徴量は、特に夜間及び雨天において、周囲特徴量(建物、樹木及び柱など)よりも正確であり、区別可能である。いくつかの実施態様では、検出デバイスは、夜間及び雨天時にリアルタイムで検出するために、距離ベースのセンサとしてLIDAR、及び視覚ベースのセンサとしてカメラを備える。いくつかの実施態様では、LIDARが夜間及び雨天時にカメラよりも正確な位置推定を提供し得るので、検出デバイスはLIDARのみを備える。
【0023】
検出デバイスは、収集するステップにおいて、未知の環境から第1の環境データとともにノイズを収集し得る。マッピングプロセスは、第1の環境データからノイズを除去するために、確率論的アプローチを第1の環境データに適用するステップを更に備え得る。確率論的アプローチは、最初にノイズと第1の環境データを分配し、次にノイズを異常情報として特定し、最後に第1の環境データから異常情報を除去することにより、第1の環境データ(路上特徴量及び周囲特徴量を含む)からノイズを分離する。確率論的アプローチは、選択的に、再帰的ベイズ推定(ベイズフィルタとしても知られる)を備える。再帰的ベイズ推定は、システムに関する与えられた逐次的な観測値又は測定値を、時間内に導き出すシステムの動的状態を推定するのに好適である。したがって、未知の環境が大きく変化した場合に実行されるマッピング処理に、再帰的ベイズ推定を適用することができる。
【0024】
マッピングプロセスは、選択的に、オフライン方式で行われる。マッピングプロセスは、一旦保存ステップが終了すると完了し、未知の環境が大きく変化しない限り作動しようとしない。すなわち、初期マップは、未知の環境が大きく変化しない限り、同一に保たれ、更新されないので、移動体を誘導するために適用できない。
【0025】
収集するステップは、選択的に、フレームバイフレーム方式で実行される。すなわち、第1の環境データを提示するために複数のフレームが収集される。フレームは、カメラ、LIDAR、又はカメラ及びLIDARの組合せなどの検出デバイスから得られる。
【0026】
マージするステップは、選択的に、フレームをRTK-GNSS/IMUなどの世界座標システムに位置合わせすることによって実行される。特に、各フレームは、RTK-GNSS/IMUなどの世界座標システムからの位置に関連付け得る。各フレームは、RTK-GNSS/IMUからの正確な位置に関連付けられるようになっている。マージするステップは、選択的に、RTK-GNSS/IMUナビゲーションシステムなどの世界座標システムにおいて、不正確な位置を有する下位フレームを補正するステップを更に含む。不正確な位置は、RTK-GNSS/IMUにおける下位フレームのその実際の位置からドリフトしている。すなわち、GNSSの位置が実際の位置からドリフトしている場合、正確な位置は、下位フレームに関連付けられるために利用できない。補正するステップは、選択的に、元のオーバーラップ又は正確な位置を有する他のフレーム(正常フレームとして知られる)との下位フレームのオーバーラップを参照することによって実行される。しかしながら、補正するステップは、下位フレームの正確な位置を決定するのに十分なオーバーラップを必要とする。オーバーラップがその目的のために十分でない場合、補正するステップは、多くの元のオーバーラップがある閾値未満であるときに、追加のオーバーラップを生成するために、下位フレームの近くの検出デバイスから追加の正常フレームを収集するステップを備え得る。すなわち、十分なオーバーラップを生成するために、追加の正常フレームが下位フレームの近くで収集される。或いは、下位フレームは放棄され、新しい正常フレームが下位フレームのGNSSの位置に収集される。
【0027】
エッジ検出には、一般に、単一イメージ又はポイントクラウド内の特定のポイントを識別するための様々な数学的方法が適用される。特定のポイントは、不連続性を有し、すなわち、特定のポイントの各々におけるいくつかの特性(輝度など)は急激に変化する。特定のポイントは、通常、エッジとして知られる一組の線分に編成される。路上特徴量はそれぞれの隣接した環境からの示差的特性を有するので、エッジ検出は路上特徴量を認識するために使用され得る。エッジ検出は、選択的に、路上特徴量を抽出するためのブロブ検出を備える。ブロブは、特性が実質的に一定又はほぼ一定である領域として定義される。このように、特性は、単一イメージ又はポイントクラウド上の各ポイントの機能として表される。エッジ検出は、微分法若しくは関数に対する極値に基づく方法又は深層学習によって実行され得る。微分法は、位置に関する関数の導関数に基づき、一方、極値に基づく方法は、関数の極大値及び極小値を見つけることを目標とする。ブロブ検出は、選択的に、単一イメージ又はポイントクラウドの畳み込みを備える。ブロブ検出は、最大応答を見つけるためのいくつかのスケールでのラプラシアン、K平均距離でのクラスタリング、及び深層学習を含む、異なる方法で実行され得る。
【0028】
マッピングアルゴリズムを以下に示す。
SMALにおけるマッピングアルゴリズムの擬似コード。
入力:カメラからのイメージ{I}及び/又はLidarからのポイントクラウド{C}
出力:マップM
アルゴリズム:
【数1】
【0029】
位置推定プロセスは、未知の環境内の移動体を、初期マップ内のその対応する位置に決定するために使用される。位置推定プロセスは、選択的に、移動体の近くの複数の第2の環境データを収集するステップと、第2の環境データから第2の路上特徴量のセットを認識するステップと、未知の環境の第2の路上特徴量のセットを初期マップ内の第1の路上特徴量のセットにマッチングさせるステップとによって実行される。次に、初期マップ内のその位置に基づいて未知の環境内で移動するように移動体を誘導する。更に、位置プロセスは、選択的に、移動後の初期マップ内の移動体の位置を更新するステップを更に備える。
【0030】
いくつかの実装態様では、第2の環境データは、動的検出デバイス及び静的検出デバイスを含む、第1の環境データを生成する検出デバイス(すなわち、既存の検出デバイス)から収集される。いくつかの実施態様では、第2の環境データが追加の検出デバイスから収集される。また、追加の検出デバイスは、距離ベースのセンサ、視覚ベースのセンサ、又はそれらの組合せを備え得る。追加の検出デバイスは、単独で機能するか、又は既存の検出デバイスと連動して機能し得る。
【0031】
マッピングプロセスとは対照的に、位置推定プロセスは、選択的に、オンライン方式で実行される。すなわち、初期マップ内の移動体の位置は、離散時間ステップにわたって未知の環境内の移動オブジェクションの位置と一致して更新される。
【0032】
未知の環境は、移動体が通過する間に移動しない静的特徴量、及び移動体の周りを能動的に移動する動的特徴量を備え得る。例えば、多くの車両が、乗客及び物品を運搬するために空港フィールドに現れ得る。別の実例としては、コンテナを持ち上げて移動するために、コンテナターミナル内で少数のフォークリフトが作業し得る。したがって、移動体は、未知の環境における動的特徴量とのいかなる衝突も回避するために誘導されるべきである。位置推定プロセスの収集するステップは、選択的に、移動体の近くの静的特徴量の第2の環境データの第1の部分を、移動体の近くの動的特徴量の第2の環境データの第2の部分から分離するステップを備える。
【0033】
位置プロセスの収集するステップは、選択的に、動的特徴量の観測値を経時的に集約することによって、移動体の近くの動的特徴量を追跡するステップを更に備える。いくつかの実装態様では、追跡ステップが、観測値からその状態を経時的に推定するためのフィルタリング法を使用して、特定の動的特徴量を追跡するステップを備える。いくつかの実装態様では、追跡ステップが、観測値をそれらそれぞれの動的特徴量に対して識別するためのデータ結合を使用して複数の動的特徴量を追跡するステップと、観測値からその状態を経時的に推定するためのフィルタリング法を使用して各々の複数の動的特徴量を追跡するステップとを備える。
【0034】
SMALの方法は、未知の環境が第1の所定の閾値を超えて変化するときに、初期マップを第1の更新されたマップに更新するステップを更に備え得る。初期マップは、未知の環境内の移動体を誘導するために第1の更新されたマップと置き換えられる。同様に、SMALの方法は、未知の環境が第2の所定の閾値を超えて変化したときに、第1の更新されたマップを第2の更新されたマップに更新するステップを更に備え得る。第1の更新されたマップは、未知の環境内の移動体を誘導するために、第2の更新されたマップと置き換えられる。同様に、SMALの方法は、未知の環境が第3の所定の閾値及び他の後続の所定の閾値を超えて変化するときに、第2の更新されたマップ及び他の後続の更新されたマップをそれぞれ更新するステップを備えることもあり得る。
【0035】
第2の態様として、本出願は、移動体をナビゲートするための順次マッピング及び位置推定(SMAL)を使用するシステムを開示する。このシステムは、マッピング機構を使用して未知の環境の初期マップを生成する手段と、位置推定機構を使用して初期マップ内の移動体の位置を決定する手段と、制御値又は命令を作成することによって未知の環境内の移動体を誘導する手段とを備える。
【0036】
マッピング機構は、選択的に、検出デバイスから複数の第1の環境データを収集する手段と、複数の第1の環境データを融合データ(RGB-Dイメージ又はポイントクラウド)にマージする手段と、エッジ特徴量を検出するために融合データにエッジ検出を適用する手段と、融合データから第1の路上特徴量のセットを抽出する手段と、第1の路上特徴量のセットを初期マップに保存する手段とを備える。特に、マッピング機構は、オフライン方式で動作し得る。
【0037】
位置推定機構は、選択的に、移動体の近くの複数の第2の環境データを収集する手段と、第2の環境データから第2の路上特徴量のセットを認識する手段と、未知の環境の第2の路上特徴量のセットを初期マップ内の第1の路上特徴量のセットにマッチングさせる手段とを備える。特に、位置推定機構は、オンライン方式で動作し得る。更に、位置推定機構は、初期マップ内の移動体の位置を更新する手段を更に備え得る。
【0038】
このシステムは、選択的に、未知の環境が第1の所定の閾値を超えて変化したときに、初期マップを第1の更新されたマップに更新する手段を更に備える。すなわち、未知の環境の変化が第1の所定の閾値よりも小さい場合には、初期マップを更新する手段は作動しない。
【0039】
このシステムは、選択的に、未知の環境が第2の所定の閾値を超えて変化したときに、第1の更新されたマップを第2の更新されたマップに更新する手段を更に備える。すなわち、未知の環境の変化が第2の所定の閾値よりも小さい場合、第1の更新されたマップを更新する手段は作動しない。同様に、このシステムは、未知の環境が第3の所定の閾値及び他の後続の所定の閾値を超えて変化したときに、第2の更新されたマップ及び他の後続の更新されたマップを更新する手段をそれぞれ備えることもあり得る。
【0040】
第3の態様として、本出願は、移動体をナビゲートするための順次マッピング及び位置推定(SMAL)の方法を実装するために、コンピュータプログラム命令及びそれに組み入れられたデータを有する非一時的なコンピュータ可読記憶媒体を備えるコンピュータプログラム製品を開示する。SMALの方法は、マッピングプロセスにおいて未知の環境の初期マップを生成するステップと、位置推定プロセスにおいて初期マップ内の移動体の位置を決定するステップと、未知の環境内の移動体を誘導するステップとを備える。
【0041】
マッピングプロセスは、選択的に、検出デバイスから複数の第1の環境データを収集するステップと、複数の第1の環境データを融合データ(RGB-Dイメージ又はポイントクラウド)にマージするステップと、エッジ特徴量を検出するための融合データにエッジ検出を適用するステップと、融合データから第1の路上特徴量のセットを抽出するステップと、第1の路上特徴量のセットを初期マップに保存するステップとによって実行される。特に、マッピングプロセスは、オフライン方式で動作する。
【0042】
位置推定プロセスは、選択的に、移動体の近くの複数の第2の環境データを収集するステップと、第2の環境データから第2の路上特徴量のセットを認識するステップと、未知の環境の第2の路上特徴量のセットを初期マップ内の第1の路上特徴量のセットにマッチングさせるステップとによって実行される。特に、位置推定機構は、オンライン方式で動作する。更に、位置推定プロセスは、初期マップ内の移動体の位置を更新するステップを更に備え得る。
【0043】
位置推定アルゴリズムを以下に示す。
SMALにおける位置推定アルゴリズムの擬似コード。
入力:マップM、カメラからのイメージIのフレーム、及び/又はLidarからのポイントクラウドC
出力:ポーズ(位置p及び方向o)
メモリ:ポイントP={}
アルゴリズム:
【数2】
【0044】
SMALの方法は、未知の環境が第1の所定の閾値を超えて変化するときに、初期マップを第1の更新されたマップに更新するステップを更に備え得る。SMALの方法は、未知の環境が第2の所定の閾値を超えて変化したときに、第1の更新されたマップを第2の更新されたマップに更新するステップを更に備え得る。同様に、SMALの方法は、未知の環境が第3の所定の閾値及び他の後続の所定の閾値を超えて変化するときに、第2の更新されたマップ及び他の後続の更新されたマップをそれぞれ更新するステップを備えることもあり得る。
【0045】
添付の図面(図)は実施例を示し、開示された実施例の原理を説明するのに役立つ。しかしながら、これらの図面は説明のみを目的として提示されており、関連する出願の限定を定義するためではないことを理解されたい。
【図面の簡単な説明】
【0046】
図1】自己位置推定と環境地図作成の同時実行(SLAM)ナビゲーションの概略図である。
図2】順次マッピング及び位置推定(SMAL)ナビゲーションの概略図である。
図3】SMALナビゲーションのマッピングプロセスを示す図である。
図4】SMALナビゲーションの位置推定プロセスを示す図である。
【発明を実施するための形態】
【0047】
図1は、自己位置推定と環境地図作成の同時実行(SLAM)ナビゲーション100の概略図を示す。SLAMナビゲーション100は、未知の環境104内の自律車両102を出発地点112から目的地点113までナビゲートするために使用される。SLAMナビゲーション100が地図106内の自律車両102の位置108を同時に追跡し続けるために、未知の環境104の地図106は離散時間ステップ(t)にわたって構成され、更新される。
【0048】
第1のステップ110では、自律車両102は出発地点112にあり、出発地112の周囲で第1のセンサ観測値oが得られる。第1のセンサ観測値oは、出発地点112の周囲の第1のマップmを構成するために自律車両102に送信される。自律車両102の位置108は、第1のマップmでは第1の位置xとして計算される。次いで、自律車両102は、第1のマップm内の第1の位置xに従って、未知の環境104内の出発地点112から自律車両102を移動させる第1の制御値uを生成する。第1のマップm及びその中の第1の位置xは、第1のステップ110において同時に更新されることが明確に示されている。
【0049】
自律車両102は、第1の離散時間ステップ114の後に、出発地点112から第2の地点122に移動する。第2のステップ120では、自律車両102は第2の地点122にあり、第2の地点122の周囲の第2のセンサ観測値oが得られる。第2のセンサ観測値oは、第1のマップmを第2の地点122の周囲の第2のマップmに更新するために、自律車両102に送信される。第2のマップm内の自律車両102の位置108は、それに応じて第2の位置xとして更新される。次いで、自律車両102は、第2のマップm内の第2の位置xに従って、未知の環境104内の第2の地点122から自律車両102を移動させる第2の制御値uを生成する。第2のステップ120では、第2のマップm及び第2の位置xが同時に更新される。
【0050】
自律車両102は、第2の離散時間ステップ124の後に、第2の地点122から次の地点に移動する。このステップバイステップ方式では、自律車両102は、未知の環境104内で連続的に移動する。一方、位置108も、それに応じてマップ106内で更新される。第2の最終ステップ130では、第2の最後のセンサ観測値ot-1が第2の最後の地点132の周囲で得られる。第2の最後の地点132の周囲の第2の最後のマップmt-1が更新される。第2の最後のマップmt-1内の自律車両102の位置108は、それに応じて第2の最後の位置xt-1として更新される。次いで、自律車両102は最後のマップmt-1内の第2の最後の位置xt-1に従って、自律車両102を第2の最後の地点132から移動させるために、第2の最後の制御値ut-1を生成する。第2の最後のマップmt-1及び第2の位置xt-1は、第2の最後のステップ130で同時に更新される。
【0051】
最終ステップ140では、最後のセンサ観測値oが、未知の環境104から、第2の最後の離散時間ステップ134の後に得られる。最後のセンサ観測値oは、第2の最後のマップmt-1を最後のマップmに更新するために自律車両102に送信される。最後のマップm内の自律車両102の位置108は、それに応じて最後の位置xとして更新される。次いで、自律車両102は、最後のマップm内の最後の位置xに応じて、目的地点113に自律車両102を停止させるために、最後の制御値uを生成する。したがって、最後のマップm及びその中の最後の位置xは、最終ステップ140で同時に更新される。
【0052】
図2は、順次マッピング及び位置推定(SMAL)ナビゲーション200の概略図を示す。SMALナビゲーション200は、未知の環境204内の自律車両202をナビゲートするためにも使用される。未知の環境204のマップ206は、マップ206内の自律車両202の位置208の追跡を同時に維持するために、SMALナビゲーション200のために構成され、更新される。
【0053】
SMALナビゲーション200は、初期ステージ210、位置推定ステージ220、及びマッピングステージ230の3つのステージに分けられる。初期ステージ210では、未知の環境204から初期センサの観測値oが得られ、未知の環境204の初期マップmを生成する(212)ために自律車両202に送信される。自律車両202の位置208は、初期マップm内の初期位置xとして計算される。次いで、自律車両202は、初期マップm内の初期位置xに従って、未知の環境104内で自律車両202を移動させる初期制御値uを生成する。
【0054】
位置推定ステージ220では、第1のセンサ観測値oが、未知の環境204内の第1の地点222の周囲で取得される。自律車両102の位置108は、それに応じて第1の位置xとして、初期マップmで計算される。次いで、自律車両102は、初期マップmで第1の位置xに従って、未知の環境204内で自律車両202を移動させる第1の制御値uを生成する。SLAMナビゲーション100とは対照的に、第1のセンサ観測値oは、初期マップmを更新するために使用される。
【0055】
自律車両202は、第1の地点222からその後の地点へ続く離散時間の間ずっと、最後の地点224まで初期マップmを更新することなく移動する。最後のセンサ観測値oは、未知の環境204内の最後の地点224の周囲で得られる。同様に、最後のセンサ観測値oは、初期マップmを更新するためには使用されない。未知の環境204内の自律車両202の位置208は、初期マップm内の最終位置xとして更新される。次いで、自律車両202は、初期マップm内の最後の位置xに従って、次の地点に対する最後の地点224の周囲に自律車両202を移動させるための最後の制御値uを生成する。
【0056】
マッピングステージ230では、未知の環境104が第1の所定の閾値を大きく超えて変化するので、初期マップmには適用できない。更新されたセンサ観測値oiiは未知の環境204から得られ、初期マップmを未知の環境204の第1の更新されたマップmiiに更新する(232)ために、自律車両202に送信される。次いで、自律車両102を誘導するために、位置推定ステージ220が繰り返され(234)、第1の更新された地図mを用いて未知の環境104内を移動する。同様に、未知の環境104が第2の所定の閾値及びその後の所定の閾値を大きく超えて変化するときに、更新されたマップmiiは、それぞれ、第2の更新されたマップ及びその後の更新されたマップに更新される。
【0057】
図3は、SMALナビゲーション200のマッピングプロセス300を示す。マッピングプロセス300は、検出デバイスから複数の第1の環境データを収集する第1のステップと、複数の第1の環境データを融合データ(RGB-Dイメージ又はポイントクラウド)にマージする第2のステップ304と、エッジ特徴量を検出するための融合データにエッジ検出を適用する第3のステップ306と、融合データから第1の路上特徴量のセットを抽出する第4のステップ308と、第1の路上特徴量のセットを初期マップに保存する第5のステップ310とによって実行される。SMALナビゲーション200の場合、マッピングプロセス300は、初期マップ212を生成するための初期ステージ210、及び初期マップmを第1の更新されたマップmiiに更新する(232)ためのマッピングステージに適用できる。同様に、マッピングプロセス300は、未知の環境が大きく変化するときに、第1の更新されたマップ、第2の更新されたマップ、及びその後の更新されたマップを更新するために適用することもできる。
【0058】
第1のステップ302では、第1の環境データが、LIDAR、カメラ、又はLIDAR及びカメラの組合せのいずれかから検出デバイスとしてフレームバイフレームで収集される。第2のステップ304では、フレームが位置合わせされ、単一のフレームにマージされる。マージ中には、リアルタイムキネマティック(RTK)、米国の全地球測位システム(GPS)、中国の北斗、欧州のガリレオ及びロシアのGLONASSを含む全球測位衛星システム(GNSS)、並びに慣性計測装置(IMU)ナビゲーションシステム(RTK-GNSS/IMUナビゲーションシステムと略す)も関与する。各フレームは、RTK-GNSS/IMUナビゲーションシステム(正常フレームとして知られる)からのその正確な位置に関連付けられる。フレームのGNSSの位置がドリフトしている(下位フレームとして知られる)場合、下位フレームは正確な位置を有さない。この場合、下位フレーム及び正常フレームのオーバーラップから、下位フレームの正確な位置が決定される。オーバーラップが見つからないか、又は十分なオーバーラップが見つからない場合、下位フレームは放棄され、下位フレームを置き換えるために下位フレームの近くに新しいフレームを取得する。第3のステップ306では、エッジ検出アルゴリズムを単一フレームに適用して、エッジ特徴量を検出する。第4のステップ308では、エッジ特徴量にブロブ検出アルゴリズムを適用して、エッジ特徴量から路上特徴量を抽出する。第5のステップ310では、路上特徴量が、初期マップm、第1の更新されたマップmii、第2の更新されたマップ及びその後の更新されたマップに組み込まれる。
【0059】
図4は、SMALナビゲーション200の位置推定プロセス400を示す。位置推定プロセス400は、移動体の近くの複数の第2の環境データを収集する第1のステップ402と、第2の環境データから第2の路上特徴量のセットを認識する第2のステップ404と、未知の環境の第2の路上特徴量のセットを初期マップ内の第1の路上特徴量のセットにマッチングさせる第3のステップ406と、初期マップm、第1の更新されたマップmii、第2の更新されたマップ、及びその後の更新されたマップを含む、マップ106内の自律車両102の位置108を更新する第4のステップとによって実行される。位置推定ステージ220及びマッピングステージ230を繰り返すことによって、自律車両102は、SMALナビゲーション200によって未知の環境104内を移動するように誘導される。
【0060】
本出願では、別段の指定がない限り、用語「備えている」、「備える」、及びその文法的変形は列挙された要素を含むが、追加の非明示的に列挙された要素の包含も可能にするように、「開放的」又は「包括的」言語を表すことを意図する。
【0061】
本明細書で使用される場合、用語「約」は、配合物の成分の濃度の文脈においては、代表的には記載された値の+/-5%、より代表的には記載された値の+/-4%、より代表的には記載された値の+/-3%、より代表的には記載された値の+/-2%、更により代表的には記載された値の+/-1%、及び更により代表的には記載された値の+/-0.5%を意味する。
【0062】
本開示を通じて、特定の実施例は範囲形式で開示され得る。範囲形式での記載は、単に便宜及び簡潔さのためであり、開示された範囲の有効範囲について不可変の限定として解釈されるべきではない。したがって、範囲の記載は、すべての可能な副次的範囲並びにその範囲内の個々の数値を具体的に開示したものとみなされるべきである。例えば、1~6のような範囲の記載は、1~3、1~4、1~5、2~4、2~6、3~6などの副次的範囲、並びにその範囲内の個々の数値、例えば、1、2、3、4、5、及び6を具体的に開示したものとみなされるべきである。これは、範囲の幅に関係なく適用される。
【0063】
本出願の趣旨及び範囲から逸脱することなく、前述の開示を読んだ後、本出願の様々な他の変更及び適合が当業者には明らかであり、すべてのそのような変更及び適合が添付の特許請求の範囲内に入ることが意図されることが明らかであろう。
【符号の説明】
【0064】
100 自己位置推定と環境地図作成の同時実行(SLAM)ナビゲーション
102 自律車両
104 未知の環境
106 マップ
108 位置
110 第1のステップ
112 出発地点
113 目的地点
114 第1の離散時間ステップ
120 第2のステップ
122 第2の地点
124 第2の離散時間ステップ
130 第2の最終ステップ
132 第2の最後の地点
134 第2の最後の離散時間ステップ
140 最終ステップ
200 順次マッピング及び位置推定(SMAL)ナビゲーション
202 自律車両
204 未知の環境
206 マップ
208 位置
210 初期ステージ
212 初期マップの生成
220 位置推定ステージ
222 第1の地点
224 最後の地点
230 マッピングステージ
232 初期マップの更新
234 位置推定ステージ220の繰り返し
300 マッピングプロセス
302 第1のステップ
304 第2のステップ
306 第3のステップ
308 第4のステップ
310 第5のステップ
400 位置推定プロセス
402 第1のステップ
404 第2のステップ
406 第3のステップ
408 第4のステップ
第1のセンサ観測値
第1のマップ
. 第1の位置
第1の制御値
第2のセンサ観測値
第2のマップ
. 第2の位置
第2の制御値
t-1 第2の最後のセンサ観測値
t-1 第2の最後のマップ
t-1. 第2の最後の位置
t-1 第2の最後の制御値
最後のセンサ観測値
最後のマップ
. 最後の位置
最後の制御値
初期のセンサ観測値
初期マップ
ii 更新されたセンサ観測値
ii 第1の更新されたマップ
【手続補正2】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
自律車両(202)又はロボットをナビゲートする(200)ための順次マッピング及び位置推定(SMAL:Sequential Mapping And Localization)の方法であって、
マッピングプロセス(300)において未知の環境(204)の初期マップ(m を生成するステップ(212)であって、
前記マッピングプロセス(300)が、
少なくとも1つのセンサの観測値から複数の第1の環境データを収集するステップ(302)と、
前記複数の第1の環境データを融合データにマージするステップ(304)であって、前記融合データがRGB-Dイメージ又はポイントクラウドを含む、マージするステップ(304)と、
前記融合データにエッジ検出を適用するステップ(306)と、
前記融合データから第1の路上特徴量のセットを抽出するステップ(308)と、
前記第1の路上特徴量のセットを前記初期マップ(m )に保存するステップ(310)と
によって実行される、前記生成するステップ(212)と、
位置推定プロセス(400)において前記初期マップ(m 内の前記自律車両(202)又はロボットの位置を決定するステップ(220)であって、
前記位置推定プロセス(400)が、
前記自律車両(202)又は前記ロボットの近くの複数の第2の環境データを収集するステップ(402)と、
前記第2の環境データから第2の路上特徴量のセットを認識するステップ(404)と、
前記未知の環境の前記第2の路上特徴量のセットを前記初期マップ(m )内の前記第1の路上特徴量のセットにマッチングさせるステップ(406)と
によって実行される、前記決定するステップ(220)と、
前記自律車両(202)又はロボットの動きを制御するために、前記未知の環境(204)内の前記自律車両(202)又はロボットを誘導するステップと
を含み、
前記初期マップ(m )が前記少なくとも1つのセンサの観測値を使用して構成される、方法。
【請求項2】
前記未知の環境(204)が、路上特徴量が利用可能である開放領域を含む、請求項1に記載の方法。
【請求項3】
前記少なくとも1つのセンサが、距離ベースのセンサ、視覚ベースのセンサ、又はそれらの組合せを備える、請求項に記載の方法。
【請求項4】
前記距離ベースのセンサが、光検出及び測距(LIDAR:Light Detection And Ranging)、音響センサ、又はそれらの組合せを備える、請求項に記載の方法。
【請求項5】
前記視覚ベースのセンサが、単眼カメラ、全方位カメラ、イベントカメラ、又はそれらの組合せを備える、請求項に記載の方法。
【請求項6】
前記第1の路上特徴量のセットが、マーキング、道路縁石、草、特別な線、スポット、前記道路の端、異なる道路表面の端、又はそれらの任意の組合せを備える、請求項に記載の方法。
【請求項7】
前記第1の環境データからノイズを除去するために、前記第1の環境データに確率論的アプローチを適用するステップを更に含む、請求項に記載の方法。
【請求項8】
前記マッピングプロセス(300)が、オフライン方式で実行される、請求項に記載の方法。
【請求項9】
前記収集するステップ(302)が、フレームバイフレーム方式で実行される、請求項に記載の方法。
【請求項10】
前記マージするステップ(304)が、前記フレームを世界座標システムに位置合わせすることによって実行される、請求項に記載の方法。
【請求項11】
前記マージするステップ(304)が、前記世界座標システムにおいて不正確な位置を有する下位フレームを補正するステップを更に備える、請求項10に記載の方法。
【請求項12】
前記補正するステップが、正確な位置を有する正常フレームと前記下位フレームとの元のオーバーラップを参照することによって実行される、請求項11に記載の方法。
【請求項13】
追加のオーバーラップを生成するために、前記下位フレームの近くの追加の正常フレームを収集するステップを更に備える、請求項12に記載の方法。
【請求項14】
前記エッジ検出が、前記路上特徴量を抽出するためのブロブ検出を含む、請求項に記載の方法。
【請求項15】
自律車両(202)又はロボットをナビゲートする(200)ための順次マッピング及び位置推定(SMAL)を使用するシステムであって、
マッピング機構を使用して未知の環境(204)の初期マップ(m を生成する手段(212)であって
前記マッピング機構が、
少なくとも1つのセンサの観測値から複数の第1の環境データを収集するステップ(302)と、
前記複数の第1の環境データを融合データにマージするステップ(304)であって、前記融合データがRGB-Dイメージ又はポイントクラウドを含む、マージするステップ(304)と、
前記融合データにエッジ検出を適用するステップ(306)と、
前記融合データから第1の路上特徴量のセットを抽出するステップ(308)と、
前記第1の路上特徴量のセットを前記初期マップ(m )に保存するステップ(310)と
によって実行されるように構成される、前記生成する手段(212)と、
位置推定機構を使用して前記初期マップ(m 内の前記自律車両(202)又は前記ロボットの位置を決定する手段(220)であって、
位置推定プロセス(400)が、
前記自律車両(202)又は前記ロボットの近くの複数の第2の環境データを収集するステップ(402)と、
前記第2の環境データから第2の路上特徴量のセットを認識するステップ(404)と、
前記未知の環境の前記第2の路上特徴量のセットを前記初期マップ(m )内の前記第1の路上特徴量のセットにマッチングさせるステップ(406)と
によって実行される、前記決定する手段(220)と、
前記自律車両(202)又は前記ロボットの動きを制御するために、前記未知の環境(204)内の前記自律車両(202)又は前記ロボットを誘導する手段と
を備え
前記初期マップ(m )が前記少なくとも1つのセンサの観測値を使用して構成される、システム。
【請求項16】
自律車両(202)又はロボットをナビゲートする(200)ための順次マッピング及び位置推定(SMAL)の方法を実装するためにコンピュータプログラム命令及びそれに組み入れられるデータを有する非一時的なコンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって、前記SMALの方法は、
マッピングプロセス(300)における未知の環境(204)の初期マップ(m を生成するステップ(212)であって、
前記マッピングプロセス(300)が、
少なくとも1つのセンサの観測値から複数の第1の環境データを収集するステップ(302)と、
前記複数の第1の環境データを融合データにマージするステップ(304)であって、前記融合データがRGB-Dイメージ又はポイントクラウドを含む、マージするステップ(304)と、
前記融合データにエッジ検出を適用するステップ(306)と、
前記融合データから第1の路上特徴量のセットを抽出するステップ(308)と、
前記第1の路上特徴量のセットを前記初期マップ(m )に保存するステップ(310)と
によって実行される、前記生成するステップ(212)と、
位置推定プロセス(400)における前記初期マップ(m 内の前記自律車両(202)又は前記ロボットの位置を決定するステップ(220)であって、
前記位置推定プロセス(400)が、
前記自律車両(202)又は前記ロボットの近くの複数の第2の環境データを収集するステップ(402)と、
前記第2の環境データから第2の路上特徴量のセットを認識するステップ(404)と、
前記未知の環境の前記第2の路上特徴量のセットを前記初期マップ(m )内の前記第1の路上特徴量のセットにマッチングさせるステップ(406)と
によって実行される、前記決定するステップ(220)と、
前記未知の環境(204)内の前記自律車両(202)又は前記ロボットを誘導するステップと
を備え、
前記初期マップ(m )が前記少なくとも1つのセンサの観測値を使用して構成される、コンピュータプログラム製品。
【手続補正書】
【提出日】2021-04-15
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
自律車両(202)をナビゲートする(200)ための順次マッピング及び位置推定(SMAL:Sequential Mapping And Localization)の方法であって、
マッピングプロセス(300)において未知の環境(204)の初期マップ(m)を生成するステップ(212)であって、
前記マッピングプロセス(300)が、
少なくとも1つのセンサの観測値から複数の第1の環境データを収集するステップ(302)と、
前記複数の第1の環境データを融合データにマージするステップ(304)であって、前記融合データがRGB-Dイメージ又はポイントクラウドを含む、マージするステップ(304)と、
前記融合データにエッジ検出を適用するステップ(306)と、
前記融合データから第1の路上特徴量のセットを抽出するステップ(308)と、
前記第1の路上特徴量のセットを前記初期マップ(m)に保存するステップ(310)と
によって実行される、前記生成するステップ(212)と、
位置推定プロセス(400)において前記初期マップ(m)内の前記自律車両(202)の位置を決定するステップ(220)であって、
前記位置推定プロセス(400)が、
前記自律車両(202)の近くの複数の第2の環境データを収集するステップ(402)と、
前記第2の環境データから第2の路上特徴量のセットを認識するステップ(404)と、
前記未知の環境の前記第2の路上特徴量のセットを前記初期マップ(m)内の前記第1の路上特徴量のセットにマッチングさせるステップ(406)と
前記初期マップ(m )内の前記自律車両(202)の前記位置(220)を更新するステップ(408)と
によって実行される、前記決定するステップ(220)と、
前記自律車両(202)の動きを制御するために、前記未知の環境(204)内の前記自律車両(202)を誘導するステップと
を含み、
前記初期マップ(m)が前記少なくとも1つのセンサの観測値を使用して構成される、方法。
【請求項2】
前記未知の環境(204)が、路上特徴量が利用可能である開放領域を含む、請求項1に記載の方法。
【請求項3】
前記少なくとも1つのセンサが、距離ベースのセンサ、視覚ベースのセンサ、又はそれらの組合せを備える、請求項1に記載の方法。
【請求項4】
前記距離ベースのセンサが、光検出及び測距(LIDAR:Light Detection And Ranging)、音響センサ、又はそれらの組合せを備える、請求項3に記載の方法。
【請求項5】
前記視覚ベースのセンサが、単眼カメラ、全方位カメラ、イベントカメラ、又はそれらの組合せを備える、請求項3に記載の方法。
【請求項6】
前記第1の路上特徴量のセットが、マーキング、道路縁石、草、前記道路の端、異なる道路表面の端、又はそれらの任意の組合せを備える、請求項1に記載の方法。
【請求項7】
前記第1の環境データからノイズを除去するために、前記第1の環境データに確率論的アプローチを適用するステップを更に含む、請求項1に記載の方法。
【請求項8】
前記収集するステップ(302)が、フレームバイフレーム方式で実行される、請求項1に記載の方法。
【請求項9】
前記マージするステップ(304)が、前記フレームを世界座標システムに位置合わせすることによって実行される、請求項に記載の方法。
【請求項10】
前記マージするステップ(304)が、前記世界座標システムにおいて不正確な位置を有する下位フレームを補正するステップを更に備え、前記補正するステップが、正確な位置を有する正常フレームとの下位フレームの元のオーバーラップを参照することによって実行される、請求項に記載の方法。
【請求項11】
追加のオーバーラップを生成するために、前記下位フレームの近くの追加の正常フレームを収集するステップを更に備える、請求項10に記載の方法。
【請求項12】
前記エッジ検出が、前記路上特徴量を抽出するためのブロブ検出を含む、請求項1に記載の方法。
【請求項13】
自律車両(202)をナビゲートする(200)ための順次マッピング及び位置推定(SMAL)を使用するシステムであって、
マッピング機構を使用して未知の環境(204)の初期マップ(m)を生成する手段(212)であって、
前記マッピング機構が、
少なくとも1つのセンサの観測値から複数の第1の環境データを収集するステップ(302)と、
前記複数の第1の環境データを融合データにマージするステップ(304)であって、前記融合データがRGB-Dイメージ又はポイントクラウドを含む、マージするステップ(304)と、
前記融合データにエッジ検出を適用するステップ(306)と、
前記融合データから第1の路上特徴量のセットを抽出するステップ(308)と、
前記第1の路上特徴量のセットを前記初期マップ(m)に保存するステップ(310)と
によって実行されるように構成される、前記生成する手段(212)と、
位置推定機構を使用して前記初期マップ(m)内の前記自律車両(202)の位置を決定する手段(220)であって、
位置推定プロセス(400)が、
前記自律車両(202)の近くの複数の第2の環境データを収集するステップ(402)と、
前記第2の環境データから第2の路上特徴量のセットを認識するステップ(404)と、
前記未知の環境の前記第2の路上特徴量のセットを前記初期マップ(m)内の前記第1の路上特徴量のセットにマッチングさせるステップ(406)と
前記初期マップ(m )内の前記自律車両(202)の前記位置(220)を更新するステップ(408)と
によって実行される、前記決定する手段(220)と、
前記自律車両(202)の動きを制御するために、前記未知の環境(204)内の前記自律車両(202)を誘導する手段と
を備え、
前記初期マップ(m)が前記少なくとも1つのセンサの観測値を使用して構成される、システム。
【請求項14】
自律車両(202)をナビゲートする(200)ための順次マッピング及び位置推定(SMAL)の方法を実装するためにコンピュータプログラム命令及びそれに組み入れられるデータを有する非一時的なコンピュータ可読記憶媒体を備えるコンピュータプログラム製品であって、前記SMALの方法は、
マッピングプロセス(300)における未知の環境(204)の初期マップ(m)を生成するステップ(212)であって、
前記マッピングプロセス(300)が、
少なくとも1つのセンサの観測値から複数の第1の環境データを収集するステップ(302)と、
前記複数の第1の環境データを融合データにマージするステップ(304)であって、前記融合データがRGB-Dイメージ又はポイントクラウドを含む、マージするステップ(304)と、
前記融合データにエッジ検出を適用するステップ(306)と、
前記融合データから第1の路上特徴量のセットを抽出するステップ(308)と、
前記第1の路上特徴量のセットを前記初期マップ(m)に保存するステップ(310)と
によって実行される、前記生成するステップ(212)と、
位置推定プロセス(400)における前記初期マップ(m)内の前記自律車両(202)の位置を決定するステップ(220)であって、
前記位置推定プロセス(400)が、
前記自律車両(202)の近くの複数の第2の環境データを収集するステップ(402)と、
前記第2の環境データから第2の路上特徴量のセットを認識するステップ(404)と、
前記未知の環境の前記第2の路上特徴量のセットを前記初期マップ(m)内の前記第1の路上特徴量のセットにマッチングさせるステップ(406)と
前記初期マップ(m )内の前記自律車両(202)の前記位置(220)を更新するステップ(408)と
によって実行される、前記決定するステップ(220)と、
前記未知の環境(204)内の前記自律車両(202)を誘導するステップと
を備え、
前記初期マップ(m)が前記少なくとも1つのセンサの観測値を使用して構成される、コンピュータプログラム製品。
【国際調査報告】