IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ テレディン サイエンティフィック アンド イメージング、 エルエルシーの特許一覧

特表2023-521700視覚キュー型ランダムアクセスLIDARシステム、並びに、所在特定及びナビゲーションのための方法
<>
  • 特表-視覚キュー型ランダムアクセスLIDARシステム、並びに、所在特定及びナビゲーションのための方法 図1
  • 特表-視覚キュー型ランダムアクセスLIDARシステム、並びに、所在特定及びナビゲーションのための方法 図2a
  • 特表-視覚キュー型ランダムアクセスLIDARシステム、並びに、所在特定及びナビゲーションのための方法 図2b
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-05-25
(54)【発明の名称】視覚キュー型ランダムアクセスLIDARシステム、並びに、所在特定及びナビゲーションのための方法
(51)【国際特許分類】
   G01S 17/931 20200101AFI20230518BHJP
   G01C 21/28 20060101ALI20230518BHJP
   G08G 5/00 20060101ALI20230518BHJP
   G01S 17/86 20200101ALI20230518BHJP
【FI】
G01S17/931
G01C21/28
G08G5/00 A
G01S17/86
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2022560962
(86)(22)【出願日】2021-03-18
(85)【翻訳文提出日】2022-12-01
(86)【国際出願番号】 US2021022940
(87)【国際公開番号】W WO2021206888
(87)【国際公開日】2021-10-14
(31)【優先権主張番号】16/842,697
(32)【優先日】2020-04-07
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】518081555
【氏名又は名称】テレディン サイエンティフィック アンド イメージング、 エルエルシー
【氏名又は名称原語表記】TELEDYNE SCIENTIFIC & IMAGING, LLC
【住所又は居所原語表記】1049 Camino Dos Rios, Thousand Oaks, California 91360-2362, United States of America
(74)【代理人】
【識別番号】110000110
【氏名又は名称】弁理士法人 快友国際特許事務所
(72)【発明者】
【氏名】ミリンド マハジャン
(72)【発明者】
【氏名】ウェイヤ チャン
(72)【発明者】
【氏名】マーク アンダーソン
(72)【発明者】
【氏名】マリオ アギラ サイモン
(72)【発明者】
【氏名】ブライアン グレゴリー
【テーマコード(参考)】
2F129
5H181
5J084
【Fターム(参考)】
2F129AA03
2F129AA11
2F129BB03
2F129BB33
2F129EE78
2F129FF02
2F129FF11
2F129FF20
2F129GG17
2F129GG18
5H181AA01
5H181AA26
5H181BB04
5H181BB05
5H181CC03
5H181CC04
5H181CC14
5H181FF04
5H181FF27
5H181LL01
5J084AA04
5J084AA05
5J084AC02
(57)【要約】
移動プラットフォームの所在及び/又はナビゲーション経路を決定する視覚キュー型ランダムアクセスLIDARシステム、及び、方法。移動プラットフォーム上の視覚システムが関心領域を識別する。システムは関心領域内の物体を分類し、分類された物体のうちの1以上の物体にpingを実行するためにランダムアクセスLIDARを指向する。プラットフォームは、視覚システム及びLIDARからのデータを使用して3次元で所在を特定する。分類ステップ、指向ステップ、及び、特定ステップは、好ましくは、プラットフォームが移動している間、及び/又は、視覚システムの視野(FOV)が変化している間に連続的に実行される。物体は、好ましくは、機械学習アルゴリズムなど、少なくとも1つのスマートビジョン・アルゴリズムを使用して分類される。
【特許請求の範囲】
【請求項1】
移動プラットフォームの所在、及び/又は、ナビゲーション経路を決定する方法であって、
関心領域を識別するために、移動プラットフォーム上で視覚システムを使用する使用ステップと、
前記関心領域内の物体を分類する分類ステップと、
前記分類された物体のうちの1以上の物体にpingを実行するためにランダムアクセスLIDARを指向する指向ステップと、
前記視覚システム及び前記LIDARからのデータを使用して、3次元上の前記プラットフォームの所在を特定する特定ステップと、
を備える、方法。
【請求項2】
前記視覚システム及び前記ランダムアクセスLIDARのそれぞれが視野(FOV)を有し、
前記視覚システム及び前記ランダムアクセスLIDARは、それぞれの前記FOV間の所定の関係を確立するために較正される、請求項1に記載の方法。
【請求項3】
前記LIDARによって実行されるpingは、前記関心領域内の分類された物体の向きを決定するために使用される、請求項1に記載の方法。
【請求項4】
前記分類ステップ、前記指向ステップ、及び、前記特定ステップは、前記プラットフォームが移動している間、及び/又は、前記視覚システムの視野(FOV)が変化している間に連続的に実行される、請求項1に記載の方法。
【請求項5】
前記視覚システムは、前記関心領域の画像を、画像キャプチャ間に既知の間隔をもってキャプチャし、
前記方法は、さらに、
前記関心領域内で、各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点を定義する定義ステップを備える、請求項4に記載の方法。
【請求項6】
前記分類ステップが、少なくとも1つのスマートビジョン・アルゴリズムの使用を備える、請求項1に記載の方法。
【請求項7】
前記方法は、さらに、
前記関心領域内で、各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点を定義する定義ステップを備え、
前記分類ステップが、前記静的な基準点を選択するために使用される、請求項6に記載の方法。
【請求項8】
前記スマートビジョン・アルゴリズムのうちの少なくとも1つが機械学習アルゴリズムである、請求項6に記載の方法。
【請求項9】
前記LIDARがコヒーレントLIDARであり、
前記方法は、さらに、
前記コヒーレントLIDARを使用して、前記移動プラットフォームに対する前記物体の相対速度を決定する決定ステップを備える、請求項1に記載の方法。
【請求項10】
前記方法は、さらに、
前記関心領域内で、各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点を定義する定義ステップを備え、
前記物体の前記相対速度が、前記静的な基準点を選択するために使用される、請求項9に記載の方法。
【請求項11】
前記視覚システムがスペクトルの可視部分、及び/又は、熱的部分において動作する、請求項1に記載の方法。
【請求項12】
前記LIDARが、「10μRad~10mRad」の瞬時視野(IFOV)を有する、請求項1に記載の方法。
【請求項13】
前記LIDARが、「>10度」の注視野を有する、請求項1に記載の方法。
【請求項14】
前記LIDARが、「1μs~1ms」の再ポインティング時間を有する、請求項1に記載の方法。
【請求項15】
前記LIDARが回折限界ビームを生成する、請求項1に記載の方法。
【請求項16】
前記方法は、さらに、
前記プラットフォームの直線加速度、及び/又は、角加速度、及び/又は、直線速度、及び/又は、角速度を決定する決定ステップを備える、請求項1に記載の方法。
【請求項17】
前記視覚システムが、前記分類された物体のうちの1以上の物体にpingを実行するために使用される前記LIDARのポインティングを制御し、
前記方法は、さらに、
前記視覚システムによって指向された安定したポインティングを維持するために、前記LIDARに修正を適用するために前記直線加速度、及び/又は、前記角加速度、及び/又は、前記直線速度、及び/又は、前記角速度を使用する使用ステップを備える、請求項16に記載の方法。
【請求項18】
前記視覚システムが、前記分類された物体のうちの1以上の物体にpingを実行するために使用される前記LIDARのポインティングを制御し、
前記方法は、さらに、
前記視覚指向LIDARピンギングと並行して、追加の事前に定義されたLIDAR走査パターンを実行する実行ステップを含む、請求項1に記載の方法。
【請求項19】
前記事前に定義されたLIDAR走査が、前記プラットフォームの動きの方向に沿っており、バックアップ障害物回避を行うように作用する、請求項18に記載の方法。
【請求項20】
前記事前に定義されたLIDAR走査が、検出された物体の前記LIDARのスポット・サイズを効果的に増加させるために使用される、請求項18に記載の方法。
【請求項21】
移動プラットフォームの所在、及び/又は、ナビゲーション経路を決定するためのシステムであって、
関心領域を識別するように構成された移動プラットフォーム上の視覚システムと、
前記視覚システムによってキャプチャされた画像を受信し、前記関心領域内の物体を分類するように構成されたプロセッサと、
前記分類された物体のうちの1以上の物体にpingを実行するように構成されたランダムアクセスLIDARと、
を備え、
前記プロセッサが、さらに、前記視覚システム及び前記LIDARからのデータを使用して、3次元上の前記プラットフォームの所在を特定するように構成された、
システム。
【請求項22】
前記システムは、さらに、前記所在を特定することが、前記プラットフォームが移動している間、及び/又は、前記視覚システムの視野(FOV)が変化している間に連続的に実行されるように構成された、請求項21に記載のシステム。
【請求項23】
前記視覚システムが、前記関心領域の画像を、画像キャプチャ間に既知の間隔をもってキャプチャし、
前記システムは、さらに、
前記関心領域内で、各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点を定義するように構成された、請求項22に記載のシステム。
【請求項24】
前記プロセッサが、前記物体を分類するために、少なくとも1つのスマートビジョン・アルゴリズムを使用する、請求項21に記載のシステム。
【請求項25】
前記スマートビジョン・アルゴリズムのうちの少なくとも1つが機械学習アルゴリズムである、請求項24に記載のシステム。
【請求項26】
前記LIDARがコヒーレントLIDARである、請求項21に記載のシステム。
【請求項27】
前記視覚システムが、スペクトルの可視部分、及び/又は、熱的部分において動作するように構成された、請求項21に記載のシステム。
【請求項28】
前記LIDARが、「10μRad~10mRad」の瞬時視野(IFOV)を有する、請求項21に記載のシステム。
【請求項29】
前記LIDARが、「>10度」の注視野を有する、請求項21に記載のシステム。
【請求項30】
前記LIDARが、「1μs~1ms」の再ポインティング時間を有する、請求項21に記載のシステム。
【請求項31】
前記LIDARが、回折限界ビームを生成するように構成された、請求項21に記載のシステム。
【請求項32】
前記システムは、さらに、
前記プラットフォームの直線加速度、及び/又は、角加速度、及び/又は、直線速度、及び/又は、角速度を決定するように構成された慣性測定ユニット(IMU)を備える、請求項21に記載のシステム。
【請求項33】
前記視覚システムと前記LIDARと前記IMUとが時間同期されている、請求項32に記載のシステム。
【請求項34】
前記システムは、さらに、
カルマン・フィルタを備える、請求項33に記載のシステム。
【請求項35】
前記システムは、さらに、
前記プラットフォームの絶対世界位置を与えるように構成された全地球測位システム(GPS)ユニットを備える、請求項21に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
(政府の権利)
本発明は、DARPAのMOABB(モジュラー光開口ビルディングブロック)によって与えられたHR0011-16-C-0105の下で政府支援を受けてなされた。政府は本発明においていくつかの権利を有する。
【0002】
本発明は、一般に、選択された基準特徴に対する移動プラットフォームの所在を決定し、ナビゲーションのための安全なルートを計画するためのシステム及び方法に関する。
【背景技術】
【0003】
自律車両の分野は急速に成長している。そのような車両は、地上車両であろうと、空中車両であろうと、それらがどこにあるのかを知る技術(所在特定(ローカリゼーション))及びどこに行くのかを知る技術(ナビゲーション)を必要とする。
【0004】
必要な情報を提供するために様々な技術が使用される。例えば、所在特定及びナビゲーションのために磁力計を使用することができるが、磁力計はあまり正確ではなく、電磁気に敏感である傾向がある。オドメーター等、他の物理センサーは、大きく、柔軟性がない。GPSシステムは、ジャミングを起こしやすく、屋内でうまく動作しない。飛行時間カメラを採用することができるが、飛行時間カメラは、ピクセルの制限を受ける傾向があり、横方向分解能が不十分である。従来の走査LIDARを検討することができるが、この手法は極めて非効率的であり、不必要に大量のデータを生成し、高いプラットフォーム障害を有する小さいプラットフォームに適合しない。
【発明の概要】
【0005】
上記の問題のいくつかに対処する視覚キュー型(vision-cued)ランダムアクセスLIDARシステム及び方法が提示される。
【0006】
本明細書で開示される方法は、移動プラットフォームの所在、及び/又は、ナビゲーション経路を決定するために使用される。本方法は、関心領域を識別するために移動プラットフォーム上で視覚システムを使用する使用ステップと、関心領域内の物体を分類する分類ステップと、分類された物体のうちの1以上の物体にpingを実行するようにランダムアクセスLIDARを指向する指向ステップと、視覚システム及びLIDARからのデータを使用して、3次元でプラットフォームの所在を特定する特定ステップと、を必要とする。また、関心領域内の分類された物体の向きを決定するためにLIDARピング(pings)を使用してもよい。
【0007】
分類ステップ、指向ステップ、及び、特定ステップは、好ましくは、プラットフォームが移動している間、及び/又は、視覚システムの視野(field-of-view)(FOV)が変化している間に連続的に実行される。物体は、好ましくは、機械学習アルゴリズム等、少なくとも1つのスマートビジョン・アルゴリズムを使用して分類される。
【0008】
また、本LIDARシステム及び方法は、プラットフォームの直線加速度、及び/又は、角加速度、及び/又は、直線速度、及び/又は、角速度を決定するために使用されてもよい。LIDARは、移動プラットフォームに対する分類された物体の速度を決定するために採用することができるコヒーレントLIDARであってもよい。
【0009】
本発明のこれらの特徴及び他の特徴、態様、及び、利点は、以下の図面、説明、及び、特許請求の範囲を参照するとより良く理解されるようになる。
【図面の簡単な説明】
【0010】
図1】本明細書で説明する方法の1つの可能なバージョンを示す流れ図である。
【0011】
図2a】本明細書で説明するシステムの1つの可能な実施形態を示すブロック図である。
図2b】本明細書で説明するシステムの1つの可能な実施形態を示すブロック図である。
【発明を実施するための形態】
【0012】
本システム及び方法は移動プラットフォームの所在及び/又はナビゲーション経路を決定する。本発明は多くの可能な適用例を有する。例えば、本システム及び方法は、自律的にナビゲートされる地上車両又は飛行車両(air vehicle)の一部として使用することができる。そのような車両は、指定された経路に従い、前記経路に沿って、電線などの障害物を識別し、場合によっては回避する手段を必要とする。本明細書で説明するランダムアクセスLIDARと組み合わせた視覚システムの使用により、車両が50mph以上の速度において移動することが可能になる。別の可能な適用例は、GPS拒否環境において所在情報及び/又はナビゲーション情報を提供することである。ランダムアクセスLIDARは、好ましくは、機械慣性によって課される制限なしに、極めて迅速に(<1ms)、それのアドレス指定可能なFOV内の任意の点から、それのアドレス指定可能なFOV内の他の任意の点までそれのビームをポインティングすることが可能であるLIDARとして定義される(例えば、Poulton et al., Optics Letters Vol. 42, No. 20 / October 15, 2017参照)。
【0013】
手短に言うと、本システム及び方法は、選択された基準特徴に対する移動プラットフォームの所在を決定するためにランダムアクセスLIDARをキューイングするために視覚システムを使用する。基準特徴は、プラットフォームが移動するとき、及び/又は、FOVが変化するときに、好ましくはスマートビジョン・アルゴリズムを使用して、好ましくは連続的に識別され、更新される。本方法の簡略図が図1に示されている。本方法は、
関心領域を識別するために移動プラットフォーム上で視覚システムを使用するステップ(ステップ10)と、
関心領域内の物体を分類するステップ(12)と、
分類された物体のうちの1以上の物体にpingを実行するようにランダムアクセスLIDARを指向するステップ(14)と、
視覚システム及びLIDARからのデータを使用して、3次元でプラットフォームの所在を特定するステップ(16)と
を含む。
図2に示されている)本発明によるシステムは、視覚システムからのデータを受信し、関心領域内の物体を分類するソフトウェアベースのプロセッサ(36)を含む。LIDARは、任意選択的に、関心領域内の分類された物体の向きを決定するために使用されてもよい。
【0014】
関心領域内の物体を分類するステップ、分類された物体のうちの1以上の物体にpingを実行するようにランダムアクセスLIDARを指向するステップ、並びに、視覚システム及びLIDARからのデータを使用して、3次元でプラットフォームの所在を特定するステップは、好ましくは、プラットフォームが移動している間、及び/又は、視覚システムのFOVが変化している間に連続的に実行される。これをなし得る1つの方法は、視覚システムが、関心領域の画像を画像キャプチャ間に既知の間隔をもってキャプチャするように、視覚システムを動作させ、次いで、関心領域内で、各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点(non-collinear static point)を定義すること(18)によるものである。画像キャプチャ間の間隔は、好ましくは、後続の画像が、少なくとも3つの非共線特徴を共通基準点として選択するのを可能にするのに十分な共通の特徴を有するようなものである。古い基準点がFOV外へ移動すると、新しい基準特徴が追加される。3つ以上の非共線特徴が利用可能である場合は、冗長性がシステム精度を向上させ得ることに留意されたい。さらに、視覚システム及びランダムアクセスLIDARは、それらのそれぞれのFOV間の所定の関係を確立するために較正されてもよいことに留意されたい。
【0015】
関心領域内の物体は、例えば、機械学習アルゴリズム等の少なくとも1つのスマートビジョン・アルゴリズムを使用して分類されてもよい。ここで、例えば、関心領域内で、各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点が定義されてもよく、スマートビジョン・アルゴリズムを介した物体の分類は、静的基準点を選択するために使用される。
【0016】
LIDARは、好ましくは、狭いビームを提供し、必要なランダムアクセスを与えるために電気光学的にポインティングされる。LIDARは、好ましくは、移動プラットフォームに対する関心領域内の物体の速度を決定する(20)ために使用され得るコヒーレントLIDARである。コヒーレントLIDARは、ドップラー効果を使用して、分類された物体の速度を測定することができ、それにより、縦方向速度を得るために2つのレンジ測定値を比較する必要がなくなる。物体が静止している(例えば交通標識)場合は、測定値はプラットフォーム自体の速度となる。また、コヒーレントLIDARは、振幅及び位相に加えて、対象の振動シグネチャを報告するように構成されることができ、分類プロセス中にプロセッサ・ソフトウェアによって使用されることができる。
【0017】
プロセッサ・ソフトウェアは、また、物体を正しい姿勢に向けるために、分類された関心のある物体(classified objects of interest)上の複数の点を使用するように構成されてもよい。分類された物体及び姿勢は、世界の3Dモデルを構築するために使用されてもよく、3Dモデルは、次の中間地点へのナビゲーションのために利用可能であるルートを決定するために使用されることができる。
【0018】
走査LIDARを採用する以前のシステムは、入力データによって過負荷になる傾向がある。関心領域内の分類された物体にpingを実行するためにランダムアクセスLIDARをキューイングする関心領域を識別する視覚システムと、領域内の物体の画像と、の本組合せは、3D位置データをリアルタイムで取得することを可能にする。
【0019】
ランダムアクセスLIDARは、プロセッサ・ソフトウェアによって確立される優先度方式に基づいて、複数の機能を同時に実行するように構成されてもよい。これらの機能は、
障害物を検出するために、前方に走査するステップと、
(以下で説明する)プラットフォーム障害を補償するためのフィードフォワード安定化ステップと、
関心のある物体を問い合わせるソフトウェアから受信されたキュー当たりの点を範囲づけるステップと、
を含んでもよい。
【0020】
関心領域内の物体が静的であることを決定する少なくとも2つの方法がある。1つの方法は、例えば、コヒーレントLIDARを使用して物体の速度を測定し、例えば、慣性測定ユニット(inertial measurement unit)(IMU)を使用して測定されたプラットフォーム速度と物体速度を比較することである。この方法によって、物体が静止しているかどうかを決定することができる。そのように構成すると、コヒーレントLIDARを使用して測定される物体の相対速度を使用して、関心領域内の各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点を選択することができる。
【0021】
第2の方法は、上述のような物体分類のためのスマートビジョン・アルゴリズムの使用を伴う。関心領域内の物体が、例えば、スマートビジョン・アルゴリズムを使用して、例えば、木又は交通標識として分類される場合、物体のいくつかの種類は本質的に静的であるので、物体は静的であると考えられてもよい。
【0022】
本方法に必要とされる視覚システムは、スペクトルの可視部分、及び/又は、熱部分において動作してもよい。好ましくは、高い分解能を有する1以上のカメラが使用されてもよい。ランダムアクセスLIDARは、好ましくは、FOVが短い時間期間である場合に、広い注視野(field of regard)中の任意の点から他の任意の点にステアリングされることができる狭い瞬時FOV(IFOV)を有する。IFOVは、好適には、10μRad~10mRadであり、視野(field-of-regard)は「>10度」であり、再ポインティング時間(repointing time)は1μs~1msである。LIDARは、好ましくは、回折限界ビーム(diffraction limited beam)を生成する。
【0023】
移動プラットフォームの所在及び/又はナビゲーション経路を決定する本方法は、プラットフォームの直線加速度、及び/又は、角加速度、及び/又は、直線速度、及び/又は、角速度を決定するステップ(22)をさらに含んでもよい。必要とされる視覚システムは、好ましくは、1以上の分類された物体にpingを実行するために使用されるLIDARのポインティングを制御する。そのように構成すると、プラットフォームが移動している状況で視覚システムによって指向された安定したポインティング、及び、視覚システムとLIDARとの間のレイテンシを維持するために、LIDARに修正を適用するために、直線加速度、及び/又は、角加速度、及び/又は、直線速度、及び/又は、角速度が採用され得る。また、検出された物体又はレンジ測定のための潜在的な対象上のスポット・サイズを効果的に増加させ、それによってポインティング精度要件を低減するために、事前に定義された走査を使用することができる。
【0024】
上記のように、視覚システムは、好ましくは、1以上の分類された物体にpingを実行するために使用されるLIDARのポインティングを制御する。本方法は、さらに、視覚指向LIDARピンギングと並行して、追加の事前に定義されたLIDAR走査パターンを実行することを含んでもよい。この追加の走査は、好適には、分類された物体にpingを実行するために使用される同じランダムアクセスLIDARによって実行される。追加の事前に定義された前方LIDAR走査(図2b中の28)は、好ましくは、プラットフォームの動きの方向に沿っており、バックアップ障害物回避を行うように動作する。
【0025】
本明細書で説明する移動プラットフォームの所在及び/又はナビゲーション経路を決定するためのシステムの簡略ブロック図が、図2a及び図2bに示されている。本システムは、共通の視覚/LIDAR FOV35内の関心領域34を識別するように構成された移動プラットフォーム32上の視覚システム30を含む。本システムは、視覚システム30によってキャプチャされた画像を受信し、関心領域34内の物体38を分類するように構成されたプロセッサ36を含む。また、本システムは、分類された物体38のうちの1以上の物体にpingを実行するように構成されたコヒーレントLIDARであってもよく、ランダムアクセスLIDAR40を必要とする。プロセッサ36は、プラットフォームの動作について修正された座標を有する点のリストをLIDAR40に提供し、LIDARは対応するレンジ測定値をプロセッサ36に提供する。プロセッサ36は、さらに、視覚システム30及びLIDAR40からのデータを使用して、プラットフォーム32の所在を3次元で特定するように構成される。
【0026】
本システムは、好ましくは、プラットフォーム32が移動している間、及び/又は、視覚システム30の視野(FOV)が変化している間に、所在を特定することが連続的に実行されるように構成される。上記のように、視覚システム30は、関心領域34の画像を画像キャプチャ間に既知の間隔をもってキャプチャするように構成されてもよい。本システムは、さらに、関心領域34内で、各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点を定義するように構成される。
【0027】
プロセッサ36は、好ましくは、物体38を分類するために、機械学習アルゴリズム等、少なくとも1つのスマートビジョン・アルゴリズムを使用する。ナビゲーションのためのトレーニングされた機械学習アルゴリズムを使用することによって、データ収集及び処理のオーバーヘッドが低減される。物体のいくつかのタイプを定義するデータが、システムが展開される前に蓄積されてもよく、プロセッサ・ソフトウェアが、次いで、時間に応じて、リアルタイムで検出される関心のある物体のライブラリを維持し、更新することができる。「関心のある物体」は、移動プラットフォームの環境内での所在特定のための潜在的な障害物、対象、又は、ナビゲーション特徴として重要である物理的物体又は物体の一部である。古い関心のある物体がFOV外へ移動すると、新しい基準点が追加され、使用される。プロセッサ・ソフトウェアは、関心のある物体を識別し、分類するトレーニングされた機械学習「分類子(classifier)」アルゴリズムを含んでもよい。ソフトウェアは、静止している可能性が最も高く、十分なコントラストを有するクラスから、物体の一部(例えば、建築物の窓又は入口、電柱など)である所在特定のための基準特徴を選択するように構成されてもよい。
【0028】
静止している基準特徴は、例えば、測定されたプラットフォームの動きと、カメラ・ピクセルの動き、及び、2以上の時間インスタンス間でランダムアクセスLIDARを用いて実行される対応するレンジ測定とを比較することによって、静止していることが確認される。対応する角変位及び直線変位はIMUによって測定されてもよい。相対角度位置、及び複数(>3)の静止している基準特徴からの距離が、システムの所在と姿勢とを決定するために使用されてもよい。
【0029】
視覚システム30は、好適には、スペクトルの可視部分、及び/又は、熱部分において動作するように構成される。LIDAR40は、好適には、「10μRad~10mRad」の瞬時視野(IFOV)と、「>10度」の注視野と、「1μs~1ms」の再ポインティング時間と、を有し、回折限界ビームを生成するように構成される。
【0030】
本システムはIMUなしでの所在特定を可能にする。しかしながら、本システムは、さらに、プラットフォーム32の直線加速度、及び/又は、角加速度、及び/又は、直線速度、及び/又は、角速度を決定するように構成されたIMU42をさらに含んでもよい。そのように構成すると、視覚システム30、LIDAR40、及び、IMU42は、例えば、オンボード・クロック、又は、GPSなどの外部基準を使用して、好ましくは、時間同期させられる。プラットフォームは一般に周期的に所在特定されることができる。IMU42は、カメラ画像キャプチャとLIDARレンジ・データ収集との間のタイム・ラグによるLIDARポインティングにおけるプラットフォーム障害により誘起されるエラーを修正するために使用されることができる。このタイム・ラグは、好ましくは「<100ms」である。IMUはドリフトする傾向があるので、所在特定間の時間、即ち、移動している物体から静止している物体を区別するために使用される時間差は、好ましくは小さい(<1秒)。これらの技法は、フィードフォワード修正と視線安定化とを与えるために使用されることができ、それにより、厳しいプラットフォーム障害の存在下での高精度ポインティングが可能になる。安定化されたポインティングにより、小さい基準特徴を測距することが可能になり、それにより、(縦方向の視線に直交する)横方向における所在特定精度が高くなる。
【0031】
また、プラットフォーム32の絶対世界位置を更新するように構成された全地球測位システム(GPS)ユニット46が含まれてもよい。また、本システムは、ある時間期間にわたってすべての利用可能なセンサー測定値を使用して、所在と向きとを推定するためのカルマン・フィルタ44を含んでもよく、これはまた、コンパス磁力計など、1以上の他のセンサー45からの入力を受信してもよい。
【0032】
画像中の単一のカメラ・ピクセルの角度投影であるカメラIFOV、及び、LIDAR分解能は、好ましくは、LIDARのレンジ限界において同等の縦方向及び横方向の距離測定精度(例えば、100mの距離において公称2cm)を有するように設計される。
【0033】
移動プラットフォームの所在、及び/又は、ナビゲーション経路を決定するための本システム及び方法は、難しい障害環境をもつ小さいプラットフォーム(例えば、固定翼無人飛行車両)、及び、サイズ、重量、電力、及び/又は、処理能力の限界をもつプラットフォーム上での使用のために特に有利である。それは、磁力計よりも正確であることが可能であり、電磁気に敏感でない。さらに、本発明はオドメーターなどの他の物理センサーよりもコンパクトで柔軟性がある。本システムは、オドメーターが必要とする表面との接触を必要とせず、RF又は超音波三角測量ベースのシステムのような外部基準源をセット・アップすることを必要としない。選択された特徴とランダムアクセスLIDARとを使用すると、プロセスのデータ及び計算の負荷が大幅に低減され、速度が著しく改善される。本明細書で説明した視覚/LIDARベースの所在特定は極めて正確であることができ、精度は主にLIDARの精度とカメラIFOVとによって決定される。
【0034】
本明細書で説明した本発明の実施形態は例示的なものであり、実質的に等価な結果を達成するために多数の改変、変形、及び再構成が容易に想定されることができ、それらのすべては添付の特許請求の範囲において定義されている本発明の趣旨及び範囲内に包含されるものである。
図1
図2a
図2b
【手続補正書】
【提出日】2022-12-20
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0034
【補正方法】変更
【補正の内容】
【0034】
本明細書で説明した本発明の実施形態は例示的なものであり、実質的に等価な結果を達成するために多数の改変、変形、及び再構成が容易に想定されることができ、それらのすべては添付の特許請求の範囲において定義されている本発明の趣旨及び範囲内に包含されるものである。
以下の項目は、出願当初の特許請求の範囲に記載の要素である。
(項目1)
移動プラットフォームの所在、及び/又は、ナビゲーション経路を決定する方法であって、
関心領域を識別するために、移動プラットフォーム上で視覚システムを使用する使用ステップと、
前記関心領域内の物体を分類する分類ステップと、
前記分類された物体のうちの1以上の物体にpingを実行するためにランダムアクセスLIDARに指示する指示ステップと、
前記視覚システム及び前記LIDARからのデータを使用して、3次元上の前記プラットフォームの所在を特定する特定ステップと、
を備える、方法。
(項目2)
前記視覚システム及び前記ランダムアクセスLIDARのそれぞれが視野(FOV)を有し、
前記視覚システム及び前記ランダムアクセスLIDARは、それぞれの前記FOV間の所定の関係を確立するために較正される、項目1に記載の方法。
(項目3)
前記LIDARによって実行されるpingは、前記関心領域内の分類された物体の向きを決定するために使用される、項目1に記載の方法。
(項目4)
前記分類ステップ、前記指示ステップ、及び、前記特定ステップは、前記プラットフォームが移動している間、及び/又は、前記視覚システムの視野(FOV)が変化している間に連続的に実行される、項目1に記載の方法。
(項目5)
前記視覚システムは、前記関心領域の画像を、画像キャプチャ間に既知の間隔をもってキャプチャし、
前記方法は、さらに、
前記関心領域内で、各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点を定義する定義ステップを備える、項目4に記載の方法。
(項目6)
前記分類ステップが、少なくとも1つのスマートビジョン・アルゴリズムの使用を備える、項目1に記載の方法。
(項目7)
前記方法は、さらに、
前記関心領域内で、各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点を定義する定義ステップを備え、
前記分類ステップが、前記静的な基準点を選択するために使用される、項目6に記載の方法。
(項目8)
前記スマートビジョン・アルゴリズムのうちの少なくとも1つが機械学習アルゴリズムである、項目6に記載の方法。
(項目9)
前記LIDARがコヒーレントLIDARであり、
前記方法は、さらに、
前記コヒーレントLIDARを使用して、前記移動プラットフォームに対する前記物体の相対速度を決定する決定ステップを備える、項目1に記載の方法。
(項目10)
前記方法は、さらに、
前記関心領域内で、各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点を定義する定義ステップを備え、
前記物体の前記相対速度が、前記静的な基準点を選択するために使用される、項目9に記載の方法。
(項目11)
前記視覚システムがスペクトルの可視部分、及び/又は、熱的部分において動作する、項目1に記載の方法。
(項目12)
前記LIDARが、「10μRad~10mRad」の瞬時視野(IFOV)を有する、項目1に記載の方法。
(項目13)
前記LIDARが、「>10度」の注視野を有する、項目1に記載の方法。
(項目14)
前記LIDARが、「1μs~1ms」の再ポインティング時間を有する、項目1に記載の方法。
(項目15)
前記LIDARが回折限界ビームを生成する、項目1に記載の方法。
(項目16)
前記方法は、さらに、
前記プラットフォームの直線加速度、及び/又は、角加速度、及び/又は、直線速度、及び/又は、角速度を決定する決定ステップを備える、項目1に記載の方法。
(項目17)
前記視覚システムが、前記分類された物体のうちの1以上の物体にpingを実行するために使用される前記LIDARのポインティングを制御し、
前記方法は、さらに、
前記視覚システムによって指示された安定したポインティングを維持するために、前記LIDARに修正を適用するために前記直線加速度、及び/又は、前記角加速度、及び/又は、前記直線速度、及び/又は、前記角速度を使用する使用ステップを備える、項目16に記載の方法。
(項目18)
前記視覚システムが、前記分類された物体のうちの1以上の物体にpingを実行するために使用される前記LIDARのポインティングを制御し、
前記方法は、さらに、
前記視覚指示LIDARピンギングと並行して、追加の事前に定義されたLIDAR走査パターンを実行する実行ステップを含む、項目1に記載の方法。
(項目19)
前記事前に定義されたLIDAR走査が、前記プラットフォームの動きの方向に沿っており、バックアップ障害物回避を行うように作用する、項目18に記載の方法。
(項目20)
前記事前に定義されたLIDAR走査が、検出された物体の前記LIDARのスポット・サイズを効果的に増加させるために使用される、項目18に記載の方法。
(項目21)
移動プラットフォームの所在、及び/又は、ナビゲーション経路を決定するためのシステムであって、
関心領域を識別するように構成された移動プラットフォーム上の視覚システムと、
前記視覚システムによってキャプチャされた画像を受信し、前記関心領域内の物体を分類するように構成されたプロセッサと、
前記分類された物体のうちの1以上の物体にpingを実行するように構成されたランダムアクセスLIDARと、
を備え、
前記プロセッサが、さらに、前記視覚システム及び前記LIDARからのデータを使用して、3次元上の前記プラットフォームの所在を特定するように構成された、
システム。
(項目22)
前記システムは、さらに、前記所在を特定することが、前記プラットフォームが移動している間、及び/又は、前記視覚システムの視野(FOV)が変化している間に連続的に実行されるように構成された、項目21に記載のシステム。
(項目23)
前記視覚システムが、前記関心領域の画像を、画像キャプチャ間に既知の間隔をもってキャプチャし、
前記システムは、さらに、
前記関心領域内で、各画像キャプチャのための共通基準点として使用されるべき少なくとも3つの非共線静的点を定義するように構成された、項目22に記載のシステム。
(項目24)
前記プロセッサが、前記物体を分類するために、少なくとも1つのスマートビジョン・アルゴリズムを使用する、項目21に記載のシステム。
(項目25)
前記スマートビジョン・アルゴリズムのうちの少なくとも1つが機械学習アルゴリズムである、項目24に記載のシステム。
(項目26)
前記LIDARがコヒーレントLIDARである、項目21に記載のシステム。
(項目27)
前記視覚システムが、スペクトルの可視部分、及び/又は、熱的部分において動作するように構成された、項目21に記載のシステム。
(項目28)
前記LIDARが、「10μRad~10mRad」の瞬時視野(IFOV)を有する、項目21に記載のシステム。
(項目29)
前記LIDARが、「>10度」の注視野を有する、項目21に記載のシステム。
(項目30)
前記LIDARが、「1μs~1ms」の再ポインティング時間を有する、項目21に記載のシステム。
(項目31)
前記LIDARが、回折限界ビームを生成するように構成された、項目21に記載のシステム。
(項目32)
前記システムは、さらに、
前記プラットフォームの直線加速度、及び/又は、角加速度、及び/又は、直線速度、及び/又は、角速度を決定するように構成された慣性測定ユニット(IMU)を備える、項目21に記載のシステム。
(項目33)
前記視覚システムと前記LIDARと前記IMUとが時間同期されている、項目32に記載のシステム。
(項目34)
前記システムは、さらに、
カルマン・フィルタを備える、項目33に記載のシステム。
(項目35)
前記システムは、さらに、
前記プラットフォームの絶対世界位置を与えるように構成された全地球測位システム(GPS)ユニットを備える、項目21に記載のシステム。
【国際調査報告】