IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ズークス インコーポレイテッドの特許一覧

<>
  • 特許-センサーデータにおけるエラーの検出 図1
  • 特許-センサーデータにおけるエラーの検出 図2
  • 特許-センサーデータにおけるエラーの検出 図3
  • 特許-センサーデータにおけるエラーの検出 図4A
  • 特許-センサーデータにおけるエラーの検出 図4B
  • 特許-センサーデータにおけるエラーの検出 図5
  • 特許-センサーデータにおけるエラーの検出 図6
  • 特許-センサーデータにおけるエラーの検出 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-09-12
(45)【発行日】2022-09-21
(54)【発明の名称】センサーデータにおけるエラーの検出
(51)【国際特許分類】
   G01D 3/00 20060101AFI20220913BHJP
   G01D 21/02 20060101ALI20220913BHJP
   G08G 1/16 20060101ALI20220913BHJP
   G06T 7/00 20170101ALI20220913BHJP
   G01C 3/06 20060101ALI20220913BHJP
   G01S 7/40 20060101ALI20220913BHJP
   G01S 7/497 20060101ALI20220913BHJP
   G01S 13/931 20200101ALI20220913BHJP
   G01S 17/931 20200101ALI20220913BHJP
   B60W 40/02 20060101ALI20220913BHJP
【FI】
G01D3/00 B
G01D21/02
G08G1/16 C
G06T7/00 650B
G01C3/06 110V
G01S7/40
G01S7/497
G01S13/931
G01S17/931
B60W40/02
【請求項の数】 15
(21)【出願番号】P 2020554228
(86)(22)【出願日】2019-04-03
(65)【公表番号】
(43)【公表日】2021-10-21
(86)【国際出願番号】 US2019025497
(87)【国際公開番号】W WO2019195363
(87)【国際公開日】2019-10-10
【審査請求日】2021-04-05
(31)【優先権主張番号】15/944,240
(32)【優先日】2018-04-03
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】518156417
【氏名又は名称】ズークス インコーポレイテッド
(74)【代理人】
【識別番号】110001243
【氏名又は名称】弁理士法人谷・阿部特許事務所
(72)【発明者】
【氏名】ジェシー ソル レヴィンソン
(72)【発明者】
【氏名】ニテーシュ シュロフ
【審査官】森 雅之
(56)【参考文献】
【文献】特許第6962926(JP,B2)
【文献】特表2018-538647(JP,A)
【文献】特開2011-180873(JP,A)
【文献】特開平10-019614(JP,A)
【文献】特開2017-174414(JP,A)
【文献】米国特許出願公開第2015/0266472(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G01D
B60W
G08G
G06T
G01S
(57)【特許請求の範囲】
【請求項1】
1つまたは複数のプロセッサー(316)によって、第1のセンサー(104)から第1の信号を受信するステップであって、前記第1の信号は、環境(108)を表す第1のセンサーデータ(112)を含む、ステップと、
前記1つまたは複数のプロセッサー(316)によって、前記第1のセンサーデータ(112)に少なくとも部分的に基づいて、第1のオブジェクトのグループ(128)に関連付けられた第1のパラメーターを決定するステップと、
前記1つまたは複数のプロセッサー(316)によって、第2のセンサー(102)から第2の信号を受信するステップであって、前記第2の信号は、前記環境(108)を表す第2のセンサーデータ(110)を含む、ステップと、
前記1つまたは複数のプロセッサー(316)によって、前記第2のセンサーデータ(110)に少なくとも部分的に基づいて、第2のオブジェクトのグループ(130)に関連付けられた第2のパラメーターを決定するステップと、
前記1つまたは複数のプロセッサー(316)によって、前記第1のセンサーデータ(112)および前記第2のセンサーデータ(110)に少なくとも部分的に基づいて、第3のオブジェクトのグループ(132)に関連付けられた第3のパラメーターを決定するステップと、
前記1つまたは複数のプロセッサー(316)によって、前記第3のパラメーターと前記第1のパラメーターまたは前記第2のパラメーターを比較して、前記第3のパラメーターと前記第1のパラメーターまたは前記第2のパラメーターとの間の差異を特定するステップと、
記差特定されると、前記1つまたは複数のプロセッサー(316)によって、前記1つまたは複数のプロセッサー(316)と通信状態の機械学習システム(344)に、前記第1の信号または前記第2の信号のうちの少なくとも1つを含む信号を提供するステップであって、前記機械学習システム(344)は、前記提供された信号に基づいてセンサーモダリティのトレーニングを支援するステップと
を備えることを特徴とする方法。
【請求項2】
前記第1のセンサー(104)は、LIDARセンサー(104)を含み、
前記第1のセンサーデータ(112)は、LIDARセンサーデータ(112)を含み、
前記第1のパラメーターは、前記環境(108)におけるオブジェクト(122)の第1の分類を含み、
前記第2のセンサー(102)は、画像取り込みデバイス(102)を含み、
前記第2のセンサーデータ(110)は、画像データ(110)を含み、
前記第2のパラメーターは、前記オブジェクト(122)の第2の分類を含み、
前記第3のパラメーターは、前記オブジェクト(122)の第3の分類を含み、
前記差異は、前記第1の分類または前記第2の分類と前記第3の分類との間の差異を含む
ことを特徴とする請求項1に記載の方法。
【請求項3】
前記第1のセンサー(104)は、LIDARセンサー(104)を含み、
前記第1のセンサーデータ(112)は、LIDARセンサーデータ(112)を含み、
前記第1のパラメーターは、前記環境(108)におけるオブジェクト(122)の実在に関する第1の決定を含み、
前記第2のセンサー(102)は、画像取り込みデバイス(102)を含み、
前記第2のセンサーデータ(110)は、画像データ(110)を含み、
前記第2のパラメーターは、前記環境(108)における前記オブジェクト(122)の前記実在に関する第2の決定を含み、
前記第3のパラメーターは、前記環境(108)における前記オブジェクト(122)の前記実在に関する第3の決定を含み、
前記差異は、前記第1の決定または前記第2の決定と前記第3の決定との間の差異を含む
ことを特徴とする請求項1または2に記載の方法。
【請求項4】
期間にわたって複数の前記第1のセンサーデータ(112)を収集するステップと、
前記1つまたは複数のプロセッサー(316)によって、前記複数の前記第1のセンサーデータ(112)に基づいて第1の統計情報を決定するステップと、
前記1つまたは複数のプロセッサー(316)によって、格納された統計情報と前記第1の統計情報を比較するステップと、
前記比較することに少なくとも部分的に基づいて応答(126)を開始するステップと
をさらに備えることを特徴とする請求項1または2に記載の方法。
【請求項5】
前記第1のセンサー(104)および前記第2のセンサー(102)は、車両(302)に配置され、
前記応答(126)は、前記第1のセンサーデータ(112)の一部を無視することか、前記第2のセンサーデータ(110)の一部を無視することか、前記第1の信号に関連付けられた第1の重みを修正することか、前記第2の信号に関連付けられた第2の重みを修正することか、前記第1のセンサー(104)に関連付けられたトレーニングデータ(528)を修正することか、前記第2のセンサー(102)に関連付けられたトレーニングデータ(528)を修正することか、検証要求を生成することか、前記車両(302)に方向を変えさせることかのうちの少なくとも1つを含む
ことを特徴とする請求項4に記載の方法。
【請求項6】
前記第1のパラメーター、前記第2のパラメーター、または前記第3のパラメーターのうちの少なくとも1つは、オブジェクト(122)のロケーション、前記オブジェクト(122)の向き、オブジェクトの数、不確実性、前記オブジェクト(122)の存在の決定、または前記オブジェクト(122)の分類を含むことを特徴とする請求項4に記載の方法。
【請求項7】
第3のセンサー(106)から第3の信号を受信するステップであって、前記第3の信号は、前記環境(108)を表す第3のセンサーデータ(114)を含む、ステップと、
前記第3のセンサーデータ(114)に少なくとも部分的に基づいて、第4のオブジェクトのグループ(120)に関連付けられた第4のパラメーターを決定するステップと、
前記第4のパラメーターと前記第1のパラメーターまたは前記第2のパラメーターとの間の差異を特定するステップと
をさらに備え、
前記第1のセンサーは、画像取り込みデバイス(102)を含み、
前記第2のセンサーは、LIDARセンサー(104)を含み、
前記第3のセンサーは、RADARセンサー(106)を含む
ことを特徴とする請求項4に記載の方法。
【請求項8】
前記第1のセンサーデータ(112)は、第1の時間に前記第1のセンサー(104)によって検出され、
前記第2のセンサーデータ(110)は、前記第1の時間に前記第2のセンサー(102)によって検出され、
前記方法は、
前記第1のセンサー(104)または前記第2のセンサー(102)によって、前記第1の時間よりも後の第2の時間に収集される追加のデータに少なくとも部分的に基づいて前記差異を特定するステップをさらに備える
ことを特徴とする請求項1または2に記載の方法。
【請求項9】
前記差異を特定するステップは、オブジェクト(122)が、前記第1のオブジェクトのグループ(128)または前記第2のオブジェクトのグループ(130)のうちの少なくとも1つにない、または誤分類されていると決定するステップを含むことを特徴とする請求項1または2に記載の方法。
【請求項10】
前記第1のオブジェクトのグループ(128)および前記第2のオブジェクトのグループ(130)は、共通のオブジェクト(122)を含み、
前記第1のパラメーターは、前記共通のオブジェクト(122)の第1のロケーションを含み、
前記第2のパラメーターは、前記共通のオブジェクト(122)の第2のロケーションを含み、
前記差異は、前記第1のロケーションと前記第2のロケーションとの間の差異を含む
ことを特徴とする請求項1または2に記載の方法。
【請求項11】
前記第1のパラメーターを決定するステップは、第1の機械学習されたモデルを使用して前記第1のパラメーターを決定するステップを含み、前記第2のパラメーターを決定するステップは、第2の機械学習されたモデルを使用して前記第2のパラメーターを決定するステップを含み、前記機械学習システム(344)は、前記第1の機械学習されたモデルまたは前記第2の機械学習されたモデルを含み、
前記方法は、
前記差異を特定することに少なくとも部分的に基づいて、前記機械学習システム(344)をトレーニングするステップをさらに備え、前記機械学習システム(344)をトレーニングするステップは、グランドトゥルースとして前記第1のセンサーデータ(112)、前記第2のセンサーデータ(110)、または前記第3のオブジェクトのグループ(132)のうちの少なくとも1つを使用して、前記第1の機械学習されたモデルまたは前記第2の機械学習されたモデルをトレーニングするステップをさらに備える
ことを特徴とする請求項10に記載の方法。
【請求項12】
前記第1のパラメーターは、第1の信頼レベルに関連付けられ、
前記第2のパラメーターは、第2の信頼レベルに関連付けられ、
前記応答(126)は、前記第1の信頼レベルまたは前記第2の信頼レベルを修正することを含む
ことを特徴とする請求項に記載の方法。
【請求項13】
1つまたは複数のプロセッサー(316)によって実行されると、前記1つまたは複数のプロセッサー(316)に、請求項1または2のいずれか一項に記載の前記方法を行わせる命令を有することを特徴とする1つまたは複数のコンピューター読み取り可能な記録媒体(318)。
【請求項14】
1つまたは複数のプロセッサー(316)と、
前記1つまたは複数のプロセッサー(316)によって実行されると、前記1つまたは複数のプロセッサー(316)に、
第1のセンサー(104)から第1の信号を受信させ、前記第1の信号は、環境(108)を表す第1のセンサーデータ(112)を含み、
前記第1のセンサーデータ(112)に少なくとも部分的に基づいて、第1のオブジェクトのグループ(128)に関連付けられた第1のパラメーターを決定させ、
第2のセンサー(102)から第2の信号を受信させ、前記第2の信号は、前記環境(108)を表す第2のセンサーデータ(110)を含み、
前記第2のセンサーデータ(110)に少なくとも部分的に基づいて、第2のオブジェクトのグループ(130)に関連付けられた第2のパラメーターを決定させ、
前記第1のセンサーデータ(112)および前記第2のセンサーデータ(110)に少なくとも部分的に基づいて、第3のオブジェクトのグループ(132)に関連付けられた第3のパラメーターを決定させ、
前記第3のパラメーターと前記第1のパラメーターまたは前記第2のパラメーターとの間の差異を特定させ、
記差特定されると、前記1つまたは複数のプロセッサー(316)と通信状態の機械学習システム(344)に、前記第1の信号または前記第2の信号のうちの少なくとも1つを含む信号を提供させ、前記機械学習システム(344)は、前記提供された信号に基づいてセンサーモダリティのトレーニングを支援
納されたコンピューター実行可能な命令を有する1つまたは複数のコンピューター読み取り可能な記録媒体(318)と
を備えたことを特徴とするシステム(116)。
【請求項15】
前記第1のセンサーは、車両(302)に配置された画像取り込みデバイス(102)を含み、
前記第2のセンサーは、前記車両(302)に配置されたLIDARセンサー(104)を含み、
前記コンピューター実行可能な命令は、前記1つまたは複数のプロセッサー(316)によって実行されると、前記1つまたは複数のプロセッサー(316)に、さらに、
前記車両(302)に配置された第3のセンサー(106)から第3の信号を受信させ、前記第3のセンサー(106)は、RADARセンサー(106)を含み、前記第3の信号は、前記環境(108)を表す第3のセンサーデータ(114)を含み、
前記第3のセンサーデータ(114)に少なくとも部分的に基づいて、第4のオブジェクトのグループ(120)に関連付けられた第4のパラメーターを決定させ、前記差異を特定することは、前記第3のパラメーターと、前記第1のパラメーター、前記第2のパラメーター、または前記第4のパラメーターとの間の差異を特定すること含む
ことを特徴とする請求項14に記載のシステム(116)。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、センサーデータに関し、より詳細には、センサーデータにおけるエラーの検出に関する。
【背景技術】
【0002】
本特許出願は、「センサーデータにおけるエラーの検出」と題され、2018年4月3日に提出の米国特許出願第15/944,240号の利益および優先権を主張し、全体が参照により本明細書に組み入れられる。
【0003】
センサーは、環境中のオブジェクトを示すセンサーデータを生成するために使用され得る。例えば、複数のセンサーは、センサーデータを、機械の自律動作を容易にするように構成された認知システム(perception system)に提供し得る。認知システムは、環境中に存在するオブジェクトのグループ(group of object)を、センサーデータに基づいて特定し得る。しかしながら、環境条件、損傷、誤校正(miscalibration)、および他の要因は、1つまたは複数の上記のセンサーの有効性を妨げることが可能である。追加として、特定のセンサーモダリティ(sensor modality)に対する不適当なトレーニングデータは、環境中に配置されたオブジェクトを検出するセンサーモダリティの失敗に帰着し得る。特に、今述べた状況は、例えば、運転者なしに動作する自律車両が、適切な動作のためにセンサーによって生成されるデータに少なくとも部分的に頼るときに問題があり得る。1つまたは複数のセンサーが、認知システムによって特定されるオブジェクトのグループと異なる、および/またはそうでなければ一致しないセンサーデータを供給するならば、自律車両は、通過して進んでいる環境に関係のある不正確な情報に基づいて行動を起こし得る。今述べたことは、上記の車両または機械の動作を妨げることがある。
【0004】
詳細な説明は、添付の図面を参照して説明される。図面において、参照符号の最も左の数字(複数可)は、参照符号が最初に現れる図面を特定する。異なる図面における同一の参照符号は、同様のまたは同じアイテムを示す。
【図面の簡単な説明】
【0005】
図1】環境中のオブジェクトまたはオブジェクトのグループを特定し、1つまたは複数のセンサーモダリティから受信したデータが、オブジェクトまたはオブジェクトのグループに関連付けられたエラーを含むと決定するための例示的な処理を例示する絵のフロー図である。例えば、上記の処理は、オブジェクトが、個々のセンサーによって生成されたデータに関連付けられたオブジェクトのグループにない、または誤分類されていると決定することを含むことがある。
図2】例示的な車両が通過して進んでいてセンサーデータを取り込んでいる例示的な環境を例示する。
図3】オブジェクトを特定し反応を開始するための例示的なシステムを例示する。
図4A】複数のセンサータイプを有する例示的な車両の側面図を例示する。
図4B図4Aに示す例示的な車両の上面図を例示する。
図5】環境中のオブジェクトまたはオブジェクトのグループを特定し、1つまたは複数のセンサーモダリティから受信したデータが、オブジェクトまたはオブジェクトのグループに関連付けられたエラーを含むと決定するための別の例示的な処理を例示する絵のフロー図である。上記の例示的な処理は、オブジェクトが、個々のセンサーによって生成されたデータに関連付けられたオブジェクトのグループにない、または誤分類されていると決定することを含むことがある。
図6】環境中の検出可能なオブジェクトを特定し反応を開始するための例示的な処理を例示するフローチャートである。
図7】環境中の検出可能なオブジェクトを特定し反応を開始するための別の例示的な処理を例示するフローチャートである。
【発明を実施するための形態】
【0006】
上に述べたように、自律車両および他の機械は、自律車両または機械の周囲の環境において、オブジェクトを検出する認知システムに入力を提供する複数のセンサーに頼る。環境中のオブジェクトを検出する1つまたは複数のセンサーの故障は、上記の車両または機械の動作を妨げ、もしかすると安全ではない動作状態を引き起こし得る。しかしながら、個々のセンサーモダリティのセンサーデータが適切に動作していないこと、またはセンサーモダリティから出力されるデータが異常であることは、すぐに明らかにならないことがある。
【0007】
本出願は、個々のセンサーモダリティ(たとえば、画像データ、LIDAR(light detection and ranging)センサーデータ、RADAR(light detection and ranging)データ、SONAR(sound navigation and ranging)データなど)によって生成されたデータを使用して、それぞれのオブジェクトのグループを特定することによって個々のセンサーモダリティに関連付けられたエラーを特定し、それぞれのオブジェクトのグループ(たとえば、処理されたセンサーデータ)を、認知システムの出力と比較することに対する技法を説明する。認知システムの出力は、複数のセンサーからの融合データを含むことがあり、上記の融合データは、環境中に存在しているとして、認知システムによって予測されるオブジェクトのグループを包含するおよび/または含むことがある。上記の比較を使用して、誤動作している、修理の必要がある、および/または校正の必要があるセンサーを特定し得る。追加として、いくつかの例において、認知システムによって生成された融合センサーデータ(fused sensor data)は、個々のセンサーモダリティの性能をさらに改善するために、例えば、機械学習モジュールにより、個々のセンサーモダリティをトレーニングすると、グランドトゥルースとして使用され得る。
【0008】
例示的な実施態様において、本開示の1つまたは複数のシステムは、車両、例えば、自律車両などに配置され、1つまたは複数のプロセッサーおよび/またはリモートコンピューティングデバイスに動作可能に連結された複数のセンサーを含むことがある。1つまたは複数のプロセッサーは、第1の信号を、車両に配置された第1のセンサーから受信し得る。第1のセンサーは、画像取り込みデバイスを含むことがあり、第1の信号は、第1のシーンであり得る、画像取り込みデバイスによって取り込まれるシーン(すなわち、例えば、視野によって決定され得るような、画像センサーに見える環境の一部)を表す画像データを含むことがある。例えば、上記の画像データは、第1のセンサーおよび/または車両が存在する環境において、検出可能な第1のオブジェクトのグループを例示するおよび/または含むことを示し得る。例えば、上記の画像データは、画像取り込みデバイスによって取り込まれ、環境を示す複数の画像を含むことがある。上記の各画像は、環境において、画像取り込みデバイスによって検出可能なそれぞれのオブジェクトのグループを含むことがある。上記の例において、1つまたは複数のプロセッサーは、第1のセンサーから受信される各信号を分析して、各信号に含まれる画像データによって示されるそれぞれのオブジェクトのグループを特定し得る。
【0009】
さらに、システムは、車両上に配置される第2のセンサーを含むこともあり、第2のセンサーは、LIDARセンサーを含むことがある。1つまたは複数のプロセッサーは、第2の信号をLIDARセンサーから受信するように構成されることがあり、第2の信号は、LIDARセンサーデータを含むことがある。上記のLIDARセンサーデータは、上に説明した画像データと同時に取り込まれ得る。上記の例において、LIDARセンサーデータは、上に説明した画像データと同時に、LIDARセンサーによって取り込まれるそれぞれの第2のシーン(すなわち、LIDARセンサーに見える環境の一部)を表し得る。例えば、上記のLIDARセンサーデータは、環境内の検出可能な第2のオブジェクトのグループを含む、LIDARセンサーによって取り込まれる第2のシーンを示し得る。上記の例において、1つまたは複数のプロセッサーは、LIDARセンサーから受信される各信号を分析して、各信号に含まれるLIDARセンサーデータによって示されるそれぞれのオブジェクトのグループを特定し得る。LIDARセンサーデータの正確度および/または忠実度に従う、例えば、第2のオブジェクトのグループに含まれるオブジェクトは、画像取り込みデバイスによって検出可能な第1のオブジェクトのグループに含まれるオブジェクトと同一であることがあり、少なくとも第1のオブジェクトのグループの一部と第2のオブジェクトのグループの一部とは、画像およびLIDARセンサーにおいて同時に共に見えることがいえる。
【0010】
さらに、例示的なシステムは、車両上に配置され、車両の環境中のオブジェクトを検出するように構成された1つまたは複数の追加のセンサー(たとえば、RADARセンサー、SONARセンサー、デプスセンシング(depth sensing)カメラ、タイムオブフライト(time of flight)センサーなど)を含むこともある。1つまたは複数の追加のセンサーは、1つまたは複数のそれぞれの信号を、1つまたは複数のプロセッサーに出力し得る。例えば、1つまたは複数のプロセッサーは、追加のセンサーのうちの少なくとも1つから第3の信号を受信することがあり、第3の信号は、追加のセンサーのうちの少なくとも1つからのセンサーデータを含むことがある。上記のセンサーデータは、上に説明した画像データおよび/またはLIDARセンサーデータと同時に取り込まれ得る。上記の例において、センサーデータは、上に説明した画像データおよび/またはLIDARセンサーデータと同時に、追加のセンサーによって取り込まれるそれぞれの第3のシーン(すなわち、追加のセンサーに見える環境の一部)を表し得る。上記の第3のシーンは、例えば、画像取り込みデバイスおよび/またはLIDARセンサーによって取り込まれる実質的に同一のオブジェクトを含むことがある。例えば、上記のセンサーデータは、環境内の検出可能な第3のオブジェクトのグループを含む、追加のセンサーによって取り込まれる第3のシーンを示し得る。上記の例において、1つまたは複数のプロセッサーは、追加のセンサーから受信される各信号を分析して、各信号に含まれるセンサーデータによって示されるそれぞれのオブジェクトのグループを特定し得る。追加のセンサーから受信されるセンサーデータの正確度および/または忠実度に従う、第3のオブジェクトのグループに含まれる少なくともいくつかのオブジェクトは、画像取り込みデバイスによって検出可能な第1のオブジェクトのグループに含まれる少なくともいくつかのオブジェクトと同一、および/またはLIDARセンサーによって検出可能な第2のオブジェクトのグループに含まれる少なくともいくつかのオブジェクトと同一であり得る。以下に、より詳細に説明するように、本開示の1つまたは複数の例示的なシーン、例えば、それぞれ、画像取り込みデバイス、LIDARセンサー、および追加のセンサーに関して上に説明した第1、第2、および/または第3のシーンなどは、それぞれのセンサーが位置される環境の実質的に同時の表現を含むことがある。したがって、本開示の1つまたは複数の例示的なシーンは、それぞれのセンサーによって検出される、取り込まれる、感知される、および/またはそうでなければ観測されるような環境の表現を含むことがある。
【0011】
本明細書に説明される例のどれにおいても、1つまたは複数のプロセッサー、および/または1つまたは複数のリモートコンピューティングデバイスは、上に説明した種々のセンサーから受信される1つまたは複数の信号に少なくとも部分的に基づいて、さらなるオブジェクトのグループを特定する、および/または決定することがある。例えば、1つまたは複数のデータ融合処理を通じて、本開示の認知システムは、環境を表す融合センサーデータを生成し得る。例えば、上記の融合センサーデータは、個々のセンサーモダリティから受信されるセンサーデータに少なくとも部分的に基づいて、環境内に存在するとして、認知システムによって予測される、決定される、および/またはそうでなければ示される1つまたは複数のオブジェクトに関する特定のグループを含む、および/または特定し得る。本開示の1つまたは複数のプロセッサーおよび/またはリモートコンピューティングデバイスは、少なくとも、オブジェクトのグループが、複数のソースからの情報を使用して決定され、結果として個々の各センサーモダリティと比較して正確度が相対的に高い可能性を有するので、オブジェクト認識(object recognition)をトレーニングするために、および/または個々のセンサーモダリティの分類処理のために、融合センサーデータをグランドトゥルースとして扱うことがある。
【0012】
いくつかの例において、1つまたは複数のプロセッサーおよび/またはリモートコンピューティングデバイスは、それぞれのセンサーモダリティから受信される信号の各々に含まれるおよび/または関連付けられた情報を、融合センサーデータと(たとえば、融合センサーデータに含まれる特定のオブジェクトのグループと)比較して、それぞれのセンサー信号によって示されるオブジェクトのグループおいて認知されるどんなエラーでも特定し得る。例えば、1つまたは複数のプロセッサーおよび/またはリモートコンピューティングデバイスは、各センサーモダリティの出力を、特定のオブジェクトおよび/または特定のロケーションと相関させ得る。上記のデータの関連付けおよび/またはオブジェクトの特徴付けの技法を使用して、本明細書に説明される各々のセンサーの出力は、比較されることが可能である。上記の比較を通じて、1つまたは複数のプロセッサーおよび/またはリモートコンピューティングデバイスは、融合センサーデータに含まれるが、それぞれのセンサー信号に関連付けられたオブジェクトのグループのうちの少なくとも1つにない、または誤分類されている1つまたは複数のオブジェクトを特定し得る。他の例において、それぞれのセンサー信号における追加のおよび/または異なるエラーは、識別されることがあり、上記の追加のおよび/または異なるエラーは、特に、体勢の違い、体勢の不確実性の違い、オブジェクトの大きさの違い、オブジェクトのロケーションの違い、オブジェクトの範囲(object extent)の違いなどを含むことがある。上記の例において、それぞれのセンサー信号の1つまたは複数に含まれるデータに関連付けられたエラーを特定する、および/またはそうでなければ決定すると(たとえば、融合センサーデータに含まれる特定のオブジェクトが、それぞれのセンサー信号に示されるオブジェクトのグループの少なくとも1つにない、または誤分類されていると決定すると)、本開示のレスポンスシステム(response system)は、今述べたエラーを訂正する、および/または車両の動作の間じゅう、上記のエラーの影響を軽減するように意図される応答を開始し得る。上記の例示的な応答は、本明細書に説明される処理が、車両の動作の間じゅう行われる実施態様において、および/または上記の処理が、オフラインで(たとえば、トレーニング、プログラミング、および/または機械学習訓練の間じゅう)行われる実施態様において開始され得る。追加としてまたは代替として、本明細書に説明される例のどれにおいても、上に説明した種々のセンサーから受信される1つまたは複数の信号は、および/または本明細書に説明されるオブジェクトのグループのどれでも、本開示の機械学習システムに供給され得る。上記の情報を機械学習システムに供給することは、上記のシステムによって利用されるトレーニングデータの正確度を改善するのを支援し、それによって、一般に、システムの性能および/または車両の動作をさらに強化し得る。上記の情報は、本明細書に説明される処理が、車両の動作の間じゅう行われる実施態様において、および/または上記の処理が、オフラインで(たとえば、トレーニング、プログラミング、および/または機械学習訓練の間じゅう)行われる実施態様において機械学習システムに供給され得る。
【0013】
本明細書に説明される技法およびシステムは、多くのやり方において実装され得る。例示的な実装は、図面を参照して以下に提供される。
【0014】
図1は、個々のセンサーデータを融合センサーデータと比較し、それぞれのセンサー信号の1つまたは複数に含まれるデータに関連付けられたエラーを決定すること(たとえば、融合センサーデータに含まれる少なくとも1つのオブジェクトが、個々のセンサーから受信されるデータに少なくとも部分的に基づいて決定されるオブジェクトのグループにない、または誤分類されていると決定すること)に少なくとも部分的に基づいて応答を開始するための例示的な処理に関する絵のフロー図100である。図1に示すように、例示的なセンサーは、画像取り込みデバイス102、LIDARセンサー104、および/または環境108を示す信号を生成するように構成されたセンサーのいずれかのタイプであり得る1つもしくは複数の他のセンサー106を含むことがある。例えば、上記の環境108は、1つまたは複数のオブジェクトを含むことがあり、例えば、上記のセンサー106は、RADARセンサー、例えばSONARセンサーなどの超音波トランスデューサー、タイムオブフライトセンサーを、他のセンサーも同様に含むことがある。画像取り込みデバイス102、LIDARセンサー104、およびセンサー106は、車両に接続されることがあり、車両が、環境108を通過して進んでいる間、センサーデータを取り込むことがある。例えば、車両は、少なくとも図2に関して本明細書に説明される例示的な車両などのような、自律車両であり得る。画像取り込みデバイス102は、たとえば、1つまたは複数のカメラ(たとえば、RGBカメラ、モノクロカメラ、強度(グレースケール)カメラ、赤外線カメラ、紫外線カメラ、深度カメラ、ステレオカメラ等)などのような、環境108を表す画像を取り込むように構成された画像取り込みデバイスのどんな種類でもあり得る。LIDARセンサー104は、どんなタイプのLIDARセンサーでもあることがあり、いくつかの例は、単一のタイプのセンサーのみ、または環境を表すデータを生成するように構成された異なるタイプのセンサーのどんな組み合わせでも含むことがある。さらに、例示的な目的のために単一のセンサーとして描くが、どんな個数の画像取り込みデバイス(複数可)102、LIDARセンサー(複数可)104、および/または他のセンサー106(複数可)でも予想される。
【0015】
図1に示される例において、画像取り込みデバイス102は、画像データ110を取り込んでいるとして描かれる。上記の画像データ110は、画像取り込みデバイスによって、1つまたは複数の信号のかたちにおいて、本開示の1つまたは複数のプロセッサーおよび/または他のシステムコンポーネントに提供され得る。例えば、上記の信号は、環境108を表す画像データ110を含むことがある。例えば、画像データ110は、環境108を例示する、示す、および/またはそうでなければ表す1つまたは複数の画像を含むことがある。いくつかの例において、画像データ110は、画像取り込みデバイス102によって取り込まれた1つまたは複数の画像を含むことがあり、画像データ110は、特定の時間に、画像取り込みデバイス102によって検出された環境108に関して対応するオブジェクトのグループを含むシーンAを例示する、示す、および/またはそうでなければ表すことがある。以下に説明するように、いくつかの例において、画像データ110は、他のセンサー(たとえば、LIDARセンサー104、追加のセンサー106など)から受信された追加のセンサーデータに融合されて、環境108に関して、より完全なまたは正確な表現を生成し得る。
【0016】
図1に示される例示的なLIDARセンサー104は、LIDARセンサーデータ112を取り込んでいるとして描かれる。上記のLIDARセンサーデータ112は、LIDARセンサー104によって、1つまたは複数の信号のかたちにおいて、本開示の1つまたは複数のプロセッサーおよび/または他のシステムコンポーネントに提供され得る。例えば、上記の信号は、環境108を表すLIDARセンサーデータ112を含むことがある。LIDARセンサーデータ112は、特定の時間に、LIDARセンサー104によって検出されるようなそれぞれのオブジェクトのグループを含むシーンBを例示する、示す、および/またはそうでなければ表し得る。LIDARセンサーデータ112が画像データ110と同時に取り込まれる例において、シーンBに含まれるおよび/または表されるオブジェクトのグループは、画像取り込みデバイスに関連付けられたシーンAに含まれるオブジェクトのグループと実質的に同一であり得る。上記の例において、LIDARセンサー104の各データ取得は、それぞれのシーンを表すLIDARセンサーデータ112に帰着し得る。
【0017】
いくつかの例において、LIDARセンサーデータ112は、時が経つにつれ、LIDARセンサー104の複数のデータ取得に対応することがあり、LIDARセンサーデータ112は、他のセンサーからのデータ(たとえば、画像データ110、センサーデータ114など)に融合されて、環境108に関して、より完全なまたは正確な表現を生成し得る。LIDARセンサー104は、1つまたは複数のレーザーが、(たとえば、実質的に垂直な軸の周りを)回転するように取り付けられ、それによって、たとえば、環境108に関連付けられたLIDARセンサーデータ112を取り込むように、レーザーに、360度のスウィープをさせるように構成されることがある。例えば、LIDARセンサー104は、光エミッターおよび光センサーを有し、光エミッターが、レンジが予想されることを決定するどんな他の発光および光検出でも(たとえば、フラッシュLIDAR、MEMS LIDAR、ソリッドステートLIDARなど)通じて、光を光センサーに反射するオブジェクトまたは表面に、高度に集束された光を向ける1つまたは複数のレーザーを含むことがある。LIDARセンサー104の測定値は、LIDARセンサー104によって取り込まれた位置または距離に対応する座標(たとえば、デカルト座標、極座標など)を有する3次元のLIDARセンサーデータとして表され得る。例えば、3次元のLIDARセンサーデータは、3次元の地図またはポイントクラウドを含むことがあり、光エミッターから出て、オブジェクトまたは表面で終わる複数のベクトルとして表され得る。いくつかの例において、変換の動作を使用して、3次元のLIDARセンサーデータを、マルチチャネルの2次元データに変換し得る。いくつかの例において、LIDARセンサーデータ112は、自動的に分割されることがあり、例えば、分割されたLIDARセンサーデータは、自律車両に対して軌跡を決定するための入力として使用され得る。
【0018】
図1に示される例示的なセンサー106は、センサーデータ114を取り込むように構成され得る。上記のセンサーデータ114は、センサー106によって、1つまたは複数の信号のかたちにおいて、本開示の1つまたは複数のプロセッサーおよび/または他のシステムコンポーネントに提供され得る。例えば、上記の信号は、環境108を表すセンサーデータ114を含むことがある。センサーデータ114は、特定の時間に、センサー106によって検出されるようなそれぞれのオブジェクトのグループを含むシーンCを例示する、示す、および/またはそうでなければ表し得る。センサーデータ114が画像データ110と同時に取り込まれる例において、シーンCに含まれるおよび/または表されるオブジェクトのグループは、画像取り込みデバイスに関連付けられたシーンAに含まれるオブジェクトのグループと実質的に同一であり得る。同様に、センサーデータ114が、LIDARセンサーデータ112と同時に取り込まれる例において、シーンCに含まれるオブジェクトのグループは、シーンBに含まれるオブジェクトのグループと実質的に同一であり得る。いくつかの例において、センサーデータ114は、他のセンサー(たとえば、LIDARセンサー104、画像取り込みデバイス102など)から受信される追加のセンサーデータに融合されて、環境108に関して、より完全なまたは正確な表現を生成し得る。
【0019】
いくつかの例において、画像取り込みデバイス102、LIDARセンサー104、および/またはセンサー106は、環境108に関して異なる視野を取り込むことがある。結果として、各シーンA、B、Cは、それぞれのセンサーによって感知される、環境108のそれぞれのオブジェクトのグループを含むことがある。例えば、画像取り込みデバイス102によって生成される信号は、第1のシーンAを表す画像データ110を含むことがあり、図1に示すように、第1のシーンAは、特定の時間において、画像取り込みデバイス102によって検出される、対応する第1のオブジェクトのグループ128を例示するおよび/またはそうでなければ含むことがある。同様に、LIDARセンサー104によって生成される信号は、第2のシーンBを表すLIDARセンサーデータ112を含むことがあり、第2のシーンBは、特定の時間において、LIDARセンサー104によって検出される、対応する第2のオブジェクトのグループ130を含むことがある。同じように、センサー106によって生成される信号は、第3のシーンCを表すセンサーデータ114を含むことがあり、第3のシーンCは、特定の時間において、センサー106によって検出される、対応する第3のオブジェクトのグループ132を含むことがある。上述のように、本明細書に説明される例のどれにおいても、画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114は、それぞれのセンサー102、104、106によって、実質的に同時に取り込まれ得る。上記の例において、実質的に同時に、シーンA、B、Cは、環境108の表現を含むことがある。追加として上記の例において、第1のオブジェクトのグループ128は、第2および第3のオブジェクトのグループ130、132と実質的に同一のオブジェクトを含むことがある。同じように、第2のオブジェクトのグループ130は、第1および第3のオブジェクトのグループ128、132と実質的に同一のオブジェクトを含むことがある。同様に、第3のオブジェクトのグループ132は、第1および第2のオブジェクトのグループ128、130と実質的に同一のオブジェクトを含むことがある。
【0020】
図1に示すように、例示的な処理100は、画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114を、上記のデータに少なくとも部分的に基づいて環境108に存在する1つまたは複数のオブジェクトおよび/または1つまたは複数のオブジェクトのグループを特定するように構成された1つまたは複数のプロセッサーに、伝達することを含むことがある。いくつかの例において、1つまたは複数のプロセッサーは、認知システム116を含むことがあり、および/または認知システム116と通信状態であり得る。1つまたは複数のプロセッサーおよび/または認知システム116は、画像取り込みデバイス102、LIDARセンサー104、および/またはセンサー106から、それぞれの信号を受信するように構成され得る。さらに、1つまたは複数のプロセッサーおよび/または認知システム116は、画像データ110、LIDARセンサーデータ112、およびセンサーデータ114に少なくとも部分的に基づいて、それぞれ、オブジェクトのグループ128、130、132を特定するように構成されることもある。
【0021】
さらに、1つまたは複数のプロセッサーおよび/または認知システム116は、画像データ110、LIDARセンサーデータ112、およびセンサーデータ114に少なくとも部分的に基づいて、融合センサーデータ134を生成するように構成され得る。上記の融合センサーデータ134は、画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114に関連付けられた特定の時間において、環境108内に存在するとして、認知システム116によって予測される、決定される、および/または示されるオブジェクトのグループ120を包含するおよび/または含むことがある。例示的なオブジェクトのグループ120は、融合センサーデータ134および/または認知システム116のどんな他の出力にでも含まれることがあり、環境108内に存在するとして、認知システム116によって決定される1つまたは複数のオブジェクト122を含むおよび/または特定することがある。いくつかの例において、認知システム116は、1つまたは複数のそれぞれのセンサー信号に含まれるデータに関連付けられたエラーを決定し得る。例えば、認知システム116は、融合センサーデータ134に含まれる(たとえば、特定のオブジェクトのグループ120に含まれる)オブジェクト122が、画像データ110に関連付けられた(たとえば、に基づいて決定される)オブジェクトのグループ128、LIDARセンサーデータ112に関連付けられた(たとえば、に基づいて決定される)オブジェクトのグループ130、および/またはセンサーデータ114に関連付けられた(たとえば、に基づいて決定される)オブジェクトのグループ132にないか、または誤分類されているかどうかを決定し得る。追加としてまたは代替として、本明細書に説明される例のどれにおいても、認知システム116は、上記のその他のエラーのどれでも決定し得る。例えば、さらに、認知システム116によって決定される上記のエラーは、特に、体勢の違い、体勢の不確実性の違い、オブジェクトの大きさの違い、オブジェクトのロケーションの違い、オブジェクトの範囲の違いなどを含むこともある。依然としてさらなる例において、認知システム116は、画像データ110においてエラーまたは他の不一致を特定するおよび/またはそうでなければ決定するために、画像データ110を、LIDARセンサーデータ112と、および/またはセンサーデータ114と比較し得る。追加としてまたは代替として、認知システム116は、LIDARセンサーデータ112においてエラーまたは他の不一致を特定するおよび/またはそうでなければ決定するために、LIDARセンサーデータ112を、画像データ110と、および/またはセンサーデータ114と比較し得る。さらに、認知システム116は、センサーデータ114においてエラーまたは他の不一致を特定するおよび/またはそうでなければ決定するために、センサーデータ114を、画像データ110と、および/またはLIDARセンサーデータ112と比較し得る。
【0022】
いくつかの実施態様において、認知システム116は、1つまたは複数のアルゴリズム、ニューラルネットワーク、および/または他のコンポーネントを利用して、オブジェクトのグループ120に含まれる各オブジェクト、および/または各オブジェクトのパラメーター(たとえば、各パラメーターに関連付けられた範囲、大きさ、向きなど、および/または不確実性)を特定し得る。例えば、認知システム116は、1つまたは複数のデータ関連付けエンジン、オブジェクト認識エンジン、オブジェクト分類エンジン、および/または他のコンポーネントを使用して、本明細書に説明される個々のセンサーモダリティの出力を、特定のオブジェクトに相関させ、それによって、オブジェクトまたはオブジェクトのグループを特定し得る。追加として、認知システム116に関連付けられたオブジェクト検出システム118は、対応する時間において、環境108内の各それぞれの特定されたオブジェクトに関して特定のロケーションを検出する、および/またはそうでなければ決定することがある。例えば、オブジェクト検出システム118は、オブジェクトのグループ120に含まれるオブジェクト122の特定のロケーションLを、オブジェクト122がロケーションLに配置される/配置された特定の時間も同様に、決定し得る。上記のロケーションLは、オブジェクト122の位置を特定する座標(たとえば、デカルト座標、極座標、GPSなど)を有し得る。いくつかの例において、オブジェクトのグループ128を示す画像データ110は、第1の時間に画像取り込みデバイス102によって決定され得る。追加として、オブジェクトのグループ130を示すLIDARセンサーデータ112は、画像データ110とともに同時に(たとえば、第1の時間に)LIDARセンサー104によって決定され得る。上記の例において、オブジェクト検出システム118は、オブジェクト122を特定することがあり、第1の時間に対応するオブジェクト122の特定のロケーションLを決定し得る。
【0023】
いくつかの例において、さらに、認知システム116は、レスポンスシステム124と通信状態であることもあり、いくつかの上記の例において、認知システム116が、オブジェクトのグループ120を含む融合センサーデータ134を生成すると、オブジェクトのグループ120を示す1つまたは複数の信号は、認知システム116によってレスポンスシステム124に伝達され得る。レスポンスシステム124は、融合センサーデータ134、オブジェクトのグループ120、および/または特定されたオブジェクト122を示す1つまたは複数の信号に少なくとも部分的に基づいて、応答を開始する、および/またはどんな他の作動126でも開始するように構成され得る。例えば、図1に示すように、レスポンスシステム124は、認知システム116が、1つまたは複数の決定されたオブジェクトのグループ128、130、132に関連付けられた、および/または画像データ110、LIDARセンサーデータ112、もしくはセンサーデータ114のうちの少なくとも1つに関連付けられた1つまたは複数のエラーを特定する影響を軽減するように意図される作動126を伝達するように構成され得る。例えば、上記の作動126は、融合センサーデータ134に含まれるが、オブジェクトのグループ128、130、132の1つまたは複数にない、または誤分類されているオブジェクト122を特定する認知システム116に関する影響を軽減し得る。追加としてまたは代替として、少なくとも図5に関して、以下に説明するように、さらに認知システム116は、機械学習システムと通信状態であることもあり、いくつかの上記の例において、認知システム116が、1つまたは複数の決定されたオブジェクトのグループ128、130、132に関連付けられた、および/または画像データ110、LIDARセンサーデータ112、もしくはセンサーデータ114のうちの少なくとも1つに関連付けられた1つまたは複数のエラーを特定すると、認知システム116は、エラーを示す1つまたは複数の信号を、機械学習システムに提供し得る。例えば、上記の実施態様において、認知システム116は、1つまたは複数の決定されたオブジェクトのグループ128、130、132を示す、および/または画像データ110、LIDARセンサーデータ112、もしくはセンサーデータ114のうちの少なくとも1つを含む信号を、機械学習システムに提供し得る。機械学習システムは、上記の信号に含まれる情報を使用して、決定されたエラーに対応するセンサーモダリティをトレーニングするのを支援し得る。
【0024】
上述のように、画像取り込みデバイス102、LIDARセンサー104、およびセンサー106の各々は、それぞれの信号を生成することがあり、上記の信号を、認知システム116に提供し得る。いくつかの例において、上記の信号は、画像取り込みデバイス102、LIDARセンサー104、および/またはセンサー106よって、実質的に連続して生成され得る。他の例において、上記の信号は、画像取り込みデバイス102、LIDARセンサー104、および/またはセンサー106よって、規則的なまたは不規則的な時間間隔にて生成され得る。
【0025】
さらに上記されるように、画像取り込みデバイス102によって生成される第1の信号は、環境108を示すシーンAを表す画像データ110を含むことがある。第1の信号に含まれるシーンAおよび/または画像データ110は、画像取り込みデバイス102が存在する環境108において検出される(たとえば、認知システム116が第1の信号を処理して決定し得る)第1のオブジェクトのグループ128を含む、および/または示すことがある。同様に、LIDARセンサー104によって生成される第2の信号は、環境108を示すシーンBを表す画像データ110を含むことがある。第2の信号に含まれるシーンBおよび/またはLIDARセンサーデータ112は、環境108において検出される(たとえば、認知システム116が第2の信号を処理して決定し得る)第2のオブジェクトのグループ130を含む、および/または示すことがある。同じように、追加のセンサー106によって生成される第3の信号は、環境108を示すシーンCを表すセンサーデータ114を含むことがある。第3の信号に含まれるシーンCおよび/またはセンサーデータ114は、環境108において検出される(たとえば、認知システム116が第3の信号を処理して決定し得る)第3のオブジェクトのグループ132を含む、および/または示すことがある。上記の例において、さらに、認知システム116は、本明細書に説明される1つまたは複数の例示的な融合技法を使用して、第1の信号、第2の信号、および/または第3の信号に基づいて、融合センサーデータ134を生成することもある。さらに、認知システム116、オブジェクトのグループ120を決定する、および/または1つまたは複数の受信信号に含まれる画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114に少なくとも部分的に基づいて、環境108に存在する1つまたは複数の特定のオブジェクト122を特定することもある。さらに、認知システム116は、少なくとも1つのオブジェクト122が、融合センサーデータ134に含まれ、第1のオブジェクトのグループ128、第2のオブジェクトのグループ130、または第3のオブジェクトのグループ132のうちの少なくとも1つにない、または誤分類されていると決定することもある。上記の決定は、次々に、上記の不一致を訂正するために、応答を開始するおよび/またはどんな他の動作126でも開始することがある、レスポンスシステム124に伝達され得る。さらに、上記の決定は、本明細書に説明される機械学習システムに伝達されることもある。上記の決定および/また対応する情報は、本明細書に説明される処理が、オンラインで(たとえば、車両の動作の間じゅう、車両に配置された1つまたは複数のプロセッサーによって)行われる実施態様において、および/または上記の処理が、オフラインで(たとえば、上記の車両に関連付けられたトレーニング、プログラミング、および/または機械学習訓練の間じゅう、1つまたは複数のリモートコンピューティングデバイスによって)行われる実施態様において、レスポンスシステム124に伝達され得ることが理解される。同じように、上記の決定および/または対応する情報は、本明細書に説明される処理がオンラインで行われる実施態様において、および/または上記の処理がオフラインで行われる実施態様において、機械学習システムに供給され得る。
【0026】
本明細書に説明される例のどれにおいても、種々のセンサーモダリティは、各々、そこに関連付けられた信頼の対応するレベルを有し得る。例えば、画像取り込みデバイス102によって提供される信号および/または画像データ110は、相対的に高い第1の信頼レベル(または対応して低い不確実性)によって特徴付けられ得る。例えば、上記の信号および/または画像データ110は、約90%から約98%までの間の第1の信頼レベルによって特徴付けられ得る。追加として、例えば、LIDARセンサー104によって提供される信号および/またはLIDARセンサーデータ112は、画像取り込みデバイス102によって提供される信号および/または画像データ110に関連付けられた第1の信頼レベルよりも低い第2の信頼レベルを有し得る。例えば、上記の信号および/またはLIDARセンサーデータ112は、約85%から約90%までの間の第2の信頼レベルによって特徴付けられ得る。単に、前述の信頼レベルは、例であり、さらに実施態様において、画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114は、上に特定された信頼レベルよりも、より大きいまたはより小さい信頼レベルによって特徴付けられ得る。特定のオブジェクトが、認知システム116によって、画像取り込みデバイス102に関連付けられたオブジェクトのグループ128に含まれるとして決定されるが、認知システム116によって、LIDARセンサー104に関連付けられたオブジェクトのグループ130にない、または誤分類されているとして決定される例において、認知システム116は、上記の特定のオブジェクトを、第1の信頼レベルまたは第2の信頼レベルのうちの少なくとも1つに少なくとも部分的に基づいて、融合センサーデータ134に含むことがある(たとえば、オブジェクトのグループ120における特定のオブジェクトを含むことがある)。上述のように、追加の例において、認知システム116は、1つまたは複数のそれぞれのセンサー信号に含まれるデータに関連付けられた1つまたは複数の追加のおよび/または異なるエラーを決定し得る。
【0027】
依然としてさらなる例において、統計情報は、認知システム116によってアクセス可能な、および/またはそうでなければ1つまたは複数の画像取り込みデバイス102、LIDARセンサー104、またはセンサー106に関連付けられたメモリーに格納され得る。例えば、上記の統計情報は、センサーのそれぞれの1つに関連付けられ、センサーによって取り込まれたデータの正確度および/または一貫性を示す集約された実測データを含むことがある。例えば、LIDARセンサー104は、特定のオブジェクトを約10m未満の距離から感知しているとき、約95%正確であるLIDARセンサーデータ112を取り込むことがある。上記の例において、認知システム116は、特定のオブジェクトを、95%の正確度を有するセンサーデータ112を使用して特定し得る。追加としてまたは代替として、LIDARセンサー104は、特定のオブジェクトを、約10mより遠く約30mより近い距離から感知しているとき、約90%正確であるLIDARセンサーデータ112を取り込むことがある。上記の例において、認知システム116は、特定のオブジェクトを、90%の正確度を有するセンサーデータ112を使用して特定し得る。上記の正確度の百分率および距離は、単に例示的である。さらにその上、上記の正確度の百分率および/または他の統計情報は、1つまたは複数の環境108において、LIDARセンサー104の繰り返される使用に基づく期間にわたって決定され得る。追加としてまたは代替として、上記の正確度の百分率および/または他の統計情報は、LIDARセンサー104の試験を通じて実測として決定され得る。
【0028】
さらに、上記の例において、認知システム116および/または車両の1つまたは複数のプロセッサーに関連付けられた他のコンポーネントは、上記の格納された統計情報と、車両の使用の間じゅう、期間にわたって収集された集約される統計情報との間の確率的な比較または他の比較を行うことがある。例えば、認知システム116および/または車両の1つまたは複数のプロセッサーに関連付けられた他のコンポーネントは、車両の使用の間じゅう、1つまたは複数のセンサーに対応する正確度の百分率および/または他の統計情報を集約し得る。上記の例において、認知システム116および/または車両の1つまたは複数のプロセッサーに関連付けられた他のコンポーネントは、上記の「使用中」の統計情報を、対応するセンサーモダリティに関連付けられた格納された統計情報と比較し得る(たとえば、LIDARセンサー104の使用中の統計情報が、格納されたLIDARセンサーの統計情報と確率的に比較され得る)。上記の例において、使用中の統計情報(たとえば、正確度の百分率)が、車両の使用の間じゅう、格納された統計情報の予め決められたレンジ(たとえば、+/-3%)外であるならば、上記の決定は、次々に、上記の不一致を訂正するために、応答を開始するおよび/またはどんな他の動作126でも開始することがある、レスポンスシステム124に伝達され得る。追加としてまたは代替として、上記の決定は、LIDARセンサー104を使用して収集されたLIDARセンサーデータ112に、種々のセンサーモダリティのトレーニングにおいて使用されなくさせることがある。たとえば、上記の決定は、LIDARセンサー104を使用して収集されたLIDARセンサーデータ112に、上に説明した機械学習システムに提供されなくさせることがある。
【0029】
図2は、例示的な車両202が通過して進んでいる例示的な環境200を示す。例示的な車両202は、例えば、ドライバー(または乗員)がいかなる時点においても車両を制御することが期待されない、全行程にすべてのセーフティクリティカルの機能を実行する性能がある車両を記述する、米国連邦道路交通安全局によって発行されるレベル5分類に応じて、動作するように構成された自律車両などのような無人運転車両であることがある。そのような例においては、車両202が、すべての駐車機能を含む、行程の開始から完了までのすべての機能を制御するように構成されることがあるので、それは、ドライバー、ならびに/または、ハンドル、アクセルペダル、および/もしくはブレーキペダルなど、車両202を運転するための制御を含まないことがある。今述べたことは、単に例であり、本明細書に説明されるシステムおよび方法は、常にドライバーによって手動により制御される必要がある車両から、部分的にまたは完全に自律的に制御される車両までに及ぶ車両を含む、陸上輸送の、航空輸送の、または水上輸送のどんな車両にでも組み入れられることがある。
【0030】
例示的な車両202は、例えば、バン、スポーツユーティリティービークル、クロスオーバービークル、トラック、バス、農業車両、および建設車両など、どんな構成の車両でもあり得る。車両202は、1つもしくは複数の内燃機関、1つもしくは複数の電気モーター、水素動力、それらのどんな組み合わせでも、および/または他の適したどんな動力源によってでも、動力供給されることがある。例示的な車両202が4つの車輪204を有するが、本明細書に説明されるシステムおよび方法は、より少ないまたはより多い数の車輪、タイヤ、および/またはトラックを有する車両に組み入れられ得る。例示的な車両202は、四輪操舵を有することがあり、一般に、たとえば、車両202の第1の端部206が、第1の方向208に進むと車両202の前方端部であるような、および第1の端部206が、図2に示すように、反対の第2の方向210に進むと車両202の後方端部になるような、すべての方向において等しい性能特性を有して動作することがある。同様にして、車両202の第2の端部212は、第2の方向210に進むと車両202の前方端部であり、および反対の第1の方向208に進むと、第2の端部212が、車両202の後方端部になるようである。今までに述べた例示的な特性は、たとえば、駐車場および都市エリアなど、狭いスペースまたは混雑した環境において、より高い操縦性を容易にすることがある。
【0031】
車両202は、車両202の軌道を決定するために、環境200におけるオブジェクトを示すセンサーデータに少なくとも部分的に頼りながら、環境200を通過して進むことがある。例えば、車両202が環境200を通過して進みながら、1つまたは複数の画像取り込みデバイス102、LIDARセンサー104、および/または他の種類のセンサー106は、検出されるオブジェクト(例えば、図2に示される車両214、および/または歩行者、建物、障壁、道路標識など)に関連付けられたデータを取り込む。例えば、取り込まれたデータは、車両202の軌道を決定するための入力として使用され得る。図2に概略的に描くように、図1に関して上述のように、車両202は、1つまたは複数のセンサー(たとえば、画像取り込みデバイス(複数可)102、LIDARセンサー(複数可)104、および/または他の種類のセンサー(複数可)106)から、それぞれの信号を受信するように構成された認知システム116を含むことがある。いくつかの例において、認知システム116は、1つまたは複数の上記の信号に少なくとも部分的に基づいて、1つまたは複数のオブジェクト(たとえば、図2に例示される1つまたは複数の車両214、図1に関して説明された1つまたは複数のオブジェクトのグループ128、130、132など)を特定するように構成され得る。さらに、認知システム116は、オブジェクトのグループ120を含む融合センサーデータ134を生成するように構成されることもある。上記の例において、さらに、認知システム116は、1つまたは複数のそれぞれのセンサー信号に含まれるデータに、および/または1つまたは複数のオブジェクトのグループ128、130、132に関連付けられたエラーを決定するように構成されることもある。例えば、認知システム116に関連付けられたオブジェクト検出システム118は、オブジェクトのグループ128、130、132の1つまたは複数にない、または誤分類されているオブジェクトのグループ120の1つまたは複数のオブジェクト122を特定するように構成され得る。上記の例において、認知システム116に関連付けられたレスポンスシステムは、上記の不一致を訂正するために、応答および/またはどんな他の動作でも開始し得る。
【0032】
図3は、本明細書に説明される例示的な処理のうちの1つまたは複数を実装するための例示的なシステム300を例示するブロック図である。例えば、システム300は、本明細書に説明されるセンサーデータに少なくとも部分的に基づいて、オブジェクトを特定し応答を開始するように構成され得る。少なくとも1つの例において、システム300は、図2を参照して上に説明された車両202と同一車両であることが可能である車両302を含むことが可能である。
【0033】
車両302は、車両コンピューティングデバイス304、1つまたは複数のセンサーシステム306、1つまたは複数のエミッター308、1つまたは複数の通信接続310、少なくとも1つの直接接続312、および1つまたは複数のドライブモジュール314を含むことが可能である。
【0034】
車両コンピューティングデバイス304は、1つまたは複数のプロセッサー316と、1つまたは複数のプロセッサー316に通信接続されたメモリー318とを含むことが可能である。例示された例において、車両302は、自律車両であるが、しかしながら、車両302は、どんな他の種類の車両でもあることが可能であろう。例示される例において、車両コンピューティングデバイス304のメモリー318は、ローカリゼーションシステム320、認知システム322(たとえば、図1および2に関して上に説明され、検出システム118を含む認知システム116)、プランニングシステム324、1つまたは複数のシステムコントローラー326、予測システム328、およびレスポンスシステム330(たとえば、図1および2に関して上に説明されたレスポンスシステム124)を格納する。例示の目的のために図3においてメモリー318にあるように描かれるが、追加としてまたは代替として、認知システム322、レスポンスシステム330、および/または車両コンピューティングデバイス304の他のコンポーネントは、車両302にアクセス可能であり得る(たとえば、リモートとして格納される)ことが予想される。
【0035】
少なくとも1つの例において、ローカリゼーションシステム320は、車両302が、センサーシステム(複数可)306と、センサーシステム(複数可)306から受信されるセンサーデータに少なくとも部分的に基づいて、実体の検出、分割(segmentation)、および/または分類を行う認知システム322と、センサーシステム(複数可)306から受信されるセンサーデータに少なくとも部分的に基づいて、車両302を制御するのに使用されるルートおよび/または軌道を決定するプランニングシステム324とから受信されるセンサーデータに少なくとも部分的に基づいて、ローカルおよび/またはグローバルのマップに関している場所を決定することが可能である。使用可能なローカライザーシステム、認知システム、およびプランニングシステムの追加の詳細は、「Adaptive Mapping to Navigate Autonomous Vehicle Responsive to Physical Environment Changes」と題され、2015年11月4日に提出の米国特許出願第14/932,963号、および「Trajectory Generation and Execution Architecture」と題され、2017年6月23日に提出の第15/632,208号に見つけられることが可能であり、両方が参照により本明細書に組み入れられる。車両302が自律車両ではない例において、1つまたは複数の上記のコンポーネントは、車両302から省略されることが可能である。
【0036】
少なくとも1つの例において、ローカリゼーションシステム320、認知システム322、および/またはプランニングシステム324は、センサーシステム(複数可)から受信したセンサーデータを処理することが可能であり、それぞれの出力を、1つまたは複数のネットワーク(複数可)332を介して、1つまたは複数のリモートコンピューティングデバイス334(たとえば、1つまたは複数のサーバーコンピューターまたは他のコンピューティングデバイス)に送ることが可能である。上記の例において、センサーシステム(複数可)306は、画像取り込みデバイス102、LIDARセンサー104、および/または上に説明された1つまたは複数の追加のセンサー106を含むことがある。少なくとも1つの例にて、ローカリゼーションシステム320、認知システム322、および/またはプランニングシステム324は、それらのそれぞれの出力を、特定の周波数において、予め決められた時の経過後において、ほぼリアルタイムにおいてなど、1つまたは複数のリモートコンピューティングデバイス(複数可)334に送ることが可能である。
【0037】
少なくとも1つの例において、1つまたは複数のシステムコントローラー(複数可)326は、車両302の操舵、推進、制動、安全、エミッター、通信、および他のシステムを制御するように構成されることが可能である。今述べたシステムコントローラー(複数可)326は、車両302のドライブモジュール(複数可)314および/または他のコンポーネントの対応するシステムに対して通信するおよび/または制御することが可能である。
【0038】
少なくとも1つの例において、予測システム328は、センサーデータを、センサーシステム(複数可)306から直に、および/または他のシステムのうちの1つ(たとえば、ローカリゼーションシステム320、認知システム322など)から受信することが可能である。いくつかの例において、予測システム328が、センサーデータをセンサーシステム(複数可)306から受信するならば、センサーデータは、生のセンサーデータであることが可能である。追加および/または代替の例において、予測システム328が、センサーデータを他のシステムのうちの1つから受信するならば、センサーデータは、処理されたセンサーデータであることが可能である。たとえば、例において、ローカリゼーションシステム320は、画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114を処理して、車両302がローカルおよび/またはグローバルのマップに関している場所を決定することが可能であり、上記の情報を示す処理されたセンサーデータ(たとえば、ロケーションデータ)を出力することが可能である。追加としてまたは代替として、認知システム322は、センサーデータを処理して、オブジェクトの検出、分割、および/または分類を行うことが可能である。いくつかの例において、認知システム322は、車両302に最も近いオブジェクト(たとえば、図1に関して上に説明されたオブジェクト122)の存在(presence)、および/またはオブジェクトの種類(たとえば、車、歩行者、サイクリスト、障壁、道路標識、不明など)としてのオブジェクトの分類を示す処理されたセンサーデータを提供することが可能である。追加および/または代替の例において、認知システム322は、検出される実体および/または実体が置かれる環境に関連付けられた1つまたは複数の特性を示す処理されたセンサーデータを提供することが可能である。いくつかの例において、認知システム322によって特定されるオブジェクト122に関連付けられた特性は、制限しないが、x位置(グローバルポジション)、y位置(グローバルポジション)、z位置(グローバルポジション)、向き、オブジェクトの種類(たとえば、分類)、オブジェクトの速度などを含むことが可能である。環境に関連付けられた特徴は、制限しないが、環境における別のオブジェクトの存在、環境における別のオブジェクトの状態、時刻、曜日、季節、気象条件、闇/光のインディケーションなどを含むことが可能である。
【0039】
例えば、センサーシステム(複数可)306は、画像取り込みデバイス102を、例えば、どんなカメラ(たとえば、RGBカメラ、モノクロカメラ、強度(グレースケール)カメラ、赤外線カメラ、紫外線カメラ、深度カメラ、ステレオカメラ等)でも、含むことがある。上記の画像取り込みデバイス102は、オブジェクトのグループ128を示す画像データ110を取り込むことがあり、センサーシステム(複数可)306は、画像データ110を、後続の処理のために、認知システム322に、および/または車両コンピューティングデバイス304の他のシステムに送信し得る。
【0040】
同じように、センサーシステム(複数可)306は、本明細書に説明されるように、使用のためのLIDARセンサーデータ112を取り込むように構成された1つまたは複数のLIDARセンサー104を含むことがある。例えば、センサーシステム(複数可)306は、複数のLIDARセンサー104からのLIDARデータを結合してまたは合成して、複数のLIDARセンサー104によって生成されるLIDARセンサーデータ112であり得る、LIDARデータのメタスピン(meta spin)を生成するように構成され得る。LIDARデータのメタスピンの場合に、センサーシステム(複数可)306は、メタスピンデータ(meta spin data)の仮想の原点(たとえば、共通の原点)を決定するように構成され得る。いくつかの例において、センサーシステム(複数可)306は、LIDARセンサー104と、オブジェクトまたは表面の点との間のレンジを決定するように構成されることがあり、いくつかの例において、センサーシステム(複数可)306は、それぞれのLIDARセンサー104によって取り込まれるおよび/または感知される各点に対して、表面法線ベクトルを決定するように構成され得る。制限でない例として、上記の表面法線の決定は、点から、その点に最も近い近傍の点のうちの2点までの方向を示すベクトルの外積の法線を計算することによって行われることがある。本開示の文脈において理解され得るように、センサーシステム(複数可)306は、どんな上記のLIDARセンサーデータ112でも、後続の処理のために、認知システム322に、および/または車両コンピューティングデバイス304の他のシステムに送信し得る。
【0041】
いくつかの例において、センサーシステム(複数可)306は、画像データ110、LIDARセンサーデータ112、および/または他のセンサーデータ114を、データを組み合わせる、融合する、分割する、分類する、ラベリングする、合成する、および/またはそうでなければ処理するために、車両コンピューティングデバイス304に提供し得る。いくつかの例において、さらに、車両コンピューティングデバイス304のメモリー318は、試験するときに部分的に使用するために、コンピューターシミュレーションアルゴリズムによって生成された、シミュレートされたデータを格納することもある。いくつかの例において、シミュレートされたデータは、例えば、画像データ、センサーデータ(たとえば、LIDARデータ、RADARデータ、および/またはSONARデータ)、GPSデータなどのような、どんなタイプのシミュレートされたデータでも含むことがある。いくつかの例において、車両302は、動作を検証するために、および/または機械学習システムによって実行可能なモデルをトレーニングするために、シミュレートされたデータ上の変換の動作を修正、変形、および/または行うように構成されることがある。
【0042】
いくつかの例において、予測システム328は、メモリー318に格納されたヒートマップおよび/または他の情報にアクセスすることが可能であり、上記の情報を使用してルックアップを行って、特定されたオブジェクト122の将来の挙動を予測するのを支援することが可能である。少なくとも1つの例において、メモリー318に格納されたヒートマップおよび/または他の情報は、オブジェクトの種類(たとえば、車、歩行者、サイクリスト、障壁、道路標識、不明など)に関連付けられることが可能である。少なくとも1つの例において、予測システム328は、ルックアップを行って、検出されたオブジェクトの種類に関連付けられた挙動パターンを決定することが可能である。少なくとも1つの例において、予測システム328は、オブジェクトのロケーション、および1つまたは複数の特性を利用して、ヒートマップにおいてセルを特定することが可能である。すなわち、セルは、オブジェクトのロケーションと、オブジェクトに、および/またはオブジェクトが存在する環境に関連付けられた1つまたは複数の特性とを含む一意的なインデックスを示すことが、またはそうでなければ一意的なインデックスによって参照されることが可能である。いくつかの例において、セルは、オブジェクトおよび/または環境に関する同一の1つまたは複数の特性を有するロケーションにおいて、(同じオブジェクトの種類の)1つまたは複数のオブジェクトに関する挙動パターンを示すデータに関連付けられることが可能である。予測システム328は、セルに関連付けられた挙動パターンを示すデータを検索することが可能であり、挙動パターンを示すデータを利用して、オブジェクトの予測挙動を決定することが可能である。
【0043】
オブジェクトの予測挙動を決定することに少なくとも部分的に基づいて、予測システム328は、予測挙動のインディケーションを、車両コンピューティングデバイス304の他のシステムに提供することが可能である。少なくとも1つの例において、予測挙動は、オブジェクトの検出、分割、および/または分類を行うための認知システム322に通知するために使用されることが可能である(たとえば、例において、ヒートマップおよび/または特定されたオブジェクト122に関係のある他の情報は、オブジェクトの種類を決定する逆ルックアップを行うために使用されることが可能である)。追加としてまたは代替として、プランニングシステム324は、車両302が進むことが可能である軌道を決定するために、予測挙動を利用することが可能である。プランニングシステム324は、(たとえば、自律車両の例において)軌道を実行して、車両302に軌道に沿って運転させることが可能であるシステムコントローラー326に、軌道を送ることが可能である。追加としてまたは代替として、予測挙動は、車両302を制御するのに使用するルートおよび/または軌道を決定することが可能であるプランニングシステム324によって生成された軌道を重み付けするために、使用されることが可能である。さらにその上、予測挙動を使用して、エンティティー(複数可)の挙動(複数可)を予測するのに使用されることが可能であるニューラルネットワークを通知することが可能である。
【0044】
少なくとも1つの例において、センサーシステム(複数可)306は、LIDARセンサー、RADARセンサー、超音波トランスデューサー、SONARセンサー、ロケーションセンサー(たとえば、GPS、方位磁針など)、慣性センサー(たとえば、慣性測定ユニット、加速度計、磁力計、ジャイロスコープなど)、カメラおよび/または他の画像取り込みデバイス(たとえば、RGB、IR、強度、深度など)、マイクロフォン、ホイールエンコーダー、環境センサー(たとえば、温度センサー、湿度センサー、光センサー、圧力センサーなど)などを含むことが可能である。センサーシステム(複数可)306は、今述べたまたは他の種類のセンサーの各々に関する複数のインスタンスを含むことが可能である。たとえば、LIDARセンサーは、車両302の角、前面、後面、側面、および/または上面に位置される個々のLIDARセンサーを含むことが可能である。別の例において、カメラおよび/または他の画像取り込みデバイスは、車両302の外部および/または内部のあちこちに、種々のロケーションに配置された複数のカメラを含むことが可能である。
【0045】
センサーシステム(複数可)306は、信号を、車両コンピューティングデバイス304に提供することが可能である。例えば、センサーシステム(複数可)306に含まれる各々のセンサーは、それぞれの信号を、車両コンピューティングデバイス304に送るように構成されることがあり、上記の信号は、それぞれのセンサーによって検出されるオブジェクトのグループを示すデータを含むことがある。いくつかの例において、センサーシステム(複数可)306の画像取り込みデバイス102は、第1の信号を、車両コンピューティングデバイス304に提供することがあり、第1の信号は、画像取り込みデバイス102が存在する環境108において検出可能な第1のオブジェクトのグループ128を示す画像データ110を含むことがある。追加として、センサーシステム(複数可)306のLIDARセンサー104は、第2の信号を、車両コンピューティングデバイス304に提供することがあり、第2の信号は、環境108において検出可能な第2のオブジェクトのグループ130を示すLIDARセンサーデータ112を含むことがある。さらに、センサーシステム(複数可)306に関するRADARセンサーまたは1つもしくは複数の追加のセンサー106は、第3の信号を、車両コンピューティングデバイス304に提供することがあり、第3の信号は、環境108において検出可能な第3のオブジェクトのグループ132を示すセンサーデータ114を含むことがある。上記の例において、認知システム322(たとえば、上に説明されたオブジェクト検出システム118)は、オブジェクトのグループ120が、センサーシステム(複数可)306から受信される1つまたは複数の信号に少なくとも部分的に基づいて、環境108に存在することを確認する、および/または決定することがある。例えば、認知システム322(たとえば、オブジェクト検出システム118)は、少なくとも1つのオブジェクト122が、センサーシステム(複数可)306から受信される1つまたは複数の信号に少なくとも部分的に基づいて、環境108に存在することを確認し得る。さらに、認知システム322は、1つまたは複数のそれぞれのセンサー信号に含まれるデータに関連付けられたエラーを特定する、および/またはそうでなければ決定する(たとえば、特定されたオブジェクト122が、受信信号に関連付けられた1つまたは複数のオブジェクトのグループ128、130、132にないか、または誤分類されているかどうかを決定する)こともある。
【0046】
認知システム322が、オブジェクト122がオブジェクトのグループ128、130、132の少なくとも1つにない、または誤分類されていると決定する例において、レスポンスシステム330は、上記の決定に少なくとも部分的に基づいて、応答126および/またはどんな他の作動でも開始し得る。いくつかの例において、上記の応答および/または他の作動126は、特に、画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114の一部を無視することのうちの少なくとも1つを含むことがある。さらに、上記の応答および/または他の作動126は、1つまたは複数の画像取り込みデバイス102、LIDARセンサー104、1つまたは複数の追加のセンサー106、センサーシステム(複数可)306の他のセンサー、および/またはセンサーシステム(複数可)306のそれぞれのセンサーから受信された信号に関連付けられた重み、信頼値、および/または他のメトリックを修正することを含むこともある。さらに、上記の応答および/または他の作動126は、1つまたは複数の画像取り込みデバイス102、LIDARセンサー104、1つまたは複数の追加のセンサー106、センサーシステム(複数可)306の他のセンサーに関連付けられたトレーニングデータを修正することを含むことがある。
【0047】
いくつかの例において、さらに、上記の応答および/または他の作動126は、検証要求を生成すること、および/または通信接続(複数可)310を使用して、人間のオペレーター(例えば、テレオペレーター)による検討のために上記の検証要求をサービスセンターに送ることを含むこともある。上記のテレオペレーターは、問題のセンサーが誤動作しているという1つまたは複数のインディケーションを提供することがある、提案されたソリューションおよび/または軽減の作動を確かめることがある、またはそうでなければセンサーエラーのインディケーションを受信することに応答して、制御データを車両302に伝達することがある。さらに、上記の応答および/または他の作動126は、ドライブモジュール(複数可)314を制御して、車両302の速さ、方向、および/または他の動作パラメーターを変えることを含むこともある。追加としてまたは代替として、センサーシステム(複数可)306は、1つまたは複数のネットワーク332を介して、本明細書に説明される信号および/またはセンサーデータのどれでも、特定の周波数において、予め決められた時の経過後において、ほぼリアルタイムにおいてなど、1つまたは複数のリモートコンピューティングデバイス(複数可)334に送ることが可能である。上記の例において、1つまたは複数のリモートコンピューティングデバイス(複数可)334(たとえば、1つまたは複数のプロセッサー(複数可)336)は、本明細書に説明される1つまたは複数の処理を行うことがある。
【0048】
さらに、車両302は、上に説明したように、光および/または音を発するための1つまたは複数のエミッター308を含むことも可能である。今述べた例におけるエミッター308は、車両302の乗客と通信する内部のオーディオおよびビジュアルのエミッターを含む。例として制限しないが、内部のエミッターは、スピーカー、ライト、サイン、ディスプレイスクリーン、タッチスクリーン、触覚に関するエミッター(例えば、振動および/またはフォースフィードバック)、メカニカルアクチュエーター(たとえば、シートベルトテンショナー、シートポジショナー、ヘッドレストポジショナーなど)などを含むことが可能である。さらに、今述べた例におけるエミッター308は、外部のエミッターも含む。例として制限しないが、今述べた例における外部のエミッターは、進行方向または車両の作動に関する他のインディケーション(たとえば、インジケーターライト、サイン、ライトアレイなど)を合図するライト、および歩行者または他の近くの車と聞こえるほどに通信する1つまたは複数のオーディオエミッター(たとえば、スピーカー、スピーカーアレイ、ホーンなど)を含む。
【0049】
さらに、車両302は、車両302と、1つまたは複数の他のローカルまたはリモートのコンピューティングデバイス(複数可)との間の通信を可能にする1つまたは複数の通信接続(複数可)310を含むことも可能である。たとえば、通信接続(複数可)310は、車両302上の他のローカルコンピューティングデバイス(複数可)との、および/またはドライブモジュール(複数可)314との通信を容易にすることが可能である。さらに、通信接続(複数可)310は、車両302が、他の近くのコンピュータデバイス(複数可)(たとえば、他の近くの車両、交通信号機など)と通信できるようにすることも可能である。さらに、通信接続(複数可)310は、車両302が、リモート遠隔操作コンピューティングデバイス、リモートサービスセンター、または他のリモートサービスと通信できるようにもする。
【0050】
通信接続(複数可)310は、車両コンピューティングデバイス304を、別のコンピューティングデバイスに、または例えば、ネットワーク(複数可)332などのネットワークに接続するための物理および/または論理インターフェイスを含むことが可能である。例えば、通信接続(複数可)310は、例えば、IEEE802.11規格によって定義された周波数、Bluetooth(商標登録)などのようなショートレンジの無線周波数、またはそれぞれのコンピューティングデバイスが他のコンピューティングデバイス(複数可)とインターフェイスできるようにするどんな適切な有線または無線の通信プロトコルでも介してなど、Wi-Fiベースの通信を可能にすることが可能である。
【0051】
少なくとも1つの例において、車両302は、1つまたは複数のドライブモジュール314を含むことが可能である。いくつかの例において、車両302は、単一のドライブモジュール314を有することが可能である。少なくとも1つの例において、車両302が複数のドライブモジュール314を有するならば、個々のドライブモジュール314は、車両302の向き合う端部(たとえば、前方および後方など)に置かれることが可能である。少なくとも1つの例において、ドライブモジュール(複数可)314は、ドライブモジュール(複数可)314の状態を、および/または車両302の周囲の状態を検出する1つまたは複数のセンサーシステムを含むことが可能である。例として制限しないが、センサーシステム(複数可)は、ドライブモジュールの車輪の回転を感知する1つまたは複数のホイールエンコーダー(たとえば、ロータリーエンコーダー)、ドライブモジュールの向きおよび加速度を測定する慣性センサー(たとえば、慣性測定ユニット、加速度計、ジャイロスコープ、磁力計など)、カメラまたは他の画像センサー、ドライブモジュールの周囲のオブジェクトを聴覚的に検出する超音波センサー、LIDARセンサー、RADARセンサーなどを含むことが可能である。いくつかのセンサー、例えば、ホイールエンコーダーなどは、ドライブモジュール(複数可)314に一意的であることが可能である。いくつかの場合において、ドライブモジュール(複数可)314上のセンサーシステム(複数可)は、車両302の対応するシステム(たとえば、センサーシステム(複数可)306)に対して重ねる、または補うことが可能である。
【0052】
ドライブモジュール(複数可)314は、高電圧バッテリー、車両を推進するモーター、他の車両システムによる使用のためにバッテリーからの直流を交流に変換するインバーター、(電気で動くことが可能である)ステアリングモーターおよびステアリングラックを含むステアリングシステム、油圧または電気アクチュエーターを含むブレーキングシステム、油圧および/または空気圧コンポーネントを含むサスペンションシステム、けん引のロスを軽減し制御を維持するブレーキ力を分配するための安全制御システム、HVACシステム、ライティング(たとえば、車両の外部の周囲を照らすヘッド/テールライトなどのようなライティング)、および1つまたは複数の他のシステム(たとえば、冷却システム、安全システム、オンボード充電システム、例えば、DC/DCコンバーター、高電圧ジャンクション、高電圧ケーブル、充電システム、充電ポートなどの他の電気コンポーネント)を含む、多くの車両システムを含むことが可能である。追加として、ドライブモジュール(複数可)314は、センサーシステム(複数可)からのデータを受信し前処理することが可能であり、種々の車両システムの動作を制御するためのドライブモジュールコントローラーを含むことが可能である。いくつかの例において、ドライブモジュールコントローラーは、1つまたは複数のプロセッサーと、1つまたは複数のプロセッサーに通信接続されたメモリーとを含むことが可能である。メモリーは、ドライブモジュール(複数可)314の種々の機能性を行う1つまたは複数のモジュールを格納することが可能である。さらにその上、ドライブモジュール(複数可)314は、それぞれのドライブモジュールによる1つまたは複数の他のローカルまたはリモートのコンピューティングデバイス(複数可)との通信を可能にする1つまたは複数の通信接続(複数可)を含むことも可能である。
【0053】
上に説明したように、車両302は、信号および/またはセンサーデータを、ネットワーク(複数可)332を介して1つまたは複数のリモートコンピューティングデバイス(複数可)334に送ることが可能である。いくつかの例において、車両302は、生のセンサーデータを、リモートコンピューティングデバイス(複数可)334に送ることが可能である。他の例において、車両302は、処理されたセンサーデータおよび/またはセンサーデータの表現を、リモートコンピューティングデバイス(複数可)334に送ることが可能である。いくつかの例において、車両302は、センサーデータを、特定の周波数において、予め決められた時の経過後において、ほぼリアルタイムにおいてなど、1つまたは複数のリモートコンピューティングデバイス(複数可)334に送ることが可能である。
【0054】
リモートコンピューティングデバイス(複数可)334は、(生のまたは処理された)信号および/またはセンサーデータを受信することが可能であり、信号および/またはセンサーデータに少なくとも部分的に基づいて、本明細書に説明される処理のどれでも行うことが可能である。少なくとも1つの例において、リモートコンピューティングデバイス(複数可)334は、1つまたは複数のプロセッサー336と、1つまたは複数のプロセッサー336に通信接続されたメモリー338とを含むことが可能である。例示された例において、リモートコンピューティングデバイス(複数可)334のメモリー338は、センサーデータストア340、センサーデータ処理システム342、および機械学習システム344を格納する。
【0055】
センサーデータストア340は、1つまたは複数の車両、例えば、車両302などから受信した(生のまたは処理された)センサーデータを格納することが可能である。センサーデータストア340におけるセンサーデータは、1つまたは複数のオンボードセンサーシステム(たとえば、オンボードセンサーシステム(複数可)306など)、または他のセンサーシステム(複数可)によって、前のとき(複数可)に収集されたセンサーデータ(たとえば、以前に連結されたセンサーデータ)を表すことが可能である。いくつかの例において、センサーデータは、ロケーション、オブジェクトの種類、および/または他のタイプの特性と共に格納されることが可能である。加えて、少なくとも1つの例において、センサーデータから決定される挙動は、センサーデータストア340に格納されることが可能である。すなわち、個々のオブジェクトの挙動は、挙動が決定された特定のセンサーデータに関連付けられることが可能である。
【0056】
少なくとも1つの例において、センサーデータ処理システム342は、1つまたは複数の車両、例えば、車両302などから(生のまたは処理された)センサーデータを受信することが可能である。上に説明したように、車両302は、センサーデータを含む信号を、特定の周波数において、予め決められた時の経過後において、ほぼリアルタイムにおいてなど、1つまたは複数のリモートコンピューティングデバイス(複数可)334に送ることが可能である。加えて、センサーデータ処理システム342は、センサーデータを、特定の周波数において、予め決められた時の経過後において、ほぼリアルタイムにおいてなど、受信することが可能である。追加のおよび/または代替の例において、センサーデータ処理システム342は、(例えば、車両に関連付けられていない)追加のおよび/または代替のセンサーシステム(複数可)からデータを受信することが可能である。いくつかの例において、センサーデータ処理システム342は、センサーデータを、格納のためにセンサーデータストア340に送ることが可能である。
【0057】
少なくとも1つの例において、センサーデータ処理システム342は、センサーデータを処理することが可能である。いくつかの例において、センサーデータ処理システム342は、特定のオブジェクトの種類に関連付けられたオブジェクトの挙動を、センサーデータに基づいて決定することが可能である。すなわち、センサーデータ処理システム342は、特定の期間に関連付けられたセンサーデータを分析して、環境に存在するオブジェクト(複数可)が、期間の間じゅう、どのように挙動するかを決定することが可能である。少なくとも1つの例において、センサーデータストア340は、挙動を決定するのに利用されるセンサーデータにセンサーデータストア340において関連付けられることが可能である、オブジェクトの種類に関連付けられるオブジェクトの挙動を示すデータを格納することが可能である。少なくとも1つの例において、センサーデータから決定されるような、オブジェクトの種類に関連付けられたオブジェクトの挙動を示すデータは、観測結果に関連付けられることが可能である。上記の観測結果は、センサーデータストア340に格納されることが可能である。
【0058】
上述のように、ローカリゼーションシステム320、認知システム322、および/または車両コンピューティングデバイス304の他のコンポーネントは、外側のオブジェクトを、例えば、歩行者、自転車に乗る人、犬、他の車両などを検出し分類するように構成され得る。外側のオブジェクトの分類に少なくとも部分的に基づいて、外側のオブジェクトは、動的なオブジェクトまたは静的なオブジェクトとしてラベル付けされ得る。例えば、認知システム322は、木を静的なオブジェクトとしてラベル付けするように構成されることがあり、歩行者を動的なオブジェクトとしてラベル付けするように構成され得る。外側のオブジェクトについてのさらなるデータは、外側のオブジェクトをトラッキングすることによって生成されることがあり、オブジェクト分類のタイプは、いくつかの例において、外側のオブジェクトが、プランニングされた道に沿って進む車両302を妨害し得る可能性を予測する、または決定する予測システム328によって使用され得る。例えば、歩行者として分類される外側のオブジェクトは、最大の速さおよび/または平均の速さに関連付けられ得る。ローカリゼーションシステム320、認知システム322、車両コンピューティングデバイス304のセグメンテーションシステム、センサーデータ処理システム342、および/またはリモートコンピューティングデバイス334の他のコンポーネントは、例えば、ニューラルネットワークなど、どんな1つまたは複数の機械学習アルゴリズムでも実行して、分類の動作を行うことがある機械学習システム344を使用し得る。
【0059】
機械学習システム344によって利用されるニューラルネットワークは、入力されたデータを、一連の連結された層を通じて渡して、出力を生成する生物学的にインスパイアされたアルゴリズムを含むことがある。ニューラルネットワークの一例は、CNN(畳み込みニューラルネットワーク)である。さらに、CNNの各層は、別のCNNを含むこともある、またはどんな数の層でも含むこともある。ニューラルネットワークは、出力が学習パラメーターに基づいて生成される上記のアルゴリズムの幅広いクラスである機械学習を利用し得る。
【0060】
ニューラルネットワークの文脈において述べられるが、機械学習のどのタイプでも、本開示と矛盾することなく使用され得る。例えば、機械学習アルゴリズムは、制限しないが、回帰アルゴリズム(たとえば、通常の最小二乗回帰(OLSR)、線形回帰、ロジスティック回帰、ステップワイズ回帰、多変量適応型回帰スプライン(MARS)、局所推定スキャッタープロット平滑化法(LOESS))、インスタンスベースのアルゴリズム(たとえば、リッジ回帰、最小絶対収縮および選択演算子(LASSO)、弾性ネット、最小角度回帰(LARS))、ディシジョンツリーアルゴリズム(たとえば、分類および回帰ツリー(CART)、反復二分法3(ID3)、カイ二乗自動相互作用検出(CHAID)、決定断端、条件付きディシジョンツリー))、ベイジアンアルゴリズム(たとえば、ナイーブベイズ、ガウスナイーブベイズ、多項式ナイーブベイズ、アベレージワンディペンデンスエスティメータズ(AODE)、ベイジアンビリーフネットワーク(BNN)、ベイジアンネットワーク)、クラスタリングアルゴリズム(たとえば、k-平均法、k-メジアン、期待値最大化(EM)、階層クラスタリング)、相関ルール学習アルゴリズム(たとえば、パーセプトロン、逆伝搬、ホップフィールドネットワーク、動径基底関数ネットワーク(RBFN))、深層学習アルゴリズム(たとえば、ディープボルツマンマシン(DBM)、ディープビリーフネットワーク(DBN)、畳み込みニューラルネットワーク(CNN)、スタックドオートエンコーダ)、次元縮退アルゴリズム(たとえば、主成分分析(PCA)、主成分回帰(PCR)、部分的最小二乗回帰(PLSR)、サモンマッピング、多次元尺度構成法(MDS)、投影追跡、線形判別分析(LDA)、混合判別分析(MDA)、二次判別分析(QDA)、柔軟判別分析(FDA))、アンサンブルアルゴリズム(たとえば、ブースティング、ブートストラップアグリゲーション(バギング)、アダブースト、スタックドジェネラリゼーション(ブレンディング)、勾配ブースティングマシン(GBM)、勾配ブースト回帰ツリー(GBRT)、ランダムフォレスト)、SVM(サポートベクターマシン))、教師あり学習、教師なし学習、準教師あり学習など含むことがある。
【0061】
いくつかの例においては、複数のタイプの機械学習システムを使用して、使用される機械学習のタイプの各々にそれぞれの結果を提供することがある。いくつかの例において、信頼スコアは、結果の各々に関連付けられることがあり、信頼される結果は、結果に関連付けられた信頼スコアに少なくとも部分的に基づくことがある。たとえば、最も高い信頼スコアに関連付けられている結果は、他の結果に優先して選択されることがあり、または結果は、信頼スコアに基づいて、たとえば、加重平均等などのような統計的な方法に基づいて、結合されることがある。加えて、機械学習システム344が、メモリー338のコンポーネントとして例示されるが、他の例において、機械学習システム344および/または少なくともその一部は、車両コンピューティングデバイス304のメモリー318のコンポーネントを含むことがある。
【0062】
車両302のプロセッサー(複数可)316およびリモートコンピューティングデバイス(複数可)334のプロセッサー(複数可)336は、本明細書に説明されるように、データを処理し、動作を行う命令を実行する性能があるどんな適切なプロセッサーでもあることが可能である。例として制限しないが、プロセッサー(複数可)316および336は、1つまたは複数のCPU(中央処理装置)、GPU(Graphics Processing Unit)、または電子データを処理して、その電子データを、レジスターおよび/もしくはメモリーに格納されることが可能である他の電子データに変換するどんな他のデバイスもしくはデバイスの部分でも含むことが可能である。いくつかの例において、さらに、集積回路(たとえば、ASICなど)、ゲートアレイ(たとえば、FPGAなど)、および他のハードウェアデバイスは、エンコードされた命令を実装するように構成される限り、プロセッサーと考えられることも可能である。
【0063】
メモリー318およびメモリー338は、非一時的なコンピューター読み取り可能な媒体の例である。メモリー318およびメモリー338は、本明細書に説明される方法と、種々のシステムに帰する機能とを実装するためのオペレーティングシステムおよび1つまたは複数のソフトウェアアプリケーション、命令、プログラム、および/またはデータを格納することが可能である。種々の実装において、メモリーは、どんな適切なメモリー技術でも、例えば、SRAM(スタティックRAM)、SDRAM(シンクロナスDRAM)、不揮発性/フラッシュ型メモリー、または情報を格納する性能があるどんな他のタイプのメモリーでも使用して、実装されることが可能である。本明細書に説明されるアーキテクチャー、システム、および個々の要素は、多くの他の論理的な、プログラム的な、および物理的なコンポーネントを含むことが可能であり、添付の図面に示されるそれらは、本明細書の議論に関係する単なる例である。
【0064】
図3が分散システムとして例示される一方、代替の例において、車両302のコンポーネントは、リモートコンピューティングデバイス(複数可)334に関連付けられることが可能であり、および/またはリモートコンピューティングデバイス(複数可)334のコンポーネントは、車両302に関連付けられることが可能であることに注意すべきである。すなわち、車両302は、リモートコンピューティングデバイス(複数可)334に関連付けられた1つまたは複数の機能を行い、逆もまた同様であることが可能である。
【0065】
図4Aは、例示的な車両202(たとえば、図3に関して説明した車両302)に取り付けられたまたは例示的な車両202によって運ばれる複数のセンサーアセンブリを有する車両202の側面図400である。いくつかの例において、複数のセンサーアセンブリからのデータセットは、メタスピン(たとえば、複数のLIDARセンサーを表すLIDARデータ)を形成するために結合もしくは合成されることがあり、または分割、分類、予測、プランニング、軌跡生成などに対して正確度もしくは処理を改善するためにセンサー融合技術を使用して、結合されるもしくは融合されることがある。
【0066】
側面図400に示すように、車両202は、センサーに関して、何個でも、どんな組み合わせまたは構成でも含むことがある。例えば、車両202は、少なくともセンサー402、404、および406を含む。場合によって、センサー402は、θ1として例示される垂直の視野を有するRADARセンサーを含むことがある。センサー404は、車両202のルーフ上に取り付けられるLIDARセンサーを含み、センサー404が、θ2として例示される垂直の視野を有することがある。場合によって、センサー406は、垂直の視野θ3を有するカメラセンサーを含むことがある。もちろん車両202は、センサーに関して、何個でもどのタイプでも含むことがあり、図4Aに提供される例に制限されない。
【0067】
図4Bは、例示的な車両202に取り付けられた複数のセンサーアセンブリを有する例示的な車両202の上からの平面図408を描く。例えば、センサー402、404、および406は、追加のセンサー410、412、414、および416も同様に、図4Bに見られることが可能である。例えば、センサー406および416は、一緒に位置されるまたは互いに最も近く位置されることがあるが、異なる視野を有する異なるセンサータイプまたはセンサーモダリティを含むことがある。場合によって、センサー410、412、414、および416は、追加のLIDARセンサー、RADARセンサー、および/または画像取り込みデバイスを含むことがある。本開示の文脈において理解され得るように、車両202は、センサーに関して、何個でもどのタイプでも含むことがある。図4Bにおいて示されているように、センサー402は、水平の視野θ4を含むことがあり、センサー404は、水平の視野θ5を含むことがあり、センサー406は、水平の視野θ6を含むことがあり、センサー410は、水平の視野θ7を含むことがあり、センサー412は、水平の視野θ8を含むことがあり、センサー414は、水平の視野θ9を含むことがあり、センサー416は、水平の視野θ10を含むことがある。本開示の文脈において理解され得るように、取り付けるロケーションおよび視野は、いくつもの構成を含むことがある。
【0068】
追加として、本明細書に説明される1つまたは複数のセンサーを使用して、車両202および/またはセンサーが存在する環境内に位置される1つまたは複数のオブジェクト418を検出し得る。例えば、センサー404がLIDARセンサー(たとえば、LIDARセンサー104)を含む実施態様にて、センサー404は、センサー404が存在する環境(たとえば、図1に例示される環境108)において検出可能なオブジェクトのグループ130を示すLIDARセンサーデータ112を含む信号を生成するように構成され得る。いくつかの例において、LIDARセンサー404によって生成される信号は、オブジェクト418から反射される光の検出を示すLIDARセンサー404の第1の光センサーからの信号(たとえば、第1の信号)を含むことがあり、オブジェクト418は、センサーデータ112によって示されるオブジェクトのグループ130に含まれ得る。上記の例において、さらに、LIDARセンサー404によって生成される信号は、オブジェクト418から反射される光の検出を示す1つまたは複数の追加の信号(たとえば、少なくとも、LIDARセンサー404の第2の光センサーからの第2の信号)を含むこともあり、オブジェクト418は、オブジェクトのグループ130に含まれ得る。どんな上記の信号でも、車両コンピューティングデバイス304に関する認知システム322および/または他のコンポーネントに提供され得る。いくつかの例において、認知システム322は、LIDARセンサー404によって生成される1つまたは複数の信号に少なくとも部分的に基づいて、オブジェクト418を特定することがあり、上に説明したオブジェクト122が、1つまたは複数のオブジェクトのグループ128、130、132にないか、または誤分類されているか(たとえば、LIDARセンサーデータ112に対応するオブジェクトのグループ130にないか、または誤分類されているか)どうかを、オブジェクトのグループ130に含まれるオブジェクト418を特定することに少なくとも部分的に基づいて、決定し得る。
【0069】
センサー406がカメラまたは他の画像取り込みデバイス(たとえば、画像取り込みデバイス102)を含むさらなる実施態様にて、センサー406は、センサー406が存在する環境(たとえば、図1に例示される環境108)において検出可能なオブジェクトのグループ128を示す画像データ110を含む信号を生成するように構成され得る。いくつかの例において、センサー406によって生成される信号は、オブジェクト418を例示する、示す、および/またはそうでなければ含む、センサー406によって取り込まれる1つまたは複数の画像を含む信号(たとえば、第1の信号)を含むことがあり、オブジェクト418は、画像データ110によって示されるオブジェクトのグループ128に含まれ得る。上記の例において、センサー406によって生成されるどんな信号でも、車両コンピューティングデバイス304に関する認知システム322および/または他のコンポーネントに提供され得る。いくつかの例において、認知システム322は、センサー406によって生成される1つまたは複数の信号に少なくとも部分的に基づいて、オブジェクト418を特定し得る。たとえば、認知システム322は、1つまたは複数のそれぞれのセンサー信号に含まれるデータに関連付けられたエラーを特定する、および/またはそうでなければ決定し得る。上記の例において、認知システム322は、上に説明したオブジェクト122が、1つまたは複数のオブジェクトのグループ128、130、132にないか、または誤分類されているか(たとえば、画像データ110に対応するオブジェクトのグループ128にないか、または誤分類されているか)どうかを、オブジェクトのグループ128に含まれるオブジェクト418を特定することに少なくとも部分的に基づいて、決定し得る。さらに、認知システム322は、類似した処理を、本明細書に説明されるどの他のセンサー(たとえば、センサー106、センサー402、センサーシステム(複数可)306に関連付けられたセンサーなど)からでも受信される信号および/またはセンサーデータ114に対して行うこともあることが理解される。
【0070】
図5は、個々のセンサーデータを融合センサーデータと比較し、それぞれのセンサー信号の1つまたは複数に含まれるデータに関連付けられたエラーを決定すること(たとえば、融合センサーデータに含まれる少なくとも1つのオブジェクトが、個々のセンサーから受信されるデータに関連付けられたオブジェクトのグループにない、または誤分類されていると決定すること)に少なくとも部分的に基づいて応答を開始するための例示的な処理に関する例示的な絵のフロー図500である。図1と類似して、画像取り込みデバイス102、LIDARセンサー104、および/または別のセンサー106を含むことがあるセンサーは、環境108を通過して進む車両に接続され得る。画像取り込みデバイス102、LIDARセンサー104、およびセンサー106は、それぞれ、画像データ110、LIDARセンサーデータ112、およびセンサーデータ114を取り込み、上記のデータを認知システム116に伝達し得る。上述のように、画像取り込みデバイス102からの信号は、画像データ110を含むことがあり、上記の画像データ110は、環境108において検出可能な第1のオブジェクトのグループ128(図1)を含むおよび/またはそうでなければ示すシーンを表し得る。同じように、LIDARセンサー104からの信号は、LIDARセンサーデータ112を含むことがあり、上記のLIDARセンサーデータ112は、環境108において検出可能な第2のオブジェクトのグループ130(図1)を含むおよび/またはそうでなければ示すシーンを表し得る。さらに、センサー106からの信号は、センサーデータ114を含むことがあり、上記のセンサーデータ114は、環境108において検出可能な第3のオブジェクトのグループ132(図1)を含むおよび/またはそうでなければ示すシーンを表し得る。
【0071】
図5に例示するように、画像取り込みデバイス102、LIDARセンサー104、およびセンサー106は、上記の画像データ110、LIDARセンサーデータ112、およびセンサーデータ114を、実質的に連続して、および/または規則的なもしくは不規則的な時間間隔において、取り込むことがある。上記の例において、画像取り込みデバイス102によって取り込まれる画像データ110は、1つまたは複数の連続的なシーンDを示す、例示する、および/または表すことがある。上記の例において、連続的なシーンDの各々は、それぞれ、異なる(たとえば、連続的な)時間T1、T2、T3において、画像取り込みデバイス102によって検出されるそれぞれのオブジェクトのグループ502、504、506を含むことがある。3つの連続的なシーンD、および3つの対応するオブジェクトのグループ502、504、506が、図5において例示されるが、3つより多いまたは少ないシーンおよび/またはオブジェクトのグループは、異なる(たとえば、連続的な)それぞれの時間または時間間隔において、動作の間じゅう、画像取り込みデバイス102によって検出され得ることが理解される。各オブジェクトのグループ502、504、506は、図1に関して上に説明されたオブジェクトのグループ128と類似する、および/または同一であることがある。上記の例において、画像取り込みデバイス102は、画像データ110を認知システム116に送ることがあり、認知システム116は、本明細書に説明される1つまたは複数のオブジェクトのグループ502、504、506を、受信した画像データ110に少なくとも部分的に基づいて特定し得る。
【0072】
同様に、LIDARセンサー104によって取り込まれるLIDARセンサーデータ112は、1つまたは複数の連続的なシーンEを示す、例示する、および/または表すことがある。上記の例において、連続的なシーンEの各々は、異なる(たとえば、連続的な)時間T1、T2、T3において、LIDARセンサー104によって検出されるそれぞれのオブジェクトのグループ508、510、512を含むことがある。3つの連続的なシーンE、および3つのオブジェクトのグループ508、510、512が、図5において例示されるが、3つより多いまたは少ないシーンおよび/またはオブジェクトのグループは、異なる(たとえば、連続的な)それぞれの時間または時間間隔において、動作の間じゅう、LIDARセンサー104によって検出され得ることが理解される。各オブジェクトのグループ508、510、512は、図1に関して上に説明されたオブジェクトのグループ130と類似する、および/または同一であることがある。上記の例において、LIDARセンサー104は、LIDARセンサーデータ112を認知システム116に送ることがあり、認知システム116は、本明細書に説明される1つまたは複数のオブジェクトのグループ508、510、512を、受信したLIDARセンサーデータ112に少なくとも部分的に基づいて特定し得る。
【0073】
さらに、1つまたは複数の追加のセンサー106によって取り込まれるセンサーデータ114は、1つまたは複数の連続的なシーンFを示す、例示する、および/または表すことがある。上記の例において、連続的なシーンFの各々は、異なる(たとえば、連続的な)時間T1、T2、T3において、センサー106によって検出されるそれぞれのオブジェクトのグループ514、516、518を含むことがある。3つのシーンFおよびオブジェクトのグループ514、516、518が、図5において例示されるが、3つより多いまたは少ないシーンおよび/またはオブジェクトのグループは、異なる(たとえば、連続的な)それぞれの時間または時間間隔において、動作の間じゅう、センサー106によって検出され得ることが理解される。各オブジェクトのグループ514、516、518は、図1に関して上に説明されたオブジェクトのグループ132と類似する、および/または同一であることがある。上記の例において、センサー106は、センサーデータ114を認知システム116に送ることがあり、認知システム116は、本明細書に説明される1つまたは複数のオブジェクトのグループ514、516、518を、受信したセンサーデータ114に少なくとも部分的に基づいて特定し得る。
【0074】
図5にて例示した処理において、認知システム116は、画像取り込みデバイス102、LIDARセンサー104、およびセンサー106から信号を受信するように構成されることがあり、上記の信号は、図5に関して上に説明した画像データ110、LIDARセンサーデータ112、およびセンサーデータ114を含むことがある。示される例において、認知システム116は、1つまたは複数の信号に少なくとも部分的に基づいて、対応するオブジェクトのグループ522、524、526を決定するように構成され得る。例えば、認知システム116は、時間T1の環境108に存在するオブジェクトのグループ522を、時間T1に対応するオブジェクトのグループ502、508、514に少なくとも部分的に基づいて、生成する、特定する、定義する、および/またはそうでなければ決定するように構成され得る。さらに、認知システム116は、時間T2の環境108に存在するオブジェクトのグループ524を、時間T2に対応するオブジェクトのグループ504、510、516に少なくとも部分的に基づいて、決定することがあり、時間T3の環境108に存在するオブジェクトのグループ526を、時間T3に対応するオブジェクトのグループ506、512、518に少なくとも部分的に基づいて決定し得る。上記の例において、画像データ110、LIDARセンサーデータ112、およびセンサーデータ114の使用を介して、認知システム116によって決定されるオブジェクトのグループ522、524、526は、個々にまたは集団として、融合センサーデータ134と考えられ得る。さらに、認知システム116は、データ関連付け、オブジェクト認識、データ特徴付け、および/または本明細書に説明される他の技法のうちのどれでも使用して、それぞれのオブジェクトのグループ522、524、526のうちのどのオブジェクトが同一であるかを決定し得る。
【0075】
上記の例において、さらに、認知システム116は、後の時間に収集されるセンサーデータを使用して、および/またはそうでなければ後の時間に収集されるセンサーデータに少なくとも部分的に基づいて、1つまたは複数のオブジェクト122を特定する、および/または1つまたは複数のオブジェクトのグループ522、524、526を決定するように構成されることもある。例えば、時間T2に関連付けられたオブジェクトのグループ504、510、516(たとえば、オブジェクトのグループ502、508、514に関連付けられたT1よりも後の時間に観測される)および/または時間T3に関連付けられたオブジェクトのグループ506、512、518(たとえば、オブジェクトのグループ502,508、514に関連付けられた時間T1よりも後の時間に観測される)は、認知システム116によって示されるオブジェクトのグループ522を、時間T1の環境108に存在するとして決定する認知システム116および/またはオブジェクト検出システム118によって使用され得る。さらに、認知システム116および/またはオブジェクト検出システム118は、第1の時間(たとえば、時間T1)に観測されたオブジェクトのグループに関連付けられたエラーを、第1の時間よりも後の第2の時間(たとえば、時間T2)において観測されるセンサーデータおよび/またはオブジェクトのグループに少なくとも部分的に基づいて、特定するおよび/またはそうでなければ決定することもある。例えば、認知システム116および/またはオブジェクト検出システム118は、特定のオブジェクトを、上記の融合センサーデータ134に含まれるが、時間T2において観測されるオブジェクトのグループ504、510、516および/または時間T3において観測されるオブジェクトのグループ506、512、518に少なくとも部分的に基づいて、1つまたは複数のオブジェクトのグループ(たとえば、時間T1において観測されるオブジェクトのグループ508)にない、または誤分類されているとして特定し得る。上記の後に観測される(たとえば、将来の)センサーデータ、および対応するオブジェクトのグループは、認知システム116によって、時間T1の環境108において存在するとして示される1つまたは複数のオブジェクトのグループ522を含む融合センサーデータ134を生成するときに、および/または時間T1の環境108において存在する1つまたは複数のオブジェクト122を特定するときに、高いレベルの信頼を与え得る。さらに、上記の後に観測される(たとえば、将来の)センサーデータ、および対応するオブジェクトのグループは、例えば、オフラインの機械学習処理において種々のセンサーモダリティをトレーニングするログデータとして使用されることもある。
【0076】
いくつかの例において、認知システム116は、画像データ110、LIDARセンサーデータ112、センサーデータ114、融合センサーデータ134(たとえば、1つまたは複数のオブジェクトのグループ522、524、526)、および/または認知システム116の他の出力のうちのどれでも、機械学習システム344(たとえば、CNN(畳み込みニューラルネットワーク))、例えば、図3に関して上に説明した機械学習システム344などに提供し得る。例えば、画像取り込みデバイス102、LIDARセンサー104、および/またはセンサー106は、環境108に関連付けられたそれぞれの連続的なシーンを表すデータを含む1つまたは複数の信号を、認知システム116に伝達し得る。認知システム116および/またはオブジェクト検出システム118は、1つまたは複数の信号を、機械学習システム344に伝達することがあり、データが、機械学習システム344を使用して分割され得る(たとえば、画像データ110が分割され得る)。上記の例において、機械学習システム344に提供される信号または情報のうちのどれでも、機械学習システム344をトレーニングするために、グランドトゥルースとして使用され得る。同一のまたは類似したアルゴリズムを使用して、どんな1つまたは複数のその他のセンサーモダリティでも分割し得る。いくつかの例にて、機械学習システム344は、単独か、認知システム116のオブジェクト検出システム118または他のコンポーネントとの組み合わせかのいずれかにおいて、分割モデルまたはトレーニングされた他のコンポーネントを実行する、および/またはデータのオブジェクトを分割することがある。いくつかの例において、分割に、ならびに/またはデータ関連付け、オブジェクト認識、データ特徴付け、および/もしくは本明細書に説明される他の処理のうちのどれにでも、少なくとも部分的に基づいて、機械学習システム344は、融合センサーデータ134に含まれる(たとえば、1つまたは複数のオブジェクトのグループ522、524、526に含まれる)が、他のデータ分割に矛盾する少なくとも1つのデータ分割を特定することによって、オブジェクトのグループ502~518のうちの少なくとも1つにない、または誤分類されているオブジェクト122を特定するように構成され得る。いくつかの例において、今述べたやり方によるオブジェクト122の識別は、例えば、本明細書に説明される他の方法に従って、確かめられる、または割り引いて考えられることがある。たとえば、上述のように、後に観測される(たとえば、将来の)センサーデータ、および対応するオブジェクトのグループは、機械学習システム344によって使用されて、オブジェクト122の識別を確かめる、オブジェクト122のロケーションを確かめる、および/またはオブジェクト122に関連付けられたどんな他のパラメーターでも確かめることがある。さらに、上述のように、本開示は、1つまたは複数の上記のシーンにない、または誤分類されている1つまたは複数のオブジェクト122を特定することに制限されない。代わりに、追加の例示的な処理は、1つまたは複数のそれぞれのセンサー信号に含まれるデータに関連付けられた1つまたは複数の追加のおよび/または異なるエラーを決定することを含むことがある。
【0077】
機械学習システム344は、本明細書に説明されるどんなタイプの機械学習システムでも含むことがある。例えば、機械学習システム344は、CNNであることがある。いくつかの例においては、機械学習システム344は、複数の機械学習システムを含むことがある。本明細書において説明されているように、複数のタイプの機械学習が使用されて、使用されている機械学習のタイプの各々にそれぞれの結果を提供することがある。いくつかの例において、信頼スコアは、結果の各々に関連付けられることがあり、信頼される結果は、結果に関連付けられた信頼スコアに少なくとも部分的に基づくことがある。たとえば、最も高い信頼スコアに関連付けられている結果は、他の結果に優先して選択されることがあり、または結果は、信頼スコアに基づいて、たとえば、加重平均等などのような統計的な方法に基づいて、結合されることがある。

【0078】
有効な出力を生成するために、機械学習システム344、例えば、CNNなどは、はじめにパラメーターのセットを学習しなければならない、または「トレーニングされ(trained)」なければならない。トレーニングは、トレーニングデータ528を機械学習システム344に入力することによって達成され、トレーニングデータ528が、予期される出力値に関連付けられる。一般に、今述べた予期される出力値は、「グランドトゥルース(ground truth)」といわれることがある。例えば、グランドトゥルースは、画像における特定のオブジェクトの識別を、オブジェクトに関連付けられた(たとえば、オブジェクトを車または建物として特定するおよびラベル付けする)意味論的な分類またはラベルも同様に、含むことがある。機械学習システム344の正確度は、トレーニングデータ528において提供されるデータの量および/または正確度に基づくことがある。結果として、分割されたセンサーデータを出力するように機械学習システム344をトレーニングするための適切なデータセットは、センサーデータが既知のまたは以前に決定された分割を含むだろう。いくつかの例において、トレーニングデータ528は、現実世界のシーンを表す1つまたは複数のセンサーデータセットに相関する現実世界のシーンを表す1つまたは複数の分割された画像を含むことがあり得て、手作業によって、または、センサーデータセットにおけるオブジェクトを分割する、検出する、分類する、および/もしくはラベル付けするように構成される1つもしくは複数のアルゴリズムを介して、注釈を付けられることがある。いくつかの例において、トレーニングデータ528は、注釈を付けられたオブジェクトを含む、またはコンピューターアルゴリズムによって注釈を付けられた(たとえば、コンピューターによって生成された)合成のデータを含むことがある。トレーニングは、オフラインおよび/またはオンラインのデータ、ならびに上述のように後に観測される(たとえば、将来の)センサーデータを使用して、行われることが可能であり、対応するオブジェクトのグループは、上記のトレーニングおよび/または機械学習訓練に使用され得る。本明細書に説明される例のどれにおいても、融合センサーデータ134は、機械学習システム344に提供されることがあり、および/またはトレーニングデータ528として使用されることがある。追加として、画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114は、機械学習システム344に提供されることがあり、および/またはトレーニングデータ528として使用されることがある。
【0079】
トレーニング(たとえば、機械学習)、オブジェクト分類、および/または他の処理がオンラインで(たとえば、車両302の車両コンピューティングデバイス304および/または他のコンポーネントを使用して)行われる例において、車両コンピューティングデバイス304に関するメモリー318の容量、プロセッサー(複数可)316の速さ/電力、および/または他のパラメーターは、上記の処理が行われる速さに制限があることがあり、さらに、ニューラルネットワーク、アルゴリズム、および/または使用される他のコンポーネントの高度化に制限があることもある。トレーニング(たとえば、機械学習)、オブジェクト分類、および/または他の処理がオフラインで(たとえば、リモートコンピューティングデバイス(複数可)334のプロセッサー(複数可)336および/または他のコンポーネントを使用して)行われる例において、メモリー338の容量は、メモリー318の容量よりも大きいことがある。同じように、プロセッサー(複数可)336の速さ/電力および/またはリモートコンピューティングデバイス(複数可)334の他のパラメーターは、対応するプロセッサー(複数可)316の速さ/電力よりも大きいことがある。結果として、相対的に高度化されたニューラルネットワーク、アルゴリズム、および/または他のコンポーネントは、オフラインの処理において使用されることがある。さらにその上、本明細書に説明される例のどれにおいても、上記のオフラインシステムの相対的なロバストネスのために、リモートコンピューティングデバイス334に関連付けられたオフラインの3次元認知のパイプラインを利用して、例えば、車両302のオンラインセンサーをトレーニングすることがある。
【0080】
さらにその上、いくつかの例において、上記オフラインの機械学習の技法は、オブジェクトの過去のロケーションについての、および/またはオブジェクトの識別/分類についての決定、および/または予測をする時間において、後に獲得されるデータの使用を含むことがある。例えば、ログデータおよび/または他の履歴データは、センサーデータストア340に格納されることがあることが理解される。例えば、上記のログデータは、種々の時点における特定のオブジェクトの感知されたロケーション、上記のオブジェクトの特徴付けおよび/または識別などを示す情報を含むことがある。いくつかの例において、上記の履歴データは、車両302の1つまたは複数のセンサーをトレーニングするのを支援する種々の前方および後方のルーピングプロセス(looping process)において使用されることがある。例えば、上記の履歴データを使用して、本開示のデータ関連付けおよび/またはオブジェクトトラッキング処理の間じゅう、なされる予測を確かめることがある。結果として、オフラインの機械学習訓練の間じゅう、車両302の1つまたは複数のセンサーパイプラインをトレーニングするのを支援するために履歴データを使用することは、車両コンピューティングデバイス304の認知システム322および/または他のコンポーネントによってなされるオンラインの決定の正確度を改善することがある。
【0081】
損失関数を使用して、トレーニングの間じゅう、機械学習システム344の内部パラメーターを調整することがある。損失関数は、トレーニングデータ528に対して予期される出力(またはグランドトゥルース)の値、およびネットワークによって出力される値の関数である。損失関数に含まれた情報は、内部パラメーターを調整するために逆伝搬として機械学習システム344を通じて送られ、それによって、機械学習システム344を調整して有効な出力を提供することがある。ほかのすべてが等しいなら、機械学習システム344をトレーニングするために使用されるトレーニングデータ528が多ければ多いほど、(たとえば、正確な分割および/または分類を提供するときに)より信頼できる機械学習システム344であることがある。
【0082】
例えば、上記の損失関数は、サポートベクターマシン(SVM)損失、ヒンジ損失などを含むことがある。上記の損失関数は、センサーデータを分割するように機械学習システム344をトレーニングするのに使用されることがあるが、予期される、またはグランドトゥルースの、分割されたデータを有する入力データの他のどんな関数でも考えられる。
【0083】
上に参照された例のどれにおいても、1つセンサーモダリティは、どんな他のセンサーモダリティでも通知することがある。制限でない例として、LIDARセンサーデータ112は、例えば、LIDAR特徴トラッキング(LIDAR feature tracking)、LIDAR分割(LIDAR segmentation)、LIDAR分類(LIDAR classification)などに基づいて決定されることがある、車両に最も近い、環境108におけるオブジェクト(静的か動的かどうか)を示すことがある。上記の例にて、LIDARセンサーデータ112において決定されるオブジェクトを使用して、残りのセンサーモダリティにおいて(たとえば、他のLIDARセンサーにおいて、画像データ110、またはセンサーデータ114において)予期されるセンサーリターンを決定することがある。予期されるオブジェクトの検出とデータの測定との間の不一致は、それぞれのセンサーの故障、それぞれのセンサーの誤校正などを示すことがある。本明細書に説明される例のどれにおいても、1つまたは複数の信号および/または対応する画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114は、機械学習システム344に入力されることがあり、レスポンスシステム124は、少なくとも部分的に機械学習システム344の出力に基づいて、対応する応答および/または他の作動126を開始することがある。機械学習システム344および/またはトレーニングデータ528は、画像取り込みデバイス102、LIDARセンサー104、センサー106、および/または本明細書に説明されるその他のセンサーモダリティのうちのどれでもトレーニングするように構成されるおよび/または利用されることがあると理解される。
【0084】
図5の参照を続けて、いくつかの例において、信頼レベルは、オブジェクト122の識別に関連付けられることがあり、上記の例において、レスポンスシステム124は、オブジェクト122の識別に関連付けられた信頼レベルが、しきい値の信頼レベルに下がると、応答および/またはどんな他の作動126でも開始するように構成されることがある。例えば、本明細書に説明される1つまたは複数の応答および/またはどんな他の作動126でもなど、これらは、画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114に関連付けられたに不正確さを考慮に入れるのに使用されることがあり、車両202の動作を改善することがある。
【0085】
いくつかの例において、認知システム116は、(たとえば、物理的にか、通信システムを介してかのいずれか)車両に接続されることがあり、応答および/またはどんな他の作動126でも開始することは、例えば、通信接続(複数可)310(図3)を介して、車両の動作を支援するように構成されたテレオペレーションシステム530と通信を開始すること、または検証要求を生成することのうちの1つまたは複数を含むことがある。いくつかの例において、上記の検証要求を生成することは、1つまたは複数の特定されるオブジェクト122が障害物でないことに関する車両サービスセンター532の通知を開始することを含むことがある。例えば、車両は、支援モードに従って動作するように構成されることがあり、ここで、車両から遠隔に位置されることがあるテレオペレーションシステム530は、(たとえば、通信接続(複数可)310および/または関連する通信ネットワークを介して)動作に関して車両から1つまたは複数の信号を受信することがある。例えば、テレオペレーションシステム530は、例えば、テレオペレーター、および/または本明細書に説明される1つまたは複数の方法を介して、車両から受信される1つまたは複数の信号に基づいて、環境108におけるオブジェクト122の存在または非存在を検証するように構成されることがある。テレオペレーションシステム530は、車両に、本明細書に説明されるように、画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114に関連付けられた不正確さを考慮に入れる応答および/またはどんな他の作動126でも開始させる1つまたは複数の信号を、車両に送るように構成されることがある。制限でない例として、上記のテレオペレーターの作動は、車両を停止させるコマンドを送ること、種々のセンサーモダリティに割り当てられた重みを調整すること、エラーを解消するおよび/または軽減するコマンドを送ることなどを含むことがある。
【0086】
上述のように、いくつかの例において、応答および/または他の作動126を開始することは、例えば、ドライブモジュール(複数可)314(図3)との通信によって、車両の進行方向を反対にすることを含むことがある。いくつかの例において、車両は、例えば、本明細書に説明されるように、第1の方向か第2の反対方向かのいずれかにおいて、一般に等しい性能により動作するように構成された双方向車両であることがある。上記の例において、車両は、少なくとも類似したセンサーを車両の両端に有することがあり、ドライブモジュール(複数可)314は、認知システム116および/またはオブジェクト検出システム118が、オブジェクト122を環境108において存在するとして特定し、(たとえば、特定されるオブジェクト122が、上述の1つまたは複数のオブジェクトのグループにないまたは誤分類されていると決定する)認知システム116によって受信された1つまたは複数のそれぞれのセンサー信号に含まれるデータに関連付けられた、対応するエラーを決定するならば、車両に、反対の進行方向に動作させるように構成されることがある。
【0087】
さらにその上、上述のように、上記の応答および/または他の作動126は、特に、画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114の一部を無視することのうちの少なくとも1つを含むことがある。さらに、上記の応答および/または他の作動126は、1つまたは複数の画像取り込みデバイス102、LIDARセンサー104、1つまたは複数の追加のセンサー106、センサーシステム(複数可)306(図3)の他のセンサー、および/またはセンサーシステム(複数可)306のそれぞれのセンサーから受信された信号に関連付けられた重み、信頼値、および/または他のメトリックを修正することを含むこともある。さらに、上記の応答および/または他の作動126は、上に説明されたトレーニングデータ528を修正することを含むことがある。
【0088】
さらに、本明細書に説明される例のどれにおいても、認知システム116、オブジェクト検出システム118、機械学習システム344、および/または本開示の他のシステムは、上に説明した種々のオブジェクトのグループを互いと比較するように構成されることがあり、上記の比較に少なくとも部分的に基づいて、応答および/または他の作動126を開始することがある。例えば、認知システム116は、オブジェクトのグループ502、508、514、および/または時間T1において収集されたセンサーデータに関連付けられた他のオブジェクトのグループを、互いと比較するように構成されることがある。認知システム116のオブジェクト検出システム118は、例えば、どんな違いが、オブジェクトのグループ502、508、514の間に、および/またはオブジェクトのグループ502、508、514に関連付けられたどんなパラメーター間でも、存在するかどうかを決定するように構成されることがある。例えば、オブジェクト検出システム118は、オブジェクトのグループ502に含まれる1つまたは複数のオブジェクトが、オブジェクトのグループ508および/またはオブジェクトのグループ514にない(たとえば、フォールスネガティブ)と決定するように構成されることがある。さらなる例において、オブジェクト検出システム118は、オブジェクトのグループ502に含まれる1つまたは複数のオブジェクトが、オブジェクトのグループ508および/またはオブジェクトのグループ514に含まれる対応するオブジェクトと異なる(たとえば、フォールスポジティブまたは誤分類)と決定するように構成されることがある。上記の例において、レスポンスシステム124は、上記の決定に少なくとも部分的に基づいて、応答および/またはどんな他の作動でも開始することがある。さらに、認知システム116は、オブジェクトのグループ504、510、516、および/または時間T2において収集された他のオブジェクトのグループを、互いと比較するなどのように構成されることがあると理解される。本明細書に説明される例のどれにおいても、オブジェクトのグループ(たとえば、オブジェクトのグループ502、508、514)を互いと比較すること、および/またはそれぞれのオブジェクトのグループ(たとえば、オブジェクトのグループ502、508、514)のうちのどれでも融合センサーデータ134と比較することは、比較の目的のために、それぞれのオブジェクトのグループに含まれる個々のオブジェクトを互いに関連付けることを含むことがある。いくつかの例において、上記の「オブジェクトアソシエーション」処理は、あるセンサーデータセットからのデータまたはオブジェクトを、その他に投影することを含むことがある。制限でない例として、画像データ110に含まれるオブジェクトのグループ502を示すデータは、オブジェクトのグループ508を含むLIDARセンサーデータ112に、および/またはオブジェクトのグループ514を含むセンサーデータ114に投影されて(またはそうでなければ関連付けられて)、環境において同一のオブジェクトに対応する、グループのオブジェクトを決定することがある。追加としてまたは代替として、融合センサーデータ134の少なくとも一部(たとえば、オブジェクトのグループ522に含まれる1つまたは複数のオブジェクト)は、画像データ110の一部、LIDARセンサーデータ112の一部、および/またはセンサーデータ114の一部に関連付けられて、融合センサーデータ134に検出されたオブジェクトのグループ522においてどのオブジェクトが、オブジェクトのグループ502、508、および/または514のオブジェクトに対応するかを決定することがある。例えば、上記のオブジェクトアソシエーション処理の一部として、認知システム116は、オブジェクトのグループ522に含まれる1つまたは複数のオブジェクトを、シーンD、E、および/またはFに投影して(またはそうでなければ関連付けて)、もしあれば、オブジェクトのグループ522のどのオブジェクトが、オブジェクトのグループ502、508、514のどれかに対応するかを決定することがある。代替として、それぞれのオブジェクトのグループ502、508、514に含まれる、および/または特定される1つまたは複数のオブジェクトは、融合センサーデータ134(たとえば、オブジェクトのグループ522)に投影されることがある。上記のオブジェクトアソシエーション処理は、認知システム116によって、1つまたは複数のデータアライメント、フィーチャーマッチング、および/または他のデータマッピング技法を使用して行われることがある。どんな上記のオブジェクトアソシエーション処理においても、認知システム116は、各センサーモダリティの出力を、特定のオブジェクトと、および/またはそれぞれのロケーションと相関させることがある。結果として、それぞれのセンサーモダリティに関する個々の出力は、忠実度と比較されることが可能である。いくつかの例において、上に説明されたオブジェクトアソシエーション処理のうちのどれでも、認知システム116によって、1つまたは複数のデータアソシエーション、オブジェクト認識、オブジェクト特徴付け特性評価、および/または本明細書に説明される他の処理のうちの一部として行われることがある。
【0089】
図6は、ハードウェア、ソフトウェア、またはそれらの組合せにおいて実装されることが可能である動作のシーケンスを表す、ロジカルフローグラフにおけるブロックの集まりとして例示される例示的な処理600のフロー図である。ソフトウェアのコンテキストにおいては、ブロックは、1つまたは複数のコンピューター読み取り可能な記録媒体に格納されたコンピューター実行可能な命令を表し、1つまたは複数のプロセッサーによって実行されると、引用される動作を実行する。一般に、コンピューター実行可能な命令は、特定の機能を実行するかまたは特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。動作が記述されている順序は、制限として解釈されることを意図せず、プロセスを実装するために、記述されているブロックをいくつでも、どんな順序でもおよび/または並列に組み合わされることが可能である。
【0090】
いくつかの例において、図6の処理600は、個々のセンサーデータを融合センサーデータと比較し、認知システム116によって受信される1つまたは複数のそれぞれのセンサーデータに含まれるデータに関連付けられたエラーを特定する、および/またはそうでなければ決定する(たとえば、融合センサーデータに存在するが、種々のセンサー信号に関連付けられた1つまたは複数のオブジェクトのグループにない、または誤分類されている特定のオブジェクトを決定する)のに採用されることがある。さらに、上記の処理600は、上記のエラーが、(たとえば、上記のオブジェクトを特定することに少なくとも部分的に基づいて)存在すると決定することに少なくとも部分的に基づいて、応答または他の作動を開始することを含むこともある。追加としてまたは代替として、上記の処理600は、上記のエラーが存在すると決定することに少なくとも部分的に基づいて、機械学習システムをトレーニングすることを含むことがある。処理600に関連付けられたステップのうちのどれでも、オンラインで(たとえば、車両302に配置される1つまたは複数のプロセッサー316によって)、および/またはオフラインで(たとえば、1つまたは複数のリモートコンピューティングデバイス334によって)行われることがある。602において、例示的な処理600は、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334(たとえば、1つまたは複数のサーバーコンピューターまたは他のリモートコンピューティングデバイス)の他のコンポーネントによって、第1の信号を第1のセンサーから受信することを含むことがある。上記の例において、第1のセンサーは、特に、1つまたは複数の画像取り込みデバイス102、および/またはセンサーシステム(複数可)306に関して本明細書に説明される1つまたは複数の他のセンサーを含むことがある。追加として、上記の第1のセンサーは、車両302に配置される、および/またはそうでなければ連結されることがある。いくつかの例において、車両302は、自律車両、半自律車両(semi-autonomous vehicle)、および/または業界に既知のどんな他の車両でも含むことがある。602において受信される第1の信号は、第1のデータ(たとえば、画像データ110)および/または環境108を表す他のデータを含むことがある。例えば、602において受信される画像データ110は、画像取り込みデバイス102によって検出される第1のシーンAを表すことがある。少なくとも図1に関して上述したように、いくつかの例において、上記の第1のシーンAは、第1のセンサーが存在する環境108に検出される第1のオブジェクトのグループ128を含むことがある。特に、第1のシーンAは、環境108において、第1のセンサー(たとえば、画像取り込みデバイス102)によって実際に検出される第1のオブジェクトのグループ128を含むことがある。本明細書に説明される例のどれにおいても、602にて、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、第1のデータ(たとえば、画像データ110)に少なくとも部分的に基づいて、1つまたは複数の分割、分類、および/または他のデータ分析処理を使用して、第1のオブジェクトのグループ128を決定することがある。
【0091】
604において、例示的な処理600は、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントによって、第2の信号を、車両302に配置される第2のセンサー(たとえば、LIDARセンサー104)から受信することを含むことがある。上記の例において、604にて受信される第2の信号は、第2のデータ(たとえば、LIDARセンサーデータ112)および/または環境108を表す他のデータを含むことがある。例えば、604において受信されるLIDARセンサーデータ112は、LIDARセンサー104によって検出される第2のシーンBを表すことがある。いくつかの例において、第2のシーンBは、第1のシーンAが第1のセンサーによって検出されるのと同じ時間にて(たとえば、実質的に同時に)、第2のセンサーによって検出されることがある。追加として、図1に関して上に説明したように、第2のシーンBは、環境108に検出可能な第2のオブジェクトのグループ130を含むことがある。特に、シーンBは、環境108において、第2のセンサー(たとえば、LIDARセンサー104)によって実際に検出される第2のオブジェクトのグループ130を含むことがある。シーンAが第1のセンサーによって検出されるのと同じ時間において、シーンBが第2のセンサーによって検出される例にて、第1のオブジェクトのグループ128は、第2のオブジェクトのグループ130と実質的に同一であることがある。本明細書に説明される例のどれにおいても、604にて、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、第2のデータ(たとえば、LIDARセンサーデータ112)に少なくとも部分的に基づいて、1つまたは複数の分割、分類、および/または他のデータ分析処理を使用して、第2のオブジェクトのグループ130を決定することがある。
【0092】
さらなる例において、606にて、例示的な処理600は、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントによって、第3の信号を、車両302に配置される1つまたは複数の追加のセンサー106(たとえば、RADARセンサー)から受信することを含むことがある。上記の例において、606にて受信される第3の信号は、第3のデータ(たとえば、センサーデータ114)および/または環境108を表す他のデータを含むことがある。例えば、606において受信されるセンサーデータ114(たとえば、RADARセンサーデータ)は、1つまたは複数の追加のセンサー106によって(たとえば、RADARセンサーによって)検出される第3のシーンCを表すことがある。第3のシーンCは、第1のシーンAが第1のセンサーによって検出される、および/または第2のシーンBが第2のセンサーによって検出されるのと同じ時間にて(たとえば、実質的に同時に)、1つまたは複数の追加のセンサー106によって検出されることがある。追加として、図1に関して説明したように、第3のシーンCは、環境108に検出可能な第3のオブジェクトのグループ132を含むことがある。特に、シーンCは、環境108において、1つまたは複数の追加のセンサー106によって実際に検出される第3のオブジェクトのグループ132を含むことがある。シーンAが第1のセンサーによって検出されるのと同じ時間において、シーンCが1つまたは複数の追加のセンサー106によって検出される例にて、第3のオブジェクトのグループ132は、第1のオブジェクトのグループ128と実質的に同一である、または少なくともいくつものデータを共通に(たとえば、オーバーラップする視野を有することによって)有することがある。シーンBが第2のセンサーによって検出されるのと同じ時間において、シーンCが1つまたは複数の追加のセンサー106によって検出される例にて、第3のオブジェクトのグループ132は、第2のオブジェクトのグループ130と実質的に同一である、または少なくともいくつものデータを共通に(たとえば、オーバーラップする視野を有することによって)有することがある。本明細書に説明される例のどれにおいても、606にて、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、第3のデータ(たとえば、センサーデータ114)に少なくとも部分的に基づいて、1つまたは複数の分割、分類、および/または他のデータ分析処理を使用して、第3のオブジェクトのグループ132を決定することがある。
【0093】
608において、認知システム116は、602にて受信される第1のデータ(たとえば、画像データ110)、604にて受信される第2のデータ(たとえば、LIDARセンサーデータ112)、および/または606にて受信される第3のデータ(たとえば、センサーデータ114)に少なくとも部分的に基づいて、第4のオブジェクトのグループ120を決定することがある。例えば、608において、認知システム116は、認知システム116によって予測される、決定される、および/または示される融合センサーデータ134を、環境108内に存在するとして、生成するおよび/またはそうでなければ決定することがある。認知システム116は、本明細書に説明される融合技法のどれでも使用して、602、604、および/または606にて受信される1つまたは複数の信号に含まれる情報に少なくとも部分的基づいて、608において上記の融合センサーデータ134を生成することがある。例えば、認知システム116は、受信される画像データ110、受信されるLIDARセンサーデータ112、および/または受信されるセンサーデータ114に少なくとも部分的に基づいて、上記の融合センサーデータ134を生成することがあり、608にて生成される融合センサーデータ134は、上に説明した第4のオブジェクトのグループ120を含むことがある。上記の例において、オブジェクトのグループ120(たとえば、融合センサーデータ134)は、認知システム116によって予測される、決定される、および/または示されるオブジェクトを、環境108内に存在するとして含むことがある。本明細書に説明されるように、上記の融合センサーデータ134は、認知システム116によって、および/または機械学習システム344によって、個々のセンサーモダリティをトレーニングするためにグランドトゥルース情報として使用されることがある。
【0094】
610において、認知システム116は、不一致が、融合センサーデータ134と、個々のセンサーモダリティから受信されるデータとの間に存在するかどうかを決定するために、602にて受信される第1のデータ(たとえば、画像データ110)、604にて受信される第2のデータ(たとえば、LIDARセンサーデータ112)、606にて受信される第3のデータ(たとえば、センサーデータ114)、および/または602、604、および/または606において受信される1つまたは複数の信号に含まれるどんな他のデータでも、608において生成される融合センサーデータ134と比較することがある。例えば、610において、認知システム116は、第1のオブジェクトのグループ128、第2のオブジェクトのグループ130、および第3のオブジェクトのグループ132を、608にて決定される第4のオブジェクトのグループ120と比較して、1つまたは複数のエラーが、それぞれのオブジェクトのグループ128、130、132に存在するかどうかを決定することがある。上記の比較において、第4のオブジェクトのグループ120は、第4のオブジェクトのグループ120が、複数のソース(たとえば、画像取り込みデバイス102、LIDARセンサー104、1つまたは複数の追加のセンサー106など)からのデータ(たとえば、画像データ110、LIDARセンサーデータ112、センサーデータ114など)を使用して、生成されたので、グランドトゥルースとして扱われることがある。
【0095】
612において、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、第1のオブジェクトのグループ128、第2のオブジェクトのグループ130、および/または第3のオブジェクトのグループ132が、オブジェクトのグループ120に関する(たとえば、仮定されたグランドトゥルースに関する)エラーを含むかどうかを決定することがある。例えば、612において、1つまたは複数のプロセッサー(複数可)316および/または車両コンピューティングデバイス304の他のコンポーネントは、融合センサーデータ134に含まれる1つまたは複数のオブジェクト122(たとえば、オブジェクトのグループ120に含まれる1つまたは複数のオブジェクト122)が、それぞれ、602、604、606において受信される信号に対応するオブジェクトのグループ128、130、132のうちの少なくとも1つにない、または誤分類されているかどうかを決定することがある。例えば、612において、オブジェクト検出システム118および/または認知システム116は、オブジェクトのグループ120に含まれる1つまたは複数のオブジェクト(たとえば、オブジェクト122)が、オブジェクトのグループ128、130、132のうちの少なくとも1つにない(たとえば、オブジェクトのグループ128、130、132のうちの少なくとも1つに関連付けられたフォールスネガティブである)と決定するように構成されることがある。さらなる例にて、610において、オブジェクト検出システム118および/または認知システム116は、オブジェクトのグループ120に含まれる1つまたは複数のオブジェクト(たとえば、オブジェクト122)が、オブジェクトのグループ128、130、132のうちの少なくとも1つに含まれる対応するオブジェクトと異なる(たとえば、オブジェクトのグループ128、130、132のうちの少なくとも1つにおけるオブジェクトに関連付けられたフォールスポジティブまたは誤分類である)と決定するように構成されることがある。依然としてさらなる例にて、610において、オブジェクト検出システム118および/または認知システムは、本明細書に説明されるその他のエラーのどれでも決定するおよび/または特定するように構成されることがある。どの上記の例においても、612において、オブジェクト検出システム118および/または認知システム116は、「はい」、エラーが存在すると決定することがある。例えば、612において、認知システム116は、「はい」、融合センサーデータ134に含まれる(たとえば、オブジェクトのグループ120に含まれる)オブジェクト(たとえば、オブジェクト122)がオブジェクトのグループ128、130、132のうちの少なくとも1つにない、または誤分類されていると決定することがあり、システムは、614および/または616に進むことがある。代替として、612において、オブジェクト検出システム118および/または認知システム116は、「いいえ」、エラーが存在しないと決定することがある。例えば、612において、認知システム116は、「いいえ」、オブジェクトのグループ128、130、132にない、または誤分類されている、融合センサーデータ134に含まれる(たとえば、オブジェクトのグループ120に含まれる)オブジェクトがない(たとえば、オブジェクトのグループ128、130、132に確認されるオブジェクトが、各々、オブジェクトのグループ120に含まれる)と決定することがある。上記の例において、システムは、602に進むことがある。
【0096】
614において、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、602、604、および/または606にて受信される1つまたは複数の信号に含まれる情報を、上に説明された機械学習システム344をトレーニングするときにグランドトゥルースとして使用することがある。例えば、614において、認知システム116は、602、604、606にて受信される信号のどれが、決定されたエラーに対応するのか、および/または上記の信号のどれが、機械学習システム344をトレーニングするのに有用であることがある情報を含むのかを特定することがある。上記の情報は、614において、機械学習システム344をトレーニングするためのグランドトゥルースの例として、使用されることがある。いくつかの例にて、機械学習システム344は、単独か、認知システム116のオブジェクト検出システム118または他のコンポーネントとの組み合わせかのいずれかにおいて、シーン(たとえば、上に説明された1つまたは複数のシーンA~Gなど)に検出されるすべてのオブジェクトを特定する、分類する、および/またはカテゴライズすることがあり、1つまたは複数の上記のシーンにない、または誤分類されている1つまたは複数のオブジェクト122を特定することがある。いくつかの例において、614に関連付けられた処理は、オフラインまたはオンラインで行われることがある。
【0097】
616において、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、612にてエラーを決定することに少なくとも部分的に基づいて、応答、および/またはどんな他の作動126でも開始することがある。例えば、616において、1つまたは複数のプロセッサー(複数可)316および/または車両コンピューティングデバイス304の他のコンポーネントは、612にて特定されるオブジェクト122が、オブジェクトのグループ128、130、132のうちの少なくとも1つにない、または誤分類されていると決定することがある。例えば、612において、認知システム116は、オブジェクト122が、オブジェクトのグループ130にないこと、およびオブジェクト122が、オブジェクトのグループ128とオブジェクトのグループ132とに含まれていることを決定することがある。上記の決定に少なくとも部分的に基づいて、616において、レスポンスシステム124は、上に説明された応答のどれでも開始することがある。例えば、上記の応答は、特に、画像データ110、LIDARセンサーデータ112、および/またはセンサーデータ114の一部を無視することのうちの少なくとも1つを含むことがある。さらに、616にて開始された上記の応答および/または他の作動126は、1つまたは複数の画像取り込みデバイス102、LIDARセンサー104、1つまたは複数の追加のセンサー106、センサーシステム(複数可)306の他のセンサー、および/またはセンサーシステム(複数可)306のそれぞれのセンサーから受信された信号に関連付けられた重み、信頼値、および/または他のメトリックを修正することを含むこともある。さらに、616にて開始された上記の応答および/または他の作動126は、1つまたは複数の画像取り込みデバイス102、LIDARセンサー104、1つまたは複数の追加のセンサー106、センサーシステム(複数可)306の他のセンサーに関連付けられたトレーニングデータ528を修正することを含むことがある。いくつかの例において、さらに、616にて開始された上記の応答および/または他の作動126は、検証要求を生成すること、および/または通信接続(複数可)310を使用して、人間のオペレーターおよび/またはテレオペレーターによる検討のために上記の検証要求をサービスセンター532および/またはテレオペレーションシステム530に送ることを含むこともある。さらに、616にて開始された上記の応答および/または他の作動126は、1つまたは複数のドライブモジュール(複数可)314を制御して、車両302の速さ、方向、および/または他の動作パラメーターを変えることを含むこともある。いくつかの例において、616に関連付けられた処理は、オフラインまたはオンラインで行われることがある。
【0098】
上述のように、方法600は、ハードウェア、ソフトウェア、またはそれらの組合せにおいて実装されることが可能である動作のシーケンスを表す、ロジカルフローグラフにおけるブロックの集まりとして例示される。ソフトウェアのコンテキストにおいては、ブロックは、1つまたは複数のコンピューター読み取り可能な記録媒体に格納されたコンピューター実行可能な命令を表し、1つまたは複数のプロセッサーによって実行されると、引用される動作を実行する。一般に、コンピューター実行可能な命令は、特定の機能を実行するかまたは特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。動作が記述されている順序は、制限として解釈されることを意図せず、プロセスを実装するために、記述されているブロックをいくつでも、どんな順序でもおよび/または並列に組み合わされることが可能である。いくつかの実施態様において、処理の1つまたは複数のブロックは、完全に省略されることがある。さらにその上、方法600は、全体的または部分的に、他の方法と組み合わされることがある。
【0099】
図7は、ハードウェア、ソフトウェア、またはそれらの組合せにおいて実装されることが可能である動作のシーケンスを表す、ロジカルフローグラフにおけるブロックの集まりとして例示される別の例示的な処理700のフロー図である。ソフトウェアのコンテキストにおいては、ブロックは、1つまたは複数のコンピューター読み取り可能な記録媒体に格納されたコンピューター実行可能な命令を表し、1つまたは複数のプロセッサーによって実行されると、引用される動作を実行する。一般に、コンピューター実行可能な命令は、特定の機能を実行するかまたは特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。動作が記述されている順序は、制限として解釈されることを意図せず、プロセスを実装するために、記述されているブロックをいくつでも、どんな順序でもおよび/または並列に組み合わされることが可能である。いくつかの点において、実質的に、処理700は、図6に関して上に説明された処理600と類似する、および/または同一であることがある。可能なら、同様のアイテムの数字を、以下に使用して、実質的に、処理600の対応するアスペクトと類似するおよび/または同一である処理700のアスペクトを説明するだろう。
【0100】
いくつかの例において、図7の処理700は、センサーデータに関連付けられたそれぞれのオブジェクトのグループに関連付けられたパラメーターを決定するのに採用されることがある。処理700は、種々のパラメーターを比較して、1つまたは複数の差異が、上記のパラメーターの間に存在するかどうかを決定することを含むことがある。さらに、上記の処理700は、上記の差異が存在すると決定することに少なくとも部分的に基づいて、応答または他の作動を開始することを含むことがある。追加としてまたは代替として、上記の処理700は、上記の差異が存在すると決定することに少なくとも部分的に基づいて、機械学習システムをトレーニングすることを含むことがある。処理700に関連付けられたステップのうちのどれでも、オンラインで(たとえば、車両302に配置される1つまたは複数のプロセッサー316によって)、および/またはオフラインで(たとえば、1つまたは複数のリモートコンピューティングデバイス334によって)行われることがある。
【0101】
702において、例示的な処理700は、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334(たとえば、1つまたは複数のサーバーコンピューターまたは他のリモートコンピューティングデバイス)の他のコンポーネントによって、第1の信号を第1のセンサーから受信することを含むことがある。上記の例において、第1のセンサーは、特に、1つまたは複数の画像取り込みデバイス102、および/またはセンサーシステム(複数可)306に関して本明細書に説明される1つまたは複数の他のセンサーを含むことがある。追加として、上記の第1のセンサーは、車両302に配置される、および/またはそうでなければ連結されることがある。いくつかの例において、車両302は、自律車両、半自律車両(semi-autonomous vehicle)、および/または業界に既知のどんな他の車両でも含むことがある。702において受信される第1の信号は、第1のデータ(たとえば、画像データ110)および/または環境108を表す他のデータを含むことがある。例えば、702において受信される画像データ110は、画像取り込みデバイス102によって検出される第1のシーンAを表すことがある。本明細書に説明される例のどれにおいても、702にて、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、第1のデータ(たとえば、画像データ110)に少なくとも部分的に基づいて、1つまたは複数の検出、分割、分類、および/または他のデータ分析処理を使用して、第1のオブジェクトのグループ128を決定することがある。
【0102】
さらに、702にて、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、第1のオブジェクトのグループ128に関連付けられた1つまたは複数のパラメーター(たとえば、第1のパラメーター)を、第1のデータを使用して決定することがある。本明細書に説明される例のどれにおいても、上記のパラメーターは、特に、環境108のオブジェクトの分類、環境108のオブジェクトの実在(existence)および/または存在(presence)に関する決定(すなわち、検出)、環境108のオブジェクトのロケーション(たとえば、ロケーションL)、オブジェクトの向き、オブジェクトの数、不確実性、および/または上記のオブジェクトのどんな他の特性、メトリック、またはアスペクトでも含むことがある。
【0103】
704において、例示的な処理700は、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントによって、第2の信号を、車両302に配置される第2のセンサー(たとえば、LIDARセンサー104、またはセンサーシステム(複数可)306のうちのどんな他のセンサーでも)から受信することを含むことがある。上記の例において、704にて受信される第2の信号は、第2のデータ(たとえば、LIDARセンサーデータ112)および/または環境108を表す他のデータを含むことがある。例えば、704において受信されるLIDARセンサーデータ112は、LIDARセンサー104によって検出される第2のシーンBを表すことがある。図1に関して上に説明したように、第2のシーンBは、環境108に検出可能な第2のオブジェクトのグループ130を含むことがある。特に、シーンBは、環境108において、第2のセンサー(たとえば、LIDARセンサー104)によって実際に検出される第2のオブジェクトのグループ130を含むことがある。シーンAが第1のセンサーによって検出されるのと同じ時間において、シーンBが第2のセンサーによって検出される例にて、第1のオブジェクトのグループ128のうちの少なくとも1つは、第2のオブジェクトのグループ130のうちの少なくとも1つと実質的に同一であることがある。本明細書に説明される例のどれにおいても、704にて、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、第2のデータ(たとえば、LIDARセンサーデータ112)に少なくとも部分的に基づいて、1つまたは複数の検出、分割、分類、および/または他のデータ分析処理を使用して、第2のオブジェクトのグループ130を決定することがある。さらに、704にて、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、第2のオブジェクトのグループ130に関連付けられた1つまたは複数のパラメーター(たとえば、第2のパラメーター)を、第2のデータを使用して決定することがある。本明細書に説明される例のどれにおいても、上記のパラメーターは、702に関して上に説明されたパラメーターのうちのどれでも含むことがある。
【0104】
さらなる例において、706にて、例示的な処理700は、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントによって、第3の信号を、車両302に配置される1つまたは複数の追加のセンサー106(たとえば、RADARセンサー、またはセンサーシステム(複数可)306のどんな他のセンサーでも)から受信することを含むことがある。上記の例において、706にて受信される第3の信号は、第3のデータ(たとえば、センサーデータ114)および/または環境108を表す他のデータを含むことがある。例えば、706において受信されるセンサーデータ114(たとえば、RADARセンサーデータ)は、1つまたは複数の追加のセンサー106によって(たとえば、RADARセンサーによって)検出される第3のシーンCを表すことがある。図1に関して説明したように、第3のシーンCは、環境108に検出可能な第3のオブジェクトのグループ132を含むことがある。特に、シーンCは、環境108において、1つまたは複数の追加のセンサー106によって実際に検出される第3のオブジェクトのグループ132を含むことがある。本明細書に説明される例のどれにおいても、706にて、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、第3のデータ(たとえば、センサーデータ114)に少なくとも部分的に基づいて、1つまたは複数の検出、分割、分類、および/または他のデータ分析処理を使用して、第3のオブジェクトのグループ132を決定することがある。さらに、706にて、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、第3のオブジェクトのグループ132に関連付けられた1つまたは複数のパラメーター(たとえば、第3のパラメーター)を決定することがある。本明細書に説明される例のどれにおいても、上記のパラメーターは、702に関して上に説明されたパラメーターのうちのどれでも含むことがある。
【0105】
708において、認知システム116は、702にて受信される第1のデータ(たとえば、画像データ110)、704にて受信される第2のデータ(たとえば、LIDARセンサーデータ112)、および/または706にて受信される第3のデータ(たとえば、センサーデータ114)に少なくとも部分的に基づいて、第4のオブジェクトのグループに関連付けられた第4のパラメーターを決定することがある。例えば、708において、認知システム116は、認知システム116によって予測される、決定される、および/または示される融合センサーデータ134を、環境108内に存在するとして、生成するおよび/またはそうでなければ決定することがある。認知システム116は、本明細書に説明される融合技法のどれでも使用して、702、704、および/または706にて受信される1つまたは複数の信号に含まれる情報に少なくとも部分的基づいて、708において上記の融合センサーデータ134を生成することがある。例えば、認知システム116は、受信される画像データ110、受信されるLIDARセンサーデータ112、および/または受信されるセンサーデータ114に少なくとも部分的に基づいて、上記の融合センサーデータ134を生成することがあり、708にて生成される融合センサーデータ134は、第4のオブジェクトのグループ120を含むことがある。上記の例において、オブジェクトのグループ120(たとえば、融合センサーデータ134)は、認知システム116によって予測される、決定される、および/または示されるオブジェクトを、環境108内に存在するとして含むことがある。従って、708にて、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、オブジェクトのグループ120に関連付けられた1つまたは複数のパラメーター(たとえば、第4のパラメーター)を決定することがある。本明細書に説明される例のどれにおいても、上記のパラメーターは、702に関して上に説明されたパラメーターのうちのどれでも含むことがある。
【0106】
710において、認知システム116は、オブジェクトのグループ120、128、130、132の間にて、1つまたは複数の対応するオブジェクトを決定することがある。次に、認知システム116は、対応するオブジェクト(すなわち、環境中の同一のオブジェクトを表す検出されたオブジェクト)に対して、708にて決定される第4のパラメーターと、702にて決定される第1のパラメーター、704にて決定される第2のパラメーター、および/または706にて決定される第3のパラメーターを、上記のパラメーターに差異があるかどうか(および/または上記の差異がしきい値を超えるかどうか)を決定するために、比較することがある。たとえば、710において、認知システム116は、環境108のオブジェクトの分類(上記の分類に関する確実性のインディケーションを含む)、環境108のオブジェクトの実在および/または存在に関する決定(上記の検出に関する不確実性を含む)、環境108のオブジェクトのロケーション(たとえば、ロケーションL)(上記のロケーションに関する不確実性を含む)、オブジェクトの向き(上記の不確実性に関する不確実性を含む)、オブジェクトの数、不確実性、および/または702にて決定されるどんな他の第1のパラメーターでも、708にて決定されるオブジェクトの対応するパラメーターと比較することがある。710において、さらに、認知システム116は、704および706にて決定される第2および第3のパラメーターの間における類似した比較を、708にて決定される対応するパラメーターによって行うこともある。
【0107】
追加の例にて、710において、認知システムは、不一致が、融合センサーデータ134と、個々のセンサーモダリティから受信されるデータとの間に存在するかどうかを決定するために、702にて受信される第1のデータ(たとえば、画像データ110)、704にて受信される第2のデータ(たとえば、LIDARセンサーデータ112)、706にて受信される第3のデータ(たとえば、センサーデータ114)、および/または702、704、および/または706において受信される1つまたは複数の信号に含まれるどんな他のデータでも、上に説明された融合センサーデータ134と比較することがある。上記の例において、710にて、認知システム116は、第1のオブジェクトのグループ128、第2のオブジェクトのグループ130、および第3のオブジェクトのグループ132を、708にて決定される第4のオブジェクトのグループ120と比較して、差異が、オブジェクトのグループ128、130、132とオブジェクトのグループ120との間において存在するかどうかを決定する、および/または1つまたは複数のエラーが、それぞれのオブジェクトのグループ128、130、132に存在するかどうかを決定することがある。
【0108】
712において、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、差異が、708にて決定されるパラメーターと、702、704、および/または706にて決定されるパラメーターのどれかとの間に存在するかどうか(および/または差異がしきい値を超えるかどうか)を決定することがある。たとえば、702にて決定される第1のパラメーターが環境108におけるオブジェクト122の第1の分類を含み、704にて決定される第2のパラメーターがオブジェクト122の第2の分類を含み、706にて決定される第3のパラメーターがオブジェクト122の第3の分類を含み、708にて決定される第4のパラメーターがオブジェクト122の第4の分類を含む例において、712にて特定される上記の差異は、第1、第2、または第3の分類と、第4の分類との間の差異、および/または上記の分類の決定に関する不確実性における差異を含むことがある。同様に、702にて決定される第1のパラメーターが環境108におけるオブジェクト122の実在に関する第1の決定を含み、704にて決定される第2のパラメーターがオブジェクト122の実在に関する第2の決定を含み、706にて決定される第3のパラメーターがオブジェクト122の実在に関する第3の決定を含み、708にて決定される第4のパラメーターがオブジェクト122の実在に関する第4の決定を含む例において、712にて特定される上記の差異は、第1、第2、または第3の決定と、第4の決定の間の差異、および/または上記の決定に関連付けられた不確実性を含むことがある。本明細書に説明される例のどれにおいても、712にて特定される1つまたは複数のパラメーターの差異は、収集されるデータに少なくとも部分的に基づいて、例えば、702にて受信される第1の信号に関連付けられた第1のデータ、704にて受信される第2の信号に関連付けられた第2のデータ、および/または706にて受信される信号に関連付けられた第3のデータが収集される特定の時間よりも後の時点にて、画像取り込みデバイス102、LIDARセンサー104、1つまたは複数の追加のセンサー106、および/または本開示のどんな他のセンサーによっても決定されることがある。例えば、いくつかの実施態様において、第1の信号に含まれる画像データ110によって示される第1のオブジェクトのグループ128は、画像取り込みデバイス102によって、第1の時間t1に検出されることがある。上記の実施態様において、第2の信号に含まれるLIDARセンサーデータ112によって示される第2のオブジェクトのグループ130は、LIDARセンサー104によって、第1の時間T1に検出されることがある。上記の例において、712にて、パラメーターの差異は、第1の時間T1よりも後の第2の時間T2に検出される追加の画像データ110、および/または追加のLIDARセンサーデータ112に少なくとも部分的に基づいて、特定されることがある。
【0109】
依然としてさらなる例において、712にて、1つまたは複数のプロセッサー(複数可)316、および/または車両コンピューティングデバイス304の他のコンポーネントは、融合センサーデータ134に含まれる1つまたは複数のオブジェクト122(たとえば、オブジェクトのグループ120に含まれる1つまたは複数のオブジェクト122)が、それぞれ、702、704、706において受信される信号に対応するオブジェクトのグループ128、130、132のうちの少なくとも1つにない、または誤分類されているかどうかを決定することによって、パラメーターの差異が存在するかどうかを決定することがある。依然としてさらなる例において、本明細書に説明される2つ以上のオブジェクトのグループ128、130、132は、少なくとも1つの共通のオブジェクトを含むことがあることが理解される。上記の例において、処理700は、種々の別個のセンサーによって同時に収集されるデータに少なくとも部分的に基づいて、共通のオブジェクトを特定することを含むことがある。追加としてまたは代替として、上記の共通のオブジェクトは、1つまたは複数のセンサーによって、別個のそれぞれの時間に収集されるデータに少なくとも部分的に基づいて、特定されることがある。いくつかの例において、702にて決定される第1のパラメーターは、共通のオブジェクト(たとえば、オブジェクト122)の第1のロケーションを含むことがあり、704にて決定される第2のパラメーターは、共通のオブジェクトの第2のロケーションを含むことがあり、706にて決定される第3のパラメーターは、共通のオブジェクトの第3のロケーションを含むことがあり、708にて決定される第4のパラメーターは、共通のオブジェクトの第4のロケーションを含むことがある。従って、上記の例において、712にて特定される差異は、上記の決定における少なくとも2つの上記のロケーション間および/または不確実性間の差異を含むことがある。例えば、712にて特定される差異は、第1のロケーションと、第2のロケーションとの間の差異を含むことがある。依然としてさらなる例において、712にて特定される差異は、第1のロケーションと、第4のロケーションとの間の差異を含むことがある。
【0110】
図7の参照を続けて、上に説明された例のどれにおいても、712において、オブジェクト検出システム118および/または認知システム116は、「はい」、比較されている種々のパラメーターに差異が存在する(および/またはしきい値以上である)と決定することがある。例えば、712において、認知システム116は、「はい」、第1のオブジェクトのグループ128に関連付けられたオブジェクトの第1の分類(たとえば、第1のパラメーター)が、第4のオブジェクトのグループ120に関連付けられたオブジェクトの第4の分類(たとえば、第4のパラメーター)と異なると決定することがあり、システムは、714および/または716に進むことがある。代替として、712において、オブジェクト検出システム118および/または認知システム116は、「いいえ」、比較されている種々のパラメーターに差異が存在しないと決定することがある。例えば、712において、認知システム116は、「いいえ」、オブジェクトのグループ120に関連付けられた対応するオブジェクトの分類とは異なる、オブジェクトのグループ128、130、132に関連付けられたオブジェクトの分類がないと決定することがある。上記の例において、システムは、702に進むことがある。
【0111】
714において、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、702、704、706にて受信される1つまたは複数の信号に含まれる情報を、上に説明された機械学習システム344をトレーニングするときにグランドトゥルースとして使用することがある。例えば、714において、認知システム116は、702、704、706にて受信される1つまたは複数の信号のうちのどれが、712にて特定される差異に関連付けられるかを特定することがある。714において、さらに、認知システムは、702、704、706にて受信される1つまたは複数の信号のうちのどれが、機械学習システム344をトレーニングするのに有用であることがある情報を含むのかを特定することもある。上記の情報は、714において、機械学習システム344をトレーニングするためのグランドトゥルースの例として、使用されることがある。いくつかの例にて、機械学習システム344は、単独か、認知システム116のオブジェクト検出システム118または他のコンポーネントとの組み合わせかのいずれかにおいて、シーンに検出されるすべてのオブジェクトを特定する、分類する、および/またはカテゴライズすることがある。
【0112】
716において、1つまたは複数のプロセッサー(複数可)316、ならびに/または車両コンピューティングデバイス304および/もしくはリモートコンピューティングデバイス334の他のコンポーネントは、712にて差異の実在を決定することに少なくとも部分的に基づいて、応答、および/またはどんな他の作動126でも開始することがある。実質的に、上記の応答は、少なくとも図6に関して上に説明された1つまたは複数の応答と類似する、および/または同一であることがある。
【0113】
上述のように、処理700は、ハードウェア、ソフトウェア、またはそれらの組合せにおいて実装されることが可能である動作のシーケンスを表す、ロジカルフローグラフにおけるブロックの集まりとして例示される。ソフトウェアのコンテキストにおいては、ブロックは、1つまたは複数のコンピューター読み取り可能な記録媒体に格納されたコンピューター実行可能な命令を表し、1つまたは複数のプロセッサーによって実行されると、引用される動作を実行する。一般に、コンピューター実行可能な命令は、特定の機能を実行するかまたは特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。動作が記述されている順序は、制限として解釈されることを意図せず、プロセスを実装するために、記述されているブロックをいくつでも、どんな順序でもおよび/または並列に組み合わされることが可能である。いくつかの実施態様において、処理の1つまたは複数のブロックは、完全に省略されることがある。さらにその上、処理700は、全体的または部分的に、他の処理と、例えば、処理600などと組み合わされることがある。同じように、処理600は、全体的または部分的に、処理700と組み合わされることがある。
【0114】
本明細書に説明されるシステム、モジュール、および方法は、ソフトウェアおよび/またはハードウェアの要素のどの組み合わせでも使用して、実装されることがある。本明細書に説明されるシステム、モジュール、および方法は、単独において、または他のひとつとの組み合わせにおいて動作する1つまたは複数の仮想マシンを使用して、実装されることがある。どんな適用可能な仮想化ソリューションでも使用して、物理的なコンピューティングマシンプラットフォームを、ハードウェアコンピューティングプラットフォームまたはホスト上に走らせる仮想化ソフトウェアの制御の下に実行される仮想マシンとして実装することがある。
【0115】
例示的な箇条
A.例示的なシステムは、1つまたは複数のプロセッサーと、1つまたは複数のプロセッサーと通信接続され、1つまたは複数のプロセッサーによって、第1の信号を画像取り込みデバイスから受信し、第1の信号が、環境の第1の部分を表す画像データを含み、画像データに少なくとも部分的に基づいて、環境に関連付けられた第1のオブジェクトのグループを決定し、第2の信号をLIDAR(light detection and ranging)センサーから受信し、第2の信号が、環境の第2の部分を表すLIDARセンサーデータを含み、第2の部分が、少なくとも部分的に第1の部分とオーバーラップし、LIDARセンサーデータに少なくとも部分的に基づいて、環境に関連付けられた第2のオブジェクトのグループを決定し、第3のオブジェクトのグループを画像データおよびLIDARセンサーデータに少なくとも部分的に基づいて決定し、第3のオブジェクトのグループに含まれる第1のオブジェクトを特定し、第1のオブジェクトが、環境の第1の部分および第2の部分に存在し、第1のオブジェクトのグループまたは第2のオブジェクトのグループのうちの少なくとも1つにないまたは誤分類され、第1のオブジェクトを特定することに少なくとも部分的に基づいて応答を開始するか、第1の信号または第2の信号に少なくとも部分的に基づいて、1つまたは複数のプロセッサーと通信状態にある機械学習システムをトレーニングするかのうちの少なくとも1つをするために実行可能な命令を格納する1つまたは複数のコンピューター読み取り可能な記録媒体と、を含む。
【0116】
B.箇条Aのシステムは、さらに命令が、1つまたは複数のプロセッサーによって、第3の信号を追加のセンサーから受信し、第3の信号が、環境の第3の部分を表す追加のセンサーデータを含み、追加のセンサーデータに少なくとも部分的に基づいて、環境に関連付けられた第4のオブジェクトのグループを決定し、第1のオブジェクトが、環境の第3の部分におよび第4のオブジェクトのグループに存在する、ために実行可能である。
【0117】
C.箇条AまたはBのシステムは、画像センサーおよびLIDARセンサーが、自律車両に配置され、応答が、画像データまたはLIDARセンサーデータの一部を無視することと、画像データまたはLIDARセンサーデータに関連付けられた重みを修正することと、機械学習システムによって使用されるトレーニングデータを修正して、検証要求を生成するまたは自律車両に方向を変えさせる画像取り込みセンサーまたはLIDARセンサーをトレーニングすることとを含む。
【0118】
D.方法は、1つまたは複数のプロセッサーによって、第1の信号を第1のセンサーから受信し、第1の信号が、環境を表す第1のセンサーデータを含むことと、1つまたは複数のプロセッサーによって、第1のセンサーデータに少なくとも部分的に基づいて、第1のオブジェクトのグループに関連付けられた第1のパラメーターを決定することと、1つまたは複数のプロセッサーによって、第2の信号を第2のセンサーから受信し、第2の信号が、環境を表す第2のセンサーデータを含むことと、1つまたは複数のプロセッサーによって、第2のセンサーデータに少なくとも部分的に基づいて、第2のオブジェクトのグループに関連付けられた第2のパラメーターを決定することと、1つまたは複数のプロセッサーによって、第1のセンサーデータおよび第2のセンサーデータに少なくとも部分的に基づいて、第3のオブジェクトのグループに関連付けられた第3のパラメーターを決定することと、1つまたは複数のプロセッサーによって、第1のパラメーターまたは第2のパラメーターを第3のパラメーターと比較して、第3のパラメーターと第1のパラメーターまたは第2のパラメーターとの間の差異を特定することと、1つまたは複数のプロセッサーによって、差異を特定することに少なくとも部分的に基づいて応答を開始することか、第1の信号または第2の信号に少なくとも部分的に基づいて、1つまたは複数のプロセッサーと通信状態にある機械学習システムをトレーニングすることかのうちの少なくとも1つ、を含む。
【0119】
E.箇条Dの方法は、第1のセンサーが、LIDARセンサーを含み、第1のセンサーデータが、LIDARセンサーデータを含み、第1のパラメーターが、環境におけるオブジェクトの第1の分類を含み、第2のセンサーが、画像取り込みデバイスを含み、第2のセンサーデータが、画像データを含み、第2のパラメーターが、オブジェクトの第2の分類を含み、第3のパラメーターが、オブジェクトの第3の分類を含み、差異が、第1の分類または第2の分類と第3の分類との間の差異を含む。
【0120】
F.箇条DまたはEの方法は、第1のセンサーが、LIDARセンサーを含み、第1のセンサーデータが、LIDARセンサーデータを含み、第1のパラメーターが、環境におけるオブジェクトの実在に関する第1の決定を含み、第2のセンサーが、画像取り込みデバイスを含み、第2のセンサーデータが、画像データを含み、第2のパラメーターが、環境におけるオブジェクトの実在に関する第2の決定を含み、第3のパラメーターが、環境におけるオブジェクトの実在に関する第3の決定を含み、差異が、第1の決定または第2の決定と第3の決定との間の差異を含む。
【0121】
G.箇条D、EまたはFの方法は、さらに、複数の第1のセンサーデータを期間にわたって収集することと、1つまたは複数のプロセッサーによって、第1の統計情報を複数の第1のセンサーデータに基づいて決定することと、1つまたは複数のプロセッサーによって、格納された統計情報と第1の統計情報を比較することと、比較することに少なくとも部分的に基づいて応答を開始することと、を含む。
【0122】
H.箇条D、E、FまたはGの方法は、第1のセンサーおよび第2のセンサーが、車両に配置され、応答が、第1のセンサーデータの一部を無視することと、第2のセンサーデータの一部を無視することと、第1の信号に関連付けられた第1の重みを修正することと、第2の信号に関連付けられた第2の重みを修正することと、第1のセンサーに関連付けられたトレーニングデータを修正することと、第2のセンサーに関連付けられたトレーニングデータを修正することと、検証要求を生成することと、または車両に方向を変えさせることとのうちの少なくとも1つを含む。
【0123】
I.箇条D、E、F、GまたはHの方法は、第1のパラメーター、第2のパラメーター、または第3のパラメーターのうちの少なくとも1つが、オブジェクトのロケーション、オブジェクトの向き、オブジェクトの数、不確実性、オブジェクトの存在の決定、またはオブジェクトの分類を含む。
【0124】
J.箇条D、E、F、G、HまたはIの方法は、さらに、第3の信号を第3のセンサーから受信し、第3の信号が、環境を表す第3のセンサーデータを含むことと、第3のセンサーデータに少なくとも部分的に基づいて、第4のオブジェクトのグループに関連付けられた第4のパラメーターを決定することと、第4のパラメーターと第1のパラメーターまたは第2のパラメーターとの間の差異を特定することとを含み、第1のセンサーが、画像取り込みデバイスを含み、第2のセンサーが、LIDARセンサーを含み、第3のセンサーが、RADARセンサーを含む。
【0125】
K.箇条D、E、F、G、H、IまたはJの方法は、第1のセンサーデータが、第1のセンサーによって第1の時間に検出され、第2のセンサーデータが、第2のセンサーによって第1の時間に検出され、方法が、さらに、第1のセンサーまたは第2のセンサーによって、収集される追加のデータに少なくとも部分的に基づいて、第1の時間よりも後の第2の時間に差異を特定することを含む。
【0126】
L.箇条D、E、F、G、H、I、JまたはKの方法は、差異を特定することが、オブジェクトが第1のオブジェクトのグループまたは第2のオブジェクトのグループのうちの少なくとも1つにない、または誤分類されていることを決定することを含む。
【0127】
M.箇条D、E、F、G、H、I、J、KまたはLの方法は、第1のオブジェクトのグループおよび第2のオブジェクトのグループが、共通のオブジェクトを含み、第1のパラメーターが、共通のオブジェクトの第1のロケーションを含み、第2のパラメーターが、共通のオブジェクトの第2のロケーションを含み、差異が、第1のロケーションと第2のロケーションとの間の差異を含む。
【0128】
N.箇条Mの方法は、第1のパラメーターを決定することが、第1のパラメーターを第1の機械学習されたモデルを使用して決定することを含み、第2のパラメーターを決定することが、第2のパラメーターを第2の機械学習されたモデルを使用して決定することを含み、機械学習システムが、第1の機械学習されたモデルまたは第2の機械学習されたモデルを含み、方法が、さらに、機械学習システムを、差異を特定することに少なくとも部分的に基づいてトレーニングすることを含み、機械学習システムをトレーニングすることが、第1のセンサーデータ、第2のセンサーデータ、または第3のオブジェクトのグループのうちの少なくとも1つをグランドトゥルースとして使用して、第1の機械学習されたモデルまたは第2の機械学習されたモデルをトレーニングすることを含む。
【0129】
O.箇条D、E、F、G、H、I、J、K、L、MまたはNの方法は、第1のパラメーターが、第1の信頼レベルに関連付けられ、第2のパラメーターが、第2の信頼レベルに関連付けられ、応答が、第1の信頼レベルまたは第2の信頼レベルを修正することを含む。
【0130】
P.コンピューター読み取り可能な記録媒体は、コンピューターによって実行されると、コンピューターに、第1の信号を第1のセンサーから受信させ、第1の信号が、環境を表す第1のセンサーデータを含み、第1のセンサーデータに少なくとも部分的に基づいて、第1のオブジェクトのグループに関連付けられた第1のパラメーターを決定させ、第2の信号を第2のセンサーから受信させ、第2の信号が、環境を表す第2のセンサーデータを含み、第2のセンサーデータに少なくとも部分的に基づいて、第2のオブジェクトのグループに関連付けられた第2のパラメーターを決定させ、第1のセンサーデータおよび第2のセンサーデータに少なくとも部分的に基づいて、第3のオブジェクトのグループに関連付けられた第3のパラメーターを決定させ、第3のパラメーターと第1のパラメーターまたは第2のパラメーターとの間の差異を特定させ、1つまたは複数のプロセッサーによって、差異を特定することに少なくとも部分的に基づいて応答を開始することか、第1の信号または第2の信号に少なくとも部分的に基づいて、1つまたは複数のプロセッサーと通信状態にある機械学習システムをトレーニングすることかのうちの少なくとも1つをさせる、格納されたコンピューター実行可能な命令を有する。
【0131】
Q.箇条Pのコンピューター読み取り可能な記録媒体は、第1のセンサーが、車両に配置された画像取り込みデバイスを含み、第2のセンサーが、車両に配置されたLIDARセンサーを含み、コンピューター実行可能な命令が、コンピューターによって実行されると、さらに、コンピューターに、車両に配置された第3のセンサーから第3の信号を受信させ、第3のセンサーが、RADARセンサーを含み、第3の信号が、環境を表す第3のセンサーデータを含み、第3のセンサーデータに少なくとも部分的に基づいて、第4のオブジェクトのグループに関連付けられた第4のパラメーターを決定させ、差異を特定することが、第3のパラメーターと、第1のパラメーター、第2のパラメーター、または第4のパラメーターとの間の差異を特定することを含む。
【0132】
R.箇条PまたはQのコンピューター読み取り可能な記録媒体は、第1のオブジェクトのグループおよび第2のオブジェクトのグループが、共通のオブジェクトを含み、第1のパラメーターが、共通のオブジェクトの第1の分類を含み、第2のパラメーターが、共通のオブジェクトの第2の分類を含み、差異が、第1の分類と第2の分類との間の差異を含む。
【0133】
S.箇条P、QまたはRのコンピューター読み取り可能な記録媒体は、第1のパラメーター、第2のパラメーター、または第3のパラメーターのうちの少なくとも1つが、オブジェクトのロケーション、オブジェクトの向き、オブジェクトの数、不確実性、オブジェクトの存在の決定、またはオブジェクトの分類を含む。
【0134】
T.箇条P、Q、RまたはSのコンピューター読み取り可能な記録媒体は、第1のセンサーおよび第2のセンサーが、車両に配置され、応答が、第1のセンサーデータの一部を無視することと、第2のセンサーデータの一部を無視することと、第1の信号に関連付けられた第1の重みを修正することと、第2の信号に関連付けられた第2の重みを修正することと、第1のセンサーに関連付けられたトレーニングデータを修正することと、第2のセンサーに関連付けられたトレーニングデータを修正することと、検証要求を生成することと、または車両に方向を変えさせることとのうちの少なくとも1つを含む。
【0135】
終結
本明細書に説明される種々の技法は、コンピューター読み取り可能なストレージに格納され、例えば、図に例示されるような1つまたは複数のコンピューターまたは他のデバイスのプロセッサー(複数可)によって実行されるコンピューター実行可能な命令またはソフトウェア、例えば、プログラムモジュールなどの文脈において実装されることがある。一般に、プログラムモジュールは、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含み、および特定のタスクを行うための動作ロジックを定義するまたは特定の抽象データ型を実装する。
【0136】
他のアーキテクチャーは、説明される機能性を実装するのに使用され、本開示の範囲内にあることが意図される。さらにその上、責任の特定の配分が、議論の目的のために上に定義されるが、種々の機能および責任は、状況に従って、異なるやり方において配分され分割されることがあるだろう。
【0137】
同様に、ソフトウェアは、種々のやり方においておよび異なる手段を使用して、格納され配分されることがあり、上に説明された特定のソフトウェアの格納および実行の構成は、多くの異なるやり方において様々であることがある。従って、上に説明される技法を実装するソフトウェアは、種々のタイプのコンピューター読み取り可能な媒体に配分され、具体的に説明されるメモリーのかたちに制限されないことがある。
【0138】
上の議論が、説明される技法の例示的な実装を述べるが、他のアーキテクチャーは、説明される機能性を実装するのに使用され、本開示の範囲内にあることが意図される。さらにその上、主題が、構造的な特徴および/または方法論的な作動に特有の言葉において説明されたが、添付の特許請求の範囲において定義される主題が、説明される特定の特徴または作動に必ずしも制限されないということは、理解されることである。むしろ、特定の特徴および作動は、特許請求の範囲を実装する例示的なかたちとして開示される。
図1
図2
図3
図4A
図4B
図5
図6
図7