(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-08-27
(54)【発明の名称】LiDAR解像度設定のセンサベース制御
(51)【国際特許分類】
G01S 17/86 20200101AFI20240820BHJP
G01S 17/931 20200101ALI20240820BHJP
G08G 1/16 20060101ALI20240820BHJP
【FI】
G01S17/86
G01S17/931
G08G1/16 C
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023580902
(86)(22)【出願日】2022-08-03
(85)【翻訳文提出日】2024-02-26
(86)【国際出願番号】 US2022074480
(87)【国際公開番号】W WO2023015214
(87)【国際公開日】2023-02-09
(32)【優先日】2021-08-04
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】515301041
【氏名又は名称】アティエヴァ、インコーポレイテッド
(74)【代理人】
【識別番号】110000877
【氏名又は名称】弁理士法人RYUKA国際特許事務所
(72)【発明者】
【氏名】ル、チアン
【テーマコード(参考)】
5H181
5J084
【Fターム(参考)】
5H181AA01
5H181CC03
5H181CC04
5H181CC11
5H181CC14
5H181CC27
5H181LL01
5H181LL02
5H181LL04
5H181LL09
5J084AA05
5J084AB01
5J084AB07
5J084AC02
5J084BA03
5J084BA05
5J084BA38
5J084BA50
5J084BB28
5J084CA03
5J084CA12
5J084EA05
5J084EA22
5J084EA23
(57)【要約】
コンピュータ実装方法は、赤外線カメラまたはイベントベースセンサを含む、車両の第1のセンサを使用して第1の出力を生成する段階、前記第1の出力は、前記車両の周囲の部分を示す;前記第1の出力を、視野(FOV)を有する前記車両のLiDARに提供する段階;前記第1の出力に少なくとも部分的に基づいて前記LiDARの解像度を設定する段階;前記LiDARを使用して前記車両の前記周囲の少なくとも一部の表現を生成する段階;前記車両の第2のセンサの第2の出力および前記LiDARの第3の出力を前記車両の知覚コンポーネントに提供する段階、前記知覚コンポーネントは、前記第2のおよび第3の出力に関する物体検出、センサフュージョンおよび物体追跡を実行するように構成されており、ここで、前記第1の出力は、前記知覚コンポーネントの少なくとも一部をバイパスする;および前記知覚コンポーネントの第4の出力を使用して前記車両の動き制御を実行する段階を備える。
【特許請求の範囲】
【請求項1】
車両の第1のセンサを使用して第1の出力を生成する段階、前記第1のセンサは、赤外線カメラまたはイベントベースセンサのうちの少なくとも一方を含み、前記第1の出力は、前記車両の周囲の部分を示す;
前記第1の出力を前記車両のLiDARに提供する段階、前記LiDARは、視野(FOV)を有する;
前記第1の出力に少なくとも部分的に基づいて前記LiDARの解像度を設定する段階;
前記LiDARを使用して前記車両の前記周囲の少なくとも一部の表現を生成する段階;
前記車両の第2のセンサの第2の出力および前記LiDARの第3の出力を前記車両の知覚コンポーネントに提供する段階、前記知覚コンポーネントは、前記第2の出力および前記第3の出力に関する物体検出、センサフュージョンおよび物体追跡を実行するように構成されており、ここで、前記第1の出力は、前記知覚コンポーネントの少なくとも一部をバイパスする;および
前記知覚コンポーネントの第4の出力を使用して前記車両の動き制御を実行する段階
を備えるコンピュータ実装方法。
【請求項2】
前記LiDARは、前記FOV内のより高い解像度の領域(HRR)を使用して動作するように構成されており、前記LiDARは、前記FOV内の他の箇所よりも前記HRR内で高い解像度を有し、前記LiDARの前記解像度を設定する段階は、前記LiDARを使用して、前記FOV内の前記HRRの位置を前記第1の出力に基づいて定義する段階を有し、前記表現は、前記FOV内の前記HRRを含む、請求項1に記載のコンピュータ実装方法。
【請求項3】
前記第1の出力に基づいて前記HRRの前記位置を定義する段階は、前記HRRを前記周囲の少なくとも一部の前記表現内の前記周囲の前記部分の位置に配置する段階を含む、請求項2に記載のコンピュータ実装方法。
【請求項4】
前記第1の出力は、前記周囲の前記部分の座標を含み、前記HRRは、前記座標を使用して配置される、請求項3に記載のコンピュータ実装方法。
【請求項5】
前記LiDARの前記解像度を設定する段階は、前記HRRにおける前記LiDARのスキャンレートを調節する段階を有する、請求項2に記載のコンピュータ実装方法。
【請求項6】
前記LiDARの前記解像度を設定する段階は、前記HRRにおける前記LiDARのレーザパルス周波数を調節する段階を有する、請求項2に記載のコンピュータ実装方法。
【請求項7】
前記LiDARは、複数の視野を有するフラッシュLiDARであり、前記FOVは、前記複数の視野のうちの第1のFOVであり、前記フラッシュLiDARの前記解像度を設定する段階は、前記第1のFOVを前記周囲の前記一部に向かってステアリングする段階を有する、請求項1に記載のコンピュータ実装方法。
【請求項8】
前記第1のセンサは、前記赤外線カメラであり、前記第1の出力は、前記周囲の前記部分が前記周囲の別の部分とは異なる温度を有していることを示す、請求項1に記載のコンピュータ実装方法。
【請求項9】
前記赤外線カメラは、前記周囲の前記別の部分よりも高い温度を有する前記周囲の前記部分に基づいて、前記第1の出力により示される前記周囲の前記部分を選択する、請求項8に記載のコンピュータ実装方法。
【請求項10】
前記第1の出力は、前記周囲の前記部分を識別する情報のみを含み、前記周囲の前記別の部分を識別しない、請求項8に記載のコンピュータ実装方法。
【請求項11】
前記第1のセンサは、前記イベントベースセンサであり、前記第1の出力は、前記周囲の前記部分の、前記周囲の別の部分とは異なるピクセル変化を示す、請求項1に記載のコンピュータ実装方法。
【請求項12】
前記イベントベースセンサは、前記周囲の前記別の部分よりも大きいピクセル変化を有する前記周囲の前記部分に基づいて、前記第1の出力により示される前記周囲の前記部分を選択する、請求項11に記載のコンピュータ実装方法。
【請求項13】
前記第1の出力は、前記周囲の前記部分を識別する情報のみを含み、前記周囲の前記別の部分を識別しない、請求項11に記載のコンピュータ実装方法。
【請求項14】
前記第2のセンサは、前記赤外線カメラまたは前記イベントベースセンサのうちの少なくとも一方である、請求項1に記載のコンピュータ実装方法。
【請求項15】
前記第2のセンサは、前記赤外線カメラまたは前記イベントベースセンサのいずれでもない、請求項1に記載のコンピュータ実装方法。
【請求項16】
前記第1の出力を生成する段階は、前記知覚コンポーネントを使用して変換を実行する段階をさらに有する、請求項1から15のいずれか一項に記載のコンピュータ実装方法。
【請求項17】
システムであって、
第1の出力を生成するための第1のセンサ、前記第1のセンサは、赤外線カメラまたはイベントベースセンサのうちの少なくとも一方を有し、前記第1の出力は、前記システムの周囲の部分を示す;および
視野(FOV)を有するLiDAR、ここで、前記LiDARは、前記第1のセンサにより生成される前記第1の出力を受信し、前記第1の出力に少なくとも部分的に基づいて前記LiDARの解像度を設定する
を備える、システム。
【請求項18】
前記LiDARは、前記周囲の少なくとも一部の表現を生成する、請求項17に記載のシステム。
【請求項19】
前記LiDARは、前記FOV内のより高い解像度の領域(HRR)を使用して動作するように構成されており、前記LiDARは、前記FOV内の他の箇所よりも前記HRR内で高い解像度を有し、前記LiDARは、前記第1の出力に基づいて前記FOV内の前記HRRの位置を定義し、前記表現は、前記FOV内の前記HRRを含む、請求項18に記載のシステム。
【請求項20】
前記LiDARは、前記HRRにおける前記LiDARのスキャンレートを調節する、請求項19に記載のシステム。
【請求項21】
前記LiDARは、前記HRRにおける前記LiDARのレーザパルス周波数を調節する、請求項19に記載のシステム。
【請求項22】
前記LiDARは、複数の視野を有するフラッシュLiDARであり、前記HRRは、前記複数の視野のうちの第1のFOVに対応し、前記LiDARは、前記HRRを前記周囲の前記一部に向かってステアリングすることにより、前記解像度を設定する、請求項19に記載のシステム。
【請求項23】
前記第1の出力は、前記周囲の前記部分の座標を含み、前記LiDARは、前記座標を使用して前記HRRを配置する、請求項19に記載のシステム。
【請求項24】
前記第1のセンサは、前記赤外線カメラであり、前記第1の出力は、前記周囲の前記部分が前記周囲の別の部分とは異なる温度を有していることを示す、請求項17に記載のシステム。
【請求項25】
前記赤外線カメラは、前記周囲の前記別の部分よりも高い温度を有する前記周囲の前記部分に基づいて、前記第1の出力により示される前記周囲の前記部分を選択する、請求項24に記載のシステム。
【請求項26】
前記第1の出力は、前記周囲の前記部分を識別する情報のみを含み、前記周囲の前記別の部分を識別しない、請求項24に記載のシステム。
【請求項27】
前記第1のセンサは、前記イベントベースセンサであり、前記第1の出力は、前記周囲の前記部分の、前記周囲の別の部分とは異なる動きを示す、請求項17に記載のシステム。
【請求項28】
前記イベントベースセンサは、前記周囲の前記別の部分よりも大きい動きを有する前記周囲の前記部分に基づいて、前記第1の出力により示される前記周囲の前記部分を選択する、請求項27に記載のシステム。
【請求項29】
前記第1の出力は、前記周囲の前記部分を識別する情報のみを含み、前記周囲の前記別の部分を識別しない、請求項27に記載のシステム。
【請求項30】
前記システムの第2のセンサの第2の出力および前記LiDARの第3の出力を受信するための知覚コンポーネント、前記知覚コンポーネントは、前記第2の出力および前記第3の出力に関する物体検出、センサフュージョンおよび物体追跡を実行する、ここで、前記第1の出力は、前記知覚コンポーネントの少なくとも一部をバイパスする
をさらに備える、請求項17に記載のシステム。
【請求項31】
前記第2のセンサは、前記赤外線カメラまたは前記イベントベースセンサのいずれでもない、請求項30に記載のシステム。
【請求項32】
前記知覚コンポーネントは部分的に、変換コンポーネントを含み、前記第1の出力は、前記LiDARにより受信される前に、前記変換コンポーネントを使用して変換される、請求項30に記載のシステム。
【請求項33】
前記第1のセンサおよび前記LiDARは、前記システムの共通ハウジング内に配置されている、請求項17から32のいずれか一項に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
[関連出願の相互参照]
本願は、2021年8月4日に出願された、「LiDAR解像度設定のセンサベース制御」と題される米国特許出願第17/444,424号の優先権を主張し、当該特許出願の開示は、参照により、全体が本明細書に組み込まれる。
【0002】
本明細書は、LiDAR解像度設定のセンサベース制御に関する。
【背景技術】
【0003】
今日製造されている一部の車両には、車両の運転に関連する動作を少なくとも部分的に扱い得る1つまたは複数のタイプのシステムが搭載されている。一部のそのような支援は、車両の周囲を自動的に測定すること、および検出された車両、歩行者または物体に関するアクションを取ることができることを伴う。走行中に監視が実行される場合、システムからの応答時間がより速いことが概して好ましいのは、検出後に是正アクションを取るために利用可能な時間の量を増加させ得るからである。
【発明の概要】
【0004】
第1の態様において、コンピュータ実装方法は、車両の第1のセンサを使用して第1の出力を生成する段階、前記第1のセンサは、赤外線カメラまたはイベントベースセンサのうちの少なくとも一方を含み、前記第1の出力は、前記車両の周囲の部分を示す;前記第1の出力を前記車両のLiDARに提供する段階、前記LiDARは、視野(FOV)を有する;前記第1の出力に少なくとも部分的に基づいて前記LiDARの解像度を設定する段階;前記LiDARを使用して前記車両の前記周囲の少なくとも一部の表現を生成する段階;前記車両の第2のセンサの第2の出力および前記LiDARの第3の出力を前記車両の知覚コンポーネントに提供する段階、前記知覚コンポーネントは、前記第2のおよび第3の出力に関する物体検出、センサフュージョンおよび物体追跡を実行するように構成されており、ここで、前記第1の出力は、前記知覚コンポーネントの少なくとも一部をバイパスする;および前記知覚コンポーネントの第4の出力を使用して前記車両の動き制御を実行する段階を備える。
【0005】
実装は、以下の特徴のうちのいずれかまたは全てを含むことができる。前記LiDARは、前記FOV内のより高い解像度の領域(HRR)を使用して動作するように構成されており、前記LiDARは、前記FOV内の他の箇所よりも前記HRR内で高い解像度を有し、前記LiDARの前記解像度を設定する段階は、前記LiDARを使用して、前記FOV内の前記HRRの位置を前記第1の出力に基づいて定義する段階を有し、前記表現は、前記FOV内の前記HRRを含む。前記第1の出力に基づいて前記HRRの前記位置を定義する段階は、前記HRRを前記周囲の少なくとも一部の前記表現内の前記周囲の前記部分の位置に配置する段階を含む。前記第1の出力は、前記周囲の前記部分の座標を含み、前記HRRは、前記座標を使用して配置される。前記LiDARの前記解像度を設定する段階は、前記HRRにおける前記LiDARのスキャンレートを調節する段階を有する。前記LiDARの前記解像度を設定する段階は、前記HRRにおける前記LiDARのレーザパルス周波数を調節する段階を有する。前記LiDARは、複数の視野を有するフラッシュLiDARであり、前記FOVは、前記複数の視野のうちの第1のFOVであり、前記フラッシュLiDARの前記解像度を設定する段階は、前記第1のFOVを前記周囲の前記一部に向かってステアリングする段階を有する。前記第1のセンサは、前記赤外線カメラであり、前記第1の出力は、前記周囲の前記部分が前記周囲の別の部分とは異なる温度を有していることを示す。前記赤外線カメラは、前記周囲の前記別の部分よりも高い温度を有する前記周囲の前記部分に基づいて、前記第1の出力により示される前記周囲の前記部分を選択する。前記第1の出力は、前記周囲の前記部分を識別する情報のみを含み、前記周囲の前記別の部分を識別しない。前記第1のセンサは、前記イベントベースセンサであり、前記第1の出力は、前記周囲の前記部分の、前記周囲の別の部分とは異なるピクセル変化を示す。前記イベントベースセンサは、前記周囲の前記別の部分よりも大きいピクセル変化を有する前記周囲の前記部分に基づいて、前記第1の出力により示される前記周囲の前記部分を選択する。前記第1の出力は、前記周囲の前記部分を識別する情報のみを含み、前記周囲の前記別の部分を識別しない。前記第2のセンサは、前記赤外線カメラまたは前記イベントベースセンサのうちの少なくとも一方である。前記第2のセンサは、前記赤外線カメラまたは前記イベントベースセンサのいずれでもない。前記第1の出力を生成する段階は、前記知覚コンポーネントを使用して変換を実行する段階をさらに有する。
【0006】
第2の態様において、システムは、第1の出力を生成するための第1のセンサ、前記第1のセンサは、赤外線カメラまたはイベントベースセンサのうちの少なくとも一方を有し、前記第1の出力は、前記システムの周囲の部分を示す;および視野(FOV)を有するLiDAR、ここで、前記LiDARは、前記第1のセンサにより生成される前記第1の出力を受信し、前記第1の出力に少なくとも部分的に基づいて前記LiDARの解像度を設定する、を備える。
【0007】
実装は、以下の特徴のうちのいずれかまたは全てを含むことができる。前記LiDARは、前記周囲の少なくとも一部の表現を生成する。前記LiDARは、前記FOV内のより高い解像度の領域(HRR)を使用して動作するように構成されており、前記LiDARは、前記FOV内の他の箇所よりも前記HRR内で高い解像度を有し、前記LiDARは、前記第1の出力に基づいて前記FOV内の前記HRRの位置を定義し、前記表現は、前記FOV内の前記HRRを含む。前記LiDARは、前記HRRにおける前記LiDARのスキャンレートを調節する。前記LiDARは、前記HRRにおける前記LiDARのレーザパルス周波数を調節する。前記LiDARは、複数の視野を有するフラッシュLiDARであり、前記HRRは、前記複数の視野のうちの第1のFOVに対応し、前記LiDARは、前記HRRを前記周囲の前記一部に向かってステアリングすることにより、前記解像度を設定する。前記第1の出力は、前記周囲の前記部分の座標を含み、前記LiDARは、前記座標を使用して前記HRRを配置する。前記第1のセンサは、前記赤外線カメラであり、前記第1の出力は、前記周囲の前記部分が前記周囲の別の部分とは異なる温度を有していることを示す。前記赤外線カメラは、前記周囲の前記別の部分よりも高い温度を有する前記周囲の前記部分に基づいて、前記第1の出力により示される前記周囲の前記部分を選択する。前記第1の出力は、前記周囲の前記部分を識別する情報のみを含み、前記周囲の前記別の部分を識別しない。前記第1のセンサは、前記イベントベースセンサであり、前記第1の出力は、前記周囲の前記部分の、前記周囲の別の部分とは異なる動きを示す。前記イベントベースセンサは、前記周囲の前記別の部分よりも大きい動きを有する前記周囲の前記部分に基づいて、前記第1の出力により示される前記周囲の前記部分を選択する。前記第1の出力は、前記周囲の前記部分を識別する情報のみを含み、前記周囲の前記別の部分を識別しない。前記システムは、前記システムの第2のセンサの第2の出力および前記LiDARの第3の出力を受信するための知覚コンポーネント、前記知覚コンポーネントは、前記第2のおよび第3の出力に関する物体検出、センサフュージョンおよび物体追跡を実行する、ここで、前記第1の出力は、前記知覚コンポーネントの少なくとも一部をバイパスする、をさらに備える。前記第2のセンサは、前記赤外線カメラまたは前記イベントベースセンサのいずれでもない。前記知覚コンポーネントは部分的に、変換コンポーネントを含み、前記第1の出力は、前記LiDARにより受信される前に、前記変換コンポーネントを使用して変換される。前記第1のセンサおよび前記LiDARは、前記システムの共通ハウジング内に配置されている。
【図面の簡単な説明】
【0008】
【0009】
【0010】
【
図3A】スキャンLiDAR、赤外線カメラおよびイベントベースセンサを含むシステムの一例を示す。
【0011】
【
図3B】フラッシュLiDAR、赤外線カメラおよびイベントベースセンサを含むシステムの一例を示す。
【0012】
【0013】
【0014】
【0015】
【0016】
【0017】
【0018】
【
図9】本開示の態様を実装するために使用され得るコンピューティングデバイスの例示的なアーキテクチャを示す。
【0019】
様々な図面における同様の参照符号は、同様の要素を示す。
【発明を実施するための形態】
【0020】
本明細書は、LiDAR解像度設定のセンサベース制御を実行するためのシステムおよび技術の例を説明する。例えば、1つまたは複数のエリアにおけるLiDARの解像度が制御され得る。いくつかの実装において、ハードウェアおよびソフトウェアに基づく知覚コンポーネントが、LiDARおよび/または他のセンサからの入力信号に関する物体検出、センサフュージョンおよび物体追跡を実行する。LiDARは、視野内のより高い解像度の領域を使用して動作するように構成され得る。視野に対してより高い解像度の領域を配置することにより解像度を設定するようLiDARに促すために、赤外線カメラおよび/またはイベントベースセンサが使用され得る。このアプローチは、この点に関して、LiDARを制御するための知覚コンポーネントの使用よりも著しく速いことがある。したがって、赤外線カメラおよび/またはイベントベースセンサからの出力は、知覚コンポーネントをバイパスし得る。
【0021】
本明細書における例は、車両に言及する。車両は、乗員または積荷、またはその両方を輸送する機械である。車両は、少なくとも1つのタイプの燃料、または他のエネルギー源(例えば電気)を使用する1つまたは複数のモータを有することができる。車両の例は車、トラック、およびバスを含むが、これらに限定されない。車輪の数は複数のタイプの車両の間で異なってもよく、車輪のうちの1つまたは複数(例えば全て)は車両の推進のために使用され得る。車両は1人または複数人の人を収容する乗員コンパートメントを含むことができる。少なくとも1人の車両の乗員は運転者であるとみなすことができ;この場合、様々な道具、器具または他のデバイスが運転者に提供され得る。本明細書の例において、車両によって運搬されるいかなる人も、その人が車両を運転しているかどうか、またはその人が車両を運転するための制御へのアクセスを有するかどうか、またはその人が車両を運転するための制御を欠いているかどうかにかかわらず、車両の「運転者」または「乗員」と称され得る。本例における車両は、例示のみを目的として、互いに類似しまたは同一であるものとして示されている。
【0022】
本明細書における例は、運転支援に言及する。いくつかの実装において、運転支援は、自律運転システムを含むがこれに限定されない運転支援(AD)システムにより実行され得る。例えば、ADシステムは、先進運転支援システム(ADAS)を含み得る。運転支援は、1つまたは複数の動的運転タスクを少なくとも部分的に自動化することを伴う。ADASは、運転支援を実行でき、運転支援システムの一例である。運転支援は、典型的には車両の上、下または内部に配置された1つまたは複数のセンサの出力に部分的に基づいて実行される。ADシステムは、車両の動きを制御する前および/または制御している間に、車両のための1つまたは複数の軌道を計画できる。計画された軌道は、車両の走行用の経路を定義し得る。そのため、計画された軌道に従って車両を推進させることは、車両のステアリング角、ギア(例えば、前進または後退)、速度、加速および/または制動などであるがこれらに限定されない、車両の動作挙動の1つまたは複数の態様を制御することに対応し得る。
【0023】
自律車両は運転支援を実行するシステムの一例であるが、全ての運転支援システムが完全自律車両を提供するように設計されているわけではない。SAE Internationalによって、運転自動化の複数のレベルが定義されており、通常、それぞれレベル0、1、2、3、4および5と称される。例えば、レベル0システムまたは運転モードは、システムによる持続的な車両制御を伴わなくてよい。例えば、レベル1システムまたは運転モードは、アダプティブクルーズコントロール、緊急ブレーキアシスト、自動緊急ブレーキアシスト、車線維持、および/または車線センタリングを含んでよい。例えば、レベル2システムまたは運転モードは、ハイウェイアシスト、自律障害物回避、および/または自律駐車を含み得る。例えば、レベル3または4システムまたは運転モードは、運転支援システムによる車両の漸増制御を含み得る。例えば、レベル5システムまたは運転モードでは、運転支援システムへの人間の介入を必要としなくてよい。
【0024】
本明細書中の例は、センサに言及する。センサは、環境の1つまたは複数の態様を検出し、この検出を反映した信号を出力するように構成されている。検出された態様は、検出時点で静的または動的であり得る。例示のためのみの例として、センサは、センサおよび物体の間の距離、センサを運搬している車両の速度、車両の軌道または車両の加速度のうちの1つまたは複数を示すことができる。センサは、何らかのものを用いて周囲をプローブすることなく出力を生成でき(例えば、電磁放射を撮像するイメージセンサのようなパッシブセンシング)、または、センサは、周囲をプローブし(例えば電磁放射および/または音波を送出することによるアクティブセンシング)、プローブへの応答を検出できる。1つまたは複数の実施形態と共に使用され得るセンサの例は、光センサ(例えば、カメラ);光ベースセンシングシステム(例えば、LiDAR);電波ベースセンサ(例えば、レーダ);音響センサ(例えば、超音波デバイスおよび/またはマイク);慣性測定ユニット(例えば、ジャイロスコープおよび/または加速度計);(例えば、車両またはそのコンポーネントのための)速度センサ;(例えば、車両またはそのコンポーネントのための)位置センサ;(例えば、車両またはそのコンポーネントのための)向きセンサ;慣性測定ユニット;トルクセンサ;温度センサ(例えば、一次または二次温度計);(例えば、周囲空気または車両のコンポーネントのための)圧力センサ;湿度センサ(例えば、降雨検出器);または着座センサを含むが、これらに限定されない。
【0025】
本明細書における例は、LiDARに言及する。本明細書において使用される場合、LiDARは、光に少なくとも部分的に基づく任意の物体検出システムを含み、このシステムは、1つまたは複数の方向に光を発する。ほんの2つの例を挙げると、光は、レーザおよび/または発光ダイオード(LED)により生成され得る。LiDARは、周囲を測定すべく、異なる方向(例えば、異なる極角および/または異なる方位角により特徴付けられる)に光パルスを発することができる。例えば、1つまたは複数のレーザビームが、レーザパルスの照準のために、配向可能な反射器に入射し得る。いくつかの実装において、LiDARは、周波数変調連続波(FMCW)LiDARを含み得る。例えば、FMCW LiDARは、変調された(例えば、掃引または「チャープ」された)周波数を有する非パルス化スキャンビームを使用でき、発出および検出された信号の間のビートが決定される。LiDARは、出力を生成するための適切なセンサによって戻り信号を検出できる。本明細書において使用される場合、LiDARの視野内のより高い解像度の領域は、視野の別のエリアよりも高い解像度が生じる任意の領域を含む。ほんのいくつかの例を挙げると、LiDARは、スキャンLiDARまたは非スキャンLiDAR(例えば、フラッシュLiDAR)であり得る。スキャンLiDARは、機械的スキャン(例えば、本明細書の
図3Aにおいて例示される)または非機械的スキャンに基づいて動作できる。ごくわずかな例を挙げると、非機械的スキャンLiDARは、光位相調整済みアレイ、または、光の波長よりも小さい構造を有する調整可能メタサーフェス(例えば、液晶を含む)を使用して動作できる。
【0026】
本明細書における例は、赤外線カメラに言及する。本明細書において使用される場合、赤外線カメラは、少なくとも赤外線放射範囲内で電磁放射を検出する任意のイメージセンサを含む。例えば、赤外線カメラは、少なくとも約700~14000ナノメートルの波長範囲内で画像を記録できる。例えば、赤外線カメラの出力は、受信された放射の波長に従ってピクセル要素がコーディングされる画像であり得る。いくつかの実装において、赤外線カメラは、出力を生成する前に1つまたは複数の閾値を適用でき、この出力は、特定の限界を下回る波長が検出された(これは、例えば、他の周囲よりも高い温度を有し得る人、動物または車両を示し得る)場合にのみ生成されるものを含むが、これに限定されない。例えば、赤外線カメラの出力は、閾値を満たす放射を赤外線カメラが検出した座標(例えば、x、y座標)であり得る。
【0027】
本明細書における例は、イベントベースセンサに言及する。本明細書において使用される場合、イベントベースセンサは、明るさの少なくとも局所的な変化を経時的に記録する任意のイメージセンサを含む。イベントベースセンサは、光強度の変化の検出(例えば、ピクセルによるもの)に対応するイベント(例えば、複数のイベントの連続ストリーム)を出力できる。いくつかの実装において、イベントベースセンサは、出力を生成する前に1つまたは複数の閾値を適用でき、この出力は、明るさの十分に大きい変化が検出された(これは、例えば、動いている人、動物または車両を示し得る)場合にのみ生成されるものを含むが、これに限定されない。例えば、イベントベースセンサの出力は、閾値を満たす放射をイベントベースセンサが検出した座標(例えば、x、y座標)であり得る。
【0028】
図1は、システム100の一例を示す。システム100は、本明細書の他の箇所において説明される1つまたは複数の他の例と共に使用され得る。システム100は、以下の
図9を参照して説明されるコンポーネントのいくつかまたは全てを使用して実装され得る。
【0029】
システム100は部分的に、赤外線カメラ102、イベントベースセンサ104、少なくとも1つのセンサ106およびLiDAR108を含む。以下で説明される例は、LiDAR108の解像度を設定する手法を示す。示されているよりも多いまたは少ないコンポーネントが使用され得る。
【0030】
システム100は、センサデータを受信し、物体検出および追跡を実行して、自車両の挙動をどのように制御するかをシステム100が計画するのを助ける知覚コンポーネント110を含む。以下で説明されるシステム100の第1の実装において、知覚コンポーネント110は、LiDAR108の解像度設定を制御している場合、完全にバイパスされ得る。そのようなシナリオにおいて、LiDAR108は、知覚コンポーネント110のいかなる態様も使用することなく、解像度を設定できる。知覚コンポーネント110が部分的にバイパスされ得るシステム100の第2の実装が、後に説明される。
【0031】
以下は、システム100の第1のおよび第2の実装の両方に関する。知覚コンポーネント110は、コンポーネント112を含む。例えば、コンポーネント112は、物体の検出を実行する(例えば、物体を路面または他の背景と区別する)ように構成され得る。別の例として、コンポーネント112は、物体の分類(例えば、物体が車両または人間のいずれであるか)を実行するように構成され得る。別の例として、コンポーネント112は、セグメンテーションを実行する(例えば、未処理の検出点をコヒーレントアセンブリに関連付けることで物体の形状および姿勢を反映する)ように構成され得る。
【0032】
知覚コンポーネント110は、位置特定コンポーネント114を含み得る。いくつかの実装において、位置特定コンポーネント114は、自車両の位置を実質的にリアルタイムで推定するように機能する。例えば、位置特定コンポーネント114は、全地球測位システムおよび/または全球測位衛星システムを含むがこれらに限定されない1つまたは複数のセンサ出力を使用できる。
【0033】
知覚コンポーネント110は、センサフュージョンコンポーネント116を含み得る。センサフュージョンコンポーネント116は、知覚コンポーネント110の動作を容易にするために、2つまたはそれよりも多くのセンサからの出力を融合できる。いくつかの実装において、そのような出力のうちの1つまたは複数は、赤外線カメラ102、イベントベースセンサ104、センサ106および/またはLiDAR108により生成され得る。例えば、これにより、車両206、自転車208および/または歩行者210などの(例えば、
図2における)物体が自車両の意図された動き軌道の妨げになり得ることを示す、LiDAR108からの出力、および、この物体までの距離を示す、(例えば、レーダまたは超音波センサからの)他のセンサ出力の両方を知覚コンポーネント110が考慮できることが容易になり得る。
【0034】
知覚コンポーネント110は、追跡コンポーネント118を含み得る。いくつかの実装において、追跡コンポーネント118は、車両の動きを計画する目的で、自車両の周囲における物体を追跡できる。例えば、センサデータが知覚コンポーネント110により処理される連続する事例において、車両206、自転車208および/または歩行者210のうちの1つまたは複数が追跡され得る。
【0035】
以下の説明は、LiDAR108の解像度設定を制御している場合に知覚コンポーネント110が完全にバイパスされ得るシステム100の第1の実装に関する。赤外線カメラ102は、LiDAR108のために出力120を生成できる。イベントベースセンサ104は、LiDAR108のために出力122を生成できる。出力120および/または122は、知覚コンポーネント110をバイパスする。出力120および/または122が(例えば、座標変換により)処理される必要がある場合、かつ、その限りにおいて、これは、LiDAR108により、または別個のコンポーネント(不図示)により実行され得る。いくつかの実装において、出力120および/または122の受信は、LiDAR108が表現200(
図2)を生成する際に適用する解像度をより迅速に変更することを可能にし得る。つまり、第1の実装において、LiDAR108は、知覚コンポーネント110のいかなる態様も使用することなく、解像度設定を制御する。
図2を簡単に参照すると、出力120および/または122は、LiDAR108が、知覚コンポーネント110を通じて情報を処理する必要なく、フレーム216、220および/または224を適用することを可能にし得る。例えば、この制御動作が知覚コンポーネント110を通過しないので、LiDAR108は、検出された物体(例えば、車両206、自転車208および/または歩行者210)の解像度をより速く上げることができる。
【0036】
システム100は、動き計画コンポーネント124を含む。動き計画コンポーネント124は、システム100が自車両の周囲のモニタリングおよび/または運転者による入力に応答して、1つまたは複数のアクションを実行するよう、またはいかなるアクションも実行しないよう、計画できる。知覚コンポーネント110により処理される、センサのうちの1つまたは複数の出力が考慮され得る。動き計画コンポーネント124は、予測コンポーネント126を含む。例えば、予測コンポーネント126は、知覚コンポーネント110の出力(例えば、追跡されている物体)を使用して、追跡されている物体の起こり得る将来の動きおよび自車両の現在のまたは計画された動きにこれがどのように関連しているかについての予測または推定を行う。動き計画コンポーネント124は、軌道構築コンポーネント128を含む。例えば、軌道構築コンポーネント128は、予測コンポーネント126により生成される予測を、任意選択的に、追跡されている物体についての知覚コンポーネント110からの情報と共に取得し、自車両のために軌道経路を準備する。
【0037】
システム100は、車両作動コンポーネント130を含む。車両作動コンポーネント130は、軌道構築コンポーネント128により生成される経路に従って、自車両の1つまたは複数の態様を制御できる。例えば、自車両のステアリング、ギア選択、加速および/または制動が制御され得る。
【0038】
つまり、システム100の第1の実装において、LiDAR108は、知覚コンポーネント110を呼び出すことなく、赤外線カメラ102および/またはイベントベースセンサ104に基づいて解像度設定を制御できる。したがって、むしろ、知覚コンポーネント110は、車両の動きの計画および制御のための基礎としてのLiDAR108のLiDAR出力を処理するためにシステム100により使用され得る。
【0039】
以下の説明は、LiDAR108の解像度設定を制御するために知覚コンポーネント110が部分的にバイパスされ得るシステム100の第2の実装に関する。知覚コンポーネント110の部分的なバイパスが行われるそのようなシナリオにおいて、システム100は、LiDAR108にとって解像度設定を制御するための基礎として機能する比較的単純かつ迅速な動作のために、知覚コンポーネント110を使用できる。いくつかの実装において、知覚コンポーネント110は、変換コンポーネント132を含む。例えば、変換コンポーネント132は、コンピューティングハードウェア上で動作する比較的単純なプログラムとして実装され得る。
【0040】
変換コンポーネント132は、赤外線カメラ102からのセンサ出力および/またはイベントベースセンサ104からのセンサ出力を受信でき、センサ出力の座標の(例えば、マッピングによる)変換を実行することにより結果としてそれらがLiDAR108により使用され得るようにできる。したがって、変換コンポーネント132は、LiDAR108による受信のために、出力134を生成できる。出力134は、知覚スタックの他の態様を呼び出すことなく生成される。例えば、出力134の生成は、コンポーネント112、位置特定コンポーネント114、センサフュージョンコンポーネント116または追跡コンポーネント118の使用を伴わない。知覚コンポーネント110の残りの部分をバイパスしつつ、変換コンポーネント132を使用して出力134を生成することは、LiDAR108が解像度を迅速に設定することを可能にするためのファストトラックアプローチとみなされ得る。
【0041】
LiDAR108は、出力134を使用して、解像度を設定(例えば、視野内の1つまたは複数のより高い解像度の領域を調節)できる。LiDAR108が解像度を設定し、LiDAR出力を生成した後、システム100は、LiDAR出力の処理のために知覚コンポーネント110の残りの部分を使用できる。例えば、知覚コンポーネント110のこの残りの部分は、システム100の第1の実装に関して上述のように動作し得る。
【0042】
知覚コンポーネント110を完全にバイパスする実装(例えば、上で言及された、システム100の第1の実装)において、変換コンポーネント132は、知覚処理において使用されてよく、または省略されてよい。
【0043】
図2は、車両の周囲の表現200の一例を示す。表現200は、本明細書の他の箇所において説明される1つまたは複数の他の例と共に使用され得る。いくつかの実装において、表現200は、車両の運転支援の一部として、(例えば、LiDARにより)ADシステム内で生成され得る。ここでは、ADシステムを有する車両は、表現200内で可視ではなく、「自車両」と称される。
【0044】
表現200は、自車両の周囲の少なくとも一部を示す。例えば、周囲の一部は、任意の所与の時点におけるLiDARの視野であり得る。ここでは、そのような周囲は、信号機および少なくとも1つの横断歩道を有する交差点で合流する道202および204を含むが、これらに限定されない。検出された周囲の各態様が、表現200に含まれ得る。ここでは、車両206は、ADシステムが別の車両を検出したことを概略的に示すために示されている。例えば、車両206は、道202上の自車両の前方に配置され得る。ここでは、自転車208は、ADシステムが自転車を検出したことを概略的に示すために示されている。例えば、自転車208は、道204上に配置され、交差点に向かって走行中であってよい。ここでは、歩行者210は、ADシステムが人を検出したことを概略的に示すために示されている。例えば、歩行者210は、道202および204の交差点の近くに配置され得る。
【0045】
LiDARは、1つまたは複数のレベルの画像解像度で動作できる。概して、LiDARのより高い解像度では、周囲の比較的多くの詳細が表現200に含まれる。逆に、LiDARのより低い解像度では、周囲の比較的少ない詳細が表現200に含まれる。LiDARは、光パルス(例えば、波長範囲内のレーザパルス)を発して光パルスからの反射を検出することにより動作できる。LiDARおよび/またはADシステムの動作の標準またはデフォルトモードは、第1レベルの解像度を使用することであり得る。ここでは、グリッド212は、フレーム214(例えば、LiDARの視野)内で適用されるものとして概略的に示されており、表現200の生成において第1レベルの解像度を使用することを伴う。グリッド212は、フレーム214の全体にわたって延在しているが、明確さのために、フレーム214の一部の中のみに示されている。フレーム214は、この例において可視である表現200の各部分を含む。
【0046】
異なる解像度が、表現200の1つまたは複数の態様に適用され得る。ここでは、フレーム216は、車両206に適用される。ここでは、グリッド218は、フレーム216内で適用されるものとして概略的に示されており、表現200の生成において第2レベルの解像度を車両206に対して使用することを伴う。グリッド218は、フレーム216の全体にわたって延在しているが、明確さのために、フレーム216の一部の中のみに示されている。例えば、第2の解像度は、第1の解像度よりも高くてよい。
【0047】
ここでは、フレーム220は、自転車208に適用される。ここでは、グリッド222は、フレーム220内で適用されるものとして概略的に示されており、表現200の生成において第3レベルの解像度を自転車208に対して使用することを伴う。グリッド222は、フレーム220の全体にわたって延在しているが、明確さのために、フレーム220の一部の中のみに示されている。いくつかの実装において、第3の解像度は、第1の解像度よりも高くてよい。例えば、第2のおよび第3の解像度は、互いに実質的に等しくてよい。
【0048】
ここでは、フレーム224は、歩行者210に適用される。ここでは、グリッド226は、フレーム224内で適用されるものとして概略的に示されており、表現200の生成において第4レベルの解像度を歩行者210に対して使用することを伴う。グリッド226は、フレーム224の全体にわたって延在しているが、明確さのために、フレーム224の一部の中のみに示されている。いくつかの実装において、第4の解像度は、第1の解像度よりも高くてよい。例えば、第2の、第3のおよび第4の解像度は、互いに実質的に等しくてよい。
【0049】
図3Aは、スキャンLiDAR302、赤外線カメラ304およびイベントベースセンサ306を含むシステム300の一例を示す。システム300は、本明細書の他の箇所において説明される1つまたは複数の他の例と共に使用され得る。システム300は、以下の
図9を参照して説明されるコンポーネントのいくつかまたは全てを使用して実装され得る。
【0050】
スキャンLiDAR302は、共に動作する1つまたは複数の物理デバイスとして実装され得る。ここでは、スキャンLiDAR302は、実質的にハウジング308内に含まれる。ハウジング308は、少なくともいくつかのエリアにおける1つまたは複数のタイプの電磁放射に対して透過的であり得る。例えば、ハウジング308は、ハウジング308の周辺部の少なくとも一部にわたって延在する窓310を含み得る。ハウジング308は、システム300のコンポーネントのうちの少なくとも2つのための共通ハウジングであり得る。例えば、スキャンLiDAR302、および、赤外線カメラ304またはイベントベースセンサ306のうちの1つまたは複数は、ハウジング308内に位置し得る。
【0051】
ここでは、スキャンLiDAR302の内部の一部を示すために、ハウジング308内のカットアウト312が使用されている。スキャンLiDAR302は、ハウジング308内の反射器314を含む。反射器314は、少なくともスキャンLiDAR302により使用されるタイプの電磁放射を実質的に反射する1つまたは複数の材料(例えば、反射性コーティングを有する透明ガラス)を含み得る。反射器314は、1つまたは複数の方向に移動可能であり得る。いくつかの実装において、反射器314は、異なる実質的に水平な方向に向けられるべく、回転させられ得る。例えば、反射器314は、いずれかのまたは両方の方向に回転し得る垂直な車軸316上に取り付けられ得る。反射器314の向きは、1つまたは複数のモータまたは他のアクチュエータ(不図示)により制御され得る。
【0052】
スキャンLiDAR302の動作は、ここでは反射器314の一端と実質的に垂直に向けられた破線として概略的に示されている光318、および、ここでは反射器314の一端と実質的に水平に向けられた破線として概略的に示されている光320を伴い得る。光318および320は、スキャンLiDAR302による光(例えば、レーザパルス)の発出またはスキャンLiDAR302による反射光(例えば、レーザパルスからのもの)の受信、またはこれらの両方を示し得る。例えば、スキャンLiDAR302の光源(不図示)は、光318として反射器314へ伝搬し、そこで光320として反射され、スキャンLiDAR302から離れて進み続けるレーザ光のビームを生成できる。別の例として、光は、光320として反射器314に向かって進み、そこで光318として反射され、スキャンLiDAR302のイメージセンサ(不図示)に向かって進み続け得る。
他のアプローチが使用され得る。
【0053】
言及したように、反射器314は、光320の向きを出射方向へ変更するために使用され得る。向きは、複数の手法のいずれかで定義され得る。いくつかの実装において、光320は、任意の方向になるように選択され得る基準方向324に対して光320が形成する角322により、任意の時点で特徴付けられ得る。例えば、反射器314が回転させられる場合、角322(例えば、方位角)は、基準方向324に対して継続的に変化し得る。いくつかの実装において、出射方向の光320は、任意の高さまたは面に対する高度326により、任意の時点で特徴付けられ得る。例えば、1次元よりも高い次元でのスキャンを提供すべく、高度326の異なる値を有する複数のレーザパルスが生成され得る。
【0054】
赤外線カメラ304は、スキャンLiDAR302により考慮され得る1つまたは複数の出力を生成できる。出力は、赤外線カメラ304およびスキャンLiDAR302の間の接続328により提供され得る。接続328は、有線接続または無線接続であり得る。
【0055】
図2をさらに再び参照すると、赤外線カメラ304は、自車両の周囲の任意の部分が周囲の任意の他の部分とは異なる温度を有しているかどうかを検出できる。いくつかの実装において、赤外線カメラ304は、周囲の別の部分よりも高い温度を有する周囲の部分に基づいて、出力により示される周囲の部分を選択できる。例えば、赤外線カメラ304は、近傍でのものよりも高い温度を示すそれからの電磁放射の受信に基づいて(例えば、ドライブトレインおよび/または排気コンポーネントに基づいて)、車両206を検出できる。別の例として、赤外線カメラ304は、近傍でのものよりも高い温度を示す電磁放射の受信に基づいて(例えば、乗り手の体温に基づいて)、自転車208を検出できる。別の例として、赤外線カメラ304は、歩行者210を、近傍でのものよりも高い温度を示すこの歩行者からの電磁放射の受信に基づいて、検出できる。そのため、赤外線カメラ304は、これらおよび/または他の特徴を検出でき、そのような特徴の存在および位置を示す出力をスキャンLiDAR302に対して行うことができる。赤外線カメラ304は、検出を行う際に少なくとも1つの熱センサ330を使用できる。
【0056】
イベントベースセンサ306は、スキャンLiDAR302により考慮され得る1つまたは複数の出力を生成できる。出力は、イベントベースセンサ306およびスキャンLiDAR302の間の接続332により提供され得る。接続332は、有線接続または無線接続であり得る。
図2をさらに再び参照すると、イベントベースセンサ306は、自車両の周囲の任意の部分が周囲の任意の他の部分とは異なるピクセル変化を有しているかどうかを検出できる。いくつかの実装において、イベントベースセンサ306は、周囲の別の部分よりも大きいピクセル変化を有する周囲の部分に基づいて、出力により示される周囲の部分を選択できる。例えば、イベントベースセンサ306は、撮像された画像におけるピクセルの明るさの変化の検出に基づいて車両206を検出でき、そのような明るさの変化は、車両206が道202および/または204に対して動いていることを示す。別の例として、イベントベースセンサ306は、自転車208が道202および/または204に対して動いていることを示す明るさの変化の検出に基づいて、自転車208を検出できる。別の例として、イベントベースセンサ306は、歩行者210が道202および/または204に対して動いていることを示す明るさの変化の検出に基づいて、歩行者210を検出できる。そのため、イベントベースセンサ306は、これらおよび/または他の特徴を検出でき、そのような特徴の存在および位置を示す出力をスキャンLiDAR302に対して行うことができる。イベントベースセンサ306は、検出を行う際に少なくとも1つのカメラ334を使用できる。
【0057】
スキャンLiDAR302は、赤外線カメラ304および/またはイベントベースセンサ306により生成される出力を受信でき、出力を1つまたは複数の目的で使用できる。いくつかの実装において、スキャンLiDAR302は、出力に基づいて表現200(
図2)を生成する際に解像度を制御できる。例えば、フレーム216、220内で、および/または224出力の受信に応答して、より高い解像度が適用され得る。自車両の周囲の何らかの他の部分と比較してより高い解像度をスキャンLiDAR302がそのエリアにおいて適用する場合、フレーム216、220および224の各々は、より高い解像度の領域と称され得る。いくつかの実装において、スキャンLiDAR302は、スキャンレートを調節して、解像度のレベルを制御できる。例えば、単位時間当たりにまたは角322の各単位当たりにより多くのレーザパルスが生成されることを容易にするために、反射器314の回転速度が低減され得る。いくつかの実装において、スキャンLiDAR302は、レーザパルス周波数を調節して、解像度のレベルを制御できる。例えば、単位時間当たりにより多くのレーザパルスが少なくとも1つの特定の方向に生成されることで、解像度が上がり得る。
【0058】
システム300は、(例えば、接続328または332)において)第1の出力を生成するための第1のセンサを備えるシステムの一例であり、第1のセンサは、赤外線カメラ(例えば、赤外線カメラ304)またはイベントベースセンサ(例えば、イベントベースセンサ306)のうちの少なくとも一方を有する。第1の出力は、システムの周囲の部分を示す。いくつかの実装において、第1の出力は、フレーム216、220および/または224のいずれかまたは全てを示し得る。システムは、視野を有するLiDAR(例えば、スキャンLiDAR302)を含む。LiDARは、第1のセンサにより生成される第1の出力を受信し、第1の出力に少なくとも部分的に基づいて視野を制御する。赤外線またはイベントカメラの出力がLiDARの視野へ正確にマッピングされることを保証するために、センサおよびLiDARの間の適切な較正、および座標変換が実行され得る。
【0059】
システム300は、自車両のADシステムに含まれ得る。ADシステムは、自車両の運転を支援するための1つまたは複数の動作を実行するように構成され得る。いくつかの実装において、ADシステムは、自車両の動き制御を実行するために構成され得る。そのようにする際、ADシステムは、センサデータを受信し、物体検出および追跡を実行して、自車両の挙動をどのように制御するかをADシステムが計画するのを助ける知覚コンポーネントを利用し得る。例えば、知覚コンポーネントは、1つまたは複数の物体(例えば、車両206、自転車208および/または歩行者210)の検出を実行し、(例えば、赤外線カメラ304および/またはイベントベースセンサ306および/または他のセンサからの)2つまたはそれよりも多くのセンサ出力の融合を実行し、1つまたは複数の物体(例えば、車両206、自転車208および/または歩行者210の経時的な動き)の追跡を実行するように構成され得る。ここでは、(例えば、赤外線カメラ304および/またはイベントベースセンサ306からの)第1の出力は、知覚コンポーネントをバイパスする。いくつかの実装において、これにより、スキャンLiDAR302は、表現200(
図2)を生成する際に適用する解像度をより迅速に変更することが可能になり得る。例えば、この制御動作が知覚コンポーネントを通過しないので、スキャンLiDAR302は、検出された物体の解像度をより速く上げることができる。
【0060】
図3Bは、フラッシュLiDAR352、赤外線カメラ354およびイベントベースセンサ356を含むシステム350の一例を示す。システム350は、本明細書の他の箇所において説明される1つまたは複数の他の例と共に使用され得る。システム350は、以下の
図9を参照して説明されるコンポーネントのいくつかまたは全てを使用して実装され得る。
【0061】
フラッシュLiDAR352は、共に動作する1つまたは複数の物理デバイスとして実装され得る。ここでは、フラッシュLiDAR352は、少なくとも1つの光源358、光学素子360、少なくとも1つのイメージセンサ362、ドライバ電子機器364およびコンピューティングコンポーネント366を含む。他のコンポーネントが追加的にまたは代替的に使用され得る。
【0062】
システム350の動作において、光源358(例えば、レーザまたは発光ダイオードを含む)は、光学素子360(例えば、1つまたは複数のレンズおよび/または任意の他の光学基板)がシステム350の周囲の少なくとも一部に向ける閃光を生成する。イメージセンサ362(例えば、電荷結合素子または相補型金属酸化膜半導体センサを含む)は、周囲により反射された発出光の少なくとも一部を検出する。ドライバ電子機器364(例えば、チップまたは他の集積回路を含む)は、少なくとも光源358およびイメージセンサ362の動作を制御し、同期させる。コンピューティングコンポーネント366(例えば、命令を実行する1つまたは複数のプロセッサを含む)は、計算を実行して、システム350の周囲の1つまたは複数の特性を決定する。
【0063】
赤外線カメラ354は、フラッシュLiDAR352により考慮され得る1つまたは複数の出力を生成できる。
図2をさらに再び参照すると、赤外線カメラ354は、自車両の周囲の任意の部分が周囲の任意の他の部分とは異なる温度を有しているかどうかを検出できる。いくつかの実装において、赤外線カメラ354は、周囲の別の部分よりも高い温度を有する周囲の部分に基づいて、出力により示される周囲の部分を選択できる。例えば、赤外線カメラ354は、近傍でのものよりも高い温度を示すそれからの電磁放射の受信に基づいて(例えば、ドライブトレインおよび/または排気コンポーネントに基づいて)、車両206を検出できる。別の例として、赤外線カメラ354は、近傍でのものよりも高い温度を示す電磁放射の受信に基づいて(例えば、乗り手の体温に基づいて)、自転車208を検出できる。別の例として、赤外線カメラ354は、歩行者210を、近傍でのものよりも高い温度を示すこの歩行者からの電磁放射の受信に基づいて、検出できる。そのため、赤外線カメラ354は、これらおよび/または他の特徴を検出でき、そのような特徴の存在および位置を示す出力をフラッシュLiDAR352に対して行うことができる。赤外線カメラ354は、検出を行う際に少なくとも1つの熱センサを使用できる。
【0064】
イベントベースセンサ356は、フラッシュLiDAR352により考慮され得る1つまたは複数の出力を生成できる。
図2をさらに再び参照すると、イベントベースセンサ356は、自車両の周囲の任意の部分が周囲の任意の他の部分とは異なるピクセル変化を有しているかどうかを検出できる。いくつかの実装において、イベントベースセンサ356は、周囲の別の部分よりも大きいピクセル変化を有する周囲の部分に基づいて、出力により示される周囲の部分を選択できる。例えば、イベントベースセンサ356は、撮像された画像におけるピクセルの明るさの変化の検出に基づいて車両206を検出でき、そのような明るさの変化は、車両206が道202および/または204に対して動いていることを示す。別の例として、イベントベースセンサ356は、自転車208が道202および/または204に対して動いていることを示す明るさの変化の検出に基づいて、自転車208を検出できる。別の例として、イベントベースセンサ356は、歩行者210が道202および/または204に対して動いていることを示す明るさの変化の検出に基づいて、歩行者210を検出できる。そのため、イベントベースセンサ356は、これらおよび/または他の特徴を検出でき、そのような特徴の存在および位置を示す出力をフラッシュLiDAR352に対して行うことができる。イベントベースセンサ356は、検出を行う際に少なくとも1つのカメラを使用できる。
【0065】
フラッシュLiDAR352は、赤外線カメラ354および/またはイベントベースセンサ356により生成される出力を受信でき、出力を1つまたは複数の目的で使用できる。フラッシュLiDAR352は、出力に基づいて表現200(
図2)を生成する際に解像度を制御できる。いくつかの実装において、例えば、フレーム216、220内で、および/または224出力の受信に応答して、より高い解像度が適用され得る。自車両の周囲の何らかの他の部分と比較してより高い解像度をフラッシュLiDAR352がそのエリアにおいて適用する場合、フレーム216、220および224の各々は、より高い解像度の領域と称され得る。例えば、光源358および/または光学素子360は、生成された閃光が、別の領域よりも高い解像度のエリア内でより集約された光線を有するように、制御され得る。
【0066】
システム350のコンポーネントのうちの2つまたはそれよりも多くが、共通ハウジング内に位置し得る。例えば、フラッシュLiDAR352、および、赤外線カメラ354またはイベントベースセンサ356のうちの1つまたは複数は、共通ハウジング内に位置し得る。
【0067】
システム350は、第1の出力を生成するための第1のセンサを備えるシステムの一例であり、第1のセンサは、赤外線カメラ(例えば、赤外線カメラ354)またはイベントベースセンサ(例えば、イベントベースセンサ356)のうちの少なくとも一方を有する。第1の出力は、システムの周囲の部分を示す。いくつかの実装において、第1の出力は、フレーム216、220および/または224のいずれかまたは全てを示し得る。システムは、視野を有するLiDAR(例えば、フラッシュLiDAR352)を含む。LiDARは、第1のセンサにより生成される第1の出力を受信し、第1の出力に少なくとも部分的に基づいて視野を制御する。
【0068】
図3Cは、フラッシュLiDAR370の別の例を示す。フラッシュLiDAR370は、本明細書の他の箇所において説明される1つまたは複数の他の例と共に使用され得る。例えば、フラッシュLiDAR370は、フラッシュLiDAR352(
図3B)を参照して説明されるコンポーネントのいくつかまたは全てを含み得る。
【0069】
ここでは、フラッシュLiDAR370は、上面視で概略的に示されている。フラッシュLiDAR370は、1つまたは複数の送信機ユニットおよび1つまたは複数の受信機ユニットを含み得る。例えば、送信機ユニットは、少なくとも1つの光源を含んでよく、受信機ユニットは、少なくとも1つのイメージセンサを含んでよい。送信機ユニットおよび受信機ユニットは、互いに別個であってよく、または、統合された送信機/受信機(Tx/Rx)ユニットとして実装されてよい。ここでは、フラッシュLiDAR370は、Tx/Rxユニット372A、372Bおよび372Cを含む。Tx/Rxユニット372A~372Cは、互いに比較して同じまたは異なるコンポーネントを含み得る。例えば、Tx/Rxユニット372A~372Cの各々は、少なくとも光源およびイメージセンサを含み得る。いくつかのコンポーネントは、Tx/Rxユニット372A~372Cのうちの2つまたはそれよりも多くと共通し得る。例えば、LiDAR370は、Tx/Rxユニット372A~372Cのためのドライバ電子機器および/またはコンピューティングコンポーネントを含み得る。
【0070】
ここでは、Tx/Rxユニット372A~372Cは、互いに隣り合って水平に配置されている。他の配置が使用され得る。フラッシュLiDAR370の設計は、視野および範囲の間のトレードオフを考慮し得る。例えば、比較的広い(狭い)視野は、比較的短い(長い)範囲に関連付けられる。いくつかの実装において、Tx/Rxユニット372A~372Cのいくつかまたは全ては、フラッシュLiDAR370の視野および/または範囲のより広い選択を容易にするために、互いに異なるように構成され得る。幾分異なるように述べたが、Tx/Rxユニット372Aは、Tx/Rxユニット372Bよりも低い解像度を有し得る;Tx/Rxユニット372Bはさらに、Tx/Rxユニット372Cよりも低い解像度を有し得る。
【0071】
そのため、Tx/Rxユニット372A~372Cの各々は、視野および範囲の異なる組み合わせを包含する。ここでは、視野は、底辺が観察者に対して垂直に向けられた二等辺三角形として概略的に示されている。例えば、ここでのこの三角形の底辺は、水平方向における視野のそれぞれの幅を示し、ここでの底辺からのこの三角形の高さは、フラッシュLiDAR370からのそれぞれの範囲を示す。ここでのTx/Rxユニット372Aは視野374Aを有し、ここでのTx/Rxユニット372Bは視野374Bを有し、ここでのTx/Rxユニット372Cは視野374Cを有する。視野374Aは、視野374Bよりも広いものであり、視野374Bよりも短い範囲を有する。視野374Bは、視野374Cよりも広いものであり、視野374Cよりも短い範囲を有する。フラッシュLiDAR370は、視野374A~374Cのいくつかまたは全てに基づく視野を有していると言うことができる。
【0072】
いくつかの実装において、フラッシュLiDAR370は、Tx/Rxユニット372A~372C(または他の組み合わせ)の機能を提供するための単一のTx/Rxユニットを含み得る。そのような例において、フラッシュLiDAR370は、複数のTx/Rxユニットのそれぞれの視野および範囲に対応する設定を通じて、時分割多重化方式で順次切り替わり得る。例えば、この場合、フラッシュLiDAR370は、Tx/Rxユニット372A~372Cのいずれかの約3倍のレートであるフレームレートを使用して動作し得る。
【0073】
いくつかの実装において、少なくとも2つのユニットがフラッシュLiDAR370のために使用され得る。例えば、1つのユニットがTx/Rxユニット372Aおよび372Bに対応してよく、別のユニットがTx/Rxユニット372Cに対応してよい。
【0074】
Tx/Rxユニット372A~372Cのうちの1つまたは複数は、少なくとも1つの方向に移動可能であり得る。いくつかの実装において、少なくとも1つの他のTx/Rxユニットよりも比較的高い解像度を有するTx/Rxユニットは、移動可能であり得る。ごくわずかな例を挙げると、Tx/Rxユニットは、水平および/または垂直に移動可能であり得る。いくつかの実装において、Tx/Rxユニットは、1つまたは複数の回転軸を中心として回転させられ得る。ここでは、フラッシュLiDAR370は、回転機構376を含む。いくつかの実装において、回転機構376は、J少なくともTx/Rxユニット372Cに適用される。回転機構376は、垂直回転軸を中心としてTx/Rxユニット372Cを回転させるように作動され得る。例えば、矢印378は、Tx/Rxユニット372Cの回転に対応する視野374Cの回転を概略的に示す。回転機構376は、1つまたは複数の回転アクチュエータを含み得る。例えば、回転機構376は、Tx/Rxユニット372Cに取り付けられ得る少なくとも1つの車軸、および、フラッシュLiDAR370に対して車軸を回転させるように構成された少なくとも1つのアクチュエータ(例えば、電気モータ)を含み得る。
【0075】
Tx/Rxユニット372A~372Cのうちの少なくとも1つの移動は、1つまたは複数の入力に基づき得る。いくつかの実装において、Tx/Rxユニット372Cは、フラッシュLiDAR370の解像度を設定するために、回転機構376により回転させられ得る。例えば、解像度設定により、赤外線カメラおよび/またはイベントベースシステムからの信号に基づいて、(例えば、視野374C)に対応する)少なくとも1つのより高い解像度の領域がステアリングされ得る。
【0076】
Tx/Rxユニット372A~372C(または他の組み合わせ)の機能を提供するための単一のTx/RxユニットをフラッシュLiDAR370が含む例において、フラッシュLiDAR370は、向きの調節を提供する移動可能なマウントに配置され得る。いくつかの実装において、フラッシュLiDAR370は、回転機構376上に配置され得る。例えば、これにより、比較的長い範囲および狭い視野を伴う事例について、適切な向き設定が容易になり得る。
【0077】
図4は、赤外線カメラ400の一例を示す。赤外線カメラ400は、本明細書の他の箇所において説明される1つまたは複数の他の例と共に使用され得る。赤外線カメラ400は、以下の
図9を参照して説明されるコンポーネントのいくつかまたは全てを使用して実装され得る。
【0078】
赤外線カメラ400は、レンズ402、熱センサ404および処理電子機器406を含む。他のコンポーネント(不図示)が、追加的に、または示されているものの代わりに使用され得る。レンズ402は、赤外線カメラ400による少なくとも赤外線波長範囲内の電磁放射の受信を容易にするように設計された任意の光学コンポーネント内に含まれ得る。レンズ402は少なくとも部分的に、撮像および検出が行われる波長範囲内で透過的である。
【0079】
熱センサ404は、物体により生成される赤外線放射を検出するように構成されたコンポーネントを含む。いくつかの実装において、熱センサ404は、焦電センサを含む。例えば、焦電材料でできた複数のセンサ要素が使用されてよく、それらの出力信号における差異が、検出されている赤外線放射に反映され得る。
【0080】
処理電子機器406は、熱センサ404からの出力を受信し、適切な出力の生成を容易にするための処理を実行できる。いくつかの実装において、処理電子機器406は、自車両の周囲の部分が周囲の別の部分とは異なる温度(例えば、別の部分よりも高い温度)を有しているかどうかの判断を試み得る。例えば、処理電子機器406は、最低温度またはそれよりも高い物体を出力が識別するように、閾値を適用できる。処理電子機器406は、熱センサ404からの出力をLiDARに適した形式へ変換できる。例えば、熱的に検出された物体の位置は、LiDARの視野に対する座標により示され得る。
【0081】
要するに、赤外線カメラ400は、(例えば、
図2)における自車両の周囲から)電磁放射408を受けることできる。処理電子機器406は、車両206、自転車208および/または歩行者210がLiDARに対して識別されるはずである、と放射に基づいて判断できる。したがって、処理電子機器406は、車両206、自転車208および/または歩行者210のうちの少なくとも1つが他の周囲とは異なる温度を有していることを示す出力410を生成する。
【0082】
図5は、イベントベースセンサ500の一例を示す。イベントベースセンサ500は、本明細書の他の箇所において説明される1つまたは複数の他の例と共に使用され得る。イベントベースセンサ500は、以下の
図9を参照して説明されるコンポーネントのいくつかまたは全てを使用して実装され得る。
【0083】
イベントベースセンサ500は、レンズ502、イメージセンサ504、変化検出器506およびイベント生成器508を含む。他のコンポーネント(不図示)が、追加的に、または示されているものの代わりに使用され得る。レンズ502は、イベントベースセンサ500による少なくとも可視光波長範囲内の電磁放射の受信を容易にするように設計された任意の光学コンポーネント内に含まれ得る。レンズ502は少なくとも部分的に、撮像および検出が行われる波長範囲内で透過的である。
【0084】
イメージセンサ504は、周囲における物体の画像を検出するように構成されたコンポーネントを含む。明るさの変化の検出を容易にする任意のイメージセンサ技術が使用され得る。ほんの2つの例を挙げると、イメージセンサ504は、電荷結合素子または相補型金属酸化膜半導体に基づき得る。
【0085】
変化検出器506は、イメージセンサ504からの信号を分析し、フレーム間のピクセル毎の差異を検出できる。そのような差異は、視野内の物体がイベントベースセンサ500に対して動いていることを示し得る。例えば、車両206、自転車208および/または歩行者210のうちの1つまたは複数に動きがある場合、変化検出器506は、イメージセンサ504により撮像された画像のピクセル変化を検出できる。イベントベースセンサ500(例えば、自車両内に実装される)は、フレーム撮像時間中動いていることがある。イメージセンサ504のこの動きには、フレームを変化させる効果がある。イベントベースセンサ500の時間解像度は、十分に高く(例えば、約1μs程度)てよい。したがって、エゴモーションは無視できるものであることが多い。無視できるものではない場合、動き補償アルゴリズムが使用され得る。
【0086】
イベント生成器508は、変化検出器506からの出力を受信し、自車両の周囲における1つまたは複数のイベントの検出を容易にするための処理を実行できる。いくつかの実装において、イベント生成器508は、自車両の周囲の部分が周囲の別の部分とは異なるピクセル変化(例えば、別の部分よりも大きい量の動き)を経ているかどうかの判断を試み得る。例えば、イベント生成器508は、少なくとも最小量の動きを経ている物体を出力が識別するように、閾値を適用できる。イベント生成器508は、LiDARに適した形式で出力を生成できる。例えば、明るさベースのイベント検出により突き止められた物体の位置は、LiDARの視野に対する座標により示され得る。
【0087】
要するに、イベントベースセンサ500は、(例えば、
図2)における自車両の周囲から)電磁放射510を受けることができる。変化検出器506およびイベント生成器508は、車両206、自転車208および/または歩行者210がLiDARに対して識別されるはずである、と放射に基づいて判断できる。したがって、イベント生成器508は、車両206、自転車208および/または歩行者210のうちの少なくとも1つが他の周囲とは異なるピクセル変化を経ていることを示す出力512を生成する。
【0088】
いくつかの実装において、赤外線カメラ400および/またはイベントベースセンサ500は、LiDARにより直接(例えば、変換なしで)使用され得る、周囲に関する座標を出力できる。例えば、赤外線カメラ400および/またはイベントベースセンサ500は、LiDARが認識している基準フレーム内の解像度を上げるべき場所を示す座標を出力する。次に、LiDARは、この座標により示される方向におけるより高い解像度の領域に照準を合わせ得る。いくつかの実装において、赤外線カメラ400および/またはイベントベースセンサ500は、LiDARが変換を実行した後に使用できる、周囲に関する座標を出力できる。例えば、赤外線カメラ400および/またはイベントベースセンサ500は、LiDARが使用するものとは異なる、基準フレーム内の座標を出力し、LiDARは、座標を変換し、その後、変換された座標により示される方向へより高い解像度の領域を向けることができる。
【0089】
いくつかの実装において、赤外線カメラ400および/またはイベントベースセンサ500は、赤外線カメラ400および/またはイベントベースセンサ500により検出可能な周囲の範囲の全体を表す出力を生成する。例えば、このタイプの出力は、「全体図」出力と称され得る。そのような出力において、1つまたは複数の変数(例えば、熱変数および/またはピクセル変化変数)は、対象である少なくとも1つのエリアを示し得る。したがって、この出力を受信したLiDARは、対象となるエリアの方向/位置を決定できる。
【0090】
いくつかの実装において、赤外線カメラ400および/またはイベントベースセンサ500は、対象であり得るエリアのみを表す出力を生成する。例えば、このタイプの出力は、「ホットスポット」出力と称され得る。そのような出力は、異なる温度および/またはピクセル変化を有している周囲の部分を識別する情報のみを含み、周囲の他の部分を識別しない。したがって、この出力を受信したLiDARは、対象となるエリアの方向/位置を決定できる。
【0091】
図6は、スキャンLiDAR600の別の例を示す。スキャンLiDAR600は、本明細書の他の箇所において説明される1つまたは複数の他の例と共に使用され得る。スキャンLiDAR600は、以下の
図9を参照して説明されるコンポーネントのいくつかまたは全てを使用して実装され得る。
【0092】
スキャンLiDAR600は、光源602、スキャナ604、光センサ606および処理電子機器608を含む。光源602は、コヒーレント光を生成するための1つまたは複数のコンポーネントを含み得る。例えば、レーザが使用され得る。レーザにより生成される波長は、光センサ606の能力、および/または、スキャンLiDAR600が共に使用されるべき意図された周囲および物体に基づいて選択され得る。
【0093】
スキャナ604は、1つまたは複数の反射器610およびコントローラ612を含む。いくつかの実装において、反射器610は、反射器314(
図3A)と同様または同一であり得る。例えば、反射器610は、光源602からの光をスキャンLiDAR600の周囲に向かって反射するように、かつ、スキャンLiDAR600により受信された光については、そのような光を光センサ606に向かって反射するように構成され得る。別の例として、二軸設計では、反射器610の1つのインスタンスは、光源602から到達した出射光を反射でき、反射器610の別のインスタンスは、入射光を光センサ606に向かって反射できる。コントローラ612は、反射器610の向きまたは他の位置を制御できる。いくつかの実装において、コントローラ612は、スキャンLiDAR600により実行された結像の解像度を上げるかどうかを判断する際、赤外線カメラおよび/またはイベントベースセンサからの出力を考慮し得る。反射器610の回転角および/または回転速度が制御され得る。例えば、
図2を再び簡単に参照すると、コントローラ612は、フレーム216内のLiDAR解像度がグリッド218に対応すること;フレーム220内のLiDAR解像度がグリッド222に対応すること;および/またはフレーム224内のLiDAR解像度がグリッド226に対応することを容易にし得る。
【0094】
光センサ606は、少なくとも検出されるように意図された波長範囲(例えば、可視光)に影響を受けやすい1つまたは複数の要素を含む。ほんの2つの例を挙げると、光センサ606は、電荷結合素子または相補型金属酸化膜半導体に基づき得る。
【0095】
処理電子機器608は、光センサ606の出力およびコントローラ612からの情報(例えば、反射器610)の現在の向きに関するもの)を受信し、これらをLiDAR出力の生成において使用できる。
【0096】
要するに、光源602は、光614を生成できる。例えば、光614は、反射器610を使用して、スキャンLiDAR600の周囲の1つまたは複数の部分に向けられ得る。光センサ606は、光616を受信できる。例えば、光616は、スキャンLiDAR600の周囲のいくつかまたは全てからの光614の反射を含み得る。処理電子機器608は、光センサ606の出力に基づいて出力618を生成できる。
【0097】
図7は、方法700の一例を示す。方法700は、本明細書の他の箇所において説明される1つまたは複数の他の例と共に使用され得る。示されているよりも多いまたは少ない動作が実行され得る。別段の指示がない限り、2つまたはそれよりも多くの動作が異なる順序で実行され得る。
【0098】
動作702において、方法700は、車両の第1のセンサを使用して出力を生成することを含む。例えば、
図3Aを参照すると、第1のセンサは、赤外線カメラ304および/またはイベントベースセンサ306を含み得る。
【0099】
動作704において、方法700は、第1の出力を車両のLiDARに提供することを含む。例えば、
図1を参照すると、出力120および/または122は、LiDAR108に提供され得る。別の例として、出力134は、LiDAR108に提供され得る。LiDARは、視野(例えば、
図2)を有しており、視野内のより高い解像度の領域(例えば、
図2)におけるフレーム216、220および/または224)を使用して動作するように構成されている。LiDARは、視野内の他の箇所よりも高い解像度の領域内でより高い解像度を有する。例えば、グリッド218、222および/または226は、表現200の少なくとも何らかの他の部分よりも高い解像度に対応し得る。
【0100】
動作706において、方法700は、LiDARを使用して、より高い解像度の領域を第1の出力に基づき定義することを含む。例えば、
図2におけるフレーム216、220および/または224のサイズ、形状および位置が定義され得る。したがって、LiDARは、より高い解像度の領域を定義することにより、解像度を設定できる。
【0101】
動作708において、方法700は、LiDARを使用している車両の周囲の表現を生成することを含む。例えば、表現200(
図2)が生成され得る。この表現は、より高い解像度の領域を含む。
【0102】
動作710において、方法700は、車両の第2のセンサの第2の出力およびLiDARの第3の出力を車両の知覚コンポーネントに提供することを含む。例えば、
図1を参照すると、LiDAR108の出力、および、センサ106、赤外線カメラ102および/またはイベントベースセンサ104の少なくとも1つの出力が知覚コンポーネント110に提供され得る。知覚コンポーネントは、第2のおよび第3の出力に関する(例えば、コンポーネント112による)物体検出、(例えば、センサフュージョンコンポーネント116による)センサフュージョンおよび(例えば、追跡コンポーネント118による)物体追跡を実行するように構成されている。第1の出力は、知覚コンポーネントをバイパスする。例えば、
図1を参照すると、出力120および/または122は、初めに知覚コンポーネント110を通過することなく、LiDAR108に直接提供され得る。
【0103】
動作712において、方法700は、知覚コンポーネントの第4の出力を使用して車両の動き制御を実行することを含む。例えば、
図1を参照すると、車両作動コンポーネント130は、動き計画コンポーネント124により実行される予測および軌道計画に従って、動き制御を実行できる。
【0104】
図8は、車両800の一例を示す。車両800は、本明細書の他の箇所において説明される1つまたは複数の他の例と共に使用され得る。車両800は、ADAS/ADシステム802および車両制御部804を含む。ADAS/ADシステム802は、以下の
図9を参照して説明されるコンポーネントのいくつかまたは全てを使用して実装され得る。ADAS/ADシステム802は、センサ806および計画アルゴリズム808を含む。ADAS/ADシステム802が実装され得る車両800の他のコンポーネントを含むがこれらに限定されない、車両800が含み得る他の態様は、簡潔にするためにここでは省略される。
【0105】
ここでは、センサ806は、センサ出力を処理し、この処理に基づいて検出を実行するための適切な回路および/または実行可能プログラミングも含むものとして説明される。センサ806は、レーダ810を含み得る。いくつかの実装において、レーダ810は、電波に少なくとも部分的に基づく任意の物体検出システムを含み得る。例えば、レーダ810は、車両に対して前進方向に向けられてよく、少なくとも、1つまたは複数の他の物体(例えば、別の車両)までの距離を検出するために使用されてよい。レーダ810は、車両800に関連して物体の存在をセンシングすることにより、車両800の周囲を検出できる。
【0106】
センサ806は、LiDAR812を含み得る。いくつかの実装において、LiDAR812は、レーザ光に少なくとも部分的に基づく任意の物体検出システムを含み得る。例えば、LiDAR812は、車両に対して任意の方向に向けられてよく、少なくとも、1つまたは複数の他の物体(例えば、別の車両)までの距離を検出するために使用されてよい。LiDAR812は、車両800に関連して物体の存在をセンシングすることにより、車両800の周囲を検出できる。いくつかの実装において、LiDAR812は、赤外線カメラ814および/またはイベントベースセンサ816からの出力を受信してLiDAR812の視野内のより高い解像度の領域を定義するスキャンLiDARである。いくつかの実装において、LiDAR812は、赤外線カメラ814および/またはイベントベースセンサ816からの出力を受信してLiDAR812の視野内のより高い解像度の領域を定義する非スキャンLiDAR(例えば、フラッシュLiDAR)である。
【0107】
センサ806は、カメラ818を含み得る。いくつかの実装において、カメラ818は、その信号を車両800が考慮する任意のイメージセンサを含み得る。例えば、カメラ818は、車両に対して任意の方向に向けられてよく、車両、車線、車線表示、縁石および/または道路標識を検出するために使用されてよい。カメラ818は、車両800に関連して状況を視覚的に記録することにより、車両800の周囲を検出できる。
【0108】
センサ806は、超音波センサ820を含み得る。いくつかの実装において、超音波センサ820は、超音波に基づいて少なくとも物体の近接度を検出する際に使用される任意の送信機、受信機および/または送受信機を含み得る。例えば、超音波センサ820は、車両の外面に、またはその近くに配置され得る。超音波センサ820は、車両800に関連して物体の存在をセンシングすることにより、車両800の周囲を検出できる。
【0109】
ADAS/ADシステム802が車両800の動きを制御中であるか否かを問わず、センサ806のいずれかが単独で、または、センサ806のうちの2つまたはそれよりも多くが集合的に、車両800の周囲を検出できる。いくつかの実装において、センサ806のうちの少なくとも1つは、運転者に対するプロンプトの提供において、および/または車両800の動きの制御において考慮される出力を生成できる。例えば、2つまたはそれよりも多くのセンサの出力(例えば、レーダ810、LiDAR812およびカメラ818)の出力)が組み合わされ得る。いくつかの実装において、1つまたは複数の他のタイプのセンサが、追加的に、または代わりに、センサ806に含まれ得る。
【0110】
計画アルゴリズム808は、車両800の周囲のモニタリングおよび/または運転者による入力に応答して、1つまたは複数のアクションを実行するよう、またはいかなるアクションも実行しないよう、ADAS/ADシステム802を計画できる。センサ806のうちの1つまたは複数の出力が考慮され得る。いくつかの実装において、計画アルゴリズム808は、車両800のために、動き計画を実行し、および/または軌道を計画できる。
【0111】
車両制御部804は、ステアリング制御部822を含み得る。いくつかの実装において、ADAS/ADシステム802、および/または車両800の別の運転者は、ステアリング制御部822を操作することによって、少なくとも1つの車輪のステアリング角を調節することにより、車両800の軌道を制御する。ステアリング制御部822は、ステアリング制御部822および調節可能な車輪の間の機械的接続を通じてステアリング角を制御するために構成されてよく、または、ステアバイワイヤシステムの一部であってよい。
【0112】
車両制御部804は、ギア制御部824を含み得る。いくつかの実装において、ADAS/ADシステム802、および/または車両800の別の運転者は、ギア制御部824を使用して、車両の複数の動作モード(例えば、運転モード、ニュートラルモードまたは駐車モード)の中から選択する。例えば、ギア制御部824は、車両800内の自動変速機を制御するために使用され得る。
【0113】
車両制御部804は、信号制御部826を含み得る。いくつかの実装において、信号制御部826は、車両800が生成し得る1つまたは複数の信号を制御し得る。例えば、信号制御部826は、方向指示器および/または車両800の警音器を制御し得る。
【0114】
車両制御部804は、ブレーキ制御部828を含み得る。いくつかの実装において、ブレーキ制御部828は、車両を減速させ、車両を停止させ、および/または停止時に車両を停止状態に維持するように設計された1つまたは複数のタイプの制動システムを制御し得る。例えば、ブレーキ制御部828は、ADAS/ADシステム802によって作動され得る。別の例として、ブレーキ制御部828は、運転者によってブレーキペダルを使用して作動され得る。
【0115】
車両制御部804は、車両ダイナミックシステム830を含み得る。いくつかの実装において、車両ダイナミックシステム830は、運転者による制御に加え、またはこの制御なしで、またはこの制御の代わりに、車両800の1つまたは複数の機能を制御し得る。例えば、車両が坂道の上で停止する場合において、運転者がブレーキ制御部828を作動させ(例えば、ブレーキペダルを踏ま)ないときは、車両ダイナミックシステム830は、車両を停止状態に保持し得る。
【0116】
車両制御部804は、加速制御部832を含み得る。いくつかの実装において、加速制御部832は、車両の1つまたは複数のタイプの推進モータを制御し得る。例えば、加速制御部832は、車両800の電気モータおよび/または内燃モータを制御し得る。
【0117】
車両800は、ユーザインタフェース834を含み得る。ユーザインタフェース834は、オーディオインタフェース836を含み得る。いくつかの実装において、オーディオインタフェース836は、乗員コンパートメント内に配置された1つまたは複数のスピーカを含み得る。例えば、オーディオインタフェース836は、少なくとも部分的に、車両内のインフォテインメントシステムと共に動作し得る。
【0118】
ユーザインタフェース834は、ビジュアルインタフェース838を含み得る。いくつかの実装において、ビジュアルインタフェース838は、車両800の乗員コンパートメント内の少なくとも1つのディスプレイデバイスを含み得る。例えば、ビジュアルインタフェース838は、タッチスクリーンデバイスおよび/または計器群ディスプレイを含み得る。
【0119】
図9は、本明細書において説明されているシステム、装置および/または技術のいずれか、または様々な可能な実施形態において利用され得る任意の他のシステム、装置および/または技術を含む、本開示の態様を実装するために使用され得るコンピューティングデバイス900の例示的なアーキテクチャを示す。
【0120】
図9に示されているコンピューティングデバイスを使用して、本明細書において説明されているオペレーティングシステム、アプリケーションプログラムおよび/または(ソフトウェアエンジンを含む)ソフトウェアモジュールを実行できる。
【0121】
いくつかの実施形態において、コンピューティングデバイス900は、中央処理装置(CPU)などの少なくとも1つの処理デバイス902(例えば、プロセッサ)を含む。様々な製造業者、例えばIntelまたはAdvanced Micro Devicesから、様々な処理デバイスが入手可能である。この例において、コンピューティングデバイス900は、システムメモリ904、および、システムメモリ904を含む様々なシステムコンポーネントを処理デバイス902に結合するシステムバス906も含む。システムバス906は、様々なバスアーキテクチャのうちのいずれかを使用する、メモリバスまたはメモリコントローラ;ペリフェラルバス;およびローカルバスを含むがこれらに限定されない、使用され得る任意の数のタイプのバス構造のうちの1つである。
【0122】
コンピューティングデバイス900を使用して実装され得るコンピューティングデバイスの例は、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、(スマートフォン、タッチパッドモバイルデジタルデバイスまたは他のモバイルデバイスなどの)モバイルコンピューティングデバイス、またはデジタル命令を処理するように構成された他のデバイスを含む。
【0123】
システムメモリ904は、リードオンリメモリ908およびランダムアクセスメモリ910を含む。起動中などにコンピューティングデバイス900内で情報を転送するように機能する基本ルーチンを含む基本入力/出力システム912が、リードオンリメモリ908に記憶され得る。
【0124】
いくつかの実施形態において、コンピューティングデバイス900は、デジタルデータを記憶するためのハードディスクドライブなどの二次ストレージデバイス914も含む。二次ストレージデバイス914は、二次ストレージインタフェース916によってシステムバス906に接続される。二次ストレージデバイス914、およびその関連付けられたコンピュータ可読媒体は、コンピューティングデバイス900用の(アプリケーションプログラムおよびプログラムモジュールを含む)コンピュータ可読命令、データ構造および他のデータの不揮発性であり非一時的なストレージを提供する。
【0125】
本明細書において説明されている例示的な環境では二次ストレージデバイスとしてハードディスクドライブを使用されているが、他の実施形態では他のタイプのコンピュータ可読記憶媒体が使用される。これらの他のタイプのコンピュータ可読記憶媒体の例は、磁気カセット、フラッシュメモリカード、ソリッドステートドライブ(SSD)、デジタルビデオディスク、ベルヌーイカートリッジ、コンパクトディスクリードオンリメモリ、デジタル多用途ディスクリードオンリメモリ、ランダムアクセスメモリまたはリードオンリメモリを含む。いくつかの実施形態は非一時的媒体を含む。例えば、コンピュータプログラム製品は、非一時的記憶媒体に有形に具現化され得る。追加的に、そのようなコンピュータ可読記憶媒体は、ローカルストレージまたはクラウドベースのストレージを含み得る。
【0126】
二次ストレージデバイス914、および/または、オペレーティングシステム918、1つまたは複数のアプリケーションプログラム920、(本明細書において説明されているソフトウェアエンジンなどの)他のプログラムモジュール922およびプログラムデータ924を含むシステムメモリ904に、複数のプログラムモジュールが記憶され得る。コンピューティングデバイス900は、任意の適切なオペレーティングシステムを利用し得る。
【0127】
いくつかの実施形態において、ユーザは、1つまたは複数の入力デバイス926を通じて、コンピューティングデバイス900に入力を提供する。入力デバイス926の例は、キーボード928、マウス930、(例えば音声および/または他のオーディオ入力のための)マイクロフォン932、(タッチパッドまたはタッチ感知ディスプレイなどの)タッチセンサ934、および(例えばジェスチャ入力のための)ジェスチャセンサ935を含む。いくつかの実装において、入力デバイス926は、存在、近接度および/または動きに基づく検出を提供する。他の実施形態は他の入力デバイス926を含む。入力デバイスは、システムバス906に結合された入力/出力インタフェース936を通じて処理デバイス902に接続され得る。これらの入力デバイス926は、(パラレルポート、シリアルポート、ゲームポート、またはユニバーサルシリアルバスなどの)任意の数の入力/出力インタフェースによって接続され得る。可能ないくつかの実施形態では、入力デバイス926および入力/出力インタフェース936の間の無線通信も可能であり、ごくわずかな例を挙げると、赤外線、BLUETOOTH(登録商標)無線技術、802.11a/b/g/n、セルラ、超広帯域(UWB)、ZigBee(登録商標)、または他の無線周波数通信システムを含む。
【0128】
この例示的な実施形態において、モニタ、液晶ディスプレイデバイス、発光ダイオードディスプレイデバイス、プロジェクタ、またはタッチ感知ディスプレイデバイスなどのディスプレイデバイス938も、ビデオアダプタ940などのインタフェースを介してシステムバス906に接続される。コンピューティングデバイス900は、ディスプレイデバイス938に加え、スピーカまたはプリンタなどの様々な他のペリフェラルデバイス(不図示)を含み得る。
【0129】
コンピューティングデバイス900は、ネットワークインタフェース942を通じて1つまたは複数のネットワークに接続され得る。ネットワークインタフェース942は、有線および/または無線通信を提供できる。いくつかの実装において、ネットワークインタフェース942は、無線信号を送信および/または受信するための1つまたは複数のアンテナを含み得る。ローカルエリアネットワーキング環境または(インターネットなどの)ワイドエリアネットワーキング環境で使用される場合、ネットワークインタフェース942は、イーサネット(登録商標)インタフェースを含み得る。可能な他の実施形態は、他の通信デバイスを使用する。例えば、コンピューティングデバイス900のいくつかの実施形態は、ネットワークにわたって通信するためのモデムを含む。
【0130】
コンピューティングデバイス900は、少なくとも何らかの形態のコンピュータ可読媒体を含み得る。コンピュータ可読媒体は、コンピューティングデバイス900によってアクセスされ得る任意の利用可能な媒体を含む。例として、コンピュータ可読媒体は、コンピュータ可読記憶媒体およびコンピュータ可読通信媒体を含む。
【0131】
コンピュータ可読記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータなどの情報を記憶するように構成された任意のデバイスに実装される、揮発性および不揮発性であり、リムーバブルおよび非リムーバブルな媒体を含む。コンピュータ可読記憶媒体は、ランダムアクセスメモリ、リードオンリメモリ、電気的消去可能プログラマブルリードオンリメモリ、フラッシュメモリ、または他のメモリ技術、コンパクトディスクリードオンリメモリ、デジタル多用途ディスクまたは他の光ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージまたは他の磁気ストレージデバイス、または所望の情報を記憶するために使用され得る、コンピューティングデバイス900によってアクセスされ得る任意の他の媒体を含むが、これらに限定されない。
【0132】
コンピュータ可読通信媒体は、典型的には、コンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータを搬送波または他の伝送メカニズムなどの変調データ信号に具現化し、任意の情報伝達媒体を含む。「変調データ信号」という用語は、その特性のうちの1つまたは複数が、信号内の情報をエンコードするような方式で設定または変更された信号を指す。例として、コンピュータ可読通信媒体は、有線ネットワークまたは直接有線接続などの有線媒体、および音響、無線周波数、赤外線、および他の無線媒体などの無線媒体を含む。上記もののいずれかの組み合わせも、コンピュータ可読媒体の範囲内に含まれる。
【0133】
図9に示されているコンピューティングデバイスも、1つまたは複数のそのようなコンピューティングデバイスを含み得るプログラマブル電子機器の一例であり、複数のコンピューティングデバイスが含まれる場合、そのようなコンピューティングデバイスは、適切なデータ通信ネットワークに共に結合されることにより、本明細書において開示されている様々な機能、方法または動作を集合的に実行できる。
【0134】
いくつかの実装において、コンピューティングデバイス900は、ADASコンピュータとして特徴付けられ得る。例えば、コンピューティングデバイス900は、人工知能(AI)の分野で生じるタスクを処理するために使用されることがある1つまたは複数のコンポーネントを含み得る。したがって、コンピューティングデバイス900は概して、ADASまたはAIの需要に対して十分な処理能力および必要なサポートアーキテクチャを含む。例えば、処理デバイス902は、マルチコアアーキテクチャを含み得る。別の例として、コンピューティングデバイス900は、処理デバイス902に加え、またはその一部として、1つまたは複数のコプロセッサを含み得る。いくつかの実装において、少なくとも1つのハードウェアアクセラレータがシステムバス906に結合され得る。例えば、グラフィックス処理ユニットが使用され得る。いくつかの実装において、コンピューティングデバイス900は、ニューラルネットワーク固有ハードウェアを実装して、1つまたは複数のADASタスクを処理できる。
【0135】
本明細書の全体を通して使用される「実質的に」および「約」という用語は、処理時のばらつきに起因するものなどの小さい変動を説明および報告するために使用される。例えば、それらは、±5%よりも小さいまたはそれに等しいこと、例えば±2%よりも小さいまたはそれに等しいこと、例えば±1%よりも小さいまたはそれに等しいこと、例えば±0.5%よりも小さいまたはそれに等しいこと、例えば±0.2%よりも小さいまたはそれに等しいこと、例えば±0.1%よりも小さいまたはそれに等しいこと、例えば±0.05%よりも小さいまたはそれに等しいことを指し得る。また、本明細書において使用される場合、「a」または「an」などの不定冠詞は「少なくとも1つ」を意味する。
【0136】
上記の概念および以下でより詳細に論じられる追加の概念の全ての組み合わせが(そのような概念が相互に矛盾しないことを条件として)、本明細書において開示されている本発明の主題の一部であると企図されていることを理解されたい。特に、本開示の最後に現れる特許請求される主題の全ての組み合わせが、本明細書において開示されている本発明の主題の一部であると企図されている。
【0137】
複数の実装を説明してきた。しかしながら、本明細書の趣旨および範囲から逸脱することなく、様々な修正が行われ得ることが理解されるであろう。
【0138】
加えて、図に示されている論理フローは、望ましい結果を実現するために、示されている特定の順序、または連続した順序を必要としない。加えて、他の処理が提供されてよく、または説明されたフローから処理が排除されてよく、説明されたシステムに他のコンポーネントが追加されてよく、または説明されたシステムから他のコンポーネントが削除されてよい。したがって、他の実装が以下の特許請求の範囲に記載の範囲内に含まれる。
【0139】
説明された実装の特定の特徴が、本明細書において説明されているとおりに示されてきたが、今や多くの修正、置換、変更、および均等物が当業者に想起されるであろう。したがって、添付の特許請求の範囲は、これらの実装の範囲に含まれる全てのそのような修正および変更を包含するように意図されていることが理解されるべきである。それらは限定ではなく単なる例として提示されており、形態および詳細の様々な変更が行われてよいことを理解されたい。相互に排他的な組み合わせを除き、本明細書において説明されている装置および/または方法の任意の部分が任意の組み合わせで組み合わされてよい。本明細書において説明されている実装は、説明されている異なる実装の機能、コンポーネントおよび/または特徴の様々な組み合わせおよび/または副次的組み合わせを含み得る。
【国際調査報告】