IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ウェイモ エルエルシーの特許一覧

<>
  • 特開-自動露出レイテンシの低減 図1
  • 特開-自動露出レイテンシの低減 図2A
  • 特開-自動露出レイテンシの低減 図2B
  • 特開-自動露出レイテンシの低減 図2C
  • 特開-自動露出レイテンシの低減 図2D
  • 特開-自動露出レイテンシの低減 図2E
  • 特開-自動露出レイテンシの低減 図2F
  • 特開-自動露出レイテンシの低減 図2G
  • 特開-自動露出レイテンシの低減 図2H
  • 特開-自動露出レイテンシの低減 図2I
  • 特開-自動露出レイテンシの低減 図2J
  • 特開-自動露出レイテンシの低減 図2K
  • 特開-自動露出レイテンシの低減 図3
  • 特開-自動露出レイテンシの低減 図4
  • 特開-自動露出レイテンシの低減 図5
  • 特開-自動露出レイテンシの低減 図6
  • 特開-自動露出レイテンシの低減 図7
  • 特開-自動露出レイテンシの低減 図8
  • 特開-自動露出レイテンシの低減 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024170370
(43)【公開日】2024-12-10
(54)【発明の名称】自動露出レイテンシの低減
(51)【国際特許分類】
   H04N 23/70 20230101AFI20241203BHJP
   H04N 23/60 20230101ALI20241203BHJP
   G03B 15/00 20210101ALI20241203BHJP
【FI】
H04N23/70
H04N23/60 500
G03B15/00 U
【審査請求】有
【請求項の数】20
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2024069722
(22)【出願日】2024-04-23
(31)【優先権主張番号】18/312,369
(32)【優先日】2023-05-04
(33)【優先権主張国・地域又は機関】US
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.BLUETOOTH
2.ZIGBEE
(71)【出願人】
【識別番号】317015065
【氏名又は名称】ウェイモ エルエルシー
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100126480
【弁理士】
【氏名又は名称】佐藤 睦
(72)【発明者】
【氏名】キム,エリック ダニエル
(72)【発明者】
【氏名】ダリア,ニラーヴ シャイレッシュ クマール
(57)【要約】
【課題】自動露出レイテンシを低減する。
【解決手段】例示的な実施形態は、自動露出レイテンシを低減する方法を含む。方法は、プロセッサーによって、画像センサーによって捕捉される第一のフレームに対する露光パラメーターの第一の設定を決定することを含む。露光パラメーターの第一の設定は、画像センサーによって捕捉された以前のフレームの特性に少なくとも部分的に基づいて決定される。露光パラメーターの第一の設定は、第一のフレームの捕捉と関連付けられる第一のフレーム期間中に決定される。方法はまた、プロセッサーによって、露光パラメーターの第一の設定に基づいて、第一のフレーム露光動作を開始することを含む。第一のフレーム露光動作中、画像センサーは、第一のフレーム期間中に第一のフレームを捕捉する。
【特許請求の範囲】
【請求項1】
システムであって、
画像センサーと、
前記画像センサーに結合されたプロセッサーと、を備え、
前記プロセッサーが、前記画像センサーによって捕捉される第一のフレームに対する露光パラメーターの第一の設定を決定するように構成されていて、
前記露光パラメーターの前記第一の設定が、前記画像センサーによって捕捉された以前のフレームの特性に少なくとも部分的に基づいて決定され、
前記露光パラメーターの前記第一の設定が、前記第一のフレームの捕捉と関連付けられる第一のフレーム期間中に決定され、
前記画像センサーが、前記第一のフレーム期間中に第一のフレーム露光動作を実施するように構成されていて、
前記第一のフレーム露光動作が、前記露光パラメーターの前記第一の設定に基づく、システム。
【請求項2】
前記露光パラメーターが、開口サイズ、露光時間、アナログゲイン、またはデジタルゲインに対応する、請求項1に記載のシステム。
【請求項3】
前記以前のフレームが、前記第一のフレーム期間に先行し、かつそれに隣接するフレーム期間中に捕捉される、請求項1に記載のシステム。
【請求項4】
前記プロセッサーが、外部入力に基づいて、前記露光パラメーターの前記第一の設定を決定するようにさらに構成されている、請求項1に記載のシステム。
【請求項5】
前記外部入力が、一つまたは複数の他のセンサーからの外部センサーデータに基づく、請求項4に記載のシステム。
【請求項6】
前記外部センサーデータが、画像センサーデータまたは環境センサーデータに対応する、請求項5に記載のシステム。
【請求項7】
前記第一のフレーム露光動作が、トリガー信号の受信に応答して開始される、請求項1に記載のシステム。
【請求項8】
前記プロセッサーが、
前記第一のフレーム期間中に前記トリガー信号の送信をスケジュールするように、および
前記トリガー信号のスケジュールされた送信に従って、前記第一のフレーム期間中に前記トリガー信号を前記画像センサーに送信するように、さらに構成されている、請求項7に記載のシステム。
【請求項9】
前記プロセッサーが、前記画像センサーによって捕捉される第二のフレームに対する前記露光パラメーターの第二の設定を決定するようにさらに構成されていて、
前記露光パラメーターの前記第二の設定が、前記第一のフレームの特性に少なくとも部分的に基づいて決定され、
前記露光パラメーターの前記第二の設定が、前記第二のフレームの捕捉と関連付けられる第二のフレーム期間中に決定され、
前記第二のフレーム期間が、前記第一のフレーム期間に続いて起こり、かつそれに隣接していて、
前記画像センサーが、前記第二のフレーム期間中に第二のフレーム露光動作を実施するようにさらに構成されていて、
前記第二のフレーム露光動作が、前記露光パラメーターの前記第二の設定に基づく、請求項1に記載のシステム。
【請求項10】
前記プロセッサーが、前記以前のフレームの前記特性に基づいて、前記露光パラメーターの前記第二の設定を決定するようにさらに構成されている、請求項9に記載のシステム。
【請求項11】
システムであって、
画像センサーと、
前記画像センサーに結合されたプロセッサーと、を備え、前記プロセッサーが、
第一のフレームの捕捉と関連付けられる第一のフレーム期間中に、前記画像センサーから第一の前露光フレームを受信するように、および
前記画像センサーによって捕捉される前記第一のフレームに対する露光パラメーターの第一の設定を決定するように、構成されていて、前記露光パラメーターの前記第一の設定が、前記第一の前露光フレームの特性に少なくとも部分的に基づいて決定され、前記露光パラメーターの前記第一の設定が、前記第一のフレーム期間中に決定され、
前記画像センサーが、前記露光パラメーターの前記第一の設定に基づいて、第一のフレーム露光動作を実施するように構成されていて、
前記第一のフレーム露光動作中、前記画像センサーが、前記第一のフレーム期間中に前記第一のフレームを捕捉する、システム。
【請求項12】
前記第一の前露光フレームが、前記第一のフレーム期間中に前記画像センサーによって捕捉される、請求項11に記載のシステム。
【請求項13】
前記第一の前露光フレームが、前記画像センサー上の画像ピクセルのサブセットをサンプリングすることに応答して生成される、請求項11に記載のシステム。
【請求項14】
画像ピクセルの前記サブセットが、前記画像センサー上の関心領域と関連付けられる、請求項13に記載のシステム。
【請求項15】
前記関心領域が、前記画像センサーの中心セクションに近接する長方形領域に対応する、請求項14に記載のシステム。
【請求項16】
前記関心領域が、一つまたは複数の行、一つまたは複数の列、または両方に対応する、請求項14に記載のシステム。
【請求項17】
画像ピクセルの前記サブセットが、前記画像センサーにわたって分布する、請求項13に記載のシステム。
【請求項18】
前記露光パラメーターが、開口サイズ、露光時間、アナログゲイン、またはデジタルゲインに対応する、請求項11に記載のシステム。
【請求項19】
前記プロセッサーが、外部入力に基づいて、前記露光パラメーターの前記第一の設定を決定するようにさらに構成されている、請求項11に記載のシステム。
【請求項20】
方法であって、
プロセッサーによって、第一のフレームの捕捉と関連付けられる第一のフレーム期間中に、画像センサーから第一の前露光フレームを受信することと、
前記プロセッサーによって、前記画像センサーによって捕捉される前記第一のフレームに対する露光パラメーターの第一の設定を決定することであって、前記露光パラメーターの前記第一の設定が、前記第一の前露光フレームの特性に少なくとも部分的に基づいて決定され、かつ前記露光パラメーターの前記第一の設定が、前記第一のフレーム期間中に決定される、決定することと、
前記プロセッサーによって、前記露光パラメーターの前記第一の設定に基づいて、第一のフレーム露光動作を開始することであって、前記第一のフレーム露光動作中、前記画像センサーが、前記第一のフレーム期間中に前記第一のフレームを捕捉する、開始することと、を含む、方法。
【発明の詳細な説明】
【背景技術】
【0001】
本明細書に別段の記載がない限り、この章の説明は、本出願の特許請求の範囲の先行技術ではなく、この章に含めることにより先行技術であると認められるべきではない。
【0002】
自律車両は、周囲環境の画像を捕捉する一つまたは複数の画像センサーを含むことができる。画像センサーは、典型的には、画像の品質を改善するために選択的に使用される異なる露光設定を有する。非限定的な例として、周囲環境が比較的暗い場合、画像センサーで画像を捕捉するために使用される露光時間は、比較的長い持続時間を有するように調整することができ、これは次に、画像の照明特性を増加させ得る(例えば、画像を明るくする)。しかしながら、周囲環境が比較的明るい場合、画像センサーで画像を捕捉するために使用される露光時間は、比較的短い持続時間を有するように調整することができ、これは次に、画像の照明特性を減少させ得る(例えば、画像を暗くする)。典型的には、露光設定が調整されるときと、調整された露光設定で画像センサーが画像を捕捉するときとの間に遅延がある。例えば、画像センサーは、露光設定が変更されたときと、新しい設定で取得されたフレームが読み取られるときとの間に単一フレーム遅延または複数フレーム遅延を有し得る。結果として、フレーム遅延の間、画像センサーは、一つまたは複数の露光過剰フレームおよび/または露光不足フレームを捕捉する可能性があり、これは、記憶スペースを占有し、自律車両の動作にほとんど(または全く)利益を提供しない。
【発明の概要】
【0003】
本明細書に記載される技術は、自動露出動作と関連付けられるレイテンシ(例えば、フレーム遅延)を低減する。特に、本明細書に記載される技術は、露光時間、アナログゲイン、またはデジタルゲインなどの目標露光パラメーターを決定し、単一フレーム期間で実行することを可能にする。例えば、一実施形態によれば、特定のフレーム期間中、オンチッププロセッサーは、画像センサーによって捕捉された以前のフレームを分析して、特定のフレーム期間中に画像センサーによって捕捉される「現在の」フレームに対する目標露光パラメーターを決定することができる。別の例として、一実施形態によると、特定のフレーム期間中、オンチッププロセッサーは、画像センサー上のピクセルのサブセットをサンプリングして、「前露光」フレームを生成し、前露光フレームを分析して、目標露光パラメーターを決定することができる。目標露光パラメーターを決定することに応答して(例えば、以前のフレームに基づいて、または前露光フレームに基づいて)、画像センサーは、目標露光パラメーターを決定することと、目標露光パラメーターを使用して捕捉される画像フレームを読み取ることとの間にフレーム遅延がないように、目標露光パラメーターを使用して現在のフレームを捕捉することができる。
【0004】
システムは、画像センサーと、画像センサーに結合されたプロセッサーとを含む。プロセッサーは、画像センサーによって捕捉される第一のフレームに対する露光パラメーターの第一の設定を決定するように構成される。露光パラメーターの第一の設定は、画像センサーによって捕捉された以前のフレームの特性に少なくとも部分的に基づいて決定される。露光パラメーターの第一の設定は、第一のフレームの捕捉と関連付けられる第一のフレーム期間中に決定される。画像センサーは、第一のフレーム期間中に第一のフレーム露光動作を実施するように構成される。第一のフレーム露光動作は、露光パラメーターの第一の設定に基づく。
【0005】
方法は、プロセッサーによって、画像センサーによって捕捉される第一のフレームに対する露光パラメーターの第一の設定を決定することを含む。露光パラメーターの第一の設定は、画像センサーによって捕捉された以前のフレームの特性に少なくとも部分的に基づいて決定される。露光パラメーターの第一の設定は、第一のフレームの捕捉と関連付けられる第一のフレーム期間中に決定される。方法はまた、プロセッサーによって、露光パラメーターの第一の設定に基づいて、第一のフレーム露光動作を開始することを含む。第一のフレーム露光動作中、画像センサーは、第一のフレーム期間中に第一のフレームを捕捉する。
【0006】
非一時的なコンピューター可読媒体は、プロセッサーによって実行されるとき、プロセッサーに動作を実行させる命令を含む。動作は、画像センサーによって捕捉される第一のフレームに対する露光パラメーターの第一の設定を決定することを含む。露光パラメーターの第一の設定は、画像センサーによって捕捉された以前のフレームの特性に少なくとも部分的に基づいて決定される。露光パラメーターの第一の設定は、第一のフレームの捕捉と関連付けられる第一のフレーム期間中に決定される。動作はまた、露光パラメーターの第一の設定に基づいて、第一のフレーム露光動作を開始することを含む。第一のフレーム露光動作中、画像センサーは、第一のフレーム期間中に第一のフレームを捕捉する。
【0007】
システムは、画像センサーと、画像センサーに結合されたプロセッサーとを含む。プロセッサーは、第一のフレームの捕捉と関連付けられる第一のフレーム期間中に、画像センサーから第一の前露光フレームを受信するように構成される。プロセッサーはまた、画像センサーによって捕捉される第一のフレームに対する露光パラメーターの第一の設定を決定するように構成される。露光パラメーターの第一の設定は、第一の前露光フレームの特性に少なくとも部分的に基づいて決定され、露光パラメーターの第一の設定は、第一のフレーム期間中に決定される。画像センサーは、露光パラメーターの第一の設定に基づいて、第一のフレーム露光動作を実施するように構成される。第一のフレーム露光動作中、画像センサーは、第一のフレーム期間中に第一のフレームを捕捉する。
【0008】
方法は、プロセッサーによって、第一のフレームの捕捉と関連付けられる第一のフレーム期間中に、画像センサーから第一の前露光フレームを受信することを含む。方法はまた、プロセッサーによって、画像センサーによって捕捉される第一のフレームに対する露光パラメーターの第一の設定を決定することを含む。露光パラメーターの第一の設定は、第一の前露光フレームの特性に少なくとも部分的に基づいて決定され、露光パラメーターの第一の設定は、第一のフレーム期間中に決定される。方法はさらに、プロセッサーによって、露光パラメーターの第一の設定に基づいて、第一のフレーム露光動作を開始することを含む。第一のフレーム露光動作中、画像センサーは、第一のフレーム期間中に第一のフレームを捕捉する。
【0009】
非一時的なコンピューター可読媒体は、プロセッサーによって実行されるとき、プロセッサーに動作を実行させる命令を含む。動作は、第一のフレームの捕捉と関連付けられる第一のフレーム期間中に、画像センサーから第一の前露光フレームを受信することを含む。動作はまた、画像センサーによって捕捉される第一のフレームに対する露光パラメーターの第一の設定を決定することを含む。露光パラメーターの第一の設定は、第一の前露光フレームの特性に少なくとも部分的に基づいて決定され、露光パラメーターの第一の設定は、第一のフレーム期間中に決定される。動作はさらに、露光パラメーターの第一の設定に基づいて、第一のフレーム露光動作を開始することを含む。第一のフレーム露光動作中、画像センサーは、第一のフレーム期間中に第一のフレームを捕捉する。
【0010】
これらの並びに他の態様、利点、および代替物は、当業者には、以下の詳細な説明を添付の図面を適宜参照して読み取ることにより明らかになるであろう。
【図面の簡単な説明】
【0011】
図1図1は、例示的な実施形態による、車両を例解する機能ブロック図である。
図2A図2Aは、例示的な実施形態による、車両の物理的構成の例解図である。
図2B図2Bは、例示的な実施形態による、車両の物理的構成の例解図である。
図2C図2Cは、例示的な実施形態による、車両の物理的構成の例解図である。
図2D図2Dは、例示的な実施形態による、車両の物理的構成の例解図である。
図2E図2Eは、例示的な実施形態による、車両の物理的構成の例解図である。
図2F図2Fは、例示的な実施形態による、車両の物理的構成の例解図である。
図2G図2Gは、例示的な実施形態による、車両の物理的構成の例解図である。
図2H図2Hは、例示的な実施形態による、車両の物理的構成の例解図である。
図2I図2Iは、例示的な実施形態による、車両の物理的構成の例解図である。
図2J図2Jは、例示的な実施形態による、さまざまなセンサーの視野の例解図である。
図2K図2Kは、例示的な実施形態による、センサーに対するビームステアリングの例解図である。
図3図3は、例示的な実施形態による、自律または半自律車両に関連するさまざまなコンピューティングシステム間の無線通信の概念例解図である。
図4図4は、例示的な実施形態による、自動露出レイテンシを低減するように動作可能なシステムである。
図5図5は、例示的な実施形態による、以前に捕捉されたフレームのフレーム特性に基づいて、自動露出レイテンシを低減するためのプロセスである。
図6図6は、例示的な実施形態による、前露光フレームのフレーム特性に基づいて、自動露出レイテンシを低減するためのプロセスである。
図7図7は、例示的な実施形態による、自動露出レイテンシを低減するための別のプロセスである。
図8図8は、例示的な実施形態による、自動露出レイテンシを低減するための方法である。
図9図9は、例示的な実施形態による、自動露出レイテンシを低減するための別の方法である。
【発明を実施するための形態】
【0012】
例示的な方法およびシステムが本明細書で企図される。本明細書において説明される任意の例示的な実施形態または特徴の例は、必ずしも他の実施形態または特徴よりも好ましいか、または有利であると解釈されるべきではない。さらに、本明細書において説明される例示的な実施形態は、限定的であることを意味するものではない。開示されたシステムおよび方法の特定の態様は、多種多様な異なる構成で配置し、組み合わせることができ、これらの構成の全てが、本明細書において企図されることは容易に理解されよう。加えて、図に示される特定の配置は、限定としてみなされるべきではない。他の実施形態は、所定の図に示されるそれぞれの要素をより多く、またはより少なく含むことができることが理解されるべきである。追加的に、例解される要素のうちのいくつかは、組み合わせされ得るか、または省略され得る。なお更に、例示的な実施形態は、図に例解されていない要素を含み得る。
【0013】
本明細書に記載される技術は、自動露出動作と関連付けられるレイテンシを低減する。特に、本明細書に記載される技術は、フレームの捕捉と関連付けられるフレーム期間中に、露光時間など、フレームに対する露光パラメーターを決定および実行(例えば、調整)することを可能にする。結果として、目標露光パラメーターが決定されるときと、捕捉されたフレームが目標露光パラメーターを使用して画像センサーから読み取られるときとの間に遅延(例えば、単一フレーム遅延または複数フレーム遅延)を有する代わりに、本明細書に記載される技術は、目標露光パラメーターを有するフレームが、目標露光パラメーターが決定される同じフレーム期間中に読み取られるように、遅延を低減(または排除)することができる。上述のレイテンシを低減することによって、本明細書に記載される技術は、捕捉される露光過剰フレームの数を低減することができ、捕捉される露光不足フレームの数を低減することができる。
【0014】
本明細書で使用される場合、現在のフレームの「フレーム期間」は、以前のフレームの捕捉の直後に開始し、現在のフレームの捕捉の直後に終了する期間に対応する。よって、シャッターが閉じて、以前のフレームの捕捉を完了すると、以前のフレームのフレーム期間は終了し、現在のフレームのフレーム期間が開始する。加えて、シャッターが閉じて現在のフレームの捕捉を完了すると、現在のフレームのフレーム期間が終了する。フレーム期間を定義する時間の長さは、フレームレートの逆数として定義することができ、フレームレートは関連するカメラシステムに固有である。
【0015】
上述のようにレイテンシを低減するために、一部の実装によれば、「現在のフレーム」のフレーム期間(例えば、現在のフレームの捕捉と関連付けられるフレーム期間)中に、プロセッサーは、以前に捕捉されたフレームの特性に基づいて、現在のフレームを捕捉するために使用される露光パラメーターを動的に変更することができる。例示のために、現在のフレームのフレーム期間中、プロセッサーは、捕捉された以前のフレームを分析し、分析に基づいて露光パラメーターの設定を決定することができる。非限定的な例として、現在のフレームのフレーム期間中に、以前のフレームの照明メトリックが下側照明閾値を満たさなかった(例えば、以前のフレームが暗すぎた)場合、プロセッサーは、現在のフレームの露光時間を延長すべきであると決定し、画像センサーで延長された露光時間を実行することができる。逆に、現在のフレームのフレーム期間中に、以前のフレームの照明メトリックが上側照明閾値を満たさなかった(例えば、以前のフレームが明るすぎた)場合、プロセッサーは、現在のフレームの露光時間を短縮すべきであると決定し、画像センサーで短縮された露光時間を実行することができる。当然のことながら、以前のフレームを分析して、現在のフレームに対する露光パラメーターを決定することに加えて、プロセッサーはまた、以前に捕捉された一つまたは複数の追加的フレーム、以前に捕捉されたフレームと関連付けられるデータのヒストグラム、他のセンサーから収集されたデータを示す外部入力などの他のデータを分析することができる。露光パラメーターが決定された後、画像センサーは、露光パラメーターを使用してフレーム露光動作を実施して、現在のフレームのフレーム期間中に現在のフレームを捕捉することができる。
【0016】
他の実装によれば、上述のようにレイテンシを低減するために、現在のフレームのフレーム期間中、プロセッサーは、「前露光」フレームの特性に基づいて、現在のフレームを捕捉するために使用される露光パラメーターを動的に変更することができる。この実装では、現在のフレームのフレーム期間の開始時に、プロセッサーは、画像センサー上の画像ピクセルのサブセットを(短期間の間)サンプリングして、前露光フレームを生成することができる。画像ピクセルのサブセットは、特定の関心領域に対応し得る、または画像センサーにわたる分散領域に対応し得る。前露光フレームは、プロセッサーによって使用されて、現在のフレームを捕捉する際に露光パラメーターをどのように調整すべきか、または調整すべきかどうかを決定することができる。露光パラメーターがどのように調整されるべきかを決定した後、現在のフレームのフレーム期間中、画像センサーは、調整された露光パラメーターを使用してフレーム露光動作を実施して、現在のフレームを捕捉することができる。
【0017】
露光パラメーターは、前露光フレームに基づいて調整され得るが、一部の実装では、露光パラメーターは、一つまたは複数の他のセンサーからのデータに基づいて追加的に調整され得る。非限定的な例として、現在のフレームのフレーム期間の開始時に、プロセッサーはまた、一つまたは複数の他のセンサーからデータ(例えば、画像)を受信することができる。これらの実装では、プロセッサーは、前露光フレームに基づいて、および一つまたは複数の他のセンサーからのデータ(例えば、画像)に基づいて、現在のフレームの露光パラメーターを調整することができる。
【0018】
以下の説明および添付図面は、さまざまな例示的な実施形態の特徴を明らかにする。提供される実施形態は、例としてのものであり、限定することを意図するものではない。従って、図面の寸法は、必ずしも縮尺どおりではない。
【0019】
特定の実施形態が、図面を参照して本明細書に記載される。記載において、共通の特徴は、図面全体を通して共通の参照番号によって示されている。一部の図では、特定のタイプの特徴の複数の例が使用される。これらの特徴は物理的および/または論理的に異なるが、それぞれに対して同じ参照番号が使用され、異なる例は、参照番号への文字の追加によって区別される。グループまたはタイプとしての特徴が本明細書で言及される場合(例えば、特徴の特定の一つが言及されていない場合)、参照番号は識別文字なしで使用される。しかしながら、同じタイプの複数の特徴の一つの特定の特徴が本明細書で言及される場合、参照番号は識別文字とともに使用される。例えば、図4を参照すると、複数のフレームが図示され、参照番号450A、450Bなどと関連付けられる。フレーム450Aなど、これらのフレームの特定の一つを指す場合、識別文字「A」が使用される。しかしながら、これらのフレームのうちの任意の一つまたはこれらのフレームをグループとして参照する場合、参照番号450は、識別文字なしで使用される。
【0020】
ここで、本開示の範囲内の例示的なシステムをより詳細に説明する。例示的なシステムは、自動車に実装され得るか、または自動車の形態を採り得る。追加的に、例示的なシステムはまた、自動車、トラック(例えば、ピックアップトラック、バン、トラクタ、およびトラクタトレーラーなど)、オートバイ、バス、飛行機、ヘリコプタ、ドローン、芝刈り機、ブルドーザ、ボート、潜水艦、全地形対応車両、スノーモービル、航空機、レクリエーション車両、遊園地車両、農機具または農業用車両、建設機械または建設車両、倉庫設備または倉庫車両、工場設備または工場車両、トラム、ゴルフカート、電車、トロリー、歩道運搬車両、ロボットデバイスなどの、さまざまな車両において実装され得るか、またはさまざまな車両の形態を採り得る。他の車両も同じく可能である。さらに、いくつかの実施形態では、例示的なシステムは、車両を含み得ない。
【0021】
ここで図を参照すると、図1は、自律モードで完全にまたは部分的に動作するように構成され得る、例示的な車両100を例解する機能ブロック図である。より具体的には、車両100は、コンピューティングシステムから制御命令を受信することを通して、人間の相互作用なしに自律モードで動作し得る。自律モードにおける動作の一部として、車両100は、センサーを使用して、周囲環境の物体を検出し、場合によっては識別して、安全なナビゲーションを可能にし得る。追加的に、例示的な車両100は、車両100のいくつかの機能が車両100の人間の運転手によって制御され、車両100のいくつかの機能がコンピューティングシステムによって制御される、部分的に自律(すなわち、半自律)モードで動作し得る。例えば、車両100はまた、運転手がステアリング、加速、およびブレーキなどの車両100の動作を制御することを可能にするサブシステムを含み得るが、一方で、コンピューティングシステムは、周囲環境内の他の物体(例えば、車両)に基づき、車線逸脱警告/車線維持支援またはアダプティブクルーズコントロールなどの支援機能を実施する。
【0022】
本明細書に説明されるように、部分的自律運転モードでは、車両が一つまたは複数の運転動作(例えば、レーンセンタリング、アダプティブクルーズコントロール、先進運転支援システム(ADAS)、および緊急ブレーキを実施するためのステアリング、ブレーキ、および/または加速)を支援するが、人間の運転手は、車両100の周囲を状況的に認識し、支援された運転動作を監督することが期待される。ここで、車両100が特定の状況で全ての運転タスクを実施し得るが、人間の運転手は、必要に応じて制御を行う責任を負うことが期待される。
【0023】
簡略化及び簡潔化のために、様々なシステム及び方法が自律車両と併せて以下に説明されているが、これら又は同様のシステム及び方法は、完全自律運転システム(すなわち、部分的に自律運転システム)のレベルに達しない様々な運転支援システムで使用され得る。米国では、自動車技術者協会(SAE)は、車両が運転をどの程度多く、又はどの程度少なく制御するかを示すために、異なるレベルの自動化された運転動作を定義しているが、米国又は他の国における異なる組織が、レベルを異なって分類し得る。より具体的には、本開示のシステム及び方法は、ステアリング、ブレーキ、加速、レーンセンタリング、アダプティブクルーズコントロールなど、及び他の運転手サポートを実装するSAEレベル2の運転支援システムで使用され得る。開示されたシステムおよび方法は、限定された(例えば、高速道路)条件下で自律運転が可能なSAEレベル3の運転支援システムで使用され得る。同様に、開示されたシステムおよび方法は、ほとんどの通常の運転状況下で自律的に動作し、人間のオペレーターの時折の注意のみを必要とする、SAEレベル4の自動運転システムを使用する車両に使用され得る。全てのそのようなシステムでは、正確なレーン推定は、運転手の入力または制御(例えば、車両が移動中)なしで自動的に実施され、車両測位およびナビゲーションの改善された信頼性、並びに自律運転、半自律運転、および他の運転支援システムの全体的な安全性を結果的にもたらす。上記のように、SAEが自動運転動作のレベルを分類する方式に加えて、米国または他の国における他の組織は、自動運転動作のレベルを異なって分類し得る。限定されるものではないが、本明細書の開示されたシステムおよび方法は、これらの他の組織の自動運転動作のレベルによって定義される運転支援システムに使用され得る。
【0024】
図1に示されるように、車両100は、推進システム102、センサーシステム104、制御システム106、一つまたは複数の周辺装置108、電源110、データストレージ114を有するコンピューターシステム112(コンピューティングシステムとも称され得る)、およびユーザーインターフェース116などのさまざまなサブシステムを含み得る。他の例では、車両100は、各々複数の要素を含み得る、より多いかまたはより少ないサブシステムを含み得る。車両100のサブシステムおよび構成要素は、さまざまな方法で相互接続され得る。加えて、本明細書で説明される車両100の機能は、追加の機能的または物理的構成要素に分割されるか、または実施形態内でより少ない機能的もしくは物理的構成要素に組み合わされ得る。例えば、制御システム106およびコンピューターシステム112は、さまざまな動作に従って車両100を動作させる単一のシステムに組み合わされ得る。
【0025】
推進システム102は、車両100に対して動力付き運動を提供するように動作可能な一つまたは複数の構成要素を含み得、他の可能な構成要素の中でも、エンジン/モーター118、エネルギー源119、トランスミッション120、および車輪/タイヤ121を含み得る。例えば、エンジン/モーター118は、エネルギー源119を機械的エネルギーに変換するように構成され得、他の可能なオプションの中でも、内燃エンジン、電気モーター、蒸気エンジン、またはスターリングエンジンのうちの一つまたは組み合わせに対応し得る。例えば、いくつかの実施形態では、推進システム102は、ガソリンエンジンおよび電気モーターなどの多数のタイプのエンジンおよび/またはモーターを含み得る。
【0026】
エネルギー源119は、完全にまたは部分的に、車両100の一つまたは複数のシステム(例えば、エンジン/モーター118)に動力を供給し得るエネルギー源を表す。例えば、エネルギー源119は、ガソリン、ディーゼル、他の石油ベースの燃料、プロパン、他の圧縮ガスベースの燃料、エタノール、ソーラパネル、電池、および/または他の電力源に対応することができる。いくつかの実施形態では、エネルギー源119は、燃料タンク、電池、コンデンサー、および/またはフライホイールの組み合わせを含み得る。
【0027】
トランスミッション120は、エンジン/モーター118からの機械動力を、車輪/タイヤ121および/または車両100の他の可能なシステムに伝達し得る。従って、トランスミッション120は、他の可能な構成要素の中でもとりわけ、ギアボックス、クラッチ、ディファレンシャル、および駆動シャフトを含み得る。駆動シャフトは、車輪/タイヤ121のうちの一つまたは複数に接続する車軸を含み得る。
【0028】
車両100の車輪/タイヤ121は、例示的な実施形態内でさまざまな構成を有し得る。例えば、車両100は、他の可能な構成の中でも、一輪車、自転車/オートバイ、三輪車、または自動車/トラックの四輪の形態で存在し得る。従って、車輪/タイヤ121は、さまざまな方法で車両100に接続することができ、金属およびゴムなどの異なる材料で存在することができる。
【0029】
センサーシステム104は、他の可能なセンサーの中でも特に、全地球測位システム(GPS)122、慣性測定ユニット(IMU)124、レーダー126、ライダー128、カメラ130、ステアリングセンサー123、およびスロットル/ブレーキセンサー125などのさまざまなタイプのセンサーを含むことができる。いくつかの実施形態では、センサーシステム104は、車両100の内部システムを監視するように構成されるセンサー(例えば、Oモニター、燃料計、エンジンオイル温度、およびブレーキ摩耗)も含み得る。
【0030】
GPS 122は、地球に対する車両100の位置に関する情報を提供するように動作可能なトランシーバーを含み得る。IMU 124は、一つまたは複数の加速度計および/またはジャイロスコープを使用する構成を有し得、慣性加速度に基づき車両100の位置および配向の変化を感知し得る。例えば、IMU 124は、車両100が静止しているか、または動いている間に車両100のピッチおよびヨーを検出し得る。
【0031】
レーダー126は、物体の速さおよび方位を含めて、無線信号を使用して、車両100の周囲環境内の物体を感知するように構成される一つまたは複数のシステムを表すことができる。従って、レーダー126は、無線信号を送信および受信するように構成されるアンテナを含み得る。いくつかの実施形態では、レーダー126は、車両100の周囲環境の測定値を得るように構成される取り付け可能なレーダーに対応し得る。
【0032】
ライダー128は、他のシステム構成要素の中でも特に、一つまたは複数のレーザー源、レーザースキャナー、および一つまたは複数の検出器を含み得、コヒーレントモード(例えば、ヘテロダイン検出などを使用)またはインコヒーレント検出モード(すなわち、飛行時間モード)で動作し得る。いくつかの実施形態では、ライダー128の一つまたは複数の検出器は、特に感度の高い検出器(例えば、アバランシェフォトダイオード)であり得る、一つまたは複数の光検出器を含み得る。いくつかの例では、そのような光検出器は、単一光子(例えば、単一光子アバランシェダイオード(SPAD))を検出することが可能であり得る。さらに、そのような光検出器は、アレイ内に配置され得る(例えば、シリコン光電子増倍管(SiPM)のように)(例えば、直列の電気接続を通して)。いくつかの例では、一つまたは複数の光検出器は、ガイガーモードで動作するデバイスであり、ライダーは、そのようなガイガーモード動作のために設計されたサブ構成要素を含む。
【0033】
カメラ130は、車両100の周囲環境の画像を捕捉するように構成される、一つまたは複数の装置(例えば、スチルカメラ、ビデオカメラ、熱画像カメラ、ステレオカメラ、およびナイトビジョンカメラ)を含み得る。
【0034】
ステアリングセンサー123は、車両100のステアリング角度を感知し得、これは、ステアリングホイールの角度を測定すること、またはステアリングホイールの角度を表す電気信号を測定することを含み得る。いくつかの実施形態では、ステアリングセンサー123は、車両100の前方軸に対する車輪の角度を検出するなど、車両100の車輪の角度を測定し得る。ステアリングセンサー123はまた、ステアリングホイールの角度、ステアリングホイールの角度を表す電気信号、および車両100の車輪の角度の組み合わせ(またはサブセット)を測定するように構成され得る。
【0035】
スロットル/ブレーキセンサー125は、車両100のスロットル位置またはブレーキ位置のいずれかの位置を検出し得る。例えば、スロットル/ブレーキセンサー125は、アクセルペダル(スロットル)およびブレーキペダルの両方の角度を測定し得るか、または、例えば、アクセルペダル(スロットル)の角度および/またはブレーキペダルの角度を表し電気信号を測定し得る。スロットル/ブレーキセンサー125はまた、エンジン/モーター118(例えば、バタフライバルブおよびキャブレタ)にエネルギー源119のモジュレーションを提供する物理的機構の一部を含み得る、車両100のスロットルボディの角度を測定し得る。追加的に、スロットル/ブレーキセンサー125は、車両100のロータ上の一つまたは複数のブレーキパッドの圧力、またはアクセルペダル(スロットル)およびブレーキペダルの角度の組み合わせ(またはサブセット)、アクセルペダル(スロットル)およびブレーキペダルの角度を表す電気信号、スロットルボディの角度、並びに少なくとも一つのブレーキパッドが車両100のロータに加える圧力、を測定し得る。他の実施形態では、スロットル/ブレーキセンサー125は、スロットルまたはブレーキペダルなどの車両のペダルに加えられた圧力を測定するように構成され得る。
【0036】
制御システム106は、ステアリングユニット132、スロットル134、ブレーキユニット136、センサー融合アルゴリズム138、コンピュータービジョンシステム140、ナビゲーション/経路探索システム142、および障害物回避システム144など、車両100をナビゲートすることを支援するように構成される構成要素を含み得る。より具体的には、ステアリングユニット132は、車両100の方位を調整するように動作可能であり得、スロットル134は、エンジン/モーター118の動作スピードを制御して、車両100の加速を制御し得る。ブレーキユニット136は、車両100を減速することができ、これは、摩擦を使用して車輪/タイヤ121を減速することを伴い得る。いくつかの実施形態では、ブレーキユニット136は、車両100の一つまたは複数のシステムによるその後の使用のために、車輪/タイヤ121の運動エネルギーを電流に変換し得る。
【0037】
センサー融合アルゴリズム138は、カルマンフィルター、ベイジアンネットワーク、またはセンサーシステム104からのデータを処理することができる他のアルゴリズムを含み得る。いくつかの実施形態では、センサー融合アルゴリズム138は、個々の物体および/もしくは特徴の評価、特定の状況の評価、並びに/または所与の状況内の可能性のある影響の評価など、着信センサーデータに基づくアセスメントを提供し得る。
【0038】
コンピュータービジョンシステム140は、移動中である物体(例えば、他の車両、歩行者、自転車に乗る人、または動物)および移動中ではない物体(例えば、交通信号機、車道境界、スピードバンプ、またはくぼみ)を決定するために画像を処理および分析するように動作可能なハードウェアおよびソフトウェア(例えば、中央処理装置(CPU)などの汎用プロセッサー、グラフィック処理ユニット(GPU)またはテンソル処理ユニット(TPU)などの専用プロセッサー、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、揮発性メモリー、不揮発性メモリー、または一つまたは複数の機械学習モデル)を含み得る。従って、コンピュータービジョンシステム140は、物体認識、ストラクチャフロムモーション(SFM)、ビデオ追跡、および、例えば、物体を認識し、環境をマッピングし、物体を追跡し、物体のスピードを推定するためなどにコンピュータービジョンで使用される他のアルゴリズムを使用し得る。
【0039】
ナビゲーション/経路探索システム142は、車両100の運転経路を決定することができ、これは、動作中にナビゲーションを動的に調整することを伴い得る。従って、ナビゲーション/経路探索システム142は、数ある情報源の中でも特に、センサー融合アルゴリズム138、GPS 122、およびマップからのデータを使用して、車両100をナビゲートし得る。障害物回避システム144は、センサーデータに基づき潜在的な障害物を評価し、車両100のシステムに潜在的な障害物を回避させるか、または別様に切り抜けさせ得る。
【0040】
図1に示されるように、車両100はまた、無線通信システム146、タッチスクリーン148、内部マイクロフォン150、および/またはスピーカー152などの周辺機器108を含み得る。周辺機器108は、ユーザーがユーザーインターフェース116と相互作用するための制御または他の要素を提供し得る。例えば、タッチスクリーン148は、車両100のユーザーに情報を提供し得る。ユーザーインターフェース116はまた、タッチスクリーン148を介してユーザーからの入力を受けいれ得る。周辺機器108はまた、車両100が、他の車両のデバイスなどのデバイスと通信することを可能にし得る。
【0041】
無線通信システム146は、一つまたは複数の装置と直接または通信ネットワークを介して無線で通信し得る。例えば、無線通信システム146は、符号分割多重アクセス(CDMA)、エボリューションデータ最適化(EVDO)、モバイル通信用グローバルシステム(GSM)/汎用パケット無線サービス(GPRS)などの3Gセルラー通信、または4Gワールドワイドインターオペラビリティフォーマイクロウェーブアクセス(WiMAX)もしくはロングタームエボリューション(LTE)などのセルラー通信、または5Gを使用することができる。代替的に、無線通信システム146は、WIFI(登録商標)または他の可能な接続を使用して無線ローカルエリアネットワーク(WLAN)と通信し得る。無線通信システム146はまた、例えば、赤外線リンク、Bluetooth、またはZigBeeを使用してデバイスと直接通信し得る。さまざまな車両通信システムなどの他の無線プロトコルが、本開示の文脈内で可能である。例えば、無線通信システム146は、車両および/または路側ステーション間の公共および/または私的データ通信を含み得る一つまたは複数の専用狭域通信(DSRC)デバイスを含み得る。
【0042】
車両100は、構成要素に電力を供給するための電源110を含み得る。電源110は、いくつかの実施形態では、再充電可能なリチウムイオンまたは鉛蓄電池を含み得る。例えば、電源110は、電力を提供するように構成される一つまたは複数の電池を含み得る。車両100はまた、他のタイプの電源を使用し得る。例示的な実施形態では、電源110とエネルギー源119とが、統合されて単一のエネルギー源になり得る。
【0043】
車両100はまた、そこに説明される動作などの動作を行うためのコンピューターシステム112を含み得る。従って、コンピューターシステム112は、データストレージ114などの非一時的なコンピューター可読媒体に記憶された命令115を実行するように動作可能な少なくとも一つのプロセッサー113(少なくとも一つのマイクロプロセッサーを含み得る)を含み得る。いくつかの実施形態では、コンピューターシステム112は、車両100の個々の構成要素またはサブシステムを分散方式で制御するように機能し得る複数のコンピューティング装置を表し得る。
【0044】
いくつかの実施形態では、データストレージ114は、図1に関連して上述したものを含めて、車両100のさまざまな機能を実行するための、プロセッサー113によって実行可能な命令115(例えば、プログラム論理)を含み得る。データストレージ114は、推進システム102、センサーシステム104、制御システム106、および周辺機器108のうちの一つまたは複数にデータを送信する、データを受信する、相互作用する、および/または制御する命令を含む追加の命令も含み得る。
【0045】
命令115に加えて、データストレージ114は、情報の中でもとりわけ、道路地図、経路情報などのデータを記憶し得る。そのような情報は、自律モード、半自律モード、および/または手動モードにおける車両100の動作中に、車両100およびコンピューターシステム112によって使用され得る。
【0046】
車両100は、車両100のユーザーに情報を提供するか、または車両100のユーザーから入力を受信するためのユーザーインターフェース116を含み得る。ユーザーインターフェース116は、タッチスクリーン148上に表示され得るコンテンツおよび/またはインタラクティブ画像のレイアウトを制御するまたは制御を可能にし得る。さらに、ユーザーインターフェース116は、無線通信システム146、タッチスクリーン148、マイクロフォン150、およびスピーカー152などの周辺機器108のセット内の一つまたは複数の入力/出力デバイスを含むことができる。
【0047】
コンピューターシステム112は、さまざまなサブシステム(例えば、推進システム102、センサーシステム104、または制御システム106)から、およびユーザーインターフェース116から受信した入力に基づき、車両100の機能を制御し得る。例えば、コンピューターシステム112は、推進システム102および制御システム106によって生成された出力を推定するために、センサーシステム104からの入力を利用し得る。実施形態に応じて、コンピューターシステム112は、車両100およびそのサブシステムの多くの態様を監視するように動作可能であり得る。いくつかの実施形態では、コンピューターシステム112は、センサーシステム104から受信した信号に基づき、車両100の一部または全ての機能を無効にし得る。
【0048】
車両100の構成要素は、それらのそれぞれのシステム内または外部の他の構成要素と相互接続される方式で機能するように構成され得る。例えば、例示的な実施形態では、カメラ130は、自律または半自律モードで動作している車両100の周囲環境の状態に関する情報を表すことができる複数の画像を捕捉することができる。周囲環境の状態は、車両が動作している道路のパラメーターを含み得る。例えば、コンピュータービジョンシステム140は、道路の複数の画像に基づき、傾斜(勾配)または他の特徴を認識することが可能であり得る。追加的に、GPS 122とコンピュータービジョンシステム140によって認識された特徴との組み合わせは、具体的な道路パラメーターを決定するために、データストレージ114に記憶された地図データとともに使用され得る。さらに、レーダー126および/もしくはライダー128、並びに/またはいくつかの他の環境マッピング、範囲、および/もしくは測位センサーシステムもまた、車両の周囲についての情報を提供し得る。
【0049】
言い換えると、さまざまなセンサー(入力指標センサーおよび出力指標センサーと呼ぶことができる)とコンピューターシステム112との組み合わせが相互作用して、車両を制御するために提供される入力の指標または車両の周囲の指標を提供することができる。
【0050】
いくつかの実施形態では、コンピューターシステム112は、無線システム以外のシステムによって提供されるデータに基づき、さまざまな物体に関する決定を行い得る。例えば、車両100は、車両の視野内の物体を感知するように構成されるレーザーまたは他の光学センサーを有し得る。コンピューターシステム112は、さまざまなセンサーからの出力を使用して、車両の視野内の物体に関する情報を決定し得、さまざまな物体までの距離および方向情報を決定し得る。コンピューターシステム112はまた、さまざまなセンサーからの出力に基づき、物体が望ましいか、または望ましくないかを決定し得る。
【0051】
図1は、車両100のさまざまな構成要素(すなわち、無線通信システム146、コンピューターシステム112、データストレージ114、およびユーザーインターフェース116)を車両100に統合されるものとして示すが、これらの構成要素のうちの一つまたは複数は、車両100とは別個に取り付けられるかまたは関連付けられ得る。例えば、データストレージ114は、部分的または完全に、車両100とは別個に存在することができる。従って、車両100は、別個にまたは一緒に位置し得るデバイス要素の形態で提供され得る。車両100を構成するデバイス要素は、有線および/または無線方式で一緒に通信可能に結合され得る。
【0052】
図2A~2Eは、図1を参照して車両100に関連して説明された機能の一部または全てを含み得る例示的な車両200(例えば、完全自律車両または半自律車両)を示す。車両200は、例解目的で、サイドミラーを有するバンとして図2A~2Eに例解されるが、本開示は、そのように限定されるものではない。例えば、車両200は、トラック、自動車、セミトレーラートラック、オートバイ、ゴルフカート、オフロード車両、農業用車両、または本明細書の他の箇所で説明される任意の他の車両(例えば、バス、ボート、飛行機、ヘリコプタ、ドローン、芝刈り機、ブルドーザ、潜水艦、全地形対応車両、スノーモービル、航空機、レクリエーション車両、遊園地車両、農機具、建設機械または建設車両、倉庫設備または倉庫車両、工場設備または工場車両、トラム、電車、トロリー、歩道運搬車両、およびロボットデバイス)を表し得る。
【0053】
例示的な車両200は、一つまたは複数のセンサーシステム202、204、206、208、210、212、214、および218を含み得る。いくつかの実施形態では、センサーシステム202、204、206、208、210、212、214、および/または218は、一つまたは複数の光学システム(例えば、カメラ)、一つまたは複数のライダー、一つまたは複数のレーダー、一つまたは複数の慣性センサー、一つまたは複数の湿度センサー、一つまたは複数の音響センサー(例えば、マイクロフォン、およびソナーデバイス)、または車両200を取り囲む環境についての情報を感知するように構成される一つまたは複数の他のセンサーを表し得る。言い換えると、現在既知または今後作り出される任意のセンサーシステムは、車両200に結合され得、および/または車両200のさまざまな動作と併せて利用され得る。一例として、ライダーは、自動運転、または車両200の他のタイプのナビゲーション、計画、知覚、および/もしくはマッピング動作に利用され得る。加えて、センサーシステム202、204、206、208、210、212、214、および/または218は、本明細書に説明されるセンサー(例えば、一つまたは複数のライダーおよびレーダー、一つまたは複数のライダーおよびカメラ、一つまたは複数のカメラおよびレーダー、一つまたは複数のライダー、カメラ、およびレーダー)の組み合わせを表し得る。
【0054】
図2A~Eに描写されるセンサーシステム(例えば、202、および204)の数、場所、およびタイプが、自律または半自律車両のそのようなセンサーシステムの場所、数、およびタイプの非限定的な実施例として意図されることに留意されたい。そのようなセンサーの代替的な数、場所、タイプ、および構成が可能である(例えば、車両サイズ、形状、空気力学、燃料経済、美観、またはコストを低減するか、特殊な環境もしくは適用状況に適合するための他の条件と適合するために)。例えば、センサーシステム(例えば、202、および204)は、車両(例えば、場所216にある)上のさまざまな他の場所に配設され得、車両200の内部および/または周囲環境に対応する視野を有し得る。
【0055】
センサーシステム202は、車両200の上部に取り付けられ、車両200を取り囲む環境についての情報を検出し、情報の指標を出力するように構成される一つまたは複数のセンサーを含み得る。例えば、センサーシステム202は、カメラ、レーダー、ライダー、慣性センサー、湿度センサー、および音響センサー(例えば、マイクロフォン、およびソナーデバイス)の任意の組み合わせを含み得る。センサーシステム202は、センサーシステム202内の一つまたは複数のセンサーの配向を調整するように動作可能であり得る一つまたは複数の可動マウントを含み得る。一実施形態では、可動マウントは、車両200の周囲の各方向から情報を得るようにセンサーを走査することができる回転プラットフォームを含み得る。別の実施形態では、センサーシステム202の可動マウントは、特定の角度および/または方位角および/または仰角の範囲内で走査方式で移動可能であり得る。センサーシステム202は、他の取り付け場所も考えられ得るが、車の屋根上に取り付けられ得る。
【0056】
追加的に、センサーシステム202のセンサーは、さまざまな場所に分散され得、単一の場所に併置される必要はない。さらに、センサーシステム202の各センサーは、センサーシステム202の他のセンサーとは独立して移動または走査されるように構成され得る。追加的または代替的に、複数のセンサーは、センサー場所202、204、206、208、210、212、214、および/または218のうちの一つまたは複数に取り付けられ得る。例えば、センサー場所に取り付けられた二つのライダー装置が存在し得、並びに/またはセンサー場所に取り付けられた一つのライダー装置および一つのレーダーが存在し得る。
【0057】
センサーシステム202、204、206、208、210、212、214、および/または218のうちの一つまたは複数は、一つまたは複数のライダー装置を含み得る。例えば、ライダー装置は、所与の平面(例えば、x-y平面)に対してある角度範囲にわたって配設された複数の光エミッターデバイスを含み得る。例えば、センサーシステム202、204、206、208、210、212、214、および/または218のうちの一つまたは複数は、車両200を取り囲む環境を光パルスで照明するように、所与の平面に垂直な軸(例えば、z軸)の周りを回転または枢動するように構成され得る。反射光パルスのさまざまな態様(例えば、経過した飛行時間、偏光、および強度)の検出に基づき、周囲環境についての情報が決定され得る。
【0058】
例示的な実施形態では、センサーシステム202、204、206、208、210、212、214、および/または218は、車両200の周囲環境内の物理的物体に関連し得るそれぞれの点群情報を提供するように構成され得る。車両200、並びにセンサーシステム202、204、206、208、210、212、214、および218は、特定の特徴を含むものとして例解されるが、他のタイプのセンサーシステムが本開示の範囲内で企図されることが理解されよう。さらに、例示的な車両200は、図1の車両100に関連して説明される構成要素のいずれかを含むことができる。
【0059】
例示的な構成では、一つまたは複数のレーダーが車両200上に位置し得る。上記のレーダー126と同様に、一つまたは複数のレーダーは、電波(例えば、30Hz~300GHzの周波数を有する電磁波など)を送信および受信するように構成されるアンテナを含み得る。そのような電波は、車両200の周囲環境内の一つまたは複数の物体の距離および/または速度を決定するために使用され得る。例えば、センサーシステム202、204、206、208、210、212、214、および/または218のうちの一つまたは複数は、一つまたは複数のレーダーを含み得る。いくつかの例では、一つまたは複数のレーダーが、車両200の後部付近に位置して(例えば、センサーシステム208、および210)、電波反射物体の存在に関して、車両200の背面付近の環境を能動的に走査し得る。同様に、一つまたは複数のレーダーが、車両200の前方付近に位置して(例えば、センサーシステム212、214)、車両200の前方付近の環境を能動的に走査し得る。レーダーは、例えば、車両200の他の特徴によって塞がれることなく、車両200の前進路を含む領域を照明するのに好適な場所に位置付けられ得る。例えば、レーダーは、フロントバンパー、フロントヘッドライト、カウル、および/もしくはフードなどに埋め込まれる、並びに/またはそれらにもしくはそれらの近くに取り付けられ得る。さらに、一つまたは複数の追加のレーダーは、リアバンパー、サイドパネル、ロッカーパネル、および/または下部走行体などに、またはそれらの近くにそのようなデバイスを含めることなどによって、電波反射物体の存在に関して、車両200の側面および/または後方を能動的に走査するように位置し得る。
【0060】
車両200は、一つまたは複数のカメラを含み得る。例えば、センサーシステム202、204、206、208、210、212、214、および/または218のうちの一つまたは複数は、一つまたは複数のカメラを含み得る。カメラは、車両200の周囲環境の複数の画像を捕捉するように構成される、スチルカメラ、ビデオカメラ、熱画像カメラ、ステレオカメラ、ナイトビジョンカメラなどの感光性機器であり得る。この目的のために、カメラは、可視光を検出するように構成され得、追加的または代替的に、赤外光または紫外光などのスペクトルの他の部分からの光を検出するように構成され得る。カメラは、二次元検出器であり得、任意選択的に、三次元空間の感度範囲を有し得る。いくつかの実施形態では、カメラは、例えば、カメラから周囲環境内のいくつかの点までの距離を示す二次元画像を生成するように構成される範囲検出器を含み得る。この目的のために、カメラは、一つまたは複数の範囲検出技法を使用し得る。例えば、カメラは、構造化光技法を使用することによって範囲情報を提供することができ、この構造化光技法では、車両200が、格子またはチェッカーボード模様などの所定の光パターンで周囲環境内の物体を照明し、カメラを使用して、環境周囲からの所定の光パターンの反射を検出する。反射光パターンの歪みに基づき、車両200は、物体上の点までの距離を決定し得る。所定の光パターンは、赤外光、またはそのような測定に好適な他の波長の放射線を含み得る。いくつかの例では、カメラは、車両200のフロントガラスの内側に取り付けられ得る。具体的には、カメラは、車両200の配向に対して前方視から画像を捕捉するように位置付けられ得る。カメラの他の取り付け場所および視野角は車両200の内部または外部のいずれであろうが、使用され得る。また、カメラは、調整可能な視野を提供するように動作可能な関連する光学素子を有し得る。さらにまた、カメラは、パン/チルト機構などを介して、カメラの指向角を変えるように、可動マウントを用いて車両200に取り付けられ得る。
【0061】
車両200はまた、車両200の周囲環境を感知するために使用される一つまたは複数の音響センサーを含み得る(例えば、センサーシステム202、204、206、208、210、212、214、216、218のうちの一つまたは複数が、一つまたは複数の音響センサーを含み得る)。音響センサーは、車両200を取り囲む環境の流体(例えば、空気)中の音響波(すなわち、圧力差)を感知するために使用されるマイクロフォン(例えば、圧電マイクロフォン、コンデンサーマイクロフォン、リボンマイクロフォン、およびマイクロ電気機械システム(MEMS)マイクロフォン)を含み得る。そのような音響センサーは、車両200の制御ストラテジーが基づき得る周囲環境中の音(例えば、サイレン、人間の発話、動物の音、および警報)を識別するために使用され得る。例えば、音響センサーがサイレン(例えば、移動性サイレン、および/または消防車のサイレン)を検出する場合、車両200は、減速する、および/または道路の縁にナビゲートし得る。
【0062】
図2A~2Eには示されていないが、車両200は、無線通信システム(例えば、図1の無線通信システム146と同様の、および/または図1の無線通信システム146に加えてなど)を含み得る。無線通信システムは、車両200の外部または内部のデバイスと通信するように構成され得る無線送信機および無線受信機を含み得る。具体的には、無線通信システムは、例えば、車両通信システムまたは路側ステーションにおいて、他の車両および/またはコンピューティング装置と通信するように構成されるトランシーバーを含み得る。このような車両通信システムの例としては、DSRC、無線周波数識別(RFID)、およびインテリジェントトランスポートシステム向けに提案された他の通信規格が挙げられる。
【0063】
車両200は、これら示されたものに加えて、またはその代わりに一つまたは複数の他の構成要素を含み得る。追加の構成要素は、電気的または機械的機能を含み得る。
【0064】
車両200の制御システムは、複数の可能な制御ストラテジーの中から制御ストラテジーに従って車両200を制御するように構成され得る。制御システムは、車両200に結合されるセンサー(車両200上または車両200外)から情報を受信し、その情報に基づき制御ストラテジー(および関連する運転挙動)を修正し、修正された制御ストラテジーに従って車両200を制御するように構成され得る。制御システムは、センサーから受信した情報を監視し、駆動条件を継続的に評価するようにさらに構成され得、また、駆動条件の変化に基づき、制御ストラテジーおよび運転挙動を修正するように構成され得る。例えば、一つの目的地から別の目的地までの、車両によって取られる経路は、駆動条件に基づき修正され得る。追加的または代替的に、速度、加速度、転回角度、車間距離(すなわち、現在の車両の前方の車両までの距離)、レーン選択などは、全て、駆動条件の変化に応答して修正され得る。
【0065】
上記のように、いくつかの実施形態では、車両200は、バンの形態を採り得るが、代替形態もまた可能であり、本明細書で企図される。従って、図2F~2Iは、車両250がセミトラックの形態を採る実施形態を例解する。例えば、図2Fは、車両250の正面図を例解し、図2Gは、車両250の等角図を例解する。車両250がセミトラックである実施形態では、車両250は、トラクタ部分260およびトレーラー部分270(図2Gに例解される)を含み得る。図2Hおよび2Iは、それぞれ、トラクタ部分260の側面図および上面図を提供する。上記に例解される車両200と同様に、図2F~2Iに例解される車両250はまた、さまざまなセンサーシステム(例えば、図2A~2Eを参照して示され、説明されるセンサーシステム202、206、208、210、212、214と同様)を含み得る。いくつかの実施形態では、図2A~2Eの車両200は、いくつかのセンサーシステム(例えば、センサーシステム204)の単一コピーのみを含み得るが、図2F~2Iに例解される車両250は、そのセンサーシステム(例えば、例解されるように、センサーシステム204Aおよび204B)の複数のコピーを含み得る。
【0066】
図面および全体的説明は、所与の車両形態(例えば、セミトラック車両250またはバン車両200)を参照し得るが、本明細書に説明される実施形態は、さまざまな車両の文脈(例えば、車両のフォームファクタを考慮するために採用される修正を用いて)で等しく適用され得ることが理解される。例えば、バン車両200の一部であるとして説明または例解されるセンサーおよび/または他の構成要素もまた、セミトラック車両250で使用され得る(例えば、ナビゲーション並びに/または障害物検出および回避のために)。
【0067】
図2Jは、さまざまなセンサー視野(例えば、上記の車両250と関連付けられる)を例解する。上記のように、車両250は、複数のセンサー/センサーユニットを含有し得る。さまざまなセンサーの場所は、例えば、図2F~2Iに開示されるセンサーの場所に対応し得る。しかしながら、場合によっては、センサーは、他の場所を有し得る。図面の簡略化のために、センサー場所参照番号は、図2Jから省略される。車両250の各センサーユニットについて、図2Jは、代表的な視野(例えば、252A、252B、252C、252D、254A、254B、256、258A、258B、および258Cとしてラベル付けされた視野)を例解する。センサーの視野は、センサーが物体を検出し得る角度領域(例えば、方位角領域および/または仰角領域)を含み得る。
【0068】
図2Kは、例示的な実施形態による、車両(例えば、図2F~2Jを参照して示され、説明される車両250)のセンサーに対するビームステアリングを例解する。さまざまな実施形態では、車両250のセンサーユニットは、レーダー、ライダー、ソナーなどであり得る。さらに、いくつかの実施形態では、センサーの動作中、センサーは、センサーの視野内で走査され得る。例示的なセンサーに対するさまざまな異なる走査角度が、領域272として示されており、各々は、センサーが動作している角度領域を示す。センサーは、それが動作している領域を、定期的にまたは反復的に変化させ得る。いくつかの実施形態では、複数のセンサーが、領域272を測定するために車両250によって使用され得る。加えて、他の領域が、他の例に含まれ得る。例えば、一つまたは複数のセンサーは、車両250のトレーラー270の態様および/または車両250の前方の領域を測定し得る。
【0069】
いくつかの角度において、センサーの動作領域275は、トレーラー270の後輪276A、276Bを含み得る。従って、センサーは、動作中に後輪276Aおよび/または後輪276Bを測定し得る。例えば、後輪276A、276Bは、センサーによって送信されたライダー信号またはレーダー信号を反射し得る。センサーは、後輪276A、276から反射された信号を受信し得る。それゆえに、センサーによって収集されるデータは、車輪からの反射からのデータを含み得る。
【0070】
センサーがレーダーであるときなどの、いくつかの事例では、後輪276A、276Bからの反射は、受信されたレーダー信号内のノイズとして現れ得る。結果として、レーダーは、後輪276A、276Bが、センサーから離れるようにレーダー信号を向ける事例では、増強された信号対雑音比で動作し得る。
【0071】
図3は、例示的な実施形態による、自律または半自律車両に関連するさまざまなコンピューティングシステム間の無線通信の概念例解図である。特に、無線通信は、ネットワーク304を介して、リモートコンピューティングシステム302と車両200との間で発生し得る。無線通信はまた、サーバーコンピューティングシステム306とリモートコンピューティングシステム302との間、およびサーバーコンピューティングシステム306と車両200との間でも発生し得る。
【0072】
車両200は、場所間で乗客または物体を輸送することができるさまざまなタイプの車両に対応することができ、上で考察される車両のうちの任意の一つまたは複数の形態を採り得る。場合によっては、車両200は、制御システムがセンサー測定値を使用して目的地間で車両200を安全にナビゲートすることを可能にする自律または半自律モードで動作し得る。自律または半自律モードで動作しているとき、車両200は、乗客の有無にかかわらずナビゲートし得る。結果として、車両200は、所望の目的地間で乗客を拾い、降ろし得る。
【0073】
リモートコンピューティングシステム302は、本明細書で説明されるものを含むがこれに限定されないリモートアシスタンス技術に関連する任意のタイプのデバイスを表し得る。例の中で、リモートコンピューティングシステム302は、(i)車両200に関係する情報を受信し、(ii)インターフェイスを提供し、それを通して、次に人間のオペレーターが情報に気付き、情報に関係する応答を入力することができ、(iii)応答を車両200に、または他のデバイスに送信するように構成される任意のタイプのデバイスを表し得る。リモートコンピューティングシステム302は、ワークステーション、デスクトップコンピューター、ラップトップ、タブレット、携帯電話(例えば、スマートフォン)、および/またはサーバーなどの、さまざまな形態を採り得る。いくつかの例では、リモートコンピューティングシステム302は、ネットワーク構成で一緒に動作する複数のコンピューティング装置を含み得る。
【0074】
リモートコンピューティングシステム302は、車両200のサブシステムおよび構成要素と同様または同一の一つまたは複数のサブシステムおよび構成要素を含み得る。少なくとも、リモートコンピューティングシステム302は、本明細書で説明するさまざまな動作を実行するように構成されるプロセッサーを含むことができる。いくつかの実施形態では、リモートコンピューティングシステム302は、タッチスクリーンおよびスピーカーなどの入力/出力デバイスを含むユーザーインターフェースも含み得る。他の例も同様に可能である。
【0075】
ネットワーク304は、リモートコンピューティングシステム302と車両200との間の無線通信を可能にするインフラストラクチャを表す。ネットワーク304はまた、サーバーコンピューティングシステム306とリモートコンピューティングシステム302との間、およびサーバーコンピューティングシステム306と車両200との間の無線通信を可能にする。
【0076】
リモートコンピューティングシステム302の位置は、例の範囲内で変わることができる。例えば、リモートコンピューティングシステム302は、ネットワーク304を介した無線通信を有する車両200からリモート位置にあり得る。別の実施例では、リモートコンピューティングシステム302は、車両200とは別個であるが、人間のオペレーターが車両200の乗客または運転手と相互作用することができる、車両200内のコンピューティング装置に対応し得る。いくつかの例では、リモートコンピューティングシステム302は、車両200の乗客によって操作可能なタッチスクリーンを備えたコンピューティング装置であり得る。
【0077】
いくつかの実施形態では、リモートコンピューティングシステム302によって行われる本明細書で説明される動作は、追加的または代替的に、車両200によって(すなわち、車両200の任意のシステムまたはサブシステムによって)行われ得る。言い換えると、車両200は、車両の運転手または乗客が相互作用することができるリモートアシスタンス機構を提供するように構成され得る。
【0078】
サーバーコンピューティングシステム306は、ネットワーク304を介してリモートコンピューティングシステム302および車両200と(または、場合によっては、リモートコンピューティングシステム302および/もしくは車両200と直接)無線通信するように構成され得る。サーバーコンピューティングシステム306は、車両200およびそのリモートアシスタンスに関する情報を受信し、記憶し、決定し、かつ/または送信するように構成される任意のコンピューティング装置を表し得る。このように、サーバーコンピューティングシステム306は、リモートコンピューティングシステム302および/または車両200によって行われるものとして本明細書で説明される任意の動作またはそのような動作の部分を行うように構成され得る。リモートアシスタンスに関連する無線通信のいくつかの実施形態では、サーバーコンピューティングシステム306を利用できるが、他の実施形態では利用できない。
【0079】
サーバーコンピューティングシステム306は、本明細書に説明されるさまざまな動作を行うように構成されるプロセッサー、並びにリモートコンピューティングシステム302および車両200から情報を受信し、それらに情報を提供するための無線通信インターフェイスなどの、リモートコンピューティングシステム302および/または車両200のサブシステムおよび構成要素と同様または同一の一つまたは複数のサブシステムおよび構成要素を含み得る。
【0080】
上記のさまざまなシステムは、さまざまな動作を行い得る。ここで、これらの動作および関連する特徴について説明する。
【0081】
上の考察に沿えば、コンピューティングシステム(例えば、リモートコンピューティングシステム302、サーバーコンピューティングシステム306、および車両200にローカルなコンピューティングシステム)は、カメラを使用して自律または半自律車両の周囲環境の画像を捕捉するように動作し得る。一般に、少なくとも一つのコンピューティングシステムが画像を分析して、可能であれば自律または半自律車両を制御することができる。
【0082】
いくつかの実施形態では、自律または半自律動作を容易にするために、車両(例えば、車両200)は、車両を取り囲む環境内の物体を表すデータ(本明細書では「環境データ」とも称される)をさまざまな方式で受信し得る。車両のセンサーシステムは、周囲環境の物体を表す環境データを提供し得る。例えば、車両は、カメラ、レーダー、ライダー、マイクロフォン、無線ユニット、および他のセンサーを含むさまざまなセンサーを有し得る。これらのセンサーの各々は、各それぞれのセンサーが受信する情報について、環境データを車両内のプロセッサーに通信し得る。
【0083】
一例では、カメラが、静止画像および/またはビデオを捕捉するように構成され得る。いくつかの実施形態では、車両は、異なる配向に位置付けられる二つ以上のカメラを有し得る。また、いくつかの実施形態では、カメラは、異なる方向で画像および/またはビデオを捕捉するために移動することが可能であり得る。カメラは、車両の処理システムによる後の処理のために、捕捉された画像およびビデオをメモリーに記憶するように構成され得る。捕捉された画像および/またはビデオは、環境データであり得る。さらに、カメラは、本明細書で説明されるような画像センサーを含み得る。
【0084】
別の実施例では、レーダーが、車両の近くのさまざまな物体によって反射される電磁信号を送信し、次いで物体から反射する電磁信号を捕捉するように構成され得る。捕捉された反射電磁信号は、レーダー(または処理システム)が電磁信号を反射した物体についてさまざまな決定を行うことを可能にし得る。例えば、さまざまな反射物体までの距離および位置が決定され得る。いくつかの実施形態では、車両は、異なる配向に二つ以上のレーダーを有し得る。レーダーは、車両の処理システムによる後の処理のために、捕捉された情報をメモリーに記憶するように構成され得る。レーダーによって捕捉された情報は、環境データであり得る。
【0085】
別の実施例では、ライダーが、車両近くの標的物体によって反射される電磁信号(例えば、気体もしくはダイオードレーザー、または他の可能な光源からのものなどの赤外光)を送信するように構成され得る。ライダーは、反射された電磁(例えば、赤外光)信号を取得することが可能であり得る。捕捉された反射電磁信号は、測距システム(または処理システム)がさまざまな物体までの距離を決定することを可能にし得る。ライダーはまた、標的物体の速度またはスピードを決定することができ、それを環境データとして記憶することができる。
【0086】
追加的に、一例では、マイクロフォンが、車両の周囲環境のオーディオを捕捉するように構成され得る。マイクロフォンで捕捉された音は、緊急車両のサイレンおよび他の車両の音を含み得る。例えば、マイクロフォンは、救急車、消防自動車、警察車両のサイレンの音を捕捉し得る。処理システムは、捕捉された音声信号が緊急車両を示すことを識別することが可能であり得る。別の実施例では、マイクロフォンは、オートバイからの排気など、別の車両の排気の音を捕捉し得る。処理システムは、捕捉された音声信号がオートバイを示すことを識別することが可能であり得る。マイクロフォンによって捕捉されたデータは、環境データの一部分を形成し得る。
【0087】
さらに別の実施例では、ラジオユニットが、Bluetooth信号、802.11信号、および/または他の無線技術信号の形態を採り得る電磁信号を送信するように構成され得る。第一の電磁放射信号は、無線ユニットに位置する一つまたは複数のアンテナを介して送信され得る。さらに、第一の電磁放射信号は、多くの異なる無線信号モードのうちの一つで送信され得る。しかしながら、いくつかの実施形態では、自律または半自律車両の近くに位置するデバイスからの応答を要求する信号モードで第一の電磁放射信号を送信することが望ましい。処理システムは、ラジオユニットに返信された応答に基づき近くのデバイスを検出し、この通信された情報を環境データの一部分として使用することが可能であり得る。
【0088】
いくつかの実施形態では、処理システムは、車両の周囲環境をさらに決定するために、さまざまなセンサーからの情報を組み合わせることが可能であり得る。例えば、処理システムは、レーダー情報および捕捉された画像の両方からのデータを組み合わせて、別の車両または歩行者が自律または半自律車両の前にいるかどうかを決定し得る。他の実施形態では、センサーデータの他の組み合わせが、処理システムによって使用されて、周囲環境についての決定を行い得る。
【0089】
自律モード(または半自律モード)で動作している間、車両はほとんどまたはまったく人間の入力なしでその動作を制御し得る。例えば、人間のオペレーターが住所を車両に入力した場合、車両は、人間からのさらなる入力なしに(例えば、人間がブレーキ/アクセルペダルを操縦したり触れたりする必要がなく)、指定された目的地まで運転することが可能であり得る。さらに、車両が自律的または半自律的に動作している間、センサーシステムは、環境データを受信し得る。車両の処理システムは、さまざまなセンサーから受信した環境データに基づき車両の制御を変更し得る。一部の実施例では、車両は、さまざまなセンサーからの環境データに応答して車両の速度を変更し得る。車両は、障害物を回避し、交通法に従うなどのために速度を変え得る。車両での処理システムが車両の近くの物体を識別すると、車両は速度を変更するか、または別の方法で動きを変えることが可能であり得る。
【0090】
車両が物体を検出したが物体の検出に十分自信がない場合、車両は、人間のオペレーター(もしくはより強力なコンピューター)に、(i)物体が実際に周囲環境内に存在するかどうかを確認する(例えば、実際に一時停止標識があるか、もしくは実際に一時停止標識がないか)、(ii)車両の物体の識別が正しいかどうかを確認する、(iii)識別が正しくなかった場合、識別を訂正する、および/または(iv)自律または半自律車両に対して補足的な命令を提供する(もしくは現在の命令を修正する)などの、一つまたは複数のリモートアシスタンスタスクを行うよう要求することができる。リモートアシスタンスタスクにはまた、人間のオペレーターが車両の動作を制御するための命令を提供する(例えば、人間のオペレーターが、物体は一時停止標識であると決定した場合、一時停止標識で停止するよう車両に命令する)ことが含まれるが、いくつかのシナリオでは、物体の識別に関連する人間のオペレーターのフィードバックに基づき、車両自体が自身の動作を制御し得る。
【0091】
これを容易にするために、車両は、周囲環境の物体を表す環境データを分析して、閾値未満の検出信頼度を有する少なくとも一つの物体を決定し得る。車両のプロセッサーは、さまざまなセンサーからの環境データに基づき周囲環境のさまざまな物体を検出するように構成され得る。例えば、一実施形態では、プロセッサーは、車両が認識するのに重要であり得る物体を検出するように構成され得る。このような物体には、歩行者、自転車に乗る人、街路標識、他の車両、他の車両のインジケーター信号、および捕捉された環境データで検出された他のさまざまな物体が含まれ得る。
【0092】
検出信頼度は、決定された物体が周囲環境内で正しく識別される、または周囲環境内に存在している可能性を示し得る。例えば、プロセッサーは、受信した環境データにおける画像データ内の物体の物体検出を行い、少なくとも一つの物体が、閾値を超える検出信頼度を有すると識別することができないことに基づき、その物体が閾値を下回る検出信頼度を有すると決定し得る。物体の物体検出または物体認識の結果が決定的でない場合、検出信頼度が低いか、または設定閾値を下回っている場合がある。
【0093】
車両は、環境データのソースに応じて、さまざまな方法で周囲環境の物体を検出し得る。いくつかの実施形態では、環境データは、カメラから来る、画像またはビデオデータであり得る。他の実施形態では、環境データはライダーから来る場合がある。車両は、捕捉された画像またはビデオデータを分析して、画像またはビデオデータ内の物体を識別し得る。方法および装置は、周囲環境の物体があるかについて、画像および/またはビデオデータを監視するように構成され得る。他の実施形態では、環境データは、レーダー、オーディオ、または他のデータであり得る。車両は、レーダー、オーディオ、または他のデータに基づき周囲環境の物体を識別するように構成され得る。
【0094】
いくつかの実施形態では、物体を検出するために車両が使用する技術は、既知のデータのセットに基づき得る。例えば、環境物体に関連するデータは、車両に位置するメモリーに記憶され得る。車両は、受信したデータを保存されたデータと比較して、物体を決定し得る。他の実施形態では、車両は、データの文脈に基づき物体を決定するように構成され得る。例えば、工事に関連する街路標識は、一般にオレンジ色を有し得る。従って、車両は、道路脇近くに位置するオレンジ色の物体を、工事関連の街路標識として検出するように構成され得る。追加的に、車両の処理システムは、捕捉されたデータ内の物体を検出すると、それはまた各物体の信頼度を計算することができる。
【0095】
さらに、車両はまた、信頼度閾値を有し得る。信頼度閾値は、検出される物体のタイプに応じて異なり得る。例えば、別の車両のブレーキライトなど、車両からの迅速な応答アクションを要求し得る物体については、信頼度閾値が低くなり得る。しかしながら、他の実施形態では、検出された全ての物体について、信頼度閾値が同じであり得る。検出された物体に関連付けられる信頼度が信頼度閾値より高い場合、車両は、物体が正しく認識されたと想定し、その想定に基づき車両の制御を応答的に調整し得る。
【0096】
検出された物体と関連付けられる信頼度が信頼度閾値より低い場合、車両が講じるアクションは変わり得る。いくつかの実施形態では、車両は、低い信頼レベルにもかかわらず、検出された物体が存在するかのように反応し得る。他の実施形態では、車両は、検出された物体が存在しないかのように反応し得る。
【0097】
車両は、周囲環境の物体を検出すると、特定の検出された物体と関連付けられる信頼度も計算することができる。信頼度は、実施形態に応じてさまざまな方法で計算され得る。一例では、周囲環境の物体を検出すると、車両は、環境データを既知の物体に関連する所定のデータと比較し得る。環境データと所定のデータとの一致が近いほど、信頼度はより高くなる。他の実施形態では、車両は、環境データの数学的分析を使用して、物体と関連付けられる信頼度を決定し得る。
【0098】
物体が閾値を下回る検出信頼度を有するとの決定に応答して、車両は、リモートコンピューティングシステムに、物体の識別とともにリモートアシスタンスの要求を送信し得る。上で考察されるように、リモートコンピューティングシステムは、さまざまな形態を採り得る。例えば、リモートコンピューティングシステムは、車両とは別個の車両内のコンピューティング装置であるが、それによって人間のオペレーターが車両の乗客または運転手と相互作用することができる、リモート支援情報を表示するためのタッチスクリーンインターフェイスなどであり得る。追加的または代替的に、別の実施例として、リモートコンピューティングシステムは、車両の近くではない場所に位置するリモートコンピューター端末または他のデバイスであり得る。
【0099】
リモートアシスタンスの要求は、画像データ、オーディオデータなどの、物体を含む環境データを含み得る。車両は、ネットワーク(例えば、ネットワーク304)上で、いくつかの実施形態では、サーバー(例えば、サーバーコンピューティングシステム306)を介してリモートコンピューティングシステムに環境データを送信し得る。リモートコンピューティングシステムの人間のオペレーターは、次に、要求に応答するための基礎として環境データを使用し得る。
【0100】
いくつかの実施形態では、物体が信頼度閾値を下回る信頼度を有するとして検出された場合、物体には予備識別が与えられ得、車両は、予備識別に応答して車両の動作を調整するように構成され得る。そのような動作の調整は、他の可能な調整の中でも特に、車両を停止する、車両を人間制御モードに切り替える、車両の速度(例えば、スピードおよび/または方向)を変更するという形態を採り得る。
【0101】
他の実施形態では、車両が閾値を満たす、または超える信頼度を有する物体を検出した場合でも、車両は検出された物体に従って動作し得る(例えば、物体が一時停止標識として高い信頼度で識別された場合に停止する)が、車両が検出された物体に従って動作するのと同時に(または後で)リモートアシスタンスを要求するように構成され得る。
【0102】
図4を参照すると、自動露出レイテンシを低減するように動作可能なシステム400の特定の例示的な例が示されている。システム400は、プロセッサー402、メモリー404、および画像センサー406を含む。一つの実装によれば、プロセッサー402、メモリー404、および画像センサー406は、プロセッサー402が画像センサー406に対して「オンチップ」処理機能を提供するように、回路に統合され得る、または単一のチップに統合され得る。プロセッサー402は、メモリー404に結合されて、プロセッサー402とメモリー404との間のデータおよびコマンドの交換を可能にすることができ、メモリー404は、画像センサー406に結合されて、メモリー404と画像センサー406との間のデータの交換を可能にすることができ、画像センサー406は、プロセッサー402に結合されて、画像センサー406とプロセッサー402との間のデータおよびコマンドの交換を可能にし得る。
【0103】
一つの実装によれば、システム400は、一つまたは複数のセンサーシステムに統合され得る。非限定的な例として、システム400は、車両200のセンサーシステム202、204、206、208、210、212、214、218のうちの一つまたは複数に統合され得る。別の非限定的な例として、システム400は、車両100のセンサーシステム104に統合され得る。特定の実装では、システム400は、カメラ130に統合され得る。上記の実施形態は、限定することを意図するものではなく、システム400は、他のセンサーシステムおよびカメラに統合され得ることが理解されるべきである。
【0104】
プロセッサー402は、露光動作ユニット410、前露光動作ユニット412、フレーム分析ユニット414、および露光パラメーター決定ユニット416を含む。一つの実装によれば、ユニット410、412、414、416のうちの一つまたは複数が、一つまたは複数のASICまたは一つまたは複数のFPGAなどの専用ハードウェアを使用して実装され得る。一つの実装によれば、ユニット410、412、414、416のうちの一つまたは複数が、プロセッサー402によって実行される、メモリー404に記憶された命令490を使用して実装され得る。例えば、プロセッサー402は、メモリー404(例えば、非一時的なコンピューター可読媒体)に記憶された命令490を実行して、本明細書に記載される動作を実施することができる。
【0105】
一部の実装では、ユニット410、412、414、416のうちの一つまたは複数と関連付けられる動作または機能は、単一のユニットに統合され得ることに留意されたい。非限定的な例として、露光動作ユニット410および前露光動作ユニット412の機能は、単一のユニットに統合され得る。また、一部の実装では、ユニット410、412、414、416のうちの一つまたは複数は、プロセッサー402に存在しない場合があることに留意されたい。非限定的な例として、図5に関して記載される実装などの一部の実装では、前露光フレームが生成されない場合、前露光動作ユニット412は、プロセッサー402に存在しない場合がある。
【0106】
露光動作ユニット410は、画像センサー406が異なるフレーム450を捕捉することを可能にするフレーム露光動作を開始するように構成され得る。一つの実装によれば、露光動作ユニット410は、トリガー信号415を画像センサー406に送信して、画像センサー406がフレーム450を捕捉するのを可能にすることができる。例えば、フレーム450Aを捕捉するためのフレーム期間中、露光動作ユニット410は、トリガー信号415を画像センサー406に送信して、画像センサー406がフレーム450Aを捕捉するのを可能にすることができる。同様に、他のフレーム450B、450Cを捕捉するためのフレーム期間中、露光動作ユニット410は、トリガー信号415を画像センサー406に送信して、画像センサー406がフレーム450B、450Cをそれぞれ捕捉するのを可能にすることができる。一部の実装では、トリガー信号415は、システム400の外部にあるホストから生成され、画像センサー406に送信され得る。
【0107】
フレーム分析ユニット414は、画像センサー406によって捕捉されたフレーム450のフレーム特性460(例えば、画像特性)を決定するように構成され得る。例えば、フレーム分析ユニット414は、画像センサー406がフレーム450Aを捕捉するのに応答して、フレーム450Aのフレーム特性460Aを決定することができ、フレーム分析ユニット414は、画像センサー406がフレーム450Bを捕捉するのに応答して、フレーム450Bのフレーム特性460Bを決定することができ、フレーム分析ユニット414は、画像センサー406がフレーム450Cを捕捉するのに応答して、フレーム450Cのフレーム特性460Cを決定することができる。一つの実装によれば、フレーム特性460は、フレーム450と関連付けられる照明特性を示し得る。しかしながら、他の実装では、フレーム特性460は、ノイズレベル、コントラストなどの他の特性を示し得る。
【0108】
一部の実装では、前露光動作ユニット412は、画像センサー406が前露光フレーム452を捕捉することを可能にするフレーム露光動作を開始するように構成され得る。例えば、前露光動作ユニット412は、画像センサー406が前露光動作を実施して、前露光フレーム452を捕捉することを可能にするトリガー信号413を生成および送信することができる。前露光フレーム452は、フレーム期間の開始時に捕捉され、分析されて、フレーム期間の後半に捕捉されるフレーム(例えば、「フル」フレーム)に対する一つまたは複数の露光パラメーター430、434を決定することができる、「部分」フレームである。前露光フレーム452は、画像センサー406上の画像ピクセルのサブセットをサンプリングすることに応答して生成され得る。一実装によれば、画像ピクセルのサブセットは、画像センサー406上の特定の関心領域と関連付けられる。非限定的な例として、画像センサー406上の特定の関心領域は、画像センサー406上の中央セクションに近接する長方形領域に対応し得る。別の非限定的な例として、画像センサー406上の特定の関心領域は、一つまたは複数の行(例えば、ピクセル行)、一つまたは複数の列(例えば、ピクセル列)、または両方に対応し得る。別の実装によれば、画像ピクセルのサブセットは、画像センサー406にわたって分布される。
【0109】
フレーム分析ユニット414がフレーム450のフレーム特性460を決定するのと類似の様式で、フレーム分析ユニット414は、画像センサー406によって捕捉された前露光フレーム452の前露光フレーム特性462(例えば、画像特性)を決定するように構成され得る。一つの実装によれば、前露光フレーム特性462は、前露光フレーム452と関連付けられる照明特性を示し得る。しかしながら、他の実装では、前露光フレーム特性462は、ノイズレベル、コントラストなどの他の特性を示し得る。
【0110】
露光パラメーター決定ユニット416は、異なる露光パラメーター430、434のそれぞれに対して、目標設定432、436を決定するように構成され得る。露光パラメーター430、434は、画像センサー406の露光時間(例えば、シャッター速度)、画像センサー406の開口サイズ、アナログゲイン、デジタルゲインなどに対応し得る。説明を容易にするために、別段の記載がない限り、露光パラメーター430は、露光時間に対応する。しかしながら、他の実装では、露光パラメーター430、434のうちの一つまたは複数は、異なるパラメーター(例えば、開口サイズ、アナログゲイン、および/またはデジタルゲイン)に対応し得ることが理解されるべきである。また、他の実装では、露光パラメーター決定ユニット416は、三つ以上の露光パラメーターの目標設定を決定するように構成され得るか、または単一露光パラメーターの目標設定を決定するように構成され得ることに留意されたい。
【0111】
露光パラメーター決定ユニット416は、フレーム特性460、462に少なくとも部分的に基づいて、画像センサー406によって捕捉されるフレームに対する露光パラメーター430、434それぞれの設定432、436を決定することができる。例えば、一つの実装によれば、図5に関してより詳細に記載するように、露光パラメーター決定ユニット416は、以前のフレーム(例えば、フレーム450A)のフレーム特性460Aを分析し、分析に基づいて、画像センサー406によって捕捉される後続のフレーム450B、450Cの露光パラメーター430、434それぞれの設定432、436を、どのように調整するかを決定することができる。別の実装によれば、図6に関してより詳細に記載するように、露光パラメーター決定ユニット416は、前露光フレーム452の前露光フレーム特性462を分析し、分析に基づいて、捕捉されるフレーム450Bの露光パラメーター430、434それぞれの設定432、436をどのように調整するかを決定することができる。さらに別の実装によれば、図7に関してより詳細に記載するように、露光パラメーター決定ユニット416は、外部ソースからのデータ(例えば、他のセンサーから収集されたデータ)を分析し、分析に基づいて、捕捉されるフレーム450の露光パラメーター430、434それぞれの設定432、436をどのように調整するかを決定することができる。
【0112】
上述のように、画像センサー406は、周囲環境の画像を捕捉するように構成され得る。非限定的な例として、画像センサー406は、車両100の周囲環境、車両200、または両方の画像(例えば、フレーム)を捕捉するように構成され得る。アクティブピクセルセンサー(例えば、相補型金属酸化膜半導体(CMOS)センサー)として本明細書で一般的に記載されているが、一部の実装では、画像センサー406は、電荷結合素子(CCD)であり得る。
【0113】
一部のシナリオでは、周囲環境の特性が変化すると(例えば、車両100が暗いトンネルに入るか、または出るとき)、画像センサー406と関連付けられる露光パラメーター430、434は、高品質の画像を捕捉するように調整される必要がある。例えば、車両100がトンネル内に入り、周囲環境が比較的暗くなる場合、画像センサー406で画像を捕捉するために使用される露光時間を長くして、画像の照明特性を増加させる(例えば、画像を明るくする)ことができる。しかしながら、車両100がトンネルを出て、周囲環境が比較的明るくなる場合、画像センサー406で画像を捕捉するために使用される露光時間を短くして、画像の照明特性を減少させる(例えば、画像を暗くする)ことができる。図5~7に関して以下に記載するように、単一フレーム期間内に、露光パラメーター430、434を調整することができ、調整された露光パラメーターを有する対応するフレームを生成することができるように、オンチッププロセッサー402は、画像センサー406の露光パラメーター430、434の調整と関連付けられるレイテンシを低減するように構成され得る。
【0114】
図5を参照すると、自動露出レイテンシを低減するためのプロセス500の特定の例示的な例が示されている。プロセス500は、図4のシステム400の様々な構成要素によって実施され得る。特に、プロセス500の一つまたは複数の動作は、システム400のプロセッサー402によって実施され得る。
【0115】
プロセス500は、異なるフレーム450の捕捉と関連付けられる三つのフレーム期間550を表す。例えば、プロセス500は、フレーム450Aの捕捉と関連付けられるフレーム期間550A、フレーム450Bの捕捉に関連するフレーム期間550B、およびフレーム450Cの捕捉と関連するフレーム期間550Cを表す。各フレーム期間550中に、トリガー信号415が放たれて、対応するフレーム450の捕捉を開始する。例えば、トリガー信号415がフレーム期間550A中に放たれると、フレーム450Aを捕捉するためのフレーム露光動作が開始される。フレーム450Aを捕捉するためのフレーム露光動作中、シャッターリリース580Aが発生してフレーム450Aを捕捉し、露光時間584Aが経過した後、フレーム450Aが読み取られる582A。同様に、トリガー信号415がフレーム期間550B中に放たれると、フレーム450Bを捕捉するためのフレーム露光動作が開始される。フレーム450Bを捕捉するためのフレーム露光動作中、シャッターリリース580Bが発生してフレーム450Bを捕捉し、露光時間584Bが経過した後、フレーム450Bが読み取られる582B。
【0116】
プロセス500によれば、プロセッサー402は、画像センサー406によって捕捉されるフレーム450Bに対する露光パラメーター430(例えば、露光時間584B)の設定432を決定するように構成され得る。例えば、露光パラメーター決定期間570中に、プロセッサー402は、捕捉されるフレーム450Bに対する露光時間584Bを決定することができる。露光パラメーター決定期間570は、フレーム450Bを捕捉するためのフレーム期間550Bのサブセットである。よって、プロセッサー402は、フレーム450Bが生成されるのと同じフレーム期間550B中に、フレーム450Bに対する露光パラメーター430の設定432を決定することができる(例えば、露光時間584Bを設定することができる)。
【0117】
プロセッサー402は、フレーム450A(例えば、以前のフレーム)のフレーム特性460Aに少なくとも部分的に基づいて、フレーム450Bに対する露光パラメーター430の設定432を決定することができる。非限定的な例として、以前のフレーム450Aの照明メトリックが下側照明閾値を満たさなかった(例えば、超えなかった)(例えば、以前のフレーム450Aが暗すぎた)ことを、以前のフレーム450Aのフレーム特性460が示す場合、現在のフレーム450Bのフレーム期間550B中(例えば、露光パラメーター決定期間570中)に、プロセッサー402は、(以前のフレーム450Aの露光時間584Aと比較して)現在のフレーム450Bの露光時間584Bを延長すべきであると決定し、延長された露光時間584Bを画像センサー406で実行することができる。逆に、以前のフレーム450Aの照明メトリックが上側照明閾値を満たさなかった(例えば、下回らなかった)(例えば、以前のフレーム450Aが明るすぎた)ことを、以前のフレーム450Aのフレーム特性460が示す場合、現在のフレーム450Bのフレーム期間550B中(例えば、露光パラメーター決定期間570中)に、プロセッサー402は、(以前のフレーム450Aの露光時間584Aと比較して)現在のフレーム450Bの露光時間584Bを短縮すべきであると決定し、短縮された露光時間584Bを画像センサー406で実行することができる。
【0118】
上記の例は、フレーム450A(以前のフレーム)のフレーム特性460Aに基づいて、露光時間584Aを調整することを記載するが、プロセッサー402は、露光パラメーター決定期間570中に他の露光パラメーターの設定を調整し、調整された設定をフレーム450Bに適用することができることが理解されるべきである。非限定的な例として、フレーム450Aのフレーム特性460Aに基づいて、プロセッサー402は、アナログゲイン設定、デジタルゲイン設定などを調整することができる。加えて、図7に関してより詳細に記載するように、露光パラメーターは、外部入力(例えば、他のセンサーからのデータ)に基づいてさらに調整され得る。
【0119】
よって、図4および図5に関連して記載した技術は、プロセッサー402が、露光時間584Bの調整と関連付けられるレイテンシを低減することを可能にする。例えば、目標露光時間584B(または他の目標露光パラメーター)が決定されるときと、目標露光時間584Bを有するフレーム450Bが画像センサー406から読み取られるときとの間に遅延(単一フレーム遅延または複数フレーム遅延)を有する代わりに、図4および図5に関して記載される技術は、目標露光時間584Bを有するフレーム450Bが、目標露光時間584Bが決定されるのと同じフレーム期間550B中に読み取られるように、遅延を低減(または排除)することができる。上述のようにレイテンシを低減することによって、図4および図5に記載される技術は、捕捉される露光過剰フレームの数を低減することができ、捕捉される露光不足フレームの数を低減することができる。
【0120】
図6を参照すると、自動露出レイテンシを低減するためのプロセス600の特定の例示的な例が示されている。プロセス600は、図4のシステム400の様々な構成要素によって実施され得る。特に、プロセス600の一つまたは複数の動作は、システム400のプロセッサー402によって実施され得る。
【0121】
プロセス600は、異なるフレーム450の捕捉と関連付けられる二つのフレーム期間650を表す。例えば、プロセス600は、フレーム450Aの捕捉と関連付けられるフレーム期間650A、およびフレーム450Bの捕捉と関連付けられるフレーム期間650Bを表す。各フレーム期間650中に、トリガー信号415が放たれて、対応するフレーム450の捕捉を開始する。例えば、トリガー信号415がフレーム期間650A中に放たれると、フレーム450Aを捕捉するためのフレーム露光動作が開始される。フレーム450Aを捕捉するためのフレーム露光動作中、シャッターリリース680Aが発生してフレーム450Aを捕捉し、露光時間684Aが経過した後、フレーム450Aが読み取り工程682Aから読み取られる。同様に、トリガー信号415がフレーム期間650B中に放たれると、フレーム450Bを捕捉するためのフレーム露光動作が開始される。フレーム450Bを捕捉するためのフレーム露光動作中、シャッターリリース680Bが発生してフレーム450Bを捕捉し、露光時間684Bが経過した後、フレーム450Bが読み取られる682B。
【0122】
フレーム450Bを捕捉する前に、前露光フレーム452は、フレーム期間650B中に捕捉される。例えば、フレーム期間650Bの開始時に、トリガー信号413が放たれて、前露光フレーム452の捕捉を可能にする。前露光フレーム452は、画像センサー406上の画像ピクセルのサブセットをサンプリングすることに応答して生成され得る。画像ピクセルのサブセットは、特定の関心領域(例えば、画像センサーの中心セクションに近接する領域、特定の行、および/または特定の列)と関連付けられてもよく、または画像センサー406にわたって分布し得る。
【0123】
フレーム期間650Bの開始時に前露光フレーム452を捕捉することに応答して、フレーム期間650B内に収まる(例えば、そのサブセットである)露光パラメーター決定期間670中に、プロセッサー402は、捕捉されるフレーム450Bの露光時間684Bを決定することができる。よって、プロセッサー402は、フレーム450Bが生成されるのと同じフレーム期間650B中に、フレーム450Bに対する露光パラメーター430の設定432を決定することができる(例えば、露光時間684Bを設定することができる)。
【0124】
プロセス600によれば、プロセッサー402は、前露光フレーム452の前露光フレーム特性462に少なくとも部分的に基づいて、捕捉されるフレーム450Bの露光時間684Bを決定するように構成され得る。非限定的な例として、前露光フレーム452の照明メトリックが下側照明閾値を満たさなかった(例えば、前露光フレーム452が暗すぎた)ことを、前露光フレーム452の前露光フレーム特性462が示す場合、露光パラメーター決定期間670中に、プロセッサー402は、現在のフレーム450Bの露光時間684Bを延長すべきであると決定し、延長された露光時間684Bを画像センサー406で実行することができる。逆に、前露光フレーム452の照明メトリックが上側照明閾値を満たさなかった(例えば、前露光フレーム452が明るすぎた)ことを、前露光フレーム452の前露光フレーム特性462が示す場合、露光パラメーター決定期間670中に、プロセッサー402は、現在のフレーム450Bの露光時間684Bを短縮すべきであると決定し、短縮された露光時間684Bを画像センサー406で実行することができる。
【0125】
上記の例は、前露光フレーム452の前露光フレーム特性462に基づいて、露光時間684Aを調整することを記載するが、プロセッサー402は、露光パラメーター決定期間670中に他の露光パラメーターの設定を調整し、調整された設定をフレーム450Bに適用することができることが理解されるべきである。非限定的な例として、前露光フレーム452の前露光フレーム特性462に基づいて、プロセッサー402は、アナログゲイン設定、デジタルゲイン設定などを調整することができる。加えて、図7に関してより詳細に記載するように、露光パラメーターは、外部入力(例えば、他のセンサーからのデータ)に基づいてさらに調整され得る。
【0126】
よって、図4および図6に関連して記載した技術は、プロセッサー402が、露光時間684Bの調整と関連付けられるレイテンシを低減することを可能にする。例えば、目標露光時間684B(または他の目標露光パラメーター)が決定されるときと、目標露光時間684Bを有するフレーム450Bが画像センサー406から読み取られるときとの間に遅延(単一フレーム遅延または複数フレーム遅延)を有する代わりに、図4および図6に関して記載される技術は、目標露光時間684Bを有するフレーム450Bが、目標露光時間684Bが決定されるのと同じフレーム期間650B中に読み取られるように、遅延を低減(または排除)することができる。上述のレイテンシを低減することによって、図4および図6に記載される技術は、捕捉される露光過剰フレームの数を低減することができ、捕捉される露光不足フレームの数を低減することができる。
【0127】
図7を参照すると、自動露出レイテンシを低減するためのプロセス700の特定の例示的な例が示されている。プロセス700は、図4のシステム400の様々な構成要素によって実施され得る。特に、プロセス700の一つまたは複数の動作は、システム400のプロセッサー402によって実施され得る。
【0128】
プロセス700は、異なるフレーム450の捕捉と関連付けられる二つのフレーム期間750Aおよび750Bを表す。例えば、プロセス700は、フレーム450Aの捕捉と関連付けられるフレーム期間750A、およびフレーム450Bの捕捉と関連付けられるフレーム期間750Bを表す。各フレーム期間中に、トリガー信号415が放たれて、対応するフレーム450の捕捉を開始する。例えば、トリガー信号415がフレーム期間750A中に放たれると、フレーム450Aを捕捉するためのフレーム露光動作が開始される。フレーム450Aを捕捉するためのフレーム露光動作中、シャッターリリース780Aが発生してフレーム450Aを捕捉し、露光時間784Aが経過した後、フレーム450Aが読み取り工程782Aで読み取られる。同様に、トリガー信号415がフレーム期間750B中に放たれると、フレーム450Bを捕捉するためのフレーム露光動作が開始される。フレーム450Bを捕捉するためのフレーム露光動作中、シャッターリリース780Bが発生してフレーム450Bを捕捉し、露光時間784Bが経過した後、フレーム450Bが読み取り工程782Bで読み取られる。
【0129】
フレーム450Bを捕捉する前に、前露光フレーム452は、フレーム期間750B中に捕捉される。例えば、図6に関して記載したものと類似の様式で、フレーム期間750Bの開始時に、トリガー信号413が放たれて、前露光フレーム452の捕捉を可能にする。加えて、外部入力790はまた、フレーム期間750B中にプロセッサー402によって受信され得る。外部入力790は、一つまたは複数の他のセンサー(例えば、他のカメラ、一つまたは複数のライダー、一つまたは複数のレーダー、および/または一つまたは複数の加速度計)から捕捉されたデータを含み得る。非限定的な例として、外部入力790は、一つまたは複数の他のセンサーによって捕捉された画像フレームに基づいた、環境条件を示すデータを含み得る。一部の実装によれば、外部入力790の基礎である画像フレームは、フレーム期間750B中に捕捉される画像フレーム450Bの直前に捕捉され得る。
【0130】
フレーム期間750B内に収まる(例えば、そのサブセットである)露光パラメーター決定期間770中、プロセッサー402は、外部入力790、以前のフレーム450Aのフレーム特性460A、前露光フレーム452の前露光フレーム特性462、またはそれらの組み合わせに基づいて、捕捉されるフレーム450Bに対する露光パラメーター430、434の設定432、436を決定することができる。例えば、外部入力790、以前のフレーム450Aのフレーム特性460A、または前露光フレーム452の前露光フレーム特性462のうちの少なくとも一つに基づいて、プロセッサー402は、フレーム450Bの露光時間784B、フレーム450Bのアナログゲイン、フレーム450Bのデジタルゲインなどを決定し、フレーム450Bに対する露光パラメーター430、434を調整し得る。
【0131】
よって、図4および図7に関連して記載した技術は、プロセッサー402が、露光時間784Bの調整と関連付けられるレイテンシを低減することを可能にする。例えば、目標露光時間784Bが決定されるときと、目標露光時間684Bを有するフレーム450Bが画像センサー406から読み取られるときとの間に遅延(単一フレーム遅延または複数フレーム遅延)を有する代わりに、図4および図7に関して記載される技術は、目標露光時間784Bを有するフレーム450Bが、目標露光時間784Bが決定されるのと同じフレーム期間750B中に読み取られるように、遅延を低減(または排除)することができる。上述のレイテンシを低減することによって、図4および図7に記載される技術は、捕捉される露光過剰フレームの数を低減することができ、捕捉される露光不足フレームの数を低減することができる。
【0132】
図8を参照すると、自動露出レイテンシを低減するための方法800の特定の例示的な例が示されている。方法800は、図4のシステム400の様々な構成要素によって実施され得る。特に、方法800と関連付けられる一つまたは複数の動作は、システム400のプロセッサー402によって実施され得る。
【0133】
方法800は、ブロック802で、プロセッサーによって、画像センサーによって捕捉される第一のフレームに対する露光パラメーターの第一の設定を決定することを含む。露光パラメーターの第一の設定は、画像センサーによって捕捉された以前のフレームの特性に少なくとも部分的に基づいて決定され、露光パラメーターの第一の設定は、第一のフレームの捕捉と関連付けられる第一のフレーム期間中に決定される。例えば、図4および図5を参照すると、プロセッサー402は、画像センサー406によって捕捉されるフレーム450Bの露光パラメーター430の設定432を決定することができる。露光パラメーター430の設定432は、画像センサー406によって捕捉されたフレーム450Aのフレーム特性460Aに少なくとも部分的に基づいて決定することができ、設定432は、フレーム450Bの捕捉と関連付けられるフレーム期間550B中に決定することができる。方法800の一つの実装によれば、先行するフレーム450Aは、第一のフレーム期間550Bに先行し、かつ隣接するフレーム期間550A中に捕捉される。
【0134】
方法800はまた、ブロック804で、プロセッサーによって、第一のフレーム期間中に第一のフレーム露光動作を開始することを含む。第一のフレーム露光動作は、露光パラメーターの第一の設定に基づく。例えば、図4および図5を参照すると、プロセッサー402は、フレーム期間550B中にフレーム露光動作を開始することができる。フレーム露光動作は、露光パラメーター430の設定432に基づき得る。
【0135】
方法800の一つの実装によれば、露光パラメーターは、露光時間584Bに対応する。方法800の他の実装によれば、露光パラメーターは、アナログゲインまたはデジタルゲインに対応する。
【0136】
一つの実装によると、方法800はまた、外部入力に基づいて、露光パラメーターの第一の設定を決定することを含む。例えば、図4および図7を参照すると、プロセッサー402は、フレーム450Aのフレーム特性460Aに加え、外部入力790に基づいて、フレーム450Bに対する露光パラメーター430の設定432を決定することができる。外部入力790は、一つまたは複数の他のセンサーからの外部センサーデータに基づき得る。例えば、一部の実装によると、外部センサーデータは、画像センサーデータまたは環境センサーデータに対応する。
【0137】
方法800の一つの実装によれば、第一のフレーム露光動作は、トリガー信号415などのトリガー信号の受信に応答して開始される。方法800はまた、第一のフレーム期間550Bの間のトリガー信号415の送信をスケジュールすることと、トリガー信号415のスケジュールされた送信に従って、第一のフレーム期間550B中にトリガー信号415を画像センサー406に送信することと、を含み得る。
【0138】
一つの実装によれば、方法800はまた、画像センサーによって捕捉される第二のフレームに対する露光パラメーターの第二の設定を決定することを含む。例えば、図4および図5を参照すると、プロセッサー402は、画像センサー406によって捕捉されるフレーム450Cの露光パラメーター430の別の設定を決定することができる。露光パラメーター430の第二の設定は、第一のフレーム450Bの特性460Bに少なくとも部分的に基づいて決定され得る。第二の設定は、第二のフレーム450Cの捕捉と関連付けられる第二のフレーム期間550C中に決定することができ、第二のフレーム期間550Cは、第一のフレーム期間550Bに続いて起こりかつそれに隣接し得る。方法800はまた、第二のフレーム期間550C中に第二のフレーム露光動作を実施することを含み得る。第二のフレーム露光動作は、露光パラメーター430の第二の設定に基づく。方法800の一つの実装によれば、露光パラメーター430の第二の設定は、以前のフレーム450Aの特性460Aに基づいてさらに決定される。
【0139】
図8の方法800は、プロセッサー402が、露光時間584Bの調整と関連付けられるレイテンシを低減することを可能にする。例えば、目標露光時間584B(または他の目標露光パラメーター)が決定されるときと、目標露光時間584Bを有するフレーム450Bが画像センサー406から読み取られるときとの間に遅延を有する代わりに、方法800は、目標露光時間584Bを有するフレーム450Bが、目標露光時間584Bが決定されるのと同じフレーム期間550B中に読み取られるように、遅延を低減(または排除)することができる。上述のようにレイテンシを低減することによって、方法800は、捕捉される露光過剰フレームの数を低減することができ、捕捉される露光不足フレームの数を低減することができ、これは次に、記憶容量を改善することができる。
【0140】
図9を参照すると、自動露出レイテンシを低減するための方法900の特定の例示的な例が示されている。方法900は、図4のシステム400の様々な構成要素によって実施され得る。特に、方法900と関連付けられる一つまたは複数の動作は、システム400のプロセッサー402によって実施され得る。
【0141】
方法900は、ブロック902で、プロセッサーによって、第一のフレームの捕捉と関連付けられる第一のフレーム期間中に、画像センサーから第一の前露光フレームを受信することを含む。例えば、図4および図6を参照すると、プロセッサー402は、フレーム450Bの捕捉と関連付けられるフレーム期間650B中、画像センサー406から前露光フレーム452を受信することができる。
【0142】
方法900はまた、ブロック904で、プロセッサーによって、画像センサーによって捕捉される第一のフレームに対する露光パラメーターの第一の設定を決定することを含む。露光パラメーターの第一の設定は、第一の前露光フレームの特性に少なくとも部分的に基づいて決定され、露光パラメーターの第一の設定は、第一のフレーム期間中に決定される。例えば、図4および図6を参照すると、プロセッサーは、画像センサー406によって捕捉されるフレーム450Bの露光パラメーター430の設定432を決定することができる。露光パラメーター430の設定432は、前露光フレーム452の前露光フレーム特性462に少なくとも部分的に基づいて決定され、露光パラメーター430の設定432は、フレーム期間650B中に決定される。
【0143】
方法900はまた、ブロック906で、プロセッサーによって、露光パラメーターの第一の設定に基づいて、第一のフレーム露光動作を開始することを含む。第一のフレーム露光動作中、画像センサーは、第一のフレーム期間中に第一のフレームを捕捉する。例えば、プロセッサー402は、露光パラメーター430の設定432に基づいて、フレーム露光動作を開始することができる。フレーム露光動作中、画像センサー406は、フレーム期間650B中にフレーム450Bを捕捉する。
【0144】
方法900の一つの実装によれば、第一の前露光フレーム452は、第一のフレーム期間650B中に画像センサー406によって捕捉される。第一の前露光フレーム452は、画像センサー406上の画像ピクセルのサブセットをサンプリングすることに応答して生成され得る。画像ピクセルのサブセットは、画像センサー406上の特定の関心領域と関連付けられてもよく、または画像センサー406にわたって分布され得る。特定の関心領域は、画像センサー406の中心セクションに近接する長方形領域、ピクセルの一つまたは複数の行、ピクセルの一つまたは複数の列などに対応し得る。
【0145】
一つの実装によると、方法900はまた、外部入力に基づいて、露光パラメーターの第一の設定を決定することを含む。例えば、図4および図7を参照すると、プロセッサー402は、前露光フレーム452の前露光フレーム特性462に加え、外部入力790に基づいて、フレーム450Bに対する露光パラメーター430の設定432を決定することができる。外部入力790は、一つまたは複数の他のセンサーからの外部センサーデータに基づき得る。例えば、一部の実装によると、外部センサーデータは、画像センサーデータまたは環境センサーデータに対応する。
【0146】
図9の方法900は、プロセッサー402が、露光時間684Bの調整と関連付けられるレイテンシを低減することを可能にする。例えば、目標露光時間684B(または他の目標露光パラメーター)が決定されるときと、目標露光時間684Bを有するフレーム450Bが画像センサー406から読み取られるときとの間に遅延を有する代わりに、方法900は、目標露光時間684Bを有するフレーム450Bが、目標露光時間684Bが決定されるのと同じフレーム期間650B中に読み取られるように、遅延を低減(または排除)することができる。上述のレイテンシを低減することによって、方法900は、捕捉される露光過剰フレームの数を低減することができ、捕捉される露光不足フレームの数を低減することができ、これは次に、記憶容量を改善することができる。
【0147】
本開示は、本出願に説明される特定の実施形態に関して限定されるものではなく、特定の実施形態は、さまざまな態様の例解として意図されるものである。当業者には明らかなことであるが、多くの修正および変形を本開示の趣旨および範囲から逸脱することなく行うことができる。本明細書において列挙される方法および装置に加えて、本開示の範囲内の機能的に同等の方法および装置は当業者には、これまでの説明から明らかであろう。このような修正および変形は、添付の特許請求の範囲内にあることが意図される。
【0148】
上記の詳細な説明は、添付の図面を参照して、開示されたシステム、デバイス、および方法のさまざまな特徴および機能を説明している。図では、文脈が別の方法で指示しない限り、同様の記号は、典型的には、同様の構成部品を同一に扱っている。本明細書および図に説明される例示的な実施形態は、限定することを意図しているものではない。本明細書において提示される主題の範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を行うことができる。本明細書で一般に説明され、かつ図に例解される、本開示の態様は、多種多様な異なる構成で配置、置換、結合、分離、および設計することができ、その全てが明示的に企図されることは容易に理解されよう。
【0149】
図における、また本明細書において考察されるメッセージフロー図、シナリオ、およびフローチャートのいずれかまたは全てに関して、各ステップ、ブロック、動作、および/または通信は、例示的な実施形態に従った情報の処理および/または情報の送信を表し得る。代替の実施形態は、これらの例示的な実施形態の範囲内に含まれる。これらの代替の実施形態では、例えば、ステップ、ブロック、送信、通信、要求、応答、および/またはメッセージとして記載される動作は、関連する機能に応じて、実質的に同時にまたは逆の順序でなど、示されたものまたは論じられたものとは異なる順序で実行することができる。さらに、それより多いかまたは少ないブロックおよび/または動作を、本明細書で考察されるメッセージフロー図、シナリオ、およびフローチャートのいずれかで使用することができ、これらのメッセージフロー図、シナリオ、およびフローチャートは、部分的にまたは全体として互いに組み合わせることができる。
【0150】
情報の処理に相当するステップ、ブロック、または動作は、本明細書に説明される方法または技法の特定の論理機能を果たすように構成され得る回路網に対応し得る。代替的にまたは追加的に、情報の処理に相当するステップまたはブロックは、モジュール、セグメント、またはプログラムコード(関連データを含む)の一部分に対応し得る。プログラムコードには、特定の論理演算または動作を方法または技法において実施するためのプロセッサーにより実行可能な一つまたは複数の命令を含めることができる。プログラムコードおよび/または関連データは、RAM、ディスクドライブ、ソリッドステートドライブ、または別の記憶媒体を含む記憶装置など、いずれのタイプのコンピューター可読媒体にも記憶され得る。
【0151】
さらに、一つまたは複数の情報送信に相当するステップ、ブロック、または動作は、同じ物理デバイスにおけるソフトウェアモジュールおよび/またはハードウェアモジュール間の情報送信に対応し得る。しかしながら、他の情報送信は、さまざまな物理デバイスにおけるソフトウェアモジュールおよび/またはハードウェアモジュール間の情報送信であり得る。
【0152】
図に示される特定の配置は、限定としてみなされるべきではない。他の実施形態は、所与の図に示されるそれぞれの要素をより多く、またはより少なく含むことができることが理解されるべきである。さらに、例解された要素のうちのいくつかは、組み合わされ得るか、または省略され得る。さらに、例示的な実施形態は、図に例解されていない要素を含み得る。
【0153】
さまざまな態様および実施形態が本明細書に開示されるが、他の態様および実施形態が、当業者には明らかであろう。本明細書に開示されるさまざまな態様および実施形態は、例解を目的とするものであり、限定することを意図するものではなく、真の範囲は、以下の特許請求の範囲によって示される。
図1
図2A
図2B
図2C
図2D
図2E
図2F
図2G
図2H
図2I
図2J
図2K
図3
図4
図5
図6
図7
図8
図9
【外国語明細書】