(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022058135
(43)【公開日】2022-04-11
(54)【発明の名称】ニューラル・ネットワークを使用するロバスト予測のための背景修正を含むデータ拡張
(51)【国際特許分類】
G06T 7/00 20170101AFI20220404BHJP
G06T 7/194 20170101ALI20220404BHJP
B60W 40/00 20060101ALI20220404BHJP
B60W 60/00 20200101ALI20220404BHJP
【FI】
G06T7/00 350C
G06T7/194
G06T7/00 660Z
B60W40/00
B60W60/00
【審査請求】未請求
【請求項の数】22
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2021085748
(22)【出願日】2021-05-21
(31)【優先権主張番号】17/039,437
(32)【優先日】2020-09-30
(33)【優先権主張国・地域又は機関】US
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.ZIGBEE
2.TENSORFLOW
3.SIGFOX
(71)【出願人】
【識別番号】501450960
【氏名又は名称】エヌビディア コーポレーション
(74)【代理人】
【識別番号】110000855
【氏名又は名称】特許業務法人浅村特許事務所
(72)【発明者】
【氏名】ニシャント プーリ
(72)【発明者】
【氏名】サクシヴェル シヴァラマン
(72)【発明者】
【氏名】ラジャス シェティー
(72)【発明者】
【氏名】ニランジャン アヴァダーンナム
【テーマコード(参考)】
3D241
5L096
【Fターム(参考)】
3D241BA49
3D241CE03
3D241CE04
3D241CE05
3D241CE08
3D241DB01Z
3D241DC39Z
3D241DC59Z
5L096AA06
5L096AA09
5L096BA04
5L096BA05
5L096BA18
5L096CA02
5L096DA01
5L096EA02
5L096EA35
5L096EA39
5L096FA32
5L096GA10
5L096GA51
5L096HA07
5L096HA11
5L096KA04
(57)【要約】 (修正有)
【課題】ニューラル・ネットワークを使用するロバスト予測のためのデータ拡張方法及びシステムを提供する。
【解決手段】区分マスクを生成し、物体を表す画像データを含む物体画像を生成するために使用される方法であって、物体画像を、異なる背景に統合し、ニューラル・ネットワークのトレーニングにおいてデータ拡張のために使用する。データ拡張を、物体画像の色相調節の使用及び/又は選択ビューからの物体に対応する3次元キャプチャ・データをレンダリングして実行する。推理スコアを、トレーニング・データセットに含まれる画像の背景を選択するために分析する。背景を選択し、トレーニング画像を、トレーニング中にトレーニング・データセットに繰り返し追加する。加えて、物体マスク・データを使用してトレーニングされたニューラル・ネットワークが実行する推論を改善するために、物体マスク・データを使用する早期又は後期融合を使用する。
【選択図】
図6
【特許請求の範囲】
【請求項1】
第1の画像内の第1の背景を有する物体に対応する領域を、前記第1の画像において識別するステップと、
前記物体の前記領域に少なくとも基づいて前記物体を表す画像データを決定するステップと、
前記画像データを使用して前記物体を第2の背景と統合することに少なくとも基づいて、前記第2の背景を有する前記物体を含む第2の画像を生成するステップと、
前記第2の画像を使用して予測タスクを実行するように少なくとも1つのニューラル・ネットワークをトレーニングするステップと
を含む、方法。
【請求項2】
前記領域を前記識別するステップが、前記第1の画像に対して画像区分を実行することに少なくとも基づいて、前記物体に対応する前記第1の画像の少なくとも第1の区分、及び前記第1の背景に対応する前記第1の画像の少なくとも第2の区分を決定するステップを含む、請求項1に記載の方法。
【請求項3】
前記少なくとも1つのニューラル・ネットワークを前記トレーニングするステップが、前記物体の1つ又は複数のポーズを分類するステップである、請求項1に記載の方法。
【請求項4】
前記画像データを前記決定するステップが、前記第1の画像内の前記領域に少なくとも基づいてマスクを生成するステップと、前記マスクを前記第1の画像に適用するステップとを含む、請求項1に記載の方法。
【請求項5】
前記画像データを前記決定するステップが、前記第1の画像内の前記領域に少なくとも基づいてマスクを生成するステップを含み、前記第2の画像を前記生成するステップが、前記物体に対応する前記マスクの一部分に拡張又は浸食のうちの1つ又は複数を実行することに少なくとも基づく、請求項1に記載の方法。
【請求項6】
前記画像データを前記決定するステップが、前記画像内の前記領域に少なくとも基づいてマスクを生成するステップを含み、前記第2の画像を前記生成するステップが、前記物体に対応する前記マスクの境界の少なくとも一部分をぼやかすことに少なくとも基づく、請求項1に記載の方法。
【請求項7】
前記第2の画像を前記生成するステップが、前記物体の色相を修正するステップを含む、請求項1に記載の方法。
【請求項8】
環境において前記物体のビューを選択するステップと、
前記ビューから前記環境内の前記物体の3次元キャプチャをラスタライズすることに少なくとも基づいて前記第1の画像を生成するステップと
をさらに含む、請求項1に記載の方法。
【請求項9】
前記物体を第3の背景と統合することに少なくとも基づいて、前記第3の背景を有する前記物体を含む第3の画像を生成するステップをさらに含み、前記少なくとも1つのニューラル・ネットワークを前記トレーニングするステップがさらに、前記第3の画像を使用する、請求項1に記載の方法。
【請求項10】
前記統合が、前記第2の背景との前記物体のシームレス・ブレンドを含む、請求項1に記載の方法。
【請求項11】
複数の背景を有する1つ又は複数の物体の画像を受信するステップと、
前記画像を使用して前記1つ又は複数の物体に対して実行される予測タスクの1つ又は複数の予測に対応する1セットの推理スコアを生成するステップと、
前記セットの推理スコアのうちの1つ又は複数の推理スコアに少なくとも基づいて背景を選択するステップと、
前記背景の前記選択に少なくとも基づく前記背景との物体の統合に少なくとも基づいて画像を生成するステップと、
少なくとも1つのニューラル・ネットワークのトレーニング中に前記画像を適用して前記予測タスク実行するステップと
を含む、方法。
【請求項12】
前記推理スコアのうちの前記1つ又は複数が、前記背景を含む前記画像のグループの複数の推理スコアを含み、前記選択が、前記複数の推理スコアの分析に少なくとも基づく、請求項11に記載の方法。
【請求項13】
前記推理スコアが、前記少なくとも1つのニューラル・ネットワークをトレーニングする第1のエポックにおいて前記少なくとも1つのニューラル・ネットワークを使用して生成され、前記画像の前記使用が、前記トレーニングの第2のエポック中である、請求項11に記載の方法。
【請求項14】
前記画像を前記生成するステップが、前記画像内の前記物体の領域を識別すること及びマスクを前記画像に適用することに少なくとも基づいて前記マスクを生成するステップを含む、請求項11に記載の方法。
【請求項15】
前記背景の前記選択が、前記1つ又は複数の推理スコアのうちの少なくとも1つの推理スコアは閾値未満であると決定することに少なくとも基づく、請求項11に記載の方法。
【請求項16】
前記推理スコアのうちの前記1つ又は複数が、前記背景の第1のクロップされた領域に対応し、前記物体の前記統合が、前記第1のクロップされた領域とは異なる前記背景の第2のクロップされた領域とである、請求項11に記載の方法。
【請求項17】
前記背景が、背景タイプであり、前記方法がさらに、前記背景タイプに少なくとも基づいて前記背景を合成で生成するステップを含む、請求項11に記載の方法。
【請求項18】
1つ又は複数のプロセッサと、
命令を記憶する1つ又は複数のメモリ・デバイスとを備え、前記命令が、前記1つ又は複数のプロセッサによって実行されるとき、
マスクを使用する物体の背景の修正に少なくとも基づいて画像内の前記物体に対応する前記マスクから生成された入力を使用して前記画像に対して予測タスクを実行するようにトレーニングされた少なくとも1つのニューラル・ネットワークを取得すること、
画像内の物体に対応するマスクを生成することであって、前記物体が、前記画像内に背景を有する、生成すること、
前記少なくとも1つのニューラル・ネットワークへの入力を、前記マスクを使用して生成することであって、前記入力は、前記背景の少なくとも一部分を有する前記物体をキャプチャする、生成すること、及び、
前記少なくとも1つのニューラル・ネットワークへの前記入力の適用に少なくとも基づいて前記予測タスクの少なくとも1つの予測を生成すること
を含む動作を前記1つ又は複数のプロセッサに実行させる、システム。
【請求項19】
前記入力が、前記背景の前記少なくとも前記一部分を有する前記物体を含む前記画像の少なくとも一部分を表す第1の入力と、前記マスクの少なくとも一部分を表す第2の入力とを含む、請求項18に記載のシステム。
【請求項20】
前記入力の前記生成が、前記マスク及び前記画像データに対応する前記入力の少なくとも一部分を使用する前記背景を修正することに少なくとも基づいて画像データを生成することを含む、請求項18に記載のシステム。
【請求項21】
前記生成が、第1のセットの推理スコア及び第2のセットの推理スコアを融合することに少なくとも基づき、前記第1のセットの推理スコアが、前記背景の前記少なくとも前記一部分を有する前記物体を含む前記画像の少なくとも一部分を表す前記入力の第1の部分に対応し、前記第2のセットの推理スコアが、前記マスクの少なくとも一部分を表す前記入力の第2の部分に対応する、請求項18に記載のシステム。
【請求項22】
前記動作が、
自律又は半自律マシンの制御システム、
自律又は半自律マシンの知覚システム、
シミュレーション動作を実行するためのシステム、
深層学習動作を実行するためのシステム、
エッジ・デバイスを使用して実装されるシステム、
ロボットを使用して実装されるシステム、
1つ又は複数の仮想マシン(VM)を組み込むシステム、
データ・センタにおいて少なくとも部分的に実装されるシステム、又は、
クラウド計算資源を使用して少なくとも部分的に実装されるシステム
のうちの少なくとも1つによって実行される、請求項18に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
物体分類などの予測タスクを実行するためにニューラル・ネットワークをトレーニングするとき、トレーニングされたニューラル・ネットワークの正確性は、トレーニング・データセットの品質によってしばしば限定される。ロバスト・ニューラル・ネットワークをもたらすようにトレーニングするために、ネットワークは、困難なトレーニング画像を使用してトレーニングされるべきである。たとえば、手のポーズの認識(たとえば、サム・アップ、ピース・サイン、握り拳など)についてニューラル・ネットワークをトレーニングするとき、ネットワークは、ある種の環境的特徴の前で手のポーズを検出するのが難しいことがある。ポーズが、伸ばされた指を含む場合、ネットワークは、そのポーズがほぼ無地の環境の前にあるときには、上手く機能し得るが、ある種の色パターンを含む環境の前にそのポーズがあるときには困難になることがある。別の実例として、ネットワークは、ある種の角度からのある種のポーズで或いは環境及び手が類似の色相であるときに困難になることがある。
【背景技術】
【0002】
しかしながら、特定のトレーニング画像がニューラル・ネットワークにとって困難であるかどうかは、多数の要因、たとえば、実行されている予測タスク、ニューラル・ネットワークのアーキテクチャ、及びネットワークによって見られる他のトレーニング画像、に依存し得る。したがって、どのトレーニング画像がネットワークをトレーニングするために使用されるべきかを予期することによってしっかりとトレーニングされたネットワークをもたらすことになるトレーニング・データセットを構築することは難しい。トレーニング画像のどんな特徴がニューラル・ネットワークに対して困難になり得るかを推定することは可能になり得る。しかしながら、そのような推定が可能であり、正確なときでも、ネットワークを十分にトレーニングするためにそれらの特徴を示す十分な画像を取得することは不可能である又は現実的ではないことがある。
【発明の概要】
【課題を解決するための手段】
【0003】
本開示の実施例は、ニューラル・ネットワークを使用するロバスト予測のための背景フィルタリングを含むデータ拡張に関する。トレーニングされたニューラル・ネットワークのロバスト性を高めるために使用され得る、データ拡張技法、たとえば、背景フィルタリングに基づくものを提供する、システム及び方法が開示される。
【0004】
従来のシステムとは対照的に、本開示は、トレーニング画像を生成するために物体の背景の修正を行う。区分マスクが、生成され得、物体を表す画像データを含む物体画像を生成するために使用され得る。物体画像は、異なる背景に統合され得、ニューラル・ネットワークのトレーニングにおいてデータ拡張のために使用され得る。本開示の他の態様は、(たとえば、物体画像の)色相調節を使用する及び/又は選択されたビュー方向から物体に対応する3次元キャプチャ・データをレンダリングするデータ拡張を提供する。本開示はまた、トレーニング・データセットに含まれることになる画像の背景を選択するための推理スコアの分析を提供する。背景が、選択され得、トレーニング画像が、トレーニング中に繰り返してトレーニング・データセットに追加され得る(たとえば、エポック間)。加えて、本開示は、物体マスク・データを使用してトレーニングされたニューラル・ネットワークによって実行される推論を改善するために物体マスク・データを使用する早期又は後期融合を行う。
【0005】
ニューラル・ネットワークを使用するロバスト予測のための背景フィルタリングを含むデータ拡張のための本システム及び方法について、添付の図面を参照して、以下に詳しく説明する。
【図面の簡単な説明】
【0006】
【
図1】本開示のいくつかの実施例による、背景との物体画像の統合に少なくとも基づいて1つ又は複数のマシン学習モデルをトレーニングするための例示的プロセスを示すデータ流れ図である。
【
図2】本開示のいくつかの実施例による、物体画像を生成する及び物体画像を1つ又は複数の背景と統合するための例示的プロセスを示すデータ流れ図である。
【
図3】本開示のいくつかの実施例による、物体画像を生成するために使用される物体マスクを生成するために使用され得る前処理の実例を含む図である。
【
図4】本開示のいくつかの実施例による、物体の3次元キャプチャが複数のビューからどのようにラスタライズされ得るかを示す図である。
【
図5A】本開示のいくつかの実施例による、マシン学習モデルを使用する推論及び物体マスク・データの早期融合の実例を示すデータ流れ図である。
【
図5B】本開示のいくつかの実施例による、マシン学習モデルを使用する推論及び物体マスク・データの後期融合の一実例を示すデータ流れ図である。
【
図6】本開示のいくつかの実施例による、少なくとも1つの背景との物体画像の統合に少なくとも基づいて1つ又は複数のマシン学習モデルをトレーニングするための方法を示す流れ図である。
【
図7】本開示のいくつかの実施例による、入力は画像のマスク及び画像の少なくとも一部分に対応する、マシン学習モデルを使用する推論のための方法を示す流れ図である。
【
図8】本開示のいくつかの実施例による、1つ又は複数のマシン学習モデルをトレーニングするための物体の背景を選択するための方法を示す流れ図である。
【
図9】本開示のいくつかの実施例の実装において使用するのに適した例示的計算デバイスのブロック図である。
【
図10】本開示のいくつかの実施例の実装において使用するのに適した例示的データ・センタのブロック図である。
【
図11A】本開示のいくつかの実施例による、例示的自律型車両のイラストレーションである。
【
図11B】本開示のいくつかの実施例による、
図11Aの例示的自律型車両のカメラ位置及び視野の実例である。
【
図11C】本開示のいくつかの実施例による、
図11Aの例示的自律型車両の例示的システム・アーキテクチャのブロック図である。
【
図11D】本開示のいくつかの実施例による、クラウドベースのサーバと
図11Aの例示的自律型車両との間の通信のシステム図である。
【発明を実施するための形態】
【0007】
ニューラル・ネットワークを使用するロバスト予測のための背景フィルタリングを含むデータ拡張に関して、システム及び方法が開示される。本開示の実施例は、ニューラル・ネットワークを使用するロバスト予測のための背景フィルタリングを含むデータ拡張に関する。トレーニングされたニューラル・ネットワークのロバスト性を高めるために使用され得る、データ拡張技法、たとえば、背景フィルタリングに基づくもの、を提供する、システム及び方法が開示される。
【0008】
開示される実施例は、様々な異なるシステム、たとえば、自動車システム、ロボット工学、航空システム、中間システム、船舶システム、スマート・エリア監視システム、シミュレーション・システム、及び/又は他の技術分野、を使用して実装され得る。開示される手法は、マシン学習モデルを使用する任意の知覚ベースの又はより一般的には画像ベースの分析のために、たとえば、物体及び/又は環境の監視、及び/又は追跡のために、使用され得る。
【0009】
開示される技法の適用例は、医療に関連して適用され得る、マルチモーダル・センサ・インターフェースを含む。たとえば、挿管されている又は他の方法で話して伝えることができない患者は、計算システムによって解釈されるポーズ又はジェスチャを使用することができる。開示される技法の適用例はさらに、自律運転及び/又は車両制御又はインタラクションを含む。たとえば、開示される技法は、利便性特徴を制御する、たとえば、マルチメディア・オプションの制御の、ために、
図11A~11Dの車両1100のキャビンにおける感知のために手のポーズ又はジェスチャの認識を実装するために使用され得る。ジェスチャのポーズの認識はまた、高度運転者支援システム(ADAS:advanced driver assistance system)機能を含む様々な自律運転制御動作のいずれかを制御するために車両1100の外部環境に適用され得る。
【0010】
様々な実例として、開示される技法は、対話型AI又はパーソナル・アシスタント動作を実行するためのシステム、シミュレーション動作を実行するためのシステム、自律マシン・アプリケーションを試験又は検証するためのシミュレーション動作を実行するためのシステム、深層学習動作を実行するためのシステム、エッジ・デバイスを使用して実装されるシステム、1つ又は複数の仮想マシン(VM:virtual machine)を組み込むシステム、データ・センタにおいて少なくとも部分的に実装されるシステム、又はクラウド計算資源を使用して少なくとも部分的に実装され得るシステムのうちの1つ又は複数を含む或いはそれらに含まれるシステムにおいて実装され得る。
【0011】
従来のシステムとは対照的に、本開示は、物体に対応する画像内の領域を識別することと、トレーニング画像を生成するために、領域を使用して物体の背景及び/又は物体自体をフィルタにかける、取り除く、置き換える、又は他の方法で修正することとを行う。本開示によれば、物体に対応する1つ又は複数の区分及びソース画像内の物体の背景に対応する1つ又は複数の区分を識別する、区分マスクが、生成され得る。区分マスクは、物体に対応する領域を識別するために、たとえば、物体を表す画像データを含む物体画像を生成するために、ソース画像に適用され得る。物体画像は、異なる背景に統合され得、ニューラル・ネットワークのトレーニングにおいてデータ拡張のために使用され得る。本開示の他の態様は、(たとえば、物体画像の)色相調節を使用する及び/又は選択されたビュー方向から物体に対応する3次元キャプチャ・データをレンダリングするデータ拡張を行う。
【0012】
本開示のさらなる態様は、ニューラル・ネットワークをトレーニングするための物体の背景を選択するための手法を提供する。本開示によれば、マシン学習モデル(MLM:Machine Learning Model)は、少なくとも部分的にトレーニングされ得、推論データは、異なる背景を含む画像を使用してMLMによって生成され得る。MLMは、トレーニング中のニューラル・ネットワーク又は異なるMLMを含み得る。推論データに対応する推理スコアは、トレーニング画像の1つ又は複数の特徴、たとえば、トレーニング・データセットに含まれることになる画像の特定の背景又は背景タイプ、を選択するために分析され得る。画像は、現存する画像から選択され得る、又は任意の適切な手法、たとえば、本明細書に記載のもの、を使用して物体画像及び背景を使用して生成され得る。少なくとも1つの実施例において、1つ又は複数の特徴が、選択され得、1つ又は複数の対応するトレーニング画像が、トレーニング中に繰り返してトレーニング・データセットに追加され得る。
【0013】
本開示はさらに、物体マスク・データを使用してトレーニングされたニューラル・ネットワークによって実行される推論を改善するために物体マスク・データを使用する手法を提供する。後期融合が、実行され得、そこでは、1セットの推論データが、ソース画像から生成され、別のセットの推論データが、物体マスク・データ、たとえば、物体画像、をキャプチャする画像から生成される(たとえば、ニューラル・ネットワークの2個のコピーを使用)。推論データのセットは、ニューラル・ネットワークを更新するために、融合及び使用され得る。さらなる実例において、早期融合が、実行され得、そこでは、ソース画像及び物体マスク・データをキャプチャする画像が、結合され、推論データが、結合された画像から生成される。物体マスク・データは、ソース画像の背景を強調するのをやめる又は他の方法で修正するために、使用され得る。
【0014】
ここで
図1を参照すると、
図1は、本開示のいくつかの実施例による、背景との物体画像の統合に少なくとも基づいて1つ又は複数のマシン学習モデルをトレーニングするための例示的プロセス100を示すデータ流れ図である。プロセス100は、例として、マシン学習モデル(MLM)トレーニング・システム140に関して説明されている。数ある潜在的構成要素の中でも、MLMトレーニング・システム140は、背景インテグレータ102、MLMトレーナ104、MLMポストプロセッサ106、及び背景セレクタ108を含み得る。
【0015】
高いレベルで、プロセス100は、背景110(背景画像と称され得る)のうちの1つ又は複数と(たとえば、MLM122によって分類、分析、及び/又は検出されることになる)1つ又は複数の物体に対応する物体画像112とを受信する背景インテグレータ102を含み得る。背景インテグレータ102は、1つ又は複数の画像内の背景110及び物体の少なくとも一部分をキャプチャする(たとえば、表す)画像データを生み出すために、物体画像112を背景110と統合することができる。MLMトレーナ104は、画像データから1つ又は複数のMLM122への入力120を生み出すことができる。MLM122は、入力120を処理して1つ又は複数の出力124を生成することができる。MLMポストプロセッサ106は、出力124を処理して予測データ126(たとえば、推理スコア、物体クラス・ラベル、物体境界ボックス又は形状など)を生み出すことができる。背景セレクタ108は、予測データ126を分析し、少なくとも予測データ126に基づいてトレーニングするために背景110及び/又は物体のうちの1つ又は複数を選択することができる。いくつかの実施例において、プロセス100は、MLM122のうちの1つ又は複数が十分にトレーニングされるまで、任意の数の反復で繰り返され得る、或いは背景セレクタ108が、第1のトレーニング反復及び/又は任意の他の反復のために背景110を選択するために単回又は断続的に使用され得る。
【0016】
たとえば、そして制限なしに、本明細書に記載のMLM122は、任意のタイプのマシン学習モデル、たとえば、線形回帰、ロジスティック回帰、決定木、サポート・ベクトル・マシン(SVM:support vector machine)、ナイーブ・ベイズ、k近傍法(Knn:k-nearest neighbor)、K平均クラスタリング、ランダム・フォレスト、次元縮小アルゴリズム、勾配ブースティング・アルゴリズム、ニューラル・ネットワーク(たとえば、オートエンコーダ、畳み込み、再発、パーセプトロン、長/短期メモリ(LSTM:Long/Short Term Memory)、ホップフィールド、ボルツマン、ディープ・ビリーフ、デコンボリューション、敵対的生成、液体状態マシンなど)を使用するマシン学習モデル、及び/又は他のタイプのマシン学習モデル、を含み得る。
【0017】
プロセス100は、予測タスクを実行するためにMLM122のうちの1つ又は複数をトレーニングするために、少なくとも部分的に、使用され得る。本開示は、ポーズの認識及び/又はジェスチャ認識、より具体的には手のポーズの認識に焦点を当てている。しかしながら、開示される技法は、様々な可能な予測タスク、たとえば、画像及び/又は物体分類タスク、を実行するためにMLMをトレーニングするために広く適用可能である。実例は、物体検出、境界ボックス又は形状判定、物体分類、ポーズ分類、ジェスチャ分類、及び、その他多数を含む。たとえば、
図2は、MLM122への入力120によってキャプチャされ得る画像246の一実例を示す。プロセス100は、画像246に描かれた手のポーズ(たとえば、サム・アップ、サム・ダウン、握り拳、ピース・サイン、手のひら、OKサインなど)を予測するようにMLM122をトレーニングするために使用され得る。
【0018】
いくつかの実施例において、プロセス100の反復のうちの1つ又は複数は、MLM122のうちの1つ又は複数をトレーニングすることを含まないことがある。たとえば、反復は、トレーニングのためにMLMトレーナ104によって使用されるトレーニング・データセットに含めるために物体画像112に対応する背景110及び/又は物体のうちの1つ又は複数を選択するために背景セレクタ108によって使用され得る。さらに、いくつかの実例において、プロセス100は、1つの反復においてトレーニング・データセットの背景110及び/又は物体を選択するために1つのMLM122を使用することができ、(たとえば、プロセス100のその後の反復において又は他の方法で)トレーニング・データセットを使用して同じ又は異なるMLM122をトレーニングすることができる。たとえば、トレーニングのために背景110から選択するために使用されるMLM122は、予測タスクを実行するために部分的に又は完全にトレーニングされ得る。プロセス100の反復は、トレーニングされた又は部分的にトレーニングされたMLM122を使用して、トレーニングのための背景110から別のMLM122を選択し、反復は、トレーニングのために困難な背景画像並びに/又は背景及び物体画像の組合せを選択することによって、他のMLM122のトレーニングをブートストラップするために使用され得る。
【0019】
様々な実例において、プロセス100の1つ又は複数の反復は、フィードバック・ループを形成することができ、そこで、背景セレクタ108は、反復の予測データ(たとえば、トレーニング・エポック)を使用して、その後のトレーニング・データセットに含めるために物体画像112に対応する背景110及び/又は物体のうちの1つ又は複数を選択する。プロセス100のその後の反復(たとえば、その後のトレーニング・エポック)において、背景インテグレータ102は、MLMトレーナ104がトレーニング・データセットに組み込み得る、対応する画像を生成又は他の方法で準備若しくは選択することができる。トレーニング・データセットは、次いで、その後のトレーニング・データセットに含めるために物体画像112に対応する背景110及び/又は物体のうちの1つ又は複数を選択するために背景セレクタ108によって使用される予測データ126を生成するようにトレーニングされているMLM122に適用され得る。フィードバック・ループは、トレーニングされているMLM122の正確性、汎化能力、及びロバスト性の継続的改善を確実にするための拡張を決定するために使用され得る。
【0020】
様々な実例において、1つ又は複数の背景及び/又は物体を選択する背景セレクタ108に少なくとも基づいて、MLMトレーナ104は、選択された背景並びに/又は選択された背景及び物体の組合せを含む背景インテグレータ102からの1つ又は複数の画像を組み込む。一実例として、MLMトレーナ104は、前のトレーニング反復及び/又はエポックのために使用されたトレーニング・データセットに1つ又は複数の画像を追加することができる。トレーニング・データセットは、反復ごとに増大し得る。しかしながら、いくつかの事例では、MLMトレーナ104はまた、(たとえば、取り除くための背景セレクタ108による選択に基づいて及び/又は画像の閾値数を超えるトレーニング・データセットに基づいて)前のトレーニング反復及び/又はエポックのために使用されるトレーニング・データセットから1つ又は複数の画像を取り除くことができる。示されている実例において、背景インテグレータ102は、背景セレクタ108によって行われた選択に基づいてプロセス100の反復の最初にトレーニング・データセットに含まれることになる1つ又は複数の画像を生成することができる。他の実例において、画像のうちの1つ又は複数は、背景インテグレータ102によって、たとえば、少なくとも部分的に、プロセス100を使用するどのトレーニングよりも前に及び/又は1つ若しくは複数の前の反復中に、事前に生成され得る。画像が、事前に生成される場合、MLMトレーナ104は、背景セレクタ108によって行われた選択に基づいて、事前に生成された画像をストレージからフェッチすることができる。
【0021】
本明細書に記載の背景の選択は、トレーニングのために使用される少なくとも1つの画像の包含のための背景の選択を指し得る。背景の選択はまた、背景を有する画像に含めるための物体の選択を含み得る。少なくとも1つの実施例において、背景セレクタ108は、MLM122を使用して行われた1つ又は複数の予測におけるMLM122の信頼性に少なくとも基づいて、背景並びに/又は背景及び物体の組合せを選択することができる。様々な実例において、信頼性は、1つ又は複数の画像でMLM122のうちの1つ又は複数によって実行される予測タスクの予測に対応する1セットの推理スコアによって、キャプチャされ得る。たとえば、予測は、現在の反復及び/又はプロセス100の1つ若しくは複数の前の反復において行われ得る。推理スコアは、MLMが提供するようにトレーニングされた又は予測タスク若しくはその一部に関して提供するようにトレーニングされている、スコアを指し得る。いくつかの実例において、推理スコアは、対応する出力124(たとえば、テンソル・データ)のうちの1つ又は複数に関するMLMの信頼性を表し得る、及び/又は予測タスクに関する信頼性を判定若しくは計算するために使用され得る。たとえば、推理スコアは、目標クラスに属する画像において検出された物体におけるMLM122の信頼性(たとえば、目標クラスに属する入力120の確率)を表し得る。
【0022】
背景セレクタ108は、様々な可能な手法を使用する推理スコアに基づいて背景並びに/又は背景及び物体の組合せのうちの1つ又は複数を選択することができる。少なくとも1つの実施例において、背景セレクタ108は、それらの要素を含む画像に対応する推理スコアの分析に少なくとも基づいて1つ又は複数の特定の背景及び/又は物体を選択することができる。少なくとも1つの実施例において、背景セレクタ108は、特定のクラス又はタイプの或いはそれらの1つ又は複数の特徴(たとえば、特定の背景、特定の物体、テクスチャ、色、照明条件、物体及び/又はオーバーレイ、色相、
図4に関してそれぞれ説明された視点、向き、肌の色、サイズ、テーマ、含まれる背景要素など)を有するそれらの要素を含む画像に対応する推理スコアの分析に少なくとも基づく1つ又は複数の他の特定の特徴を有する1つ又は複数の背景及び/又は物体を選択することができる。たとえば、背景セレクタ108は、それらの特徴を共有する画像の推理スコアに少なくとも基づいて、ブラインドを含む少なくとも1つの背景と、開いた手のひらを含むジェスチャとを選択し得る。別の実例として、背景セレクタ108は、その背景を含む画像の推理スコアに少なくとも基づいて特定の背景を選択することができる。付加的実例として、背景セレクタ108は、その背景及び物体クラスの物体を含む画像の推理スコアに少なくとも基づいて、特定の背景及び物体クラス(たとえば、サム・アップ、サム・ダウンなど)の物体を選択することができる。
【0023】
いくつかの事例では、推理スコアは、混同スコアの計算に少なくとも基づいて背景セレクタ108によって評価され得る。混同スコアは、特定のセットの特徴を有する1つ又は複数の画像について行われた予測に関する相対的ネットワーク混同を数値化するメトリックの機能を果たすことができる。混同スコアが、閾値を超えた(たとえば、十分な混同を示す)場合、背景セレクタ108は、トレーニング・データセットを修正するために特徴のセットを有する少なくともいくつかの要素(たとえば、背景又は背景及び物体の組合せ)を選択することができる。少なくとも1つの実施例において、背景の混同は、特徴のセットを有する要素を含む画像について行われたいくつかの正確な及び不正確な予測に少なくとも部分的に基づき得る。たとえば、混同スコアは、正確な予測と不正確な予測との比率に少なくとも基づいて計算され得る。追加で又は別法として、混同スコアは、特徴のセットを有する要素を含む画像の予測又は推理スコアの正確性の差異に少なくとも基づいて、計算され得る(たとえば、特定の背景又は背景タイプが使用されるときに目標クラスにわたって高い差異が存在するということを示す)。
【0024】
背景セレクタ108は、1つ又は複数の異なる要素特徴の選択に少なくとも基づいてトレーニング・データセットの少なくとも1つの画像に含めるために1つ又は複数の背景並びに/又は背景及び物体の組合せを選択することができる。たとえば、背景セレクタ108は、対応する混同スコアに少なくとも基づいて1つ又は複数の異なる要素特徴を選択することができる。背景セレクタ108は、異なるセットの特徴にランク付けし、ランク付けに基づいてトレーニング・データセットへの修正のために1つ又は複数のセットを選択することができる。非限定的実例として、背景セレクタ108は、上位N個の特定の背景或いは背景及び物体の組合せ(或いは他のセットの特徴)を選択することができ、そこで、Nは整数である(たとえば、閾値を超える各混同スコアについて)。
【0025】
背景インテグレータ102は、トレーニング・データセットを修正するために背景セレクタ108によって行われた選択を満たす1つ又は複数の画像を選択する、取得する(たとえば、ストレージから)、及び/又は生成することができる。背景インテグレータ102が、選択された背景から画像を生成する場合、背景インテグレータ102は、画像内の背景画像の全体或いは背景の1つ又は複数の部分を含み得る。たとえば、背景インテグレータ102は、ランダムな又はランダムではないサンプリング手法を使用して背景から領域(たとえば、MLM122への入力120に基づいてサイズ指定された長方形)をサンプリングすることができる。したがって、MLM122によって処理された画像は、背景画像の全部又は背景画像の領域(たとえば、サンプリングされた領域)を含み得る。同様に、背景インテグレータ102が、選択された物体から画像を生成する場合、背景インテグレータ102は、画像内の物体画像の全部又は物体画像の一部分を含み得る。
【0026】
少なくとも1つの実施例において、背景インテグレータ102は、1つ又は複数の合成背景を生成することができる。たとえば、合成背景は、ネットワーク・バイアス及び感度が理解されている(ネットワークの性能の測定から実験的に又は直観的に)事例について、生成され得る。たとえば、特定のタイプの合成背景(たとえば、ドット及びストライプ)は、それらの特定のテクスチャに敏感なネットワークについて生成され得、そこで、背景セレクタは、その背景タイプを選択する。1つ又は複数の合成背景が、MLM122のどのトレーニングよりも前に及び/又はトレーニング中に(たとえば、反復とエポックとの間に)生成され得る。たとえば、背景タイプに関連する3次元仮想環境のレンダリング、選択されたパターンを含むテクスチャのアルゴリズムでの生成、現存する背景又は画像の修正などに少なくとも基づく、様々な可能な手法が、合成背景を生成するために使用され得る。
【0027】
本開示の態様によれば、物体画像112は、1つ又は複数のソース画像から抽出され得、背景インテグレータ102は、背景110のうちの1つ又は複数を使用してソース画像の最初の背景を置換又は修正することができる。ここで
図2を参照すると、
図2は、本開示のいくつかの実施例による、物体画像212を生成する及び物体画像212を背景110のうちの1つ又は複数と統合するための例示的プロセス200を示すデータ流れ図である。
【0028】
プロセス200は、例として、物体画像抽出システム202に関して説明されている。いくつかある潜在的構成要素の中でも、物体画像抽出システム202は、領域識別器204、プリプロセッサ206、及び画像データ決定器208を含み得る。
【0029】
概説として、プロセス200において、領域識別器204は、ソース画像内の領域を識別するように構成され得る。たとえば、領域識別器204は、ソース画像220内の背景を有する物体(たとえば、手)に対応するソース画像220内の領域212Aを識別することができる。領域識別器204はさらに、領域212Aの識別に基づいて物体に対応する区分212Bを含む区分マスク222を生成することができる。領域識別器204は、物体の位置を検出してソース画像220及び/又は区分マスク222のエリア230を定義することができる。プリプロセッサ206は、区分マスク222のエリア230内の区分212Bの少なくとも一部分を処理して物体マスク232を生み出すことができる。画像データ決定器208は、物体マスク232を使用してソース画像220から物体画像212を生成することができる。物体画像は、次いで、1つ又は複数の背景110との統合のために(たとえば、物体を背景画像にスーパーインポーズ又はオーバーレイするために)背景インテグレータ102に提供され得る。
【0030】
様々な実施例によれば、物体画像112のうちの1つ又は複数、たとえば、物体画像212、は、MLM122をトレーニングするよりも前に及び/又はMLM122のトレーニング中に、生成され得る。たとえば、物体画像112のうちの1つ又は複数は、生成(たとえば、
図2に示すように)、及び記憶され得、次いで、プロセス100において入力120を生成するのに必要なだけ取得され得る。別の実例として、物体画像112のうちの1つ又は複数は、たとえば、オンザフライで又は背景インテグレータ102によって必要とされるように、プロセス100の間に生成され得る。いくつかの実施例において、物体画像112は、オンザフライでプロセス100の間に生成され、次いで、プロセス100のその後の反復において及び/又は後でMLM122以外のMLMをトレーニングするために記憶及び/又は再使用され得る。
【0031】
本明細書に記載のように、領域識別器204は、ソース画像220内の背景を有する物体(たとえば、手)に対応するソース画像220内の領域212Aを識別することができる。示されている実例において、領域識別器204はまた、物体の背景に対応するソース画像220内の領域210Aを識別することができる。他の実例において、領域識別器204は、単に領域212Aを識別することができる。
【0032】
少なくとも1つの実施例において、領域識別器204は、領域212Aを識別して、ソース画像での画像区分の実行に少なくとも基づいて物体に対応するソース画像220の区分212Bを少なくとも決定することができる。画像区分はさらに、領域210Aを識別してソース画像220での画像区分の実行に少なくとも基づいて背景に対応するソース画像220の区分212Bを決定するために、使用され得る。少なくとも1つの実施例において、領域識別器204は、ソース画像220から区分マスク222を表すデータを生成することができ、そこでは、区分マスク222は、物体に対応する区分212B(
図2の白い画素)及び/又は背景に対応する区分210B(
図2の黒い画素)を示す。
【0033】
領域識別器204は、様々な可能性のある方法、たとえば、AIを原動力とする背景除去を使用する、において実装され得る。少なくとも1つの実施例において、領域識別器204は、画像の個々の又はグループの画素を分類又はラベル付けするようにトレーニングされた1つ又は複数のMLMを含む。たとえば、MLMは、画像内の前景(たとえば、物体に対応する)及び/又は背景を識別するようにトレーニングすることができ、画像区分は、前景及び/又は背景に対応し得る。非限定的実例として、領域識別器204は、NVIDIA CorporationによるRTX Greenscreenの背景除去技術を使用して実装され得る。いくつかの実例において、MLMは、物体タイプを識別し、それに応じて画素にラベル付けするようにトレーニングされ得る。
【0034】
少なくとも1つの実施例において、領域識別器204は、1つ又は複数の物体検出器、たとえば、MLM122によって分類されることになる物体(たとえば、手)を検出するようにトレーニングされた物体検出器、を含み得る。物体検出器は、物体を検出するようにトレーニングされた1つ又は複数のMLMを使用して、実装され得る。物体検出器は、物体の位置を示すデータを出力することができ、物体を含むソース画像220及び/又は区分マスク222のエリア230を定義するために使用され得る。たとえば、物体検出器は、物体の境界ボックス又は形状を提供するようにトレーニングすることができ、境界ボックス又は形状は、エリア230を定義するために使用され得る。
【0035】
図示されている実例において、エリア230は、境界ボックスを拡大することによって、定義され得るが、他の実例において、境界ボックスは、エリア230として使用され得る。本実例では、領域識別器204は、ソース画像220をMLMに適用することによって物体に対応する区分212Bを識別することができる。他の実例において、領域識別器204は、ソース画像ではなくて(又は、いくつかの実施例では、ソース画像に加えて)MLMにエリア230を適用することができる。ソース画像220をMLMに適用することによって、MLMは、MLMの正確性を高めることができるエリア230において利用不可能な付加的コンテキストを有し得る。
【0036】
エリア230が決定される実施例において、プリプロセッサ206は、エリア230に少なくとも基づいて前処理を実行することができる。たとえば、区分マスク222のエリア230は、画像データ決定器208によって使用される前にプリプロセッサ206によって前処理され得る。少なくとも1つの実施例において、プリプロセッサ206は、区分マスク222からエリア230に対応する画像データをクロップし、クロップされた画像データを処理して物体マスク232を生み出すことができる。プリプロセッサ206は、画像データ決定器208の能力を向上させることができる、エリア230での様々なタイプの前処理を実行することができる。
【0037】
ここで
図3を参照すると、
図3は、本開示のいくつかの実施例による、物体画像を生成するために使用される物体マスクを生成するために使用され得る前処理の実例を含む。実例として、プリプロセッサ206は、物体マスク300Aをもたらす区分マスク222をクロップすることができる。プリプロセッサ206は、物体マスク300Aに拡張を実行し、物体マスク300Bをもたらすことができる。プリプロセッサ206は、次いで、物体マスク300Bをぼやかし、物体マスク232をもたらすことができる。物体マスク232は、次いで、物体画像212を生成するために画像データ決定器208によって使用され得る。
【0038】
プリプロセッサ206は、物体に対応する物体マスク300Aの区分212Bを拡大するために拡張を使用することができる。たとえば、区分212Bは、背景に対応する区分210Bに拡大され得る。実施例において、プリプロセッサ206は、バイナリ拡張を実行することができる。他のタイプの拡張、たとえば、グレースケール拡張、が、実行され得る。一実例として、プリプロセッサ206は、先ず物体マスク300Aをぼやかし、次いで、グレースケール拡張を実行することができる。拡張は、区分マスク222におけるエラーに対する物体マスク232のロバスト性を高めるために有益になり得る。たとえば、物体が手を含む場合、手のひらは、時に、背景にあるものとして分類され得る。拡張は、この潜在的エラーを修正するための1つの手法である。他のマスク前処理技法は、本開示の範囲、たとえば、バイナリ又はグレースケール浸食、内にある。一実例として、浸食は、背景に対応する区分210Bで実行され得る。
【0039】
プリプロセッサ206は、物体画像212内の物体に対応する画像データと背景110に対応する画像データとの間の移行を楽にする際に背景インテグレータ102を助けるために、ぼかし(たとえば、ガウシアンぼかし)を使用することができる。物体と背景との間の移行を楽にしないと、物体マスク232の端に対応するエリアは、鋭く、人工的になり得る。ぼかしなどのブレンド技法を使用し、次いで、物体マスクを適用することで、画像246において物体と背景110との間のより自然な又は写実的な移行をもたらすことができる。マスク処理は、マスクの適用よりも前に物体マスクで実行されるものとして説明されたが、他の実例では、類似の又は異なる画像処理動作が、物体マスクの(たとえば、ソース画像220への)適用において画像データ決定器208によって実行され得る。
【0040】
図2に戻ると、画像データ決定器208は、一般に、物体マスク、たとえば、物体マスク232、を使用して物体画像212を生成することができる。たとえば、画像データ決定器208は、物体マスク232を使用して、物体に対応するソース画像220から領域242を識別及び/又は抽出することができる。他の実施例において、物体マスクは、使用されなくてもよく、別の技法が、領域242を識別及び/又は抽出するために使用され得る。物体マスク232を使用するとき、画像データ決定器208は、物体に対応する領域242(たとえば、ソース画像220の前景)を表す画像データを含む物体画像212を得るために、物体マスク232をソース画像220と掛け合わせることができる。
【0041】
物体画像212を背景110と統合する際、背景インテグレータ102は、物体画像212をマスクとして使用することができ、マスクの反転が、結果的画像が物体画像とブレンドされて、背景110に適用され得る。たとえば、背景インテグレータ102は、物体画像212と背景110との間でアルファ合成を実行することができる。物体画像212の背景インテグレータ102とのブレンドは、様々な可能なブレンド技法を使用することができる。いくつかの実施例において、背景インテグレータ102は、アルファ・ブレンドを使用して物体画像212を背景110と統合することができる。アルファ・ブレンドは、物体画像212を背景110と結合するときに、物体画像212からの背景をゼロ設定することができ、前景画素は、画像246を生成するために、背景110にスーパーインポーズされ得る、或いは、画素は、プリプロセッサ206によって又は他の方法で適用されるぼかしにより物体画像212及び背景110からの画像データを結合するときに、重みを付けられ得る(たとえば、0から1)。少なくとも1つの実施例において、背景インテグレータ102は、1つ又は複数のシームレス・ブレンド技法を使用することができる。シームレス・ブレンド技法は、画像246内の物体と背景110との間のシームレス境界を生み出すことを目指し得る。シームレス・ブレンド技法の実例は、勾配ドメイン・ブレンド、ラプラシアン・ピラミッド・ブレンド、又はポアソン・ブレンドを含む。
【0042】
データ拡張技法のさらなる実例
本明細書に記載のように、プロセス200は、MLM、たとえば、プロセス100を使用するMLM122、をトレーニングするために使用されるトレーニング・データセットの拡張のために使用され得る。本開示は、トレーニング・データセットを強化するために使用され得るさらなる手法を提供する。少なくともいくつかの実施例によれば、ソース画像、たとえば、ソース画像220、において識別された物体の色相は、データ拡張のために修正され得る。一実例として、物体が、人の少なくとも一部分を表す場合、肌の色、髪色、及び/又は他の色相は、トレーニング・データセットを拡張するために修正され得る。たとえば、物体に対応する領域の1つ又は複数の部分の色相は、変えられ得る(たとえば、均一に又は他の方法で)。少なくとも1つの実施例において、色相は、ランダムに又はランダムにではなく選択され得る。いくつかの事例では、色相は、予測データ126の分析に基づいて選択され得る。たとえば、色相は、本明細書に記載のように、1つ又は複数のトレーニング画像を選択又は生成するための特徴として使用され得る(たとえば、背景インテグレータ102によって)。
【0043】
物体の異なる現実の変更形態について一致した色相を有する傾向がある領域の背景又は非1次的若しくはマイナ・セクションなど、ある種のエリアは、最初の色相を保持し得る。たとえば、物体が、乗用車である場合、ライト、バンパ、及びタイヤの色相を保ちながら、パネルは、色相を変えられ得る。少なくとも1つの実施例において、背景インテグレータ102は、色相修正を実行することができる。たとえば、色相修正は、物体画像212に表された物体の1つ又は複数の部分で実行され得る。他の実例において、物体画像212又は物体マスク232は、物体を表す画像データを識別する及びソース画像220の1つ又は複数の領域において色相を修正するために使用され得る(たとえば、画像データ決定器208によって)。これらの実例は、背景インテグレータ102を含まなくてもよい。
【0044】
少なくともいくつかの実施例によれば、ソース画像220は、データ拡張のために環境において物体の様々な異なるビューからレンダリングされ得る。ここで
図4を参照すると、
図4は、本開示のいくつかの実施例によれば、物体の3次元(3D)キャプチャ402が複数のビューからどのようにラスタライズされ得るかの図である。少なくとも1つの実施例において、物体画像抽出システム202は、環境において物体のビューを選択することができる。たとえば、物体画像抽出システム202は、環境400において物体のビュー406A、406B、406C、又は任意のビューから選択することができる。物体画像抽出システム202は、次いで、ビューからの環境内の物体の3Dキャプチャのラスタライズに少なくとも基づいてソース画像220を生成することができる。たとえば、3次元(3D)キャプチャ402は、物理又は仮想環境(環境400とは異なり得る)において物理又は仮想深度感知カメラによってキャプチャされた深度情報を含み得る。1つ又は複数の実施例において、3Dキャプチャ402は、環境400の物体及び潜在的付加的要素の少なくとも一部分をキャプチャするポイント・クラウドを含み得る。たとえば、ビュー406Aが、選択された場合、物体画像抽出システム202は、3Dキャプチャ402を少なくとも使用してソース画像220をカメラ404のビュー406Aからラスタライズすることができる。少なくとも1つの実施例において、ビューは、ランダムに又はランダムにではなく選択され得る。いくつかの事例では、ビューは、予測データ126の分析に基づいて選択され得る。たとえば、ビューは、本明細書に記載のように(たとえば、物体クラスと組み合わせて)、1つ又は複数のトレーニング画像を選択又は生成するための特徴として使用され得る(たとえば、背景インテグレータ102によって)。少なくとも1つの実施例において、物体は、次いで本明細書に記載の手法を使用して1つ又は複数の背景と統合され得る、物体画像112を生成するためにビューからラスタライズされ得る。他の実例において、物体は、背景110(2次元画像)と、又は背景を形成するための環境400の他の3Dコンテンツとラスタライズされ得る。
【0045】
物体マスクを使用する推論の実例
本明細書に記載のように、物体マスクは、たとえばプロセス100を使用する、MLM122のトレーニングにおいてデータ拡張のために使用され得る。少なくとも1つの実施例において、マスク・データを使用してトレーニングされたMLM122は、物体マスクを活用せずに画像で推論を実行することができる。たとえば、配備中のMLM122への入力120は、カメラによってキャプチャされた1つ又は複数の画像に対応し得る。そのような実例において、物体マスクは、単にデータ拡張のために使用され得る。他の実施例において、物体マスクはまた、推論のために活用され得る。物体マスクが推論のためにどのように活用され得るかの実例について、
図5A及び5Bに関して説明する。
【0046】
ここで
図5Aを参照すると、
図5Aは、本開示のいくつかの実施例による、MLM122を使用する推論及び物体マスク・データの早期融合の一実例を示すデータ流れ
図500である。
図5Aの実例において、MLM122は、画像506の物体マスクに対応する物体画像508を活用しながら画像506で推論を実行するようにトレーニングされ得る。たとえば、入力120は、画像506と物体画像508との組合せから生成され得、次いで、推論データ510を含む出力124を生成し得るMLM122(たとえば、ニューラル・ネットワーク)に提供され得る。MLM122が、ニューラル・ネットワークを含む場合、推論データ510は、ニューラル・ネットワークからのテンソル・データを含み得る。後処理は、予測データ126を生成するために、推論データ510で実行され得る。
【0047】
物体画像508は、推論のために画像506と結合され得る物体マスク・データの1つの実例である。物体マスク・データの早期融合が、データ流れ
図500にあるように、推論のために使用される場合、MLM122への入力120は、トレーニング中に同様に生成され得る(たとえば、プロセス100において)。一般に、物体マスク・データは、領域識別器204がソース画像からマスクを生成する、方式に関する情報をキャプチャすることができる。トレーニング及び推論中に物体マスク・データを活用することによって、MLM122は、物体マスク生成によって生み出され得る任意のエラー又は不自然なアーティファクトを説明することを学習することができる。物体マスク・データはまた、プリプロセッサ206が、前処理によって生み出され得る又は前処理後に残り得る任意のエラー又は不自然なアーティファクトをキャプチャするために、物体マスクを前処理する、方式に関する情報をキャプチャすることができる。
【0048】
物体画像508は、物体画像212に類似して物体画像抽出システム202を使用して生成され得る(たとえば、推論時において)。物体画像508は、
図5A及び5Bに示されているが、他の実例において、区分マスク222及び/又は物体マスク232は、物体画像508に加えて又はその代わりに使用され得る(プリプロセッサ206による前処理の前又は後に)。
【0049】
様々な手法は、画像506及び物体画像508の組合せ(より一般には物体マスク・データ)から入力120を生成するために使用され得る。少なくとも1つの実施例において、画像506及び物体画像508は、MLM122への別個の入力120として提供される。さらなる実例として、画像506及び物体画像508は、結合されて、結合された画像を形成することができ、入力120は、結合された画像から生成され得る。少なくとも1つの実施例において、物体マスク・データは、画像506の物体又は前景に対して背景(物体マスク・データによってキャプチャされたものとしての)を表す画像506の1つ又は複数の部分をフェードする、強調するのをやめる、印を付ける、指示する、目立たせる、又は他の方法で修正するために、使用され得る。たとえば、画像506は、物体画像508とブレンドされ得、画像506の背景がフェードされる、ぼやかされる、又は焦点をぼかされる(たとえば、被写界深度効果を使用して)結果をもたらし得る。画像506及び物体画像508を結合するとき、結果として生じる画素色を決定するために使用される重みは、(たとえば、陥凹形成効果を使用する)物体マスク・データによって命令されるものとしての物体からの距離とともに減少し得る(たとえば、指数関数的に)。
【0050】
ここで
図5Bを参照すると、
図5Bは、本開示のいくつかの実施例による、MLM122を使用する推論及び物体マスク・データの後期融合の一実例を示すデータ流れ
図502である。
【0051】
図5Bの実例において、MLM122は、画像506及び物体画像508の別個の出力124を提供することができる。出力124は、画像506に対応する推論データ510A及び物体画像508に対応する推論データ510Bを含み得る。さらに、MLM122は、画像506及び物体画像508の別個の入力120を含み得る。たとえば、MLM122は、画像において推論を実行するようにトレーニングされたMLM(122)の複数のコピーを含むことができ、1つのコピーは、画像506で推論を実行し、推論データ510Aを生成し、別のコピーは、物体画像508で推論を実行し、推論データ510Bを生成する(たとえば、並行して)。後処理が、推論データ510A及び推論データ510Bで実行され得、後期融合を使用して予測データ126を生成することができる。たとえば、推論データ510A及び推論データ510Bにわたる対応するテンソル値は、推論データを融合させるために、結合する(たとえば、平均値を求める)ことができ、次いで、さらなる後処理が、予測データ126を生成するために、融合された推論データで実行され得る。少なくとも1つの実施例において、推論データ510A及び推論データ510Bのテンソル値は、重みを使用して(たとえば、加重平均を使用して)、結合され得る。少なくとも1つの実施例において、重みは、検証データセットを介して調整され得る。
【0052】
MLM122を使用する推論はまた、予測の経時安定性を向上させることができる、予測データ126を生成するための推理スコアの時間フィルタリングを含み得る。加えて、主として示されている実例は、静的ポーズの認識に関する。しかしながら、開示される技法はまた、ジェスチャと称され得る、動的ポーズの認識にも適用され得る。ジェスチャを予測するためにMLMをトレーニング及び使用するために、少なくとも1つの実施例において、複数の画像が、期間或いはいくつかの又は一連のフレームにわたって物体をキャプチャするMLM122に提供され得る。物体マスク・データが使用される場合、物体マスク・データは、各入力画像について提供され得る。
【0053】
ここで
図6を参照すると、方法600及び本明細書に記載の他の方法の各ブロックは、ハードウェア、ファームウェア、及び/又はソフトウェアの任意の組合せを使用して実行され得る計算プロセスを含む。たとえば、様々な機能が、メモリに記憶された命令を実行するプロセッサによって、実施され得る。本方法はまた、コンピュータ記憶媒体に記憶されたコンピュータ使用可能命令として実施され得る。本方法は、いくつか例を挙げると、独立型アプリケーション、サービス又はホスト型サービス(独立型の又は別のホスト型サービスと組み合わせた)、或いは別の製品へのプラグインによって提供され得る。加えて、方法600は、例として、
図1のシステム140及び
図2のシステム202に関して、説明されている。しかしながら、本方法は、本明細書に記載のものを含むが、これらに限定されない、任意の1つのシステム、又は任意の組合せのシステムによって、追加で又は別法として、実行され得る。
【0054】
図6は、本開示のいくつかの実施例による、物体画像を少なくとも1つの背景と統合することに少なくとも基づいて1つ又は複数のマシン学習モデルをトレーニングするための方法600を示す流れ図である。方法600は、ブロックB602において、第1の背景を有する物体に対応する領域を、第1の画像において、識別することを含む。たとえば、領域識別器204は、ソース画像220内の背景を有する物体に対応する領域212Aを、ソース画像220において、識別することができる。
【0055】
方法600は、ブロックB604において、少なくとも領域に基づいて物体を表す画像データを決定することを含む。たとえば、画像データ決定器208は、少なくとも物体の領域212Aに基づいて物体を表す画像デーを決定することができる。少なくとも1つの実施例において、画像データ決定器208は、物体マスク232又は非マスク・ベースの手法を使用して画像データを決定することができる。
【0056】
方法600は、ブロックB606において、画像データを使用して第2の背景を有する物体を含む第2の画像を生成することを含む。背景インテグレータ102は、画像データを使用して物体を背景110と統合することに少なくとも基づいて、背景110を有する物体を含む画像246を生成することができる。たとえば、画像データ決定器208は、画像データを物体画像212に組み込み、背景110と統合するために背景インテグレータ102に物体画像212を提供することができる。
【0057】
方法600は、ブロックB608において、第2の画像を使用して予測タスクを実行するように少なくとも1つのニューラル・ネットワークをトレーニングすることを含む。たとえば、MLMトレーナ104は、画像246を使用して画像内の物体を分類するようにMLMをトレーニングすることができる。
【0058】
ここで
図7を参照すると、
図7は、本開示のいくつかの実施例による、入力は画像のマスク及び画像の少なくとも一部分に対応する、マシン学習モデルを使用する推論のための方法700を示す流れ図である。方法700は、ブロックB702において、物体に対応するマスクから生成された入力を使用して画像に対して予測タスクを実行するようにトレーニングされた少なくとも1つのニューラル・ネットワークを取得すること(又はそれにアクセスすること)を含む。たとえば、
図5A又は5BのMLM122が、取得(アクセス)され得、
図1のプロセス100に従ってトレーニングされてあることが可能である。
【0059】
方法700は、ブロックB704において、画像内の物体に対応するマスクを生成することを含み、そこで、物体は、画像内の背景を有する。たとえば、領域識別器204は、ソース画像220内の物体に対応する区分マスク222を生成することができ、そこで、物体は、ソース画像220内の背景を有する。
【0060】
方法700は、ブロックB706において、少なくとも1つのニューラル・ネットワークへの入力を、マスクを使用して、生成することを含む。たとえば、
図5A又は5Bの入力120は、区分マスク222を使用して(又は物体マスク・データを使用せずに)、生成され得る。入力120は、背景の少なくとも一部分を有する物体をキャプチャすることができる。
【0061】
方法700は、ブロックB708において、少なくとも1つのニューラル・ネットワークへの入力の適用に少なくとも基づいて予測タスクの少なくとも1つの予測を生成することを含む。たとえば、MLM122は、MLM122への入力120の適用に少なくとも基づいて予測タスクの少なくとも1つの予測を生成するために使用され得、予測データ126が、MLM122からの出力124を使用して、決定され得る。
【0062】
ここで
図8を参照すると、
図8は、本開示のいくつかの実施例による、1つ又は複数のマシン学習モデルをトレーニングするための物体の背景を選択するための方法800を示す流れ図である。方法800は、ブロックB802において、複数の背景を有する1つ又は複数の物体の画像を受信することを含む。たとえば、MLMトレーニング・システム140は、複数の背景110を有する1つ又は複数の物体の画像を受信することができる。
【0063】
方法800は、ブロックB804において、画像を使用して予測タスクに対応する1セットの推理スコアを生成することを含む。たとえば、MLMトレーナ104は、出力124を生成するために、入力120をMLM122のうちの1つ又は複数(又は異なるMLM)に提供することができ、MLMポストプロセッサ106は、出力124を処理して予測データ126を生み出すことができる。
【0064】
方法800は、ブロックB806において、推理スコアのうちの1つ又は複数に少なくとも基づいて背景を選択することを含む。たとえば、背景セレクタ108は、予測データ126に少なくとも基づいて背景110のうちの1つ又は複数を選択することができる。
【0065】
方法800は、ブロックB808において、背景との物体の統合に少なくとも基づいて画像を生成することを含む。たとえば、背景インテグレータ102は、物体を背景と統合すること(たとえば、物体画像112及び背景110を使用して)に少なくとも基づいて画像を生成することができる。
【0066】
方法800は、ブロックB810において、画像を使用して少なくとも1つのニューラル・ネットワークをトレーニングして予測タスクを実行することを含む。たとえば、MLMトレーナ104は、画像を使用してMLM122のうちの1つ又は複数をトレーニングすることができる。
【0067】
例示的計算デバイス
図9は、本開示のいくつかの実施例の実装において使用するのに適した例示的計算デバイス900のブロック図である。計算デバイス900は、以下のデバイスを直接的に又は間接的に連結する相互接続システム902を含み得る:メモリ904、1つ又は複数の中央処理装置(CPU)906、1つ又は複数のグラフィックス処理ユニット(GPU)908、通信インターフェース910、入力/出力(I/O)ポート912、入力/出力構成要素914、電力供給装置916、1つ又は複数の提示構成要素918(たとえば、ディスプレイ)、及び1つ又は複数の論理ユニット920。少なくとも1つの実施例において、計算デバイス900は、1つ又は複数の仮想マシン(VM)を含み得、及び/又はその構成要素のいずれかは、仮想構成要素(たとえば、仮想ハードウェア構成要素)を含み得る。非限定的実例として、GPU908のうちの1つ又は複数は、1つ又は複数のvGPUを含み得、CPU906のうちの1つ又は複数は、1つ又は複数のvCPUを含み得、及び/又は論理ユニット920のうちの1つ又は複数は、1つ又は複数の仮想論理ユニットを含み得る。そのようなものとして、計算デバイス900は、離散構成要素(たとえば、計算デバイス900専用の全GPU)、仮想構成要素(たとえば、計算デバイス900専用のGPUの一部分)、又はその組合せを含み得る。
【0068】
図9の様々なブロックは、相互接続システム902を介して線で接続されているように示されているが、これは制限することを意図されておらず、単に分かりやすくするためである。たとえば、いくつかの実施例において、提示構成要素918、たとえば、表示デバイス、は、I/O構成要素914と考えられ得る(たとえば、ディスプレイがタッチ・スクリーンである場合)。別の実例として、CPU906及び/又はGPU908は、メモリを含み得る(たとえば、メモリ904は、GPU908、CPU906、及び/又は他の構成要素のメモリに加えた記憶デバイスを表し得る)。言い換えれば、
図9の計算デバイスは、単に例示である。「ワークステーション」、「サーバ」、「ラップトップ」、「デスクトップ」、「タブレット」、「クライアント・デバイス」、「モバイル・デバイス」、「ハンドヘルド・デバイス」、「ゲーム機」、「電子制御ユニット(ECU:electronic control unit)」、「仮想現実システム」、及び/又は他のデバイス若しくはシステム・タイプなどのカテゴリはすべて、
図9の計算デバイスの範囲内にあることが意図されているので、これらは区別されない。
【0069】
相互接続システム902は、1つ又は複数のリンク又はバス、たとえば、アドレス・バス、データ・バス、制御バス、又はその組合せ、を表し得る。相互接続システム902は、1つ又は複数のバス又はリンク・タイプ、たとえば、業界標準アーキテクチャ(ISA:industry standard architecture)バス、拡張業界標準アーキテクチャ(EISA:extended industry standard architecture)バス、VESA(video electronics standards association)バス、周辺構成要素相互接続(PCI:peripheral component interconnect)バス、周辺構成要素相互接続エクスプレス(PCIe:peripheral component interconnect express)バス、及び/又は別のタイプのバス若しくはリンク、を含み得る。一部の実施例では、構成要素の間に直接接続が存在する。一実例として、CPU906は、メモリ904に直接接続され得る。さらに、CPU906は、GPU908に直接接続され得る。構成要素の間に直接、又はポイント対ポイント接続が存在する場合、相互接続システム902は、接続を実施するためのPCIeリンクを含み得る。これらの実例では、PCIバスは、計算デバイス900に含まれる必要はない。
【0070】
メモリ904は、様々なコンピュータ可読媒体のいずれかを含み得る。コンピュータ可読媒体は、計算デバイス900によってアクセスすることができる任意の利用可能な媒体でもよい。コンピュータ可読媒体は、揮発性及び不揮発性媒体の両方、及び取り外し可能な及び取り外し不可能な媒体を含み得る。実例として、しかし限定ではなく、コンピュータ可読媒体は、コンピュータ記憶媒体及び通信媒体を備え得る。
【0071】
コンピュータ記憶媒体は、コンピュータ可読命令、データ構造体、プログラム・モジュール、及び/又は他のデータ・タイプなどの情報の記憶のための任意の方法又は技術において実装された揮発性及び不揮発性媒体並びに/又は取り外し可能な及び取り外し不可能な媒体の両方を含み得る。たとえば、メモリ904は、オペレーティング・システムなど、(たとえば、プログラム及び/又はプログラム要素を表す)コンピュータ可読命令を記憶することができる。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュ・メモリ又は他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD:digital versatile disk)又は他の光ディスク・ストレージ、磁気カセット、磁気テープ、磁気ディスク・ストレージ又は他の磁気記憶デバイス、或いは、所望の情報を記憶するために使用し得る及び計算デバイス900によってアクセスし得る任意の他の媒体を含み得るが、これらに限定されない。本明細書では、コンピュータ記憶媒体は、信号自体を含まない。
【0072】
コンピュータ記憶媒体は、搬送波などの変調データ信号又は他の移送機構においてコンピュータ可読命令、データ構造体、プログラム・モジュール、及び/又は他のデータ・タイプを実施することができ、任意の情報配信媒体を含む。「変調データ信号」という用語は、その特性セットのうちの1つ又は複数を有する或いは信号内の情報をエンコードするような方式で変化した信号を指し得る。例として、及び限定せず、コンピュータ記憶媒体は、ワイヤード・ネットワーク又は直接ワイヤード接続などのワイヤード媒体と、音響、RF、赤外線及び他のワイヤレス媒体などのワイヤレス媒体とを含み得る。前述のいずれかの組合せもまた、コンピュータ可読媒体の範囲に含まれるべきである。
【0073】
CPU906は、コンピュータ可読命令のうちの少なくともいくつかを実行して計算デバイス900の1つ又は複数の構成要素を制御して本明細書に記載の方法及び/又はプロセスのうちの1つ又は複数を実行するように構成され得る。CPU906は、多数のソフトウェア・スレッドを同時に処理する能力を有する1つ又は複数の(たとえば、1個、2個、4個、8個、28個、72個などの)コアをそれぞれ含み得る。CPU906は、任意のタイプのプロセッサを含み得、実装された計算デバイス900のタイプに応じて、異なるタイプのプロセッサを含み得る(たとえば、モバイル・デバイスのためのより少数のコアを有するプロセッサ、及びサーバのためのより多数のコアを有するプロセッサ)。たとえば、計算デバイス900のタイプに応じて、プロセッサは、縮小命令セット計算(RISC:Reduced Instruction Set Computing)を使用して実装されたARM(Advanced RISC Machines)プロセッサ、又は複合命令セット計算(CISC:Complex Instruction Set Computing)を使用して実装されたx86プロセッサでもよい。計算デバイス900は、計算コプロセッサなど、1つ又は複数のマイクロプロセッサ又は補助コプロセッサに加えて、1つ又は複数のCPU906を含み得る。
【0074】
CPU906に加えて又はその代わりに、GPU908は、コンピュータ可読命令のうちの少なくともいくつかを実行して計算デバイス900の1つ又は複数の構成要素を制御して本明細書に記載の方法及び/又はプロセスのうちの1つ又は複数を実行するように構成され得る。GPU908のうちの1つ若しくは複数は、統合されたGPU(たとえば、CPU906のうちの1つ又は複数を伴うもの)でもよく、及び/又はGPU908のうちの1つ若しくは複数は、離散GPUでもよい。実施例では、GPU908のうちの1つ又は複数は、CPU906のうちの1つ又は複数のコプロセッサでもよい。GPU908は、グラフィックス(たとえば、3Dグラフィックス)をレンダリングする又は汎用計算を実行するために、計算デバイス900によって使用され得る。たとえば、GPU908は、GPUによる汎用計算(GPGPU:General-Purpose computing on GPU)のために使用され得る。GPU908は、同時に数百又は数千のソフトウェア・スレッドを処理する能力を有する数百又は数千のコアを含み得る。GPU908は、レンダリング・コマンド(たとえば、ホスト・インターフェースを介して受信されたCPU906からのレンダリング・コマンド)に応答して、出力画像のための画素データを生成することができる。GPU908は、画素データ又は任意の他の適切なデータ、たとえばGPGPUデータ、を記憶するためのグラフィックス・メモリ、たとえば表示メモリ、を含み得る。表示メモリは、メモリ904の一部として含まれ得る。表示メモリは、メモリ904の一部として含まれ得る。GPU908は、並行して動作する(たとえば、リンクを介して)2個以上のGPUを含み得る。リンクは、GPUに直接接続することができ(たとえば、NVLINKを使用して)、又はスイッチを介して(たとえば、NVSwitchを使用して)GPUを接続することができる。ともに結合されるとき、各GPU908は、出力の異なる部分の又は異なる出力の画素データ又はGPGPUデータ(たとえば、第1の画像の第1のGPU及び第2の画像の第2のGPU)を生成することができる。各GPUは、独自のメモリを含むことができ、又は他のGPUとメモリを共有することができる。
【0075】
CPU906及び/又はGPU908に加えて又はその代わりに、論理ユニット920は、コンピュータ可読命令のうちの少なくともいくつかを実行して計算デバイス900の1つ又は複数の構成要素を制御して本明細書に記載の方法及び/又はプロセスのうちの1つ又は複数を実行するように構成され得る。実施例では、CPU906、GPU908、及び/又は論理ユニット920は、方法、プロセス及び/又はその部分の任意の組合せを離散的に又は合同で実行することができる。論理ユニット920のうちの1つ若しくは複数は、CPU906及び/若しくはGPU908のうちの1つ若しくは複数の一部でもよく及び/又はそこで統合されてもよく、及び/又は、論理ユニット920のうちの1つ若しくは複数は、CPU906及び/若しくはGPU908に対する離散構成要素であっても若しくは他の方法でそれらの外部にあってもよい。実施例では、論理ユニット920のうちの1つ又は複数は、CPU906のうちの1つ若しくは複数及び/又はGPU908のうちの1つ若しくは複数のコプロセッサでもよい。
【0076】
論理ユニット920の実例は、1つ又は複数の処理コア及び/又はその構成要素、たとえば、テンソル・コア(TC:Tensor Core)、テンソル処理ユニット(TPU:Tensor Processing Unit)、画素ビジュアル・コア(PVC:Pixel Visual Core)、ビジョン処理ユニット(VPU:Vision Processing Unit)、グラフィックス処理クラスタ(GPC:Graphics Processing Cluster)、テクスチャ処理クラスタ(TPC:Texture Processing Cluster)、ストリーミング・マルチプロセッサ(SM:Streaming Multiprocessor)、木の走査ユニット(TTU:Tree Traversal Unit)、人工知能加速装置(AIA:Artificial Intelligence Accelerator)、深層学習加速装置(DLA:Deep Learning Accelerator)、論理演算ユニット(ALU:Arithmetic-Logic Unit)、特定用途向け集積回路(ASIC)、浮動小数点演算ユニット(FPU)、入力/出力(I/O)エレメント、周辺構成要素相互接続(PCI)又は周辺構成要素相互接続エクスプレス(PCIe)エレメント、及び/又は同類のもの、を含む。
【0077】
通信インターフェース910は、ワイヤード及び/又はワイヤレス通信を含む、電子通信ネットワークを介して計算デバイス900が他の計算デバイスと通信することを可能にする、1つ又は複数のレシーバ、トランスミッタ、及び/又はトランシーバを含み得る。通信インターフェース910は、ワイヤレス・ネットワーク(たとえば、Wi-Fi、Z-Wave、ブルートゥース(登録商標)、ブルートゥース(登録商標)LE、ZigBeeなど)、ワイヤード・ネットワーク(たとえば、イーサネット(登録商標)又はInfiniBandを介して通信すること)、低電力ワイド・エリア・ネットワーク(たとえば、LoRaWAN、SigFoxなど)、及び/又はインターネットなどの、いくつかの異なるネットワークのうちのいずれかを介する通信を可能にするための構成要素及び機能性を含み得る。
【0078】
I/Oポート912は、そのうちのいくつかは計算デバイス900に内蔵(たとえば、統合)され得る、I/O構成要素914、提示構成要素918、及び/又は他の構成要素を含む、他のデバイスに計算デバイス900が論理的に連結されることを可能にすることができる。例示的なI/O構成要素914は、マイクロフォン、マウス、キーボード、ジョイスティック、ゲーム・パッド、ゲーム・コントローラ、サテライト・ディッシュ、スキャナ、プリンタ、ワイヤレス・デバイスなどを含む。I/O構成要素914は、エア・ジェスチャ、音声、又は、ユーザによって生成される他の生理的入力を処理する自然ユーザ・インターフェース(NUI:natural user interface)を提供することができる。場合によっては、入力は、さらなる処理のための適切なネットワーク要素に送信され得る。NUIは、音声認識、スタイラス認識、顔認識、生体認識、画面上での及び画面の隣でのジェスチャ認識、エア・ジェスチャ、頭部及び視標追跡、並びに計算デバイス900のディスプレイに関連するタッチ認識(さらに詳しく後述するような)の任意の組合せを実装し得る。計算デバイス900は、ジェスチャ検出及び認識のための深度カメラ、たとえば、ステレオスコープ・カメラ・システム、赤外線カメラ・システム、RGBカメラ・システム、タッチ画面技術、及びこれらの組合せを含み得る。追加で、計算デバイス900は、動きの検出を可能にする加速度計又はジャイロスコープを含み得る(たとえば、慣性測定ユニット(IMU:inertia measurement unit)の一部として)。いくつかの実例では、加速度計又はジャイロスコープの出力は、没入型拡張現実又は仮想現実をレンダリングするために、計算デバイス900によって使用され得る。
【0079】
電力供給装置916は、ハードワイヤード電力供給装置、バッテリ電力供給装置、又はその組合せを含み得る。電力供給装置916は、計算デバイス900の構成要素が動作することを可能にするために計算デバイス900に電力を提供することができる。
【0080】
提示構成要素918は、ディスプレイ(たとえば、モニタ、タッチ画面、テレビジョン画面、ヘッドアップ表示装置(HUD:heads-up display)、他のディスプレイタイプ、又はその組合せ)、スピーカ、及び/又は他の提示構成要素を含み得る。提示構成要素918は、他の構成要素(たとえば、GPU908、CPU906など)からデータを受信し、データを出力する(たとえば、画像、ビデオ、音響などとして)ことができる。
【0081】
例示的データ・センタ
図10は、本開示の少なくとも1つの実施例において使用され得る例示的データ・センタ1000を示す。データ・センタ1000は、データ・センタ・インフラストラクチャ層1010、フレームワーク層1020、ソフトウェア層1030、及び/又はアプリケーション層1040を含み得る。
【0082】
図10に示すように、データ・センタ・インフラストラクチャ層1010は、資源オーケストレータ1012、グループ化された計算資源1014、及びノード計算資源(「ノードC.R.」)1016(1)~1016(N)を含み得、そこで、「N」は、任意の整数の、自然数を表す。少なくとも1つの実施例において、ノードC.R.1016(1)~1016(N)は、任意の数の中央処理装置(「CPU」)又は他のプロセッサ(加速装置、フィールド・プログラマブル・ゲート・アレイ(FPGA)、グラフィックス・プロセッサ若しくはグラフィックス・プロセッシング・ユニット(GPU)などを含む)、メモリ・デバイス(たとえば、動的リード・オンリ・メモリ)、記憶デバイス(たとえば、ソリッドステート若しくはディスク・ドライブ)、ネットワーク入力/出力(「NW I/O」)デバイス、ネットワーク・スイッチ、仮想マシン(「VM」)、電力モジュール、及び/又は冷却モジュールなどを含み得るが、これらに限定されない。いくつかの実施例において、ノードC.R.1016(1)~1016(N)のうちの1つ又は複数のノードC.R.は、前述の計算資源のうちの1つ又は複数を有するサーバに対応し得る。加えて、いくつかの実施例において、ノードC.R.1016(1)~1016(N)は、1つ若しくは複数の仮想構成要素、たとえば、vGPU、vCPU、及び/若しくは同類のもの、を含み得る、並びに/又は、ノードC.R.1016(1)~1016(N)のうちの1つ若しくは複数は、仮想マシン(VM)に対応し得る。
【0083】
少なくとも1つの実施例において、グループ化された計算資源1014は、1つ又は複数のラック(図示せず)内に収容された別個のグループのノードC.R.1016、或いは様々な地理的場所(やはり図示せず)にあるデータ・センタに収容された多数のラックを含み得る。グループ化された計算資源1014内の別個のグループのノードC.R.1016は、1つ又は複数のワークロードをサポートするように構成する又は割り当てることができる、グループ化された計算、ネットワーク、メモリ又はストレージ資源を含み得る。少なくとも1つの実施例において、CPU、GPU、及び/又は他のプロセッサを含むいくつかのノードC.R.1016は、1つ又は複数のワークロードをサポートするための計算資源を提供するために、1つ又は複数のラック内にグループ化され得る。1つ又は複数のラックはまた、任意の組合せで、任意の数の電力モジュール、冷却モジュール、及び/又はネットワーク・スイッチを含み得る。
【0084】
資源オーケストレータ1022は、1つ若しくは複数のノードC.R.1016(1)~1016(N)及び/又はグループ化された計算資源1014を構成又は他の方法で制御することができる。少なくとも1つの実施例において、資源オーケストレータ1022は、データ・センタ1000のソフトウェア設計インフラストラクチャ(「SDI」)管理エンティティを含み得る。資源オーケストレータ1022は、ハードウェア、ソフトウェア、又はその何らかの組合せを含み得る。
【0085】
少なくとも1つの実施例において、
図10に示すように、フレームワーク層1020は、ジョブ・スケジューラ1032、構成マネージャ1034、資源マネージャ1036、及び/又は分散型ファイル・システム1038を含み得る。フレームワーク層1020は、ソフトウェア層1030のソフトウェア1032及び/又はアプリケーション層1040の1つ若しくは複数のアプリケーション1042をサポートするために、フレームワークを含み得る。ソフトウェア1032又はアプリケーション1042は、ウェブベースのサービス・ソフトウェア又はアプリケーション、たとえば、アマゾン・ウェブ・サービス、グーグル・クラウド及びMicrosoft Azureによって提供されるもの、をそれぞれ含み得る。フレームワーク層1020は、大規模データ処理(たとえば、「ビッグ・データ」)のための分散型ファイル・システム1038を使用し得るApache Spark(商標)(以下「Spark」)などのフリー及びオープン・ソース・ソフトウェア・ウェブ・アプリケーション・フレームワークのタイプでもよいが、これに限定されない。少なくとも1つの実施例において、ジョブ・スケジューラ1032は、データ・センタ1000の様々な層によってサポートされるワークロードのスケジューリングを容易にするために、Sparkドライバを含み得る。構成マネージャ1034は、異なる層、たとえば、ソフトウェア層1030と、大規模データ処理をサポートするためのSpark及び分散型ファイル・システム1038を含むフレームワーク層1020、を構成する能力を有し得る。資源マネージャ1036は、分散型ファイル・システム1038及びジョブ・スケジューラ1032のサポートのためにマップされた又は割り当てられたクラスタ化された又はグループ化された計算資源を管理する能力を有し得る。少なくとも1つの実施例において、クラスタ化された又はグループ化された計算資源は、データ・センタ・インフラストラクチャ層1010にグループ化された計算資源1014を含み得る。資源マネージャ1036は、資源オーケストレータ1012と調整して、これらのマップされた又は割り当てられた計算資源を管理することができる。
【0086】
少なくとも1つの実施例において、ソフトウェア層1030に含まれるソフトウェア1032は、ノードC.R.1016(1)~1016(N)の少なくとも部分、グループ化された計算資源1014、及び/又はフレームワーク層1020の分散型ファイル・システム1038によって使用されるソフトウェアを含み得る。1つ又は複数のタイプのソフトウェアは、インターネット・ウェブ・ページ検索ソフトウェア、電子メール・ウイルス・スキャン・ソフトウェア、データベース・ソフトウェア、及びストリーミング・ビデオ・コンテンツ・ソフトウェアを含み得るが、これらに限定されない。
【0087】
少なくとも1つの実施例において、アプリケーション層1040に含まれるアプリケーション1042は、ノードC.R.1016(1)~1016(N)の少なくとも部分、グループ化された計算資源1014、及び/又はフレームワーク層1020の分散型ファイル・システム1038によって使用される1つ又は複数のタイプのアプリケーションを含み得る。1つ又は複数のタイプのアプリケーションは、任意の数のゲノミクス・アプリケーション、認知計算、並びに、トレーニング若しくは推論ソフトウェア、マシン学習フレームワーク・ソフトウェア(たとえば、PyTorch、TensorFlow、Caffeなど)、及び/又は1つ若しくは複数の実施例と併せて使用される他のマシン学習アプリケーションを含む、マシン学習アプリケーションを含み得るが、これらに限定されない。
【0088】
少なくとも1つの実施例において、構成マネージャ1034、資源マネージャ1036、及び資源オーケストレータ1012のうちのいずれかは、任意の技術的に可能な方式で取得される任意の量及びタイプのデータに基づいて任意の数及びタイプの自己書換え型アクションを実装することができる。自己書換え型アクションは、よくない可能性のある構成決定を行うこと並びにデータ・センタの十分に活用されていない及び/又は実行の不十分な部分を恐らく回避することからデータ・センタ1000のデータ・センタ・オペレータを解放し得る。
【0089】
データ・センタ1000は、1つ又は複数のマシン学習モデルをトレーニングする或いは本明細書に記載の1つ又は複数の実施例による1つ又は複数のマシン学習モデルを使用して情報を予測する又は推論するために、ツール、サービス、ソフトウェア或いは他の資源を含み得る。たとえば、マシン学習モデルは、データ・センタ1000に関して前述されたソフトウェア及び/又は計算資源を使用するニューラル・ネットワーク・アーキテクチャによる重量パラメータの計算によって、トレーニングされ得る。少なくとも1つの実施例において、1つ又は複数のニューラル・ネットワークに対応するトレーニングされた又は配備されたマシン学習モデルは、たとえば、本明細書に記載のものに限定されない、1つ又は複数のトレーニング技法を介して計算された重量パラメータを使用することによって、データ・センタ1000に関して前述された資源を使用して情報を推論又は予測するために使用され得る。
【0090】
少なくとも1つの実施例において、データ・センタ1000は、前述の資源を使用するトレーニング及び/又は推論の実行のために、CPU、特定用途向け集積回路(ASIC)、GPU、FPGA、及び/又は他のハードウェア(若しくはそれに対応する仮想計算資源)を使用することができる。さらに、前述の1つ若しくは複数のソフトウェア及び/又はハードウェア資源は、情報の推論をユーザがトレーニング又は実行することを可能にするためのサービス、たとえば、画像認識、音声認識、又は他の人工知能サービス、として構成され得る。
【0091】
例示的ネットワーク環境
本開示の実施例の実装において使用するのに適したネットワーク環境は、1つ若しくは複数のクライアント・デバイス、サーバ、ネットワーク接続型ストレージ(NAS:network attached storage)、他のバックエンド・デバイス、及び/又は他のデバイス・タイプを含み得る。クライアント・デバイス、サーバ、及び/又は他のデバイス・タイプ(たとえば、各デバイス)は、
図9の計算デバイス900の1つ又は複数のインスタンスで実装され得、たとえば、各デバイスは、計算デバイス900の類似の構成要素、特徴、及び/又は機能性を含み得る。加えて、バックエンド・デバイス(たとえば、サーバ、NASなど)が、実装される場合、バックエンド・デバイスは、データ・センタ1000の一部として含まれ得、その実例は、
図10に関して本明細書でさらに詳述される。
【0092】
ネットワーク環境の構成要素は、ワイヤード、ワイヤレス、又はその両方でもよい、ネットワークを介して互いに通信し得る。ネットワークは、複数のネットワーク、又はネットワークのネットワークを含み得る。実例として、ネットワークは、1つ若しくは複数のワイド・エリア・ネットワーク(WAN)、1つ若しくは複数のローカル・エリア・ネットワーク(LAN)、1つ若しくは複数のパブリック・ネットワーク、たとえば、インターネット及び/若しくは公衆交換電話網(PSTN)、並びに/又は1つ若しくは複数のプライベート・ネットワークを含み得る。ネットワークが、ワイヤレス電気通信ネットワークを含む場合、構成要素、たとえば、基地局、通信塔、或いはアクセス・ポイント(並びに他の構成要素)、は、ワイヤレス接続を提供し得る。
【0093】
互換性のあるネットワーク環境は、1つ又は複数のピア・ツー・ピア・ネットワーク環境(その場合、サーバはネットワーク環境に含まれないことがある)と、1つ又は複数のクライアント・サーバ・ネットワーク環境(その場合、1つ又は複数のサーバがネットワーク環境に含まれ得る)とを含み得る。ピア・ツー・ピア・ネットワーク環境では、サーバに関して本明細書に記載した機能性は、任意の数のクライアント・デバイスで実装され得る。
【0094】
少なくとも1つの実施例において、ネットワーク環境は、1つ又は複数のクラウドベースのネットワーク環境、分散型計算環境、その組合せなどを含み得る。クラウドベースのネットワーク環境は、フレームワーク層、ジョブ・スケジューラ、資源マネージャ、並びに、1つ若しくは複数のコア・ネットワーク・サーバ及び/又はエッジ・サーバを含み得る、サーバのうちの1つ又は複数で実装された分散型ファイル・システムを含み得る。フレームワーク層は、ソフトウェア層のソフトウェア及び/又はアプリケーション層の1つ若しくは複数のアプリケーションをサポートするために、フレームワークを含み得る。ソフトウェア又はアプリケーションは、それぞれ、ウェブベースのサービス・ソフトウェア又はアプリケーションを含み得る。実施例において、クライアント・デバイスのうちの1つ又は複数は、ウェブベースのサービス・ソフトウェア又はアプリケーションを使用し得る(たとえば、1つ又は複数のアプリケーション・プログラミング・インターフェース(API)を介してサービス・ソフトウェア及び/又はアプリケーションにアクセスすることによって)。フレームワーク層は、たとえば大規模データ処理(たとえば、「ビッグ・データ」)のための分散型ファイル・システムを使用し得る、フリー及びオープン・ソース・ソフトウェア・ウェブ・アプリケーション・フレームワークのタイプでもよいが、これに限定されない。
【0095】
クラウドベースのネットワーク環境は、本明細書に記載の計算及び/又はデータ・ストレージ機能(又は1つ若しくは複数のその部分)の任意の組合せを実施するクラウド計算及び/又はクラウド・ストレージを提供し得る。これらの様々な機能のいずれも、セントラル又はコア・サーバ(たとえば、州、領域、国、世界にわたって分散され得る1つ又は複数のデータ・センタなどの)から複数の場所に分散され得る。ユーザ(たとえば、クライアント・デバイス)への接続が、エッジ・サーバに比較的近い場合、コア・サーバは、機能性の少なくとも一部分をエッジ・サーバに任じ得る。クラウドベースのネットワーク環境は、プライベート(たとえば、単一の組織に制限される)でもよく、パブリック(たとえば、多数の組織に利用可能)、及び/又はその組合せ(たとえば、ハイブリッド・クラウド環境)でもよい。
【0096】
クライアント・デバイスは、
図9に関して本明細書に記載の例示的計算デバイス900の構成要素、特徴、及び機能性のうちの少なくともいくつかを含み得る。実例として、及び限定ではなく、クライアント・デバイスは、パーソナル・コンピュータ(PC)、ラップトップ・コンピュータ、モバイル・デバイス、スマートフォン、タブレット・コンピュータ、スマート・ウォッチ、ウェアラブル・コンピュータ、パーソナル・デジタル・アシスタント(PDA)、MP3プレイヤ、仮想現実ヘッドセット、全地球測位システム(GPS)又はデバイス、ビデオ・プレイヤ、ビデオ・カメラ、監視デバイス又はシステム、車両、ボート、飛行船、仮想マシン、ドローン、ロボット、ハンドヘルド通信デバイス、病院デバイス、ゲーミング・デバイス又はシステム、娯楽システム、車両コンピュータ・システム、組み込み型システム・コントローラ、リモート制御、器具、民生用電子デバイス、ワークステーション、エッジ・デバイス、これらの描写されたデバイスの任意の組合せ、或いは任意の他の適切なデバイスとして実施され得る。
【0097】
例示的自律型車両
図11Aは、本開示のいくつかの実施例による、例示的自律型車両1100の図である。自律型車両1100(或いは本明細書で「車両1100」と称される)は、旅客車両、たとえば、乗用車、トラック、バス、ファースト・レスポンダ車両、シャトル、電気又は原動機付自転車、オートバイ、消防車、警察車両、救急車、ボート、建設車両、潜水艦、ドローン、及び/又は別のタイプの車両(たとえば、無人の及び/又は1人若しくは複数の乗客を乗せた)、を含み得るが、これらに限定されない。自律型車両は、一般に、米国運輸省道路交通安全局(NHTSA:National Highway Traffic Safety Administration)、米国運輸省の部署、及び自動車技術者協会(SAE:Society of Automotive Engineers)「Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicle」(2018年6月15日に公開された規格番号J3016-201806、2016年9月30日に公開された規格番号J3016-201609、及びこの規格の前の及び未来のバージョン)によって定義される、自動化レベルに関して記述される。車両1100は、自律運転レベルのレベル3~レベル5のうちの1つ又は複数による機能の能力を有し得る。たとえば、車両1100は、実施例に応じて、条件付き自動化(レベル3)、高度自動化(レベル4)、及び/又は完全自動化(レベル5)の能力を有し得る。
【0098】
車両1100は、車両のシャシ、車体、車輪(たとえば、2、4、6、8、18など)、タイヤ、車軸、及び他の構成要素などの構成要素を含み得る。車両1100は、内部燃焼エンジン、ハイブリッド動力装置、完全な電気式エンジン、及び/又は別の推進システム・タイプなど、推進システム1150を含み得る。推進システム1150は、車両1100の推進力を有効にするために、トランスミッションを含み得る、車両1100のドライブ・トレインに接続され得る。推進システム1150は、スロットル/加速装置1152からの信号の受信に応答して制御され得る。
【0099】
ハンドルを含み得る、ステアリング・システム1154は、推進システム1150が動作しているときに(たとえば、車両が移動中のときに)車両1100のかじを取る(たとえば、所望の進路又はルートに沿って)ために使用され得る。ステアリング・システム1154は、ステアリング・アクチュエータ1156から信号を受信することができる。ハンドルは、完全自動化(レベル5)機能のオプションでもよい。
【0100】
ブレーキ・センサ・システム1146は、ブレーキ・アクチュエータ1148及び/又はブレーキ・センサからの信号の受信に応答して車両ブレーキを動作させるために使用され得る。
【0101】
1つ又は複数のシステム・オン・チップ(SoC:system on Chip)1104(
図11C)及び/又はGPUを含み得る、コントローラ1136は、車両1100の1つ若しくは複数の構成要素及び/又はシステムに信号(たとえば、コマンドの表現)を提供することができる。たとえば、コントローラは、1つ又は複数のブレーキ・アクチュエータ1148を介して車両ブレーキを動作させて、1つ又は複数のステアリング・アクチュエータ1156を介してステアリング・システム1154を動作させて、1つ又は複数のスロットル/加速装置1152を介して推進システム1150を動作させるために、信号を送ることができる。コントローラ1136は、センサ信号を処理する、並びに律的運転を可能にするために及び/又は運転者の車両1100の運転を支援するために動作コマンド(たとえば、コマンドを表す信号)を出力する、1つ又は複数の搭載された(たとえば、統合された)計算デバイス(たとえば、スーパーコンピュータ)を含み得る。コントローラ1136は、自律運転機能のための第1のコントローラ1136、機能的安全性機能のための第2のコントローラ1136、人工知能機能(たとえば、コンピュータ・ビジョン)のための第3のコントローラ1136、インフォテインメント機能のための第4のコントローラ1136、緊急状態における冗長性のための第5のコントローラ1136、及び/又は他のコントローラを含み得る。いくつかの実例では、単一のコントローラ1136が、前述の機能のうちの2個以上を処理することができ、2個以上のコントローラ1136が、単一の機能、及び/又はその任意の組合せを処理することができる。
【0102】
コントローラ1136は、1つ又は複数のセンサから受信したセンサ・データ(たとえば、センサ入力)に応答して車両1100の1つ若しくは複数の構成要素及び/又はシステムを制御するための信号を提供することができる。センサ・データは、たとえば、そして制限なしに、全地球的航法衛星システム・センサ1158(たとえば、グローバル・ポジショニング・システム・センサ)、RADARセンサ1160、超音波センサ1162、LIDARセンサ1164、慣性計測装置(IMU:inertial measurement unit)センサ1166(たとえば、加速度計、ジャイロスコープ、磁気コンパス、磁力計など)、マイクロフォン1196、ステレオ・カメラ1168、ワイドビュー・カメラ1170(たとえば、魚眼カメラ)、赤外線カメラ1172、サラウンド・カメラ1174(たとえば、360度カメラ)、長距離及び/又は中距離カメラ1198、スピード・センサ1144(たとえば、車両1100のスピードを測定するための)、振動センサ1142、ステアリング・センサ1140、ブレーキ・センサ(たとえば、ブレーキ・センサ・システム1146の一部としての)、及び/又は他のセンサ・タイプから受信され得る。
【0103】
コントローラ1136のうちの1つ又は複数のコントローラは、車両1100の計器群1132から入力(たとえば、入力データによって表される)を受信し、出力(たとえば、出力データ、表示データなどによって表される)をヒューマン・マシン・インターフェース(HMI:human-machine interface)ディスプレイ1134、可聴式アナンシエータ、ラウドスピーカ、及び/又は車両1100の他の構成要素を介して提供することができる。出力は、車両ベロシティ、スピード、時間、マップ・データ(たとえば、
図11CのHDマップ1122)、位置データ(たとえば、マップ上などの、車両の1100の位置)、方向、他の車両の位置(たとえば、占有グリッド)、コントローラ1136によって把握されるものとしての物体及び物体の状況に関する情報などの、情報を含み得る。たとえば、HMIディスプレイ1134は、1つ又は複数の物体(たとえば、道路標識、警告標識、交通信号の変化など)の存在、及び/又は車両が行った、行っている、又は行うであろう運転操作(たとえば、今、車線変更をしていること、3.22km(2マイル)内の出口34Bを出ることなど)に関する情報を表示することができる。
【0104】
車両1100はさらに、1つ若しくは複数のワイヤレス・アンテナ1126及び/又はモデムを使用して1つ若しくは複数のネットワークを介して通信することができるネットワーク・インターフェース1124を含む。たとえば、ネットワーク・インターフェース1124は、LTE、WCDMA(登録商標)、UMTS、GSM、CDMA2000などを介する通信の能力を有し得る。ワイヤレス・アンテナ1126はまた、ブルートゥース(登録商標)、ブルートゥース(登録商標)LE、Z-Wave、ZigBeeなどのローカル・エリア・ネットワーク、及び/又はLoRaWAN、SigFoxなどのロー・パワー・ワイドエリア・ネットワーク(LPWAN:low power wide-area network)を使用し、環境内の物体(たとえば、車両、モバイル・デバイスなど)の間の通信を可能にすることができる。
【0105】
図11Bは、本開示のいくつかの実施例による、
図11Aの例示的自律型車両1100のカメラ位置及び視野の実例である。カメラ及びそれぞれの視野は、1つの例示的実施例であり、制限することは意図されていない。たとえば、追加の及び/又は代替カメラが含まれ得る、及び/又はカメラは車両1100の異なる位置に置かれ得る。
【0106】
カメラのカメラ・タイプは、車両1100の構成要素及び/又はシステムと使用するようになされ得るデジタル・カメラを含み得るが、これに限定されない。カメラは、自動車安全整合性レベル(ASIL:automotive safety integrity level)Bにおいて及び/又は別のASILにおいて動作することができる。カメラ・タイプは、実施例に応じて、60フレーム/秒(fps)、120fps、240fpsなど、任意の画像キャプチャ・レートの能力を有し得る。カメラは、ロール・シャッタ、グローバル・シャッタ、別のタイプのシャッタ、又はその組合せを使用する能力を有し得る。いくつかの実例では、カラー・フィルタ・アレイは、RCCC(red clear clear clear)カラー・フィルタ・アレイ、RCCB(red clear clear blue)カラー・フィルタ・アレイ、RBGC(red blue green clear)カラー・フィルタ・アレイ、Foveon X3カラー・フィルタ・アレイ、Bayerセンサ(RGGB)カラー・フィルタ・アレイ、モノクロ・センサ・カラー・フィルタ・アレイ、及び/又は別のタイプのカラー・フィルタ・アレイを含み得る。一部の実施例では、RCCC、RCCB、及び/又はRBGCカラー・フィルタ・アレイを有するカメラなどのクリア画素カメラは、光感度を上げるための取り組みにおいて使用され得る。
【0107】
いくつかの実例では、カメラのうちの1つ又は複数が、高度運転者支援システム(ADAS:advanced driver assistance system)機能(たとえば、冗長又はフェイルセーフ設計の一部として)を実行するために使用され得る。たとえば、多機能モノ・カメラは、車線逸脱警報、交通標識アシスト及びインテリジェント・ヘッドランプ制御を含む機能を提供するために設置され得る。カメラのうちの1つ又は複数(たとえば、すべてのカメラ)が、画像データ(たとえば、ビデオ)を同時に記録及び提供することができる。
【0108】
カメラのうちの1つ又は複数は、カメラの画像データ・キャプチャ能力を妨げることがある自動車内からの迷光及び反射(たとえば、フロントガラスのミラーにおいて反射されたダッシュボードからの反射)を取り除くために、カスタム設計された(3D印刷された)部品などの取付部品において取り付けられ得る。サイドミラー取付部品を参照すると、サイドミラー部品は、カメラ取付板がサイドミラーの形状に合うように、カスタム3D印刷され得る。いくつかの実例では、カメラは、サイドミラー内に統合され得る。サイドビュー・カメラについては、カメラはまた、キャビンの各角にある4個の支柱内に統合され得る。
【0109】
車両1100の前の環境の部分を含む視野を有するカメラ(たとえば、前向きのカメラ)は、前向きの進路及び障害物の識別を助け、1つ若しくは複数のコントローラ1136及び/又は制御SoCの助けにより、占有グリッドの生成及び/又は好ましい車両進路の決定に不可欠な情報の提供の提供を助けるための、サラウンド・ビューのために使用され得る。前向きのカメラは、緊急ブレーキ、歩行者検出、及び衝突回避を含む、LIDARと同じADAS機能の多くを実行するために使用され得る。前向きのカメラはまた、車線逸脱警報(「LDW(Lane Departure Warning)」)、自律的クルーズ制御(「ACC(Autonomous Cruise Control)」)、及び/又は交通標識認識などの他の機能を含むADAS機能及びシステムのために使用され得る。
【0110】
様々なカメラが、たとえば、CMOS(complementary metal oxide semiconductor)カラー画像化装置を含む単眼カメラ・プラットフォームを含む、前向きの構成において使用され得る。別の実例は、周辺(たとえば、歩行者、交差する交通又は自転車)からのビューに入る物体を把握するために使用され得るワイドビュー・カメラ1170でもよい。
図11Bにはワイドビュー・カメラは1つだけ示されているが、車両1100には任意の数のワイドビュー・カメラ1170が存在し得る。加えて、長距離カメラ1198(たとえば、ロングビュー・ステレオ・カメラ・ペア)が、特に、ニューラル・ネットワークがまだトレーニングされていない物体について、深度ベースの物体検出のために使用され得る。長距離カメラ1198はまた、物体検出及び分類、並びに基本物体追跡のために使用され得る。
【0111】
1つ又は複数のステレオ・カメラ1168もまた、前向きの構成に含まれ得る。ステレオ・カメラ1168は、単一のチップ上に統合されたCAN又はイーサネット(登録商標)・インターフェースを有するプログラマブル論理(FPGA)及びマルチコア・マイクロプロセッサを提供し得る、拡張可能な処理ユニットを備えた統合された制御ユニットを含み得る。そのようなユニットは、画像内のすべてのポイントの距離推定値を含む、車両の環境の3Dマップを生成するために使用され得る。代替ステレオ・カメラ1168は、2個のカメラ・レンズ(左と右に1つずつ)と、車両から対象物体までの距離を測定する及び生成された情報(たとえば、メタデータ)を使用して自律的緊急ブレーキ及び車線逸脱警報機能をアクティブにすることができる画像処理チップとを含み得る、コンパクト・ステレオ・ビジョン・センサを含み得る。他のタイプのステレオ・カメラ1168が、本明細書に記載のものに加えて、又はそれらの代わりに、使用されてもよい。
【0112】
車両1100の側面に対する環境の部分を含む視野を有するカメラ(たとえば、サイドビュー・カメラ)が、占有グリッドを作成及び更新するために並びに側面衝撃衝突警報を生成するために使用される情報を提供する、サラウンド・ビューのために使用され得る。たとえば、サラウンド・カメラ1174(たとえば、
図11Bに示されるような4個のサラウンド・カメラ1174)は、車両1100上に位置付けられ得る。サラウンド・カメラ1174は、ワイドビュー・カメラ1170、魚眼カメラ、360度カメラ、及び/又は同類のものを含み得る。たとえば、4個の魚眼カメラが、車両の前、後ろ、及び側面に配置され得る。代替配置において、車両は、3個のサラウンド・カメラ1174(たとえば、左、右、及び後部)を使用してもよく、第4のサラウンド・ビュー・カメラとして1つ又は複数の他のカメラ(たとえば、前向きのカメラ)を活用してもよい。
【0113】
車両1100の後ろに対する環境の部分を含む視野を有するカメラ(たとえば、後方確認カメラ)が、駐車支援、サラウンド・ビュー、後部衝突警報、並びに占有グリッドの作成及び更新のために使用され得る。本明細書に記載のように、前向きのカメラ(たとえば、長距離及び/又は中距離カメラ1198、ステレオ・カメラ1168)、赤外線カメラ1172など)としても適したカメラを含むがこれらに限定されない、多種多様なカメラが使用され得る。
【0114】
図11Cは、本開示のいくつかの実施例による、
図11Aの例示的自律型車両1100の例示的システム・アーキテクチャのブロック図である。本明細書に記載されているこの及び他の配置は単に実例として説明されていることを理解されたい。他の配置及び要素(たとえば、マシン、インターフェース、機能、順番、機能のグループ分けなど)が、示されたものに加えて又はこれらに代わって使用されてもよく、いくつかの要素はともに除外されてもよい。さらに、本明細書に記載の要素の多くは、個別の又は分散された構成要素として又は他の構成要素と併せて、並びに任意の適切な組合せ及び場所において、実装され得る機能エンティティである。エンティティによって実行されるものとして本明細書に記載された様々な機能は、ハードウェア、ファームウェア、及び/又はソフトウェアによって実施され得る。たとえば、様々な機能が、メモリに記憶された命令を実行するプロセッサによって実施され得る。
【0115】
図11Cの車両1100の構成要素、特徴、及びシステムのそれぞれは、バス1102を介して接続されるものとして図示されている。バス1102は、コントローラ・エリア・ネットワーク(CAN)データ・インターフェース(或いは、「CANバス」と称される)を含み得る。CANは、ブレーキ、加速度、ブレーキ、ステアリング、フロントガラス・ワイパなどの作動など、車両1100の様々な特徴及び機能の制御を助けるために使用される車両1100内のネットワークでもよい。CANバスは、それぞれが独自の一意の識別子(たとえば、CAN ID)を有する、数ダース又は数百ものノードを有するように構成され得る。CANバスは、ハンドル角度、対地速度、1分間のエンジン回転(RPM:revolutions per minute)、ボタン位置、及び/又は他の車両状況指標を見つけるために読み取られ得る。CANバスは、ASIL B準拠でもよい。
【0116】
バス1102は、CANバスであるものとして本明細書に記載されているが、これは制限することを意図されていない。たとえば、CANバスに加えて、又はこのその代替として、FlexRay及び/又はイーサネット(登録商標)が使用されてもよい。加えて、単一の線が、バス1102を表すために使用されているが、これは制限することを意図されていない。たとえば、1つ若しくは複数のCANバス、1つ若しくは複数のFlexRayバス、1つ若しくは複数のイーサネット(登録商標)・バス、及び/又は異なるプロトコルを使用する1つ若しくは複数の他のタイプのバスを含み得る、任意の数のバス1102が存在し得る。いくつかの実例では、2個以上のバス1102が、異なる機能を実行するために使用され得る、及び/又は冗長性のために使用され得る。たとえば、第1のバス1102は衝突回避機能のために使用されてもよく、第2のバス1102は作動制御のために使用されてもよい。任意の実例において、各バス1102は、車両1100の構成要素のいずれかと通信し得、2個以上のバス1102が同じ構成要素と通信し得る。いくつかの実例では、車両内の各SoC1104、各コントローラ1136、及び/又は各コンピュータは、同じ入力データ(たとえば、車両1100のセンサからの入力)へのアクセスを有し得、CANバスなどの共通バスに接続され得る。
【0117】
車両1100は、
図11Aに関して本明細書で説明されるものなど、1つ又は複数のコントローラ1136を含み得る。コントローラ1136は、様々な機能のために使用され得る。コントローラ1136は、車両1100の様々な他の構成要素及びシステムのいずれかに連結されてもよく、車両1100、車両1100の人工知能、車両1100のためのインフォテインメント、及び/又は同類のものの制御のために使用され得る。
【0118】
車両1100は、システム・オン・チップ(SoC)1104を含み得る。SoC1104は、CPU1106、GPU1108、プロセッサ1110、キャッシュ1112、加速装置1114、データ・ストア1116、及び/又は図示されていない他の構成要素及び特徴を含み得る。SoC1104は、様々なプラットフォーム及びシステム内の車両1100を制御するために使用され得る。たとえば、SoC1104は、1つ又は複数のサーバ(たとえば、
図11Dのサーバ1178)からネットワーク・インターフェース1124を介してマップのリフレッシュ及び/又は更新を取得することができるHDマップ1122を有するシステム(たとえば、車両1100のシステム)において結合され得る。
【0119】
CPU1106は、CPUクラスタ又はCPU複合体(或いは、「CCPLEX」とも称される)を含み得る。CPU1106は、複数のコア及び/又はL2キャッシュを含み得る。たとえば、一部の実施例では、CPU1106は、コヒーレント・マルチプロセッサ構成内の8個のコアを含み得る。一部の実施例では、CPU1106は、4個のデュアルコア・クラスタを含むことができ、各クラスタが専用のL2キャッシュ(たとえば、2MBL2キャッシュ)を有する。CPU1106(たとえば、CCPLEX)は、CPU1106のクラスタの任意の組合せが任意の所与の時間にアクティブになることを可能にする同時クラスタ動作をサポートするように構成され得る。
【0120】
CPU1106は、以下の特徴のうちの1つ又は複数を含む電力管理能力を実装することができる:個別ハードウェア・ブロックが、動的電力を節約するためにアイドル状態のときに自動的にクロック・ゲーティングされ得る、各コア・クロックは、WFI/WFE命令の実行により命令をコアがアクティブに実行していないときにゲーティングされ得る、各コアは、独立してパワー・ゲーティングされ得る、各コア・クラスタは、すべてのコアがクロック・ゲーティングされる若しくはパワー・ゲーティングされるときに、独立してクロック・ゲーティングされ得る、及び/又は、各コア・クラスタは、すべてのコアがパワー・ゲーティングされるときに、独立してパワー・ゲーティングされ得る。CPU1106は、電力状態を管理するための強化されたアルゴリズムをさらに実装することができ、そこでは、許容される電力状態及び予想されるウェイクアップ時間が指定され、ハードウェア/マイクロ・コードが、コア、クラスタ、及びCCPLEXに入力するための最良の電力状態を決定する。処理コアは、作業がマイクロ・コードにオフロードされたソフトウェアにおける簡略化された電力状態入力シーケンスをサポートすることができる。
【0121】
GPU1108は、統合されたGPU(或いは本明細書において「iGPU」と称される)を含み得る。GPU1108は、プログラマブルになり得、並行のワークロードに効率的になり得る。一部の実例では、GPU1108は、強化されたテンソル命令セットを使用することができる。GPU1108は、1つ又は複数のストリーミング・マイクロプロセッサを含み得、そこで、各ストリーミング・マイクロプロセッサは、L1キャッシュ(たとえば、少なくとも96KB記憶容量を有するL1キャッシュ)を含み得、ストリーミング・マイクロプロセッサのうちの2個以上が、キャッシュ(たとえば、512KB記憶容量を有するL2キャッシュ)を共用し得る。一部の実施例では、GPU1108は、少なくとも8個のストリーミング・マイクロプロセッサを含み得る。GPU1108は、計算アプリケーション・プログラミング・インターフェース(API)を使用することができる。加えて、GPU1108は、1つ若しくは複数の並行のコンピューティング・プラットフォーム及び/又はプログラミング・モデル(たとえば、NVIDIAのCUDA)を使用することができる。
【0122】
GPU1108は、自動車の及び組み込まれた使用事例における最高のパフォーマンスのために電力最適化され得る。たとえば、GPU1108は、FinFET(Fin field-effect transistor)上に製造され得る。しかしながら、これは制限することを意図されておらず、GPU1108は、他の半導体製造プロセスを使用し、製造され得る。各ストリーミング・マイクロプロセッサは、複数のブロックに区切られたいくつかの混合精度処理コアを組み込むことができる。限定ではなく、たとえば、64 PF32コア及び32 PF64コアは、4個の処理ブロックに区切られてもよい。そのような実例では、各処理ブロックは、16 FP32コア、8 FP64コア、16 INT32コア、深層学習行列演算のための2個の混合精度NVIDIAテンソル・コア、L0命令キャッシュ、ワープ・スケジューラ、発送ユニット、及び/又は64KBレジスタ・ファイルを割り当てられ得る。加えて、ストリーミング・マイクロプロセッサは、計算及びアドレス指定演算の混合を有するワークロードの効率的な実行を提供するための独立した並行の整数及び浮動小数点データ進路を含み得る。ストリーミング・マイクロプロセッサは、並行スレッドの間のより高い細粒度の同期及び連携を可能にするために、独立したスレッド・スケジューリング能力を含み得る。ストリーミング・マイクロプロセッサは、プログラミングを単純化しつつ性能を向上させるために、結合されたL1データ・キャッシュ及び共用メモリ・ユニットを含み得る。
【0123】
GPU1108は、一部の実例では、900GB/秒のピーク・メモリ帯域幅に関して、提供するための高帯域幅メモリ(HBM:high bandwidth memory)及び/又は16GBHBM2メモリ・サブシステムを含み得る。いくつかの実例では、HBMメモリに加えて、又はこれの代わりに、グラフィックス・ダブル・データ・レート・タイプ5同期ランダム・アクセス・メモリ(GDDR5:graphics double data rate type five synchronous random-access memory)などの同期グラフィックス・ランダム・アクセス・メモリ(SGRAM:synchronous graphics random-access memory)が使用され得る。
【0124】
GPU1108は、メモリ・ページに最も頻繁にアクセスするプロセッサへのそれらのメモリ・ページのより正確な移動を可能にするためにアクセス・カウンタを含む統一されたメモリ技術を含むことができ、それにより、プロセッサ間で共用される記憶範囲の効率を向上させる。いくつかの実例では、アドレス変換サービス(ATS:address translation service)サポートが、GPU1108がCPU1106ページ・テーブルに直接アクセスすることを可能にするために使用され得る。そのような実例では、GPU1108メモリ管理ユニット(MMU:memory management unit)がミスを経験するとき、アドレス変換要求が、CPU1106に送信され得る。応答して、CPU1106は、アドレスの仮想対現実マッピングのためのそのページ・テーブルを調べることができ、GPU1108に変換を送り返す。そのようなものとして、統一されたメモリ技術は、CPU1106とGPU1108との両方のメモリの単一統一仮想アドレス空間を可能にすることができ、それによりGPU1108へのアプリケーションのGPU1108プログラミング及び移植を単純化する。
【0125】
加えて、GPU1108は、他のプロセッサのメモリへのGPU1108のアクセスの頻度を記録することができるアクセス・カウンタを含み得る。アクセス・カウンタは、メモリ・ページが最も頻繁にそのページにアクセスしているプロセッサの物理メモリに移動されることを確実にするのを助けることができる。
【0126】
SoC1104は、本明細書に記載のものを含む任意の数のキャッシュ1112を含み得る。たとえば、キャッシュ1112は、CPU1106とGPU1108との両方に利用可能な(たとえば、CPU1106とGPU1108との両方に接続された)L3キャッシュを含み得る。キャッシュ1112は、キャッシュ・コヒーレンス・プロトコル(たとえば、MEI、MESI、MSIなど)を使用することなどによって、線の状態を記録することができるライトバック・キャッシュを含み得る。L3キャッシュは、より小さいキャッシュ・サイズが使用されてもよいが、実施例に応じて、4MB以上を含み得る。
【0127】
SoC1104は、車両1100の様々なタスク又は動作のいずれか(たとえば、処理DNN)に関して処理を実行する際に活用され得る論理演算ユニット(ALU:arithmetic logic unit)を含み得る。加えて、SoC1104は、システム内で数学演算を実行するための浮動小数点演算ユニット(FPU:floating point unit)(又は他のマス・コプロセッサ又は数値演算コプロセッサ・タイプ)を含み得る。たとえば、SoC114は、CPU1106及び/又はGPU1108内の実行ユニットとして統合された1つ又は複数のFPUを含み得る。
【0128】
SoC1104は、1つ又は複数の加速装置1114(たとえば、ハードウェア・加速装置、ソフトウェア・加速装置、又はその組合せ)を含み得る。たとえば、SoC1104は、最適化されたハードウェア加速装置及び/又は大きなオンチップ・メモリを含み得る、ハードウェア加速クラスタを含み得る。大きなオンチップメモリ(たとえば、4MBのSRAM)は、ハードウェア加速クラスタがニューラル・ネットワーク及び他の演算を加速することを可能にし得る。ハードウェア加速クラスタは、GPU1108を補完するために及びGPU1108のタスクの一部をオフロードするために(たとえば、他のタスクを実行するためのGPU1108のより多くのサイクルを解放するために)使用され得る。一実例として、加速装置1114は、加速に適するように十分に安定している対象ワークロード(たとえば、知覚、畳み込みニューラル・ネットワーク(CNN:convolutional neural network)など)のために使用され得る。本明細書では、「CNN」という用語は、領域ベースの又は領域的畳み込みニューラル・ネットワーク(RCNN:regional convolutional neural network)及び高速RCNN(たとえば、物体検出のために使用されるものとしての)を含む、すべてのタイプのCNNを含み得る。
【0129】
加速装置1114(たとえば、ハードウェア加速クラスタ)は、深層学習加速装置(DLA:deep learning accelerator)を含み得る。DLAは、深層学習アプリケーション及び推論のために1秒あたり追加の10兆の動作を提供するように構成することができる1つ又は複数のテンソル処理ユニット(TPU:Tensor processing unit)を含み得る。TPUは、画像処理機能(たとえば、CNN、RCNNなどの)を実行するように構成及び最適化された加速装置でもよい。DLAはさらに、特定のセットのニューラル・ネットワーク・タイプ及び浮動小数点演算、並びに推論のために最適化され得る。DLAの設計は、汎用GPUよりも1ミリメートルあたりより多くのパフォーマンスを提供することができ、CPUのパフォーマンスを大きく超える。TPUは、たとえば、特徴と重みとの両方についてINT8、INT16、及びFP16データ・タイプをサポートする、単一インスタンス畳み込み機能、並びにポストプロセッサ機能を含む、いくつかの機能を実行することができる。
【0130】
DLAは、以下を含むがこれらに限定されない、様々な機能のいずれかのために処理済み又は未処理のデータでニューラル・ネットワーク、特にCNN、を迅速に及び効率的に実行することができる:カメラ・センサからのデータを使用する物体識別及び検出のためのCNN、カメラ・センサからのデータを使用する距離推定のためのCNN、マイクロフォンからのデータを使用する緊急車両検出及び識別及び検出のためのCNN、カメラ・センサからのデータを使用する顔認識及び車両所有者識別のためのCNN、及び/又は、セキュリティ及び/又は安全性関連イベントのためのCNN。
【0131】
DLAは、GPU1108の任意の機能を実行することができ、そして、推論加速装置を使用することによって、たとえば、設計者は、任意の機能のためにDLA又はGPU1108のいずれかを対象にすることができる。たとえば、設計者は、DLA上のCNN及び浮動小数点演算の処理に重点的に取り組み、他の機能をGPU1108及び/又は他の加速装置1114に任せることができる。
【0132】
加速装置1114(たとえば、ハードウェア加速クラスタ)は、或いはコンピュータ・ビジョン加速装置と本明細書で称され得るプログラマブル・ビジョン加速装置(PVA:programmable vision accelerator)を含み得る。PVAは、高度運転者支援システム(ADAS:advanced driver assistance system)、自律運転、及び/又は拡張現実(AR:augmented reality)及び/又は仮想現実(VR:virtual reality)アプリケーションのためのコンピュータ・ビジョン・アルゴリズムを加速するように設計及び構成され得る。PVAは、パフォーマンスと柔軟性との間のバランスをもたらすことができる。たとえば、各PVAは、たとえば、任意の数の縮小命令セット・コンピュータ(RISC:reduced instruction set computer)コア、直接メモリ・アクセス(DMA:direct memory access)、及び/又は任意の数のベクトル・プロセッサを含み得るが、これらに限定されない。
【0133】
RISCコアは、画像センサ(たとえば、本明細書に記載のカメラのうちのいずれかのカメラの画像センサ)、画像信号プロセッサ、及び/又は同類のものと相互作用することができる。それぞれのRISCコアは、任意の量のメモリを含み得る。RISCコアは、実施例に応じて、いくつかのプロトコルのいずれかを使用することができる。いくつかの実例では、RISCコアは、リアルタイム・オペレーティング・システム(RTOS:real-time operating system)を実行することができる。RISCコアは、1つ若しくは複数の集積回路デバイス、特定用途向け集積回路(ASIC)、及び/又はメモリ・デバイスを使用して、実装され得る。たとえば、RISCコアは、命令キャッシュ及び/又はしっかりと結合されたRAMを含み得る。
【0134】
DMAは、CPU1106から独立したシステム・メモリにPVAの構成要素がアクセスすることを可能にし得る。DMAは、多次元アドレス指定及び/又は循環アドレス指定をサポートすることを含むがこれに限定されないPVAに最適化をもたらすために使用される任意の数の特徴をサポートすることができる。いくつかの実例では、DMAは、ブロック幅、ブロック高さ、ブロック深度、水平ブロック・ステッピング、垂直ブロック・ステッピング、及び/又は深度ステッピングを含み得る、6次元まで又はそれ以上のアドレス指定をサポートすることができる。
【0135】
ベクトル・プロセッサは、コンピュータ・ビジョン・アルゴリズムのプログラミングを効率的に柔軟に実行する及び信号処理能力を提供するように設計され得るプログラマブル・プロセッサでもよい。いくつかの実例では、PVAは、PVAコア及び2個のベクトル処理サブシステム・パーティションを含み得る。PVAコアは、プロセッサ・サブシステム、DMAエンジン(たとえば、2個のDMAエンジン)、及び/又は他の周辺装置を含み得る。ベクトル処理サブシステムは、PVAの1次的処理エンジンとして動作することができ、ベクトル処理ユニット(VPU:vector processing unit)、命令キャッシュ、及び/又はベクトル・メモリ(たとえば、VMEM)を含み得る。VPUコアは、たとえば、単一の命令、複数のデータ(SIMD)、超長命令語(VLIW:very long instruction word)デジタル信号プロセッサなど、デジタル信号プロセッサを含み得る。SIMD及びVLIWの組合せは、スループット及びスピードを高めることができる。
【0136】
それぞれのベクトル・プロセッサは、命令キャッシュを含み得、専用のメモリに連結され得る。結果として、一部の実例では、それぞれのベクトル・プロセッサは、他のベクトル・プロセッサから独立して実行するように構成され得る。他の実例において、特定のPVAに含まれるベクトル・プロセッサは、データ並列処理を用いるように構成され得る。たとえば、一部の実施例では、単一のPVAに含まれる複数のベクトル・プロセッサは、同じコンピュータ・ビジョン・アルゴリズムを、しかし画像の異なる領域上で、実行することができる。他の実例において、特定のPVAに含まれるベクトル・プロセッサは、異なるコンピュータ・ビジョン・アルゴリズムを、同じ画像上で、同時に実行することができ、或いは順次画像又は画像の部分で異なるアルゴリズムを実行することさえできる。特に、任意の数のPVAは、ハードウェア加速クラスタに含まれ得、任意の数のベクトル・プロセッサは、それぞれのPVAに含まれ得る。加えて、PVAは、全体的システム安全性を高めるために、追加のエラー訂正コード(ECC:error correcting code)メモリを含み得る。
【0137】
加速装置1114(たとえば、ハードウェア加速クラスタ)は、加速装置1114のための高帯域幅、低レイテンシSRAMを提供するための、コンピュータ・ビジョン・ネットワーク・オンチップ及びSRAMを含み得る。いくつかの実例では、オンチップ・メモリは、たとえば、そして制限ではなく、PVAとDLAとの両方によってアクセス可能でもよい、8個のフィールド構成可能なメモリ・ブロックから成る、少なくとも4MBのSRAMを含み得る。各ペアのメモリ・ブロックは、高度周辺バス(APB:advanced peripheral bus)インターフェース、構成回路、コントローラ、及びマルチプレクサを含み得る。任意のタイプのメモリが、使用され得る。PVA及びDLAは、メモリへの高速アクセスを有するPVA及びDLAを提供するバックボーンを介してメモリにアクセスすることができる。バックボーンは、(たとえば、APBを使用して)PVA及びDLAをメモリに相互接続するコンピュータ・ビジョン・ネットワーク・オンチップを含み得る。
【0138】
コンピュータ・ビジョン・ネットワーク・オンチップは、PVAとDLAとの両方が作動可能及び有効信号を提供することを、任意の制御信号/アドレス/データの送信の前に、決定するインターフェースを含み得る。そのようなインターフェースは、制御信号/アドレス/データを送信するための別個のフェーズ及び別個のチャネル、並びに連続的データ転送のためのバーストタイプの通信を提供することができる。このタイプのインターフェースは、ISO26262又はIEC61508規格に従うことができるが、他の規格及びプロトコルが使用されてもよい。
【0139】
いくつかの実例では、SoC1104は、2018年8月10日に出願された米国特許出願第16/101,232号に記載されるような、リアルタイム・レイトレーシング・ハードウェア加速装置を含み得る。リアルタイム・レイトレーシング・ハードウェア加速装置は、RADAR信号解釈のための、音響伝播合成及び/又は分析のための、SONARシステムのシミュレーションのための、一般波伝播シミュレーションのための、ローカリゼーション及び/又は他の機能を目的とするLIDARデータに対する比較のための、及び/又は他の使用のための、リアルタイム視覚化シミュレーションを生成するために、(たとえば、世界モデル内の)物体の位置及び規模を迅速に効率的に決定するために使用され得る。一部の実施例では、1つ又は複数の木の走査ユニット(TTU:tree traversal unit)が、1つ又は複数のレイトレーシング関連動作を実行するために使用され得る。
【0140】
加速装置1114(たとえば、ハードウェア加速装置クラスタ)は、自律運転のための多様な用途を有する。PVAは、ADAS及び自律型車両における極めて重要な処理段階に使用され得るプログラマブル・ビジョン加速装置でもよい。PVAの能力は、低電力及び低レイテンシにおいて、予測可能な処理を必要とするアルゴリズムの領域にふさわしい。言い換えれば、PVAは、低レイテンシ及び低電力とともに予測可能な実行時間を必要とする、小さなデータ集合上でも、半高密度の又は高密度の通常の計算で上手く機能する。それ故に、PVAは、物体検出及び整数計算での動作において効率的であるので、自律型車両のためのプラットフォームとの関連で、PVAは、クラシック・コンピュータ・ビジョン・アルゴリズムを実行するように設計される。
【0141】
たとえば、本技術の1つの実施例によれば、PVAは、コンピュータ・ステレオ・ビジョンを実行するために使用される。半グローバルなマッチングベースのアルゴリズムが、一部の実例では使用され得るが、これは制限することを意図されていない。レベル3~5の自律運転のための多数のアプリケーションは、動き推定/ステレオ・マッチング・オンザフライ(たとえば、SFM(structure from motion)、歩行者認識、レーン検出など)を必要とする。PVAは、2個の単眼カメラからの入力でコンピュータ・ステレオ・ビジョン機能を実行することができる。
【0142】
いくつかの実例では、PVAは、高密度のオプティカル・フローを実行するために使用され得る。処理されたRADARを提供するために未加工のRADARデータを処理する(たとえば、4D高速フーリエ変換を使用して)ことによる。他の実例において、PVAは、たとえば、飛行データの未加工の時間を処理して飛行データの処理済み時間を提供することにより、飛行深度処理の時間に使用される。
【0143】
DLAは、たとえば、各物体検出の信頼性の測定値を出力するニューラル・ネットワークを含む、制御及び運転安全性を強化するために任意のタイプのネットワークを実行するために使用され得る。そのような信頼性値は、確率として、又は他の検出と比較した各検出の相対的「重み」を提供するものとして、解釈され得る。この信頼性値は、どの検出が誤判定検出ではなくて真陽性検出と考えられるべきであるかに関するさらなる決定をシステムが行うことを可能にする。たとえば、システムは、信頼性の閾値を設定し、真陽性検出としての閾値を超える検出のみを考慮することができる。自動非常ブレーキ(AEB:automatic emergency braking)システムにおいて、誤判定検出は、車両に非常ブレーキを自動で実行させることになり、これは明らかに望ましくない。したがって、最も確信のある検出のみが、AEBのトリガとして考えられるべきである。DLAは、信頼性値を退行するニューラル・ネットワークを実行し得る。ニューラル・ネットワークは、境界ボックス次元、(たとえば、別のサブシステムから)取得されたグラウンド・プレーン推定、ニューラル・ネットワーク及び/又は他のセンサ(たとえば、LIDARセンサ1164又はRADARセンサ1160)から取得された物体の車両1100方位、距離、3D位置推定と相関する慣性計測装置(IMU:inertial measurement unit)センサ1166出力、その他など、少なくともいくつかのサブセットのパラメータをその入力として受け取ることができる。
【0144】
SoC1104は、データ・ストア1116(たとえば、メモリ)を含み得る。データ・ストア1116は、SoC1104のオンチップ・メモリでもよく、GPU及び/又はDLAで実行されることになるニューラル・ネットワークを記憶することができる。いくつかの実例では、データ・ストア1116は、冗長性及び安全性のためにニューラル・ネットワークの複数のインスタンスを記憶するのに十分な大きさの容量を有し得る。データ・ストア1112は、L2又はL3キャッシュ1112を備え得る。データ・ストア1116の参照は、本明細書に記載のような、PVA、DLA、及び/又は他の加速装置1114に関連するメモリの参照を含み得る。
【0145】
SoC1104は、1つ又は複数のプロセッサ1110(たとえば、組み込まれたプロセッサ)を含み得る。プロセッサ1110は、ブート電力及び管理能力及び関連するセキュリティ施行を処理するための専用のプロセッサ及びサブシステムでもよいブート及び電力管理プロセッサを含み得る。ブート及び電力管理プロセッサは、SoC1104ブート・シーケンスの一部でもよく、実行時間電力管理サービスを提供することができる。ブート電力及び管理プロセッサは、クロック及び電圧プログラミング、システム低電力状態移行の支援、SoC1104熱及び温度センサの管理、及び/又はSoC1104電力状態の管理を提供することができる。各温度センサは、その出力頻度が温度に比例するリング発振器として実装されてもよく、SoC1104は、リング発振器を使用してCPU1106、GPU1108、及び/又は加速装置1114の温度を検出することができる。温度が、閾値を超えたと判定された場合、ブート及び電力管理プロセッサは、温度障害ルーティンに入り、SoC1104をより低い電力状態に置く及び/又は車両1100をショーファーの安全停止モードにする(たとえば、車両1100を安全停止させる)ことができる。
【0146】
プロセッサ1110は、オーディオ処理エンジンの機能を果たし得る1セットの組み込まれたプロセッサをさらに含み得る。オーディオ処理エンジンは、複数のインターフェースを介するマルチチャネル・オーディオの完全なハードウェア・サポートとオーディオI/Oインターフェースの広く柔軟な範囲とを可能にするオーディオ・サブシステムでもよい。いくつかの実例では、オーディオ処理エンジンは、専用のRAMを有するデジタル信号プロセッサを有する専用のプロセッサ・コアである。
【0147】
プロセッサ1110は、低電力センサ管理及びウェイク使用事例をサポートするための必要なハードウェア特徴を提供することができる常時オンのプロセッサ・エンジンをさらに含み得る。常時オンのプロセッサ・エンジンは、プロセッサ・コア、しっかりと結合されたRAM、支援周辺装置(たとえば、タイマ及び割り込みコントローラ)、様々なI/Oコントローラ周辺装置、及びルーティング論理を含み得る。
【0148】
プロセッサ1110は、自動車のアプリケーションの安全性管理を処理するために専用のプロセッサ・サブシステムを含む安全性クラスタ・エンジンをさらに含み得る。安全性クラスタ・エンジンは、2個以上のプロセッサ・コア、しっかりと結合されたRAM、サポート周辺装置(たとえば、タイマ、割り込みコントローラなど)、及び/又はルーティング論理を含み得る。安全性モードにおいて、2個以上のコアは、ロックステップ・モードにおいて動作し、それらの動作の間の何らかの差を検出するための比較論理を有する単一のコアとして機能することができる。
【0149】
プロセッサ1110は、リアルタイム・カメラ管理を処理するための専用のプロセッサ・サブシステムを含み得るリアルタイム・カメラ・エンジンをさらに含み得る。
【0150】
プロセッサ1110は、カメラ処理パイプラインの一部であるハードウェア・エンジンである画像信号プロセッサを含み得る高ダイナミック・レンジ信号プロセッサをさらに含み得る。
【0151】
プロセッサ1110は、プレイヤ・ウインドウのための最終的画像を生み出すためにビデオ再生アプリケーションによって必要とされるビデオ処理後機能を実装する処理ブロック(たとえば、マイクロプロセッサに実装された)でもよいビデオ画像合成器を含み得る。ビデオ画像合成器は、ワイドビュー・カメラ1170で、サラウンド・カメラ1174で、及び/又はキャビン内監視カメラ・センサでレンズ歪み補正を実行することができる。キャビン内監視カメラ・センサは好ましくは、キャビン内イベントを識別し、適切に応答するように構成された、高度SoCの別のインスタンス上で実行するニューラル・ネットワークによって監視される。キャビン内システムは、セルラ・サービスをアクティブにする及び電話をかける、電子メールを書き取らせる、車両の目的地を変更する、車両のインフォテインメント・システム及び設定をアクティブにする又は変更する、或いは音声起動型ウェブ・サーフィンを提供するために、読唇術を実行することができる。ある特定の機能は、自律モードで動作しているときにのみ運転者に利用可能であり、そうでない場合には無効にされる。
【0152】
ビデオ画像合成器は、空間的ノイズ低減及び時間的ノイズ低減の両方のための強化された時間的ノイズ低減を含み得る。たとえば、動きがビデオ内で生じた場合、ノイズ低減は、隣接するフレームによって提供される情報の重みを減らし、空間的情報に適切に重みを加える。画像又は画像の一部が動きを含まない場合、ビデオ画像合成器によって実行される時間的ノイズ低減は、前の画像からの情報を使用して現在の画像におけるノイズを減らすことができる。
【0153】
ビデオ画像合成器はまた、入力ステレオ・レンズ・フレーム上でステレオ・レクティフィケーションを実行するように構成され得る。ビデオ画像合成器はさらに、オペレーティング・システム・デスクトップが使用中であるときにユーザ・インターフェース合成のために使用することができ、GPU1108は、新しい表面を連続してレンダリングために必要とされない。GPU1108の電源が入れられ、3Dレンダリングをアクティブに行っているときでも、ビデオ画像合成器は、GPU1108をオフロードしてパフォーマンス及び反応性を向上させるために使用され得る。
【0154】
SoC1104は、カメラからビデオ及び入力を受信するためのモバイル・インダストリ・プロセッサ・インターフェース(MIPI:mobile industry processor interface)カメラ・シリアル・インターフェース、高速インターフェース、及び/又は、カメラ及び関連画素入力機能のために使用され得るビデオ入力ブロックをさらに含み得る。SoC1104は、ソフトウェアによって制御され得る、及び特定の役割にコミットされていないI/O信号を受信するために使用され得る、入力/出力コントローラをさらに含み得る。
【0155】
SoC1104は、周辺装置、オーディオ・コーデック、電力管理、及び/又は他のデバイスとの通信を可能にするために、広範囲の周辺インターフェースをさらに含み得る。SoC1104は、(たとえば、ギガビット・マルチメディア・シリアル・リンク及びイーサネット(登録商標)を介して接続された)カメラからのデータ、センサ(たとえば、イーサネット(登録商標)を介して接続され得るLIDARセンサ1164、RADARセンサ1160など)、バス1102からのデータ(たとえば、車両1100のスピード、ハンドル位置など)、(たとえば、イーサネット(登録商標)又はCANバスを介して接続された)GNSSセンサ1158からのデータを処理するために使用され得る。SoC1104は、独自のDMAエンジンを含み得る及びルーティン・データ管理タスクからCPU1106を解放するために使用され得る専用の高性能大容量記憶コントローラをさらに含み得る。
【0156】
SoC1104は、自動化レベル3~5に広がる柔軟なアーキテクチャを有する終端間プラットフォームでもよく、それによって、多様性及び冗長性のためにコンピュータ・ビジョン及びADAS技法を活用し、効率的に使用し、深層学習ツールとともに、柔軟な、信頼できる運転ソフトウェア・スタックのためのプラットフォームを提供する、総合的機能的安全性アーキテクチャを提供する。SoC1104は、従来のシステムよりも高速で、信頼でき、さらにエネルギ効率がよく、空間効率がよくなり得る。たとえば、加速装置1114が、CPU1106と結合されるとき、GPU1108、及びデータ・ストア1016は、レベル3~5の自律型車両のための高速で効率的なプラットフォームを提供することができる。
【0157】
したがって、本技術は、従来のシステムによって達成することができない能力及び機能性をもたらす。たとえば、コンピュータ・ビジョン・アルゴリズムは、多種多様な視覚的データにわたり多種多様な処理アルゴリズムを実行するために、Cプログラミング言語などの高レベルのプログラミング言語を使用して構成され得る、CPUで実行され得る。しかしながら、CPUは、しばしば、たとえば、実行時間及び電力消費に関連するものなど、多数のコンピュータ・ビジョン・アプリケーションの性能要件を満たすことができない。具体的には、多数のCPUは、車両内ADASアプリケーションの要件及び実際のレベル3~5の自律型車両の要件である、リアルタイムでの複合物体検出アルゴリズムを実行することができない。
【0158】
従来のシステムとは対照的に、CPU複合体、GPU複合体、及びハードウェア加速クラスタを提供することによって、本明細書に記載の技術は、複数のニューラル・ネットワークが同時に及び/又は連続して実行されることと、レベル3~5の自律運転機能を可能にするために結果が結合されることとを可能にする。たとえば、DLA又はdGPU(たとえば、GPU1120)で実行するCNNは、ニューラル・ネットワークが具体的にトレーニングされていない標識を含む、交通標識をスーパーコンピュータが読み取る及び理解することを可能にする、テキスト及び単語認識を含み得る。DLAは、標識の意味論的理解を識別、解釈、及び提供することと、CPU複合体で実行する進路計画立案モジュールに意味論的理解を渡すこととを行うことができる、ニューラル・ネットワークをさらに含み得る。
【0159】
別の実例として、複数のニューラル・ネットワークは、レベル3、4、又は5の運転に必要とされるように、同時に実行され得る。たとえば、電光とともに、「注意:点滅光は、凍った状態を示す」から成る警告標識は、いくつかのニューラル・ネットワークによって独立して又は集合的に解釈され得る。標識自体は、第1の配備されたニューラル・ネットワーク(たとえば、トレーニングされてあるニューラル・ネットワーク)によって交通標識として識別され得、テキスト「点滅光は、凍った状態を示す」は、点滅光が検出されるときには凍った状態が存在することを車両の進路計画立案ソフトウェア(好ましくはCPU複合体上で実行する)に知らせる、第2の配備されたニューラル・ネットワークによって解釈され得る。点滅光は、点滅光の存在(又は無いこと)を車両の進路計画立案ソフトウェアに知らせ、複数のフレームを介して第3の配備されたニューラル・ネットワークを動作させることによって識別され得る。すべての3個のニューラル・ネットワークは、DLA内及び/又はGPU1108上などで、同時に実行することができる。
【0160】
いくつかの実例では、顔認識及び車両所有者識別のためのCNNは、カメラ・センサからのデータを使用して車両1100の正規の運転者及び/又は所有者の存在を識別することができる。常時オンのセンサ処理エンジンは、所有者が運転席側のドアに近づくときに車両を解錠する及び明かりをつけるために、並びに、セキュリティ・モードにおいて、所有者が車両を離れるときに車両の動作を停止させるために、使用され得る。このようにして、SoC1104は、盗難及び/又は車の乗っ取りに対するセキュリティをもたらす。
【0161】
別の実例では、緊急車両検出及び識別のためのCNNは、マイクロフォン1196からのデータを使用して緊急車両サイレンを検出及び識別することができる。一般分類子を使用してサイレンを検出する及び特徴を手動で抽出する従来のシステムとは対照的に、SoC1104は、環境の及び都市の音の分類、並びに視覚的データの分類のためにCNNを使用する。好ましい一実施例では、DLA上で実行するCNNは、(たとえば、ドップラー効果を使用することによって)緊急車両の相対的終速度を識別するようにトレーニングされる。CNNはまた、GNSSセンサ1158によって識別されるように、車両が稼働しているローカル・エリアに特有の緊急車両を識別するようにトレーニングされ得る。それ故に、たとえば、欧州で稼働しているとき、CNNは、欧州のサイレンを検出しようとすることになり、そして、米国にあるとき、CNNは、北米のサイレンのみを識別しようとすることになる。緊急車両が検出された後は、制御プログラムが、緊急車両が通過するまで、超音波センサ1162の支援を受けて、車両を減速する、道の端に停止させる、車両を駐車する、及び/又は車両をアイドリングさせる、緊急車両安全性ルーティンを実行するために使用され得る。
【0162】
車両は、高速相互接続(たとえば、PCIe)を介してSoC1104に連結され得るCPU1118(たとえば、個別のCPU、又はdCPU)を含み得る。CPU1118は、たとえば、X86プロセッサを含み得る。CPU1118は、たとえば、ADASセンサとSoC1104との間の潜在的に不整合の結果を調停すること、及び/又はコントローラ1136及び/又はインフォテインメントSoC1130の状況及び調子を監視することを含む、様々な機能のいずれかを実行するために使用され得る。
【0163】
車両1100は、高速相互接続(たとえば、NVIDIAのNVLINK)を介してSoC1104に連結され得るGPU1120(たとえば、個別のGPU、又はdGPU)を含み得る。GPU1120は、冗長及び/又は異なるニューラル・ネットワークを実行することなどによって、付加的人工知能機能をもたらすことができ、車両1100のセンサからの入力(たとえば、センサ・データ)に基づいてニューラル・ネットワークをトレーニング及び/又は更新するために使用され得る。
【0164】
車両1100は、1つ又は複数のワイヤレス・アンテナ1126(たとえば、セルラ・アンテナ、ブルートゥース(登録商標)・アンテナなど、異なる通信プロトコルのための1つ又は複数のワイヤレス・アンテナ)を含み得るネットワーク・インターフェース1124をさらに含み得る。ネットワーク・インターフェース1124は、インターネットを介するクラウドとの(たとえば、サーバ1178及び/又は他のネットワーク・デバイスとの)、他の車両との、及び/又は計算デバイス(たとえば、乗客のクライアント・デバイス)とのワイヤレス接続を使用可能にするために使用され得る。他の車両と通信するために、直接リンクが2個の車両の間に確立され得る、及び/又は、間接リンクが(たとえば、ネットワークを通じて及びインターネットを介して)確立され得る。直接リンクは、車両対車両通信リンクを使用し、提供され得る。車両対車両通信リンクは、車両1100に近接する車両(たとえば、車両1100の前の、横の、及び/又は後ろの車両)に関する車両1100情報を提供することができる。この機能は、車両1100の共同適応クルーズ制御機能の一部でもよい。
【0165】
ネットワーク・インターフェース1124は、変調及び復調機能を提供する及びコントローラ1136がワイヤレス・ネットワークを介して通信することを可能にする、SoCを含み得る。ネットワーク・インターフェース1124は、ベースバンドから無線周波数へのアップコンバージョン、及び無線周波数からベースバンドへのダウンコンバージョンのための無線周波数フロントエンドを含み得る。周波数コンバージョンは、よく知られているプロセスを通して実行することができ、及び/又はスーパーヘテロダイン・プロセスを用いて実行することができる。いくつかの実例では、無線周波数フロントエンド機能は、別個のチップによって提供され得る。ネットワーク・インターフェースは、LTE、WCDMA(登録商標)、UMTS、GSM、CDMA2000、ブルートゥース(登録商標)、ブルートゥース(登録商標)LE、Wi-Fi、Z-Wave、ZigBee、LoRaWAN、及び/又は他のワイヤレス・プロトコルを介して通信するためのワイヤレス機能を含み得る。
【0166】
車両1100は、チップ外の(たとえば、SoC1104外の)ストレージを含み得るデータ・ストア1128をさらに含み得る。データ・ストア1128は、RAM、SRAM、DRAM、VRAM、フラッシュ、ハードディスク、及び/又は、少なくとも1ビットのデータを記憶することができる他の構成要素及び/又はデバイスを含む、1つ又は複数の記憶素子を含み得る。
【0167】
車両1100は、GNSSセンサ1158をさらに含み得る。GNSSセンサ1158(たとえば、GPS、支援されたGPSセンサ、ディファレンシャルGPS(DGPS)センサなど)は、マッピング、知覚、占有グリッド生成、及び/又は進路計画策定機能を支援する。たとえば、シリアル(RS-232)ブリッジへのイーサネット(登録商標)を有するUSBコネクタを使用するGPSを含むが、これに限定されない、任意の数のGNSSセンサ1158が、使用され得る。
【0168】
車両1100は、RADARセンサ1160をさらに含み得る。RADARセンサ1160は、暗闇及び/又は厳しい気象条件においても、長距離車両検出のために車両1100によって使用され得る。RADAR機能安全性レベルは、ASIL Bでもよい。一部の実例では、RADARセンサ1160は、未加工のデータにアクセスするためのイーサネット(登録商標)へのアクセスを用いて、制御のために及び物体追跡データにアクセスするために(たとえば、RADARセンサ1160によって生成されたデータを送信するために)CAN及び/又はバス1102を使用することができる。多種多様なRADARセンサ・タイプが、使用され得る。たとえば、そして制限なしに、RADARセンサ1160は、前部、後部、及び側部RADAR使用に適し得る。一部の実例では、パルス・ドップラーRADARセンサが使用される。
【0169】
RADARセンサ1160は、狭い視野を有する長距離、広い視野を有する短距離、短距離側部カバレッジなど、異なる構成を含み得る。いくつかの実例では、長距離RADARは、適応クルーズ制御機能のために使用され得る。長距離RADARシステムは、250mの範囲内など、2個以上の独立したスキャンによって実現される広い視野を提供することができる。RADARセンサ1160は、静的物体と動く物体との区別を助けることができ、緊急ブレーキ・アシスト及び前方衝突警報のためのADASシステムによって使用され得る。長距離RADARセンサは、複数の(たとえば、6つ以上の)固定RADARアンテナと高速CAN及びFlexRayインターフェースとを有するモノスタティック・マルチモーダルRADARを含み得る。6つのアンテナを有する一実例では、中央の4個のアンテナは、隣接レーン内の交通からの干渉を最小限にして高速で車両1100の周囲を記録するように設計された、集束ビーム・パターンを作成し得る。他の2個のアンテナは、視野を広げることができ、車両1100のレーンに入る又はこれを去る車両を迅速に検出することを可能にする。
【0170】
一実例として、中距離RADARシステムは、1160m(前)又は80m(後)までの範囲、及び42度(前)又は1150度(後)までの視野を含み得る。短距離RADARシステムは、後部バンパの両端に設置されるように設計されたRADARセンサを含み得るが、これに限定されない。後部バンパの両端に設置されるとき、そのようなRADARセンサ・システムは、車両の後ろ及び隣の死角を常に監視する2個のビームを作成することができる。
【0171】
短距離RADARシステムは、死角検出及び/又はレーン変更アシストのためにADASシステムにおいて使用され得る。
【0172】
車両1100は、超音波センサ1162をさらに含み得る。車両1100の前部、後部、及び/又は側部に位置付けられ得る、超音波センサ1162は、駐車アシストのために及び/又は占有グリッドの作成及び更新のために使用され得る。多種多様な超音波センサ1162が使用され得、異なる超音波センサ1162が、異なる範囲の検出(たとえば、2.5m、4m)のために使用され得る。超音波センサ1162は、ASIL Bの機能的安全性レベルにおいて動作することができる。
【0173】
車両1100はLIDARセンサ1164を含み得る。LIDARセンサ1164は、物体及び歩行者検出、緊急ブレーキ、衝突回避、及び/又は他の機能のために使用され得る。LIDARセンサ1164は、機能的安全性レベルASIL Bでもよい。いくつかの実例では、車両1100は、(たとえば、ギガビット・イーサネット(登録商標)・スイッチにデータを提供するために)イーサネット(登録商標)を使用することができる複数の(たとえば、2個、4個、6個などの)LIDARセンサ1164を含み得る。
【0174】
いくつかの実例では、LIDARセンサ1164は、物体及び360度視野のそれらの距離のリストを提供する能力を有し得る。市販のLIDARセンサ1164は、たとえば、2cm~3cmの精度を有し、1100Mbpsイーサネット(登録商標)接続のサポートを有して、約1100mの広告された範囲を有し得る。いくつかの実例では、1つ又は複数の非突出したLIDARセンサ1164が、使用され得る。そのような実例では、LIDARセンサ1164は、車両1100の前部、後部、側部、及び/又は角に組み込まれ得る小さいデバイスとして実装され得る。そのような実例では、LIDARセンサ1164は、低反射物体についても200mの範囲を有し、120度水平及び35度垂直視野まで提供することができる。前部に取り付けられたLIDARセンサ1164は、45度と135度との間の水平視野向けに構成され得る。
【0175】
いくつかの実例では、3DフラッシュLIDARなどのLIDAR技術もまた使用され得る。3DフラッシュLIDARは、約200mまで車両の周囲を照らすために、送信元としてレーザーのフラッシュを使用する。フラッシュLIDARユニットは、車両から物体までの範囲に順番に対応する、レーザー・パルス走行時間及び各画素上の反射光を記録する、レセプタを含む。フラッシュLIDARは、周囲の高精度の及び歪みのない画像があらゆるレーザー・フラッシュで生成されることを可能にし得る。いくつかの実例では、4個のフラッシュLIDARセンサが、車両1100の各側面に1つずつ、配備され得る。利用可能な3DフラッシュLIDARシステムは、送風機以外に動く部分を有さないソリッドステート3Dステアリング・アレイLIDARカメラ(たとえば、非スキャン型LIDARデバイス)を含む。フラッシュLIDARデバイスは、1フレームにつき5ナノ秒クラスI(目に安全な)レーザー・パルスを使用することができ、3D範囲点群及び共記載された強度データの形で反射レーザー光をキャプチャし得る。フラッシュLIDARを使用することによって、また、フラッシュLIDARは、動く部分を有さないソリッドステート・デバイスであるので、LIDARセンサ1164は、モーション・ブラー、振動、及び/又は衝撃の影響を受けにくくなり得る。
【0176】
車両は、IMUセンサ1166をさらに含み得る。一部の実例では、IMUセンサ1166は、車両1100の後部車軸の中央に位置付けられ得る。IMUセンサ1166は、たとえば、加速度計、磁力計、ジャイロスコープ、磁気コンパス、及び/又は他のセンサ・タイプを含み得るが、これらに限定されない。いくつかの実例では、6軸アプリケーションなどにおいて、IMUセンサ1166は、加速度計及びジャイロスコープを含み得るが、9軸アプリケーションにおいて、IMUセンサ1166は、加速度計、ジャイロスコープ、及び磁力計を含み得る。
【0177】
一部の実施例では、IMUセンサ1166は、マイクロ電気機械システム(MEMS:micro-electro-mechanical system)慣性センサ、高感度GPSレシーバ、及び高度カルマン・フィルタリング・アルゴリズムを結合して位置、ベロシティ、及び姿勢の推定値を提供するミニチュア、高性能GPS支援型慣性航行システム(GPS/INS:GPS-Aided Inertial Navigation System)として実装され得る。そのようなものとして、一部の実例では、IMUセンサ1166は、GPSからIMUセンサ1166までのベロシティの変化を直接観測すること及び関連付けることによって、磁気センサからの入力を必要とせずに進行方向を車両1100が推定することを可能にし得る。いくつかの実例では、IMUセンサ1166及びGNSSセンサ1158は、単一の統合されたユニットにおいて結合され得る。
【0178】
車両は、車両1100内及び/又は周囲に置かれたマイクロフォン1196を含み得る。マイクロフォン1196は、中でも、緊急車両検出及び識別のために使用され得る。
【0179】
車両は、ステレオ・カメラ1168、ワイドビュー・カメラ1170、赤外線カメラ1172、サラウンド・カメラ1174、長距離及び/又は中距離カメラ1198、及び/又は他のカメラ・タイプを含む、任意の数のカメラ・タイプをさらに含み得る。カメラは、車両1100の全外面の周りの画像データをキャプチャするために使用され得る。使用されるカメラのタイプは、車両1100の実施例及び要件に応じて決まり、任意の組合せのカメラ・タイプが、車両1100の周りの必要なカバレッジを実現するために使用され得る。加えて、カメラの数は、実施例に応じて異なり得る。たとえば、車両は、6個のカメラ、7個のカメラ、10個のカメラ、12個のカメラ、及び/又は別の数のカメラを含み得る。カメラは、一実例として、ギガビット・マルチメディア・シリアル・リンク(GMSL:Gigabit Multimedia Serial Link)及び/又はギガビット・イーサネット(登録商標)をサポートし得るが、これに限定されない。それぞれのカメラは、
図11A及び
図11Bに関連して本明細書においてさらに詳しく説明される。
【0180】
車両1100は、振動センサ1142をさらに含み得る。振動センサ1142は、車軸など、車両の構成要素の振動を測定することができる。たとえば、振動の変化は、道路の表面の変化を示し得る。別の実例では、2個以上の振動センサ1142が使用されるとき、振動の差は、道路表面の摩擦又は滑りを判定するために使用され得る(たとえば、振動の差が電力駆動車軸と自由回転車軸との間であるとき)。
【0181】
車両1100は、ADASシステム1138を含み得る。一部の実例では、ADASシステム1138は、SoCを含み得る。ADASシステム1138は、自律/適応/自動クルーズ制御(ACC:autonomous/adaptive/automatic cruise control)、共同適応クルーズ制御(CACC:cooperative adaptive cruise control)、前方衝突警報(FCW:forward crash warning)、自動緊急ブレーキ(AEB:automatic emergency braking)、車線逸脱警報(LDW:lane departure warning)、レーン・キープ・アシスト(LKA:lane keep assist)、死角警報(BSW:blind spot warning)、後部交差交通警報(RCTW:rear cross-traffic warning)、衝突警報システム(CWS:collision warning system)、レーン・センタリング(LC:lane centering)、及び/又は他の特徴及び機能を含み得る。
【0182】
ACCシステムは、RADARセンサ1160、LIDARセンサ1164、及び/又はカメラを使用し得る。ACCシステムは、縦ACC及び/又は横ACCを含み得る。縦ACCは、車両1100の直ぐ前の車両までの距離を監視及び制御し、前方の車両からの安全距離を維持するために車両速度を自動的に調整する。横ACCは、距離の保持を実行し、必要なときにレーンを変更するように車両1100にアドバイスする。横ACCは、LCA及びCWSなどの他のADASアプリケーションに関連する。
【0183】
CACCは、ワイヤレス・リンクを介して他の車両からネットワーク・インターフェース1124及び/又はワイヤレス・アンテナ1126を介して、或いは間接的にネットワーク接続を介して(たとえば、インターネットを介して)、受信することができる、他の車両からの情報を使用する。直接リンクは、車両対車両(V2V:vehicle-to-vehicle)通信リンクによって提供され得、一方、間接リンクは、インフラストラクチャ対車両(I2V:infrastructure-to-vehicle)通信リンクでもよい。一般に、V2V通信概念は、直前の車両(たとえば、車両1100と同じレーン内にある、車両1100の直ぐ前の車両)に関する情報を提供し、一方、I2V通信概念は、さらに前の交通に関する情報を提供する。CACCシステムは、I2V情報ソースとV2V情報ソースとのいずれか又は両方を含み得る。車両1100の前方の車両の情報を所与として、CACCは、より高信頼になり得、CACCは、交通の流れをよりスムーズにし、道路の渋滞を減らす可能性を有する。
【0184】
運転者が修正行動を取ることができるように、FCWシステムは、危険を運転者に警告するように設計される。FCWシステムは、ディスプレイ、スピーカ、及び/又は振動部品など、運転者フィードバックに電気的に連結された、専用のプロセッサ、DSP、FPGA、及び/又はASICに連結された、前向きのカメラ及び/又はRADARセンサ1160を使用する。FCWシステムは、音響、視覚的警報、振動及び/又はクイック・ブレーキ・パルスなどの形で、警報を提供することができる。
【0185】
AEBシステムは、別の車両又は他の物体との差し迫った前方衝突を検出し、運転者が指定された時間又は距離パラメータ内に修正行動を取らない場合に、ブレーキを自動的に適用することができる。AEBシステムは、専用のプロセッサ、DSP、FPGA、及び/又はASICに連結された、前向きのカメラ及び/又はRADARセンサ1160を使用することができる。AEBシステムが危険を検出するとき、AEBシステムは通常は、先ず、衝突を回避するための修正行動を取るように運転者に警告し、運転者が修正行動を取らない場合、AEBシステムは、予測される衝突の影響を防ぐ、又は少なくとも軽減するための努力の一環としてブレーキを自動的に適用することができる。AEBシステムは、ダイナミック・ブレーキ・サポート及び/又は衝突切迫ブレーキなどの技法を含み得る。
【0186】
LDWシステムは、ハンドル又はシートの振動など、視覚的、可聴式、及び/又は触覚的警報を提供して、車両1100が車線区分線を越えたときに運転者に警告する。LDWシステムは、運転者が、方向指示器を起動することによって、意図的な車線逸脱を指示するときには、起動しない。LDWシステムは、ディスプレイ、スピーカ、及び/又は振動部品など、運転者フィードバックに電気的に連結された、専用のプロセッサ、DSP、FPGA、及び/又はASICに連結された、前側を向いたカメラを使用することができる。
【0187】
LKAシステムは、LDWシステムの変更形態である。LKAシステムは、車両1100が車線をはみ出し始めた場合に車両1100を修正するためにステアリング入力又はブレーキを提供する。
【0188】
BSWシステムは、自動車の死角において車両の運転者に検出及び警告する。BSWシステムは、合流又はレーンの変更が安全ではないことを指示するために視覚的、可聴式、及び/又は触覚的警告を提供することができる。システムは、運転者が方向指示器を使用するときに、付加的警告を提供することができる。BSWシステムは、運転者フィードバック、たとえば、ディスプレイ、スピーカ、及び/又は振動部品、に電気的に結合された、専用プロセッサ、DSP、FPGA、及び/又はASICに結合された、後ろ側を向いたカメラ及び/又はRADARセンサを使用することができる。
【0189】
RCTWシステムは、車両1100がバックしているときにリアカメラの範囲外で物体が検出されたときに、視覚的、可聴式、及び/又は触覚的通知を提供することができる。いくつかのRCTWシステムは、衝突を回避するために車両ブレーキが適用されることを確実にするために、AEBを含む。RCTWシステムは、運転者フィードバック、たとえば、ディスプレイ、スピーカ、及び/又は振動部品、に電気的に連結された、専用プロセッサ、DSP、FPGA、及び/又はASICに連結された、1つ又は複数の後ろを向いたRADARセンサ1160を使用することができる。
【0190】
従来のADASシステムは、運転者に警告し、安全状態が本当に存在するかどうかを運転者が判定し、それに応じて行動することを可能にするので、従来のADASシステムは、通常は壊滅的ではないが、運転者を悩ませている及び気を散らせていることがある誤判定結果を生み出す傾向にあることがあった。しかしながら、自律型車両1100では、結果が矛盾する場合には、車両1100自体が、1次的コンピュータ又は2次的コンピュータ(たとえば、第1のコントローラ1136又は第2のコントローラ1136)からの結果を聞き入れるかどうかを決定しなければならない。たとえば、一部の実施例では、ADASシステム1138は、知覚情報をバックアップ・コンピュータ合理性モジュールに提供するためのバックアップ及び/又は2次的コンピュータでもよい。バックアップ・コンピュータ合理性モニタは、ハードウェア構成要素で冗長な多様なソフトウェアを実行して、知覚及び動的運転タスクにおいて障害を検出することができる。ADASシステム1138からの出力は、監督MCUに提供され得る。1次的コンピュータ及び2次的コンピュータからの出力が矛盾する場合、監督MCUは、安全な動作を確実にするためにその矛盾をどのように調整するかを決定する必要がある。
【0191】
いくつかの実例では、1次的コンピュータは、選択された結果における1次的コンピュータの信頼性を指示する、信頼性スコアを監督MCUに提供するように構成され得る。信頼性スコアが閾値を超えた場合、監督MCUは、2次的コンピュータが矛盾する又は不整合の結果を与えるかどうかにかかわらず、1次的コンピュータの指示に従い得る。信頼性スコアが閾値を満たさない場合、及び1次的及び2次的コンピュータが異なる結果を示す(たとえば、矛盾する)場合、監督MCUは、コンピュータの間で調停して適切な結果を決定することができる。
【0192】
監督MCUは、2次的コンピュータが誤ったアラームを提供する状態を、1次的コンピュータ及び2次的コンピュータからの出力に基づいて、判定するようにトレーニング及び構成されたニューラル・ネットワークを実行するように構成され得る。したがって、監督MCU内のニューラル・ネットワークは、2次的コンピュータの出力が信頼され得るとき、及びそれが信頼され得ないときを学習することができる。たとえば、2次的コンピュータがRADARベースのFCWシステムであるとき、監督MCU内のニューラル・ネットワークは、アラームをトリガする下水溝の鉄格子又はマンホールの蓋など、実際には危険ではない金属製の物をいつFCWが識別しているかを学習することができる。同様に、2次的コンピュータがカメラベースのLDWシステムであるとき、監督MCU内のニューラル・ネットワークは、自転車に乗った人又は歩行者が存在し、車線逸脱が、実際には、最も安全な操作であるときに、LDWを無視することを学習することができる。監督MCU上で実行中のニューラル・ネットワークを含む実施例では、監督MCUは、関連メモリを有するニューラル・ネットワークを実行するのに適したDLA又はGPUのうちの少なくとも1つを含み得る。好ましい実施例において、監督MCUは、SoC1104の構成要素を備え得る、及び/又はSoC1104の構成要素として含まれ得る。
【0193】
他の実例において、ADASシステム1138は、コンピュータ・ビジョンの従来のルールを使用するADAS機能を実行する2次的コンピュータを含み得る。そのようなものとして、2次的コンピュータは、古典的コンピュータ・ビジョン・ルール(if-then)を使用することができ、監督MCU内のニューラル・ネットワークの存在は、信頼性、安全性及び性能を向上させることができる。たとえば、多様な実装形態及び意図的な非同一性は、特にソフトウェア(又はソフトウェア-ハードウェア・インターフェース)機能によって引き起こされる障害に対して、システム全体をよりフォールトトレラントにする。たとえば、1次的コンピュータで実行中のソフトウェア内にソフトウェア・バグ又はエラーが存在し、2次的コンピュータで実行中の同一でないソフトウェア・コードが同じ総合的結果を提供する場合、監督MCUは、総合的結果は正しく、1次的コンピュータ上のソフトウェア又はハードウェア内のバグは重大なエラーを引き起こしていないというより大きな確信を有し得る。
【0194】
いくつかの実例では、ADASシステム1138の出力は、1次的コンピュータの知覚ブロック及び/又は1次的コンピュータの動的運転タスク・ブロックに供給され得る。たとえば、ADASシステム1138が、直ぐ前の物体が原因で、前方衝突警報を示した場合、知覚ブロックは、物体を識別するときに、この情報を使用することができる。他の実例において、2次的コンピュータは、本明細書に記載のように、トレーニングされ、それ故に誤判定のリスクを減らす、独自のニューラル・ネットワークを有し得る。
【0195】
車両1100は、インフォテインメントSoC1130(たとえば、車両内のインフォテインメント・システム(IVI:in-vehicle infotainment system))をさらに含み得る。SoCとして図示及び記述されているが、インフォテインメント・システムは、SoCでなくてもよく、2個以上の個別の構成要素を含み得る。インフォテインメントSoC1130は、オーディオ(たとえば、音楽、携帯情報端末、ナビゲーション命令、ニュース、無線など)、ビデオ(たとえば、TV、映画、ストリーミングなど)、電話(たとえば、ハンズフリー通話)、ネットワーク接続(たとえば、LTE、Wi-Fiなど)、及び/又は情報サービス(たとえば、ナビゲーション・システム、後方駐車支援、無線データシステム、燃料レベル、総移動距離、ブレーキ燃料レベル、オイル・レベル、ドアを開ける/閉じる、エア・フィルタ情報などの車両関連情報)を車両1100に提供するために使用され得るハードウェア及びソフトウェアの組合せを含み得る。たとえば、インフォテインメントSoC1130は、無線、ディスク・プレイヤ、ナビゲーション・システム、ビデオ・プレイヤ、USB及びブルートゥース(登録商標)接続、カーピュータ、車内エンターテインメント、Wi-Fi、ハンドル・オーディオ制御装置、ハンズ・フリー音声制御、ヘッドアップ・ディスプレイ(HUD:heads-up display)、HMIディスプレイ1134、テレマティックス・デバイス、制御パネル(たとえば、様々な構成要素、特徴、及び/又はシステムを制御する及び/又はこれと相互に作用するための)、及び/又は他の構成要素でもよい。インフォテインメントSoC1130は、ADASシステム1138からの情報、計画された車両操作などの自律運転情報、軌道、周囲環境情報(たとえば、交差点情報、車両情報、道路情報など)、及び/又は他の情報など、車両のユーザへの情報(たとえば、視覚的及び/又は可聴式の)を提供するためにさらに使用され得る。
【0196】
インフォテインメントSoC1130は、GPU機能性を含み得る。インフォテインメントSoC1130は、バス1102(たとえば、CANバス、イーサネット(登録商標)など)を介して、車両1100の他のデバイス、システム、及び/又は構成要素と通信することができる。いくつかの実例では、インフォテインメント・システムのGPUが、1次的コントローラ1136(たとえば、車両1100の1次的及び/又はバックアップ・コンピュータ)が故障した場合に、いくつかのセルフドライブ機能を実行することができるように、インフォテインメントSoC1130は、監督MCUに連結され得る。そのような実例では、インフォテインメントSoC1130は、本明細書に記載のように、車両1100をショーファーの安全停止モードにすることができる。
【0197】
車両1100は、計器群1132(たとえば、デジタル・ダッシュ、電子計器群、デジタル計器パネルなど)をさらに含み得る。計器群1132は、コントローラ及び/又はスーパーコンピュータ(たとえば、個別のコントローラ又はスーパーコンピュータ)を含み得る。計器群1132は、スピードメーター、燃料レベル、油圧、タコメーター、オドメーター、方向指示器、ギアシフト位置インジケータ、シート・ベルト警告灯、パーキングブレーキ警告灯、エンジン故障灯、エアバッグ(SRS)システム情報、照明制御装置、安全システム制御装置、ナビゲーション情報など、1セットの器具類を含み得る。いくつかの実例では、情報は、インフォテインメントSoC1130及び計器群1132の間で表示及び/又は共有され得る。言い換えれば、計器群1132は、インフォテインメントSoC1130の一部として含まれてもよく、逆もまた同様である。
【0198】
図11Dは、本開示のいくつかの実施例による、
図11Aのクラウドベースのサーバと例示的自律型車両1100との間の通信のシステム図である。システム1176は、サーバ1178、ネットワーク1190、及び、車両1100を含む車両を含み得る。サーバ1178は、複数のGPU1184(A)~1184(H)(本明細書でGPU1184と総称される)、PCIeスイッチ1182(A)~1182(H)(本明細書でPCIeスイッチ1182と総称される)、及び/又はCPU1180(A)~1180(B)(本明細書でCPU1180と総称される)を含み得る。GPU1184、CPU1180、及びPCIeスイッチは、たとえば、NVIDIAによって開発されたNVLinkインターフェース1188及び/又はPCIe接続1186などの、これらに限定されない、高速相互接続で相互に接続され得る。いくつかの実例では、GPU1184は、NVLink及び/又はNVSwitch SoCを介して接続され、GPU1184及びPCIeスイッチ1182は、PCIe相互接続を介して接続される。8個のGPU1184、2個のCPU1180、及び2個のPCIeスイッチが図示されているが、これは制限を意図されていない。実施例に応じて、それぞれのサーバ1178は、任意の数のGPU1184、CPU1180、及び/又はPCIeスイッチを含み得る。たとえば、サーバ1178は、それぞれ、8個、16個、32個、及び/又はそれ以上のGPU1184を含み得る。
【0199】
サーバ1178は、最近開始された道路工事など、予想外の又は変更された道路状態を示す画像を表す画像データを、ネットワーク1190を介して、車両から、受信することができる。サーバ1178は、ニューラル・ネットワーク1192、更新されたニューラル・ネットワーク1192、及び/又は、交通及び道路状態に関する情報を含むマップ情報1194をネットワーク1190を介して車両に送信することができる。マップ情報1194の更新は、建設現場、くぼみ、迂回路、洪水、及び/又は他の障害物に関する情報など、HDマップ1122の更新を含み得る。いくつかの実例では、ニューラル・ネットワーク1192、更新されたニューラル・ネットワーク1192、及び/又はマップ情報1194は、環境において任意の数の車両から受信されたデータにおいて表された新しいトレーニング及び/又は経験から、及び/又は(たとえば、サーバ1178及び/又は他のサーバを使用する)データ・センタにおいて実行されたトレーニングに基づいて、生じた可能性がある。
【0200】
サーバ1178は、トレーニング・データに基づいてマシン学習モデル(たとえば、ニューラル・ネットワーク)をトレーニングするために使用され得る。トレーニング・データは、車両によって生成され得る、及び/又は(たとえば、ゲーム・エンジンを使用して)シミュレーションにおいて生成され得る。いくつかの実例では、トレーニング・データは、タグ付けされる(たとえば、ニューラル・ネットワークが、監督された学習の恩恵を受ける場合)及び/又は他の事前処理を受けるが、他の実例において、トレーニング・データは、タグ付け及び/又は事前処理されない(たとえば、ニューラル・ネットワークが、監督された学習を必要としない場合)。トレーニングは、たとえば以下のクラスを含むがこれらに限定されない、任意の1つ又は複数のクラスのマシン学習技法に従って、実行され得る:監視されたトレーニング、半監視されたトレーニング、監視されていないトレーニング、自己学習、強化学習、連合型学習、転移学習、特徴学習(主要構成要素及びクラスタ分析を含む)、マルチ線形部分空間学習、多様体学習、表現学習(予備辞書学習を含む)、ルールに基づくマシン学習、異常検出、及びそれらの変更形態若しくは組合せ。マシン学習モデルがトレーシングされた後は、マシン学習モデルは、車両によって使用され得(たとえば、ネットワーク1190を介して車両に送信される)、及び/又は、マシン学習モデルは、車両を遠隔監視するために、サーバ1178によって使用され得る。
【0201】
いくつかの実例では、サーバ1178は、車両からデータを受信し、リアルタイムのインテリジェント推論のために最新のリアルタイムのニューラル・ネットワークにデータを適用することができる。サーバ1178は、NVIDIAによって開発されたDGX及びDGXステーション・マシンなど、GPU1184によって電力供給される深層学習スーパーコンピュータ及び/又は専用のAIコンピュータを含み得る。しかしながら、一部の実例では、サーバ1178は、CPU電源式データ・センタのみを使用する深層学習インフラストラクチャを含み得る。
【0202】
サーバ1178の深層学習インフラストラクチャは、高速のリアルタイム推論の能力を有することでき、その能力を使用して車両1100内のプロセッサ、ソフトウェア、及び/又は関連ハードウェアの調子を評価及び検証することができる。たとえば、深層学習インフラストラクチャは、車両1100がそのシーケンスの画像内に位置したシーケンスの画像及び/又は物体など、車両1100からの定期的更新を受信することができる(たとえば、コンピュータ・ビジョン及び/又は他のマシン学習物体分類技法を介して)。深層学習インフラストラクチャは、物体を識別し、車両1100によって識別された物体とそれらを比較するために、独自のニューラル・ネットワークを実行することができ、結果が一致せず、インフラストラクチャが、車両1100内のAIは正常に機能していないという結論を下した場合、サーバ1178は、制御を推測し、乗客に通知し、安全な駐車操作を完了するように車両1100のフェイルセーフ・コンピュータに命じる車両1100への信号を送信することができる。
【0203】
推論のために、サーバ1178は、GPU1184及び1つ又は複数のプログラマブル推論加速装置(たとえば、NVIDIAのTensorRT)を含み得る。GPU電源式サーバ及び推論加速の組合せは、リアルタイムの反応性を可能にすることができる。パフォーマンスがさほど必要とされない場合など、他の実例では、CPU、FPGA、及び他のプロセッサによって電力供給されるサーバが、推論のために使用され得る。
【0204】
本開示は、コンピュータ又は、携帯情報端末若しくは他のハンドヘルド・デバイスなどの、他のマシンによって実行されている、プログラム・モジュールなどのコンピュータ実行可能命令を含む、コンピュータ・コード又はマシン使用可能命令との一般的関連において説明されることがある。一般に、ルーティン、プログラム、オブジェクト、構成要素、データ構造体などを含むプログラム・モジュールは、特定のタスクを実行する又は特定の抽象データ・タイプを実装するコードを指す。本開示は、ハンドヘルド・デバイス、家電製品、汎用コンピュータ、より特殊な計算デバイスなどを含む、様々な構成で実施され得る。本開示はまた、通信ネットワークを介してリンクされた遠隔処理デバイスによってタスクが実行される分散型コンピューティング環境において実施され得る。
【0205】
本明細書では、2個以上の要素に関する「及び/又は」の記述は、1つの要素のみ、又は要素の組合せを意味すると解釈されるべきである。たとえば、「要素A、要素B、及び/又は要素C」は、要素Aのみ、要素Bのみ、要素Cのみ、要素A及び要素B、要素A及び要素C、要素B及び要素C、或いは、要素A、B、及びCを含み得る。加えて、「要素A又は要素Bのうちの少なくとも1つ」は、要素Aの少なくとも1つ、要素Bの少なくとも1つ、或いは、要素Aの少なくとも1つ及び要素Bの少なくとも1つを含み得る。さらに、「要素A及び要素Bのうちの少なくとも1つ」は、要素Aのうちの少なくとも1つ、要素Bのうちの少なくとも1つ、或いは、要素Aのうちの少なくとも1つ及び要素Bのうちの少なくとも1つを含み得る。
【0206】
本開示の主題は、法定の要件を満たすために特異性を有して記述されている。しかしながら、その記述自体が本開示の範囲を制限することは意図されていない。そうではなくて、本発明者は、請求されている主題が、他の現在の又は未来の技術と併せて、異なるステップ又は本文書に記載されたものと類似のステップの組合せを含むように、他の形で実施され得ることを意図している。さらに、「ステップ」及び/又は「ブロック」という用語は、使用される方法の異なる要素を含意するように本明細書で使用され得るが、これらの用語は、個別のステップの順番が明示的に記載されていない限り及びそのように記載されているときを除いて本明細書で開示される様々なステップの間に何らかの特定の順番を暗示するものとして解釈されるべきではない。
【外国語明細書】