IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ レール ビジョン リミテッドの特許一覧

特開2023-78204複数計算における高スループットのためのシステムおよび方法
<>
  • 特開-複数計算における高スループットのためのシステムおよび方法 図1
  • 特開-複数計算における高スループットのためのシステムおよび方法 図2
  • 特開-複数計算における高スループットのためのシステムおよび方法 図3A
  • 特開-複数計算における高スループットのためのシステムおよび方法 図3B
  • 特開-複数計算における高スループットのためのシステムおよび方法 図3C
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023078204
(43)【公開日】2023-06-06
(54)【発明の名称】複数計算における高スループットのためのシステムおよび方法
(51)【国際特許分類】
   G06F 12/0875 20160101AFI20230530BHJP
   G06F 12/0806 20160101ALI20230530BHJP
   G06F 9/38 20180101ALI20230530BHJP
   G06F 13/38 20060101ALI20230530BHJP
【FI】
G06F12/0875 106
G06F12/0806 100
G06F9/38 370X
G06F13/38 340C
【審査請求】有
【請求項の数】7
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2023033382
(22)【出願日】2023-03-06
(62)【分割の表示】P 2020512508の分割
【原出願日】2018-08-30
(31)【優先権主張番号】62/552,475
(32)【優先日】2017-08-31
(33)【優先権主張国・地域又は機関】US
(71)【出願人】
【識別番号】516291125
【氏名又は名称】レール ビジョン リミテッド
【氏名又は名称原語表記】RAIL VISION LTD
(74)【代理人】
【識別番号】100120891
【弁理士】
【氏名又は名称】林 一好
(74)【代理人】
【識別番号】100165157
【弁理士】
【氏名又は名称】芝 哲央
(74)【代理人】
【識別番号】100205659
【弁理士】
【氏名又は名称】齋藤 拓也
(74)【代理人】
【識別番号】100126000
【弁理士】
【氏名又は名称】岩池 満
(74)【代理人】
【識別番号】100185269
【弁理士】
【氏名又は名称】小菅 一弘
(72)【発明者】
【氏名】ハニア シャハール
(72)【発明者】
【氏名】ゼルツァー ハナン
(57)【要約】      (修正有)
【課題】ビデオストリームのような大量のデータを処理するスループットを強化する装置、回路および方法を提供する。
【解決手段】GPUユニット内のストリーミングマルチプロセッサ200において、プロセッサのレジスタファイルユニット220は、プロセッシングコアユニット(PCU)210が処理したデータを、そのデータを使用する頻度のレベルに応じて、さらにデータを受信することができる限り、シェアドメモリ240に仕向ける。頻繁に使用されるデータブロックが、プロセッサの高速RAMに記憶される。受信したデータのストリームは、複数のデータ部分に分割され、GPUのストリーミングマルチプロセッサに同時に転送され、ストリーム全体がロードされる前に、同時に処理される。
【選択図】図2
【特許請求の範囲】
【請求項1】
プロセッシングコアユニット(PCU)(210)、レジスタファイルユニット(220)、複数のキャッシュユニット(230)、シェアドメモリユニット(240)、統合されたキャッシュユニット(250)、およびインタフェースユニット(260)を備えたストリーミングマルチプロセッサユニット(200)を介してグラフィックデータソースとグラフィックプロセッシングユニット(GPU)との間で交換されるグラフィックデータスループットを強化する方法において、前記方法は、
インタフェースキャッシュユニット(256)を介して、および前記複数のキャッシュユニット(230)を介して、および前記統合されたキャッシュユニット(250)を介してグラフィックデータのストリームを前記レジスタファイルユニット(220)へ転送するステップと、
前記レジスタファイルユニットから前記プロセッシングコアユニット(PCU)へグラフィックデータの第2のストリームを転送するステップと、
レジスタファイルユニット(220)を介して、頻繁に使用されるデータ部分をシェアドメモリ(240)に記憶し、および受信するステップと、
を備えた、方法。
【請求項2】
前記レジスタファイルユニットは、前記PCUにより処理されたデータをそのデータの使用頻度のレベルに基づいて、より多くのデータを記憶することができる限り、前記シェアドメモリへ仕向けるように構成される、請求項1に記載の方法。
【請求項3】
前記使用頻度のレベルは、前記PCUにより決定される、請求項2に記載の方法。
【請求項4】
グラフィックデータスループットを強化するストリーミングマルチプロセッサユニット(200)において、
グラフィックデータを処理するように構成されたプロセッシングコアユニット(PCU)(200)と、
前記PCUからのグラフィックデータを供給し、前記PCUからの処理されたグラフィックデータを受信し一時的に記憶するように構成されたレジスタファイルユニット(220)と、
前記レジスタファイルユニットからのグラフィックデータを供給し、前記レジスタファイルユニットからの処理されたグラフィックデータを受信し、一時的に記憶するように構成された複数のキャッシュユニット(230)と、
前記レジスタファイルユニットからのグラフィックデータを供給し、前記レジスタファイルユニットから処理されたグラフィックデータを受信して一時的に記憶するように構成されたシェアドメモリユニット(240)と、
前記レジスタファイルユニットからグラフィックデータを供給し、前記レジスタファイルユニットから処理したグラフィックデータを受信して一時記憶するように構成される統合されたキャッシュユニット(250)と、
高速でグラフィック処理のためのグラフィックデータを受信し、前記グラフィックデータをシェアドメモリユニットと統合されたキャッシュユニットの少なくとも1つに供給し、前記統合されたキャッシュユニットから処理されたグラフィックデータを受信し、処理されたグラフィックデータを外部処理ユニットへ供給するように構成されたインタフェースキャッシュユニット(260)と、を備えた、ストリーミングマルチプロセッサユニット(200)。
【請求項5】
前記グラフィックデータエレメントの少なくともいくつかは、前記PCUによるそれらのクローズコール(close call)の確率に関連づけられた優先度に基づいて、前記PCUによる処理の前に、および/または後に、前記シェアドメモリに記憶される、請求項4に記載のストリーミングマルチプロセッサユニット。、
【請求項6】
前記優先度は、前記確率が高くなるにつれ高くなる、請求項5に記載のストリーミングマルチプロセッサ。
【請求項7】
データのストリームを受信するように構成され、前記データのストリームを、データの部分に分割し、前記部分の各々を、複数の先入れ先出し(FIFO)レジスタの1つを通過させるように構成された、複数の前記FIFOレジスタを備えたアレイと、
前記データ部分を受信するように構成された、第1のアドバンスト・イクステンシブル・インタフェース(AXI)ユニットと、
を備えたデータ・ストリーム・デバイダ・ユニット(DSDU)(304)と、
前記第1のAXIユニットからデータ部分を受信するように構成された、第2のアドバンスト・イクステンシブル・インタフェース(AXI)ユニットと、
それぞれのFIFOレジスタから各データ部分を受信するように構成され、前記受信したデータ部分を処理するように構成された、複数のストリーミングマルチプロセッサ(SM)と、
を備えたグラフィックプロセッシングユニット(GPU)と、
を備えた未処理データを処理する回路。
【請求項8】
前記DSDU内のFIFOレジスタは、前記DSDU内の、割り当てられた第1のAXIユニットと、前記GPU内の、割り当てられた第2のAXIユニットを介して前記GPU内の、割り当てられたSMに接続される、請求項7に記載の回路。
【請求項9】
前記DSDU内の、前記FIFOレジスタの各々は、前記DSDU内の、第2の共通AXIユニット、および前記GPU内の、共通AXIユニットを介して、前記GPU内の、割り当てられたSMに接続される、請求項7に記載の回路。
【請求項10】
未処理データのストリームを受信するステップと、
前記データを複数のデータ部分に分割するステップと、
データストリームデバイダユニット(DSDU)の特定のFIFOレジスタを介して各データ部分を通過させるステップと、
前記特定のFIFOレジスタからのデータ部分を、処理のためにグラフィックプロセッサユニット(GPU)内の、割り当てられたストリーミングマルチプロセッサ(SM)に転送するステップと、
を備えた大容量のデータを効率的に処理する方法。
【請求項11】
前記データ部分は、前記DSU内の、第1のアドバンスト・イクステンシブル・インタフェース(AXI)ユニットと、前記GPU内の、第2のアドバンスト・イクステンシブル・インタフェース(AXI)ユニットを介して転送される、請求項10に記載の方法。
【請求項12】
特定のFIFOレジスタから受信したデータ部分は、前記DSDU内の、割り当てられた第1のAXIユニットと、前記GPU内の、割り当てられた第2のAXIユニットを介して前記GPU内の、割り当てられたSMに転送される、請求項11に記載の方法。
【請求項13】
FIFOレジスタから受信した前記データ部分の各々は、前記DSDU内の、共通の第1のAXIユニットと、前記GPU内の、共通の第2のAXIユニットを介して、前記GPU内の、前記割り当てられたSMに転送される、請求項11に記載の方法。

【発明の詳細な説明】
【技術分野】
【0001】
膨大の量のグラフィックデータおよび計算を操作/処理するのに適したコンピューティングシステムは、典型的に、中央処理装置(CPU)は別として、必要なデータを操作し、処理するために適合および指定された、GPU、GPGPU、DSP、SIMDベースプロセッシングユニット、VLIWベース処理ユニットを備える。そのような計算システムの構造は、この分野においてよく知られている。この構造は、典型的にCPUとMPUとの間で計算タスクを分割するので、重たい計算は、MPUに割り当てられ、残りの計算タスクは、CPUが操作するように残される。
【0002】
しかしながら、よく知られた構造は、大量の図形データが含まれる場合、CPUとMPUとの間で双方向に(back-and-forth)図形データの転送を管理するのに必要な大量のハンドリングリソースにより、効率が低下する。いくつかの場合、CPU-MPU計算構造におけるデータ計算に使用可能なネット時間は、5%未満の可能性がある。たとえば、Nvidia(登録商標)コンピューティング・ユニファイド・デバイス・アーキテクチャ(Computing Unified Device Architecture)(CUDA)並列コンピューティングプラットフォームと、アプリケーションプログラミングインターフェイスモデルの場合、グラフィックデータの処理に費やされる一般的な時間部分は、CPU環境からGPU環境(CUDAメモリなど)にグラフィックデータを転送する場合49%、グラフィックデータをGPU環境からCPU環境(CUDAメモリ)に返送する場合、47%であり、グラフィック計算の場合には、4%未満である。このような非常に低いグラフィック計算効率は、グラフィックデータが、プロセッサ間で転送される方法を定義する共通の構造から来る。
【0003】
グラフィック計算に割り当てられた時間を、実質的に上昇させる、MPU効率の実質的上昇を可能にする必要性がある。
【発明の概要】
【0004】
ストリーミングマルチプロセッサを介したグラフィックデータソースと、グラフィック処理ユニット(GPU)との間で交換されるグラフィックデータスループットを高める方法が開示される。GPUは、プロセッシングコアユニット(PCU)、レジスタファイルユニット、複数のキャッシュユニット、シェアドメモリユニット、統合キャッシュユニットおよびインタフェースキャッシュユニットを備えることができる。この方法は、インタフェースキャッシュユニットを介して、および複数のキャッシュユニットを介して、および統合されたキャッシュユニットを介して、グラフィックデータのストリームを、レジスタファイルユニットに転送するステップと、レジスタファイルユニットからのグラフィックデータの第2のストリームを、プロセッシングコアユニットに転送するステップと、レジスタファイルユニットを介してデータの頻繁に使用される部分をシェアドメモリに記憶し、受信するステップとを備えることができる。
【0005】
いくつかの実施形態において、レジスタファイルユニットは、PCUにより処理されたデータを、そのデータを使用する頻度のレベルに応じて、さらにデータを受信することができる限り、シェアドメモリに仕向けるように構成される。いくつかの実施形態において、使用する頻度のレベルは、PCUにより決定される。
【0006】
グラフィックデータを処理するように構成されるプロセッシングコアユニット(PCU)と、PCUからグラフィックデータを供給し、PCUからの処理したグラフィックデータを受信して一時的に記憶するように構成された、レジスタファイルユニットと、レジスタファイルユニットからグラフィックデータを供給し、前記レジスタファイルユニットからの処理されたグラフィカルデータを受信し、一時的に記憶するように構成された、複数のキャッシュユニットと、レジスタファイルユニットからグラフィックデータを供給し、レジスタファイルユニットから処理されたグラフィックデータを受信し一時的に記憶するように構成されたシェアドメモリユニットと、レジスタファイルユニットからグラフィックデータを供給し、レジスタファイルユニットからの処理されたグラフィックデータを受信し一時的に記憶するように構成された、統合キャッシュユニットと、そして、高速でグラフィック処理のためのグラフィックデータを受信し、共有メモリユニットと統合キャッシュユニットの少なくとも一方に、グラフィックデータを提供し、統合キャッシュユニットから処理済みグラフィックデータを受信し、 処理されたグラフィックデータを外部処理ユニットに供給する。
【0007】
いくつかの実施形態では、グラフィックデータ要素の少なくともいくつかは、PCUによる近い呼び出し(close call)の確率に関連付けられた優先度に基づいて、共有メモリユニット内のPCUによる処理の前および/または後に格納される。いくつかの実施形態において、優先度は確率が高くなるにつれ高くなる。
【0008】
データストリーム分割ユニット(DSDU)およびグラフィクス処理ユニット(GPU)を備えた、未処理データを処理する回路が開示される。DSDUは、データのストリームを受信し、データの一部に分割し、データの一部の各々を、複数の先入れ先出し(FIFO)レジスタの1つを介して通過させるように構成された、複数のFIFOレジスタと、前記データ部分を受信するように構成された、アドバンス・トイクステンシブル・インタフェース(Advanced Extensible Interface)(AXI)とを備える。GPUは、第1のAXIユニットからデータ部分を受信するように構成された、第2のアドバンスト・イクステンシブル・インタフェース(AXI)ユニットと、それぞれのFIFOレジスタから各データ部分を受信するように構成され、受信したデータ部分を処理する複数のストリーミングマルチプロセッサ(SM)を備える。
【0009】
いくつかの実施形態において、DSDU内の特定のFIFOレジスタは、DSDU内に割り当てられた第1のAXIユニットを介して、およびGPU内に割り当てられた第2のAXIユニットを介して、GPU内に割り当てられたSMに接続される。いくつかの実施形態において、DSDU内のFIFOレジスタの各々は、DSDU内の第1のAXIユニット、およびGPU内の共通AXIユニットを介してGPU内に割り当てられたSMに接続される。
【0010】
未処理データのストリームを受信するステップと、前記ストリームを複数のデータ部分に分割するステップと、各データ部分をデータストリームデバイダユニット(DSDU)内の特定のFIFOレジスタを介して通過させるステップと、前記特定のFIFOレジスタからの前記データ部分を、処理のために、グラフィクスプロセッサユニット(GPU)内に割り当てられたストリーミングマルチプロセッサ(SM)に転送するステップと、を備えた、大量のデータを効率よく処理するための方法が開示される。いくつかの実施形態において、データ部分は、DSDU内の第1の特定のアドバンストイクステンシブルインタフェース(AXI)と、GPU内の第2の特定のアドバンストイクステンシブルインタフェース(AXI)を介して転送される。
【0011】
いくつかの実施形態において、特定のFIFOレジスタから受信したデータ部分は、DSDU内に割当てられた第1のAXIユニットと、GPU内に割り当てられた第2のAXIユニットに転送される。いくつかの実施形態において、DSDU内のFIFOレジスタから受信したデータ部分の各々は、DSDU内の共通の第1のAXIユニット、およびGPU内の共通の第2のAXIユニットを介して、GPUに割り当てられたSMに転送される。この発明としてみなされる主題は、明細書の結論部分で特に指摘され、明確に特許請求の範囲に記載される。しかしながら、この発明は、動作の組織および方法の両方に関して、それらのオブジェクト、特徴および利点と一緒に、添付した図面と共に読むとき以下の詳細な記載によって最もよく理解することができる。
【図面の簡単な説明】
【0012】
図1図1は、GPUを用いたコンピューティングユニットのデータフローを概略的に説明する。
図2図2は、GPUユニット内の典型的なストリーミングマルチプロセッサ(SM)の概略ブロック図である。
図3A図3Aは、この発明の実施形態に従って構成され、動作可能な未処理データ(UPD)処理ユニット(UPDHU)300を描画する概略ブロック図である。
図3B図3Bは、図3AのUPDHU300のような、UPDHUの一実施形態の概略ブロック図である。
図3C図3Cは、図3AのUPDHU300のような、UPDHUの他の実施形態の概略ブロック図である。説明の簡便かつ明瞭さのために、図に示されるエレメントは必ずしも縮尺通りではない。例えば、エレメントのいつかの寸法は、明瞭さのためにエレメントに対して誇張されている可能性がある。さらに、適切に考慮する場合、参照符号は、図面間で対応するまたは類似するエレメントを示すために反復可能である。
【発明を実施するための形態】
【0013】
以下の詳細な記載において、この発明の完全な理解を提供するために、多くの特定の詳細が述べられる。しかしながら、当業者には、この発明は、これらの特定の詳細なしに実施可能であることが理解されるであろう。他のインスタンスにおいて、よく知られた方法、手続およびコンポーネントは、この発明を不明瞭にしないように詳細に記載していない。既知のコンピューティングシステムにおけるCPU-GPU相互動作のボトルネックは、大部分が、CPUによってグラフィック関連データをGPUに仕向け、および処理したグラフィックデータをGPUから受信するのに使用される、データ転送チャネルにある。典型的に、CPUとGPUプロセッサは、標準のコンピューティング環境で動作し通信する。
【0014】
図1を参照すると、GPUを用いてコンピューティングユニット100のデータフローを概略的に説明する。コンピューティングユニット100は、CPU111、CPUダイナミックRAM(DRAM)111A、(メインボードチップセット)のようなコンピューティングユニット周辺制御ユニット112を備える。ユニット100はさらに、ユニット112を介してCPUとデータを通信するGPUユニット150を備える。GPUユニット150は、典型的に、ユニット112とGPUプロセッサとの間でデータをインタフェースするGPU DRAMユニット154、GPU処理ユニットのためのデータをキャッシュするように適合したGPUキャッシュユニット156(例えば、L2キャッシュユニット)、およびGPU処理ユニット158(例えば、ストリーミングマルチプロセッサ/SM)を備える。
【0015】
処理ユニット100に入力され、GPU150により処理されるように意図されるグラフィックデータのフローは、データフロー(DF)の矢印により記載される。第1のデータフローDF1は、コンピューティングユニット100へのデータのフローを描画し、DPU111は、DF2のフローを、周辺制御ユニット(PCU)112を介してDRAM111Aに仕向け、そこから戻って、DF3-PCU112-DF4を介してGPU150に仕向ける。GPU150において、データは、DRAMユニット154を通り、キャッシュユニット156を通って、複数のストリーミングマルチプロセッサ(SMs)ユニット158に到達し、そこで、グラフィック処理が行われる。出来るだけデータフローボトルネックを無くすことは、この発明に従う方法と構造のターゲットである。
【0016】
図2を参照すると、GPUユニット内の典型的ストリーミングマルチプロセッサの概略ブロック図である。SM200は、プロセッシングコアユニット210(コンピュート・ユニファイド・デバイス・アーキテクチャ(CUDA)コアと呼ばれるときもある)と、コア201とキャッシュユニット230(コンスタントキャッシュ)、250(ユニファイドキャッシュ)、およびシェアドメモリ240を備える。SM200に入ってくるデータおよびそこから出ていくデータは、図1のGPUキャッシュユニット256(例えば、キャッシュユニット156(L2))を用いて交換される。グラフィック処理が既知の方法で実行されると、GPUユニットは、処理されるデータ量全体が、グラフィック処理が開始される前にいくつかのSM200ユニットのメモリユニットにロードされるまで待つであろう。
【0017】
データ転送時間を低減する1つの方法は、データ転送を最小に低減することである。例えば、コア210により計算された中間結果は、DRAMに記憶する代わりにレジスタファイル220に記憶することができる。さらに、シェアドメモリ240は、通常行われるようにアウトバウンド(outbound)で循環させる代わりに、SM200内で頻繁に使用されるデータを記憶するために使用することができる。いくつかの実施形態において、使用頻度のレベルは、PCUにより決定される。さらに、コンスタントメモリユニットおよび/またはキャッシュメモリユニットは、SM210で定義することができる。この発明のさらなる実施形態によれば、CPUコンピューティング環境とGPUコンピューティングとの間のデータフローボトルネックは、CPUを、グラフィック関連データをすべて処理するように特に構成されたコンピューティングユニットと置き換えることにより、低減することができるか、または消去することができる。
【0018】
図3Aを参照すると、この発明の実施形態に従って、構成され、動作可能な未処理データ(UPD)ハンドリングユニット(UPDHU)300を描画する概略ブロック図であり、図3Bおよび図3Cは、図3AのUPDHU300のようなUPDHUの2つの異なる実施形態350および380の概略ブロック図である。ここで使用される「未処理データ」という用語は、処理しようとしているデータの大きなストリームに関連し、典型的には、大きな計算容量を必要とし、例えば、仮想的に「リアルタイム」で(すなわち、できるだけ小さい待ち時間で)処理する必要がある、グラフィックデータの高速ストリーム(例えば、4Kビデオカメラから受信された)である。図3Aに描画されるUPDHU300のアーキテクチャは、CPU-GPUの既知のアーキテクチャに典型的な、データストリームの固有のボトルネックを克服するように設計され、データ獲得の入力ストリームは、最初に、CPUにより処理され、次に、一時的にCPUに関連付けられたCPUメモリ、および/またはRAMに記憶され、次に、(例えば、周辺コンポーネント相互接続イクスプレス(PCIe)バスを介して)GPUに再び転送され、GPUの一部である複数のストリーミングプロセッサに送信される前に、GPUプロセッサにより再び処理される。
【0019】
図3Aに関して、ここで記載された例は、アドバンスト・イクステンシブル・インタフェース(AXI)に従って、動作するようにプログラムされたフィールドプログラマブルゲートアレイ(FPGA)の使用を示しているが、当業者には、ここに記載した動作の方法は、それぞれのGPUとインタフェースするように適合し、および高いスループットで、グラフィック関連データを大量に転送するのに適した、他のコンピューティングユニットを用いて具現化することができる。
【0020】
この発明の実施形態によれば、データストリーム・デバイダ・ユニット(DSDU)304は、例えば、大量のストリーミングUPD、例えばカメラからのビデオストリームを受信し、それを複数のより小さなストリームに分散し、GPUのSMsに転送するようにプログラムされた、FPGAを用いて具現化することができる。FPGAとGPUは、さらに、GPUの複数のSMsの、少なくとも1つのSMが完全にロードされるやいなや、GPUが、転送されたグラフィックデータの処理を開始するように動作するようにプログラムすることができる。ほとんどの場合、完全にロードされたSMsは、フルデータファイルよりも小さいデータ量を保持し、それゆえ、GPUによる処理は、この実施形態に従って開始され、データファイル全体がGPUにロードされた後で、処理を開始する一般的に知られている実施形態に比べて、はるかに速い。
【0021】
一例示実施形態において、UPDHU300は、複数の先入れ先出し(FIFO)レジスタ/ストレージユニットアレイ304A(FIFOユニットは、個別に示されていない)を備えたDSDU304を備え、そのうちの1つのFIFOユニットを、GPU320のSMs318の各々に割当てることができる。いくつかの実施形態において、DSDU304により受信されるUPDストリームは、複数のデータユニットに分割され、FIFOユニット304Aを介して、GPU320に転送することができ、AXIインタフェースのようなインタフェースユニットを介して、GPUにブロードキャストすることができ、それにより、各FIFO304Aのデータユニットが、関連するSM318に転送され、それにより、例えば、シングルアクション・マルチデータ(SEVID)コンピューティングを可能にする。GPU320の各(単一でも)SM318は、AXIインタフェースを介して、関連するFIFO304Aから受信した未処理データのそれぞれの部分がロードされるとき、GPU320は、処理を開始することができ、UPDファイル全体がロードされるまで待つ必要はない。
【0022】
MSU310は、長いストリームのグラフィックデータを受信するように構成された、未処理データインタフェースユニット302を備えることができる。インタフェースユニット302を介して受信した大量の未処理データは、より小さなサイズの複数の数のデータユニットに分割され、FIFOユニット304A内の割り当てられたFIFOユニットを介して転送され、次に、AXIチャネル315で、GPU AXIインタフェースを介して、GPU320の割り当てられたSM318に転送される。SMs318のそれぞれのSMにより処理されたデータユニットは、次に、AXI接続を介して、MSUに転送することができる。上記のように、上述した実施形態では、CPU-GPUアーキテクチャにおいて、典型的に大きなオーバヘッドが節約される。
【0023】
図3Bおよび3Cは、この発明の実施形態に従う、図3AのMSU310を具現化する2つのオプションのアーキテクチャの概略ブロック図を描画する。図3Bは、MSU350がFIU356とGPU358を備えることを描画する。FIU356は、複数のFIFOユニット(集合的に356Aと名前が付けられている)-FIFO0、FIFOi・・・FIFOnを備える。各FIFOユニットは、割り当てられたFPGA AXI(F-AXI)ユニット-F-AXI0、F-AXIi・・・F-AXIn(集合的に356Bと名前が付けられている)とアクティブ通信中であり得る。別個のF-AXIユニットの各々は、間接的に、割り当てられたGPU AXI(G-AXI)ユニット-G-AXI0、G-AXIi・・・G-AXInとダイレクトに接続し得る。G-AXIインタフェースユニットの各々は、割り当てられたSM-SM0、SMi・・・SMnとアクティブに接続することができ、データを供給することができる。
【0024】
さらに他の実施形態によれば、図3Cに示すように、MSU380は、FIU386とGPU388を備える。FIU386は、複数のFIFOユニット(集合的に386Aの名前がつけられている)-FIFO0、FIFOi・・・FIFOnを備えることができる。各FIFOユニットは、複数のFIFOユニットから単一のAXIストリームへのデータストリームの管理を制御するように構成することが出来るFPGA AXI(F-AXI)ユニットとアクティブに通信することができる。AXIストリームは、GPU388のAXIインタフェースに送信して、次にそれぞれのSMsユニット-SM0、SMi、・・・SMnに分割することができる。図3Bに描画されるアーキテクチャは、より高速な全体性能を提供することができるが、(記載した回路を具現化する集積回路(IC)のために)より多くのピンと、より多くのワイヤ/導管(conduits)を必要とする場合がある。図3Cに描画される、アーキテクチャは、相対的により遅い全体性能を提供するが、(記載した回路を具現化する集積回路(IC)のために)より少ないピンと、より少ないワイヤ/導管(conduits)しか必要としない。
【0025】
上述した、デバイス、構造、および方法は、既知のアーキテクチャおよび方法に比べて、大量の未処理データの処理を加速することができる。例えば、既知の実施形態において、処理/アルゴリズムがHPU上で開始できる前に、画像全体を転送する必要がある。画像サイズが1GBの場合、GPUへデータを転送するPCI-Eバスの理論上のスループットは、32GB/sであり、待ち時間は、1GB/(32GB/s)=1/32s=31.125ms≒31.3msである。それに反して、この発明の実施形態に従うFPGAを用いると、すべてのSMユニットをフルにロードする必要があるだけである。たとえば、Tesla P100 GPUには、56個のSMユニットがあり、各SMには、32ビット(単精度モード)をサポートする64コアまたは64ビット(拡張精度モード)をサポートする32コアがあるため、完全にロードされたGPUのデータサイズ(単精度モードまたは拡張精度モードで同じ結果)は、56*322*64=114688ビット=14.336M Mバイトである。FPGAからGPU AXIストリームへの理論的スループットは、896MB/S(56レーンの場合)であり、待ち時間は、14.336MB(896MB/s)=14.336/896s=16msであり、これは実質半分の待ち時間である。
【0026】
本明細書では、本発明の特定の特徴を例示および説明してきたが、多くの修正、置換、変更、および同等物が当業者に思い浮かぶであろう。したがって、添付の特許請求の範囲は、本発明の真の精神の範囲内に、あるそのようなすべての修正および変更を網羅することを意図していることを理解されたい。
図1
図2
図3A
図3B
図3C
【手続補正書】
【提出日】2023-03-15
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
データのストリームを受信するように構成され、前記データのストリームを、データ部分に分割し、前記データ部分の各々を、複数の先入れ先出し(FIFO)レジスタの1つを通過させるように構成された、複数の前記FIFOレジスタを備えたアレイと、
前記データ部分を受信するように構成された、第1のアドバンスト・イクステンシブル・インタフェース(AXI)ユニットと、
を備えたデータ・ストリーム・デバイダ・ユニット(DSDU)(304)と、
前記第1のAXIユニットからデータ部分を受信するように構成された、第2のアドバンスト・イクステンシブル・インタフェース(AXI)ユニットと、
それぞれのFIFOレジスタから各データ部分を受信するように構成され、前記受信したデータ部分を処理するように構成された、複数のストリーミングマルチプロセッサ(SM)と、
を備えたグラフィックプロセッシングユニット(GPU)と、
を備えた未処理データを処理する回路。
【請求項2】
前記DSDU内のFIFOレジスタは、前記DSDU内の、割り当てられた第1のAXIユニットと、前記GPU内の、割り当てられた第2のAXIユニットを介して前記GPU内の、割り当てられたSMに接続される、請求項に記載の回路。
【請求項3】
前記DSDU内の、前記FIFOレジスタの各々は、前記DSDU内の、第2の共通AXIユニット、および前記GPU内の、共通AXIユニットを介して、前記GPU内の、割り当てられたSMに接続される、請求項に記載の回路。
【請求項4】
未処理データのストリームを受信するステップと、
前記ストリームを複数のデータ部分に分割するステップと、
データストリームデバイダユニット(DSDU)の特定のFIFOレジスタを介して各データ部分を通過させるステップと、
前記特定のFIFOレジスタからのデータ部分を、処理のためにグラフィックプロセッサユニット(GPU)内の、割り当てられたストリーミングマルチプロセッサ(SM)に転送するステップと、
を備えた大容量のデータを効率的に処理する方法。
【請求項5】
前記データ部分は、前記DSU内の、第1のアドバンスト・イクステンシブル・インタフェース(AXI)ユニットと、前記GPU内の、第2のアドバンスト・イクステンシブル・インタフェース(AXI)ユニットを介して転送される、請求項に記載の方法。
【請求項6】
特定のFIFOレジスタから受信したデータ部分は、前記DSDU内の、割り当てられた第1のAXIユニットと、前記GPU内の、割り当てられた第2のAXIユニットを介して前記GPU内の、割り当てられたSMに転送される、請求項に記載の方法。
【請求項7】
FIFOレジスタから受信した前記データ部分の各々は、前記DSDU内の、共通の第1のAXIユニットと、前記GPU内の、共通の第2のAXIユニットを介して、前記GPU内の、前記割り当てられたSMに転送される、請求項に記載の方法。
【外国語明細書】