(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】特表2020-537197(P2020-537197A)
(43)【公表日】2020年12月17日
(54)【発明の名称】コンテナに基づくGPU仮想化方法及びシステム
(51)【国際特許分類】
G06F 9/50 20060101AFI20201120BHJP
G06F 9/455 20060101ALI20201120BHJP
【FI】
G06F9/50 120A
G06F9/455 150
【審査請求】有
【予備審査請求】未請求
【全頁数】13
(21)【出願番号】特願2019-518972(P2019-518972)
(86)(22)【出願日】2018年12月28日
(85)【翻訳文提出日】2019年4月3日
(86)【国際出願番号】KR2018016810
(87)【国際公開番号】WO2020075919
(87)【国際公開日】20200416
(31)【優先権主張番号】10-2018-0169620
(32)【優先日】2018年12月26日
(33)【優先権主張国】KR
(81)【指定国】
AP(BW,GH,GM,KE,LR,LS,MW,MZ,NA,RW,SD,SL,ST,SZ,TZ,UG,ZM,ZW),EA(AM,AZ,BY,KG,KZ,RU,TJ,TM),EP(AL,AT,BE,BG,CH,CY,CZ,DE,DK,EE,ES,FI,FR,GB,GR,HR,HU,IE,IS,IT,LT,LU,LV,MC,MK,MT,NL,NO,PL,PT,RO,RS,SE,SI,SK,SM,TR),OA(BF,BJ,CF,CG,CI,CM,GA,GN,GQ,GW,KM,ML,MR,NE,SN,TD,TG),AE,AG,AL,AM,AO,AT,AU,AZ,BA,BB,BG,BH,BN,BR,BW,BY,BZ,CA,CH,CL,CN,CO,CR,CU,CZ,DE,DJ,DK,DM,DO,DZ,EC,EE,EG,ES,FI,GB,GD,GE,GH,GM,GT,HN,HR,HU,ID,IL,IN,IR,IS,JO,JP,KE,KG,KH,KN,KP,KW,KZ,LA,LC,LK,LR,LS,LU,LY,MA,MD,ME,MG,MK,MN,MW,MX,MY,MZ,NA,NG,NI,NO,NZ,OM,PA,PE,PG,PH,PL,PT,QA,RO,RS,RU,RW,SA,SC,SD,SE,SG,SK,SL,SM,ST,SV,SY,TH,TJ,TM,TN,TR,TT,TZ
(71)【出願人】
【識別番号】519121186
【氏名又は名称】レブルアップ インコーポレーテッド
【氏名又は名称原語表記】Lablup Inc.
(74)【代理人】
【識別番号】100130111
【弁理士】
【氏名又は名称】新保 斉
(72)【発明者】
【氏名】キム、ジュン ギ
(72)【発明者】
【氏名】シン、ジョン ギュ
(72)【発明者】
【氏名】パク、ジョン ヒョン
(57)【要約】
【課題】コンテナを用いて、物理的仮想化ではなく、運営体制レベルの仮想化により、GPU(graphics processing unit)資源を動的に割当及び共有可能なコンテナに基づくGPU仮想化方法及びシステムを提供すること。
【解決手段】コンテナに基づくGPU仮想化方法は、コンテナが生成されると、ノードコントローラがGPU資源制約情報を含む設定ファイルとAPI(application programming interface)プロファイルを前記コンテナに送信する段階と、前記コンテナが実行されると、前記コンテナに設けられるライブラリコントローラがライブラリ呼出しを横取りしてGPU資源量と関連した因子を変更し、システムコールコントローラがシステムコール呼出しを横取りして因子及び返還値を変更して仮想GPUを具現する段階とを含む。
【選択図】
図1
【特許請求の範囲】
【請求項1】
コンテナに基づくGPU(graphics processing unit)仮想化方法において、
コンテナが生成されると、ノードコントローラがGPU資源制約情報を含む設定ファイルとAPI(application programming interface)プロファイルを前記コンテナに送信する段階と、
前記コンテナが実行されると、前記コンテナに設けられるライブラリコントローラがライブラリ呼出しを横取りしてGPU資源量と関連した因子を変更し、システムコールコントローラがシステムコール呼出しを横取りして因子及び返還値を変更して仮想GPUを具現する段階と、を含む
ことを特徴とするコンテナに基づくGPU仮想化方法。
【請求項2】
前記ノードコントローラは、
GPU資源の使用可能量を確認し、ノードコントローラの資源情報を初期化し、管理部に資源の使用可能量を報告し、前記管理部から割り当てられた作業を受信するが、前記ノードコントローラの資源使用可能量情報を要請した量だけ差し引いて更新する
請求項1に記載のコンテナに基づくGPU仮想化方法。
【請求項3】
前記ノードコントローラは、
コンテナが生成されると、資源制約情報を含む設定ファイルをコンテナに保存し、コンテナの実行後、終了が感知されると、ノードコントローラの資源使用可能量情報を要請した量だけ回収して更新する
請求項2に記載のコンテナに基づくGPU仮想化方法。
【請求項4】
前記ライブラリコントローラは、
ユーザプログラムのライブラリ関数呼出しイベントを受信すると、GPU資源問合せ及び割当関連API呼出しであるかを判断し、GPU資源量と関連した因子、構造体フィールド、返還値の少なくとも一つを変更し、元のライブラリ関数を呼び出す
請求項1に記載のコンテナに基づくGPU仮想化方法。
【請求項5】
前記システムコールコントローラは、
ユーザプログラムのシステムコール呼出しイベントを受信すると、予め定義されたAPIプログラムにより許容、遮断、変更の少なくとも一つのシステムコール呼出しであるかを判断し、APIプロファイル規則により許容、遮断、または元のシステムコールの呼出し前後因子及び返還値を変更する
請求項1に記載のコンテナに基づくGPU仮想化方法。
【請求項6】
コンテナに基づくGPU仮想化システムにおいて、
資源制約情報を含む設定ファイルとシステムコール/APIプロファイルをコンテナに伝達してコンテナ内に伝達するノードコントローラを含む運営体制と、
ユーザプログラムのライブラリ関数呼出しイベントを受信すると、GPU資源問合せ及び割当関連API呼出しであるかを判断し、GPU資源量と関連した因子、構造体フィールド、返還値の少なくとも一つを変更し、元のライブラリ関数を呼び出すライブラリコントローラと、ユーザプログラムのシステムコール呼出しイベントを受信すると、予め定義されたAPIプロファイルにより許容、遮断、変更の少なくとも一つのシステムコール呼出しであるかを判断し、APIプロファイル規則により許容、遮断、または元のシステムコールの呼出し前後因子及び返還値を変更するシステムコールコントローラとを含むコンテナと、で構成される
ことを特徴とするコンテナに基づくGPU仮想化システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、コンテナに基づくGPU(graphics processing unit)仮想化方法及びシステムに係り、特に、コンテナ内のライブラリコントローラ及びシステムコールコントローラにより、GPU資源と関連した因子値等を変更してGPU仮想化を具現するコンテナに基づくGPU仮想化方法及びシステムに関する。
【背景技術】
【0002】
最近、マルチユーザのための大規模コンピューティングの効率性、保安性、及び互換性の向上のために、仮想化技術が多く用いられている。代表的に、仮想マシン(Virtual Machine)があり、アプリケーション、サーバ、ストレージ、及びネットワーク等の多様な分野に適用されている。しかし、仮想マシンは、CPU(central processing unit)からディスク、ネットワーク、I/O(input/output)まで物理的なハードウェア要素を全て仮想化するので、互換性と隔離レベルは最も高いが、コンピューティング資源の追加消耗量(オーバーヘッド)が大きいという短所をあった。
【0003】
一方、コンテナは、仮想化ではなく、運営体制レベルの隔離技術を用いて、仮想マシンの短所を克服する仮想化技術として浮上している。コンテナは、カーネルレベルの実行環境はホストの運営体制カーネルを共有するが、ユーザレベルの実行環境は完全に隔離されたファイルシステムと、カーネルが提供する資源要素の仮想化した名前空間を用いる方式で具現される。隔離されたファイルシステムの内容は、アプリケーションとそれを駆動するために必要な全ての従属物、ライブラリ、その他のバイナリと構成ファイル等を一つのパッケージにまとめて構成される。仮想化した名前空間に区分され、コンテナに提供されるカーネルの資源要素には、プロセスID、ネットワークソケット、ユーザアカウント、プロセス間通信(IPC、interprocess communication)のための共有メモリ等がある。その他のハードウェアアクセスは、コンテナでない場合と同様に処理されるので、ホストハードウェアの性能をオーバーヘッド無しに完全に活用することができる。ここで、運営体制は、コンテナ別に最大使用可能なハードウェア資源の量を制限できるオプションを提供する。
【0004】
最近、深層学習技術の発達と大規模な演算需要の増加につれて、コンピューティング資源を最適に共有して管理する技術が要請されている。性能向上のために、深層学習の演算特性に最適化した演算加速ハードウェアが登場しており、GPUも、その一つである。しかし、既存の運営体制において提供するコンテナに基づく仮想化技術は、コンテナ別にCPU、メモリ、ディスク、及びファイルシステムに対する資源共有及び制限のみを支援しており、GPUのような演算加速ハードウェアについては、多くのコンテナが同時に共有できる技術が提供されていない。このため、GPUを効率的に共有及び管理し難いという問題が発生した。
【発明の概要】
【発明が解決しようとする課題】
【0005】
本発明は、上記問題点に鑑みなされたものであり、コンテナを用いて、物理的仮想化ではなく、運営体制レベルの仮想化により、GPU資源を動的に割当及び共有可能なコンテナに基づくGPU仮想化方法及びシステムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一実施例に係るコンテナに基づくGPU仮想化方法は、コンテナが生成されると、ノードコントローラがGPU資源制約情報を含む設定ファイルとAPI(application programming interface)プロファイルを前記コンテナに送信する段階と、前記コンテナが実行されると、前記コンテナに設けられるライブラリコントローラがライブラリ呼出しを横取りしてGPU資源量と関連した因子を変更し、システムコールコントローラがシステムコール呼出しを横取りして因子及び返還値を変更して仮想GPUを具現する段階と、を含む。
【0007】
本発明の一実施例に係るコンテナに基づくGPU仮想化システムは、資源制約情報を含む設定ファイルとシステムコール/APIプロファイルをコンテナに伝達してコンテナ内に伝達するノードコントローラを含む運営体制と、ユーザプログラムのライブラリ関数呼出しイベントを受信すると、GPU資源問合せ及び割当関連API呼出しであるかを判断し、GPU資源量と関連した因子、構造体フィールド、返還値の少なくとも一つを変更し、元のライブラリ関数を呼び出すライブラリコントローラと、ユーザプログラムのシステムコール呼出しイベントを受信すると、予め定義されたAPIプロファイルにより許容、遮断、変更の少なくとも一つのシステムコール呼出しであるかを判断し、APIプロファイル規則により許容、遮断、または元のシステムコールの呼出し前後因子及び返還値を変更するシステムコールコントローラとを含むコンテナと、で構成される。
【発明の効果】
【0008】
本発明によれば、コンテナ仮想化技術を拡張することにより、シングルコンテナにシングルGPUを割り当て、またはシングルコンテナにマルチGPUを割り当て、またはシングルGPUをマルチコンテナが共有し、またはマルチGPUをマルチコンテナが共有するGPUコンピューティンシステムの具現が可能である。
【0009】
また、コンテナを用いて具現することにより、仮想マシンに比べて、システム資源をさらに効率的に用いることができ、アプリケーション移動が可能であり、スケーリングが簡単であり、アップデートが容易であるという効果がある。
【図面の簡単な説明】
【0010】
【
図1】本発明の一実施例に係るコンテナに基づくGPU仮想化システムのソフトウェア構造の説明図
【
図2】本発明の一実施例に係るコンテナに基づくGPU仮想化方法のフローチャート
【
図3】本発明の一実施例に係るノードコントローラの動作方法のフローチャート
【
図4】本発明の一実施例に係るライブラリコントローラの動作方法のフローチャート
【
図5】本発明の一実施例に係るシステムコールコントローラの動作方法のフローチャート
【発明を実施するための形態】
【0011】
本明細書に開示されている本発明の概念による実施例についての特定の構造的または機能的説明は、単に本発明の概念による実施例を説明するための目的で例示されたものであり、本発明の概念による実施例は、様々な形態で実施されてもよく、本明細書に説明された実施例に限定されない。
【0012】
本発明の概念による実施例は、様々な変更が加えられてもよく、様々な形態を有し得るので、実施例を図面に例示し、本明細書において詳述する。しかし、これらは、本発明の概念による実施例を特定の開示形態に限定するものではなく、本発明の思想及び技術範囲に含まれる全ての変更、均等物、または代替物を含む。
【0013】
本明細書において用いられた用語は、単に特定の実施例を説明するために用いられたものであって、本発明を限定するものではない。単数の表現は、文脈上明らかに異なる意味を有さない限り、複数の表現を含む。本明細書において、「含む」または「有する」との用語は、本明細書に記載された特徴、数字、段階、動作、構成要素、部分品、またはそれらの組合せが存在することを指定するものであり、一つまたはそれ以上の他の特徴や数字、段階、動作、構成要素、部分品、またはそれらの組合せの存在または付加可能性を予め排除するものではない。
【0014】
以下、添付された図面を参照して、本発明の好適な実施例について詳述する。
図1は、本発明の一実施例に係るコンテナに基づくGPU仮想化システムのソフトウェア構造を説明するための図である。
【0015】
図1を参照すると、GPU仮想化システム100のソフトウェア構造は、物理的GPU(PHYSICAL GPU)110、運営体制120、多数個のコンテナ130で構成される。
【0016】
運営体制120は、ノードコントローラ121、コンテナエンジン123、運営体制カーネル125で構成される。運営体制120は、運営体制カーネル125内にインストールされたGPUドライバ127を介して物理的GPU110と通信する。
【0017】
ノードコントローラ121は、資源制約情報を含む設定ファイルとシステムコール/APIプロファイルをコンテナ130に伝達してコンテナ内に保存する。ノードコントローラ121は、GPU資源の使用可能量を確認し、ノードコントローラの資源情報を初期化する。前記GPU資源は、GPUプロセッシングユニットとGPUメモリであってもよいが、これに限定するものではない。ノードコントローラ121は、管理部(Manager)に確認された資源の使用可能量を報告し、前記管理部から割り当てられた作業を受信する。ノードコントローラ121は、GPU資源の使用可能量情報を更新し、このとき、要請した量だけ差し引く。ノードコントローラ121は、コンテナが生成されると、資源制約情報を含む設定ファイルをコンテナに伝達し、コンテナの実行後、終了が感知されると、ノードコントローラの資源使用可能量情報を要請した量だけ回収して更新する。ノードコントローラ121は、ユーザのコード実行要請をコンテナ内で実行する。
【0018】
コンテナエンジン123は、コンテナ130を生成して配布し、各コンテナ130が該当する応用プログラムを実行するようにGPU資源を割り当てる役割を行う。コンテナエンジン123は、コンテナを実行して終了する。
【0019】
コンテナ130は、ユーザプログラムを駆動するために必要な、各種のプログラム、ソースコードと、ライブラリをまとめたイメージを含む空間である。ユーザプログラムの駆動は、運営体制120で実質的に行われる。すなわち、運営体制120は、コンテナエンジン123を介してそれぞれのコンテナ130にアクセスし、該当するユーザプログラムを実行して処理する。
【0020】
コンテナ130は、ユーザプログラム131、GPUライブラリ133、GPUランタイム135、ライブラリコントローラ137、システムコールコントローラ139で構成される。
ユーザプログラム131は、ノードコントローラのユーザのコード実行要請をコンテナ内で実行するように動作する。
【0021】
GPUライブラリ133は、深層学習フレームワークが動作するようにライブラリを含み、例えば、テンソルフロー(TensorFlow)、Caffe、Pytorch、CNTK(Microsoft Cognitive Toolkit)、Chainerのような深層学習フレームワークの少なくとも一つが動作してもよい。
【0022】
GPUランタイム135は、GPUで行う並列処理アルゴリズムであるCUDA(Compute Unified Device Architecture)、OpenCL(Open Computing Language)、ROCm(Radeon Open Compute)がインストールされて使用されてもよい。前記CUDAは、マシンランニング分野で活用されるGPUミドルウェアとしてGPUランタイムで動作する。前記OpenCLは、マシンランニング分野と高性能コンピューティン(HPC、High Performance Computing)において活用する並列コンピューティングとクロスプラットフォームにより動作する。
【0023】
ライブラリコントローラ137は、ユーザプログラムのライブラリ関数呼出しイベントを受信すると、GPU資源問合せ及び割当関連API呼出しであるかを判断し、GPU資源量と関連した因子、構造体フィールド、返還値の少なくとも一つを変更して元のライブラリ関数を呼び出す。GPU資源問合せ及び割当関連API呼出しでなければ、元のライブラリ関数を因子変更無しに呼び出し、返還値をそのままリターンする。
【0024】
システムコールコントローラ139は、ユーザプログラムのシステムコール呼出しイベントを受信すると、予め定義されたAPIプログラムにより許容、遮断、変更の少なくとも一つのシステムコール呼出しであるかを判断し、APIプロファイル規則により許容、遮断、または元のシステムコールの呼出し前後因子及び返還値を変更する。予め定義されたAPIプロファイルによる許容、遮断、変更の少なくとも一つのシステムコール呼出しでなければ、元のシステムコールを因子変更無しに呼び出し、返還値をそのままリターンする。
【0025】
すなわち、コンテナ内のライブラリコントローラ137がライブラリ呼出しを横取りしてGPU資源量と関連した因子を変更し、システムコールコントローラ139がシステムコール呼出しを横取りして因子及び返還値を変更することにより仮想GPUを具現する。
【0026】
図2は、本発明の一実施例に係るコンテナに基づくGPU仮想化方法を説明する順序図である。
【0027】
図2を参照すると、コンテナが生成されると(S201)、ノードコントローラ121がGPU資源制約情報を含む設定ファイルとシステムコール/APIプロファイルを前記コンテナに送信する(S203)。コンテナ内のライブラリコントローラとシステムコールコントローラが資源制約情報を含む設定ファイルを受信して保存する。
【0028】
コンテナが実行されると、前記コンテナに設けられるライブラリコントローラ137がライブラリ呼出しを横取りしてGPU資源量と関連した因子を変更し、システムコールコントローラ139がシステムコール呼出しを横取りして因子及び返還値を変更して仮想GPUを具現する(S205)。このとき、ライブラリコントローラ137は、GPU資源量と関連した因子のみならず、構造体フィールド、返還値を変更して元のライブラリ関数を呼び出す。
【0029】
図3は、本発明の一実施例に係るノードコントローラの動作方法を説明する順序図である。
【0030】
図3を参照すると、ノードコントローラは、先ずGPUの資源使用可能量を確認する(S301)。また、ノードコントローラは、資源情報を初期化する(S303)。
【0031】
サーバ実行ループにより、以下のプロセスが繰り返して進行される(S305)。確認されたGPU資源使用可能量を管理部に報告し(S307)、前記管理部から割り当てられた作業(job spec)を受信する(S309)。ノードコントローラ121は、資源使用可能量情報を更新する(S311)。このとき、要請した量だけ差し引かれる。以降、コンテナが生成され(S313)、ライブラリコントローラとシステムコールコントローラが読み出す資源制約情報を含む設定ファイルをコンテナに送信して保存する(S315)。以降、コンテナが実行され(S317)、コンテナの終了が感知されると、ノードコントローラの資源使用可能量情報を更新する(S319)。このとき、要請した量を回収する。
【0032】
図4は、本発明の一実施例に係るライブラリコントローラの動作方法を説明する順序図である。
【0033】
図4を参照すると、ユーザプログラムのライブラリ関数呼出しイベントを受信する(S401)。以降、GPU資源問合せ及び割当関連APIコールであるかを判断する(S403)。
【0034】
判断結果により、GPU資源問合せ及び割当関連APIコールである場合は、GPU資源量と関連した因子、構造体フィールド、返還値の少なくとも一つを変更する(S405)。このとき、内蔵されたAPIプロファイル及びコンテナ設定ファイルに基づいて変更される。
以降、変更後、元のライブラリ関数を呼び出す(S407)。
【0035】
判断結果により、GPU資源問合せ及び割当関連APIコールでなければ、元のライブラリ関数を因子変更無しに呼び出し、返還値をそのままリターンする(S409)。
【0036】
図5は、本発明の一実施例に係るシステムコールコントローラの動作方法を説明する順序図である。
【0037】
図5を参照すると、ユーザプログラムのシステムコール呼出しイベントを受信する(S501)。予め定義されたAPIプロファイルに変更が必要なシステムコールであるかを判断する(S503)。このとき、変更のみならず、許容、遮断すべき場合であるかを判断する。判断結果により、許容、遮断、及び変更が必要なシステムコールであれば、APIプロファイル規則により許容、遮断、または元のシステムコールの呼出し前後因子及び返還値を変更する(S405)。
【0038】
判断結果により、許容、遮断、及び変更が必要ではないシステムコールであれば、元のライブラリ関数を因子変更無しに呼び出し、返還値をそのままリターンする(S407)。
【0039】
本発明は、図示された実施例を参考として説明されたが、これは、例示的なものに過ぎず、本技術分野における通常の知識を有する者であれば、これに基づいて様々な変形及び均等な他の実施例が可能である。したがって、本発明の真正の技術的保護範囲は、添付された登録請求の範囲の技術的思想により定められなければならない。
【国際調査報告】