(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2025-01-24
(54)【発明の名称】RAN仮想化のための集中型アクセラレーション抽象化レイヤ
(51)【国際特許分類】
G06F 9/50 20060101AFI20250117BHJP
G06N 20/00 20190101ALI20250117BHJP
G06F 9/54 20060101ALI20250117BHJP
H04W 28/084 20230101ALI20250117BHJP
H04W 88/08 20090101ALI20250117BHJP
【FI】
G06F9/50 150A
G06N20/00
G06F9/54 D
H04W28/084
H04W88/08
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2024541059
(86)(22)【出願日】2022-03-16
(85)【翻訳文提出日】2024-07-08
(86)【国際出願番号】 EP2022056834
(87)【国際公開番号】W WO2023138799
(87)【国際公開日】2023-07-27
(32)【優先日】2022-01-21
(33)【優先権主張国・地域又は機関】EP
(81)【指定国・地域】
(71)【出願人】
【識別番号】517451940
【氏名又は名称】エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー
(74)【代理人】
【識別番号】100108453
【氏名又は名称】村山 靖彦
(74)【代理人】
【識別番号】100110364
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100133400
【氏名又は名称】阿部 達彦
(72)【発明者】
【氏名】アンドレス・ガルシア-サアベドラ
(72)【発明者】
【氏名】シャビエル・コスタ-ペレス
【テーマコード(参考)】
5K067
【Fターム(参考)】
5K067EE10
(57)【要約】
本出願は、複数のvRANノード(38)に関連付けられた無線処理動作の割振りを共有計算リソースに整合させる方法を開示する。ある実施形態では、方法は、vRANノード(38)によって、高速化されるべき動作を要求するための仮想動作を呼び出すステップと、共有加速型コンピューティングインフラストラクチャ(20)の上に実装された集中型アクセラレーション抽象化レイヤ、すなわちAAL、ブローカ(36)によって、vRANノード(38)から動作要求を受信するステップと、AALブローカ(36)によって事前定義または構成可能スケジューリングポリシー(37)を使って、要求された動作の高速化実行のための物理ハードウェアアクセラレータ(12)を選択するステップと、AALブローカ(36)によって、選択されたハードウェアアクセラレータ(12)の処理キュー(18)に動作要求をフォワードするステップとを含む。
【特許請求の範囲】
【請求項1】
複数のvRANノード(38)に関連付けられた無線処理動作の割振りを共有計算リソースに整合させる方法であって、
共有加速型コンピューティングインフラストラクチャの上に実装された集中型アクセラレーション抽象化レイヤ、すなわちAAL、ブローカ(36)によって、vRANノード(38)に関連付けられた仮想動作についての動作要求を受信するステップであって、前記動作要求は、高速化されるべき動作を指定する、ステップと、
前記AALブローカ(36)によって事前定義または構成可能スケジューリングポリシー(37)を使って、要求された動作の高速化実行のための物理ハードウェアアクセラレータ(12)を選択するステップと、
前記AALブローカ(36)によって、前記選択されたハードウェアアクセラレータ(12)の処理キュー(18)に前記動作要求をフォワードするステップとを含む方法。
【請求項2】
前記AALブローカ(36)は、個別vRANノード(38)であるかのように、基底共有加速型コンピューティングインフラストラクチャと対話する、請求項1に記載の方法。
【請求項3】
前記動作要求は、高速化されるべき前記動作についての情報、前記動作を実行するのに必要とされるデータ、および前記動作を実行するための設定を含む、請求項1または2に記載の方法。
【請求項4】
前記選択されたハードウェアアクセラレータ(12)によって、前記要求された動作を、それに関連付けられた処理キュー(18)の中の前記要求を考慮するFIFO方式で実施するステップをさらに含む、請求項1から3のいずれかに記載の方法。
【請求項5】
前記動作要求を、前記選択されたハードウェアアクセラレータ(12)の前記処理キュー(18)にフォワードしたことに応答して、前記AALブローカ(36)によって、前記選択されたハードウェアアクセラレータ(12)から応答を受信するステップと、
前記AALブローカ(36)によって、前記選択されたハードウェアアクセラレータ(12)から受信された前記応答を前記vRANノード(38)にフォワードするステップとをさらに含む、請求項1から4のいずれかに記載の方法。
【請求項6】
前記要求された動作の高速化実行のための物理ハードウェアアクセラレータ(12)を選択するために前記AALブローカ(36)によって使われる前記スケジューリングポリシー(37)は、基底共有加速型コンピューティングインフラストラクチャのネットワークスループットおよびエネルギー消費についての情報を組み合わせるコスト関数を最小にする機械学習、すなわちML、モデルで実装される、請求項1から5のいずれかに記載の方法。
【請求項7】
O3インターフェース(42)を介して計算ポリシーを展開することによって、前記AALブローカ(36)を構成するのにリソースコントローラ(40)を使うステップをさらに含む、請求項1から6のいずれかに記載の方法。
【請求項8】
E2インターフェース(44)を介してvRANノード(38)の無線リソースポリシーを構成するのに、および/またはvRANノード(38)上に構成された無線リソースポリシーにおける変化を、E2インターフェース(46)を介して準RT RIC(30)に通知するのに、リソースコントローラ(40)を使うステップをさらに含む、請求項1から7のいずれかに記載の方法。
【請求項9】
特に、請求項1から8のいずれかに記載の方法の実行のために、複数のvRANノード(38)に関連付けられた無線処理動作の割振りを共有計算リソースに整合させるためのシステムであって、前記システムは、共有加速型コンピューティングインフラストラクチャの上に実装された集中型アクセラレーション抽象化レイヤ、すなわちAAL、ブローカ(36)を備え、前記AALブローカ(36)は、
vRANノード(38)に関連付けられた仮想動作についての動作要求を受信することであって、前記動作要求は、高速化されるべき動作を指定する、ことと、
事前定義または構成可能スケジューリングポリシーを使うことによって、前記要求された動作の高速化実行のための物理ハードウェアアクセラレータ(12)を選択することと、
前記動作要求を、前記選択されたハードウェアアクセラレータ(12)の処理キュー(18)にフォワードすることとを行うように構成される、システム。
【請求項10】
前記AALブローカ(36)は、基底O-RAN AALインフラストラクチャ(20)と対話するように構成される、請求項9に記載のシステム。
【請求項11】
前記AALブローカ(36)は、
前記動作要求を、前記選択されたハードウェアアクセラレータ(12)の前記処理キュー(18)にフォワードしたことに応答して、前記選択されたハードウェアアクセラレータ(12)から応答を受信することと、
前記選択されたハードウェアアクセラレータ(12)から受信された前記応答を前記vRANノード(38)にフォワードすることとを行うように構成される、請求項9または10に記載のシステム。
【請求項12】
前記AALブローカ(36)は、基底共有加速型コンピューティングインフラストラクチャのネットワークスループットおよびエネルギー消費についての情報を組み合わせるコスト関数を最小にする、機械学習、すなわちML、モデルを用いて、前記要求された動作の高速化実行のための物理ハードウェアアクセラレータ(12)の前記選択を実施するようにさらに構成される、請求項9から11のいずれかに記載のシステム。
【請求項13】
O3インターフェース(42)を介して前記AALブローカ(36)を構成するように構成されたリソースコントローラ(40)をさらに備える、請求項9から12のいずれかに記載のシステム。
【請求項14】
リソースコントローラ(40)は、E2インターフェース(44)を介してvRANノード(38)の無線リソースポリシーを構成するようにさらに構成される、請求項9から13のいずれかに記載のシステム。
【請求項15】
リソースコントローラ(40)は、vRANノード(38)上で構成された無線リソースポリシーにおける変化を、E2インターフェース(46)を介して準RT RIC(30)に通知するようにさらに構成される、請求項9から14のいずれかに記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、複数のvRANノードに関連付けられた無線処理動作の割振りを共有計算リソースに整合させるシステムおよび方法に関する。
【背景技術】
【0002】
ネットワーク機能仮想化(NFV)を、モバイルネットワークの遠端まで拡張すると、いわゆるvRANにおける基底ハードウェアインフラストラクチャから、無線アクセスネットワーク(RAN)作業負荷を切り離すことができる。この手法には、比較的頑丈な従来のRANに勝る多くの利点があり、たとえば、ベンダロックインを軽減し、アップグレードを合理化し、計算リソースを多重化する。したがって、RAN仮想化が、次世代システムに向かう主要な技術傾向になっている。O-RAN Allianceによって突き動かされて、業界関係筋の事実上すべてが、vRANを展開または構築しており、硬直したRANエコシステムに、前例のない商機をもたらす新たな市場を生み出している。
【0003】
RANは、スタックの最上位レイヤを処理する、各々が中央ユニット(CU)に分解されたいくつかの基地局と、無線リンク制御、MACおよび物理レイヤを含む下位レイヤを処理する分散ユニット(DU)と、信号サンプリングなどの基本的な無線機能を実施する無線ユニット(RU)とを備える。CUとは対照的に、DUは、信号を適時に、および予測可能なように処理するコンピューティングインフラストラクチャを必要とする。これは、物理レイヤ(PHY)に関わるタスクのパイプラインが、きつくて厳しいタイミング制約を有するからであり、すなわち、期限を逃すと、ユーザが同期を失い、ネットワーク性能を崩壊させる場合があり、このタスクのいくつかは計算集約型である。このコンテキストにおいて、例示目的のために、
図1は、64QAMで変調され、LDPCおよび1/3コードレートで符号化された4Kbyteトランスポートブロックの復号の成功のために、および専用CPUコアにおいて、10dBと30dBとの間の異なる信号対雑音比レジーム用に、今日ではFEC(前方誤り訂正)、レートマッチング、およびCRC(巡回冗長検査)汎用プロセッサを実施するためにほとんどのソリューションによって容易に使われるソフトウェア開発キット(SDK)であるインテル(登録商標)FlexRANによって必要とされる時間を示す。FlexRANについては、参考のために、Intel. 2019. FlexRAN LTE and 5G NR FEC Software Development Kit Modules. https://software.intel.com/content/www/us/en/develop/articles/flexran-lte-and-5g-nr-fec-software-development-kit-modules.htmを参照されたい。
【0004】
したがって、今日の業界におけるvRANソリューションは、計算集約型動作、LDPC符号化/復号など、ほとんどがFECタスクを、専用ハードウェアアクセラレータ(HA)にオフロードすることに頼る。HAは、GPU、FPGA、ASIC、または1つのタスク(たとえば、FEC)に専用のCPUでもある。これらは、プログラム可能であり、無線処理動作を非常に速く実行することができるので、GPUアクセラレーション(たとえば、NVIDIA Aerial)およびFPGAアクセラレーション(たとえば、FECアクセラレーションのための、FPGAドライバとCPUライブラリ(インテルAVX-512命令セットを利用する)の両方を提供するインテル(登録商標)FlexRAN)が、最も人気のあるプロセッサである。
【0005】
ただし、事業の経営責任者達によって認められるように、現行の手法は失敗するものと思われる。根本原因は、個別DUに限定されているHAへの強い依存であり、これは、柔軟性を減じ、従来のASICベースのDUよりもコストおよび電力消費を高くさせ、これがまさに、仮想化がRAN用に第1に検討される理由である。これは、特に期待外れであるが、それは、HAリソースは、短いタイムスケールの中に統計的多重化のための機会がないので、ほとんどの時間、利用率が非常に低いからである。
【0006】
より合理的な手法は、適切な抽象化を提供する標準インターフェースを使って、加速リソースを複数のDUと共有して、リソース使用を最大限にし、したがってコストを最小限にするものである。O-RANではこれを、アクセラレーション抽象化レイヤ(AAL)と呼ぶ。ハードウェアアクセラレータ(HA)が、仮想化によって提供される柔軟性を損なうことなく、DUなど、無線信号処理機能を含む、ネットワーク機能(NF)のキャリアグレードな性能を保つための鍵を握っている。HAは、
図2に示されるように、1つのタスクに専用のCPUのセット、GPUなど、より専用のプロセッサ、フィールドプログラム可能ゲートアレイ(FPGA)上で実装される機能、またはCPUからなる共有汎用プロセッサ(GPP)よりも速く1つのタスクを実行することができる特定用途向け集積回路(ASIC)上で実装される固定機能であってよい。
【0007】
このコンテキストにおいて、Ding, Jianら、「Agora: Real-time massive MIMO baseband processing in software.」Proceedings of the 16th International Conference on emerging Networking EXperiments and Technologies、2020年は、メニーコア汎用CPUに適した、すなわち、追加HAを必要としない、FlexRANのオープンライブラリの上に構築される5G信号プロセッサを開示する。ただし、それらのソリューションは、共有プラットフォームには適さず、単一のvDUでキャリアグレードな性能を提供するのに必要とされるCPUコアの量により、コストおよびエネルギー消費が高くなりすぎる。
【0008】
より最近になって、Foukas, Xenofon、およびBozidar Radunovic、「Concordia: teaching the 5G vRAN to share compute.」Proceedings of the 2021 ACM SIGCOMM 2021 Conference、2021年は、リソース使用を最大限にするために、仮想化DUが、他のアプリケーションと計算リソースを共有できるようにするタスクスケジューラを備えるシステムを開示した。ただし、この手法は、複数のDUがHAの共通プールを共有するケースには対処しない。
【0009】
さらに、G. Garcia-Aviles、A. Garcia-Saavedra、M. Gramaglia、X. Costa-Perez、P. Serrano、およびA. Banchs、「Nuberu: Reliable RAN Virtualization in Shared Platforms」、MobiCom '21. Proceedings of the 27th Annual International Conference on Mobile Computing and Networking.2021年10月、749~761頁、https://doi.org/10.1145/3447993.3483266は、予測に依拠すること、およびレイテンシを信頼性とトレードオフすることによって、非決定的(共有)コンピューティングプラットフォームにおける信頼性を提供するDU設計について記載している。そのような環境において信頼できるDUの使用は最重要であるが、計算リソースをすべてのDUにわたってどのようにして効率的に割り振るかという疑問が依然として残っている。
【先行技術文献】
【非特許文献】
【0010】
【非特許文献1】Intel. 2019. FlexRAN LTE and 5G NR FEC Software Development Kit Modules. https://software.intel.com/content/www/us/en/develop/articles/flexran-lte-and-5g-nr-fec-software-development-kit-modules.htm
【非特許文献2】Ding, Jianら、「Agora: Real-time massive MIMO baseband processing in software.」Proceedings of the 16th International Conference on emerging Networking EXperiments and Technologies、2020年
【非特許文献3】Foukas, Xenofon、およびBozidar Radunovic、「Concordia: teaching the 5G vRAN to share compute.」Proceedings of the 2021 ACM SIGCOMM 2021 Conference、2021年
【非特許文献4】G. Garcia-Aviles、A. Garcia-Saavedra、M. Gramaglia、X. Costa-Perez、P. Serrano、およびA. Banchs、「Nuberu: Reliable RAN Virtualization in Shared Platforms」、MobiCom '21. Proceedings of the 27th Annual International Conference on Mobile Computing and Networking.2021年10月、749~761頁、https://doi.org/10.1145/3447993.3483266
【非特許文献5】O-RAN Alliance、「O-RAN Acceleration Abstraction Layer General Aspects and Principles (O-RAN.WG6.AAL-GAnP-v01.01)」、Technical Specification、2021年7月
【発明の概要】
【発明が解決しようとする課題】
【0011】
したがって、共有計算リソースの使用効率が向上されるように、複数のvRANノードに関連付けられた無線処理動作の割振りを共有計算リソースに整合させるための、最初に記載したタイプの方法およびシステムを改良し、さらに発展させることが、本発明の目的である。
【課題を解決するための手段】
【0012】
本発明によると、上述した目的は、複数のvRANノードに関連付けられた無線処理動作の割振りを共有計算リソースに整合させる方法によって達成され、方法は、共有加速型コンピューティングインフラストラクチャの上に実装された集中型アクセラレーション抽象化レイヤ、すなわちAAL、ブローカによって、vRANノードに関連付けられた仮想動作についての動作要求を受信するステップであって、動作要求は、高速化されるべき動作を指定する、ステップと、事前定義または構成可能スケジューリングポリシーを使うAALブローカによって、要求された動作の高速化実行のための物理ハードウェアアクセラレータを選択するステップと、AALブローカによって、動作要求を、選択されたハードウェアアクセラレータの処理キューにフォワードするステップとを含む。
【0013】
本発明によると、上述した目的は、共有加速型コンピューティングインフラストラクチャ、たとえばO-RAN AALインフラストラクチャの上で動作する、RAN仮想化のための集中型アクセラレーション抽象化レイヤを実装することによって解決することができることが最初に認識されている。提案される集中型アクセラレーション抽象化レイヤは、新規O-RANエンティティ、すなわち、共通および共有加速型コンピューティングインフラストラクチャ(CPU、GPU、FPGA、ASICなどのプールを含む)を、複数のvRANノード(たとえば、vDU)に関連付けられた無線処理タスクに効率的に割り振るための集中型手法を提供するAALブローカを備える。アクセラレーションリソースの集中型整合をサポートすることによって、AALブローカは、負荷分散の効率的実装を可能にし、そうすることによって、利用可能な、異種の加速リソースの1つ1つの、過負荷を回避する。その結果、本発明は、最もコストのかかる構成要素(O-Cloud)のうちの1つの、使用効率を向上することによって、より費用効果が高いO-RANソリューションを提供する。
【0014】
ある実施形態では、本発明は、抽象化レイヤがvRAN要求をすべて、ハードウェアアクセラレータのプールに整合させるO-RANシナリオに関する。AALブローカは、共有および共同加速リソース、すなわちCPU、GPU、FPGA、ASICなどのプールを、複数のVDU(VRAN)ノードに関連付けられた無線処理タスクに割り振るための集中型手法を可能にする。AALブローカレイヤは、仮想動作要求(FEC、FFT、LDPCなど)を受信する場合があり、要求に従ってAALデバイスを割り振るための適切なキューを見つければよい。さらに、それぞれの機能(FEC、FFT、LDPCなど)の復号されたビットは、ブローカレイヤを通してvRANノードにフィードバックされてよい。
【0015】
円滑および効率的動作に関しては、本発明の実施形態によると、AALブローカが、個別vRANノードであるかのように、基底共有加速型コンピューティングインフラストラクチャと対話するために実装されるということになっている場合がある。O-RANアーキテクチャのコンテキストにおいて、本発明によるシステムを実装するとき、AALブローカと対話する基底共有加速型コンピューティングインフラストラクチャは、たとえば、O-RAN Alliance、「O-RAN Acceleration Abstraction Layer General Aspects and Principles (O-RAN.WG6.AAL-GAnP-v01.01)」、Technical Specification、2021年7月に詳しく記載されるように、O-RAN AALインフラストラクチャであってよい。
【0016】
本発明の一実施形態によると、vRANノードの動作要求は、高速化されるべき動作(たとえば、FEC、FFT、CRC)についての情報と、動作を実行するのに必要とされるデータ(たとえば、FEC復号動作の場合はコードブロック)と、動作を実行するための設定(たとえば、FEC復号動作の場合は復号反復の最大回数)とを含み得る。
【0017】
本発明の一実施形態によると、特定のタスク/動作の要求されたアクセラレーションを実行するためにAALブローカによって選択されたハードウェアアクセラレータは、それに関連付けられた処理キューの中の要求に従って、要求された動作をFIFO方式で実施するように構成されてよい。こうすることで、公正でありシームレスな動作が保証される。
【0018】
本発明の一実施形態によると、AALブローカは、選択されたハードウェアアクセラレータの処理キューに動作要求をフォワードしたことに応答して、選択されたハードウェアアクセラレータからの応答を、直接または間接的に受信するように、および選択されたハードウェアアクセラレータから受信された応答を発行元vRANノードにフォワードするようにさらに構成されてよい。
【0019】
本発明の一実施形態によると、要求された動作の高速化実行のための物理ハードウェアアクセラレータを選択するためにAALブローカによって使われるスケジューリングポリシーは、基底共有加速型コンピューティングインフラストラクチャのネットワークスループットおよびエネルギー消費についての情報を組み合わせるコスト関数を最小にする機械学習、すなわちML、モデルで実装され得る。
【0020】
本発明の実施形態は、集中方式で、無線処理タスクに共有計算リソースを、およびモバイルユーザに無線リソースを共同で割り振るための、O-RANインターフェースに対する拡張を提供する。具体的には、O-CloudからNF上で無線ポリシーを展開するために、リソースコントローラを、O-DUなどのNFと接続する新たなE2エンドポイントが実装され得る。追加または代替として、リソースコントローラを、NFの状態についての、そこで利用可能な情報を更新するために準RT RICと接続する新たなE2エンドポイントが実装されてよく、これにより、全O-RANシステムにわたって一貫性が保たれる。最後に、リソースコントローラからAALブローカ上で計算ポリシーを展開するために、新たなO3インターフェースが実装されてよい。
【0021】
本発明の教示を有利に設計し、さらに発展させるためのいくつかのやり方がある。この目的のために、一方では従属請求項に、他方では図面によって示される、例として本発明の好ましい実施形態の以下の説明に言及しておく。図面の助けによる、本発明の好ましい実施形態の説明に関連して、概して、本教示の好ましい実施形態およびさらなる発展について説明する。
【図面の簡単な説明】
【0022】
【
図1】インテル(登録商標)FlexRANを使う、専用CPUコアの中のあるトランスポートブロックの復号時間を示す図である。
【
図2】計算集約型タスクをハードウェアアクセラレータにオフロードするときのレイテンシ改善の概観を示す図である。
【
図3】従来技術によるO-RANアクセラレーション抽象化レイヤ(AAL)の一般的概念を示す概略図である。
【
図4】従来技術によるO-RANアーキテクチャを示す概略図である。
【
図5】本発明の実施形態による、AALブローカで強化されたO-RANアクセラレーション抽象化レイヤ(AAL)を示す概略図である。
【
図6】本発明の実施形態による、修正されたE2およびO3インターフェースをもつ拡張型O-RANアーキテクチャを示す概略図である。
【
図7】本発明の実施形態による、AALブローカポリシーの実装形態を示す概略図である。
【発明を実施するための形態】
【0023】
本発明の実施形態は、オープン無線アクセスネットワーク(O-RAN)Alliance仕様による、O-RANおよびそれらの実装形態に基づく。O-RANは、モバイルネットワークのRANにおける相互運用性を向上するように設計された技術的概念を提供する。オープンインターフェースのための規格を定義することによって、およびハードウェアから抽象化されたネットワーク要素を提供することによって、O-RANは、専有技術に依存しない無線アクセスネットワークを作成する。
【0024】
このコンテキストにおいて、O-RANのアクセラレーション抽象化レイヤ(AAL)は、ハードウェアアクセラレータ(HA)にアクセスするための分散ユニット(DU)など、ネットワーク機能(NF)のための共通インターフェースを提供する。この抽象化により、開発者は、自分達のソフトウェア設計を、アクセラレータの詳細から切り離すことができる。この目的のために、
図3に示すように、O-RANは、AAL論理処理ユニット(AAL-LPU)10という概念を、O-RAN AAL20の一部として取り入れる。AAL-LPU10は、gNB16中で稼動する特定のNF14(たとえば、DU)内でのHA12リソースの論理表現である。この表現は、各々がAAL-LPU10として表される、HA12リソースの複数の処理ユニット、サブシステム、またはハードパーティションを提供するHA12をサポートする。HA12は複数のAAL-LPU10をサポートし得るが、
図3に示すように、AAL-LPU10は常に、単一のHA12に関連付けられる。次いで、AALキュー18が、AAL-LPU10リソースを共有するために、NF14によって使われる。さらに、AAL-LPU10は、1つまたは複数のAALプロファイルに関連付けられ得るが、これは、HA12にオフロードすることができる機能を指定する。このアーキテクチャは、参照により本明細書に組み込まれている、O-RAN Alliance、「O-RAN Acceleration Abstraction Layer General Aspects and Principles (O-RAN.WG6.AAL-GAnP-v01.01)」、Technical Specification、2021年7月に詳しく記載されている。
【0025】
図4は、O-RANアーキテクチャの上位ビューを示し、簡単のために、O-DUネットワークノード22のみが示されている。図示されるように、O-RANアーキテクチャは、ネットワーク機能(たとえばO-DU22)、ネットワーク機能を管理するためのサービス管理およびオーケストレーションフレームワーク(SMO)24、ならびにクラウド化ネットワーク機能をホストするためのO-Cloud26(O-RANクラウド)からなる。SMO24は、非リアルタイム(非RT)RANインテリジェントコントローラ(RIC)28を中心構成要素として含み、RAN要素およびリソースの非リアルタイム制御および最適化を可能にする。
【0026】
DU22は、E2インターフェース32を通して準リアルタイム(準RT)RIC30によって制御される。共通3GPP(登録商標)無線リソース管理(RRM)動作は、たとえば、このインターフェースを通して実施される。逆に、O2インターフェース34が、2つのサービス、すなわち、インフラストラクチャ管理サービス(O-Cloud26インフラストラクチャの展開および管理)、および展開管理サービス(O-Cloud26インフラストラクチャ上での仮想化展開のライフサイクル管理)を提供するのに使われる。
【0027】
この手法の主要な問題は、負荷分散を効率的に実装することができないことであり、というのは、NF14が、HA12を貪欲に選択する可能性があり、たとえば、異種加速リソースをもつプラットフォームにおいて、NF14が、最も速いHA12に負荷をかけすぎる場合があり、その結果、全体として性能不良になるからである。
【0028】
このように、適切な抽象化を提供するのにもかかわらず、O-RANのAAL20だけでは、アクセラレーションリソースの集中型整合(
図3参照)がサポートされないので、共有インフラストラクチャへのアクセスを効率的に仲介することができず、関連付けられたDU22(
図4参照)に無線スケジューリングポリシーを課すこともできない。逆に、本発明の実施形態によると、計算および無線リソースの集中制御が、リソース効率的vRANを構築するのに不可欠であることが認識されている。
【0029】
上記問題に対処するために、本発明の実施形態は、O-RANのAAL20の上に実装される上位レイヤ抽象化を提供する。本発明の一実施形態によると、この抽象化は、特定の機能についての要求をフォワードする、あらゆるvRANノードに関連付けられた1つまたは複数の仮想動作(VO)を含む。高速化機能、たとえば、FEC(前方誤り訂正)、FFT(高速フーリエ変換)、CRC(巡回冗長検査)ごとに1つのVOがある。要求は、動作についての情報と、動作を実行するのに必要とされるデータ(たとえば、FEC復号動作の場合はコードブロック)とを含み得る。さらに、要求は、動作を実行するための設定(たとえば、FEC復号動作の場合は復号反復の最大回数)を含み得る。
【0030】
その上、本発明の一実施形態によると、また、同様の参照番号が
図3および
図4と同様の構成要素/機能を示す
図5に示すように、O-RANのAAL20の上に実装される上位レイヤ抽象化は、O-Cloud(O-RAN)に基づくHA12のプールへの無線タスク要求をすべて整合させるように構成されるAALブローカ36を備え得る。
【0031】
より具体的には、ある実施形態によると、AALブローカ36は、vRANノード38からの要求(たとえば、DU22からのトランスポートブロックをLDPC(低密度パリティチェック)復号するための要求)を受信するように構成されてよい。さらに、AALブローカ36は、スケジューリングポリシーに従って、最も適切なAALデバイス10の処理キュー18に要求を割り振ればよい。それぞれのHA12による、要求されたタスクの実行の後、AALブローカ36は、対応するAALデバイス10から応答(すなわち、実行結果)を受信してよく、応答を、発行元vRANノード38に(たとえば、復号されたトランスポートブロックをDU22に)フォワードしてよい。
【0032】
図5に示すように、本発明の一実施形態によると、AALブローカ36は、単一vRANノード38であるかのように、O-RAN AAL20インターフェースと対話するように実装され、構成されてよい。
【0033】
図6に示されるように、本発明の一実施形態によると、無線処理動作の割振りを整合させるためのシステムは、AALブローカ36と対話/通信し得るリソースコントローラ40をさらに備え得る。より具体的には、リソースコントローラ40が、新規O3インターフェース42を介してAALブローカ36を構成する(準リアルタイム動作)ことになっている場合がある。たとえば、O3インターフェース42を介して、リソースコントローラ40は、AALブローカ36上で計算ポリシーを展開し得る。
【0034】
さらに、リソースコントローラ40は、新規E2インターフェース44を介して、O-DU22などのvRANノード38と接続されて、これらのノードにおける無線リソースポリシーを構成し得る(準リアルタイム動作)。またさらに、リソースコントローラ40は、新規E2インターフェース46を介して、準RT RIC30と接続されてよい。具体的には、インターフェース46は、リソースコントローラ40によって、vRANノード38(たとえばO-DU22)上で構成された無線ポリシーにおける変化を準RT RIC30に通知するのに使われてよい。
【0035】
本発明の一実施形態によると、AALブローカ36によって適用されたスケジューリングポリシー37が、システム状態(特に、各AALデバイス10における処理キュー18の現在の占有)、要求のタイプ(仮想動作)、および着信要求についての情報(たとえば、トランスポートブロックサイズまたは信号対ノイズ比)を、コスト関数を最小にするAAL LPU10にマップする、機械学習(ML)モデル、最適化モデルまたはヒューリスティックで実装されることになっている場合がある。このことは、
図7に概略的に示されている。
【0036】
本発明の一実施形態によると、スケジューリングポリシー37は、たとえば以下のように、基底インフラストラクチャのネットワーキングスループットおよびエネルギー消費についての情報を組み合わせるコスト関数を最小にするように適合されてよい。
【0037】
【0038】
上式で、xtは、要求tのために行われる共同無線/計算スケジューリング決定であり、ctは、要求tに関連付けられたコンテキスト(たとえば、トランスポートブロックサイズ、SNRなど)であり、st(ct,xt)∈{0,1}は、制約された(st(ct,xt)=0)または制約されていない(st(ct,xt)=1)事前定義された時間内に、要求tがアクセラレータによってサービスされたかどうかを示し、pt(ct,xt)は、コンテキストctおよび決定xtが与えられている場合に、要求tにサービスするために消費されるエネルギーを示す。
【0039】
無線スケジューリングポリシー37は、(リソースコントローラ40を介して)新規E2インターフェース44を使うことによって、O-DU22などのvRANノード38に課され得る。
【0040】
タスク要求を処理するのに必要とされるエネルギーは、アクセラレータにわたって異なり、要求にサービスするためのレイテンシも異なることに留意することが重要である。たとえば、LDPC復号(FEC)を実施するために専用CPUによって消費されるエネルギーは、GPUベースの実装のエネルギーよりも一桁低いが、そのレイテンシはやはり一桁大きい。この情報は、先験的に較正することも、または機械学習技法により学習することもできる。
【0041】
ある実施形態では、本発明は、複数のvRANノードに関連付けられた無線処理動作の割振りを共有計算リソースに整合させるための方法を提供し、方法は、共通および共有計算リソースの割振りを、集中方式で、複数のvRANノード38(たとえば、vDU22)に関連付けられた無線処理タスクに整合させるAALブローカ36を使うステップを含む。
【0042】
実施形態によると、方法は、次のステップのうちの1つまたは複数を含み得る。
1)ネットワーク機能(NF)が、AALブローカ36への動作(たとえばFEC復号)を要求する。要求は、動作についての情報と、動作を実行するのに必要とされるデータ(たとえば、FEC復号動作の場合はコードブロック)、および動作を実行するための設定(たとえば、FEC復号動作の場合は復号反復の最大回数)とを含み得る。
2)AALブローカ36は、物理ハードウェアアクセラレータ12(たとえば、GPU、FPGA、ASIC、またはこの動作に専用のCPUのプール)のキュー18に動作要求をフォワードするためのポリシーを使う。
3)ハードウェアアクセラレータ12(たとえば、GPU、FPGA、ASIC、またはこの動作に専用のCPUのプール)は、それに関連付けられたキュー18の中のあらゆる要求のために、事前定義された動作をFIFO方式で実施する。終了すると、応答(たとえば、FEC復号動作の場合は復号されたビット)はAALブローカ36へ返送され、ブローカ36は応答を、対応するvRANノード38にフォワードする。
【0043】
本明細書で説明した本発明の多くの修正形態および他の実施形態が、上記の記述および関連図面に提示した教示の利益を有する、本発明が関係する分野の当業者には思いつくであろう。したがって、本発明は、開示した具体的実施形態に限定されるものではないこと、ならびに修正形態および他の実施形態が添付の請求項に含まれることが意図されることを理解されたい。具体的用語が本明細書において利用されるが、それらは、一般的および説明的意味でのみ使われているのであって、限定目的で使われているのではない。
【符号の説明】
【0044】
10 AAL論理処理ユニット(AAL-LPU)、AALデバイス
12 HA、ハードウェアアクセラレータ
14 NF
16 gNB
18 AALキュー、処理キュー、キュー
20 O-RAN AAL
22 O-DUネットワークノード、O-DU、DU、vDU
24 サービス管理およびオーケストレーションフレームワーク(SMO)
26 O-Cloud(O-RANクラウド)
28 非リアルタイム(非RT)RANインテリジェントコントローラ(RIC)
30 準リアルタイム(準RT)RIC
32 E2インターフェース
34 O2インターフェース
36 AALブローカ
37 スケジューリングポリシー、無線スケジューリングポリシー
38 vRANノード
40 リソースコントローラ
42 O3インターフェース
44 E2インターフェース
46 E2インターフェース、インターフェース
【国際調査報告】