(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-11-21
(54)【発明の名称】分散ユニットスケーリングを実行するネットワーク及びその動作方法
(51)【国際特許分類】
H04W 28/16 20090101AFI20241114BHJP
H04W 88/08 20090101ALI20241114BHJP
【FI】
H04W28/16
H04W88/08
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2024534630
(86)(22)【出願日】2022-12-09
(85)【翻訳文提出日】2024-06-10
(86)【国際出願番号】 KR2022020005
(87)【国際公開番号】W WO2023113385
(87)【国際公開日】2023-06-22
(31)【優先権主張番号】10-2021-0180124
(32)【優先日】2021-12-15
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2022-0031578
(32)【優先日】2022-03-14
(33)【優先権主張国・地域又は機関】KR
(81)【指定国・地域】
(71)【出願人】
【識別番号】503447036
【氏名又は名称】サムスン エレクトロニクス カンパニー リミテッド
(74)【代理人】
【識別番号】110000051
【氏名又は名称】弁理士法人共生国際特許事務所
(72)【発明者】
【氏名】クォン,ジュンファン
(72)【発明者】
【氏名】キム,テヨン
(72)【発明者】
【氏名】パク,ハンジョン
【テーマコード(参考)】
5K067
【Fターム(参考)】
5K067EE10
5K067EE13
(57)【要約】
【課題】ユーザ装置(UE)の通信を切断することなく、基地局のデータ処理部(DU)をスケーリングするための方法を提供する。
【解決手段】本発明の分散ユニット(DU)を含む無線アクセスネットワーク装置による通信方法は、スケーリングコントローラによって、第1のサーバを介して実行される第1のDUのリソース使用量に関する情報を取得する過程と、スケーリングコントローラによって、第1のDUのリソース使用量に関する情報に基づいて、第2のDUを選択する過程と、スケーリングコントローラによって、第1のDUのサービスを処理している少なくとも1つの第1のリモートユニット(RU)の中から、第2のDUに移行(migration)する第2のRUを選択する過程と、第1のDUによって、第2のRUに関する情報を、第2のDUに送信する過程とを含み、少なくとも1つの第1のRUのうち、第2のRUを除いた残りのRUで、第1のDUのサービスを処理するように構成される。
【選択図】
図4
【特許請求の範囲】
【請求項1】
分散ユニット(DU)を含む無線アクセスネットワーク装置であって、
少なくとも1つの第1のリモートユニット(RU)と通信する第1のDUと、
第1のサーバのリソース状態に応じて、スケーリングプロセスを制御するスケーリングコントローラ(scaling controller)と、
前記第1のDUに関するリソース使用量情報に基づいて、前記スケーリングコントローラによって選択される第2のDUと、を含み、
前記スケーリングコントローラは、前記第1のDUのサービスを処理している前記少なくとも1つの第1のRUの中から、前記第2のDUに移行(migration)する第2のRUを選択し、
前記第1のDUは、移行ターゲットの前記第2のRUに関する情報を、前記第2のDUに送信し、
前記少なくとも1つの第1のRUのうち、前記第2のRUを除いた残りのRUは、前記第1のDUのサービスを処理することを特徴とする装置。
【請求項2】
前記スケーリングコントローラは、前記第2のDUのサービスを実行する容量を有する第2のサーバを選択するように構成されたことを特徴とする請求項1に記載の装置。
【請求項3】
前記第2のDUは、前記第1のDUのリソース使用量が、前記第1のサーバの利用可能なリソースに関連する条件を満たすことに基づいて、前記第1のサーバとは異なる第2のサーバを用いて、前記第1のDUのサービスの少なくとも一部を処理する前記第2のDUとして選択されたことを特徴とする請求項1に記載の装置。
【請求項4】
前記第2のRUに関する情報は、移行ターゲットUEのSRB(signaling radio bearer)リスト及び/又はDRB(data radio bearer)リストを含むことを特徴とする請求項1に記載の装置。
【請求項5】
前記第2のRUに関する情報は、前記第2のRUに関連するUEに関する情報、チャネル状態に関する情報、無線リソーススケジューリング情報(radio resource scheduling information)、又はシステム情報(system information)のうちの少なくとも1つを含むことを特徴とする請求項1に記載の装置。
【請求項6】
前記第1のDUは、前記第2のDUに、前記移行ターゲットの前記第2のRUに関する情報を同期化するための通信セッションを作成するように構成されたことを特徴とする請求項1に記載の装置。
【請求項7】
前記第2のDUは、前記第2のRUに接続された少なくとも1つのUEの中から、前記第2のDUによって処理されるUEを選択するように構成されることを特徴とする請求項1に記載の装置。
【請求項8】
前記第1のDUは、移行ターゲットUEに関する情報を、前記第2のDUに送信するように構成され、前記移行ターゲットUEは、前記第2のDUに対するサービスを処理するように構成されることを特徴とする請求項1に記載の装置。
【請求項9】
前記無線アクセスネットワーク装置は、前記第1のDU及び前記第2のDUを中央ユニット(CU)に接続するF1スプリッタをさらに含み、前記F1スプリッタは、データフローを第1のDUから切り替えて、前記第2のDUに送信するように構成されたことを特徴とする請求項1に記載の装置。
【請求項10】
前記無線アクセスネットワーク装置は、前記分散ユニット(DU)と中央ユニット(CU)を接続するF1スプリッタ、及び
前記分散ユニット(DU)とリモートユニット(RU)を接続するフロントホール(FH)スプリッタをさらに含み、
前記スケーリングコントローラは、前記第2のDUのサービスに関する情報を、前記F1スプリッタ及び前記FHスプリッタにそれぞれ登録するように構成されたことを特徴とする請求項1に記載の装置。
【請求項11】
分散ユニット(DU)を含む無線アクセスネットワーク装置による通信方法であって、
スケーリングコントローラ(scaling controller)によって、第1のサーバを介して実行される第1のDUのリソース使用量に関する情報を取得する過程と、
前記スケーリングコントローラによって、前記第1のDUのリソース使用量に関する情報に基づいて、第2のDUを選択する過程と、
前記スケーリングコントローラによって、前記第1のDUのサービスを処理している少なくとも1つの第1のリモートユニット(RU)の中から、前記第2のDUに移行(migration)する第2のRUを選択する過程と、
前記第1のDUによって、前記第2のRUに関する情報を前記第2のDUに送信する過程と、を含み、
前記少なくとも1つの第1のRUのうち、前記第2のRUを除いた残りのRUは、前記第1のDUのサービスを処理するように構成されたことを特徴とする方法。
【請求項12】
前記スケーリングコントローラによって、前記第2のDUのサービスを実行する容量を有する第2のサーバを選択する過程をさらに含むことを特徴とする請求項11に記載の方法。
【請求項13】
前記第2のDUを選択する過程は、前記第1のDUのリソース使用量が、前記第1のサーバの利用可能なリソースに関連する条件を満たすことに基づいて、前記第1のサーバとは異なる第2のサーバを用いて、前記第1のDUのサービスの少なくとも一部を処理する前記第2のDUを選択することであることを特徴とする請求項11に記載の方法。
【請求項14】
前記第2のRUに関する情報は、移行ターゲットUEに対するSRB(signaling radio bearer)リスト及び/又はDRB(data radio bearer)リストを含むことを特徴とする請求項11に記載の方法。
【請求項15】
前記第2のRUに関する情報は、前記第2のRUに関連するUEに関する情報、チャネル状態に関する情報、無線リソーススケジューリング情報(radio resource scheduling information)、又はシステム情報(system information)のうちの少なくとも1つを含むことを特徴とする請求項11に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、無線アクセスネットワークの独立した機能である分散ユニットをスケーリングするための方法、及び/又は無線リソースの割り当てに関する。
【背景技術】
【0002】
従来の基地局(base station)は、基地局のデータ処理部(distributed unit、DU)と無線送受信部(radio unit又はremote unit(RU))がセルサイト(cell site)内に一体的に設置される形態で実現された。しかしながら、このような統合実装には、物理的な制限がある。例えば、サービス加入者又やトラフィックが増加すると、オペレータは、基地局内に新しいセルサイトを確立する必要がある。この問題に対処するために、C-RAN(centralized RAN(radio access network)又はクラウドRAN(cloud RAN)構造が実装された。C-RANは、DUが1つの物理的な場所に配置され、RUが実際にユーザ装置(UE)との間で無線信号を送受信するセルサイトに配置される構造を有する。DU及びRUは、光ケーブル又は同軸ケーブルを介して接続される構成であってもよい。RUとDUが分離されると、その間の通信のためのインターフェース規格が必要となり、RUとDUの間では、CPRI(Common Public Radio Interface)などの規格が使用される。3GPP(登録商標)(3rd Generation Partnership Project)は、基地局構造の標準化を進めており、5Gシステムに適用できるオープンネットワーク標準であるO-RAN(Open Radio Access Network)について議論している最中である。
【0003】
O-RANにおいて、従来の3GPP NEであってもよいRU、DU、CU-CP(central unit-control plane)、CU-UP(central unit-user plane)は、それぞれO-RU、O-DU、O-CU-CP、及びO-CU-UPであってもよく(これらを総称してO-RAN基地局と呼ぶこともある)、RIC(RAN Intelligent Controller)とNRT-RIC(non-real-time RAN Intelligent Controller)も追加提案されている。
【0004】
次世代通信システムでは、新しい無線アクセスネットワーク(radio access network;RAN)構造として、中央ユニット(centralized unit;CU)、分散ユニット(distributed unit;DU)、及びリモートユニット(remote unit;RU)を含む無線アクセスネットワーク構造が検討されている。通信のための無線プロトコルスタック又は機能は、様々な方法でCU、DU、及びRUに分割(split)できる。標準では、これを関数分割(function split)と呼ぶ。RAN機能を分割することで、各移動通信事業者の環境に応じた多様な形態の運用が可能になる。例えば、RU機器のみをセルサイトに設置し、CU及びDUを中央局(central office)又はクラウドデータセンタ(cloud data center)に分散して、フロントホール(frontfaul)経由で接続することで、全体の運用コストを節約することができる。1つのCUの下には、少なくとも1つのDUが存在することができる。通信のための無線プロトコルスタック又は機能は、様々な方法でCUとDUとの間で分割することができる。例えば、PDCP層/機能は、CU内に位置し、RLC/MAC/PHY機能/層は、DU内に位置することができる。別のオプションでは、PDCP/RLC層/機能は、CU内に配置され、MAC/PHY層/機能は、DU内に配置されてもよい。同様に、CU、DU、RUの間で機能を分割するための他のオプションがある場合がある。無線アクセスネットワーク構造では、ユーザ装置(UE)モビリティにより、UEは、同じCU内で1つのDUから別のDUに移動することも、異なるCU内で1つのDUから別のDUに移動することもできる。あるいは、UEは、ソース(source)DU上で無線リンク障害(radio link failure;RLF)を検出し、その後、同じCU又は異なるCU内のターゲット(target)DUに切り替えることもある。従来のH/WベースのCU及びDUの運用方式は、ソフトウェアで実装され、仮想マシン(virtual machine;VM)又はコンテナ(container)技術に基づいたクラウド環境で、CU及びDUを運用するように進化している。
【発明の概要】
【発明が解決しようとする課題】
【0005】
クラウド環境の導入により、サービス提供やアプリケーション開発における内部リソースの効率的な活用が可能となり、数秒以内に高速にアプリケーションの配布や管理が可能なコンテナベースのサービスが登場する。しかしながら、コンテナベースのマイクロサービスは、急増するユーザトラフィックに対応する必要がある。従来のサービスでは、コンテナプラットフォーム間のサービス切り替えや柔軟なリソース拡張ができないことが多くあった。そこで、クラウド環境においてコンテナ内のリソースを、バランスよく利用するためのスケールアウト/イン方法が注目されている。
【0006】
RUのデータを処理できるのと同じだけのサーバリソースが、DUに動的に割り当てられる場合、必要に応じて、サーバリソース全体が削減されることがあるが、現在のNR規格には、UEの通信を切断することなく、リソースをDUに動的に割り当てる方法が欠けている。
【0007】
RUの平均的なデータ処理に必要な容量だけのサーバリソースがDUに割り当てられ、RUのデータ量が増加した場合、追加のDUが別のサーバによって実行されるようにトラフィックが転送され、DUが担当していた複数のRUの一部が、新たに分散されたDUによって処理される。サーバリソースがDUに動的に割り当てられる場合、全体的なリソース(CPU、メモリ、アクセラレータなど)の使用量が削減されることがある。既存の(ソース)DU-RU-UE(端末)データフローを、新しい(ターゲット)DU-RU-UEにシームレスに転送するための方法が必要である。
【0008】
様々な実施形態は、UE通信を切断することなく、DUをスケーリングするための方法を説明する。
【課題を解決するための手段】
【0009】
様々な実施形態によれば、分散ユニット(DU)を含む無線アクセスネットワーク装置が提供される、この装置は、少なくとも1つの第1のリモートユニット(RU)と通信するように構成された第1のDUと、第1のサーバのリソース状態に応じて、スケーリングプロセスを制御するように構成されたスケーリングコントローラ(scaling controller)(制御回路を含む)と、前記第1のDUに関するリソース使用情報に基づいて、前記スケーリングコントローラによって選択された第2のDUを含み、前記スケーリングコントローラは、前記第1のDUのサービスを処理している前記第1のRUの中から、前記第2のDUに移行(migration)する第2のRUを選択するように構成され得、前記第1のDUは、移行ターゲットである第2のRUに関する情報を、前記第2のDUに送信するように構成され、前記第1のRUのうち前記第2のRUを除いた残りのRUは、前記第1のDUのサービスを処理するように構成されてもよい。本明細書の各DU、RU、CU、UE、及びサーバは、処理回路などの回路を含むことができる。
【0010】
様々な実施形態によれば、分散ユニット(DU)を含む無線アクセスネットワーク装置による通信方法が提供され得る。この方法は、スケーリングコントローラによって、第1のサーバを介して実行される第1のDUのリソース使用量に関する情報を取得する過程と、前記スケーリングコントローラによって、前記第1のDUのリソース使用量に関する情報に基づいて、第2のDUを選択する過程と、前記スケーリングコントローラによって、前記第1のDUのサービスを処理している第1のリモートユニット(RU)の中から、前記第2のDUに移行する第2のRUを選択する過程と、前記第1のDUによって、前記第2のRUに関する情報を、前記第2のDUに送信する過程と、を含み、前記第1のRUのうち第2のRUを除いた残りのRUは、前記第1のDUのサービスを処理するように構成され得る。
【発明の効果】
【0011】
様々な実施形態によれば、UE端末が接続され通信することをサポートするRANでソフトウェア化された仮想DUの動的スケーリングが可能になり、全体DUが必要とするサーバリソースを効率的に使用することができる。
【0012】
一実施形態によれば、専用のDUをRUに割り当てる代わりに、クラウドプラットフォームのサーバリソースプーリング(pooling)効果を利用して、RUのトラフィック量に応じて必要な量だけのサーバリソースがDUに割り当てられるようにすることで、必要なサーバリソースを減らし、サーバ数の減少により、消費電力も一緒に削減することができる。
【0013】
様々な実施形態によれば、DU内の無線リソース割り当てを担当するスケジューラによって、UEに割り当てられたリソースDUからターゲットDUまでの無線ベアラをシームレスに制御することができる。
【図面の簡単な説明】
【0014】
【
図1a】様々な実施形態によるRAN及びコアネットワーク(core network;CN)を示すブロック図である。
【
図1b】様々な実施形態によるRAN装置のハードウェア構成を示すブロック図である。
【
図2a】様々な実施形態による、RANシステムにおけるセルサイト及び中央局を示す図である。
【
図2b】様々な実施形態による、クラウド環境におけるサーバ及びリソースプールを示す図である。
【
図3a】様々な実施形態によるネットワーク構成要素を示すブロック図である。
【
図3b】様々な実施形態による、複数のDUを含むネットワークを示すブロック図である。
【
図3c】DUのデータフロー及びデータフローの転送を示す図である。
【
図4】様々な実施形態による、スケーリングコントローラによる動作を示す図である。
【
図5a】DUのリソース使用量に応じたクラウド環境におけるスケーリングコントローラによるスケールアウトプロセスを示す図である。
【
図5b】DUのリソース使用量に応じたクラウド環境におけるスケーリングコントローラによるスケールインプロセスを示す図である。
【発明を実施するための形態】
【0015】
図1aは、様々な実施形態によるRAN及びコアネットワーク(core network;CN)を示すブロック図である。
【0016】
様々な実施形態によれば、RAN150は、少なくとも1つの分散ユニット(distributed unit;DU)151、少なくとも1つのCU-CP(central unit-control plane)152、又は少なくとも1つのCU-UP(central unit-user plane)153のうちの少なくとも1つを含む。RAN150は、少なくとも1つのRU(リモートユニット又はラジオユニット)161に接続されるように示されているが、これは、例示的なものであり、少なくとも1つのRU161は、RAN150に接続されるか、又はRAN150に含まれるように構成される。RAN150は、O-RANであってもよく、この場合、DU151は、O-DUであってもよく、CU-CP152は、O-CU-CPであってもよく、CU-UP153は、O-CU-UPであってもよく、RU161は、O-RUであってもよい。本明細書における各「ユニット(unit)」は、回路を含む。
【0017】
様々な実施形態によれば、RU161は、ユーザ装置(user equipment、UE)160と通信を実行する。RU161は、下位物理層(low-PHY)機能及びRF処理を提供する論理ノードである。DU151は、RLC、MAC、及び上位物理層(high-PHY)の機能を提供する論理ノードであり、例えば、RU161に接続される。CU152、153は、RRC(radio resource control)、SDAP(service data adaptation protocol)、及びPDCP(packet data convergence protocol)プロトコルの機能を提供する論理ノードである。CU-CP152は、RRC及びPDCPの制御平面部分の機能を提供する論理ノードである。CU-UP153は、SDAP及びPDCPのユーザ平面部分の機能を提供する論理ノードである。
【0018】
様々な実施形態によれば、コアネットワーク(例えば、5GC 5th generation core)154は、AMF(access and mobility management function)155、UPF(User plane Function)156、又はSMF(Session Management Function)157のうちの少なくとも1つを含む。AMF155は、UE160のユニットにおけるアクセス及びモビリティ管理のための機能を提供する。SMF157は、セッション管理機能を提供する。UPF156は、データネットワークから受信したダウンリンクデータをUE160に転送するか、又はUE160から受信したアップリンクデータを、データネットワークに転送する。一例として、CU-CP152は、N2インターフェース(又はNGAPインターフェース)を介して、AMF155に直接的又は間接的に接続される。AMF155は、N11インターフェースを介して、SMF157に直接的又は間接的に接続される。CU-UP153は、N3インターフェースを介して、UPF156に直接的又は間接的に接続される。
【0019】
図1bは、様々な実施形態によるネットワーク装置のハードウェア構成を示すブロック図である。
【0020】
様々な実施形態によれば、RAN装置は、処理回路を含むプロセッサ120、記憶装置130、又は処理回路を含む通信モジュール190のうちの少なくとも1つを含む。
【0021】
様々な実施形態によれば、プロセッサ120は、例えば、ソフトウェア(例えば、プログラム)を実行して、プロセッサ120に接続された、RIC101(又はRIC101の機能を実行するように構成された電子装置)の少なくとも1つの他の構成要素(例えば、ハードウェア又はソフトウェア構成要素)を制御し、様々なデータ処理又は演算を実行する。ソフトウェアには、例えば、xAPPが含まれるが、これに限定されるものではない。一実施形態によれば、データ処理又は演算の少なくとも一部として、プロセッサ120(処理回路を含む)は、別の構成要素から受信したコマンド又はデータを、記憶装置130に記憶し、記憶装置130に記憶されたコマンド又はデータを処理し、そして結果データを記憶装置130に保存する。一実施形態によれば、プロセッサ120は、中央処理装置、アプリケーションプロセッサ、ニューラルネットワーク処理装置(NPU:neural processing unit)、又は通信プロセッサのうちの少なくとも一部を含むが、プロセッサ120の種類には制限がない。ニューラルネットワーク処理装置は、人工知能モデルの処理に特化したハードウェア構造を含む。人工知能モデルは、機械学習(例えば、強化学習、教師あり学習(supervised learning)、教師なし学習(unsupervised learning)、又は半教師あり学習(semi-supervised learning)を含み得るが、上記の例に限定されない。人工知能モデルは、複数の人工ニューラルネットワーク層を含む。人工ニューラルネットワークは、DNN(deep neural network)、CNN(convolutional neural network)、RNN(recurrent neural network)、RBM(restricted Boltzmann machine)、DBN(deep belief network)、BRDNN(bidirectional recurrent deep neural network)、ディープQネットワーク(deep Q-networks)、又はそれらの2つ以上の組み合わせが挙げられるが、上記の例に限定されない。人工知能モデルは、追加的に又は代替的に、ハードウェア構造以外のソフトウェア構造を含んでもよい。当業者であれば、記憶装置130は、ディスク(例えば、HDD)など、データを記憶できる装置であれば、限定されないことを理解するであろう。
【0022】
様々な実施形態によれば、記憶装置130は、プロセッサ120又は通信モジュール190によって使用される様々なデータを保存する。データには、例えば、ソフトウェア及びそれに関連するコマンドに対する入力データ又は出力データが含まれる。
【0023】
様々な実施形態によれば、通信モジュール190は、RAN装置と外部電子装置との間に直接(例えば、有線)通信チャネル又は無線通信チャネルを確立し、又は確立された通信チャネルを介した通信をサポートする。通信モジュール190は、例えば、E2インターフェースをサポートするものであれば、その種類は、限定されない。一方、RAN150が単一の装置として実装される場合、処理回路を含む通信モジュール190は、両方のエンティティのためのインターフェースであり、及び/又はそれらエンティティのためのインターフェースを示す。
【0024】
通信システムにおいて、新たな無線アクセスネットワーク(radio access network、RAN)構造として、中央ユニット(centralized unit;CU)、分散ユニット(distributed unit;DU)、及びリモートユニット(remote unit;RU)を含む無線アクセスネットワーク構造が検討されている。通信のための無線プロトコルスタック又は機能は、様々な方法でCUとDUとの間で分割(split)される。規格では、これを関数分割(function split)という。RAN機能を分割することで、各移動通信事業者の環境に応じた多様な運用が可能になる。一例では、RU機器のみがセルサイト(cell site)に設置され、CU及びDUは、中央局(central office)又はクラウドデータセンタ(cloud data center)に分散されて、フロントホール(fronthaul)を介して接続されるようにすることで、全体的な運用コストを節約することができる。1つのCUの下に1つ又はそれ以上のDUが存在してもよい。通信のための無線プロトコルスタック又は機能は、様々な方法でCUとDUとの間で分割することができる。例えば、1つのオプションでは、PDCP層/機能は、CU内に配置され、RLC/MAC/PHY機能/層は、DU内に配置される。別のオプションでは、PDCP/RLC層/機能が、CU内に配置され、MAC/PHY層/機能が、DU内に配置されてもよい。同様に、CUとDUとの間で機能を分割するための他のオプションがある。無線アクセスネットワーク構造では、ユーザ装置(user equipment、UE)モビリティにより、UEは、同じCU内で1つのDUから別のDUに移動することも、異なるCU内で1つのDUから別のDUに移動することもできる。あるいは、UEは、サービングDU上で無線リンク障害(radio link failure;RLF)を検出し、その後、同じCU又は異なるCU内のターゲットDUに切り替えることができる。
【0025】
図2aは、様々な実施形態による、RANシステムにおけるセルサイト及び中央局を示す図である。
【0026】
次世代通信システムでは、RAN機能を分割することで、各移動通信事業者の環境に応じて、多様な運用が可能となる。例えば、少なくとも1つのRU211機器のみがセルサイト(cell site)210に設置され、CU222(又は仮想CU)及び少なくとも1つのDU221(又は仮想DU)は、中央局(central office)220又はクラウド環境(例えば、クラウドデータセンタ)に配布されて、フロントホール(fronthaul)(FH)223を介して接続され、全体的な運用コストを節約することができる。少なくとも1つのDU221は、1つのCU222に対応する(又は、接続される)。従来のH/WベースのCU及びDUの動作方式とは対照的に、CU及び/又はDUは、ソフトウェア(software)で実装される。例えば、CU及び/又はDUは、仮想マシン(virtual machine;VM)又はコンテナ(container)技術に基づいたクラウド環境で動作する。
【0027】
図2bは、様々な実施形態による、クラウド環境におけるサーバ及びリソースプールを示す図である。
【0028】
図2bの左側に示される実施形態を参照すると、少なくとも1つのDU231は、少なくとも1つのセルサイト210のそれぞれに接続されるようにそれぞれ構成される。例えば、1つ又はそれ以上のRU211が1つのセルサイト210に対応する(又は接続される)。左側に示される実施形態によれば、一例として、1つのDU231が1つのセルサイト210に固定的に(fixedly)対応(又は接続)される。この場合、セルサイト210(又はセルサイト210を構成するエンティティ(例えば、1つ又はそれ以上のRU211))の専用(dedicated)DUが設定され、DU231を、一例として、専用DUと呼ぶことがある。1つのセルサイト210に対して、専用DUが設定されるということは、1つのセルサイト210を構成する1つ又はそれ以上のRU211に対して、専用DUが設定されると解釈されてもよい。各専用DUを実行するために、ネットワーク装置は、各専用DUのためのサーバ(VMやコンテナなど)を割り当てる(又は、実行する)必要があり、サーバの実行には、指定されたサイズ以上のリソースを割り当てる必要がある。指定されたサイズ以上のリソースは、予め設定されていてもよく、可変であってもよい。一方、
図2bの左側を参照すると、バー(bar)状のインジケータ231aが少なくとも1つのDU320a及び320bのそれぞれに表示されている。各インジケータ231aは、少なくとも1つのDU231で利用可能な最大リソースに対する、少なくとも1つのDU231のそれぞれによって現在使用されているリソースの割合を示す。最大利用可能なリソースは、例えば、専用DUを実行するためにサーバ(例えば、VM又はコンテナ)に割り当てられた最大利用可能なリソースである。
図2bの左側に示される実施形態と同様に、専用DUがセルサイトに対応する(又は接続する)場合、1つのDU(例えば、DU231)で利用可能なリソース全体が使用されないことがあり、これにより、アイドルリソースが生じ、ネットワーク装置内のリソースの無駄が生じることがる。一例として、利用可能なリソースは、最大数のUEが1つ又はそれ以上のRU211に接続されているという仮定の下で決定され、これにより、最大数よりも少ないUEがRU211に接続される場合には、アイドルリソースが発生する可能性がある。しかしながら、1つ又はそれ以上のRU211に固定リソースが割り当てられるので、アイドルリソースを使用することはできない。
【0029】
図2bの右側の実施形態を参照すると、専用(dedicated)DU231をRU211に割り当てる代わりに、サーバプール232をクラウド環境に配置して、リソースプーリング(pooling)機能を使用する。
図2bの左側の実施形態とは対照的に、1つのセルサイトに専用DUを割り当てるのではなく、1つのサーバ(例えば、サーバ232b)が複数のセルサイトに含まれるRUに対応する機能を実行する。例えば、サーバ232bは、1つのセルサイトに含まれるRUに対応する機能を実行しながら、他のセルサイトに含まれるRUに対応する機能を実行する。ネットワーク装置は、RU単位(又は、RUに含まれるUE単位)で、該当機能を実行するサーバを決定する。したがって、
図2bの右側に示すように、1つのサーバ(例えば、サーバ232a)は、第1のセルサイト210aに含まれるRUに対応する機能を実行するためのリソース233aと、第2のセルサイト210bに含まれるRUに対応する機能を実行するためのリソース233bとを割り当てる。したがって、サーバ232aは、第1のセルサイト210aを処理するためのリソース233aを割り当てた後に残ったアイドルリソースを、第2のセルサイト210bに含まれる少なくとも1つのRUを処理するためのリソース233bに割り当てて、アイドルリソースを最小化又は削減する。リソースが割り当てられていないサーバ232cは、使用されない。
【0030】
図2bを参照すると、少なくとも1つのサーバの残りの部分232b及び破線で示されたサーバ232cは、DUの機能を実行するために割り当てられていない余剰サーバ、即ち、割り当てられていないサーバのリソースを意味し、ネットワーク装置は、余剰サーバを駆動しないか、リソースを割り当てないことで、リソースの無駄が防止又は削減される。
【0031】
図2bを参照すると、1つのセルサイト210を構成する1つ又はそれ以上のRU211が、専用(dedicated)DU231ごとに割り当てられているが、サーバプール232が使用される場合、リソースプーリングに従って、RU211が必要とするトラフィック量にだけ、サーバプール232内の任意のサーバのリソースが割り当てられる。したがって、中央局(central office)220において、DU221の機能を実行するために駆動されるサーバの数は、サーバプール232を通じて削減される。
【0032】
図3aは、様々な実施形態によるネットワーク構成要素を含むブロック図である。本明細書の各実施形態は、本明細書に記載の任意の他の実施形態と組み合わせて使用することができる。
【0033】
様々な実施形態によれば、通信のための無線プロトコルスタック又は機能は、様々な方法でCU310とDU320との間で分割することができる。一例として、PDCP(packet data convergence protocol)314/RRC312/SDAP313層/機能は、CU310に配置され、RLC325/MAC327/PHY239機能/層は、DU320に配置される。別のオプションでは、PDCP314/RRC312/SDAP313層/機能は、CU310に配置され、RLC325/MAC327層/機能は、DU320に配置される。同様に、CU310とDU320との間で、機能を分割するための別のオプションが存在する。無線アクセスネットワーク構造では、ユーザ装置(user equipment;UE)モビリティにより、UE340は、同じDU320内のRU330a、330b、330cの間を移動してもよいし、又は1つのDU320以外のDUに接続されたRUに、直接的に又は間接的に移動してもよい。あるいは、UE340は、同じDU320上で無線リンク障害(radio link failure;RLF)を検出し、その後、同じCU310又は異なるCU内のDU320以外のDUに切り替えることができる。
【0034】
様々な実施形態によれば、RANを構成するCU310、DU320、及びRU330の3層構造は、様々な5Gアプリケーション(eMBB、URLLC、mMTCなど)のために5G RANを柔軟に構築するための5G基地局(gNB)を構成する。
【0035】
図3aを参照すると、基地局は、RRC、SDAP、及びPDCPをCU、RLC、MACとして、上位PHYをDUとして、下位PHYをRUとして、3層構造に分離する。具体的には、CU310とDU320との間に、ミッドホール(Midhaul)チャネルが位置し、DU320とRU330との間に、フロントホール(Fronthaul)チャネルが位置してもよい。機能の分離点は、図示のものに限定されない。
【0036】
図3bは、様々な実施形態による、複数のDUを含むネットワークを示すブロック図である。
【0037】
様々な実施形態によれば、ネットワーク装置は、CU310、少なくとも1つのDU(例えば、
図3bのソースDU320a、ターゲットDU320b)、スケーリングコントローラ(scaling controller)312、CU310と少なくとも1つのDU320a、320bをデカップリング(decoupling)するF1スプリッタ(splitter)311、スケーリングプロセスを制御するスケーリングコントローラ312、少なくとも1つのDUにそれぞれ含まれるF1ハンドラ(handler)321a、321b、スケールエージェント(scale agent)322a、322b、RLC325a、325b、MAC327a、327b、PHY-H329a、329b、スケジューラ(scheduler)324a、324b、フロントホールハンドラ(fronthaul handler)323a、323b、少なくとも1つのDU320a、320bと少なくとも1つのRU330a、330b、330cをデカップリングするフロントホールスプリッタ(fronthaul splitter)331、及び少なくとも1つのRU330a、330b、330cにそれぞれ対応する少なくとも1つのUE340を含んで、実行することができる。
【0038】
様々な実施形態によれば、CU310は、U平面(U-plane)上のUEのデータフローにおいて、ダウンリンクデータをUE340に転送したり、UE340から受信したアップリンクデータをネットワークに転送したりする。CU310の説明は、
図1a~
図3aの説明を準用することができる。
【0039】
様々な実施形態によれば、3GPP F1インターフェース規格を参照すると、F1スプリッタ311は、CU310、DU320a、320bの間のデカップリング(decoupling)機能を提供する。CU310がソースDU320aとターゲットDU320bを、単一のDUとして認識できる機能を設けてもよい。CU310とソースDU320a、ターゲットDU320bの間のデータフローパス(data flow path)(IPアドレス変換)を制御する。F1スプリッタ311は、スタンドアロン(standalone)又はCU310に含まれる構成要素であってもよい。
【0040】
様々な実施形態によれば、制御回路を含むスケーリングコントローラ312は、スケーリング全体を制御する。
図3bを参照すると、スケーリングコントローラ312は、ソースDU320a、ターゲットDU320b、F1スプリッタ311、及びフロントホールスプリッタ331と通信する。様々な実施形態によれば、スケーリングコントローラ312は、ソースDU320aでスケールアウト(scaling out)が必要であるかどうかを決定するために、ソースDU320aからリソース使用量に関する報告を受信する。スケーリングコントローラ312は、スケールアウトが必要であると判定された場合、新しいターゲットDU320bを作成するように、Kubernetesなどのクラウドプラットフォームに要求する。スケーリングコントローラ312は、ターゲットDU320bをF1スプリッタ311及びフロントホールスプリッタ331に登録するように、ターゲットDU320bに関する情報を、F1スプリッタ311及びフロントホールスプリッタ331に送信する。あるいは、スケーリングコントローラ312は、ターゲットDU320bをF1スプリッタ311及びフロントホールスプリッタ331に登録するように、ターゲットDU320bに関する情報を、F1スプリッタ311及びフロントホールスプリッタ331に送信して、スケールエージェント322a又は322bに指示する。本明細書において、各RU、各CU、各UE、及び各DUは、処理回路を含む。
【0041】
様々な実施形態によれば、
図1a~
図3aの説明は、DU320a又は320bに適用される。
図3bを参照すると、ソースDU320aは、F1ハンドラ321a、スケールエージェント322a、フロントホールハンドラ323a、スケジューラ324a、RLC325a、MAC327a、及びPHY-H329aを含む。様々な実施形態によれば、ソースDU320aは、定期的に又は一定の条件に従って、スケールエージェント322aを介して、スケーリングコントローラ312にリソース使用量を報告する。一実施形態によれば、ソースDU320aからトラフィック(traffic)処理が移行(migration)されるターゲットDU320bは、F1ハンドラ321b、スケールエージェント322b、フロントホールハンドラ323b、スケジューラ324b、RLC325b、MAC327b、及びPHY-H329bを含む。ターゲットDU320bのスケールエージェント322bは、ソースDU320aのスケールエージェント322aからコンテキスト(context)同期化のための情報を受信する。
【0042】
様々な実施形態によれば、F1ハンドラ321a、321bは、DU320a、320b内のCU310と通信する構成であり、3GPP F1インターフェース規格に準拠する。
【0043】
様々な実施形態によれば、フロントホールハンドラ323a、323bは、DU320内のRU330と通信する部分であり、ORANフロントホール規格(7.2x)に準拠してもよく、スモールセルフォーラム(Small Cell Forum)のnFAPIに準拠してもよい。
【0044】
様々な実施形態によれば、ORANフロントホール規格に従って、フロントホール(FH)スプリッタ331は、DU320a、320bとRU330a、330b、330cとの間のデカップリング機能を提供する。RU330a、330b、330cは、ソースDU320aとターゲットDU320bを、単一のDUとして認識できる機能を設けてもよい。RU330a、330b、330cと、ソースDU320a、ターゲットDU320bとの間のデータフローパス(MAC Address Translation)が制御される。様々な実施形態によれば、フロントホールスプリッタ331は、スタンドアロン又はRU330に含まれる構成であってもよい。
【0045】
様々な実施形態によれば、RU330は、UE340と通信する。RU330は、下位物理層(PHY-low)機能及びRF処理を提供する論理ノードである。RU330は、RANに接続されるか、RANに含まれるように構成される。RU330の説明には、
図1a~
図3aの説明を適用することができる。
図3cは、DUのデータフロー及びデータフローの転送を示す図である。
【0046】
様々な実施形態によれば、ユーザ装置(user equipment;UE)340は、無線アクセスネットワーク構造におけるUEの移動性により、同じCU310内の1つのDU(例えば、
図3bのソースDU320a)から別のDU(例えば、
図3bのターゲットDU320b)に移動する。あるいは、UE340は、異なるCU内の1つのDU(例えば、
図3bのソースDU320a)から別のDU(例えば、
図3bのターゲットDU320b)に移動する。一例として、UE340は、1つのDU(例えば、
図3bのソースDU320a)上で無線リンク障害(radio link failure;RLF)を検出し、その後、同じCU310又は異なるCU内の別のDU(例えば、
図3bのターゲットDU320b)に切り替える。
【0047】
図3cを参照すると、当業者であれば、ターゲットDU320bは、スケールアウトのために、スケーリングコントローラ312で生成された(301)DUであってもよいし、ターゲットDU320bによる生成プロセスが、スケールアウトのために既存の生成されたDUを指定することで、置き換えられてもよいことが理解されるであろう。スケーリングコントローラ312は、ターゲットDU320bに関する情報を、回路を含むF1スプリッタ311に送信して、F1スプリッタ311が新しいDUを登録する(302)。一例として、ソースDU320aにおいて、スケールアウトのための少なくとも1つのイベントが検出され、検出されたイベントに応答して、スケールアウトのためのターゲットDU320bが生成(又は指定)される。ここで、イベントは、一例として、ソースDU320a(又はソースDU320aを駆動するサーバ)が利用可能なリソース全体に対する現在使用中のリソースのサイズの割合が、閾値比率以上であることを示すが、これは、例示的なものであり、当業者であれば、ソースDU320aによって使用されているリソースが相対的に過剰で、スケールアウトが必要であることを示す条件である限り、これに限定されないことが理解されるであろう。スケーリングコントローラ312は、新しいDUに関する情報を、フロントホールスプリッタ331に送信して、新しいDUに関する情報を登録する(303)ように構成される。現在のソースDU320aは、ターゲットDU320bとコンテキストを同期化する(304)ために、コンテキストをターゲットDU320bに送信する。例えば、コンテキストは、システム情報(同期、システム情報ブロック(system information block)、ランダムアクセス(random access)、参照信号(reference signal)を含む)、スケジューリングコンテキスト(scheduling context)(チャネル状態、電力管理、HARQ、及びDRXを含む)、制御情報(control information)(MAC-CE、ページング(paging)に関する情報を含む)、周波数リソース(carrier aggregation、BWP及びSULに関する情報を含む)、空間リソース(spatial resource)(ビーム管理(beam management)及びMINOに関する情報を含む)、UEコンテキスト(RNTI、SRB、DRB、及びRATに関する情報を含む)又はRUコンテキストのうちの少なくとも1つを含む。ここで、コンテキストは、ソースDU320aに対応する(又は接続された)少なくとも1つのRU330のうち、移行(migration)が要求されるRU(又は当該RUに接続された少なくとも1つのUE)に関連付けられるが、これに限定されるものではない。ターゲットDU320bは、上述のコンテキストを受信し、これにより、移行されるRU(又は、当該RUに接続された少なくとも1つのUE)に関する情報を識別する。F1スプリッタ311は、ターゲットDU320bに関するダウンリンク/アップリンクリソース割り当て情報に従って、送信されるデータ又は受信されるデータ(305)を準備する。フロントホールスプリッタ311は、ターゲットDU320bに割り当てられたダウンリンク/アップリンクリソース情報に従って準備された送信データを受信するか、又はターゲットDU320bに送信するように構成される(306)。上述の
図3cの動作301~306について、ターゲットDU320bを担当するRU(例えば、330c)と、データ無線ベアラ(data radio bearer)を介して接続された少なくとも1つのUEに対して、データフローがターゲットDU320bに移行されるように、UEごとに前記動作を繰り返し実行する(307)。したがって、ターゲットDU320bにスケールアウトされるRU330cに接続された少なくとも1つのUEに関する情報が提供され、少なくとも1つのUEに関連付けられたダウンリンクデータ及び/又はアップリンクデータの送信及び/又は受信手順を管理することができる。
【0048】
図4は、様々な実施形態によるスケーリングコントローラによる動作を示す図である。
【0049】
様々な実施形態によれば、無線アクセスネットワーク装置において、スケーリングコントローラ(
図3bの312)の動作として、第1のサーバを介して実行される第1のDU(ソースDU、
図3bの320a)のリソース使用量に関する情報を、第1のDU320aから取得する(401)。スケーリングコントローラ312は、
図3bの312による第1のDU320aのリソース使用量に関する情報に基づいて、第2のDU(ターゲットDU、
図3bの320b)を選択する(403)。スケーリングコントローラ312によって、第1のDU320aのサービスを処理している第1のRU(例えば、
図3bの330a、330b、330c)の中から、第2のDU(例えば、
図3bの320b)に移行される第2のRU(例えば、
図3bの330b及び/又は330c)を選択する(405)。スケーリングコントローラ312によって、第2のRU(例えば、
図3bの330c)に関する情報が、第1のDU320aから第2のDU320bに送信されるように、第1のDU320aに通信セッションを確立するよう要求する(407)。以下、スケーリングコントローラの具体的な動作について説明する。
【0050】
図5a及び
図5bは、DUのリソース使用量に応じたクラウド環境におけるスケーリングコントローラによるスケールアウト及びスケールインプロセスを示す図である。
【0051】
様々な実施形態によれば、クラウド上で実行されているアプリケーション又はワークロードが、メモリ不足又はパフォーマンス低下を引き起こす仮想マシン(VM)又は論理パーティション上で実行される場合、コンテナベースの拡張(スケールアウト)又は縮小(スケールイン)を実行する。
【0052】
図5aを参照すると、ソースDU320aは、スケーリングコントローラ312にリソースステータスを報告する(501)。報告されたリソースステータスに基づいて、スケーリングコントローラ312は、スケールアウトするかどうかを決定する(503)。スケーリングコントローラ312は、スケールアウトするターゲットDU320bを生成する。スケーリングコントローラ312は、ターゲットDU320bに関する情報を、F1スプリッタ、フロントホールスプリッタに登録する(505)。スケーリングコントローラ312は、ソースDU320aのサービスを処理しているRU(例えば、
図3bの330a、330b、330c)の中から、ターゲットDU320bに移行される移行ターゲットRU(例えば、
図3bの330c)を選択する(507)。スケーリングコントローラ312は、スケールアウトするサーバ(例えば、
図2bの232b又は232c)を選択する(509)。スケーリングコントローラ312は、移行ターゲットRU(例えば、
図3bの330c)に接続された移行ターゲットUE340に対するデータフローを、ソースDU320aからターゲットDU320bに切り替える(511)。直前の切り替え動作を、移行ターゲットRU(例えば、
図3bの330c)に接続された全てのUE340が、ターゲットDU320bに移行されるまで、各UEに対して繰り返し実行する(513)。本明細書で使用される「~に基づいて」は、少なくとも~に基づいてを含む。
【0053】
図5bを参照すると、ターゲットDU320bは、スケーリングコントローラ312にリソースステータスを報告する(521)。報告されたリソースステータスに基づいて、スケーリングコントローラ312は、スケールインするかどうかを決定し、スケーリングコントローラ312は、スケールインするターゲットDU320bを選択する(523)。スケーリングコントローラ312は、ターゲットDU320bのサービスを処理しているRU(例えば、
図3bの330a、330b、330c)の中から、ソースDU320aに移行される移行ターゲットRU(例えば、
図3bの330c)を選択する(525)。スケーリングコントローラ312は、スケールインするサーバ(例えば、
図2bの232b)を選択する(527)。スケーリングコントローラ312は、移行ターゲットRU(例えば、
図3bの330c)に接続された移行ターゲットUE340に対するデータフローを、ターゲットDU320bからソースDU320aに切り替える(529)。移行ターゲットRU(例えば、
図3bの330c)に接続されたすべてのUE340が、ソースDU320aに移行されるまで、各UEに対する直前の切り替え動作を繰り返す(531)。
【0054】
具体的なプロセスは、次の通りである。
【0055】
1)スケールアウトプロセス
【0056】
a)スケールエージェント322は、処理回路を含むDU320サーバのCPU使用量、メモリ使用量、ネットワークスループット(throughput)、電力消費量、アクセラレータ使用量(FPGA/GPU/スマートNICなど)などのリソースステータスを、定期的にスケーリングコントローラ312に報告する。様々な実施形態によれば、スケールエージェント322は、定期的に報告するのではなく、スケーリングコントローラ312によって事前に設定されたリソース使用条件が満たされたときに、リソースステータスを報告する。
【0057】
b)スケーリングコントローラ312は、DU320のリソース使用量情報に基づいて、スケールアウトするDU320を選択(スケーリング決定)し、DUサービスが処理中のRU330a、330b、330cの中から、他のサーバに移行して処理するRU330を選択する。様々な実施形態によれば、スケーリングするためのソースDU320aの選択は、様々なポリシーによって行うことができる。例えば、ソースDU320aに割り当てられたサーバリソースが、RU当りピークスループットの30%及び3つのRUを処理するように割り当てられている場合、全体のスループットが、ピークの60%(30%×2)以上になったときに、対応するDUのスケールアウトを開始する。あるいは、人工知能/機械学習技術を通じて、スケーリングに最適なDUを選択することもできる。様々な実施形態によれば、スケーリングコントローラ312は、スケールアウトするための新しいDUであるターゲットDU320bを生成し、ターゲットDU320bをF1スプリッタ311に登録する。スケーリングコントローラ312は、ターゲットDU320bをフロントホールスプリッタに登録する。様々な実施形態によれば、RU330の選択は、様々なポリシーによって実行される。一例として、現在のサーバ(例えば、
図2bの232a)でソースDU320aのサービスを処理しているRU330のうち、平均よりも小さいスループットを有するRUを選択して、別のサーバ(例えば、
図2bの232b)内のターゲットDU320bのサービスを実行し、ターゲットDU320bに対応するRUによって処理されるように転送される。あるいは、最大のスループットを有するRUを選択し、ピークレートを処理できる能力を有する容量のあるサーバで、ターゲットDU320bを実行し、ターゲットDU320bに該当するRUを処理させてもよい。本明細書の各DUは、処理回路を含む。
【0058】
c)スケーリングコントローラ312は、新しいサービスのためにターゲットDU320b内で十分な処理能力を有するサーバ(例えば、
図2bの232b)を選択(スケールアウトサーバ選択)して、そのサーバ上でサービスを実行する。様々な実施形態によれば、ターゲットDU320bサービスを実行するためのサーバの選択は、様々なポリシーに従って実行される。一例として、1つのRU330に対して最大のデータを処理できるサーバを選択しても、平均的な処理が可能なサーバを選択してもよい。スケールアウトするためのサーバの選択は、スケールアウトのターゲットRU330を選択するポリシーに関連する。スケールアウトターゲットRU330、例えば、ターゲットDU320bサービスに処理が移行されるRUが、ピークレート(peak rate)を処理しなければならない場合、ターゲットDU320bのサービスは、対応するトラフィックを処理できるリソース容量を有するサーバ上で実行される。必要なリソースを備えたサーバ上でターゲットDU320bサービスを実行することは、Kubernetesなどのクラウドプラットフォームを介して実行される。スケーリングコントローラ312は、クラウドプラットフォームがDUのサービスを実行するサーバを選択するために必要なリソース情報を提供する。
【0059】
d)スケーリングコントローラ312は、ターゲットDU320bのサービスがF1スプリッタ311に登録されるようにする。例えば、F1スプリッタ311は、登録された情報を用いて、ソースDU320aに伝達されるデータを、ターゲットDU320bに転送する(switch)準備を行う。必要に応じて、F1スプリッタ311は、ターゲットDU320bとSCTP(stream control transmission protocol)通信セッションを新たに作成する。(トランスポートネットワーク層接続)
【0060】
e)スケーリングコントローラ312は、ターゲットDU320bのサービスがFHスプリッタ331に登録されるようにする(トランスポートネットワーク層接続を含む)。
【0061】
例えば、FHスプリッタ331は、登録された情報を用いて、ソースDU320aに伝達されるデータを、ターゲットDU320bに転送する(switch)準備を行う。
【0062】
f)スケーリングコントローラ312は、ソースDU320aとターゲットDU320bのスケールエージェント322との間で、コンテキストを同期化するための通信セッション(communication session)の作成を指示する。
【0063】
g)ソースDU320aのスケールエージェント322aは、ターゲットDU320bのスケールエージェント322bへの移行ターゲットであるRU330のコンテキストの送信を開始し、コンテキストの変更を更新し続ける。送信されるコンテキストは、UEコンテキスト、チャネル状態、無線リソーススケジューリング情報(radio resource scheduling information)、及びシステム情報(system information)に関する情報であってもよい。
【0064】
h)スケールエージェント322aは、移行対象のRU330に直接的又は間接的に接続されたUEのうち、ターゲットDU320bで処理されるUEを選択してもよい。様々な実施形態によれば、UEの選択は、様々なポリシーによって実行される。一例として、非アクティブ状態(inactive state)のUEから移行して、接続状態(connected state)のUEのうち、データ送信量が少ないUEから、最もデータ送信量が多いUEまで順次選択する。逆の順序も可能である。あるいは、各UEのDRB QoS値を比較し、優先度の低い順に選択してもよい。
【0065】
i)ソースDU320aのスケールエージェント322aは、移行対象のUEに関する情報を、ターゲットDU320bのスケールエージェント322bに送信する。一例として、送信されるUEに関する情報は、SRB(signaling radio bearer)リスト、DRB(Data Radio Bearer)リストなどを含む。
【0066】
j)ソースDU320aのスケールエージェント322aは、F1スプリッタ311に対して、移行対象UEに向けられたデータを、ターゲットDU320bに送信するように要求する。様々な実施形態によれば、F1スプリッタ312は、移行ターゲットUEに送られるすべてのデータを、ターゲットDU320bに送信する(ソースDU320aからターゲットDU320bにデータパスを切り替える)。
【0067】
k)ソースDU320aのスケールエージェント322aは、ソースDU320aのスケジューラに、移行対象UEに対するアップリンク/ダウンリンクリソース割り当てを停止するように要求する。
【0068】
l)ソースDU320aのスケールエージェント322aは、ターゲットDU320bのスケールエージェント322bに現在残っているアップリンク/ダウンリンクデータを送信する。
【0069】
m)ターゲットDU320bは、ソースDU320aとF1スプリッタ311から受信したデータでバッファ(buffer)をリセットし、UEに対するデータの送受信を準備する。
【0070】
n)ターゲットDU320bのスケールエージェント322bは、ソースDU320aのスケールエージェント322aに、UEに対するデータ送受信の準備が完了したことを通知する。
【0071】
o)ソースDU320aのスケールエージェント322aは、移行ターゲットUEに対するアップリンク/ダウンリンクリソース割り当てを再開するように、スケジューラに要求する。
【0072】
p)ソースDU320aのスケールエージェント322aは、移行ターゲットUEに対するアップリンク/ダウンリンクリソース割り当て情報を、ターゲットDU320bのスケールエージェント322bに転送するように、スケジューラに要求する。様々な実施形態によれば、スケジューリング情報は、RU330の移行が完了するまで継続的に転送される。
【0073】
q)ソースDU320aのスケールエージェント322aは、ソースDUアドレス及び/又はターゲットDUアドレス情報を、FHスプリッタ331に送信する。
【0074】
r)ターゲットDUは、アップリンク/ダウンリンクリソース割り当て情報に従って、送信データを準備し、それをFHスプリッタ331に送信するか、又はFHスプリッタ331から受信する。
【0075】
s)ターゲットDU320bからC平面メッセージ(ORANフロントホール7.2x規格)を受信すると、FHスプリッタ331は、それを次のように処理する。様々な実施形態によれば、RU330は、新しいターゲットDU320bを知ることができないので、FHスプリッタ331は、ソースDU320aのMACアドレスに変更した後、RU330に送信する。C平面パケットのFrameID、SubframeID、SlotID、SymbolID、及びSectionIDのうちの少なくとも1つを格納する。一例として、アップリンクの場合、ソースDU320aのMACアドレスを宛名先アドレスとして使用するパケットを、RU330から受信すると、FrameID、SubframeID、SlotID、SymbolID、及びSectionIDのうちの少なくとも1つを識別した後、格納されているものと一致する場合、宛先アドレスをターゲットDU320bのMACアドレスに変更する。一例として、ダウンリンクの場合、ターゲットDU320bからU平面パケットを受信すると、RU330は、変更されたターゲットDU320bを知ることができないので、ソースDU320aのMACアドレスに変更した後、RU330に送信する。
【0076】
t)上記h~s過程では、ソースDU320aの制御エージェント322aが、移行ターゲットRU330に直接又は間接的に接続されているUEのうち、ターゲットDU320bによって処理されるUEを選択する過程から、FHスプリッタ331がターゲットDUからC平面メッセージを受信し、ソースDU320aのMACアドレスを、移行ターゲットRUに送信する過程までの一連の過程を、移行ターゲットRUに接続されているすべてのUEが、ターゲットDU320bに移行されるまで繰り返し実行する。
【0077】
u)ソースDU320aのスケールエージェント322aは、ターゲットDU320bのスケールエージェント322bに、移行RUのスケジューリングを処理するように要求する。
【0078】
v)ソースDU320aのスケールエージェント322aは、移行RUへの移行が完了したことを、スケーリングコントローラ312に通知し、移行が完了したRUに関する情報を削除する。様々な実施形態によれば、ソースDU320aのスケールエージェント322aは、移行が完了したRUに関する情報を維持し、ターゲットDU320bのスケールエージェント322bから、RUに関する情報を受信して、同期化を進める。
【0079】
w)スケーリングコントローラ312は、RU330の移行が完了したことを、F1スプリッタ311及びFHスプリッタ331に通知する。一例として、F1スプリッタ311は、移行が完了されたRU330に向けられるデータを切り替えるために、IPアドレスベースのNAT(Network Address Translation)を実行する。FHスプリッタ331は、移行が完了されたRU330からターゲットDU320bに向けられたデータを切り替えるために、MAC(Medium Access Control)アドレスベースのNAT(Network Address Translation)を実行する。
【0080】
2)スケールインプロセス
【0081】
a)ソースDU320aのスケールエージェント322aは、DUサーバのCPU使用量、メモリ使用量、ネットワークスループット(throughput)、電力消費量、アクセラレータ使用量(FPGA/GPU/スマートNIC)などのリソースステータスを、定期的にスケーリングコントローラ312に報告する。様々な実施形態によれば、スケールエージェント322は、スケーリングコントローラ312に定期的に報告する代わりに、スケーリングコントローラ312によって事前に設定されたリソース使用条件が満たされたときに、リソースステータスを報告する。
【0082】
b)スケーリングコントローラ312は、DU320のリソース使用量情報に基づいて、スケールインするDU(ターゲットDU)を選択(スケーリング決定)し、第1のサーバ(例えば、
図2の232c)から、ターゲットDUサービスを処理しているRU330のうち、別のサーバ(例えば、
図2bの232b)に切り替え、それを処理するRU(例えば、330c)を選択する。様々な実施形態によれば、スケールインターゲットDU(ターゲットDU320b)の選択は、様々なポリシーによって可能である。一例として、ターゲットDU320bに割り当てられたリソースが、RUのピークスループットの30%を基準に、3つのRU(例えば、
図3bの330a、330b、330c)を処理できるように割り当てられており、現在1つのRU(例えば、
図3bの330a)が接続されており、処理可能容量(合計90%)の20%が使用されている場合、スケールインを開始する。あるいは、スケーリングコントローラ312は、人工知能/機械学習技術を通じて、スケーリングに最適なDUを選択する。スケーリングコントローラ312は、様々なポリシーに従って、RU330を選択する。一例として、サーバ(例えば、
図2bの232c)でターゲットDU320bのサービスを処理しているRU(例えば、
図3bの330a、330b、330c)のうち、スループットが平均よりも小さいRU(例えば、
図3bの330c)を選択して、別のサーバ(例えば、
図2bの232b)でターゲットDU320bサービスを実行し、対応するRU330cが処理するように移動する。あるいは、スケーリングコントローラ312は、最大のスループットを有するRUを選択して、対応する容量を処理するソースDU320aで移行ターゲットRUを処理させる。
【0083】
c)スケーリングコントローラ312は、ターゲットDU320bサービスを、処理能力の余裕があるサーバ(例えば、
図2bの232b)を選択(スケールインサーバ選択)して、そのサーバで実行する。様々な実施形態によれば、ターゲットDU320bのサービスを実行するためのサーバの選択は、様々なポリシーに従って実行される。一例として、スケーリングコントローラ312は、いくつかのRUのうちピークデータレートを処理することができるサーバを選択するか、又は平均的な処理が可能なサーバを選択する。スケールインターゲットサーバの選択は、スケールインターゲットRUを選択するポリシーと関連する。スケーリングコントローラ312は、スケールインターゲットRU(ターゲットDUサービスに処理が移行されるRU)が、ピークの20%のスループットを有する場合、ターゲットDU320bのうち、スケールアウト基準値よりも20%以下のリソースを使用しているDU(例えば、ソースDU320a)に、当該RUを移行する。様々な実施形態によれば、DU(例えば、ターゲットDU320b)サービスが使用しているリソースをサーバから回収することは、一般に、Kubernetesなどのクラウド環境を介して実行する。リソースが回収されたサーバ(例えば、
図2bの232c)は、クラウド環境から削除されてもよい。あるいは、少ないリソースを使用しているターゲットDU320bを、ソースDU320aに当該RUを移行することによって、ターゲットDU320bを削除する。スケーリングコントローラ312は、クラウド環境でDU(例えば、ターゲットDU320b)サービスを削除することができる情報を提供する。
【0084】
d)スケーリングコントローラ312は、F1スプリッタ311に登録されたスケールインターゲットDU320bに関する情報を、変更(ターゲットDU320bがソースDU320aとは異なるサーバでスケールインする場合)又は削除(ターゲットDU320bがソースDU320aと同じサーバでスケールインする場合)してもよい。
【0085】
e)スケーリングコントローラ312は、フロントホールスプリッタ331に登録されたスケールインターゲットDU320bに関する情報を、変更(ターゲットDU320bがソースDU320aとは異なるサーバでスケールインする場合)又は削除(ターゲットDU320bがソースDU320aと同じサーバでスケールインする場合)してもよい。
【0086】
f)スケーリングコントローラ312は、ソースDU320a及びターゲットDU320b内のスケールエージェント322a、322bの間でコンテキストを同期化するための通信セッションの作成を指示する。
【0087】
g)ターゲットDU320bのスケールエージェント322bは、移行ターゲットRU(例えば、330c)のコンテキストを、ソースDU320aのスケールエージェント322aに送信し始め、コンテキストの変更を更新し続ける。様々な実施形態によれば、コンテキストは、UEコンテキスト、チャネル状態、無線リソーススケジューリング情報、及びシステム情報のうちの少なくとも1つを含む。
【0088】
h)ターゲットDU320bのスケールエージェント322bは、移行ターゲットRU(例えば、
図3bの330c)に直接的又は間接的に接続された少なくとも1つのUEのうち、ソースDU320aで処理されるUEを選択する。様々な実施形態によれば、スケールエージェント322bは、様々なポリシーに従って、移行ターゲットRU(例えば、
図3bの330c)を選択する。一例として、非アクティブ状態のUEから移行して、RRC接続状態のUEのうち、データ送信量が最も少ないUEから、最もデータ送信量が多いUEまで順次選択する。あるいは、各UEのDRB QoS値を比較し、優先度の低い順に選択してもよい。
【0089】
i)ターゲットDU320bのスケールエージェント322bは、移行ターゲットUEに関する情報を、ソースDU320aのスケールエージェント322aに送信する。様々な実施形態によれば、ターゲットDU320bのスケールエージェント322bは、UEに関する情報を送信する前に、ソースDU320aのスケールエージェント322aにRUに関する情報を送信する。様々な実施形態によれば、UEに関する情報は、SRB(signaling radio bearer)リスト及びDRB(Data Radio Bearer)リストを含む。
【0090】
j)ターゲットDU320bのスケールエージェント322bは、移行ターゲットUEに向けられたデータを、ソースDU320bに送信するように、F1スプリッタ311に要求する。様々な実施形態によれば、F1スプリッタ312は、移行ターゲットUEに向けられたすべてのデータを、ソースDU320bに送信する。換言すれば、データフローを、ターゲットDU320bからソースDU320aに切り替える。
【0091】
k)ターゲットDU320bのスケールエージェント322bは、スケジューラ324bに対して、移行ターゲットUEに対するアップリンク/ダウンリンクリソース割り当てを停止するように要求する。
【0092】
l)ターゲットDU320bのスケールエージェント322bは、ソースDU320aのスケールエージェント322aに、現在残っているアップリンク/ダウンリンクデータを送信する。
【0093】
m)ソースDU320aは、回路を備えるF1スプリッタ311及びターゲットDU320bから受信したデータでバッファをリセットし、UEデータの送受信の準備を行う。
【0094】
n)ソースDU320aのスケールエージェント322aは、ターゲットDU320bのスケールエージェント322aに、UEに対するデータ送受信の準備が完了したことを通知する。
【0095】
o)ターゲットDU320bのスケールエージェント322bは、移行ターゲットUEに対するアップリンク/ダウンリンクリソース割り当てを再開するように、スケジューラに324bに要求する。
【0096】
p)ターゲットDU320bのスケールエージェント322bは、移行ターゲットUEに対するアップリンク/ダウンリンクリソース割り当て情報を、ソースDU320aのスケールエージェント322bに転送するように、スケジューラ324bに伝達する。様々な実施形態によれば、ターゲットDU320bのスケールエージェント322bは、移行ターゲットRUの移行が完了するまで、スケジューリング情報を転送し続ける。
【0097】
q)ターゲットDU320bのスケールエージェント322bは、ソースDUアドレス及びターゲットDUアドレス情報を、FHスプリッタ331に送信する。
【0098】
r)ソースDU320aは、アップリンク/ダウンリンクリソース割り当て情報に従って、送信データを準備し、それをフロントホールスプリッタ331に送信するか、又はフロントホールスプリッタ331から受信する。
【0099】
s)フロントホールスプリッタ331は、ソースDU320aからC平面メッセージ(ORANフロントホール7.2x規格)を受信すると、ターゲットDU320bのMACアドレスに変更した後、RUに送信し、C平面パケットのFrameID、SubframeID、SlotID、SymbolID、及びSectionIDのうちの少なくとも1つを格納する。様々な実施形態によれば、アップリンク送信の場合、ターゲットDU320bのMACアドレスを宛名先アドレスとして使用するパケットを、RU330から受信すると、フロントホールスプリッタ331は、FrameID、SubframeID、SlotID、SymbolID、及びSectionIDのうちの少なくとも1つを識別した後、格納されているものと一致する場合、宛先アドレスをソースDU320aのMACアドレスに変更する。様々な実施形態によれば、ダウンリンク送信の場合、ターゲットDU320bからU平面パケットを受信すると、回路を備えるフロントホールスプリッタ331は、ソースDU320aのMACアドレスに変更し、変更されたアドレスをRUに送信する。
【0100】
t)移行ターゲットRUに接続された全てのUEが、ソースDU320aに移行されるまで、各UE上で上記h~s過程を繰り返す。
【0101】
u)ターゲットDU320bのスケールエージェント322aは、ソースDU320aのスケールエージェント322aに、移行ターゲットRU(例えば、330c)のスケジューリングを処理するように要求する。
【0102】
v)ターゲットDU320bのスケールエージェント322bは、移行ターゲットRU(例えば、
図3bの330c)の移行が完了したことを、スケーリングコントローラ312に通知し、移行が完了したRU(例えば、
図3bの330c)に関する情報を削除する。
【0103】
w)スケーリングコントローラ312は、RU(例えば、330c)の移行が完了したことを、F1スプリッタ311及び/又はフロントホールスプリッタ331に通知する。
【0104】
x)ターゲットDU320bによって処理されるRU330が存在しない場合、スケーリングコントローラ312は、ターゲットDU320bのインスタンスを削除する。
【0105】
本発明による様々な実施形態によれば、CU、DU、及びRUから構成された5G RANシステムにおいて、CUとDUをデカップリング(decoupling)するF1スプリッタ、DUとRUをデカップリングするフロントホールスプリッタ、サーバリソースの状態に応じたスケーリングプロセスを制御するスケーリングコントローラ(scaling controller)、及びスケーリングコントローラと通信しながら、DU内でスケーリングに必要なデータフローを制御し、DU間のコンテキスト同期化を処理するスケールエージェントから構成されたソフトウェア及び装置が提案される。
【0106】
様々な実施形態によれば、DU内のリソース割り当てを担当するスケジューラを用いて、UEに割り当てられたリソースが、ソースDUからターゲットDUに移行される際、無線ベアラをシームレスに制御する。
【0107】
様々な実施形態によれば、ソースDUとUEとの間のデータフローにおいて、ターゲットDUとUEとの間のデータフローを切り替えるために、FrameID、SubframeID、SlotID、SymbolID、及びSectionID情報に基づいて、RUとターゲットDUのデータフローに変更される。
【0108】
様々な実施形態によれば、専用DUをRU330に割り当てる代わりに、RUのトラフィックに応じて必要なだけのサーバリソースを、クラウドプラットフォームのサーバリソースプーリングを介して、DU320に割り当てる。その結果、サーバリソースが確保されることで、サーバ数を削減することができ、これにより、消費電力も削減できる。
【0109】
様々な実施形態によれば、リソースプールは、少なくとも1つのサーバ又はストレージなどのリソースを確保し、これをユーザの要求に応じて提供できる状態を示し、仮想空間に実装する。クラウド環境では、事前に確保されたリソースプールを介して、即時又は最小限又は減少されたプロセスを通じて、ユーザの要求に応じて、リソースを提供する。
【0110】
様々な実施形態による電子装置は、様々な形態の装置である。電子装置には、例えば、通信事業者の基地局システム、プライベートネットワーク装置(Private 5G system)が含まれる。一実施形態によれば、この電子装置は、上述したものに限定されない。
【0111】
本発明の様々な実施形態及びそれに使用される用語は、本明細書に記載された技術的特徴を、特定の実施形態に限定することを意図するものではなく、その実施形態の様々な変更、等価物、又は代替物を含む。図面の説明に関して、類似又は関連する構成要素には、同様の参照番号を使用する。項目に対応する名詞の単数形は、関連する文脈上、明らかに別段の指示がない限り、上記項目1つ又は複数を含む。本明細書において、「A又はB」、「A及びBのうちの少なくとも1つ」、「A又はBのうちの少なくとも1つ」、「A、B又はC」、「A、B及びCのうちの少なくとも1つ」、及び「A、B、又はCのうちの少なくとも1つ」などの句の各々は、その句の対応する句に一緒に列挙された項目のいずれか、又はそれらの可能なすべての組み合わせを含む。「第1」、「第2」、又は「一番目」又は「二番目」などの用語は、単にその構成要素を他の対応する構成要素と区別するために使用され、その構成要素を他の側面(例えば、重要性又は順序)に限定しない。ある(例えば、第1の)構成要素が、他の(例えば、第2の)構成要素に、「機能的に」又は「通信的に」という用語と組み合わせて、又はそのような用語なしで、「結合された(coupled)」又は「接続された(connected)」と言及されている場合、上記のいくつかの構成要素は、上記の他の構成要素に直接(例えば、有線で)、無線で、又は少なくとも第3の構成要素を介して接続されることを意味する。
【0112】
本明細書の様々な実施形態で使用される「モジュール」という用語は、ハードウェア、ソフトウェア、又はファームウェアで実装されたユニットを含み、例えば、論理、論理ブロック、部品、又は回路などの用語と交換可能に使用される。モジュールは、一体に構成された部品、又は1つ又はそれ以上の機能を実行する上記部品の最小単位又はその一部であってもよい。例えば、一実施形態によれば、モジュールは、ASIC(application-specific integrated circuit)の形態で実施することができる。ここで、各モジュールは、回路を含む。
【0113】
本発明の様々な実施形態は、機器(machine、例えば、電子装置101)によって読み取り可能な記憶媒体(storage medium、例えば、内蔵メモリ136又は外部メモリ138)に格納された1つ又はそれ以上の命令を含むソフトウェア(例えば、プログラム140)として実施することができる。例えば、機器(例えば、電子装置101)のプロセッサ(例えば、プロセッサ120)は、記憶媒体に格納された1つ又はそれ以上の命令のうちの少なくとも1つの命令を呼び出し、それを実行する。これにより、機器は、呼び出された少なくとも1つの命令に従って、少なくとも1つの機能を実行するように動作する。1つ又はそれ以上の命令は、コンパイラによって生成されたコード又はインタプリタによって実行されるコードを含む。機器で読み取り可能な記憶媒体は、非一時的(non-transitory)記憶媒体の形態で提供されてもよい。ここで、「非一時的」とは、記憶媒体が実在(tangible)する装置であり、信号(signal、例えば、電磁波)を含まないことを意味するだけであり、この用語は、データが記憶媒体に半永久的に保存される場合と、一時的に保存される場合とを区別しない。
【0114】
一実施形態によれば、様々な実施形態による方法は、コンピュータプログラム製品(computer program product)に含まれて提供されてもよい。コンピュータプログラム製品は、商品として販売者と購入者との間で取引することができる。コンピュータプログラム製品は、機器で読み取り可能な記憶媒体(例えば、compact disc read only memory(CD-ROM))の形態で配布されるか、又はアプリケーションストア(例えば、プレイストア)を介して、又は移動通信事業者の配布システムを通じて、オンラインで配布(例えば、ダウンロード又はアップロード)されてもよい。オンライン配布の場合、コンピュータプログラム製品の少なくとも一部は、製造元のサーバ、アプリケーションストアのサーバ、又は中継サーバのメモリなどの機器で読み取り可能な記憶媒体に少なくとも一時的に保存するか、一時的に生成することができる。ここで、各サーバは、処理回路を含む。
【0115】
様々な実施形態によれば、上記の構成要素の各構成要素(例えば、モジュール又はプログラム)は、単数又は複数の個体を含んでもよく、複数の個体のいくつかは、異なる構成要素に分離配置することができる。様々な実施形態によれば、上述の該当構成要素のうちの1つ又はそれ以上の構成要素又は動作を省略してもよく、又は1つ又はそれ以上の他の構成要素又は動作を追加してもよい。代替的又は追加的に、複数の構成要素(例えば、モジュール又はプログラム)は、1つの構成要素に統合することができる。この場合、統合された構成要素は、上記複数の構成要素の各構成要素の1つ又はそれ以上の機能を、統合前に上記複数の構成要素のうちの該当構成要素によって実行されるのと同じ又は同様に実行することができる。様々な実施形態によれば、モジュール、プログラム、又は他の構成要素によって実行される動作は、順次、並列的、繰り返し、又は経験的に実行されてもよく、又は上記動作のうちの1つ又はそれ以上が、異なる順序で実行されても、又は省略されてもよく、又は1つ以上の他の動作が追加されてもよい。
【符号の説明】
【0116】
120 プロセッサ
130 記憶装置
150 無線アクセスネットワーク(RAN)
151 分散ユニット(DU)
154 コアネットワーク
160 ユーザ装置(UE)
161 リモートユニット(RU)
190 通信モジュール
【国際調査報告】