(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024044067
(43)【公開日】2024-04-02
(54)【発明の名称】無線アクセスネットワークの制御装置
(51)【国際特許分類】
G06N 20/00 20190101AFI20240326BHJP
H04W 24/02 20090101ALI20240326BHJP
【FI】
G06N20/00
H04W24/02
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2022149390
(22)【出願日】2022-09-20
(71)【出願人】
【識別番号】000208891
【氏名又は名称】KDDI株式会社
(74)【代理人】
【識別番号】100092772
【弁理士】
【氏名又は名称】阪本 清孝
(74)【代理人】
【識別番号】100119688
【弁理士】
【氏名又は名称】田邉 壽二
(72)【発明者】
【氏名】塚本 優
(72)【発明者】
【氏名】斉藤 和広
(72)【発明者】
【氏名】米川 慧
(72)【発明者】
【氏名】村松 茂樹
(72)【発明者】
【氏名】黒川 茂莉
(72)【発明者】
【氏名】新保 宏之
【テーマコード(参考)】
5K067
【Fターム(参考)】
5K067AA21
5K067BB21
5K067EE16
(57)【要約】
【課題】AI/MLに関する機能ブロックのNear-RT RIC及びNon-RT RICへの配置が最適化された無線アクセスネットワークの制御装置を提供する。
【解決手段】非リアルタイム系の制御部(Non-RT RIC)及び準リアルタイム系の制御部(Near-RT RIC)が階層化され、O-RAN基地局装置10から収集したデータに基づいて生成した学習モデルに最新のデータを適用して推論した結果に基づいて無線アクセスネットワークを制御する学習推論部(11,12,13,16,17,18)を準リアルタイム系の制御部に配置した。また、収集したデータの履歴に基づいてコンセプトドリフトが発生しているか否かを検知し、コンセプトドリフトの発生を検知すると学習推論部に対して学習モデルを再学習させる再学習部の一部(19,20)を準リアルタイム系の制御部に配置し、その他(14,15)を非リアルタイム系の制御部に配置した。
【選択図】
図1
【特許請求の範囲】
【請求項1】
非リアルタイム系の制御部及び準リアルタイム系の制御部が階層化された無線アクセスネットワークの制御装置において、
無線アクセスネットワークから収集したデータに基づいて学習モデルを生成し、当該学習モデルに前記収集した最新のデータを適用して推論した結果に基づいて無線アクセスネットワークを制御する学習推論部と、
前記収集したデータの履歴に基づいてコンセプトドリフトが発生しているか否かを検知し、コンセプトドリフトの発生を検知すると前記学習推論部に対して学習モデルを再学習させる再学習部とを具備し、
前記学習推論部が前記準リアルタイム系の制御部に配置され、前記再学習部が前記準リアルタイム系及び非リアルタイム系の各制御部に分散配置されたことを特徴とする無線アクセスネットワークの制御装置。
【請求項2】
前記学習推論部が、
無線アクセスネットワークから最新のデータを収集するデータ収集手段と、
前記収集したデータに基づいて学習モデルを生成する学習手段と、
前記収集データを前記学習モデルに適用して推論した結果に基づいて前記無線アクセスネットワークを制御する制御手段と、
前記収集したデータ及び推論の結果に基づいて推論性能を測定する推論性能測定手段とを含むことを特徴とする請求項1に記載の無線アクセスネットワークの制御装置。
【請求項3】
前記再学習部が、
前記収集したデータ及び推論性能を蓄積するデータベースと、
前記データベースに蓄積されたデータ及び推論性能に基づいてコンセプトドリフトの発生を検知するコンセプトドリフト検知手段と、
前記コンセプトドリフトの発生が検知されると、前記学習推論部に前記学習モデルを再学習させるための情報を送信する再学習制御手段とを含み、
前記データベースが非リアルタイム系の制御部に配置されたことを特徴とする請求項2に記載の無線アクセスネットワークの制御装置。
【請求項4】
前記準リアルタイム系の制御部から非リアルタイム系の制御部へ、前記データベースに対する情報のリクエストがA1インタフェースを介して通知されることを特徴とする請求項3に記載の無線アクセスネットワークの制御装置。
【請求項5】
前記非リアルタイム系の制御部から準リアルタイム系の制御部へ、前記リクエストされた情報がA1インタフェースを介して通知され、
前記コンセプトドリフト検知手段は、前記通知された情報に基づいてコンセプトドリフトの発生を検知することを特徴とする請求項4に記載の無線アクセスネットワークの制御装置。
【請求項6】
前記準リアルタイム系の制御部から非リアルタイム系の制御部へ、前記コンセプトドリフト検知手段が検知したコンセプトドリフトの発生がA1インタフェースを介して通知されることを特徴とする請求項5に記載の無線アクセスネットワークの制御装置。
【請求項7】
前記非リアルタイム系の制御部に配置された前記データベースは、前記コンセプトドリフトの発生が通知されると、学習モデルの再学習に使用するデータを準リアルタイム系の制御部へA1インタフェースを介して送信することを特徴とする請求項6に記載の無線アクセスネットワークの制御装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、無線アクセスネットワークの制御装置に係り、特に、無線アクセスネットワークから収集したデータを学習して生成した学習モデルを再学習する機能を備えた無線アクセスネットワークの制御装置に関する。
【背景技術】
【0002】
無線アクセスネットワーク(RAN:Radio Access Network)において、従来は統合されていた基地局の機能を、セッション処理を行うCU(Centralized Unit)、ベースバンド処理を行う分散ユニットDU(Distributed Unit)及び無線処理を行うRU(Radio Unit)に分割し、各ユニット間のインタフェース仕様をオープン化するための仕様検討がO-RAN Allianceで進められている。
【0003】
Beyond 5Gシステムでは、スループット、通信遅延、接続数等の性能をより拡大し、多種多様なサービス(例えばロボット制御、コネクティッドカー、AR/VR等)を提供することが期待されており、これらを実現するためのキーテクノロジーとしてAI(人工知能)/ML(機械学習)が注目されている。
【0004】
非特許文献1,2では、RANにおいて限られたネットワークリソースの中でネットワーク性能を最大化するために、ビームフォーミング制御、無線リソース割当、トラヒック予測、基地局機能配置など、様々な用途にAI/MLを適用することが検討されている。
【0005】
非特許文献3には、RANから収集したデータに基づき学習を行って学習モデルを生成し、RANから収集したデータ及び当該学習モデルを使用して推論を行い、推論結果に従ってRANを制御する技術が開示されている。
【0006】
しかしながら、時間経過や環境変化よって、推論で使われているデータの特性が、学習時のデータから変化すること(コンセプトドリフト)でモデルの推論性能が低下することがある。
【0007】
このような技術課題に対して、本発明の発明者等は、O-RANの基地局装置からAI/MLの学習・推論に関するデータを蓄積・監視し、コンセプトドリフトを検知して再学習を実行するAIシステムを提案し、特許出願した(特許文献1)。
【0008】
図5は、コンセプトドリフトを検知して再学習を実行するAIシステムの従来構成を示した機能ブロック図である。
【0009】
データ収集部11はO-RAN基地局装置10から最新データを繰り返し収集し、収集した最新データ(収集データ)をAI/ML学習部12及びAI/ML推論部13へ提供すると共にデータ蓄積部14に蓄積する。データ蓄積部14に蓄積された収集データはAI/MLデータベース15で管理される。AI/ML学習部12は、収集データを学習してO-RAN基地局装置10を制御するための学習モデルを生成する。
【0010】
AI/MLモデル管理部16は、AI/ML学習部12が過去に生成した学習モデルを管理する。AI/ML推論部13は、データ収集部11が新たに収集した収集データ及び学習モデルに基づく推論を行い、推論結果を制御部17及び推論性能測定部18へ出力する。制御部17は、推論結果に基づいてO-RAN基地局装置10を制御する。
【0011】
推論性能測定部18は、制御部17が推論結果に基づいてO-RAN基地局装置10を制御した後に収集された最新データと当該推論結果とに基づいて推論性能を判定し、判定した推論性能を示す推論性能データをAI/MLデータベース15に格納する。
【0012】
コンセプトドリフト検知部19は、周期的にAI/MLデータベース15から収集データ及び推論性能データの少なくとも一方を取得し、コンセプトドリフトが生じているか否か判定する。コンセプトドリフトの発生を検知すると、コンセプトドリフト検知部19は、新たな学習モデルの生成(再学習)を再学習制御部20へ指示する。再学習制御部20は、AI/ML学習部12へ再学習用のデータを提供して再学習を指示する。
【0013】
AI/ML学習部12は、再学習が指示されるとデータ収集部11が新たに収集した収集データに基づき新たな学習モデルを生成し、AI/MLモデル管理部16に出力する。AI/MLモデル管理部16は、AI/ML推論部13が使用している現在の学習モデルと新たな学習モデルとを比較し、新たな学習モデルによる推論性能が現在の学習モデルによる推論性能よりも高ければ、新たな学習モデルをAI/ML推論部13に出力する。
【0014】
AI/ML推論部13は、以後、新たな学習モデルを使用して推論を行う。なお、新たな学習モデルによる推論性能が現在の学習モデルによる推論性能より低い場合、AI/MLモデル管理部16はAI/ML学習部12に再学習を指示することができる。
【先行技術文献】
【特許文献】
【0015】
【非特許文献】
【0016】
【非特許文献1】M. E. Morocho-Cayamcela, H. Lee and W. Lim, "Machine Learning for 5G/B5G Mobile and Wireless Communications: Potential, Limitations, and Future Directions," in IEEE Access, vol. 7, pp. 137184-137206, 2019
【非特許文献2】J. Kaur, M. A. Khan, M. Iftikhar, M. Imran and Q. Emad Ul Haq, "Machine Learning Techniques for 5G and Beyond," in IEEE Access, vol. 9, pp. 23472-23488, 2021.
【非特許文献3】O-RAN Alliance, "AI/ML workflow description and requirements," O-RAN.WG2.AIML-v01.03, Jul. 2021
【発明の概要】
【発明が解決しようとする課題】
【0017】
RAN機能の制御及び最適化を担うRANインテリジェント・コントローラー(RIC)は、
図6に示すように、制御周期が異なる非リアルタイム系のコンポーネント「Non-RT(Real Time)RIC」及び準リアルタイム系のコンポーネント「Near-RT RIC」の階層構造となっている。
【0018】
ここで、Non-RT RICは制御周期が1sec以上で制御対象となるエリアが広いのに対して、Near-RT RICは制御周期が10msec~1secで制御対象となるエリアが狭いという異なった特徴を有することから、AI/MLに関する各機能ブロックのNear-RT RIC及びNon-RT RICへの最適配置が従来から検討されている。
【0019】
例えば、Non-RT RICは局舎に設けられ、Near-RT RICはビルの屋上などのエッジサイトに配置されることが考えられる。この場合、リアルタイム性を優先してAI/ML学習に係る機能のみならずAI/ML再学習に係る機能までも全てNear-RT RICに配置すると以下の技術課題が生じ得る。
【0020】
第1に、Near-RT RICの処理負荷が増大する。すなわち、エッジサイトは電力やスペースの制約があるため、潤沢な計算機を配置することができない。
【0021】
第2に、Near-RT RIC配下の情報しかコンセプトドリフト検知に用いることができない。すなわち、隣接エリアの情報を用いることができないのでコンセプトドリフトの検知が遅れる。
【0022】
例えば、あるエリアで道路工事が発生してコネクティッドカーのトラヒック量が変化した場合、車両の流量の変化によって隣接エリアにも影響が波及していくことが想定される。このとき、自身のエリアの情報のみしか監視していない場合、道路工事による環境変化を即座に検知することができないため、環境変化に対する再学習の追従性が低くなる。
【0023】
本発明の目的は、上記の技術課題を解決し、AI/MLに関する機能ブロックのNear-RT RIC及びNon-RT RICへの配置が最適化された無線アクセスネットワークの制御装置を提供することにある。
【課題を解決するための手段】
【0024】
上記の目的を達成するために、本発明は、非リアルタイム系の制御部及び準リアルタイム系の制御部が階層化された無線アクセスネットワークの制御装置において、無線アクセスネットワークから収集したデータに基づいて学習モデルを生成し、当該学習モデルに前記収集した最新のデータを適用して推論した結果に基づいて無線アクセスネットワークを制御する学習推論部と、収集したデータの履歴に基づいてコンセプトドリフトが発生しているか否かを検知し、コンセプトドリフトの発生を検知すると前記学習推論部に対して学習モデルを再学習させる再学習部とを具備し、学習推論部を準リアルタイム系の制御部に配置し、再学習部を準リアルタイム系及び非リアルタイム系の各制御部に分散配置した。
【発明の効果】
【0025】
本発明によれば、以下の効果が達成される。
【0026】
(1) 学習推論に係る機能は準リアルタイム系の制御部に配置し、再学習に係る機能は準リアルタイム系及び非リアルタイム系の各制御部へ分散配置したので、準リアルタイム系の制御部の処理負荷を低減することができる。
【0027】
(2) 再学習に係る機能の一部が非リアルタイム系の制御部へ配置されるので、エッジサイトの計算機リソースが限られていても学習モデルの再学習が可能になる。
【0028】
(3) コンセプトドリフトの検知及び再学習の制御に係る機能が準リアルタイム系の制御部に配置されるので、準リアルタイム系の制御部配下の情報のみを用いたコンセプトドリフトの検知及び再学習を高速に行えるようになる。
【図面の簡単な説明】
【0029】
【
図1】本発明の一実施形態に係るO-RAN制御装置の主要部の構成を示した機能ブロック図である。
【
図2】AI/MLデータベースに対する情報のリクエストを実現するためにA1インタフェースに追加するデータの例を示した図である。
【
図3】推論性能データ及びネットワーク情報のセットをテーブル形式でA1インタフェースを介して送信する例を示した図である。
【
図4】本発明の動作を示したシーケンスフローである。
【
図5】コンセプトドリフトを検知して再学習を実行するAIシステムの従来構成を示した機能ブロック図である。
【
図6】RANインテリジェント・コントローラー(RIC)の機能ブロック図である。
【発明を実施するための形態】
【0030】
以下、図面を参照して本発明の実施の形態について詳細に説明する。
図1は、本発明の一実施形態に係るO-RAN制御装置の主要部の構成を示した機能ブロック図であり、ここでは本発明の説明に不要な構成の図示を省略している。また、前記と同一の符号は同一又は同等部分を表している。本実施形態は、AI/ML学習に係る機能をNear-RT RICに配置し、AI/ML再学習に係る機能をNon-RT RICに配置した点に特徴がある。
【0031】
O-RAN制御装置は、O-CU/O-DU31、Near-RT RIC32及びNon-RT RIC33から構成され、各機能は、O-RAN Allianceが規定するO1インタフェース,A1インタフェース及びE2インタフェースを含む各種のインタフェースを介して相互に通知できる。O-CU/O-DU31には前記O-RAN基地局装置10が配置される。
【0032】
Near-RT RIC32には、主にAI/ML学習及び推論に係る機能として、データ収集部11,AI/ML学習部12,AI/ML推論部13,AI/MLモデル管理部16,制御部17及び推論性能測定部18が配置されている。
【0033】
前記Near-RT RIC32には更に、学習モデルの再学習に係る機能の一部として、コンセプトドリフト検知部19及び再学習制御部20が配置されている。Non-RT RIC33には、学習モデルの再学習に係る他の機能として、データ蓄積部14及びAI/MLデータベース15が配置されている。
【0034】
Near-RT RIC32において、データ蓄積部14は、O-RAN基地局装置10から最新データを収集し、Non-RT RIC33のデータ蓄積部14へO1インタフェースを介して送信する。推論性能測定部18は、推論性能データをAI/MLモデル管理部16及びコンセプトドリフト検知部19へ送信すると共に、Non-RT RIC33のAI/MLデータベース15へA1インタフェースを介して送信する。コンセプトドリフト検知部19は、コンセプトドリフトの検知をNon-RT RIC33のAI/MLデータベース15へA1インタフェースを介して送信する。
【0035】
このように、本実施形態では再学習に係る各機能をNon-RT RIC31及びNear-RT RIC32に分散配置したことから、コンセプトドリフトの検知を行うための情報として、特に以下の3つの情報がA1インタフェースに追加される。
【0036】
(1) AI/MLデータベース15に対する情報のリクエスト
(2) 指定された情報の送信
(3) ドリフト検知の通知
【0037】
前記(1)AI/MLデータベース15に対する情報のリクエストを実現するために、本実施形態では「データ種別」、「取得するデータの対象」、「取得するデータの対象」及び「データ取得の間隔」が追加される。「データ種別」には「推論性能データ」及び「ネットワーク情報(O1インタフェースで基地局から収集した情報)」がある。
【0038】
前記(2)指定された情報の送信のために、本実施形態では各データがテーブル形式での送信を採用する。
【0039】
前記(3)ドリフト検知の通知のために、本実施形態ではNear-RT RICからNon-RT RICに対して再学習データの要求を行えるようにする。
【0040】
以下、A1インタフェースに追加する情報について更に詳細に説明する。前記(1)AI/MLデータベースに対する情報のリクエストに関して、前記「データ種別」のうち「推論性能データ」については、O-RAN WG2では
図2に例示した指標が挙げられている。
【0041】
この指標では、二値分類問題(Binary classification problems)向けの指標、多クラス分類問題(Multiclass classification problems)向けの指標及び回帰問題(Regression classification problems)向けの指標が、それぞれ規定されている。本実施形態では、「推論性能データ」として
図2から複数を選択可能とし、指定した期間の平均値、中央値が取得可能とされる。
【0042】
前記「データ種別」のうち「ネットワーク情報」については、予めネットワーク情報の要素に以下のようなID(0~4)を付与し、当該IDでネットワーク情報を指定できるようにする。
【0043】
0:スループット
1:通信遅延
2:無線リソース使用率
3:計算機リソース使用率
4:伝送路リソース使用率
【0044】
前記「取得するデータの対象」については、推論性能データ及びネットワーク情報を取得する対象を、例えばセルID、スライスID及びUEIDで指定するものとする。前記「データ取得の間隔」では、データの取得間隔を指定するものとする。
【0045】
前記(2)指定された情報の送信に関して、本実施形態では
図3に一例を示すように、前記(1)AI/MLデータベースに対する情報のリクエストで指定されたi種類の推論性能データ(p1~pi)及びc種類のネットワーク情報(n1~nc)のm個のセットを、テーブル形式で、かつ指定された時間間隔で送信する。
【0046】
前記(3)ドリフト検知の通知(再学習データの要求)に関して、本実施形態ではコンセプトドリフト検知部19がコンセプトドリフトを検知すると、Non-RT RICに対して再学習データの要求を行う。このとき、対象の学習モデルはそのIDで指定される。
【0047】
図4は、本実施形態の動作を示したシーケンスフローであり、ここではO-CU/O-DU、Near-RT RIC及びNon-RT RIC間の通信に注目して説明する。
【0048】
本実施形態では、O-CU/O-DUとNear-RT RICとの間の通信はE2インタフェースを介して行われ、Near-RT RICとNon-RT RICとの間の通信はO1インタフェース又はA1インタフェースを介して行われる。
【0049】
O-CU/O-DUは、O-RAN基地局装置10の最新データを所定の周期でNear-RT RICへ繰り返し送信する。本実施形態では、時刻t1においてO-CU/O-DUが最新データをNear-RT RICへE2インタフェースを介して送信する。
【0050】
Near-RT RICでは、前記最新データがデータ収集部11により取得される。データ収集部11は、時刻t2において前記最新データをNon-RT RICへO1インタフェースを介して送信する。AI/ML推論部13は、現在の学習モデルに前記最新データを適用して推論を実行し、推論結果を制御部17及び推論性能測定部18へ通知する。制御部17は、前記推論結果に基づく制御をO-CU/O-DUのO-RAN基地局装置10に対して指示する。
【0051】
推論性能測定部18は、制御部17が推論結果に基づいてO-RAN基地局装置10を制御した後に収集された最新データと当該推論結果とに基づいて推論性能を判定し、時刻t4において、前記最新データに基づく推論性能データをNon-RT RICへO1インタフェースを介して送信する。前記最新データ及び推論性能データはAI/MLデータベース15に蓄積される。
【0052】
一方、Near-RT RICは定期的に、コンセプトドリフトの検知を行うために使用する情報をNon-RT RICへリクエストする。本実施形態では、時刻t5においてNear-RT RICのコンセプトドリフト検知部16がNon-RT RICへA1インタフェースを介して、Near-RT RIC配下の各セルにおけるサービス毎のスループット、推論性能データとしてloss値をリクエストする。
【0053】
時刻t6では、前記リクエストされた情報がNon-RT RICからNear-RT RICへA1インタフェースを介して送信される。Near-RT RICでは、リクエストした情報が取得される毎に、コンセプトドリフト検知部19が前記取得した情報に基づいてコンセプトドリフトの検知を行う。
【0054】
その後、時刻t7においてコンセプトドリフト検知部19がコンセプトドリフトを検知すると、時刻t8では、コンセプトドリフト検知がA1インタフェースを介してNon-RT RICへ通知される。時刻t9では、Non-RT RICのAI/MLデータベース15が前記コンセプトドリフト検知の通知に応答して、再学習用のデータをNear-RT RICへA1インタフェースを介して送信する。Near-RT RICでは、再学習制御部20が再学習の指示及び前記再学習用のデータをAI/ML学習部12へ通知する。
【0055】
AI/ML学習部12は、時刻t10において学習モデルの再学習を行い、再学習した学習モデルをAI/MLモデル管理部16に更新登録する。したがって、これ以降に最新データを受信すると、当該再学習した学習モデルに基づく制御が行われる。
【0056】
本実施形態によれば、学習推論に係る機能並びに再学習に係る機能のうちコンセプトドリフトの検知及び再学習の制御に係る機能はNear-RT RICに配置される一方、再学習に係る機能のうちコンセプトドリフトの検知に用いるデータの蓄積に係る機能はNon-RT RICへ配置されるので、Near-RT RICの処理負荷を低減することができる。
【0057】
したがって、コンセプトドリフトが頻繁に発生する環境下であってもエッジサイトの計算機リソースに比較的余裕があれば、コンセプトドリフトの即応的な検知が可能となり、環境変化に対する追従性を高めることができる。
【0058】
その結果、実施形態によれば、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、包括的で持続可能な産業化を推進する」や目標11「都市を包摂的、安全、レジリエントかつ持続可能にする」に貢献することが可能となる。
【符号の説明】
【0059】
10…O-RAN基地局装置,11…データ収集部,12…AI/ML学習部,13…AI/ML推論部,14…データ蓄積部,15…AI/MLデータベース,16…AI/MLモデル管理部,17…制御部,18…推論性能測定部,19…コンセプトドリフト検知部,20…再学習制御部,31…O-CU/O-DU,32…Near-RT RIC,33…Non-RT RIC