IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ KDDI株式会社の特許一覧

<>
  • 特開-無線アクセスネットワークの制御装置 図1
  • 特開-無線アクセスネットワークの制御装置 図2
  • 特開-無線アクセスネットワークの制御装置 図3
  • 特開-無線アクセスネットワークの制御装置 図4
  • 特開-無線アクセスネットワークの制御装置 図5
  • 特開-無線アクセスネットワークの制御装置 図6
  • 特開-無線アクセスネットワークの制御装置 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024044066
(43)【公開日】2024-04-02
(54)【発明の名称】無線アクセスネットワークの制御装置
(51)【国際特許分類】
   G06N 20/00 20190101AFI20240326BHJP
   H04W 24/02 20090101ALI20240326BHJP
【FI】
G06N20/00
H04W24/02
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2022149389
(22)【出願日】2022-09-20
(71)【出願人】
【識別番号】000208891
【氏名又は名称】KDDI株式会社
(74)【代理人】
【識別番号】100092772
【弁理士】
【氏名又は名称】阪本 清孝
(74)【代理人】
【識別番号】100119688
【弁理士】
【氏名又は名称】田邉 壽二
(72)【発明者】
【氏名】塚本 優
(72)【発明者】
【氏名】斉藤 和広
(72)【発明者】
【氏名】米川 慧
(72)【発明者】
【氏名】村松 茂樹
(72)【発明者】
【氏名】黒川 茂莉
(72)【発明者】
【氏名】新保 宏之
【テーマコード(参考)】
5K067
【Fターム(参考)】
5K067AA21
5K067BB21
5K067EE16
(57)【要約】
【課題】AI/MLに関する機能ブロックのNear-RT RIC及びNon-RT RICへの配置が最適化された無線アクセスネットワークの制御装置を提供する。
【解決手段】非リアルタイム系の制御部(Non-RT RIC)及び準リアルタイム系の制御部(Near-RT RIC)が階層化され、O-RAN基地局装置10から収集したデータに基づいて生成した学習モデルに最新のデータを適用して推論した結果に基づいて無線アクセスネットワークを制御する学習推論部(11,12,13,16,17,18)を準リアルタイム系の制御部に配置し、収集したデータの履歴に基づいてコンセプトドリフトが発生しているか否かを検知し、コンセプトドリフトの発生を検知すると学習推論部に対して学習モデルを再学習させる再学習制御部(14,15,19,20)を非リアルタイム系の制御部に配置した。
【選択図】図1
【特許請求の範囲】
【請求項1】
非リアルタイム系の制御部及び準リアルタイム系の制御部が階層化された無線アクセスネットワークの制御装置において、
無線アクセスネットワークから収集したデータに基づいて学習モデルを生成し、当該学習モデルに前記収集した最新のデータを適用して推論した結果に基づいて無線アクセスネットワークを制御する学習推論部と、
前記収集したデータの履歴に基づいてコンセプトドリフトが発生しているか否かを検知し、コンセプトドリフトの発生を検知すると前記学習推論部に対して学習モデルを再学習させる再学習部とを具備し、
前記学習推論部が前記準リアルタイム系の制御部に配置され、前記再学習部が前記非リアルタイム系の制御部に配置されたことを特徴とする無線アクセスネットワークの制御装置。
【請求項2】
前記学習推論部が、
無線アクセスネットワークから最新のデータを収集するデータ収集手段と、
前記収集したデータに基づいて学習モデルを生成する学習手段と、
前記収集データを前記学習モデルに適用して推論を行い、当該推論の結果に基づいて前記無線アクセスネットワークを制御する制御手段と、
前記収集したデータ及び推論の結果に基づいて推論性能を測定する推論性能測定手段とを含み、
前記データ収集手段及び推論性能測定手段は、それぞれ前記最新のデータ及び推論の結果をO1インタフェースを介して再学習部へ送信することを特徴とする請求項1に記載の無線アクセスネットワークの制御装置。
【請求項3】
前記再学習部が、
前記収集したデータ及び推論性能を蓄積するデータベースと、
前記データベースに蓄積されたデータ及び推論性能に基づいてコンセプトドリフトの発生を検知するコンセプトドリフト検知手段と、
前記コンセプトドリフトの発生が検知されると、前記学習推論部に前記学習モデルを再学習させるための情報を送信する再学習制御手段とを含み、
前記再学習制御手段は、再学習させるための情報をA1インタフェースを介して学習推論部へ送信することを特徴とする請求項2に記載の無線アクセスネットワークの制御装置。
【請求項4】
前記再学習させるための情報が、対象物の指定として学習モデルのID、ポリシーの指示として再学習の指示、並びに再学習に用いるデータとしてデータ種別及びデータ形式を含むことを特徴とする請求項3に記載の無線アクセスネットワークの制御装置。
【請求項5】
前記データ種別が、強化学習における経験情報として、状態、次の状態、行動及び報酬を含むことを特徴とする請求項4に記載の無線アクセスネットワークの制御装置。
【請求項6】
前記データ種別が、教師あり学習における入力データ及び正解ラベルを含むことを特徴とする請求項4または5に記載の無線アクセスネットワークの制御装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、無線アクセスネットワークの制御装置に係り、特に、無線アクセスネットワークから収集したデータを学習して生成した学習モデルを再学習する機能を備えた無線アクセスネットワークの制御装置に関する。
【背景技術】
【0002】
無線アクセスネットワーク(RAN:Radio Access Network)において、従来は統合されていた基地局の機能を、セッション処理を行うCU(Centralized Unit)、ベースバンド処理を行う分散ユニットDU(Distributed Unit)及び無線処理を行うRU(Radio Unit)に分割し、各ユニット間のインタフェース仕様をオープン化するための仕様検討がO-RAN Allianceで進められている。
【0003】
Beyond 5Gシステムでは、スループット、通信遅延、接続数等の性能をより拡大し、多種多様なサービス(例えばロボット制御、コネクティッドカー、AR/VR等)を提供することが期待されており、これらを実現するためのキーテクノロジーとしてAI(人工知能)/ML(機械学習)が注目されている。
【0004】
非特許文献1,2では、RANにおいて限られたネットワークリソースの中でネットワーク性能を最大化するために、ビームフォーミング制御、無線リソース割当、トラヒック予測、基地局機能配置など、様々な用途にAI/MLを適用することが検討されている。
【0005】
非特許文献3には、RANから収集したデータに基づき学習を行って学習モデルを生成し、RANから収集したデータ及び当該学習モデルを使用して推論を行い、推論結果に従ってRANを制御する技術が開示されている。
【0006】
しかしながら、時間経過や環境変化よって、推論で使われているデータの特性が、学習時のデータから変化すること(コンセプトドリフト)でモデルの推論性能が低下することがある。
【0007】
このような技術課題に対して、本発明の発明者等は、O-RANの基地局装置からAI/MLの学習・推論に関するデータを蓄積・監視し、コンセプトドリフトを検知して再学習を実行するAIシステムを提案し、特許出願した(特許文献1)。
【0008】
図6は、コンセプトドリフトを検知して再学習を実行するAIシステムの従来構成を示した機能ブロック図である。
【0009】
データ収集部11はO-RAN基地局装置10から最新データを繰り返し収集し、収集した最新データ(収集データ)をAI/ML学習部12及びAI/ML推論部13へ提供すると共にデータ蓄積部14に蓄積する。データ蓄積部14に蓄積された収集データはAI/MLデータベース15で管理される。AI/ML学習部12は、収集データを学習してO-RAN基地局装置10を制御するための学習モデルを生成する。
【0010】
AI/MLモデル管理部16は、AI/ML学習部12が過去に生成した学習モデルを管理する。AI/ML推論部13は、データ収集部11が新たに収集した収集データ及び学習モデルに基づく推論を行い、推論結果を制御部17及び推論性能測定部18へ出力する。制御部17は、推論結果に基づいてO-RAN基地局装置10を制御する。
【0011】
推論性能測定部18は、制御部17が推論結果に基づいてO-RAN基地局装置10を制御した後に収集された最新データと当該推論結果とに基づいて推論性能を判定し、判定した推論性能を示す推論性能データをAI/MLデータベース15に格納する。
【0012】
コンセプトドリフト検知部19は、周期的にAI/MLデータベース15から収集データ及び推論性能データの少なくとも一方を取得し、コンセプトドリフトが生じているか否か判定する。コンセプトドリフトの発生を検知すると、コンセプトドリフト検知部19は、新たな学習モデルの生成(再学習)を再学習制御部20へ指示する。再学習制御部20は、AI/ML学習部12へ再学習用のデータを提供して再学習を指示する。
【0013】
AI/ML学習部12は、再学習が指示されるとデータ収集部11が新たに収集した収集データに基づき新たな学習モデルを生成し、AI/MLモデル管理部16に出力する。AI/MLモデル管理部16は、AI/ML推論部13が使用している現在の学習モデルと新たな学習モデルとを比較し、新たな学習モデルによる推論性能が現在の学習モデルによる推論性能よりも高ければ、新たな学習モデルをAI/ML推論部13に出力する。
【0014】
AI/ML推論部13は、以後、新たな学習モデルを使用して推論を行う。なお、新たな学習モデルによる推論性能が現在の学習モデルによる推論性能より低い場合、AI/MLモデル管理部16はAI/ML学習部12に再学習を指示することができる。
【先行技術文献】
【特許文献】
【0015】
【特許文献1】特願2022-046347号
【非特許文献】
【0016】
【非特許文献1】M. E. Morocho-Cayamcela, H. Lee and W. Lim, "Machine Learning for 5G/B5G Mobile and Wireless Communications: Potential, Limitations, and Future Directions," in IEEE Access, vol. 7, pp. 137184-137206, 2019
【非特許文献2】J. Kaur, M. A. Khan, M. Iftikhar, M. Imran and Q. Emad Ul Haq, "Machine Learning Techniques for 5G and Beyond," in IEEE Access, vol. 9, pp. 23472-23488, 2021.
【非特許文献3】O-RAN Alliance, "AI/ML workflow description and requirements," O-RAN.WG2.AIML-v01.03, Jul. 2021
【発明の概要】
【発明が解決しようとする課題】
【0017】
RAN機能の制御及び最適化を担うRANインテリジェント・コントローラー(RIC)は、図7に示すように、制御周期が異なる非リアルタイム系のコンポーネント「Non-RT(Real Time)RIC」及び準リアルタイム系のコンポーネント「Near-RT RIC」の階層構造となっている。
【0018】
ここで、Non-RT RICは制御周期が1sec以上で制御対象となるエリアが広いのに対して、Near-RT RICは制御周期が10msec~1secで制御対象となるエリアが狭いという異なった特徴を有することから、AI/MLに関する各機能ブロックのNear-RT RIC及びNon-RT RICへの最適配置が従来から検討されている。
【0019】
例えば、Non-RT RICは局舎に設けられ、Near-RT RICはビルの屋上などのエッジサイトに配置されることが考えられる。この場合、リアルタイム性を優先してAI/ML学習に係る機能のみならずAI/ML再学習に係る機能までも全てNear-RT RICに配置すると以下の技術課題が生じ得る。
【0020】
第1に、Near-RT RICの処理負荷が増大する。すなわち、エッジサイトは電力やスペースの制約があるため、潤沢な計算機を配置することができない。
【0021】
第2に、Near-RT RIC配下の情報しかコンセプトドリフト検知に用いることができない。すなわち、隣接エリアの情報を用いることができないのでコンセプトドリフトの検知が遅れる。
【0022】
例えば、あるエリアで道路工事が発生してコネクティッドカーのトラヒック量が変化した場合、車両の流量の変化によって隣接エリアにも影響が波及していくことが想定される。このとき、自身のエリアの情報のみしか監視していない場合、道路工事による環境変化を即座に検知することができないため、環境変化に対する再学習の追従性が低くなる。
【0023】
本発明の目的は、上記の技術課題を解決し、AI/MLに関する機能ブロックのNear-RT RIC及びNon-RT RICへの配置が最適化された無線アクセスネットワークの制御装置を提供することにある。
【課題を解決するための手段】
【0024】
上記の目的を達成するために、本発明は、非リアルタイム系の制御部及び準リアルタイム系の制御部が階層化された無線アクセスネットワークの制御装置において、無線アクセスネットワークから収集したデータに基づいて学習モデルを生成し、当該学習モデルに前記収集した最新のデータを適用して推論した結果に基づいて無線アクセスネットワークを制御する学習推論部を準リアルタイム系の制御部に配置し、収集したデータの履歴に基づいてコンセプトドリフトが発生しているか否かを検知し、コンセプトドリフトの発生を検知すると学習推論部に対して学習モデルを再学習させる再学習部を非リアルタイム系の制御部に配置した。
【発明の効果】
【0025】
本発明によれば、以下の効果が達成される。
【0026】
(1) 学習推論に係る機能は準リアルタイム系の制御部に配置し、再学習に係る機能は非リアルタイム系の制御部へ配置したので、準リアルタイム系の制御部の処理負荷を低減することができる。
【0027】
(2) 再学習に係る機能が非リアルタイム系の制御部へ配置されるので、エッジサイトの計算機リソースが限られていても学習モデルの再学習が可能になる。
【0028】
(3) 非リアルタイム系の制御部の配下の情報をコンセプトドリフトの検知に用いることができるので、コンセプトドリフトの即応的な検知が可能となり、環境変化に対する追従性を高めることができる。
【図面の簡単な説明】
【0029】
図1】本発明の一実施形態に係るO-RAN制御装置の主要部の構成を示した機能ブロック図である。
図2】対象物の指定方法をA1インタフェースに追加する例を示した図である。
図3】ポリシーの指示方法をA1インタフェースに追加する例を示した図である。
図4】再学習に用いるデータをA1インタフェースに追加する例を示した図である。
図5】本発明の動作を示したシーケンスフローである。
図6】コンセプトドリフトを検知して再学習を実行するAIシステムの従来構成を示した機能ブロック図である。
図7】RANインテリジェント・コントローラー(RIC)の機能ブロック図である。
【発明を実施するための形態】
【0030】
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るO-RAN制御装置の主要部の構成を示した機能ブロック図であり、ここでは本発明の説明に不要な構成の図示を省略している。また、前記と同一の符号は同一又は同等部分を表している。本実施形態は、AI/ML学習に係る機能をNear-RT RICに配置し、AI/ML再学習に係る機能をNon-RT RICに配置した点に特徴がある。
【0031】
O-RAN制御装置は、O-CU/O-DU31、Near-RT RIC32及びNon-RT RIC33から構成され、各機能は、O-RAN Allianceが規定するO1インタフェース,A1インタフェース及びE2インタフェースを含む各種のインタフェースを介して相互に通知できる。O-CU/O-DU31には前記O-RAN基地局装置10が配置される。
【0032】
Near-RT RIC32には、主にAI/ML学習及び推論に係る機能として、データ収集部11,AI/ML学習部12,AI/ML推論部13,AI/MLモデル管理部16,制御部17及び推論性能測定部18が配置されている。Non-RT RIC33には、主に学習モデルの再学習に係る機能として、データ蓄積部14,AI/MLデータベース15,コンセプトドリフト検知部19及び再学習制御部20が配置されている。
【0033】
Near-RT RIC32において、データ蓄積部14は、O-RAN基地局装置10から最新データを収集し、Non-RT RIC33のデータ蓄積部14へO1インタフェースを介して送信する。推論性能測定部18は、推論性能データをNon-RT RIC33のAI/MLデータベース15へO1インタフェースを介して送信する。Non-RT RIC33の再学習制御部20は、コンセプトドリフトが検知されたときに、Near-RT RIC32のAI/ML学習部12へA1インタフェースを介して再学習を要求する。
【0034】
このように、本実施形態ではAI/MLの学習推論に係る各機能及び学習モデルの再学習に係る各機能を、それぞれNear-RT RIC32及びNon-RT RIC33に分散配置したことから、A1インタフェースに前記再学習の要求に係る情報として、特に以下の3つの情報が追加される。
【0035】
(1) 対象物の指定
(2) ポリシーの指示
(3) 再学習に用いるデータ
【0036】
前記(1)対象物(学習モデル)の指定のために、本実施形態では学習モデルのIDを追加する。前記(2)ポリシーの指示のために、本実施形態では再学習の指示を追加する。前記(3)再学習に用いるデータとして、本実施形態では強化学習用に「経験情報(状態、次の状態、行動、報酬)」を用い、教師あり学習用に「入力データと正解ラベル」を用いる。データ形式はテーブル形式で圧縮可能とする。
【0037】
図2は、前記(1)対象物の指定方法の例を示した図である。O-RANでは、A1インタフェースを介してNon-RT RIC33からNear-RT RIC32に対してポリシーやジョブを送信することができる。A1インタフェースでは、ポリシーやジョブを適用する対象を指定するための識別子としてScopeIdentifierが定義されている(O-RAN.WG2.A1TD-v02.00)。本実施形態では、再学習を行うAI/MLモデルを指定するために、同図(a)に示すように、既存のScopeIdentifierにAI/MLモデルIDを追加し、更に同図(b)に示すように、AI/MLモデルIDの詳細を定義するテーブルを追加する。
【0038】
図3は、前記(2)ポリシーの指示方法の例を示した図である。A1インタフェースでは、Non-RT RIC33からNear-RT RIC32への送信ポリシーとしてpolicy objectives が定義されている。本実施形態では、AI/ML モデルに再学習を指示するために、同図(a)に示すように、既存のpolicy objectivesにAI/MLに関するポリシーとしてAimlObjectivesを追加する。
【0039】
さらに、同図(b)に示すように、AimlObjectivesの詳細を定義するテーブルを追加して、再学習を指示するretrainを加える。
【0040】
図4は、前記(3)再学習に用いるデータの例を示した図である。強化学習の場合、例えば基地局機能配置制御を考えると、ある時点での状態(スループット、遅延、リソース使用率など)から行動(基地局機能の配置情報)を決定し、次の状態に遷移すると、その行動を評価するための報酬(要求品質の達成率など)が得られる。
【0041】
したがって、これら一連のデータを経験情報として学習することで報酬を最大化する最適制御を得る。本実施形態では、再学習を行うためにm個の経験情報(状態s1~sn、次の状態ns1~nsn、行動a、報酬r)を、同図(a)に示すテーブル形式で送信する。
【0042】
教師あり学習の場合、例えばトラヒックの予測を考えると、入力データ(トラヒックの時系列情報など)及びその正解ラベル(次の瞬間のトラヒックの正解値)を学習することで入力データから正解を推論する。したがって、再学習を行うために、m個の学習データ(入力データx1~xn、正解ラベルy1~yn)を、同図(b)のテーブル形式で送信する。
【0043】
図5は、本実施形態の動作を示したシーケンスフローであり、ここではO-CU/O-DU、Near-RT RIC及びNon-RT RIC間での通信に注目して説明する。
【0044】
本実施形態では、O-CU/O-DU及びNear-RT RICの間の通信はE2インタフェースを介して行われ、Near-RT RICからNon-RT RICへの通信はO1インタフェースを介して行われ、Non-RT RICからNear-RT RICへの通信はA1インタフェースを介して行われる。
【0045】
O-CU/O-DUは、O-RAN基地局装置10の最新データを所定の周期でNear-RT RICへ繰り返し送信する。本実施形態では、時刻t1においてO-CU/O-DUが最新データをNear-RT RICへ送信すると、Near-RT RICでは、前記最新データがデータ収集部11により取得される。
【0046】
Near-RT RICは、時刻t2において前記最新データをNon-RT RICへ送信すると共に、AI/ML推論部13が現在の学習モデルに前記最新データを適用して推論を実行し、推論結果を制御部17及び推論性能測定部18へ通知する。
【0047】
時刻t3では、制御部17が前記推論結果に基づく制御をO-CU/O-DUのO-RAN基地局装置10に対して指示する。推論性能測定部18は、制御部17が推論結果に基づいてO-RAN基地局装置10を制御した後に収集された最新データと当該推論結果とに基づいて推論性能を判定し、時刻t4において、推論性能を示す性能データをNon-RT RICへ送信する。
【0048】
Non-RT RICでは、コンセプトドリフト検知部19が最新データおよび性能データを監視し、時刻t5においてコンセプトドリフトが検知されると、時刻t6において、再学習制御部20がNear-RT RICへ、対象の学習モデルを指定して再学習を指示し、更にAI/MLデータベース15から再学習用のデータを読み出して送信する。
【0049】
Near-RT RICでは、前記再学習の指示及び再学習用のデータを取得すると、時刻t7において、AI/ML学習部12が再学習を実施して学習モデルを生成し、これをAI/MLモデル管理部16に更新登録する。したがって、これ以降はデータが収集されるごとに、当該再学習した学習モデルに基づく制御が行われる。
【0050】
本実施形態によれば、学習推論に係る機能はNear-RT RICに配置される一方、再学習に係る機能はNon-RT RICへ配置されるので、Near-RT RICの処理負荷を低減することができる。したがって、エッジサイトの計算機リソースに制約があっても、コンセプトドリフトが頻繁には発生しない環境下であればコンセプトドリフトの即応的な検知が可能となり、環境変化に対する追従性を高めることができる。
【0051】
その結果、実施形態によれば、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、包括的で持続可能な産業化を推進する」や目標11「都市を包摂的、安全、レジリエントかつ持続可能にする」に貢献することが可能となる。
【符号の説明】
【0052】
10…O-RAN基地局装置,11…データ収集部,12…AI/ML学習部,13…AI/ML推論部,14…データ蓄積部,15…AI/MLデータベース,16…AI/MLモデル管理部,17…制御部,18…推論性能測定部,19…コンセプトドリフト検知部,20…再学習制御部,31…O-CU/O-DU,32…Near-RT RIC,33…Non-RT RIC
図1
図2
図3
図4
図5
図6
図7