IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ KDDI株式会社の特許一覧

特開2024-135380複数のサイトそれぞれに配置された分析機能サーバの学習モデル訓練方法、分析機能サーバ及びプログラム
<>
  • 特開-複数のサイトそれぞれに配置された分析機能サーバの学習モデル訓練方法、分析機能サーバ及びプログラム 図1
  • 特開-複数のサイトそれぞれに配置された分析機能サーバの学習モデル訓練方法、分析機能サーバ及びプログラム 図2
  • 特開-複数のサイトそれぞれに配置された分析機能サーバの学習モデル訓練方法、分析機能サーバ及びプログラム 図3
  • 特開-複数のサイトそれぞれに配置された分析機能サーバの学習モデル訓練方法、分析機能サーバ及びプログラム 図4
  • 特開-複数のサイトそれぞれに配置された分析機能サーバの学習モデル訓練方法、分析機能サーバ及びプログラム 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024135380
(43)【公開日】2024-10-04
(54)【発明の名称】複数のサイトそれぞれに配置された分析機能サーバの学習モデル訓練方法、分析機能サーバ及びプログラム
(51)【国際特許分類】
   H04L 41/16 20220101AFI20240927BHJP
   G06N 20/00 20190101ALI20240927BHJP
   G06N 3/098 20230101ALI20240927BHJP
【FI】
H04L41/16
G06N20/00
G06N3/098
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2023046032
(22)【出願日】2023-03-22
【国等の委託研究の成果に係る記載事項】(出願人による申告)令和3年度、国立研究開発法人情報通信研究機構「革新的情報通信技術研究開発委託研究/Beyond 5Gに向けたテラヘルツ帯を活用した端末拡張型無線通信システム実現のための研究開発 研究開発項目 3 端末拡張型無線通信システム構築・制御技術 副題:Beyond 5Gに向けたテラヘルツ帯を活用するユーザセントリックアーキテクチャ実現に関する研究開発」、産業技術力強化法第17条の適用を受ける特許出願
(71)【出願人】
【識別番号】000208891
【氏名又は名称】KDDI株式会社
(74)【代理人】
【識別番号】100135068
【弁理士】
【氏名又は名称】早原 茂樹
(72)【発明者】
【氏名】倉田 真之
(72)【発明者】
【氏名】鈴木 陽登
(72)【発明者】
【氏名】伊神 皓生
(57)【要約】
【課題】エッジサイトの分析制御サーバの処理負荷を低減すると共に、エッジサイトとセントラルサイトとの間のネットワーク資源の使用容量を低減することができる分析機能サーバの学習モデル訓練方法、分析機能サーバ及びプログラムを提供する。
【解決手段】エッジサイトの第1の分析機能サーバは、エッジサイトのデータソースにおけるネットワークデータから学習モデルを訓練する際に、当該ネットワークデータの容量が、自ら保持する学習モデルの容量以下であるか否かを判定する。そして、真と判定した場合、当該ネットワークデータを、セントラルサイトの第2の分析機能サーバへ送信し、第2の分析機能サーバに、当該ネットワークデータによって学習モデルを訓練させる。一方で、偽と判定した場合、当該ネットワークデータによって学習モデルを訓練し、訓練した学習モデルを、セントラルサイトの第2の分析機能サーバへ送信する。
【選択図】図4

【特許請求の範囲】
【請求項1】
所定の分析項目について、学習モデルを用いてネットワークデータから分析する複数の分析機能サーバの学習モデル訓練方法であって、
エッジサイトに第1の分析機能サーバが配置され、セントラルサイトに第2の分析機能サーバが配置されており、
エッジサイトの第1の分析機能サーバは、
エッジサイトのデータソースにおけるネットワークデータから学習モデルを訓練する際に、当該ネットワークデータの容量が、自ら保持する学習モデルの容量以下であるか否かを判定する第1のステップと、
第1のステップによって真と判定した場合、当該ネットワークデータを、セントラルサイトの第2の分析機能サーバへ送信し、第2の分析機能サーバに、当該ネットワークデータによって学習モデルを訓練させる第21のステップと、
第1のステップによって偽と判定した場合、当該ネットワークデータによって学習モデルを訓練し、訓練した学習モデルを、セントラルサイトの第2の分析機能サーバへ送信する第22のステップと
を有することを特徴とする分析機能サーバの学習モデル訓練方法。
【請求項2】
エッジサイトの第1の分析機能サーバは、第1のステップの前段として、自らの計算資源使用率が所定閾値よりも高い場合、第21のステップへ移行する
ことを特徴とする請求項1に記載の分析機能サーバの学習モデル訓練方法。
【請求項3】
エッジサイトの第1の分析機能サーバは、第1のステップの前段として、
コンシューマサーバから、分析項目と、分析要求期間とを含む分析要求を受信し、当該分析項目における分析要求期間に応じたネットワークデータをエッジサイトのデータソースから取得し、学習モデルを用いて推論処理を実行し、分析結果をコンシューマサーバへ返信する
ことを特徴とする請求項1又は2に記載の分析機能サーバの学習モデル訓練方法。
【請求項4】
セントラルサイトの第2の分析機能サーバは、複数のエッジサイトにおける複数の第1の分析機能サーバの学習モデルを蓄積して共有する
ことを特徴とする請求項1又は2に記載の分析機能サーバの学習モデル訓練方法。
【請求項5】
分析機能サーバは、NWDAF(Network Data Analytics Function)であり、
分析機能サーバの学習モデルは、MTLF(Model Training logical function)によって訓練され、
分析機能サーバの推論処理は、AnLF(Analytics logical function)によって実行される
ことを特徴とする請求項1又は2に記載の分析機能サーバの学習モデル訓練方法。
【請求項6】
エッジサイトに分析制御機能サーバを更に有し、
コンシューマサーバは、自ら配置されたエッジサイトの分析制御機能サーバへ分析要求を送信し、
分析制御機能サーバが、エッジサイトの分析制御サーバを選択し、当該分析制御サーバへ当該分析要求を転送する
ことを特徴とする請求項1又は2に記載の分析機能サーバの学習モデル訓練方法。
【請求項7】
所定の分析項目について、学習モデルを用いてネットワークデータから分析すると共に、セントラルサイトの他の分析機能サーバと通信可能な、エッジサイトの分析機能サーバであって、
エッジサイトのデータソースにおけるネットワークデータから学習モデルを訓練する際に、当該ネットワークデータの容量が、自ら保持する学習モデルの容量以下であるか否かを判定する判定手段と、
第1のステップによって真と判定した場合、当該ネットワークデータを、セントラルサイトの他の分析機能サーバへ送信し、第2の分析機能サーバに、当該ネットワークデータによって学習モデルを訓練させるネットワークデータ送信手段と、
第1のステップによって偽と判定した場合、当該ネットワークデータによって学習モデルを訓練し、訓練した学習モデルを、セントラルサイトの他の分析機能サーバへ送信する学習モデル送信手段と
を有することを特徴とするエッジサイトの分析機能サーバ。
【請求項8】
所定の分析項目について、学習モデルを用いてネットワークデータから分析すると共に、セントラルサイトの他の分析機能サーバと通信可能な、エッジサイトの分析機能サーバに搭載されたコンピュータを機能させるプログラムであって、
エッジサイトのデータソースにおけるネットワークデータから学習モデルを訓練する際に、当該ネットワークデータの容量が、自ら保持する学習モデルの容量以下であるか否かを判定する判定手段と、
第1のステップによって真と判定した場合、当該ネットワークデータを、セントラルサイトの他の分析機能サーバへ送信し、第2の分析機能サーバに、当該ネットワークデータによって学習モデルを訓練させるネットワークデータ送信手段と、
第1のステップによって偽と判定した場合、当該ネットワークデータによって学習モデルを訓練し、訓練した学習モデルを、セントラルサイトの他の分析機能サーバへ送信する学習モデル送信手段と
してコンピュータを機能させることを特徴とする分析機能サーバのプログラム。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、移動通信ネットワークのコアシステムに配置された分析制御サーバの技術に関する。特に、NWDAF(NetWork Data Analytics Function)の技術に関する。
【背景技術】
【0002】
移動通信ネットワークは、5G(5th Generation)及び4G(4th Generation)の両規格に共通して、ユーザ端末(UE(User Equipment))と、RAN(Radio Access Network)と、コアシステム(Core network System)とから構成される。
【0003】
図1は、従来技術におけるコアシステムの機能構成図である。
【0004】
コアシステムは、論理的なコントロールプレーン(Control Plane)ネットワーク装置群の仮想化基盤に、物理的なユーザプレーン(User Plane)ネットワーク装置群が配置されている。コントロールプレーンネットワーク装置は、RANを介して多数のユーザ端末を収容し、通信確立などの制御信号を送受信する。ユーザプレーンネットワーク装置は、RANを介してユーザ端末のユーザデータを送受信する。
また、コアシステムには、コントロールプレーンネットワーク装置群を制御するために、様々なNF(Network Function)サーバが配置されている。
【0005】
コアシステムには、通信設備装置としての様々なデータソースから、多種多様なログデータを取得して分析するNWDAF(分析制御サーバ)が配置されている。NWDAFは、NFコンシューマから分析要求を受信し、その分析結果を返信する。これは、3GPP(3rd Generation Partnership Project)(登録商標)に標準化されている(例えば非特許文献1参照)。
NWDAFには、連合学習(Federated Learning)が導入されている。これによって、NWDAFは、学習(AI)モデルを、ネットワークデータによって訓練しながら、推論に用いることができる(例えば非特許文献2参照)。
【0006】
図1によれば、以下のようなNFサーバから構成されている。
アプリケーション機能サーバ(NFコンシューマ)10
レポジトリ機能サーバ(NRF)11
分析機能サーバ(NWDAF)12
NWDAF12は、分析項目に応じた学習モデルを保有し、分析要求に応じて推論処理を実行し、その分析結果を返信する。そのために、分析項目の種類毎に、複数のNWDAF12が配置される。
NFコンシューマ10は、分析要求の送信元となるNFサーバである。
NRF11は、NFコンシューマからの発見要求に応じて、複数のNWDAF12の中から1つのNWDAFを選択して応答する。
尚、コントロールプレーンネットワーク装置群やユーザプレーンネットワーク装置群は、データソースとなり、NWDAFが学習モデルを用いて推論処理を実行するための入力データとなる。
【0007】
図2は、従来技術におけるシーケンス図である。
【0008】
(s01)NFコンシューマ10が、分析項目αについて分析結果を得たいとする。このとき、NFコンシューマ10は、NRF11へ、発見要求(Discover Request)を送信し、分析項目αを分析可能なNWDAFを問い合わせる。
尚、発見要求には、分析項目αにおける分析結果を得るまでの時間のパラメータであるPreferred Supported Analytics Delayが設定されることも好ましい(例えば非特許文献2参照)。
【0009】
(s02)NRF11は、NFコンシューマ10から発見要求を受信した際に、分析可能なNWDAF12を選択する。選択されたNWDAF12のアドレスを、NFコンシューマ10へ返信する。ここで選択されたNWDAF12は、NFコンシューマ10から要求された分析項目αを分析するための「学習モデル」を保有している。
【0010】
(s03)NFコンシューマ10は、NRF11から返信されたNWDAFのアドレスへ、「分析要求」を送信する。分析要求には、以下の情報が含まれる。
分析項目(Analytics ID) :分析処理の指定
分析要求期間(Analytics target period):分析結果として要求する期間
所望待ち時間(expected waiting time) :分析処理の応答待ち時間
【0011】
分析要求を受信したNWDAF12は、所望待ち時間内に分析結果を返信できない場合には、エラーレスポンスを、NFコンシューマ10へ返信する。このとき、NWDAF12は、エラーレスポンスに、分析処理待ち時間(revised waiting time)を設定するものであってもよい。
【0012】
(s04)NWDAF12は、分析項目αについて分析するための入力データを取得するべく、データソースへ、ネットワークデータ要求を送信する。
これに対し、データソースは、ネットワークデータを、NWDAF12へ送信する。この「データ収集時間」は、NWDAF12の処理時間として遅延することとなる。
【0013】
(s05)NWDAF121は、学習モデルにネットワークデータを入力し、推論処理を実行し、その分析結果を得る。この「推論時間」は、NWDAF12の処理時間として遅延することとなる。
【0014】
(s06)そして、NWDAF121は、その分析結果を、NFコンシューマ10へ返信する。
【先行技術文献】
【非特許文献】
【0015】
【非特許文献1】3GPP TS 23.288 “Architecture enhancements for 5G System (5GS) to support network data analytics services”、[online]、[令和5年3月7日検索]、インターネット<URL:https://portal.3gpp.org/desktopmodules/Specifications/SpecificationDetails.aspx?specificationId=3579>
【非特許文献2】Hexa-X deliverables D4.2 “AI-driven communication & computation co-design: initial solutions”、[online]、[令和5年3月7日検索]、インターネット<URL: https://hexa-x.eu/wp-content/uploads/2022/07/Hexa-X_D4.2_v1.0.pdf>
【発明の概要】
【発明が解決しようとする課題】
【0016】
前述したように、従来、コアシステムにおける様々なNFサーバは、1つのサイトで集中的に管理されるものであった。
これに対し、近年、5Gや6Gでは、セントラルサイトやエッジサイトからなる分散コンピューティングに基づくアーキテクチャが採用されている。そのために、複数のNWDAFが、セントラルサイトのみならず、エッジサイトにも配置されてきている。NFコンシューマが存在するエッジサイトに、NWDAFを配置することによって、分析要求を送信して分析結果を受信するまでの伝送遅延が短縮される、という利点がある。
【0017】
しかしながら、エッジサイトのNFコンシューマは、そのエッジサイト内に配置されたNWDAFへ「分析要求」を送信することとなる。このとき、エッジサイト内で発生した分析要求が、そのエッジサイトのNWDAFに集中するという課題がある。
エッジサイトのNFサーバの多くは、セントラルサイトと比較して、一般的に、計算資源が限られている。そのために、エッジサイトのNWDAFも、その計算資源が枯渇しやすくなる。NFコンシューマが、自らのエッジサイト内のNWDAFへ分析要求を送信しても、所望待ち時間(expected waiting time)を満たせなくなる。
【0018】
また、コアシステムにおける様々なNFサーバが、セントラルサイトやエッジサイトに分散することとなり、サイト間のネットワーク資源の使用量が増加するという課題もある。特に、セントラルサイトと複数のエッジサイトとのそれぞれが地理的に分散するほど、ネットワーク資源の容量が問題となる。
【0019】
そこで、本発明は、エッジサイトの分析制御サーバの処理負荷を低減すると共に、エッジサイトとセントラルサイトとの間のネットワーク資源の使用容量を低減することができる分析機能サーバの学習モデル訓練方法、分析機能サーバ及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0020】
本発明によれば、所定の分析項目について、学習モデルを用いてネットワークデータから分析する複数の分析機能サーバの学習モデル訓練方法であって、
エッジサイトに第1の分析機能サーバが配置され、セントラルサイトに第2の分析機能サーバが配置されており、
エッジサイトの第1の分析機能サーバは、
エッジサイトのデータソースにおけるネットワークデータから学習モデルを訓練する際に、当該ネットワークデータの容量が、自ら保持する学習モデルの容量以下であるか否かを判定する第1のステップと、
第1のステップによって真と判定した場合、当該ネットワークデータを、セントラルサイトの第2の分析機能サーバへ送信し、第2の分析機能サーバに、当該ネットワークデータによって学習モデルを訓練させる第21のステップと、
第1のステップによって偽と判定した場合、当該ネットワークデータによって学習モデルを訓練し、訓練した学習モデルを、セントラルサイトの第2の分析機能サーバへ送信する第22のステップと
を有することを特徴とする。
【0021】
本発明の分析機能サーバの学習モデル訓練方法における他の実施形態によれば、
エッジサイトの第1の分析機能サーバは、第1のステップの前段として、自らの計算資源使用率が所定閾値よりも高い場合、第21のステップへ移行する
ことも好ましい。
【0022】
本発明の分析機能サーバの学習モデル訓練方法における他の実施形態によれば、
エッジサイトの第1の分析機能サーバは、第1のステップの前段として、
コンシューマサーバから、分析項目と、分析要求期間とを含む分析要求を受信し、当該分析項目における分析要求期間に応じたネットワークデータをエッジサイトのデータソースから取得し、学習モデルを用いて推論処理を実行し、分析結果をコンシューマサーバへ返信する
ことも好ましい。
【0023】
本発明の分析機能サーバの学習モデル訓練方法における他の実施形態によれば、
セントラルサイトの第2の分析機能サーバは、複数のエッジサイトにおける複数の第1の分析機能サーバの学習モデルを蓄積して共有する
ことも好ましい。
【0024】
本発明の分析機能サーバの学習モデル訓練方法における他の実施形態によれば、
分析機能サーバは、NWDAF(Network Data Analytics Function)であり、
分析機能サーバの学習モデルは、MTLF(Model Training logical function)によって訓練され、
分析機能サーバの推論処理は、AnLF(Analytics logical function)によって実行される
ことも好ましい。
【0025】
本発明の分析機能サーバの学習モデル訓練方法における他の実施形態によれば、
エッジサイトに分析制御機能サーバを更に有し、
コンシューマサーバは、自ら配置されたエッジサイトの分析制御機能サーバへ分析要求を送信し、
分析制御機能サーバが、エッジサイトの分析制御サーバを選択し、当該分析制御サーバへ当該分析要求を転送する
ことも好ましい。
【0026】
本発明によれば、所定の分析項目について、学習モデルを用いてネットワークデータから分析すると共に、セントラルサイトの他の分析機能サーバと通信可能な、エッジサイトの分析機能サーバであって、
エッジサイトのデータソースにおけるネットワークデータから学習モデルを訓練する際に、当該ネットワークデータの容量が、自ら保持する学習モデルの容量以下であるか否かを判定する判定手段と、
第1のステップによって真と判定した場合、当該ネットワークデータを、セントラルサイトの他の分析機能サーバへ送信し、第2の分析機能サーバに、当該ネットワークデータによって学習モデルを訓練させるネットワークデータ送信手段と、
第1のステップによって偽と判定した場合、当該ネットワークデータによって学習モデルを訓練し、訓練した学習モデルを、セントラルサイトの他の分析機能サーバへ送信する学習モデル送信手段と
を有することを特徴とする。
【0027】
本発明によれば、所定の分析項目について、学習モデルを用いてネットワークデータから分析すると共に、セントラルサイトの他の分析機能サーバと通信可能な、エッジサイトの分析機能サーバに搭載されたコンピュータを機能させるプログラムであって、
エッジサイトのデータソースにおけるネットワークデータから学習モデルを訓練する際に、当該ネットワークデータの容量が、自ら保持する学習モデルの容量以下であるか否かを判定する判定手段と、
第1のステップによって真と判定した場合、当該ネットワークデータを、セントラルサイトの他の分析機能サーバへ送信し、第2の分析機能サーバに、当該ネットワークデータによって学習モデルを訓練させるネットワークデータ送信手段と、
第1のステップによって偽と判定した場合、当該ネットワークデータによって学習モデルを訓練し、訓練した学習モデルを、セントラルサイトの他の分析機能サーバへ送信する学習モデル送信手段と
してコンピュータを機能させることを特徴とする。
【発明の効果】
【0028】
本発明の分析機能サーバの学習モデル訓練方法、分析機能サーバ及びプログラムによれば、エッジサイトの分析制御サーバの処理負荷を低減すると共に、エッジサイトとセントラルサイトとの間のネットワーク資源の使用容量を低減することができる。
【図面の簡単な説明】
【0029】
図1】従来技術におけるシステム構成図である。
図2】従来技術におけるシーケンス図である。
図3】本発明におけるシステム構成図である。
図4】本発明におけるエッジサイトの分析機能サーバのフローチャートである。
図5】分析制御機能サーバを更に有するシステム構成図である。
【発明を実施するための形態】
【0030】
以下では、本発明の実施の形態について、図面を用いて詳細に説明する。
【0031】
図3は、本発明におけるシステム構成図である。
【0032】
図3のコアシステムによれば、複数のエッジサイトと、1つのセントラルサイトとから構成されている。複数のエッジサイトとセントラルサイトとはそれぞれ、地理的に分散して配置されたものであってもよいし、計算資源を考慮して論理的に分散して配置されたものであってもよい。
【0033】
NRF11は、従来技術と同様に、NFコンシューマ10が必要とする様々なNFサーバを発見することができる。
NFコンシューマ10は、自ら属するエッジサイト内に配置されたNRF11へ、当該分析項目の分析可能なNWDAF12のアドレスを問い合わせることができる。
【0034】
複数のエッジサイトとセントラルサイトとにはそれぞれ、所定の分析項目について、ネットワークデータから学習モデルを用いて分析する複数のNWDAF(分析機能サーバ)12が配置されている。
NWDAF12は、既存のものであって、以下の2つの機能を有する。
AnLF(Analytics Logical Function)
MTLF(Model Training Logical Function)
NWDAF12の学習モデルは、MTLFによって訓練される。MTLFは、データソースから取得したログデータによって学習モデルを再訓練し、その学習モデルをAnLFに利用させる。
また、NWDAF12の推論処理は、AnLFによって実行される。AnLFは、分析要求を受信し、その分析結果を返信する。
【0035】
図3によれば、エッジサイトXのNWDAF12は、セントラルサイトのNWDAF22と通信することができる。エッジサイトXのNWDAF12は、セントラルサイトのNWDAF22を発見するために、セントラルサイトのNRF21へ問い合わせるものであってもよい。
また、セントラルサイトのNWDAF22は、複数のエッジサイトにおける複数のNWDAF12の学習モデルを蓄積するものであってもよい。これによって、セントラルサイトのNWDAF22は、共有となる学習モデルを構築することができ、エッジサイトの多数のNWDAF12から利用可能となる。
【0036】
図4は、本発明におけるエッジサイトの分析機能サーバのフローチャートである。
【0037】
(s03)前述した図2と同様である。NWDAF12は、NFコンシューマ10から「分析要求」を受信する。分析要求には、少なくとも、分析項目及び分析要求期間が含まれる。
NWDAF12は、分析要求に含まれる分析項目αに応じた学習モデルAを保有していることを前提とする。ここで、保有する学習モデルは、最終更新日時や、学習済みのネットワークデータにおける分析可能期間のようなメタデータを保持する。
【0038】
(s04)前述した図2と同様である。NWDAF12は、分析項目αについて分析するための入力データを取得するべく、データソースへ、分析要求期間に応じたネットワークデータを要求する「ネットワークデータ要求」を送信する。これによって、NWDAF12は、そのネットワークデータを、データソースから受信する。
【0039】
(s05)前述した図2と同様である。NWDAF12は、分析項目αにおける学習モデルにネットワークデータを入力して、推論処理を実行し、その分析結果をNFコンシューマ10へ返信する。
【0040】
<学習モデルの再訓練>
NWDAF12は、分析結果を返信した後、そのネットワークデータによって再訓練することが好ましい。これによって、学習モデルを更新することができる。また、学習モデルは、エッジサイトのNWDAF12と、セントラルサイトのNWDAF22とので共有する。セントラルサイトのNWDAF22で保有される学習モデルは、他のエッジサイトでも利用することができる。
【0041】
(S0)最初に、NWDAF12は、自らの計算資源使用率が所定閾値以下であるか否かを判定する。真(計算資源使用率≦所定閾値)と判定した場合、S1へ移行する。一方で、偽(計算資源使用率>所定閾値)と判定した場合、過負荷状態にあるとして、S21へ移行する。これによって、エッジサイトのNWDAF12については、処理負荷を常に低減させるようにする。
尚、NWDAF12は、自ら計測可能な計算資源使用率として、プロセッサの使用率を用いてもよいし、単位時間あたりの分析要求の受信率を用いてもよい。
【0042】
(S1)NWDAF12は、当該ネットワークデータの容量が、自ら保持する学習モデルの容量以下であるか否かを判定する。真(ネットワークデータの容量≦学習モデルの容量)と判定した場合、S21へ移行する。一方で、偽(ネットワークデータの容量>学習モデルの容量)と判定した場合、S22へ移行する。
【0043】
(S21)ここでは、エッジサイトのNWDAF12は、計算資源とネットワーク資源との観点から、学習モデルAを自ら再訓練するよりも、セントラルサイトのNWDAF22によって再訓練させた方がよいと判定したこととなる。そのために、NWDAF12は、ネットワークデータを、セントラルサイトのNWDAF22へ送信する。これによって、NWDAF22に、そのネットワークデータによって学習モデルAを訓練させる。
但し、エッジサイトとセントラルサイトとの間のネットワークが輻輳しており、伝送遅延が所定閾値以上となる場合には、S22へ移行することも好ましい。
【0044】
尚、エッジサイトのNWDAF12は、データソースから取得したネットワークデータの中で、学習モデルが保持する最終更新日時及び分析可能期間を超えるネットワークデータのみで、その学習モデルを訓練する。
【0045】
(S22)ここでは、エッジサイトのNWDAF12は、計算資源とネットワーク資源との観点から、ネットワークデータによって学習モデルAを訓練し、訓練した学習モデルAを、セントラルサイトのNWDAF22へ送信する。
エッジサイトとセントラルサイトとの間で、ネットワークデータを送受信するよりも、学習モデルを送受信することによって、トラフィック量を軽減し、ネットワーク資源の使用容量を低減する。
【0046】
尚、セントラルサイトのNWDAF12は、エッジサイトのNWDAF12から受信したネットワークデータの中で、学習モデルが保持する最終更新日時及び分析可能期間を超えるネットワークデータのみで、その学習モデルを訓練する。
【0047】
図4によれば、エッジサイトのNWDAF12の計算資源を考慮した推論と、エッジサイトとセントラルサイトとの間のネットワーク資源を考慮した学習モデルの再訓練との両方を実現することができる。
【0048】
図5は、分析制御機能サーバを更に有するシステム構成図である。
【0049】
図5によれば、図3と比較して、エッジサイトとセントラルサイトとにそれぞれ、分析制御機能サーバ(NWDAFコントローラ)13及び23が配置されている。
エッジサイトのNWDAFコントローラ13は、NFコンシューマ10に対して、プロデューササーバとして機能する。
【0050】
NFコンシューマ10は、自ら配置されたエッジサイトのNRF11へ、NWDAFコントローラ13のアドレスを問い合わせる。
次に、NFコンシューマ10は、NWDAFコントローラ13へ「分析要求」を送信する。
このように、NWDAFコントローラ13を配置することによって、NRF11は、分析要求の分析項目に応じてNWDAF12を発見する必要がなくなり、NWDAF12毎のSupported Analytics Delayを管理する必要もなくなる。NRF11は、NWDAF12の管理における処理負荷を低減させることができ、他の様々なNFサーバの発見のための処理負荷に向けることができる。
【0051】
<NWDAFコントローラにおけるNWDAF12毎の現計算資源使用率の管理>
NWDAFコントローラ13は、NWDAF12毎に、現在の計算資源使用率を管理するものであってもよい。NWDAFコントローラ13は、自らの管理下にある複数のNWDAF12から定期的に、計算資源使用率を受信するものであってもよい。
NWDAFコントローラ13は、現在の計算資源使用率が高い順(計算資源効率が悪い順)から所定条件を満たす複数のNWDAF12を、検索候補とする。ここで、「所定条件」とは、所定率以下であるとする。即ち、所定率よりも高い計算資源使用率となるNWDAF12しか無い場合、検索候補を選択しない。一方で、所定率以下であって且つ計算資源使用率が最も高いNWDAFを、検索候補とするものであってもよい。
【0052】
<NWDAFコントローラにおけるNWDAF12の選択>
NWDAFコントローラ13は、検索候補となるNWDAF12の中から、分析要求の所望待ち時間(expected waiting time)を満たすNWDAF12を選択する。
NWDAFコントローラ13は、分析要求期間の時間長(Analytics target period)に応じた推論時間が所望待ち時間を算出し、分析要求期間の時間長に応じたネットワークデータ取得時間を算出する。
そして、推論時間とデータ収集時間との和が、所望待ち時間以下となるNWDAF12を検索候補とする。
推論時間+データ収集時間 ≦ 所望待ち時間
ここで、NWDAF12が検索できない場合、エラーレスポンスをNFコンシューマ10へ返信する。このとき、NWDAFコントローラ13は、エラーレスポンスに、その推論時間をrevised waiting timeとして設定する。これによって、NFコンシューマ10は、revised waiting timeを考慮して、再度、分析要求を送信することもできる。
尚、NWDAFコントローラ13は、NWDAF12毎に、実行すべき分析項目の推論時間の時間帯をスケジュール管理するものであってもよい。
【0053】
そして、NWDAFコントローラ13は、選択されたNWDAF12へ、NFコンシューマ10から受信した「分析要求」を転送する。
【0054】
以上、詳細に説明したように、本発明の分析機能サーバの学習モデル訓練方法、分析機能サーバ及びプログラムによれば、エッジサイトの分析制御サーバの処理負荷を低減すると共に、エッジサイトとセントラルサイトとの間のネットワーク資源の使用容量を低減することができる。
【0055】
尚、これにより、例えば「移動通信ネットワークのコアシステムにおける処理負荷を軽減することができる」ことから、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、持続可能な産業化を推進するとともに、イノベーションの拡大を図る」に貢献することが可能となる。
【0056】
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
【符号の説明】
【0057】
10 NFコンシューマ、アプリケーション機能サーバ
11 NRF、レポジトリ機能サーバ
12 NWDAF、分析機能サーバ
13 NWDAFコントローラ、分析制御機能サーバ
21 NRF、レポジトリ機能サーバ
22 NWDAF、分析機能サーバ
23 NWDAFコントローラ、分析制御機能サーバ

図1
図2
図3
図4
図5