(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024083738
(43)【公開日】2024-06-24
(54)【発明の名称】通信制御方法および通信制御装置
(51)【国際特許分類】
G06F 9/50 20060101AFI20240617BHJP
G06N 20/00 20190101ALI20240617BHJP
H04W 88/14 20090101ALI20240617BHJP
H04W 28/088 20230101ALI20240617BHJP
【FI】
G06F9/50 150D
G06N20/00
H04W88/14
H04W28/088
【審査請求】有
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022197731
(22)【出願日】2022-12-12
(11)【特許番号】
(45)【特許公報発行日】2023-03-27
(71)【出願人】
【識別番号】397036309
【氏名又は名称】株式会社インターネットイニシアティブ
(74)【代理人】
【識別番号】100118902
【弁理士】
【氏名又は名称】山本 修
(74)【代理人】
【識別番号】100106208
【弁理士】
【氏名又は名称】宮前 徹
(74)【代理人】
【識別番号】100196508
【弁理士】
【氏名又は名称】松尾 淳一
(74)【代理人】
【識別番号】100195408
【弁理士】
【氏名又は名称】武藤 陽子
(72)【発明者】
【氏名】柿島 純
【テーマコード(参考)】
5K067
【Fターム(参考)】
5K067AA28
(57)【要約】
【課題】加入者情報管理サーバ群の負荷を分散することを目的とする。
【解決手段】
通信制御方法は、複数のUDMサーバ2が備える全ての複数のプロセッサコア21について、各プロセッサコア21に入力される要求信号の信号数に対して、各プロセッサコア21から出力される要求信号の信号数が、各プロセッサコア21で均等な目標信号数の値に一致するように、機械学習モデルのパラメータを学習する第1ステップと、第1ステップで得られた学習済みパラメータをMLモデル記憶部12に記憶させる第2ステップと、複数のUDMサーバ2の各プロセッサコア21に入力される、未知の信号数の偏りを有する要求信号について、学習済みパラメータを適用して、複数のUDMサーバ2の各プロセッサコア21から目標信号数を出力させる第3ステップとを備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
SIMカードに紐づけられた加入者情報を管理する複数のサーバを制御する通信制御方法であって、
前記複数のサーバは、
各々が、外部からの要求信号を処理する複数のプロセッサコアで構成されるプロセッサと、通信インターフェースとを備え、
前記通信インターフェースは、前記複数のサーバを互いに接続し、かつ、前記複数のサーバが備える全ての前記複数のプロセッサコアを互いに連携可能にし、
前記通信制御方法は、
前記複数のサーバが備える全ての前記複数のプロセッサコアについて、各プロセッサコアに入力される前記要求信号の信号数に対して、前記各プロセッサコアから出力される前記要求信号の信号数が、前記各プロセッサコアで均等な目標信号数の値に一致するように、機械学習モデルのパラメータを学習する第1ステップと、
前記第1ステップで得られた学習済みパラメータを記憶部に記憶させる第2ステップと、
前記複数のサーバの前記各プロセッサコアに入力される、未知の信号数の偏りを有する前記要求信号について、前記学習済みパラメータを適用して、前記複数のサーバの前記各プロセッサコアから前記目標信号数を出力させる第3ステップと
を備える通信制御方法。
【請求項2】
請求項1に記載の通信制御方法において、
前記第3ステップは、さらに、前記学習済みパラメータに基づいて、前記複数のサーバが備える全ての前記複数のプロセッサコアを連携させるために、前記各プロセッサコア間の接続に関する設定を行い、
前記第3ステップは、前記各プロセッサコア間の前記接続に関する設定を用いて、前記各プロセッサコアに、前記未知の信号数の偏りを有する前記要求信号を入力し、前記各プロセッサコアから前記目標信号数を出力させる
ことを特徴とする通信制御方法。
【請求項3】
請求項2に記載の通信制御方法において、
前記第1ステップは、前記各プロセッサコアに入力される前記要求信号の信号数に対して、前記各プロセッサコアから前記目標信号数を出力するための前記各プロセッサコア間の前記接続に関する設定がラベル付けされた教師データを用いて、前記機械学習モデルの前記パラメータの学習を行う
ことを特徴とする通信制御方法。
【請求項4】
請求項3に記載の通信制御方法において、
前記機械学習モデルは、入力層、隠れ層、および出力層を有するニューラルネットワークであり、
入力層の入力ノードの数、および出力層の出力ノードの数は、前記複数のサーバが備える全ての前記複数のプロセッサコアの数に対応する
ことを特徴とする通信制御方法。
【請求項5】
請求項4に記載の通信制御方法において、
前記入力層の前記入力ノードには、前記各プロセッサコアを二次元配置した構造に対応する二次元ベクトルの入力データが入力される
ことを特徴とする通信制御方法。
【請求項6】
SIMカードに紐づけられた加入者情報を管理する複数のサーバを制御する通信制御装置であって、
前記複数のサーバは、
各々が、外部からの要求信号を処理する複数のプロセッサコアで構成されるプロセッサと、通信インターフェースとを備え、
前記通信インターフェースは、前記複数のサーバを互いに接続し、かつ、前記複数のサーバが備える全ての前記複数のプロセッサコアを互いに連携可能にし、
前記通信制御装置は、
前記複数のサーバが備える全ての前記複数のプロセッサコアについて、各プロセッサコアに入力される前記要求信号の信号数に対して、前記各プロセッサコアから出力される前記要求信号の信号数が、前記各プロセッサコアで均等な目標信号数の値に一致するように、機械学習モデルのパラメータを学習する学習部と、
前記学習部で得られた学習済みパラメータを記憶する記憶部と、
前記複数のサーバの前記各プロセッサコアに入力される、未知の信号数の偏りを有する前記要求信号について、前記学習済みパラメータを適用して、前記複数のサーバの前記各プロセッサコアから前記目標信号数を出力させる通信制御部と
を備える通信制御装置。
【請求項7】
請求項6に記載の通信制御装置において、
前記通信制御部は、さらに、前記学習済みパラメータに基づいて、前記複数のサーバが備える全ての前記複数のプロセッサコアを連携させるために、前記各プロセッサコア間の接続に関する設定を行い、
前記通信制御部は、前記各プロセッサコア間の前記接続に関する設定を用いて、前記各プロセッサコアに、前記未知の信号数の偏りを有する前記要求信号を入力し、前記各プロセッサコアから前記目標信号数を出力させる
ことを特徴とする通信制御装置。
【請求項8】
請求項7に記載の通信制御装置において、
前記学習部は、前記各プロセッサコアに入力される前記要求信号の信号数に対して、前記各プロセッサコアから前記目標信号数を出力するための前記各プロセッサコア間の前記接続に関する設定がラベル付けされた教師データを用いて、前記機械学習モデルの前記パラメータの学習を行う
ことを特徴とする通信制御装置。
【請求項9】
請求項8に記載の通信制御装置において、
前記機械学習モデルは、入力層、隠れ層、および出力層を有するニューラルネットワークであり、
入力層の入力ノードの数、および出力層の出力ノードの数は、前記複数のサーバが備える全ての前記複数のプロセッサコアの数に対応する
ことを特徴とする通信制御装置。
【請求項10】
請求項9に記載の通信制御装置において、
前記入力層の前記入力ノードには、前記各プロセッサコアを二次元配置した構造に対応する二次元ベクトルの入力データが入力される
ことを特徴とする通信制御装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、通信制御方法および通信制御装置に関する。
【背景技術】
【0002】
従来のスタンドアローン(SA)方式の第5世代(5G)移動通信システムでは、
図8に示すように、コアネットワークに含まれるAMF(Access and Mobility Management Function)600は、複数のUDM(Unified Data Management)500に対して、ラウンドロビンによるロードバランサにより要求信号を振り分けて送信する。一方、UDM500は、要求信号を送信したAMFに対して応答信号を返却する。
【0003】
同様に、従来の第4世代(4G、LTE)移動通信システムにおいては、MME(Mobility Management Entity)が、複数のHSS(Home Subscriber Server)に対して、ラウンドロビンによるロードバランサで要求信号を振り分けて送信し、HSSは、要求信号を送信したMMEに対して応答信号を返却する。
【0004】
AMFおよびMMEは、通信エリア内のユーザ端末の位置情報を管理するデータベースを備え、UDM、HSSとのインターフェースを持つコアネットワーク内のサーバ装置である。また、UDMおよびHSSは、SIMカードに紐づけられた加入者情報を管理するコアネットワークに設けられた加入者情報管理サーバである。
【0005】
しかし、従来のラウンドロビン方式により要求信号を振り分ける方法を採用した場合であっても、複数のUDM(4Gにおいては複数のHSS)のうちのある特定のUDM(4GにおいてはHSS)に要求信号が偏り、輻輳が生じていた。さらに、UDM(HSS)は、複数のマイクロプロセッサコアで構成されるプロセッサを備えているところ、各UDM(各HSS)内においても、特定のマイクロプロセッサコアに処理負荷の偏りが生じていた。
【0006】
例えば、特許文献1は、第4世代(4G/LTE)移動通信システムにおいて、複数のゲートウェイのリソース情報を比較し、計算リソース量の空き容量が多いゲートウェイを選択することで、MMEからゲートウェイへ無線ベアラの設定要求を送出する技術を開示している。
【先行技術文献】
【特許文献】
【0007】
【発明の概要】
【発明が解決しようとする課題】
【0008】
しかし、従来の技術では、加入者情報管理サーバ群におけるプロセッサコア間の連携を行うことができず、依然として加入者情報管理サーバ群の負荷を分散することが困難であった。
【0009】
本発明は、上述した課題を解決するためになされたものであり、加入者情報管理サーバ群の負荷を分散することを目的とする。
【課題を解決するための手段】
【0010】
上述した課題を解決するために、本発明に係る通信制御方法は、SIMカードに紐づけられた加入者情報を管理する複数のサーバを制御する通信制御方法であって、前記複数のサーバは、各々が、外部からの要求信号を処理する複数のプロセッサコアで構成されるプロセッサと、通信インターフェースとを備え、前記通信インターフェースは、前記複数のサーバを互いに接続し、かつ、前記複数のサーバが備える全ての前記複数のプロセッサコアを互いに連携可能にし、前記通信制御方法は、前記複数のサーバが備える全ての前記複数のプロセッサコアについて、各プロセッサコアに入力される前記要求信号の信号数に対して、前記各プロセッサコアから出力される前記要求信号の信号数が、前記各プロセッサコアで均等な目標信号数の値に一致するように、機械学習モデルのパラメータを学習する第1ステップと、前記第1ステップで得られた学習済みパラメータを記憶部に記憶させる第2ステップと、前記複数のサーバの前記各プロセッサコアに入力される、未知の信号数の偏りを有する前記要求信号について、前記学習済みパラメータを適用して、前記複数のサーバの前記各プロセッサコアから前記目標信号数を出力させる第3ステップとを備える。
【0011】
また、本発明に係る通信制御方法において、前記第3ステップは、さらに、前記学習済みパラメータに基づいて、前記複数のサーバが備える全ての前記複数のプロセッサコアを連携させるために、前記各プロセッサコア間の接続に関する設定を行い、前記第3ステップは、前記各プロセッサコア間の前記接続に関する設定を用いて、前記各プロセッサコアに、前記未知の信号数の偏りを有する前記要求信号を入力し、前記各プロセッサコアから前記目標信号数を出力させてもよい。
【0012】
また、本発明に係る通信制御方法において、前記第1ステップは、前記各プロセッサコアに入力される前記要求信号の信号数に対して、前記各プロセッサコアから前記目標信号数を出力するための前記各プロセッサコア間の前記接続に関する設定がラベル付けされた教師データを用いて、前記機械学習モデルの前記パラメータの学習を行ってもよい。
【0013】
また、本発明に係る通信制御方法において、前記機械学習モデルは、入力層、隠れ層、および出力層を有するニューラルネットワークであり、入力層の入力ノードの数、および出力層の出力ノードの数は、前記複数のサーバが備える全ての前記複数のプロセッサコアの数に対応してもよい。
【0014】
また、本発明に係る通信制御方法において、前記入力層の前記入力ノードには、前記各プロセッサコアを二次元配置した構造に対応する二次元ベクトルの入力データが入力されてもよい。
【0015】
上述した課題を解決するために、本発明に係る通信制御装置は、SIMカードに紐づけられた加入者情報を管理する複数のサーバを制御する通信制御装置であって、前記複数のサーバは、各々が、外部からの要求信号を処理する複数のプロセッサコアで構成されるプロセッサと、通信インターフェースとを備え、前記通信インターフェースは、前記複数のサーバを互いに接続し、かつ、前記複数のサーバが備える全ての前記複数のプロセッサコアを互いに連携可能にし、前記通信制御装置は、前記複数のサーバが備える全ての前記複数のプロセッサコアについて、各プロセッサコアに入力される前記要求信号の信号数に対して、前記各プロセッサコアから出力される前記要求信号の信号数が、前記各プロセッサコアで均等な目標信号数の値に一致するように、機械学習モデルのパラメータを学習する学習部と、前記学習部で得られた学習済みパラメータを記憶する記憶部と、前記複数のサーバの前記各プロセッサコアに入力される、未知の信号数の偏りを有する前記要求信号について、前記学習済みパラメータを適用して、前記複数のサーバの前記各プロセッサコアから前記目標信号数を出力させる通信制御部とを備える。
【0016】
また、本発明に係る通信制御装置において、前記通信制御部は、さらに、前記学習済みパラメータに基づいて、前記複数のサーバが備える全ての前記複数のプロセッサコアを連携させるために、前記各プロセッサコア間の接続に関する設定を行い、前記通信制御部は、前記各プロセッサコア間の前記接続に関する設定を用いて、前記各プロセッサコアに、前記未知の信号数の偏りを有する前記要求信号を入力し、前記各プロセッサコアから前記目標信号数を出力させてもよい。
【0017】
また、本発明に係る通信制御装置において、前記学習部は、前記各プロセッサコアに入力される前記要求信号の信号数に対して、前記各プロセッサコアから前記目標信号数を出力するための前記各プロセッサコア間の前記接続に関する設定がラベル付けされた教師データを用いて、前記機械学習モデルの前記パラメータの学習を行ってもよい。
【0018】
また、本発明に係る通信制御装置において、前記機械学習モデルは、入力層、隠れ層、および出力層を有するニューラルネットワークであり、入力層の入力ノードの数、および出力層の出力ノードの数は、前記複数のサーバが備える全ての前記複数のプロセッサコアの数に対応してもよい。
【0019】
また、本発明に係る通信制御装置において、前記入力層の前記入力ノードには、前記各プロセッサコアを二次元配置した構造に対応する二次元ベクトルの入力データが入力されてもよい。
【発明の効果】
【0020】
本発明によれば、複数の加入者情報管理サーバが備える全ての複数のプロセッサコアについて、各プロセッサコアに入力される要求信号の信号数に対して、各プロセッサコアから出力される要求信号の信号数が、各プロセッサコアで均等な目標信号数に一致するように、機械学習モデルのパラメータを学習する。そのため、加入者情報管理サーバ群における負荷を分散することができる。
【図面の簡単な説明】
【0021】
【
図1】
図1は、本発明の実施の形態に係る通信制御装置を含む通信制御システムの構成を示すブロック図である。
【
図2】
図2は、本実施の形態に係る通信制御装置のハードウェア構成を示すブロック図である。
【
図3】
図3は、本実施の形態に係るUDMサーバのハードウェア構成を示すブロック図である。
【
図4】
図4は、本実施の形態に係る学習部による学習処理を説明するための図である。
【
図5】
図5は、本実施の形態に係る通信制御装置の動作を示すフローチャートである。
【
図6】
図6は、本実施の形態に係る通信制御装置の動作を示すフローチャートである。
【
図7】
図7は、本実施の形態の変形例に係る通信制御装置が備える機械学習モデルの構造を示す模式図である。
【
図8】
図8は、従来例に係る通信制御システムの構成を示すブロック図である。
【発明を実施するための形態】
【0022】
以下、本発明の好適な実施の形態について、
図1から
図7を参照して詳細に説明する。なお、以下の説明では、5G通信規格に準拠する通信制御システムを例に挙げるが、通信制御システムは4G通信規格に準拠する構成であってもよい。
【0023】
[通信制御システムの構成]
まず、本発明の実施の形態に係る通信制御装置1を備える通信制御システムの概要について説明する。
図1に示すように、通信制御システムは、通信制御装置1と、複数のUDMサーバ(サーバ)2a、2b、2cと、複数のAMFサーバ3a、3b、3cとを備える。UDMサーバ2a、2b、2cは、通信制御装置1とWAN(Wide Area Network)、LAN(Local Area Network)、インターネットなどのネットワークNWを介して接続されている。
【0024】
AMFサーバ3a、3b、3cは、UDMサーバ2a、2b、2cとのインターフェースを持つ。また、本実施の形態では、UDMサーバ2a、2b、2cは通信インターフェース204a、204b、204cを備え、WAN、LANなどのネットワークLにより互いに接続されている。なお、以下において、UDMサーバ2a、2b、2cを区別しない場合またはこれらを総称する場合には「UDMサーバ2」といい、同様に、AMFサーバ3a、3b、3cを区別しない場合またはこれらを総称する場合には「AMFサーバ3」と呼ぶことがある。
【0025】
UDMサーバ2a、2b、2cの上位には、図示されないUDR(統合データレポジトリ:Unified Data Repository)サーバが接続されている。AMFサーバ3a、3b、3cには、さらに、図示されない基地局が接続されている。ユーザ端末が、基地局のエリア内で、例えば、5G通信規格に準拠するデータネットワーク接続を確立してデータ通信を行う場合には、次の動作が必要となる。
【0026】
まず、基地局のエリア内に在圏するユーザ端末から、接続要求となるAttach Requestが、AMFサーバ3に送信される。AMFサーバ3は、UDMサーバ2にSIM承認要求を送信し、UDMサーバ2において認証が取れると、AMFサーバ3にSIM認証に必要な情報が送信され、ユーザ端末とAMFサーバ3間の暗号化確立等が行われる。
【0027】
続いて、
図1に示すように、AMFサーバ3からUDMサーバ2に対して、ユーザ端末の位置登録要求、および加入者情報の要求などの要求信号が送信される。また、このときに、AMFサーバ3からの要求信号は、ラウンドロビン方式のロードバランサ30a、30b、30cによって振り分けられて、いずれかのUDMサーバ2a、2b、2cに送信される。要求信号には、送信元のAMF3の識別子が含まれている。
【0028】
UDMサーバ2は、受信した要求信号に基づいて、UDMサーバ2が備えるユーザ端末のSIMカードの情報を応答信号として、要求信号の送り元のAMF3に対して送信する。その後、AMF3は、ユーザ端末に対してAPN(Access Point Name)を要求し、ユーザ端末からAPNが通知されて、AMFサーバ3がAPNの接続確認を行うと、ユーザ端末は通信ネットワークに接続できるようになる。
【0029】
上述したように要求信号は、AMFサーバ3で振り分けられてUDMサーバ2に送信される。しかしながら、UDMサーバ2a、2b、2cの各々で受信される要求信号の数には一定の偏りがあり、完全に均等ではない。例えば、3つのUDMサーバ2a、2b、2cのうち、UDMサーバ2aに送信される要求信号の数が、他のUDMサーバ2b、2cよりも多く、UDMサーバ2a、2b、2c間での処理負荷に偏りが存在する場合が考えられる。
【0030】
また、各UDMサーバ2a、2b、2cが備えるプロセッサは、複数のプロセッサコア21で構成されるところ、個々のUDMサーバ2内での要求信号の処理についても、複数のプロセッサコア21のうちの一部のプロセッサコア21での負荷が高くなる状況が生ずる。
【0031】
このように、UDMサーバ2間の要求信号の数の偏りだけでなく、各UDMサーバ2に搭載されている複数のプロセッサコア21にそれぞれ入力される信号の数にも偏りが生じている。UDMサーバ2群の各プロセッサコア21から出力される要求信号の信号数についても、コア間で異なり、あるプロセッサコア21から出力される信号数が他のプロセッサコア21から出力される信号数よりも多い、または少ない場合がある。
【0032】
信号数とは、一秒間で処理されるトランザクションの数(TPS:Transactions Per Second)をいい、本実施の形態では、要求信号の信号数は、UDMサーバ2で1秒間に処理できる要求信号の数をいう。
【0033】
本実施の形態に係る通信制御システムでは、UDMサーバ2a、2b、2cの各々に通信インターフェース204を設け、UDMサーバ2a、2b、2cの各々が備える複数のプロセッサコア21を互いに連携させて、UDMサーバ2群の各プロセッサコア21から出力される要求信号の数を均等にする。
【0034】
また、本実施の形態に係る通信制御装置1は、UDMサーバ2群の複数のプロセッサコア21の各々に入力される信号数に対して、各プロセッサコア21から出力される信号数が、目標信号数の値に一致するように、機械学習モデルのパラメータを学習する。この機械学習モデルの学習により得られる学習済みパラメータをUDMサーバ2群のプロセッサコア21の連携に適用することで、UDMサーバ2間の通信インターフェース204による接続を実現し、UDMサーバ2群の複数のプロセッサコア21を連携させて負荷を分散する。
【0035】
[通信制御装置の機能ブロック]
図1に示すように、通信制御装置1は、設定部10、学習部11、機械学習(ML)モデル記憶部(記憶部)12、および通信制御部13を備える。
【0036】
設定部10は、通信制御システム内のUDMサーバ2a、2b、2cの識別情報、各UDMサーバ2a、2b、2cが備えるプロセッサ202に含まれる複数のプロセッサコア21-1、21-2、21-3、21-n(n=1,2,…)に関する情報を取得し、機械学習モデルの構造を設定する。
【0037】
設定部10は、例えば、
図4に示すように、ニューラルネットワーク構造の機械学習モデルを採用し、入力層、隠れ層、および出力層のノードの数、隠れ層のレイヤ数等を設定する。設定部10は、入力層のノード数を、UDMサーバ2a、2b、2cが備えるプロセッサコア21の総数と同じ値とし、出力層のノード数についても、入力層と同じノード数とすることができる。
【0038】
図4に示すように、入力層の各ノードは、上から順にUDMサーバ2aのプロセッサ202が備える各プロセッサコア21a-1~21a-n、UDMサーバ2bの各プロセッサコア21b-1~21b-n、・・・、N番目のUDMサーバ2Nの各プロセッサコア21N-1~21N-nにそれぞれ対応する。隠れ層hのレイヤ数、およびニューラルネットワークのノード間の結合の疎密を含む機械学習モデルのサイズや要素は、十分な推論精度が得られる設計であれば限定されず、例えば、ノード間の結合として全結合あるいはスパース化した構造であってもよい。また、UDMサーバ2群の複数のプロセッサコア21は、プロセス間通信や割り込み処理等により、連携して動作することができる。
【0039】
学習部11は、UDMサーバ2群が備える全てのプロセッサコア21a-1~21a-n、…、21N-1~21N-nについて、各プロセッサコア21に入力される要求信号の信号数に対して、各プロセッサコア21から出力される要求信号の信号数が、各プロセッサコア21間で均等な目標信号数の値に一致するように、機械学習モデルのパラメータを学習する。
【0040】
本実施の形態では、特に、ニューラルネットワークの結合強さを示す重みパラメータを学習する。各プロセッサコア21に入力および出力される要求信号は、例えば、AMFサーバ3からUDMサーバ2に送信されるユーザ端末の位置登録要求信号である。
【0041】
また、目標信号数の値は、全てのプロセッサコア21で同じ信号数を出力する値とし、信号を出力しないプロセッサコア21というものは存在しない。例えば、通信インターフェース204で互いに接続するUDMサーバ2群が備える複数のプロセッサコア21の数の合計が100個であり、これらのプロセッサコア21に入力される要求信号の数が総計1000個である場合を考える。この場合、各プロセッサコア21から均等に10個の要求信号が出力されるように目標信号数の値を10個と設定することができる。
【0042】
学習部11は、
図4に示すように、各プロセッサコア21に入力される信号数をニューラルネットワークの入力層に与え、入力の重み付け総和に活性化関数を適用し、閾値処理により決定された出力を出力層に渡す。出力層の各出力ノードは、各プロセッサコア21の出力に対応し、各出力ノードの値が、各プロセッサコア21から出力される信号数となる。学習部11は、ニューラルネットワークの重みパラメータおよびバイアスの初期値を、全てのノードで同じ値とすることができる。
【0043】
学習部11は、ニューラルネットワークの出力層全体の信号数の総計をL、各出力ノードから出力される信号数の総計をMとし、L/M=αとして、次の式(1)に示す目的関数Eを導入することで、UDMサーバ2群の各プロセッサコア21から出力される要求信号の数をすべて同じ数とするよう、ニューラルネットワークなどの機械学習モデルのパラメータを決定する。
【数1】
【0044】
上式(1)において、lは、l番目のニューラルネットワークの入出力を示す。ニューラルネットワークの入力は、各プロセッサコア21に入力される要求信号の信号数である。また、ニューラルネットワークの出力は、各プロセッサコア21から出力される要求信号の信号数とすることができる。
【0045】
上式(1)の目的関数Eの値は、全てのlについて、機械学習モデルの上記入力に対する出力が目標出力に一致する場合に0となる。学習部11は、目的関数Eが最小、つまり0となるように、ニューラルネットワークの重みパラメータを調整する。
【0046】
MLモデル記憶部12は、学習部11によって得られた、学習済みの機械学習モデル、つまり学習済みのパラメータを記憶する。本実施の形態では、MLモデル記憶部12は、ニューラルネットワークの学習済み重みを記憶する。なお、MLモデル記憶部12は、第1設定部11によって設定された学習前の機械学習モデルについても記憶している。
【0047】
通信制御部13は、UDMサーバ2群の各プロセッサコア21に入力される、未知の信号数の偏りを有する要求信号について、MLモデル記憶部12から読み込んだ学習済みパラメータを適用して、各プロセッサコア21から同じ信号数の処理済みの要求信号を出力させる。
【0048】
通信制御部13は、MLモデル記憶部12が記憶する学習済み重みパラメータを読み出し、UDMサーバ2群の全てのプロセッサコア21を連携させるための、各プロセッサコア21の接続に関する設定を学習済み重みパラメータに基づいて行う。学習済み重みパラメータに基づいた各プロセッサコア21の接続とは、プロセッサコア21間の連携のための処理やスレッドの割り当て、コア間の通信やリソースの管理を設定することが含まれる。
【0049】
通信制御部13は、UDMサーバ2群の各プロセッサコア21への未知の入力である、未知の信号数の偏りを有する要求信号の各プロセッサコア21への入力信号を、設定した接続関係を有する各プロセッサコア21に処理させ、処理済みの要求信号を各プロセッサコア21から出力させる。このように、学習済みパラメータを適用して得られる、各プロセッサコア21から出力される要求信号の信号数は、各プロセッサコア21で同じ信号数となる。
【0050】
[通信制御装置のハードウェア構成]
次に、上述した機能を有する通信制御装置1を実現するハードウェア構成の一例について、
図2を用いて説明する。
【0051】
図2に示すように、通信制御装置1は、例えば、バス101を介して接続されるプロセッサ102、主記憶装置103、通信インターフェース104、補助記憶装置105、入出力I/O106を備えるコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。
【0052】
主記憶装置103には、プロセッサ102が各種制御や演算を行うためのプログラムが予め格納されている。プロセッサ102と主記憶装置103とによって、
図1に示した設定部10、学習部11、通信制御部13など通信制御装置1の各機能が実現される。
【0053】
通信インターフェース104は、通信制御装置1と各種外部電子機器との間をネットワーク接続するためのインターフェース回路である。
【0054】
補助記憶装置105は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータなどの各種情報を読み書きするための駆動装置とで構成されている。補助記憶装置105には、記憶媒体としてハードディスクやフラッシュメモリなどの半導体メモリを使用することができる。
【0055】
補助記憶装置105は、通信制御装置1が実行する通信制御プログラムを格納するプログラム格納領域を有する。また、補助記憶装置105は、機械学習モデルの学習を行うための学習プログラムを格納する領域を有する。補助記憶装置105によって、
図1で説明したMLモデル記憶部12が実現される。さらには、例えば、上述したデータやプログラムなどをバックアップするためのバックアップ領域などを有していてもよい。
【0056】
入出力I/O106は、外部機器からの信号を入力したり、外部機器へ信号を出力したりする入出力装置である。
【0057】
[UDMサーバのハードウェア構成]
図3は、UDMサーバ2のハードウェア構成の一例を示すブロック図である。UDMサーバ2についても、通信制御装置1と同様に、バス201を介して接続されるプロセッサ202、主記憶装置203、通信インターフェース204、補助記憶装置205、入出力I/O206を備えるコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。
【0058】
プロセッサ202は、複数のプロセッサコア21-1~21-nを1つのプロセッサ・パッケージ内に搭載したマイクロプロセッサによって実現される。プロセッサコア21-1~21-nは、各々が独立に処理を実行することができる。
【0059】
通信インターフェース204は、UDMサーバ2を互いに接続し、UDMサーバ2間の複数のプロセッサコア21-1~21-nにおける連携動作を可能とする。
【0060】
[AMFサーバのハードウェア構成]
ANFサーバ3のハードウェア構成についても、通信制御装置1やUDMサーバ2と同様に、バスを介して接続されるプロセッサ、主記憶装置、通信インターフェース、補助記憶装置、入出力I/Oを備えるコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。
【0061】
[通信制御装置の動作]
次に、上述した構成を有する通信制御装置1の動作を、
図4および
図5のフローチャートを参照して説明する。
図4は、通信制御装置1による学習処理を示すフローチャートである。
図5は、通信制御装置1による、学習済み機械学習モデルを用いた通信制御処理を示すフローチャートである。
【0062】
まず、
図4に示すように、設定部10は、通信制御システム内のUDMサーバ2a、2b、2cの識別情報、各UDMサーバ2a、2b、2cが備えるプロセッサ202に含まれる複数のプロセッサコア21-1、21-2、21-3、21-nに関する情報を取得し、機械学習モデルの設定を行う(ステップS1)。具体的には、設定部10は、機械学習モデルとしてニューラルネットワークを採用し、入力層、隠れ層、および出力層の設定、並びに重みパラメータおよび閾値その他のパラメータの初期値を設定する。
【0063】
次に、学習部11は、UDMサーバ2群の全てのプロセッサコア21a-1~21a-n、…21N-1~21N-nについて、各プロセッサコア21に入力される要求信号の信号数に対して、各プロセッサコア21から出力される要求信号の信号数が、各プロセッサコア21で均等な目標信号数の値に一致するように、ニューラルネットワークの重みパラメータを学習する(ステップS2)。具体的には、学習部11は、上式(1)に基づいて、目的関数Eを最小とする重みパラメータを調整および更新を繰り返し、重みパラメータの値を決定する。
【0064】
続いて、MLモデル記憶部12は、ステップS2で得られた学習済み重みパラメータを記憶する(ステップS3)。
【0065】
以上のステップS1からステップS3までの処理により、通信制御装置1において、機械学習モデルの学習処理が行われる。
【0066】
図6は、学習済み重みパラメータに基づく推論処理、すなわち通信制御処理を示すフローチャートである。
【0067】
まず、通信制御部13は、MLモデル記憶部12に記憶されている学習済み重みパラメータをロードする(ステップS10)。次に、通信制御部13は、学習済み重みパラメータに基づいて、複数のプロセッサコア21を連携させるために、各プロセッサコア21間の接続に関する設定を行う(ステップS11)。例えば、通信制御部13は、プロセッサコア21間の連携のための処理やスレッドの割り当て、コア間の通信やリソースの管理の設定を行うことができる。
【0068】
次に、通信制御部13は、UDMサーバ2群の複数のプロセッサコア21への未知の入力である、信号数に未知の偏りを有する各プロセッサコア21への要求信号を、ステップS11で設定した接続関係を有する各プロセッサコア21に処理させ、処理済みの要求信号を各プロセッサコア21から出力させる(ステップS12)。ステップS12において、学習済みパラメータを適用して得られる各プロセッサコア21から出力される要求信号の信号数は、UDMサーバ2群の各プロセッサコア21で同じ信号数となる。以上の処理によって、UDMサーバ2に入力される要求信号の信号数にUDMサーバ2間で偏りがあっても、UDMサーバ2群の負荷を分散することができる。
【0069】
なお、上述した実施の形態では、学習部11が、ニューラルネットワークを機械学習モデルとして用いて学習処理を行う場合について説明した。しかし、機械学習モデルは、上述したニューラルネットワークモデルの他、ロジスティック回帰、ランダムフォレスト、決定木等、さらにニューラルネットワークを多層化したディープラーニングを用いてもよい。また、これらの教師あり学習の他、教師なし学習を行う機械学習モデルとして、敵対的生成ネットワークや変分オードエンコーダ等の生成モデルを用いてもよい。
【0070】
例えば、UDMサーバ2群の各プロセッサコア21へ入力される要求信号の信号数を入力とし、各プロセッサコア21から均等な数の要求信号が出力されるための各プロセッサコア21への処理やスレッドの割り当てを学習するディープラーニングを用いることができる。この場合のディープラーニングは、各プロセッサコア21へ入力される要求信号の信号数に、各プロセッサコア21から均等な数の要求信号が出力される各プロセッサコア21への処理やスレッドの割り当ての正解ラベルが付された教師データを用いて学習が行われる。
【0071】
また、ディープラーニングのうち、例えば、畳み込みニューラルネットワーク(CNN)では、畳み込み層の出力を圧縮する処理としてプーリング層が用いられる。CNNを用いる場合において、UDMサーバ2群のプロセッサコア21の数が一定数を下回る場合には、プーリング層を省略することができる。
【0072】
また、説明した実施の形態では、学習処理を行う学習部11、および推論処理を行う通信制御部13の両方が通信制御装置1に搭載される場合について説明した。しかし、学習部11および通信制御部13は同一のハードウェア構成として設けられている場合の他、複数のサーバ等によっても学習処理と通信制御処理とをネットワークNW上の別のサーバ等により分散することもできる。
【0073】
以上説明したように、本実施の形態に係る通信制御装置1によれば、UDMサーバ2に通信インターフェース204を設け、かつ、UDMサーバ2群の各プロセッサコア21に入力される要求信号の信号数に対して、各プロセッサコア21から出力される処理済みの要求信号の信号数が、各プロセッサコア21で均等な信号数となるように、機械学習モデルのパラメータを学習する。したがって、各UDMサーバ2および各プロセッサコア21に入力される要求信号の信号数に偏りがある場合であっても、UDMサーバ2群の負荷を分散することができる。
【0074】
また、本実施の形態に係る通信制御装置1によれば、学習部11を備えることにより、UDMサーバ2群が備える複数のプロセッサコア21における連携により、プロセッサコア21間においての演算負荷を分散することができる。
【0075】
[変形例]
次に、本実施の形態の変形例について
図7を参照して説明する。上述の実施の形態に係る通信制御装置1では、学習部11において学習の対象となるニューラルネットワークの入力層では、入力されるデータである各プロセッサコア21に入力される要求信号の信号数を、一次元のベクトルとして扱う場合について説明した。
【0076】
これに対し、変形例では、
図7に示すように、ニューラルネットワークの入力層は、入力データである各プロセッサコア21に入力される要求信号の信号数を、二次元のベクトルとして扱う。例えば、設定部10は、UDMサーバ2群の複数のプロセッサコア21の数が、予め設定された数を超える場合に、各プロセッサコア21を二次元配列した入力データを扱う入力ノードを設定する。
【0077】
このように、本実施の形態の変形例によれば、各プロセッサコア21を二次元配列した入力層の構造を用いるので、プロセッサコア21の数が多い場合であっても、機械学習モデルのモデルサイズを抑えつつ、UDMサーバ2群が備える複数のプロセッサコア21における連携により、プロセッサコア21間においての演算負荷を分散することができる。
【0078】
以上、本発明の通信制御方法および通信制御装置における実施の形態について説明したが、本発明は説明した実施の形態に限定されるものではなく、請求項に記載した発明の範囲において当業者が想定し得る各種の変形を行うことが可能である。
【符号の説明】
【0079】
1…通信制御装置、2、2a、2b、2c、500…UDMサーバ、3、3a、3b、3c、600…AMFサーバ、30a、30b、30c…ロードバランサ、10…設定部、11…学習部、12…MLモデル記憶部、13…通信制御部、21-1、21-2、21-3、21-n…プロセッサコア、101、201…バス、102、202…プロセッサ、103、203…主記憶装置、104、204…通信インターフェース、105、205…補助記憶装置、106、206…入出力I/O、NW、L…ネットワーク。