IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電信電話株式会社の特許一覧 ▶ 学校法人 東洋大学の特許一覧

特開2023-183849通信システム、及び分散処理学習方法
<>
  • 特開-通信システム、及び分散処理学習方法 図1
  • 特開-通信システム、及び分散処理学習方法 図2
  • 特開-通信システム、及び分散処理学習方法 図3
  • 特開-通信システム、及び分散処理学習方法 図4
  • 特開-通信システム、及び分散処理学習方法 図5
  • 特開-通信システム、及び分散処理学習方法 図6
  • 特開-通信システム、及び分散処理学習方法 図7
  • 特開-通信システム、及び分散処理学習方法 図8
  • 特開-通信システム、及び分散処理学習方法 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023183849
(43)【公開日】2023-12-28
(54)【発明の名称】通信システム、及び分散処理学習方法
(51)【国際特許分類】
   G06N 20/00 20190101AFI20231221BHJP
   G06N 3/063 20230101ALI20231221BHJP
【FI】
G06N20/00
G06N3/063
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2022097622
(22)【出願日】2022-06-16
(71)【出願人】
【識別番号】000004226
【氏名又は名称】日本電信電話株式会社
(71)【出願人】
【識別番号】501061319
【氏名又は名称】学校法人 東洋大学
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100124844
【弁理士】
【氏名又は名称】石原 隆治
(72)【発明者】
【氏名】田尻 兼悟
(72)【発明者】
【氏名】川原 亮一
(57)【要約】
【課題】本開示の目的は、federated learningの機械学習時間を最小にするようにデータを転送することである。
【解決手段】本開示は、分散処理学習を行う通信システム1において、各ルータ30a等からのデータの転送先のサーバ10a,10bや転送ルートの選択、及び各サーバ10a,10bの機械学習用のモデルパラメータの転送ルートの選択を行うことで、学習時間の削減につながる最適な分散処理学習を実現することが可能になる。これにより、機械学習モデル20a,20bの学習時間の削減ができるようになり、より直近の状況を加味した深層学習モデルでの推論が可能となる。
【選択図】図1
【特許請求の範囲】
【請求項1】
第1の取得部、第1の転送部、第1の機械学習部、及び第1の機械学習モデルを有する第1のサーバと、第2の取得部、第2の転送部、第2の機械学習部、及び第2の機械学習モデルを有する第2のサーバと、計算部とによって構築されたネットワークを利用して、分散処理学習を行う通信システムであって、
前記計算部は、前記第1の転送部から前記第2のサーバへのデータの第1の転送比率、及び前記第1の転送部から前記第1のサーバへのデータの第2の転送比率を計算し、
前記第1の転送部は、第1の取得部によって取得した第1のデータを前記計算部による計算結果に基づいて転送すると共に、前記第2の転送部は、第2の取得部によって取得した第2のデータを前記計算部による計算結果に基づいて転送し、
前記第1の機械学習部は、前記第1の取得部によって取得した前記第1のデータを用いて、前記第1の機械学習モデルを機械学習させると共に、前記第2の機械学習部は、前記第2の取得部によって取得した前記第2のデータを用いて、第2の機械学習モデルを機械学習させ、
前記計算部は、計算により、前記第1の機械学習部による機械学習用の第1のモデルパラメータの第1の経路、及び前記第2の機械学習部による機械学習用の第2のモデルパラメータの第2の経路を探索し、
前記第1の転送部は、1エポックごとに前記計算部によって計算された第1の経路に基づいて、前記第2のサーバに前記第1のモデルパラメータを転送すると共に、前記第2の転送部は、1エポックごとに前記計算部によって計算された第2の経路に基づいて、前記第1のサーバに前記第2のモデルパラメータを転送し、
前記第1の取得部が前記第2のモデルパラメータを取得して、前記第1の機械学習部が前記第1及び第2のモデルパラメータを統合すると共に、前記第2の取得部が前記第1のモデルパラメータを取得して、前記第2の機械学習部が前記第1及び第2のモデルパラメータを統合する、
ことを特徴とする通信システム。
【請求項2】
前記計算部は、前記第1の転送比率を計算することに替えて、前記第1の転送部から前記第2のサーバへのデータが最短経路で転送される場合の経由リンクの方向に流れるデータ量の比率を計算すると共に、前記第2の転送比率を計算することに替えて、前記第2の転送部から前記第1のサーバへのデータが最短経路で転送される場合の経由リンクの方向に流れるデータ量の比率を計算することを特徴とする請求項1に記載の通信システム。
【請求項3】
前記第1のサーバは、前記計算部を有することを特徴とする、請求項1又は2に記載の通信システム。
【請求項4】
複数のルータを含む、請求項1又は2に記載の通信システムであって、
前記計算部は、前記複数のルータのそれぞれから前記第1のサーバ又は前記第2のサーバへの各データの転送比率を計算し、
前記複数のルータのそれぞれは、取得した各データを前記計算部による計算結果に基づいて転送すること、
ことを特徴とする通信システム。
【請求項5】
第1の取得部、第1の転送部、第1の機械学習部、及び第1の機械学習モデルを有する第1のサーバと、第2の取得部、第2の転送部、第2の機械学習部、及び第2の機械学習モデルを有する第2のサーバと、計算部とによって構築されたネットワークを利用して、分散処理学習を行う通信システムが実行する分散処理学習方法であって、
前記計算部は、前記第1の転送部から前記第2のサーバへのデータの第1の転送比率、及び前記第1の転送部から前記第1のサーバへのデータの第2の転送比率を計算し、
前記第1の転送部は、第1の取得部によって取得した第1のデータを前記計算部による計算結果に基づいて転送すると共に、前記第2の転送部は、第2の取得部によって取得した第2のデータを前記計算部による計算結果に基づいて転送し、
前記第1の機械学習部は、前記第1の取得部によって取得した前記第1のデータを用いて、前記第1の機械学習モデルを機械学習させると共に、前記第2の機械学習部は、前記第2の取得部によって取得した前記第2のデータを用いて、第2の機械学習モデルを機械学習させ、
前記計算部は、計算により、前記第1の機械学習部による機械学習用の第1のモデルパラメータの第1の経路、及び前記第2の機械学習部による機械学習用の第2のモデルパラメータの第2の経路を探索し、
前記第1の転送部は、1エポックごとに前記計算部によって計算された第1の経路に基づいて、前記第2のサーバに前記第1のモデルパラメータを転送すると共に、前記第2の転送部は、1エポックごとに前記計算部によって計算された第2の経路に基づいて、前記第1のサーバに前記第2のモデルパラメータを転送し、
前記第1の取得部が前記第2のモデルパラメータを取得して、前記第1の機械学習部が前記第1及び第2のモデルパラメータを統合すると共に、前記第2の取得部が前記第1のモデルパラメータを取得して、前記第2の機械学習部が前記第1及び第2のモデルパラメータを統合する、
ことを特徴とする分散処理学習方法。
【請求項6】
前記計算部は、前記第1の転送比率を計算することに替えて、前記第1の転送部から前記第2のサーバへのデータが最短経路で転送される場合の経由リンクの方向に流れるデータ量の比率を計算すると共に、前記第2の転送比率を計算することに替えて、前記第2の転送部から前記第1のサーバへのデータが最短経路で転送される場合の経由リンクの方向に流れるデータ量の比率を計算することを特徴とする請求項5に記載の分散処理学習方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示内容は、ネットワークを利用して分散処理学習を行う技術、即ち、ネットワーク上で分散して取得されるデータを用いて、いくつかの拠点で機械学習モデル(深層学習モデル)を協調的に学習する技術に関し、特に、ネットワーク上で収集されたデータをどの拠点に転送するべきかという問題を解決する技術に関する。
【背景技術】
【0002】
近年、分散的に深層学習モデルを学習する手法として、モデルパラメータを各拠点で個別に学習して定期的にモデルパラメータの同期を行うことで学習を進めるfederated learning(非勅許文献1)が提案されている。federated learningによる学習では、モデルパラメータの転送時間及び各拠点で学習にかかる時間が、全体の学習時間に影響を与える。このうち、前者はネットワークの有効帯域に依存し、後者は各拠点で学習に用いられるデータ量に依存する。さらに、これらはネットワーク上で生成されたデータをどの拠点に転送するのかということに依存する。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】WYB Lim et al., "Federated learning in mobile edge networks: A comprehensive survey" IEEE Communications Surveys & Tutorials, 2020.
【発明の概要】
【発明が解決しようとする課題】
【0004】
そのため、ネットワーク上で分散して取得されるデータを用いて、いくつかの拠点で深層学習モデルを協調的に学習する際に、どの拠点でどのデータを使用するのかを、機械学習時間を最小になるように決定する問題が生じる。
【0005】
本発明は、上述の事情に鑑みてなされたもので、federated learningの機械学習時間を最小にするようにデータを転送することを目的とする。
【課題を解決するための手段】
【0006】
上記目的を達成するため、請求項1に係る発明は、第1の取得部、第1の転送部、第1の機械学習部、及び第1の機械学習モデルを有する第1のサーバと、第2の取得部、第2の転送部、第2の機械学習部、及び第2の機械学習モデルを有する第2のサーバと、計算部とによって構築されたネットワークを利用して、分散処理学習を行う通信システムであって、前記計算部は、前記第1の転送部から前記第2のサーバへのデータの第1の転送比率、及び前記第1の転送部から前記第1のサーバへのデータの第2の転送比率を計算し、前記第1の転送部は、第1の取得部によって取得した第1のデータを前記計算部による計算結果に基づいて転送すると共に、前記第2の転送部は、第2の取得部によって取得した第2のデータを前記計算部による計算結果に基づいて転送し、前記第1の機械学習部は、前記第1の取得部によって取得した前記第1のデータを用いて、前記第1の機械学習モデルを機械学習させると共に、前記第2の機械学習部は、前記第2の取得部によって取得した前記第2のデータを用いて、第2の機械学習モデルを機械学習させ、前記計算部は、計算により、前記第1の機械学習部による機械学習用の第1のモデルパラメータの第1の経路、及び前記第2の機械学習部による機械学習用の第2のモデルパラメータの第2の経路を探索し、前記第1の転送部は、1エポックごとに前記計算部によって計算された第1の経路に基づいて、前記第2のサーバに前記第1のモデルパラメータを転送すると共に、前記第2の転送部は、1エポックごとに前記計算部によって計算された第2の経路に基づいて、前記第1のサーバに前記第2のモデルパラメータを転送し、前記第1の取得部が前記第2のモデルパラメータを取得して、前記第1の機械学習部が前記第1及び第2のモデルパラメータを統合すると共に、前記第2の取得部が前記第1のモデルパラメータを取得して、前記第2の機械学習部が前記第1及び第2のモデルパラメータを統合する、ことを特徴とする通信システムである。
【発明の効果】
【0007】
以上説明したように本発明によれば、federated learningの機械学習時間を最小にするようにデータを転送することができるという効果を奏する。
【図面の簡単な説明】
【0008】
図1】実施形態に係る通信システムの全体構成図である。
図2】統合制御システムの電気的なハードウェア構成図である。
図3】通信システムの処理を示すフローチャートである。
図4】通信システムの処理を示すフローチャートである。
図5】記号の定義を示す図である。
図6】各式を示す図である。
図7】各式を示す図である。
図8】各式を示す図である。
図9】各式を示す図である。
【発明を実施するための形態】
【0009】
以下、図面を用いて本発明の実施形態を説明する。
【0010】
〔実施形態のシステム構成〕
図1を用いて、実施形態の通信システムの構成の概略について説明する。図1は、実施形態に係る通信システムの全体構成図である。
【0011】
図1に示されているように、通信システム1は、複数の転送装置によって構築されている。図1では、複数の転送装置として、サーバ10a,10b、ルータ30a,30b,30c,30dが、ネットワーク上で接続されている。なお、以降、サーバ10a,10bの総称を「サーバ10」と示す。また、ルータ30a,30b,30c,30dの総称を「ルータ30」と示す。図1では、図面の紙面の都合上、2つのサーバ10、4つのルータが示されているが、これらの数はいくつであってもよい。
【0012】
<サーバの機能構成>
図1に示されているように、サーバ10aは、転送機能として、取得部11a及び転送部12aを有している。また、サーバ10aは、機械学習機能として、機械学習部13a、推論部14a、データベース15a、及び機械学習モデル20aを有している。更に、サーバ10aは、計算部16を有している。各機能部(取得部11a、転送部12a、機械学習部13a、推論部14a)は、後述の図2に示すRAM103上に展開されたプログラムに従ったCPU101からの命令によって動作することで実現される機能、又は機能する手段である。
【0013】
これらのうち、取得部11aは、他の転送装置からデータを取得する。
【0014】
転送部12aは、他の転送装置にデータを転送する。
【0015】
機械学習部13aは、ニューラルネットワーク等の機械学習アルゴリズムを用いた深層学習等によって機械学習モデル20aを機械学習させて、学習済みの機械学習モデル20aを生成する。
【0016】
推論部14aは、学習済みの機械学習モデル20aを用い、所定タスクに対する推論を行う。推論部14aは、学習済みの機械学習モデル20aが分類モデルであれば入力データに対する分類結果を推論したり、学習済みの機械学習モデル20aが将来予測モデルであれば入力データから次の時刻の値を推論したりする。
【0017】
データベース15aは、検索や蓄積が容易にできるよう整理された情報の集まりであり、サーバとしての機能を実現するために用いられる。
【0018】
計算部16は、機械学習機能とは独立に負荷分散を最適化するための計算を行う機能である。なお、計算部16は、通信システム1内で、サーバ10a,10b以外のサーバ等が有していてもよい。
【0019】
サーバ10bは、取得部11b、転送部12b、機械学習部13b、推論部14b、データベース15b、及び機械学習モデル20bを有している。取得部11b、転送部12b、機械学習部13b、推論部14b、データベース15b、及び機械学習モデル20bは、それぞれ、取得部11a、転送部12a、機械学習部13a、推論部14a、データベース15a、及び機械学習モデル20aと同様の機能を有するため、これらの説明を省略する。
【0020】
なお、以降、機械学習モデル20a,20bの総称を「機械学習モデル20」と示す。また、サーバ10a、サーバ10bの総称を「サーバ10」と示す。
【0021】
<ルータ>
ルータ30aは、転送機能として、取得部31a及び転送部32aを有している。ルータ30bは、転送機能として、取得部31b及び転送部32bを有している。ルータ30cは、転送機能として、取得部31c及び転送部32cを有している。ルータ30dは、転送機能として、取得部31d及び転送部32dを有している。
【0022】
取得部31a,31b,31c,31dは、上述の取得部11aと同様の機能を有するため、これらの説明を省略する。転送部32a,32b,32c,32dは、上述の転送部12aと同様の機能を有するため、これらの説明を省略する。
【0023】
なお、以降、ルータ30a,30b,30c,30dの総称を「ルータ30」と示す。また、取得部31a,31b,31c,31dの総称を「取得部31」と示す。転送部32a,32b,32c,32dの総称を「転送部32」と示す。
【0024】
また、以降の定式化の簡略化のため、サーバ10については、ルータ30に無限大帯域のリンクで接続されているとする。
【0025】
〔ハードウェア構成〕
次に、図2を用いて、サーバ10の電気的なハードウェア構成を説明する。図2は、サーバの電気的なハードウェア構成図である。
【0026】
サーバ10、コンピュータとして、図2に示されているように、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、SSD(Solid State Drive)104、外部機器接続I/F(Interface)105、ネットワークI/F106、メディアI/F109、及びバスライン110を備えている。
【0027】
これらのうち、CPU101は、サーバ10全体の動作を制御する。ROM102は、IPL(Initial Program Loader)等のCPU101の駆動に用いられるプログラムを記憶する。RAM103は、CPU101のワークエリアとして使用される。
【0028】
SSD104は、CPU101の制御に従って各種データの読み出し又は書き込みを行う。なお、SDD104の代わりに、HDD(Hard Disk Drive)を用いても良い。
【0029】
外部機器接続I/F105は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、ディスプレイ、スピーカ、キーボード、マウス、USB(Universal Serial Bus)メモリ、及びプリンタ等である。
【0030】
ネットワークI/F106は、物理ネットワーク300等の通信ネットワークを介してデータ通信をするためのインターフェースである。
【0031】
メディアI/F109は、フラッシュメモリ等の記録メディア109mに対するデータの読み出し又は書き込み(記憶)を制御する。記録メディア109mには、DVD(Digital Versatile Disc)やBlu-ray Disc(登録商標)等も含まれる。
【0032】
バスライン110は、図2に示されているCPU101等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
【0033】
なお、ルータ30は、サーバ10と同じ構成か、又は、SSD104、外部機器接続I/F105及びメディアI/F109のうち少なくとも1つが省略されているだけであるため、説明を省略する。
【0034】
以降では機械学習にかかる時間を最小化するための定式化を行っていく。
【0035】
〔記号の定義〕
まず初めに、初めに以降で用いる記号の定義を行う。各定義は図5に示されている通りである。
【0036】
〔パラメータの決定要件〕
本実施形態は、(i)pij or pi[ab]の決定、(ii)パラメータ転送の経路選択、により2段階で実施される。以降、これらのパラメータの決定要件について詳しく述べる。
【0037】
●(i)pij or pi[ab]の決定
各ルータ30(又は各サーバ10のルータ機能)i で単位時間あたりにλiのデータが生成されるとする。本実施形態においては各サーバ10のマシンパワーは一律であるとし、また機械学習モデル20のパラメータの同期が全サーバ10で1エポックの学習が終わるごとに行われるとする。この場合、1エポックの学習にかかる時間は各サーバ10が保持している学習用データの量に依存する。またすべてのサーバ10で学習が終わらないとパラメータの同期が行われないため、そのパラメータの同期間隔は最も1エポックの学習に時間がかかるサーバ10、すなわち最も学習用データを多く持っているサーバ10に依存する。よって、学習時間を短くするためには学習データが最も多いサーバ10の学習データ量を少なくする必要がある。またfederated learningの学習時のパラメータ転送速度はネットワーク帯域の使用状況に影響を受けるので、(1)各リンクの帯域使用率、又は(2)各リンクの残存帯域も考慮する。データの転送においては、(a)最短経路を用いる場合、(b)経路選択の最適化を行う場合が考えられる。以降では(1)、(2)および(a)、(b)について定式化を行っていく。以降、(a)、(b)についてそれぞれ定式化を行う。
【0038】
(a)(1)最短経路かつ帯域使用率を考慮
この場合は、ルータi∈Nからサーバj∈NSへの転送ルートは一意に定まるので最適化するパラメータは転送比率pijである。
【0039】
この時満たされるべき式は、図6の(式1)乃至(式3)のようになる。
【0040】
ここで(式1)は各サーバ10に送られるデータ量に対する制約、(式2)は各リンクの帯域利用比率に対する制約である。δはパラメータ転送を行う際に輻輳が起きないようにするためのマージンであり、あらかじめ与えておく。(式3)は流量保存条件である。最適化の行い方としてはrcを固定したうえでrを最小化する、又はrを固定したうえでrcを最小化するの2パターンが考えられる。
【0041】
(a)(2)最短経路かつ残存帯域を考慮
(1)の場合との相違点は(式2)であり、(式2)は図7の(式4)のように変更される。
【0042】
最適化の方針としてはrcを固定したうえでrを最小化する、又はrを固定したうえでrcを最大化するの2パターンが考えられる。
【0043】
(b)(1)経路選択を行いかつ帯域使用率を考慮
(b)の場合は、転送比率テンソルpi[ab]を最適化する。満たすべき不等式は、図7の(式5)~(式9)、及び図8の(式10)~(式12)のようになる。
【0044】
ここで、(式5)、(式6)は、(a)の場合と同様の最適化パラメータを含む不等式であり、(式7)はルータ30と切り離されたサーバ10はデータを生成しないという制約、(式7)はサーバ10に送られたデータはすべてそのサーバで処理されるという制約、(式9)はサーバ機能をもつルータはサーバとルータが無限大帯域のリンクで接続されているという仮定を表している。(式10)~(式12)は、それぞれ生成、処理、及び経由点における流量保存の式である。この場合の処理は、(a)(1)の時と同様に、rとrcの片方(一方)を固定化し、もう片方(他方)を最小化するようにpi[ab]を最適化する。
【0045】
(b)(2)経路選択を行いかつ残存帯域を考慮
(式6)を図8の(式13)のように変更する。
【0046】
こちらの処理も、(a)(2)の場合と同様に、rとrcの片方(一方)を固定化し、もう片方(他方)を最小化(又は最大化)するようにpi[ab]を最適化する。
【0047】
以上の最適化問題は線形計画問題に落とし込まれているので、既存のソルバー等を用いて解くことができる。
【0048】
●(ii)パラメータ転送の経路選択
学習速度を最大にするために、機械学習モデル20のパラメータ転送を最速で行う必要がある。パラメータ転送の方式として全てのサーバ10が自サーバ10以外のすべてのサーバにパラメータを転送する場合を考える。経路選択の最適化としてパラメータの転送遅延を考慮するが、転送遅延の考え方として(ア)有効帯域からキューイング遅延を求める、(イ)有効帯域のボトルネックリンクのみを考慮する、(ウ)有効帯域に対する最大最小公平性に基づく制御の3通りの方式が考えられる。
【0049】
初めに(i)で求めたデータ転送方式に基づき各リンクabを流れるトラヒック量vabは、(a)の場合は図9の(式14)、(b)の場合は(式15)のようにあらわされる。
【0050】
(ア)有効帯域からキューイング遅延を求める
各リンクの有効帯域
【0051】
【数1】
図9の(式16)で求められる。
【0052】
各リンクをトラヒックが流れる時の遅延はキューイング遅延Tabと伝播遅延dabの和であらわされるとする。ここで、パラメータ転送に起因するトラヒック量はデータ転送のトラヒック量に比べて小さく無視できると仮定する。この場合、キューイング遅延Tabは、図9の(式17)によりあらわされる。
【0053】
伝播遅延dabは、リンク長などによって与えられる定数量である。
【0054】
よって、パラメータ転送においてリンクabを経由するのにかかる時間Tabは、図9の(式18)によりあらわされる。
【0055】
よって、最適化は(式18)を各リンクのコストと考えて各サーバの組ごとに最短経路問題を解くことで実現される。厳密解を求める場合はダイクストラ法、大規模なネットワークの場合は遺伝的アルゴリズムや強化学習を用いた近似手段を用いることになる。
【0056】
(イ)有効帯域のボトルネックリンクのみを考慮
この場合は、(ア)の(式16)参照して各リンクのコストを決定し、経路の中のリンク集合のうちコスト最大であるリンクのコストが最も小さくなるような経路を選択する。
【0057】
これは、ベルマンフォード法で厳密解を求めることが可能である。
【0058】
(ウ)有効帯域に対する最大最小公平性に基づく制御
別のsrc-dstの組が1つのリンクを共有する場合が存在するような通信制御では最大最小公平性(参考文献1)が用いられることがある。
【0059】
<参考文献1>Marbach, Peter. "Priority service and max-min fairness." Proceedings. Twenty-First Annual Joint Conference of the IEEE Computer and Communications Societies. Vol. 1. IEEE, 2002.
最大最小公平性を最大にするための経路選択手法の一案として、以下のようなものを考える。
1.全てのnabを0に初期化しておく。
2.まだ経路の決まっていないsrc-dstの組を1つ選び、有効帯域
【0060】
【数2】
に基づき(イ) の方針で経路を決定する。
3.ここで経由することになったリンクabに対して
【0061】
【数3】
を実行する。
4.nabが変化したリンクabに対して
【0062】
【数4】
を実行する。
5.上記2.から先を全ての組の経路が確定するまで繰り返す。
【0063】
この方式ではsrc-dstの組が選ばれる順番によって決定される経路に差が出てくるので組の選ぶ順番をランダムに変化させつつ複数回の検証を行い、最大最小公平性が最大になった経路を選択するという手段が考えられる。
【0064】
〔通信システムの処理又は動作〕
続いて、図3及び図4を用いて、実施形態に係る通信システム1の処理又は動作について説明する。図3及び図4は、通信システムの処理を示すフローチャートである。
【0065】
S11:サーバ10aの計算部16は、上記(i)により、各ルータ30(各サーバ10の転送部12a,12bを含む)から各サーバ10へのデータの転送比率pij、又は各ルータ30(各サーバ10の転送部12a,12bを含む)から各サーバ10へのデータが最短経路で転送される場合の経由リンクの方向に流れるデータの転送比率pi[ab]を計算する。この場合、計算部16は、各サーバ10(サーバ10aを含む)及び各ルータ30に対して、それぞれに応じたデータの転送比率を含む計算結果の情報を送る。
【0066】
S12:サーバ10aの転送部12aは、取得部11aによって取得した第1のデータを計算部16による計算結果に基づいて転送すると共に、サーバ10bの転送部12bは、取得部11bによって取得した第2のデータを計算部16による計算結果に基づいて転送する。この際、各ルータ30も、計算部16から得た各計算結果に基づいて、サーバ10a,10bに各データを転送する。
【0067】
S13:サーバ10aの機械学習部13aは、取得部11aによって取得した第1のデータを用いて、機械学習モデル20aを機械学習させると共に、サーバ10bの機械学習部13bは、取得部11bによって取得した第2のデータを用いて、機械学習モデル20bを機械学習させる。
【0068】
S14:計算部16は、上記(ii)の計算により、サーバ10aの機械学習部13aによる機械学習用の第1のモデルパラメータ(のデータ)の第1の経路、及びサーバ10bの機械学習部13bによる機械学習用の第2のモデルパラメータ(のデータ)の第2の経路を探索する。
【0069】
S15:サーバ10aの転送部12aは、1epoch(1エポック)ごとに計算部16によって計算された第1の経路に基づいて、サーバ10bに第1のモデルパラメータを転送すると共に、サーバ10bの転送部12bは、1epochごとに計算部16によって計算された第2の経路に基づいて、第1のサーバに第2のモデルパラメータを転送する。なお、サーバ10が3つ以上存在する場合、サーバ10aは、サーバ10b以外の全てのサーバに対しても第1のモデルパラメータを転送する。同様に、サーバ10bは、サーバ10a以外の全てのサーバに対しても第2のモデルパラメータを転送する。そして、サーバ10a、10b以外の所定のサーバも、同様に、この所定のサーバ以外のサーバ(サーバ10a,10bを含む)に対しても独自のモデルパラメータを転送する。
【0070】
S16:サーバ10aの取得部11aが第2のモデルパラメータを取得して、機械学習部13aが第1及び第2のモデルパラメータを統合すると共に、サーバ10bの取得部11bが第1のモデルパラメータを取得して、機械学習部13bが第1及び第2のモデルパラメータを統合する。
【0071】
S17:機械学習を終了しない合には(NO)、S13に戻り、次の1epochの機械学習が行われる。また、機械学習を終了する場合には(YES)、S18に進む。
【0072】
S18:サーバ10aの推論部14aは、学習済みの機械学習モデル20aを用いて、第1のタスクに対する推論を行うと共に、サーバ10bの推論部14bは、学習済みの機械学習モデル20baを用いて、第2のタスクに対する推論を行う。
【0073】
〔実施形態の効果〕
以上説明したように、本実施形態の通信システム1は、ネットワーク上で生成されたデータをどの拠点に転送すべきかについて定式化を行うことで、federated learningの機械学習時間を最小にするようにデータを転送することができる。具体的には、ルータ30からのデータの転送先のサーバ10や転送ルートの選択、及び各サーバ10の機械学習用のモデルパラメータの転送ルートの選択を行うことで、学習時間の削減につながる最適な分散処理学習を実現することが可能になる。これにより、機械学習モデル20a,20bの学習時間の削減ができるようになり、より直近の状況を加味した深層学習モデルでの推論が可能となる。
【0074】
〔補足〕
以上、本発明は、上記の実施形態に限定されることなく、例えば以下に示すように、種々の変更及び応用が可能である。
【0075】
(1)各転送装置は、コンピュータとプログラムによって実現できるが、このプログラムを(非一時的)記録媒体に記録することも、インターネット等の通信ネットワークを介して提供することも可能である。
【0076】
(2)CPU101は、単一だけでなく、複数であってもよい。
【符号の説明】
【0077】
1 通信システム
10,10a,10b サーバ(転送装置の一例)
11a 取得部(第1の取得部の一例)
11b 取得部(第2の取得部の一例)
31a,31b,31c,31d 取得部
12a 転送部(第1の転送部の一例)
12b 転送部(第2の転送部の一例)
32a,32b,32c,32d 転送部
13a 機械学習部(第1の機械学習部の一例)
13b 機械学習部(第2の機械学習部の一例)
14a 推論部(第1の推論部の一例)
14b 推論部(第2の推論部の一例)
15a,15b データベース
16 計算部
20a 機械学習モデル(第1の機械学習モデルの一例)
20b 機械学習モデル(第2の機械学習モデルの一例)
30a,30b,30c,30d ルータ(転送装置の一例)
図1
図2
図3
図4
図5
図6
図7
図8
図9