IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧

特表2023-548150連合学習に用いられる電子機器、方法及び記憶媒体
<>
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図1
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図2
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図3
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図4
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図5
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図6
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図7
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図8
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図9
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図10
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図11
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図12
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図13
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図14
  • 特表-連合学習に用いられる電子機器、方法及び記憶媒体 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2023-11-15
(54)【発明の名称】連合学習に用いられる電子機器、方法及び記憶媒体
(51)【国際特許分類】
   G06N 20/20 20190101AFI20231108BHJP
   H04W 28/16 20090101ALI20231108BHJP
   G06N 3/098 20230101ALI20231108BHJP
【FI】
G06N20/20
H04W28/16
G06N3/098
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023526378
(86)(22)【出願日】2021-10-28
(85)【翻訳文提出日】2023-06-21
(86)【国際出願番号】 CN2021126875
(87)【国際公開番号】W WO2022089507
(87)【国際公開日】2022-05-05
(31)【優先権主張番号】202011173054.X
(32)【優先日】2020-10-28
(33)【優先権主張国・地域又は機関】CN
(81)【指定国・地域】
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】孫晨
(72)【発明者】
【氏名】呉松涛
(72)【発明者】
【氏名】崔▲タオ▼
【テーマコード(参考)】
5K067
【Fターム(参考)】
5K067EE02
5K067EE10
(57)【要約】
本開示は、連合学習に用いられる電子機器及び方法を提供する。中央処理装置における連合学習に用いられる電子機器は、処理回路を含み、前記処理回路は、複数の分散型ノードのうち、グローバルモデルパラメータを生成するための1組の分散型ノードを決定することであって、前記1組の分散型ノードのローカル訓練データ間の相関性が特定の相関性要求を満たし、且つ、前記1組の分散型ノードのローカルモデルパラメータに基づいてグローバルモデルパラメータを生成することであって、前記グローバルモデルパラメータは、前記1組の分散型ノードがそれぞれのローカル訓練データに基づいて生成されるように配置される。
【選択図】図3
【特許請求の範囲】
【請求項1】
中央処理装置における連合学習に用いられる電子機器であって、処理回路を含み、前記処理回路は、
複数の分散型ノードのうち、グローバルモデルパラメータを生成するための1組の分散型ノードを決定することであって、前記1組の分散型ノードのローカル訓練データ間の相関性が特定の相関性要求を満たし、且つ、
前記1組の分散型ノードのローカルモデルパラメータに基づいてグローバルモデルパラメータを生成することであって、前記ローカルモデルパラメータは、前記1組の分散型ノードがそれぞれのローカル訓練データに基づいて生成されるように配置される、電子機器。
【請求項2】
前記特定の相関性要求は、
前記1組の分散型ノードのローカル訓練データの収集時間の間の時間間隔が所定の時間間隔閾値よりも大きいことを含む、請求項1に記載の電子機器。
【請求項3】
前記特定の相関性要求は、
前記1組の分散型ノードのノード位置間の距離が所定の距離閾値よりも大きいことを含む、請求項1に記載の電子機器。
【請求項4】
前記特定の相関性要求は、
前記1組の分散型ノードのうちの各分散型ノードが、前記1組の分散型ノードのうちの残る分散型ノードの関連する排他領域の外に位置することを含み、各分散型ノードの関連する排他領域は、そのうちの各点と該分散型ノードとの距離が排他距離よりも小さい領域によって定義され、又は該分散型ノードとの距離が最も近い第2の所定数の分散型ノードの集合によって定義される、請求項1に記載の電子機器。
【請求項5】
前記特定の相関性要求は、
前記1組の分散型ノードのローカル訓練データの生成モデルが異なることを含む、請求項1に記載の電子機器。
【請求項6】
前記特定の相関性要求は、
前記1組の分散型ノードのローカル訓練データのデータソースが異なることを含む、請求項1に記載の電子機器。
【請求項7】
前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードを決定することは、
前記複数の分散型ノードのローカル訓練データのデータ収集情報を取得することであって、前記データ収集情報は、前記複数の分散型ノードのローカル訓練データ間の相関性を決定するために使用され得ることと、
前記複数の分散型ノードのローカル訓練データのデータ収集情報に基づいて、前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードを選択することとを含む、請求項1に記載の電子機器。
【請求項8】
前記データ収集情報は、前記ローカル訓練データの収集時間、ノード位置、生成モデル、及びデータソースのうちの1つ又は複数を含む、請求項7に記載の電子機器。
【請求項9】
前記処理回路は、さらに、
前記複数の分散型ノードのネットワーク性能パラメータを取得し、
前記複数の分散型ノードのネットワーク性能パラメータに基づいて、前記複数の分散型ノードから、グローバルモデルパラメータを生成するための前記1組の分散型ノードを選択するように配置され、前記1組の分散型ノードのネットワーク性能パラメータは、特定のネットワーク性能要求を満たす、請求項7に記載の電子機器。
【請求項10】
前記処理回路は、さらに、
前記複数の分散型ノードのローカル訓練性能パラメータを取得し、
前記複数の分散型ノードのローカル訓練性能パラメータに基づいて、前記複数の分散型ノードから、グローバルモデルパラメータを生成するための前記1組の分散型ノードを選択するように配置され、前記1組の分散型ノードのローカル訓練性能パラメータは、特定のローカル訓練性能要求を満たす、請求項7に記載の電子機器。
【請求項11】
前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードを決定することは、
前記複数の分散型ノードのうちの分散型ノードからのローカルモデルパラメータを受信することと、
第1の所定数の分散型ノードのローカルモデルパラメータを受信した後、前記第1の所定数の分散型ノードを、前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードとして決定することとを含む、請求項1に記載の電子機器。
【請求項12】
連合学習に用いられる電子機器であって、処理回路を含み、前記処理回路は、
特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することであって、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータを生成するための他の分散型ノードのローカル訓練データとの相関性が、特定の相関性要求を満たし、
前記特定の分散型ノードのローカルモデルパラメータを中央処理装置に送信することであって、前記ローカルモデルパラメータは、前記特定の分散型ノードがそのローカル訓練データに基づいて生成されるように配置される、電子機器。
【請求項13】
前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することは、
前記特定の分散型ノードのローカル訓練データのデータ収集情報を前記中央処理装置に送信することであって、前記データ収集情報は、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データとの相関性を決定するために使用され得ることと、
前記中央処理装置からのローカルモデルパラメータをアップロードする指示に基づいて、前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することとを含む、請求項12に記載の電子機器。
【請求項14】
前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することは、
前記特定の分散型ノードと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データのデータ収集情報に基づいて、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データとの相関性が、特定の相関性要求を満たすと決定することと、
前記中央処理装置にローカルモデルパラメータを送信するためのチャネルリソースを取得することと、
チャネルリソースの取得に成功した後、前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することとを含む、請求項12に記載の電子機器。
【請求項15】
前記データ収集情報は、分散型ノードのノード位置を含み、且つ、
前記特定の相関性要求は、前記特定の分散型ノードが、グローバルモデルパラメータの生成に使用されることが決定された前記他の分散型ノードの関連する排他領域の外に位置することを含み、分散型ノードの関連する排他領域は、そのうちの各点と該分散型ノードとの距離が排他距離よりも小さい領域によって定義され、又は該分散型ノードとの距離が最も近い第2の所定数の分散型ノードの集合によって定義される、請求項14に記載の電子機器。
【請求項16】
前記処理回路は、さらに、
前記特定の分散型ノードのネットワーク性能パラメータ及びローカル訓練性能パラメータの一方又は両方に基づいて、チャネルリソースを取得するためのパラメータを調整するように配置される、請求項14に記載の電子機器。
【請求項17】
前記処理回路は、さらに、
前記中央処理装置からのアップロードを停止する指示を受信すると、前記中央処理装置にローカルモデルパラメータを送信するためのチャネルリソースの取得を停止するように配置される、請求項14に記載の電子機器。
【請求項18】
前記処理回路は、さらに、
グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードの数を決定し、且つ、
前記数が第1の所定数以上である場合、前記中央処理装置にローカルモデルパラメータを送信するためのチャネルリソースの取得を停止するように配置される、請求項14に記載の電子機器。
【請求項19】
中央処理装置における連合学習に用いられる方法であって、
複数の分散型ノードのうち、グローバルモデルパラメータを生成するための1組の分散型ノードを決定することであって、前記1組の分散型ノードのローカル訓練データ間の相関性が特定の相関性要求を満たすことと、
前記1組の分散型ノードのローカルモデルパラメータに基づいてグローバルモデルパラメータを生成することであって、前記ローカルモデルパラメータは、前記1組の分散型ノードがそれぞれのローカル訓練データに基づいて生成されることとを含む、方法。
【請求項20】
特定の分散型ノードにおける連合学習に用いられる方法であって、
前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することであって、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データとの相関性が、特定の相関性要求を満たすことと、
前記特定の分散型ノードのローカルモデルパラメータを中央処理装置に送信することであって、前記ローカルモデルパラメータは、前記特定の分散型ノードがそのローカル訓練データに基づいて生成されることとを含む、方法。
【請求項21】
プロセッサによって実行されたときに、プロセッサに請求項19又は20に記載の方法を実行させる命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体。
【請求項22】
請求項19又は20に記載の方法の各ステップを実行するための部材を含む連合学習に用いられる装置。
【発明の詳細な説明】
【技術分野】
【0001】
〔優先権主張〕
本出願は、2020年10月28日に提出された、出願番号が202011173054.Xであり、名称が「連合学習に用いられる電子機器及び方法」である中国特許出願の優先権を主張しており、同出願の内容の全ては、本出願に参照として取り込まれる。
【0002】
本開示は、連合学習に用いられる電子機器及び方法に関する。
【背景技術】
【0003】
連合学習(Federated Learning)は、新興の人工知能基礎技術である。連合学習は、2016年にグーグルによって最初に提案され、元々、アンドロイド(登録商標)携帯電話端末のユーザがローカルでモデルを更新するという問題を解決するために用いられた。その設計目標は、ビッグデータ交換時の情報セキュリティを確保し、端末データや個人データのプライバシを保護し、合法性・合規性を確保する前提の下で、マルチ参加者又はマルチコンピューティングノード間で効率的な機械学習を行うことにある。連合学習に用いられ得る機械学習アルゴリズムは、ニューラルネットワークに限定されず、ランダムフォレストなどの重要なアルゴリズムも含む。連合学習は、次世代の人工知能協調アルゴリズムや協調ネットワークの基礎になることが見込まれる。
【0004】
図1は、従来技術における連合学習システムを示す概略図である。図1に示すように、UE、UE、・・・、UEは、ユーザ機器によって実現される連合学習を行う分散型ノードである。APは、基地局によって実現される連合学習を行う中央処理装置である。各分散型ノードUE、UE、・・・、UEは、自身のローカル訓練データD、D、・・・、Dに基づいて、人工知能アルゴリズム(例えば、勾配降下法)を利用してローカルモデルパラメータw 、w 、・・・、w を生成して、中央処理装置APにアップロードする。中央処理装置APは、受信したローカルモデルパラメータw 、w 、・・・、w に基づいて、グローバルモデルパラメータwt+1(即ち、グローバル集約)を生成して、個々の分散型ノードUE、UE、・・・、UEに配信する。
【0005】
このように、中央処理装置APは、個々の分散型ノードUEのプライベート性を犠牲にすることなく、多数の分散型ノードUEに記憶されたデータから統計モデルを訓練することができる。しかし、連合学習システムは、新しい挑戦に面している。データセンタで集中学習を行うこととは異なり、連合学習は、通常、無線エッジネットワークで実行され、該ネットワークでは、チャネルリソースが制限され、信頼できない。中央処理装置APは、通常、リソースが制限されたスペクトルで多数の分散型ノードUEをリンクする必要がある。したがって、グローバル集約ごとに、限られた数の分散型ノードUEが信頼できないチャネルを介して訓練して得たローカルモデルパラメータを送信することのみを許可する。
【発明の概要】
【0006】
本開示の発明者は、所定数の分散型ノードを選択してローカルモデルパラメータをアップロードしなければならない場合、選択された各分散型ノードのローカル訓練データの相関性が高いと、これらの分散型ノードが学習したモデルが類似しているため、グローバルモデルの迅速な収束を確保できないことを見出した。したがって、チャネルリソースが制限された場合に連合学習システムの効率を向上できる技術案が必要である。
【0007】
この技術的課題を解決するために、本開示が提案する技術案は、分散型ノードのローカル訓練データ間の相関性に応じて、分散型ノードがそのローカルモデルパラメータをアップロードするようにスケジューリングして、グローバルモデルの迅速な収束を促進する。本開示の技術案は、限られたチャネルリソースを有効に利用して連合学習システムの効率を向上させることができる。
【0008】
本開示の一態様によれば、中央処理装置における連合学習に用いられる電子機器であって、処理回路を含み、前記処理回路は、複数の分散型ノードのうち、グローバルモデルパラメータを生成するための1組の分散型ノードを決定することであって、前記1組の分散型ノードのローカル訓練データ間の相関性が特定の相関性要求を満たし、且つ、前記1組の分散型ノードのローカルモデルパラメータに基づいてグローバルモデルパラメータを生成することであって、前記ローカルモデルパラメータは、前記1組の分散型ノードがそれぞれのローカル訓練データに基づいて生成されるように配置される電子機器を提供する。
【0009】
本開示の別の態様によれば、特定の分散型ノードにおける連合学習に用いられる電子機器であって、処理回路を含み、前記処理回路は、前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することであって、前記特定の分散型ノードのローカル訓練データとグローバルモデルパラメータを生成するための他の分散型ノードのローカル訓練データとの相関性が特定の相関性要求を満たし、且つ、前記特定の分散型ノードのローカルモデルパラメータを中央処理装置にアップロードすることであって、前記ローカルモデルパラメータは、前記特定の分散型ノードがそのローカル訓練データに基づいて生成されるように配置される電子機器を提供する。
【0010】
本開示の別の態様によれば、中央処理装置における連合学習に用いられる方法であって、複数の分散型ノードのうち、グローバルモデルパラメータを生成するための1組の分散型ノードを決定することであって、前記1組の分散型ノードのローカル訓練データ間の相関性が特定の相関性要求を満たすことと、前記1組の分散型ノードのローカルモデルパラメータに基づいてグローバルモデルパラメータを生成することであって、前記ローカルモデルパラメータは、前記1組の分散型ノードがそれぞれのローカル訓練データに基づいて生成されることとを含む方法を提供する。
【0011】
本開示の別の態様によれば、特定の分散型ノードにおける連合学習に用いられる方法であって、特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することであって、前記特定の分散型ノードのローカル訓練データとグローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データとの相関性が特定の相関性要求を満たすことと、前記特定の分散型ノードのローカルモデルパラメータを中央処理装置にアップロードすることであって、前記ローカルモデルパラメータは、前記特定の分散型ノードがそのローカル訓練データに基づいて生成されることとを含む方法を提供する。
【0012】
本開示の別の態様によれば、プロセッサによって実行されたときに、プロセッサに本開示の方法を実行させる命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体を提供する。
【0013】
本開示の別の態様によれば、本開示の方法の各ステップを実行するための部材を含む連合学習に用いられる装置を提供する。
【図面の簡単な説明】
【0014】
本開示のより良い理解は、図面と併せて実施例の以下の具体的な説明を考慮することによって得ることができる。なお、各図面において、同一又は類似する部品を同一又は類似する符号で示している。各図面は以下の具体的な説明と共に本明細書に含まれ明細書の一部として構成されており、例を挙げることにより本開示の実施例を説明し、本開示の原理とメリットを解釈する。
【0015】
図1図1は、従来技術における連合学習システムを示す概略図である。
図2図2は、本開示のいくつかの実施例による連合学習システムを示す概略図である。
図3図3は、本開示のいくつかの実施例による中央処理装置における連合学習処理300を示すフローチャートである。
図4図4は、本開示のいくつかの実施例によるカメラノードとして実現される分散型ノードの分布を示す概略図である。
図5図5は、本開示のいくつかの実施例による分散型ノードにおける連合学習処理500を示すフローチャートである。
図6図6は、本開示のいくつかの実施例によるグローバルモデルパラメータを生成するための分散型ノードを集中的に決定する処理を示すフローチャートである。
図7図7は、本開示のいくつかの実施例による中央処理装置によってグローバルモデルパラメータを生成するための分散型ノードを選択することを示す概略図である。
図8図8は、本開示のいくつかの実施例によるグローバルモデルパラメータを生成するための分散型ノードを分散的に決定する処理を示すフローチャートである。
図9図9は、分散型ノードとその隣接ノードのローカル訓練データとの相関性を示す概略図である。
図10図10は、異なるノード選択ポリシを用いて得られた連合学習モデルの分類精度を示す概略図である。
図11図11は、本開示の技術を応用できる演算デバイスの概略的な配置の例を示すブロック図である。
図12図12は、本開示の技術を応用できるgNBの概略的な配置の第1の例を示すブロック図である。
図13図13は、本開示の技術を応用できるgNBの概略的な配置の第2の例を示すブロック図である。
図14図14は、本開示の技術を応用できるスマートフォンの例示的な配置の例を示すブロック図である。
図15図15は、本開示の技術を応用できるカーナビゲーション装置の概略的な配置の例を示すブロック図である。
【発明を実施するための形態】
【0016】
以下、図面を参照しながら、本開示の好しい実施例について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能と構造を有する構成要素に同一の符号を付し、これらの構造要素について説明を繰り返さない。
【0017】
以下の順で説明する。
1.システム概要
2.処理フロー
3.シミュレーション結果
4.応用の例
【0018】
<1.システム概要>
まず、本開示のいくつかの実施例による連合学習システムについて説明する。図2は、本開示のいくつかの実施例による連合学習システム200を示す概略図である。図2に示すように、連合学習システム200は、ユーザ機器によって実現される複数の分散型ノードUE、UE、・・・、UEと、基地局によって実現される中央処理装置APとを含む。各分散型ノードUE、UE、・・・、UEは、自身のローカル訓練データD、D、・・・、Dに基づいて、人工知能アルゴリズム(例えば、勾配降下法)を利用してローカルモデルパラメータw 、w 、・・・、w を生成する。
【0019】
図1における連合学習システムと異なり、図2における連合学習システム200における複数の分散型ノードUE、UE、・・・、UEのうち、1組の分散型ノードのみがグローバルモデルパラメータを生成するために使用されると決定される。この組の分散型ノードは、ローカルモデルパラメータを中央処理装置APにアップロードするが、グローバルモデルパラメータを生成するために使用されない分散型ノード(例えば、分散型ノードUE)は、ローカルモデルパラメータを中央処理装置APにアップロードしない。中央処理装置APは、この組の分散型ノードのローカルモデルパラメータのみに基づいてグローバルモデルパラメータwt+1を生成する。
【0020】
図1における連合学習システムと同様に、図2における連合学習システム200における中央処理装置APは、生成されたグローバルモデルパラメータwt+1を、ローカルモデルパラメータをアップロードしない分散型ノード(例えば、分散型ノードUE)を含む全ての分散型ノードUE、UE、・・・、UEに配信する。分散型ノードUE、UE、・・・、UEは、新たに生成されたグローバルモデルパラメータwt+1を受信すると、その新たに生成されたグローバルモデルパラメータwt+1を用いて、次のラウンドのローカルモデル訓練を行うか、又は、該新たに生成されたグローバルモデルパラメータwt+1に基づく連合学習モデルを応用する。
【0021】
図2に示される実施例において、分散型ノードはユーザ機器によって実現され、中央処理装置は基地局によって実現され、それらの間は無線通信が行われる。いくつかの実施例では、中央処理装置は、基地局とは別の装置によって実現されてもよい。この場合、ローカルモデルパラメータは、分散型ノードにより基地局にアップロードされ、基地局によって中央処理装置に提供され、生成されたグローバルモデルパラメータは、中央処理装置により基地局に提供され、基地局によって分散型ノードに配信される。分散型ノードと中央処理装置とで構成される通信システムは、セルラー通信システム、マシンタイプ通信(MTC、Machine Type Communication)、自己組織化ネットワーク、又は認知無線システム(例えば、IEEE P802.19.1a、スペクトルアクセスシステム(Spectrum Access System、SAS))などであってもよい。
【0022】
さらに、本開示のいくつかの実施例において、分散型ノードと中央処理装置は、他の機器によって実現されてもよく、それらの間は有線通信を行ってもよい。
【0023】
<2.処理フロー>
以下、分散型ノードと中央処理装置における連合学習処理の流れについて説明する。本開示の実施例において、分散型ノード及び/又は中央処理装置における連合学習処理は、分散型ノード及び/又は中央処理装置自体又はその構成要素(例えば、チップ)として実現される電子機器によって実行されてもよい。該電子機器は、処理回路を含んでもよい。該処理回路は、分散型ノード及び/又は中央処理装置における他の構成要素に信号(デジタル又はアナログ)を出力してもよいし、分散型ノード及び/又は中央処理装置における他の構成要素から信号(デジタル又はアナログ)を受信してもよい。また、処理回路は、分散型ノード及び/又は中央処理装置における他の構成要素の一部又は全部の動作を制御することもできる。
【0024】
処理回路は、汎用プロセッサの形態であってもよいし、ASICなどの専用処理回路であってもよい。例えば、処理回路は、回路(ハードウェア)又は中央処理装置(例えば、中央処理ユニット(CPU))によって構成され得る。また、処理回路には、回路(ハードウェア)又は中央処理装置を動作させるためのプログラム(ソフトウェア)がロードされていてもよい。このプログラムは、(例えば、分散型ノード及び/又は中央処理装置又は電子機器に配置される)メモリ、又は外部から接続された外部記憶媒体に記憶されてもよく、ネットワーク(例えば、インターネット)を介してダウンロードされてもよい。
【0025】
図3は、本開示のいくつかの実施例による中央処理装置における連合学習処理300を示すフローチャートである。
【0026】
ステップS305では、中央処理装置は、複数の分散型ノードのうち、グローバルモデルパラメータを生成するための1組の分散型ノードを決定する。この組の分散型ノードのローカル訓練データ間の相関性は、特定の相関性要求を満たし、中央処理装置にローカルモデルパラメータを送信するチャネルリソース(例えば、時間リソース、周波数リソース、及び/又は空間リソース)を取得することができる。
【0027】
複数の分散型ノードのローカル訓練データの間は、相関性を有し得る。相関性が高いと、複数の分散型ノードのローカル訓練結果が類似していることをもたらすため、チャネルリソースが制限された場合にグローバル訓練結果が迅速にグローバル最適化に近づくことを確保することができない。ローカル訓練データ間の相関性が低い分散型ノードを選択し、相関性が低い分散型ノードに、ローカル訓練結果(即ち、ローカルモデルパラメータ)をアップロードするチャネルリソースを取得させることにより、チャネルリソースが制限された場合にチャネルリソースを有効に利用してグローバル訓練結果が迅速にグローバル最適化に近づくことを容易にする。分散型ノードのローカル訓練データ間の相関性は、以下に列挙する若干の方法又は他の方法によって判断されることができる。
【0028】
いくつかの応用シナリオでは、分散型ノードのローカル訓練データは、周辺環境に対するサンプリングに由来する。例えば、分散型ノードは、ローカル訓練データが自身に設置されたセンサに由来するセンサノード(例えば、温度収集ノード)として実現され、又はローカル訓練データが自身に設置されたカメラによって収集されたデータに由来するカメラノードとして実現されてもよい。距離が近い若干の分散型ノードは、ローカル訓練データの収集時間が近いと、そのローカル訓練データの相関性が高い。このため、ローカル訓練データの収集時間に基づいて、複数の分散型ノードのローカル訓練データ間の相関性を決定し得る。グローバルモデルパラメータを生成するための分散型ノードのローカル訓練データ間の相関性が低いことを確保するために、特定の相関性要求を、グローバルモデルパラメータを生成するための分散型ノードのローカル訓練データの収集時間の間の時間間隔が所定の時間間隔閾値よりも大きいように設定してもよい。また、ローカル訓練データの収集時間の間の時間間隔に応じて分散型ノードに順序を付けてもよい。時間間隔が大きい分散型ノードは、相関性が低いことから、優先してグローバルモデルパラメータを生成するための分散型ノードとして選択され、ローカルモデルパラメータをアップロードする。また、データ収集時間が時間帯である場合、グローバルモデルパラメータを生成するための分散型ノードのローカル訓練データ間の相関性が低いことを確保するために、特定の相関性要求を、グローバルモデルパラメータを生成するための分散型ノードのローカル訓練データの収集時間の間のオーバーラップ時間帯が所定のオーバーラップ時間閾値よりも小さいように設定してもよい。
【0029】
また、分散型ノードの距離が近い場合、そのローカル訓練データの相関性が高いことをもたらす。このため、分散型ノード間の距離に基づいて複数の分散型ノードのローカル訓練データ間の相関性を決定してもよい。グローバルモデルパラメータを生成するための分散型ノードのローカル訓練データ間の相関性が低いことを確保するために、特定の相関性要求を、グローバルモデルパラメータを生成するための分散型ノードのノード位置間の距離が所定の距離閾値よりも大きいように設定してもよい。また、ノード位置間の距離に応じて分散型ノードに順序を付けてもよい。距離が遠いノードは、相関性が低いことから、優先してグローバルモデルパラメータを生成するための分散型ノードとして選択され、ローカルモデルパラメータをアップロードする。それにより、グローバルモデルパラメータを生成するために選択された分散型ノードのローカル訓練データ間の相関性が低いことを確保する。
【0030】
分散型ノードごとに関連する排他領域を設置して、グローバルモデルパラメータを生成するために選択された1組の分散型ノードが相互の排他領域の外に位置するようにしてもよい。それにより、この組の分散型ノードのローカル訓練データ間の相関性が低いことを確保する。特定の相関性要求を、グローバルモデルパラメータを生成するための分散型ノードのうちの各分散型ノードが、グローバルモデルパラメータを生成するための分散型ノードのうちの残る分散型ノードの関連する排他領域の外に位置するように設定してもよい。ある分散型ノードがグローバルモデルパラメータを生成するための分散型ノードとして選択されると、その関連する排他領域内に位置する分散型ノードは、もはやグローバルモデルパラメータを生成するための分散型ノードとして選択されない。
【0031】
各分散型ノードの関連する排他領域は、そのうちの各点と該分散型ノードとの距離が排他距離よりも小さい領域によって定義されてもよい。例えば、各分散型ノードの排他領域は、該分散型ノードを中心とし、排他距離を半径とする円形の領域であってもよい。代替的に、各分散型ノードの関連する排他領域は、該分散型ノードとの距離が最も近い第2の所定数の分散型ノードの集合によって定義されてもよい。例えば、各分散型ノードの排他領域は、該分散型ノードを中心として該分散型ノードから距離によって見つかる最も近い第2の所定数の隣接ノードの集合であってもよい。該排他距離及び第2の所定数は、分散型ノードの分布密度、観測物の分布密度、及び最大相関性マージンのうちの1つ又は複数に基づいて予め決定されてもよい。
【0032】
また、分散型ノードの分散統計情報に基づいて分散型ノードのローカル訓練データ間の相関性と距離との関係を決定してもよい。相関性と距離との関係を決定した後、分散型ノード間の距離に基づいて分散型ノードの訓練データ間の相関性を決定してもよい。例えば、分散型ノードのノード位置がポアソン点過程に従い、収集対象の物理的位置が別のポアソン点過程に従い、分散型ノード上のカメラによってデータを収集し、且つ、そのカメラのカバレージ範囲が限られていると仮定すると、シミュレーション又は理論計算によって分散型ノードの訓練データ間の相関性と、分散型ノード間の距離との関数を求めることができる。また、ローカル訓練データ間の相関性と分散型ノード間の距離との関係は、第三者によって中央処理装置又は分散型ノードに提供されてもよい。
【0033】
分散型ノードがカメラノードとして実現される場合、カメラの分布位置及び角度に基づいて、カメラのカバレッジエリアのオーバーラップ面積を利用して、所与のカメラ密度でカメラによって収集された訓練データの相関性と距離との関係を算出してもよい。図4は、本開示のいくつかの実施例によるカメラノードとして実現される分散型ノードの分布を示す概略図である。図4において、ドットはカメラノードとして実現される分散型ノードを示し、三角形領域はカメラノードのカバレッジエリア(即ち、撮像範囲)を示す。
【0034】
いくつかの応用シナリオでは、分散型ノードのローカル訓練データは、予め設定された生成モデルにより生成される。生成モデルが同じであるため、生成された訓練データが高い相関性を有する。このため、ローカル訓練データの生成モデルに基づいて複数の分散型ノードのローカル訓練データ間の相関性を決定してもよい。グローバルモデルパラメータを生成するための分散型ノードのローカル訓練データ間の相関性が低いことを確保するために、特定の相関性要求を、グローバルモデルパラメータを生成するための分散型ノードのローカル訓練データの生成モデルが異なるように設定してもよい。
【0035】
いくつかの応用シナリオでは、分散型ノードは、オープンソースプラットフォームをデータソースとし、即ち、そのローカル訓練データは、オープンソースプラットフォームに由来する。同じオープンソースプラットフォームに由来する訓練データは、大きな相関性を有する。このため、ローカル訓練データのデータソースに基づいて複数の分散型ノードのローカル訓練データ間の相関性を決定してもよい。グローバルモデルパラメータを生成するための分散型ノードのローカル訓練データ間の相関性が低いことを確保するために、特定の相関性要求を、グローバルモデルパラメータを生成するための分散型ノードのローカル訓練データのデータソースが異なるように設定してもよい。
【0036】
図3に戻り、ステップS310では、中央処理装置は、この組の分散型ノードのローカルモデルパラメータに基づいてグローバルモデルパラメータを生成する。ローカルモデルパラメータは、この組の分散型ノードによって、それぞれのローカル訓練データに基づいて生成される。ステップS315では、中央処理装置は、生成されたグローバルモデルパラメータを前記複数の分散型ノードに配信する。
【0037】
図5は、本開示のいくつかの実施例による分散型ノードにおける連合学習処理500を示すフローチャートである。ステップS505では、分散型ノードは、それがグローバルモデルパラメータを生成するために使用されると決定する。該分散型ノードのローカル訓練データとグローバルモデルパラメータを生成するための他の分散型ノードのローカル訓練データとの相関性は、特定の相関性要求を満たし、中央処理装置にローカルモデルパラメータを送信するチャネルリソース(例えば、時間リソース、周波数リソース、及び/又は空間リソース)を取得することができる。該特定の相関性要求は、図3を参照して上述された相関性要求であり得る。ステップS510では、分散型ノードは、取得したチャネルリソースを通じて、そのローカルモデルパラメータを中央処理装置に送信する。該ローカルモデルパラメータは、該分散型ノードによって、そのローカル訓練データに基づいて生成される。ステップS515では、分散型ノードは、中央処理装置からグローバルモデルパラメータを受信する。
【0038】
本開示のいくつかの実施例において、中央処理装置と分散型ノードにおいてグローバルモデルパラメータを生成するための分散型ノードを決定するステップは、中央処理装置における分散型ノードに対する選択に基づいて集中的に実現され得る。代替的に、本開示のいくつかの実施例において、中央処理装置と分散型ノードにおいてグローバルモデルパラメータを生成するための分散型ノードを決定するステップは、分散型ノードにおけるチャネルリソースに対する競合に基づいて分散的に実現され得る。
【0039】
図6は、本開示のいくつかの実施例によるグローバルモデルパラメータを生成するための分散型ノードを集中的に決定する処理600を示すフローチャートである。処理600は、無線リソース制御(Radio Resource Control、RRC)プロセスによって実現され得る。簡略化のため、図6では、2つの分散型ノードUE、UEのみが示されている。しかしながら、理解すべきことは、処理600は、より多くの数の分散型ノードに関与してもよい。
【0040】
ステップS605では、中央処理装置がグローバルモデルパラメータを生成するための分散型ノードを選択するために、分散型ノードUEは、例えば、上りリンクリソースリクエストにおいて、分散型ノードUEに関する情報を中央処理装置APに送信する。分散型ノードUEに関する情報は、分散型ノードUEのローカル訓練データのデータ収集情報、ネットワーク性能パラメータ、及びローカル訓練性能パラメータのうちの1つ又は複数を含み得る。
【0041】
分散型ノードUEのローカル訓練データのデータ収集情報は、ローカル訓練データの収集時間、ノード位置、生成モデル、及びデータソースのうちの1つ又は複数を含む。分散型ノードUEのローカル訓練データのデータ収集情報は、分散型ノードUEのローカル訓練データと他の分散型ノードのローカル訓練データとの相関性を決定するために使用され得る。
【0042】
分散型ノードUEのネットワーク性能パラメータは、分散型ノードUEのネットワーク性能を示し、例えば、分散型ノードUEのチャネル帯域幅、被干渉程度、チャネル品質のうちの1つ又は複数を含み得る。
【0043】
分散型ノードUEのローカル訓練性能パラメータは、分散型ノードUEがローカルでモデル訓練を行う性能を示し、例えば、モデル訓練の目的関数の更新勾配の大きさ又は更新勾配のレベルを含んでもよい。
【0044】
ステップS610では、中央処理装置がグローバルモデルパラメータを生成するための分散型ノードを選択するために、分散型ノードUEは、例えば、上りリンクリソースリクエストにおいて、分散型ノードUEに関する情報を中央処理装置APに送信する。分散型ノードUEに関する情報は、分散型ノードUEのローカル訓練データのデータ収集情報、ネットワーク性能パラメータ、及びローカル訓練性能パラメータのうちの1つ又は複数を含み得る。
【0045】
分散型ノードUEのローカル訓練データのデータ収集情報は、ローカル訓練データの収集時間、ノード位置、生成モデル、及びデータソースのうちの1つ又は複数を含む。分散型ノードUEのローカル訓練データのデータ収集情報は、分散型ノードUEのローカル訓練データと他の分散型ノードのローカル訓練データとの相関性を決定するために使用され得る。
【0046】
分散型ノードUEのネットワーク性能パラメータは、分散型ノードUEのネットワーク性能を示し、例えば、分散型ノードUEのチャネル帯域幅、被干渉程度、チャネル品質のうちの1つ又は複数を含み得る。
【0047】
分散型ノードUEのローカル訓練性能パラメータは、分散型ノードUEがローカルでモデル訓練を行う性能を示し、例えば、モデル訓練の目的関数の更新勾配の大きさ又は更新勾配のレベルを含んでもよい。
【0048】
ステップS615では、中央処理装置APは、複数の分散型ノードからの分散型ノードに関する情報に基づいて、前記複数の分散型ノードのうちグローバルモデルパラメータを生成するための1組の分散型ノードを選択して、選択されたこの組の分散型ノードのローカル訓練データ間の相関性が特定の相関性要求を満たすようにする。選択される分散型ノードの数は、第1の所定数であってもよい。中央処理装置APは、選択されたこの組の分散型ノードに、ローカルモデルパラメータを送信するためのチャネルリソース(例えば、時間リソース、周波数リソース、及び/又は空間リソース)を割り当てることができる。
【0049】
また、中央処理装置APは、分散型ノードのネットワーク性能パラメータ及び/又はローカル訓練性能パラメータに基づいて、前記複数の分散型ノードのうちグローバルモデルパラメータを生成するための1組の分散型ノードを選択して、選択されたこの組の分散型ノードのネットワーク性能パラメータ及び/又はローカル訓練性能パラメータが特定のネットワーク性能要求及び/又はローカル訓練性能要求を満たすようにしてもよい。分散型ノードのネットワーク性能パラメータ及び/又はローカル訓練性能パラメータに基づいて、グローバルモデルパラメータを生成するための分散型ノードを選択することで、中央処理装置は、ネットワーク性能が良く、且つ/又はローカル訓練性能が高い分散型ノードを選択してグローバルモデルパラメータを生成することができ、グローバルモデル訓練の効率を向上させることができる。例えば、いくつかの分散型ノードは、ネットワーク性能が悪いため、ローカルモデルパラメータを適時にアップロードできなく、又は、ローカル訓練性能が低いため、ローカルモデルパラメータを適時に生成できず、グローバルモデル訓練の効率に影響を与える。例えば、特定の相関性要求を満たす分散型ノードは、セルエッジに位置するため、チャネル品質が悪い場合がある。このため、中央処理装置APは、グローバルモデルパラメータを生成するための分散型ノードを選択する際に、基地局最大カバレージ範囲を考慮して、基地局最大カバレージ範囲の外に位置する分散型ノードが選択されないようにしてもよい。
【0050】
図7は、本開示のいくつかの実施例による中央処理装置によってグローバルモデルパラメータを生成するための分散型ノードを選択することを示す概略図である。図7において、黒丸は、グローバルモデルパラメータを生成するために選択された分散型ノードを示し、白丸は、グローバルモデルパラメータを生成するために選択されなかった分散型ノードを示し、破線の円は、排他領域を示し、Rは、排他領域の半径を示す。
【0051】
図7に示すように、中央処理装置は、K回のサイクルにより、グローバルモデルパラメータを生成するためにK個の分散型ノードを選択し、サイクル毎に1つの分散型ノードを選択する。k(kはKより小さい非負整数)個の分散型ノードを選択した後、第k+1回のサイクルにおいて、中央処理装置は、選択されたk個の分散型ノードの関連する排他領域以外の領域から第k+1個の分散型ノードを選択する。いくつかの実施例において、中央処理装置は、分散型ノードを選択する際に、分散型ノードのネットワーク性能及び/又はローカル訓練性能をさらに考慮する。この場合、第k+1回のサイクルにおいて、中央処理装置は、選択されたk個の分散型ノードの関連する排他領域以外の領域から、ネットワーク性能パラメータ及び/又はローカル訓練性能パラメータが特定のネットワーク性能要求及び/又はローカル訓練性能要求を満たす第k+1個の分散型ノードを選択する。
【0052】
図6に戻ると、ステップS620では、中央処理装置APは、ローカルモデルパラメータをアップロードする指示を、グローバルモデルパラメータを生成するために選択された分散型ノードに送信する。中央処理装置APは、割り当てられたチャネルリソースを、グローバルモデルパラメータを生成するために選択された分散型ノードに通知してもよい。例えば、ローカルモデルパラメータを送信する指示は、割り当てられたチャネルリソースの指示を含み得る。例えば、図6において、中央処理装置APは、ローカルモデルパラメータをアップロードする指示を分散型ノードUEに送信する。
【0053】
ステップS625では、グローバルモデルパラメータを生成するために選択された分散型ノードは、中央処理装置から受信したローカルモデルパラメータをアップロードする指示に基づいて、グローバルモデルパラメータを生成するために使用されると決定する。例えば、図6において、分散型ノードUEは、中央処理装置から受信したローカルモデルパラメータをアップロードする指示に基づいて、グローバルモデルパラメータを生成するために使用されると決定する。
【0054】
図8は、本開示のいくつかの実施例によるグローバルモデルパラメータを生成するための分散型ノードを分散的に決定する処理880を示すフローチャートである。処理880は、無線リソース制御(Radio Resource Control、RRC)プロセスによって実現され得る。簡略化のため、図8では、1つの分散型ノードUEのみが示されている。しかしながら、理解すべきことは、処理880はより多くの数の分散型ノードに関与してもよい。
【0055】
ステップS882では、分散型ノードUEは、そのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データのデータ収集情報とに基づいて、そのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データとの相関性が、特定の相関性要求を満たすか否かを決定する。グローバルモデルパラメータの生成に使用されることが決定された分散型ノードのローカル訓練データのデータ収集情報は、分散型ノード自身によってブロードキャストされてもよく、又は中央処理装置APに送信されて、中央処理装置APによってブロードキャストされてもよい。
【0056】
いくつかの実施例では、データ収集情報は、ローカル訓練データの収集時間を含んでもよく、特定の相関性要求は、分散型ノードUEのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データの収集時間との時間間隔が所定の時間間隔閾値よりも大きいように設定されてもよい。
【0057】
いくつかの実施例では、データ収集情報は、分散型ノードのノード位置を含んでもよく、特定の相関性要求は、分散型ノードUEと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードとの距離が所定の距離閾値よりも大きいように設定されてもよい。また、特定の相関性要求は、分散型ノードUEが、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードの関連する排他領域の外に位置するように設定されてもよい。この特定の距離閾値又は排他領域は、予め設定され、又はグローバルモデルパラメータの生成に使用されることが決定された分散型ノード又は中央処理装置APによってブロードキャストされ、又は分散型ノードUEによって現在のネットワーク状況に基づいて決定されてもよい。
【0058】
ステップS882において、特定の相関性条件が満たされていると決定された場合、処理880は、ステップS884に進む。ステップS884において、分散型ノードUEは、例えば、キャリアセンスにより競合的に中央処理装置APにローカルモデルパラメータを送信するためのチャネルリソースを取得し、チャネルリソースの取得に成功したか否かを決定する。
【0059】
いくつかの実施例において、分散型ノードUEは、そのネットワーク性能パラメータ及びローカル訓練性能パラメータの一方又は両方に基づいて、チャネルリソースを取得するためのパラメータ(例えば、エネルギー検出閾値、バックオフウィンドウサイズ)を調整してもよい。例えば、ネットワーク性能及び/又はローカル訓練性能が良い(例えば、相応な性能閾値より高い)場合、分散型ノードUEは、チャネルリソースを取得するためのパラメータを調整する(例えば、そのエネルギー検出閾値を増加させるか、又はバックオフウィンドウサイズを減少させる)ことにより、チャネルリソースの取得に成功する確率を増加させることができる。したがって、ネットワーク性能が良く、且つ/又はローカル訓練性能が良い分散型ノードは、より高いローカルモデルパラメータをアップロードする可能性を有する。
【0060】
いくつかの実施例において、中央処理装置APは、グローバルモデルパラメータの生成に使用されることが決定された分散型ノードが第1の所定数に達した後に、アップロードを停止する指示をブロードキャストする。分散型ノードUEは、中央処理装置APからのアップロードを停止する指示を受信すると、前記中央処理装置にローカルモデルパラメータをアップロードするためのチャネルリソースの取得を停止する。
【0061】
いくつかの実施例において、分散型ノードUEは、グローバルモデルパラメータの生成に使用されることが決定される分散型ノードの数を自ら決定してもよい。例えば、分散型ノードUEは、グローバルモデルパラメータの生成に使用されることが決定された分散型ノードからのブロードキャストを受信する度に、その数を1だけ増加させる。分散型ノードUEは、その数が第1の所定数以上である場合、前記中央処理装置APにローカルモデルパラメータを送信するためのチャネルリソースの取得を停止する。該第1の所定数は、分散型ノードUEに予め設定されてもよいし、中央処理装置APによってブロードキャストされてもよい。
【0062】
ステップS884において、チャネルリソースの取得に成功した場合、処理880は、ステップS886に進む。ステップS886では、分散型ノードUEは、それがグローバルモデルパラメータを生成するために使用されると決定する。ステップS888では、分散型ノードUEは、取得したチャネルリソースを通じて、そのローカルモデルパラメータを中央処理装置APに送信する。ステップS890では、中央処理装置APは、分散型ノードUEのローカルモデルパラメータを受信したことに応答して、分散型ノードUEをグローバルモデルパラメータを生成するための分散型ノードとして決定する。
【0063】
図8には示されていないが、分散型ノードUEは、それがグローバルモデルパラメータを生成するために使用されると決定した後に、そのローカルト訓練データのデータ収集情報をブロードキャストし、又は、データ収集情報を中央処理装置APに送信し、中央処理装置APによってブロードキャストしてもよい。それにより、次のグローバルモデルパラメータを生成するための分散型ノードを分散的に決定する。
【0064】
本開示の実施例の技術案は、インテリジェントドライブシナリオに応用され得る。インテリジェントドライブシナリオにおいて、車両は、人工知能モデルを用いて、交差点に歩行者が横断歩道を渡っているか否か、信号機の状態を判断して、ブレーキポリシを取る。各車両のローカル訓練データは、車両カメラによって収集された交差点の状況データ、及び人(例えば、運転者又は交差点のオブザーバー)又は監視処理装置によって与えられるブレーキラベルである。このブレーキラベルは、現在の交差点状況においてブレーキが必要であるか否かを示し、人が交差点状況を観察することによって与えてもよいし、監視処理装置によって信号機でのカメラによって撮られた交差点状況データを訓練済みの人工知能モデルに入力して得られてもよい。各車両は、ローカル訓練プロセスにおいて、若干の交差点状況においてローカルモデルが交差点状況データに基づいて与えたブレーキ判定と、人又は監視処理装置によって与えられるブレーキラベルとの差の逆数を目的関数として、アルゴリズムを利用してローカルモデルを更新してもよい。
【0065】
本開示のいくつかの実施例では、各車両は、分散型ノードとして、ローカル訓練データを中央処理装置にアップロードして連合学習を行うことができる。同じ交差点での異なる車両のローカル訓練データには相関性があり得るので、車両のローカル訓練データの収集時間及び/又は車両位置に基づいて、相関性の低い車両を選択してローカルモデルパラメータをアップロードして、グローバルモデルパラメータを生成することができる。さらに、車両のネットワーク性能パラメータ及び/又はローカル訓練性能パラメータに基づいて、ネットワーク性能が良く、且つ/又はローカル訓練性能が良い車両を選択してローカルモデルパラメータをアップロードして、グローバルモデルパラメータを生成してもよい。中央処理装置は、生成されたグローバルモデルパラメータを各車両に配信する。各車両は、グローバルモデルパラメータに基づくモデルに従って、車両カメラによって収集された交差点状況データを処理して、ブレーキが必要であるか否かを判断する。
【0066】
<3.シミュレーション結果>
分散型ノードのローカル訓練データが周辺環境に対するサンプリングに由来する場合、複数の分散型ノードのローカル訓練データ間の相関性は、それらの間の距離に関連する。分散型ノード間の距離が遠いほど、それらのローカル訓練データ間の相関性は低くなる。
【0067】
図9は、分散型ノードとその隣接ノードのローカル訓練データの相関性を示す概略図である。図9において、横座標は、隣接ノード間の相関係数を示し、縦座標は、任意の分散型ノードとその隣接ノードのローカル訓練データ間の相関性の累積分布関数を示す。曲線991は、任意の分散型ノードとそれに最も近い隣接ノードとの相関性を示し、曲線992は、任意の分散型ノードとそれに2番目に近い隣接ノードとの相関性を示し、曲線993は、任意の分散型ノードとそれに3番目に近い隣接ノードとの相関性を示し、曲線994は、任意の分散型ノードとそれに4番目に近い隣接ノードとの相関性を示し、曲線995は、任意の分散型ノードとそれに5番目に近い隣接ノードとの相関性を示している。図9に示すように、隣接ノード間の距離が増加するにつれて、その相関性は低くなる。
【0068】
図10は、異なるノード選択ポリシを用いて得られた連合学習モデルの分類精度を示す概略図である。図10において、横座標は、連合学習モデルの反復回数を示し、縦座標は、生成された連合学習モデルを用いて分類を行う分類精度を示している。曲線1001は、ランダムに選択された単一のノードのローカル訓練データを用いて連合学習モデルを生成したときの連合学習モデルの分類精度を示し、曲線1002は、ランダムに選択された第1の所定数のノードのローカル訓練データを用いて連合学習モデルを生成したときの連合学習モデルの分類精度を示し、曲線1003は、本開示による技術を用いて第1の所定数のノードのローカル訓練データを選択して連合学習モデルを生成したときの連合学習モデルの分類精度を示し、曲線1004は、全てのノードのローカル訓練データを用いて連合学習モデルを生成したときの連合学習モデルの分類精度を示す。図10に示すように、本開示による技術を用いて第1の所定数のノードのローカル訓練データを選択して連合学習モデルを生成したときの連合学習モデルの分類精度と、全てのノードのローカル訓練データを用いて連合学習モデルを生成したときの連合学習モデルの分類精度とが近い。したがって、本開示の技術は、連合学習モデルの分類精度を大きく低下させることなく、効率的に連合学習モデルを生成することができる。
【0069】
<4.応用例>
本開示の技術は、様々な製品に応用できる。例えば、基地局とユーザ機器は、様々なタイプの演算デバイスとして実現され得る。
【0070】
また、基地局は、例えばマクロeNB/gNBや小eNB/gNBなどの任意のタイプの進化ノードB(eNB)、gNB、又はTRP(Transmit Receive Point)として実現され得る。小eNB/gNBは、例えばピコeNB/gNB、マイクロeNB/gNBと家庭(フェムト)eNB/gNBなどのマクロセルより小さいセルをカバーするeNB/gNBである。その代わりに、基地局は、例えばNodeBと基地局トランシーバ(BTS)のような任意の他のタイプの基地局として実現され得る。基地局は、無線通信を制御するように配置される主体(基地局装置とも呼ばれる)と、主体と異なるところに設けられる1つ又は複数のリモート無線ヘッド(RRH)とを含んでもよい。また、後述する様々なタイプの端末は、基地局機能を一時的又は半永久的に実行することによって、基地局として動作できる。
【0071】
また、ユーザ機器は、携帯端末(例えば、スマートフォン、タブレットパーソナルコンピュータ(PC)、ノートPC、ポータブルゲーム端末、ポータブル/ドングルモバイルルーター、及びデジタル撮像装置)又は車載端末(例えば、カーナビゲーション装置)として実現され得る。ユーザ機器はマシンツーマシン(M2M)通信を実行する端末(マシンタイプ通信(MTC)端末とも呼ばれる)として実現され得る。なお、ユーザ機器は、上記端末のそれぞれに搭載された無線通信モジュール(例えば単一チップを含む集積回路モジュール)であってもよい。
【0072】
[3-1.演算デバイスについての応用例]
図11は、本開示の技術を応用できる演算デバイス700の概略的な配置の例を示すブロック図である。演算デバイス700は、プロセッサ701、メモリ702、記憶装置703、ネットワークインターフェース704、及びバス706を含む。
【0073】
プロセッサ701は、例えば、中央処理装置(CPU)又はデジタルシグナルプロセッサ(DSP)であってもよく、且つ、サーバ700の機能を制御する。メモリ702は、ランダムアクセスメモリ(RAM)とリードオンリーメモリ(ROM)を含み、かつ、データとプロセッサ701によって実行されるプログラムを記憶する。記憶装置703は、例えば半導体メモリとハードディスクのような記憶媒体を含んでもよい。
【0074】
ネットワークインターフェース704は、サーバ700を有線通信ネットワーク705に接続するための有線通信インターフェースである。有線通信ネットワーク705は、進化パケットコア(EPC)などのコアネットワーク、又はインターネットなどのパケットデータネットワーク(PDN)であってもよい。
【0075】
バス706は、プロセッサ701、メモリ702、記憶装置703、及びネットワークインターフェース704を互いに接続する。バス706は、互いに異なる速度を有する2つ又はそれ以上のバス(例えば、高速バス、低速バス)を含んでもよい。
【0076】
[3-2.基地局についての応用例]
(第1の応用例)
図12は、本開示の技術を応用できるgNBの概略的な配置の第1の例を示すブロック図である。gNB800は、1つ又は複数のアンテナ810及び基地局機器820を含む。基地局機器820と各アンテナ810は、RFケーブルを介して互いに接続されることができる。
【0077】
アンテナ810のそれぞれは、1つ又は複数のアンテナ素子(例えば多入力多出力(MIMO)アンテナに含まれる複数のアンテナ素子)を含み、且つ基地局機器820が無線信号を送信、受信するために使用される。図12に示すように、gNB800は、複数のアンテナ810を含んでもよい。例えば、複数のアンテナ810はgNB800に使用される複数の周波数帯域と互換性があり得る。図12に、gNB800に複数のアンテナ810が含まれる例を示したが、gNB800が単一のアンテナ810を含んでもよい。
【0078】
基地局機器820は、コントローラ821、メモリ822、ネットワークインターフェース823及び無線通信インターフェース825を含む。
【0079】
コントローラ821は、例えばCPU又はDSPであって、且つ、基地局機器820の上位層の様々な機能を動作させることができる。例えば、コントローラ821は、無線通信インターフェース825で処理された信号におけるデータに基づいてデータパケットを生成し、ネットワークインターフェース823を介して、生成したパケットを伝送する。コントローラ821は、複数のベースバンドプロセッサからのデータをバンドルして、バンドルパケットを生成し、生成されたバンドルパケットを伝送することができる。コントローラ821は以下のような制御を実行する論理機能を有してもよく、当該制御は例えば、無線リソース制御、無線ベアラ制御、モビリティ管理、受付制御、スケジューリングなどである。この制御は、付近のgNB又はコアネットワークノードを結んで実行されることができる。メモリ822は、RAMとROMを含み、且つコントローラ821によって実行されるプログラムと様々なタイプの制御データ(例えば端末リスト、伝送パワーデータ及びスケジューリングデータ)を記憶する。
【0080】
ネットワークインターフェース823は、基地局機器820をコアネットワーク824に接続するための通信インターフェースである。コントローラ821は、ネットワークインターフェース823を介してコアネットワークノード又は他のgNBと通信を行うことができる。この場合、gNB800とコアネットワークノード又は他のgNBとは論理インターフェース(例えばS1インターフェースとX2インターフェース)によって互いに接続することができる。ネットワークインターフェース823は、有線通信インターフェース又は無線バックホール回線に用いられる無線通信インターフェースであってもよい。ネットワークインターフェース823が無線通信インターフェースであれば、無線通信インターフェース825によって使用される周波数帯域と比べると、ネットワークインターフェース823はより高い周波数帯域を無線通信に使用することができる。
【0081】
無線通信インターフェース825は、任意のセルラー通信方式(例えば、Long Term Evolution(LTE)とLTE-Advanced)をサポートし、アンテナ810を介してgNB800に位置するセルにおける端末への無線接続を提供する。無線通信インターフェース825は通常、例えばベースバンド(BB)プロセッサ826とRF回路827を含むことができる。BBプロセッサ826は例えば、符号化/復号化、変調/復調、多重化/多重化解除を実行するとともに、レイヤー(例えばL1、メディアアクセス制御(MAC)、無線リンク制御(RLC)、パケットデータアグリゲーションプロトコル(PDCP))の各タイプの信号処理を実行することができる。コントローラ821の代わりに、BBプロセッサ826は上記した論理機能の一部又は全部を有してもよい。BBプロセッサ826は通信制御プログラムが記憶されるメモリであってもよく、或いは、プログラムを実行するように配置されるプロセッサと関連回路を含むモジュールであってもよい。プログラムの更新は、BBプロセッサ826の機能を変更させることができる。このモジュールは、基地局機器820のスロットに挿入されるカードやブレッドであってもよい。その代わりに、このモジュールは、カードやブレッドに搭載されるチップであってもよい。同時に、RF回路827は、例えばミキサ、フィルタ、アンプを含んで、アンテナ810を介して無線信号を送受信することができる。
【0082】
図12に示すように、無線通信インターフェース825は複数のBBプロセッサ826を含むことができる。例えば、複数のBBプロセッサ826はgNB800に使用される複数の周波数帯域と互換性があり得る。図12に示すように、無線通信インターフェース825は、複数のRF回路827を含んでもよい。例えば、複数のRF回路827は複数のアンテナ素子と互換性があり得る。図12には、無線通信インターフェース825に複数のBBプロセッサ826と複数のRF回路827が含まれる例が示されているが、無線通信インターフェース825は、単一のBBプロセッサ826又は単一のRF回路827を含んでもよい。
【0083】
(第2の応用例)
図13は、本開示の技術を応用できるgNBの概略的な配置の第2の例を示すブロック図である。gNB830は1つ又は複数のアンテナ840と、基地局装置850と、RRH860とを含む。RRH860と各アンテナ840は、RFケーブルを介して相互に接続されることができる。基地局装置850とRRH860は光ファイバケーブルのような高速回線を介して互いに接続することができる。
【0084】
アンテナ840のそれぞれは単一又は複数のアンテナ素子(例えば、MIMOアンテナに含まれた複数のアンテナ素子)を含んで、RRH860の無線信号の送受信に使用される。図13に示すように、gNB830は、複数のアンテナ840を含むことができる。例えば、複数のアンテナ840はgNB830に使用される複数の周波数帯域と互換性があり得る。図13に、gNB830に複数のアンテナ840が含まれる例を示したが、gNB830が単一のアンテナ840を含んでもよい。
【0085】
基地局装置850は、コントローラ851と、メモリ852と、ネットワークインターフェース853と、無線通信インターフェース855と、接続インターフェース857とを含む。コントローラ851、メモリ852、ネットワークインターフェース853は図12を参照して説明したコントローラ821、メモリ822、ネットワークインターフェース823と同様である。
【0086】
無線通信インターフェース855は任意のセルラー通信方式(例えばLTEとLTE-Advanced)をサポートし、RRH860とアンテナ840を介してRRH860に対応するセクタに位置する端末への無線通信を提供する。無線通信インターフェース855は、通常に、例えばBBプロセッサ856を含んでもよい。BBプロセッサ856は、BBプロセッサ856が接続インターフェース857を介してRRH860のRF回路864に接続される以外、図12を参照して説明したBBプロセッサ826と同様である。図13に示すように、無線通信インターフェース855は、複数のBBプロセッサ856を含んでもよい。例えば、複数のBBプロセッサ856はgNB830に使用される複数の周波数帯域と互換性があり得る。図13に、無線通信インターフェース855に複数のBBプロセッサ856が含まれる例を示したが、無線通信インターフェース855は単一のBBプロセッサ856を含んでもよい。
【0087】
接続インターフェース857は、基地局装置850(無線通信インターフェース855)をRRH860に接続するためのインターフェースである。接続インターフェース857は基地局装置850(無線通信インターフェース855)をRRH860に接続する上述した高速回線における通信用の通信モジュールであってもよい。
【0088】
RRH860は、接続インターフェース861と無線通信インターフェース863を含む。
【0089】
接続インターフェース861は、RRH860(無線通信インターフェース863)を基地局装置850に接続するためのインターフェースである。接続インターフェース861は上述した高速回線における通信用の通信モジュールであってもよい。
【0090】
無線通信インターフェース863は、アンテナ840を介して無線信号を送受信する。無線通信インターフェース863は通常、例えばRF回路864を含んでもよい。RF回路864は例えばミキサ、フィルタ、アンプを含んで、アンテナ840を介して無線信号を送受信してもよい。図13に示すように、無線通信インターフェース863は、複数のRF回路864を含んでもよい。例えば、複数のRF回路864は複数のアンテナ素子をサポートすることができる。図13に無線通信インターフェース863に複数のRF回路864が含まれる例を示すが、無線通信インターフェース863は単一のRF回路864を含んでもよい。
【0091】
[3-3.端末機器についての応用例]
(第1の応用例)
図14は、本開示の技術を応用できるスマートフォン900の例示的な配置の例を示すブロック図である。スマートフォン900はプロセッサ901、メモリ902、記憶装置903、外部接続インターフェース904、撮像装置906、センサ907、マイク908、入力装置909、表示装置910、スピーカ911、無線通信インターフェース912、1つ又は複数のアンテナスイッチ915、1つ又は複数のアンテナ916、バス917、電池918及び補助コントローラ919を含む。
【0092】
プロセッサ901は、例えばCPU又はシステムオンチップ(SoC)であり、スマートフォン900のアプリケーション層と他の層の機能を制御することができる。メモリ902は、RAMとROMを含み、データとプロセッサ901によって実行されるプログラムを記憶する。記憶装置903は、例えば半導体メモリとハードディスクのような記憶媒体を含んでもよい。外部接続インターフェース904は外部装置(例えばメモリカードとユニバーサルシリアルバス(USB)装置)をスマートフォン900に接続するためのインターフェースである。
【0093】
撮像装置906は、イメージセンサ(例えば電荷結合デバイス(CCD)と相補型金属酸化物半導体(CMOS))を含み、キャプチャ画像を生成する。センサ907は、例えば測定センサ、ジャイロセンサ、地磁気センサ及び加速度センサのような1組のセンサを含んでもよい。マイク908はスマートフォン900に入力された音をオーディオ信号に変換する。入力装置909は例えば表示装置910のスクリーン上のタッチを検出するように配置されるタッチセンサ、キーパッド、キーボード、ボタン又はスイッチを含み、ユーザから入力された操作又は情報を受信する。表示装置910はスクリーン(例えば液晶ディスプレイ(LCD)と有機発光ダイオード(OLED)ディスプレイ)を含み、スマートフォン900の出力画像を表示する。スピーカ911はスマートフォン900から出力したオーディオ信号を音に変換する。
【0094】
無線通信インターフェース912は、任意のセルラー通信方式(例えば、LTEとLTE-Advanced)をサポートし、無線通信を実行する。無線通信インターフェース912は、通常、例えばBBプロセッサ913とRF回路914を含むことができる。BBプロセッサ913は、例えば、符号化/復号化、変調/復調、多重化/多重化解除を実行するとともに、無線通信のための様々なタイプの信号処理を実行することができる。同時に、RF回路914は、例えばミキサ、フィルタ、アンプを含んで、アンテナ916を介して無線信号を送受信することができる。無線通信インターフェース912はその上にBBプロセッサ913とRF回路914が集積化される一つのチップモジュールであってもよい。図14に示すように、無線通信インターフェース912は、複数のBBプロセッサ913と複数のRF回路914を含んでもよい。図14には無線通信インターフェース912に複数のBBプロセッサ913と複数のRF回路914が含まれる例が示されているが、無線通信インターフェース912は、単一のBBプロセッサ913又は単一のRF回路914を含んでもよい。
【0095】
なお、セルラー通信方式に加え、無線通信インターフェース912は、例えば短距離無線通信方式、近接通信方式や無線ローカルネットワーク(LAN)方式などの別タイプの無線通信方式をサポートすることができる。この場合、無線通信インターフェース912は各無線通信方式に対するBBプロセッサ913とRF回路914を含んでもよい。
【0096】
アンテナスイッチ915のそれぞれは、無線通信インターフェース912に含まれる複数の回路(例えば異なる無線通信方式に使用される回路)間でアンテナ916の接続先を切り替える。
【0097】
アンテナ916のそれぞれは単一又は複数のアンテナ素子(例えばMIMOアンテナに含まれた複数のアンテナ素子)を含んで、無線通信インターフェース912の無線信号の送受信に使用される。図14に示すように、スマートフォン900は複数のアンテナ916を含んでもよい。図14に、スマートフォン900に複数のアンテナ916が含まれる例を示したが、スマートフォン900は単一のアンテナ916を含んでもよい。
【0098】
なお、スマートフォン900は各無線通信方式に対するアンテナ916を含んでもよい。この場合に、アンテナスイッチ915はスマートフォン900の配置から省略されてもよい。
【0099】
バス917はプロセッサ901、メモリ902、記憶装置903、外部接続インターフェース904、撮像装置906、センサ907、マイク908、入力装置909、表示装置910、スピーカ911、無線通信インターフェース912及び補助コントローラ919を互いに接続する。電池918は給電線によって図14に示すスマートフォン900の各ブロックに電力を提供し、給電線は図面において部分的に点線によって示される。補助コントローラ919は例えば睡眠モードでスマートフォン900の最少の必要な機能を操作する。
【0100】
(第2の応用例)
図15は、本開示の技術を応用できるカーナビゲーション装置920の概略的な配置の例を示すブロック図である。カーナビゲーション装置920は、プロセッサ921、メモリ922、全球位置決めシステム(GPS)モジュール924、センサ925、データインターフェース926、コンテンツプレーヤー927、記憶媒体インターフェース928、入力装置929、表示装置930、スピーカ931、無線通信インターフェース933、1つ又は複数のアンテナスイッチ936、1つ又は複数のアンテナ937及び電池938を含む。
【0101】
プロセッサ921は、例えばCPU又はSoCであって、カーナビゲーション装置920のナビゲーション機能と他の機能を制御することができる。メモリ922はRAMとROMを含み、データとプロセッサ921によって実行されるプログラムを記憶する。
【0102】
GPSモジュール924は、GPS衛星から受信したGPS信号を使用してカーナビゲーション装置920の位置(例えば、緯度、経度、高度)を測定する。センサ925は、例えばジャイロセンサ、地磁気センサ及び気圧センサなどの1組のセンサを含んでもよい。データインターフェース926は図示しない端末を介して例えば車載ネットワーク941に接続し、車両が生成したデータ(例えば、車速データ)を取得する。
【0103】
コンテンツプレーヤー927は、記憶媒体(例えば、CDとDVD)に記憶されたコンテンツを再生して、当該記憶媒体は記憶媒体インターフェース928に挿入される。入力装置929は、例えば表示装置930のスクリーン上のタッチを検出するように配置されるタッチセンサ、ボタン又はスイッチを含み、ユーザから入力された操作又は情報を受信する。表示装置930は例えばLCDやOLEDディスプレイのスクリーンを含み、ナビゲーション機能の画像又は再生されたコンテンツを表示する。スピーカ931は、ナビゲーション機能の音又は再生されたコンテンツを出力する。
【0104】
無線通信インターフェース933は任意のセルラー通信方式(例えば、LTEとLTE-Advanced)をサポートし、無線通信を実行することができる。無線通信インターフェース933は、通常、例えばBBプロセッサ934とRF回路935を含むことができる。BBプロセッサ934は、例えば、符号化/復号化、変調/復調、多重化/多重化解除を実行するとともに、無線通信のための様々なタイプの信号処理を実行することができる。同時に、RF回路935は、例えばミキサ、フィルタ、アンプを含んで、アンテナ937を介して無線信号を送受信することができる。無線通信インターフェース933はその上にBBプロセッサ934とRF回路935が集積化される一つのチップモジュールであってもよい。図15に示すように、無線通信インターフェース933は、複数のBBプロセッサ934と複数のRF回路935を含んでもよい。図15には無線通信インターフェース933に複数のBBプロセッサ934と複数のRF回路935が含まれる例が示されているが、無線通信インターフェース933は、単一のBBプロセッサ934又は単一のRF回路935を含んでもよい。
【0105】
なお、セルラー通信方式に加え、無線通信インターフェース933は、例えば短距離無線通信方式、近接通信方式と無線LAN方式などの別タイプの無線通信方式をサポートすることができる。この場合、無線通信インターフェース933は各無線通信方式に対するBBプロセッサ934とRF回路935を含んでもよい。
【0106】
アンテナスイッチ936のそれぞれは無線通信インターフェース933に含まれる複数の回路(例えば異なる無線通信方式に使用される回路)間でアンテナ937の接続先を切り替える。
【0107】
アンテナ937のそれぞれは、単一又は複数のアンテナ素子(例えばMIMOアンテナに含まれる複数のアンテナ素子)を含み、無線通信インターフェース933の無線信号の送受信に使用される。図15に示すように、カーナビゲーション装置920は、複数のアンテナ937を含んでもよい。図15に、カーナビゲーション装置920に複数のアンテナ937が含まれる例を示したが、カーナビゲーション装置920は単一のアンテナ937を含んでもよい。
【0108】
なお、カーナビゲーション装置920は各無線通信方式に対するアンテナ937を含んでもよい。この場合、アンテナスイッチ936はカーナビゲーション装置920の配置から省略されてもよい。
【0109】
電池938は、給電線によって図15に示すカーナビゲーション装置920の各ブロックに電力を提供し、給電線は図面において部分的に点線によって示される。電池938は車両から提供した電力を蓄積する。
【0110】
本開示の技術は、カーナビゲーション装置920、車載ネットワーク941及び車両モジュール942のうち1つ又は複数のブロックが含まれた車載システム(又は車両)940として実現されてもよい。車両モジュール942は車両データ(例えば車速、エンジン速度、故障情報)を生成して、生成されたデータを車載ネットワーク941に出力する。
【0111】
本開示に関連して記載された種々の例示的なブロック及び構成要素は、本明細書に記載の機能を実行するために設計された汎用プロセッサ、デジタル信号プロセッサ(DSP)、ASIC、FPGA又は他のプログラマブルな論理デバイス、ディスクリートゲート又はトランジスタ論理回路、ディスクリートなハードウェアコンポーネント又はそれらの任意の組み合わせによって実現又は実行されてもよい。汎用プロセッサは、マイクロプロセッサであってもよい。その代わりに、プロセッサは任意の従来のプロセッサ、コントローラ、マイクロコントローラ、及び/又はステートマシーンでもよい。プロセッサは、演算デバイスの組み合わせとして実施されてもよい。例えば、DSP及びマイクロプロセッサの組み合わせ、複数のマイクロプロセッサの組み合わせ、DSPコアと連結した一つ又は複数のマイクロプロセッサの組み合わせ、及び/又は任意の他のこのような構成であるとして実現されてもよい。
【0112】
本明細書に記載の機能は、ハードウェア、プロセッサによって実行されたソフトウェア、ファームウェア又はそれらの任意の組み合わせで実現されてもよい。プロセッサによって実行されるソフトウェアで実現される場合、機能は、非一時的なコンピュータ読み取り可能な記憶媒体に記憶されるか、又は非一時的なコンピュータ読み取り可能な媒体上の1つ又は複数の命令又はコードとして伝送され得る。他の例及び実現は、本開示及び添付の特許請求の範囲及び趣旨にある。例えば、ソフトウェアの性質を考慮して、上述した機能は、プロセッサによって実行されるソフトウェア、ハードウェア、ファームウェア、ハードワイヤ又はそれらの任意の組み合わせで実行されてもよい。機能を実現する特徴はまた、様々な位置に物理的に配置され得、分散して機能の一部が異なる物理的位置において実現されることを含む。
【0113】
さらに、他の構成要素に含まれる又は他の構成要素から分離した構成要素の開示は例示的なものであり、潜在的に様々な他のアーキテクチャが実施され同じ機能を達成するため、全部、大部分、及び/又は一部の要素を1つ又は複数の単一の構造又は分離構造の一部として組み込むことを含む。
【0114】
非一時的なコンピュータ読み取り可能な媒体は、汎用コンピュータ又は専用コンピュータによってアクセスされ得る任意の利用可能な非一時的な媒体であり得る。非一時的なコンピュータ読み取り可能な媒体は、限定ではないが、RAM、ROM、EEPROM、フラッシュメモリ、CD-ROM、DVDもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気ストレージデバイス、又は命令もしくはデータ構造形態で搬送もしくは記憶するために使用され得る所望のプログラムコード構成要素、汎用もしくは専用コンピュータ又は汎用もしくは専用プロセッサによってアクセスされ得る任意の他の媒体を含み得る。
【0115】
本開示の以上の説明は、当業者が本開示を作成又は使用できるように提供された。本開示に対する様々な修正は、当業者には明らかである。当業者にとって、本開示の範囲から逸脱することがなく、本明細書で定義される一般的な原理は、他の変形に適用され得る。したがって、本開示は、本明細書に記載された例及び設計に限定されるものではなく、開示された原理及び新規の特徴と一致する最も広い範囲に対応する。
【0116】
本開示の実施例はさらに以下の項目を含む。
1.中央処理装置における連合学習に用いられる電子機器であって、処理回路を含み、前記処理回路は、
複数の分散型ノードのうち、グローバルモデルパラメータを生成するための1組の分散型ノードを決定することであって、前記1組の分散型ノードのローカル訓練データ間の相関性が特定の相関性要求を満たし、且つ、
前記1組の分散型ノードのローカルモデルパラメータに基づいてグローバルモデルパラメータを生成することであって、前記ローカルモデルパラメータは、前記1組の分散型ノードがそれぞれのローカル訓練データに基づいて生成されるように配置される、電子機器。
2.前記特定の相関性要求は、
前記1組の分散型ノードのローカル訓練データの収集時間の間の時間間隔が所定の時間間隔閾値よりも大きいことを含む、項目1に記載の電子機器。
3.前記特定の相関性要求は、
前記1組の分散型ノードのノード位置間の距離が所定の距離閾値よりも大きいことを含む、項目1に記載の電子機器。
4.前記特定の相関性要求は、
前記1組の分散型ノードのうちの各分散型ノードが、前記1組の分散型ノードのうちの残る分散型ノードの関連する排他領域の外に位置することを含み、各分散型ノードの関連する排他領域は、そのうちの各点と該分散型ノードとの距離が排他距離よりも小さい領域によって定義され、又は該分散型ノードとの距離が最も近い第2の所定数の分散型ノードの集合によって定義される、項目1に記載の電子機器。
5.前記特定の相関性要求は、
前記1組の分散型ノードのローカル訓練データの生成モデルが異なることを含む、項目1に記載の電子機器。
6.前記特定の相関性要求は、
前記1組の分散型ノードのローカル訓練データのデータソースが異なることを含む、項目1に記載の電子機器。
7.前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードを決定することは、
前記複数の分散型ノードのローカル訓練データのデータ収集情報を取得することであって、前記データ収集情報は、前記複数の分散型ノードのローカル訓練データ間の相関性を決定するために使用され得ることと、
前記複数の分散型ノードのローカル訓練データのデータ収集情報に基づいて、前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードを選択することとを含む、項目1に記載の電子機器。
8.前記データ収集情報は、前記ローカル訓練データの収集時間、ノード位置、生成モデル、及びデータソースのうちの1つ又は複数を含む、項目7に記載の電子機器。
9.前記処理回路は、さらに、
前記複数の分散型ノードのネットワーク性能パラメータを取得し、
前記複数の分散型ノードのネットワーク性能パラメータに基づいて、前記複数の分散型ノードから、グローバルモデルパラメータを生成するための前記1組の分散型ノードを選択するように配置され、前記1組の分散型ノードのネットワーク性能パラメータは、特定のネットワーク性能要求を満たす、項目7に記載の電子機器。
10.前記処理回路は、さらに、
前記複数の分散型ノードのローカル訓練性能パラメータを取得し、
前記複数の分散型ノードのローカル訓練性能パラメータに基づいて、前記複数の分散型ノードから、グローバルモデルパラメータを生成するための前記1組の分散型ノードを選択するように配置され、前記1組の分散型ノードのローカル訓練性能パラメータは、特定のローカル訓練性能要求を満たす、項目7に記載の電子機器。
11.前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードを決定することは、
前記複数の分散型ノードのうちの分散型ノードからのローカルモデルパラメータを受信することと、
第1の所定数の分散型ノードのローカルモデルパラメータを受信した後、前記第1の所定数の分散型ノードを、前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードとして決定することとを含む、項目1に記載の電子機器。
12.連合学習に用いられる電子機器であって、処理回路を含み、前記処理回路は、
特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することであって、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータを生成するための他の分散型ノードのローカル訓練データとの相関性が、特定の相関性要求を満たし、
前記特定の分散型ノードのローカルモデルパラメータを中央処理装置に送信することであって、前記ローカルモデルパラメータは、前記特定の分散型ノードがそのローカル訓練データに基づいて生成されるように配置される、電子機器。
13.前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することは、
前記特定の分散型ノードのローカル訓練データのデータ収集情報を前記中央処理装置に送信することであって、前記データ収集情報は、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データとの相関性を決定するために使用され得ることと、
前記中央処理装置からのローカルモデルパラメータをアップロードする指示に基づいて、前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することとを含む、項目12に記載の電子機器。
14.前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することは、
前記特定の分散型ノードと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データのデータ収集情報に基づいて、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データとの相関性が、特定の相関性要求を満たすと決定することと、
前記中央処理装置にローカルモデルパラメータを送信するためのチャネルリソースを取得することと、
チャネルリソースの取得に成功した後、前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することとを含む、項目12に記載の電子機器。
15.前記データ収集情報は、分散型ノードのノード位置を含み、且つ、
前記特定の相関性要求は、前記特定の分散型ノードが、グローバルモデルパラメータの生成に使用されることが決定された前記他の分散型ノードの関連する排他領域の外に位置することを含み、分散型ノードの関連する排他領域は、そのうちの各点と該分散型ノードとの距離が排他距離よりも小さい領域によって定義され、又は該分散型ノードとの距離が最も近い第2の所定数の分散型ノードの集合によって定義される、項目14に記載の電子機器。
16.前記処理回路は、さらに、
前記特定の分散型ノードのネットワーク性能パラメータ及びローカル訓練性能パラメータの一方又は両方に基づいて、チャネルリソースを取得するためのパラメータを調整するように配置される、項目14に記載の電子機器。
17.前記処理回路は、さらに、
前記中央処理装置からのアップロードを停止する指示を受信すると、前記中央処理装置にローカルモデルパラメータを送信するためのチャネルリソースの取得を停止するように配置される、項目14に記載の電子機器。
18.前記処理回路は、さらに、
グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードの数を決定し、且つ、
前記数が第1の所定数以上である場合、前記中央処理装置にローカルモデルパラメータを送信するためのチャネルリソースの取得を停止するように配置される、項目14に記載の電子機器。
19.中央処理装置における連合学習に用いられる方法であって、
複数の分散型ノードのうち、グローバルモデルパラメータを生成するための1組の分散型ノードを決定することであって、前記1組の分散型ノードのローカル訓練データ間の相関性が特定の相関性要求を満たすことと、
前記1組の分散型ノードのローカルモデルパラメータに基づいてグローバルモデルパラメータを生成することであって、前記ローカルモデルパラメータは、前記1組の分散型ノードがそれぞれのローカル訓練データに基づいて生成されることとを含む、方法。
20.特定の分散型ノードにおける連合学習に用いられる方法であって、
前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することであって、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データの相関性が、特定の相関性要求を満たすことと、
前記特定の分散型ノードのローカルモデルパラメータを中央処理装置に送信することであって、前記ローカルモデルパラメータは、前記特定の分散型ノードがそのローカル訓練データに基づいて生成されることとを含む、方法。
21.プロセッサによって実行されたときに、プロセッサに項目19又は20に記載の方法を実行させる命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体。
22.項目19又は20に記載の方法の各ステップを実行するための部材を含む連合学習に用いられる装置。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
【手続補正書】
【提出日】2023-06-29
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
中央処理装置における連合学習に用いられる電子機器であって、処理回路を含み、前記処理回路は、
複数の分散型ノードのうち、グローバルモデルパラメータを生成するための1組の分散型ノードを決定することであって、前記1組の分散型ノードのローカル訓練データ間の相関性が特定の相関性要求を満たし、且つ、
前記1組の分散型ノードのローカルモデルパラメータに基づいてグローバルモデルパラメータを生成することであって、前記ローカルモデルパラメータは、前記1組の分散型ノードがそれぞれのローカル訓練データに基づいて生成されるように配置される、電子機器。
【請求項2】
前記特定の相関性要求は、
前記1組の分散型ノードのローカル訓練データの収集時間の間の時間間隔が所定の時間間隔閾値よりも大きいことを含む、請求項1に記載の電子機器。
【請求項3】
前記特定の相関性要求は、
前記1組の分散型ノードのノード位置間の距離が所定の距離閾値よりも大きいことを含む、請求項1に記載の電子機器。
【請求項4】
前記特定の相関性要求は、
前記1組の分散型ノードのうちの各分散型ノードが、前記1組の分散型ノードのうちの残る分散型ノードの関連する排他領域の外に位置することを含み、各分散型ノードの関連する排他領域は、そのうちの各点と該分散型ノードとの距離が排他距離よりも小さい領域によって定義され、又は該分散型ノードとの距離が最も近い第2の所定数の分散型ノードの集合によって定義される、請求項1に記載の電子機器。
【請求項5】
前記特定の相関性要求は、
前記1組の分散型ノードのローカル訓練データの生成モデルが異なることを含む、請求項1に記載の電子機器。
【請求項6】
前記特定の相関性要求は、
前記1組の分散型ノードのローカル訓練データのデータソースが異なることを含む、請求項1に記載の電子機器。
【請求項7】
前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードを決定することは、
前記複数の分散型ノードのローカル訓練データのデータ収集情報を取得することであって、前記データ収集情報は、前記複数の分散型ノードのローカル訓練データ間の相関性を決定するために使用され得ることと、
前記複数の分散型ノードのローカル訓練データのデータ収集情報に基づいて、前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードを選択することとを含む、請求項1に記載の電子機器。
【請求項8】
前記データ収集情報は、前記ローカル訓練データの収集時間、ノード位置、生成モデル、及びデータソースのうちの1つ又は複数を含む、請求項7に記載の電子機器。
【請求項9】
前記処理回路は、さらに、
前記複数の分散型ノードのネットワーク性能パラメータを取得し、
前記複数の分散型ノードのネットワーク性能パラメータに基づいて、前記複数の分散型ノードから、グローバルモデルパラメータを生成するための前記1組の分散型ノードを選択するように配置され、前記1組の分散型ノードのネットワーク性能パラメータは、特定のネットワーク性能要求を満たす、請求項7に記載の電子機器。
【請求項10】
前記処理回路は、さらに、
前記複数の分散型ノードのローカル訓練性能パラメータを取得し、
前記複数の分散型ノードのローカル訓練性能パラメータに基づいて、前記複数の分散型ノードから、グローバルモデルパラメータを生成するための前記1組の分散型ノードを選択するように配置され、前記1組の分散型ノードのローカル訓練性能パラメータは、特定のローカル訓練性能要求を満たす、請求項7に記載の電子機器。
【請求項11】
前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードを決定することは、
前記複数の分散型ノードのうちの分散型ノードからのローカルモデルパラメータを受信することと、
第1の所定数の分散型ノードのローカルモデルパラメータを受信した後、前記第1の所定数の分散型ノードを、前記複数の分散型ノードのうち、グローバルモデルパラメータを生成するための前記1組の分散型ノードとして決定することとを含む、請求項1に記載の電子機器。
【請求項12】
連合学習に用いられる電子機器であって、処理回路を含み、前記処理回路は、
特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することであって、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータを生成するための他の分散型ノードのローカル訓練データとの相関性が、特定の相関性要求を満たし、
前記特定の分散型ノードのローカルモデルパラメータを中央処理装置に送信することであって、前記ローカルモデルパラメータは、前記特定の分散型ノードがそのローカル訓練データに基づいて生成されるように配置される、電子機器。
【請求項13】
前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することは、
前記特定の分散型ノードのローカル訓練データのデータ収集情報を前記中央処理装置に送信することであって、前記データ収集情報は、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データとの相関性を決定するために使用され得ることと、
前記中央処理装置からのローカルモデルパラメータをアップロードする指示に基づいて、前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することとを含む、請求項12に記載の電子機器。
【請求項14】
前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することは、
前記特定の分散型ノードと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データのデータ収集情報に基づいて、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データとの相関性が、特定の相関性要求を満たすと決定することと、
前記中央処理装置にローカルモデルパラメータを送信するためのチャネルリソースを取得することと、
チャネルリソースの取得に成功した後、前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することとを含む、請求項12に記載の電子機器。
【請求項15】
前記データ収集情報は、分散型ノードのノード位置を含み、且つ、
前記特定の相関性要求は、前記特定の分散型ノードが、グローバルモデルパラメータの生成に使用されることが決定された前記他の分散型ノードの関連する排他領域の外に位置することを含み、分散型ノードの関連する排他領域は、そのうちの各点と該分散型ノードとの距離が排他距離よりも小さい領域によって定義され、又は該分散型ノードとの距離が最も近い第2の所定数の分散型ノードの集合によって定義される、請求項14に記載の電子機器。
【請求項16】
前記処理回路は、さらに、
前記特定の分散型ノードのネットワーク性能パラメータ及びローカル訓練性能パラメータの一方又は両方に基づいて、チャネルリソースを取得するためのパラメータを調整し、及び/又は、
前記中央処理装置からのアップロードを停止する指示を受信すると、前記中央処理装置にローカルモデルパラメータを送信するためのチャネルリソースの取得を停止するように配置される、請求項14に記載の電子機器。
【請求項17】
前記処理回路は、さらに、
グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードの数を決定し、且つ、
前記数が第1の所定数以上である場合、前記中央処理装置にローカルモデルパラメータを送信するためのチャネルリソースの取得を停止するように配置される、請求項14に記載の電子機器。
【請求項18】
中央処理装置における連合学習に用いられる方法であって、
複数の分散型ノードのうち、グローバルモデルパラメータを生成するための1組の分散型ノードを決定することであって、前記1組の分散型ノードのローカル訓練データ間の相関性が特定の相関性要求を満たすことと、
前記1組の分散型ノードのローカルモデルパラメータに基づいてグローバルモデルパラメータを生成することであって、前記ローカルモデルパラメータは、前記1組の分散型ノードがそれぞれのローカル訓練データに基づいて生成されることとを含む、方法。
【請求項19】
特定の分散型ノードにおける連合学習に用いられる方法であって、
前記特定の分散型ノードがグローバルモデルパラメータを生成するために使用されると決定することであって、前記特定の分散型ノードのローカル訓練データと、グローバルモデルパラメータの生成に使用されることが決定された他の分散型ノードのローカル訓練データとの相関性が、特定の相関性要求を満たすことと、
前記特定の分散型ノードのローカルモデルパラメータを中央処理装置に送信することであって、前記ローカルモデルパラメータは、前記特定の分散型ノードがそのローカル訓練データに基づいて生成されることとを含む、方法。
【請求項20】
プロセッサによって実行されたときに、プロセッサに請求項18又は19に記載の方法を実行させる命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0001
【補正方法】変更
【補正の内容】
【0001】
本開示は、連合学習に用いられる電子機器方法及び記憶媒体に関する。
【国際調査報告】