IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ホアウェイ・テクノロジーズ・カンパニー・リミテッドの特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-05-12
(45)【発行日】2025-05-20
(54)【発明の名称】分散学習方法及び装置
(51)【国際特許分類】
   H04W 24/02 20090101AFI20250513BHJP
   H04W 28/18 20090101ALI20250513BHJP
   G06N 3/098 20230101ALI20250513BHJP
【FI】
H04W24/02
H04W28/18 110
G06N3/098
【請求項の数】 50
(21)【出願番号】P 2023563159
(86)(22)【出願日】2022-04-14
(65)【公表番号】
(43)【公表日】2024-04-02
(86)【国際出願番号】 CN2022086900
(87)【国際公開番号】W WO2022218386
(87)【国際公開日】2022-10-20
【審査請求日】2023-11-21
(31)【優先権主張番号】202110413617.6
(32)【優先日】2021-04-16
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】504161984
【氏名又は名称】ホアウェイ・テクノロジーズ・カンパニー・リミテッド
(74)【代理人】
【識別番号】110000877
【氏名又は名称】弁理士法人RYUKA国際特許事務所
(72)【発明者】
【氏名】ジャン、ゴンジェン
(72)【発明者】
【氏名】シュ、チェン
(72)【発明者】
【氏名】リ、ロン
(72)【発明者】
【氏名】ワン、ジアン
(72)【発明者】
【氏名】ワン、ジュン
【審査官】三枝 保裕
(56)【参考文献】
【文献】Deep Learning Based Communication Over the Air,IEEE JOURNAL OF SELECTED TOPICS IN SIGNAL PROCESSING, VOL. 12, NO. 1,2018年02月
【文献】OPPO,FS_AMMT - New use case- Distributed learning based on model parallelism,3GPP TSG SA WG1 #93e S1-210057,Internet<URL:https://www.3gpp.org/ftp/tsg_sa/WG1_Serv/TSGS1_93e_Electronic_Meeting/Docs/S1-210057.zip>,2021年03月04日
(58)【調査した分野】(Int.Cl.,DB名)
H04B 7/24- 7/26
H04W 4/00-99/00
G06N 3/098
3GPP TSG RAN WG1-4
SA WG1-4
CT WG1、4
(57)【特許請求の範囲】
【請求項1】
第1のノードに適用される分散学習方法であって、前記第1のノードがデータモデルの第1のデータモデルを有し、前記分散学習方法が:
前記第1のデータモデルを使用することによって第1のデータを処理して、第1の中間データを取得する段階;及び
第1のチャネルを通して第2のノードへと前記第1の中間データを送信する段階、ここで前記第1のチャネルは、第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新され、前記第2の中間データは、前記第1のチャネルを通した前記第2のノードへの前記第1の中間データの伝送の結果であり、前記第1のチャネルは、前記第1のノード及び前記第2のノードの間のチャネルである
を備え、
前記第1のチャネルを通して前記第2のノードへと前記第1の中間データを前記送信する段階は:
前記第1の中間データをシンボルへと変調し、前記第1のチャネルを通して前記第2のノードへと前記シンボルを送信する段階を含み、
前記変調されたシンボルの数は、前記データモデルの中間層の次元と同じである、又は、前記変調されたシンボルの数は、前記データモデルの前記中間層の前記次元の半分である、分散学習方法。
【請求項2】
前記第1のチャネルが第2のチャネル及び第3のチャネルを有し、前記分散学習方法が:
前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて、前記第2のチャネルを更新する段階
を更に備える、請求項1に記載の分散学習方法。
【請求項3】
前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて、前記第2のチャネルを更新する前記段階が:
前記第2のノードによって送信された第1の情報を受信する段階、ここで前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される;及び
前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新する段階
を有する、請求項2に記載の分散学習方法。
【請求項4】
前記第2のノードによって送信された第1の情報を受信する前記段階が:
前記第2のノードによって送信された前記第1の情報を、第4のチャネルを通して受信する段階を有する
請求項3に記載の分散学習方法。
【請求項5】
前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて、前記第2のチャネルを更新する前記段階が:
前記第1のチャネルを通して前記第2のノードから第3の信号を受信する段階、ここで前記第3の信号は、前記第1のチャネルを通して第4の信号が前記第1のノードへと伝送された後に取得される信号であり、前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む;
前記第3の信号に基づいて第1の情報を取得する段階、ここで前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される;及び
前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新する段階
を有する、請求項2に記載の分散学習方法。
【請求項6】
前記分散学習方法が:
前記第1のチャネルを通して前記第2のノードへと第1の信号を送信する段階、ここで前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものである
を更に備える、請求項1に記載の分散学習方法。
【請求項7】
前記分散学習方法が:
前記第1のチャネルを通して前記第2のノードへと第5の信号を送信する段階、ここで前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成された信号を有し、前記第3の中間データは、前記第1のチャネルを更新するためのものである
を更に備える、請求項1に記載の分散学習方法。
【請求項8】
前記分散学習方法が:
前記第1の中間データの誤差情報に基づいて前記第1のデータモデルを更新して、新しい第1のデータモデルを取得する段階
を更に備える、請求項1に記載の分散学習方法。
【請求項9】
前記分散学習方法が:
前記第2のノードによって送信された第2の情報を受信する段階、ここで前記第2の情報は、前記第1の中間データの前記誤差情報を取得するためのものである
を更に備える、請求項8に記載の分散学習方法。
【請求項10】
前記第2の情報が前記第1の中間データの前記誤差情報を含む;又は
前記第2の情報が、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである
請求項9に記載の分散学習方法。
【請求項11】
前記分散学習方法が;
前記第2のノードから第8の信号を受信する段階、ここで前記第8の信号は、チャネルを通して第7の信号が前記第1のノードへと伝送された後に取得される信号であり、前記第7の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を有する;及び
前記第8の信号に基づいて前記第1の中間データの前記誤差情報を取得する段階
を更に備える、請求項1に記載の分散学習方法。
【請求項12】
第2のノードに適用される分散学習方法であって、前記第2のノードがデータモデルの第2のデータモデルを有し、前記分散学習方法が:
第1のチャネルを通して第2の中間データを受信する段階、ここで前記第2の中間データは、第1のノードによって前記第1のチャネルを通して前記第2のノードへと送信された第1の中間データの伝送の結果であり、前記第1のチャネルは、前記第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新され、前記第1のチャネルは、前記第1のノード及び前記第2のノードの間のチャネルである;及び
前記第2のデータモデルを使用することによって前記第2の中間データを処理して、出力データを取得する段階
を備え、
前記第1のチャネルを通して前記第1のノードから前記第2の中間データを前記受信する段階は:
前記受信した第2の中間データのシンボルに対して次元照合を実行する段階を含み、
復調されたシンボルの数が、前記データモデルの中間層の次元と同じである、又は、前記第2の中間データの1つの複素数値シンボルは、2つの実数に拡張される、分散学習方法。
【請求項13】
前記第1のチャネルが第2のチャネル及び第3のチャネルを有し、前記分散学習方法が:
前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信する段階
を更に備える、請求項12に記載の分散学習方法。
【請求項14】
前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信する前記段階が:
第1の情報を前記第1のノードへと送信する段階、ここで前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される
を有する、請求項13に記載の分散学習方法。
【請求項15】
前記第1の情報を前記第1のノードへと送信する前記段階が:
第4のチャネルを通して前記第1の情報を前記第1のノードへと送信する段階
を有する、請求項14に記載の分散学習方法。
【請求項16】
前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信する前記段階が:
前記第1のチャネルを通して第4の信号を前記第1のノードへと送信する段階、ここで前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む
を有する、請求項13に記載の分散学習方法。
【請求項17】
前記分散学習方法が:
前記第1のチャネルを通して前記第1のノードから第2の信号を受信する段階、ここで前記第2の信号は第1の信号が前記第1のチャネルを通して前記第2のノードへと伝送された後に取得される信号であり、前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものである;及び
前記第2の信号に基づいて前記第1のチャネルについての前記情報を取得する段階
を更に備える、請求項12に記載の分散学習方法。
【請求項18】
前記分散学習方法が:
前記第1のチャネルを通して前記第1のノードから第6の信号を受信する段階、ここで前記第6の信号は、第5の信号が前記第1のチャネルを通して前記第2のノードへと伝送された後に取得される信号であり、前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成される信号を有し、前記第3の中間データは、前記第1のチャネルを更新するためのものである;
前記第6の信号に基づいて第3の情報を取得する段階、ここで前記第3の情報は、前記第3の中間データ及び前記第3のチャネルについての前記情報に基づいて決定される;及び
前記第3の情報及び前記第2の中間データの前記誤差情報に基づいて前記第2のチャネルを更新する段階
を更に備える、請求項13に記載の分散学習方法。
【請求項19】
前記分散学習方法が:
第2の情報を前記第1のノードへと送信する段階、ここで前記第2の情報は、前記第1の中間データの誤差情報を取得するためのものである
を更に備える、請求項12に記載の分散学習方法。
【請求項20】
前記第2の情報が前記第1の中間データの前記誤差情報を含む;又は
前記第2の情報が、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである
請求項19に記載の分散学習方法。
【請求項21】
前記分散学習方法が:
前記出力データに基づいて前記第2のデータモデルを更新して、新しい第2のデータモデルを取得する段階
を更に備える、請求項12に記載の分散学習方法。
【請求項22】
前記分散学習方法が:
第7の信号を前記第1のノードへと送信する段階、ここで前記第7の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を有する
を更に備える、請求項12に記載の分散学習方法。
【請求項23】
分散学習装置であって、前記分散学習装置がデータモデルの第1のデータモデルを備え、前記分散学習装置が処理モジュール及び送受信モジュールを備え、
前記処理モジュールが、前記第1のデータモデルを使用することによって第1のデータを処理して第1の中間データを取得するように構成されており;
前記送受信モジュールが、第1のチャネルを通して前記第1の中間データを第2のノードへと送信するように構成されており、前記第1のチャネルは、第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新され、前記第2の中間データは、前記第1のチャネルを通した前記第2のノードへの前記第1の中間データの伝送の結果であり、前記第1のチャネルは、前記分散学習装置及び前記第2のノードの間のチャネルであり、
前記第1のチャネルを通して前記第2のノードへと前記第1の中間データを前記送信することは:
前記第1の中間データをシンボルへと変調し、前記第1のチャネルを通して前記第2のノードへと前記シンボルを送信することを含み、
前記変調されたシンボルの数は、前記データモデルの中間層の次元と同じである、又は、前記変調されたシンボルの数は、前記データモデルの前記中間層の前記次元の半分である、分散学習装置。
【請求項24】
前記第1のチャネルが第2のチャネル及び第3のチャネルを有し;
前記処理モジュールが、前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて前記第2のチャネルを更新するように更に構成されている
請求項23に記載の分散学習装置。
【請求項25】
前記送受信モジュールが、前記第2のノードによって送信された第1の情報を受信するように更に構成されており、前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定され;
前記処理モジュールが、前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新するように更に構成されている
請求項24に記載の分散学習装置。
【請求項26】
前記送受信モジュールが、前記第2のノードによって送信された前記第1の情報を、第4のチャネルを通して受信するように更に構成されている
請求項25に記載の分散学習装置。
【請求項27】
前記送受信モジュールが、前記第1のチャネルを通して前記第2のノードから第3の信号を受信するように更に構成されており、前記第3の信号は、前記第1のチャネルを通して第4の信号が前記分散学習装置へと伝送された後に取得される信号であり、前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含み;
前記処理モジュールが、前記第3の信号に基づいて第1の情報を取得するように更に構成されており、前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定され;
前記処理モジュールが、前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新するように更に構成されている
請求項24に記載の分散学習装置。
【請求項28】
前記送受信モジュールが、前記第1のチャネルを通して第1の信号を前記第2のノードへと送信するように更に構成されており、前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものである
請求項23に記載の分散学習装置。
【請求項29】
前記送受信モジュールが、前記第1のチャネルを通して第5の信号を前記第2のノードへと送信するように更に構成されており、前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成される信号を含み、前記第3の中間データは前記第1のチャネルを更新するためのものである
請求項23に記載の分散学習装置。
【請求項30】
前記処理モジュールが、前記第1の中間データの誤差情報に基づいて前記第1のデータモデルを更新して、新しい第1のデータモデルを取得するように更に構成されている
請求項23に記載の分散学習装置。
【請求項31】
前記送受信モジュールが、前記第2のノードによって送信された第2の情報を受信するように更に構成されており、前記第2の情報は、前記第1の中間データの前記誤差情報を取得するためのものである
請求項30に記載の分散学習装置。
【請求項32】
前記第2の情報が前記第1の中間データの前記誤差情報を含む;又は
前記第2の情報が、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである
請求項31に記載の分散学習装置。
【請求項33】
前記送受信モジュールが、前記第2のノードから第8の信号を受信するように更に構成されており、前記第8の信号は、第7の信号がチャネルを通して前記分散学習装置へと伝送された後に取得される信号であり、前記第7の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含み;
前記処理モジュールが、前記第8の信号に基づいて前記第1の中間データの前記誤差情報を取得するように更に構成されている
請求項23に記載の分散学習装置。
【請求項34】
分散学習装置であって、前記分散学習装置がデータモデルの第2のデータモデルを備え、前記分散学習装置が処理モジュール及び送受信モジュールを備え、
前記送受信モジュールが、第1のチャネルを通して第2の中間データを受信するように構成されており、前記第2の中間データは、第1のノードによって前記第1のチャネルを通して前記分散学習装置へと送信された第1の中間データの伝送の結果であり、前記第1のチャネルは、前記第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新され、前記第1のチャネルは、前記第1のノード及び前記分散学習装置の間のチャネルであり;
前記処理モジュールが、前記第2のデータモデルを使用することによって前記第2の中間データを処理して出力データを取得するように構成されており、
前記第1のチャネルを通して前記第1のノードから前記第2の中間データを前記受信することは:
前記受信した第2の中間データのシンボルに対して次元照合を実行することを含み、
復調されたシンボルの数が、前記データモデルの中間層の次元と同じである、又は、前記第2の中間データの1つの複素数値シンボルは、2つの実数に拡張される、分散学習装置。
【請求項35】
前記第1のチャネルが第2のチャネル及び第3のチャネルを有し、前記送受信モジュールが、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信するように更に構成されている、請求項34に記載の分散学習装置。
【請求項36】
前記送受信モジュールが、第1の情報を前記第1のノードへと送信するように更に構成されており、前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される
請求項35に記載の分散学習装置。
【請求項37】
前記送受信モジュールが、第4のチャネルを通して前記第1の情報を前記第1のノードへと送信するように更に構成されている
請求項36に記載の分散学習装置。
【請求項38】
前記送受信モジュールが、前記第1のチャネルを通して第4の信号を前記第1のノードへと送信するように更に構成されており、前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む
請求項35に記載の分散学習装置。
【請求項39】
前記送受信モジュールが、前記第1のチャネルを通して第2の信号を前記第1のノードから受信するように更に構成されており、前記第2の信号は、前記第1のチャネルを通して第1の信号が前記分散学習装置へと伝送された後に取得される信号であり、前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものであり;
前記処理モジュールは、前記第2の信号に基づいて、前記第1のチャネルについての前記情報を取得するように更に構成されている
請求項34に記載の分散学習装置。
【請求項40】
前記送受信モジュールが、前記第1のチャネルを通して前記第1のノードから第6の信号を受信するように更に構成されており、前記第6の信号は、第5の信号が前記第1のチャネルを通して前記分散学習装置へと伝送された後に取得される信号であり、前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成される信号を含み、前記第3の中間データは、前記第1のチャネルを更新するためのものであり;
前記処理モジュールが、前記第6の信号に基づいて第3の情報を取得するように更に構成されており、前記第3の情報は、前記第3の中間データ及び前記第3のチャネルについての前記情報に基づいて決定され;
前記処理モジュールが、前記第3の情報及び前記第2の中間データの前記誤差情報に基づいて前記第2のチャネルを更新するように更に構成されている
請求項35に記載の分散学習装置。
【請求項41】
前記送受信モジュールが、第2の情報を前記第1のノードへと送信するように更に構成されており、前記第2の情報は、前記第1の中間データの誤差情報を取得するためのものである
請求項34に記載の分散学習装置。
【請求項42】
前記第2の情報が前記第1の中間データの前記誤差情報を含む;又は
前記第2の情報が、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである
請求項41に記載の分散学習装置。
【請求項43】
前記処理モジュールが、前記出力データに基づいて前記第2のデータモデルを更新して、新しい第2のデータモデルを取得するように更に構成されている
請求項34に記載の分散学習装置。
【請求項44】
前記送受信モジュールが、前記第1のチャネルを通して第2の信号を前記第1のノードから受信するように更に構成されており、前記第2の信号は、前記第1のチャネルを通して第1の信号が前記分散学習装置へと伝送された後に取得される信号であり、前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものであり;
前記処理モジュールは、前記第2の信号に基づいて、前記第1のチャネルについての前記情報を取得するように更に構成されている
請求項34に記載の分散学習装置。
【請求項45】
分散学習装置であって、前記分散学習装置がプロセッサを備え、前記プロセッサがメモリに結合されており;
前記メモリがコンピュータプログラムを記憶するように構成されており;
前記プロセッサが、前記メモリに記憶された前記コンピュータプログラムを実行して、前記分散学習装置が請求項1又は12に記載の分散学習方法を実行することを可能にするように構成されている
分散学習装置。
【請求項46】
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体がコンピュータプログラム又は命令を備え、前記コンピュータプログラム又は前記命令がコンピュータ上で実行されると、請求項1又は12に記載の分散学習方法が実行される、コンピュータ可読記憶媒体。
【請求項47】
請求項1又は12に記載の分散学習方法を実行するように構成された、通信装置。
【請求項48】
コンピュータプログラムであって、前記コンピュータプログラムがコンピュータ上で実行されると、請求項1又は12に記載の分散学習方法が実行される、コンピュータプログラム。
【請求項49】
請求項23に記載の分散学習装置、及び、請求項34に記載の分散学習装置を備える、通信システム。
【請求項50】
チップシステムであって、前記チップシステムがプロセッサを備え、前記プロセッサが、請求項1又は12に記載の分散学習方法を実装するよう、前記チップシステムが搭載されている装置を制御するように構成されている、チップシステム。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、2021年4月16日に中国国家知識産権局に出願された、「DISTRIBUTED LEARNING METHOD AND APPARATUS」と題される中国特許出願第202110413617.6号の優先権を主張し、これはその全体が参照により本明細書に組み込まれている。
【0002】
本願は、通信分野に関し、特に、分散学習方法及び装置に関する。
【背景技術】
【0003】
近年、人工知能(artificial intelligence,AI)技術は、マシンビジョン及び自然言語処理などの分野において顕著な発展を遂げており、様々なデバイスに適用され得るが、デバイスの能力に対して高い要件も有する。ニューラルネットワーク(neural network,NN)モデルが一例として用いられる。NNモデルでの訓練及び推論を実装するために、デバイスは、強力な計算パワーを有する必要があり、これは一部のデバイスにとっては大きな課題である。
【0004】
デバイスの能力の要件を下げるために、NNモデルは、NNモデルの特定の層又は複数の特定の層における中間ノードにおいてセグメント化されてよく、取得された複数のNNサブモデルが、訓練及び推論のために複数デバイス上に展開される。現在、順方向伝搬の中間層情報(テンソル又はベクトル)及び逆伝搬の中間層勾配情報に対してチャネルコーディングなどの操作を実行する必要があり、チャネルを通してデバイス間での伝送が実行される。この場合、エンコード及びデコード処理がリソースの大部分を占め、これによりリソースが浪費される。加えて、現在、分散学習の性能を高めることができる技術的解決手段が存在しない。
【発明の概要】
【0005】
本願は、無線通信を分散学習と組み合わせるための分散学習方法及び装置を提供し、これにより、リソースを節約することができ、無線環境における分散学習の性能を高めることができる。
【0006】
前述の目的を実現するために、以下の技術的解決手段が本願において用いられる。
【0007】
第1の態様によれば、分散学習方法が提供される。分散学習方法は第1のノードに適用され得る。前記第1のノードは第1のデータモデルを含む。分散学習方法は:前記第1のデータモデルを使用することによって第1のデータを処理して、第1の中間データを取得する段階、及び第1のチャネルを通して第2のノードへと前記第1の中間データを送信する段階を含む。前記第1のチャネルは、第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新される。前記第2の中間データは、前記第1のチャネルを通した前記第2のノードへの前記第1の中間データの伝送の結果である。前記第1のチャネルは、前記第1のノード及び前記第2のノードの間のチャネルである。
【0008】
第1の態様による分散学習方法に基づき、チャネルはデータモデルと組み合わされ、第1のノード及び第2のノードの間でデータを伝送するための第1のチャネルは、データモデルの中間層として使用され、第1のチャネルは、第2の中間データの誤差情報、第1のチャネルについての情報、及び第1の中間データに基づいて最適化される。このように、第1のチャネルの訓練により、分散学習の性能を高めることができる。加えて、通信及びコンピューティングの統合を実装するために、分散学習に対して直接機能するために無線伝送が可能となり、これにより、処理の複雑性を低下させ、リソースを更に節約することができる。
【0009】
可能な設計方式において、第1の態様による分散学習方法では、前記第1のチャネルが第2のチャネル及び第3のチャネルを含み、前記方法が、前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて、前記第2のチャネルを更新する段階を更に含んでよい。
【0010】
このように、第1のノード及び第2のノードの間の第1のチャネルが第2のチャネル及び第3のチャネルへと分割される。第2のチャネルは、制御可能な部分又は制御可能な環境であり得る。第1のチャネルにおける制御可能な部分(すなわち、第2のチャネル)を更新することにより、分散学習の性能を高めることができる。
【0011】
可能な設計方式において、前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて、前記第2のチャネルを更新する前記段階が:前記第2のノードによって送信された第1の情報を受信する段階、及び前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新する段階を含む。前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される。
【0012】
このように、分散学習の性能を高めるために、第1のチャネルの制御可能な部分(すなわち、第2のチャネル)は、第1の情報及び第1の中間データに基づいて更新される。
【0013】
任意選択で、第1のノードは、第2のノードによって送信された第1の情報を、第4のチャネルを通して受信してよい。これに応じて、第2のノードは、第4のチャネルを通して第1の情報を第1のノードへと送信してよい。すなわち、逆訓練プロセスにおける第1のノード及び第2のノードの間のチャネルは、例えば周波数ポイント又は伝送メカニズムの点で、順方向訓練プロセスにおける第1のノード及び第2のノードの間のチャネルとは異なり得る。
【0014】
例えば、第1の情報は、従来のデータ/制御チャネル上で伝送されてよく、又は、NN訓練専用の別の物理/論理チャネル上で伝送されてよい。伝送プロセスは、スパース性、量子化、及び/又はエントロピコーディングなどのデータ量を低下させる操作を含んでよく、又は、チャネルコーディングなどの伝送エラーを低下させる操作を含んでよい。
【0015】
可能な設計方式において、第1の態様による分散学習方法は、前記第1のチャネルを通して前記第2のノードへと第1の信号を送信する段階を更に含んでよい。前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものである。
【0016】
任意選択で、第1の信号はパイロット信号であってよく、第2のノードがチャネル推定を実行してチャネル情報を取得することを可能にするために、第1のノードは、パイロットを送信し、チャネルの制御可能な部分のパラメータを設定してよく、それにより、分散学習の性能を高めるために、チャネル又は第1のデータモデルを更新することができる。
【0017】
可能な設計方式において、前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて、前記第2のチャネルを更新する前記段階が:前記第1のチャネルを通して前記第2のノードから第3の信号を受信する段階;前記第3の信号に基づいて第1の情報を取得する段階;及び前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新する段階を含んでよい。前記第3の信号は、前記第1のチャネルを通して第4の信号が前記第1のノードへと伝送された後に取得される信号であり、前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む。前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される。
【0018】
このように、第1の情報は、エアインターフェースリソース上の信号の伝搬特性を使用することによって、無線による計算を通して取得され、それにより、第1のチャネル及び第1の中間データに基づいて第2のチャネルが更新され、これにより分散学習の性能を高めて、パイロットオーバヘッドを低下させることができる。
【0019】
可能な設計方式において、第1の態様による分散学習方法は、前記第1のチャネルを通して前記第2のノードへと第5の信号を送信する段階を更に含んでよい。前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成された信号を含み、前記第3の中間データは前記第1のチャネルを更新するためのものである。
【0020】
このように、チャネルの相互関係に基づき、エアインターフェースリソース上の信号の伝搬特性を用いることによって、チャネル推定を回避するために、第2のノードは、無線による計算を通して、第3の中間データ及びチャネル情報を取得することが可能になり、これによりパイロットオーバヘッドを低下させることができる。
【0021】
可能な設計方式において、第1の態様による分散学習方法は、前記第1の中間データの誤差情報に基づいて前記第1のデータモデルを更新して、新しい第1のデータモデルを取得する段階を更に含んでよい。このように、分散学習の性能を高めるために、第1のノードが第1のデータモデルを更新してよい。
【0022】
可能な設計方式において、第1の態様による分散学習方法は、前記第2のノードによって送信された第2の情報を受信する段階を更に含んでよい。前記第2の情報は、前記第1の中間データの前記誤差情報を取得するためのものである。このように、分散学習の性能を高めるために、第1のノードは、第1の中間データの誤差情報に基づいて第1のデータモデルを更新してよい。
【0023】
可能な設計方式において、前記第2の情報は前記第1の中間データの前記誤差情報を含む。代替的には、前記第2の情報は前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである。言い換えれば、第2の情報は、第2のノードによって決定されてよい。代替的には、第2の情報は無線による計算を通して取得されてよく、これによりリソースを節約することができる。
【0024】
可能な設計方式において、第1の態様による分散学習方法は:前記第2のノードから第8の信号を受信する段階;及び前記第8の信号に基づいて前記第1の中間データの前記誤差情報を取得する段階を更に含んでよい。任意選択で、前記第8の信号は、第7の信号がチャネルを通して前記第1のノードへと伝送された後に取得される信号であり、前記第7の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む。
【0025】
このように、第1のデータモデルにおける中間層の勾配の無線による計算は、無線での信号の伝搬の処理を通して実装され、これによりパイロットオーバヘッドを低下させることができる。
【0026】
第2の態様によれば、分散学習方法が提供される。分散学習方法は第2のノードに適用されてよい。第2のノードは第2のデータモデルを含む。分散学習方法は:第1のチャネルを通して第2の中間データを受信する段階;及び前記第2のデータモデルを使用することによって前記第2の中間データを処理して、出力データを取得する段階を含んでよい。前記第2の中間データは、第1のノードによって前記第1のチャネルを通して第2のノードへと送信された前記第1の中間データの伝送の結果である。前記第1のチャネルは、前記第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新される。前記第1のチャネルは、前記第1のノード及び前記第2のノードの間のチャネルである。
【0027】
任意選択で、第2のノードは、第2の中間データの誤差情報、チャネルのチャネル情報、及び第1の中間データに基づいて、新しいチャネルを決定してよい。
【0028】
可能な設計方式において、第2の態様による分散学習方法では、前記第1のチャネルが第2のチャネル及び第3のチャネルを含み、前記方法は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信する段階を更に含んでよい。
【0029】
可能な設計方式において、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信する前記段階は、第1の情報を是kに第1のノードへと送信する段階を含む。前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される。
【0030】
可能な設計方式において、第2の態様による分散学習方法は:前記第1のチャネルを通して前記第1のノードから第2の信号を受信する段階;及び前記第2の信号に基づいて前記第1のチャネルについての前記情報を取得する段階を更に含んでよい。前記第2の信号は、第1の信号が前記第1のチャネルを通して前記第2のノードへと伝送された後に取得される信号である。前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものである。
【0031】
可能な設計方式において、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信する前記段階が、前記第1のチャネルを通して第4の信号を前記第1のノードへと送信する段階を含む。前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む。
【0032】
可能な設計方式において、第2の態様による分散学習方法は:前記第1のチャネルを通して前記第1のノードから第6の信号を受信する段階;前記第6の信号に基づいて第3の情報を取得する段階;及び前記第3の情報及び前記第2の中間データの前記誤差情報に基づいて前記第2のチャネルを更新する段階を更に含んでよい。前記第6の信号は、第5の信号が前記第1のチャネルを通して前記第2のノードへと伝送された後に取得される信号である。前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成される信号を含む。前記第3の中間データは、前記第1のチャネルを更新するためのものである。前記第3の情報は、前記第3の中間データ及び前記第3のチャネルについての前記情報に基づいて決定される。
【0033】
可能な設計方式において、第2の態様による分散学習方法は、第2の情報を前記第1のノードへと送信する段階を更に含んでよい。前記第2の情報は、前記第1の中間データの前記誤差情報を取得するためのものである。
【0034】
可能な設計方式において、前記第2の情報は前記第1の中間データの前記誤差情報を含む。代替的には、前記第2の情報は前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである。
【0035】
可能な設計方式において、第2の態様による分散学習方法は、前記出力データに基づいて前記第2のデータモデルを更新して、新しい第2のデータモデルを取得する段階を更に含んでよい。
【0036】
可能な設計方式において、第2の態様による分散学習方法は、第7の信号を前記第1のノードへと送信する段階を更に含んでよい。任意選択で、前記第7の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む。
【0037】
第3の態様によれば、分散学習装置が提供される。分散学習装置は、第1のデータモデルを含む。装置は、処理モジュール及び送受信モジュールを含む。
【0038】
前記処理モジュールは、第1のデータモデルを使用することによって第1のデータを処理して、第1の中間データを取得するように構成されている。前記送受信モジュールは、第1のチャネルを通して前記第1の中間データを第2のノードへと送信するように構成されている。前記第1のチャネルは、第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新され、前記第2の中間データは、前記第1のチャネルを通した前記第2のノードへの前記第1の中間データの伝送の結果であり、前記第1のチャネルは、前記分散学習装置及び前記第2のノードの間のチャネルである。
【0039】
可能な設計方式において、前記処理モジュールは、前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて前記第2のチャネルを更新するように更に構成されている。
【0040】
可能な設計方式において、前記送受信モジュールは、前記第2のノードによって送信された第1の情報を受信するように更に構成されている。前記処理モジュールは、前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新するように更に構成されている。前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される。
【0041】
可能な設計方式において、前記送受信モジュールは、記第1のチャネルを通して前記第2のノードから第3の信号を受信するように更に構成されている。前記第3の信号は、前記第1のチャネルを通して第4の信号が前記分散学習装置へと伝送された後に取得される信号である。前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む。
【0042】
前記処理モジュールは、前記第3の信号に基づいて第1の情報を取得するように更に構成されている。前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される。
【0043】
前記処理モジュールは、前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新するように更に構成されている。
【0044】
可能な設計方式において、前記送受信モジュールは、前記第1のチャネルを通して第1の信号を前記第2のノードへと送信するように更に構成されている。前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものである。
【0045】
可能な設計方式において、前記送受信モジュールは、前記第1のチャネルを通して前記第5の信号を前記第2のノードへと送信するように更に構成されている。前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成される信号を含み、前記第3の中間データは前記第1のチャネルを更新するためのものである。
【0046】
可能な設計方式において、前記処理モジュールは、前記第1の中間データの誤差情報に基づいて前記第1のデータモデルを更新して、新しい第1のデータモデルを取得するように更に構成されている。
【0047】
可能な設計方式において、前記送受信モジュールは、前記第2のノードによって送信された第2の情報を受信するように更に構成されている。前記第2の情報は、前記第1の中間データの前記誤差情報を取得するためのものである。
【0048】
可能な設計方式において、前記第2の情報は前記第1の中間データの前記誤差情報を含む。代替的には、前記第2の情報は前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである。
【0049】
第3の態様における送受信モジュールは、受信モジュール及び送信モジュールを含み得ることに留意されたい。受信モジュールは、第2のノードからデータ及び/又はシグナリングを受信するように構成されている。送信モジュールは、データ及び/又はシグナリングを第2のノードへと送信するように構成されている。送受信モジュールの具体的な実装形態は本願において具体的に限定されない。
【0050】
任意選択で、第3の態様による分散学習装置は記憶モジュールを更に含んでよい。前記記憶モジュールは、プログラム又は命令を記憶する。前記処理モジュールが前記プログラム又は前記命令を実行すると、第3の態様による分散学習装置は、第1の態様による方法を実行することが可能になる。
【0051】
第3の態様による分散学習装置は、第1のノードであってよく、又は、例えば、第1のノード内に配置され得るチップ(システム)又は別のコンポーネント又はアセンブリであってよいことに留意されたい。これは、本願において限定されるものではない。
【0052】
加えて、第3の態様による分散学習装置の技術的効果について、第1の態様における任意の実行可能な実装形態による分散学習方法の技術的効果を参照されたい。詳細は、本明細書において再度説明されない。
【0053】
第4の態様によれば、分散学習装置が提供される。分散学習装置は、第2のデータモデルを含む。装置は、処理モジュール及び送受信モジュールを含む。
【0054】
前記送受信モジュールは、第1のチャネルを通して第2の中間データを受信するように構成されている。前記第2の中間データは、第1のノードによって前記第1のチャネルを通して前記分散学習装置へと送信された第1の中間データの伝送の結果であり、前記第1のチャネルは、前記第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新され、前記第1のチャネルは、前記第1のノード及び前記分散学習装置の間のチャネルである。
【0055】
前記処理モジュールは、前記第2のデータモデルを使用することによって前記第2の中間データを処理して出力データを取得するように構成されている。
【0056】
可能な設計方式において、前記第1のチャネルは第2のチャネル及び第3のチャネルを含む。前記送受信モジュールは、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信するように更に構成されている。
【0057】
可能な設計方式において、前記送受信モジュールは、第1の情報を前記第1のノードへと送信するように更に構成されている。前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される。
【0058】
可能な設計方式において、前記送受信モジュールは、前記第1のチャネルを通して第2の信号を前記第1のノードから受信するように更に構成されており、前記第2の信号は、前記第1のチャネルを通して第1の信号が前記分散学習装置へと伝送された後に取得される信号であり、前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものである。前記処理モジュールは、前記第2の信号に基づいて、前記第1のチャネルについての前記情報を取得するように更に構成されている。
【0059】
可能な設計方式において、前記送受信モジュールは、前記第1のチャネルを通して第4の信号を前記第1のノードへと送信するように更に構成されている。前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む。
【0060】
可能な設計方式において、前記送受信モジュールは、前記第1のチャネルを通して前記第1のノードから第6の信号を受信するように更に構成されている。前記第6の信号は、第5の信号が前記第1のチャネルを通して前記分散学習装置へと伝送された後に取得される信号であり、前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成される信号を含み、前記第3の中間データは、前記第1のチャネルを更新するためのものである。
【0061】
前記処理モジュールは、前記第6の信号に基づいて第3の情報を取得するように更に構成されている。前記第3の情報は、前記第3の中間データ及び前記第3のチャネルについての前記情報に基づいて決定される。
【0062】
前記処理モジュールは、前記第3の情報及び前記第2の中間データの前記誤差情報に基づいて前記第2のチャネルを更新するように更に構成されている。
【0063】
可能な設計方式において、前記送受信モジュールは、第2の情報を前記第1のノードへと送信するように更に構成されている。前記第2の情報は、前記第1の中間データの前記誤差情報を取得するためのものである。
【0064】
可能な設計方式において、前記第2の情報は前記第1の中間データの前記誤差情報を含む。代替的には、前記第2の情報は前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである。
【0065】
可能な設計方式において、前記処理モジュールは、前記出力データに基づいて前記第2のデータモデルを更新して、新しい第2のデータモデルを取得するように更に構成されている。
【0066】
第4の態様における送受信モジュールは、受信モジュール及び送信モジュールを含み得ることに留意されたい。受信モジュールは、第1のノードからデータ及び/又はシグナリングを受信するように構成されている。送信モジュールは、データ及び/又はシグナリングを第1のノードへと送信するように構成されている。送受信モジュールの具体的な実装形態は本願において具体的に限定されない。
【0067】
任意選択で、第4の態様による分散学習装置は、記憶モジュールを更に含んでよい。前記記憶モジュールは、プログラム又は命令を記憶する。前記処理モジュールが前記プログラム又は前記命令を実行すると、第4の態様による分散学習装置は、第2の態様による方法を実行することが可能になる。
【0068】
第4の態様による分散学習装置は、第2のノードであってよく、又は、例えば、第2のノード内に配置され得るチップ(システム)又は別のコンポーネント又はアセンブリであってよいことに留意されたい。これは、本願において限定されるものではない。
【0069】
加えて、第4の態様による分散学習装置の技術的効果について、第1の態様における任意の実行可能な実装形態による分散学習方法の技術的効果を参照されたい。詳細は、本明細書において再度説明されない。
【0070】
第5の態様によれば、分散学習装置が提供される。分散学習装置は、プロセッサを含む。前記プロセッサはメモリに結合されており、前記メモリは、コンピュータプログラムを記憶するように構成されている。
【0071】
前記プロセッサは、前記メモリに記憶された前記コンピュータプログラムを実行して、前記分散学習装置が第1の態様及び第2の態様における実行可能な実装形態による分散学習方法を実行することを可能にするように構成されている。
【0072】
可能な設計において、第5の態様による分散学習装置は、送受信機を更に含んでよい。送受信機は、送受信回路又は入力/出力ポートであってよい。送受信機は、分散学習装置が別のデバイスと通信するために構成されてよい。
【0073】
入力ポートは、第1の態様及び第2の態様に含まれる受信機能を実装するように構成されてよく、出力ポートは、第1の態様及び第2の態様に含まれる送信機能を実装するように構成されてよいことに留意されたい。
【0074】
本願において、第5の態様による分散学習装置は、第1のノード又は第2のノード、又は、第1のノード又は第2のノードの内側に配置されたチップ又はチップシステムであってよい。
【0075】
加えて、第5の態様による分散学習装置の技術的効果について、第1の態様及び第2の態様における任意の実装形態による分散学習方法の技術的効果を参照されたい。詳細は、本明細書において再度説明されない。
【0076】
第6の態様によれば、通信システムが提供される。通信システムは、第1のノード及び第2のノードを含む。
【0077】
第7の態様によれば、チップシステムが提供される。チップシステムは、プロセッサ及び入力/出力ポートを含む。プロセッサは、第1の態様及び第2の態様における処理機能を実装するように構成されており、入力/出力ポートは、第1の態様及び第2の態様における送受信機能を実装するように構成されている。具体的には、入力ポートは、第1の態様及び第2の態様に含まれる受信機能を実装するように構成されてよく、出力ポートは、第1の態様及び第2の態様に含まれる送信機能を実装するように構成されてよい。
【0078】
可能な設計において、チップシステムはメモリを更に含み、メモリは、第1の態様及び第2の態様における機能を実装するためのプログラム命令及びデータを記憶するように構成されている。
【0079】
チップシステムは、チップを含み得る、又は、チップ及び別のディスクリートコンポーネントを含み得る。
【0080】
第8の態様によれば、コンピュータプログラム又は命令を含むコンピュータ可読記憶媒体が提供される。コンピュータプログラム又は命令がコンピュータ上で実行されると、第1の態様及び第2の態様における実行可能な実装形態による分散学習方法が実行される。
【0081】
第9の態様によれば、コンピュータプログラム又は命令を含むコンピュータプログラム製品が提供される。コンピュータプログラム又は命令がコンピュータ上で実行されると、第1の態様及び第2の態様における実行可能な実装形態による分散学習方法が実行される。
【0082】
第10の態様によれば、コンピュータプログラムが提供される。コンピュータプログラムがコンピュータ上で実行されると、第1の態様及び第2の態様における任意の実装形態による方法が実行される。
【図面の簡単な説明】
【0083】
図1】本願の一実施形態による通信システムのアーキテクチャの概略図である。
【0084】
図2】本願の一実施形態による完全接続されたニューラルネットワークの概略図である。
【0085】
図3】本願の一実施形態による勾配降下の概略図である。
【0086】
図4】本願の一実施形態によるニューラルネットワーク訓練の概略図である。
【0087】
図5】本願の一実施形態によるあるタイプのニューラルネットワークのセグメント化の概略図である。
【0088】
図6】本願の一実施形態による別のタイプのニューラルネットワークのセグメント化の概略図である。
【0089】
図7】本願の一実施形態による更に別のタイプのニューラルネットワークのセグメント化の概略図である。
【0090】
図8】本願の一実施形態による分散学習方法のインタラクションの概略図である。
【0091】
図9A】本願の一実施形態による分散学習方法の適用の概略図である。
図9B】本願の一実施形態による分散学習方法の適用の概略図である。
【0092】
図10A】本願の一実施形態による別の分散学習方法の適用の概略図である。
図10B】本願の一実施形態による別の分散学習方法の適用の概略図である。
【0093】
図11A】本願の一実施形態による更に別の分散学習方法の適用の概略図である。
図11B】本願の一実施形態による更に別の分散学習方法の適用の概略図である。
【0094】
図12(a)】本願の一実施形態による別の分散学習方法のインタラクションの概略図である。
図12(b)】本願の一実施形態による別の分散学習方法のインタラクションの概略図である。
図12(c)】本願の一実施形態による別の分散学習方法のインタラクションの概略図である。
【0095】
図13】本願尾一実施形態による分散学習装置の構造の概略図である。
【0096】
図14】本願の一実施形態による別の分散学習装置の構造の概略図である。
【発明を実施するための形態】
【0097】
以下では、添付図面を参照して本願の技術的解決手段を説明する。
【0098】
本願の実施形態における技術的解決手段は、様々な通信システム、例えば、ワイヤレスフィディリティ(wireless fidelity,Wi-Fi(登録商標))システム、ビークルツーエヴリシング(vehicle to everything,V2X)通信システム、デバイスツーデバイス(device-to-device,D2D)通信システム、車両のインターネット(Internet of vehicles)通信システム、短距離無線通信システム、衛星通信システム、狭帯域のモノのインターネット(NarrowBand-Internet of Things,NB-IoT)システム、ロングタームエボリューション(long-term evolution,LTE)システム、第5世代(5th generation,5G)モバイル通信システム、例えば新無線(new radio,NR)システム、及び将来の通信システム、例えば第6世代(6th generation,6G)モバイル通信システムに適用され得る。本願の実施形態における技術的解決手段は、以下の適用シナリオに適用され得る:エンハンスドモバイルブロードバンド(enhanced mobile broadband,eMBB)、URLLC(超高信頼低遅延通信、ultra-reliable low-latency communication,URLLC)、及びエンハンスドマシンタイプ通信(enhanced machine-taipu communication,eMTC)。
【0099】
全ての態様、実施形態、又は特徴は、本願において、複数のデバイス、コンポーネント、モジュール等を含んでよいシステムを説明することによって提示される。各システムは、別のデバイス、コンポーネント、モジュール等を含んでよい、及び/又は、添付図面を参照して説明される全てのデバイス、コンポーネント、モジュール等を含まなくてよいことが明白に理解されよう。加えて、これらの解決手段の組み合わせが用いられてよい。
【0100】
加えて、本願の実施形態において、「例」及び「例えば」などの用語は、一例、例示、又は説明を与えることを表す。本願において「例」として説明されたどの実施形態又は設計方式も、別の実施形態又は設計方式より好ましい、又はより多くの利点を有していると説明されるべきではない。厳密には、「例」という用語の使用は、具体的な様式で概念を提示することを意図している。
【0101】
本願の実施形態において説明されるネットワークアーキテクチャ及びサービスのシナリオは、本願の実施形態における技術的解決手段をより明確に説明することを意図しているが、本願の実施形態において提供される技術的解決手段に対していかなる限定も構成するものではない。当業者は、本願の実施形態において提供される技術的解決手段が、ネットワークアーキテクチャが深化し、新しいサービスシナリオが出現するにつれて、同様の技術的課題にも適用できることを学習し得る。
【0102】
本願の実施形態の理解を容易にするために、以下では、図1に示される通信システムを一例として用いることによって、本願の実施形態に適用できる通信システムについて詳細に説明する。例えば、図1は、本願の一実施形態による分散学習方法を適用できる通信システムのアーキテクチャの概略図である。
【0103】
通信システムは、第1のノード及び第2のノードを含む。第1のノードは端末デバイスであってよく、第2のノードはネットワークデバイスであってよい。代替的には、第1のノードがネットワークデバイスであってよく、第2のノードが端末デバイスであってよい。代替的には、第1のノードが端末デバイスであってよく、第2のノードが端末デバイスであってよい。図1に示されるように、通信システムは端末デバイスを含み、1つ又は複数の端末デバイスがあってよい。通信システムは、ネットワークデバイスを更に含んでよい。
【0104】
ネットワークデバイスは、通信システムのネットワーク側に位置して無線送受信機能を有するデバイス、又は、デバイス内に配置され得るチップ又はチップシステムである。ネットワークデバイスは、ワイヤレスフィディリティ(wireless fidelity,Wi-Fi)システムにおけるアクセスポイント(access point,AP)、例えば、ホームゲートウェイ、ルータ、サーバ、スイッチ、又はブリッジ、進化型ノードB(evolved NodeB,eNB)、無線ネットワークコントローラ(radio network controller,RNC)、ホーム基地局(例えば、ホーム進化型ノードB又はホームノードB(home NodeB,HNB))、無線中継ノード、無線バックホールノード、又は伝送ポイント(送受信ポイント(transmission and reception point,TRP)又はtransmission point,TP)を含むがこれらに限定されない、又は、5GにおけるgNB又は伝送ポイント(TRP又はTP)、例えば、NRシステム、又は、5Gシステムにおける基地局の1アンテナパネル又はアンテナパネルのグループ(複数のアンテナパネルを含む)であってよく、又は、gNB又は伝送ポイントを形成するネットワークノード、例えば、基地局機能などを有するベースバンドユニット(base band unit,BBU)、分散ユニット(distributed unit,DU)、路側ユニット(road side unit,RSU)であってよい。ネットワークデバイスは、代替的には、クラウド型無線アクセスネットワーク(cloud radio access network,CRAN)シナリオにおける無線コントローラ、又は将来の進化型公衆陸上移動体ネットワーク(public land mobile network,PLMN)におけるネットワークデバイス、又はウェアラブルデバイス又は車載デバイスであってよく、デバイスツーデバイス(device-to-device,D2D)、ビークルツーエヴリシング(vehicle-to-everything,V2X)、マシンツーマシン(machine-to-machine,M2M)通信、又はモノのインターネット(Internet of Things)通信における基地局として機能するデバイスを更に含む。
【0105】
端末デバイスは、通信システムにアクセスし、無線送受信機能を有する端末、又は、端末内に配置され得るチップ又はチップシステムである。端末デバイスはまた、ユーザ機器(User Equipment,UE)、ユーザ装置、アクセス端末、加入者ユニット、加入者局、モバイルコンソール、移動局(mobile station,MS)、リモート局、リモート端末、モバイルデバイス、ユーザ端末、端末、端末ユニット、端末局、端末装置、無線通信デバイス、ユーザエージェント、又はユーザ装置と称され得る。例えば、本願の実施形態における端末デバイスは、携帯電話(mobile phone)、無線データカード、パーソナルデジタルアシスタント(personal digital assistant,PDA)コンピュータ、ラップトップコンピュータ(laptop computer)、タブレットコンピュータ(Pad)、無線送受信機能を有するコンピュータ、マシンタイプ通信(machine-type communication,MTC)端末、仮想現実(virtual reality,VR)端末デバイス、拡張現実(augmented reality,AR)端末デバイス、モノのインターネット(Internet of Things,IoT)端末デバイス、産業用制御(industrial control)における無線端末、無人運転(自己運転)における無線端末、遠隔医療(remote medical)における無線端末、スマートグリッド(smart grid)における無線端末、輸送安全性(transpotation safety)における無線端末、スマートシティ(smart city)における無線端末、スマートホーム(smart home)における無線端末(例えば、ゲームコンソール、スマートテレビ、スマートスピーカー、スマート冷蔵庫、及びフィットネス装置)、車載端末、又は、端末機能を有するRSUであってよい。アクセス端末は、携帯電話(cellular phone)、コードレス電話、セッション開始プロトコル(session initiation protocol,SIP)電話、無線ローカルループ(wireless local loop,WLL)局、パーソナルデジタルアシスタント(personal digital assistant、PDA)、無線通信機能を有するハンドヘルドデバイス(ハンドセット)、コンピューティングデバイス、無線モデムに接続された別の処理デバイス、又はウェアラブルデバイスなどであってよい。別の例として、本願の実施形態における端末デバイスは、スマート物流における速達端末(例えば、物品を運搬している車両の位置を監視することができるデバイス、又は物品の温度及び湿度を監視することができるデバイス)、スマート農業における無線端末(例えば、家畜及び家禽類の関連データを収集することができるウェアラブルデバイス)、スマートビルにおける無線端末(例えば、スマートエレベータ、火災監視デバイス、及びスマートメーター)、スマート医療における無線端末(例えば、人又は動物の生理学的ステータスを監視することができるウェアラブルデバイス)、インテリジェント輸送における無線端末(例えば、スマートバス、スマート車両、シェア自転車、充電パイル監視デバイス、スマート信号機、スマート監視デバイス、及びスマート駐車デバイス)、又はスマート小売業における無線端末(例えば、自動販売機、セルフレジ機、及び無人コンビニエンスストア)であってよい。別の例として、本願における端末デバイスは、車載モジュール、車載モジュール、車載コンポーネント、車載チップ、又は、1つ又は複数のコンポーネント又はユニットとして車両内に構築された車載用ユニットであってよい。車両は、車載モジュール、車載モジュール、車載コンポーネント、車載チップ、又は車載用ユニットを通して、本願において提供される分散学習方法を実装し得る。
【0106】
本願の実施形態において提供される分散学習方法は、図1に示されるいずれか2つのノード間で、例えば、端末デバイス間、及び端末デバイス及びネットワークデバイスの間に適用され得ることに留意されたい。具体的な実装については、以下の方法の実施形態を参照されたい。詳細は、本明細書において再度説明されない。
【0107】
本願の実施形態における解決手段は、別の通信システムに更に適用されてよく、対応する名称も、別の通信システムにおける対応する機能の名称で置き換えられ得ることに留意されたい。
【0108】
図1は、理解を容易するための一例の簡略化された概略図に過ぎないことが理解されるべきである。通信システムは、図1に示されていない別のデバイスを更に含んでよい。
【0109】
加えて、当業者は、ネットワークアーキテクチャの進化及び新しいサービスシナリオの出現に伴い、本願の実施形態において提供される技術的解決手段が、同様の技術的課題にも適用できることを学習し得る。
【0110】
本願の実施形態をより明確にするために、以下では、本願の実施形態に関連する一部のコンテンツ及び概念を併せて説明する。
【0111】
1.ニューラルネットワーク
【0112】
ニューラルネットワークは、学習、要約、及び結論を実行することができるアルゴリズムネットワークであり、ニューラルネットワークソフトウェア又はハードウェア、例えば、ニューラルネットワークの訓練プログラム又は実行可能スクリプトの形態でコンピューティングノード内に構築され得る。一般的に、ディープニューラルネットワーク(deep neural network,DNN)モデルを一例として用いる。DNNモデルは、ニューロン(オペレータ)の複数の層を含む。各層は、複数の入力及び複数の出力を有する。入力又は出力は、多次元アレイであり、テンソル(tensor)とも称される。各層は、1つ又は複数の、重みと称される重み付け値を有する。固有値とも称される、特定の層の出力結果は、入力及び層の重みの乗算などの数学演算の結果に等しく、通常、行列の乗算演算に関連する。
【0113】
完全接続されたニューラルネットワークはニューラルネットワークであり、完全接続されたニューラルネットワークは、多層パーセプトロン(multi-layer perceptron,MLP)とも称される。1つのMLPは1つの入力層、1つの出力層、及び複数の隠れ層(中間層とも称される)を含み、各層は複数のニューロンを含む。ニューロンの2つの隣接する層に含まれるニューロンは、図2に示されるように、対になって接続される。
【0114】
ニューロンの2つの隣接する層について、下位層におけるニューロンの出力hは、下位層におけるニューロンに接続される上位層にある全てのニューロンxの加重和であり、活性化関数を通過する。行列は、以下の式:h=f(w×x+b)として表され得、ここで、wは重み行列であり、bは偏位ベクトルであり、f()は活性化関数である。その後、ニューラルネットワークの出力yは、y=f(w×ft-1(...)+b)として再帰的に表され得、ここで、tは、完全接続されたニューラルネットワークに含まれるニューロンの層の数である。
【0115】
2.ニューラルネットワーク訓練
【0116】
ニューラルネットワークは、入力データのセット及び出力データのセットの間のマッピング関係として理解されてよい。一般的に、ニューラルネットワークは、ランダムに初期化されてよく、既存のデータを使用することによって乱数w及び乱数bに基づくマッピング関係を取得するプロセスは、ニューラルネットワーク訓練と称され得る。
【0117】
例えば、訓練様式は、損失関数(loss function)を使用することによってニューラルネットワークの出力データを評価して、誤差情報を取得し、逆伝搬することを含む。図3に示されるように、重み行列w及び偏位ベクトルbは、勾配降下方法によって反復的に最適化され得、最適w及び最適bは、損失関数の値が最小値に達したときに取得され得る。
【0118】
例えば、勾配降下プロセスは、式(1)として表現され得る。
【数1】
【0119】
パラメータ(例えば、重みw及び偏位b)は、前述の式(1)を使用することによって最適化され得る。前述の式(1)において、θ′は、最適化の後のパラメータの値(更新された値とも称され得る)であり、θは、最適化の前のパラメータの値であり、Lは損失関数であり、ηは、学習率であり、勾配降下のストライドを制御するためのものであってよく、数学的シンボル←は、右側から左側に割り当てることを示す。
【0120】
図4を参照すると、逆伝搬プロセスにおいて、偏導関数を取得するための連鎖律が使用されてよく、具体的には、前の層(層j)におけるニューロンのパラメータの勾配は、次の層におけるニューロン(層i)のパラメータの勾配から再帰によって、以下の式(2)のように計算され得る。
【数2】
【0121】
前述の式(2)において、Lは損失関数であり、は、wijは、ニューロンi及びニューロンjの結合の重みであり、sは、ニューロンiに対する入力の加重和であり、すなわち、
【数3】
であり、
【数4】
は、層jの次の層(層i)から層jへと移行された勾配
【数4】
であり、
【数4】
は、中間層勾配と称されてよく、すなわち、層iは中間層としてみなされてよい。
【0122】
3.ニューラルネットワークのセグメント化
【0123】
ニューラルネットワークのセグメント化:ニューラルネットワークは、ノードの計算パワー及び通信能力に基づいて特定の中間層において複数のサブニューラルネットワークへとセグメント化され、サブニューラルネットワークは、複数のノード上でそれぞれ展開される。
【0124】
図5を参照すると、第1のデータモデル及び第2のデータモデルは、中間層においてデータモデルがセグメント化された後に取得される。訓練又は推論の順方向プロセスにおいて、第1のノードは、第1のデータモデルを使用することによって入力データを処理して中間データを取得し、チャネルを通して中間データを第2のノードへと伝送する。その後、第2のノードは、第2のデータモデルを使用することによって中間データを処理して、出力データを取得する。訓練の逆方向プロセスにおいて、第2のノードは、出力データに基づいて第2のデータモデルの誤差情報を決定し、第2のデータモデルのパラメータを更新し、第2のデータモデルの誤差情報を第1のノードへと送信する。第1のノードは、第2のデータモデルの誤差情報に基づいて第1のデータモデルの誤差情報を決定し、第1のデータモデルのパラメータを更新する。
【0125】
4.第1のデータモデルのパラメータ、第2のデータモデルのパラメータ、第1のチャネルのパラメータ、及び第1のチャネルについての情報
【0126】
第1のデータモデルのパラメータ:第1のデータモデルのパラメータθは、第1のデータモデルに対応する重み及び/又は偏位であり得る。
【0127】
第2のデータモデルのパラメータ:第2のデータモデルのパラメータθは、第2のデータモデルに対応する重み及び/又は偏位であり得る。
【0128】
本願の本実施形態において、第1のチャネルは制御可能な部分を含んでよく、制御不能な部分を更に含んでよい。制御可能な部分は制御可能な環境を含んでよく、制御不能な部分は、2つのノード間の制御不能な環境を含んでよい。代替的には、第1のチャネルは、制御可能な部分によって影響を受けた訓練可能なチャネルを含んでよく、制御不能な部分によって形成された直通チャネルを更に含んでよい。
【0129】
制御可能な環境:無線チャネル環境を調整するために、制御可能ユニットが環境内に展開される。
【0130】
例えば、制御可能ユニットは、中継、分散アンテナ、又は能動的なインテリジェント反射面などの能動デバイスを含んでよい。代替的には、制御可能ユニットは、受動的案インテリジェント反射面などの受動デバイスを含んでよい。
【0131】
図6又は図7を参照すると、第1のチャネルは第2のチャネルを含んでよく、第3のチャネルを更に含んでよい。本願の実施形態において、制御可能な部分、又は制御可能な部分によって影響を受けた訓練可能なチャネルは、第2のチャネルと称され、制御不能な部分、又制御不能な部分によって形成されたチャネルは、第3のチャネルと称される。
【0132】
図6は、本願の一実施形態による分散学習方法の適用の概略図である。図7は、本願の一実施形態による別の分散学習方法の適用の概略図である。図6又は図7に示されるように、第1のノードは第1のデータモデルを含み、第2のノードは第2のデータモデルを含み、第1のノードは第1のチャネルを通して第2のノードと通信する。図6は、主に、第1のチャネルの表示形態が異なっている点で図7と異なる。
【0133】
例えば、第1のチャネルは、制御可能な部分及び制御不能な部分を含み、又は、第1のチャネルは、制御可能な部分によって影響を受けた訓練可能なチャネル及び制御不能な部分によって形成されたチャネルを含む。図6及び図7を参照すると、第1のノード及び第2のノードの間の第1のチャネルは、g×Φ×g+h又は
【数5】
として表されてよく、ここで、g、g、及びhは、制御不能な部分の関連情報又は制御不能な部分によって形成されたチャネルの関連情報であり、gは、第1のノードから制御可能な部分までのチャネル(又は、制御可能な環境又は制御可能な部分によって影響を受けた訓練可能なチャネルと称される)、gは、第2のノードから制御可能な部分までのチャネル(制御可能な環境又は制御可能な部分によって影響を受けた訓練可能なチャネルと称される)であり、hは、第1のノードから第2のノードまでの直通チャネルである。Nは、次元、例えば、中間層として機能する第1のチャネルの制御可能ユニット(例えば、制御可能な環境又は制御可能な部分)の数である。Φは、制御可能な部分のパラメータ又は制御可能な部分によって影響を受けた訓練可能なチャネルのパラメータであり、Φは、制御可能な部分の応答であり得る(又は、制御可能な環境又は制御可能な部分によって影響を受けた訓練可能なチャネルと称される)。例えば、Φは、振幅及び位相効果などを含んでよい。
【0134】
例えば、制御可能な部分の応答Φのn番目の要素は、式(3)として表され得る。
【数6】
ここで、βは応答の振幅であり、eは自然数の定数であり、eは、2.71828におおよそ等しく、ψは、応答の位相であり、jは虚数単位であり、j=-1である。
【0135】
本願の実施形態において、第1のチャネルのパラメータは、以下の、g、g、h、及びΦのうちの1つ又は複数を含んでよい。第2のチャネルのパラメータは、Φを含んでよい。第1のチャネルについての情報は、g、g、h、及びΦのうちの1つ又は複数に基づいて取得された情報を含んでよい。第3のチャネルについての情報は、g、g、及びhのうちの1つ又は複数に基づいて取得された情報を含んでよい。
【0136】
従来技術において、通信伝送は、無損失伝送のために設計されている。情報誤差のない伝送を確実にするために、順方向プロセス及び逆方向プロセスにおいて、第1のノード及び第2のノードの間で伝送される情報に対してチャネルのエンコードを実行する必要があり、受信した情報をデコードする必要がある。
【0137】
研究を通して出願者は、ニューラルネットワークのランダムな勾配降下によって表される、ニューラルネットワーク及び訓練方法の過剰パラメータ(すなわち、パラメータの数が訓練サンプルの数より大きいこと)の特性により、ニューラルネットワークが良好な誤差耐性能力を有することを可能にすることを発見した。したがって、分散学習プロセスにおいて、情報の無損失伝送のための要件は低い。しかしながら、エンコード及びデコード処理がリソースの大部分を占め、これによりリソースが浪費される。通信からニューラルネットワークの学習を分離させる設計により、無線リソース利用の冗長性がもたらされる。加えて、この解決手段は、分散学習の性能を高めることができない。
【0138】
リソースを節約することができるように、及び、分散学習の性能を高めることができるように、本願は、チャネルを分散学習と組み合わせ、チャネルをニューラルネットワークの一部として扱うことによってチャネル及びニューラルネットワークに対して共同訓練を実行することを提案する。
【0139】
本願の実施形態において提供される分散学習方法は、複数の波形システム、例えば、シングルキャリア、離散フーリエ変換拡散直交周波数分割多重化(discrete Fourier transform spread OFDM,DFT-s-OFDM)システム、サイクリックプレフィックス直交周波数分割多重化(cyclic prefix OFDM,SC-OFDM)システム、及び直交時間-周波数空間(orthogonal time-frequency space,OTFS)システムに適用され得る。システムの無線チャネル応答は、線形システムとしてモデル化されてよい。システム間の主な違いは、リソースが異なることである。例えば、シングルキャリアは、時間ドメインにおけるシンボルを定義し、OTFSなどは、シンボルに対して更なる線形変換を実行するものとみなされ得る。
【0140】
本願の実施形態において提供される分散学習方法は、1つ又は複数のアンテナを有するシナリオに適用でき、ニューロン及びアンテナの間のマッピング(すなわち、プレコード)も線形変換である。
【0141】
本願の実施形態において提供される分散学習方法は、単一のAIタスク及びマルチタスクマルチビューシナリオに適用できる。マルチタスクシナリオにおいて、複数の推論タスクのために構成された複数の第2のデータモデルがあってよい。複数の第2のデータモデルは、別々に更新される。第1のデータモデル及び制御可能な環境は、複数の第2のデータモデルの中間層誤差情報を統合する(例えば、重み付けする)ことによって更新される必要がある。マルチビューシナリオにおいて、第2のデータモデルの後続の推論のための異なるビューのデータを処理するように構成された複数の第1のデータモデルがあってよい。制御可能な環境の更新は、複数の第1のデータモデルの中間層推論出力の伝送方式に関連する。例えば、直交/非直交多元接続が用いられる場合、複数の第1のデータモデルが別々に更新されてよい。本願の実施形態において提供される分散学習方法は、分散学習方法が単一のAIタスクに適用されている一例を用いることによって説明される。
【0142】
この解決手段の技術的解決手段は、マルチホップネットワークシナリオ、すなわち、ニューラルネットワークが3つ以上にセグメント化されている場合に適用されてよい。
【0143】
以下では、図8図12(a)及び図12(b)を参照して、本願の実施形態において提供される分散学習方法について詳しく説明する。図9A図11Bは、本願の一実施形態による分散学習方法の適用の概略図である。図8図12(a)、図12(b)、及び図12(c)に示される方法が説明されるとき、図9A図11Bのコンテンツが例として説明される。
【0144】
例えば、図8は、本願の一実施形態による分散学習方法のインタラクションの概略図である。OFDMシステムが説明のための一例として用いられている。分散学習方法は、図1に示される任意の2つのノード間の通信に適用されてよい。
【0145】
図8に示されるように、分散学習方法は以下の段階を含む。
【0146】
S801:第1のノードが、第1のデータモデルを使用することによって第1のデータを処理して、第1の中間データを取得する。
【0147】
例えば、第1のノードは第1のデータモデルを含み、第1のデータモデルは、第1のノード内に構築される。
【0148】
例えば、第1のデータモデルはニューラルネットワークソフトウェアであってよい。第1のデータモデルは、ニューラルネットワークソフトウェア又はハードウェア、例えば、ニューラルネットワークの訓練プログラム又は実行可能スクリプトの形態で第1のノード内に構築されてよい。
【0149】
任意選択で、第1のデータは、訓練サンプルにおけるデータ又は推論中のデータであってよい。S801は、訓練プロセス又は推論プロセスに適用されてよい。
【0150】
図6又は図7を参照すると、第1のノードは、第1のデータモデルに基づいて第1のデータxを処理して、第1の中間データzを出力する。
【0151】
図9A図11Bにおける段階(a)を参照すると、第1のデータはxであり、第1のノードは、パラメータがθである第1のデータモデルを使用することによってxを処理して、
【数7】
を取得し、ここで、
【数8】
は、パラメータがθであるニューラルネットワークモデルである。
【0152】
S802:第1のノードが、第1のチャネルを通して第1の中間データを第2のノードへと送信する。これに応じて、第2のノードが、第1のチャネルを通して第2の中間データを第1のノードから受信する。
【0153】
例えば、第2の中間データは、第1のチャネルを通した第2のノードへの第1の中間データの伝送の結果である。
【0154】
図6又は図7を参照すると、第1のノードは、第1のチャネルを通して第1の中間データzを送信し、第1の中間データzが第1のチャネルを通過した後に、第2の中間データcが出力され、第2のノードが第2の中間データcを受信する。
【0155】
いくつかの実施形態において第2のノードは、第1のチャネル(例えば、g×Φ×g+h)を通して第1のノードから第1の中間データ(例えば、
【数9】
)を受信して、第2の中間データ
【数10】
を取得し、ここで、kはノイズである。他のシンボルの意味については、第1のチャネルのパラメータの前述の説明を参照されたい。詳細は、本明細書において再度説明されない。
【0156】
図9A図11Bにおける段階(b)を参照すると、第2のノードは、第1のチャネル(例えば、
【数5】
)を通して第1のノードから第1の中間データ(例えば、
【数9】
)を受信して、第2の中間データ
【数11】
を取得し、ここで、kはノイズであり、Nは、中間層として機能する第1のチャネルの次元(例えば、チャネルの制御可能な環境、チャネルの制御可能な部分、又はチャネルの制御可能な部分によって影響を受けた訓練可能なチャネル)である。他のシンボルの意味については、第1のチャネルのパラメータの前述の説明を参照されたい。詳細は、本明細書において再度説明されない。
【0157】
例えば、第1のチャネルは、第2の中間データの誤差情報、第1のチャネルについての情報、及び第1の中間データに基づいて更新される。
【0158】
任意選択で、第2の中間データの誤差情報は、第2の中間データの勾配、又は第2の中間データの勾配の規格化値を含んでよい。
【0159】
任意選択で、第1のチャネルについての情報は、以下の:g、g、h、及びΦのうちの1つ又は複数を含んでよい。
【0160】
第1のチャネルを更新する具体的な実装形態については、図12(a)、図12(b)、及び図12(c)に示されるS1202a及びS1202bを参照されたい。詳細は、本明細書において再度説明されない。
【0161】
本願の本実施形態において、第1のノード及び第2のノードの間のチャネル(すなわち、第1のチャネル)が訓練され、DNNにより要求されるフィルタリング又は特徴抽出などの機能を無線伝送プロセスにおいて実装することができるように、チャネルは、訓練及び推論に関与するデータモデルの中間層(例えば、残留層)として使用され、これにより、分散学習の性能を高めることができる。加えて、分散学習に対して直接機能するために無線伝送が可能となり、これにより、処理の複雑性を低下させ、リソースを更に節約することができる。
【0162】
任意選択で、第1のデータモデルのパラメータの値は、以前の訓練の後に取得された値である。第1のチャネルのパラメータの値は、以前の訓練の後に取得された値である。
【0163】
すなわち、順方向訓練プロセス又は推論プロセスにおいて、第1のデータモデルのパラメータの値は、以前の訓練の後に更新された値又は初期値(例えば、第1のデータモデルが訓練されていない)であってよく、第1のチャネルのパラメータの値は、以前の訓練の後に更新された値又は初期値(例えば、第1のチャネルが訓練されていない)であってよい。
【0164】
いくつかの実施形態において、S802では、第1のノードが第1のチャネルを通して第1の中間データを第2のノードへと送信することは:第1のノードが第1の中間データをシンボルへと変調し、第1のチャネルを通してシンボルを第2のノードへと送信することを含んでよい。
【0165】
例えば、第1のノードは、第1の中間データをエアインターフェースリソースにマッピングし、第1の中間データを第2のノードへと送信してよい。このように、チャネルのエンコード及びデコードがデータ伝送プロセスでは要求されず、リソースを節約することができる。
【0166】
例えば、変調されたシンボルの数がデータモデルの中間層の次元と同じである。
【0167】
例えば、シンボルの値及び中間層の値は、以下の式:s=z又はs=W×zを満たしてよく、すなわち、シンボルの値及び中間層の値の間で特定の線形変換が満たされ、ここで、sはシンボルの値であり、zは中間層の値であり、Wは線形変換行列である。これは、データモデルが複雑なデータモデルである、すなわち、ニューラルネットワークが複雑なニューラルネットワークである場合に対応し得る。以下では、説明のための一例としてs=zを用いる。
【0168】
図6又は図7を参照すると、データモデルの中間層の次元が4である場合、シンボルの数も4である。
【0169】
別の例として、変調されたシンボルの数は、データモデルの中間層の次元の半分である。言い換えれば、2つのニューロンの出力が複素数値シンボルを形成する、又は、シンボルの値及び中間層の値の間で特定の線形変換が満たされ得る。
【0170】
例えば、シンボルの値及び中間層の値の間で以下の式:
【数12】
が満たされてよく、ここで、sはシンボルiの値であり、i及びiは、中間層におけるi番目の要素及びi番目の要素を表し、jは定数であり、j=-1である。
【0171】
いくつかの実施形態において、S802で第2のノードが第1のチャネルを通して第2の中間データを第1のノードから受信することは:第2のノードが、受信した第2の中間データのシンボルに対して次元照合を実行することを含んでよい。
【0172】
このように、第2のノードは、データを受信するプロセスにおいてデコードを実行する必要がなく、これによりリソースを節約することができる。
【0173】
任意選択で、第2のノードは、データモデルが複雑なデータモデルであるかどうかに応じて次元照合を実行してよい。
【0174】
例えば、復調されたシンボルの数が、データモデルの中間層の次元と同じである。これは、データモデルが複雑なデータモデルである場合に対応する。
【0175】
別の例として、第2の中間データの1つの複素数値シンボルは、2つの実数に拡張される。これは、データモデルが現実のデータモデルである場合に対応する。
【0176】
データモデルが複雑なデータモデルであるかどうかに応じて第2のノードが次元照合を実行する具体的な実装形態は、第1のノードが第1の中間データをシンボルに変調し、第1のチャネルを通してシンボルを第2のノードへと送信する、対応する実装形態と同様であり、詳細は、本明細書において再度説明されないことに留意されたい。
【0177】
第2のノードが、受信した第2の中間データのシンボルに対して次元照合を実行することは、第2のノードの第2のデータモデルが第2の中間データを処理する前に実行され、例えば、S803の前に実行され得ることに留意されたい。
【0178】
S803:第2のノードが、第2のデータモデルを使用することによって第2の中間データを処理して、出力データを取得する。
【0179】
例えば、第2のノードは第2のデータモデルを含む。第1のデータモデルと同様に、第2のデータモデルは第2のノード内に構築されてよい。
【0180】
例えば、第2のデータモデルは、ニューラルネットワークソフトウェアであってよく、ニューラルネットワークソフトウェア又はハードウェア、例えば、ニューラルネットワークの訓練プログラム又は実行可能スクリプトの形態で第2のノード内に構築されてよい。
【0181】
いくつかの実施形態において、第2のノードは、パラメータがθである第2のデータモデルを使用することによって第2の中間データ
【数10】
を処理して、出力データ
【数13】
を取得し、ここで、
【数14】
は、パラメータがθであるニューラルネットワークモデルであり、kはノイズである。他のシンボルの意味については、第1のチャネルのパラメータの前述の説明を参照されたい。詳細は、本明細書において再度説明されない。
【0182】
図9A図11Bにおける段階(c)を参照すると、一例として第2のノードのアンテナを使用して、第2のノードは、パラメータがθである第2の中間データを使用することによって第2のデータモデル
【数15】
を処理し、取得した出力データは、
【数16】
であり得、ここで、Nは、中間層として機能する第1のチャネル(例えば、チャネルの制御可能な環境、チャネルの制御可能な部分、又はチャネルの制御可能な部分によって影響を受けた訓練可能なチャネル)の次元であり、Nは、0より大きい整数である。
【0183】
いくつかの実施形態において、パラメータがθである第2のデータモデルを使用することによって、第2のノードのM個のアンテナが第2の中間データ
【数17】
を処理し、取得した出力データは、
【数18】
であり得、ここで、Nは、中間層として機能するチャネル(例えば、チャネルの制御可能な環境、チャネルの制御可能な部分、又はチャネルの制御可能な部分によって影響を受けた訓練可能なチャネル)の次元であり、ここで、Nは、0より大きい整数であり、Mは、第2のノードに含まれるアンテナの数であり、mは、1より大きい又はそれに等しい整数である。
【0184】
任意選択で、第2のノードの第2のデータモデルのパラメータθの値は、以前の訓練の後に更新された値であってよい。
【0185】
すなわち、順方向訓練プロセス又は推論プロセスにおいて、第2のデータモデルのパラメータの値は、以前の訓練の後に更新された値又は初期値(例えば、第2のデータモデルが訓練されていない)であってよい。
【0186】
前述の分散学習方法を使用することによって、チャネルはデータモデルと組み合わされ、第1のノード及び第2のノードの間でデータを伝送するための第1のチャネルは、データモデルの中間層として使用され、第1のチャネルは訓練される。第1のチャネルは、第2の中間データの誤差情報、第1のチャネルについての情報、及び第1の中間データに基づいて最適化され、これにより分散学習の性能を高めることができる。加えて、通信及びコンピューティングの統合を実装するために、分散学習に対して直接機能するために無線伝送が可能となり、これにより、処理の複雑性を低下させ、リソースを更に節約することができる。
【0187】
S801~S803は、順方向訓練プロセス又は推論プロセスであり得ることに留意されたい。任意選択で、推論プロセスにおいて、第2のノードは、取得した出力データを第1のノードにフィードバックしてよい。
【0188】
任意選択で、第2のノードは、出力結果に基づいて損失関数を決定してよい。
【0189】
例えば、損失関数は、以下の式:
【数19】
として表され得、ここで、ylabelは、第1のデータxに対応するラベルであり、yは出力結果であり、errorは損失関数であり、errorは、分散DNNのタスクに関連する。例えば、分類タスクとの対応関係において、errorは交差エントロピーであってよく;回帰タスクとの対応関係において、errorは平均二乗誤差であってよい。
【0190】
可能な設計方式において、本願の実施形態において提供される分散学習方法は、S1201、S1202a、S1202b、及びS1203~S1207を含む、図12(a)、図12(b)、及び図12(c)に示されるような逆訓練プロセスを更に含んでよい。図12(a)、図12(b)、及び図12(c)に示される分散学習方法は、図8に示される分散学習方法と組み合わせて使用されてよい。
【0191】
S1201:第2のノードが、出力データに基づいて第2のデータモデルを更新して、新しい第2のデータモデルを取得する。
【0192】
いくつかの実施形態において、S1201は、以下の段階1及び段階2を含んでよい。
【0193】
段階1:第2のノードが第2のデータモデルのパラメータの更新された値を取得する。
【0194】
任意選択で、第2のノードは、第2のデータモデルのパラメータの誤差情報を使用することによって第2のデータモデルのパラメータの更新された値を取得してよい。例えば、誤差情報は、勾配、又は勾配の規格化値を含んでよい。
【0195】
例えば、第2のデータモデルのパラメータの誤差情報は、第2の中間データ及び損失関数に基づいて第2のノードによって決定されてよい。
【0196】
図9A図11Bにおける段階(d)を参照すると、誤差情報が勾配である一例を使用して、第2のノードは、第2の中間データ(例えば、
【数11】
)及び損失関数Lに基づいて、第2のデータモデルのパラメータθの勾配が、
【数20】
であり、その後、パラメータθの更新された値が、
【数21】
であると決定してよく、ここで、Lは損失関数であり、yは出力データであり、ηは学習率であり、θ′はパラメータθの更新された値であり、θは、第2のデータモデルのパラメータの現在の値である。例えば、θは、以前の訓練の後に取得された値であってよい。
【0197】
段階2:第2のノードが、第2のデータモデルのパラメータの更新された値に基づいて第2のデータモデルを更新する。
【0198】
例えば、第2のノードは、θ′を使用することによって第2のデータモデルを更新してよい。例えば、第2のデータモデルのパラメータの値は、
【数22】
に設定される。
【0199】
S1202a及びS1202bは、第1のチャネルを更新する段階である。任意選択で、第1のチャネルは、第1のノード(S1202a)又は第2のノード(S1202b)によって更新されてよい。
【0200】
S1202a:第1のノードが、第2の中間データの誤差情報、第1のチャネルについての情報、及び第1の中間データに基づいて新しい第1のチャネルを取得する。
【0201】
任意選択で、第1のチャネルは第2のチャネル及び第3のチャネルを含む。S1202aは:第1のノードが、第2の中間データの誤差情報、第3のチャネルについての情報、及び第1の中間データに基づいて第2のチャネルを更新し得ることを含んでよい。
【0202】
S1202b:第2のノードが、第2の中間データの誤差情報、第1のチャネルについての情報、及び第1の中間データに基づいて新しい第1のチャネルを取得する。
【0203】
任意選択で、第1のチャネルは第2のチャネル及び第3のチャネルを含む。S1202bは:第2のノードが、第2の中間データの誤差情報、第3のチャネルについての情報、及び第1の中間データに基づいて第2のチャネルを更新し得ることを含んでよい。
【0204】
任意選択で、第1のチャネルは、第1のノード又は第2のノードによって更新されてよい。
【0205】
第1のチャネルについての情報の具体的な実装形態については、図6及び図7を参照した、第1のチャネルについての情報の前述の説明を参照されたい。詳細は、本明細書において再度説明されない。
【0206】
可能な設計方式において、本願本実施形態において提供される分散学習方法は:第2のノードが、第2の中間データの誤差情報及び第3のチャネルについての情報を第1のノードへと送信することを更に含んでよい。これに応じて、第1のノードは、第2の中間データの誤差情報及び第3のチャネルについての情報を取得する。
【0207】
いくつかの実施形態において第2のノードが第2の中間データの誤差情報及び第3のチャネルについての情報を第1のノードへと送信することは、図12(a)に示されるS1204:第2のノードが第1の情報を第1のノードへと送信することを含んでよい。これに応じて、第1のノードが、第2の中間データの誤差情報及び第3のチャネルについての情報を取得することは:第1のノードが、第2のノードによって送信された第1の情報を受信することを含んでよい。
【0208】
任意選択で、第1の情報は、第2の中間データの誤差情報及び第3のチャネルについての情報に基づいて第2のノードによって決定されてよい。
【0209】
例えば、図9A図11Bにおける段階(e)を参照すると、第2のノードは、出力データy、損失関数、及び第2の中間データcに基づいて、第2の中間データの誤差情報が、
【数23】
であることを決定する。
【0210】
例えば、図9A及び図9Bにおける段階(f)を参照すると、第2の中間データの誤差情報が、
【数23】
であり、第3のチャネルについての情報が、g2,n×g1,nであり、第2の中間データの誤差情報及び第3のチャネルについての情報に基づいて第2のノードによって決定される第1の情報が、
【数24】
であると仮定される。図9A及び図9Bにおける段階(g)を参照すると、第2のノードは、第1の情報
【数24】
を第1のノードへと送信する。
【0211】
任意選択で、第1のノードは、第2のノードによって送信された第1の情報を、第4のチャネルを通して受信してよい。これに応じて、第2のノードは、第4のチャネルを通して第1の情報を第1のノードへと送信してよい。
【0212】
例えば、第4のチャネルは、逆訓練プロセスにおいて第1のノード及び第2のノードの間のチャネルであってよい。例えば、第4のチャネルは制御チャネルであってよい。
【0213】
すなわち、逆訓練プロセスにおける第1のノード及び第2のノードの間のチャネルは、例えば周波数ポイント又は伝送メカニズムの点で、順方向訓練プロセスにおける第1のノード及び第2のノードの間のチャネルとは異なり得る。
【0214】
任意選択で、逆訓練プロセスにおける第1のノード及び第2のノードの間のチャネルは、順方向訓練プロセスにおける第1のノード及び第2のノードの間のチャネルと同じであってよい。
【0215】
例えば、第1の情報は、従来のデータ/制御チャネル上で伝送されてよく、又は、DNN訓練専用の別の物理/論理チャネル上で伝送されてよい。伝送プロセスは、スパース性、量子化、及び/又はエントロピコーディングなどのデータ量を低下させる操作を含んでよく、又は、チャネルコーディングなどの伝送エラーを低下させる操作を含んでよい。
【0216】
任意選択で、第2のノードは、第2の中間データの誤差情報及び第3のチャネルについての情報を第1のノードへと別々に送信してよい。例えば、第2のノードは、第2の中間データの誤差情報を第1のノードへと送信し、第2のノードは、第3のチャネルについての情報を第1のノードへと送信する。順序は限定されない。これに応じて、第1のノードは、第2のノードから第2の中間データの誤差情報を受信し、第1のノードは、第2のノードから第3のチャネルの情報を受信する。
【0217】
本願の本実施形態において、逆訓練プロセスにおける第1のノード及び第2のノードの間のチャネルが、順方向訓練プロセスにおける第1のノード及び第2のノードの間のチャネルと異なる場合、順方向訓練プロセスにおける第1のノード及び第2のノードの間のチャネルが第1のチャネルと称され、逆訓練プロセスにおける第1のノード及び第2のノードの間のチャネルが第4のチャネルと称される。逆訓練プロセスにおける第1のノード及び第2のノードの間のチャネルが順方向訓練プロセスにおける第1のノード及び第2のノードの間のチャネルと同じである場合、順方向プロセス及び逆方向プロセスの両方において第1のノード及び第2のノードの間のチャネルが第1のチャネルと称される。
【0218】
いくつかの他の実施形態において、第2のノードが第2の中間データの誤差情報及び第3のチャネルについての情報を第1のノードへと送信することは、図12(b)に示されるS1205:第2のノードが第1のチャネルを通して第4の信号を第1のノードへと送信することを含んでよい。
【0219】
これに応じて、S1205において、第1のノードが、第1のチャネルを通して第2のノードから第3の信号を受信する。
【0220】
任意選択で、第4の信号は、第2の中間データの誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む。
【0221】
例えば、第2のノードは、第2の中間データの誤差情報
【数23】
を含む第4の信号を送信し、制御可能な部分のパラメータφを設定する。
【0222】
例えば、第2のノードは、第4の信号を繰り返し送信し、第4の信号を送信する度に、制御可能な部分のパラメータφを調整してよい。
【0223】
例えば、図10A及び図10Bにおける段階(x)を参照すると、
【数23】
を含む第4の信号を初めて送信するとき、第2のノードは、φからφをそれぞれ、[0,0,...,0]に設定する。その後、第4の信号が2回目から(N+1)回目に送信されるとき、φからφの値は順次調整される。例えば、φからφはそれぞれ、
【数25】
に設定され、すなわち、φからφにおける1つのパラメータが1に設定され、他のパラメータは0に設定される。例えば、第4の信号が2回目に送信されるとき、φからφはそれぞれ、
【数26】
に設定され、すなわち、φ=1が設定され、φからφは全て0に設定される。同様に、第4の信号が(N+1)回目に送信されるとき、φからφはそれぞれ、
【数27】
に設定される。
【0224】
制御可能な部分のパラメータφを調整する順序は本願の本実施形態において限定されず、前述のものは、第1のノードが第3の信号に基づいて第1の中間データの誤差情報を取得することができることを前提に、説明を容易にするために本願において起案された一例に過ぎないことに留意されたい。
【0225】
これに応じて、いくつかの他の実施形態において、第1のノードが第2の中間データの誤差情報及び第3のチャネルについての情報を取得することは:第1のノードが第1のチャネルを通して第2のノードから第3の信号を受信すること、及び第1のノードが第3の信号に基づいて第1の情報を取得することを含んでよい。
【0226】
任意選択で、第3の信号は、第4の信号が第1のチャネルを通して第1のノードへと伝送された後に取得される信号である。
【0227】
例えば、図10A及び図10Bにおける段階(x)を参照すると、第1のノードによって受信される第3の信号は、
【数28】
又は
【数29】
を含んでよい。
【0228】
任意選択で、第1の情報は、第2の中間データの誤差情報及び第3のチャネルについての情報に基づいて第1のノードによって決定されてよい。
【0229】
例えば、図10A及び図10Bにおける段階(x)を参照すると、第1のノードは、
【数28】
及び
【数30】
に基づいて第1の情報
【数31】
を取得してよい。
【0230】
このように、チャネルの相互関係に基づいて、エアインターフェースリソース上での信号の伝搬特性を使用することによって、第1の情報(すなわち、第2の中間データの誤差情報及び第3のチャネルについての情報)は、チャネル推定を回避するために、無線による計算を通して取得され、これによりパイロットオーバヘッドを低下させることができる。
【0231】
可能な設計方式において、本願の本実施形態において提供される分散学習方法は、図12(c)に示されるS1206:第1のノードが第1のチャネルを通して第5の信号を第2のノードへと送信することを更に含んでよい。これに応じて、第2のノードが、第1のチャネルを通して第1のノードから第6の信号を受信する。
【0232】
任意選択で、第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成される信号を含み、第3の中間データは第1のチャネルを更新するためのものである。
【0233】
例えば、第3の中間データは、第1のノードによる第1のデータの処理の結果であってよい。第1のノードは、第3の中間データ
【数32】
を含む第5の信号を送信し、制御可能な部分のパラメータφを設定する。
【0234】
例えば、第1のノードは、第5の信号を繰り返し送信し、第5の信号を送信する度に、制御可能な部分のパラメータφを調整してよい。
【0235】
例えば、図11A及び図11Bにおける段階(y)を参照すると、
【数32】
を含む第5の信号を初めて送信するとき、第1のノードは、φからφをそれぞれ、[0,0,...,0]に設定する。その後、第5の信号が2回目から(N+1)回目に送信されるとき、φからφの値は順次調整される。例えば、φからφはそれぞれ、
【数25】
に設定され、すなわち、φからφにおける1つのパラメータが1に設定され、他のパラメータは0に設定される。例えば、第5の信号が2回目に送信されるとき、φからφはそれぞれ、
【数26】
に設定され、すなわち、φ=1が設定され、φからφは全て0に設定される。同様に、第5の信号が(N+1)回目に送信されるとき、φからφはそれぞれ、
【数27】
に設定される。
【0236】
制御可能な部分のパラメータφを調整する順序は本願の本実施形態において限定されず、前述のものは、説明を容易にするために本願において起案された一例に過ぎないことに留意されたい。
【0237】
任意選択で、第6の信号は、第5の信号が第1のチャネルを通して第2のノードへと伝送された後に取得される信号である。
【0238】
任意選択で、第1のノードは、第6の信号に基づいて第3の情報を取得してよい。
【0239】
例えば、第3の情報は、第3の中間データ及び第3のチャネルについての情報に基づいて決定されてよい。
【0240】
例えば、図11A及び図11Bにおける段階(y)を参照すると、第2のノードによって受信される第6の信号は、
【数33】
又は
【数34】
を含んでよい。第2のノードは、
【数33】
及び
【数34】
に基づいて第3の情報
【数35】
を取得してよい。
【0241】
このように、チャネルの相互関係に基づいて、エアインターフェースリソース上での信号の伝搬特性を使用することによって、第3のチャネルについての情報及び第3の中間データは、チャネル推定を回避するために、無線による計算を通して取得され、これによりパイロットオーバヘッドを低下させることができる。
【0242】
いくつかの実施形態において、第1のノード又は第2のノードは、第1の情報及び第1の中間データに基づいて新しい第1のチャネルを取得してよい。
【0243】
以下では、例1~例4を参照して、第1のチャネルを更新する(新しい第1のチャネルを取得する)ことについて具体的に説明する。
【0244】
例1:第1のチャネルを更新する方式は、以下の段階1.1~段階1.3を含んでよい。
【0245】
段階1.1:第1のノードが、第1の情報及び第1の中間データに基づいて第1のチャネルのパラメータの誤差情報を決定する。
【0246】
任意選択で、第1のチャネルのパラメータの誤差情報は、第1のチャネルのパラメータの勾配又は第1のチャネルのパラメータの勾配の規格化値を含んでよい。
【0247】
例えば、第1のチャネルのパラメータは、第1のチャネルの制御可能な部分のパラメータφであってよい。制御可能な部分のパラメータφの具体的な実装形態については、第1のチャネルのパラメータの前述の説明を参照されたい。詳細は、本明細書において再度説明されない。
【0248】
任意選択で、第1のノードは、第1の情報及び第1の中間データに基づいて、第2のチャネルのパラメータの誤差情報を決定してよい。
【0249】
図9A及び図9B又は図10A及び図10Bにおける段階(h)を参照すると、第1のノードは、第1の情報
【数24】
及び第1の中間データ
【数32】
に基づいて、第2のチャネルのパラメータの勾配が、
【数36】
であると決定してよく、ここで、シンボル*は共役演算である。
【0250】
段階1.2:第1のノードが、第2のチャネルのパラメータの誤差情報に基づいて、第2のチャネルのパラメータの更新された値を決定する。
【0251】
図9A及び図9B又は図10A及び図10Bにおける段階(i)を参照すると、第1のノードは、第2のチャネルのパラメータφの勾配
【数37】
を使用することによって、第2のチャネルのパラメータを更新してよい。第2のチャネルのパラメータの更新された値
【数38】
は、以下の式
【数39】
によって表されてよく、又は、
【数38】
は、以下の式
【数40】
によって表されてよく、ここで、
【数38】
は、第2のチャネルのパラメータの更新された値を表し、φは、第2のチャネルのパラメータの現在の値を表す。例えば、φは、以前の訓練の後に取得された値であってよい。
【0252】
段階1.3:第1のノードが、第2のチャネルのパラメータの更新された値に基づいて第2のチャネルを更新する。
【0253】
図9A及び図9B又は図10A及び図10Bにおける段階(j)を参照すると、第1のノードは、
【数41】
を使用することによって第2のチャネルのパラメータφ、β、及びψを更新して、新しい第1のチャネルを取得してよい。
【0254】
任意選択で、第1のノードは、第2のチャネルのパラメータを調整するように構成されてよい。
【0255】
例えば、第1のノードは、第2のチャネルのパラメータを調整する機能を有する。例えば、第1のノードはコントローラを含む。コントローラは、制御可能な部分のパラメータを調整するように構成されてよい。
【0256】
いくつかの実施形態において、前述の段階1.1を実行した後、第1のノードは、第2のノードが第1のチャネルを更新することを可能にするために、以下の段階2.1を実行してよい。
【0257】
例2:第1のチャネルを更新する方式は、前述の段階1.1及び以下の段階2.1~段階2.3を含んでよい。段階1.1が最初に実行されてよく、その後、段階2.1~段階2.3が実行される。
【0258】
段階2.1:第1のノードが、第2のチャネルのパラメータの誤差情報を第2のノードへと送信する。これに応じて、第2のノードが、第1のノードから第2のチャネルのパラメータの誤差情報を受信する。
【0259】
第2のチャネルのパラメータの誤差情報の具体的な実装形態については、前述の段階1.1を参照されたい。詳細は、本明細書において再度説明されない。
【0260】
図9A及び図9Bにおける段階(k)を参照すると、第1のノードは、
【数42】
を第2のノードへと送信する。
【0261】
任意選択で、第1のノードは、第4のチャネルを通して第2のチャネルのパラメータの誤差情報を第2のノードへと送信する。これに応じて、第2のノードは、第4のチャネルを通して第1のノードから第2のチャネルのパラメータの誤差情報を受信する。
【0262】
段階2.2:第2のノードが、第2のチャネルのパラメータの誤差情報に基づいて、第2のチャネルのパラメータの更新された値を決定する。
【0263】
段階2.2の実装形態は、前述の段階1.2と同様であり、主な違いは、第1のノードが第2のノードで置き換えられており、詳細は本明細書において再度説明されないことに留意されたい。
【0264】
段階2.3:第2のノードが、第2のチャネルのパラメータの更新された値に基づいて第2のチャネルを更新する。
【0265】
図9A及び図9Bにおける段階(l)を参照すると、第2のノードは、
【数43】
を使用することによって、第2のチャネルのパラメータφ、β、及びψを更新して、新しい第1のチャネルを取得してよい。
【0266】
例えば、第2のノードは、第2のチャネルのパラメータを調整する機能を有する。例えば、第2のノードはコントローラを含む。コントローラは、制御可能な部分のパラメータを調整するように構成されてよい。
【0267】
このように、第1のノードが第2のチャネルのパラメータを調整する機能を有さず、第2のノードが第2のチャネルのパラメータを調整する機能を有する場合、第1のノードは、第2のチャネルのパラメータの誤差情報を第2のノードへと送信して、第2のノードが第2のチャネルを更新することを可能にしてよい。
【0268】
いくつかの実施形態において、前述の段階1.2を実行した後、第1のノードは、段階1.3を実行することなく以下の段階3.1を実行して、第2のノードが第2のチャネルを更新することを可能にしてよい。
【0269】
例3:第2のチャネルを更新する方式は、前述の段階1.1及び段階1.2、及び以下の段階3.1及び段階3.2を含んでよい。
【0270】
段階3.1:第1のノードが、第2のチャネルのパラメータの更新された値を第2のノードへと送信する。これに応じて、第2のノードが、第1のノードから第2のチャネルのパラメータの更新された値を受信する。
【0271】
図9A及び図9Bにおける段階(k)を参照すると、第1のノードは、第2のチャネルのパラメータの更新された値
【数43】
を第2のノードへと送信してよい。
【0272】
段階3.2:第2のノードが、第2のチャネルのパラメータの更新された値に基づいて第2のチャネルを更新する。
【0273】
段階3.2の実装形態について、段階2.3を参照し得ることに留意されたい。詳細は、本明細書において再度説明されない。
【0274】
例えば、第2のノードは、第2のチャネルのパラメータを調整する機能を有する。例えば、第2のノードはコントローラを含む。コントローラは、制御可能な部分のパラメータを調整するように構成されてよい。
【0275】
このように、第1のノードが第2のチャネルのパラメータを調整する機能を有さず、第2のノードが第2のチャネルのパラメータを調整する機能を有する場合、第1のノードは、第2のチャネルのパラメータの更新された値を第2のノードへと送信して、第2のノードが第2のチャネルを更新することを可能にしてよい。
【0276】
例4:第1のチャネルを更新する方式は、以下の段階4.1~段階4.3を含んでよい。
【0277】
段階4.1:第2のノードが、第2の中間データの誤差情報、第3のチャネルについての情報、及び第1の中間データに基づいて、第2のチャネルのパラメータの誤差情報を決定する。
【0278】
例えば、第2のノードは、第3の情報及び第2の中間データの誤差情報に基づいて第2のチャネルを更新してよい。
【0279】
任意選択で、第2のチャネルのパラメータの誤差情報は、第2のチャネルのパラメータの勾配又は第2のチャネルのパラメータの勾配の規格化値を含んでよい。
【0280】
例えば、第2のチャネルのパラメータは、第2のチャネルの制御可能な部分のパラメータφであってよい。制御可能な部分のパラメータφの具体的な実装形態については、第1のチャネルのパラメータの前述の説明を参照されたい。詳細は、本明細書において再度説明されない。
【0281】
任意選択で、第2のノードは、第2の中間データの誤差情報、第3のチャネルについての情報、及び第1の中間データに基づいて、第2のチャネルのパラメータの誤差情報を決定してよい。
【0282】
例えば、第2のノードは、第3の情報及び第2の中間データの誤差情報に基づいて、第2のチャネルのパラメータの誤差情報を決定してよい。
【0283】
図11A及び図11Bにおける段階(u)を参照すると、第2のノードは、第3の情報
【数35】
及び第2の中間データの誤差情報
【数23】
に基づいて、第2のチャネルのパラメータφの勾配が、
【数42】
であると決定する。
【0284】
段階4.2:第2のノードが、第2のチャネルのパラメータの誤差情報に基づいて、第2のチャネルのパラメータの更新された値を決定する。
【0285】
図11A及び図11Bにおける段階(v)を参照すると、第2のノードは、第2のチャネルのパラメータφの勾配
【数37】
を使用することによって、第2のチャネルのパラメータを更新してよい。第2のチャネルのパラメータの更新された値
【数38】
は、以下の式
【数39】
によって表されてよく、又は、
【数38】
は、
【数40】
以下の式によって表されてよい。
【0286】
段階4.3:第2のノードが、第2のチャネルのパラメータの更新された値に基づいて第2のチャネルを更新する。
【0287】
図11A及び図11Bにおける段階(w)を参照すると、第2のノードは、
【数43】
を使用することによって、第2のチャネルのパラメータφ、β、及びψを更新して、新しい第1のチャネルを取得してよい。
【0288】
例えば、第2のノードは、第2のチャネルのパラメータを調整する機能を有する。例えば、第2のノードはコントローラを含む。コントローラは、制御可能な部分のパラメータを調整するように構成されてよい。
【0289】
例1~例4に記録される、第1のチャネルを更新する方式は、第1のノード及び第2のノードの両方がチャネルのパラメータを調整する機能する場合に更に適用され得ることに留意されたい。
【0290】
可能な設計方式において、本願の本実施形態において提供される分散学習方法は:第1のノードが第1のチャネルを通して第1の信号を第2のノードへと送信することを含んでよい。これに応じて、第2のノードが、第1のチャネルを通して第1のノードから第2の信号を受信する。
【0291】
例えば、第2の信号は、第1の信号が第1のチャネルを通して第2のノードへと伝送された後に取得される信号である。
【0292】
任意選択で、第1の信号は、第3のチャネルについての情報を決定するためのものである。
【0293】
例えば、第1の信号はパイロット信号であってよく、第1のノードは、パイロットを送信し、制御可能な部分のパラメータφを設定してよい。
【0294】
例えば、図9A及び図9Bにおける段階(m)を参照すると、第1のノードは、パイロットを第2のノードへと送信し、第1のノードは、φからφをそれぞれ、[0,0,...,0]に設定し、φからφをそれぞれ、
【数25】
に設定し、すなわち、φからφにおける1つのパラメータを1に設定し、他のパラメータを0に設定する。例えば、n=1の場合、φからφはそれぞれ、
【数26】
に設定され、すなわち、φ=1が設定され、φからφは全て、0に設定される。
【0295】
任意選択で、第2のノードは、第2の信号に基づいて、第1のチャネルについての情報を取得してよい。
【0296】
このように、分散学習の性能を高めるために、第2のノードは、チャネル推定を実行して、チャネルについての情報を取得し、チャネル又は第1のデータモデルを更新してよい。
【0297】
例えば、図9A及び図9Bにおける段階(n)を参照すると、第1のノードが、φからφをそれぞれ、[0,0,...,0]に設定し、パイロット信号を第2のノードへと送信すると仮定される。チャネルの式
【数5】
に基づいて、第2のノードは、第1のチャネル(例えば、第3のチャネル)についての情報hを取得してよい。
【0298】
第1のノードは、φからφをそれぞれ、
【数44】
に設定する、すなわち、φからφにおける1つのパラメータを1に設定し、他のパラメータを0に設定する。チャネルの式
【数5】
に基づいて、第2のノードは、第1のチャネル(例えば、第3のチャネル)についての情報h+g2,n×g1,nを取得してよい。例えば、n=1の場合、φからφはそれぞれ、
【数26】
に設定される、すなわち、φ=1が設定され、φからφは全て、0に設定され、それにより、第1のチャネル(例えば、第3のチャネル)についての情報h+g2,1×g1,1を取得することができる。
【0299】
第1のチャネル(例えば、第3のチャネル)についての、取得した情報h及び第1のチャネル(例えば、第3のチャネル)についての、取得した情報h+g2,n×g1,nに基づいて、第2のノードは、第1のチャネル(例えば、第3のチャネル)についての情報g2,n×g1,nを取得してよい。
【0300】
例えば、図9A及び図9B及び図7における段階(j)において、第1のノードは、φからφをそれぞれ、以前の訓練の後に取得された値に設定し、第2のノードは、第1のチャネルについての情報
【数5】
を取得してよい。
【0301】
Nの値は、制御可能ユニットの実際の個数、例えば、分散アンテナの数又はインテリジェント反射面の要素の数に等しくてよいことに留意されたい。代替的には、Nの値は、制御可能ユニットの実際の個数より少なくてよい。例えば、超大規模アンテナアレイ又はインテリジェント反射板の場合、オーバヘッドを低下させるために、複数の制御可能ユニットがグループとして制御されてよい。
【0302】
段階(m)~段階(n)、及び第2のノードが第1の情報を第1のノードへと送信することの順序は、本願の本実施形態において限定されないことに留意されたい。例えば、段階(m)~段階(n)は、第2のノードが第1の情報を第1のノードへと送信する前に実行されてよい。すなわち、推定によって第1のチャネル(例えば、第3のチャネル)についての情報を取得した後、第2のノードが、第1の情報を第1のノードへと送信して、第1のチャネルを更新してよい。
【0303】
S1203:第1のノードが、第1の中間データの誤差情報に基づいて第1のデータモデルを更新して、新しい第1のデータモデルを取得する。
【0304】
いくつかの実施形態において、S1203は、以下の段階3~段階5を含んでよい。
【0305】
段階3:第1のノードが、第1の中間データの誤差情報に基づいて第1のデータモデルのパラメータの誤差情報を取得する。
【0306】
図9A図11Bにおける段階(o)を参照すると、第1のノードは、第1の中間データの誤差情報
【数45】
に基づいて、第1のデータモデルのパラメータθの勾配
【数46】
を取得してよい。
【0307】
段階4:第1のノードが、第1のデータモデルのパラメータの誤差情報に基づいて第1のデータモデルのパラメータの更新された値を取得する。
【0308】
図9A図11Bにおける段階(o)を参照すると、第1のノードは、第1のデータモデルのパラメータの誤差情報
【数47】
に基づいて、第1のデータモデルのパラメータθの更新された値
【数48】
を取得してよい。
【0309】
段階5:第1のノードが、第1のデータモデルのパラメータの更新された値に基づいて第1のデータモデルを更新する。
【0310】
図9A図11Bにおける段階(o)を参照すると、第1のノードは、θ′を使用することによって第1のデータモデルを更新してよい。例えば、第1のデータモデルのパラメータの値は、
【数49】
に設定される。
【0311】
可能な設計方式において、本願の本実施形態において提供される分散学習方法は、図12(a)に示されるS1207:第2のノードが第2の情報を第1のノードへと送信することを更に含んでよい。これに応じて、第1のノードが、第2のノードによって送信された第2の情報を受信する。
【0312】
任意選択で、第2の情報は、第1の中間データの誤差情報を取得するためのものであってよい。
【0313】
いくつかの実施形態において、第2の情報は、第1の中間データの誤差情報を含んでよい。例えば、第2の情報は、第1の中間データの誤差情報
【数50】
を含んでよい。
【0314】
例えば、図9A及び図9Bにおける段階(p)を参照すると、第2のノードは、第1の中間データの誤差情報
【数50】
を第1のノードへと送信する。
【0315】
任意選択で、第2のノードは、第4のチャネルを通して第2の情報を第1のノードへと送信してよい。これに応じて、第1のノードは、第4のチャネルを通して、第2のノードによって送信された第2の情報を受信する。言い換えれば、第2のノードは、制御チャネルを通して第2の情報を第1のノードへと送信してよい。
【0316】
いくつかの実施形態において、第2のノードが第2の情報を第1のノードへと送信する前に、本願の本実施形態において提供される分散学習方法は:第2のノードが、第2の中間データの誤差情報及び第1のチャネルについての情報に基づいて第1の中間データの誤差情報を取得することを更に含んでよい。
【0317】
例えば、図9A及び図9Bにおける段階(q)を参照すると、第2のノードは、第2の中間データの誤差情報
【数23】
及び第1のチャネルについての情報
【数5】
に基づいて、第1の中間データの誤差情報が、
【数45】
であることを決定し、ここで、
【数51】
は、第1のチャネルの関数であり、線形の複雑なチャネルの場合、
【数52】
であり、シンボル*は共役演算である。
【0318】
すなわち、第1の中間データの誤差情報を取得した後、第2のノードは、第1の中間データの誤差情報を含む第2の情報を第1のノードへと送信してよく、それにより、第1のノードは第1のデータモデルを更新してよく、これにより分散学習の性能が高められる。
【0319】
いくつかの他の実施形態において、第2の情報は、第2の中間データの誤差情報及び第1のチャネルについての情報を含んでよく、第2の中間データの誤差情報及び第1のチャネルについての情報は、第1の中間データの誤差情報を決定するためのものである。
【0320】
すなわち、第2のノードは、第2の中間データの誤差情報及び第1のチャネルについての情報を第1のノードへと送信してよい。これに応じて、第1のノードは、第2のノードによって送信された、第2の中間データの誤差情報及び第1のチャネルについての情報を受信する。
【0321】
可能な設計方式において、本願の本実施形態において提供される分散学習方法は、図12(b)又は図12(c)に示されるS1207:第2のノードが第7の信号を第1のノードへと送信することを更に含んでよい。これに応じて、第1のノードは、第2のノードから第8の信号を受信し、第8の信号に基づいて第1の中間データの誤差情報を取得する。
【0322】
任意選択で、第8の信号は、第7の信号が第1のチャネルを通して第1のノードへと伝送された後に取得される信号であり、第7の信号は、第2の中間データの誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む。
【0323】
例えば、第2のノードは、第2の中間データの誤差情報を送信し、制御可能な部分のパラメータを設定してよい。
【0324】
例えば、第2のノードは、次元照合に基づいて第2の中間データの誤差情報
【数23】
を、変調されたシンボルに形成し、変調されたシンボルを送信のための波形に変調し、制御可能な部分のパラメータφを調整してよく、それにより、第1のノードが、異な無線による計算の結果を受信する。
【0325】
例えば、図10A図11Bにおける段階(p)を参照すると、第2のノードは、第2の中間データの誤差情報
【数23】
の共役
【数53】
を送信し、φからφをそれぞれ、以前の訓練の後に取得された値に設定し、それにより、第1のノードは、第2の情報
【数54】
を取得してよい。第1のノードによって取得された第1の中間データの誤差情報は、以下の式
【数55】
を満たし、これは、
【数56】
に等しい。
【0326】
このように、第1のノードのニューラルネットワークの中間層の勾配の無線による計算は、無線による信号の伝搬のプロセスを通して実装され、これによりパイロットオーバヘッドを低下させることができる。
【0327】
任意選択で、本願の本実施形態において提供される分散学習方法は、伝送波形のピーク対平均比を低下させる、信号対ノイズ比を改善するなどのために、第1のデータモデルのパラメータの誤差情報、チャネルのパラメータの誤差情報、及び第2のデータモデルのパラメータの誤差情報に対して、正規化、振幅制限、スパース性、及び/又は動力制御などの処理を実行することを更に含んでよい。
【0328】
逆訓練が実装され得ることを前提に、S1201~S1208の順序は、本願の本実施形態において限定されないことに留意されたい。
【0329】
前述の分散学習方法を使用することによって、第1のノード及び第2のノードの間のチャネルが訓練され、チャネルはデータモデルの中間層(例えば、残留層)として使用され、第1のデータモデル、チャネル、及び第2のデータモデルが訓練された、推論に関与することが可能となり、これにより分散学習の性能を高めることができる。加えて、分散学習に対して直接機能するために無線伝送が可能となり、これにより、処理の複雑性を低下させ、リソースを更に節約することができる。
【0330】
本願の実施形態において提供される分散学習方法は、図8図12(c)を参照して上で詳細に説明されている。本願の実施形態において提供される分散学習装置は、図13図14を参照して以下で詳細に説明する。
【0331】
図13は、本願尾一実施形態による分散学習方法を実行するように構成された分散学習装置の構造の概略図である。分散学習装置1300は、第1のノード又は第2のノードであってよく、又は、第1のノード又は第2のノードにおいて使用される対応する機能を有するチップ又は別のコンポーネントであってよい。図13に示されるように、分散学習装置1300は、プロセッサ1301及び送受信機1303を含んでよく、メモリ1302を更に含んでよい。プロセッサ1301は、メモリ1302及び送受信機1303に結合されている。例えば、プロセッサ1301は、通信バスによってメモリ1302及び送受信機1303に接続されてよい。代替的には、プロセッサ1301は別個に使用されてよい。
【0332】
以下では、図13を参照して、分散学習装置1300のコンポーネントについて詳細に説明する。
【0333】
プロセッサ1301は、分散学習装置1300の制御センターであり、1つのプロセッサであってよく、又は、複数の処理要素の全般的な用語であってよい。
【0334】
プロセッサ1301は、メモリ1302に記憶されたソフトウェアプログラムをラン又は実行し、メモリ1302に記憶されたデータを呼び出すことによって、分散学習装置1300の様々な機能を実行してよい。
【0335】
具体的な実装形態では、一実施形態において、プロセッサ1301は、1つ又は複数のCPU、例えば、図13に示されるCPU0及びCPU1を含んでよい。
【0336】
具体的な実装形態では、一実施形態において、分散学習装置1300は、複数のプロセッサ、例えば、図13に示されるプロセッサ1301及びプロセッサ1304を含んでよい。プロセッサの各々は、シングルコアプロセッサ(single-CPU)又はマルチコアプロセッサ(multi-CPU)であってよい。本明細書におけるプロセッサは、データ(例えばコンピュータプログラム命令)を処理するように構成される1つ又は複数の通信デバイス、回路、及び/又は、処理コアであり得る。
【0337】
メモリ1302は、プロセッサ1301と統合されてよく、又は別個に存在してよく、分散学習装置1300の入力/出力ポート(図13では図示せず)を通してプロセッサ1301に結合されている。本願の本実施形態では、これについて特に限定しない。
【0338】
例えば、入力ポートは、前述の方法の実施形態のいずれか1つにおいて第1のノード又は第2のノードによって実行される受信機能を実装するように構成されてよく、出力ポートは、前述の方法の実施形態のいずれか1つにおいて第1のノード又は第2のノードによって実行される送信機能を実装するように構成されてよい。
【0339】
メモリ1302は、本願の解決手段を実行するためのソフトウェアプログラムを記憶するように構成されており、プロセッサ1301は実行を制御する。具体的な実装については、前述の方法の実施形態を参照されたい。詳細は、本明細書において再度説明されない。
【0340】
送受信機1303は、別の装置と通信するように構成されている。例えば、分散学習装置1300が第1のノードである場合、送受信機1303は、第2のノードと通信するように構成されてよい。別の例として、分散学習装置1300が第2のノードである場合、送受信機1303は、第1のノードと通信するように構成されてよい。加えて、送受信機1303は、受信機及び送信機(図13では別々に示されていない)を含んでよい。受信機は受信機能を実装するように構成されており、送信機は送信機能を実装するように構成されている。送受信機1303は、プロセッサ1301と統合されてよく、又は別個に存在してよく、分散学習装置1300の入力/出力ポート(図13では図示せず)を通してプロセッサ1301に結合されている。本願の本実施形態では、これについて特に限定しない。
【0341】
図13に示される分散学習装置1300の構造は、分散学習装置に対して限定を構成するものではないことに留意されたい。実際の分散学習装置は、図において示されるよりも多い又は少ないコンポーネントを含んでよく、又は、いくつかのコンポーネントが組み合わされてよく、又は、異なるコンポーネントの配置が用いられてよい。
【0342】
前述の段階S801、S802、S1202a、S1203、及びS1206における第1のノードの動作は、動作を実行するよう第1のノードに示す、メモリ1302に記憶されたアプリケーションプログラムコードを呼び出すことによって、図13に示される分散学習装置1300におけるプロセッサ1301によって実行されてよい。
【0343】
前述の段階S803、S1201、S1202b、S1204、S1205、S1207、及びS1208における第2のノードの動作は、動作を実行するよう第2のノードに示す、メモリ1302に記憶されたアプリケーションプログラムコードを呼び出すことによって、図13に示される分散学習装置1300におけるプロセッサ1301によって実行されてよい。本実施形態では、これについて限定しない。
【0344】
図14は、本願の一実施形態による別の分散学習装置の構造の概略図である。説明を容易にするために、図14は、分散学習装置の主要なコンポーネントのみを示す。
【0345】
分散学習装置1400は、送受信モジュール1401及び処理モジュール1402を含む。分散学習装置1400は、前述の方法の実施形態における第1のノード又は第2のノードであってよい。送受信モジュール1401は送受信機ユニットと称されてもよく、前述の方法の実施形態のいずれか1つにおいて第1のノード又は第2のノードによって実行される送受信機能を実装するように構成されている。
【0346】
送受信モジュール1401は、受信モジュール及び送信モジュール(図14では図示せず)を含んでよいことに留意されたい。受信モジュールは、第1のノードからデータ及び/又はシグナリングを受信するように構成されている。送信モジュールは、データ及び/又はシグナリングを第1のノードへと送信するように構成されている。送受信モジュールの具体的な実装形態は本願において具体的に限定されない。送受信モジュールは、送受信回路、送受信機マシン、送受信機、又は通信インタフェースを含んでよい。
【0347】
処理モジュール1402は、前述の方法の実施形態のいずれか1つにおいて第1のノード又は第2のノードによって実行される処理機能を実装するように構成されてよい。処理モジュール1402はプロセッサであってよい。
【0348】
本実施形態において、分散学習装置1400は、統合された方式で機能モジュールを分割した形態で提示される。本明細書における「モジュール」は、特定のASIC、回路、1つ又複数のソフトウェアまたはファームウェアプログラムを実行するプロセッサ、メモリ、集積論理回路、及び/又は、前述の機能を提供することができる別のコンポーネントであってよい。一実施形態において、当業者であれば、分散学習装置1400が、図13に示される分散学習装置1300の形態であることが分かり得る。
【0349】
例えば、図13に示される分散学習装置1300におけるプロセッサ1301は、メモリ1302に記憶されたコンピュータ実行可能命令を呼び出してよく、それにより、前述の方法の実施形態における分散学習方法が実行される。
【0350】
具体的には、図14における送受信モジュール1401及び処理モジュール1402の機能/実装プロセスは、メモリ1302に記憶されたコンピュータ実行可能命令を呼び出すことによって、図13に示される分散学習装置1300におけるプロセッサ1301によって実装される。代替的には、図14における処理モジュール1402の機能/実装プロセスは、メモリ1302に記憶されたコンピュータ実行可能命令を呼び出すことによって、図13に示される分散学習装置1300におけるプロセッサ1301によって実装されてよく、図14における送受信モジュール1401の機能/実装プロセスは、図13に示される分散学習装置1300における送受信機1303によって実装されてよい。
【0351】
本実施形態において提供される分散学習装置1400は前述の分散学習方法を実行し得るため、分散学習装置1400によって取得され得る技術的効果については、前述の方法の実施形態を参照されたい。詳細は、本明細書において再度説明されない。
【0352】
可能な設計解決手段において、図14に示される分散学習装置1400は、図1に示される通信システムにおいて使用されて、図8、及び/又は図12(a)、図12(b)、及び図12(c)に示される分散学習方法における第1のノードの機能を実行してよい。
【0353】
処理モジュール1402は、第1のデータモデルを使用することによって第1のデータを処理して、第1の中間データを取得するように構成されている。
【0354】
送受信モジュール1401は、第1のチャネルを通して第1の中間データを第2のノードへと送信するように構成されており、第1のチャネルは、第2の中間データの誤差情報、第1のチャネルについての情報、及び第1の中間データに基づいて更新され、第2の中間データは、第1のチャネルを通した第2のノードへの第1の中間データの伝送の結果であり、第1のチャネルは、分散学習装置及び第2のノードの間のチャネルである。
【0355】
任意選択で、分散学習装置1400は記憶モジュール(図14では図示せず)を更に含んでよく、記憶モジュールは、プログラム又は命令を記憶する。処理モジュール1402がプログラム又は命令を実行すると、分散学習装置1400は、図3に示される分散学習方法における第1のノードの機能を実行することが可能となる。
【0356】
分散学習装置1400は、第1のノードであってよい、又は、例えば、第1のノード内に配置され得るチップ(システム)又は別のコンポーネント又はアセンブリであり得ることに留意されたい。これは、本願において限定されるものではない。
【0357】
加えて、分散学習装置1400の技術的効果については、図8図12(a)、図12(b)、及び図12(c)に示される分散学習方法の技術的効果を参照されたい。詳細は、本明細書において再度説明されない。
【0358】
別の可能な設計解決手段において、図14に示される分散学習装置1400は、図1に示される通信システムにおいて使用されて、図8、及び/又は図12(a)、図12(b)、及び図12(c)に示される分散学習方法における第2のノードの機能を実行してよい。
【0359】
送受信モジュール1401は、第1のチャネルを通して第2の中間データを受信するように構成されており、第2の中間データは、第1のチャネルを通して第1のノードによって分散学習装置へと送信された第1の中間データの伝送の結果であり、第1のチャネルは、第2の中間データの誤差情報、第1のチャネルについての情報、及び第1の中間データに基づいて更新され、第1のチャネルは、第1のノード及び分散学習装置の間のチャネルである。
【0360】
処理モジュール1402は、第2のデータモデルを使用することによって第2の中間データを処理して、出力データを取得するように構成されている。
【0361】
任意選択で、分散学習装置1400は記憶モジュール(図14では図示せず)を更に含んでよく、記憶モジュールは、プログラム又は命令を記憶する。処理モジュール1402がプログラム又は命令を実行すると、分散学習装置1400は、図8図12(a)、図12(b)、及び図12(c)に示される分散学習方法における第2のノードの機能を実行することが可能となる。
【0362】
分散学習装置1400は、第2のノードであってよい、又は、例えば、第2のノード内に配置され得るチップ(システム)又は別のコンポーネント又はアセンブリであり得ることに留意されたい。これは、本願において限定されるものではない。
【0363】
加えて、分散学習装置1400の技術的効果については、図8図12(a)、図12(b)、及び図12(c)に示される分散学習方法の技術的効果を参照されたい。詳細は、本明細書において再度説明されない。
【0364】
本願の一実施形態は、通信システムを更に提供する。通信システムは、第1のノード及び第2のノードを含む。
【0365】
第1のノードは、前述の方法の実施形態における第1のノードの動作を実行するように構成されている。特定の実行方法及びプロセスについては、前述の方法の実施形態を参照されたい。詳細は、本明細書において再度説明されない。
【0366】
第2のノードは、前述の方法の実施形態における第2のノードの動作を実行するように構成されている。特定の実行方法及びプロセスについては、前述の方法の実施形態を参照されたい。詳細は、本明細書において再度説明されない。
【0367】
本願の一実施形態は、チップシステムを提供する。チップシステムは、プロセッサ及び入力/出力ポートを含む。プロセッサは、本願の実施形態において提供される分散学習方法に含まれる処理機能を実装するように構成されてよく、入力/出力ポートは、本願の実施形態において提供される分散学習方法に含まれる送受信機能を実行するように構成されてよい。
【0368】
例えば、入力ポートは、本願の実施形態において提供される分散学習方法に含まれる受信機能を実装するように構成されてよく、出力ポートは、本願の実施形態において提供される分散学習方法に含まれる送信機能を実装するように構成されてよい。
【0369】
可能な設計において、チップシステムはメモリを更に含んでよく、メモリは、本願の実施形態において提供される分散学習方法に含まれる機能を実装するためのプログラム命令及びデータを記憶するように構成されている。
【0370】
チップシステムは、チップを含み得る、又は、チップ及び別のディスクリートコンポーネントを含み得る。
【0371】
本願の一実施形態は、コンピュータ可読記憶媒体を提供する。コンピュータ可読記憶媒体は、コンピュータプログラム又は命令を含む。コンピュータプログラム又は命令がコンピュータ上で実行されると、本願の実施形態において提供される分散学習方法が実行される。
【0372】
本願の一実施形態は、コンピュータプログラム製品を提供する。コンピュータプログラム製品は、コンピュータプログラム又は命令を含む。コンピュータプログラム又は命令がコンピュータ上で実行されると、本願の実施形態において提供される分散学習方法が実行される。
【0373】
本願の実施形態におけるプロセッサは、中央処理装置(central processing unit,CPU)であり得ることが理解されるべきである。代替的には、プロセッサは、汎用プロセッサ、デジタル信号プロセッサ(digital signal processor,DSP)、特定用途向け集積回路(application-specific integrated circuit,ASIC)、フィールドプログラマブルゲートアレイ(field programmable gate array,FPGA)、又は別のプログラマブル論理デバイス、個別のゲート又はトランジスタ論理デバイス、個別のハードウェアコンポーネントなどであってよい。汎用プロセッサはマイクロプロセッサであってよく、又は、プロセッサは任意の従来型のプロセッサなどであってよい。
【0374】
本願の実施形態におけるメモリは、揮発性メモリまたは不揮発性メモリであってよく、又は、揮発性メモリ及び不揮発性メモリを含んでよいことが更に理解され得る。不揮発性メモリは、リードオンリメモリ(read-only memory、ROM)、プログラマブルリードオンリメモリ(programmable ROM、PROM)、消去可能プログラマブルリードオンリメモリ(erasable PROM、EPROM)、電気的消去可能プログラマブルリードオンリメモリ(electrically EPROM、EEPROM)、又はフラッシュメモリであり得る。揮発性メモリはランダムアクセスメモリ(Random Access Memory、RAM)であってよく、外部キャッシュとして使用される。限定的ではなく例示的な説明として、多くの形態のランダムアクセスメモリ(random access memory,RAM)、例えば、スタティックランダムアクセスメモリ(static RAM,SRAM)、ダイナミックランダムアクセスメモリ(dynamic random access memory,DRAM)、同期型ダイナミックランダムアクセスメモリ(synchronous DRAM,SDRAM)、ダブルデータレート同期型ダイナミックランダムアクセスメモリ(double data rate SDRAM,DDR SDRAM)、拡張同期型ダイナミックランダムアクセスメモリ(enhanced SDRAM,ESDRAM)、シンクリンクダイナミックランダムアクセスメモリ(synchlink DRAM,SLDRAM)、及びダイレクトラムバスランダムアクセスメモリ(direct rambus RAM,DR RAM)が使用され得る。
【0375】
前述の実施形態は、ソフトウェア、ハードウェア(例えば、回路)、ファームウェア、又はそれらの任意の組み合わせによって完全に、又は部分的に実装されてよい。実施形態を実装するためにソフトウェアが使用される場合、前述の実施形態の全て又はいくつかは、コンピュータプログラム製品の形態で実装されてよい。コンピュータプログラム製品は、1つ又は複数のコンピュータ命令又はコンピュータプログラムを含む。コンピュータ命令又はコンピュータプログラムがコンピュータ上でロード又は実行される場合、本願の実施形態に記載の手順又は機能が全て、又は部分的に生成される。コンピュータは、汎用コンピュータ、専用コンピュータ、コンピュータネットワーク、又は、他のプログラマブル装置であり得る。コンピュータ命令は、コンピュータ可読記憶媒体上に記憶される、又は、あるコンピュータ可読記憶媒体から別のコンピュータ可読記憶媒体へと伝送されてよい。例えば、コンピュータ命令は、有線(例えば、赤外線、無線、又はマイクロ波)方式で、あるウェブサイト、コンピュータ、サーバ、又はデータセンタから別のウェブサイト、コンピュータ、サーバ、又はデータセンタに伝送されてよい。コンピュータ可読記憶媒体は、コンピュータからアクセス可能な任意の使用可能な媒体、又は、1つ又は複数の使用可能な媒体を統合するサーバ又はデータセンタなどのデータ記憶デバイスであってよい。使用可能な媒体は、磁気媒体(例えば、フロッピーディスク、ハードディスク又は磁気テープ)、光媒体(例えば、DVD)又は半導体媒体等であってよい。半導体媒体はソリッドステートドライブであってよい。
【0376】
本明細書における「及び/又は」という用語は、関連する対象間の対応関係のみを説明し、3つの関係が存在し得ることを表すことを理解されたい。例えば、A及び/又はBは、以下の3つの場合を表し得る。すなわち、Aのみが存在する場合、A及びBの両方が存在する場合、及び、Bのみが存在する場合である。A及びBは単数又は複数であってよい。加えて、本明細書における「/」という文字は通常、関連する対象の間の「又は」の関係を示すが、「及び/又は」の関係も示し得る。詳細については、理解のために文脈を参照されたい。
【0377】
本願において、少なくとも1つは、1つ又は複数を意味し、複数は、2つ又はそれよりも多くを意味する。以下の項目(品目)のうちの少なくとも1つ、又はその類似表現は、単数の項目(品目)又は複数の項目(品目)の任意の組み合わせを含んだこれらの項目の任意の組み合わせを指している。例えば、a、b、又はcのうち少なくとも1つとは、a、b、c、aとb、aとc、bとc、又はaとbとcを示し得る。ここで、a、b、及びcは単数形又は複数形であり得る。
【0378】
前述のプロセスのシーケンス番号は、本願の様々な実施形態における実行シーケンスを意味するものではないことを理解すべきである。プロセスの実行シーケンスは、プロセスの機能及び内部論理に基づいて、決定されるべきであり、本願の実施形態の実装プロセスに対するいかなる限定として解釈されるべきでない。
【0379】
当業者であれば、本明細書において開示される実施形態で説明される例と組み合わせて、電子的ハードウェア又はコンピュータソフトウェア及び電子的ハードウェアの組み合わせによってユニット及びアルゴリズム段階を実装することができることを認識し得る。これらの機能がハードウェア又はソフトウェアのどちらで実行されるかは、技術的解決手段の特定の用途及び設計上の制約で決まる。当業者であれば、説明された機能を実装するべく、それぞれの特定の用途のために異なる方法を使用し得るが、当該実装が本願の範囲を超えているとみなされるべきではない。
【0380】
簡便且つ簡潔な説明のために、前述のシステム、装置、及びユニットの詳細な作業処理については、前述の方法の実施形態における対応する処理を参照することとし、詳細は再度ここで説明しないことを、当業者であれば明確に理解するであろう。
【0381】
本願において提供されるいくつかの実施形態において、開示されるシステム、装置、及び方法は、他の方式で実装され得ることを理解すべきである。例えば、説明した装置の実施形態は、単なる一例に過ぎない。例えば、複数のユニットへの分割は、単なる論理的な機能の分割に過ぎず、実際に実装する際には、他の分割であってもよい。例えば、複数のユニット又はコンポーネントが、別のシステムへ組み合わされ、又は統合されてよく、又は、一部の特徴が、無視されてよく、又は実行されなくてよい。更に、表示又は説明された相互連結又は直接的連結又は通信接続は、いくつかのインタフェースを通じて実装されてよい。装置間又はユニット間の間接的連結又は通信接続は、電子的形態、機械的形態、又は他の形態で実装されてよい。
【0382】
別個の部品として記載されるユニットは、物理的に別個である場合とそうでない場合とがあり、ユニットとして表示される部品は、物理ユニットである場合とそうでない場合があり、1つの位置に位置している場合と複数のネットワークユニットに分散されている場合とがある。これらの実施形態の解決手段の目的を達成するために、これらのユニットのいくつか又は全てが実際の要件に基づいて選択されてよい。
【0383】
加えて、本願の実施形態における機能ユニットは、1つの処理ユニットに統合されてもよいし、又は、それらのユニットの各々が、物理的に単独で存在してもよいし、又は、2つ又はそれよりも多いユニットが1つのユニットに統合される。
【0384】
これらの機能がソフトウェア機能ユニットの形態で実装され、独立した製品として販売されるか又は使用される場合、これらの機能はコンピュータ可読記憶媒体に記憶されてよい。そのような理解に基づいて、本願の技術的解決手段は本質的に、又は従来技術に寄与する部分が、又はこれらの技術的解決手段のうちのいくつかが、ソフトウェア製品の形態で実装され得る。コンピュータソフトウェア製品は、記憶媒体に記憶され、本願の実施形態で説明された方法における段階の全て又はいくつかを実行するようコンピュータデバイス(コンピュータ、サーバ、又は第2のノードなどであってよい)に示すためのいくつかの命令を含む。前述の記憶媒体は、プログラムコードを記憶することができる任意の媒体、例えば、USBフラッシュドライブ、取り外し可能なハードディスク、リードオンリメモリ(Read-Only Memory.ROM)ランダムアクセスメモリ(Random Access Memory,RAM)、磁気ディスク、又は光ディスクを含む。
【0385】
前述の説明は、本願の単なる特定の実装形態に過ぎず、本願の保護範囲を限定することを意図するものではない。本願において開示された技術的範囲内で当業者が容易に考え出す変形又は置換はいずれも、本願の保護範囲に含まれるものとする。したがって、本願の保護範囲は、特許請求の範囲の保護範囲に従うものとする
[項目1]
第1のノードに適用される分散学習方法であって、前記第1のノードが第1のデータモデルを有し、前記方法が:
前記第1のデータモデルを使用することによって第1のデータを処理して、第1の中間データを取得する段階;及び
第1のチャネルを通して第2のノードへと前記第1の中間データを送信する段階、ここで前記第1のチャネルは、第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新され、前記第2の中間データは、前記第1のチャネルを通した前記第2のノードへの前記第1の中間データの伝送の結果であり、前記第1のチャネルは、前記第1のノード及び前記第2のノードの間のチャネルである
を備える、分散学習方法。
[項目2]
前記第1のチャネルが第2のチャネル及び第3のチャネルを有し、前記方法が:
前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて、前記第2のチャネルを更新する段階
を更に備える、項目1に記載の分散学習方法。
[項目3]
前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて、前記第2のチャネルを更新する前記段階が:
前記第2のノードによって送信された第1の情報を受信する段階、ここで前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される;及び
前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新する段階
を有する、項目2に記載の分散学習方法。
[項目4]
前記第2のノードによって送信された第1の情報を受信する前記段階が:
前記第2のノードによって送信された前記第1の情報を、第4のチャネルを通して受信する段階を有する
項目3に記載の分散学習方法。
[項目5]
前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて、前記第2のチャネルを更新する前記段階が:
前記第1のチャネルを通して前記第2のノードから第3の信号を受信する段階、ここで前記第3の信号は、前記第1のチャネルを通して第4の信号が前記第1のノードへと伝送された後に取得される信号であり、前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む;
前記第3の信号に基づいて第1の情報を取得する段階、ここで前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される;及び
前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新する段階
を有する、項目2に記載の分散学習方法。
[項目6]
前記方法が:
前記第1のチャネルを通して前記第2のノードへと第1の信号を送信する段階、ここで前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものである
を更に備える、項目1から5のいずれか一項に記載の分散学習方法。
[項目7]
前記方法が:
前記第1のチャネルを通して前記第2のノードへと第5の信号を送信する段階、ここで前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成された信号を有し、前記第3の中間データは、前記第1のチャネルを更新するためのものである
を更に備える、項目1から6のいずれか一項に記載の分散学習方法。
[項目8]
前記方法が:
前記第1の中間データの誤差情報に基づいて前記第1のデータモデルを更新して、新しい第1のデータモデルを取得する段階
を更に備える、項目1から7のいずれか一項に記載の分散学習方法。
[項目9]
前記方法が:
前記第2のノードによって送信された第2の情報を受信する段階、ここで前記第2の情報は、前記第1の中間データの前記誤差情報を取得するためのものである
を更に備える、項目8に記載の分散学習方法。
[項目10]
前記第2の情報が前記第1の中間データの前記誤差情報を含む;又は
前記第2の情報が、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである
項目9に記載の分散学習方法。
[項目11]
前記方法が;
前記第2のノードから第8の信号を受信する段階、ここで前記第8の信号は、チャネルを通して第7の信号が前記第1のノードへと伝送された後に取得される信号であり、前記第7の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を有する;及び
前記第8の信号に基づいて前記第1の中間データの前記誤差情報を取得する段階
を更に備える、項目1から10のいずれか一項に記載の分散学習方法。
[項目12]
第2のノードに適用される分散学習方法であって、前記第2のノードが第2のデータモデルを有し、前記方法が:
第1のチャネルを通して第2の中間データを受信する段階、ここで前記第2の中間データは、第1のノードによって前記第1のチャネルを通して前記第2のノードへと送信された第1の中間データの伝送の結果であり、前記第1のチャネルは、前記第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新され、前記第1のチャネルは、前記第1のノード及び前記第2のノードの間のチャネルである;及び
前記第2のデータモデルを使用することによって前記第2の中間データを処理して、出力データを取得する段階
を備える、分散学習方法。
[項目13]
前記第1のチャネルが第2のチャネル及び第3のチャネルを有し、前記方法が:
前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信する段階
を更に備える、項目12に記載の方法。
[項目14]
前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信する前記段階が:
第1の情報を前記第1のノードへと送信する段階、ここで前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される
を有する、項目13に記載の分散学習方法。
[項目15]
前記第1の情報を前記第1のノードへと送信する前記段階が:
第4のチャネルを通して前記第1の情報を前記第1のノードへと送信する段階
を有する、項目14に記載の分散学習方法。
[項目16]
前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信する前記段階が:
前記第1のチャネルを通して第4の信号を前記第1のノードへと送信する段階、ここで前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む
を有する、項目13に記載の分散学習方法。
[項目17]
前記方法が:
前記第1のチャネルを通して前記第1のノードから第2の信号を受信する段階、ここで前記第2の信号は第1の信号が前記第1のチャネルを通して前記第2のノードへと伝送された後に取得される信号であり、前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものである;及び
前記第2の信号に基づいて前記第1のチャネルについての前記情報を取得する段階
を更に備える、項目12から16のいずれか一項に記載の分散学習方法。
[項目18]
前記方法が:
前記第1のチャネルを通して前記第1のノードから第6の信号を受信する段階、ここで前記第6の信号は、第5の信号が前記第1のチャネルを通して前記第2のノードへと伝送された後に取得される信号であり、前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成される信号を有し、前記第3の中間データは、前記第1のチャネルを更新するためのものである;
前記第6の信号に基づいて第3の情報を取得する段階、ここで前記第3の情報は、前記第3の中間データ及び前記第3のチャネルについての前記情報に基づいて決定される;及び
前記第3の情報及び前記第2の中間データの前記誤差情報に基づいて前記第2のチャネルを更新する段階
を更に備える、項目12から17のいずれか一項に記載の分散学習方法。
[項目19]
前記方法が:
第2の情報を前記第1のノードへと送信する段階、ここで前記第2の情報は、前記第1の中間データの誤差情報を取得するためのものである
を更に備える、項目12から18のいずれか一項に記載の分散学習方法。
[項目20]
前記第2の情報が前記第1の中間データの前記誤差情報を含む;又は
前記第2の情報が、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである
項目19に記載の分散学習方法。
[項目21]
前記方法が:
前記出力データに基づいて前記第2のデータモデルを更新して、新しい第2のデータモデルを取得する段階
を更に備える、項目12から20のいずれか一項に記載の分散学習方法。
[項目22]
前記方法が:
第7の信号を前記第1のノードへと送信する段階、ここで前記第7の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を有する
を更に備える、項目12から21のいずれか一項に記載の分散学習方法。
[項目23]
分散学習装置であって、前記分散学習装置が第1のデータモデルを備え、前記装置が処理モジュール及び送受信モジュールを備え、
前記処理モジュールが、前記第1のデータモデルを使用することによって第1のデータを処理して第1の中間データを取得するように構成されており;
前記送受信モジュールが、第1のチャネルを通して前記第1の中間データを第2のノードへと送信するように構成されており、前記第1のチャネルは、第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新され、前記第2の中間データは、前記第1のチャネルを通した前記第2のノードへの前記第1の中間データの伝送の結果であり、前記第1のチャネルは、前記分散学習装置及び前記第2のノードの間のチャネルである
分散学習装置。
[項目24]
前記第1のチャネルが第2のチャネル及び第3のチャネルを有し;
前記処理モジュールが、前記第2の中間データの前記誤差情報、前記第3のチャネルについての情報、及び前記第1の中間データに基づいて前記第2のチャネルを更新するように更に構成されている
項目23に記載の分散学習装置。
[項目25]
前記送受信モジュールが、前記第2のノードによって送信された第1の情報を受信するように更に構成されており、前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定され;
前記処理モジュールが、前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新するように更に構成されている
項目24に記載の分散学習装置。
[項目26]
前記送受信モジュールが、前記第2のノードによって送信された前記第1の情報を、第4のチャネルを通して受信するように更に構成されている
項目25に記載の分散学習装置。
[項目27]
前記送受信モジュールが、前記第1のチャネルを通して前記第2のノードから第3の信号を受信するように更に構成されており、前記第3の信号は、前記第1のチャネルを通して第4の信号が前記分散学習装置へと伝送された後に取得される信号であり、前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含み;
前記処理モジュールが、前記第3の信号に基づいて第1の情報を取得するように更に構成されており、前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定され;
前記処理モジュールが、前記第1の情報及び前記第1の中間データに基づいて前記第2のチャネルを更新するように更に構成されている
項目24に記載の分散学習装置。
[項目28]
前記送受信モジュールが、前記第1のチャネルを通して第1の信号を前記第2のノードへと送信するように更に構成されており、前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものである
項目23から27のいずれか一項に記載の分散学習装置。
[項目29]
前記送受信モジュールが、前記第1のチャネルを通して第5の信号を前記第2のノードへと送信するように更に構成されており、前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成される信号を含み、前記第3の中間データは前記第1のチャネルを更新するためのものである
項目23から28のいずれか一項に記載の分散学習装置。
[項目30]
前記処理モジュールが、前記第1の中間データの誤差情報に基づいて前記第1のデータモデルを更新して、新しい第1のデータモデルを取得するように更に構成されている
項目23から29のいずれか一項に記載の分散学習装置。
[項目31]
前記送受信モジュールが、前記第2のノードによって送信された第2の情報を受信するように更に構成されており、前記第2の情報は、前記第1の中間データの前記誤差情報を取得するためのものである
項目30に記載の分散学習装置。
[項目32]
前記第2の情報が前記第1の中間データの前記誤差情報を含む;又は
前記第2の情報が、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである
項目31に記載の分散学習装置。
[項目33]
前記送受信モジュールが、前記第2のノードから第8の信号を受信するように更に構成されており、前記第8の信号は、第7の信号がチャネルを通して前記分散学習装置へと伝送された後に取得される信号であり、前記第7の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含み;
前記処理モジュールが、前記第8の信号に基づいて前記第1の中間データの前記誤差情報を取得するように更に構成されている
項目23から32のいずれか一項に記載の分散学習装置。
[項目34]
分散学習装置であって、前記分散学習装置が第2のデータモデルを備え、前記装置が処理モジュール及び送受信モジュールを備え、
前記送受信モジュールが、第1のチャネルを通して第2の中間データを受信するように構成されており、前記第2の中間データは、第1のノードによって前記第1のチャネルを通して前記分散学習装置へと送信された第1の中間データの伝送の結果であり、前記第1のチャネルは、前記第2の中間データの誤差情報、前記第1のチャネルについての情報、及び前記第1の中間データに基づいて更新され、前記第1のチャネルは、前記第1のノード及び前記分散学習装置の間のチャネルであり;
前記処理モジュールが、前記第2のデータモデルを使用することによって前記第2の中間データを処理して出力データを取得するように構成されている
分散学習装置。
[項目35]
前記第1のチャネルが第2のチャネル及び第3のチャネルを有し、前記送受信モジュールが、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての情報を前記第1のノードへと送信するように更に構成されている、項目34に記載の装置。
[項目36]
前記送受信モジュールが、第1の情報を前記第1のノードへと送信するように更に構成されており、前記第1の情報は、前記第2の中間データの前記誤差情報及び前記第3のチャネルについての前記情報に基づいて決定される
項目35に記載の分散学習装置。
[項目37]
前記送受信モジュールが、第4のチャネルを通して前記第1の情報を前記第1のノードへと送信するように更に構成されている
項目36に記載の分散学習装置。
[項目38]
前記送受信モジュールが、前記第1のチャネルを通して第4の信号を前記第1のノードへと送信するように更に構成されており、前記第4の信号は、前記第2の中間データの前記誤差情報をエアインターフェースリソースにマッピングすることによって生成される信号を含む
項目35に記載の分散学習装置。
[項目39]
前記送受信モジュールが、前記第1のチャネルを通して第2の信号を前記第1のノードから受信するように更に構成されており、前記第2の信号は、前記第1のチャネルを通して第1の信号が前記分散学習装置へと伝送された後に取得される信号であり、前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものであり;
前記処理モジュールは、前記第2の信号に基づいて、前記第1のチャネルについての前記情報を取得するように更に構成されている
項目34から38のいずれか一項に記載の分散学習装置。
[項目40]
前記送受信モジュールが、前記第1のチャネルを通して前記第1のノードから第6の信号を受信するように更に構成されており、前記第6の信号は、第5の信号が前記第1のチャネルを通して前記分散学習装置へと伝送された後に取得される信号であり、前記第5の信号は、第3の中間データをエアインターフェースリソースにマッピングすることによって生成される信号を含み、前記第3の中間データは、前記第1のチャネルを更新するためのものであり;
前記処理モジュールが、前記第6の信号に基づいて第3の情報を取得するように更に構成されており、前記第3の情報は、前記第3の中間データ及び前記第3のチャネルについての前記情報に基づいて決定され;
前記処理モジュールが、前記第3の情報及び前記第2の中間データの前記誤差情報に基づいて前記第2のチャネルを更新するように更に構成されている
項目34から39のいずれか一項に記載の分散学習装置。
[項目41]
前記送受信モジュールが、第2の情報を前記第1のノードへと送信するように更に構成されており、前記第2の情報は、前記第1の中間データの誤差情報を取得するためのものである
項目34から40のいずれか一項に記載の分散学習装置。
[項目42]
前記第2の情報が前記第1の中間データの前記誤差情報を含む;又は
前記第2の情報が、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報を含み、前記第2の中間データの前記誤差情報及び前記第1のチャネルについての前記情報は、前記第1の中間データの前記誤差情報を決定するためのものである
項目41に記載の分散学習装置。
[項目43]
前記処理モジュールが、前記出力データに基づいて前記第2のデータモデルを更新して、新しい第2のデータモデルを取得するように更に構成されている
項目34から42のいずれか一項に記載の分散学習装置。
[項目44]
前記送受信モジュールが、前記第1のチャネルを通して第2の信号を前記第1のノードから受信するように更に構成されており、前記第2の信号は、前記第1のチャネルを通して第1の信号が前記分散学習装置へと伝送された後に取得される信号であり、前記第1の信号は、前記第1のチャネルについての前記情報を決定するためのものであり;
前記処理モジュールは、前記第2の信号に基づいて、前記第1のチャネルについての前記情報を取得するように更に構成されている
項目34から43のいずれか一項に記載の分散学習装置。
[項目45]
分散学習装置であって、前記分散学習装置がプロセッサを備え、前記プロセッサがメモリに結合されており;
前記メモリがコンピュータプログラムを記憶するように構成されており;
前記プロセッサが、前記メモリに記憶された前記コンピュータプログラムを実行して、前記分散学習装置が項目1から22のいずれか一項に記載の分散学習方法を実行することを可能にするように構成されている
分散学習装置。
[項目46]
コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体がコンピュータプログラム又は命令を備え、前記コンピュータプログラム又は前記命令がコンピュータ上で実行されると、項目1から22のいずれか一項に記載の方法が実行される、コンピュータ可読記憶媒体。
[項目47]
コンピュータプログラム製品であって、前記コンピュータプログラム製品がコンピュータプログラム又は命令を備え、前記コンピュータプログラム又は前記命令がコンピュータ上で実行されると、項目1から22のいずれか一項に記載の方法が実行される、コンピュータプログラム製品。
[項目48]
項目1から22のいずれか一項に記載の方法を実行するように構成された、通信装置。
[項目49]
コンピュータプログラムであって、前記コンピュータプログラムがコンピュータ上で実行されると、項目1から22のいずれか一項に記載の方法が実行される、コンピュータプログラム。
[項目50]
項目23から33のいずれか一項に記載の装置及び項目34から44のいずれか一項に記載の装置を備える、通信システム。
[項目51]
チップシステムであって、前記チップシステムがプロセッサを備え、前記プロセッサが、項目1から22のいずれか一項に記載の方法を実装するよう、前記チップシステムが搭載されている装置を制御するように構成されている、チップシステム。
図1
図2
図3
図4
図5
図6
図7
図8
図9A
図9B
図10A
図10B
図11A
図11B
図12(a)】
図12(b)】
図12(c)】
図13
図14