(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-18
(45)【発行日】2024-10-28
(54)【発明の名称】機械学習モデル管理方法及び装置とシステム
(51)【国際特許分類】
G06N 3/098 20230101AFI20241021BHJP
【FI】
G06N3/098
(21)【出願番号】P 2023526866
(86)(22)【出願日】2021-08-02
(86)【国際出願番号】 CN2021110111
(87)【国際公開番号】W WO2022095523
(87)【国際公開日】2022-05-12
【審査請求日】2023-05-29
(31)【優先権主張番号】202011212838.9
(32)【優先日】2020-11-03
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】503433420
【氏名又は名称】華為技術有限公司
【氏名又は名称原語表記】HUAWEI TECHNOLOGIES CO.,LTD.
【住所又は居所原語表記】Huawei Administration Building, Bantian, Longgang District, Shenzhen, Guangdong 518129, P.R. China
(74)【代理人】
【識別番号】100107766
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】ジアン,タオ
【審査官】北川 純次
(56)【参考文献】
【文献】特表2019-526851(JP,A)
【文献】米国特許出願公開第2020/0104129(US,A1)
【文献】特開2019-109875(JP,A)
【文献】特開2020-161167(JP,A)
【文献】SALEHI, Mehdi et al.,Hierarchical Federated Learning Across Heterogeneous Cellular Networks,arXiv,v1,Cornell University,2019年09月05日,[検索日 2024.05.14], インターネット <URL: https://doi.org/10.48550/arXiv.1909.02362>
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/02 - 3/10
G06N 20/00 - 20/20
(57)【特許請求の範囲】
【請求項1】
連合学習サーバによって実行される機械学習モデル管理方法であって、前記連合学習サーバは、第1管理ドメイン内にあり、機械学習モデル管理センタに接続され、当該方法は、
前記機械学習モデル管理センタから第1機械学習モデルを取得するステップと、
前記第1機械学習モデルと前記第1管理ドメイン内のローカルネットワークサービスデータとに基づいて、前記第1管理ドメイン内の複数の連合学習クライアントとの連合学習を実行して、第2機械学習モデルを取得するステップと、
前記第2機械学習モデルが第2管理ドメイン内のデバイスによって使用されることを可能にするために、前記第2機械学習モデルを前記機械学習モデル管理センタに送信するステップと、
を含
み、
前記第2機械学習モデルを前記機械学習モデル管理センタに送信するステップは、前記第1管理ドメイン内の前記複数の連合学習クライアントによる前記第2機械学習モデルに対応するモデルサービスの実行結果に基づいて、前記第2機械学習モデルの適用効果が事前設定された条件を満たすかどうかを判断し、前記第2機械学習モデルの適用効果が前記事前設定された条件を満たすと判断されるとき、前記第2機械学習モデルを前記機械学習モデル管理センタに送信するステップを含む、方法。
【請求項2】
前記機械学習モデル管理センタから第1機械学習モデルを取得するステップは、
機械学習モデル要件情報を前記機械学習モデル管理センタに送信するステップと、
前記機械学習モデル管理センタによって前記機械学習モデル要件情報に基づいて決定された前記第1機械学習モデルを受信するステップと、
を含む、請求項1に記載の方法。
【請求項3】
前記機械学習モデル要件情報は、前記第1機械学習モデルに対応するモデルサービス情報及び/又は機械学習モデルトレーニング要件を含む、
請求項2に記載の方法。
【請求項4】
前記機械学習モデルトレーニング要件は、トレーニング環境、アルゴリズムタイプ、ネットワーク構造、トレーニングフレームワーク、集約アルゴリズム又はセキュリティモードのうちの少なくとも1つを含む、
請求項3に記載の方法。
【請求項5】
当該方法は、
前記第2機械学習モデルのアクセス許可情報を前記機械学習モデル管理センタに送信するステップ、
を更に含む、請求項1乃至4のいずれか一項に記載の方法。
【請求項6】
当該方法は、
前記第2機械学習モデルを前記複数の連合学習クライアントに送信するステップ、
を更に含む、請求項1乃至5のいずれか一項に記載の方法。
【請求項7】
前記第1機械学習モデルと前記第1管理ドメイン内のローカルネットワークサービスデータとに基づいて、前記第1管理ドメイン内の複数の連合学習クライアントとの連合学習を実行して、第2機械学習モデルを取得するステップは、
前記複数の連合学習クライアントの各々が、前記第1機械学習モデルと該連合学習クライアントによって取得されるネットワークサービスデータとに基づいて連合学習を実行することを可能にし、該連合学習クライアントの中間機械学習モデルを取得するために、前記第1管理ドメイン内の前記複数の連合学習クライアントに前記第1機械学習モデルを送信するステップと、
前記複数の連合学習クライアントによって取得される複数の中間機械学習モデルを取得し、該複数の中間機械学習モデルを集約して前記第2機械学習モデルを取得するステップと、
を含む、請求項1乃至
6のいずれか一項に記載の方法。
【請求項8】
機械学習モデル管理センタによって実行される機械学習モデル管理方法であって、前記機械学習モデル管理センタは、第1連合学習サーバに接続され、該第1連合学習サーバは、第1管理ドメイン内にあり、当該方法は、
第1機械学習モデルを前記第1連合学習サーバに送信するステップと、
前記第1連合学習サーバから第2機械学習モデルを受信するステップであって、前記第2機械学習モデルは、前記第1連合学習サーバにより、前記第1機械学習モデルと前記第1管理ドメイン内のローカルネットワークサービスデータとに基づいて、前記第1管理ドメイン内の複数の連合学習クライアントと連合学習を実行することによって取得され
、前記第2機械学習モデルは、前記第1管理ドメイン内の前記複数の連合学習クライアントによる前記第2機械学習モデルに対応するモデルサービスの実行結果に基づいて、前記第2機械学習モデルの適用効果が事前設定された条件を満たすと判断されたものである、ステップと、
前記第2機械学習モデルが第2管理ドメイン内のデバイスによって使用されることを可能にするために、前記第1機械学習モデルを前記第2機械学習モデルに置き換えるステップと、
を含む、方法。
【請求項9】
第1機械学習モデルを前記第1連合学習サーバに送信するステップの前に、当該方法は、
前記第1連合学習サーバによって送信された機械学習モデル要件情報を受信するステップと、
前記機械学習モデル要件情報に基づいて、前記第1機械学習モデルを決定するステップと、
を含む、請求項
8に記載の方法。
【請求項10】
前記機械学習モデル要件情報は、前記第1機械学習モデルに対応するモデルサービス情報及び/又は機械学習モデルトレーニング要件を含む、
請求項
9に記載の方法。
【請求項11】
前記機械学習モデルトレーニング要件は、トレーニング環境、アルゴリズムタイプ、ネットワーク構造、トレーニングフレームワーク、集約アルゴリズム又はセキュリティモードのうちの少なくとも1つを含む、
請求項
10に記載の方法。
【請求項12】
前記第2機械学習モデルは、第1トレーニングフレームワークに基づく機械学習モデルであり、当該方法は、
前記第2機械学習モデルを第3機械学習モデルに変換するステップを更に含み、前記第3機械学習モデルは、第2トレーニングフレームワークに基づく機械学習モデルであり、前記第3機械学習モデルと前記第2機械学習モデルは、同じモデルサービス情報に対応する、
請求項
8乃至
11のいずれか一項に記載の方法。
【請求項13】
当該方法は、
前記第2機械学習モデルのアクセス許可情報であって、前記第1連合学習サーバによって送信されたアクセス許可情報を受信するステップ、
を更に含む、請求項
8乃至
12のいずれか一項に記載の方法。
【請求項14】
当該方法は、
前記第2機械学習モデルを第2連合学習サーバに送信するステップであって、前記第2連合学習サーバは前記第2管理ドメイン内にある、ステップと、
前記第2連合学習サーバから第4機械学習モデルを受信するステップであって、前記第4機械学習モデルは、前記第2連合学習サーバにより、前記第2機械学習モデルと前記第2管理ドメイン内のローカルネットワークサービスデータとに基づいて、前記第2管理ドメイン内の複数の連合学習クライアントと連合学習を実行することによって取得される、ステップと、
前記第2機械学習モデルを前記第4機械学習モデルに置き換えるステップと、
を更に含む、請求項
8乃至
13のいずれか一項に記載の方法。
【請求項15】
連合学習サーバと複数の連合学習クライアントとを備える連合学習システムであって、前記連合学習サーバ及び前記複数の連合学習クライアントは、第1管理ドメイン内にあり、前記連合学習サーバは機械学習モデル管理センタに接続され、
前記連合学習サーバは、前記機械学習モデル管理センタから第1機械学習モデルを取得し、前記第1機械学習モデルを前記複数の連合学習クライアントに送信するよう構成され、
前記複数の連合学習クライアントの各々は、前記第1機械学習モデルと該連合学習クライアントによって取得されるネットワークサービスデータとに基づいて連合学習を実行して、該連合学習クライアントの中間機械学習モデルを取得するよう構成され、
前記連合学習サーバは、前記複数の連合学習クライアントによって取得される複数の中間機械学習モデルを取得し、該複数の中間機械学習モデルを集約して第2機械学習モデルを取得し、該第2機械学習モデルが第2管理ドメイン内のデバイスによって使用されることを可能にするために前記第2機械学習モデルを前記機械学習モデル管理センタに送信するよう更に構成され、
前記連合学習サーバは、前記第1管理ドメイン内の前記複数の連合学習クライアントによる前記第2機械学習モデルに対応するモデルサービスの実行結果に基づいて、前記第2機械学習モデルの適用効果が事前設定された条件を満たすかどうかを判断し、前記第2機械学習モデルの適用効果が前記事前設定された条件を満たすと判断されるとき、前記第2機械学習モデルを前記機械学習モデル管理センタに送信するように更に構成される、
連合学習システム。
【請求項16】
前記連合学習サーバは、前記第2機械学習モデルを前記複数の連合学習クライアントに送信するよう更に構成され
る、
請求項
15に記載の連合学習システム。
【請求項17】
前記連合学習サーバは、
機械学習モデル要件情報を前記機械学習モデル管理センタに送信し、
前記機械学習モデル管理センタによって前記機械学習モデル要件情報に基づいて決定された前記第1機械学習モデルを受信する、
よう更に構成される、請求項
15に記載の連合学習システム。
【請求項18】
前記連合学習サーバは、
前記第2機械学習モデルのアクセス許可情報を前記機械学習モデル管理センタに送信する、
よう更に構成される、請求項
15に記載の連合学習システム。
【請求項19】
メモリと少なくとも1つのプロセッサを備える連合学習サーバであって、前記メモリは、コンピュータ命令を記憶するよう構成され、前記少なくとも1つのプロセッサは、前記コンピュータ命令を呼び出して、請求項1乃至
7のいずれか一項に記載の方法を実行するよう構成される、
連合学習サーバ。
【請求項20】
メモリと少なくとも1つのプロセッサを備える機械学習モデル管理センタであって、前記メモリは、コンピュータ命令を記憶するよう構成され、前記少なくとも1つのプロセッサは、前記コンピュータ命令を呼び出して、請求項
8乃至
14のいずれか一項に記載の方法を実行するよう構成される、
機械学習モデル管理センタ。
【請求項21】
コンピュータ読取可能記憶媒体であって、当該コンピュータ読取可能記憶媒体は、コンピュータプログラムを記憶し、前記コンピュータプログラムがコンピュータ上で実行されると、前記コンピュータは、請求項1乃至
14のいずれか一項に記載の方法を実行することができる、
コンピュータ読取可能記憶媒体。
【請求項22】
請求項
19に記載の連合学習サーバと、請求項
20に記載の機械学習モデル管理センタとを備える連合学習システム。
【発明の詳細な説明】
【技術分野】
【0001】
本出願は、2020年11月3日に中国国家知識産権局に出願された「MACHINE LEARNING MODEL MANAGEMENT METHOD AND APPARATUS, AND SYSTEM」と題する中国特許出願第202011212838.9号に対する優先権を主張しており、その全体が参照により本出願に組み込まれている。
【0002】
本出願は、機械学習技術の分野、特に機械学習モデル管理方法及び装置とシステムに関する。
【背景技術】
【0003】
電気通信事業者ネットワークは、情報通信のインフラとして、高度なインテリジェント化と自動化が必要とされる自律システムである。機械学習モデルは、分析、決定及び予測のような強力な機能を提供することができる。したがって、機械学習モデルを電気通信事業者ネットワークの計画、構築、保守、運用及び最適化のような作業に適用することは、業界で一般的な研究となっている。
【0004】
連合学習(federated learning)は、分散型機械学習技術である。
図1に示されるように、連合学習クライアント1、2、3、...、kのような連合学習クライアント(federated learning clients、FLCs)は、ローカル計算リソース及びローカルネットワークサービスデータを使用することによってモデルトレーニングを実行し、ローカルトレーニングプロセスで生成されたΔω
1、Δω
2、Δω
3、...、Δω
kのようなモデルパラメータ更新情報Δωを連合学習サーバ(federated learning server、FLS)に送信する。連合学習サーバは、モデルパラメータ更新情報に基づいて、集約アルゴリズムを使用することによってモデル集約を実行し、集約機械学習モデルを取得する。集約機械学習モデルは、連合学習クライアントが次回モデルトレーニングを実行する初期モデルとして使用される。連合学習クライアントと連合学習サーバは、前述のモデルトレーニング処理を複数回実行し、取得した集約機械学習モデルが事前設定された条件を満たすまでトレーニングを停止しない。
【0005】
このことから、連合学習に参加する当事者は、連合学習の恩恵を受けるためには、該当事者の中間機械学習モデル又はモデルパラメータ更新情報を集中化する必要があることを学習することができる。しかしながら、電気通信分野では、リージョナルポリシー/法令又はユーザの要件に応じて、電気通信事業者ネットワークのネットワークサービスデータ(デバイスデータ、デバイスによってサポートされるネットワークサービスデータ、関連するユーザデータ等を含む)は、プライバシー保護を必要とし、第三者に漏洩することはできない。電気通信事業者ネットワークのネットワークサービスデータの特徴は、中間機械学習モデルに基づいて逆推論される可能性があるため、中間機械学習モデルも第三者に漏洩することはできない。したがって、電気通信事業者ネットワークがトレーニングすることができるのは、それぞれ、彼ら独自の連合学習モデルのみであり、これは、繰り返しのトレーニングに起因して計算リソースを浪費するだけでなく、ネットワークサービスデータの制限に起因して、電気通信事業者ネットワークの連合学習モデルの適応性を低下させる。
【0006】
例えばサービス認識(service awareness)サービスは、ネットワークの基本的な付加価値サービスであり、電気通信事業者ネットワークは、アプリケーションパケット又はアプリケーションパケットの統計データを識別することによって、アプリケーションパケットが属するアプリケーションカテゴリ(例えばアプリケーションA又はアプリケーションB)を取得し、その後、異なるアプリケーションに対して、課金、トラフィック制限及び帯域幅保証のような異なる処理を行うことがある。例えば機械学習モデルはサービス認識サービスに対応する、言い換えると、機械学習モデルはサービス認識機械学習モデルである。連合学習クライアントは、電気通信事業者ネットワークのネットワークデバイスにおいて展開され、ネットワークデバイスのアプリケーションパケット又はアプリケーションパケットの統計データに基づいてローカルトレーニングを実行し、中間機械学習モデルを取得する。中間機械学習モデル又はモデルパラメータ更新情報が第三者に漏洩された場合、第三者は、中間機械学習モデル又はモデルパラメータ更新情報に基づいて、ネットワークデバイスのアプリケーションパケット又はアプリケーションパケットの統計データを逆推論する可能性があり、ここで、アプリケーションパケット又はアプリケーションパケットの統計データは機密データである。その結果、電気通信事業者ネットワークは、セキュリティリスクに悩まされる。
【発明の概要】
【発明が解決しようとする課題】
【0007】
本出願は、計算リソース全体を節約し、連合学習モデルの適応性を向上させることを助ける機械学習モデル管理方法と装置及びシステムを提供する。
【課題を解決するための手段】
【0008】
第1の側面によると、機械学習モデル管理方法が提供され、連合学習サーバによって実行され、ここで、連合学習サーバは、第1管理ドメイン内にあり、機械学習モデル管理センタに接続される。本方法は:最初に、機械学習モデル管理センタから第1機械学習モデルを取得するステップと;次いで、第1機械学習モデルと第1管理ドメイン内のローカルネットワークサービスデータとに基づいて、第1管理ドメイン内の複数の連合学習クライアントと連合学習を実行して、第2機械学習モデルを取得するステップと;次に、第2機械学習モデルが第2管理ドメイン内のデバイスによって使用されることを可能にするために、第2機械学習モデルを機械学習モデル管理センタに送信するステップと;を含む。
【0009】
この技術的解決策では、ある管理ドメインにおいて取得された機械学習モデルが、別の管理ドメイン内のデバイスによって使用されてよい。このように、機械学習モデルを異なる管理ドメインで繰り返しトレーニングする必要がなく、社会全体の観点から計算リソースを節約する。
【0010】
加えて、時間の経過とともに、機械学習モデル管理センタの機械学習モデルは、複数の管理ドメインのネットワークサービスデータの性能を統合することができ(すなわち、機械学習モデルは、複数の管理ドメインのネットワークサービスデータに基づいて連合学習を通して間接的に取得される)、単一の管理ドメインのみのネットワークサービスデータに基づいて取得される機械学習モデルよりもはるかに良好な適応性(adaptivity)を有する。各管理ドメインについて、より新規でより複雑なネットワークサービスデータを後に入力することによって実行されるモデルサービスに対しても、良好な効果を達成することができる。
【0011】
さらに、機械学習モデルは各管理ドメインで独立にトレーニングされ、連合学習サーバは、機械学習モデル管理センタから初期機械学習モデルを取得する。したがって、管理ドメイン内のある連合学習サーバで障害が発生した場合であっても、その連合学習サーバは依然として、障害が回復したときに機械学習モデル管理センタから、共有するための現在最新の機械学習モデル(すなわち、障害の間に機械学習モデル管理センタによって別の連合学習サーバとともに取得した更新された機械学習モデル)を初期機械学習モデルとして取得することができ、連合学習の時間を短縮し、機械学習モデルの収束を加速するのに役立つ。この技術的解決策における機械学習モデルは、従来技術における機械学習モデルよりもより速い収束速度と、連合学習サーバの障害回復後のより強い回復能力を有する、言い換えると、従来の技術における機械学習モデルよりもより良好なロバスト性を有する。
【0012】
可能な設計では、機械学習モデル管理センタから第1機械学習モデルを取得するステップは:機械学習モデル要件情報(requirement information)を機械学習モデル管理センタに送信するステップと;機械学習モデル要件情報に基づいて機械学習モデル管理センタによって決定された第1機械学習モデルを受信するステップと、を含む。
【0013】
すなわち、連合学習サーバは、該連合学習サーバが第1機械学習モデルを使用する必要があるときはいつでも、第1機械学習モデルを取得する。これは、連合学習サーバが配置されるデバイスの記憶領域を節約するのに役立つ。
【0014】
可能な設計では、機械学習モデル要件情報は、機械学習モデルに対応するモデルサービス情報及び/又は機械学習モデルトレーニング要件を含む。
【0015】
可能な設計では、トレーニング要件は、トレーニング環境、アルゴリズムタイプ、ネットワーク構造、トレーニングフレームワーク、集約アルゴリズム又はセキュリティモードのうちの少なくとも1つを含む。
【0016】
可能な設計では、本方法は:第2機械学習モデルのアクセス許可情報を機械学習モデル管理センタに送信するステップを更に含む。
【0017】
すなわち、連合学習サーバは、トレーニングを通して連合学習サーバによって取得される機械学習モデルについてのアクセス許可を自律的に決定し得る、言い換えると、機械学習モデルを使用することができる連合学習サーバを自律的に決定し得る。その後、機械学習モデル管理センタは、アクセス許可を有する連合学習サーバに第2機械学習モデルを提供し得る。
【0018】
可能な設計では、本方法は:第2機械学習モデルを複数の連合学習クライアントに送信するステップを更に含む。次いで、複数の連合学習クライアントは、第2機械学習モデルに基づいて、第2機械学習モデルに対応するモデルサービスを実行し得る。この可能な設計は、第2機械学習モデルを適用する例を提供する。
【0019】
例えば第2機械学習モデルに対応するモデルサービスがサービス認識サービスであると仮定すると、複数の連合学習クライアントは、第2機械学習モデルに基づいてサービス認識を実行し得る。
【0020】
可能な設計では、第2機械学習モデルを機械学習モデル管理センタに送信するステップは:第2機械学習モデルの適用効果(application effect)が事前設定された条件を満たす場合に、第2機械学習モデルを機械学習モデル管理センタに送信するステップを含む。
【0021】
任意に、第2機械学習モデルの適用効果が事前設定された条件を満たすことは:第2機械学習モデルの適用効果が事前設定された目標(target)に到達することとして理解されてよい。
【0022】
これは、連合学習サーバによって機械学習モデル管理センタに送信される機械学習モデルの精度/正確さを向上させ、別の連合学習クライアントが機械学習モデルを使用することによって連合学習を実行するときの機械学習モデルの収束時間を更に短縮するのに役立つ。
【0023】
可能な設計では、第1機械学習モデルと第1管理ドメイン内のローカルネットワークサービスデータとに基づいて、第1管理ドメイン内の複数の連合学習クライアントと連合学習を実行して、第2機械学習モデルを取得するステップは:複数の連合学習クライアントの各々が、第1機械学習モデルと、該連合学習クライアントによって取得されるネットワークサービスデータとに基づいて連合学習を実行することを可能にし、該連合学習クライアントの中間機械学習モデルを取得するために、第1管理ドメイン内の複数の連合学習クライアントに第1機械学習モデルを送信するステップと;複数の連合学習クライアントによって取得される複数の中間機械学習モデルを取得し、該複数の中間機械学習モデルを集約して第2機械学習モデルを取得するステップと;を含む。
【0024】
第2の側面によると、機械学習モデル管理方法が提供され、機械学習モデル管理センタによって実行され、ここで、機械学習モデル管理センタは、第1連合学習サーバに接続され、該第1連合学習サーバは、第1管理ドメイン内にある。本方法は:最初に、第1機械学習モデルを第1連合学習サーバに送信するステップと;次いで、第1連合学習サーバから第2機械学習モデルを受信するステップであって、第2機械学習モデルは、第1連合学習サーバにより、第1機械学習モデルと第1管理ドメイン内のローカルネットワークサービスデータとに基づいて、第1管理ドメイン内の複数の連合学習クライアントと連合学習を実行することによって取得される、特に、第2機械学習モデルは、第1連合学習サーバにより、第1機械学習モデルを初期機械学習モデルとして使用することにより、かつ第1管理ドメイン内のローカルネットワークサービスデータに基づいて、第1管理ドメイン内の複数の連合学習クライアントと連合学習を実行することによって取得される、ステップと;次に、第2機械学習モデルが第2管理ドメイン内のデバイスによって使用されることを可能にするために、第1機械学習モデルを第2機械学習モデルに置き換えるステップと;を含む。
【0025】
可能な設計では、第1機械学習モデルを第1連合学習サーバに送信するステップの前に、本方法は:第1連合学習サーバによって送信された機械学習モデル要件情報を受信するステップと;機械学習モデル要件情報に基づいて、第1機械学習モデルを決定するステップと;を更に含む。
【0026】
可能な設計では、機械学習モデル要件情報は、機械学習モデルに対応するモデルサービス情報及び/又は機械学習モデルトレーニング要件を含む。
【0027】
可能な設計では、トレーニング要件は、トレーニング環境、アルゴリズムタイプ、ネットワーク構造、トレーニングフレームワーク、集約アルゴリズム又はセキュリティモードのうちの少なくとも1つを含む。
【0028】
可能な設計では、第2機械学習モデルは、第1トレーニングフレームワークに基づく機械学習モデルである。本方法は、第2機械学習モデルを第3機械学習モデルに変換するステップを更に含み、第3機械学習モデルは、第2トレーニングフレームワークに基づく機械学習モデルであり、第3機械学習モデルと第2機械学習モデルは、同じモデルサービス情報に対応する。
【0029】
可能な設計では、機械学習モデル管理センタは第5機械学習モデルを更に記憶し、第5機械学習モデルは第2トレーニングフレームワークに基づく機械学習モデルであり、第5機械学習モデルと第1機械学習モデルは同じモデルサービス情報に対応する。本方法は、第5機械学習モデルを第3機械学習モデルに置き換えるステップを更に含んでよい。これは、別のトレーニングフレームワーク内にあり、かつ同じモデルサービス情報に対応する機械学習モデルを、最新のものにすることを可能にするのに役立つ。
【0030】
可能な設計では、本方法は、第2機械学習モデルのアクセス許可情報であって、第1連合学習サーバによって送信されたアクセス許可情報を受信するステップを更に含む。
【0031】
可能な設計では、本方法は:第2機械学習モデルを第2連合学習サーバに送信するステップであって、第2連合学習サーバは第2管理ドメイン内にある、ステップと;第2連合学習サーバから第4機械学習モデルを受信するステップであって、第4機械学習モデルは、第2連合学習サーバにより、第2機械学習モデルとローカルネットワークサービスデータとに基づいて、複数の連合学習クライアントと連合学習を実行することによって取得される、ステップと;第2機械学習モデルを第4機械学習モデルに置き換えるステップと;を更に含む。この可能な設計は、第2管理ドメイン内のデバイスによって第2機械学習モデルを使用する特定の実装を提供する。
【0032】
第2の側面で提供される対応する方法は、第1の側面で提供される対応する方法に対応し得ることが理解され得る。したがって、第2の側面で提供される方法によって達成することができる有益な効果については、第1の側面で提供される対応する方法の有益な効果を参照されたい。詳細はここでは再度説明しない。
【0033】
第3の側面によると、連合学習システムが提供され、連合学習サーバと複数の連合学習クライアントとを含む。連合学習サーバ及び複数の連合学習クライアントは、第1管理ドメイン内にあり、連合学習サーバは機械学習モデル管理センタに接続される。連合学習サーバは、機械学習モデル管理センタから第1機械学習モデルを取得し、第1機械学習モデルを複数の連合学習クライアントに送信するよう構成される。複数の連合学習クライアントの各々は、第1機械学習モデルと、該連合学習クライアントによって取得されるネットワークサービスデータとに基づいて連合学習を実行して、該連合学習クライアントの中間機械学習モデルを取得するよう構成される。連合学習サーバは、複数の連合学習クライアントによって取得される複数の中間機械学習モデルを取得し、該複数の中間機械学習モデルを集約して第2機械学習モデルを取得し、該第2機械学習モデルが第2管理ドメイン内のデバイスによって使用されることを可能にするために第2機械学習モデルを機械学習モデル管理センタに送信するよう更に構成される。
【0034】
可能な設計では、連合学習サーバは、第2機械学習モデルを複数の連合学習クライアントに送信するよう更に構成される。複数の連合学習クライアントの各々は、第2機械学習モデルに基づいて、第2機械学習モデルに対応するモデルサービスを実行するよう更に構成される。
【0035】
第4の側面によると、ネットワークシステムが提供され、機械学習モデル管理センタと、連合学習サーバと、複数の連合学習クライアントとを備える。連合学習サーバ及び複数の連合学習クライアントは、第1管理ドメイン内にあり、連合学習サーバは機械学習モデル管理センタに接続される。機械学習モデル管理センタは、第1機械学習モデルを連合学習サーバに送信するよう構成される。連合学習サーバは、第1機械学習モデルを複数の連合学習クライアントに送信するよう構成される。複数の連合学習クライアントの各々は、第1機械学習モデルと、該連合学習クライアントによって取得されるネットワークサービスデータとに基づいて、連合学習を実行し、該連合学習クライアントの中間機械学習モデルを取得するよう構成される。連合学習サーバは、複数の連合学習クライアントによって取得される複数の中間機械学習モデルを取得し、該複数の中間機械学習モデルを集約して第2機械学習モデルを取得し、該第2機械学習モデルが第2管理ドメイン内のデバイスによって使用されることを可能にするために第2機械学習モデルを機械学習モデル管理センタに送信するよう更に構成される。機械学習モデル管理センタは、第1機械学習モデルを第2機械学習モデルに置き換えるよう更に構成される。
【0036】
可能な設計では、連合学習サーバは、機械学習モデル要件情報を機械学習モデル管理センタに送信するよう更に構成される。機械学習モデル管理センタは、機械学習モデル要件情報に基づいて、第1機械学習モデルを連合学習サーバに送信するよう更に構成される。
【0037】
可能な設計では、機械学習モデル要件情報は、機械学習モデルに対応するモデルサービス情報及び/又は機械学習モデルトレーニング要件を含む。
【0038】
可能な設計では、トレーニング要件は、トレーニング環境、アルゴリズムタイプ、ネットワーク構造、トレーニングフレームワーク、集約アルゴリズム又はセキュリティモードのうちの少なくとも1つを含む。
【0039】
可能な設計では、第2機械学習モデルは、第1トレーニングフレームワークに基づく機械学習モデルである。機械学習モデル管理センタは、第2機械学習モデルを第3機械学習モデルに変換するよう更に構成され、第3機械学習モデルは、第2トレーニングフレームワークに基づく機械学習モデルであり、第3機械学習モデルと第2機械学習モデルは同じモデルサービス情報に対応する。
【0040】
可能な設計では、機械学習モデル管理センタは第5機械学習モデルを更に記憶し、第5機械学習モデルは第2トレーニングフレームワークに基づく機械学習モデルであり、第5機械学習モデルと第1機械学習モデルは同じモデルサービス情報に対応する。機械学習モデル管理センタは、第5機械学習モデルを第3機械学習モデルに置き換えるよう更に構成される。
【0041】
可能な設計では、連合学習サーバは、第2機械学習モデルを複数の連合学習クライアントに送信するよう更に構成される。複数の連合学習クライアントの各々は、第2機械学習モデルに基づいて、第2機械学習モデルに対応するモデルサービスを実行するよう更に構成される。
【0042】
第5の側面によると、本出願は機械学習モデル管理装置を提供する。機械学習モデル管理装置は、第1の側面で提供される任意の方法を実行するよう構成される。この場合、機械学習モデル管理装置は、具体的には連合学習サーバであってよい。
【0043】
可能な設計方式では、本出願において、機械学習モデル管理装置は、第1の側面で提供される任意の方法に従って、機能モジュールに分割されてもよい。例えば各機能モジュールは、対応する機能に基づく分割を通して得られてよく、あるいは2つ以上の機能が1つの処理モジュールに統合されてもよい。
【0044】
例えば本出願では、機械学習モデル管理装置は、機能に基づいて、送受信ユニット、処理ユニット等に分割されてよい。分割を通して得られる機能モジュールによって実施される可能な技術的解決策と、機能モジュールによって達成される有益な効果については、第1の側面で提供される技術的解決策又は第1の側面の対応する可能な設計を参照されたい。詳細はここでは再度説明しない。
【0045】
別の可能な設計では、機械学習モデル管理装置はメモリとプロセッサを含み、メモリはプロセッサに結合される。メモリはコンピュータ命令を記憶するよう構成される。プロセッサは、コンピュータ命令を呼び出して、第1の側面又は第1の側面の可能な設計方式のうちのいずれか1つによる任意の方法を実行するよう構成される。
【0046】
第6の側面によると、本出願は機械学習モデル管理装置を提供する。機械学習モデル管理装置は、第2の側面で提供される任意の方法を実行するよう構成される。この場合、機械学習モデル管理装置は、具体的には機械学習モデル管理センタであってよい。
【0047】
可能な設計方式では、本出願において、機械学習モデル管理装置は、第2の側面で提供される任意の方法に従って、機能モジュールに分割されてもよい。例えば各機能モジュールは、対応する機能に基づく分割を通して得られてよく、あるいは2つ以上の機能が1つの処理モジュールに統合されてもよい。
【0048】
例えば本出願では、機械学習モデル管理装置は、機能に基づいて、受信ユニット、送信ユニット、処理ユニット等に分割されてよい。分割を通して得られる機能モジュールによって実施される可能な技術的解決策と、機能モジュールによって達成される有益な効果については、第2の側面で提供される技術的解決策又は第2の側面の対応する可能な設計を参照されたい。詳細はここでは再度説明しない。
【0049】
別の可能な設計では、機械学習モデル管理装置はメモリとプロセッサを含み、メモリはプロセッサに結合される。メモリはコンピュータ命令を記憶するよう構成される。プロセッサは、コンピュータ命令を呼び出して、第2の側面又は第2の側面の可能な設計方式のうちのいずれか1つによる任意の方法を実行するよう構成される。
【0050】
第7の側面によると、本出願は、コンピュータ読取可能記憶媒体、例えば非一時的なコンピュータ読取可能記憶媒体を提供する。コンピュータ読取可能記憶媒体は、コンピュータプログラム(又は命令)を記憶する。コンピュータプログラム(又は命令)がコンピュータデバイス上で実行されると、コンピュータデバイスは、第1の側面又は第2の側面のいずれかの可能な実装による任意の方法を実行することが可能になる。
【0051】
第8の側面によると、本出願はコンピュータプログラム製品を提供する。コンピュータプログラム製品がコンピュータデバイス上で実行されると、第1の側面又は第2の側面のいずれかの可能な実装による任意の方法が実行される。
【0052】
第9の側面によると、本出願はプロセッサを含むチップシステムを提供する。プロセッサは、メモリに記憶されたコンピュータプログラムをメモリから呼び出し、該コンピュータプログラムを実行して、第1の側面又は第2の側面の実装による任意の方法を実行するよう構成される。
【0053】
第5の側面の別の可能な設計、第6の側面の別の可能な設計又は第7から第9の側面で提供されるいずれかの技術的解決策において、第1の側面又は第2の側面における送信動作は、プロセッサの制御下で実行される送信に具体的に置き換えられてよく、第1の側面又は第2の側面における受信動作は、プロセッサの制御下で実行される受信に具体的に置き換えられてもよいことが理解され得る。
【0054】
上記で提供されるいずれかのシステム、装置、コンピュータ記憶媒体、コンピュータプログラム製品、チップシステム等は、第1の側面又は第2の側面で提供される対応する方法で使用されてもよいことが理解され得る。したがって、システム、装置、コンピュータ記憶媒体、コンピュータプログラム製品、チップシステム等によって実現することができる有益な効果については、対応する方法の有益な効果を参照されたい。詳細については、ここでは再度説明しない。
【0055】
本出願において、上記のいずれかの装置の名称は、デバイス又は機能モジュールに対する制限を構成しない。実際の実装においては、これらのデバイス又は機能モジュールは、他の名称を有してもよい。各デバイス又は機能モジュールは、そのデバイス又は機能モジュールの機能が本出願で説明されるものと類似していることを条件として、本出願における特許請求の範囲及びそれらの均等な技術によって定義される範囲内にある。
【0056】
本出願におけるこれらの側面又は他の側面は、以下の説明においてより簡潔であり、理解可能である。
【図面の簡単な説明】
【0057】
【
図1】本出願の一実施形態に適用可能な連合学習システムの構造の概略図である。
【0058】
【
図2】本出願の一実施形態による、ネットワークシステムの構造の概略図である。
【0059】
【
図3】本出願の一実施形態による、機械学習モデル管理システムの構造の概略図である。
【0060】
【
図4】本出願の一実施形態による、機械学習モデル管理システムが使用されるネットワークシステムのシステム構造の概略図である。
【0061】
【
図5】本出願の一実施形態によるパブリッククラウドの論理構造の概略図である。
【0062】
【
図6】本出願の一実施形態による管理制御システムの論理構造の概略図である。
【0063】
【
図7】本出願の一実施形態によるネットワークデバイスの論理構造の概略図である。
【0064】
【
図8】本出願の一実施形態による、機械学習モデル管理システムが使用されるネットワークシステムの別のシステム構造の概略図である。
【0065】
【
図9】本出願の一実施形態による、コンピュータデバイスのハードウェア構造の概略図である。
【0066】
【
図10】本出願の一実施形態による、機械学習モデル管理方法における対話の概略図である。
【0067】
【
図11A】本出願の一実施形態による連合学習プロセスの概略フローチャートである。
【
図11B】本出願の一実施形態による連合学習プロセスの概略フローチャートである。
【0068】
【
図12A】本出願の一実施形態による、別の機械学習モデル管理方法における対話の概略図である。
【
図12B】本出願の一実施形態による、別の機械学習モデル管理方法における対話の概略図である。
【0069】
【
図13】本出願の一実施形態による、機械学習モデル管理センタの構造の概略図である。
【0070】
【
図14】本出願の一実施形態による連合学習サーバの構造の概略図である。
【発明を実施するための形態】
【0071】
以下に、本出願の実施形態におけるいくつかの用語及び技術について説明する。
【0072】
(1)ネットワークサービス、ネットワークサービスデータ、モデルサービス及びモデルサービス情報:
【0073】
ネットワークサービスは、ネットワーク又はネットワークデバイスによって提供することができる通信サービスであり、例えばブロードバンドサービス、ネットワークスライスサービス又は仮想ネットワークサービスである。
【0074】
ネットワークサービスデータは、ネットワークサービスの実行中に生成されるデータであるか又は生成されたデータに関連するデータであり、例えばアプリケーションパケット、アプリケーションパケットの統計データ(例えばパケットのパケット損失率)又は障害アラーム情報である。
【0075】
モデルサービスは、機械学習モデルに基づいて提供することができるサービスであり、ネットワークサービスデータは、例えばサービス認識サービス、障害追跡及び予測サービス又は主要性能インジケータ(key performance indicator、KPI)異常検出(anomaly detection)サービスである。機械学習モデルに対応するモデルサービスがサービス認識サービスである場合、対応するネットワークサービスデータは、アプリケーションパケット又はアプリケーションパケットの統計データを含む。機械学習モデルに対応するモデルサービスが障害追跡及び予測サービスである場合、対応するネットワークサービスデータは障害アラーム情報を含む。
【0076】
モデルサービス情報は、モデルサービスに関連する情報であり、モデルサービスの識別子、タイプ等を含む。
【0077】
(2)機械学習、機械学習モデル及び機械学習モデルファイル:
【0078】
機械学習とは、アルゴリズムを使用することによってデータを解析し、データから学習し、現実世界のイベントについて決定と予測を行うことを意味する。機械学習は、大量のデータを使用することによって「トレーニング」を実行し、様々なアルゴリズムを使用することによって、そのデータからモデルサービスの完成方法を学習している。
【0079】
いくつかの例では、機械学習モデルは、モデルサービスを完成させるためのアルゴリズム実装コードとパラメータを含むファイルである。アルゴリズム実装コードは、機械学習モデルのモデル構造を記述するために使用され、パラメータは、機械学習モデルの各構成要素の属性を記述するために使用される。説明の簡単性のため、ファイルは、以下では機械学習モデルファイルと呼ばれる。例えば以下の機械学習モデルを送信することは、具体的には機械学習モデルファイルを送信することを意味する。
【0080】
他のいくつかの例では、機械学習モデルはモデルサービスを完了するための論理関数モジュールである。例えば入力パラメータの値を機械学習モデルに入力して、機械学習モデルの出力パラメータの値を取得する。
【0081】
機械学習モデルは、人工知能(artificial intelligence、AI)モデル、例えばニューラルネットワークモデルを含む。
【0082】
本出願の実施形態では、連合学習システムにおけるトレーニングを通して取得される機械学習モデルは、連合学習モデルとも呼ばれることがあることに留意されたい。
【0083】
(3)機械学習モデルパッケージ
【0084】
機械学習モデルパッケージは、機械学習モデル(すなわち、機械学習モデルファイル)と機械学習モデルの記述ファイルを含む。機械学習モデルの記述ファイルは、機械学習モデルの記述情報、機械学習モデルの実行スクリプト等を含むことがある。
【0085】
機械学習モデルの記述情報は、機械学習モデルを記述するための情報である。
【0086】
任意に、機械学習モデルの記述情報は、機械学習モデルに対応するモデルサービス情報又は機械学習モデルトレーニング要件のうちの少なくとも一方を含み得る。
【0087】
モデルサービス情報は、モデルサービスタイプ又はモデルサービス識別子を含み得る。
【0088】
例えば機械学習モデルがサービス認識に使用される場合、機械学習モデルに対応するモデルサービスタイプはサービス認識タイプである。別の例では、機械学習モデルが障害予測に使用される場合、機械学習モデルに対応するモデルサービスタイプは障害予測タイプである。
【0089】
同じモデルサービスタイプに属する異なるモデルサービスは、異なるモデルサービス識別子を有する。例えば機械学習モデル1は、サービス認識サービス1に対応し、アプリケーションセットA内のアプリケーションを識別するために使用され;機械学習モデル2は、サービス認識サービス2に対応し、アプリケーションセットB内のアプリケーションを識別するために使用される。アプリケーションセットAはアプリケーションセットBとは異なる。
【0090】
トレーニング要件は、以下のうちの少なくとも1つ、すなわち、トレーニング環境、アルゴリズムタイプ、ネットワーク構造、トレーニングフレームワーク、集約アルゴリズム、セキュリティモード等のうちの少なくとも1つを含んでよい。
【0091】
トレーニング環境は、機械学習モデルをトレーニングするためのデバイスのタイプである。本出願の実施形態で提供される技術的解決策がコアネットワークに適用される例を使用すると、トレーニング環境は、外部PCEFサポートノード(external PCEF support node、EPSN)、ユニバーサル顧客宅内機器(universal customer premises equipment、uCPE)、IPマルチメディアサブシステム(IP multimedia subsystem、IMS)等を含み得る。PCEFは、ポリシー及び課金強制機能(policy and charging enforcement function)の略である。IPは、インターネットプロトコル(internet protocol)の略である。
【0092】
アルゴリズムタイプは、機械学習モデルをトレーニングするためのアルゴリズムのタイプであり、例えばニューラルネットワーク又は線形回帰である。さらに、ニューラルネットワークのタイプは、畳み込みニューラルネットワーク(convolutional neural network、CNN)、長・短期記憶(long short-term memory、LSTM)ネットワーク、リカレントニューラルネットワーク(recurrent neural network、RNN)等を含み得る。
【0093】
ネットワーク構造は、機械学習モデルに対応するネットワーク構造である。アルゴリズムタイプがニューラルネットワークである例を使用すると、ネットワーク構造は、入力(input)層の特徴(例えば次元(dimension))、出力(output)層の特徴(例えば次元)、隠れ層(hidden layer)の特徴(例えば次元)等を含み得る。
【0094】
トレーニングフレームワークは、機械学習フレームワーク(machine learning framework)とも呼ばれることがあり、機械学習モデルをトレーニングするために使用されるトレーニングフレームワークであり、具体的には、機械学習アルゴリズムを含むすべての機械学習システム又は方法を統合し、ここで、機械学習システム又は方法は、データ表現及びデータ処理方法、データ表現及び機械学習モデル構築方法、モデリング結果の評価及び使用方法等を含む。アルゴリズムタイプがニューラルネットワークである例を使用すると、トレーニングフレームワークは、畳み込みアーキテクチャ・フォー・ファスト・フィーチャ・エンベッディング(convolutional architecture for fast feature embedding、Caffe)トレーニングフレームワーク、TensorFlowトレーニングフレームワーク、Pytorchトレーニングフレームワーク等のための畳み込みアーキテクチャを含み得る。
【0095】
集約アルゴリズムは、機械学習モデルをトレーニングするためのアルゴリズムであり、具体的には、連合学習サーバが、連合学習システムにおけるモデルトレーニング中に複数の中間機械学習モデルに対してモデル集約を実行するプロセスで使用されるアルゴリズムである。例えば集約アルゴリズムは、加重平均アルゴリズム又は連合確率分散低減勾配(federated stochastic variance reduced gradient、FSVRG)アルゴリズムを含み得る。
【0096】
セキュリティモードは、機械学習モデル伝送プロセスで使用されるセキュリティ手段(例えば暗号化アルゴリズム)である。任意に、セキュリティモード要件は、セキュリティモードを使用するかどうかを含んでよい。更に任意に、セキュリティモードが使用される場合、セキュリティモード要件は、使用されるべきセキュリティモードの特定のタイプを含んでよい。例えばセキュリティモードは、セキュアマルチパーティ計算(secure multi-party computation、MPC)又はセキュアハッシュアルゴリズム(secure hash algorithm、SHA)256を含んでよい。
【0097】
任意に、機械学習モデルの記述ファイルは、機械学習モデルのアクセス許可、機械学習モデルの課金ポリシー等を更に含んでよい。アクセス許可は、共有許可に置き換えられてもよい。
【0098】
任意に、機械学習モデルのアクセス許可は、機械学習モデルを共有することができるかどうか、すなわち、機械学習モデルを別の連合学習サーバによって使用することができるかどうかを含んでよい。更に任意に、機械学習モデルのアクセス許可は、機械学習モデルを共有することができる場合、機械学習モデルを使用することができる特定の連合学習サーバ又は複数の特定の連合学習サーバ、及び/又は機械学習モデルを使用することができない特定の連合学習サーバ又は複数の特定の連合学習サーバを更に含んでよい。
【0099】
機械学習モデルの課金ポリシーは、機械学習モデルを使用するときに準拠する必要がある支払いポリシーである。
【0100】
(4)トレーニングサンプル及びテストサンプル
【0101】
機械学習では、サンプルは、トレーニングサンプルとテストサンプルを含む。トレーニングサンプルは、機械学習モデルをトレーニングするためのサンプルである。テストサンプルは、機械学習モデルの測定誤差(又は正確さ)をテストするためのサンプルである。
【0102】
5.他の用語
【0103】
本出願の実施形態において、「例」、「例えば」等の単語は、例、例示又は説明を与えることを表すために使用される。本出願の実施形態において「例」又は「例えば」として記述されている任意の実施形態又は設計スキームは、別の実施形態又は設計スキームよりも好ましい又はより多くの利点を有するものとして説明されるべきではない。正確には、「例」又は「例えば」のような単語の使用は、特定の方法で関連する概念を提示するように意図されている。
【0104】
本出願の実施形態における「第1」及び「第2」という用語は、単に説明の目的のために意図されたものであり、相対的な重要性の指示又は暗示、あるいは示される技術的特徴の量の暗黙の指示として理解されるべきではない。したがって、「第1」又は「第2」で限定される特徴は、明示的又は暗黙的に1つ以上の特徴を含むことがある。本出願の説明において、特段の記載がない限り、「複数の」は2つ以上を意味する。
【0105】
本出願において「少なくとも1つ」という用語は、1つ以上を意味し、本出願において「複数の」という用語は、2つ以上を意味する。例えば「複数の第2パケット」は、2つ以上の第2パケットを意味する。
【0106】
本明細書の様々な例の説明で使用される用語は、単に特定の例を説明するように意図されており、限定を構成するようには意図されていないことを理解されたい。様々な例及び添付の特許請求の範囲の説明で使用される単数形の「1つ(「one」)」(「a」及び「an」)及び「the」という用語は、文脈において特に明確に指定されていない限り、複数形も含むように意図される。
【0107】
本明細書で使用される「及び/又は」という用語は、関連する列挙される項目のうちの1つ以上の項目のいずれか又はすべての可能な組合せを示し、含むことを更に理解されたい。「及び/又は」という用語は、関連するオブジェクト間の関連付け関係を記述し、3つの関係が存在する可能性があることを表す。例えばA及び/又はBは、次の3つのケース:すなわち、Aのみが存在すること、AとBの両方が存在すること、Bのみが存在することを表してよい。加えて、本出願における記号「/」は、一般に、関連するオブジェクト間の「又は」の関係を示す。
【0108】
本出願の様々な実施形態では、プロセスのシーケンス番号は実行シーケンスを意味しないことを更に理解されたい。プロセスの実行シーケンスは、プロセスの機能と内部ロジックに基づいて決定されるべきであり、本出願の実施形態の実装プロセスに対するいかなる制限としても解釈されるべきではない。
【0109】
Aに基づいてBを決定することは、Aのみに基づいてBが決定されることを意味するものではなく、Bは、代替的にA及び/又は他の情報に基づいて決定されることがあることも理解されたい。
【0110】
本明細書で使用されているとき、「含む(include)」(「含む(includes)」、「含む(including)」、「備える(comprises)」及び/又は「備えている(comprising)」としても言及される)という用語は、記載される特徴、整数、ステップ、動作、要素及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素及び/又はそれらのグループの存在又は追加を除外しないことを更に理解されたい。
【0111】
「~場合(if)」という用語は、「とき(when)」(when」又は「upon」)、「決定したことに応答して(in response to determining)」又は「検出したことに応答して("in response to detecting)」という意味として解釈されてもよいことを更に理解されたい。同様に、文脈に応じて、「~と決定される場合(if it is determined that)」又は「(表明された条件又はイベントが)検出される場合」というフレーズは、「~と決定されるとき(when it is determined that)」、「決定したことに応答して」、「(表明された条件又はイベントが)検出されるとき」、又は「(表明された条件又はイベントを)検出したことに応答して」の意味として解釈されてもよい。
【0112】
本明細書を通して言及される「一実施形態」、「実施形態」又は「可能な実装」は、実施形態又は実装に関連する特定の特徴、構造又は特性が、本出願の少なくとも1つの実施形態に含まれることを意味することを理解されたい。したがって、本明細書全体を通して現れる「一実施形態において」、「実施形態において」又は「可能な実装において」は、必ずしも同じ実施形態を指すとは限らない。加えて、これらの特定の特徴、構造又は特性は、任意の適切な方法で1つ以上の実施形態において組み合わされてもよい。
【0113】
本出願の実施形態における「接続」は、直接接続、間接接続、有線接続又は無線接続であり得ることを更に理解されたい。言い換えると、デバイス間の接続の方法は本出願の実施形態において限定されない。
【0114】
以下、添付図面を参照しながら、本出願の実施形態において提供される技術的解決策について説明する。
【0115】
図2は、本出願の実施形態によるネットワークシステム30の構成の概略図である。
図2に示されるネットワークシステム30は、クラウドプラットフォーム(計算リソースサービスを提供するものであり、図面には示されておらず、ネットワークアプリケーションが展開される可能性がある)と、クラウドプラットフォームに接続される、管理ドメイン1及び管理ドメイン2等の少なくとも2つの管理ドメインを含み得る。クラウドプラットフォームは、パブリッククラウド301、別のタイプのクラウドプラットフォーム、あるいはネットワークアプリケーションが展開される可能性がある別のネットワークプラットフォームであり得る。説明の簡単性のために、以下では説明のための例としてパブリッククラウド301を使用する。
【0116】
例えば管理ドメインは、電気通信事業者ネットワーク、仮想キャリアネットワーク、企業ネットワーク(例えば銀行、政府又は大企業のような業界のネットワークシステム)又はキャンパスネットワークであり得る。
【0117】
任意に、異なる管理ドメインはセキュリティの観点から互いに分離され、「ネットワークサービスデータ」又は「中間機械学習モデル」を相互に共有しない。中間機械学習モデルの定義については、以下のS102に関連する説明を参照されたい。異なる管理ドメインは、異なる電気通信事業者ネットワーク、異なる仮想キャリアネットワーク、異なる企業ネットワーク等であり得る。
【0118】
いくつかの実施形態では、1つの管理ドメインは、1つ以上の管理制御システム、例えば
図2の管理制御システム302-1、管理制御システム302-2、管理制御システム302-3と、各管理制御システムに接続される1つ以上のネットワークデバイスとを含む。例えば
図2の管理制御システム302-1は、ネットワークデバイス303-11及びネットワークデバイス303-12に接続され、管理制御システム302-2は、ネットワークデバイス303-21及びネットワークデバイス303-22に接続され、管理制御システム302-3は、ネットワークデバイス303-31及びネットワークデバイス303-32に接続される。
【0119】
管理制御システムは、ネットワークデバイスに直接又は間接的に接続され得る。
【0120】
パブリッククラウド301は、ネットワークデバイスメーカー又は別の第三者ベンダによって構築及び運用され、クラウドサービス方式で各管理ドメインと通信する。
【0121】
管理制御システムは、単一の管理ドメインのライフサイクル全体の管理と維持を担う。例えば管理制御システムは、コアネットワーク管理制御システム、アクセスネットワーク管理制御システム又はトランスポートネットワーク管理制御システムであり得る。例えば管理ドメインが特に電気通信事業者ネットワークであるとき、管理制御システムは、ネットワーク管理システム(network management system、NMS)、要素管理システム(element management system、EMS)又は運用サポートシステム(operations support system、OSS)であり得る。
【0122】
任意に、異なる管理サブドメインを管理するために、1つの管理ドメインに複数の管理制御システムが存在することがある。1つのエリア(例えば都市の1つの地区)内の管理ドメインは、管理サブドメインと呼ばれる。例えば都市の1つの地区の電気通信事業者ネットワークは、電気通信事業者サブネットワークとして使用される。異なる管理サブドメインは地理的に分離されている。
【0123】
例えば
図2の管理ドメイン2は、管理サブドメイン1、管理サブドメイン2等を含む。各管理サブドメインは1つの管理制御システムを含み、各管理制御システムは複数のネットワークデバイスに接続される。
【0124】
ネットワークデバイスは、ネットワークデバイスのアラームデータ、性能インジケータ、実行ログ又はトラフィック統計(traffic statistics)のような、ネットワークデバイスが位置する管理ドメイン又は管理サブドメイン内のネットワークサービスデータを管理制御システムに報告し、管理制御システムによって届けられる管理制御命令を実行することを担う。例えばネットワークデバイスは、ルータ、スイッチ、光回線端末(optical line terminal、OLT)、基地局又はコアネットワークデバイスであり得る。ネットワークデバイスは、機械学習モデルをトレーニングするための計算リソースとアルゴリズム環境を提供し、データストレージ及び処理能力(例えば機械学習モデルをトレーニングする能力)を有し得る。
【0125】
図1は、本出願の一実施形態に適用可能な連合学習システムの構造の概略図である。連合学習システムは、連合学習サーバと、該連合学習サーバに直接又は間接的に接続される複数の連合学習クライアントとを含む。
【0126】
連合学習サーバが複数の連合学習クライアントと連携して連合学習を実行するプロセスについては、
図11A及び
図11Bに対応する方法手順を参照されたい。加えて、連合学習サーバは、連合学習システムを更に管理し、例えばトレーニングに参加する連合学習クライアントを決定し、トレーニングインスタンスを生成し、通信セキュリティ、プライバシー保護及びトレーニングシステム信頼性保証を担う。
【0127】
連合学習サーバと連合学習クライアントは、特に論理関数モジュールであり得る。
【0128】
図3は、本出願の一実施形態による機械学習モデル管理システム40の構造の概略図である。
【0129】
図3に示される機械学習モデル管理システム40は、機械学習モデル管理センタ401と、該機械学習モデル管理センタ401に接続される、連合学習システム402-1、連合学習システム402-2のような複数の連合学習システムとを含む。各連合学習システムは、連合学習サーバ403と連合学習クライアント1~kを含み得る。
【0130】
機械学習モデル管理センタ401は、機械学習モデルを管理し、連合学習システムのための機械学習モデルを提供するよう構成される。機械学習モデル管理センタ401によって管理される機械学習モデルは、複数の連合学習システムによって使用され得る。機械学習モデルの管理は、連合学習システムにおいて機械学習モデル仕様に従って機械学習モデルパッケージを生成することと、機械学習モデルパッケージのための署名ファイル等を生成することと、機械学習モデルパッケージを、別の連合学習サーバがダウンロードして使用するために、機械学習モデル市場(market)に記憶することとを含み得る。
【0131】
表1は、本出願のこの実施形態による、機械学習モデル市場における機械学習モデルパッケージの例を列挙する。
【表1】
【0132】
各連合学習システムは、機械学習モデル管理センタ401によって届けられる機械学習モデル(すなわち、第1機械学習モデル)に基づいて連合学習を実行し、連合学習結果(すなわち、第2機械学習モデル)を機械学習モデル管理センタ401に報告するよう構成される。
【0133】
一例として、機械学習モデル管理センタ401は、表現状態転送(representational state transfer、REST)プロトコルを介して連合学習システム内の連合学習サーバと通信し得る。
【0134】
機械学習モデル管理センタ401は、特に論理機能モジュールであり得る。
【0135】
図4は、本出願の一実施形態による機械学習モデル管理システム40が使用されるネットワークシステム30のシステム構造の概略図である。
【0136】
図4では、機械学習モデル管理センタ401はパブリッククラウド301において展開され、異なる管理ドメインのために機械学習モデル管理サービスを提供する。加えて、
図5に示されるように、パブリッククラウド301は以下のものを更に含んでよい:
【0137】
機械学習モデルトレーニングプラットフォーム301A:これは、機械学習モデルをトレーニングするために必要な計算リソース、機械学習アルゴリズムフレームワーク、トレーニングアルゴリズム、機械学習モデルデバッグツール等を提供し、機械学習モデルをトレーニングするために必要なデータガバナンス、特徴エンジニアリング、機械学習アルゴリズム選択、機械学習モデルパラメータ最適化、機械学習モデルの評価及びテストのような機能を提供するよう構成される。例えば機械学習モデルトレーニングプラットフォーム301Aは、管理ドメインに対して、モデルサービスに対応する機械学習モデル(例えば集約機械学習モデル)のトレーニングを完了し得る。
【0138】
セキュア通信モジュール301B:これは、パブリッククラウド301と管理制御システムとの間のセキュア通信の能力を提供するよう構成される。例えばセキュア通信モジュール301Bは、パブリッククラウド301と管理制御システムとの間で伝送される情報を暗号化するよう構成される。
【0139】
機械学習モデル管理センタ401がパブリッククラウド301に展開された後、機械学習モデル管理センタ401は、計算リソース及び/又は通信リソースのような、パブリッククラウド301のリソースを再利用してよい。例えば
図5を参照すると、機械学習モデル管理センタ401は、機械学習モデルトレーニングプラットフォーム301Aにおいて、モデルサービスに対応する機械学習モデルのトレーニングを完了し、その後、別の管理ドメインのために機械学習モデルを提供してよい。別の例では、
図5を参照すると、セキュア通信モジュール301Bは、パブリッククラウド301上の機械学習モデル管理センタ401と管理制御システム内の連合学習サーバとの間でセキュア通信の能力を提供するよう構成される。例えばセキュア通信モジュール301Bは、機械学習モデル管理センタ401と連合学習サーバとの間で伝送される機械学習モデル(又は機械学習モデルパッケージ)を暗号化するよう構成される。
【0140】
図4では、連合学習サーバが管理制御システムにおいて展開されている。例えば連合学習サーバ403-1が管理制御システム302-2において展開され、連合学習サーバ403-2が管理制御システム302-3において展開されている。加えて、
図6に示されるように、管理制御システム(例えば管理制御システム302-2)は次のものを更に含み得る:
【0141】
管理制御基本プラットフォーム302A:これは、計算リソース、通信リソース及び連合学習クライアントの外部管理制御インタフェースを提供し、別のソフトウェアシステム能力を提供するよう構成される。
【0142】
管理制御ノースバウンド(northbound)インタフェース302B:これは、管理制御システムによってパブリッククラウド301と通信するために使用される。
【0143】
管理制御サウスバウンド(southbound)インタフェース302C:これは、管理制御システムによってネットワークデバイスと通信するために使用される。管理制御サウスバウンドインタフェース302Cは、Google(登録商標)リモートプロシージャコールRPC(google remote procedure call、gRPC)インタフェース、表現状態転送(representational state transfer、REST)インタフェース等を含み得る。
【0144】
セキュア通信モジュール301D:これは、管理制御システムとパブリッククラウド301との間のセキュア通信の能力と、管理制御システムとネットワークデバイスとの間のセキュア通信の能力を提供するよう構成される。例えばセキュア通信モジュール302Dは、管理制御システムとパブリッククラウド301との間で伝送される情報を暗号化し、管理制御システムとネットワークデバイスとの間で伝送される情報を暗号化するよう構成される。
【0145】
セキュア通信モジュール302Dは、第1サブモジュール及び第2サブモジュールを含み得ることに留意されたい。第1サブモジュールは、管理制御システムとパブリッククラウド301との間のセキュア通信の能力を提供するよう構成される。第1サブモジュールの機能は、前述のセキュア通信モジュール301Bの機能に対応する。第2サブモジュールは、管理制御システムとネットワークデバイスとの間のセキュア通信の能力を提供するよう構成される。第2サブモジュールの機能は、以下のセキュア通信モジュール303Cの機能に対応する。
【0146】
連合学習サーバが管理制御システムに展開された後、連合学習サーバは、計算リソース及び/又は通信リソースのような、管理制御システムのリソースを再利用し得る。例えば
図6を参照すると、管理制御基本プラットフォーム302Aは、連合学習サーバに実行用の計算リソース又は通信リソースを提供し、連合学習サーバのために外部管理制御インタフェースを提供するよう構成される。ユーザは、制御インタフェースにおいて連合学習システムを管理及び構成することができる。管理制御基本プラットフォーム302Aは、連合学習サーバのための別の必要なソフトウェアシステム能力、例えばユーザ認証、セキュリティ証明書又は許可管理を提供するよう更に構成される。別の例では、
図6を参照すると、連合学習サーバは、管理制御ノースバウンドインタフェース302Bを通して、パブリッククラウド301上の機械学習モデル管理センタ401と通信し得る。更に別の例として、
図6を参照すると、連合学習サーバは、管理制御サウスバウンドインタフェース302Cを通して、ネットワークデバイス上の連合学習クライアントと通信し得る。
【0147】
図4では、連合学習クライアントはネットワークデバイスにおいて展開される。例えば連合学習クライアント404-1はネットワークデバイス303-21において展開され、連合学習クライアント404-2はネットワークデバイス303-22において展開され、連合学習クライアント404-3はネットワークデバイス303-31において展開され、連合学習クライアント404-4はネットワークデバイス303-32において展開される。加えて、
図7に示されるように、ネットワークデバイス(例えばネットワークデバイス303-21)は次のものを更に含み得る:
【0148】
ローカルトレーニングモジュール303A:これは、ローカルトレーニングのための計算能力、ローカルデータ処理能力及びトレーニングアルゴリズムフレームワーク、例えばTensorFlowトレーニングフレームワーク又はCaffeトレーニングフレームワークを有する。
【0149】
ネットワークサービスモジュール303B:これは、ネットワークデバイスのネットワークサービス処理手順を実行する、例えば機械学習モデルの推論結果(すなわち、機械学習モデルの出力情報)に基づくパケット転送等の機能を実行するよう構成され、ここで、ネットワークサービス処理手順の制御情報は、その推論結果から得られることがある。ネットワークサービスモジュール303Bは更に、ローカルトレーニングモジュール303Aがモデルの更新と最適化を実行するように、ネットワークサービス実行プロセスで生成される性能インジケータ又はアラームデータのようなネットワークサービスデータを、ローカルトレーニングモジュール303Aに送信する必要がある。
【0150】
セキュアな通信モジュール303C:これは、管理制御システムとネットワークデバイスとの間のセキュアな通信の能力を提供するよう構成される。例えばセキュアな通信モジュール303Cは、管理制御システムとネットワークデバイスとの間で伝送される情報を暗号化するよう構成される。
【0151】
連合学習クライアントがネットワークデバイスにおいて展開された後、連合学習クライアントは、計算リソース及び/又は通信リソースのようなネットワークデバイスのリソースを再利用し得る。例えば
図7を参照すると、連合学習クライアントは、ローカルトレーニングモジュール303Aと連合学習サーバとの間の通信インタフェース及び管理インタフェースとして機能する。具体的には、連合学習クライアントは、連合学習サーバとのセキュアな通信を確立し、集約機械学習モデルをダウンロードし、中間機械学習モデルと初期機械学習モデルとの間のパラメータ更新情報をアップロードし、トレーニングポリシーを使用することによってローカルアルゴリズムを共同で制御等する。連合学習システムのローカルエージェントとして、連合学習クライアントは、システムアクセス、セキュリティ認証、起動とロード等を含め、連合学習ローカルノードのローカル管理を実行する。また、連合学習クライアントは、データ暗号化、プライバシー保護及びマルチパーティ計算を含め、連合学習ローカルノードに対するセキュリティとプライバシー保護も実行する。
【0152】
任意に、管理制御システムは、ローカルトレーニングモジュール303Aを更に含んでよい。この場合、ネットワークデバイスは、ローカルトレーニングモジュール303Aを含まなくてよい。
【0153】
図8は、本出願の一実施形態による、機械学習モデル管理システム40が使用されるネットワークシステム30の別のシステム構造の概略図である。
図8では、機械学習モデル管理センタ401がパブリッククラウド301において展開される。連合学習サーバと連合学習クライアントの両方が管理制御システムにおいて展開される。例えば連合学習サーバ403-1と連合学習クライアント404-1が管理制御システム302-2において展開され、連合学習クライアント404-2が管理制御システム302-3において展開される。
【0154】
図8に示されるシステムは、1つの管理ドメイン(例えば
図2の管理ドメイン2)が複数の管理サブドメインを含むシナリオで使用される。このシナリオでは、任意に、連合学習サーバが、管理ドメイン内の管理制御システムにおいて展開され、連合学習サーバに接続された連合学習クライアントが、別の管理制御システムにおいて展開される。更に任意に、連合学習サーバに接続された連合学習クライアントは、連合学習サーバが展開される管理制御システムにおいて展開されても、展開されなくてもよい。
【0155】
図8に示されるネットワークアーキテクチャでは、管理制御システムは、管理ドメイン-レベルの障害分析、管理ドメイン-レベル最適化ポリシー及び管理サブドメイン内の管理ドメイン-レベルの容量管理のような、管理ドメイン-レベル(又はネットワーク-レベル)情報管理を担う。管理制御システムは、管理サブドメイン-粒度トレーニングサンプルに基づいてローカルトレーニングを実行し得る。典型的な適用は、例えば管理ドメイン-レベルのインジケータ異常検出である。具体的には、管理制御システムは、すべての管理されるネットワークデバイスによって報告された性能インジケータに対して集中型トレーニングを実行し、インジケータ異常検出のための管理ドメイン-レベルの機械学習モデルを生成する。
【0156】
図4に示されるネットワークアーキテクチャと比較して、
図8に示されるネットワークアーキテクチャは、同じ管理制御システム上での連合学習サーバと連合学習クライアントの展開をサポートし、ネットワークデバイス-粒度モデルトレーニングを管理ドメイン-粒度モデルトレーニングに拡張する。これは、管理ドメイン-レベルの機械学習モデルをトレーニング及び最適化するために連合学習の適用範囲を拡張する。加えて、これは、トレーニングを通して得られる機械学習モデルの不十分な精度、不十分な汎化能力、そのための長いデータ収集期間及び多くの手動入力のような、ネットワークデバイス-粒度モデルトレーニングにおけるトレーニングサンプルの量が少ないことに起因する問題を解決するのに役立つ。
【0157】
図4及び
図8は代替的に、組み合わせて使用されてもよいことに留意されたい。例えばモデルトレーニングは、いくつかの管理ドメインではネットワークデバイスの粒度で実行され、いくつかの他の管理ドメインでは管理ドメインの粒度で実行されて、新しい実施形態を形成する。
【0158】
従来の技術との違いは、
図4及び
図8に示されるネットワークアーキテクチャでは、機械学習モデルのトレーニングプロセスが管理ドメイン内で完了し、ネットワークサービスデータが管理ドメインの外部に送信されないことにある。これは、管理ドメイン内のネットワークサービスデータのセキュリティの向上に役立つ。さらに、機械学習モデルは管理ドメインの間で共有される。このように、機械学習モデルを、異なる管理ドメインで繰り返しトレーニングする必要はなく、社会全体の観点で計算リソースを節約し、各管理ドメイン(例えば各電気通信事業者ネットワーク)の構築コストとメンテナンスコストを削減する。
【0159】
さらに、相互共有の場合、連合学習は、最新の機械学習モデルに基づいて、異なる管理ドメインにおいて実行が始まることがある。このように、データサンプル収集、データガバナンス、機能エンジニアリング、モデルトレーニング及びモデルテストのような処理プロセスが省略され、それにより、モデル更新の周期性を大幅に短縮する。
【0160】
加えて、
図4及び
図8に示されるネットワークアーキテクチャでは、連合学習システムが既存のネットワークシステムのリソース(計算リソース又は通信リソースのような)を再利用し得る。これにより、連合学習システムの導入によるネットワークシステムの変更を減らすのを助け、ファイアウォール又はジャンプサーバのような通信セキュリティ管理手段を追加する必要がない。
【0161】
なお、任意の連合学習システム及び上記の任意のネットワークアーキテクチャにおける各デバイス/機能モジュールの関連する機能については、以下で提供される機械学習モデル管理方法(例えば
図10に示される機械学習モデル管理方法)の関連するステップを参照されたい。詳細はここでは再度説明しない。
【0162】
いくつかの実施形態では、1つの管理ドメインは1つ以上のネットワークデバイスを含む。パブリッククラウド301は、該1つ以上のネットワークデバイスを制御する。実施形態に基づいて、機械学習モデル管理センタがパブリッククラウド301において展開されてよく、連合学習クライアントがネットワークデバイスにおいて展開されてよい。機械学習モデル管理センタは、連合学習サーバを使用することなく、連合学習クライアントを直接制御するよう構成される。
【0163】
ハードウェア実装では、パブリッククラウド301又は管理制御システムは、1つのデバイスによって実装されてよく、あるいは複数のデバイスによって共同で実装されてもよい。これは、本出願の実施形態では限定されない。
【0164】
図9は、本出願の実施形態によるコンピュータデバイス70のハードウェア構造の概略図である。コンピュータデバイス70は、機械学習モデル管理センタ401、連合学習サーバ又は連合学習クライアントが展開されるデバイスの機能を実装するよう構成され得る。例えばコンピュータデバイス70は、パブリッククラウド301又は管理制御システムの一部又はすべての機能を実装するよう構成され得るか、あるいはネットワークデバイスの機能を実装するよう構成され得る。
【0165】
図9に示されるコンピュータデバイス70は、プロセッサ701、メモリ702、通信インタフェース703及びバス704を含み得る。プロセッサ701、メモリ702及び通信インタフェース703は、バス704を介して相互に接続されてよい。
【0166】
プロセッサ701は、コンピュータデバイス70のコントロールセンタであり、汎用中央処理ユニット(central processing unit、CPU)、別の汎用プロセッサ等であり得る。汎用プロセッサは、マイクロプロセッサ、任意の従来のプロセッサ等であり得る。
【0167】
一例では、プロセッサ701は、1つ以上のCPU、例えば
図9に示されるCPU0及びCPU1を含んでよい。
【0168】
メモリ702は、読み取り専用メモリ(read-only memory、ROM)又は静的な情報と命令を記憶することができる別のタイプの静的ストレージデバイス、ランダムアクセスメモリ(random access memory、RAM)又は情報と命令を記憶することができる別のタイプの動的ストレージデバイス、電気的に消去可能なプログラム可能な読み取り専用メモリ(electrically erasable programmable read-only memory、EEPROM)、磁気ディスク記憶媒体又は別の磁気ストレージデバイス、あるいは命令又はデータ構造の形で予期されるプログラムコードを搬送又は記憶することができ、かつコンピュータによりアクセスすることができる任意の他の媒体であってよいが、これらに限定されない。
【0169】
可能な実装では、メモリ702は、プロセッサ701とは独立であってもよい。メモリ702はバス704を介してプロセッサ701に接続されてよく、データ、命令又はプログラムコードを記憶するよう構成される。メモリ702に記憶された命令又はプログラムコードを呼び出して実行するとき、プロセッサ701は、本出願の実施形態で提供される機械学習モデル管理方法、例えば
図10に示される機械学習モデル管理方法を実装することができる。
【0170】
別の可能な実装では、メモリ702は代替的に、プロセッサ701と統合されてもよい。
【0171】
通信インタフェース703は、通信ネットワークを通してコンピュータデバイス70を別のデバイスに接続するよう構成され、ここで、通信ネットワークは、イーサネット(登録商標)、無線アクセスネットワーク(radio access network、RAN)、無線ローカルエリアネットワーク(wireless local area network、WLAN)等であってよい。通信インタフェース703は、データを受信するよう構成される受信ユニットと、データを送信するよう構成される送信ユニットを含んでよい。
【0172】
バス704は、業界標準アーキテクチャ(industry standard architecture、ISA)バス、周辺構成要素相互接続(peripheral component interconnect、PCI)バス、拡張業界標準アーキテクチャ(extended industry standard architecture、EISA)バス等であってよい。バスは、アドレスバス、データバス、制御バス等に分類されてよい。表現の容易性のために、
図9では、1つの太い線を使用してバスを表しているが、1つのバスのみ又は1つのタイプのバスのみが存在することを意味していない。
【0173】
なお、
図9に示される構造はコンピュータデバイス70に対する限定を構成するものではないことに留意されたい。コンピュータデバイス70は、
図9に示される構成要素に加えて、図に示される構成要素よりも多くの又は少ない構成要素を含んでよく、いくつかの構成要素が組み合わされてもよく、あるいは、コンピュータデバイス70は、異なる構成要素の配置を有してもよい。
【0174】
図10は、本出願の一実施形態による機械学習モデル管理方法における対話の概略図である。
【0175】
図10に示される方法は、
図3に示される機械学習モデル管理システム40に適用されてよい。機械学習モデル管理システム40は、
図4又は
図8に示されるネットワークシステム30において展開されてよい。
【0176】
図10に示される方法は、次のステップS101からS105を含み得る。
【0177】
S101:機械学習モデル管理センタは、第1機械学習モデルを第1連合学習サーバに送信する。第1連合学習サーバは、機械学習モデル管理センタに接続される任意の連合学習サーバであってよい。
【0178】
第1機械学習モデルは、モデルサービスに対応し、かつ機械学習モデル管理センタに記憶されている機械学習モデルである。モデルサービスに対応する機械学習モデルは更新され得る。第1機械学習モデルは、モデルサービスに対応し、かつ機械学習モデル管理センタに記憶されている初期機械学習モデルであり得るか、あるいはモデルサービスに対応し、かつ機械学習モデル管理センタに記憶されている非初期機械学習モデルであり得る。第1機械学習モデルの具体例については、
図11A及び
図11Bに示される実施形態を参照されたい。
【0179】
任意に、S101は以下を含んでよい:機械学習モデル管理センタは、機械学習モデルパッケージを第1連合学習サーバに送信し、ここで、機械学習モデルパッケージは、第1機械学習モデル(すなわち、モデルファイル)を含む。
【0180】
更に任意に、機械学習モデル管理センタは、RESTプロトコルに基づいて、機械学習モデルパッケージを第1連合学習サーバに送信する。加えて、機械学習モデルパッケージは、第1機械学習モデルの記述ファイルを更に含んでよい。
【0181】
任意に、機械学習モデル管理センタによって第1連合学習サーバに送信される機械学習モデルパッケージは、暗号化、スクランブル及び/又は別のセキュリティ処理操作が実行された機械学習モデルパッケージであってよく、機械学習モデルパッケージが伝送プロセスで盗まれて変更されるリスクを軽減し、それにより、機械学習モデルパッケージのセキュリティを改善することができる。
【0182】
これに基づいて、暗号化された機械学習モデルパッケージを受信した後、第1連合学習サーバは、暗号化された機械学習モデルパッケージを復号することができる。スクランブルされた機械学習モデルパッケージを受信した後、第1連合学習サーバは、スクランブルされた機械学習モデルパッケージをスクランブル解除することができる。
【0183】
任意に、機械学習モデル管理センタが機械学習モデルパッケージを第1連合学習サーバに伝送するプロセスでセキュアなプライベート回線等を使用して、機械学習モデルパッケージが伝送プロセスで盗まれて変更されるリスクを軽減し、それにより、機械学習モデルパッケージのセキュリティを改善することができる。
【0184】
S101のトリガ条件は、本出願の実施形態では限定されない。以下に2つの実装を列挙する。
【0185】
方式1:機械学習モデル管理センタは、第1連合学習サーバの要求に応じて、第1機械学習モデルを第1連合学習サーバに送信する。
【0186】
具体的には、第1連合学習サーバは、機械学習モデル要件情報を機械学習モデル管理センタに送信する。例えば第1連合学習サーバは、RESTプロトコルに基づいて機械学習モデル要件情報を機械学習モデル管理センタに送信する。次に、機械学習モデル管理センタは、機械学習モデル要件情報に基づいて第1機械学習モデルを決定する。
【0187】
すなわち、第1連合学習サーバは、連合学習サーバが第1機械学習モデルを使用する必要があるたびに、第1機械学習モデルを取得する(具体的には、第1連合学習サーバは、第1機械学習モデルを必要とするときにのみ、機械学習モデル管理センタから第1機械学習モデルを取得する)。これは、第1連合学習サーバが位置するデバイスの記憶領域を節約するのに役立つ。
【0188】
任意に、機械学習モデル要件情報は、機械学習モデルに対応するモデルサービス情報及び/又は機械学習モデルトレーニング要件を含む。
【0189】
任意に、機械学習モデルトレーニング要件は、以下のうちの少なくとも1つ、すなわち、トレーニング環境、アルゴリズムのタイプ、ネットワーク構造、トレーニングフレームワーク、集約アルゴリズム又はセキュリティモードのうちの少なくとも1つを含む。
【0190】
機械学習モデル管理センタは、機械学習モデルの識別子と機械学習モデルの記述情報との間の対応関係を維持してよい。対応関係の具体的な表現形式は、本出願のこの実施形態において限定されない。例えば機械学習モデル管理センタは、表形式等で対応関係を表してよい。
【0191】
表2は、本出願の本実施形態による機械学習モデルの識別子と機械学習モデルの記述情報との間の対応関係の例を示す。
【表2】
【0192】
例えば機械学習モデル管理センタは、「機械学習モデルの識別子と機械学習モデルの記述情報との間の対応関係」を検索し、例えば第1連合学習サーバによって送信された機械学習モデルの要件情報に基づいて表2を検索して、第1機械学習モデルの識別子を決定し;次いで、「機械学習モデルの識別子と機械学習モデルパッケージとの間の対応関係」を検索し、例えば表1を検索して、第1機械学習モデルのモデルパッケージを取得してよい。次に、機械学習モデル管理センタは、第1機械学習モデルのモデルパッケージを第1連合学習サーバに送信する。
【0193】
機械学習モデルの記述ファイルには、機械学習モデルの記述情報が含まれるため、一例では、表2は本質的に表1の一部と考えられてもよいことに留意されたい。
【0194】
表3は、表2に列挙される、機械学習モデルの識別子と機械学習モデルの記述情報との間の対応の具体的な例を列挙する。
【表3】
【0195】
「入力層:100、出力層:300、隠れ層:5」は、ニューラルネットワークの入力層、出力層及び隠れ層の次元がそれぞれ100、300及び5であることを示す。別のネットワーク構造の説明もここでの説明と同様であり、詳細はここでは再度説明しない。
【0196】
一例では、第1連合学習サーバが、機械学習モデルトレーニング要件は:機械学習モデルに対応するモデルサービス情報がサービス認識タイプであり、機械学習モデルのトレーニング環境がEPSNであり、機械学習モデルをトレーニングするために使用されるアルゴリズムのタイプがCNNであり、CNNの構造が「入力層:100、出力層:300、隠れ層:5」であり、CNNのトレーニングフレームワークがTensorFlowであり、機械学習モデルのセキュリティモードがMPCであると決定すると仮定する。この場合、表3から、機械学習モデル管理センタによって決定される第1機械学習モデルは、「SA 001」によって示される機械学習モデルであることを学習することができる。
【0197】
方式2:機械学習モデル管理センタは、第1機械学習モデルを第1連合学習サーバに能動的にプッシュする。
【0198】
このように、第1機械学習モデルを使用する必要があるとき、第1連合学習サーバは第1機械学習モデルをローカルで直接取得することができ、機械学習モデル管理センタからの第1機械学習モデルを要求する必要はない。したがって、これは第1機械学習モデルを取得する時間を短縮するのに役立つ。
【0199】
機械学習モデル管理センタが第1機械学習モデルを第1連合学習サーバに能動的にプッシュするためのトリガ条件は、本出願のこの実施形態では限定されない。例えば第1機械学習モデルを新たな機械学習モデルで置き換えた後、機械学習モデル管理センタは、新たな機械学習モデルを第1連合学習サーバに能動的にプッシュすることができる。別の例では、機械学習モデル管理センタは、第1機械学習モデルを初めて作成するとき、第1機械学習モデルを第1連合学習サーバに能動的にプッシュすることができる。
【0200】
なお、方法1及び方法2は代替的に組合せで使用されて新たな実施形態を形成してもよいことに留意されたい。
【0201】
S102:第1連合学習サーバは、第1機械学習モデルと、第1管理ドメイン内のローカルネットワークサービスデータとに基づいて、第1管理ドメイン内の複数の連合学習クライアントとの連合学習を実行して、第2機械学習モデルを取得する。複数の連合学習クライアントは、第1連合学習サーバに接続された一部又はすべての連合学習クライアントである。第1連合学習サーバは、第1管理ドメイン内にある。
【0202】
ローカルネットワークサービスデータは、第1管理ドメイン内の第1機械学習モデルに対応し、かつ第1連合学習サーバによって取得される、ネットワークサービスデータである。ローカルネットワークサービスデータは、第1機械学習モデルに対応するモデルサービス情報に関連する。例えば第1機械学習モデルに対応するモデルサービスがサービス認識サービスである場合、ローカルネットワークサービスデータは、アプリケーションパケット及び/又はパケットの統計データ(例えばパケットのパケット損失率)であってよい。別の例として、第1機械学習モデルに対応するモデルサービスが障害追跡及び予測サービスである場合、ローカルネットワークサービスデータは障害アラーム情報であってよい。
【0203】
S102は以下を含むことがある:第1連合学習サーバが、第1機械学習モデルと第1管理ドメイン内のローカルネットワークサービスデータとに基づいて、第1管理ドメイン内の複数の連合学習クライアントとの連合学習を1回以上実行して、第2機械学習モデルを取得する。
【0204】
連合学習の1回は、連合学習サーバにより、初期機械学習モデルを複数の連合学習クライアントに送信してから、連合学習サーバにより、複数の連合学習クライアントによってそれぞれ取得された中間機械学習モデルを取得し、取得した中間機械学習モデルを集約して、集約機械学習モデルを取得するまでのプロセスである。
【0205】
1つの連合学習プロセスでは、連合学習クライアントがモデルトレーニングの実行を開始するモデルを初期機械学習モデルと呼ぶ。
【0206】
1つの連合学習プロセスでは、連合学習クライアントは、初期機械学習モデルと、連合学習クライアントによって取得されるネットワークサービスデータに基づいて構築されたトレーニングサンプルとに基づいて、ローカルトレーニングを1回以上実行し、ローカルトレーニングが毎回終了するたびに新しい機械学習モデルを取得する。新しい機械学習モデルが第1事前設定条件を満たす場合、新しい機械学習モデルは中間機械学習モデルと呼ばれる。新しい機械学習モデルが第1事前設定条件を満たしていない場合、連合学習クライアントは中間機械学習モデルが取得されるまでローカルトレーニングを実行し続ける。
【0207】
一例では、新しい機械学習モデルの正確さが第1事前設定閾値以上である場合、連合学習クライアントが、該連合学習クライアントにより取得されたネットワークサービスデータに基づいて構築されたテストサンプルを使用することによって、新しい機械学習モデルをテストするとき、連合学習クライアントは、新しい機械学習モデルが第1事前設定条件を満たすと判断する。
【0208】
別の例では、連合学習クライアントが、該連合学習クライアントにより取得されたネットワークサービスデータに基づいて構築されたテストサンプルを使用することによって、新しい機械学習モデルをテストするとき、新しい機械学習モデルの正確さと、最後の回(又は最後の数回)のローカルトレーニングを通して取得された機械学習モデルの正確さの差が、第2事前設定閾値以下である場合、連合学習クライアントは、新しい機械学習モデルが第1事前設定条件を満たすと判断する。
【0209】
別の例では、ローカルトレーニングの回数が第3事前設定閾値に到達した場合、連合学習クライアントは、新しい機械学習モデルが第1事前設定条件を満たすと判断する。
【0210】
第1事前設定閾値、第2事前設定閾値及び第3事前設定閾値の値は、本出願のこの実施形態では限定されない。
【0211】
1つの連合学習プロセスでは、複数の連合学習クライアントにより取得された中間機械学習モデルに対してモデル集約を実行することによって連合学習サーバにより取得されたモデルを、集約機械学習モデルと呼ぶ。集約機械学習モデルが第2事前設定条件を満たす場合、集約機械学習モデルは第2機械学習モデルとして使用される。集約機械学習モデルが第2事前設定条件を満たさない場合、連合学習サーバは、集約機械学習モデルを、次回の連合学習のための初期機械学習モデルとして複数の連合学習クライアントに配信する。
【0212】
一例では、集約機械学習モデルの正確さが第4事前設定閾値以上である場合、連合学習サーバが、該連合学習サーバにより取得されたネットワークサービスデータに基づいて構築されたテストサンプルを使用することによって、集約機械学習モデルをテストするとき、連合学習サーバは、集約機械学習モデルが第2事前設定条件を満たすと判断する。
【0213】
別の例では、連合学習サーバが、該連合学習サーバにより取得されたネットワークサービスデータに基づいて構築されたテストサンプルを使用することによって、集約機械学習モデルをテストするとき、集約機械学習モデルの正確さと、最後の回(又は最後の数回)に取得された集約機械学習モデルの正確さの差が、第5事前設定閾値以下である場合、連合学習サーバは、集約機械学習モデルが第2事前設定条件を満たすと判断する。
【0214】
別の例では、連合学習の回数が第6事前設定閾値に到達した場合、連合学習サーバは、集約機械学習モデルが第2事前設定条件を満たすと判断する。
【0215】
第4事前設定閾値、第5事前設定閾値及び第6事前設定閾値の値は、本出願のこの実施形態において限定されない。
【0216】
任意に、
図11A及び
図11Bに示されるように、ステップS102は、次のステップS102A~S102Gを含んでよい。
図11A及び
図11Bでは、第1管理ドメイン内の複数の連合学習クライアントに、第1連合学習クライアントと第2連合学習クライアントが含まれる例を使用することにより説明を提供する。
図11A及び
図11Bに基づいて、第1機械学習モデルと、初期機械学習モデルと、中間機械学習モデルと、集約機械学習モデルと、第2機械学習モデルとの間の関係がより明確に説明され得る。
【0217】
S102A:第1連合学習サーバは、第1連合学習クライアントと第2連合学習クライアントに別々に第1機械学習モデルを送信する。
【0218】
例えば第1連合学習サーバは、第1連合学習クライアントに第1機械学習モデルのモデルパッケージを送信する。モデルパッケージは、第1機械学習モデルのモデルファイルを含む。任意に、モデルパッケージは、第1機械学習モデルの記述ファイルを更に含んでよい。同様に、第1連合学習サーバは、第1機械学習モデルのモデルパッケージを第2連合学習クライアントに送信する。モデルパッケージは、第1機械学習モデルのモデルファイルを含む。任意に、モデルパッケージは、第1機械学習モデルの記述ファイルを更に含んでよい。
【0219】
S102B:第1連合学習クライアントは、該第1連合学習クライアントにより取得されたネットワークサービスデータに基づいて、初期機械学習モデルとして第1機械学習モデルにローカルトレーニングを実行して、第1中間機械学習モデルを取得する。第2連合学習クライアントは、該第2連合学習クライアントにより取得されたネットワークサービスデータに基づいて、初期機械学習モデルとして第1機械学習モデルに対してローカルトレーニングを実行して、第2中間機械学習モデルを取得する。
【0220】
具体的には、連合学習クライアントがネットワークデバイスにおいて展開される場合(
図4に示されるように)、連合学習クライアントにより取得されるネットワークサービスデータは、具体的には、ネットワークデバイスによって生成されたネットワークサービスデータである。別の例として、連合学習クライアントが管理制御システムにおいて展開される場合(
図8に示されるように)、連合学習クライアントにより取得されるネットワークサービスデータは、具体的には、管理制御システムによって取得されるネットワークサービスデータであって、管理制御システムにより管理される1つ以上のネットワークデバイスによって生成及び報告されるネットワークサービスデータである。
【0221】
具体的には、第1連合学習クライアントがネットワークデバイス303-21に展開され、第2連合学習クライアントがネットワークデバイス303-22に展開されていると仮定すると、第1連合学習クライアントは、ネットワークデバイス303-21のローカル計算リソースと、ネットワークデバイス303-21によって生成されたネットワークサービスデータとを使用することによって、現在の連合学習プロセスにおいて、初期機械学習モデルとして第1機械学習モデルに対してローカルトレーニングを実行して、第1中間機械学習モデルを取得する。同様に、第2連合学習クライアントは、ネットワークデバイス303-22によって生成されたネットワークサービスデータに基づいて第1機械学習モデルに対してローカルトレーニングを実行し、第2中間機械学習モデルを取得する。
【0222】
S102C:第1連合学習クライアントは、初期機械学習モデルに対する第1中間機械学習モデルのパラメータ更新情報を第1連合学習サーバに送信する。第2連合学習クライアントは、初期機械学習モデルに対する第2中間機械学習モデルのパラメータ更新情報を第1連合学習サーバに送信する。
【0223】
例えばS102Bの例を引き続き使用すると、第1連合学習クライアントは、初期機械学習モデルに対する第1中間学習モデルのパラメータ更新情報を第1パラメータ更新ファイルにパックし、第1パラメータ更新ファイルを第1連合学習サーバに送信する。例えば第1機械学習モデルがパラメータAとパラメータBを含み、パラメータAとパラメータBの値がそれぞれa1とb1であり、ローカルトレーニングを実行することによって第1連合学習クライアントにより取得された第1中間学習モデルに含まれるパラメータAとパラメータBの値が、それぞれa2とb2であると仮定すると、初期機械学習モデルに対する第1中間学習モデルのパラメータ更新情報は、パラメータAの更新情報a2-a1とパラメータBの更新情報b2-b1を含む。同様に、第2連合学習クライアントは、第1機械学習モデルに対する第2中間学習モデルのパラメータ更新情報を第2パラメータ更新ファイルにパックし、第2パラメータ更新ファイルを第1連合学習サーバに送信する。
【0224】
S102D:第1連合学習サーバは、初期機械学習モデルと、第1連合学習クライアントによって送信されたパラメータ更新情報とに基づいて、第1中間機械学習モデルを取得する。第1連合学習サーバは、初期機械学習モデルと、第2連合学習クライアントによって送信されたパラメータ更新情報とに基づいて、第2中間機械学習モデルを取得する。次いで、第1連合学習サーバは、集約アルゴリズムを使用することによって、第1中間機械学習モデルと第2中間機械学習モデルに対してモデル集約を実行し、集約機械学習モデルを取得する。
【0225】
例えばS102Cの例を引き続き使用すると、第1連合学習サーバは、パラメータAの更新情報a2-a1と、初期機械学習モデルのパラメータAの値a1とに基づいて、第1中間機械学習モデルのパラメータAの値a2を取得し、パラメータBの更新情報b2-b1と、初期機械学習モデルのパラメータBの値b1とに基づいて、第1中間機械学習モデルのパラメータBの値b2を取得する。さらに、第1連合学習サーバは、初期機械学習モデルのパラメータAとパラメータBにそれぞれ値a2とb2を割り当てて、第1中間機械学習モデルを取得する。同様に、第1連合学習サーバは、初期機械学習モデルと、第2連合学習クライアントによって送信されたパラメータ更新情報とに基づいて、第2中間機械学習モデルを取得し得る。
【0226】
任意に、集約アルゴリズムは加重平均アルゴリズムであってもよい。例えば第1連合学習サーバは、第1連合学習クライアントによって取得されたネットワークサービスデータと、第2連合学習クライアントによって取得されたネットワークサービスデータとの両方の完全性に基づいて、第1連合学習クライアントと第2連合学習クライアントによって報告されたパラメータ更新情報の重みを指定し、同じパラメータについて、第1連合学習クライアントと第2連合学習クライアントによって報告されたパラメータ更新情報に対して加重合計を実行して、次いで平均化を実行して、そのパラメータについてパラメータ更新情報を取得する。
【0227】
異なる集約アルゴリズムを使用して異なる機械学習モデルをトレーニングして、異なる連合学習トレーニング目標を満たす、例えば周期反復の数を減らすことができることに留意されたい。連合学習サーバは、モデル集約計算を実行することに加えて、パラメータ更新情報に基づいて、次の連合学習プロセスにおける連合学習クライアントのトレーニングポリシーを更に定式化することができる。
【0228】
加えて、S102C及びS102Dは、連合学習サーバが、複数の連合学習クライアントによって取得された複数の中間機械学習モデルを取得する実装であることに留意されたい。当然、具体的な実装はそれに限定されない。例えば連合学習クライアントは、中間機械学習モデルを連合学習サーバに直接送信し得る。
【0229】
S102E:第1連合学習サーバは、集約機械学習モデルが第2事前設定条件を満たすかどうかを判断する。
【0230】
集約機械学習モデルが第2事前設定条件を満たさない場合は、S102Fが実行される。集約機械学習モデルが第2事前設定条件を満たす場合は、S102Gが実行される。
【0231】
S102F:第1連合学習サーバは、集約機械学習モデルを第1機械学習モデルとして決定する。S102Fを実行すると、S102Aに戻る。
【0232】
S102G:第1連合学習サーバは、集約機械学習モデルを第2機械学習モデルとして決定する。
【0233】
S103:第1連合学習サーバは、第2機械学習モデル(すなわち、第2機械学習モデルのモデルファイル)を第1連合学習クライアントと第2連合学習クライアントに別々に送信する。
【0234】
例えば第1連合学習サーバは、第2機械学習モデルのモデルパッケージを第1連合学習クライアントに送信する。モデルパッケージは、第2機械学習モデルのモデルファイルを含む。任意に、モデルパッケージは、第2機械学習モデルの記述ファイルを更に含んでもよい。同様に、第1連合学習サーバは、第2機械学習モデルのモデルパッケージを第2連合学習クライアントに送信する。モデルパッケージは、第2機械学習モデルのモデルファイルを含む。任意に、モデルパッケージは、第2機械学習モデルの記述ファイルを更に含んでもよい。
【0235】
次いで、複数の連合学習クライアントは、第2機械学習モデルに基づいて、第2機械学習モデルに対応するモデルサービスを実行することができる。例えば第2機械学習モデルがサービス認識モデルである場合、複数の連合学習クライアントは、第2機械学習モデルに基づいてアプリケーションを識別することができる。
【0236】
S104:第1連合学習サーバは、第2機械学習モデルを機械学習モデル管理センタに送信し、第2機械学習モデルが第2管理ドメイン内のデバイスによって使用されることを可能にする。
【0237】
言い換えると、本出願のこの実施形態で提供される技術的解決策をネットワークシステム(例えば
図4又は
図8に示されるネットワークシステム)に適用する場合、第2機械学習モデルを別の管理ドメイン内のデバイスによって使用することができる。
【0238】
一実装では、第2管理ドメイン内のデバイスは、第2連合学習サーバが展開されているデバイスであってよい。第2連合学習サーバは第2管理ドメイン内にある。言い換えると、第2機械学習モデルは、第2管理ドメインの第2連合学習サーバによって使用されてよい。
【0239】
第2連合学習サーバは、第2機械学習モデルを使用する許可を有する任意の連合学習サーバであってよい。特定の実装中に、どの連合学習サーバ(1つ又は複数)が第2機械学習モデルにアクセスする許可を有しているかは、事前に定義されてよく、あるいは第2機械学習モデルを生成する連合学習サーバ(すなわち、第1連合学習サーバ)によって決定されてもよい。任意に、第1連合学習サーバは、第2機械学習モデルのアクセス許可情報を機械学習モデル管理センタに更に送信してもよい。その後、機械学習モデル管理センタは、アクセス許可情報に基づいて、第2機械学習モデルのモデルパッケージを生成してよい。
【0240】
アクセス許可情報は、第2機械学習モデルの使用が許可されている連合学習サーバを表すための情報である。アクセス許可情報の特定の実装は、本出願のこの実施形態では限定されない。例えばアクセス許可情報は、第2機械学習モデルの使用が許可されている連合学習サーバの識別子であってよい。別の例として、第2機械学習モデルをすべての他の連合学習サーバによって使用することができる場合、アクセス許可情報は「第2機械学習モデルを他のすべての連合学習サーバによって使用することができることを示す」事前定義された情報であってよい。
【0241】
任意に、第2機械学習モデルをすべての他の連合学習サーバによって使用することができる場合、第1連合学習サーバは、第2機械学習モデルのアクセス許可情報を機械学習モデル管理センタに送信しないことがある。
【0242】
もちろん、第2機械学習モデルはまた、第1連合学習サーバによって引き続き使用されてもよい。
【0243】
別の実装では、第2管理ドメイン内のデバイスは、連合学習クライアントが展開されるデバイスであってよい。連合学習クライアントは第2管理ドメイン内にある。連合学習クライアントは、第2機械学習モデルを使用する許可を有する任意の連合学習クライアントであってよい。言い換えると、第2機械学習モデルは、第2管理ドメイン内の連合学習クライアントによって使用されてよい。
【0244】
別の実装では、第2管理ドメイン内のデバイスは代替的に、モデルサービス実行デバイス(すなわち、機械学習モデルを使用することによって対応するモデルサービスを実行することができるデバイス)であってもよい。機械学習モデル管理センタから第2機械学習モデルを取得した後、デバイスは、第2機械学習モデルと、第2管理ドメイン内のネットワークデータとに基づいて、対応するモデルサービス(例えばサービス認識サービス)を実行することができる。これは、通信事業者(例えば仮想キャリア)が連合学習サーバ又はクライアントを有していないが、通信事業者が依然として、機械学習モデル管理センタから、別の通信事業者の連合学習サーバによって提供される機械学習モデルを取得することができることを意味する。
【0245】
任意に、S104は次のS104A~S104Cを含んでよい。
【0246】
S104A:第1連合学習サーバは、第2機械学習モデルの適用効果を取得する。
【0247】
第2機械学習モデルの適用効果は、第2機械学習モデルの試行効果として理解され得る。例えば第1連合学習サーバは、第1連合学習サーバが属する管理ドメイン内のネットワークサービスデータに基づいて第2機械学習モデルを試行し、第2機械学習モデルの試行効果(すなわち、適用効果)を取得する。
【0248】
具体的には、第1連合学習サーバは、該第1連合学習サーバに接続された複数の連合学習クライアントに第2機械学習モデルを送信し、複数の連合学習クライアントの各々は、該連合学習クライアントにより取得される第2機械学習モデルとネットワークサービスデータとに基づいて、第2機械学習モデルに対応するモデルサービスを実行して実行結果を取得し、実行結果を第1連合学習サーバに送信する。第1連合学習サーバは、複数の連合学習クライアントによって送信された複数の実行結果を要約して、第2機械学習モデルの試行効果(すなわち、適用効果)を取得する。
【0249】
要約のルールは、本出願のこの実施形態において限定されない。
【0250】
第2機械学習モデルに対応するモデルサービスが異なると、実行結果も異なる。
【0251】
一例では、第2機械学習モデルに対応するモデルサービスが識別サービス(例えばサービス認識サービス)であるとき、実行結果は、第2機械学習モデルの識別率、すなわち、識別に関与するオブジェクトのうち、第2機械学習モデルによって識別することができるオブジェクトの割合であり得る。例えばサービス認識サービスは、特に、パケットが属するアプリケーション(例えばビデオ再生アプリケーション)を識別する。第2機械学習モデルに対応するモデルサービスがサービス認識サービスであるとき、第1連合学習サーバは、要約を通して、a個のパケットが事前設定された期間内に第2機械学習モデルに入力されたことを学習し、第2機械学習モデルは、b個のパケットの各々が属するアプリケーションを識別し、ここで、a>bであり、aとbの両方が整数である。この場合、第2機械学習モデルの識別率はb/aである。
【0252】
別の例では、第2機械学習モデルに対応するモデルサービスが識別サービス(例えばサービス認識サービス)であるとき、実行結果は、ある期間内に第2機械学習モデルによって識別されなかったパケットの量、識別に関与したオブジェクトのうち、第2機械学習モデルによって識別することができなかったオブジェクトの割合等であり得る。
【0253】
識別サービスは予測サービス(例えば障害追跡及び予測サービス)に置き換えられてもよいこと留意されたい。この場合、実行結果は、第2機械学習モデルの予測率、すなわち、予測に関与するオブジェクトのうち、第2機械学習モデルによって予測することができるオブジェクトの割合であり得る。あるいは、識別サービスは検出サービス(例えばKPI異常検出サービス)に置き換えられてもよい。この場合、実行結果は、第2機械学習モデルの検出率であり得る。もちろん、識別サービスは別のタイプのサービスに置き換えられてもよい。この場合、実行結果の具体的な実装は、S104Aの例に基づいて推測され得る。
【0254】
S104B:適用効果が事前設定された条件を満たすと判断される場合、第1連合学習サーバは、第2機械学習モデルを機械学習モデル管理センタに送信する。
【0255】
第2機械学習モデルの適用効果が事前設定された条件を満たすことは、次のように理解されてよい:第2機械学習モデルの適用効果が事前設定された目標に到達すること。第2機械学習モデルに対応するモデルサービスが異なると、事前設定された目標も異なる。
【0256】
例えば第2機械学習モデルに対応するモデルサービスがサービス認識サービスである場合、実行結果は、第2機械学習モデルの識別率であり得る。この場合、第2機械学習モデルの適用効果が事前設定された目標に到達することは:第2機械学習モデルの識別率が事前設定された識別率以上であること、又は第2機械学習モデルの識別率が履歴識別率(historical identification rate)以上であることであってよく、ここで、履歴識別率は、第1機械学習モデルの識別率等であってよい。
【0257】
S104C:適用効果が事前設定された条件を満たさないと判断される場合、第1連合学習サーバは、第2機械学習モデルと、新しいローカルネットワークサービスデータとに基づいて、複数の連合学習クライアントと新しいラウンドの連合学習を実行し、新しい第2機械学習モデルを取得する。本明細書において、「新しいローカルネットワークサービスデータ」は、トレーニングを通して第2機械学習モデルを取得するプロセスで使用されるローカルネットワークサービスデータに相対するものである。
【0258】
その後、第1連合学習サーバは、新しい第2機械学習モデルの適用効果が事前設定された条件を満たすかどうかを判断してよい。残りは、特定の時点で取得された新しい第2機械学習モデルの適用効果が事前設定された条件を満たすまで、類推によって推論できる。第1連合学習サーバは、事前設定された条件を満たす新しい第2機械学習モデルを機械学習モデル管理センタに送信する。
【0259】
これは、第1連合学習サーバによって機械学習モデル管理センタに送信される機械学習モデルの精度/正確さを向上させ、別の連合学習クライアントが機械学習モデルを使用することによって連合学習を実行するときの機械学習モデルの収束時間を更に短縮するのに役立つ。
【0260】
S105:機械学習モデル管理センタは、第1機械学習モデルを第2機械学習モデルに置き換える。
【0261】
具体的には、機械学習モデル管理センタは、第1機械学習モデルのモデルパッケージを第2機械学習モデルのモデルパッケージに置き換える。より具体的には、機械学習モデル管理センタは、第1機械学習モデルのモデルファイルを第2機械学習モデルのモデルファイルに置き換える。
【0262】
例えば表1を参照して、第1機械学習モデルが機械学習モデル1であると仮定すると、機械学習モデル管理センタは、機械学習モデルファイル1を第2機械学習モデルのモデルファイルに置き換える。このように、機械学習モデル管理センタがその後、機械学習モデル1を第1管理ドメイン内のデバイス又は別の管理ドメイン内のデバイス、例えば第1連合学習サーバ又は別の連合学習サーバ(例えば第2連合学習サーバ)に送信する必要がある場合、機械学習モデル管理センタは第2機械学習モデルのモデルファイルを送信することができる。
【0263】
任意に、第2機械学習モデルを、すべての管理ドメイン内のデバイスによって使用することができない場合、機械学習モデル管理センタが第2機械学習モデルを第2管理ドメイン内のデバイスに送信すること(デバイスの要求に応じて第2機械学習モデルを送信し、第2機械学習モデルを能動的にプッシュすることを含む)は:第2管理ドメインが第2機械学習モデルを使用する許可を有すると判断すると、機械学習モデル管理センタが、第2機械学習モデルを第2管理ドメイン内のデバイスに送信することを含んでよい。
【0264】
例えば第2機械学習モデルを、すべての連合学習サーバによって使用することができない場合、機械学習モデル管理センタが第2機械学習モデルを第2連合学習サーバに送信すること(第2連合学習サーバの要求に応じて第2機械学習モデルを送信し、第2機械学習モデルを能動的にプッシュすることを含む)は:第2連合学習サーバが第2機械学習モデルを使用する許可を有すると判断すると、機械学習モデル管理センタは、第2連合学習サーバに第2機械学習モデルを送信することを含んでよい。
【0265】
任意に、S105の前に、本方法は以下を更に含む:機械学習モデル管理センタが、受信した第2機械学習モデルに対してウイルススキャン、高感度ワードスキャン又は別の操作を実行して、第2機械学習モデルが伝送プロセスで変更されていないことを判断し、それによって第2機械学習モデルのセキュリティを決定する。また、機械学習モデル管理センタは代替的に、第三者ソフトウェアによって作成されるネットワークセキュリティ評価レポートに基づいて、第2機械学習モデルがセキュアであるかどうかを判断してもよい。S105では、第2機械学習モデルがセキュアであると判断するとき、機械学習モデル管理センタは、第1機械学習モデルを第2機械学習モデルに置き換えてよい。
【0266】
加えて、機械学習モデル管理センタは代替的に、第2機械学習モデルに対してモデルフォーマットチェックを実行して、第2機械学習モデルが、信頼できる認証済みネットワークからのものであることを判断し、それによって第2機械学習モデルのセキュリティを決定してもよい。例えば機械学習モデル管理センタは、認証済みネットワークの識別子を維持し、認証済みネットワークの保持された識別子に基づいて、第2機械学習モデルが認証済みネットワークからのものであるかどうかを判断してもよい。第2機械学習モデルが認証済みネットワークからのものである場合、これは、第2機械学習モデルがセキュアであることを示し、第2機械学習モデルが認証済みネットワークからのものでない場合、これは、第2機械学習モデルがセキュアでないことを示す。
【0267】
任意に、第2管理ドメイン内の第2連合学習サーバが第2機械学習モデルを使用するプロセスは、以下を含んでよい:
【0268】
最初に、機械学習モデル管理センタが第2機械学習モデルを第2連合学習サーバに送信する。
【0269】
例えば機械学習モデル管理センタは、第2連合学習サーバの要求に応じて、第2機械学習モデルを第2連合学習サーバに送信する。その具体的な実装については、方式1の上記説明を参照し、詳細はここでは再度説明しない。あるいは、機械学習モデル管理センタは、第2機械学習モデルを第2連合学習サーバに能動的にプッシュする。その具体的な実装については、方式2の上記説明を参照し、詳細はここでは再度説明しない。
【0270】
次いで、第2連合学習サーバは、第2機械学習モデルと第2管理ドメイン内のローカルネットワークデータとに基づいて、第2管理ドメイン内の複数の連合学習クライアントと連合学習を実行し、第3機械学習モデルを取得する。その具体的な実装については、
図11A及び
図11Bの上記説明を参照し、詳細はここでは再度説明しない。
【0271】
その後のプロセスは次のとおりである:
【0272】
第2連合学習サーバは、第3機械学習モデルを機械学習モデル管理センタに送信し、機械学習モデル管理センタは第2機械学習モデルを第3機械学習モデルに置き換えて、第3機械学習モデルが、第3管理ドメイン内のデバイスによって使用されることを可能にすることができる。第3管理ドメインは、第2管理ドメインとは異なる。第3管理ドメインは、第1管理ドメインと同じであっても、異なっていてもよい。もちろん、第3機械学習モデルは、第2管理ドメイン内のデバイスによって使用されてもよい。
【0273】
さらに、第2連合学習サーバは、第3機械学習モデルを、第2連合学習サーバに接続された連合学習クライアントに送信してよく、該連合学習クライアントは、第3機械学習モデルに基づいて、第3機械学習モデルに対応するモデルサービスを実行してよい。
【0274】
オプションの実装は、第2管理ドメイン内の第2連合学習サーバと第2管理ドメイン内の連合学習クライアントが第2機械学習モデルを共有する例としても考えられてよいことが理解され得る。
【0275】
任意に、第2管理ドメイン内の連合学習クライアントが第2機械学習モデルを使用するプロセスは、以下を含んでもよい:
【0276】
最初に、機械学習モデル管理センタが、第2管理ドメイン内の連合学習クライアントに第2機械学習モデルを送信する。
【0277】
例えば機械学習モデル管理センタは、連合学習クライアントによって送信された要求を受信したときに、第2管理ドメイン内の連合学習クライアントに第2機械学習モデルを送信してよい。別の例として、機械学習モデル管理センタは、第2管理ドメイン内の連合学習クライアントに第2機械学習モデルを能動的にプッシュしてもよい。
【0278】
次いで、第2管理ドメイン内の連合学習クライアントは、第2機械学習モデルに基づいて、第2機械学習モデルに対応するモデルサービスを実行してよい。
【0279】
このオプションの実装は、連合学習サーバを使用することなく、機械学習モデル管理センタが直接連合学習クライアントを制御するシナリオに適用されてよい。
【0280】
任意に、本方法は以下のステップS106及びS107を更に含んでよい:
【0281】
S106:機械学習モデル管理センタは、第2機械学習モデルに基づいて第2機械学習モデルのモデルパッケージを生成する。モデルパッケージは、第2機械学習モデルのモデルファイルと第2機械学習モデルの記述ファイルを含む。
【0282】
例えば機械学習モデル管理センタは、第2機械学習モデルの記述ファイルを生成する。記述ファイルは、第2機械学習モデルのアクセス許可、第2機械学習モデルの記述情報、第2機械学習モデルの実行スクリプト等を含んでよい。次いで、機械学習モデル管理センタは、機械学習モデルパッケージのパッケージ仕様に従って、第2機械学習モデルのモデルファイルと第2機械学習モデルの記述ファイルをパックし、第2機械学習モデルのモデルパッケージを生成する。
【0283】
S107:機械学習モデル管理センタは、第2機械学習モデルのモデルパッケージに署名し、第2機械学習モデルのモデルパッケージの署名ファイルを取得する。
【0284】
S107は、第2機械学習モデルのモデルパッケージの完全性保護のために実行され、第2機械学習モデルのモデルパッケージが、別のデバイス/システムではなく、機械学習モデル管理センタからのものであることを示す。
【0285】
これに基づいて、第2機械学習モデルのモデルパッケージを任意の連合学習サーバに送信するときに、機械学習モデル管理センタはモデルパッケージの署名ファイルを連合学習サーバに更に送信してよく、これにより、連合学習サーバは、署名ファイルに基づいてモデルパッケージが機械学習モデル管理センタからのものであるかどうかを判断することができる。もちろん、第1機械学習モデルのモデルパッケージを第1連合学習サーバに送信するときに、機械学習モデル管理センタはモデルパッケージの署名ファイルを第1連合学習サーバに更に送信してもよい。
【0286】
任意に、第2機械学習モデルは、第1トレーニングフレームワークに基づく機械学習モデルである。これに基づいて、本方法は以下のステップ1を更に含んでよい:
【0287】
ステップ1:機械学習モデル管理センタは、第2機械学習モデルを第3機械学習モデルに変換する。第3機械学習モデルは、第2トレーニングフレームワークに基づく機械学習モデルであり、第3機械学習モデルと第2機械学習モデルは同じモデルサービス情報に対応する。
【0288】
任意に、機械学習モデル管理センタは、モデル変換ツールを使用することによって、第1トレーニングフレームワークに基づく第2機械学習モデルのモデルファイル内のアルゴリズム実装コード、パラメータ等を、第2トレーニングフレームワークに基づく対応するアルゴリズム実装コードと対応するパラメータに翻訳する。モデル変換ツールは、ソフトウェア及び/又はハードウェアによって実装されてよい。
【0289】
言い換えると、機械学習モデル管理センタは、第1トレーニングフレームワークによってサポートされる機械学習モデルを、第2トレーニングフレームワークによってサポートされる機械学習モデルに変換する。例えば第1トレーニングフレームワークがTensorFlowトレーニングフレームワークであり、第2トレーニングフレームワークがPytorchトレーニングフレームワークであるとき、情報、すなわち、relu活性化層(オペレーションユニット)がtorch.nn.ReLu()に翻訳されてよい。
【0290】
更に任意に、機械学習モデル管理センタが第5機械学習モデルを更に記憶し、第5機械学習モデルが第2トレーニングフレームワークに基づく機械学習モデルであり、第5機械学習モデルと第1機械学習モデルが同じモデルサービス情報に対応する場合、本方法は以下のステップ2を更に含んでよい:
【0291】
ステップ2:機械学習モデル管理センタは、第5機械学習モデルを第3機械学習モデルに置き換える。
【0292】
同じモデルサービス情報に対応する機械学習モデルは、異なるトレーニングフレームワークに対応し得ることが理解され得る。これに基づいて、第1機械学習モデルを第2機械学習モデルに置き換えるとき、機械学習モデル管理センタは、第2機械学習モデルを別のトレーニングフレームワークの機械学習モデルに変換し、第2トレーニングフレームワークをサポートする別の連合学習サーバに機械学習モデルを提供する。
【0293】
さらに、機械学習モデル管理センタは、該機械学習モデル管理センタが、別のトレーニングフレームワークに基づく機械学習モデルであって、第1機械学習モデルと同じモデルサービス情報に対応する機械学習モデル(すなわち、第5機械学習モデル)を維持していると判断した場合、機械学習モデル管理センタは、第5機械学習モデルを第3機械学習モデルに更に置き換えて、別のトレーニングフレームワークにおける、同じモデルサービス情報についての機械学習モデルが、最新の機械学習モデルであることを保証する。
【0294】
例えば表2の機械学習モデル1と機械学習モデル2は同じモデルサービス情報に対応しており、2つのモデルの相違は、これらの2つのモデルが異なるトレーニングフレームワークで使用されることにある。第1機械学習モデルが表1の機械学習モデル1であり、第5機械学習モデルが機械学習モデル2である場合、第1機械学習モデルのモデルファイル(すなわち、機械学習モデルファイル1)が第2機械学習モデルのモデルファイルに置き換えられるとき、第5機械学習モデルのモデルファイル(すなわち、機械学習モデルファイル2)は第3機械学習モデルのモデルファイルに置き換えられる。
【0295】
例えばサービス認識サービスの機械学習モデルは、3つのAIモデルトレーニングフレームワークで動作し得る。したがって、これらのトレーニングフレームワークのうちの1つに基づく機械学習モデルが置き換えられた後、機械学習モデル管理センタは、他の2つのトレーニングフレームワークに対応する機械学習モデルを同期的に更新し得る。
【0296】
本出願のこの実施形態で提供される機械学習モデル管理方法によると、連合学習を実行するによって連合学習サーバにより取得される機械学習モデルは、別の連合学習サーバによって使用されてよい。このように、機械学習モデルを異なる連合学習サーバにより繰り返しトレーニングする必要がなく、社会全体の計算資源が節約される。
【0297】
さらに、連合学習サーバは、機械学習モデル管理センタから初期機械学習モデルを取得し、それにより、連合学習サーバは、機械学習モデルトレーニング要件を最も満たす機械学習モデルを初期機械学習モデルとして決定し、連合学習の時間を削減し、機械学習モデルの収束を加速するのに役立つ。
【0298】
加えて、時間の経過とともに、機械学習モデル管理センタの機械学習モデルは、複数の管理ドメイン内のネットワークサービスデータの性能を統合することができ(すなわち、機械学習モデルは、複数の管理ドメイン内のネットワークサービスデータに基づいて連合学習を通して間接的に取得される)、単一の管理ドメイン内のネットワークサービスデータのみに基づいて取得される機械学習モデルよりも、はるかに良好な適応性を有する。各管理ドメインについて、より新規でより複雑なネットワークサービスデータを後に入力することによって実行されるモデルサービスに対しても、良好な効果を達成することができる。
【0299】
さらに、この技術的解決策では、機械学習モデルは各管理ドメインで独立にトレーニングされる。したがって、管理ドメイン内の連合学習サーバに障害が発生した場合、連合学習は、別の管理ドメインで依然として実行されてよく、機械学習モデル管理センタは引き続き機械学習モデルを更新する。
【0300】
さらに、連合学習サーバは、機械学習モデル管理センタから初期機械学習モデルを取得する。したがって、管理ドメイン内のある連合学習サーバで障害が発生した場合であっても、その連合学習サーバは依然として、障害が回復したときに機械学習モデル管理センタから、共有するための現在最新の機械学習モデル(すなわち、障害の間に機械学習モデル管理センタによって別の連合学習サーバとともに取得した更新された機械学習モデル)を初期機械学習モデルとして取得することができ、連合学習の時間を短縮し、機械学習モデルの収束を加速するのに役立つ。
【0301】
従来技術では、機械学習モデルは異なる管理ドメインで独立にトレーニングされ、異なる管理ドメインは機械学習モデルを共有することができない。したがって、管理ドメイン内の連合学習サーバで障害が発生した場合、障害が回復すると、連合学習サーバは、事前定義された初期機械学習モデルからしかトレーニングを開始することができず、大量の連合学習が生じ、機械学習モデルの収束を遅くする。
【0302】
このことから、この技術的解決策における機械学習モデルは、従来技術の機械学習モデルよりも収束速度が速く、したがって、連合学習サーバの障害が回復した後のより強い回復能力を有する、言い換えると、従来技術の機械学習モデルよりも良好なロバスト性を有することがわかり得る。
【0303】
加えて、本出願のこの実施形態で提供される機械学習モデル管理方法が、
図4又は
図8に示されるネットワークアーキテクチャに適用されるとき、パブリッククラウドと管理ドメインとの間に存在する機械学習モデルの双方向伝送プロセスは1つだけである。これは、モデルパラメータ更新情報の複数回の伝送によって生じる、ネットワークサービスデータが盗まれるリスクを回避することを助け、これにより、管理ドメイン内のネットワークサービスデータのセキュリティを向上させることができる。さらに、この技術的解決策では、複数の管理ドメインが連合学習モデルを共有して、管理ドメイン(例えば各電気通信事業者のネットワーク)ごとの構築コストと保守コストを削減し得る。
【0304】
以下は、機械学習モデルがサービス認識サービスに対応する例、すなわち、機械学習モデルがサービス認識(SA)機械学習モデルである例を使用することにより、
図10及び
図11Aと
図11Bに対応する実装について更に説明する。
【0305】
この実施形態では、管理ドメインは具体的に、電気通信事業者ネットワークであり、第1連合学習サーバは、電気通信事業者ネットワークA内のEMS1に展開され、EMS1は、第1ネットワークデバイスと第2ネットワークデバイスを管理するよう構成され、第1連合学習クライアントは、第1ネットワークデバイスに展開され、第2連合学習クライアントは、第2ネットワークデバイスに展開され、第1連合学習クライアントと第2連合学習クライアントは第1連合学習サーバに別々に接続される。第2連合学習サーバは、電気通信事業者ネットワークB内のEMS2に展開され、第2連合学習サーバに接続された連合学習クライアントは、EMS2によって管理されるネットワークデバイスに展開される。
【0306】
図12A及び
図12Bは、本出願のこの実施形態による別の機械学習モデル管理方法における対話の概略図である。
図12A及び
図12Bに示される方法は、以下のステップS201からS212を含み得る。
【0307】
S201:機械学習モデル管理センタは、SA機械学習モデル001を電気通信事業者ネットワークA内のEMS1に送信する。
【0308】
S202:EMS1は、SA機械学習モデル001を第1ネットワークデバイスと第2ネットワークデバイスに別々に送信する。
【0309】
S203:第1ネットワークデバイスは、第1ネットワークデバイスのアプリケーションパケット又は該アプリケーションパケットの統計データに基づいて、初期機械学習モデルとしてSA機械学習モデル001にローカルトレーニングを実行して、第1中間機械学習モデル(SA機械学習モデル002としてマークされる)を取得する。第2ネットワークデバイスは、第2ネットワークデバイスのアプリケーションパケット又は該アプリケーションパケットの統計データに基づいて、初期機械学習モデルとしてSA機械学習モデル001にローカルトレーニングを実行して、第2中間機械学習モデル(SA機械学習モデル003としてマークされる)を取得する。
【0310】
S204:第1ネットワークデバイスは、SA機械学習モデル001に対するSA機械学習モデル002のパラメータ更新情報をEMS1に送信する。第2ネットワークデバイスは、SA機械学習モデル001に対するSA機械学習モデル003のパラメータ更新情報をEMS1に送信する。
【0311】
S205:EMS1は、SA機械学習モデル001と、第1ネットワークデバイスによって送信されたパラメータ更新情報とに基づいて、SA機械学習モデル002を取得する。EMS1は、SA機械学習モデル001と、第2ネットワークデバイスによって送信されたパラメータ更新情報とに基づいて、SA機械学習モデル003を取得する。次いで、EMS1は、集約アルゴリズムを使用することによって、SA機械学習モデル002とSA機械学習モデル003にモデル集約を実行して、集約機械学習モデル(SA機械学習モデル004としてマークされる)を取得する。
【0312】
S206:EMS1は、SA機械学習モデル004が第2事前設定条件を満たすかどうかを判断する。第2事前設定条件の関連説明は、S102の関連説明を参照されたい。詳細については再度説明しない。
【0313】
SA機械学習モデル004が第2事前設定条件を満たさない場合、S207が実行される。SA機械学習モデル004が第2事前設定条件を満たす場合、SA機械学習モデル004は第2機械学習モデルであり、S208が実行される。
【0314】
S207:EMS1は、SA機械学習モデル004を新しいSA機械学習モデル001として使用する。
【0315】
S207を実行した後、プロセスはS201に戻る。
【0316】
S208:EMS1は、SA機械学習モデル004を第1ネットワークデバイスと第2ネットワークデバイスに別々に送信する。
【0317】
S209:EMS1は、SA機械学習モデル004を機械学習モデル管理センタに送信し、SA機械学習モデル004が電気通信事業者ネットワークBのEMS2によって使用されることを可能にする。
【0318】
例えば機械学習モデル管理センタは、SA機械学習モデル004をEMS2に送信する。EMS2は、SA機械学習モデル004と、電気通信事業者ネットワークBのアプリケーションパケット又は該アプリケーションパケットの統計データとに基づいて、EMS2によって管理される複数のネットワークデバイスとの連合学習を実行して、SA機械学習モデル005を取得し;SA機械学習モデル005を複数のネットワークデバイスに送信する。その後、複数のネットワークデバイスは、SA機械学習モデル005に基づいてサービス認識を実行することができる。その具体的な実装プロセスは、前述のS202~S208を使用することによって実装され得る。
【0319】
S210:機械学習モデル管理センタは、SA機械学習モデル001をSA機械学習モデル004に置き換える。
【0320】
S211:機械学習モデル管理センタは、SA機械学習モデル004に基づいてSA機械学習モデル004のモデルパッケージを生成する。
【0321】
S212:機械学習モデル管理センタは、SA機械学習モデル004のモデルパッケージに署名し、SA機械学習モデル004のモデルパッケージの署名ファイルを取得する。
【0322】
電気通信事業者ネットワークA内のEMS1、第1ネットワークデバイス及び第2ネットワークデバイスは、電気通信事業者ネットワークA内で連合学習を実行するので、このことから、電気通信事業者ネットワークAのアプリケーションパケット又はアプリケーションパケットの統計データ(第1ネットワークデバイスのアプリケーションパケット又は該アプリケーションパケットの統計データと、第2ネットワークデバイスのアプリケーションパケット又は該アプリケーションパケットの統計データを含む)と、電気通信事業者ネットワークAの中間機械学習モデル(SA機械学習モデル002、SA機械学習モデル003のような)を第三者に送信する必要がなく、データのプライバシとセキュリティを向上させることができることが分かり得る。
【0323】
加えて、S209の例で説明したように、電気通信事業者ネットワークB内のネットワークデバイスが、SA機械学習モデル005に基づいてサービス認識を実行することがある。SA機械学習モデル005は、電気通信事業者ネットワークBのアプリケーションパケット又は該アプリケーションパケットの統計データと、電気通信事業者ネットワークAのアプリケーションパケット又は該アプリケーションパケットの統計データとの組合せで取得される。したがって、電気通信事業者ネットワークBのネットワークデバイスによってSA機械学習モデル005に基づいてサービス認識を実行することは、サービス認識の正確さを向上させるのに役立つ。
【0324】
上記は主に、本出願の実施形態で提供される解決策を方法の観点から説明している。上記の機能を実装するために、該機能を実行するための対応するハードウェア構造及び/又はソフトウェアモジュールが含まれる。当業者は、本明細書で開示される実施形態で説明されるユニット及びアルゴリズムステップの例と組み合わせて、ハードウェアによって又はハードウェアとコンピュータソフトウェアの組合せによって本出願を実装することができることを容易に認識すべきである。ある機能がハードウェアによって実行されるか、コンピュータソフトウェアによって駆動されるハードウェアによって実行されるかは、特定の適用及び技術的解決策の設計制約に依存する。当業者は、特定の適用ごとに、異なる方法を使用して説明された機能を実装することができるが、その実装が本出願の範囲を超えるものと見なされるべきではない。
【0325】
本出願の実施形態では、機械学習モデル管理装置(例えば機械学習モデル管理センタ又は連合学習サーバ)は、前述の方法の例に基づいて機能モジュールに分割されてよい。例えば各機能モジュールは、対応する機能に基づく分割を通して得られてよく、あるいは2つ以上の機能が1つの処理モジュールに統合されてもよい。統合されたモジュールは、ハードウェアによって実装されてよく、あるいはソフトウェア機能モジュールによって実装されてもよい。本出願の実施形態では、モジュールへの分割は一例であり、単に論理的な機能分割にすぎず、実際の実装では他の分割であってもよいことに留意されたい。
【0326】
図13は、本出願の実施形態による機械学習モデル管理センタ100の構造の概略図である。
図13に示される機械学習モデル管理センタ100は、前述の方法の実施形態における機械学習モデル管理センタの機能を実装するよう構成されてよく、したがって、前述の方法の実施形態の有益な効果も実装することができる。本出願のこの実施形態では、機械学習モデル管理センタは、
図3に示される機械学習モデル管理センタ401であってよい。
【0327】
機械学習モデル管理センタ100は第1連合学習サーバに接続され、第1連合学習サーバは第1管理ドメイン内にある。
【0328】
図13に示されるように、機械学習モデル管理センタ100は、送信ユニット1001、受信ユニット1002及び処理ユニット1003を含む。
【0329】
送信ユニット1001は、第1機械学習モデルを第1連合学習サーバに送信するよう構成される。受信ユニット1002は、第1連合学習サーバから第2機械学習モデルを受信するよう構成され、ここで、第2機械学習モデルは、第1連合学習サーバにより、第1機械学習モデルと第1管理ドメイン内のローカルネットワークサービスデータとに基づいて、第1管理ドメイン内の複数の連合学習クライアントとの連合学習を実行することによって取得される。処理ユニット1003は、第2機械学習モデルが第2管理ドメイン内のデバイスによって使用されることを可能にするために、第1機械学習モデルを第2機械学習モデルに置き換えるよう構成される。
【0330】
例えば
図10を参照すると、送信ユニット1001は、S101を実行するよう構成されてよく、受信ユニット1002は、S104に対応する受信ステップを実行するよう構成されてよい。処理ユニット1003は、S105を実行するよう構成されてよい。
【0331】
任意に、受信ユニット1002は、第1連合学習サーバによって送信された機械学習モデル要件情報を受信するよう更に構成される。処理ユニット1003は、機械学習モデル要件情報に基づいて、第1機械学習モデルを決定するよう更に構成される。
【0332】
任意に、機械学習モデル要件情報は、機械学習モデルに対応するモデルサービス情報及び/又は機械学習モデルトレーニング要件を含む。
【0333】
任意に、機械学習モデルトレーニング要件は、以下のうちの少なくとも1つ、すなわち、トレーニング環境、アルゴリズムタイプ、ネットワーク構造、トレーニングフレームワーク、集約アルゴリズム又はセキュリティモード、のうちの少なくとも1つを含む。
【0334】
任意に、第2機械学習モデルは、第1トレーニングフレームワークに基づく機械学習モデルである。処理ユニット1003は、第2機械学習モデルを第3機械学習モデルに変換するよう更に構成され、ここで、第3機械学習モデルは、第2トレーニングフレームワークに基づく機械学習モデルであり、第3機械学習モデルと第2機械学習モデルは同じモデルのサービス情報に対応する。
【0335】
任意に、受信ユニット1002は、第2機械学習モデルのアクセス許可情報であって、第1連合学習サーバによって送信されるアクセス許可情報を受信するよう更に構成される。
【0336】
任意に、送信ユニット1001は、第2機械学習モデルを第2連合学習サーバに送信するよう更に構成され、ここで、第2連合学習サーバは、第2管理ドメイン内にある。受信ユニット1002は、第2連合学習サーバから第4機械学習モデルを受信するよう更に構成され、ここで、第4機械学習モデルは、第2連合学習サーバにより、第2機械学習モデルと第2管理ドメイン内のローカルネットワークサービスデータとに基づいて第2管理ドメイン内の複数の連合学習クライアントと連合学習を実行することによって取得される。この場合、処理ユニット1003は、第2機械学習モデルを第4機械学習モデルに置き換えるよう更に構成される。
【0337】
オプションの方式の具体的な説明については、方法の実施形態を参照されたい。詳細はここでは再度説明しない。加えて、上記で提供される機械学習モデル管理センタ100のいずれかの説明及び有益な効果の説明については、前述の対応する方法の実施形態を参照されたい。詳細はここでは再度説明しない。
【0338】
例えば
図9を参照すると、送信ユニット1001及び受信ユニット1002の機能は、通信インタフェース703によって実装されてもよい。処理ユニット1003の機能は、プロセッサ701により、メモリ702内のプログラムコードを呼び出すことによって実装されてもよい。
【0339】
図14は、本出願の一実施形態による連合学習サーバ110の構造の概略図である。
図14に示される連合学習サーバ110は、前述の方法の実施形態における連合学習サーバの機能を実装するよう構成されてよく、したがって、前述の方法の実施形態の有益な効果も実装することができる。本出願のこの実施形態において、連合学習サーバ110は、
図3に示される連合学習サーバであってよい。
【0340】
連合学習サーバ110は、第1管理ドメイン内にあり、機械学習モデル管理センタに接続されている。
【0341】
図14に示されるように、連合学習サーバ110は、送受信ユニット1101及び処理ユニット1102を含む。
【0342】
送受信ユニット1101は、機械学習モデル管理センタから第1機械学習モデルを取得するよう構成される。処理ユニット1102は、第1機械学習モデルと第1管理ドメイン内のローカルネットワークサービスデータとに基づいて、第1管理ドメイン内の複数の連合学習クライアントと連合学習を実行して、第2機械学習モデルを取得するよう構成される。送受信ユニット1101は、第2機械学習モデルが第2管理ドメイン内のデバイスによって使用されることを可能にするために、第2機械学習モデルを機械学習モデル管理センタに送信するよう更に構成される。
【0343】
例えば
図10を参照すると、送受信ユニット1101は、S104と、S101に対応する受信ステップとを実行するよう構成されてよい。処理ユニット1102は、S102において連合学習サーバによって実行されるステップを実行するよう構成されてよい。
【0344】
任意に、送受信ユニット1101は特に、機械学習モデル要件情報を機械学習モデル管理センタに送信し、機械学習モデル要件情報に基づいて機械学習モデル管理センタによって決定された第1機械学習モデルを受信するよう構成される。
【0345】
任意に、機械学習モデル要件情報は、機械学習モデルに対応するモデルサービス情報及び/又は機械学習モデルトレーニング要件を含む。
【0346】
任意に、機械学習モデルトレーニング要件は、以下のうちの少なくとも1つ、すなわち、トレーニング環境、アルゴリズムタイプ、ネットワーク構造、トレーニングフレームワーク、集約アルゴリズム又はセキュリティモード、のうちの少なくとも1つを含む。
【0347】
任意に、送受信ユニット1101は、第2機械学習モデルのアクセス許可情報を機械学習モデル管理センタに送信するよう更に構成される。
【0348】
任意に、送受信ユニット1101は、第2機械学習モデルを複数の連合学習クライアントに送信するよう更に構成される。
【0349】
任意に、送受信ユニット1101は特に、第2機械学習モデルの適用効果が事前設定された条件を満たす場合に、第2機械学習モデルを機械学習モデル管理センタに送信するよう構成される。
【0350】
任意に、送受信ユニット1101は、複数の連合学習クライアントの各々が、第1機械学習モデルと、該連合学習クライアントによって取得されるネットワークサービスデータとに基づいて連合学習を実行することを可能にし、連合学習クライアントの中間機械学習モデルを取得するために、第1機械学習モデルを第1管理ドメイン内の複数の連合学習クライアントに送信するよう更に構成される。処理ユニット1102は特に、複数の連合学習クライアントによって取得される複数の中間機械学習モデルを取得し、該複数の中間機械学習モデルを集約して第2機械学習モデルを取得するよう構成される。
【0351】
オプションの方式の具体的な説明については、方法の実施形態を参照されたい。詳細はここでは再度説明しない。加えて、上記で提供される機械学習モデル管理センタ100のいずれかの説明及び有益な効果の説明については、前述の対応する方法の実施形態を参照されたい。詳細はここでは再度説明しない。
【0352】
例えば
図9を参照すると、送受信ユニット1101の機能は、通信インタフェース703によって実装されてもよい。処理ユニット1102の機能は、プロセッサ701により、メモリ702内のプログラムコードを呼び出すことによって実装されてもよい。
【0353】
本出願の別の実施形態は、機械学習モデル管理装置を更に提供する。本装置は、プロセッサとメモリを含む。メモリは、コンピュータプログラムと命令を記憶するよう構成される。プロセッサは、コンピュータプログラムと命令を呼び出して、上記の方法の実施形態で示される方法手順において機械学習モデル管理センタによって実行される、対応するステップを実行するよう構成される。
【0354】
本出願の別の実施形態は、機械学習モデル管理装置を更に提供する。本装置は、プロセッサとメモリを含む。メモリは、コンピュータプログラムと命令を記憶するよう構成される。プロセッサは、コンピュータプログラムと命令を呼び出して、上記の方法の実施形態で示される方法手順において連合学習サーバによって実行される、対応するステップを実行するよう構成される。
【0355】
本出願の別の実施形態は、機械学習モデル管理装置を更に提供する。本装置は、プロセッサとメモリを含む。メモリは、コンピュータプログラムと命令を記憶するよう構成される。プロセッサは、コンピュータプログラムと命令を呼び出して、上記の方法の実施形態で示される方法手順において連合学習クライアントによって実行される、対応するステップを実行するよう構成される。
【0356】
本出願の別の実施形態は、コンピュータ読取可能記憶媒体を更に提供する。コンピュータ読取可能記憶媒体は命令を記憶し、該命令が端末上で実行されると、端末は、上記の方法の実施形態で示される方法手順において機械学習モデル管理センタ、第1連合学習サーバ又は連合学習クライアントによって実行される、対応するステップを実行する。
【0357】
いくつかの実施形態では、開示される方法は、コンピュータ読取可能記憶媒体上に機械読取可能なフォーマットで符号化されるか又は別の非一時的な媒体又は製品上に符号化されるコンピュータプログラム命令として実装されてよい。
【0358】
本明細書で説明される配置は、単なる例として使用されていることを理解されたい。したがって、当業者は、他の配置と別の要素(例えば機械、インタフェース、機能、シーケンス及び機能のグループ)を使用して配置を置き換えることができ、いくつかの要素は、望ましい結果に基づいて一緒に省略されてもよいことを認識する。
【0359】
加えて、説明される要素の多くは、離散又は分散型構成要素として実装されるか、別の構成要素と組み合わせて任意の適切な場所で任意の適切な組合せで実装され得る機能エンティティである。
【0360】
前述の実施形態のすべて又は一部は、ソフトウェア、ハードウェア、ファームウェア又はそれらの任意の組合せによって実装されてよい。ソフトウェアプログラムを使用して実施形態を実装するとき、実施形態のすべて又は一部は、コンピュータプログラム製品の形式で実装されてよい。コンピュータプログラム製品は、1つ以上のコンピュータ命令を含む。コンピュータ実行可能命令がコンピュータにロードされて実行されると、本出願の実施形態による手順又は機能が全部又は部分的に生成される。コンピュータは、汎用コンピュータ、特殊用途コンピュータ、コンピュータネットワーク又は別のプログラム可能な装置であり得る。コンピュータ命令は、コンピュータ読取可能記憶媒体に記憶され得るか、あるコンピュータ読取可能記憶媒体から別のコンピュータ読取可能記憶媒体に送信され得る。例えばコンピュータ命令は、有線(例えば同軸ケーブル、光ファイバ又はデジタル加入者回線(digital subscriber line、DSL))又は無線(例えば赤外線、ラジオ又はマイクロ波)の方法で、ウェブサイト、コンピュータ、サーバ又はデータセンタから別のウェブサイト、コンピュータ、サーバ又はデータセンタに伝送されることがある。コンピュータ読取可能記憶媒体は、コンピュータによってアクセス可能な任意の使用可能な媒体、あるいは1つ以上の使用可能な媒体を統合したサーバ又はデータセンタのようなデータストレージデバイスであり得る。使用可能な媒体は、磁気媒体(例えばフロッピーディスク、ハードディスク又は磁気テープ)、光媒体(例えばDVD)、半導体媒体(例えばソリッドステートドライブ(solid-state drive、SSD))等であり得る。
【0361】
上記の説明は、本出願の特定の実装にすぎないが、本出願の保護範囲を限定するように意図されていない。本出願で開示される技術的範囲内で当業者によって容易に理解されるすべての変形又は置換は、本出願の保護範囲に含まれるものとする。したがって、本出願の保護範囲は、特許請求の範囲の保護範囲の対象であるものとする。