(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-02-22
(45)【発行日】2024-03-04
(54)【発明の名称】投票に基づく差分プライベート連合学習のためのアプローチ
(51)【国際特許分類】
G06N 3/098 20230101AFI20240226BHJP
G06N 20/20 20190101ALI20240226BHJP
G06F 21/62 20130101ALI20240226BHJP
【FI】
G06N3/098
G06N20/20
G06F21/62 345
(21)【出願番号】P 2022578819
(86)(22)【出願日】2021-10-01
(86)【国際出願番号】 US2021053086
(87)【国際公開番号】W WO2022072776
(87)【国際公開日】2022-04-07
【審査請求日】2023-02-14
(32)【優先日】2021-10-01
(33)【優先権主張国・地域又は機関】US
(32)【優先日】2020-10-01
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】504080663
【氏名又は名称】エヌイーシー ラボラトリーズ アメリカ インク
【氏名又は名称原語表記】NEC Laboratories America, Inc.
(74)【代理人】
【識別番号】100123788
【氏名又は名称】宮崎 昭夫
(74)【代理人】
【識別番号】100127454
【氏名又は名称】緒方 雅昭
(72)【発明者】
【氏名】ユ、 シアン
(72)【発明者】
【氏名】ツァイ、 イ-シューアン
(72)【発明者】
【氏名】ピッタルガ、 フランチェスコ
(72)【発明者】
【氏名】ファラキ、 マスード
(72)【発明者】
【氏名】チャンドラカー、 マンモハン
(72)【発明者】
【氏名】ズ、 ユチン
【審査官】青木 重徳
(56)【参考文献】
【文献】特開2012-133320(JP,A)
【文献】国際公開第2020/142110(WO,A1)
【文献】米国特許出願公開第2019/0227980(US,A1)
【文献】米国特許出願公開第2020/0311300(US,A1)
【文献】Yuqing Zhu et al.,VOTING-BASED APROACHES FOR DIFFERENTIALLY PRIVATE FEDERATED LEARNING,arXiv:2010.04851v1,[オンライン],2020年10月09日,pp. 1-16,(2024年2月1日 検索)、インターネット,<URL: https://arxiv.org/pdf/2010.04851v1.pdf>
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/098
G06N 20/20
G06F 21/62
IEEE Xplore
(57)【特許請求の範囲】
【請求項1】
一般的なラベル空間投票に基づく差分プライベート連合学習(DPFL)フレームワークを採用する方法であって、
第1の疑似ラベル付けデータを生成するために、各エージェントがエージェントに関連するプライベートローカルデータを使用してローカルエージェントモデルを訓練する第1の投票に基づくDPFL計算を採用することによって、第1のグローバルサーバからのラベル付けされていないデータの第1のサブセットをラベル付けすること(1010)と、
第2の疑似ラベル付けデータを生成するために、各エージェントがデータに依存しない特徴抽出器を保持する第2の投票に基づくDPFL計算を採用することによって、第2のグローバルサーバからのラベル付けされていないデータの第2のサブセットをラベル付けすること(1020)と、
インスタンスレベルとエージェントレベルとの両方のプライバシー体制について証明可能な差分プライバシー(DP)保証を提供するために、前記第1の疑似ラベル付けデータと前記第2の疑似ラベル付けデータとを用いてグローバルモデルを訓練すること(1030)とを含む方法。
【請求項2】
請求項1に記載の方法において、
前記第1の投票に基づくDPFL計算は、集計アンサンブルDPFL(AE-DPFL)であり、前記第2の投票に基づくDPFL計算は、k近傍法DPFL(kNN-DPFL)である方法。
【請求項3】
請求項1に記載の方法において、
前記第1の投票に基づくDPFL計算の各エージェントは、前記ラベル付けされていないデータの前記第1のサブセットに対する予測にGaussianノイズを加える方法。
【請求項4】
請求項3に記載の方法において、
前記第1の疑似ラベル付けデータは、前記第1の投票に基づくDPFL計算において各エージェントからのノイズの多い予測を集計することによって返される多数決で生成される方法。
【請求項5】
請求項1に記載の方法において、
前記第2の投票に基づくDPFL計算における各エージェントは、特徴空間におけるEuclidean距離を測定することによって、ラベル付けされていないクエリのk最近傍を見つける方法。
【請求項6】
請求項5に記載の方法において、
前記最近傍からの投票の頻度ベクトルが出力される方法。
【請求項7】
請求項1に記載の方法において、
前記第1および第2の投票に基づくDPFL計算における投票集計は、マルチパーティ計算(MPC)により行われる方法。
【請求項8】
請求項1に記載の方法において、
前記第1および第2の投票に基づくDPFL計算における投票集計は、パラメータ空間の代わりに潜在空間における投票数を解放することを含む方法。
【請求項9】
一般的なラベル空間投票に基づく差分プライベート連合学習(DPFL)フレームワークを採用するためのコンピュータ可読プログラムを含む非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ可読プログラムは、コンピュータ上で実行されると、コンピュータに、
第1の疑似ラベル付けデータを生成するために、各エージェントがエージェントに関連するプライベートローカルデータを使用してローカルエージェントモデルを訓練する第1の投票に基づくDPFL計算を採用することによって、第1のグローバルサーバからのラベル付けされていないデータの第1のサブセットをラベル付けするステップ(1010)と、
第2の疑似ラベル付けデータを生成するために、各エージェントがデータに依存しない特徴抽出器を保持する第2の投票に基づくDPFL計算を採用することによって、第2のグローバルサーバからのラベル付けされていないデータの第2のサブセットをラベル付けするステップ(1020)と、
インスタンスレベルとエージェントレベルとの両方のプライバシー体制について証明可能な差分プライバシー(DP)保証を提供するために、前記第1の疑似ラベル付けデータと前記第2の疑似ラベル付けデータとを用いてグローバルモデルを訓練するステップ(1030)とを実行させる非一時的なコンピュータ可読記憶媒体。
【請求項10】
請求項9に記載の非一時的なコンピュータ可読記憶媒体において、
前記第1の投票に基づくDPFL計算は、集計アンサンブルDPFL(AE-DPFL)であり、前記第2の投票に基づくDPFL計算は、k近傍法DPFL(kNN-DPFL)である非一時的なコンピュータ可読記憶媒体。
【請求項11】
請求項9に記載の非一時的なコンピュータ可読記憶媒体において、
前記第1の投票に基づくDPFL計算の各エージェントは、前記ラベル付けされていないデータの前記第1のサブセットに対する予測にGaussianノイズを加える非一時的なコンピュータ可読記憶媒体。
【請求項12】
請求項11に記載の非一時的なコンピュータ可読記憶媒体において、
前記第1の疑似ラベル付けデータは、前記第1の投票に基づくDPFL計算において各エージェントからのノイズの多い予測を集計することによって返される多数決で生成される非一時的なコンピュータ可読記憶媒体。
【請求項13】
請求項9に記載の非一時的なコンピュータ可読記憶媒体において、
前記第2の投票に基づくDPFL計算における各エージェントは、特徴空間におけるEuclidean距離を測定することによって、ラベル付けされていないクエリのk最近傍を見つける非一時的なコンピュータ可読記憶媒体。
【請求項14】
請求項13に記載の非一時的なコンピュータ可読記憶媒体において、
前記最近傍からの投票の頻度ベクトルが出力される非一時的なコンピュータ可読記憶媒体。
【請求項15】
請求項9に記載の非一時的なコンピュータ可読記憶媒体において、
前記第1および第2の投票に基づくDPFL計算における投票集計は、マルチパーティ計算(MPC)により行われる非一時的なコンピュータ可読記憶媒体。
【請求項16】
請求項9に記載の非一時的なコンピュータ可読記憶媒体において、
前記第1および第2の投票に基づくDPFL計算における投票集計は、パラメータ空間の代わりに潜在空間における投票数を解放することを含む非一時的なコンピュータ可読記憶媒体。
【請求項17】
一般的なラベル空間投票に基づく差分プライベート連合学習(DPFL)フレームワークを採用するためのシステムであって、
メモリと、
前記メモリと通信する1つ以上のプロセッサとを有し、該プロセッサは、
第1の疑似ラベル付けデータを生成するために、各エージェントがエージェントに関連するプライベートローカルデータを使用してローカルエージェントモデルを訓練する第1の投票に基づくDPFL計算を採用することによって、第1のグローバルサーバからのラベル付けされていないデータの第1のサブセットをラベル付けし(1010)、
第2の疑似ラベル付けデータを生成するために、各エージェントがデータに依存しない特徴抽出器を保持する第2の投票に基づくDPFL計算を採用することによって、第2のグローバルサーバからのラベル付けされていないデータの第2のサブセットをラベル付けし(1020)、
インスタンスレベルとエージェントレベルとの両方のプライバシー体制について証明可能な差分プライバシー(DP)保証を提供するために、前記第1の疑似ラベル付けデータと前記第2の疑似ラベル付けデータとを用いてグローバルモデルを訓練する(1030)ように構成されたシステム。
【請求項18】
請求項17に記載のシステムにおいて、
前記第1の投票に基づくDPFL計算は、集計アンサンブルDPFL(AE-DPFL)であり、前記第2の投票に基づくDPFL計算は、k近傍法DPFL(kNN-DPFL)であるシステム。
【請求項19】
請求項17に記載のシステムにおいて、
前記第1の投票に基づくDPFL計算の各エージェントは、前記ラベル付けされていないデータの前記第1のサブセットに対する予測にGaussianノイズを加えるシステム。
【請求項20】
請求項19に記載のシステムにおいて、
前記第1の疑似ラベル付けデータは、前記第1の投票に基づくDPFL計算において各エージェントからのノイズの多い予測を集計することによって返される多数決で生成され、
前記第2の投票に基づくDPFL計算における各エージェントは、特徴空間におけるEuclidean距離を測定することによって、ラベル付けされていないクエリのk最近傍を見つけるシステム。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願情報
本出願は、2020年10月1日に出願された仮出願第63/086,245号および2021年10月1日に出願された米国特許出願第17/491,663号の優先権を主張し、各々はその全体が参照により本明細書に組み込まれるものとする。
【背景技術】
【0002】
本発明は、連合学習(FL)に関し、より詳細には、差分プライベート連合学習(DPFL)のための投票に基づくアプローチに関するものである。
関連技術の説明
【0003】
Differentially Private Federated Learning(DPFL)は、多くのアプリケーションを持つ新しい分野である。勾配平均法に基づくDPFL法は、付加されるノイズに明示的な次元依存性があるため、コストのかかる通信ラウンドを必要とし、大容量モデルにはほとんど対応できない。
【発明の概要】
【0004】
一般的なラベル空間投票に基づく差分プライベート連合学習(DPFL)フレームワークを採用する方法が提示される。この方法は、第1の疑似ラベル付けデータを生成するために、各エージェントがエージェントに関連するプライベートローカルデータを使用してローカルエージェントモデルを訓練する第1の投票に基づくDPFL計算を採用することによって、第1のグローバルサーバからのラベル付けされていないデータの第1のサブセットをラベル付けすることと、第2の疑似ラベル付けデータを生成するために、各エージェントがデータに依存しない特徴抽出器を保持する第2の投票に基づくDPFL計算を採用することによって、第2のグローバルサーバからのラベル付けされていないデータの第2のサブセットをラベル付けすることと、インスタンスレベルとエージェントレベルとの両方のプライバシー体制について証明可能な差分プライバシー(DP)保証を提供するために、前記第1の疑似ラベル付けデータと前記第2の疑似ラベル付けデータとを用いてグローバルモデルを訓練すること(1030)とを含む。
【0005】
一般的なラベル空間投票に基づく差分プライベート連合学習(DPFL)フレームワークを採用するためのコンピュータ可読プログラムを含む非一時的なコンピュータ可読記憶媒体が提示される。このコンピュータ可読プログラムは、コンピュータ上で実行されると、コンピュータに、第1の疑似ラベル付けデータを生成するために、各エージェントがエージェントに関連するプライベートローカルデータを使用してローカルエージェントモデルを訓練する第1の投票に基づくDPFL計算を採用することによって、第1のグローバルサーバからのラベル付けされていないデータの第1のサブセットをラベル付けするステップと、第2の疑似ラベル付けデータを生成するために、各エージェントがデータに依存しない特徴抽出器を保持する第2の投票に基づくDPFL計算を採用することによって、第2のグローバルサーバからのラベル付けされていないデータの第2のサブセットをラベル付けするステップと、インスタンスレベルとエージェントレベルとの両方のプライバシー体制について証明可能な差分プライバシー(DP)保証を提供するために、前記第1の疑似ラベル付けデータと前記第2の疑似ラベル付けデータとを用いてグローバルモデルを訓練するステップ(1030)とを実行させる。
【0006】
一般的なラベル空間投票に基づく差分プライベート連合学習(DPFL)フレームワークを採用するためのシステムが提示される。このシステムは、メモリと、前記メモリと通信する1つ以上のプロセッサとを有し、該プロセッサは、第1の疑似ラベル付けデータを生成するために、各エージェントがエージェントに関連するプライベートローカルデータを使用してローカルエージェントモデルを訓練する第1の投票に基づくDPFL計算を採用することによって、第1のグローバルサーバからのラベル付けされていないデータの第1のサブセットをラベル付けし、第2の疑似ラベル付けデータを生成するために、各エージェントがデータに依存しない特徴抽出器を保持する第2の投票に基づくDPFL計算を採用することによって、第2のグローバルサーバからのラベル付けされていないデータの第2のサブセットをラベル付けし、インスタンスレベルとエージェントレベルとの両方のプライバシー体制について証明可能な差分プライバシー(DP)保証を提供するために、前記第1の疑似ラベル付けデータと前記第2の疑似ラベル付けデータとを用いてグローバルモデルを訓練する(1030)ように構成されている。
【0007】
これらおよび他の特徴および利点は、添付の図面と関連して読まれる、その例示的な実施形態の以下の詳細な説明から明らかになるであろう。
【図面の簡単な説明】
【0008】
本開示は、以下の図を参照して、好ましい実施形態の以下の説明において詳細を提供する。
【0009】
【
図1】本発明の実施形態による、例示的な一般的ラベル空間投票に基づく差分プライベート連合学習(DPFL)フレームワークのブロック/フロー図である。
【0010】
【
図2】本発明の実施形態による、一般的なラベル空間投票に基づくDPFLフレームワークの例示的な処理フローを示すブロック/フロー図である。
【0011】
【
図3】本発明の実施形態による、例示的な集計アンサンブルDPFL(AE-DPFL)アーキテクチャおよびk近傍法DPFL(kNN-DPFL)アーキテクチャのブロック/フロー図である。
【0012】
【
図4】本発明の実施形態による、一般的なラベル空間投票に基づくDPFLフレームワークを採用するための例示的な実用例である。
【0013】
【
図5】本発明の実施形態による、一般的なラベル空間投票に基づくDPFLフレームワークを採用するための例示的な処理システム図である。
【0014】
【
図6】本発明の実施形態による、一般的なラベル空間投票に基づくDPFLフレームワークを採用するための例示的な方法のブロック/フロー図である。
【発明を実施するための形態】
【0015】
連合学習(FL)は、幅広い用途を持つ分散型機械学習の新たなパラダイムである。FLは、分散したエージェントがそれぞれのローカルデータを共有することなく、中央の機械学習モデルを共同で学習することを可能にする。これにより、機械学習に基づく製品やサービスを構築する目的で、個人ユーザのデータを収集する際に生じる倫理的・法的問題を回避することができる。
【0016】
FLのワークフローは、通信プロトコルにおける様々な脅威モデルを扱うように、安全なマルチパーティ計算(MPC)によってしばしば強化され、これは、エージェントが計算の出力(例えば、勾配の合計)を受け取ることができるがその間のもの(例えば、他のエージェントの勾配)は受け取れないことを証明的に保証するものである。
【0017】
しかし、MPCだけでは、出力のみを使用したり、出力を補助情報と組み合わせたりする推論攻撃から、エージェントやそのユーザを保護することはできない。広範な研究により、これらの攻撃は、専有データセットの露骨な再構築、高信頼性の個人識別(参加エージェントの法的責任)、あるいは社会保障番号の補完につながる可能性があることが実証されている。このような課題に動機づけられ、最近では、このような攻撃を証明可能に防ぐプライバシーの定義として確立された差分プライバシー(DP)を持つ連合学習法の開発が盛んに行われている。
【0018】
差分プライベート連合学習(DPFL)における既存の方法、例えばDP-FedAvgおよびDP-FedSGDは、主にノイジー勾配に基づく方法であり、(非連合)DP学習における古典的アルゴリズムであるNoisySGD法を基に構築されるものである。これは、個々のエージェントからの(多)勾配更新を差分的にプライベートなメカニズムで反復的に集計することで機能する。このようなアプローチでは、勾配のl2倍を閾値Sでクリッピングし、共有されたグローバルモデルからの高次元パラメータの各座標にSに比例したノイズを加える必要があることが顕著な制限となる。クリッピングと摂動のステップは、大きなバイアス(Sが小さい場合)または大きな分散(Sが大きい場合)をもたらし、SGDの収束を妨害するため、大容量モデルへのスケーリングが困難となります。例示的な方法は、FedAvgが勾配クリッピングを使用して損失関数を減少させることに失敗する可能性があり、DP-FedAvgが差分プライバシーの下で収束するために多くの外側ループ反復(例えば、モデルパラメータの同期のための多くのラウンドの通信)を必要とすることを説明する。
【0019】
それに鑑み、例示的な実施形態は、Knowledge Transferモデル(Model-Agnostic Private学習モデルとも呼ばれる)として知られる根本的に異なるDP学習設定を導入する。このモデルでは、ラベルのないデータセットがクリアに利用できることが必要であり、この設定はやや制限されることになる。しかし、そのような公開データセットが実際に利用できる場合(ドメイン適応を伴う連合学習ではしばしばそうなる)、DP学習におけるプライバシーと実用性のトレードオフを大幅に改善できる可能性がある。
【0020】
目的は、知識移転モデルの下でDPFLアルゴリズムを開発することであり、そのために、非分散型Private-Aggregation-of-Teacher-Ensembles(PATE)およびPrivate-kNNからFL設定へとさらに発展する2つのアルゴリズムまたは計算(AE-DPFLおよびkNN-DPFL)が導入されている。例示的な手法は、これらのアルゴリズムの特徴的な特性により、DPFLのタスクに自然で非常に望ましいものであることを発見している。具体的には、パラメータ(勾配)空間ではなく、(一発)ラベル空間での「投票数」を非公開で集計することになった。これにより、前述した高次元の問題や勾配のクリッピングを自然に回避することができる。勾配の更新を送信する代わりに、「投票数」の投票を送信することで、通信コストを削減することができる。さらに、SGDを用いたノイズ付加によるモデル更新を何度も繰り返すと、プライバシーの保証が甘くなるが、本手法はこの状況を回避し、ラベルに対する投票を用いているため、従来のDPFL手法を大きく上回る性能を実現している。
【0021】
貢献度をまとめると、以下のようになる。
【0022】
例示的な方法は、DPFedAvgが勾配クリッピングにより失敗する可能性があり、多くのラウンドの通信を必要とすることを示すために例を構築するが、例示的な方法は、両方の制限を当然回避することが可能である。
【0023】
例示的な方法は、エージェントレベルおよび(各エージェントの)インスタンスレベルの粒度の両方において証明可能なDP保証を提供する2つの投票ベースの分散アルゴリズムまたは計算を設計し、これは、FLのよく研究された体制、すなわち、オンデバイスデータからの分散学習および少数の大規模組織のコラボレーションの両方にそれらを適するようにさせる。
【0024】
例示的な方法は、新しいMPC技術による「ArgMaxによるプライバシー増幅」を示し、提案された私的投票メカニズムは、「勝者」が大差で勝利したときに指数関数的に強い(データ依存の)プライバシー保証を享受している。
【0025】
広範な評価により、例示的な方法は、DP-FedAvgおよびDP-FedSGDよりもプライバシー有用性のトレードオフを系統的に改善し、例示的な方法は、エージェント間の分散シフトに対してより堅牢であることが実証される。
【0026】
AE-DPFLおよびkNN-DPFLは、アルゴリズム的には元のPATEおよびPrivate-KNNに似ているが、新しい分野、すなわち連合学習に適用されるため、同じではない。ファシリテーションそのものは自明ではなく、かなりの技術革新が必要である。
【0027】
例示的な方法は、以下の課題を浮き彫りにする。
【0028】
そもそも、標準的な設定におけるPATEおよびPrivate-kNNの成功に寄与するいくつかの重要なDP技術は、もはや適用できない(例えば、サンプリングによるプライバシー増幅およびノイジースクリーニング)。これは、標準的なプライベート学習では、攻撃者は最終的なモデルしか見ないが、FLでは、攻撃者はすべてのネットワークトラフィックを盗聴でき、エージェント自身のサブセットである可能性もあるためである。
【0029】
さらに、PATEとPrivate-kNNは、インスタンスレベルのDPを提供するだけである。その代わり、AE-DPFLとkNN-DPFLはより強いエージェントレベルDPを満たす。AE-DPFLのエージェントレベルのDPパラメータは、インスタンスレベルのDPパラメータよりも2倍優れているのが興味深い。kNN-DPFLは、さらにインスタンスレベルのDPをk倍に増幅することができる。
【0030】
最後に、FLの課題は、個々のエージェントのデータの不均一性である。PATEのような方法は、各教師が同一分布になるようにデータセットをランダムに分割するが、異質なエージェントではこの仮定が破られる。同様に、Private-kNNのような手法も、均質な環境下でのみ実証されている。一方、例示的な手法(AE-DPFLおよびkNN-DPFL)は、データの不均一性やドメインシフトに対して頑健性を示す。
【0031】
例示的な方法は、連合学習および差分プライバシーの表記を導入することから始める。次に、2つの異なるレベルのDP定義を導入することで、DPFLの背景として、DP-FedAvgとDP-FedSGDという2つのランダムな勾配ベースのベースラインを導入する。
【0032】
まず始めに、連合学習に関して、例示的な方法は、N個のエージェントを考慮し、各エージェントiは、ni個の、当事者特有のドメイン分布Di∈X×Yからローカルかつプライベートに保たれたデータを持つ。ここで、Xは特徴空間を表し、Y={0,...,C-1}はラベルを表す。
【0033】
問題設定について、目的は、ローカルエージェントデータを集中化することなく、サーバ分布DG上で良好な性能を発揮するプライバシー保護グローバルモデルを訓練することである。例示的な実施形態は、サーバ分布DGからの独立かつ同一に分布する(I.I.D)サンプルを含むラベル付けされていないデータセットへのアクセスを想定している。これは「不可知論的連合学習」の文献にある標準的な仮定であり、DGを全エージェントの連合に対する均一なユーザ分布に固定するよりも柔軟である。DGの選択はアプリケーションに依存し、正確さ、公平さ、個人化の必要性など、学習目的に対する様々な配慮を表している。この設定は、マルチソース領域適応問題に密接に関連しているが、ソース(ローカル)データへのアクセスが制限されているため、より困難である。
【0034】
FLベースラインについて、FedAvgはDP保証のない何も操作されていない連合学習アルゴリズムである。各通信ラウンドでは、確率qでエージェントの一部がサンプリングされる。選択された各エージェントは共有されたグローバルモデルをダウンロードし、確率的勾配降下法(SGD)を用いてE回繰り返し、ローカルデータで微調整を行う。この局所的な更新処理を内側ループと表記する。そして、勾配のみがサーバに送られ、選択されたすべてのエージェントで平均化され、グローバルモデルが改善される。T回の通信ラウンドを経て、グローバルモデルが学習される。各通信ラウンドは1つの外側ループと表記する。
【0035】
連合学習における差分プライバシーについて、差分プライバシーとは、プライベートデータセットにおける個人の特定に対して証明可能な保証を提供するプライバシーの定量化可能な定義である。
【0036】
差分プライバシーに関する最初の定義は、次のように与えられる:領域Dおよび範囲Rを有するランダム化メカニズムM:D→Rは、任意の2つの隣接するデータセットD,D’∈Dおよび出力の任意の部分集合O⊆Rに対して、Pr[M(D)∈O]≦eεPr[M(D’)∈O]+δが成り立つ場合、(ε,δ)差分プライバシーを満足させる。
【0037】
この定義によれば、人はDとD’とを区別することができないため、D,D’の間の「差分」が保護されることになる。隣接の定義によって、この「差分」は異なる意味を持ってくる。例示的な方法は、2つのレベルの粒度を考慮する。
【0038】
エージェントレベルDPのための第2の定義は、次のように与えられる:D’がDからエージェントを追加または削除することによって構築されるとき(そのエージェントからのすべてのデータ点を有する)。
【0039】
第3の定義として、インスタンスレベルDPの場合、次のように与えられる:D’がエージェントのいずれかから1つのデータ点を追加または削除することによって構築されるとき。
【0040】
上記の2つの定義は、それぞれ特定の状況において重要である。例えば、スマートフォンのアプリがユーザのテキストメッセージを共同で学習する場合、各ユーザを単位として保護することが適切であり、これはエージェントレベルのDPである。また、複数の病院が連携して連合学習を用いて患者研究を行う場合、1つの病院のデータセット全体を難読化しても意味がないため、患者個人が特定されないようにするためには、インスタンスレベルのDPが適していると考えられる。
【0041】
DPFLのベースラインについて、代表的なDPFLアルゴリズムであるDP-FedAvg(以下に再現するアルゴリズム1)は、FedAvgと比較すると、DP-FedAvgはエージェント毎のモデルの勾配の閾値Sへのクリッピング(アルゴリズム1のステップ3;NoisyUpdate)とサーバで平均化する前にスケーリングした勾配にノイズを加えること、それによりエージェントレベルのDPを確保することを実施するものである。DP-FedSGD、インスタンスレベルのDPにフォーカスする。DP-FedSGDは、各エージェントにおいて一定の反復回数でNoisySGDを実行する。勾配の更新は、サーバでの通信ラウンドごとに平均化される。
【数1】
【0042】
マルチパーティ計算(MPC)については、MPCはサーバが受信する前にローカルアップデートを安全に集計する暗号技術である。MPCは差分プライバシー保証を持たないが、DPと組み合わせることで、プライバシー保証を増幅することができる。具体的には、各当事者が貢献した部分に独立した小さなノイズを加えれば、攻撃者がネットワークメッセージを盗聴してサーバをハッキングしたとしても、その合計値しか観測できないことをMPCは保証する。例示した方法は、投票された勝者のみを公開し、投票スコアを完全に隠蔽する新しいMPC技術を考慮したものである。これにより、例示した方法は、DP保証をさらに増幅させることができる。
【0043】
差分プライバシーにおける知識移転モデルについては、モデル不可知プライベート訓練のための知識移転モデルとして、PATEとPrivate-kNNがある。ラベル付きプライベートデータセットDprivateとラベル付けされていないパブリックデータセットDGとを想定している。その目的は、プライベートデータセットの不連続なパーティションで学習した教師モデルのアンサンブルを活用し(PATE参照)、またはk-nearest neighborのプライベートリリースを活用して(プライベートkNN参照)、ラベル付けされていないパブリックデータのシーケンスをラベル付けすることである。
【0044】
ノイズの多いスクリーニングとサブサンプリング(以下に再現するアルゴリズム2)は、PATEとPrivate-kNNのプライバシーとユーティリティとのトレードオフを改善する2つの基本的な技術である。サブサンプリング処理により、Private-kNNのプライバシー保証は増幅される。ノイズの多いスクリーニングステップでは、より大規模なガウスノイズ(アルゴリズム2ではσ
0>σ
1)を追加し、クエリがスクリーニングに合格した場合に、より信頼性の高いノイジー予測をリリースする。しかし、より脅威的な敵のモデルや新しいDP設定(エージェントレベルおよびインスタンスレベルのDP)のため、DPFLの設定ではもはや適用できない。例えば、各クライアントのローカルデータをサブサンプリングしても、インスタンスレベルのDPは素直に増幅されないし、ノイズの多いスクリーニングは通信コストを2倍にする可能性がある。
【数2】
【0045】
例示的なアプローチを紹介する前に、勾配推定、収束、およびデータの不均一性の観点から、従来のDPFL法における課題を明らかにすることによって、その背後にある動機を強調する。
【0046】
第1の課題は、偏った勾配推定に関するものである。最近の研究では、FedAvgはデータの不均一性の下ではうまく収束しない可能性があることが示されている。DPFedAvgのクリッピングステップが問題を悪化させる可能性があることを示す例を紹介する。
【0047】
N=2とすると、各エージェントiのローカル更新は、Δ
i(SGDのE反復)である。エージェント毎の更新Δ
iのクリッピングは、
【数3】
を実行することで強制される。ここで、Sはクリッピング閾値である。
【数4】
である場合の特殊なケースを考える。そうすると、グローバルアップデートは、偏ったもの
【数5】
になる。
【0048】
FedAvgの更新
【数6】
と比較すると、偏った更新は0(動いていない)または反対方向を向いている可能性がある。このような単純な例は、より現実的な問題に埋め込まれ、収束しないことにつながる実質的なバイアスを引き起こす可能性がある。
【0049】
第2の課題は、収束の遅さに関するものである。FLの収束解析に続き、DP-FedAvgの収束解析を行い、外側ループの反復回数(T)を多くすると、差分プライバシーで同様の収束問題が発生することを示した。
【0050】
FedAvgの魅力は、Eを大きく設定することで、各エージェントがE回の反復を行い、グローバルモデルへのパラメータ同期前に自身のパラメータを更新し、その結果、通信のラウンド数を削減することである。Eを増加させる効果は、断片的な線形目的関数を持つ最適化問題の大家族に対して、本質的に学習率を増加させることであり、収束率は変わらないことが示された。具体的には、B-境界領域に支持されたG-Lipschitz関数族に対して、任意のKrylov空間法はΩ(BG/√T)で下限される収束率を有することが知られている。これは、FedAvgの変形がαの定常点に収束するためには、Ω(1/α2)回の外側ループ(通信)を必要とすること、つまり、ノイズを加えない場合でも、Eを増加させても意味がないことを示している。
【0051】
また、DP-FedAvgは、勾配ノイズがN(0,σ
2/N I
d)であるピースワイズ線形目的関数のほぼ全ての位置において、確率的サブ勾配法と本質的に同じであることを示している。DP-FedAvgでは、ノイズが加わることで、収束にさらなる困難が生じる。Tラウンドを実行し、(ε,δ)-DPを達成する場合、
【数7】
となる。
【0052】
その結果、収束率上限は、以下のようになる。
【数8】
【0053】
【0054】
これは、学習率Eηの最適な選択についてのものである。
【0055】
上記の境界は、確率的サブ勾配法ではタイトであり、また情報理論的に最適である。上限のGB√Tの部分は、確率的サブ勾配オラクルのT回呼び出しを持つ全ての手法の情報理論的下界に一致する。一方、後者はエージェントレベルでは全ての(ε,δ)差分プライベート法に対する情報理論的な下界に一致する。つまり、第1項は通信のラウンド数が多いことを示し、第2項はDP-FedAvgでは周囲の次元dの依存性が避けられないことを示している。また、例示した方法は、最悪の場合、このような依存性を持つ。しかし、データに存在する構造(例えば、投票間の高いコンセンサス)に適応するのは、例示的なアプローチの方が簡単である。一方、DP-FedAvgでは、分散Ω(d)のノイズを明示的に加える必要があるため、影響が大きくなる。また、Nが小さい場合、ε,δパラメータが妥当なDP手法では、エージェントレベルDPの精度を高くすることができないという観察結果もある。
【0056】
第3の課題は、データの不均一性に関するものである。領域適応を伴うFLが研究されており、各ソース(エージェント)からの寄与を協調的に調整する動的注意モデルが提案されている。しかし、ほとんどのマルチソース領域適応アルゴリズムでは、ターゲット領域に対してローカル特徴ベクトルを共有する必要があり、DPの設定と相性が悪い。DP-FedAvgを効果的なドメイン適応技術で強化することは、未解決の課題である。
【0057】
上記の課題を軽減するために、例示的な実施形態は、「AE-DPFL」および「kNN-DPFL」という2つの投票に基づくアルゴリズムまたは計算を提案する。各アルゴリズムは、まずサーバからのデータのサブセットを非公開でラベル付けし、次に疑似ラベル付けされたデータを用いてグローバルモデルを学習する。
【0058】
AE-DPFL(以下に再現するアルゴリズム3)において、各エージェントiは、自身のプライベートなローカルデータを用いてローカルエージェントモデルf
iを訓練する。ローカルモデルはサーバには公開されず、ラベルのないデータ(クエリー)に対する予測にのみ使用される。各クエリx
tについて、各エージェントiは予測にGaussian Noiseを加える(例えば、バイナリデータが1であるf
i(x
t)番目を除いて、各バイナリデータが0となるC次元のヒストグラム)。「疑似ラベル」は、ローカルエージェントからのノイズの多い予測を集計して返される多数決で実現される。
【数10】
【0059】
インスタンスレベルDPについては、1つのインスタンスを追加または削除することによって、最大でも1つのエージェントの予測を変更することができるという側面において、例示的な方法の精神はPATEと共通である。また、1つのエージェントを追加したり削除したりする場合にも、当然同じ論法が適用される。実際、例示的な方法は、模範的なアプローチでは感度が小さいため、より強いエージェントレベルのDPでは2倍程度になる。
【0060】
別の重要な違いは、元のPATEでは、教師モデルはI.I.Dデータ(全プライベートデータのランダムな分割)上で訓練されるが、現在の例示的なケースでは、エージェントは異なる分布で自然に存在することである。例示的な方法は、エージェントを訓練する際に、これらの差異を緩和するために領域適応技術をオプションで使用することを提案する。
【0061】
第2および第3の定義から、エージェントレベルDPの保存は、一般にインスタンスレベルDPよりも困難である。AE-DPFLでは、インスタンスレベルのDPのプライバシー保証はエージェントレベルのDPの保証より弱いことがわかった。インスタンスレベルのDPを増幅するために、kNN-DPFLを導入する。
【0062】
以下に再現するアルゴリズム4では、各エージェントはデータに依存しない特徴抽出器φ、すなわち分類器層を除いたImageNet事前学習済みネットワークを保持している。各ラベルなしクエリx
tに対して、エージェントiはまず、特徴空間
【数11】
におけるEuclidean距離を測定することによって、そのローカルデータからx
tに対するk
i個の最近傍を見つける。次に、f
i(x
t)は、
【数12】
に等しい、最近傍から投票の頻度ベクトルを出力する。ここで、y
j∈R
Cは真実のラベルのワンホットベクトルを示す。その後、すべてのエージェントからのf
i(x
i)がサーバに返されたノイズの多い投票スコアのargmaxと非公開で集計される。
【数13】
【0063】
アルゴリズム2との強調された違いの他に、kNN-DPFLは、例示的な実施形態が、プライベートデータセット全体ではなく各エージェントのローカルデータに対してkNNを適用するという点で、プライベートkNNと異なっている。この区別とMPCにより、例示的な方法は、個々のエージェントの寄与をkで制限しながら、最大kN個の隣接を受信することができる。AE-DPFLと比較すると、1つのインスタンスの追加や削除による感度がエージェントレベルの感度のk/2倍未満と小さいため、より強いインスタンスレベルのDP保証を享受することができる。
【0064】
プライバシー解析については、Renyi差分プライバシー(RDP)に基づくプライバシー解析を行っている。
【0065】
Renyi Differential Privacy(RDP)の定義5に関して、ランダム化アルゴリズムMは、隣接するデータセットD,D’に対して、順序α≧1の(α,ε(α))のRDPである。
【数14】
【0066】
RDPはDPの情報理論的性質を継承および一般化したものであり、DP-FedAvgおよびDP-FedSGDでプライバシー解析に利用されているものである。注目すべきは、RDPが自然に構成され、すべてのδ>0に対して標準的な(ε,δ)のDPを含意していることである。
【0067】
レンマ6、RDPの構成特性について、MがεM(・)のRDPに従うなら
【0068】
【0069】
この合成規則では、強い合成定理よりも、合成された機構の(ε,δ)のDPの計算を厳しくできることが多い。さらに、RDPは、任意のδ>0を用いて、(ε,δ)のDPに変換することができる。
【0070】
レンマ7について、RDPからDPへ、ランダム化アルゴリズムMが(α,ε(α))のRDPを満たす場合、Mはまた任意のδ∈(0,1)について
【数16】
のDPを満たす。
【0071】
定理8、プライバシー保証について、AE-DPFLとkNN-DPFLがノイズスケールσでQクエリに回答するとする。エージェントレベルの保護については、両アルゴリズムとも、すべてのα≧1について
【数17】
のRDPを保証する。インスタンスレベルの保護では、AE-DPFLとkNN-DPFLとが
【数18】
と
【数19】
のRDPのそれぞれに従う。
【0072】
証明は以下の通りである:AE-DPFLにおいて、クエリxに対して、付加されるノイズの独立性により、ノイズ和は、
【数20】
に同一に分散される。
【0073】
データインスタンスを1つ追加または削除することは、L2において最も大きな√2よって
【数21】
を変更する。これは、f
i(x)がクラスaからクラスbへ変わることで、総和のa番目とb番目のバイナリデータが同時に変化する可能性があるためである。したがって、Gaussianメカニズムは、L2感度s=√2で、すべてのα≧1について、インスタンスレベルで(α,αs
2/2σ
2)のRDPを満たすことになる。
【0074】
エージェントレベルでは、1つのエージェントを追加または削除した場合、L2およびL1の感度は共に1となる。これは、1つのエージェントを追加または削除しても、総和のfi(x)番目のバイナリデータを1つ追加または削除するだけだからである。
【0075】
kNN-DPFLでは、ノイズの多い総和は、
【数22】
に同一に分散される。
【0076】
このことは、AE-DPFLと同じL2感度であり、同じエージェントレベルの保護機能を持つことを意味する。一方、1つのインスタンスの追加または削除によるL2感度は、そのインスタンスが別のインスタンスに置き換わることにより、L2における
【数23】
によってスコアが変化し、これは、
【数24】
の要素によってεを削減するインスタンスレベルDPの改良による。
【0077】
全体的なRDP保証は、Qクエリに対する構成に従う。近似DP保証は、標準的なRDPからDPへの変換式
【数25】
および最適に選択するαに従う。
【0078】
定理8は、両アルゴリズムがエージェントレベルおよびインスタンスレベルの差分プライバシーを達成することを示唆する。エージェントの出力に同じノイズを注入した場合、kNN-DPFLはエージェントレベルの保証に比べてインスタンスレベルDPの保証が強く(k/2倍)、AE-DPFLのインスタンスレベルDPの保証は2倍弱くなる。AE-DPFLは領域適応技術による拡張が容易であるため、実験ではエージェントレベルDPにAE-DPFLを、インスタンスレベルDPにkNN-DPFLを適用することを選択した。
【0079】
また、精度やプライバシーが大きく向上している。
【0080】
f1,...,fN:X→ΔC-1とすると、ΔC-1は、確率シンプレックス、すなわち、ソフトラベル空間を表す。なお、両方の例示的なアルゴリズムは、ΔC-1の確率分布を出力するこれらのローカルエージェントの投票と見なすことができることに注意されたい。まず、最大座標と2番目に大きな座標との差を測定するマージンパラメータγ(x)を次のように定義する。
【0081】
【0082】
レンマ9に関して、ローカルエージェントの条件付けでは、各サーバデータ点xについて、
【数27】
の各座標に付加されるノイズがN(0,σ
2/N
2)から引き出され、確率≧
【数28】
で私的にリリースされたラベルがノイズなしで多数決に一致する。
【0083】
この証明は、Gaussian尾部境界およびC座標上の組合わせ境界をそのまま適用したものである。このレンマは、
【数29】
のようなすべての公開データ点xに対して、出力ラベルは少なくとも1-δの確率でノイズのない多数決に一致することを意味する。
【0084】
次に、例示的な方法は、γ(x)が大きいようなそれらのデータ点xについて、
【数30】
を解放するためのプライバシー損失が指数関数的に小さくなることを示している。この結果は、以下のプライバシー増幅のレンマに基づくものである。
【0085】
レンマ10について、Mが(2α,ε)のRDPを満たすとする。そして、DにMが適用されると、確率1-qで起こるシングルトン出力が存在する。その結果、Dに隣接する任意のD’に対して、Renyi発散は次のように与えられる。
【数31】
【0086】
証明は以下のように行われる。P,QをそれぞれM(D)およびM(D’)の分布とし,Eをシングルトン出力が選択される事象とする。
【数32】
【0087】
2行目の前半は、事象EがQのもとで1-qより大きな確率でシングルトンであり、Pのもとではその確率が常に1よりも小さいことを利用したものである。2行目の後半は、CauchySchwartzの不等式から導かれる。3行目は(2α,ε)のRDPの定義を代入しています。最後に、Renyi発散の定義により、前述の結果が得られる。
【0088】
定理11について、各公開データ点xについて、
【数33】
を解放する機構が(α,ε)データ従属RDPに従う。ここで、
【数34】
である。
【0089】
ここで、エージェントレベルのDPを用いたAE-DPFLの場合はs=1、インスタンスレベルのDPを用いたKNN-DPFLの場合はs=2/kとする。
【0090】
証明は、レンマ9から
【数35】
をレンマ10に代入し、RDPの後処理レンマからMがGaussian機構のRDPを満たすという事実を利用する。境界式は読みやすくするために簡略化されており、すべてのx>-0.5および(1-q)
α-1≦1に対して-log(1-x)<2xを使用している。
【0091】
この境界は、投票スコアのマージンが大きいとき、エージェントはエージェントレベルとインスタンスレベルとの両方で指数関数的に強いRDP保証を享受することを意味する。つまり、例示的な方法は、DP-FedAvgとは異なり、モデル次元dへの明示的な依存を回避し、ローカルエージェントからの投票が高いコンセンサスを得たときに「簡単なデータ」の恩恵を受けられる可能性があるのだ。
【0092】
MPC-voteは、すべての当事者(ローカルエージェント、サーバー、攻撃者)がargmaxのみを観察し、ノイズの多い投票スコア自体を観察しないことを保証するため、定理11が可能である。最後に、各エージェントは同期を取らずに独立して動作する。全体として、例示的な方法は、(エージェントごとの)アップストリーム通信コストをd・Tフロート(モデルサイズ×Tラウンド)からC・Qに削除する。ここでCはクラス数、Qはデータ点数である。
【0093】
図1について、アーキテクチャ100では、フレームワークがPATE-FLであれば、それぞれがローカルデータを持つ多数のローカルエージェントを用いて各ローカルモデルを学習し、フレームワークがPrivate-kNN-FLであれば、すべてのローカルエージェントがグローバルモデルを共有する。すなわち、エージェントの数が限られている場合はPrivate-kNN-FLを、エージェントの数が十分な場合はPATE-FLを実行するという、異なる状況に対応する2つのパイプラインを提示する。グローバルサーバのラベル付けされていないデータは、疑似ラベル化のために各ローカルエージェントに供給される。グローバルサーバーモデルの学習は、グローバルデータと全エージェントのラベル集計による疑似ラベルのフィードバックを活用する。
【0094】
図2について、投票に基づくDPFL200は、グローバルサーバーモデル210とローカルエージェントモデル220とを含む。ローカルエージェントモデル220は、インスタンスレベル222とエージェントレベル224とを含む。半教師ありグローバルモデル学習230の結果、DPFLモデル出力240が得られる。
【0095】
図3について、AE-DPFL302とkNN-DPFL304とのアーキテクチャが示されている。
【0096】
要約すると、本発明の例示的な実施形態は、プライバシーを保護することができる連合学習フレームワークに焦点を当て、これは、差分プライバシー技術を適用して、プライバシー保存のための理論的かつ証明可能な保証を提供することによって達成される。従来の連合学習フレームワークでは、プライバシーを保護することができない。これは、ローカルデータがグローバルモデルの学習に完全に投入されているため、プライベートな情報がグローバルモデルの学習に注入されているためである。例示的な実施形態は、大規模または限られた量のエージェントに関して、2つの概念、すなわち、エージェントレベルの差分プライバシーおよびインスタンスレベルの差分プライバシーの下で、一般的なラベル空間投票に基づく差分プライベートFLフレームワークを紹介する。その範囲内で、例示的な方法は、インスタンスレベルおよびエージェントレベルの両方のプライバシー体制に対して証明可能なDP保証を提供する2つのDPFLアルゴリズムまたは計算(AE-DPFLおよびkNN-DPFL)を導入する。勾配を平均化するのではなく、各ローカルモデルから返されたデータラベルの間で投票を行うことで、例示したアルゴリズムや計算機は次元依存性を回避し、通信コストを大幅に削減する。理論的には、セキュアなマルチパーティ計算を適用することにより、例示的な実施形態は、投票スコアのマージンが特徴的である場合に、(データ依存の)プライバシー保証を指数関数的に増幅することができる。
【0097】
従来の勾配集計の代わりに、例示的な実施形態は、ラベル空間にわたって集計することを提案し、これは、勾配クリッピングによってもたらされる感度の問題だけでなく、連合学習における通信コストも大きく低減する。例示的な実施形態は、従来のDPFL勾配ベースのアプローチよりもプライバシーとユーティリティとのトレードオフを改善する、実用的なDPFLソリューションを提供するものである。
【0098】
図4は、本発明の実施形態による、一般的なラベル空間投票に基づく差分プライベート連合学習(DPFL)フレームワークを採用するための実用的なアプリケーションのブロック/フロー
図400である。
【0099】
1つの実用的な例では、1つ以上のカメラ402は、処理されるデータ404を収集することができる。例示的な方法は、AE-DPFL302およびkNN-DPFL304を含む連合学習技術300を採用する。結果410は、ユーザ414によって扱われるユーザインタフェース412に提供または表示することができる。
【0100】
図5は、本発明の実施形態による、一般的なラベル空間投票に基づく差分プライベート連合学習(DPFL)フレームワークを採用するための例示的な処理システムを示す図である。
【0101】
処理システムは、システムバス902を介して他の構成要素に動作可能に結合された少なくとも1つのプロセッサ(CPU)904を含む。システムバス902には、GPU905、キャッシュ906、Read Only Memory(ROM)908、Random Access Memory(RAM)910、入出力(I/O)アダプタ920、ネットワークアダプタ930、ユーザインタフェースアダプタ940、およびディスプレイアダプタ950が動作可能に結合されている。さらに、例示的な実施形態は、AE-DPFL302およびkNN-DPFL304を含む連合学習技術300を採用する。
【0102】
記憶装置922は、I/Oアダプタ920によってシステムバス902に動作可能に結合される。記憶装置922は、ディスク記憶装置(例えば、磁気ディスク記憶装置、光ディスク記憶装置)、固体磁気装置等のいずれでも良い。
【0103】
トランシーバ932は、ネットワークアダプタ930によってシステムバス902に動作可能に結合される。
【0104】
ユーザ入力装置942は、ユーザインタフェースアダプタ940によってシステムバス902に動作可能に結合される。ユーザ入力装置942は、キーボード、マウス、キーパッド、画像キャプチャ装置、動作感知装置、マイク、先行する装置のうち少なくとも2つの機能を組み込んだ装置などのいずれであっても良い。もちろん、本発明の精神を維持しつつ、他のタイプの入力デバイスを使用することも可能である。ユーザ入力装置942は、同じ種類のユーザ入力装置であっても良いし、異なる種類のユーザ入力装置であっても良い。ユーザ入力装置942は、処理システムとの間で情報を入出力するために使用される。
【0105】
表示装置952は、表示アダプタ950によってシステムバス902に動作可能に結合される。
【0106】
もちろん、処理システムは、当業者が容易に思いつくように、他の要素(図示せず)を含むこともでき、また、特定の要素を省略することもできる。例えば、当業者であれば容易に理解できるように、その特定の実施態様に応じて、様々な他の入力装置および/または出力装置をシステムに含めることができる。例えば、様々なタイプの無線および/または有線の入力および/または出力装置を使用することができる。さらに、当業者であれば容易に理解できるように、様々な構成の追加のプロセッサ、コントローラ、メモリなどを利用することも可能である。処理システムのこれらおよび他の変形は、本明細書に提供される本発明の教示を考慮すれば、当業者によって容易に企図されるものである。
【0107】
図6は、本発明の実施形態による、一般的なラベル空間投票に基づく差分プライベート連合学習(DPFL)フレームワークを採用するための例示的な方法のブロック/フロー図である。
【0108】
ブロック1010において、第1の疑似ラベル付けされたデータを生成するために、各エージェントがエージェントに関連するプライベートローカルデータを使用してローカルエージェントモデルを訓練する第1の投票に基づくDPFL計算を採用することによって、第1のグローバルサーバからのラベル付けされていないデータの第1のサブセットをラベル付けする。
【0109】
ブロック1020において、第2の疑似ラベル付けデータを生成するために、各エージェントがデータに依存しない特徴抽出器を保持する第2の投票に基づくDPFL計算を採用することによって、第2のグローバルサーバからのラベル付けされていないデータの第2のサブセットをラベル付けする。
【0110】
ブロック1030において、インスタンスレベルとエージェントレベルとの両方のプライバシー体制について証明可能な差分プライベート(DP)保証を提供するために、第1および第2の疑似ラベル付けデータを使用してグローバルモデルを訓練する。
【0111】
本明細書で使用される場合、「データ」、「コンテンツ」、「情報」および同様の用語は、様々な例示的実施形態に従って捕捉、送信、受信、表示および/または保存することができるデータを指すために交換可能に使用することができる。したがって、このような用語の使用は、本開示の精神および範囲を制限するものと解釈されるべきではない。さらに、本明細書において、計算装置が別の計算装置からデータを受信することが記載されている場合、データは、別の計算装置から直接受信することができ、または例えば、1つまたは複数のサーバ、中継器、ルータ、ネットワークアクセスポイント、基地局、および/または同様のものなど、1つまたは複数の仲介計算装置を介して間接的に受信することができる。同様に、計算装置が別の計算装置へデータを送信することが本明細書に記載されている場合、データは、別の計算装置へ直接送信することができ、または例えば、1つまたは複数のサーバ、中継器、ルータ、ネットワークアクセスポイント、基地局、および/または同様のものなど、1つまたは複数の仲介計算装置を介して間接的に送信することができる。
【0112】
当業者には理解されるように、本発明の態様は、システム、方法またはコンピュータプログラム製品として具現化することができる。したがって、本発明の態様は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、またはソフトウェアとハードウェアの態様を組み合わせた実施形態の形態をとることができ、これらはすべて、本明細書において一般に「回路」、「モジュール」、「計算機」、「装置」、「システム」として言及されることがある。さらに、本発明の態様は、その上に具現化されたコンピュータ可読プログラムコードを有する1つまたは複数のコンピュータ可読媒体に具現化されたコンピュータプログラム製品の形態をとることができる。
【0113】
1つ以上のコンピュータ可読媒体の任意の組合せを利用することができる。コンピュータ可読媒体は、コンピュータ可読信号媒体であっても良いし、コンピュータ可読記憶媒体であっても良い。コンピュータ可読記憶媒体は、例えば、電子、磁気、光学、電磁、赤外線、または半導体のシステム、装置、またはデバイス、またはこれらの任意の適切な組み合わせであっても良いが、これらに限定されるものではない。コンピュータ可読記憶媒体のより具体的な例(非網羅的なリスト)としては、1本以上のワイヤを有する電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラム可能読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光学データ記憶装置、磁気データ記憶装置、または前述の任意の適切な組み合わせなどがあるであろう。本書では、コンピュータ可読記憶媒体は、命令実行システム、装置、またはデバイスによって、またはそれらに関連して使用するためのプログラムを含む、または格納することができる任意の有形媒体とすることができる。
【0114】
コンピュータ可読信号媒体は、例えばベースバンドで、または搬送波の一部として、コンピュータ可読プログラムコードがそこに具現化された伝搬データ信号を含むことができる。このような伝搬信号は、電磁波、光学、またはそれらの任意の適切な組み合わせなど、様々な形態のいずれかを取ることができるが、これらに限定されるものではない。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体ではなく、命令実行システム、装置、またはデバイスで使用するためのプログラムを通信、伝播、または伝送することができる任意のコンピュータ可読媒体であって良い。
【0115】
コンピュータ可読媒体に具現化されたプログラムコードは、無線、有線、光ファイバーケーブル、RFなど、または前述の任意の適切な組み合わせを含むがこれに限定されない任意の適切な媒体を使用して伝送することができる。
【0116】
本発明の態様のための動作を実行するためのコンピュータプログラムコードは、Java、Smalltalk、C++などのオブジェクト指向プログラミング言語、および「C」プログラミング言語などの従来の手続き型プログラミング言語などの1つまたは複数のプログラミング言語の任意の組み合わせで記述することができる。プログラムコードは、ユーザのコンピュータ上で完全に実行しても良いし、ユーザのコンピュータ上で部分的に、スタンドアロンソフトウェアパッケージとして実行しても良いし、ユーザのコンピュータ上で部分的におよびリモートコンピュータ上で部分的に、またはリモートコンピュータまたはサーバ上で完全に実行しても良い。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続されても良く、または接続は(例えば、インターネットサービスプロバイダを使用してインターネットを介して)外部のコンピュータになされても良い。
【0117】
本発明の態様は、本発明の実施形態による方法、装置(システム)およびコンピュータプログラム製品のフローチャート図および/またはブロック図を参照して、以下に説明される。フローチャート図および/またはブロック図の各ブロック、並びにフローチャート図および/またはブロック図のブロックの組み合わせは、コンピュータプログラム命令によって実施できることが理解されるであろう。これらのコンピュータプログラム命令は、汎用コンピュータ、特殊用途コンピュータ、または他のプログラム可能なデータ処理装置のプロセッサに提供され、コンピュータまたは他のプログラム可能なデータ処理装置のプロセッサを介して実行される命令が、フローチャートおよび/またはブロック図のブロックまたはモジュールで指定された機能/動作を実施する手段を作り出すように、機械を製造することができる。
【0118】
これらのコンピュータプログラム命令は、コンピュータ、他のプログラム可能なデータ処理装置、または他の装置が特定の方法で機能するように指示することができるコンピュータ可読媒体に格納することもでき、コンピュータ可読媒体に格納された命令が、フローチャートおよび/またはブロック図のブロックまたはブロックまたはモジュールで指定される機能/動作を実施する命令を含む製造物品を製造するようにすることができる。
【0119】
コンピュータプログラム命令は、コンピュータ、他のプログラム可能なデータ処理装置、または他の装置にロードされて、コンピュータまたは他のプログラム可能な装置上で実行される命令が、フローチャートおよび/またはブロック図のブロックまたはブロックまたはモジュールで指定された機能/動作を実施するためのプロセスを提供するように、一連の動作ステップをコンピュータ実装プロセスを生成するために行わせることも可能である。
【0120】
本明細書で使用する「プロセッサ」という用語は、例えば、CPU(中央処理装置)および/または他の処理回路を含むものなど、任意の処理装置を含むことを意図していることが理解される。また、「プロセッサ」という用語は、複数の処理装置を指す場合があり、処理装置に関連する様々な要素が他の処理装置で共有される場合があることも理解されたい。
【0121】
本明細書で使用する「メモリ」という用語は、例えば、RAM、ROM、固定メモリ装置(例えば、ハードドライブ)、取り外し可能なメモリ装置(例えば、ディスケット)、フラッシュメモリなどのプロセッサまたはCPUに関連するメモリを含むことを意図している。このようなメモリは、コンピュータ読み取り可能な記憶媒体とみなすことができる。
【0122】
さらに、本明細書で使用される「入力/出力装置」または「I/O装置」という語句は、例えば、処理ユニットにデータを入力するための1つ以上の入力装置(例えば、キーボード、マウス、スキャナなど)、および/または処理ユニットに関連する結果を提示するための1つ以上の出力装置(例えば、スピーカー、ディスプレイ、プリンタなど)を含むことを意図するものである。
【0123】
上記は、あらゆる点で例示的かつ模範的であると理解されるが、制限的なものではなく、本明細書に開示された発明の範囲は、詳細な説明からではなく、特許法によって許される全幅に従って解釈される請求項から決定されるものである。本明細書に示され、説明された実施形態は、本発明の原理を例示するに過ぎず、当業者は、本発明の範囲および精神から逸脱することなく、様々な修正を実施することができることを理解されたい。当業者であれば、本発明の範囲と精神から逸脱することなく、様々な他の特徴の組み合わせを実施することができる。このように、特許法が要求する詳細さと特殊性をもって本発明の側面を説明したが、特許状によって請求され、保護されることを望むものは、添付の特許請求の範囲に記載されているとおりである。