IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社デンソーの特許一覧 ▶ 国立大学法人静岡大学の特許一覧

特開2024-161786学習システム、学習装置及び学習プログラム
<>
  • 特開-学習システム、学習装置及び学習プログラム 図1
  • 特開-学習システム、学習装置及び学習プログラム 図2
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024161786
(43)【公開日】2024-11-20
(54)【発明の名称】学習システム、学習装置及び学習プログラム
(51)【国際特許分類】
   G06N 3/098 20230101AFI20241113BHJP
【FI】
G06N3/098
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2023076809
(22)【出願日】2023-05-08
(71)【出願人】
【識別番号】000004260
【氏名又は名称】株式会社デンソー
(71)【出願人】
【識別番号】304023318
【氏名又は名称】国立大学法人静岡大学
(74)【代理人】
【氏名又は名称】矢作 和行
(74)【代理人】
【識別番号】100121991
【弁理士】
【氏名又は名称】野々部 泰平
(74)【代理人】
【識別番号】100145595
【弁理士】
【氏名又は名称】久保 貴則
(72)【発明者】
【氏名】梶 大介
(72)【発明者】
【氏名】山本 泰生
(72)【発明者】
【氏名】河野 駿介
(57)【要約】
【課題】連合学習において、プライバシーの保護等の特性を損なうことなく、高い推定精度を実現可能な学習システムの提供。
【解決手段】サーバ10と、サーバ10とそれぞれ通信可能に接続された複数のクライアント20と、を備える学習システム1は、複数のクライアント20がそれぞれ保有するデータ23a,23bを用いた連合学習機能を有する。クライアント20は、サーバ10が有するサーバモデル11のパラメータを用いて構成される一般モデル21と、一般モデル21及びクライアント20が保有するデータ23a,23bを用いて学習可能に構成される個別モデル22と、一般モデル21に対するクライアント20が保有するデータ23a,23bの独自性を定量化する独自性定量化部24と、独自性に応じて一般モデルの影響力を変化させて、個別モデル22を学習させるモデル学習部25と、を有する。
【選択図】図1
【特許請求の範囲】
【請求項1】
サーバ(10)と、前記サーバとそれぞれ通信可能に接続された複数のクライアント(20)と、を備え、複数の前記クライアントがそれぞれ保有するデータ(23a,23b)を用いた連合学習機能を有する学習システムであって、
前記サーバは、各前記クライアントから収集した情報に基づいて学習可能に構成されるサーバモデル(11)を有し、
前記クライアントは、
前記サーバモデルのパラメータを用いて構成される一般モデル(21)と、
前記一般モデル及び前記クライアントが保有するデータを用いて学習可能に構成される個別モデル(22)と、
前記一般モデルに対する前記クライアントが保有するデータの独自性を定量化する独自性定量化部(24)と、
定量化された前記独自性に応じて前記一般モデルの影響力を変化させて、前記個別モデルを学習させるモデル学習部(25)と、を有する学習システム。
【請求項2】
前記独自性定量化部は、前記クライアントが保有するデータの前記一般モデルによる説明可能性、及び前記個別モデルと前記一般モデルとの予測解離性を用いて、前記独自性を定量化する請求項1に記載の学習システム。
【請求項3】
前記説明可能性は、前記サーバモデルの予測精度に基づいて算出される請求項2に記載の学習システム。
【請求項4】
前記予測解離性は、前記個別モデルと前記一般モデルとの予測結果の差異に基づいて算出される請求項2に記載の学習システム。
【請求項5】
前記サーバ及び各前記クライアントのうち少なくとも1つは、前記独自性に関する情報を表示する表示部(27)を、さらに有する請求項1に記載の学習システム。
【請求項6】
前記モデル学習部は、さらに、定量化された前記独自性に応じて、前記個別モデルの影響力を変化させて、前記一般モデルを学習させ、
前記サーバは、各前記クライアントにおいて学習済みの前記一般モデルのパラメータに基づいて、前記サーバモデルを学習させる請求項1に記載の学習システム。
【請求項7】
サーバ(10)と、前記サーバとそれぞれ通信可能に接続された複数のクライアント(20)と、を備え、複数の前記クライアントがそれぞれ保有するデータを用いた連合学習機能を有する学習システム(1)において、複数の前記クライアントのうち1つの自クライアント(20a)を構成するための学習装置であって、
前記サーバに設けられたサーバモデル(11)のパラメータを取得し、前記サーバモデルのパラメータを用いて構成される一般モデル(21)と、
前記サーバモデルのパラメータ及び前記自クライアントが保有するデータ(23a,23b)を用いて学習可能に構成される個別モデル(22)と、
前記一般モデルに対する前記自クライアントが保有するデータの独自性を定量化する独自性定量化部(24)と、
定量化された前記独自性に応じて前記一般モデルの影響力を変化させて、前記個別モデルを学習させるモデル学習部(25)と、を備える学習装置。
【請求項8】
サーバ(10)と通信可能に接続された自クライアント(20a)において、前記サーバを介した他クライアント(20b)との連合学習をするために構成された学習プログラムであって、
少なくとも1つのプロセッサに、
前記サーバに設けられたサーバモデル(11)のパラメータを取得し、前記サーバモデルのパラメータを用いて構成される一般モデル(21)と、前記サーバモデルのパラメータ及び前記自クライアントが保有するデータ(23a,23b)を用いて学習可能に構成される個別モデル(22)と、を生成することと、
前記一般モデルに対する前記自クライアントが保有するデータの独自性を定量化することと、
定量化された前記独自性に応じて前記一般モデルの影響力を変化させて、前記個別モデルを学習させることと、を実行させるように構成される学習プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
この明細書による開示は、複数のクライアントがそれぞれ所有する独自データを用いた連合学習をするための技術に関する。
【背景技術】
【0002】
特許文献1に開示の学習システムでは、連合学習において、プライバシーを保護するため、クライアントが有する固有モデルの深層学習ネットワークの一部が、共通モデルとして、複数のクライアント及びサーバで共有される。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2022-78973号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1のように、深層学習ネットワークの一部が共通モデルとして共有される場合、共通モデル部分を共有するための特殊な構造や管理が必要となる。また、データサイズが大きなモデル自体を共有するため、高い通信負荷が発生する。このように、特許文献1の学習システムは連合学習において煩雑さが生じ得る。そして、連合学習において、プライバシーの保護等の特性を損なうことなく、高い推定精度を実現することが求められていると同時にパラメータのみをサーバとクライアントで交換し、データを直接交換しないため各クライアントのデータの特徴の把握が困難であり、さらにデータ特徴を利用した精度改善も行えないという課題があった。
【0005】
この明細書の開示による目的のひとつは、連合学習において、プライバシーの保護等の特性を損なうことなく、各クライアントの持つデータの特徴を取り出すこと、及び取り出した分布特徴を用いて高い推定精度を実現可能な学習システム、学習装置及び学習プログラムを提供することにある。
【課題を解決するための手段】
【0006】
ここに開示された態様のひとつは、サーバ(10)と、サーバとそれぞれ通信可能に接続された複数のクライアント(20)と、を備え、複数のクライアントがそれぞれ保有するデータ(23a,23b)を用いた連合学習機能を有する学習システムであって、
サーバは、各クライアントから収集した情報に基づいて学習可能に構成されるサーバモデル(11)を有し、
クライアントは、
サーバモデルのパラメータを用いて構成される一般モデル(21)と、
一般モデル及びクライアントが保有するデータを用いて学習可能に構成される個別モデル(22)と、
一般モデルに対するクライアントが保有するデータの独自性を定量化する独自性定量化部(24)と、
定量化された独自性に応じて一般モデルの影響力を変化させて、個別モデルを学習させるモデル学習部(25)と、を有する。
【0007】
また、開示された態様の他のひとつは、サーバ(10)と、サーバとそれぞれ通信可能に接続された複数のクライアント(20)と、を備え、複数のクライアントがそれぞれ保有するデータを用いた連合学習機能を有する学習システム(1)において、複数のクライアントのうち1つの自クライアント(20a)を構成するための学習装置であって、
サーバに設けられたサーバモデル(11)のパラメータを取得し、サーバモデルのパラメータを用いて構成される一般モデル(21)と、
サーバモデルのパラメータ及び自クライアントが保有するデータ(23a,23b)を用いて学習可能に構成される個別モデル(22)と、
一般モデルに対する自クライアントが保有するデータの独自性を定量化する独自性定量化部(24)と、
定量化された独自性に応じて一般モデルの影響力を変化させて、個別モデルを学習させるモデル学習部(25)と、を備える。
【0008】
また、開示された態様の他のひとつは、サーバ(10)と通信可能に接続された自クライアント(20a)において、サーバを介した他クライアント(20b)との連合学習をするために構成された学習プログラムであって、
少なくとも1つのプロセッサに、
サーバに設けられたサーバモデル(11)のパラメータを取得し、サーバモデルのパラメータを用いて構成される一般モデル(21)と、サーバモデルのパラメータ及び自クライアントが保有するデータ(23a,23b)を用いて学習可能に構成される個別モデル(22)と、を生成することと、
一般モデルに対する自クライアントが保有するデータの独自性を定量化することと、
定量化された独自性に応じて一般モデルの影響力を変化させて、個別モデルを学習させることと、を実行させるように構成される。
【0009】
これらの態様によると、クライアントにおいて、そのクライアントが保有するデータの独自性が定量化されることにより、プライバシーを配慮すべき個々のデータを直接的に共有及び解析しなくても、クライアントが保有するデータの特徴を理解することが可能となる。故に、連合学習において、プライバシーの保護等の特性を損なうことなく、高い推定精度を実現可能となる。
【0010】
なお、特許請求の範囲等に含まれる括弧内の符号は、後述する実施形態の部分との対応関係を例示的に示すものであって、技術的範囲を限定することを意図するものではない。
【図面の簡単な説明】
【0011】
図1】学習システムの概略構成を示す図。
図2】学習システムによる処理の例を示す図。
【発明を実施するための形態】
【0012】
一実施形態を図面に基づいて説明する。
【0013】
(第1実施形態)
第1実施形態による学習システム1は、図1に示すように、サーバ10及び複数のクライアント20を含む構成である。学習システム1は、複数のクライアント20がそれぞれ保有するデータ23a,23bを用いた連合学習機能を有する。連合学習では、例えば各クライアント20が保有するデータ23a,23b自体を、サーバ10が収集して、サーバ10側で学習を実行することも考えられる。しかしながら、クライアント20が所有するデータ23a,23bには、個人情報、顧客情報、機密情報等が含まれ、プライバシーの権利が存在する場合がある。このため、学習システム1において、サーバ10と各クライアント20との間では、データ23a,23b自体は通信されずに、学習モデルを定義するパラメータが通信対象となっている。
【0014】
学習モデルは、所定のデータに基づき学習可能なパラメータを備えるモデルである。学習モデルには、例えばニューラルネットワークが採用されてよい。ニューラルネットワークは、畳み込みニューラルネットワークであってもよく、その他の種々のニューラルネットワークであってもよい。例えば学習モデルとして畳み込みニューラルネットワークが採用される場合、学習モデルを定義するパラメータは、畳み込み層に適用される局所的なフィルタに設定されるパラメータであってよい。学習モデルには、ニューラルネットワーク以外のモデル、例えばリカレントニューラルネットワークモデル、Random Forestなどの木構造型/アンサンブル学習型モデル、回帰モデル等が採用されてもよい。学習システム1内で採用される学習モデルは、パラメータの適用において互換性が生じるように、共通の構造をもつモデルが採用されてもよい。
【0015】
サーバ10は、コンピュータを主体として構成されており、メモリ及びプロセッサを、少なくとも1つずつ有している。メモリは、プロセッサにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも1種類の非遷移的実体的記憶媒体であってよい。さらにメモリとして、例えばRAM(Random Access Memory)等の書き換え可能な揮発性の記憶媒体が設けられていてもよい。プロセッサは、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも1種類をコアとして含む。
【0016】
サーバ10は、プロセッサによるプログラムの実行により、連合学習機能を実現するための、複数の機能部等を有する。具体的にサーバ10は、サーバモデル11、通信部12及びモデル更新部13を含む構成である。
【0017】
サーバモデル11は、クライアント20間で共通に出現する共通データ23aに対して最適化される学習モデルである。
【0018】
通信部12は、通信ネットワークを通じて、サーバモデル11のパラメータを各クライアント20へ向けて送信可能に構成されている。また、通信部12は、ネットワーク回線を通じて、各クライアント20からサーバモデル11の更新に必要なパラメータを受信可能に構成されている。さらに通信部12は、サーバモデル11の更新に必要なパラメータと関連付けて、後述するデータの独自性に関する情報を受信可能に構成されているとよい。通信ネットワークは、有線によるネットワークであってもよく、無線によるネットワークであってもよい。
【0019】
モデル更新部13は、各クライアント20から受信したサーバモデル11の更新に必要なパラメータを用いて、サーバモデル11を最新の状態に更新可能に構成されている。モデル更新部13は、サーバモデル11の更新において、各クライアント20が保有するデータ23a,23bの独自性を考慮してもよい。
【0020】
複数のクライアント20は、以下に説明する範囲において、互いに共通の機能及び構造を備えている。このため以下では、複数のクライアント20のうち、クライアント20aについて代表して説明する。
【0021】
クライアント20aは、コンピュータを主体として構成された学習装置を含むシステムである。以下に説明するクライアント20aの構成は、クライアント20aに設けられた学習装置の構成として読み替え可能である。クライアント20aは、メモリ及びプロセッサを、少なくとも1つずつ有している。メモリは、プロセッサにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも1種類の非遷移的実体的記憶媒体であってよい。さらにメモリとして、例えばRAM(Random Access Memory)等の書き換え可能な揮発性の記憶媒体が設けられていてもよい。プロセッサは、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも1種類をコアとして含む。
【0022】
クライアント20aは、プロセッサによるプログラム(例えば学習プログラム)の実行により、連合学習機能を実現するための、複数の機能部等を有する。具体的にクライアント20aは、一般モデル21、個別モデル22、独自性定量化部24、モデル学習部25、通信部26及び表示部27を含む構成である。
【0023】
また、クライアント20aは、連合学習に用いられる教師データとなり得るデータ23a,23bを保有している。クライアント20aが保有するデータ23a,23bは、複数のクライアント20間で共通に出現する共通データ23aと、特定のクライアントで独自に出現する独自データ23bとに分類され得る。但し、本学習システム1においては、サーバ10及び複数のクライアント20間でデータ自体を共有することは不要とされている。このため、後述する個別モデル22の独自性が定量化されることにより、データ23a,23bの全体傾向が分析されていればよく、学習システム1が実際のデータを共通データ23aと独自データ23bとに個別に区別していなくてもよい。
【0024】
一般モデル21は、サーバモデル11を更新するために設けられている。一般モデル21は、サーバモデル11から取得したサーバ側パラメータを用いて構成されたモデルである。
【0025】
個別モデル22は、クライアント20aに独自に設けられているモデルである。個別モデル22は、一般モデル21及びクライアント20aが保有するデータ23a,23bを用いて学習可能に構成される。個別モデル22は、クライアント20aで個別に学習されるため、個別モデル22のパラメータは、サーバモデル11のパラメータ及び一般モデル21のパラメータとは異なるものとなる。
【0026】
独自性定量化部24は、クライアント20aが保有するデータ23a,23bの独自性を定量化する。データ23a,23bの独自性を表す指標として、一般モデル21による説明可能性(以下、単に説明可能性と表記する)及び個別モデル22と一般モデル21との予測乖離性(以下、単に予測乖離性と表記する)が採用されている。独自性定量化部24は、説明可能性及び予測乖離性を算出する。
【0027】
説明可能性は、データ23a,23bが一般モデル21で判別できるか否か(説明できるか否か)を示す指標である。説明可能性は、一例として、クロスエントロピー誤差を用いた以下の数1に記載の数式で示される。
【0028】
【数1】
ここで、クライアント20aが保有するデータの集合は、以下の数2で表される。
【0029】
【数2】
この集合に対応するクラスラベルの集合は、以下の数3で表される。
【0030】
【数3】
クラスラベルの真値は、以下の数4のように記載する。すなわち、yは、ワンホットベクトルである。
【0031】
【数4】
また、数1に記載の数式において、fは一般モデル21の尤度ベクトルである。すなわち、yijはyのj番目の要素であり、一般モデル21がクラスラベルcをj番目の要素であると予測する尤度は、fとされる。θは一般モデル21のパラメータである。
【0032】
予測乖離性は、クライアント20aが保有するデータ23a,23bを個別モデル22及び一般モデル21でそれぞれ評価した場合に、予測値が同じであるか否かを示す指標である。独自性定量化部24は、指標の定量化のため、個別モデル22の予測値と一般モデル21の予測値との差を、一例として、KL情報量(KL divergence)を用いた以下の数5に記載の数式によって算出する。KL情報量は、確率分布の差異を計測する尺度である。
【0033】
【数5】
ここで数5に記載の数式を詳細に説明する。以下の数6に記載の確率は、個別モデル22がxをクラスkと予測する確率である。すなわち、数7に記載の数式が成立する。
【0034】
【数6】
【0035】
【数7】
以下の数8に記載の確率は、一般モデル21がxをクラスkと予測する確率である。すなわち、数9に記載の数式が成立する。
【0036】
【数8】
【0037】
【数9】
ここで、独自性定量化部24は、数1に記載の数式で示されたEを、Eの標準偏差σを用いて標準化する。さらに、データ23a,23bの独自性の区別を明確化するために、独自性定量化部24は、標準化のための単調関数Rを用いて、E’=R(E_i)を計算する。独自性定量化部24は、例えば、標準化後の指標に2を乗じた値を、ネイピア数の累乗とし、数10に示される、右辺がRに相当する数式を演算する。
【0038】
【数10】
また、独自性定量化部24は、数5に記載の数式で示されたKLを、KLについての標準偏差σKLを用いて標準化する。さらに、データ23a,23bの独自性の区別を明確化するために、独自性定量化部24は、独自性定量化部24は、標準化のための単調関数Rを用いて、KL’=R(KL_i)を計算する。独自性定量化部24は、例えば、標準化後の指標に2を乗じた値を、ネイピア数の累乗とし、数11に示される、右辺がRに相当する数式を演算する。
【0039】
【数11】
そして、独自性定量化部24は、独自性mを、以下の数12に示される数式に基づき算出する。ただし、AVG(X,Y)は、XとYの平均を求める演算であり、例えば幾何平均と定義される。また、Gは活性化関数であり、例えばシグモイド関数で与えられる。mの取りうる範囲は[0,1]である。このmが大きくなる程、クライアント20aが保有するデータ23a,23bの独自性が大きい。すなわち、データ23a,23bのうち独自データ23bの割合又は影響が大きいことが示唆される。mが小さくなる程、クライアント20aが保有するデータ23a,23bの独自性が小さい。すなわち、データ23a,23bのうち共通データ23aの割合又は影響が大きいことを示す。
【0040】
【数12】
モデル学習部25は、一般モデル21及びクライアント20aが保有するデータ23a,23bを用いて、個別モデル22の蒸留学習を実行する。モデル学習部25は、上述の独自性に応じて、学習における一般モデル21の影響力を変化させる。モデル学習部25は、独自性が大きい程、学習における一般モデル21の影響を漸次小さくする。モデル学習部25は、独自性が小さい程、学習における一般モデル21の影響を漸次大きくする。換言すると、独自性に応じて、学習時の重み付けが変更される。
【0041】
ここで、モデル学習部25は、2つの損失関数として、分類損失(classification loss)及び互換性損失(compatibility loss)を定義する。分類損失の損失関数は、クロスエントロピー誤差を用いた以下の数13に記載の数式で表される。分類損失は、各データ23a,23bに独自性mを乗じたことにより、共通データ23aの学習時に大きくなり、独自データ23bの学習時に小さくなる。
【0042】
【数13】
互換性損失の損失関数は、KL情報量を用いた以下の数14に記載の数式で表される。互換性損失は、各データに(1-m)を乗じたことにより、共通データ23aの学習時に大きくなり、独自データ23bの学習時に小さくなる。
【0043】
【数14】
このように、独自データ23bの学習時には、一般モデルとの相互作用が減少するようにする。そして、個別モデル22の損失関数Lは、以下の数15に記載の数式で表される。
【0044】
【数15】
モデル学習部25は、損失関数Lを最小化できるようなパラメータを、勾配降下法等の方法により探索する。モデル学習部25は、探索の結果得られたパラメータにより、個別モデル22を更新する。
【0045】
さらに、モデル学習部25は、一般モデル21を学習させる機能を有していてもよい。一般モデル21の学習に採用される損失関数は、クロスエントロピー誤差を用いた以下の数16に記載の数式で表されてよい。
【0046】
【数16】
数16に記載の数式におけるYは、数17に示される集合である。
【0047】
【数17】
また、一般モデル21の学習に採用される損失関数として、以下の数18に記載の数式が用いられてもよい。このように、(1-m)の重みをつけることで、共通データ23aに対する誤りにペナルティを課すことが考えられる。
【0048】
【数18】
通信部26は、通信ネットワークを通じて、サーバモデル11のパラメータを受信可能に構成されている。通信部26は、サーバモデル11の更新に必要なパラメータをサーバ10へ向けて送信可能に構成されていてもよい。さらに通信部26は、サーバモデル11の更新に必要なパラメータと関連付けて、独自性に関する情報をサーバ10へ向けて送信可能に構成されていてもよい。サーバモデル11の更新に必要なパラメータは、学習済みの一般モデル21のパラメータであってよい。サーバモデル11の更新に必要なパラメータは、学習済みの個別モデル22のパラメータをさらに含んでいてもよい。
【0049】
表示部27は、クライアント20aが保有するデータの独自性に関する情報を表示する機能を有する。この機能は、クライアント20aに設けられた液晶表示装置等の表示デバイスに表示する機能であってもよく、クライアント20aと通信可能に接続されたスマートフォン等の端末に独自性に関する情報を送信し、当該端末の表示画面に当該情報を表示させる機能であってもよい。
【0050】
独自性に関する情報は、独自性定量化部24が算出する独自性等の定量化された数値そのものを含んでいてもよい。独自性に関する情報は、定量化された数値を可視化したグラフを含んでいてもよい。独自性に関する情報は、定量化された数値に基に人工知能等を用いて自動生成された文章を含んでいてもよい。
【0051】
なお、クライアント20aを自クライアントとした場合に他クライアントに位置付けられるクライアント20bは、クライアント20aと共通の機能及び構造を備えている。但し、クライアント20bが保有しているデータ23a,23b、及びそれを用いて更新された個別モデル22のパラメータには、クライアント20aとの差異が存在する。
【0052】
次に、学習システム1による連合学習の方法の一例を、図2のフローチャートを用いて説明する。なお、独自性を用いた連合学習の方法は、この方法に限られず、本開示の趣旨を逸脱しない範囲で種々の方法を採用することができる。
【0053】
図2におけるS1では、サーバ10が、サーバモデル11のパラメータを各クライアント20へ送信する。S1の処理後、S2へ進む。
【0054】
S2では、各クライアント20が受信したサーバモデル11のパラメータを用いて、各クライアント20が一般モデル21を生成する。S2の処理後、S3へ進む。
【0055】
S3では、各クライアント20が、それぞれ保有するデータ23a,23bを用いて、それぞれの個別モデル22を生成する。S3の処理後、S4へ進む。
【0056】
S4では、各クライアント20(特に独自性定量化部24)が、一般モデル21及び個別モデル22を用いて、それぞれ保有するデータ23a,23bの独自性を定量化する。S4の処理後、S5へ進む。
【0057】
S5では、各クライアント20(特にモデル学習部25)が、一般モデル21及び定量化された独自性を用いて学習を実行し、それぞれの個別モデル22を更新する。S5の処理後、S6へ進む。
【0058】
S6では、各クライアント20が、サーバモデル11の更新に必要なパラメータ等をサーバ10へ送信する。S6の処理後、S7へ進む。
【0059】
S7では、サーバ10が、各クライアント20から受信したデータを用いてサーバモデル11を更新する。S7を以って一連の処理を終了する。
【0060】
なお、S1~6の処理は、クライアント毎で異なるタイミングで実行されてもよい。
【0061】
以上説明した第1実施形態によると、クライアント20aにおいて、そのクライアント20aが保有するデータ23a,23bの独自性が定量化されることにより、プライバシーを配慮すべきデータ23a,23bを直接的に共有しなくても、クライアント20aが保有するデータ23a,23bの特徴を理解することが可能となる。故に、連合学習において、プライバシーの保護等の特性を損なうことなく、高い推定精度を実現可能となる。
【0062】
また、第1実施形態によると、一般モデル21及びクライアント20aが保有するデータ23a,23bを用いた個別モデル22の学習において、独自性に応じて、学習における一般モデル21の影響力が変化するように構成されている。個別モデル22の特徴に応じて一般モデル21の影響力を適正化し、個別モデル22へ反映させることができるので、クライアント20a側の個別モデル22の予測精度ないし個別モデル22を利用した処理の精度を向上させることができる。
【0063】
また、第1実施形態によると、クライアント20aが保有するデータ23a,23bの一般モデル21による説明可能性、及び個別モデル22と一般モデル21との予測解離性を用いて、独自性が定量化される。2種類の指標を用いて独自性が評価されるので、連合学習の精度をより向上させることができる。
【0064】
また、第1実施形態によると、クライアント20aが保有するデータ23a,23bの一般モデル21による説明可能性は、一般モデル21はサーバモデル11のパラメータを用いて構成されるので、サーバモデル11の予測精度に基づいて算出されていることとなる。すなわち、複数のクライアント20間に共通の共通データ23aに対するクライアント20aが保有するデータ23a,23bの独自性を適切に推定することができる。
【0065】
また、第1実施形態によると、個別モデル22と一般モデル21との予測解離性は、個別モデル22と一般モデル21との予測結果の差異に基づいて算出される。すなわち、クライアント20aが保有するデータ23a,23bの独自性を適切に推定することができる。
【0066】
このように、第1実施形態では、クライアント個々が保有するデータ23a,23bについて、独自データ23bであるか共通データ23aであるかを定量化できる。さらに独自性の指標を用いることで、クライアント20側の個別モデル22と、サーバ10側のサーバモデル11双方の学習効率(換言すると収束速度)と予測性能を改善することが期待できる。
【0067】
(他の実施形態)
以上、一実施形態について説明したが、本開示は、当該実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態に適用することができる。
【0068】
例えば、サーバ10に独自性に関する情報を表示する表示部が設けられていてもよい。この場合、表示部は、各クライアントの独自性を一覧で表示することが可能に構成されていてもよい。
【0069】
また例えば、サーバ10に接続された連合学習の対象となる全てのクライアント20に独自性を定量化する機能が設けられていることが好ましいが、例外的に一部のクライアントに独自性を定量化する機能が設けられていなくてもよい。
【0070】
また例えば、独自性を用いた連合学習は、クライアント20を車両ないし車載装置とした車載ネットワークソリューションや、クライアント20を医療機関に設けられた端末とした医療ネットワークソリューション等に活用することができる。
【0071】
本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
【符号の説明】
【0072】
1:学習システム、10:サーバ、11:サーバモデル、20,20a,20b:クライアント、21:一般モデル、22:個別モデル、23a,23b:データ、24:独自性定量化部
図1
図2