IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

特許7601205情報処理装置、情報処理方法、及びプログラム
<>
  • 特許-情報処理装置、情報処理方法、及びプログラム 図1
  • 特許-情報処理装置、情報処理方法、及びプログラム 図2
  • 特許-情報処理装置、情報処理方法、及びプログラム 図3
  • 特許-情報処理装置、情報処理方法、及びプログラム 図4
  • 特許-情報処理装置、情報処理方法、及びプログラム 図5
  • 特許-情報処理装置、情報処理方法、及びプログラム 図6
  • 特許-情報処理装置、情報処理方法、及びプログラム 図7
  • 特許-情報処理装置、情報処理方法、及びプログラム 図8
  • 特許-情報処理装置、情報処理方法、及びプログラム 図9
  • 特許-情報処理装置、情報処理方法、及びプログラム 図10
  • 特許-情報処理装置、情報処理方法、及びプログラム 図11
  • 特許-情報処理装置、情報処理方法、及びプログラム 図12
  • 特許-情報処理装置、情報処理方法、及びプログラム 図13
  • 特許-情報処理装置、情報処理方法、及びプログラム 図14
  • 特許-情報処理装置、情報処理方法、及びプログラム 図15
  • 特許-情報処理装置、情報処理方法、及びプログラム 図16
  • 特許-情報処理装置、情報処理方法、及びプログラム 図17
  • 特許-情報処理装置、情報処理方法、及びプログラム 図18
  • 特許-情報処理装置、情報処理方法、及びプログラム 図19
  • 特許-情報処理装置、情報処理方法、及びプログラム 図20
  • 特許-情報処理装置、情報処理方法、及びプログラム 図21
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-09
(45)【発行日】2024-12-17
(54)【発明の名称】情報処理装置、情報処理方法、及びプログラム
(51)【国際特許分類】
   G06N 3/0475 20230101AFI20241210BHJP
   G06N 20/00 20190101ALI20241210BHJP
【FI】
G06N3/0475
G06N20/00
【請求項の数】 9
(21)【出願番号】P 2023508176
(86)(22)【出願日】2021-03-22
(86)【国際出願番号】 JP2021011772
(87)【国際公開番号】W WO2022201256
(87)【国際公開日】2022-09-29
【審査請求日】2023-09-08
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】110000338
【氏名又は名称】弁理士法人 HARAKENZO WORLD PATENT & TRADEMARK
(72)【発明者】
【氏名】吉山 智之
【審査官】新井 則和
(56)【参考文献】
【文献】特開2020-027182(JP,A)
【文献】国際公開第2010/119615(WO,A1)
【文献】特開2015-184805(JP,A)
【文献】特表2019-502988(JP,A)
【文献】XIANDONG, Q.,Intro Distributed Deep Learning,GitHub, [online],2017年05月13日,[検索日 2024.08.02], Internet: <URL: https://xiandong79.github.io/Intro-Distributed-Deep-Learning>
【文献】Variational Autoencoder for Collaborative Filtering for TensorFlow,GitHub, [online],,2019年07月23日, [検索日 2024.08.02], Internet: <URL: https://github.com/mkfilipiuk/VAE-CF/blob/master/README.md>
【文献】DANIEL, J. I.et al.,Generative Adversarial Parallelization,arXiv.org, [online],2016年12月13日,[検索日 2024.08.02], Internet: <URL: https://arxiv.org/pdf/1612.04021.pdf>
【文献】Mullick, Sankha Subhra et al.,Generative Adversarial Minorty Oversampling,arXiv.org, [online],,2020年08月26日,[検索日 2024.08.02], Internet: <URL: https://arxiv.org/pdf/1903.09730.pdf>
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/0475
G06N 20/00
(57)【特許請求の範囲】
【請求項1】
学習用データを取得する学習用データ取得手段と、
第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、
前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、
を備え
前記学習用データ取得手段は、
データ片を複数含むデータ群であって、各データ片が複数のラベル種の何れかでラベル付けされ、あるラベル種が付されたデータ片の割合が所定の割合以下であるデータ群に含まれるデータ片を、前記学習用データとして取得する
ことを特徴とする情報処理装置。
【請求項2】
前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報を送信する送信手段
を更に備えている請求項1に記載の情報処理装置。
【請求項3】
前記生成モデル情報取得手段は、
学習後の前記第2のデータ生成モデルに関する第4の生成モデル情報を取得し、
当該情報処理装置は、
前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報と、
前記第4の生成モデル情報と
を参照して更新後の生成モデル情報を生成する生成モデル情報更新手段
を更に備えている請求項1に記載の情報処理装置。
【請求項4】
前記学習用データ取得手段は、
複数のデータ群候補から、前記データ群を選択する選択手段を備えている
ことを特徴とする請求項1から3の何れか1項に記載の情報処理装置。
【請求項5】
前記データ生成モデル学習手段は、
前記第1のデータ生成モデルを含むオートエンコーダ、及び、
前記第1のデータ生成モデルを含む敵対的生成ネットワーク
の少なくとも何れかを学習させる
ことを特徴とする請求項1からの何れか1項に記載の情報処理装置。
【請求項6】
前記オートエンコーダは、
変分オートエンコーダ、及び条件付き変分オートエンコーダ
の少なくとも何れかを含んでいる
ことを特徴とする請求項に記載の情報処理装置。
【請求項7】
前記第1のデータ生成モデルを用いてデータを生成するデータ生成手段と、
前記データ生成手段が生成したデータを参照して第1の推論モデルを学習させる推論モデル学習手段と
を更に備えている
ことを特徴とする請求項1からの何れか1項に記載の情報処理装置。
【請求項8】
1又は複数のプロセッサが、
学習用データを取得すること、
第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得すること、及び、
前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させること
を含み、
前記学習用データを取得することにおいて、
データ片を複数含むデータ群であって、各データ片が複数のラベル種の何れかでラベル付けされ、あるラベル種が付されたデータ片の割合が所定の割合以下であるデータ群に含まれるデータ片を、前記学習用データとして取得する
とを特徴とする情報処理方法。
【請求項9】
コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
学習用データを取得する学習用データ取得手段と、
第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、
前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、
として機能させ
前記学習用データ取得手段は、
データ片を複数含むデータ群であって、各データ片が複数のラベル種の何れかでラベル付けされ、あるラベル種が付されたデータ片の割合が所定の割合以下であるデータ群に含まれるデータ片を、前記学習用データとして取得する
ことを特徴とするプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
【背景技術】
【0002】
データを生成するデータ生成モデルを機械学習により生成する技術が知られている。例えば、非特許文献1には、データを生成するデータ生成モデルを、データのクラスを予測する予測モデル、及び、データの真偽を判別する判別モデルの双方に対して敵対的に学習させることにより生成する技術が記載されている。このようなデータ生成モデルにより生成されるデータは、例えば、推論モデルの学習用データとして用いられる。
【先行技術文献】
【非特許文献】
【0003】
【文献】Mullick, Sankha Subhra, Shounak Datta, and Swagatam Das. "Generative Adversarial Minority Oversampling." Proceedings of the IEEE International Conference on Computer Vision. 2019.
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上述した非特許文献1に記載された技術では、データ生成モデルが生成するデータの多様性に改善の余地がある。例えば、学習用データが不足する場合に、他の情報処理装置から学習用データを取得することができれば、データ生成モデルの学習効率を向上させることができる可能性がある。しかしながら、このような場合であっても、実際には、例えばプライバシーへの配慮のために、他の情報処理装置が有する学習用データを取得することが難しい可能性がある。
【0005】
本発明の一態様は、上記の問題に鑑みてなされたものであり、その目的の一例は、他の情報処理装置が有する学習用データを取得することが難しい状況であっても、より多様性のあるデータを生成可能なデータ生成モデルを生成する技術を提供することである。
【課題を解決するための手段】
【0006】
本発明の一側面に係る情報処理装置は、学習用データを取得する学習用データ取得手段と、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、を備えている
【0007】
発明の一側面に係る情報処理方法は、学習用データを取得すること、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得すること、及び、前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させることを含んでいる
【0008】
発明の一側面に係るプログラムは、コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、学習用データを取得する学習用データ取得手段と、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、として機能させる
【発明の効果】
【0009】
本発明の一態様によれば、他の情報処理装置が有する学習用データを取得することが難しい状況であっても、データ生成モデルを効率的に学習させることができる。
【図面の簡単な説明】
【0010】
図1】例示的実施形態1に係る情報処理装置の構成を示すブロック図である。
図2】例示的実施形態1に係る情報処理方法の流れを示すフロー図である。
図3】例示的実施形態2に係る情報処理装置の構成を示すブロック図である。
図4】例示的実施形態2に係る情報処理方法の流れを示すフロー図である。
図5】例示的実施形態3に係る情報処理装置の構成を示すブロック図である。
図6】例示的実施形態3に係る情報処理方法の流れを示すフロー図である。
図7】例示的実施形態4に係る情報処理システムの構成を示すブロック図である。
図8】例示的実施形態4に係る情報処理方法の流れを示すフロー図である。
図9】例示的実施形態5に係る情報処理システムの構成を示すブロック図である。
図10】例示的実施形態5に係る情報処理方法の流れを説明するフロー図である。
図11】例示的実施形態5に係る他の情報処理方法の流れを説明するフロー図である。
図12】例示的実施形態5におけるデータ生成モデルの具体例を説明する模式図である。
図13】例示的実施形態5におけるデータ生成モデルの他の具体例を説明する模式図である。
図14】例示的実施形態5におけるデータ生成モデルのさらに他の具体例を説明する模式図である。
図15】例示的実施形態6に係る情報処理システムの構成を示すブロック図である。
図16】例示的実施形態6に係る情報処理方法の流れを説明するフロー図である。
図17】例示的実施形態7に係る情報処理システムの構成を示すブロック図である。
図18】例示的実施形態8に係る情報処理システムの構成を示すブロック図である。
図19】例示的実施形態9に係る情報処理システムの構成を示すブロック図である。
図20】例示的実施形態10における学習用データ取得部の構成を示す図である。
図21】本発明の各例示的実施形態における情報処理装置及びサーバのハードウェア構成の一例を示すブロック図である。
【発明を実施するための形態】
【0011】
〔例示的実施形態1〕
本発明の第1の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、後述する例示的実施形態の基本となる形態である。
【0012】
本例示的実施形態に係る情報処理装置10は、学習用データ(以下、生成モデル学習用データとも呼ぶ)を用いて、データ生成モデルを学習させるものであり、データ生成モデルの学習装置とも呼称できるものである。ここで、本例示的実施形態に係るデータ生成モデルが生成するデータが、生成後にどのように用いられるのかについては、本例示的実施形態を限定するものではないが、一例として、当該データは、推論モデルを学習するために用いることができる。
【0013】
例えば、プライバシーへの配慮等によって、推論モデルを学習させるための推論モデル学習用データを十分に取得することが難しいような状況が生じ得る。このような状況において、本例示的実施形態に係る情報処理装置10は、当該推論モデルを学習させるための推論モデル学習用データを生成する装置として用いることができる。
【0014】
一方で、生成モデル学習用データの取得に際しても、プライバシーへの配慮等によって、生成モデル学習用データを十分に取得することが難しいような状況も生じ得る。例えば、情報処理装置10と同様の構成を有する複数の情報処理装置が存在する状況を考える。これら複数の情報処理装置が取得した生成モデル学習用データを直接的に用いて、上記データ生成モデルを学習させることができれば、上記データ生成モデルの学習効率を向上させることができるような場合であっても、実際には、プライバシーへの配慮のために、他の情報処理装置が取得した生成モデル学習用データを、当該情報処理装置10が取得することは避けるべき状況も生じ得る。
【0015】
本例示的実施形態に係る情報処理装置10は、このような状況であっても、プライバシーへの配慮を保ちつつ、データ生成モデルを効率的に学習させることができるよう構成されている。
【0016】
以下、本例示的実施形態に係る情報処理装置10についてより具体的に説明する。
【0017】
<情報処理装置の構成>
本例示的実施形態に係る情報処理装置10の構成について、図1を参照して説明する。図1は、情報処理装置10の構成を示すブロック図である。図1に示すように、情報処理装置10は、学習用データ取得部101、生成モデル情報取得部102、及びデータ生成モデル学習部103を備えている。
【0018】
ここで、学習用データ取得部101は、本例示的実施形態に係る学習用データ取得手段の一例である。また、生成モデル情報取得部102は、本例示的実施形態に係る生成モデル情報取得手段の一例である。また、データ生成モデル学習部103は、本例示的実施形態に係るデータ生成モデル学習手段の一例である。
【0019】
(学習用データ取得部)
学習用データ取得部101は、学習用データ(生成モデル学習用データ)を取得する。当該生成モデル学習用データは、後述する第1のデータ生成モデルを学習させるためのデータである。
【0020】
(生成モデル情報取得部)
生成モデル情報取得部102は、後述する第1のデータ生成モデルに関する第1の生成モデル情報を取得する。
【0021】
(第1のデータ生成モデル)
第1のデータ生成モデルとは、データを生成するモデルである。例えば、第1のデータ生成モデルは、シードデータを入力として、データを出力する。第1のデータ生成モデルによって生成されるデータは、例えば、上述した推論モデル学習用データとして用いられる。ただし、第1のデータ生成モデルが生成するデータの用途はこれに限定されない。
【0022】
(第1の生成モデル情報)
第1の生成モデル情報は、一例として、第1のデータ生成モデルを規定する各種のパラメータを含んでいる。本例示的実施形態では、第1の生成モデル情報には、第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映されている。これにより、後述する他の情報処理装置が有する生成モデル学習用データを直接的に取得することなく、他の生成モデル学習用データを間接的に参照することが可能となる。一例として、後述するデータ生成モデル学習部103が、第1のデータ生成モデルを、逐次的に学習させるよう構成されている場合、ある時点において生成モデル情報取得部102が取得する第1の生成モデル情報には、当該ある時点よりも過去において第1の生成モデル情報を規定していた第1の生成モデル情報と、当該ある時点よりも過去において第2の生成モデル情報を規定していた第2の生成モデル情報とを参照して得られる情報が含まれている。
【0023】
(第2のデータ生成モデル)
第2のデータ生成モデルとは、第1のデータ生成モデルとは異なるモデルであり、入力データに応じたデータを生成するモデルである。例えば、第2の生成モデルは、第1の生成モデルを生成する情報処理装置10とは異なる他の情報処理装置において、他の生成モデル学習用データを用いて学習される。他の情報処理装置は、一例として、情報処理装置10と同様に構成される装置であってもよい。また、第2のデータ生成モデルは、逐次的に学習されるよう構成されていてもよい。
【0024】
(第2の生成モデル情報)
第2の生成モデル情報は、一例として、第1のデータ生成モデルを規定する各種のパラメータを含んでいる。
【0025】
なお、上述した第1の生成モデル情報には、第1のデータ生成モデル及び第2のデータ生成モデルの何れとも異なる他のデータ生成モデルに関する他の生成モデル情報が反映される構成としてもよいし、更に他の生成モデル情報が反映される構成としてもよい。
【0026】
(データ生成モデル学習部)
データ生成モデル学習部103は、生成モデル情報取得部102が取得した第1のモデル情報を参照して規定される第1のデータ生成モデルを、生成モデル学習用データを教師データとして用いて学習させる。
【0027】
ここで、第1の生成モデルとしては、一例として、オートエンコーダや敵対的生成ネットワークなど、ニューラルネットワークを用いて構成される生成モデルを用いることができるが、これは本例示的実施形態を限定するものではなく、他の構成を有する生成モデルを用いることもできる。
【0028】
データ生成モデル学習部103による学習後の第1のデータ生成モデルを規定する第1のモデル情報は、一例として、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルを規定する第2のモデル情報と組み合わせられることによって、更新後のモデル情報を生成するために用いられる。
【0029】
<情報処理方法の流れ>
以上のように構成された情報処理装置10が実行する情報処理方法S10について、図2を参照して説明する。図2は、情報処理方法S10の流れを示すフロー図である。図2に示すように、情報処理方法S10は、ステップS101~S103を含む。
【0030】
(ステップS101)
ステップS101において、学習用データ取得部101は、生成モデル学習用データを取得する。
【0031】
(ステップS102)
ステップS102において、生成モデル情報取得部102は、第1の生成モデル情報を取得する。
【0032】
(ステップS103)
ステップS103において、データ生成モデル学習部103は、生成モデル情報取得部102が取得した第1のモデル情報を参照して規定される第1のデータ生成モデルを、生成モデル学習用データを教師データとして用いて学習させる。
【0033】
情報処理装置10は、上述した情報処理方法S10を逐次的に実行することにより、第1の生成モデルを逐次的に学習させてもよい。一例として、n回目(nは自然数)に実行する情報処理方法S10のステップS102において生成モデル情報取得部102が取得する第1の生成モデル情報には、(i)n-1回目以前のステップS103において学習させた第1の生成モデル情報を規定していた第1の生成モデル情報と、(ii)n-1回目以前の時点で第2の生成モデル情報を規定していた第2の生成モデル情報との加重平均をとることによって得られる情報が含まれている。
【0034】
<本例示的実施形態の効果>
以上のように、本例示的実施形態に係る情報処理装置10においては、
・第1のデータ生成モデルの学習用データ(生成モデル学習用データ)を取得し、
・第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得し、
・取得した第1の生成モデル情報を参照して規定される第1のデータ生成モデルを、学習用データ(生成モデル学習用データ)を用いて学習させる、
という構成が採用されている。
【0035】
上記の構成によれば、第2の生成モデルを生成した他の情報処理装置によって用いられた他の生成モデル学習用データを直接的に取得することなく、当該他の生成モデル学習用データを間接的に用いて、第1のデータ生成モデルを生成することができる。換言すると、自装置で取得した生成モデル学習用データと、他の情報処理装置が取得した生成モデル学習用データとの双方を直接的に用いて学習した場合と同様に多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。
【0036】
その結果、他の情報処理装置において用いられた他の生成モデル学習用データを当該情報処理装置10が取得することを避けるべき状況であっても、より多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。また、一例として、このような第1のデータ生成モデルにより生成したデータを推論モデルの学習に用いる場合には、推論モデル学習用データの多様性を増すことができ、より高精度で多様なデータに対応できる推論モデルを得ることができる。
【0037】
なお、本例示的実施形態に係る情報処理装置10が行う学習は、一例として、連合学習とも呼称されるものであるが、当該文言によって本例示的実施形態が限定されるものではない。
【0038】
〔例示的実施形態2〕
本発明の第2の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態に係る情報処理装置20は、例示的実施形態1に係る情報処理装置10が生成した第1のデータ生成モデルを用いてデータを生成する装置である。一例として、情報処理装置20が生成するデータは、推論モデルの学習において教師データとして用いるためのデータであってもよい。ただし、情報処理装置20が生成するデータの用途はこれに限定されない。
【0039】
以下、本例示的実施形態に係る情報処理装置20についてより具体的に説明する。
【0040】
<情報処理装置の構成>
本例示的実施形態に係る情報処理装置20の構成について、図3を参照して説明する。図3は、情報処理装置20の構成を示すブロック図である。図3に示すように、情報処理装置20は、シードデータ取得部201、及びデータ生成部202を備えている。
【0041】
ここで、シードデータ取得部201は、本例示的実施形態に係るシードデータ取得手段の一例である。また、データ生成部202は、本例示的実施形態に係るデータ生成手段の一例である。
【0042】
(シードデータ取得部)
シードデータ取得部201は、シードデータを取得する。シードデータは、第1のデータ生成モデルに入力するためのデータである。例えば、シードデータ取得部201は、シードデータを生成することにより取得してもよいし、当該装置に含まれる他の機能ブロック(図示せず)又は他の装置(図示せず)によって生成されたシードデータを取得してもよい。シードデータの具体例は、本例示的実施形態を限定するものではないが、一例としてランダムなノイズデータを挙げることができる。また、シードデータとの名称は本例示的実施形態を何ら限定するものではない。
【0043】
(データ生成部)
データ生成部202は、シードデータ及び第1のデータ生成モデルを用いてデータ生成を行う。具体的には、データ生成部202は、シードデータを第1のデータ生成モデルに入力することによりデータを生成する。第1のデータ生成モデルは、第1の生成モデル情報を参照して規定される。第1の生成モデル情報には、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映されている。第1のデータ生成モデル、第1の生成モデル情報、第2のデータ生成モデル、及び第2の生成モデル情報の詳細については、例示的実施形態1で説明した通りである。
【0044】
<情報処理方法の流れ>
以上のように構成された情報処理装置20が実行する情報処理方法S20について、図4を参照して説明する。図4は、情報処理方法S20の流れを示すフロー図である。図4に示すように、情報処理方法S20は、ステップS201~S203を含む。
【0045】
(ステップS201)
ステップS201において、シードデータ取得部201は、シードデータを取得する。例えば、シードデータ取得部201は、ランダムに生成したデータをシードデータとして取得してもよい。
【0046】
(ステップS202)
ステップS202において、データ生成部202は、シードデータを第1のデータ生成モデルに入力することにより、データを生成する。例えば、情報処理装置20のメモリ(図示せず)には、例示的実施形態1に係る情報処理装置10によって生成された第1のデータ生成モデルに関する第1の生成モデル情報が記憶されている。データ生成部202は、当該第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いて、データを生成する。
【0047】
<本例示的実施形態の効果>
以上のように、本例示的実施形態に係る情報処理装置20においては、
・シードデータを取得し、
・取得したシードデータ、及び、第1のデータ生成モデルを用いてデータ生成を行う。
・第1のデータ生成モデルは、第1の生成モデル情報によって規定される、
との構成が採用されている。ここで、
・第1の生成モデル情報は、第1のデータ生成モデルに関する情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルが反映された情報である。
【0048】
上記の構成によれば、第2の生成モデルに関する第2の生成モデル情報が反映された第1のデータ生成モデルを用いることにより、第2の生成モデルの学習に用いられた他の生成モデル学習用データを直接的に参照することなく、第1の生成モデル及び第2の生成モデルの学習に用いられた生成モデル学習用データの双方に相当するような多様性のあるデータを生成することができる。また、一例として、本例示的実施形態において生成したデータを推論モデルの学習に用いる場合には、推論モデル学習用データの多様性を増すことができ、より高精度で多様なデータに対応できる推論モデルを得ることができる。
【0049】
〔例示的実施形態3〕
本発明の第3の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態に係る情報処理装置30は、複数のデータ生成モデルをそれぞれ規定する生成モデル情報を参照して、更新後の生成モデル情報を生成する装置である。
【0050】
以下、本例示的実施形態に係る情報処理装置30についてより具体的に説明する。
【0051】
<情報処理装置の構成>
本例示的実施形態に係る情報処理装置30の構成について、図5を参照して説明する。図5は、情報処理装置30の構成を示すブロック図である。図5に示すように、情報処理装置30は、生成モデル情報取得部301、及び生成モデル情報更新部302を備えている。
【0052】
ここで、生成モデル情報取得部301は、本例示的実施形態に係る生成モデル情報取得手段の一例である。また、生成モデル情報更新部302は、本例示的実施形態に係る生成モデル情報更新手段の一例である。
【0053】
(生成モデル情報取得部)
生成モデル情報取得部301は、第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する。
【0054】
(第1のデータ生成モデル、及び第2のデータ生成モデル)
第1のデータ生成モデルは、入力データに応じたデータを生成するモデルである。第1のデータ生成モデルは、情報処理装置30とは異なる情報処理装置において、生成モデル学習用データを用いて学習される。第2のデータ生成モデルは、第1のデータ生成モデルとは異なるモデルであり、入力データに応じたデータを生成するモデルである。第2のデータ生成モデルは、情報処理装置30、及び第1のデータ生成モデルを学習させる情報処理装置の何れとも異なる情報処理装置において、生成モデル学習用データを用いて学習される。第1のデータ生成モデルの学習に用いられる生成モデル学習用データと、第2のデータ生成モデルの学習に用いられる生成モデル学習用データとは、例えば、各情報処理装置が互いに独立して取得するデータであり、互いに異なり得る。
【0055】
(第1の生成モデル情報、及び第2の生成モデル情報)
第1の生成モデル情報は、第1のデータ生成モデルに関する情報であり、一例として、第1のデータ生成モデルを規定する各種のパラメータを含んでいる。第2の生成モデル情報は、第1のデータ生成モデルに関する情報であり、一例として、第2のデータ生成モデルを規定する各種のパラメータを含んでいる。
【0056】
なお、本例示的実施形態における第1の生成モデル情報は、例示的実施形態1、2における第1の生成モデル情報とは異なり、必ずしも第2の生成モデル情報が反映されたものでなくてよい。
【0057】
(生成モデル情報更新部)
生成モデル情報更新部302は、第1の生成モデル情報、及び第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する。
【0058】
(更新後の生成モデル情報)
更新後の生成モデル情報には、第1の生成モデル情報及び第2の生成モデル情報が反映されている。例えば、第1のデータ生成モデル、及び第2のデータ生成モデルは、更新後の生成モデル情報を参照して新たに規定されてもよい。
【0059】
<情報処理方法の流れ>
以上のように構成された情報処理装置30が実行する情報処理方法S30について、図6を参照して説明する。図6は、情報処理方法S30の流れを示すフロー図である。図6に示すように、情報処理方法S30は、ステップS301~S203を含む。
【0060】
(ステップS301)
ステップS301において、生成モデル情報取得部301は、第1の生成モデル情報と、第2の生成モデル情報とを取得する。例えば、生成モデル情報取得部301は、第1のデータ生成モデルを学習させた情報処理装置から第1の生成モデル情報を取得する。また、例えば、生成モデル情報取得部301は、第2のデータ生成モデルを学習させた情報処理装置から第2の生成モデル情報を取得する。
【0061】
(ステップS302)
ステップS302において、生成モデル情報更新部302は、第1の生成モデル情報、及び第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する。一例として、生成モデル情報更新部302は、第1の生成モデル情報と第2の生成モデル情報との加重平均をとることによって得られる情報を、更新後の生成モデル情報に含めてもよい。
【0062】
<本例示的実施形態の効果>
以上のように、本例示的実施形態に係る情報処理装置30においては、
第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得し、
第1の生成モデル情報、及び第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する、
という構成が採用されている。
【0063】
上記の構成によれば、更新後の生成モデル情報を参照して規定されるデータ生成モデルは、(i)第1のデータ生成モデルの学習に用いられた生成モデル学習用データと、(ii)第2のデータ生成モデルの学習に用いられた生成モデル学習用データとを、間接的に用いて学習されたデータ生成モデルとして機能する。
【0064】
その結果、上記(i)、(ii)の生成モデル学習用データとの少なくとも一方を取得することを避けるべき状況であっても、双方を間接的に用いてより多様性のあるデータを生成可能なデータ生成モデルを生成することができる。換言すると、(i)、(ii)の双方を直接的に用いて学習した場合と同様に多様性のあるデータを生成可能なデータ生成モデルを生成することができる。また、一例として、このようなデータ生成モデルを用いて生成したデータを推論モデルの学習に用いる場合には、推論モデル学習用データの多様性を増すことができ、より高精度で多様なデータに対応できる推論モデルを得ることができる。
【0065】
なお、本例示的実施形態に係る情報処理装置30は、一例として、連合学習におけるサーバとして機能するものであるが、当該文言によって本例示的実施形態が限定されるものではない。
【0066】
〔例示的実施形態4〕
本発明の第4の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~3にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
【0067】
<情報処理システムの構成>
本例示的実施形態に係る情報処理システム1aの構成について、図7を参照して説明する。図7は、情報処理システム1aの構成を示すブロック図である。図7に示すように、情報処理システム1aは、第1の情報処理装置10a、及びサーバ30aを含む。第1の情報処理装置10aと、サーバ30aとは、ネットワークNを介して接続される。ネットワークNの具体例としては、例えば、無線LAN(Local Area Network)、有線LAN、WAN、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせが挙げられる。ただし、ネットワークNの構成は、これに限定されない。
【0068】
(第1の情報処理装置の構成)
第1の情報処理装置10aは、学習用データ取得部101、生成モデル情報取得部102、データ生成モデル学習部103、及び送信部110を含む。
【0069】
学習用データ取得部101、及びデータ生成モデル学習部103は、例示的実施形態1と同様に構成される。
【0070】
生成モデル情報取得部102は、例示的実施形態1とほぼ同様に構成される。ただし、本例示的実施形態では、第1の生成モデル情報を、サーバ30aから受信することにより取得する点が異なる。
【0071】
送信部110は、データ生成モデル学習部103によって学習された後の第1のデータ生成モデルに関する第3の生成モデル情報をサーバ30aに送信する。
【0072】
(第3の生成モデル情報)
第3の生成モデル情報は、学習後の第1のデータ生成モデルに関する情報であり、例えば、学習後の第1のデータ生成モデルを規定するパラメータを含む。
【0073】
(第4の生成モデル情報)
第4の生成モデル情報は、学習後の第2のデータ生成モデルに関する情報であり、例えば、学習後の第2のデータ生成モデルを規定するパラメータを含む。
【0074】
(サーバの構成)
サーバ30aは、生成モデル情報取得部301、生成モデル情報更新部302、及び送信部310を含む。
【0075】
(生成モデル情報取得部)
生成モデル情報取得部301は、例示的実施形態3とほぼ同様に構成される。ただし、本例示的実施形態では、第1の生成モデル情報及び第2の生成モデル情報に替えて、第3の生成モデル情報及び第4の生成モデル情報を取得する点が異なる。
【0076】
(生成モデル情報更新部)
生成モデル情報更新部302は、例示的実施形態3とほぼ同様に構成される。ただし、本例示的実施形態では、生成モデル情報更新部302は、第1の生成モデル情報、及び第2の生成モデル情報を参照する代わりに、第3の生成モデル情報、及び第4の生成モデル情報を参照して、更新後の生成モデル情報を生成する。
【0077】
送信部310は、更新後の生成モデル情報を、第1の情報処理装置10aに送信する。
【0078】
<情報処理方法の流れ>
以上のように構成された情報処理システム1aが実行する情報処理方法S1aについて、図8を参照して説明する。図8は、情報処理方法S1aの流れを示すフロー図である。図8に示すように、情報処理方法S1aは、第1の情報処理装置10aが実行するS101a~S104aと、サーバ30aが実行するS301a~S303aとを含む。情報処理システム1aは、情報処理方法S1aを逐次的に実行する。以下では、n回目に実行する情報処理方法S1aについて説明している。(n=1,2,…)
(ステップS101a)
ステップS101aにおいて、学習用データ取得部101は、生成モデル学習用データを取得する。
【0079】
(ステップS102a)
ステップS102aにおいて、生成モデル情報取得部102は、第1の生成モデル情報を、サーバ30aから受信することにより取得する。なお、情報処理方法S1aの実行が初回(n=1)である場合、サーバ30aから受信する第1の生成モデル情報は、必ずしも第2の生成モデル情報が反映された情報でなくてもよい。また、情報処理方法S1aの実行が2回目以降(n≧2)である場合、生成モデル情報取得部102は、前回(n-1回目)のステップS303a(詳細は後述)においてサーバ30aが送信した「更新後の生成モデル情報」を、第1の生成モデル情報として取得する。この場合、取得した第1の生成モデル情報(すなわち、前回の更新後の生成モデル情報)は、第2の生成モデル情報(すなわち、前回の第4の生成モデル情報)が反映された情報である。
【0080】
(ステップS103a)
ステップS103aにおいて、データ生成モデル学習部103は、生成モデル情報取得部102が取得した第1の生成モデル情報を参照して規定される第1のデータ生成モデルを、生成モデル学習用データを教師データとして用いて学習させる。例えば、データ生成モデル学習部103は、生成モデル学習用データを用いて、第1のデータ生成モデルを規定するパラメータ群を更新する更新処理を実行する。データ生成モデル学習部103は、学習が収束するまで、あるいは、規定回数に達するまで、当該更新処理を繰り返す。これにより、第1のデータ生成モデルが学習される。
【0081】
(ステップS104a)
ステップS104aにおいて、送信部110は、学習後の第1のデータ生成モデルに関する第3の生成モデル情報を、サーバ30aに送信する。
【0082】
(ステップS301a)
ステップS301aにおいて、サーバ30aの生成モデル情報取得部301は、第3の生成モデル情報を、第1の情報処理装置10aから受信することにより取得する。また、生成モデル情報取得部301は、第4の生成モデル情報を、第2のデータ生成モデルを逐次的に学習させる他の情報処理装置から受信することにより取得する。他の情報処理装置は、第1の情報処理装置10a及びサーバ30aとは異なる装置である。
【0083】
(ステップS302a)
ステップS302aにおいて、生成モデル情報更新部302は、第3の生成モデル情報、及び第4の生成モデル情報を参照して、更新後の生成モデル情報を生成する。一例として、生成モデル情報更新部302は、第3の生成モデル情報と第4の生成モデル情報との加重平均をとることによって得られる情報を、更新後の生成モデル情報に含めてもよい。
【0084】
(ステップS303a)
ステップS303aにおいて、送信部310は、更新後の生成モデル情報を、第1の情報処理装置10aに送信する。当ステップで送信した「更新後の生成モデル情報」は、次回(n+1回目)の情報処理方法S1aにおけるステップS102aにおいて、「第1の生成モデル情報」として第1の情報処理装置10aによって受信される。
【0085】
<本例示的実施形態の効果>
以上のように、本例示的実施形態に係る情報処理システム1aにおいては、
第1の情報処理装置10aが、
・第1のデータ生成モデルの学習用データ(生成モデル学習用データ)を取得し、
・サーバ30aから受信する更新後の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を、第1のデータ生成モデルに関する第1の生成モデル情報として取得し、
・取得した第1の生成モデル情報を参照して規定される第1のデータ生成モデルを、学習用データ(生成モデル学習用データ)を用いて学習させ、
・学習後の第1のデータ生成モデルに関する第3の生成モデル情報をサーバ30aに送信する、
という構成が採用されている。
【0086】
また、サーバ30aが、
・第3の生成モデル情報、及び学習後の第2のデータ生成モデルに関する第4の生成モデル情報を取得し、
・第3の生成モデル情報と第4の生成モデル情報とを参照して、更新後の生成モデル情報を生成し、
・更新後の生成モデル情報を、第1の情報処理装置10aに送信する、
という構成が採用されている。
【0087】
上記の構成によれば、第1の情報処理装置10aは、サーバ30aから受信する更新後の生成モデル情報を参照して規定される第1のデータ生成モデルを、学習の対象として取得することができる。その結果、第1の情報処理装置10aは、第2の生成モデルを生成した他の情報処理装置によって用いられた他の生成モデル学習用データを直接的に取得することなく、当該他の生成モデル学習用データを間接的に用いて、より多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。換言すると、第1の情報処理装置10aは、自装置で取得した生成モデル学習用データと、他の情報処理装置が取得した生成モデル学習用データとの双方を直接的に用いて学習した場合と同様に多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。また、一例として、このような第1のデータ生成モデルにより生成したデータを推論モデルの学習に用いる場合には、推論モデル学習用データの多様性を増すことができ、より高精度で多様なデータに対応できる推論モデルを得ることができる。
【0088】
〔例示的実施形態5〕
本発明の第5の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~4にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
【0089】
<情報処理システムの構成>
本例示的実施形態に係る情報処理システム1bの構成について、図9を参照して説明する。図9は、情報処理システム1bの構成を示すブロック図である。情報処理システム1bは、推論モデル学習用のデータ群における不均衡を解消し、解消したデータ群を用いて推論モデルを学習させるシステムである。情報処理システム1bは、不均衡を解消するために、当該データ群に追加するデータを生成するデータ生成モデルを、連合学習により生成する。
【0090】
図9に示すように、情報処理システム1bは、第1の情報処理装置10b-1、第2の情報処理装置10b-2、及びサーバ30bを含む。第1の情報処理装置10b-1と、第2の情報処理装置10b-2と、サーバ30bとは、ネットワークNを介して接続される。
【0091】
(推論モデル)
本例示的実施形態では、推論モデルは、データのラベル種を推論するモデルである。推論モデルは、データが入力されると、複数のラベル種のうち何れかを示す情報を出力する。第1の情報処理装置10b-1は、当該装置が取得した学習用データを用いて、第1の推論モデルを学習させる。第2の情報処理装置10b-2は、当該装置が取得した学習用データを用いて、第2の推論モデルを学習させる。第1の推論モデル及び第2の推論モデルは互いに異なる。なお、第1の推論モデル、及び第2の推論モデルがそれぞれ出力するデータが示し得る複数のラベル種の構成は、必ずしも同一でなくてよい。例えば、第1の推論モデルが、ラベルL1、L3、L4、…、Lnの何れかを示すデータを出力し、第2の推論モデルが、ラベルL2、L3、L4、…、Lnの何れかを示すデータを出力してもよい。以降、第1の推論モデル、及び第2の推論モデルを特に区別して説明する必要がない場合には、単に「推論モデル」と記載する。
【0092】
(学習用データ、不均衡データ群)
学習用データは、推論モデルの学習に用いるために取得されるデータ片であり、データ群に含まれる複数のデータ片の何れかである。当該データ群に含まれる各データ片は、複数のラベル種の何れかでラベル付けされており、あるラベル種が付されたデータ片の割合が所定の割合以下である。以降、このようなデータ群を「不均衡データ群」とも記載し、「あるラベル種」を「少数ラベル種」とも記載する。
【0093】
換言すると、不均衡データ群は、複数のラベル種の何れかがそれぞれに付された複数の学習用データ(データ片)を含み、複数のラベル種のうち少なくとも1つが少数ラベル種の条件を満たす。例えば、少数ラベル種の条件とは、上述したように、当該ラベル種が付されたデータ片の割合が所定の割合以下であることであってもよいし、当該ラベル種が付されたデータ片の数が、他のラベル種の数より少ないことであってもよい。ただし、少数ラベル種の条件は、上述したものに限られない。
【0094】
第1の情報処理装置10b-1が取得する第1の不均衡データ群と、第2の情報処理装置10b-2が用いる第2の不均衡データ群は、少なくとも一部が互いに異なる。ここで、第1の不均衡データ群における少数ラベル種と、第2の不均衡データ群における少数ラベル種とは同一であってもよいし、同一でなくてもよい。なお、第1の不均衡データ群、及び第2の不均衡データ群を特に区別して説明する必要が無い場合には、引き続き、単に「不均衡データ群」とも記載する。
【0095】
第1の不均衡データ群、及び第2の不均衡データ群における少数ラベル種が同一でない場合の具体例について説明する。このような不均衡データ群に含まれるデータ片の具体例として、製品画像が挙げられる。この場合、第1の不均衡データ群、及び第2の不均衡データ群は、それぞれ異なる生産工場で得られた製品画像のセットである。各製品画像には、「正常品」、「不良品パターンA」、及び「不良品パターンB」の何れかのラベルが付される。第1の不均衡データ群では、「不良品パターンA」のラベルが付された製品画像の割合が所定の割合以下である。または、「不良品パターンA」のラベルが付された製品画像の数が、「正常品」のラベルが付された製品画像の数より少なく、かつ、「不良品パターンB」のラベルが付された製品画像の数より少ない。この場合、第1の不均衡データ群における少数ラベル種は「不良品パターンA」である。一方、第2の不均衡データ群では、「不良品パターンB」のラベルが付された製品画像の割合が所定の割合以下である。または、「不良品パターンB」のラベルが付された製品画像の数が、「正常品」のラベルが付された製品画像の数より少なく、かつ、「不良品パターンA」のラベルが付された製品画像の数より少ない。この場合、第2の不均衡データ群における少数ラベル種は「不良品パターンB」である。
【0096】
また、第1の不均衡データ群、及び第2の不均衡データ群における少数ラベル種が同一である場合の具体例について説明する。このような不均衡データ群に含まれるデータ片の具体例として、金融システム又は通信システムにおける通信データ片が挙げられる。この場合、第1の不均衡データ群、及び第2の不均衡データ群は、それぞれ異なるシステムで得られた通信データ片のセットである。各通信データ片に「正常」又は「異常」のラベルが付され、「異常」が少数ラベル種となる例がある。また、他のデータ片の具体例として、医療用画像である例が挙げられる。この場合、第1の不均衡データ群、及び第2の不均衡データ群は、それぞれ異なる医療機関で得られた医療用画像のセットである。各医療用画像には、「病変無し」又は「病変有り」のラベルが付され、「病変有り」が少数ラベル種となる例がある。ただし、データ片、及び少数ラベル種の具体例は、上述したものに限られない。
【0097】
(均衡データ群)
均衡データ群は、複数のラベル種の何れかがそれぞれに付された複数の学習用データ(データ片)を含み、何れのラベル種も少数ラベル種の条件を満たさない。例えば、均衡データ群では、各ラベル種が付された学習用データの割合が処理の割合以上であるか、又は、各ラベル種が付された学習用データの数が等しい。
【0098】
第1の情報処理装置10b-1が生成する第1の均衡データ群と、第2の情報処理装置10b-2が生成する第2の均衡データ群は、少なくとも一部が互いに異なる。ただし、第1の均衡データ群、及び第2の均衡データ群を特に区別して説明する必要が無い場合には、引き続き、単に「均衡データ群」とも記載する。
【0099】
(データ生成モデル)
データ生成モデルは、推論モデル学習用データとして用いるためのデータを生成する。なお、第1の情報処理装置10b-1は第1のデータ生成モデルを生成し、第2の情報処理装置10b-2は第2のデータ生成モデルを生成するが、これらを特に区別して説明する必要がない場合には、引き続き、単に「データ生成モデル」とも記載する。データ生成モデルは、少なくとも少数ラベル種の教師データとなり得る学習用データを生成するよう学習される。
【0100】
(生成モデル学習用データ)
生成モデル学習用データは、データ生成モデルを学習させるためのデータである。不均衡データ群の一部または全部が、生成モデル学習用データとして用いられる。
【0101】
(推論モデル学習用データ)
推論モデル学習用データは、推論モデルを学習させるためのデータである。本例示的実施形態では、不均衡データ群における不均衡が解消された均衡データ群が、推論モデル学習用データとして用いられる。
【0102】
(第1の情報処理装置の構成)
第1の情報処理装置10b-1は、制御部150-1と、通信部160-1とを含む。制御部150-1は、学習用データ取得部101-1と、生成モデル情報取得部102-1と、データ生成モデル学習部103-1と、シードデータ取得部201-1と、データ生成部202-1と、推論モデル学習部203-1と、推論部204-1と、通信部160-1とを含む。
【0103】
(学習用データ取得部)
学習用データ取得部101-1は、第1の不均衡データ群を取得する。第1の不均衡データ群の詳細については上述した通りである。
【0104】
(生成モデル情報取得部)
生成モデル情報取得部102-1は、例示的実施形態1における生成モデル情報取得部102と同様に構成される。
【0105】
(データ生成モデル学習部)
データ生成モデル学習部103-1は、第1のデータ生成モデルを、第1の不均衡データ群の少なくとも一部を用いて学習させる。例えば、データ生成モデル学習部103-1は、第1のデータ生成モデルを含むオートエンコーダ、及び、第1のデータ生成モデルを含む敵対的生成ネットワークの少なくとも何れかを学習させてもよい。第1のデータ生成モデルの詳細については後述する。
【0106】
(シードデータ取得部)
シードデータ取得部201-1は、第1のデータ生成モデルに入力するためのシードデータを取得する。例えば、シードデータ取得部201-1は、シードデータを生成することにより取得してもよいし、当該装置に含まれる他の機能ブロック(図示せず)又は他の装置(図示せず)によって生成されたシードデータを取得してもよい。
【0107】
(データ生成部)
データ生成部202-1は、シードデータを用いてデータを生成する。具体的には、データ生成部202-1は、シードデータを第1のデータ生成モデルに入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。例えば、データ生成部202-1は、シードデータと、少数ラベル種を特定する条件とを第1のデータ生成モデルに入力することにより、少数ラベル種の教師データとなり得る学習用データを生成してもよい。また、データ生成部202-1は、生成した学習用データを第1の不均衡データ群に追加して、第1の均衡データ群を生成する。
【0108】
(推論モデル学習部)
推論モデル学習部203-1は、データ生成部202-1が生成したデータを参照して第1の推論モデルを学習させる。具体的には、推論モデル学習部203-1は、第1の均衡データ群を、推論モデル学習用データとして用いる。
【0109】
(推論部)
推論部204-1は、推論部204-1が生成した推論モデルを用いて推論を行う。
【0110】
(通信部)
通信部160-1は、データ生成モデル学習部103-1によって学習された後の第1のデータ生成モデルに関する第3の生成モデル情報を、サーバ30bに送信する。
【0111】
(第2の情報処理装置の構成)
第2の情報処理装置10b-2は、制御部150-2と、通信部160-2とを含む。制御部150-2は、学習用データ取得部101-2と、生成モデル情報取得部102-2と、データ生成モデル学習部103-2と、シードデータ取得部201-2と、データ生成部202-2と、推論モデル学習部203-2と、推論部204-2とを含む。
【0112】
第2の情報処理装置10b-2の構成の詳細については、第1の情報処理装置10b-1の構成の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
【0113】
(サーバの構成)
サーバ30bは、制御部350と、通信部360とを含む。制御部350は、生成モデル情報取得部301と、生成モデル情報更新部302と、通信部360とを含む。
【0114】
(生成モデル情報取得部)
生成モデル情報取得部301は、例示的実施形態4における生成モデル情報取得部301と同様に構成される。
【0115】
(生成モデル情報更新部)
生成モデル情報更新部302は、例示的実施形態4における生成モデル情報更新部302と同様に構成される。詳細には、本例示的実施形態では、生成モデル情報更新部302は、第3の生成モデル情報と第4の生成モデル情報との平均を取ることによって、更新後の生成モデル情報を生成する。
【0116】
(通信部)
通信部360は、更新後の生成モデル情報を、第1の情報処理装置10b-1、及び第2の情報処理装置10b-2に配信する。
【0117】
<データ生成モデルを生成する情報処理方法の流れ>
以上のように構成された情報処理システム1bが実行する情報処理方法S1bについて、図10を参照して説明する。図10は、情報処理方法S1bの流れを説明するフロー図である。情報処理システム1bは、情報処理方法S1bを逐次的に実行することにより、データ生成モデルを生成する。なお、図10において、末尾に(n)を含む参照符号は、n回目に実行する情報処理方法S1bの各ステップを示し、末尾に(n+1)を含む参照符号は、n+1回目に実行する情報処理方法S1bの各ステップを示している。
【0118】
(ステップS101-1)
n回目のステップS101-1において、第1の情報処理装置10b-1の学習用データ取得部101-1は、第1の不均衡データ群を取得する。
【0119】
(ステップS360)
n回目のステップS360において、サーバ30bの通信部360は、生成モデル情報を、第1の情報処理装置10b-1、及び第2の情報処理装置10b-2に配信する。n=1である場合、配信する生成モデル情報として、事前に定められた情報が適用される。n≧2である場合、配信する生成モデル情報として、n-1回目のステップS302で更新された「更新後の生成モデル情報」が適用される。ステップS302については後述する。
【0120】
(ステップS102-1)
n回目のステップS102-1において、第1の情報処理装置10b-1の生成モデル情報取得部102-1は、サーバ30bから配信された生成モデル情報を、第1の生成モデル情報として取得する。
【0121】
(ステップS103-1)
n回目のステップS103-1において、第1の情報処理装置10b-1のデータ生成モデル学習部103-1は、生成モデル情報取得部102-1が取得した第1の生成モデル情報を参照して規定される第1のデータ生成モデルを学習させる。学習には、第1の不均衡データ群に含まれる一部または全部の学習用データが教師データとして用いられる。具体的には、データ生成モデル学習部103-1は、第1の不均衡データ群に含まれる学習用データを用いて、第1のデータ生成モデルが少なくとも少数ラベル種の教師データとなり得る学習用データを出力するようパラメータ群を更新する更新処理を、学習が収束するまで、又は、規定回数に達するまで繰り返す。
【0122】
(ステップS160-1)
n回目のステップS160-1において、第1の情報処理装置10b-1の通信部160-1は、学習後の第1のデータ生成モデルに関する第3の生成モデル情報を、サーバ30bに送信する。
【0123】
(ステップS101-2~S160-2)
第2の情報処理装置10b-2は、n回目のステップS101-2、S102-2、S103-2、S160-2を実行する。これらのステップの詳細については、第1の情報処理装置10b-1が実行するステップS101-1、S102-1、S103-1、S160-1の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
【0124】
(ステップS301)
n+1回目のステップS301において、サーバ30bの生成モデル情報取得部301は、第3の生成モデル情報を、第1の情報処理装置10b-1から受信することにより取得する。また、生成モデル情報取得部301は、第4の生成モデル情報を、第2の情報処理装置10b-2から受信することにより取得する。
【0125】
(ステップS302)
n+1回目のステップS302において、生成モデル情報更新部302は、第3の生成モデル情報、及び第4の生成モデル情報を参照して、更新後の生成モデル情報を生成する。具体的には、生成モデル情報更新部302は、第3の生成モデル情報と第4の生成モデル情報との加重平均をとることによって得られる情報を、更新後の生成モデル情報に含める。
【0126】
(ステップS360)
n+1回目のステップS360において、通信部360は、更新後の生成モデル情報を、第1の情報処理装置10b-1、及び第2の情報処理装置10b-2に配信する。
【0127】
また、第1の情報処理装置10b-1は、n+1回目のステップS101-1、S102-1、S103-1、S160-1を実行する。第2の情報処理装置10b-2は、n+1回目のステップS101-2、S102-2、S103-2、S160-2を実行する。その詳細については、n回目の各ステップにおいて説明した通りである。
【0128】
このようにして、情報処理方法S1bを逐次的に実行することにより、第1の情報処理装置10b-1は、第2の情報処理装置10b-2が取得した学習用データを直接的に取得することなく間接的に用いることができる。その結果、第1の情報処理装置10b-1は、より多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。また第2の情報処理装置10b-2は、第1の情報処理装置10b-1が取得した学習用データを直接的に取得することなく間接的に用いることができる。その結果、第2の情報処理装置10b-2は、より多様性のあるデータを生成可能な第2のデータ生成モデルを生成することができる。
【0129】
<推論モデルを生成する情報処理方法の流れ>
第1の情報処理装置10b-1、及び第2の情報処理装置10b-2が実行する情報処理方法S20bについて、図11を参照して説明する。図11は、情報処理方法S20bの流れを説明するフロー図である。第1の情報処理装置10b-1は、情報処理方法S20bを実行することにより、第1の推論モデルを生成する。第2の情報処理装置10b-2は、情報処理方法S20bを実行することにより、第2の推論モデルを生成する。以下では、第1の情報処理装置10b-1が情報処理方法S20bを実行する例について説明する。第2の情報処理装置10b-2が情報処理方法S20bを実行する例については、以下の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替えることにより、同様に説明される。図11に示すように、情報処理方法S20bは、ステップS201~S203を含む。
【0130】
(ステップS201)
ステップS201において、シードデータ取得部201-1は、シードデータを取得する。具体的には、シードデータ取得部201-1は、少なくとも、第1の不均衡データ群における不均衡を解消可能な数だけ、シードデータを取得する。複数のシードデータを取得する場合、これらのシードデータは、互いに異なることが望ましい。不均衡を解消可能な数とは、例えば、第1の不均衡データ群において少数ラベル種が付された学習用データの数と、不均衡を解消後の第1の均衡データ群において所定の割合となる数との差である。例えば、第1の不均衡データ群において少数ラベル種が付された学習用データの数が20であり、第1の不均衡データ群に含まれる学習用データの数が100であり、所定の割合が0.3であるとする。この場合、不均衡を解消可能な数は、15である。また、不均衡を解消可能な数とは、例えば、第1の不均衡データ群において、少数ラベル種が付された学習用データの数と、他のラベル種が付された学習用データの数との差である。例えば、ラベル種が2種類であり、少数ラベル種が付された学習用データの数が20であり、他のラベル種が付された学習用データの数が40であるとする。この場合、不均衡を解消可能な数は、20である。なお、不均衡を解消可能な数は、上述した例に限定されない。
【0131】
(ステップS202)
ステップS202において、データ生成部202-1は、ステップS201で生成した各シードデータを第1のデータ生成モデルに入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。また、データ生成部202-1は、生成した学習用データを、第1の不均衡データ群に追加する。これにより、第1の不均衡データ群における不均衡が解消された第1の均衡データ群が生成される。
【0132】
(ステップS203)
ステップS203において、推論モデル学習部203-1は、第1の推論モデルを学習させる。学習には、第1の均衡データ群に含まれる各学習用データが、推論モデル学習用データとして用いられる。
【0133】
<データ生成モデルの具体例>
ここでは、第1のデータ生成モデル、第2のデータ生成モデルの具体例について説明する。以下では、第1のデータ生成モデル、及び第2のデータ生成モデルを特に区別して説明する必要がない場合、単に「データ生成モデル」と記載する。また、第1の情報処理装置10b-1、及び第2の情報処理装置10b-2に含まれる各機能ブロックを、何れの情報処理装置に含まれるかを特に区別して説明する必要がない場合、参照符号の末尾の「-1」又は「-2」を省略して記載する。
【0134】
(具体例1)
データ生成モデルを、変分オートエンコーダに含まれるデコーダとして実現する具体例1について、図12を参照して説明する。図12は、データ生成モデルの具体例1を説明する模式図である。図12に示すように、データ生成モデル学習部103が学習させる変分オートエンコーダは、エンコーダEN1及びデコーダDE1を含む。エンコーダEN1は、データXが入力されると、潜在変数Zを出力する。デコーダDE1は、潜在変数Zが入力されると、データX’を出力する。データ生成モデル学習部103は、学習用データ取得部101が取得した学習用データXのうち少数ラベル種が付されたデータXをエンコーダEN1に入力し、デコーダDE1が出力するデータX’とデータXとの差異がより小さくなるように学習を行う。詳細には、データ生成モデル学習部103は、少数ラベル種が付された学習用データXを用いて、XとX’との差異がより小さくなるようエンコーダEN1及びデコーダDE1を規定するパラメータ群を更新する更新処理を実行する。また、データ生成モデル学習部103は、当該更新処理を、学習が収束するまで、あるいは、規定回数に達するまで繰り返す。学習後のデコーダDE1は、少数ラベル種の教師データとなり得る学習用データを生成するデータ生成モデルとなる。
【0135】
シードデータ取得部201は、学習後のデコーダDE1に入力するシードデータSを生成する。具体的には、シードデータ取得部201は、少数ラベル種が付された学習用データXをエンコーダENに入力して出力された潜在変数Zが示す範囲のデータを、シードデータSとして生成する。例えば、シードデータ取得部201は、潜在変数Zが示す範囲においてランダムにサンプリングしたデータをシードデータSとして生成してもよい。
【0136】
データ生成部202は、シードデータSをデコーダDE2に入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。
【0137】
(具体例2)
データ生成モデルを、条件付き変分オートエンコーダに含まれるデコーダとして実現する具体例2について、図13を参照して説明する。図13は、データ生成モデルの具体例2を説明する模式図である。図13に示すように、データ生成モデル学習部103が学習させる条件付き変分オートエンコーダは、エンコーダEN2及びデコーダDE2を含む。エンコーダEN2は、データX及び条件Yが入力されると、潜在変数Zを出力する。デコーダDE1は、潜在変数Z及び条件Yが入力されると、データX’を出力する。ここでは、条件Yとして、ラベル種を特定する情報が用いられる。
【0138】
データ生成モデル学習部103は、学習用データ取得部101が取得した学習用データXをエンコーダEN2に入力し、当該学習用データに付されたラベル種を特定する条件YをエンコーダEN2及びデコーダDE2に入力する。また、データ生成モデル学習部103は、デコーダDE2が出力するデータX’とデータXとの差異がより小さくなるように学習を行う。詳細には、データ生成モデル学習部103は、学習用データ取得部101が取得した学習用データXを用いて、XとX’との差異がより小さくなるようエンコーダEN2及びデコーダDE2を規定するパラメータ群を更新する更新処理を実行する。また、データ生成モデル学習部103は、当該更新処理を、学習が収束するまで、あるいは、規定回数に達するまで繰り返す。学習後のデコーダDE2は、条件Yにより特定されたラベル種の教師データとなり得る学習用データを生成するデータ生成モデルとなる。
【0139】
シードデータ取得部201は、学習後のデコーダDE2に入力するシードデータSを生成する。具体的には、シードデータ取得部201は、学習用データ、及び少数ラベル種を特定する条件YをエンコーダENに入力して出力された潜在変数Zを参照し、当該潜在変数Zが示す範囲のデータをシードデータSとして生成する。例えば、シードデータ取得部201は、潜在変数Zが示す範囲においてランダムにサンプリングしたデータをシードデータSとして生成してもよい。
【0140】
データ生成部202は、シードデータS及び、少数ラベル種を特定する条件YをデコーダDE2に入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。
【0141】
(具体例3)
データ生成モデルを、敵対的生成ネットワークに含まれるジェネレータとして実現する具体例3について、図14を参照して説明する。図14は、データ生成モデルの具体例3を説明する模式図である。図14に示すように、データ生成モデル学習部103が学習させる敵対的生成ネットワークは、生成器GEN及び識別器DISを含む。生成器GENは、ノイズNDが入力されるとデータGDを出力する。識別器DISは、データGD及び真のデータXが入力されると、データGDが真のデータXであるか否かを判定する。
【0142】
データ生成モデル学習部103は、ノイズNDを生成器GENに入力し、学習用データ取得部101が取得した学習用データXのうち、少数ラベル種が付されたデータXを識別器DISに入力する。また、データ生成モデル学習部103は、生成器GENが生成したデータGDが真であると判定されるように学習を行う。詳細には、データ生成モデル学習部103は、少数ラベル種が付された学習用データXを用いて、データGDが真であると判定されるよう生成器GEN及び識別器DISを規定するパラメータ群を更新する更新処理を実行する。また、データ生成モデル学習部103は、当該更新処理を、学習が収束するまで、あるいは、規定回数に達するまで繰り返す。学習後の生成器GENは、少数ラベル種の教師データとなり得る学習用データを生成するデータ生成モデルとなる。
【0143】
シードデータ取得部201は、学習後の生成器GENに入力するシードデータSを生成する。具体的には、シードデータ取得部201は、ランダムに生成したノイズをシードデータSとして生成してもよい。
【0144】
データ生成部202は、シードデータSを学習後の生成器GENに入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。
【0145】
(その他の具体例)
その他の具体例として、データ生成モデルを、条件付き敵対的生成ネットワークに含まれるジェネレータとして実現する例がある。このような具体例では、図14に示す生成器GEN及び識別器DISには、それぞれさらに条件Yが入力される。生成器GENは、条件Y、及びノイズNDが入力されるとデータGDを出力する。識別器DISは、条件Y、データGD及び真のデータXが入力されると、データGDが真のデータXであるか否かを判定する。
【0146】
この場合、データ生成モデル学習部103は、学習用データ取得部101が取得した学習用データXの何れかと、当該データXに付されたラベル種を特定する条件Yとを識別器DISに入力する。また、データ生成モデル学習部103は、当該ラベル種を特定する条件Yと、ノイズNDとを生成器GENに入力する。また、データ生成モデル学習部103は、生成器GENが生成したデータGDが真であると判定されるように学習を行う。詳細には、データ生成モデル学習部103は、学習用データ取得部101が取得した学習用データXを用いて、データGDが真であると判定されるよう生成器GEN及び識別器DISを規定するパラメータ群を更新する更新処理を実行する。また、データ生成モデル学習部103は、当該更新処理を、学習が収束するまで、あるいは、規定回数に達するまで繰り返す。学習後の生成器GENは、条件Yにより特定されたラベル種の教師データとなり得る学習用データを生成するデータ生成モデルとなる。
【0147】
シードデータ取得部201は、学習後の生成器GENに入力するシードデータSを生成する。データ生成部202は、シードデータS及び、少数ラベル種を特定する条件YをデコーダDE2に入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。
【0148】
<本例示的実施形態の効果>
以上のように、本例示的実施形態においては、
第1の情報処理装置10b-1、及び第2の情報処理装置10b-2の各々が、不均衡データ群を取得し、取得した不均衡データ群を用いた連合学習により、少数ラベル種の教師データとなり得る学習用データを生成するためのデータ生成モデルを生成する、
という構成が採用されている。
【0149】
上記の構成によれば、少数ラベル種が付された学習用データの数が充分でない場合でも、他の情報処理装置が取得した少数ラベル種の学習用データを間接的に用いることができる。その結果、少数ラベル種の教師データとなり得る学習用データとしてより多様性のあるデータを生成可能なデータ生成モデルを生成することができる。
【0150】
また、上記の構成によれば、データ生成モデルを用いて生成した少数ラベル種の教師データとなり得る学習用データを追加することで、不均衡データ群における不均衡を解消した均衡データ群を生成することができる。その結果、そのような均衡データ群を推論モデル学習用データとして用いることにより、より精度よく推論モデルを学習させることができる。
【0151】
〔例示的実施形態6〕
本発明の第6の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~5にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
【0152】
<情報処理システムの構成>
本例示的実施形態に係る情報処理システム1cの構成について、図15を参照して説明する。図15は、情報処理システム1cの構成を示すブロック図である。情報処理システム1cは、例示的実施形態5に係る情報処理システム1cを、推論モデルを連合学習により生成するよう変形した態様である。すなわち、情報処理システム1cは、推論モデルの学習に用いる不均衡データ群における不均衡を解消するためのデータ生成モデルを連合学習により生成することに加えて、推論モデル自体も連合学習により生成する。
【0153】
図15に示すように、情報処理システム1cは、第1の情報処理装置10c-1、第2の情報処理装置10c-2、及びサーバ30cを含む。第1の情報処理装置10c-1と、第2の情報処理装置10c-2と、サーバ30cとは、ネットワークNを介して接続される。
【0154】
(第1の情報処理装置の構成)
第1の情報処理装置10c-1は、例示的実施形態5に係る第1の情報処理装置10b-1と同様の構成に加えて、推論モデル情報取得部205-1を含む。また、本例示的実施形態では、推論モデル学習部203-1、及び通信部160-1の構成が、例示的実施形態5と若干異なる。その他の各機能ブロックについては、例示的実施形態5と同様であるため、詳細な説明を繰り返さない。
【0155】
(推論モデル情報取得部)
推論モデル情報取得部205-1は、第1の推論モデルに関する第1の推論モデル情報を取得する。
【0156】
(第1の推論モデル情報)
第1の推論モデル情報は、一例として、第1の推論モデルを規定する各種のパラメータを含んでいる。本例示的実施形態では、第1の推論モデル情報には、第1の推論モデルとは異なる第2の推論モデルに関する第2の推論モデル情報が反映されている。
【0157】
(推論モデル学習部)
推論モデル学習部203-1は、第1の推論モデル情報を参照して規定される第1の推論モデルを、データ生成部202-1が生成したデータを用いて学習させる。具体的には、推論モデル学習部203-1は、データ生成部202-1が生成したデータが追加されることにより第1の不均衡データ群における不均衡が解消された第1の均衡データ群を、第1の推論モデルの学習に用いる。
【0158】
(通信部)
通信部160-1は、例示的実施形態5と同様に構成されることに加えて、第3の推論モデル情報をサーバ30cに送信する。
【0159】
(第3の推論モデル情報)
第3の推論モデル情報は、学習後の第1の推論モデルに関する情報であり、例えば、学習後の第1の推論モデルを規定するパラメータを含む。
【0160】
(第4の推論モデル情報)
第4の推論モデル情報は、学習後の第2の推論モデルに関する情報であり、例えば、学習後の第2の推論モデルを規定するパラメータを含む。
【0161】
(第2の情報処理装置の構成)
第2の情報処理装置10c-2は、例示的実施形態5に係る第2の情報処理装置10b-2と同様の構成に加えて、推論モデル情報取得部205-2を含む。第2の情報処理装置10c-2の構成の詳細については、第1の情報処理装置10c-1の構成の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
【0162】
(サーバの構成)
サーバ30cは、例示的実施形態5に係るサーバ30bと同様の構成に加えて、推論モデル情報取得部303と、推論モデル情報更新部304とを含む。また、通信部360の構成が、例示的実施形態5と若干異なる。その他の各機能ブロックについては、例示的実施形態5と同様であるため、詳細な説明を繰り返さない。
【0163】
(推論モデル情報取得部)
推論モデル情報取得部303は、第1の推論モデルに関する第3の推論モデル情報、及び、第2の推論モデルに関する第4の推論モデル情報を取得する。
【0164】
(推論モデル情報更新部)
推論モデル情報更新部304は、第3の推論モデル情報、及び第4の推論モデル情報を参照して、更新後の推論モデル情報を生成する。
【0165】
(更新後の推論モデル情報)
更新後の推論モデル情報には、第3の生成モデル情報及び第4の生成モデル情報が反映されている。
【0166】
(通信部)
通信部360は、例示的実施形態5と同様に構成されることに加えて、更新後の推論モデル情報を、第1の情報処理装置10c-1、及び第2の情報処理装置10c-2に配信する。
【0167】
<データ生成モデルを生成する情報処理方法の流れ>
以上のように構成された情報処理システム1cは、図10に示した情報処理方法S1bを、例示的実施形態5と同様に逐次的に実行することにより、第1のデータ生成モデル、及び第2のデータ生成モデルを生成する。
【0168】
<推論モデルを生成する情報処理方法の流れ>
情報処理システム1cが実行する情報処理方法S1cについて、図16を参照して説明する。図16は、情報処理方法S1cの流れを説明するフロー図である。情報処理システム1cは、情報処理方法S1cを逐次的に実行することにより、推論モデルを生成する。なお、図16において、末尾に(n)を含む参照符号は、n回目に実行する情報処理方法S1cの各ステップを示し、末尾に(n+1)を含む参照符号は、n+1回目に実行する情報処理方法S1cの各ステップを示している。
【0169】
(ステップS201-1)
n回目のステップS201-1において、第1の情報処理装置10c-1のシードデータ取得部201-1は、第1の不均衡データ群における不均衡を解消可能な数だけ、シードデータを取得する。
【0170】
(ステップS202-1)
n回目のステップS202-1において、第1の情報処理装置10c-1のデータ生成部202-1は、各シードデータを第1のデータ生成モデルに入力することにより、少数ラベル種の教師データとなり得る学習用データを生成する。これにより、不均衡を解消可能な数だけ学習用データが生成される。また、データ生成部202-1は、生成した学習用データを、第1の不均衡データ群に追加する。これにより、第1の均衡データ群が生成される。
【0171】
(ステップS370)
n回目のステップS370において、サーバ30cの通信部360は、更新後の推論モデル情報を、第1の情報処理装置10c-1、及び第2の情報処理装置10c-2に配信する。n=1である場合、配信する推論モデル情報として、事前に定められた情報が適用される。n≧2である場合、配信する推論モデル情報として、n-1回目のステップS304で更新された「更新後の推論モデル情報」が適用される。ステップS304については後述する。
【0172】
(ステップS205-1)
n回目のステップS205-1において、第1の情報処理装置10c-1の推論モデル情報取得部205-1は、サーバ30cから配信された推論モデル情報を、第1の推論モデル情報として取得する。
【0173】
(ステップS203-1)
n回目のステップS203-1において、第1の情報処理装置10c-1の推論モデル学習部203-1は、推論モデル情報取得部205-1が取得した第1の推論モデル情報を参照して規定される第1の推論モデルを学習させる。学習には、ステップS202-1で生成した第1の均衡データ群が用いられる。具体的には、データ生成モデル学習部103-1は、第1の均衡データ群に含まれる学習用データを用いて第1の推論モデルのパラメータ群を更新する更新処理を、学習が収束するまで、又は、規定回数に達するまで繰り返す。
【0174】
(ステップS170-1)
n回目のステップS170-1において、第1の情報処理装置10c-1の通信部160-1は、学習後の第1の推論モデルに関する第3の推論モデル情報を、サーバ30cに送信する。
【0175】
(ステップS201-2、S202-2、S205-2、S203-2、S170-2)
第2の情報処理装置10c-2は、n回目のステップS201-2、S202-2、S205-2、S203-2、S170-2を実行する。これらのステップの詳細については、第1の情報処理装置10c-1が実行するステップS201-1、S202-1、S205-1、S203-1、S170-1の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
【0176】
(ステップS303)
n+1回目のステップS303において、サーバ30cの推論モデル情報取得部303は、第3の推論モデル情報を、第1の情報処理装置10c-1から受信することにより取得する。また、推論モデル情報取得部303は、第4の推論モデル情報を、第2の情報処理装置10c-2から受信することにより取得する。
【0177】
(ステップS304)
n+1回目のステップS304において、推論モデル情報更新部304は、第3の推論モデル情報、及び第4の推論モデル情報を参照して、更新後の推論モデル情報を生成する。具体的には、推論モデル情報更新部304は、第3の推論モデル情報と第4の推論モデル情報との加重平均をとることによって得られる情報を、更新後の推論モデル情報に含める。
【0178】
(ステップS370)
n+1回目のステップS370において、通信部360は、更新後の推論モデル情報を、第1の情報処理装置10c-1、及び第2の情報処理装置10c-2に配信する。
【0179】
また、第1の情報処理装置10c-1は、n+1回目のステップS201-1、S202-1、S205-1、S203-1、S170-1を実行する。第2の情報処理装置10c-2は、n+1回目のステップS201-2、S202-2、S205-2、S203-2、S170-2を実行する。その詳細については、n回目の各ステップにおいて説明した通りである。
【0180】
このようにして、情報処理方法S1cを逐次的に実行することにより、第1の情報処理装置10c-1は、第2の情報処理装置10c-2が取得又は生成した学習用データを直接的に取得することなく間接的に用いることができ、第1の推論モデルを精度よく効率的に生成することができる。また第2の情報処理装置10c-2は、第1の情報処理装置10c-1が取得又は生成した学習用データを直接的に取得することなく間接的に用いることができ、第2の推論モデルをより精度よく効率的に生成することができる。
【0181】
<本例示的実施形態の効果>
以上のように、本例示的実施形態においては、
第1の情報処理装置10c-1、及び第2の情報処理装置10c-2の各々が、連合学習により生成したデータ生成モデルを用いて不均衡を解消した均衡データ群を用いて、推論モデルを連合学習させる。
【0182】
上記の構成によれば、データ生成モデルを用いて不均衡を解消した均衡データ群に含まれる学習用データの数が充分でない場合であっても、他の情報処理装置が生成した均衡データ群に含まれる学習用データを間接的に用いることができる。その結果、他の情報処理装置が生成した均衡データ群を直接的に取得することを避けるべき状況であっても、間接的に参照できる学習データが増加したことで、推論モデルを効率よく生成することができる。
【0183】
〔例示的実施形態7〕
本発明の第7の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~6にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
【0184】
<情報処理システムの構成>
本例示的実施形態に係る情報処理システム1dの構成について、図17を参照して説明する。図17は、情報処理システム1dの構成を示すブロック図である。情報処理システム1dは、例示的実施形態6に係る情報処理システム1cを、サーバ30cを含まないよう変形した態様である。すなわち、情報処理システム1dは、データ生成モデル、及び推論モデルの連合学習を、サーバを介さずに行う。
【0185】
図17に示すように、情報処理システム1dは、第1の情報処理装置10d-1、及び第2の情報処理装置10d-2を含む。第1の情報処理装置10d-1と、第2の情報処理装置10d-2とは、ネットワークNを介して接続される。
【0186】
(第1の情報処理装置の構成)
第1の情報処理装置10d-1は、例示的実施形態6に係る第1の情報処理装置10c-1と同様の構成に加えて、モデル情報更新部260-1を含む。また、本例示的実施形態では、生成モデル情報取得部102-1、データ生成モデル学習部103-1、推論モデル情報取得部205-1、及び推論モデル学習部203-1の構成が、例示的実施形態6と若干異なる。その他の各機能ブロックについては、例示的実施形態6と同様であるため、詳細な説明を繰り返さない。
【0187】
(生成モデル情報取得部)
生成モデル情報取得部102-1は、第2の情報処理装置10d-2から、第4の生成モデル情報を取得する。第4の生成モデル情報は、第2の情報処理装置10d-2が学習させた学習後の第2のデータ生成モデルに関する情報である。
【0188】
(推論モデル情報取得部)
推論モデル情報取得部205-1は、第2の情報処理装置10d-2から、第4の推論モデル情報を取得する。第4の推論モデル情報は、第2の情報処理装置10d-2が学習させた学習後の第2の推論モデルに関する情報である。
【0189】
(モデル情報更新部)
モデル情報更新部206-1は、第3の生成モデル情報と、第4の生成モデル情報とを参照して、更新後の生成モデル情報を生成する。ここで、第3の生成モデル情報は、データ生成モデル学習部103-1が学習させた学習後の第1のデータ生成モデルに関する情報である。
【0190】
また、モデル情報更新部206は、第3の推論モデル情報と、第4の推論モデル情報とを参照して、更新後の推論モデル情報を生成する。ここで、第3の推論モデル情報は、推論モデル学習部203-1が学習させた学習後の第1の推論モデルに関する情報である。
【0191】
(データ生成モデル学習部)
データ生成モデル学習部103-1は、モデル情報更新部206-1が生成した更新後の生成モデル情報によって規定される第1のデータ生成モデルを、第1の不均衡データ群を用いて学習させる。
【0192】
(推論モデル学習部)
推論モデル学習部203-1は、モデル情報更新部206-1が生成した更新後の推論モデル情報によって規定される第1の推論モデルを、第1の均衡データ群を用いて学習させる。
【0193】
(通信部)
通信部160-1は、第2の情報処理装置10d-2に対して、第3の生成モデル情報、及び第3の推論モデル情報を送信する。
【0194】
(第2の情報処理装置の構成)
第2の情報処理装置10d-2は、例示的実施形態6に係る第2の情報処理装置10c-2と同様の構成に加えて、モデル情報更新部260-2を含む。第2の情報処理装置10d-2の構成の詳細については、第1の情報処理装置10d-1の構成の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
【0195】
<データ生成モデルを生成する情報処理方法の流れ>
以上のように構成された情報処理システム1dは、図10に示した情報処理方法S1bを変形して逐次的に実行することにより、第1のデータ生成モデル、及び第2のデータ生成モデルを生成する。具体的には、情報処理方法S1bは、サーバ30bが実行していたステップS302を、第1の情報処理装置10d-1、及び第2の情報処理装置10d-2が代わりに実行するよう変形される。一例として、第1の情報処理装置10d-1は、ステップS102-1、及びS103-1の間に、ステップS302-1を実行する。変形された情報処理方法S1bについて、以下に説明する。
【0196】
(ステップS101-1)
n回目のステップS101-1は、例示的実施形態5と同様である。
【0197】
(ステップS102-1)
n回目のステップS102-1は、n≧2の場合に実行される。n回目のステップS102-1において、第1の情報処理装置10d-1の生成モデル情報取得部102-1は、第2の情報処理装置10d-2から、第4の生成モデル情報を取得する。第4の生成モデル情報は、前回(n-1回目)のステップS160-2において第2の情報処理装置10d-2から送信される。n=1の場合、ステップS102-1の実行は省略される。
【0198】
(ステップS302-1)
n回目のステップS302-1において、第1の情報処理装置10d-1のモデル情報更新部206-1は、第3の生成モデル情報と、第4の生成モデル情報とを参照して、更新後の生成モデル情報を生成する。なお、n≧2の場合、第3の生成モデル情報は、前回(n-1回目)のステップS103-1において学習後の第1のデータ生成モデルに関する情報である。n=1の場合、モデル情報更新部206-1は、更新後の生成モデル情報として、事前に定められた情報を生成する。
【0199】
(ステップS103-1)
n回目のステップS103-1において、第1の情報処理装置10d-1のデータ生成モデル学習部103-1は、更新後の生成モデル情報によって規定される第1のデータ生成モデルを、第1の不均衡データ群を用いて学習させる。
【0200】
(ステップS160-1)
n回目のステップS160-1において、第1の情報処理装置10d-1の通信部160-1は、学習後の第1のデータ生成モデルに関する新たな第3の生成モデル情報を、第2の情報処理装置10d-2に送信する。
【0201】
(ステップS101-2、S102-2、S302-2、S103-2、S160-2)
第2の情報処理装置10d-2は、n回目のステップS101-2、S102-2、S103-2、S160-2を実行する。これらのステップの詳細については、第1の情報処理装置10d-1が実行するステップS101-1、S102-1、S302-1、S103-1、S160-1の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
【0202】
<推論モデルを生成する情報処理方法の流れ>
情報処理システム1dは、図16に示した情報処理方法S1cを変形して逐次的に実行することにより、第1の推論モデル、及び第2の推論モデルを生成する。情報処理方法S1cは、サーバ30cが実行していたステップS304を、第1の情報処理装置10d-1、及び第2の情報処理装置10d-2が代わりに実行するよう変形される。一例として、第1の情報処理装置10d-1は、ステップS205-1、及びS203-1の間に、ステップS304-1を実行する。変形された情報処理方法S1cについて、以下に説明する。
【0203】
(ステップS201-1~S202-1)
n回目のステップS201-1~S202-1は、例示的実施形態6と同様である。
【0204】
(ステップS205-1)
n回目のステップS205-1は、n≧2の場合に実行される。n回目のステップS205-1において、第1の情報処理装置10d-1の推論モデル情報取得部205-1は、第2の情報処理装置10d-2から、第4の推論モデル情報を取得する。第4の推論モデル情報は、前回(n-1回目)のステップS170-2において第2の情報処理装置10d-2から送信される。n=1の場合、ステップS205-1の実行は省略される。
【0205】
(ステップS304-1)
n回目のステップS304-1において、第1の情報処理装置10d-1のモデル情報更新部206-1は、第3の推論モデル情報と、第4の推論モデル情報とを参照して、更新後の推論モデル情報を生成する。なお、n≧2の場合、第3の推論モデル情報は、前回(n-1回目)のステップS203-1において学習後の第1の推論モデルに関する情報である。n=1の場合、モデル情報更新部206-1は、更新後の推論モデル情報として、事前に定められた情報を生成する。
【0206】
(ステップS203-1)
n回目のステップS203-1において、第1の情報処理装置10d-1の推論モデル学習部203-1は、更新後の推論モデル情報によって規定される第1の推論モデルを、第1の均衡データ群を用いて学習させる。
【0207】
(ステップS170-1)
n回目のステップS170-1において、第1の情報処理装置10d-1の通信部160-1は、学習後の第1の推論モデルに関する新たな第3の推論モデル情報を、第2の情報処理装置10d-2に送信する。
【0208】
(ステップS201-2、S202-2、S205-2、S304-2、S203-2、S170-2)
第2の情報処理装置10d-2は、n回目のステップS201-2、S202-2、S205-2、S304-2、S203-2、S170-2を実行する。これらのステップの詳細については、第1の情報処理装置10d-1が実行するステップS201-1、S202-1、S205-1、S304-1、S203-1、S170-1の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。
【0209】
<本例示的実施形態の効果>
以上のように、本例示的実施形態の第1の情報処理装置10d-1においては、
学習後の第2のデータ生成モデルに関する第4の生成モデル情報を他の情報処理装置から受信し、
自装置において学習後の第1のデータ生成モデルに関する第3の生成モデル情報と、第4の生成モデル情報とを参照して更新後の生成モデル情報を生成し、
当該第3の生成モデル情報を、他の情報処理装置に送信する、
という構成が採用されている。
【0210】
上記構成によれば、サーバを必要とせずに、例示的実施形態5、及び例示的実施形態6と同様の効果を奏する。なお、本例示的実施形態は、他の情報処理装置から第4の生成モデル情報、及び第4の推論モデル情報を取得する。このため、本例示的実施形態は、複数の情報処理装置間で互いが有する情報を共有することの問題が少ない状況において好適である。
【0211】
〔例示的実施形態8〕
本発明の第8の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~7にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
【0212】
<情報処理システムの構成>
本例示的実施形態に係る情報処理システム1eの構成について、図18を参照して説明する。図18は、情報処理システム1eの構成を示すブロック図である。情報処理システム1eは、例示的実施形態6におけるサーバ30cの機能を分散して実現した態様である。
【0213】
図18に示すように、情報処理システム1eは、第1の情報処理装置10e-1、第2の情報処理装置10e-2、第1のサーバ30e、及び第2のサーバ40eを含む。第1の情報処理装置10e-1と、第2の情報処理装置10e-2と、第1のサーバ30eと、第2のサーバ40eとは、ネットワークNを介して接続される。
【0214】
(第1の情報処理装置の構成)
第1の情報処理装置10e-1は、例示的実施形態6に係る第1の情報処理装置10c-1とほぼ同様に構成される。ただし、本例示的実施形態では、生成モデル情報取得部102-1、推論モデル情報取得部205-1、及び通信部160-1の構成が、例示的実施形態6と若干異なる。その他の各機能ブロックについては、例示的実施形態6と同様であるため、詳細な説明を繰り返さない。
【0215】
(生成モデル情報取得部)
生成モデル情報取得部102-1は、例示的実施形態6とほぼ同様に構成されるが、取得する第1の生成モデル情報の配信元が、第1のサーバ30eである点が異なる。
【0216】
(推論モデル情報取得部)
推論モデル情報取得部205-1は、例示的実施形態6とほぼ同様に構成されるが、取得する第1の推論モデル情報の配信元が、第2のサーバ40eである点が異なる。
【0217】
(通信部)
通信部160-1は、例示的実施形態6とほぼ同様に構成されるが、第3の生成モデル情報の送信先が、第1のサーバ30eである点が異なる。また、第3の推論モデル情報の送信先が、第2のサーバ40eである点が異なる。
【0218】
(第2の情報処理装置の構成)
第2の情報処理装置10e-2は、例示的実施形態6に係る第2の情報処理装置10c-2とほぼ同様に構成される。第2の情報処理装置10e-2の構成の詳細については、第1の情報処理装置10e-1の構成の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。ただし、「第1のサーバ」及び「第2のサーバ」は互いに読み替えない。
【0219】
(第1のサーバの構成)
第1のサーバ30eは、データ生成モデルの連合学習におけるサーバとして機能する。第1のサーバ30eは、例示的実施形態6に係るサーバ30cに含まれる機能ブロックのうち、生成モデル情報取得部301と、生成モデル情報更新部302と、通信部360とを有する。これらの各機能ブロックの詳細は、例示的実施形態6と同様である。
【0220】
(第2のサーバの構成)
第2のサーバ40eは、推論モデルの連合学習におけるサーバとして機能する。第2のサーバ40eは、第1のサーバ30eとは異なる装置である。第2のサーバ40eは、例示的実施形態6に係るサーバ30cに含まれる機能ブロックのうち、推論モデル情報取得部303と、推論モデル情報更新部304と、通信部460とを有する。これらの各機能ブロックの詳細は、例示的実施形態6と同様である。
【0221】
<データ生成モデルを生成する情報処理方法の流れ>
以上のように構成された情報処理システム1eは、例示的実施形態5と同様に、図10に示した情報処理方法S1bを逐次的に実行することにより、第1のデータ生成モデル、及び第2のデータ生成モデルを生成する。ただし、本例示的実施形態では、情報処理方法S1bにおいてサーバ30bが実行する各ステップを、第1のサーバ30eが実行する。
【0222】
<推論モデルを生成する情報処理方法の流れ>
以上のように構成された情報処理システム1eは、例示的実施形態6と同様に、図16に示した情報処理方法S1cを逐次的に実行することにより、第1の推論モデル、及び第2の推論モデルを生成する。ただし、本例示的実施形態では、情報処理方法S1cにおいてサーバ30cが実行する各ステップを、第2のサーバ40eが実行する。
【0223】
<本例示的実施形態の効果>
以上のように、本例示的実施形態においては、
データ生成モデルの連合学習を行うサーバと、不均衡を解消した均衡データ群を用いて推論モデルの連合学習を行うサーバとを、互いに異なる装置により実現する、
という構成が採用されている。
【0224】
上記の構成によれば、例示的実施形態6と同様の効果を奏するために必要なサーバの負荷を分散することができる。また、各サーバとして、それぞれの負荷に適した装置を適用することができる。例えば、第1の情報処理装置10e-1、及び第2の情報処理装置10e-2を含む複数の情報処理装置が、データ生成モデルの連合学習、及び推論モデルの連合学習に参加するケースが考えられる。このようなケースでは、データ生成モデルの連合学習に参加する情報処理装置の数と、推論モデルの連合学習に参加する情報処理装置の数とが大きく異なる可能性がある。この場合、第1のサーバ30eと第2のサーバ40eとの負荷が大きく異なることが想定される。このような場合、第1のサーバ30eと第2のサーバ40eとして、それぞれの負荷に適した装置を適用することができる。
【0225】
〔例示的実施形態9〕
本発明の第9の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1~8にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
【0226】
<情報処理システムの構成>
本例示的実施形態に係る情報処理システム1fの構成について、図19を参照して説明する。図19は、情報処理システム1fの構成を示すブロック図である。情報処理システム1fは、例示的実施形態5に係る情報処理システム1bにおけるサーバ30bの機能を、分散して実現した態様である。ここで、例示的実施形態5は、連合学習のクライアント(第1の情報処理装置10b-1、及び第2の情報処理装置10b-2)間で、互いに他の情報処理装置が取得・生成した情報を直接的に参照することを避けるべき状況に考慮した形態の一例であった。本例示的実施形態は、これを変形することにより、連合学習において各クライアントが取得・生成した情報をサーバが直接的に参照することを避けるべき状況をさらに考慮した形態の一例を実現する。
【0227】
図19に示すように、情報処理システム1fは、第1の情報処理装置10f-1、第2の情報処理装置10f-2、第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3を含む。第1の情報処理装置10f-1と、第2の情報処理装置10f-2と、第1のサーバ30f-1と、第2のサーバ30f-2と、第3のサーバ30f-3とは、ネットワークNを介して接続される。
【0228】
(生成モデル情報のデータ片)
本例示的実施形態では、連合学習のクライアント(第1の情報処理装置10f-1、及び第2の情報処理装置10f-2)と、サーバ(第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3)との間で、生成モデル情報から生成されたデータ片を送受信する。
【0229】
ここでは、生成モデル情報から3つのデータ片Aと、データ片Bと、データ片Cとが生成されるものとして説明するが、データ片の個数は、これに限定されない。データ片Aと、データ片Bと、データ片Cとは、互いに異なる情報であり、生成モデル情報を生成するための情報である。データ片A、データ片B、及びデータ片Cは、それぞれ単体もしくは2つを参照しても生成モデル情報を復元できるものではないが、全てを参照することにより生成モデル情報を生成可能な情報である。例えば、データ片A~Cは、生成モデル情報が、その総和が変わらないようにランダムに3つに分割されたデータ片であってもよい。
【0230】
(データ片を用いた連合学習の概要)
各クライアントは、自装置で学習させた生成モデルに関する生成モデル情報からデータ片A~Cを生成し、各サーバに分散して送信する。各サーバは、1つのクライアントからデータ片A、データ片B、及びデータ片Cの全てを受信することはないため、元の生成モデル情報を直接的に参照することはできない。各サーバは、各クライアントから受信したデータ片A(又は、データ片B、データ片C)を統合して統合後のデータ片A(又は、データ片B、データ片C)を生成する。各クライアントは、統合後のデータ片A、統合後のデータ片B、及び統合後のデータ片Cの全てを、2以上のサーバから取得することが可能である。各クライアントは、統合後のデータ片A、統合後のデータ片B、及び統合後のデータ片Cを参照して、更新後の生成モデル情報を復元することができる。
【0231】
(第1の情報処理装置の構成)
第1の情報処理装置10f-1は、例示的実施形態5に係る第1の情報処理装置10b-1とほぼ同様に構成される。ただし、本例示的実施形態では、生成モデル情報取得部102-1、及び通信部160-1の構成が、例示的実施形態5と若干異なる。その他の各機能ブロックについては、例示的実施形態5と同様であるため、詳細な説明を繰り返さない。
【0232】
(通信部)
通信部160-1は、更新後の第1のデータ生成モデルに関する第3の生成モデル情報から、第3のデータ片A~Cを生成する。また、通信部160-1は、第3のデータ片A、Bを、第1のサーバ30f-1に送信する。また、通信部160-1は、第3のデータ片B、Cを第2のサーバ30f-2に送信する。また、通信部160-1は、第3のデータ片C、Aを第3のサーバ30f-3に送信する。第3のデータ片A~Cは、各サーバにおいて「第1のデータ片A~C」として適用される。
【0233】
(生成モデル情報取得部)
生成モデル情報取得部102-1は、統合後のデータ片A、統合後のデータ片B、及び統合後のデータ片Cを、第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3のうち少なくとも2つから受信することにより取得する。また、生成モデル情報取得部102-1は、これらの統合後のデータ片A、統合後のデータ片B、及び、統合後のデータ片Cを参照して、更新後の第1の生成モデル情報を生成する。ここでは、統合後のデータ片Aとは、第1のデータ片A、及び第2のデータ片Aの和である。また、統合後のデータ片Bとは、第1のデータ片B、及び第2のデータ片Bの和である。また、統合後のデータ片Cとは、第1のデータ片C、及び第2のデータ片Cの和である。生成モデル情報取得部102-1は、統合後のデータ片A、統合後のデータ片B、及び統合後のデータ片Cの総和を情報処理装置10の総数(ここでは、2)で除することにより、第1のデータ片A~Cの総和(すなわち、第1の生成モデル情報)と、第2のデータ片A~Cの総和(すなわち、第2の生成モデル情報)との平均を得る。また、生成モデル情報取得部102-1は、これらの平均を、更新後の第1の生成モデル情報とする。更新後の第1の生成モデル情報には、第2のデータ片A~C(すなわち、第2の生成モデル情報)が反映されている。
【0234】
(第2の情報処理装置の構成)
第2の情報処理装置10f-2は、例示的実施形態5に係る第2の情報処理装置10b-2とほぼ同様に構成される。例示的実施形態5と異なる点の詳細については、第1の情報処理装置10f-1の構成の説明において、各参照符号の末尾の「1」及び「2」を互いに読み替え、「第1」及び「第2」を互いに読み替え、「第3」及び「第4」を互いに読み替えることにより、同様に説明される。ただし、「第1のサーバ」、「第2のサーバ」及び「第3のサーバ」は互いに読み替えない。
【0235】
(第1のサーバの構成)
第1のサーバ30f-1は、データ生成モデルの連合学習における複数の分散サーバの1つとして機能する。第1のサーバ30f-1は、制御部350-1と、通信部360-1とを含む。制御部350-1は、生成モデル情報取得部301-1と、生成モデル情報更新部302-1とを含む。
【0236】
(生成モデル情報習得部)
生成モデル情報取得部301-1は、第1の情報処理装置10f-1から、第1のデータ片A、Bを受信する。また、生成モデル情報取得部301-1は、第2の情報処理装置10f-2から、第2のデータ片A、Bを受信する。
【0237】
(生成モデル情報更新部)
生成モデル情報更新部302-1は、第1のデータ片Aと、第2のデータ片Aとを統合して、統合後のデータ片Aを生成する。また、生成モデル情報更新部302-1は、第1のデータ片Bと、第2のデータ片Bとを統合して、統合後のデータ片Bを生成する。前述したように、ここでは、統合後のデータ片A(又は、データ片B)として、第1のデータ片A(又は、データ片B)と、第2のデータ片A(又は、データ片B)との和を適用する。
【0238】
(通信部)
通信部360-1は、統合後のデータ片A、及び統合後のデータ片Bを、第1の情報処理装置10f-1、及び第2の情報処理装置10f-2の一方または両方からの要求に応じて配信する。
【0239】
(第2のサーバの構成)
第2のサーバ30f-2は、データ生成モデルの連合学習における複数の分散サーバの1つとして機能する。第2のサーバ30f-2は、制御部350-2と、通信部360-2とを含む。制御部350-2は、生成モデル情報取得部301-2と、生成モデル情報更新部302-2とを含む。
【0240】
(生成モデル情報習得部)
生成モデル情報取得部301-2は、第1の情報処理装置10f-1から、第1のデータ片B、Cを受信する。また、生成モデル情報取得部301-2は、第2の情報処理装置10f-2から、第2のデータ片B、Cを受信する。
【0241】
(生成モデル情報更新部)
生成モデル情報更新部302-2は、第1のデータ片Bと、第2のデータ片Bとを統合して、統合後のデータ片Bを生成する。また、生成モデル情報更新部302-2は、第1のデータ片Cと、第2のデータ片Cとを統合して、統合後のデータ片Cを生成する。前述したように、ここでは、統合後のデータ片B(又は、データ片C)として、第1のデータ片B(又は、データ片C)と、第2のデータ片B(又は、データ片C)との和を適用する。
【0242】
(通信部)
通信部360-2は、統合後のデータ片B、及び統合後のデータ片Cを、第1の情報処理装置10f-1、及び第2の情報処理装置10f-2の一方または両方からの要求に応じて配信する。
【0243】
(第3のサーバの構成)
第3のサーバ30f-3は、データ生成モデルの連合学習における複数の分散サーバの1つとして機能する。第3のサーバ30f-3は、制御部350-3と、通信部360-3とを含む。制御部350-3は、生成モデル情報取得部301-3と、生成モデル情報更新部302-3とを含む。
【0244】
(生成モデル情報習得部)
生成モデル情報取得部301-3は、第1の情報処理装置10f-1から、第1のデータ片C、Aを受信する。また、生成モデル情報取得部301-3は、第2の情報処理装置10f-2から、第2のデータ片C、Aを受信する。
【0245】
(生成モデル情報更新部)
生成モデル情報更新部302-3は、第1のデータ片Cと、第2のデータ片Cとを参照して、統合後のデータ片Cを生成する。また、生成モデル情報更新部302-3は、第1のデータ片Aと、第2のデータ片Aとを統合して、統合後のデータ片Aを生成する。前述したように、ここでは、統合後のデータ片C(又は、データ片A)として、第1のデータ片C(又は、データ片A)と、第2のデータ片C(又は、データ片A)との和を適用する。
【0246】
(通信部)
通信部360-3は、統合後のデータ片C、及び統合後のデータ片Aを、第1の情報処理装置10f-1、及び第2の情報処理装置10f-2の一方または両方からの要求に応じて配信する。
【0247】
<データ生成モデルを生成する情報処理方法の流れ>
以上のように構成された情報処理システム1fは、図10に示した情報処理方法S1bを変形し、逐次的に実行することにより、第1のデータ生成モデル、及び第2のデータ生成モデルを生成する。
【0248】
具体的には、情報処理方法S1bは、第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3が、それぞれ、ステップS301、S302、S360を実行するように変形される。また、第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3のこれらの各ステップにおける動作は、図10のステップS301、S302、S360の説明において、「第3の生成モデル情報」を「第1のデータ片」と読み替え、「第4の生成モデル情報」を「第2のデータ片」と読み替え、「更新後の生成モデル情報」を「統合後のデータ片」と読み替えることにより同様に説明される。また、情報処理方法S1bにおいて、ステップS102-1の動作は、統合後のデータ片A~Cを参照して第1の生成モデル情報を生成するよう変形される。また、ステップS160-1の動作は、第3の生成モデル情報から生成した第3のデータ片A~Cのうち2つずつを、異なるサーバ(第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3)に送信するよう変形される。また、ステップS160-2の動作は、第4の生成モデル情報から生成した第4のデータ片A~Cのうち2つずつを、異なるサーバ(第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3)に送信するよう変形される。
【0249】
<本例示的実施形態の効果>
以上のように、本例示的実施形態においては、
データ生成モデルの連合学習を行うサーバを、複数の互いに異なる装置に分散して実現する、
という構成が採用されている。
【0250】
ここで、例えばプライバシーへの配慮等のために、連合学習におけるサーバ自体も各情報処理装置が有する情報を取得することが難しいケースがある。この場合、第3の生成モデル情報、及び第4の生成モデル情報をサーバが直接的に取得することは好ましくない可能性がある。上記の構成によれば、第1のサーバ30f-1、第2のサーバ30f-2、及び第3のサーバ30f-3は、学習後の第1の生成モデルに関する情報、及び学習後の第2の生成モデルに関する情報を直接的に取得することがない。一方で、第1の情報処理装置10f-1、及び第2の情報処理装置10f-2は、学習後の第1の生成モデルに関する情報、及び学習後の第2の生成モデルに関する情報が反映された更新後の生成モデル情報を、各サーバから受信した情報を参照して生成することができる。したがって、例示的実施形態5と同様の効果を奏することができる。
【0251】
なお、本例示的実施形態では、例示的実施形態5におけるサーバ30bの機能を、3つのサーバに分散して実現する例について説明した。これに限らず、サーバ30bの機能を、4つ以上のサーバに分散して実現してもよい。その場合、第1の情報処理装置10f-1、第2の情報処理装置10f-2は、それぞれ、学習後のデータ生成モデルに関する生成モデル情報を参照して、4以上のデータ片A、B、C、…を生成し、そのうち一部分ずつを各サーバに分散して送信すればよい。
【0252】
なお、本例示的実施形態に係る情報処理システム1fが行う生成モデル情報の分割及び復元手法は、一例として、マルチパーティ計算とも呼称されるものであるが、当該文言によって本例示的実施形態が限定されるものではない。
【0253】
〔例示的実施形態10〕
本発明の第10の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、例示的実施形態5~9の何れかに係る第1の情報処理装置(10b-1、10c-1、10d-1、10e-1、10f-1)、及び第2の情報処理装置(10b-2、10c-2、10d-2、10e-2、10f-2)において、学習用データ取得部101-1、101-2を変形した態様である。なお、以下では、第1の情報処理装置、及び第2の情報処理装置を特に区別して説明する必要がない場合には、参照符号末尾の「-1」、「-2」を適宜省略して記載する。本例示的実施形態における学習用データ取得部101について、図20を参照して説明する。図20は、学習用データ取得部101の構成を示す図である。なお、その他の構成、及び情報処理方法の流れについては、各例示的実施形態で説明した通りであるため、詳細な説明を省略する。
【0254】
(学習用データ選択部)
図20に示すように、学習用データ取得部101は、学習用データ選択部111を含む。学習用データ選択部111は、本例示的実施形態に係る選択手段の一例である。学習用データ選択部111は、複数のデータ群候補から、不均衡データ群を選択する。
【0255】
例えば、学習用データ選択部111は、記憶部SRに記憶されたデータセットA、データセットB、データセットC、…のうち、不均衡データ群であるとの条件を満たすものを選択してもよい。例えば、そのような条件とは、上述した少数ラベル種の条件であってもよい。なお、記憶部SRは、情報処理装置10b、10c、10d、10e、10fに含まれていてもよいし、外部の装置に含まれていてもよい。
【0256】
<本例示的実施形態の効果>
以上のように、本例示的実施形態においては、
データ生成モデルの学習に用いる不均衡データ群を、複数のデータ群候補から選択する、
という構成が採用されている。
【0257】
上記構成によれば、各情報処理装置が全体として不均衡が解消されるように各自のデータセットを選択することで、より安定してデータ生成モデルを学習させることができる。
【0258】
〔変形例〕
上述した各例示的実施形態は、1または2の情報処理装置を含むものとして説明した。これに限らず、各例示的実施形態は、3つ以上の情報処理装置を含むよう変形できる。これにより、各情報処理装置は、より多くの他の情報処理装置において用いられた学習用データを直接的に取得することなく間接的に用いて、データ生成モデルを生成することができる。
【0259】
また、上述した例示的実施形態6~9において、2つの情報処理装置(第1の情報処理装置、第2の情報処理装置)にそれぞれ含まれる機能ブロックは、複数の装置に分散して含まれていてもよい。例えば、第1の情報処理装置(又は第2の情報処理装置)に含まれる機能ブロックは、(i)データ生成モデルの学習に係る機能ブロック(学習用データ取得部、生成モデル情報取得部、及びデータ生成モデル学習部)を含む装置と、(ii)データの生成に係る機能ブロック(シードデータ取得部、及びデータ生成部)を含む装置と、(iii)推論モデルの学習に係る機能ブロック(推論モデル情報取得部、及び推論モデル学習部)を含む装置と、(iv)推論に係る機能ブロック(推論部)を含む装置とに分散して含まれていてもよい。
【0260】
〔ソフトウェアによる実現例〕
情報処理装置10、10a、10b-1、10b-2、10c-1、10c-2、10d-1、10d-2、10e-1、10e-2、10f-1、10f-2、20、サーバ30、30a、30b、30c、30d、30e、30f、40e、50f(以下、各情報処理装置10~20、及び各サーバ30~50と記載)の一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
【0261】
後者の場合、上述した、各情報処理装置10~20、及び各サーバ30~50は、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現される。このようなコンピュータの一例(以下、コンピュータCと記載する)を図21に示す。コンピュータCは、少なくとも1つのプロセッサC1と、少なくとも1つのメモリC2と、を備えている。メモリC2には、コンピュータCを各情報処理装置10~20、及び各サーバ30~50として動作させるためのプログラムPが記録されている。コンピュータCにおいて、プロセッサC1は、プログラムPをメモリC2から読み取って実行することにより、各情報処理装置10~20、及び各サーバ30~50の各機能が実現される。
【0262】
プロセッサC1としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、又は、これらの組み合わせなどを用いることができる。メモリC2としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせなどを用いることができる。
【0263】
なお、コンピュータCは、プログラムPを実行時に展開したり、各種データを一時的に記憶したりするためのRAM(Random Access Memory)を更に備えていてもよい。また、コンピュータCは、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータCは、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。
【0264】
また、プログラムPは、コンピュータCが読み取り可能な、一時的でない有形の記録媒体Mに記録することができる。このような記録媒体Mとしては、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いることができる。コンピュータCは、このような記録媒体Mを介してプログラムPを取得することができる。また、プログラムPは、伝送媒体を介して伝送することができる。このような伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いることができる。コンピュータCは、このような伝送媒体を介してプログラムPを取得することもできる。
【0265】
〔付記事項1〕
本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した実施形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
【0266】
〔付記事項2〕
上述した実施形態の一部又は全部は、以下のようにも記載され得る。ただし、本発明は、以下の記載する態様に限定されるものではない。
【0267】
(付記1)
学習用データを取得する学習用データ取得手段と、
第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、
前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、
を備えている情報処理装置。
【0268】
上記の構成によれば、他の情報処理装置において第2のデータ生成モデルの生成に用いられた他の学習用データを直接的に取得することなく間接的に用いて、第1のデータ生成モデルを学習させる。その結果、他の情報処理装置において用いられた他の学習用データを取得することを避けるべき状況であっても、より多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。
【0269】
(付記2)
前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報を送信する送信手段
を更に備えている付記1に記載の情報処理装置。
【0270】
上記の構成によれば、学習後の第1のデータ生成モデルに関する第3のデータ生成モデル情報を、他の装置に提供することができる。その結果、第1のデータ生成モデルの学習に用いた学習用データを、他の装置が直接的に取得することなく間接的に用いて学習を行うことを可能とする。
【0271】
(付記3)
前記生成モデル情報取得手段は、
学習後の前記第2のデータ生成モデルに関する第4の生成モデル情報を取得し、
当該情報処理装置は、
前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報と、
前記第4の生成モデル情報と
を参照して更新後の生成モデル情報を生成する生成モデル情報更新手段
を更に備えている付記1に記載の情報処理装置。
【0272】
上記の構成によれば、第4の生成モデル情報を参照することにより、他の情報処理装置において第2のデータ生成モデルの生成に用いられた他の学習用データを間接的に用いることができる。その結果、他の情報処理装置において用いられた他の学習用データを取得することを避けるべき状況であっても、より多様性のあるデータを生成可能な第1のデータ生成モデルを生成することができる。
【0273】
(付記4)
前記学習用データ取得手段は、
データ片を複数含むデータ群であって、各データ片が複数のラベル種の何れかでラベル付けされ、あるラベル種が付されたデータ片の割合が所定の割合以下であるデータ群に含まれるデータ片を、前記学習用データとして取得する
ことを特徴とする付記1から3の何れか1つに記載の情報処理装置。
【0274】
上記の構成によれば、ラベル種が付されたデータ片の数が不均衡な不均衡データ群を学習用データとして用いて、第1のデータ生成モデルを学習させる。その結果、第1のデータ生成モデルを用いて、そのようなデータ群における不均衡を解消するためのデータを生成することができる。
【0275】
(付記5)
前記学習用データ取得手段は、
複数のデータ群候補から、前記データ群を選択する選択手段を備えている
ことを特徴とする付記4に記載の情報処理装置。
【0276】
上記の構成によれば、不均衡データ群を選択することで、付記4に記載の効果をより確実に奏することができる。
【0277】
(付記6)
前記データ生成モデル学習手段は、
前記第1のデータ生成モデルを含むオートエンコーダ、及び、
前記第1のデータ生成モデルを含む敵対的生成ネットワーク
の少なくとも何れかを学習させる
ことを特徴とする付記1から5の何れか1つに記載の情報処理装置。
【0278】
上記の構成によれば、上述した効果を奏するための第1のデータ生成モデルを実現することができる。
【0279】
(付記7)
前記オートエンコーダは、
変分オートエンコーダ、及び条件付き変分オートエンコーダ
の少なくとも何れかを含んでいる
ことを特徴とする付記6に記載の情報処理装置。
【0280】
上記の構成によれば、上述した効果を奏するための第1のデータ生成モデルを実現することができる。
【0281】
(付記8)
前記第1のデータ生成モデルを用いてデータを生成するデータ生成手段と、
前記データ生成手段が生成したデータを参照して第1の推論モデルを学習させる推論モデル学習手段と
を更に備えている
ことを特徴とする付記1から7の何れか1つに記載の情報処理装置。
【0282】
上記の構成によれば、上述した効果を奏する第1のデータ生成モデルが生成したデータを参照するので、第1の推論モデルを精度よく学習させることができる。
【0283】
(付記9)
前記第1の推論モデルに関する第1の推論モデル情報であって、当該第1の推論モデルとは異なる第2の推論モデルに関する第2の推論モデル情報が反映された第1の推論モデル情報を取得する推論モデル情報取得手段を更に備え、
前記推論モデル学習手段は、前記第1の推論モデル情報を参照して規定される前記第1の推論モデルを、前記データ生成手段が生成したデータを用いて学習させる
ことを特徴とする付記8に記載の情報処理装置。
【0284】
上記の構成によれば、他の情報処理装置において第2の推論モデルの生成に用いられた他の学習用データを直接的に取得することなく間接的に用いて、第1の推論モデルを学習させる。その結果、他の情報処理装置において用いられた他の学習用データを取得することを避けるべき状況であっても、第1の推論モデルを精度よく学習させることができる。
【0285】
(付記10)
シードデータを取得するシードデータ取得手段と、
前記シードデータを用いてデータを生成するデータ生成手段とを備え、
前記データ生成手段は、
第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行う
ことを特徴とする情報処理装置。
【0286】
上記の構成によれば、第2の生成モデルに関する第2の生成モデル情報を反映して学習された第1のデータ生成モデルを用いることにより、より多様性のあるデータを生成することができる。
【0287】
(付記11)
前記データ生成手段が生成したデータを参照して第1の推論モデルを学習させる推論モデル学習手段を更に備えている
ことを特徴とする付記10に記載の情報処理装置。
【0288】
上記の構成によれば、上述した効果を奏する第1のデータ生成モデルが生成したデータを参照するので、第1の推論モデルを精度よく学習させることができる。
【0289】
(付記12)
前記第1の推論モデルに関する第1の推論モデル情報であって、当該第1の推論モデルとは異なる第2の推論モデルに関する第2の推論モデル情報が反映された第1の推論モデル情報を取得する推論モデル情報取得手段を更に備え、
前記推論モデル学習手段は、前記第1の推論モデル情報を参照して規定される前記第1の推論モデルを、前記データ生成手段が生成したデータを用いて学習させる
ことを特徴とする付記11に記載の情報処理装置。
【0290】
上記の構成によれば、他の情報処理装置において第2の推論モデルの生成に用いられた他の学習用データを直接的に取得することなく間接的に用いて、第1の推論モデルを学習させる。その結果、他の情報処理装置において用いられた他の学習用データを取得することを避けるべき状況であっても、第1の推論モデルを精度よく学習させることができる。
【0291】
(付記13)
第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する生成モデル情報取得手段と、
前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する生成モデル情報更新手段と、
を備えていることを特徴とする情報処理装置。
【0292】
上記の構成によれば、(i)第1のデータ生成モデルの学習に用いられた学習用データと、(ii)第2のデータ生成モデルの学習に用いられた学習用データとを、間接的に用いて学習されたデータ生成モデルを生成することができる。その結果、(i)、(ii)の学習用データとの少なくとも一方を取得することを避けるべき状況であっても、データ生成モデルを、より多様なデータを生成できるように学習させることができる。
【0293】
(付記14)
前記更新後の生成モデル情報を、前記第1のデータ生成モデルを実装した第1の情報処理装置、及び、前記第2のデータ生成モデルを実装した第2の情報処理装置に送信する送信手段を更に備えていることを特徴とする付記13に記載の情報処理装置。
【0294】
上記の構成によれば、第1の情報処理装置、及び第2の情報処理装置の間で、それぞれが用いた学習用データを互いに提供することを避けるべき状況であっても、双方が用いた学習用データを間接的に用いて学習されたデータ生成モデルを、第1の情報処理装置、及び第2の情報処理装置に提供することができる。
【0295】
(付記15)
前記生成モデル情報更新手段は、
前記第1の生成モデル情報と前記第2の生成モデル情報との平均を取ることによって、前記更新後の生成モデル情報を生成する
ことを特徴とする付記13又は14に記載の情報処理装置。
【0296】
上記の構成によれば、第1のデータ生成モデルの学習に用いられた学習用データと、第2のデータ生成モデルの学習に用いられた学習用データとを間接的に用いた学習を実現する。
【0297】
(付記16)
第1の情報処理装置、及びサーバを含む情報処理システムであって、
前記第1の情報処理装置は、
学習用データを取得する学習用データ取得手段と、
第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を、前記サーバから取得する生成モデル情報取得手段と、
前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データ取得手段が取得した学習用データを用いて学習させるデータ生成モデル学習手段と、
前記データ生成モデル学習手段によって学習された後の前記第1のデータ生成モデルに関する第3の生成モデル情報を送信する送信手段と
を備え、
前記サーバは、
前記第3の生成モデル情報、及び、
学習後の前記第2のデータ生成モデルに関する第4の生成モデル情報
を取得する生成モデル情報取得手段と、
前記第3の生成モデル情報と、前記第4の生成モデル情報とを参照して更新後の生成モデル情報を生成する生成モデル情報更新手段と、
前記更新後の生成モデル情報を、前記第1の情報処理装置に送信する送信手段と
を備えていることを特徴とする情報処理システム。
【0298】
上記の構成によれば、情報処理装置及びサーバを用いて、付記1と同様の効果を奏するシステムを実現することができる。
【0299】
(付記17)
学習用データを取得すること、
第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得すること、及び、
前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させること
を含んでいることを特徴とする情報処理装置方法。
【0300】
上記の構成によれば、付記1と同様の効果を奏する。
【0301】
(付記18)
シードデータを取得すること、及び
前記シードデータを用いてデータを生成すること、
を含み、
前記データを生成する工程では、
第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行う
ことを特徴とする情報処理方法。
【0302】
上記の構成によれば、付記10と同様の効果を奏する。
【0303】
(付記19)
第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得すること、及び、
前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成すること、
を含んでいることを特徴とする情報処理方法。
【0304】
上記の構成によれば、付記13と同様の効果を奏する。
【0305】
(付記20)
コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
学習用データを取得する学習用データ取得手段と、
第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得手段と、
前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習手段と、
として機能させるプログラム。
【0306】
上記の構成によれば、付記1と同様の効果を奏する。
【0307】
(付記21)
コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
シードデータを取得するシードデータ取得手段と、
前記シードデータを用いてデータを生成するデータ生成手段であって、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行うデータ生成手段と
として機能させるプログラム。
【0308】
上記の構成によれば、付記10と同様の効果を奏する。
【0309】
(付記22)
コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する生成モデル情報取得手段と、
前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する生成モデル情報更新手段と、
として機能させるプログラム。
【0310】
上記の構成によれば、付記13と同様の効果を奏する。
【0311】
〔付記事項3〕
上述した実施形態の一部又は全部は、更に、以下のように表現することもできる。
【0312】
(付記23)
少なくとも1つのプロセッサを備え、前記プロセッサは、
学習用データを取得する学習用データ取得処理と、
第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を取得する生成モデル情報取得処理と、
前記第1の生成モデル情報を参照して規定される前記第1のデータ生成モデルを、前記学習用データを用いて学習させるデータ生成モデル学習処理と、を実行する情報処理装置。
【0313】
なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記学習用データ取得処理と、前記生成モデル情報取得処理と、前記データ生成モデル学習処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
【0314】
(付記24)
少なくとも1つのプロセッサを備え、前記プロセッサは、
シードデータを取得するシードデータ取得処理と、
前記シードデータを用いてデータを生成するデータ生成処理であって、第1のデータ生成モデルに関する第1の生成モデル情報であって、当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報が反映された第1の生成モデル情報を参照して規定される第1のデータ生成モデルを用いてデータ生成を行うデータ生成処理と、を実行する情報処理装置。
【0315】
なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記シードデータ取得処理と、前記データ生成処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
【0316】
(付記25)
少なくとも1つのプロセッサを備え、前記プロセッサは、
第1のデータ生成モデルに関する第1の生成モデル情報、及び当該第1のデータ生成モデルとは異なる第2のデータ生成モデルに関する第2の生成モデル情報を取得する生成モデル情報取得処理と、
前記第1の生成モデル情報、及び前記第2の生成モデル情報を参照して、更新後の生成モデル情報を生成する生成モデル情報更新処理と、を実行する情報処理装置。
【0317】
なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記生成モデル情報取得処理と、前記生成モデル情報更新処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
【符号の説明】
【0318】
1a~1f 情報処理システム
10、10a~10f、20 情報処理装置
30、30a~30f、40e、50f 情報処理装置(サーバ)
101 学習用データ取得部
102、301、501 生成モデル情報取得部
103、 データ生成モデル学習部
160、360、460、560 通信部
110、310 送信部
111 学習用データ選択部
150、350 制御部
201 シードデータ取得部
202 データ生成部
203 推論モデル学習部
204 推論部
205、303 推論モデル情報取得部
206 モデル情報更新部
302、502 生成モデル情報更新部
304 推論モデル情報更新部
C コンピュータ
C1 プロセッサ
C2 メモリ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21