(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-09-26
(45)【発行日】2024-10-04
(54)【発明の名称】学習データ評価装置、学習データ評価システム、学習データ評価方法及びプログラム
(51)【国際特許分類】
G06N 20/00 20190101AFI20240927BHJP
【FI】
G06N20/00
(21)【出願番号】P 2023534537
(86)(22)【出願日】2021-07-15
(86)【国際出願番号】 JP2021026591
(87)【国際公開番号】W WO2023286234
(87)【国際公開日】2023-01-19
【審査請求日】2023-08-30
(73)【特許権者】
【識別番号】000006013
【氏名又は名称】三菱電機株式会社
(74)【代理人】
【識別番号】100095407
【氏名又は名称】木村 満
(74)【代理人】
【識別番号】100131152
【氏名又は名称】八島 耕司
(74)【代理人】
【識別番号】100147924
【氏名又は名称】美恵 英樹
(74)【代理人】
【識別番号】100148149
【氏名又は名称】渡邉 幸男
(74)【代理人】
【識別番号】100181618
【氏名又は名称】宮脇 良平
(74)【代理人】
【識別番号】100174388
【氏名又は名称】龍竹 史朗
(72)【発明者】
【氏名】瀬光 孝之
【審査官】佐藤 直樹
(56)【参考文献】
【文献】国際公開第2019/187594(WO,A1)
【文献】特開2021-033544(JP,A)
【文献】YOON, Jinsung et al.,DATA VALUATION USING REINFORCEMENT LEARNING,arXiv [online],2019年09月25日,インターネット<URL:https://arxiv.org/pdf/1909.11671.pdf>,[検索日:2021/09/15]
(58)【調査した分野】(Int.Cl.,DB名)
G06N 20/00
(57)【特許請求の範囲】
【請求項1】
複数個の学習データのうちから組み合わせ可能な、学習データの複数通りの組み合わせをそれぞれ用いた機械学習により生成された複数通りの機械学習モデルのそれぞれに対して、機械学習モデルの精度を変換ルールに従って変換精度に変換する変換処理を実行する変換部と、
前記変換部により変換された前記変換精度に基づいて、前記複数個の学習データのうちの評価対象の学習データを評価する学習データ評価部と、を備え、
前記変換ルールは、前記機械学習モデルの精度が高くなるほど前記変換精度の増加率が大きくなる関係に基づいて、前記機械学習モデルの精度を前記変換精度に非線形に変換するルールである、
学習データ評価装置。
【請求項2】
前記学習データ評価部は、前記複数通りの組み合わせのうちの、前記評価対象の学習データを含む組み合わせを用いて生成された機械学習モデルの精度から変換された変換精度と、前記複数通りの組み合わせのうちの、前記評価対象の学習データを含まない組み合わせを用いて生成された機械学習モデルの精度から変換された変換精度と、の差分に基づいて、前記評価対象の学習データを評価する、
請求項1に記載の学習データ評価装置。
【請求項3】
前記複数通りの機械学習モデルの精度と、前記複数通りの機械学習モデルのそれぞれを生成する際に使用された学習データの組み合わせに含まれるデータサンプル数と、の間の関係に基づいて、前記変換ルールを生成する変換ルール生成部、を更に備え、
前記変換部は、前記変換ルール生成部により生成された前記変換ルールに従って、前記変換処理を実行する、
請求項1又は2に記載の学習データ評価装置。
【請求項4】
請求項1から3のいずれか1項に記載の学習データ評価装置と、
前記複数通りの組み合わせをそれぞれ用いて機械学習を実行することにより、前記複数通りの機械学習モデルを生成するモデル生成部と、
前記モデル生成部により生成された前記複数通りの機械学習モデルのそれぞれの精度を算出する精度算出部と、を備える、
学習データ評価システム。
【請求項5】
前記評価対象の学習データを要求端末から受信する学習データ受信部と、
前記学習データ評価部による前記評価対象の学習データの評価結果を示す出力情報を前記要求端末に出力する出力部と、を更に備える、
請求項4に記載の学習データ評価システム。
【請求項6】
コンピュータが実行する学習データ評価方法であって、
複数個の学習データのうちから組み合わせ可能な、学習データの複数通りの組み合わせをそれぞれ用いた機械学習により生成された、複数通りの機械学習モデルのそれぞれに対して、機械学習モデルの精度を変換ルールに従って変換精度に変換する変換処理を実行し、
前記変換精度に基づいて、前記複数個の学習データのうちの評価対象の学習データを評価し、
前記変換ルールは、前記機械学習モデルの精度が高くなるほど前記変換精度の増加率が大きくなる関係に基づいて、前記機械学習モデルの精度を前記変換精度に非線形に変換するルールである、
学習データ評価方法。
【請求項7】
コンピュータを、
複数個の学習データのうちから組み合わせ可能な、学習データの複数通りの組み合わせをそれぞれ用いた機械学習により生成された、複数通りの機械学習モデルのそれぞれに対して、機械学習モデルの精度を変換ルールに従って変換精度に変換する変換処理を実行する変換部、
前記変換部により変換された前記変換精度に基づいて、前記複数個の学習データのうちの評価対象の学習データを評価する学習データ評価部、として機能させ、
前記変換ルールは、前記機械学習モデルの精度が高くなるほど前記変換精度の増加率が大きくなる関係に基づいて、前記機械学習モデルの精度を前記変換精度に非線形に変換するルールである、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、学習データ評価装置、学習データ評価システム、学習データ評価方法及びプログラムに関する。
【背景技術】
【0002】
機械学習技術は、画像処理分野をはじめとして、様々な分野で応用が進んでいる。機械学習技術では、入力と望ましい出力との組み合わせを学習データとして与え、未知のデータを含む入力に対して望ましい出力を推定するモデルを学習する。
【0003】
従来のようにデータに対する数理モデルを立てて理論的に精度向上を目指すアプローチとは異なり、機械学習技術では、適用したいアプリケーションに対して有効な学習データをできるだけ多く集めることが精度向上のために必要となる。そのため、機械学習技術において、学習データの価値が高まっている。
【0004】
例えば、非特許文献1は、価値の高い学習データを売買するデータ市場のビジネスモデルを提案している。ここで、価値の高い学習データとは、それを使って学習することで高精度のモデル学習が可能になる学習データを意味する。非特許文献1において、学習データの価値は、Shapley値によって測られる。
【0005】
Shapley値とは、ゲーム理論ではじめに提案され、複数のプレイヤでクエストに参加した際の報酬を公平に分配するためにプレイヤごとの貢献度を測るために導入された指標である。Shapley値による貢献度は、あるグループに、注目するプレイヤが参加した時と参加しなかった時との貢献度の差である限界貢献度に基づいて測られる。具体的には、Shapley値は、参加プレイヤのすべての組み合わせに対して注目するプレイヤの限界貢献度を計算して平均することで算出することができる。
【0006】
非特許文献1において学習データの評価値をShapley値により算出する場合、報酬として、対象となるタスクにおける機械学習モデルの精度を利用する。つまり、より精度が高いほどより報酬が高いとみなす。
【先行技術文献】
【非特許文献】
【0007】
【文献】Jia, Ruoxi, et al. "Towards efficient data valuation based on the shapley value."The 22nd International Conference on Artificial Intelligence and Statistics. PMLR, 2019.
【発明の概要】
【発明が解決しようとする課題】
【0008】
機械学習技術における一般的な傾向として、データサンプル数が少ない学習データほど、その学習データに新たなデータサンプルを加えた場合に、機械学習モデルの精度は大きく向上する。そのため、データサンプル数が少ない場合における機械学習モデルの精度の向上を過大評価してしまう、という課題がある。しかしながら、機械学習では、むしろデータが出揃って、データサンプル数が多くなっている時にさらに精度を向上することが大切である。そのため、データサンプル数が多い学習データに対して新たに加えられることで精度を向上させることが可能な学習データの価値が高いと言える。このような事情に鑑み、データサンプル数の違いに起因する誤評価を抑制して、学習データを適切に評価することが求められている。
【0009】
本開示は、上述のような課題を解決するためになされたものであり、データサンプル数の違いに起因する誤評価を抑制して、学習データを適切に評価することが可能な学習データ評価装置等を提供することを目的とする。
【課題を解決するための手段】
【0010】
上記目的を達成するため、本開示に係る学習データ評価装置は、
複数個の学習データのうちから組み合わせ可能な、学習データの複数通りの組み合わせをそれぞれ用いた機械学習により生成された複数通りの機械学習モデルのそれぞれに対して、機械学習モデルの精度を変換ルールに従って変換精度に変換する変換処理を実行する変換部と、
前記変換部により変換された前記変換精度に基づいて、前記複数個の学習データのうちの評価対象の学習データを評価する学習データ評価部と、を備え、
前記変換ルールは、前記機械学習モデルの精度が高くなるほど前記変換精度の増加率が大きくなる関係に基づいて、前記機械学習モデルの精度を前記変換精度に非線形に変換するルールである。
【発明の効果】
【0011】
本開示では、複数通りの機械学習モデルのそれぞれの精度を、機械学習モデルの精度が高くなるほど変換精度の増加率が大きくなる非線形な変換ルールに従って変換精度に変換し、変換精度に基づいて評価対象の学習データを評価する。従って、本開示によれば、データサンプル数の違いに起因する誤評価を抑制して、学習データを適切に評価することができる。
【図面の簡単な説明】
【0012】
【
図1】実施の形態1に係る学習データ評価システムの全体構成を示す図
【
図2】実施の形態1に係る学習装置の構成を示すブロック図
【
図3】実施の形態1に係る学習装置における各構成の入出力例を示す図
【
図4】実施の形態1に係る学習データ評価装置の構成を示すブロック図
【
図5】実施の形態1に係る学習データ評価装置における各構成の入出力例を示す図
【
図6】実施の形態1において、データサンプル数と機械学習モデルの精度との関係の例を示す図
【
図7】
図6に示したデータサンプル数と精度との関係を曲線で表した例を示す図
【
図8】
図6に示した精度を、
図7に示した曲線を用いて変換した例を示す図
【
図9】実施の形態1において、精度変換の前後における機械学習モデルの精度の向上幅とデータサンプル数との関係の例を示す図
【
図10】実施の形態1に係る学習データ評価システムにおいて実行される処理の流れを示すシーケンス図
【
図11】実施の形態2に係る学習データ評価システムの全体構成を示す図
【
図12】実施の形態2に係る学習装置の構成を示す図
【
図13】実施の形態2に係る学習データ評価システムにおいて実行される処理の流れを示すシーケンス図
【発明を実施するための形態】
【0013】
以下、実施の形態について、図面を参照しながら詳細に説明する。なお、図中同一又は相当部分には同一符号を付す。
【0014】
(実施の形態1)
図1に、実施の形態1に係る学習データ評価システム1の構成を示す。学習データ評価システム1は、機械学習モデルを生成する際に用いられた学習データを評価する、すなわち学習データの価値を測定するシステムである。ここで、学習データの価値とは、その学習データを含むデータセットを用いて機械学習を実行して生成された機械学習モデルの精度の向上に対して、その学習データがどの程度貢献しているかの尺度を意味する。
【0015】
学習データ評価システム1は、学習装置10と、学習データ評価装置20と、を備える。これら各装置は、有線又は無線による通信回線を介して通信可能に接続されている。
【0016】
学習装置10は、学習データを機械学習により学習し、機械学習モデルを生成する装置である。学習装置10は、パーソナルコンピュータ、サーバ、タブレット等の情報処理装置により実現される。学習装置10は、
図2に示すように、制御部11と、記憶部12と、入出力I/F(インタフェース)13と、を備える。
【0017】
制御部11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)等を備える。制御部11は、学習装置10の制御に係る処理及び演算を実行する中央演算処理部として機能する。制御部11は、ROM(Read Only Memory)に格納されているプログラム及びデータを読み出し、RAM(Random Access Memory)をワークエリアとして用いて、学習装置10を統括制御する。
【0018】
記憶部12は、SRAM(Static RAM)、DRAM(Dynamic RAM)等の主記憶部と、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の補助記憶部と、を備える。記憶部12は、制御部11が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部12は、制御部11が各種処理を行うことにより生成又は取得するデータを記憶する。
【0019】
入出力I/F13は、学習装置10が外部のモジュールとデータを送受信するためのインタフェースを備える。具体例として、入出力I/F13は、LAN(Local Area Network)、USB(Universal Serial Bus)等の通信モジュールと、外部記憶装置の読み取りモジュールと、を備える。
【0020】
制御部11は、機能的に、モデル生成部111と、精度算出部112と、を備える。これらの各機能は、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェア及びファームウェアは、プログラムとして記述され、ROM又は記憶部12に格納される。そして、CPU、GPU、DSP等が、ROM又は記憶部12に記憶されたプログラムを実行することによって、制御部11の各機能を実現する。以下、
図3を参照して、制御部11の各機能について説明する。
【0021】
モデル生成部111は、学習データセット121を用いて機械学習を実行することにより、機械学習モデルを生成する。機械学習モデルは、学習済みモデルとも呼ばれ、入力に対して推論結果を出力する数理的な方法を意味する。機械学習モデルは、学習データセット121に含まれる入力と出力との間の関係を機械学習することにより生成される。
【0022】
学習データセット121は、機械学習用のデータセットである。学習データセット121は、予め用意され、記憶部12に記憶されている。学習データセット121は、複数個の学習データを有する。各学習データは、入力とそれに対応する出力との間の関係を学習するためのデータである。1つの学習データは、少なくとも1つのデータサンプルと、そのデータサンプルに対応する教師ラベルと、を有する。
【0023】
データサンプルは、機械学習モデルに入力される入力データに相当する。一例として、機械学習のタスクが画像認識である場合、1つのデータサンプルは、1つの画像データである。或いは、機械学習のタスクが音声認識である場合、1つのデータサンプルは、1つの音声データである。機械学習のタスクが自然言語処理である場合、1つのデータサンプルは、1つのテキストデータである。
【0024】
教師ラベルは、対応するデータサンプルを機械学習モデルに入力した場合に機械学習モデルから期待される出力の真値を示すデータである。言い換えると、教師ラベルは、入力データに対応する正解の出力データに相当する。具体的に説明すると、機械学習のタスクが画像認識、音声認識又は自然言語処理である場合、教師ラベルは、それぞれ画像データ、音声データ又はテキストデータに含まれる認識対象物の情報を示す。一例として、画像データから果物の種類を認識する場合、教師ラベルは、「リンゴ」、「バナナ」、「メロン」等のような、画像データに描かれている果物の種類の情報を示す。或いは、画像データから動物の種類を認識する場合、教師ラベルは、「犬」、「猫」等のような、画像データに描かれている動物の種類の情報を示す。
【0025】
学習データセット121は、それぞれがこのようなデータサンプルと教師ラベルとのペアを少なくとも1つ含むデータである複数個の学習データを有する。以下では、学習データセット121がZ個の学習データを有しており、且つ、Z個の学習データのそれぞれが、サンプルデータとしてN個の画像データXi(i=1,2,…,N)と、N個の画像データXiに1対1で対応するN個の教師ラベルYiと、を有する場合を例にとって説明する。なお、各学習データが有するサンプルデータXi及び教師ラベルYiの数は、同じであることに限らず、異なっていても良い。
【0026】
モデル生成部111は、学習データセット121が有する複数個の学習データのうちから組み合わせ可能な、学習データの複数通りの組み合わせをそれぞれ用いて、機械学習を実行する。学習データセット121がZ個の学習データを有する場合、Z個の学習データから組み合わせ可能な学習データの組み合わせSkは、Z個の学習データを全て含む組み合わせから学習データを全く含まない組み合わせまで、2^Z(2のZ乗)通り存在する。モデル生成部111は、1個の組み合わせSkを構成する学習データを用いて機械学習を実行することにより1個のモデルMkを生成するモデル生成処理を、2^Z通りの組み合わせSk(k=1,2,…,2^Z)のそれぞれに対して実行する。これにより、モデル生成部111は、2^Z通りの機械学習モデルであるモデルMkを生成する。
【0027】
具体的に説明すると、モデル生成部111は、2^Z通りの組み合わせSkのそれぞれについて、予め定められた学習アルゴリズムに従った機械学習を実行することにより、各組み合わせSkの学習データに含まれるデータサンプルと対応する教師ラベルとの関係を学習する。モデル生成部111は、学習アルゴリズムとして、ニューラルネットワーク、サポートベクタマシン、ランダムフォレスト、遺伝的アルゴリズム等のような公知の教師あり学習のアルゴリズムを用いることができる。
【0028】
モデル生成部111は、学習データを入力とし、指定された入力に対して望ましい出力を計算できるように、モデルMkを学習する。具体的に説明すると、モデル生成部111は、組み合わせSkの学習データに含まれる各画像データXiがモデルMkに入力された場合に、対応する教師ラベルYiに示される認識対象物をモデルMkが出力する確率が高くなるように、モデルMkのパラメータを調整する。例えば学習アルゴリズムとしてニューラルネットワークを用いた場合、モデル生成部111は、ニューラルネットワークを構成する入力層、中間層及び出力層の結合の重みを、誤差逆伝搬法を用いて調整する。
【0029】
精度算出部112は、モデル生成部111により生成された複数通りのモデルMk(k=1,2,…,2^Z)のそれぞれの精度Akを算出する。ここで、モデルMkの精度Akは、モデルMkの正確性の指標であって、モデルMkが、入力に対してどの程度正しい推論結果を出力するかを示す値である。1個の精度Akは、Z個の学習データのうちから組み合わせ可能な1個の組み合わせSkから生成されたモデルMkの精度である。
【0030】
精度算出部112は、評価データセット122を用いて、モデル生成部111により生成された複数通りのモデルMkのそれぞれの精度Akを算出する。評価データセット122は、モデルMkを評価するためのデータセットであって、予め記憶部12に記憶されている。評価データセット122は、学習データセット121と同様に、複数個の学習データを有する。1つの学習データは、データサンプルと教師ラベルとのペアを少なくとも1つ有する。
【0031】
一例として、精度算出部112は、モデルMkの精度Akとして、評価データセット122に含まれる全データサンプルに対する正解率を算出する。具体的に説明すると、精度算出部112は、評価データセット122に含まれる各データサンプルをモデルMkに入力する。そして、精度算出部112は、サンプルデータの入力に対してモデルMkからの出力が、そのデータサンプルに対応する教師ラベルと合致するか否かを判定する。精度算出部112は、モデルMkに入力された全データサンプルにおける、モデルMkからの出力が教師ラベルと合致した比率を、モデルMkの精度Akとして算出する。
【0032】
精度算出部112は、このような精度Akを算出する処理を、モデル生成部111により生成された複数通りのモデルMkのそれぞれに対して実行する。これにより、例えばモデル生成部111により2^Z通りのモデルMkが生成された場合、精度算出部112は、2^Z通りの精度Akを算出する。このような処理により、学習データの組み合わせSk(k=1,2,…,2^Z)と組み合わせSkに基づいて生成されたモデルMkの精度Akとのペアが、2^Z通り得られる。
【0033】
精度算出部112は、このようにして算出した2^Z通りのモデルMkの精度Akを示す精度データ123を、入出力I/F13を介して学習データ評価装置20に出力する。精度データ123は、2^Z通りのモデルMkの精度Akと、各モデルMkをモデル生成部111が生成する際に使用された学習データの組み合わせSkと、を1対1で対応付けたデータである。
【0034】
図1に戻って、学習データ評価装置20は、学習装置10が機械学習モデルを生成する際に用いた学習データを評価する装置である。学習データ評価装置20は、パーソナルコンピュータ、サーバ、タブレット等の情報処理装置により実現される。学習データ評価装置20は、
図4に示すように、制御部21と、記憶部22と、入出力I/F(インタフェース)23と、を備える。
【0035】
制御部21は、CPU、GPU、DSP等を備える。制御部21は、学習データ評価装置20の制御に係る処理及び演算を実行する中央演算処理部として機能する。制御部21は、ROMに格納されているプログラム及びデータを読み出し、RAMをワークエリアとして用いて、学習データ評価装置20を統括制御する。
【0036】
記憶部22は、SRAM、DRAM等の主記憶部と、HDD、SSD等の補助記憶部と、を備える。記憶部22は、制御部21が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部22は、制御部21が各種処理を行うことにより生成又は取得するデータを記憶する。
【0037】
入出力I/F23は、学習データ評価装置20が外部のモジュールとデータを送受信するためのインタフェースを備える。具体例として、入出力I/F23は、LAN、USB等の通信モジュールと、外部記憶装置の読み取りモジュールと、を備える。
【0038】
制御部21は、機能的に、変換ルール生成部211と、変換部212と、学習データ評価部213と、出力部214と、を備える。これらの各機能は、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現される。ソフトウェア及びファームウェアは、プログラムとして記述され、ROM又は記憶部22に格納される。そして、CPU、GPU、DSP等が、ROM又は記憶部22に記憶されたプログラムを実行することによって、制御部21の各機能を実現する。以下、
図5を参照して、制御部21の各機能について説明する。
【0039】
変換ルール生成部211は、精度算出部112により算出された各モデルMkの精度Akを変換精度Bkに変換するための変換ルールを生成する。ここで、変換精度Bkは、学習データ評価装置20において学習データを評価する際に用いられるパラメータである。
【0040】
より詳細に説明すると、学習データ評価装置20は、モデルMkの精度Akに基づいて、そのモデルMkを生成する際に使用された学習データを評価する。しかしながら、モデルMkの精度Akは、そのモデルMkを生成する際に使用されたデータサンプル数に依存して変化する。
【0041】
図6に、様々なサイズのデータサンプル数と、各データサンプル数の学習データから生成された機械学習モデルの精度と、に対応する複数のデータ点を、座標平面上にプロットした例を示す。
図6に示す座標平面において、横軸はデータサンプル数を表し、縦軸は機械学習モデルの精度を表す。
【0042】
図6に示すように、一般的な傾向として、モデルMkの精度Akは、そのモデルMkを生成するために使用されたデータサンプル数が増えるに伴って上昇する。その一方で、精度Akの増加率は、データサンプル数が少ない領域では大きく、データサンプル数が多くなるにつれて小さくなる。このように、データサンプル数が少ない領域と多い領域とで、本来は異なる貢献度として扱われるべき精度の向上幅が同じように扱われると、データサンプル数が少ない領域における精度の向上幅が過大評価される。
【0043】
例えば、
図6に示した複数のデータ点のうちの、ある特定のサイズの学習データAと、学習データAに新たにデータサンプルを加えたより大きいサイズの学習データBと、に注目する。機械学習モデルの精度は、データサンプル数が少ない学習データAを用いて生成された場合よりも、データサンプル数が多い学習データBを用いて生成された場合の方が高い。
【0044】
次に、学習データA,Bに対して、中身の異なる同じサイズの学習データC,Dを加えた学習データA+C及び学習データB+Dを考える。学習データA+C,B+Dを用いて生成された機械学習モデルの精度は、それぞれ学習データA,Bを用いて生成された機械学習モデルの精度よりも向上する。このとき、学習データAに学習データCを加えた場合における精度の向上幅ΔCの方が、学習データBに学習データDを加えた場合における精度の向上幅ΔDよりも大きい。
【0045】
このような精度の向上幅ΔC,ΔDの絶対値をそのまま用いると、学習データCの方が学習データDよりも価値が高いと評価される。しかしながら、このような評価方法では、データサンプル数が少ないほど過大評価され、データサンプル数が多いほど過小評価される結果となる。これは、例えば学習データの評価値に従って報酬を決めるシステムにおいて、データサンプル数が少ない時しか精度向上できない低品質の学習データでも、多くの報酬を獲得できることにつながる。
【0046】
このようなデータサンプル数の違いに起因する過大評価及び過小評価を抑制するため、学習データ評価装置20は、精度の情報をそのまま使用せずに、データサンプル数に準じたパラメータに変換してから使用する。変換ルール生成部211は、そのための変換ルールを生成する。
【0047】
具体的に説明すると、変換ルール生成部211は、精度算出部112により算出された各モデルMkの精度Akと、各モデルMkを生成する際に使用された学習データの組み合わせSkに含まれるデータサンプル数と、の間の関係に基づいて、変換ルールを生成する。ここで、ある組み合わせSkに含まれるデータサンプル数は、その組み合わせSkに含まれる少なくとも1つの学習データが有するデータサンプル数の和に相当する。例えば、組み合わせSkがC個の学習データを有し、且つ、各学習データがN個のデータサンプルを有する場合、C×N個である。
【0048】
変換ルール生成部211は、
図5に示すように、学習装置10において生成された精度データ123を参照して、2^Z通りの組み合わせSkのそれぞれに含まれるデータサンプル数、及び、各組み合わせSkから生成されたモデルMkの精度Akの情報を得る。そして、変換ルール生成部211は、精度Akとデータサンプル数との関係を学習し、変換ルールを生成する。精度データ123は、予め入出力I/F23を介して学習装置10から取得されて、記憶部22に記憶されている。
【0049】
具体的には
図7に示すように、変換ルール生成部211は、精度データ123に含まれる複数個の精度Akとデータサンプル数との関係を曲線Lで表す。このような曲線Lは、非特許文献2“J. Kaplan, S. McCandlish, T. Henighan, T. B. Brown, B. Chess, R. Child, S. Gray, A. Radford, J. Wu, and D. Amodei. “Scaling laws for neural language models”, 2020”で報告されており、機械学習タスクにおいて典型的な曲線の形である。
【0050】
より詳細には、非特許文献2は、最適化の目的関数であり精度と良く相関する損失関数を用いて、データサンプル数と損失関数の値との関係が、指数関数の指数部がデータサンプル数の逆数になる形式で与えられることを報告している。損失関数は漸減していく指標であるのに対して、機械学習モデルの精度は、データサンプル数に対して漸増していくため、対数グラフの関係で表されることが期待される。
【0051】
そこで、精度をyと表し, データサンプル数をxと表した場合、変換ルール生成部211は、下記(1)式に示す非線形な関数y=f(x)を用いて、曲線Lを表現する。なお、α,βは係数である。
【0052】
【0053】
変換ルール生成部211は、曲線Lが
図6に示した複数のデータ点に最もフィットするように、例えば最小二乗法を用いて係数α、βの最適値を探索する。これにより、変換ルール生成部211は、精度とデータサンプル数との平均的な関係を表す非線形な関数f(x)を求める。そして、変換ルール生成部211は、関数“y=f(x)”の逆関数“x’=f^{-1}(y)”を、精度をその精度を達成するために必要な典型的なデータサンプル数の情報に変換するための変換ルールとして生成する。
【0054】
変換ルールは、曲線Lにより表されるように、機械学習モデルMkの精度Akと、精度Akから変換された後のパラメータである変換精度Bkとを、非線形に変換するルールである。より詳細には、曲線Lは、
図7に示した座標平面上において上に凸な形状をしているため、精度Akが高くなるほど変換精度Bkの増加率が大きくなる関係、逆に言うと変換精度Bkが高くなるほど精度Akの増加率が小さくなる関係を表している。変換ルールは、このような曲線Lにより表される関係に基づいて、精度Akを変換精度Bkに非線形に変換するルールである。
【0055】
図5に戻って、変換部212は、変換ルール生成部211により生成された変換ルールに従って、複数通りのモデルMkのそれぞれの精度Akを変換精度Bkに変換する。具体的に説明すると、変換部212は、曲線Lを表す関数“y=f(x)”の逆関数“x’=f^{-1}(y)”に従ってモデルMkの精度Akを変換精度Bkに変換する変換処理を、学習装置10により生成された2^Z通りのモデルMk(k=1,2,…,2^Z)のそれぞれに対して、実行する。
【0056】
具体的に
図8に、学習データA,A+C,B,B+Dに対応する精度が変換される例を示す。変換精度の値は、
図8に示す座標平面上において各データ点から曲線Lに向かって水平線を引き、曲線Lと交わる点からデータサンプル数を表す軸に垂線を引くことにより得られる。
【0057】
図8の例では、変換部212による変換の結果、学習データAと学習データA+Cとの間における変換精度の向上幅ΔC’は、学習データBと学習データB+Dとの間における変換精度の向上幅ΔD’よりも小さい。言い換えると、変換部212による変換後の精度の向上幅ΔC’,ΔD’の大小関係は、変換部212による変換前の精度の向上幅ΔC,ΔDの大小関係とは逆転している。この理由は、学習データAから学習データA+Cへの精度の向上幅ΔCを得るために必要な平均的なデータサンプル数は、実際に加えられた学習データCのデータサンプル数よりも小さいためであると解釈できる。逆に、学習データBから学習データB+Dへの精度の向上幅ΔDを得るために必要な平均的なデータサンプル数は、実際に加えられた学習データDのデータサンプル数よりも大きいためであると解釈できる。
【0058】
更に、
図9に、様々なデータサンプル数を有する学習データを用いて生成された機械学習モデルの精度の向上幅が、変換部212による変換の前後でどのように変化するかを実際に検証した結果を示す。
図9の左側は、変換部212による変換前における精度の向上幅とデータサンプル数との関係を2次元平面上にプロットした図である。
図9の左側のプロットによると、変換部212による変換前では、精度の向上幅とデータサンプル数との間に相関が見られ、データサンプル数が少ない場合に精度の向上幅が大きくなるという傾向が見られる。
【0059】
これに対して、
図9の右側は、変換部212による変換後における精度の向上幅とデータサンプル数との関係を2次元平面上にプロットした図である。
図9の右側のプロットによると、変換部212による変換後では、データサンプル数が少ない場合と多い場合とで精度の向上幅は大きく変化していない。言い換えると、変換部212による変換後では、データサンプル数が少ない場合に精度の向上幅が大きくなるという傾向が抑制されることが分かる。
【0060】
このように、変換部212は、変換ルール生成部211により生成された変換ルールに従って精度を変換することにより、データサンプル数の多少に起因する過大評価及び過小評価が抑制されるように、精度を補正する。
【0061】
図5に戻って、学習データ評価部213は、変換部212により精度Akから変換された変換精度Bkに基づいて、評価対象の学習データiを評価する。ここで、評価対象の学習データiは、学習データセット121が有する複数個の学習データのうちのいずれかであって、例えば入出力I/F23を介してユーザにより指定される。
【0062】
学習データ評価部213は、Shapley値を計算することにより、評価対象の学習データiの評価値φiを計算する。具体的には、学習データ評価部213は、下記の(2)式に従って評価値φiを計算する。
【0063】
【0064】
上記(2)式におけるΣの中の第1項は、正規化のための項である。具体的に、Sは、学習データセット121が有するZ個の学習データから組み合わせ可能な2^Z通りの組み合わせSk(k=1,2,…,2^Z)のうちの、評価対象の学習データiを含まない任意の組み合わせを表す。|S|は、組み合わせSに含まれる学習データの数を表す。|P’|は、学習データセット121が有する学習データの総数、すなわちZに相当する。Σは、Z個の学習データから組み合わせ可能な、評価対象の学習データiを含まない組み合わせSの全てに亘って和をとることを意味する。
【0065】
また、上記(2)式において、“vj(S)”は、2^Z通りの精度Ak(k=1,2,…,2^Z)のうちの、評価対象の学習データiを含まない組み合わせSから生成された機械学習モデルの精度を表す。これに対して、“vj(SU{i})”は、2^Z通りの精度Ak(k=1,2,…,2^Z)のうちの、組み合わせSに評価対象の学習データiのみを加えた組み合わせSU{i}から生成された機械学習モデルの精度を表す。f^{-1}は、上記(1)式で表される関数f(x)の逆関数により精度から変換精度に変換されることを表す。そのため、“f^{-1}(vj(S))”及び“f^{-1}(vj(SU{i}))”は、それぞれ、2^Z通りの変換精度Bk(k=1,2,…,2^Z)のうちの、精度“vj(S)”及び“vj(SU{i})”から変換された変換精度を表す。
【0066】
すなわち、上記(2)式におけるΣの中の第2項は、評価対象の学習データiを含む組み合わせSU{i}を用いて生成された機械学習モデルの精度vj(SU{i})から変換された変換精度f^{-1}(vj(SU{i}))と、評価対象の学習データiを含まない組み合わせSを用いて生成された機械学習モデルの精度vj(S)から変換された変換精度f^{-1}(vj(S))と、の差分に相当する。そして、上記(2)式に示す評価値φiは、評価対象の学習データiがある場合とない場合とにおける変換精度の差分“f^{-1}(vj(SU{i}))-f^{-1}(vj(S))”を、評価対象の学習データiを含まない組み合わせSの全体において平均した値に相当する。
【0067】
このように、学習データ評価部213は、評価対象の学習データiがある場合とない場合とにおける変換精度の差分に基づいて評価値φiを計算することにより、評価対象の学習データiを評価する。これにより、複数の学習データの中における評価対象の学習データiの価値を定量化することができる。特に、学習データ評価部213は、変換部212による変換後の精度に基づくShapley値を計算するため、変換部212による変換前の精度に基づくShapley値を計算する手法に比べて、データサンプル数の違いに起因する誤評価が抑制された評価値φiを得ることができる。
【0068】
なお、非特許文献1では、データサンプルごとにShapley値を計算することにより、データサンプル単位で価値を測定している。これに対して、本実施の形態では、複数のデータサンプルを含む学習データを1つの単位として価値を測定している。このようなデータサンプル単位での評価から学習データ単位での評価への拡張は、複数のデータサンプルが同じ価値を持っているという仮定のもとで、自然に適用することができる。
【0069】
図5に戻って、出力部214は、学習データ評価部213による評価結果を出力する。出力部214は、学習データ評価部213により計算された、評価対象の学習データiの評価値φiを示す出力情報を生成する。そして、出力部214は、入出力I/F23を介して外部の装置に出力情報を送信し、外部の装置の表示部に出力情報を表示させる。或いは、学習データ評価装置20が表示部を備える場合には、出力部214は、学習データ評価装置20の表示部に出力情報を表示しても良い。
【0070】
次に、
図10を参照して、学習データ評価システム1において実行される処理の流れについて説明する。
図10に示す処理は、ユーザが所望の学習データを評価する指示を例えば入出力I/F13を介して学習装置10に対して入力したことに応答して、開始する。
【0071】
図10に示す処理を開始すると、学習装置10において、制御部11は、学習データセット121に含まれる複数個の学習データのうちから組み合わせ可能な学習データの組み合わせSkを1つ選択する(ステップS11)。例えば、学習データセット121がZ個の学習データを含む場合、2^Z通りの組み合わせSk(k=1,2,…,2^Z)のうちから1つを選択する。
【0072】
組み合わせSkを1つ選択すると、制御部11は、モデル生成部111として機能し、選択した組み合わせSkの学習データを用いて機械学習を実行する(ステップS12)。これにより、制御部11は、モデルMkを生成する。
【0073】
モデルMkを生成すると、制御部11は、精度算出部112として機能し、評価データセット122を用いて、生成したモデルMkの精度Akを算出する(ステップS13)。
【0074】
精度Akを算出すると、制御部11は、全ての組み合わせSkを選択したか否かを判定する(ステップS14)。未選択の組み合わせSkがある場合(ステップS14;NO)、制御部11は、処理をステップS11に戻す。そして、制御部11は、未選択の組み合わせSkのうちから1つを選択して、ステップS12,S13の処理を実行する。このように、制御部11は、学習データセット121から組み合わせ可能な全ての組み合わせSkを用いてモデルMkを生成し、その精度Akを算出する。
【0075】
最終的に、全ての組み合わせSkを選択し終えると、制御部11は、複数通りの組み合わせSkと、各組み合わせSkの学習データから生成されたモデルMkの精度Akと、を示す精度データ123を生成する。そして、制御部11は、入出力I/F13を介して学習データ評価装置20と通信し、精度データ123を学習データ評価装置20に送信する(ステップS15)。
【0076】
学習データ評価装置20において、制御部21は、変換ルール生成部211として機能し、学習装置10において生成された複数通りのモデルMkの精度Akに適用するための変換ルールを生成する(ステップS16)。具体的に説明すると、制御部21は、精度データ123に含まれる2^Z個の精度Akと対応するデータサンプル数との関係に最もフィットする曲線Lを、上記(1)式により表される関数y=f(x)を用いて求める。そして、制御部21は、求めた関数y=f(x)の逆関数x’=f^{-1}(y)を、変換ルールとして生成する。
【0077】
変換ルールを生成すると、制御部21は、変換部212として機能し、学習装置10において生成された複数通りのモデルMkの精度Akに対して変換ルールを適用し、精度Akを変換精度Bkに変換する(ステップS17)。
【0078】
精度Akを変換精度Bkに変換すると、制御部21は、学習データ評価部213として機能し、変換精度Bkに基づいて、評価対象の学習データiを評価する(ステップS18)。具体的に説明すると、制御部21は、上記(2)式に従って、評価対象の学習データiがある場合とない場合の精度の差分を計算し、これを学習データの全ての組み合わせに亘って平均することで評価値φiを計算する。
【0079】
評価値φiを計算すると、制御部21は、出力部214として機能し、計算した評価値φiを示す出力情報を出力する(ステップS19)。以上により、
図10に示した処理は終了する。
【0080】
以上説明したように、実施の形態1に係る学習データ評価システム1は、複数個の学習データのうちから組み合わせ可能な、学習データの複数通りの組み合わせSkをそれぞれ用いた機械学習により生成された複数通りの機械学習モデルのそれぞれの精度Akを変換精度Bkに変換し、変換精度Bkに基づいて評価対象の学習データiを評価する。その際に、実施の形態1に係る学習データ評価システム1は、精度Akが高くなるほど変換精度Bkの増加率が大きくなる非線形な変換ルールに従って、精度Akを変換精度Bkに非線形に変換する。
【0081】
このように機械学習モデルの精度Akを非線形に変換した変換精度Bkに基づくことにより、データサンプル数の少ない場合における精度の向上幅を過大評価してしまう問題が解消され、重要度が高いデータサンプル数が多い場合における精度の向上幅を公平に評価することができる。そのため、データサンプル数の違いに起因する誤評価を抑制して、学習データを適切に評価することができる。
【0082】
以上のように学習データを適切に評価することが可能になることにより、例えば、高精度な認識が可能な機械学習モデルを売買する市場において、複数の提供者から提供された学習データを用いて生成された機械学習モデルの売上を各提供者に公平に分配することにつながる。
【0083】
(実施の形態2)
次に、実施の形態2について説明する。実施の形態1と同様の構成及び機能については、適宜説明を省略する。
【0084】
実施の形態1では、評価対象の学習データiは、学習データセット121が有する複数個の学習データのうちのいずれかであって、予め学習装置10に記憶されていた。これに対して、実施の形態2では、評価対象の学習データiは、ユーザから学習装置10に提供される。
【0085】
図11に、実施の形態2に係る学習データ評価システム1の構成を示す。
図11に示すように、実施の形態2に係る学習データ評価システム1は、学習装置10と、学習データ評価装置20と、要求端末30と、を備える。これら各装置は、有線又は無線による通信回線を介して通信可能に接続されている。
【0086】
要求端末30は、学習データ評価装置20に対して評価対象の学習データiを提供し、評価対象の学習データiに対する評価を要求するための端末である。要求端末30は、具体的には、パーソナルコンピュータ、スマートフォン、タブレット等のような、ユーザによって操作される装置である。要求端末30は、図示を省略するが、CPU、GPU、DSP等の制御部と、SRAM、DRAM、HDD、SSD等の記憶部と、外部のモジュールと通信するための入出力I/Fと、キーボード、タッチパネル等の操作部と、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の表示部と、を備える。
【0087】
図12に、実施の形態2に係る学習装置10の構成を示す。実施の形態2に係る学習装置10は、制御部11と、記憶部12と、入出力I/F13と、を備える。制御部11は、機能的に、モデル生成部111と、精度算出部112と、学習データ受信部113と、を備える。これらの各機能は、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせによって実現される。
【0088】
学習データ受信部113は、評価対象の学習データiを、要求端末30から受信する。要求端末30のユーザは、自身が所有する学習データがどの程度の価値を有しているかを確認することを望む場合、操作部を操作して、所望の学習データを評価対象の学習データiとして指定し、学習データ評価装置20による評価を要求する。ユーザからの要求を受けると、要求端末30は、評価対象の学習データiを学習装置10に送信する。学習データ受信部113は、入出力I/F13を介して要求端末30と通信し、要求端末30から送信された評価対象の学習データiを受信する。
【0089】
なお、評価対象の学習データiは、要求端末30から学習装置10に直接的に送信されることに限らず、例えば学習データ評価装置20を経由して送信されても良い。
【0090】
モデル生成部111は、学習データ受信部113により受信された評価対象の学習データiを含む複数個の学習データのうちから組み合わせ可能な複数通りの組み合わせSkをそれぞれ用いた機械学習を実行することにより、複数通りの機械学習モデルを生成する。機械学習に用いられる複数個の学習データのうちの、評価対象の学習データi以外の学習データは、既知の学習データとして、予め学習装置10の記憶部12に記憶されている。
【0091】
以下では、予め記憶部12に(Z-1)個の既知の学習データが記憶されている場合を例にとって説明する。この場合において、学習データ受信部113が要求端末30から評価対象の学習データiを受信すると、モデル生成部111は、(Z-1)個の既知の学習データと、新たに受信された評価対象の学習データiと、を合わせたZ個の学習データを用いる。
【0092】
具体的に説明すると、モデル生成部111は、Z個の学習データのうちから組み合わせ可能な2^Z通りの組み合わせSk(k=1,2,…,2^Z)をそれぞれ用いて機械学習を実行することにより、2^Z通りのモデルMkを生成する。精度算出部112は、モデル生成部111により生成された2^Z通りのモデルMkのそれぞれの精度を算出する。このようなモデル生成部111及び精度算出部112の処理は、実施の形態1で説明した処理と同様である。また、学習データ評価装置20における変換ルール生成部211、変換部212及び学習データ評価部213の処理も、実施の形態1で説明した処理と同様であるため、説明を省略する。
【0093】
但し、モデル生成部111は、2^Z通りのモデルMkのうちの、(Z-1)個の既知の学習データから生成される2^(Z-1)通りのモデルMkを、評価対象の学習データiが要求端末30から受信される前に、予め生成しておく。同様に、精度算出部112は、予め生成された2^(Z-1)通りのモデルMkの精度Akを、予め算出しておく。これにより、評価対象の学習データiが受信された場合における計算量を削減する。
【0094】
具体的に説明すると、モデル生成部111は、学習データ受信部113により評価対象の学習データiが新たに受信されると、評価対象の学習データiと既知の学習データとを合わせたZ個の学習データのうちから組み合わせ可能な2^Z通りの組み合わせのうちの、評価対象の学習データiを含む2^(Z-1)通りの組み合わせSk(k=1,2,…,2^(Z-1))をそれぞれ用いて、2^(Z-1)通りのモデルMkを生成する。そして、精度算出部112は、生成された2^(Z-1)通りのモデルMkのそれぞれの精度Akを算出する。これに対して、2^Z通りの組み合わせのうちの、評価対象の学習データiを含まない残りの2^(Z-1)通りの組み合わせSkについては、モデルMkの生成処理と精度Akの算出処理は省略される。
【0095】
学習データ評価装置20において、出力部214は、学習データ評価部213による評価結果を、評価対象の学習データiの送信元である要求端末30に出力する。具体的に説明すると、出力部214は、学習データ評価部213により計算された評価値φiを示す出力情報を要求端末30に送信し、要求端末30の表示部に表示させる。これにより、出力部214は、評価対象の学習データiの価値を要求端末30のユーザに通知する。
【0096】
更に、出力部214は、出力情報として、評価値φiに加えて、どのような尺度で精度の向上幅を評価したのかを可視化しても良い。具体的に、出力部214は、
図8のように、精度とデータサンプル数とのペアによる散布図に曲線Lをフィッティングした結果を示す画像を表示しても良い。或いは、出力部214は、
図9のように、評価対象の学習データiがある場合とない場合とにおける精度の差分、及び変換精度の差分の散布図を表示しても良い。これにより、ユーザは、他の学習データの中における自身の学習データの位置づけを認識することができ、評価値φiに対する納得感を得ることができる。
【0097】
なお、評価対象の学習データiは、学習データ受信部113により要求端末30から受信された後、記憶部12に記憶され、既に記憶されている(Z-1)個の学習データと共に、次回以降の機械学習の際に用いられる。これにより、学習データ受信部113により学習データが受信される毎に、機械学習に用いられる学習データが蓄積される。その結果として、学習データ評価装置20における評価の精度が向上することにつながる。
【0098】
次に、
図13を参照して、実施の形態2に係る学習データ評価システム1において実行される処理の流れについて説明する。
図13に示す処理は、要求端末30のユーザが評価対象の学習データiの評価を要求したことに応答して、開始する。
【0099】
図13に示す処理を開始すると、要求端末30は、ユーザにより指定された評価対象の学習データiを、学習装置10に送信する(ステップS20)。要求端末30から評価対象の学習データiが送信されると、学習装置10において、制御部11は、学習データ受信部113として機能し、評価対象の学習データiを受信する。
【0100】
評価対象の学習データiを受信すると、制御部11は、受信した評価対象の学習データiと、予め記憶部12に記憶されている既知の学習データと、を合わせた複数個の学習データを用いて、ステップS21~25の処理を実行する。これにより、制御部11は、複数通りの機械学習モデルの精度を算出し、算出した精度を示す精度データ123を学習データ評価装置20に送信する。ステップS21~25の処理は、実施の形態1におけるステップS11~15の処理と同様である。
【0101】
但し、既知の学習データのみから生成されるモデルMkの精度Akは、ステップS20で評価対象の学習データiが受信される前に予め算出され、学習データ評価装置20に送信されている。そのため、制御部11は、ステップS21~S24の処理を、新たに受信された評価対象の学習データiを含む組み合わせSkのそれぞれに対して繰り返し、評価対象の学習データiを含む組み合わせSkから生成されたモデルMkの精度Akを算出する。
【0102】
学習データ評価装置20において、制御部21は、学習装置10から精度データ123を受信すると、受信した精度データ123を用いて、ステップS26~S28の処理を実行する。これにより、制御部21は、評価対象の学習データiの評価値φiを計算する。ステップS26~28の処理は、実施の形態1におけるステップS16~18の処理と同様である。
【0103】
評価値φiを計算すると、制御部21は、計算した評価値φiを示す出力情報を要求端末30に送信する(ステップS29)。要求端末30は、学習データ評価装置20から出力情報を受信すると、受信した出力情報を表示部に表示する。以上により、
図13に示した処理は終了する。
【0104】
以上説明したように、実施の形態2に係る学習データ評価システム1は、要求端末30から評価対象の学習データiを受信し、受信した評価対象の学習データiと既知の学習データとを合わせた複数個の学習データを用いて評価対象の学習データiを評価し、評価結果を要求端末30に出力する。これにより、ユーザは、自身が提供した学習データの価値を確認することができる。その結果として、確認した価値を報酬の分配の基準として使用したり、研究開発の検討材料として使用したりすることにつながる。
【0105】
(変形例)
以上、実施の形態を説明したが、各実施の形態を組み合わせたり、各実施の形態を適宜、変形、省略したりすることが可能である。
【0106】
例えば、上記実施の形態では、変換ルール生成部211は、精度算出部112により算出された複数個の精度Akと対応するデータサンプル数とのペアに基づいて、変換ルールを生成した。しかしながら、変換ルール生成部211は、精度Akとデータサンプル数との関係を表す曲線Lを十分に定めることができれば、変換ルールを生成する際にこれら全てのペアを用いなくても良い。
【0107】
また、学習データ評価部213は、学習データを評価する際に、精度算出部112により算出された複数個の精度Akの全てを用いなくても良い。言い換えると、学習データ評価部213は、評価値φiとして、上記(2)式に示した評価値φiの厳密な値を計算せずに、その近似値を計算しても良い。
【0108】
例えば、非特許文献3“E. Strumbelj and I. Kononenko. Explaining prediction models and individual predictions with feature contributions. Knowledge and Information Systems, 41:647-665, 12 2013”では、Monte-Carloサンプリングに基づいて学習データの評価値の近似値を計算する方法が提案されている。学習データ評価部213は、非特許文献3に開示されたMonte-Carloサンプリングの手法を用いて、2^Z通りの組み合わせSkのうちから計算に使用しない少なくとも1つの組み合わせを間引いても良い。そして、学習データ評価部213は、上記(2)式において、Z個の学習データから組み合わせ可能な2^Z通りの組み合わせの全てに亘って和をとらずに、2^Z通りの組み合わせのうちの間引かれなかった一部の組み合わせのみで和をとっても良い。
【0109】
上記実施の形態では、変換ルール生成部211は、上記(1)により定められる関数“y=f(x)”の逆関数“x’=f^{-1}(y)”により変換ルールを生成した。しかしながら、関数“y=f(x)”は、上記(1)式のように対数を用いる関数に限らず、xとyとを1対1で定めることができる関数であれば、他の形式の関数であっても良い。また、差分に基づいて学習データを評価するため、変換の前後で大小関係が変わらないように、関数“y=f(x)”は、単調増加な関数であることが好適である。また、変換ルールは、数式であることに限らず、テーブルによってxとyとの対応関係が定められても良い。
【0110】
上記実施の形態では、学習データ評価装置20は、変換ルール生成部211の機能を備えていた。しかしながら、学習データ評価装置20は、変換ルール生成部211の機能を備えていなくても良い。例えば、変換ルールは、過去のデータに基づいて予め生成されており、記憶部22に記憶されていても良い。そして、変換部212は、記憶部22に記憶されている変換ルールを参照して、精度Akを変換精度Bkに変換しても良い。
【0111】
上記実施の形態では、精度算出部112は、モデルMkの精度Akとして、正解率を算出した。しかしながら、精度算出部112は、モデルMkの精度Akとして、正解率に限らず、その他の指標を用いても良い。例えば、精度算出部112は、モデルMkの精度Akとして、非特許文献2に開示された損失関数に基づく指標を用いても良い。
【0112】
上記実施の形態では、学習装置10と学習データ評価装置20とは、互いに独立した異なる装置であった。しかしながら、学習装置10と学習データ評価装置20とは、1つの装置であっても良い。言い換えると、1つの装置が、上述したモデル生成部111、精度算出部112、学習データ受信部113、変換ルール生成部211、変換部212、学習データ評価部213及び出力部214の各機能を備えても良い。この場合、1つの装置が、学習データ評価システム1に相当する。また、要求端末30と学習装置10とが1つの装置であっても良い。要求端末30と学習データ評価装置20とが1つの装置であっても良い。
【0113】
また、上記実施の形態では、学習装置10がモデル生成部111と精度算出部112とを備えており、学習データ評価装置20が変換ルール生成部211と変換部212と学習データ評価部213とを備えていた。しかしながら、モデル生成部111と精度算出部112とは異なる装置に備えられていても良いし、変換ルール生成部211と変換部212と学習データ評価部213とは異なる装置に備えられていても良い。このように、学習データ評価システム1において、各機能がどの装置に備えられていても良いし、一部又は全部の機能がクラウドサーバ上に備えられていても良い。
【0114】
上記実施の形態では、制御部11,21において、CPU、GPU、DSP等がROM又は記憶部12,22に記憶されたプログラムを実行することによって、モデル生成部111、精度算出部112、変換ルール生成部211、変換部212及び学習データ評価部213の各部として機能した。しかしながら、制御部11,21は、専用のハードウェアであってもよい。専用のハードウェアとは、例えば単一回路、複合回路、プログラム化されたプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、これらの組み合わせ等である。制御部11,21が専用のハードウェアである場合、各部の機能それぞれを個別のハードウェアで実現してもよいし、各部の機能をまとめて単一のハードウェアで実現してもよい。
【0115】
また、各部の機能のうち、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現してもよい。このように、制御部11,21は、ハードウェア、ソフトウェア、ファームウェア、又は、これらの組み合わせによって、上述の各機能を実現することができる。
【0116】
学習装置10又は学習データ評価装置20の動作を規定する動作プログラムを既存のパーソナルコンピュータ、情報端末装置等のコンピュータに適用することで、当該コンピュータを、学習装置10又は学習データ評価装置20として機能させることも可能である。
【0117】
また、このようなプログラムの配布方法は任意であり、例えば、CD-ROM(Compact Disk ROM)、DVD(Digital Versatile Disk)、MO(Magneto Optical Disk)、メモリカード等のコンピュータ読み取り可能な記録媒体に格納して配布してもよいし、インターネット等の通信ネットワークを介して配布してもよい。
【0118】
本開示は、本開示の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この開示を説明するためのものであり、本開示の範囲を限定するものではない。すなわち、本開示の範囲は、実施の形態ではなく、請求の範囲によって示される。そして請求の範囲内及びそれと同等の開示の意義の範囲内で施される様々な変形が、この開示の範囲内とみなされる。
【産業上の利用可能性】
【0119】
本開示は、機械学習技術等に好適に採用され得る。
【符号の説明】
【0120】
1 学習データ評価システム、10 学習装置、11 制御部、12 記憶部、13 入出力I/F、20 学習データ評価装置、21 制御部、22 記憶部、23 入出力I/F、30 要求端末、111 モデル生成部、112 精度算出部、113 学習データ受信部、121 学習データセット、122 評価データセット、123 精度データ、211 変換ルール生成部、212 変換部、213 学習データ生成部、214 出力部