(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024044008
(43)【公開日】2024-04-02
(54)【発明の名称】情報処理装置、情報処理方法、プログラム
(51)【国際特許分類】
G06N 20/00 20190101AFI20240326BHJP
【FI】
G06N20/00
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022149300
(22)【出願日】2022-09-20
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100124811
【弁理士】
【氏名又は名称】馬場 資博
(74)【代理人】
【識別番号】100088959
【弁理士】
【氏名又は名称】境 廣巳
(74)【代理人】
【識別番号】100097157
【弁理士】
【氏名又は名称】桂木 雄二
(74)【代理人】
【識別番号】100187724
【弁理士】
【氏名又は名称】唐鎌 睦
(72)【発明者】
【氏名】畠山 優太
(72)【発明者】
【氏名】岡嶋 穣
(57)【要約】
【課題】機械学習モデルの精度の向上を図ることができないこと。
【解決手段】本開示の情報処理装置100は、複数の機械学習モデルにおける事例の入力空間をそれぞれ複数の領域に分割し、各分割領域に対して確率を付与する領域分割部121と、分割領域に付与された確率に基づいて、分割領域に属する所定の事例のサンプリング確率を算出する確率算出部122と、所定の事例のサンプリング確率に基づいて、所定の事例を選択する事例選択部123と、を備える。
【選択図】
図9
【特許請求の範囲】
【請求項1】
複数の機械学習モデルにおける事例の入力空間をそれぞれ複数の領域に分割し、各分割領域に対して確率を付与する領域分割部と、
前記分割領域に付与された前記確率に基づいて、当該分割領域に属する所定の事例のサンプリング確率を算出する確率算出部と、
前記所定の事例の前記サンプリング確率に基づいて、当該所定の事例を選択する事例選択部と、
を備えた情報処理装置。
【請求項2】
請求項1に記載の情報処理装置であって、
前記確率算出部は、異なる前記機械学習モデル毎に設定された前記分割領域に付与された前記確率に基づいて、前記所定の事例の前記サンプリング確率を算出する、
情報処理装置。
【請求項3】
請求項1に記載の情報処理装置であって、
前記確率算出部は、同一の前記所定の事例が属する、異なる前記機械学習モデル毎に設定された複数の前記分割領域に付与された前記確率に基づいて、前記所定の事例の前記サンプリング確率を算出する、
情報処理装置。
【請求項4】
請求項1に記載の情報処理装置であって、
前記領域分割部は、入力事例に対する、複数の前記機械学習モデルとは異なる他の機械学習モデルの予測結果と、複数の前記機械学習モデル毎の予測結果と、に基づいて、複数の前記機械学習モデルの前記分割領域に前記確率を付与する、
情報処理装置。
【請求項5】
請求項4に記載の情報処理装置であって、
前記領域分割部は、前記入力事例に対する、前記他の機械学習モデルに設定された前記分割領域における予測確率と、複数の前記機械学習モデル毎に設定された前記分割領域における予測確率と、の差異に基づいて、複数の前記機械学習モデルの前記分割領域に前記確率を付与する、
情報処理装置。
【請求項6】
請求項5に記載の情報処理装置であって、
前記領域分割部は、前記差異が大きくなるほど、複数の前記機械学習モデルの前記分割領域に付与する前記確率の値が大きくなるよう設定する、
情報処理装置。
【請求項7】
請求項4に記載の情報処理装置であって、
前記領域分割部は、前記入力事例に対する、複数の前記機械学習モデルに基づいて生成された新たな機械学習モデルである前記他の機械学習モデルの予測結果と、複数の前記機械学習モデル毎の予測結果と、に基づいて、複数の前記機械学習モデルの前記分割領域に前記確率を付与する、
情報処理装置。
【請求項8】
請求項1に記載の情報処理装置であって、
複数の前記機械学習モデルは、決定木もしくは決定リストである、
情報処理装置。
【請求項9】
複数の機械学習モデルにおける事例の入力空間をそれぞれ複数の領域に分割し、各分割領域に対して確率を付与し、
前記分割領域に付与された前記確率に基づいて、当該分割領域に属する所定の事例のサンプリング確率を算出し、
前記所定の事例の前記サンプリング確率に基づいて、当該所定の事例を選択する、
情報処理方法。
【請求項10】
複数の機械学習モデルにおける事例の入力空間をそれぞれ複数の領域に分割し、各分割領域に対して確率を付与し、
前記分割領域に付与された前記確率に基づいて、当該分割領域に属する所定の事例のサンプリング確率を算出し、
前記所定の事例の前記サンプリング確率に基づいて、当該所定の事例を選択する、
処理をコンピュータに実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法、プログラムに関する。
【背景技術】
【0002】
機械学習によって構築されるモデルとして、特許文献1に記載されているようなルールベース型の機械学習モデルがある。そして、ルールベース型の機械学習モデルの精度を向上させるために、能動学習(Active Learning)が行われる。能動学習では、モデルの予測が不確かなラベル無し事例を選択し、ラベルを付けて訓練事例に加え、この訓練事例を用いてモデルを再学習させる。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上述した能動学習では、決定境界付近の事例を重点的に訓練事例に加えようとするため、分布に対して訓練事例が偏ってしまう。その結果、ルールベース型の機械学習モデルの精度の向上を図ることができない、という問題が生じる。また、かかる問題は、ルールベース型の機械学習モデルに限らず、あらゆる機械学習モデルに対しても生じうる。
【0005】
このため、本開示の目的は、上述した課題である、機械学習モデルの精度の向上を図ることができない、ことを解決することができる情報処理装置を提供することにある。
【課題を解決するための手段】
【0006】
本開示の一形態である情報処理装置は、
複数の機械学習モデルにおける事例の入力空間をそれぞれ複数の領域に分割し、各分割領域に対して確率を付与する領域分割部と、
前記分割領域に付与された前記確率に基づいて、当該分割領域に属する所定の事例のサンプリング確率を算出する確率算出部と、
前記所定の事例の前記サンプリング確率に基づいて、当該所定の事例を選択する事例選択部と、
を備えた、
という構成をとる。
【0007】
また、本開示の一形態である情報処理方法は、
複数の機械学習モデルにおける事例の入力空間をそれぞれ複数の領域に分割し、各分割領域に対して確率を付与し、
前記分割領域に付与された前記確率に基づいて、当該分割領域に属する所定の事例のサンプリング確率を算出し、
前記所定の事例の前記サンプリング確率に基づいて、当該所定の事例を選択する、
という構成をとる。
【0008】
また、本開示の一形態であるプログラムは、
複数の機械学習モデルにおける事例の入力空間をそれぞれ複数の領域に分割し、各分割領域に対して確率を付与し、
前記分割領域に付与された前記確率に基づいて、当該分割領域に属する所定の事例のサンプリング確率を算出し、
前記所定の事例の前記サンプリング確率に基づいて、当該所定の事例を選択する、
処理をコンピュータに実行させる、
という構成をとる。
【発明の効果】
【0009】
本開示は、以上のように構成されることにより、機械学習モデルの精度の向上を図ることができる。
【図面の簡単な説明】
【0010】
【
図1】本開示の実施形態1における情報処理装置の構成を示すブロック図である。
【
図2】
図1に開示した情報処理装置による処理の様子を示す図である。
【
図3】
図1に開示した情報処理装置による処理の様子を示す図である。
【
図4】
図1に開示した情報処理装置による処理の様子を示す図である。
【
図5】
図1に開示した情報処理装置による処理の様子を示す図である。
【
図6】
図1に開示した情報処理装置による他の処理の様子を示す図である。
【
図7】
図1に開示した情報処理装置の動作を示すフローチャートである。
【
図8】本開示の実施形態2における情報処理装置のハードウェア構成を示すブロック図である。
【
図9】本開示の実施形態2における情報処理装置の構成を示すブロック図である。
【発明を実施するための形態】
【0011】
<実施形態1>
本開示の第1の実施形態を、
図1乃至
図7を参照して説明する。
図1は、情報処理装置の構成を説明するための図であり、
図2乃至
図7は、情報処理装置の処理動作を説明するための図である。
【0012】
[構成]
本実施形態における情報処理装置10は、機械学習によって構築される機械学習モデルの精度を向上させるために、訓練効率の良いラベル無し事例を選択することに好適である。ここで、本実施形態では、訓練する機械学習モデルとして、入力値から決定木や決定リストによって予測値を出力するルールベース型の機械学習モデルを一例に挙げて説明する。但し、本開示の情報処理装置10が対象とする機械学習モデルは、ルールベース型の機械学習モデルに限定されず、いかなる機械学習モデルを対象としてもよい。
【0013】
情報処理装置10は、演算装置と記憶装置とを備えた1台又は複数台の情報処理装置にて構成される。そして、情報処理装置10は、
図2に示すように、入力部11、領域分割部12、確率算出部13、事例選択部14、出力部15、を備える。入力部11、領域分割部12、確率算出部13、事例選択部14、出力部15の各機能は、演算装置が記憶装置に格納された各機能を実現するためのプログラムを実行することにより実現することができる。また、情報処理装置10は、事例記憶部16、モデル記憶部17、選択事例記憶部18、を備える。事例記憶部16、モデル記憶部17、選択事例記憶部18は、記憶装置により構成される。以下、各構成について、
図2乃至
図5に示す処理の様子を示す図を参照して詳述する。なお、
図2は、情報処理装置10による全体的な処理の概要を示す図である。
【0014】
入力部11は、事前に正解ラベルが付与された訓練事例D1の集合からなるデータセットの入力を受け付けて、
図2の符号S1に示すように、訓練事例D1から複数の訓練事例D11,D12,D13の集合を生成して事例記憶部16に記憶する。このとき、入力部11は、例えば、訓練事例D1の集合から、重複ありサンプリングにより複数の訓練事例D11,D12,D13の集合を生成する。但し、入力部11は、必ずしも1つの訓練事例の集合から複数の訓練事例の集合を生成することに限定されず、予め生成された複数の訓練事例の集合を取得してもよい。また、複数の訓練事例の集合は、
図2に示す3つであることに限定されず、いかなる数であってもよい。
【0015】
続いて、入力部11は、
図2の符号S1に示すように、各訓練事例D11,D12,D13の集合をそれぞれ学習することで、複数の機械学習モデルdt1,dt2,dt3を生成し、モデル記憶部17に記憶する。ここでは、入力部11は、入力値から決定木や決定リストによって予測値を出力する機械学習モデルを生成するが、いかなる構成の機械学習モデルを生成してもよい。また、生成する機械学習モデルの数は、
図2に示す3つであることに限定されず、いかなる数であってもよい。
【0016】
なお、本実施形態では、上述したように入力部11によって入力を受け付けた訓練事例D1から、複数の機械学習モデルdt1,dt2,dt3を生成することとしているが、予め生成された複数の機械学習モデルdt1,dt2,dt3を、モデル記憶部17に記憶していてもよい。
【0017】
領域分割部12は、複数の機械学習モデルdt1,dt2,dt3それぞれにおいて、各機械学習モデルに対する入力値となる事例の入力空間を複数の領域に分割する。ここで、機械学習モデルdt1,dt2,dt3の一例を
図3に示すが、決定木からなる機械学習モデルの場合、事例の入力空間の分割領域は、決定木による予測値(予測ラベル)となり、決定木を図で表した場合における各葉ノードが相当する。例えば、
図3に示すように、機械学習モデルdt1の場合には、2つの葉ノードleaf(1,1),leaf(1,2)が分割領域となり、機械学習モデルdt2の場合には、2つの葉ノードleaf(2,1),leaf(2,2)が分割領域となり、機械学習モデルdt3の場合には、2つの葉ノードleaf(3,1),leaf(3,2)が分割領域となる。なお、機械学習モデルが決定リストからなる機械学習モデルの場合には、一連の決定リストによる条件(前件)が分割領域つまり上述した葉ノードに相当することとなる。
【0018】
また、
図4に、領域分割部12による機械学習モデルの入力空間の他の分割例を示す。
図4左図は、機械学習モデルdt1の入力空間を示しており、符号Bは決定境界を示している。そして、機械学習モデルdt1の葉ノードが3つの場合には、領域分割部12は、入力空間を3つの分割領域leaf(1,1),leaf(1,2),leaf(1,3)に分割することとなる。また、
図4右図は、機械学習モデルdt2の入力空間を示しており、符号Bは決定境界を示している。そして、機械学習モデルdt1の葉ノードが4つである場合には、領域分割部12は、入力空間を4つの分割領域leaf(2,1),leaf(2,2),leaf(2,3),leaf(2,4)に分割することとなる。このように、領域分割部12は、機械学習モデルの入力空間をいかなる数の分割領域に分割してもよい。
【0019】
さらに、領域分割部12は、上述したように各機械学習モデルにおいてそれぞれ入力空間を分割して設定した分割領域に対して、確率を付与する。例えば、領域分割部12は、上述した
図3の例では、機械学習モデルdt1の葉ノードつまり分割領域leaf(1,1)には「確率p
1,1」、葉ノードつまり分割領域leaf(1,2)には「確率p
1,2」、を付与する。同様に、機械学習モデルdt2の各分割領域leaf(2,1),leaf(2,2)には、それぞれ「確率p
2,1」,「確率p
2,2」を付与し、機械学習モデルdt3の各分割領域leaf(3,1),leaf(3,2)には、それぞれ「確率p
3,1」,「確率p
3,2」を付与する。また、領域分割部12は、上述した
図4の例では、機械学習モデルdt1の分割領域leaf(1,1)には「確率p
1,1」、分割領域leaf(1,2)には「確率p
1,2」、分割領域leaf(1,3)には「確率p
1,3」を付与する。同様に、機械学習モデルdt2の各分割領域leaf(2,1),leaf(2,2),leaf(2,3),leaf(2,4)には、それぞれ「確率p
2,1」,「確率p
2,2」,「確率p
2,3」,「確率p
2,4」を付与する。
【0020】
ここで、上述した領域分割部12による分割領域に対して付与する確率の算出例を説明する。まず、領域分割部12は、
図5の上図に示す複数の機械学習モデルdt1,dt2,dt3からなるアンサンブルモデルTを、
図5の下図のように設定する。そして、領域分割部12は、入力事例となるラベル無しデータ集合Uを用意し、アンサンブルモデルTと、各機械学習モデルdt1,dt2,dt3とに入力し、アンサンブルモデルTによる予測結果と、各機械学習モデルdt1,dt2,dt3による予測結果と、に基づいて、各機械学習モデルdt1,dt2,dt3の各分割領域に対する確率を算出して付与する。具体的に、領域分割部12は、入力事例に対するアンサンブルモデルTの予測確率が最も高いラベルを正解ラベルとみなし、入力事例に対してアンサンブルモデルTにより正解ラベルとなる予測確率と、入力事例に対して各機械学習モデルdt1,dt2,dt3により上記正解ラベルとなる分割領域つまり葉ノードにおける予測確率と、の差異に基づいて、各機械学習モデルdt1,dt2,dt3の各分割領域に対する確率を算出して付与する。つまり、アンサンブルモデルTの予測確率と、各機械学習モデルdt1,dt2,dt3の予測確率と、の差異を、分割領域である葉ノード毎に評価して、評価結果に基づいて確率を算出する。以下、さらなる具体的な処理の一例を説明する。
【0021】
まず、各機械学習モデルをdti(iはモデルの数:i=1~K)とし、各機械学習モデルの予測確率をp
dti、ラベル空間をL、入力事例となるラベル無しデータ集合U、を考える。ここでは、ラベル無しの入力事例x∈Uに対し、アンサンブルモデルTが予測するラベルをy
ens(x)とし、アンサンブルモデルTがラベルyと予測する確率をp
ens(y|x)、各機械学習モデルがラベルyと予測する確率をp
dti(y|x)、とし、それぞれ以下の数1式、数2式で表すこととする。
【数1】
【数2】
【0022】
そして、データ集合U内の入力事例で、機械学習モデルdtiの葉ノードj(leaf(i,j))に分割される事例の集合をU
i,jとし(U
i,j⊂U)、機械学習モデルdtiの葉ノードjにおける、予測確率の差異の平均diff(i,j)を、次の数3式及び数4式で定義する。
【数3】
【数4】
【0023】
そして、上記数3式におけるdiff(i,j)は、各機械学習モデルdtiの葉ノードj毎に定義され、機械学習モデルdtiの全葉ノード数をN
iとしたとき、葉ノードjの「確率p
i,j」を、数5式で定義する。
【数5】
【0024】
なお、上記では、領域分割部12が、アンサンブルモデルTと各機械学習モデルdtiとの予測確率の差異に基づいて、各葉ノードである分割領域の確率を算出する場合を例示したが、アンサンブルモデルTに替えて、他の機械学習モデルを用いてもよい。この場合、アンサンブルモデルTの替わりに用いる他の機械学習モデルは、事前に生成された所定の事例に対して予測精度の高い機械学習モデルであると望ましい。
【0025】
また、上述した領域分割部12による各分割領域の確率の算出方法は一例であって、いかなる方法により各分割領域に確率を付与してもよい。例えば、領域分割部12は、各分割領域に、予め設定された算出式による値や任意の値を付与してもよい。
【0026】
確率算出部13は、上述したように各機械学習モデルdt1,dt2,dt3の各分割領域に付与した確率に基づいて、
図2の符号S2に示すように、ラベル無しの入力事例D2を各機械学習モデルdt1,dt2,dt3に入力した場合における当該入力事例D2のサンプリング確率を算出する。このとき、確率算出部13は、各機械学習モデルdt1,dt2,dt3において入力事例D2が属する分割領域に付与された確率に基づいて、当該入力事例D2のサンプリング確率を算出する。
【0027】
ここで、入力事例が、ラベル無しの入力事例x∈Uであることとし、かかる入力事例xが、
図3に示す各機械学習モデルdt1,dt2,dt3のそれぞれの分割領域である各葉ノードleaf(1,1),leaf(2,1),leaf(3,1)に属していたとする。この場合、確率算出部13は、まず、機械学習モデルdt1,dt2,dt3毎における入力事例xのサンプリング確率p
i(x)を数6のように求める。すると、入力事例xに対する各機械学習モデルdt1,dt2,dt3におけるそれぞれの確率は、「確率p
1,1」,「確率p
2,1」,「確率p
3,1」となる。
【数6】
【0028】
そして、確率算出部13は、入力事例xに対する各機械学習モデルdt1,dt2,dt3におけるそれぞれの確率の平均値を、
図7、具体的には
図8のように算出する。
【数7】
【数8】
【0029】
さらに、確率算出部13は、上記平均値を、数9式に示すように、確率の和が1となるように正規化して、「サンプリング確率p(x)」を算出する。
【数9】
【0030】
なお、上記では、確率算出部13は、入力事例xが属する複数の分割領域にそれぞれ付与された確率を平均してサンプリング確率を算出しているが、必ずしも複数の分割領域の確率の平均を用いてサンプリング確率を算出することに限定されない。例えば、入力事例xが属する複数の分割領域にそれぞれ付与された確率に対して予め設定された基準により重みを付与して、重み付き平均でサンプリング確率を算出してもよい。また、別の例として、例えば、
図6に示すように、入力事例x1,x2がそれぞれ各機械学習モデルdt1,dt2の各分割領域に属している場合を考える。この場合、入力事例x1については、属する分割領域のうち1つの分割領域、つまり、機械学習モデルdt1の分割領域leaf(1,1)を選択して、その確率p
1,1を用いてサンプリング確率を算出してもよい。同様に、入力事例x2については、属する分割領域のうち1つの分割領域、つまり、機械学習モデルdt2の分割領域leaf(2,4)の確率p
2,4を用いてサンプリング確率を算出してもよい。このように、確率算出部13は、各入力事例について、それぞれ異なる機械学習モデルの分割領域に付与された確率を用いて、サンプリング確率を算出してもよい。但し、上記の例では、確率算出部13は、確率の和が1となるように、入力事例x1のサンプリング確率をp
1,1/(p
1,1+p
2,4)、入力事例x2のサンプリング確率をp
2,4/(p
1,1+p
2,4)、と算出してもよい。また、確率算出部13は、上述した例に限らず、入力事例のサンプリング確率を、いかなる機械学習モデルのいかなる分割領域の確率を用いて算出してもよい。
【0031】
事例選択部14は、上述したように入力事例について算出したサンプリング確率に基づいて、入力事例を選択する。例えば、事例選択部14は、サンプリング確率の値が高いほど選択される確率を高くして、かかる入力事例を選択する。そして、事例選択部14は、
図2の符号S2に示すように、選択した入力事例に対するラベルの付与を、オラクルOに問い合わせる。なお、オラクルOは、他の機械学習モデルであってもよく、人間であってもよい。そして、事例選択部14は、オラクルOによってラベルが付与された入力事例D21を選択事例記憶部18に記憶する。
【0032】
出力部15は、選択事例記憶部18に記憶されているラベルが付与された入力事例D21を、
図2の符号S3に示すように、任意のタイミングで利用者に対して出力したり、
図2の符号S4に示すように、機械学習モデルの学習用の訓練事例D1として出力してもよい。
【0033】
[動作]
次に、上述した情報処理装置10の動作を、主に
図7のフローチャートを参照して説明する。
【0034】
まず、情報処理装置10は、事前に正解ラベルが付与された訓練事例を学習して、複数の機械学習モデルdt1,dt2,dt3を生成する(ステップS11)。但し、情報処理装置10は、予め生成された複数の機械学習モデルdt1,dt2,dt3を記憶していてもよい。
【0035】
続いて、情報処理装置10は、複数の機械学習モデルdt1,dt2,dt3それぞれにおいて、各機械学習モデルに対する入力値となる事例の入力空間を複数の領域に分割して、各分割領域に確率を付与する(ステップS12)。例えば、情報処理装置10は、
図3に示す決定木からなる機械学習モデルの場合、各葉ノードに相当する各分割領域に、それぞれ確率を付与する。このとき、情報処理装置10は、
図5に示すように、複数の機械学習モデルdt1,dt2,dt3からなるアンサンブルモデルTを設定し、アンサンブルモデルTの予測と、各機械学習モデルdt1,dt2,dt3の予測の差異を、分割領域である葉ノード毎に評価して、評価結果に基づいて算出した確率を付与する。但し、情報処理装置10は、複数の機械学習モデルdt1,dt2,dt3の分割領域に対して、いかなる方法で確率を付与してもよい。
【0036】
続いて、情報処理装置10は、各機械学習モデルdt1,dt2,dt3の各分割領域に付与した確率に基づいて、ラベル無しの入力事例を各機械学習モデルdt1,dt2,dt3に入力した場合における、当該入力事例のサンプリング確率を算出する(ステップS13)。このとき、情報処理装置10は、各機械学習モデルdt1,dt2,dt3において入力事例が属する分割領域に付与された確率に基づいて、当該入力事例のサンプリング確率を算出する。例えば、情報処理装置10は、入力事例が属する各機械学習モデルdt1,dt2,dt3の各分割領域に付与された確率の平均値を、サンプリング確率として算出する。但し、情報処理装置10は、いかなる方法でサンプリング確率を算出してもよい。
【0037】
続いて、情報処理装置10は、入力事例について算出したサンプリング確率に基づいて、入力事例を選択する(ステップS14)。例えば、情報処理装置10は、サンプリング確率の値が高いほど選択される確率を高くして、かかる入力事例を選択する。そして、情報処理装置10は、選択した入力事例に対するラベルの付与をオラクルOに問い合わせ、ラベルが付与された入力事例を選択事例記憶部18に記憶する(ステップS15)。
【0038】
その後、情報処理装置10は、選択されてラベルが付与された入力事例を、任意のタイミングで利用者に対して出力したり、機械学習モデルの学習用の訓練事例D1として出力する。
【0039】
以上のように、本実施形態における情報処理装置10では、複数の機械学習モデルdt1,dt2,dt3それぞれに複数の分割空間を設定して、各分割空間に確率を付与し、さらに、各分割空間に付与された確率を用いて、所定の事例に対するサンプリング確率を算出している。このため、かかるサンプリング確率に基づいて事例を選択することにより、選択された事例が機械学習モデルの入力空間において偏ることを抑制でき、後に訓練事例として利用した場合に機械学習モデルの精度の向上を図ることができる
【0040】
特に、本実施形態では、アンサンブルモデルのような他の機械学習モデルの予測確率と、複数の機械学習モデルとの予測確率と、の差異が大きい分割領域ほど確率が高く設定され、かかる分割領域に属する入力事例のサンプリング確率が高く算出されることとなる。このため、機械学習モデルに対して訓練効率のよい事例を選択する確率が高まり、さらなる機械学習モデルの精度の向上を図ることができる。
【0041】
<実施形態2>
次に、本開示の第2の実施形態を、
図8乃至
図9を参照して説明する。
図8乃至
図9は、実施形態2における情報処理装置の構成を示すブロック図である。なお、本実施形態では、上述した実施形態で説明した情報処理装置の構成の概略を示している。
【0042】
まず、
図8を参照して、本実施形態における情報処理装置100のハードウェア構成を説明する。情報処理装置100は、一般的な情報処理装置にて構成されており、一例として、以下のようなハードウェア構成を装備している。
・CPU(Central Processing Unit)101(演算装置)
・ROM(Read Only Memory)102(記憶装置)
・RAM(Random Access Memory)103(記憶装置)
・RAM103にロードされるプログラム群104
・プログラム群104を格納する記憶装置105
・情報処理装置外部の記憶媒体110の読み書きを行うドライブ装置106
・情報処理装置外部の通信ネットワーク111と接続する通信インタフェース107
・データの入出力を行う入出力インタフェース108
・各構成要素を接続するバス109
【0043】
なお、
図8は、情報処理装置100である情報処理装置のハードウェア構成の一例を示しており、情報処理装置のハードウェア構成は上述した場合に限定されない。例えば、情報処理装置は、ドライブ装置106を有さないなど、上述した構成の一部から構成されてもよい。また、情報処理装置は、上述したCPUの代わりに、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、TPU(TensorProcessingUnit)、量子プロセッサ、マイクロコントローラ、又は、これらの組み合わせなどを用いることができる。
【0044】
そして、情報処理装置100は、プログラム群104をCPU101が取得して当該CPU101が実行することで、
図9に示す領域分割部121と確率算出部122と選択部123とを構築して装備することができる。なお、プログラム群104は、例えば、予め記憶装置105やROM102に格納されており、必要に応じてCPU101がRAM103にロードして実行する。また、プログラム群104は、通信ネットワーク111を介してCPU101に供給されてもよいし、予め記憶媒体110に格納されており、ドライブ装置106が該プログラムを読み出してCPU101に供給してもよい。但し、上述した領域分割部121と確率算出部122と選択部123とは、かかる手段を実現させるための専用の電子回路で構築されるものであってもよい。
【0045】
上記領域分割部121は、複数の機械学習モデルにおける事例の入力空間をそれぞれ複数の領域に分割し、各分割領域に対して確率を付与する。例えば、予測部121は、入力事例に対する、他の機械学習モデルの予測結果と、複数の機械学習モデル毎の予測結果と、の差異に基づいて各分割領域に確率を付与し、一例として、差異が大きい分割領域ほど大きな値の確率を付与する。
【0046】
上記確率算出部122は、分割領域に付与された確率に基づいて、分割領域に属する所定の事例のサンプリング確率を算出する。例えば、確率算出部122は、異なる機械学習モデル毎の分割領域に付与された確率をそれぞれ用いて、所定の事例のサンプリング確率を算出する。
【0047】
上記事例選択部123は、所定の事例のサンプリング確率に基づいて、所定の事例を選択する。その後、選択された事例には、ラベルが付与されて出力されたり、さらなる訓練事例として使用されうる。
【0048】
本開示は、以上のように構成されることにより、複数の機械学習モデルそれぞれに複数の分割空間を設定して、各分割空間に確率を付与し、さらに、各分割空間に付与された確率を用いて、所定の事例に対するサンプリング確率を算出している。このため、かかるサンプリング確率に基づいて事例を選択することにより、選択された事例が機械学習モデルの入力空間において偏ることを抑制でき、後に訓練事例として利用した場合に機械学習モデルの精度の向上を図ることができる。
【0049】
なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
【0050】
以上、上記実施形態等を参照して本開示を説明したが、本開示は、上述した実施形態に限定されるものではない。本開示の構成や詳細には、本開示の範囲内で当業者が理解しうる様々な変更をすることができる。また、上述した領域分割部121と確率算出部122と選択部123との機能のうちの少なくとも一以上の機能は、ネットワーク上のいかなる場所に設置され接続された情報処理装置で実行されてもよく、つまり、いわゆるクラウドコンピューティングで実行されてもよい。
【0051】
<付記>
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本開示における情報処理装置、情報処理方法、プログラムの構成の概略を説明する。但し、本開示は、以下の構成に限定されない。
(付記1)
複数の機械学習モデルにおける事例の入力空間をそれぞれ複数の領域に分割し、各分割領域に対して確率を付与する領域分割部と、
前記分割領域に付与された前記確率に基づいて、当該分割領域に属する所定の事例のサンプリング確率を算出する確率算出部と、
前記所定の事例の前記サンプリング確率に基づいて、当該所定の事例を選択する事例選択部と、
を備えた情報処理装置。
(付記2)
付記1に記載の情報処理装置であって、
前記確率算出部は、異なる前記機械学習モデル毎に設定された前記分割領域に付与された前記確率に基づいて、前記所定の事例の前記サンプリング確率を算出する、
情報処理装置。
(付記3)
付記1に記載の情報処理装置であって、
前記確率算出部は、同一の前記所定の事例が属する、異なる前記機械学習モデル毎に設定された複数の前記分割領域に付与された前記確率に基づいて、前記所定の事例の前記サンプリング確率を算出する、
情報処理装置。
(付記4)
付記1に記載の情報処理装置であって、
前記領域分割部は、入力事例に対する、複数の前記機械学習モデルとは異なる他の機械学習モデルの予測結果と、複数の前記機械学習モデル毎の予測結果と、に基づいて、複数の前記機械学習モデルの前記分割領域に前記確率を付与する、
情報処理装置。
(付記5)
付記4に記載の情報処理装置であって、
前記領域分割部は、前記入力事例に対する、前記他の機械学習モデルに設定された前記分割領域における予測確率と、複数の前記機械学習モデル毎に設定された前記分割領域における予測確率と、の差異に基づいて、複数の前記機械学習モデルの前記分割領域に前記確率を付与する、
情報処理装置。
(付記6)
付記5に記載の情報処理装置であって、
前記領域分割部は、前記差異が大きくなるほど、複数の前記機械学習モデルの前記分割領域に付与する前記確率の値が大きくなるよう設定する、
情報処理装置。
(付記7)
付記4に記載の情報処理装置であって、
前記領域分割部は、前記入力事例に対する、複数の前記機械学習モデルに基づいて生成された新たな機械学習モデルである前記他の機械学習モデルの予測結果と、複数の前記機械学習モデル毎の予測結果と、に基づいて、複数の前記機械学習モデルの前記分割領域に前記確率を付与する、
情報処理装置。
(付記8)
付記1に記載の情報処理装置であって、
複数の前記機械学習モデルは、決定木もしくは決定リストである、
情報処理装置。
(付記9)
複数の機械学習モデルにおける事例の入力空間をそれぞれ複数の領域に分割し、各分割領域に対して確率を付与し、
前記分割領域に付与された前記確率に基づいて、当該分割領域に属する所定の事例のサンプリング確率を算出し、
前記所定の事例の前記サンプリング確率に基づいて、当該所定の事例を選択する、
情報処理方法。
(付記10)
複数の機械学習モデルにおける事例の入力空間をそれぞれ複数の領域に分割し、各分割領域に対して確率を付与し、
前記分割領域に付与された前記確率に基づいて、当該分割領域に属する所定の事例のサンプリング確率を算出し、
前記所定の事例の前記サンプリング確率に基づいて、当該所定の事例を選択する、
処理をコンピュータに実行させるためのプログラム。
【符号の説明】
【0052】
10 情報処理装置
11 入力部
12 領域分割部
13 確率算出部
14 事例選択部
15 出力部
16 事例記憶部
17 モデル記憶部
18 選択事例記憶部
100 情報処理装置
101 CPU
102 ROM
103 RAM
104 プログラム群
105 記憶装置
106 ドライブ装置
107 通信インタフェース
108 入出力インタフェース
109 バス
110 記憶媒体
111 通信ネットワーク
121 領域分割部
122 確率算出部
123 選択部