IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

特許7464153機械学習装置、機械学習方法、及びプログラム
<>
  • 特許-機械学習装置、機械学習方法、及びプログラム 図1
  • 特許-機械学習装置、機械学習方法、及びプログラム 図2
  • 特許-機械学習装置、機械学習方法、及びプログラム 図3
  • 特許-機械学習装置、機械学習方法、及びプログラム 図4
  • 特許-機械学習装置、機械学習方法、及びプログラム 図5
  • 特許-機械学習装置、機械学習方法、及びプログラム 図6
  • 特許-機械学習装置、機械学習方法、及びプログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-01
(45)【発行日】2024-04-09
(54)【発明の名称】機械学習装置、機械学習方法、及びプログラム
(51)【国際特許分類】
   G06N 20/00 20190101AFI20240402BHJP
   G06F 21/60 20130101ALI20240402BHJP
【FI】
G06N20/00
G06F21/60
【請求項の数】 10
(21)【出願番号】P 2022580884
(86)(22)【出願日】2020-07-03
(65)【公表番号】
(43)【公表日】2023-07-20
(86)【国際出願番号】 JP2020026187
(87)【国際公開番号】W WO2022003949
(87)【国際公開日】2022-01-06
【審査請求日】2022-12-27
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100103894
【弁理士】
【氏名又は名称】家入 健
(72)【発明者】
【氏名】寺西 勇
【審査官】福西 章人
(56)【参考文献】
【文献】米国特許第10225277(US,B1)
【文献】SHEJWALKAR, Virat et al.,Reconciling Utility and Membership Privacy via Knowledge Distillation,arXiv [online],2019年06月15日,pp.1-15,インターネット:<URL:https://arxiv.org/pdf/1906.06589v1.pdf>
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
G06F 21/00-21/88
(57)【特許請求の範囲】
【請求項1】
訓練データを用いて訓練された機械学習モデルであるn(nは2以上の整数)個の推論器と、
入力データを分類して、出力データを出力する分類器と、を備え、
前記分類器の出力データが第1の値である場合の入力データに基づいて、前記n個の推論器のうちの第1の推論器が推論を行い、
前記分類器の出力データが第1の値である場合の入力データを前記訓練データとして用いて、前記第1の推論器とは異なる前記推論器に対して訓練が行われている機械学習装置。
【請求項2】
前記分類器が前記入力データに関して確定的(deterministic)な出力データを出力する請求項1に記載の機械学習装置。
【請求項3】
前記分類器が入力データをn個に分類する分類器で有り、
前記n個の分類結果がほぼ同じ確率で出現する請求項1、又は2に記載の機械学習装置。
【請求項4】
前記推論器が、前記複数の推論器の間で共通のパラメータを有する共通モデルを有しており、
前記分類器の出力データが第1の値である場合の入力データを前記訓練データとして用いて、前記共通モデルが訓練されている請求項1~3のいずれか1項に記載の機械学習装置。
【請求項5】
訓練データを用いて訓練された機械学習モデルであるn(nは2以上の整数)個の推論器と、
入力データを分類して、出力データを出力する分類器と、を備えた機械学習装置における機械学習方法であって、
前記分類器の出力データが第1の値である場合の入力データに基づいて、前記n個の推論器のうちの第1の推論器が推論を行い、
前記分類器の出力データが第1の値である場合の入力データを前記訓練データとして用いて、前記第1の推論器とは異なる前記推論器に対して訓練が行われている機械学習方法。
【請求項6】
前記分類器が前記入力データに関して確定的(deterministic)な出力データを出力する請求項5に記載の機械学習方法。
【請求項7】
前記分類器が入力データをn個に分類する分類器で有り、
前記n個の分類結果がほぼ同じ確率で出現する請求項5、又は6に記載の機械学習方法。
【請求項8】
コンピュータに対して機械学習方法を実行させるためのプログラムであって、
前記コンピュータは、
訓練データを用いて訓練された機械学習モデルであるn(nは2以上の整数)個の推論器と、
入力データを分類して、出力データを出力する分類器と、を備え
前記分類器の出力データが第1の値である場合の入力データに基づいて、前記n個の推論器のうちの第1の推論器が推論を行い、
前記分類器の出力データが第1の値である場合の入力データを前記訓練データとして用いて、前記第1の推論器とは異なる前記推論器に対して訓練が行われているプログラム
【請求項9】
前記分類器が前記入力データに関して確定的(deterministic)な出力データを出力する請求項8に記載のプログラム
【請求項10】
前記分類器が入力データをn個に分類する分類器で有り、
前記n個の分類結果がほぼ同じ確率で出現する請求項8、又は9に記載のプログラム
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、機械学習に関する。
【背景技術】
【0002】
非特許文献1には、メンバシップ推論(Membership inference)攻撃(以下、MI攻撃ともいう)に対する耐性を有する機械学習方法が開示されている。
【先行技術文献】
【非特許文献】
【0003】
【文献】Machine Learning with Membership Privacy using Adversarial Regularization. Milad Nasr, Reza Shokri, Amir Houmansadr https://arxiv.org/pdf/1807.05852.pdf
【発明の概要】
【発明が解決しようとする課題】
【0004】
機械学習では、学習に用いられるデータ(訓練データともいう)が顧客情報や企業秘密などの秘密情報を含んでいる場合がある。MI攻撃により、機械学習の学習済みパラメータから学習に用いた秘密情報が漏洩してしまうおそれがある。例えば、学習済みパラメータを不正に入手した攻撃者が、学習データを推測してしまうおそれがある。あるいは、学習済みパラメータが漏洩していない場合でも、攻撃者が推論アルゴリズムに何度もアクセスすることで、学習済みパラメータが予想できてしまう。そして、予想された学習済みパラメータから学習要データが予測されてしまうことがある。
【0005】
非特許文献1では、精度と攻撃耐性がトレードオフとなっている。具体的には、精度と攻撃耐性のトレードオフ度合いを決めるパラメータが設定されている。したがって、精度と攻撃耐性の両方を向上することが困難であるという問題点がある。
【0006】
本開示の目的は、MI攻撃に対する耐性が高く、かつ推論精度の高い機械学習装置、機械学習方法、及び記録媒体を提供することである。
【課題を解決するための手段】
【0007】
本開示にかかる機械学習装置は、訓練データを用いて訓練された機械学習モデルであるn(nは2以上の整数)個の推論器と、入力データを分類して、出力データを出力する分類器と、を備え、前記分類器の出力データが第1の値である場合の入力データに基づいて、前記n個の推論器のうちの第1の推論器が推論を行い、前記分類器の出力データが第1の値である場合の入力データを前記訓練データとして用いて、前記第1の推論器とは異なる前記推論器に対して訓練が行われている。
【0008】
本開示にかかる機械学習方法は、訓練データを用いて訓練された機械学習モデルであるn(nは2以上の整数)個の推論器と、入力データを分類して、出力データを出力する分類器と、を備えた機械学習装置における機械学習方法であって、前記分類器の出力データが第1の値である場合の入力データに基づいて、前記n個の推論器のうちの第1の推論器が推論を行い、前記分類器の出力データが第1の値である場合の入力データを前記訓練データとして用いて、前記第1の推論器とは異なる前記推論器に対して訓練が行われている。
【0009】
本開示にかかるコンピュータ可読媒体は、コンピュータに対して機械学習方法を実行させるためのプログラムが格納された非一時的なコンピュータ可読媒体であって、前記コンピュータは、訓練データを用いて訓練された機械学習モデルであるn(nは2以上の整数)個の推論器と、入力データを分類して、出力データを出力する分類器と、を備え、前記分類器の出力データが第1の値である場合の入力データに基づいて、前記n個の推論器のうちの第1の推論器が推論を行い、前記分類器の出力データが第1の値である場合の入力データを前記訓練データとして用いて、前記第1の推論器とは異なる前記推論器に対して訓練が行われている。
【発明の効果】
【0010】
本開示によれば、MI攻撃に対する耐性が高く、かつ推論精度が高い機械学習システム、機械学習方法、及びプログラムを提供できる。
【図面の簡単な説明】
【0011】
図1】本開示にかかる機械学習装置を示すブロック図である。
図2】本実施の形態1にかかる機械学習方法の訓練時のフローを説明するための図である。
図3】本実施の形態1にかかる機械学習方法の推論時のフローを説明するための図である。
図4】本実施の形態2にかかる機械学習方法の訓練時のフローを説明するための図である。
図5】本実施の形態2にかかる機械学習方法の推論時のフローを説明するための図である。
図6】本実施の形態3にかかる機械学習装置を示すブロック図である。
図7】機械学習装置のハードウェア構成を示す図である。
【発明を実施するための形態】
【0012】
本実施の形態にかかる機械学習装置について、図1を参照して説明する。図1は機械学習装置100の構成を示すブロック図である。機械学習装置100は、n(nは2以上の整数)個の推論器101と、分類器102とを備えている。
【0013】
n個の推論器101は、訓練データを用いて訓練された機械学習モデルである。分類器102は、入力データを分類して、出力データを出力する。分類器の出力データが第1の値である場合の入力データに基づいて、n個の推論器101のうちの第1の推論器101が推論を行う。分類器の出力データが第1の値である場合の入力データを訓練データとして用いて、第1の推論器101とは異なる推論器101に対して訓練が行われている。
【0014】
この構成によれば、MI攻撃に対する耐性が高く、かつ推論精度の高い機械学習装置を実現することができる。
【0015】
実施の形態1
本実施の形態にかかる機械学習装置、及び機械学習方法について、図2図3を用いて説明する。図2図3は、本実施の形態にかかる機械学習方法の処理を説明するための図である。図2は、訓練時のフローを示し、図3は、推論時のフローを示している。本実施の形態では、図1に示す推論器101の数が2個となっている。
【0016】
ここで、2つの推論器を推論器F,推論器Fとする。推論器Fと推論器Fは、機械学習モデルである。推論器Fと推論器Fは、同じモデルであってもよく異なるモデルであってもよい。例えば、推論器Fと推論器FがDNN等のニューラルネットワークモデルである場合、層数、各層のノード数が同じであってもよい。推論器F,推論器Fは、畳み込みニューラルネットワーク(CNN)などを用いた推論アルゴリズムである。推論器F,推論器Fのパラメータは、CNNの畳み込み層、プーリング層、及び全結合層の重み又はバイアス値に対応している。
【0017】
まず、図2を用いて、訓練時のフローを説明する。機械学習により、推論器F,Fのパラメータがチューニングされる。ここでは、推論器F,Fに対して教師有り学習が行われている。訓練データである入力データxに対する正解ラベル(教師信号、教師データともいう)をラベルyとする。訓練データとなる入力データxに対して、ラベルyが対応付けられている。
【0018】
分類器Wは入力データを2つの訓練データM、及び訓練データMに分類する。具体的には、分類器Wは、入力データxを分類して、1又は2を出力する。分類器Wは乱数を用いない出力装置であることが好ましい。つまり、分類器Wは入力データxについて確定的な出力データを出力する。従って、分類器Wに同一の入力データが入力された場合、出力データは必ず一致する。入力データxに対する出力データが確定的となる。
【0019】
訓練時において、機械学習装置は、訓練データ集合Tを入力として受け取る。訓練データ集合Tは、複数の入力データxを含んでいる。それぞれの入力データxが訓練データとなる。また、教師有り学習の場合、それぞれの入力データにラベルyが対応付けられている。
【0020】
まず、分類器Wに入力データxが入力される(S201)。そして、機械学習装置は、Wの値が1であるか否かを判定する(S202)。
【0021】
機械学習装置は、W=2となる場合の入力データxを推論器Fの訓練データMとする(S203)。機械学習装置は、W=1となる場合の入力データxを推論器Fの訓練データMとする(S204)。i=1、2に対して、分類器Wは、訓練データ集合Tを式(1)のように分類する。
【0022】
【数1】
【0023】
そして、推論器Fを訓練データMで訓練する。つまり、推論器Fが訓練データMで訓練される(S205)。推論器Fが訓練データMで訓練される(S206)。つまり、訓練データMを用いて、推論器Fに対して機械学習が施される。訓練データMを用いて、推論器Fに対して機械学習が施される。換言すると、訓練データMは推論器Fの訓練には用いられない。同様に、訓練データMは推論器Fの訓練には用いられない。
【0024】
訓練時においては、ラベルyを用いて、推論器F、Fに教師有り学習が施される。推論器F,Fの推論結果がラベルyに一致するように、パラメータが最適化されていく。
【0025】
次に、推論時のフローについて説明する。図2に示すフローに沿って訓練された推論器F,又は推論器Fが推論に用いられる。
【0026】
まず、分類器Wに入力データxが入力される(S301)。そして、機械学習装置は、Wの値が1であるか否かを判定する(S302)。W=1となる場合、推論器Fが推論を行う(S303)。つまり、推論器Fが推論結果を出力するために、入力データxが推論器Fに入力される。W=2となる場合、推論器Fが推論を行う(S304)。推論器Fが推論結果を出力するために、入力データxが推論器Fに入力される。
【0027】
推論器FはW=1となる場合の入力データxに基づいて、推論を行わない。推論器FはW=2となる場合の入力データxに基づいて、推論を行わない。このように、推論時には、機械学習装置が入力データxを受け取り、Fw(x)(x)を返す。すなわち、W(x)=iであるなら、機械学習装置がF(x)を推論結果として出力する。
【0028】
以下、本実施の形態にかかる機械学習装置の効果について説明する。機械学習装置では、訓練に使用したデータと使用していないデータとで、推論器の出力の傾向が異なる。攻撃者は、この推論器の出力の傾向の違いを利用して、機械学習モデルに対して攻撃を行っている。例えば、訓練に使用された入力データについては、訓練に使用されていない入力データと比較して、推論器の推論精度が非常に高くなることが想定される。よって、攻撃者は、推論精度を比較することで、訓練データを推測することが可能となる。
【0029】
これに対して、本実施の形態では、訓練時と推論時とで使用される推論器が異なっている。つまり、推論器Fの訓練に使った入力データxに関して、推論時にF(x)が出力されることはない。また、推論器Fの訓練に使った入力データxに関し、推論時にF(x)が出力されることはない。
【0030】
よって、MI攻撃に対する耐性を向上することができる。つまり、攻撃者が学習済みパラメータを不正に入手した場合でも、訓練データを推測することができない。また、非特許文献1のように、MI攻撃耐性と、推論精度がトレードオフの関係となっていないため、推論精度を向上することができる。
【0031】
また、分類器Wは、訓練データ集合Tに対して、1と2とをほぼ同じ確率で出力することが好ましい。つまり、分類器Wは、50%の確率で1又は2を均等に出力する。このようにすることで、推論器F,及び推論器Fの訓練データの数をほぼ同数とすることができる。よって、いずれの推論器においても、高い推論精度を実現することができる。
【0032】
実施の形態2
本実施の形態では、図1の推論器101の数がn(nは2以上の整数)個となっている。つまり、実施の形態2では、推論器の数がn個に一般化されている。ここでは、nを3以上として説明する。推論器の数以外の基本的な構成及び処理は、実施の形態1と同様であるため、説明を省略する。
【0033】
本実施の形態にかかる機械学習装置における処理について説明する。図4、及び図5は、本実施の形態にかかる機械学習方法を説明するための図である。図4は、訓練時のフローを示し、図5は、推論時のフローを示している。
【0034】
上記の通り、本実施の形態では、機械学習装置が、n個の推論器を有している。推論器をF、・・・Fとして示す。なお、本実施の形態において、iは1以上、n以下の任意の整数と定義される。
【0035】
まず、図4を用いて、訓練時のフローを説明する。機械学習により、推論器F~Fのパラメータがチューニングされる。ここでは、推論器F~Fに対して教師有り学習が行われている。訓練データである入力データxに対する正解ラベル(教師信号、教師データともいう)をラベルyとする。訓練データとなる入力データxに対して、ラベルyが対応付けられている。
【0036】
分類器Wは入力データxを訓練データM~訓練データMに分類する。訓練データMは推論器Fの訓練に利用され、訓練データMは推論器Fの訓練に利用される。具体的には、分類器Wは、入力データxを分類して、1~nの内の任意の整数を出力する。つまり、分類器Wは、入力データxに応じて、n以下の整数を出力する。
【0037】
分類器Wは乱数を用いない出力装置であることが好ましい。つまり、分類器Wは入力データxについて確定的な出力データを出力する。分類器Wは、1~nのうちの整数を均等に出力することが好ましい。分類器Wnにおいて、n個の分類結果がほぼ同じ確率で出現する。
【0038】
訓練時において、機械学習装置は、訓練データ集合Tを入力として受け取る。訓練データ集合Tは、複数の入力データxを含んでいる。まず、分類器Wに入力データxが入力される(S401)。そして、機械学習装置は、Wの値がiであるか否かを判定する(S402)。ここで、iは1以上n以下の任意の整数である。つまり、機械学習装置は、Wの出力データを求める。
【0039】
機械学習装置は、Wの出力データに基づいて、入力データxを訓練データM~Mに分類する。機械学習装置は、W=1となる場合の入力データxを推論器F~Fの訓練データM~Mとする(S403)。機械学習装置は、W=nとなる場合の入力データxを推論器F~Fn-1の訓練データM~Mn-1とする(S404)。i=1~nに対して、分類器Wは、訓練データ集合Tを式(2)のように分類する。
【0040】
【数2】
【0041】
そして、推論器FをMで訓練する。つまり、W=1の場合、推論器F~Fが訓練データM~Mで訓練される(S405)。W=nの場合、推論器F~Fn-1が訓練データM1~Mn-1で訓練される(S406)。一般化すると、W=iの場合の入力データxは、推論器Fの訓練には用いられない。
【0042】
次に、推論時のフローについて説明する。図5に示すフローに沿って訓練された推論器F~推論器Fが推論に用いられる。
【0043】
まず、分類器Wに入力データxが入力される(S501)。そして、機械学習装置は、Wの値がiであるか否かを判定する(S502)。W=1となる場合、推論器Fが推論を行う(S503)。つまり、推論器Fが推論結果を出力するために、入力データxが推論器Fに入力される。W=nとなる場合、推論器Fが推論を行う(S304)。推論器Fが推論結果を出力するために、入力データxが推論器Fに入力される。
【0044】
一般化すると、W=iの場合、推論器Fが推論を行う。換言すると、推論器FはW=iとならない場合の入力データxに基づいて、推論を行わない。このように、推論時には、機械学習装置が入力データxを受け取り、Fw(x)(x)を返す。すなわち、W(x)=iであるなら、機械学習装置がF(x)を推論結果として出力する。分類器Wの出力データがiである場合の入力データに基づいて、n個の推論器F1~Fnのうち推論器Fiが推論を行う。分類器Wの出力データがiである場合の入力データxを訓練データとして用いて、推論器Fiとは異なる推論器に対して訓練が行われている。
【0045】
よって、実施の形態1と同様に、MI攻撃に対する耐性を向上することができる。さらに、本実施の形態では、推論器の訓練データを増やすことができる。つまり、訓練データ集合Tの元の数をm(mは2以上の整数)とすると、(m×(n―1)/n)個の訓練データを用いて推論器Fを訓練することができる。
【0046】
一般に訓練データの数が多いほど、推論器の推論精度は改善されていく。よって、実施の形態1に比べて推論精度を向上することができる。また、分類器Wは、1~nの整数をほぼ同じ確率で出力することが好ましい。つまり、分類器Wは1~nの整数をそれぞれ確率(1/n)で出力する。このようにすることで、訓練データの偏りを抑制することができるため、全ての推論器の推論精度を向上することができる。
【0047】
実施の形態3
実施の形態3にかかる機械学習装置100について、図6を用いて説明する。図6は、機械学習装置100の構成を示すブロック図である。図6では、複数の推論器101を、推論器F1.G、F2.G,…, Fn.Gとして示している。なお、nは2以上の整数である。
【0048】
本実施の形態では、推論器101は、複数の推論器101の間で共通のパラメータを有する共通モデルGを有している。さらに、推論器101は、複数の推論器101の間で非共通のパラメータを有する非共通モデルF1、F2,…, Fnを有している。1番目の推論器101は、共通モデルGと非共通モデルF1から構成されている。n番目の推論器101は、共通モデルGと非共通モデルFnから構成されている。
【0049】
推論器101が複数のレイヤーを有するニューラルネットモデルである場合、共通モデルGは、ニューラルネットの一部のレイヤーを含んでいる。例えば、共通モデルGは、ニューラルネットの最初の1又は2以上のレイヤーであり、共通モデルGの後段に非共通モデルF1、F2,…, Fnが配置される。複数の推論器101において、共通モデルGは、互いにレイヤー構造が同じで有り、同じパラメータを有している。非共通モデルF1、F2,…, Fnは互いに異なるパラメータを有している。共通モデルG以外の内容については、実施の形態1、2と同様であるため説明を省略する。例えば、分類器Wは、実施の形態2と同様である。
【0050】
共通モデルGは訓練時において同じパラメータを有するように学習される。非共通モデルF1、F2,…, Fnは訓練時において異なるパラメータを有するように学習される。訓練時において、i=1~nに対して、分類器Wは、訓練データ集合Tを上記の式(2)のように分類する。
【0051】
訓練データM1を用いて、推論器F1.Gが訓練される。ここでは、F1のパラメータと共通モデルGのパラメータが最適化される。つぎに、訓練データM2を用いて、推論器F1.Gが訓練される。ここでは、F1のパラメータのパラメータのみが最適化される。つまり、共通モデルGのパラメータは、訓練データM1を用いた訓練時に決定されるので、共通モデルGのパラメータは変化しない。
【0052】
一般化すると、i=2,・・・nに対して、推論器Fi.Gを訓練データMiで訓練する。ここでは、共通モデルGのパラメータは固定して、非共通モデルFiのパラメータのみを訓練する。
【0053】
なお、共通モデルGの訓練は、推論器F1・Gの訓練時に限定されるものではない。任意の一つの推論器101の訓練時に、共通モデルGを訓練されていればよい。共通モデルGは、訓練データMiを用いて訓練される。例えば、推論器Fi.Gが最初に訓練される場合、推論器Fi.Gの訓練時に、共通モデルGのパラメータが決定する。
【0054】
推論時は、機械学習装置100が入力データxを受け取り、Fw(x) (G(x))を返す。つまり、W=iの場合、機械学習装置100は、Fi(G(x))を出力する。このようにすることで、複数の推論器101の一部のパラメータを共通化することができる。これにより、効率良く訓練することが可能となる。
【0055】
上記の実施形態において、機械学習装置はそれぞれコンピュータプログラムで実現可能である。つまり、推論器、及び分類器はそれぞれコンピュータプログラムで実現可能である。また、n個の推論器、及び分類器は、物理的に単一な装置となっていなくてもよく、複数のコンピュータに分散されていてもよい。
【0056】
次に、機械学習装置のハードウェア構成について説明する。図7は、機械学習装置600のハードウェア構成の一例を示すブロック図である。図7に示すように、機械学習装置600は例えば、少なくとも一つのメモリ601、少なくとも一つのプロセッサ602,及びネットワークインタフェース603を含む。
【0057】
ネットワークインタフェース603は、有線又は無線のネットワークを介して他の装置と通信するために使用される。ネットワークインタフェース603は、例えば、ネットワークインタフェースカード(NIC)を含んでもよい。機械学習装置600は、ネットワークインタフェース603を介して、データの送受信を行う。機械学習装置600は、ネットワークインタフェースを介して、入力データxを取得してもよい。
【0058】
メモリ601は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ601は、プロセッサ602から離れて配置されたストレージを含んでもよい。この場合、プロセッサ602は、図示されていない入出力インタフェースを介してメモリ601にアクセスしてもよい。
【0059】
メモリ601は、プロセッサ602により実行される、1以上の命令を含むソフトウェア(コンピュータプログラム)などを格納するために使用される。メモリ601は、機械学習モデルである推論器F~Fを格納していてもよい。メモリ601は、分類器Wを格納していてもよい。
【0060】
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
【0061】
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
【符号の説明】
【0062】
100 機械学習装置
101 推論器
102 分類器
600 機械学習装置
601 メモリ
602 プロセッサ
603 ネットワークインタフェース
図1
図2
図3
図4
図5
図6
図7