IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 京セラ株式会社の特許一覧 ▶ 独立行政法人理化学研究所の特許一覧

<>
  • 特開-学習装置、および分類装置 図1
  • 特開-学習装置、および分類装置 図2
  • 特開-学習装置、および分類装置 図3
  • 特開-学習装置、および分類装置 図4
  • 特開-学習装置、および分類装置 図5
  • 特開-学習装置、および分類装置 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024119663
(43)【公開日】2024-09-03
(54)【発明の名称】学習装置、および分類装置
(51)【国際特許分類】
   G06N 20/00 20190101AFI20240827BHJP
【FI】
G06N20/00 160
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2023026727
(22)【出願日】2023-02-22
(71)【出願人】
【識別番号】000006633
【氏名又は名称】京セラ株式会社
(71)【出願人】
【識別番号】503359821
【氏名又は名称】国立研究開発法人理化学研究所
(74)【代理人】
【識別番号】110000338
【氏名又は名称】弁理士法人 HARAKENZO WORLD PATENT & TRADEMARK
(72)【発明者】
【氏名】喜多野 広貴
(72)【発明者】
【氏名】村本 陽介
(72)【発明者】
【氏名】杉山 将
(57)【要約】
【課題】閾値を探索するための計算負荷を低減する。
【解決手段】学習装置(10)は、正データ(51)と未知データ(52)とを含む学習用データ(50)を入力として、学習用データ(50)を正例と負例とに分類するとともにAUCを最大化するように学習された学習済分類モデル(102)を生成する第1学習部(11)を備え、第1学習部(11)は正例および負例に振り分けるベース閾値の絶対値が小さくなるように学習させる。
【選択図】図1
【特許請求の範囲】
【請求項1】
分類対象データを正例または負例に分類する学習済分類モデルを生成する学習装置であって、
前記正例を示す複数の正データと、前記正例であるか、または前記負例であるかが未知の複数の未知データとを含む学習用データを入力として、該学習用データを前記正例と前記負例とに分類するとともにAUCを最大化するように学習された前記学習済分類モデルを生成する第1学習部を備え、
前記第1学習部は、前記正例および前記負例に振り分けるベース閾値の絶対値が小さくなるように学習させる、学習装置。
【請求項2】
前記第1学習部は、前記ベース閾値の絶対値が小さくなる補正項を有するAUC損失式に基づいて、学習前分類モデルに学習させる、請求項1に記載の学習装置。
【請求項3】
前記補正項は、
入力される前記学習用データについて、前記学習前分類モデルが正例に分類する割合と前記未知データ中の正クラス事前確率との差が大きくなるほど増加する第1項と、
入力される前記学習用データについて、前記学習前分類モデルが負例に分類する割合と前記未知データ中の負クラス事前確率との差が大きくなるほど増加する第2項と、の和で示される請求項2に記載の学習装置。
【請求項4】
前記補正項は、入力される前記学習用データについて、
前記未知データ中の正クラス事前確率と前記未知データ中の負クラス事前確率との比と、
前記学習前分類モデルが正例に分類する割合と負例に分類する割合との比と、の差で示される、請求項2に記載の学習装置。
【請求項5】
前記補正項は、入力される前記学習用データについて、
前記未知データ中の正クラス事前確率と前記学習前分類モデルが負例に分類する割合との積と、
前記未知データ中の負クラス事前確率と前記学習前分類モデルが正例に分類する割合との積と、との差で示される、請求項2に記載の学習装置。
【請求項6】
前記学習用データを入力として、該学習用データを前記正例と前記負例とに分類するとともに分類結果に基づく誤差を最小化するように学習された前記学習済分類モデルを生成する第2学習部と、
前記学習用データに応じて、前記第1学習部と前記第2学習部との切り替えを行う切替部と、を備える請求項1に記載の学習装置。
【請求項7】
前記切替部は、正例を示す複数の正データと負例を示す複数の負データとを含む精度検証用データと前記学習済分類モデルとを用いて算出された評価指標に基づいて前記切り替えを行う請求項6に記載の学習装置。
【請求項8】
請求項1~7の何れか1項に記載の学習装置によって学習された学習済分類モデルを用いて、前記分類対象データの分類を行う分類装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、データを分類する分類モデルを学習させる学習装置等に関する。
【背景技術】
【0002】
近年、機械学習により学習した学習済モデルを用いて、データを分類することが多く行われている。また、機械学習においても様々な学習方法が提案されている。例えば、特許文献1には、PU(Positive-Unlabeled)分類において、AUC(Area Under the Curve)を最適化する機械学習を行う機械学習装置が記載されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2015-1968号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
PU分類を用いたAUC最適化学習では、計算負荷が増大するという問題があった。
【課題を解決するための手段】
【0005】
上記の課題を解決するために、本開示の一態様に係る学習装置は、分類対象データを正例または負例に分類する学習済分類モデルを生成する学習装置であって、前記正例を示す複数の正データと、前記正例であるか、または前記負例であるかが未知の複数の未知データとを含む学習用データを入力として、該学習用データを前記正例と前記負例とに分類するとともに、AUCを最大化するように学習された前記学習済分類モデルを生成する第1学習部を備え、前記第1学習部は、前記正例および負例に振り分けるベース閾値の絶対値が小さくなるように学習させる。
【発明の効果】
【0006】
本開示の一態様によれば、計算負荷を小さくすることができる。
【図面の簡単な説明】
【0007】
図1】本開示の実施形態に係る学習装置の要部構成を示す機能ブロック図である。
図2】学習装置が学習に用いる学習用データの例を示す図である。
図3】学習装置における学習理の流れを示すフローチャートである。
図4】分類装置の要部構成を示す機能ブロック図である。
図5】分類システムの構成を示す図である。
図6】前記学習装置の変形例を示す機能ブロック図である。
【発明を実施するための形態】
【0008】
まず、図1を参照して、本実施形態に係る学習装置10について説明する。図1は、学習装置10の要部構成を示す機能ブロック図である。学習装置10は、データを正と負とに分ける二値分類を行うための分類モデル100を学習させるものである。具体的には、学習装置10は、PU学習(Positive-Unlabeled Learning)と呼ばれる学習方法で、分類モデル100を学習させる。
【0009】
PU学習とは、正例を示す複数の正データと、正例であるか、または負例であるかが未知の複数の未知データとを含む学習用データを入力として学習を行う方法である。
【0010】
二値分類では、PU学習の他に、正例を示す複数の正データと負例である複数の負データとを含むデータを学習用データとするPN学習がある。しかし、PN学習では、ラベルが付与されていないデータを学習用データとすることができない。PU学習はこのようにPN学習では対応できないデータについても対処できる学習方法である。
【0011】
また、負データのラベル付与が困難なデータ、例えば、以下のデータはPU学習により学習を行うことになる。
(1)アノテーションコストが高いデータ
正例の一部のみラベル付与を行って正データとし、それ以外はラベルが付与されない。
(2)クリック広告が存在するWEBページへのアクセスデータ
クリックされた場合は興味があるとしてラベルが付与されて正データとなるが、クリックされない場合、気付かなかったのか、または興味がないのか不明のため、ラベル付与ができない。
(3)新薬データ
論文として報告された場合、ラベルが付与されて正データとなるが、報告されていない場合、開発が進んでいないのか、または未調査なのか不明のため、ラベルが付与できない。
(4)異常判定のための検知データ
正常データは、ラベルが付与されて正データとなるが、異常が発生しても軽微と判断してシステム停止等を行っていない等、異常か否かの判断ができない場合、ラベルが付与できない。
【0012】
図1に示すように、学習装置10は、第1学習部11を備える。第1学習部11は、学習用データ50を用いて、学習前分類モデル101を学習させるものである。
【0013】
学習前分類モデル101は、学習前または学習中の分類モデル100である。分類モデル100は、入力されたデータにスコア(出力値)を割り当て出力するものである。第1学習部11は、正例および負例の分類境界を学習前分類モデル101に学習させ、例えば、ユーザ入力される入力閾値よりも大きいスコアのデータを正例、入力閾値よりも小さいスコアのデータを負例に分類可能な学習済分類モデル102を生成することができる。また、以下では、学習済(trained)の分類モデル100を学習済分類モデル102とも記載する。学習前であるか学習済であるかを限定しない場合は、単に分類モデル100と記載する。
【0014】
学習用データ50は、正例を示す複数の正データ51と、正例であるか、または負例であるかが未知の複数の未知データ52とを含む。図2に、学習用データ50の例を示す。図2は、所定時間分のセンサ値の推移を示すデータである。ここでは、センサ値のデータが正常であり、かつ正常であることを示すラベルが付与されている正データ51と、センサ値のデータが正常の部分と異常の部分とを含み、かつラベルが付与されていない未知データ52とが示されている。
【0015】
第1学習部11は、学習前分類モデル101に、学習用データ50を入力して得られる分類結果に基づくAUC(Area Under Curve)を最大化するように学習前分類モデル101を学習させ、学習済分類モデル102を生成する。より具体的には、第1学習部11は、学習前分類モデル101に、学習用データ50を入力して得られる正例に対する出力スコアと負例に対する出力スコアの差に基づくAUCを最大化するように、学習前分類モデル101を学習させる。そして、このとき、正例および負例に振り分けるベース閾値の絶対値が小さくなるような演算処理を実行して、学習前分類モデル101を学習させる。言い換えれば、第1学習部11は、正例および負例に振り分けるベース閾値が小さくなるように学習前分類モデル101を学習可能な演算部(演算式)を有している。なお、ベース閾値とは、このベース閾値を入力閾値として学習時に使用した学習用データを学習済分類モデル102に入力したとき、正例および負例の分類結果に対して、F値が最も高くなる閾値を指す。
【0016】
より詳細には、演算式として、以下の式(1)で示すAUC損失式に基づき、学習前分類モデル101に学習させる。
【0017】
【数1】
【0018】
ここで、xは正データ、xは未知データ、nは正データ数、nは未知データ数、gは分類モデル、πは未知データ中の正クラス事前確率(未知データ中の正データの割合)、πは未知データ中の負クラス事前確率(未知データ中の負データの割合)、lは損失関数である。
【0019】
未知データ中の正クラス事前確率および負クラス事前確率は、予め人が値を決めいてもよいし、推定器(図示せず)により推定するものであってもよい。
【0020】
式(1)の補正項としては、式(2)、(3)、(4)が挙げられる。
【0021】
【数2】
【0022】
ここで、γは補正の強さを決めるパラメータであり、fはモデルの出力値をtanh(またはsigmoid)で±1に変換する関数であり、nはモデル出力値が正のデータ数であり、nはモデル出力値が負のデータ数である。
【0023】
式(2)に示す補正項は、入力される学習用データ50について、学習前分類モデル101が正例に分類する割合と未知データ52中の正クラス事前確率との差が大きくなるほど増加する第1項と、入力される学習用データ50について、学習前分類モデル101が負例に分類する割合と未知データ52中の負クラス事前確率との差が大きくなるほど増加する第2項との和で示されると言える。この補正項により、分類割合と事前確率とが等しくなり、正例と負例とに振り分けるベース閾値を0に保つことができる。
【0024】
【数3】
【0025】
式(3)に示す補正項は、入力される学習用データ50について、未知データ52中の正クラス事前確率と未知データ52中の負クラス事前確率との比と、学習前分類モデル101が正例に分類する割合と負例に分類する割合との比との差で示されると言える。この補正項によれば、補正項の値が小さくなりすぎることによる丸め誤差を防ぐことができる。
【0026】
【数4】
【0027】
式(4)に示す補正項は、入力される学習用データ50について、未知データ52中の正クラス事前確率と学習前分類モデル101が負例に分類する割合との積と、未知データ52中の負クラス事前確率と学習前分類モデル101が正例に分類する割合との積との差で示されると言える。この補正項によれば、正例と負例との割合が大きく異なる場合であっても、補正項の計算を適切に行うことができる。
【0028】
以下、上述した式(1)について説明する。
【0029】
まず、AUCとは、モデルの評価指標の一つであり、ROC曲線の下部分の面積を表わす。また、ROC曲線とは、正例と負例とに振り分けるベース閾値を変更した場合の再現率と偽陽性率との関係を、縦軸を再現率、横軸を偽陽性率としてプロットしたものである。再現率とは、全ての正例のうち、正しく正例に分類できた割合である。偽陽性率とは、全ての負例のうち、誤って正例に分類した割合である。
【0030】
まず、PN学習においてAUCを最大化する期待損失は以下の式(5)で表される。
【0031】
【数5】
【0032】
ここで、Eは正データ確率分布に対する期待値、Eは負データ確率分布に対する期待値である。式(5)を経験損失の式で示すと、以下の式(6)となる。
【0033】
【数6】
【0034】
PU学習の場合、負データは存在せず、未知データが存在する。未知データは、正データと負データとの集合なので、未知データに対する期待損失は、正データに対する期待損失と負データに対する期待損失との和で表すことができる。具体的な損失式を以下の式(7)に示す。
【0035】
【数7】
【0036】
式(5)および式(7)から
【0037】
【数8】
【0038】
となる。式(8)は、正データと未知データとで表される式なので、これは、PU学習におけるAUCを最大化する損失式と言える。よって、式(8)を経験損失の損失式とすれば、式(9)となる。
【0039】
【数9】
【0040】
ここで、
【0041】
【数10】
【0042】
は、xとは異なる正データ数である。これは、測定困難なので、式(9)に代えて、以下の式(11)を用いる。
【0043】
【数11】
【0044】
式(11)は、正データと負データとの組合せから算出した損失から、正データ同士の損失を引くことにより、正データと未知データとの組合せに対する損失を算出していると言える。式(11)は、PU学習におけるAUCを最大化するための損失式ということができる。そこで、式(11)を用いてAUCを最大化するが、この式のままでは、ベース閾値がシフトする可能性がある。以下に理由を説明する。
【0045】
ここでは単純化して、PN学習におけるAUC最大化の損失式である式(12)を例に挙げて説明する。
【0046】
【数12】
【0047】
AUC最大化とは、式(12)における、正データをモデルgに入力したときの出力g(x)と、負データをモデルgに入力した時の出力g(x)との差を最大化することである。そして、正例と負例とに振り分けるベース閾値については、何ら限定されていない。よって、出力g(x)と出力g(x)との差が大きくなるのであれば、ベース閾値が0から離れたものになることも起こり得る。
【0048】
そこで、本実施形態では、上述した式(1)に示すように、AUCを最大化する損失式である式(11)に補正項を加えることにより、ベース閾値の絶対値が小さくなるようにしている。本開示では、例えば、ベース閾値を0(ゼロ)等の小さい絶対値に保つようにしている。
【0049】
ベース閾値を0に保つことにより、ベース閾値を探索するためのコストの発生を抑えることができ、計算負荷も小さくすることができる。また、正例と負例とのスコアは、0を挟んで分布することになるので、正の値または負の値のどちらか一方に偏ることによりスコアの絶対値が大きくなりすぎることを防ぐことができる。これにより、計算負荷を抑えることができる。
【0050】
〔学習装置10における学習処理の流れ〕
次に、図3を参照して、学習装置10における学習処理の流れについて説明する。図3は、学習処理の流れを示すフローチャートである。
【0051】
図3に示すように、学習装置10の第1学習部11は、まず、1回分の学習用データ50(正データ51および未知データ52)を抽出する(S101)。次に、抽出した学習用データ50と式(1)とを用いて損失を算出する(S102)。そして、第1学習部11は、算出した損失に基づいて学習前分類モデル101のパラメータを更新する(S103)。そして、所定の学習精度が達成できていれば(S104でYES)、学習処理を終了し、所定の学習精度が達成できていなければ(S104でNO)、ステップS101に戻り学習を続ける。
【0052】
〔分類装置〕
次に、図4を参照して、分類装置20について説明する。図4は、分類装置20の要部構成を示す機能ブロック図である。分類装置20は、学習装置10により学習された分類モデル100である学習済分類モデル102を用いて、分類対象データ60の分類を行い、その結果を出力するものである。
【0053】
分類装置20は、PU学習により学習された分類モデル100を用いて、データの二値分類を行うものであれば、どのような分類を行うものであってもよく、例えば、画像データが特定の動物(例:猫)であるか否か、電子メールがフィッシングメールであるか否か、検知データが正常か否か等を分類するものであってよい。
【0054】
〔分類システム〕
次に、図5を参照して、分類システム1について説明する。図5は、分類システム1の構成を示す図である。分類システム1は、図1に示す学習装置10と図4に示す分類装置20を含み、さらに、分類装置20による分類結果を評価し、評価結果を分類装置20にフィードバックする評価装置30を含む。
【0055】
上述したように、学習装置10は、正データ51および未知データ52を含む学習用データ50を用いて、分類モデル100を学習させる。分類装置20は、学習装置10により学習された分類モデル100を用いて、分類対象データ60の分類を行う。分類結果は、評価装置30に出力される。
【0056】
評価装置30は、評価者に分類結果を提示する。そして、評価者による評価結果に基づいて、分類モデル100に用いるハイパーパラメータの調整を行う。ハイパーパラメータの調整そのものが評価者によって行われてもよい。ハイパーパラメータとは、機械学習アルゴリズムの挙動を設定するパラメータである。
【0057】
〔変形例〕
次に、図6を参照して、学習装置10の変形例である学習装置10Aについて説明する。図6は、学習装置10の変形例を示す機能ブロック図である。
【0058】
本変形例に係る学習装置10Aは、上述した第1学習部11に加え、第2学習部12および切替部13を備える。
【0059】
第2学習部12は、学習用データを入力として、該学習用データを正例と負例とに分類するとともに、分類結果に基づく誤差を最小化するように正例および負例とに振り分けるベース閾値を学習前分類モデル101に学習させるものである。
【0060】
切替部13は、学習用データに応じて、学習前分類モデル101を第1学習部11と第2学習部12との何れに学習させるかの切り替えを行う。
【0061】
切替部13は、正例を示す複数の正データ71と負例を示す複数の負データ72とを含む精度検証用データ70と学習前分類モデル101とを用いて算出された評価指標に基づいて、第1学習部11と第2学習部12との切り替えを行う。
【0062】
〔ソフトウェアによる実現例〕
学習装置10、10A、および分類装置20の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、当該装置の制御ブロック(第1学習部11、第2学習部12、切替部13)としてコンピュータを機能させるためのプログラムにより実現することができる。
【0063】
この場合、上記装置は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。
【0064】
上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。
【0065】
また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本開示の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。
【0066】
また、上記実施形態で説明した各処理は、AI(Artificial Intelligence:人工知能)に実行させてもよい。この場合、AIは上記制御装置で動作するものであってもよいし、他の装置(例えばエッジコンピュータまたはクラウドサーバ等)で動作するものであってもよい。
【0067】
〔まとめ〕
本開示の態様1に係る学習装置は、分類対象データを正例または負例に分類する学習済分類モデルを生成する学習装置であって、前記正例を示す複数の正データと、前記正例であるか、または前記負例であるかが未知の複数の未知データとを含む学習用データを入力として、該学習用データを前記正例と前記負例とに分類するとともにAUCを最大化するように学習された前記学習済分類モデルを生成する第1学習部を備え、前記第1学習部は、前記正例および負例に振り分けるベース閾値の絶対値が小さくなるように学習させる。
【0068】
本願発明者らは、AUCを最大化する学習の計算負荷が増大する原因の一つは、ベース閾値の絶対値が大きくなってしまうことであることを発見した。そして、前記の構成によれば、AUCを最大化する学習において、正例と負例とに振り分けるベース閾値の絶対値が小さくなる。よって、ベース閾値を探索するためのコストの発生を抑えることができ、計算負荷も小さくすることができる。また、正例と負例とのスコアは、絶対値が小さいベース閾値を挟んで分布することになるので、正の値または負の値のどちらか一方に偏ることによりスコアの絶対値が大きくなりすぎることを防ぐことができる。これにより、計算負荷を抑えることができる。
【0069】
本開示の態様2に係る学習装置は、前記態様1において、前記第1学習部は、前記ベース閾値の絶対値が小さくなる補正項を有するAUC損失式に基づいて、前記学習前分類モデルに学習させる。
【0070】
前記の構成によれば、補正項を有するAUC損失式に基づく学習において、ベース閾値の絶対値が小さくなる。
【0071】
本開示の態様3に係る学習装置は、前記態様1において、前記補正項は、入力される前記学習用データについて、前記学習前分類モデルが正例に分類する割合と前記未知データ中の正クラス事前確率との差が大きくなるほど増加する第1項と、入力される前記学習用データについて、前記学習前分類モデルが負例に分類する割合と前記未知データ中の負クラス事前確率との差が大きくなるほど増加する第2項との和で示される。
【0072】
前記の構成によれば、分類割合と事前確率とが等しくなり、正例と負例とを分類する閾値を0と保つことができる。
【0073】
本開示の態様4に係る学習装置は、前記態様1において、前記補正項は、入力される前記学習用データについて、前記未知データ中の正クラス事前確率と前記未知データ中の負クラス事前確率との比と、前記学習前分類モデルが正例に分類する割合と負例に分類する割合との比との差で示される。
【0074】
前記の構成によれば、補正項の値が小さくなりすぎることによる丸め誤差を防ぐことができる。
【0075】
本開示の態様5に係る学習装置は、前記態様1において、前記補正項は、入力される前記学習用データについて、前記未知データ中の正クラス事前確率と前記学習前分類モデルが負例に分類する割合との積と、前記未知データ中の負クラス事前確率と前記学習前分類モデルが正例に分類する割合との積との差で示される。
【0076】
前記の構成によれば、正例と負例との割合が大きく異なる場合であっても、補正項の計算を適切に行うことができる。
【0077】
本開示の態様6に係る学習装置は、前記態様1~5の何れかにおいて、前記学習用データを入力として、該学習用データを前記正例と前記負例とに分類するとともに、分類結果に基づく誤差を最小化するように学習された前記学習済分類モデルを生成する第2学習部と、前記学習用データに応じて、前記第1学習部と前記第2学習部との切り替えを行う切替部とを備える。
【0078】
前記の構成によれば、AUC最適化のための損失式を用いた学習と誤差最小化のための損失式を用いた学習とを切り替えて、学習を行うことができる。
【0079】
本開示の態様7に係る学習装置は、前記態様6において、前記切替部は、正例を示す複数の正データと負例を示す複数の負データとを含む精度検証用データと前記学習済分類モデルとを用いて算出された評価指標に基づいて前記切り替えを行う。
【0080】
前記の構成によれば、AUC最適化のための損失式を用いた学習と誤差最小化のための損失式を用いた学習のうち、適切と考えられる学習を自動的に実行することができる。ここで、評価指標としては、正答率、再現率、適合率、F値が挙げられる。F値とは、適合率と再現率との調和平均によって計算される値である。
【0081】
本開示の態様8に係る分類装置は、前記態様1~7の何れかの学習装置によって学習された学習済分類モデルを用いて、前記分類対象データの分類を行う。
【0082】
本開示は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。
【符号の説明】
【0083】
1 分類システム
10 学習装置
11 第1学習部
12 第2学習部
13 切替部
20 分類装置
50 学習用データ
51 正データ
52 未知データ
60 分類対象データ
70 精度検証用データ
71 正データ
72 負データ
100 分類モデル
101 学習前分類モデル
102 学習済分類モデル
図1
図2
図3
図4
図5
図6