(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-18
(45)【発行日】2024-11-26
(54)【発明の名称】計算機システム及び介入効果予測方法
(51)【国際特許分類】
G06N 20/00 20190101AFI20241119BHJP
【FI】
G06N20/00
(21)【出願番号】P 2021105786
(22)【出願日】2021-06-25
【審査請求日】2024-02-08
(73)【特許権者】
【識別番号】000005108
【氏名又は名称】株式会社日立製作所
(74)【代理人】
【識別番号】110001678
【氏名又は名称】藤央弁理士法人
(72)【発明者】
【氏名】荻野 昌宏
(72)【発明者】
【氏名】朱 佩菲
(72)【発明者】
【氏名】黎 子盛
【審査官】北川 純次
(56)【参考文献】
【文献】特開2019-194849(JP,A)
【文献】米国特許出願公開第2020/0245009(US,A1)
【文献】ZHANG, Zichen, et al.,Reducing Selection Bias in Counterfactual Reasoning for Individual Treatment Effects Estimation,arXiv.org [online],2019年12月19日,p. 1-8,[検索日 2022.07.13], インターネット:<URL:https://arxiv.org/pdf/1912.09040.pdf>
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00 - 99/00
(57)【特許請求の範囲】
【請求項1】
人への複数の介入の効果を予測する計算機システムであって、
プロセッサ及び前記プロセッサに接続される記憶装置を有する、少なくとも一つの計算機を備え、
機械学習により生成され、前記人の状態を表す複数の因子の値からなるベクトルを特徴量空間に写像することによって特徴量を生成する第1モデルと、前記特徴量から前記人に対する前記複数の介入の効果の予測値を出力する第2モデルと、を管理し、
前記第1モデルは、
前記特徴量空間における、前記機械学習で用いる複数の学習データの分布の差異が小さくなるように、前記複数の学習データを前記特徴量空間に写像し、
前記計算機システムは、
前記複数の因子の値を含む入力データを受け付け、
前記入力データを前記第1モデルに入力することによって、前記入力データの前記特徴量を生成し、
前記入力データの前記特徴量を前記第2モデルに入力することによって、前記複数の介入の効果の予測値を算出することを特徴とする計算機システム。
【請求項2】
請求項1に記載の計算機システムであって、
前記特徴量から前記人が受けた介入の種別を識別する第3モデルを管理し、
前記人の識別情報と、前記人の前記複数の因子の値と、前記人が受けた介入の種別と、前記介入の効果値と、を含む学習データを受け付ける処理と、
前記学習データを前記第1モデルに入力することによって、前記学習データの前記特徴量を算出する処理と、
前記学習データの前記特徴量を前記第2モデルに入力することによって、前記複数の介入の効果の予測値を算出する処理と、
前記学習データの前記特徴量を前記第3モデルに入力して得られた前記介入の種別、前記学習データに含まれる前記介入の種別、前記複数の介入の効果の予測値、及び前記学習データに含まれる前記効果値から損失関数を算出する処理と、
前記損失関数を用いて、前記第1モデル、前記第2モデル、及び前記第3モデルを更新する処理と、
を含む前記機械学習を実行することを特徴とする計算機システム。
【請求項3】
請求項2に記載の計算機システムであって、
前記機械学習は、
前記学習データの前記特徴量から重みを算出する処理と、
前記学習データの前記特徴量を前記第3モデルに入力して得られた前記介入の種別、前記学習データに含まれる前記介入の種別、前記複数の介入の効果の予測値、前記学習データに含まれる前記効果値、及び前記重みから前記損失関数を算出する処理と、を含むことを特徴とする計算機システム。
【請求項4】
計算機システムが実行する人への複数の介入の効果を予測する介入効果予測方法であって、
前記計算機システムは、
プロセッサ及び前記プロセッサに接続される記憶装置を有する、少なくとも一つの計算機を含み、
機械学習により生成され、前記人の状態を表す複数の因子の値からなるベクトルを特徴量空間に写像することによって特徴量を生成する第1モデルと、前記特徴量から前記人に対する前記複数の介入の効果の予測値を出力する第2モデルと、を管理し、
前記第1モデルは、
前記特徴量空間における、前記機械学習で用いる複数の学習データの分布の差異が小さくなるように、前記複数の学習データを前記特徴量空間に写像し、
前記複数の因子の値を含む入力データを受け付け、
前記介入効果予測方法は、
前記少なくとも一つの計算機が、前記入力データを前記第1モデルに入力することによって、前記入力データの前記特徴量を生成するステップと、
前記少なくとも一つの計算機が、前記入力データの前記特徴量を前記第2モデルに入力することによって、前記複数の介入の効果の予測値を算出するステップと、を含むことを特徴とする介入効果予測方法。
【請求項5】
請求項4に記載の介入効果予測方法であって、
前記計算機システムは、前記特徴量から前記人が受けた介入の種別を識別する第3モデルを管理し、
前記介入効果予測方法は、
前記少なくとも一つの計算機が、前記人の識別情報と、前記人の前記複数の因子の値と、前記人が受けた介入の種別と、前記介入の効果値と、を含む学習データを受け付ける第1のステップと、
前記少なくとも一つの計算機が、前記学習データを前記第1モデルに入力することによって、前記学習データの前記特徴量を算出する第2のステップと、
前記少なくとも一つの計算機が、前記学習データの前記特徴量を前記第2モデルに入力することによって、前記複数の介入の効果の予測値を算出する第3のステップと、
前記少なくとも一つの計算機が、前記学習データの前記特徴量を前記第3モデルに入力して得られた前記介入の種別、前記学習データに含まれる前記介入の種別、前記複数の介入の効果の予測値、及び前記学習データに含まれる前記効果値から損失関数を算出する第4のステップと、
前記少なくとも一つの計算機が、前記損失関数を用いて、前記第1モデル、前記第2モデル、及び前記第3モデルを更新する第5のステップと、
を含むことを特徴とする介入効果予測方法。
【請求項6】
請求項5に記載の介入効果予測方法であって、
前記第2のステップは、前記少なくとも一つの計算機が、前記学習データの前記特徴量から重みを算出するステップを含み、
前記第4のステップは、前記少なくとも一つの計算機が、前記学習データの前記特徴量を前記第3モデルに入力して得られた前記介入の種別、前記学習データに含まれる前記介入の種別、前記複数の介入の効果の予測値、前記学習データに含まれる前記効果値、及び前記重みから前記損失関数を算出するステップを含むことを特徴とする介入効果予測方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、人への介入の効果を予測するシステム及び方法に関する。
【背景技術】
【0002】
医療及びマーケティング等の様々な分野において、人に対して行った介入(治療及び施策等)の効果を推定する手法としてランダム化比較試験等の因果推論が知られている。
【0003】
ランダム化比較試験は、大規模な実験が必要となり、コストが高いという課題がある。そこで、既存のデータを用いて、因果推論を行う技術の開発が望まれている。これに対して、特許文献1に記載の技術が知られている。
【0004】
特許文献1には「介入効果推測システム10は、複数人の被験者データを集合させた集団データを回帰分析した集団分析結果を保持する集団用処理部24と、集団分析結果を用いて、ユーザ用に準備された回帰モデルとしてユーザ用の回帰モデルにおける回帰係数の初期値と、ベイズ推定に用いる最初の事前分布とを設定し、ユーザの被験者データを取得すると、その被験者データの尤度を用いたベイズ推定によって、回帰係数を更新する個人用処理部25とを備え、個人用処理部25は、この個人用処理部25により回帰係数が更新されたユーザ用の回帰モデルに基づいて、ユーザに対する介入の効果を推測する。」ことが記載されている。
【先行技術文献】
【特許文献】
【0005】
【非特許文献】
【0006】
【文献】Fredrik D. Johansson, Uri Shalit, David Sontag、"Learning Representations for Counterfactual Inference"、2016年、[online]、[令和3年6月14日検索]、インターネット〈URL:https://arxiv.org/abs/1605.03661v1〉
【発明の概要】
【発明が解決しようとする課題】
【0007】
特許文献1に記載の技術では、選択バイアスが考慮されていない。これに対して、非特許文献1に記載の技術が知られている。非特許文献1には、discrepancy distanceを用いて、グループの分布の偏り、すなわち、交絡バイアスを調整している(例えば、非特許文献1の
図1を参照)。
【0008】
discrepancy distanceは、二つの分布の距離として与えられており、複数の介入への適用が困難であるという課題がある。また、非特許文献1の技術では交絡バイアスの低減効果が小さいという課題がある。
【0009】
本発明は、従来の課題を解消し、高い精度で人に対する複数介入の効果を予測するシステム及び方法を提供する。
【課題を解決するための手段】
【0010】
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、人への複数の介入の効果を予測する計算機システムであって、プロセッサ及び前記プロセッサに接続される記憶装置を有する、少なくとも一つの計算機を備え、機械学習により生成され、前記人の状態を表す複数の因子の値からなるベクトルを特徴量空間に写像することによって特徴量を生成する第1モデルと、前記特徴量から前記人に対する前記複数の介入の効果の予測値を出力する第2モデルと、を管理し、前記第1モデルは、前記特徴量空間における、前記機械学習で用いる複数の学習データの分布の差異が小さくなるように、前記複数の学習データを前記特徴量空間に写像し、前記計算機システムは、前記複数の因子の値を含む入力データを受け付け、前記入力データを前記第1モデルに入力することによって、前記入力データの前記特徴量を生成し、前記入力データの前記特徴量を前記第2モデルに入力することによって、前記複数の介入の効果の予測値を算出する。
【発明の効果】
【0011】
本発明によれば、高い精度で人に対する複数介入の効果を予測できる。上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
【図面の簡単な説明】
【0012】
【
図1】実施例1のシステムの構成例を示す図である。
【
図2】実施例1の計算機のソフトウェア構成の一例を示す図である。
【
図3】実施例1の学習データDBの一例を示す図である。
【
図4】実施例1の学習部の機能構成の一例を示す図である。
【
図5】実施例1の学習部が実行する学習処理の一例を説明するフローチャートである。
【
図6】実施例1の予測部が実行する予測処理の一例を説明するフローチャートである。
【
図7】実施例1の予測部が出力する予測介入結果の一例を示す図である。
【
図8】実施例1の予測部が出力する予測介入結果の一例を示す図である。
【発明を実施するための形態】
【0013】
以下、本発明の実施例を、図面を用いて説明する。ただし、本発明は以下に示す実施例の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。
【0014】
以下に説明する発明の構成において、同一又は類似する構成又は機能には同一の符号を付し、重複する説明は省略する。
【0015】
本明細書等における「第1」、「第2」、「第3」等の表記は、構成要素を識別するために付するものであり、必ずしも、数又は順序を限定するものではない。
【0016】
図面等において示す各構成の位置、大きさ、形状、及び範囲等は、発明の理解を容易にするため、実際の位置、大きさ、形状、及び範囲等を表していない場合がある。したがって、本発明では、図面等に開示された位置、大きさ、形状、及び範囲等に限定されない。
【実施例1】
【0017】
図1は、実施例1のシステムの構成例を示す図である。
【0018】
システムは、計算機100、情報端末110、及び外部記憶装置111から構成される。計算機100、情報端末110、及び外部記憶装置111は、ネットワーク109を介して互いに接続される。ネットワーク109は、例えば、LAN(Local Area Network)及びWAN(Wide Area Network)等であり、接続方式は有線及び無線のいずれでもよい。
【0019】
計算機100は、介入効果を予測するモデルを生成するための学習処理を実行し、また、当該モデルを用いてユーザデータ(入力データ)に対する介入効果を予測する。計算機100は、CPU101、主記憶装置102、副記憶装置103、ネットワークアダプタ104、入力装置105、及び出力装置106を有する。各ハードウェア要素は内部バス108を介して互いに接続される。
【0020】
CPU101は、主記憶装置102に格納されるプログラムを実行する。CPU101がプログラムにしたがって処理を実行することによって、特定の機能を実現する機能部(モジュール)として動作する。以下の説明では、機能部を主語に処理を説明する場合、CPU101が当該機能部を実現するプログラムを実行していることを示す。
【0021】
主記憶装置102は、DRAM(Dynamic Random Access Memory)であり、CPU101が実行するプログラム及びプログラムが使用するデータを格納する。主記憶装置102は、また、ワークエリアとしても使用される。
【0022】
副記憶装置103は、HDD(Hard Disk Drive)及びSSD(Solid State Drive)等であり、データを永続的に格納する。主記憶装置102に格納されるプログラム及びデータは、副記憶装置103に格納されてもよい。この場合、CPU101が副記憶装置103からプログラム及び情報を読み出し、主記憶装置102にロードする。
【0023】
ネットワークアダプタ104は、ネットワーク109を介して外部装置と接続するためのインタフェースである。
【0024】
入力装置105は、キーボード、マウス、タッチパネル等であり、計算機100に入力を行うための装置である。
【0025】
出力装置106は、ディスプレイ及びプリンタ等であり、計算機100の処理結果等を出力するための装置である。
【0026】
なお、計算機100のハードウェア構成は一例であってこれに限定されない。例えば、計算機100は、入力装置105及び出力装置106を有していなくてもよい。
【0027】
情報端末110は、計算機100に対する各種操作を行う端末である。例えば、情報端末110は、学習データの登録、モデルの登録、及びユーザデータの入力等を行う。情報端末110のハードウェア構成は計算機100と同一である。
【0028】
外部記憶装置111は、各種情報を格納する。外部記憶装置111は、例えば、外付けのHDD又はストレージシステムである。
【0029】
図2は、実施例1の計算機100のソフトウェア構成の一例を示す図である。
【0030】
計算機100は、学習部200及び予測部201を有し、また、学習データDB210及びモデルDB211を有する。なお、学習データDB210及びモデルDB211は、外部記憶装置111に格納されていてもよい。
【0031】
学習データDB210は、学習処理に使用する学習データを格納するデータベースである。学習データDB210については
図3を用いて説明する。モデルDB211は、各種モデルの情報を格納するデータベースである。
【0032】
学習部200は、学習データDB210に格納される学習データ及びモデルDB211に格納されるモデルを用いて学習処理を実行する。予測部201は、モデルDB211に格納されるモデルを用いて、ユーザデータ220に対する介入効果を予測し、予測介入結果221として出力する。
【0033】
図3は、実施例1の学習データDB210の一例を示す図である。
【0034】
学習データDB210は、ID301、要因302、介入種類303、及び効果304を含むエントリを格納する。一つのエントリが一つの学習データに対応する。なお、エントリに含まれるフィールドは前述したものに限定されない。前述したフィールドのいずれかを含まなくてもよいし、また、他のフィールドを含んでもよい。
【0035】
ID301は、学習データを一意に識別する識別情報を格納するフィールドである。本実施例のID301には識別番号が格納される。
【0036】
要因302は、介入を受ける人の状態及び特性等の要因の値を格納するフィールドである。要因は、例えば、年齢、性別、及び身長等である。本実施例では、要因302に含める要因の種類及び数に限定されない。
【0037】
介入種類303は、学習データに対応する人に対して行った介入の種類を示す情報を格納するフィールドである。
【0038】
効果304は、介入による効果を示す指標の値を格納するフィールドである。
【0039】
ユーザデータ220は、学習データから介入種類303及び効果304を除いたデータである。
【0040】
図4は、実施例1の学習部200の機能構成の一例を示す図である。
【0041】
学習部200は、特徴量生成部400、識別器401、及び予測器402を含む。
【0042】
特徴量生成部400は、要因xiを任意の次元の特徴量空間に写像することによって特徴量Giを生成する。特徴量生成部400は、ニューラルネットワーク等のモデルとして定義される。ここで、要因xiは、識別情報がiである人の要因を表すn次元ベクトルである。要因xiは学習データの要因302に対応し、nは要因302のフィールド数を表す。
【0043】
識別器401は、特徴量Giから人に対して行われた介入t’iを識別する。識別器401は、ニューラルネットワーク等のモデルとして定義される。ここで、介入t’iは識別情報がiである人に対して行われた介入の予測値を表すk次元ベクトルである。kは介入の種類を表す。
【0044】
学習部200は、複数の人の介入t’i及び介入tiを用いて、介入t’i及び介入tiの誤差を評価するimbalance loss関数を算出する。ここで、介入tiは識別情報がiである人に対して行われた介入を表す。介入tiは、学習データの介入種類303に格納される介入の種類に対応する数値jである。例えば、介入の種類が「A」の場合、数値jは「1」、介入の種類が「B」の場合、数値jは「2」となる。
【0045】
imbalance loss関数は式(1)で定義される。
【0046】
【0047】
αは0より大きい定数を表す。g(xi)は特徴量Giを表す。d(g(xi),ti)は識別器401の出力、すなわち、介入t’iを表す。
【0048】
予測器402は、特徴量Giから予測介入効果yiを算出する。予測器402は、ニューラルネットワーク等のモデルとして定義される。ここで、予測介入効果yiは識別情報がiである人の各介入の効果の予測を表すk次元のベクトルである。
【0049】
学習部200は、各人の特徴量Giを用いて重みω(ti=j,g(xi))を算出する。ここで、g(xi)は特徴量Giを表す。
【0050】
重みω(ti=j,g(xi))は式(2)で定義される。
【0051】
【0052】
Pr(j)はデータセット全体において介入tiがjである確率値を表す。
【0053】
また、学習部200は、複数の人の予測介入効果yi及び重みω(ti=j,g(xi))を用いて、効果yF
iと予測介入効果yiとの誤差を評価するFactual loss関数を算出する。ここで、効果yF
iは識別情報がiである人に対して行われた介入の効果を表す。効果yF
iは効果304の値である。
【0054】
Factual loss関数は式(3)で定義される。
【0055】
【0056】
学習部200は、式(4)に示すような、Factual loss関数及びimbalance loss関数から定義されるloss関数に基づいて、特徴量生成部400、識別器401、予測器402を更新する。重みω(ti=j,g(xi))を乗算することによって、交絡因子の影響を削減できる。
【0057】
【0058】
本実施例では、特徴量生成部400及び識別器401はGAN(Generative Adversarial Network)を利用した学習を行っている。特徴量生成部400は、識別器401が特徴量から人に行われた介入の種別が識別できないように更新される。当該更新は、介入の相違による、要因xiの写像先の空間(特徴量空間)におけるg(xi)の分布の差異(偏り)を小さく調整することを意味する。したがって、特徴量生成部400が生成する特徴量は、交絡因子の影響が除外された特徴量となっている。
【0059】
GANを利用して、特徴量空間のg(xi)の分布の差異を小さく調整することによって、選択バイアスを低減し、また、非特許文献1より交絡バイアスを低くできる。また、人の特徴量を反映した重みを乗算したFactual loss関数を用いることによって交絡バイアスをさらに解消できる。したがって、介入効果を精度よく予測できる。
【0060】
なお、重みを含まないloss関数を用いて学習が行われてもよい。
【0061】
図5は、実施例1の学習部200が実行する学習処理の一例を説明するフローチャートである。
【0062】
学習部200は、情報端末110又は入力装置105を介して学習実行指示を受け付けた場合、学習処理を実行する。
【0063】
学習部200は、モデルDB211から、特徴量生成部400、識別器401、及び予測器402のモデルを取得する(ステップS101)。
【0064】
学習部200は、学習データDB210から学習データを取得する(ステップS102)。ここでは、複数の学習データから構成される学習データセットが取得されるものとする。
【0065】
学習部200は、特徴量生成部400に、学習データセットの各学習データの要因xiを入力することによって特徴量g(xi)を生成する(ステップS103)。
【0066】
学習部200は、識別器401に特徴量g(xi)を入力して得られた介入tiと、人の介入t’iとを用いてimbalance loss関数を算出する(ステップS104)。
【0067】
学習部200は、特徴量g(xi)を用いて、重みω(ti,g(xi))を算出する(ステップS105)。
【0068】
学習部200は、予測器402に、特徴量g(xi)を入力することによって予測介入効果yiを算出する(ステップS106)。
【0069】
学習部200は、重みω(ti,g(xi))、学習データの効果304、及び予測介入効果yiを用いて、Factual loss関数を算出する(ステップS107)。
【0070】
学習部200は、式(4)のloss関数を算出し、当該関数を用いて、特徴量生成部400、識別器401、及び予測器402を更新する(ステップS108)。このとき、学習部200は、更新結果をモデルDB211に格納する。
【0071】
学習部200は、学習を終了するか否かを判定する(ステップS109)。例えば、更新回数が閾値より大きい場合、学習部200は学習を終了すると判定する。また、評価用のユーザデータ220の予測介入効果の予測精度が閾値より高い場合、学習部200は学習を終了すると判定する。
【0072】
学習を終了しないと判定された場合、学習部200は、ステップS102に戻り、同様の処理を実行する。
【0073】
学習を終了すると判定された場合、学習部200は学習処理を終了する。
【0074】
図6は、実施例1の予測部201が実行する予測処理の一例を説明するフローチャートである。
図7及び
図8は、実施例1の予測部201が出力する予測介入結果221の一例を示す図である。
【0075】
予測部201は、情報端末110又は入力装置105を介して、ユーザデータ220を含む予測実行指示を受け付けた場合、予測処理を実行する。
【0076】
予測部201は、モデルDB211から、特徴量生成部400及び予測器402のモデルを取得する(ステップS201)。
【0077】
予測部201は、特徴量生成部400に、ユーザデータ220の要因xiを入力することによって特徴量g(xi)を生成する(ステップS202)。
【0078】
予測部201は、予測器402に、特徴量g(xi)を入力することによって予測介入効果yiを算出する(ステップS203)。
【0079】
予測部201は、予測介入効果yiを含む予測介入結果221を生成し、出力する(ステップS204)。その後、予測部201は予測処理を終了する。
【0080】
予測介入結果221は、ID701及び介入効果702を含む。ID701は、ユーザデータに含まれる、ユーザの識別情報を格納するフィールドである。介入効果702は、各介入に対する効果の予測値を格納するフィールド群である。
【0081】
なお、ユーザデータ220の時系列データを予測部201に入力することによって、
図8に示すような介入効果の予測値の時系列データを出力することができる。
【0082】
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
【0083】
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
【0084】
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Python、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実装できる。
【0085】
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段又はCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
【0086】
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
【符号の説明】
【0087】
100 計算機
101 CPU
102 主記憶装置
103 副記憶装置
104 ネットワークアダプタ
105 入力装置
106 出力装置
108 内部バス
109 ネットワーク
110 情報端末
111 外部記憶装置
200 学習部
201 予測部
210 学習データDB
211 モデルDB
220 ユーザデータ
221 予測介入結果
400 特徴量生成部
401 識別器
402 予測器