(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-10-24
(45)【発行日】2023-11-01
(54)【発明の名称】情報処理システムおよびプログラム
(51)【国際特許分類】
G06N 20/00 20190101AFI20231025BHJP
【FI】
G06N20/00
(21)【出願番号】P 2020085546
(22)【出願日】2020-05-14
【審査請求日】2022-06-24
(73)【特許権者】
【識別番号】899000068
【氏名又は名称】学校法人早稲田大学
(73)【特許権者】
【識別番号】514246299
【氏名又は名称】株式会社FIND
(74)【代理人】
【識別番号】100114638
【氏名又は名称】中野 寛也
(72)【発明者】
【氏名】河合 隆史
(72)【発明者】
【氏名】伴地 芳啓
(72)【発明者】
【氏名】富野 永和
(72)【発明者】
【氏名】山形 知大
【審査官】打出 義尚
(56)【参考文献】
【文献】国際公開第2019/031794(WO,A1)
【文献】特開2019-207604(JP,A)
【文献】中国特許出願公開第109711452(CN,A)
【文献】野口竜司,文系AI人材になる,日本,東洋経済新報社,2020年01月02日,pp.146-151,155-162
【文献】マルコス・ロペス・デ・プラド,ファイナンス機械学習,日本,一般社団法人金融財政事情研究会,2019年12月24日,pp.71-72
(58)【調査した分野】(Int.Cl.,DB名)
G06N 20/00
(57)【特許請求の範囲】
【請求項1】
人間の生体反応データまたは行動・動態データを用いて情報処理を実行するコンピュータにより構成された情報処理システムであって、
増幅器と分析器とを備え、
前記増幅器は、
前記生体反応データのうちの生理反応を測定して得られた複数の実測データおよびこれらの実測データの各々に対応する目的変数としての言語的な反応成分で表現される心理反応を示すラベルを用いるか、または、
人間の属性、行動結果、若しくはその他の客観的事実、若しくは意志決定に基づく社会活動を調査若しくは測定して得られる前記行動・動態データを構成する複数の項目データのうちの少なくとも1つの項目データを目的変数とし、残りの項目データを説明変数とし、説明変数の項目データとして得られた複数の実測データおよびこれらの実測データの各々に対応する目的変数の項目データによるラベルを用いて、
パターン認識用の学習処理およびパターン認識処理を行うことにより、機械学習用の標本となる前記実測データの代用データとして、前記実測データの標本数と比べて多数の人間様データを目的変数毎に生成する処理を実行する構成とされ、
前記分析器は、
前記増幅器により生成された多数の前記人間様データおよびこれらの人間様データの各々に対応する目的変数を学習用データとして用いて、新たに取得した前記実測データの入力に対してクラス識別処理の結果として目的変数の各値の尤度を出力する推定器で使用するパラメータを決定し、決定したパラメータをターゲットモデル記憶手段に記憶させる学習処理を実行する構成とされ
、
前記増幅器は、生成器と判別器とを備えた敵対的生成ネットワークにより構成され、
前記生成器は、潜在変数としてのノイズおよび目的変数を入力し、入力した目的変数に対応する増幅データを生成する構成とされ、
前記判別器は、前記実測データの入力、および前記生成器で生成された前記増幅データの入力に対し、主タスクのクラス識別処理の結果としての真偽の各々の尤度および補助タスクのクラス識別処理の結果としての目的変数の各値の尤度を出力する構成とされ、
前記増幅器は、
複数の前記実測データおよびこれらの各々に対応する目的変数、並びに、潜在変数としてのノイズを用いて、前記生成器および前記判別器の学習処理を実行した後、この学習処理で得られた前記生成器のパラメータを固定した状態で、潜在変数としてのノイズおよび目的変数を前記生成器に繰り返し入力することにより多数の前記人間様データを生成する処理を実行する構成とされ、
さらに、時系列の複数の前記実測データを用いてトレンド解析を行うことにより、短期記憶の強度に相当する短期確率変数および長期記憶の強度に相当する長期確率変数を求める処理を実行するトレンド解析手段を備え、
前記増幅器を構成する前記判別器は、
時系列の複数の前記実測データの各々に前記トレンド解析手段で求めた前記短期確率変数および前記長期確率変数を結合した解析結果結合データを入力する構成とされ、
前記分析器は、
当該分析器の学習処理で決定したパラメータによるターゲットモデルについてテスト処理を実行する際に、テストデータとして、時系列の複数の前記実測データの各々に前記トレンド解析手段で求めた前記短期確率変数および前記長期確率変数を結合した解析結果結合データを入力する構成とされ、
前記トレンド解析手段は、
(1)前記トレンド解析を行うことにより得られたトレンド成分を前記短期確率変数とするとともに、前記トレンド解析を行うことにより得られたノイズ成分の絶対値累積和を前記長期確率変数とする処理を実行するか、または、
(2)前記トレンド解析を行うことにより得られたトレンド成分を前記短期確率変数とするとともに、前記トレンド成分の値が予め定められた閾値に達した時点から、この閾値に達したときの前記トレンド成分の値を維持して前記長期確率変数とする処理を実行する構成とされている
ことを特徴とする情報処理システム。
【請求項2】
前記分析器で決定されたパラメータを推定モデルとして記憶する推定モデル記憶手段を含んで構成される前記推定器を備え、
前記トレンド解析手段は、
前記推定器を使用する運用段階でも、新たに取得した時系列の複数の前記実測データを用いてトレンド解析を行うことにより、前記短期確率変数および前記長期確率変数を求める処理を実行する構成とされ、
前記推定器は、
運用段階で新たに取得した時系列の複数の前記実測データの各々に前記トレンド解析手段で求めた前記短期確率変数および前記長期確率変数を結合した解析結果結合データを入力する構成とされている
ことを特徴とする請求項
1に記載の情報処理システム。
【請求項3】
前記増幅器は、
前記生成器に入力する潜在変数としてのノイズを生成するノイズ生成手段を備え、
このノイズ生成手段は、
標本として得られた複数の前記実測データによる標本分布について目的変数毎に正規性を有するか否かを判断する処理を実行した後、正規性を有していないと判断した場合には、カーネル密度推定法または分布の形状を仮定せずに推定するその他のノンパラメトリック手法により、目的変数毎に標本分布から母集団の分布を推定し、目的変数毎に推定した分布を反映させたノイズを生成する構成とされている
ことを特徴とする請求項
1に記載の情報処理システム。
【請求項4】
前記代用データとしての前記人間様データを用いることなく、機械学習用の標本となる複数の前記実測データおよびこれらの実測データの各々に対応する目的変数を用いて、前記推定器で使用するパラメータを決定する学習処理を実行する事前学習用推定器を備え、
前記分析器は、
(1)前記事前学習用推定器による学習処理で得られた学習終了時点でのバリデーションデータの正解率を示す比較用の正解率終点値と、当該分析器による学習処理で得られた学習終了時点でのバリデーションデータの正解率を示すターゲット用の正解率終点値とを用いるか、または、
(2)前記事前学習用推定器による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つの指標値を示す比較用の正解率テスト値と、当該分析器による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つ指標値を示すターゲット用の正解率テスト値とを用いて、
前記比較用の正解率終点値若しくは前記比較用の正解率テスト値と、前記ターゲット用の正解率終点値若しくは前記ターゲット用の正解率テスト値との相対関係で予め定められた過学習判定用の正解率条件を満たすか否かを判断する分析処理を実行するか、
または、この正解率条件を満たすか否かを判断する分析処理に加え、
(3)前記事前学習用推定器による学習処理で得られた学習の途中の予め定められた時点でのバリデーションデータの損失を示す比較用の損失中間値と、前記事前学習用推定器による学習処理で得られた学習終了時点でのバリデーションデータの損失を示す比較用の損失終点値と、当該分析器による学習処理で得られた学習の途中の予め定められた時点でのバリデーションデータの損失を示すターゲット用の損失中間値と、当該分析器による学習処理で得られた学習終了時点でのバリデーションデータの損失を示すターゲット用の損失終点値とを用いて、
前記比較用の損失中間値から前記比較用の損失終点値に向けた比較用の傾きと、前記ターゲット用の損失中間値から前記ターゲット用の損失終点値に向けたターゲット用の傾きとの相対関係で予め定められた過学習判定用の損失条件を満たすか否かを判断する分析処理を実行する構成とされている
ことを特徴とする請求項
1に記載の情報処理システム。
【請求項5】
前記代用データとしての前記人間様データを用いることなく、機械学習用の標本となる複数の前記実測データおよびこれらの実測データの各々に対応する目的変数を用いて、前記推定器で使用するパラメータを決定する学習処理を実行する事前学習用推定器を備え、
この事前学習用推定器は、
前記増幅器を構成する
前記判別器、および前記分析器と同様な構成を有し、
学習処理前の前記判別器、および学習処理前の前記分析器に、当該事前学習用推定器の学習処理で決定したパラメータとしての重みを移すための重み出力処理を実行する構成とされている
ことを特徴とする請求項
1に記載の情報処理システム。
【請求項6】
人間の生体反応データまたは行動・動態データを用いて情報処理を実行するコンピュータにより構成された情報処理システムであって、
増幅器と分析器とを備え、
前記増幅器は、
前記生体反応データのうちの生理反応を測定して得られた複数の実測データおよびこれらの実測データの各々に対応する目的変数としての言語的な反応成分で表現される心理反応を示すラベルを用いるか、または、
人間の属性、行動結果、若しくはその他の客観的事実、若しくは意志決定に基づく社会活動を調査若しくは測定して得られる前記行動・動態データを構成する複数の項目データのうちの少なくとも1つの項目データを目的変数とし、残りの項目データを説明変数とし、説明変数の項目データとして得られた複数の実測データおよびこれらの実測データの各々に対応する目的変数の項目データによるラベルを用いて、
パターン認識用の学習処理およびパターン認識処理を行うことにより、機械学習用の標本となる前記実測データの代用データとして、前記実測データの標本数と比べて多数の人間様データを目的変数毎に生成する処理を実行する構成とされ、
前記分析器は、
前記増幅器により生成された多数の前記人間様データおよびこれらの人間様データの各々に対応する目的変数を学習用データとして用いて、新たに取得した前記実測データの入力に対してクラス識別処理の結果として目的変数の各値の尤度を出力する推定器で使用するパラメータを決定し、決定したパラメータをターゲットモデル記憶手段に記憶させる学習処理を実行する構成とされ
、
さらに、依頼者端末からネットワークを介して送信されてくる複数の前記実測データおよびこれらの実測データの各々に対応する目的変数を標本データセットとして受信し、受信した標本データセットを標本記憶手段に記憶させる処理を実行する標本受付手段を備え、
前記増幅器は、
前記標本記憶手段に記憶された複数の前記実測データおよびこれらの実測データの各々に対応する目的変数を用いて、パターン認識用の学習処理およびパターン認識処理を行うことにより、多数の前記人間様データを目的変数毎に生成する処理を実行する構成とされ、
前記分析器は、
前記増幅器により生成された多数の前記人間様データおよびこれらの人間様データの各々に対応する目的変数を学習用データとして用いて、前記推定器で使用するパラメータを決定し、決定したパラメータを前記ターゲットモデル記憶手段に記憶させる学習処理を実行した後、前記ターゲットモデル記憶手段に記憶されたパラメータを、ネットワークを介して前記依頼者端末に送信するパラメータ出力処理を実行する構成とされ、
さらに、前記代用データとしての前記人間様データを用いることなく、機械学習用の標本となる複数の前記実測データおよびこれらの実測データの各々に対応する目的変数を用いて、前記推定器で使用するパラメータを決定する学習処理を実行する事前学習用推定器を備え、
前記分析器は、
(1)前記事前学習用推定器による学習処理で得られた学習終了時点でのバリデーションデータの正解率を示す比較用の正解率終点値と、当該分析器による学習処理で得られた学習終了時点でのバリデーションデータの正解率を示すターゲット用の正解率終点値とを用いるか、または、
(2)前記事前学習用推定器による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つの指標値を示す比較用の正解率テスト値と、当該分析器による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つ指標値を示すターゲット用の正解率テスト値とを用いて、
前記比較用の正解率終点値若しくは前記比較用の正解率テスト値と、前記ターゲット用の正解率終点値若しくは前記ターゲット用の正解率テスト値との相対関係で予め定められた過学習判定用の正解率条件を満たすか否かを判断する分析処理を実行するか、
または、この正解率条件を満たすか否かを判断する分析処理に加え、
(3)前記事前学習用推定器による学習処理で得られた学習の途中の予め定められた時点でのバリデーションデータの損失を示す比較用の損失中間値と、前記事前学習用推定器による学習処理で得られた学習終了時点でのバリデーションデータの損失を示す比較用の損失終点値と、当該分析器による学習処理で得られた学習の途中の予め定められた時点でのバリデーションデータの損失を示すターゲット用の損失中間値と、当該分析器による学習処理で得られた学習終了時点でのバリデーションデータの損失を示すターゲット用の損失終点値とを用いて、
前記比較用の損失中間値から前記比較用の損失終点値に向けた比較用の傾きと、前記ターゲット用の損失中間値から前記ターゲット用の損失終点値に向けたターゲット用の傾きとの相対関係で予め定められた過学習判定用の損失条件を満たすか否かを判断する分析処理を実行し、
前記正解率条件、前記損失条件のいずれかの条件を満たすと判断した場合に、前記事前学習用推定器での学習処理が過学習を起こしている旨および標本の取り直しの指示情報を、ネットワークを介して前記依頼者端末に送信する分析結果出力処理も実行する構成とされている
ことを特徴とする情報処理システム。
【請求項7】
人間の生体反応データまたは行動・動態データを用いて情報処理を実行するコンピュータにより構成された情報処理システムであって、
増幅器と分析器とを備え、
前記増幅器は、
前記生体反応データのうちの生理反応を測定して得られた複数の実測データおよびこれらの実測データの各々に対応する目的変数としての言語的な反応成分で表現される心理反応を示すラベルを用いるか、または、
人間の属性、行動結果、若しくはその他の客観的事実、若しくは意志決定に基づく社会活動を調査若しくは測定して得られる前記行動・動態データを構成する複数の項目データのうちの少なくとも1つの項目データを目的変数とし、残りの項目データを説明変数とし、説明変数の項目データとして得られた複数の実測データおよびこれらの実測データの各々に対応する目的変数の項目データによるラベルを用いて、
パターン認識用の学習処理およびパターン認識処理を行うことにより、機械学習用の標本となる前記実測データの代用データとして、前記実測データの標本数と比べて多数の人間様データを目的変数毎に生成する処理を実行する構成とされ、
前記分析器は、
前記増幅器により生成された多数の前記人間様データおよびこれらの人間様データの各々に対応する目的変数を学習用データとして用いて、新たに取得した前記実測データの入力に対してクラス識別処理の結果として目的変数の各値の尤度を出力する推定器で使用するパラメータを決定し、決定したパラメータをターゲットモデル記憶手段に記憶させる学習処理を実行する構成とされ
、
さらに、依頼者端末からネットワークを介して送信されてくる複数の前記実測データおよびこれらの実測データの各々に対応する目的変数を標本データセットとして受信し、受信した標本データセットを標本記憶手段に記憶させる処理を実行する標本受付手段と、
前記依頼者端末からネットワークを介して送信されてくる新たに取得された前記実測データを推定対象として受信し、受信した推定対象を推定対象記憶手段に記憶させる処理を実行する推定対象受付手段と、
前記分析器で決定されたパラメータを推定モデルとして記憶する推定モデル記憶手段を含んで構成される前記推定器とを備え、
前記増幅器は、
前記標本記憶手段に記憶された複数の前記実測データおよびこれらの実測データの各々に対応する目的変数を用いて、パターン認識用の学習処理およびパターン認識処理を行うことにより、多数の前記人間様データを目的変数毎に生成する処理を実行する構成とされ、
前記分析器は、
前記増幅器により生成された多数の前記人間様データおよびこれらの人間様データの各々に対応する目的変数を学習用データとして用いて、前記推定器で使用するパラメータを決定し、決定したパラメータを前記ターゲットモデル記憶手段に記憶させる学習処理を実行した後、前記ターゲットモデル記憶手段に記憶されたパラメータを、前記推定器に渡すために出力するパラメータ出力処理を実行する構成とされ、
前記推定器は、
前記推定対象記憶手段に推定対象として記憶された新たに取得された前記実測データを入力し、前記推定モデル記憶手段に記憶された前記推定モデルを用いて、入力された前記実測データに対応する目的変数を推定し、この推定結果を、ネットワークを介して前記依頼者端末に送信する処理を実行する構成とされ、
さらに、前記代用データとしての前記人間様データを用いることなく、機械学習用の標本となる複数の前記実測データおよびこれらの実測データの各々に対応する目的変数を用いて、前記推定器で使用するパラメータを決定する学習処理を実行する事前学習用推定器を備え、
前記分析器は、
(1)前記事前学習用推定器による学習処理で得られた学習終了時点でのバリデーションデータの正解率を示す比較用の正解率終点値と、当該分析器による学習処理で得られた学習終了時点でのバリデーションデータの正解率を示すターゲット用の正解率終点値とを用いるか、または、
(2)前記事前学習用推定器による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つの指標値を示す比較用の正解率テスト値と、当該分析器による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つ指標値を示すターゲット用の正解率テスト値とを用いて、
前記比較用の正解率終点値若しくは前記比較用の正解率テスト値と、前記ターゲット用の正解率終点値若しくは前記ターゲット用の正解率テスト値との相対関係で予め定められた過学習判定用の正解率条件を満たすか否かを判断する分析処理を実行するか、
または、この正解率条件を満たすか否かを判断する分析処理に加え、
(3)前記事前学習用推定器による学習処理で得られた学習の途中の予め定められた時点でのバリデーションデータの損失を示す比較用の損失中間値と、前記事前学習用推定器による学習処理で得られた学習終了時点でのバリデーションデータの損失を示す比較用の損失終点値と、当該分析器による学習処理で得られた学習の途中の予め定められた時点でのバリデーションデータの損失を示すターゲット用の損失中間値と、当該分析器による学習処理で得られた学習終了時点でのバリデーションデータの損失を示すターゲット用の損失終点値とを用いて、
前記比較用の損失中間値から前記比較用の損失終点値に向けた比較用の傾きと、前記ターゲット用の損失中間値から前記ターゲット用の損失終点値に向けたターゲット用の傾きとの相対関係で予め定められた過学習判定用の損失条件を満たすか否かを判断する分析処理を実行し、
前記正解率条件、前記損失条件のいずれかの条件を満たすと判断した場合に、前記事前学習用推定器での学習処理が過学習を起こしている旨および標本の取り直しの指示情報を、ネットワークを介して前記依頼者端末に送信する分析結果出力処理も実行する構成とされている
ことを特徴とする情報処理システム。
【請求項8】
請求項1~
7のいずれかに記載の情報処理システムとして、コンピュータを機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、人間の生体反応データまたは行動・動態データを用いて情報処理を実行するコンピュータにより構成された情報処理システムおよびプログラムに係り、例えば、標本数が十分でないデータ群から推定精度の高い推定器を構築する場合、標本数が十分でないデータ群の偏りの検証を含む分析・評価を行う場合、欠損値を有する標本データの補完を行う場合、標本数が十分でないデータ群から構築した推定器を用いて、新たに得られるデータに対する推定を行う場合等に利用できる。
【背景技術】
【0002】
近年、人間の生理・心理反応を測定して得られる生体反応データ群、あるいは、人間の属性、行動結果、若しくはその他の客観的事実、または意志決定に基づく社会活動を調査若しくは測定して得られる行動・動態データ群は、多様な用途において活用が期待されている。これらの生体反応データ群や行動・動態データ群を活用すれば、これまで解釈の困難であった傾向や知見が得られる可能性がある。最近では、その解析手法として、深層学習が注目されている。深層学習は、高い学習・認識性能を有する一方で、大量の学習用データを必要とする。このため、人間を対象とした調査・研究において、特に実験的に取得した標本数の十分でない生体反応データ群については、深層学習の適用が困難であった。また、人間の行動・動態データ群は、ビッグデータと呼ばれる大規模データ群として得られる場合もあるが、全体的に大量のデータが得られていたとしても、項目間で収集データの数量にばらつきがあるため、深層学習により、ある目的を持った推定器を構築する際に、説明変数および目的変数として選択する項目データ群について、必ずしも十分な標本数が得られているとは限らない。
【0003】
なお、本発明に関連する技術としては、生体データ解析におけるGANを用いたデータ処理が知られている(非特許文献1参照)。また、正解が少ないデータでも高精度に学習するAIの新技術「Wide Learning」が知られている(非特許文献2参照)。さらに、従来技術の半分の学習データ量でも高精度に識別可能な深層学習の新技術が知られている(非特許文献3参照)。そして、学習画像をAIで自動生成し、高精度な送電線保守点検を行う技術が知られている(非特許文献4参照)。
【先行技術文献】
【非特許文献】
【0004】
【文献】住谷雄樹他、“生体データ解析におけるGANを用いたデータ処理”、情報処理学会、第80回全国大会講演論文集、2018年1号pp455-456
【文献】株式会社富士通研究所、“正解が少ないデータでも高精度に学習するAIの新技術「Wide Learning」を開発”、[online]、富士通ホームページ(2018年9月19日付の記事)、[令和2年5月3日検索]、インターネット<URL:https://pr.fujitsu.com/jp/news/2018/09/19-2.html>
【文献】日本電気株式会社、“NEC、従来技術の半分の学習データ量でも高精度に識別可能なディープラーニング技術を開発”、[online]、NECホームページ(2019年8月19日付の記事)、[令和2年5月3日検索]、インターネット<URL:https://jpn.nec.com/press/201908/20190819_02.html>
【文献】東芝デジタルソリューションズ株式会社、“学習画像をAIで自動生成、高精度な送電線保守点検へ”、[online]、東芝デジタルソリューションズホームページ、[令和2年5月3日検索]、インターネット<URL:https://www.toshiba-sol.co.jp/tech/sat/case/1710_1.htm>
【発明の概要】
【発明が解決しようとする課題】
【0005】
前述したように、深層学習を行うには、大量の学習用データを必要とするため、人間の生体反応データ、あるいは人間の行動・動態データのいずれについても、十分な標本数のデータを得られない場合がある。このため、高精度な推定器の構築が困難な場合がある。
【0006】
従来、このような場合には、識別精度(推定器の推定精度)を向上させるために、データ拡張と呼ばれる技術により、ニューラルネットワーク等による推定器に入力する前にデータを意図的に加工・変形させ、学習用データの数量を人工的に増やしていた。例えば、画像に対しては、回転や拡大・縮小、ノイズ付加等を行って学習用データの増幅を行っていた。
【0007】
しかし、従来のデータ拡張による学習用データの増幅では、識別する各クラスの境界付近のデータ量が不十分となり、識別精度の向上に寄与しないデータも多く生成され、十分な学習効果が得られない場合もあった。
【0008】
従って、少量の学習用データから、十分な学習効果を得ることができる学習用データの増幅が可能であり、効果的に増幅された多量の学習用データを用いて、高精度な推定器を構築することができる情報処理システムの開発が望まれる。
【0009】
本発明の目的は、標本数が十分でない生体反応データ群や行動・動態データ群から高精度な推定器を構築可能な情報処理システムおよびプログラムを提供するところにある。
【課題を解決するための手段】
【0010】
本発明は、人間の生体反応データまたは行動・動態データを用いて情報処理を実行するコンピュータにより構成された情報処理システムであって、
増幅器と分析器とを備え、
増幅器は、
生体反応データのうちの生理反応を測定して得られた複数の実測データおよびこれらの実測データの各々に対応する目的変数としての言語的な反応成分で表現される心理反応を示すラベルを用いるか、または、
人間の属性、行動結果、若しくはその他の客観的事実、若しくは意志決定に基づく社会活動を調査若しくは測定して得られる行動・動態データを構成する複数の項目データのうちの少なくとも1つの項目データを目的変数とし、残りの項目データを説明変数とし、説明変数の項目データとして得られた複数の実測データおよびこれらの実測データの各々に対応する目的変数の項目データによるラベルを用いて、
パターン認識用の学習処理およびパターン認識処理を行うことにより、機械学習用の標本となる実測データの代用データとして、実測データの標本数と比べて多数の人間様データを目的変数毎に生成する処理を実行する構成とされ、
分析器は、
増幅器により生成された多数の人間様データおよびこれらの人間様データの各々に対応する目的変数を学習用データとして用いて、新たに取得した実測データの入力に対してクラス識別処理の結果として目的変数の各値の尤度を出力する推定器で使用するパラメータを決定し、決定したパラメータをターゲットモデル記憶手段に記憶させる学習処理を実行する構成とされている
ことを特徴とするものである。
【0011】
ここで、「増幅器」における「パターン認識用の学習処理およびパターン認識処理を行うことにより」の「パターン認識用の学習処理」は、増幅器のパラメータを決定するための学習処理であり、「パターン認識処理」は、決定した増幅器のパラメータの下で、人間様データを出力するパターン認識処理である。すなわち、増幅器は、パターン認識器により構成され、この増幅器自身の学習段階および増幅器自身の運用段階の双方の処理を行うものであり、後者の増幅器自身の運用段階の処理は、推定器用のパラメータを決定する(推定器用のターゲットモデルを作成する)という全体的な処理の流れの中で見れば、広義には学習段階の処理であるともいえる。
【0012】
また、「増幅器」における「行動・動態データを構成する複数の項目データのうちの少なくとも1つの項目データを目的変数とし、残りの項目データを説明変数とし」の「少なくとも1つ」は、基本的には1つであるが、2以上としてもよい趣旨である。2以上とする場合は、マルチタスクとすることにより2以上の目的変数を置く場合と、2以上の項目データを統合することにより1つの目的変数とする場合とを含む。前者のマルチタスクの場合は、例えば、人間の意志決定に基づく社会活動として得られる「購買する車種」と「住居の種別」とを目的変数とし、同じ説明変数から、それらを推定(予測)する推定器用のパラメータを決定する場合等である。後者の2以上の項目データの統合の場合は、例えば、「大衆車、かつ、賃貸」、「大衆車、かつ、アパート」、「高級外車、かつ、一軒家」、「SUV車、かつ、マンション」等を、統合された1つの目的変数とする場合等である。なお、本願において「目的変数」、「説明変数」というときは、推定器から見た場合の目的変数、説明変数であり、増幅器から見た場合のものではない。
【0013】
さらに、行動・動態データだけではなく、生体反応データについても同様であり、生体反応データのうちの心理量は複数あるので、基本的には1つの心理量を目的変数とするが、2以上の心理量を目的変数としてもよい。なお、心理量は、言語的な反応成分で表現される心理反応を示すラベルで数値データ化されるが、ラベルの数は、クラス識別のクラス数に相当するので、ラベルの数が複数であるのは当然であり、ここでいう2以上の心理量とは、ラベルが複数あるという意味ではなく、それぞれ複数のラベルで識別される心理量が2以上あるという意味である。2以上とする場合は、マルチタスクとすることにより2以上の目的変数を置く場合と、2以上の心理量を統合することにより1つの目的変数とする場合とを含む。前者のマルチタスクの場合は、同じ説明変数から、例えば、「気持ち悪くない、気持ち悪い」という目的変数(乗り物酔いの程度を示す心理量)と、「眠くない、眠い」という目的変数(眠気の程度を示す心理量)とを推定(予測)する推定器用のパラメータを決定する場合等である。後者の2以上の心理量の統合の場合は、例えば、「気持ち悪くない、かつ、眠くない」、「気持ち悪くない、かつ、眠い」、「気持ち悪い、かつ、眠くない」、「気持ち悪い、かつ、眠い」等を、統合された1つの目的変数とする場合等である。
【0014】
そして、「分析器」における「目的変数の各値の尤度を出力する推定器」は、推定器の最終的な出力が尤度であるという趣旨ではなく、推定器の内部で尤度の算出・出力が行われていればよい趣旨であり、最終的な出力は識別結果(各値の尤度のうちの最大の尤度となった目的変数(ラベル))であってもよい。なお、尤度が最終的な出力であってもよい。
【0015】
このような本発明の情報処理システムにおいては、標本数の少ない実測データから、増幅器により多数の人間様データを生成し、これらの多数の人間様データを学習用データとして用いて、推定器用のパラメータを決定する(ターゲットモデルを作成する)ための学習処理を行うので、機械学習を行うのに十分な数の学習用データを用いた学習処理を実現することができる。
【0016】
また、増幅器は、データ拡張と呼ばれる従来技術とは異なり、パターン認識用の学習処理およびパターン認識処理を行うことにより多数の人間様データを生成するので、効果的な学習が可能となる学習用データを得ることができる。このため、高精度な推定器を構築することが可能となる。
【0017】
さらに、増幅器は、目的変数を用いて、パターン認識用の学習処理およびパターン認識処理を行うので、多数の人間様データを目的変数毎に生成することができる。このため、増幅器により生成された人間様データは、目的変数を反映した状態のデータとなっているので、生成された多数の人間様データのそれぞれについて、人手によりラベルを付すラベリング作業(タグ付け作業)を行う必要はなく、アノテーションの面で、システム担当者の手間を軽減することが可能となり、これらにより前記目的が達成される。
【0018】
なお、前述した非特許文献1の「生体データ解析におけるGANを用いたデータ処理(住谷ら)」では、特定の生体信号解析において、GANをノイズ除去として使用しており、複合的なデータから目的変数を推定(予測)する推定器の構築を目的とした本発明とは異なる。
【0019】
また、前述した非特許文献2の「正解が少ないデータでも高精度に学習するAIの新技術であるWide Learning(富士通研究所)」では、取得済みのデータの組み合わせから新たな仮説を抽出し、学習効率を向上させるものであり、増幅器を用いて多数の人間様データを生成する本発明とは異なる。
【0020】
さらに、前述した非特許文献3の「従来技術の半分の学習データ量でも高精度に識別可能な深層学習の新技術(NEC)」では、ニューラルネットワークの中間層の特徴量を操作することで、必要な学習用データの数量を半分程度に削減するものであり、大量の学習用データを得るために増幅器を用いて多数の人間様データを生成する本発明とは異なる。
【0021】
そして、前述した非特許文献4の「学習画像をAIで自動生成し、高精度な送電線保守点検を行う技術(東芝デジタルソリューションズ)」では、GANを用いた学習用データの増幅は行っているが、生成器(Generator)に目的変数を組み込んでおらず、また、判別器(Discriminator)で目的変数を出力していないので、生成されたデータへのラベリングを人手により行っている。このため、増幅器により多数の人間様データを目的変数毎に生成する、すなわち、ラベリングされたデータを増幅器により生成する本発明とは異なる。
【0022】
<増幅器を生成器と判別器とを備えた敵対的生成ネットワークにより構成する場合>
【0023】
また、前述した情報処理システムにおいて、
増幅器は、生成器と判別器とを備えた敵対的生成ネットワークにより構成され、
生成器は、潜在変数としてのノイズおよび目的変数を入力し、入力した目的変数に対応する増幅データを生成する構成とされ、
判別器は、実測データの入力、および生成器で生成された増幅データの入力に対し、主タスクのクラス識別処理の結果としての真偽の各々の尤度および補助タスクのクラス識別処理の結果としての目的変数の各値の尤度を出力する構成とされ、
増幅器は、
複数の実測データおよびこれらの各々に対応する目的変数、並びに、潜在変数としてのノイズを用いて、生成器および判別器の学習処理を実行した後、この学習処理で得られた生成器のパラメータを固定した状態で、潜在変数としてのノイズおよび目的変数を生成器に繰り返し入力することにより多数の人間様データを生成する処理を実行する構成とすることができる。
【0024】
ここで、「敵対的生成ネットワーク」は、GAN(Generative adversarial networks)とも称されるものであり、ここでの敵対的生成ネットワークは、主としてAC-GAN(Conditional Image Synthesis with Auxiliary Classifier GANs)であるが、目的変数を生成器(Generator)に入力し、かつ、判別器(Discriminator)から目的変数を出力する構成となっていれば、その他のGAN(生成する増幅データや人間様データのクラスの調整が可能なGAN、すなわち目的変数に対応する増幅データや人間様データの生成が可能なGAN)でもよい。
【0025】
また、「判別器」における「真偽の各々の尤度および・・・目的変数の各値の尤度を出力する」は、最終的な出力が尤度であるという趣旨ではなく、判別器で内部的に尤度の算出・出力が行われていればよい趣旨であり、最終的な出力は識別結果(大きい方の尤度や、最大の尤度となったクラス)でもよく、尤度でもよい。
【0026】
このように増幅器を生成器と判別器とを備えた敵対的生成ネットワークにより構成した場合には、GANを利用して多数の人間様データを生成することができる。このため、潜在変数としてのノイズを用いて多数の人間様データを生成するので、ノイズを人間から得られるデータ群の特性に応じて調整することで、より人間から得られる状態に近い状態で大量の学習用データを得ることが可能となる。
【0027】
<短期・長期確率変数を用いる構成とする場合>
【0028】
上述した増幅器を生成器と判別器とを備えた敵対的生成ネットワークにより構成した場合において、
時系列の複数の実測データを用いてトレンド解析を行うことにより、短期記憶の強度に相当する短期確率変数および長期記憶の強度に相当する長期確率変数を求める処理を実行するトレンド解析手段を備え、
増幅器を構成する判別器は、
時系列の複数の実測データの各々にトレンド解析手段で求めた短期確率変数および長期確率変数を結合した解析結果結合データを入力する構成とされ、
分析器は、
当該分析器の学習処理で決定したパラメータによるターゲットモデルについてテスト処理を実行する際に、テストデータとして、時系列の複数の実測データの各々にトレンド解析手段で求めた短期確率変数および長期確率変数を結合した解析結果結合データを入力する構成とされていることが望ましい。
【0029】
ここで、「トレンド解析手段」における「時系列の複数の実測データを用いてトレンド解析を行うことにより」というのは、個々の実測データ自体が時系列データであり、それらの複数の時系列データを時系列で並べた状態で連結してトレンド解析を行うか、あるいは個々の実測データ自体について単独でトレンド解析を行う場合と、個々の実測データ自体は、スカラ値であり、それだけを見れば時系列データではないが、それらの複数のスカラ値を時系列で並べた状態で連結してトレンド解析を行う場合とを含む。
【0030】
このように短期・長期確率変数を用いる構成とした場合には、実測データに短期確率変数および長期確率変数を結合した解析結果結合データを、増幅器を構成する判別器に入力するので、増幅器を構成する生成器から出力される増幅データ(学習中に生成されるデータ)や人間様データ(学習後に生成されるデータ)は、短期確率変数および長期確率変数が反映された状態(短期確率変数および長期確率変数で重み付けされた状態)のデータとなる。そして、この人間様データが、分析器に入力されるので、分析器における学習処理で決定される推定器用のパラメータ(ターゲットモデル)は、実測データに短期確率変数および長期確率変数を結合した解析結果結合データの入力に対して目的変数を出力する推定器用のパラメータとなる。このため、短期・長期の記憶の多重貯蔵モデルに対応した推定器用のターゲットモデルを作成することができるので、高精度な推定器を構築することが可能となる。
【0031】
より具体的には、上述した短期・長期確率変数を用いる構成とした場合において、
トレンド解析手段は、
(1)トレンド解析を行うことにより得られたトレンド成分を短期確率変数とするとともに、トレンド解析を行うことにより得られたノイズ成分の絶対値累積和を長期確率変数とする処理を実行するか、または、
(2)トレンド解析を行うことにより得られたトレンド成分を短期確率変数とするとともに、トレンド成分の値が予め定められた閾値に達した時点から、この閾値に達したときのトレンド成分の値を維持して長期確率変数とする処理を実行する構成とすることができる。
【0032】
ここで、(2)の場合、長期確率変数については、閾値に達する前は、ゼロまたは予め定められた値(小さい値)で維持してもよく、短期確率変数と同じとしてもよい。
【0033】
また、本発明の情報処理システムは、推定器用のパラメータを決定すること(推定器用のターゲットモデルを作成すること)ができればよく、必ずしも、決定したパラメータを用いて構築した推定器を備えている必要はないが、次のように、そのような推定器を備えた構成とし、新たに取得した実測データをその推定器に入力して目的変数を推定(予測)する運用段階の処理を行うようにしてもよい。
【0034】
すなわち、前述した短期・長期確率変数を用いる構成とした場合において、
分析器で決定されたパラメータを推定モデルとして記憶する推定モデル記憶手段を含んで構成される推定器を備え、
トレンド解析手段は、
推定器を使用する運用段階でも、新たに取得した時系列の複数の実測データを用いてトレンド解析を行うことにより、短期確率変数および長期確率変数を求める処理を実行する構成とされ、
推定器は、
運用段階で新たに取得した時系列の複数の実測データの各々にトレンド解析手段で求めた短期確率変数および長期確率変数を結合した解析結果結合データを入力する構成としてもよい。
【0035】
<ノイズをカーネル密度推定法またはその他のノンパラメトリック手法により生成する構成>
【0036】
また、前述した増幅器を生成器と判別器とを備えた敵対的生成ネットワークにより構成した場合において、
増幅器は、
生成器に入力する潜在変数としてのノイズを生成するノイズ生成手段を備え、
このノイズ生成手段は、
標本として得られた複数の実測データによる標本分布について目的変数毎に正規性を有するか否かを判断する処理を実行した後、正規性を有していないと判断した場合には、カーネル密度推定法または分布の形状を仮定せずに推定するその他のノンパラメトリック手法により、目的変数毎に標本分布から母集団の分布を推定し、目的変数毎に推定した分布を反映させたノイズを生成する構成とされていることが望ましい。
【0037】
ここで、「目的変数毎」には、目的変数毎で、かつ、特徴量毎の場合が含まれる。特徴量毎とは、説明変数毎を意味し、人間の生体反応データの場合には、生理反応データ毎であり、人間の行動・動態データの場合には、項目データ毎である。
【0038】
このようにノイズをカーネル密度推定法またはその他のノンパラメトリック手法により生成する構成とした場合には、目的変数毎に推定した母集団の分布を反映させたノイズを生成するので、人間から得られるデータ群の特性に応じてノイズを調整することができる。このため、調整されたノイズを用いて多数の人間様データを生成するので、より人間から得られる状態に近い状態で大量の学習用データを得ることができる。
【0039】
<標本数の十分でないデータ群の評価のための分析を行う構成>
【0040】
さらに、前述した情報処理システムにおいて、
代用データとしての人間様データを用いることなく、機械学習用の標本となる複数の実測データおよびこれらの実測データの各々に対応する目的変数を用いて、推定器で使用するパラメータを決定する学習処理を実行する事前学習用推定器を備え、
分析器は、
(1)事前学習用推定器による学習処理で得られた学習終了時点でのバリデーションデータの正解率を示す比較用の正解率終点値と、当該分析器による学習処理で得られた学習終了時点でのバリデーションデータの正解率を示すターゲット用の正解率終点値とを用いるか、または、
(2)事前学習用推定器による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つの指標値を示す比較用の正解率テスト値と、当該分析器による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つ指標値を示すターゲット用の正解率テスト値とを用いて、
比較用の正解率終点値若しくは比較用の正解率テスト値と、ターゲット用の正解率終点値若しくはターゲット用の正解率テスト値との相対関係で予め定められた過学習判定用の正解率条件を満たすか否かを判断する分析処理を実行するか、
または、この正解率条件を満たすか否かを判断する分析処理に加え、
(3)事前学習用推定器による学習処理で得られた学習の途中の予め定められた時点でのバリデーションデータの損失を示す比較用の損失中間値と、事前学習用推定器による学習処理で得られた学習終了時点でのバリデーションデータの損失を示す比較用の損失終点値と、当該分析器による学習処理で得られた学習の途中の予め定められた時点でのバリデーションデータの損失を示すターゲット用の損失中間値と、当該分析器による学習処理で得られた学習終了時点でのバリデーションデータの損失を示すターゲット用の損失終点値とを用いて、
比較用の損失中間値から比較用の損失終点値に向けた比較用の傾きと、ターゲット用の損失中間値からターゲット用の損失終点値に向けたターゲット用の傾きとの相対関係で予め定められた過学習判定用の損失条件を満たすか否かを判断する分析処理を実行する構成とされていることが望ましい。
【0041】
ここで、「相対関係で予め定められた過学習判定用の正解率条件」や「相対関係で予め定められた過学習判定用の損失条件」とは、例えば、比率や差分等で事前に定められている条件という意味である。正解率条件に加えて損失条件の成否判定も行う場合には、正解率条件、損失条件のいずれかの条件が満たされれば、事前学習用推定器での実測データによる学習処理が過学習であると判定される。
【0042】
このように標本数の十分でないデータ群の評価のための分析を行う構成とした場合には、標本数の十分でないデータ群の偏りの検証を行うことができ、たとえ事前学習用推定器での少量の実測データによる学習処理で高い正解率が得られたとしても、過学習を起こしていると判定することが可能となる。このため、標本データセットの取り直し等により、高精度な推定器を構築することが可能となる。
【0043】
<事前学習用推定器の学習処理で決定したパラメータとしての重みを、増幅器を構成する学習処理前の判別器、および学習処理前の分析器に移す構成>
【0044】
また、前述した増幅器を生成器と判別器とを備えた敵対的生成ネットワークにより構成した場合において、
代用データとしての人間様データを用いることなく、機械学習用の標本となる複数の実測データおよびこれらの実測データの各々に対応する目的変数を用いて、推定器で使用するパラメータを決定する学習処理を実行する事前学習用推定器を備え、
この事前学習用推定器は、
増幅器を構成する学習処理前の判別器、および学習処理前の分析器に、当該事前学習用推定器の学習処理で決定したパラメータとしての重みを移すための重み出力処理を実行する構成とされていることが望ましい。
【0045】
このように事前学習用推定器の学習処理で決定したパラメータとしての重みを、増幅器を構成する学習処理前の判別器、および学習処理前の分析器に移す構成とした場合には、増幅器を構成する判別器での学習処理、および分析器での学習処理を早期に終了させることが可能となる。
【0046】
<目的変数のクラス数を削減調整する構成>
【0047】
さらに、前述した情報処理システムにおいて、
増幅器により多数の人間様データを生成する際に用いる複数の実測データおよびこれらの実測データの各々に対応する目的変数について、標本数の全体に対して各目的変数に対応する実測データの数の占める割合を算出し、全体に対して占める割合が、予め定められた閾値以下または未満という少数目的変数条件を満たす目的変数が存在するか否かを判断し、存在する場合には、少数目的変数条件を満たす目的変数に対応する実測データを、少数目的変数条件を満たさない他の目的変数に対応する実測データに割り振ることにより、目的変数のクラス数を削減する処理を実行する目的変数調整手段を備えた構成とすることが望ましい。
【0048】
このように目的変数のクラス数を削減調整する構成とした場合には、目的変数の各クラス間での標本数のばらつきが少なくなり、推定器の推定精度の向上を図ることが可能となる。
【0049】
<欠損値補完を行う構成>
【0050】
そして、前述した情報処理システムにおいて、
増幅器により多数の人間様データを生成する際に用いる複数の実測データの中に、部分的に欠損値を有する実測データが存在する場合に、欠損値を有する実測データと、実測データ内の欠損値の位置情報と、欠損部分に埋め込む埋込ノイズと、実測データに対応する目的変数とを用いて、パターン認識用の学習処理およびパターン認識処理を行うことにより、欠損値を補完した状態の実測データを生成する処理を実行する欠損値補完器を備えた構成としてもよい。
【0051】
このように欠損値補完を行う構成とした場合には、機械学習用の標本となる複数の実測データの中に、欠損値を有する実測データが存在しても、その欠損値を有する実測データを活用して増幅器による多数の人間様データの生成を実現することができる。このため、元々、標本数が十分でない状況下において、それらの標本を無駄にすることなく活かすことができる。
【0052】
<ネットワークを介して推定器に関する情報処理サービスの提供を行う構成>
【0053】
ネットワークを介した推定器に関する情報処理サービスの提供は、大別すると2種類あり、サービスの提供を受ける依頼者が自分で推定器を構築する場合と、サービス提供者が推定器を構築する場合とがある。
【0054】
依頼者が自分で推定器を構築する場合は、次のような構成とすることができる。すなわち、前述した情報処理システムにおいて、
依頼者端末からネットワークを介して送信されてくる複数の実測データおよびこれらの実測データの各々に対応する目的変数を標本データセットとして受信し、受信した標本データセットを標本記憶手段に記憶させる処理を実行する標本受付手段を備え、
増幅器は、
標本記憶手段に記憶された複数の実測データおよびこれらの実測データの各々に対応する目的変数を用いて、パターン認識用の学習処理およびパターン認識処理を行うことにより、多数の人間様データを目的変数毎に生成する処理を実行する構成とされ、
分析器は、
増幅器により生成された多数の人間様データおよびこれらの人間様データの各々に対応する目的変数を学習用データとして用いて、推定器で使用するパラメータを決定し、決定したパラメータをターゲットモデル記憶手段に記憶させる学習処理を実行した後、ターゲットモデル記憶手段に記憶されたパラメータを、ネットワークを介して依頼者端末に送信するパラメータ出力処理を実行する構成とすることができる。
【0055】
このように依頼者が自分で推定器を構築する場合のサービス提供では、先ず、依頼者が取得した少量の標本データセットを、依頼者端末からネットワークを介して情報処理システムで受け取り、受け取った少量の標本データセットから、増幅器により多数の人間様データを生成し、生成した多数の人間様データを用いて、分析器により推定器用のパラメータを決定し、決定したパラメータを、ネットワークを介して依頼者端末へ送信する。次に、依頼者は、情報処理システムから受け取ったパラメータを用いて自ら推定器を構築する。
【0056】
また、サービス提供者が推定器を構築する場合は、次のような構成とすることができる。すなわち、前述した情報処理システムにおいて、
依頼者端末からネットワークを介して送信されてくる複数の実測データおよびこれらの実測データの各々に対応する目的変数を標本データセットとして受信し、受信した標本データセットを標本記憶手段に記憶させる処理を実行する標本受付手段と、
依頼者端末からネットワークを介して送信されてくる新たに取得された実測データを推定対象として受信し、受信した推定対象を推定対象記憶手段に記憶させる処理を実行する推定対象受付手段と、
分析器で決定されたパラメータを推定モデルとして記憶する推定モデル記憶手段を含んで構成される推定器とを備え、
増幅器は、
標本記憶手段に記憶された複数の実測データおよびこれらの実測データの各々に対応する目的変数を用いて、パターン認識用の学習処理およびパターン認識処理を行うことにより、多数の人間様データを目的変数毎に生成する処理を実行する構成とされ、
分析器は、
増幅器により生成された多数の人間様データおよびこれらの人間様データの各々に対応する目的変数を学習用データとして用いて、推定器で使用するパラメータを決定し、決定したパラメータをターゲットモデル記憶手段に記憶させる学習処理を実行した後、ターゲットモデル記憶手段に記憶されたパラメータを、推定器に渡すために出力するパラメータ出力処理を実行する構成とされ、
推定器は、
推定対象記憶手段に推定対象として記憶された新たに取得された実測データを入力し、推定モデル記憶手段に記憶された推定モデルを用いて、入力された実測データに対応する目的変数を推定し、この推定結果を、ネットワークを介して依頼者端末に送信する処理を実行する構成とすることができる。
【0057】
このようにサービス提供者が推定器を構築する場合のサービス提供では、先ず、依頼者が取得した少量の標本データセットを、依頼者端末からネットワークを介して情報処理システムで受け取り、受け取った少量の標本データセットから、増幅器により多数の人間様データを生成し、生成した多数の人間様データを用いて、分析器により推定器用のパラメータを決定し、決定したパラメータを用いて情報処理システム内に推定器を構築する。次に、依頼者が取得した新たな実測データを、依頼者端末からネットワークを介して情報処理システムで受け取り、受け取った実測データを、情報処理システム内に構築した推定器に入力して目的変数を推定し、その推定結果を、ネットワークを介して依頼者端末へ送信する。
【0058】
さらに、依頼者が自分で推定器を構築する場合と、サービス提供者が推定器を構築する場合とに共通する構成として、次のように過学習の有無および標本の取り直しの指示情報の送信を行う構成を採用することができる。
【0059】
すなわち、依頼者が自分で推定器を構築する場合、または、サービス提供者が推定器を構築する場合において、
代用データとしての人間様データを用いることなく、機械学習用の標本となる複数の実測データおよびこれらの実測データの各々に対応する目的変数を用いて、推定器で使用するパラメータを決定する学習処理を実行する事前学習用推定器を備え、
分析器は、
(1)事前学習用推定器による学習処理で得られた学習終了時点でのバリデーションデータの正解率を示す比較用の正解率終点値と、当該分析器による学習処理で得られた学習終了時点でのバリデーションデータの正解率を示すターゲット用の正解率終点値とを用いるか、または、
(2)事前学習用推定器による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つの指標値を示す比較用の正解率テスト値と、当該分析器による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つ指標値を示すターゲット用の正解率テスト値とを用いて、
比較用の正解率終点値若しくは比較用の正解率テスト値と、ターゲット用の正解率終点値若しくはターゲット用の正解率テスト値との相対関係で予め定められた過学習判定用の正解率条件を満たすか否かを判断する分析処理を実行するか、
または、この正解率条件を満たすか否かを判断する分析処理に加え、
(3)事前学習用推定器による学習処理で得られた学習の途中の予め定められた時点でのバリデーションデータの損失を示す比較用の損失中間値と、事前学習用推定器による学習処理で得られた学習終了時点でのバリデーションデータの損失を示す比較用の損失終点値と、当該分析器による学習処理で得られた学習の途中の予め定められた時点でのバリデーションデータの損失を示すターゲット用の損失中間値と、当該分析器による学習処理で得られた学習終了時点でのバリデーションデータの損失を示すターゲット用の損失終点値とを用いて、
比較用の損失中間値から比較用の損失終点値に向けた比較用の傾きと、ターゲット用の損失中間値からターゲット用の損失終点値に向けたターゲット用の傾きとの相対関係で予め定められた過学習判定用の損失条件を満たすか否かを判断する分析処理を実行し、
正解率条件、損失条件のいずれかの条件を満たすと判断した場合に、事前学習用推定器での学習処理が過学習を起こしている旨および標本の取り直しの指示情報を、ネットワークを介して依頼者端末に送信する分析結果出力処理も実行する構成を採用することができる。
【0060】
このように過学習の有無および標本の取り直しの指示情報の送信を行う構成とした場合には、依頼者の取得した標本データセットが、機械学習用の標本として適切ではないことを依頼者に伝達し、標本の取り直しを促すことが可能となる。このため、依頼者が自分で推定器を構築する場合でも、サービス提供者が推定器を構築する場合でも、高精度な推定器を構築することが可能となる。
【0061】
<プログラムの発明>
【0062】
また、本発明のプログラムは、以上に述べた情報処理システムとして、コンピュータを機能させるためのものである。
【0063】
なお、上記のプログラムまたはその一部は、例えば、光磁気ディスク(MO)、コンパクトディスク(CD)、デジタル・バーサタイル・ディスク(DVD)、フレキシブルディスク(FD)、磁気テープ、読出し専用メモリ(ROM)、電気的消去および書換可能な読出し専用メモリ(EEPROM)、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、フラッシュディスク等の記録媒体に記録して保存や流通等させることが可能であるとともに、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等の有線ネットワーク、あるいは無線通信ネットワーク、さらにはこれらの組合せ等の伝送媒体を用いて伝送することが可能であり、また、搬送波に載せて搬送することも可能である。さらに、上記のプログラムは、他のプログラムの一部分であってもよく、あるいは別個のプログラムと共に記録媒体に記録されていてもよい。
【発明の効果】
【0064】
以上に述べたように本発明によれば、標本数の少ない実測データから、増幅器でパターン認識用の学習処理およびパターン認識処理を行うことにより多数の人間様データを生成し、これらの多数の人間様データを用いて推定器用のパラメータを決定するための学習処理を行うので、十分な数で、かつ、効果的な学習用データを用いた学習処理を実現することができるため、標本数が十分でない生体反応データ群や行動・動態データ群から高精度な推定器を構築することができるという効果がある。
【図面の簡単な説明】
【0065】
【
図1】本発明の第1実施形態の情報処理システムおよび周辺システムを含む全体構成図。
【
図2】第1実施形態の情報処理システムの詳細構成図。
【
図3】第1実施形態の情報処理システムにおける処理の流れを示すフローチャートの図。
【
図4】第1実施形態の標本データ(人間の生体反応データAの場合)の例示図。
【
図5】第1実施形態の1つの実測データ(人間の生体反応データAの場合)を構成するために結合する複数種類の生理反応データの測定時間の関係の説明図。
【
図6】第1実施形態の標本データ(人間の行動・動態データBの場合)の例示図。
【
図7】第1実施形態のトレンド解析手段による解析結果の説明図。
【
図8】第1実施形態の短期・長期確率変数(その1)の説明図。
【
図9】第1実施形態の短期・長期確率変数(その2)の説明図。
【
図10】第1実施形態の短期・長期確率変数(その3)の説明図。
【
図11】第1実施形態のノイズ生成手段による処理の説明図。
【
図12】第1実施形態の分析器による分析処理の説明図。
【
図16】第1実施形態の短期・長期確率変数の適用効果を示す実験例の説明図。
【
図17】第1実施形態のカーネル密度推定によるノイズの適用効果を示す実験例の説明図。
【
図18】本発明の第2実施形態の情報処理システムを構成する欠損値補完器の構成図。
【
図19】第2実施形態の欠損値補完処理の流れを示すフローチャートの図。
【
図20】第2実施形態の人間の行動・動態データBについての欠損値補完処理で、欠損値補完データ生成器(Gi)に入力するデータの説明図。
【発明を実施するための形態】
【0066】
[第1実施形態]
【0067】
以下に本発明の第1実施形態について図面を参照して説明する。
図1には、第1実施形態の情報処理システム10および周辺システムを含む全体構成が示されている。
図2には、情報処理システム10の詳細構成が示され、
図3には、情報処理システム10における処理の流れがフローチャートで示されている。また、
図4~
図17は、情報処理システム10におけるデータや処理の内容、および実験例についての説明図である。
【0068】
<情報処理システム10および周辺システムを含む全体構成>
【0069】
図1において、ネットワーク1には、推定器に関する情報処理サービスを提供するサービス提供者により運営・管理される情報処理システム10と、サービスの提供を受ける依頼者が操作する依頼者端末80とが接続されている。また、情報処理システム10によるサービスの提供で得られた推定器用のパラメータ(推定モデル)を用いて依頼者が構築した推定システム90が設けられている。
【0070】
ここで、ネットワーク1は、本実施形態では、例えば、主としてインターネット、あるいはインターネットとLANやイントラネット等の内部ネットワークとの組合せ等により構成され、有線であるか、無線であるか、有線・無線の混在型であるかは問わない。また、サービス提供者と依頼者との関係は、同じ会社内の別の部署等であってもよく、その場合には、ネットワーク1は、LANやイントラネット等の内部ネットワークでもよい。
【0071】
図1および
図2において、情報処理システム10は、1台または複数台のコンピュータにより構成され、標本受付手段11と、トレンド解析手段12と、目的変数調整手段13と、推定対象受付手段14と、標本記憶手段15と、推定対象記憶手段16と、推定結果記憶手段17と、事前学習用推定器20と、増幅器30と、分析器60と、推定器70とを含んで構成されている。また、増幅器30は、ノイズ生成手段31と、生成器40と、判別器50とを含んで構成されている。
【0072】
図2に示すように、事前学習用推定器20は、処理手段20Aと、比較モデル記憶手段25と、分析用データ記憶手段26とを含んで構成されている。増幅器30を構成する生成器40は、処理手段40Aと、生成モデル記憶手段44とを含んで構成されている。増幅器30を構成する判別器50は、処理手段50Aと、判別モデル記憶手段53とを含んで構成されている。分析器60は、処理手段60Aと、ターゲットモデル記憶手段67と、分析結果記憶手段68とを含んで構成されている。推定器70は、処理手段70Aと、推定モデル記憶手段74とを含んで構成されている。
【0073】
以上のうち、標本受付手段11、トレンド解析手段12、目的変数調整手段13、推定対象受付手段14、および各処理手段20A,40A,50A,60A.70Aは、情報処理システム10を構成するコンピュータ本体の内部に設けられた中央演算処理装置(CPU)、およびこのCPUの動作手順を規定する1つまたは複数のプログラム、並びに、主メモリやキャッシュメモリ等の作業用メモリ等により実現される。
【0074】
また、標本記憶手段15、推定対象記憶手段16、推定結果記憶手段17、比較モデル記憶手段25、分析用データ記憶手段26、生成モデル記憶手段44、判別モデル記憶手段53、ターゲットモデル記憶手段67、分析結果記憶手段68、および推定モデル記憶手段74は、例えばハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)等により好適に実現されるが、記憶容量やアクセス速度等に問題が生じない範囲であれば、例えば、USBメモリ、DVD、CD、MO、磁気テープ等の他の記録媒体を採用してもよい。なお、比較モデル記憶手段25、生成モデル記憶手段44、判別モデル記憶手段53、ターゲットモデル記憶手段67、および推定モデル記憶手段74は、パターン認識器用のパラメータ(モデル)を記憶するものであり、パラメータを保存する場合には、不揮発性メモリを指すが、本願の説明において、学習段階でパラメータを更新している状態や、運用段階でパラメータを用いて推定処理を実行している状態では、主メモリ(揮発性メモリ)を指す場合もある。また、その他の各記憶手段15,16,17,26,68についても、データの保存が必要ない場合には、揮発性メモリとしてもよい。
【0075】
依頼者端末80は、コンピュータにより構成され、例えば液晶ディスプレイ等の表示手段と、例えばマウスやキーボード等の入力手段とを備えている。この依頼者端末80は、例えばスマートフォンやタブレット等の携帯機器でもよい。また、図示は省略されているが、依頼者端末80は、人間の生体反応データAや行動・動態データBを測定する各種のセンサ、およびこれらのセンサの出力信号をネットワーク1に送出するための接続機器(データ形式の変換や、通信方式を変換するゲートウェイの役割を果たす機器)を備えていてもよい。
【0076】
さらに、
図1において、推定システム90は、1台または複数台のコンピュータにより構成され、推定器91と、トレンド解析手段92とを含んで構成されている。これらの推定器91およびトレンド解析手段92は、情報処理システム10を構成する推定器70およびトレンド解析手段12と同様である。また、図示は省略されているが、推定システム90は、人間の生体反応データAや行動・動態データBを測定する各種のセンサを備えていてもよい。そして、複数の依頼者がいれば、依頼者端末80は複数となり、推定システム90の設置数も複数となる。これらの複数の推定システム90は、通常、それぞれ異なる依頼で得られた異なるパラメータ(推定モデル)による推定器91を備えているので、それぞれ異なる内容の推定処理を行うものである。但し、設置場所が異なれば、同じ内容の推定処理を行う推定システム90が複数個所に設置されていてもよく、例えば、車載の推定システム90とする場合には、同じ内容の推定処理を行う推定システム90を、それぞれの車に設置してもよい。
【0077】
<情報処理システム10/標本受付手段11の構成、標本データセットの内容>
【0078】
図1および
図2において、標本受付手段11は、依頼者端末80からネットワーク1を介して送信されてくる標本データセット群(複数の実測データおよびそれらの実測データの各々に対応する目的変数)を受信し、受信した標本データセット群を、依頼者識別情報または案件識別情報と関連付けて標本記憶手段15に記憶させる処理を実行するものである。
【0079】
情報処理システム10で取り扱うデータには、人間の生体反応データAと、人間の行動・動態データBとがある。依頼者端末80から送信されてくる標本データセット群は、推定器70,91用のパラメータを決定するための機械学習に用いられるが、人間から得られるデータであるため、基本的には、標本数が十分ではなく、情報処理システム10は、そのような標本数が十分でないデータ群を取り扱う。なお、行動・動態データBの場合は、いわゆるビッグデータとして得られる場合もあるが、多様な項目からなり、項目間でのデータ量のばらつきがあるので、目的(推定処理の内容)によっては、少量のデータしか得られない場合もあることから、ここでは、標本数が十分でないデータ群として取り扱う。
【0080】
<人間の生体反応データAの内容>
【0081】
人間の生体反応データAは、実験的手法(センサによる測定等)により得られる生理反応を示すデータと、調査的手法(被験者へのヒアリングやアンケート等により、複数の選択肢の中からの被験者の選択情報を得るという手法)により得られる言語的な反応成分で表現される心理反応を示すデータとに分けることができる。前者の生理反応データは、説明変数としての実測データとなり、後者の心理反応データは、目的変数としてのラベルとなる。後者の心理反応データについては、例えば「快適、やや不快、不快」等のような言語的な反応成分で表現されるが、これは、人間の心理状態が言語に置き換えられて表現されるからであり、言語が異なれば(例えば日本語と外国語)、言語表現にずれが生じることもあるので、各クラスの境界が変わることや、クラス数が変わることもある。
【0082】
図4に示すように、本実施形態では、説明変数として複数種類の生理反応データが用いられるので、第1、第2、第3、第4、…の生理反応データには、A1,A2,A3,A4,…という符号を付し、目的変数としての心理反応データ(心理量)には、ARという符号を付して説明を行う。
【0083】
説明変数として用いることができる生理反応データとしては、人間の視聴覚等の感覚系のデータ、脳活動を中心とした中枢系のデータ、心拍や呼吸等の自律系のデータ、筋活動や内分泌等の出力系のデータがある。より具体的には、例えば、眼球運動、調節作用、瞳孔、瞬目、脳波、誘発電位、脳血流、MRI画像、CT画像、心電図波形、心拍数(HR:heart rate)、脈波、脈拍数(PR:pulse rate)、代謝量、筋電、反応時間、GSR(皮膚電気反射:galvanic skin response)、皮膚電位、皮膚温、重心動揺、体動(ロール(roll)、ピッチ(pitch))等がある。また、説明変数として、波形データから算出される既知の指標(例えば、周波数成分やピーク数等の指標)を用いることもでき、例えば、脈拍から算出される指標であるLF(低周波成分:Low Frequency)、HF(高周波成分:High Frequency)、LF/HF等を用いることもできる。
【0084】
これらの生理反応データには、心電図波形や脳波や脈波等の時系列データのように、横軸が時間の波形データ(ベクトルで表すことができるデータ)の場合と、心拍数(1分間の心拍回数を意味し、1分間に心臓が何回、収縮と拡張を行っているのかを示す数値)等のように、所定時間の測定結果として得られた単一のスカラー値(例えば、1分間に80拍)の場合と、MRI画像やCT画像等のような画像データの場合とがある。なお、LF、HF、LF/HFといった指標は、低周波や高周波やそれらの比の値の波である変動波(波形データ)を指す場合と、低周波や高周波の各周波数領域のパワースペクトルの合計量(積分値)やそれらの比の値を指す場合とがある。
【0085】
生理反応データが波形データとして得られている場合には、基本的には、そのまま使用する。つまり、波形データ(生データ)のままで、他の種類の生理反応データと結合(単純結合でよい。)し、事前学習用推定器20、判別器50、分析器60、推定器70に入力する1つの実測データ(同時期にパターン認識器に入力する実測データ)とする。なお、分析器60では、人間様データを用いて学習処理(推定器70用のパラメータを決定する処理)を行うので、複数種類の生理反応データ(実測データ)を結合したデータは、学習用データとしてではなく、テストデータとして分析器60に入力する。また、推定器70に入力する実測データは、標本としての実測データではなく、運用段階で得られた新たな実測データであるが、複数種類の生理反応データ(実測データ)の結合形態は、標本データの場合も、運用段階の入力データの場合も同様である。
【0086】
例えば、
図4に示すように、第1の生理反応データA1を、Δt(例えば、10秒間、1分間等)の時間間隔で取得していくと、A1(1),A1(2),A1(3),…,A1(k),…,A1(M)という実測データが得られる。これらは、連続する時系列データである。k=1~Mは、同一被験者についての時系列データの測定時期を示し、目的変数ARの取得時期(ヒアリング等でラベルを取得する時期)と対応している。kの数値が大きい程、後の時期(時刻)である。他の種類の生理反応データも同様であり、第2、第3、第4、…の生理反応データA2,A3,A4,…についても、A2(k),A3(k),A4(k),…(k=1~M)が実測データとして得られる。
【0087】
ある1つの標本データセットは、
図4中の点線で示すように、k=1~Mのうちの、ある1時期に取得した実測データA1(k),A2(k),A3(k),A4(k),…の結合データおよびそれに対応する目的変数AR(k)である。A1(k),A2(k),A3(k),A4(k),…は、それぞれが波形データ(時系列データ)であるから、例えば、A1(k)=(A1(k,1),A1(k,2),A1(k,3),…,A1(k,N1))というN1次元のベクトルで表すことができる。つまり、k=1からk=Mへと時間が流れる中で(M個の測定時期がある中で)、それぞれの測定時期において、さらにサンプリング周波数で定まるN1個の計測タイミングを通過して時間が流れていることになる。例えば、サンプリング周波数が10Hzで、Δt=10秒間とすれば、N1=10×10=100次元となる。サンプリング周波数は、生理反応データの種類毎に異なっていてもよいので、
図4では、A2(k)はN2次元、A3(k)はN3次元、A4(k)はN4次元等としている。従って、結合後の1つの実測データの総次元数Nは、N=N1+N2+N3+N4+…となり、例えば、9種類の生理反応データA1,A2,A3,A4,…,A9につき、各々の次元数が、N1=N2=N3=N4=…=N9=100次元である場合には、100次元×9種類で、総次元数N=900次元となる。
【0088】
また、生理反応データが波形データとして得られている場合に、元の波形データのままで使用しても(すなわち、元の波形データのままで他の種類の生理反応データと結合して識別を行っても)、識別率の向上に寄与しない場合には、元の波形データから既知の指標(例えば、周波数成分やピーク数等の指標であり、より具体的には、LF、HF、LF/HF等)を算出し、元の波形データとその指標とを組み合わせて使用するか、または、元の波形データに代えて、その指標を使用してもよい。なお、他の種類の生理反応データと結合する際に、他の種類の生理反応データが波形データとして結合される場合は、LF、HF、LF/HF等の指標も波形データとすることが好ましい。
【0089】
前者のように、元の波形データとそこから得られた指標とを組み合わせて使用する場合、元の波形データ(時系列データ)を例えばCNN(畳み込みニューラルネットワーク)やRNN(リカレントニューラルネットワーク)で次元圧縮した後に、既知の指標と結合させることができる。この際、事前学習用推定器20、判別器50、分析器60、推定器70の内部において、両者を結合させる層(ニューラルネットワークのLayer)の位置を調整することにより、次元数を調整することができる。また、元の波形データ(時系列データ)について、予め事前学習用推定器20、判別器50、分析器60、推定器70の外部で次元圧縮を行ってから既知の指標と結合し、事前学習用推定器20、判別器50、分析器60、推定器70に入力してもよい。
【0090】
なお、既知の指標を使用するのではなく、波形データ(時系列データ)を周波数分析して得られた各周波数成分の値の全部または一部(一部の場合は、多数の成分値)を、元の波形データに代えて使用してもよい。
【0091】
さらに、生理反応データが心拍数等のような単一のスカラー値として得られている場合には、基本的には、計測機器で測定された生データ(取得時のデータ)を、他の種類の生理反応データと結合する(単純結合でよい)。また、心拍数等であれば、既に指標として知られているLF、HF、LF/HF等の算出値も結合することが好ましい。この場合の既知の指標は、変動波(波形データ)ではなく、低周波や高周波の各周波数領域のパワースペクトルの合計量(積分値)やそれらの比の値等である。
【0092】
そして、生理反応データがMRI画像やCT画像等のような画像データとして得られている場合には、例えばCNNを用いて画像特徴量を抽出して使用することができる。すなわち、抽出した画像特徴量を、他の種類の生理反応データと結合することができる。また、画像データを、例えば位置座標等に変換して使用することもできる。例えば、CT画像等であれば、血管の分岐点や、臓器の位置等を抽出して使用することができる。
【0093】
また、生理反応データは、結合前に、正規化を行うことが好ましい。個人によりベースとなる値(平均値、中央値、標準偏差等)が異なることが考えられるため、ベースとなる値を用いて正規化を行ってから、他の種類の生理反応データと結合することが好ましい。従って、以上の説明において、生データをそのまま使用すると説明しているものについても、正規化は行っておくことが好ましい。
【0094】
図5に示すように、複数種類の生理反応データを結合して1つの実測データとする際に、
図5中のA1(k),A2(k),A3(k)のように、各種類の生理反応データの測定時間長は、必ずしも一致していなくてもよい。また、
図5中のA4(k)のように、ある種類の生理反応データの測定時間帯が、他の種類の生理反応データの測定時間帯とずれていてもよい。さらに、
図5中のA1(k-1)とA1(k)との関係のように、A1(k-1)の測定時間帯とA1(k)の測定時間帯との間に、測定しない時間帯(あるいは、センサ計測は行われているが、センサ出力を取得しない時間帯)があってもよい。そして、
図5中のA5(k-1)とA5(k)との関係のように、同じ種類の生理反応データについて測定時間帯が部分的に重なるように切り出してデータを取得し(ずらしてデータを取得し)、各時期の実測データA5(1),A5(2),A5(3),…としてもよい。
【0095】
目的変数ARとして用いることができる心理反応データ(心理量)としては、具体的には、例えば、「快適、やや不快、不快」(不快感の程度)、「気持ち悪くない、気持ち悪い」(自動運転車による乗り物酔い、船酔い、飛行機酔い等のような各種の乗り物酔いの程度)、「眠くない、眠い」(眠気の程度)、空腹の程度、痒みの程度、痛みの程度、だるさの程度、疲労感の程度、寒気の程度、暑さの程度、感情の程度(憎悪感の程度、怒りの程度、悲しみの程度、嬉しさの程度、憂鬱の程度、面倒臭さの程度、恥かしさの程度、苦しみの程度、愛らしさの程度、親近感の程度、好き嫌いの程度等)、好ましさの程度(適・不適、当・不当、一致・不一致、類似・非類似、善悪等に対する判断の程度)等がある。目的変数ARのクラス数(言語的な表現で設定するラベルの数)は任意であり、2クラス分類(例えば、眠くない、眠い)でもよく、3クラス以上の分類(例えば、眠くない、やや眠い、眠い、非常に眠い)でもよい。
【0096】
<人間の行動・動態データBの内容>
【0097】
人間の行動・動態データBは、様々な項目データにより構成され、人間の属性(性別や年齢、居住地域、学歴、職業や収入等の社会活動に伴う地位・身分・立場・社会的環境、出生地、家族構成、戦争体験や震災体験の有無等の素性、保有資格や特技等の能力等)、地域の人口の増減・交通事故発生件数・交通渋滞発生状況等のような集団としての人間の行動結果(動態)、立っているか・座っているかの別や、歩いているか・走っているかの別等の個人としての人間の行動結果、若しくはその他の客観的事実を示す項目データと、人間の趣味嗜好や購買行動等の意志決定に基づく社会活動を示す項目データとがある。
【0098】
なお、本願では、国勢調査による人口の動態、交通量の動態等のように、主として、集団としての人間の行動結果(個々の人間の行動結果の集積や、集団行動の結果)を動態と呼ぶが、本発明では個人の行動と集団の行動とを区別する必要はなく、また、元々その区別も明確ではないので、「行動・動態データ」と称して1語で表現している。
【0099】
また、趣味嗜好のように、状況により(推定処理の内容や目的により)、客観的事実を示す項目データと、意志決定に基づく社会活動を示す項目データとのいずれにもなり得る項目データもある。すなわち、趣味嗜好によって購買行動としての選択行為が行われると考える場合は、趣味嗜好は、購買行動の要因となっているので、客観的事実を示す項目データであると捉えることができる。例えば、釣りが趣味の人は、SUV車を購入する傾向が強い等である。一方、人間の属性によって趣味の選択が行われると考える場合は、趣味嗜好は、意志決定に基づく社会活動を示す項目データであると捉えることができる。例えば、10代~40代の大学生や大学卒業者は、テニスを趣味に持つ傾向が強い、営業職の経験者は、ゴルフを趣味に持つ傾向が強い等である。
【0100】
上述したように、人間の行動・動態データBは、様々な項目データにより構成されるが、推定器70を構築するにあたり、それらの様々な項目データの中から、いずれの項目データを、目的変数として選択し、あるいは説明変数として選択するかは、推定処理の内容や目的により定まることになる。そして、説明変数として選択された項目データが実測データとなり、目的変数として選択された項目データが、ラベルとなる。
【0101】
図6に示すように、本実施形態では、説明変数として複数種類の項目データが用いられるので、第1、第2、第3、第4、…の項目データには、B1,B2,B3,B4,…という符号を付し、目的変数としての項目データには、BRという符号を付して説明を行う。
【0102】
具体的には、例えば、
図6に示すように、年齢、年収、職業、居住地域等の客観的事実を示す各項目データB1,B2,B3,B4,…から、目的変数BRとしての購買する車種を示すラベルを推定(予測)するモデルを構築することができる。このように客観的事実から、意志決定に基づく購買活動等の社会活動を示すラベルを推定するモデルの構築が主であるが、意志決定に基づく購買活動等の社会活動を示す項目データは、必ずしも目的変数BRとする必要はなく、説明変数としてもよい。例えば、購買車種や職業等から、居住地域を示すラベルを推定(予測)するモデルを構築してもよい。
【0103】
人間の行動・動態データBを構成する各項目データは、行動観察、過去から現在に至るまでの行動履歴データ(チケット購入、オンライン売買、その他の取引、検索、申請等の履歴データ)の取得、ヒアリング等の社会調査的な手法により測定される場合が多いが、実験的な手法で測定される場合もある。ここでいう実験的とは、必ずしも実験室内でデータ取得を行うという意味ではなく、センサによるデータ取得を行うという意味である。例えば、立って食べる顧客、座って食べる顧客、歩いてきた顧客、走ってきた顧客が、それぞれ何を注文するかを推定(予測)する場合等には、取得した画像データの解析により、顧客の状態データを得ることができる。また、各地点の交通流と、ある駐車場の利用状況との因果関係を推定する場合等には、交通流を計測するセンサにより、必要なデータを取得することができる。なお、交通流も、人間による車の運転によりもたらされているので、人間の行動・動態データBの一種である。
【0104】
人間の行動・動態データBを構成する項目データが画像データとして得られている場合、個人としての人間の行動の状態は、例えば、画像データから抽出した関節位置等で表すことができる。例えば、立っているのか、座っているのか、歩いているのか、走っているのか、手を上げているのか、手を下ろしているのか、前後左右のいずれに移動しているのか、機器に対してどのような操作を行っているのか等を捉えることができる。
【0105】
人間の行動・動態データBを構成する各項目データを結合して1つの実測データとする際には、各項目データを、例えば、ワンホットベクトルで表すことができる。具体的には、例えば、「0:男性」という項目データは、(1,0)とし、「1:女性」という項目データは、(0,1)とすることができる。項目データが、例えば年齢である場合には、元々、年齢はスカラー値であるから、その値をそのまま使用してもよく、あるいは「0:10際未満、1:10代(10~19歳)、2:20代(20~29歳)、3:30代(30~39歳)、…」等のように段階的な数値に変換して使用してもよい。一方、項目データが、例えば職業である場合に「0:公務員、1:IT企業、2:運送業、3:医者、…」等とし、その数値をそのまま使用すると、運送業がIT企業と医者との中間的な職業であるという解釈になってしまう可能性があるので、このような場合は、例えば、ワンホットベクトルで表すことができる。項目データが目的変数BRになる場合も同様であり、例えば、「0:大衆車」は、(1,0,0,0,…)とし、「1:SUV」は、(0,1,0,0,…)とし、「2:スポーツカー」は、(0,0,1,0,…)とし、「3:高級外車」は、(0,0,0,1,…)等とすることができる。
【0106】
図6に示すように、人間の行動・動態データBの場合も、前述した
図4の人間の生体反応データAの場合と同様に、同一人についての時系列でのデータの取得時期(発生時期)をk=1~Mで示している。同一人が年齢を重ねていく際に、その者の職業や収入等の変遷を、時系列データとして捉えることができるからである。kの時間間隔は、例えば、1年間、1ヶ月間等である。
【0107】
このため、
図6中の点線に示すように、各項目データを結合して1つの実測データとする際には、目的変数BR(k)に対応する1つの時期のB1(k),B2(k),B3(k),B4(k),…だけを結合するのではなく、それよりも前の時期のB1(k-1),B2(k-1),B3(k-1),B4(k-1),…や、B1(k-2),B2(k-2),B3(k-2),B4(k-2),…等を結合してもよい。
図6の例では、tが3時期(例えば、3年、3ヶ月)の各項目データを結合しているが、複数の時期の各項目データを結合する際の時期数は、任意であり、2時期の結合でも、4時期以上の結合でもよい。具体的には、20年間分のデータがある場合に、5年間分を結合してもよい。また、結合された状態の1つの実測データを、事前学習用推定器20、判別器50、分析器60、推定器70に入力する際には、入力データにマスクを入れることにより可変サイズのデータを入力することができるので、例えば、1時期から5時期(1年間分から5年間分、1ヶ月間分から5ヶ月間分、1週間分から5週間分等)のように結合対象の時期数(つまり、データサイズ)を変化させてもよい。
【0108】
<情報処理システム10/トレンド解析手段12の構成>
【0109】
図1および
図2において、トレンド解析手段12は、標本記憶手段15(標本としての実測データの場合)または推定対象記憶手段16(新たに取得した実測データの場合)に記憶されている時系列の複数の実測データを用いてトレンド解析を行うことにより、短期記憶の強度に相当する短期確率変数および長期記憶の強度に相当する長期確率変数を求め、求めた短期確率変数および長期確率変数を、解析対象とされた時系列の複数の実測データの各々と関連付けて、標本記憶手段15または推定対象記憶手段16に記憶させる処理を実行するものである。なお、
図1の推定システム90内のトレンド解析手段92も同様な処理を行うものである。
【0110】
このトレンド解析の処理は、既存の時系列データの分析手法により実現することができる。また、トレンド解析は、主として人間の生体反応データAについて行われるが、人間の行動・動態データBも時系列データと捉えることができるので、トレンド解析を行ってもよい。
【0111】
図7には、トレンド解析手段12による解析例が示されている。一番上には、測定された解析対象の時系列データ(生データ)が示され、上から2番目、3番目、4番目には、解析により得られた季節変動成分、トレンド成分、ノイズ成分が示されている。
【0112】
このうち、測定された解析対象の時系列データ(生データ)は、事前学習用推定器20、判別器50、分析器60(テストデータとして入力)、推定器70(運用段階で入力)に入力される実測データA1(k),A2(k),A3(k),A4(k),…(k=1,2,3,…,M)として用いられるデータである。
【0113】
また、トレンド成分は、実測データと結合されて事前学習用推定器20、判別器50、分析器60(テストデータとして入力)、推定器70(運用段階で入力)に入力される短期確率変数AS1(k),AS2(k),AS3(k),AS4(k),…(k=1,2,3,…,M)として用いられるデータである。なお、AS1,AS2,AS3,AS4,…という符号中の“S”は、短期(short)を示している。
【0114】
さらに、ノイズ成分は、そのまま用いるのではなく、上から5番目に示すように、ノイズ成分の絶対値累積和を求めて用いる。このノイズ成分の絶対値累積和は、実測データと結合されて事前学習用推定器20、判別器50、分析器60(テストデータとして入力)、推定器70(運用段階で入力)に入力される長期確率変数AL1(k),AL2(k),AL3(k),AL4(k),…(k=1,2,3,…,M)として用いられるデータである。なお、AL1,AL2,AL3,AL4,…という符号中の“L”は、長期(long)を示している。
【0115】
また、長期確率変数は、ノイズ成分の絶対値累積和とするのではなく、別の方法として、
図7中の一番下に示すように、ステップ関数状の長期確率変数としてもよい。この長期確率変数は、トレンド成分(短期確率変数)の値が予め定められた閾値に達した時点から、この閾値に達したときのトレンド成分(短期確率変数)の値を維持して形成されている。なお、この長期確率変数については、閾値に達する前は、ゼロまたは予め定められた値(小さい値)で維持してもよく、
図7中の一番下のグラフにおいて点線で示すように、短期確率変数の値と同じとしてもよい。
【0116】
この短期・長期確率変数は、記憶の認知的な特性をモデルとしている。記憶の多重貯蔵モデルと呼ばれるものである。例えば、目的変数ARに所定の変化(不快感の上昇等)が生じた際には、一時的に短期確率変数として貯蔵され、時間経過とともにその値(短期記憶の強度)は減衰していく。当該変化が反復(再認)された場合には、短期確率変数に貯蔵される値(短期記憶の強度)は増加(強化)される。そして、短期確率変数の値(短期記憶の強度)が閾値を超えると、その値は長期確率変数に渡される。長期確率変数では、時間経過に伴う値(長期記憶の強度)の減衰はなく、当該変化の再認と強化による強度は、一定水準まで上昇する。
【0117】
このように短期確率変数および長期確率変数を求め、実測データにこれらの短期確率変数および長期確率変数を結合した解析結果結合データを、増幅器30を構成する判別器50に入力すると、増幅器30を構成する生成器40から出力される増幅データ(増幅器30の学習中に生成される偽物データ)や人間様データ(詳細は後述する。)は、短期確率変数および長期確率変数が反映された状態(短期確率変数および長期確率変数で重み付けされた状態)のデータとなる。そして、この人間様データが学習用データとして分析器60に入力されるので、分析器60における学習処理で決定される推定器70用のパラメータ(ターゲットモデル)は、実測データに短期確率変数および長期確率変数を結合した解析結果結合データの入力に対して目的変数を出力する推定器70用のパラメータとなる。
【0118】
図8~
図10には、実測データと、この実測データと結合する短期確率変数および長期確率変数を求めるための解析対象の時系列データと、求めた短期確率変数および長期確率変数のうちの結合対象部分との関係が示されている。つまり、これらの3つは、一致していなくてもよい。
図8には、タイプα(解析対象の時間帯を累積させる場合)が示され、
図9には、タイプβ(解析対象の時間帯をずらしていく場合)が示され、
図10には、タイプγ(解析対象を直近の実測データのみにする場合)が示されている。
【0119】
図8において、タイプαでは、解析対象の時系列データの時間長は、時間の経過とともに、累積して長くなっていく。実測データA1(1)と結合する短期・長期確率変数を求めるための解析対象の時系列データは、A1(1)だけである。実測データA1(2)と結合する短期・長期確率変数を求めるための解析対象の時系列データは、A1(1)+A1(2)である。実測データA1(3)と結合する短期・長期確率変数を求めるための解析対象の時系列データは、A1(1)+…+A1(3)である。そして、実測データA1(k)と結合する短期確率変数および長期確率変数を求めるための解析対象の時系列データは、A1(1)+…+A1(k)である。この解析対象の時系列データA1(1)+…+A1(k)について、トレンド解析を行うと、同じ長さのトレンド成分(短期確率変数)およびノイズ成分が得られ、さらに、ノイズ成分から、同じ長さのノイズ成分絶対値累積和(長期確率変数)が得られる。
【0120】
しかし、トレンド解析で求めたトレンド成分(短期確率変数)およびノイズ成分絶対値累積和(長期確率変数)の全部(全長)を用いるわけではなく、求めた短期確率変数および長期確率変数のうちの最後の方の部分だけを用いる。つまり、最後の方の部分だけを、A1(k)との結合対象部分とする。但し、先頭の実測データA1(1)だけは、解析対象の時系列データと時間長が一致しているので、全部(全長)を用いることになる場合がある。
【0121】
上記のように最後の方の部分だけを用いる場合において、さらに、求めたトレンド成分(短期確率変数)およびノイズ成分絶対値累積和(長期確率変数)から切り出す長さの相違により、タイプα1,α2,α3がある。
【0122】
タイプα1では、求めたトレンド成分(短期確率変数)およびノイズ成分絶対値累積和(長期確率変数)から、A1(k)相当期間を切り出し、その切出部分だけを、A1(k)との結合対象部分であるAS1(k)およびAL1(k)とする。
【0123】
タイプα2では、求めたトレンド成分(短期確率変数)およびノイズ成分絶対値累積和(長期確率変数)から、A1(k)相当期間よりも短い時間長を切り出し、その切出部分だけを、A1(k)との結合対象部分であるAS1(k)およびAL1(k)とする。
【0124】
タイプα3では、求めたトレンド成分(短期確率変数)およびノイズ成分絶対値累積和(長期確率変数)から、A1(k)相当期間よりも長い時間長を切り出し、その切出部分だけを、A1(k)との結合対象部分であるAS1(k)およびAL1(k)とする。
【0125】
以上は、第1の生理反応データA1について説明したが、第2、第3、第4、…の生理反応データA2,A3,A4,…についても同様であり、例えば、第2の生理反応データA2の場合には、実測データA2(k)との結合対象部分であるAS2(k)およびAL2(k)が算出される。
【0126】
図8の最下部に示すように、kで示される測定時期(k=1,2,3,…のうちの任意の1時期)においては、その時期における実測データA1(k),A2(k),…に、短期確率変数AS1(k),AS2(k),…と、長期確率変数AL1(k),AL2(k),…とを結合して解析結果結合データが作成される。この解析結果結合データは、事前学習用推定器20、判別器50、分析器60(テストデータとして入力)、推定器70(運用段階で入力)に入力される。従って、A1(k),A2(k),…の各次元数をN1,N2,…とし、AS1(k),AS2(k),…の各次元数をNS1,NS2,…とし、AL1(k),AL2(k),…の各次元数をNL1,NL2,…とすれば、解析結果結合データの総次元数Nは、N=N1+N2+…+NS1+NS2+…+NL1+NL2+…となる。
【0127】
なお、長期確率変数は、時間経過に伴う値(長期記憶の強度)の減衰はないので、
図8のタイプαの場合には、例えば、測定機器(センサ)をOFFにした場合に、クリアされて初期状態に戻るようにしてもよく、あるいは、OFFにしても最後の値が維持されるようにする場合には、例えば、車の自動運転を停止後、所定時間が経過した場合や、所定時間の睡眠をとった場合等に、クリアされるようにしてもよい。
【0128】
図9において、タイプβでは、解析対象の時系列データの時間帯は、時間の経過とともに、ずれていく。但し、解析対象の時系列データの時間長は、一定である。
図9の例では、実測データA1(k)と結合する短期確率変数および長期確率変数を求めるための解析対象の時系列データは、A1(k-2)+A1(k-1)+A1(k)である。この解析対象の時系列データA1(k-2)+…+A1(k)について、トレンド解析を行うと、同じ長さのトレンド成分(短期確率変数)およびノイズ成分が得られ、さらに、ノイズ成分から、同じ長さのノイズ成分絶対値累積和(長期確率変数)が得られる。なお、
図9の例では、実測データA1(k)に対し、A1(k)を含む連続する3つの測定時期の実測データA1(k-2)~A1(k)を、解析対象の時系列データとしているが、解析対象の時系列データの時間長は、3つの測定時期に限らず、2つの測定時期でもよく、4以上の測定時期でもよく、要するに、A1(k)自身と、それよりも前の少なくとも1時期の実測データとを、解析対象の時系列データとすればよい。但し、k=0以下のA1(k)は存在しないので、解析対象から除外する。
【0129】
しかし、前述した
図8のタイプαの場合と同様に、
図9のタイプβでも、トレンド解析で求めたトレンド成分(短期確率変数)およびノイズ成分絶対値累積和(長期確率変数)の全部(全長)を用いるわけではなく、求めた短期確率変数および長期確率変数のうちの最後の方の部分だけを用いる。つまり、最後の方の部分だけを、A1(k)との結合対象部分とする。
【0130】
上記のように最後の方の部分だけを用いる場合において、さらに、求めたトレンド成分(短期確率変数)およびノイズ成分絶対値累積和(長期確率変数)から切り出す長さの相違により、タイプβ1,β2,β3がある。これらのタイプβ1,β2,β3は、前述した
図8のタイプα1,α2,α3と同じであり、
図9に示すように、
図8の場合と同様な処理により、AS1(k)およびAL1(k)を算出する。第2、第3、第4、…の生理反応データA2,A3,A4,…についても同様であり、AS2(k),AS3(k),AS4(k),…およびAL2(k),AL3(k),AL4(k),…を算出する。
【0131】
そして、
図9のタイプβでも、前述した
図8の最下部に示した場合と同様にして、
図9の最下部に示すように、実測データA1(k),A2(k),…に、短期確率変数AS1(k),AS2(k),…と、長期確率変数AL1(k),AL2(k),…とを結合して解析結果結合データが作成される。
【0132】
図10において、タイプγでは、解析対象を直近の実測データのみにする。この際、
図10の上部に示すように、連続して測定された時系列データとして各実測データA1(k)(k=1,2,3,…)が得られる場合と、間隔を置いて測定された時系列データとして各実測データA1(k)(k=1,2,3,…)が得られる場合(例えば、測定時間長Δt=10秒間、間隔長Δt1=50秒間、データ取得サイクル長Δt2=1分間)とがあるが、タイプγでは、いずれの場合の処理も同じである。すなわち、タイプγでは、解析対象を直近の実測データA1(k)のみにするので、トレンド解析を行う前提として、その実測データA1(k)自体が時系列データであることが必要となる。しかし、その前提が満たされていれば、実測データA1(k)と、それよりも前の測定時期の実測データA1(k-1)とが、連続していても、間隔を置いていても、解析対象は、実測データA1(k)のみであるため、解析処理の内容は同じである。
【0133】
図10のタイプγの場合は、前述した
図8のタイプαや
図9のタイプβの場合とは異なり、原則として、トレンド解析で求めたトレンド成分(短期確率変数)およびノイズ成分絶対値累積和(長期確率変数)の全部(全長)を用いる。タイプγでは、タイプα,βに比べて解析対象の時系列データの時間長が短いからである。しかし、求めた短期確率変数および長期確率変数のうちの一部(最後の方の部分だけ)を用いてもよい。つまり、最後の方の部分だけを、A1(k)との結合対象部分としてもよい。全部(全長)を用いる場合をタイプγ1とし、一部(最後の方の部分だけ)を用いる場合をタイプγ2とする。
【0134】
タイプγ1では、求めたトレンド成分(短期確率変数)およびノイズ成分絶対値累積和(長期確率変数)の全部(全長)、すなわちA1(k)相当期間の全部(全長)を、A1(k)との結合対象部分であるAS1(k)およびAL1(k)とする。
【0135】
タイプγ2では、求めたトレンド成分(短期確率変数)およびノイズ成分絶対値累積和(長期確率変数)からA1(k)相当期間よりも短い時間長を切り出し、その切出部分だけを、A1(k)との結合対象部分であるAS1(k)およびAL1(k)とする。
【0136】
以上は、第1の生理反応データA1について説明したが、第2、第3、第4、…の生理反応データA2,A3,A4,…についても同様であり、AS2(k),AS3(k),AS4(k),…およびAL2(k),AL3(k),AL4(k),…を算出する。
【0137】
そして、
図10のタイプγでも、前述した
図8、
図9の最下部に示した場合と同様にして、
図10の最下部に示すように、実測データA1(k),A2(k),…に、短期確率変数AS1(k),AS2(k),…と、長期確率変数AL1(k),AL2(k),…とを結合して解析結果結合データが作成される。
【0138】
<情報処理システム10/目的変数調整手段13の構成>
【0139】
図1および
図2において、目的変数調整手段13は、標本記憶手段15に記憶されている複数の実測データおよびこれらの実測データの各々に対応する目的変数について、標本数の全体に対して各目的変数に対応する実測データの数の占める割合を算出し、全体に対して占める割合が、予め定められた閾値以下または未満という少数目的変数条件を満たす目的変数が存在するか否かを判断し、存在する場合には、少数目的変数条件を満たす目的変数に対応する実測データを、少数目的変数条件を満たさない他の目的変数に対応する実測データに割り振ることにより、目的変数のクラス数を削減し、削減後の状態を標本記憶手段15に記憶させる処理を実行するものである。
【0140】
この目的変数調整手段13による目的変数のクラス数の削減調整処理は、最初から行うのではなく、先ず、複数の実測データおよびこれらの実測データの各々に対応する目的変数からなる標本データセット群を用いて事前学習用推定器20の学習処理を行い、構築したモデル(比較モデル)の性能(正解率等)が低い場合に行うようにしてもよい。
【0141】
具体的には、例えば、不快感を示す目的変数として、最初に3クラス識別を行うために「0:快適」、「1:やや不快」、「2:不快」という3つのラベルが設定されていたとする。このとき、「0:快適」のラベルが付された実測データの標本数が、かなり多く、「1:やや不快」が少なく、「2:不快」が殆どない場合には、「1:やや不快」と「2:不快」の目的変数を統合することにより、目的変数のクラス数を削減する。より正確には、標本数が殆どゼロ(閾値以下または未満)である「2:不快」の実側データを、「1:やや不快」に割り振る。つまり、その実側データについての目的変数(付されているラベル)を、「2:不快」から「1:やや不快」に置換する。但し、統合後(置換後)のラベルの名称(言語的に表現された呼び名)は、「2:不快」から「1:やや不快」への置換を行ったからといって、必ずしも「やや不快」とする必要はなく、例えば、「1:不快・やや不快」という新しい呼び名のラベルとしたり、あるいは名称自体は、少数だった方のラベルの名称を採用して「1:不快」としてもよい。
【0142】
また、ラベル「0」の標本数が、全体の48%であり、ラベル「1」の標本数が、全体の3%(閾値以下または未満)であり、ラベル「2」の標本数が、全体の49%である場合には、例えば、少数目的変数条件を満たすラベル「1」の3%の実測データを、少数目的変数条件を満たさないラベル「0」の48%、ラベル「2」の49%のうち、割合の少ない方のラベル「0」に割り振ることができる。従って、統合後(置換後)は、ラベル「0」の標本数が、全体の51%(=48%+3%)となり、ラベル「2」の標本数が、全体の49%となるが、ラベルの名称(呼び名)を変更したのと同様に、ラベルの番号自体は、詰めてよいので、ラベル「2」を無くし、ラベル「1」の標本数を、全体の49%とする。
【0143】
同様に、ラベル「0」、「1」、「2」、「3」の標本数が、全体の46%、2%、3%、49%である場合には、ラベル「1」の2%を、ラベル「0」に割り振り、ラベル「2」の3%を、ラベル「3」に割り振ることができ、統合後(置換後)は、ラベル「0」の標本数が、全体の48%(=46%+2%)となり、ラベル「3」の標本数が、全体の52%(=49%+3%)となるので、ラベルの番号を詰めて、ラベル「0」を48%、ラベル「1」を52%とする。
【0144】
また、上記の例は、少数目的変数条件を満たす目的変数(削除するラベル)の実測データは、少数目的変数条件を満たさない目的変数(削除しないラベル)のうち、なるべく近い値の目的変数(ラベル)に割り振るという考え方で、目的変数のクラス数の削減を行っているが、統合後(置換後)の目的変数の各値(各ラベル)の実測データの全体に占める割合を、なるべく均一にするという考え方を採用し、次のようにしてもよい。
【0145】
すなわち、ラベル「0」、「1」、「2」、「3」の標本数が、全体の46%、2%、3%、49%である場合に、ラベル「1」の2%と、ラベル「2」の3%とを、ラベル「0」に割り振ってもよく、統合後(置換後)は、ラベル「0」の標本数が、全体の51%(=46%+2%+3%)となり、ラベル「3」の標本数が、全体の49%となるので、ラベルの番号を詰めて、ラベル「0」を51%、ラベル「1」を49%とする。
【0146】
<情報処理システム10/推定対象受付手段14の構成>
【0147】
図1および
図2において、推定対象受付手段14は、依頼者端末80からネットワーク1を介して送信されてくる新たに取得された実測データを受信し、受信した実測データを、依頼者識別情報または案件識別情報と関連付けて推定対象記憶手段16に記憶させる処理を実行するものである。依頼者端末80からの実測データの送信は、複数(通常は多数)の実測データをまとめて送信するものでもよく、新たに取得した実測データを、取得の都度にリアルタイムまたは略リアルタイムで送信するものでもよい。後者のように、リアルタイムまたは略リアルタイムの送信の場合は、依頼者端末80には、センサが有線または無線で接続されている。
【0148】
<情報処理システム10/標本記憶手段15、推定対象記憶手段16、推定結果記憶手段17の構成>
【0149】
図1および
図2において、標本記憶手段15は、標本データセット群(複数の実測データおよびそれらの実測データの各々に対応する目的変数)を、依頼者識別情報または案件識別情報と関連付けて記憶するものである。
【0150】
推定対象記憶手段16は、運用段階で新たに取得された実測データを、依頼者識別情報または案件識別情報と関連付けて記憶するものである。
【0151】
推定結果記憶手段17は、運用段階で新たに取得された実測データの入力に対して推定器70から出力された目的変数を、入力した実測データまたはその識別情報と関連付けて記憶するものである。
【0152】
<情報処理システム10/事前学習用推定器20の構成>
【0153】
図1および
図2において、事前学習用推定器20は、分析器60により多数の人間様データを用いて推定器70用のパラメータを決定するための学習処理を行う前に、モデルの性能比較のために、標本数の十分でない実測データを用いて推定器70用のパラメータを決定するための事前学習処理を実行するものである。なお、分析器60による学習処理で、短期・長期確率変数が反映された人間様データを用いる場合には、この事前学習処理でも、実測データに短期・長期確率変数を結合した解析結果結合データを用いる。
【0154】
この事前学習用推定器20は、パターン認識器であり、増幅器30を構成する判別器50、分析器60、推定器70と同様な構成を有している。従って、例えば、判別器50、分析器60、推定器70がCNNで構成されていれば、事前学習用推定器20もCNNで構成される。但し、同様な構成とは、ネットワーク構造(層数、各種の層の配置等)が同様という意味であり、重み(パラメータ)が同じという意味ではない。
【0155】
図2に示すように、事前学習用推定器20は、処理手段20Aとして、設定手段21と、学習手段22と、分析用データ出力手段23と、重み出力手段24とを含んでいる。
【0156】
設定手段21は、比較モデル記憶手段25にパラメータの初期値を設定する処理を実行するものである。
【0157】
学習手段22は、標本データセット群(標本数の十分でない実測データおよびこれらの実測データの各々に対応する目的変数)を用いて、推定器70用のパラメータを決定するための事前学習処理を実行し、決定したパラメータを、比較モデルとして比較モデル記憶手段25に記憶させるとともに、学習中に得られるバリデーションデータの正解率(Accuracy)および損失(Loss)の履歴データ(横軸がエポック数のデータ)を、分析用データ記憶手段26に記憶させる処理を実行するものである。また、学習手段22は、学習後に、一部の実測データをテストデータとして用いて、事前学習処理で決定した学習済のパラメータによる比較モデルで推定処理を行い、その推定結果(予測結果)を評価するテスト処理を実行し、その比較モデルの性能を評価する指標値として、正解率(Accuracy)、再現率(Recall)、適合率(Precision)、F1値を算出し、これらの指標値を分析用データ記憶手段26に記憶させる処理も実行する。
【0158】
分析用データ出力手段23は、分析用データ記憶手段26に記憶されている分析用データ(学習中に得られたバリデーションデータの正解率および損失の履歴データ、学習後のテスト処理で得られた正解率、再現率、適合率、F1値)を、分析器60に送るために出力する処理を実行するものである。
【0159】
重み出力手段24は、事前学習処理で決定して比較モデル記憶手段25に記憶されている重み(パラメータ)を、判別器50および分析器60へ送るために出力する処理を実行するものである。
【0160】
比較モデル記憶手段25は、事前学習処理で決定した推定器70用のパラメータを、比較モデルとして記憶するものである。
【0161】
分析用データ記憶手段26は、学習手段22による学習中に得られたバリデーションデータの正解率および損失の履歴データ(横軸がエポック数のデータ)と、学習後のテスト処理で得られた正解率、再現率、適合率、F1値とを、分析器60へ送るための分析用データとして記憶するものである。
【0162】
<情報処理システム10/増幅器30の構成>
【0163】
図1および
図2において、増幅器30は、本実施形態では、敵対的生成ネットワーク(GAN:Generative adversarial networks)の一種であるAC-GAN(Conditional Image Synthesis with Auxiliary Classifier GANs)により構成されている。この増幅器30は、ノイズ生成手段31と、生成器40(Generator)と、判別器50(Discriminator)とを含んで構成されている。
【0164】
ノイズ生成手段31は、生成器40に入力する潜在変数Zとしてのノイズを生成する処理を実行するものである。通常、敵対的生成ネットワーク(GAN)では、潜在変数Zは、正規分布(
図11の上部を参照)や一様分布からのランダムサンプリングにより生成したランダムノイズを用いることが多いが、本実施形態では、
図11の下部に示すようなカーネル密度推定により得られた分布からのランダムサンプリングにより生成したランダムノイズを用いる場合がある。但し、標本分布が正規分布に近ければ、正規分布からのランダムノイズを用いてもよい。人間から得られたデータ群は、正規分布になることも多いからである。なお、一様分布からのランダムノイズを用いてもよい。また、カーネル密度推定法に代えて、分布の形状を仮定せずに推定する他のノンパラメトリック手法による分布からのランダムノイズを用いてもよい。
【0165】
具体的には、ノイズ生成手段31は、標本として得られた複数の実測データ(標本記憶手段15に記憶されている標本データ群)による標本分布について目的変数毎に正規性を有するか否かを判断する処理を実行した後、正規性を有していないと判断した場合には、カーネル密度推定法または分布の形状を仮定せずに推定するその他のノンパラメトリック手法により、目的変数毎に標本分布から母集団の分布を推定し、目的変数毎に推定した分布を反映させたノイズを生成する。これにより、人間から得られるデータ群の特性に応じてノイズを調整することができるため、生成器40で生成される多数の人間様データを、より人間から得られる状態に近い状態での大量の学習用データとすることができる。
【0166】
また、「目的変数毎」というのは、目的変数毎で、かつ、特徴量毎としてもよい。特徴量毎とは、説明変数毎(実測データの種類毎)を意味し、人間の生体反応データAの場合には、生理反応データ毎であり、人間の行動・動態データBの場合には、項目データ毎である。このようにする場合は、目的変数毎で、かつ、特徴量毎に推定した分布を反映させたノイズを生成し、複数種類の実測データの結合形態に対応させて、特徴量毎のノイズを結合して1つのノイズを生成することができる。
【0167】
このノイズ生成手段31により生成されるノイズ(潜在変数Z)は、例えば、100次元程度であるが、これに限定されるものではなく、生成器40および判別器50をNN(ニューラルネットワーク)で構成する場合には、生成器40の出力次元数に応じ、生成器40の層数やパラメータ数が、判別器50の層数やパラメータ数と同程度になるように、生成器40の入力次元数(ノイズの次元数と同じか、それよりも大きい次元数)を決定することができる。
【0168】
生成器40は、生成モデルを備えたパターン認識器であり、潜在変数Zとしてのノイズおよび目的変数を入力し、入力した目的変数に対応する増幅データを出力(生成)するものである。増幅データは、通常、GANにおいて偽物データ(Fake data)と呼ばれるものである。例えば、目的変数が、不快感の程度を示す心理量であり、「0:快適」、「1:不快」の各ラベルで表される場合には、生成器40は、「0:快適」に対応する増幅データと、「1:不快」に対応する増幅データとを区別して生成することができる。
【0169】
生成器40への目的変数の入力方法は、マルチプライ(Multiply)による方法と、ワンホットベクトル(One-hot vector)による方法とを採用することができる。前者のマルチプライによる方法では、目的変数をMultiplyによりノイズに乗算するので、N次元のノイズであれば、N個の要素の値の各々が何倍かされた状態となるため、ノイズの次元数は、目的変数を乗算する前後で変化せず、生成器40への入力データの次元数は、ノイズの次元数となる。後者のワンホットベクトルによる方法では、目的変数をワンホットベクトル(目的変数の各値(各ラベル)に対応する要素だけを1とし、その他の要素を0としたベクトル)に変換し、ノイズに、このワンホットベクトルを結合するので、生成器40への入力データの次元数は、潜在変数Zとしてのノイズの次元数と、ワンホットベクトルの次元数(目的変数のクラス数、すなわちラベルの数)との和となる。
【0170】
具体的には、生成器40は、例えば、NNにより構成することができる。生成器40のパラメータ数(または出力次元数)や、実測データの形態(時系列データ、項目データ等の別)により、全結合層と逆畳み込み層(Deconvolutionを行う層であり、転置畳み込み層とも呼ばれる。)とを含むNNとするか、全結合層のみのNNとするかを使い分けることができる。すなわち、パラメータ数(または出力次元数)が大きい場合、あるいは、実測データが時系列データ(波形データ)として取得された生理反応データ(生体反応データA)である場合には、全結合層と、逆畳み込み層とを組み合わせることができ、例えば、全結合層によりデータを拡張後、逆畳み込み層により更に拡張し、全結合層により出力する構成のNN等とすることができる。一方、パラメータ数(または出力次元数)が小さい場合、あるいは、実測データが心拍数等のように単一のスカラー値として取得された生理反応データ(生体反応データA)である場合や、行動・動態データBの項目データである場合には、全結合層のみのNNとすることができる。
【0171】
生成器40は、
図2に示すように、処理手段40Aとして、設定手段41と、学習手段42と、人間様データ生成手段43とを含んでいる。
【0172】
設定手段41は、生成モデル記憶手段44にパラメータの初期値を設定する処理を実行するものである。
【0173】
学習手段42は、生成器40のパラメータを決定するための学習処理を実行し、決定したパラメータを、生成モデルとして生成モデル記憶手段44に記憶させる処理を実行するものである。GANの学習では、生成器40については、判別器50を欺くことができる増幅データの出力を行うように学習し、判別器50については、より正確に識別を行うように学習するので、生成器40の学習を行う際には、生成器40と判別器50とを結合したコンバインドネットワーク(Combined networks)を形成する。すなわち、GAN全体の最終出力は、判別器50に入力されたデータが、実測データ(いわゆる本物データ:Real data)であるか、増幅データ(いわゆる偽物データ:Fake data)であるかの真偽(真偽の各々の確からしさを示す尤度)であるから、生成器40の学習を行う際にも、真偽を出力にとる。この際、生成器40の学習は、生成器40のパラメータ(重み)を決定するための学習であるから、コンバインドネットワークにおける判別器50のパラメータ(重み)は固定する。そして、ノイズを生成器40に入力して生成されるデータは、当然、増幅データ(いわゆる偽物データ)の方であるため、本来の正解の出力(識別結果)は「偽」であるが、「真」を使用して学習を行う。生成器40の目的は、判別器50を騙すことであるため、識別結果が「真」と判定される方が、生成器40の目的に沿ったパラメータを得ることができるからである。
【0174】
また、本実施形態では、AC-GANを利用しているので、上記のGANについての生成器40の学習において、更に、目的変数が加わる。より詳細には、生成器40への入力について、ノイズの他に、目的変数が加わる。また、ノイズについては、カーネル密度推定(
図11の下部を参照)等により目的変数毎に標本分布から母集団の分布を推定し、目的変数毎に推定した分布を反映させたノイズを用いる場合があるが、この場合、目的変数に対応したノイズが生成器40に入力される。従って、生成器40の学習では、目的変数の各値のうちのいずれの値(いずれのラベル)について学習しているのかが明らかになっている状態で学習が行われる。なお、ここでいう目的変数は、推定器70から見た場合の目的変数であり、GAN自体(または判別器50自体)の目的変数ではない。
【0175】
なお、生成器40の学習の繰り返し回数は、例えば、10,000エポック(epoch)等に設定することができるが、これに限定されるものではなく、例えば、5,000~7,000エポック等でも安定することが多い。
【0176】
人間様データ生成手段43は、学習手段42による学習後に、学習で得られた生成器40のパラメータを固定した状態で、ノイズ生成手段31により生成された潜在変数Zとしてのノイズと、目的変数(生成したい人間様データの目的変数)とを入力し、多数の人間様データを出力する処理、すなわち多数の人間様データを目的変数毎に生成する処理を実行するものである。ここで、学習中のパラメータの更新過程で生成器40から出力されるデータは、増幅データと呼び、学習後にパラメータを固定した状態で生成器40から出力されるデータは、人間様データと呼んでいる。
【0177】
AC-GANでは、潜在変数Zとしてのノイズだけではなく、目的変数も生成器40に入力するので、学習手段42による学習処理を経て潜在変数Z(潜在空間)にマッピングされる情報は、目的変数の各値(各ラベル)ではなく、個人差や時系列の変化など、標本のばらつきの要因が反映された特性値である。潜在変数Zは、ノイズとして入力するが、生成器40のパラメータを固定した状態では、ある1つの目的変数、ある1つの潜在変数Z(ノイズ)の入力に対し、1つのデータが出力されるので、入力した目的変数に対応する1つの人間様データが得られる。従って、目的変数を固定すれば、同じ値の潜在変数Z(ノイズ)の入力に対し、異なる2以上の人間様データが生成されるということはない。このため、多数の人間様データを目的変数毎に生成するためには、それぞれの目的変数(ラベル)について、異なる多数のノイズを入力する必要があることから、ランダムノイズを繰り返し生成して入力する。なお、カーネル密度推定(
図11の下部を参照)等により目的変数毎に推定した母集団の分布を反映させたノイズを生成器40に入力する場合には、生成器40に入力する目的変数について推定した分布を反映させたノイズを用いる。つまり、入力するノイズと、入力する目的変数とを対応させる。
【0178】
生成モデル記憶手段44は、学習手段42による学習処理で決定した生成器40のパラメータを、生成モデルとして記憶するものである。
【0179】
判別器50は、判別モデルを備えたパターン認識器であり、実測データの入力、および生成器40で生成された増幅データの入力に対し、主タスクのクラス識別処理の結果としての真偽(真偽の各々の尤度)および補助タスクのクラス識別処理の結果としての目的変数(目的変数の各値の尤度)を出力するものである。なお、実測データに短期・長期確率変数を結合した解析結果結合データを入力する場合には、入力する増幅データも、短期・長期確率変数が反映されたデータとなる。
【0180】
具体的には、判別器50は、例えば、CNNにより構成することができる。CNNとする場合、層数は、入力データの次元数に応じて決めることができ、例えば、入力データが6,000次元とすると、1/2→1/2→…(3,000次元→1,500次元→…)等のようにネットワークを構成することができる。また、CNNとRNNとを組み合わせてもよい。
【0181】
判別器50は、
図2に示すように、処理手段50Aとして、設定手段51と、学習手段52とを含んでいる。
【0182】
設定手段51は、事前学習用推定器20から重み(パラメータ)を取得し、取得した重みを判別モデル記憶手段53に記憶させる処理を実行するものである。従って、判別器50の学習は、取得した重みから始まるので、学習効率の向上が図られている。
【0183】
学習手段52は、判別器50のパラメータを決定するための学習処理を実行し、決定したパラメータを、判別モデルとして判別モデル記憶手段53に記憶させる処理を実行するものである。判別器50の学習では、主タスクについては、標本記憶手段15に記憶されている複数の実測データと、生成器40で生成された多数の増幅データとを用いて、実測データの入力に対しては「真」の出力となり、増幅データの入力に対しては「偽」の出力となるように、誤差逆伝播法により学習を行う。補助タスクについては、実測データの入力に対しては当該実測データに対応する目的変数(ラベル)(標本記憶手段15において標本データセットとして当該実測データに対応させて記憶されている目的変数)の出力となり、増幅データの入力に対しては、当該増幅データの生成時にノイズとともに生成器40に入力した目的変数(ラベル)の出力となるように、誤差逆伝播法により学習を行う。
【0184】
判別モデル記憶手段53は、学習手段52による学習処理で決定した判別器50のパラメータを、判別モデルとして記憶するものである。
【0185】
<情報処理システム10/分析器60の構成>
【0186】
図1および
図2において、分析器60は、パターン認識器であり、増幅器30により生成された多数の人間様データおよびこれらの人間様データの各々に対応する目的変数を学習用データとして用いて、推定器70(新たに取得した実測データの入力に対してクラス識別処理の結果として目的変数の各値の尤度を出力するパターン認識器)で使用するパラメータを決定し、決定したパラメータを、ターゲットモデルとしてターゲットモデル記憶手段67に記憶させる学習処理を実行するとともに、得られたパラメータを用いたモデルの性能評価のための分析を含む各種の処理を実行するものである。具体的には、分析器60は、例えば、CNNやRNN等により構成することができる。
【0187】
この際、学習用データとして用いられる多数の人間様データは、増幅器30で、ノイズとともに目的変数を生成器40に入力することにより生成されたものであるため、その時に入力した目的変数が、人間様データに対応する目的変数となる。
【0188】
この分析器60は、推定器70を構築することを目的とし、推定器70用のパラメータを決定する学習処理を行うので、推定器70をマルチタスクの構成(例えば、マルチタスクCNN)とする場合には、分析器60もマルチタスクの構成とする。例えば、「気持ち悪くない、気持ち悪い」という目的変数(乗り物酔いの程度を示す心理量)と、「眠くない、眠い」という目的変数(眠気の程度を示す心理量)とを推定(予測)する推定器70等のように、複数の目的変数(ある1つの目的変数のラベル数(クラス数)が複数という意味ではなく、目的変数の種類が複数という意味である。)を有するマルチタスク構成の推定器70とする場合には、これに合わせて、分析器60の出力層もマルチタスクに対応させた構成とする。このマルチタスク構成の分析器60の学習では、例えば、第1の目的変数(例えば、気持ち悪くない、気持ち悪い)をノイズとともに生成器40に入力して生成された多数の人間様データの入力に対し、第1の目的変数に対応する第1のタスク部分の出力で学習を行い、第2の目的変数(例えば、眠くない、眠い)をノイズとともに生成器40に入力して生成された多数の人間様データの入力に対し、第2の目的変数に対応する第2のタスク部分の出力で学習を行う。
【0189】
分析器60は、
図2に示すように、処理手段60Aとして、設定手段61と、学習手段62と、テスト手段63と、分析手段64と、パラメータ出力手段65と、分析結果出力手段66とを含んでいる。
【0190】
設定手段61は、事前学習用推定器20から重み(パラメータ)を取得し、取得した重みをターゲットモデル記憶手段67に記憶させる処理を実行するものである。従って、分析器60の学習は、取得した重みから始まるので、学習効率の向上が図られている。
【0191】
学習手段62は、分析器60の学習処理、すなわち推定器70用のパラメータを決定する処理を実行するが、この分析器60の学習では、標本記憶手段15に記憶されている標本データセット(実測データおよびこれに対応する目的変数)の代用データセットとして、生成器40で生成された人間様データと、この人間様データの生成時にノイズとともに生成器40に入力された目的変数とを用いる。すなわち、人間様データの入力に対し、分析器60からの出力が、入力した人間様データに対応する目的変数となるように、誤差逆伝播法により分析器60を学習させる(パラメータを決定する)。
【0192】
また、学習手段62は、学習中に得られるバリデーションデータの正解率(Accuracy)および損失(Loss)の履歴データ(横軸がエポック数のデータ)を、分析結果記憶手段68に記憶させる処理も実行する。
【0193】
なお、この分析器60の学習の際には、学習用データとして、多数の人間様データおよびこれらの各々に対応する目的変数を用いるが、標本記憶手段15に記憶されている標本データセット群(複数の実測データおよびこれらの各々に対応する目的変数)の中から下記のテスト手段63で用いる必要な量のテストデータを確保できることを前提とし、この標本データセット群の一部を、多数の人間様データおよびこれらの各々に対応する目的変数とともに、学習用データとして用いてもよい。
【0194】
テスト手段63は、標本記憶手段15に記憶されている標本データセット群(複数の実測データおよびこれらの各々に対応する目的変数)をテストデータとして用いて(
図1中の2点鎖線参照)、学習手段62により決定した学習済のパラメータによるターゲットモデルで推定を行い、その推定結果(予測結果)を評価するテスト処理を実行し、そのターゲットモデルの性能を評価する指標値として、正解率(Accuracy)、再現率(Recall)、適合率(Precision)、F1値を算出し、これらの指標値を分析結果記憶手段68に記憶させる処理を実行するものである。なお、人間様データに短期・長期確率変数が反映されている場合には、テストデータ(
図1中の2点鎖線参照)も、実測データに短期・長期確率変数を結合した解析結果結合データとする。
【0195】
分析手段64は、事前学習用推定器20から分析用データ記憶手段26に記憶されているデータ(事前学習用推定器20で得られた分析用データ)を取得するとともに、分析結果記憶手段68に記憶されているデータ(分析器60で得られた分析用データ)を取得し、事前学習用推定器20の比較モデルと、分析器60のターゲットモデルとの性能の比較評価を含む各種の分析処理を実行し、得られた分析結果を、分析結果記憶手段68に記憶させる処理を実行するものである。
【0196】
より具体的には、分析手段64は、
図12に示すように、(1)事前学習用推定器20による学習処理で得られた学習終了時点EPendでのバリデーションデータの正解率を示す比較用の正解率終点値Q1と、分析器60による学習処理で得られた学習終了時点EPendでのバリデーションデータの正解率を示すターゲット用の正解率終点値Q2とを用いて、比較用の正解率終点値Q1と、ターゲット用の正解率終点値Q2との相対関係で予め定められた過学習判定用の正解率条件を満たすか否かを判断し、その判断結果を、分析結果記憶手段68に記憶させる分析処理を実行する。
【0197】
また、分析手段64は、上記(1)の各値Q1.Q2に代えて、(2)事前学習用推定器20による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つの指標値を示す比較用の正解率テスト値Q1subと、分析器60による学習処理後にテストデータによるテスト処理で得られた正解率、再現率、適合率、F1値のうちの少なくとも1つ指標値を示すターゲット用の正解率テスト値Q2subとを用いて、比較用の正解率テスト値Q1subと、ターゲット用の正解率テスト値Q2subとの相対関係で予め定められた過学習判定用の正解率条件を満たすか否かを判断し、その判断結果を、分析結果記憶手段68に記憶させる分析処理を実行してもよい。
【0198】
ここで、過学習判定用の正解率条件は、例えば、比較用の正解率終点値Q1と、ターゲット用の正解率終点値Q2との比率や差分等、または、比較用の正解率テスト値Q1subと、ターゲット用の正解率テスト値Q2subとの比率や差分等により予め定められた条件である。具体的には、例えば、Q2やQ2subが、Q1やQ1subよりも大幅に小さくなっている場合には、事前学習用推定器20による事前学習処理で、過学習が起きていると判定される。すなわち、Q1やQ1subに対し、Q2やQ2subが、大きな値であるか、同じ値若しくは略同じ値であるか、または小幅の値の減少の範囲に収まっていれば、下記の過学習判定用の損失条件を満たす場合を除き、事前学習用推定器20による事前学習処理が適正に行われたと判断され、標本データセットの取り直しは不要と判断される。一方、Q2やQ2subが、Q1やQ1subよりも大幅に小さくなっている場合、例えば、多数の人間様データを用いた結果、Q1またはQ1sub=70%から、Q2またはQ2sub=35%に正解率が下がった場合には、過学習と判断され、標本取り直し指示情報が出される。これを比率で定めれば、過学習判定用の正解率条件は、(Q2/Q1)または(Q2sub/Q1sub)が、1よりも小さい閾値(例えば、0.6)以下若しくは未満という条件となり、差分で定めれば、(Q1-Q2)または(Q1sub-Q2sub)が、閾値(例えば、30%)以上若しくは超過という条件等とすることができる。
【0199】
なお、Q1,Q2またはQ1sub,Q2subに加え、
図12に示す事前学習用推定器20による学習処理で得られた学習の途中の予め定められた時点EPmidでのバリデーションデータの正解率を示す比較用の正解率中間値P1と、分析器60による学習処理で得られた学習の途中の予め定められた時点EPmidでのバリデーションデータの正解率を示すターゲット用の正解率中間値P2とを用いて、過学習判定用の正解率条件を定めてもよい。
【0200】
ここで、「学習の途中の予め定められた時点EPmid」は、学習終了時点EPendとの相対関係(例えば、学習開始時点から学習終了時点EPendまでの1/2経過時点、2/3経過時点、学習終了時点EPendから500エポック手前の時点等)で定めてもよく、具体的なエポック数で定めてもよい。
【0201】
さらに、分析手段64は、上述した(1)、(2)の過学習判定用の正解率条件を満たすか否かを判断する分析処理に加え、次の(3)のような過学習判定用の損失条件を満たすか否かを判断する分析処理を行ってもよい。
【0202】
すなわち、分析手段64は、(3)事前学習用推定器20による学習処理で得られた学習の途中の予め定められた時点EPmidでのバリデーションデータの損失を示す比較用の損失中間値U1と、事前学習用推定器20による学習処理で得られた学習終了時点EPendでのバリデーションデータの損失を示す比較用の損失終点値V1と、分析器60による学習処理で得られた学習の途中の予め定められた時点EPmidでのバリデーションデータの損失を示すターゲット用の損失中間値U2と、分析器60による学習処理で得られた学習終了時点EPendでのバリデーションデータの損失を示すターゲット用の損失終点値V2とを用いて、比較用の損失中間値U1から比較用の損失終点値V1に向けた比較用の傾きλ1と、ターゲット用の損失中間値U2からターゲット用の損失終点値V2に向けたターゲット用の傾きλ2との相対関係で予め定められた過学習判定用の損失条件を満たすか否かを判断し、その判断結果を、分析結果記憶手段68に記憶させる分析処理を実行してもよい。
【0203】
ここで、過学習判定用の損失条件は、比較用の傾きλ1と、ターゲット用の傾きλ2との比率や差分等により予め定められた条件である。具体的には、例えば、比較用の傾きλ1に対し、ターゲット用の傾きλ2が、小さい値(正負の符号を含めて小さい値)であるか、同じ値若しくは略同じ値であるか、または小幅の値の増加(正負の符号を含めて値の増加)の範囲に収まっていれば、前述した過学習判定用の正解率条件を満たす場合を除き、事前学習用推定器20による事前学習処理が適正に行われたと判断され、標本データセットの取り直しは不要と判断される。一方、ターゲット用の傾きλ2が、比較用の傾きλ1よりも大幅に大きくなっている場合(正負の符号を含めて大きくなっている場合)には、事前学習用推定器20による事前学習処理で、過学習が起きていると判定される。
【0204】
具体的には、過学習判定用の損失条件を例えば差分で定める場合は、(λ2-λ1)または(λ1-λ2)を用いて条件を満たす範囲を定めることができる。また、例えば比率で定める場合は、(λ2/λ1)または(λ1/λ2)を用いて条件を満たす範囲を定めることができるが、傾きλ1,λ2の正負の符号が、正と正、正と負、負と正、負と負に場合分けして定めることが好ましい。さらに、λ1,λ2の双方の値がゼロに近い場合(グラフ上で水平に近い場合)には、(λ2/λ1)または(λ1/λ2)の比率が大きくでも、双方の傾きλ1,λ2がそれ程違わないと判断することもできるので、そのような場合を除外してもよい(過学習判定用の損失条件を満たさないと定めてもよい)。
【0205】
パラメータ出力手段65は、ターゲットモデル記憶手段67に記憶されている学習済のパラメータ(学習で得られたターゲットモデル)を、ネットワーク1を介して依頼者端末80に送信する処理と、この学習済のパラメータを、情報処理システム10内の推定器70に送るために出力する処理とを実行するものである。
【0206】
分析結果出力手段66は、分析結果記憶手段68に記憶されている分析結果(過学習の有無や、標本取り直し指示情報)を、ネットワーク1を介して依頼者端末80に送信する処理を実行するものである。
【0207】
ターゲットモデル記憶手段67は、学習手段62による学習処理で決定した学習済のパラメータを、推定器を構築するためのターゲットモデルとして記憶するものである。
【0208】
分析結果記憶手段68は、学習手段62により学習中に得られたバリデーションデータの正解率(Accuracy)および損失(Loss)の履歴データ(横軸がエポック数のデータ)と、テスト手段63により算出した正解率(Accuracy)、再現率(Recall)、適合率(Precision)、F1値と、分析手段64による分析結果(過学習の有無や、標本取り直し指示情報)とを記憶するものである。
【0209】
<情報処理システム10/推定器70の構成>
【0210】
図1および
図2において、推定器70は、情報処理システム10のシステム担当者(サービス提供者)により構築されたパターン認識器であり、運用段階で新たに取得された実測データを入力し、目的変数を推定(予測)する処理を実行するものである。具体的には、推定器70は、例えばCNNやRNN等により構成することができる。
【0211】
推定器70は、
図2に示すように、処理手段70Aとして、設定手段71と、推定手段72と、出力手段73とを含んでいる。
【0212】
設定手段71は、分析器60からターゲットモデル記憶手段67に記憶されている学習済のパラメータ(学習で得られたターゲットモデル)を取得し、取得したパラメータ(重みを含む)を推定モデル記憶手段74に記憶させる処理を実行するものである。
【0213】
推定手段72は、推定対象記憶手段16に記憶されている運用段階で新たに取得された実測データを入力し、推定モデル記憶手段74に記憶されている推定モデルで推定処理を行い、その推定結果(予測結果)として目的変数(目的変数の各値であることの確からしさを示す尤度)を出力し、推定結果記憶手段17に記憶させる処理を実行するものである。なお、分析器60の学習処理で用いた人間様データが短期・長期確率変数を反映したデータである場合には、新たに取得された実測データに短期・長期確率変数を結合した解析結果結合データを推定器70に入力して推定処理を行う。
【0214】
出力手段73は、推定結果記憶手段17に記憶されている推定結果(推定(予測)した目的変数、および推定対象の実測データまたはその識別情報)を、ネットワーク1を介して依頼者端末80に送信する処理を実行するものである。
【0215】
推定モデル記憶手段74は、推定処理に用いるパラメータ(分析器60で決定された学習済のパラメータ)を、推定モデルとして記憶するものである。
【0216】
<第1実施形態の情報処理システム10における処理の流れ:
図3>
【0217】
このような第1実施形態においては、以下のようにして情報処理システム10により推定器に関するサービス提供処理が行われる。
【0218】
図3において、先ず、依頼者は、標本となる複数の実測データを取得し、それらの各々にラベル(目的変数)を付し、標本データセット群を用意する。実測データおよび目的変数の取得は、センサを用いた実験的手法でもよく、ヒアリング等による調査的手法でもよい。そして、依頼者は、用意した標本データセット群を、依頼者端末80からネットワーク1を介して情報処理システム10へ送信する。情報処理システム10では、標本受付手段11により、依頼者端末80から送信されてくる標本データセット群を受信し、標本記憶手段15に保存する(ステップS1)。
【0219】
次に、情報処理システム10では、トレンド解析手段12により、標本記憶手段15に記憶されている標本としての複数の実測データについて、トレンド解析(時系列データの分析)を行い、短期確率変数および長期確率変数を求め、求めた短期・長期確率変数を、元の実測データ(生データ)と対応させて標本記憶手段15に保存する(ステップS2)。
【0220】
続いて、目的変数調整手段13により、標本記憶手段15に記憶されている標本データセット群(複数の実測データおよびこれらの各々に対応する目的変数)について、目的変数のクラス数を削減する調整を行う(ステップS3)。但し、次のステップS4の処理を行い、比較モデルの構築が困難であった場合に、このステップS3の処理を行うようにしてもよく、そのようにした場合でも、目的変数調整手段13による目的変数のクラス数の削減調整後に、次のステップS4の処理を行うことになる。
【0221】
それから、事前学習用推定器20で、標本記憶手段15に記憶されている標本データセット群(複数の実測データおよびこれらの各々に対応する目的変数)を用いて、事前学習用推定器20の学習処理を行って比較モデル(推定器70用のパラメータ)を構築し、構築した比較モデルについてテスト処理を行い、得られた分析用データ(事前学習用推定器20の学習中に得られたバリデーションデータの正解率および損失の履歴データ(横軸がエポック数のデータ)、および、学習後のテスト処理で得られた正解率、再現率、適合率、F1値)を、分析用データ記憶手段26に保存する(ステップS4)。
【0222】
続いて、事前学習用推定器20から、比較モデル記憶手段25に記憶されている重み(パラメータ)を、判別器50および分析器60に送信し、判別器50の判別モデル記憶手段53、および分析器60のターゲットモデル記憶手段67に記憶させる(ステップS5)。この重み(パラメータ)は、判別器50および分析器60の学習処理での初期値となる。
【0223】
その後、増幅器30で、標本記憶手段15に記憶されている標本データセット群(複数の実測データおよびこれらの各々に対応する目的変数)と、ノイズ生成手段31により生成したノイズとを用いて、増幅器30を構成する生成器40および判別器50の学習処理を行う(ステップS6)。
【0224】
続いて、生成器40のパラメータ(判別器50を含めた学習で得られたパラメータ)を固定した状態で、ノイズ生成手段31により生成したノイズ、および目的変数(生成したい人間様データの目的変数)を生成器40に繰り返し入力し、多数の人間様データを目的変数毎に生成する(ステップS7)。
【0225】
それから、分析器60で、生成器40により生成した多数の人間様データおよびこれらの各々に対応する目的変数を用いて、分析器60の学習処理を行って推定器70,91用のパラメータを決定し、得られたパラメータ(ターゲットモデル)を、ターゲットモデル記憶手段67に記憶させた後、標本記憶手段15に記憶されている標本データセット群(複数の実測データおよびこれらの各々に対応する目的変数)を用いて、ターゲットモデルについてテスト処理を行う。これにより、分析器60の学習中に、バリデーションデータの正解率および損失の履歴データ(横軸がエポック数のデータ)が得られるとともに、分析器60の学習後のテスト処理で、正解率、再現率、適合率、F1値が得られる。また、事前学習用推定器20から、前述したステップS4で分析用データ記憶手段26に保存した分析用データを取得する。そして、事前学習用推定器20で得られた比較モデルのデータと、分析器60で得られたターゲットモデルのデータとを用いて、双方のモデルの性能を比較し、事前学習用推定器20での過学習の有無の判定、標本データセットの取り直しの必要性の有無の判定を含む分析処理を行い、その分析結果を、分析結果記憶手段68に記憶させる(ステップS8)。
【0226】
その後、分析器60から、分析結果記憶手段68に記憶されている分析結果(過学習の有無、標本取り直し指示情報)を、ネットワーク1を介して依頼者端末80へ送信する(ステップS9)。依頼者は、依頼者端末80で、過学習は無く、標本データセットの取り直しの必要がない旨の連絡を受け取った場合には、標本データセットの取り直しを行わない。なお、この場合の連絡は省略してもよい。一方、依頼者は、依頼者端末80で、過学習が起きた旨、および標本取り直し指示情報を含む連絡を受け取った場合には、その指示情報に従って標本データセット群(複数の実測データおよびこれらの各々に対応する目的変数)を再取得し、ステップS1からの処理を繰り返す。
【0227】
さらに、過学習は無く、標本データセットの取り直しの必要性が無かった場合、および標本取り直し指示情報に従って再取得した標本データセット群でステップS1からの処理を繰り返した結果、過学習は無く、標本データセットの取り直しの必要性が無くなった場合には、運用段階に進むために、分析器60から、ターゲットモデル記憶手段67に記憶されているターゲットモデル(推定器70,91用のパラメータ)を出力する(ステップS9)。この際、依頼者が外部に推定器91を構築する場合には、パラメータを、ネットワーク1を介して依頼者端末80へ送信する。一方、サービス提供者が情報処理システム10内に推定器70を構築する場合には、推定器70にパラメータを送信する。
【0228】
前者のように依頼者が外部に推定器91を構築する場合には、その推定器91は、情報処理システム10内の推定器70と同様な構成であるため、依頼者は、依頼者が設置した推定システム90において、情報処理システム10から受信したパラメータを、推定モデルとして推定器91の推定モデル記憶手段に記憶させる。また、分析器60の学習で用いた人間様データが、短期・長期確率変数を反映させたデータである場合には、情報処理システム10から受信したパラメータは、実測データに短期確率変数および長期確率変数を結合した解析結果結合データの入力に対応するパラメータとなっているので、推定システム90でも、情報処理システム10内のトレンド解析手段12と同様なトレンド解析手段92を設置し、推定器91には、運用段階で新たに取得した実測データに短期確率変数および長期確率変数を結合した解析結果結合データを入力する。
【0229】
後者のようにサービス提供者(システム担当者)が情報処理システム10内に推定器70を構築した場合には、推定対象受付手段14により、運用段階で新たに取得された実測データを、依頼者端末80からネットワーク1を介して受信し、推定対象記憶手段16に保存する(ステップS10)。また、分析器60の学習で用いた人間様データが、短期・長期確率変数を反映させたデータである場合には、分析器60から推定器70に移したパラメータは、実測データに短期確率変数および長期確率変数を結合した解析結果結合データの入力に対応するパラメータとなっているので、トレンド解析手段12により、推定対象記憶手段16に記憶されている新たに取得された実測データについてトレンド解析を行い、得られた短期確率変数および長期確率変数を、元の実測データ(生データ)と対応させて推定対象記憶手段16に記憶させる。
【0230】
それから、推定対象記憶手段16に記憶されている新たに取得された実測データを推定器70に入力して目的変数を推定(予測)し(ステップS11)、その推定結果をネットワーク1を介して依頼者端末80へ送信する(ステップS12)。
【0231】
<第1実施形態の効果>
【0232】
このような第1実施形態によれば、次のような効果がある。すなわち、情報処理システム10では、標本数の少ない実測データから、増幅器30により多数の人間様データを生成し、これらの多数の人間様データを学習用データとして用いて、推定器70,91用のパラメータを決定する(ターゲットモデルを作成する)ための学習処理を行うので、機械学習を行うのに十分な数の学習用データを用いた学習処理を実現することができる。
【0233】
また、増幅器30は、データ拡張と呼ばれる従来技術とは異なり、パターン認識用の学習処理およびパターン認識処理を行うことにより多数の人間様データを生成するので、効果的な学習が可能となる学習用データを得ることができる。このため、高精度な推定器70,91を構築することができる。
【0234】
さらに、増幅器30は、目的変数を用いて、パターン認識用の学習処理およびパターン認識処理を行うので、多数の人間様データを目的変数毎に生成することができる。このため、増幅器30により生成された人間様データは、目的変数を反映した状態のデータとなっているので、生成された多数の人間様データのそれぞれについて、人手によりラベルを付すラベリング作業(タグ付け作業)を行う必要はなく、アノテーションの面で、システム担当者の手間を軽減することができる。
【0235】
また、情報処理システム10は、トレンド解析手段12を備えているので、短期確率変数および長期確率変数を反映した人間様データを生成することができる。このため、短期・長期の記憶の多重貯蔵モデルに対応した推定器70,91用のターゲットモデルを作成することができるので、高精度な推定器70,91を構築することができる。
【0236】
そして、増幅器30は、生成器40と判別器50とを備えた敵対的生成ネットワーク(本実施形態では、一例としてAC-GAN)により構成されているので、GANを利用して多数の人間様データを生成することができる。このため、潜在変数Zとしてのノイズを用いて多数の人間様データを生成するので、ノイズを人間から得られるデータ群の特性に応じて調整することで、より人間から得られる状態に近い状態で大量の学習用データを得ることができる。
【0237】
具体的には、ノイズ生成手段31は、カーネル密度推定法またはその他のノンパラメトリック手法により目的変数毎に標本分布から母集団の分布を推定し、目的変数毎に推定した分布を反映させたノイズを生成することができるので、人間から得られるデータ群の特性に応じてノイズを調整することができる。
【0238】
また、情報処理システム10は、事前学習用推定器20を備えているので、標本数の十分でないデータ群を用いた学習で得られた比較モデルについて、モデルの性能評価用の分析用データを得ることができる。そして、情報処理システム10では、この分析用データを用いて、多数の人間様データを用いた分析器60の学習で得られたターゲットモデルと、比較モデルとの性能比較による分析を行うので、標本数の十分でないデータ群の偏りの検証を行うことができる。データ群の偏りは、目的変数の各値(各クラス)間での標本数のばらつきや、各クラスの境界付近の標本データの不足等である。従って、たとえ事前学習用推定器20での少量の実測データによる学習処理で高い正解率が得られたとしても、上記の双方のモデルの性能比較により、比較モデルが過学習を起こしていると判定することができる。このため、標本データセットの取り直し等により、高精度な推定器70,91を構築することができる。
【0239】
さらに、情報処理システム10では、事前学習用推定器20の学習処理で決定したパラメータとしての重みを、増幅器30を構成する学習処理前の判別器50、および学習処理前の分析器60に移すことができるので、判別器50での学習処理、および分析器60での学習処理を早期に終了させることができる。
【0240】
そして、情報処理システム10は、目的変数調整手段13を備えているので、標本全体に占める割合の少ない標本数の目的変数がある場合に、目的変数のクラス数の削減調整を行うことができる。このため、目的変数の各クラス間での標本数のばらつきが少なくなり、推定器70,91の推定精度の向上を図ることができる。
【0241】
また、情報処理システム10は、過学習の有無および標本の取り直しの指示情報を、ネットワーク1を介して依頼者端末80に送信することができる。このため、依頼者は、取得した標本データセットに偏りがある場合には、標本取り直し指示情報に従って標本データセットの取り直しをすることができるので、依頼者が自分で推定器91を構築する場合でも、サービス提供者が推定器70を構築する場合でも、高精度な推定器70,91を構築することができる。
【0242】
以上の効果を確認するために、以下のような各種の実験を行った。
【0243】
【0244】
図13の実験例1では、5人の被験者につき、9時期(
図4中のk=1,2,…,9)に測定した各実測データおよびそれらの各々に対応する目的変数を、標本データセット群(5人×9時期で、45のデータセット)として用意した。
【0245】
この際、説明変数となる実測データは、9種類の特徴量(第1~第9の合計9種類の生理反応データA1,A2,…,A9:
図4参照)とした。具体的には、血流、脈拍、脈拍から算出される指標であるLF/HF等の9種類の生理反応データを用意した。これらの9種類の生理反応データは、全て10Hzのサンプリング周波数で連続計測した際の10秒間のデータ(
図4中のΔt=10秒間)であり、10秒間(Δt)の個々の実測データは、それ自体が1つの波形データ(時系列データ)であるとともに、9種類の特徴量の全てにつき、間隔を置かずに連続して取得した時系列データとなっている。すなわち、同一の被験者については、各波形データが繋がる状態で取得され、全体としてΔt=10秒間よりも長い時系列データとなっている。従って、10Hz×10秒間の100次元を持つ波形データが、9つの特徴量のそれぞれについて用意されているので、結合した状態の入力データの次元数(同時期に入力される複数種類の実測データの次元数の合計)は、100×9=900次元(
図4中の総次元数N=900次元)となっている。
【0246】
また、目的変数は、2クラス識別とし、「0:快適、1:不快」という2ラベルによる不快感の有無を示す心理量とした。目的変数は、各被験者に対し、Δt=10秒間の間隔で各自の状態を聞くアンケートにより取得した。
【0247】
そして、標本データセット群(45のデータセット)の全部を用いて、事前学習用推定器20で比較モデルの学習を行った。この際、クロスバリデーション用として、5データセット(約10%)を用意した。この結果が、
図13の左側のグラフに示されている。
図13中の実線は、学習中に得られるバリデーションデータの正解率(Accuracy)であり、点線は、バリデーションデータの損失(loss)である。最終のエポック数における正解率は、約40%となった。
【0248】
一方、標本データセット群(45のデータセット)の全部、およびランダムノイズを用いて、増幅器30を構成する生成器40および判別器50の学習を行い、この学習終了後に、生成器40のパラメータを固定した状態で、ランダムノイズおよび目的変数(0または1のラベル)を生成器40に入力し、3,000の人間様データを生成した。分析器60では、3,000の人間様データおよびこれらの各々に対応する目的変数(これらの人間様データの生成時に用いたラベル)でターゲットモデルの学習を行い、その後、分析器60のパラメータ(ターゲットモデルとしての学習済のパラメータ)を固定し、学習終了後の検証用のテストデータとして、標本データセット群(45のデータセット)の全部を用いてターゲットモデルのテスト処理を行った。このテストによる検証結果が、
図13の右側の表に示されている。
【0249】
図13の右側の表において、テストデータの総数(各ラベルのテストデータ数の合計)に対する割合で示すと、82.2%用意した正解ラベル=0に対し、予測ラベル=0が62.2%で、予測ラベル=1が20.0%となった。また、17.8%用意した正解ラベル=1に対し、予測ラベル=0が11.1%で、予測ラベル=1が6.7%となった。
【0250】
従って、ラベル=0については、適合率(Precision)=0.85(62.2/(62.2+11.1))、再現率(Recall)=0.76(62.2/(62.2+20.0))、F1値=0.80となった。ラベル=1については、適合率(Precision)=0.25(6.7/(20.0+6.7))、再現率(Recall)=0.38(6.7/(11.1+6.7))、F1値=0.30となった。また、これらの平均値(macro ave)については、適合率(Precision)=0.55、再現率(Recall)=0.57、F1値=0.55となった。さらに、各ラベルのテストデータ数による加重平均値(weighted ave)については、適合率(Precision)=0.74、再現率(Recall)=0.69、F1値=0.71となった。
【0251】
そして、正解率(accuracy)=0.69((62.2+6.7)/100)となった。従って、前述した事前学習用推定器20の比較モデルの正解率(Accuracy)=約40%(
図13の左側のグラフ参照)と比較すると、多数の人間様データを用いた学習を行うことにより、識別精度が、40%程度から69%まで上昇したことを確認できた。これにより、本発明の効果が顕著に示された。
【0252】
【0253】
図14の実験例2では、20人の被験者につき、9時期(
図4中のk=1,2,…,9)に測定した各実測データおよびそれらの各々に対応する目的変数を、標本データセット群(20人×9時期で、180のデータセット)として用意した。前述した
図13の実験例1の場合と同様に、1つの標本データセット内には、100次元(10Hz、Δt=10秒間)の時系列データ(実測データ)が、9種類の特徴量(生理反応データA1,A2,…,A9)の各々について用意されているので、1つの標本データの次元数(同時期に入力される複数種類の実測データの次元数の合計:
図4中の総次元数N)は、100×9=900次元となっている。
【0254】
目的変数は、3クラス識別とし、「0、1、または2」という3ラベルによる不快感の程度を示す心理量とした。
【0255】
図14の左側のグラフは、標本データセット群(20人×9時期で、180のデータセット)を用いて、事前学習用推定器20で比較モデルの学習を行った結果を示している。
図14中の実線は、学習中に得られるバリデーションデータの正解率(Accuracy)であり、点線は、バリデーションデータの損失(loss)である。最終のエポック数における正解率は、約75%となった。これにより、標本数について、前述した
図13の実験例1における5人の被験者の45のデータセットに対し、被験者を20人に増やし、180のデータセットとしたことから、識別精度が、正解率=約75%と大幅に上昇したことが分かった。
【0256】
一方、
図14の右側のグラフは、分析器60でターゲットモデルの学習を行った結果を示している。先ず、180のデータセット中の75%に相当する135のデータセットを用いて、増幅器30を構成する生成器40および判別器50の学習を行った。従って、残りの25%の45のデータセットは、増幅器30(AC-GAN)の学習に使用しなかった。この学習終了後に、生成器40のパラメータを固定した状態で、ランダムノイズおよび目的変数(0、1、または2のラベル)を生成器40に入力し、4,500の人間様データを生成した。すなわち、4,500のデータセット(4,500の人間様データおよびそれらの各々に対応する目的変数)を用意した。この4,500というデータセットの数は、増幅器30(AC-GAN)の学習に使用しなかった45のデータセット(実測データおよび目的変数)の100倍の数に相当する。
【0257】
次に、4,500のデータセット(人間様データおよび目的変数)用いて、分析器60でターゲットモデルの学習を行い、その後、学習終了後の検証用のテストデータとして、増幅器30(AC-GAN)の学習に使用しなかった45のデータセット(実測データおよび目的変数)を用いて、分析器60のターゲットモデルのテスト処理を行った。つまり、増幅器30(AC-GAN)の学習に使用しなかった実測データを用いて、増幅器30(AC-GAN)で生成した人間様データを用いた学習で得られた分析器60のターゲットモデルについて、検証を行った。
【0258】
図14中の右側のグラフにおいて、実線は、学習中に得られたバリデーションデータの正解率(Accuracy)であり、点線は、バリデーションデータの損失(loss)である。人間様データを用いた学習で得られた分析器60のターゲットモデルでは、最終のエポック数における正解率は、約38%に低下した。従って、前述した
図13の実験例1の被験者5人に対し、被験者を20人に増やして標本数を増加した結果、一見すると、
図14中の左側のグラフの如く、高い識別精度(正解率=約75%)が得られているが、実際には、効果的な機械学習を行うのに必要な標本数が十分ではない状態、すなわち、標本数は実験例1よりも多いが、データセットの偏りにより適正な学習ができない状態であり、過学習の可能性が高いことが分かった。これにより、少量の標本データを用いた学習で得られた事前学習用推定器20の比較モデルと、大量の人間様データを用いた学習で得られた分析器60のターゲットモデルとの性能比較により、標本数の十分でないデータ群に対するデータセットの偏りの検証を行うことができることが分かり、本発明の効果が顕著に示された。
【0259】
【0260】
図15の実験例3では、大量とは言えないが、効果的な機械学習を行うのに十分な標本数のデータセットを用いて事前学習用推定器20の比較モデルを構築するとともに、増幅器30により、その標本数の10倍の人間様データを生成し、それらの人間様データを用いて分析器60のターゲットモデルを構築した。
【0261】
図15の左側のグラフは、事前学習用推定器20で比較モデルの学習を行った結果を示し、右側のグラフは、分析器60でターゲットモデルの学習を行った結果を示している。双方の結果を比較すると、識別精度がほぼ変わらないことを確認できた。これにより、本発明が、データセットの標本数の至適性の確認や、過学習でないことの検証用途に活用できることが分かり、本発明の効果が顕著に示された。
【0262】
<短期・長期確率変数の適用効果を示す実験例:
図16>
【0263】
図16では、12人の被験者について、9種類の特徴量(
図4中の生理反応データA1,A2,…,A9)を15区間(
図4中のk=1,2,…,15の時期)に渡って取得し、12×15=180のデータセットから外れ値を除いた173の標本データセットを用意した。目的変数は、3クラス識別とした。
【0264】
図16の上部には、短期・長期確率変数を用いない場合の交差検証結果が示されている。この場合は、ハイパーパラメータを選定後、短期確率変数および長期確率変数を用いることなく増幅器30で生成した多数の人間様データを用いて分析器60で学習を行い、得られた推定器70,91用のパラメータ(ターゲットモデル)について、短期確率変数および長期確率変数を用いないテストデータで検証を行った。この場合の正解率(Accuracy)は、56.5%となった。
【0265】
一方、
図16の下部には、短期・長期確率変数を用いた場合の交差検証結果が示されている。この場合は、トレンド解析手段12により短期確率変数および長期確率変数を求め、実測データに短期確率変数および長期確率変数を結合した解析結果結合データを用いて増幅器30で生成した多数の人間様データを用いて分析器60で学習を行い、得られた推定器70,91用のパラメータ(ターゲットモデル)について、実測データに短期確率変数および長期確率変数を結合した解析結果結合データをテストデータとして用いて検証を行った。この場合の正解率(Accuracy)は、73.0%に向上した。これにより、本発明の効果が顕著に示された。
【0266】
<カーネル密度推定によるノイズの適用効果を示す実験例:
図17>
【0267】
図17では、
図16の場合と同様に、12人の被験者について、9種類の特徴量(
図4中の生理反応データA1,A2,…,A9)を15区間(
図4中のk=1,2,…,15の時期)に渡って取得し、12×15=180のデータセットから外れ値を除いた173の標本データセットを用意した。目的変数は、3クラス識別とした。
【0268】
図17の上部には、カーネル密度推定によるノイズを用いない場合の交差検証結果が示されている。この場合は、ノイズ生成手段31により、
図11の上部に示された通常用いられるノイズ(正規分布に従ったノイズ)を生成し、そのノイズを用いて生成器40で生成した多数の人間様データを用いて分析器60で学習を行い、得られた推定器70,91用のパラメータ(ターゲットモデル)について、テストデータで検証を行った。この場合の正解率(Accuracy)は、38%となった。
【0269】
一方、
図17の下部には、カーネル密度推定によるノイズを用いた場合の交差検証結果が示されている。この際、目的変数毎で、かつ、特徴量毎(説明変数毎)に、標準化(平均0、分散1になるように正規化)したデータに対してカーネル密度推定を行った。この場合は、ノイズ生成手段31により、
図11の下部に示されたカーネル密度推定により得られた分布に従ったノイズを生成し、そのノイズを用いて生成器40で生成した多数の人間様データを用いて分析器60で学習を行い、得られた推定器70,91用のパラメータ(ターゲットモデル)について、テストデータで検証を行った。この場合の正解率(Accuracy)は、43%に向上した。これにより、本発明の効果が顕著に示された。
【0270】
[第2実施形態]
【0271】
図18には、本発明の第2実施形態の情報処理システム200の主要部である欠損値補完器210の構成が示されている。
図19には、欠損値補完器210による欠損値補完処理の流れがフローチャートで示されている。また、
図20は、人間の行動・動態データBについての欠損値補完処理で、欠損値補完データ生成器240(Gi)に入力するデータの説明図である。
【0272】
本第2実施形態の情報処理システム200は、欠損値補完器210を備えている点を除き、前記第1実施形態の情報処理システム10と同じ構成および機能を有しているので、同一部分には同一符号を付し、詳しい説明を省略する。
【0273】
図18において、欠損値補完器210は、増幅器30により多数の人間様データを生成する際に用いる複数の実測データの中に、部分的に欠損値を有する実測データが存在する場合に、欠損値を有する実測データと、実測データ内の欠損値の位置情報と、欠損部分に埋め込む埋込ノイズと、実測データに対応する目的変数とを用いて、パターン認識用の学習処理およびパターン認識処理を行うことにより、欠損値を補完した状態の実測データを生成する処理を実行するものである。本実施形態では、敵対的生成ネットワークの一種であるMisGAN(Learning from Incomplete Data with Generative Adversarial Networks)に対し、目的変数の入出力を加えた本願独自の改良型のMisGANを用いる。MisGANとは、通常のGANに加え、欠損値の位置(Mask)を同時に学習するものである。なお、MisGANではなく、例えば、同じく敵対的生成ネットワークの一種であるGAIN(Missing Data Imputation using Generative Adversarial Nets)やVIGAN(Missing View Imputation with Generative Adversarial Networks)等を改良して利用してもよい。
【0274】
具体的には、欠損値補完器210は、第1ノイズ生成手段211と、第2ノイズ生成手段212と、第2ノイズ生成手段213と、第1生成器220(Gx)と、第2生成器221(Gm)と、第1判別器230(Dx)と、第2判別器231(Dm)と、欠損値補完データ生成器240(Gi)と、第3判別器241(Di)とを含んで構成されている。
【0275】
第1ノイズ生成手段211は、実測データの特性値をマッピングする潜在空間中の潜在変数Zとしてのノイズを生成する処理を実行するものである。また、第2ノイズ生成手段212は、実測データ内の欠損値の位置をマッピングする潜在空間中の潜在変数εとしてのノイズを生成する処理を実行するものである。さらに、第3ノイズ生成手段213は、部分的に欠損値を有する実測データにおける欠損部分に埋め込む埋込ノイズωを生成する処理を実行するものである。
【0276】
このうち、第1ノイズ生成手段211および第3ノイズ生成手段213は、前記第1実施形態のノイズ生成手段31と同様であり、ノイズ(潜在変数Z)および埋込ノイズωとして、通常の正規分布や一様分布(人間から得られるデータ群であるため、正規分布であることが好ましい。)に従ったノイズの他、例えば、カーネル密度推定法またはその他のノンパラメトリック手法により推定した母集団の分布に従ったノイズを生成することができる。一方、第2ノイズ生成手段212は、ノイズ(潜在変数ε)として、通常の正規分布や一様分布に従ったノイズを生成できればよい。
【0277】
第1生成器220(Gx)は、ノイズ(潜在変数Z)および目的変数を入力し、贋物データ(チルダx)を出力するものである。また、第2生成器221(Gm)は、ノイズ(潜在変数ε)を入力し、欠損値位置偽データ(チルダm)を出力するものである。
【0278】
第1判別器230(Dx)は、贋物データ(チルダx)と欠損値位置偽データ(チルダm)とを組み合わせてなる組合せ偽データfr(チルダx,チルダm)と、欠損値のある実測データxと欠損値位置真データmとを組み合わせてなる組合せ真データfr(x,m)とを入力し、組合せ真データfr(x,m)・組合せ偽データfr(チルダx,チルダm)の別を示す真偽(真偽の各々の尤度)および目的変数(目的変数の各値の尤度)を出力するものである。
【0279】
第2判別器231(Dm)は、欠損値位置真データmと、欠損値位置偽データ(チルダm)とを入力し、欠損値位置真データm・欠損値位置偽データ(チルダm)の別を示す真偽(真偽の各々の尤度)を出力するものである。
【0280】
欠損値補完データ生成器240(Gi)は、欠損値を有する実測データxと、実測データx内の欠損値の位置情報である欠損値位置真データmと、欠損部分に埋め込む埋込ノイズωと、実測データxに対応する目的変数とを入力し、欠損値補完後の実測データの生成途中の状態を示す欠損値補完データ(ハットx)を出力するものである。また、欠損値補完データ生成器240(Gi)の学習中のパラメータ更新過程で出力されるのは、欠損値補完データ(ハットx)と呼ぶが、Giの学習終了後に、欠損値補完データ生成器240(Gi)のパラメータを固定した状態でGiから出力されるのは、欠損値補完後の実測データと呼ぶ。
【0281】
第3判別器241(Di)は、贋物データ(チルダx)と、欠損値補完データ(ハットx)とを入力し、贋物データ(チルダx)・欠損値補完データ(ハットx)の別を示す真偽(真偽の各々の尤度)および目的変数(目的変数の各値の尤度)を出力するものである。
【0282】
従って、MisGANに対し、第1生成器220(Gx)への目的変数の入力と、第1判別器230(Dx)からの目的変数の出力と、欠損値補完データ生成器240(Gi)への目的変数の入力と、第3判別器241(Di)からの目的変数の出力とが加えられた状態である。
【0283】
このような第2実施形態においては、以下のようにして欠損値補完器210により、実測データの欠損値補完処理を行う。なお、欠損値補完の対象となる実測データは、人間の生体反応データAのうちの生理反応データでもよく、人間の行動・動態データBを構成する項目データでもよい。後者の項目データの場合、いずれの項目データを目的変数とし、または説明変数とするかは任意であるから、いずれの項目データを欠損値補完の対象としてもよい。また、以下の欠損値補完処理は、
図19の右上部に示すように、前記第1実施形態の
図3のステップS1の処理と、ステップS2の処理との間に実行する。
【0284】
図19において、先ず、
図18中の点線の範囲内で、欠損値のある実測データxおよび対応する目的変数、欠損値の位置m、並びに、ノイズ(潜在変数Z)およびノイズ(潜在変数ε)を用いて、第1生成器220(Gx)、第2生成器221(Gm)、第1判別器230(Dx)、第2判別器231(Dm)の学習処理を行う(ステップS21)。
【0285】
この際、当該案件(推定器に関するサービス提供に係る現在処理中の1つの依頼案件)では、未だ事前学習用推定器20の学習処理(前記第1実施形態の
図3のステップS4の処理)を行っていないが、他の類似案件(それ以前の依頼案件)における事前学習用推定器20の学習処理で得られた重み(パラメータ)が、当該案件の比較モデルと区別される状態で比較モデル記憶手段25に記憶されている場合には、その重みを学習開始前の第1判別器230(Dx)に設定してもよい。なお、当該案件において、この欠損値補完処理を行う前に、欠損値のない実測データを用いて事前学習用推定器20の学習処理を行う場合には、その学習処理で得られた重み(パラメータ)を、学習開始前の第1判別器230(Dx)に設定してもよい。
【0286】
また、欠損値のある実測データxの標本数が少ない場合には、欠損値のない実測データから、人為的に欠損値のある実測データxを作成し、この欠損値補完処理を行ってもよい。
【0287】
このステップ21の学習処理では、前述したように、MisGANに対し、第1生成器220(Gx)への目的変数の入力と、第1判別器230(Dx)からの目的変数の出力とが加えられた状態となっているので、前記第1実施形態の場合と同様に、このような目的変数の入出力を付加した構成を考慮し、学習処理を実行する。
【0288】
すなわち、第1生成器220(Gx)の学習では、第1生成器220(Gx)の入力について、ノイズ(潜在変数Z)の他に、目的変数が加わる。また、ノイズ(潜在変数Z)については、カーネル密度推定(
図11の下部を参照)等により目的変数毎に標本分布から母集団の分布を推定し、目的変数毎に推定した分布を反映させたノイズを用いる場合があるが、この場合、目的変数に対応したノイズ(潜在変数Z)が第1生成器220(Gx)に入力される。従って、第1生成器220(Gx)の学習では、目的変数の各値のうちのいずれの値(いずれのラベル)について学習しているのかが明らかになっている状態で学習が行われる。
【0289】
また、第1判別器230(Dx)の学習では、主タスクについては、組合せ真データfr(x,m)の入力に対しては「真」の出力となり、組合せ偽データfr(チルダx,チルダm)の入力に対しては「偽」の出力となるように、誤差逆伝播法により学習を行う。補助タスクについては、組合せ真データfr(x,m)の入力に対しては当該組合せ真データfr(x,m)の作成時に組み合わされた欠損値のある実測データxに対応する目的変数(ラベル)(標本記憶手段15において標本データセットとして当該欠損値のある実測データxに対応させて記憶されている目的変数)の出力となり、組合せ偽データfr(チルダx,チルダm)の入力に対しては、当該組合せ偽データfr(チルダx,チルダm)の作成時に組み合わされた贋物データ(チルダx)の生成時にノイズ(潜在変数Z)とともに第1生成器220(Gx)に入力した目的変数(ラベル)の出力となるように、誤差逆伝播法により学習を行う。
【0290】
続いて、上記のステップS1の学習終了後に、第1生成器220(Gx)のパラメータを固定した状態で、ノイズ(潜在変数Z)および目的変数(生成したい贋物データ(チルダx)の目的変数)を入力し、目的変数毎に多数の贋物データ(チルダx)を生成する。各実測データxにおける欠損値の位置は、各実測データxで異なっているが、欠損値の位置の学習は、第2生成器221(Gm)で行われているので、第1生成器220(Gx)で生成される贋物データ(チルダx)は、欠損値の位置に関係のない全体の贋物データ(チルダx)となる。従って、
図18中の点線の範囲内で、目的変数毎に多数の贋物データ(チルダx)が生成される。
【0291】
そして、欠損値のある実測データxおよび対応する目的変数、欠損値の位置m、欠損部分への埋込ノイズω、並びに、第1生成器220(Gx)で生成した贋物データ(チルダx)を用いて、欠損値補完データ生成器240(Gi)および第3判別器241(Di)の学習処理を行う(ステップS22)。この学習処理では、欠損値補完データ生成器240(Gi)については、第3判別器241(Di)を欺くことができる欠損値補完データ(ハットx)の出力を行うように学習する。つまり、第3判別器241(Di)が、第1生成器220(Gx)で生成した贋物データ(チルダx)と、欠損値補完データ(ハットx)とを判別できなくなるように学習する。一方、第3判別器241(Di)については、贋物データ(チルダx)と、欠損値補完データ(ハットx)とを、より正確に識別を行うように学習する。
【0292】
この際、前述したように、MisGANに対し、欠損値補完データ生成器240(Gi)への目的変数の入力と、第3判別器241(Di)からの目的変数の出力とが加えられた状態となっているので、このような目的変数の入出力を付加した構成を考慮し、学習処理を実行する。
【0293】
すなわち、欠損値補完データ生成器240(Gi)の学習では、欠損値を有する実測データxと、当該実測データx内の欠損値の位置情報である欠損値位置真データmと、欠損部分に埋め込む埋込ノイズωとの他に、当該実測データxに対応する目的変数の入力が加わる。また、埋込ノイズωについては、カーネル密度推定(
図11の下部を参照)等により目的変数毎に標本分布から母集団の分布を推定し、目的変数毎に推定した分布を反映させたノイズを用いる場合があるが、この場合、目的変数に対応した埋込ノイズωが欠損値補完データ生成器240(Gi)に入力される。従って、欠損値補完データ生成器240(Gi)の学習では、目的変数の各値のうちのいずれの値(いずれのラベル)について学習しているのかが明らかになっている状態で学習が行われる。
【0294】
例えば、
図20に示すように、人間の行動・動態データBの場合(
図6参照)に、欠損値のある実測データB(k)と、それに対応する目的変数BR(k)とにより標本データセットが構成されているとし、このとき、例えば、B(k)=B1(k)+…+B6(k)のうち、4番目の項目データB4(k)が欠損値であるとすると、欠損値の位置mは、4番目を示すデータとなり、欠損部分に埋め込むための埋込ノイズωは、欠損値であるB4(k)の位置に埋め込まれる。従って、欠損値補完データ生成器240(Gi)への入力データは、B4(k)が欠損値となっているB(k)と、4番目を示すデータmと、埋込ノイズωと、BR(k)とである。なお、人間の生体反応データAの場合(
図4参照)も同様であり、例えば、実測データA(k)=A1(k)+A2(k)+…のうち、A7(k)が欠損値になっているとすると、欠損値の位置mは、7番目を示すデータとなり、埋込ノイズωは、欠損値であるA7(k)の位置に埋め込まれる。
【0295】
また、第3判別器241(Di)の学習では、主タスクについては、贋物データ(チルダx)の入力に対しては「真」の出力となり、欠損値補完データ(ハットx)の入力に対しては「偽」の出力となるように、誤差逆伝播法により学習を行う。補助タスクについては、贋物データ(チルダx)の入力に対しては当該贋物データ(チルダx)の生成時にノイズ(潜在変数Z)とともに第1生成器220(Gx)に入力した目的変数(ラベル)の出力となり、欠損値補完データ(ハットx)の入力に対しては、当該欠損値補完データ(ハットx)の生成時に埋込ノイズω等とともに欠損値補完データ生成器240(Gi)に入力した目的変数(ラベル)の出力となるように、誤差逆伝播法により学習を行う。
【0296】
その後、欠損値補完データ生成器240(Gi)のパラメータを固定した状態で、補完対象の欠損値のある実測データxおよび対応する目的変数、欠損値の位置m、欠損部分への埋込ノイズωを欠損値補完データ生成器240(Gi)に入力し、欠損値補完後の実測データを得る。欠損値のある1つの実測データxに対し、欠損値補完後の実測データは1つ作成すればよい。つまり、この段階での埋込ノイズωの入力は1回でよい。得られた欠損値補完後の実測データは、標本記憶手段15に記憶され、以降の処理(前記第1実施形態の
図3のステップS2以降の処理)において、欠損値のない実測データと同様の扱いで使用される。
【0297】
<第2実施形態の効果>
【0298】
このような第2実施形態によれば、前記第1実施形態の場合と同様な効果を得ることができることに加え、欠損値補完器210を備えているので、機械学習用の標本となる複数の実測データの中に、欠損値を有する実測データが存在しても、その欠損値を有する実測データを活用して増幅器30による多数の人間様データの生成を実現することができる。このため、元々、標本数が十分でない状況下において、それらの標本を無駄にすることなく活用することができる。
【0299】
[変形の形態]
【0300】
なお、本発明は前記各実施形態に限定されるものではなく、本発明の目的を達成できる範囲内での変形等は本発明に含まれるものである。
【0301】
すなわち、前記各実施形態では、標本データセット群は、依頼者により取得されたデータとして記載されていたが、情報処理システム10,200のシステム担当者がデータ収集およびラベリングを行った標本データセット群としてもよい。
【0302】
また、前記各実施形態では、ネットワーク1を介して依頼者からの依頼を受けるとともに、依頼に対するサービス提供に係るデータ送信を行うようになっていたが、例えばUSBメモリやDVD等の記録媒体により、依頼者とサービス提供者との間のデータの受渡しを行ってもよい。
【0303】
さらに、前記各実施形態の情報処理システム10,200では、分析器60は、推定器70,91の初期モデルを構築するためのパラメータの決定処理を行っていたが、追加の標本データセット群(複数の実測データおよびそれらの各々に対応する目的変数)が得られ、その標本データセット群が、異なる母集団から抽出されたデータである場合等には、推定器70,91の推定モデルの更新のためのパラメータの決定処理を行ってもよい。
【0304】
そして、前記各実施形態の情報処理システム10,200は、標本数が十分でないデータ群を用いて推定器70,91用のパラメータの決定処理を行っていたが、十分な標本数のデータセット群が得られていても、外れ値が存在する場合には、外れ値のデータ数は少ないと考えられるため、本発明を適用し、増幅器30で、得られた標本数よりも多数の人間様データを生成し、分析器60で、それらの人間様データを用いて推定器70,91用のパラメータの決定処理を行ってもよい。
【0305】
また、前記第2実施形態の
図20では、欠損値の位置は1つとして説明されていたが、欠損値の位置は複数でもよい。
【0306】
さらに、前記第2実施形態の欠損値補完器210は、MisGANを利用した構成とされていたが、欠損値補完器は、GANを利用した構成でなくてもよい。例えば、欠損値のない実測データについて、意図的に欠損値を作り、入力を欠損値のある実測データとし、正解の出力を欠損値のない実測データとして学習を行うことにより、オートエンコーダのようなパターン認識器を構築する。そして、実際に欠損値のある実測データをそのパターン認識器に入力し、欠損値補完後の実測データを得るようにしてもよい。
【産業上の利用可能性】
【0307】
以上のように、本発明の情報処理システムおよびプログラムは、例えば、標本数が十分でないデータ群から推定精度の高い推定器を構築する場合、標本数が十分でないデータ群の偏りの検証を含む分析・評価を行う場合、欠損値を有する標本データの補完を行う場合、標本数が十分でないデータ群から構築した推定器を用いて、新たに得られるデータに対する推定を行う場合等に用いるのに適している。
【符号の説明】
【0308】
1 ネットワーク
10,200 情報処理システム
11 標本受付手段
12 トレンド解析手段
13 目的変数調整手段
14 推定対象受付手段
15 標本記憶手段
16 推定対象記憶手段
17 推定結果記憶手段
20 事前学習用推定器
30 増幅器
31 ノイズ生成手段
40 生成器
50 判別器
60 分析器
67 ターゲットモデル記憶手段
70,91 推定器
80 依頼者端末
210 欠損値補完器