IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 国立大学法人横浜国立大学の特許一覧 ▶ 地方独立行政法人神奈川県立産業技術総合研究所の特許一覧

特開2024-116008推定装置、推定方法、プログラムおよびニューラルネットワークモデル
<>
  • 特開-推定装置、推定方法、プログラムおよびニューラルネットワークモデル 図1
  • 特開-推定装置、推定方法、プログラムおよびニューラルネットワークモデル 図2
  • 特開-推定装置、推定方法、プログラムおよびニューラルネットワークモデル 図3
  • 特開-推定装置、推定方法、プログラムおよびニューラルネットワークモデル 図4
  • 特開-推定装置、推定方法、プログラムおよびニューラルネットワークモデル 図5
  • 特開-推定装置、推定方法、プログラムおよびニューラルネットワークモデル 図6
  • 特開-推定装置、推定方法、プログラムおよびニューラルネットワークモデル 図7
  • 特開-推定装置、推定方法、プログラムおよびニューラルネットワークモデル 図8
  • 特開-推定装置、推定方法、プログラムおよびニューラルネットワークモデル 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024116008
(43)【公開日】2024-08-27
(54)【発明の名称】推定装置、推定方法、プログラムおよびニューラルネットワークモデル
(51)【国際特許分類】
   G06N 3/047 20230101AFI20240820BHJP
【FI】
G06N3/047
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2023021974
(22)【出願日】2023-02-15
(71)【出願人】
【識別番号】504182255
【氏名又は名称】国立大学法人横浜国立大学
(71)【出願人】
【識別番号】317006683
【氏名又は名称】地方独立行政法人神奈川県立産業技術総合研究所
(74)【代理人】
【識別番号】110001634
【氏名又は名称】弁理士法人志賀国際特許事務所
(72)【発明者】
【氏名】島 圭介
(72)【発明者】
【氏名】小宮山 翼
(72)【発明者】
【氏名】迎田 隆幸
(57)【要約】
【課題】時系列の情報を考慮しながら、想定しないクラスに属する事後確率を推定する。
【解決手段】推定装置は、決定ステップと推定ステップとを実行する。決定ステップでは、前回の信号に基づいて、複数の正規分布の和によって確率密度を表すクラスごとの混合正規分布を決定する。推定ステップでは、信号の変化に応じて取り得る全ての混合正規分布を構成する正規分布それぞれについての余事象分布の和によって表される混合余事象分布と、クラスごとの混合正規分布とに基づいて、信号が複数のクラスのいずれに属するか、またはいずれにも属しないかを推定する。余事象分布は、正規分布と正規分布に係る係数に基づく二次関数との積によって表される。
【選択図】図4
【特許請求の範囲】
【請求項1】
時間変化する信号について、前記信号が複数のクラスのいずれに属するか、またはいずれにも属しないかを推定する推定装置であって、
前回の信号に基づいて、複数の正規分布の和によって確率密度を表すクラスごとの混合正規分布を決定する決定ステップと、
信号の変化に応じて取り得る全ての混合正規分布を構成する正規分布それぞれについての、前記正規分布と前記正規分布に係る係数に基づく二次関数との積によって表される余事象分布の和によって表される混合余事象分布と、前記クラスごとの混合正規分布とに基づいて、前記信号が前記複数のクラスのいずれに属するか、またはいずれにも属しないかを推定する推定ステップと
を実行する推定装置。
【請求項2】
前記混合正規分布および前記混合余事象分布はニューラルネットワークモデルによって表され、
前記ニューラルネットワークモデルは、
前記信号を表す特徴ベクトルが入力される入力層と、
前記全ての混合正規分布を構成する正規分布それぞれの係数を表す第1パラメータ群を有し、前記特徴ベクトルと前記第1パラメータ群とに基づいて第1中間ベクトルを計算する第1中間層と、
第2中間ベクトルを計算する第2中間層であって、前回の信号に基づいて前記第2中間層より後の層によって生成されたベクトルであるフィードバックベクトルと、前記第1中間ベクトルとに基づいて前記第2中間ベクトルを計算する第2中間層と、
前記第2中間ベクトルに基づいて、前記複数のクラスそれぞれについて、前記信号が前記クラスに属することの尤度を計算する第1出力層と、
前記全ての混合正規分布を構成する正規分布それぞれに係る前記二次関数の係数を表す第2パラメータ群を有し、前記第1中間ベクトルと前記第2パラメータ群とに基づいて第3中間ベクトルを計算する第3中間層と、
前記第3中間ベクトルに基づいて、前記信号が前記複数のクラスの何れにも属しないことの尤度を計算する第2出力層と、
を備え、
前記決定ステップにおいて、前記ニューラルネットワークモデルの前記第2中間層の計算を実行し、
前記推定ステップにおいて、前記第1出力層および前記第2出力層の計算を実行する
請求項1に記載の推定装置。
【請求項3】
時間変化する信号について、前記信号が複数のクラスのいずれに属するか、またはいずれにも属しないかを推定する推定方法であって、
計算機が、前回の信号に基づいて、複数の正規分布の和によって確率密度を表すクラスごとの混合正規分布を決定する決定ステップと、
前記計算機が、信号の変化に応じて取り得る全ての混合正規分布を構成する正規分布それぞれの、前記正規分布と前記正規分布に係る係数に基づく二次関数との積によって表される余事象分布の和によって表される混合余事象分布と、前記クラスごとの混合正規分布とに基づいて、前記信号が前記複数のクラスのいずれに属するか、またはいずれにも属しないかを推定する推定ステップと
を備える推定方法。
【請求項4】
時間変化する信号について、前記信号が複数のクラスのいずれに属するか、またはいずれにも属しないかを計算機に推定させるためのプログラムであって、
前記計算機に、
前回の信号に基づいて、複数の正規分布の和によって確率密度を表すクラスごとの混合正規分布を決定する決定ステップと、
信号の変化に応じて取り得る全ての混合正規分布を構成する正規分布それぞれの、前記正規分布と前記正規分布に係る係数に基づく二次関数との積によって表される余事象分布の和によって表される混合余事象分布と、前記クラスごとの混合正規分布とに基づいて、前記信号が前記複数のクラスのいずれに属するか、またはいずれにも属しないかを推定する推定ステップと
を実行させるためのプログラム。
【請求項5】
特徴ベクトルが入力される入力層と、
複数の正規分布の和によって確率密度を表すクラスごとの混合正規分布を構成するすべての正規分布それぞれの係数を表す第1パラメータ群を有し、前記特徴ベクトルと前記第1パラメータ群とに基づいて第1中間ベクトルを計算する第1中間層と、
第2中間ベクトルを計算する第2中間層であって、前回の信号に基づいて前記第2中間層より後の層によって生成されたベクトルであるフィードバックベクトルと、前記第1中間ベクトルとに基づいて前記第2中間ベクトルを計算する第2中間層と、
前記第2中間ベクトルに基づいて、複数のクラスそれぞれについて、前記信号が前記クラスに属することの尤度を計算する第1出力層と、
前記全ての混合正規分布を構成する正規分布それぞれに係る前記二次関数の係数を表す第2パラメータ群を有し、前記第1中間ベクトルと前記第2パラメータ群とに基づいて第3中間ベクトルを計算する第3中間層と、
前記第3中間ベクトルに基づいて、前記信号が前記複数のクラスの何れにも属しないことの尤度を計算する第2出力層と、
を備える学習済みのニューラルネットワークモデルであって、
計算機に、
前記特徴ベクトルを前記入力層に入力するステップと、
前回の特徴ベクトルに基づいて前記フィードバックベクトルを計算するステップと、
前記特徴ベクトルと前記第1パラメータ群とに基づいて前記第1中間ベクトルを計算するステップと、
前記フィードバックベクトルと、前記第1中間ベクトルとに基づいて前記第2中間ベクトルを計算するステップと、
前記第2中間ベクトルに基づいて、前記複数のクラスそれぞれの尤度を計算するステップと、
前記第1中間ベクトルと前記第2パラメータ群とに基づいて第3中間ベクトルを計算するステップと、
前記第3中間ベクトルに基づいて、前記信号が前記複数のクラスの何れにも属しないことの尤度を計算するステップと、
を実行させるニューラルネットワークモデル。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、推定装置、推定方法、プログラムおよびニューラルネットワークモデルに関する。
【背景技術】
【0002】
特許文献1には、入力信号が予め設定した複数のクラスの何れに属するかを分類する分類器において、想定しないクラスに属する確率を推定する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2021-144659号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に記載の手法は、ある1点の信号についてクラスの分類を行う技術である。一方で、一般的に、時系列の信号についてクラスの分類を行う場合、過去の信号に応じてクラスの確率分布を決定する手法が用いられる。このような手法の一例として、隠れマルコフモデルが挙げられる。
本発明の目的は、時系列の情報を考慮して、想定しないクラスに属する事後確率の推定を可能とするための推定装置、推定方法、プログラムおよびニューラルネットワークモデルを提供することにある。
【課題を解決するための手段】
【0005】
第1の態様によれば、推定装置は、時間変化する信号について、前記信号が複数のクラスのいずれに属するか、またはいずれにも属しないかを推定する推定装置であって、前回の信号に基づいて、複数の正規分布の和によって確率密度を表すクラスごとの混合正規分布を決定する決定ステップと、信号の変化に応じて取り得る全ての混合正規分布を構成する正規分布それぞれについての、前記正規分布と前記正規分布に係る係数に基づく二次関数との積によって表される余事象分布の和によって表される混合余事象分布と、前記クラスごとの混合正規分布とに基づいて、前記信号が前記複数のクラスのいずれに属するか、またはいずれにも属しないかを推定する推定ステップとを実行する。
【0006】
第2の態様によれば、第1の態様に係る推定装置が、前記混合正規分布および前記混合余事象分布はニューラルネットワークモデルによって表され、前記ニューラルネットワークは、前記信号を表す特徴ベクトルが入力される入力層と、前記全ての混合正規分布を構成する正規分布それぞれの係数を表す第1パラメータ群を有し、前記特徴ベクトルと前記第1パラメータ群とに基づいて第1中間ベクトルを計算する第1中間層と、第2中間ベクトルを計算する第2中間層であって、前回の信号に基づいて前記第2中間層より後の層によって生成されたベクトルであるフィードバックベクトルと、前記第1中間ベクトルとに基づいて前記第2中間ベクトルを計算する第2中間層と、前記第2中間ベクトルに基づいて、前記複数のクラスそれぞれについて、前記信号が前記クラスに属することの尤度を計算する第1出力層と、前記全ての混合正規分布を構成する正規分布それぞれに係る前記二次関数の係数を表す第2パラメータ群を有し、前記第1中間ベクトルと前記第2パラメータ群とに基づいて第3中間ベクトルを計算する第3中間層と、前記第3中間ベクトルに基づいて、前記信号が前記複数のクラスの何れにも属しないことの尤度を計算する第2出力層と、を備え、前記決定ステップにおいて、前記ニューラルネットワークの前記第2中間層の計算を実行し、前記推定ステップにおいて、前記第1出力層および前記第2出力層の計算を実行するものであってよい。
【0007】
第3の態様によれば、推定方法は、時間変化する信号について、前記信号が複数のクラスのいずれに属するか、またはいずれにも属しないかを推定する推定方法であって、計算機が、前回の信号に基づいて、複数の正規分布の和によって確率密度を表すクラスごとの混合正規分布を決定する決定ステップと、前記計算機が、信号の変化に応じて取り得る全ての混合正規分布を構成する正規分布それぞれの、前記正規分布と前記正規分布に係る係数に基づく二次関数との積によって表される余事象分布の和によって表される混合余事象分布と、前記クラスごとの混合正規分布とに基づいて、前記信号が前記複数のクラスのいずれに属するか、またはいずれにも属しないかを推定する推定ステップとを備える。
【0008】
第4の態様によれば、プログラムは、時間変化する信号について、前記信号が複数のクラスのいずれに属するか、またはいずれにも属しないかを計算機に推定させるためのプログラムであって、前記計算機に、前回の信号に基づいて、複数の正規分布の和によって確率密度を表すクラスごとの混合正規分布を決定する決定ステップと、信号の変化に応じて取り得る全ての混合正規分布を構成する正規分布それぞれの、前記正規分布と前記正規分布に係る係数に基づく二次関数との積によって表される余事象分布の和によって表される混合余事象分布と、前記クラスごとの混合正規分布とに基づいて、前記信号が前記複数のクラスのいずれに属するか、またはいずれにも属しないかを推定する推定ステップとを実行させる。
【0009】
第5の態様によれば、ニューラルネットワークモデルは、特徴ベクトルが入力される入力層と、複数の正規分布の和によって確率密度を表すクラスごとの混合正規分布を構成するすべての正規分布それぞれの係数を表す第1パラメータ群を有し、前記特徴ベクトルと前記第1パラメータ群とに基づいて第1中間ベクトルを計算する第1中間層と、第2中間ベクトルを計算する第2中間層であって、前回の信号に基づいて前記第2中間層より後の層によって生成されたベクトルであるフィードバックベクトルと、前記第1中間ベクトルとに基づいて前記第2中間ベクトルを計算する第2中間層と、前記第2中間ベクトルに基づいて、前記複数のクラスそれぞれについて、前記信号が前記クラスに属することの尤度を計算する第1出力層と、前記全ての混合正規分布を構成する正規分布それぞれに係る前記二次関数の係数を表す第2パラメータ群を有し、前記第1中間ベクトルと前記第2パラメータ群とに基づいて第3中間ベクトルを計算する第3中間層と、前記第3中間ベクトルに基づいて、前記信号が前記複数のクラスの何れにも属しないことの尤度を計算する第2出力層と、を備える学習済みのニューラルネットワークモデルであって、計算機に、前記特徴ベクトルを前記入力層に入力するステップと、前回の特徴ベクトルに基づいて前記フィードバックベクトルを計算するステップと、前記特徴ベクトルと前記第1パラメータ群とに基づいて前記第1中間ベクトルを計算するステップと、前記フィードバックベクトルと、前記第1中間ベクトルとに基づいて前記第2中間ベクトルを計算するステップと、前記第2中間ベクトルに基づいて、前記複数のクラスそれぞれの尤度を計算するステップと、前記第1中間ベクトルと前記第2パラメータ群とに基づいて第3中間ベクトルを計算するステップと、前記第3中間ベクトルに基づいて、前記信号が前記複数のクラスの何れにも属しないことの尤度を計算するステップと、を実行させる。
【発明の効果】
【0010】
上記態様によれば、入力信号が予め設定した複数のクラスの何れに属するかを分類する分類器において、想定しないクラスに属する確率を推定することができる。
【図面の簡単な説明】
【0011】
図1】第1の実施形態に係るクラス識別システムの構成を示す概略ブロック図である。
図2】隠れマルコフモデルを表す模式図である。
図3】第1の実施形態に係る余事象分布関数の例を示すグラフである。
図4】第1の実施形態に係る数理モデルの構造を示す図である。
図5】第1の実施形態に係る学習装置の構成を示す概略ブロック図である。
図6】第1の実施形態に係る学習装置の動作を示すフローチャートである。
図7】第1の実施形態に係る識別装置の構成を示す概略ブロック図である。
図8】第1の実施形態に係る識別装置の動作を示すフローチャートである。
図9】少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
【発明を実施するための形態】
【0012】
〈第1の実施形態〉
《クラス識別システム1》
以下、図面を参照しながら実施形態について詳しく説明する。
図1は、第1の実施形態に係るクラス識別システム1の構成を示す概略ブロック図である。クラス識別システム1は、複数のクラスの中から入力信号が属するクラスを識別するためのシステムである。クラス識別システム1は、学習段階において設定された複数の既知クラスと、当該複数の既知クラスのいずれにも属しないことを示す余事象クラスについて、入力信号の尤度を計算する。
【0013】
クラス識別システム1は、識別装置10と学習装置20とを備える。識別装置10は、学習装置20によって訓練された学習済みモデルを用いて、入力信号が属するクラスを識別する。学習装置20は、学習用データセットを用いて数理モデルを訓練する。識別装置10および学習装置20は、計算機の一例である。学習済みモデルとは、数理モデルと、訓練によって決定されたパラメータの組み合わせである。
【0014】
《数理モデルについて》
第1の実施形態に係る数理モデルについて説明する。
第1の実施形態に係るクラス識別システム1は、第1の実施形態に係るクラス識別システム1は、隠れマルコフモデル(Hidden Markov Model)によって状態を推定し、状態に応じた混合正規分布モデル(Gaussian Mixture Model:GMM)によって既知クラスの分布を表す。また、クラス識別システム1は、以下に示す混合余事象分布モデル(Complementary Gaussian Mixture Model:CGMM)によって余事象クラスの分布を表す。
【0015】
《既知クラスのHMM-GMM》
図2は、隠れマルコフモデルを表す模式図である。第1の実施形態のクラス識別システム1は、信号源の状態kに応じて入力信号が既知クラスcに属する確率分布が変化する隠れマルコフモデルに従って、既知クラスの確率分布が決定されるものとの仮説に基づく。また隠れマルコフモデルにおいて、信号源の状態kは、前回の状態k´によって決定される。
既知クラスの数がC個、状態の数がK個である場合、信号x(t)が与えられたときの既知クラスcの事後確率p(c|x(t))は、以下の式(1)によって表される。
【0016】
【数1】
【数2】
【数3】
【0017】
ここで、ξ (k)は、時刻tのときの既知クラスcの出現確率の状態kに係る成分を表す関数である。π は、初期状態(t=0における状態)が状態kである確率(初期状態確率)を示す。A k´,kは、前回の状態k´から状態kに遷移する確率(遷移確率)を示す。b は、既知クラスcの状態kにおける出現確率である。
つまり、既知クラスcの事後確率p(c|x(t))は、時刻tの状態が状態kである確率によって重みづけされた、各状態における既知クラスcの出現確率の和によって表される。そして、時刻tの状態が状態kである確率は、前回の状態がk´である確率によって決定される。
【0018】
既知クラスcの状態kにおける出現確率b は、GMMにより、以下の式(4)によって表される。
【0019】
【数4】
【数5】
【数6】
【数7】
【0020】
ここで、Mc,kは、GMMにおいて既知クラスcを表す状態kのときの正規分布コンポーネントの数を示す。また、αc,k,mは、既知クラスcの状態kのときのm番目の正規分布コンポーネントの混合度を示す。
g(x(t):μ(c,k,m),Σ(c,k,m))は、式(2)で表される正規分布コンポーネントを示す。μ(c,k,m)は、既知クラスcの状態kのときのm番目の正規分布コンポーネントの平均値ベクトルを示し、Σ(c,k,m)は、既知クラスcの状態kのときのm番目の正規分布コンポーネントの共分散行列を示す。
また、式(2)のq(x(t))は、既知クラスcの状態kのときのm番目の正規分布コンポーネントにおける信号x(t)の偏差を変数とする二次関数を示す。
【0021】
《余事象クラスのCGMM》
発明者らは、既知クラスの数がK個である場合における余事象クラスを、以下の式(8)として定義した。すなわち、第1の実施形態において、信号x(t)がいずれの既知クラスcにも属しない確率b (x(t))は、以下の式(8)によって表される。以下、余事象クラスをc=0のクラスとして表す。
【0022】
【数8】
【数9】
【0023】
関数h(x(t):μ(c,k,m),Σ(c,k,m))は、式(9)で表される余事象分布を示す。すなわち、余事象分布関数h(x(t):μ(c,k,m),Σ(c,k,m))は、信号x(t)が既知クラスcの状態kにおけるm番目の正規分布コンポーネントに従わない確率を示す。なお、Dは、信号x(t)の次元数である。ここで、式(5)で表されるように、正規分布関数が関数g(x(t))で表され、二次関数が関数q(x(t))で表されることから、余事象分布関数h(x(t))は、分散Σを持つ正規分布関数と、当該正規分布関数と軸を同じくする二次関数との積によって表される。
図3は、第1の実施形態に係る余事象分布関数の例を示すグラフである。図3の横軸は信号x(t)の値であり、縦軸は生起確率を示す。図2に示すように、正規分布関数g(x(t))に二次関数q(x(t))を乗算することで、既知クラスcの状態kにおけるm番目の正規分布コンポーネントの周りに信号が分布するドーナツ状の分布を表すことができる。以下、軸を同じくする正規分布関数と二次関数q(x(t))の積によって表されるドーナツ状の分布を余事象分布コンポーネントと呼ぶ。
βk,mは既知クラスcのm番目の正規分布コンポーネントに対応する余事象分布の混合度を示す。
【0024】
《既知クラスおよび余事象クラスのモデル》
これらを総合し、信号x(t)のK個の既知クラスおよび1個の余事象クラスにおける生起確率p(x(t))は、以下の式(10)によって表される。このとき、既知クラスおよび余事象クラスの事後確率p´(c|x(t))は、以下の式(11)で表される。
【0025】
【数10】
【数11】
【0026】
なお、p(c=0)は、余事象クラスの事前確率である。したがって、確率(1-p(c=0))、すなわち余事象クラスの事前確率の補確率は、既知クラスの何れかに属することの事前確率を表す。
これにより、以下の式(12)に示すパラメータθを求めることで、既知クラスに属さないことを示す余事象クラスを含めたクラス識別を行うことができる。パラメータθは、余事象クラスの事前確率p(c=0)、初期状態確率π 、遷移確率A k´,k、混合度α、混合度β、平均値μ、共分散行列Σ、および重み係数εを含む。
【0027】
【数12】
【0028】
《対数線形化》
ここで、上記のパラメータθの制約を緩和するため、上記のGMMおよびCGMMを対数線形化する。ここで、式(6)に示すq(x(t))はGMMおよびCGMMにおいて共通して出現しており、q(x(t))には平均値μが含まれている。したがって、GMMおよびCGMMに含まれるq(x(t))の値を一致させることで、GMMおよびCGMMの軸を一致させることができる。
q(x(t))を展開すると、以下の式(13)のように表される。
【0029】
【数13】
【数14】
【数15】
【0030】
信号X(t)は、1、ベクトルx(t)の各要素、およびx(t)x(t)の上三角成分の各要素からなるベクトルである。x(t)x(t)は対象行列であるため、信号X(t)がx(t)x(t)の上三角成分の要素を持つことで、x(t)x(t)を表すことができる。ここで、δi,jは、クロネッカーのδ(i=jのときδi,j=1、i≠jのときδi,j=0)を示す。信号X(t)およびベクトルw(c,k,m)の次元数は(1+D(D+3)/2)である。コンポーネントを式(13)のように、信号X(t)と係数ベクトルw(c,k,m)の積として表すことで、パラメータの制約を低減することができる。具体的には、係数ベクトルw(c,k,m)の制約は、x(t)x(t)の対角成分に対応する要素の値が0未満であることだけである。x(t)x(t)の対角成分に対応する要素は、係数ベクトルw(c,k,m)のうち(d/2(2D+3-d)|d=1、…、D)で表される要素である。
【0031】
ここで、式(4)によれば、既知クラスのGMMを構成する複数の正規分布コンポーネントの対数は、以下の式(16)のように表される。w (c,k,k´,m)は、対数化した正規分布コンポーネントの定数項である。
【0032】
【数16】
【0033】
また、式(8)によれば、CGMMを構成する複数の余事象分布コンポーネント(正規分布関数と二次関数の和)の対数は、以下の式(17)のように表される。wε (c,k,m)は、対数化した余事象分布コンポーネントの一次関数項の係数である。w (c,k,m)は、対数化した余事象分布コンポーネントの定数項である。
【0034】
【数17】
【0035】
このように、式(17)によれば、平均値μをCGMM関数の係数および定数項に含ませなくすることができる。したがって、式(17)に示す関数を実現するニューラルネットワークモデルを作成することで、必ず余事象分布コンポーネントにおける正規分布関数と二次関数の軸を一致させることができる。
【0036】
つまり式(16)、(17)によれば、式(18)に示すパラメータθ´を求めることで、既知クラスに属さないことを示す余事象クラスを含めたクラス識別を行うことができる。パラメータθ´は、余事象クラスの事前確率p(c=0)、重み係数w(c、k、m)、重み係数wε (c、k、m)、定数w (c、k、k´,m)、定数w (c、k,m)を含む。
【0037】
【数18】
【0038】
《数理モデルのネットワーク構造》
以下、式(16)、(17)に示される事後確率を表す数理モデルの構成について説明する。図4は、第1の実施形態に係る数理モデルの構造を示す図である。図4に示すように、数理モデル90は、7層のネットワークである。つまり、数理モデル90は、第1層91、第2層92、第3層93、第4層94、第5層95、第6層96、第7層97を備える。数理モデル90は、第4層94と第5層95との間にフィードバックループを有する。
【0039】
数理モデル90の第1層91は、式(14)による非線形変換により得られたベクトルX(t)の入力を受け付ける。ベクトルX(t)は、特徴ベクトルの一例である。つまり、第1層91のノード数は、信号X(t)の次元数(1+D(D+3)/2)と等しい。第1層91の各ノードは、入力された値をそのまま出力する。すなわち、時刻tにおける第1層91のh番目のノードの線形変換関数(1)(t)は、以下の式(19)に示すとおりであり、時刻tにおける第1層91のh番目のノードの活性化関数(1)(t)は、以下の式(20)に示すとおりである。
【0040】
【数19】
【数20】
【0041】
数理モデル90の第2層92は、C×K×M個のノードを有する。第1の実施形態に係る数理モデル90では、各クラスについてのHMMに係る状態数が等しい。つまりK=K=……K=Kである。また、第1の実施形態に係る数理モデル90では、各クラスについてのGMMに係る正規分布の数が等しい。つまりM1,1=M1,2=……Mc,k=Mである。
第2層92の各ノードは、対数化した正規分布コンポーネントの正規分布の項の指数部、対数化した余事象分布コンポーネントの正規分布項の指数部、対数化した余事象分布コンポーネントの二次関数の項とで共通する二次関数を表す。第2層92のうち(c,k,m)番目のノードは、第1層91の出力ベクトル(1)Oすなわち信号Xの各要素を入力値として受け付ける。(c,k,m)番目のノードは、全結合により入力された第1層91の出力ベクトル(1)Oの各要素と重み係数w(c、k、m)の積の総和を計算し、その計算結果の値を出力する。すなわち、時刻tにおける第2層92の(c,k,m)番目のノードの線形変換関数(2)c,k,m(t)は、以下の式(21)に示すとおりであり、時刻tにおける第2層92の(c,k,m)番目のノードの活性化関数(2)c、k,m(t)は、以下の式(22)に示すとおりである。以下、(c,k,m)番目とは、((c-1)×K×M+(k-1)×M+m)番目のことをいう。
【0042】
【数21】
【数22】
【0043】
数理モデル90の第3層93は、(2+K)×C×K×M個のノードを有する。第3層93は、C×K×M個のノードを有する第1正規分布計算部93Aと、C×K×M個のノードを有する第2正規分布計算部93Bと、C×K×M個のノードを有する二次関数計算部93Cとからなる。
【0044】
第1正規分布計算部93Aの各ノードは、対数化した正規分布コンポーネントを表す。第1正規分布計算部93Aのうちc番目のクラスにおける、前回の状態がk´かつ現在の状態がkであるときのm番目の正規分布コンポーネントを表すノード((c,k,k´,m)番目のノード)は、第2層92のうち対応する出力ベクトル(2)c,k,m(t)の要素を入力値として受け付ける。第1正規分布計算部93Aの(c,k,k´,m)番目のノードは、出力ベクトル(2)c,k,m(t)の要素と定数項w (c,k,k´,m)の和を計算し、その計算結果の値を出力する。すなわち、第1正規分布計算部93Aの(c,k,k´,m)番目のノードの線形変換関数(3A)c,k,k´,m(t)は、以下の式(23)に示すとおりであり、第1正規分布計算部93Aの(c,k,k´,m)番目のノードの活性化関数(3A)c,k,k´,m(t)は、以下の式(24)に示すとおりである。
【0045】
【数23】
【数24】
【0046】
第2正規分布計算部93Bの各ノードは、対数化した余事象分布コンポーネントの正規分布項を表す。第2正規分布計算部93Bのうちc番目のクラスの状態kにおけるm番目の余事象分布コンポーネントの正規分布項を表すノード((c,k,m)番目のノード)は、第2層92のうち対応する出力ベクトル(2)c,k,m(t)の要素を入力値として受け付ける。第2正規分布計算部93Bの(c,k,m)番目のノードは、出力ベクトル(2)c,k,m(t)の要素と係数wε (c,k,m)の積と定数項w (c,k、m)の和を計算し、その計算結果の値を出力する。すなわち、第2正規分布計算部93Bの(c,k,m)番目のノードの線形変換関数(3B)c,k,m(t)は、以下の式(25)に示すとおりであり、第2正規分布計算部93Bの(c,k,m)番目のノードの活性化関数(3B)c,k,m(t)は、以下の式(26)に示すとおりである。
【0047】
【数25】
【数26】
【0048】
二次関数計算部93Cの各ノードは、対数化した余事象分布コンポーネントの二次関数項を表す。二次関数計算部93Cのうちc番目のクラスの状態kにおけるm番目の余事象分布コンポーネントの二次関数項を表すノード((c,k,m)番目のノード)は、第2層92のうち対応する出力ベクトル(2)c,k,m(t)の要素を入力値として受け付ける。二次関数計算部93Cの(c,k,m)番目のノードは、出力ベクトル(2)c,k,m(t)の要素に-1を乗算し、その計算結果の対数を出力する。すなわち、二次関数計算部93Cの(c,k,m)番目のノードの線形変換関数(3C)c,k,m(t)は、以下の式(27)に示すとおりであり、二次関数計算部93Cの(c,k,m)番目のノードの活性化関数(3B)c,k,m(t)は、以下の式(28)に示すとおりである。
【0049】
【数27】
【数28】
【0050】
数理モデル90の第4層94は、C×K×(K+M)個のノードを有する。第4層94は、C×K個のノードを有するGMM計算部94Aと、C×K×M個のノードを有する余事象分布コンポーネント計算部94Bとからなる。
【0051】
GMM計算部94Aの(c,k,k´)番目のノードは、前回の状態がk´であり今回の状態がkであるときのクラスcの確率分布を示すGMMを表す。GMM計算部94Aのうち(c,k,k´)番目のノードは、第1正規分布計算部93Aの(c,k,k´,1)番目から(c,k,k´,M)番目のノードの出力値と、第5層95の状態確率計算部95Aの(c,k)番目のノードの前回(時刻t-1)の計算結果との入力を受け付け、その積を出力する。すなわち、GMM計算部94Aの(c,k,k´)番目のノードの線形変換関数(4A)c,k,k´(t)は、以下の式(29)に示すとおりであり、GMM計算部94Aの(c,k,k´)番目のノードの活性化関数(4A)c,k,k´(t)は、以下の式(30)に示すとおりである。つまり、GMM計算部94Aは、前回の信号x(t-1)に基づいて、クラスごとのGMMを決定する。
【0052】
【数29】
【数30】
【0053】
余事象分布コンポーネント計算部94Bの各ノードは、余事象分布コンポーネントを表す。余事象分布コンポーネント計算部94Bのうち(c,k,m)番目のノードは、第2正規分布計算部93Bの(c,k,m)番目のノードの出力値と二次関数計算部93Cの(c,k,m)番目のノードの出力値を受け付け、当該入力値をネイピア数eの指数とする値を出力する。すなわち、余事象分布コンポーネント計算部94Bの(c,k,m)番目のノードの線形変換関数(4B)c,k,m(t)は、以下の式(31)に示すとおりであり、余事象分布コンポーネント計算部94Bの(c,k,m)番目のノードの活性化関数(4B)c,k,m(t)は、以下の式(32)に示すとおりである。
【0054】
【数31】
【数32】
【0055】
数理モデル90の第5層95は、2×C×K個のノードを有する。第5層95は、C×K個のノードを有する状態確率計算部95Aと、C×K個のノードを有するCGMM計算部95Bとからなる。
【0056】
状態確率計算部95Aの(c,k)番目のノードは、GMM計算部94Aの(c,k,1)番目から(c,k,K)番目までのノードの出力値を受け付け、当該入力値の総和を出力する。すなわち、状態確率計算部95Aの(c,k)番目のノードの線形変換関数(5A)c,k(t)は、以下の式(33)に示すとおりであり、状態確率計算部95Aの(c,k)番目のノードの活性化関数(5A)c,k(t)は、以下の式(34)に示すとおりである。
【0057】
【数33】
【数34】
【0058】
CGMM計算部95Bの(c,k)番目のノードは、余事象分布コンポーネント計算部94Bの(c,k,1)番目から(c,k,M)番目までのノードの出力値を受け付け、当該入力値の総和を出力する。すなわち、CGMM計算部95Bの(c,k)番目のノードの線形変換関数(5B)c,k(t)は、以下の式(35)に示すとおりであり、CGMM計算部95Bのノードの活性化関数(5B)c,k(t)は、以下の式(36)に示すとおりである。
【0059】
【数35】
【数36】
【0060】
数理モデル90の第6層96は、2×C×K個のノードを有する。第6層96は、C×K個のノードを有する第1事後確率算出部96Aと、C×K個のノードを有する第2事後確率算出部96Bとからなる。
【0061】
第1事後確率算出部96Aの(c,k)番目のノードは、状態確率計算部95Aの(c,k)番目のノードの出力値を受け付け、信号x(t)が状態kにおいてクラスcに属する事後確率を算出する。第1事後確率算出部96Aの(c,k)番目のノードの線形変換関数(6A)c,k(t)は、以下の式(37)に示すとおりであり、状態確率計算部95Aの(c,k)番目のノードの活性化関数(6A)c,k(t)は、以下の式(38)に示すとおりである。
【0062】
【数37】
【数38】
【0063】
第2事後確率算出部96Bの(c,k)番目のノードは、CGMM計算部95Bの(c,k)番目のノードの出力値を受け付け、信号x(t)が状態kにおいてクラスcに属しない事後確率を算出する。第1事後確率算出部96Aの(c,k)番目のノードの線形変換関数(6B)c,k(t)は、以下の式(39)に示すとおりであり、状態確率計算部95Aの(c,k)番目のノードの活性化関数(6B)c,k(t)は、以下の式(40)に示すとおりである。
【0064】
【数39】
【数40】
【0065】
数理モデル90の第7層97は、C+1個のノードを有する。第7層97は、C個のノードを有する既知クラス尤度計算部97Aと、1個のノードを有する余事象尤度計算部97Bとからなる。
【0066】
既知クラス尤度計算部97Aのc番目のノードは、第1事後確率算出部96Aの第(c,1)番目から第(c,K)番目までのノードの出力値を受け付け、当該入力値の総和を出力する。すなわち、既知クラス尤度計算部97Aのc番目のノードの線形変換関数(7A)(t)は、以下の式(41)に示すとおりであり、既知クラス尤度計算部97Aのc番目のノードの活性化関数(7A)(t)は、以下の式(42)に示すとおりである。
【0067】
【数41】
【数42】
【0068】
余事象尤度計算部97Bのノードは、第2事後確率算出部96Bの各ノードの出力値を受け付け、当該入力値の総和を出力する。すなわち、余事象尤度計算部97Bのノードの線形変換関数(7B)I(t)は、以下の式(43)に示すとおりであり、既知クラス尤度計算部97Aのノードの活性化関数(7B)O(t)は、以下の式(44)に示すとおりである。つまり、余事象尤度計算部97Bは、信号x(t)の変化に応じて取り得る全てのGMMを構成する正規分布それぞれに対応するCGMMコンポーネントからなるCGMMに基づいて、信号x(t)が複数のクラスのいずれにも属しない確率を算出する。
【0069】
【数43】
【数44】
【0070】
このように、上述した数理モデル90により、C個の既知クラスおよび1個の余事象クラスのそれぞれについての信号x(t)の尤度の計算を表すことができる。
【0071】
《学習装置20の構成》
ここで、図1に示すクラス識別システム1が備える学習装置20の構成について説明する。学習装置20は、数理モデル90を訓練し、各ノードのパラメータの値を決定する。
図5は、第1の実施形態に係る学習装置20の構成を示す概略ブロック図である。学習装置20は、モデル記憶部21、データセット受付部22、分割部23、変換部24、第1学習部25、評価部26、第2学習部27、出力部28を備える。
【0072】
モデル記憶部21は、数理モデル90および当該モデルのパラメータθ´の値を記憶する。数理モデル90のパラメータθ´は、式(18)に示すように、余事象クラスの事前確率p(c=0)、重み係数w(c,k、m)、重み係数wε (c,k、k´,m)、定数w (c,k,m)、定数w (c,k,m)を含む。
データセット受付部22は、数理モデル90の訓練に用いる複数のデータセットの入力を受け付ける。データセットは、時系列信号xを入力サンプルとし、当該時系列信号xが属するクラスのラベルの時系列を出力サンプルとする。
【0073】
分割部23は、データセット受付部22が受け付けた複数のデータセットを、学習用データセットと検証用データセットに分割する。例えば、分割部23は、予め定められた分割割合に基づいてデータセットを分割する。
【0074】
変換部24は、式(14)に従って、入力サンプルx(t)を非線形変換し、信号X(t)を得る。
【0075】
第1学習部25は、学習用データセットに係る時系列信号xを用いて、誤差逆伝搬法により、数理モデル90の重み係数w(c,k,m)、重み係数wε (c、k、k´、m)、定数w (c、k,m)、定数w (c、k,m)の値を更新する。具体的には、入力サンプルx(t)を時刻順に数理モデル90に入力して計算される出力値と、出力サンプルの値とに基づいて、あるサンプルにおける識別誤差を計算する。例えば、第1学習部25は、以下の式(45)により、識別誤差を評価するカルバックライブラ情報量Jを得る。第1学習部25は、カルバックライブラ情報量Jが最小となるように重み係数w(c,k,m)、重み係数wε (c、k、k´、m)、定数w (c、k,m)、定数w (c、k,m)の値を更新する。第1学習部25は、カルバックライブラ情報量Jが予め定めた目標値以下となるか、学習回数が予め定めた最大数を超えた場合に、パラメータの更新を終了する。なお、事前確率p(c=0)については、後述の第2学習部27にて更新するため、他の重み係数の学習段階では、事前確率p(c=0)に仮の値(例えば、0.01)を代入しておく。
【0076】
【数45】
【0077】
評価部26は、第1学習部25による数理モデル90の訓練後、検証用データセットを用いて数理モデル90を評価する。つまり、評価部26は、数理モデル90に従って計算をすることで、第1層91、第2層92、第3層93(第1正規分布計算部93A、第2正規分布計算部93B、二次関数計算部93C)、第4層94(GMM計算部94A、余事象分布コンポーネント計算部94B)、第5層95(状態確率計算部95A、CGMM計算部95B)、第6層96(第1事後確率算出部96A、第2事後確率算出部96B)、第7層97(既知クラス尤度計算部97A、余事象尤度計算部97B)として機能する。具体的には、評価部26は、以下の式(46)を用いて評価値PRecallを算出する。
【0078】
【数46】
【0079】
ここで、Φは、クラスcの入力サンプルを正しく識別できた数を示す。Ψは、クラスcの入力サンプルを誤って識別した数を示す。
【0080】
第2学習部27は、評価値PRecallに基づいて学習処理を終了するか否かを判定し、学習を終了しない場合に、余事象クラスの事前確率p(c=0)を更新する。具体的には、第2学習部27は、現在の余事象クラスの事前確率p(c=0)に、所定の更新量pを加算することで、余事象クラスの事前確率p(c=0)を更新する。
第2学習部27は、評価値PRecallと、新たな事前確率を適用した場合の評価値との差が所定の終了判定閾値以下である場合に、学習処理を終了すると判定する。
【0081】
出力部28は、学習処理を終了した数理モデル90の学習済みモデルを、識別装置10に出力する。
【0082】
《学習装置20の動作》
図6は、第1の実施形態に係る学習装置20の動作を示すフローチャートである。
学習装置20のデータセット受付部22が複数のデータセットの入力を受け付けると(ステップS1)、分割部23は、複数のデータセットを、学習用データセットと検証用データセットに分割する(ステップS2)。
【0083】
変換部24は、複数の入力サンプルを非線形変換し入力信号を得る(ステップS3)。次に、第1学習部25は、学習用データセットから変換された入力信号を用いて、誤差逆伝搬法により、数理モデル90のパラメータ(重み係数w(c、k、m)、重み係数wε (c、k、k´、m)、定数w (c,k,m)、定数w (c,k,m))の値を更新する(ステップS4)。第1学習部25は、式(45)で得られる識別誤差Jが目標値以下となったか否か、および学習回数が最大数を超えたか否かを判定する(ステップS5)。識別誤差Jが目標値より大きく、かつ学習回数が最大数未満である場合(ステップS5:NO)、学習装置20はステップS3に処理を戻す。
【0084】
他方、識別誤差Jが目標値以下となった場合、または学習回数が最大数を超えた場合(ステップS5:YES)、第1学習部25は、重み係数の更新を終了する。次に、評価部26は、検証用データセットから変換された入力信号を用いて数理モデル90の評価値PRecallを算出する(ステップS6)。第2学習部27は、ステップS6で算出した評価値PRecallが予め定めた識別率の許容閾値以下となったか否かを判定する(ステップS7)。
【0085】
評価値PRecallが許容閾値より大きい場合場合(ステップS7:NO)、評価部26は、余事象クラスの事前確率p(c=0)を更新し、ステップS6に処理を戻す(ステップS8)。
他方、評価値PRecallが許容閾値以下となった場合(ステップS7:YES)、出力部28は、学習処理を終了した数理モデル90の学習済みモデルを、識別装置10に出力する(ステップS9)。
【0086】
《識別装置10の構成》
ここで、図1に示すクラス識別システム1が備える識別装置10の構成について説明する。識別装置10は、学習装置20によって訓練された学習済みの数理モデル90を用いて、入力データのクラスを識別する。
図7は、第1の実施形態に係る識別装置10の構成を示す概略ブロック図である。識別装置10は、モデル取得部11、モデル記憶部12、データ入力部13、変換部14、識別部15、出力部16を備える。
【0087】
モデル取得部11は、学習装置20から学習済みの数理モデル90を取得する。モデル取得部11は、取得した学習済みの数理モデル90をモデル記憶部12に記録する。
モデル記憶部12は、モデル取得部11が取得した学習済みの数理モデル90を記憶する。
データ入力部13は、クラスの識別対象となる入力データの入力を受け付ける。
変換部14は、式(14)に従って、入力データx(t)を非線形変換し、信号X(t)を得る。
識別部15は、変換部14が変換した信号X(t)をモデル記憶部12が記憶する学習済みモデルに入力することで、当該信号X(t)の複数のクラスの尤度を算出し、当該尤度に基づいて、入力データが属するクラスを評価する。つまり、識別部15は、数理モデル90に従って計算をすることで、第1層91、第2層92、第3層93(第1正規分布計算部93A、第2正規分布計算部93B、二次関数計算部93C)、第4層94(GMM計算部94A、余事象分布コンポーネント計算部94B)、第5層95(状態確率計算部95A、CGMM計算部95B)、第6層96(第1事後確率算出部96A、第2事後確率算出部96B)、第7層97(既知クラス尤度計算部97A、余事象尤度計算部97B)として機能する。
出力部16は、識別部15による評価結果を出力する。
【0088】
《識別装置10の動作》
図8は、第1の実施形態に係る識別装置10の動作を示すフローチャートである。なお、以下の説明では、学習装置20による学習済みの数理モデル90は、モデル記憶部12に既に記憶されているものとする。
【0089】
識別装置10のデータ入力部13は、クラスの識別対象となる入力データの入力を受け付ける(ステップS11)。次に、変換部14は、式(11)に従って、入力データを非線形変換し、信号を得る(ステップS12)。識別部15は、ステップS12で変換した信号X(t)をモデル記憶部12が記憶する学習済みモデルに入力することで、当該信号X(t)の複数のクラスの尤度を算出する(ステップS13)。識別部15は、算出された尤度に基づいて、入力データが属するクラスを評価する(ステップS14)。出力部16は、識別部15による評価結果を出力する(ステップS15)。データ入力部13は、次の入力データがあるか否かを判定する(ステップS16)。次の入力データがある場合(ステップS16:YES)、データ入力部13はステップS11に処理を戻し、次の時刻の入力データについて評価を継続する。次の入力データがない場合(ステップS16:NO)、識別装置10は処理を終了する。
【0090】
《作用・効果》
このように、第1の実施形態に係る数理モデル90は、GMM計算部94A、既知クラス尤度計算部97A、余事象尤度計算部97Bを有する。GMM計算部94Aは、前回の信号に基づいてクラスごとのGMMを決定する。既知クラス尤度計算部97Aは、GMM計算部94Aが表すクラスごとのGMMに基づいて、信号が複数のクラスのいずれに属するかを推定する。余事象尤度計算部97Bは、信号の変化に応じて取り得る全てのGMMを構成する正規分布それぞれについての余事象分布コンポーネントの和によって表される混合余事象分布に基づいて、信号がいずれのクラスにも属しないか否かを推定する。
このように、第1の実施形態によれば、前回の信号に基づいてGMMの分布を変化させながら、クラスに属する確率といずれのクラスにも属しない確率とのそれぞれを計算することができる。
【0091】
なお、GMMを有するHMMにより、時系列を考慮したクラス分類を行うことができる。一方で、いずれのクラスにも属しない信号は、そもそも学習用データセットに含まれないため、いずれのクラスにも属しない信号を出力する状態の遷移を表すHMMを作成することは困難である。これに対し、第1の実施形態に係る数理モデル90では、信号がいずれのクラスにも属しない確率分布について、状態の変化がなく(状態数が1であり)、HMMで表現される全ての状態における確率分布の周囲に分布しているものとして、CGMMが設計されている。これにより、既知クラスについてはHMMに基づく状態遷移を考慮しながら、信号がいずれのクラスにも属しない確率も求めることができる。
【0092】
〈他の実施形態〉
以上、図面を参照して一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、様々な設計変更等をすることが可能である。すなわち、他の実施形態においては、上述の処理の順序が適宜変更されてもよい。また、一部の処理が並列に実行されてもよい。
【0093】
上述の実施形態においては、数理モデル90を用いてクラス識別を行ったが、他の実施形態においては、これに限られない。例えば、他の実施形態においては、生成装置が数理モデル90を用いて余事象クラスに属するデータを生成してもよい。
また、上述の実施形態においては、クラス識別システム1が機械学習を用いてクラス識別を行うが、これに限られない。例えば、他の実施形態においては、機械学習によらず、数理モデル90を用いた計算を行ってもよい。
【0094】
また、上述のクラス識別システム1は、識別装置10と学習装置20とを備えるが、これに限られない。例えば、他の実施形態に係るクラス識別システム1は、同一の装置において学習処理と識別処理を行ってもよい。
また、上述のクラス識別システム1は、学習段階のステップS2においてデータセットを学習用データセットと検証用データセットとに分割し、検証用データセットを用いて評価値を算出するが、これに限られない。例えば、他の実施形態においては、すべてのデータセットを学習用に用い、同じデータセットを用いて評価値を算出してもよい。
【0095】
なお、上述した実施形態に係る数理モデル90は、CGMMを構成する二次関数と正規分布関数とに共通する部分について、第2層92で先に計算をしてから、二次関数と正規分布関数とをそれぞれ求めることでCGMMを計算するが、これに限られない。例えば、他の実施形態に係る数理モデル90は、特許文献1のような手法でCGMMを計算してもよい。
また、他の実施形態においては、クラス識別システム1はニューラルネットワークでないGMMおよびCGMMの確率モデルを用いてもよい。この場合も、既知クラスの確率はHMMに基づいて計算し、未知クラスの確率は当該HMMのすべての状態に係るGMMに基づくCGMMによって計算される。
【0096】
〈コンピュータ構成〉
図9は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
コンピュータ100は、プロセッサ110、メインメモリ130、ストレージ150、インタフェース170を備える。
上述の識別装置10および学習装置20は、コンピュータ100に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ150に記憶されている。プロセッサ110は、プログラムをストレージ150から読み出してメインメモリ130に展開し、当該プログラムに従って上記処理を実行する。また、プロセッサ110は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ130に確保する。プロセッサ110の例としては、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、マイクロプロセッサなどが挙げられる。
【0097】
プログラムは、コンピュータ100に発揮させる機能の一部を実現するためのものであってもよい。例えば、プログラムは、ストレージに既に記憶されている他のプログラムとの組み合わせ、または他の装置に実装された他のプログラムとの組み合わせによって機能を発揮させるものであってもよい。なお、他の実施形態においては、コンピュータ100は、上記構成に加えて、または上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)が挙げられる。この場合、プロセッサ110によって実現される機能の一部または全部が当該集積回路によって実現されてよい。このような集積回路も、プロセッサの一例に含まれる。プロセッサ110がFPGAである場合、上述の学習済みの数理モデル90をハードウェアとして構成させるコンフィグレーションの処理をコンピュータに実行させるためのコンフィグレーションプログラムの実行により、FPGAが識別装置10として機能するように構成される。また、他の実施形態においては、コンピュータ100は、1または複数のコンピュータ上で仮想化されたものであってもよい。
【0098】
ストレージ150の例としては、光ディスク、磁気ディスク、光磁気ディスク、半導体メモリ等が挙げられる。ストレージ150は、コンピュータ100のバスに直接接続された内部メディアであってもよいし、インタフェース170または通信回線を介してコンピュータ100に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ100に配信される場合、配信を受けたコンピュータ100が当該プログラムをメインメモリ130に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ150は、一時的でない有形の記憶媒体である。
【0099】
また、当該プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、当該プログラムは、前述した機能をストレージ150に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であってもよい。
【符号の説明】
【0100】
1…クラス識別システム 10…識別装置 11…モデル取得部 12…モデル記憶部 13…データ入力部 14…変換部 15…識別部 16…出力部 20…学習装置 21…モデル記憶部 22…データセット受付部 23…分割部 24…変換部 25…第1学習部 26…評価部 27…第2学習部 28…出力部 90…数理モデル 91…第1層 92…第2層 93…第3層 93A…第1正規分布計算部 93B…第2正規分布計算部 93C…二次関数計算部 94…第4層 94A…GMM計算部 94B…余事象分布コンポーネント計算部 95…第5層 95A…状態確率計算部 95B…CGMM計算部 96…第6層 96A…第1事後確率算出部 96B…第2事後確率算出部 97…第7層 97A…既知クラス尤度計算部 97B…余事象尤度計算部
図1
図2
図3
図4
図5
図6
図7
図8
図9