IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

特許7192977教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム
<>
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図1
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図2
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図3
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図4
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図5
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図6
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図7
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図8
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図9
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図10
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図11
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図12
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図13
  • 特許-教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム 図14
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-12-12
(45)【発行日】2022-12-20
(54)【発明の名称】教師なしモデル適応装置、教師なしモデル適応方法および教師なしモデル適応プログラム
(51)【国際特許分類】
   G06N 20/00 20190101AFI20221213BHJP
   G06N 7/00 20060101ALI20221213BHJP
【FI】
G06N20/00 160
G06N7/00
【請求項の数】 8
(21)【出願番号】P 2021519688
(86)(22)【出願日】2019-03-28
(65)【公表番号】
(43)【公表日】2022-01-13
(86)【国際出願番号】 JP2019013618
(87)【国際公開番号】W WO2020084812
(87)【国際公開日】2020-04-30
【審査請求日】2021-04-08
(31)【優先権主張番号】PCT/JP2018/039613
(32)【優先日】2018-10-25
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100103090
【弁理士】
【氏名又は名称】岩壁 冬樹
(74)【代理人】
【識別番号】100124501
【弁理士】
【氏名又は名称】塩川 誠人
(72)【発明者】
【氏名】リー コン エイク
(72)【発明者】
【氏名】ワン チョンチョン
(72)【発明者】
【氏名】越仲 孝文
【審査官】多賀 実
(56)【参考文献】
【文献】国際公開第2017/046828(WO,A1)
【文献】中国特許出願公開第107680600(CN,A)
【文献】GLEMBEK, Ondrej et al.,"DOMAIN ADAPTATION VIA WITHIN-CLASS COVARIANCE CORRECTION IN I-VECTOR BASED SPEAKER RECOGNITION SYSTEMS",2014 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) [online],IEEE,2014年,pp.4032-4036,[令和4年5月16日 検索], インターネット:<URL: https://ieeexplore.ieee.org/abstract/document/6854359>,DOI:10.1109/ICASSP.2014.6854359
【文献】KANAGASUNDARAM, Ahilan et al.,"IMPROVING OUT-DOMAIN PLDA SPEAKER VERIFICATION USING UNSUPERVISED INTER-DATASET VARIABILITY COMPENSATION APPROACH",2015 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) [online],IEEE,2015年,pp.4654-4658,[令和4年5月16日 検索], インターネット:<URL:https://ieeexplore.ieee.org/abstract/document/7178853>,DOI:10.1109/ICASSP.2015.7178853
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
G10L 13/00-99/00
(57)【特許請求の範囲】
【請求項1】
ドメイン外の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方から、擬似的なドメイン内の共分散行列を計算する共分散行列計算部と、
同時対角化に基づいて、前記ドメイン外の確率的線形判別分析モデルにおける擬似的なドメイン内の共分散行列と、クラスの共分散行列の一般化固有値および一般化固有ベクトルとを計算する同時対角化部と、
前記一般化固有値と前記一般化固有ベクトルを用いて、ドメイン内の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方を計算する適応部とを備え、
前記共分散行列計算部は、ドメイン外の確率的線形判別分析モデルとドメイン内のデータの共分散行列に基づいて、前記擬似的なドメイン内の共分散行列を計算する
ことを特徴とする教師なしモデル適応装置。
【請求項2】
適応部は、クラス内およびクラス間の共分散行列の縮小を回避する正則化処理を行うことにより、ドメイン内の共分散行列を計算する
請求項1記載の教師なしモデル適応装置。
【請求項3】
共分散行列計算部は、ドメイン外の確率的線形判別分析モデルに基づいてドメイン外の共分散行列を計算し、当該ドメイン外の共分散行列、ドメイン内データの共分散行列、および、クラスの共分散行列に基づいて、擬似的なドメイン内の共分散行列を計算する
請求項1または請求項2記載の教師なしモデル適応装置。
【請求項4】
適応部は、擬似的なドメイン内のヘビーテール確率的線形判別分析モデルにおいて、クラス内の共分散成分とクラス間の共分散成分のうちの1つまたは両方を計算する
請求項1から請求項3のうちのいずれか1項に記載の教師なしモデル適応装置。
【請求項5】
コンピュータが、
ドメイン外の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方から、擬似的なドメイン内の共分散行列を計算し、
同時対角化に基づいて、前記ドメイン外の確率的線形判別分析モデルにおける擬似的なドメイン内の共分散行列と、クラスの共分散行列の一般化固有値および一般化固有ベクトルとを計算し、
前記一般化固有値と前記一般化固有ベクトルを用いて、ドメイン内の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方を計算し、
前記擬似的なドメイン内の共分散行列は、ドメイン外の確率的線形判別分析モデルとドメイン内のデータの共分散行列に基づいて計算される
ことを特徴とする教師なしモデル適応方法。
【請求項6】
コンピュータが、
クラス内およびクラス間の共分散行列の縮小を回避する正則化処理を行うことにより、ドメイン内の共分散行列を計算する
請求項5記載の教師なしモデル適応方法。
【請求項7】
コンピュータに、
ドメイン外の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方から、擬似的なドメイン内の共分散行列を計算する共分散行列計算処理、
同時対角化に基づいて、前記ドメイン外の確率的線形判別分析モデルにおける擬似的なドメイン内の共分散行列と、クラスの共分散行列の一般化固有値および一般化固有ベクトルとを計算する同時対角化処理、および、
前記一般化固有値と前記一般化固有ベクトルを用いて、ドメイン内の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方を計算する適応処理を実行させ、
前記共分散行列計算処理で、前記擬似的なドメイン内の共分散行列は、ドメイン外の確率的線形判別分析モデルとドメイン内のデータの共分散行列に基づいて計算される
ための教師なしモデル適応プログラム。
【請求項8】
コンピュータに、
適応処理で、クラス内およびクラス間の共分散行列の縮小を回避する正則化処理を行うことにより、ドメイン内の共分散行列を計算させる
請求項7記載の教師なしモデル適応プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ラベル付けされていないデータを用いてモデルを適応させるための教師なしモデル適応装置、教師なしモデル適応方法、および教師なしモデル適応プログラムに関する。
【背景技術】
【0002】
開発(トレーニング)時の条件と使用(テスト)時の条件とは異なる。例えば、多くの実用的なアプリケーションでは、話者認識システムを開発したときの条件と、そのシステムを使用するときの条件とが異なる。このようなトレーニングとテストとの間のミスマッチ(言語の違いなど)をドメインミスマッチと呼ぶ。
【0003】
ドメインミスマッチを解決するために、場合によっては、ドメイン内のデータを用いた再学習が実行されてもよい。ドメイン内のデータは、通常、導入コストを最小限に抑えるために、量が限られており、ラベルが付いていないものが収集され得る。したがって、システム(モデル)の再トレーニングは、ラベル付けされた大量のデータが必要となるため、禁止されている。よって、バックエンドの分類器の教師なし適応(例えば、確率的線形判別分析)が必要であると言える。
【0004】
非特許文献1および非特許文献2には、確率的線形判別分析(PLDA:probabilistic linear discriminant analysis)のバックエンドについて記載されている。PLDAバックエンドは、チャネル補償を実行し、スコアリングバックエンドとして機能する。PLDAは、話者埋め込みベクトル(iベクトル、xベクトルなど)の分布をガウス分布としてモデル化し、クラス内変動とクラス間変動を別個の行列として明示的にモデル化する。
【0005】
一方、ソースドメインから得られた知識をターゲットドメインに適用するドメインの適応化も知られている。非特許文献3および非特許文献4には、ドメインの適応化の方法として、相関アライメント(CORAL:correlation alignment )が記載されている。非特許文献3および非特許文献4に記載された方法では、ドメインの適応化は、2段階の手順、すなわち、ホワイトニングの後に再カラーリングを行うことで達成される。また、ドメインの適応化は、特徴量、すなわち話者埋め込みベクトル(例えば、iベクトル、xベクトル)に対して行われる。
【0006】
また、ガウス分布の代わりにStudent のt分布を用いたPLDAは、ヘビーテール(HT:Heavy-Tailed)-PLDAと呼ばれている。非特許文献5には、HT-PLDAのための高速な変分ベイズをiベクトルおよびxベクトルに適用する方法が記載されている。非特許文献6には、Heavy-Tailed Priors を用いたベイズ話者検証の方法が記載されている。
【先行技術文献】
【非特許文献】
【0007】
【文献】S. Ioffe, "Probabilistic linear discriminant analysis," ECCV 2006, Part IV, LNCS 3954, pp. 531-542, 2006
【文献】S. J. D. Prince and J. H. Elder, "Probabilistic linear discriminant analysis for inferences about identity," in Proc. ICCV, 2007, pp. 1-8.
【文献】B. Sun, J. Feng, and K. Saenko, "Return of frustratingly easy domain adaptation," in Proc. AAAI, 2016, vol. 6, p.8.
【文献】J. Alam, G. Bhattacharya, P. Kenny, "Speaker verification in mismatched conditions with frustratingly easy domain adaptation, " in Proc. Odyssey, 2018, pp. 176-180.
【文献】A. Silnova, N. Brummer, D. Garcia-Romero, D. Snyder, L. Burget, "Fast variational bayes for heavy-tailed PLDA applied to i-vectors and x-vectors", Interspeech 2018
【文献】P. Kenny, "Bayesian speaker verification with heavy-tailed priors", Odyssey 2010
【発明の概要】
【発明が解決しようとする課題】
【0008】
しかし、クラス内の共分散行列とクラス間の共分散行列では、ドメインミスマッチにより、その分野で適用した場合の分布がうまく一致しない。また、非特許文献1および非特許文献2に記載されているように、様々なアプリケーションのドメインに合わせてPLDAを再学習させるにはコストがかかり、大量のラベル付きデータセットが必要になる。
【0009】
さらに、非特許文献3および非特許文献4に記載されているCORALは、特徴量ドメインを適応化させる技術である。ドメインの適応化は、ラベル付けされたドメイン外のデータを変換することで行われる。そして、ドメインに適応化されたデータを用いてバックエンドの分類器がトレーニングされる。しかし、非特許文献3および非特許文献4に記載されたCORALを用いる場合、ドメイン外のデータセット全体を保持し、必要に応じてドメイン内データに変換することでバックエンドの分類器を再トレーニングする。そのため、ストレージや計算量に多くのコストがかかる。
【0010】
図13は、特徴量ベースのCORAL適応と、それに続くPLDAの再トレーニングの例を示す説明図である。なお、以下の説明では、本文中でギリシャ文字を用いる場合には、ギリシャ文字の英語表記を括弧([])で囲むことがある。また、大文字のギリシャ文字を表す場合には、[]内の語頭を大文字で表し、小文字のギリシャ文字を表す場合には、[]内の語頭を小文字で表す。Φ´は、適応化されたPLDAモデルのクラス内の共分散行列を示す。Φ´は、適応化されたPLDAモデルのクラス間の共分散行列を示す。XOODは、ドメイン外のトレーニングデータを示し、YOODは、トレーニングデータのラベルを示す。また、XInDは、ドメイン内でラベル付けされていないトレーニングデータを示し、TInDは、テストデータを示す。
【0011】
CORAL110では、X´OODは、XOODとXInDから計算される。具体的には、C=cov(XInD)およびC=cov(XOOD)が定義されているとき、X´OODは、X´OOD=C 1/2 -1/2OODとして計算される。トレーニングPLDA120では、{Φ´,Φ´}が、ドメイン適応データX´OODおよびYOODで学習される。そして、PLDAバックエンド130では、テストデータTInDが入力されると、スコアが計算される。
【0012】
図14は、ドメイン外データの教師なし適応のためのCORALアルゴリズムと、PLDAトレーニングを説明するフローチャートである。図14に示す表記は、図13に示す表記と同様である。ドメイン外データ{XOOD,YOOD}とドメイン内データXInDが入力される(ステップS101)。そして、ドメイン内データXInDから経験的共分散行列Cが推定される(ステップS102)。同様に、ドメイン外データXOODから経験的共分散行列Cが推定される(ステップS103)。
【0013】
ドメイン外データをドメイン内データに適応させ、X´OODが計算される(ステップS104)。X´OODとYOODを用いたPLDAトレーニングにより、{Φ´w,0, Φ´b,0}が計算される(ステップS105)。そして、適応化された共分散行列{Φ´, Φ´}が出力される(ステップS106)。
【0014】
図13および図14に示すように、ドメイン外データセットXOODを全て保持しておく必要があるため、再学習のためのデータセットの維持にコストがかかるという問題がある。
【0015】
そこで、本発明では、ドメイン外データセットに基づいてトレーニングされたモデルが、ラベル付けされていないデータを用いてドメイン内モデルに適応化される場合に、適応化するためのコストを低減しつつ、教師なしモデルを適応できる教師なしモデル適応装置、教師なしモデル適応方法、および教師なしモデル適応プログラムを提供することを目的とする。
【課題を解決するための手段】
【0016】
本発明による教師なしモデル適応装置は、ドメイン外の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方から、擬似的なドメイン内の共分散行列を計算する共分散行列計算部と、同時対角化に基づいて、ドメイン外の確率的線形判別分析モデルにおける擬似的なドメイン内の共分散行列と、クラスの共分散行列の一般化固有値および一般化固有ベクトルとを計算する同時対角化部と、一般化固有値と一般化固有ベクトルを用いて、ドメイン内の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方を計算する適応部とを備え、共分散行列計算部が、ドメイン外の確率的線形判別分析モデルとドメイン内のデータの共分散行列に基づいて、擬似的なドメイン内の共分散行列を計算することを特徴とする。
【0017】
本発明による教師なしモデル適応方法は、コンピュータが、ドメイン外の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方から、擬似的なドメイン内の共分散行列を計算し、同時対角化に基づいて、ドメイン外の確率的線形判別分析モデルにおける擬似的なドメイン内の共分散行列と、クラスの共分散行列の一般化固有値および一般化固有ベクトルとを計算し、一般化固有値と一般化固有ベクトルを用いて、ドメイン内の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方を計算し、擬似的なドメイン内の共分散行列が、ドメイン外の確率的線形判別分析モデルとドメイン内のデータの共分散行列に基づいて計算されることを特徴とする。
【0018】
本発明による教師なしモデル適応プログラムは、コンピュータに、ドメイン外の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方から、擬似的なドメイン内の共分散行列を計算する共分散行列計算処理、同時対角化に基づいて、ドメイン外の確率的線形判別分析モデルにおける擬似的なドメイン内の共分散行列と、クラスの共分散行列の一般化固有値および一般化固有ベクトルとを計算する同時対角化処理、および、一般化固有値と一般化固有ベクトルを用いて、ドメイン内の確率的線形判別分析モデルにおけるクラス内の共分散行列とクラス間の共分散行列の一方または両方を計算する適応処理を実行させ、共分散行列計算処理で、擬似的なドメイン内の共分散行列が、ドメイン外の確率的線形判別分析モデルとドメイン内のデータの共分散行列に基づいて計算されることを特徴とする。
【発明の効果】
【0019】
本発明によれば、ドメイン外データセットに基づいてトレーニングされたモデルが、ラベル付けされていないデータを用いてドメイン内モデルに適応化される場合に、適応化するためのコストを低減しつつ、教師なしモデルを適応できる。
【図面の簡単な説明】
【0020】
図1】本発明による教師なしモデル適応装置の第一の実施形態の構成例を示すブロック図である。
図2】本発明による教師なしモデル適応装置の第一の実施形態の構成例を示す説明図である。
図3】第一の実施形態の教師なしモデル適応装置100の動作例を示すフローチャートである。
図4】第一の実施形態のモデル適応部30の動作例を示すフローチャートである。
図5】第一の実施形態のモデル適応部30の他の動作例を示すフローチャートである。
図6】本発明による教師なしモデル適応装置の第二の実施形態の構成例示すブロック図である。
図7】本発明による教師なしモデル適応装置の第二の実施形態の構成例を示す説明図である。
図8】第二の実施形態の教師なしモデル適応装置200の動作例を示すフローチャートである。
図9】第二の実施形態のモデル適応部240の動作例を示すフローチャートである。
図10】第二の実施形態のモデル適応部240の他の動作例を示すフローチャートである。
図11】本発明による教師なしモデル適応装置の概要を示すブロック図である。
図12】本発明の一実施形態に係るコンピュータの構成例を示す概略ブロック図である。
図13】特徴ベースのCORAL適応とPLDA適応の例を示す説明図である。
図14】ドメイン外データの教師なし適応のためのCORALアルゴリズムと、PLDAトレーニングを説明するフローチャートである。
【発明を実施するための形態】
【0021】
以下、本発明の実施形態を図面を参照して説明する。
【0022】
実施形態1.
図1は、本発明による教師なしモデル適応装置の第一の実施形態の構成例を示すブロック図である。また、図2は、本発明による教師なしモデル適応装置の第一の実施形態の構成例を示す説明図である。本実施形態の教師なしモデル適応装置100は、データ入力部10と、トレーニング部20と、モデル適応部30と、分類部40とを備えている。
【0023】
データ入力部10は、ドメイン外データXOODを入力し、トレーニング部20のトレーニングデータとしてYOODをラベル付けする。データ入力部10は、例えば、予め収集したトレーニングデータを記憶した外部の記憶装置(図示せず)から通信ネットワークを介してデータを取得し、取得したデータをトレーニング部20に入力してもよい。
【0024】
トレーニング部20は、ドメイン外PLDAモデルを学習する(図2の21参照)。そして、トレーニング部20は、ドメイン外PLDAモデルから、クラス内の共分散行列Φw,0と、クラス間の共分散行列Φb,0(以下、Φw,0とΦb,0の組み合わせを、クラス内およびクラス間の共分散行列と記すこともある。)を計算する。すなわち、Φw,0およびΦb,0は、ドメイン外のPLDAモデルから計算されたクラス共分散行列のドメイン内およびドメイン間の共分散行列である。トレーニング部20がドメイン外PLDAモデルを学習し、クラス内の共分散行列およびクラス間の共分散行列を計算する方法は、非特許文献1または非特許文献2に記載された方法と同様である。
【0025】
モデル適応部30は、共分散行列計算部31と、同時対角化部32と、適応部33とを含む。
【0026】
共分散行列計算部31は、クラス内の共分散行列Φw,0、クラス間共分散行列Φb,0、および、ドメイン内データXIndから推定された共分散行列C、並びに、ドメイン外の共分散行列C図2の31a参照)から、擬似的なドメイン内の共分散行列Sを計算する。ドメイン外の共分散行列Cは、ドメイン外のPLDAモデルを用いて計算される。
【0027】
なお、共分散行列計算部31は、クラス内の共分散行列Φw,0と、クラス間の共分散行列Φb,0のいずれかから、または、クラス内の共分散行列Φw,0と、クラス間の共分散行列Φb,0の両方から、擬似的なドメイン内の共分散行列Sを計算してもよい。Φw,0とΦb,0の両方を用いて計算すると、精度が向上するのでより好ましい。Φw,0とΦb,0のどちらか一方のみを使用する場合、Φ またはΦ が計算される。Φw,0とΦb,0の両方を使用した場合、Φ およびΦ が計算される。共分散行列計算部31は、以下の式1に示すように、擬似的なドメイン内の共分散行列Sを計算してもよい。
【0028】
【数1】
【0029】
同時対角化部32は、同時対角化に基づいて、疑似的なドメイン内の行列Sとドメイン外のPLDAの共分散行列Φに対する一般化固有値と固有ベクトル{B,E}を計算する(図2の32a参照)。具体的には、同時対角化部32は、以下の式2に基づいて、一般化固有値と固有ベクトル{B,E}を計算する。式2において、EVD(.)は、固有ベクトルとそれに対応する固有値を対角化した行列を返す。
【0030】
【数2】
【0031】
すなわち、同時対角化部32は、共分散行列Φに基づいて、固有ベクトルQと固有値Λの行列を計算し、疑似的なドメイン内の行列Sと、固有ベクトルQと、固有値Λに基づいて、固有ベクトルPと固有値Eの行列を計算する。そして、同時対角化部32は、固有ベクトルQ、固有値Λ、および、固有ベクトルPに基づいて、固有値Bを計算する。
【0032】
適応部33は、固有値Bと固有ベクトルEとを用いて、クラス内およびクラス間の共分散行列{Φ ,Φ }を計算する。計算するクラス内およびクラス間の共分散行列は、疑似的なドメイン内の共分散行列から生成されるため、疑似的なドメイン内のPLDAモデルのクラス内およびクラス間の共分散行列といえる。
【0033】
なお、適応部33は、クラス内の共分散行列Φ またはクラス間の共分散行列Φ のいずれかを計算してもよく、クラス内の共分散行列Φ およびクラス間の共分散行列Φ の両方を計算してもよい。適応部33は、以下の式3に示すように、クラス内およびクラス間の共分散行列Φを計算してもよい。
【0034】
【数3】
【0035】
式3において、γ、βは、nが[0,1]の範囲であるように制約されたハイパーパラメータ(適応パラメータ)である。Bは、Eが対角行列であるとき、B Φw,0=I、B SB=Eであるような変換行列である。同様に、Bは、Eが対角行列であるとき、B Φb,0=I、B SB=Eであるような変換行列である。Φ およびΦ は、クラス内の共分散行列およびクラス間の共分散行列で適応化される。
【0036】
なお、クラス内およびクラス間の共分散行列の縮小を避けるために、適応部33は、以下の式4に示すように、クラス内およびクラス間の共分散行列Φを計算してもよい。
【0037】
【数4】
【0038】
すなわち、適応部33は、クラス内の共分散およびクラス間の共分散の縮小を回避する正則化処理を行ってもよい。適応部33は、適応されたクラス内およびクラス間の共分散行列を出力する(図2の33a参照)。
【0039】
分類部40は、モデル適応部30(図2の41参照)から出力された、適応化されたクラス内の共分散行列およびクラス間の共分散行列に基づいて、テストデータTInDに対するスコアを計算する。このスコアを用いた分類の方法は、非特許文献1または非特許文献2で説明した方法と同様である。
【0040】
以上のように、本実施形態では、教師なしモデル適応装置100が、モデルベースの適応につながるPLDAモデルへの特徴ベースのドメイン適応方法(例えば、CORAL)の統合を実行する。それは、PLDAモデルの分散(すなわち、不確実性)が適応後に増加することを確実にするために、正則化された適応を引き起こす。
【0041】
データ入力部10と、トレーニング部20と、モデル適応部30(より具体的には、共分散行列計算部31と、同時対角化部32と、適応部33)と、分類部40とは、プログラム(教師なしモデル適応プログラム)に従って動作するコンピュータのプロセッサ(例えば、CPU(Central Processing Unit ))によって実現される。例えば、プログラムは、教師なしモデル適応装置100が備える記憶部(図示せず)に記憶され、プロセッサは、そのプログラムを読み込み、プログラムに従って、データ入力部10、トレーニング部20、モデル適応部30(より具体的には、共分散行列計算部31と、同時対角化部32と、適応部33)および分類部40として動作してもよい。
【0042】
また、本実施形態の教師なしモデル適応装置100において、データ入力部10と、トレーニング部20と、モデル適応部30(より具体的には、共分散行列計算部31と、同時対角化部32と、適応部33)と、分類部40とは、それぞれが専用のハードウェアで実現されていてもよい。さらに、本発明の教師なしモデル適応装置が、有線または無線で接続された2つ以上の物理的に分離された装置で構成されてもよい。
【0043】
次に、本実施形態の教師なしモデル適応装置の動作を説明する。図3は、第一の実施形態の教師なしモデル適応装置100の動作例を示すフローチャートである。
【0044】
データ入力部10は、ドメイン外のPLDA行列{Φw,0,Φb,0}、ドメイン内データXInD、および、適応ハイパーパラメータ{γ,β}を入力する(ステップS11)。トレーニング部20は、ドメイン内データXInDから経験的共分散行列Cを推定する(ステップS12)。モデル適応部30は、ドメイン外の共分散行列を計算する(ステップS13)。モデル適応部30は、適応化された共分散行列{Φ , Φ }を計算して、出力する(ステップS14)。
【0045】
図4は、第一の実施形態のモデル適応部30の動作例を示すフローチャートである。{Φw,0,Φb,0}の各Φについて、以下のステップS21~S23が実行される。
【0046】
共分散行列計算部31は、疑似的なドメイン内の共分散行列Sを計算する(ステップS21)。同時対角化部32は、同時対角化に基づいて、疑似的なドメイン内の共分散行列およびドメイン外のPLDAモデルのクラス共分散行列の一般化固有値および固有ベクトルを計算する(ステップS22)。すなわち、同時対角化部32は、ΦおよびSの同時対角化を介して一般化された固有値と固有ベクトルを求める。適応部33は、一般化された固有値と固有ベクトルを用いて、擬似的なドメイン内のPLDAモデルにおけるドメイン内およびドメイン間のクラス共分散行列の計算を行う(ステップS23)。すなわち、適応部33は、PLDAの正則化適応を行う。図4において、αは、入力された適応ハイパーパラメータ{γ,β}に含まれるハイパーパラメータを示している。
【0047】
図5は、本実施形態のモデル適応部30の他の動作例を示すフローチャートである。図5に示すフローチャートは、正規化処理を行う場合の動作例を示している。ステップS21及びステップS22の処理は、図4に示した処理と同様である。
【0048】
ステップS24において、適応部33は、クラス内およびクラス間の共分散行列の縮小を回避する正則化処理を行う。図5において、「max」を含む項を算出する処理は、正則化処理を示す。
【0049】
以上のように、本実施形態では、共分散行列計算部31が、Φw,0およびΦb,0のうちの一方または両方から、擬似的なドメイン内の共分散行列Sを計算する。同時対角化部32は、同時対角化に基づいて,SとΦの一般化固有値と固有ベクトルを同時対角化する。適応部33は、一般化された固有値と固有ベクトルを用いて、擬似的なドメイン内のPLDAモデルにおけるΦ とΦ の一方または両方を計算する。さらに、共分散行列計算部31は、ドメイン外のPLDAモデル(C)とドメイン内データの共分散行列(C)に基づいてSを計算する。
【0050】
そのような構成により、ドメイン外データセットに基づいてトレーニングされたモデルが、ラベル付けされていないデータを用いてドメイン内モデルに適応化される場合に、適応化するためのコストを低減しつつ、教師なしモデルを適応できる。
【0051】
すなわち、本実施形態によれば、クラス内およびクラス間の共分散行列を変換することにより、教師なし適応が適用される。さらに、ラベル付けされていないドメイン内データとドメイン外の分類器のパラメータを用いて変換行列が計算される。このため、元のドメイン外データは不要であり、システムの計算量と保存容量を節約できる。
【0052】
実施形態2.
ここまで述べてきたように、PLDAは、話者埋め込みベクトル(例えば、iベクトル、xベクトル)の分布をガウス分布としてモデル化するものである。このようなPLDAは、生成型PLDA(G-PLDA)と呼ばれている。別のタイプとして、話者埋め込みベクトルの分布をStudent のt分布の形式でモデル化するヘビーテールPLDA (HT-PLDA)と呼ばれるものがある。現実の世界では、データはガウシアン分布よりもStudent のt分布に近い。そのため、HT-PLDAは、G-PLDAよりも実世界のデータとのマッチングが良く、そのような実世界のデータに対してより良い性能を発揮することが期待される。
【0053】
背景技術でも述べたように、開発時の条件(ドメインと呼ばれることが多い)は、開発したシステムの使用時の条件とは異なることが多いため、その差を補うためにドメイン適応化が適用されるのが一般的である。しかし、HT-PLDAの定式化が複雑であるため、ドメイン適応化の手法が創案されておらず、実データとのマッチングが可能であるにもかかわらず、HT-PLDAの利用が制限されているのが現状である。
【0054】
非特許文献5および非特許文献6は、HT-PLDAにおいて、Rの要素である話者埋め込みベクトル(例えば、iベクトル、xベクトル)rが、Rの要素である隠れ話者識別変数zをD×d因子負荷行列Fを有するD次元空間に投影することにより生成されることを示している。
【数5】
ここでηは、以下のように、ヘビーテール分布から独立して引き出されたノイズを表わす。
【数6】
また、λは、自由度として知られるνでパラメトリック化されたカイ二乗分布λ~χν からサンプリングされる。精度変調因子の期待値は、<λ/ν>=1である。Wは、D×Dの正定値である。隠れ変数λを除外すると、話者識別ベクトルzが与えられ、確率はt分布になる。
【数7】
そして、事後分布は、
【数8】
である。ここで、
【数9】
【0055】
Gは話者部分空間の直交補数、すなわち、GF=0への射影演算子であり、HT-PLDAは、パラメータ(F,W,ν)を有する。
【0056】
HT-PLDAでは、FFとbij -1 -1は、話者間共分散と話者内共分散とみなすことができる。
【0057】
Φ=FF
Φ=bij -1 -1 (式5)
【0058】
したがって、本発明では、話者間共分散と話者内共分散を適応させるため、HT-PLDAに適用することができる。(Φ,Φ)におけるΦについて、HT-PLDA用に擬似的なドメイン内共分散行列をモデル化した。
【数10】
ここで、Cはラベル付けされていないドメイン内データから計算され、CO,ij=FF+bij -1 -1である。これにより、適応された話者間共分散を得ることができる。
【数11】
ただし、
【数12】
そして、適応化された話者間共分散は、
【数13】
ただし、
【数14】
HT-PLDAにおける話者内共分散は一定ではなく、2つのパラメータ(W,ν)に依存する変数であり、個々の話者埋め込みベクトルrijに依存するため、適応化されたパラメータもまた変数である。適応化された方程式には解析的な解法は存在しない。
【0059】
そこで、本発明では、この問題を解決するための仮定を提案する。それは、Φのbij -1とH -1が分解可能であることを前提とするものである。この仮定では、Φ´=FF、Φ´=W-1(式6)の適応に相当する。
【数15】
ただし、
【数16】
【0060】
この適応化された方程式は解析解を有する。(Φ´ ,Φ´ )が得られた後、OOD HT-PLDAに置き換えるために(F,W)が計算される。さらに、第三のパラメータνはそのままでもよいし、ラベル付けされていないドメイン内データにガンマ分布を当てはめることによって適応化させてもよい。
【0061】
図6は、本発明による教師なしモデル適応装置の第二の実施形態の構成例示すブロック図である。図7は、本発明による教師なしモデル適応装置の第二の実施形態の構成例を示す説明図である。本実施形態の教師なしモデル適応装置200は、データ入力部210と、トレーニング部220と、コンポーネント計算部230と、モデル適応部240と、パラメータ変換部250と、適合部260と、分類部270とを備えている。
【0062】
データ入力部210は、ドメイン外データXOODを入力し、HT-PLDAのトレーニング部220のトレーニングデータとしてYOODをラベル付けする。データ入力部210は、例えば、以前に収集したトレーニングデータを記憶する外部の記憶装置(図示せず)から通信ネットワークを介してデータを取得し、取得したデータをトレーニング部220に入力してもよい。
【0063】
トレーニング部220は、ドメイン外のHT-PLDAモデルを学習する(図7の221参照:トレーニング部220は、HT-PLDAを学習する)。そして、トレーニング部220は、ドメイン外のHT-PLDAモデルのパラメータとして、因子負荷行列F、精度行列W、および、自由度νを計算する。トレーニング部220がドメイン外のHT-PLDAモデルを学習し、{F,W,ν}を計算する方法は、非特許文献5または非特許文献6に記載された方法と同様である。
【0064】
コンポーネント計算部230は、ドメイン外のHT-PLDAモデルの2つのパラメータ{F,W}から、共分散成分{Φ´b,O,Φ´W,O}を計算する。なお、Φ´b,O=FF、Φ´W,O=W-1である。本発明では、式5を2つの成分に分解できると仮定し、それらの成分を独立に付加することは、HT-PLDAのパラメータを適応させることと等価である(図7の231参照)。なお、本明細書では、クラス間共分散とクラス内共分散の定義との違いを明確にするために、Φ´b,OおよびΦ´W,Oを、それぞれ、ドメイン外のクラス間共分散成分およびクラス内共分散成分と呼ぶことにする。
【0065】
モデル適応部240は、第一の実施形態と同様、共分散行列計算部241と、同時対角化部242と、適応部243とを含む。これらは、共分散の代わりに、上述したようなクラス間およびクラス内の共分散成分を適応化させる。
【0066】
共分散行列計算部241は、クラス内の共分散成分Φ´W,O、クラス間の共分散成分Φ´b,O、ドメイン内データXInDから推定された共分散行列C、および、ドメイン外の共分散成分から擬似的なドメイン内の共分散行列S´を計算する(図7の241a参照)。ドメイン外の共分散成分C´は、ドメイン外のHT-PLDAモデルを用いて計算される。
【0067】
なお、共分散行列計算部241は、クラス内の共分散成分Φ´W,Oと、クラス間の共分散成分Φ´b,Oのいずれかから、または、クラス内共分散成分Φ´W,Oとクラス間の共分散成分Φ´b,Oの両方から、擬似的なドメイン内の共分散行列Sを計算してもよい。Φ´W,OとΦ´b,Oの両方を用いた計算の方が精度が向上するので好ましい。Φ´W,OまたはΦ´b,Oのいずれか一方のみを用いる場合、C´は、Φ´W,OまたはΦ´b,Oである。Φ´W,OとΦ´b,Oの両方が使用される場合、C´は、Φ´W,OとΦ´b,Oの和になる。共分散行列計算部241は、以下の式7に示すように、擬似的なドメイン内の共分散行列S´を計算してもよい。
【0068】
【数17】
ただし、C´は、Φ´W,O、Φ´b,O、またはΦ´W,O+Φ´b,Oのいずれかである。
【0069】
同時対角化部242は、同時対角化に基づいて、疑似的なドメイン内の行列S´と、ドメイン外のHT-PLDAの共分散成分Φ´についての一般化固有値および固有ベクトル{B,E}を算出する(図7の242a参照)。具体的には、同時対角化部242は、以下の式8に基づいて、一般化固有値と固有ベクトル{B,E}を求める。なお、式8において、EVD(.)は、固有ベクトルとそれに対応する固有値を対角化した行列を返す関数である。
【0070】
【数18】
【0071】
すなわち、同時対角化部242は、共分散成分Φ´に基づいて、固有ベクトルQおよび固有値Λの行列を計算し、疑似的なドメイン内行列S、と固有ベクトルQ、および固有値Λに基づいて、固有ベクトルPおよび固有値Eの行列を計算する。そして、同時対角化部242は、固有ベクトルQ、固有値Λ、固有ベクトルPに基づいて、固有値Bを計算する。
【0072】
適応部243は、固有値Bと固有ベクトルEとを用いて、クラス共分散成分{Φ´ ,Φ´ }のクラス内およびクラス間の共分散成分{Φ´ ,Φ´ }を計算する。 計算されるクラス内およびクラス間の共分散成分は、擬似的なドメイン内の共分散行列から生成されるため、擬似的なドメイン内PLDAモデルのクラス内およびクラス間の共分散成分であるといえる。
【0073】
なお、適応部243は、クラス内の共分散成分Φ´ またはクラス間の共分散成分Φ´ のいずれか一方を計算してもよく、クラス内の共分散行列Φ´ およびクラス間共分散行列Φ´ の両方を計算してもよい。適応部243は、以下の式9に示すように、クラス内およびクラス間の共分散行列Φ´を計算してもよい。
【0074】
【数19】
【0075】
式9において、γおよびβは、[0,1]の範囲にあるように制約されたハイパーパラメータ(適応パラメータ)である。Bは、B Φ´w,O=I、および、B =Eのような変換行列であり、ここでEは対角行列である。同様に、Bは、B Φ´b,O=I、および、B =Eのような変換行列であり、ここでEは対角行列である。Φ´ およびΦ´ は、クラス内およびクラス間の共分散成分の適応である。
【0076】
なお、クラス内およびクラス間の共分散成分の縮小を避けるために、適応部243は、以下の式10に示すように、クラス内およびクラス間の共分散成分Φ´を計算してもよい。
【0077】
【数20】
【0078】
すなわち、適応部243は、クラス内およびクラス間の共分散成分の縮小を回避する正則化処理を行ってもよい。適応部243は、適応されたクラス内およびクラス間の共分散成分を出力する(図7の243a参照)。
【0079】
パラメータ変換部250は、適応されたクラス内およびクラス間共分散成分{Φ´ ,Φ´ }(図7の251参照)から適応された因子負荷行列Fおよび精度行列W(式6参照)を計算する。
【0080】
適合部260は、Student のt分布を、ラベル付けされていないドメイン内データに適合し、適応されたHT-PLDAモデルの自由度νを固定する(図7の261参照)。Student のt分布をデータに適合して自由度νを推定する手法が各種存在する。
【0081】
分類部270は、パラメータ変換部250から出力された適応化された因子負荷行列F、精度行列W、および、適合部260から出力された自由度νに基づいて、テストデータTInDに対するスコアを算出する(図7の271参照)。スコアを用いた分類方法は、非特許文献5または非特許文献6で説明した方法と同様である。
【0082】
以上のように、本実施形態では、教師なしモデル適応装置200が、モデルベースの適応につながるPLDAモデルへの特徴ベースのドメイン適応方法(例えば、CORAL)の統合を実行する。それは、HT-PLDAモデルの分散(すなわち、不確実性)が適応後に増加することを確実にするために、正則化された適応を引き起こす。
【0083】
次に、本実施形態の教師なしモデル適応装置の動作を説明する。図8は、第二の実施形態の教師なしモデル適応装置200の動作例を示すフローチャートである。
【0084】
データ入力部210は、ドメイン外データXOODを入力し、HT-PLDAのトレーニング部220のトレーニングデータとしてYOODをラベル付けする。トレーニング部220は、ドメイン外のHT-PLDAモデル{F,W,ν}を学習する。そして、コンポーネント計算部230は、2つのパラメータ{F,W}から成分{Φ´b,O,Φ´W,O}を計算する(ステップS211)。データ入力部210は、ドメイン外の適応成分{Φ´b,O,Φ´W,O}、ドメイン内データXInD、適応ハイパーパラメータ{β,γ}を入力する(ステップS212)。トレーニング部220は、ドメイン内データXInDから経験的共分散行列Cを推定する(ステップS213)。モデル適応部240は、ドメイン外の共分散成分を計算する(ステップS214)。モデル適応部240は、適応化された共分散成分{Φ´ ,Φ´ }を計算する(ステップS215)。
【0085】
パラメータ変換部250は、適応化されたクラス内およびクラス間の共分散成分{Φ´ , Φ´ }から適応化された因子負荷行列Fと精度行列Wを計算し(ステップS216)、出力する。適合部260は、ラベル付けされていないドメイン内データにStudent のt分布を適合し、適応化されたHT-PLDAモデルの自由度νを更新して出力する(ステップS217)。
【0086】
図9は、第二の実施形態のモデル適応部240の動作例を示すフローチャートである。{Φ´w,O,Φ´b,O}の各Φ´について、以下のステップS221~S223が実行される。
【0087】
共分散行列計算部241は、擬似的なドメイン内の共分散行列S´を計算する(ステップS221)。同時対角化部242は、同時対角化に基づいて、擬似的なドメイン内の共分散行列の一般化固有値Bと固有ベクトルEと、ドメイン外のHT-PLDAモデルのクラス間およびクラス内の共分散成分を計算する(ステップS222)。すなわち、同時対角化部242は、Φ´とS´の同時対角化を介して一般化された固有値Bと固有ベクトルEを求める。適応部243は、一般化された固有値と固有ベクトルを用いて、擬似的なドメイン内のPLDAモデルにおけるクラス内およびクラス間の共分散成分を計算する(ステップS223)。すなわち、適応部243は、HT-PLDAにおける共分散成分の正則化適応を行う。図9において、αは、入力された適応ハイパーパラメータ{β,γ}に含まれるハイパーパラメータを示している。
【0088】
図10は、第二の実施形態のモデル適応部240の他の動作例を示すフローチャートである。図10に示すフローチャートは、正規化処理を行う場合の動作例を示している。ステップS221及びステップS222の処理は、図9に示した処理と同様である。
【0089】
ステップS224において、適応部243は、クラス内およびクラス間の共分散成分の縮小を回避する正則化処理を行う。図10において、「max」を含む項を算出する処理は、正則化処理を示す。
【0090】
以上のように、第二の実施形態では、共分散行列計算部241が、Φ´w,0およびΦ´b,0のうちの一方または両方から、擬似的なドメイン内の共分散行列Sを計算する。同時対角化部242は、SとΦ´の一般化された固有値と固有ベクトルの同時対角化を計算する。適応部243は、一般化された固有値と固有ベクトルを用いて、擬似的なドメイン内のHT-PLDAモデルにおける共分散成分のΦ´w,0 +とΦ´b,0 の一方または両方を計算する。さらに、共分散行列計算部241は、ドメイン外のPLDAモデル(C´)とドメイン内データ(C)の共分散行列に基づいてSを計算する。
【0091】
そのような構成により、ドメイン外データセットに基づいてトレーニングされたモデルが、ラベル付けされていないデータを用いてドメイン内モデルに適応される場合でも、HT-PLDAに教師なしモデルを適応できる。
【0092】
すなわち、本実施形態によれば、HT-PLDAパラメータで構成されたクラス内およびクラス間の共分散行列を近似的に変換することにより、教師なし適応が適用される。さらに、ラベル付けされていないドメイン内データとドメイン外の分類器のパラメータを用いて変換行列が計算される。このため、元のドメイン外データは不要であり、システムの計算量と保存量を節約できる。また、ヘビーテールモデリングにより,生成的PLDAを用いた場合よりも、さらに高い精度を実現することが可能になる。
【0093】
次に、本発明の概要を説明する。図11は、本発明による教師なしモデル適応装置の概要を示すブロック図である。本発明による教師なしモデル適応装置80(例えば、教師なしモデル適応装置100)は、ドメイン外の確率的線形判別分析(PLDA)モデルにおけるクラス内の共分散行列(例えば、Φw,0)とクラス間の共分散行列(例えば、Φb,0)の一方または両方から、擬似的なドメイン内の共分散行列(例えば、S)を計算する共分散行列計算部81(例えば、共分散行列計算部31)と、同時対角化に基づいて、ドメイン外の確率的線形判別分析モデルにおける擬似的なドメイン内の共分散行列と、クラスの共分散行列の一般化固有値および一般化固有ベクトル(例えば、{B,E})とを計算する同時対角化部82(例えば、同時対角化部32)と、一般化固有値と一般化固有ベクトルを用いて、ドメイン内の確率的線形判別分析モデルにおけるクラス内の共分散行列(例えば、Φ )とクラス間の共分散行列(例えば、Φ )の一方または両方を計算する適応部83(例えば、適応部33)とを備えている。そして、共分散行列計算部81は、ドメイン外の確率的線形判別分析モデルとドメイン内のデータの共分散行列に基づいて、擬似的なドメイン内の共分散行列を計算する。
【0094】
そのような構成により、ドメイン外データセットに基づいてトレーニングされたモデルが、ラベル付けされていないデータを用いてドメイン内モデルに適応化される場合に、適応化するためのコストを低減しつつ、教師なしモデルを適応できる。
【0095】
また、適応部83は、クラス内およびクラス間の共分散行列の縮小を回避する正則化処理を行うことにより、ドメイン内の共分散行列を計算してもよい。
【0096】
具体的には、共分散行列計算部81は、ドメイン外の確率的線形判別分析モデルに基づいてドメイン外の共分散行列を計算し、そのドメイン外の共分散行列、ドメイン内データの共分散行列、および、クラスの共分散行列に基づいて、擬似的なドメイン内の共分散行列を計算してもよい。
【0097】
また、適応部83は、擬似的なドメイン内のヘビーテール確率的線形判別分析モデルにおいて、クラス内の共分散成分とクラス間の共分散成分のうちの1つまたは両方を計算してもよい。
【0098】
次に、本発明の例示的な実施形態によるコンピュータの構成例を説明する。図12は、本発明の一実施形態に係るコンピュータの構成例を示す概略ブロック図である。コンピュータ1000は、CPU1001、主記憶装置1002、補助記憶装置1003、インタフェース1004および表示装置1005を備える。
【0099】
上述の教師なしモデル適応装置100は、コンピュータ1000に実装される。そのような構成において、装置の動作が、プログラム(分類プログラム)の形式で補助記憶装置1003に記憶されていてもよい。CPU1001は、プログラムを補助記憶装置1003から読み出して主記憶装置1002に展開し、当該プログラムに従って上記処理を実行する。
【0100】
補助記憶装置1003は、一時的でない有形の媒体の一例である。一時的でない有形の媒体の他の例としては、インタフェース1004を介して接続される磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read-only memory )、DVD-ROM(Read-only memory)、半導体メモリ等が挙げられる。また、このプログラムが通信回線によってコンピュータ1000に配信される場合、配信を受けたコンピュータ1000が当該プログラムを主記憶装置1002に展開し、上記処理を実行してもよい。
【0101】
さらに、プログラムは、実施形態における所定のプロセスを部分的に達成するものであってもよい。さらに、プログラムは、実施形態における所定の処理を達成するために、補助記憶装置1003に既に記憶されている別のプログラムと組み合わせた差分プログラムであってもよい。
【0102】
さらに、本実施形態の処理の内容により、コンピュータ1000の要素の一部を省略することが可能である。例えば、ユーザに情報を提示しない場合、表示装置1005を省略することができる。図12には図示していないが、本実施形態の処理の内容によっては、コンピュータ1000は、入力装置を含んでもよい。教師なしモデル適応装置100は、例えば、リンクが設定されている部分をクリックするなど、リンクへの移動指示を入力するための入力装置を含んでいてもよい。
【0103】
また、各デバイスの構成要素の一部または全部は、汎用または専用の回路、プロセッサ等、またはそれらの組み合わせによって実装される。これらは、単一のチップで構成されていてもよいし、バスを介して接続された複数のチップで構成されていてもよい。また、各装置の構成要素の一部または全部が、上記の回路等とプログラムとの組み合わせによって実現されてもよい。
【0104】
各装置の構成要素の一部または全部が複数の情報処理装置、回路等によって実現される場合、複数の情報処理装置、回路等が集中的に配置されていてもよいし、分散的に配置されていてもよい。例えば、情報処理装置、回路等は、クライアントシステムとサーバシステム、クラウドコンピューティングシステム等がそれぞれ通信ネットワークを介して接続された形態で実現されてもよい。
【符号の説明】
【0105】
10 データ入力部
20 トレーニング部
30 モデル適応部
31 共分散行列計算部
32 同時対角化部
33 適応部
40 分類部
100 教師なしモデル適応装置
200 教師なしモデル適応装置
210 データ入力部
220 レーニング部
230 コンポーネント計算部
240 モデル適応部
241 共分散行列計算部
242 同時対角化部
243 適応部
250 パラメータ変換部
260 適合部
270 分類部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14