(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023025457
(43)【公開日】2023-02-22
(54)【発明の名称】信号解析装置、信号解析方法、及び信号解析プログラム
(51)【国際特許分類】
G10L 21/0308 20130101AFI20230215BHJP
G10L 25/30 20130101ALI20230215BHJP
【FI】
G10L21/0308 Z
G10L25/30
【審査請求】未請求
【請求項の数】6
【出願形態】OL
(21)【出願番号】P 2021130718
(22)【出願日】2021-08-10
(71)【出願人】
【識別番号】000004226
【氏名又は名称】日本電信電話株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】亀岡 弘和
(72)【発明者】
【氏名】李 莉
(57)【要約】
【課題】計算コストを抑えて、各構成音が混合した混合信号から、各構成音を精度よく分離することができる。
【解決手段】学習部32が、各構成音についてのスペクトログラム及び属性クラスに基づいて、音のスペクトログラムを入力として潜在ベクトル系列を推定するエンコーダと、前記音のスペクトログラムを入力として前記音の属性を示す属性クラスを識別する識別器と、前記潜在ベクトル系列及び前記属性クラスを入力として前記音のスペクトログラムの分散を生成するデコーダと、を学習する。パラメータ推定部36が、各構成音が混合された観測信号を入力として、目的関数を最適化するように、分離行列と、スケールパラメータとを推定する。
【選択図】
図5
【特許請求の範囲】
【請求項1】
各構成音についてのスペクトログラム及び前記構成音の属性を示す属性クラスに基づいて、音のスペクトログラムを入力として潜在ベクトル系列を推定するエンコーダと、前記音のスペクトログラムを入力として前記音の属性を示す属性クラスを識別する識別器と、前記潜在ベクトル系列及び前記属性クラスを入力として前記音のスペクトログラムの分散を生成するデコーダと、を学習する学習部と、
各構成音が混合された観測信号を入力として、前記学習されたエンコーダによって前記分離行列により分離された各構成音について推定される前記潜在ベクトル系列、前記学習された識別器によって前記分離行列により分離された各構成音について識別される前記属性クラス、各構成音についての、前記学習されたデコーダによって生成される、前記構成音のスペクトログラムの分散と、スケールパラメータとから算出される、前記構成音のスペクトログラム、各構成音のスペクトログラムのスケールパラメータ、時間周波数領域で各構成音が混合された混合音を各構成音に分離するための分離行列、及び前記観測信号を各構成音に分離した信号を用いて表される目的関数を最適化するように、前記分離行列と、前記スケールパラメータとを推定するパラメータ推定部と、
を含む信号解析装置。
【請求項2】
各構成音についてのスペクトログラム及び前記属性クラスに基づいて、音のスペクトログラム及び前記属性クラスを入力として潜在ベクトル系列を推定する教師用エンコーダ、並びに前記潜在ベクトル系列及び前記属性クラスを入力として前記音のスペクトログラムの分散を生成する教師用デコーダを学習する教師学習部を更に含み、
前記学習部は、前記エンコーダの出力と、前記学習された前記教師用エンコーダの出力とが対応し、かつ、前記デコーダの出力と、前記学習された前記教師用デコーダの出力とが対応するように、前記エンコーダ及び前記デコーダを学習する請求項1記載の信号解析装置。
【請求項3】
前記エンコーダ及び前記識別器は、一体のニューラルネットワークであって、前記エンコーダ及び前記識別器で、一部の層を共有する請求項1又は2記載の信号解析装置。
【請求項4】
前記学習部は、
前記エンコーダの出力、及び前記デコーダの出力を評価するための学習規準と、
前記デコーダの出力及び前記属性クラスの相互情報量と、
前記エンコーダの出力及び前記識別器の出力を入力とした前記デコーダの出力を用いて生成した前記スペクトログラムを評価するための再構築規準と、
前記エンコーダの出力及び前記識別器の出力を入力とした前記デコーダの出力を用いて生成した前記スペクトログラムを入力とした前記識別器の出力を評価するためのクラス識別規準と、
を含む規準を最適化するように、前記エンコーダ、前記識別器、前記デコーダを学習する請求項1~請求項3の何れか1項記載の信号解析装置。
【請求項5】
学習部が、各構成音についてのスペクトログラム及び前記構成音の属性を示す属性クラスに基づいて、音のスペクトログラムを入力として潜在ベクトル系列を推定するエンコーダと、前記音のスペクトログラムを入力として前記音の属性を示す属性クラスを識別する識別器と、前記潜在ベクトル系列及び前記属性クラスを入力として前記音のスペクトログラムの分散を生成するデコーダと、を学習し、
パラメータ推定部が、各構成音が混合された観測信号を入力として、前記学習されたエンコーダによって前記分離行列により分離された各構成音について推定される前記潜在ベクトル系列、前記学習された識別器によって前記分離行列により分離された各構成音について識別される前記属性クラス、各構成音についての、前記学習されたデコーダによって生成される、前記構成音のスペクトログラムの分散と、スケールパラメータとから算出される、前記構成音のスペクトログラム、各構成音のスペクトログラムのスケールパラメータ、時間周波数領域で各構成音が混合された混合音を各構成音に分離するための分離行列、及び前記観測信号を各構成音に分離した信号を用いて表される目的関数を最適化するように、前記分離行列と、前記スケールパラメータとを推定する
信号解析方法。
【請求項6】
コンピュータを、請求項1~請求項4のいずれか1項に記載の信号解析装置の各部として機能させるための信号解析プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
開示の技術は、信号解析装置、信号解析方法、及び信号解析プログラムに関する。
【背景技術】
【0002】
ブラインド音源分離(Blind Source Separation:BSS)は、音源に関する情報や音源とマイクとの間の伝達関数等の事前情報を用いずに観測された混合信号のみから個々の音源信号を分離抽出する技術である。マイクロホンの数が音源数以上の優決定条件下においては、音源信号間の独立性を最大化するように分離フィルタを推定することを目的とする独立成分分析(Independent Component Analysis:ICA)が有効であることが知られており、その原理を拡張した手法が数多く提案されている。中でも時間周波数領域で定式化される手法は、音源に関する時間周波数領域で成り立つ様々な仮定やマイクロホンアレーの周波数応答に関する仮定を有効に活用できるという利点がある。例えば、非特許文献1に記載の独立低ランク行列分析(Independent Low-Rank Matrix Analysis:ILRMA)は、各音源信号のパワースペクトログラムを二つの非負値行列の積(低ランク非負値行列)でモデル化できるという仮定を基礎としている。しかし、この仮定に従わない音源に対しては本手法の分離性能は必然的に限定的となる。
【0003】
近年、ICAをはじめとした信号処理に基づく手法に深層学習(Deep Neural Network:DNN)を導入することで、分離精度を改善する試みがなされている。非特許文献2に記載の多チャンネル変分自己符号化器法(Multichannel Variational Autoencoder:MVAE)法は、条件付きVAE(Conditional VAE:CVAE)により表現される音源スペクトログラムの生成モデルを事前学習し、分離時においてCVAEのデコーダ入力を分離行列と共に推定する手法で、DNNを用いた手法の中でも特に高い分離精度を達成している。この手法では、各反復計算で尤度関数が上昇するようにパラメータが更新されるため、尤度関数の停留点への収束が保証される一方で、デコーダ入力値の更新に誤差逆伝播法(Backpropagation)が用いられるため、高い計算コストを要する点に課題があった。
【0004】
非特許文献3に記載のFastMVAE法は前記MVAE法の計算コストの削減を目的として提案された手法で、クラス識別器つきVAE(Auxiliary Classifier VAE: ACVAE)を用いて音源スペクトログラムの生成モデルであるデコーダと共に、音源クラスの分布と潜在変数の事後分布を近似する識別器分布とエンコーダ分布を学習することで、学習で得られた識別器とエンコーダを用いて事後分布が最大となるようなデコーダ入力値を予測する手法である。この手法では、MVAE法に比べて音源分離アルゴリズムを高速化できる一方で、未知話者や長い残響の場合など、テスト時において学習時と条件が一致しない場合に分離性能が低下する傾向があった。
【先行技術文献】
【非特許文献】
【0005】
【非特許文献1】Daichi Kitamura, Nobutaka Ono, Hiroshi Sawada, Hirokazu Kameoka, and Hiroshi Saruwatari, “Determined blind source separation unifying independent vector analysis and nonnegative matrix factorization,” IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 24, no.9, pp. 1626-1641, Sep. 2016.
【非特許文献2】Hirokazu Kameoka, Li Li, Shota Inoue, and Shoji Makino, “Supervised Determined Source Separation with Multichannel Variational Autoencoder,” Neural Computation, vol. 31, no. 9, pp.1891-1914, Sep. 2019.
【非特許文献3】Li Li, Hirokazu Kameoka, Shota Inoue, and Shoji Makino, “FastMVAE: A Fast Optimization Algorithm for the Multichannel Variational Autoencoder Method,” IEEE Access, vol. 8, pp. 228740-228753, Dec. 2020.
【発明の概要】
【発明が解決しようとする課題】
【0006】
MVAE法では、各反復計算で対数尤度が上昇するようにパラメータの更新が行われるため、対数尤度の停留点への収束が保証される利点がある一方で、誤差逆伝播法による音声生成モデルのパラメータ更新に多大な計算コストを要する点に課題があった。
【0007】
これに対し、非特許文献3のFastMVAE法では、デコーダと共に事前に学習しておいたエンコーダと識別器を用いて当該パラメータの更新値を予測する方法により、音源分離アルゴリズムの大幅な高速化を実現した。しかし、FastMVAE法におけるエンコーダと識別器の出力値は当該パラメータに関する対数尤度の最急上昇方向への更新値を近似したものでしかないため、音源分離精度に関してはFastMVAE法はMVAE法に及ばないことが実験的に確認されている。
【0008】
開示の技術は、上記の点に鑑みてなされたものであり、計算コストを抑えて、各構成音が混合した混合信号から、各構成音を精度よく分離することができる信号解析装置、方法、及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0009】
本開示の第1態様は、信号解析装置であって、各構成音についてのスペクトログラム及び前記構成音の属性を示す属性クラスに基づいて、音のスペクトログラムを入力として潜在ベクトル系列を推定するエンコーダと、前記音のスペクトログラムを入力として前記音の属性を示す属性クラスを識別する識別器と、前記潜在ベクトル系列及び前記属性クラスを入力として前記音のスペクトログラムの分散を生成するデコーダと、を学習する学習部と、各構成音が混合された観測信号を入力として、前記学習されたエンコーダによって前記分離行列により分離された各構成音について推定される前記潜在ベクトル系列、前記学習された識別器によって前記分離行列により分離された各構成音について識別される前記属性クラス、各構成音についての、前記学習されたデコーダによって生成される、前記構成音のスペクトログラムの分散と、スケールパラメータとから算出される、前記構成音のスペクトログラム、各構成音のスペクトログラムのスケールパラメータ、時間周波数領域で各構成音が混合された混合音を各構成音に分離するための分離行列、及び前記観測信号を各構成音に分離した信号を用いて表される目的関数を最適化するように、前記分離行列と、前記スケールパラメータとを推定するパラメータ推定部と、を含む。
【0010】
本開示の第2態様は、信号解析方法であって、学習部が、各構成音についてのスペクトログラム及び前記構成音の属性を示す属性クラスに基づいて、音のスペクトログラムを入力として潜在ベクトル系列を推定するエンコーダと、前記音のスペクトログラムを入力として前記音の属性を示す属性クラスを識別する識別器と、前記潜在ベクトル系列及び前記属性クラスを入力として前記音のスペクトログラムの分散を生成するデコーダと、を学習し、パラメータ推定部が、各構成音が混合された観測信号を入力として、前記学習されたエンコーダによって前記分離行列により分離された各構成音について推定される前記潜在ベクトル系列、前記学習された識別器によって前記分離行列により分離された各構成音について識別される前記属性クラス、各構成音についての、前記学習されたデコーダによって生成される、前記構成音のスペクトログラムの分散と、スケールパラメータとから算出される、前記構成音のスペクトログラム、各構成音のスペクトログラムのスケールパラメータ、時間周波数領域で各構成音が混合された混合音を各構成音に分離するための分離行列、及び前記観測信号を各構成音に分離した信号を用いて表される目的関数を最適化するように、前記分離行列と、前記スケールパラメータとを推定する。
【0011】
本開示の第3態様は、プログラムであって、コンピュータを、上記第1態様の信号解析装置として機能させるためのプログラムである。
【発明の効果】
【0012】
開示の技術によれば、計算コストを抑えて、各構成音が混合した混合信号から、各構成音を精度よく分離することができる、という効果が得られる。
【図面の簡単な説明】
【0013】
【
図1】本実施形態に係る教師用エンコーダ及び教師用デコーダの構成を説明するための概念図である。
【
図2】本実施形態に係るエンコーダ、識別器、及びデコーダの構成を説明するための概念図である。
【
図3】本実施形態に係るエンコーダ及び識別器の構成例、並びにデコーダの構成例を示す図である。
【
図4】本実施形態の信号解析装置として機能するコンピュータの一例の概略ブロック図である。
【
図5】本実施形態の信号解析装置の構成を示すブロック図である。
【
図6】本実施形態の信号解析装置における学習処理ルーチンを示すフローチャートである。
【
図7】本実施形態の信号解析装置における信号解析処理ルーチンを示すフローチャートである。
【
図8】実験例におけるマイクと音源の配置を示す図である。
【
図9】本実施形態の手法と従来手法による、各反復における計算時間を示す図である。
【発明を実施するための形態】
【0014】
以下、開示の技術の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
【0015】
<本実施形態の概要>
まず、本実施形態における概要を説明する。
【0016】
本実施形態では、FastMVAE法におけるエンコーダと識別器を単一のマルチタスクNN(ニューラルネットワーク)として統合することでさらなる高速化を実現する。また、当該マルチタスクNNとデコーダを、それぞれの出力分布が、MVAE法における事前学習で獲得したエンコーダとデコーダのそれぞれの出力分布とできるだけ近くなるように知識蒸留(Knowledge Distillation:KD)を行うことで、各NNに、MVAE法における音声生成モデルのパラメータ更新に似た振る舞いをさせ、MVAE法の高い分離精度に近づける。これらのアイディアにより、従来技術のFastMVAE法に比べて未知話者に対しても高速かつ高精度な音源分離を実現する。
【0017】
<本実施形態の原理>
<優決定条件下の多チャンネル音源分離問題の定式化>
I個のマイクロホンでJ個の音源から到来する信号を観測する場合を考える。マイクiの観測信号、音源jの信号の複素スペクトログラムをそれぞれx
i(f,n)、s
j(f,n)とする。また、これらを要素としたベクトルを
(1)
(2)
とする。ただし、ここではI=Jの優決定条件を考える。ここで( )
Tは転置を表し、fとnはそれぞれ周波数と時間のインデックスである。
【0018】
I=Jの条件においては音源信号の複素スペクトログラムのベクトルs(f,n)と観測信号のベクトルx(f,n)の間の関係式として瞬時分離系
(3)
(4)
を仮定することができる。ここで、W
H(f)は分離行列を表し、( )
Hはエルミート転置である。
【0019】
以上の瞬時混合系の仮定の下で、更に音源jの複素スペクトログラムs
j(f,n)が平均0、分散
の複素正規分布
(5)
に従う確率変数とすると、各音源信号s
j(f,n)とs
j’(f,n)、j≠j’が統計的に独立のときには、音源信号s(f,n)は
(6)
に従う。
【0020】
ここで、V(f,n)はv
1(f,n),・・・,v
I(f,n)を要素に持つ対角行列である。式(3)、(6)より、観測信号xは
(7)
に従う。
【0021】
従って、観測信号X={x(f,n)}
f,nが与えられた下での分離行列W={W(f)}
fと各音源のパワースペクトログラムV={v
j(f,n)}
j,f,nの対数尤度関数は
(8)
となる。ここで、=
cはパラメータに依存する項のみに関する等号を表す。音源パワースペクトログラムv
j(f,n)に制約がない場合、式(8)は周波数fごとの項に分解されるため、式(8)に基づいて求めるWで得られた分離信号のインデックスにはパーミュテーションの任意性が生じる。v
j(f,n)が周波数方向に構造的制約を持つ場合、その制約を活かすことでパーミュテーション整合と音源分離を同時解決するアプローチを導くことができる。ILRMAやMVAE法がその例である。
【0022】
<従来技術1:MVAE法>
MVAE法では、音源クラスラベルを補助入力としたCVAEのデコーダ分布を各音源の複素スペクトログラムの生成モデルとして用いる。ある音源信号の複素スペクトログラムをS={s(f,n)}
f,nとし、対応する音源クラスラベルをone-hotベクトルcとする。
図1にCVAEの概念図を示す。CVAEはエンコーダ分布q
*
φ(z|S,c)とデコーダ分布p
*
θ(S|z,c)が無矛盾になるように、すなわち、q
*
φ(z|S,c)とp
*
θ(S|z,c)から導かれる事後分布p
*
θ(z|S,c)∝p
*
θ(S|z,c)p(z)ができるだけ一致するようにエンコーダとデコーダのNNパラメータφ、θを学習する。ここで、CVAEのデコーダ分布を式(5)の局所ガウス音源モデルと同形の確率モデル
(9)
(10)
と置く。ただし、分散σ
*
θ
2(f,n;z,c)はデコーダネットワークの出力であり、gはパワースペクトログラムのスケールを表す変数である。
【0023】
一方、エンコーダ分布q
*
φ(z|S,c)は通常のCVAEと同様に、標準正規分布
(11)
と仮定する。
【0024】
ここで、μ
*
φ(S,c)、σ
*
φ
2(S,c)はエンコーダの出力である。CVAEのパラメータθ、φは、各種クラスの音源信号の複素スペクトログラムの学習サンプル{S
m、c
m}
M
m=1を用いて
(12)
が最大となるように学習される。
【0025】
は学習サンプルによる標本平均を表し、KL[・||・]はKullback-Leibler(KL)ダイバージェンスである。以上により学習したデコーダ分布p
*
θ(S|z,c,g)をCVAE音源モデルと呼ぶ。CVAE音源モデルは、学習サンプルに含まれる様々なクラスの音源の複素スペクトログラムを表現可能な生成モデルとなっており、cを音源クラスのカテゴリカルな特徴を調整する役割と見なすことができ、zを、クラス内の変動を調整する役割を担った変数と見なすことができる。
【0026】
音源jの複素スペクトログラムS
j={s
j(f,n)}
f,nの生成モデルを、z
j、c
j、g
jを入力としたデコーダ分布により表現することで、音源モデルのパラメータの尤度関数は式(8)と同形の尤度関数に帰着させることができる。従って、式(8)の尤度関数が大きくなるように分離行列W、CVAE音源モデルパラメータΨ={z
j,c
j}
j、スケールパラメータG={g
j}
jを反復更新することで、式(8)の停留点を探索することができる。式(8)を上昇させるWの更新にはILRMAと同様に反復射影法(Iterative Projection:IP)
(13)
(14)
を用いることができる。
【0027】
ただし、
であり、e
jはI×Iの単位行列の第j列ベクトルである。また式(8)を上昇させるΨの更新は誤差逆伝播法、Gの更新は
(15)
により行うことができる。ただし、式(15)はWとΨが固定された下で式(8)を最大にする更新式である。以上よりMVAEの推論プロセスは以下のようにまとめられる。
【0028】
1.式(12)を規準としてθ、φを学習する。
2.Wを単位行列に初期化し、Ψを初期化する。
3.各jについて下記ステップa~ステップcを繰り返す。
(ステップa)式(13)、(14)により{wj(f)}j,fを更新する。
(ステップb)誤差逆伝播法によりΨj={zj,cj}を更新する。
(ステップc)式(15)によりgjを更新する。
【0029】
<従来技術2:FastMVAE法>
MVAE法では、各反復計算で対数尤度が上昇するようにパラメータの更新が行われるため、対数尤度の停留点への収束が保証される利点がある一方で、pθ(zj,cj|Sj)を最大にするパラメータzj、cjを誤差逆伝播法により更新するのに多大な計算コストを要する点に課題があった。非特許文献3のFastMVAE法では、事後分布pθ(z,c|S)をpθ(z|S,c)pθ(c|S)のように二つの条件付き分布の積に分解し、各分布を近似するよう分布q*
φ(z|S,c)、r*
ψ(c|S)をNNにより表現し、事前学習する。これにより、MVAE法における誤差逆伝播法によるパラメータ探索をそれぞれのNNのフォワード計算で代替でき、高速な推論が可能になる。しかし、FastMVAE法におけるエンコーダq*
φ(z|S,c)と識別器r*
ψ(c|S)の出力値は当該パラメータに関する対数尤度の最急上昇方向への更新値を近似したものでしかないため、音源分離精度に関しては、FastMVAE法はMVAE法に及ばないことが実験的に確認されている。
【0030】
<本実施形態の方法>
本実施形態で用いるFastMVAE2法では、まず潜在変数zと音源の属性クラスcが条件付き独立であることを仮定する。これは、所与のスペクトログラムSが与えられた下で、話者情報cと発話内容に関する情報zが独立であると仮定することに相当する。つまり、事後確率pθ(z,c|S)をpθ(z|S)pθ(c|S)と表せると仮定する点が従来と異なる。この二つの条件付き分布の近似分布が得られれば、FastMVAE法と同様、NNのフォワード計算でパラメータ探索を高速に行うことができる。
【0031】
<ChimeraACVAE音源モデル>
ACVAEは、元々音声変換に応用する目的で提案されたCVAEの拡張版で、入力されるクラスラベルcのデコーダ出力への影響力を強調するためにデコーダ出力とクラスラベルcとの相互情報量I(c,S|z)を正則化項としてエンコーダとデコーダを学習する方式である。I(c,S|z)を含めた規準を直接最適化することは容易ではないが、CVAEの学習と同様に変分下界を導入し、その変分下界とJ(φ,θ)を合わせた規準を上昇させることで、元となる規準を間接的に大きくすることができる。I(c,S|z)はlog p(c|S)の期待値と定数の和で与えられるが、p(c|S)を適当な補助分布r(c|S)に置き換えたものがI(c,S|z)の下界となる。この補助分布r(c|S)をパラメータψのNNでモデル化することで、上記下界を規準としてψをφやθとともに学習することができる。パラメータψのNNで表される補助分布をrψ(c|S)と表し、識別器と呼ぶ。
【0032】
これに対し、本実施形態の「ChimeraACVAE」はACVAEのエンコーダと識別器を一体のマルチタスクNNとして表したモデルである。つまり、zとcの分布q
+
φ(z|S)、r
+
ψ(c|S)をスペクトログラムSから同時推論するモデルとなる。
図2にChimeraACVAEの概念図を示す。
【0033】
ChimeraACVAEは潜在変数zを入力スペクトログラムのみから抽出する構造になっているため、クラスラベルcの推定誤差に起因するzの推論誤差を回避することができる。また、従来のACVAEモデルに比べてコンパクトなネットワーク構造で記述できるため、より高速な推論が可能となることが期待される。
【0034】
ChimeraACVAEを学習するための規準、すなわちNNパラメータθ、φ、ψに関して最大化すべき目的関数は、CVAEの学習規準
(16)
および、相互情報量
(17)
の和を含む。また、ラベル付き学習サンプル{S
m,c
m}
M
mも学習に用いることができるため、学習データS
mと対応するクラスラベルc
mの負の交差エントロピー
(18)
も、学習するための規準に含めることができる。ここまではモデル構造を除けば従来のACVAEと同様である。
【0035】
しかし、以上の規準により学習されたACVAEは、テスト条件と学習条件が一致する場合高精度な推論が可能となるが、一致しない場合に推定される潜在変数が仮定した分布から逸脱する傾向があり、モデルの汎化能力は十分ではなかった。
【0036】
そこでモデルの汎化能力を向上させるため、ChimeraACVAEの学習においては上記の規準に加え更に以下の規準と知識蒸留を用いる。ChimeraACVAEでは、推定されたクラス情報を利用して、スペクトログラムSを再構築することができる。このプロセスは推論時にも用いられるため、同じプロセスで再構築したスペクトログラムSの精度を評価する規準を利用してモデルを学習させることは推論時の精度向上に繋がると考えられる。そこで、最大化すべき式(19)の再構築規準と式(20)のクラス識別規準も、学習するための規準に含める。
(19)
(20)
【0037】
あるいはこれらの規準の代わりに、実装の簡単化のため、その近似値
(21)
(22)
を用いても良い。ただし
である。
【0038】
知識蒸留(Knowledge Distillation: KD)は事前に大量のデータで学習した大きなNNを教師用モデルとし、その知識を軽量または別のNN構造を持つ生徒モデルに継承させるための方法論であり、汎化能力の高い生徒モデルが得られることが知られている。ここで、未知話者に対しても高い分離精度を実現できるCVAEモデルを教師用モデルとし、CVAEで学習した潜在変数の分布q*
φ(z|S,c)とスペクトログラムの生成モデルp*
θ(S|z,c)の知識を生徒モデルであるChimeraACVAEに継承させることを考える。具体的には、CVAEで推論した潜在変数の分布q*
φ(z|S,c)と、デコーダで出力した分散σ*
φ
2を用いた正規分布N(0、diag(σ*
θ
2(z,c)))をそれぞれ生徒モデルの出力分布q+
φ(z|S)と、デコーダ出力σ+
φ
2を用いた正規分布の事前分布とし、生徒モデルの出力が事前分布に近づくよう学習させる。ただし、教師用モデルと生徒モデルの分布の乖離度を、KLダイバージェンスを用いて測り、式(23)~(25)に示すように、知識蒸留規準とする。
【0039】
【0040】
以上よりChimeraACVAEを学習する際に最大化すべき規準は
(26)
となる。ここで、λは非負値であり、各規準の重み係数である。
図2に知識蒸留を用いたChimeraACVAEの学習の概念図を示す。
【0041】
図3にChimeraACVAEのネットワーク構造例を示す。エンコーダと識別器の各層は畳み込み層、Layer Normalization(LN)とSigmoid Linear Unit(SiLU)により構成され、デコーダの各層は逆畳み込み層、LNとSiLUにより構成される。ここで、LNを用いることによって、学習と推論時における正規化の計算方法の不整合を回避できる。SiLUはCVA音源モデルに用いられたGated Linear Unit(GLU)と同様に階層間に受け渡す情報をゲートにより制御するデータ駆動の活性化関数であり、GLUのパラメータ数を半減することができる。
【0042】
<FastMVAE2法:高速な推論アルゴリズム>
ChimeraACVAEで学習したエンコーダと識別器を用いることで、従来のMVAE法におけるpθ(zj,cj|Sj)の最大化ステップをq+
φ(zj|Sj)とr+
ψ(cj|Sj)のフォワード計算に置き換えることができる。よって、以下のアルゴリズムが得られる。これをFastMVAE2法と呼ぶ。
【0043】
1.式(26)を学習のための規準としてθ、φ、ψを学習する。
2.Wを単位行列に初期化する。
3.各jについて下記ステップa~cを繰り返す。
(ステップa)式(13)、(14)により{wj(f)}j,fを更新する。
(ステップb)Wを用いて分離したスペクトログラムを入力とし、エンコーダから出力されるガウス分布の平均と識別器の出力値(連続値ベクトル)にzjとcjをそれぞれ更新する。
(ステップc)式(15)によりgjを更新する。
【0044】
<本実施形態に係る信号解析装置の構成>
図4は、本実施形態の信号解析装置100のハードウェア構成を示すブロック図である。
【0045】
図4に示すように、信号解析装置100は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、表示部16及び通信インタフェース(I/F)17を有する。各構成は、バス19を介して相互に通信可能に接続されている。
【0046】
CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU11は、ROM12又はストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又はストレージ14に記憶されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。本実施形態では、ROM12又はストレージ14には、学習処理を実行するための学習プログラム、及び信号解析処理を実行するための信号解析プログラムが格納されている。学習プログラム及び信号解析プログラムは、1つのプログラムであっても良いし、複数のプログラム又はモジュールで構成されるプログラム群であっても良い。
【0047】
ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
【0048】
入力部15は、マウス等のポインティングデバイス、及びキーボードを含み、各種の入力を行うために使用される。
【0049】
入力部15は、学習データとして、複数の構成音の各々について、当該構成音の信号の時系列データ及び当該構成音の信号の属性を示す属性クラスを受け付ける。また、入力部15は、解析対象データとして、複数の構成音が混じっている混合信号(以後、観測信号)の時系列データを受け付ける。なお、構成音の信号の属性を示す属性クラスは、人手で与えておけばよい。また、構成音の信号の属性とは、例えば、性別、大人/子供、話者IDなどである。
【0050】
表示部16は、例えば、液晶ディスプレイであり、各種の情報を表示する。表示部16は、タッチパネル方式を採用して、入力部15として機能しても良い。
【0051】
通信インタフェース17は、他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi-Fi(登録商標)等の規格が用いられる。
【0052】
次に、信号解析装置100の機能構成について説明する。
図5は、信号解析装置100の機能構成の例を示すブロック図である。
【0053】
信号解析装置100は、機能的には、
図5に示すように、時間周波数展開部24と、教師学習部30と、学習部32と、音源信号モデル記憶部34と、パラメータ推定部36と、出力部38と、を含んで構成されている。
【0054】
時間周波数展開部24は、構成音毎に、当該構成音の信号の時系列データに基づいて、各時刻のスペクトルを表すパワースペクトログラムを計算する。また、時間周波数展開部24は、観測信号の時系列データに基づいて、各時刻のスペクトルを表すパワースペクトログラムを計算する。なお、本実施の形態においては、短時間フーリエ変換やウェーブレット変換などの時間周波数展開を行う。
【0055】
教師学習部30は、学習データとして入力された各構成音についてのスペクトログラム及び属性クラスに基づいて、音のスペクトログラム及び属性クラスを入力として潜在ベクトル系列を推定する教師用エンコーダ、並びに潜在ベクトル系列及び属性クラスを入力として音のスペクトログラムの分散を生成する教師用デコーダを学習し、音源信号モデル記憶部34に格納する。
【0056】
具体的には、教師学習部30は、構成音毎に、教師用デコーダによって生成されたパワースペクトログラムと、元の構成音の信号におけるパワースペクトログラムとの誤差、並びに、教師用エンコーダによって推定された潜在ベクトル系列と、元の構成音の信号における潜在ベクトル系列との距離を用いて表される、上記式(12)の目的関数の値を最大化するように、教師用エンコーダ及び教師用デコーダを学習し、音源信号モデル記憶部34に格納する。ここで、教師用エンコーダ及び教師用デコーダの各々は、畳み込みネットワーク又は再帰型ネットワークを用いて構成される。
【0057】
学習部32は、学習データとして入力された各構成音についてのスペクトログラム及び属性クラスに基づいて、音のスペクトログラムを入力として潜在ベクトル系列を推定するエンコーダと、音のスペクトログラムを入力として属性クラスを識別する識別器と、潜在ベクトル系列及び属性クラスを入力として音のスペクトログラムの分散を生成するデコーダと、を学習する。
【0058】
具体的には、学習部32は、エンコーダの出力、及びデコーダの出力を評価するための学習規準と、デコーダの出力及び属性クラスの相互情報量と、エンコーダの出力及び識別器の出力を入力としたデコーダの出力を用いて生成したスペクトログラムを評価するための再構築規準と、エンコーダの出力及び識別器の出力を入力としたデコーダの出力を用いて生成したスペクトログラムを入力とした前記識別器の出力を評価するためのクラス識別規準と、エンコーダの出力及び学習された教師用エンコーダの出力を対応させ、かつ、デコーダの出力及び学習された教師用デコーダの出力を対応させるための知識蒸留規準とを含む上記式(26)の規準を最大化するように、エンコーダ、識別器、及びデコーダを学習し、音源信号モデル記憶部34に格納する。ここで、エンコーダ及び識別器は、一体のニューラルネットワークであって、エンコーダ及び識別器で、一部の層を共有する。また、エンコーダ、識別器、及びデコーダの各々は、畳み込みネットワーク又は再帰型ネットワークを用いて構成される。
【0059】
パラメータ推定部36は、観測信号のパワースペクトログラムに基づいて、各構成音が混合された観測信号を入力として、学習されたエンコーダによって分離行列により分離された各構成音について推定される潜在ベクトル系列、学習された識別器によって分離行列により分離された各構成音について識別される属性クラス、各構成音についての、前記学習されたデコーダによって生成される、構成音のスペクトログラムの分散と、スケールパラメータとから算出される、構成音のスペクトログラム、各構成音のスペクトログラムのスケールパラメータ、時間周波数領域で各構成音が混合された混合音を各構成音に分離するための分離行列、及び前記観測信号を各構成音に分離した信号を用いて表される上記式(8)式の目的関数を最適化するように、分離行列と、スケールパラメータとを推定する。
【0060】
具体的には、パラメータ推定部36は、初期値設定部40、分離行列更新部42、潜在変数クラス更新部44、スケールパラメータ更新部46、及び収束判定部48を備えている。
【0061】
初期値設定部40は、分離行列と、各構成音の潜在ベクトル系列と、各構成音の属性クラスと、各構成音のスケールパラメータとに初期値を設定する。
【0062】
分離行列更新部42は、観測信号のパワースペクトログラムと、前回更新された、又は初期値が設定された、各構成音の潜在ベクトル系列、各構成音の属性クラス、各構成音のスケールパラメータ、及び分離行列とに基づいて、上記式(8)に示す目的関数を大きくするように、上記式(13)、(14)に従って、分離行列を更新する。
【0063】
潜在変数クラス更新部44は、観測信号及び分離行列を用いて得られる各構成音のパワースペクトログラムを入力としたエンコーダの出力のガウス分布の平均を用いて得られる、各構成音の潜在ベクトル系列に更新すると共に、観測信号及び分離行列を用いて得られる各構成音のパワースペクトログラムを入力とした識別器の出力を用いて、各構成音の属性クラスを更新する。
【0064】
スケールパラメータ更新部46は、観測信号のパワースペクトログラムと、更新された、各構成音の潜在ベクトル系列、各構成音の属性クラス、各構成音のスケールパラメータ、及び分離行列とに基づいて、上記式(8)に示す目的関数を大きくするように、上記式(15)に従って、スケールパラメータを更新する。
【0065】
収束判定部48は、収束条件を満たすか否かを判定し、収束条件を満たすまで、分離行列更新部42における更新処理と、潜在変数クラス更新部44における更新処理と、スケールパラメータ更新部46における更新処理とを繰り返させる。
【0066】
収束条件としては、例えば、繰り返し回数が、上限回数に到達したことを用いることができる。あるいは、収束条件として、上記式(8)の目的関数の値と前回の目的関数の値との差分が、予め定められた閾値以下であることを用いることができる。
【0067】
出力部38は、パラメータ推定部36において取得した、各構成音の潜在ベクトル系列、各構成音の属性クラス、及び各構成音のスケールパラメータに基づいて、デコーダを用いて生成される各構成音のパワースペクトログラムを求め、各構成音のパワースペクトログラムから、各構成音の信号を生成して出力する。
【0068】
<本実施形態に係る信号解析装置の作用>
次に、本実施形態に係る信号解析装置100の作用について説明する。
【0069】
図6は、信号解析装置100による学習処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14から学習プログラムを読み出して、RAM13に展開して実行することにより、学習処理が行なわれる。また、信号解析装置100に、学習データとして、複数の構成音の各々について、当該構成音の信号の時系列データ及び当該構成音の信号の属性を示す属性クラスが入力される。
【0070】
まず、ステップS100において、CPU11が、時間周波数展開部24として、構成音毎に、当該構成音の信号の時系列データに基づいて、各時刻のスペクトルを表すパワースペクトログラムを計算する。
【0071】
次のステップS102では、CPU11が、教師学習部30として、学習データとして入力された各構成音についてのスペクトログラム及び属性クラスに基づいて、音のスペクトログラム及び属性クラスを入力として潜在ベクトル系列を推定する教師用エンコーダ、及び潜在ベクトル系列及び属性クラスを入力として音のスペクトログラムの分散を生成する教師用デコーダを学習する。
【0072】
ステップS104では、CPU11が、学習部32として、学習データとして入力された各構成音についてのスペクトログラム及び属性クラスに基づいて、音のスペクトログラムを入力として潜在ベクトル系列を推定するエンコーダと、音のスペクトログラムを入力として属性クラスを識別する識別器と、潜在ベクトル系列及び属性クラスを入力として音のスペクトログラムの分散を生成するデコーダと、を学習し、学習したエンコーダ、識別器、及びデコーダのパラメータを、音源信号モデル記憶部34に格納する。
【0073】
図7は、信号解析装置100による信号解析処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14から信号解析プログラムを読み出して、RAM13に展開して実行することにより、信号解析処理が行なわれる。また、信号解析装置100に、各構成音が混在した観測信号の時系列データが入力される。
【0074】
まず、ステップS120において、CPU11が、時間周波数展開部24として、観測信号の時系列データに基づいて、各時刻のスペクトルを表すパワースペクトログラムを計算する。
【0075】
ステップS122では、CPU11が、初期値設定部40として、分離行列と、各構成音の潜在ベクトル系列と、各構成音の属性クラスと、各構成音のスケールパラメータとに初期値を設定する。
【0076】
ステップS124では、CPU11が、分離行列更新部42として、上記ステップS120で計算された観測信号のパワースペクトログラムと、前回更新された、又は初期値が設定された、各構成音の潜在ベクトル系列、各構成音の属性クラス、各構成音のスケールパラメータ、及び分離行列とに基づいて、上記式(8)に示す目的関数を大きくするように、上記式(13)、(14)に従って、分離行列を更新する。
【0077】
ステップS126では、CPU11が、潜在変数クラス更新部44として、各構成音の潜在ベクトル系列を、観測信号及び分離行列を用いて得られる各構成音のパワースペクトログラムを入力としたエンコーダの出力のガウス分布の平均を用いて得られる、各構成音の潜在ベクトル系列に更新すると共に、観測信号及び分離行列を用いて得られる各構成音のパワースペクトログラムを入力とした識別器の出力を用いて、各構成音の属性クラスを更新する。
【0078】
ステップS128では、CPU11が、スケールパラメータ更新部46として、上記ステップS120で計算された観測信号のパワースペクトログラムと、更新された、各構成音の潜在ベクトル系列、各構成音の属性クラス、各構成音のスケールパラメータ、及び分離行列とに基づいて、上記式(8)に示す目的関数を大きくするように、上記式(15)に従って、スケールパラメータを更新する。
【0079】
次に、ステップS130では、収束条件を満たすか否かを判定する。収束条件を満たした場合には、ステップS132へ移行し、収束条件を満たしていない場合には、ステップS124へ移行し、ステップS124~ステップS128の処理を繰り返す。
【0080】
ステップS132では、上記ステップS124~S128で最終的に更新された、各構成音の潜在ベクトル系列、各構成音の属性クラス、及び各構成音のスケールパラメータに基づいて、デコーダを用いて各構成音のパワースペクトログラムを生成し、各構成音のパワースペクトログラムから、各構成音の信号を生成して、出力部38から出力し、信号解析処理を終了する。
【0081】
<実験結果>
本実施形態の手法による音源分離性能を検証するため、Voice Conversion Challenge(VCC)2018音声データベースを用いた話者依存の分離実験とWSJ0音声データベースを用いた任意話者の分離実験を行った。比較対象は、非特許文献1に記載のILRMA、非特許文献2に記載のMVAE法、非特許文献3に記載のFastMVAE法とし、評価規準としてsource-todistortionsratio(SDR)、source-to-interferences ratio(SIR)とsources-to-artifacts ratio(SAR)を用いた。すべての手法においては分離行列W(f)を単位行列に初期化し、60回更新を行った。
【0082】
ILRMAの基底数を2とした。表1に各モデルのパラメータ数を示す。
【0083】
【0084】
ChimeraACVAEでは、ACVAEよりパラメータ数を40% まで削減することができた。表2に実験結果を示す。
【0085】
【0086】
いずれの条件においても、本実施形態の手法(FastMVAE2法)がILRMAとFastMVAE法より高い分離性能を示し、MVAE法との差を大幅に縮めた。
【0087】
2音源より多い音源数における各手法の分離性能および計算時間を評価するため、WSJ0音声データベースから、18話者の発話を利用して音源数が{2,3,6,9}の混合信号を作成した。インパルス応答は鏡像法により作成し、壁の反射係数を0.2とした。
図8にマイクと音源の配置を示す。各条件について混合信号を10文作成した。すべての処理はIntel(R) Xeon(R) Gold 6130 CPU@2.10GHzとTesla V100 GPUを用いて計算した。表3に各条件におけるSDRの平均値を示す。
【0088】
【0089】
また、
図9に各手法の反復ごとの計算時間を示す。本実施形態の手法(FastMVAE2、FastMVAE2_CPU、FastMVAE2_GPU)において性能改善が確認できた。また、本実施形態の手法は3音源以下の場合にILRMAと同等の計算時間で分離を実現でき、3音源以上の場合にILRMAより短い計算時間で分離を実現できることを確認した。
【0090】
以上説明したように、本実施形態に係る信号解析装置は、各構成音についてのスペクトログラム及び属性クラスに基づいて、音のスペクトログラムを入力として潜在ベクトル系列を推定するエンコーダと、音のスペクトログラムを入力として前記音の属性を示す属性クラスを識別する識別器と、潜在ベクトル系列及び属性クラスを入力として前記音のスペクトログラムの分散を生成するデコーダと、を学習する。そして、信号解析装置は、各構成音が混合された観測信号を入力として、学習されたエンコーダによって分離行列により分離された各構成音について推定される潜在ベクトル系列、学習された識別器によって分離行列により分離された各構成音について識別される属性クラス、各構成音についての、学習されたデコーダによって生成される、構成音のスペクトログラムの分散と、スケールパラメータとから算出される、構成音のスペクトログラム、各構成音のスペクトログラムのスケールパラメータ、時間周波数領域で各構成音が混合された混合音を各構成音に分離するための分離行列、及び観測信号を各構成音に分離した信号を用いて表される目的関数を最適化するように、分離行列と、スケールパラメータとを推定する。これにより、計算コストを抑えて、各構成音が混合した混合信号から、各構成音を精度よく分離することができる。
【0091】
<変形例>
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
【0092】
例えば、観測信号のパワースペクトログラムや構成音のパワースペクトログラムを計算する場合を例に説明したが、これに限定されるものではなく、観測信号の振幅スペクトログラムや構成音の振幅スペクトログラムを計算するようにしてもよい。この場合には、学習部32は、各構成音についての振幅スペクトログラム及び属性クラスに基づいて、音の振幅スペクトログラムを入力として潜在ベクトル系列を推定するエンコーダと、音の振幅スペクトログラムを入力として属性クラスを識別する識別器と、潜在ベクトル系列及び属性クラスを入力として音の振幅スペクトログラムの分散を生成するデコーダと、を学習する。また、パラメータ推定部36は、観測信号を入力として、学習されたエンコーダによって推定される潜在ベクトル系列、学習された識別器によって識別される属性クラス、各構成音についての、学習されたデコーダによって生成される、構成音の振幅スペクトログラムの分散と、スケールパラメータとから算出される、構成音の振幅スペクトログラム、各構成音の振幅スペクトログラムのスケールパラメータ、時間周波数領域で各構成音が混合された混合音を各構成音に分離するための分離行列、及び観測信号を各構成音に分離した信号を用いて表される目的関数を最適化するように、分離行列と、スケールパラメータとを推定する。
【0093】
また、更新するパラメータの順番には任意性があるため、上記の実施の形態の順番に限定されない。
【0094】
また、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した各種処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、学習処理及び信号解析処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
【0095】
また、上記各実施形態では、学習プログラム及び信号解析プログラムがストレージ14に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的(non-transitory)記憶媒体に記憶された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
【0096】
以上の実施形態に関し、更に以下の付記を開示する。
【0097】
(付記項1)
メモリと、
前記メモリに接続された少なくとも1つのプロセッサと、
を含み、
前記プロセッサは、
各構成音についてのスペクトログラム及び前記構成音の属性を示す属性クラスに基づいて、音のスペクトログラムを入力として潜在ベクトル系列を推定するエンコーダと、前記音のスペクトログラムを入力として前記音の属性を示す属性クラスを識別する識別器と、前記潜在ベクトル系列及び前記属性クラスを入力として前記音のスペクトログラムの分散を生成するデコーダと、を学習し、
各構成音が混合された観測信号を入力として、前記学習されたエンコーダによって前記分離行列により分離された各構成音について推定される前記潜在ベクトル系列、前記学習された識別器によって前記分離行列により分離された各構成音について識別される前記属性クラス、各構成音についての、前記学習されたデコーダによって生成される、前記構成音のスペクトログラムの分散と、スケールパラメータとから算出される、前記構成音のスペクトログラム、各構成音のスペクトログラムのスケールパラメータ、時間周波数領域で各構成音が混合された混合音を各構成音に分離するための分離行列、及び前記観測信号を各構成音に分離した信号を用いて表される目的関数を最適化するように、前記分離行列と、前記スケールパラメータとを推定する
ように構成される信号解析装置。
【0098】
(付記項2)
信号解析処理を実行するようにコンピュータによって実行可能なプログラムを記憶した非一時的記憶媒体であって、
前記信号解析処理は、
各構成音についてのスペクトログラム及び前記構成音の属性を示す属性クラスに基づいて、音のスペクトログラムを入力として潜在ベクトル系列を推定するエンコーダと、前記音のスペクトログラムを入力として前記音の属性を示す属性クラスを識別する識別器と、前記潜在ベクトル系列及び前記属性クラスを入力として前記音のスペクトログラムの分散を生成するデコーダと、を学習し、
各構成音が混合された観測信号を入力として、前記学習されたエンコーダによって前記分離行列により分離された各構成音について推定される前記潜在ベクトル系列、前記学習された識別器によって前記分離行列により分離された各構成音について識別される前記属性クラス、各構成音についての、前記学習されたデコーダによって生成される、前記構成音のスペクトログラムの分散と、スケールパラメータとから算出される、前記構成音のスペクトログラム、各構成音のスペクトログラムのスケールパラメータ、時間周波数領域で各構成音が混合された混合音を各構成音に分離するための分離行列、及び前記観測信号を各構成音に分離した信号を用いて表される目的関数を最適化するように、前記分離行列と、前記スケールパラメータとを推定する
非一時的記憶媒体。
【符号の説明】
【0099】
11 CPU
14 ストレージ
15 入力部
16 表示部
24 時間周波数展開部
30 教師学習部
32 学習部
34 音源信号モデル記憶部
36 パラメータ推定部
38 出力部
40 初期値設定部
42 分離行列更新部
44 潜在変数クラス更新部
46 スケールパラメータ更新部
48 収束判定部
100 信号解析装置