IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオの特許一覧 ▶ フリードリヒ−アレクサンダー−ウニベルジテート・エアランゲン−ニュルンベルクの特許一覧

特開2023-96221つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法
<>
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図1
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図2
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図3
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図4
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図5
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図6
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図7
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図8
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図9
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図10
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図11
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図12
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図13
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図14
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図15
  • 特開-1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法 図16
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023009622
(43)【公開日】2023-01-20
(54)【発明の名称】1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法
(51)【国際特許分類】
   G10L 21/0388 20130101AFI20230113BHJP
   G10L 25/30 20130101ALI20230113BHJP
   G10L 25/18 20130101ALI20230113BHJP
【FI】
G10L21/0388 100
G10L25/30
G10L25/18
【審査請求】有
【請求項の数】25
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2021113056
(22)【出願日】2021-07-07
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り ウェブサイトの掲載日:令和2年12月18日 ウェブサイトのアドレス:https://ieeexplore.ieee.org/document/9287465
(71)【出願人】
【識別番号】591037214
【氏名又は名称】フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
(71)【出願人】
【識別番号】507239592
【氏名又は名称】フリードリヒ-アレクサンダー-ウニベルジテート・エアランゲン-ニュルンベルク
(74)【代理人】
【識別番号】100079577
【弁理士】
【氏名又は名称】岡田 全啓
(74)【代理人】
【識別番号】100167966
【弁理士】
【氏名又は名称】扇谷 一
(72)【発明者】
【氏名】シュミット,コンスタンティン
(72)【発明者】
【氏名】アフマド,アフマド ムスタファ マフムート
(72)【発明者】
【氏名】フックス,ギヨーム
(72)【発明者】
【氏名】エドラー,ベルント
(57)【要約】      (修正有)
【課題】狭帯域音声入力信号の帯域拡張を実行することによって狭帯域音声入力信号を処理して広帯域音声出力信号を得る装置を提供する。
【解決手段】狭帯域音声入力信号を処理して広帯域音声出力信号を得るための装置は、狭帯域音声入力信号の信号包絡線の複数のサンプルを入力とし、複数の外挿された信号包絡線のサンプルを出力とする第1のニューラルネットワーク(125)を含む信号包絡線外挿器(120)と、狭帯域音声入力信号の励起信号の複数のサンプルを入力とし、複数の外挿された励起信号サンプルを出力する励起信号外挿部器(130)と、広帯域音声出力信号が、複数の外挿された信号包絡線のサンプルおよび複数の外挿された励起信号サンプルに依存して、狭帯域音声入力信号に対して帯域幅を拡張するように、広帯域音声出力信号を生成するコンバイナ(140)とを含む。
【選択図】図1
【特許請求の範囲】
【請求項1】
狭帯域音声入力信号の帯域幅拡張を実行することによって前記狭帯域音声入力信号を処理して広帯域音声出力信号を得るための装置であって、前記装置は、
第1のニューラルネットワーク(125)を含む信号包絡線外挿器(120)であって、前記第1のニューラルネットワーク(125)は前記第1ニューラルネットワーク(125)の入力値として前記狭帯域音声入力信号の信号包絡線の複数のサンプルを受信し、前記第1ニューラルネットワーク(125)の出力値として、複数の外挿された信号包絡線のサンプルを決定するように構成される、前記信号包絡線外挿器(120)と、
前記狭帯域音声入力信号の励起信号の複数のサンプルを受信し、複数の外挿された励起信号サンプルを決定するように構成される、励起信号外挿器(130)と、
前記広帯域音声出力信号が、前記複数の外挿された信号サンプルおよび前記複数の外挿された励起信号サンプルに依存して、前記狭帯域音声入力信号に対して帯域幅を拡張するように、前記広帯域音声出力信号を生成するように構成されるコンバイナ(140)と、
を含む、装置。
【請求項2】
前記第1のニューラルネットワーク(125)の前記入力値は、前記狭帯域音声入力信号の第1の複数の線スペクトル周波数であり、前記第1のニューラルネットワーク(125)は、前記第1のニューラルネットワーク(125)の前記出力値として、前記広帯域音声出力信号の第2の複数の線スペクトル周波数を決定するように構成され、1つ以上の前記第2の複数の線スペクトル周波数のそれぞれは、前記第1の複数の線スペクトル周波数のいずれかに関連付けられるどの周波数よりも大きい周波数と関連付けられる、請求項1に記載の装置。
【請求項3】
前記第1のニューラルネットワーク(125)を学習させると、前記信号包絡線外挿器(120)は、インパルス応答を計算し、前記インパルス応答を切り捨てることによって、オリジナルの広帯域音声信号から導出される複数の広帯域線形予測符号化係数を有限インパルス応答フィルタ係数に変換するように構成される、請求項2に記載の装置。
【請求項4】
前記第1のニューラルネットワーク(125)を学習させると、前記信号包絡線外挿器(120)が、前記広帯域音声出力信号と前記オリジナルの広帯域音声信号間の誤差または前記誤差の勾配をフィードバックするように構成される、請求項3に記載の装置。
【請求項5】
前記第1のニューラルネットワーク(125)は、第1のディスクリミネーターニューラルネットワークを使用して学習し、前記第1のニューラルネットワーク(125)を学習させると、前記第1のニューラルネットワーク(125)と前記第1のディスクリミネーターニューラルネットワークは、敵対的生成ネットワークとして動作するように構成され、
前記第1のニューラルネットワーク(125)の学習中は、前記第1のディスクリミネーターニューラルネットワークは、前記第1のディスクリミネーターニューラルネットワークの入力値として前記第1のニューラルネットワーク(125)の前記出力値を受信するように構成される、または前記第1のディスクリミネーターネットワークの前記入力値として、前記第1のニューラルネットワーク(125)の前記出力値から導出される導出値を受信するように構成され、
ここで、前記第1のディスクリミネーターニューラルネットワークの前記入力値を受信する際には、前記第1のディスクリミネーターニューラルネットワークは、前記第1のディスクリミネーターニューラルネットワークの出力として、前記第1のディスクリミネーターニューラルネットワークの前記入力値の第1の品質表示を決定するように構成され、前記第1のニューラルネットワーク(125)は、前記第1の品質表示に依存して学習するように構成される、請求項1ないし請求項4のいずれかに記載の装置。
【請求項6】
前記第1のディスクリミネーターニューラルネットワークの前記入力値を受信する際には、前記第1のディスクリミネーターニューラルネットワークは、前記第1のディスクリミネーターニューラルネットワークの前記入力値が、人工的に生成された音声信号ではなく記録音声信号に関係する確率を前記品質表示が示す、または前記第1のディスクリミネーターニューラルネットワークの前記出力値が記録信号と関係しているのか、人工的に生成された信号に関係しているのかを推定する値を前記品質表示が示すように、前記品質表示を決定するように構成される、請求項5に記載の装置。
【請求項7】
前記第1のニューラルネットワーク(125)または前記第2のニューラルネットワーク(135)は、前記第1のディスクリミネーターニューラルネットワークによって決定された前記品質表示に依存する損失関数を使用して学習する、請求項5または請求項6に記載の装置。
【請求項8】
前記損失関数は、ヒンジ損失、またはワッサースタイン距離、またはエントロピーベースの損失に依存する、請求項7に記載の装置。
【請求項9】
【請求項10】
前記損失関数は、追加Lp-lossに依存する、請求項7ないし請求項9のいずれかに記載の装置。
【請求項11】
【請求項12】
前記第1のディスクリミネーターニューラルネットワークは、記録音声を使用して学習する、請求項4ないし請求項11のいずれかに記載の装置。
【請求項13】
前記励起信号外挿器(130)は第2のニューラルネットワーク(135)を含み、前記第2のニューラルネットワーク(135)は、前記第2のニューラルネットワーク(135)の入力値として、前記狭帯域音声入力信号の前記励起信号の複数のサンプルを受信するように構成される、および/または、前記狭帯域音声入力信号である、および/または、前記狭帯域音声入力信号の整形バージョンであり、前記第2のニューラルネットワーク(135)の出力値として、前記複数の外挿された励起信号サンプルを決定するように構成される、請求項1ないし請求項12のいずれかに記載の装置。
【請求項14】
前記第2のニューラルネットワーク(135)の前記入力値は、前記狭帯域音声入力信号の前記励起信号の第1の複数の時間領域信号サンプルである、および/または前記狭帯域音声入力信号である、および/または、前記狭帯域音声入力信号の整形バージョンであり、ここで、前記第2のニューラルネットワーク(135)は、前記複数の外挿された励起信号のサンプルが、前記狭帯域音声入力信号の前記励起信号に対して、帯域幅が拡張された拡張時間領域励起信号の第2の複数の時間領域信号のサンプルであるように前記第2のニューラルネットワーク(135)の前記出力値を決定するように構成される、請求項13に記載の装置。
【請求項15】
前記第2のニューラルネットワーク(135)は、第2のディスクリミネーターニューラルネットワークを使用して学習し、前記第2のニューラルネットワーク(135)の学習中は、前記第2のニューラルネットワーク(135)と前記第2のディスクリミネーターニューラルネットワークとは、第2の敵対的生成ネットワークとして動作するように構成され、
前記第2のニューラルネットワーク(135)の学習中は、前記第2のディスクリミネーターニューラルネットワークは、前記第2のディスクリミネーターニューラルネットワークの入力値として、
前記第2のニューラルネットワーク(135)の前記出力値を受信するように構成される、または前記第2のディスクリミネーターネットワークの前記入力値として、前記第2のニューラルネットワーク(135)の前記出力値から導出される導出値、および/または、
前記コンバイナ(140)の出力
を受信するように構成され、
前記第2のディスクリミネーターニューラルネットワークの前記入力値を受信すると、前記第2のディスクリミネーターニューラルネットワークは、前記第2のディスクリミネーターニューラルネットワークの出力として、前記第2のディスクリミネーターニューラルネットワークの前記入力値の第2の品質表示を決定するように構成され、ここで、前記第2のニューラルネットワーク(135)は前記第2の品質表示に依存して学習するように構成される、請求項13または請求項14に記載の装置。
【請求項16】
前記装置は、前記狭帯域音声入力信号の前記信号包絡線の前記複数のサンプルおよび前記狭帯域音声入力信号の前記励起信号の前記複数のサンプルを前記狭帯域音声入力信号から生成するように構成される信号分析器(110)を含む、請求項1ないし請求項15のいずれかに記載の装置。
【請求項17】
前記第1のニューラルネットワーク(125)は、1つ以上の畳み込みニューラルネットワークを含む、請求項1ないし請求項16のいずれかに記載の装置。
【請求項18】
前記第1のニューラルネットワーク(125)は、1つ以上のディープニューラルネットワークを含む、請求項1ないし請求項17のいずれかに記載の装置。
【請求項19】
狭帯域音声入力信号の帯域幅拡張を実行することによって前記狭帯域音声入力信号を処理して広帯域音声出力信号を得るための方法であって、前記方法は、
第1のニューラルネットワークの入力値として、前記狭帯域音声入力信号の信号包絡線の複数のサンプルを受信し、前記第1のニューラルネットワークの出力値として、複数の外挿された信号包絡線のサンプルを決定するステップと、
前記狭帯域音声入力信号の励起信号の複数のサンプルを受信し、複数の外挿された励起信号サンプルを決定するステップと、
前記広帯域音声入力信号が、前記複数の外挿された信号包絡線のサンプルおよび前記複数の外挿励起信号サンプルに依存して、前記狭帯域音声入力信号に対して帯域幅を拡張するように前記広帯域音声出力信号を生成するステップと、
を含む、方法。
【請求項20】
ニューラルネットワークを学習させるための方法であって、
前記ニューラルネットワークは前記ニューラルネットワークの入力値として、狭帯域音声入力信号の第1の複数の線スペクトル周波数を受信し、
前記ニューラルネットワークは、前記第1のニューラルネットワークの出力値として、前記広帯域音声出力信号の第2の複数の線スペクトル周波数を決定し、1つ以上の前記第2の複数の線スペクトル周波数のそれぞれは、前記第1の複数の線スペクトル周波数のいずれかに関連付けられるどの周波数よりも大きい周波数に関連付けられ、
前記広帯域音声出力信号の前記第2の複数の線スペクトル周波数は、前記広帯域音声出力信号の第2の複数の前記線形予測符号化係数を得るために、線スペクトル周波数領域から線形予測符号化領域に変換され、
前記広帯域音声出力信号の前記第2の複数の線形予測符号化係数を前記線形予測符号化領域から有限インパルス応答フィルタ領域に変換して、複数の有限インパルスフィルターで変換された線形予測符号化係数を得るために有限インパルス応答フィルタが用いられ、
前記方法は、前記複数の有限インパルスフィルターで変換された線形予測符号化係数に依存して、前記第1のニューラルネットワークを学習させるステップを含む、方法。
【請求項21】
前記第1のニューラルネットワークが学習させると、前記複数の有限インパルスフィルターで変換された線形予測符号化係数、または前記複数の有限インパルスフィルターで変換された線形予測符号化係数から導出された値が、前記ニューラルネットワークにフィードバックされる、請求項20に記載の方法。
【請求項22】
前記第1のニューラルネットワークが学習させると、前記複数の有限インパルスフィルターで変換された線形予測符号化係数および複数の外挿された励起信号サンプルに依存して、複数の前記広帯域音声出力信号のサンプルが生成され、前記複数の広帯域音声出力信号または前記複数の広帯域音声出力信号のサンプルから導出された値が前記ニューラルネットワークにフィードバックされる、請求項20に記載の方法。
【請求項23】
第1および/または第2のニューラルネットワークを学習させるための方法であって、
前記第1のニューラルネットワークは、前記第1のニューラルネットワークの入力値として、前記狭帯域音声入力信号の信号包絡線の複数のサンプルを受信し、前記第1のニューラルネットワークの出力値として、複数の外挿された信号包絡線のサンプルを決定する、および/または、前記第2のニューラルネットワークは前記第2のニューラルネットワークの入力値として、前記狭帯域音声入力信号の前記励起信号の複数のサンプルを受信し、前記第2のニューラルネットワークの出力値として、前記複数の外挿された励起信号サンプルを決定し、
前記第1および/または前記第2のニューラルネットワークは、ディスクリミネーターニューラルネットワークを使用して学習し、前記第1および/または前記第2のニューラルネットワークが学習すると、前記第1および/または前記第2のニューラルネットワークと前記ディスクリミネーターニューラルネットワークとは、敵対的生成ネットワークとして動作し、
前記第1および/または前記第2のニューラルネットワークの学習中は、前記ディスクリミネーターニューラルネットワークは、前記ディスクリミネーターニューラルネットワークの入力値として、前記第1および/または前記第2のニューラルネットワークの前記出力値を受信する、または、前記ディスクリミネーターネットワークの前記入力値として、前記第1および/または前記第2のニューラルネットワークの前記出力値から導出される導出値を受信し、
前記ディスクリミネーターニューラルネットワークの前記入力値を受信すると、前記ディスクリミネーターニューラルネットワークは、前記ディスクリミネーターニューラルネットワークの出力として、前記ディスクリミネーターニューラルネットワークの前記入力値の品質表示を決定し、そして前記第1および/または前記第2のニューラルネットワークは、前記品質表示に依存して学習する、方法。
【請求項24】
前記ディスクリミネーターニューラルネットワークは、第1のディスクリミネーターニューラルネットワークであり、
前記第1のニューラルネットワークは、前記第1のディスクリミネーターニューラルネットワークを使用して学習し、前記第1のニューラルネットワークは、第1の品質表示である前記品質表示に依存して学習し、
前記第2のニューラルネットワークは第2のディスクリミネーターニューラルネットワークを使用して学習し、前記第2のニューラルネットワークの学習中は、前記第2のニューラルネットワークと前記第2のディスクリミネーターニューラルネットワークとは、第2の敵対的生成ネットワークとして動作し、
前記第2のニューラルネットワークの学習中は、前記第2のディスクリミネーターニューラルネットワークは、前記第2のディスクリミネーターニューラルネットワークの入力値として、前記第2のニューラルネットワークの前記出力値を受信する、または、前記第2のディスクリミネーターネットワークの前記入力値として、前記第2のニューラルネットワークの前記出力値から導出される導出値を受信し、
前記第2のディスクリミネーターニューラルネットワークの前記入力値を受信する際、前記第2のディスクリミネーターニューラルネットワークは、前記第2のディスクリミネーターニューラルネットワークの出力として、前記第2のディスクリミネーターニューラルネットワークの前記入力値の第2の品質表示を決定し、前記第2のニューラルネットワークは、前記第2の品質表示に依存して学習するように構成される、
請求項23に記載の方法。
【請求項25】
コンピュータ・プログラムがコンピュータ上またはシグナルプロセッサーで動作しているときに、請求項19ないし請求項24のいずれかに記載の前記方法を実行するためのコンピュータ・プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
明細書
本発明は、1つ以上の畳み込みネットワークおよび/またはリカレントネットワークを使用したエンドツーエンドの敵対的ブラインド帯域幅拡張のための装置および方法に関する。
【背景技術】
【0002】
音声コミュニケーションは、ほとんどの人が毎日使用している技術であり、VoIP(Voice over Internet Protocol)や携帯電話、公衆交換電話のネットワークを介して送信する必要のある膨大な量のデータを作成している。2017年のOFCOMの調査によると、1契約あたり毎月平均156.75分の携帯電話への発信が行われている(https://www.ofcom.org.uk/research-and-data/multi-sector-research/cmr/cmr-2018/interactiveを参照)。
【0003】
転送されるデータ量は少なくても、音声の質は高いことが望まれる。この目標を達成するために、音声圧縮技術は過去数十年にわたって、単純なパルス符号変調[1]による帯域制限音声の圧縮から、全帯域音声をコーディングできる音声生成および人間の知覚モデルに従ったコーディングスキーム[2]、[3]に進化してきた。そのような標準化された音声コーデックの存在にもかかわらず、携帯電話または公衆交換電話網でのそれらの採用は、数十年ではないにしても数年かかる。このような理由から、AMR-NB[4]は、200Hzから3400Hzの周波数(通常、ナローバンド、NBと呼ばれる)をエンコードするだけの携帯電話の音声通信用コーデックとして、最も頻繁に使用されている。しかしながら、帯域制限された音声を送信すると、音響品質だけでなく、明瞭度も損なわれる[5]、[6]、[7]。ブラインド帯域拡張(BBWE)は、人工的な帯域拡張やオーディオスーパーレゾリューションとも呼ばれ、エンコーダからの追加情報を送信することなく、欠落した周波数成分を人工的に再生する。BBWEは、送信ネットワークを変更することなく、デコーダのツールチェーンに追加することができるため、より優れたコーデックがネットワークに導入されるまでの間、知覚されるオーディオ品質と明瞭度を向上させるための中間的なソリューションとして機能する[5]、[6]、[8]。送信帯域幅の節約または品質向上のために、堅牢なBBWEは、現代の音声送信の実行可能なソリューションである可能性がある。さらに、帯域制限された音声が保存またはアーカイブされるオーディオ復元などの他のタイプのアプリケーションでは、BBWEがオーディオ帯域幅を拡張するための唯一の可能なソリューションである。
【0004】
BBWEは音声オーディオ信号処理の分野で長い伝統を持っているが[9]、[10]、ディープニューラルネットワーク(DNN)に基づくソリューションが検討されるようになったのは、音声信号処理ではなく、人工知能(AI)や画像処理のバックグラウンドを持つ研究者によるものである場合がほとんどである。このようなDNNベースのシステムは、一般に音声超解像(speech super resolution:SSR)と呼ばれる。画像処理では、1つ以上の低解像度の観測から高解像度の画像を推定するタスクは超解像と呼ばれ、コンピュータビジョンコミュニティ内で大きな注目を集めている。最近では、ディープな畳み込みニューラルネットワーク(Deep Convolutional Neural Networks)が従来の手法よりも優れた結果を出しており[11]、超解像生成逆問題ネットワークが最先端とされている[12]。
【0005】
優れたBBWEは、音声の知覚品質を向上させるだけでなく、自動音声認識システムの単語誤り率を改善することもできる[13]。
【0006】
敵対的生成ネットワーク(Generative Adversarial Networks;GAN)は、より現実的な再現のために、より細かい構造をより適切に復元できる。しかしながら、これらのシステムの中には、音声コミュニケーションのシナリオに直接適用できないものもある。BBWEの設計では、基礎となる信号の性質が異なる(次元が異なるなど)ことに加えて、次のような点を考慮する必要がある。まず、アルゴリズムの遅延(復号化された音声がオリジナルの音声から遅れる時間)が大きくなりすぎないことが必要である。さらに、計算の複雑さとメモリ消費量は、携帯電話などの組み込みシステムでのリアルタイム処理の要件を満たすことができなければならない。
【0007】
リカレントニューラルネットワークは、音声のような時系列の分析や予測に適している。実際、音声は20~25ms程度の持続時間では広義の定常または準周期的であると考えられ、その時間相関を比較的小さなモデルを持つRNNで利用することができる。一方、CNNはパターン認識や、画像の超解像のようなアップスケーリングのタスクで性能を発揮する。また、それらは、処理を高度に並列化できるという利点もある。したがって、音声処理、特にBBWEでは、両方のアーキテクチャを考慮する必要がある。
【0008】
前述のように、最先端技術では、BBWEの原理は、1933年にKarl-Otto Schmidtによって最初に提示され[9]、アナログ非線形デバイスを使用して送信音声の帯域幅を拡張した。音声コーデックの励起信号に対して(非ブラインド)帯域幅拡張を行うというアイデアは、少なくとも1959年にまでさかのぼる[10]。その後、人間の音声生成のソースフィルタモデルに基づいて、音声信号を励振とスペクトル包絡線に分離することを利用した、いわゆるパラメトリックBWEがいくつか発表された。これらのシステムは、統計モデルを適用して、スペクトルフォールディング[14]、スペクトル変換[8]、または非線形性[15]によって励起信号を生成しながら、スペクトル包絡線を外挿する。包絡線の外挿のための統計モデルは、単純なコードブック・マッピング[16]、隠れマルコフ・モデル[14]、(浅い)ニューラルネットワーク[17]、あるいは最近ではDNN[18]などがある。
【0009】
DNNを使用する前は、統計モデルへの入力は、多くの場合、手作業で調整された機能であった[14]、[17]、[19]、[20]。DNNの導入により、このアプローチは、対数の短時間フーリエ変換(STFT)エネルギー[18]、[21]、[22]または時間領域の音声信号[23]、[24]、[25]を直接使用するように単純化することができる。同じことが、統計モデルの出力にも言える。サブバンドのエネルギー[8]やその他の包絡線の表現[21]をモデル化する代わりに、DNNは、時間領域の音声信号全体や、時間領域と周波数領域の組み合わせ[26]とまではいかなくても、ビンごとのスペクトルの大きさ[15]をモデル化するのに十分な力を持っている。しかしながら、スペクトルの大きさがモデル化されている場合、スペクトルの折り返し(spectral folding)や変換によって位相を再構成する必要がある[18]、[21]、[15]、[27]。
【0010】
学習目的に関しては、効率的なDNNベースのソリューションを設計するには、適切なアーキテクチャを選択する必要があり、主に学習損失関数とネットワークタイプとを慎重に選択する必要がある。代表的な損失関数としては、平均二乗誤差[21]、カテゴリークロスエントロピー(CE)損失[28]、敵対的損失[29]、[30]、[25]、または損失の混合[31]などがある。損失関数は、データ表現を決定することもできる。
【0011】
平均二乗誤差とクロスエントロピーに関しては、平均二乗誤差(MSE)損失を、対数のサブバンドまたはビン・エネルギーと組み合わせることで、音響心理学的に動機づけられた損失を実現することができる[8]。クロスエントロピー(XE)から導出された損失関数は、サンプルビット(またはサンプルの大きさ)をクラスとして予測するため、モデル化する信号は、DNNで処理するには高すぎない解像度で量子化する必要がある。16ビットで定量化された音声信号の216クラスを予測することは、現在までDNNで処理するには非常にコストがかかる。幸いなことに、3.4kHz以上の音声信号の内容を8ビットで定量化しても、品質が著しく低下することはない[32]。クロスエントロピー損失を用いて学習するデータの分布は、音声信号のラプラシアン分布などではなく、ガウス分布であることが望まれるため[34]、通常は非線形関数によって整形される。驚くべきことに、[35]、[32]、[23]、[24]で音声データxをよりガウス的にするために使われているμ-law関数は、世界で初めて標準化されたデジタル音声コーデック[1]と全く同じものである
【0012】
敵対的損失に関しては、今日の強力なネットワークを使用しても、時間領域の音声の分布は非常に複雑でモデル化が困難である。この複雑な分布に一致するようにMSEまたはCE損失で学習された生成モデルは、その平滑化された近似のみを生成する。BBWEに適用すると、これは、結果として得られる音声信号が鮮明さとエネルギーを欠くことを意味する[30]。
【0013】
敵対的生成ネットワーク(Generative Adversarial Network)[36]は、一種の拡張損失関数とみなすことができる。ここでは、ジェネレーターとディスクリミネーターの2つのネットワークが競い合っている。図2は、敵対的生成ネットワークを示している。ジェネレーターは現実的なデータの生成を試み、ディスクリミネーターは生成されたデータと学習データベースからのデータを区別する。学習が成功した後は、ディスクリミネーターはもはや必要ではなく、その目的はジェネレーターの損失を改善することだけである。敵対的学習がBBWEのような生成モデルの学習に適している理由は、すべてのモードに対して平滑化や平均化を行うことなく、分布の一部のモードをモデル化できることにある。
【0014】
ネットワークのクラスに関して、DNNの設計におけるもう1つの重要な側面は、使用するネットワークのクラスの選択であることに注意されたい。一般的には、完全連結層[18]、[21]、畳み込みニューラルネットワーク(CNN)[11]、[37]、またはリカレントニューラルネットワーク(RNN)と、それらのサブタイプである長短期記憶(LSTM)ユニット[38]、[39]、[8]、またはゲーテッドリカレントユニット(GRU)[40]、[39]がよく知られている。完全連結層は、フレーム[18]、[21]で動作するシステムでのみ使用されるが、RNNとCNNはストリーミング方式で時間領域データの処理を可能にする[23]、[24]。
【0015】
【0016】
BBWEにもWaveNet(登録商標)が採用されている。[42]では、符号化されたNB音声のビットストリームパラメータで条件付けられた、クリーンな音声で学習されている。ここでは、ネットワークはデコーダとして機能し、暗黙的に帯域幅の拡張を行う。これを受けて、[24]では、WaveNet(登録商標)にNB信号で計算された特徴量を付与している。学習が成功すると、特徴量のみがネットワークに与えられ、NBの音声信号は無視される。
【0017】
WaveNet(登録商標)ベースのモデルは非常に高い知覚品質を主張するが、学習が難しく、評価時の計算の複雑さが非常に高くなる。これにより、いくつかの最適化や代替モデルが生まれた(例えば[43])。1つの特定の代替手段は、オリジナルの音声合成[32]または音声コーディング[44]のいずれかのために設計されたLPCNetである。LPCNetでは、WaveNet(登録商標)の畳み込み層をリカレント層に置き換えている。
【発明の概要】
【発明が解決しようとする課題】
【0018】
本発明の目的は、ブラインド帯域幅拡張のための改善された概念を提供することである。
【課題を解決するための手段】
【0019】
本発明の目的は、請求項1に記載の装置によって、請求項19に記載の方法によって、請求項20に記載の方法によって、請求項23に記載の方法によって、請求項25に記載のコンピュータ・プログラムによって解決される。
【0020】
一実施の形態による、狭帯域音声入力信号の帯域幅拡張を実行することによって狭帯域音声入力信号を処理して広帯域音声出力信号を得るための装置が提供される。装置は、第1のニューラルネットワークを含む信号包絡線外挿器を備え、第1のニューラルネットワークは第1ニューラルネットワークの入力値として狭帯域音声入力信号の信号包絡線の複数のサンプルを受信するように構成され、前記第1ニューラルネットワークの出力値として、複数の外挿された信号包絡線のサンプルを決定するように構成される。さらに、本装置は、狭帯域音声入力信号の励起信号の複数のサンプルを受信するように構成され、複数の外挿された励起信号サンプルを決定するように構成される励起信号外挿器130を備える。さらに、本装置は、複数の外挿された信号包絡線のサンプルに依存して、また、複数の外挿された励起信号サンプルに依存して、広帯域音声出力信号が、狭帯域音声入力信号に対して帯域幅を拡張するように、広帯域音声出力信号を生成するように構成されるコンバイナ140を備える。
【0021】
さらに、一実施の形態による、狭帯域音声入力信号の帯域幅拡張を実行することによって狭帯域音声入力信号を処理して広帯域音声出力信号を得るための方法が提供される。その方法は以下を含む:

- 第1のニューラルネットワークの入力値として、前記狭帯域音声入力信号の信号包絡線の複数のサンプルを受信し、前記第1のニューラルネットワークの出力値として、複数の外挿された信号包絡線のサンプルを決定するステップ、

- 狭帯域音声入力信号の励起信号の複数のサンプルを受信し、複数の外挿された励起信号サンプルを決定するステップ、そして、

- 広帯域音声入力信号が、複数の外挿された信号包絡線のサンプルおよび前記複数の外挿励起信号サンプルに依存して、狭帯域音声入力信号に対して帯域幅を拡張するように前記広帯域音声出力信号を生成するステップ。
【0022】
さらに、一実施の形態によるニューラルネットワークを学習させる方法を提供する。
【0023】
- ニューラルネットワークは、ニューラルネットワークの入力値として、狭帯域音声入力信号の第1の複数の線スペクトル周波数を受信する。
【0024】
- ニューラルネットワークは、第1のニューラルネットワークの出力値として、広帯域音声出力信号の第2の複数の線スペクトル周波数を決定し、1つ以上の第2の複数の線スペクトル周波数のそれぞれは、第1の複数の線スペクトル周波数のいずれかに関連付けられるどの周波数よりも大きい周波数に関連付けられる。
【0025】
- 広帯域音声出力信号の第2の複数の線スペクトル周波数は、線スペクトル周波数領域から線形予測符号化領域に変換され、広帯域音声出力信号の第2の複数の線形予測符号化係数を得る。
【0026】
- 有限インパルス応答フィルタは、広帯域音声出力信号の第2の複数の線形予測符号化係数を線形予測符号化領域から有限インパルス応答フィルタ領域に変換して、複数の有限インパルスフィルターで変換された線形予測符号化係数を得るように用いられる。
【0027】
- 方法は、複数の有限インパルスフィルターで変換された線形予測符号化係数に依存して、前記第1のニューラルネットワークを学習させるステップを含む。
【0028】
実施の形態において、第1のニューラルネットワークを学習させると、複数の有限インパルスフィルターで変換された線形予測符号化係数、または複数の有限インパルスフィルターで変換された線形予測符号化係数から導出された値が、例えば、ニューラルネットワークにフィードバックされうる。
【0029】
実施の形態によれば、第1のニューラルネットワークを学習させると、複数の有限インパルスフィルターで変換された線形予測符号化係数および複数の外挿された励起信号サンプルに依存して、例えば、複数の広帯域音声出力信号のサンプルが生成され、複数の広帯域音声出力信号または前記複数の広帯域音声出力信号のサンプルから導出された値が、例えば、ニューラルネットワークにフィードバックされる。
【0030】
さらに、実施の形態による第1および/または第2のニューラルネットワークを学習させるための方法が提供される。
【0031】
- 第1のニューラルネットワークは、第1のニューラルネットワークの入力値として、狭帯域音声入力信号の信号包絡線の複数のサンプルを受信し、第1のニューラルネットワークの出力値として、複数の外挿された信号包絡線のサンプルを決定する、および/または、第2のニューラルネットワークは第2のニューラルネットワークの入力値として、狭帯域音声入力信号の励起信号の複数のサンプルを受信し、第2のニューラルネットワークの出力値として、複数の外挿された励起信号サンプルを決定する。
【0032】
- 第1および/または第2のニューラルネットワークは、ディスクリミネーターニューラルネットワークを使用して学習し、第1および/または第2のニューラルネットワークが学習すると、第1および/または第2のニューラルネットワークとディスクリミネーターニューラルネットワークとは、敵対的生成ネットワークとして動作する。
【0033】
- 第1および/または第2のニューラルネットワークの学習中は、ディスクリミネーターニューラルネットワークは、ディスクリミネーターニューラルネットワークの入力値として、第1および/または第2のニューラルネットワークの出力値を受信する、またはディスクリミネーターネットワークの入力値として、第1および/または第2のニューラルネットワークの出力値から導出される導出値を受信する。
【0034】
- ディスクリミネーターニューラルネットワークの入力値を受信する際、ディスクリミネーターニューラルネットワークは、ディスクリミネーターニューラルネットワークの出力として、ディスクリミネーターニューラルネットワークの入力値の品質表示を決定し、そして、第1および/または第2のニューラルネットワークは、品質表示に依存して学習する。
【0035】
実施の形態によれば、ディスクリミネーターニューラルネットワークは、例えば、第1のディスクリミネーターニューラルネットワークである。第1のニューラルネットワークは、例えば、第1のディスクリミネーターニューラルネットワークを使用して学習し、第1のニューラルネットワークは、第1の品質表示である品質表示に依存して学習する。第2のニューラルネットワークは、例えば、第2のディスクリミネーターニューラルネットワークを使用して学習し、第2のニューラルネットワークの学習中は、第2のニューラルネットワークと第2のディスクリミネーターニューラルネットワークとは、第2の敵対的生成ネットワークとして動作する。第2のニューラルネットワークの学習中は、第2のディスクリミネーターニューラルネットワークは、例えば、第2のディスクリミネーターニューラルネットワークの入力値として、第2のニューラルネットワークの出力値を受信する、または、例えば、第2のディスクリミネーターネットワークの入力値として、第2のニューラルネットワークの出力値から導出される導出値を受信しうる。第2のディスクリミネーターニューラルネットワークの入力値を受信すると、第2のディスクリミネーターニューラルネットワークは、第2のディスクリミネーターニューラルネットワークの出力として、第2のディスクリミネーターニューラルネットワークの入力値の第2の品質表示を決定し、ここで、第2のニューラルネットワークは、第2の品質表示に依存して学習するように構成される。
【0036】
さらに、コンピュータ・プログラムが提供され、コンピュータ・プログラムの各々は、コンピュータまたは信号処理装置上で実行されるときに上述の方法の1つを実施するように構成される。
【0037】
すでに説明したように、ブラインド帯域拡張は、音声コーデックで符号化されずに送信される欠落した周波数コンテンツを人工的に再生することで、電話品質の音声の知覚的品質と明瞭度を向上させる。実施の形態は、この問題を解決するためのディープニューラルネットワークに基づく新しいアプローチを提供する。これらの実施の形態は、畳み込みアーキテクチャまたは反復アーキテクチャに基づいている。すべてが時間領域で動作する。人間の音声生成のソースフィルタモデルによって動機付けられて、提供されたシステムの2つは、音声信号をスペクトル包絡線と励起信号に分解する;それらのそれぞれは、専用のDNNで個別に拡張された帯域幅である。すべてのシステムは、敵対的損失と知覚的損失が混在するように学習する。モードの崩壊およびより安定した敵対的学習を回避するために、スペクトルの正規化は、例えば、ディスクリミネーターにおいて採用され得る。
【0038】
実施の形態では、音声符号化シナリオを対象とした、敵対的学習を用いたディープニューラルネットワークに基づく2つのBBWEを提供する。
【0039】
実施の形態によれば、ブラインド帯域幅拡張を目的とした2つの新規ディープネットワーク構造が提供され、1つはコンボリューショナルカーネルに基づくもので、もう1つはリカレントカーネルに基づくものである。
【0040】
どちらのネットワークも、例えば、敵対的損失とスペクトル損失の混合で学習することができる。
【0041】
この2つのシステムは、敵対的に学習されたBBWEで、「エンドツーエンド」、つまり入力が時間領域の音声であり、出力も時間領域の音声であることを意味する。
【0042】
実施の形態では、GANの性能を向上させるために、例えば、ヒンジロスやスペクトルの正規化を適用することができる。
【0043】
実施の形態では、音声信号の帯域拡張に用いられる生成モデルに基づくBBWEの新しいアプローチを提供する。
【0044】
提示された2つのシステムでは、音声符号化の世界で確立されたパラダイムが採用されている、すなわち、包絡線およびソースフィルタモデルとして知られる音声信号への分解は、例えば、GANモデルに適用され得る。結果として、計算の複雑さは、例えば、約3分の1に、例えば、低下する可能性がある。このアプローチは、BBWEのアプリケーション内でテスト・評価されたが、それに限定されるものではない。実施の形態によるシステムは、NB音声の音声認識エラー率を大幅に改善する。
【0045】
いくつかの実施の形態では、符号化された音声、帯域制限された音声、または破損した音声から、強化された音声を生成するための生成モデルを提供する。
【0046】
実施の形態によれば、学習のためのターゲット音声は、例えば、包絡線および励起に分解され得る。包絡線は、例えば、LPC係数であり得る。励起は、例えば、LPC残差であり得る。
【0047】
いくつかの実施の形態では、包絡線および励起は、例えば、別々に学習され得る。包絡線と励起のそれぞれは、例えば、敵対的損失(敵対的生成ネットワーク(GAN)から知られている)とL1損失の混合で学習することができる。励磁信号の学習には、特徴的な損失も加えられる。
【0048】
実施の形態によれば、包絡線は、例えば、入力としての符号化されたおよび/または帯域制限されたおよび/または破損した包絡線の表現およびターゲットとしてのオリジナルの包絡線で学習され得る。可能な包絡線の表現は、例えば、LPC係数であり得る。
【0049】
実施の形態では、励起信号を学習するための入力は、例えば、符号化および/または帯域制限および/または破損した時間領域音声および/または圧縮された特徴表現であり得る。ターゲットとなるのは、例えば、もとのクリーンな音声である。
【0050】
実施の形態によれば、励起信号を学習するために、損失は、例えば、包絡線を通して伝播され得る。これは、例えば、包絡線を、損失を伝播するDNN層と見なすことによって実行できる。包絡線がLPCフィルタで表される場合、このフィルタは、例えば、純粋なIIRフィルタであり得る。この場合、損失は、例えば、伝播が遅いか、まったく伝播しない可能性がある(勾配消失問題としても知られている)。実施の形態では、IIRフィルタは、例えば、インパルス応答を切り捨てることによってFIRフィルタによって近似することができる。結果として、包絡線は、例えば、ネットワーク内の畳み込み層(CNN層)として実装され得る。
【0051】
いくつかの実施の形態は、音声コーデック[2]、[4]と同様に、音声信号の励起信号および包絡線への分解に基づいている。これは、線形予測符号化(LPC)を使用して実現される。リカレント層は、単に励起信号をモデル化するだけなので、予測が容易である。いくつかの実施の形態では、LPCNetはBBWEにも採用されている[33]。
【0052】
以下では、本発明の実施の形態を、図を参照してより詳細に説明する。
【図面の簡単な説明】
【0053】
図1図1は、実施の形態による狭帯域音声入力信号の帯域拡張を実行することによって狭帯域音声入力信号を処理して広帯域音声出力信号を得るための装置を示す。
図2図2は、敵対的生成ネットワークを示す。
図3図3は、ソフトマックスゲートアクティベーションCNN-GANの単層を示す。
図4図4は、音声信号の励起信号およびLPC包絡線への分解に基づく提案されたシステムを示す。
図5図5は、次数12のIIR LPCフィルタと切り捨てられたインパルス応答から生じるFIRフィルタの伝達関数を示す。
図6図6は、励起信号を外挿するDNNの構造を示す。
図7図7は、スパース化後のGRUからのマトリックスの1つを示す。
図8図8は、6つの畳み込み層で構成されるGANディスクリミネーターネットワークを示す。各層のカーネルは32サンプルで、ストライドは2である。
図9図9は、95%信頼区間でのさまざまなBBWEの知覚客観的リスニング品質分析を示す。
図10図10は、さまざまなBBWEのフレッチェディープスピーチ距離(FDSD)を示す。
図11図11は、さまざまなBBWEの単語誤り率と文字誤り率を示す。
図12図12は、提示されたシステムの短時間客観的了解度測定(STOI)を示す。
図13図13は、さまざまなBBWEを評価したリスニングテストの結果を、項目ごとに95%信頼区間を設定したボックスプロットで示す。
図14図14は、さまざまなBBWEを評価したリスニングテストの結果を、すべての項目で平均した95%信頼区間を持つ棒グラフで示す。
図15図15は、さまざまなBBWEを評価したリスニングテストの結果を、各ユーザーからの評価をウォームプロットで示す。
図16図16は、正規化された客観的尺度と主観的尺度を示す。
【発明を実施するための形態】
【0054】
図1は、実施の形態による狭帯域音声入力信号の帯域拡張を実行することによって狭帯域音声入力信号を処理して広帯域音声出力信号を得るための装置を示す。
【0055】
本装置は、第1のニューラルネットワーク125を含む信号包絡線外挿器120を備え、第1のニューラルネットワーク125は、第1のニューラルネットワーク125の入力値として、狭帯域音声入力信号の信号包絡線の複数のサンプルを受信するように構成され、第1のニューラルネットワーク125の出力値として、複数の外挿された信号包絡線のサンプルを決定するように構成される。
【0056】
さらに、本装置は、狭帯域音声入力信号の励起信号の複数のサンプルを受信するように構成され、複数の外挿された励起信号サンプルを決定するように構成される励起信号外挿器130を備える。
【0057】
さらに、本装置は、複数の外挿された信号包絡線のサンプルに依存して、また、複数の外挿された励起信号サンプルに依存して、広帯域音声出力信号が、狭帯域音声入力信号に対して帯域幅を拡張するように、広帯域音声出力信号を生成するように構成されるコンバイナ140を備える。
【0058】
実施の形態によれば、第1のニューラルネットワーク125の入力値は、狭帯域音声入力信号の第1の複数の線スペクトル周波数であり、前記第1のニューラルネットワーク125が、例えば、第1のニューラルネットワーク125の出力値として、広帯域音声出力信号の第2の複数の線スペクトル周波数を決定するように構成されえ、1つ以上の第2の複数の線スペクトル周波数のそれぞれは、第1の複数の線スペクトル周波数のいずれかに関連付けられるどの周波数よりも大きい周波数に関連付けられる。
【0059】
実施の形態において、第1のニューラルネットワーク125が学習すると、信号包絡線外挿器120は、例えば、インパルス応答を計算し、インパルス応答を切り捨てることによって、オリジナルの音声信号から導出される複数の広帯域線形予測符号化係数を、有限インパルス応答フィルタ係数に変換するように構成されうる。
【0060】
例えば、広帯域のLPCフィルタ係数は、例えばIIRフィルタ係数であっても、インパルス応答を計算して切り捨てることにより、有限インパルス応答フィルタ係数に変換される。これは学習中に行われるため、有限インパルス応答フィルタ係数への変換に使用される広帯域LPCフィルタ係数は、例えば、オリジナルの広帯域音声から導出されうる。
【0061】
実施の形態によれば、第1のニューラルネットワーク125を学習させると、信号包絡線外挿器120は、広帯域音声出力信号とオリジナルの広帯域音声信号との間の誤差または誤差の勾配をフィードバックするように、例えば、構成される。
【0062】
上で概説したように、実施の形態では、誤差の勾配を逆伝播させる。誤差とは、ここでは、生成された広帯域音声と真の広帯域音声との間の差である。
【0063】
一般に、狭帯域音声から励起が生成され、そこから包絡線が生成される。最後に、広帯域音声が導出される。
【0064】
適用中、励起信号外挿器130の出力は、例えば、信号包絡線外挿器120に供給され得る。
【0065】
実施の形態では、逆伝播を伴う学習中に、誤差の勾配は、最初に信号包絡線外挿器120に逆方向に渡され、次に励起信号外挿器130に渡される。
【0066】
信号包絡線がIIR構造またはフィルタである場合、勾配を通過させることはできない。このため、信号包絡線は有限インパルス応答ファイラーに変換される。
【0067】
実施の形態によれば、第1のニューラルネットワーク125は、例えば、第1のディスクリミネーターニューラルネットワークを用いて学習し、第1のニューラルネットワーク125を、例えば、学習させると、第1のニューラルネットワーク125および第1のディスクリミネーターニューラルネットワークは、敵対的生成ネットワークとして動作するように構成される。第1のニューラルネットワーク125の学習中は、第1のディスクリミネーターニューラルネットワークは、例えば、第1のディスクリミネーターニューラルネットワークの入力値として第1のニューラルネットワーク125の出力値を受信するように構成される、または第1のディスクリミネーターネットワークの入力値として、第1のニューラルネットワーク125の出力値から導出される導出値を受信するように構成される。第1のディスクリミネーターニューラルネットワークの入力値を受信する際には、第1のディスクリミネーターニューラルネットワークは、例えば、第1のディスクリミネーターニューラルネットワークの出力として、前記第1のディスクリミネーターニューラルネットワークの入力値の第1の品質表示を決定するように構成される。そして、第1のニューラルネットワーク125は、例えば、第1の品質表示に依存して学習するように構成される。
【0068】
実施の形態において、第1のディスクリミネーターニューラルネットワークの入力値を受信する際には、第1のディスクリミネーターニューラルネットワークは、第1のディスクリミネーターニューラルネットワークの入力値が、人工的に生成された音声信号ではなく記録音声信号に関係する確率を品質表示が示す、または第1のディスクリミネーターニューラルネットワークの出力値が記録信号と関係しているのか人工的に生成された信号に関係しているのかを推定する値を前記品質表示が示すように、例えば、品質表示を決定するように構成される。
【0069】
実施の形態によれば、第1のニューラルネットワーク125または第2のニューラルネットワーク135は、例えば、第1のディスクリミネーターニューラルネットワークによって決定された品質表示に依存する損失関数を使用し学習する。
【0070】
実施の形態において、損失関数は、例えば、ヒンジ損失、またはワッサースタイン距離、またはエントロピーベースの損失に依存する。
【0071】
【0072】
実施の形態において、損失関数は、(追加)Lp損失に依存する。
【0073】
【0074】
実施の形態において、第1のディスクリミネーターニューラルネットワークは、例えば、記録音声を使用して学習しうる。
【0075】
実施の形態によれば、励起信号外挿部器130は、第2のニューラルネットワーク135を含み、第2のニューラルネットワーク135は、例えば、第2のニューラルネットワーク135の入力値として、狭帯域音声入力信号の励起信号の複数のサンプルを受信するように構成される、および/または、狭帯域音声入力信号である、および/または、前記狭帯域音声入力信号の整形バージョンである。第2のニューラルネットワーク135は、第2のニューラルネットワーク135の出力値として、複数の外挿された励起信号サンプルを決定するように、例えば、構成される。
【0076】
実施の形態において、第2のニューラルネットワーク135の入力値は、例えば、狭帯域音声入力信号の励起信号の第1の複数の時間領域信号サンプルである、および/または、例えば、狭帯域音声入力信号である、および/または、例えば、狭帯域音声入力信号の整形バージョンでありうる。ここで、第2のニューラルネットワーク135は、複数の外挿された励起信号のサンプルが、狭帯域音声入力信号の励起信号に対して、帯域幅が拡張された拡張時間領域励起信号の第2の複数の時間領域信号のサンプルであるように第2のニューラルネットワーク135の出力値を決定するように、例えば、構成される。
【0077】
実施の形態によれば、第2のニューラルネットワーク135は、第2のディスクリミネーターニューラルネットワークを使用して、例えば、学習し、第2のニューラルネットワーク135の学習中は、第2のニューラルネットワーク135と第2のディスクリミネーターニューラルネットワークとは、第2の敵対的生成ネットワークとして動作するように構成される。第2のニューラルネットワーク135の学習中は、第2のディスクリミネーターニューラルネットワークは、第2のディスクリミネーターニューラルネットワークの入力値として、第2ニューラルネットワーク135の出力値を受信されるように、例えば、構成される、または、第2のディスクリミネーターネットワークの入力値として、第2のニューラルネットワーク135の出力値から導出される導出値を受信するように、例えば、構成される。および/または、第2のディスクリミネーターニューラルネットワークは、第2のディスクリミネーターニューラルネットワークの入力値として、コンバイナ140の出力値を受信するように、例えば、構成される。
【0078】
第2のディスクリミネーターニューラルネットワークの入力値を受信すると、第2のディスクリミネーターニューラルネットワークは、第2のディスクリミネーターニューラルネットワークの出力として、第2のディスクリミネーターニューラルネットワークの入力値の第2の品質表示を決定するように、例えば、構成される;ここで、第2のニューラルネットワーク135は、第2の品質表示に依存して学習するように、例えば、構成される。
【0079】
実施の形態において、装置は、狭帯域音声入力信号の信号包絡線の複数のサンプルおよび狭帯域音声入力信号の励起信号の複数のサンプルを狭帯域音声入力信号から生成するように構成される信号分析器110を、例えば、含む。
【0080】
実施の形態によれば、第1のニューラルネットワーク125は、1つ以上の畳み込みニューラルネットワークを、例えば、含む。
【0081】
実施の形態において、第1のニューラルネットワーク125は、1つ以上のディープニューラルネットワークを、例えば、含む。
【0082】
次に、具体的な実施の形態について説明する。
【0083】
以下では、実施の形態によるDNNに基づく3つのBBWEについて説明する:2つは畳み込みアーキテクチャに基づいており、もう1つは畳み込みアーキテクチャと反復アーキテクチャの混合に基づいている。すべては、例えば、同じディスクリミネーター、同じ知覚損失、および同じ最適化アルゴリズムを使用して敵対的に学習することができる。第1のBBWEのアーキテクチャはWaveNet(登録商標)を参考にし、その他のアーキテクチャはLPCNetを参考にしている。まず、すべての生成ネットワークが提示され、すべてのシステムが同じディスクリミネーターを共有しているので、以下にそれを説明する。
【0084】
最初に、実施の形態に記載される畳み込みBBWEが説明される。
【0085】
このタスクのための第1のアーキテクチャ案は、畳み込みニューラルネットワーク(CNN)のスタックで、これは現在、GANの標準的な構成要素である。CNNを使うことで、特にGPUでの高速処理が可能になる。
【0086】
畳み込み生成モデルには、WaveNet(登録商標)のような構造を採用した。具体的には、20の層からなるスタックで、すべての層で、各層は33のカーネルサイズの因果的な畳み込み、およびソフトマックスゲートアクティベーション[45]を使用する。バイアスは省略している。これらの層の一つを図3に示す。
【0087】
図3は、ソフトマックスゲートアクティベーション(softmax-gated activations)のCNN-GANの単層を示す。CNN層は、32個の入力チャネルと64個の出力チャネルを持つ1次元カーネルを有する。出力チャネルの半分はtanhアクティベーションに供給され、残りの半分はソフトマックスアクティベーションに供給される。残留接続は、勾配消滅を回避し、安定した効果的な学習を維持する。
【0088】
概説したように、各CNN層には32個の入力チャネルと64個の出力チャネルを有する。出力チャネルの半分はtanhアクティベーションに供給され、残りの半分はソフトマックスアクティベーションに供給される。各レイヤーの32個のチャネル出力を形成するために、両方のアクティベーションがチャネル次元で乗算される。このタイプのアクティベーションは、ReLUとシグモイドゲートアクティベーションの両方よりも、再構成アーティファクトに対してより堅牢である。
【0089】
追加の入力層は、1次元の入力信号を32次元の信号にマッピングし、追加の出力層は、32次元の信号を1次元の出力信号にマッピングする。
【0090】
畳み込みカーネルの重みは、安定した学習動作を可能にするために、重みの正規化[46]を使用して正規化される。また、学習プロセスを高速化するために、CNN層からの出力機能にバッチ正規化を適用する。
【0091】
したがって、完全な畳み込み層は、バッチ正規化により続く因果的畳み込み、および最後にソフトマックスゲートアクティベーションで構成され、最終的な出力を取得する。勾配消失を回避し、安定した効果的な学習を維持するために、入力から出力への接続またはショートカットが存在する[47]。
【0092】
この畳み込みBBWEでは、モデルは時間領域の生の音声波形で実行される。入力信号は、最初に単純なSinc補間を使用してNBからWBにリサンプリングされ、次にジェネレーターモデルに供給される。ジェネレーターは、このアップサンプリングされた信号のオリジナルの帯域幅を確実に拡張して、明らかに高い知覚品質を備えた完全なWB構造を取得する。
【0093】
このシステムはCNN-GANと呼ばれる。
【0094】
ここで、実施の形態によるLPC-GANについて説明する。
【0095】
特に、実施の形態による2つのシステムが提供されており、2つの面で畳み込みのものとは異なる:第1に、DNNのアーキテクチャが異なる。第2に、音声信号が励起信号と包絡線に分解される。これは、LPCNet[33]に基づくBBWEにヒントを得たものであるが、いくつかの実施の形態では、これを応用している。信号を励起と包絡線に分解する動機は、LPCnetに基づくBBWE[33]と同じで、システム全体の計算量を削減することにある。
【0096】
図4はシステムのブロック図を示し、図6は励起信号を拡張するDNN帯域幅の1つを詳細に示す。特に、図4は、音声信号を励振信号とLPC包絡線に分解することに基づく提案システムを示す。実線のパスはすべてサンプルで動作し、破線のパスはすべて15msのフレームで動作する。
【0097】
図4では、入力されたNB音声信号を、スペクトル包絡線を表すLPCと励起信号(別名:残差)に分離している。励起信号と入力信号は、WB励起信号への外挿のために最初のDNNに供給される。このパスは、ここでは実線で示されているサンプルで動作する。LPCは、上部のパスで第2のDNNを使ってWB包絡線に外挿される。このパスは15msのフレームで動作し、ここでは破線で示される。LPC係数はIIRフィルタ係数であり、外挿などの操作によってフィルタが不安定になる可能性があるため、LSFドメインで外挿される[48]。LSFは、いくつかの利点があるLPCの全単射変換(bijective transformation)である:第1に、ノイズの乱れに対する感度が低く、係数間の距離が最小のLSFの順序セットにより、常に安定したLPCフィルタが保証される。第2に、特定の周波数でのスペクトル包絡線は、LSFの1つにのみ依存するため、単一のLSF係数の誤った外挿は、主に限られた周波数範囲でのスペクトル包絡線に影響する。これらの特性は、WB包絡線を表すセットに外挿するのに適している。外挿されたLSF係数は、外挿された励起信号を形成するためにLPCドメインに変換され、出力信号を形成する。これは、学習と評価のためにさまざまな方法で実現される。
【0098】
LPC包絡線によって形成された外挿された励起信号は、出力WB信号を形成する。励振信号を外挿するDNNを学習する際には、LPCフィルタを介して勾配を伝搬させる必要があるが、これはLPCフィルタリングを追加のDNN層で行うことで実現できる。LPCフィルタは純粋なIIRフィルタなので、このDNN層はリカレントユニットを持つ層でなければならない。残念ながら、リカレント層を介して勾配を逆伝播すると、勾配が消失し(勾配消失問題[38]とも呼ばれる)、学習が不十分になる。この問題の解決策として、IIRフィルタからの切り捨てられたインパルス応答を計算することにより、IIRフィルタ係数がFIRフィルタ係数に変換される。信号処理から、無限インパルス応答を切り捨てることにより、任意のIIRフィルタをFIRフィルタで近似できることが知られている[34]。そして、LPCシェーピングを畳み込み層で実現することができる。図5は、64サンプルに切り捨てた場合の効果を示す。
【0099】
図5は、12次のIIR LPCフィルタと切り捨てられたインパルス応答から結果として生じるFIRフィルタの伝達関数を示す。
【0100】
IIR LPC包絡線は滑らかであるが、切り捨てられたFIR包絡線には多くのリップルがあり、高周波ではIIR包絡線にうまく追従しない。このため、切り捨てられたインパルス応答を計算する前に、LPC係数に指数関数が乗算される:
【0101】
【0102】
図5では、インパルス応答は64サンプルに切り捨てられている。緑のフィルタはIIRのLPC係数を式(4)で処理したもの、赤のフィルタは何も処理していないものである。
【0103】
初期の実験では、FIR形状の信号にアーティファクトが含まれていることが示されており、アーティファクトはディスクリミネーターによって簡単に識別できる。その結果、敵対的な損失のバランスが取れておらず、ジェネレーターの学習訓練が不十分であった。これは、実際の生成された整形されていない励起信号の敵対的損失を計算することで解決できる。
【0104】
FIRフィルタによるLPCシェーピングは、学習時間中のみ行われる。評価時間中、勾配を逆伝播する必要がないため、LPC係数はIIRフィルタとして適用される。
【0105】
励起信号の外挿には2つの異なるDNNが使用される。第1としては畳み込み層とリカレント層の混合に基づいており、第2としては畳み込みアーキテクチャのみに基づいている。第1については、図6に詳細を示す。
【0106】
図6は、DNNが励起信号を外挿する構造を示したものである。括弧内の信号の形状は、バッチ次元を省略して与えられている。Tは入力信号の長さである。
【0107】
【0108】
最初のCNN層の目的は、1次元の時間領域の信号に特徴的な次元を追加することである。この特徴的な次元はGRU層で必要とされるもので、そうでなければGRUの行列は単純なベクトルに崩れてしまう。CNNは、通常チャンネルと呼ばれるカーネルを並行して動作させることで、特徴的な次元を追加する。その結果、CNN層とGRU層の互換性を保つために256個のチャンネルが必要となる。
【0109】
これにより、計算が非常に複雑になる。これは、チャネルを各16個のチャネルの16個のグループに分割することで防ぐことができる。これは、16チャネルごとに16層を並列に配置するのと同じである。CNN層の構造(カーネルサイズ、ゲートアクティベーションなど)は、例えば、上記の畳み込みBBWEに関して説明したものと同じであり得る。第2のGRU層の出力にはまだ特徴的な次元があるため、カーネルサイズ1の単一の畳み込みカーネルで1次元信号に圧縮される。
【0110】
計算の複雑さの主な要因は、第1のGRUの行列にある。複雑さをさらに軽減するために、学習中にこれらの行列をスパースにすることができる[49]。
【0111】
緻密な行列で初期の学習を繰り返した後、大きさの小さいブロックが特定され、強制的にゼロにされる。ブール行列は、これらのブロックのインデックスを格納する。学習を進めると、望ましいスパースネスが得られるまで、より多くのブロックをゼロにすることができる。[32]と同様に、16x1ブロックが使用されるが、すべての対角項も含まれる。行列に保存されている要素の最終的な割合は次のとおりである:
【0112】
インデックス作成のための計算オーバーヘッドを無視して、このスパース化スキームは、GRUの計算量を90%削減する。図7は、学習後のスパース行列の1つを示す。このシステムはLPC-RNN-GANと呼ばれる。
【0113】
特に、図7は、スパース化後のGRUからの行列の1つを示す。
【0114】
畳み込みアーキテクチャに基づくDNNは、Scで説明したものと同じ構造を持っているだけである。III-Aは3つの構造上の違いがある。第1に、CNNカーネルのサイズが17だけであること、第2に、結果として小さくなった受容野(receptive field)を補うために、このシステムではレイヤーごとに2の拡張係数を持つ拡張畳み込みを使用していることである。第3に、複雑さを軽減するために、このシステムでは、チャネル次元を4つのグループに分割することによって、上述のグループ化を利用する。さらに以下では、これにより、計算の複雑さを約3分の1に減らすことができることを示す。このシステムはLPC-CNN-GANと呼ばれる。
【0115】
LPC包絡線を外挿するDNNも、CNN層と、それに続くGRU層および最終的なCNN層の組み合わせである。CNN層には、カーネルサイズ3の2次元カーネルがあり、現在、過去、および将来のフレームで動作し、システム全体のアルゴリズム遅延の主な原因となる。
【0116】
以下では、実施の形態によるディスクリミネーターについて説明する。
【0117】
ディスクリミネーターは、入力信号の潜在的な表現を抽出する畳み込みエンコーダとして機能し、敵対的な損失を評価する。CNN-GAN、LPC-CNN-GAN、LPC-RNN-GANでは、敵対的な学習のために、畳み込み層で構成された同じディスクリミネーターのアーキテクチャを使用する。安定した敵対的学習は、ディスクリミネーター層(discriminator layers)の畳み込みカーネルにスペクトル正規化を適用することによって達成される[50]。この種の正規化は、リプシッツ条件をディスクリミネーターによって学習された関数に強制する。これは、効果的で安定した敵対的学習手法にとって重要であることがわかった。ディスクリミネーターは条件付き設定[51]で動作するため、入力信号には、チャネル次元に沿ってアップサンプリングされたNB音声波形と連結された実/偽のWB音声波形が含まれる。図8にそのディスクリミネーターを示す。6つの畳み込み層からなり、カーネルサイズは32、ストライドは2ステップである。バイアスは省略されている。アクティベーションには、0:2の負の傾きを持つLeaky ReLUを使用する。
【0118】
特に、図8は、各層には2のストライドで動作する32個のサンプルのカーネルを有する6つの畳み込み層で構成されるGANディスクリミネーターネットワークを示す。層の中の数字は、各層の入力チャンネルと出力チャンネルの次元を表す。
【0119】
条件付け入力は時間領域NB音声であるため、ディスクリミネーターは、オリジナルの波形とは異なる波形で生成された音声を拒否する。BBWEに基づくLPCNetでは、後述するように、生成される波形に対する制約が少ない。生成された波形に対する制約が少ないGANを実現するために、入力として低次元の特徴表現を取得する第2のディスクリミネーターが評価される。特徴は、NB音声で計算されたメル周波数ケプストラム係数(MFCC)[52]である。このディスクリミネーターは、Lp損失がないことと相まって、オリジナルの波形とは異なる波形で生成されていない音声にペナルティを課す傾向がある。
【0120】
ここで、学習の目的に関する考察が示される。
【0121】
この作業で使用される敵対的なメトリックは、ヒンジ損失[53]である:
ここで、D()はディスクリミネーターの生の出力である。Lim et. al.[53]は、最初のGAN論文[36]で用いられた損失やワッサースタイン距離(Wasserstein distance)[54]と比較して、ヒンジ損失はモード崩壊が少なく、より安定した学習挙動を示すことを示した。
【0122】
提案されたシステムを使用した最初の実験では、ヒンジ損失が機能マッチングと同様に機能することが示されている。[30]、[25]ですでに観察されているように、敵対的損失は、サンプルと特徴で計算されたLpノルムによって修正できる。ここでは、時間領域のサンプルで計算されたL1ノルムと、特徴損失Lmelとして、対数のMelエネルギーで計算されたL2ノルムを使用する。ジェネレーターの総損失学習は次のとおりである:
【0123】
以下では、実験のセットアップについて説明される。
【0124】
学習素材として、公開されているいくつかの音声データベース[55]、[56]、[57]や、他の言語の音声アイテムを使用した。合計で13時間の学習素材が使用され、そのすべてがサンプリング周波数16kHzにリサンプリングされた。学習データの無音部分は、音声活性検出(voice-activatiion-detection)[58]を用いて除去した。NBの入力信号はAMR-NBで10.2kbpsで符号化された。目標とするクリーンな音声信号は、以下に示す一次フィルタEであらかじめ強調された。
【0125】
逆(デエンファシス)フィルタDである
が、生成された音声に適用された。この理由は、生成された音声の中で高周波数があまり強調されなくなる可能性のある音声のスペクトルの傾きを補正するためである。12次のLPC包絡線は、ハニング窓でウィンドウ化された128サンプルのフレームに対して、時間領域の自己相関を計算した後、レビンソン再帰を用いて抽出される。その後、上記のLPC-GANに関して説明したように、例えばFIRフィルタに変換される。DNNは、8項目のバッチで学習され、各項目には1秒の音声が含まれる。
【0126】
ジェネレーターとディスクリミネーターの両方の最適化アルゴリズムはAdam[59]で、ジェネレーターの学習率は0.0001、ディスクリミネーターの学習率は0.0004である。より安定した敵対的損失のために、勾配とその二乗の移動平均を計算するために使用される係数(ベータパラメーター)は、それぞれ0.5と0.99に設定される。LPC-RNN-GANのRNN(上記のLPC-GANに関する説明を参照)は通常、CNNよりも学習が遅いため、ジェネレーターとディスクリミネーターの学習率は0.0001に設定される。ジェネレーターを学習するためのベータパラメーターは、0.7と0.99に設定される。式(10)の敵対的損失の量を制御する係数λは0.0015に設定される。GRU層のスパース化は160回目のバッチから始まり、10000回目のバッチで最終的なスパース化が達成される。すべてのCNN層は、学習を高速化し、ネットワークがモード崩壊に陥るのを防ぐために、バッチ正規化で学習される。
【0127】
LSFドメインのLPC係数を外挿する追加のフレームレートネットワークには、10個のCNN層があり、その後に単一のGRUと最後のCNN層が続く。初期のCNN層は、カーネルサイズ3x3、16チャネル、tanhアクティベーション関数、および残余接続を使用した2次元畳み込みである。GRUの行列サイズは16x16で、最終的な畳み込み層は5チャネルで、欠落しているLSF係数の数がNB LSF係数に連結されてWB LSF係数を形成する。
【0128】
以下では、提示されたシステムを[33]のBBWEに基づくLCPNetと比較する。公開されているシステムとは対照的に、LPC包絡線の外挿に使用されるDNNは、ここでは敵対的に学習されている。このために、入力次元を適応させるだけで、同じディスクリミネーターのアーキテクチャが使用されている。
【0129】
すべてのDNNは、パイトーチ(PyTorch)[60]を用いて実装され、学習された。
【0130】
以下では、評価の観点から検討する。実施の形態に基づいて提供されるシステムは、客観的な尺度とリスニングテストによる主観的な尺度によって、以前に発表されたシステムと比較される。計算の複雑さの推定値が与えられ、最先端の音声コーディング技術と比較される。客観的および主観的なテストは、提案されたシステムが以前の技術よりも実質的に優れた品質を提供することを示す。実施の形態によるシステムは、音声認識システムの単語誤り率(Word Error Rate)を低減することが示される。
【0131】
提示されたBBWEの知覚的品質は、これまでスピーチの品質にアクセスするために使用されてきた客観的尺度と、リスニングテストによる主観的尺度によって評価される。さらに、アルゴリズムの遅延と計算の複雑さは、BBWEごとに与えられる。客観的な結果と主観的な結果の相関関係は、主観的な評価を予測するのに十分な力があるかどうかを調べる。
【0132】
計算の複雑さに関して、提案されたBBWEの計算の複雑さは、音声サンプルごとの1秒あたりのWMOPS(Weighted Million Operations per Second)の推定値である。WMOPSは、標準化された音声処理ツールの計算の複雑さ[61]を計算するためのITUユニットである。加算(ADD)、乗算(MUL)、および積和(MAC)演算は、それぞれ1つの演算としてカウントされるが、tanh、シグモイド、またはソフトマックス演算などの複雑な演算は、それぞれ25の演算としてカウントされる。以下では、音声サンプルごとに数値が計算される。この数値にサンプリング頻度を乗じて、WMOPSの推定値を計算する。これは、今日の並列処理アーキテクチャの利点を考慮していない大まかな概算と見なす必要がある。結果は、最先端の標準化された音声コーデックであるEVS[2]、[62]の計算の複雑さとともに表1に要約される。
【0133】
特に、表1は、いくつかの実施の形態、LPCNet-BBWE[33]およびEVS[2]、[62]による提供されたシステムの計算の複雑さおよびアルゴリズムの遅延を示す(EVSは、最先端の標準化された音声コーデックである。)。WMOPSは、計算の複雑さを計算するためのITU標準[61]であり、16kHzのサンプリング周波数で計算される。
【0134】
【表1】
表1
【0135】
【0136】
LPC-RNN-GANおよびLPC-CNN-GANの計算の複雑さについて:上記のLPC-GANに関して述べたように、このシステムには、1次元信号を256チャネルに分割する初期CNN層がある。これらの層は上記と同じCNN層であるが、チャネルが上記のLPC-GANに関して説明したブロックにグループ化されている点が異なる。ここでは、合計256チャネルが各16チャネルの16ブロックにグループ化されている。これは、16個のチャネルを並列に持つ16個のCNN層を持つことと同じである。
【0137】
単一の音声サンプルに対する1つのRNN層の動作は、式(5)で示される。ここでは、Miを入力次元、Mhを出力(または隠れ)次元とする。そして、リセットゲートとアップデートゲート(式の最初の2行)の計算には、それぞれMi*Mh*2のMAC演算とMhのシグモイド演算が必要である。新しいゲート(式の3行目)には、Mi*Mh*2+MhのMAC演算とMhタンジェント双曲線演算(tangents hyperbolicus operations)が必要である。最後に、出力(最後の行)には、Mh*2のMAC演算が必要である。最初の大きなGRU層では、スパース化された行列を使用するため(上記のLPC-GANに関する説明を参照)、演算は縮小された行列サイズで計算される。追加のアドレス指定演算(addressing-operations)によるオーバーヘッドは無視される。第1のGRUでは、すべての行列はMi=Mh=256の正方であり、第2のGRUではMi=256およびMh=32である。
【0138】
最後のCNN層は、出力次元を合計するだけで、32回のADD演算が必要である。LPC-CNN-GANの計算上の複雑さは、上記のように、並列に、チャネル次元がわずか8のこのようなネットワークを4つ持つものとして計算される。
【0139】
評価時には、LPCフィルタは12タップのIIRフィルタとして適用され、1サンプルあたり12回のMAC演算が必要となる。LPCからLSF係数への変換、およびその逆の変換はここでは無視される。なぜなら、これらの変換はフレームベースで行われ、全体的な複雑さへの寄与は小さいと予想されるためである。上記の表1は、使用されたパラメーター化を使用した演算の数をまとめたものである。
【0140】
アルゴリズム遅延に関して、アルゴリズム遅延は、音声サンプルのブロック処理によって引き起こされる、入力音声と処理された出力音声との間のミリ秒単位の理論上の遅延である。CPUまたはGPUの時間は考慮されない。数値は上記の表1に要約される。
【0141】
【0142】
LPC-RNN-GANとLPC-CNN-GANに関して、これらのシステムのアルゴリズム遅延の原因は、初期畳み込み層とLPC処理である。GRU層は、いかなるアルゴリズム遅延を発生させない。4つの畳み込み層のカーネルサイズは16タブで、将来のサンプルで16タブが計算されるため、4ミリ秒の遅延が発生する。したがって、ウィンドウ化された自己相関関数に起因するLPC処理のアルゴリズム遅延は15ミリ秒である。このブロック処理は畳み込み層から独立しているため、システム全体のアルゴリズム遅延の合計は15ミリ秒である。LPC-CNN-GANは、CNN-GANの半分のサイズで拡張が2のカーネルを使用するため、CNN-GANと同じアルゴリズム遅延がある。
【0143】
人間の聴取者によるリスニングテストは、(たとえば、客観的な)知覚品質を評価するための究極の基盤であるが、実施するにはかなりの努力を必要とする。客観的な指標は、簡単に使える代替手段である。ここでは、知覚客観的リスニング品質分析(Perceptual Objective Listening Quality Analysis)、フレシェディープスピーチ距離(Fr´echet Deep Speech Distance)、単語誤り率(Word Error Rate)、および短時間客観的了解度測定(Short-Time Objective Intelligibility measure)の4つの異なる測定が使用される。単語誤り率を除くすべての測定値は、学習セットの一部ではない、約1時間の多言語の複数話者データベースで計算される。
【0144】
知覚客観的リスニング品質分析(POLQA)は、リスニングテストで使用されるのと同じ平均オピニオンスケール(MOS)で符号化された音声信号の知覚品質を予測することを目的とした標準化された方法である[63]。推定結果は図9にまとめられており、LPC-RNN-GANが最高の評価を達成し、次にCNN-GANが続くことを示す。
【0145】
特に、図9は、95%信頼区間でのさまざまなBBWEの知覚客観的リスニング品質分析(POLQA)を示す。値が大きいほど品質が良いことを意味する。
【0146】
GANによって生成された音声や画像の品質を評価することは、難しい課題である。典型的な使用例では、GANはノイズからアイテムを生成するので、比較する基準がないため、Lpノルムに基づくメトリクスは使用できない。
【0147】
フレシェディープスピーチ距離(FDSD)が、例えば、考慮されうる。GANによって作成された画像の品質を評価するための一般的な客観的尺度は、フレシェ開始距離(FID)である[64]。このメトリックは、画像または音声を分類するように学習された異なるDNNの出力に基づいて計算される。生成的モデリングとは対照的に、画像や音声の分類(認識)はすでにかなり精巧に作られており、生成されたデータを分類するDNNの出力のエントロピーから品質の推定値を与える可能性がある。他のすべてのクラスよりも1つのクラスとして強く分類されるアイテムは、品質が高いことを示し、生成されたアイテムの条件付き確率は低いエントロピーを持つ必要がある。さらに、GANは多種多様なアイテムを生成する(モード崩壊を起こさない)必要があるため、分類出力の限界確率分布の積分値は高いエントロピーを持つことが好ましい。[65]の開始距離(ID)は、これを数学的に定式化する。Heusel et.al.[65]は、フレシェ距離に基づく実際のデータの分類結果の分布も使用することにより、これを改善した。
【0148】
【0149】
図10は、さまざまなBBWEのフレシェディープスピーチ距離(FDSD)を示す。値が小さいほど品質が高くなる。
【0150】
単語誤り率に関しては、BBWEは知覚品質を改善するだけでなく、音声の明瞭度[5]、[6]、さらには自動音声認識(ASR)システムのパフォーマンスも改善できる。最先端のASRシステムは、固定サンプリング周波数(主に16kHz)の音声で学習されたDNNに基づく。その結果、音声がNBコーデックでコーディングされている場合、このようなシステムのパフォーマンスは大幅に低下する。最先端のASRシステムの単語誤り率(WER)に対するAMR-NBを使用した音声コーディングの影響と、BBWEがこの影響をどのように軽減できるかを評価する。ここで使用されているASRシステムは、一般的な音声多言語音声コーパス[70]で学習されたコネクショニスト時分類(CTC)損失[69]を備えたディープスピーチシステム[68]に基づくRNNのMozillaのオープン実装である。評価は、このデータベースの評価セットに対して行われる。WERメトリックは、文字起こしされた音声の単語レベルで評価され、次のように計算される:
ここで、Sは置換数、Dは削除数、Iは挿入数、Cは転写の正しい単語の数である。
【0151】
図11は、さまざまなBBWEの単語誤り率(WER)と文字誤り率(CER)を示す。値が小さいほどパフォーマンスが高いことを意味する。特に、図11は、AMR-NBとさまざまなBBWEのASRパフォーマンスを、WERと同様に計算されるが、単語レベルではなく文字レベルで計算される文字誤り率(CER)とともに示す。
【0152】
表2は、最もパフォーマンスの低いアイテムの1つの例を示す。興味深いことに、コード化されていないアイテムの方が平均して良い結果を出しているが、データベースからAMR-NBコード化されたアイテムを使った場合、0:6よりも悪い結果を出す異常値はない。BBWEで処理されたアイテムは、平均WERを改善するが、WERが8:0以上の異常値も生成する。
【0153】
【表2】
【0154】
短時間客観的了解度測定(STOI)に関して、短時間客観的了解度測定(STOI)は、クリーンな時間エネルギー包絡線とBBWE処理された音声サブバンドとの間の線形相関係数の推定値として定義される。これらのサブバンドは、音声信号を50%オーバーラップした256サンプルの長さのハニング窓付きフレームに分割から得られ、各フレームを512サンプルまでゼロパディングしてフーリエ変換した時間-周波数表現に基づいて計算される。15の1/3オクターブバンドは、DFTビンを平均することによって計算される。
【0155】
もともと、この測定値は、10kHzのサンプリング周波数でサンプリングされた音声で計算される。WB音声の品質を評価しているため、この測定値は16kHzに拡張される。
【0156】
図12は、提示されたシステムの結果を示す。
【0157】
特に、図12は、提示されたシステムの短時間客観的了解度測定(STOI)を示す。値が小さいほど、品質が低くなることを意味する。
【0158】
この測定値によると、LPC-RNN-GANが最も優れた性能を発揮し、次いでLPC-CNN-GANとなる。
【0159】
以下では、主観的な知覚品質について検討する。
【0160】
提案されたシステムの知覚的品質を最終的に判断するために、MUSHRAリスニングテスト[71]が実施された。MUSHRAの方法論によれば、テストアイテムには、そのようにマークされた参照、非表示の参照、およびアンカーとして機能するAMR-NBコード化信号が含まれる。12人の経験豊富なリスナーがテストに参加した。テストで使用されるスピーチ項目は約10秒の長さであり、学習の一部でもテストセットでもない。アイテムは、中国語、英語、フランス語、ドイツ語、スペイン語のネイティブスピーカーによる音声を収録している。その結果を、アイテムごとに図13に、全アイテムを平均して図14に、平均値と95%信頼区間を示した箱ひげ図で示した。図15に結果を棒グラフで示す。
【0161】
特に、図13は、アイテムごとに95%の信頼区間を持つ箱ひげ図としてさまざまなBBWEを評価するリスニングテストの結果を示す。
【0162】
図14は、さまざまなBBWEを評価したリスニングテストの結果を、すべてのアイテムで平均した95%信頼区間を持つ棒グラフで示す。
【0163】
図15は、さまざまなBBWEを評価したリスニングテストの結果を、各ユーザーからの評価をウォームプロットで示す。
【0164】
CNN-feat-condとしてマークされたシステムは、ディスクリミネーターに関して上記で説明した機能に基づいた条件付き入力を持つディスクリミネーターで学習されたCNN-GANである。L1損失も学習目標から削除される。
【0165】
結果は、提示されたすべてのシステムが、すべてのアイテムのAMR-NB音声の品質を大幅に向上させることを示す。CNN-feat-condを除いて、提示されたシステムはどれも他のシステムよりも大幅に優れているものはない。傾向的に最良のシステムはLPC-CNN-GANであり、これもCNN-feat-condシステムよりも大幅に優れている。
【0166】
単一のアイテムの結果を調べると、品質はアイテムにかなり依存していることがわかる。LPC-CNN-GANは、常に最高のパフォーマンスを発揮するシステムとは限らない。スペインの女性、ドイツの女性、男性の2つのアイテムの場合、LPCNetベースのシステムが最高のパフォーマンスを発揮する。中国の男性アイテムの場合、LPC-RNN-GANが最高のパフォーマンスを発揮し、スペインの男性アイテムの場合、CNN-GANが最高のパフォーマンスを発揮する。CNN-GANは、ノイズの多いアーティファクトが最も少ないことがよくあるが、摩擦音をうまく再構築できないことがよくある。
【0167】
LPCNetベースのシステムでは、品質のばらつきが特に大きくなる。このシステムでは、非常に高い品質が得られる一方で、クリック感やピッチの不安定さなどの深刻なアーティファクトが発生することがある。一方、GANベースのシステムは、このような深刻なアーティファクトの影響を受けないが、広帯域のクラックリングノイズの影響を受ける。LPCNetベースのシステム、および場合によっては機能調整ベースのシステムは、両方のシステムが生成された波形に課す制約が少ないため、音声の特性を変更する。MUSHRAテストでは、参照が与えられていない絶対カテゴリー評価(ACR)テストなどのさまざまなテスト方法のように、これによりスコアが低くなる可能性がある。
【0168】
客観的尺度が主観的評価をどの程度反映しているかを確認するために、リスニングテストのMOS値との相関を調べる。公正な比較のために、すべての測定値はゼロ平均と標準偏差に正規化される。FDSD、WER、CERは、より良い品質の推定値に対して低い値を与えるため、これらの値は最初に否定される。
【0169】
図16に正規化された値を示し、表3に相関値を示す。
【0170】
特に、図16は正規化された客観的測定値と主観的測定値を示す。
【0171】
【表3】
【0172】
STOIがMOS値と最も高い相関を示し、次にPOLQA、WER、CER.WERが続くが、リスニングテストの結果と同じ次数を持つ唯一の測定値であることがわかる。WER値とFDSD値の違いは奇妙である。なぜなら、どちらの測定値も、同様のネットワーク(DeepSpeechとDeepSpeech 2)の出力に基づいているためである。
【0173】
BBWEを実行するための2つの基本的な異なるアプローチ、つまりGANモデルと自己回帰モデルが比較された。どちらのアプローチも、時間領域の音声の分布など、複雑なデータ分布をモデル化できる生成モデルに依存しており、どちらのアプローチも平滑化の問題に悩まされることはない。
【0174】
どちらのアプローチも、WaveNet(登録商標)[35]のような最先端のモデルと比較して、計算の複雑さが中程度である。
【0175】
LPCNetに基づくBBWEは、計算の複雑さが最も低いモデルである。複雑さが軽減された主な理由は、このモデルが生成された波形に与える制約が少ないことである。LPCNetによって生成される波形は、オリジナルの波形とは大きく異なる可能性があるが、GANに基づくBBWEは、条件付けと敵対的損失およびL1損失との混合により、オリジナルの波形を維持する。残念ながら、条件付けを機能条件付けに変更し、L1損失を削除しても、生成される音声の品質は向上しなかった。
【0176】
LPC-RNN-GANとLPC-CNN-GANは、励起信号の外挿に使用されるDNNが異なる。前者はCNNとRNNの混合に基づいており、後者はCNNのみを使用する。
【0177】
両方のDNNの計算の複雑さはほぼ同じである。パフォーマンスに大きな違いはないが、LPC-CNN-GANのパフォーマンスは傾向的に優れている。さらに、CNNの学習時間は短く、ハイパーパラメータの調整にはそれほど影響を受けない。LPC-RNN-GANは、GAN学習のコンテキストで初めてスパース化を正常に適用する。
【0178】
リスニングテストの結果を客観的な測定値と相関させると、あいまいな結果が得られる。[66]の著者は、FDSD測定が敵対的に生成された音声の品質を推定するのにうまく機能していることを示したが、ここでは提示されたシステム間の小さな違いにアクセスできない。主観的な結果と最もよく相関する尺度は、STOIおよびWERの尺度である。
【0179】
これまでいくつかの側面を装置の文脈で説明してきたが、これらの側面は対応する方法の説明でもあり、ブロックまたは装置が方法のステップまたは方法のステップの特徴に対応していることは明らかである。同様に、方法ステップの文脈で記述された側面は、対応する装置の対応するブロックまたはアイテムまたは機能の記述でもある。方法ステップのいくつかまたはすべては、例えば、マイクロプロセッサ、プログラム可能なコンピュータ、または電子回路などのハードウェア装置によって(または使用して)実行され得る。いくつかの実施の形態では、1つまたは複数の最も重要な方法ステップは、そのような装置によって実行され得る。
【0180】
特定の実装要件に応じて、本発明の実施の形態は、ハードウェアまたはソフトウェアで、あるいは少なくとも部分的にハードウェアで、または少なくとも部分的にソフトウェアで実装することができる。実装は、例えば、フロッピーディスク、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROM、FLASHメモリなどのデジタル記憶媒体であって、その上に格納された電子的に読み取り可能な制御信号を有し、それぞれの方法が実行されるようなプログラム可能なコンピュータシステムと協働する(または協働可能な)デジタル記憶媒体を用いて行うことができる。したがって、デジタル記憶媒体は、コンピュータで読み取り可能であり得る。
【0181】
本発明によるいくつかの実施の形態は、電子的に読み取り可能な制御信号を有するデータキャリアであって、本明細書に記載されている方法の1つが実行されるように、プログラム可能なコンピュータシステムと協働することができるデータキャリアを含む。
【0182】
一般に、本発明の実施の形態は、プログラムコードを備えたコンピュータ・プログラム製品として実施することができ、プログラムコードは、コンピュータ・プログラム製品がコンピュータ上で実行されるときに、方法の1つを実行するために動作可能である。プログラムコードは、例えば、機械読み取り可能なキャリアに格納することができる。
【0183】
他の実施の形態は、本明細書に記載された方法の1つを実行するためのコンピュータ・プログラムを、機械読み取り可能なキャリアに格納したものである。
【0184】
言い換えれば、本発明の方法の実施の形態は、したがって、本明細書に記載された方法の1つを実行するためのプログラムコードを有するコンピュータ・プログラムであって、そのコンピュータ・プログラムがコンピュータ上で実行される場合のものである。
【0185】
したがって、本発明の方法のさらなる実施の形態は、本明細書に記載された方法の1つを実行するためのコンピュータ・プログラムをその上に記録したデータキャリア(またはデジタル記憶媒体、またはコンピュータ読み取り可能な媒体)である。データキャリア、デジタル記憶媒体、または記録媒体は、通常、有形および/または非一時的なものである。
【0186】
したがって、本発明の方法のさらなる実施の形態は、本明細書に記載された方法の1つを実行するためのコンピュータ・プログラムを表すデータストリームまたは信号のシーケンスである。データストリームまたは信号のシーケンスは、例えば、インターネットなどのデータ通信接続を介して伝送されるように構成され得る。
【0187】
さらなる実施の形態は、本明細書に記載された方法の1つを実行するように構成された、または適応された、例えばコンピュータ、またはプログラム可能な論理装置などの処理手段を備える。
【0188】
さらなる実施の形態は、本明細書に記載された方法の1つを実行するためのコンピュータ・プログラムをその上にインストールしたコンピュータを備える。
【0189】
本発明によるさらなる実施の形態は、本明細書に記載された方法の1つを実行するためのコンピュータ・プログラムを受信機に伝送(例えば、電子的または光学的に)するように構成された装置またはシステムを備える。受信機は、例えば、コンピュータ、モバイル機器、記憶装置などである。本装置またはシステムは、例えば、コンピュータ・プログラムを受信機に伝送するためのファイルサーバを構成し得る。
【0190】
いくつかの実施の形態では、本明細書に記載されている方法の一部またはすべての機能性を実行するために、プログラム可能な論理デバイス(例えば、フィールドプログラマブルゲートアレイ)を使用することができる。いくつかの実施の形態では、フィールドプログラマブルゲートアレイは、本明細書に記載の方法の1つを実行するために、マイクロプロセッサと協働することができる。一般に、これらの方法は、好ましくは、任意のハードウェア装置によって実行される。
【0191】
本明細書に記載されている装置は、ハードウェア装置を使用しても、コンピュータを使用しても、あるいはハードウェア装置とコンピュータの組み合わせを使用しても実装することができる。
【0192】
本明細書に記載されている方法は、ハードウェア装置を使用しても、コンピュータを使用しても、またはハードウェア装置とコンピュータの組み合わせを使用しても実行できる。
【0193】
上述した実施の形態は、本発明の原理を例示したものに過ぎない。本明細書に記載の配置および詳細の改良および変形は、当業者には明らかであることが理解される。したがって、本明細書では、差し迫った特許請求の範囲によってのみ制限され、本実施の形態の説明と解説によって提示された特定の詳細によっては制限されないことを意図する。
【0194】
参照文献
[1] International Telecommunication Union, "Pulse code modulation (pcm) of voice frequencies," ITU-T Recommendation G.711, November 1988.

[2] S. Bruhn, H. Pobloth, M. Schnell, B. Grill, J. Gibbs, L. Miao, K. Jaervinen, L. Laaksonen, N. Harada, N. Naka, S. Ragot, S. Proust, T. Sanda, I. Varga, C. Greer, M. Jelinek, M. Xie, and P. Usai, "Standardization of the new 3GPP EVS codec," in 2015 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2015, South Brisbane, Queensland, Australia, April 19-24, 2015, 2015, pp. 5703-5707. [Online]. Available: https://doi.org/10.1109/ICASSP.2015.7179064

[3] S. Disch, A. Niedermeier, C. R. Helmrich, C. Neukam, K. Schmidt, R. Geiger, J. Lecomte, F. Ghido, F. Nagel, and B. Edler, "Intelligent gap filling in perceptual transform coding of audio," in Audio Engineering Society Convention 141, Los Angeles, Sep 2016. [Online]. Available: http://www.aes.org/e-lib/browse.cfm?elib=18465

[4] 3GPP, "TS 26.090, Mandatory Speech Codec speech processing functions; Adaptive Multi-Rate (AMR) speech codec; Transcoding functions," 1999.

[5] P. Bauer, R. Fischer, M. Bellanova, H. Puder, and T. Fingscheidt, "On improving telephone speech intelligibility for hearing impaired persons," in Proceedings of the 10. ITG Conference on Speech Communication, Braunschweig, Germany, September 26-28, 2012, 2012, pp. 1-4. [Online]. Available: http://ieeexplore.ieee.org/document/6309632/

[6] P. Bauer, J. Jones, and T. Fingscheidt, "Impact of hearing impairment on fricative intelligibility for artificially bandwidth-extended telephone speech in noise," in IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2013, Vancouver, BC, Canada, May 26-31, 2013, 2013, pp. 7039-7043. [Online]. Available: https://doi.org/10.1109/ICASSP.2013.6639027

[7] J. Abel, M. Kaniewska, C. Guillaume, W. Tirry, H. Pulakka, V. Myllylae, J. Sjoberg, P. Alku, I. Katsir, D. Malah, I. Cohen, M. A. T. Turan, E. Erzin, T. Schlien, P. Vary, A. H. Nour-Eldin, P. Kabal, and T. Fingscheidt, "A subjective listening test of six different artificial bandwidth extension approaches in english, chinese, german, and korean," in 2016 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2016, Shanghai, China, March 20-25, 2016, 2016, pp. 5915-5919. [Online]. Available: https://doi.org/10.1109/ICASSP.2016.7472812

[8] K. Schmidt and B. Edler, "Blind bandwidth extension based on convolutional and recurrent deep neural networks," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 5444-5448.

[9] K. Schmidt, "Neubildung von unterdrueckten Sprachfrequenzen durch ein nichtlinear verzerrendes Glied," Dissertation, Techn. Hochsch. Berlin, 1933.

[10] M. Schroeder, "Recent progress in speech coding at bell telephone laboratories," in Proceedings of the third international congress on acoustics, Stuttgart, 1959.

[11] Y. Lecun, L. Bottou, Y. Bengio, and P. Haffner, "Gradient-based learning applied to document recognition," Proceedings of the IEEE, vol. 86, no. 11, pp. 2278-2324, Nov 1998.

[12] C. Ledig, L. Theis, F. Huszar, J. Caballero, A. P. Aitken, A. Tejani, J. Totz, Z. Wang, and W. Shi, "Photo-realistic single image super-resolution using a generative adversarial network," CoRR, vol. abs/1609.04802, 2016. [Online]. Available: http://arxiv.org/abs/1609.04802

[13] X. Li, V. Chebiyyam, and K. Kirchhoff, "Speech audio super-resolution for speech recognition," in Interspeech 2019, 20th Annual Conference of the International Speech Communication Association, Graz, Austria, September 15-19, 2019, 09 2019.

[14] P. Jax and P. Vary, "Wideband extension of telephone speech using a hidden markov model," in 2000 IEEE Workshop on Speech Coding. Proceedings., 2000, pp. 133-135.

[15] K. Schmidt and B. Edler, "Deep neural network based guided speech bandwidth extension," in Audio Engineering Society Convention 147, Oct 2019. [Online]. Available: http://www.aes.org/e-lib/browse.cfm? elib=20627

[16] H. Carl and U. Heute, "Bandwidth enhancement of narrow-band speech signals," in Signal Processing VII: Theories and Applications: Proceedings of EUSIPCO-94 Seventh European Signal Processing Conference, September 1994, pp. 1178-1181.

[17] H. Pulakka and P. Alku, "Bandwidth extension of telephone speech using a neural network and a filter bank implementation for highband mel spectrum," IEEE Trans. Audio, Speech & Language Processing, vol. 19, no. 7, pp. 2170-2183, 2011. [Online]. Available: https://doi.org/10.1109/TASL.2011.2118206

[18] K. Li and C. Lee, "A deep neural network approach to speech bandwidth expansion," in 2015 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2015, South Brisbane, Queensland, Australia, April 19-24, 2015, 2015, pp. 4395-4399. [Online]. Available: https://doi.org/10.1109/ICASSP.2015.7178801

[19] P. Bauer, J. Abel, and T. Fingscheidt, "Hmm-based artificial bandwidth extension supported by neural networks," in 14th International Workshop on Acoustic Signal Enhancement, IWAENC 2014, Juan-les-Pins, France, September 8-11, 2014, 2014, pp. 1-5. [Online]. Available: https://doi.org/10.1109/IWAENC.2014.6953304

[20] J. Sautter, F. Faubel, M. Buck, and G. Schmidt, "Artificial bandwidth extension using a conditional generative adversarial network with discriminative training," in ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), May 2019, pp. 7005-7009.

[21] J. Abel, M. Strake, and T. Fingscheidt, "A simple cepstral domain dnn approach to artificial speech bandwidth extension," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 5469-5473.

[22] J. Abel and T. Fingscheidt, "Artificial speech bandwidth extension using deep neural networks for wideband spectral envelope estimation," IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 26, no. 1, pp. 71-83, 2018.

[23] Z. Ling, Y. Ai, Y. Gu, and L. Dai, "Waveform modeling and generation using hierarchical recurrent neural networks for speech bandwidth extension," IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. 26, no. 5, pp. 883-894, May 2018.

[24] A. Gupta, B. Shillingford, Y. M. Assael, and T. C. Walters, "Speech bandwidth extension with wavenet," ArXiv, vol. abs/1907.04927, 2019.

[25] S. Kim and V. Sathe, "Bandwidth extension on raw audio via generative adversarial networks," 2019.

[26] Y. Dong, Y. Li, X. Li, S. Xu, D. Wang, Z. Zhang, and S. Xiong, "A time-frequency network with channel attention and non-local modules for artificial bandwidth extension," in ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp. 6954-6958.

[27] J. Makhoul and M. Berouti, "High-frequency regeneration in speech coding systems," in ICASSP '79. IEEE International Conference on Acoustics, Speech, and Signal Processing, April 1979, pp. 428-431.

[28] N. Kalchbrenner, E. Elsen, K. Simonyan, S. Noury, N. Casagrande, E. Lockhart, F. Stimberg, A. van den Oord, S. Dieleman, and K. Kavukcuoglu, "Efficient neural audio synthesis," CoRR, vol. abs/1802.08435, 2018. [Online]. Available: http://arxiv.org/abs/1802. 08435

[29] S. Li, S. Villette, P. Ramadas, and D. J. Sinder, "Speech bandwidth extension using generative adversarial networks," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 5029-5033.

[30] S. E. Eskimez, K. Koishida, and Z. Duan, "Adversarial training for speech super-resolution," IEEE Journal of Selected Topics in Signal Processing, vol. 13, no. 2, pp. 347-358, 2019.

[31] X. Hao, C. Xu, N. Hou, L. Xie, E. S. Chng, and H. Li, "Time-domain neural network approach for speech bandwidth extension," in ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp. 866-870.

[32] J. Valin and J. Skoglund, "Lpcnet: Improving neural speech synthesis through linear prediction," in ICASSP 2019 - 2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), May 2019, pp. 5891-5895.

[33] K. Schmidt and B. Edler, "Blind bandwidth extension of speech based on lpcnet," in 2020 28th European Signal Processing Conference (EUSIPCO).

[34] L. Rabiner and R. Schafer, Digital Processing of Speech Signals. Englewood Cliffs: Prentice Hall, 1978.

[35] A. van den Oord, S. Dieleman, H. Zen, K. Simonyan, O. Vinyals, A. Graves, N. Kalchbrenner, A. W. Senior, and K. Kavukcuoglu, "Wavenet: A generative model for raw audio," in The 9th ISCA Speech Synthesis Workshop, Sunnyvale, CA, USA, 13-15 September 2016, 2016, p. 125.

[36] I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, and Y. Bengio, "Generative adversarial networks," 2014.

[37] Y. Gu and Z. Ling, "Waveform modeling using stacked dilated convolutional neural networks for speech bandwidth extension," in Interspeech 2017, 18th Annual Conference of the International Speech Communication Association, Stockholm, Sweden, August 20-24, 2017, 2017, pp. 1123-1127. [Online]. Available: http: //www.isca-speech.org/archive/Interspeech 2017/abstracts/0336.html

[38] S. Hochreiter and J. Schmidhuber, "Long short-term memory," Neural Computation, vol. 9, no. 8, pp. 1735-1780, 1997. [Online]. Available: https://doi.org/10.1162/neco.1997.9.8.1735

[39] Y. Gu, Z. Ling, and L. Dai, "Speech bandwidth extension using bottleneck features and deep recurrent neural networks," in Interspeech 2016, 17th Annual Conference of the International Speech Communication Association, San Francisco, CA, USA, September 8-12, 2016, 2016, pp. 297-301. [Online]. Available: https://doi.org/10.21437/ Interspeech.2016-678

[40] J. Chung, C. Guelcehre, K. Cho, and Y. Bengio, "Empirical evaluation of gated recurrent neural networks on sequence modeling," NIPS Deep Learning workshop, Montreal, Canada, 2014. [Online]. Available: http://arxiv.org/abs/1412.3555

[41] A. van den Oord, N. Kalchbrenner, O. Vinyals, L. Espeholt, A. Graves, and K. Kavukcuoglu, "Conditional image generation with pixelcnn decoders," CoRR, vol. abs/1606.05328, 2016. [Online]. Available: http://arxiv.org/abs/1606.05328

[42] W. B. Kleijn, F. S. C. Lim, A. Luebs, J. Skoglund, F. Stimberg, Q. Wang, and T. C. Walters, "Wavenet based low rate speech coding," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 676-680.

[43] Z. Jin, A. Finkelstein, G. J. Mysore, and J. Lu, "Fftnet: A real-time speaker-dependent neural vocoder," in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2018, pp. 2251-2255.

[44] J.-M. Valin and J. Skoglund, "A real-time wideband neural vocoder at 1.6 kb/s using lpcnet," ArXiv, vol. abs/1903.12087, 2019.

[45] A. Mustafa, A. Biswas, C. Bergler, J. Schottenhamml, and A. Maier, "Analysis by Adversarial Synthesis - A Novel Approach for Speech Vocoding," in Proc. Interspeech, 2019, pp. 191-195. [Online]. Available: http://dx.doi.org/10.21437/Interspeech.2019-1195

[46] T. Salimans and D. P. Kingma, "Weight normalization: A simple reparameterization to accelerate training of deep neural networks," in Advances in NeurIPS, 2016, pp. 901-909.

[47] K. He, X. Zhang, S. Ren, and J. Sun, "Deep residual learning for image recognition," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 770-778.

[48] Yao Tianren, Xiang Juanjuan, and Lu Wei, "The computation of line spectral frequency using the second chebyshev polynomials," in 6th International Conference on Signal Processing, 2002., vol. 1, Aug 2002, pp. 190-192 vol.1.

[49] N. Kalchbrenner, E. Elsen, K. Simonyan, S. Noury, N. Casagrande, E. Lockhart, F. Stimberg, A. van den Oord, S. Dieleman, and K. Kavukcuoglu, "Efficient neural audio synthesis," 2018.

[50] T. Miyato, T. Kataoka, M. Koyama, and Y. Yoshida, "Spectral normalization for generative adversarial networks," 2018.

[51] M. Mirza and S. Osindero, "Conditional generative adversarial nets," ArXiv, vol. abs/1411.1784, 2014.

[52] A. Salman, E. Muhammad, and K. Khurshid, "Speaker verification using boosted cepstral features with gaussian distributions," in 2007 IEEE International Multitopic Conference, 2007, pp. 1-5. [53] J. H. Lim and J. C. Ye, "Geometric gan," 2017.

[54] M. Arjovsky, S. Chintala, and L. Bottou, "Wasserstein gan," 2017.

[55] C. Veaux, J. Yamagishi, and K. Macdonald, "Cstr vctk corpus: English multi-speaker corpus for cstr voice cloning toolkit," 2017.

[56] V. Panayotov, G. Chen, D. Povey, and S. Khudanpur, "Librispeech: An ASR corpus based on public domain audio books," in 2015 IEEE International Conference on Acoustics, Speech and Signal Processing, ICASSP 2015, South Brisbane, Queensland, Australia, April 19-24, 2015, 2015, pp. 5206-5210. [Online]. Available: https://doi.org/10.1109/ICASSP.2015.7178964

[57] M. Soloducha, A. Raake, F. Kettler, and P. Voigt, "Lombard speech database for german language," in Proc. DAGA 2016 Aachen, 03 2016.

[58] "Webrtc vad v2.0.10," https://webrtc.org.

[59] D. P. Kingma and J. Ba, "Adam: A method for stochastic optimization," CoRR, vol. abs/1412.6980, 2014.

[60] A. Paszke, S. Gross, F. Massa, A. Lerer, J. Bradbury, G. Chanan, T. Killeen, Z. Lin, N. Gimelshein, L. Antiga, A. Desmaison, A. Kopf, E. Yang, Z. DeVito, M. Raison, A. Tejani, S. Chilamkurthy, B. Steiner, L. Fang, J. Bai, and S. Chintala, "Pytorch: An imperative style, high-performance deep learning library," in Advances in Neural Information Processing Systems 32, H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alche-Buc, E. Fox, and R. Garnett, Eds. Curran Associates, Inc., 2019, pp. 8024-8035. [Online]. Available: http://papers.neurips.cc/paper/9015-pytorch-an-imperative-style-high-performance-deep-learning-library.pdf

[61] ITU-T Study Group 12, Software tools for speech and audio coding standardization, Geneva, 2005.

[62] G. T. 26.445, "EVS codec; detailed algorithmic description; technical specification, release 12," Sep. 2014.

[63] ITU-T Study Group 12, P.863 : Perceptual objective listening quality prediction, Geneva, 2018.

[64] M. Heusel, H. Ramsauer, T. Unterthiner, B. Nessler, G. Klambauer, and S. Hochreiter, "Gans trained by a two time-scale update rule converge to a nash equilibrium," CoRR, vol. abs/1706.08500, 2017. [Online]. Available: http://arxiv.org/abs/1706.08500

[65] T. Salimans, I. Goodfellow, W. Zaremba, V. Cheung, A. Radford,X. Chen, and X. Chen, "Improved techniques for training gans," in Advances in Neural Information Processing Systems, D. Lee, M. Sugiyama, U. Luxburg, I. Guyon, and R. Garnett, Eds., vol. 29. Curran Associates, Inc., 2016, pp. 2234-2242. [Online]. Available: https://proceedings.neurips.cc/paper/2016/file/8a3363abe792db2d8761d6403605aeb7-Paper.pdf

[66] M. Binkowski, J. Donahue, S. Dieleman, A. Clark, E. Elsen, N. Casagrande, L. C. Cobo, and K. Simonyan, "High fidelity speech synthesis with adversarial networks," CoRR, vol. abs/1909.11646, 2019. [Online]. Available: http://arxiv.org/abs/1909.11646

[67] D. Amodei, R. Anubhai, E. Battenberg, C. Case, J. Casper, B. Catanzaro, J. Chen, M. Chrzanowski, A. Coates, G. Diamos, E. Elsen, J. H. Engel, L. Fan, C. Fougner, T. Han, A. Y. Hannun, B. Jun, P. LeGresley, L. Lin, S. Narang, A. Y. Ng, S. Ozair, R. Prenger, J. Raiman, S. Satheesh, D. Seetapun, S. Sengupta, Y. Wang, Z. Wang, C. Wang, B. Xiao, D. Yogatama, J. Zhan, and Z. Zhu, "Deep speech 2: End-to-end speech recognition in english and mandarin," CoRR, vol. abs/1512.02595, 2015. [Online]. Available: http://arxiv.org/abs/1512.02595

[68] A. Y. Hannun, C. Case, J. Casper, B. Catanzaro, G. Diamos, E. Elsen, R. Prenger, S. Satheesh, S. Sengupta, A. Coates, and A. Y. Ng, "Deep speech: Scaling up end-to-end speech recognition," CoRR, vol. abs/1412.5567, 2014. [Online]. Available: http://arxiv.org/abs/1412.5567

[69] A. Graves, S. Fernandez, and F. Gomez, "Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural networks," in In Proceedings of the International Conference on Machine Learning, ICML 2006, 2006, pp. 369-376.

[70] R. Ardila, M. Branson, K. Davis, M. Henretty, M. Kohler, J. Meyer, R. Morais, L. Saunders, F. M. Tyers, and G. Weber, "Common voice: A massively-multilingual speech corpus," CoRR, vol. abs/1912.06670, 2019. [Online]. Available: http://arxiv.org/abs/1912.06670

[71] ITU-R, Recommendation BS.1534-1 Method for subjective assessment of intermediate sound quality (MUSHRA), Geneva, 2003.
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
【外国語明細書】