(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0009】
本開示の実施形態の作成および使用は、以下に詳細に説明される。しかしながら、本明細書に開示される概念は、多様な具体的な状況において実施されることができるとともに、本明細書に記載される具体的な実施形態は単に例示であり、特許請求の範囲を限定するために提供されるものではないことが理解されるべきである。さらに、本明細書において、添付の特許請求の範囲によって定義される本開示の精神および範囲から逸脱することなく、様々な変更、置換および改変が行われることができることは、理解されるべきである。
【0010】
オーディオ信号は典型的に、時間領域または周波数領域のいずれかにおいて符号化される。さらに具体的には、音声データを搬送するオーディオ信号は典型的に、VOICE信号として分類されるとともに、時間領域符号化技術を使用して符号化され、一方、非音声データを搬送するオーディオ信号は典型的に、AUDIO信号として分類されるとともに、周波数領域符号化技術を使用して符号化される。特に、本明細書では、「オーディオ信号」という用語は、サウンドデータ(音声データ、非音声データ等)を搬送する任意の信号を指すために使用され、一方で、本明細書では、「AUDIO信号」という用語は、具体的な信号分類を指すために使用される。オーディオ信号を分類するこの従来の方式は、典型的に、音声データは通常、本質的に周期的であるため、高品質な符号化信号を生成し、従って、時間領域の符号化に対してより順応性を有し、一方で、非音声データは典型的に、本質的に非周期的であり、従って、周波数領域の符号化に対してより順応性を有する。しかしながら、非音声信号の中には、時間領域の符号化を保証するに十分な周期性を示すものもある。
【0011】
本開示の態様は、オーディオ信号の周期性パラメータが閾値を越える場合、非音声データを搬送するオーディオ信号をVOICE信号として再分類する。いくつかの実施形態では、低および/または中ビットレートAUDIO信号のみが、再分類について考慮される。他の実施形態では、全てのAUDIO信号が考慮される。周期性パラメータは、周期性を示す任意の特性または特性のセットを含むことができる。例えば、周期性パラメータは、オーディオ信号におけるサブフレーム間のピッチ差、1つまたは複数のサブフレームに対する正規化ピッチ相関、オーディオ信号に対する平均正規化ピッチ相関、またはそれらの組み合わせを含んでもよい。VOICED信号として再分類されるオーディオ信号は、時間領域において符号化されてもよく、一方で、AUDIO信号として分類されたままのオーディオ信号は、周波数領域において符号化されてもよい。
【0012】
一般的に言うと、最高品質を達成するために、音声信号に時間領域符号化を使用するとともに、音楽信号に周波数領域符号化を使用することが望ましい。しかしながら、非常に周期的な信号のような、いくつかの特定の音楽信号に対しては、非常に高い長期予測(Long-Term Prediction:LTP)のゲイン(gain)から利益を得ることによって、時間領域符号化を使用することが望ましい場合がある。符号化前のオーディオ信号の分類は、従って、注意深く実行されるべきであるとともに、信号のビットレートおよび/または符号化アルゴリズムの特性のような、様々な補助的要因を考慮することによって利益を得ることができる。
【0013】
音声データは典型的には、スペクトルおよび/またはエネルギーが他の信号タイプ(例えば、音楽等)よりも速く変化する、高速に変化する信号によって特徴づけられる。音声信号は、それらのオーディオデータの特性に応じて、UNVOICED信号、VOICED信号、GENERIC信号、またはTRANSITION信号として分類されることができる。非音声データ(例えば、音楽等)は典型的には、そのスペクトルおよび/またはエネルギーが音声信号よりもゆっくりと変化する、ゆっくりと変化する信号として定義される。通常、音楽信号は、AUDIO信号のトーンおよびハーモニック(harmonic)タイプを含んでもよい。高ビットレート符号化に対して、典型的には、非音声信号を符号化するために周波数領域符号化アルゴリズムを使用することが有利であり得る。しかしながら、低または中ビットレート符号化アルゴリズムが使用される場合、周波数領域符号化は低または中ビットレートにおける全周波数帯域を正確に符号化することは不可能であり得るため、強い周期性を示す非音声信号のトーンまたはハーモニックタイプを符号化するために、時間領域符号化を使用することは有利であり得る。換言すると、強い周期性を示す非音声信号を周波数領域において符号化することは、符号化されていないか、または大雑把に符号化されたいくつかの周波数サブバンドを生じ得る。一方、時間領域符号化のCELPタイプは、強い周期性から多くの利益を得ることができるLTP機能を有する。以下の説明では、詳細な実施例を示す。
【0014】
複数のパラメータが初めに定義される。ピッチラグPに対して、正規化ピッチ相関は、しばしば以下のような数理的形式で定義される:
【数1】
【0015】
この式において、S
w(n)は、重み付けされた音声信号であり、分子は相関であり、分母はエネルギー正規化係数である。Voicingが現在の音声フレームにおける4つのサブフレームの平均正規化ピッチ相関値を表すとすると、Voicing = [ R
1(P
1) + R
2(P
2) + R
3(P
3) + R
4(P
4) ] / 4 である。R
1(P
1)、R
2(P
2)、R
3(P
3)およびR
4(P
4)は、現在の音声フレームの各サブフレームに対して計算された4つの正規化ピッチ相関であって、各サブフレームに対するP
1、P
2、P
3およびP
4はP=PIT_MINからP=PIT_MAXまでのピッチ範囲内で見つけられた最善のピッチ候補である。前のフレームから現在のフレームまでの平滑化されたピッチ相関は、以下の式を使用して求めることができる:
【数2】
【0016】
サブフレーム間のピッチ差は、以下の式を使用して定義されることができる:
【数3】
【0017】
オーディオ信号は、初めは、AUDIO信号として分類されるとともに、
図8に示されるアルゴリズムのような、周波数領域符号化アルゴリズムによって符号化されるとする。上述の品質の理由の点から、AUDIOクラスは、VOICEDクラスに変更されることができ、次いで、CELPのような時間領域符号化方法によって符号化されることができる。以下では、信号を再分類するためのCコードの例を示す。
/* 低ビットレートのためのAUDIOからVOICEDへの安全な補正 */
if (coder_type== AUDIO & localVAD==1 & dpit1<=3.f & dpit2<=3.f & dpit3<=3.f & Voicing>0.95f & Voicing_sm>0.97)
{coder_type = VOICED;}
【0018】
従って、低または中ビットレートにおいて、いくつかのAUDIO信号または音楽信号の知覚品質は、符号化の前にVOICED信号としてそれらを再分類することによって改善されることができる。以下では、信号を再分類するためのCコードの例を示す。
ANNEXE C-CODE
/* 低ビットレートのためのAUDIOからVOICEDへの安全な補正 */
voicing=(voicing_fr[0]+voicing_fr[1]+voicing_fr[2]+voicing_fr[3])/4;
*voicing_sm = 0.75f*(*voicing_sm) + 0.25f*voicing;
dpit1 = (float)fabs(T_op_fr[0]-T_op_fr[1]);
dpit2 = (float)fabs(T_op_fr[1]-T_op_fr[2]);
dpit3 = (float)fabs(T_op_fr[2]-T_op_fr[3]);
if( *coder_type>UNVOICED && localVAD==1 && dpit1<=3.f && dpit2<=3.f
&& dpit3<=3.f && *coder_type==AUDIO && voicing>0.95f
&& *voicing_sm>0.97)
{
*coder_type = VOICED;
【0019】
オーディオ信号は、時間領域または周波数領域において符号化されることができる。従来の時間領域パラメトリックオーディオ符号化技術(time domain parametric audio coding technique)は、短い間隔で信号の音声サンプルのパラメータを推定すると同様に、符号化された情報の量を低減させるために、音声/オーディオ信号における固有の冗長性を使用する。この冗長性は、主に、準周期的レートにおける音声波形の繰返しと、音声信号のゆっくり変化するスペクトル包絡(envelop)に起因する。音声波形の冗長性は、有声または無声のような、いくつかの異なるタイプの音声信号に関して考慮されてもよい。有声音に対して、音声信号は、本質的に、周期的である。しかしながら、この周期性は、音声セグメントの期間にわたって可変であってもよく、周期波の形状は通常、セグメントからセグメントに徐々に変化する。時間領域音声符号化は、そのような周期性を探索することから大きな利益を得ることができた。有声音周期はまた、ピッチと呼ばれ、ピッチ予測はしばしば、長期予測(LTP)と名付けられる。無声音に関しては、信号は、よりランダムノイズのようなものであるとともに、より少ない予測可能量を有する。有声音および無声音は、以下のように定義される。
【0020】
いずれの場合においても、パラメトリック符号化は、音声信号の励起(excitation)コンポーネントを、スペクトル包絡コンポーネントから分離することによって、音声セグメントの冗長性を低減するために使用されてもよい。ゆっくりと変化するスペクトル包絡は、短期予測(Short-Term Prediction:STP)とも呼ばれる、線形予測符号化(Linear Prediction Coding:LPC)によって表されることができる。時間領域音声符号化はまた、そのような短期予測を探索することから大きな利益を得ることができた。符号化の利点は、パラメータが変化する遅いレートから生じる。しかし、パラメータが数ミリ秒内に保持されている値から大きく異なることは稀である。従って、8kHz、12.8kHzまたは16kHzのサンプリングレートにおいては、音声符号化アルゴリズムでは、通常のフレーム期間は、10から30ミリ秒の範囲内にあるようである。20ミリ秒のフレーム期間は、最も一般的な選択肢であると思われる。G.723.1、G.729、G.718、EFR、SMV、AMR、VMR-WBまたはAMR-WBのような、より最近の周知の規格においては、符号励振線形予測(Code-Excited Linear Prediction:CELP)技術が採用されてきた。CELPは、一般的に、符号化励起、長期予測および短期予測の技術的な組み合わせとして理解されている。符号励振線形予測(CELP)音声符号化は、異なるコーデックに対するCELPの詳細は大幅に異なる可能性があるが、音声圧縮領域で非常に人気なアルゴリズム原理である。
【0021】
図1は、初期の符号励振線形予測(CELP)エンコーダを示し、合成音声102と原音声101との間の重み付けされた誤差109は、多くの場合、いわゆる合成による分析の方法を使用することによって最小化される。W(z)は、誤差の重み付けフィルタ110である。1/B(z)は、長期線形予測フィルタ105であり、1/A(z)は、短期線形予測フィルタ103である。符号化励起108は、固定コードブック励起とも呼ばれ、線形フィルタを通過する前にゲインG
c107によってスケーリングされる。短期線形フィルタ103は、元の信号101を分析することによって取得され、以下の係数のセットによって表されることができる:
【数4】
【0022】
重み付けフィルタ110は、上述の短期予測フィルタに多少関連している。実施形態の重み付けフィルタは、以下の式によって表される:
【数5】
ここで、β<αであり、0<β<1であり、0<α≦1である。長期予測105は、ピッチおよびピッチゲインに依存する。ピッチは元の信号、残留信号または重み付けされた元の信号から推定されることができる。長期予測機能は主に、以下のように表現されることができる:
B(z) = 1 − g
p・z
-pitch
【0023】
符号化励起108は、通常、パルス状の信号またはノイズ状の信号を有し、数理的に構成されるか、またはコードブック内に保存されることができる。最後に符号化励起のインデックス、量子化されたゲインのインデックス、量子化された長期予測パラメータのインデックスおよび量子化された短期予測パラメータのインデックスは、デコーダに送信される。
【0024】
図2は、初期デコーダを示し、合成音声206の後に後処理ブロック207を追加する。デコーダは、符号化励起201、長期予測203、短期予測205および後処理207を含むいくつかのブロックの組み合わせである。ブロック201、203および205は、
図1のエンコーダの対応するブロック101、103及び105と同様に構成される。後処理はさらに、短期後処理と長期後処理から成っていてもよい。
【0025】
図3は、過去の合成された励起304を含むか、またはピッチ周期で過去の励起ピッチサイクルを繰り返す、適応コードブック307を使用することによって、長期線形予測を実現した、基本的なCELPエンコーダを示している。ピッチラグは、大きいかまたは長い場合に、整数値において符号化されることができる。ピッチラグは、多くの場合、小さいかまたは短い場合に、より正確な小数値において符号化される。ピッチの周期情報は、励起の適応コンポーネントを生成するために採用される。この励起コンポーネントは、次いで、ゲインG
p305(ピッチゲインとも呼ばれる)によってスケーリングされる。2つのスケーリングされた励起コンポーネントは、短期線形予測フィルタ303を通過する前に共に追加される。2つのゲイン(G
pおよびG
c)は、量子化されて、次いでデコーダに送信される必要がある。
【0026】
図4は、
図3におけるエンコーダに対応する基本的なデコーダを示し、合成音声407の後に後処理ブロック408を追加する。このデコーダは、適応コードブック307を含むことを除いて、
図2に示されるデコーダと類似している。デコーダは、符号化励起402、適応コードブック401、短期予測406および後処理408である、いくつかのブロックの組み合わせである。後処理を除く全てのブロックは、
図3のエンコーダにおいて説明されたものと同じ定義を有する。後処理はさらに、短期後処理および長期後処理から成っていてもよい。
【0027】
有声音は強い周期性を有するため、長期予測は有声音符号化に対して重要な役割を果たすことができる。有声音の隣接ピッチサイクルは互いに類似しており、そのことは、e(n) = G
p・e
p(n) + G
c・e
c(n)と表現される場合、この励起表現におけるピッチゲインG
pは、高いか、または1に近いことを数学的に意味する。ここで、e
p(n)は、過去の励起304を有する適応コードブック307から来る、nによって索引付けされたサンプルシリーズの1つのサブフレームであり、e
p(n)は、低周波数領域は多くの場合、高周波数領域に比べてより周期的であるか、またはハーモニックであるようにフィルタリングされた適応ローパスであってもよい。e
c(n)は、現在の励起寄与である、符号化励起コードブック308(固定コードブックとも呼ばれる)からである。e
c(n)はまた、ハイパスフィルタリング強調(enhancement)、ピッチ強調、分散強調、フォルマント強調等のように強調されてもよい。有声音に対して、適応コードブックからのe
p(n)の寄与は優性であることができるとともに、ピッチゲインG
p305は、約1である。励起は、通常、各サブフレームに対してアップデートされる。典型的なフレームサイズは20ミリ秒(ms)であるとともに、典型的なサブフレームサイズは5ミリ秒である。
【0028】
有声音に対して、1つのフレームは、典型的には、2つ以上のピッチサイクルを含む。
図5は、ピッチ周期503がサブフレームサイズ502よりも小さい例を示している。
図6は、ピッチ周期603がサブフレームサイズ602よりも大きく、フレームサイズの半分よりも小さい例を示している。上述のように、CELPは、多くの場合、特定の人間の声質や、または人間の声の発声モデルから利益を得ることによって、音声信号を符号化するために使用される。CELPアルゴリズムは、様々なITU-T、MPEG、3GPPおよび3GPP2規格において使用されてきた非常に人気のある技術である。より効率的に音声信号を符号化するために、音声信号は異なるクラスに分類されてもよいとともに、各クラスは、異なる方法で符号化される。例えば、G.718、VMR-WBまたはAMR-WBのようないくつかの規格においては、音声信号は、UNVOICED、TRANSITION、GENERIC、VOICEDおよびNOISEに分類される。各クラスに対して、LPCまたはSTPフィルタが、スペクトル包絡を表すために使用されてもよいが、LPCフィルタへの励起は異なってもよい。UNVOICEDおよびNOISEは、ノイズ励起およびいくつかの励起強調によって符号化されてもよい。TRANSITIONは、適応コードブックまたはLTPを使用することなく、パルス励起およびいくつかの励起強調によって符号化されてもよい。GENERICは、G.729またはAMR-WBにおいて使用される代数CELP(Algebraic CELP)のような、従来のCELP方式によって符号化されてもよく、そこでは、1つの20ミリ秒フレームは、4つの5ミリ秒サブフレームを含み、適応コードブック励起コンポーネントおよび固定コードブック励起コンポーネントの両方とも、各サブフレームに対するある励起強調によって生成され、第1および第3サブフレームにおける適応コードブックのためのピッチラグは、最小ピッチ限度PIT_MINから最大ピッチ限度PIT_MAXまでの最大範囲において符号化され、第2および第4サブフレームにおける適応コードブックのためのピッチラグは、前の符号化ピッチラグから差動的に符号化される。VOICEDは、GENERICからわずかに異なるような方法において符号化されてもよく、第1サブフレームにおけるピッチラグは、最小ピッチ限度PIT_MINから最大ピッチ限度PIT_MAXまでの最大範囲において符号化され、他のサブフレームにおけるピッチラグは、前の符号化ピッチラグから差動的に符号化され、励起サンプリングレートが12.8kHzであると仮定すると、例えば、PIT_MINの値は、34かまたはそれより短くてもよく、PIT_MAXは231であってもよい。
【0029】
現代のオーディオ/音声のデジタル信号通信システムでは、デジタル信号は、エンコーダにおいて圧縮され、圧縮された情報またはビットストリームはパケット化されるとともに通信チャネルを介してフレームによってデコーダフレームに送信されることができる。結合されたエンコーダおよびデコーダは、多くの場合、コーデックと呼ばれる。音声/オーディオ圧縮は、音声/オーディオ信号を表すビット数を低減するために使用されてもよく、それによって、送信のために必要とされる帯域幅および/またはビットレートを低減する。一般に、より高いビットレートは、より高いオーディオ品質をもたらし、一方、より低いビットレートは、より低いオーディオ品質をもたらす。
【0030】
フィルタバンク技術に基づくオーディオ符号化が広く使用されている。信号処理においては、フィルタバンクは、入力信号を複数のコンポーネントに分割するバンドパスフィルタのアレイであり、前記複数のコンポーネントはそれぞれ、元の入力信号の単一周波数サブバンドを搬送する。フィルタバンクによって行われる分解のプロセスは、分析と呼ばれ、フィルタバンク分析の出力は、フィルタバンク内にフィルタがあるのと同数のサブバンドを有するサブバンド信号と呼ばれる。再構築プロセスは、フィルタバンク合成と呼ばれる。デジタル信号処理では、フィルタバンクという用語はまた、一般に、受信機のバンクに適用され、さらに、低減されたレートで再サンプリングされることができる低い中心周波数にサブバンドをダウンコンバートしてもよい。同じ合成された結果はまた、時々、バンドパスサブバンドをアンダーサンプリングすることによって達成されることができる。フィルタバンク分析の出力は、複素係数の形態であってもよい。各複素係数は、フィルタバンクの各サブバンドに対する余弦項(cosine term)および正弦項(sine term)をそれぞれ表す、実数要素および虚数要素を有する。
【0031】
フィルタバンク分析およびフィルタバンク合成は、時間領域信号を周波数領域係数に変換するとともに、周波数領域係数を時間領域信号に逆変換する変換ペアの一種である。他の一般的な分析技術が、音声/オーディオ信号符号化において使用されてもよく、高速フーリエ変換(Fast Fourier Transform:FFT)および逆FFTや、離散フーリエ変換(Discrete Fourier Transform:DFT)および逆DFTや、離散余弦変換(Discrete cosine Transform:DCT)および逆DCTや、ならびに変形DCT(modified DCT:MDCT)および逆MDCTのような、余弦/正弦変換に基づく合成ペアを有する。
【0032】
信号圧縮または周波数領域オーディオ圧縮に対するフィルタバンクの応用において、いくつかの周波数は、他の周波数よりも知覚的により重要である。分解した後、知覚的に重要な周波数は、これらの周波数における小さな差がこれらの差を保存する符号化スキームを使用することを保証するために知覚的に顕著であるため、細かい分解能によって符号化されることができる。一方、より知覚的に重要でない周波数は正確に複製されず、従って、より細かい詳細のいくつかが符号化中に失われるにもかかわらず、より粗い符号化スキームが使用されることができる。典型的なより粗い符号化スキームは、ハイバンド拡張(High Band Extension:HBE)としても知られている、帯域幅拡張(Bandwidth Extension:BWE)の概念に基づいてもよい。1つの最近人気な特定のBWEまたはHBEの手法は、サブバンドレプリカ(Sub Band Replica:SBR)またはスペクトル帯域複製(Spectral Band Replication:SBR)として知られている。これらの技術は、いくつかの周波数サブバンド(通常ハイバンド)を、ほとんどまたは全くビットレート割当量がなく符号化および復号化するという点で類似していて、それによって、通常の符号化/復号化手法よりも著しく低いビットレートを生み出す。SBR技術によって、高周波数帯域におけるスペクトルの細かい構造は、低周波数帯域からコピーされ、ランダムノイズが追加されてもよい。次に、高周波数帯域のスペクトル包絡は、エンコーダからデコーダに送信される側路情報を使用することによって成形される。
【0033】
オーディオ圧縮の設計のための音響心理学的原理または知覚マスキング効果の使用は、理にかなっている。オーディオ/音声機器または通信は、全ての人間の知覚能力および制限とともに、人間との相互作用を対象とする。従来のオーディオ機器は、元に対して最大限の忠実度で信号を再生しようとする。より適切に指示された、および多くの場合より効率的な目標は、人間によって知覚できる忠実度を達成することである。これは知覚コーダ(perceptual coder)の目標である。デジタルオーディオ知覚コーダの1つの主な目標は、データの削減であるが、知覚符号化は、高度なビット割り当てを介してデジタルオーディオの表現を改善するために使用されることができる。知覚コーダの例の1つは、マルチバンドシステムであることができ、音響心理の臨界帯域を模倣するように、スペクトルを分割する(ボールマン(Ballman) 1991)。人間の知覚をモデル化することによって、知覚コーダは、人間が行うようにはるかに信号を処理することができるとともに、マスキングのような現象を利用することができる。これは目標である一方で、処理は、正確なアルゴリズムに依存する。一般的な人間の聴覚動作をカバーする非常に正確な知覚モデルを有することは難しいという事実によって、知覚モデルのいかなる数学的表現の精度もまだ限度がある。しかしながら、限られた精度で、知覚の概念は、オーディオコーデックの多くの設計を支援してきた。多くのMPEGオーディオ符号化スキームは、知覚マスキング効果を探索することから利益を得てきた。いくつかのITU標準コーデックはまた、知覚概念を使用し、例えば、ITU G.729.1は、知覚マスキング概念に基づいて、いわゆる動的ビット割り当てを行う。知覚の重要度に基づく動的ビット割り当て概念もまた、最近の3GPP EVS コーデックにおいて使用される。
図7Aおよび
図7Bは、典型的な周波数領域の知覚コーデックの簡潔な説明を提供する。入力信号701は初めに、非量子化周波数領域係数702を取得するために、周波数領域に変換される。係数を量子化する前に、マスキング機能(知覚の重要度)は、周波数スペクトルを多くのサブバンド(多くの場合、簡潔のために均等間隔である)に分割する。全てのサブバンドに分配される総ビット数が上限を超えないことを維持している間、各サブバンドは必要なビット数を動的に割り当てる。いくつかのサブバンドは、マスキング閾値よりも下であると判定された場合、さらに0ビットを割り当てる。決定が破棄されることができるものに関して行われると、残りはビットの使用可能数を割り当てられる。ビットは、マスクされたスペクトルに対して浪費されないため、ビットは、より大きな量で信号の残りに分配されることができる。割り当てられたビットに応じて、係数が量子化されるとともに、ビットストリーム703はデコーダに送信される。知覚マスキング概念は、コーデック設計時に多くのことを助けるが、様々な理由および制限のために、まだ完全ではない。デコーダ側の後処理(
図7(b)参照)はさらに、限られたビットレートで生成された復号化された信号の知覚品質を改善することができる。デコーダは初めに、量子化係数705を再構築するために受信されたビット704を使用する。次いで、量子化係数は、向上した係数707を取得するために、適切に設計されたモジュール706によって後処理される。最終的な時間領域出力708を持つために向上した係数に対して逆変換が実行される。
【0034】
低または中ビットレートオーディオ符号化に対して、短期線形予測(STP)および長期線形予測(LTP)は、周波数領域の励起符号化と結合されることができる。
図8は、低または中ビットレートオーディオ符号化システムの簡潔な説明を提供する。原信号801は、量子化されたSTPフィルタおよびLTPフィルタを取得するために、短期予測および長期予測によって分析される。STPフィルタおよびLTPフィルタの量子化されたパラメータは、エンコーダからデコーダに送信される。エンコーダにおいて、信号801は、基準励起信号802を取得するために、逆STPフィルタおよびLTPフィルタによってフィルタリングされる。周波数領域符号化は、非量子化周波数領域係数803を取得するために周波数領域に変換される基準励起信号に対して実行される。係数を量子化する前に、周波数スペクトルは多くの場合、多くのサブバンドに分割されるとともに、マスキング機能(知覚の重要度)が探索される。全てのサブバンドに分配される総ビット数が上限を超えないことを維持している間、各サブバンドは必要なビット数を動的に割り当てる。いくつかのサブバンドは、マスキング閾値よりも下であると判定された場合、さらに0ビットを割り当てる。決定が破棄されることができるものに関して行われると、残りはビットの使用可能数を割り当てられる。割り当てられたビットに応じて、係数が量子化されるとともに、ビットストリーム803はデコーダに送信される。デコーダは、量子化係数806を再構築するために受信されたビット805を使用する。次いで、量子化係数は、向上した係数808を取得するために、適切に設計されたモジュール807によっておそらく後処理される。時間領域励起809を持つために向上した係数に対して逆変換が実行される。最終的な出力信号810は、時間領域励起809をLTP合成フィルタおよびSTP合成フィルタによってフィルタリングすることによって取得される。
【0035】
図9は、本明細書で開示される装置および方法を実施するために使用されてもよい処理システムのブロック図を示す。具体的な装置は、示されるコンポーネントの全てまたはコンポーネントのサブセットのみを使用することができ、統合のレベルは、装置によって異なってもよい。さらに、装置は、複数の処理ユニット、プロセッサ、メモリ、送信機、受信機等のような、コンポーネントの複数のインスタンスを有してもよい。処理システムは、スピーカー、マイクロフォン、マウス、タッチスクリーン、キーパッド、キーボード、プリンタ、ディスプレイ等のような、1つまたは複数の入力/出力装置を備えた処理ユニットを有してもよい。処理ユニットは、バスに接続された中央処理装置(CPU)、メモリ、大容量記憶装置、ビデオアダプタおよびI/Oインタフェースを含んでもよい。
【0036】
バスは、メモリバスまたはメモリコントローラ、周辺バス、ビデオバス等を含む1つまたは複数の任意のタイプの複数のバスアーキテクチャであってもよい。CPUは、任意のタイプの電子データプロセッサを有してもよい。メモリは、スタティックランダムアクセスメモリ(SRAM)、ダイナミックランダムアクセスメモリ(DRAM)、シンクロナスDRAM(SDRAM)、読み出し専用メモリ(ROM)およびそれらの組み合わせ等のような、任意のタイプのシステムメモリを有してもよい。実施形態においては、メモリは、ブートアップにおける使用のためのROM、プログラムのためのDRAMおよびプログラム実行時の使用のためのデータストレージを含んでもよい。
【0037】
大容量記憶装置は、データ、プログラムおよび他の情報を格納するために構成されるとともに、バスを介してデータ、プログラムおよび他の情報をアクセス可能にするように構成された任意のタイプの記憶装置を有してもよい。大容量記憶装置は、例えば、1つまたは複数のソリッド・ステート・ドライブ、ハードディスクドライブ・磁気ディスクドライブおよび光ディスクドライブ等を有してもよい。
【0038】
ビデオアダプタおよびI/Oインタフェースは、外部入力および出力装置を処理ユニットに接続するためのインタフェースを提供する。例示されるように、入力および出力装置の例は、ビデオアダプタに接続されるディスプレイおよびI/Oインタフェースに接続されるマウス、キーボードおよびプリンタを含む。他の装置は、処理ユニットに接続されてもよいとともに、追加のまたはより少ないインタフェースカードが利用されてもよい。例えば、ユニバーサルシリアルバス(USB)(図示されず)のようなシリアルインタフェースは、プリンタのためのインタフェースを提供するために使用されてもよい。
【0039】
処理ユニットはまた、1つまたは複数のネットワークインタフェースを含み、前記1つまたは複数のネットワークインタフェースは、イーサネット(登録商標)ケーブル等のような有線リンク、および/またはノードまたは異なるネットワークにアクセスするための無線リンクを有してもよい。ネットワークインタフェースは、処理ユニットが、ネットワークを介して遠隔ユニットと通信することを可能にする。例えば、ネットワークインタフェースは、1つまたは複数の送信機/送信アンテナおよび1つまたは複数の受信機/受信アンテナを介して無線通信を提供してもよい。実施形態では、処理ユニットは、データ処理のためにローカルエリアネットワークまたは広域ネットワークに接続されるとともに、他の処理ユニット、インターネット、遠隔記憶装置等のような、遠隔装置と通信する。
【0040】
説明は詳細に行われてきたが、添付の特許請求の範囲によって定義されるような本開示の精神および範囲から逸脱することなく、様々な変更、置換および改変が行われることができることは理解されるべきである。さらに、当業者は、本開示から、既存のまたは後に開発される方式、手段、方法またはステップのプロセス、マシン、製品、構成は本明細書で説明される対応する実施形態と実質的に同じ機能を実行する、または実質的に同じ結果を達成することができることを容易に理解することができるため、本開示の範囲は、本明細書に記載される特定の実施形態に限定されるものではない。従って、添付の特許請求の範囲は、そのような方式、手段、方法またはステップのプロセス、マシン、製品、構成を範囲内に含むものである。