(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022017880
(43)【公開日】2022-01-26
(54)【発明の名称】信号処理装置および方法、並びにプログラム
(51)【国際特許分類】
H04S 7/00 20060101AFI20220119BHJP
G10L 21/0272 20130101ALI20220119BHJP
G10L 25/30 20130101ALI20220119BHJP
G10L 25/21 20130101ALI20220119BHJP
【FI】
H04S7/00 300
G10L21/0272 100Z
G10L25/30
G10L25/21
【審査請求】未請求
【請求項の数】15
【出願形態】OL
(21)【出願番号】P 2020120707
(22)【出願日】2020-07-14
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】100121131
【弁理士】
【氏名又は名称】西川 孝
(74)【代理人】
【識別番号】100082131
【弁理士】
【氏名又は名称】稲本 義雄
(74)【代理人】
【識別番号】100168686
【弁理士】
【氏名又は名称】三浦 勇介
(72)【発明者】
【氏名】山本 優樹
【テーマコード(参考)】
5D162
【Fターム(参考)】
5D162AA05
5D162BA07
5D162CB12
5D162CC36
5D162CD11
5D162CD13
5D162EG02
(57)【要約】
【課題】臨場感のあるオーディオ再生を行う。
【解決手段】信号処理装置は、複数の音源信号が含まれている入力オーディオ信号から、音源分離により1または複数の音源信号を抽出する音源分離部と、音源分離の結果に基づいて、抽出された音源信号の位置情報を生成する位置情報生成部と、抽出された音源信号と位置情報をオーディオオブジェクトのデータとして出力する出力部とを備える。本技術は信号処理装置に適用することができる。
【選択図】
図1
【特許請求の範囲】
【請求項1】
複数の音源信号が含まれている入力オーディオ信号から、音源分離により1または複数の前記音源信号を抽出する音源分離部と、
前記音源分離の結果に基づいて、抽出された前記音源信号の位置情報を生成する位置情報生成部と、
抽出された前記音源信号と前記位置情報をオーディオオブジェクトのデータとして出力する出力部と
を備える信号処理装置。
【請求項2】
前記位置情報生成部は、前記音源分離により得られた前記音源信号の音源種別に基づいて、前記位置情報を生成する
請求項1に記載の信号処理装置。
【請求項3】
前記位置情報生成部は、前記音源分離により得られた前記音源信号のチャネル情報に基づいて、前記位置情報を生成する
請求項1に記載の信号処理装置。
【請求項4】
前記位置情報生成部は、前記音源分離により得られた前記音源信号に基づいて前記位置情報を生成する
請求項1に記載の信号処理装置。
【請求項5】
前記位置情報生成部は、決定木モデルまたはニューラルネットワークに基づいて前記位置情報を生成する
請求項1に記載の信号処理装置。
【請求項6】
前記位置情報生成部は、音源種別ごとに学習された前記決定木モデルまたは前記ニューラルネットワークに基づいて前記位置情報を生成する
請求項5に記載の信号処理装置。
【請求項7】
前記入力オーディオ信号から抽出された前記音源信号の数、および前記音源信号の音圧に基づいて、前記位置情報を修正する位置情報修正部をさらに備える
請求項1に記載の信号処理装置。
【請求項8】
前記音源信号および前記位置情報に基づいてサラウンドリバーブ処理を行うことで、新たな前記音源信号および前記位置情報を生成する信号処理部をさらに備える
請求項1に記載の信号処理装置。
【請求項9】
前記音源分離により得られた前記音源信号に対して、スプレッド処理のためのパラメータを生成する信号処理部をさらに備える
請求項1に記載の信号処理装置。
【請求項10】
前記音源信号は、ステレオのオーディオ信号であり、
前記出力部は、前記音源分離により得られたステレオのLチャネルの前記音源信号およびRチャネルの前記音源信号のそれぞれを、1つのオブジェクトの前記音源信号とする
請求項1に記載の信号処理装置。
【請求項11】
前記データを符号化する符号化部をさらに備える
請求項1に記載の信号処理装置。
【請求項12】
前記データに基づいてレンダリング処理を行うレンダリング処理部をさらに備える
請求項1に記載の信号処理装置。
【請求項13】
前記位置情報生成部は、音源種別ごとに異なる方法で前記位置情報を生成する
請求項1に記載の信号処理装置。
【請求項14】
信号処理装置が、
複数の音源信号が含まれている入力オーディオ信号から、音源分離により1または複数の前記音源信号を抽出し、
前記音源分離の結果に基づいて、抽出された前記音源信号の位置情報を生成し、
抽出された前記音源信号と前記位置情報をオーディオオブジェクトのデータとして出力する
信号処理方法。
【請求項15】
複数の音源信号が含まれている入力オーディオ信号から、音源分離により1または複数の前記音源信号を抽出し、
前記音源分離の結果に基づいて、抽出された前記音源信号の位置情報を生成し、
抽出された前記音源信号と前記位置情報をオーディオオブジェクトのデータとして出力する
ステップを含む処理をコンピュータに実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本技術は、信号処理装置および方法、並びにプログラムに関し、特に、臨場感のあるオーディオ再生を行うことができるようにした信号処理装置および方法、並びにプログラムに関する。
【背景技術】
【0002】
従来、MPEG(Moving Picture Experts Group)-H 3D Audio規格が知られている(例えば、非特許文献1および非特許文献2参照)。
【0003】
MPEG-H 3D Audio規格等で扱われる3D Audioでは、3次元的な音の方向や距離、拡がりなどを再現することができ、従来のステレオ再生に比べ、より臨場感のあるオーディオ再生が可能となる。
【先行技術文献】
【非特許文献】
【0004】
【非特許文献1】ISO/IEC 23008-3, MPEG-H 3D Audio
【非特許文献2】ISO/IEC 23008-3:2015/AMENDMENT3, MPEG-H 3D Audio Phase 2
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら3D Audioでの再生においては、音源ごと、すなわちオブジェクトごとにオーディオ信号が分離されており、かつそれらのオブジェクトに対して位置情報が付与されている必要があった。
【0006】
そのため、例えばユーザが既に所有しているステレオ音源など、オブジェクトごとに分離されていないオーディオ信号や、位置情報のないオーディオ信号は3D Audioで再生することができなかった。すなわち、臨場感のあるオーディオ再生を行うことができなかった。
【0007】
本技術は、このような状況に鑑みてなされたものであり、臨場感のあるオーディオ再生を行うことができるようにするものである。
【課題を解決するための手段】
【0008】
本技術の一側面の信号処理装置は、複数の音源信号が含まれている入力オーディオ信号から、音源分離により1または複数の前記音源信号を抽出する音源分離部と、前記音源分離の結果に基づいて、抽出された前記音源信号の位置情報を生成する位置情報生成部と、抽出された前記音源信号と前記位置情報をオーディオオブジェクトのデータとして出力する出力部とを備える。
【0009】
本技術の一側面の信号処理方法またはプログラムは、複数の音源信号が含まれている入力オーディオ信号から、音源分離により1または複数の前記音源信号を抽出し、前記音源分離の結果に基づいて、抽出された前記音源信号の位置情報を生成し、抽出された前記音源信号と前記位置情報をオーディオオブジェクトのデータとして出力するステップを含む。
【0010】
本技術の一側面においては、複数の音源信号が含まれている入力オーディオ信号から、音源分離により1または複数の前記音源信号が抽出され、前記音源分離の結果に基づいて、抽出された前記音源信号の位置情報が生成され、抽出された前記音源信号と前記位置情報がオーディオオブジェクトのデータとして出力される。
【図面の簡単な説明】
【0011】
【
図3】3次元空間における音源配置例を示す図である。
【
図4】オブジェクトデータ生成処理を説明するフローチャートである。
【
図5】3次元空間における音源配置例を示す図である。
【
図6】3次元空間における音源配置例を示す図である。
【
図7】3次元空間における音源配置例を示す図である。
【
図9】オブジェクトデータ生成処理を説明するフローチャートである。
【発明を実施するための形態】
【0012】
以下、図面を参照して、本技術を適用した実施の形態について説明する。
【0013】
〈第1の実施の形態〉
〈信号処理装置の構成例〉
本技術は、1または複数の音源が混合したオーディオ信号を音源分離により音源(オブジェクト)ごとのオーディオ信号に分離させ、音源分離結果に基づいて位置情報を付与することで3D Audioでの再生を行うことができるようにするものである。これにより、より臨場感のあるオーディオ再生を行うことができる。
【0014】
特に本技術では、音源分離技術と3次元自動配置技術とを組み合わせて用いることで、臨場感のあるオーディオ再生を実現できるようにした。
【0015】
音源分離技術とは、複数の音源が混合されたオーディオ信号を、音源ごとのオーディオ信号に分離する技術である。また、3次元自動配置技術とは、音源ごとのオーディオ信号に対して自動的に位置情報を付与する技術である。
【0016】
以下では、ユーザが既に所有しているステレオ音源、つまり左右の2チャネルのオーディオ信号を入力とする場合について具体的に説明する。しかし、これに限らず、入力とするオーディオ信号は、モノラルのオーディオ信号であってもよいし、3以上のマルチチャネルのオーディオ信号であってもよい。
【0017】
図1は、本技術を適用した信号処理装置の一実施の形態の構成例を示す図である。
【0018】
図1に示す信号処理装置11は、音源分離処理部21、位置情報生成部22、および出力部23を有している。
【0019】
音源分離処理部21には、1または複数の音源の音、すなわち1または複数の音源のオーディオ信号が混合されたステレオ等のオーディオ信号が入力オーディオ信号として供給される。この入力オーディオ信号は、所定のオーディオのコンテンツ等を再生するための信号である。
【0020】
音源分離処理部21は、供給された入力オーディオ信号に対して音源分離を行い、その音源分離結果を位置情報生成部22に供給する。
【0021】
例えば音源分離を行うことで、入力オーディオ信号から複数の音源ごとのオーディオ信号が抽出(分離)されるとともに、それらのオーディオ信号に含まれる音の音源種別を示す楽器情報と、オーディオ信号のチャネルを示すチャネル情報が得られる。
【0022】
音源分離処理部21は、このようにして得られた音源ごとのオーディオ信号、楽器情報、およびチャネル情報を音源分離結果として位置情報生成部22に供給する。なお、以下、音源分離により得られた音源ごとのオーディオ信号を音源信号とも称する。
【0023】
位置情報生成部22は、音源分離処理部21から供給された音源分離結果に基づいて、各音源信号に対して位置情報を付与し、音源信号および位置情報を出力部23に供給する。なお、各音源信号の楽器情報やチャネル情報も位置情報生成部22から出力部23に供給されるようにしてもよい。
【0024】
位置情報生成部22では、3次元自動配置技術が用いられて、音源分離結果としての音源信号や楽器情報、チャネル情報から各音源信号の位置情報が生成される。
【0025】
ここで、音源信号の位置情報は、3次元空間における音源の位置、すなわち音源の音の音像定位位置を示す情報である。この位置情報は、例えば基準となる位置から音源までの距離を示す半径、音源の水平方向の位置を示す水平角度、および音源の垂直方向の位置を示す垂直角度からなる。
【0026】
出力部23は、位置情報生成部22から供給された音源信号および位置情報に基づいて、オーディオオブジェクトのデータであるオブジェクトデータを生成し、出力する。
【0027】
例えば出力部23は、1つの音源信号を、1つのオブジェクト(オーディオオブジェクト)のオーディオ信号とするとともに、少なくとも音源信号の位置情報を含むデータをメタデータとして生成する。
【0028】
出力部23は、このようにしてオブジェクトごとに得られた音源信号とメタデータとからなるデータをオブジェクトデータとして出力する。換言すれば、各オブジェクトの音源信号とメタデータがオブジェクトデータとして出力される。
【0029】
なお、メタデータには、位置情報だけでなく、楽器情報やチャネル情報が含まれるようにしてもよい。
【0030】
(音源分離技術について)
次に、音源分離処理部21で用いられる音源分離技術と、位置情報生成部22で用いられる3次元自動配置技術について説明する。
【0031】
まず、音源分離技術について説明する。
【0032】
例えばステレオ音源、すなわちLチャネルとRチャネルの2チャネルのオーディオ信号に音源分離技術を適用すると、音源ごとに分離された複数の2チャネルのオーディオ信号を出力として得ることができる。
【0033】
音源分離により抽出される音源信号の音源種別と数は、音源分離技術によってさまざまであるが、ここでは4種類の音源種別で、各音源種別についてLとRの2チャネル(ステレオ)の音源信号が抽出されるものとする。
【0034】
具体的には、以下では、例えば
図2に示すように、音源分離によって「vocal」、「drums」、「bass」、および「others」の4種類の音源種別の音の音源信号への分離が行われるとする。
【0035】
なお、音源種別「others」とは、「vocal」、「drums」、および「bass」以外の音源であり、例えば「guitar」や「piano」などの音源である。音源種別「others」を示す楽器情報が付与される音源信号には、「vocal」、「drums」、および「bass」以外の1または複数の音源の音の成分が含まれている。
【0036】
図2に示す例では、図中、左側に示すように音源分離処理部21には、複数の音源の成分が混合した2チャネル(ステレオ)の入力オーディオ信号が供給され、その入力オーディオ信号に対して音源分離が行われる。
【0037】
例えば音源分離は、予め学習により生成されたニューラルネットワーク、すなわちニューラルネットワークを実現する係数等のパラメータなどに基づいて行われる。
【0038】
具体的には、音源分離処理部21はニューラルネットワークのパラメータと入力オーディオ信号に基づいて所定の演算を行うことで、入力オーディオ信号から、予め定められた「vocal」、「drums」、「bass」、および「others」の4種類の音源種別の各チャネルのオーディオ信号を音源信号として抽出する。
【0039】
これにより、例えば
図2中、右側に示すように8個の音源信号が得られる。
【0040】
具体的には、音源種別「vocal」のLチャネルとRチャネルの音源信号、音源種別「drums」のLチャネルとRチャネルの音源信号、音源種別「bass」のLチャネルとRチャネルの音源信号、および音源種別「others」のLチャネルとRチャネルの音源信号が得られている。
【0041】
ここで、音源分離処理部21における音源分離では、音源分離後の全ての音源信号を加算すると、入力オーディオ信号が復元される、つまり入力オーディオ信号と全く同じ信号が得られるものとする。
【0042】
また、ここではステレオの入力オーディオ信号を音源分離の入力とし、各音源のステレオの音源信号が出力として得られる場合について説明した。
【0043】
しかし、これに限らず、モノラルやマルチチャネルの入力オーディオ信号を音源分離の入力とし、モノラルやステレオ、マルチチャネル等の任意のチャネル構成の音源信号を出力とする音源分離が行われるようにしてもよい。
【0044】
(3次元自動配置技術について)
次に、3次元自動配置技術について説明する。
【0045】
例えば音源分離により複数の音源種別の2チャネルの音源信号が得られるが、位置情報生成部22では、これらの各音源種別のチャネルごとの音源信号のそれぞれを1つのオブジェクトの信号とみなし、3次元自動配置技術が適用される。
【0046】
ここで、オブジェクトとみなされる各音源信号には、音源分離処理部21での音源分離によって、音源種別「vocal」や「drums」などを示す楽器情報と、LやRなどのチャネルを示すチャネル情報とが付与されている。
【0047】
このように楽器情報とチャネル情報が付与されたオブジェクト(音源信号)に対して、3次元自動配置技術を適用すると、3次元空間における各オブジェクトの位置を示す水平角度と垂直角度が自動的に決定(付与)される。
【0048】
なお、3次元自動配置技術では、オブジェクトの位置を示す半径として、予め定められた値の半径が付与されるようにしてもよいし、オブジェクトごとに異なる半径が付与されるようにしてもよい。
【0049】
3次元自動配置技術の適用方法として、主に2つの適用方法が考えられる。以下、それらの適用方法について説明する。
【0050】
(3次元自動配置技術の適用方法M1)
まず、1つ目の適用方法M1では、音源分離結果として得られる楽器情報とチャネル情報に基づいて、予め学習により得られた決定木モデルにより、各オブジェクト(音源信号)の位置情報を構成する水平角度と垂直角度が決定される。
【0051】
特に、ここでは決定木モデルの入力とされる楽器情報は「vocal」、「drums」、「bass」、および「others」の4種類に限定して学習が行われる。
【0052】
決定木モデルの学習時には、予め複数の3D Audioコンテンツについて収集した、オブジェクトごとの楽器情報およびチャネル情報と、位置情報としての水平角度および垂直角度とが学習用のデータ(学習データ)とされる。
【0053】
そして楽器情報およびチャネル情報を入力とし、位置情報としての水平角度および垂直角度を出力とする決定木モデルの学習が行われる。
【0054】
このようにして得られた決定木モデルを用いれば、各音源(オブジェクト)の位置情報を簡単に決定(予測)することができる。
【0055】
例えば決定木モデルによる位置情報の決定時には、楽器情報が「vocal」であるかなど、楽器情報やチャネル情報といった各情報に基づく判定処理の結果に応じて、その決定木の終端まで連続的に判定が行われていき、最終的な水平角度と垂直角度が決定される。
【0056】
このような決定木モデルを用いれば、楽器情報やチャネル情報などの音源(オブジェクト)ごとに付与される情報から、音源ごとにメタデータを構成する水平角度と垂直角度を決定することが可能である。
【0057】
なお、適用方法M1では、音源信号全体で楽器情報やチャネル情報は変化しないので、各音源(オブジェクト)について決定される位置情報は、音源信号の全体で変化しない。
【0058】
(3次元自動配置技術の適用方法M2)
また、3次元自動配置技術の適用方法M1とは異なる適用方法M2では、音源分離で付与された楽器情報やチャネル情報以外の情報を予測によって求め、それらの情報も入力として用いられて水平角度と垂直角度が決定される。
【0059】
例えば楽器情報やチャネル情報以外の音源(オブジェクト)に関する情報として、残響情報や音響情報、優先度情報などが考えられる。
【0060】
残響情報とは、音源信号に施されたエフェクト等の音響効果のうち、「dry」や「short reverb」などといった音響効果としての残響効果、すなわち残響特性を示す情報である。
【0061】
また、音響情報とは、音源信号に施されたエフェクト等の音響効果のうち、「natural」や「dist」などといった、残響効果以外の音響効果を示す情報である。
【0062】
さらに、優先度情報とはオブジェクトの優先度を示す情報である。
【0063】
これらの残響情報や音響情報、優先度情報をオブジェクト(音源信号)ごとに予測する方法としてはさまざまな方法が考えられる。
【0064】
ここでは一例として、音源信号を入力とし、その音源信号についての残響情報、音響情報、および優先度情報の識別結果を出力するニューラルネットワークが予め学習により生成され、そのニューラルネットワークが用いられるものとする。
【0065】
また、ニューラルネットワークの出力である残響情報、音響情報、および優先度情報と、楽器情報およびチャネル情報とを入力とし、位置情報としての水平角度および垂直角度を出力とする決定木モデルも予め学習される。
【0066】
なお、決定木モデルの入力は、残響情報、音響情報、および優先度情報だけとされてもよい。
【0067】
このような適用方法M2では、ニューラルネットワークの入力となる音源信号に対して、その音源信号の1024サンプルなどの時間区間の単位、つまりフレーム単位で残響情報、音響情報、および優先度情報が決定される。
【0068】
そのため、フレーム単位で変化する残響情報や音響情報を入力として、決定木モデルによりフレーム単位で位置情報を得ることができる。すなわち、決定木モデルから出力される水平角度や垂直角度からなる位置情報が時間とともに変化し得るので、動的なオブジェクトのオブジェクトデータを得ることができる。
【0069】
以上のような適用方法M1や適用方法M2により位置情報を生成すると、例えば
図3に示すように3次元空間上に各オブジェクト(音源)が配置される。
【0070】
図3は、
図2に示した入力オーディオ信号に対して、上述した音源分離および位置情報の予測を行い、その結果得られた位置情報により示される位置にオブジェクトを配置した例を示している。
【0071】
特に、
図3において奥行き方向は入力オーディオ信号に基づく音を受聴する受聴者(ユーザ)の正面方向を示しており、図中の上下左右方向は受聴者から見た上下左右方向となっている。
【0072】
特に、ここでは受聴者から見て左方向、つまり図中、左方向が水平角度の正の方向を示しており、受聴者から見て右方向が水平角度の負の方向を示している。また、受聴者から見て上方向が垂直角度の正の方向を示しており、受聴者から見て下方向が垂直角度の負の方向を示している。
【0073】
この例では、例えば8個の音源信号のオブジェクトOB11乃至オブジェクトOB18が3次元空間上に配置されている。特に、ここでは各楽器情報の1つのチャネルの音源信号が1つのオブジェクトの信号として扱われている。
【0074】
オブジェクトOB11およびオブジェクトOB12は、楽器情報「drums」のLチャネルおよびRチャネルのオブジェクトを表しており、オブジェクトOB13およびオブジェクトOB14は、楽器情報「vocal」のLチャネルおよびRチャネルのオブジェクトを表している。
【0075】
また、オブジェクトOB15およびオブジェクトOB16は、楽器情報「others」のLチャネルおよびRチャネルのオブジェクトを表しており、オブジェクトOB17およびオブジェクトOB18は、楽器情報「bass」のLチャネルおよびRチャネルのオブジェクトを表している。
【0076】
これらのオブジェクトOB11乃至オブジェクトOB18のうち、Lチャネルのオブジェクトは受聴者から見て左側に配置されており、Rチャネルのオブジェクトは受聴者から見て右側に配置されている。また、同じ楽器情報のオブジェクトは、同じ垂直角度で受聴者から見て左右対称に配置されていることが分かる。
【0077】
以上のように適用方法M2では、適用方法M1と比較して音源信号の変化に応じた適切な水平角度と垂直角度の決定が可能となる。
【0078】
なお、楽器情報「others」が付与されたオブジェクト(音源)については、より詳細な楽器情報を予測によって求め、その楽器情報を決定木モデルの入力として用いるようにしてもよい。
【0079】
この場合、例えば音源信号を入力とし、楽器情報(音源種別)を出力とするニューラルネットワーク等を予め学習しておけばよい。また、この場合、予測により得られた残響情報、音響情報、優先度情報なども楽器情報の予測に用いてもよい。
【0080】
このように楽器情報が「others」であるオブジェクトについて、より詳細な楽器情報を予測する方が、楽器情報「others」をそのまま用いる場合と比較して、音源信号の特徴に応じた適切な水平角度と垂直角度を決定することができる。
【0081】
また、例えば音源信号を入力とし、残響情報、音響情報、および優先度情報の識別結果を出力するニューラルネットワークや、残響情報等を入力とし、位置情報としての水平角度および垂直角度を出力とする決定木モデルは、音源信号の音源種別ごと、すなわち楽器情報ごとに学習されるようにしてもよい。
【0082】
さらに、音源種別ごとに異なる方法で位置情報を生成するようにしてもよい。例えば、楽器情報等に応じて、以上において説明した適用方法M1と適用方法M2を切り替えるようにしてもよい。
【0083】
例えば一般的なコンテンツの主な音源成分であり、音源位置が移動しない方が安定すると考えられる楽器情報が「vocal」や「drums」、「bass」である音源信号については適用方法M1により位置情報を生成し、楽器情報「others」の音源信号については適用方法M2により位置情報を生成するようにしてもよい。
【0084】
その他、音源信号自体、または音源信号と楽器情報やチャネル情報を入力とし、音源信号に対応する音源(オブジェクト)の水平角度と垂直角度を出力とするニューラルネットワークなどを、位置情報の生成に用いるようにしてもよい。
【0085】
以上のように、音源分離技術と3次元自動配置技術を組み合わせて用いることで、ステレオ音源などの入力オーディオ信号から、3D Audioで再生可能なオブジェクトデータを得ることができる。換言すれば、ユーザ等が既に有しているステレオ音源でも3D Audio再生を行い、より臨場感のあるオーディオ再生を実現することができる。
【0086】
上述したように、入力オーディオ信号は、ステレオ音源のものに限らず、5.1chや7.1ch等のマルチチャネル音源、モノ音源などのオーディオ信号であってもよい。
【0087】
〈オブジェクトデータ生成処理の説明〉
続いて、
図1に示した信号処理装置11の動作について説明する。すなわち、以下、
図4のフローチャートを参照して、信号処理装置11によるオブジェクトデータ生成処理について説明する。
【0088】
ステップS11において音源分離処理部21は、供給された入力オーディオ信号に対して音源分離を行い、その音源分離結果を位置情報生成部22に供給する。
【0089】
例えばステップS11では、予め学習により得られたニューラルネットワークに入力オーディオ信号が入力されて演算が行われ、音源分離の結果として音源(オブジェクト)ごとの音源信号、楽器情報、およびチャネル情報が得られる。
【0090】
ステップS12において位置情報生成部22は、音源分離処理部21から供給された音源分離結果に基づいて自動配置処理を行う。
【0091】
例えばステップS12では、自動配置処理として、予め学習により得られている決定木やニューラルネットワークが用いられて上述した適用方法M1や適用方法M2の処理が行われ、各オブジェクト(音源信号)の位置情報が生成される。
【0092】
具体的には、例えば位置情報生成部22は、音源信号と、予め学習により得られたニューラルネットワークとに基づいて、音源信号についての残響情報、音響情報、および優先度情報を予測により求める。そして位置情報生成部22は、音源信号について得られた楽器情報、チャネル情報、残響情報、音響情報、および優先度情報と、予め学習により得られた決定木モデルとに基づいて音源(オブジェクト)の位置情報を得る。
【0093】
位置情報生成部22は、自動配置処理により得られた音源信号および位置情報を出力部23に供給する。このとき、位置情報生成部22は、必要に応じて楽器情報やチャネル情報なども出力部23に供給する。
【0094】
ステップS13において出力部23は、位置情報生成部22から供給された音源信号および位置情報に基づいてオブジェクトデータを生成し、出力する。
【0095】
例えば出力部23は、楽器情報「vocal」のLチャネルの音源信号など、1つの音源信号を1つのオブジェクトの信号とし、各オブジェクトの音源信号と、少なくとも位置情報が含まれる各オブジェクトのメタデータとからなるデータをオブジェクトデータとして生成する。このとき、例えばメタデータに位置情報だけでなくチャネル情報や楽器情報などが含まれるようにしてもよい。
【0096】
このようにしてオブジェクトデータが生成されると、出力部23は後段にオブジェクトデータを出力し、オブジェクトデータ生成処理は終了する。
【0097】
以上のようにして信号処理装置11は、音源分離と自動配置処理を組み合わせて行うことで、ステレオ音源等のそのままでは3D Audio再生ができないオーディオ信号から、3D Audio再生が可能なオブジェクトデータを生成して出力する。このようにすることで、より臨場感のあるオーディオ再生を行うことができる。
【0098】
〈第2の実施の形態〉
〈その他の技術の適用〉
ところで、第1の実施の形態において説明したように、音源分離技術と3次元自動配置技術とを適用することで、ステレオ音源等の入力オーディオ信号を3D Audioで再生することが可能となる。
【0099】
これに加えて、以下において説明する技術(処理)を適用すれば、3D Audio再生時における音質を向上させることができる。
【0100】
そのような音質を向上させるための技術(処理)は、例えば人工的なノイズの低減処理と、音像を広げる処理である。
【0101】
(人工的なノイズの低減処理)
まず、これらの処理のうち、人工的なノイズの低減処理について説明する。この人工的なノイズの低減処理は、オブジェクト(音源)の3次元自動配置によって、音源分離により生じる人工的なノイズを知覚させにくくする技術である。
【0102】
音源分離を行うと、その結果として得られるオーディオ信号には、ミュージカルノイズなどの人工的なノイズ(以下、人工ノイズとも称する)が発生することがあり、このノイズには、以下のような2つの特徴F1および特徴F2がある。
【0103】
(特徴F1)
入力されるオーディオ信号に含まれる音源の数が少ないほど、分離後のノイズが目立つ
【0104】
(特徴F2)
分離された全ての音源の配置位置を近づけるほどノイズが目立たなくなる
【0105】
例えば人工ノイズが特徴F1を有するのは、音源の数が少ないほど人間はノイズを知覚しやすいためである。
【0106】
また、本技術の音源分離では、音源分離後の複数のオーディオ信号を全て加算すると、音源分離の入力となったもとのオーディオ信号が復元されるため、人工ノイズは特徴F2を有している。
【0107】
そこで、これらの特徴を利用して、以下において説明する処理を人工ノイズの低減処理として行うことで、人工的なノイズを知覚させにくくすることができる。
【0108】
人工ノイズの低減処理では、まず、以下の式(1)により分離後の複数の各音源信号の音圧level(iobj)が計算される。
【0109】
【0110】
式(1)においてiobjは音源分離後の音源のインデックスを示しており、isampleは音源信号のサンプルのインデックスを示している。
【0111】
また、pcm(iobj, isample)は、インデックスがiobjである音源の音源信号のisample番目のサンプルのサンプル値を示している。さらに、nsampleは、音源信号の全サンプル数を示している。
【0112】
次に、各音源信号の音圧level(iobj)に対して、所定の閾値thre1に基づく閾値処理が行われ、音圧level(iobj)が閾値thre1以上である音源(音源信号)の数(以下、有効音源数とも称する)がカウントされる。
【0113】
ここでは、閾値thre1は例えば-70dBなどとされる。この例においては、音圧level(iobj)が閾値thre1以上である音源信号が、実質的に音源成分が含まれている信号であるとされ、入力オーディオ信号に実質的に含まれている音源成分の数を示す有効音源数が求められる。
【0114】
このようにして有効音源数が得られると、その有効音源数が全音源数で除算され、その除算結果の値が音源比ratioとして求められる。
【0115】
ここで、全音源数とは、音源分離を行うにあたり、入力オーディオ信号に含まれているとされる音源の数である。
【0116】
具体的には、上述の例では、入力オーディオ信号から「vocal」、「drums」、「bass」、および「others」の各音源種別について、ステレオのチャネルごとの音源信号が音源分離により抽出されるため、そのような例では全音源数は8となる。
【0117】
音源比ratioは、有効音源数と全音源数の比であるから、有効音源数が多いほど、入力音源信号には、より多くの音源成分が含まれていることになる。
【0118】
人工ノイズの低減処理では、このようにして求めた音源比ratioと、予め定められた所定の閾値thre2とが比較される。ここでは、例えば閾値thre2は0.5などとされる。
【0119】
そして、音源比ratioが閾値thre2より大きい場合には、入力オーディオ信号に含まれている音源数は十分に多いため、音源信号の人工ノイズは目立たないと考えられるので、特に人工ノイズを低減させるための処理は行われない。
【0120】
これに対して、例えば音源比ratioが閾値thre2以下である場合には、上述の特徴F2を利用して人工ノイズを低減させるために、音源比ratioに応じて以下の式(2)乃至式(5)により、音源分離後の全ての音源の水平角度と垂直角度が修正される。
【0121】
すなわち、インデックスがiobjである音源(音源信号)の位置情報により示される水平角度azimuth(iobj)が0度以上である場合、式(2)に示すように水平角度が修正される。また、水平角度azimuth(iobj)が0度未満である場合には、式(3)に示すように水平角度が修正される。
【0122】
【0123】
【0124】
なお、式(2)および式(3)において、azimuth(iobj)は、インデックスがiobjである音源の修正前の水平角度、つまり位置情報生成部22において3次元自動配置技術により生成された位置情報を構成する水平角度を示している。
【0125】
また、azimuthnew(iobj)は、インデックスがiobjである音源の修正後の水平角度、つまり水平角度azimuth(iobj)を修正することにより得られた水平角度を示している。
【0126】
さらに、式(2)および式(3)において、azimuthrefは、例えば30度などの予め定められた水平角度である。
【0127】
水平角度と同様に、インデックスがiobjである音源(音源信号)の位置情報により示される垂直角度elevation(iobj)が0度以上である場合、式(4)に示すように垂直角度が修正される。また、垂直角度elevation(iobj)が0度未満である場合には、式(5)に示すように垂直角度が修正される。
【0128】
【0129】
【0130】
なお、式(4)および式(5)において、elevation(iobj)は、インデックスがiobjである音源の修正前の垂直角度、つまり位置情報生成部22において3次元自動配置技術により生成された位置情報を構成する垂直角度を示している。
【0131】
また、elevationnew(iobj)は、インデックスがiobjである音源の修正後の垂直角度、つまり垂直角度elevation(iobj)を修正することにより得られた垂直角度を示している。
【0132】
さらに、式(4)および式(5)において、elevationrefは、例えば0度などの予め定められた垂直角度である。
【0133】
音源比ratioについては、その音源比ratioの値が小さいほど、入力オーディオ信号に含まれる音源成分の数が少ないことを意味しており、上述の特徴F1から、音源比ratioが小さいほど、音源信号に含まれる人工ノイズが目立ってしまう。
【0134】
そこで式(2)や式(3)に示す位置情報の水平角度の修正では、特徴F2が利用されて、音源比ratioが小さいほど音源分離後の全ての音源(オブジェクト)の水平角度がazimuthrefまたは-azimuthrefに近くなるように修正される。
【0135】
同様に、式(4)や式(5)に示す位置情報の垂直角度の修正では、音源比ratioが小さいほど音源分離後の全ての音源(オブジェクト)の垂直角度がelevationrefまたは-elevationrefに近くなるように修正される。
【0136】
特に、式(2)乃至式(5)においては、音源比ratioと閾値thre2の比であるratio/thre2は、音源の位置をどれだけazimuthrefや-azimuthref、elevationref、-elevationrefに近づけるかを示している。
【0137】
このようにして各音源(オブジェクト)の位置情報を修正すれば、結果として音源分離後の各音源が3次元空間上のより近い位置に配置されるようになる。これにより、音源分離により生じてしまう人工的なノイズが知覚されにくくなる。換言すれば、人工的なノイズが低減されることになる。
【0138】
例えば音源分離により得られた8個の音源信号について、位置情報生成部22において3次元自動配置技術により位置情報を生成した結果、各音源が
図3に示した位置に配置されたとする。
【0139】
そして、それらの8個の音源信号の位置情報に対して、式(2)乃至式(5)による修正を行うと、例えば
図5に示すように各音源(オブジェクト)の配置位置が修正される。なお、
図5において
図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
【0140】
図5に示す例では、
図3における場合と同様に、8個の音源信号のオブジェクトOB11乃至オブジェクトOB18が3次元空間上に配置されている。
【0141】
図3における例と、
図5における例とを比較すると、
図5における例では、各オブジェクト間の距離が
図3における場合よりも短く、人工的なノイズが知覚されにくくなっていることが分かる。
【0142】
具体的には、
図3において受聴者から見て左側に位置しているオブジェクト、つまり位置情報を構成する水平角度が0度以上であるオブジェクトは、水平角度および垂直角度が(azimuth
ref,elevation
ref)=(30,0)である位置に近づくように位置の修正が行われる。
【0143】
その結果、
図5ではオブジェクトOB11、オブジェクトOB13、オブジェクトOB15、およびオブジェクトOB17は、所定の基準となる位置(azimuth
ref,elevation
ref)=(30,0)に寄せられており、人工的なノイズが低減されることが分かる。
【0144】
同様に、
図3において受聴者から見て右側に位置しているオブジェクト、つまり位置情報を構成する水平角度が0度未満であるオブジェクトは、水平角度および垂直角度が(-azimuth
ref,elevation
ref)=(-30,0)である位置に近づくように位置の修正が行われる。
【0145】
その結果、
図5ではオブジェクトOB12、オブジェクトOB14、オブジェクトOB16、およびオブジェクトOB18は、所定の基準となる位置(-azimuth
ref,elevation
ref)=(-30,0)に寄せられており、人工的なノイズが低減されることが分かる。
【0146】
(音像を広げる処理)
続いて、音質を向上させるための処理である音像を広げる処理について説明する。
【0147】
通常、同じ空間で複数の音源が鳴る場合、すなわち複数の音源から音が出力される場合、それらの音源からの音は空間内に存在する壁や天井で反射するため、その空間内にいる人間(受聴者)は前後左右上下の様々な方向から到来する音を知覚する。
【0148】
一方で、信号処理装置11での処理、すなわち例えばステレオ音源の入力オーディオ信号を3D Audio再生のための各音源の音源信号へと変換する処理では、それらの音源信号に基づき各音源の音を再生しても、各音源の音はそれらの音源が配置された方向からしか聞こえない。つまり、受聴者には各音源の直接音しか聞こえず、残響音(反射音)は聞こえないことになる。
【0149】
したがって、各音源信号に基づきコンテンツを再生しても、受聴者には同じ空間で音源からの音が出力されているようには聞こえず、臨場感のない不自然な聞こえ方になってしまうことがある。すなわち、場合によっては十分な臨場感を得ることができず、音質が劣化してしまうことがある。
【0150】
そこで、このような音質の劣化を抑制することを目的として音像を広げる処理が行われる。特に、ここでは音像を広げる処理の例として、2つの処理について説明する。
【0151】
(サラウンドリバーブ処理)
まず、音像を広げる処理の1つ目の例としてサラウンドリバーブ処理を説明する。
【0152】
サラウンドリバーブ処理を行うにあたっては、予めインパルス応答を準備しておく必要がある。
【0153】
例えば予め定められた所定の3次元空間で、予め定められた複数の再生位置からインパルスやTSP(Time Stretched Pulse)信号等の測定用信号を再生し、その測定用信号を複数のインパルス応答測定位置で録音(収音)することでインパルス応答が求められる。
【0154】
この場合、インパルス応答の測定が行われる3次元空間は、コンテンツにおける各音源が存在していると想定される空間である。
【0155】
例えばインパルス応答測定時の測定用信号の再生位置がM箇所であり、インパルス応答測定位置がN箇所であるとすると、1つの3次元空間について(M×N)個のインパルス応答が得られることになる。なお、インパルス応答を準備する3次元空間は1つであってもよいし、複数の3次元空間ごとにインパルス応答を準備するようにしてもよい。
【0156】
ここで、音源(オブジェクト)の配置位置が所定の再生位置にあり、インパルス応答測定位置を音源からの音の反射位置に対応する仮想スピーカの位置であるとみなして、インパルス応答と音源信号に基づいてフィルタリング処理を行えば、疑似的なリバーブ(残響)成分の信号を得ることができる。
【0157】
3次元空間ごとに(M×N)個のインパルス応答が用意されると、それらのインパルス応答が用いられてサラウンドリバーブ処理が行われる。
【0158】
すなわち、例えば処理対象となる1つの音源信号が選択されると、M個の再生位置のなかから、処理対象の音源信号の位置情報により示される位置に最も近い再生位置が探索される。
【0159】
そして、探索結果として得られた再生位置について準備されたN個のインパルス応答が読み出され、それらのインパルス応答をフィルタ係数として、処理対象の音源信号とフィルタ係数とに基づきフィルタリング処理が行われる。
【0160】
フィルタリング処理は、N個のインパルス応答ごとに行われるため、その処理結果として、N個のオーディオ信号が得られることになる。
【0161】
このようにして得られたN個の各オーディオ信号は、リバーブ成分に対応するリバーブオブジェクトの音源信号とされ、それらの音源信号の位置情報として、対応するインパルス応答のインパルス応答測定位置を示す情報が生成される。
【0162】
これにより、1つのオブジェクト(音源)の音源信号に対して、N個のリバーブオブジェクトの音源信号とその位置情報が新たに生成されたことになる。
【0163】
サラウンドリバーブ処理では、以上の処理が音源(音源信号)ごとに行われる。そして、それらのもとの音源の音源信号だけでなく、それらの音源ごとに生成されたリバーブオブジェクトの音源信号も追加で生成されたオブジェクトの音源信号として後段に出力される。
【0164】
したがって、例えばもとの音源(オブジェクト)の音源信号が8個であったとすると、サラウンドリバーブ処理により、基本的には合計8(N+1)個のオブジェクトの音源信号と位置情報が得られることになる。
【0165】
なお、より詳細にはサラウンドリバーブ処理で生成されたリバーブオブジェクトの音源信号は、所定のゲイン値によりゲイン調整(ゲイン補正)が行われて最終的なリバーブオブジェクトの音源信号とされる。これは、リバーブオブジェクトの音源信号に基づく音を、もとの音源の音源信号に基づく音よりも小さくすることで、より自然な音の聞こえ方になるためである。
【0166】
また、もとの音源は異なるが位置情報により示される位置、つまりインパルス応答測定位置が同じであるリバーブオブジェクトが複数ある場合、それらの複数のリバーブオブジェクトの音源信号が足し合わせられて1つのリバーブオブジェクトの音源信号とされる。
【0167】
以上のようなサラウンドリバーブ処理を行うことで、受聴者には、1つの音源について複数の異なる方向から音が到来しているように聞こえ、上述の不自然な音の聞こえ方を解消し、音質を向上させることができる。換言すれば、より高い臨場感を得ることができる。
【0168】
しかも、このようなサラウンドリバーブ処理を行ってコンテンツの音にリバーブ成分を付加することで、上述した人工的なノイズも目立たなくなり、さらに音質を向上させることができる。
【0169】
なお、サラウンドリバーブ処理を行うためには、3次元空間について予め用意した(M×N)個のインパルス応答をメモリに保持しておく必要があるが、再生位置の数Mやインパルス応答測定位置の数Nは、どのようにして定めてもよい。
【0170】
例えば再生位置の数Mやインパルス応答測定位置の数Nが多くなると、インパルス応答を保持しておくために必要となるメモリサイズが大きくなる。また、例えばインパルス応答測定位置の数Nが多くなると、その分だけリバーブオブジェクトの数が増えるので、サラウンドリバーブ処理やその後段での処理量が多くなる。
【0171】
また、リバーブオブジェクトの音源信号のゲイン値は、大きいほどリバーブ効果は高くなる。このゲイン値は、例えば0.05など、全てのオブジェクト(音源)で固定の値としてもよいし、オブジェクトごとに異なる値としてもよい。
【0172】
さらに、オブジェクト(音源)の楽器情報に応じて、サラウンドリバーブ処理を行うか否かを切り替えることができるようにしてもよい。
【0173】
例えば、コンテンツの主たる音源成分である楽器情報「vocal」の音源の音源信号に対してのみサラウンドリバーブ処理を行うようにすれば、全体として音質を向上させつつ処理量も少なく抑えることができる。
【0174】
この場合、例えば
図3に示した音源配置の各音源信号のうち、楽器情報「vocal」の音源信号に対してのみサラウンドリバーブ処理を行うと、例えば
図6に示すように新たなリバーブオブジェクトが生成される。なお、
図6において
図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
【0175】
図6の例では、もとからあるオブジェクトOB11乃至オブジェクトOB18の配置位置は、
図3に示した例と同じとなっている。
【0176】
図6では、これらのもとからあるオブジェクトに加えて、リバーブオブジェクトであるオブジェクトOB21乃至オブジェクトOB24がさらに生成されている。
【0177】
すなわち、楽器情報「vocal」のLチャネルのオブジェクトOB13、および楽器情報「vocal」のRチャネルのオブジェクトOB14に対して、リバーブオブジェクトであるオブジェクトOB21乃至オブジェクトOB24が生成されている。
【0178】
特に、オブジェクトOB21乃至オブジェクトOB24のそれぞれには、オブジェクトOB13に対応する音源信号の成分と、オブジェクトOB14に対応する音源信号の成分とが含まれている。
【0179】
このように、オブジェクトOB13やオブジェクトOB14といった1つのオブジェクトに対して、リバーブオブジェクトであるオブジェクトOB21やオブジェクトOB22などが生成される。
【0180】
このようにすれば、もとの音源からの音が複数方向から受聴者に到来することになり、結果として音源からの音の音像が広がったことになる。すなわち、サラウンドリバーブ処理は音像を広げる処理であるということができる。
【0181】
以上のようなサラウンドリバーブ処理により、もとの音源の音像を広げ、音質を向上させることができる。
【0182】
(スプレッド処理)
次に、音像を広げる処理の2つ目の例として、スプレッド処理について説明する。
【0183】
以下において説明するスプレッド処理は、サラウンドリバーブ処理を行う場合よりも、より少ない処理量で音質を向上させることができる。
【0184】
スプレッド処理は、spreadと呼ばれるパラメータ(情報)を用いてスプレッド成分の位置情報を生成し、その位置情報により示される位置にも音像が定位するようにVBAP(Vector Base Amplitude Panning)等のレンダリング処理を行うことで、音像を広げる処理である。
【0185】
なお、スプレッド処理については、例えば「ISO/IEC 23008-3, MPEG-H 3D Audio」や「ISO/IEC 23008-3:2015/AMENDMENT3, MPEG-H 3D Audio Phase 2」などに詳細に記載されている。
【0186】
このようなスプレッド処理を行えば、各音源の音像を広げることができ、上述の不自然な音の聞こえ方を解消し、音質を向上させることができる。換言すれば、より高い臨場感を得ることができる。しかも、上述した人工的なノイズを目立たなくすることができ、さらに音質を向上させることができる。
【0187】
ここで、スプレッド処理について説明する。
【0188】
音像の広がり度合いを示すspreadは、例えば0度から180度までの任意の角度を示す角度情報とされ、このようなspreadが用いられてレンダリング処理が行われる。
【0189】
例えば、1つの音源信号に対してspreadが与えられると、その音源信号の位置情報により示される位置を中心とする円や楕円などの領域(以下、音像領域とも称する)が定まる。ここで、受聴者の位置から音像領域の中心までのベクトルと、受聴者の位置から音像領域の端までのベクトルとのなす角度がspreadにより示される角度となるようにされる。
【0190】
次に、受聴者の位置から音像領域の中心までのベクトルを含む、受聴者の位置から音像領域内の所定の複数の各位置までのベクトルがspreadベクトルとされる。
【0191】
また、このようにして得られた複数の各spreadベクトルについて、spreadベクトルにより示される位置に音像が定位するような複数の各スピーカのゲイン値、すなわちVBAPゲインがVBAPにより算出される。
【0192】
そして、同じスピーカについて算出された、複数のspreadベクトルにより示される位置ごとのVBAPゲインが加算され、加算後のVBAPゲインが正規化されて、最終的なVBAPゲインとされる。
【0193】
スピーカごとにVBAPゲインが求められると、スピーカについて求められたVBAPゲインがオブジェクトのオーディオ信号、すなわちここではオブジェクト(音源)の音源信号に乗算され、その結果得られたオーディオ信号がスピーカに対応するチャネルのオーディオ信号とされる。
【0194】
このようにして得られた各スピーカのオーディオ信号に基づき、それらのスピーカから音を出力すれば、オブジェクト(音源)の音が上述の音像領域全体に定位するように、オブジェクトの音が再生される。つまり、オブジェクトの音が音像領域全体に広がって定位する。
【0195】
以上のようなスプレッド処理では、spreadの値が大きいほど、スプレッド効果、つまり音像の広がり度合いは大きくなる。
【0196】
信号処理装置11の後段でスプレッド処理を行う場合には、例えば信号処理装置11において自動的にspreadを付与すればよい。
【0197】
この場合、各オブジェクト(音源信号)に対して付与されるspreadの値は、例えば30度など、全オブジェクトで固定の値としてもよいし、オブジェクトごとに異なる値とされてもよい。
【0198】
例えばオブジェクトごとに異なるspreadが付与される場合、spreadの値は、楽器情報により示される音源種別に対して予め定められた値とされるなど、楽器情報や音源信号の音圧、優先度情報、残響情報、音響情報などに基づいて決定されてもよい。
【0199】
また、楽器情報などに基づいて、オブジェクト(音源)ごとにスプレッド処理を行うか否かを切り替えられるようにしてもよい。
【0200】
さらに、スプレッド処理は、以上において説明した処理に限らず、単純にオブジェクトをコピー(複製)して追加する処理などであってもよい。
【0201】
ここで、一例として楽器情報「others」のオブジェクト(音源)について、そのオブジェクトをコピーして音像を広げる処理について説明する。
【0202】
そのような場合、楽器情報が「others」以外であるオブジェクトに対しては、音像を広げるための新たなオブジェクトは生成されない。
【0203】
これに対して、楽器情報が「others」であるオブジェクトについては、そのオブジェクト(音源)の音源信号を、そのまま1または複数の新たなオブジェクトの音源信号とするとともに、それらの新たなオブジェクトに対して位置情報が付与される。
【0204】
このとき、新たなオブジェクトの位置情報は、例えばもとの楽器情報「others」のオブジェクトの位置情報の水平角度や垂直角度に対して、所定値を加算して得られるものなどとされる。
【0205】
なお、新たに生成された、音像を広げるためのオブジェクトの音源信号は、もとの楽器情報「others」のオブジェクトの音源信号そのものであってもよいし、その楽器情報「others」のオブジェクトの音源信号をゲイン調整したものであってもよい。
【0206】
また、
図3に示した音源配置の各音源信号のうち、楽器情報「others」の音源信号に対してのみオブジェクトをコピーして音像を広げる処理を行った場合、例えば
図7に示すように新たな追加のオブジェクトが生成される。なお、
図7において
図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
【0207】
図7の例では、もとからあるオブジェクトOB11乃至オブジェクトOB18の配置位置は、
図3に示した例と同じとなっている。
【0208】
図7では、これらのもとからあるオブジェクトに加えて、音像を広げるための新たなオブジェクトOB31およびオブジェクトOB32がさらに生成されている。
【0209】
すなわち、楽器情報「others」のLチャネルのオブジェクトOB15に対してオブジェクトOB31が生成されており、同様に楽器情報「others」のRチャネルのオブジェクトOB16に対してオブジェクトOB32が生成されている。
【0210】
この例では、オブジェクトOB31はオブジェクトOB15の近傍に配置されており、受聴者にとっては、オブジェクトOB15の音が、オブジェクトOB15の配置位置およびオブジェクトOB31の配置位置から聞こえてくることになる。つまり、オブジェクトOB15の音の音像が広がって聞こえることになる。
【0211】
オブジェクトOB31における場合と同様に、オブジェクトOB32もオブジェクトOB16の近傍に配置されており、これによりオブジェクトOB16の音の音像が広がって聞こえることになる。
【0212】
例えば表面積が広い音源やバイオリンなどの楽器の音源に対しては、音像を広げる処理を行うと、より高い臨場感を得ることができるので、そのような特定の音源の音源信号に対して選択的に音像を広げる処理を行うと、全体として処理量を抑えつつ音質を向上させることができる。
【0213】
〈信号処理装置の構成例〉
なお、以上において説明した人工ノイズの低減処理や、サラウンドリバーブ処理、スプレッド処理を組み合わせて行うようにしてもよい。
【0214】
例えば人工ノイズの低減処理、サラウンドリバーブ処理、およびスプレッド処理のうちの任意の2以上の処理を組み合わせて行うようにすることができる。
【0215】
ここで、人工ノイズの低減処理と音像を広げる処理を信号処理装置11において組み合わせて行う場合について、具体的に説明する。
【0216】
そのような場合、信号処理装置11は、例えば
図8に示すように構成される。なお、
図8において
図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
【0217】
図8に示す信号処理装置11は、音源分離処理部21、位置情報生成部22、位置情報修正部51、信号処理部52、および出力部23を有している。
【0218】
図8に示す信号処理装置11の構成は、位置情報生成部22と出力部23の間に、新たに位置情報修正部51および信号処理部52が設けられている点で
図1の信号処理装置11と異なり、その他の点では
図1の信号処理装置11と同じ構成となっている。
【0219】
位置情報修正部51は、位置情報生成部22から供給された各音源(オブジェクト)についての音源信号および位置情報に基づいて上述の人工ノイズの低減処理を行い、必要に応じて各音源の位置情報を修正する。
【0220】
位置情報修正部51は、必要に応じて修正した各音源の位置情報と、音源信号とを信号処理部52に供給する。
【0221】
信号処理部52は、位置情報修正部51から供給された各音源の音源信号および位置情報に基づいて上述の音像を広げる処理を行い、その結果得られた各音源の音源信号および位置情報を出力部23に供給する。
【0222】
例えば信号処理部52では、音像を広げる処理として上述したサラウンドリバーブ処理とスプレッド処理のためのspreadを生成する処理の少なくとも何れかが行われる。
【0223】
例えばサラウンドリバーブ処理が行われる場合には、リバーブオブジェクトに対応する新たなオブジェクト(音源)の音源信号および位置情報が生成され、spreadを生成する処理が行われる場合には、各音源の位置情報に生成されたspreadが付加される。
【0224】
出力部23は、信号処理部52から供給された音源信号および位置情報に基づいてオブジェクトデータを生成し、出力する。
【0225】
〈オブジェクトデータ生成処理の説明〉
次に、信号処理装置11が
図8に示した構成とされる場合におけるオブジェクトデータ生成処理について説明する。
【0226】
すなわち、以下、
図9のフローチャートを参照して、
図8に示した信号処理装置11によるオブジェクトデータ生成処理について説明する。
【0227】
なお、ステップS51およびステップS52の処理は
図4のステップS11およびステップS12の処理と同様であるので、その説明は省略する。但し、ステップS52では、位置情報生成部22は、自動配置処理により得られた各音源の音源信号および位置情報を位置情報修正部51に供給する。
【0228】
ステップS53において位置情報修正部51は、位置情報生成部22から供給された各音源の音源信号および位置情報に基づいて、人工ノイズの低減処理を行う。
【0229】
すなわち、位置情報修正部51は、上述の式(1)を計算して各音源信号の音圧level(iobj)を算出するとともに、各音源信号の音圧level(iobj)と閾値thre1とを比較し、その比較結果に基づいて音源比ratioを求める。
【0230】
そして、位置情報修正部51は、音源比ratioが閾値thre2より大きい場合には位置情報の修正を行わず、音源比ratioが閾値thre2以下である場合には、上述の式(2)乃至式(5)により、各音源の位置情報における水平角度と垂直角度を修正する。
【0231】
位置情報修正部51は、必要に応じて各音源の位置情報を修正すると、それらの各音源の音源信号と位置情報を信号処理部52に供給する。
【0232】
ステップS54において信号処理部52は、位置情報修正部51から供給された各音源の音源信号および位置情報に基づいて音像を広げる処理を行い、その結果得られた各音源の音源信号および位置情報を出力部23に供給する。
【0233】
例えば音像を広げる処理としてサラウンドリバーブ処理を行う場合、信号処理部52は各音源を順番に処理対象の音源として選択する。
【0234】
そして、信号処理部52は処理対象の音源の位置情報に基づいてM個の再生位置のなかから、処理対象の音源の位置情報により示される位置に最も近い再生位置を探索し、その探索結果として得られた再生位置に関するN個のインパルス応答をメモリから読み出す。
【0235】
さらに信号処理部52は、処理対象の音源の音源信号と、読み出したN個のインパルス応答とのそれぞれに基づいて、N個のインパルス応答ごとにフィルタリング処理とゲイン調整を行うことで、N個の新たな音源の音源信号と位置情報を生成する。
【0236】
信号処理部52は、全ての音源を処理対象の音源とし、新たな音源の音源信号と位置情報を生成すると、それらの新たな音源のうち、位置情報が同じであるものの音源信号を加算して1つの音源の音源信号とする。
【0237】
このようなサラウンドリバーブ処理により、もとの音源の音源信号と位置情報に加えて、リバーブオブジェクトに対応する新たな音源の音源信号と位置情報が得られる。
【0238】
また、音像を広げる処理としてspreadを生成する処理が行われる場合、信号処理部52は、必要に応じて音源信号や位置情報を用いて、各音源のspreadを生成し、生成したspreadを音源信号や位置情報とともに出力部23に供給する。
【0239】
ステップS55において出力部23は、信号処理部52から供給された音源信号および位置情報に基づいてオブジェクトデータを生成し、出力する。ステップS55では、
図4のステップS13と同様の処理が行われる。
【0240】
なお、出力部23は信号処理部52から各音源のspreadが供給されたときには、各音源のspreadと位置情報を含むメタデータを生成する。また、メタデータには楽器情報やチャネル情報などが含まれるようにしてもよい。
【0241】
出力部23は、このようにしてオブジェクトデータを生成すると、生成したオブジェクトデータを後段に出力し、オブジェクトデータ生成処理は終了する。
【0242】
以上のようにして信号処理装置11は、オブジェクトデータを生成する場合に、適宜、人工ノイズの低減処理や音像を広げる処理を行う。このようにすることで、人工的なノイズを低減させたり、音像を広げたりして、さらに音質を向上させることができる。
【0243】
〈第2の実施の形態の変形例〉
〈信号処理装置の構成例〉
さらに、以上において説明した信号処理装置11は、符号化装置として機能するサーバなどの符号化側の装置であってもよいし、ヘッドホンやパーソナルコンピュータ、ポータブルプレーヤ、スマートホンなどの復号側の装置であってもよい。
【0244】
例えば信号処理装置11が符号化側の装置である場合、信号処理装置11は
図10に示す構成とされる。なお、
図10において
図8における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
【0245】
図10に示す信号処理装置11は、音源分離処理部21、位置情報生成部22、位置情報修正部51、信号処理部52、出力部23、および符号化部81を有している。
【0246】
図10に示す信号処理装置11の構成は、出力部23の後段に新たに符号化部81が設けられている点で
図8の信号処理装置11と異なり、その他の点では
図8の信号処理装置11と同じ構成となっている。
【0247】
符号化部81は、出力部23から供給されたオブジェクトデータを符号化して符号化ビットストリームを生成し、クライアント等の装置に符号化ビットストリームを送信する。
【0248】
例えば符号化ビットストリームには、オブジェクトデータを構成する各オブジェクトの音源信号を符号化して得られた符号化オーディオデータと、オブジェクトデータを構成する各オブジェクトのメタデータを符号化して得られた符号化メタデータとが含まれている。
【0249】
また、信号処理装置11が復号側の装置である場合、信号処理装置11は、例えば
図11に示す構成とされる。なお、
図11において
図8における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
【0250】
図11に示す信号処理装置11は、音源分離処理部21、位置情報生成部22、位置情報修正部51、信号処理部52、出力部23、およびレンダリング処理部111を有している。
【0251】
図11に示す信号処理装置11の構成は、出力部23の後段に新たにレンダリング処理部111が設けられている点で
図8の信号処理装置11と異なり、その他の点では
図8の信号処理装置11と同じ構成となっている。
【0252】
レンダリング処理部111は、出力部23から供給されたオブジェクトデータとしての各オブジェクトの音源信号とメタデータとに基づいてVBAP等のレンダリング処理を行い、コンテンツの音、すなわち各オブジェクトの音を再生するためのステレオまたはマルチチャネルの再生オーディオ信号を生成する。
【0253】
ここで、例えばオブジェクトのメタデータにspreadが含まれている場合には、レンダリング処理部111は、レンダリング処理として上述のスプレッド処理を行い、再生オーディオ信号を生成する。
【0254】
〈コンピュータの構成例〉
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
【0255】
図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
【0256】
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
【0257】
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
【0258】
入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
【0259】
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
【0260】
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
【0261】
コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
【0262】
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
【0263】
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
【0264】
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
【0265】
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
【0266】
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
【0267】
さらに、本技術は、以下の構成とすることも可能である。
【0268】
(1)
複数の音源信号が含まれている入力オーディオ信号から、音源分離により1または複数の前記音源信号を抽出する音源分離部と、
前記音源分離の結果に基づいて、抽出された前記音源信号の位置情報を生成する位置情報生成部と、
抽出された前記音源信号と前記位置情報をオーディオオブジェクトのデータとして出力する出力部と
を備える信号処理装置。
(2)
前記位置情報生成部は、前記音源分離により得られた前記音源信号の音源種別に基づいて、前記位置情報を生成する
(1)に記載の信号処理装置。
(3)
前記位置情報生成部は、前記音源分離により得られた前記音源信号のチャネル情報に基づいて、前記位置情報を生成する
(1)または(2)に記載の信号処理装置。
(4)
前記位置情報生成部は、前記音源分離により得られた前記音源信号に基づいて前記位置情報を生成する
(1)乃至(3)の何れか一項に記載の信号処理装置。
(5)
前記位置情報生成部は、決定木モデルまたはニューラルネットワークに基づいて前記位置情報を生成する
(1)乃至(4)の何れか一項に記載の信号処理装置。
(6)
前記位置情報生成部は、音源種別ごとに学習された前記決定木モデルまたは前記ニューラルネットワークに基づいて前記位置情報を生成する
(5)に記載の信号処理装置。
(7)
前記入力オーディオ信号から抽出された前記音源信号の数、および前記音源信号の音圧に基づいて、前記位置情報を修正する位置情報修正部をさらに備える
(1)乃至(6)の何れか一項に記載の信号処理装置。
(8)
前記音源信号および前記位置情報に基づいてサラウンドリバーブ処理を行うことで、新たな前記音源信号および前記位置情報を生成する信号処理部をさらに備える
(1)乃至(7)の何れか一項に記載の信号処理装置。
(9)
前記音源分離により得られた前記音源信号に対して、スプレッド処理のためのパラメータを生成する信号処理部をさらに備える
(1)乃至(8)の何れか一項に記載の信号処理装置。
(10)
前記音源信号は、ステレオのオーディオ信号であり、
前記出力部は、前記音源分離により得られたステレオのLチャネルの前記音源信号およびRチャネルの前記音源信号のそれぞれを、1つのオブジェクトの前記音源信号とする
(1)乃至(9)の何れか一項に記載の信号処理装置。
(11)
前記データを符号化する符号化部をさらに備える
(1)乃至(10)の何れか一項に記載の信号処理装置。
(12)
前記データに基づいてレンダリング処理を行うレンダリング処理部をさらに備える
(1)乃至(10)の何れか一項に記載の信号処理装置。
(13)
前記位置情報生成部は、音源種別ごとに異なる方法で前記位置情報を生成する
(1)乃至(12)の何れか一項に記載の信号処理装置。
(14)
信号処理装置が、
複数の音源信号が含まれている入力オーディオ信号から、音源分離により1または複数の前記音源信号を抽出し、
前記音源分離の結果に基づいて、抽出された前記音源信号の位置情報を生成し、
抽出された前記音源信号と前記位置情報をオーディオオブジェクトのデータとして出力する
信号処理方法。
(15)
複数の音源信号が含まれている入力オーディオ信号から、音源分離により1または複数の前記音源信号を抽出し、
前記音源分離の結果に基づいて、抽出された前記音源信号の位置情報を生成し、
抽出された前記音源信号と前記位置情報をオーディオオブジェクトのデータとして出力する
ステップを含む処理をコンピュータに実行させるプログラム。
【符号の説明】
【0269】
11 信号処理装置, 21 音源分離処理部, 22 位置情報生成部, 23 出力部, 51 位置情報修正部, 52 信号処理部, 81 符号化部, 111 レンダリング処理部