(58)【調査した分野】(Int.Cl.,DB名)
ユーザの演奏音と、コンテンツデータに基づいて得られるコンテンツ音との特性を合わせるために、前記演奏音と前記コンテンツ音との少なくとも一方を調整する調整ステップと、
前記演奏音と前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成する生成ステップと、
前記演奏音と、前記コンテンツ音の少なくとも直接音成分と、前記間接音成分とをミックスしてなる音を出力手段に出力する出力制御ステップと、
を含み、
前記調整ステップでは、前記コンテンツ音に含まれる間接音成分を除去し、
前記生成ステップでは、前記演奏音と、前記調整ステップにおいて間接音成分が除去された前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成する、
ことを特徴とする音処理方法。
ユーザの演奏音と、コンテンツデータに基づいて得られるコンテンツ音との特性を合わせるために、前記演奏音と前記コンテンツ音との少なくとも一方を調整する調整手段、
前記演奏音と前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成する生成手段、及び、
前記演奏音と、前記コンテンツ音の少なくとも直接音成分と、前記間接音成分とをミックスしてなる音を出力手段に出力する出力制御手段、
としてコンピュータを機能させるためのプログラムであって、
前記調整手段は、前記コンテンツ音に含まれる間接音成分を除去し、
前記生成手段は、前記演奏音と、前記調整手段によって間接音成分が除去された前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成する、
ことを特徴とするプログラム。
ユーザの演奏音と、コンテンツデータに基づいて得られるコンテンツ音との特性を合わせるために、前記演奏音と前記コンテンツ音との少なくとも一方を調整する調整ステップと、
前記演奏音と前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成する生成ステップと、
前記演奏音と、前記コンテンツ音の少なくとも直接音成分と、前記間接音成分とをミックスしてなる音を出力手段に出力する出力制御ステップと、
を含む音処理方法であって、
さらに、前記コンテンツ音に含まれる間接音成分の量を解析する解析ステップを含み、
前記調整ステップでは、前記演奏音に対応する間接音成分を前記演奏音に対して付加するものであり、前記演奏音に対して付加する間接音成分の量を前記解析ステップの解析結果に基づいて設定し、
前記生成ステップでは、前記調整ステップにおいて間接音成分が付加された前記演奏音と、前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成する、
ことを特徴とする音処理方法。
ユーザの演奏音と、コンテンツデータに基づいて得られるコンテンツ音との特性を合わせるために、前記演奏音と前記コンテンツ音との少なくとも一方を調整する調整手段、
前記演奏音と前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成する生成手段、及び、
前記演奏音と、前記コンテンツ音の少なくとも直接音成分と、前記間接音成分とをミックスしてなる音を出力手段に出力する出力制御手段、
としてコンピュータを機能させるためのプログラムであって、
さらに、前記コンテンツ音に含まれる間接音成分の量を解析する解析手段、を含み、
前記調整手段は、前記演奏音に対応する間接音成分を前記演奏音に対して付加するものであり、前記演奏音に対して付加する間接音成分の量を前記解析手段の解析結果に基づいて設定し、
前記生成手段は、前記調整手段によって間接音成分が付加された前記演奏音と、前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成する、
ことを特徴とするプログラム。
【発明を実施するための形態】
【0012】
以下、本発明の実施形態の例を図面に基づいて説明する。
【0013】
[第1実施形態]まず、第1実施形態について説明する。
図1は、本発明の第1実施形態に係る音処理装置を備えたシステムの構成を示す。
図1に示すように、このシステムは、音処理装置1、コンテンツ再生装置2、マイク3、電子楽器4、電気楽器5、スピーカ6(放音手段の一例)、及び表示装置7を含む。なお、コンテンツ再生装置2は、例えば、光学記憶媒体に記憶されたコンテンツ(音楽又は動画等)を再生するものであってもよいし、ネットワークを介して配信されるコンテンツを再生するものであってもよい。
【0014】
音処理装置1は例えばAVレシーバ等である。音処理装置1は、CPU11、メモリ12、入力部13、出力部14、音響信号処理部15、及び映像信号処理部16を含む。
【0015】
CPU11は、メモリ12に記憶されたプログラムに基づいて、入力部13、出力部14、音響信号処理部15、及び映像信号処理部16を制御したり、情報処理を実行したりする。
図1では省略されているが、ネットワークを介してデータ通信を行うためのネットワークインタフェースが音処理装置1に備えられており、プログラムはネットワークを介してダウンロードされてメモリ12に記憶される。または、メモリカード等の情報記憶媒体からプログラムを読み出すための構成要素が音処理装置1に備えられており、プログラムが情報記憶媒体から読み出されてメモリ12に記憶される。
【0016】
入力部13は、コンテンツ再生装置2からコンテンツデータに基づく音響信号及び映像信号の入力を受け付けることが可能であり、音響信号を音響信号処理部15に供給し、映像信号を映像信号処理部16に供給する。
【0017】
また入力部13は、ユーザの演奏音の入力を受け付けることも可能である。なお、「演奏」とは音を出す行為を示し、「演奏」には、楽器を奏でる行為だけでなく、歌を歌う行為も含まれる。このため、「演奏音」には、楽器の演奏音だけでなく、歌唱音も含まれる。なお以下では、楽器の演奏音のことを便宜上「楽器音」と記載する。
【0018】
例えば、入力部13はマイク3と接続されて、マイク3から出力される音響信号の入力を受け付けることが可能であり、当該音響信号を音響信号処理部15に供給する。マイク3は音を収音し、収音された音を音響信号として出力する。マイク3は、ユーザによって演奏されるアコースティック楽器の楽器音や、ユーザの歌唱音を音処理装置1に入力するために用いられる。
【0019】
また例えば、入力部13はユーザによって演奏される電子楽器4又は電気楽器5と接続されて、電子楽器4又は電気楽器5から出力される音響信号の入力を受け付けることも可能であり、当該音響信号を音響信号処理部15に供給する。
【0020】
なお、入力部13が無線ネットワークインタフェースを含むようにし、音響信号が無線通信を介して入力部13に入力されるようにしてもよい。すなわち、コンテンツ音や演奏音が無線通信を介して音処理装置1に入力されるようにしてもよい。
【0021】
音響信号処理部15は例えばDSP(Digital Signal Processor)であり、CPU11からの制御に従って、音響信号に関する処理を実行する。音響信号処理部15から出力される音響信号は出力部14を介してスピーカ6から放音される。
【0022】
映像信号処理部16は例えばDSP(Digital Signal Processor)であり、CPU11からの制御に従って、映像信号に関する処理を実行する。映像信号処理部16から出力される映像信号は出力部14を介して表示装置7に表示される。
【0023】
第1実施形態に係る音処理装置1では、自宅等でアコースティック楽器を奏でたり、歌を歌ったりするユーザがホール等で演奏している気分を楽しむことが可能になっている。以下、このような機能を実現するための構成について説明する。なお、
図1に示したように、音処理装置1は、電子楽器4又は電気楽器5の楽器音の入力を受け付ける機能や、コンテンツ再生装置2によって再生されたコンテンツをスピーカ6や表示装置7で出力させる機能を備えているが、これらの機能は第1実施形態では必須のものではない。
【0024】
図2はユーザの演奏環境の一例を示す。
図2に示す例では、ユーザUの目の前にマイク3が設置されている。マイク3はユーザの演奏音を収音するために用いられる。例えば、ユーザがアコースティック楽器を奏でている場合には、楽器音がマイク3によって収音され、入力部13に入力される。また例えば、ユーザが歌を歌っている場合には、歌唱音がマイク3によって収音され、入力部13に入力される。
【0025】
また
図2に示す例では、複数のスピーカ6A,6B,6C,6D,6Eが設置されている。具体的には、ユーザUの正面にスピーカ6Aが設置されている。また、ユーザUから見て左前方、右前方にそれぞれスピーカ6B,6Cが設置され、ユーザUから見て左後方、右後方にそれぞれスピーカ6D,6Eが設置されている。
図2に示す例では、5台のスピーカ6A〜6Eを設置しているが、4台以下のスピーカ6を設置してもよいし、6台以上のスピーカ6を設置してもよい。例えば、スピーカ6B,6Cのみを設置してもよい。
【0026】
図3は、第1実施形態に係る音処理装置1で実現される機能を示す機能ブロック図である。
図3に示すように、第1実施形態に係る音処理装置1は、演奏音調整部101、プリプロセッシング部102(第1の処理手段の一例)、間接音成分生成部103、ポストプロセッシング部104(第2の処理手段の一例)、及び出力制御部105を含む。これらの機能ブロックはCPU11及び音響信号処理部15によって実現される。例えば、CPU11がプログラムに従って音響信号処理部15を制御することによって、上記の機能ブロックが実現される。
【0027】
図4は、第1実施形態に係る音処理装置1で実行される処理を示すフロー図である。以下、
図4を参照しながら各機能ブロックの機能について説明する。
【0028】
まず、演奏音調整部101は、マイク3から入力された演奏音に対して所定処理を施すことによって、演奏音を調整する(S10)。例えば、演奏音調整部101は、マイク3におけるハウリングを低減するためのハウリング低減処理を演奏音に対して施す。また例えば、演奏音調整部101はエフェクト処理(例えば、間接音を生成する前に不要な周波数帯域を削除したり、音圧レベルを整えたりする処理等)を演奏音に対して施すようにしてもよい。演奏音調整部101による処理が施された演奏音はプリプロセッシング部102に供給される。
【0029】
プリプロセッシング部102は、供給された音(ここでは演奏音)に対して、プリプロセッシングを実行する(S11)。例えば、プリプロセッシング部102は、供給された音に対して、イコライザによる音声調整処理等を施す。プリプロセッシング部102による処理が施された演奏音は間接音成分生成部103に供給される。なお、
図3では、演奏音調整部101とプリプロセッシング部102とが別個の機能ブロックとして示されているが、これらは一体的に構成されるようにしてもよい。
【0030】
間接音成分生成部103は演奏音に対応する擬似的な間接音成分を生成する(S12)。すなわち、間接音成分生成部103は、ホール等の音響空間で演奏音が発せられた場合を想定し、その場合に音響空間で発生する間接音成分(残響成分等)を生成する。擬似的な間接音成分を生成する方法としては公知の各種方法を採用することができる。例えば、間接音成分生成部103は、想定する音響空間における間接音(残響音)の発生位置、直接音に対する間接音の遅延時間や、直接音の音圧レベルに対する間接音のレベルの割合等の情報に基づいて、演奏音に対応する擬似的な間接音成分を生成する。
【0031】
例えば、間接音成分生成部103は、供給された音に対応する間接音成分を当該供給された音に対して付加する間接音成分付加部を含んでおり、間接音成分生成部103は演奏音を間接音成分付加部に供給する。そして、間接音成分生成部103は、間接音成分付加部から出力される音(間接音成分が付加された演奏音)から元々の演奏音を除去することによって、間接音成分のみを取得する。
【0032】
図5は間接音成分の生成方法の一例について説明するための図である。
図5(A)は演奏音の一例を示す。この演奏音は直接音成分に相当する。例えば、
図5(A)に示す演奏音(直接音成分)は第1バッファ及び第2バッファの各々に格納される。間接音成分付加部は、第1バッファに格納された演奏音(直接音成分)に対して、当該演奏音に対応する間接音成分を付加する。ここで、間接音成分を付加する方法として公知の各種方法を採用することができる。この場合、第1バッファには、例えば
図5(B)に示すように、演奏音の直接音成分及び間接音成分が格納される。その後、間接音成分生成部103は、第1バッファに格納された演奏音の直接音成分及び間接音成分(
図5(B))から、第2バッファに格納された演奏音の直接音成分(
図5(A))を減算することによって、
図5(C)に示すような間接音成分のみを取得する。
【0033】
なお、間接音成分を生成する方法は上記の例に限られない。例えば、
図5(A)に示す演奏音(直接音成分)を第1バッファに格納し、当該演奏音(直接音成分)に対応する間接音成分を第2バッファに生成するようにしてもよい。
【0034】
間接音成分生成部103によって生成された間接音成分はポストプロセッシング部104に供給される。ポストプロセッシング部104は、供給された音(ここでは間接音成分)に対して、ポストプロセッシングを実行する(S13)。例えば、ポストプロセッシング部104は、供給された音に対して、スピーカ6の特性に合わせて調整するための処理を施す。ポストプロセッシング部104よる処理が施された間接音成分は出力制御部105に供給される。
【0035】
出力制御部105は、供給された間接音成分を出力部14(出力手段の一例)に出力する(S14)。すなわち、出力制御部105は、マイク3から入力された演奏音(アコースティック楽器の楽器音又は歌唱音)を出力部14に出力することを制限しつつ、間接音成分を出力部14に出力する。出力部14に出力された間接音成分はスピーカ6によって放音される。
【0036】
ここで、「演奏音を出力部14に出力することを制限する」とは、例えば、演奏音を出力部14に出力しないようにすることである。すなわち、出力制御部105は、マイク3から入力された演奏音(直接音成分)を出力部14に出力せずに、間接音成分のみを出力部14に出力する。言い換えれば、出力制御部105は、マイク3から入力された演奏音(直接音成分)がスピーカ6から放音されないようにし、間接音成分のみがスピーカ6から放音されるようにする。
【0037】
「演奏音を出力部14に出力することを制限する」とは、例えば、間接音成分に比べてかなり小さい音量で演奏音を放音されるように出力部14に出力することであってもよい。すなわち、出力制御部105は、マイク3から入力された演奏音(直接音成分)を通常の音量に比べてかなり小さい音量(ユーザの耳に聞こえ難い程度に小さい音量)で放音されるように出力部14に出力しつつ、間接音成分を通常の音量で出力部14に出力するようにしてもよい。言い換えれば、出力制御部105は、マイク3から入力された演奏音(直接音成分)が通常の音量に比べてかなり小さい音量でスピーカ6から放音されるようにし、間接音成分が通常の音量でスピーカ6から放音されるようにする。
【0038】
なお、スピーカ6が音処理装置1に内蔵される場合、出力制御部105は、供給された間接音成分をスピーカ6(出力手段の他の一例)に出力することになる。
【0039】
以上に説明した第1実施形態に係る音処理装置1によれば、ユーザの演奏音(アコースティック楽器の楽器音又は歌唱音)に対応する擬似的な間接音成分(残響成分等)がスピーカ6から放音されるため、ユーザはホールや教会等でアコースティック楽器を演奏したり、歌を歌ったりしている気分を楽しむことができる。また、第1実施形態に係る音処理装置1によれば、ユーザの演奏音(アコースティック楽器の楽器音又は歌唱音)がスピーカ6から放音されることが制限されるため、本来の発音位置とは異なる位置から発せられる演奏音が聞こえることに起因する違和感をユーザに与えてしまわないように図ることができる。
【0040】
[第2実施形態]次に、第2実施形態について説明する。第2実施形態に係る音処理装置1のハードウェア構成は第1実施形態と同様である。また、ユーザの演奏環境も第1実施形態と基本的に同様である。ただし、第2実施形態では、音処理装置1の入力部13と接続された電子楽器4又は電気楽器5がユーザによって演奏されるため、マイク3は不要である。
【0041】
第2実施形態に係る音処理装置1では、自宅等で電子楽器4又は電気楽器5を演奏しているユーザがホール等で演奏している気分を楽しむことが可能になっている。以下、このような機能を実現するための構成について説明する。なお、
図1に示したように、音処理装置1は、コンテンツ再生装置2によって再生されたコンテンツをスピーカ6や表示装置7で出力させる機能を備えているが、これらの機能は第2実施形態では必須のものではない。
【0042】
図6は、第2実施形態に係る音処理装置1で実現される機能を示す機能ブロック図である。
図6に示すように、第2実施形態に係る音処理装置1は、演奏音調整部111、プリプロセッシング部112、間接音成分生成部113、ポストプロセッシング部114、及び出力制御部115を含む。これらの機能ブロックはCPU11及び音響信号処理部15によって実現される。例えば、CPU11がプログラムに従って音響信号処理部15を制御することによって、上記の機能ブロックが実現される。
【0043】
図7は、第2実施形態に係る音処理装置1で実行される処理を示すフロー図である。以下、
図7を参照しながら各機能ブロックの機能について説明する。
【0044】
まず、演奏音調整部111は、電子楽器4又は電気楽器5から入力された演奏音に対して所定処理を施すことによって、演奏音を調整する(S20)。例えば、演奏音調整部111はエフェクト処理(例えば、ギター音に対するディストーション処理等)を演奏音に対して施す。なお、演奏音調整部111では、大きな遅延を発生させるような処理は実行されず、遅延の小さい処理のみが実行される。演奏音調整部111による処理が施された演奏音はプリプロセッシング部112に供給される。
【0045】
プリプロセッシング部112は、供給された音(ここでは演奏音)に対して、プリプロセッシングを実行する(S21)。また、間接音成分生成部113は、演奏音に対応する擬似的な間接音成分を生成する(S22)。そして、ポストプロセッシング部114は、供給された音(ここでは間接音成分)に対して、ポストプロセッシングを実行する(S23)。ステップS21〜S23は第1実施形態のステップS11〜S13と基本的に同様であり、プリプロセッシング部112、間接音成分生成部113、及びポストプロセッシング部114は第1実施形態のプリプロセッシング部102、間接音成分生成部103、及びポストプロセッシング部104と基本的に同様であるため、ここでは説明を省略する。
【0046】
なお、演奏音調整部111による処理が施された演奏音は、経路119を介して、出力制御部115にも供給される。経路119は、プリプロセッシング部112、間接音成分生成部113、及びポストプロセッシング部114を介さずに出力制御部115へと至る経路である。言い換えれば、経路119は、プリプロセッシング部112、間接音成分生成部113、及びポストプロセッシング部114を介して出力制御部115へと至る経路に比べて遅延の少ない経路である。例えば、プリプロセッシング部112、間接音成分生成部113、及びポストプロセッシング部114では、バッファに格納された演奏音に基づいて処理が実行されるが、経路119では、演奏音がバッファに格納されることなく、出力制御部115まで供給される。
【0047】
出力制御部115は、経路119を介して供給された演奏音(直接音成分)と、間接音成分生成部113によって生成された間接音成分とをミックスし、当該ミックス音を出力部14に出力する(S24)。出力部14に出力されたミックス音はスピーカ6によって放音される。
【0048】
図8は、スピーカ6から放音される音について説明するための図である。ここでは、
図8(A)に示すように、演奏音Aが入力された後で演奏音Bが入力された場合を想定する。これらの演奏音A,Bは直接音成分に相当する。この場合、間接音成分生成部113では、
図8(B)に示すように、演奏音Aに対応する間接音成分Aが生成され、当該間接音成分Aが出力制御部115に供給される。なお、間接音成分生成部113では、上記の間接音成分Aが生成された後で、演奏音Bに対応する間接音成分Bも生成されるが、ここでは省略している。
【0049】
プリプロセッシング部112、間接音成分生成部113、及びポストプロセッシング部114での処理量は大きく、これらの機能ブロックでの処理には時間を要するため、間接音成分Aは、これらの機能ブロックでの処理に要した時間に応じた遅延時間だけ遅延してスピーカ6から放音される。これに対して、演奏音A,B(直接音成分)は、遅延の少ない経路119(実質的な遅延の生じない経路)を介してスピーカ6から放音される。このため、
図8(C)に示すように、演奏音Aに対応する間接音成分Aが実際よりも遅延して、演奏音Aよりも後の演奏音Bとミックスされ、当該ミックスされた音がスピーカ6から放音される。
【0050】
以上に説明した第2実施形態に係る音処理装置1によれば、ユーザの演奏音(電子楽器4又は電気楽器5の楽器音)に対して擬似的な間接音成分(残響成分等)が付加されてスピーカ6から放音されるため、ユーザはホール等で楽器を演奏している気分を楽しむことができる。また、第2実施形態に係る音処理装置1によれば、ユーザの演奏音は遅延の小さい経路119を介してスピーカ6から放音されるため、ユーザによって演奏されてから当該演奏音がスピーカ6から放音されるまでの遅延を小さく抑えることができる。その結果、ユーザによって演奏されてから当該演奏音がスピーカ6から放音されるまでの遅延が大きいことに起因する違和感にユーザに与えてしまわないように図ることができる。
【0051】
なお、第2実施形態に係る音処理装置1では、ユーザの演奏音に対応する間接音成分が、現実の音響空間で演奏音が発せられた場合に生じる間接音成分に比べて遅れて生じることになるが(
図8参照)、間接音成分に遅延が多少生じたとしても、それによりユーザに違和感を与える可能性は低いため、特に問題は生じない。
【0052】
[第3実施形態]次に、第3実施形態について説明する。第3実施形態に係る音処理装置1のハードウェア構成は第1実施形態と同様である。また、ユーザの演奏環境は第2実施形態と同様である。
【0053】
第3実施形態に係る音処理装置1では、自宅等で電子楽器4又は電気楽器5を演奏しているユーザが音楽コンテンツの演奏者の一員となってホール等で演奏している気分を楽しむことが可能になっている。以下、このような機能を実現するための構成について説明する。
【0054】
図9は、第3実施形態に係る音処理装置1で実現される機能を示す機能ブロック図である。
図9に示すように、第3実施形態に係る音処理装置1は、演奏音調整部121、プリプロセッシング部122、間接音成分生成部123、ポストプロセッシング部124、出力制御部125、及びコンテンツデコード部126を含む。これらの機能ブロックはCPU11及び音響信号処理部15によって実現される。例えば、CPU11がプログラムに従って音響信号処理部15を制御することによって、上記の機能ブロックが実現される。
【0055】
図10は、第3実施形態に係る音処理装置1で実行される処理を示すフロー図である。以下、
図10を参照しながら各機能ブロックの機能について説明する。
【0056】
まず、コンテンツデコード部126は、コンテンツ再生装置2から入力されるマルチチャンネルのコンテンツ音をフォーマットデコードすることによって、PCM信号に変換する(S30)。
【0057】
また、演奏音調整部121は、電子楽器4又は電気楽器5から入力された演奏音に対して所定処理を施すことによって、演奏音を調整する(S31)。ステップS31は第2実施形態のステップS20と同様であり、演奏音調整部121は第2実施形態の演奏音調整部111と同様であるため、ここでは説明を省略する。
【0058】
なお、
図10では、便宜上、ステップS30,S31が順番に実行されるように示されているが、ステップS30,S31は並列的に実行される。
【0059】
PCM信号に変換されたコンテンツ音は、AD変換回路によってPCM信号に変換された演奏音とミックスされ(S32)、当該ミックス音がプリプロセッシング部122に供給される。なお、演奏音は経路129を介して出力制御部125にも供給される。経路129は第2実施形態の経路119と同様である。
【0060】
プリプロセッシング部122は、上記ミックス音に対して、プリプロセッシングを実行する(S33)。例えば、プリプロセッシング部122は、上記ミックス音に対して、イコライザによる音声調整処理等を施す。プリプロセッシング部122による処理が施されたミックス音は間接音成分生成部123に供給される。
【0061】
間接音成分生成部123は上記ミックス音に対応する擬似的な間接音成分を生成する(S34)。すなわち、間接音成分生成部123は、演奏音(直接音成分)とコンテンツ音とに対応する間接音成分を生成する。間接音成分生成部123は、ホール等の音響空間で上記ミックス音が発せられた場合を想定し、その場合に音響空間で発生する間接音成分(残響成分等)を生成する。擬似的な間接音成分を生成する方法としては公知の各種方法を採用することができる。
【0062】
例えば、間接音成分生成部123は、第1バッファに格納された上記ミックス音に対して、間接音を付加する処理を施し、その後、第1バッファに格納された音から、第2バッファに格納された元々の上記ミックス音を減算することによって、上記ミックス音に対応する間接音成分を取得する。なお、間接音成分生成部123は、第1バッファに格納された上記ミックス音に基づいて、間接音を生成する処理を実行することによって、上記ミックス音に対応する間接音を第2バッファに生成することによって、上記ミックス音に対応する間接音成分を取得するようにしてもよい。
【0063】
間接音成分生成部123によって生成された間接音成分は、コンテンツ音とともに、ポストプロセッシング部124を経て、出力制御部125に供給される。
【0064】
ポストプロセッシング部124はポストプロセッシングを実行する(S35)。ステップS35は第1実施形態のステップS13と基本的に同様であり、ポストプロセッシング部124は第1実施形態のポストプロセッシング部104と基本的に同様であるため、ここでは説明を省略する。
【0065】
出力制御部125は、経路129を介して供給された演奏音(直接音成分)と、ポストプロセッシング部124から供給されるコンテンツ音及び間接音成分とをミックスし、当該ミックス音を出力部14に出力する(S36)。出力部14に出力されたミックス音はスピーカ6によって放音される。
【0066】
図11は、スピーカ6から放音される音について説明するための図である。ここでは、
図11(A)に示すように、演奏音A及びコンテンツ音Aが入力された後で、演奏音B及びコンテンツ音Bが入力された場合を想定する。なお、演奏音A,Bは直接音成分に相当する。また
図11では、便宜上、演奏音Aとコンテンツ音Aとを時間的に少しずらして示しているが、演奏音Aとコンテンツ音Aとの入力時点は同じであることとする。演奏音Bとコンテンツ音Bとに関しても同様である。
【0067】
図11(A)に示す例の場合、間接音成分生成部123では、
図11(B)に示すように、演奏音Aとコンテンツ音Aとのミックス音に対応する間接音成分Aが生成され、当該間接音成分Aがコンテンツ音Aとともに出力制御部125に供給される。なお、間接音成分生成部113では、上記の間接音成分Aが生成された後で、演奏音Bとコンテンツ音Bとのミックス音に対応する間接音成分Bも生成されるが、ここでは省略している。
【0068】
プリプロセッシング部122、間接音成分生成部123、及びポストプロセッシング部124での処理量は大きく、これらの機能ブロックでの処理には時間を要するため、間接音成分A及びコンテンツ音Aは、これらの機能ブロックでの処理に要した時間に応じた遅延時間だけ遅延してスピーカ6から放音される。これに対して、演奏音A,B(直接音成分)は、遅延の少ない経路129(実質的な遅延の生じない経路)を介してスピーカ6から放音される。このため、
図11(C)に示すように、間接音成分Aが実際よりも遅延して、演奏音Aよりも後の演奏音Bとミックスされ、当該ミックスされた音がスピーカ6から放音される。
【0069】
以上に説明した第3実施形態に係る音処理装置1によれば、ユーザの演奏音(電子楽器4又は電気楽器5の楽器音)とマルチチャンネルのコンテンツ音とに対して擬似的な間接音成分(残響成分等)が付加されてスピーカ6から放音されるため、ユーザは音楽コンテンツの演奏者の一員となってホール等で演奏している気分を楽しむことができる。また、第3実施形態に係る音処理装置1によれば、ユーザの演奏音は遅延の小さい経路129を介してスピーカ6から放音されるため、ユーザによって演奏されてから当該演奏音がスピーカ6から放音されるまでの遅延を小さく抑えることができる。その結果、ユーザによって演奏されてから当該演奏音がスピーカ6から放音されるまでの遅延が大きいことに起因する違和感にユーザに与えてしまわないように図ることができる。
【0070】
[第4実施形態]次に、第4実施形態について説明する。第4実施形態に係る音処理装置1のハードウェア構成は第1実施形態と同様である。また、ユーザの演奏環境は第1実施形態と同様である。
【0071】
第4実施形態に係る音処理装置1では、ユーザが音楽コンテンツの演奏者の一員となってホール等で歌を歌ったり、アコースティック楽器を奏でたりしている気分を楽しむことが可能になっている。以下、このような機能を実現するための構成について説明する。
【0072】
図12は、第4実施形態に係る音処理装置1で実現される機能を示す機能ブロック図である。
図12に示すように、第4実施形態に係る音処理装置1は、演奏音調整部131、プリプロセッシング部132、間接音成分生成部133、ポストプロセッシング部134、出力制御部135、及びコンテンツデコード部136を含む。これらの機能ブロックはCPU11及び音響信号処理部15によって実現される。例えば、CPU11がプログラムに従って音響信号処理部15を制御することによって、上記の機能ブロックが実現される。
【0073】
図13は、第4実施形態に係る音処理装置1で実行される処理を示すフロー図である。以下、
図13を参照しながら各機能ブロックの機能について説明する。
【0074】
まず、コンテンツデコード部136はコンテンツ再生装置2から入力されるマルチチャンネルのコンテンツ音をフォーマットデコードすることによって、PCM信号に変換する(S40)。ステップS40は第3実施形態のステップS30と基本的に同様であり、コンテンツデコード部136は第3実施形態のコンテンツデコード部126と基本的に同様である。
【0075】
ただし、第4実施形態のコンテンツデコード部136は特定成分除去部136Aを含み、ステップS40において、特定成分除去部136Aはコンテンツ音に含まれる特定成分を除去する。具体的には、特定成分除去部136Aは、マイク3から入力された演奏音に対応する特定成分をコンテンツ音から除去する。例えば、ユーザの歌唱音がマイク3から入力される場合、特定成分除去部136Aはボーカル成分をコンテンツ音から除去する。マルチチャンネルのコンテンツ音ではボーカル成分がセンターチャンネルに含まれていることが多いため、特定成分除去部136Aはセンターチャンネルを除去することによって、ボーカル成分をコンテンツ音から除去する。ボーカル成分をコンテンツ音から除去する方法はこの方法に限られず、公知の各種方法を採用することができる。また例えば、アコースティック楽器の楽器音がマイク3から入力される場合、特定成分除去部136Aは、当該アコースティック楽器の楽器音成分をコンテンツ音から除去するようにしてもよい。なお、マイク3から入力される演奏音の種類(例えば歌唱音、ギター音、ピアノ音等のいずれであるのか)に関しては、演奏音を解析することによって自動的に判別するようにしてもよいし、ユーザが入力装置を介して指定するようにしてもよい。
【0076】
演奏音調整部131は、マイク3から入力された演奏音に対して所定処理を施すことによって、演奏音を調整する(S41)。ステップS41は第1実施形態のステップS10と同様であり、演奏音調整部131は第1実施形態の演奏音調整部101と同様であるため、ここでは説明を省略する。
【0077】
なお、
図13では、便宜上、ステップS40,S41が順番に実行されるように示されているが、ステップS40,S41は並列的に実行される。
【0078】
PCM信号に変換されたコンテンツ音は、AD変換回路によってPCM信号に変換された演奏音とミックスされ(S42)、当該ミックス音がプリプロセッシング部132に供給される。そして、当該ミックス音に基づいて、プリプロセッシング部132、間接音成分生成部133、及びポストプロセッシング部134による処理が実行される(S43,S44,S45)。ステップS43〜S45は第3実施形態のステップS33〜S35と基本的に同様であり、プリプロセッシング部132、間接音成分生成部133、及びポストプロセッシング部134は第3実施形態のプリプロセッシング部122、間接音成分生成部123、及びポストプロセッシング部124と基本的に同様であるため、ここでは説明を省略する。
【0079】
なお、演奏音は経路139を介して出力制御部135に供給される。経路139は第2実施形態の経路119と同様である。
【0080】
第3実施形態の出力制御部125と同様に、出力制御部135は、経路139を介して供給された演奏音(直接音成分)と、ポストプロセッシング部134から供給されるコンテンツ音及び間接音成分とをミックスし、当該ミックス音を出力部14に出力する(S46)。出力部14に出力されたミックス音はスピーカ6によって放音される。
【0081】
以上に説明した第4実施形態に係る音処理装置1によれば、ユーザの演奏音(歌唱音又はアコースティック楽器の楽器音)とマルチチャンネルのコンテンツ音とに対して擬似的な間接音成分(残響成分等)が付加されてスピーカ6から放音されるため、ユーザは音楽コンテンツの演奏者の一員となってホール等で歌を歌ったり、アコースティック楽器を奏でたりしている気分を楽しむことができる。また、第4実施形態に係る音処理装置1によれば、ユーザの演奏音は遅延の小さい経路139を介してスピーカ6から放音されるため、ユーザによって演奏されてから当該演奏音がスピーカ6から放音されるまでの遅延を小さく抑えることができる。その結果、ユーザによって演奏されてから当該演奏音がスピーカ6から放音されるまでの遅延が大きいことに起因する違和感にユーザに与えてしまわないように図ることができる。
【0082】
さらに、第4実施形態に係る音処理装置1によれば、例えば、ユーザが歌を歌っている場合にはコンテンツ音に含まれるボーカル成分が除去されるため、ユーザが音楽コンテンツのボーカルとなってホール等で歌を歌っている気分を楽しむことができる。
【0083】
なお、以上では、演奏音とコンテンツ音とをミックスする前に、コンテンツ音のボーカル成分を除去することとして説明したが、コンテンツ音のボーカル成分の除去は、演奏音とコンテンツ音とがミックスされた後で行われてもよい。
【0084】
[第5実施形態]次に、第5実施形態について説明する。第5実施形態に係る音処理装置1のハードウェア構成は第1実施形態と同様である。また、ユーザの演奏環境は第1実施形態又は第2実施形態と同様である。
【0085】
第5実施形態に係る音処理装置1でも、ユーザが音楽コンテンツの演奏者の一員となってホール等で演奏している気分を楽しむことが可能になっている。特に、第5実施形態に係る音処理装置1では、ユーザの演奏音とコンテンツ音との一体感を感じることが可能になっている。以下、このような機能を実現するための構成について説明する。
【0086】
図14は、第5実施形態に係る音処理装置1で実現される機能を示す機能ブロック図である。
図14に示すように、第5実施形態に係る音処理装置1は、演奏音調整部141、プリプロセッシング部142、間接音成分生成部143、ポストプロセッシング部144、出力制御部145、コンテンツデコード部146、及びコンテンツ音調整部147を含む。これらの機能ブロックはCPU11及び音響信号処理部15によって実現される。例えば、CPU11がプログラムに従って音響信号処理部15を制御することによって、上記の機能ブロックが実現される。
【0087】
図15は、第5実施形態に係る音処理装置1で実行される処理を示すフロー図である。以下、
図15を参照しながら各機能ブロックの機能について説明する。
【0088】
まず、コンテンツデコード部146は、コンテンツ再生装置2から入力されるマルチチャンネルのコンテンツ音をフォーマットデコードすることによって、PCM信号に変換する(S50)。ステップS50は第3実施形態のステップS30と基本的に同様であり、コンテンツデコード部146は第3実施形態のコンテンツデコード部126と基本的に同様であるため、ここでは説明を省略する。
【0089】
コンテンツ音調整部147は、演奏音とコンテンツ音との特性を合わせるために、コンテンツ音を調整する(S51)。コンテンツ音調整部147は間接音成分除去部147Aを含む。間接音成分除去部147Aは、演奏音とコンテンツ音との間接音成分の量を合わせるために、コンテンツ音に含まれる間接音成分を除去する。コンテンツ音に含まれる間接音成分を除去する方法としては公知の各種方法を採用することができる。
【0090】
電子楽器4又は電気楽器5から入力される演奏音は直接音成分のみを含み、間接音成分を含んでいないのに対し、コンテンツ音には直接音成分と間接音成分とが含まれている場合がある。このため、例えば、間接音成分除去部147Aはコンテンツ音に含まれる間接音成分を除去して、コンテンツ音の直接音成分のみを出力する。例えば、間接音成分除去部147Aは、コンテンツ音に含まれる間接音成分を特定し、当該特定された間接音成分の音圧レベルを下げることによって、間接音成分を除去する。すなわち、間接音成分除去部147Aは、間接音成分の音圧レベルを零(ほぼ零)まで下げることによって、間接音成分をほぼ完全に除去する。
【0091】
なお、間接音成分除去部147Aは、間接音成分の音圧レベルをある程度まで下げることによって、間接音成分をある程度まで除去(低減)するようにしてもよい。すなわち、「間接音成分を除去する」には、間接音成分をほぼ完全に除去することだけでなく、間接音成分をある程度まで除去(低減)することも含まれる。ここで、「ある程度」とは、間接音成分が残っていたとしてもユーザに違和感を感じさせないような程度である。
【0092】
演奏音調整部131は演奏音を調整する(S52)。ステップS52は第1実施形態又は第2実施形態のステップS10,20と同様であり、演奏音調整部141は第1実施形態又は第2実施形態の演奏音調整部110,111と同様であるため、ここでは説明を省略する。
【0093】
なお、
図15では、便宜上、ステップS50,S51とステップS52とが順番に実行されるように示されているが、ステップS50,S51とステップS52とは並列的に実行される。
【0094】
間接音成分が除去されたコンテンツ音(直接音成分)は演奏音とミックスされ(S53)、当該ミックス音は、プリプロセッシング部142を経て、間接音成分生成部143に供給される。プリプロセッシング部142は、上記ミックス音に対して、プリプロセッシングを実行する(S54)。ステップS54は第1実施形態のステップS11と同様であり、プリプロセッシング部142は第1実施形態のプリプロセッシング部112と同様であるため、ここでは説明を省略する。
【0095】
間接音成分生成部143は、上記ミックス音(コンテンツ音の直接音成分と演奏音の直接音成分)に対応する擬似的な間接音成分を生成する(S55)。ステップS55は第3実施形態のステップS34と基本的に同様であり、間接音成分生成部143は第3実施形態の間接音成分生成部123と基本的に同様であるため、ここでは説明を省略する。
【0096】
間接音成分生成部143によって生成された間接音成分は、ポストプロセッシング部144を経て出力制御部145に供給される。ポストプロセッシング部144はポストプロセッシングを実行する(S56)。ステップS56は第1実施形態のステップS13と同様であり、ポストプロセッシング部144は第1実施形態のポストプロセッシング部114と同様であるため、ここでは説明を省略する。なお、
図14に示すように、間接音成分が除去されたコンテンツ音(すなわち、コンテンツ音の直接音成分)も出力制御部145に供給される。また、演奏音(直接音成分)は経路149を介して出力制御部145に供給される。経路149は第2実施形態の経路129と同様である。
【0097】
出力制御部145は、経路149を介して供給された演奏音(直接音成分)と、コンテンツ音(直接音成分)と、間接音成分生成部143によって生成された間接音成分とをミックスし、当該ミックス音を出力部14に出力する(S57)。出力部14に出力されたミックス音はスピーカ6によって放音される。
【0098】
以上に説明した第5実施形態に係る音処理装置1によれば、ユーザは音楽コンテンツの演奏者の一員となってホール等で演奏している気分を楽しむことができる。また、第5実施形態に係る音処理装置1によれば、ユーザの演奏音とコンテンツ音との間接音成分の量を合わせることが可能になり、その結果、ユーザの演奏音とコンテンツ音との一体感をユーザが十分に感じることが可能になる。
【0099】
なお、
図14に示したように、第5実施形態においても、アコースティック楽器の楽器音又は歌唱音がマイク3から入力されるようにしてもよい。ただし、この場合、演奏音に間接音成分が含まれる場合があるため、演奏音調整部141では演奏音に含まれる間接音成分を除去するようにしてもよい。
【0100】
[第6実施形態]次に、第6実施形態について説明する。第6実施形態は第5実施形態の変形例である。第6実施形態に係る音処理装置1では、演奏音が入力されている場合にのみコンテンツ音の間接音成分を除去する。
【0101】
図16は、第6実施形態に係る音処理装置1で実現される機能を示す機能ブロック図であり、
図17は、第6実施形態に係る音処理装置1で実行される処理を示すフロー図である。
図16に示すように、第6実施形態に係る音処理装置1は、演奏音調整部141、プリプロセッシング部142、間接音成分生成部143、ポストプロセッシング部144、出力制御部145、コンテンツデコード部146、コンテンツ音調整部147、及び入力検出部148を含む。これらの機能ブロックはCPU11及び音響信号処理部15によって実現される。例えば、CPU11がプログラムに従って音響信号処理部15を制御することによって、上記の機能ブロックが実現される。
【0102】
第6実施形態に係る音処理装置1は入力検出部148を含み、ステップS51の代わりにステップS51A,51Bを含む点で第5実施形態と異なる。以下、第5実施形態との相違点について主に説明する。
【0103】
第6実施形態に係る音処理装置1では、入力検出部148は、電子楽器4、電気楽器5、又はマイク3から演奏音が入力されていることを検出する。間接音成分除去部147Aは、入力検出部148の検出結果に応じて、コンテンツ音に含まれる間接音成分を除去する。具体的には、演奏音が入力されていることが検出されている場合に(S51A:Yes)、間接音成分除去部147Aはコンテンツ音から間接音成分を除去する(S51B)。一方、演奏音が入力されていることが検出されていない場合に(S51A:No)、間接音成分除去部147Aはコンテンツ音から間接音成分を除去しない。なお、
図17では省略されているが、この場合、ステップS52,S53も実行されず、プリプロセッシング部142にはコンテンツ音のみが供給され、ステップS57ではコンテンツ音が出力部14に出力される。
【0104】
以上に説明した第6実施形態に係る音処理装置1では、演奏音が入力されている場合に限って、コンテンツ音から間接音成分が除去される。演奏音が入力されていない場合には、演奏音とコンテンツ音とで間接音成分の量を合わせる必要がなく、コンテンツ音から間接音成分を除去する必要がない。この点、第6実施形態に係る音処理装置1によれば、コンテンツ音から間接音成分を除去する必要がない場合には、コンテンツ音から間接音成分を除去する処理が実行されなくなるため、音処理装置1の処理負荷を軽減することが可能になる。
【0105】
[第7実施形態]次に、第7実施形態について説明する。第7実施形態に係る音処理装置1のハードウェア構成は第1実施形態と同様である。また、ユーザの演奏環境は第1実施形態又は第2実施形態と同様である。
【0106】
第5実施形態や第6実施形態では、コンテンツ音の間接音成分の量を演奏音と合わせるために、コンテンツ音に含まれる間接音成分を除去するのに対し、第7実施形態に係る音処理装置1では、コンテンツ音の間接音成分の量に合わせて、演奏音に間接音成分を付加するようになっている。
【0107】
図18は、第7実施形態に係る音処理装置1で実現される機能を示す機能ブロック図である。
図18に示すように、第7実施形態に係る音処理装置1は、演奏音調整部151、プリプロセッシング部152、間接音成分生成部153、ポストプロセッシング部154、出力制御部155、コンテンツデコード部156、及び間接音成分量解析部157を含む。これらの機能ブロックはCPU11及び音響信号処理部15によって実現される。例えば、CPU11がプログラムに従って音響信号処理部15を制御することによって、上記の機能ブロックが実現される。
【0108】
図19は、第7実施形態に係る音処理装置1で実行される処理を示すフロー図である。以下、
図19を参照しながら各機能ブロックの機能について説明する。
【0109】
まず、コンテンツデコード部156は、コンテンツ再生装置2から入力されるマルチチャンネルのコンテンツ音をフォーマットデコードすることによって、PCM信号に変換する(S60)。ステップS60は第3実施形態のステップS30と基本的に同様であり、コンテンツデコード部156は第3実施形態のコンテンツデコード部126と基本的に同様であるため、ここでは説明を省略する。
【0110】
間接音成分量解析部157はコンテンツ音に含まれる間接音成分の量を解析する(S61)。例えば、間接音成分量解析部157はコンテンツ音に含まれる間接音成分の数や大きさ(音圧レベル)を解析する。コンテンツ音に含まれる間接音成分の量を解析する方法としては公知の各種方法を採用することができる。
【0111】
演奏音調整部151は演奏音を調整する(S62)。ステップS62は第1実施形態又は第2実施形態のステップS10,S20と基本的に同様であり、演奏音調整部151は第1実施形態又は第2実施形態の演奏音調整部101,111と基本的に同様である。
【0112】
ただし、第7実施形態の演奏音調整部151は、演奏音とコンテンツ音との特性を合わせるために演奏音を調整する役割も果たす。すなわち、演奏音調整部151は間接音成分付加部151Aを含み、ステップS62において、間接音成分付加部151Aは、演奏音に対応する間接音成分を当該演奏音に対して付加する。特に、間接音成分付加部151Aは、演奏音に対して付加する間接音成分の量を、間接音成分量解析部157の解析結果に基づいて設定する。すなわち、間接音成分付加部151Aは、演奏音に対して付加する間接音成分の数や大きさを、コンテンツ音に含まれる間接音成分の数や大きさに合わせて設定する。つまり、間接音成分付加部151Aは、演奏音に対して付加する間接音成分の数や大きさを、コンテンツ音に含まれる間接音成分の数や大きさと同程度に設定する。
【0113】
第7実施形態に係る音処理装置1では、コンテンツ音と、間接音成分付加部151Aによって間接音成分が付加された演奏音とがミックスされ(S63)、当該ミックス音がプリプロセッシング部152に供給される。そして、当該ミックス音に基づいて、プリプロセッシング部152、間接音成分生成部153、及びポストプロセッシング部154による処理が実行される(S64,S65,S66)。ステップS64〜S66は第3実施形態のステップS33〜S35と基本的に同様であり、プリプロセッシング部152、間接音成分生成部153、及びポストプロセッシング部154は第3実施形態のプリプロセッシング部122、間接音成分生成部123、及びポストプロセッシング部124と基本的に同様であるため、ここでは説明を省略する。
【0114】
なお、間接音成分付加部151Aによって間接音成分が付加された演奏音は、経路159を介して出力制御部155に供給される。経路159は第2実施形態の経路119と同様である。
【0115】
出力制御部155は、コンテンツ音と、間接音成分付加部151Aによって間接音成分が付加された演奏音と、間接音成分生成部153によって生成された間接音成分とをミックスし、当該ミックス音を出力部14に出力する(S67)。出力部14に出力されたミックス音はスピーカ6によって放音される。
【0116】
以上に説明した第7実施形態に係る音処理装置1によれば、ユーザは音楽コンテンツの演奏者の一員となってホール等で演奏している気分を楽しむことができる。また、第7実施形態に係る音処理装置1によれば、ユーザの演奏音とコンテンツ音との間接音成分の量を合わせることが可能になり、その結果、ユーザの演奏音とコンテンツ音との一体感をユーザが十分に感じることが可能になる。
【0117】
なお、
図18に示したように、第7実施形態においても、アコースティック楽器の楽器音又は歌唱音がマイク3から入力されるようにしてもよい。ただし、この場合、マイク3から含まれる演奏音に間接音成分が予め含まれる場合があるため、演奏音調整部151では、演奏音に含まれる間接音成分を一旦除去した後で、間接音成分付加部151Aによって間接音成分を演奏音に対して付加するようにしてもよい。
【0118】
[第8実施形態]次に、第8実施形態について説明する。第8実施形態は第7実施形態の変形例である。第8実施形態に係る音処理装置1では、演奏音への間接音の付加の仕方を当該演奏音の種類に応じて変える。
【0119】
図20は、第8実施形態に係る音処理装置1で実現される機能を示す機能ブロック図であり、
図21は、第8実施形態に係る音処理装置1で実行される処理を示すフロー図である。
図20に示すように、第8実施形態に係る音処理装置1は、演奏音調整部151、プリプロセッシング部152、間接音成分生成部153、ポストプロセッシング部154、出力制御部155、コンテンツデコード部156、間接音成分量解析部157、及び演奏音種類特定部158を含む。これらの機能ブロックはCPU11及び音響信号処理部15によって実現される。例えば、CPU11がプログラムに従って音響信号処理部15を制御することによって、上記の機能ブロックが実現される。
【0120】
第8実施形態に係る音処理装置1は演奏音種類特定部158を含み、ステップS62の代わりにステップS62A,S62Bを含む点で第7実施形態と異なる。以下、第7実施形態との相違点について主に説明する。
【0121】
第8実施形態に係る音処理装置1では、演奏音種類特定部158は、入力された演奏音の種類を特定する(ステップS62A)。例えば、演奏音種類特定部158は、入力された演奏音が楽器音であるか否かを判定する。また、入力された演奏音が楽器音である場合、演奏音種類特定部158は楽器音の種類を特定する。すなわち、演奏音種類特定部158は、入力された演奏音が複数種類の楽器(例えばギター、バイオリン、又はピアノ等)のうちのいずれの音であるのかを特定する。また例えば、演奏音種類特定部158は、入力された演奏音が歌唱音であるか否かを判定する。なお、演奏音の種類を特定する方法としては公知の各種方法を採用することができる。
【0122】
また、第8実施形態の間接音成分付加部151Aは、間接音成分量解析部157の解析結果だけでなく、演奏音種類特定部158の特定結果にも基づいて、演奏音に対応する間接音成分を当該演奏音に対して付加する(S62B)。すなわち、間接音成分付加部151Aは、間接音成分量解析部157の解析結果だけでなく、演奏音種類特定部158の特定結果にも基づいて、演奏音に対して付加する間接音成分を設定する。
【0123】
現実の音響空間における演奏音の放射特性は演奏音の種類ごとに異なるため、間接音成分付加部151Aは、演奏音の種類ごとに異なる放射特性を踏まえて、演奏音に対して付加する間接音成分を設定する。
【0124】
例えば、ギターの楽器音は他の方向に比べて正面方向に放射される傾向があるため、演奏音がギターの楽器音である場合、間接音成分付加部151Aは、正面方向に対応するチャンネルに対して間接音成分(残響成分等)を付加する。または、間接音成分付加部151Aは、正面方向に対応するチャンネルに対して付加する間接音成分の量を、他のチャンネルに対して付加する間接音成分の量よりも大きくする。
【0125】
また例えば、バイオリンの楽器音は他の方向に比べて上方向に放射される傾向があるため、演奏音がバイオリンの楽器音である場合、間接音成分付加部151Aは、上方向に対応するチャンネルに対して間接音成分(残響成分等)を付加する。または、間接音成分付加部151Aは、上方向に対応するチャンネルに対して付加する間接音成分の量を、他のチャンネルに対して付加する間接音成分の量よりも大きくする。
【0126】
また例えば、歌唱音は他の方向に比べて正面方向に放射される傾向があるため、演奏音が歌唱音である場合、間接音成分付加部151Aは、正面方向に対応するチャンネルに対して間接音成分(残響成分等)を付加する。または、間接音成分付加部151Aは、正面方向に対応するチャンネルに対して付加する間接音成分の量を、他のチャンネルに対して付加する間接音成分の量よりも多くする。
【0127】
以上に説明した第8実施形態に係る音処理装置1によれば、ユーザの演奏音の放射特性を踏まえて、間接音成分を演奏音に対して付加することが可能になり、より自然な間接音成分を演奏音に対して付加できるようになる。
【0128】
[第9実施形態]次に、第9実施形態について説明する。第9実施形態に係る音処理装置1のハードウェア構成は第1実施形態と同様である。また、ユーザの演奏環境は第1実施形態又は第2実施形態と同様である。
【0129】
第6実施形態〜第8実施形態では、演奏音とコンテンツ音とで間接音成分の量を合わせるのに対し、第9実施形態に係る音処理装置1では、演奏音とコンテンツ音とで音色を合わせるようになっている。
【0130】
図22は、第9実施形態に係る音処理装置1で実現される機能を示す機能ブロック図である。
図22に示すように、第9実施形態に係る音処理装置1は、演奏音調整部161、プリプロセッシング部162、間接音成分生成部163、ポストプロセッシング部164、出力制御部165、コンテンツデコード部166、第1音色解析部167、及び第2音色解析部168を含む。これらの機能ブロックはCPU11及び音響信号処理部15によって実現される。例えば、CPU11がプログラムに従って音響信号処理部15を制御することによって、上記の機能ブロックが実現される。
【0131】
図23は、第9実施形態に係る音処理装置1で実行される処理を示すフロー図である。以下、
図23を参照しながら各機能ブロックの機能について説明する。
【0132】
まず、コンテンツデコード部166は、コンテンツ再生装置2から入力されるマルチチャンネルのコンテンツ音をフォーマットデコードすることによって、PCM信号に変換する(S70)。ステップS70は第3実施形態のステップS30と基本的に同様であり、コンテンツデコード部166は第3実施形態のコンテンツデコード部126と基本的に同様であるため、ここでは説明を省略する。
【0133】
第2音色解析部168はコンテンツ音の音色を解析する(S71)。例えば、コンテンツ音に複数種類の楽器音が含まれる場合に、第2音色解析部168は、当該複数種類の楽器音のうちの、演奏音に含まれる種類の楽器音を特定し、当該楽器音の音色を解析する。また例えば、演奏音に歌唱音が含まれる場合に、第2音色解析部168はコンテンツ音に含まれる歌唱音の音色を解析する。なお、コンテンツ音に含まれる楽器音又は歌唱音を特定する方法や、楽器音又は歌唱音の音色を解析する方法としては、公知の各種方法を採用することができる。
【0134】
第1音色解析部167は演奏音の音色を解析する(S72)。第1音色解析部167は演奏音に含まれる楽器音又は歌唱音を特定し、当該楽器音又は歌唱音の音色を解析する。演奏音の音色を解析する方法としては公知の各種方法を採用することができる。
【0135】
なお、
図23では、便宜上、ステップS70,71とステップS72とが順番に実行されるように示されているが、ステップS70,S71とステップS72とは並列的に実行される。
【0136】
演奏音調整部161は演奏音を調整する(S73)。ステップS62は第1実施形態又は第2実施形態のステップS10,S20と基本的に同様であり、演奏音調整部161は第1実施形態又は第2実施形態の演奏音調整部101,111と基本的に同様である。
【0137】
ただし、第9実施形態の演奏音調整部161は、演奏音とコンテンツ音との特性を合わせるために演奏音を調整する役割も果たす。すなわち、演奏音調整部161は音色調整部161Aを含み、ステップS73において、音色調整部161Aは、第1音色解析部167の解析結果と、第2音色解析部168の解析結果との比較に基づいて、演奏音の音色を調整する。
【0138】
例えば、演奏音に含まれるバイオリン音(バイオリンの楽器音)の高域成分が多いとの解析結果が第1音色解析部167によって得られ、かつ、コンテンツ音に含まれるバイオリン音の高域成分が少ないとの解析結果が第2音色解析部168によって得られた場合、音色調整部161Aは演奏音に含まれるバイオリン音の高域成分を減少させる。要するに、演奏音に含まれる楽器音の特定帯域成分の量とコンテンツ音に含まれる同種の楽器音の特定帯域成分の量とが異なる場合に、演奏音に含まれる楽器音の特定帯域成分とコンテンツ音に含まれる同種の楽器音の高域成分と同程度に設定すべく、音色調整部161Aは演奏音に含まれる楽器音の特定帯域成分を調整する。
【0139】
第9実施形態に係る音処理装置1では、コンテンツ音と、音色調整部161Aによって音色が調整された演奏音とがミックスされ(S74)、当該ミックス音がプリプロセッシング部162に供給される。そして、当該ミックス音に基づいて、プリプロセッシング部162、間接音成分生成部163、及びポストプロセッシング部164による処理が実行される(S75,S76,S77)。ステップS75〜S77は第3実施形態のステップS33〜S35と基本的に同様であり、プリプロセッシング部162、間接音成分生成部163、及びポストプロセッシング部164は第3実施形態のプリプロセッシング部122、間接音成分生成部123、及びポストプロセッシング部124と基本的に同様であるため、ここでは説明を省略する。
【0140】
なお、音色調整部161Aによって音色が調整された演奏音は、経路169を介して、出力制御部165に供給される。経路169は第2実施形態の経路119と同様である。
【0141】
第3実施形態の出力制御部125と同様に、出力制御部165は、経路169を介して供給された演奏音(音色調整部161Aによって音色が調整された演奏音)と、ポストプロセッシング部164から供給されるコンテンツ音及び間接音成分とをミックスし、当該ミックス音を出力部14に出力する(S78)。出力部14に出力されたミックス音はスピーカ6によって放音される。
【0142】
以上に説明した第9実施形態に係る音処理装置1によれば、ユーザは音楽コンテンツの演奏者の一員となってホール等で演奏している気分を楽しむことができる。また、第9実施形態に係る音処理装置1によれば、ユーザの演奏音とコンテンツ音との音色を合わせることが可能になり、その結果、ユーザの演奏音とコンテンツ音との一体感をユーザが十分に感じることが可能になる。
【0143】
なお、演奏音の音色を調整する音色調整部161Aの代わりに、コンテンツ音の音色を第1音色解析部167の解析結果と第2音色解析部168の解析結果との比較に基づいて調整する音色調整部を設けるようにしてもよい。
【0144】
この音色調整部は、例えば、演奏音に含まれるバイオリン音の高域成分が多いとの解析結果が第1音色解析部167によって得られ、かつ、コンテンツ音に含まれるバイオリン音の高域成分が少ないとの解析結果が第2音色解析部168によって得られた場合に、コンテンツ音に含まれるバイオリン音の高域成分を増加させるようにしてもよい。
【0145】
また、この音色調整部は、例えば、演奏音ではバイオリン音(バイオリンの楽器音)の高域成分が多いとの解析結果が第1音色解析部167によって得られ、かつ、コンテンツ音では、バイオリン音とは異なる楽器音であるギター音の高域成分が多いとの解析結果が第2音色解析部168によって得られた場合に、コンテンツ音に含まれるギター音の高域成分を減少させるようにしてもよい。
【0146】
なお、演奏音の音色を調整する音色調整部161Aと、コンテンツ音の音色を調整する音色調整部との両方を設けるようにしてもよい。例えば、第1音色解析部167によって、演奏音に含まれるバイオリン音の高域成分が多いとの解析結果が得られ、かつ、第2音色解析部168によって、コンテンツ音に含まれるバイオリン音の高域成分が少ないとの解析結果が得られた場合に、演奏音に含まれるバイオリン音の高域成分とコンテンツ音に含まれるバイオリン音の高域成分とを同程度に設定すべく、演奏音に含まれるバイオリン音の高域成分と、演奏音に含まれるバイオリン音の高域成分とをそれぞれ調整するようにしてもよい。
【0147】
[変形例]本発明は以上説明した第1実施形態〜第9実施形態に限定されるものではない。
【0148】
例えば、第1実施形態〜第9実施形態のうちの複数を組み合わせるようにしてもよい。
【0149】
また例えば、以上では、音処理装置1がAVレシーバであることを前提として説明しており、以上に説明したような機能はAVレシーバを用いて実現することができるが、音処理装置1はAVレシーバ以外の装置であってもよく、以上に説明したような機能はAVレシーバ以外の装置によって実現するようにしてもよい。例えば、音処理装置1はスピーカに内蔵されるようにしてもよい。また例えば、音処理装置1は、デスクトップ型コンピュータ、ラップトップ型コンピュータ、タブレット型コンピュータ、又はスマートフォン等によって実現するようにしてもよい。
【0150】
[付記]以上に説明した実施形態についての記載から把握されるように、本明細書では以下に記載の発明を含む多様な技術的思想が開示されている。
【0151】
本発明に係る音処理装置は、ユーザの演奏音の入力を受け付ける入力手段と、前記演奏音と、コンテンツデータに基づいて得られる音であるコンテンツ音との特性を合わせるために、前記演奏音と前記コンテンツ音との少なくとも一方を調整する調整手段と、前記演奏音と前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成する生成手段と、前記演奏音と、前記コンテンツ音の少なくとも直接音成分と、前記間接音成分とをミックスしてなる音を出力手段に出力する出力制御手段と、を含む。
【0152】
また、本発明に係る音処理方法は、ユーザの演奏音と、コンテンツデータに基づいて得られるコンテンツ音との特性を合わせるために、前記演奏音と前記コンテンツ音との少なくとも一方を調整する調整ステップと、前記演奏音と前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成する生成ステップと、前記演奏音と、前記コンテンツ音の少なくとも直接音成分と、前記間接音成分とをミックスしてなる音を出力手段に出力する出力制御ステップと、を含む。
【0153】
また、本発明に係るプログラムは、ユーザの演奏音と、コンテンツデータに基づいて得られるコンテンツ音との特性を合わせるために、前記演奏音と前記コンテンツ音との少なくとも一方を調整する調整手段、前記演奏音と前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成する生成手段、及び、前記演奏音と、前記コンテンツ音の少なくとも直接音成分と、前記間接音成分とをミックスしてなる音を出力手段に出力する出力制御手段、としてコンピュータを機能させるためのプログラムである。また、本発明に係る情報記憶媒体は、上記プログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。
【0154】
上記発明では、前記調整手段は、前記コンテンツ音に含まれる間接音成分を除去し、前記生成手段は、前記演奏音と、前記調整手段によって間接音成分が除去された前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成するようにしてもよい。
【0155】
上記発明では、前記調整手段は、前記演奏音の入力に応じて、前記コンテンツ音に含まれる間接音成分を除去するようにしてもよい。
【0156】
上記発明では、前記コンテンツ音に含まれる間接音成分の量を解析する解析手段を含み、前記調整手段は、前記演奏音に対応する間接音成分を前記演奏音に対して付加するものであり、前記演奏音に対して付加する間接音成分の量を前記解析手段の解析結果に基づいて設定し、前記生成手段は、前記調整手段によって間接音成分が付加された前記演奏音と、前記コンテンツ音とをミックスしてなる音に対応する間接音成分を生成するようにしてもよい。
【0157】
上記発明では、前記演奏音に含まれる楽器音の種類を特定する手段を含み、前記調整手段は、前記演奏音に含まれる楽器音の種類に基づいて、前記演奏音に対して付加する間接音成分を設定するようにしてもよい。
【0158】
上記発明では、前記演奏音に前記歌唱音が含まれるか否かを判定する手段を含み、前記調整手段は、前記演奏音に前記歌唱音が含まれるか否かの判定結果に基づいて、前記演奏音に対して付加する間接音成分を設定するようにしてもよい。
【0159】
上記発明では、前記演奏音に含まれる楽器音の音色を解析する第1の音色解析手段と、前記コンテンツ音に含まれる楽器音の音色を解析する第2の音色解析手段と、を含み、前記調整手段は、前記第1の音色解析手段の解析結果と、前記第2の音色解析手段の解析結果との比較に基づいて、前記演奏音と前記コンテンツ音との少なくとも一方の音色を調整するようにしてもよい。
【0160】
上記発明では、前記演奏音に含まれる楽器音の種類を特定する手段を含み、前記第2の音色解析手段は、前記コンテンツ音に複数種類の楽器音が含まれる場合に、当該複数種類の楽器音のうちの、前記演奏音に含まれる種類の楽器音の音色を解析するようにしてもよい。
【0161】
上記発明では、前記演奏音に含まれる歌唱音の音色を解析する第1の音色解析手段と、前記コンテンツ音に含まれる歌唱音の音色を解析する第2の音色解析手段と、を含み、前記調整手段は、前記第1の音色解析手段の解析結果と、前記第2の音色解析手段の解析結果との比較に基づいて、前記演奏音と前記コンテンツ音との少なくとも一方の音色を調整するようにしてもよい。