IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 富士通テン株式会社の特許一覧

特開2024-73138評価装置、評価方法、音響システムおよび評価用信号生成方法
<>
  • 特開-評価装置、評価方法、音響システムおよび評価用信号生成方法 図1
  • 特開-評価装置、評価方法、音響システムおよび評価用信号生成方法 図2
  • 特開-評価装置、評価方法、音響システムおよび評価用信号生成方法 図3
  • 特開-評価装置、評価方法、音響システムおよび評価用信号生成方法 図4
  • 特開-評価装置、評価方法、音響システムおよび評価用信号生成方法 図5
  • 特開-評価装置、評価方法、音響システムおよび評価用信号生成方法 図6
  • 特開-評価装置、評価方法、音響システムおよび評価用信号生成方法 図7
  • 特開-評価装置、評価方法、音響システムおよび評価用信号生成方法 図8
  • 特開-評価装置、評価方法、音響システムおよび評価用信号生成方法 図9
  • 特開-評価装置、評価方法、音響システムおよび評価用信号生成方法 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024073138
(43)【公開日】2024-05-29
(54)【発明の名称】評価装置、評価方法、音響システムおよび評価用信号生成方法
(51)【国際特許分類】
   G10K 15/00 20060101AFI20240522BHJP
【FI】
G10K15/00 L
G10K15/00 M
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2022184180
(22)【出願日】2022-11-17
(71)【出願人】
【識別番号】000237592
【氏名又は名称】株式会社デンソーテン
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】阪本 浩二
(57)【要約】
【課題】対象音を高精度に評価することができる評価装置、評価方法、音響システムおよび評価用信号生成方法を提供すること。
【解決手段】実施形態に係る評価装置は、評価対象音の聴感評価を行う評価装置であって、コントローラを備える。コントローラは、評価対象音が人の耳に到達すると推定される信号である両耳信号を生成し、両耳信号に対して人の聴覚特性を再現する聴覚処理を施して、人が脳で認識する音声信号である認識信号を生成し、認識信号に基づいて評価対象音の評価を行う。
【選択図】図1
【特許請求の範囲】
【請求項1】
評価対象音の聴感評価を行う評価装置であって、コントローラを有し、
前記コントローラは、
評価対象音が人の耳に到達すると推定される信号である両耳信号を生成し、前記両耳信号に対して人の聴覚特性を再現する聴覚処理を施して、人が脳で認識する音声信号である認識信号を生成し、前記認識信号に基づいて前記評価対象音の評価を行う
評価装置。
【請求項2】
前記評価対象音は、
音源からの音源信号に線形信号処理と非線形信号処理を施した加工音響信号であって、
前記コントローラは、
前記加工音響信号における線形信号処理による線形処理信号の非定常ラウドネスと、前記加工音響信号における非線形信号処理による非線形処理信号の非定常ラウドネスとの差分であるラウドネス差分を算出し、前記ラウドネス差分に基づいて前記評価対象音の評価を行う
請求項1に記載の評価装置。
【請求項3】
前記コントローラは、
混入するノイズを模したノイズ信号を取得し、
前記ノイズ信号の非定常ラウドネスを計算し、
前記線形処理信号の非定常ラウドネスから前記ノイズ信号の非定常ラウドネスを除算した値と、前記非線形処理信号の非定常ラウドネスから前記ノイズ信号の非定常ラウドネスを除算した値との差分を前記ラウドネス差分として算出する
請求項2に記載の評価装置。
【請求項4】
前記コントローラは、
前記ラウドネス差分を時間領域に展開し、時間領域における各時間帯の前記両耳信号のピーク値に基づいて前記時間帯毎に聴感を評価する
請求項2または3に記載の評価装置。
【請求項5】
評価対象音が人の耳に到達すると推定される信号である両耳信号を生成する工程と、
前記両耳信号に対して人の聴覚特性を再現する聴覚処理を施して、人が脳で認識する音声信号である認識信号を生成する工程と、
前記認識信号に基づいて前記評価対象音の評価を行う工程と、
を含む、コントローラが実行する評価方法。
【請求項6】
音源装置と、
前記音源装置から入力される音源信号に対して信号処理を施した加工音響信号を出力する音響装置と、
前記音響装置から出力される前記加工音響信号を評価対象音として聴感を評価し、評価結果に基づいて前記音響装置の信号処理を調整する評価装置と、
を備え、
前記評価装置は、
評価対象音が人の耳に到達すると推定される信号である両耳信号を生成し、前記両耳信号に対して人の聴覚特性を再現する聴覚処理を施して、人が脳で認識する音声信号である認識信号を生成し、前記認識信号に基づいて、前記評価対象音の評価を行う
音響システム。
【請求項7】
音源からの音源信号に線形信号処理と非線形信号処理を施した加工音響信号から評価用信号を生成する評価用信号生成方法であって、
前記加工音響信号における線形信号処理による線形処理信号の非定常ラウドネスを計算する第1計算工程と、
前記加工音響信号における非線形信号処理による非線形処理信号の非定常ラウドネスを計算する第2計算工程と、
評価用信号生成として、前記第1計算工程で計算した前記非定常ラウドネスと前記第2計算工程で計算した前記非定常ラウドネスとの差分であるラウドネス差分を計算する工程と、
を含む、コントローラが実行する評価用信号生成方法。
【請求項8】
混入するノイズを模したノイズ信号を取得する工程と、
前記ノイズ信号の非定常ラウドネスを計算する工程と、
をさらに含み、
前記第1計算工程は、
前記線形処理信号の非定常ラウドネスから前記ノイズ信号の非定常ラウドネスを除算した非定常ラウドネスを計算し、
前記非線形処理信号の非定常ラウドネスから前記ノイズ信号の非定常ラウドネスを除算した非定常ラウドネスを計算する
請求項7に記載の評価用信号生成方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、評価装置、評価方法、音響システムおよび評価用信号生成方法に関する。
【背景技術】
【0002】
従来、例えば、3次元音響等におけるサラウンド音の評価指標として、音響システムや音場におけるインパルス応答を用いた技術がある(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開平07-336800号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、従来技術では、サラウンド音等の評価対象となる評価対象音をより精度良く評価する点でさらなる改善の余地があった。
【0005】
本発明は、上記に鑑みてなされたものであって、評価対象音を高精度に評価することができる評価装置、評価方法、音響システムおよび評価用信号生成方法を提供することを目的とする。
【課題を解決するための手段】
【0006】
上述した課題を解決し、目的を達成するために、本発明に係る評価装置は、評価対象音の聴感評価を行う評価装置であって、コントローラを備える。前記コントローラは、評価対象音が人の耳に到達すると推定される信号である両耳信号を生成し、前記両耳信号に対して人の聴覚特性を再現する聴覚処理を施して、人が脳で認識する音声信号である認識信号を生成し、前記認識信号に基づいて前記評価対象音の評価を行う。
【発明の効果】
【0007】
本発明によれば、人が知覚すると推定される評価対象音に基づき評価対象音の評価、つまり原音に対する音響処理等の評価が行われることになるので、音響再生環境や聴取者特性等に左右され難い適切な評価を行うことが期待できる。
【図面の簡単な説明】
【0008】
図1図1は、実施形態に係る音響システムの構成例を示す図である。
図2図2は、実施形態に係る音響装置の構成例を示す機能ブロック図である。
図3図3は、音響パラメータの一例を示す図である。
図4図4は、実施形態に係る評価装置の構成例を示す機能ブロック図である。
図5図5は、聴覚モデルの一例を示す図である。
図6図6は、聴感モデルの一例を示す図である。
図7図7は、サラウンド処理が施された音響再生音の評価時における信号処理および信号の流れを示す図である。
図8図8は、聴感モデルを用いた聴感評価方法を示す図である。
図9図9は、聴感モデルによる聴感評価の他の例を示す図である。
図10図10は、実施形態に係る評価装置が実行する処理の処理手順を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下、添付図面を参照して、本願の開示する評価装置、評価方法、音響システムおよび評価用信号生成方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。
【0010】
まず、図1を用いて、実施形態に係る評価方法の概要について説明する。図1は、実施形態に係る音響システムSの構成例を示す図である。図1に示すように、音響システムSは、評価装置1と、音響装置50と、音源装置100と、スピーカ200とを含む。この音響システムSは、例えば、車両に搭載される。
【0011】
なお、図1では、音響システムSは、評価装置1を含んだ状態で車両に搭載される例を示しているが、車両搭載前の評価試験で、評価装置1を接続して評価し、そして評価結果に基づき音響装置50の音響パラメータ記憶部520に記憶された音響処理用の音響パラメータ520Pの調整を完了し、その後評価装置1を除いた状態で車両に搭載されてもよい。
【0012】
音源装置100は、音楽や音声を含む音(再生音)の音源信号を出力する装置で、例えばディスクプレーヤ、メモリプレーヤ、インターネット音楽配信等のネットワークプレーヤ等である。音源装置100は、音源信号を音響装置50へ出力する。
【0013】
音響装置50は、音源装置100から入力される音源信号に対して線形信号処理や、非線形信号処理を施す。線形信号処理は、音源信号の周波数特性や振幅特性を調整して直接音を生成する処理である。非線形信号処理は、例えば、音源信号を周波数成分に分解して、周波数成分毎に適当な遅延処理、増幅処理等を施す等することで、疑似的な残響音(サラウンド成分:反射音、残響音)を生成する処理である。線形信号処理では音源信号に対して1つの処理信号が生成されるが、非線形信号処理では音源信号に対して複数の処理信号が生成される。
【0014】
音響装置50は、線形信号処理や、非線形信号処理を施した後の信号(以降、加工音響信号と称する)によりスピーカ200を駆動して車室内へ再生音として音声出力する。具体的には、音響装置50は、音源信号に基づいて、線形信号処理により生成した直接音(音源信号でも可)と、非線形信号処理により生成した疑似的な残響音(サラウンド成分)とを生成し、スピーカ200から直接音と、この疑似的な残響音とを音声出力する。より具体的には、音響装置50は、ユーザによって予め指定された音響パラメータ520P(図3参照)により線形信号処理および非線形信号処理等を施して、所謂サラウンド信号を生成し、スピーカ200からサラウンド音響信号を出力する。
【0015】
ここで、音響パラメータ520Pは、聴感パラメータと、聴感パラメータに対応した処理パラメータとを含む。聴感パラメータは、再生音を聴取するユーザの聴感に関するパラメータであり、聴取者の聴感特性の個人差を無くすために処理に用いられる。例えば、スピーカ等の音発生地点から聴取者の聴取地点(例えば、両耳地点)までの頭部伝達関数に基づく値等が聴感パラメータとして使用され、聴取者の個人差、聴取位置の違い等による聴取音の差異を打ち消す処理等が行われる。処理パラメータは、線形信号処理および非線形信号処理に用いられるパラメータであり、例えば、音響信号における増幅処理の周波数特性、遅延処理の遅延時間特性等を定める設定値等である。
【0016】
つまり、音響装置50は、音源装置100からの音響信号に対して、聴感パラメータを用いて聴取者の聴感特性の個人差を打ち消す処理を行い、さらに処理パラメータを用いてサラウンド感を感じさせる処理を行って、スピーカ200に出力するサラウンド信号を生成する。
【0017】
評価装置1は、実施形態に係る評価方法を実行することで、再生音(対象音)に対してユーザが受ける聴感が適切なもの(線形信号処理および非線形信号処理により生成したサラウンド音が目標とする聴感をユーザに与えるものとなっているか)を評価する。また、評価装置1は、評価結果に基づいて、音響装置50の各音響パラメータ520Pの値を適切な聴感となるように調整する。
【0018】
具体的には、実施形態に係る評価方法では、評価装置1は、評価用信号の生成処理および評価用信号の評価処理を実行する。
【0019】
具体的には、先ず生成処理は、評価対象音(再生音)が車室内等の音場を介して人の耳に到達すると推定される信号である両耳信号を生成する。次に評価処理は、両耳信号に対して人の聴覚特性を再現する聴覚処理を施して、人が脳で認識する音声信号である認識信号を生成し、生成した認識信号に基づいて、評価対象音の評価を行う。具体的には、認識信号の生成に関しては、聴覚処理として人の聴覚特定をモデル化した聴覚モデルを用いることができる。そして、生成した両耳信号を人の聴覚特性をモデル化した聴覚モデルに入力することで、人が脳で認識する両耳信号の特徴(認識信号)を出力し、出力した特徴に基づいて、対象音に対して人が感じる聴感を制御する。具体的には、聴覚モデルは、外耳に到達した対象音が人の内耳を通り脳に電気信号として伝達された場合の対象音の特徴に関するスコアを出力する。
【0020】
また、詳細は後述するが、評価処理では、聴覚モデルから出力された特徴を聴感モデルに入力し、人が感じる対象音の特徴を出力する聴感モデルを用いて、対象音を評価する。つまり、聴感モデルは、聴覚モデルから出力された特徴を入力することで、再生音の総合印象やその要素としての音色、空間印象、さらにその要素の音像位置、音像幅といった聴感パラメータの評価指標であるスコアを出力する。
【0021】
そして、評価装置1は、評価処理の評価結果、すなわち、聴感モデルから出力された聴感パラメータのスコアに基づいて、音響装置50における信号処理を調整する。具体的には、評価装置1は、聴感モデルから出力された聴感パラメータと、音響パラメータ520Pにおける聴感パラメータとの比較結果に基づいて、聴感モデルから出力される聴感パラメータが音響パラメータ520Pにおける聴感パラメータに近づくように、音響パラメータ520Pにおける処理パラメータを調整する。
【0022】
このように、実施形態に係る評価方法によれば、聴覚モデルから出力される対象音の特徴を聴感モデルに入力し、聴感モデルから出力される聴感パラメータを用いることで、対象音の聴感を高精度に評価することができる。
【0023】
次に、図2を用いて、実施形態に係る音響装置50の構成について説明する。図2は、実施形態に係る音響装置50の構成例を示す機能ブロック図である。なお、図2のブロック図では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
【0024】
換言すれば、図2のブロック図に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
【0025】
図2に示すように、音響装置50には、評価装置1と、音源装置100と、スピーカ200と、入力装置300とが接続される。入力装置300は、ユーザによる各種入力操作を受け付けるもので、例えば、タッチパネルや、押しボタンスイッチ等で構成される。
【0026】
また、音響装置50は、コントローラ51と、記憶部52とを備える。記憶部52には、音響パラメータ記憶部520が構成される。
【0027】
ここで、音響装置50(コントローラ51、記憶部52)は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ、入出力ポートなどを有するコンピュータや各種の回路で構成される。
【0028】
コンピュータのCPUは、例えば、ROMに記憶された受信プログラムを読み出して実行することによって、コントローラ51が有する下記に示す各機能を実行する。
【0029】
また、コントローラ51が有する各機能うちの少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
【0030】
また、記憶部52は、例えば、半導体素子メモリや、ハードディスクドライブといった記憶デバイスで構成される記憶部である。かかる記憶部52には、各種プログラムや、音響パラメータ等の各種データが記憶される。
【0031】
音響パラメータDB520は、音源装置100からの音響信号に基づきサラウンド信号を生成するための、各種パラメータの値を記憶するデータベースである。
【0032】
ここで、図3を用いて、音響パラメータDB520について説明する。図3は、音響パラメータDB520の一例を示す図である。図3に示すように、音響パラメータDB520は、「パラメータID」、「音響効果種別」、「補正パラメータ」、「音響効果パラメータ」および「調整パラメータ」といった項目のデータが記憶される。
【0033】
「パラメータID」は、各音響パラメータを識別する識別情報である。「パラメータID」は音響パラメータDB520の主キーとなるデータ項目で、パラメータIDデータ毎にデータセットが形成され、パラメータIDデータに対応する他項目のデータが当該データセットに記憶される。「音響効果種別」は、サラウンドの効果概要を示すデータ項目であり、ユーザに再生中のサラウンド効果を報知(表示等)するために用いられる。つまり、一般のユーザはサラウンド処理に関するパラメータ値を見ても、どのような印象を与えるサラウンドかを想像しがたい。このため、「音響効果種別」は、ユーザがサラウンド効果を想像しやすいように、例えば具体的な音響空間(施設)種別名(スタジアムやコンサートホール)でサラウンド効果を言語表現したデータとなっている。「補正パラメータ」は、再生音を聴取するユーザ(両耳)までの音声伝達経路(聴取空間の空間音響特性や視聴位置)の差異や、ユーザの聴覚特性(年齢等による音の聞こえ方の周波数特性等)の差異に基づき再生音を処理するために用いられ、聴取空間の差や聴取者の位置や聴覚特性の個人差による聴取音の差をこの処理によりを減少するができる。例えば、スピーカ等の音発生地点から聴取者の聴取地点(例えば、両耳地点)までの頭部伝達関数に基づく値等が聴感パラメータのデータとして使用され、聴取者の個人差、聴取位置の違い等による聴取音の差異を打ち消す処理等が行われる。なお、「補正パラメータ」のデータは、聴取空間(音楽等の再生空間)において予め測定された空間特性データに基づき聴取空間の差対する補正データを算出する、空間聴取者の聴取位置をカメラ画像等に用いて検出する等して当該位置に対応する補正データを算出する、あるいは聴取者が提示された聴取状況モデルから選択する等の方法により求められる。「音響効果パラメータ」は、線形信号処理および非線形信号処理に用いられるパラメータであり、例えば、音響信号における増幅処理の周波数特性、遅延処理の遅延時間特性等を定める設定値等である。音響効果パラメータデータを用いた音響信号処理により、音響効果種別で示されたサラウンド効果を生じる音声信号が生成される。
【0034】
従って、補正パラメータと、音響効果パラメータによる音響信号処理によって、視聴空間や聴取者の差異による聴取音の差異が打ち消された音声信号、つまり音響効果処理のために標準化された音声信号に対して、目的とするサラウンド効果を生じるための処理が行われるので、聴取者は目的とするサラウンド効果を高精度に再現した音声再生を聴取することが可能となる。
【0035】
また、「調整パラメータ」は後述するサラウンド効果の評価結果に基づき、音響信号処理内容を調整するもので、線形信号処理および非線形信号処理に用いられるパラメータである。なお、調整パラメータは音響効果パラメータを補正するデータとしても良く、その場合は線形信号処理および非線形信号処理を行う前に音響効果パラメータを調整パラメータにより補正することになる。
【0036】
これにより、例えば、サラウンド効果の選択肢として「スタジアム」、「コンサートホール」等の音響効果種別がディスプレイ等に表示される。そして、聴取者が「スタジアム」を選択した場合、「スタジアム」に該当するパラメータID「P1」のデータセットが選択され、当該データセットにおける聴感パラメータが音響処理用のデータとして選択される。そして、かかる聴感パラメータのデータによりサラウンド再生のための音響処理、ここでは線形信号処理および非線形信号処理が行われる。これにより、聴取者はスタジアムで音楽等を聞いたような感覚のサラウンド再生を楽しむことができる。また聴取者が「コンサートホール」を選択した場合は、「コンサートホール」に該当するパラメータID「P2」のデータセットの聴感パラメータデータにより音響処理が行われ、聴取者はコンサートホールで音楽等を聞いたような感覚のサラウンド再生を楽しむことができる。
【0037】
次に、コントローラ51が実行する処理について説明する。
【0038】
コントローラ51は、音源装置100から音響装置50に入力される音源信号に対して、音響パラメータDB520のデータを参照して非線形信号処理および線形信号処理を行う。具体的には、コントローラ51は、音響パラメータDB520から、ユーザが指定した、または自動検出された音響効果種別に対応した補正パラメータと音響効果パラメータのデータを抽出し、当該データを用いて、直接音およびサラウンド音を加工音響信号として生成する。
【0039】
コントローラ51は、信号処理後の音源信号およびサラウンド音を含んだ加工音響信号をスピーカ200に出力する。そして、スピーカ200は、入力した信号を音声に変換して車内へ音声出力する。また、コントローラ51は、加工音響信号を評価の対象音として評価装置1へ出力する。
【0040】
なお、コントローラ51は、評価装置1による評価対象音の評価が完了した後に(信号処理の各パラメータの値の調整処理が完了した後に)、スピーカ200への加工音響信号の出力を許可してもよい。
【0041】
次に、図4を用いて、実施形態に係る評価装置1の構成について説明する。図4は、実施形態に係る評価装置1の構成例を示す機能ブロック図である。なお、図4のブロック図では、本実施形態の特徴を説明するために必要な構成要素のみを機能ブロックで表しており、一般的な構成要素についての記載を省略している。
【0042】
換言すれば、図4のブロック図に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
【0043】
図4に示すように、評価装置1は、コントローラ2と、記憶部3とを備える。また、評価装置1には、入力装置500と表示装置600とが接続される。入力装置500は、ユーザによる評価装置1に対する各種入力操作を受け付けるもので、例えば、タッチパネルや、押しボタンスイッチ等で構成される。表示装置600は、評価装置1に関する各種表示、例えば操作画面の表示や評価結果の表示を行うもので、LCDディスプレイ等により構成される。
【0044】
コントローラ2は、受付部21と、生成部22と、評価部23と、調整部24とを有する。
【0045】
ここで、評価装置1(コントローラ2、記憶部3)は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ、入出力ポートなどを有するコンピュータや各種の回路で構成される。
【0046】
コンピュータのCPUは、例えば、ROMに記憶された受信プログラムを読み出して実行することによって、コントローラ2の受付部21、生成部22、評価部23および調整部24として機能する。
【0047】
また、コントローラ2の受付部21、生成部22、評価部23および調整部24のうちの少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
【0048】
また、記憶部3は、例えば、半導体素子メモリや、ハードディスクドライブといった記憶デバイスで構成される記憶部である。かかる記憶部3には、各種プログラムやデータが記憶される。また記憶部3には、聴覚モデルDB(データベース)31、聴感モデルDB(データベース)32が構成され、聴覚モデル31M、聴感モデル32Mが記憶される。
【0049】
聴覚モデル31Mは、人の聴覚特性をモデル化した情報である。音声は人の外耳から内耳を通って伝わり、電気信号に変換されてり、脳に伝達される。聴覚モデル31Mは、これを模擬するもので、言うなれば、入力された音声信号(情報)を変換して脳に到達する音声信号(情報)を生成するモデルである。なお、聴覚モデル31Mは、後述する式(1)から式(5)に基づく処理を含むが、式(1)から式(5)については後述する。
【0050】
ここで、図5を用いて、記憶部3に記憶される聴覚モデルDB31について説明する。図5は、聴覚モデルDB31の一例を示す図である。図5に示すように、聴覚モデルDB31は、「モデルID」、「音響空間情報」、「聴取者特徴」および「聴覚モデル情報」といった項目を含む。
【0051】
「モデルID」には、聴覚モデルを識別する識別情報が記憶される。「モデルID」は聴覚モデルDB31の主キーとなるデータ項目で、モデルIDデータ毎にデータセットが形成され、モデルIDデータに対応する他項目のデータが当該データセットに記憶される。「聴取者特徴」は、モデルとする聴取者における聴覚に関係する特徴で、例えば年齢、性別や体格等のデータが記憶される。つまり、評価のための聴覚モデルを選択する際に、ユーザ(評価者)はこの聴取者特徴データに基づき選択する。例えば「20歳台の男性の聴覚モデル」と言った聴取者特徴データのリストが表示され、そこから対応する聴取者特徴データを選択して、結果聴覚モデルを選択すると言ったように聴取者特徴データを用いる。「音響空間情報」は、モデルとする音響空間の特徴で、ここでは音響空間特性を決めるデータとして車種(音響空間特性を決める音響空間形状、空間を形成する壁面材質、スピーカ位置等が車種毎に決められているため、車種により音響空間特性が決まる)が記憶される。つまり、評価のための聴覚モデルを選択する際に、ユーザ(評価者)はこの音響空間情報データに基づき選択する。例えば「車種A」と言った空間情報特徴データのリストが表示され、そこから対応する空間情報特徴データを選択して、結果聴覚モデルを選択すると言ったように空間情報特徴データを用いる。すなわち、ユーザ(評価者)は、聴取者特徴データに基づく選択と、音響空間情報データに基づく選択とにより、聴覚モデルを選択することになる。
【0052】
また、「聴覚モデル情報」にはモデル自体の情報、例えばモデルのプログラム、モデルを形成するために必要な各種データ、あるいはモデルの格納場所が記憶され、これらモデル自体の情報に基づき対応するモデルIDの聴感モデルが生成(あるいは取得)されることとなる。具体的には、「聴覚モデル情報」は、後述する式(1)から式(8)を含む情報である。なお、聴覚モデル31Mは、ユーザの属性毎、つまり聴取者特徴データ毎、また音響空間特性(車種)毎に生成され、記憶されることになる。
【0053】
聴感モデルDB32は、人の聴感特性をモデル化した情報である聴感モデルのデータベースである。ここでは、聴感モデル32Mは、脳に伝わった音声信号に対して人がどのように聞こえるか(感じるか)と言う情報を生成するモデルである。つまり、聴感モデル32は、聴覚モデル31が出力する音声信号を入力とし、当該音声信号に対して脳がどのような音として感じるかと言う聴感信号(情報)を出力とする。
【0054】
この聴感モデル32Mの詳細な具体例は後述するが、人工知能等により構成することもできる。簡易な具体例としては、聴感モデル32Mに出力させたい聴感を示す各種特性(各種聴感パラメータ)における各特性値と、聴取者の特徴(聴覚モデル31Mにおける聴取者特徴データ)とを回答とするアンケートを作成する。また、聴感モデル32Mの学習用の各種音声データを数多く準備する。そして、数多くの被験者に準備した各種音声データを聴取してもらい、各音声データに対してアンケートに回答してもらう。こうして集められたアンケート結果を対応する音声データと関連づけたデータを聴感学習データとする。そして、人工知能にこの聴感学習データを用いた学習を行なわせ、聴感モデル32Mを生成する。
【0055】
なお、被験者を層別して、当該層別に基づき聴感学習データを振り分けて、各々を別の人工知能に学習させることにより、当該層別の聴感モデルMiを生成できる。例えば、年齢層別の聴感モデルMiを生成できる。
【0056】
ここで、図6を用いて、記憶部3の聴感モデルDB32について説明する。図6は、聴感モデルDB32の一例を示す図である。図6に示すように、聴感モデルDB32は、「モデルID」、「聴取者特徴」および「聴感モデル情報」といった項目を含む。なお、ここでは「聴取者特徴」として年齢層を適用例とし、年齢層別の聴感モデル32Mが選択利用される例を示しているが、他の層別種の聴感モデル32Mが選択利用される例の場合、「聴取者特徴」の項目は、当該他の層別種の項目、例えば「性別」等となる。なお、聴覚モデルDB31の「聴取者特徴」は聴覚に相関のあるデータ種別が適用され、また聴感モデルDB32「聴取者特徴」は聴感に相関のあるデータ種別が適用されるが、各々で同じデータ種別を適用しても、異なるデータ種別を適用しても良い。
【0057】
「モデルID」には、聴感モデルを識別する識別情報が記憶される。「モデルID」は聴感モデルDB32の主キーとなるデータ項目で、モデルIDデータ毎にデータセットが形成され、モデルIDデータに対応する他項目のデータが当該データセットに記憶される。「年齢層(聴取者特徴)」には、対応するモデルIDの聴感モデルが適合する年齢層情報が記憶される。また、「聴感モデル情報」にはモデル自体の情報、例えばモデルのプログラム、モデルを形成するために必要な各種データ、あるいはモデルの格納場所が記憶され、これらモデル自体の情報に基づき対応するモデルIDの聴感モデルが生成(あるいは取得)されることとなる。つまり、例えば年齢層が10歳台の人物の聴感を推定したい場合は、聴感モデルDB32における「年齢層」データが10歳台であるデータセットの「聴感モデル情報」データに基づく聴感モデル32を利用することとなる。
【0058】
次に、コントローラ2の各機能ブロックが実行する処理について説明する。
【0059】
受付部21は、音響装置50が生成した加工音響信号を評価対象の評価対象音として受け付ける(入力する)。また、受付部21は、入力装置500からのユーザ(評価者)の操作入力に対応した操作入力信号を受け付ける。コントローラ2は、入力装置500からの操作入力に対応した動作、つまりユーザの指示に従った動作を行う。
【0060】
生成部22は、受付部21が受け付けた評価対象音が人の脳で感じられると推定される音の信号(以降、脳感信号と称する)を生成する。具体的には、生成部22は、受付部21が受け付けた評価対象音の音響信号を聴覚モデル31Mに適用(入力)し、当該聴覚モデル31Mの適用結果(出力)として、脳感信号を生成する。
【0061】
評価部23は、生成部22が生成した脳感信号に基づき、評価対象音におけるサラウンド効果の評価を行う。具体的には、評価部23は、生成部22が生成した脳感信号を聴感モデル32Mに適用(入力)し、当該聴感モデル32Mの適用結果(出力)として、聴取者が感じると推定される音声を示す聴感信号を生成する。そして、評価部23は、目的とする(狙いの)比較対象聴感信号と、推定した聴感信号とを比較する等して、評価対象音におけるサラウンド効果の評価を行う。なお、このサラウンド効果の評価のより具体的な方法については、後述する。
【0062】
調整部24は、評価部23の評価結果に基づいて、音響装置50におけるサラウンド信号を生成する信号処理の調整を行う。具体的には、調整部24は、評価部23によるサラウンド効果の評価に基づき音響パラメータDB520における音響パラメータ520Pの調整パラメータのデータを調整する。なお、この音響パラメータ調整のより具体的な方法については、後述する。
【0063】
次に、評価装置1の処理について、図7を用いて説明する。図7は、サラウンド処理が施された音響再生音の評価時における信号処理および信号の流れを示す図である。
【0064】
音源装置100からは、時刻tにおいて音源信号S(t)が音響装置50に出力される。音響装置50において、音源信号S(t)は線形信号処理p(t)および非線形信号処理surr(t)が行われ、線形処理信号P(t)および非線形処理信号Surr(t)の音声が視聴空間である音場rに出力される。なお、音声出力に際しては、アンプによる電力増幅、スピーカによる電気音響変換が行われるが、線形信号処理p(t)および非線形信号処理surr(t)に含まれるものとする。また、音響装置50における線形処理信号P(t)は音源信号S(t)の線形処理結果であるので、S(t)・p(t)と表すことができる。また、音響装置50における非線形処理信号Surr(t)は音源信号S(t)の非線形処理結果であるので、surr(S(t),t)と表すことができる。ここまでは、音響装置50による音質、サラウンド処理が施された音響信号の再生(出力)動作となる。つまり、これら線形処理信号P(t)と非線形処理信号Surr(t)が評価の対象となる。なお、線形信号処理p(t)および非線形信号処理surr(t)は、設計者等の評価者が評価を行う音響処理内容に対応する設定した初期設定値に基づき各音響処理を行うことになる。
【0065】
次にコントローラ2(生成部22)が、音響信号の聴取空間における音場の影響を再現する処理を行う。つまり、音響装置50の音声出力は、聴取空間を伝搬して聴取者に到達するため、つまり聴取空間の環境(壁面、物体等の状態)に応じていろいろな反射、回折等を行って聴取者に到達するため、元の音響信号とは異なった音声として聴取者に聴取される。本処理は、このような音場の影響を再現し、聴取者に聴取される音声信号、所謂両耳信号を再現する。
【0066】
音響装置50から聴取者までの音場(空間)特性(頭部伝達関数)r(t)とすると、聴取者(の両耳)に到達する線形処理信号P(t)は、音源信号S(t)に線形信号処理p(t)と音場特性r(t)との畳み込み演算を施した直接音信号、P(t)・r(t)(S(t)・p(t)・r(t))となる。また、また非線形処理信号Surr(t)は、音源信号S(t)に非線形信号処理surr(t)と音場特性r(t)との畳み込み演算を施したサラウンド音信号、Surr(t)・r(t)となる。また、聴取者には各種ノイズnoize(t)、例えば車載用音響装置ではロードノイズ、エンジンノイズ等といった車内において定常的に発生するノイズも伝わることになる。そこで、各種ノイズnoize(t)も聴取者に伝達される音響信号として加える。なお、各種ノイズnoize(t)は、評価対象とする聴取空間に設置したマイク、例えば車内に設置したマイクで集音したノイズ音を使用すれば良い。このように音響装置50の出力音響信号に、音場特性処理およびノイズの印加処理を施すことにより、音響空間を介して聴取者に伝達される音響装置50からの音響信号、つまり両耳信号を再現できる。
【0067】
なお、この両耳信号については、評価対象空間の実空間(例えば、車室内)を用いた実測信号を用いることもできる。この場合、ダミーヘッド(人間模した人形の両耳部にマイクを設置)を用いて、聴取空間を伝搬して聴取者に到達する音響装置50の音声出力と、聴取空間で発生するノイズとが取得されることになる。
【0068】
つづいて、コントローラ2(生成部22)が、聴覚モデル31を用いて、人が脳で認識する認識信号を生成する。つまり、認識信号は、両耳信号そのものではなく、例えば音量(振幅)が低くなれば低周波数帯および高周波数帯の音が中帯域の音に比べより小さく聞こえると言った、両耳信号が人の聴覚特性で変形されたものとなる。
【0069】
具体的には、コントローラ2は、聴覚モデルにより、両耳信号における直接音、サラウンド音およびノイズそれぞれの非定常ラウドネス(直接音非定常ラウドネスN、サラウンド音非定常ラウドネスNsurr、ノイズ非定常ラウドネスNnoize)を計算する。非定常ラウドネスの計算は、例えば、ISO532によって規格化されたラウドネス計算式を用いることができる。
【0070】
そして、コントローラ2は、直接音非定常ラウドネスNとノイズ非定常ラウドネスNnoizeを用いて(減算処理)、ノイズにマスキングされない直接音ラウドネス(以降、純直接音ラウドネスNmと称する)の非定常ラウドネスを計算する。また、サラウンド音非定常ラウドネスNsurrとノイズ非定常ラウドネスNnoizeを用いて(減算処理)、ノイズにマスキングされないサラウンド音の非定常ラウドネス(以降、純サラウンド音ラウドネスNm,surrと称する)を計算する。つまり、この処理により、音響装置50から音声出力された直接音とサラウンド音が、聴取空間の特性での変性、そして人の聴覚特性での変性を模擬する処理で変性され、脳で認識される音響信号を模擬する認識信号として生成される。なお、直接音非定常ラウドネスN、サラウンド音非定常ラウドネスNsurr、ノイズ非定常ラウドネスNnoizeの計算は、時間毎および周波数毎に計算されることになる。つまり、各ラウドネスは、時間tと周波数zの関数Nx(t,z)で表すことができる。
【0071】
そして、コントローラ2(生成部22)は、聴感モデル32を用いて純直接音ラウドネスNmと純サラウンド音ラウドネスNm,surrを評価処理し、直接音およびサラウンド音からなる音響信号の評価を行う。
【0072】
次に、コントローラ2が実行する聴覚モデル31の具体的処理(計算)例について説明する。なお、両耳信号は、右耳の信号の値と、左耳の信号の値とに分けて処理を行ってもよく、また右耳の信号および左耳の信号の総合値(例えば、加算値や平均値等)で処理を行ってもよい。
【0073】
具体的には、直接音非定常ラウドネスN(t,z)がノイズ非定常ラウドネスNnoise(t,z)よりも大きい場合(Nnoise<N)、純直接音ラウドネスNmを下記式(1)により算出する。つまり、この場合、直接音非定常ラウドネスN(t,z)からノイズ非定常ラウドネスNnoise(t,z)を減算した値と0の大きい方の値を純直接音ラウドネスNm(t,z)とする。
【0074】
【数1】
【0075】
尚、直接音非定常ラウドネスN(t,z)がノイズ非定常ラウドネスNnoise(t,z)を無視できるほど非常に大きい場合は、下記式(2)に示すように、直接音非定常ラウドネスN(t,z)を純直接音ラウドネスNm(t,z)としても良い。
【0076】
【数2】
【0077】
純直接音ラウドネスNm(t,z)の他の算出方法として、下記式(3)により算出してもよい。つまり、この場合、直接音非定常ラウドネスN(t,z)とノイズ非定常ラウドネスNnoise(t,z)の比と、1の大きい方の値を純直接音ラウドネスNm(t,z)とする。
【0078】
【数3】
【0079】
また、純直接音ラウドネスNm(t,z)と同様の算出方法(下記式(4)、(5)、(6)で、純サラウンド音ラウドネスNm,surrを算出する。
【0080】
【数4】
【0081】
【数5】
【0082】
【数6】
【0083】
つづいて、純直接音ラウドネスNm(t,z)と純サラウンド音ラウドネスNm,surr(t,z)の差分Nm,diff(t,z)(以降、純ラウドネス差分と称する)を、下記式(7)により算出する。
【0084】
【数7】
【0085】
つづいて、上記式(7)で算出した時間毎および周波数インデックス毎の純ラウドネス差分Nm,diff(t,z)(評価用信号)を下記式(8)により合計し、人が脳で認識する両耳信号(電気信号)の特徴として、聴覚モデル31の出力とする。
【0086】
なお、純ラウドネス差分Nm,diff(t,z)は聴感モデル32で使用されるので、聴覚モデル31で算出した各値を聴感モデル32に出力し、聴感モデル32で純ラウドネス差分Nm,diff(t,z)、および他の評価に必要な数値を算出する構成としても良い。
【0087】
【数8】
【0088】
このように、聴覚モデルの出力は、音源特性(S)に、サラウンド処理による音響特性(P)と、視聴空間の音場特性(R)と、周辺から入り込むノイズと、人の聴覚特性の影響を加えた信号となる。このため、人が脳で認識する音響信号に基づく評価が可能となり、より実体に近い音響信号、つまりサラウンド音生成処理の評価を行うことができる。
【0089】
なお、上記した聴覚モデル31では、ノイズの影響も考慮したものであるが、ノイズの影響を考慮しない評価を行う場合は、ノイズの入力は省略されてもよい。
【0090】
また、上記した聴覚モデルでは、非定常ラウドネスを用いる例を示したが、非定常ラウドネスに代えて、内耳等の聴覚系の応答や、A特性音圧レベルを用いた聴覚モデルとしてもよい。
【0091】
つづいて、評価部23は、聴覚モデルにより出力される両耳信号(人が脳で認識する音響信号)の特徴情報を聴感モデルに入力することで、評価対象音(サラウンド音)の聴感を評価する。具体的には、評価部23は、聴感モデルから出力される聴感信号に基づいて対象の聴感を評価する。
【0092】
ここで、図8を用いて、聴感モデルを用いた聴感評価方法について説明する。図8は、聴感モデルを用いた聴感評価方法を示す図である。
【0093】
図8に示すように、聴感モデルを用いた聴感評価では、上記で算出した両耳信号の特徴情報である純ラウドネス差分Nm,diff(t,z)の合計値Nm,diffを用いる。具体的には、評価部23は、純ラウドネス差分合計値Nm,diff(以下、単にNm,diffと称する場合がある)を聴感モデルに入力し、聴感モデルの出力として、評価対象音に対する人の評価(脳で認識した音響信号を人がどう感じたかの評価)を示すスコアを出力する。
【0094】
より具体的には、聴感モデルは、純ラウドネス差分合計値Nm,diffから、音色、音像距離および音源幅それぞれを算出する。具体的には、聴感モデルは、音色とNm,diffとの関係式F(Nm,diff)により音色のスコアを算出する。音色のスコアであるF(Nm,diff)は、例えば、回帰学習により得られる式であるF=a・Nm,diffにより算出する。
【0095】
なお、aは、所定の係数であり、例えば、事前に行う被験者へのアンケートの回答により算出される。具体的には、様々な値のNm,diffの音響信号を準備し、被験者に聴取してもらい、各音響信号に対する音色のスコアをアンケートとして回答してもらう。こうして集められたアンケートの回答に対応するNm,diffと音色のスコアとから機械学習(近似線の算出)を行い、所定の係数aを算出する。なお、所定の係数aは、1次関数の場合もあれば、2次以上の関数の場合もありうる。
【0096】
また、聴感モデルは、音像距離についても、音色と同様に、音像距離とNm,diffとの関係式F(Nm,diff)により音像距離のスコアを算出する。音像距離のスコアであるF(Nm,diff)は、例えば、回帰学習により得られる式であるF=b・Nm,diffにより算出する。なお、bは、所定の係数であり、上記した所定の係数aと同様の方法、すなわち、アンケートの回答により算出される。
【0097】
また、聴感モデルは、音像幅についても、音色と同様に、音像幅とNm,diffとの関係式F(Nm,diff)により音像幅のスコアを算出する。音像幅のスコアであるF(Nm,diff)は、例えば、回帰学習により得られる式であるF=c・Nm,diffにより算出する。なお、cは、所定の係数であり、上記した所定の係数aと同様の方法、すなわち、アンケートの回答により算出される。
【0098】
つづいて、聴感モデルは、音像距離および音像幅を入力として、空間印象を算出する。具体的には、聴感モデルは、音像幅および音像距離と、空間印象との関係式F(F,F)により空間印象のスコアを算出する。空間印象のスコアであるF(F,F)は、例えば、回帰学習により得られる式であるF=d1・F+d2・Fにより算出する。なお、d1およびd2は、所定の係数であり、上記した所定の係数aと同様の方法、すなわち、アンケートの回答により算出される。
【0099】
つづいて、聴感モデルは、音色および空間印象を入力として、総合印象(総合)を算出する。具体的には、聴感モデルは、音色および空間印象と、総合との関係式F(F,F)により総合のスコアを算出する。総合のスコアであるF(F,F)は、例えば、回帰学習により得られる式であるF=e1・F+e2・Fにより算出する。なお、e1およびe2は、所定の係数であり、上記した所定の係数aと同様の方法、すなわち、アンケートの回答により算出される。このように、聴感モデルは、聴感モデルの最終的な出力として総合のスコアを出力する。
【0100】
評価部23は、上記した聴感モデルにより出力された総合のスコアが所定の閾値未満である場合には、音響信号の聴感が適切ではないと評価し、調整部24に対して線形信号処理および非線形信号処理の調整を依頼する(調整指令信号を出力する)。なお、評価部23は、調整部24に対して調整を依頼する際、聴感モデルにおける中間層の値(音色、音像距離、音像幅および空間印象)を提供してもよい。
【0101】
そして、調整部24は、評価部23から調整依頼があった場合に、線形信号処理および非線形信号処理を調整する。例えば、調整部24は、評価部23から提供される中間層の値に基づいて、Nm,diffの目標値を設定する。例えば、調整部24は、中間層の値である音色、音像距離、音像幅および空間印象のうち、スコアが最も低い中間層の値が高くなるようにNm,diffの目標値を設定する。そして、調整部24は、設定したNm,diffの目標値となる直接音およびサラウンド音を生成するよう線形信号処理および非線形信号処理を調整する。具体的には、調整部24は、線形信号処理の関数式p(t)および非線形信号処理の関数式Surr(t)それぞれの係数を調整(修正)する。
【0102】
そして、コントローラ2は、評価部23による評価である総合のスコアが所定の閾値以上となるまで、評価部23による評価と、調整部24による調整とを繰り返し行う。また、簡易的な方法では、調整部24は、線形信号処理の関数式p(t)および非線形信号処理の関数式Surr(t)それぞれの係数を調整する。そして、評価部23は、調整された線形信号処理および非線形信号処理により生成された加工音響信号に基づき生成部22で生成された純ラウドネス差分合計値Nm,diffの評価を行う。そして調整部24は、再度その評価結果に基づき調整を行う。これら動作を、評価が目標値に達するまで(スコアが目標スコアに達するまで)繰り返し行う、と言う方法が適応可能である。
【0103】
なお、図8では、ノイズの影響を考慮した純ラウドネス差分合計値Nm,diffを聴感モデルの入力としたが、ノイズの影響を考慮しない純ラウドネス差分合計値N,diffを聴感モデルの入力とすることも可能である。ノイズの影響を考慮しない純ラウドネス差分合計値N,diffは、直接音非定常ラウドネスN、サラウンド音非定常ラウドネスNsurrの差分により算出される。
【0104】
また、ノイズの影響を考慮しない純ラウドネス差分合計値N,diffを用いる場合、例えば、車速とノイズとの関係を示すデータベース(不図示)を用いて車速から推定したノイズを、ノイズの影響を考慮しない純ラウドネス差分合計値N,diffとともに聴感モデルに入力してもよい。
【0105】
また、上記の聴感モデルでは、音響信号全体に対する総合のスコアを出力する例について説明したが、例えば、音響信号を所定の間隔で区切り、区切った時間帯毎に総合のスコアを出力してもよい。かかる点について、図9を用いて説明する。
【0106】
図9は、聴感モデルによる聴感評価の他の例を示す図である。図9の上段には、直接音およびサラウンド音を含んだ非定常ラウドネスと、サラウンド音の非定常ラウドネスとを時間領域に展開(横軸を時間に)したグラフを示している。また、図9の下段には、純ラウドネス差分合計値Nm,diffを時間領域に展開したグラフを示している。なお、以下では、図9における時間帯D1および時間帯D2を評価する場合を例に挙げるが、実際には、時間帯D1以前の時間帯や、時間帯D2以降の時間帯についても下記で説明する評価を同様に行う。
【0107】
また、時間帯D1は、ドラムのスネアの時間帯であり、時間帯D2は、ドラムのハイハットの時間帯であることとする。つまり、時間帯D1および時間帯D2では、音源の種類が異なることとする。
【0108】
かかる場合、聴感モデルは、時間帯D1および時間帯D2それぞれについて、総合のスコアを出力する。例えば、時間帯D1を評価する場合、聴感モデルは、まず、時間帯D1の中で、値が最も高いNm,diffを用いて、音色、音像距離および音像幅それぞれを算出する。つまり、聴感モデルは、時間帯D1におけるNm,diffのピーク値P1を入力として用いる。そして、聴感モデルは、例えば音色のスコアを、F=a・|Nm,diff(t)|maxにより算出する。そして、聴感モデルは、このようにして算出した音色、音像距離および音像幅のスコアを用いて、時間帯D1における総合のスコアを出力する。つまり、聴感モデルは、時間帯D1であるドラムのスネアの時間帯の聴感を評価する。時間帯1と同様に、時間帯D2についてもピーク値P2を用いて総合のスコアを出力する。つまり、聴感モデルは、時間帯D2であるドラムのハイハットの時間帯の聴感を評価する。
【0109】
このように、純ラウドネス差分合計値Nm,diffを時間領域に展開して、時間帯毎に聴感モデルにより聴感を評価することで、例えば複数種類の音源を含んだ音響信号について、各音源の音のみが存在する時間領域毎での聴感を評価することにより音源の種類毎に聴感を評価することができる。
【0110】
なお、上記した時間帯D1および時間D2の間隔、すなわち、聴感モデルによりスコア化する時間帯の間隔やタイミングは、評価の目的に応じて評価者によって任意の間隔が設定されてもよく、また時間領域に展開した純ラウドネス差分合計値Nm,diffをピーク単位(例えば、予め定めた所定レベルを超えるピーク点を中心とした両側隣接ピーク点との中間点までの領域、あるいは予め定めた所定レベルを超えるピーク点を中心とした予め定めた所定時間長の領域、等)で区切るような時間帯の間隔が自動で設定されてもよい。
【0111】
次に、図10を用いて、実施形態に係る評価装置1が実行する処理の処理手順について説明する。図10は、実施形態に係る評価装置1が実行する処理の処理手順を示すフローチャートである。
【0112】
図10に示すように、コントローラ2(受付部21)は、まず、ユーザから評価開始トリガを受け付ける(ステップS101)。評価開始トリガは、例えば、評価者であるユーザによる評価開始操作や、音響装置50の電源オン操作、音源装置100の電源オン操作等である。
【0113】
つづいて、コントローラ2は、処理パラメータ調整開始の報知をユーザに対して報知する(ステップS102)。報知方法は、ランプ点灯による報知や、音声案内による報知等がある。
【0114】
つづいて、コントローラ2(受付部21)は、音響装置50によって生成された加工音響信号である評価対象音と、加工音響信号に混入するノイズを模したノイズ信号とを受け付ける(ステップS103)。つづいて、コントローラ2(生成部22)は、評価対象音に基づいて、評価対象音が人の耳に到達すると推定される信号である両耳信号を生成する(ステップS104)。
【0115】
つづいて、コントローラ2(生成部22)は、両耳信号と、ノイズ信号とを聴覚モデルに入力し、人が脳で認識する両耳信号の認識信号を生成する(ステップS105)。
【0116】
つづいて、コントローラ2(評価部23)は、生成した認識信号を聴感モデルに入力し、評価対象音の評価を示すスコアを出力する(ステップS106)。
【0117】
つづいて、コントローラ2(評価部23)は、聴感モデルから出力されたスコアが閾値以上であるか否かを判定する(ステップS107)。
【0118】
コントローラ2(評価部23・調整部24)は、スコアが閾値以上である場合(ステップS107:Yes)、評価対象音の通常再生許可を含む調整完了通知をユーザに対して行い(ステップS108)、処理を終了する。
【0119】
一方、ステップS107において、コントローラ2(評価部23・調整部24)は、スコアが閾値未満である場合(ステップS107:No)、音響装置50に対する調整指令信号をスコアに基づき生成して、音響装置50に出力し(ステップS109)、ステップS103に戻って評価対象音の再評価を行う。これにより、音響装置50は調整指令信号に基づき信号処理(線形信号処理および非線形信号処理)を調整する。
【0120】
このように、上述に実施形態では、人が知覚する音声信号を推定し、当該推定した音声信号に基づき音響信号(音響処理)の評価を行うので、音響再生環境や聴取者特性に左右され難い適切な評価を行うことが期待できる。
【0121】
なお、上述した実施形態では、評価対象音としてオーディオ再生音楽を例に挙げたが、評価対象音は、ADAS(Advanced Driver-Assistance Systems)のサイン音や、走行騒音等といった環境騒音や制御音であってもよい。
【0122】
また、評価対象音は、音響システムで用いられる場合に限らず、例えば、ロボット等の知覚(聴覚)機能に関するシステムや、XR(ARやVR等)システム、対話システム、難聴支援システム等で用いられてもよい。
【0123】
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
【符号の説明】
【0124】
1 評価装置
2、51 コントローラ
3、52 記憶部
21 受付部
22 生成部
23 評価部
24 調整部
31 聴覚モデル
32 聴感モデル
50 音響装置
100 音源装置
200 スピーカ
300 入力装置
500 入力装置
600 表示装置
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10