(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-05-21
(45)【発行日】2024-05-29
(54)【発明の名称】ヘッドホン
(51)【国際特許分類】
H04S 7/00 20060101AFI20240522BHJP
H04R 3/00 20060101ALI20240522BHJP
H04R 1/10 20060101ALI20240522BHJP
【FI】
H04S7/00 340
H04R3/00 310
H04R1/10 101B
(21)【出願番号】P 2019219985
(22)【出願日】2019-12-04
【審査請求日】2022-11-09
(73)【特許権者】
【識別番号】000116068
【氏名又は名称】ローランド株式会社
(74)【代理人】
【識別番号】110002860
【氏名又は名称】弁理士法人秀和特許事務所
(72)【発明者】
【氏名】上野 正人
【審査官】大石 剛
(56)【参考文献】
【文献】特開2018-160714(JP,A)
【文献】特開2017-175256(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04S 7/00
H04R 3/00
H04R 1/10
(57)【特許請求の範囲】
【請求項1】
左右の装耳部と、前記左右の装耳部を連結する連結部とを含むヘッドホンであって、
前記ヘッドホンに夫々入力される、楽器の出力音と、前記楽器の出力音と異なる端末の出力音とのうち少なくとも端末の出力音について、音像を定位させる位置をユーザの頭部の向きに応じて変更する制御部と、
前記左右の装耳部に夫々備えられ、前記制御部によって少なくとも一方の音像を定位させる位置が変更された場合における前記楽器の出力音及び前記端末の出力音との混合音の信号が接続されるスピーカと、
を含み、
前記制御部は、スタティックモード及びステージモードで動作可能であり、
前記スタティックモードにおいて、前記制御部は、前記ヘッドホンがユーザに装着されているときに前記左右の装耳部の夫々に供給される前記混合音を、前記端末の出力音に関連する音像がユーザの頭の向きに関係なく初期位置に固定された状態である一方、前記楽器の出力音に関連する音像がユーザの頭の向きの変化に対して変化する位置となるように制御し、
前記ステージモードにおいて、前記制御部は、前記ヘッドホンがユーザに装着されているときに前記左右の装耳部の夫々に提供される前記混合音を、前記楽器の出力音及び前記端末の出力音の各々に関連付けられた音像が前記ユーザの頭部の向きの変化に対して相対的に変化するように制御する
ヘッドホン。
【請求項2】
前記制御部は、前記楽器の出力音の音像を定位させる位置と無関係に、前記楽器の出力音に対し、前記ユーザに正面を向けたキャビネットスピーカから出力された場合を模擬する効果を付与する
請求項1に記載のヘッドホン。
【請求項3】
前記頭部の向きは、前記頭部の水平方向における回転角度を含み、
前記回転角度に応じた、前記頭部の外にある音源から前記ユーザの左右の耳までの頭部伝達関数を用いて前記音源の位置を変更する
請求項1又は2に記載のヘッドホン。
【請求項4】
前記
楽器の出力音は、前記ユーザによってリアルタイムに生成される楽音である
請求項1から3のいずれか一項に記載のヘッドホン。
【請求項5】
前記楽器の出力音は第1の無線通信によって前記ヘッドホンに入力され、
前記端末の出力音は第2の無線通信によって前記ヘッドホンに入力される、
請求項1から4のいずれか一項に記載のヘッドホン。
【請求項6】
前記制御部による、音像を定位させる位置の変更がオフに設定されている前記楽器の出力音及び前記端末の出力音について、所定の基準定位の位置から発音されたときの音が前記混合音の生成に用いられる
請求項1から5のいずれか一項に記載のヘッドホン。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ヘッドホンに関する。
【背景技術】
【0002】
従来、スマートフォンからの再生音の信号と、ギターの演奏音の信号と無線通信により受信して、これらの合成音を聴取可能なヘッドホンがある(例えば、特許文献1)。また、楽器の発音位置からユーザの姿勢に応じた経路の頭部伝達関数を決定し、この頭部伝達関数を用いてヘッドホンから出力される楽音を定位させることが知られている(例えば、特許文献2)。また、聴取者の頭部の回転角度に応じて信号処理装置における信号処理内容を更新して音像を頭外に定位させるヘッドホンがある(例えば、特許文献2)。その他、本願発明に関連する先行技術として、特許文献4がある。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2017-175256号公報
【文献】特開2018-160714号公報
【文献】特開平8-009489号公報
【文献】特開平1-121000号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
本発明は、混合対象の楽音の音像を定位させる位置を制御可能なヘッドホンを提供することを目的とする。
【課題を解決するための手段】
【0005】
本発明の一側面は、左右の装耳部と、前記左右の装耳部を連結する連結部とを含むヘッドホンであって、
前記ヘッドホンに夫々入力される、第1の楽音と、前記第1の楽音と異なる第2の楽音との少なくとも一方について、音像を定位させる位置をユーザの頭部の向きに応じて変更する制御部と、
前記左右の装耳部に夫々備えられ、前記制御部によって少なくとも一方の音像を定位させる位置が変更された場合における前記第1の楽音及び前記第2の楽音との混合音の信号が接続されるスピーカと、を含む。
【図面の簡単な説明】
【0006】
【
図1】
図1は、実施形態に係るヘッドホンの外観構成図である。
【
図2】
図2は、ヘッドホン及び端末の回路構成例を示す。
【
図4】
図4A及びBは、端末のユーザインタフェースの例を示す。
【
図5】
図5は、ギターの演奏音にエフェクトをかけてギターアンプから出力する場合の構成例を示す。
【
図6】
図6は、ギターアンプの響きの特徴の説明図である。
【
図7】
図7は、
図3に示したエフェクト処理部で行われる処理を示す。
【
図10】
図10は、ステージモードの音場処理を示す回路図である。
【
図11】
図11は、スタティックモードの音場処理を示す回路図である。
【
図12】
図12は、サラウンドモードの音場処理を示す回路図である。
【
図14】
図14は、各位置に応じて採用する伝達関数を示す表である。
【
図16】
図16は、各アンプの設置位置に応じて採用する伝達関数を示す表である。
【
図17】
図17は、端末(アプリ)による設定指示とヘッドホンに送られる値を示す表である。
【
図18】
図18は、音場処理の例を示すフローチャートである。
【
図19】
図19は、音場処理の例を示すフローチャートである。
【
図20】
図20は、割り込み処理の例を示すフローチャートである。
【
図21】
図21A及びBは、キャビネットと聴取者との関係を示す図である。
【発明を実施するための形態】
【0007】
実施形態に係るヘッドホンは、左右の装耳部と、左右の装耳部を連結する連結部とを含むヘッドホンであって、以下を含む。
(1)ヘッドホンに夫々入力される、第1の楽音と、第1の楽音と異なる第2の楽音との少なくとも一方について、音像を定位させる位置をユーザの頭部の向きに応じて変更する制御部。
(2)左右の装耳部に夫々備えられ、制御部によって少なくとも一方の音像を定位させる位置が変更された場合における第1の楽音及び第2の楽音との混合音の信号が接続されるスピーカ。
【0008】
ヘッドホンによれば、ユーザは、頭部の変位によって、第1及び第2の楽音の少なくとも一方の定位の位置を変更することができ、夫々所望の位置に定位させた第1及び第2の混合音を聴取することができる。制御部は、例えば、プロセッサであり、プロセッサは、例えば、CPU、DSP、ASIC、FPGAのような集積回路、又は集積回路の組み合わせで構成してもよい。頭部の向きは、例えばジャイロセンサを用いて検出できる。
【0009】
ヘッドホンにおいて、制御部は、第1の楽音の音像を定位させる位置と無関係に、前記第1の楽音に対し、前記ユーザに正面を向けたキャビネットスピーカから出力された場合を模擬する効果を付与するように構成されていてもよい。このようにすれば、第1の楽音については、定位と無関係に、正面がユーザに向けられたキャピネットスピーカから出力された場合の模擬音を聴取できる。すなわち、頭部の変位と無関係に高品質の第1の楽音を聴取できる。この場合、ユーザの向きはキャビネットスピーカを向いていてもいなくてもよい。
【0010】
ヘッドホンにおいて、頭部の向きは、頭部の水平方向における回転角度を含み、回転角度に応じた、頭部の外にある音源からユーザの左右の耳までの頭部伝達関数を用いて音源の位置を変更するように構成されてもよい。このようにすれば、ユーザの頭の向きに応じて、定位を変更できる。※頭部の変位は、水平方向における回転角度だけでなく、高さや上下方向への傾き(俯仰:チルト角)を含んでもよい。
【0011】
ヘッドホンにおいて、第1の楽音は、前記ユーザによってリアルタイムに生成される楽音である、構成を採用してもよい。リアルタイムに生成される音は、電子楽器やスマホアプリの演奏音でもマイクで集音されたユーザの声(歌唱音)やアナログ楽器音でもよい。
第2の楽音は、スマホからの再生音でもスマホアプリ演奏音でもよい。
【0012】
ヘッドホンにおいて、第1の楽音は第1の無線通信によってヘッドホンに入力され、第2の楽音は第2の無線通信によって前記ヘッドホンに入力される、構成を採用してもよい。第1及び第2の楽音が無線により入力されることで、物理的な信号線を扱う場合の煩雑さがない。また、第1及び第2の楽音を演奏等によってリアルタイムに生成する場合に、物理的な信号線が円滑な生成を阻害するのを回避できる。第1の無線通信と第2の無線通信に適用する無線通信規格は、同じでも相互に異なっていてもよい。異なることで混信、干渉、誤認識等を回避できる。
【0013】
ヘッドホンにおいて、制御部による、音像を定位させる位置の変更がオフに設定されている第1の楽音及び第2の楽音について、所定の基準定位の位置から発音されたときの音が混合音の生成に用いられるように構成してもよい。基準定位の位置、ギターエフェクト及び音場処理のオンオフは、端末のアプリを用いて設定でき、設定情報は記憶装置(フラッシュメモリなど)に記憶することができる。
【0014】
以下、図面を参照して、実施形態に係る楽音発生方法及び楽音発生装置について説明する。実施形態に係る構成は一例であり、その構成に限定されない。
【0015】
<ヘッドホンの外観構成>
図1は、実施形態に係るヘッドホンの外観構成図である。
図1において、ヘッドホン10は、右側の装耳部12Rと左側の装耳部12LとがU字状の連結部11を介して連結された構成を有する。装耳部12R及び12Lの夫々はイヤーパッドとも呼ばれ、連結部11はヘッドバンドやヘッドレストと呼ばれる。
【0016】
ユーザの右の耳に装耳部12Rをかぶせる一方で、左の耳に装耳部12Lをかぶせ、連結部11を頭頂で支持することで、ヘッドホン10はユーザの頭部に装着される。装耳部12R及び12Lの夫々には、スピーカが設けられている。
【0017】
ギター2には、トランスミッタ20と呼ばれる、ヘッドホン10との無線通信を行う無線通信機器が接続される。ヘッドホン10の装耳部12Lは、レシーバ23を有し、トランスミッタ20とレシーバ23との間で無線通信が行われる。ギター2は電子楽器の一例であり、電子ギター以外の電子楽器であってもよい。電子楽器にはエレキギターも含まれる。また、楽音は、楽器音に限られず、人の歌唱音などの音声も含む。
【0018】
トランスミッタ20は、例えばジャックピンを有し、ジャックピンをギター2に形成されたジャックホールに挿入することによって、ギター2に装着される。ユーザ自身及び他人によるギター2の演奏音の信号は、トランスミッタ20を用いた無線通信によってヘッドホン10に入力される。演奏音の信号は左右のスピーカに接続されて放音される。これによって、ユーザは、ギター2の演奏音を聴取することができる。ギター2の演奏音は、「第1の楽音」の一例である。
【0019】
ヘッドホン10の装耳部12Lには、さらに、BT(Bluetooth(登録商標))通信器
21が備えられている。BT通信器21は、端末3とBT通信を行い、端末3が再生した楽音(例えば、ドラム音、ベース音、バックバンド音、などの1又は2以上の楽器音)の信号を受信することができる。これによって、ユーザは、端末3からの楽音を聴取することができる。端末3の再生音は、「第2の楽音」の一例である。但し、第2の楽音は、再生音だけでなく、端末3が中継するデータストリーム中の楽音データに基づく音声や、端末3がマイクロフォンを用いて集音した楽音や、端末3が実行する演奏用アプリの操作によって生成される楽音も含む。
【0020】
このように、ヘッドホン10には、無線通信により楽音の信号を供給する複数の入力系統(本実施形態では2系統)が設けられている。ギター2の演奏音を入力する系統を第1の系統と呼び、端末3からの楽音を入力する系統を第2の系統と呼ぶ。トランスミッタ20を用いた通信は、BT通信と異なる独自の無線通信規格である。各系統に適用する無線通信規格は同じであってもよいが、相互に異なる方が混信、干渉や誤認識などを回避する上で好ましい。
【0021】
また、演奏音と再生音とが並列に受信される場合には、ヘッドホン10に内蔵された回路によって、演奏音と再生音とが合成または混合された音を各スピーカに接続して、混合音を聴取することもできる。
【0022】
端末3は、ヘッドホン10へ楽音信号を無線通信により送信する端末又は機器であればよい。例えば、スマートフォンであるが、スマートフォン以外の端末でもよい。端末3は携帯端末でも固定端末でもよい。端末3は、ヘッドホン10に各種の設定を施すための操作端末として使用される。
【0023】
<ハードウェア構成>
図2は、ヘッドホン10及び端末3の回路構成例を示す。
図2において、端末3は、バスBを介して相互に接続された、CPU(Central Processing Unit)31と、記憶装置
32と、通信インタフェース(通信IF)33と、入力装置34と、出力装置35と、BT通信器36と、音源37とを備えている。音源37には、DAC(Digital Analog Converter)38が接続され、DAC38は、アンプ(増幅器)39に接続され、アンプ39はスピーカ40に接続されている。
【0024】
記憶装置32は、主記憶装置と補助記憶装置とを含む。主記憶装置は、プログラムやデータの記憶領域、CPU11の作業領域などとして使用される。主記憶装置は、例えば、RAM(Random Access Memory)、又はRAMとROM(Read Only Memory)との組み合わせによって形成される。補助記憶装置は、プログラムやデータの記憶領域、波形データを記憶する波形メモリなどとして使用される。補助記憶装置は、例えば、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)などである。
【0025】
通信IF33は、有線LANや無線LANなどのネットワークとの接続機器であり、例えばLANカードである。入力装置34は、キー、ボタン、タッチパネルなどを含む。入力装置34は、様々な情報やデータを端末3に入力するために使用される。情報やデータは、ヘッドホン10に様々な設定を施すためのデータを含む。
【0026】
出力装置35は、例えばディスプレイである。CPU31は、記憶装置32に記憶されたプログラム(アプリ)を実行することによって様々な処理を行う。例えば、CPU11は、ヘッドホン10用のアプリケーションプログラム(アプリ)を実行することによって、ヘッドホン10へ供給する楽音の再生/停止や、ギター2の演奏音に対するエフェクトの設定や、楽音の各入力系統に対する音場の設定を入力し、ヘッドホン10に供給することができる。
【0027】
入力装置34を用いて楽音の再生指示が入力されると、CPU31は、再生指示に応じた楽音のデータを記憶装置32から読み出して音源37に供給し、音源は楽音のデータに応じた楽音(再生音)の信号を生成する。再生音の信号は、BT通信器36に送られ無線信号に変換されて放射される。放射された無線信号はヘッドホン10のBT通信器21に受信される。なお、音源37が生成した楽音の信号は、DAC38に供給されてアナログ
信号に変換され、アンプ39にて増幅され、スピーカ40から放音されてもよい。但し、再生音の信号をヘッドホンに供給する場合は、DAC38へ送られる楽音の信号に対するミュートが行われる。
【0028】
本実施形態では、ヘッドホン10の装耳部12Lに、ヘッドホン10の各部に電力を供給するバッテリ25と、左側のスピーカ24Lとを備えている。バッテリ25からの電力は連結部11に沿って設けられた配線を通じて装耳部12Rの各部に供給される。バッテリ25は装耳部12Rにあってもよい。
【0029】
装耳部12Rは、BT通信器36と無線通信するBT通信器21と、レシーバ23と、スピーカ24Rとを備えている。また、装耳部12Rは、プロセッサ201と、記憶装置202と、ジャイロセンサ203と、入力装置204と、ヘッドホン(HP)アンプ206と、を備えている。
【0030】
レシーバ23は、トランスミッタ20からの信号(ギター2の演奏音に係る信号を含む)を受信して無線処理(ダウンコンバートなど)を行う。レシーバ23は無線処理が終わった信号をプロセッサ201に入力する。
【0031】
ジャイロセンサ203は、例えば9軸のジャイロセンサであり、ユーザの頭部の上下、前後、左右への移動、傾き、回転をそれぞれ検出することができる。ジャイロセンサ203の出力信号はプロセッサ201に入力される。ジャイロセンサ20の出力信号のうち、少なくとも頭部の水平方向の回転角度(ヘッドホン10を装着したユーザの頭部の向き)を示す信号が音場処理に使用される。但し、これ以外の信号が音場処理に使用されてもよい。
【0032】
入力装置204は、ギター2の演奏音(第1の楽音)に対するエフェクト処理のオンオフ、演奏音及び端末3からの再生音(第1及び第2の楽音)に係る音場処理のオンオフ、音場のリセットなどの指示を入力するために使用される。
【0033】
プロセッサ201は、例えばSoC(System-on-a-Chip)であり、第1及び第2の楽音の信号に対する処理を行うDSPと、信号処理に用いる各種のパラメータの設定、管理に係る制御を行うCPUなどを含んでいる。プロセッサ201によって使用されるプログラム及びデータは、記憶装置202に記憶されている。プロセッサ201は、制御部の一例である。
【0034】
プロセッサ201は、RF回路23から入力される第1の楽音の信号に対する処理(例えば、エフェクト処理)と、BT受信器21から入力される第2の楽音の信号に対する処理(例えば音場処理)とを行い、処理済みの信号(右側信号及び左側信号)をHPアンプに206に接続する。HPアンプ206は、DAC内蔵のアンプであり、右側信号及び左側信号に対するDA変換及び増幅を行い、スピーカ24R及び24L(スピーカの一例)に接続する。
【0035】
<モードの説明>
本実施形態のヘッドホン10では、第1及び第2の楽音の混合音を聴取する場合、ユーザは、「サラウンドモード」、「スタティックモード」、及び「ステージモード」から選択されたモードで、第1及び第2の楽音の混合音を聴取することができる。
【0036】
ユーザは、第1の楽音及び第2の楽音に関して、ユーザの頭部外において音像を定位させる初期位置を、端末3の入力装置34及び出力装置35(タッチパネル34A:
図3)を用いて設定することができる。
【0037】
例えば、
図3を用いて説明すると、端末3のCPU31がヘッドホン10用のアプリケーションを実行することによって、端末3の入力装置34及び出力装置35は、ユーザインタフェースとして動作する。CPU31は、音声再生部37Aと、エフェクト処理指示部31Aと、音場処理指示部31Bとして動作する。BT通信器36は、BT送受信部36Aとして動作する。
【0038】
ユーザインタフェースとして、少なくとも、第2の楽音の再生/停止の指示、第1の楽音に対するエフェクト付与の要否、第1及び第2の楽音の音源の、ユーザとの相対位置を設定ないし入力可能な操作子がユーザに提供される。
【0039】
図4A及びBは、ユーザインタフェースの一例を示す。
図4Aは、キャビネットの方向等の操作画面41を示し、
図4Bは、ギターアンプから出力されるギター2の演奏音(GUITER:第1の楽音)及びオーディオ(AUDIO:バックバンド等の第2の楽音)の位置等の
操作画面42を示す。
【0040】
操作画面41は、ユーザに対するギターアンプの方向を示す円形状の操作子が設けられており、円弧をなぞることで、ユーザに対するキャビネットの角度を設定することができる。ギターアンプは、キャビネットスピーカの一例であり、以下、キャビネットスピーカを単に「キャビネット」と表記する。キャビネットの正面がユーザに正対する方向が0°である。また、操作画面41を用いて、ギターアンプの種類(TYPE)と、ゲインと、レベルとを設定することができる。
【0041】
操作画面42は、モード(サラウンドモード、スタティックモード、ステージモード、OFFのいずれか)を選択するための操作子が設けられている。また、操作画面42には、ギターアンプ(GUITER)及びオーディオ(AUDIO)の夫々とヘッドホン10を装着した
ユーザとの角度をそれぞれ設定する円形状の操作子が設けられており、円弧を指でなぞることで、角度を設定することができる。また、操作画面42には、ユーザのいる空間を示すタイプ(ステージ、スタジオ)を選択する操作子と、レベルを設定する操作子とを含む。
【0042】
音声再生部37Aとして動作するCPU31は、再生/停止の指示に従って、第2の楽音の再生動作をオンオフする。エフェクト処理指示部31Aとして動作するCPU31は、エフェクト付与の要否、エフェクトを付与する場合のパラメータ(増幅器周波数特性、スピーカ周波数属性、キャビネット響き特性などを示すパラメータ)を生成し、BT送受信部36Aの送信対象に含める。
【0043】
音場処理指示部31Bとして動作するCPU31は、第1及び第2の楽音の音源の、ユーザとの相対位置として、ユーザの位置を中心とする、第1及び第2の楽音の音場を定位させる位置(初期位置)を示す情報を受け付ける。例えば、第1の楽音(ギター2の演奏音)は、ユーザの前方に配置されたギターアンプから出力(放音)されると想定する。そして、水平方向において、ユーザを中心とした場合にギターアンプ(音源)が存在する位置(ユーザとの相対角度)が設定される。
【0044】
例えば、ユーザが或る方向を向いている場合を0°として、音源(ギターアンプ)がどの角度にあるかを設定する。音源が第2の楽音であるオーディオについても同様である。第1の楽音の音源の位置と、第2の楽音の音源の位置とは異なっていても同じであってもよい。
【0045】
サラウンドモードでは、ヘッドホン10を装着したユーザが水平方向における頭部の向
き(回転角度)を変更しても、第1及び第2の楽音の音場が初期位置に固定されたままで維持される。スタティックモードでは、ユーザの頭部の向きの変更に応じて、第1の楽音(ギターアンプ)の音像を定位させる位置が変更される一方で、第2の楽音(オーディオ)の音場は初期位置に固定された状態が維持される。換言すれば、スタティックモードでは、ギターを持ったユーザが頭部の向きを変更すると、第1の楽音の音源(ギターアンプ)の位置が変更されるが、第2の楽音(オーディオ)の音場は変更されない。ステージモードでは、頭部の向きの変更に応じて、第1及び第2の楽音(ギターアンプ及びオーディオ)の双方の音源の位置が変更される。
【0046】
音場処理指示部31Bは、現在のモードを特定する情報と、第1及び第2の音源の初期位置を示す情報などを、BT送受信部36Aの送信対象に含める。BT送受信部36Aは、再生が指示されている場合の第2の楽音のデータ、エフェクト処理指示部31Aから供給された情報、音場処理指示部31Bから供給された情報を、BTを用いた無線通信により送信する。装耳部12LのBT通信器21は、BT送受信部36Aから送信されたデータ及び情報を受信する。
【0047】
<エフェクト処理>
レシーバ23は、トランスミッタ20を介して受信される、ギター2の演奏音である第1の楽音の信号を受信する。レシーバ23によって受信された第1の楽音に関して、プロセッサ201は、エフェクト処理指示部201A、エフェクト処理部201Bとして動作する。
【0048】
エフェクト処理指示部201Aは、BT送受信部21Aから受信、又は入力装置204から入力、又は記憶装置202からの読み出しによって取得されるエフェクト付与(エフェクト処理)の要否、エフェクトを付与する場合のパラメータに基づく指示を、エフェクト処理部201Bに与える。
【0049】
エフェクト処理が不要の場合、エフェクト処理部201Bは、第1の楽音の信号に対するエフェクト付与を行わない(スルーする)。これに対し、エフェクト処理が要の場合、エフェクト処理部201Bは、エフェクト処理指示部201Aから受け取るパラメータに従ったエフェクトを第1の楽音に付与する処理を行う。
【0050】
ここで、ヘッドホン10で実行される、第1の楽音に対するエフェクト処理について説明する。
図5は、ギター2の演奏音にエフェクトをかけてギターアンプ53から出力する場合の構成例を示す。ギター2とギターアンプ53とを結ぶ信号線には、エフェクタ51と増幅器52とが挿入される。ギターアンプ53は、キャビネット54とキャビネット54内に収容されたスピーカ55とを備える。
【0051】
エフェクタ51の特性は、ユーザが選択した効果のタイプに応じて多様な特性が適用される。例えばエフェクタ51にイコライザを選択した場合は帯域ごとに増幅レベルが異なる周波数特性となる。効果のタイプ(種類)はイコライザ以外であってもよい。増幅器52の周波数特性とスピーカ55の周波数特性とは、モデリング対象のギターアンプ53にスィープ音を入力した場合の出力波形を測定して得られる周波数特性である。なお、上述した周波数特性を求める方法は、増幅器52をキャビネット内に内蔵するタイプのギターアンプについても適用し得る。
【0052】
キャビネット響き特性はキャビネット54内の空間の残響特性であり、インパルス応答を測定するなどして得られることが知られている。
図6に示すように、ギターアンプ53の響きの特徴は、主にスピーカ55とキャビネット54によって決まる。ギターアンプ53の出力音は、スピーカ55から聞こえる直接音のみならず、キャビネット54内の反響
音によっても特徴づけられる。当該反響音は、ギターアンプ53の前面に設けられたバスレフポートからの放出音として、又は、スピーカ55やキャビネット54全体の振動音として、ユーザの耳に届く。
【0053】
キャビネット54内の空間の響きをインパルス応答に基づいて模擬する信号処理技術が知られている。本実施形態では、実測したインパルス応答に基づいて求めた空間の残響特性が近似される状態で次数を減らしたFIRフィルタを採用する。
【0054】
インパルス応答の実測方法として、以下のような手順を採用することができる。
(1)無響室に、ギターアンプ53とマイク56とを距離Bを空けて設置する。このとき、ギターアンプ53とマイク56とがお互いの正面を向くようにして角度が0°となるように設置する。
(2)ギターアンプ53へインパルス波形を入力し、ギターアンプ53で発音させる。
(3)当該発音をマイク56で集音して録音したインパルス応答波形に基づいてFIRフィルタのフィルタ特性を決める。
【0055】
図5に示す大きさAは、ギターアンプ53のキャビネットの大きさを示し、角度Cは、キャビネット54とマイク56との角度を示す(キャビネット54の正面がマイク56に向く場合は0°)。なお、距離Bはキャビネット54の響きの聴こえ具合に応じて好みとすればよい。一般に距離Bを短くした場合はオンマイク設定、長くした場合はオフマイク設定と呼ばれている。つまり距離Bは後述する音場処理とは関係がない。マイク56で集音した音声は、マイク56の1点で集音されたモノラル音声となるが、キャビネット54の響き要素は当該モノラル音声に含まれる。
【0056】
図7は、
図3等に示したエフェクト処理部201Bで行われる処理を示す。レシーバ23から入力されるギター2の演奏音に対し、エフェクト処理指示部201Aで指示された種類及び特性のエフェクトがかけられる。また、ギターアンプ特性処理として、実測により求められた増幅器周波数特性、スピーカ周波数特性、キャビネット響き特性に応じた改変を入力信号に対して施すことで、所定の効果(例えばイコライザによる音量調整)が付与されるとともに、模擬対象のギターアンプ53(キャビネットスピーカの一例)から放音される場合を模擬したギター2の演奏音が出力される。
【0057】
<音場処理>
プロセッサ201は、プログラムの実行によって、音場処理指示部201Dと、音場処理部201Eとして動作する。音場処理部201Eには、エフェクト処理部201Bからの第1の楽音と、BT送受信部21Aからの第2の楽音とが入力される。
【0058】
音場処理指示部201Dには、BT送受信部21Aからの、音場処理に係る情報(モードの種類、キャビネットの向きの設定値、ギターアンプ及びオーディオの初期位置(設定値)など)と、ジャイロセンサ203によって検出される、水平方向における頭部の向き(頭部の回転角度)、ヘッドホン10の入力装置によって入力される情報に基づいて、音場処理部201Eへ指示を出力する。
【0059】
音場処理に関して、
図8Aに示すように、音源Gから音圧Oを発生し、受聴者Mの左耳までの伝達関数をH
Lとし、音源Gから受聴者Mの右耳までの伝達関数をH
Rとすると、左耳への入力音圧E
1Lと右耳への入力音圧E
1Rは、下式のようになる。
E
1L=O・H
L
E
1R=O・H
R
【0060】
受聴者Mと音源Gとの位置関係について、
図8Aではなく、
図9のような反射壁Wに覆
われた空間内において、受聴者Mと音源Gとの位置関係に音像を定位させる状態をシミュレーションする場合を考える。音場処理としては、頭部伝達関数に着目して以下のような手法を用いることができる。
【0061】
すなわち、空間内で音源Gから音圧Oが発生した場合に関して、以下の伝達関数を定義する。
・受聴者Mの左耳に点音源信号の音圧Oが、直接入力されるまでの伝達関数HF-L(1)
・受聴者Mの左耳に点音源信号の音圧Oが、左前の壁に反射後、入力されるまでの伝達関数HF-L(2)
・受聴者Mの左耳に点音源信号の音圧Oが、右後の壁に反射後、頭部を伝達して入力されるまでの伝達関数HR-L
・受聴者Mの右耳に点音源信号の音圧Oが、頭部を伝達して入力されるまでの伝達関数をHF-R(1)
・受聴者Mの右耳に点音源信号の音圧Oが、左前の壁に反射後、頭部を伝達して入力されるまでの伝達関数をHF-R(2)
・受聴者Mの右耳に点音源信号の音圧Oが、右後の壁に反射後、入力されるまでの伝達関数をHR-R
【0062】
図8Bのように、ヘッドホンに左音声信号P
Lと右音声信号P
Rが入力される左右の耳にその音声信号の音圧が入力されるまでの伝達関数をH
Hとすると、左耳への入力音圧E
LHと右耳への入力音圧E
RHとは、以下で表される。
E
LH=P
L・H
H
E
RH=P
R・H
H
ヘッドホンを使用して、
図9のような音源Gの位置に音像を定位させるには、以下のようにする。
E
LH=E
2L
E
RH=E
2R
よって、ヘッドホンに入力する左右音声信号P
L、P
Rについて式を変換すると、以下となる。
P
L=O・H
L/H
H
P
R=O・H
R/H
H
【0063】
左耳への入力音圧E2Lと右耳への入力音圧E2Rとは、下式のようになる。
E2L=O・HF-L(1) + O・HF-L(2) + O・HR-L = O・(HF-L(1) +
HF-L(2) + HR-L)
E2R=O・HF-R(1) + O・HF-R(2) + O・HR-R = O・(HF-L(1) +
HF-L(2) + HR-L)
【0064】
よって、ヘッドホンに入力する左右音声信号P
L、P
R(
図8B参照)について式を変換すると、以下となる。
P
L=O・(H
F-L(1) + H
F-L(2) + H
R-L)/ H
H
P
R=O・(H
F-R(1) + H
F-R(2) + H
R-R)/ H
H
【0065】
ここで、上記伝達関数は、音源からの距離X、音源との角度Yや、空間の大きさZを引数として以下とすることができる。音源からの距離Xは、一例として、大、中、小の三段階とされる。距離X、角度Y、大きさZには、端末3で設定された設定値が用いられる。HL(X,Y,Z)=HF-L(1) (X,Y,Z)+ HF-L(2) (X,Y,Z)+ HR-L(X,Y,Z)
HR(X,Y,Z)=HF-R(1) (X,Y,Z)+ HF-R(2) (X,Y,Z)+ HR-R(X,Y,Z)
【0066】
上記伝達関数は前述したように、空間内の任意の位置に設置した音源から発せられたインパルス波形を、受聴者の位置に設置したマイクなど吸音装置で観測したインパルス応答波形に基づいて形成されたFIRフィルタなどで求めることができる。具体的な実施例として、その装置仕様に要求される分解能に基づいたX、Y、Zの変位ごとの伝達関数を予め計算して記憶しておき、ユーザの空間位置に応じて読み出して音声処理に使用すればよい。
【0067】
図8Cは、音場処理部201Eに適用される回路例、すなわち入力音声信号から左音声信号P
L及び右音声信号P
Rを出力する回路例を示す。回路301は、H
L/H
Hを求める回路201EaとH
R/H
Hを求める回路201Ebとを有し、回路201Eaは入力音声信号にH
R/H
Hをかけて左耳信号P
Lに相当する信号を出力する。回路201Ebは入力音声信号にH
R/H
Hをかけて右耳信号P
Rに相当する信号を出力する。
【0068】
図10は、ステージモードにおける音場処理部201Eの回路構成を示す。音場処理部201Eは、第1の楽音を入力信号(O)とする回路301(301A)と、第2の楽音を入力信号(O)とする回路301(301B)とを含む。回路301A及び301Bの構成は
図8Cに示した通りであり、回路301Aの伝達関数H
L(X,Y,Z)及びH
R(
X,Y,Z)として、ギターアンプに関するX,Y,Zの値(X,Y,Z)
Gが適用され
た伝達関数が用いられる。回路301Bの伝達関数H
L(X,Y,Z)及びH
R(X,Y,
Z)には、オーディオに関するX,Y,Zの値(X,Y,Z)
Aが適用された伝達関数が
用いられる。回路301A及び301Bの夫々からは、信号P
L,P
Rが出力される。加算器302は。P
L同士の加算、P
R同士の加算を行い、各加算結果を出力する。各出力は、アンプ206に接続される。
【0069】
図11には、スタティックモードにおける音場処理部201Eの回路構成を示す。音場処理部201Eは、上述した回路301Aと、回路301Bとを含む。回路301A及び301Bの構成は
図8Cに示した通りである。回路301Aの伝達関数H
L(X,Y,Z)及びH
R(X,Y,Z)として、ギターアンプに関するX,Y,Zの値(X,Y,Z)
Gが適用された伝達関数が用いられる。回路301Bの伝達関数H
L(X,Y,Z)及びH
R(
X,Y,Z)には、オーディオに関するYの設定値P(Y)が適用された伝達関数が用い
られる。回路301A及び301Bの夫々からは、信号P
L,P
Rが出力される。加算器302は。P
L同士の加算、P
R同士の加算を行い、各加算結果を出力する。各出力は、アンプ206に接続される。
【0070】
図11には、サラウンドモードにおける音場処理部201Eの回路構成を示す。音場処理部201Eは、上述した回路301Aと、回路301Bとを含む。回路301A及び301Bの構成は
図8Cに示した通りである。回路301Aの伝達関数H
L(X,Y,Z)及びH
R(X,Y,Z)として、ギターアンプに関するYの設定値P(Y)が適用された伝達関数が用いられる。また、回路301Bの伝達関数H
L(X,Y,Z)及びH
R(X,Y,
Z)には、オーディオに関するYの設定値P(Y)が適用された伝達関数が用いられる。
回路301A及び301Bの夫々からは、信号P
L,P
Rが出力される。加算器302は。P
L同士の加算、P
R同士の加算を行い、各加算結果を出力する。各出力は、アンプ206に接続される。
【0071】
<具体例>
以下、ヘッドホン10の具体例について説明する。
図13AはX,Yの初期値の例を示し、
図13BはZの値の例を示す。
図13Aに示すように、ステージ、スタティック、サラウンドの各モードに関して、ギターアンプ及びオーディオに関するX及びYの初期値が設定されている。ステージモードが選択されている場合には、ギターアンプ及びオーディ
オのX及びYの値を、端末3のユーザインタフェースを用いて更新し、設定値としてヘッドホン10に送信することができる。空間の大きさを示すZの値は2段階で、固定値として扱われる。選択されたZの値も、設定値としてヘッドホン10に送信される。
【0072】
図14は、X,Y,Zの値と、伝達関数H
L及びH
Rとの対応関係を示す表である。このような表を用いて、
図15に示すような、伝達関数H
G(X,Y,Z)及び伝達関数H
A(X,Y,Z)に対応する伝達関数H
L及びH
Rのレコードを所定数、記憶装置202に予め記憶しておくことができる。
図15の例では所定数は5であるが、5より多くても少なくてもよい。なお、伝達関数H
L及びH
Rは記憶装置202以外から取得できるようにしてもよい。
【0073】
図16は、ギターアンプ(キャビネット)の設置位置(A,B,C)を示す。
図17は、端末3のアプリによる設定指示をヘッドホン10に送られる値を示す。A,B,Cのの夫々は以下の通りである。
A:ギターアンプのキャビネットの大きさを示す。し、具体例では大(ID:2)または小(ID:1)の2種類を採用する。
B:ギターアンプとインパルス応答を取得したマイクとの距離を示す。具体例ではマイクの距離が遠い(オフマイク(ID:2))と近い(オンマイク(ID:1))の2種類を採用する。
C:ギターアンプとインパルス応答を取得したマイクとの角度を示す。具体例では0,3,6,・・357(初期値0)を採用。
【0074】
図17のテーブルは、端末3の記憶装置32に記憶されており、端末3において、操作画面41を用いてAMPの種類(TYPE)が選択されると、
図17に示す表のA及びB(ID)がヘッドホン10に送信される。例えば、タイプ“T1”が選択されると、A=2、B=1がヘッドホン10に送信される。また、操作画面41で設定したCの値がヘッドホン10に送られる。ヘッドホン10の記憶装置202には、
図16に示したテーブルが記憶されており、A、B及びCの値に対応する伝達関数が使用される。
【0075】
図18及び
図19は、音場処理部201Eとして動作するプロセッサ201の処理例を示す。ステップS01では。、プロセッサ201は、第1の座標設定値(A,B,C)を取得する。ステップS02では、プロセッサ201は、第2の座標設定値(X,Y,Z)を取得する。
【0076】
ステップS03では、プロセッサ201は、ジャイロセンサ203の検出時間を待ち、ステップS04では、プロセッサ201は、ジャイロセンサ203を使用するか否かを判定する。ジャイロセンサ203を使用すると判定する場合には、処理がステップS05に進み、そうでない場合には、処理がステップS10に進む。
【0077】
ステップS05では、プロセッサ201は、ジャイロセンサ203の過去の出力と、今回取得される出力とから角度変位Δωを得て、処理をステップS06に進める。ステップS10では、プロセッサ201は、角度変位Δωの値を0に設定し、処理をステップS06に進める。
【0078】
ステップS06では、リセットボタンが押されたか否かを判定する。リセットボタンが押されたと判定する場合には、処理がステップS11に進み、そうでない場合には、処理がステップS07に進む。ここに、ユーザは、音場の位置をリセットしたい場合に、リセットボタンを押す。
【0079】
ステップS07では、プロセッサ201は、第2の座標設定値が変更されたか否かを判定する。ここでは、リセットに伴って、X,Y,Zの値が変更されたかを判定する。ステ
ップS07の判定は、第2の座標設定値の変更を示すフラグ(端末3から受信される)がオンであるか否かを以て判定する。値が変更された(フラグがオン)と判定される場合には、処理がステップS11に進み、そうでない場合には、処理がステップS08に進む。
【0080】
ステップS11では、ωの値が0に設定され、処理がステップS14に進む。ステップS08では、プロセッサ201は、Δωの累積値である角度ωの値を、現在のωの値にΔωを加えた値に設定し、処理をステップS09に進める。
【0081】
ステップS09では、プロセッサ201は、ωの値が360°を超えているかを判定する。ωが360°を超えていると判定される場合には、処理がステップS12に進み。、そうでない場合には、処理がステップS13に進む。ステップS12では、ωの値がωから360°減じた値に設定され、処理がステップS09に戻る。
【0082】
ステップS13では、ωの値が0より小さいかをプロセッサ201は判定する。ωが0より小さい場合には、ωの値を、現在のωの値に360°を加えた値に設定し(ステップS18)、処理をステップS13に戻す。ωが0以上と判定される場合には、処理がステップS14に進む。
【0083】
ステップS14では、プロセッサ201は、Yの値を、設定値Y0の値にωを加えた値に設定し、処理をステップS15に進める。ステップS15では、Yの値が360°より大きいかを判定し、大きいと判定する場合には、Yの値を現在のYの値から360減じた値にし(ステップS19)、処理をステップS15に戻す。Yの値が360°より小さいと判定される場合には、処理がステップS16に進む。
【0084】
ステップS16では、プロセッサ201は、A,B,Cの値に対応する伝達関数HC(A,B,C)を、ユーザが選択した種類のキャビネット(ギターアンプ)を模擬するキャビネットシミュレータに設定する。
【0085】
ステップS17では、プロセッサ201は、X,Y,Zの値に対応する伝達関数HL及びHRを取得して、音場処理を行う。ステップS17が終了すると、処理がステップS03に戻る。
【0086】
図20は、端末3にて、第2の座標設定値(角度など)が変更された場合の割り込み処理を示すフローチャートである。操作画面42を用いた操作によって、ギターアンプ及びオーディオの少なくとも一方のYの設定値が変更されると、CPU31は、変更後の値Y0を設定値にセットする(ステップS001)。このとき、CPU31は、第2の座標設定値を変更したことを示すフラグをオンにする。オンのフラグと更新された第2の座標設定値はヘッドホン10に送られ、ステップS07等の処理に使用される。
【0087】
図21A及びBは、操作画面41及び42を用いて、ギターアンプの位置(GUITAR POSITION:Y
G)とキャビネットの角度C(CABINET DIRECTION)を操作した場合の例を示す。
図21Aは、Y
Gの値に拘わらず、角度Cが常に0と固定されたにした場合(
図22A)を示す。この場合、聴者(ユーザ)に対して常にギターアンプが正面を向いているような聴感となる。このように、プロセッサ201によって、第1の楽音の音像を定位させる位置と無関係に、第1の楽音に対し、ユーザに正面を向けたキャビネットスピーカから出力された場合を模擬する効果が付与される。
【0088】
図21Bは、角度CをY
Gの値に一致させる設定を施した場合を示す。この場合、ギターアンプは、常にユーザの後方を向き、ユーザの背後のバンドメンバーに対して常にギターアンプが正面を向いているような聴感となる。
【0089】
図21Bに係る設定は、角度Cと角度Y
Gとの一方が更新された場合に、他方も同じ値に更新されるように、CPU31が処理を行い、更新された角度C及びY
Gがヘッドホン10に送られるようにしてもよい。
【0090】
図23は、ステージモードの実施形態の作用説明図である。
図23の左側には、ギターアンプG及びオーディオAと、ユーザとの角度Y
G、Y
Aの初期状態が示されている。この例では、Y
G及びY
Aはともに180°であり、ユーザの真後ろに位置している。なお、三重の同心円は、ユーザからの距離(小、中、大)を示す。
【0091】
図23の真ん中に示すように、ユーザは、操作画面42を用いて角度Y
G、Y
Aを設定することができる。この例では、角度Y
Gが135°に設定され、角度Y
Aを225°にされている。
【0092】
その後、
図23の右側に示すように、ユーザが真後ろを向くと、ステージモードでは、角度Y
Gが315°に変更され、角度Y
Aが45°に変更される。すなわち、ギターアンプ及びオーディオが動かず、ユーザだけが真後ろを向いた場合の聴感となる。
【0093】
ここで、ユーザがヘッドホン10のりセットボタンを押す等の、リセット動作を行う場合を仮定する。このとき、プロセッサ201は、角度YG、YAの値を初期状態の値に戻し、左側の状態にしてもよい。初期状態の値は、端末3から予め通知されているか、ヘッドホン10の予め設定される。或いは、プロセッサ201は、角度変位ωを消去して、真ん中の状態に戻してもよい。
【0094】
図24は、実施形態の作用説明図である。スタティックモードでは、ユーザの頭部の向きの変更に応じて、プロセッサ201は、パン(左右の音量)を調整する。また、スタティックモードでは、ギターアンプの角度Y
Gが、ユーザの頭部の向きに応じて変化する。
図24の例では、ユーザが真後ろを向くことによって、角度Y
Gが180°に変化し、ギターアンプからの音が真後ろから届くような聴感になる。実施形態によれば、混合対象の第1及び第2の楽音の音像を定位させる位置を制御可能なヘッドホン10を提供できる。実施形態にて示した構成は、目的を逸脱しない範囲で適宜組み合わせることができる。
【符号の説明】
【0095】
2・・・ギター
3・・・端末
10・・・ヘッドホン
201・・・プロセッサ
202・・・記憶装置