IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヤマハ株式会社の特許一覧

特許7184218音響機器および該音響機器のパラメータ出力方法
<>
  • 特許-音響機器および該音響機器のパラメータ出力方法 図1
  • 特許-音響機器および該音響機器のパラメータ出力方法 図2
  • 特許-音響機器および該音響機器のパラメータ出力方法 図3
  • 特許-音響機器および該音響機器のパラメータ出力方法 図4
  • 特許-音響機器および該音響機器のパラメータ出力方法 図5
  • 特許-音響機器および該音響機器のパラメータ出力方法 図6
  • 特許-音響機器および該音響機器のパラメータ出力方法 図7
  • 特許-音響機器および該音響機器のパラメータ出力方法 図8
  • 特許-音響機器および該音響機器のパラメータ出力方法 図9
  • 特許-音響機器および該音響機器のパラメータ出力方法 図10
  • 特許-音響機器および該音響機器のパラメータ出力方法 図11
  • 特許-音響機器および該音響機器のパラメータ出力方法 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2022-11-28
(45)【発行日】2022-12-06
(54)【発明の名称】音響機器および該音響機器のパラメータ出力方法
(51)【国際特許分類】
   G10H 1/043 20060101AFI20221129BHJP
   G10L 25/51 20130101ALI20221129BHJP
【FI】
G10H1/043 B
G10L25/51 300
【請求項の数】 17
(21)【出願番号】P 2022047914
(22)【出願日】2022-03-24
【審査請求日】2022-04-08
【早期審査対象出願】
(73)【特許権者】
【識別番号】000004075
【氏名又は名称】ヤマハ株式会社
(74)【代理人】
【識別番号】110000970
【氏名又は名称】弁理士法人 楓国際特許事務所
(72)【発明者】
【氏名】高橋 祐
(72)【発明者】
【氏名】山川 颯人
(72)【発明者】
【氏名】水野 賀文
(72)【発明者】
【氏名】柴田 拓也
(72)【発明者】
【氏名】田代 健樹
(72)【発明者】
【氏名】竹内 涼平
(72)【発明者】
【氏名】坂本 雄貴
(72)【発明者】
【氏名】今野 仁一
(72)【発明者】
【氏名】太田 裕介
【審査官】山下 剛史
(56)【参考文献】
【文献】国際公開第2016/166675(WO,A1)
【文献】瀧田寿明他,深層学習による入力音響信号からのMIDI音色パラメータ推定,FIT2014(第13回情報科学技術フォーラム)講演論文集(第2分冊),2014年08月,pp.271-272
【文献】有山大地他,ソフトウェアエフェクタを利用した同一機材を必要としない機械学習によるエレキギター音色の自動再現手法の検討,情報処理学会論文誌,2020年11月,Vol.61, No.11,pp.1729-1740
(58)【調査した分野】(Int.Cl.,DB名)
G10H 1/00- 7/12
G10L 25/00-25/93
(57)【特許請求の範囲】
【請求項1】
音信号を入力する入力部と、
音響機器の学習用出力音と、前記音響機器の学習用入力音と、前記音響機器で行う音処理のパラメータと、の関係を学習した学習済モデルを用いて、前記入力部を介して入力した前記音信号から、前記音響機器において利用者から受け付けるパラメータに係る情報を求める算出部と、
前記情報を出力する出力部と、
を備えた音響機器であって、
前記学習用入力音は、利用者の演奏音に対応し、
前記学習用出力音は、目標の音色の音に対応し、
前記パラメータは、前記利用者の演奏音を前記目標の音色の音に近づけるための前記音処理のパラメータに対応する、
音響機器
【請求項2】
記出力部は、前記情報を表示器に表示し、
前記音響機器は、
前記利用者から前記パラメータを受け付けるためのユーザインタフェースと、
前記ユーザインタフェースで受け付けた前記パラメータに基づいて前記音信号に前記音処理を施す信号処理器と、
を備える、請求項1に記載の音響機器。
【請求項3】
前記学習は、前記学習用出力音の音響特徴量と前記学習用入力音の音響特徴量と前記パラメータとの関係を学習する処理を含み、
前記算出部は、前記入力した音信号の音響特徴量を求めて、該音響特徴量と前記学習済モデルとに基づいて前記パラメータに係る情報を求める、
請求項1または請求項2に記載の音響機器。
【請求項4】
前記音響特徴量は、歪み音の音響特徴量を含む、
請求項3に記載の音響機器。
【請求項5】
前記音響特徴量は、歪み前の音信号または歪み後の音信号に係る周波数特性を含む、
請求項4に記載の音響機器。
【請求項6】
前記歪み音は、弦楽器の演奏の歪み音である、
請求項4または請求項5に記載の音響機器。
【請求項7】
前記音響特徴量は、スペクトル包絡を含む、
請求項3乃至請求項6のいずれか1項に記載の音響機器。
【請求項8】
前記音処理はエフェクト処理を含み、
前記パラメータは、前記エフェクト処理のパラメータを含む、
請求項1乃至請求項7のいずれか1項に記載の音響機器。
【請求項9】
前記算出部が求める前記パラメータに係る情報は、前記音響機器で設定可能な範囲の値を示す、
請求項1乃至請求項8のいずれか1項に記載の音響機器。
【請求項10】
前記音響機器は、複数の音響機器の入出力特性をモデル化した複数の音響処理モデルを有し、
前記パラメータは、前記複数の音響処理モデルのうち利用する音響処理モデルを指定する情報を含む、
請求項1乃至請求項9のいずれか1項に記載の音響機器。
【請求項11】
音響機器に音信号を入力し、
前記音響機器の学習用出力音と、前記音響機器の学習用入力音と、前記音響機器で行う音処理のパラメータと、の関係を学習した学習済モデルを用いて、入力した前記音信号から、前記音響機器において利用者から受け付けるパラメータに係る情報を求め、
前記情報を出力する、
音響機器のパラメータ出力方法であって、
前記学習用入力音は、利用者の演奏音に対応し、
前記学習用出力音は、目標の音色の音に対応し、
前記パラメータは、前記利用者の演奏音を前記目標の音色の音に近づけるための前記音処理のパラメータに対応する、
パラメータ出力方法。
【請求項12】
前記学習は、前記学習用入力音の音響特徴量と前記学習用出力音の音響特徴量と前記パラメータとの関係を学習する処理を含み、
前記入力した音信号の前記音響特徴量を求めて、該音響特徴量と前記学習済モデルとに基づいて前記パラメータに係る情報を求める、
請求項11に記載のパラメータ出力方法。
【請求項13】
前記音響特徴量は、歪み音の音響特徴量を含む、
請求項12に記載のパラメータ出力方法。
【請求項14】
前記音響特徴量は、歪み前の音信号または歪み後の音信号に係る周波数特性を含む、
請求項13に記載のパラメータ出力方法。
【請求項15】
前記音響特徴量は、スペクトル包絡を含む、
請求項12乃至請求項14のいずれか1項に記載のパラメータ出力方法。
【請求項16】
前記音処理はエフェクト処理を含み、
前記パラメータは、前記エフェクト処理のパラメータを含む、
請求項11乃至請求項15のいずれか1項に記載のパラメータ出力方法。
【請求項17】
前記音響機器は、複数の音響機器の入出力特性をモデル化した複数の音響処理モデルを有し、
前記パラメータは、前記複数の音響処理モデルのうち利用する音響処理モデルを指定する情報を含む、
請求項11乃至請求項16のいずれか1項に記載のパラメータ出力方法。
【発明の詳細な説明】
【技術分野】
【0001】
この発明の一実施形態は、ギターアンプ等の音響機器、および該音響機器のパラメータ出力方法に関する。
【背景技術】
【0002】
特許文献1の電子楽器は、複数のエフェクタが機能的に直列的に接続されてなるエフェクトモジュールと、エフェクトモジュールを構成する各エフェクタの入力側又は出力側に配置された複数の乗算器と、エフェクトモジュールにおける第1の特性の変更を指示する第1の操作部としてのRATIO操作部と、RATIO操作部の操作に応じて、エフェクトモジュールにおける第1の特性が指示された特性となるように、複数の乗算器の増幅率を一括して同時的に変化させるDSPの演算部と、を備えている。
【0003】
特許文献2の歪付与装置は、入力された音声信号を、利用者が設定した減衰率に基づいて減衰させ、前記減衰後の音声信号を増幅する第一増幅手段と、前記第一増幅手段と直列に接続された第二増幅手段と、前記第一増幅手段の出力端と前記第二増幅手段の入力端との間に接続され、前記第二増幅手段の入力電圧を所定の歪み電圧に制限する制限手段と、を有する。前記制限手段は、前記減衰率に基づいて前記歪み電圧を決定する。
【0004】
特許文献3の楽音信号処理装置は、ピッチ検出成否情報がピッチの検出を否とする情報である場合には、前記歪信号生成手段により生成される、前記弦操作により得られる楽音信号を加工した前記歪信号を出力する。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2020-160102号公報
【文献】特開2020-76928号公報
【文献】特開2019-8333号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
上述の先行技術は、いずれも、信号処理により音信号を目的の音信号に補正するものである。
【0007】
本開示のひとつの態様は、利用している音響機器において入力音を目的の音に近づけるためのパラメータを利用者に提示する音響機器および音響機器の制御方法を提供することを目的とする。
【課題を解決するための手段】
【0008】
本発明の一実施形態に係る音響機器のパラメータ出力方法は、音響機器に音信号を入力し、前記音響機器の学習用出力音と、前記音響機器の学習用入力音と、前記音響機器で行う音処理のパラメータと、の関係を学習した学習済モデルを用いて、前記音響機器において利用者から受け付けるパラメータに係る情報を求め、前記情報を出力する。
【発明の効果】
【0009】
本発明の一実施形態によれば、利用している音響機器において入力音を目的の音に近づけるためのパラメータを利用者に提示できる。
【図面の簡単な説明】
【0010】
図1】音響システム1の構成を示す図である。
図2】ギターアンプ11の構成を示すブロック図である。
図3】ユーザI/F102の一例を示す外観図である。
図4】利用者端末12の主要構成を示すブロック図である。
図5】アプリケーションプログラムに係る表示画面の一例を示す、利用者端末12の外観図である。
図6】ギターアンプ11のCPU104により実現されるパラメータ出力方法の機能的構成を示すブロック図
図7】当該パラメータ出力方法の動作を示すフローチャートである。
図8】入力したエレキギター10の演奏音の音信号の周波数特性(input)とスペクトル包絡(envelope)を示す図である。
図9】目標の音色情報として、エレキギターの演奏音に、ある歪みのエフェクトを施した音信号の周波数特性(distorted:type1)とスペクトル包絡(envelope)を示す図である。
図10】アプリケーションプログラムに係る表示画面の一例を示す、利用者端末12の外観図である。
図11】学習済モデルの生成装置が行う学習済モデルの生成方法の動作を示すフローチャートである。
図12】変形例5に係るユーザI/F102の一例を示す外観図である。
【発明を実施するための形態】
【0011】
図1は、音響システム1の一例を示す外観図である。音響システム1は、エレキギター10、ギターアンプ11、および利用者端末12を有する。
【0012】
エレキギター10は、楽器の一例である。なお、本実施形態では楽器の一例としてエレキギター10を示すが、楽器は、エレキギターに限らない。楽器は、他の弦楽器であってもよい。楽器は、他にも例えばエレキベース等の他のエレキ楽器や、ピアノやヴァイオリン等のアコースティック楽器、あるいは電子ピアノ等の電子楽器も含む。
【0013】
ギターアンプ11は、オーディオケーブルを介してエレキギター10に接続される。また、ギターアンプ11は、Bluetooth(登録商標)または無線LAN等の無線通信により利用者端末12に接続される。エレキギター10は、演奏音に係るアナログ音信号をギターアンプ11に出力する。なお、楽器がアコースティック楽器の場合、マイクあるいはピックアップを用いてギターアンプ11に音信号を入力する。
【0014】
図2はギターアンプ11の構成を示すブロック図である。ギターアンプ11は、表示器101、ユーザインタフェース(I/F)102、フラッシュメモリ103、CPU104、RAM105、DSP106、通信I/F107、オーディオI/F108、A/D変換器109、D/A変換器110、アンプ111、およびスピーカ112を備えている。
【0015】
表示器101は、例えばLED、LCD(Liquid Crystal Display)またはOLED(Organic Light-Emitting Diode)等からなり、ギターアンプ11の状態等を表示する。
【0016】
ユーザI/F102は、摘まみ、スイッチ、またはボタン等からなり、利用者の操作を受け付ける。図3は、ユーザI/F102の一例を示す外観図である。この例では、ユーザI/F102は、5つの摘まみを有する。5つの摘まみは、それぞれDRIVE、MASTER、BASS、TREBLE、およびTONEのパラメータの調整を受け付けるための摘まみである。
【0017】
なお、本実施形態では、ユーザI/F102の一例として主に歪みに関わるパラメータを調整するための摘まみを示すが、ユーザI/F102は、他にも電源スイッチ等の操作子を有する。
【0018】
DRIVEは、歪みの強さを調整するための摘まみである。DRIVEの摘まみを時計方向に回転させるほど、歪みの強さが強くなる。
【0019】
MASTERは、アンプ111の増幅率を調整するための摘まみである。MASTERの摘まみを時計方向に回転させるほど、アンプ111の増幅率が大きくなる。また、MASTERの摘まみを時計方向に回転させるほど、アンプ111で生じる歪みの強さも強くなる。
【0020】
BASSは、低域の強さを調整するための摘まみである。BASSの摘まみを時計方向に回転させるほど、低域が強調される。また、BASSの摘まみを時計方向に回転させるほど、低域の歪みの強さも強くなる。TREBLEは、高域の強さを調整するための摘まみである。TREBLEの摘まみを時計方向に回転させるほど、高域が強調される。また、TREBLEの摘まみを時計方向に回転させるほど、高域の歪みの強さも強くなる。TONEは、音の明るさを調整するための摘まみである。TONEの摘まみを時計方向に回転させるほど、明るい音色に調整される。
【0021】
なお、ユーザI/F102は、表示器101のLCDに積層されるタッチパネルであってもよい。また、利用者は、利用者端末12のアプリケーションプログラムを介して上記のDRIVE、MASTER、BASS、TREBLE、およびTONE等のパラメータを調整してもよい。この場合、利用者端末12は、タッチパネルディスプレイ等を介して利用者からパラメータの調整を受け付けて、ギターアンプ11にパラメータの調整量を示す情報を送信する。
【0022】
図4は、利用者端末12の構成を示すブロック図である。図5は、アプリケーションプログラムに係る表示画面の一例を示す、利用者端末12の外観図である。
【0023】
利用者端末12は、パーソナルコンピュータまたはスマートフォン等の情報処理装置である。利用者端末12は、表示器201、ユーザI/F202、フラッシュメモリ203、CPU204、RAM205、および通信I/F206を備えている。
【0024】
表示器201は、例えばLED、LCDまたはOLED等からなり、種々の情報を表示する。ユーザI/F202は、表示器201のLCDまたはOLEDに積層されるタッチパネルである。あるいは、ユーザI/F202は、キーボードまたはマウス等であってもよい。ユーザI/F202がタッチパネルである場合、該ユーザI/F202は、表示器201とともに、GUI(Graphical User Interface)を構成する。
【0025】
CPU204は、プロセッサの一例であり、利用者端末12の動作を制御する制御部である。CPU204は、記憶媒体であるフラッシュメモリ203に記憶されたアプリケーションプログラム等の所定のプログラムをRAM205に読み出して実行することにより各種の動作を行なう。なお、プログラムは、サーバ(不図示)に記憶されていてもよい。CPU204は、ネットワークを介してサーバからプログラムをダウンロードし、実行してもよい。
【0026】
CPU204は、図5に示す様に、表示器201に、ギターアンプ11のユーザI/F102における5つの摘まみ(DRIVE、MASTER、BASS、TREBLE、およびTONE)のアイコン画像を表示し、GUIを構成する。ギターアンプ11は、通信I/F107を介して、5つの摘まみの現在の位置を示す情報を送信する。CPU204は、ギターアンプ11から当該情報を受信し、表示器201に表示する5つの摘まみのアイコン画像を制御する。
【0027】
利用者は、当該GUIを介して、5つの摘まみ(DRIVE、MASTER、BASS、TREBLE、およびTONE)のアイコン画像を操作し、パラメータを調整することもできる。CPU204は、当該アイコン画像に対する操作を受け付けて、ギターアンプ11に対して操作受け付け後のパラメータの情報を送信する。
【0028】
ギターアンプ11のCPU104は、記憶媒体であるフラッシュメモリ103に記憶されている各種プログラムをRAM105に読み出して、ギターアンプ11を制御する。例えば、CPU104は、上述の様にユーザI/F102あるいは利用者端末12から信号処理に係るパラメータを受け付けて、DSP106およびアンプ111を制御する。DSP106およびアンプ111は、本発明の信号処理器に対応する。
【0029】
通信I/F107は、Bluetooth(登録商標)または無線LAN等を介して、例えば利用者端末12等の他装置に接続する。
【0030】
オーディオI/F108は、アナログオーディオ端子を有する。オーディオI/F108は、オーディオケーブルを介してエレキギター10からアナログ音信号を受け付ける。
【0031】
A/D変換器109は、オーディオI/F108で受け付けたアナログ音信号をデジタル音信号に変換する。
【0032】
DSP106は、当該デジタル音信号にエフェクト等の各種の信号処理を施す。信号処理に係るパラメータは、ユーザI/F102から受け付ける。本実施形態では、利用者は、上述の5つの摘まみを操作することで、DSP106におけるエフェクトのパラメータを変更し、ギターアンプ11から出力されるエレキギター10の音の音色を調整することができる。なお、エフェクトとは、音に変化を与える全ての信号処理を含む。本実施形態で示す上述の5つの摘まみに対応するパラメータは、一例として歪みのエフェクトに関わるパラメータである。
【0033】
DSP106は、信号処理を施した後のデジタル音信号をD/A変換器110に出力する。
【0034】
D/A変換器110は、DSP106から受け付けたデジタル音信号をアナログ音信号に変換する。アンプ111は、当該アナログ音信号を増幅する。増幅に係るパラメータは、ユーザI/F102を介して受け付ける。
【0035】
スピーカ112は、アンプ111で増幅されたアナログ音信号に基づいて、エレキギター10の演奏音を出力する。
【0036】
図6は、ギターアンプ11のCPU104により実現されるパラメータ出力方法の機能的構成を示すブロック図である。図7は、当該パラメータ出力方法の動作を示すフローチャートである。CPU104は、フラッシュメモリ103から読み出した所定のプログラムにより、図4に示す入力部51、算出部52、および出力部53を構成する。
【0037】
入力部51は、エレキギター10の演奏音に係るデジタル音信号を入力する(S111)。利用者は、例えば、エレキギター10の複数の弦の全て、あるいは特定の弦を開放弦で鳴らすことにより、演奏音をギターアンプ11に入力する。算出部52は、入力した音信号の音色(音響特徴量)を求める(S12)。
【0038】
音響特徴量は、例えば周波数特性であり、より具体的にはスペクトル包絡である。図8は、入力したエレキギター10の演奏音の音信号の周波数特性(input)とスペクトル包絡(envelope)を示す図である。図8のグラフの横軸は周波数(Hz)であり、縦軸は振幅である。スペクトル包絡は、例えば、入力した音信号から線形予測法(Linear Predictive Coding: LPC)またはケプストラム分析法等により求める。例えば、算出部52は、短時間フーリエ変換により音信号を周波数軸に変換し、音信号の振幅スペクトルを取得する。算出部52は、特定期間について振幅スペクトルを平均化し、平均スペクトルを取得する。算出部52は、平均スペクトルからエネルギ成分であるバイアス(ケプストラムの0次成分)を除去し、音信号のスペクトル包絡を取得する。なお、時間軸方向への平均化とバイアスの除去は、どちらを先に行ってもよい。すなわち、算出部52は、まず振幅スペクトルからバイアスを除去した後に、時間軸方向に平均化した平均スペクトルをスペクトル包絡として取得してもよい。
【0039】
入力部51は、目標の音色情報を取得する(S13)。目標の音色情報とは、例えば、あるアーティストの演奏音に係る音信号の音響特徴量である。音響特徴量は、例えば周波数特性であり、より具体的にはスペクトル包絡である。図9は、目標の音色情報として、エレキギターの演奏音に、ある歪みのエフェクトを施した音信号の周波数特性(distorted:type1)とスペクトル包絡(envelope)を示す図である。図9のグラフの横軸は周波数(Hz)であり、縦軸は振幅である。目標の音色情報に対応する音響特徴量は、例えば、利用者の望む特定のアーティストの演奏音をオーディオコンテンツ等から取得し、取得した演奏音の音信号から算出する。スペクトル包絡の算出手法は、上述の線形予測法(Linear Predictive Coding: LPC)またはケプストラム分析法等である。また、入力部51は、サーバで算出済みのスペクトル包絡を、ネットワークを介して取得してもよい。
【0040】
利用者は、ユーザI/F102を操作し、目標の音色情報として例えば特定のアーティストの名前を入力する。入力部51は、入力されたアーティストの演奏音または音響特徴量をオーディオコンテンツやサーバ等から取得する。また、入力部51は、音響特徴量を予め取得してフラッシュメモリ103に記憶してもよい。
【0041】
また、利用者は、利用者端末12のアプリケーションプログラムを介して、目標の音色情報を入力してもよい。
【0042】
図10は、アプリケーションプログラムに係る表示画面の一例を示す、利用者端末12の外観図である。
【0043】
CPU204は、図10に示す様に、表示器201に、目標の音色情報を示すテキストと、ギターアンプ11のユーザI/F102における5つの摘まみ(DRIVE、MASTER、BASS、TREBLE、およびTONE)のアイコン画像を表示する。
【0044】
図10の例では、目標の音色情報として、利用者の所望する、あるアーティストのある歪みのエフェクトの名前「DISTORTION of Artist A」を表示している。当該表示は、リストボックス50となっていて、利用者は、多数のアーティストおよび多数のエフェクト名の中から所望するアーティストおよびエフェクト名を選択できる。CPU204は、選択されたアーティストおよびエフェクト名に対応する音響特徴量をサーバから取得し、ギターアンプ11に送信する。
【0045】
次に、算出部52は、入力部51で入力した演奏音と、取得した目標の音色情報と、に基づいて、入力した演奏音が目標の音色に近づくための信号処理のパラメータを算出する(S14)。
【0046】
例えば、算出部52は、エレキギター10の演奏音に係る音響特徴量と、目標の音色情報と、パラメータと、の関係をDNN(Deep Neural Network)で学習した学習済モデル(trained model)に基づいて、パラメータを算出する。
【0047】
図11は、学習済モデルの生成装置が行う学習済モデルの生成方法の動作を示すフローチャートである。学習済モデルの生成装置は、例えばギターアンプ11の製造者の利用するコンピュータ(サーバ)で実行されるプログラムにより実現する。
【0048】
学習済モデルの生成装置は、学習段階として、音響機器の学習用入力音と、音響機器の学習用出力音と、音響機器で行う音処理のパラメータと、含むデータセット(学習データ)を多数取得する(S21)。音響機器の学習用入力音は、例えばギターアンプ11に入力するエレキギター10の演奏音であり、歪みのない音である。音響機器の学習用出力音は、目標の音色の音であり、例えばあるアーティストがあるエフェクトを使用して演奏した、歪みのある音である。より具体的には、音響機器の学習用入力音は、例えばギターアンプ11に入力するエレキギター10の演奏音の音響特徴量であり、音響機器の学習用出力音は、目標の音色の音響特徴量である。本実施形態では、音響特徴量は、歪み音の音響特徴量を含む。より具体的には、音響機器の学習用入力音の音響特徴量は、歪み前の音信号に係る周波数特性(より具体的にはスペクトル包絡)であり、音響機器の学習用出力音の音響特徴量は、歪み後の音信号に係る周波数特性(より具体的にはスペクトル包絡)である。
【0049】
音響機器で行う音処理のパラメータとは、利用者から受け付けるパラメータであり、本実施形態では、ギターアンプ11における歪みに関わる上記5つの摘まみ(DRIVE、MASTER、BASS、TREBLE、およびTONE)のパラメータである。
【0050】
学習済モデルの生成装置は、所定の学習モデルに、所定のアルゴリズムを用いて音響機器の学習用入力音の音響特徴量と、音響機器の学習用出力音の音響特徴量と、音響機器で利用者から受け付けるパラメータと、の関係を学習させる(S22)。
【0051】
学習モデルを学習させるためのアルゴリズムは限定されず、CNN(Convolutional Neural Network)やRNN(RecurrentNeural Network)等の任意の機械学習アルゴリズムを用いることができる。機械学習アルゴリズムは、教師あり学習、教師なし学習、半教師学習、強化学習、逆強化学習、能動学習、あるいは転移学習等であってもよい。また、算出部52は、HMM(Hidden Markov Model:隠れマルコフモデル)やSVM(SupportVector Machine)等の機械学習モデルを用いて学習モデルを学習させてもよい。
【0052】
ギターアンプ11に入力するエレキギター10の音は、ギターアンプ11のエフェクトにより、目標の音色の音(例えばあるアーティストがあるエフェクトを使用して演奏した時の音)に近づけることができる。つまり、ギターアンプ11に入力するエレキギター10の音と、あるアーティストがあるエフェクトで演奏した時の音と、ギターアンプ11のエフェクト処理におけるパラメータは、相関関係を有する。したがって、学習済モデルの生成装置は、所定の学習モデルに、ギターアンプ11に入力するエレキギター10の音と、あるアーティストがあるエフェクトを使用して演奏した時の音と、ギターアンプ11のエフェクト処理におけるパラメータと、の関係を学習させ、学習済モデルを生成する(S23)。
【0053】
なお、「学習データ」は、「教師データ」あるいは「訓練データ」と表現することも可能である。また「モデルを学習させる」旨の表現は、「モデルを訓練する」と表現することも可能である。例えば、「コンピュータが教師データを用いて学習モデルを学習させる」という表現は、「コンピュータが訓練データを用いて学習モデルを訓練する」という表現に置き換えることも可能である。
【0054】
算出部52は、学習済モデルを、ネットワークを介して学習済モデルの生成装置(例えば楽器製造者のサーバ)から取得する。算出部52は、実行段階として、当該学習済モデルにより、ギターアンプ11に入力したエレキギター10の演奏音を目標の音色の音(例えばあるアーティストがあるエフェクトを使用して演奏した時の音)に近づけるための、ギターアンプ11のエフェクト処理におけるパラメータを求める(S14)。算出部52が求めるパラメータに係る情報は、ギターアンプ11で設定可能な範囲の値である。より具体的には、算出部52は、ギターアンプ11の上記5つの摘まみ(DRIVE、MASTER、BASS、TREBLE、およびTONE)のパラメータを求める。
【0055】
出力部53は、算出部52の求めたパラメータに係る情報を出力する(S15)。例えば、出力部53は、通信I/F107を介して、利用者端末12に当該情報を送信する。利用者端末12のCPU204は、当該情報を受信し、表示器201にパラメータを表示する。例えば、CPU204は、図10に示す様に、表示器201に、ギターアンプ11のユーザI/F102における5つの摘まみ(DRIVE、MASTER、BASS、TREBLE、およびTONE)のアイコン画像を表示し、目標のパラメータを表示する。図10の例では、CPU204は、5つの摘まみ(DRIVE、MASTER、BASS、TREBLE、およびTONE)の目標の位置を黒色で表示する。また、図10の例では、CPU204は、5つの摘まみの現在の位置を破線で表示している。
【0056】
この様に、本実施形態のギターアンプ11は、エレキギター10の音を目標の音色に近づけるためのエフェクトのパラメータに係る情報を利用者に提示できる。これにより、利用者は、エレキギター10を鳴らすだけで、ギターアンプ11におけるどのパラメータをどの程度調整すれば、目標の音色に近づくか、容易に判断することができる。本実施形態のギターアンプ11は、例えば、利用者の憧れる、あるアーティストの演奏音を疑似的に再現し、利用者の好みの音で利用者が演奏しているかのように体験させることができる。具体的には、ギターアンプ11の利用者は、憧れのあるアーティストの歪み音をギターアンプ11で再現することができ、利用者の好みの歪み音で利用者が演奏しているかのように体験できる。
【0057】
(変形例1)
上記実施形態では、学習段階の動作として、学習用入力音の音響特徴量(より具体的にはスペクトル包絡)および学習用出力音の音響特徴量(より具体的にはスペクトル包絡)を用いて学習モデルを学習させた。また、ギターアンプ11は、実行段階の動作として、エレキギター10の演奏音に係る音響特徴量(より具体的にはスペクトル包絡)および目標の音響特徴量(より具体的にはスペクトル包絡)を取得して、音響機器において利用者から受け付けるパラメータに係る情報を求めた。
【0058】
しかし、学習済モデルの生成装置は、学習モデルに、学習用入力音の音信号と、学習用出力音の音信号と、音響機器で利用者から受け付けるパラメータと、の関係を学習させてもよい。ギターアンプ11は、実行段階の動作として、エレキギター10の演奏音に係る音信号および目標の音色の音信号を取得して、利用者から受け付けるパラメータに係る情報を求めてもよい。
【0059】
ただし、ギターアンプ11は、音響特徴量に基づいて学習した学習済モデルを用いることで、音信号に基づいて学習した学習済モデルを用いる場合よりも結果を得る速度および精度を高くすることができる。
【0060】
(変形例2)
上記実施形態では、利用者端末12の表示器201においてパラメータを表示した。しかし、音響機器であるギターアンプ11が、目標の音色に近づけるためのパラメータを表示器101に表示してもよい。この場合、利用者端末12は不要である。
【0061】
(変形例3)
上記実施形態では、実行段階の動作として、ギターアンプ11が、エレキギター10の演奏音に係る音響特徴量(より具体的にはスペクトル包絡)および目標の音響特徴量(より具体的にはスペクトル包絡)を取得して、利用者から受け付けるパラメータに係る情報を求めた。しかし、実行段階の動作はギターアンプ11で行う必要は無い。例えば、利用者端末12が、実行段階の動作として、エレキギター10の演奏音に係る音響特徴量(より具体的にはスペクトル包絡)および目標の音響特徴量(より具体的にはスペクトル包絡)を取得して、利用者から受け付けるパラメータに係る情報を求めてもよい。
【0062】
(変形例4)
変形例4のギターアンプ11は、図11で示した学習段階である学習済モデルの生成と、図7で示した実行段階であるパラメータ情報の出力と、を行う。つまり、学習モデルの学習段階の動作と学習済モデルの実行段階の動作は、1つの装置で行ってもよい。また、ギターアンプ11ではなく、サーバが、学習段階である学習済モデルの生成と、実行段階であるパラメータ情報の出力と、を行ってもよい。この場合、ギターアンプ11は、ネットワークを介して、エレキギター10の演奏音の音響特徴量と、目標の音色情報と、をサーバに送信し、サーバからパラメータ情報を受信すればよい。
【0063】
(変形例5)
図12は、変形例5に係るユーザI/F102の一例を示す外観図である。この例では、ユーザI/F102は、5つの摘まみに加えて、音響処理モデルの選択摘まみ501を有する。
【0064】
ギターアンプ11は、複数の音響機器の入出力特性をモデル化した複数の音響処理モデルを有する。図12の例では、選択摘まみ501、CLEAN、CRUNCH、およびBRITのいずれかの音響処理モデルを選択する。CLEANは、入力した音に対して歪みの少ないクリアな音を出力する音響処理モデルである。CRUNCHは、入力した音に対して軽い歪みの音を出力する音響処理モデルである。BRITは、入力した音に対して強い歪みの音を出力する音響処理モデルである。ギターアンプ11は、選択された音響処理モデルを用いて、ギターアンプ11に入力したエレキギター10の演奏音に音響処理を施す。
【0065】
変形例5におけるパラメータは、これら複数の音響処理モデルのうち利用する音響処理モデルを指定する情報を含む。学習済モデルの生成装置は、学習段階として、学習モデルに、音響機器の学習用入力音と、音響機器の学習用出力音と、音響機器で利用する音響処理モデルを含むパラメータと、の関係を学習させる。ギターアンプ11は、実行段階として、当該学習済モデルにより、ギターアンプ11に入力したエレキギター10の演奏音を目標の音色に近づけるための、ギターアンプ11で利用する音響処理モデルを含むパラメータを求める。
【0066】
これにより、利用者は、どの音響処理モデルを選択して、どのパラメータをどの程度調整すれば、目標の音色に近づくか、容易に判断することができる。
【0067】
本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。
【0068】
例えば、上述の実施形態では、音響機器の一例としてギターアンプ11を示したが、音響機器はギターアンプ11に限らない。例えばパワードスピーカ、オーディオミキサ、あるいは電子楽器等、音処理を行う機器は全て本発明の音響機器に含まれる。
【0069】
上記実施形態では、音響特徴量の一例としてスペクトル包絡を示した。しかし、音響特徴量は、例えばパワー、基本周波数、フォルマント周波数、またはメルスペクトル等であってもよい。すなわち、音色に関わる音響特徴量であれば、どの様な種類の音響特徴量であってもよい。
【0070】
本実施形態ではエフェクトの一例として歪みを示したが、エフェクトは、歪みに限らず、コーラス、コンプレッサ、ディレイ、あるいはリバーブ等の他のエフェクトでもよい。
【0071】
上記実施形態では、算出部52は、エレキギター10の演奏音に係る音響特徴量と、目標の音色情報と、パラメータと、の関係を学習した学習済モデルに基づいて、パラメータを算出した。しかし、算出部52は、エレキギター10の演奏音に係る音響特徴量と、目標の音色情報と、パラメータと、の関係を規定したテーブルを参照して、パラメータを算出してもよい。当該テーブルは、予めギターアンプ11のフラッシュメモリ103または不図示のサーバにおけるデータベースに登録されている。
【0072】
これにより、ギターアンプ11は、人工知能アルゴリズムを用いることなくエレキギター10の音を目標の音色に近づけるためのエフェクトのパラメータに係る情報を利用者に提示できる。
【符号の説明】
【0073】
1 :音響システム
10 :エレキギター
11 :ギターアンプ
12 :利用者端末
50 :リストボックス
51 :入力部
52 :算出部
53 :出力部
101 :表示器
102 :ユーザI/F
103 :フラッシュメモリ
104 :CPU
105 :RAM
106 :DSP
107 :通信I/F
108 :オーディオI/F
109 :A/D変換器
110 :D/A変換器
111 :アンプ
112 :スピーカ
201 :表示器
202 :ユーザI/F
203 :フラッシュメモリ
204 :CPU
205 :RAM
206 :通信I/F
【要約】
【課題】利用している音響機器において入力音を目的の音に近づけるためのパラメータを利用者に提示する情報処理装置を提供する。
【解決手段】音響機器のパラメータ出力方法は、音響機器に音信号を入力し、前記音響機器の学習用出力音と、前記音響機器の学習用入力音と、前記音響機器で行う音処理のパラメータと、の関係を学習した学習済モデルを用いて、前記音響機器において利用者から受け付けるパラメータに係る情報を求め、前記情報を出力する。
【選択図】図4
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12