IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヤマハ株式会社の特許一覧

特開2023-182940演奏モーション推定方法および演奏モーション推定装置
<>
  • 特開-演奏モーション推定方法および演奏モーション推定装置 図1
  • 特開-演奏モーション推定方法および演奏モーション推定装置 図2
  • 特開-演奏モーション推定方法および演奏モーション推定装置 図3
  • 特開-演奏モーション推定方法および演奏モーション推定装置 図4
  • 特開-演奏モーション推定方法および演奏モーション推定装置 図5
  • 特開-演奏モーション推定方法および演奏モーション推定装置 図6
  • 特開-演奏モーション推定方法および演奏モーション推定装置 図7
  • 特開-演奏モーション推定方法および演奏モーション推定装置 図8
  • 特開-演奏モーション推定方法および演奏モーション推定装置 図9
  • 特開-演奏モーション推定方法および演奏モーション推定装置 図10
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023182940
(43)【公開日】2023-12-27
(54)【発明の名称】演奏モーション推定方法および演奏モーション推定装置
(51)【国際特許分類】
   G10G 1/00 20060101AFI20231220BHJP
   G10H 1/00 20060101ALI20231220BHJP
【FI】
G10G1/00
G10H1/00 A
【審査請求】未請求
【請求項の数】18
【出願形態】OL
(21)【出願番号】P 2022096219
(22)【出願日】2022-06-15
(71)【出願人】
【識別番号】000004075
【氏名又は名称】ヤマハ株式会社
(74)【代理人】
【識別番号】110000970
【氏名又は名称】弁理士法人 楓国際特許事務所
(72)【発明者】
【氏名】竹本 拓真
(72)【発明者】
【氏名】藤島 琢哉
(72)【発明者】
【氏名】前澤 陽
(72)【発明者】
【氏名】植村 教裕
(72)【発明者】
【氏名】中村 吉就
(72)【発明者】
【氏名】山本 有樹
【テーマコード(参考)】
5D182
5D478
【Fターム(参考)】
5D182AA24
5D182AC10
5D478LL00
(57)【要約】
【課題】演奏者の演奏モーション推定の精度を向上させる演奏モーション推定方法を提供する。
【解決手段】本発明の一実施形態に係る演奏モーション推定方法は、楽器の演奏音に係る音信号を受け付けて、前記楽器に取り付けられた補助センサのセンサ信号を受け付けて、前記音信号および前記センサ信号に基づいて、演奏者の演奏モーションを推定する。
【選択図】図6
【特許請求の範囲】
【請求項1】
楽器の演奏音に係る音信号を受け付けて、
前記楽器に取り付けられた補助センサのセンサ信号を受け付けて、
前記音信号および前記センサ信号に基づいて、演奏者の演奏モーションを推定する、
演奏モーション推定方法。
【請求項2】
前記楽器はヘッドおよび弦を有する弦楽器であり、
前記補助センサは、前記ヘッドに取り付けられる、
請求項1に記載の演奏モーション推定方法。
【請求項3】
前記弦楽器はナットおよびペグを有し、
前記補助センサは、前記ナットから前記ペグの間の前記弦に取り付けられる、
請求項2に記載の演奏モーション推定方法。
【請求項4】
前記補助センサは、前記弦の内部を伝わる振動を検出する、
請求項3に記載の演奏モーション推定方法。
【請求項5】
前記補助センサは、前記楽器に着脱可能に取り付けられている、
請求項1乃至請求項4のいずれか1項に記載の演奏モーション推定方法。
【請求項6】
前記演奏モーションは、前記演奏者の右手および左手の演奏モーションを含む、
請求項1乃至請求項4のいずれか1項に記載の演奏モーション推定方法。
【請求項7】
演奏に関するイベントを示すイベントデータを取得し、
さらに、前記イベントデータに基づいて前記演奏モーションを推定する、
請求項1乃至請求項4のいずれか1項に記載の演奏モーション推定方法。
【請求項8】
前記補助センサは、前記楽器の位置または向きを検出するモーションセンサを含む、
請求項1乃至請求項4のいずれか1項に記載の演奏モーション推定方法。
【請求項9】
前記モーションセンサのセンサ信号に基づいて前記音信号の音響処理を行う、
請求項8に記載の演奏モーション推定方法。
【請求項10】
楽器の演奏音に係る音信号を受け付ける音信号受付部と、
前記楽器に取り付けられた補助センサのセンサ信号を受け付けるセンサ信号受付部と、
前記音信号および前記センサ信号に基づいて、演奏者の演奏モーションを推定する推定部と、
を備えた演奏モーション推定装置。
【請求項11】
前記楽器はヘッドおよび弦を有する弦楽器であり、
前記補助センサは、前記ヘッドに取り付けられる、
請求項10に記載の演奏モーション推定装置。
【請求項12】
前記弦楽器はナットおよびペグを有し、
前記補助センサは、前記ナットから前記ペグの間の前記弦に取り付けられる、
請求項11に記載の演奏モーション推定装置。
【請求項13】
前記補助センサは、前記弦の内部を伝わる振動を検出する、
請求項12に記載の演奏モーション推定装置。
【請求項14】
前記補助センサは、前記楽器に着脱可能に取り付けられている、
請求項10乃至請求項13のいずれか1項に記載の演奏モーション推定装置。
【請求項15】
前記演奏モーションは、前記演奏者の右手および左手の演奏モーションを含む、
請求項10乃至請求項13のいずれか1項に記載の演奏モーション推定装置。
【請求項16】
演奏に関するイベントを示すイベントデータを取得するイベントデータ取得部をさらに備え、
前記推定部は、さらに、前記イベントデータに基づいて前記演奏モーションを推定する、
請求項10乃至請求項13のいずれか1項に記載の演奏モーション推定装置。
【請求項17】
前記補助センサは、前記楽器の位置または向きを検出するモーションセンサを含む、
請求項10乃至請求項13のいずれか1項に記載の演奏モーション推定装置。
【請求項18】
前記モーションセンサのセンサ信号に基づいて前記音信号の音響処理を行う音響処理部をさらに備えた、
請求項17に記載の演奏モーション推定装置。
【発明の詳細な説明】
【技術分野】
【0001】
この発明の一実施形態は、演奏者の演奏モーションを推定する方法に関する。
【背景技術】
【0002】
特許文献1には、フレットセンサで指板と指の距離を検出し、フレットを突出させて演奏を補助する弦楽器が開示されている。
【0003】
特許文献2には、カメラで演奏者を撮影し、撮影結果に基づいて画像認識を用いてハーモニクス奏法を推定する撥弦楽器演奏評価装置が開示されている。
【0004】
特許文献3には、赤外線センサにより鍵盤楽器の演奏者の手をキャプチャし、ヘッドマウントディスプレイに演奏ガイドを表示する構成が開示されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2010-85692号公報
【特許文献2】特開2016-194629号公報
【特許文献3】特開2017-181850号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
本開示のひとつの態様は、従来よりも演奏者の演奏モーション推定の精度を向上させる演奏モーション推定方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の一実施形態に係る演奏モーション推定方法は、楽器の演奏音に係る音信号を受け付けて、前記楽器に取り付けられた補助センサのセンサ信号を受け付けて、前記音信号および前記センサ信号に基づいて、演奏者の演奏モーションを推定する。
【発明の効果】
【0008】
本発明の一実施形態によれば、演奏者の演奏モーション推定の精度を向上させることができる。
【図面の簡単な説明】
【0009】
図1】演奏モーション推定システム1の構成を示す図である。
図2】ギターアンプ11の構成を示すブロック図である。
図3】ユーザ端末12の主要構成を示すブロック図である。
図4】CPU204の読み出すアプリケーションプログラムの機能ブロック図である。
図5】アプリケーションプログラムの動作を示すフローチャートである。
図6】エレキギター10の一部拡大図である。
図7】補助センサ15の構成を示すブロック図である。
図8】訓練段階におけるコンピュータ(サーバ)の動作を示すフローチャートである。
図9】変形例1に係るCPU204の機能ブロック図である。
図10】変形例5に係る補助センサ15Aの構成を示すブロック図である。
【発明を実施するための形態】
【0010】
図1は、演奏モーション推定システム1の一例を示す外観図である。演奏モーション推定システム1は、エレキギター10、ギターアンプ11、ユーザ端末12、および補助センサ15を有する。なお、本発明においてギターアンプ11は必須ではない。エレキギター10は、ギターアンプ11を介さず、ユーザ端末12に接続してもよい。
【0011】
エレキギター10は、弦楽器の一例である。本実施形態では弦楽器の一例としてエレキギター10を示すが、本発明の弦楽器は、他にも例えばエレキベースや、ヴァイオリン等のアコースティック楽器も含む。また、本発明の楽器は、弦楽器に限らない。本発明の楽器は、例えば、鍵盤楽器あるいは管楽器等の他の種類の楽器も含む。
【0012】
ギターアンプ11は、オーディオケーブルを介してエレキギター10に接続される。また、ギターアンプ11は、一例としてBluetooth(登録商標)または無線LAN等の無線通信によりユーザ端末12に接続される。無論、ギターアンプ11は、通信ケーブルを介してユーザ端末12に接続してもよい。エレキギター10は、演奏音に係るアナログ音信号をギターアンプ11に出力する。なお、弦楽器がアコースティック楽器の場合、マイクあるいはマグネティックピックアップを用いてギターアンプ11に音信号を入力する。
【0013】
図2はギターアンプ11の構成を示すブロック図である。ギターアンプ11は、表示器101、ユーザインタフェース(I/F)102、フラッシュメモリ103、CPU104、RAM105、DSP106、通信I/F107、オーディオI/F108、A/D変換器109、D/A変換器110、アンプ111、およびスピーカ112を備えている。
【0014】
表示器101は、例えばLED、LCD(Liquid Crystal Display)またはOLED(Organic Light-Emitting Diode)等からなり、ギターアンプ11の状態等を表示する。
【0015】
ユーザI/F102は、摘まみ、スイッチ、またはボタン等からなり、ユーザの操作を受け付ける。また、ユーザI/F102は、表示器101のLCDに積層されるタッチパネルであってもよい。
【0016】
CPU104は、記憶媒体であるフラッシュメモリ103に記憶されている各種プログラムをRAM105に読み出して、ギターアンプ11を制御する。例えば、CPU104は、ユーザI/F102を介して信号処理に係るパラメータを受け付けて、DSP106およびアンプ111を制御する。
【0017】
通信I/F107は、Bluetooth(登録商標)または無線LAN等を介して、例えばユーザ端末12等の他装置に接続する。
【0018】
オーディオI/F108は、アナログオーディオ端子を有する。オーディオI/F108は、オーディオケーブルを介してエレキギター10からアナログ音信号を受け付ける。
【0019】
A/D変換器109は、オーディオI/F108で受け付けたアナログ音信号をデジタル音信号に変換する。
【0020】
DSP106は、当該デジタル音信号にエフェクト等の各種の信号処理を施す。信号処理に係るパラメータは、ユーザI/F102を介して受け付ける。DSP106は、信号処理を施した後のデジタル音信号をD/A変換器110に出力する。
【0021】
CPU104は、DSP106で信号処理を施した後のデジタル音信号、または信号処理を施す前のデジタル音信号を、通信I/F107を介してユーザ端末12に送信する。
【0022】
D/A変換器110は、DSP106から受け付けたデジタル音信号をアナログ音信号に変換する。アンプ111は、当該アナログ音信号を増幅する。増幅に係るパラメータは、ユーザI/F102を介して受け付ける。
【0023】
スピーカ112は、アンプ111で増幅されたアナログ音信号に基づいて、エレキギター10の演奏音を出力する。
【0024】
図3はユーザ端末12の構成を示すブロック図である。ユーザ端末12は、パーソナルコンピュータまたはスマートフォン等の情報処理装置である。ユーザ端末12は、表示器201、ユーザI/F202、フラッシュメモリ203、CPU204、RAM205、および通信I/F206を備えている。
【0025】
表示器201は、例えばLED、LCDまたはOLED等からなり、種々の情報を表示する。ユーザI/F202は、表示器201のLCDまたはOLEDに積層されるタッチパネルである。あるいは、ユーザI/F202は、キーボードまたはマウス等であってもよい。ユーザI/F202がタッチパネルである場合、該ユーザI/F202は、表示器201とともに、GUI(Graphical User Interface)を構成する。
【0026】
通信I/F206は、Bluetooth(登録商標)または無線LAN等の無線通信によりギターアンプ11および補助センサ15に接続される。ギターアンプ11が通信ケーブルを介してユーザ端末12に接続される場合、通信I/F206は、無線通信で補助センサ15に接続され。ギターアンプ11には通信ケーブルで接続される。
【0027】
CPU204は、ユーザ端末12の動作を制御する制御部である。CPU204は、記憶媒体であるフラッシュメモリ203に記憶されたアプリケーションプログラム等の所定のプログラムをRAM205に読み出して実行することにより各種の動作を行なう。なお、プログラムは、サーバ(不図示)に記憶されていてもよい。CPU204は、ネットワークを介してサーバからプログラムをダウンロードし、実行してもよい。CPU204は、アプリケーションプログラムを実行することにより演奏モーション推定方法を実行する。
【0028】
図4は、CPU204の読み出すアプリケーションプログラムの機能ブロック図である。CPU204は、読み出したアプリケーションプログラムにより、音信号受付部51、センサ信号受付部52、推定部53、および出力部54を構成する。
【0029】
図5は、当該アプリケーションプログラムによる演奏モーション推定方法の動作を示すフローチャートである。音信号受付部51は、通信I/F206を介して、ギターアンプ11からエレキギター10の演奏音に係るデジタル音信号を受け付ける(S11)。また、センサ信号受付部52は、通信I/F206を介して、補助センサ15からセンサ信号を受け付ける(S12)。
【0030】
図6は、エレキギター10の一部拡大図である。図7は、補助センサ15の構成を示すブロック図である。
【0031】
エレキギター10は、ヘッド71およびネック72を有する。ヘッド71には、ペグ73が取り付けられている。ヘッド71およびネック72との境界部分には、ナット74が取り付けられている。
【0032】
補助センサ15は、ヘッド71のうちナット74からペグ73の間に、例えばヘッド71を表面側および裏面側を挟み込む様な状態で、着脱可能に取り付けられている。そのため、補助センサ15は、演奏の邪魔になることはない。
【0033】
なお、補助センサ15は、エレキギター10のヘッド71に埋め込まれていてもよいし、粘着剤等でヘッド71に貼り付けてもよい。補助センサ15は、粘着剤等でヘッド71に貼り付ける、あるいはヘッドを挟み込む様に取り付ける場合、本実施形態のエレキギター10に限らず、アコースティックギター等に取り付けることもできる。この様に補助センサ15は、着脱可能に取り付けられることで、センサを内蔵していないギター等の楽器であっても取り付けることができ、どの様な楽器であっても演奏を阻害せずに本実施形態の演奏モーション推定方法を実行することができる。また、補助センサ15は、ヘッド71の裏面側の部分に取り付けてもよい。また、補助センサ15は、ボディの裏面側に取り付けてもよい。これにより、補助センサ15は、演奏の邪魔をせずにヘッド71やボディの裏面側の振動を検出することもできる。
【0034】
補助センサ15は、図7に示す様に、ピックアップ301、マイクロコントローラユニット(MCU)302、バッテリ303、および通信I/F304を備えている。
【0035】
ピックアップ301は、ナット74からペグ73の間の弦振動に基づいた音信号を生成する。
【0036】
MCU302は、メモリおよびプログラムを内蔵し、補助センサ15の動作を制御する。MCU302は、ピックアップ301で生成した音信号をセンサ信号として、通信I/F304を介してユーザ端末12に送信する。
【0037】
通信I/F206は、Bluetooth(登録商標)または無線LAN等の無線通信により、センサ信号をユーザ端末12に送信する。無論、補助センサ15は、通信ケーブルを介してユーザ端末12に接続してもよい。
【0038】
ユーザ端末12の推定部53は、補助センサ15から受け付けたセンサ信号およびギターアンプ11から受け付けた音信号に基づいて、演奏者の演奏モーションを推定する(S13)。演奏モーションは、演奏者の右手および左手の演奏モーション情報を含む。
【0039】
例えば、右利きの演奏者は、左手でネック72のフレットを押さえる。推定部53は、左手の演奏モーションとして、エレキギター10の第1弦から第6弦のそれぞれについて、押さえられているフレットの位置(運指情報)を推定する。
【0040】
また、右利きの演奏者は、右手で弦を弾く。演奏者は、第1弦側からまたは第6弦側から弦を弾く。推定部53は、右手の演奏モーションとして、第1弦側から弾くアップストロークであるか、第6弦側から弾くダウンストロークであるか、推定する。推定部53は、右手の演奏モーション情報として、ストローク情報を推定する。
【0041】
推定部53は、エレキギター10の演奏音と、補助センサ15のセンサ信号と、演奏モーションと、の関係をDNN(Deep Neural Network)で訓練した訓練済モデル(trained model)に基づいて演奏モーションを推定する。訓練は、予め例えば楽器製造者の利用するコンピュータ(サーバ)で実行されるプログラムにより実現する。図8は、訓練段階におけるコンピュータ(サーバ)の動作を示すフローチャートである。
【0042】
訓練済モデルを生成するコンピュータは、訓練段階として、ある演奏を行った時の左右の手の演奏モーション情報と、エレキギター10の演奏音と、センサ信号と、を含むデータセット(訓練用データ)を多数取得する(S21)。コンピュータは、所定のモデルに、所定のアルゴリズムを用いてエレキギター10の演奏音と、補助センサ15のセンサ信号と、演奏モーション情報と、の関係を訓練させる(S22)。
【0043】
本実施形態において、モデルを訓練させるためのアルゴリズムは限定されず、CNN(Convolutional Neural Network)やRNN(Recurrent Neural Network)等の任意の機械訓練アルゴリズムを用いることができる。機械訓練アルゴリズムは、教師あり訓練、教師なし訓練、半教師訓練、強化訓練、逆強化訓練、能動訓練、あるいは転移訓練等であってもよい。また、推定部53は、HMM(Hidden Markov Model:隠れマルコフモデル)やSVM(Support Vector Machine)等の機械訓練モデルを用いてモデルを訓練させてもよい。
【0044】
ある特定の演奏モーションにより演奏を行った時の演奏音(エレキギター10のボディ側の弦振動から取得した音信号)およびセンサ信号(ペグ73およびナット74の間の弦振動から取得した音信号)は一意に決まる。つまり、ある演奏モーションで演奏を行った時の左右の手の演奏モーション情報と、エレキギター10の演奏音と、センサ信号と、は、相関関係を有する。したがって、コンピュータは、所定のモデルに、エレキギター10の演奏音と、補助センサ15のセンサ信号と、演奏モーション情報と、の関係を訓練させ、訓練済モデルを生成する(S23)。
【0045】
推定部53は、上記の訓練済モデルを、ネットワークを介してコンピュータ(例えば楽器製造者のサーバ)から取得する。推定部53は、実行段階として、当該訓練済モデルにより、受け付けた現在の演奏音信号と、センサ信号と、を入力し、演奏モーション情報を推定する。より具体的には、推定部53は、訓練済モデルにより、左手の運指情報と、右手のストローク情報と、を推定する。
【0046】
出力部54は、推定部53で推定した演奏モーションに係る情報を出力する(S14)。演奏モーション情報は、例えば仮想空間内で仮想的に演奏を行う3Dモデルを動作させるための時系列のモーションデータに用いられる。
【0047】
本実施形態のユーザ端末12のユーザは、エレキギター10の演奏者である。エレキギター10の演奏者は、自身の演奏音を配信するとともに仮想空間内で仮想的に演奏を行う自身の分身となる3Dモデルを動作させる。ただし、演奏音の配信を行うユーザと演奏者とは同じ人物である必要はない。ユーザ端末12は、当該3Dモデルの動作を制御するためのモーションデータを生成する。ユーザ端末12は、例えばモーションデータを生成するアプリケーションプログラムをフラッシュメモリ203からRAM205に読み出して実行する。
【0048】
モーションデータを生成するアプリケーションプログラムは、運指情報に基づいて、楽器の3Dモデルのネックの位置に、演奏者の3Dモデルの左手のボーンを配置するためのモーションデータを生成する。アプリケーションプログラムは、運指情報として例えばCコード(Cの和音)を受け付けた場合、人差し指を第2弦の第1フレットに配置し、中指を第4弦の第2フレットに配置し、薬指を第5弦の第3フレットに配置するモーションデータを生成する。また、アプリケーションプログラムは、ストローク情報に基づいて、演奏者の3Dモデルの右手のボーンをアップストロークまたはダウンストロークで動作させるためのモーションデータを生成する。
【0049】
以上の様に、推定部53は、音信号だけでなく、補助センサ15のセンサ信号を用いて演奏モーションを推定することで、より高精度に演奏モーションを推定することができる。
【0050】
また、演奏者は、モーションキャプチャ用のセンサを身体に取り付ける必要なく、仮想空間内の演奏者の3Dモデルの動作を制御することができる。さらに、本実施形態の演奏モーション推定方法の利用者は、仮想空間内における仮想的な演奏をより臨場感を持って提供できるという顧客体験を享受できる。また、仮想的な演奏を試聴するリスナは、仮想空間内の3Dモデルをより臨場感を持って視聴できるという顧客体験を享受できる。
【0051】
(変形例1)
図9は、変形例1に係るCPU204の機能ブロック図である。CPU204は、アプリケーションプログラムにより、音信号受付部51、センサ信号受付部52、推定部53、出力部54およびイベントデータ取得部57を構成する。すなわち、変形例1のCPU204は、機能的に、さらにイベントデータ取得部57を備えている。
【0052】
イベントデータ取得部57は、イベントデータを取得する。イベントデータは、例えばMIDI(Musical Instrument Digital Interface)規格に準じた時系列のイベントデータであり、例えば曲毎の楽譜データに対応する。演奏者は、ユーザI/F202を介して演奏する曲を指定する。イベントデータ取得部57は、指定された曲の楽譜データをサーバ(不図示)からダウンロードすることで、イベントデータを取得する。
【0053】
推定部53は、音信号、センサ信号、およびイベントデータに基づいて演奏者の演奏モーションを推定する。イベントデータは、上記の様に楽譜データであり、演奏タイミングおよび音高を示す情報が含まれている。
【0054】
推定部53は、演奏音、センサ信号、イベントデータ、および演奏モーションの関係を訓練した訓練済モデルに基づいて演奏モーションを推定する。これにより、推定部53は、特に運指情報の推定精度を向上させることができる。
【0055】
(変形例2)
変形例2の推定部53は、テーブルを参照して、演奏モーションを推定する。テーブルは、予め演奏音、センサ信号、および演奏モーションとの関係を規定している。当該テーブルは、予めユーザ端末12のフラッシュメモリ203または不図示のサーバにおけるデータベースに登録されている。推定部53は、演奏音およびセンサ信号でテーブルを参照して、対応する演奏モーションの情報を特定する。
【0056】
これにより、ユーザ端末12は、人工知能アルゴリズムを用いることなく演奏モーションを推定することもできる。
【0057】
(変形例3)
上記実施形態では、補助センサ15は、ヘッド71のうちナット74からペグ73の間に取り付けられていた。しかし、補助センサ15は、例えばネックとボディの境界部分、あるいはブリッジとピックアップの間等に取り付けてもよい。
【0058】
ただし、補助センサ15は、ヘッド71のうちナット74からペグ73の間に取り付けられることで、演奏の邪魔になることがない。
【0059】
(変形例4)
上記実施形態では、補助センサ15は、マグネティックピックアップを有し、磁界変化に基づいて弦振動をセンサ信号として取得した。しかし、補助センサ15は、マグネティックピックアップを備える例に限らない。例えば、補助センサ15は、カメラにより、弦振動をセンサ信号として取得してもよい。あるいは、補助センサ15は、左手および右手の映像をセンサ信号として取得してもよい。この場合も、カメラは、演奏を阻害しないために、エレキギター10のヘッド71に着脱可能に取り付ける、あるいは予め内蔵されていることが好ましい。
【0060】
この場合、推定部53は、演奏音、カメラの映像、および演奏モーションの関係を訓練した訓練済モデルに基づいて演奏モーションを推定する。
【0061】
また、補助センサ15は、ナット74からペグ73の間に配置されている弦に直接取り付けられてもよい。この場合、補助センサ15は、例えば加速度センサである。補助センサ15は、弦の加速度を検出し、センサ信号として出力する。また、補助センサ15は、例えば圧電センサでもよい。この場合、補助センサ15は、弦に直接接触して弦の微少な振動を検出し、センサ信号として出力する。これらの補助センサ15は、弦自体に接触して弦内部に伝わる振動を取得する。これらの補助センサ15は、複数の弦のそれぞれに取り付けられ、複数の弦のそれぞれの振動を検出する。この場合、補助センサ15は、ナイロン弦等のマグネティックピックアップでは検出できない弦の振動を音信号として出力することができる。また、ヘッド71のうちナット74からペグ73の間に配置されている弦に他の物体が直接接触しても、ボディ側のマグネティックピックアップで取得される演奏音に対する影響はほとんどない。したがって、補助センサ15は、ナット74からペグ73の間に配置されている弦に直接取り付けられることで、演奏音を阻害せず、弦内部に伝わる振動を取得することができ、演奏モーションを推定するためのセンサ信号を適切に検出することができる。
【0062】
また、補助センサ15は、ダイヤフラム型の振動検出センサであってもよい。この場合、補助センサ15は、ヘッド71またはボディ等に貼り付ける。補助センサ15は、ヘッド71やボディを伝わる弦の振動を検出することができる。
【0063】
(変形例5)
補助センサは、さらに楽器の位置または向きを検出するモーションセンサを含んでもよい。図10は、変形例5に係る補助センサ15Aの構成を示すブロック図である。
【0064】
補助センサ15Aは、補助センサ15の構成に加えて、さらに3軸加速度センサ305および位置センサ306を備えている。3軸加速度センサ305および位置センサ306は、それぞれモーションセンサの一例である。
【0065】
3軸加速度センサ305は、楽器の向きを検出する。位置センサ306は、楽器の位置を検出する。位置センサ306は、BLE(Bluetooth(登録商標) Low Energy)ビーコン等の屋内用の測位センサでもよいし、GPS(Global Positioning System)等の屋外用測位センサでもよい。
【0066】
推定部53は、3軸加速度センサ305で検出した楽器の向き、および位置センサ306で検出した楽器の位置を受け付けて、演奏モーションを推定する。ここで言う演奏モーションは、仮想空間内の楽器および演奏者の3Dモデルの位置および向きを制御するための情報を含む。
【0067】
出力部54は、左手の運指情報、右手のストローク情報、楽器の位置情報、および楽器の向き情報を演奏モーション情報として出力する。ユーザ端末12のモーションデータを生成するアプリケーションプログラムは、仮想空間内の楽器の3Dモデルの位置および向きを示す時系列のモーションデータを生成する。また、当該アプリケーションプログラムは、仮想空間内に配置した楽器の3Dモデルに合わせて演奏者の3Dモデルの位置および向きを示すモーションデータを生成する。例えば、アプリケーションプログラムは、配置したギターの3Dモデルの背面側に演奏者の3Dモデルを配置し、演奏者の左手のボーンをギターの3Dモデルのネック部分に配置する。また、アプリケーションプログラムは、演奏者の右手のボーンのうち肘に近い部分をギターのボディの上部に配置する。これにより、演奏者は、モーションキャプチャ用のセンサを身体に取り付ける必要なく、仮想空間内の楽器および演奏者3Dモデルの動作を制御することができる。
【0068】
(変形例6)
変形例6の推定部53は、変形例5の様に3軸加速度センサ305で検出した楽器の向きおよび位置センサ306で検出した楽器の位置に加えて、演奏者の位置および向きを検出する。この場合、変形例5の様に3軸加速度センサ305および位置センサ306を演奏者が身につけて、推定部53がこれらのセンサを用いて演奏者の位置および向きを検出してもよい。一方、変形例6の推定部53は、楽器に取り付けられた3軸加速度センサ305および位置センサ306とは別のセンサ(例えばライブ会場に設置されたカメラ)を用いて演奏者の位置および向きを検出してもよい。例えば、推定部53は、画像認識処理により、カメラで撮影した画像内の演奏者の位置および楽器の位置をそれぞれ検出する。推定部53は、検出した演奏者の位置および楽器の位置に基づいて、演奏者と楽器の位置関係を推定する。出力部54は、推定部53で推定した演奏者と楽器の位置関係に基づいて、仮想空間内に配置した楽器の3Dモデルに対して、演奏者の3Dモデルの位置および向きを示すモーションデータを生成する。この場合も、演奏者は、モーションキャプチャ用のセンサを身体に取り付ける必要なく、仮想空間内の楽器および演奏者の3Dモデルの動作を制御することができる。
【0069】
(変形例7)
変形例7のユーザ端末12は、上記のモーションセンサのセンサ信号に基づいて音信号に音響処理を施す。
【0070】
例えば、ユーザ端末12は、エレキギター10の演奏音に係る音信号にパニング処理等の音像定位処理を施す。ユーザ端末12は、演奏音の音信号をLチャンネルおよびRチャンネルに分配し、楽器の位置に基づいてLチャンネルおよびRチャンネルの音量バランスを調整する。例えば、ユーザ端末12は、センサ信号で示される楽器の位置情報が、仮想空間内の右側(リスナから向かって右側)にある場合には、Rチャンネルの音量を大きくし、Lチャンネルの音量を小さくする。これにより、演奏音は、リスナから向かって右側に定位する。したがって、演奏音のリスナは、仮想空間内の3Dモデルの位置に音像が定位する様に知覚することができる。
【0071】
また、例えば、ユーザ端末12は、エレキギター10の演奏音に係る音信号に頭部伝達関数(HRTF:Head-Related Transfer Function)を畳み込むことで音像定位処理を施してもよい。頭部伝達関数は、音源の位置からリスナの右耳および左耳に至る伝達関数である。ユーザ端末12は、楽器の位置情報に応じた頭部伝達関数をサーバ等から読み出して演奏音に係る音信号に畳み込む。これにより、リスナは、仮想空間内の3Dモデルの位置に音像が定位する様に知覚することができる。
【0072】
また、頭部伝達関数は、楽器の向きに応じて異なっていてもよい。ユーザ端末12は、楽器の向き情報に応じた頭部伝達関数をサーバ等から読み出して演奏音に係る音信号に畳み込む。これにより、演奏音のリスナは、仮想空間内の3Dモデルの位置に音像が定位し、かつ楽器の向きによる音の変化も知覚することができる。
【0073】
これにより、リスナは、よりリアルな音像定位を体験することができ、従来では得られなかった顧客体験を得ることができる。
【0074】
(変形例8)
変形例8のユーザ端末12は、訓練段階である訓練済モデルの生成と、実行段階である演奏モーションの推定と、を行う。つまり、モデルの訓練段階の動作と訓練済モデルの実行段階の動作は、1つの装置で行ってもよい。
【0075】
また、サーバが本発明の演奏モーション推定装置であってもよい。つまり、サーバは、モデルの訓練段階の動作と訓練済モデルの実行段階の動作を行ってもよい。この場合、ユーザ端末12は、ネットワークを介して、演奏音に係る音信号およびセンサ信号の情報をサーバに送信し、サーバから演奏モーションを示す情報を受信する。
【0076】
また、ギターアンプ11が本発明の演奏モーション推定装置であってもよい。ギターアンプ11は、モデルの訓練段階の動作と訓練済モデルの実行段階の動作を行ってもよい。この場合、ギターアンプ11は、演奏音に係る音信号およびセンサ信号を受け付けて、演奏モーションを示す情報を出力する。また、ギターアンプ11のDSP106が変形例7で示した音響処理を行ってもよい。この場合、DSP106が音響処理部として機能する。
【0077】
(変形例9)
上記実施形態の楽器はエレキギター10であるため、左手の演奏モーションは運指情報であり、右手の演奏モーションは、ストローク情報であった。しかし、左手および右手の演奏モーションは、楽器の種類により異なる。例えば、楽器がベースである場合、右手の演奏モーションは、2フィンガー奏法の人差し指であるか、中指であるかを示す情報になる。あるいは、楽器がベースである場合、右手の演奏モーションは、スラップ奏法のサミングまたはプリングを示す情報になる。楽器が鍵盤楽器である場合、左手および右手の演奏モーションともに運指情報になる。
【0078】
(変形例10)
上記実施形態で生成したモーションデータは、リアルタイムに配信する必要はない。例えば、生成したモーションデータは、ユーザ端末12またはサーバ(不図示)等に記録してもよい。配信を行う利用者は、ユーザ端末12またはサーバ(不図示)等に記録したモーションデータを用いて仮想空間内で仮想的に演奏を行う3Dモデルを動作させ、過去の演奏を再現した配信を行ってもよい。
【0079】
本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。
【0080】
例えば、上記実施形態では、推定部53は、エレキギター10の演奏音と、補助センサ15のセンサ信号と、演奏モーションと、の関係を訓練した訓練済モデルに基づいて演奏モーションを推定した。しかし、例えば、推定部53は、補助センサ15のセンサ信号と、演奏モーションと、の関係を訓練した訓練済モデルに基づいて演奏モーションを推定してもよい。この場合、推定部53は、エレキギター10の演奏音を入力することは必須ではない。
【0081】
また、上述した様に、本発明においてギターアンプ11は必須ではない。ただし、ギターアンプ11のDSPを用いて演奏音にエフェクト等の信号処理を行うことで、ユーザ端末12がこの様な信号処理を行う必要がなくなり、ユーザ端末12の計算負荷を低減することができる。
【0082】
また、本実施形態の演奏モーション推定方法は、ユーザ端末12ではなく補助センサ15において行ってもよい。この場合、補助センサ15は、推定した演奏モーション情報をユーザ端末12に送信すればよい。
【符号の説明】
【0083】
1 :演奏モーション推定システム
10 :エレキギター
11 :ギターアンプ
12 :ユーザ端末
15,15A :補助センサ
51 :音信号受付部
52 :センサ信号受付部
53 :推定部
54 :出力部
57 :イベントデータ取得部
71 :ヘッド
72 :ネック
73 :ペグ
74 :ナット
101 :表示器
102 :ユーザI/F
103 :フラッシュメモリ
104 :CPU
105 :RAM
106 :DSP
107 :通信I/F
108 :オーディオI/F
109 :A/D変換器
110 :D/A変換器
111 :アンプ
112 :スピーカ
201 :表示器
202 :ユーザI/F
203 :フラッシュメモリ
204 :CPU
205 :RAM
206 :通信I/F
301 :ピックアップ
303 :バッテリ
304 :通信I/F
305 :3軸加速度センサ
306 :位置センサ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10