IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヤマハ株式会社の特許一覧

特開2023-182939モデルデータ制御方法およびモデルデータ制御装置
<>
  • 特開-モデルデータ制御方法およびモデルデータ制御装置 図1
  • 特開-モデルデータ制御方法およびモデルデータ制御装置 図2
  • 特開-モデルデータ制御方法およびモデルデータ制御装置 図3
  • 特開-モデルデータ制御方法およびモデルデータ制御装置 図4
  • 特開-モデルデータ制御方法およびモデルデータ制御装置 図5
  • 特開-モデルデータ制御方法およびモデルデータ制御装置 図6
  • 特開-モデルデータ制御方法およびモデルデータ制御装置 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023182939
(43)【公開日】2023-12-27
(54)【発明の名称】モデルデータ制御方法およびモデルデータ制御装置
(51)【国際特許分類】
   G06T 13/40 20110101AFI20231220BHJP
   G10H 1/00 20060101ALI20231220BHJP
   G06F 3/01 20060101ALI20231220BHJP
   G06F 3/04815 20220101ALI20231220BHJP
   G10H 1/18 20060101ALN20231220BHJP
【FI】
G06T13/40
G10H1/00 Z
G06F3/01 510
G06F3/04815
G10H1/18 Z
【審査請求】未請求
【請求項の数】16
【出願形態】OL
(21)【出願番号】P 2022096218
(22)【出願日】2022-06-15
(71)【出願人】
【識別番号】000004075
【氏名又は名称】ヤマハ株式会社
(74)【代理人】
【識別番号】110000970
【氏名又は名称】弁理士法人 楓国際特許事務所
(72)【発明者】
【氏名】竹本 拓真
(72)【発明者】
【氏名】藤島 琢哉
(72)【発明者】
【氏名】前澤 陽
(72)【発明者】
【氏名】植村 教裕
(72)【発明者】
【氏名】中村 吉就
(72)【発明者】
【氏名】山本 有樹
【テーマコード(参考)】
5B050
5D478
5E555
【Fターム(参考)】
5B050AA08
5B050AA09
5B050BA08
5B050BA09
5B050BA13
5B050CA01
5B050DA01
5B050EA07
5B050EA10
5B050EA24
5B050EA26
5B050FA02
5B050FA10
5D478CC14
5D478CC22
5D478CC23
5E555AA27
5E555AA76
5E555BA02
5E555BA06
5E555BA90
5E555BB02
5E555BB06
5E555BB40
5E555BC01
5E555BE17
5E555CA42
5E555CA44
5E555CB19
5E555CB21
5E555CC22
5E555DA23
5E555DB53
5E555DC25
5E555DD07
5E555EA05
5E555EA07
5E555EA22
5E555FA00
(57)【要約】
【課題】演奏者と楽器のモデルデータをより自然に表現することができるモデルデータ制御方法を提供する。
【解決手段】モデルデータ制御方法は、演奏者の第1モデルデータと楽器の第2モデルデータとを受け付けて、前記演奏者または前記楽器のサイズに関連するキャリブレーションデータを受け付けて、前記演奏者のモーションデータを受け付けて、前記第1モデルデータまたは前記第2モデルデータのサイズを前記キャリブレーションデータで補正し、補正後の前記第1モデルデータおよび前記第2モデルデータをレンダリングし、前記モーションデータを用いて前記第1モデルデータを制御する。
【選択図】 図4
【特許請求の範囲】
【請求項1】
演奏者の第1モデルデータと楽器の第2モデルデータとを受け付けて、
前記演奏者または前記楽器のサイズに関連するキャリブレーションデータを受け付けて、
前記演奏者のモーションデータを受け付けて、
前記第1モデルデータまたは前記第2モデルデータを前記キャリブレーションデータで補正し、補正後の前記第1モデルデータおよび前記第2モデルデータをレンダリングし、前記モーションデータを用いて前記第1モデルデータを制御する、
モデルデータ制御方法。
【請求項2】
前記楽器の製品名に関する情報を受け付けて、
前記製品名に関する情報に基づいて、前記楽器のサイズに関連するキャリブレーションデータを求める、
請求項1に記載のモデルデータ制御方法。
【請求項3】
前記楽器を撮影した画像データを受け付けて、
前記画像データに基づいて前記製品名に関する情報を求める、
請求項2に記載のモデルデータ制御方法。
【請求項4】
前記演奏者が前記楽器を特定の演奏手法で演奏した時の特殊演奏音を受け付けて、
前記特殊演奏音に基づいて、前記演奏者のサイズに関連するキャリブレーションデータを求める、
請求項1乃至請求項3のいずれか1項に記載のモデルデータ制御方法。
【請求項5】
前記キャリブレーションデータに基づいて、前記第1モデルデータもしくは前記第2モデルデータのサイズ、または前記第1モデルデータおよび前記第2モデルデータの相対的な位置関係を補正する、
請求項1乃至請求項3のいずれか1項に記載のモデルデータ制御方法。
【請求項6】
前記第2モデルデータに基づいて前記楽器の放音位置および放音方向を推定し、
前記楽器の演奏音を受け付けて、
推定した前記放音位置および前記放音方向に基づいて前記演奏音に対して音信号処理を行う、
請求項1乃至請求項3のいずれか1項に記載のモデルデータ制御方法。
【請求項7】
前記音信号処理は、前記推定した前記放音位置に前記演奏音を定位させる定位処理を含む、
請求項6に記載のモデルデータ制御方法。
【請求項8】
前記モーションデータは、前記楽器の位置または向きを検出するモーションセンサで検出したデータを含み、
前記モーションデータを用いて前記第2モデルデータを制御する、
請求項1乃至請求項3のいずれか1項に記載のモデルデータ制御方法。
【請求項9】
演奏者の第1モデルデータと楽器の第2モデルデータと、前記演奏者または前記楽器のサイズに関連するキャリブレーションデータと、前記演奏者のモーションデータと、を受け付ける受付部と、
前記第1モデルデータまたは前記第2モデルデータのサイズを前記キャリブレーションデータで補正し、補正後の前記第1モデルデータおよび前記第2モデルデータをレンダリングし、前記モーションデータを用いて前記第1モデルデータを制御する制御部と、
を備えたモデルデータ制御装置。
【請求項10】
前記受付部は、前記楽器の製品名に関する情報を受け付けて、
前記制御部は、前記製品名に関する情報に基づいて、前記楽器のサイズに関連するキャリブレーションデータを求める、
請求項9に記載のモデルデータ制御装置。
【請求項11】
前記受付部は、前記楽器を撮影した画像データを受け付けて、
前記制御部は、前記画像データに基づいて前記製品名に関する情報を求める、
請求項10に記載のモデルデータ制御装置。
【請求項12】
前記受付部は、前記演奏者が前記楽器を特定の演奏手法で演奏した時の特殊演奏音を受け付けて、
前記制御部は、前記特殊演奏音に基づいて、前記演奏者のサイズに関連するキャリブレーションデータを求める、
請求項9乃至請求項11のいずれか1項に記載のモデルデータ制御装置。
【請求項13】
前記制御部は、前記キャリブレーションデータに基づいて、前記第1モデルデータもしくは前記第2モデルデータのサイズ、または前記第1モデルデータおよび前記第2モデルデータの相対的な位置関係を補正する、
請求項9乃至請求項11のいずれか1項に記載のモデルデータ制御装置。
【請求項14】
前記制御部は、前記第2モデルデータに基づいて前記楽器の放音位置および放音方向を推定し、
前記受付部は、前記楽器の演奏音を受け付けて、
前記モデルデータ制御装置は、推定した前記放音位置および前記放音方向に基づいて前記演奏音に対して音信号処理を行う音信号処理部を備えた、
請求項9乃至請求項11のいずれか1項に記載のモデルデータ制御装置。
【請求項15】
前記音信号処理部は、前記推定した前記放音位置に前記演奏音を定位させる定位処理を行う、
請求項14に記載のモデルデータ制御装置。
【請求項16】
前記モーションデータは、前記楽器の位置または向きを検出するモーションセンサで検出したデータを含み、
前記制御部は、前記モーションデータを用いて前記第2モデルデータを制御する、
請求項9乃至請求項11のいずれか1項に記載のモデルデータ制御装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の一実施形態は、モデルデータ制御方法およびモデルデータ制御装置に関する。
【背景技術】
【0002】
特許文献1には、MIDIデータに基づいてモーションデータを時間的に圧縮または伸張させて音楽的タイミングを合わせる構成が開示されている。
【0003】
特許文献2には、音データに基づいて口のモーションデータの時間長を制御する構成が開示されている。
【0004】
特許文献3には、第1のモーションデータおよび第2のモーションデータをブレンドする場合に、スケルトンの第Mのボーンでは第2のモーションデータの個別ブレンド率を高くし、第Nのボーンでは第2のモーションデータの個別ブレンド率を低くする設定を行う構成が開示されている。
【0005】
特許文献4には、演奏者のモーションおよび身体情報に基づいて、演奏者の手の仮想画像にエフェクトを施す構成が開示されている。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開平10-307930号公報
【特許文献2】特開平9-198522号公報
【特許文献3】特開2003-67773号公報
【特許文献4】国際公開第2017-029915号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
特許文献1乃至4に開示された構成は、いずれも、楽器のモデルデータの大きさ(サイズ)と演奏者のモデルデータのサイズを補正するものではない。楽器のモデルデータおよび演奏者のモデルデータの作成者が異なる場合、楽器のモデルデータおよび演奏者のモデルデータのサイズが異なる場合がある。そのため、仮想空間内の演奏者のモデルデータと楽器のモデルデータを見た視聴者が違和感を覚える場合がある。
【0008】
本発明の一実施形態は、演奏者と楽器のモデルデータをより自然に表現することができるモデルデータ制御方法を提供することを目的とする。
【課題を解決するための手段】
【0009】
本発明の一実施形態に係るモデルデータ制御方法は、演奏者の第1モデルデータと楽器の第2モデルデータとを受け付けて、前記演奏者または前記楽器のサイズに関連するキャリブレーションデータを受け付けて、前記演奏者のモーションデータを受け付けて、前記第1モデルデータまたは前記第2モデルデータのサイズを前記キャリブレーションデータで補正し、補正後の前記第1モデルデータおよび前記第2モデルデータをレンダリングし、前記モーションデータを用いて前記第1モデルデータを制御する。
【発明の効果】
【0010】
本発明の一実施形態によれば、演奏者と楽器のモデルデータをより自然に表現することができる。
【図面の簡単な説明】
【0011】
図1】モデルデータ制御システム1の構成を示すブロック図である。
図2】ギターアンプ11の構成を示すブロック図である。
図3】ユーザ端末12の構成を示すブロック図である。
図4】アプリケーションプログラムの機能ブロック図である。
図5】モデルデータ制御方法の動作を示すフローチャートである。
図6】モデルデータの概略図である。
図7】変形例2に係るユーザ端末12Aのブロック図である。
【発明を実施するための形態】
【0012】
図1は、モデルデータ制御システム1の一例を示す外観図である。モデルデータ制御システム1は、エレキギター10、ギターアンプ11、ユーザ端末12、およびモーションセンサ15を有する。なお、本発明においてギターアンプ11は必須ではない。エレキギター10は、ギターアンプ11を介さず、ユーザ端末12に接続してもよい。
【0013】
エレキギター10は、弦楽器の一例である。本実施形態では楽器の一例としてエレキギター10を示すが、本発明の楽器は、他にも例えばエレキベースや、ヴァイオリン等のアコースティック楽器も含む。また、本発明の楽器は、弦楽器に限らない。本発明の楽器は、例えば、鍵盤楽器あるいは管楽器等の他の種類の楽器も含む。
【0014】
ギターアンプ11は、オーディオケーブルを介してエレキギター10に接続される。また、ギターアンプ11は、一例としてBluetooth(登録商標)または無線LAN等の無線通信によりユーザ端末12に接続される。無論、ギターアンプ11は、通信ケーブルを介してユーザ端末12に接続してもよい。エレキギター10は、演奏音に係るアナログ音信号をギターアンプ11に出力する。なお、弦楽器がアコースティック楽器の場合、マイクあるいはマグネティックピックアップを用いてギターアンプ11に音信号を入力する。
【0015】
図2はギターアンプ11の構成を示すブロック図である。ギターアンプ11は、表示器101、ユーザインタフェース(I/F)102、フラッシュメモリ103、CPU104、RAM105、DSP106、通信I/F107、オーディオI/F108、A/D変換器109、D/A変換器110、アンプ111、およびスピーカ112を備えている。
【0016】
表示器101は、例えばLED、LCD(Liquid Crystal Display)またはOLED(Organic Light-Emitting Diode)等からなり、ギターアンプ11の状態等を表示する。
【0017】
ユーザI/F102は、摘まみ、スイッチ、またはボタン等からなり、ユーザの操作を受け付ける。また、ユーザI/F102は、表示器101のLCDに積層されるタッチパネルであってもよい。
【0018】
CPU104は、記憶媒体であるフラッシュメモリ103に記憶されている各種プログラムをRAM105に読み出して、ギターアンプ11を制御する。例えば、CPU104は、ユーザI/F102を介して信号処理に係るパラメータを受け付けて、DSP106およびアンプ111を制御する。
【0019】
通信I/F107は、Bluetooth(登録商標)または無線LAN等を介して、例えばユーザ端末12等の他装置に接続する。
【0020】
オーディオI/F108は、アナログオーディオ端子を有する。オーディオI/F108は、オーディオケーブルを介してエレキギター10からアナログ音信号を受け付ける。
【0021】
A/D変換器109は、オーディオI/F108で受け付けたアナログ音信号をデジタル音信号に変換する。
【0022】
DSP106は、当該デジタル音信号にエフェクト等の各種の信号処理を施す。信号処理に係るパラメータは、ユーザI/F102を介して受け付ける。DSP106は、信号処理を施した後のデジタル音信号をD/A変換器110に出力する。
【0023】
CPU104は、DSP106で信号処理を施した後のデジタル音信号、または信号処理を施す前のデジタル音信号を、通信I/F107を介してユーザ端末12に送信する。
【0024】
D/A変換器110は、DSP106から受け付けたデジタル音信号をアナログ音信号に変換する。アンプ111は、当該アナログ音信号を増幅する。増幅に係るパラメータは、ユーザI/F102を介して受け付ける。
【0025】
スピーカ112は、アンプ111で増幅されたアナログ音信号に基づいて、エレキギター10の演奏音を出力する。
【0026】
図3はユーザ端末12の構成を示すブロック図である。ユーザ端末12は、パーソナルコンピュータまたはスマートフォン等の情報処理装置である。ユーザ端末12は、表示器201、ユーザI/F202、フラッシュメモリ203、CPU204、RAM205、および通信I/F206を備えている。
【0027】
本実施形態のユーザ端末12のユーザは、エレキギター10の演奏者である。エレキギター10の演奏者は、ユーザ端末12を用いて、自身の演奏音を配信するとともに仮想空間内で仮想的に演奏を行う自身の分身となる3Dモデルを動作させる。ユーザ端末12は、当該3Dモデルの動作を制御するためのモーションデータを生成する。ユーザ端末12は、演奏音の配信、モーションデータの生成、および3Dモデルを制御するためのアプリケーションプログラムをフラッシュメモリ203からRAM205に読み出して実行する。
【0028】
表示器201は、例えばLED、LCDまたはOLED等からなり、種々の情報を表示する。ユーザI/F202は、表示器201のLCDまたはOLEDに積層されるタッチパネルである。あるいは、ユーザI/F202は、キーボードまたはマウス等であってもよい。ユーザI/F202がタッチパネルである場合、該ユーザI/F202は、表示器201とともに、GUI(Graphical User Interface)を構成する。
【0029】
通信I/F206は、Bluetooth(登録商標)または無線LAN等の無線通信によりギターアンプ11およびモーションセンサ15に接続される。
【0030】
CPU204は、ユーザ端末12の動作を制御する制御部である。CPU204は、記憶媒体であるフラッシュメモリ203に記憶されたアプリケーションプログラム等の所定のプログラムをRAM205に読み出して実行することにより各種の動作を行なう。なお、プログラムは、サーバ(不図示)に記憶されていてもよい。CPU204は、ネットワークを介してサーバからプログラムをダウンロードし、実行してもよい。CPU204は、アプリケーションプログラムを実行することによりモデルデータの制御方法を実行する。
【0031】
図4は、CPU204の読み出すアプリケーションプログラムの機能ブロック図である。図5は、モデルデータ制御方法の動作を示すフローチャートである。CPU204は、読み出したアプリケーションプログラムにより、受付部51および制御部52を構成する。
【0032】
受付部51は、モデルデータ、モーションデータ、およびキャリブレーションデータを受け付ける(S11、S12、S13)。モデルデータは、3Dモデルを構成するための画像データ等からなる。
【0033】
図6は、モデルデータの概略図である。モデルデータは、演奏者の第1モデルデータ501および楽器の第2モデルデータ502を含む。
【0034】
第1モデルデータ501は、不図示のサーバ(例えばクリエイタの利用するコンピュータ)等の他装置からダウンロードし、フラッシュメモリ203に記憶される。
【0035】
第1モデルデータ501は、例えば演奏者の顔、胴、腕、指、および脚等を構成するための複数のポリゴンデータおよびボーンデータを有する。複数のボーンデータは、複数の関節データによって結合されたリンク構造を有する。
【0036】
第1モデルデータ501の各ボーンデータの位置情報は、モーションデータにより定義される。
【0037】
第2モデルデータ502は、不図示のサーバ(例えば楽器製造者の利用するコンピュータ)等の他装置からダウンロードし、フラッシュメモリ203に記憶される。
【0038】
第2モデルデータ502は、例えばギターのボディ、ネック、および弦等を構成するための複数のポリゴンデータおよびボーンデータを有する。複数のボーンデータは、複数の関節データによって結合されたリンク構造を有する。ただし、ギターは、弦以外に可動域を有していないため、リンク構造は必須ではない。可動域を有する楽器の場合、第2モデルデータ502は、リンク構造を含むことが好ましい。
【0039】
モーションデータは、モーションセンサ15から入力される。モーションセンサ15は、演奏者のモーションをキャプチャするためのセンサであり、例えば光学式、慣性式、あるいは画像式等のセンサである。制御部52は、モーションセンサ15から受け付けたモーションデータに基づいて、第1モデルデータ501のボーンデータの位置情報を更新する。
【0040】
制御部52は、第1モデルデータ501または第2モデルデータ502の大きさ(サイズ)をキャリブレーションデータで補正する(S14)。上述したように、第1モデルデータ501は、例えばクリエイタの利用するコンピュータからダウンロードし、第2モデルデータ502は、楽器製造者の利用するコンピュータからダウンロードする。この様に第1モデルデータ501および第2モデルデータ502の作成者が異なる場合、第1モデルデータ501および第2モデルデータ502のサイズが異なる場合がある。そのため、仮想空間内の演奏者の3Dモデルと楽器の3Dモデルを見た視聴者が違和感を覚える場合がある。
【0041】
そこで、制御部52は、キャリブレーションデータを用いて第1モデルデータ501または第2モデルデータ502のサイズを補正する。キャリブレーションデータは、演奏者および楽器のサイズに関連するデータである。例えば、ユーザ端末12のユーザは、ユーザI/F202を介して、自身の身長およびエレキギター10のネックの長さを入力する。制御部52は、入力された身長およびネックの長さに応じて第1モデルデータ501および第2モデルデータ502のサイズを補正する。例えば、制御部52は、入力された身長と第1モデルデータ501の身長の比で、第1モデルデータ501の各ボーンデータの長さを補正する。また、制御部52は、第2モデルデータ502のネックの長さと、入力されたエレキギター10のネックの長さの比で、第2モデルデータ502の各ボーンデータのサイズを補正する。
【0042】
なお、ユーザは、楽器のネックの長さを入力するだけでもよい。この場合、制御部52は、ユーザの身長を一般的な身長(例えば成人男性または成人女性の平均身長)として受け付ける。
【0043】
最後に、制御部52は、補正後の第1モデルデータ501および第2モデルデータ502をレンダリングし(S15)、モーションデータを用いて第1モデルデータ501の各ボーンデータを制御する(S16)。
【0044】
以上の様にして、本実施形態のモデルデータ制御方法は、第1モデルデータ501および第2モデルデータ502のサイズが異なる場合であっても、第1モデルデータ501および第2モデルデータ502のサイズを補正することで、演奏者と楽器のモデルデータをより自然に表現することができる。したがって、本実施形態のモデルデータ制御方法の利用者は、仮想空間内における仮想的な演奏をより臨場感を持って提供できるという顧客体験を享受できる。
【0045】
(変形例1)
上記実施形態では、ユーザ端末12のユーザは、ユーザI/F202を介して、エレキギター10のネックの長さを入力した。変形例1では、ユーザ端末12のユーザは、ユーザI/F202を介して、エレキギター10の製品名に関する情報を入力する。制御部52は、ユーザの入力した楽器の製品名に関する情報を受け付ける。制御部52は、製品名に関する情報に基づいて、楽器のサイズに関連するキャリブレーションデータを求める。例えば、制御部52は、不図示のサーバ(楽器製造者の利用するコンピュータ)等の他装置に、製品名に関する情報を送信する。サーバは、各楽器の製品名とネックを含む部品のサイズ情報と、を対応付けたデータベースを有する。制御部52は、当該サーバのデータベースから、製品名に対応する楽器のサイズに関連するデータ(例えばネックの長さの情報)を受信する。
【0046】
これにより、ユーザはエレキギター10のネックの長さを測定して入力する必要なく、キャリブレーションデータを入力することができる。
【0047】
(変形例2)
図7は、変形例2に係るユーザ端末12Aのブロック図である。図3のユーザ端末12と共通する構成は同一の符号を付し、説明を省略する。
【0048】
ユーザ端末12Aは、さらにカメラ207を備えている。ユーザは、ユーザ端末12のカメラ207を用いてエレキギター10を撮影する。
【0049】
制御部52は、カメラ207で楽器を撮影した画像データに基づいて、対応する楽器の製品名に関する情報を求める。制御部52は、例えば、楽器を撮影した画像データと、楽器の製品名に関する情報と、の関係をDNN(Deep Neural Network)で訓練した訓練済モデル(trained model)に基づいて楽器の製品名に関する情報を求める。訓練は、予め例えば楽器製造者の利用するコンピュータ(サーバ)で実行されるプログラムにより実現する。
【0050】
そして、制御部52は、訓練済モデルを用いて求めた製品名に関する情報に基づいて、変形例1に示した様に、楽器のサイズに関連するキャリブレーションデータを求める。
【0051】
これにより、ユーザは楽器名を手動入力する必要もなく、カメラ207で楽器を撮影するだけでキャリブレーションデータを入力することができる。
【0052】
(変形例3)
変形例3に係るユーザ端末12は、演奏音に係る音信号に基づいてキャリブレーションデータを求める。具体的には、演奏者であるユーザは、特定の演奏手法でエレキギター10を演奏する。特定の演奏手法とは、例えば第6弦の第1フレットを左手の人差し指で押さえ、かつ左手の小指で届く範囲の第1弦のフレットを押さえ、右手で撥弦する演奏である。
【0053】
ユーザ端末12は、当該特定の演奏手法で演奏した時の特殊演奏音を受け付ける。ユーザ端末12は、受け付けた特殊演奏音に基づいて、演奏者のサイズに関連するキャリブレーションデータを求める。制御部52は、例えば、特殊演奏音と、演奏者のサイズに関連するキャリブレーションデータと、の関係をDNNで訓練した訓練済モデルに基づいてキャリブレーションデータを求める。訓練は、予め例えば楽器製造者の利用するコンピュータ(サーバ)で実行されるプログラムにより実現する。
【0054】
演奏者の手の大きさにより、左手の小指で届くフレット位置は異なる。例えば、第1弦の第1フレットまで届く演奏者よりも第1弦の第3フレットまで届く演奏者は、手の大きさが大きい。第1弦の第1フレットを演奏した時の音(F4の音程)に対する手の大きさと、第1弦の第3フレットを演奏した時の音(G4の音程)に対する手の大きさとは、それぞれ一意に対応付けることができる。つまり、特定の演奏手法で演奏した時の特殊演奏音と演奏者の手の大きさとは、相関関係を有する。よって、コンピュータは、所定のモデルに、特定の演奏手法で演奏した時の特殊演奏音と、演奏者の手の大きさ(演奏者のサイズに関連するキャリブレーションデータ)と、の関係を訓練させ、訓練済モデルを生成することができる。
【0055】
ユーザ端末12の制御部52は、訓練済モデルを用いて求めた演奏者の手の大きさをキャリブレーションデータとして求める。制御部52は、演奏者の手の大きさの情報を用いて第1モデルデータ501または第2モデルデータ502のサイズを補正する。例えば、制御部52は、訓練済モデルを用いて求めた演奏者の手の大きさと第1モデルデータ501の手の大きさの比で、第1モデルデータ501の各ボーンデータの長さを補正する。
【0056】
これにより、ユーザは特殊な演奏手法で演奏を行うだけで、キャリブレーションデータを入力することができる。
【0057】
(変形例4)
本実施形態のモデルデータ制御方法は、第1モデルデータまたは第2モデルデータのサイズをキャリブレーションデータで補正することは必須ではない。例えば、本実施形態のモデルデータ制御方法では、キャリブレーションデータに基づいて第1モデルデータまたは第2モデルデータの位置を補正してもよい。変形例4に係るユーザ端末12は、キャリブレーションデータに基づいて、第1モデルデータ501および第2モデルデータ502の相対的な位置関係を補正する。具体的には、ユーザ端末12は、第1モデルデータ501および第2モデルデータ502の相対的な位置関係に拘束条件を設定する。例えば、ユーザ端末12は、ギターである第2モデルデータ502の背面側に必ず演奏者の第1モデルデータ501を配置する。また、ユーザ端末12は、第1モデルデータ501の左手のボーンの位置を第2モデルデータ502のネック部分に配置する。また、ユーザ端末12は、第1モデルデータ501の右手のボーンのうち肘に近い部分を第2モデルデータ502のボディの上部に配置する。
【0058】
より具体的には、例えばユーザ端末12は、第1モデルデータの左手のボーンの指先を第2モデルデータ502のネック上のフレットに配置する。例えばボーンの指の長さが演奏者の実際の指の長さと全く異なる場合、演奏者が楽器のフレット位置に指先を置いても、モーションデータにより定義される指先の位置がフレットから外れる場合がある。しかし、ユーザ端末12は、第1モデルデータ501の左手のボーンの指先を第2モデルデータ502のネック上のフレットに配置する拘束条件を設定することで、より自然な位置に第1モデルデータ501および第2モデルデータ502を配置することができる。
【0059】
これにより、ユーザ端末12は、演奏者の第1モデルデータ501に対して、より自然な位置に楽器の第2モデルデータ502を配置することができる。
【0060】
なお、上述した様に、第1モデルデータ501の各ボーンデータの位置情報は、モーションデータにより定義される。変形例4に係るユーザ端末12は、第1モデルデータ501および第2モデルデータ502の相対的な位置関係を補正する。したがって、第2モデルデータ502の位置情報も、モーションデータにより定義することができる。
【0061】
したがって、変形例4に係るユーザ端末12は、楽器の位置または向きを検出するモーションセンサを用いることなく第2モデルデータ502の位置および向きを求めることもできる。
【0062】
(変形例5)
変形例5のユーザ端末12は、第2モデルデータ502に基づいて楽器の放音位置および放音方向を推定し、楽器の演奏音を受け付けて、推定した放音位置および放音方向に基づいて演奏音に対して音信号処理を行う。
【0063】
変形例4で示したように、ユーザ端末12は、例えば、第1モデルデータ501の位置情報に基づいて第2モデルデータ502の位置および向きを求めることができる。ユーザ端末12は、例えば、第2モデルデータ502の位置に基づいて、演奏音に係る音信号にパニング処理等の音像定位処理を施す。
【0064】
例えば、ユーザ端末12は、演奏音の音信号をLチャンネルおよびRチャンネルに分配し、楽器の位置に基づいてLチャンネルおよびRチャンネルの音量バランスを調整する。例えば、ユーザ端末12は、第2モデルデータ502の位置情報が、仮想空間内の右側(リスナから向かって右側)にある場合には、Rチャンネルの音量を大きくし、Lチャンネルの音量を小さくする。これにより、演奏音は、リスナから向かって右側に定位する。したがって、演奏音のリスナは、仮想空間内の第2モデルデータ502の位置に音像が定位する様に知覚することができる。
【0065】
また、例えば、ユーザ端末12は、演奏音に係る音信号に頭部伝達関数(HRTF:Head-Related Transfer Function)を畳み込むことで音像定位処理を施してもよい。頭部伝達関数は、音源の位置からリスナの右耳および左耳に至る伝達関数である。ユーザ端末12は、楽器の位置情報に応じた頭部伝達関数をサーバ等から読み出して演奏音に係る音信号に畳み込む。これにより、リスナは、仮想空間内の第2モデルデータ502の位置に音像が定位する様に知覚することができる。
【0066】
また、頭部伝達関数は、楽器の向きに応じて異なっていてもよい。ユーザ端末12は、楽器の向き情報に応じた頭部伝達関数をサーバ等から読み出して演奏音に係る音信号に畳み込む。これにより、演奏音のリスナは、仮想空間内の第2モデルデータ502の位置に音像が定位し、かつ楽器の向きによる音の変化も知覚することができる。
【0067】
これにより、リスナは、よりリアルな音像定位を体験することができ、従来では得られなかった顧客体験を得ることができる。
【0068】
(変形例6)
モーションデータは、楽器の位置または向きを検出するモーションセンサで検出したデータを含んでもよい。ユーザ端末12は、モーションセンサで検出したデータを用いて第2モデルデータ502を制御してもよい。モーションセンサは、3軸加速度センサおよび位置センサを含む。3軸加速度センサは、楽器の向きを検出する。位置センサは、楽器の位置を検出する。位置センサは、例えばBLE(Bluetooth(登録商標) Low Energy)ビーコン等の屋内用の測位センサでもよいし、GPS(Global Positioning System)等の屋外用測位センサでもよい。
【0069】
ユーザ端末12は、3軸加速度センサで検出した楽器の向き、および位置センサで検出した楽器の位置を受け付けて、第2モデルデータ502の位置および向きを制御してもよい。この場合も、ユーザ端末12は、変形例4で示した様に、第1モデルデータ501および第2モデルデータ502の相対的な位置関係に拘束条件を設定することが好ましい。ユーザ端末12は、さらに自然な位置に演奏者の第1モデルデータ501および楽器の第2モデルデータ502を配置することができる。
【0070】
また、変形例5で示した様に、ユーザ端末12は、3軸加速度センサで検出した楽器の向き、および位置センサで検出した楽器の位置を受け付けて、楽器の位置および向きに応じて、演奏音に対して音信号処理を行ってもよい。
【0071】
本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。
【符号の説明】
【0072】
1 :モデルデータ制御システム
10 :エレキギター
11 :ギターアンプ
12 :ユーザ端末
12A :ユーザ端末
15 :モーションセンサ
51 :受付部
52 :制御部
101 :表示器
102 :ユーザI/F
103 :フラッシュメモリ
104 :CPU
105 :RAM
106 :DSP
107 :通信I/F
108 :オーディオI/F
109 :A/D変換器
110 :D/A変換器
111 :アンプ
112 :スピーカ
201 :表示器
202 :ユーザI/F
203 :フラッシュメモリ
204 :CPU
205 :RAM
206 :通信I/F
207 :カメラ
501 :第1モデルデータ
502 :第2モデルデータ
図1
図2
図3
図4
図5
図6
図7