IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヤマハ株式会社の特許一覧

特開2024-175446演奏音生成方法、演奏音生成装置、およびプログラム
<>
  • 特開-演奏音生成方法、演奏音生成装置、およびプログラム 図1
  • 特開-演奏音生成方法、演奏音生成装置、およびプログラム 図2
  • 特開-演奏音生成方法、演奏音生成装置、およびプログラム 図3
  • 特開-演奏音生成方法、演奏音生成装置、およびプログラム 図4
  • 特開-演奏音生成方法、演奏音生成装置、およびプログラム 図5
  • 特開-演奏音生成方法、演奏音生成装置、およびプログラム 図6
  • 特開-演奏音生成方法、演奏音生成装置、およびプログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024175446
(43)【公開日】2024-12-18
(54)【発明の名称】演奏音生成方法、演奏音生成装置、およびプログラム
(51)【国際特許分類】
   G10H 7/02 20060101AFI20241211BHJP
   G10H 1/00 20060101ALI20241211BHJP
【FI】
G10H7/02
G10H1/00 Z
【審査請求】未請求
【請求項の数】17
【出願形態】OL
(21)【出願番号】P 2023093238
(22)【出願日】2023-06-06
(71)【出願人】
【識別番号】000004075
【氏名又は名称】ヤマハ株式会社
(74)【代理人】
【識別番号】110000970
【氏名又は名称】弁理士法人 楓国際特許事務所
(72)【発明者】
【氏名】甲斐 繁
(72)【発明者】
【氏名】中村 吉就
(72)【発明者】
【氏名】大谷 明央
(72)【発明者】
【氏名】井芹 大智
(72)【発明者】
【氏名】藤島 琢哉
(72)【発明者】
【氏名】松田 遼
(72)【発明者】
【氏名】山川 颯人
(72)【発明者】
【氏名】須山 明彦
(72)【発明者】
【氏名】密岡 稜大
(72)【発明者】
【氏名】原 貴洋
(72)【発明者】
【氏名】鈴木 裕和
(72)【発明者】
【氏名】鈴木 俊太朗
【テーマコード(参考)】
5D478
【Fターム(参考)】
5D478AA34
5D478HH02
5D478KK01
(57)【要約】
【課題】利用者が任意の環境で楽器を演奏している様に知覚することができる演奏音生成方法を提供する。
【解決手段】演奏音生成方法は、第1楽器の画像情報と、該第1楽器の環境変化で変化する音響情報を取得し、利用者の演奏操作情報を取得し、前記画像情報に基づいて、前記第1楽器の画像をレンダリングし、前記演奏操作情報および前記音響情報に基づいて、前記第1楽器の演奏音を生成する。
【選択図】図2
【特許請求の範囲】
【請求項1】
第1楽器の画像情報と、該第1楽器の環境変化で変化する音響情報を取得し、
利用者の演奏操作情報を取得し、
前記画像情報に基づいて、前記第1楽器の画像をレンダリングし、
前記演奏操作情報および前記音響情報に基づいて、前記第1楽器の演奏音を生成する、
演奏音生成方法。
【請求項2】
前記演奏操作情報は、第2楽器に対する前記利用者の演奏操作により取得される、
請求項1に記載の演奏音生成方法。
【請求項3】
前記画像情報または前記音響情報は、時間の経過で変化する、
請求項2に記載の演奏音生成方法。
【請求項4】
前記第1楽器の演奏音を、ネットワークを介して前記利用者の利用する情報処理装置に送信し、
前記情報処理装置が、前記第1楽器の演奏音を、前記ネットワークを介して受信し、
前記第2楽器に対する前記利用者の演奏操作に応じて、前記第1楽器の演奏音を再生する、
請求項2または請求項3に記載の演奏音生成方法。
【請求項5】
さらに、再生環境に関する情報を取得し、
前記再生環境に関する情報に基づいて、生成した前記第1楽器の演奏音に信号処理を施す、
請求項1乃至請求項3のいずれか1項に記載の演奏音生成方法。
【請求項6】
前記第1楽器の前記画像情報および前記音響情報を、ネットワークを介して取得する、
請求項1乃至請求項3のいずれか1項に記載の演奏音生成方法。
【請求項7】
前記第1楽器の演奏音を再生する、
請求項1乃至請求項3のいずれか1項に記載の演奏音生成方法。
【請求項8】
前記画像情報および前記音響情報に対応する非代替性トークンを記録する、
請求項1乃至請求項3のいずれか1項に記載の演奏音生成方法。
【請求項9】
前記第1楽器の前記画像情報および前記音響情報を前記非代替性トークンで証明し、
証明された前記第1楽器の前記画像情報および前記音響情報を提供する、
請求項8に記載の演奏音生成方法。
【請求項10】
第1楽器の画像情報と、該第1楽器の環境変化で変化する音響情報を取得し、
利用者の演奏操作情報を取得し、
前記画像情報に基づいて、前記第1楽器の画像をレンダリングし、
前記演奏操作情報および前記音響情報に基づいて、前記第1楽器の演奏音を生成する、
処理を行うプロセッサを備えた演奏音生成装置。
【請求項11】
前記演奏操作情報は、第2楽器に対する前記利用者の演奏操作により取得される、
請求項10に記載の演奏音生成装置。
【請求項12】
前記音響情報は、時間の経過で変化する、
請求項11に記載の演奏音生成装置。
【請求項13】
前記画像情報は、3Dモデルデータを含む、
請求項10乃至請求項12のいずれか1項に記載の演奏音生成装置。
【請求項14】
前記画像情報は、センサによって取得される、
請求項10乃至請求項12のいずれか1項に記載の演奏音生成装置。
【請求項15】
前記演奏操作情報は、センサによって取得される、
請求項10乃至請求項12のいずれか1項に記載の演奏音生成装置。
【請求項16】
前記プロセッサは、前記画像情報および前記音響情報に対応する非代替性トークンを記録する、
請求項10乃至請求項12のいずれか1項に記載の演奏音生成装置。
【請求項17】
第1楽器の画像情報と、該第1楽器の環境変化で変化する音響情報を取得し、
利用者の演奏操作情報を取得し、
前記画像情報に基づいて、前記第1楽器の画像をレンダリングし、
前記演奏操作情報および前記音響情報に基づいて、前記第1楽器の演奏音を生成する、
処理を情報処理装置に実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
この発明の一実施形態は、演奏音生成方法、演奏音生成装置、およびプログラムに関する。
【背景技術】
【0002】
特許文献1の楽器100は、演奏操作を受け付ける操作部110と、該受け付けられた演奏操作を表す演奏情報を生成する生成部120と、携帯端末を検知する検知部130と、前記携帯端末が検出されると、前記生成部にて生成された演奏情報および当該演奏操作が行われている場面を撮影した映像のうち少なくともいずれか一つを、当該楽器および前記携帯端末の少なくともいずれかに記録する処理を開始する制御部170とを有する。
【0003】
特許文献2のピアノは、受け付けた演奏操作を示す演奏情報を生成して、その演奏操作がペダルが押されておらず、且つ、発生させた楽音が単音である場合には、その単音の楽音の発音状態(例えば楽音音波形データ)を検出する。この際、ピアノは、単音の直前の楽音の影響を受けないように、その楽音を発生させるための演奏操作の終了時点から、所定時間が経過した後の単音の発音状態を検出する。ピアノは、検出した発音状態を示す発音検出データと演奏情報とを含むログデータをサーバ装置へ送信出力する。サーバ装置は、ピアノから収集したログデータを解析して、ピアノの状態に関する通知(例えば調律の要否や調律推奨時期の通知)をするための通知情報を生成してピアノへ出力する。
【0004】
特許文献3のピアノ10は、キーセンサ151によりキー情報を検出し、ペダルセンサ152によりペダル情報を検出し、ハンマセンサ153によりハンマ情報を検出し、プランジャ速度センサ154によりプランジャ速度情報を検出し、GPSセンサ155によりピアノ10の位置情報を検出し、傾斜センサ156によりピアノ10の傾斜情報を検出し、周辺温度センサ157により周辺温度情報を検出し、周辺湿度センサ158により周辺湿度情報を検出し、プランジャ温度センサ159によりプランジャ温度情報を検出し、これらの検出データを含むログデータをサーバ装置へ送信する。サーバ装置は、ログデータを解析してピアノ10の状態を通知するための通知情報(例えば調律の要否や調律推奨時期の通知)を生成して、ピアノ10へ送信する。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2014-228750
【特許文献2】特開2014-228751
【特許文献3】特開2014-228752
【発明の概要】
【発明が解決しようとする課題】
【0006】
本開示のひとつの態様は、利用者が任意の環境で楽器を演奏している様に知覚することができる演奏音生成方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の一実施形態に係る演奏音生成方法は、第1楽器の画像情報と、該第1楽器の環境変化で変化する音響情報を取得し、利用者の演奏操作情報を取得し、前記画像情報に基づいて、前記第1楽器の画像をレンダリングし、前記演奏操作情報および前記音響情報に基づいて、前記第1楽器の演奏音を生成する。
【発明の効果】
【0008】
本発明の一実施形態によれば、利用者が任意の環境で楽器を演奏している様に知覚することができる。
【図面の簡単な説明】
【0009】
図1】演奏音生成システムの構成図である。
図2】PC1の構成を示すブロック図である。
図3】本実施形態の演奏音生成方法に係る動作を示すフローチャートである。
図4】変形例2に係る演奏音生成システムの構成図である。
図5】変形例3に係る演奏音生成システムの構成図である。
図6】変形例5に係る演奏音生成システムの構成図である。
図7】変形例6に係る演奏音生成システムの構成図である。
【発明を実施するための形態】
【0010】
図1は、本実施形態に係る演奏音生成システムの構成図である。本実施形態の演奏音生成システムは、第1地点10に設置されたサーバ100および第2地点20に設置されたPCを備える。第1地点10は、例えば楽器店の店舗である。第1地点10は、販売用の第1楽器2を備える。第2地点20は利用者である第1演者3の自宅である。
【0011】
第2地点20の第1演者3は、PC1に第2楽器4を接続する。本実施形態では一例として、第1楽器2および第2楽器4はエレキギターである。なお、本実施形態において、「演奏」とは楽器の演奏に限るものではなく、マイクを用いた歌唱も含む。
【0012】
図2は、PC1の構成を示すブロック図である。本実施形態において、PC1は演奏音生成装置の一例である。
【0013】
PC1は、表示器31、ユーザI/F32、フラッシュメモリ33、プロセッサ34、RAM35、通信I/F36、スピーカ(SP)37、およびオーディオI/F38を備えている。
【0014】
表示器31は、例えばLED、LCDまたはOLED等からなり、種々の情報を表示する。ユーザI/F32は、表示器31のLCDまたはOLEDに積層されるタッチパネルである。あるいは、ユーザI/F32は、キーボードまたはマウス等であってもよい。ユーザI/F32がタッチパネルである場合、該ユーザI/F32は、表示器31とともに、GUI(Graphical User Interface)を構成する。
【0015】
通信I/F36は、ネットワークインタフェースを含み、ルータ(不図示)を介してインターネット等のネットワークに接続される。また、通信I/F36は、カメラ50に接続される。
【0016】
カメラ50は、第1演者3および第2楽器4の映像信号を取得する。プロセッサ34は、カメラ50から受け付けた映像信号に信号処理を施す。
【0017】
オーディオI/F38は、アナログオーディオ端子を有する。オーディオI/F38は、オーディオケーブルを介して楽器またはマイク等の音響機器に接続され、アナログ音信号を受け付ける。本実施形態では、PC1のオーディオI/F38は、第2楽器4に接続され、第2楽器4から演奏音に係るアナログ音信号を受け付ける。オーディオI/F38は、受け付けたアナログ音信号をデジタル音信号に変換する。また、オーディオI/F38は、デジタル音信号をアナログ音信号に変換する。SP37は、当該アナログ音信号に基づく音を再生する。
【0018】
プロセッサ34は、CPU,DSP、あるいはSoC(System-on-a-Chip)等からなり、記憶媒体であるフラッシュメモリ33に記憶されているプログラムをRAM35に読み出して、PC1の各構成を制御する。フラッシュメモリ33は、本実施形態のプログラムを記憶している。
【0019】
プロセッサ34は、オーディオI/F38から受け付けたデジタル音信号に信号処理を施す。プロセッサ34は、信号処理後のデジタル音信号をオーディオI/F38に出力する。オーディオI/F38は、信号処理後のデジタル音信号をアナログ音信号に変換する。
【0020】
SP37は、オーディオI/F38から出力されるアナログ音信号を再生し、第2楽器4の音を再生する。
【0021】
PC1のプロセッサ34は、本実施形態の演奏音生成方法を実行する。図3は、本実施形態の演奏音生成方法に係る動作を示すフローチャートである。
【0022】
プロセッサ34は、まず、第1楽器の画像情報と、該第1楽器の音響情報を取得する(S11)。具体的には、プロセッサ34は、サーバ100から、第1楽器2の画像情報90および音響情報91を受信する。
【0023】
画像情報90は、第1楽器2の3Dモデルデータである。第1楽器2のモデルデータは、例えば第1楽器2のボディ、ネック、および弦等を構成するための複数のポリゴンデータおよびボーンデータを有する。第1楽器2のモデルデータを構成する複数のボーンデータは、複数の関節データによって結合されたリンク構造を有していてもよい。特に可動域を有する楽器の場合、モデルデータは、リンク構造を含むことが好ましい。また、画像情報90は、3Dモデルデータに限らない。画像情報90は、2D画像データであってもよい。また、画像情報90は、静止画に限らず動画であってもよい。
【0024】
このような画像情報90は、サーバ100に接続されたセンサの一例であるカメラ70により取得される。第1楽器2の3Dモデルデータは予め作成されるが、カメラ70は、現時点の第1楽器2の外観映像を取得する。サーバ100は、カメラ70で取得した現時点の第1楽器2の外観映像に基づいて、予め作成された3Dモデルデータを調整する。例えば、サーバ100は、経年変化により生じる色の変化、金属部品の表面反射度の変化等を反映する。あるいはサーバ100は、1日の中での昼と夜の外観の違いを反映してもよい。なお、サーバ100は、カメラ70で取得した第1楽器2の外観映像から第1楽器2を認識し、第1楽器2の種類、製品名等の識別情報を特定する。サーバ100は、予め多数の楽器の外観映像と楽器の識別情報とを対応付けたデータベースを用意し、カメラ70で撮影した第1楽器2の外観映像で、対応する第1楽器2の識別情報を取得する。また、サーバ100は、例えば、第1楽器2の外観映像と、識別情報と、の関係をDNN等で訓練した訓練済モデルを用意して、当該訓練済モデルに外観映像を入力することにより識別情報を求めてもよい。この場合、サーバ100は、訓練段階として、例えば楽器の外観映像と、識別情報とのデータセットを多数取得する。サーバ100は、取得した外観映像および識別情報に基づいて、所定のモデルに、外観映像と、識別情報と、の関係を訓練させる。サーバ100は、実行段階として、カメラ70から受け付けた第1楽器2の外観映像を訓練済モデルに入力し、識別情報を取得する。これにより、サーバ100は、S11において第1楽器2の画像情報90および音響情報91を割り出してPC1Aに送信することができる。
【0025】
音響情報91は、第1楽器2の音をデジタル音源としてモデリングしたデータを含む。第1楽器2の音は、環境変化に応じて変化する。例えばギターのボディにおける主たる素材である木の性質は、時間の経過により変化する。また、ピックアップに使われているマグネットも時間の経過により変化する。第1楽器2の音は、時間の経過により変化する。また、保存環境における温度、湿度等によっても、第1楽器2の音は変化する。音響情報91は、新製品時の音をモデリングしただけでなく、これらの環境変化に応じて変化した音をモデリングしたデータを含み、時間の経過により変化する。
【0026】
なお、S11の処理において、プロセッサ34は、第1演者3から、どの時点(例えば現在、1年前、3年前等)の画像情報90または音響情報91を取得するか、受け付けてもよい。プロセッサ34は、受け付けた時点に対応する画像情報90または音響情報91をサーバ100から取得する。
【0027】
また、音響情報91は、再生環境に関する情報を含んでいてもよい。再生環境に関する情報は、例えば第1楽器2に接続される音響機器(エフェクタ、アンプ、スピーカ等)に関する情報、および再生空間の響きに関する情報を含む。第1楽器2の音は、接続される音響機器および再生空間の響きによっても変化する。例えば、第1楽器2の音は、試奏室等のスタジオ環境、コンサートホール、屋外、等によって異なる。音響情報91は、これらの様々な再生環境に関する情報を含んでいてもよい。
【0028】
次に、プロセッサ34は、第1演者3の演奏操作情報を取得する(S12)。演奏操作情報とは、例えばギターであれば、どのフレットを押下しているか示す情報、該フレットを押下したタイミング、離したタイミング、どの弦をピッキングしたかを示す情報、ピッキングのタイミング、ピッキングの速さ、あるいはミュート操作の有無、等である。また、演奏操作情報とは、例えばシンセサイザー等の鍵盤楽器では、音高(ノートナンバー)、音色、アタック、ディケイ、サスティン、リリース等の時間パラメータ等である。
【0029】
本実施形態では、演奏操作情報は、第2楽器4に対する第1演者3の演奏操作により取得される。
【0030】
プロセッサ34は、演奏操作情報をカメラ50の映像信号に基づいて取得する。あるいは、プロセッサ34は、例えばモーションセンサにより演奏者のモーションデータを取得し、演奏操作情報を取得してもよい。
【0031】
また、プロセッサ34は、楽器に搭載されたセンサにより、楽器の操作情報を取得することも可能である。楽器に搭載されたセンサとは、例えばギターの場合には、フレット毎に取り付けられたフレットセンサである。プロセッサ34は、フレット毎のセンサ信号を取得して楽器の操作情報を取得する。あるいはピッキングする弦がセンサに置き換えられた電子楽器である場合も、プロセッサ34は、センサ信号を取得して楽器の操作情報を取得する。
【0032】
また、プロセッサ34は、オーディオI/F38から受け付けたデジタル音信号(第2楽器4の音信号)の特徴量を抽出し、予め検出しておいた操作情報に対応する特徴量と対比し、演奏操作情報を取得してもよい。また、プロセッサ34は、例えば、音信号と、演奏操作情報と、の関係をDNN等で訓練した訓練済モデルを用意して、当該訓練済モデルに音信号を入力することにより演奏操作情報を求めてもよい。プロセッサ34は、訓練段階として、例えば音信号と、演奏操作情報とのデータセットをサーバ等から取得する。あるいは、プロセッサ34は、訓練段階として、フレット毎のセンサ信号を取得して演奏操作情報を取得し、そのタイミングで受け付けた音信号を取得してもよい。プロセッサ34は、取得した音信号および演奏操作情報に基づいて、所定のモデルに、音信号と、演奏操作情報と、の関係を訓練させる。プロセッサ34は、実行段階として、第2楽器4から受け付けた音信号を訓練済モデルに入力し、演奏操作情報を取得する。
【0033】
そして、プロセッサ34は、画像情報90に基づいて第1楽器2の画像をレンダリングする(S13)。より具体的には、プロセッサ34は、演奏操作情報を用いて、画像情報90に含まれる第1楽器2の3Dモデルデータを制御する。また、プロセッサ34は、ある演者80の3Dモデルデータを制御してもよい。演者80のモデルデータは、例えば演者の顔、胴、腕、指、および脚等を構成するための複数のポリゴンデータおよびボーンデータを有する。複数のボーンデータは、複数の関節データによって結合されたリンク構造を有する。モデルデータの各ボーンデータの位置情報は、モーションデータにより定義される。プロセッサ34は、演者80のモデルデータの位置情報を、演奏者の演奏操作情報に基づいて制御する。プロセッサ34は、演者80の3Dモデルデータをレンダリングし、該3Dモデルデータの位置情報を、演奏操作情報に基づいて制御する。プロセッサ34は、レンダリングした3Dモデルデータに係る映像(画像情報90に含まれる第1楽器2の映像および演者80の映像)を表示器31に表示する。
【0034】
そして、プロセッサ34は、演奏操作情報および音響情報91に基づいて、第1楽器2の演奏音を生成する(S14)。演奏操作情報は、音響情報91の音源の音を合成するためのパラメータに対応する。プロセッサ34は、第1演者3の演奏操作情報に基づいて音源(本実施形態では第1楽器2のギター音源)の音を合成する。
【0035】
プロセッサ34は、音響情報91に含まれる再生環境に関する情報に基づいて信号処理を施してもよい。例えば、音響情報91に響きに関する情報が含まれている場合、プロセッサ34は、再生環境の響きを再現する処理として、合成した音の音信号に対して、再生環境のインパルス応答データを畳み込む信号処理を行ってもよい。また、プロセッサ34は、合成した音の音信号に対して、第1楽器2に接続される音響機器(エフェクタ、アンプ、スピーカ等)をシミュレートするフィルタ処理を施してもよい。具体的には、再生環境に関する情報は、第1楽器2に接続される各音響機器の入力に対する出力の特性をデジタルフィルタとしてシミュレートしたデジタル信号処理ブロックのパラメータを含む。プロセッサ34は、合成した音の音信号に対して、音響機器に関する情報で示されたパラメータの信号処理を施す。これにより、プロセッサ34は、合成した音に対して、第1楽器2に接続される音響機器(エフェクタ、アンプ、スピーカ等)の入出力特性を再現することができる。
【0036】
プロセッサ34は、生成した第1楽器2の演奏音に係る音信号をオーディオI/F38を介してスピーカ37に出力する。これにより、スピーカ37から、第1演者3の第2楽器4に対する演奏操作に対応して、第1楽器2の演奏音が再生される。なお、サーバ100が図3のS13およびS14に示す動作を実行し、S13およびS14で生成した映像および音信号をPC1に送信してもよい。この場合、PC1は、ネットワークを介して、サーバ100から映像および音信号を受信して、第2楽器4に対する利用者の演奏操作に応じて、受信した第1楽器2の演奏音を再生する。
【0037】
このようにして、第1演者3は、自宅の自身の第2楽器4を用いて、自宅に居ながらにして、店舗にある第1楽器2を試奏し、第1楽器2の演奏音を聴くことができる。本実施形態の演奏音生成方法の利用者は、実際に触れている第2楽器4以外の好きな楽器を演奏するように知覚できるという顧客体験を得ることができる。より具体的には、本実施形態の演奏音生成方法の利用者は、遠隔でも好きな楽器を演奏することができるという顧客体験を得ることができる。
【0038】
(変形例1)
変形例1の演奏音生成システムは、画像情報90および音響情報91に対応する非代替性トークン(Non-Fungible Token:以下、NFTと称する。)をインターネット上のデジタル台帳に記録する。
【0039】
例えば、図1の第1地点10である楽器店は、ビンテージ品である第1楽器2の画像情報90および音響情報91に対応するNFTをデジタル台帳に記録する。これにより、楽器店は、販売している楽器の外観に関する情報と音に関する情報をNFTで証明し、対応付けることができる。楽器店は、例えばNFTで証明したビンテージ品である第1楽器2の画像情報90および音響情報91を販売し、対価を得ることができる。楽器店は、例えば無償試用期間を設定してNFTに対応していない画像情報90および音響情報91を提供し、課金を受けた後にNFTで証明された画像情報90および音響情報91を提供してもよい。
【0040】
(変形例2)
図4は、変形例2に係る演奏音生成システムの構成図である。図1と共通する構成は同一の符号を付し、説明を省略する。
【0041】
変形例2に係る演奏音生成システムは、第2地点20のPC1と、第3地点30に設置されたPC1Aと、がネットワークを介して接続されている。PC1Aの構成は、図2に示したPC1と同じ構成である。
【0042】
PC1Aには、マイク8、カメラ50およびカメラ70が接続されている。第3地点30では、第2演者7がマイク8を用いて歌唱を行う。PC1Aは、マイク8で受け付けた歌唱音に係る音信号をPC1に送信する。また、PC1Aは、カメラ50から受け付けた、第2演者7の映像信号をPC1に送信する。
【0043】
PC1は、PC1から受信した第2演者7の歌唱音に係る音信号を再生する。PC1は、図3のS13でレンダリングした3Dモデルデータに係る映像(画像情報90に含まれる第1楽器2の映像および演者80の映像)およびPC1Aから受信した第2演者7の映像を表示する。
【0044】
PC1は、図3のS12で生成した演奏操作情報をPC1Aに送信する。PC1Aは、受信した演奏操作情報に基づいて、図3のS13およびS14に示す動作を実行する。PC1Aは、S13でレンダリングした3Dモデルデータに係る映像(画像情報90に含まれる第1楽器2の映像および演者80の映像)およびカメラ50から受け付けた、第2演者7の映像を表示する。また、PC1Aは、S14で生成した第1楽器2の演奏音に係る音信号を再生する。あるいは、PC1が図3のS13およびS14に示す動作を実行し、S13およびS14で生成した映像および第1楽器2の演奏音に係る音信号を、ネットワークを介してPC1Aに送信してもよい。PC1Aは、受信した映像および音信号を再生する。
【0045】
このようにして、変形例2に係る演奏音生成システムは、第2地点20の第1演者3および第3地点30の第2演者7が遠隔合奏を行うことができる。変形例2に係る演奏音生成システムでは、第1演者3は、自宅の自身の第2楽器4を用いて、自宅に居ながらにして、スタジオである第3地点30にある第1楽器2を演奏し、第2演者7と合奏を行うことができる。
【0046】
(変形例3)
図5は、変形例3に係る演奏音生成システムの構成図である。図4と共通する構成は同一の符号を付し、説明を省略する。
【0047】
変形例3に係る演奏音生成システムでは、第1楽器2は第1演者3の所有するエレキギターであり、第2楽器4は、スタジオである第3地点30に設置されたエレキギターである。
【0048】
PC1には、カメラ70が接続されている。PC1Aには、マイク8、2つのカメラ50が接続されている。
【0049】
PC1Aは、図3に示すS11~S14の動作を実行する。PC1Aは、S13でレンダリングした3Dモデルデータに係る映像(画像情報90に含まれる第1楽器2の映像および演者80の映像)およびカメラ50から受け付けた、第2演者7の映像を表示する。また、PC1Aは、S14で生成した第1楽器2の演奏音に係る音信号を再生する。
【0050】
変形例3に係る演奏音生成システムでは、第1演者3は、スタジオである第3地点30の第2楽器4を用いながら、自宅にある第2地点20の第1楽器2を演奏して、第2演者7と合奏を行うことができる。そのため、第1演者3は、所有するエレキギターを持ち運ぶことなく、どの場所でも所有するエレキギターの音で演奏を行うことができる。
【0051】
(変形例4)
複数の要素から構成される楽器の場合、画像情報90および音響情報91は、要素毎に設けられていてもよい。例えば、サックスの場合、本体・ネック・マウスピース・リガチャー・リード等の要素を有する。画像情報90および音響情報91は、これら本体・ネック・マウスピース・リガチャー・リード等の要素毎に設けられている。
【0052】
PC1は、図3のS13の動作において、複数の画像情報90の組み合わせに基づいてサックスの映像をレンダリングする。また、図3のS14の動作において、複数の音響情報91の組み合わせに基づいて演奏音を生成する。
【0053】
これにより、利用者は、楽器を構成する複数の要素の組み合わせにより、外観および音色が変えて演奏することができる。
【0054】
(変形例5)
図6は、変形例5に係る演奏音生成システムの構成図である。図1と共通する構成は同一の符号を付し、説明を省略する。
【0055】
変形例5に係る演奏音生成システムでは、第2地点20に第1楽器2が設置されている。PC1には、カメラ50およびカメラ70が接続されている。
【0056】
PC1は、図3に示すS11~S14の動作を実行する。画像情報90および音響情報91は、PC1のフラッシュメモリ33に記憶されていてもよいし、他装置(例えばサーバ100)に記憶されていて、PC1が都度ダウンロードしてもよい。
【0057】
この場合も、利用者は、実際に触れている第2楽器4以外の好きな楽器(例えば第1楽器2)を演奏するように知覚できるという顧客体験を得ることができる。
【0058】
(変形例6)
図7は、変形例6に係る演奏音生成システムの構成図である。図6と共通する構成は同一の符号を付し、説明を省略する。
【0059】
変形例6に係る演奏音生成システムでは、第2地点20に第1楽器2が設置されている。第1演者3は、第1楽器2を演奏する。PC1には、第1楽器2およびカメラ50が接続されている。
【0060】
PC1は、図3に示すS11~S14の動作を実行する。画像情報90および音響情報91は、PC1のフラッシュメモリ33に記憶されていてもよいし、他装置(例えばサーバ100)に記憶されていて、PC1が都度ダウンロードしてもよい。
【0061】
変形例6では、第1演者3は、第1楽器2を演奏し、PC1は第1楽器2の画像および演者80の3Dモデルデータをレンダリングする。また、PC1は、第1演者3は、第1楽器2を演奏し、音響情報91に基づいて、第1楽器2の演奏音を生成する。
【0062】
これにより、利用者は、任意の環境で楽器を演奏している様に知覚することができるという新たな顧客体験を得ることができる。例えば、PC1は、新品時の第1楽器2の音をモデリングした音響情報91を取得すれば、新品時の第1楽器2の演奏音を生成できる。したがって、利用者は、新品時の第1楽器2の演奏音を鳴らすことができる。あるいは逆に、例えば、PC1は、第1楽器2の過去の音をモデリングした音響情報91を取得すれば、新品の第1楽器2であっても、過去の演奏音(ビンテージサウンド)を生成できる。
【0063】
また、PC1は、音響情報91に響きに関する情報が含まれている場合、表示器31に仮想的なコンサートホール等の映像を表示し、当該コンサートホール等の再生環境の響きを再現する処理を行ってもよい。これにより、利用者は、例えば現存しない、あこがれのライブハウスやコンサートホールでライブパフォーマンスをしているように知覚することができるという新たな顧客体験を得ることができる。
【0064】
本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。
【0065】
例えば、本発明は、第1楽器の画像情報と、該第1楽器の音響情報と、を取得し、第2楽器に対する利用者の演奏操作情報を取得し、前記画像情報に基づいて、前記第1楽器の画像をレンダリングし、前記演奏操作情報および前記音響情報に基づいて、前記第1楽器の演奏音を生成する、演奏音生成方法であってもよい。
【0066】
この場合も、自宅等にある第2楽器を演奏することで、楽器店等の遠隔地に設置されている第1楽器の音を再現することができる。したがって、利用者は、遠隔でも好きな楽器を演奏することができる。
【0067】
図6または図7に示した様に、本発明においてネットワークの構成は必須ではない。画像情報90および音響情報91は、ネットワークを介して取得する必要はない。
【符号の説明】
【0068】
2 :第1楽器
3 :第1演者
4 :第2楽器
7 :第2演者
8 :マイク
10 :第1地点
20 :第2地点
30 :第3地点
31 :表示器
32 :ユーザI/F
33 :フラッシュメモリ
34 :プロセッサ
35 :RAM
36 :通信I/F
37 :スピーカ
38 :オーディオI/F
50 :カメラ
70 :カメラ
80 :演者
90 :画像情報
91 :音響情報
100 :サーバ
図1
図2
図3
図4
図5
図6
図7