(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024136470
(43)【公開日】2024-10-04
(54)【発明の名称】パフォーマンス情報生成方法、パフォーマンス情報生成装置、およびプログラム
(51)【国際特許分類】
G10H 1/00 20060101AFI20240927BHJP
【FI】
G10H1/00 Z
【審査請求】未請求
【請求項の数】18
【出願形態】OL
(21)【出願番号】P 2023047591
(22)【出願日】2023-03-24
(71)【出願人】
【識別番号】000004075
【氏名又は名称】ヤマハ株式会社
(74)【代理人】
【識別番号】110000970
【氏名又は名称】弁理士法人 楓国際特許事務所
(72)【発明者】
【氏名】甲斐 繁
(72)【発明者】
【氏名】中村 吉就
(72)【発明者】
【氏名】大谷 明央
(72)【発明者】
【氏名】井芹 大智
(72)【発明者】
【氏名】藤島 琢哉
(72)【発明者】
【氏名】松田 遼
(72)【発明者】
【氏名】山川 颯人
(72)【発明者】
【氏名】須山 明彦
(72)【発明者】
【氏名】密岡 稜大
(72)【発明者】
【氏名】原 貴洋
(72)【発明者】
【氏名】鈴木 裕和
(72)【発明者】
【氏名】鈴木 俊太朗
【テーマコード(参考)】
5D478
【Fターム(参考)】
5D478HH02
(57)【要約】
【課題】演奏が不得意な人を得意な人が補助したり、より高度な演奏を実現したりでき、かつ視聴者にはあたかも1人で演奏しているように見える新たなパフォーマンスを実現することができるパフォーマンス情報生成方法を提供する。
【解決手段】パフォーマンス情報生成方法は、第1演者のパフォーマンスに係る第1パフォーマンス情報と第2演者のパフォーマンスに係る第2パフォーマンス情報を取得し、取得した前記第1パフォーマンス情報および前記第2パフォーマンス情報を統合した第3パフォーマンス情報を生成し、生成した前記第3パフォーマンス情報を出力する。
【選択図】
図2
【特許請求の範囲】
【請求項1】
第1演者のパフォーマンスに係る第1パフォーマンス情報と第2演者のパフォーマンスに係る第2パフォーマンス情報を取得し、
取得した前記第1パフォーマンス情報および前記第2パフォーマンス情報を統合した第3パフォーマンス情報を生成し、
生成した前記第3パフォーマンス情報を出力する、
パフォーマンス情報生成方法。
【請求項2】
前記第1パフォーマンス情報または前記第2パフォーマンス情報の少なくとも何れかは、演奏に関する情報を含み、
前記第3パフォーマンス情報は、前記演奏に関する情報を含む、
請求項1に記載のパフォーマンス情報生成方法。
【請求項3】
前記演奏に関する情報は、楽器の操作情報を含み、
前記楽器の操作情報に基づいて演奏音を生成する、
請求項2に記載のパフォーマンス情報生成方法。
【請求項4】
前記演奏に関する情報は、演奏音の情報を含み、
前記演奏音の情報に基づいて前記演奏音を出力する、
請求項2に記載のパフォーマンス情報生成方法。
【請求項5】
前記第1パフォーマンス情報または前記第2パフォーマンス情報の少なくとも何れかは、第1の演奏に関する情報を含み、
前記第3パフォーマンス情報は、前記第1の演奏に関する情報を含み、
前記第1の演奏に関する情報に基づいて演奏音を出力し、
第2の演奏に関する情報を取得し、
前記第2の演奏に関する情報を、ネットワークを介して他装置に送信する、
請求項1に記載のパフォーマンス情報生成方法。
【請求項6】
前記第1パフォーマンス情報および前記第2パフォーマンス情報は、それぞれ第1モーションデータおよび第2モーションデータを含み、
前記第3パフォーマンス情報は、前記第1モーションデータおよび前記第2モーションデータに基づいて生成される第3モーションデータを含む、
請求項1乃至請求項5のいずれか1項に記載のパフォーマンス情報生成方法。
【請求項7】
前記第1パフォーマンス情報または前記第2パフォーマンス情報の少なくとも何れかは、予め作成されて記録された情報を含む、
請求項1乃至請求項5のいずれか1項に記載のパフォーマンス情報生成方法。
【請求項8】
前記第1パフォーマンス情報または前記第2パフォーマンス情報の少なくとも何れかに対応する非代替性トークンを記録する、
請求項1乃至請求項5のいずれか1項に記載のパフォーマンス情報生成方法。
【請求項9】
前記第1演者または前記第2演者の演奏音に関する情報を取得し、
前記演奏音に関する情報と、前記第1パフォーマンス情報または前記第2パフォーマンス情報と、の関係を訓練した訓練済モデルに基づいて、前記第1パフォーマンス情報または前記第2パフォーマンス情報を取得する、
請求項1乃至請求項5のいずれか1項に記載のパフォーマンス情報生成方法。
【請求項10】
第1演者のパフォーマンスに係る第1パフォーマンス情報と第2演者のパフォーマンスに係る第2パフォーマンス情報を取得し、
取得した前記第1パフォーマンス情報および前記第2パフォーマンス情報を統合した第3パフォーマンス情報を生成し、
生成した前記第3パフォーマンス情報を出力する、
プロセッサを備えたパフォーマンス情報生成装置。
【請求項11】
前記第1パフォーマンス情報または前記第2パフォーマンス情報の少なくとも何れかは、演奏に関する情報を含み、
前記第3パフォーマンス情報は、前記演奏に関する情報を含む、
請求項10に記載のパフォーマンス情報生成装置。
【請求項12】
前記演奏に関する情報は、楽器の操作情報を含み、
前記プロセッサは、前記楽器の操作情報に基づいて演奏音を生成する、
請求項11に記載のパフォーマンス情報生成装置。
【請求項13】
前記演奏に関する情報は、演奏音の情報を含み、
前記プロセッサは、前記演奏音の情報に基づいて前記演奏音を出力する、
請求項11に記載のパフォーマンス情報生成装置。
【請求項14】
前記第1パフォーマンス情報または前記第2パフォーマンス情報の少なくとも何れかは、第1の演奏に関する情報を含み、
前記第3パフォーマンス情報は、前記第1の演奏に関する情報を含み、
前記第1の演奏に関する情報に基づいて演奏音を出力し、
第2の演奏に関する情報を取得し、
前記第2の演奏に関する情報を、ネットワークを介して他装置に送信する、
請求項10に記載のパフォーマンス情報生成装置。
【請求項15】
前記第1パフォーマンス情報および前記第2パフォーマンス情報は、それぞれ第1モーションデータおよび第2モーションデータを含み、
前記第3パフォーマンス情報は、前記第1モーションデータおよび前記第2モーションデータに基づいて生成される第3モーションデータを含む、
請求項10乃至請求項14のいずれか1項に記載のパフォーマンス情報生成装置。
【請求項16】
前記第1パフォーマンス情報または前記第2パフォーマンス情報の少なくとも何れかは、予め作成されて記録された情報を含む、
請求項10乃至請求項14のいずれか1項に記載のパフォーマンス情報生成装置。
【請求項17】
前記プロセッサは、前記第1パフォーマンス情報または前記第2パフォーマンス情報の少なくとも何れかに対応する非代替性トークンを記録する、
請求項10乃至請求項14のいずれか1項に記載のパフォーマンス情報生成装置。
【請求項18】
第1演者のパフォーマンスに係る第1パフォーマンス情報と第2演者のパフォーマンスに係る第2パフォーマンス情報を取得し、
取得した前記第1パフォーマンス情報および前記第2パフォーマンス情報を統合した第3パフォーマンス情報を生成し、
生成した前記第3パフォーマンス情報を出力する、
処理を情報処理装置に実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
この発明の一実施形態は、パフォーマンス情報生成方法、パフォーマンス情報生成装置、およびプログラムに関する。
【背景技術】
【0002】
特許文献1には、第1ユーザに関連付けられる第1アバターと、第2ユーザに関連付けられる第2アバターとを、仮想空間に配置し、第2ユーザの動きに応じて、第2アバターに第1パフォーマンスを実行させ、第2アバターによる第2パフォーマンスの実行を前記第2ユーザにリクエストし、第2ユーザの動きに応じて、第2アバターに第2パフォーマンスを実行させる、情報処理装置が開示されている。
【0003】
特許文献2には、最高心拍数のパーセンテージの範囲として複数の心拍数ゾーンを定義し、心拍数ゾーンのそれぞれに色を割り当て、ユーザから心拍数情報を受け取り、心拍数情報のグラフィック表示を提供する心拍数情報提供方法において、グラフィック表示の部分領域の色は心拍数ゾーンの内の1つに割り当てられた色に対応することが開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2019-192173
【特許文献2】特開2010-267267
【発明の概要】
【発明が解決しようとする課題】
【0005】
本開示のひとつの態様は、演奏が不得意な人を得意な人が補助したり、より高度な演奏を実現したりでき、かつ視聴者にはあたかも1人で演奏しているように見える新たなパフォーマンスを実現することができるパフォーマンス情報生成方法を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一実施形態に係るパフォーマンス情報生成方法は、第1演者のパフォーマンスに係る第1パフォーマンス情報と第2演者のパフォーマンスに係る第2パフォーマンス情報を取得し、取得した前記第1パフォーマンス情報および前記第2パフォーマンス情報を統合した第3パフォーマンス情報を生成し、生成した前記第3パフォーマンス情報を出力する。
【発明の効果】
【0007】
本発明の一実施形態によれば、演奏が不得意な人を得意な人が補助したり、より高度な演奏を実現したりでき、かつ視聴者にはあたかも1人で演奏しているように見える新たなパフォーマンスを実現することができる。
【図面の簡単な説明】
【0008】
【
図1】パフォーマンス情報生成装置1の構成を示すブロック図である。
【
図3】パフォーマンス情報生成方法の動作を示すフローチャートである。
【
図4】変形例4に係るパフォーマンス情報生成システムの構成図である。
【
図5】変形例6に係るパフォーマンス情報生成システムの構成図である。
【発明を実施するための形態】
【0009】
図1は、本実施形態に係るパフォーマンス情報生成システムの構成図である。パフォーマンス情報生成システムは、第1地点10に設置されたPC(パーソナルコンピュータ)1A,第2地点20に設置されたPC1B、および第3地点30に設置されたPC1Cを備える。
【0010】
第1地点10の第1演者3は、PC1Aに楽器5およびモーションセンサ50を接続する。第2地点20の第2演者7は、PC1Bに楽器9およびモーションセンサ51を接続する。モーションセンサ50およびモーションセンサ51は、演者の演奏モーションを検出するためのセンサであり、例えば光学式、慣性式、あるいは画像式等のセンサである。モーションセンサ50は、第1演者3の左手のモーションを検出する。モーションセンサ51は、第2演者7の右手のモーションを検出する。
【0011】
本実施形態では一例として、楽器5および楽器9はエレキギターである。第1演者3は、エレキギターの演奏に長けた演者であり、第2演者7は初心者である。第1演者3は楽器5を両手で演奏している。すなわち、第1演者3は、左手でフレットを押下し、右手でピッキングを行っている。第2演者7は右手でピッキングを行っているが、左手でフレットは押下していない。
【0012】
なお、本実施形態において、「演奏」とは楽器の演奏に限るものではなく、マイクを用いた歌唱も含む。
【0013】
図2は、PC1Aの構成を示すブロック図である。PC1Aは、汎用の情報処理装置である。PC1A、PC1B、およびPC1Cの主要構成は同じである。
図2では代表してPC1Aの構成を示す。
【0014】
PC1Aは、表示器31、ユーザI/F32、フラッシュメモリ33、プロセッサ34、RAM35、通信I/F36、スピーカ(SP)37、およびオーディオI/F38を備えている。
【0015】
表示器31は、例えばLED、LCDまたはOLED等からなり、種々の情報を表示する。ユーザI/F32は、表示器31のLCDまたはOLEDに積層されるタッチパネルである。あるいは、ユーザI/F32は、キーボードまたはマウス等であってもよい。ユーザI/F32がタッチパネルである場合、該ユーザI/F32は、表示器31とともに、GUI(Graphical User Interface)を構成する。
【0016】
通信I/F36は、ネットワークインタフェースを含み、ルータ(不図示)を介してインターネット等のネットワークに接続される。また、通信I/F36は、汎用通信インタフェースを含む。PC1Aの通信I/F36は、モーションセンサ50に接続され、モーションセンサ50から第1センサ信号を受け付ける。PC1Bの通信I/F36は、モーションセンサ51に接続され、モーションセンサ51から第2センサ信号を受け付ける。
【0017】
オーディオI/F38は、アナログオーディオ端子を有する。オーディオI/F38は、オーディオケーブルを介して楽器またはマイク等の音響機器に接続され、アナログ音信号を受け付ける。本実施形態では、PC1AのオーディオI/F38は、楽器5に接続され、楽器5から演奏音に係るアナログ音信号を受け付ける。PC1BのオーディオI/F38は、楽器9に接続され、楽器9から演奏音に係るアナログ音信号を受け付ける。オーディオI/F38は、受け付けたアナログ音信号をデジタル音信号に変換する。また、オーディオI/F38は、デジタル音信号をアナログ音信号に変換する。SP37は、当該アナログ音信号に基づく音を再生する。
【0018】
プロセッサ34は、モーションセンサ50から受け付けた第1センサ信号と、オーディオI/F39から受け付けたデジタル音信号に基づいてパフォーマンス情報を生成する。本実施形態では、PC1Aのプロセッサ34は、第1センサ信号に基づく第1モーションデータと、受け付けたデジタル音信号に基づく演奏音の情報と、を含む第1パフォーマンス情報を生成する。PC1Aのプロセッサ34は、ネットワークを介して第1パフォーマンス情報をPC1Cに送信する。また、PC1Bのプロセッサ34は、第2センサ信号に基づく第2モーションデータを含む第2パフォーマンス情報を生成する。PC1Bのプロセッサ34は、ネットワークを介して第2パフォーマンス情報をPC1Cに送信する。
【0019】
図3は、パフォーマンス情報生成方法の動作を示すフローチャートである。本実施形態では、PC1Cのプロセッサ34が
図3に示すパフォーマンス情報生成方法を実行する。
【0020】
プロセッサ34は、第1演者のパフォーマンスに係る第1パフォーマンス情報と第2演者のパフォーマンスに係る第2パフォーマンス情報を取得する(S11)。つまり、PC1Cのプロセッサ34は、PC1Aからネットワークを介して第1パフォーマンス情報を受信し、PC1Bからネットワークを介して第2パフォーマンス情報を受信する。
【0021】
プロセッサ34は、取得した第1パフォーマンス情報および第2パフォーマンス情報を統合した第3パフォーマンス情報を生成する(S12)。第1パフォーマンス情報は、第1センサ信号に基づく第1モーションデータと、演奏音の情報と、を含む。本実施形態において第2パフォーマンス情報は、第2センサ信号に基づく第2モーションデータを含む。第1モーションデータは、第1演者3の左手の動きに対応する。第2モーションデータは、第2演者7の右手の動きに対応する。プロセッサ34は、ある3Dモデルデータを制御するための第3モーションデータとして、左手のモデルを第1モーションデータで制御し、右手のモデルを第2モーションデータで制御する。つまり、プロセッサ34は、第1モーションデータと第2モーションデータを統合した第3モーションデータを生成する。また、プロセッサ34は、当該3Dモデルデータの演奏動作に同期する演奏音の情報として、第1パフォーマンス情報に含まれている演奏音の情報を用いて、第3パフォーマンス情報に含まれる演奏音の情報を生成する。
【0022】
この様にしてプロセッサ34は、3Dモデルデータを制御するための第3モーションデータと、当該3Dモデルデータの演奏動作に同期する演奏音の情報と、を含む第3パフォーマンス情報を生成する。
【0023】
プロセッサ34は、生成した第3パフォーマンス情報を出力する(S13)。例えば、プロセッサ34は、フラッシュメモリ33に第3パフォーマンス情報を記録する。あるいは、プロセッサ34は、生成した第3パフォーマンス情報を用いて、3Dモデルデータのレンダリングおよび演奏音の再生を行う。
【0024】
まず、プロセッサ34は、第3パフォーマンス情報に含まれる第3モーションデータを用いて、指定された3Dモデルデータを制御する。3Dモデルデータは、ある演者(キャラクタ)のモデルデータおよびある楽器のモデルデータを含む。モデルデータは、不図示のサーバ(例えばクリエイタの利用するコンピュータ)等の他装置からダウンロードし、フラッシュメモリ33に記憶される。演者のモデルデータは、例えば演者の顔、胴、腕、指、および脚等を構成するための複数のポリゴンデータおよびボーンデータを有する。複数のボーンデータは、複数の関節データによって結合されたリンク構造を有する。モデルデータの各ボーンデータの位置情報は、モーションデータにより定義される。楽器のモデルデータは、例えばギターのボディ、ネック、および弦等を構成するための複数のポリゴンデータおよびボーンデータを有する。楽器のモデルデータを構成する複数のボーンデータも、複数の関節データによって結合されたリンク構造を有する。ただし、ギターは、弦以外に可動域を有していないため、リンク構造は必須ではない。可動域を有する楽器の場合、モデルデータは、リンク構造を含むことが好ましい。
【0025】
プロセッサ34は、演者のモデルデータの位置情報を、第3パフォーマンス情報に含まれる第3モーションデータに基づいて制御する。プロセッサ34は、演者の3Dモデルデータをレンダリングし、該3Dモデルデータの位置情報を、第3パフォーマンス情報に含まれる第3モーションデータに基づいて制御する。プロセッサ34は、レンダリングした3Dモデルデータに係る映像を表示器31に表示する。
【0026】
これにより、表示器31には、
図1に示す様に、ある演者の3Dモデルデータ90および楽器の3Dモデルデータ91の映像が表示される。該3Dモデルデータ90の右手は、第1演者3の右手のピッキングの動きに応じて動作し、3Dモデルデータ90の左手は、第2演者7の左手のフレットの押下の動きに応じて動作する。
【0027】
また、プロセッサ34は、第3パフォーマンス情報に含まれる演奏音の情報を再生して、演奏音に係る音信号を生成する。プロセッサ34は、生成した音信号をSP37に出力し、演奏音を再生する。
【0028】
PC1Cの利用者は、表示器31に表示された3Dモデルデータ90の演者が3Dモデルデータ91の楽器を演奏するパフォーマンスを視聴する。
【0029】
以上のようにして、本実施形態のパフォーマンス情報生成方法は、複数名(第1演者3および第2演者7)でパフォーマンスを行った場合でも、視聴者にはあたかも1人で演奏しているように見える新たなパフォーマンスを実現することができる。これにより、パフォーマンスを提供する第1演者3および第2演者7は、より高度な演奏を実現することできるという従来ではなし得なかった新たな顧客体験を得ることができる。また、本実施形態のパフォーマンス情報生成方法は、演奏の不得意な第2演者7を、演奏の得意な第1演者3が補助した場合でも、視聴者にはあたかも1人で演奏しているように見える新たなパフォーマンスを実現することができる。これにより、演奏の不得意な第2演者7でも、演奏の得意な第1演者3の助けを借りて、視聴者に対してより高度なパフォーマンスを提供することができるという新たな顧客体験を得ることができる。
【0030】
(変形例1)
上記実施形態では、第1パフォーマンス情報が、演奏に関する情報として楽器5から受け付けた演奏音に情報を含む例を示した。しかし、第2パフォーマンス情報が、演奏に関する情報として楽器9から受け付けた演奏音に関する情報を含んでいてもよい。この場合、PC1Cのプロセッサ34は、第2パフォーマンス情報に含まれている演奏音の情報を用いて第3パフォーマンス情報を生成する。
【0031】
(変形例2)
変形例2では、第1パフォーマンス情報および第2パフォーマンス情報の両方が、演奏音に関する情報を含む。
【0032】
この場合、第1パフォーマンス情報は、第1演者3の演奏する楽器5に係る演奏音の音信号を含む。第2パフォーマンス情報は、第2演者7の右手のピッキングに係る情報を演奏音に関する情報として含む。
【0033】
第2演者7のピッキングに係る情報は、PC1Bのプロセッサ34が検出する。プロセッサ34は、例えば楽器9から受け付けた音信号の特徴量を抽出し、予め検出しておいたピッキングに係る特徴量と対比し、ピッキングのタイミングを示す情報を抽出する。特徴量とは、例えばスペクトル包絡、パワー、振幅スペクトル、基本周波数、フォルマント周波数、メルスペクトル包絡、メルスペクトル、またはケプストラム等である。プロセッサ34は、ピッキング時に取得される音信号から特徴量を検出し、フラッシュメモリ33等に記憶する。プロセッサ34は、取得した音信号の特徴量でフラッシュメモリ33を参照し、ピッキングのタイミングを示す情報を抽出する。
【0034】
また、プロセッサ34は、例えば、音信号と、ピッキングのタイミングを示す情報と、の関係をDNN(Deep Neural Network)等で訓練した訓練済モデルを用意して、当該訓練済モデルに音信号を入力することによりピッキングのタイミングを示す情報を求めてもよい。プロセッサ34は、訓練段階として、例えば音信号と、ピッキングのタイミングを示す情報とのデータセットをサーバ等から取得する。あるいは、プロセッサ34は、訓練段階として、モーションセンサ51から第2センサ信号に基づく第2モーションデータを取得して、ピッキングのタイミングを示す情報(例えば、右手と弦が重なるタイミング)を抽出し、そのタイミングで受け付けた音信号を取得してもよい。プロセッサ34は、取得した音信号およびピッキングのタイミングを示す情報に基づいて、所定のモデルに、音信号と、ピッキングのタイミングを示す情報と、の関係を訓練させる。プロセッサ34は、実行段階として、楽器9から受け付けた音信号を訓練済モデルに入力し、ピッキングのタイミングを示す情報を取得する。
【0035】
あるいは、プロセッサ34は、モーションセンサ51のセンサ信号に基づいてピッキングのタイミングを示す情報を求めてもよい。例えばモーションセンサ51が画像式のセンサである場合、プロセッサ34は、第2演者の右手のピッキングの動きの画像に基づいて、ピッキングのタイミングを示す情報を求める。
【0036】
そして、プロセッサ34は、第2モーションデータと、ピッキングのタイミングを示す情報と、を含む第2パフォーマンス情報を生成する。
【0037】
PC1Cのプロセッサ34は、第2パフォーマンス情報に含まれるピッキングのタイミングを示す情報に基づいて、第1パフォーマンス情報に含まれている演奏音の情報を再生する。これにより、第1演者3の演奏する楽器5に係る演奏音が、第2演者7の右手のピッキングの動きに合わせて再生される。
【0038】
(変形例3)
上記実施形態では、演奏に関する情報は、演奏音(音信号)であった。変形例3の演奏に関する情報は、楽器の操作情報を含む。PC1Cのプロセッサ34は、楽器の操作情報に基づいて演奏音を生成する。
【0039】
楽器の操作情報とは、例えばギターであれば、どのフレットを押下しているか示す情報、該フレットを押下したタイミング、離したタイミング、どの弦をピッキングしたかを示す情報、ピッキングのタイミング、ピッキングの速さ、あるいはミュート操作の有無、等である。また、楽器の操作情報とは、例えばシンセサイザー等の鍵盤楽器では、音高(ノートナンバー)、音色、アタック、ディケイ、サスティン、リリース等の時間パラメータ等である。
【0040】
これらの楽器の操作情報は、例えばモーションセンサ50およびモーションセンサ51のセンサ信号に基づいて取得される。モーションセンサ50およびモーションセンサ51が画像式のセンサである場合、プロセッサ34は、第1演者3および第2演者7の手の画像から、楽器の操作情報を検出する。
【0041】
また、プロセッサ34は、楽器に搭載されたセンサにより、楽器の操作情報を取得することも可能である。楽器に搭載されたセンサとは、例えばギターの場合には、フレット毎に取り付けられたフレットセンサである。プロセッサ34は、フレット毎のセンサ信号を取得して楽器の操作情報を取得する。あるいはピッキングする弦がセンサに置き換えられた電子楽器である場合も、プロセッサ34は、センサ信号を取得して楽器の操作情報を取得する。
【0042】
また、プロセッサ34は、楽器から受け付けた音信号の特徴量を抽出し、予め検出しておいた操作情報に対応する特徴量と対比し、楽器の操作情報を取得してもよい。また、プロセッサ34は、例えば、音信号と、楽器の操作情報と、の関係をDNN等で訓練した訓練済モデルを用意して、当該訓練済モデルに音信号を入力することにより楽器の操作情報を求めてもよい。プロセッサ34は、訓練段階として、例えば音信号と、楽器の操作情報とのデータセットをサーバ等から取得する。あるいは、プロセッサ34は、訓練段階として、フレット毎のセンサ信号を取得して楽器の操作情報を取得し、そのタイミングで受け付けた音信号を取得してもよい。プロセッサ34は、取得した音信号および楽器の操作情報に基づいて、所定のモデルに、音信号と、楽器の操作情報と、の関係を訓練させる。プロセッサ34は、実行段階として、楽器9から受け付けた音信号を訓練済モデルに入力し、楽器の操作情報を取得する。
【0043】
この様な楽器の操作情報は、音源の音を合成するためのパラメータに対応する。PC1Aのプロセッサ34は、第1演者3の右手の操作情報を取得し、PC1Bのプロセッサ34は、第2演者7の左手の操作情報を取得する。PC1Cのプロセッサ34は、第1演者3の右手の操作情報と、第2演者7の左手の操作情報を統合した操作情報を生成する。これにより、第1演者3の右手のピッキング動作と、第2演者7の左手のフレット押下動作を統合した演奏の操作情報が生成される。プロセッサ34は、統合した操作情報に基づいて音源(本実施形態ではギター音源)の音を合成する。
【0044】
これにより、第1演者3の右手のピッキング動作と、第2演者7の左手のフレット押下動作を統合した演奏操作に基づく演奏音が再生される。
【0045】
(変形例4)
図4は、変形例4に係るパフォーマンス情報生成システムの構成図である。
図1と共通する構成については同一の符号を付し、説明を省略する。
【0046】
変形例4に係るパフォーマンス情報生成システムは、第3地点30に設置されたPC1Cにマイク75が接続されている。第3地点30では、第3演者2が歌唱のパフォーマンスを行う。
【0047】
パフォーマンス情報生成システムは、第3パフォーマンス情報は、第1パフォーマンス情報または第2パフォーマンス情報の少なくとも何れかに係る、第1の演奏に関する情報を含む。この例では、第3パフォーマンス情報は、第1演者3の第1の演奏に係る演奏音を含む。第3演者2は、第1演者3の演奏音を聴く。また、第3演者2は、PC1Cの表示器31に表示された3Dモデルデータ90を視る。第3演者2は、当該3Dモデルデータ90の演奏の姿を視て、かつ第1演者3の演奏音を聴き、歌唱を行う。
【0048】
PC1Cのプロセッサ34は、マイク75で取得した第3演者2の歌唱音に係る音信号を受け付ける。プロセッサ34は、受け付けた音信号を、ネットワークを介して他装置(PC1AおよびPC1B)に送信する。
【0049】
このようにして、第1地点10の第1演者3、第2地点20の第2演者7、および第3地点30の第3演者2が遠隔合奏を行う。第3地点30の第3演者2は、あたかも1人の演奏者と合奏を行っているように知覚できるという新たな顧客体験を得ることができる。また、第2地点20の第2演者7は、左手のフレット押下動作だけで、第3演者2と合奏を行っているように知覚できるという新たな顧客体験を得ることができる。
【0050】
(変形例5)
上記実施形態では、第1モーションデータ(左手のモーションデータ)はモーションセンサ50により取得され、第2モーションデータ(右手のモーションデータ)はモーションセンサ51により取得される例を示した。しかし、第1モーションデータまたは第2モーションデータは、モーションセンサにより取得する例に限らない。
【0051】
例えば、プロセッサ34は、演奏音の音信号と、演奏モーションと、の関係をDNNで訓練した訓練済モデルに基づいて演奏モーションを推定してもよい。また、プロセッサ34は、楽器に搭載されたセンサにより、演奏モーションを取得することも可能である。例えばプロセッサ34は、フレット毎に取り付けられたフレットセンサにより、左手の運指に係る演奏モーションを取得してもよい。プロセッサ34は、訓練段階として、例えば音信号と、演奏モーション(ギターであれば右手または左手のモーションデータ)とのデータセットをサーバ等から取得する。あるいは、プロセッサ34は、訓練段階として、モーションセンサを用いて検出した演奏モーションを取得し、そのタイミングで受け付けた音信号を取得してもよい。プロセッサ34は、取得した音信号および演奏モーションに基づいて、所定のモデルに、音信号と、演奏モーションと、の関係を訓練させる。プロセッサ34は、実行段階として、楽器9から受け付けた音信号を訓練済モデルに入力し、演奏モーションを取得する。
【0052】
(変形例6)
変形例6に係るパフォーマンス情報生成システムでは、第1パフォーマンス情報または第2パフォーマンス情報の少なくとも何れかは、予め作成されて記録された情報を含む。
【0053】
図5は、変形例6に係るパフォーマンス情報生成システムの構成図である。
図1と共通する構成については同一の符号を付し、説明を省略する。変形例6に係るパフォーマンス情報生成システムでは、PC1Bに代えて、サーバ100を有する。サーバ100は、
図1においてPC1Bで生成された第2パフォーマンス情報を記録している。サーバ100は、記録した第2パフォーマンス情報を配信する。
【0054】
PC1Cのプロセッサ34は、PC1Aから第1パフォーマンス情報を取得し、サーバ100から第2パフォーマンス情報を取得する。
【0055】
(変形例7)
変形例7のパフォーマンス情報生成システムは、第1パフォーマンス情報または第2パフォーマンス情報の少なくとも何れかに対応する非代替性トークン(Non-Fungible Token:以下、NFTと称する。)をインターネット上のデジタル台帳に記録する。
【0056】
例えば、
図1で示した第1演者3は、自身の第1パフォーマンス情報に対応するNFTをデジタル台帳に記録する。これにより、第1演者3は、自身の第1パフォーマンス情報をNFTで証明することができる。第1演者3は、例えばNFTで証明した自身の第1パフォーマンス情報を販売し、対価を得ることができる。また、第1演者3は、例えば同じ第1演者3の第1パフォーマンス情報であっても、右手のピッキングの動きと、左手のフレット押下動作と、をそれぞれ別のパフォーマンス情報としてNFTと対応付けて記録してもよい。この場合、第1演者3は、例えば、右手のピッキングの動きと、左手のフレット押下動作と、をそれぞれ異なる価格で販売することもできる。
【0057】
(その他の例)
上記実施形態では、パフォーマンス情報の例として、演奏操作を示した。しかしパフォーマンス情報は、例えば指揮者の指揮の動作、ダンサーのダンスの動作等も含まれる。例えば、第1のダンサーが上半身にモーションセンサを取り付け、第2のダンサーが下半身にモーションセンサを取り付けてもよい。プロセッサ34は、第1のダンサーの上半身の動作と、第2のダンサーの下半身の動作を統合したモーションデータを生成してもよい。
【0058】
上記実施形態では、第1パフォーマンス情報は、第1演者3のギターの右手のピッキングの動きを示すモーションデータであり、第2パフォーマンス情報は、第2演者7の左手のフレット押下動作を示すモーションデータであった。しかし、例えば、第1パフォーマンス情報は、第1演者3の右手のピッキングの動きおよび左手のフレット押下動作の両方を示すモーションデータであってもよい。第2演者7は、演奏に直接関係ない動作(例えばダンス)を行い、第2パフォーマンス情報は、第2演者7のダンスの動作を示すモーションデータであってもよい。これにより、本実施形態のパフォーマンス情報生成方法は、演奏と演奏以外の動作(例えばダンス)を統合したモーションデータで3Dモデルデータを制御することができ、従来ではなし得なかった新たなパフォーマンスを実現することもできる。
【0059】
また、第2演者7は、ギターとは異なる演奏(例えば電子オルガンの演奏)を行い、第2パフォーマンス情報は、第2演者7の電子オルガンの動作のうち足の動きを示すモーションデータであってもよい。これにより、本実施形態のパフォーマンス情報生成方法は、ギター演奏を行いながら、電子オルガンの足の動きを統合したモーションデータで3Dモデルデータを制御することができ、従来ではなし得なかった新たなパフォーマンスを実現することもできる。
【0060】
また、第2演者7は、例えば、キーボードやマウス等のボタンを押すだけの動作を行い、第2パフォーマンス情報は、リズムに合わせて第2演者7のボタンの押下動作を示すモーションデータであってもよい。PC1Cのプロセッサ34は、第2パフォーマンス情報に含まれるボタンの押下動作を示す情報に基づいて、第1パフォーマンス情報に含まれている演奏音の情報を再生する。これにより、第1演者3の演奏する楽器5に係る演奏音が、第2演者7のボタン押下動作に合わせて再生される。したがって、第2演者7は、リズムに合わせてボタンを押すだけで、高度なパフォーマンスを提供することができる。
【0061】
楽器は、ギターに限らず、ギター以外の弦楽器、管楽器、打楽器等も含んでいてもよい。
【0062】
本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。
【符号の説明】
【0063】
1 :パフォーマンス情報生成装置
2 :第3演者
3 :第1演者
5 :楽器
7 :第2演者
9 :楽器
10 :第1地点
20 :第2地点
30 :第3地点
31 :表示器
32 :ユーザI/F
33 :フラッシュメモリ
34 :プロセッサ
35 :RAM
36 :通信I/F
38 :オーディオI/F
39 :オーディオI/F
50 :モーションセンサ
51 :モーションセンサ
75 :マイク
90 :3Dモデルデータ
91 :3Dモデルデータ
100 :サーバ