IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヤマハ株式会社の特許一覧

特開2024-176165コンテンツ情報処理方法およびコンテンツ情報処理装置
<>
  • 特開-コンテンツ情報処理方法およびコンテンツ情報処理装置 図1
  • 特開-コンテンツ情報処理方法およびコンテンツ情報処理装置 図2
  • 特開-コンテンツ情報処理方法およびコンテンツ情報処理装置 図3
  • 特開-コンテンツ情報処理方法およびコンテンツ情報処理装置 図4
  • 特開-コンテンツ情報処理方法およびコンテンツ情報処理装置 図5
  • 特開-コンテンツ情報処理方法およびコンテンツ情報処理装置 図6
  • 特開-コンテンツ情報処理方法およびコンテンツ情報処理装置 図7
  • 特開-コンテンツ情報処理方法およびコンテンツ情報処理装置 図8
  • 特開-コンテンツ情報処理方法およびコンテンツ情報処理装置 図9
  • 特開-コンテンツ情報処理方法およびコンテンツ情報処理装置 図10
  • 特開-コンテンツ情報処理方法およびコンテンツ情報処理装置 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024176165
(43)【公開日】2024-12-19
(54)【発明の名称】コンテンツ情報処理方法およびコンテンツ情報処理装置
(51)【国際特許分類】
   G10K 15/00 20060101AFI20241212BHJP
   H04S 7/00 20060101ALI20241212BHJP
【FI】
G10K15/00 M
H04S7/00 350
【審査請求】未請求
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2023094491
(22)【出願日】2023-06-08
(71)【出願人】
【識別番号】000004075
【氏名又は名称】ヤマハ株式会社
(74)【代理人】
【識別番号】110000970
【氏名又は名称】弁理士法人 楓国際特許事務所
(72)【発明者】
【氏名】甲斐 繁
(72)【発明者】
【氏名】中村 吉就
(72)【発明者】
【氏名】大谷 明央
(72)【発明者】
【氏名】井芹 大智
(72)【発明者】
【氏名】藤島 琢哉
(72)【発明者】
【氏名】松田 遼
(72)【発明者】
【氏名】山川 颯人
(72)【発明者】
【氏名】須山 明彦
(72)【発明者】
【氏名】密岡 稜大
(72)【発明者】
【氏名】原 貴洋
(72)【発明者】
【氏名】鈴木 裕和
(72)【発明者】
【氏名】鈴木 俊太朗
【テーマコード(参考)】
5D162
【Fターム(参考)】
5D162AA05
5D162CC22
5D162DA02
5D162DA06
5D162EG07
(57)【要約】
【課題】遠隔地の会場でパフォーマンスを行っている様に知覚することができるコンテンツ情報処理方法を提供する。
【解決手段】コンテンツ情報処理方法は、第1会場の第1演者のライブパフォーマンスに係る第1パフォーマンス情報を取得し、前記第1会場とネットワークで接続される第2会場の映像または音に係る第1コンテンツ情報を取得し、前記第1パフォーマンス情報および前記第1コンテンツ情報に基づいて第2コンテンツ情報を生成し、前記第2コンテンツ情報に基づく映像または音を生成する。
【選択図】図4
【特許請求の範囲】
【請求項1】
第1会場の第1演者のライブパフォーマンスに係る第1パフォーマンス情報を取得し、
前記第1会場とネットワークで接続される第2会場の映像または音に係る第1コンテンツ情報を取得し、
前記第1パフォーマンス情報および前記第1コンテンツ情報に基づいて第2コンテンツ情報を生成し、
前記第2コンテンツ情報に基づく映像または音を生成する、
コンテンツ情報処理方法。
【請求項2】
前記第2会場の第2演者のライブパフォーマンス係る第2パフォーマンス情報を取得し、
前記第1パフォーマンス情報、前記第1コンテンツ情報、および前記第2パフォーマンス情報に基づいて前記第2コンテンツ情報を生成する、
請求項1に記載のコンテンツ情報処理方法。
【請求項3】
第3会場の第3演者のライブパフォーマンスに係る第3パフォーマンス情報を取得し、
前記第1パフォーマンス情報、前記第1コンテンツ情報、および前記第3パフォーマンス情報に基づいて前記第2コンテンツ情報を生成する、
請求項1に記載のコンテンツ情報処理方法。
【請求項4】
さらに、前記第2会場の再生環境に関する情報を取得し、
前記再生環境に関する情報に基づいて、生成した前記音に信号処理を施す、
請求項1に記載のコンテンツ情報処理方法。
【請求項5】
前記第1パフォーマンス情報は、前記第1演者の演奏する第1楽器の演奏音を含み、
前記第2コンテンツ情報は、前記第1楽器の演奏音を含み、
前記再生環境に関する情報に基づいて、前記第1楽器の演奏音に前記信号処理を施す、
請求項4に記載のコンテンツ情報処理方法。
【請求項6】
前記第2コンテンツ情報は、前記第1会場の音および前記第2会場の音を混合した混合音を含む、
請求項1に記載のコンテンツ情報処理方法。
【請求項7】
前記第1コンテンツ情報は、前記第2会場における音波の遅延に関する情報を含み、
前記第2コンテンツ情報を生成する処理は、前記第2会場における音波の遅延を再生する処理を含む、
請求項1乃至請求項6のいずれか1項に記載のコンテンツ情報処理方法。
【請求項8】
前記第1コンテンツ情報は、さらに前記第2会場の形状に係る情報を含み、
前記第2会場の形状に係る情報に基づいて、前記第2会場における音波の遅延に関する情報を生成し、
前記第2コンテンツ情報を生成する処理は、前記第2会場における音波の遅延を再生する処理を含む、
請求項1乃至請求項6のいずれか1項に記載のコンテンツ情報処理方法。
【請求項9】
前記第1コンテンツ情報は、前記第2会場における音波の遅延に関する情報を含み、
利用者から前記遅延に関する調整操作を受け付け、
前記第2コンテンツ情報を生成する処理は、前記調整操作により調整された遅延を再生する処理を含む、
請求項1乃至請求項6のいずれか1項に記載のコンテンツ情報処理方法。
【請求項10】
前記第2コンテンツ情報に基づく映像または音は、過去の映像または音を含む、
請求項1乃至請求項6のいずれか1項に記載のコンテンツ情報処理方法。
【請求項11】
前記第2コンテンツ情報を、第4会場に配信する、
請求項1乃至請求項6のいずれか1項に記載のコンテンツ情報処理方法。
【請求項12】
前記第4会場のリスナに対して課金処理を行い、
前記課金処理済のリスナに前記第2コンテンツ情報を配信する、
請求項11に記載のコンテンツ情報処理方法。
【請求項13】
前記第4会場の前記リスナの位置情報を取得し、
前記位置情報に応じて前記課金処理を変更する、
請求項12に記載のコンテンツ情報処理方法。
【請求項14】
第1会場の第1演者のライブパフォーマンスに係る第1パフォーマンス情報を取得し、
前記第1会場とネットワークで接続される第2会場の映像または音に係る第1コンテンツ情報を取得し、
前記第1パフォーマンス情報および前記第1コンテンツ情報に基づいて第2コンテンツ情報を生成し、
前記第2コンテンツ情報に基づく映像または音を生成する、
プロセッサを備えたコンテンツ情報処理装置。
【請求項15】
前記プロセッサは、
前記第2会場の第2演者のライブパフォーマンス係る第2パフォーマンス情報を取得し、
前記第1パフォーマンス情報、前記第1コンテンツ情報、および前記第2パフォーマンス情報に基づいて前記第2コンテンツ情報を生成する、
請求項14に記載のコンテンツ情報処理装置。
【請求項16】
前記プロセッサは、
第3会場の第3演者のライブパフォーマンスに係る第3パフォーマンス情報を取得し、
前記第1パフォーマンス情報、前記第1コンテンツ情報、および前記第3パフォーマンス情報に基づいて前記第2コンテンツ情報を生成する、
請求項14に記載のコンテンツ情報処理装置。
【請求項17】
前記第1コンテンツ情報は、前記第2会場における音波の遅延に関する情報を含み、
前記第2コンテンツ情報を生成する処理は、前記第2会場における音波の遅延を再生する処理を含む、
請求項14乃至請求項16のいずれか1項に記載のコンテンツ情報処理装置。
【請求項18】
前記第1コンテンツ情報は、さらに前記第2会場の形状に係る情報を含み、
前記プロセッサは、前記第2会場の形状に係る情報に基づいて、前記第2会場における音波の遅延に関する情報を生成し、
前記第2コンテンツ情報を生成する処理は、前記第2会場における音波の遅延を再生する処理を含む、
請求項14乃至請求項16のいずれか1項に記載のコンテンツ情報処理装置。
【請求項19】
前記第1コンテンツ情報は、前記第2会場の過去の映像または音に関する情報を含む、
請求項14乃至請求項16のいずれか1項に記載のコンテンツ情報処理装置。
【請求項20】
前記プロセッサは、前記第2コンテンツ情報を、第4会場に配信する、
請求項14乃至請求項16のいずれか1項に記載のコンテンツ情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
この発明の一実施形態は、コンテンツ情報処理方法およびコンテンツ情報処理装置に関する。
【背景技術】
【0002】
特許文献1には、仮想聴取点と各収音点との距離に基づいて、各収音点に対応するチャンネルの収音信号に対して遅延及び/又は音圧の補正を行い、全チャンネルの収音信号を加算することにより、仮想聴取点に対応する合成音信号を生成する信号生成装置が開示されている。
【0003】
特許文献2には、第1会場の第1の場所で発生する第1音源の音および該第1音源の位置情報に係る第1音源情報、および前記第1会場の第2の場所で発生する第2音源に係る第2音源情報、を配信データとして配信し、前記配信データをレンダリングして、前記第1音源の位置情報に基づく定位処理を施した前記第1音源の音と、前記第2音源の音と、を第2会場に提供するライブデータ配信方法が開示されている。
【0004】
それぞれのオーディオオブジェクトの音声データと、複数の想定聴取位置のそれぞれに対する、前記音声データのレンダリングパラメータとを含むコンテンツを取得する取得部と、選択された所定の前記想定聴取位置に対する前記レンダリングパラメータに基づいて前記音声データのレンダリングを行い、音声信号を出力するレンダリング部とを備える再生装置。第1パフォーマンスにおける、演者の身体の動きを検出し、演者に関連付けられるアバターオブジェクトを仮想空間に配置し、検出した演者の身体の動きに応じて、アバターオブジェクトに、第2パフォーマンスを実行させることが記載されている。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2018-191127
【特許文献2】国際公開第2022/113394
【特許文献3】国際公開第2018/96954
【発明の概要】
【発明が解決しようとする課題】
【0006】
本開示のひとつの態様は、遠隔地の会場でパフォーマンスを行っている様に知覚することができるコンテンツ情報処理方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の一実施形態に係るコンテンツ情報処理方法は、第1会場の第1演者のライブパフォーマンスに係る第1パフォーマンス情報を取得し、前記第1会場とネットワークで接続される第2会場の映像または音に係る第1コンテンツ情報を取得し、前記第1パフォーマンス情報および前記第1コンテンツ情報に基づいて第2コンテンツ情報を生成し、前記第2コンテンツ情報に基づく映像または音を生成する。
【発明の効果】
【0008】
本発明の一実施形態によれば、遠隔地の会場でパフォーマンスを行っている様に知覚することができる。
【図面の簡単な説明】
【0009】
図1】コンテンツ情報処理システムの構成を示すブロック図である。
図2】PC1Aの構成を示すブロック図である。
図3】PC1Bの構成を示すブロック図である。
図4】PC1Aの動作を示すフローチャートである。
図5】変形例1に係るコンテンツ情報処理システムの構成図である。
図6】変形例1に係るPC1Bの構成を示すブロック図である。
図7】変形例1に係るPC1Aの動作を示すフローチャートである。
図8】変形例2に係るコンテンツ情報処理システムの構成図である。
図9】変形例2に係るPC1Aの動作を示すフローチャートである。
図10】変形例7に係るコンテンツ情報処理システムの構成図である。
図11】変形例7に係るPC1Bの構成を示すブロック図である。
【発明を実施するための形態】
【0010】
図1は、本実施形態に係るコンテンツ情報処理システムの構成図である。コンテンツ情報処理システムは、第1会場10に設置されたPC(パーソナルコンピュータ)1A、および第2会場20に設置されたPC1Bを備える。
【0011】
第1会場10の第1演者3は、PC1Aに第1楽器4を接続する。また、第1会場10の第1演者3は、PC1Aにヘッドマウントディスプレイ(HMD)51およびヘッドフォン81を接続する。第1会場10は、例えば第1演者3の自宅である。第1会場10の第1演者3は、第1楽器4を演奏するパフォーマンスを行う。
【0012】
第2会場20は、ライブハウスやコンサートホール等である。第2会場20のPC1Bは、カメラ50、マイク8、およびスピーカ82を接続する。カメラ50およびマイク8は、ステージ上に設置される。カメラ50は、ステージ上から見た映像に係る映像信号を取得する。マイク8は、ステージ上で聞こえる音に係る音信号を取得する。
【0013】
本実施形態では一例として、第1楽器4およびマイク8は音響機器の一例である。なお、本実施形態において、「演奏」とは楽器の演奏に限るものではなく、マイクを用いた歌唱も含む。
【0014】
図2は、PC1Aの構成を示すブロック図である。図3は、PC1Bの構成を示すブロック図である。PC1AおよびPC1Bは、汎用の情報処理装置である。PC1AおよびPC1Bの主要構成は同じである。
【0015】
PC1AおよびPC1Bは、表示器インタフェース(I/F)31、ユーザI/F32、フラッシュメモリ33、プロセッサ34、RAM35、通信I/F36、およびオーディオI/F37を備えている。
【0016】
表示器I/F31は、表示器に接続される。PC1Aの表示器I/F31は、表示器の一例であるヘッドマウントディスプレイ(HMD)51に接続される。PC1Bの表示器I/F31は、図3では何も接続されていないが、LCD等の汎用の表示器が接続されてもよい。なお、本実施形態では、PC1AにHMD51が接続される例を示しているが、PC1AにはLCD等の表示器が接続されてもよい。
【0017】
ユーザI/F32は、キーボード、マウス、あるいは表示器に積層されるタッチパネルである。ユーザI/F32がタッチパネルである場合、該ユーザI/F32は、表示器とともに、GUI(Graphical User Interface)を構成する。
【0018】
通信I/F36は、ネットワークインタフェースを含み、ルータ(不図示)を介してインターネット等のネットワークに接続される。図1の例では、PC1AおよびPC1Bは、ネットワークを介して接続される。すなわち、第1会場および第2会場は、ネットワークを介して接続される。
【0019】
オーディオI/F37は、オーディオ端子を有する。オーディオI/F37は、オーディオケーブルを介して楽器またはマイク等の音響機器に接続され、音信号を受け付ける。本実施形態では、PC1AのオーディオI/F37は、第1楽器4に接続され、第1楽器4から演奏音に係る音信号を受け付ける。PC1BのオーディオI/F37は、マイク8に接続される。PC1BのオーディオI/F37は、マイク8で収音した第2会場20の音に係る音信号を受け付ける。
【0020】
また、オーディオI/F37は、スピーカまたはヘッドフォン等の音響機器に接続される。PC1AのオーディオI/F37にはヘッドフォン81が接続されている。PC1BのオーディオI/F37にはスピーカ82が接続されている。オーディオI/F37は、ヘッドフォン81またはスピーカ82等の音響機器に音信号を出力する。
【0021】
プロセッサ34は、CPU,DSP、あるいはSoC(System-on-a-Chip)等からなり、記憶媒体であるフラッシュメモリ33に記憶されているプログラムをRAM35に読み出して、PC1AおよびPC1Bの各構成を制御する。フラッシュメモリ33は、本実施形態のプログラムを記憶している。
【0022】
プロセッサ34は、オーディオI/F37から受け付けた音信号を、オーディオパケットにエンコードして通信I/F36を介して他装置に送信する。
【0023】
また、PC1Bの通信I//F36は、カメラ50から受け付けた映像信号を受け付ける。PC1Bのプロセッサ34は、カメラ50から受け付けた映像信号を映像パケットにエンコードして通信I/F36を介して他装置に送信する。
【0024】
また、プロセッサ34は、通信I/F36を介して他装置から受信したオーディオパケットをデコードし、デコードした音信号をオーディオI/F37に出力する。また、プロセッサ34は、通信I/F36を介して他装置から受信した映像パケットをデコードし、デコードした映像信号を表示器I/F31を介して表示器に出力する。
【0025】
図4は、PC1Aの動作を示すフローチャートである。PC1Aは、第1会場10の第1演者3のライブパフォーマンスに係る第1パフォーマンス情報を取得する(S11)。
【0026】
第1演者3のライブパフォーマンスに係る第1パフォーマンス情報は、例えば第1楽器4の演奏に係る音信号を含む。あるいは、第1パフォーマンス情報は、第1演者3の第1楽器4に対する操作情報でもよい。操作情報とは、例えばギターであれば、どのフレットを押下しているか示す情報、該フレットを押下したタイミング、離したタイミング、どの弦をピッキングしたかを示す情報、ピッキングのタイミング、ピッキングの速さ、あるいはミュート操作の有無、等である。また、操作情報とは、例えばシンセサイザー等の鍵盤楽器では、音高(ノートナンバー)、音色、アタック、ディケイ、サスティン、リリース等の時間パラメータ等である。操作情報は、例えばモーションセンサに基づいて取得される。あるいは操作情報は、楽器に搭載されたセンサにより取得することも可能である。楽器に搭載されたセンサとは、例えばギターの場合には、フレット毎に取り付けられたフレットセンサである。
【0027】
次に、PC1Aは、第2会場20の映像または音に係る第1コンテンツ情報を取得する(S12)。図1の例では、PC1Aは、ネットワークを介して、マイク8の音信号と、カメラ50で撮影した第2会場20に係る映像信号と、を第1コンテンツ情報として取得する。
【0028】
PC1Aは、第1パフォーマンス情報および第1コンテンツ情報に基づいて第2コンテンツ情報を生成する(S13)。具体的には、PC1Aは、第1コンテンツ情報に含まれるマイク8の音信号と、第1パフォーマンス情報に含まれる第1楽器4の音信号と、を混合した混合音信号を生成する。PC1Aは、混合音信号および第2会場20に係る映像信号を含むエンコードデータ(例えばMP4データ)を生成する。
【0029】
そして、PC1Aは、第2コンテンツ情報に基づく映像または音を生成する(S14)。具体的には、PC1Aは、上記エンコードデータをデコードし、音信号および映像信号を取り出す。そして、PC1Aは、取り出した音信号をヘッドフォン81に出力し、第2会場20に係る映像をHMD51に出力する。なお、S13の処理において、PC1Aは、エンコードデータを生成することは必須ではない。例えば、PC1Aは、S14において、エンコード前の混合音信号をヘッドフォン81に出力し、エンコード前の映像信号をHMD51に出力してもよい。
【0030】
これにより、第1演者3は、遠隔地でありながらあたかも第2会場20にいてパフォーマンスを行っているように知覚することができる。つまり、利用者は、例えばあこがれのライブハウスやコンサートホールでライブパフォーマンスをしているように知覚することができるという新たな顧客体験を得ることができる。
【0031】
なお、第1コンテンツ情報が含む第2会場20の映像は、実在の第2会場20を模した仮想空間の映像(デジタルツイン)であってもよい。この場合、第1コンテンツ情報は、3DCADデータ等の第2会場20の形状に係る情報を含んでいてもよい。PC1Aは、第1コンテンツ情報に含まれる第2会場20の形状に係る情報に基づいて、第2会場20を模した仮想空間の映像をレンダリングしてもよい。この場合も、利用者は、例えばあこがれのライブハウスやコンサートホールでライブパフォーマンスをしているように知覚することができるという新たな顧客体験を得ることができる。
【0032】
また、カメラ50は、ある一方向を撮影する視野角を有していてもよいし、360度周囲を撮影する全周視野角を有していてもよい。また、カメラ50は、視野角を変更する機構を有していてもよい。HMD51は、利用者の頭部の向いている方向を検出するセンサを備えていてもよい。PC1Aは、利用者の頭部の向いている方向に応じて、現実のカメラ50の視野角を変更する、あるいは仮想空間内の視野角を変更してもよい。これにより、利用者は、あこがれのライブハウスやコンサートホールでライブパフォーマンスをしているようにさらに知覚し易くなる。
【0033】
(変形例1)
図5は、変形例1に係るコンテンツ情報処理システムの構成図である。図1と共通する構成は同一の符号を付し、説明を省略する。図6は、変形例1に係るPC1Bの構成を示すブロック図である。図3と共通する構成は同一の符号を付し、説明を省略する。図7は、変形例1に係るPC1Aの動作を示すフローチャートである。図4と共通する構成は同一の符号を付し、説明を省略する。
【0034】
変形例1では、第2会場20において、第2演者5がステージ上で第2楽器6を演奏するパフォーマンスを行う。第2会場20のPC1Bは、第2楽器6、カメラ50、マイク8、およびスピーカ82を接続する。
【0035】
PC1BのオーディオI/F37は、第2楽器6およびスピーカ82に接続される。PC1BのオーディオI/F37は、第2楽器6から演奏音に係る音信号を受け付ける。
【0036】
PC1Aは、さらに、第2会場20の第2演者のライブパフォーマンス係る第2パフォーマンス情報を取得する(S111)。第2パフォーマンス情報は、第2会場20にいる第2演者5による第2楽器6の演奏音に係る音信号である。PC1Bのプロセッサ34は、第2楽器6の音信号をPC1Aに送信する。なお、第2パフォーマンス情報は、第2演者5の演奏音に係る音信号に代えて、第2楽器6に対する操作情報を含んでいてもよい。
【0037】
PC1Aは、S13の処理において、第1パフォーマンス情報、第1コンテンツ情報、および第2パフォーマンス情報に基づいて第2コンテンツ情報を生成する。具体的には、PC1Aは、第1コンテンツ情報に含まれるマイク8の音信号、第1パフォーマンス情報に含まれる第1楽器4の音信号、および第2コンテンツ情報に含まれる第2楽器6の音信号を混合した混合音信号を生成する。PC1Aは、混合音信号および第2会場20に係る映像信号を含むエンコードデータ(例えばMP4データ)を生成する。
【0038】
これにより、第1演者3は、遠隔地でありながらあたかも第2会場20にいて第2会場20の第2演者5とセッションを行っているように知覚することができる。利用者は、例えばあこがれのライブハウスやコンサートホールでセッションをしているように知覚することができるという新たな顧客体験を得ることができる。
【0039】
なお、上述した様に、第1コンテンツ情報が含む第2会場20の映像は、第2会場20を模した仮想空間の映像であってもよい。この場合、第2会場20の映像の中に含まれる第2演者5に対応する映像は、仮想空間内に配置される3Dモデルあってもよい。この場合、仮想空間および演者の3Dモデルは、実在の第2会場20および第2演者5を模したデジタルツインとなる。
【0040】
(変形例2)
図8は、変形例2に係るコンテンツ情報処理システムの構成図である。図1と共通する構成は同一の符号を付し、説明を省略する。図9は、変形例2に係るPC1Aの動作を示すフローチャートである。図4と共通する構成は同一の符号を付し、説明を省略する。
【0041】
変形例2では、第3会場30にPC1Cが設置されている。PC1Cの構成は、PC1Aと同じである。変形例2では、第1会場10、第2会場20、および第3会場30がネットワークを介して接続される。
【0042】
変形例2では、第3会場30において、第3演者7がマイク80を用いて歌唱するパフォーマンスを行う。第3会場30のPC1Cは、マイク80、HMD51、およびヘッドフォン81を接続する。
【0043】
PC1Cは、ネットワークを介して、マイク8の音信号と、カメラ50で撮影した第2会場20に係る映像信号と、を第1コンテンツ情報として取得する。PC1CのオーディオI/F37は、マイク80から歌唱音に係る音信号を受け付ける。PC1Cは、歌唱音に係る音信号をPC1Aに送信する。
【0044】
PC1Aは、さらに、第3会場30の第3演者7のライブパフォーマンスに係る第3パフォーマンス情報を取得する(S121)。第3パフォーマンス情報は、第3会場30にいる第3演者7による歌唱音に係る音信号である。
【0045】
PC1Aは、S13の処理において、第1パフォーマンス情報、第1コンテンツ情報、および第3パフォーマンス情報に基づいて第2コンテンツ情報を生成する。具体的には、PC1Aは、第1コンテンツ情報に含まれるマイク8の音信号、第1パフォーマンス情報に含まれる第1楽器4の音信号、および第3コンテンツ情報に含まれるマイク80の音信号を混合した混合音信号を生成する。PC1Aは、混合音信号および第2会場20に係る映像信号を含むエンコードデータ(例えばMP4データ)を生成する。
【0046】
これにより、第1演者3は、遠隔地でありながらあたかも第2会場20にいて第2会場20の第3演者7とセッションを行っているように知覚することができる。利用者は、例えばあこがれのライブハウスやコンサートホールにおいて、遠隔地の他の演者とセッションをしているように知覚することができるという新たな顧客体験を得ることができる。
【0047】
(変形例3)
変形例3に係る第1コンテンツ情報は、第2会場20の遅延に関する情報を含む。PC1Aにおいて第2コンテンツ情報を生成する処理は、第2会場20の遅延を再生する処理を含む。
【0048】
遅延に関する情報とは、第2会場20における空間内の音波の遅延を含む。空間内の音波の遅延とは、スピーカ82の位置と演者の位置(例えばマイク8またはカメラ50)との距離、スピーカ82の位置と第2会場20の壁面の位置との距離、または第2会場20の壁面の位置と演者の位置との距離に対応する。スピーカ82の位置と演者の位置(例えばマイク8またはカメラ50)との距離は、例えば、スピーカ82からテスト音を出力し、マイク8で当該テスト音を取得することにより測定できる。スピーカ82の位置と第2会場20の壁面の位置との距離は、スピーカ82からテスト音を出力し、測定用のマイク(不図示)で当該テスト音を取得することにより測定できる。第2会場20の壁面の位置との演者の位置との距離は、第2会場20の壁面の位置にテスト用のスピーカを設置し、当該スピーカからテスト音を出力し、マイク8で当該テスト音を取得することにより測定できる。また、これらの距離は、スピーカ82からテスト音を出力し、マイク8でインパルス応答を取得することにより測定してもよい。
【0049】
PC1Aは、第1コンテンツ情報として、当該遅延に関する情報を取得する。そして、PC1Aは、第1パフォーマンス情報に含まれる第1楽器4の音信号に遅延に関する信号処理を施す。例えば、遅延に関する情報が第2会場20で測定された、演者の位置におけるインパルス応答である場合、当該インパルス応答を第1楽器4の音信号に畳み込む処理を行う。これにより、PC1Aは、第2会場20の遅延環境を再現する。
【0050】
したがって、利用者は、あこがれのライブハウスやコンサートホールでライブパフォーマンスをしているようにさらに知覚し易くなる。
【0051】
なお、PC1Aは、利用者から遅延に関する調整操作を受け付けてもよい。PC1Aは、調整操作により調整された遅延を再生する。調整操作とは、例えば任意のライブハウスやコンサートホールを指定する操作であってもよい。PC1Aは、指定されたライブハウスやコンサートホールに対応する、遅延に関する情報を例えばサーバ等から取得する。これにより、利用者は、第2会場20の響きとは異なる場所の響きを再生させることができる。
【0052】
(変形例4)
変形例4に係る第1コンテンツ情報は、さらに第2会場20の形状に係る情報を含む。PC1Aは、第2会場20の形状に係る情報に基づいて、第2会場20の遅延に関する情報を生成する。PC1Aは、生成した当該遅延に関する情報に基づいて、第2会場20の遅延を再生する処理を行う。
【0053】
第2会場20の形状に係る情報とは、例えば第2会場20の3DCADデータである。PC1Aは、第1コンテンツ情報に含まれる第2会場20の形状に係る情報に基づいて、第2会場20のインパルス応答を計算する。この時、PC1Aは、第2会場20内の任意の位置に演者の位置を指定し、当該位置におけるインパルス応答を計算してもよいし、利用者から演者の位置の指定を受け付けて、当該位置におけるインパルス応答を計算してもよい。
【0054】
PC1Aは、当該インパルス応答を第1楽器4の音信号に畳み込む処理を行う。これにより、PC1Aは、第2会場20の遅延環境を再現する。
【0055】
この場合も、利用者は、あこがれのライブハウスやコンサートホールでライブパフォーマンスをしているようにさらに知覚し易くなる。
【0056】
(変形例5)
第1コンテンツ情報は、過去の映像または音に関する情報を含んでいてもよい。過去の映像は、第2会場20の過去の映像でもよいし、第1会場10の過去の映像でもよい。第2会場20の過去の映像である場合、PC1Bは、カメラ50で撮影した映像、またはマイク8で録音した音を自装置のフラッシュメモリ33または不図示のサーバに記録する。PC1Aは、PC1Bまたは不図示のサーバから第2会場20の過去の映像または音に関する情報を受信する。第1会場10の過去の映像でる場合、PC1Aは、第1会場10に設置された不図示のカメラで撮影した映像、またはマイクで録音した音を自装置のフラッシュメモリ33または不図示のサーバに記録する。PC1Aは、時装置のフラッシュメモリ33または不図示のサーバから第1会場10の過去の映像または音に関する情報を受信する。
【0057】
これにより、利用者は、例えば現存しない、あこがれのライブハウスやコンサートホールでライブパフォーマンスをしているように知覚することができるという新たな顧客体験を得ることができる。
【0058】
(変形例6)
第2コンテンツ情報は、さらに他の会場(第4会場)に配信してもよい。PC1Aは、図4のS13で生成した第2コンテンツ情報(MP4等のエンコードデータ)を第4会場の情報処理装置に配信する。または、PC1Aは、図4のS13で生成した第2コンテンツ情報(MP4等のエンコードデータ)を不図示のサーバに送信し、該サーバが第4会場の情報処理装置に配信してもよい。
【0059】
さらに、PC1Aまたはサーバは、第4会場の情報処理装置を介して、リスナに課金処理を行ってもよい。PC1Aまたはサーバは、課金処理済のリスナに対して第2コンテンツ情報を配信する。これにより、第1演者3は、選択した任意の会場においてパフォーマンスを行っているコンテンツとして販売することができる。
【0060】
また、PC1Aまたはサーバは、第4会場の情報処理装置を介して、リスナの位置情報を取得してもよい。PC1Aまたはサーバは、取得した位置情報に応じて課金処理を変更してもよい。位置情報は、例えば情報処理装置のGPS機能により取得される。あるいは、位置情報は、特定の場所に対応付けられたID等の識別情報であってもよい。識別情報は、複数の場所のそれぞれに例えば2次元コードとして展示あるいはチケット等に記載されている。識別情報は、情報処理装置のカメラ等により読み込まれて、PC1Aまたはサーバに送信される。これにより、課金される額は、第2コンテンツ情報を視聴する場所に応じて変化する。したがって、例えば、第4会場が自宅である場合と、第4会場がパブリックビューイング等の多数リスナが集まる場所と、で課金額を変更することができる。第1演者3あるいはイベントの実行者は、例えばより大規模なイベントとして第2コンテンツ情報を配信する場合にはより高額な課金を実行することができる。あるいは第1演者3が個人で小規模なイベントとして第2コンテンツ情報を配信する場合には低額な課金としてより多数のリスナに視聴してもらうこともできる。
【0061】
(変形例7)
図10は、変形例7に係るコンテンツ情報処理システムの構成図である。図5と共通する構成は同一の符号を付し、説明を省略する。図11は、変形例7に係るPC1Bの構成を示すブロック図である。図6と共通する構成は同一の符号を付し、説明を省略する。
【0062】
変形例7に係るコンテンツ情報処理システムの第2会場20は、プロジェクタ71が設置されている。プロジェクタ71は、PC1Bに接続される。
【0063】
PC1Bは、PC1Aから第1演者3に係る映像情報を受信する。第1演者3に係る映像情報は、第1演者3を不図示のカメラで撮影した映像信号である。この場合、PC1Bは、受信した第1演者3に係る映像情報に基づいて、プロジェクタ71に第1演者3の映像を表示する。あるいは、第1演者3に係る映像情報は、第1演者3の動作をキャプチャしたモーションデータであってもよい。モーションデータである場合、PC1Bは、さらに第1演者3に対応する3Dモデルデータを取得してレンダリングしてプロジェクタ71に表示し、当該モーションデータを用いて3Dモデルデータの動作を制御する。
【0064】
これにより、第2会場20に居るリスナは、第1演者3が第2会場20に居てパフォーマンスを行っているように知覚することができる。すなわち、第1演者3(利用者)は、遠隔地にいながら、第2会場20のリスナに対して、第1演者3が第2会場20に居てパフォーマンスを行っているように知覚させることができるという新たな顧客体験を得ることができる。
【0065】
(変形例8)
変形例8に係るコンテンツ情報処理システムのPC1Aは、第2会場20の再生環境に関する情報をさらに取得してもよい。再生環境に関する情報は、例えば第2会場20のマイク8を含む音響機器(エフェクタ、アンプ、スピーカ等)に関する情報、および再生空間の響きに関する情報を含む。マイク8で取得する音は、第2会場20の音響機器および再生空間の響きによっても変化する。例えば、音の響きは、試奏室等のスタジオ環境、コンサートホール、屋外、等によって異なる。PC1Aは、当該再生環境に関する情報に基づいて、生成した第2コンテンツ情報の音に信号処理を施す。例えば、PC1Aは、生成した音の音信号に対して、再生環境のインパルス応答データを畳み込む信号処理を行ってもよい。また、PC1Aは、生成した音の音信号に対して、第2会場20に設置されている音響機器(エフェクタ、アンプ、スピーカ等)をシミュレートするフィルタ処理を施してもよい。具体的には、再生環境に関する情報は、第2会場20に設置されている各音響機器の入力に対する出力の特性をデジタルフィルタとしてシミュレートしたデジタル信号処理ブロックのパラメータを含む。PC1Aは、生成した音の音信号に対して、音響機器に関する情報で示されたパラメータの信号処理を施す。これにより、PC1Aは、生成した音に対して、第2会場20に設置されている音響機器(エフェクタ、アンプ、スピーカ等)の入出力特性を再現することができる。
【0066】
この場合、PC1Aは、第1会場10の第1演者3が演奏する第1楽器4の演奏音に対して、第2会場20に設置されている音響機器(エフェクタ、アンプ、スピーカ等)の入出力特性を再現する。したがって、利用者は、あこがれのライブハウスやコンサートホールでライブパフォーマンスをしているようにさらに知覚し易くなる。
【0067】
(その他の例)
上述の例では、本発明のコンテンツ情報処理装置の例として、PC1A、PC1BおよびPC1Cを示した。しかし、本発明のコンテンツ情報処理装置は、上述のPC1A、PC1BおよびPC1Cに限らない。例えば、上述のユーザI/F32、フラッシュメモリ33、プロセッサ34、RAM35、通信I/F36、およびオーディオI/F37等の機能を備えた電子楽器も本発明の端末を構成することができる。
【0068】
本実施形態の説明は、すべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲は、特許請求の範囲と均等の範囲を含む。
【符号の説明】
【0069】
3 :第1演者
4 :楽器
5 :第2演者
6 :楽器
7 :第3演者
8 :マイク
10 :第1会場
20 :第2会場
30 :第3会場
31 :表示器I/F
32 :ユーザI/F
33 :フラッシュメモリ
34 :プロセッサ
35 :RAM
36 :通信I/F
37 :オーディオI/F
50 :カメラ
51 :HMD
71 :プロジェクタ
80 :マイク
81 :ヘッドフォン
82 :スピーカ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11