IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ヤマハ株式会社の特許一覧

特許7613479ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法
<>
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図1
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図2
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図3
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図4
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図5
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図6
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図7
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図8
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図9
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図10
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図11
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図12
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図13
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図14
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図15
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図16
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図17
  • 特許-ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法 図18
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-01-06
(45)【発行日】2025-01-15
(54)【発明の名称】ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法
(51)【国際特許分類】
   G10K 15/02 20060101AFI20250107BHJP
   G10K 15/08 20060101ALI20250107BHJP
   H04R 3/00 20060101ALI20250107BHJP
   H04S 7/00 20060101ALI20250107BHJP
【FI】
G10K15/02
G10K15/08
H04R3/00 310
H04S7/00 300
【請求項の数】 30
(21)【出願番号】P 2022565035
(86)(22)【出願日】2021-03-19
(86)【国際出願番号】 JP2021011374
(87)【国際公開番号】W WO2022113393
(87)【国際公開日】2022-06-02
【審査請求日】2023-05-26
(31)【優先権主張番号】PCT/JP2020/044293
(32)【優先日】2020-11-27
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000004075
【氏名又は名称】ヤマハ株式会社
(74)【代理人】
【識別番号】110000970
【氏名又は名称】弁理士法人 楓国際特許事務所
(72)【発明者】
【氏名】白木原 太
(72)【発明者】
【氏名】森川 直
(72)【発明者】
【氏名】納戸 健太郎
(72)【発明者】
【氏名】石川 克己
(72)【発明者】
【氏名】奥村 啓
【審査官】堀 洋介
(56)【参考文献】
【文献】国際公開第2018/096954(WO,A1)
【文献】特開2007-041164(JP,A)
【文献】特開2020-053791(JP,A)
【文献】特開2019-192975(JP,A)
【文献】特開2003-330477(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G10K 15/00-15/12
H04R 3/00- 3/14
H04S 1/00- 7/00
(57)【特許請求の範囲】
【請求項1】
第1会場で発生する音に係る音源情報、および前記音の位置に応じて変化する初期反射音に関する情報である空間の響き情報、を配信データとして配信し、
前記配信データをレンダリングして、前記音源情報に係る音、および前記空間の響きに係る音を第2会場に提供する、
ライブデータ配信方法であって、
前記空間の響き情報は、間接音を生成するための情報を含み、
前記レンダリングは、前記音源の音の間接音を生成する処理を含み、
前記間接音を生成する処理は初期反射音を生成する処理を含み、
生成する前記初期反射音は、前記音の位置に応じて変化し、
前記空間の響き情報は、該空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報を含み、
前記レンダリングにおいて、前記空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報に基づいて該空間の響きに係る音の遅延量およびレベルを求めることで前記初期反射音を生成する、
ライブデータ配信方法。
【請求項2】
前記音源情報は、前記第1会場で発生する音の音信号および前記音の位置情報を含み、
前記レンダリングは、前記音の位置に応じた定位処理を含む、
請求項1に記載のライブデータ配信方法。
【請求項3】
前記空間の響き情報は、前記音の位置に応じて変化するインパルス応答を含む、
請求項1または請求項2に記載のライブデータ配信方法。
【請求項4】
前記空間の響き情報は、前記音の位置に応じて変化しない後部残響音に関する情報をさらに含み、
前記間接音を生成する処理は、前記後部残響音を生成する処理をさらに含む、
請求項1乃至請求項のいずれか1項に記載のライブデータ配信方法。
【請求項5】
環境音に係るアンビエンス情報を前記配信データに含めて配信し、
前記レンダリングは、前記環境音をさらに提供する処理を含む
請求項1乃至請求項のいずれか1項に記載のライブデータ配信方法。
【請求項6】
前記アンビエンス情報は、前記環境音の位置情報を含み、
前記レンダリングにおいて、前記アンビエンス情報に基づいて前記環境音を前記位置情報の位置に定位させる定位処理と、前記定位処理ではない空間的な拡がりを知覚させるエフェクト処理と、を行う、
請求項に記載のライブデータ配信方法。
【請求項7】
前記空間の響き情報は、前記第1会場の響き以外の響きを再現するための仮想空間情報を含み、
前記レンダリングは、前記仮想空間情報に基づいて前記空間の響きに係る音を再生する、
請求項1乃至請求項のいずれか1項に記載のライブデータ配信方法。
【請求項8】
前記第2会場の利用者から空間を指定する操作を受け付け、
前記レンダリングは、前記操作で受け付けた空間に対応する前記仮想空間情報に基づいて、前記空間の響きに係る音を再生する、
請求項に記載のライブデータ配信方法。
【請求項9】
前記第2会場にライブ映像を提供し、
前記仮想空間情報は、前記ライブ映像の空間の響きに対応する、
請求項または請求項に記載のライブデータ配信方法。
【請求項10】
前記配信データをレンダリングして、前記音源情報に係る音、および前記空間の響きに係る音を第3会場に提供し、
前記空間の響きに係る音は、前記第2会場および前記第3会場で共通する、
請求項1乃至請求項のいずれか1項に記載のライブデータ配信方法。
【請求項11】
前記音源情報は、音響機器の音響特性を表現した第1デジタル信号処理モデルを含み、
前記第1デジタル信号処理モデルを用いて前記音源情報に係る音を前記第2会場に提供する、
請求項1乃至請求項10のいずれか1項に記載のライブデータ配信方法。
【請求項12】
前記空間の響き情報は、部屋の音響特性を表現した第2デジタル信号処理モデルを含み、
前記第2デジタル信号処理モデルを用いて前記空間の響きに係る音を前記第2会場に提供する、
請求項1乃至請求項11のいずれか1項に記載のライブデータ配信方法。
【請求項13】
前記第1会場内に設置された構造物の位置を示す位置情報を配信し、
前記音源情報は、前記第1会場で発生する音の音信号および前記音の位置情報を含み、
前記レンダリングは、前記構造物の位置を示す位置情報と、前記音の位置情報と、に基づいて行う信号処理を含む、
請求項1乃至請求項12のいずれか1項に記載のライブデータ配信方法。
【請求項14】
第1会場で発生する音に係る音源情報、および空間の響き情報、を配信データとして配信するライブデータ配信装置と、
前記配信データをレンダリングして、前記音源情報に係る音、および前記空間の響きに係る音を第2会場に提供するライブデータ再生装置と、
を備えたライブデータ配信システムであって、
前記空間の響き情報は、間接音を生成するための情報を含み、
前記レンダリングは、前記音源の音の間接音を生成する処理を含む、
前記間接音を生成する処理は初期反射音を生成する処理を含み、
生成する前記初期反射音は、前記音の位置に応じて変化し、
前記空間の響き情報は、該空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報を含み、
前記レンダリングにおいて、前記空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報に基づいて該空間の響きに係る音の遅延量およびレベルを求めることで前記初期反射音を生成する、
ライブデータ配信システム。
【請求項15】
前記音源情報は、前記第1会場で発生する音の音信号および前記音の位置情報を含み、
前記レンダリングは、前記音の位置に応じた定位処理を含む、
請求項14に記載のライブデータ配信システム。
【請求項16】
前記空間の響き情報は、前記音の位置に応じて変化するインパルス応答を含む、
請求項14または請求項15に記載のライブデータ配信システム。
【請求項17】
前記空間の響き情報は、前記音の位置に応じて変化しない後部残響音に関する情報をさらに含み、
前記間接音を生成する処理は、前記後部残響音を生成する処理をさらに含む、
請求項14乃至請求項16のいずれか1項に記載のライブデータ配信システム。
【請求項18】
前記ライブデータ配信装置は、環境音に係るアンビエンス情報を前記配信データに含めて配信し、
前記レンダリングは、前記環境音をさらに提供する処理を含む
請求項14乃至請求項17のいずれか1項に記載のライブデータ配信システム。
【請求項19】
前記アンビエンス情報は、前記環境音の位置情報を含み、
前記レンダリングにおいて、前記アンビエンス情報に基づいて前記環境音を前記位置情報の位置に定位させる定位処理と、前記定位処理ではない空間的な拡がりを知覚させるエフェクト処理と、を行う、
請求項18に記載のライブデータ配信システム。
【請求項20】
前記空間の響き情報は、前記第1会場の響き以外の響きを再現するための仮想空間情報を含み、
前記レンダリングは、前記仮想空間情報に基づいて前記空間の響きに係る音を再生する、
請求項14乃至請求項19のいずれか1項に記載のライブデータ配信システム。
【請求項21】
前記ライブデータ再生装置は、前記第2会場の利用者から空間を指定する操作を受け付け、
前記レンダリングは、前記操作で受け付けた空間に応じた前記仮想空間情報に基づいて、前記空間の響きに係る音を再生する、
請求項20に記載のライブデータ配信システム。
【請求項22】
前記ライブデータ再生装置は、前記第2会場にライブ映像を提供し、
前記仮想空間情報は、前記ライブ映像の空間の響きに対応する、
請求項20または請求項21に記載のライブデータ配信システム。
【請求項23】
前記ライブデータ再生装置は、前記配信データをレンダリングして、前記音源情報に係る音、および前記空間の響きに係る音を第3会場に提供し、
前記空間の響きに係る音は、前記第2会場および前記第3会場で共通する、
請求項14乃至請求項22のいずれか1項に記載のライブデータ配信システム。
【請求項24】
前記音源情報は、音響機器の音響特性を表現した第1デジタル信号処理モデルを含み、
前記ライブデータ再生装置は、前記第1デジタル信号処理モデルを用いて前記音源情報に係る音を前記第2会場に提供する、
請求項14乃至請求項23のいずれか1項に記載のライブデータ配信システム。
【請求項25】
前記空間の響き情報は、部屋の音響特性を表現した第2デジタル信号処理モデルを含み、
前記ライブデータ再生装置は、前記第2デジタル信号処理モデルを用いて前記空間の響きに係る音を前記第2会場に提供する、
請求項14乃至請求項24のいずれか1項に記載のライブデータ配信システム。
【請求項26】
前記ライブデータ配信装置は、前記第1会場内に設置された構造物の位置を示す位置情報を配信し、
前記音源情報は、前記第1会場で発生する音の音信号および前記音の位置情報を含み、
前記レンダリングは、前記構造物の位置を示す位置情報と、前記音の位置情報と、に基づいて行う信号処理を含む、
請求項14乃至請求項25のいずれか1項に記載のライブデータ配信システム。
【請求項27】
第1会場で発生する音に係る音源情報、および空間の響き情報、を配信データとして配信し、
再生装置に、前記配信データをレンダリングして、前記音源情報に係る音、および前記空間の響きに係る音を第2会場に提供させる、
ライブデータ配信装置であって、
前記空間の響き情報は、間接音を生成するための情報を含み、
前記レンダリングは、前記音源の音の間接音を生成する処理を含む、
前記間接音を生成する処理は初期反射音を生成する処理を含み、
生成する前記初期反射音は、前記音の位置に応じて変化し、
前記空間の響き情報は、該空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報を含み、
前記レンダリングにおいて、前記空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報に基づいて該空間の響きに係る音の遅延量およびレベルを求めることで前記初期反射音を生成する、
ライブデータ配信装置。
【請求項28】
第1会場で発生する音に係る音源情報、および空間の響き情報、を配信データとして配信するライブデータ配信装置から前記配信データを受信し、
前記配信データをレンダリングして、前記音源情報に係る音、および前記空間の響きに係る音を第2会場に提供する、
ライブデータ再生装置であって、
前記空間の響き情報は、間接音を生成するための情報を含み、
前記レンダリングは、前記音源の音の間接音を生成する処理を含む、
前記間接音を生成する処理は初期反射音を生成する処理を含み、
生成する前記初期反射音は、前記音の位置に応じて変化し、
前記空間の響き情報は、該空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報を含み、
前記レンダリングにおいて、前記空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報に基づいて該空間の響きに係る音の遅延量およびレベルを求めることで前記初期反射音を生成する、
ライブデータ再生装置。
【請求項29】
第1会場で発生する音に係る音源情報、および空間の響き情報、を配信データとして配信し、
再生装置に、前記配信データをレンダリングして、前記音源情報に係る音、および前記空間の響きに係る音を第2会場に提供させる、
ライブデータ配信方法であって、
前記空間の響き情報は、間接音を生成するための情報を含み、
前記レンダリングは、前記音源の音の間接音を生成する処理を含む、
前記間接音を生成する処理は初期反射音を生成する処理を含み、
生成する前記初期反射音は、前記音の位置に応じて変化し、
前記空間の響き情報は、該空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報を含み、
前記レンダリングにおいて、前記空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報に基づいて該空間の響きに係る音の遅延量およびレベルを求めることで前記初期反射音を生成する、
ライブデータ配信方法。
【請求項30】
第1会場で発生する音に係る音源情報、および空間の響き情報、を配信データとして配信するライブデータ配信装置から前記配信データを受信し、
前記配信データをレンダリングして、前記音源情報に係る音、および前記空間の響きに係る音を第2会場に提供する、
ライブデータ再生方法であって、
前記空間の響き情報は、間接音を生成するための情報を含み、
前記レンダリングは、前記音源の音の間接音を生成する処理を含む、
前記間接音を生成する処理は初期反射音を生成する処理を含み、
生成する前記初期反射音は、前記音の位置に応じて変化し、
前記空間の響き情報は、該空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報を含み、
前記レンダリングにおいて、前記空間の大きさ、形状、および壁面の反射時のエネルギー損失に係る情報に基づいて該空間の響きに係る音の遅延量およびレベルを求めることで前記初期反射音を生成する、
ライブデータ再生方法。
【発明の詳細な説明】
【技術分野】
【0001】
この発明の一実施形態は、ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法に関する。
【背景技術】
【0002】
特許文献1には、より没入的な空間的聴取体験を提供するため、聴取環境において空間的オーディオ・コンテンツをレンダリングするシステムが開示されている。
【0003】
特許文献1のシステムは、聴取環境においてスピーカから出力される音のインパルス応答を測定し、測定したインパルス応答に応じたフィルタ処理を行なうことが記載されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特表2015-530043号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
特許文献1のシステムは、ライブデータの配信システムではない。ライブデータを配信する場合に、ライブ会場の臨場感を配信先の会場にも提供することが望まれている。
【0006】
この発明の一実施形態は、ライブデータを配信する場合に、ライブ会場の臨場感を配信先の会場にも提供することができるライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法を提供することを目的とする。
【課題を解決するための手段】
【0007】
ライブデータ配信方法は、第1会場で発生する音に係る音源情報、および前記音の位置に応じて変化する空間の響き情報、を配信データとして配信し、前記配信データをレンダリングして、前記音源情報に係る音、および前記空間の響きに係る音を第2会場に提供する。
【発明の効果】
【0008】
ライブデータ配信方法は、ライブデータを配信する場合に、ライブ会場の臨場感を配信先の会場にも提供することができる。
【図面の簡単な説明】
【0009】
図1】ライブデータ配信システム1の構成を示すブロック図である。
図2】第1会場10の平面模式図である。
図3】第2会場20の平面模式図である。
図4】ミキサ11の構成を示すブロック図である。
図5】配信装置12の構成を示すブロック図である。
図6】配信装置12の動作を示すフローチャートである。
図7】再生装置22の構成を示すブロック図である。
図8】再生装置22の動作を示すフローチャートである。
図9】変形例1に係るライブデータ配信システム1Aの構成を示すブロック図である。
図10】変形例1に係るライブデータ配信システム1Aにおける第2会場20の平面概略図である。
図11】変形例2に係るライブデータ配信システム1Bの構成を示すブロック図である。
図12】AVレシーバ32の構成を示すブロック図である。
図13】変形例3に係るライブデータ配信システム1Cの構成を示すブロック図である。
図14】端末42の構成を示すブロック図である。
図15】変形例4に係るライブデータ配信システム1Dの構成を示すブロック図である。
図16】各会場の再生装置で表示されるライブ映像700の一例を示す図である。
図17】再生装置で行う信号処理の応用例を示すブロック図である。
図18】音源70から壁面を反射して受音点75に到来する音の経路を示す模式図である。
【発明を実施するための形態】
【0010】
図1は、ライブデータ配信システム1の構成を示すブロック図である。ライブデータ配信システム1は、第1会場10および第2会場20にそれぞれ設置された複数の音響機器および情報処理装置からなる。
【0011】
図2は、第1会場10の平面模式図であり、図3は、第2会場20の平面模式図である。この例では、第1会場10は、演者がパフォーマンスを行うライブ会場である。第2会場20は、遠隔地のリスナが演者のパフォーマンスを視聴するパブリックビューイング会場である。
【0012】
第1会場10には、ミキサ11、配信装置12、複数のマイク13A~13F、複数のスピーカ14A~14G、複数のトラッカー15A~15C、およびカメラ16が設置されている。第2会場20には、ミキサ21、再生装置22、表示器23、および複数のスピーカ24A~24Fが設置されている。配信装置12および再生装置22は、インターネット5を介して接続されている。なお、マイクの数、スピーカの数、およびトラッカーの数等は、本実施形態で示す数に限るものではない。また、マイクおよびスピーカの設置態様も、本実施形態で示す例に限らない。
【0013】
ミキサ11は、配信装置12、複数のマイク13A~13F、複数のスピーカ14A~14G、および複数のトラッカー15A~15Cに接続されている。ミキサ11、複数のマイク13A~13F、および複数のスピーカ14A~14Gは、ネットワークケーブルまたはオーディオケーブルを介して接続されている。複数のトラッカー15A~15Cは、無線通信を介してミキサ11に接続されている。ミキサ11および配信装置12は、ネットワークケーブルを介して接続されている。また、配信装置12は、映像ケーブルを介してカメラ16に接続されている。カメラ16は、演者を含むライブ映像を撮影する。
【0014】
複数のスピーカ14A~スピーカ14Gは、第1会場10の壁面に沿って設置されている。この例の第1会場10は、平面視して矩形状である。第1会場10の前方にはステージが配置されている。ステージでは、演者が歌唱あるいは演奏等のパフォーマンスを行なう。スピーカ14Aは、ステージの左側に設置され、スピーカ14Bは、ステージの中央に設置され、スピーカ14Cは、ステージの右側に設置されている。スピーカ14Dは、第1会場10の前後中央の左側、スピーカ14Eは、第1会場10の前後中央の右側に設置されている。スピーカ14Fは第1会場10の後方左側に設置され、スピーカ14Gは、第1会場10の後方の右側に設置されている。
【0015】
マイク13Aは、ステージの左側に設置され、マイク13Bはステージの中央に設置され、マイク13Cは、ステージの右側に設置されている。マイク13Dは、第1会場10の前後中央の左側、マイク13Eは、第1会場10の後方中央に設置されている。マイク13Fは、第1会場10の前後中央の右側に設置されている。
【0016】
ミキサ11は、マイク13A~13Fから音信号を受信する。また、ミキサ11は、スピーカ14A~14Gに音信号を出力する。本実施形態ではミキサ11に接続される音響機器の一例としてスピーカおよびマイクを示すが、実際にはミキサ11には多数の音響機器が接続される。ミキサ11は、マイク等の複数の音響機器から音信号を受信し、ミキシング等の信号処理を施して、スピーカ等の複数の音響機器に音信号を出力する。
【0017】
マイク13A~13Fは、第1会場10で発生する音として、それぞれ演者の歌唱音または演奏音を取得する。あるいは、マイク13A~13Fは、第1会場10の環境音を取得する。図2の例では、マイク13A~13Cが演者の音を取得し、マイク13D~13Fが環境音を取得する。環境音は、リスナの声援、拍手、呼びかけ、歓声、合唱、またはざわめき等の音を含む。ただし、演者の音は、ライン入力してもよい。ライン入力とは、楽器等の音源から出力される音をマイクで収音して入力するのではなく、音源に接続されたオーディオケーブル等から音信号を入力することである。演者の音は、SN比の高い音で取得し、他の音は含まれていないことが好ましい。
【0018】
スピーカ14A~スピーカ14Gは、演者の音を第1会場10に出力する。また、スピーカ14A~スピーカ14Gは、第1会場10の音場を制御するための初期反射音または後部残響音を出力してもよい。
【0019】
第2会場20のミキサ21は、再生装置22、および複数のスピーカ24A~24Fに接続されている。これらの音響機器は、ネットワークケーブルまたはオーディオケーブルを介して接続されている。また、再生装置22は、映像ケーブルを介して表示器23に接続されている。
【0020】
複数のスピーカ24A~スピーカ24Fは、第2会場20の壁面に沿って設置されている。この例の第2会場20は、平面視して矩形状である。第2会場20の前方には表示器23が配置されている。表示器23には、第1会場10で撮影されたライブ映像が表示される。スピーカ24Aは、表示器23の左側に設置され、スピーカ24Bは、表示器23の右側に設置されている。スピーカ24Cは、第2会場20の前後中央の左側、スピーカ24Dは、第2会場20の前後中央の右側に設置されている。スピーカ24Eは第2会場20の後方左側に設置され、スピーカ24Fは、第2会場20の後方の右側に設置されている。
【0021】
ミキサ21は、スピーカ24A~24Fに音信号を出力する。ミキサ21は、再生装置22から音信号を受信し、ミキシング等の信号処理を施して、スピーカ等の複数の音響機器に音信号を出力する。
【0022】
スピーカ24A~スピーカ24Fは、演者の音を第2会場20に出力する。また、スピーカ24A~スピーカ24Fは、第1会場10の音場を再現するための初期反射音または後部残響音を出力する。また、スピーカ24A~スピーカ24Fは、第1会場10のリスナの歓声等の環境音を第2会場20に出力する。
【0023】
図4は、ミキサ11の構成を示すブロック図である。なお、ミキサ21は、ミキサ11と同様の構成および機能を有するため、図4では代表してミキサ11の構成を示す。ミキサ11は、表示器101、ユーザI/F102、オーディオI/O(Input/Output)103、信号処理部(DSP)104、ネットワークI/F105、CPU106、フラッシュメモリ107、およびRAM108を備えている。
【0024】
CPU106は、ミキサ11の動作を制御する制御部である。CPU106は、記憶媒体であるフラッシュメモリ107に記憶された所定のプログラムをRAM108に読み出して実行することにより各種の動作を行なう。
【0025】
なお、CPU106が読み出すプログラムは、自装置内のフラッシュメモリ107に記憶する必要はない。例えば、プログラムは、サーバ等の外部装置の記憶媒体に記憶されていてもよい。この場合、CPU106は、該サーバから都度プログラムをRAM108に読み出して実行すればよい。
【0026】
信号処理部104は、各種信号処理を行なうためのDSPから構成される。信号処理部104は、オーディオI/O103またはネットワークI/F105を介してマイク等の音響機器から入力される音信号に、ミキシング処理およびフィルタ処理等の信号処理を施す。信号処理部104は、信号処理後のオーディオ信号を、オーディオI/O103またはネットワークI/F105を介して、スピーカ等の音響機器に出力する。
【0027】
また、信号処理部104は、パニング処理、初期反射音生成処理、および後部残響音生成処理を行ってもよい。パニング処理は、演者の位置に音像が定位する様に、複数のスピーカ14A~14Gに分配する音信号の音量を制御する処理である。パニング処理を行うために、CPU106は、トラッカー15A~15Cを介して演者の位置情報を取得する。位置情報は、第1会場10のある位置を基準とした2次元または3次元の座標を示す情報である。トラッカー15A~15Cは、例えばBluetooth(登録商標)等の電波を送受信するタグである。演者または楽器は、トラッカー15A~15Cを取り付けている。第1会場10には、予め少なくとも3つのビーコンが設置されている。それぞれのビーコンは、電波を送信してから受信するまでの時間差に基づいて、トラッカー15A~15Cとの距離を計測する。CPU106は、ビーコンの位置情報を予め取得しておき、少なくとも3つのビーコンからタグまでの距離をそれぞれ測定することで、トラッカー15A~15Cの位置を一意に求めることができる。
【0028】
CPU106は、この様にしてトラッカー15A~15Cを介して各演者の位置情報、つまり第1会場10で発生する音の位置情報を取得する。CPU106は、取得した位置情報と、スピーカ14A~スピーカ14Gの位置に基づいて、演者の位置に音像が定位する様にスピーカ14A~スピーカ14Gに出力するそれぞれの音信号の音量を決定する。信号処理部104は、CPU106の制御にしたがって、スピーカ14A~スピーカ14Gに出力するそれぞれの音信号の音量を制御する。例えば、信号処理部104は、演者の位置に近いスピーカに出力する音信号の音量を大きくし、演者の位置から遠いスピーカに出力する音信号の音量を小さくする。これにより、信号処理部104は、演者の演奏音や歌唱音の音像を所定の位置に定位させることができる。
【0029】
初期反射音生成処理および後部残響音生成処理は、FIRフィルタにより演者の音にインパルス応答を畳み込む処理である。信号処理部104は、例えば予め所定の会場(第1会場10以外の会場)で取得したインパルス応答を演者の音に畳み込む。これにより、信号処理部104は、第1会場10の音場を制御する。あるいは、信号処理部104は、第1会場10の天井や壁面近くに設置したマイクで取得した音をさらにスピーカ14A~スピーカ14Gにフィードバックすることで、第1会場10の音場を制御してもよい。
【0030】
信号処理部104は、演者の音および演者の位置情報を配信装置12に出力する。配信装置12は、ミキサ11から演者の音および演者の位置情報を取得する。
【0031】
また、配信装置12は、カメラ16から映像信号を取得する。カメラ16は、各演者または第1会場10の全体等を撮影し、ライブ映像に係る映像信号を配信装置12に出力する。
【0032】
さらに、配信装置12は、第1会場10の空間の響き情報を取得する。空間の響き情報は、間接音を生成するための情報である。間接音は、音源の音が会場内で反射してリスナに到達する音であり、少なくとも初期反射音および後部残響音を含む。空間の響き情報は、例えば第1会場10の空間の大きさ、形状、壁面の材質を示す情報、および後部残響音に係るインパルス応答を含む。空間の大きさ、形状、壁面の材質を示す情報は、初期反射音を生成するための情報である。初期反射音を生成するための情報は、インパルス応答であってもよい。インパルス応答は、例えば第1会場10において、予め測定する。また、空間の響き情報は、演者の位置に応じて変化する情報であってもよい。演者の位置に応じて変化する情報は、例えば第1会場10において演者の位置毎に予め測定したインパルス応答である。配信装置12は、例えば、第1会場10のステージ正面で演者の音が発生した場合の第1インパルス応答、ステージ左側で演者の音が発生した場合の第2インパルス応答、およびステージの右側で演者の音が発生した場合の第3インパルス応答を取得する。ただし、インパルス応答は、3つに限らない。また、インパルス応答は、第1会場10で実際に測定する必要はなく、例えば、第1会場10の空間の大きさ、形状、および壁面の材質等からシミュレーションにより求めてもよい。
【0033】
なお、初期反射音は音の到来方向の定まる反射音であり、後部残響音は、音の到来方向の定まらない反射音である。後部残響音は、初期反射音に比べると演者の音の位置の変化による変化は小さい。したがって、空間の響き情報は、演者の位置に応じて変化する初期反射音のインパルス応答と、演者の位置に依らずに一定の後部残響音のインパルス応答と、からなる態様であってもよい。
【0034】
また、信号処理部104は、環境音に係るアンビエンス情報を取得して、配信装置12に出力してもよい。環境音は、上述の様にマイク13D~13Fで取得した音であり、暗騒音、リスナの声援、拍手、呼びかけ、歓声、合唱、またはざわめき等の音を含む。ただし、環境音は、ステージのマイク13A~13Cで取得してもよい。信号処理部104は、環境音に係る音信号をアンビエンス情報として配信装置12に出力する。なお、アンビエンス情報は、環境音の位置情報を含んでいてもよい。環境音のうちリスナ各自の「がんばれー」等の声援、演者の個人名の呼びかけ、または「ブラボー」等の感嘆詞等は、聴衆に埋もれずに個別のリスナの声として認識できる音である。信号処理部104は、これらの個別の音の位置情報を取得してもよい。環境音の位置情報は、例えばマイク13D~13Fで取得した音から求めることができる。信号処理部104は、上記の個別の音を音声認識等の処理で認識した場合、マイク13D~13Fの音信号の相関を求め、マイク13D~13Fでそれぞれ個別の音を収音したタイミングの差を求める。信号処理部104は、マイク13D~13Fで収音したタイミングの差に基づいて、音の発生した第1会場10内の位置を一意に求めることができる。また、環境音の位置情報は、各マイク13D~13Fの位置情報とみなしてもよい。
【0035】
配信装置12は、第1会場10で発生する音に係る音源情報、および空間の響き情報、を配信データとしてエンコードして配信する。音源情報は、少なくとも演者の音を含むが、演者の音の位置情報を含んでいてもよい。また、配信装置12は、環境音に係るアンビエンス情報を配信データに含めて配信してもよい。配信装置12は、演者の映像に係る映像信号を配信データに含めて配信してもよい。
【0036】
あるいは、配信装置12は、少なくとも、演者の音および演者の位置情報に係る音源情報と、環境音に係るアンビエンス情報を配信データとして配信してもよい。
【0037】
図5は、配信装置12の構成を示すブロック図である。図6は、配信装置12の動作を示すフローチャートである。
【0038】
配信装置12は、一般的なパーソナルコンピュータ等の情報処理装置からなる。配信装置12は、表示器201、ユーザI/F202、CPU203、RAM204、ネットワークI/F205、フラッシュメモリ206、および汎用通信I/F207を備えている。
【0039】
CPU203は、記憶媒体であるフラッシュメモリ206に記憶されているプログラムをRAM204に読み出して、所定の機能を実現する。なお、CPU203が読み出すプログラムも、自装置内のフラッシュメモリ206に記憶されている必要はない。例えば、プログラムは、サーバ等の外部装置の記憶媒体に記憶されていてもよい。この場合、CPU203は、該サーバから都度プログラムをRAM204に読み出して実行すればよい。
【0040】
CPU203は、ネットワークI/F205を介してミキサ11から演者の音および演者の位置情報(音源情報)を取得する(S11)。また、CPU203は、第1会場10の空間の響き情報を取得する(S12)。さらに、CPU203は、環境音に係るアンビエンス情報を取得する(S13)。また、CPU203は、汎用通信I/F207を介してカメラ16から映像信号を取得してもよい。
【0041】
CPU203は、演者の音および音の位置情報(音源情報)に係るデータ、空間の響き情報に係るデータ、アンビエンス情報に係るデータ、および映像信号に係るデータを、配信データとしてエンコードして配信する(S14)。
【0042】
再生装置22は、インターネット5を介して配信装置12から配信データを受信する。再生装置22は、配信データをレンダリングして、演者の音および空間の響きに係る音を第2会場20に提供する。あるいは、再生装置22は、演者の音およびアンビエンス情報に含まれる環境音を第2会場20に提供する。再生装置22は、アンビエンス情報に対応する空間の響きに係る音を第2会場20に提供してもよい。
【0043】
図7は、再生装置22の構成を示すブロック図である。図8は、再生装置22の動作を示すフローチャートである。
【0044】
再生装置22は、一般的なパーソナルコンピュータ等の情報処理装置からなる。再生装置22は、表示器301、ユーザI/F302、CPU303、RAM304、ネットワークI/F305、フラッシュメモリ306、および映像I/F307を備えている。
【0045】
CPU303は、記憶媒体であるフラッシュメモリ306に記憶されているプログラムをRAM304に読み出して、所定の機能を実現する。なお、CPU303が読み出すプログラムも、自装置内のフラッシュメモリ306に記憶されている必要はない。例えば、プログラムは、サーバ等の外部装置の記憶媒体に記憶されていてもよい。この場合、CPU303は、該サーバから都度プログラムをRAM304に読み出して実行すればよい。
【0046】
CPU303は、ネットワークI/F305を介して配信装置12から配信データを受信する(S21)。CPU303は、配信データを音源情報、空間の響き情報、アンビエンス情報、および映像信号等にデコードし(S22)、音源情報、空間の響き情報、アンビエンス情報、および映像信号等をレンダリングする。
【0047】
CPU303は、音源情報のレンダリングの一例として、ミキサ21に対して演者の音のパニング処理を行わせる(S23)。パニング処理は、上述した様に演者の音を演者の位置に定位させる処理である。CPU303は、音源情報に含まれる位置情報で示す位置に演者の音が定位する様に、スピーカ24A~24Fに分配する音信号の音量を決定する。CPU303は、演者の音に係る音信号、および当該演者の音に係る音信号のスピーカ24A~24Fへの出力量を示す情報を、ミキサ21に出力することで、ミキサ21にパニング処理を行なわせる。
【0048】
これにより、第2会場20のリスナは、演者の位置から音が発している様に知覚することができる。第2会場20のリスナは、例えば第1会場10のステージ右側にいる演者の音を第2会場20においても前方右側から聴くことができる。また、CPU303は、映像信号をレンダリングして、映像I/F307を介して表示器23にライブ映像を表示してもよい。これにより、第2会場20のリスナは、表示器23に表示された演者の映像を見ながらパニング処理された演者の音を聴く。これにより、第2会場20のリスナは、視覚情報と聴覚情報が一致するため、よりライブパフォーマンスに対する没入感を得ることができる。
【0049】
さらに、CPU303は、空間の響き情報のレンダリングの一例として、ミキサ21に対して間接音の生成処理を行なわせる(S24)。間接音の生成処理は、初期反射音生成処理および後部残響音生成処理を含む。初期反射音は、音源情報に含まれる演者の音と、空間の響き情報に含まれる第1会場10の空間の大きさ、形状、壁面の材質等を示す情報と、に基づいて生成する。CPU303は、空間の大きさおよび形状に基づいて初期反射音の到来タイミングを決定し、壁面の材質に基づいて初期反射音のレベルを決定する。より具体的には、CPU303は、空間の大きさおよび形状の情報に基づいて、音源の音が反射する壁面の座標を求める。そして、CPU303は、音源の位置、壁面の位置、および受音点の位置に基づいて、音源の位置に対して壁面を鏡面として存在する仮想的な音源(虚音源)の位置を求める。CPU303は、虚音源の位置から受音点の距離に基づいて、該虚音源の遅延量を求める。また、CPU303は、壁面の材質の情報に基づいて、該虚音源のレベルを求める。材質の情報は、壁面の反射時のエネルギー損失に対応する。したがって、CPU303は、音源の音信号に該エネルギー損失を考慮して虚音源のレベルを求める。CPU303は、この様な処理を繰り返すことで、空間の響きに係る音の遅延量およびレベルを、計算により求めることができる。CPU303は、計算した遅延量およびレベルをミキサ21に出力する。ミキサ21は、これらの遅延量およびレベルに応じたレベルタップ係数を演者の音に畳み込む。これにより、ミキサ21は、第1会場10の空間の響きを第2会場20に再現する。また、空間の響き情報に初期反射音のインパルス応答が含まれている場合には、CPU303は、ミキサ11にFIRフィルタにより演者の音にインパルス応答を畳み込む処理を実行させる。CPU303は、配信データに含まれる空間の響き情報(インパルス応答)をミキサ21に出力する。ミキサ21は、再生装置22から受信した空間の響き情報(インパルス応答)を演者の音に畳み込む。これにより、ミキサ21は、第1会場10の空間の響きを第2会場20に再現する。
【0050】
さらに、空間の響き情報が演者の位置に応じて変化する場合、再生装置22は、音源情報に含まれる位置情報に基づいて、演者の位置に対応する空間の響き情報をミキサ21に出力する。例えば、第1会場10のステージ正面にいた演者がステージ左側に移動した場合、演者の音に畳み込むインパルス応答は、第1インパルス応答から第2インパルス応答に変更する。あるいは、空間の大きさおよび形状の情報に基づいて虚音源を再現する場合には、移動後の演者の位置に応じて遅延量およびレベルを再計算する。これにより、演者の位置に応じた適切な空間の響きが第2会場20においても再現される。
【0051】
また、再生装置22は、アンビエンス情報および空間の響き情報に基づいて、ミキサ21に環境音に対応する空間の響き音を生成させてもよい。つまり、空間の響きに係る音は、演者の音(第1音源の音)に対応した第1の響き音と、環境音(第2音源の音)に対応した第2の響き音と、を含んでいてもよい。これにより、ミキサ21は、第1会場10における環境音の響きを第2会場20に再現する。また、アンビエンス情報に位置情報が含まれている場合、再生装置22は、アンビエンス情報に含まれる位置情報に基づいて、環境音の位置に対応する空間の響き情報をミキサ11に出力してもよい。ミキサ21は、環境音の位置に基づいて、環境音の響き音を再現する。例えば、第1会場10の左側後方にいた観客が右側後方に移動した場合、当該観客の歓声に畳み込むインパルス応答を変更する。あるいは、空間の大きさおよび形状の情報に基づいて虚音源を再現する場合には、移動後の観客の位置に応じて遅延量およびレベルを再計算する。このように、空間の響き情報は、演者の音(第1音源)の位置に応じて変化する第1響き情報と、環境音(第2音源)の位置に応じて変化する第2響き情報と、を含み、レンダリングは、第1響き情報に基づいて第1の響き音を生成する処理と、第2響き情報に基づいて第2の響き音を生成する処理と、を含んでいてもよい。
【0052】
また、後部残響音は、音の到来方向の定まらない反射音である。後部残響音は、初期反射音に比べると音の位置の変化による変化は小さい。したがって、再生装置22は、演者の位置に応じて変化する初期反射音のインパルス応答のみを変更し、後部残響音のインパルス応答を固定としてもよい。
【0053】
なお、再生装置22は、間接音の生成処理は省略し、第2会場20の響きをそのまま利用してもよい。また、間接音の生成処理は、初期反射音生成処理だけでもよい。後部残響音は、第2会場20の響きをそのまま利用してもよい。あるいは、ミキサ21は、第2会場20の天井や壁面近くに設置した不図示のマイクで取得した音をさらにスピーカ24A~スピーカ24Fにフィードバックすることで、第2会場20の制御を補強してもよい。
【0054】
そして、再生装置22のCPU303は、アンビエンス情報に基づいて環境音の再生処理を行なう(S25)。アンビエンス情報は、暗騒音、リスナの声援、拍手、呼びかけ、歓声、合唱、またはざわめき等の音の音信号を含む。CPU303は、これらの音信号をミキサ21に出力する。ミキサ21は、再生装置22から受信した音信号をスピーカ24A~24Fへ出力する。
【0055】
CPU303は、アンビエンス情報に環境音の位置情報が含まれている場合、ミキサ21にパニング処理による環境音の定位処理を行わせる。この場合、CPU303は、アンビエンス情報に含まれる位置情報の位置に環境音が定位する様に、スピーカ24A~24Fに分配する音信号の音量を決定する。CPU303は、環境音の音信号、および当該環境音に係る音信号のスピーカ24A~24Fへの出力量を示す情報を、ミキサ21に出力することで、ミキサ21にパニング処理を行なわせる。また、環境音の位置情報が各マイク13D~13Fの位置情報である場合も同様である。CPU303は、マイクの位置に環境音が定位する様に、スピーカ24A~24Fに分配する音信号の音量を決定する。各マイク13D~13Fは、暗騒音、拍手、合唱、または「わー」等の歓声、ざわめき等の複数の環境音(第2音源)を収音している。それぞれの音源の音は、所定の遅延量およびレベルを含んでマイクに到達している。つまり、暗騒音、拍手、合唱、または「わー」等の歓声、ざわめき等も、個々の音源として所定の遅延量およびレベル(音源を定位させるための情報)を含んでマイクに到達している。CPU303は、マイクで収音した音を当該マイクの位置に定位する様にパニング処理を行うことで、個々の音源の定位も簡易的に再現することができる。
【0056】
なお、CPU303は、個別のリスナの声として認識できない、多くのリスナが同時に発する音には、ミキサ21にリバーブ等のエフェクト処理を行なわせることで、空間的な拡がりを知覚させる処理を行ってもよい。例えば、暗騒音、拍手、合唱、または「わー」等の歓声、ざわめき等は、ライブ会場の全体で響く音である。CPU303は、ミキサ21にこれらの音に空間的な拡がりを知覚させるエフェクト処理を行なわせる。
【0057】
再生装置22は、以上の様なアンビエンス情報に基づく環境音を第2会場20に提供してもよい。これにより、第2会場20のリスナは、第1会場10でライブパフォーマンスを視聴している様な、より臨場感のあるライブパフォーマンスを視聴することができる。
【0058】
以上の様にして、本実施形態のライブデータ配信システム1は、第1会場10で発生する音に係る音源情報、および空間の響き情報、を配信データとして配信し、配信データをレンダリングして、音源情報に係る音、および空間の響きに係る音を第2会場20に提供する。これにより、ライブ会場の臨場感を配信先の会場にも提供することができる。
【0059】
また、ライブデータ配信システム1は、第1会場10のある第1の場所(例えばステージ)で発生する第1音源の音(例えば演者の音)および該第1音源の位置情報に係る第1音源情報、および第1会場10の第2の場所(例えばリスナの居る場所)で発生する第2音源(例えば環境音)に係る第2音源情報、を配信データとして配信し、配信データをレンダリングして、第1音源の位置情報に基づく定位処理を施した第1音源の音と、第2音源の音と、を第2会場に提供する。これにより、ライブ会場の臨場感を配信先の会場にも提供することができる。
【0060】
次に、図9は、変形例1に係るライブデータ配信システム1Aの構成を示すブロック図である。図10は、変形例1に係るライブデータ配信システム1Aにおける第2会場20の平面概略図である。図1および図3と共通する構成は同一の符号を付し、説明を省略する。
【0061】
ライブデータ配信システム1Aの第2会場20には、複数のマイク25A~25Cが設置されている。マイク25Aは、第2会場20のステージ80に向かって、前後中央の左側、マイク25Bは、第2会場20の後方中央に設置されている。マイク25Cは、第2会場20の前後中央の右側に設置されている。
【0062】
マイク25A~25Cは、第2会場20の環境音を取得する。ミキサ21は、環境音の音信号をアンビエンス情報として再生装置22に出力する。なお、アンビエンス情報は、環境音の位置情報を含んでいてもよい。環境音の位置情報は、上述の様に、例えばマイク25A~25Cで取得した音から求めることができる。
【0063】
再生装置22は、第2会場20で発生する環境音に係るアンビエンス情報を第3音源として、他の会場に送信する。例えば、再生装置22は、第2会場20で発生する環境音を第1会場10にフィードバックする。これにより、第1会場10のステージの演者は、第1会場10のリスナ以外の声や拍手、歓声等を聴くことができ、臨場感溢れた環境下でライブパフォーマンスを行うことができる。また、第1会場10に居るリスナも、他の会場のリスナの声や拍手、歓声等を聴くことができ、臨場感溢れた環境下でライブパフォーマンスを視聴することができる。
【0064】
また、さらに他の会場の再生装置が配信データをレンダリングして、第1会場の音を当該他の会場に提供し、かつ第2会場20で発生する環境音を当該他の会場に提供すれば、当該他の会場のリスナも多数のリスナの声や拍手、歓声等を聴くことができ、臨場感溢れた環境下でライブパフォーマンスを視聴することができる。
【0065】
次に、図11は、変形例2に係るライブデータ配信システム1Bの構成を示すブロック図である。図1と共通する構成は同一の符号を付し、説明を省略する。
【0066】
ライブデータ配信システム1Bでは、配信装置12は、インターネット5を介して第3会場20AのAVレシーバ32に接続されている。AVレシーバ32は、表示器33、複数のスピーカ34A~34F、およびマイク35に接続されている。第3会場20Aは、例えばあるリスナ個人の自宅である。AVレシーバ32は、再生装置の一例である。AVレシーバ32の利用者は、第1会場10のライブパフォーマンスを遠隔で視聴するリスナとなる。
【0067】
図12は、AVレシーバ32の構成を示すブロック図である。AVレシーバ32は、表示器401、ユーザI/F402、オーディオI/O(Input/Output)403、信号処理部(DSP)404、ネットワークI/F405、CPU406、フラッシュメモリ407、RAM408、および映像I/F409を備えている。
【0068】
CPU406は、AVレシーバ32の動作を制御する制御部である。CPU406は、記憶媒体であるフラッシュメモリ407に記憶された所定のプログラムをRAM408に読み出して実行することにより各種の動作を行なう。
【0069】
なお、CPU406が読み出すプログラムも、自装置内のフラッシュメモリ407に記憶する必要はない。例えば、プログラムは、サーバ等の外部装置の記憶媒体に記憶されていてもよい。この場合、CPU406は、該サーバから都度プログラムをRAM408に読み出して実行すればよい。
【0070】
信号処理部404は、各種信号処理を行なうためのDSPから構成される。信号処理部404は、オーディオI/O403またはネットワークI/F405を介して入力される音信号に信号処理を施す。信号処理部404は、信号処理後のオーディオ信号を、オーディオI/O403またはネットワークI/F405を介して、スピーカ等の音響機器に出力する。
【0071】
AVレシーバ32は、ミキサ21および再生装置22で行なわれた処理と同様の処理を行なう。CPU406は、ネットワークI/F405を介して配信装置12から配信データを受信する。CPU406は、配信データをレンダリングして、演者の音および空間の響きに係る音を第3会場20Aに提供する。あるいは、CPU406は、配信データをレンダリングして、第1会場10で発生した環境音を第3会場20Aに提供する。あるいは、CPU406は、配信データをレンダリングして、映像I/F307を介して表示器33にライブ映像を表示してもよい。
【0072】
信号処理部404は、演者の音のパニング処理を行なう。また、信号処理部404は、間接音の生成処理を行なう。あるいは、信号処理部404は、環境音のパニング処理を行なってもよい。
【0073】
これにより、AVレシーバ32は、第1会場10の臨場感を第3会場20Aにも提供することができる。
【0074】
また、AVレシーバ32は、マイク35を介して、第3会場20Aの環境音(リスナの声援、拍手、または呼びかけ等の音)を取得する。AVレシーバ32は、第3会場20Aの環境音を他装置に送信する。例えば、AVレシーバ32は、第3会場20Aの環境音を第1会場10にフィードバックする。
【0075】
この様にして、複数のリスナからの音を第1会場10にフィードバックすれば、第1会場10のステージの演者は、第1会場10のリスナ以外の多数のリスナの声援や拍手、歓声等を聴くことができ、臨場感溢れた環境下でライブパフォーマンスを行うことができる。また、第1会場10に居るリスナも、遠隔地の多数のリスナの声援や拍手、歓声等を聴くことができ、臨場感溢れた環境下でライブパフォーマンスを視聴することができる。
【0076】
あるいは、AVレシーバ32は、表示器401に「声援」、「拍手」、「呼びかけ」、および「ざわめき」等のアイコン画像を表示し、ユーザI/F402を介してリスナからこれらアイコン画像に対する選択操作を受け付けることで、リスナのリアクションを受け付けてもよい。AVレシーバ32は、これらリアクションの選択操作を受け付けると、それぞれのリアクションに対応する音信号を生成し、アンビエンス情報として他装置に送信してもよい。
【0077】
あるいは、AVレシーバ32は、リスナの声援、拍手、または呼びかけ等の環境音の種類を示す情報をアンビエンス情報として送信してもよい。この場合、受信側の装置(例えば配信装置12およびミキサ11)がアンビエンス情報に基づいて対応する音信号を生成し、リスナの声援、拍手、または呼びかけ等の音を会場内に提供する。この様に、アンビエンス情報は、環境音の音信号ではなく、生成すべき音を示す情報であり、予め録音した環境音等を配信装置12およびミキサ11が再生する処理であってもよい。
【0078】
また、第1会場10のアンビエンス情報も、第1会場10で発生する環境音ではなく、予め録音した環境音であってもよい。この場合、配信装置12は、アンビエンス情報として、生成すべき音を示す情報を配信する。再生装置22またはAVレシーバ32は、アンビエンス情報に基づいて対応する環境音を再生する。また、アンビエンス情報のうち、暗騒音およびざわめき等は録音した音であり、他の環境音(例えばリスナの声援、拍手、呼びかけ等)は、第1会場10で発生する音であってもよい。
【0079】
また、AVレシーバ32は、ユーザI/F402を介して、リスナの位置情報を受け付けてもよい。AVレシーバ32は、表示器401または表示器33に第1会場10の平面図または斜視図等を模した画像を表示し、ユーザI/F402を介して、リスナから位置情報を受け付ける(例えば図16を参照)。位置情報は、第1会場10内のうち任意の位置を指定した情報である。AVレシーバ32は、受け付けたリスナの位置情報を第1会場10に送信する。第1会場の配信装置12およびミキサ11は、AVレシーバ32から受信した第3会場20Aの環境音およびリスナの位置情報に基づいて、指定された位置に第3会場20Aの環境音を定位させる処理を行なう。
【0080】
また、AVレシーバ32は、利用者から受け付けた位置情報に基づいて、パニング処理の内容を変更してもよい。例えば、リスナが第1会場10のステージのすぐ前の位置を指定すれば、AVレシーバ32は、演者の音の定位位置をリスナのすぐ前の位置に設定して、パニング処理を行なう。これにより、第3会場20Aのリスナは、第1会場10のステージのすぐ前に居るような臨場感を得ることができる。
【0081】
第3会場20Aのリスナの音は、第1会場10ではなく、第2会場20に送信してもよいし、さらに他の会場に送信してもよい。例えば、第3会場20Aのリスナの音は、友人の自宅(第4会場)にのみ送信してもよい。第4会場のリスナは、第3会場20Aのリスナの音を聞きながら、第1会場10のライブパフォーマンスを視聴することができる。また、第4会場の不図示の再生装置は、第4会場のリスナの音を第3会場20Aに送信してもよい。この場合、第3会場20Aのリスナは、第4会場のリスナの音を聞きながら、第1会場10のライブパフォーマンスを視聴することができる。これにより、第3会場20Aのリスナと、第4会場のリスナは、互いに会話しながら第1会場10のライブパフォーマンスを視聴することができる。
【0082】
図13は、変形例3に係るライブデータ配信システム1Cの構成を示すブロック図である。図1と共通する構成は同一の符号を付し、説明を省略する。
【0083】
ライブデータ配信システム1Cでは、配信装置12は、インターネット5を介して第5会場20Bの端末42に接続されている。端末42は、ヘッドフォン43に接続されている。第5会場20Bは、例えばあるリスナ個人の自宅である。ただし、端末42が携帯型である場合、第5会場20Bは、カフェ店内、自動車の中、あるいは公共交通機関の中等、どの様な場所であってもよい。この場合、あらゆる場所が第5会場20Bになり得る。端末42は、再生装置の一例である。端末42の利用者は、第1会場10のライブパフォーマンスを遠隔で視聴するリスナとなる。この場合も、端末42は、配信データをレンダリングして、ヘッドフォン43を介して音源情報に係る音、および空間の響きに係る音を第2会場(この例では第5会場20B)に提供する。
【0084】
図14は、端末42の構成を示すブロック図である。端末42は、パーソナルコンピュータ、スマートフォンまたはタブレット型コンピュータ等の情報処理装置である。端末42は、表示器501、ユーザI/F502、CPU503、RAM504、ネットワークI/F505、フラッシュメモリ506、オーディオI/O(Input/Output)507、およびマイク508を備えている。
【0085】
CPU503は、端末42の動作を制御する制御部である。CPU503は、記憶媒体であるフラッシュメモリ506に記憶された所定のプログラムをRAM504に読み出して実行することにより各種の動作を行なう。
【0086】
なお、CPU503が読み出すプログラムも、自装置内のフラッシュメモリ506に記憶する必要はない。例えば、プログラムは、サーバ等の外部装置の記憶媒体に記憶されていてもよい。この場合、CPU503は、該サーバから都度プログラムをRAM504に読み出して実行すればよい。
【0087】
CPU503は、ネットワークI/F505を介して入力される音信号に信号処理を施す。CPU503は、信号処理後のオーディオ信号を、オーディオI/O507を介してヘッドフォン43に出力する。
【0088】
CPU503は、ネットワークI/F505を介して配信装置12から配信データを受信する。CPU503は、配信データをレンダリングして、演者の音および空間の響きに係る音を第5会場20Bのリスナに提供する。
【0089】
具体的には、CPU503は、演者の音に係る音信号に頭部伝達関数(以下、HRTFと称する。)を畳み込んで、演者の位置に当該演者の音が定位する様に、音像定位処理(バイノーラル処理)を行なう。HRTFは、所定位置とリスナの耳との間の伝達関数に対応する。HRTFは、ある位置の音源からそれぞれ左右の耳に至る音の大きさ、到達時間、および周波数特性等を表現した伝達関数である。CPU503は、演者の位置に基づいて演者の音の音信号にHRTFを畳み込む。これにより、演者の音は、位置情報に応じた位置に定位する。
【0090】
また、CPU503は、演者の音の音信号に、空間の響き情報に対応するHRTFを畳み込むバイノーラル処理により、間接音の生成処理を行なう。CPU503は、空間の響き情報に含まれるそれぞれの初期反射音に対応する仮想音源の位置からそれぞれ左右の耳に至るHRTFを畳み込むことにより、初期反射音および後部残響音を定位させる。ただし、後部残響音は、音の到来方向の定まらない反射音である。したがって、CPU503は、後部残響音には定位処理をせず、リバーブ等のエフェクト処理を行なってもよい。なお、CPU503は、リスナの使用するヘッドフォン43の音響特性の逆特性を再現するデジタルフィルタ処理(ヘッドフォン逆特性処理)を行ってもよい。
【0091】
また、CPU503は、配信データのうちアンビエンス情報をレンダリングして、第1会場10で発生した環境音を第5会場20Bのリスナに提供する。CPU503は、アンビエンス情報に環境音の位置情報が含まれている場合には、HRTFによる定位処理を行ない、音の到来方向の定まらない音にはエフェクト処理を行なう。
【0092】
また、CPU503は、配信データのうち映像信号をレンダリングして、表示器501にライブ映像を表示してもよい。
【0093】
これにより、端末42は、第1会場10の臨場感を第5会場20Bのリスナにも提供することができる。
【0094】
また、端末42は、マイク508を介して、第5会場20Bのリスナの音を取得する。端末42は、リスナの音を他装置に送信する。例えば、端末42は、リスナの音を第1会場10にフィードバックする。あるいは、端末42は、表示器501に「声援」、「拍手」、「呼びかけ」、および「ざわめき」等のアイコン画像を表示し、ユーザI/F502を介してリスナからこれらアイコン画像に対する選択操作を受け付けて、リアクションを受け付けてもよい。端末42は、受け付けたリアクションに対応する音を生成し、生成した音をアンビエンス情報として他の装置に送信する。あるいは、端末42は、リスナの声援、拍手、または呼びかけ等の環境音の種類を示す情報をアンビエンス情報として送信してもよい。この場合、受信側の装置(例えば配信装置12およびミキサ11)がアンビエンス情報に基づいて対応する音信号を生成し、リスナの声援、拍手、または呼びかけ等の音を会場内に提供する。
【0095】
また、端末42も、ユーザI/F502を介して、リスナの位置情報を受け付けてもよい。端末42は、受け付けたリスナの位置情報を第1会場10に送信する。第1会場の配信装置12およびミキサ11は、AVレシーバ32から受信した第3会場20Aのリスナの音および位置情報に基づいて、指定された位置にリスナの音を定位させる処理を行なう。
【0096】
また、端末42は、利用者から受け付けた位置情報に基づいてHRTFを変更してもよい。例えば、リスナが第1会場10のステージのすぐ前の位置を指定すれば、端末42は、演者の音の定位位置をリスナのすぐ前の位置に設定して、当該位置に演者の音が定位する様なHRTFを畳み込む。これにより、第5会場20Bのリスナは、第1会場10のステージのすぐ前に居るような臨場感を得ることができる。
【0097】
第5会場20Bのリスナの音は、第1会場10ではなく、第2会場20に送信してもよいし、さらに他の会場に送信してもよい。上述と同様に、第5会場20Bのリスナの音は、友人の自宅(第4会場)にのみ送信してもよい。これにより、第5会場20Bのリスナと、第4会場のリスナは、互いに会話しながら第1会場10のライブパフォーマンスを視聴することができる。
【0098】
また、本実施形態のライブデータ配信システムでは、複数のユーザが同じ位置を指定することもできる。例えば、複数のユーザがそれぞれ第1会場10のステージのすぐ前の位置を指定してもよい。この場合、それぞれのリスナが、ステージのすぐ前の位置に居るような臨場感を得ることができる。これにより、1つの位置(会場の座席)に対して、複数のリスナが同じ臨場感で演者のパフォーマンスを視聴することができる。この場合、ライブ運営者は、実在の空間の観客収容可能数を超えたサービスを提供することができる。
【0099】
図15は、変形例4に係るライブデータ配信システム1Dの構成を示すブロック図である。図1と共通する構成は同一の符号を付し、説明を省略する。
【0100】
ライブデータ配信システム1Dは、サーバ50および端末55をさらに備えている。端末55は第6会場10Aに設置されている。サーバ50は配信装置の一例であり、サーバ50のハードウェア構成は、配信装置12と同様である。端末55のハードウェア構成は、図14に示した端末42の構成と同様である。
【0101】
第6会場10Aは、遠隔で演奏等のパフォーマンスを行なう演者の自宅等である。第6会場10Aにいる演者は、第1会場の演奏または歌唱に合わせて、演奏または歌唱等のパフォーマンスを行なう。端末55は、第6会場10Aの演者の音をサーバ50に送信する。また、端末55は、不図示のカメラにより、第6会場10Aの演者を撮影し、映像信号をサーバ50に送信してもよい。
【0102】
サーバ50は、第1会場10の演者の音と、第6会場10Aの演者の音と、第1会場10の空間の響き情報と、第1会場10のアンビエンス情報と、第1会場10のライブ映像と、第6会場10Aの演者の映像と、を含む配信データを配信する。
【0103】
この場合、再生装置22は、配信データをレンダリングし、第1会場10の演者の音と、第6会場10Aの演者の音と、第1会場10の空間の響きと、第1会場10の環境音と、第1会場10のライブ映像と、第6会場10Aの演者の映像と、を第2会場20に提供する。例えば、再生装置22は、第1会場10のライブ映像に第6会場10Aの演者の映像を重畳して表示する。
【0104】
第6会場10Aの演者の音は、定位処理を行なわなくてもよいが、表示器に表示される映像に合わせた位置に定位させてもよい。例えば、ライブ映像内の右側に第6会場10Aの演者を表示する場合には、第6会場10Aの演者の音は、右側に定位させる。
【0105】
また、第6会場10Aの演者、または配信データの配信者が、演者の位置を指定してもよい。この場合、配信データには、第6会場10Aの演者の位置情報が含まれる。再生装置22は、第6会場10Aの演者の位置情報に基づいて、第6会場10Aの演者の音を定位させる。
【0106】
第6会場10Aの演者の映像は、カメラにより撮影した映像に限らない。例えば、2次元画像や3Dモデリングからなるキャラクター画像(仮想映像)を第6会場10Aの演者の映像として配信してもよい。
【0107】
なお、配信データには、録音データが含まれていてもよい。また、配信データには、録画データが含まれていてもよい。例えば、配信装置は、第1会場10の演者の音と、録音データと、第1会場10の空間の響き情報と、第1会場10のアンビエンス情報と、第1会場10のライブ映像と、録画データと、を含む配信データを配信してもよい。この場合、再生装置は、配信データをレンダリングし、第1会場10の演者の音と、録音データに係る音と、第1会場10の空間の響きと、第1会場10の環境音と、第1会場10のライブ映像と、録画データに係る映像と、を他の会場に提供する。再生装置22は、第1会場10のライブ映像に録画データに対応する演者の映像を重畳して表示する。
【0108】
また、配信装置は、録音データに係る音を録音する時に、楽器の種別を判断してもよい。この場合、配信装置は、配信データに、録音データと判別した楽器の種別を示す情報を含めて配信する。再生装置は、楽器の種別を示す情報に基づいて、対応する楽器の映像を生成する。再生装置は、第1会場10のライブ映像に当該楽器の映像を重畳して表示してもよい。
【0109】
また、配信データは、第1会場10のライブ映像に第6会場10Aの演者の映像を重畳する必要はない。例えば、配信データは、第1会場10および第6会場10Aの個々の演者の映像と、背景映像と、を個別のデータとして配信してもよい。この場合、配信データは、各映像の表示位置を示す情報を含む。再生装置は、表示位置を示す情報に基づいて、各演者の映像をレンダリングする。
【0110】
また、背景映像は、第1会場10等の実際にライブパフォーマンスが行なわれている会場の映像に限らない。背景映像は、ライブパフォーマンスが行なわれている会場とは異なる会場の映像であってもよい。
【0111】
さらに、配信データに含まれる空間の響き情報も、第1会場10の空間の響きに対応する必要はない。例えば、空間の響き情報は、背景映像に対応する会場の空間の響きを仮想的に再現するための仮想空間情報(各会場の空間の大きさ、形状、壁面の材質等を示す情報、あるいは各会場の伝達関数を示すインパルス応答)であってもよい。各会場のインパルス応答は、予め測定してもよいし、各会場の空間の大きさ、形状、および壁面の材質等からシミュレーションにより求めてもよい。
【0112】
さらに、アンビエンス情報も、背景映像に応じた内容に変更してもよい。例えば、大きな会場の背景映像の場合には、アンビエンス情報は、多数のリスナの声援、拍手、歓声等の音を含む。また、野外会場は屋内会場と異なる暗騒音を含む。また、環境音の響きも、上記空間の響き情報に応じて変化してもよい。また、アンビエンス情報は、観客の数を示す情報、混み具合(人の密集度)を示す情報を含んでいてもよい。再生装置は、観客の数を示す情報に基づいてリスナの声援、拍手、歓声等の音の数を増減させる。また、再生装置は、混み具合を示す情報に基づいてリスナの声援、拍手、歓声等の音量を増減させる。
【0113】
あるいは、アンビエンス情報は、演者に応じて変更してもよい。例えば、女性ファンの多い演者がライブパフォーマンスを行なう場合、アンビエンス情報に含まれるリスナの声援、呼びかけ、歓声等の音は、女性の声に変更する。アンビエンス情報は、これらのリスナの声の音信号を含んでいてもよいが、男女比あるいは年齢比等の観客の属性を示す情報を含んでいてもよい。再生装置は、当該属性を示す情報に基づいてリスナの声援、拍手、歓声等の声質を変更する。
【0114】
また、各会場のリスナは、背景映像および空間の響き情報を指定してもよい。各会場のリスナは、再生装置のユーザI/Fを用いて、背景映像および空間の響き情報を指定する。
【0115】
図16は、各会場の再生装置で表示されるライブ映像700の一例を示す図である。ライブ映像700は、第1会場10あるいは他の会場を撮影した映像、あるいは各会場に対応する仮想映像(コンピュータグラフィック)等からなる。ライブ映像700は、再生装置の表示器に表示される。ライブ映像700には、会場の背景、ステージ、楽器を含む演者、および会場内のリスナの映像等が表示される。会場の背景、ステージ、楽器を含む演者、および会場内のリスナの映像は、全て実際に撮影した映像であってもよいし、仮想映像であってもよい。また、背景映像のみ実際に撮影した映像で、他の映像は仮想映像であってもよい。また、ライブ映像700には、空間を指定するためのアイコン画像751およびアイコン画像752が表示されている。アイコン画像751は、ある会場であるStage A(例えば第1会場10)の空間を指定するための画像であり、アイコン画像752は、他の会場であるStage B(例えば別のコンサートホール等)の空間を指定するための画像である。さらに、ライブ映像700には、リスナの位置を指定するためのリスナ画像753が表示されている。
【0116】
再生装置を利用するリスナは、再生装置のユーザI/Fを用いて、アイコン画像751またはアイコン画像752のいずれかを指定することで所望の空間を指定する。配信装置は、指定された空間に対応する背景映像および空間の響き情報を配信データに含めて配信する。あるいは、配信装置は、複数の背景映像および空間の響き情報を配信データに含めて配信してもよい。この場合、再生装置は、受信した配信データのうちリスナから指定された空間に対応する背景映像および空間の響き情報をレンダリングする。
【0117】
図16の例では、アイコン画像751が指定されている。再生装置は、アイコン画像751のStage Aに対応する背景映像(例えば第1会場10の映像)を表示し、指定されたStage Aに対応する空間の響きに係る音を再生する。リスナがアイコン画像752を指定すると、再生装置は、アイコン画像752に対応する別の空間であるStage Bの背景映像に切り替えて表示し、Stage Bに対応する仮想空間情報に基づいて、対応する別の空間の響きに係る音を再生する。
【0118】
これにより、各再生装置のリスナは、所望の空間でライブパフォーマンスを視聴している様な臨場感を得ることができる。
【0119】
また、各再生装置のリスナは、ライブ映像700内のリスナ画像753を移動させることで、会場内の所望の位置を指定することができる。再生装置は、利用者から指定された位置に基づく定位処理を行う。例えば、リスナがステージのすぐ前の位置にリスナ画像753を移動させれば、再生装置は、演者の音の定位位置をリスナのすぐ前の位置に設定して、当該位置に演者の音が定位する様な定位処理を行う。これにより、各再生装置のリスナは、ステージのすぐ前に居るような臨場感を得ることができる。
【0120】
また、上述したように、音源の位置およびリスナの位置(受音点の位置)が変わると、空間の響きに係る音も変化する。再生装置は、空間が変化した場合、音源の位置が変化した場合、あるいは受音点の位置が変化した場合でも、計算により初期反射音を求めることができる。したがって、実際の空間においてインパルス応答等の測定を行っていなくても、再生装置は、仮想空間情報に基づいて、空間の響きに係る音を求めることができる。よって、再生装置は、実在の空間も含めた空間で生じる響きを高精度に実現することができる。
【0121】
例えば、ミキサ11は、配信装置として機能してもよいし、ミキサ21は、再生装置として機能してもよい。また、再生装置は、各会場に設置されている必要はない。例えば、図15に示すサーバ50が、配信データをレンダリングして、信号処理後の音信号を各会場の端末等に配信してもよい。この場合、サーバ50は再生装置として機能する。
【0122】
音源情報は、演者の姿勢(例えば演者の左右の向き)を示す情報を含んでいてもよい。再生装置は、演者の姿勢情報に基づいて音量または周波数特性の調整処理を行ってもよい。例えば、再生装置は、演者の向きが真正面である場合を基準として、左右の向きが大きくなるほど音量を低下させる処理を行う。また、再生装置は、左右の向きが大きくなるほど高域が低域に比べてより減衰する処理を行ってもよい。これにより、演者の姿勢に応じて音が変化するため、リスナはより臨場感のあるライブパフォーマンスを視聴することができる。
【0123】
次に、図17は、再生装置で行う信号処理の応用例を示すブロック図である。この例では、図13に示した端末42およびヘッドフォン43を用いてレンダリングを行う。再生装置(図13の例では端末42)は、機能的に、楽器モデル処理部551、アンプモデル処理部552、スピーカモデル処理部553、空間モデル処理部554、バイノーラル処理部555、およびヘッドフォン逆特性処理部556を備えている。
【0124】
楽器モデル処理部551、アンプモデル処理部552、およびスピーカモデル処理部553は、演奏音に係る音信号に音響機器の音響特性を付与する信号処理を行う。当該信号処理を行うための第1デジタル信号処理モデルは、例えば配信装置12の配信する音源情報に含まれている。第1デジタル信号処理モデルは、それぞれ、楽器の音響特性、アンプの音響特性、およびスピーカの音響特性を模擬したデジタルフィルタである。第1デジタル信号処理モデルは、楽器の製造者、アンプの製造者、およびスピーカの製造者によって、シミュレーション等により予め作成されている。楽器モデル処理部551、アンプモデル処理部552、およびスピーカモデル処理部553は、それぞれ、楽器の音響特性、アンプの音響特性、およびスピーカの音響特性を模擬したデジタルフィルタ処理を行う。なお、楽器がシンセサイザ等の電子楽器である場合、楽器モデル処理部551は、音信号に代えてノートイベントデータ(発音すべき音の発音タイミング、音高等を示す情報)を入力し、シンセサイザ等の電子楽器の音響特性を有する音信号を生成する。
【0125】
これにより、再生装置は、任意の楽器等の音響特性を再現することができきる。例えば、図16では、仮想映像(コンピュータグラフィック)のライブ映像700が表示されている。ここで、再生装置を利用するリスナは、再生装置のユーザI/Fを用いて、他の仮想的な楽器の映像に変更してもよい。リスナがライブ映像700に表示されている楽器を他の楽器の映像に変更した時、再生装置の楽器モデル処理部551は、変更後の楽器に対応する第1デジタル信号処理モデルに応じた信号処理を行う。これにより、再生装置は、ライブ映像700に表示されている楽器の音響特性を再現した音を出力する。
【0126】
同様に、再生装置を利用するリスナは、再生装置のユーザI/Fを用いて、アンプの種類およびスピーカの種類を異なる種類に変更してもよい。アンプモデル処理部552およびスピーカモデル処理部553は、変更された種類のアンプの音響特性およびスピーカの音響特性を模擬したデジタルフィルタ処理を行う。なお、スピーカモデル処理部553は、スピーカの方向毎の音響特性を模擬してもよい。この場合、再生装置を利用するリスナは、再生装置のユーザI/Fを用いて、スピーカの向きを変更してもよい。スピーカモデル処理部553は、変更されたスピーカの向きに応じてデジタルフィルタ処理を行う。
【0127】
空間モデル処理部554は、ライブ会場の部屋の音響特性(例えば上述した空間の響き)を再現した第2デジタル信号処理モデルである。第2デジタル信号処理モデルは、例えば実際のライブ会場においてテスト音等を用いて取得してもよい。あるいは、第2デジタル信号処理モデルは、上述した様に仮想空間情報(各会場の空間の大きさ、形状、および壁面の材質等を示す情報)から計算により虚音源の遅延量およびレベルを求めてもよい。
【0128】
音源の位置およびリスナの位置(受音点の位置)が変わると、空間の響きに係る音も変化する。再生装置は、空間が変化した場合、音源の位置が変化した場合、および受音点の位置が変化した場合も、計算により虚音源の遅延量およびレベルを求めることができる。したがって、実際の空間においてインパルス応答等の測定を行っていなくても、再生装置は、仮想空間情報に基づいて、空間の響きに係る音を求めることができる。よって、再生装置は、実在の空間も含めた空間で生じる響きを高精度に実現することができる。
【0129】
なお、仮想空間情報は、柱等の構造物(音響的な障害物)の位置および材質の情報を含んでいてもよい。再生装置は、音源の定位および間接音の生成処理において、音源から到達する直接音および間接音の経路に障害物が存在する場合、当該障害物による反射、遮蔽、および回折の現象を再現する。
【0130】
図18は、音源70から壁面を反射して受音点75に到来する音の経路を示す模式図である。図18に示す音源70は、演奏音(第1音源)または環境音(第2音源)のいずれであってもよい。再生装置は、音源70の位置、壁面の位置、および受音点75の位置に基づいて、音源70の位置に対して壁面を鏡面として存在する虚音源70Aの位置を求める。そして、再生装置は、虚音源70Aから受音点75までの距離に基づいて、該虚音源70Aの遅延量を求める。また、再生装置は、壁面の材質の情報に基づいて、該虚音源70Aのレベルを求める。さらに、再生装置は、図18に示す様に、虚音源70Aの位置から受音点75の経路に障害物77が存在する場合、当該障害物77の回折により生じる周波数特性を求める。回折は、例えば、高域の音が減衰する。したがって、再生装置は、図18に示す様に、虚音源70Aの位置から受音点75の経路に障害物77が存在する場合、高域のレベルを低減するイコライザ処理を行う。回折により生じる周波数特性は、仮想空間情報に含まれていてもよい。
【0131】
また、再生装置は、障害物77の左右の位置に新たな第2虚音源77Aおよび第3虚音源77Bを設定してもよい。第2虚音源77Aおよび第3虚音源77Bは、回折により生じる新たな音源に対応する。第2虚音源77Aおよび第3虚音源77Bは、それぞれ虚音源70Aの音に対して回折により生じる周波数特性を付与した音である。再生装置は、第2虚音源77Aおよび第3虚音源77Bの位置および受音点75の位置に基づいて、遅延量およびレベルを再計算する。これにより、障害物77の回折現象を再現することができる。
【0132】
再生装置は、虚音源70Aの音が障害物77で反射し、さらに壁面に反射して受音点75に到達する音の遅延量およびレベルを計算してもよい。また、再生装置は、障害物77で虚音源70Aが遮蔽されると判断した場合、虚音源70Aを消去してもよい。遮蔽するか否かを決定する情報は、仮想空間情報に含まれていてもよい。
【0133】
再生装置は、以上の処理を行うことで、音響機器の音響特性を表現した第1デジタル信号処理および部屋の音響特性を表現した第2デジタル信号処理を行い、音源の音および空間の響きに係る音を生成する。
【0134】
そして、バイノーラル処理部555は、音信号に頭部伝達関数(以下、HRTFと称する。)を畳み込んで、音源および各種の間接音の音像定位処理を行なう。ヘッドフォン逆特性処理部556は、リスナの使用するヘッドフォンの音響特性の逆特性を再現するデジタルフィルタ処理を行う。
【0135】
以上の処理により、ユーザは、所望の空間および所望の音響機器でライブパフォーマンスを視聴している様な臨場感を得ることができる。
【0136】
なお、再生装置は、図17に示した楽器モデル処理部551、アンプモデル処理部552、スピーカモデル処理部553、空間モデル処理部554を全て備える必要はない。再生装置は、少なくとも1つのデジタル信号処理モデルを用いて信号処理を実行すればよい。また、再生装置は、ある1つの音信号(例えばある演者の音)に1つのデジタル信号処理モデルを用いた信号処理を行ってもよいし、複数の音信号にそれぞれ1つのデジタル信号処理モデルを用いた信号処理を行ってもよい。再生装置は、ある1つの音信号(例えばある演者の音)に複数のデジタル信号処理モデルを用いた信号処理を行ってもよいし、複数の音信号に複数のデジタル信号処理モデルを用いた信号処理を行ってもよい。再生装置は、環境音にデジタル信号処理モデルを用いた信号処理を行ってもよい。
【0137】
本実施形態の説明は、すべての点で例示であって、制限的なものではない。本発明の範囲は、上述の実施形態ではなく、特許請求の範囲によって示される。さらに、本発明の範囲には、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【符号の説明】
【0138】
1,1A,1B,1C,1D…ライブデータ配信システム
5…インターネット
10…第1会場
10A…第6会場
11…ミキサ
12…配信装置
13A~13F…マイク
14A~14G…スピーカ
15A~15C…トラッカー
16…カメラ
20…第2会場
20A…第3会場
20B…第5会場
21…ミキサ
22…再生装置
23…表示器
24A~24F…スピーカ
25A~25C…マイク
32…AVレシーバ
33…表示器
34A…スピーカ
35…マイク
42…端末
43…ヘッドフォン
50…サーバ
55…端末
101…表示器
102…ユーザI/F
103…オーディオI/O
104…信号処理部
105…ネットワークI/F
106…CPU
107…フラッシュメモリ
108…RAM
201…表示器
202…ユーザI/F
203…CPU
204…RAM
205…ネットワークI/F
206…フラッシュメモリ
207…汎用通信I/F
301…表示器
302…ユーザI/F
303…CPU
304…RAM
305…ネットワークI/F
306…フラッシュメモリ
307…映像I/F
401…表示器
402…ユーザI/F
403…オーディオI/O
404…信号処理部
405…ネットワークI/F
406…CPU
407…フラッシュメモリ
408…RAM
409…映像I/F
501…表示器
503…CPU
504…RAM
505…ネットワークI/F
506…フラッシュメモリ
507…オーディオI/O
508…マイク
700…ライブ映像
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18