(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022083443
(43)【公開日】2022-06-03
(54)【発明の名称】オーディオと関連してユーザカスタム型臨場感を実現するためのコンピュータシステムおよびその方法
(51)【国際特許分類】
H04S 7/00 20060101AFI20220527BHJP
G10K 15/02 20060101ALI20220527BHJP
【FI】
H04S7/00 300
G10K15/02
【審査請求】有
【請求項の数】22
【出願形態】OL
(21)【出願番号】P 2021190470
(22)【出願日】2021-11-24
(31)【優先権主張番号】10-2020-0158485
(32)【優先日】2020-11-24
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2021-0072522
(32)【優先日】2021-06-04
(33)【優先権主張国・地域又は機関】KR
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.HDMI
(71)【出願人】
【識別番号】505205812
【氏名又は名称】ネイバー コーポレーション
【氏名又は名称原語表記】NAVER Corporation
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【弁理士】
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】キム デファン
(72)【発明者】
【氏名】キム ジョンシク
(72)【発明者】
【氏名】キム ドンファン
(72)【発明者】
【氏名】イ テギュ
(72)【発明者】
【氏名】ソ ジョンフン
(72)【発明者】
【氏名】ソ ヒョンス
【テーマコード(参考)】
5D162
5D208
【Fターム(参考)】
5D162AA05
5D162CC23
5D162DA45
5D162EG02
5D208BA01
5D208BA10
5D208BD02
5D208BD03
(57)【要約】
【課題】 オーディオと関連するユーザカスタム型臨場感を実現するためのコンピュータシステムおよびその方法を提供すること。
【解決手段】 現場で複数の客体がそれぞれ発生するオーディオ信号に基づいてオーディオファイルをそれぞれ生成し、空間内の客体に対してそれぞれ設定される空間的特徴を含むメタデータを生成し、客体のオーディオファイルとメタデータを電子装置に送信するように構成することができる。多様な実施形態によると、電子装置は、メタデータの空間的特徴に基づいてオーディオファイルをレンダリングすることにより、現場の臨場感を実現し得る。すなわち、電子装置の利用者は、少なくとも1つの客体が配置される現場において、該当の客体から発生するオーディオ信号を直に聞くような、ユーザカスタム型臨場感を感じることができるようになる。
【選択図】
図5
【特許請求の範囲】
【請求項1】
コンピュータシステムによる方法であって、
現場で複数の客体それぞれが発生するオーディオ信号に基づいて、オーディオファイルをそれぞれ生成する段階、
前記客体に対してそれぞれ設定される前記現場の空間的特徴を含むメタデータを生成する段階、および
前記客体の前記オーディオファイルと前記メタデータとを電子装置に送信する段階、
を含み、
前記電子装置は、
前記メタデータの前記空間的特徴に基づいて、前記オーディオファイルをレンダリングすることにより、前記現場の臨場感を実現する、
方法。
【請求項2】
前記オーディオファイルを生成する段階は、
前記客体それぞれに付着されるか、または、前記客体それぞれに隣接して設置されるマイクロホンによって、前記オーディオ信号を取得する段階、および、
前記オーディオ信号から前記オーディオファイルをそれぞれ生成する段階、
を含む、
請求項1に記載の方法。
【請求項3】
前記メタデータを生成する段階は、
グラフィックインタフェースを出力する段階、
前記グラフィックインタフェースによる少なくとも1つの入力に基づいて、前記客体に対して前記空間的特徴をそれぞれ設定する段階、および、
前記空間的特徴に基づいて、前記メタデータを生成する段階、
を含む、
請求項1に記載の方法。
【請求項4】
前記メタデータは、
前記客体それぞれの位置情報、
前記客体のうちの少なくとも2つの位置の組み合わせを示すグループ情報、または、
前記現場の環境情報、
のうちの少なくとも1つを含む、
請求項1に記載の方法。
【請求項5】
前記客体それぞれは、
楽器、楽器演奏者、ボーカリスト、対話者、スピーカ、または背景、
のうちの1つを含む、
請求項1に記載の方法。
【請求項6】
前記オーディオファイルおよび前記メタデータは、
製作ツールを備える電子機器で前記製作ツールを利用して生成され、
前記メタデータは、
前記電子装置で選択可能なプリセット形態で生成される、
請求項1に記載の方法。
【請求項7】
前記オーディオファイルと前記メタデータを前記電子装置に送信する段階は、
サーバが第1通信プロトコルを利用して、前記電子機器から前記オーディオファイルと前記メタデータを受信する段階、および、
前記サーバが第2通信プロトコルを利用して、前記電子装置に前記オーディオファイルと前記メタデータを送信する段階、
を含む、
請求項6に記載の方法。
【請求項8】
前記サーバは、
ライブストリーミングサーバである、
請求項7に記載の方法。
【請求項9】
前記電子装置は、
前記オーディオファイルと前記メタデータを受信し、
前記メタデータからプリセット情報を抽出し、
ユーザインタフェースによる少なくとも1つの入力に基づいて、前記プリセット情報によってオーディオファイルをレンダリングすることにより、前記現場の臨場感を実現する、
請求項3に記載の方法。
【請求項10】
前記電子装置は、
第1プリセット情報と第2プリセット情報を抽出し、
時間による前記第1プリセット情報から前記第2プリセット情報に切り換わるときに発生する音質歪曲指標を含むルックアップテーブル(Look-up table)を参照することで、前記第1プリセット情報から前記第2プリセット情報への切り換えを音質歪曲が最小化する地点に実行する、
請求項9に記載の方法。
【請求項11】
請求項1~10のうちのいずれか一項に記載の方法を前記コンピュータシステムに実行させる、コンピュータプログラム。
【請求項12】
請求項1~10のうちのいずれか一項に記載の方法を前記コンピュータシステムに実行させるためのプログラムが記録されている、非一時的なコンピュータ読み取り可能な記録媒体。
【請求項13】
コンピュータシステムであって、
現場で複数の客体それぞれが発生するオーディオ信号に基づいて、オーディオファイルをそれぞれ生成し、前記客体に対してそれぞれ設定される前記現場の空間的特徴を含むメタデータを生成するように構成される電子機器、および、
前記客体の前記オーディオファイルと前記メタデータとを電子装置に送信するように構成されるサーバ、
を含み、
前記電子装置は、
前記メタデータの前記空間的特徴に基づいて、前記オーディオファイルをレンダリングすることにより、前記現場の臨場感を実現する、
コンピュータシステム。
【請求項14】
前記電子機器は、
前記客体それぞれに付着されるか、または、前記客体それぞれに隣接して設置されるマイクロホンによって、前記オーディオ信号を取得し、
前記オーディオ信号から前記オーディオファイルをそれぞれ生成する、
ように構成される、
請求項13に記載のコンピュータシステム。
【請求項15】
前記電子機器は、
グラフィックインタフェースを出力し、
前記グラフィックインタフェースによる少なくとも1つの入力に基づいて、前記客体に対して前記空間的特徴をそれぞれ設定し、
前記空間的特徴に基づいて、前記メタデータを生成する、
ように構成される、
請求項13に記載のコンピュータシステム。
【請求項16】
前記メタデータは、
前記客体それぞれの位置情報、
前記客体のうちの少なくとも2つの位置の組み合わせを示すグループ情報、または、
前記現場の環境情報、
のうちの少なくとも1つを含む、
請求項13に記載のコンピュータシステム。
【請求項17】
前記客体それぞれは、
楽器、楽器演奏者、ボーカリスト、対話者、スピーカ、または背景、
のうちの1つを含む、
請求項13に記載のコンピュータシステム。
【請求項18】
前記電子機器は、
製作ツールを備え、前記製作ツールを利用して前記オーディオファイルと前記メタデータを生成し、前記メタデータを前記電子装置で選択可能なプリセット形態で生成する、
ように構成される、
請求項13に記載のコンピュータシステム。
【請求項19】
前記サーバは、
第1通信プロトコルを利用して、前記電子機器から前記オーディオファイルと前記メタデータとを受信し、
第2通信プロトコルを利用して、前記電子装置に前記オーディオファイルと前記メタデータとを送信する、
ように構成される、
請求項13に記載のコンピュータシステム。
【請求項20】
前記サーバは、
ライブストリーミングサーバである、
請求項13に記載のコンピュータシステム。
【請求項21】
前記電子装置は、
前記オーディオファイルと前記メタデータを受信し、
前記メタデータからプリセット情報を抽出し、
ユーザインタフェースを利用した少なくとも1つの入力に基づいて、前記プリセット情報によってオーディオファイルをレンダリングすることにより、前記現場の臨場感を実現する、
請求項13に記載のコンピュータシステム。
【請求項22】
前記電子装置は、
第1プリセット情報と第2プリセット情報とを抽出し、
時間による前記第1プリセット情報から前記第2プリセット情報に切り換わるときに発生する音質歪曲指標を含むルックアップテーブル(Look-up table)を参照することで、前記第1プリセット情報から前記第2プリセット情報への切り換わりを音質歪曲が最小化する地点に実行する、
請求項21に記載のコンピュータシステム。
【発明の詳細な説明】
【技術分野】
【0001】
多様な実施形態は、オーディオと関連してユーザカスタム型臨場感(being-there)を実現するためのコンピュータシステムおよびその方法に関する。
【背景技術】
【0002】
一般的に、コンテンツ提供サーバは、利用者のために完成形態のオーディオコンテンツを提供する。このとき、完成形態のオーディオコンテンツは、複数のオーディオ信号がミキシングされたものであって、例えば、ステレオ形態のオーディオコンテンツなどがある。これにより、利用者の電子装置は、完成形態のオーディオコンテンツを受信し、これを再生する。すなわち、利用者は、完成形態のオーディオコンテンツに基づいた、定められた構成の音響しか聞くことができない。
【発明の概要】
【発明が解決しようとする課題】
【0003】
多様な実施形態は、オーディオと関連してユーザカスタム型臨場感を実現するためのコンピュータシステムおよびその方法を提供する。
【課題を解決するための手段】
【0004】
多様な実施形態に係るコンピュータシステムによる方法は、現場で複数の客体それぞれが発生するオーディオ信号に基づいてオーディオファイルをそれぞれ生成する段階、前記空間内で前記客体に対してそれぞれ設定される空間的特徴を含むメタデータを生成する段階、および前記客体の前記オーディオファイルと前記メタデータを電子装置に送信する段階を含み、前記電子装置は、メタデータの前記空間的特徴に基づいて前記オーディオファイルをレンダリングすることにより、前記現場の臨場感を実現することができる。
【0005】
多様な実施形態に係る非一時的なコンピュータ読み取り可能な記録媒体に記録されるコンピュータプログラムは、前記方法を前記コンピュータシステムに実行させるためのものであってよい。
【0006】
多様な実施形態に係る非一時的なコンピュータ読み取り可能な記録媒体には、前記方法を前記コンピュータシステムに実行させるためのプログラムが記録されていてよい。
【0007】
多様な実施形態に係るコンピュータシステムは、現場で複数の客体それぞれが発生するオーディオ信号に基づいてオーディオファイルをそれぞれ生成し、前記空間内で前記客体に対してそれぞれ設定される空間的特徴を含むメタデータを生成するように構成される電子機器、および前記客体の前記オーディオファイルと前記メタデータを電子装置に送信するように構成されるサーバを含み、前記電子装置は、前記メタデータの前記空間的特徴に基づいて前記オーディオファイルをレンダリングすることにより、前記現場の臨場感を実現することができる。
【発明の効果】
【0008】
多様な実施形態によると、オーディオと関連してユーザカスタム型臨場感を実現するための立体音響実現技術を提案することができる。このとき、コンピュータシステムは、ある現場に位置する複数の客体のオーディオファイルをそれぞれ生成する。また、コンピュータシステムは、客体に対する現場の空間的特徴を含むメタデータを生成したり、オーディオファイルを変更したりする。このとき、コンピュータシステムは、創作者の設定に基づいて、客体の空間的特徴をそれぞれ生成する。これにより、電子装置は、単に完成形態のオーディオコンテンツを再生するのではなく、ユーザカスタム型のオーディオコンテンツを再生することができる。すなわち、電子装置は、メタデータの空間的特徴に基づいてオーディオファイルをレンダリングして立体音響を実現することができる。すなわち、電子装置は、オーディオファイルとメタデータを材料として活用し、オーディオと関連してユーザカスタム型臨場感を実現することができる。これにより、電子装置の利用者は、特定の現場で特定の客体から発生するオーディオ信号を直に聞くような、ユーザカスタム型臨場感を感じることができるようになる。
【図面の簡単な説明】
【0009】
【
図1】多様な実施形態における、コンテンツ提供システムを示したブロック図である。
【
図2】多様な実施形態における、コンテンツ提供システムの機能を説明するための例示図である。
【
図3】
図1および
図2のコンピュータシステムの構成を示したブロック図である。
【
図4a】
図4aは、
図3の電子機器が提供するグラフィックインタフェースを説明するための例示図である。
【
図4b】
図4bは、
図3の電子機器が提供するグラフィックインタフェースを説明するための例示図である。
【
図4c】
図4cは、
図1および
図2の電子装置が提供するユーザインタフェースを説明するための例示図である。
【
図5】多様な実施形態における、コンテンツ提供システムの信号の流れを示したフローチャートである。
【
図6】多様な実施形態における、電子機器(製作スタジオ)の内部構成を示したブロック図である。
【
図7】多様な実施形態における、電子機器の動作の流れを示したフローチャートである。
【
図8】多様な実施形態における、サーバの内部構成を示したブロック図である。
【
図9】多様な実施形態における、サーバの動作の流れを示したフローチャートである。
【
図10】多様な実施形態における、電子装置の内部構成を示したブロック図である。
【
図11】多様な実施形態における、電子装置の動作の流れを示したフローチャートである。
【発明を実施するための形態】
【0010】
以下、本文書の多様な実施形態について、添付の図面を参照しながら説明する。
【0011】
以下、客体(object)という用語は、オーディオ信号を発生させる機器または人物を示すものとする。例えば、客体は、楽器、楽器演奏者、ボーカリスト(vocalist)、対話者(talker)、伴奏や音響効果などを発生させるスピーカ、または背景音(ambience)を発生させる背景のうちの1つを含んでよい。また、オーディオファイル(audio file)という用語は、各客体から発生するオーディオ信号に対するオーディオデータを示すものとする。
【0012】
以下、メタデータという用語は、少なくとも1つのオーディオファイルと関連するオーディオ場面の属性を説明するための情報を示すものとする。このとき、オーディオ場面は、少なくとも1つの客体で構成されてよく、メタデータは、客体に対する少なくとも1つの空間的特徴を含んでよい。例えば、メタデータは、少なくとも1つの客体の位置情報、少なくとも2つの客体の位置の組み合わせを示すグループ情報、または少なくとも1つの客体が配置される現場(venue)の環境情報のうちの少なくとも1つを含んでよい。また、現場は、例えば、スタジオ(studio)、コンサートホール(concert hall)、ストリート(street)、スタジアム(stadium)などを含んでよい。
【0013】
図1は、多様な実施形態における、コンテンツ提供システム100を示したブロック図であり、
図2は、多様な実施形態における、コンテンツ提供システム100の機能を説明するための例示図である。
【0014】
図1を参照すると、多様な実施形態に係るコンテンツ提供システム100は、コンピュータシステム110と電子装置150を含んでよい。例えば、電子装置150は、スマートフォン(smart phone)、携帯電話、ナビゲーション、PC、ノート型PC、デジタル放送用端末、PDA(personal digital assistants)、PMP(portable multimedia player)、タブレット、ゲームコンソール(game console)、ウェアラブルデバイス(wearable device)、IoT(internet of things)デバイス、家電機器、医療機器、またはロボット(robot)のうちの少なくとも1つを含んでよい。
【0015】
コンピュータシステム110は、利用者のためにコンテンツを提供してよい。このとき、コンテンツは、オーディオコンテンツ、ビデオコンテンツ、バーチャルリアリティ(virtual reality、VR)コンテンツ、拡張現実(augmented reality、AR)コンテンツ、エクステンデッド・リアリティ(extended reality、XR)コンテンツなどの多様な形態のコンテンツであってよい。また、コンテンツは、プレーン(plain)コンテンツまたはイマーシブ(immersive)コンテンツのうちの少なくとも1つを含んでよい。プレーンコンテンツが完成形態のコンテンツであることに対し、イマーシブコンテンツはユーザカスタムコンテンツであってよい。以下、オーディオコンテンツを例に挙げて説明する。
【0016】
プレーンオーディオコンテンツは、複数の客体から発生するオーディオ信号がミキシングされてステレオ形態で実現されてよい。例えば、コンピュータシステム110は、
図2に示すように、現場でオーディオ信号がミキシングされたオーディオ信号を取得し、これに基づいてプレーンオーディオコンテンツを生成してよい。この反面、イマーシブオーディオコンテンツは、現場で複数の客体から発生するオーディオ信号に対するオーディオファイルと、これに対するメタデータとで構成されてよい。このとき、イマーシブオーディオコンテンツ内において、オーディオファイルとこれに対するメタデータは個別に存在してよい。例えば、コンピュータシステム110は、
図2に示すように、複数の客体に対するオーディオファイルをそれぞれ取得し、これに基づいてイマーシブオーディオコンテンツを生成してよい。
【0017】
電子装置150は、コンピュータシステム110から提供されるコンテンツを再生してよい。このとき、コンテンツは、オーディオコンテンツ、ビデオコンテンツ、バーチャルリアリティ(VR)コンテンツ、拡張現実(AR)コンテンツ、エクステンデッド・リアリティ(XR)コンテンツなどの多様な形態のコンテンツであってよい。また、コンテンツは、プレーン(plain)コンテンツまたはイマーシブ(immersive)コンテンツのうちの少なくとも1つを含んでよい。
【0018】
コンピュータシステム110からイマーシブオーディオコンテンツが受信されれば、電子装置150は、イマーシブオーディオコンテンツから、オーディオファイルとこれに対するメタデータをそれぞれ取得してよい。この後、電子装置150は、メタデータに基づいてオーディオファイルのうちの少なくとも1つをレンダリングしてよい。これにより、電子装置150は、イマーシブオーディオコンテンツに基づいて、オーディオと関連するユーザカスタム型臨場感を実現することができる。したがって、利用者は、少なくとも1つの客体が配置される現場において、該当の客体から発生するオーディオ信号を直に聞くような、臨場感を感じることができるようになる。
【0019】
図3は、
図1および
図2のコンピュータシステム110の構成を示したブロック図であり、
図4aおよび
図4bは、
図3の電子機器310が提供するグラフィックインタフェースを説明するための例示図であり、
図4cは、
図1および
図2の電子装置150が提供するユーザインタフェースを説明するための例示図である。
【0020】
図3を参照すると、多様な実施形態に係るコンピュータシステム110は、電子機器(製作スタジオと指称されてもよい)310またはサーバ330のうちの少なくとも1つを含んでよい。一実施形態によると、コンピュータシステム110の構成要素のうちの少なくとも1つが省略されてもよいし、少なくとも1つの他の構成要素が追加されてもよい。一実施形態によると、コンピュータシステム110の構成要素のうちの少なくとも2つが1つに統合されて実現されてもよい。一実施形態によると、電子機器310とサーバ330は、1つに統合されて実現されてもよい。例えば、電子機器310は、オーディオコンソール、ダンテ(dante)のようなオーディオインタフェースなどの多様なハードウェアを備える機器であって、スマートフォン、携帯電話、ナビゲーション、PC、ノート型PC、デジタル放送用端末、PDA、PMP、タブレット、ゲームコンソール、ウェアラブルデバイス、IoTデバイス、家電機器、医療機器、またはロボットのうちの少なくとも1つを含んでよい。
【0021】
電子機器310は、複数の客体に対するオーディオファイルと、これに対するメタデータを生成してよい。このために、電子機器310は、ある現場の客体それぞれが発生するオーディオ信号を取得してよい。このとき、電子機器310は、各客体に直接的に付着されるか各客体に隣接して設置されるマイクロホン(microphone)によって各オーディオ信号を取得してよい。この後、電子機器310は、オーディオ信号を利用してオーディオファイルをそれぞれ生成してよい。さらに、電子機器310は、オーディオファイルに対するメタデータを生成してよい。このために、電子機器310は、客体に対して現場の空間的特徴をそれぞれ設定してよい。ここで、電子機器310は、各客体の直接的な位置や各客体のためのマイクロホンの位置を利用して、各客体の位置情報または少なくとも2つの客体の位置の組み合わせを示すグループ情報のうちの少なくとも1つを設定してよい。追加で、電子機器310は、カメラ(camera)によって各客体の直接的な位置を認識してもよい。さらに、電子機器310は、客体が配置された現場の環境情報を設定してよい。
【0022】
例えば、電子機器310は、
図4aまたは
図4bに示すように、グラフィックインタフェース(graphic interface)を利用した創作者の入力に基づいて客体の空間的特徴を設定してよい。ここで、電子機器310は、グラフィックインタフェースを直接提供してもよいし、創作者の他の電子機器(図示せず)にグラフィックインタフェースを提供してもよい。電子機器310は、ある現場に対して客体をそれぞれ選択し、客体と関連する空間的特徴、すなわち、位置情報、グループ情報、または環境情報のうちの少なくとも1つを設定してよい。このとき、電子機器310は、創作者の入力に基づいて各客体の位置を設定し、各客体の位置またはオーディオ効果のうちの少なくとも1つを微調整してよい。ここで、オーディオ効果とは、該当の空間内の客体と聴者の位置関係を示してよい。例えば、オーディオ効果は、聴者の位置に対する、客体の位置の方位角(azimuth)、高度(elevation)、距離(distance)、BES、ゲイン(gain)などを含んでよい。本文書では、方位角、高度、距離によって客体の位置を表現したが、客体の位置を示すことが可能な表現方式が特定の座標系に限定されてはならない。これにより、電子機器310は、該当の客体の位置とオーディオ効果に基づいて該当の客体の空間的特徴を設定してよい。一例として、電子機器310は、
図4aに示すように、グラフィックインタフェースを利用して3人のボーカリストそれぞれを客体として選択し、これによってメタデータのための空間的特徴を設定してよい。ここで、電子機器310は、コンサートホール内の観客席の1列目を利用者の仮想位置としてさらに選択してよい。また、電子機器310は、コンサートホールを現場として設定してよい。他の例として、電子機器310は、
図4bに示すように、グラフィックインタフェースを利用してキーボード、ドラム、ギター、ベース、およびボーカリストそれぞれを客体として選択し、これによってメタデータのための空間的特徴を設定してよい。ここで、電子機器310は、ストリート舞台内の一ポイント(point)を利用者の仮想位置として選択してよい。また、電子機器310は、ストリートを現場として設定してよい。
【0023】
この後、電子機器310は、客体の空間的特徴に基づいてメタデータを生成してよい。このとき、電子機器310は、客体の空間的特徴を組み合わせて電子装置150で選択可能なプリセットを生成してよい。例えば、電子機器310は、ある現場の環境情報とある客体の位置情報、およびオーディオ効果を組み合わせてプリセットを生成してよい。ここで、プリセットそれぞれは、音場(Audio Scene)情報と指称されてよい。例えば、プリセットは、利用者の位置が舞台の中心であるときの音場、利用者の位置が観客席の1列目であるときの音場、ボーカリストが強調された音場、楽器が強調された音場、現場音が強調された音場、弦楽器が動的に動く音場などをそれぞれ示してよい。
【0024】
サーバ330は、オーディオファイルとこれに対するメタデータを電子装置150に送信してよい。具体的に、サーバ330は、オーディオファイルとこれに対するメタデータとして、予め定められたフォーマットのイマーシブオーディオコンテンツを生成してよい。このとき、イマーシブオーディオコンテンツ内において、オーディオファイルとこれに対するメタデータは個別に存在してよい。この後、サーバ330は、イマーシブオーディオコンテンツを電子装置150に送信してよい。ここで、サーバ330は、ライブストリーミング(live streaming)サーバであってよい。
【0025】
これにより、電子装置150は、メタデータに基づいてオーディオファイルをレンダリングしてよい。例えば、電子装置150は、
図4cに示すように、ユーザインタフェース(user interface、UI)を利用した利用者の入力に基づいて、プリセットのうちから1つを選択してよい。すなわち、電子装置150は、多数のプリセットそれぞれの音場情報を表示し、利用者の入力に基づいてプリセットのうちから1つを選択してよい。これにより、電子装置150は、選択されたプリセットに基づいて、客体の空間的特徴を利用してオーディオファイルをレンダリングしてよい。一例として、電子装置150は、第1プリセット情報と第2プリセット情報を抽出し、時間による第1プリセット情報から第2プリセット情報に切り換わるときに発生する音質歪曲指標を含むルックアップテーブル(Look-up table)を参照することで、第1プリセット情報から第2プリセット情報への切り換えを音質歪曲が最小化する地点に実行してよい。ここで、ルックアップテーブルは、電子機器310、サーバ330または電子装置150のうちの少なくとも1つで生成されてよい。これにより、電子装置150は、該当の現場に対するユーザカスタム型臨場感を実現することができる。
【0026】
一実施形態において、サーバ330は、電子装置150が再生可能なフォーマットに事前レンダリングした信号を送信してもよい。例えば、電子装置150が、メタデータに基づいてオーディオファイルをレンダリングすることができない場合、サーバ330は、このような電子装置150のために事前レンダリングした信号を送信してよい。再生可能なフォーマットは、ヘッドホン、ステレオスピーカ、マルチチャンネルスピーカ、またはサウンドバーのうちの1つを含んでよい。
図4cに示すように、利用者がリアルタイムでプリセットを選択するための機能を提供する場合、プリセットごとに事前レンダリングが実行されてよい。
【0027】
図5は、多様な実施形態における、コンテンツ提供システム100の信号の流れを示したフローチャートである。
【0028】
図5を参照すると、段階510で、電子機器(製作スタジオ)310は、ある現場に位置する複数の客体のオーディオ信号を取得してよい。すなわち、電子機器310は、現場でそれぞれの客体から発生するオーディオ信号を取得してよい。このとき、電子機器310は、各客体に直接的に付着されるか各客体に隣接して設置されるマイクロホンによって各オーディオ信号を取得してよい。
【0029】
次に、段階520で、電子機器310は、客体のオーディオファイルをそれぞれ生成してよい。電子機器310は、客体のオーディオ信号からオーディオファイルをそれぞれ生成してよい。この後、段階530で、電子機器310は、客体の現場の空間的特徴を含むメタデータを生成してよい。このとき、電子機器310は、客体に対して現場の空間的特徴をそれぞれ設定してよい。例えば、電子機器310は、グラフィックインタフェースを利用した創作者の入力に基づいて、客体の空間的特徴を設定してよい。これにより、電子機器310は、客体の空間的特徴に基づいてメタデータを生成してよい。
【0030】
次に、段階540で、電子機器310は、サーバ330にオーディオファイルとメタデータを送信してよい。このとき、電子機器310は、オーディオファイルとメタデータを圧縮および暗号化して送信してよい。この後、段階550で、サーバ330は、電子装置150にオーディオファイルとメタデータを送信してよい。
【0031】
これにより、段階560で、電子装置150は、メタデータに基づいて、オーディオファイルのうちの少なくとも1つをレンダリングしてよい。このとき、電子装置150は、メタデータに基づいて、現場の客体のうちの少なくとも1つを選択してよい。例えば、電子装置150は、ユーザインタフェースを利用した利用者入力に基づいて、客体のうちの少なくとも1つを選択してよい。これにより、電子装置150は、メタデータによって選択された客体の空間的特徴に基づいて、選択された客体のオーディオファイルをレンダリングしてよい。これにより、電子装置150は、該当の現場に対するユーザカスタム型臨場感を実現することができる。したがって、利用者は、少なくとも1つの客体が配置される現場において、該当の客体から発生するオーディオ信号を直に聞くように、ユーザカスタム型臨場感を感じることができるようになる。
【0032】
図6は、多様な実施形態における、電子機器310の内部構成を示したブロック図である。
【0033】
図6を参照すると、多様な実施形態に係る電子機器(製作スタジオ)310は、連結端子610、通信モジュール620、入力モジュール630、表示モジュール640、オーディオモジュール650、メモリ660、またはプロセッサ670のうちの少なくとも1つを含んでよい。一実施形態によると、電子機器310の構成要素のうちの少なくともいずれか1つが省略されてもよいし、少なくとも1つの他の構成要素が追加されてもよい。一実施形態によると、電子機器310の構成要素のうちの少なくともいずれか2つが、1つの統合された回路で実現されてもよい。
【0034】
連結端子610は、電子機器310で外部装置と物理的に連結されてよい。例えば、外部装置は、他の電子機器を含んでよい。このために、連結端子610は、少なくとも1つのコネクタを含んでよい。例えば、コネクタは、HDMIコネクタ、USBコネクタ、SDカードコネクタ、またはオーディオコネクタのうちの少なくともいずれか1つを含んでよい。
【0035】
通信モジュール620は、電子機器310で外部装置との通信を実行してよい。通信モジュール620は、電子機器310と外部装置との間に通信チャンネルを樹立し、通信チャンネルを介して外部装置との通信を実行してよい。例えば、外部装置は、サーバ330または電子装置150のうちの少なくとも1つを含んでよい。通信モジュール620は、有線通信モジュールまたは無線通信モジュールのうちの少なくとも1つを含んでよい。有線通信モジュールは、連結端子610を介して外部装置と有線で連結し、外部装置と有線で通信してよい。無線通信モジュールは、近距離通信モジュールまたは遠距離通信モジュールのうちの少なくともいずれか1つを含んでよい。近距離通信モジュールは、外部装置と近距離通信方式で通信してよい。例えば、近距離通信方式は、ブルートゥース(登録商標)(Bluetooth)、Wi-Fi(登録商標)ダイレクト(Wi-Fi direct)、または赤外線通信(IrDA、infrared data association)のうちの少なくともいずれか1つを含んでよい。遠距離通信モジュールは、外部装置と遠距離通信方式で通信してよい。ここで、遠距離通信モジュールは、ネットワークを介して外部装置と通信してよい。例えば、ネットワークは、セルラネットワーク、インターネット、またはLAN(local area network)やWAN(wide area network)のようなコンピュータネットワークのうちの少なくともいずれか1つを含んでよい。
【0036】
入力モジュール630は、電子機器310の少なくとも1つの構成要素が使用する信号を入力してよい。入力モジュール630は、利用者が電子機器310に信号を直接入力するように構成される入力装置、周辺環境を感知して信号が発生するように構成されるセンサ装置、または画像を撮影して画像データを生成するように構成されるカメラモジュールのうちの少なくともいずれか1つを含んでよい。例えば、入力装置は、マイクロホン(microphone)、マウス(mouse)、またはキーボード(keyboard)のうちの少なくともいずれか1つを含んでよい。一実施形態によると、センサ装置は、タッチを感知するように設定されたタッチ回路(touchcir cuitry)、またはタッチによって発生する力の強度を測定するように設定されたセンサ回路のうちの少なくともいずれか1つを含んでよい。
【0037】
表示モジュール640は、情報を視覚的に表示してよい。例えば、表示モジュール640は、ディスプレイ、ホログラム装置、またはプロジェクタのうちの少なくともいずれか1つを含んでよい。一例として、表示モジュール640は、入力モジュール630のタッチ回路またはセンサ回路のうちの少なくともいずれか1つと組み立てられてタッチスクリーンとして実現されてよい。
【0038】
オーディオモジュール650は、情報を聴覚的に再生してよい。例えば、オーディオモジュール650は、スピーカ、レシーバ、イヤホン、またはヘッドホンのうちの少なくともいずれか1つを含んでよい。
【0039】
メモリ660は、電子機器310の少なくとも1つの構成要素が使用する多様なデータを記録してよい。例えば、メモリ660は、揮発性メモリまたは不揮発性メモリのうちの少なくともいずれか1つを含んでよい。データは、少なくとも1つのプログラム、およびこれと関連する入力データまたは出力データを含んでよい。プログラムは、メモリ660に少なくとも1つの命令を含むソフトウェアとして記録されてよい。メモリ660は、オーディオファイルとこれに対するメタデータを生成するための製作ツールを記録してよい。
【0040】
プロセッサ670は、メモリ660のプログラムを実行し、電子機器310の少なくとも1つの構成要素を制御してよい。これにより、プロセッサ670は、データ処理または演算を実行してよい。このとき、プロセッサ670は、メモリ660に記録された命令を実行してよい。プロセッサ670は、ある現場に位置する客体それぞれが発生するオーディオ信号に基づいてオーディオファイルをそれぞれ生成してよい。この後、プロセッサ670は、製作ツールを利用して、客体に対してそれぞれ設定される現場の空間的特徴を含むメタデータを生成してよい。また、プロセッサ670は、通信モジュール620により、客体のオーディオファイルおよびメタデータを送信してよい。このとき、プロセッサ670は、第1通信プロトコル、例えば、リアルタイムメッセージングプロトコル(real time messaging protocol、RTMP)を利用して、オーディオファイルとメタデータをサーバ330に送信してよい。
【0041】
図7は、多様な実施形態における、電子機器310の動作の流れを示したフローチャートである。
【0042】
図7を参照すると、段階710で、電子機器310は、ある現場に位置する複数の客体のオーディオ信号を取得してよい。すなわち、プロセッサ670は、現場で客体それぞれが発生するオーディオ信号を取得してよい。このとき、プロセッサ670は、各客体に直接的に付着されるか各客体に隣接して設置されるマイクロホンによって各オーディオ信号を取得してよい。この後、段階720で、電子機器310は、オーディオ信号からオーディオファイルをそれぞれ生成してよい。プロセッサ670は、客体のオーディオ信号からオーディオファイルをそれぞれ生成してよい。
【0043】
次に、段階730で、電子機器310は、客体に対して現場の空間的特徴をそれぞれ設定してよい。このとき、プロセッサ670は、グラフィックインタフェースを利用した創作者の入力に基づいて客体の空間的特徴を設定してよい。具体的に、プロセッサ670は、創作者のためにグラフィックインタフェースを出力してよい。一例として、プロセッサ670は、通信モジュール620により、外部装置にグラフィックインタフェースを出力してよい。他の例として、プロセッサ670は、表示モジュール640により、グラフィックインタフェースを出力してよい。この後、プロセッサ670は、グラフィックインタフェースを利用した少なくとも1つの創作者の入力に基づいて、客体に対して空間的特徴をそれぞれ設定してよい。一例として、プロセッサ670は、通信モジュール620により、外部装置から創作者の入力を受信してよい。他の例として、プロセッサ670は、入力モジュール630により、創作者の入力を感知してよい。
【0044】
例えば、プロセッサ670は、
図4aと
図4bに示すように、グラフィックインタフェースを利用した創作者の入力に基づいて、客体の空間的特徴を設定してよい。プロセッサ670は、ある現場に対して客体をそれぞれ選択し、客体と関連する空間的特徴、すなわち、位置情報、グループ情報、または環境情報のうちの少なくとも1つを設定してよい。このとき、プロセッサ670は、創作者の入力に基づいて各客体に対して位置を設定し、各客体の位置またはオーディオ効果のうちの少なくとも1つを微調整してよい。ここで、オーディオ効果とは、該当の空間内の客体と聴者の位置関係を示してよい。例えば、オーディオ効果は、聴者の位置に対して、客体の位置の方位角(azimuth)、高度(elevation)、距離(distance)、BES、ゲイン(gain)などを含んでよい。本文書では、方位角、高度、距離によって客体の位置を表現したが、客体の位置を示すことが可能な表現方式が特定の座標系に限定されてはならない。これにより、プロセッサ670は、該当の客体の位置とオーディオ効果に基づいて該当の客体の空間的特徴を設定してよい。
【0045】
上述では、段階710と段階720が実行された後に段階730が実行されることを説明しているが、これに限定されてはならない。すなわち、段階730が実行された後に段階710と段階720が実行されることも可能である。
【0046】
次に、段階740で、電子機器310は、客体の空間的特徴に基づいてメタデータを生成してよい。このとき、プロセッサ670は、客体の空間的特徴を組み合わせて電子装置150で選択可能なプリセットを生成してよい。例えば、プロセッサ670は、ある現場の環境情報とある客体の位置情報、およびオーディオ効果を組み合わせてプリセットを生成してよい。ここで、プリセットそれぞれは、音場(AudioScene)情報と指称されてよい。例えば、プリセットは、利用者の位置が舞台の中心であるときの音場、利用者の位置が観客席の1列目であるときの音場、ボーカリストが強調された音場、楽器が強調された音場、現場音が強調された音場、弦楽器が動的に動く音場などをそれぞれ示してよい。
【0047】
次に、段階750で、電子機器310は、オーディオファイルとメタデータを送信してよい。プロセッサ670は、通信モジュール620により、サーバ330にオーディオファイルとメタデータを送信してよい。このとき、プロセッサ670は、第1通信プロトコル、例えば、リアルタイムメッセージングプロトコル(RTMP)を利用して、オーディオファイルとメタデータを送信してよい。
【0048】
図8は、多様な実施形態における、サーバ330の内部構成を示したブロック図である。
【0049】
図8を参照すると、多様な実施形態に係るサーバ330は、通信モジュール810、メモリ820、またはプロセッサ830のうちの少なくとも1つを含んでよい。一実施形態によると、サーバ330の構成要素のうちの少なくともいずれか1つが省略されてもよいし、少なくとも1つの他の構成要素が追加されてもよい。一実施形態によると、サーバ330の構成要素のうちの少なくともいずれか2つが、1つの統合された回路で実現されてよい。
【0050】
通信モジュール810は、サーバ330で外部装置との通信を実行してよい。通信モジュール810は、サーバ330と外部装置との間に通信チャンネルを樹立し、通信チャンネルを介して外部装置との通信を実行してよい。例えば、外部装置は、電子機器(製作スタジオ)310または電子装置150のうちの少なくとも1つを含んでよい。通信モジュール810は、有線通信モジュールまたは無線通信モジュールのうちの少なくとも1つを含んでよい。有線通信モジュールは、外部装置と有線で連結され、有線で通信してよい。無線通信モジュールは、近距離通信モジュールまたは遠距離通信モジュールのうちの少なくともいずれか1つを含んでよい。近距離通信モジュールは、外部装置と近距離通信方式で通信してよい。例えば、近距離通信方式は、ブルートゥース、Wi-Fiダイレクト、または赤外線通信のうちの少なくともいずれか1つを含んでよい。遠距離通信モジュールは、外部装置と遠距離通信方式で通信してよい。ここで、遠距離通信モジュールは、ネットワークを介して外部装置と通信してよい。例えば、ネットワークは、セルラネットワーク、インターネット、またはLANやWANのようなコンピュータネットワークのうちの少なくともいずれか1つを含んでよい。
【0051】
メモリ820は、サーバ330の少なくとも1つの構成要素が使用する多様なデータを記録してよい。例えば、メモリ820は、揮発性メモリまたは不揮発性メモリのうちの少なくともいずれか1つを含んでよい。データは、少なくとも1つのプログラム、およびこれと関連する入力データまたは出力データを含んでよい。プログラムは、メモリ820に少なくとも1つの命令を含むソフトウェアとして記録されてよい。
【0052】
プロセッサ830は、メモリ820のプログラムを実行し、サーバ330の少なくとも1つの構成要素を制御してよい。これにより、プロセッサ830は、データ処理または演算を実行してよい。このとき、プロセッサ830は、メモリ820に記録された命令を実行してよい。プロセッサ830は、通信モジュール810により、電子機器310から、ある現場に位置する客体のオーディオファイルとメタデータを受信してよい。このとき、プロセッサ830は、第1通信プロトコル、例えば、リアルタイムメッセージングプロトコル(RTMP)を利用して、オーディオファイルとメタデータを受信してよい。また、プロセッサ830は、通信モジュール810により、電子装置150に、ある現場に位置する客体のオーディオファイルとメタデータを送信してよい。このとき、プロセッサ830は、第2通信プロトコル、例えば、HTTPライブストリーミング(HTTP live streaming、HLS)を利用して、オーディオファイルとメタデータを送信してよい。
【0053】
図9は、多様な実施形態における、サーバ330の動作の流れを示したフローチャートである。
【0054】
図9を参照すると、段階910で、サーバ330は、オーディオファイルとメタデータを受信してよい。プロセッサ830は、通信モジュール810により、電子機器310から、ある現場に位置する客体のオーディオファイルとメタデータを受信してよい。このとき、プロセッサ830は、第1通信プロトコル、例えば、リアルタイムメッセージングプロトコル(RTMP)を利用して、オーディオファイルとメタデータを受信してよい。
【0055】
次に、段階920で、サーバ330は、オーディオファイルとメタデータを送信してよい。プロセッサ830は、通信モジュール810により、電子装置150に、ある現場に位置する客体のオーディオファイルとメタデータを送信してよい。このとき、プロセッサ830は、第2通信プロトコル、例えば、HTTPライブストリーミング(HLS)を利用して、オーディオファイルとメタデータを送信してよい。
【0056】
一実施形態において、サーバ330は、電子装置150が再生可能なフォーマットに事前レンダリングした信号を送信してもよい。例えば、電子装置150が、メタデータに基づいてオーディオファイルをレンダリングすることができない場合、サーバ330は、このような電子装置150のために事前レンダリングした信号を送信してよい。再生可能なフォーマットは、ヘッドホン、ステレオスピーカ、マルチチャンネルスピーカ、またはサウンドバーのうちの1つを含んでよい。
図4cに示すように、利用者がリアルタイムでプリセットを選択するための機能を提供する場合、プリセットごとに事前レンダリングが実行されてよい。
【0057】
図10は、多様な実施形態における、電子装置150の内部構成を示したブロック図である。
【0058】
図10を参照すると、多様な実施形態に係る電子装置150は、連結端子1010、通信モジュール1020、入力モジュール1030、表示モジュール1040、オーディオモジュール1050、メモリ1060、またはプロセッサ1070のうちの少なくとも1つを含んでよい。一実施形態によると、電子装置150の構成要素のうちの少なくともいずれか1つが省略されてもよいし、少なくとも1つの他の構成要素が追加されてもよい。一実施形態によると、電子装置150の構成要素のうちの少なくともいずれか2つが、1つの統合された回路で実現されてもよい。
【0059】
連結端子1010は、電子装置150で外部装置と物理的に連結されてよい。例えば、外部装置は、他の電子装置を含んでよい。このために、連結端子1010は、少なくとも1つのコネクタを含んでよい。例えば、コネクタは、HDMIコネクタ、USBコネクタ、SDカードコネクタ、またはオーディオコネクタのうちの少なくともいずれか1つを含んでよい。
【0060】
通信モジュール1020は、電子装置150で外部装置との通信を実行してよい。通信モジュール1020は、電子装置150と外部装置との間に通信チャンネルを樹立し、通信チャンネルを介して外部装置との通信を実行してよい。例えば、外部装置は、電子機器310またはサーバ330のうちの少なくとも1つを含んでよい。通信モジュール1020は、有線通信モジュールまたは無線通信モジュールのうちの少なくとも1つを含んでよい。有線通信モジュールは、連結端子1010を介して外部装置と有線で連結され、有線で通信してよい。無線通信モジュールは、近距離通信モジュールまたは遠距離通信モジュールのうちの少なくともいずれか1つを含んでよい。近距離通信モジュールは、外部装置と近距離通信方式で通信してよい。例えば、近距離通信方式は、ブルートゥース、Wi-Fiダイレクト、または赤外線通信のうちの少なくともいずれか1つを含んでよい。遠距離通信モジュールは、外部装置と遠距離通信方式で通信してよい。ここで、遠距離通信モジュールは、ネットワークを介して外部装置と通信してよい。例えば、ネットワークは、セルラネットワーク、インターネット、またはLANやWANのようなコンピュータネットワークのうちの少なくともいずれか1つを含んでよい。
【0061】
入力モジュール1030は、電子装置150の少なくとも1つの構成要素が使用する信号を入力してよい。入力モジュール1030は、利用者が電子装置150に信号を直接入力するように構成される入力装置、周辺環境を感知して信号を発生するように構成されるセンサ装置、または画像を撮影して画像データを生成するように構成されるカメラモジュールのうちの少なくともいずれか1つを含んでよい。例えば、入力装置は、マイクロホン(microphone)、マウス(mouse)、またはキーボード(keyboard)のうちの少なくともいずれか1つを含んでよい。一実施形態において、センサ装置は、ヘッドトラッキング(head tracking)センサ、ヘッドマウントディスプレイ(head-mounted display、HMD)コントローラ、タッチを感知するように設定されたタッチ回路(touch circuitry)、またはタッチによって発生する力の強度を測定するように設定されたセンサ回路のうちの少なくともいずれか1つを含んでよい。
【0062】
表示モジュール1040は、情報を視覚的に表示してよい。例えば、表示モジュール1040は、ディスプレイ、ヘッドマウントディスプレイ(HMD)、ホログラム装置、またはプロジェクタのうちの少なくともいずれか1つを含んでよい。一例として、表示モジュール1040は、入力モジュール1030のタッチ回路またはセンサ回路のうちの少なくともいずれか1つと組み立てられてタッチスクリーンとして実現されてよい。
【0063】
オーディオモジュール1050は、情報を聴覚的に再生してよい。例えば、オーディオモジュール1050は、スピーカ、レシーバ、イヤホン、またはヘッドホンのうちの少なくともいずれか1つを含んでよい。
【0064】
メモリ1060は、電子装置150の少なくとも1つの構成要素が使用する多様なデータを記録してよい。例えば、メモリ1060は、揮発性メモリまたは不揮発性メモリのうちの少なくともいずれか1つを含んでよい。データは、少なくとも1つのプログラム、およびこれと関連する入力データまたは出力データを含んでよい。プログラムは、メモリ1060に少なくとも1つの命令を含むソフトウェアとして記録されてよく、例えば、オペレーティングシステム、ミドルウェア、またはアプリケーションのうちの少なくともいずれか1つを含んでよい。
【0065】
プロセッサ1070は、メモリ1060のプログラムを実行し、電子装置150の少なくとも1つの構成要素を制御してよい。これにより、プロセッサ1070は、データ処理または演算を実行してよい。このとき、プロセッサ1070は、メモリ1060に記録された命令を実行してよい。プロセッサ1070は、コンピュータシステム110から提供されるコンテンツを再生してよい。プロセッサ1070は、表示モジュール1040により、ビデオコンテンツを再生してよく、オーディオモジュール1050により、プレーンオーディオコンテンツまたはイマーシブオーディオコンテンツのうちの少なくとも1つを再生してよい。
【0066】
プロセッサ1070は、通信モジュール1020により、サーバ330から、ある現場に位置する客体のオーディオファイルとメタデータを受信してよい。このとき、プロセッサ1070は、第2通信プロトコル、例えば、HTTPライブストリーミング(HLS)を利用して、オーディオファイルとメタデータを受信してよい。また、プロセッサ1070は、メタデータに基づいてオーディオファイルをレンダリングしてよい。これにより、プロセッサ1070は、メタデータの客体の空間的特徴に基づいてオーディオファイルをレンダリングしてよい。
【0067】
図11は、多様な実施形態における、電子装置150の動作の流れを示したフローチャートである。
【0068】
図11を参照すると、段階1110で、電子装置150は、オーディオファイルとメタデータを受信してよい。プロセッサ1070は、通信モジュール1020により、サーバ330から、ある現場に位置する客体に対するオーディオファイルとメタデータを受信してよい。このとき、プロセッサ1070は、第2通信プロトコル、例えば、HTTPライブストリーミング(HLS)を利用して、オーディオファイルとメタデータを受信してよい。
【0069】
次に、段階1120で、電子装置150は、メタデータに基づいて客体のうちの少なくとも1つを選択してよい。このとき、プロセッサ1070は、ユーザインタフェースを利用した利用者の入力に基づいて、客体のうちの少なくとも1つを選択してよい。より具体的に説明すると、プロセッサ1070は、利用者のためにユーザインタフェースを出力してよい。一例として、プロセッサ1070は、通信モジュール1020により、外部装置でユーザインタフェースを出力してよい。他の例として、プロセッサ1070は、表示モジュール1040により、ユーザインタフェースを出力してよい。この後、プロセッサ1070は、ユーザインタフェースを利用した少なくとも1つの利用者の入力に基づいて、客体のうちの少なくとも1つを選択してよい。
【0070】
次に、段階1120で、電子装置150は、メタデータに基づいてオーディオファイルをレンダリングしてよい。プロセッサ1070は、メタデータの客体の空間的特徴に基づいてオーディオファイルをレンダリングしてよい。例えば、プロセッサ1070は、
図4cに示すように、ユーザインタフェース(UI)を利用した利用者の入力に基づいて、プリセットのうちの1つを選択してよい。すなわち、プロセッサ1070は、多数のプリセットを表示し、利用者の入力に基づいてプリセットのうちの1つを選択してよい。これにより、プロセッサ1070は、選択されたプリセットに基づいて、客体の空間的特徴を利用してオーディオファイルをレンダリングしてよい。プロセッサ1070は、客体の空間的特徴を客体のオーディオファイルに適用し、オーディオモジュール1050によって最終的なオーディオ信号を再生してよい。一例として、電子装置150は、第1プリセット情報と第2プリセット情報を抽出し、時間による第1プリセット情報から第2プリセット情報に切り換わるときに発生する音質歪曲指標を含むルックアップテーブルを参照することで、第1プリセット情報から第2プリセット情報への切り換えを音質歪曲が最小化する地点に実行してよい。ここで、ルックアップテーブルは、電子機器310、サーバ330、または電子装置150のうちの少なくとも1つで生成されてよい。これにより、電子装置150は、該当の現場に対するユーザカスタム型臨場感を実現することができる。
【0071】
したがって、電子装置150の利用者は、客体が配置される現場内において、該当の客体から発生するオーディオ信号を直に聞くように、ユーザカスタム型臨場感を感じることができるようになる。
【0072】
多様な実施形態によると、オーディオと関連してユーザカスタム型臨場感を実現するための立体音響実現技術が提案されてよい。このとき、コンピュータシステムは、ある現場に位置する複数の客体のオーディオファイルをそれぞれ生成してよい。この後、コンピュータシステムは、客体に対して現場の空間的特徴を含むメタデータを生成してよい。このとき、コンピュータシステム110は、創作者の設定に基づいて、客体に対して空間的特徴をそれぞれ生成してよい。これにより、電子装置150は、単に完成形態のオーディオコンテンツを再生するのではなく、ユーザカスタム型オーディオコンテンツを再生することができる。すなわち、電子装置は、メタデータの空間的特徴に基づいてオーディオファイルをレンダリングして立体音響を実現することができる。すなわち、電子装置150は、オーディオファイルとメタデータを材料として活用し、オーディオと関連するユーザカスタム型臨場感を実現することができる。これにより、電子装置の利用者は、特定の現場で特定の客体から発生するオーディオ信号を直に聞くように、ユーザカスタム型臨場感を感じることができるようになる。
【0073】
多様な実施形態に係るコンピュータシステム110による方法は、現場で複数の客体それぞれが発生するオーディオ信号に基づいてオーディオファイルをそれぞれ生成する段階(段階520、段階720段階)、客体に対してそれぞれ設定される現場の空間的特徴を含むメタデータを生成する段階(段階530、段階740段階)、客体のオーディオファイルとメタデータを電子装置150に送信する段階(段階540、段階550、段階750)を含んでよい。
【0074】
多様な実施形態によると、電子装置150は、メタデータの空間的特徴に基づいてオーディオファイルをレンダリングすることにより、現場の臨場感を実現することができる。
【0075】
多様な実施形態によると、オーディオファイルを生成する段階(段階520、段階720)は、客体それぞれに付着されるか客体それぞれに隣接して設置されるマイクロホンによってオーディオ信号を取得する段階(段階510、段階710)、およびオーディオ信号からオーディオファイルをそれぞれ生成する段階(段階520、段階720)を含んでよい。
【0076】
多様な実施形態によると、メタデータを生成する段階(段階530、段階740)は、グラフィックインタフェースを出力する段階、グラフィックインタフェースを利用した少なくとも1つの入力に基づいて、客体に対して空間的特徴をそれぞれ設定する段階(段階730)、および空間的特徴に基づいてメタデータを生成する段階(段階740)を含んでよい。
【0077】
多様な実施形態によると、メタデータは、客体それぞれの位置情報、客体のうちの少なくとも2つの位置の組み合わせを示すグループ情報、または現場の環境情報のうちの少なくとも1つを含んでよい。
【0078】
多様な実施形態によると、客体それぞれは、楽器、楽器演奏者、ボーカリスト、対話者、スピーカ、または背景のうちの1つを含んでよい。
【0079】
多様な実施形態によると、メタデータは、複数の音場(Audio Scene)情報を含んでよい。すなわち、利用者の位置が舞台の中心であるときの音場、利用者の位置が観客席の1列目であるときの音場、ボーカリストが強調された音場、楽器が強調された音場、現場音が強調された音場、弦楽器が動的に動く音場などのメタデータは、多様な音場情報を含んでよい。
【0080】
多様な実施形態によると、複数の音場は、
図4cに示すように、利用者がリアルタイムで選択可能なプリセット形態で提供されてよい。
【0081】
多様な実施形態によると、オーディオファイルとメタデータは、製作ツールを備える電子機器310で製作ツールを利用して生成され、メタデータは、電子装置150で選択可能なプリセット形態で生成されてよい。
【0082】
多様な実施形態によると、オーディオファイルとメタデータを電子装置150に送信する段階(段階540、段階550、段階750)は、サーバ330が第1通信プロトコルを利用して、電子機器310からオーディオファイルとメタデータを受信する段階(段階910)、およびサーバ330が第2通信プロトコルを利用して、電子装置150にオーディオファイルとメタデータを送信する段階(段階550、段階920)を含んでよい。
【0083】
多様な実施形態によると、サーバ330は、メタデータに基づいてオーディオファイルをレンダリングする段階(段階560)を実行することができない電子装置150を支援するために、電子装置150が再生可能なフォーマットに事前レンダリングした信号を送信してよい。再生可能なフォーマットは、ヘッドホン、ステレオスピーカ、マルチチャンネルスピーカ、サウンドバーのうちの1つを含んでよい。
図4cに示すように、利用者がリアルタイムでプリセットを選択するための機能を提供する場合、プリセットごとに事前レンダリングを実行してよい。多様な実施形態によると、サーバ330は、ライブストリーミングサーバであってよい。
【0084】
多様な実施形態によると、電子装置150は、オーディオファイルとメタデータを受信し、メタデータからプリセット情報を抽出し、ユーザインタフェースを利用した少なくとも1つの入力に基づいて、プリセット情報によってオーディオファイルをレンダリングすることにより、現場の臨場感を実現することができる。
【0085】
多様な実施形態によると、電子装置150は、
図4cに示すように、利用者がリアルタイムでプリセット(音場)を選択できるようにしてよい。プリセットを切り換える場合、利用者が選択した時点ではなく、音質歪曲が最小化する地点に切り換わるようにしてよい。音質歪曲が最小化する切り換え時点は、ルックアップデイブルを参照してよい。ルックアップテーブルは、時間による音質歪曲指標を含む。ルックアップテーブルは、電子機器製作スタジオ310、サーバ330、電子装置150のうちの少なくとも1つで生成されてよい。
【0086】
多様な実施形態に係るコンピュータシステム110は、現場で複数の客体それぞれが発生するオーディオ信号に基づいてオーディオファイルをそれぞれ生成し、客体に対してそれぞれ設定される現場の空間的特徴を含むメタデータを生成するように構成される電子機器310、および客体のオーディオファイルとメタデータを電子装置150に送信するように構成されるサーバ330を含んでよい。
【0087】
多様な実施形態によると、電子装置150は、メタデータの空間的特徴に基づいてオーディオファイルをレンダリングすることにより、現場の臨場感を実現することができる。
【0088】
多様な実施形態によると、電子機器310は、客体それぞれに付着されるか客体それぞれに隣接して設置されるマイクロホンによってオーディオ信号を取得し、オーディオ信号からオーディオファイルをそれぞれ生成するように構成されてよい。
【0089】
多様な実施形態によると、電子機器310は、グラフィックインタフェースを出力し、グラフィックインタフェースを利用した少なくとも1つの入力に基づいて客体に対して空間的特徴をそれぞれ設定し、空間的特徴に基づいてメタデータを生成するように構成されてよい。
【0090】
多様な実施形態によると、メタデータは、客体それぞれの位置情報、客体のうちの少なくとも2つの位置の組み合わせを示すグループ情報、または現場の環境情報のうちの少なくとも1つを含んでよい。
【0091】
多様な実施形態によると、客体それぞれは、楽器、楽器演奏者、ボーカリスト、対話者、スピーカ、または背景のうちの1つを含んでよい。
【0092】
多様な実施形態によると、電子機器310は、製作ツールを備え、製作ツールを利用してオーディオファイルとメタデータを生成し、メタデータを電子装置で選択可能なプリセット形態で生成するように構成されてよい。
【0093】
多様な実施形態によると、サーバ330は、第1通信プロトコルを利用して、電子機器310からオーディオファイルとメタデータを受信し、第2通信プロトコルを利用して、電子装置150にオーディオファイルとメタデータを送信するように構成されてよい。
【0094】
多様な実施形態によると、サーバ330は、ライブストリーミングサーバであってよい。
【0095】
多様な実施形態によると、電子装置150は、オーディオファイルとメタデータを受信し、メタデータからプリセット情報を抽出し、ユーザインタフェースを利用した少なくとも1つの入力に基づいて、プリセット情報によってオーディオファイルをレンダリングすることにより、現場の臨場感を実現することができる。
【0096】
多様な実施形態によると、電子装置150は、第1プリセット情報と第2プリセット情報を抽出し、時間による第1プリセット情報から第2プリセット情報に切り換わるときに発生する音質歪曲指標を含むルックアップテーブル(Look-up table)を参照することで、第1プリセット情報から第2プリセット情報への切り換えを音質歪曲が最小化する地点に実行してよい。
【0097】
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
【0098】
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
【0099】
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
【0100】
本文書の多様な実施形態とこれに使用した用語は、本文書に記載された技術を特定の実施形態に対して限定しようとするものではなく、該当の実施例の多様な変更、均等物、および/または代替物を含むものと理解されなければならない。図面の説明に関し、類似の構成要素に対しては類似の参照符号を付与した。単数の表現は、文脈上で明らかに異なるように意味しない限り、複数の表現を含んでよい。本文書において、「AまたはB」、「Aおよび/またはBのうちの少なくとも1つ」、「A、B、またはC」、または「A、B、および/またはCのうちの少なくとも1つ」などの表現は、ともに羅列された項目のすべての可能な組み合わせを含んでよい。「第1」、「第2」、「1番目」、または「2番目」などの表現は、該当の構成要素を順序または重要度に関係なく修飾してよく、ある構成要素を他の構成要素と区分するために使用されるものに過ぎず、該当の構成要素を限定するものではない。ある(例:第1)構成要素が他の(例:第2)構成要素に「(機能的にまたは通信的に)連結されて」いるとか「接続されて」いると言及されるときには、前記ある構成要素が前記他の構成要素に直接的に連結されてもよいし、他の構成要素(例:第3構成要素)を経て連結されてもよい。
【0101】
本文書で使用された用語「モジュール」は、ハードウェア、ソフトウェア、またはファームウェアで構成されたユニットを含み、例えば、ロジック、論理ブロック、部品、または回路などの用語と相互互換的に使用されてよい。モジュールは、一体で構成された部品、または1つまたはそれ以上の機能を実行する最小単位またはその一部となってよい。例えば、モジュールは、ASIC(application-specific integrated circuit)で構成されてよい。
【0102】
多様な実施形態によると、上述した構成要素のそれぞれの構成要素(例:モジュールまたはプログラム)は、単数または複数の個体を含んでよい。多様な実施形態によると、上述した該当の構成要素のうちの1つ以上の構成要素または段階が省略されてもよいし、1つ以上の他の構成要素または段階が追加されてもよい。大体的にまたは追加的に、複数の構成要素(例:モジュールまたはプログラム)は、1つの構成要素として統合されてよい。この場合、統合された構成要素は、複数の構成要素それぞれの構成要素の1つ以上の機能を、統合前に複数の構成要素のうちの該当の構成要素によって実行されることと同一または類似に実行してよい。多様な実施形態によると、モジュール、プログラム、または他の構成要素によって実行される段階は、順次的に、並列的に、反復的に、または発見的に実行されてもよいし、段階のうちの1つ以上が他の順序で実行されたり、省略されたり、または1つ以上の他の段階が追加されたりしてもよい。
【符号の説明】
【0103】
110:コンピュータシステム
310:電子機器(製作スタジオ)
330:サーバ