IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ネイバー コーポレーションの特許一覧 ▶ ガウディ・オーディオ・ラボ・インコーポレイテッドの特許一覧

特開2023-39914イベントカスタム型のオーディオコンテンツをレンダリングするためのコンピュータシステムおよび方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023039914
(43)【公開日】2023-03-22
(54)【発明の名称】イベントカスタム型のオーディオコンテンツをレンダリングするためのコンピュータシステムおよび方法
(51)【国際特許分類】
   H04N 21/233 20110101AFI20230314BHJP
   H04N 21/84 20110101ALI20230314BHJP
   H04S 7/00 20060101ALI20230314BHJP
【FI】
H04N21/233
H04N21/84
H04S7/00 300
【審査請求】有
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2022128606
(22)【出願日】2022-08-12
(31)【優先権主張番号】10-2021-0120507
(32)【優先日】2021-09-09
(33)【優先権主張国・地域又は機関】KR
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.HDMI
2.ブルートゥース
3.BLUETOOTH
(71)【出願人】
【識別番号】505205812
【氏名又は名称】ネイバー コーポレーション
【氏名又は名称原語表記】NAVER Corporation
(71)【出願人】
【識別番号】518449353
【氏名又は名称】ガウディオ・ラボ・インコーポレイテッド
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【弁理士】
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】キム ジョンシク
(72)【発明者】
【氏名】キム デファン
(72)【発明者】
【氏名】キム ドンファン
(72)【発明者】
【氏名】イ テギュ
(72)【発明者】
【氏名】ソ ジョンフン
(72)【発明者】
【氏名】オ ジウォン
【テーマコード(参考)】
5C164
5D162
【Fターム(参考)】
5C164GA07
5C164MB13P
5C164PA41
5C164SB04P
5C164SB08S
5D162AA15
5D162DA12
5D162DA17
5D162DA18
5D162DA45
5D162EG02
(57)【要約】
【課題】多様な実施形態は、イベントカスタム型のオーディオコンテンツをレンダリングするためのコンピュータシステムおよびこの方法を提供する。
【解決手段】多様な実施形態によると、コンピュータシステムは、複数のイベントに対するイベントリスト、前記イベントのそれぞれとマッチングするオーディオレンダリング情報に対するオーディオリスト、および現在イベント状態に関するイベント状態情報を受信し、前記現在イベント状態に基づいて、前記イベントのうちの1つとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力するように構成される。
【選択図】図11
【特許請求の範囲】
【請求項1】
コンピュータシステムによる方法であって、
複数のイベントに対するイベントリスト、前記イベントのそれぞれとマッチングするオーディオレンダリング情報に対するオーディオリスト、および現在イベント状態に関するイベント状態情報を受信する段階、および
前記現在イベント状態に基づいて、前記イベントのうちの1つとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力する段階
を含む、方法。
【請求項2】
前記現在オーディオコンテンツを出力する段階は、
前記現在イベント状態が前記イベントのうちの少なくとも2つと関連すれば、予め定められた優先順位に基づいて、前記関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定する段階、および
前記決定されたオーディオレンダリング情報にしたがって前記現在オーディオコンテンツを出力する段階
を含む、請求項1に記載の方法。
【請求項3】
前記イベントのそれぞれは、
オーディオマッチングイベントまたは非オーディオマッチングイベントであり、
前記関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定する段階は、
前記関連するイベントのうちの前記オーディオマッチングイベントに基づいて、前記関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定する段階
を含む、請求項2に記載の方法。
【請求項4】
前記イベント状態情報は、
前記関連するイベントのレイヤ情報を含み、
前記関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定する段階は、
前記レイヤ情報に基づいて、前記関連するイベントのうちの上位レイヤのイベントとマッチングするオーディオレンダリング情報を決定する段階
を含む、請求項2に記載の方法。
【請求項5】
前記イベント状態情報は、
前記イベントのうちの少なくとも1つを指示するタリー情報を含む、
請求項1に記載の方法。
【請求項6】
前記現在オーディオコンテンツを出力する段階は、
複数のイベントソースが連結されていれば、前記イベントソースの連結関係に基づいて、前記イベントソースのうちの1つを決定する段階、および
前記決定されたイベントソースからのイベントとマッチングするオーディオレンダリング情報にしたがって前記現在オーディオコンテンツを出力する段階
を含む、請求項1に記載の方法。
【請求項7】
前記イベントソースのうちの1つを決定する段階は、
予め定められた優先順位に基づいて、前記イベントソースのうちの1つを決定する段階、または
前記イベントソースのうちの1つをデフォルトとして決定する段階
を含む、請求項6に記載の方法。
【請求項8】
前記イベントは、
ビデオ場面、照明、火花、霧、またはマルチアンタクト画面のうちの少なくとも1つを含む、
請求項1に記載の方法。
【請求項9】
前記イベントのそれぞれとマッチングするオーディオレンダリング情報は、
該当のイベントと関連して、出力するためのオーディオコンテンツを空間的に処理するために利用される空間的オーディオ属性を示す、
請求項1に記載の方法。
【請求項10】
請求項1~9のうちのいずれか一項に記載の方法を前記コンピュータシステムに実行させるために非一時的なコンピュータ読み取り可能な記録媒体に記録される、コンピュータプログラム。
【請求項11】
請求項1~9のうちのいずれか一項に記載の方法を前記コンピュータシステムに実行させるためのプログラムが記録されている、非一時的なコンピュータ読み取り可能な記録媒体。
【請求項12】
コンピュータシステムであって、
メモリ、
通信モジュール、および
前記メモリおよび前記通信モジュールとそれぞれ連結し、前記メモリに記録された少なくとも1つの命令を実行するように構成されたプロセッサを含み、
前記プロセッサは、
複数のイベントに対するイベントリスト、前記イベントのそれぞれとマッチングするオーディオレンダリング情報に対するオーディオリスト、および現在イベント状態に関するイベント状態情報を受信し、
前記現在イベント状態に基づいて、前記イベントのうちの1つとマッチングされるオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力するように構成される、
コンピュータシステム。
【請求項13】
前記プロセッサは、
前記現在イベント状態が前記イベントのうちの少なくとも2つと関連すれば、予め定められた優先順位に基づいて、前記館連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定し、
前記決定されたオーディオレンダリング情報にしたがって前記現在オーディオコンテンツを出力するように構成される、
請求項12に記載のコンピュータシステム。
【請求項14】
前記イベントのそれぞれは、
オーディオマッチングイベントまたは非オーディオマッチングイベントであり、
前記プロセッサは、
前記関連するイベントのうちの前記オーディオマッチングイベントに基づいて、前記関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定するように構成される、
請求項13に記載のコンピュータシステム。
【請求項15】
前記イベント状態情報は、
前記関連するイベントのレイヤ情報を含み、
前記プロセッサは、
前記レイヤ情報に基づいて、前記関連するイベントのうちの上位レイヤのイベントとマッチングするオーディオレンダリング情報を決定するように構成される、
請求項13に記載のコンピュータシステム。
【請求項16】
前記イベント状態情報は、
前記イベントのうちの少なくとも1つを指示するタリー情報を含む、
請求項12に記載のコンピュータシステム。
【請求項17】
前記プロセッサは、
複数のイベントソースが連結されていれば、前記イベントソースの連結関係に基づいて、前記イベントソースのうちの1つを決定し、
前記決定されたイベントソースからのイベントとマッチングするオーディオレンダリング情報にしたがって前記現在オーディオコンテンツを出力するように構成される、
請求項12に記載のコンピュータシステム。
【請求項18】
前記プロセッサは、
予め定められた優先順位に基づいて、前記イベントソースのうちの1つを決定するか、
前記イベントソースのうちの1つをデフォルトとして決定するように構成される、
請求項17に記載のコンピュータシステム。
【請求項19】
前記イベントは、
ビデオ場面、照明、火花、霧、またはマルチアンタクト画面のうちの少なくとも1つを含む、
請求項12に記載のコンピュータシステム。
【請求項20】
前記イベントのそれぞれとマッチングするオーディオレンダリング情報は、
該当のイベントと関連して、出力するためのオーディオコンテンツを空間的に処理するために利用される空間的オーディオ属性を示す、
請求項12に記載のコンピュータシステム。
【発明の詳細な説明】
【技術分野】
【0001】
多様な実施形態は、イベントカスタム型のオーディオコンテンツをレンダリングするためのコンピュータシステムおよび方法に関する。
【背景技術】
【0002】
一般的に、コンテンツ制作環境は、多様なビューからなる視覚的コンテンツに対して、固定的な音場で構成されたオーディオコンテンツを提供する。例えば、コンテンツ制作環境は、特定の現場に対してフルショットやクローズアップショットなどの多様なビデオ場面を繋げて視覚的コンテンツを制作しながら、該当の現場のオーディオ信号を予め定められた構成の固定的な音場でミキシングしてオーディオコンテンツを制作する。このような理由から、ユーザは、視覚的コンテンツとオーディオコンテンツを再生するときに、多様なビューを見ながら、オーディオコンテンツを基盤とする予め定められた構成の固定的なサウンドを聞くことしかできない。したがって、視覚的コンテンツに対するユーザの沒入感が低い。
【発明の概要】
【発明が解決しようとする課題】
【0003】
多様な実施形態は、ユーザの視覚的コンテンツに対する沒入感を高めることができる、コンピュータシステムおよびこの方法を提供する。
【0004】
多様な実施形態は、イベントカスタム型のオーディオコンテンツをレンダリングするためのコンピュータシステムおよび方法を提供する。
【課題を解決するための手段】
【0005】
多様な実施形態に係るコンピュータシステムによる方法は、複数のイベントに対するイベントリスト、前記イベントのそれぞれとマッチングするオーディオレンダリング情報に対するオーディオリスト、および現在イベント状態に関するイベント状態情報を受信する段階、および前記現在イベント状態に基づいて、前記イベントのうちの1つとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力する段階を含んでよい。
【0006】
多様な実施形態に係る非一時的なコンピュータ読み取り可能な記録媒体に記録されるコンピュータプログラムは、前記方法を前記コンピュータシステムに実行させるためのものであってよい。
【0007】
多様な実施形態に係る非一時的なコンピュータ読み取り可能な記録媒体には、前記方法を前記コンピュータシステムに実行させるためのプログラムが記録されていてよい。
【0008】
多様な実施形態に係るコンピュータシステムは、メモリ、通信モジュール、および前記メモリおよび前記通信モジュールとそれぞれ連結し、前記メモリに記録された少なくとも1つの命令を実行するように構成されたプロセッサを含み、前記プロセッサは、複数のイベントに対するイベントリスト、前記イベントのそれぞれとマッチングするオーディオレンダリング情報に対するオーディオリスト、および現在イベント状態に関するイベント状態情報を受信し、前記現在イベント状態に基づいて、前記イベントのうちの1つとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力するように構成されてよい。
【発明の効果】
【0009】
多様な実施形態によると、コンピュータシステムは、イベントカスタム型のオーディオコンテンツをレンダリングする。このために、コンテンツの各イベントに互いに異なるオーディオレンダリング情報をマッチングしてよい。この後、コンピュータシステムは、イベントのうちの1つとマッチングするオーディオレンダリング情報にしたがってオーディオコンテンツをレンダリングする。このとき、コンピュータシステムは、現在中継されているイベントとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを空間的に処理することにより、ユーザのための臨場感を実現する。これにより、ユーザは、中継されるイベントとこれに合うようにレンダリングされたオーディオコンテンツを利用することにより、その現場にいるような臨場感を感じることができるようになる。すなわち、コンピュータシステムは、ユーザの視覚的コンテンツに対する沒入感を高めることができる。
【図面の簡単な説明】
【0010】
図1】多様な実施形態における、コンピュータシステムの動作環境を示したブロック図である。
図2】多様な実施形態における、コンピュータシステムの動作環境を説明するための例示図である。
図3】一実施形態における、コンピュータシステムの動作特徴を説明するための例示図である。
図4A】一実施形態における、コンピュータシステムの動作特徴を説明するための例示図である。
図4B】一実施形態における、コンピュータシステムの動作特徴を説明するための例示図である。
図5】一実施形態における、コンピュータシステムと関連する制作環境を示したブロック図である。
図6】一実施形態における、コンピュータシステムと関連する制作環境の動作特徴を説明するための例示図である。
図7A】一実施形態における、コンピュータシステムと関連する制作環境の動作特徴を説明するための例示図である。
図7B】一実施形態における、コンピュータシステムと関連する制作環境の動作特徴を説明するための例示図である。
図8A】一実施形態における、コンピュータシステムと関連する制作環境の動作特徴を説明するための例示図である。
図8B】一実施形態における、コンピュータシステムと関連する制作環境の動作特徴を説明するための例示図である。
図9A】一実施形態における、コンピュータシステムのユーザインタフェースを説明するための例示図である。
図9B】一実施形態における、コンピュータシステムのユーザインタフェースを説明するための例示図である。
図9C】一実施形態における、コンピュータシステムのユーザインタフェースを説明するための例示図である。
図9D】一実施形態における、コンピュータシステムのユーザインタフェースを説明するための例示図である。
図9E】一実施形態における、コンピュータシステムのユーザインタフェースを説明するための例示図である。
図9F】一実施形態における、コンピュータシステムのユーザインタフェースを説明するための例示図である。
図9G】一実施形態における、コンピュータシステムのユーザインタフェースを説明するための例示図である。
図9H】一実施形態における、コンピュータシステムのユーザインタフェースを説明するための例示図である。
図10】多様な実施形態における、コンピュータシステムの内部構成を示したブロック図である。
図11】多様な実施形態における、コンピュータシステムの動作の流れを示したフローチャートである。
図12】現在オーディオコンテンツを出力する段階の詳細な流れを示したフローチャートである。
【発明を実施するための形態】
【0011】
以下、本文書の多様な実施形態について、添付の図面を参照しながら説明する。
【0012】
図1は、多様な実施形態における、コンピュータシステム100の動作環境を示したブロック図である。図2は、多様な実施形態における、コンピュータシステム100の動作環境を説明するための例示図である。
【0013】
図1を参照すると、コンピュータシステム100は、制作環境110およびユーザ120と通信する。コンピュータシステム100は、同じネットワークを介して制作環境110およびユーザ120と通信してもよいし、異なるネットワークを介して制作環境110およびユーザ120と通信してもよい。ここで、ユーザ120は、ユーザの電子装置と混用されてよい。例えば、電子装置は、スマートフォン、携帯電話、ナビゲーション、PC、ノート型PC、デジタル放送用端末、PDA(personal digital assistants)、PMP(portable multimedia player)、タブレット、ゲームコンソール(game console)、ウェアラブルデバイス(wearable device)、IoT(internet of things)デバイス、家電機器、医療機器、ロボット、またはHMD(head mounted display)装置のうちの少なくとも1つを含んでよい。
【0014】
制作環境110は、マルチメディアコンテンツを制作する。一実施形態において、制作環境110は、少なくとも1つの電子機器によって構成されてよい。マルチメディアコンテンツは、視覚的コンテンツおよび視覚的コンテンツと同期化するオーディオコンテンツを含んでよい。例えば、視覚的コンテンツは、バーチャルリアリティ(virtual reality:VR)コンテンツ、拡張現実(augmented reality:AR)コンテンツ、またはエクステンデッドリアリティ(extended reality:XR)コンテンツのうちの少なくとも1つを含んでよい。例えば、制作環境110は、図2に示すように実際の現場でマルチメディア信号を収集し、これに基づいてマルチメディアコンテンツを制作してよい。視覚的コンテンツは、特定の現場に対する複数のイベント、例えば、視覚的イベントまたは触覚的イベントのうちの少なくとも1つで構成されてよい。ここで、イベントは、同じ現場に対する互いに異なるビューをそれぞれ示してよい。言い換えれば、同じ現場に対して多数のイベントが同時に生成されてよい。視覚的イベントのタイプとしては、例えば、ビデオ場面、照明、火花、霧、またはマルチアンタクト(非対面)画面のうちの少なくとも1つであってよい。マルチアンタクト画面は、ブロードキャストプログラムの現場で異なるビューによりキャプチャされた全部のビデオシーンが一緒に表示される画面を表してよい。
【0015】
これにより、ユーザ120のためのマルチメディアコンテンツを提供する。このとき、マルチメディアコンテンツは、リアルタイムでストリーミングされてもよいし、ユーザ120が所望する時間に提供されてもよい(VOD)。一実施形態によると、視覚的コンテンツのイベントのうちの少なくとも1つが中継され、中継されるイベントはイベント内で切り替わってよい。他の実施形態によると、ユーザ120の選択に応答して、視覚的コンテンツのイベントのうちの1つが中継されてよい。
【0016】
したがって、コンピュータシステム100は、ユーザ120のためのオーディオコンテンツをレンダリングする。このとき、イベントのそれぞれに対して互いに異なるオーディオレンダリング情報がマッチングされてよい。オーディオレンダリング情報は、該当のイベントと関連する空間的オーディオ属性を示し、プリセット形態で構成されてよい。一実施形態において、イベントのそれぞれは、該当のイベントに対してオーディオコンテンツを再生するためのオーディオマッチングイベント、または該当のイベントに対してオーディオコンテンツを再生しないための非(non)オーディオマッチングイベントが設定されてよい。コンピュータシステム100は、イベントのうちの1つとマッチングするオーディオレンダリング情報にしたがってオーディオコンテンツをレンダリングする。このとき、コンピュータシステム100は、現在中継されているイベントとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを空間的に処理することにより、ユーザ120のために臨場感を実現してよい。これにより、ユーザ120は、中継されるイベントとこれに合うようにレンダリングされたオーディオコンテンツを利用することにより、その現場にいるような臨場感を感じることができるようになる。一例として、ユーザ120は、図2に示すように、2次元的に中継されるイベントをスマートフォンで見ながら、これに合ったサウンドを経験することができる。他の例として、ユーザ120は、図2に示すように、3次元的に中継されるイベントをHMD装置で見ながら、これに合ったサウンドを経験することができる。
【0017】
以下では、イベントが、放送プログラム現場で互いに異なるビューで撮影されたビデオ場面であるということを中心に、コンピュータシステム100およびこの方法について説明する。ただし、これは説明の便宜のための一例に過ぎず、これに制限されてはならない。すなわち、多様なタイプのイベントに対して、コンピュータシステム100およびこの方法を適用することができる。
【0018】
図3図4A図4Bは、一実施形態における、コンピュータシステム100の動作の特徴を説明するための例示図である。
【0019】
図3を参照すると、コンピュータシステム100は、イベントによってオーディオコンテンツを互いに異なるようにレンダリングする。一実施形態によると、イベントは、放送プログラム現場で互いに異なるビューから撮影されたビデオ場面であってよい。例えば、各ビデオ場面は、図3(a)に示すようなフルショット、図3(b)または(c)に示すようなクローズアップショット(人物ショットとも呼ぶ)、または図3(d)に示すような分割画面のうちのいずれか1つであってよい。ここで、AA、BB、CC、およびDDはそれぞれ人物を示してよい。図3(a)のようなフルショットに対して、コンピュータシステム100は、ユーザ120が該当の放送プログラム現場の一隅でサウンドを聞くような経験ができるようにオーディオコンテンツをレンダリングしてよい。図3(b)または(c)に示すような特定の人物のクローズアップショットに対して、コンピュータシステム100は、ユーザ120が該当の人物の正面でサウンドを聞くような経験ができるようにオーディオコンテンツをレンダリングしてよい。ここで、コンピュータシステム100は、該当の人物と周辺の人物の位置関係が表現されるようにオーディオコンテンツをレンダリングしてよい。図3(d)に示すように、複数の人物のクローズアップショットで構成される分割画面に対して、コンピュータシステム100は、分割画面内でクローズアップショットの位置によって人物を個別に把握できるようにオーディオコンテンツをレンダリングしてよい。
【0020】
一実施形態によると、視覚的コンテンツのイベントのうちの少なくとも1つが中継され、中継されるイベントはイベント内で切り替わってよい。このような場合、コンピュータシステム100は、中継されるイベントを自動で検出し、中継されるイベントに合うようにオーディオコンテンツをレンダリングしてよい。例えば、一般ストリーミングサービスにおいて、図4Aに示すように、中継されるビデオ場面が、フルショット、特定の人物、例えば、BBのクローズアップショット、および分割画面の順に切り替わり、コンピュータシステム100はこれに対応してオーディオコンテンツをレンダリングしてよい。これにより、ユーザ120は、フルショットに対しては該当の放送プログラム現場の一隅でサウンドを聞くような経験ができ、クローズアップショットに対しては該当の人物の正面でサウンドを聞くような経験ができ、分割画面に対しては分割画面内でクローズアップショットの位置によって人物を個別に把握できるような経験ができるようになる。
【0021】
他の実施形態によると、ユーザ120の選択に応答して視覚的コンテンツのイベントのうちの1つを中継してよい。このような場合、コンピュータシステム100は、中継されるイベントに合うようにオーディオコンテンツをレンダリングしてよい。例えば、マルチビューストリーミングサービスにおいて、図4Bに示すように、中継可能なビデオ場面がユーザ120に提供されてよい。このとき、ユーザ120の選択に応答して、フルショット、クローズアップショット、または分割画面のうちの1つが中継され、コンピュータシステム100は、これに対応してオーディオコンテンツをレンダリングしてよい。または、コンピュータシステム100は、フルショット、クローズアップショット、または分割画面のうちの少なくとも1つにそれぞれ対応してオーディオコンテンツをそれぞれレンダリングし、レンダリングされたすべてのオーディオコンテンツを同時に配信してもよい。この後、ユーザ120の選択に応答して、フルショット、クローズアップショット、または分割画面のうちの1つを再生しながら、これに対応してレンダリングされたオーディオコンテンツを提供する。これにより、ユーザ120は、中継されるビデオ場面を見ながら、これに合ったサウンドを経験することができるようになる。
【0022】
図5は、一実施形態における、コンピュータシステム100と関連する制作環境110を示したブロック図である。図6図7A図7B図8A図8Bは、一実施形態における、コンピュータシステム100と関連する制作環境110の動作の特徴を説明するための例示図である。
【0023】
図5を参照すると、制作環境110は、1つ以上の映像ソース511、515を含み、コンピュータシステム100は、映像ソース511、515のうちの少なくとも一部と連結する。例えば、映像ソース511、515は、映像スタジオ511または映像ミキサー515のうちの少なくとも1つを含んでよい。ここで、映像スタジオ511と映像ミキサー515は、キャプチャボード513を間に置いて連結してよい。また、映像ソース511、515で制作される視覚的コンテンツは、配信プログラム519を通じてユーザ120に提供されてよい。
【0024】
映像スタジオ511は、視覚的コンテンツを制作するための電子機器である。例えば、映像スイッチャー(Video Switcher)のようなハードウェアであってもよいし、OBS(Open Broadcast Software)のようなソフトウェアであってもよい。このような映像スタジオ511は、複数のカメラと個別に連結し、カメラが撮影した映像に基づいてイベントをそれぞれ生成してよい。例えば、映像スタジオ511は、5台のカメラが撮影した映像から5つのビデオ場面#1~#5を生成してよい。
【0025】
また、映像スタジオ511は、制作者の選択にしたがってイベントのうちから中継するイベントを決定する。一例として、映像スタジオ511は、1つのビデオ場面#1を中継画面として決定し、他のビデオ場面#2を後続の中継画面として決定してよい。これにより、映像スタジオ511は、タリー(tally)情報を生成する。タリー情報とは、中継するイベントを識別するための情報であって、一例として、中継画面として選択されたビデオ場面を識別するために利用されてよい。タリー情報は、現在中継するビデオイベント(プログラム)と次に中継するビデオイベント(プレビュー)形態で構成されてよい。
【0026】
映像ミキサー515は、映像スタジオ511とともに、視覚的コンテンツを制作するための電子機器である。このような映像ミキサー515も、カメラが撮影した映像と映像ミキサー515で支援するビデオ/イメージ入力、ビデオ効果に基づいてイベントをそれぞれ生成してよい。例えば、映像ミキサー515は、映像編集ソフトウェアを備えてよく、これを利用して少なくとも1つのイベントを生成してよい。このとき、映像ミキサー515は、キャプチャボード513によって、カメラが撮影した映像と映像スタジオ511からの中継画面を受信してよい。また、映像ミキサー515は、キャプチャボード513が受信した映像のうちの少なくとも2つを組み合わせるか、撮影した映像のうちの少なくとも1つと任意のイメージを組み合わせて少なくとも1つのイベントを生成してよい。図6を参照すると、例えば、映像ミキサー515は、映像スタジオ511で決定される中継画面から1つのビデオ場面#1を生成し、カメラが撮影した映像のうちの一部から4つのビデオ場面#2~#5を生成し、撮影した映像のうちの少なくとも2つで構成される分割画面から1つのビデオ場面#6を生成し、撮影した映像のうちの少なくとも1つにオーバーレイするための任意の個数のイメージから該当の個数のビデオ場面#7~#9を生成してよい。
【0027】
また、映像ミキサー515は、映像スタジオ511で決定された、中継するイベントを変更してよい。例えば、映像ミキサー515は、映像スタジオ511で決定された中継画面を映像ミキサー515で生成された分割画面に変更してよい。一実施形態によると、映像ミキサー515は、中継されるイベントをカット方式によって変更してよい。例えば、映像ミキサー515は、図7Aに示すように、中継画面を切り替えて(切り取り(カット)、ディゾルブ、パターンワイプなど)、該当の中継画面の代わりに分割画面を挿入してよい。このような場合、図7Bに示すように、映像スタジオ511で決定された中継画面は中継されなくなる。他の実施形態によると、映像ミキサー515は、中継されるイベントをオーバーレイ方式によって変更してよい。例えば、映像ミキサー515は、図8Aおよび図8Bに示すように、中継画面の上位レイヤ(Layer1)に分割画面をオーバーレイしてよい。このような場合に、図8Bに示すように、映像スタジオ511で決定された中継画面に分割画面が重ねられて中継されるようになる。これにより、映像ミキサー515は、タリー情報を生成する。タリー情報とは、中継されるイベントを識別するための情報であって、一例として、どの映像が中継画面として選択されたかを識別するために利用されてよい。さらに、映像ミキサー515がオーバーレイ方式を利用する場合、映像ミキサー515は、レイヤ情報も生成する。レイヤ情報は、各ビデオイベントに対してオーバーレイベントが存在するレイヤがあるかを識別するための情報であって、一例として、中継画面において上位レイヤ(Layer1)に分割画面がオーバーレイされているかを識別するために利用されてよい。
【0028】
一方、制作環境110は、オーディオコンソール517をさらに含み、コンピュータシステム100は、オーディオコンソール517と連結する。オーディオコンソール517は、オーディオコンテンツを制作するための電子機器であってよい。オーディオコンソール517は、ある現場の複数の物体のそれぞれに直接的に付着するか隣接して設置される複数のマイクロフォンと個別に連結し、マイクロフォンが取得したオーディオ信号に基づいてオーディオコンテンツを制作してよい。また、コンピュータシステム100は、配信プログラム519を通じてオーディオコンテンツをユーザ120に提供してよい。このとき、コンピュータシステム100は、配信プログラム519を通じてユーザ120に中継されるイベントに対応してオーディオコンテンツをレンダリングしてよい。
【0029】
図9A図9Hは、一実施形態における、コンピュータシステム100のユーザインタフェースを説明するための例示図である。
【0030】
図9A図9Hを参照すると、コンピュータシステム100は、ユーザインタフェースを利用して少なくとも1つのイベントソースとの連結を樹立する。例えば、コンピュータシステム100は、2つのイベントソース、例えば、映像スタジオ511および映像ミキサー515と連結してよい。このために、コンピュータシステム100は、設定画面を表示する。例えば、設定画面には、イベントソースのそれぞれに対して割り当てられるソース領域、およびイベントソース間の連結性を活用するための連結領域を含んでよい。これにより、コンピュータシステム100は、設定画面を利用してイベントソースとの連結を樹立することができる。
【0031】
具体的に、図9Aに示すように、創作者が設定画面の1つのソース領域に1つのイベントソース、例えば、映像スタジオ511のアドレス情報を入力すれば、コンピュータシステム100は、該当のイベントソースとの連結を樹立する。この後、コンピュータシステム100は、該当のイベントソースで生成されるイベントに対するイベントリストを確認し、図9Bに示すように設定画面にイベントリストを表示する。例えば、イベントリストは、映像ミキサー515のビデオ入力リストであってよい。また、図9Cに示すように、創作者がイベントのそれぞれに対応してオーディオレンダリング情報、例えば、プリセットを入力すれば、コンピュータシステム100は、イベントのそれぞれに対応して入力されたオーディオレンダリング情報をマッチングする。これにより、イベントリストに対応して、オーディオレンダリング情報に対するオーディオリストがマッチングされてよい。このとき、コンピュータシステム100は、該当のイベントソースからのタリー情報に基づいて、イベントリストで中継されるイベントを表現してよい。例えば、映像ミキサー515のビデオ入力1にはフルショットが入力され、入力2にはAAが入力されるとき、図9CのPreset1には該当の放送プログラム現場の一隅で聞くようなオーディオレンダリング情報をマッチングし、Preset2にはAAの正面で聞くようなオーディオレンダリング情報をマッチングすることにより、映像ミキサー515の切替効果によってオーディオレンダリングが自動で切り替わるようになる。
【0032】
次に、図9Dに示すように、創作者が設定画面の他のソース領域に他のイベントソース、例えば、映像ミキサー515のアドレス情報を入力すれば、コンピュータシステム100は、該当のイベントソースとの連結を樹立する。この後、コンピュータシステム100は、該当のイベントソースで生成されるイベントに対するイベントリストを確認し、図9Eに示すように設定画面にイベントリストを表示する。この後、図9Fおよび図9Gに示すように、コンピュータシステム100は、各イベントに対応して入力されたオーディオレンダリング情報をマッチングする。
【0033】
このとき、連結領域での創作者の要請にしたがい、コンピュータシステム100は、イベントソース間の連結性を活用して、図9Fに示すように、例えば、連結スタジオ511の出力と映像ミキサー515の連結関係を設定する。図9Fは、左側イベントソースの出力が右側イベントソースのInput1に連結されることを設定している。したがって、中継するイベントによってどのプリセットを選択しなければならないかを、連結性を基準として判断することができるようになる。例えば、右側イベントソースのInput1が発生した場合、これは左側イベントソースの出力が配信されていることになるため、左側イベントソースのうちで発生したイベント(Input1)に対応するオーディオレンダリング情報が処理されてよい。例えば、映像ミキサー515が映像スタジオ511に連結される場合、連結領域での創作者の要請にしたがい、コンピュータシステム100は、映像スタジオ511からの中継画面に対応してオーディオレンダリング情報を自動でマッチングしてよい。この後、図9Gに示すように、創作者がイベントのそれぞれに対応してオーディオレンダリング情報、例えば、プリセットを入力すれば、コンピュータシステム100は、イベントのそれぞれに対応して入力されたオーディオレンダリング情報をマッチングする。これにより、イベントリストに対応して、オーディオレンダリング情報に対するオーディオリストがマッチングされるようになる。この後、コンピュータシステム100は、図9Gまたは図9Hに示すように、該当のイベントソースからのタリー情報およびレイヤ情報に基づいて、イベントリストで中継されるイベントを表現する。
【0034】
図10は、多様な実施形態における、コンピュータシステム100の内部構成を示したブロック図である。
【0035】
図10を参照すると、コンピュータシステム100は、接続端子1010、通信モジュール1020、入力モジュール1030、表示モジュール1040、オーディオモジュール1050、メモリ1060、またはプロセッサ1070のうちの少なくとも1つを含んでよい。一実施形態において、コンピュータシステム100の構成要素のうちの少なくともいずれか1つが省略されてもよいし、少なくとも1つの他の構成要素が追加されてもよい。一実施形態において、コンピュータシステム100の構成要素のうちの少なくともいずれか2つが1つの統合された回路で実現されてもよい。一実施形態において、コンピュータシステム100の構成要素は、単一装置で実現されてもよいし、複数の装置に分散されて実現されてもよい。
【0036】
接続端子1010は、コンピュータシステム100と外部装置を物理的に連結する。このために、接続端子1010は、少なくとも1つのコネクタを含んでよい。例えば、コネクタは、HDMIコネクタ、USBコネクタ、SDカードコネクタ、またはオーディオコネクタのうちの少なくともいずれか1つを含んでよい。
【0037】
通信モジュール1020は、コンピュータシステム100と外部装置との通信を実行する。通信モジュール1020は、コンピュータシステム100と外部装置との間に通信チャネルを樹立し、通信チャネルを介して外部装置との通信を実行してよい。例えば、外部装置は、制作環境110の電子機器またはユーザ120うちの少なくとも1つを含んでよい。通信モジュール1020は、有線通信モジュールまたは無線通信モジュールのうちの少なくとも1つを含んでよい。有線通信モジュールは、接続端子1010を介して外部装置と有線で接続し、外部装置と有線で通信してよい。無線通信モジュールは、近距離通信モジュールまたは遠距離通信モジュールのうちの少なくともいずれか1つを含んでよい。近距離通信モジュールは、外部装置と近距離通信方式で通信してよい。例えば、近距離通信方式は、ブルートゥース(Bluetooth)、Wi-Fiダイレクト(Wi-Fi direct)、または赤外線通信(IrDA:infrared data association)のうちの少なくともいずれか1つを含んでよい。遠距離通信モジュールは、外部装置と遠距離通信方式で通信してよい。ここで、遠距離通信モジュールは、ネットワークを介して外部装置と通信してよい。例えば、ネットワークは、セルラーネットワーク、インターネット、またはLAN(local area network)やWAN(wide area network)のようなコンピュータネットワークのうちの少なくともいずれか1つを含んでよい。
【0038】
入力モジュール1030は、コンピュータシステム100の少なくとも1つの構成要素に使用される信号を入力する。入力モジュール1030は、創作者がコンピュータシステム100に信号を直接入力するように構成される入力装置、周辺環境を感知して信号を発生するように構成されるセンサ装置、または映像を撮影し、映像データを生成するように構成されるカメラモジュールのうちの少なくともいずれか1つを含んでよい。例えば、入力装置は、マイクロフォン、マウス、またはキーボードのうちの少なくともいずれか1つを含んでよい。一実施形態において、センサ装置は、タッチを感知するように設定されたタッチ回路、またはタッチによって発生する力の強度を測定するように設定されたセンサ回路のうちの少なくともいずれか1つを含んでよい。
【0039】
表示モジュール1040は、情報を視覚的に表示する。例えば、表示モジュール1040は、ディスプレイ、ホログラム装置、またはプロジェクタのうちの少なくともいずれか1つを含んでよい。一例として、表示モジュール1040は、入力モジュール1030のタッチ回路またはセンサ回路のうちの少なくともいずれか1つと組み立てられ、タッチスクリーンで実現されてよい。
【0040】
オーディオモジュール1050は、情報を聴覚的に再生する。例えば、オーディオモジュール1050は、スピーカ、レシーバ、イヤフォン、またはヘッドフォン、オーディオインタフェース、IP基盤のオーディオネットワークシステムのうちの少なくともいずれか1つを含んでよい。
【0041】
メモリ1060は、コンピュータシステム100の少なくとも1つの構成要素によって使用される多様なデータを記録する。例えば、メモリ1060は揮発性メモリまたは不揮発性メモリのうちの少なくともいずれか1つを含んでよい。データは、少なくとも1つのプログラムおよびこれと関連する入力データまたは出力データを含んでよい。プログラムは、メモリ1060に少なくとも1つの命令を含むソフトウェアとして記録されてよい。メモリ1060は、オーディオファイルとこれに対するメタデータを生成するための制作ツールを記録してよい。
【0042】
プロセッサ1070は、メモリ1060のプログラムを実行し、コンピュータシステム100の少なくとも1つの構成要素を制御する。これにより、プロセッサ1070は、データ処理または演算を実行してよい。このとき、プロセッサ1070は、メモリ1060に記録された命令を実行してよい。
【0043】
多様な実施形態によると、プロセッサ1070は、イベントリスト、オーディオリスト、および現在イベント状態に関するイベント状態情報を受信する。イベントリストは、特定の現場に対する複数のイベントで構成されてよい。ここで、イベントは、同じ現場に対する互いに異なるビューそれぞれを示してよい。言い換えれば、同じ現場に対して多数のイベントが同時に生成されてよい。イベントのタイプとしては、例えば、ビデオ場面、照明、火花、霧、またはマルチアンタクト画面のうちの少なくとも1つであってよい。オーディオリストは、イベントのそれぞれとマッチングするオーディオレンダリング情報で構成されてよい。オーディオレンダリング情報は、該当のイベントと関連する空間的オーディオ属性を示し、プリセット形態で構成されてよい。一実施形態において、イベントのそれぞれは、該当のイベントに対してオーディオコンテンツを再生するためのオーディオマッチングイベント、または該当のイベントに対してオーディオコンテンツを再生しないための非(non)オーディオマッチングイベントが設定されてよい。現在イベント状態は、現在中継されるイベントの状態を示してよい。例えば、イベント状態情報は、タリー情報またはレイヤ情報のうちの少なくとも1つを含んでよい。
【0044】
多様な実施形態によると、プロセッサ1070は、現在イベント状態に基づいて、イベントのうちの1つとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力する。このとき、プロセッサ1070は、制作環境110から現在オーディオコンテンツを受信し、これをレンダリングしてよい。現在イベント状態がイベントのうちの1つと関連すれば、プロセッサ1070は、現在イベントとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力する。一方、現在イベントがイベントのうちの少なくとも2つと関連すれば、プロセッサ1070は、予め定められた優先順位に基づいて、関連するイベントのうちの1つとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力する。このとき、優先順位は、関連するイベントのそれぞれに対するオーディオマッチングの可否、レイヤ位置、またはイベントソースのうちの少なくとも1つによって定められてよい。
【0045】
一実施形態によると、プロセッサ1070は、関連するイベントのうちから、オーディオマッチングイベントに基づいてオーディオレンダリング情報を決定する。他の実施形態によると、プロセッサ1070は、レイヤ情報に基づいて、関連するイベントのうちで上位レイヤのイベントとマッチングするオーディオレンダリング情報を決定する。また他の実施形態によると、コンピュータシステム100に複数のイベントソースが連結された場合、プロセッサ1070は、イベントソースの連結関係に基づいて、イベントソースのうちの1つを決定する。このとき、プロセッサ1070は、予め定められた優先順位に基づいて、またはデフォルトとして、イベントソースのうちの1つを決定してよい。これにより、プロセッサ1070は、決定されたイベントソースからのイベントとマッチングするオーディオレンダリング情報を決定することができる。
【0046】
図11は、多様な実施形態における、コンピュータシステム100の動作の流れを示したフローチャートである。
【0047】
図11を参照すると、段階1110で、コンピュータシステム100は、イベントリスト、オーディオリスト、および現在イベント状態に関するイベント状態情報を受信する。このとき、プロセッサ1070は、通信モジュール1020により、少なくとも1つのイベントソースからイベントリストを予め受信してよい。また、プロセッサ1070は、通信モジュール1020または入力モジュール1030により、創作者からオーディオリストを予め受信してよい。また、プロセッサ1070は通信モジュール1020を通じて、イベントソースからリアルタイムで現在イベント状態を受信してよい。
【0048】
イベントリストは、特定の現場に対する複数のイベントで構成される。ここで、イベントは、同じ現場に対する互いに異なるビューをそれぞれ示してよい。言い換えれば、同じ現場に対して多数のイベントが同時に生成されてよい。イベントのタイプとしては、例えば、ビデオ場面、照明、火花、霧、またはマルチアンタクト画面のうちの少なくとも1つであってよい。オーディオリストは、イベントのそれぞれとマッチングするオーディオレンダリング情報で構成されてよい。オーディオレンダリング情報は、該当のイベントと関連する空間的オーディオ属性を示し、プリセット形態で構成されてよい。一実施形態において、イベントのそれぞれは、該当のイベントに対してオーディオコンテンツを再生するためのオーディオマッチングイベント、または該当のイベントに対してオーディオコンテンツを再生しないための非(non)オーディオマッチングイベントが設定されてよい。例えば、プロセッサ1070は、図9A図9Hに示すようなユーザインタフェースを利用してイベントソースとの連結を樹立し、イベントのそれぞれにオーディオレンダリング情報をマッチングしてよい。現在イベント状態は、現在中継されるイベントの状態を示してよい。例えば、イベント状態情報は、タリー情報またはレイヤ情報のうちの少なくとも1つを含んでよい。
【0049】
次に、段階1120で、コンピュータシステム100は、現在イベント状態に基づいて、イベントのうちの1つとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力する。このとき、プロセッサ1070は、通信モジュール1020によって、制作環境110から現在オーディオコンテンツを受信し、これをレンダリングしてよい。現在イベント状態がイベントのうちの1つと関連すれば、プロセッサ1070は、現在イベントとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力してよい。一方、現在イベントがイベントのうちの少なくとも2つと関連すれば、プロセッサ1070は、予め定められた優先順位に基づいて、関連するイベントのうちの1つとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力してよい。これについては、図12を参照しながらより詳しく説明する。
【0050】
図12は、図11の現在オーディオコンテンツを出力する段階1120の詳しい流れを示したフローチャートである。
【0051】
図12を参照すると、段階1221で、コンピュータシステム100は、現在イベント状態を確認する。このとき、プロセッサ1070は、少なくとも1つのイベントソースから受信されるイベント状態情報を分析して、現在イベント状態を確認してよい。ここで、コンピュータシステム100に複数のイベントソースが連結された場合、プロセッサ1070は、イベントソースのそれぞれから受信されるイベント状態情報をともに分析して、現在イベント状態を確認してよい。これにより、段階1123で、コンピュータシステム100は、現在イベント状態が複数のイベントと関連するかどうかを判断する。
【0052】
このとき、プロセッサ1070は、現在中継されるイベントを識別する。例えば、コンピュータシステム100が映像スタジオ511に連結された場合、プロセッサ1070は、映像スタジオ511からのタリー情報を利用して、映像スタジオ511で生成されるイベントのうちで現在中継されるイベントを識別してよい。この後、プロセッサ1070は、現在中継されるイベントの変更状況を確認する。例えば、コンピュータシステム100が映像ミキサー515にも連結された場合、プロセッサ1070は、映像ミキサー515からのタリー情報またはレイヤ情報のうちの少なくとも1つを利用して、現在中継されるイベントの変更状況を確認してよい。一例として、プロセッサ1070は、映像ミキサー515からのタリー情報を利用して、現在中継されるイベントの代わりに、映像ミキサー515で生成される他のイベント、例えば、分割画面またはイメージが挿入されているかを確認してよい。他の例として、プロセッサ1070は、映像ミキサー515からのタリー情報およびレイヤ情報を利用して、現在中継されるイベントに映像ミキサー515で生成される他のイベント、例えば、分割画面またはイメージがオーバーレイされているかを確認してよい。
【0053】
段階1123で現在イベント状態が1つのイベントと関連があると判断されれば、段階1125で、コンピュータシステム100は、現在イベントとマッチングするオーディオレンダリング情報を決定する。現在イベントが現在中継されるイベントの場合、プロセッサ1070は、中継されるイベントとマッチングするオーディオレンダリング情報を決定してよい。または、現在イベントが現在中継されるイベントの代わりに挿入された他のイベントの場合、プロセッサ1070は、他のイベントとマッチングするオーディオレンダリング情報を決定してよい。
【0054】
一方、段階1123で現在イベント状態が複数のイベントと関連があると判断されれば、段階1127で、コンピュータシステム100は、予め定められた優先順位にしたがい、関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定する。一実施形態によると、プロセッサ1070は、関連するイベントのうちのオーディオマッチングイベントに基づいて、オーディオレンダリング情報を決定してよい。他の実施形態によると、プロセッサ1070は、レイヤ情報に基づいて、関連するイベントのうちの上位レイヤのイベントとマッチングするオーディオレンダリング情報を決定してよい。また他の実施形態によると、コンピュータシステム100に複数のイベントソースが連結された場合、プロセッサ1070は、イベントソースの連結関係に基づいて、イベントソースのうちの1つを決定してよい。このとき、プロセッサ1070は、予め定められた優先順位に基づいて、またはデフォルトとして、イベントソースのうちの1つを決定してよい。これにより、プロセッサ1070は、決定されたイベントソースからのイベントとマッチングするオーディオレンダリング情報を決定することができる。
【0055】
これにより、段階1129で、コンピュータシステム100は、決定されたオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力する。すなわち、プロセッサ1070は、決定されたオーディオレンダリング情報にしたがって現在オーディオコンテンツをレンダリングしてよい。これにより、レンダリングされたオーディオコンテンツをユーザ120に提供することができるようになる。一実施形態によると、イベントは、放送プログラム現場で互いに異なるビューで撮影されるビデオ場面であってよい。図3(a)のようなフルショットに対して、プロセッサ1070は、ユーザ120が該当の放送プログラム現場の一隅でサウンドを聞くような経験ができるように、オーディオコンテンツをレンダリングしてよい。図3(b)または(c)に示すような特定の人物のクローズアップショットに対して、プロセッサ1070は、ユーザ120が該当の人物の正面でサウンドを聞くような経験ができるように、オーディオコンテンツをレンダリングしてよい。ここで、コンピュータシステム100は、該当の人物と周辺の人物との位置関係が表現されるようにオーディオコンテンツをレンダリングしてよい。図3(d)に示すような複数の人物のクローズアップショットで構成される分割画面に対して、プロセッサ1070は、分割画面内でクローズアップショットの位置によって人物を個別に把握できるようにオーディオコンテンツをレンダリングしてよい。他の実施形態によると、イベントは、照明または火花であってよく、このような場合、プロセッサ1070は、照明または火花の色とマッチングするオーディオレンダリング情報にしがたって現在オーディオコンテンツをレンダリングしてよい。
【0056】
多様な実施形態によると、コンピュータシステム100は、イベントカスタム型オーディオコンテンツをレンダリングする。このために、視覚的コンテンツの各イベントに互いに異なるオーディオレンダリング情報がマッチングされてよい。これにより、コンピュータシステム100は、イベントのうちの1つとマッチングされるオーディオレンダリング情報にしたがってオーディオコンテンツをレンダリングすることができる。このとき、コンピュータシステム100は、現在中継されるイベントとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを空間的に処理することにより、ユーザ120のために臨場感を実現することができるようになる。これにより、ユーザ120は、中継されるイベントとこれに合うようにレンダリングされたオーディオコンテンツを利用することにより、その現場にいるような臨場感を感じることができるようになる。すなわち、コンピュータシステム100は、ユーザ120の視覚的コンテンツに対する沒入感を高めることができる。
【0057】
多様な実施形態に係るコンピュータシステム100による方法は、複数のイベントに対するイベントリスト、イベントのそれぞれとマッチングするオーディオレンダリング情報に対するオーディオリスト、および現在イベント状態に関するイベント状態情報を受信する段階(1110段階)、および現在イベント状態に基づいて、イベントのうちの1つとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力する段階(1120段階)を含んでよい。
【0058】
多様な実施形態によると、現在オーディオコンテンツを出力する段階(1120段階)は、現在イベント状態がイベントのうちの少なくとも2つと関連すれば(1123段階)、予め定められた優先順位に基づいて、関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定する段階(1127段階)、および決定されたオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力する段階(1129段階)を含んでよい。
【0059】
多様な実施形態によると、イベントのそれぞれは、オーディオマッチングイベントまたは非オーディオマッチングイベントであってよい。
【0060】
多様な実施形態によると、関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定する段階(1227段階)は、関連するイベントのうちのオーディオマッチングイベントに基づいて、関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定する段階を含んでよい。
【0061】
多様な実施形態によると、イベント状態情報は、関連するイベントのレイヤ情報を含んでよい。
【0062】
多様な実施形態によると、関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定する段階(1227段階)は、レイヤ情報に基づいて、関連するイベントのうちの上位レイヤのイベントとマッチングするオーディオレンダリング情報を決定する段階を含んでよい。
【0063】
多様な実施形態によると、イベント状態情報は、イベントのうちの少なくとも1つを指示するタリー情報を含んでよい。
【0064】
多様な実施形態によると、現在オーディオコンテンツを出力する段階(1120段階)は、複数のイベントソースが連結されていれば、イベントソースの連結関係に基づいて、イベントソースのうちの1つを決定する段階、および決定されたイベントソースからのイベントとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力する段階を含んでよい。
【0065】
多様な実施形態によると、イベントソースのうちの1つを決定する段階は、予め定められた優先順位に基づいて、イベントソースのうちの1つを決定する段階、またはイベントソースのうちの1つをデフォルトとして決定する段階を含んでよい。
【0066】
多様な実施形態によると、イベントは、ビデオ場面、照明、火花、霧、またはマルチアンタクト画面のうちの少なくとも1つを含んでよい。
【0067】
多様な実施形態によると、イベントのそれぞれとマッチングするオーディオレンダリング情報は、該当のイベントと関連して、出力するためのオーディオコンテンツを空間的に処理するために利用される空間的オーディオ属性を示してよい。
【0068】
多様な実施形態に係るコンピュータシステム100は、メモリ1060、通信モジュール1020、およびメモリ1060および通信モジュール1020とそれぞれ連結し、メモリ1060に記録された少なくとも1つの命令を実行するように構成されたプロセッサ1070を含んでよい。
【0069】
多様な実施形態によると、プロセッサ1070は、複数のイベントに対するイベントリスト、イベントのそれぞれとマッチングするオーディオレンダリング情報に対するオーディオリスト、および現在イベント状態に関するイベント状態情報を受信し、現在イベント状態に基づいて、イベントのうちの1つとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力するように構成されてよい。
【0070】
多様な実施形態によると、プロセッサ1070は、現在イベント状態がイベントのうちの少なくとも2つと関連すれば、予め定められた優先順位に基づいて、関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定し、決定されたオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力するように構成されてよい。
【0071】
多様な実施形態によると、イベントのそれぞれは、オーディオマッチングイベントまたは非オーディオマッチングイベントであってよい。
【0072】
多様な実施形態によると、プロセッサ1070は、関連するイベントのうちのオーディオマッチングイベントに基づいて、関連するイベントのうちの1つとマッチングするオーディオレンダリング情報を決定するように構成されてよい。
【0073】
多様な実施形態によると、イベント状態情報は、関連するイベントのレイヤ情報を含んでよい。
【0074】
多様な実施形態によると、プロセッサ1070は、レイヤ情報に基づいて、関連するイベントのうちの上位レイヤのイベントとマッチングするオーディオレンダリング情報を決定するように構成されてよい。
【0075】
多様な実施形態によると、イベント状態情報は、イベントのうちの少なくとも1つを指示するタリー情報を含んでよい。
【0076】
多様な実施形態によると、プロセッサ1070は、複数のイベントソースが連結されていれば、イベントソースの連結関係に基づいて、イベントソースのうちの1つを決定し、決定されたイベントソースからのイベントとマッチングするオーディオレンダリング情報にしたがって現在オーディオコンテンツを出力するように構成されてよい。
【0077】
多様な実施形態によると、プロセッサ1070は、予め定められた優先順位に基づいて、イベントソースのうちの1つを決定するか、イベントソースのうちの1つをデフォルトとして決定するように構成されてよい。
【0078】
多様な実施形態によると、イベントは、ビデオ場面、照明、火花、霧、またはマルチアンタクト画面のうちの少なくとも1つを含んでよい。
【0079】
多様な実施形態によると、イベントのそれぞれとマッチングするオーディオレンダリング情報は、該当のイベントと関連して、出力するためのオーディオコンテンツを空間的に処理するために利用される空間的オーディオ属性を示してよい。
【0080】
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)およびOS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを記録、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者であれば、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
【0081】
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、コンピュータ記録媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で記録されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータ読み取り可能な記録媒体に記録されてよい。
【0082】
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータ読み取り可能な媒体に記録されてよい。ここで、媒体は、コンピュータ実行可能なプログラムを継続して記録するものであっても、実行またはダウンロードのために一時記録するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよく、あるコンピュータシステムに直接接続する媒体に限定されることはなく、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD-ROMおよびDVDのような光媒体、フロプティカルディスクのような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含み、プログラム命令が記録されるように構成されたものであってよい。また、媒体の他の例として、アプリケーションを配布するアプリケーションストアやその他の多様なソフトウェアを供給または配布するサイト、サーバなどで管理する記録媒体または格納媒体が挙げられる。
【0083】
本文書の多様な実施形態およびここで使用した用語は、本文書に記載された技術を特定の実施形態に対して限定しようとするものでなく、該当の実施例の多様な変更、均等物、および/または代替物を含むものと理解されなければならない。図面の説明に関し、類似の構成要素には類似の参照符号を使用した。単数の表現は、文脈において明らかに異なるように意味していない限り、複数の表現を含んでよい。本文書において、「AまたはB」、「Aおよび/またはBのうちの少なくとも1つ」、「A、B、またはC」、または「A、B、および/またはCのうちの少なくとも1つ」などの表現は、ともに羅列された項目のすべての可能な組み合わせを含んでよい。「第1」、「第2」、「一番目」、または「二番目」などの表現は、該当の構成要素を順序または重要度に関係なく修飾してよく、ある構成要素を他の構成要素と区分するためだけに使用されるものであって、該当の構成要素を限定するものではない。ある(例:第1)構成要素が他の(例:第2)構成要素に「(機能的にまたは通信的に)連結して」いるとか「接続して」いると言及された場合には、前記ある構成要素が前記他の構成要素に直接的に連結してもよいし、他の構成要素(例:第3構成要素)を介して連結してもよい。
【0084】
本文書で使用される用語「モジュール」は、ハードウェア、ソフトウェア、またはファームウェアで構成されたユニットを含み、例えば、ロジック、論理ブロック、部品、または回路などの用語と相互互換的に使用されてよい。モジュールは、一体で構成された部品、または1つまたはそれ以上の機能を実行する最小単位またはその一部であってよい。例えば、モジュールは、ASIC(application-specific integrated circuit)で構成されてよい。
【0085】
多様な実施形態によると、記述した構成要素のそれぞれの構成要素(例:モジュールまたはプログラム)は、単数または複数の個体を含んでよい。多様な実施形態によると、上述した該当の構成要素のうちの1つ以上の構成要素または段階が省略されてもよし、1つ以上の他の構成要素または段階が追加されてもよい。代替または追加的に、複数の構成要素(例:モジュールまたはプログラム)は、1つの構成要素として統合されてもよい。このような場合、統合された構成要素は、複数の構成要素それぞれの構成要素の1つ以上の機能を、統合前に複数の構成要素のうちの該当の構成要素によって実行されるものと同一または類似に実行してよい。多様な実施形態によると、モジュール、プログラム、または他の構成要素によって実行される段階は、順次的、並列的、反復的、または発見的に実行されてもよいし、段階のうちの1つ以上が他の順序で実行されてもよいし、省略されてもよいし、1つ以上の他の段階が追加されてもよい。
【符号の説明】
【0086】
100:コンピュータシステム
110:制作環境
120:ユーザ
図1
図2
図3
図4A
図4B
図5
図6
図7A
図7B
図8A
図8B
図9A
図9B
図9C
図9D
図9E
図9F
図9G
図9H
図10
図11
図12