【文献】
大津 耕陽、福島 史康、高橋 秀和、平原 実留、福田 悠人、小林 貴訓、久野 義徳、山崎 敬一,Affinity Live:演者と観客の一体感を増強する双方向ライブ支援システム,情報処理学会論文誌,Vol.59 No.11,日本,情報処理学会,2018年11月15日,第2019頁-第2029頁,https://ipsi.ixsq.nii.ac.jp/ej/?action=pages_view_main&active_action=repository_view_main_item_detail&item_id=192353&item_no=1&page_id=13&block_id=8
(58)【調査した分野】(Int.Cl.,DB名)
前記映像再生部が出力する前記同期信号を前記同期要素再生部が対応する形式に変換する同期信号変換部を含むことを特徴とする請求項1に記載の映像ステージパフォーマンスシステム。
前記同期要素再生部は、あらかじめ定められたフレームレートに従って前記同期信号を解釈することを特徴とする請求項1に記載の映像ステージパフォーマンスシステム。
前記映像再生部を外部から制御する機能および複数の機器から前記映像再生部を操作するための操作信号を受け付ける機能を有する映像再生制御部を有することを特徴とする請求項1に記載の映像ステージパフォーマンスシステム。
【発明を実施するための形態】
【0016】
以下、図面を参照して、本発明の実施形態を詳細に説明する。本実施形態においては、映像によるステージパフォーマンスを提供するためのシステムおよび用いられるデータのデータ構造やその取扱いの仕組みについて説明する。
【0017】
図1は、本実施形態に係る映像ステージパフォーマンスシステム1の全体構成を示す図である。
図1に示すように、本実施形態に係る映像ステージパフォーマンスシステム1は、編集ソフト端末100、映像ファイル記憶媒体110a、110b(以降、総じて映像ファイル記憶媒体110とする)、コントロールサーバ200、コントロールボックス300、同期システム400a、400b(以降、総じて同期システム400とする)、映像スイッチャー500、表示装置510、音声スイッチャー600、PA(Public Address)システム610、スピーカー611、生バンド用イヤモニ612、映像スイッチャー700、表示装置710を含む。また、同期システム400a、400bは、それぞれ映像プレーヤー401、fps(frames per second)変換器402、LTC(Linear Time Code)変換器403、DAW(Digital Audio Workstation)端末410および背景映像端末420を含む。
【0018】
編集ソフト端末100は、ステージパフォーマンスで再生するための映像を制作、編集するための端末であり、専用のソフトウェアがインストールされたPC(Personal Computer)によって実現される。また、編集ソフト端末100は、コントロールサーバ200を介して同期システム400に含まれる映像プレーヤー401を操作する機能を有する。編集ソフト端末100はネットワークAを介してコントロールサーバ200と通信可能に接続されている。
【0019】
また、編集ソフト端末100は、制作・編集した映像ファイルを書き出し、映像ファイル記憶媒体110に格納する。映像ファイル記憶媒体110は映像プレーヤー401に挿入される。これにより、格納された映像ファイルが映像プレーヤー401によって再生される。
【0020】
ネットワークAはLAN(Local Area Network)等の双方向通信可能なネットワーク回線である。コントロールサーバ200は、同期システム400に含まれる映像プレーヤー401をコントロールするための機能を有するサーバである。コントロールボックス300はステージパフォーマンスの会場にて映像プレーヤー401をワンタッチで操作するための操作部であり、専用のI/Fを介してコントロールサーバ200と接続されている。
【0021】
コントロールサーバ200は編集ソフト端末100やコントロールボックス300から入力される制御信号に応じて同期システム400に含まれる映像プレーヤー401による映像の再生を制御する。即ち、コントロールサーバ200が映像再生制御部として機能する。図に示すように本実施形態に係る同期システム400はメインシステムとバックアップシステムとして二重化されており、コントロールサーバ200は双方に対して同時に制御信号を送信する。
【0022】
同期システム400は、映像ファイル記憶媒体110に格納された映像ファイルを再生すると共に、映像に同期させて音声や背景映像等を再生する機能を提供するシステムである。映像プレーヤー401は、映像ファイル記憶媒体110に格納されている映像ファイルを再生し、映像信号を映像スイッチャー500に対して出力する映像再生部である。
【0023】
映像スイッチャー500は、原則としてメインシステムである同期システム400aの映像プレーヤー401から入力される映像信号を選択して表示装置510に対して出力するが、映像プレーヤー401から入力される映像信号が途切れた場合、サブシステムである同期システム400bの映像プレーヤー401から入力される映像信号の選択に自動的に切り替える。表示装置510はステージパフォーマンスの会場において聴衆が観覧するための映像を表示する表示装置であり、大型のディスプレイやプロジェクター等によって実現される。
【0024】
また、映像プレーヤー401は、映像スイッチャー500を介して表示装置510により表示される映像に対して音声や背景映像等を同期させるための同期信号をfps変換器402に対して出力する。fps変換器402は、映像プレーヤー401から入力された同期信号のfpsを後段の機器であるLTC変換器403が対応するものに変換して出力する。fps変換器402としては、例えばBlackmagic Design社のTeranex Expressを用いることができる。
【0025】
LTC変換器403は、fps変換器402から入力された同期信号を一般的なタイムコードであるLTC信号に変換してDAW端末410や背景映像端末420に出力する。LTC変換器403としては、例えばBlackmagic Design社のTeranex Mini Audio to SDI 12Gを用いることができる。
【0026】
DAW端末410はDAWのソフトウェアがインストールされたPCによって構成される。DAW端末410は、LTC変換器403から入力されるLTC信号に同期してDAWの機能により音声信号を出力する。DAW端末410が出力する音声信号は、同期システム400a、400b共に音声スイッチャー600に入力される。
【0027】
背景映像端末420は、背景映像を再生する機能を有する端末であり、専用のソフトウェアがインストールされたPCによって実現される。背景映像端末420は、LTC変換器403から入力されるLTC信号に同期してインストールされたソフトウェアの機能により背景映像の映像信号を出力する。背景映像端末420が出力する映像信号は、同期システム400a、400b共に映像スイッチャー700に入力される。
【0028】
音声スイッチャー600は、原則としてメインシステムである同期システム400aのDAW端末410から入力される音声信号を選択してPAシステム610対して出力するが、DAW端末410においてDAWが正常に動作している限り常に発信されている信号が途切れた場合、サブシステムである同期システム400bのDAW端末410から入力される音声信号の選択に自動的に切り替える。
【0029】
PAシステム610はスピーカー611や生バンド用イヤモニ612などの音声系統に対して音声信号を分配するミキサー等の音響機器を含むシステムである。スピーカー611はステージパフォーマンスの会場において聴衆に聴かせるための音声を出力する。生バンド用イヤモニ612は、ステージパフォーマンスにおいて実際に楽器を演奏する演奏者が装着するものであり、演奏者がテンポを取るための音声を出力する。
【0030】
映像スイッチャー700は、原則としてメインシステムである同期システム400aの背景映像端末420から入力される映像信号を選択して表示装置710に対して出力するが、背景映像端末420から入力される映像信号が途切れた場合、サブシステムである同期システム400bの背景映像端末420から入力される映像信号の選択に自動的に切り替える。
【0031】
表示装置710はステージパフォーマンスの会場において表示装置510に表示される映像に対して背景映像となる映像を聴衆に観覧させるための映像を表示する表示装置であり、大型のディスプレイやプロジェクター等によって実現される。表示装置510によって表示される映像とスピーカー611が出力する音声や表示装置710に表示される背景映像とを同期させることが同期システム400の主となる機能である。
【0032】
なお、DAW端末410や背景映像端末420は、上述した通りLTC変換器403から入力されるLTC信号に同期して音声や背景映像を再生して出力するが、そのタイミングはスピーカー611、生バンド用イヤモニ612、表示装置710の出力に応じて手動で調整される。つまり、DAW端末410や背景映像端末420は、LTC変換器403から入力されるLTC信号への同期をベースとして、オペレーターによって手動で設定された遅延若しくは前倒しの設定値に従って音声や背景映像を再生して出力することが可能である。これにより、映像ステージパフォーマンスを提供する会場ごとの信号伝達環境の違いに対応することが可能となる。
【0033】
図2は、本実施形態に係るシステムに含まれる編集ソフト端末100、コントロールサーバ200、DAW端末410、背景映像端末420等の情報機器のハードウェア構成を示す図である。これらの情報機器は一般的な情報処理機器のハードウェア構成によって実現可能であり、
図2に示すように、CPU(Central Processing Unit)10、RAM(Random Access Memory)20、ROM(Read Only Memory)30、HDD(Hard Disk Drive)40およびI/F50がバス80を介して接続されている。また、I/F50にはLCD(Liquid Crystal Display)60および操作部70が接続されている。
【0034】
CPU10は演算手段であり、情報機器全体の動作を制御する。RAM20は、情報の高速な読み書きが可能な揮発性の記憶媒体であり、CPU10が情報を処理する際の作業領域として用いられる。ROM30は、読み出し専用の不揮発性記憶媒体であり、ファームウェア等のプログラムが格納されている。HDD40は、情報の読み書きが可能な不揮発性の記憶媒体であり、OS(Operating System)や各種の制御プログラム、アプリケーション・プログラム等が格納される。
【0035】
I/F50は、バス80と各種のハードウェアやネットワーク等を接続し制御する。LCD60は、ユーザが情報機器の状態を確認するための視覚的ユーザインタフェースである。操作部70は、キーボード、マウス、各種のハードボタン、タッチパネル等、ユーザが情報機器に情報を入力するためのユーザインタフェースである。尚、コントロールサーバ200は、サーバとして運用されるため、LCD60や操作部70等のユーザインタフェースは省略可能である。
【0036】
このようなハードウェア構成において、ROM30やHDD40若しくは図示しない光学ディスク等の記憶媒体に格納されたプログラムがRAM20に読み出され、CPU10がそれらのプログラムに従って演算を行うことによりソフトウェア制御部が構成される。このようにして構成されたソフトウェア制御部と、ハードウェアとの組み合わせによって、本実施形態に係る映像ステージパフォーマンスシステムを構成する各機器の機能を実現する機能ブロックが構成される。
【0037】
このようなシステムにおいて、本実施形態に係る要旨は、同期システム400による映像と音声その他の要素とを同期させて再生する機能を前提として、ステージパフォーマンスにおいて再生される映像や音声の素材となるデータの取り扱いを容易にするための構成である。
【0038】
上述した通り、映像によるステージパフォーマンスの提供に際しては、映像プレーヤー401によって再生される映像と、DAW端末410によって再生される音声や背景映像端末420によって再生される背景映像とが同期されて聴衆に提供される。このような構成は、メインとなる映像と音声や背景映像とが別々に用意されるために必要である。また、会場によってPAシステム610やスピーカー611の構成に違いがあり信号の遅延態様が異なるために個別の遅延制御が必要であり、このような構成が適している。
【0039】
このような構成においては、当然ながら映像は映像プレーヤー401、音声はDAW端末410、背景映像は背景映像端末420によってそれぞれ再生される。従って、映像ステージパフォーマンスを管理するオペレーターは、映像、音声、背景映像それぞれの素材となるデータを個別に管理し、ステージパフォーマンスの当日において個別に再生操作する必要があり、操作が非常に煩雑になってしまう。
【0040】
これに対して、本実施形態に係るシステムにおいては、映像プレーヤー401によって再生される映像が編集ソフト端末100において専用のソフトウェアを用いて制作される際、ステージパフォーマンスにおいて演奏される全楽曲がセットリストに従って時系列に配置されて制作される。そして、そのソフトウェアにおける楽曲の時系列の配置状態を示す情報が、時系列配置情報として音声や背景映像等の同期が必要な他の要素の制作者にも共有される。
【0041】
DAW端末410や背景映像端末420においては、上述した時系列配置情報に従ってタイムコードが合わせられて音声や背景映像が制作・編集される。これにより、DAW端末410の音声や背景映像端末420の背景映像のタイムコードは、映像ファイル記憶媒体110に記憶されて映像プレーヤー401によって再生される映像ファイルのタイムコードと対応することとなる。
【0042】
従って、ステージパフォーマンスの当日においては、映像プレーヤー401において映像ファイル記憶媒体110に記憶された映像ファイルをセットリストの順に再生し、その再生タイミング応じたタイムコードを示す同期信号をDAW端末410や背景映像端末420に入力すれば、DAW端末410や背景映像端末420においてはタイムコードが対応する音声や背景映像が再生される。このため、オペレーターが再生されるファイルの対応関係を管理するような煩雑な操作が不要となり、素材の取り扱いを容易化することができる。
【0043】
図3は、編集ソフト端末100にインストールされた映像編集用のソフトウェアのGUI(Graphical User Interface)を示す図である。
図3においては、映像トラックが“TRACK01”、音声トラックが“TRACK02”として図視されており、“01:00:00”〜“01:06:00”と示されている通り、左右方向が時系列である。
【0044】
映像トラックのうち素材が配置されている期間には斜線が付されている。なお、編集時の利便性の観点から
図3に“TRACK02”として示すように音声トラックも含まれているが、この音声は実際にステージパフォーマンスにおいて再生される音声ではなく編集時の確認用の音声である。
【0045】
図3においては、例として“TRACK01”のみが映像トラックとして図示されているが、複数の映像トラックが重ねて表示される態様であってもよい。映像によるステージパフォーマンスにおいては、主としてCGによるキャラクターの映像が用いられるが、その他、手描きによるアニメーション映像や撮影された実写映像等、視覚的に表示される映像であれば同様に適用可能である。
【0046】
しかしながら、本発明の趣旨の1つは、映像によるステージパフォーマンスにおいて再生される映像について、ステージ全編の映像を1つのファイルではなく複数のファイルに分割し、理想的にはセットリストの楽曲ごとに個別のファイルとすることにある。これにより、映像にリテイクが生じた際、ステージ全編の映像を映像ファイル記憶媒体110に記憶し直すのではなく、リテイクが生じた部分を含む映像のみを映像ファイル記憶媒体110に記憶し直すだけで良くなる。
【0047】
そのような効果は、映像ファイル記憶媒体110への映像ファイルの記憶に必要な時間が長い場合に最大化される。そのような場合とは、例えば、ステージパフォーマンスにおいて再生される映像がCGであり、映像ファイル記憶媒体110への映像ファイルの記憶に際してCGのレンダリング処理を要する場合である。
【0048】
また、
図3においては、“01:00:00”〜“01:06:00”のように時系列が“01:00:00”からスタートしている。これは映像制作業界の慣例に従った態様であるが、本件特許の効果を得る上では“00:00:00”からのスタートとしても問題ない。
【0049】
図3に示す通り、1曲の終了タイミングを示すタイミングt
01EDと、次の曲の開始タイミングを示すt
02OPとの間には、無音期間T
01−02が設けられている。この無音期間T
01−02は、実際のステージパフォーマンスにおける曲間ではなく、それ以上に余裕をもって設けられる。この無音期間T
01−02を利用する形で実際のステージパフォーマンスにおける曲間が調整される。詳細は後述する。
【0050】
図3において斜線で示されている楽曲の配置期間を示す情報が、上述した時系列配置情報として用いられる。
図4は、本実施形態に係る時系列配置情報のデータ構造を示す図である。
図4に示すように、本実施形態に係る時系列配置情報は“セットリストNo”、“開始タイミング”、“コンテンツID”、“コンテンツ長さ”の情報を含む。
【0051】
“セットリストNo”は、ステージパフォーマンスにおける楽曲の順番を示す値である。“開始タイミング”は、時系列においてそれぞれの楽曲の開始タイミングを示す値である。“コンテンツID”は、それぞれの楽曲を特定する情報であり、DAW端末410や背景映像端末420のオペレーターに対して時系列配置情報と共に提供されるサンプルデータのファイル名や曲名等が用いられる。
【0052】
“コンテンツ長さ”は、それぞれの楽曲の長さを示す値であり、
図3に示す斜線範囲の左端から右端までの期間を示す値である。なお、
図4に示す通り、“開始タイミング”や“コンテンツ長さ”等の時間、タイミングを示す情報であるタイムコードは、“01:00:0* **/60”のように、時分秒とフレーム数を示す形式の情報である。この形式は、映像のフレームレートに応じて、フレーム単位で時系列の映像や音声を示す上で効果的である。
【0053】
本実施形態に係る編集ソフト端末100は、60fpsのフレームレートで映像を制作・編集する。従って、“01:00:0* **/60”の形式で示される時間情報の“**/60”の分子の部分は、0〜59までの値をとり、60になると0に戻って秒数が1増える。換言すると、“**/60”の部分は1秒の間におけるタイミングをフレームレートに従って示している値である。
【0054】
このような情報が含まれるため、時系列配置情報を共有することにより、
図3にGUIを示すような編集ソフト端末100のソフトウェアによって制作される映像のタイムコードを、他のオペレーターと共有することが可能となる。その結果、映像プレーヤー401が映像ファイル記憶媒体110に記憶された映像ファイルを再生することにより並行して出力されるタイムコードに、DAW端末410や背景映像端末420において再生される音声や映像のタイムコードを対応させることが可能となる。
【0055】
なお、上述したように、
図3に示す無音期間T
01−02は、実際のステージパフォーマンスにおける曲間ではない。従って、編集ソフトによって編集した映像を映像ファイルとして書き出し、映像ファイル記憶媒体110に格納する際には、セットリストに含まれる楽曲ごとに書き出す期間を指定する必要がある。
図5はそのような期間を指定するための映像書き出し指定情報の例を示す図である。
【0056】
図5に示すように、本実施形態に係る映像書き出し指定情報は、“セットリストNo”、“開始タイミング”、“指定長さ”の情報を含む。“セットリストNo”は
図4において説明した“セットリストNo”と同様の値である。“開始タイミング”は、それぞれのセットリストNoに対応する楽曲を書き出す期間の開始タイミングを指定する値であり、
図3に示す時系列に対応している。“コンテンツ長さ”は、それぞれのセットリストNoに対応する楽曲を書き出す期間の長さを示す値であり、“開始タイミング”と同様に
図3に示す時系列に対応している。
【0057】
図6は、
図5に示すような映像書き出し指定情報による書き出し期間の指定を概念的に示す図である。
図3において説明したように、Set
nの終端t
nEDと次の曲の先端t
n+1OPとの期間が編集ソフト上での空間期間T
n−n+1である。これに対して、
図5において説明した書き出し指定情報において、Set
n+1の“開始タイミング”は、次の曲の先端t
n+1OPよりも期間T´
n−n+1早いt´
n+1OPとして指定されている。これにより、Set
n+1の楽曲は、実際に映像や音声が始まるタイミングであるt
n+1OPの前に期間T´
n−n+1分の期間を含む映像ファイルとして書き出される。
【0058】
このようにして、編集ソフト端末100は、上述した時系列配置情報の時系列において“開始タイミング”で指定されたタイミングから“指定長さ”で指定された期間の映像を、セットリストに含まれる各楽曲の映像ファイルとして書き出す。その際、編集ソフト端末100は、ファイル名順に自動的に連続して再生した場合に、セットリストの順に各映像ファイルが再生されるようにファイル名を付与する。
【0059】
その結果、
図7に示すように、映像ファイル記憶媒体110に、セットリストに従ったファイル名で映像ファイルが書き出される。このように映像ファイル記憶媒体110に格納された映像ファイルが、映像プレーヤー401によってファイル名の順に再生されると、
図8に示すように
図6に示すSet
nの楽曲とSet
n+1の楽曲については期間T´
n−n+1が実際の曲間になる。つまり、書き出し指定情報において期間T´
n−n+1を調整することにより、ステージパフォーマンス当日の曲間を調整することが可能である。
【0060】
図9は、映像ファイル記憶媒体110に格納された映像ファイルのデータ構造を示す図である。映像ファイル記憶媒体110に格納された映像ファイルは、所定のフレームレートに従って時系列に“映像”、“音声”および“タイムコード”が含まれる。上述したように、本実地形態に係るフレームレートは60fpsである。なお、上述したように、映像ファイル記憶媒体110に格納される映像ファイルに含まれる“音声”は、実際のステージパフォーマンスで聴衆に提供されるものではなく映像を確認する際の仮のデータである。
図9の例においては、“タイムコード”が、映像に関連付けられた時間情報として用いられる。
【0061】
次に、コントロールサーバ200の機能について
図10を参照して説明する。
図10に示すように、コントロールサーバ200は、制御部210、ネットワークI/F220および専用I/F230を含む。また、制御部210は、コントロールアプリケーション211及びネットワーク制御部212を含む。
【0062】
ネットワークI/F220は、コントロールサーバ200がネットワークを介して他の機器と通信するためのインターフェースであり、Ethernet(登録商標)等のインターフェースが用いられる。専用I/F230はコントロールサーバ200が、コントロールボックス300や映像プレーヤー401と信号をやり取りするための専用のインターフェースである。
【0063】
コントロールアプリケーション211は、専用I/F230を介してコントロールボックス300からのコントロール信号を受け付ける。また、コントロールアプリケーション211は、専用I/F230を介して映像プレーヤー401にコントロール信号を送信する。
図10においてはコントロールボックス300および映像プレーヤー401が単一の専用I/F230に接続されているように示されているが、それぞれ別個の専用I/Fに接続されている場合もあり得る。
【0064】
制御部210は、ソフトウェアとハードウェアとの組み合わせによって構成され、コントロールサーバ200の主となる機能を実現する。コントロールアプリケーション211は、コントロールサーバ200の主となる機能を提供する構成であり、映像プレーヤー401をコントロールする。
【0065】
例えば、オペレーターがコントロールボックス300を操作して映像プレーヤー401を操作する場合、コントロールボックス300がオペレーターの操作に応じた操作信号を専用I/F230を介してコントロールアプリケーション211に送信する。コントロールアプリケーション211は、コントロールボックス300から受信した操作信号に応じて、映像プレーヤー401を動作させるためのコントロール信号を専用I/F230を介して映像プレーヤー401に送信する。
【0066】
また、本実施形態に係る編集ソフト端末100は、映像ファイル記憶媒体110に格納するための映像ファイルを編集、制作する機能に加えて、編集ソフトのGUIを介して映像プレーヤー401を操作する機能を有する。コントロールアプリケーション211は、そのためにコントロール信号を仲介する機能を有する。
【0067】
例えば、
図3にて説明した編集ソフト端末100の編集ソフトのGUIでは、タイムライン上で指定されたタイミングにおけるフレームの映像や音声の波形がGUI上に表示される。これにより、オペレーターは任意のタイミングにおける映像を容易に確認することが可能である。即ち、編集ソフト端末100が映像配置制御部として機能する。
【0068】
そのように任意のタイミングが指定された状態で映像プレーヤー401での再生が指定されると、編集ソフト端末100はネットワークAを介してコントロールサーバ200に対して制御信号を送信する。この時、編集ソフト端末100が送信する制御信号には、映像プレーヤー401での再生を命令することを示す識別子に加えて、指定されているタイミングを示すタイムコードが含まれる。このタイムコードは
図9において説明したタイムコードに対応している。
【0069】
コントロールサーバ200では、ネットワークI/F220、ネットワーク制御部212を介して、コントロールアプリケーション211が編集ソフト端末100から送信された制御信号を受信する。コントロールアプリケーション211は、制御信号に含まれる識別子に基づいて映像プレーヤー401への再生命令であることを解釈し、上述したタイムコードと共に再生命令を専用I/F230を介して映像プレーヤー401に送信する。
【0070】
映像プレーヤー401においては、コントロールサーバ200から受信した制御信号に基づき、まずは指定されたタイムコードをキーとして映像ファイル記憶媒体110に記憶されている映像ファイルを検索する。
図4等で説明した通り、映像ファイル記憶媒体110に記憶されている映像ファイルに含まれるタイムコードは、全楽曲が時系列に並べられた状態のタイムコードである。
【0071】
従って、編集ソフト端末100において選択された任意のタイミングのタイムコードは、映像ファイル記憶媒体110に記憶されている複数の映像ファイルのうちいずれか1つのみが対応している。映像プレーヤー401は、その検索の結果としてキーとなるタイムコードを含む映像ファイルを抽出し、指定されたタイムコードのタイミングから映像ファイルを再生する。
【0072】
このような構成により、編集ソフト端末100を介して各楽曲のタイミングを視覚的に確認し、任意のタイミングにおいて映像プレーヤー401に楽曲を再生させることができる。このような構成は、例えばステージパフォーマンスのリハーサル等で有効である。リハーサルにおいては、全楽曲を通してテストする場合の他、特定の楽曲の任意のタイミングのみをテストすることが必要な場合もある。そのような場合、このような構成によりリハーサルを効率的に行うことが可能となる。
【0073】
また、このようなコントロールサーバ200を介した構成は、映像プレーヤー401のインターフェースの制約に応じて採用されている。映像プレーヤー401のように動作する機器を外部からコントロールする場合、映像プレーヤー401に設けられている外部コントロール用のインターフェースを用いる。
【0074】
しかしながら、外部コントロール用のI/Fは1対1の接続のみに対応しており、本実施形態のようにコントロールボックス300および編集ソフト端末100双方からの制御を直接受け付けるような構成には対応していない事が多い。コントロールサーバ200を映像プレーヤー401と接続し、コントロールサーバ200が複数の機器からの命令を受け付けることで、そのような制約を回避することが可能である。
【0075】
このようにして、映像プレーヤー401は、映像ファイル記憶媒体110に格納されている映像ファイルをコントロールサーバ200からのコントロール信号に基づいて再生し、映像信号を映像スイッチャー500に出力する。映像プレーヤー401による映像信号の出力は、例えばHDMI(High−Definition Multimedia Interface)信号などの一般的な映像信号を用いることが可能である。
【0076】
また、映像プレーヤー401は、映像ファイルを再生することにより映像スイッチャー500に対して出力する映像信号と並行して、現在映像信号として出力されているフレームに対応したタイムコードを同期信号としてfps変換器402に対して出力する。映像フレームとタイムコードとの対応関係は
図9において説明した通りである。
【0077】
なお、映像プレーヤー401によるfps変換器402への同期信号の出力としては、タイムコードのみを抽出して出力する態様の他、単に映像信号を映像スイッチャー500とfps変換器402との二系統に並行して出力する態様でも良い。このような態様は、例えば映像プレーヤー401がHDMI出力を二系統備えるのみで実現可能である。
【0078】
fps変換器402は、映像プレーヤー401から出力された同期信号のフレームレートを後段の機器が対応する形式に変換してLTC変換器403に出力する。上述したように、本実施形態に係る映像ファイルのフレームレートは60fpsであり、fps変換器402はそれを30fpsに変換する。
【0079】
図10は、
図9に示す映像ファイルのフレームレートを30fpsに変換した結果の例を示す図である。
図10に示すように、fps変換器によって60fpsが30fpsに変換されることにより、映像フレームは2フレーム毎に1フレームが間引かれる。また、“タイムコード”は時分秒以下が“**/60”の形式で示されていたものが“**/30”の形式に変換される。
【0080】
図10に示すように同期信号のフレームレートが変換された後であっても、それぞれのフレームにおけるタイムコードが1秒の間において示すタイミングは変換前と変換後で同一である。従って、それぞれの映像フレームに対応した正確なタイムコードが後段の機器に伝達され、DAW端末410によって再生される音声や背景映像端末420によって再生される背景映像が、同期信号に従って映像プレーヤー401によって再生される映像に同期されることとなる。
【0081】
fps変換器402の趣旨は同期信号のフレームレートを変換する事であるが、上述した通り本実施形態においてfps変換器402に供給される信号はHDMI信号等の映像信号である。従って、本実施形態に係るfps変換器402は単純に供給される映像信号のフレームレートを変換する機能を有する機器であれば良い。このような構成により、既存の機器の機能によって本実施形態に係る構成を実現することが可能となる。
【0082】
LTC変換器403はfps変換器402から入力されるフレームレート変換後の同期信号に基づきLTC信号を生成してDAW端末410や背景映像端末420に出力する。タイムコードを内容とする同期信号をLTC信号に変換する処理として既存の処理を用いることにより容易に実現可能であるが、本実施形態においては上述したように既存製品の機能を用いて実現される。
【0083】
次に、DAW端末410の機能について
図12を参照して説明する。
図12に示すように、本実施形態に係るDAW端末410は、
図2において説明したLCD60、操作部70に加えて、制御部411、音声I/F412およびLTC I/F413を含む。また、制御部411は、操作制御部414、表示制御部415、DAWアプリケーション416、音声I/F制御部417およびLTC処理部418を含む。
【0084】
音声I/F412は、DAW端末410がDAWアプリケーション416の機能により音声を再生した際に音声信号を出力するハードウェアである。音声I/F412としては、RCAケーブル、ミニケーブル、フォンケーブル、XLRケーブル等に対応する端子の一般的な音声インターフェースを用いることができる。
【0085】
LTC I/F413は、LTC変換器403から入力されるLTC信号を受信するための端子を備えたハードウェアである。LTC I/F412としては、D−sub端子や同軸端子、XLRケーブル等、LTC信号において用いられる一般的な端子を備えたものを用いることができる。
【0086】
制御部411は、ソフトウェアとハードウェアとの組み合わせによって構成され、DAW端末410全体を制御する制御部である。操作制御部414は、操作部70に対するユーザによる操作内容の信号を取得し、DAWアプリケーション416等のDAW端末410において動作するソフトウェアモジュールに伝達する。表示制御部415は、DAW端末410のOSやDAWアプリケーション416等、DAW端末410において動作するソフトウェアのGUI(Graphical User Interface)をLCD60に表示させる。
【0087】
DAWアプリケーション416は、音声に関する様々な機能を提供するソフトウェアであり、本実施形態においてはステージパフォーマンスにおいて聴衆に提供する音声をはじめとした各種の音声の再生処理を行う。特に、本実施形態に係るDAWアプリケーション416は、LTC処理部418から入力されるMTC(MIDI Time Code)に同期して音声を再生する。これにより、映像プレーヤー401において再生された映像に同期してDAW端末410により音声が再生され、ステージパフォーマンスの聴衆に対して映像と音声を同期させて提供することができる。
【0088】
音声I/F制御部417は、DAWアプリケーション416による音声の再生処理に応じて、音声I/F412を制御して音声信号を出力させる。音声I/F制御部417は、音声信号を出力するハードウェアとして構成される音声I/Fを制御するためのドライバ・ソフトウェアとして構成される。
【0089】
LTC処理部418は、LTC変換器403からLTC I/F413に入力されたLTC信号を取得し、DAWアプリケーション416に同期タイミングを伝えるための信号であるMTC信号に変換する。また、本実施形態に係るLTC処理部418は、入力されるLTC信号にノイズ等が入った場合等、信号が意図しない変化をした場合にその影響を無視するための機能を含む。そのような機能について、
図13、
図14を参照して説明する。
【0090】
図13は、LTC処理部418が動作に際して一時的に記憶する情報を示す図である。本実施形態に係るLTC処理部418は、処理に際して“fps設定値”、“出力値”、“変換値”の情報を用いる。“fps設定値”は、LTC処理部418が動作する際のフレームレートが予め設定される値であり、fps変換器402によって変換された後のフレームレートに対応している。上述したように、本実施形態に係る“fps設定値”は「30fps」である。
【0091】
“出力値”は、LTC処理部418がDAWアプリケーション416に対して出力したMTCの値である。“出力値”は、DAWアプリケーション416へのMTCの出力値として用いられる他、LTC処理部418が処理の中で前フレームにおけるMTCの出力値を確認する際にも用いられる。
【0092】
“変換値”は、LTC処理部418がLTC I/F413を介して受信したLTCをMTCに変換した変換結果の値である。“変換値”は、LTCから変換されたMTCの記憶値として用いられるほか、LTC処理部418が処理の中で前フレームにおけるMTCの変換値を確認する際にも用いられる。
図13に示す各情報は、RAM20内に確保された記憶領域に記憶される。
【0093】
図14は、本実施形態に係るLTC処理部418の動作を示すフローチャートである。
図13に示すように、LTC処理部418は、LTC I/F413に入力されているLTC信号を受信し、その信号をMTCに変換する(S1401)。そして、LTC処理部418は、
図13において説明した“出力値”として格納されている前フレームにおけるMTC出力値を参照し、S1401において得られた変換値が前回出力値の次のフレームを示しているか否か確認する(S1402)。
【0094】
図4等において説明した通り、本実施形態に係るタイムコードは時分秒+フレーム数の形式である。従って、S1402の処理として、フレームが時系列に進行しているか否かの確認を直接的に行うことが可能である。
【0095】
他方、例えばタイムコードが小数点以下の位まで秒数で示されている形式の場合、LTC処理部418はS1402の処理として、“fps設定値”に基づいて1フレーム分の想定の変化値を求め、その値と前回出力値とに基づいて想定されるタイムコードを算出して変換値と比較することによりS1402の判断を行う。
【0096】
ここでいう想定の変化値とは、“fps設定値”の1フレーム分に相当する秒数である。この場合、S1402における判断は必ずしも完全一致を判定する厳密なものである必要はなく、ある程度の誤差を許容して想定の範囲内であるか否かを判断するものであればよい。いずれにしろ、S1402の処理は、入力されるLTC信号が連続した時系列の変化とは異なる変化をしたことを検知するものであればよく、タイムコードの情報形式に応じて適宜実行される。
【0097】
なお、
図11において説明した通り、本実施形態に係るLTC処理部418に入力されるLTC信号は、60fpsから30fpsに変換された結果として、時分秒+フレーム数の形式であり、フレーム数の部分は“**/30”の形式である。従って、本実施形態に係るS1402において、LTC処理部418は、フレーム数の分子の部分が前回出力値+1であるか否かを判断する
【0098】
その判断の結果、MTCの値が前回の次のフレームを示している場合(S1402/YES)、LTC処理部418は、曲間におけるタイムコードの飛びを判定するための曲間判定カウンタをリセットし(S1403)、S1401の変換処理により得られたMTCを“変換値”、“出力値”として記憶すると共に、“出力値”をDAWアプリケーション416に通知し(S1404)、S1401からの処理を繰り返す。
【0099】
他方、MTCの値が前回の次のフレームを示していない場合(S1402/NO)、次に、LTC処理部418は、
図13において説明した“変換値”として格納されている前フレームにおけるMTC変換値を参照し、S1401において得られた変換値が前回変換値の次のフレームを示しているか否か確認する(S1405)。S1405の処理は、S1402の処理と同様の処理を前回変換値との比較で行うものであり、タイムコードの形式に応じて適宜実行される点も同様である。
【0100】
その判断の結果、MTCの値が前回変換値の次のフレームを示している場合(S1405/YES)、LTC処理部418は曲間判定カウンタをインクリメントする(S1406)。LTC処理部418は、曲間判定カウンタの値をインクリメントすると、その値を予め定められた閾値と比較する(S1407)。
【0101】
その結果、曲間判定カウンタの値が閾値未満であった場合(S1407/YES)、LTC処理部418は、S1402において判定されたMTCの想定外の変化が未だ一時的な意図しないものである可能性の域を出ていないと判定する。そして、LTC処理部418は、S1401の変換処理により得られたMTCを“変換値”として記憶すると共に、前フレームにおけるMTCの“出力値”として記憶されている値の次のフレームを示す値を新たな“出力値”として記憶し、その“出力値”をDAWアプリケーション416に通知して(S1408)、S1401からの処理を繰り返す。
【0102】
他方、曲間判定カウンタの値が閾値以上であった場合(S1407/NO)、LTC処理部418は、S1402において判定されたMTCの想定外の変化が、曲間による正当なものであると判定し、曲間判定カウンタをリセットした上で(S1403)、S1404の処理を行い、S1401からの処理を繰り返す。
【0103】
また、S1405における判定の結果、MTCの値が前回変換値の次のフレームを示す値ではなかった場合(S1405/NO)、LTC処理部418はLTC信号が不規則な変化をしていると判断して曲間判定カウンタをリセットし(S1409)、S1408の処理を行ってS1401からの処理を繰り返す。
【0104】
LTC処理部418は、
図14に示す処理を“fps設定値”に定められたフレームレートで繰り返す。本実施形態においては、fps変換器402によって同期信号のフレームレートが30fpsに変換された上で、LTC変換器403によって30fpsのLTC信号が出力される。それに対応して、LTC処理部418には、予め30fpsのフレームレートが設定されており、約0.033秒周期でS1401〜S1409までのサイクルを繰り返す。
【0105】
従って、
図14のS1407における判断は、LTC処理部418が受信したLTC信号が示すタイムスタンプが予期しない変化をしたのち、その変化後の値においてfpsに基づいて想定される変化量の変化が所定フレーム数継続したか否かの判断に等しい。その所定のフレーム数がS1407における閾値である、この閾値としては、環境において想定されるノイズのレベルと、
図8においてT´
n−n+1として示される実際の曲間の値とに基づいて適宜設定されるが、例えば1秒分であり30fpsにおいては30である。
【0106】
図15は、
図8において説明したような、セットリスト中で連続する楽曲が連続して再生された場合の曲間におけるフレームの変化とMTCが示すタイムスタンプの変化を示す図である。
図6において説明したように、編集ソフト端末100において一連の時系列上に配置されて制作、編集された映像ファイルは、それぞれの楽曲の個別の映像ファイルとして書き出される際、楽曲間で余裕をもって空白期間を介して配置されている部分が時間的にトリミングされて書き出される。従って、
図15においてフレーム「N+3」と「N+4」のタイムスタンプに示すように、楽曲間でタイムスタンプの変化が非線型となる。
【0107】
DAWアプリケーション416をこのような変化に追従させるためには、単にLTC処理部418に入力されるLTC信号に従ってMTCを生成してDAWアプリケーション416を動作させれば問題ないが、アナログ信号であるLTC信号に意図しないノイズが重畳され、その意味するタイムスタンプが意図しない値となってしまう場合もある。そのようなノイズの影響を無視するために、
図14のS1407のようなある程度の閾値をもった判定が必要となる。
【0108】
なお、
図15に示すフレームN+3からN+4に変化した場合、S1406のような判定を行うことにより、LTC処理部418はすぐにはN+4に対応するタイムスタンプを出力せず、S1407の処理により、N+3に対応するタイムスタンプに30fpsの1フレーム分を足したタイムコードを出力する。そのような処理を29フレームにわたって続けた後、30フレーム目、即ちN+33のフレームになってはじめてMTC変換結果のタイムコードを出力する。
【0109】
30fpsにおける30フレームは1秒である。すなわち、S1407の閾値が30である場合には、
図15に示すような曲間の処理において、次の曲に対応したMTCの出力が約1秒遅れることとなる。この遅延に関しては、
図8において説明したような曲間の期間T´
n−n+1によって吸収される。
【0110】
なお、本実施形態に係るLTC処理部418は、
図13において説明した“fps設定値”を用いることにより、上述した30フレーム程度の遅延で早期にLTC信号に同期してMTCを出力することが可能となっている。対して、フレームレートが予め設定されていない場合、LTC処理部418はまず所定期間のLTC信号の変化を観察して信号のフレームレートを判断することとなる。その場合、フレームレートの判定には数秒を要することが一般的である。
【0111】
その後に
図13に示す処理が開始されてようやくLTC処理部418がMTCを出力し始める。従って、その数秒の間は映像プレーヤー401が映像ファイルを再生して映像が表示装置510に表示され、同期信号が出力されているにも関わらずDAWアプリケーション416が動作せずに音声が再生されないことになる。これに対して、本実施形態に係るLTC処理部418は、“fps設定値”を用いる事により、上記の数秒の遅延を排除し、
図14において説明したLTC信号の飛びに対応するための数フレームでLTC信号に同期したMTCを出力することができる。
【0112】
このようにしてLTC処理部418がMTCを出力すると、DAWアプリケーション416は入力されたMTCによって指定されたタイムスタンプに応じた音声を再生する。DAWアプリケーション416による音声の再生により、音声I/F412が音声I/F制御部417による制御に従って音声信号を出力する。
【0113】
図16は、DAWアプリケーション416のGUIの例を示す図である。DAWアプリケーション416は、音声に関する機能が統合されたソフトウェアであり、
図16に示すように、複数の音声トラックが時系列に配置されている。また、
図16に示すように、本実施形態に係るDAWアプリケーション416は、編集ソフト端末100から共有された時系列配置データをインポートすることにより、時系列配置データにおいて楽曲が配置された期間を視覚的に表示する。
図16においては、時系列配置データにおいて楽曲が配置された期間が網かけの範囲で示されている。
【0114】
このような機能により、DAWアプリケーション416のオペレーターは、時系列配置データのタイムスタンプに対応させて音声を制作・編集することが可能となる。これにより、DAWアプリケーション416において制作・編集された音声は、
図4において説明した時系列配置データのタイムコードに対応した状態となる。このような構成において、DAWアプリケーション416がLTC処理部418から入力されるMTCに同期して音声を再生することにより、再生された音声は映像プレーヤー401が再生する映像に同期したものとなる。
【0115】
なお、本実施形態に係る音声スイッチャー600、PAシステム610はDAW端末410の音声トラックに応じて複数のチャンネルを有し、チャンネルに応じてスピーカー611や生バンド612等の出力先に個別に音声を出力することが可能である。
図16において説明したように、DAWアプリケーション416においては、複数の音声トラックがタイムラインに関連付けられている。この複数の音声トラックのうちの1つは、ステージパフォーマンスにおいて実際に楽器を演奏する演奏者がテンポを取るためのクロック音である。このクロック音は、音声スイッチャー600、PAシステム610のチャンネルのうち生バンド用イヤモニ612に対応したチャンネルのみに出力される。
【0116】
DAW端末410は同期システム400において音声を司り、
図16に示すように時系列配置情報に従って音声とタイムコードとを関連付けて記憶しており、LTC信号に従って関連付けられた音声を同期して出力することができる。これに対して背景映像端末420は、同期システム400において背景映像を司る。
【0117】
従って、DAW端末410の音声に代えて、LTC信号に従って関連付けられた背景映像を同期して出力することができる。その機能構成は
図12において説明したDAW端末410の構成のうち、DAWアプリケーション416が背景映像に関する機能に代わり、音声I/F制御部417および音声I/F412が映像出力に関する機能に代わる以外は同様であり、詳細な説明は省略する。
【0118】
以上説明したように、本実施形態に係る同期システム400は、
図4において説明した時系列配置情報を前提としている。そして、映像プレーヤー401によって再生される映像ファイルは、映像ファイル記憶媒体110において、時系列配置情報が示すタイムコードと映像フレームとが関連付けられて記憶されている。また、DAW端末410においては、時系列配置情報が示すタイムコードと音声とが関連付けられて記憶されている。また、背景映像端末420においては、時系列配置情報が示すタイムコードと背景映像とが関連付けられて記憶されている。
【0119】
そして、DAW端末410や背景映像端末420は、映像プレーヤー401が映像の再生に応じて出力する同期信号に同期して音声や背景映像を再生する。その際には、手動によるファイルの選択等の煩雑な操作が不要である。このような構成により、映像によるステージパフォーマンスの提供に際して、再生される映像が複数のファイルに分けて用意される場合であっても、煩雑な仕組みや操作を要することなく容易に他の要素を映像に同期させることが可能となる。本実施形態に係る映像ステージパフォーマンスシステム1は
図1に示す全要素によって構成されているが、同期システム400a及び映像ファイル記憶媒体110aが映像ステージパフォーマンスシステムとしての最小構成である。
【0120】
なお、本実施形態においては、fps変換器402が同期信号のフレームレートを変換し、LTC変換器403が同期信号をLTC信号に変換する場合を例として説明した。即ち、fps変換器402およびLTC変換器403が同期信号変換部として機能する。これは、映像プレーヤー401が出力する同期信号を、DAW端末410が対応している形式であるLTC信号に変換するための構成である。このような構成により、インターフェースをはじめとした信号処理系統として特別な機能を設けることなく既存の仕組みを用いることができる。
【0121】
また、本実施形態に係る時系列配置情報においては、ステージパフォーマンスにおいて演じられるセットリストの順に楽曲が配置されている。これにより、
図3や
図16に示すようなGUIにおいて、セットリストに含まれる順に楽曲が配置された状態で表示され、編集や管理をより直感的に行うことが可能となる。
【0122】
しかしながら、仮に時系列配置情報における楽曲の配置順がセットリストの順とは異なる態様であっても、編集ソフト端末100、DAW端末410、背景映像端末420において共通の時系列配置情報に従ってそれぞれの要素が制作されている限り、映像、音声、背景映像は互いに対応するものが同期されて再生される。そのため、映像ファイル記憶媒体110に映像ファイルが格納された後であっても、映像プレーヤー401における映像ファイルの再生順を調整することによりセットリストの順番を容易に変更することが可能である。
【0123】
映像プレーヤー401における映像ファイルの再生順の調整は、例えば映像プレーヤー401が映像ファイルのファイル名に従って順番に映像ファイルを再生する構成において、映像ファイル記憶媒体110に記憶された映像ファイルのファイル名を変更することにより行うことが可能である。
【0124】
また、上記実施形態においては、映像プレーヤー401によって再生される映像に同期させるための他の要素として、DAW端末410によって再生される音声や、背景映像端末420によって再生される背景映像を例として説明した。即ち、DAW端末410や背景映像端末420が同期要素再生部として機能する。しかしながらこれは一例であり、ステージパフォーマンスにおいて映像に対して同期させる要素であれば同様に適用可能である。他の要素としては、例えば紙吹雪等の特殊効果、照明効果、カメラワーク等である。
【0125】
また、本実施形態に係る映像ファイルは、ステージパフォーマンスにおいて演じられるセットリストに含まれる楽曲の映像であることを例として説明した。しかしながら、映像を再生する事により聴衆に提供されるステージパフォーマンスにおいては、楽曲と楽曲との間のMC(マイク・コメント)も映像によって提供される。従って、映像ファイル記憶媒体110に記憶される映像ファイルには楽曲の映像だけでなくMCの映像も含まれる。そのような場合、DAW端末410や背景映像端末420においては、MCに対応した音声や背景映像が時系列配置情報に従って制作・編集される。
【0126】
また、上記実施形態においては、
図1において説明したように、映像スイッチャー500、音声スイッチャー600および映像スイッチャー700として、メインシステムとバックアップシステムとを切り換える切換部が個別に設けられる場合を例として説明した。この他、映像プレーヤー401、DAW端末410および背景映像端末420が出力する信号をすべて受けて切り換える単一の切換部によって切換が行われてもよい。
【課題】映像によるステージパフォーマンスの提供に際して、演奏させる楽曲が複数のファイルに分けて用意される場合であっても、煩雑な仕組みや操作を要することなく容易に他の要素を映像に同期させること。
【解決手段】全ての映像が時系列に配置された状態を示す時系列配置情報に従って映像と時間情報とが関連付けられた状態で記憶されており、映像の再生に伴って出力される同期信号は、再生対象の映像に関連付けられている時間情報を含み、同期される他の要素は、時系列配置情報に従って時間情報とを関連付けて記憶されており、これにより同期信号に従って再生される他の要素が再生される前記映像に同期される。