IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電信電話株式会社の特許一覧

特許7586326メディア加工装置、メディア加工方法及びメディア加工プログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-11
(45)【発行日】2024-11-19
(54)【発明の名称】メディア加工装置、メディア加工方法及びメディア加工プログラム
(51)【国際特許分類】
   H04N 21/44 20110101AFI20241112BHJP
   H04N 7/14 20060101ALI20241112BHJP
【FI】
H04N21/44
H04N7/14
【請求項の数】 8
(21)【出願番号】P 2023532955
(86)(22)【出願日】2021-07-07
(86)【国際出願番号】 JP2021025654
(87)【国際公開番号】W WO2023281666
(87)【国際公開日】2023-01-12
【審査請求日】2023-11-21
(73)【特許権者】
【識別番号】000004226
【氏名又は名称】日本電信電話株式会社
(74)【代理人】
【識別番号】110003708
【氏名又は名称】弁理士法人鈴榮特許綜合事務所
(72)【発明者】
【氏名】井元 麻衣子
(72)【発明者】
【氏名】深津 真二
(72)【発明者】
【氏名】宮下 広夢
【審査官】川中 龍太
(56)【参考文献】
【文献】国際公開第2015/060393(WO,A1)
【文献】特表2016-521470(JP,A)
【文献】特開2010-171594(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 21/00 - 21/858
H04N 7/14 - 7/15
(57)【特許請求の範囲】
【請求項1】
第1の拠点とは異なる第2の拠点のメディア加工装置であって、
前記第1の拠点でメディアが取得された第1の時刻及び前記メディアを前記第2の拠点で再生する時刻に前記第2の拠点で取得されたメディアに関するパケットを前記第1の拠点の電子機器によって受信したことに伴う第2の時刻に基づく伝送遅延時間に関する通知を前記第1の拠点の電子機器から受信する第1の受信部と、
前記第1の拠点で取得された第1のメディアを格納したパケットを前記第1の拠点の電子機器から受信し、前記第1のメディアを提示装置に出力する第2の受信部と、
前記伝送遅延時間に基づく加工態様に応じて、前記第1のメディアを前記第2の拠点で再生する時刻に前記第2の拠点で取得された第2のメディアから第3のメディアを生成する加工部と、
前記第3のメディアを前記第1の拠点の電子機器に送信する送信部と、
を備えるメディア加工装置。
【請求項2】
前記伝送遅延時間は、前記第2の時刻と前記第1の時刻との差の値であり、
前記加工部は、前記差の値に基づき前記加工態様を変える、
請求項1に記載のメディア加工装置。
【請求項3】
第1の拠点とは異なる第2の拠点のメディア加工装置であって、
前記第1の拠点で第1の時刻に取得されたメディアを前記第2の拠点で再生する時刻に前記第2の拠点で取得されたメディアに関するパケットを第3の拠点の電子機器によって受信したことに伴う第2の時刻及び前記第1の拠点で前記第1の時刻に取得されたメディアを前記第3の拠点で再生された第3の時刻に基づく伝送遅延時間に関する通知を前記第3の拠点の電子機器から受信する第1の受信部と、
前記第1の拠点で取得された第1のメディアを格納したパケットを前記第1の拠点の電子機器から受信し、前記第1のメディアを提示装置に出力する第2の受信部と、
前記伝送遅延時間に基づく加工態様に応じて、前記第1のメディアを前記第2の拠点で再生する時刻に前記第2の拠点で取得された第2のメディアから第3のメディアを生成する加工部と、
前記第3のメディアを前記第3の拠点の電子機器に送信する送信部と、
を備えるメディア加工装置。
【請求項4】
前記伝送遅延時間は、前記第2の時刻と前記第3の時刻との差の値であり、
前記加工部は、前記差の値に基づき前記加工態様を変える、
請求項3に記載のメディア加工装置。
【請求項5】
前記加工部は、前記差の値が大きくなるにつれてメディアの質を下げるように前記加工態様を変える、請求項2又は4に記載のメディア加工装置。
【請求項6】
第1の拠点とは異なる第2の拠点のメディア加工装置によるメディア加工方法であって、
前記第1の拠点でメディアが取得された第1の時刻及び前記メディアを前記第2の拠点で再生する時刻に前記第2の拠点で取得されたメディアに関するパケットを前記第1の拠点の電子機器によって受信したことに伴う第2の時刻に基づく伝送遅延時間に関する通知を前記第1の拠点の電子機器から受信することと、
前記第1の拠点で取得された第1のメディアを格納したパケットを前記第1の拠点の電子機器から受信することと、
前記第1のメディアを提示装置に出力することと、
前記伝送遅延時間に基づく加工態様に応じて、前記第1のメディアを前記第2の拠点で再生する時刻に前記第2の拠点で取得された第2のメディアから第3のメディアを生成することと、
前記第3のメディアを前記第1の拠点の電子機器に送信することと、
を備えるメディア加工方法。
【請求項7】
第1の拠点とは異なる第2の拠点のメディア加工装置によるメディア加工方法であって、
前記第1の拠点で第1の時刻に取得されたメディアを前記第2の拠点で再生する時刻に前記第2の拠点で取得されたメディアに関するパケットを第3の拠点の電子機器によって受信したことに伴う第2の時刻及び前記第1の拠点で前記第1の時刻に取得されたメディアを前記第3の拠点で再生された第3の時刻に基づく伝送遅延時間に関する通知を前記第3の拠点の電子機器から受信することと、
前記第1の拠点で取得された第1のメディアを格納したパケットを前記第1の拠点の電子機器から受信することと、
前記第1のメディアを提示装置に出力することと、
前記伝送遅延時間に基づく加工態様に応じて、前記第1のメディアを前記第2の拠点で再生する時刻に前記第2の拠点で取得された第2のメディアから第3のメディアを生成することと、
前記第3のメディアを前記第3の拠点の電子機器に送信することと、
を備えるメディア加工方法。
【請求項8】
請求項1乃至5の何れかのメディア加工装置が備える各部による処理をコンピュータに実行させるメディア加工プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
この発明の一態様は、メディア加工装置、メディア加工方法及びメディア加工プログラムに関する。
【背景技術】
【0002】
近年、ある地点で撮影・収録された映像・音声をデジタル化してIP(Internet Protocol)ネットワーク等の通信回線を介して遠隔地にリアルタイム伝送し、遠隔地で映像・音声を再生する映像・音声再生装置が用いられるようになってきた。例えば、競技会場で行われているスポーツ競技試合の映像・音声やコンサート会場で行われている音楽コンサートの映像・音声を遠隔地にリアルタイム伝送するパブリックビューイング等が盛んに行われている。このような映像・音声の伝送は1対1の一方向伝送にとどまらない。スポーツ競技試合が行われている会場(以下、イベント会場とする)から映像・音声を複数の遠隔地に伝送し、それら複数の遠隔地でもそれぞれ観客がイベントを楽しんでいる映像や歓声等の音声を撮影・収録し、それらの映像・音声をイベント会場や他の遠隔地に伝送し、各拠点において大型映像表示装置やスピーカから出力する、というような双方向伝送も行なわれている。
【0003】
このような双方向での映像・音声の伝送により、イベント会場にいる選手(または演者)や観客、複数の遠隔地にいる視聴者らは、物理的に離れた場所にいるにも関わらず、あたかも同じ空間(イベント会場)にいて、同じ体験をしているかのような臨場感や一体感を得ることができる。
【0004】
IPネットワークによる映像・音声のリアルタイム伝送ではRTP(Real-time Transport Protocol)が用いられることが多いが、2拠点間でのデータ伝送時間は、その2拠点をつなぐ通信回線等により異なる。例えば、イベント会場Aで時刻Tに撮影・収録された映像・音声を2つの遠隔地Bおよび遠隔地Cに伝送し、遠隔地Bおよび遠隔地Cでそれぞれ撮影・収録された映像・音声をイベント会場Aに折り返し伝送する場合を考える。遠隔地Bにおいてイベント会場Aから伝送された、時刻Tに撮影・収録された映像・音声は時刻Tb1に再生され、遠隔地Bで時刻Tb1に撮影・収録された映像・音声はイベント会場Aに折り返し伝送され、イベント会場Aで時刻Tb2に再生される。このとき、遠隔地Cにおいてはイベント会場Aで時刻Tに撮影・収録され伝送された映像・音声は時刻Tc1(≠Tb1)に再生され、遠隔地Cで時刻Tc1に撮影・収録された映像・音声はベント会場Aに折り返し伝送され、イベント会場Aで時刻Tc2(≠Tb2)に再生される場合がある。
【0005】
このような場合、イベント会場Aにいる選手(または演者)や観客にとっては、時刻Tに自分自身が体験した出来事に対して、複数の遠隔地にいる視聴がどのような反応をしたかを示す映像・音声を、それぞれ異なる時刻(時刻Tb2と時刻Tc2)で視聴することになる。イベント会場Aにいる選手(または演者)や観客にとっては、自分自身との体験とのつながりの直感的な分かりづらさや不自然さを生じさせてしまい、遠隔地の観客との一体感を高めにくいことがある。また、遠隔地Cにおいてイベント会場Aから伝送される映像・音声と遠隔地Bから伝送される映像・音声をそれぞれ再生せるときにも、遠隔地Cにいる観客が前述したような直感的な分かりづらさや不自然さを感じてしまうことがある。
【0006】
このような直感的な分かりづらさや不自然さを解消するために、従来、イベント会場Aにおいて複数の遠隔地から伝送される複数の映像・複数の音声を同期させて再生させる方法が用いられる。映像・音声の再生タイミングを同期させる場合には、送信側・受信側がともに同じ時刻情報を管理するようにNTP(Network Time Protocol)やPTP(Precision Time Protocol)等を用いて時刻同期させ、送信時に映像・音声のデータをRTPパケットにパケット化する。このときに、映像・音声をサンプリングした瞬間の絶対時刻をRTPタイムスタンプとして付与し、受信側でその時刻情報に基づき映像と音声の少なくとも1つ以上の映像と音声を遅延させてタイミングを調整し、同期をとるのが一般的である(非特許文献1)。
【先行技術文献】
【非特許文献】
【0007】
【文献】IPネットワーク経由で配信される音響信号のための同期再生技術(徳元、池戸、金子、片岡、電子情報通信学会論文誌 D-II Vol. J87-D-II No.9 pp.1870-1883)
【発明の概要】
【発明が解決しようとする課題】
【0008】
しかしながら、従来の映像・音声の再生同期方法では、もっとも遅延時間が大きい映像または音声に再生タイミングを合わせることになり、映像・音声の再生タイミングのリアルタイム性が失われるという課題があり、視聴者が感じる違和感を低減することは難しい。つまり、複数の拠点から異なる時刻に伝送される複数の映像・音声を再生するときに視聴者が感じる前述したような違和感を軽減するように映像・音声の再生を工夫する必要がある。また、複数の拠点から伝送される映像・音声のデータ伝送時間を短縮する必要がある。
【0009】
この発明は、上記事情に着目してなされたもので、その目的とするところは、複数の拠点から異なる時刻に伝送される複数の映像・音声が再生されるときに視聴者が感じる違和感を低減させる技術を提供することにある。
【課題を解決するための手段】
【0010】
この発明の一実施形態では、メディア加工装置は、第1の拠点とは異なる第2の拠点のメディア加工装置であって、前記第1の拠点でメディアが取得された第1の時刻及び前記メディアを前記第2の拠点で再生する時刻に前記第2の拠点で取得されたメディアに関するパケットを前記第1の拠点の電子機器によって受信したことに伴う第2の時刻に基づく伝送遅延時間に関する通知を前記第1の拠点の電子機器から受信する第1の受信部と、前記第1の拠点で取得された第1のメディアを格納したパケットを前記第1の拠点の電子機器から受信し、前記第1のメディアを提示装置に出力する第2の受信部と、前記伝送遅延時間に基づく加工態様に応じて、前記第1のメディアを前記第2の拠点で再生する時刻に前記第2の拠点で取得された第2のメディアから第3のメディアを生成する加工部と、前記第3のメディアを前記第1の拠点の電子機器に送信する送信部と、を備える。
【発明の効果】
【0011】
この発明の一態様によれば、複数の拠点から異なる時刻に伝送される複数の映像・音声が再生されるときに視聴者が感じる違和感を低減させることができる。
【図面の簡単な説明】
【0012】
図1図1は、第1の実施形態に係るメディア加工システムに含まれる各電子機器のハードウェア構成の一例を示すブロック図である。
図2図2は、第1の実施形態に係るメディア加工システムを構成する各電子機器のソフトウェア構成の一例を示すブロック図である。
図3図3は、第1の実施形態に係る拠点R1のサーバが備える映像時刻管理DBのデータ構造の一例を示す図である。
図4図4は、第1の実施形態に係る拠点R1のサーバが備える音声時刻管理DBのデータ構造の一例を示す図である。
図5図5は、第1の実施形態に係る拠点Oにおけるサーバの映像処理手順と処理内容を示すフローチャートである。
図6図6は、第1の実施形態に係る拠点R1におけるサーバの映像処理手順と処理内容を示すフローチャートである。
図7図7は、第1の実施形態に係る拠点Oにおけるサーバの映像Vsignal1を格納したRTPパケットの送信処理手順と処理内容を示すフローチャートである。
図8図8は、第1の実施形態に係る拠点R1におけるサーバの映像Vsignal1を格納したRTPパケットの受信処理手順と処理内容を示すフローチャートである。
図9図9は、第1の実施形態に係る拠点R1におけるサーバの提示時刻t1の算出処理手順と処理内容を示すフローチャートである。
図10図10は、第1の実施形態に係る拠点Oにおけるサーバの映像Vsignal3を格納したRTPパケットの受信処理手順と処理内容を示すフローチャートである。
図11図11は、第1の実施形態に係る拠点OにおけるサーバのΔdx_videoを格納したRTCPパケットの送信処理手順と処理内容を示すフローチャートである。
図12図12は、第1の実施形態に係る拠点R1におけるサーバのΔdx_videoを格納したRTCPパケットの受信処理手順と処理内容を示すフローチャートである。
図13図13は、第1の実施形態に係る拠点R1におけるサーバの映像Vsignal2の加工処理手順と処理内容を示すフローチャートである。
図14図14は、第1の実施形態に係る拠点R1におけるサーバの映像Vsignal3を格納したRTPパケットの送信処理手順と処理内容を示すフローチャートである。
図15図15は、第1の実施形態に係る拠点Oにおけるサーバの音声処理手順と処理内容を示すフローチャートである。
図16図16は、第1の実施形態に係る拠点R1におけるサーバの音声処理手順と処理内容を示すフローチャートである。
図17図17は、第1の実施形態に係る拠点Oにおけるサーバの音声Asignal1を格納したRTPパケットの送信処理手順と処理内容を示すフローチャートである。
図18図18は、第1の実施形態に係る拠点R1におけるサーバの音声Asignal1を格納したRTPパケットの受信処理手順と処理内容を示すフローチャートである。
図19図19は、第1の実施形態に係る拠点Oにおけるサーバの音声Asignal3を格納したRTPパケットの受信処理手順と処理内容を示すフローチャートである。
図20図20は、第1の実施形態に係る拠点OにおけるサーバのΔdx_audioを格納したRTCPパケットの送信処理手順と処理内容を示すフローチャートである。
図21図21は、第1の実施形態に係る拠点R1におけるサーバのΔdx_audioを格納したRTCPパケットの受信処理手順と処理内容を示すフローチャートである。
図22図22は、第1の実施形態に係る拠点R1におけるサーバの音声Asignal2の加工処理手順と処理内容を示すフローチャートである。
図23図23は、第1の実施形態に係る拠点R1におけるサーバの音声Asignal3を格納したRTPパケットの送信処理手順と処理内容を示すフローチャートである。
図24図24は、第2の実施形態に係るメディア加工システムに含まれる各電子機器のハードウェア構成の一例を示すブロック図である。
図25図25は、第2の実施形態に係るメディア加工システムを構成する各電子機器のソフトウェア構成の一例を示すブロック図である。
図26図26は、第2の実施形態に係る拠点R2のサーバが備える音声時刻管理DBのデータ構造の一例を示す図である。
図27図27は、第2の実施形態に係る拠点R1におけるサーバの映像処理手順と処理内容を示すフローチャートである。
図28図28は、第2の実施形態に係る拠点R2におけるサーバの映像処理手順と処理内容を示すフローチャートである。
図29図29は、第2の実施形態に係る拠点R2におけるサーバのΔdx_videoを格納したRTCPパケットの送信処理手順と処理内容を示すフローチャートである。
図30図30は、第2の実施形態に係る拠点R1におけるサーバの音声処理手順と処理内容を示すフローチャートである。
図31図31は、第2の実施形態に係る拠点R2におけるサーバの音声処理手順と処理内容を示すフローチャートである。
図32図32は、第2の実施形態に係る拠点R2におけるサーバの音声Asignal1を格納したRTPパケットの受信処理手順と処理内容を示すフローチャートである。
図33図33は、第2の実施形態に係る拠点R2におけるサーバの提示時刻t2の算出処理手順と処理内容を示すフローチャートである。
図34図34は、第2の実施形態に係る拠点R2におけるサーバのΔdx_videoを格納したRTCPパケットの送信処理手順と処理内容を示すフローチャートである。
【発明を実施するための形態】
【0013】
以下、図面を参照してこの発明に係るいくつかの実施形態を説明する。
競技会場又はコンサート会場等のイベント会場となる拠点Oにおいて映像・音声が撮影・収録された絶対時刻に対して一意に定まる時刻情報は、複数の遠隔地の拠点R1~拠点Rn(nは2以上の整数)に伝送する映像・音声に付与される。拠点R1~拠点Rnのそれぞれにおいて、当該時刻情報をもつ映像・音声が再生された時刻に撮影・収録された映像・音声は、当該時刻情報及び送信先拠点間とのデータ伝送時間に基づいて加工処理される。加工処理された映像・音声は、拠点O又は他の拠点Rに伝送される。
【0014】
時刻情報は、拠点Oと拠点R1~拠点Rnのそれぞれとの間で以下の何れかの手段により送受信される。時刻情報は、拠点R1~拠点Rnのそれぞれで撮影・収録された映像・音声と対応付けられる。
(1)時刻情報は、拠点Oと拠点R1~拠点Rnのそれぞれとの間で送受信するRTPパケットのヘッダ拡張領域に格納される。例えば、時刻情報は、絶対時刻形式(hh:mm:ss.fff形式)であるが、ミリ秒形式であってもよい。
(2)時刻情報は、拠点Oと拠点R1~拠点Rnのそれぞれとの間で一定の間隔で送受信されるRTCP(RTP Control Protocol)におけるAPP(Application-Defined)を用いて記述される。この例では、時刻情報は、ミリ秒形式である。
(3)時刻情報は、伝送開始時に拠点Oと拠点R1~拠点Rnのそれぞれとの間でやり取りさせる初期値パラメータを記述するSDP(Session Description Protocol)に格納される。この例では、時刻情報は、ミリ秒形式である。
【0015】
[第1の実施形態]
第1の実施形態は、拠点Oにおいて拠点R1~拠点Rnから折り返し伝送される映像・音声を再生する実施形態である。
【0016】
映像・音声を加工処理するために用いる時刻情報は、拠点Oと拠点R1~拠点Rnのそれぞれとの間で送受信するRTPパケットのヘッダ拡張領域に格納される。例えば、時刻情報は、絶対時刻形式(hh:mm:ss.fff形式)である。RTPパケットは、パケットの一例である。
【0017】
映像と音声はそれぞれRTPパケット化して送受信するとして説明するが、これに限定されない。映像と音声は、同じ機能部・DB(データベース)で処理・管理されてもよい。映像と音声は、1つのRTPパケットにどちらも格納されて送受信されてもよい。映像及び音声は、メディアの一例である。
【0018】
(構成例)
図1は、第1の実施形態に係るメディア加工システムSに含まれる各電子機器のハードウェア構成の一例を示すブロック図である。
メディア加工システムSは、拠点Oに含まれる複数の電子機器、拠点R1~拠点Rnのそれぞれに含まれる複数の電子機器及び時刻配信サーバ10を含む。各拠点の電子機器及び時刻配信サーバ10は、IPネットワークを介して互いに通信可能である。
【0019】
拠点Oは、サーバ1、イベント映像撮影装置101、折り返し映像提示装置102、イベント音声収録装置103及び折り返し音声提示装置104を備える。拠点Oは、第1の拠点の一例である。
【0020】
サーバ1は、拠点Oに含まれる各電子機器を制御する電子機器である。
イベント映像撮影装置101は、拠点Oの映像を撮影するカメラを含む装置である。イベント映像撮影装置101は、映像撮影装置の一例である。
折り返し映像提示装置102は、拠点R1~拠点Rnのそれぞれから拠点Oに折り返し伝送される映像を再生して表示するディスプレイを含む装置である。例えば、ディスプレイは、液晶ディスプレイである。折り返し映像提示装置102は、映像提示装置又は提示装置の一例である。
イベント音声収録装置103は、拠点Oの音声を収録するマイクを含む装置である。イベント音声収録装置103は、音声収録装置の一例である。
折り返し音声提示装置104は、拠点R1~拠点Rnのそれぞれから拠点Oに折り返し伝送される音声を再生して出力するスピーカを含む装置である。折り返し音声提示装置104は、音声提示装置又は提示装置の一例である。
【0021】
サーバ1の構成例について説明する。
サーバ1は、制御部11、プログラム記憶部12、データ記憶部13、通信インタフェース14及び入出力インタフェース15を備える。サーバ1が備える各要素は、バスを介して、互いに接続されている。
【0022】
制御部11は、サーバ1の中枢部分に相当する。制御部11は、中央処理ユニット(Central Processing Unit:CPU)等のプロセッサを備える。制御部11は、不揮発性のメモリ領域としてROM(Read Only Memory)を備える。制御部11は、揮発性のメモリ領域としてRAM(Random Access Memory)を備える。プロセッサは、ROM、又はプログラム記憶部12に記憶されているプログラムをRAMに展開する。プロセッサがRAMに展開されるプログラムを実行することで、制御部11は、後述する各機能部を実現する。制御部11は、コンピュータを構成する。
【0023】
プログラム記憶部12は、記憶媒体としてHDD(Hard Disk Drive)、又はSSD(Solid State Drive)等の随時書込み及び読出しが可能な不揮発性メモリで構成される。プログラム記憶部12は、各種制御処理を実行するために必要なプログラムを記憶する。例えば、プログラム記憶部12は、制御部11に実現される後述する各機能部による処理をサーバ1に実行させるプログラムを記憶する。プログラム記憶部12は、ストレージの一例である。
【0024】
データ記憶部13は、記憶媒体としてHDD、又はSSD等の随時書込み及び読出しが可能な不揮発性メモリで構成される。データ記憶部13は、ストレージ、又は記憶部の一例である。
【0025】
通信インタフェース14は、IPネットワークにより定義される通信プロトコルを使用して、サーバ1を他の電子機器と通信可能に接続する種々のインタフェースを含む。
【0026】
入出力インタフェース15は、サーバ1とイベント映像撮影装置101、折り返し映像提示装置102、イベント音声収録装置103及び折り返し音声提示装置104のそれぞれとの通信を可能にするインタフェースである。入出力インタフェース15は、有線通信のインタフェースを備えていてもいいし、無線通信のインタフェースを備えていてもよい。
【0027】
なお、サーバ1のハードウェア構成は、上述の構成に限定されるものではない。サーバ1は、適宜、上述の構成要素の省略、及び変更並びに新たな構成要素の追加を可能とする。
【0028】
拠点R1は、サーバ2、映像提示装置201、オフセット映像撮影装置202、折り返し映像撮影装置203、音声提示装置204及び折り返し音声収録装置205を備える。拠点R1は、第1の拠点とは異なる第2の拠点の一例である。
【0029】
サーバ2は、拠点R1に含まれる各電子機器を制御する電子機器である。サーバ2は、メディア加工装置の一例である。
映像提示装置201は、拠点Oから拠点R1に伝送される映像を再生して表示するディスプレイを含む装置である。映像提示装置201は、提示装置の一例である。
オフセット映像撮影装置202は、撮影時刻を記録可能な装置である。オフセット映像撮影装置202は、映像提示装置201の映像表示領域全体を撮影できるように設置されたカメラを含む装置である。オフセット映像撮影装置202は、映像撮影装置の一例である。
折り返し映像撮影装置203は、拠点R1の映像を撮影するカメラを含む装置である。例えば、折り返し映像撮影装置203は、拠点Oから拠点R1に伝送される映像を再生して表示する映像提示装置201の設置された拠点R1の様子の映像を撮影する。折り返し映像撮影装置203は、映像撮影装置の一例である。
音声提示装置204は、拠点Oから拠点R1に伝送される音声を再生して出力するスピーカを含む装置である。音声提示装置204は、提示装置の一例である。
折り返し音声収録装置205は、拠点R1の音声を収録するマイクを含む装置である。例えば、折り返し音声収録装置205は、拠点Oから拠点R1に伝送される音声を再生して出力する音声提示装置204の設置された拠点R1の様子の音声を収録する。折り返し音声収録装置205は、音声収録装置の一例である。
【0030】
サーバ2の構成例について説明する。
サーバ2は、制御部21、プログラム記憶部22、データ記憶部23、通信インタフェース24及び入出力インタフェース25を備える。サーバ2が備える各要素は、バスを介して、互いに接続されている。
制御部21は、制御部11と同様に構成され得る。プロセッサは、ROM、又はプログラム記憶部22に記憶されているプログラムをRAMに展開する。プロセッサがRAMに展開されるプログラムを実行することで、制御部21は、後述する各機能部を実現する。制御部21は、コンピュータを構成する。
プログラム記憶部22は、プログラム記憶部12と同様に構成され得る。
データ記憶部23は、データ記憶部13と同様に構成され得る。
通信インタフェース24は、通信インタフェース14と同様に構成され得る。通信インタフェース14は、サーバ2を他の電子機器と通信可能に接続する種々のインタフェースを含む。
入出力インタフェース25は、入出力インタフェース15と同様に構成され得る。入出力インタフェース25は、サーバ2と映像提示装置201、オフセット映像撮影装置202、折り返し映像撮影装置203、音声提示装置204及び折り返し音声収録装置205のそれぞれとの通信を可能にする。
なお、サーバ2のハードウェア構成は、上述の構成に限定されるものではない。サーバ2は、適宜、上述の構成要素の省略、及び変更並びに新たな構成要素の追加を可能とする。
なお、拠点R2~拠点Rnのそれぞれに含まれる複数の電子機器のハードウェア構成は、上述の拠点R1と同様であるので、その説明を省略する。
【0031】
時刻配信サーバ10は、基準システムクロックを管理する電子機器である。基準システムクロックは、絶対時刻である。
【0032】
図2は、第1の実施形態に係るメディア加工システムSを構成する各電子機器のソフトウェア構成の一例を示すブロック図である。
【0033】
サーバ1は、時刻管理部111、イベント映像送信部112、折り返し映像受信部113、映像加工通知部114、イベント音声送信部115、折り返し音声受信部116及び音声加工通知部117を備える。各機能部は、制御部11によるプログラムの実行によって実現される。各機能部は、制御部11又はプロセッサが備えるということもできる。各機能部は、制御部11又はプロセッサと読み替え可能である。
【0034】
時刻管理部111は、時刻配信サーバ10と公知のNTPやPTP等のプロトコルを用いて時刻同期を行い、基準システムクロックを管理する。時刻管理部111は、サーバ2が管理する基準システムクロックと同一の基準システムクロックを管理する。時刻管理部111が管理する基準システムクロックと、サーバ2が管理する基準システムクロックとは、時刻同期している。
【0035】
イベント映像送信部112は、IPネットワークを介して、イベント映像撮影装置101から出力される映像Vsignal1を格納したRTPパケットを拠点R1~拠点Rnのそれぞれのサーバに送信する。映像Vsignal1は、拠点Oで絶対時刻である時刻Tvideoに取得された映像である。映像Vsignal1を取得することは、イベント映像撮影装置101が映像Vsignal1を撮影することを含む。映像Vsignal1を取得することは、イベント映像撮影装置101が撮影した映像Vsignal1をサンプリングすることを含む。映像Vsignal1を格納したRTPパケットは、時刻Tvideoを付与されている。時刻Tvideoは、拠点Oで映像Vsignal1が取得された時刻である。映像Vsignal1は、第1の映像の一例である。時刻Tvideoは、第1の時刻の一例である。RTPパケットは、パケットの一例である。
【0036】
折り返し映像受信部113は、IPネットワークを介して、映像Vsignal2から生成された映像Vsignal3を格納したRTPパケットを拠点R1~拠点Rnのそれぞれのサーバから受信する。映像Vsignal2は、映像Vsignal1を拠点R1~拠点Rnの何れかの拠点で再生する時刻にこの拠点で取得された映像である。映像Vsignal2を取得することは、折り返し映像撮影装置203が映像Vsignal2を撮影することを含む。映像Vsignal2を取得することは、折り返し映像撮影装置203が撮影した映像Vsignal2をサンプリングすることを含む。映像Vsignal2は、第2の映像の一例である。映像Vsignal3は、Δdx_videoに基づく加工態様に応じて拠点R1~拠点Rnのそれぞれのサーバにより映像Vsignal2から生成された映像である。映像Vsignal3は、第3の映像の一例である。映像Vsignal3を格納したRTPパケットは、時刻Tvideoを付与されている。映像Vsignal3は映像Vsignal2から生成されるので、映像Vsignal3を格納したRTPパケットは、映像Vsignal2に関するパケットの一例である。Δdx_videoは、拠点Oと拠点R1~拠点Rnのそれぞれとの間のデータ伝送遅延に関する値である。Δdx_videoは、伝送遅延時間の一例である。Δdx_videoは、拠点R1~拠点Rnのそれぞれで異なる。
【0037】
映像加工通知部114は、拠点R1~拠点RnのそれぞれについてΔdx_videoを生成し、Δdx_videoを格納したRTCPパケットを拠点R1~拠点Rnのそれぞれのサーバに送信する。Δdx_videoを格納したRTCPパケットは、伝送遅延時間に関する通知の一例である。RTCPパケットは、パケットの一例である。
【0038】
イベント音声送信部115は、IPネットワークを介して、イベント音声収録装置103から出力される音声Asignal1を格納したRTPパケットを拠点R1~拠点Rnのそれぞれのサーバに送信する。音声Asignal1は、拠点Oで絶対時刻である時刻Taudioに取得された音声である。音声Asignal1を取得することは、イベント音声収録装置103が音声Asignal1を収録することを含む。音声Asignal1を取得することは、イベント音声収録装置103が収録した音声Asignal1をサンプリングすることを含む。音声Asignal1を格納したRTPパケットは、時刻Taudioを付与されている。時刻Taudioは、拠点Oで音声Asignal1が取得された時刻である。音声Asignal1は、第1の音声の一例である。時刻Taudioは、第1の時刻の一例である。
【0039】
折り返し音声受信部116は、IPネットワークを介して、音声Asignal2から生成された音声Asignal3を格納したRTPパケットを拠点R1~拠点Rnのそれぞれのサーバから受信する。音声Asignal2は、音声Asignal1を拠点R1~拠点Rnの何れかの拠点で再生する時刻にこの拠点で取得された音声である。音声Asignal2を取得することは、折り返し音声収録装置205が音声Asignal2を収録することを含む。音声Asignal2を取得することは、折り返し音声収録装置205が収録した音声Asignal2をサンプリングすることを含む。音声Asignal2は、第2の音声の一例である。音声Asignal3は、Δdx_audioに基づく加工態様に応じて拠点R1~拠点Rnのそれぞれのサーバにより音声Asignal2から生成された音声である。音声Asignal3は、第3の音声の一例である。音声Asignal3を格納したRTPパケットは、時刻Taudioを付与されている。音声Asignal3は音声Asignal2から生成されるので、音声Asignal3を格納したRTPパケットは、音声Asignal2に関するパケットの一例である。Δdx_audioは、拠点Oと拠点R1~拠点Rnのそれぞれとの間のデータ伝送遅延に関する値である。Δdx_ audioは、伝送遅延時間の一例である。Δdx_ audioは、拠点R1~拠点Rnのそれぞれで異なる。
【0040】
音声加工通知部117は、拠点R1~拠点RnのそれぞれについてΔdx_ audioを生成し、Δdx_ audioを格納したRTCPパケットを拠点R1~拠点Rnのそれぞれのサーバに送信する。Δdx_ audioを格納したRTCPパケットは、伝送遅延時間に関する通知の一例である。
【0041】
サーバ2は、時刻管理部2101、イベント映像受信部2102、映像オフセット算出部2103、映像加工受信部2104、折り返し映像加工部2105、折り返し映像送信部2106、イベント音声受信部2107、音声加工受信部2108、折り返し音声加工部2109、折り返し音声送信部2110、映像時刻管理DB231及び音声時刻管理DB232を備える。各機能部は、制御部21によるプログラムの実行によって実現される。各機能部は、制御部21又はプロセッサが備えるということもできる。各機能部は、制御部21又はプロセッサと読み替え可能である。映像時刻管理DB231及び音声時刻管理DB232は、データ記憶部23によって実現される。
【0042】
時刻管理部2101は、時刻配信サーバ10と公知のNTPやPTP等のプロトコルを用いて時刻同期を行い、基準システムクロックを管理する。時刻管理部2101は、サーバ1が管理する基準システムクロックと同一の基準システムクロックを管理する。時刻管理部2101が管理する基準システムクロックと、サーバ1が管理する基準システムクロックとは、時刻同期している。
【0043】
イベント映像受信部2102は、IPネットワークを介して、映像Vsignal1を格納したRTPパケットをサーバ1から受信する。イベント映像受信部2102は、映像Vsignal1を映像提示装置201に出力する。イベント映像受信部2102は、第2の受信部の一例である。
映像オフセット算出部2103は、映像提示装置201で映像Vsignal1を再生された絶対時刻である提示時刻t1を算出する。映像オフセット算出部2103は、算出部の一例である
映像加工受信部2104は、Δdx_videoを格納したRTCPパケットをサーバ1から受信する。映像加工受信部2104は、第1の受信部の一例である。
折り返し映像加工部2105は、Δdx_videoに基づく加工態様に応じて、映像Vsignal2から映像Vsignal3を生成する。折り返し映像加工部2105は、加工部の一例である。
折り返し映像送信部2106は、IPネットワークを介して、映像Vsignal3を格納したRTPパケットをサーバ1に送信する。映像Vsignal3を格納したRTPパケットは、映像Vsignal2が撮影された絶対時刻である時刻tと一致する提示時刻t1に関連付けられた時刻Tvideoを含む。折り返し映像送信部2106は、送信部の一例である。
【0044】
イベント音声受信部2107は、IPネットワークを介して、音声Asignal1を格納したRTPパケットをサーバ1から受信する。イベント音声受信部2107は、音声Asignal1を音声提示装置204に出力する。イベント音声受信部2107は、第2の受信部の一例である。
音声加工受信部2108は、Δdx_audioを格納したRTCPパケットをサーバ1から受信する。音声加工受信部2108は、第1の受信部の一例である。
折り返し音声加工部2109は、Δdx_audioに基づく加工態様に応じて、音声Asignal2から音声Asignal3を生成する。折り返し音声加工部2109は、加工部の一例である。
折り返し音声送信部2110は、IPネットワークを介して、音声Asignal3を格納したRTPパケットをサーバ1に送信する。音声Asignal3を格納したRTPパケットは、時刻Taudioを含む。折り返し音声送信部2110は、送信部の一例である。
【0045】
図3は、第1の実施形態に係る拠点R1のサーバ2が備える映像時刻管理DB231のデータ構造の一例を示す図である。
映像時刻管理DB231は、映像オフセット算出部2103から取得した時刻Tvideoと提示時刻t1とを関連付けて格納するDBである。
映像時刻管理DB231は、映像同期基準時刻カラムと提示時刻カラムとを備える。映像同期基準時刻カラムは、時刻Tvideoを格納する。提示時刻カラムは、提示時刻t1を格納する。
【0046】
図4は、第1の実施形態に係る拠点R1のサーバ2が備える音声時刻管理DB232のデータ構造の一例を示す図である。
音声時刻管理DB232は、イベント音声受信部2107から取得した時刻Taudioと音声Asignal1とを関連付けて格納するDBである。
音声時刻管理DB232は、音声同期基準時刻カラムと音声データカラムとを備える。音声同期基準時刻カラムは、時刻Taudioを格納する。音声データカラムは、音声Asignal1を格納する。
【0047】
なお、拠点R2~拠点Rnの各サーバは、拠点R1のサーバ1と同様の機能部及びDBを含み、拠点R1のサーバ1と同様の処理を実行する。拠点R2~拠点Rnの各サーバに含まれる機能部の処理フローやDB構造の説明は省略する。
【0048】
(動作例)
以下では、拠点O及び拠点R1の動作を例にして説明する。拠点R2~拠点Rnの動作は、拠点R1の動作と同様であってもよく、その説明を省略する。拠点R1の表記は、拠点R2~拠点Rnと読み替えてもよい。
【0049】
(1)折り返し映像の加工再生
拠点Oにおけるサーバ1の映像処理について説明する。
図5は、第1の実施形態に係る拠点Oにおけるサーバ1の映像処理手順と処理内容を示すフローチャートである。
イベント映像送信部112は、IPネットワークを介して、映像Vsignal1を格納したRTPパケットを拠点R1のサーバ2に送信する(ステップS11)。ステップS11の処理の典型例については後述する。
折り返し映像受信部113は、IPネットワークを介して、映像Vsignal3を格納したRTPパケットを拠点R1のサーバ2から受信する(ステップS12)。ステップS12の処理の典型例については後述する。
映像加工通知部114は、拠点R1についてΔdx_videoを生成し、Δdx_videoを格納したRTCPパケットを拠点R1のサーバ2に送信する。(ステップS13)。ステップS13の処理の典型例については後述する。
【0050】
拠点R1におけるサーバ2の映像処理について説明する。
図6は、第1の実施形態に係る拠点R1におけるサーバ2の映像処理手順と処理内容を示すフローチャートである。
イベント映像受信部2102は、IPネットワークを介して、映像Vsignal1を格納したRTPパケットをサーバ1から受信する(ステップS14)。ステップS14の処理の典型例については後述する。
映像オフセット算出部2103は、映像提示装置201で映像Vsignal1を再生された提示時刻t1を算出する(ステップS15)。ステップS15の処理の典型例については後述する。
映像加工受信部2104は、Δdx_videoを格納したRTCPパケットをサーバ1から受信する(ステップS16)。ステップS16の処理の典型例については後述する。
折り返し映像加工部2105は、Δdx_videoに基づく加工態様に応じて、映像Vsignal2から映像Vsignal3を生成する(ステップS17)。ステップS17の処理の典型例については後述する。
折り返し映像送信部2106は、IPネットワークを介して、映像Vsignal3を格納したRTPパケットをサーバ1に送信する(ステップS18)。ステップS18の処理の典型例については後述する。
【0051】
以下では、上述のサーバ1のステップS11~ステップS13の処理及び上述のサーバ2のステップS14~ステップS18の処理のそれぞれの典型例について説明する。時系列に沿った処理順で説明するため、サーバ1のステップS11の処理、サーバ2のステップS14の処理、サーバ2のステップS15の処理、サーバ1のステップS12の処理、サーバ1のステップS13の処理、サーバ2のステップS16の処理、サーバ2のステップS17の処理、サーバ2のステップS18の処理の順に説明する。
【0052】
図7は、第1の実施形態に係る拠点Oにおけるサーバ1の映像Vsignal1を格納したRTPパケットの送信処理手順と処理内容を示すフローチャートである。図7は、ステップS11の処理の典型例を示す。
イベント映像送信部112は、イベント映像撮影装置101から出力される映像Vsignal1を一定の間隔Ivideoで取得する(ステップS111)。
イベント映像送信部112は、映像Vsignal1を格納したRTPパケットを生成する(ステップS112)。ステップS112では、例えば、イベント映像送信部112は、取得した映像Vsignal1をRTPパケットに格納する。イベント映像送信部112は、時刻管理部111で管理される基準システムクロックから、映像Vsignal1をサンプリングした絶対時刻である時刻Tvideoを取得する。イベント映像送信部112は、取得した時刻TvideoをRTPパケットのヘッダ拡張領域に格納する。
イベント映像送信部112は、生成した映像Vsignal1を格納したRTPパケットをIPネットワークに送出する(ステップS113)。
【0053】
図8は、第1の実施形態に係る拠点R1におけるサーバ2の映像Vsignal1を格納したRTPパケットの受信処理手順と処理内容を示すフローチャートである。図8は、サーバ2のステップS14の処理の典型例を示す。
イベント映像受信部2102は、IPネットワークを介して、イベント映像送信部112から送出される映像Vsignal1を格納したRTPパケットを受信する(ステップS141)。
イベント映像受信部2102は、受信した映像Vsignal1を格納したRTPパケットに格納されている映像Vsignal1を取得する(ステップS142)。
イベント映像受信部2102は、取得した映像Vsignal1を映像提示装置201に出力する(ステップS143)。映像提示装置201は、映像Vsignal1を再生して表示する。
イベント映像受信部2102は、受信した映像Vsignal1を格納したRTPパケットのヘッダ拡張領域に格納されている時刻Tvideoを取得する(ステップS144)。
イベント映像受信部2102は、取得した映像Vsignal1及び時刻Tvideoを映像オフセット算出部2103に受け渡す(ステップS145)。
【0054】
図9は、第1の実施形態に係る拠点R1におけるサーバ2の提示時刻t1の算出処理手順と処理内容を示すフローチャートである。図9は、サーバ2のステップS15の処理の典型例を示す。
映像オフセット算出部2103は、映像Vsignal1及び時刻Tvideoをイベント映像受信部2102から取得する(ステップS151)。
映像オフセット算出部2103は、取得した映像Vsignal1及びオフセット映像撮影装置202から入力される映像に基づき、提示時刻t1を算出する(ステップS152)。ステップS152では、例えば、映像オフセット算出部2103は、オフセット映像撮影装置202で撮影した映像の中から公知の画像処理技術を用いて映像Vsignal1を含む映像フレームを抽出する。映像オフセット算出部2103は、抽出した映像フレームに付与されている撮影時刻を提示時刻t1として取得する。撮影時刻は、絶対時刻である。
映像オフセット算出部2103は、取得した時刻Tvideoを映像時刻管理DB231の映像同期基準時刻カラムに格納する(ステップS153)。
映像オフセット算出部2103は、取得した提示時刻t1を映像時刻管理DB231の提示時刻カラムに格納する(ステップS154)。
【0055】
図10は、第1の実施形態に係る拠点Oにおけるサーバ1の映像Vsignal3を格納したRTPパケットの受信処理手順と処理内容を示すフローチャートである。図10は、サーバ1のステップS12の処理の典型例を示す。
折り返し映像受信部113は、IPネットワークを介して、折り返し映像送信部2106から送出される映像Vsignal3を格納したRTPパケットを受信する(ステップS121)。
折り返し映像受信部113は、受信した映像Vsignal3を格納したRTPパケットのヘッダ拡張領域に格納されている時刻Tvideoを取得する(ステップS122)。
折り返し映像受信部113は、受信した映像Vsignal3を格納したRTPパケットのヘッダに格納されている情報から送信元拠点Rx(xは1、2、…、nの何れか)を取得する(ステップS123)。
【0056】
折り返し映像受信部113は、受信した映像Vsignal3を格納したRTPパケットに格納されている映像Vsignal3を取得する(ステップS124)。
折り返し映像受信部113は、映像Vsignal3を折り返し映像提示装置102に出力する(ステップS125)。ステップS125では、例えば、折り返し映像受信部113は、一定の間隔Ivideoで映像Vsignal3を折り返し映像提示装置102に出力する。折り返し映像提示装置102は、拠点R1から拠点Oに折り返し伝送される映像Vsignal3を再生して表示する。
【0057】
折り返し映像受信部113は、時刻管理部111で管理される基準システムクロックから、現在時刻Tnを取得する(ステップS126)。現在時刻Tnは、折り返し映像受信部113により映像Vsignal3を格納したRTPパケットを受信したことに伴う時刻である。現在時刻Tnは、映像Vsignal3を格納したRTPパケットの受信時刻ということもできる。現在時刻Tnは、映像Vsignal3の再生時刻ということもできる。映像Vsignal3を格納したRTPパケットを受信したことに伴う現在時刻Tnは、第2の時刻の一例である。
折り返し映像受信部113は、取得した時刻Tvideo、現在時刻Tn及び送信元拠点Rxを映像加工通知部114に受け渡す(ステップS127)。
【0058】
図11は、第1の実施形態に係る拠点Oにおけるサーバ1のΔdx_videoを格納したRTCPパケットの送信処理手順と処理内容を示すフローチャートである。図11は、サーバ1のステップS13の処理の典型例を示す。
映像加工通知部114は、折り返し映像受信部113から時刻Tvideo、現在時刻Tn及び送信元拠点Rxを取得する(ステップS131)。
映像加工通知部114は、時刻Tvideo及び現在時刻Tnに基づき現在時刻Tnから時刻Tvideoを引いた時間(Tn - Tvideo)を算出する(ステップS132)。
映像加工通知部114は、時間(Tn - Tvideo)が現在のΔdx_videoと一致するか否かを判断する(ステップS133)。Δdx_videoは、現在時刻Tnと時刻Tvideoとの差の値である。現在のΔdx_videoは、今回算出された時間(Tn - Tvideo)の値よりも前に算出された時間(Tn - Tvideo)の値である。なお、Δdx_videoの初期値は、0とする。時間(Tn - Tvideo)が現在のΔdx_videoと一致する場合(ステップS133、YES)、処理は、終了する。時間(Tn - Tvideo)が現在のΔdx_videoと一致しない場合(ステップS133、NO)、処理は、ステップS133からステップS134に遷移する。時間(Tn - Tvideo)が現在のΔdx_videoと一致しないことは、Δdx_videoが変化したことに対応する。
【0059】
映像加工通知部114は、Δdx_videoをΔdx_video = Tn - Tvideoに更新する(ステップS134)。
映像加工通知部114は、Δdx_videoを格納したRTCPパケットを送信する(ステップS135)。ステップS135では、例えば、映像加工通知部114は、更新したΔdx_videoをRTCPにおけるAPPを用いて記述する。映像加工通知部114は、Δdx_videoを格納したRTCPパケットを生成する。映像加工通知部114は、Δdx_videoを格納したRTCPパケットを、取得した送信元拠点Rxで示される拠点に送信する。
【0060】
図12は、第1の実施形態に係る拠点R1におけるサーバ2のΔdx_videoを格納したRTCPパケットの受信処理手順と処理内容を示すフローチャートである。図12は、サーバ2のステップS16の処理の典型例を示す。
映像加工受信部2104は、Δdx_videoを格納したRTCPパケットをサーバ1から受信する(ステップS161)。
映像加工受信部2104は、Δdx_videoを格納したRTCPパケットに格納されているΔdx_videoを取得する(ステップS162)。
映像加工受信部2104は、取得したΔdx_videoを折り返し映像加工部2105に受け渡す(ステップS163)。
【0061】
図13は、第1の実施形態に係る拠点R1におけるサーバ2の映像Vsignal2の加工処理手順と処理内容を示すフローチャートである。図13は、サーバ2のステップS17の処理の典型例を示す。
折り返し映像加工部2105は、映像加工受信部2104からΔdx_videoを取得する(ステップS171)。
折り返し映像加工部2105は、折り返し映像撮影装置203から出力される映像Vsignal2を一定の間隔Ivideoで取得する(ステップS172)。映像Vsignal2は、映像提示装置201が映像Vsignal1を拠点R1で再生する時刻に拠点R1で取得された映像である。
【0062】
折り返し映像加工部2105は、取得したΔdx_videoに基づく加工態様に応じて、取得した映像Vsignal2から映像Vsignal3を生成する(ステップS173)。ステップS173では、例えば、折り返し映像加工部2105は、Δdx_videoに基づき映像Vsignal2の加工態様を決定する。折り返し映像加工部2105は、Δdx_videoに基づき映像Vsignal2の加工態様を変える。折り返し映像加工部2105は、Δdx_videoが大きくなるにつれて映像の質を下げるように加工態様を変える。加工態様は、映像Vsignal2に対して加工処理を行うこと及び映像Vsignal2に対して加工処理を行わないことの両方を含んでもよい。加工態様は、映像Vsignal2に対する加工処理の程度を含む。折り返し映像加工部2105が映像Vsignal2に対して加工処理を行う場合、映像Vsignal3は映像Vsignal2と異なる。折り返し映像加工部2105が映像Vsignal2に対して加工処理を行わない場合、映像Vsignal3は映像Vsignal2と同じである。
【0063】
折り返し映像加工部2105は、Δdx_videoに基づき、拠点Oの折り返し映像提示装置102で再生したときに視認性が低くなるような加工処理を行う。視認性が低くなるような加工処理は、映像のデータサイズを縮小するような加工処理を含む。映像Vsignal2を折り返し映像提示装置102で再生して視聴者が違和感を与えないほどΔdx_videoが小さければ、折り返し映像加工部2105は、映像Vsignal2に対して加工処理を行わない。また、Δdx_videoが大きすぎる場合でも、折り返し映像加工部2105は、映像が全く視認できなくならないように、映像Vsignal2に対して加工処理を行う。例えば、映像Vsignal2の表示サイズを変更する加工処理の場合について説明する。映像Vsignal2の横ピクセルをw、縦ピクセルをhとすると、加工態様に応じて生成される映像Vsignal3の横ピクセルw’、縦ピクセルh’は、以下のとおりである。
(1)0ms ≦ Δdx_video ≦ 300msのとき
w’ = w, h’ = h
(2)300ms < Δdx_video ≦ 500msのとき
w’ = {-(1/400) * Δdx_video + 7/4 }*w, h’ = {-(1/400) * Δdx_video + 7/4 } * h
(3)500ms <Δdx_video のとき
w’ = 0.5 * w, h’ = 0.5 * h
加工処理は、映像の質の変更として、上記に限定するものではなく、上記表示サイズ変更の他、ガウシアンフィルタにより画像をぼかす、画像の輝度を下げる等であってもよい。加工処理は、加工処理後の映像Vsignal3が映像Vsignal2よりも視認性が低下する処理であれば、他の加工処理を用いてもよい。
折り返し映像加工部2105は、取得した映像Vsignal2及び生成した映像Vsignal3を折り返し映像送信部2106に受け渡す(ステップS174)。
【0064】
図14は、第1の実施形態に係る拠点R1におけるサーバ2の映像Vsignal3を格納したRTPパケットの送信処理手順と処理内容を示すフローチャートである。図14は、サーバ2のステップS18の処理の典型例を示す。
折り返し映像送信部2106は、折り返し映像加工部2105から映像Vsignal2及び映像Vsignal3を取得する(ステップS181)。ステップS181では、例えば、折り返し映像送信部2106は、映像Vsignal2及び映像Vsignal3を一定間隔Ivideoで同時に取得する。
【0065】
折り返し映像送信部2106は、取得した映像Vsignal2が撮影された絶対時刻である時刻tを算出する(ステップS182)。ステップS182では、例えば、折り返し映像送信部2106は、映像Vsignal2に撮影時刻を表すタイムコードTc(絶対時刻)が付与されている場合、t = Tcとして時刻tを取得する。映像Vsignal2にタイムコードTcが付与されていない場合、折り返し映像送信部2106は、時刻管理部2101で管理される基準システムクロックから、現在時刻Tnを取得する。折り返し映像送信部2106は、予め決めておいた所定値tvideo_offset(正の数)を用いてt = Tn - tvideo_offsetとして時刻tを取得する。
【0066】
折り返し映像送信部2106は、映像時刻管理DB231を参照し、取得した時刻tと一致する時刻t1をもつレコードを抽出する(ステップS183)。
折り返し映像送信部2106は、映像時刻管理DB231を参照し、抽出したレコードの映像同期基準時刻カラムの時刻Tvideoを取得する(ステップS184)。
折り返し映像送信部2106は、映像Vsignal3を格納したRTPパケットを生成する(ステップS185)。ステップS185では、例えば、折り返し映像送信部2106は、取得した映像Vsignal3をRTPパケットに格納する。折り返し映像送信部2106は、取得した時刻TvideoをRTPパケットのヘッダ拡張領域に格納する。
折り返し映像送信部2106は、生成した映像Vsignal3を格納したRTPパケットをIPネットワークに送出する(ステップS186)。
【0067】
(2)折り返し音声の加工再生
拠点Oにおけるサーバ1の音声処理について説明する。
図15は、第1の実施形態に係る拠点Oにおけるサーバ1の音声処理手順と処理内容を示すフローチャートである。
イベント音声送信部115は、IPネットワークを介して、音声Asignal1を格納したRTPパケットを拠点R1のサーバ2に送信する(ステップS19)。ステップS19の処理の典型例については後述する。
折り返し音声受信部116は、IPネットワークを介して、音声Asignal3を格納したRTPパケットを拠点R1のサーバ2から受信する(ステップS20)。ステップS20の処理の典型例については後述する。
音声加工通知部117は、拠点R1についてΔdx_audioを生成し、Δdx_ audio を格納したRTCPパケットを拠点R1のサーバ2に送信する。(ステップS21)。ステップS21の処理の典型例については後述する。
【0068】
拠点R1におけるサーバ2の音声処理について説明する。
図16は、第1の実施形態に係る拠点R1におけるサーバ2の音声処理手順と処理内容を示すフローチャートである。
イベント音声受信部2107は、IPネットワークを介して、音声Asignal1を格納したRTPパケットをサーバ1から受信する(ステップS22)。ステップS22の処理の典型例については後述する。
音声加工受信部2108は、Δdx_audioを格納したRTCPパケットをサーバ1から受信する(ステップS23)。ステップS23の処理の典型例については後述する。
折り返し音声加工部2109は、Δdx_audioに基づく加工態様に応じて、音声Asignal2から音声Asignal3を生成する(ステップS24)。ステップS24の処理の典型例については後述する。
折り返し音声送信部2110は、IPネットワークを介して、音声Asignal3を格納したRTPパケットをサーバ1に送信する(ステップS25)。ステップS25の処理の典型例については後述する。
【0069】
以下では、上述のサーバ1のステップS19~ステップS21の処理及び上述のサーバ2のステップS22~ステップS25の処理のそれぞれの典型例について説明する。時系列に沿った処理順で説明するため、サーバ1のステップS19の処理、サーバ2のステップS22の処理、サーバ1のステップS20の処理、サーバ1のステップS21の処理、サーバ2のステップS23の処理、サーバ1のステップS24の処理、サーバ1のステップS25の処理の順に説明する。
【0070】
図17は、第1の実施形態に係る拠点Oにおけるサーバ1の音声Asignal1を格納したRTPパケットの送信処理手順と処理内容を示すフローチャートである。図17は、サーバ1のステップS19の処理の典型例を示す。
【0071】
イベント音声送信部115は、イベント音声収録装置103から出力される音声Asignal1を一定の間隔Iaudioで取得する(ステップS191)。
イベント音声送信部115は、音声Asignal1を格納したRTPパケットを生成する(ステップS192)。ステップS192では、例えば、イベント音声送信部115は、取得した音声Asignal1をRTPパケットに格納する。イベント音声送信部115は、時刻管理部111で管理される基準システムクロックから、音声Asignal1をサンプリングした絶対時刻である時刻Taudioを取得する。イベント音声送信部115は、取得した時刻TaudioをRTPパケットのヘッダ拡張領域に格納する。
イベント音声送信部115は、生成した音声Asignal1を格納したRTPパケットをIPネットワークに送出する(ステップS193)。
【0072】
図18は、第1の実施形態に係る拠点R1におけるサーバ2の音声Asignal1を格納したRTPパケットの受信処理手順と処理内容を示すフローチャートである。図18は、サーバ2のステップS22の処理の典型例を示す。
イベント音声受信部2107は、IPネットワークを介して、イベント音声送信部115から送出される音声Asignal1を格納したRTPパケットを受信する(ステップS221)。
イベント音声受信部2107は、受信した音声Asignal1を格納したRTPパケットに格納されている音声Asignal1を取得する(ステップS222)。
イベント音声受信部2107は、取得した音声Asignal1を音声提示装置204に出力する(ステップS223)。音声提示装置204は、音声Asignal1を再生して出力する。
イベント音声受信部2107は、受信した音声Asignal1を格納したRTPパケットのヘッダ拡張領域に格納されている時刻Taudioを取得する(ステップS224)。
イベント音声受信部2107は、取得した音声Asignal1及び時刻Taudioを音声時刻管理DB232に格納する(ステップS225)。ステップS225では、例えば、イベント音声受信部2107は、取得した時刻Taudioを音声時刻管理DB232の音声同期基準時刻カラムに格納する。イベント音声受信部2107は、取得した音声Asignal1を音声時刻管理DB232の音声データカラムに格納する。
【0073】
図19は、第1の実施形態に係る拠点Oにおけるサーバ1の音声Asignal3を格納したRTPパケットの受信処理手順と処理内容を示すフローチャートである。図19は、サーバ1のステップS20の処理の典型例を示す。
折り返し音声受信部116は、IPネットワークを介して、折り返し音声送信部2110から送出される音声Asignal3を格納したRTPパケットを受信する(ステップS201)。
折り返し音声受信部116は、受信した音声Asignal3を格納したRTPパケットのヘッダ拡張領域に格納されている時刻Taudioを取得する(ステップS202)。
折り返し音声受信部116は、受信した音声Asignal3を格納したRTPパケットのヘッダに格納されている情報から送信元拠点Rx(xは1、2、…、nの何れか)を取得する(ステップS203)。
【0074】
折り返し音声受信部116は、受信した音声Asignal3を格納したRTPパケットに格納されている音声Asignal3を取得する(ステップS204)。
折り返し音声受信部116は、音声Asignal3を折り返し音声提示装置104に出力する(ステップS205)。ステップS205では、例えば、折り返し音声受信部116は、一定の間隔Iaudioで音声Asignal3を折り返し音声提示装置104に出力する。折り返し音声提示装置104は、拠点R1から拠点Oに折り返し伝送される音声Asignal3を再生して表示する。
【0075】
折り返し音声受信部116は、時刻管理部111で管理される基準システムクロックから、現在時刻Tnを取得する(ステップS206)。現在時刻Tnは、折り返し音声受信部116により音声Asignal3を格納したRTPパケットを受信したことに伴う時刻である。現在時刻Tnは、音声Asignal3を格納したRTPパケットの受信時刻ということもできる。現在時刻Tnは、音声Asignal3の再生時刻ということもできる。音声Asignal3を格納したRTPパケットを受信したことに伴う現在時刻Tnは、第2の時刻の一例である。
折り返し音声受信部116は、取得した時刻Taudio、現在時刻Tn及び送信元拠点Rxを音声加工通知部117に受け渡す(ステップS207)。
【0076】
図20は、第1の実施形態に係る拠点Oにおけるサーバ1のΔdx_audioを格納したRTCPパケットの送信処理手順と処理内容を示すフローチャートである。図20は、サーバ1のステップS21の処理の典型例を示す。
音声加工通知部117は、折り返し音声受信部116から時刻Taudio、現在時刻Tn及び送信元拠点Rxを取得する(ステップS211)。
音声加工通知部117は、時刻Taudio及び現在時刻Tnに基づき現在時刻Tnから時刻Taudioを引いた時間(Tn - Taudio)を算出する(ステップS212)。
音声加工通知部117は、時間(Tn - Taudio)が現在のΔdx_audioと一致するか否かを判断する(ステップS213)。Δdx_audioは、現在時刻Tnと時刻Taudioとの差の値である。現在のΔdx_ audio は、今回算出された時間(Tn - Taudio)の値よりも前に算出された時間(Tn - Taudio)の値である。なお、Δdx_audioの初期値は、0とする。時間(Tn - Taudio)が現在のΔdx_audioと一致する場合(ステップS213、YES)、処理は、終了する。時間(Tn - Taudio)が現在のΔdx_audioと一致しない場合(ステップS213、NO)、処理は、ステップS213からステップS214に遷移する。時間(Tn - Taudio)が現在のΔdx_audioと一致しないことは、Δdx_audioが変化したことに対応する。
【0077】
音声加工通知部117は、Δdx_audioをΔdx_audio = Tn - Taudioに更新する(ステップS214)。
音声加工通知部117は、Δdx_audioを格納したRTCPパケットを送信する(ステップS215)。ステップS215では、例えば、音声加工通知部117は、更新したΔdx_audioをRTCPにおけるAPPを用いて記述する。音声加工通知部117は、Δdx_audioを格納したRTCPパケットを生成する。音声加工通知部117は、Δdx_ audioを格納したRTCPパケットを、取得した送信元拠点Rxで示される拠点に送信する。
【0078】
図21は、第1の実施形態に係る拠点R1におけるサーバ2のΔdx_audioを格納したRTCPパケットの受信処理手順と処理内容を示すフローチャートである。図21は、サーバ2のステップS23の処理の典型例を示す。
音声加工受信部2108は、Δdx_audioを格納したRTCPパケットをサーバ1から受信する(ステップS231)。
音声加工受信部2108は、Δdx_audioを格納したRTCPパケットに格納されているΔdx_audioを取得する(ステップS232)。
音声加工受信部2108は、取得したΔdx_audioを折り返し音声加工部2109に受け渡す(ステップS233)。
【0079】
図22は、第1の実施形態に係る拠点R1におけるサーバ2の音声Asignal2の加工処理手順と処理内容を示すフローチャートである。図22は、サーバ2のステップS24の処理の典型例を示す。
折り返し音声加工部2109は、音声加工受信部2108からΔdx_audioを取得する(ステップS241)。
折り返し音声加工部2109は、折り返し音声収録装置205から出力される音声Asignal2を一定の間隔Iaudioで取得する(ステップS242)。音声Asignal2は、音声提示装置204が音声Asignal1を拠点R1で再生する時刻に拠点R1で取得された音声である。
【0080】
折り返し音声加工部2109は、取得したΔdx_audioに基づく加工態様に応じて、取得した音声Asignal2から音声Asignal3を生成する(ステップS243)。ステップS243では、例えば、折り返し音声加工部2109は、Δdx_audioに基づき音声Asignal2の加工態様を決定する。折り返し音声加工部2109は、Δdx_audioに基づき音声Asignal2の加工態様を変える。折り返し音声加工部2109は、Δdx_audioが大きくなるにつれて音声の質を下げるように加工態様を変える。加工態様は、音声Asignal2に対して加工処理を行うこと及び音声Asignal2に対して加工処理を行わないことの両方を含んでもよい。加工態様は、音声Asignal2に対する加工処理の程度を含む。折り返し音声加工部2109が音声Asignal2に対して加工処理を行う場合、音声Asignal3は音声Asignal2と異なる。折り返し音声加工部2109が音声Asignal2に対して加工処理を行わない場合、音声Asignal3は音声Asignal2と同じである。
【0081】
折り返し音声加工部2109は、Δdx_audioに基づき、拠点Oの折り返し音声提示装置104で再生したときに聴認性が低くなるような加工処理を行う。聴認性が低くなるような加工処理は、音声のデータサイズを縮小するような加工処理を含む。音声Asignal2を折り返し音声提示装置104で再生して視聴者が違和感を与えないほどΔdx_audioが小さければ、折り返し音声加工部2109は、音声Asignal2に対して加工処理を行わない。また、Δdx_audioが大きすぎる場合でも、折り返し音声加工部2109は、音声が全く聴認できなくならないように、音声Asignal2に対して加工処理を行う。例えば、音声Asignal2の強さを変更する加工処理の場合について説明する。音声Asignal2の強さをsとすると、加工態様に応じて生成される音声Asignal3の強さs’は、以下のとおりである。
(1)0ms ≦ Δdx_audio ≦ 100msのとき s’ = s
(2)100ms < Δdx_audio ≦ 300msのとき s’ ={- (1/400) * Δdx_audio+ 5/4} * s
(3)300ms < Δdx_audio のとき s’ = 0.5 * s
加工処理は、音声の質の変更として、上記に限定するものではなく、上記音の強さ変更の他、Δdx_audioが大きいほど閾値が小さくなるようなローパスフィルタリングにより高周波数の成分を逓減させる等であってもよい。加工処理は、Δdx_audioが大きいほど音が遠くから聴こえるように感じられるような、加工処理後の音声Asignal3が音声Asignal2よりも聴認性が低下する加工処理であれば、他の加工処理を用いてもよい。
折り返し音声加工部2109は、取得した音声Asignal2及び生成した音声Asignal3を折り返し音声送信部2110に受け渡す(ステップS244)。
【0082】
図23は、第1の実施形態に係る拠点R1におけるサーバ2の音声Asignal3を格納したRTPパケットの送信処理手順と処理内容を示すフローチャートである。図23は、サーバ2のステップS25の処理の典型例を示す。
折り返し音声送信部2110は、折り返し音声加工部2109から音声Asignal2及び音声Asignal3を取得する(ステップS251)。ステップS251では、例えば、折り返し音声送信部2110は、音声Asignal2及び音声Asignal3を一定間隔Iaudioで同時に取得する。
【0083】
折り返し音声送信部2110は、音声時刻管理DB232を参照し、取得した音声Asignal2を含む音声データをもつレコードを抽出する(ステップS252)。折り返し音声送信部2110が取得した音声Asignal2は、音声提示装置204で再生された音声Asignal1と拠点R1で発生した音声(拠点R1にいる観客の歓声等)を含む。ステップS252では、例えば、折り返し音声送信部2110は、公知の音声分析技術により、2つの音声を分離する。折り返し音声送信部2110は、音声の分離により、音声提示装置204で再生された音声Asignal1を特定する。折り返し音声送信部2110は、音声時刻管理DB232を参照し、特定した音声提示装置204で再生された音声Asignal1と一致する音声データを検索する。折り返し音声送信部2110は、音声時刻管理DB232を参照し、特定した音声提示装置204で再生された音声Asignal1と一致する音声データをもつレコードを抽出する。
【0084】
折り返し音声送信部2110は、音声時刻管理DB232を参照し、抽出したレコードの音声同期基準時刻カラムの時刻Taudioを取得する(ステップS253)。
折り返し音声送信部2110は、音声Asignal3を格納したRTPパケットを生成する(ステップS254)。ステップS254では、例えば、折り返し音声送信部2110は、取得した音声Asignal3をRTPパケットに格納する。折り返し音声送信部2110は、取得した時刻TaudioをRTPパケットのヘッダ拡張領域に格納する。
折り返し音声送信部2110は、生成した音声Asignal3を格納したRTPパケットをIPネットワークに送出する(ステップS255)。
【0085】
(効果)
以上述べたように第1の実施形態では、サーバ2は、サーバ1からの通知で示されるΔdx_videoに基づく加工態様に応じて映像Vsignal2から映像Vsignal3を生成する。サーバ2は、映像Vsignal3をサーバ1に送信する。典型例では、サーバ2は、Δdx_videoに基づき加工態様を変える。サーバ2は、Δdx_videoが大きくなるにつれて映像の質を下げるように加工態様を変えてもよい。このように、サーバ2は、再生したときに映像が目立たなくなるように映像を加工処理することができる。一般に、ある地点Xからスクリーン等に投影された映像を見る場合、地点Xからスクリーンまでの距離がある一定の範囲内であれば映像を鮮明に視認することができる。他方、距離が遠くなるに従い、映像は小さくぼやけて見えるようになり視認しづらくなる。
【0086】
サーバ2は、サーバ1からの通知で示されるΔdx_audioに基づく加工態様に応じて音声Asignal2から音声Asignal3を生成する。サーバ2は、音声Asignal3をサーバ1に送信する。典型例では、サーバ2は、Δdx_audioに基づき加工態様を変える。サーバ2は、Δdx_audioが大きくなるにつれて音声の質を下げるように加工態様を変えてもよい。このように、サーバ2は、再生したときに音声が聞き取りにくくなるように音声を加工処理することができる。一般に、ある地点Xからスピーカ等で再生された音声を聴く場合、地点Xからスピーカ(音源)までの距離がある一定の範囲内であれば音声を音源の発生と同時に、かつ、鮮明に聴認することができる。他方、距離が遠くなるに従い、音の再生時刻から遅れて、かつ、減衰して音が伝わり聴認しづらくなる。
【0087】
サーバ2は、Δdx_video又はΔdx_audioに基づき上述のような視聴を再現させる加工処理を行うことで、物理的に離れた拠点にいる視聴者の様子を伝えつつも、データ伝送遅延時間の大きさによる違和感を軽減させることができる。
【0088】
このように、サーバ2は、拠点Oにおいて複数の拠点から異なる時刻に伝送される複数の映像・音声が再生されるときに視聴者が感じる違和感を低減させることができる。
【0089】
さらに、サーバ2は、拠点Oに伝送する映像・音声の加工処理を実行することで、映像・音声のデータサイズを縮小することができる。これにより、映像・音声のデータ伝送時間は短縮する。データ伝送に必要なネットワーク帯域は削減する。
【0090】
[第2の実施形態]
第2の実施形態は、ある遠隔地の拠点Rにおいて、拠点Oから伝送された映像・音声と、拠点R以外の複数の遠隔地の拠点から伝送された映像・音声を再生する実施形態である。
【0091】
映像・音声を加工処理するために用いる時刻情報は、拠点Oと拠点R1~拠点Rnのそれぞれとの間で送受信するRTPパケットのヘッダ拡張領域に格納される。例えば、時刻情報は、絶対時刻形式(hh:mm:ss.fff形式)である。
【0092】
以下では、遠隔地として2つの拠点R1及び拠点R2を中心に説明し、拠点R2において、拠点Oから伝送された映像・音声と拠点R1から伝送された映像・音声を再生させる処理について説明する。拠点Oにおける拠点R1及び拠点R2から折り返し伝送された映像・音声の受信処理、拠点R1 における拠点R2から伝送された映像・音声の受信処理及び加工処理、拠点R2における拠点R2で撮影・収録した映像・音声の拠点O及び拠点R1への送信処理については、それらの説明を省略する。
【0093】
映像と音声はそれぞれRTPパケット化して送受信するとして説明するが、これに限定されない。映像と音声は、同じ機能部・DB(データベース)で処理・管理されてもよい。映像と音声は、1つのRTPパケットにどちらも格納されて送受信されてもよい。
【0094】
(構成例)
第2の実施形態では、第1の実施形態と同様の構成については同一の符号を付し、その説明を省略する。第2の実施形態では、主として、第1の実施形態と異なる部分について説明する。
【0095】
図24は、第2の実施形態に係るメディア加工システムSに含まれる各電子機器のハードウェア構成の一例を示すブロック図である。
メディア加工システムSは、拠点Oに含まれる複数の電子機器、拠点R1~拠点Rnのそれぞれに含まれる複数の電子機器及び時刻配信サーバ10を含む。各拠点の電子機器及び時刻配信サーバ10は、IPネットワークを介して互いに通信可能である。
拠点Oは、第1の実施形態と同様に、サーバ1、イベント映像撮影装置101及びイベント音声収録装置103を備える。拠点Oは、第1の拠点の一例である。
【0096】
拠点R1は、第1の実施形態と同様に、サーバ2、映像提示装置201、オフセット映像撮影装置202及び音声提示装置204を備える。拠点R1は、第1の実施形態と異なり、映像撮影装置206及び音声収録装置207を備える。拠点R1は、第2の拠点の一例である。サーバ2は、メディア加工装置の一例である。
映像撮影装置206は、拠点R1の映像を撮影するカメラを含む装置である。例えば、映像撮影装置206は、拠点Oから拠点R1に伝送される映像を再生して表示する映像提示装置201の設置された拠点R1の様子の映像を撮影する。映像撮影装置206は、映像撮影装置の一例である。
音声収録装置207は、拠点R1の音声を収録するマイクを含む装置である。例えば、音声収録装置207は、拠点Oから拠点R1に伝送される音声を再生して出力する音声提示装置204の設置された拠点R1の様子の音声を収録する。音声収録装置207は、音声収録装置の一例である。
【0097】
拠点R2は、サーバ3、映像提示装置301、オフセット映像撮影装置302、音声提示装置303及びオフセット音声収録装置304を備える。拠点R2は、第1の拠点及び第2の拠点とは異なる第3の拠点の一例である。
サーバ3は、拠点R2に含まれる各電子機器を制御する電子機器である。
映像提示装置301は、拠点Oから拠点R2に伝送される映像並びに拠点R1及び拠点R3~拠点Rnのそれぞれから拠点R2に伝送される映像を再生して表示するディスプレイを含む装置である。映像提示装置301は、提示装置の一例である。
オフセット映像撮影装置302は、撮影時刻を記録可能な装置である。オフセット映像撮影装置302は、映像提示装置301の映像表示領域全体を撮影できるように設置されたカメラを含む装置である。オフセット映像撮影装置302は、映像撮影装置の一例である。
音声提示装置303は、拠点Oから拠点R2に伝送される音声並びに拠点R1及び拠点R3~拠点Rnのそれぞれから拠点R2に伝送される音声を再生して出力するスピーカを含む装置である。音声提示装置303は、提示装置の一例である。
オフセット音声収録装置304は、収録時刻を記録可能な装置である。オフセット音声収録装置304は、音声提示装置303で再生された音声を収録できるように設置されたマイクを含む装置である。オフセット音声収録装置304は、音声収録装置の一例である。
【0098】
サーバ3の構成例について説明する。
サーバ3は、制御部31、プログラム記憶部32、データ記憶部33、通信インタフェース34及び入出力インタフェース35を備える。サーバ3が備える各要素は、バスを介して、互いに接続されている。
制御部31は、制御部11と同様に構成され得る。プロセッサは、ROM、又はプログラム記憶部32に記憶されているプログラムをRAMに展開する。プロセッサがRAMに展開されるプログラムを実行することで、制御部31は、後述する各機能部を実現する。制御部31は、コンピュータを構成する。
プログラム記憶部32は、プログラム記憶部12と同様に構成され得る。
データ記憶部33は、データ記憶部13と同様に構成され得る。
通信インタフェース34は、通信インタフェース14と同様に構成され得る。通信インタフェース34は、サーバ3を他の電子機器と通信可能に接続する種々のインタフェースを含む。
入出力インタフェース35は、入出力インタフェース15と同様に構成され得る。入出力インタフェース35は、サーバ3と映像提示装置301、オフセット映像撮影装置302、音声提示装置303及びオフセット音声収録装置304のそれぞれとの通信を可能にする。
なお、サーバ3のハードウェア構成は、上述の構成に限定されるものではない。サーバ3は、適宜、上述の構成要素の省略、及び変更並びに新たな構成要素の追加を可能とする。
【0099】
図25は、第2の実施形態に係るメディア加工システムSを構成する各電子機器のソフトウェア構成の一例を示すブロック図である。
【0100】
サーバ1は、第1の実施形態と同様に、時刻管理部111、イベント映像送信部112及びイベント音声送信部115を備える。各機能部は、制御部11によるプログラムの実行によって実現される。各機能部は、制御部11又はプロセッサが備えるということもできる。各機能部は、制御部11又はプロセッサと読み替え可能である。
【0101】
サーバ2は、第1の実施形態と同様に、時刻管理部2101、イベント映像受信部2102、映像オフセット算出部2103、イベント音声受信部2107、映像時刻管理DB231及び音声時刻管理DB232を備える。サーバ2は、第1の実施形態と異なり、映像加工受信部2111、映像加工部2112、映像送信部2113、音声加工受信部2114、音声加工部2115及び音声送信部2116を備える。各機能部は、制御部21によるプログラムの実行によって実現される。各機能部は、制御部21又はプロセッサが備えるということもできる。各機能部は、制御部21又はプロセッサと読み替え可能である。映像時刻管理DB231及び音声時刻管理DB232は、データ記憶部23によって実現される。
【0102】
映像加工受信部2111は、Δdx_videoを格納したRTCPパケットを拠点R2~拠点Rnのそれぞれのサーバから受信する。Δdx_videoは、拠点R1と拠点R2~拠点Rnのそれぞれとの間のデータ伝送遅延に関する値である。Δdx_videoは、伝送遅延時間の一例である。Δdx_videoは、拠点R2~拠点Rnのそれぞれで異なる。Δdx_videoを格納したRTCPパケットは、伝送遅延時間に関する通知の一例である。RTCPパケットは、パケットの一例である。映像加工受信部2111は、第1の受信部の一例である。
【0103】
映像加工部2112は、Δdx_videoに基づく加工態様に応じて、映像Vsignal2から映像Vsignal3を生成する。映像Vsignal2は、映像Vsignal1を拠点R1で再生する時刻に拠点R1で取得された映像である。映像Vsignal2を取得することは、映像撮影装置206が映像Vsignal2を撮影することを含む。映像Vsignal2を取得することは、映像撮影装置206が撮影した映像Vsignal2をサンプリングすることを含む。映像Vsignal2は、第2の映像の一例である。映像Vsignal3は、第3の映像の一例である。映像加工部2112は、加工部の一例である。
【0104】
映像送信部2113は、IPネットワークを介して、映像Vsignal3を格納したRTPパケットを拠点R2~拠点Rnの何れかのサーバに送信する。映像Vsignal3を格納したRTPパケットは、時刻Tvideoを付与されている。映像Vsignal3を格納したRTPパケットは、映像Vsignal3が撮影された絶対時刻である時刻tと一致する提示時刻t1に関連付けられた時刻Tvideoを含む。映像Vsignal3は映像Vsignal2から生成されるので、映像Vsignal3を格納したRTPパケットは、映像Vsignal2に関するパケットの一例である。RTPパケットは、パケットの一例である。映像送信部2113は、送信部の一例である。
【0105】
音声加工受信部2114は、Δdx_audioを格納したRTCPパケットを拠点R2~拠点Rnのそれぞれのサーバから受信する。Δdx_audioは、拠点R1と拠点R2~拠点Rnのそれぞれとの間のデータ伝送遅延に関する値である。Δdx_ audioは、伝送遅延時間の一例である。Δdx_ audioは、拠点R2~拠点Rnのそれぞれで異なる。Δdx_ audioを格納したRTCPパケットは、伝送遅延時間に関する通知の一例である。音声加工受信部2114は、第1の受信部の一例である。
【0106】
音声加工部2115は、Δdx_audioに基づく加工態様に応じて、音声Asignal2から音声Asignal3を生成する。音声Asignal2は、音声Asignal1を拠点R1で再生する時刻に拠点R1で取得された音声である。音声Asignal2を取得することは、音声収録装置207が音声Asignal2を収録することを含む。音声Asignal2を取得することは、音声収録装置207が収録した音声Asignal2をサンプリングすることを含む。音声Asignal2は、第2の音声の一例である。音声Asignal3は、第3の音声の一例である。音声加工部2115は、加工部の一例である。
【0107】
音声送信部2116は、IPネットワークを介して、音声Asignal3を格納したRTPパケットを拠点R2~拠点Rnの何れかのサーバに送信する。音声Asignal3を格納したRTPパケットは、時刻Taudioを付与されている。音声Asignal3は音声Asignal2から生成されるので、音声Asignal3を格納したRTPパケットは、音声Asignal2に関するパケットの一例である。音声送信部2116は、送信部の一例である。
【0108】
サーバ3は、時刻管理部311、イベント映像受信部312、映像オフセット算出部313、映像受信部314、映像加工通知部315、イベント音声受信部316、音声オフセット算出部317、音声受信部318、音声加工通知部319、映像時刻管理DB331及び音声時刻管理DB332を備える。各機能部は、制御部31によるプログラムの実行によって実現される。各機能部は、制御部31又はプロセッサが備えるということもできる。各機能部は、制御部31又はプロセッサと読み替え可能である。映像時刻管理DB331及び音声時刻管理DB332は、データ記憶部33によって実現される。
【0109】
時刻管理部311は、時刻配信サーバ10と公知のNTPやPTP等のプロトコルを用いて時刻同期を行い、基準システムクロックを管理する。時刻管理部311は、サーバ1及びサーバ2が管理する基準システムクロックと同一の基準システムクロックを管理する。時刻管理部311が管理する基準システムクロックと、サーバ1及びサーバ2が管理する基準システムクロックとは、時刻同期している。
【0110】
イベント映像受信部312は、IPネットワークを介して、映像Vsignal1を格納したRTPパケットをサーバ1から受信する。映像Vsignal1は、拠点Oで絶対時刻である時刻Tvideoに取得された映像である。映像Vsignal1を取得することは、イベント映像撮影装置101が映像Vsignal1を撮影することを含む。映像Vsignal1を取得することは、イベント映像撮影装置101が撮影した映像Vsignal1をサンプリングすることを含む。映像Vsignal1を格納したRTPパケットは、時刻Tvideoを付与されている。時刻Tvideoは、拠点Oで映像Vsignal1が取得された時刻である。映像Vsignal1は、第1の映像の一例である。時刻Tvideoは、第1の時刻の一例である。
映像オフセット算出部313は、拠点R2の映像提示装置301で映像Vsignal1を再生された絶対時刻である提示時刻t1を算出する。提示時刻t1は、第3の時刻の一例である。
映像受信部314は、IPネットワークを介して、映像Vsignal3を格納したRTPパケットを拠点R1及び拠点R3~拠点Rnのそれぞれのサーバから受信する
映像加工通知部315は、拠点R1及び拠点R3~拠点RnのそれぞれについてΔdx_videoを生成し、Δdx_videoを格納したRTCPパケットを拠点R1及び拠点R3~拠点Rnのそれぞれのサーバに送信する。
【0111】
イベント音声受信部316は、IPネットワークを介して、音声Asignal1を格納したRTPパケットをサーバ1から受信する。音声Asignal1は、拠点Oで絶対時刻である時刻Taudioに取得された音声である。音声Asignal1を取得することは、イベント音声収録装置103が音声Asignal1を収録することを含む。音声Asignal1を取得することは、イベント音声収録装置103が収録した音声Asignal1をサンプリングすることを含む。音声Asignal1を格納したRTPパケットは、時刻Taudioを付与されている。時刻Taudioは、拠点Oで音声Asignal1が取得された時刻である。音声Asignal1は、第1の音声の一例である。時刻Taudioは、第1の時刻の一例である。
音声オフセット算出部317は、拠点R2の音声提示装置303で音声Asignal1を再生された絶対時刻である提示時刻t2を算出する。提示時刻t2は、第3の時刻の一例である。
音声受信部318は、IPネットワークを介して、音声Asignal3を格納したRTPパケットを拠点R1及び拠点R3~拠点Rnのそれぞれのサーバから受信する。
音声加工通知部319は、拠点R1及び拠点R3~拠点RnのそれぞれについてΔdx_ audioを生成し、Δdx_ audioを格納したRTCPパケットを拠点R1及び拠点R3~拠点Rnのそれぞれのサーバに送信する。
【0112】
映像時刻管理DB331は、映像時刻管理DB231のデータ構造と同様であり得る。映像時刻管理DB331は、映像オフセット算出部313から取得した時刻Tvideoと提示時刻t1とを関連付けて格納するDBである。
【0113】
図26は、第2の実施形態に係る拠点R2のサーバ3が備える音声時刻管理DB332のデータ構造の一例を示す図である。
音声時刻管理DB332は、音声オフセット算出部317から取得した時刻Taudioと提示時刻t2とを関連付けて格納するDBである。
音声時刻管理DB332は、音声同期基準時刻カラムと提示時刻カラムとを備える。音声同期基準時刻カラムは、時刻Taudioを格納する。提示時刻カラムは、提示時刻t2を格納する。
【0114】
(動作例)
以下では、拠点O、拠点R1及び拠点R2の動作を例にして説明する。
【0115】
(1)映像の加工再生
拠点Oにおけるサーバ1の映像処理について説明する。
イベント映像送信部112は、IPネットワークを介して、映像Vsignal1を格納したRTPパケットを拠点R1~拠点Rnのそれぞれのサーバに送信する。映像Vsignal1を格納したRTPパケットは、時刻Tvideoを付与されている。時刻Tvideoは、拠点O以外の各拠点(R1、R2、…、Rn)で映像を加工処理するために用いられる時刻情報である。イベント映像送信部112の処理は、図7を用いて第1の実施形態で説明した処理と同様であってもよく、その説明を省略する。
【0116】
拠点R1におけるサーバ2の映像処理について説明する。
図27は、第2の実施形態に係る拠点R1におけるサーバ2の映像処理手順と処理内容を示すフローチャートである。
イベント映像受信部2102は、IPネットワークを介して、映像Vsignal1を格納したRTPパケットをサーバ1から受信する(ステップS26)。
ステップS26におけるイベント映像受信部2102の処理の典型例は、図8を用いて第1の実施形態で説明した処理と同様であってもよく、その説明を省略する。
【0117】
映像オフセット算出部2103は、映像提示装置201で映像Vsignal1を再生された提示時刻t1を算出する(ステップS27)。
ステップS27における映像オフセット算出部2103の処理の典型例は、図9を用いて第1の実施形態で説明した処理と同様であってもよく、その説明を省略する。
【0118】
映像加工受信部2111は、Δdx_videoを格納したRTCPパケットをサーバ3から受信する(ステップS28)。
ステップS28における映像加工受信部2111の処理の典型例は、図12を用いて第1の実施形態で説明した映像加工受信部2104の処理と同様であってもよい。
図12を用いた説明の記載において「映像加工受信部2104」、「折り返し映像加工部2105」及び「サーバ1」の表記を「映像加工受信部2111」、「映像加工部2112」及び「サーバ3」に読み替えることで、映像加工受信部2111の処理の説明を省略する。
【0119】
映像加工部2112は、Δdx_videoに基づく加工態様に応じて、映像Vsignal2から映像Vsignal3を生成する(ステップS29)。
ステップS29における映像加工部2112の処理の典型例は、図13を用いて第1の実施形態で説明した折り返し映像加工部2105の処理と同様であってもよい。
図13を用いた説明の記載において「映像加工受信部2104」、「折り返し映像加工部2105」、「折り返し映像撮影装置203」、「拠点O」及び「折り返し映像提示装置102」の表記を「映像加工受信部2111」、「映像加工部2112」、「映像撮影装置206」、「拠点R2」及び「映像提示装置301」に読み替えることで、映像加工部2112の処理の説明を省略する。
【0120】
映像送信部2113は、IPネットワークを介して、映像Vsignal3を格納したRTPパケットをサーバ3に送信する(ステップS30)。
ステップS30における映像送信部2113の処理の典型例は、図14を用いて第1の実施形態で説明した折り返し映像送信部2106の処理と同様であってもよい。
図14を用いた説明の記載において「折り返し映像加工部2105」及び「折り返し映像送信部2106」の表記を「映像加工部2112」及び「映像送信部2113」に読み替えることで、映像送信部2113の処理の説明を省略する。
【0121】
拠点R2におけるサーバ3の映像処理について説明する。
図28は、第2の実施形態に係る拠点R2におけるサーバ3の映像処理手順と処理内容を示すフローチャートである。
イベント映像受信部312は、IPネットワークを介して、映像Vsignal1を格納したRTPパケットをサーバ1から受信する(ステップS31)。
ステップS31におけるイベント映像受信部312の処理の典型例は、図8を用いて第1の実施形態で説明したイベント映像受信部2102の処理と同様であってもよい。
図8を用いた説明の記載において「イベント映像受信部2102」、「映像オフセット算出部2103」及び「映像提示装置201」の表記を「イベント映像受信部312」、「映像オフセット算出部313」及び「映像提示装置301」に読み替えることで、イベント映像受信部312の処理の説明を省略する。
【0122】
映像オフセット算出部313は、映像提示装置301で映像Vsignal1を再生された提示時刻t1を算出する(ステップS32)。
ステップS32における映像オフセット算出部313の処理の典型例は、図9を用いて第1の実施形態で説明した映像オフセット算出部2103の処理と同様であってもよい。
図9を用いた説明の記載において「イベント映像受信部2102」、「映像オフセット算出部2103」、「オフセット映像撮影装置202」及び「映像時刻管理DB231」の表記を「イベント映像受信部312」、「映像オフセット算出部313」、「オフセット映像撮影装置302」及び「映像時刻管理DB331」に読み替えることで、映像オフセット算出部313の処理の説明を省略する。
【0123】
映像受信部314は、IPネットワークを介して、映像Vsignal3を格納したRTPパケットを拠点R1のサーバ2から受信する(ステップS33)。
ステップS33における映像受信部314の処理の典型例は、図10を用いて第1の実施形態で説明した折り返し映像受信部113の処理と同様であってもよい。
図10を用いた説明の記載において「時刻管理部111」、「折り返し映像受信部113」、「映像加工通知部114」、「折り返し映像提示装置102」及び「折り返し映像送信部2106」の表記を「時刻管理部311」、「映像受信部314」、「映像加工通知部315」、「映像提示装置301」及び「映像送信部2113」に読み替えることで、映像受信部314の処理の説明を省略する。
【0124】
映像加工通知部315は、拠点R1についてΔdx_videoを生成し、Δdx_videoを格納したRTCPパケットを拠点R1のサーバ1に送信する(ステップS34)。
【0125】
図29は、第2の実施形態に係る拠点R2におけるサーバ3のΔdx_videoを格納したRTCPパケットの送信処理手順と処理内容を示すフローチャートである。図29は、サーバ3のステップS34の処理の典型例を示す。
映像加工通知部315は、映像受信部314から時刻Tvideo、現在時刻Tn及び送信元拠点Rxを取得する(ステップS341)。
映像加工通知部315は、映像時刻管理DB331を参照し、取得した時刻Tvideoと一致する映像同期基準時刻をもつレコードを抽出する(ステップS342)。
映像加工通知部315は、映像時刻管理DB331を参照し、抽出したレコードの提示時刻カラムの提示時刻t1を取得する(ステップS343)。提示時刻t1は、拠点Oで時刻Tvideoに取得された映像Vsignal1を拠点R2の映像提示装置301で再生された時刻である。
【0126】
映像加工通知部315は、現在時刻Tn及び提示時刻t1に基づき現在時刻Tnから提示時刻t1を引いた時間(Tn - t1)を算出する(ステップS344)。
映像加工通知部315は、時間(Tn - t1)が現在のΔdx_videoと一致するか否かを判断する(ステップS345)。Δdx_videoは、現在時刻Tnと提示時刻t1との差の値である。現在のΔdx_videoは、今回算出された時間(Tn - t1)よりも前に算出された時間(Tn - t1)である。なお、Δdx_videoの初期値は、0とする。時間(Tn - t1)が現在のΔdx_videoと一致する場合(ステップS345、YES)、処理は、終了する。時間(Tn - t1)が現在のΔdx_videoと一致しない場合(ステップS345、NO)、処理は、ステップS345からステップS346に遷移する。時間(Tn - t1)が現在のΔdx_videoと一致しないことは、Δdx_videoが変化したことに対応する。
【0127】
映像加工通知部315は、Δdx_videoをΔdx_video = Tn - t1に更新する(ステップS346)。
映像加工通知部315は、Δdx_videoを格納したRTCPパケットを送信する(ステップS347)。ステップS347では、例えば、映像加工通知部315は、更新したΔdx_videoをRTCPにおけるAPPを用いて記述する。映像加工通知部315は、Δdx_videoを格納したRTCPパケットを生成する。映像加工通知部315は、Δdx_videoを格納したRTCPパケットを、取得した送信元拠点Rxで示される拠点R1に送信する。
【0128】
(2)音声の加工再生
拠点Oにおけるサーバ1の音声処理について説明する。
イベント音声送信部115は、IPネットワークを介して、音声Asignal1を格納したRTPパケットを拠点R1~拠点Rnのそれぞれのサーバに送信する。音声Asignal1を格納したRTPパケットは、時刻Taudioを付与されている。時刻Taudioは、拠点O以外の各拠点(R1、R2、…、Rn)で音声を加工処理するために用いられる時刻情報である。イベント音声送信部115の処理は、図17を用いて第1の実施形態で説明した処理と同様であってもよく、その説明を省略する。
【0129】
拠点R1におけるサーバ2の音声処理について説明する。
図30は、第2の実施形態に係る拠点R1におけるサーバ2の音声処理手順と処理内容を示すフローチャートである。
イベント音声受信部2107は、IPネットワークを介して、音声Asignal1を格納したRTPパケットをサーバ1から受信する(ステップS35)。
ステップS35におけるイベント音声受信部2107の処理の典型例は、図18を用いて第1の実施形態で説明した処理と同様であってもよく、その説明を省略する。
【0130】
音声加工受信部2114は、Δdx_audioを格納したRTCPパケットをサーバ3から受信する(ステップS36)。
ステップS36における音声加工受信部2114の処理の典型例は、図21を用いて第1の実施形態で説明した音声加工受信部2108の処理と同様であってもよい。
図21を用いた説明の記載において「音声加工受信部2108」、「折り返し音声加工部2109」及び「サーバ1」の表記を「音声加工受信部2114」、「音声加工部2115」及び「サーバ3」に読み替えることで、音声加工受信部2114の処理の説明を省略する。
【0131】
音声加工部2115は、Δdx_audioに基づく加工態様に応じて、音声Asignal2から音声Asignal3を生成する(ステップS37)。
ステップS37における音声加工部2115の処理の典型例は、図22を用いて第1の実施形態で説明した折り返し音声加工部2109の処理と同様であってもよい。
図22を用いた説明の記載において「音声加工受信部2108」、「折り返し音声加工部2109」、「折り返し音声収録装置205」、「拠点O」及び「折り返し音声提示装置104」の表記を「音声加工受信部2114」、「音声加工部2115」、「音声提示装置204」、「拠点R2」及び「音声提示装置303」に読み替えることで、音声加工部2115の処理の説明を省略する。
【0132】
音声送信部2116は、IPネットワークを介して、音声Asignal3を格納したRTPパケットをサーバ3に送信する(ステップS38)。
ステップS38における音声送信部2116の処理の典型例は、図23を用いて第1の実施形態で説明した折り返し音声送信部2110の処理と同様であってもよい。
図23を用いた説明の記載において「折り返し音声加工部2109」及び「折り返し音声送信部2110」の表記を「音声加工部2115」及び「音声送信部2116」に読み替えることで、音声送信部2116の処理の説明を省略する。
【0133】
拠点R2におけるサーバ3の音声処理について説明する。
図31は、第2の実施形態に係る拠点R2におけるサーバ3の音声処理手順と処理内容を示すフローチャートである。
イベント音声受信部316は、IPネットワークを介して、音声Asignal1を格納したRTPパケットをサーバ1から受信する(ステップS39)。ステップS39の処理の典型例については後述する。
【0134】
音声オフセット算出部317は、音声提示装置303で音声Asignal1を再生された提示時刻t2を算出する(ステップS40)。ステップS40の処理の典型例については後述する。
【0135】
音声受信部318は、IPネットワークを介して、音声Asignal3を格納したRTPパケットを拠点R1のサーバ2から受信する(ステップS41)。
ステップS41における音声受信部318の処理の典型例は、図19を用いて第1の実施形態で説明した折り返し音声受信部116の処理と同様であってもよい。
図19を用いた説明の記載において「折り返し音声受信部116」、「音声加工通知部117」、「折り返し音声提示装置104」及び「折り返し音声送信部2110」の表記を「音声受信部318」、「音声加工通知部319」、「音声提示装置303」及び「音声送信部2116」に読み替えることで、音声受信部318の処理の説明を省略する。
【0136】
音声加工通知部319は、拠点R1についてΔdx_ audioを生成し、Δdx_audioを格納したRTCPパケットを拠点R1のサーバ1に送信する(ステップS42)。ステップS42の処理の典型例については後述する。
【0137】
図32は、第2の実施形態に係る拠点R2におけるサーバ3の音声Asignal1を格納したRTPパケットの受信処理手順と処理内容を示すフローチャートである。図32は、サーバ3のステップS39の処理の典型例を示す。
イベント音声受信部316は、IPネットワークを介して、イベント音声送信部115から送出される音声Asignal1を格納したRTPパケットを受信する(ステップS391)。
イベント音声受信部316は、受信した音声Asignal1を格納したRTPパケットに格納されている音声Asignal1を取得する(ステップS392)。
イベント音声受信部316は、取得した音声Asignal1を音声提示装置303に出力する(ステップS393)。音声提示装置303は、音声Asignal1を再生して出力する。
イベント音声受信部316は、受信した音声Asignal1を格納したRTPパケットのヘッダ拡張領域に格納されている時刻T audioを取得する(ステップS394)。
イベント音声受信部316は、取得した音声Asignal1及び時刻Taudioを音声オフセット算出部317に受け渡す(ステップS395)。
【0138】
図33は、第2の実施形態に係る拠点R2におけるサーバ3の提示時刻t2の算出処理手順と処理内容を示すフローチャートである。図33は、サーバ3のステップS40の処理の典型例を示す。
音声オフセット算出部317は、音声Asignal1及び時刻Taudioをイベント音声受信部316から取得する(ステップS401)。
音声オフセット算出部317は、取得した音声Asignal1及びオフセット音声収録装置304から入力される音声に基づき、提示時刻t2を算出する(ステップS402)。オフセット音声収録装置304が収録した音声は、音声提示装置303で再生された音声Asignal1と拠点R2で発生した音声(拠点R2にいる観客の歓声等)を含む。ステップS402では、例えば、音声オフセット算出部317は、公知の音声分析技術により、2つの音声を分離する。音声オフセット算出部317は、音声の分離により、音声提示装置303で音声Asignal1を再生された絶対時刻である提示時刻t2を取得する。
音声オフセット算出部317は、取得した時刻Taudioを音声時刻管理DB332の音声同期基準時刻カラムに格納する(ステップS403)。
音声オフセット算出部317は、取得した提示時刻t2を音声時刻管理DB332の提示時刻カラムに格納する(ステップS404)。
【0139】
図34は、第2の実施形態に係る拠点R2におけるサーバ3のΔdx_audioを格納したRTCPパケットの送信処理手順と処理内容を示すフローチャートである。図34は、サーバ3のステップS42の処理の典型例を示す。
音声加工通知部319は、音声受信部318から時刻Taudio、現在時刻Tn及び送信元拠点Rxを取得する(ステップS421)。
音声加工通知部319は、音声時刻管理DB332を参照し、取得した時刻Taudioと一致する音声同期基準時刻をもつレコードを抽出する(ステップS422)。
音声加工通知部319は、音声時刻管理DB332を参照し、抽出したレコードの提示時刻カラムの提示時刻t2を取得する(ステップS423)。提示時刻t2は、拠点Oで時刻Taudioに取得された音声Asignal1を拠点R2の音声提示装置303で再生された時刻である。
【0140】
音声加工通知部319は、現在時刻Tn及び提示時刻t2に基づき現在時刻Tnから提示時刻t2を引いた時間(Tn - t2)を算出する(ステップS424)。
音声加工通知部319は、時間(Tn - t2)が現在のΔdx_audioと一致するか否かを判断する(ステップS425)。Δdx_ audioは、現在時刻Tnと提示時刻t2との差の値である。現在のΔdx_ audioは、今回算出された時間(Tn - t2)よりも前に算出された時間(Tn - t2)である。なお、Δdx_audioの初期値は、0とする。時間(Tn - t2)が現在のΔdx_audioと一致する場合(ステップS425、YES)、処理は、終了する。時間(Tn - t2)が現在のΔdx_audioと一致しない場合(ステップS425、NO)、処理は、ステップS425からステップS426に遷移する。時間(Tn - t2)が現在のΔdx_audioと一致しないことは、Δdx_audioが変化したことに対応する。
音声加工通知部319は、Δdx_audioをΔdx_audio = Tn - Taudioに更新する(ステップS426)。
音声加工通知部319は、Δdx_audioを格納したRTCPパケットを送信する(ステップS427)。ステップS427では、例えば、音声加工通知部319は、更新したΔdx_audioをRTCPにおけるAPPを用いて記述する。音声加工通知部319は、Δdx_audioを格納したRTCPパケットを生成する。音声加工通知部319は、Δdx_ audioを格納したRTCPパケットを、取得した送信元拠点Rxで示される拠点に送信する。
【0141】
(効果)
以上述べたように第2の実施形態では、サーバ2は、サーバ3からの通知で示されるΔdx_videoに基づく加工態様に応じて映像Vsignal2から映像Vsignal3を生成する。サーバ2は、映像Vsignal3をサーバ3に送信する。典型例では、サーバ2は、Δdx_videoに基づき加工態様を変える。サーバ2は、Δdx_videoが大きくなるにつれて映像の質を下げるように加工態様を変えてもよい。このように、サーバ2は、再生したときに映像が目立たなくなるように映像を加工処理することができる。一般に、ある地点Xからスクリーン等に投影された映像を見る場合、地点Xからスクリーンまでの距離がある一定の範囲内であれば映像を鮮明に視認することができる。他方、距離が遠くなるに従い、映像は小さくぼやけて見えるようになり視認しづらくなる。
【0142】
サーバ2は、サーバ3からの通知で示されるΔdx_audioに基づく加工態様に応じて音声Asignal2から音声Asignal3を生成する。サーバ2は、映像Vsignal3をサーバ3に送信する。典型例では、サーバ2は、Δdx_videoに基づき加工態様を変える。サーバ2は、Δdx_videoが大きくなるにつれて音声の質を下げるように加工態様を変えてもよい。このように、サーバ2は、再生したときに音声が聞き取りにくくなるように音声を加工処理することができる。一般に、ある地点Xからスピーカ等で再生された音声を聴く場合、地点Xからスピーカ(音源)までの距離がある一定の範囲内であれば音声を音源の発生と同時に、かつ、鮮明に聴認することができる。他方、距離が遠くなるに従い、音の再生時刻から遅れて、かつ、減衰して音が伝わり聴認しづらくなる。
【0143】
サーバ2は、Δdx_video又はΔdx_videoに基づき上述のような視聴を再現させる加工処理を行うことで、物理的に離れた拠点にいる視聴者の様子を伝えつつも、データ伝送遅延時間の大きさによる違和感を軽減させることができる。
【0144】
このように、サーバ2は、拠点R2において複数の拠点から異なる時刻に伝送される複数の映像・音声が再生されるときに視聴者が感じる違和感を低減させることができる。
【0145】
さらに、サーバ2は、拠点R2に伝送する映像・音声の加工処理を実行することで、映像・音声のデータサイズを縮小することができる。これにより、映像・音声のデータ伝送時間は短縮する。データ伝送に必要なネットワーク帯域は削減する。
【0146】
[その他の実施形態]
メディア加工装置は、上記の例で説明したように1つの装置で実現されてもよいし、機能を分散させた複数の装置で実現されてもよい。
【0147】
プログラムは、電子機器に記憶された状態で譲渡されてよいし、電子機器に記憶されていない状態で譲渡されてもよい。後者の場合は、プログラムは、ネットワークを介して譲渡されてよいし、記録媒体に記録された状態で譲渡されてもよい。記録媒体は、非一時的な有形の媒体である。記録媒体は、コンピュータ可読媒体である。記録媒体は、CD-ROM、メモリカード等のプログラムを記憶可能かつコンピュータで読取可能な媒体であればよく、その形態は問わない。
【0148】
以上、本発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
【0149】
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
【符号の説明】
【0150】
1 サーバ
2 サーバ
3 サーバ
10 時刻配信サーバ
11 制御部
12 プログラム記憶部
13 データ記憶部
14 通信インタフェース
15 入出力インタフェース
21 制御部
22 プログラム記憶部
23 データ記憶部
24 通信インタフェース
25 入出力インタフェース
31 制御部
32 プログラム記憶部
33 データ記憶部
34 通信インタフェース
35 入出力インタフェース
101 イベント映像撮影装置
102 折り返し映像提示装置
103 イベント音声収録装置
104 折り返し音声提示装置
111 時刻管理部
112 イベント映像送信部
113 折り返し映像受信部
114 映像加工通知部
115 イベント音声送信部
116 折り返し音声受信部
117 音声加工通知部
201 映像提示装置
202 オフセット映像撮影装置
203 折り返し映像撮影装置
204 音声提示装置
205 折り返し音声収録装置
206 映像撮影装置
207 音声収録装置
2101 時刻管理部
2102 イベント映像受信部
2103 映像オフセット算出部
2104 映像加工受信部
2105 折り返し映像加工部
2106 折り返し映像送信部
2107 イベント音声受信部
2108 音声加工受信部
2109 折り返し音声加工部
2110 折り返し音声送信部
2111 映像加工受信部
2112 映像加工部
2113 映像送信部
2114 音声加工受信部
2115 音声加工部
2116 音声送信部
231 映像時刻管理DB
232 音声時刻管理DB
301 映像提示装置
302 オフセット映像撮影装置
303 音声提示装置
304 オフセット音声収録装置
311 時刻管理部
312 イベント映像受信部
313 映像オフセット算出部
314 映像受信部
315 映像加工通知部
316 イベント音声受信部
317 音声オフセット算出部
318 音声受信部
319 音声加工通知部
331 映像時刻管理DB
332 音声時刻管理DB
O 拠点
R1~Rn 拠点
S メディア加工システム
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27
図28
図29
図30
図31
図32
図33
図34