(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023098025
(43)【公開日】2023-07-10
(54)【発明の名称】映像処理装置、映像処理システム及び映像処理方法
(51)【国際特許分類】
G10K 15/02 20060101AFI20230703BHJP
H04R 3/00 20060101ALI20230703BHJP
H04N 5/765 20060101ALI20230703BHJP
H04N 5/92 20060101ALI20230703BHJP
H04N 21/44 20110101ALI20230703BHJP
H04N 21/442 20110101ALI20230703BHJP
H04N 21/436 20110101ALI20230703BHJP
【FI】
G10K15/02
H04R3/00 320
H04N5/765
H04N5/92 020
H04N21/44
H04N21/442
H04N21/436
【審査請求】未請求
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2021214498
(22)【出願日】2021-12-28
(71)【出願人】
【識別番号】000116068
【氏名又は名称】ローランド株式会社
(74)【代理人】
【識別番号】110000534
【氏名又は名称】弁理士法人真明センチュリー
(72)【発明者】
【氏名】松本 健一
【テーマコード(参考)】
5C053
5C164
5D208
5D220
【Fターム(参考)】
5C053FA14
5C053GB06
5C053JA23
5C053LA14
5C164GA05
5C164MA07S
5C164UA04S
5C164UB05P
5C164UB41P
5C164UB71P
5C164YA21
5D208BB07
5D208BB09
5D220BA30
(57)【要約】
【課題】映像と音声とのずれを抑制できる映像処理装置、映像処理システム及び映像処理方法を提供すること。
【解決手段】映像処理システムSにおいてタブレット端末30は、携帯端末70から映像およびその映像の映像送信時刻を受信し、受信した映像の処理が完了した映像処理完了時刻を取得し、映像処理完了時刻と映像送信時刻との時間差である遅延時間を算出し、音声処理装置1に送信する。音声処理装置1で取得した音声を遅延時間だけ遅延させた遅延音声を作成し、タブレット端末30に送信する。タブレット端末30において処理された映像と遅延音声とを出力する。これにより、携帯端末70でから受信した1の対象物の映像と、音声処理装置1で取得された1の対象物が発する音声とを出力する場合でも、これら映像と音声とのずれを抑制できる。
【選択図】
図1
【特許請求の範囲】
【請求項1】
接続された音声入力装置から音声を取得する音声取得手段と、
映像出力装置から映像を受信する映像受信手段と、
前記映像出力装置から、前記映像受信手段で受信された映像が前記映像出力装置から送信された時刻である映像送信時刻を受信する映像送信時刻受信手段と、
前記映像受信手段で受信された映像を処理する映像処理手段と、
その映像処理手段による処理が完了した時刻である映像処理完了時刻を取得する映像処理完了時刻取得手段と、
その映像処理完了時刻取得手段で取得された映像処理完了時刻と、前記映像送信時刻受信手段で受信した映像送信時刻との時間差である遅延時間を算出する遅延時間算出手段と、
前記音声取得手段で取得された音声を、前記遅延時間算出手段で算出された遅延時間だけ遅延させた遅延音声を作成する遅延音声作成手段と、
前記映像処理手段で処理された映像と前記遅延音声作成手段で作成された遅延音声とを出力する出力手段とを備えていることを特徴とする映像処理装置。
【請求項2】
前記映像出力装置から音声を受信する音声受信手段と、
その音声受信手段で受信した音声を処理する音声処理手段とを備え、
前記出力手段は、前記映像処理手段で処理された映像と、前記音声処理手段で処理された音声と、前記遅延音声作成手段で作成された遅延音声とを出力するものであることを特徴とする請求項1記載の映像処理装置。
【請求項3】
前記映像出力装置から音声を受信する音声受信手段と、
その音声受信手段で受信した音声を処理する音声処理手段と、
前記映像出力装置から、前記音声受信手段で受信された音声が前記映像出力装置から送信された時刻である音声送信時刻を受信する音声送信時刻受信手段を備え、
前記遅延時間算出手段は、前記映像処理完了時刻取得手段で取得された映像処理完了時刻と、前記音声送信時刻受信手段で受信した音声送信時刻との時間差を遅延時間として算出するものであることを特徴とする請求項1又は2に記載の映像処理装置。
【請求項4】
前記映像出力装置から音声を受信する音声受信手段と、
その音声受信手段で受信した音声を処理する音声処理手段と、
前記映像出力装置から、前記音声受信手段で受信された音声が前記映像出力装置から送信された時刻である音声送信時刻を受信する音声送信時刻受信手段と、
前記音声処理手段による処理が完了した時刻である音声処理完了時刻を取得する音声処理完了時刻取得手段とを備え、
前記遅延時間算出手段は、前記音声処理完了時刻取得手段で取得された音声処理完了時刻と、前記音声送信時刻受信手段で受信した音声送信時刻との時間差を遅延時間として算出するものであることを特徴とする請求項1又は2に記載の映像処理装置。
【請求項5】
前記映像出力装置から音声を受信する音声受信手段と、
その音声受信手段で受信した音声を処理する音声処理手段と、
前記音声処理手段による処理が完了した時刻である音声処理完了時刻を取得する音声処理完了時刻取得手段とを備え、
前記遅延時間算出手段は、前記音声処理完了時刻取得手段で取得された音声処理完了時刻と、前記映像送信時刻受信手段で受信した映像送信時刻との時間差を遅延時間として算出するものであることを特徴とする請求項1又は2に記載の映像処理装置。
【請求項6】
前記映像受信手段によって、前記映像出力装置から映像を受信した時刻である映像受信完了時刻を取得する映像受信完了時刻取得手段を備え、
前記遅延時間算出手段は、前記映像受信完了時刻取得手段で取得された映像受信完了時刻と、前記映像送信時刻受信手段で受信した映像送信時刻との時間差を遅延時間として算出するものであることを特徴とする請求項1又は2に記載の映像処理装置。
【請求項7】
前記映像出力装置から音声を受信する音声受信手段と、
その音声受信手段によって、前記映像出力装置から音声を受信した時刻である音声受信完了時刻を取得する音声受信完了時刻取得手段とを備え、
前記遅延時間算出手段は、前記音声受信完了時刻取得手段で取得された音声受信完了時刻と、前記映像送信時刻受信手段で受信した映像送信時刻との時間差を遅延時間として算出するものであることを特徴とする請求項1又は2に記載の映像処理装置。
【請求項8】
前記映像受信手段は、複数の前記映像出力装置からそれぞれの映像を受信するものであり、
前記映像送信時刻受信手段は、複数の前記映像出力装置のうちの1の前記映像出力装置から映像送信時刻を受信するものであり、
前記映像処理手段は、前記映像受信手段で受信した複数の前記映像出力装置からの映像をそれぞれ処理するものであり、
前記映像処理完了時刻取得手段は、前記映像送信時刻受信手段で映像送信時刻を受信した1の前記映像出力装置から受信した映像の処理の映像処理完了時刻を取得するものであることを特徴とする請求項1から7のいずれかに記載の映像処理装置。
【請求項9】
複数の前記映像出力装置と当該映像処理装置とは、無線通信によって接続されるものであることを特徴とする請求項1から8のいずれかに記載の映像処理装置。
【請求項10】
複数の前記映像出力装置は、それぞれ同一の前記無線通信のアクセスポイントに接続されるものであることを特徴とする請求項9記載の映像処理装置。
【請求項11】
映像出力装置から映像を受信する映像受信手段と、
前記映像出力装置から映像送信時刻を受信する映像送信時刻受信手段と、
前記映像受信手段で受信された映像を処理する映像処理手段と、
その映像処理手段による処理が完了した時刻である映像処理完了時刻を取得する映像処理完了時刻取得手段と、
その映像処理完了時刻取得手段で取得された映像処理完了時刻と、前記映像送信時刻受信手段で受信した映像送信時刻との時間差である遅延時間を算出する遅延時間算出手段と、
その遅延時間算出手段で算出された遅延時間を音声処理装置に送信する遅延時間送信手段と、
前記音声処理装置から音声を受信する音声受信手段と、
前記映像処理手段で処理された映像と前記音声受信手段で受信した音声とを出力する出力手段とを備えていることを特徴とする映像処理装置。
【請求項12】
映像出力装置と、映像処理装置と、音声処理装置とから構成される映像処理システムであって、
前記映像出力装置は、
映像を撮影する撮影手段と、
その撮影手段で撮影された映像を前記映像処理装置に送信する映像送信手段と、
前記映像送信手段で映像が送信された時刻である映像送信時刻を取得する送信時刻取得手段と、
その送信時刻取得手段で取得された映像送信時刻を前記映像処理装置に送信する映像送信時刻送信手段とを備え、
前記映像処理装置は、
前記映像出力装置から映像を受信する映像受信手段と、
前記映像出力装置から映像送信時刻を受信する映像送信時刻受信手段と、
前記映像受信手段で受信された映像を処理する映像処理手段と、
その映像処理手段による処理が完了した時刻である映像処理完了時刻を取得する映像処理完了時刻取得手段と、
その映像処理完了時刻取得手段で取得された映像処理完了時刻と、前記映像送信時刻受信手段で受信した映像送信時刻との時間差である遅延時間を算出する遅延時間算出手段と、
その遅延時間算出手段で算出された遅延時間を前記音声処理装置に送信する遅延時間送信手段と、
前記音声処理装置から遅延音声を受信する遅延音声受信手段と、
前記映像処理手段で処理された映像と前記遅延音声受信手段で受信した遅延音声とを出力する出力手段とを備え、
前記音声処理装置は、
接続された音声入力装置から音声を取得する音声取得手段と、
前記映像処理装置から遅延時間を受信する遅延時間受信手段と、
前記音声取得手段で取得された音声を、前記遅延時間受信手段で受信した遅延時間だけ遅延させた遅延音声を作成する遅延音声作成手段と、
その遅延音声作成手段で作成された遅延音声を前記映像処理装置に送信する遅延音声送信手段とを備えていることを特徴とする映像処理システム。
【請求項13】
音声を取得する音声取得ステップと、
映像を受信する映像受信ステップと、
前記映像受信ステップで受信された映像が送信された時刻である映像送信時刻を受信する映像送信時刻受信ステップと、
前記映像受信ステップで受信された映像を処理する映像処理ステップと、
その映像処理ステップによる処理が完了した時刻である映像処理完了時刻を取得する映像処理完了時刻取得ステップと、
その映像処理完了時刻取得ステップで取得された映像処理完了時刻と、前記映像送信時刻受信ステップで受信した映像送信時刻との時間差である遅延時間を算出する遅延時間算出ステップと、
前記音声取得ステップで取得された音声を、前記遅延時間算出ステップで算出された遅延時間だけ遅延させた遅延音声を作成する遅延音声作成ステップと、
前記映像処理ステップで処理された映像と前記遅延音声作成ステップで作成された遅延音声とを出力する出力ステップとを備えていることを特徴とする映像処理方法。
【請求項14】
映像を受信する映像受信ステップと、
その映像受信ステップで受信された映像が送信された時刻である映像送信時刻を受信する映像送信時刻受信ステップと、
前記映像受信ステップで受信された映像を処理する映像処理ステップと、
その映像処理ステップによる処理が完了した時刻である映像処理完了時刻を取得する映像処理完了時刻取得ステップと、
その映像処理完了時刻取得ステップで取得された映像処理完了時刻と、前記映像送信時刻受信ステップで受信した映像送信時刻との時間差である遅延時間を算出する遅延時間算出ステップと、
その遅延時間算出ステップで算出された遅延時間を送信する遅延時間送信ステップと、
音声を受信する音声受信ステップと、
前記映像処理ステップで処理された映像と前記音声受信ステップで受信した音声とを出力する出力ステップとを備えていることを特徴とする映像処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、映像処理装置、映像処理システム及び映像処理方法に関するものである。
【背景技術】
【0002】
特許文献1には、受信したMPEG-2トランスポートストリーム(以下「ストリーム」と略す)の映像と音声とを同期して出力する技術が記載されている。具体的に、ストリームには「PTS」と呼ばれる映像と音声とを同期させるための時間情報が含まれており、受信したストリームの映像を処理した時間と、PTSとの時間差が映像を処理した際の遅延とされ、音声に適用される。これにより、ストリームにおける映像と音声との遅延を抑制することができる。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】米国特許第7,460,173号明細書
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1においてストリームによる映像および音声と、そのストリームを作成した装置と別の装置で取得された音声をミキシングして出力する場合、ストリームによる映像および音声と、別の装置で取得された音声との同期が取れず、これらの間にずれが生じてしまうといった問題点があった。
【0005】
本発明は、上記問題点を解決するためになされたものであり、映像と音声とのずれを抑制できる映像処理装置、映像処理システム及び映像処理方法を提供することを目的としている。
【課題を解決するための手段】
【0006】
この目的を達成するために本発明の映像処理装置は、接続された音声入力装置から音声を取得する音声取得手段と、映像出力装置から映像を受信する映像受信手段と、前記映像出力装置から、前記映像受信手段で受信された映像が前記映像出力装置から送信された時刻である映像送信時刻を受信する映像送信時刻受信手段と、前記映像受信手段で受信された映像を処理する映像処理手段と、その映像処理手段による処理が完了した時刻である映像処理完了時刻を取得する映像処理完了時刻取得手段と、その映像処理完了時刻取得手段で取得された映像処理完了時刻と、前記映像送信時刻受信手段で受信した映像送信時刻との時間差である遅延時間を算出する遅延時間算出手段と、前記音声取得手段で取得された音声を、前記遅延時間算出手段で算出された遅延時間だけ遅延させた遅延音声を作成する遅延音声作成手段と、前記映像処理手段で処理された映像と前記遅延音声作成手段で作成された遅延音声とを出力する出力手段とを備えている。
【0007】
本発明の別の映像処理装置は、映像出力装置から映像を受信する映像受信手段と、前記映像出力装置から映像送信時刻を受信する映像送信時刻受信手段と、前記映像受信手段で受信された映像を処理する映像処理手段と、その映像処理手段による処理が完了した時刻である映像処理完了時刻を取得する映像処理完了時刻取得手段と、その映像処理完了時刻取得手段で取得された映像処理完了時刻と、前記映像送信時刻受信手段で受信した映像送信時刻との時間差である遅延時間を算出する遅延時間算出手段と、その遅延時間算出手段で算出された遅延時間を音声処理装置に送信する遅延時間送信手段と、前記音声処理装置から音声を受信する音声受信手段と、前記映像処理手段で処理された映像と前記音声受信手段で受信した音声とを出力する出力手段とを備えている。
【0008】
本発明の映像処理システムは、映像出力装置と、映像処理装置と、音声処理装置とから構成されるシステムであり、前記映像出力装置は、映像を撮影する撮影手段と、その撮影手段で撮影された映像を前記映像処理装置に送信する映像送信手段と、前記映像送信手段で映像が送信された時刻である映像送信時刻を取得する送信時刻取得手段と、その送信時刻取得手段で取得された映像送信時刻を前記映像処理装置に送信する映像送信時刻送信手段とを備え、前記映像処理装置は、前記映像出力装置から映像を受信する映像受信手段と、前記映像出力装置から映像送信時刻を受信する映像送信時刻受信手段と、前記映像受信手段で受信された映像を処理する映像処理手段と、その映像処理手段による処理が完了した時刻である映像処理完了時刻を取得する映像処理完了時刻取得手段と、その映像処理完了時刻取得手段で取得された映像処理完了時刻と、前記映像送信時刻受信手段で受信した映像送信時刻との時間差である遅延時間を算出する遅延時間算出手段と、その遅延時間算出手段で算出された遅延時間を前記音声処理装置に送信する遅延時間送信手段と、前記音声処理装置から遅延音声を受信する遅延音声受信手段と、前記映像処理手段で処理された映像と前記遅延音声受信手段で受信した遅延音声とを出力する出力手段とを備え、前記音声処理装置は、接続された音声入力装置から音声を取得する音声取得手段と、前記映像処理装置から遅延時間を受信する遅延時間受信手段と、前記音声取得手段で取得された音声を、前記遅延時間受信手段で受信した遅延時間だけ遅延させた遅延音声を作成する遅延音声作成手段と、その遅延音声作成手段で作成された遅延音声を前記映像処理装置に送信する遅延音声送信手段とを備えている。
【0009】
本発明の映像処理方法は、音声を取得する音声取得ステップと、映像を受信する映像受信ステップと、前記映像受信ステップで受信された映像が送信された時刻である映像送信時刻を受信する映像送信時刻受信ステップと、前記映像受信ステップで受信された映像を処理する映像処理ステップと、その映像処理ステップによる処理が完了した時刻である映像処理完了時刻を取得する映像処理完了時刻取得ステップと、その映像処理完了時刻取得ステップで取得された映像処理完了時刻と、前記映像送信時刻受信ステップで受信した映像送信時刻との時間差である遅延時間を算出する遅延時間算出ステップと、前記音声取得ステップで取得された音声を、前記遅延時間算出ステップで算出された遅延時間だけ遅延させた遅延音声を作成する遅延音声作成ステップと、前記映像処理ステップで処理された映像と前記遅延音声作成ステップで作成された遅延音声とを出力する出力ステップとを備えている。
【0010】
また、本発明の別の映像処理方法は、映像を受信する映像受信ステップと、その映像受信ステップで受信された映像が送信された時刻である映像送信時刻を受信する映像送信時刻受信ステップと、前記映像受信ステップで受信された映像を処理する映像処理ステップと、その映像処理ステップによる処理が完了した時刻である映像処理完了時刻を取得する映像処理完了時刻取得ステップと、その映像処理完了時刻取得ステップで取得された映像処理完了時刻と、前記映像送信時刻受信ステップで受信した映像送信時刻との時間差である遅延時間を算出する遅延時間算出ステップと、その遅延時間算出ステップで算出された遅延時間を送信する遅延時間送信ステップと、音声を受信する音声受信ステップと、前記映像処理ステップで処理された映像と前記音声受信ステップで受信した音声とを出力する出力ステップとを備えている
【図面の簡単な説明】
【0011】
【
図2】(a)は、フルオートモードにおける遅延時間の設定を説明する図であり、(b)は、フルオートモードにおけるマイク、携帯端末およびタブレット端末のタイミングを表す図である。
【
図3】セミオートモードにおける遅延時間の設定を説明する図である。
【
図5】映像処理システムにおける音声処理装置およびタブレット端末の電気的構成を示すブロック図である。
【
図6】映像処理システムにおける携帯端末の電気的構成を示すブロック図である。
【
図8】タブレットメイン処理のフローチャートである。
【発明を実施するための形態】
【0012】
以下、好ましい実施例について、添付図面を参照して説明する。
図1を参照して本実施形態の映像処理システムSの概要を説明する。
図1は、映像処理システムSの概要を表す図である。
図1に示す通り、映像処理システムSは、音声処理装置1と、タブレット端末30と、複数の携帯端末70とで構成される。
【0013】
音声処理装置1は、タブレット端末30に有線接続され、取得した音声を遅延させてタブレット端末30に送信する装置である。音声処理装置1には、音声を取得するマイク100が接続される。マイク100から取得された音声を、タブレット端末30から受信した後述の遅延時間分遅延させた音声である遅延音声を作成し、作成された遅延音声をタブレット端末30に送信する。
【0014】
音声処理装置1には、設定キー15が設けられる。設定キー15は、具体的に、つまみ状の操作子であるツマミ15aと、ボタン状の操作子であるボタン15bと、スライダー状の操作子であるスライダー15cとで構成される。設定キー15によって、入力された音声の音量等の調整や、遅延音声に用いる遅延時間の設定をすることができる。
【0015】
また、設定キー15で設定値に応じた制御信号をタブレット端末30に送信し、その制御信号によりタブレット端末30を操作することもできる。これにより、ハードキーで構成される設定キー15により、タブレット端末30をより直感的に操作できる。
【0016】
タブレット端末30は、音声処理装置1から受信した遅延音声と、携帯端末70から受信した映像および音声とを合成して出力する映像処理装置(コンピュータ)である。タブレット端末30には合成した映像および音声を出力する外部モニタ200が接続される。
【0017】
タブレット端末30は、複数の携帯端末70のそれぞれから受信した映像および音声を適宜合成して組み合わせた映像および音声を作成したり、複数の携帯端末70から受信した映像および音声のうち、出力する映像および音声を選択することができる。この際、映像および音声の合成や選択に、上記した音声処理装置1の設定キー15による制御信号を用いても良い。また、タブレット端末30のカメラやマイクで取得された画像、映像または音声や、タブレット端末30に記憶された画像、映像または音声を、複数の携帯端末70の受信した映像と合成する等しても良い。
【0018】
このように、携帯端末70から取得され合成および/または選択された映像および音声に、音声処理装置1から受信した遅延音声がミキシングされて外部モニタ200に出力されることで、外部モニタ200に表示される。
【0019】
なお、タブレット端末30で合成等された映像および音声は、外部モニタ200に出力されるものに限られず、例えば、インターネット等を介して外部に配信しても良いし、記録媒体に記憶させても良い。また、出力される映像および音声において、携帯端末70から受信した音声が含まれなくても良い。更に出力される映像および音声において、同様に携帯端末70から受信した映像または音声が含まれなくても良い。
【0020】
携帯端末70は、タブレット端末30に無線接続され、映像および音声を取得する映像出力装置(情報処理装置、コンピュータ)である。携帯端末70には、映像を取得する携帯カメラ76(
図6参照)と、音声を取得する携帯マイク77(
図6参照)とが設けられる。携帯カメラ76で取得された映像と携帯マイク77で取得された音声が、それぞれタブレット端末30に送信される。なお、映像処理システムSに含まれる携帯端末70の台数は、複数台に限られず1台でも良い。また、携帯カメラ76からタブレット端末30に送信される映像および音声は、携帯カメラ76及び携帯マイク77から取得されるものに限られず、例えば、携帯端末70に記憶されている映像および音声でも良いし、携帯端末70でプレイしているゲームの映像および音声でも良い。
【0021】
携帯端末70とタブレット端末30とは、無線通信(例えばWi-Fi(登録商標))で接続される。また、複数の携帯端末70は、1の無線通信のアクセスポイント50(以下「AP50」と略す)に接続される。複数の携帯端末70が1のAP50に接続されることで、複数の携帯端末70が同時に映像および音声を取得し、タブレット端末30に送信する場合でも、取得された映像および音声の間の通信によるずれ(遅延)を抑制することができる。なお、複数の携帯端末70を1のAP50に接続されるものに限られず、異なる複数のAP50に接続しても良い。
【0022】
このように、タブレット端末30においては、携帯端末70で受信した映像および音声と、音声処理装置1から受信した音声とを合成して出力される。一般的に、映像の取得や映像に対する合成等の処理は、音声の取得や音声に対する合成等の処理よりも時間を要する。従って、タブレット端末30において、携帯端末70からの映像と、音声処理装置1から受信した音声とを合成すると、携帯端末70からの映像の方が音声処理装置1から受信した音声よりも遅延してしまう。
【0023】
例えば、ギターを演奏している人物の映像を携帯端末70で取得し、その人物が演奏している演奏音を音声処理装置1で取得する場合、音声処理装置1で取得されたギター音が、ギターを演奏している人物の映像よりも先に出力される、いわゆる「音ずれ」が発生してしまう。そこで本実施形態では、音声処理装置1において、マイク100で取得された音声を、タブレット端末30から設定された遅延時間に応じて遅延させる。これにより、携帯端末70で受信した映像および音声と、音声処理装置1から受信した音声とのずれを抑制することができる。
【0024】
更に遅延時間の設定方式としては、携帯端末70から映像が送信された時刻や映像が処理された時刻により、都度、遅延時間を設定する方式であるフルオートモードと、特定の音(具体的にはハンドクラップ音)を発生させその音が音声処理装置1及び携帯端末70で観測されるタイミングに基づいて遅延時間を設定するセミオートモードとが設けられる。
図2,3を参照して、フルオートモードとセミオートモードとにおける遅延時間を説明する。
【0025】
まず、フルオートモードを説明する。
図2(a)は、フルオートモードにおける遅延時間の設定を説明する図であり、
図2(b)は、フルオートモードにおけるマイク100、携帯端末70及びタブレット端末30のタイミングを表す図である。フルオートモードにおける遅延時間は、携帯端末70で映像が取得された時刻と、その映像に関するタブレット端末30の任意の処理が完了した時刻(例えば、映像の受信を完了した時刻や映像の合成を完了した時刻等)とに基づいて遅延時間が設定される。
【0026】
タブレット端末30に携帯端末70が接続された際、タブレット端末30は、複数の携帯端末70のそれぞれが内蔵するタイマ等の計時手段の時刻をリセット(例えば0時00分)させる時刻リセット指示を送信する。時刻リセット指示を送信したタブレット端末30と、時刻リセット指示を受信した携帯端末70とは、各自の計時手段の時刻をリセットする。
【0027】
音声処理装置1と携帯端末70の携帯マイク77とが、音声を実際に取得するタイミングをTa0とし、携帯端末70の携帯カメラ76が実際に映像を取得するタイミングをTv0とする。これらTa0とTv1は、同じタイミングである。
【0028】
携帯端末70の携帯マイク77がTa0において音声を取得して、携帯端末70において必要な処理を行い、そしてタブレット端末30に送信する時刻がTa1である。このタイミングTa1を「音声送信時刻」という。同様に、携帯端末70の携帯カメラ76がTa0において映像を取得し、携帯端末70において必要な処理を行い、そしてタブレット端末30に送信する時刻がTv1である。このタイミングTv1を「映像送信時刻」という。
【0029】
これらタイミングTa1,Tv1は、携帯端末70による処理が加えられた後のため、タイミングTa0,Tv0よりもそれぞれ遅い時刻となる。更に映像の処理は、音声の処理よりも携帯端末70の処理負荷が高いため、映像送信時刻Tv1は音声送信時刻Ta1よりも遅い時刻となる。このような音声送信時刻Ta1は、対応する音声と共にタブレット端末30に送信され、映像送信時刻Tv1も、対応する映像と共にタブレット端末30に送信される。
【0030】
タブレット端末30は、携帯端末70から受信した音声と映像との合成等の処理を行う。かかる処理において音声の処理が完了した時刻がTa2であり、このタイミングTa2を「音声処理完了時刻」という。また、かかるにおいて上記した映像の任意の処理が完了した時刻がTv2であり、このタイミングTv2を「映像処理完了時刻」という。携帯端末70と同様に、映像の処理は、音声の処理よりも処理負荷が高いため、映像処理完了時刻Tv2は映像送信時刻Ta2よりも遅い時刻となる。
【0031】
タブレット端末30は、映像処理完了時刻Tv2と映像送信時刻Tv1との差を遅延時間として算出し、音声処理装置1に送信する。音声処理装置1では、マイク100から取得した音声を、受信した遅延時間だけ遅延させた遅延音声を作成し、タブレット端末30に送信する。
【0032】
ここで、実際に携帯端末70が映像および音声を取得したタイミングTa0,Tv0は、映像および音声が情報として成立しておらず、携帯端末70では正確に計時することができない。一方で、映像送信時刻Tv1は、映像として成立し、その後の処理が加えられた後なので、そのタイミングを正確に計時できる。
【0033】
このように、フルオートモードにおいては、映像に関して計時が可能な最速のタイミングである映像送信時刻Tv1と、タブレット端末30において合成等の処理が完了し、外部モニタ200に出力する直前の、映像に関して最も遅いタイミングである映像処理完了時刻Tv2との差に基づいて遅延時間が算出される。これにより、音声処理装置1において取得された音声のタイミングを、より携帯端末70で映像が取得されたタイミングまで遅延させることができるので、音声処理装置1において取得された音声と携帯端末70で取得された映像とのずれをより抑制できる。
【0034】
また、このように音声送信時刻Ta1及び映像送信時刻Tv1を送信する携帯端末70は、複数の携帯端末70のうち、予め選定された1の携帯端末70のみとされる。本実施形態において、複数の携帯端末70のうち1の携帯端末70を選定する方式としては、複数の携帯端末70の接続時にそれぞれに固有に割り振られる整数の識別子のうち、最も値が低い識別子の携帯端末70が選定される。
【0035】
これにより、タブレット端末30を操作するユーザHが、複数の携帯端末70のうち遅延時間を算出する対象とされる1の携帯端末70を都度選択する必要がない。また、タブレット端末30において複数の携帯端末70のそれぞれに対して遅延時間を算出する必要もないので、タブレット端末30の処理負荷を低減させることができる。
【0036】
次に、
図3を参照してセミオートモードを説明する。
図3は、セミオートモードにおける遅延時間の設定を説明する図である。セミオートモードにおいては、特定の音を音声処理装置1のマイク100と携帯端末70の携帯マイク77とで観測したタイミングに基づいて遅延時間が設定される。
【0037】
具体的には、特定の音、例えば、
図3に示すようなユーザHが拍手をする音(以下「ハンドクラップ音」という)を、携帯端末70の携帯マイク77と音声処理装置1のマイク100とで同時に観測させ、その際に携帯端末70の携帯マイク77で観測された音声の波形データである音声Wa1と、音声処理装置1のマイク100で観測された音声の波形データである音声Wa2とをタブレット端末30に送信させる。なお、音声Wa1を送信する携帯端末70は、上記のフルオートモードと同様に複数の携帯端末70のうち、最も値が低い識別子の携帯端末70とされる。
【0038】
タブレット端末30において、音声Wa1でピークとなる時刻、即ちハンドクラップ音が観測された時刻をピーク時刻Ta3とし、同様に音声Wa2でピークとなる時刻をピーク時刻Ta4とする。そして、ピーク時刻Ta3とピーク時刻Ta4との時間差を遅延時間として音声処理装置1に送信される。
【0039】
セミオートモードにおいては、携帯端末70と音声処理装置1とで同時に観測される1の特定の音のピークに基づいて遅延時間が設定される。これにより、音声処理装置1で取得される音と携帯端末70で取得される音とのずれを、より好適に抑制することができる。また、携帯端末70と音声処理装置1とで観測されるピークに基づくことで、これらのずれを容易に取得し、遅延時間を算出することができる。
【0040】
次に、映像処理システムSの機能を説明する。次に、
図4を参照して映像処理システムSの機能を説明する。
図4は、映像処理システムSの機能ブロック図である。
図4に示すように、携帯端末70は、撮影手段400と、映像送信手段401と、送信時刻取得手段402と、映像送信時刻送信手段403とを有する。
【0041】
撮影手段400は、映像を撮影する手段であり、携帯カメラ76で実現される。映像送信手段401は、撮影手段400で撮影された映像をタブレット端末30に送信する手段であり、
図6で後述のCPU71及び無線通信装置78で実現される。送信時刻取得手段402は、映像送信手段401で映像が送信された時刻である映像送信時刻を取得する手段であり、CPU71で実現される。映像送信時刻送信手段403は、送信時刻取得手段402で取得された映像送信時刻をタブレット端末30に送信する手段であり、CPU71及び無線通信装置78で実現される。
【0042】
タブレット端末30は、映像受信手段500と、映像送信時刻受信手段501と、映像処理手段502と、映像処理完了時刻取得手段503と、遅延時間算出手段504と、遅延時間送信手段505と、遅延音声受信手段506と、出力手段507を有する。
【0043】
映像受信手段500は、携帯端末70から映像を受信する手段であり、
図5で後述のCPU31及び無線通信装置37で実現される。映像送信時刻受信手段501は、携帯端末70から映像送信時刻を受信する手段であり、CPU31及び無線通信装置37で実現される。映像処理手段502は、映像受信手段500で受信した映像を処理する手段であり、CPU31で実現される。映像処理完了時刻取得手段503は、映像処理手段502による処理が完了した時刻である映像処理完了時刻を取得する手段であり、CPU31で実現される。遅延時間算出手段504は、映像処理完了時刻取得手段503で取得された時刻と、映像送信時刻受信手段501で受信した映像送信時刻との時間差である遅延時間を算出する手段であり、CPU31で実現される。
【0044】
遅延時間送信手段505は、遅延時間算出手段504で算出された遅延時間を音声処理装置1に送信する手段であり、CPU31及び
図5で後述の入出力端子36で実現される。遅延音声受信手段506は、音声処理装置1から遅延音声を受信するであり、CPU31及び入出力端子36で実現される。出力手段507は、映像処理手段502で処理された映像と遅延音声受信手段506で受信した遅延音声とを出力する手段であり、CPU31で実現される。
【0045】
音声処理装置1は、音声取得手段600と、遅延時間受信手段601と、遅延音声作成手段602と、遅延音声送信手段603とを有する。音声取得手段600は、接続されたマイク100から音声を取得する手段であり、
図5で後述のCPU10で実現される。遅延時間受信手段601は、タブレット端末30から遅延時間を受信する手段であり、CPU10及び
図5で後述の入出力端子16で実現される。遅延音声作成手段602は、音声取得手段600で取得された音声を、遅延時間受信手段601で受信した遅延時間だけ遅延させた遅延音声を作成する手段であり、CPU10で実現される。遅延音声送信手段603は、遅延音声作成手段602で作成された遅延音声をタブレット端末30に送信する手段であり、CPU10及び入出力端子16で実現される。
【0046】
映像処理システムSにおいてタブレット端末30は、携帯端末70から映像およびその映像の映像送信時刻を受信し、受信した映像の処理が完了した映像処理完了時刻を取得する。そして、映像処理完了時刻と映像送信時刻との時間差である遅延時間を算出し、音声処理装置1に送信する。音声処理装置1で取得した音声を遅延時間だけ遅延させた遅延音声を作成し、タブレット端末30に送信する。タブレット端末30において処理された映像と遅延音声とを合成して出力する。これにより、携帯端末70でから受信した1の対象物の映像と、音声処理装置1で取得された1の対象物が発する音声とを合成する場合でも、これら映像と音声とのずれを抑制でき、これら映像と音声とを視聴した視聴者の違和感を抑制できる。
【0047】
次に
図5,6を参照して、映像処理システムSの電気的構成を説明する。
図5は、映像処理システムSにおける音声処理装置1及びタブレット端末30の電気的構成を示すブロック図である。音声処理装置1は、CPU10と、フラッシュROM11と、RAM12とを有し、これらはバスライン13を介して入出力ポート14にそれぞれ接続されている。入出力ポート14には更に、上記した設定キー15及びマイク100と、入出力端子16とが接続される。
【0048】
CPU10は、バスライン13により接続された各部を制御する演算装置である。フラッシュROM11は、CPU10により実行されるプログラムや固定値データ等を格納した書き換え可能な不揮発性の記憶装置であり、制御プログラム11aが含まれる。CPU10によって制御プログラム11aが実行されると、
図10で後述の音声メイン処理が実行される。
【0049】
RAM12は、CPU10がプログラムの実行時に各種のワークデータやフラグ等を書き換え可能に記憶するための揮発性のメモリであり、遅延時間が記憶される遅延時間メモリ12aが含まれる。
【0050】
入出力端子16は、タブレット端末30と接続するための端子である。本実施形態において、入出力端子16はUSB(登録商標)規格に基づいて構成されるが、USB以外の他の通信規格に基づいても良い。
【0051】
タブレット端末30は、CPU31と、フラッシュROM32と、RAM33とを有し、これらはバスライン34を介して入出力ポート35にそれぞれ接続されている。入出力ポート35には更に、入出力端子36と、無線通信装置37と、携帯端末70から取得された映像等が表示されるLCD38と、ユーザHからの指示が入力されるタッチパネル39と、ビデオ出力装置40とが接続される。
【0052】
CPU31は、バスライン34により接続された各部を制御する演算装置である。フラッシュROM32は、CPU31により実行されるプログラムや固定値データ等を格納した書き換え可能な不揮発性の記憶装置であり、制御プログラム32aが含まれる。CPU31によって制御プログラム32aが実行されると、
図8のタブレットメイン処理が実行される。
【0053】
RAM33は、CPU31がプログラムの実行時に各種のワークデータやフラグ等を書き換え可能に記憶するための揮発性のメモリであり、遅延時間が記憶される遅延時間メモリ33aが含まれる。
【0054】
入出力端子36は、音声処理装置1と接続するための端子である。本実施形態において、入出力端子36はUSB規格に基づいて構成されるが、上記した入出力端子16と通信可能な通信規格であれば、他の通信規格に基づいても良い。無線通信装置37は、無線通信をするための装置である。無線通信装置37は、AP50と無線接続され、そのAP50を介して携帯端末70に無線接続される。
【0055】
ビデオ出力装置40は、タブレット端末30で作成された映像および音声を出力する装置である。ビデオ出力装置40は、外部モニタ200と接続され、タブレット端末30で作成された映像および音声が、ビデオ出力装置40を介して外部モニタ200に出力される。
【0056】
図6は、映像処理システムSにおける携帯端末70の電気的構成を示すブロック図である。携帯端末70は、CPU71と、フラッシュROM72と、RAM73とを有し、これらはバスライン74を介して入出力ポート75にそれぞれ接続されている。入出力ポート75には更に、上記した携帯カメラ76及び携帯マイク77と、無線通信装置78と、携帯カメラ76で撮影している映像等が表示されるLCD79と、ユーザHからの指示が入力されるタッチパネル80とが接続される。
【0057】
CPU71は、バスライン74により接続された各部を制御する演算装置である。フラッシュROM72は、CPU71により実行されるプログラムや固定値データ等を格納した書き換え可能な不揮発性の記憶装置であり、制御プログラム72aが含まれる。CPU71によって制御プログラム72aが実行されると
図7の携帯メイン処理が実行される。
【0058】
RAM73は、CPU71がプログラムの実行時に各種のワークデータやフラグ等を書き換え可能に記憶するための揮発性のメモリである。無線通信装置78は、無線通信をするための装置である。無線通信装置78は、AP50と無線接続され、そのAP50を介してタブレット端末30に無線接続される。
【0059】
次に、
図7~10を参照して、音声処理装置1のCPU10、タブレット端末30のCPU31及び音声処理装置1のCPU10で実行される処理を説明する。まず
図7を参照して携帯端末70の処理を説明する。
図7は、携帯メイン処理のフローチャートである。携帯メイン処理は、携帯端末70の制御プログラム72aに含まれる映像処理システムS用のアプリケーションプログラムが起動された場合に、実行される処理である。
【0060】
携帯メイン処理はまず、タブレット端末30と接続済みかを確認する(S1)。S1の処理において、タブレット端末30と未接続の場合は(S1:No)、タブレット端末30との接続処理を実行する(S2)。一方でS1の処理において、タブレット端末30と接続済みの場合は(S1:Yes)、S2の処理をスキップする。
【0061】
S1,S2の処理の後、タブレット端末30から上記した時刻リセット指示を受信したかを確認する(S3)。S3の処理において、時刻リセット指示を受信した場合は(S3:Yes)、携帯端末70自身が内蔵している計時手段の時刻をリセットする(S4)。一方で、S3の処理において、時刻リセット指示を受信していない場合は(S3:No)、S4の処理をスキップする。
【0062】
S3,S4の処理の後、携帯カメラ76から映像を取得する(S5)。本実施形態において、S5の処理において携帯カメラ76から1フレーム分の映像が取得されるが、所定の長さ(例えば1秒間)の映像をまとめて取得しても良い。S5の処理の後、前回のS7の処理によって映像を送信した時刻に、前回のS7の処理からの経過時間を加算した時刻、即ち
図2で上記した映像送信時刻を算出する(S6)。なお、S6の処理においては、現在時刻を映像送信時刻として取得しても良い。
【0063】
S6の処理の後、S5の処理で取得された映像と、S6の処理で算出された映像送信時刻とをタブレット端末30に送信する(S7)。
【0064】
S7の処理の後、携帯マイク77から音声を取得する(S8)。本実施形態において、S5の処理において携帯マイクから1フレーム分の音声が取得されるが、所定の長さ(例えば1秒間)の音声をまとめて取得しても良い。S8の処理の後、前回のS10の処理によって音声を送信した時刻に、前回のS10の処理からの経過時間を加算した時刻、即ち
図2で上記した音声送信時刻を算出する(S9)。なお、S9の処理においても、現在時刻を音声送信時刻として取得しても良い。
【0065】
S9の処理の後、S8の処理で取得された音声と、S9の処理で算出された音声送信時刻とをタブレット端末30に送信する(S10)。S10の処理の後、携帯端末70のその他の処理を実行し(S11)、S1以下の処理を繰り返す。
【0066】
次に、
図8,9を参照して、タブレット端末30の処理を説明する。
図8は、タブレットメイン処理のフローチャートである。タブレットメイン処理は、タブレット端末30の制御プログラム32aに含まれる映像処理システムS用のアプリケーションプログラムが起動された場合に、実行される処理である。
【0067】
タブレットメイン処理はまず、新たな携帯端末70が無線接続されたかを確認する(S30)。S30の処理において、新たな携帯端末70が無線接続された場合は(S30:Yes)、その新たな携帯端末70との接続処理を実行する(S31)。S31の処理の後、接続されている全ての携帯端末70に時刻リセット指示を送信し(S32)、タブレット端末30自身が内蔵している計時手段の時刻をリセットする(S33)。一方で、S30の処理において、新たな携帯端末70が無線接続されていない場合は(S30;No)、S31~S33の処理をスキップする。
【0068】
S30,S33の処理の後、携帯端末70から映像および映像送信時刻を受信し(S34)、携帯端末70から音声および音声送信時刻を受信する(S35)。S35の処理の後、遅延時間設定処理(S36)を実行する。ここで、
図9を参照して遅延時間設定処理を説明する。
【0069】
図9は、遅延時間設定処理のフローチャートである。遅延時間設定処理においては、上記したタブレット端末30に接続される複数の携帯端末70のうち、最も値が低い識別子の携帯端末70から送信された映像送信時刻や音声が用いられるものとする。
【0070】
遅延時間設定処理はまず、遅延時間設定に関する動作モードを確認する(S50)。本実施形態において動作モードには、上記した「フルオートモード」と、セミオートモードにおける遅延時間を設定する「セミオート設定モード」と、セミオートモード及び遅延時間による音声の遅延させない「遅延なし」とが設けられる。
【0071】
ユーザHがタブレット端末30のタッチパネル39で「フルオートモード/セミオートモード/遅延なし」のいずれかを選択する。若しくは、ユーザHが音声処理装置1の設定キー15で「フルオートモード/セミオートモード/遅延なし」のいずれかを選択すると、タブレット端末30に制御信号が送られ、タブレット端末30でこれらが選択される。
【0072】
セミオートモードが選択されたときは、動作モードをセミオート設定モードにする。セミオート設定モードの状態で、遅延時間が算出されたらセミオート設定モードは終了し、セミオートモードにする。また、遅延なしが選択されたときは、音声処理装置1に遅延時間として「0」を送信する。この場合、遅延時間メモリ33aの値は変更しない。
【0073】
S50の処理において、動作モードがフルオートモードである場合は(S50:「フルオートモード」)、
図8のS34で受信した映像送信時刻と、現在時刻、即ち受信した映像の処理が完了した映像処理完了時刻との時間差、即ち上記したフルオートモードにおける遅延時間を算出する(S51)。
【0074】
S51の処理の後、S51の処理で算出された遅延時間と遅延時間メモリ33aの遅延時間との差の絶対値が100ms以上かを確認する(S52)。S52の処理において、S51の処理で算出された遅延時間と遅延時間メモリ33aの遅延時間との差の絶対値が100ms以上の場合は(S52:Yes)、S51の処理で算出された遅延時間を遅延時間メモリ33aに保存する(S53)。
【0075】
即ち遅延時間メモリ33aの更新は、遅延時間メモリ33aに記憶されている遅延時間と100ms以上異なる遅延時間が算出された場合に限られる。これにより、遅延時間によって遅延される音声処理装置1の音声が発せられるタイミングが、頻繁に早くなったり遅くなったりするのを抑制できるので、視聴者の音声に対する違和感を低減できる。
【0076】
S50の処理において、動作モードがセミオート設定モードである場合は(S50:「セミオート設定モード」)、音声処理装置1から音声を受信する(S54)。S54の処理において音声処理装置1から受信する音声は、遅延時間による遅延音声ではなく、マイク100から取得され、遅延させることなくそのままタブレット端末30に送信された音声とされる。また、S54の処理を実行する前に、予め音声処理装置1に遅延時間を0に設定する指示を送信しても良い。
【0077】
S54の処理の後、S54の処理で受信した音声の波形データと、
図8のS35の処理で受信した音声の波形データとのピークを取得する(S55)。波形データからのピークの取得は、既知の技術によって行われる。S55の処理の後、S54の処理で受信した音声の波形データと、
図8のS35の処理で受信した音声の波形データとの両者にピークが存在するかを確認する(S56)。
【0078】
S56の処理において、両者にピークが存在する場合は(S56:Yes)、それぞれのピークとなる時刻の時間差、即ち上記したセミオートモードにおける遅延時間を遅延時間メモリ33aに保存し、動作モードをセミオートモードにする(S57)。
【0079】
S53,S57の処理の後、遅延時間メモリ33aの遅延時間を音声処理装置1に送信する(S58)。なお、S58の処理においては、遅延時間メモリ33aの遅延時間をMIDI(Musical Instrument Digital Interface)メッセージに含めたものを送信するが、MIDI以外の規格のメッセージに含めて送信しても良い。
【0080】
S50の処理において、動作モードがセミオートモード又は遅延なしの場合(S50:「セミオートモード/遅延なし」)、S52の処理において、S51の処理で算出された遅延時間と遅延時間メモリ33aの遅延時間との差の絶対値が100msより小さい場合(S52:No)、S56の処理において、両者にピークが存在しない場合(S56:No)、又は、S58の処理の後、遅延時間設定処理を終了する。
【0081】
図8に戻る。S36の遅延時間設定処理の後、音声処理装置1から遅延音声を受信する(S37)。S37の処理の後、S34の処理で受信した映像と、S35の処理で受信した音声と、S38の処理で受信した遅延音声とを合成することで、新たな映像および音声を作成する(S38)。S38の処理の後、S38の処理で合成された映像および音声をビデオ出力装置40を介して外部モニタ200に出力する(S39)。これにより、外部モニタ200においてタブレット端末30で作成された映像および音声が出力される。
【0082】
S39の処理の後、タブレット端末30のその他の処理を実行し(S40)、S30以下の処理を繰り返す。
【0083】
最後に、
図10を参照して、音声処理装置1の処理を説明する。
図10は、音声メイン処理のフローチャートである。音声メイン処理は、音声処理装置1の電源が投入された場合に、実行される処理である。
【0084】
音声メイン処理はまず、タブレット端末30と接続済みかを確認する(S80)。S80の処理において、タブレット端末30と未接続の場合は(S80:No)、タブレット端末30との接続処理を実行する(S81)。一方でS80の処理において、タブレット端末30と接続済みの場合は(S80:Yes)、S81の処理をスキップする。
【0085】
S80,S81の処理の後、タブレット端末30から遅延時間を受信したかを確認する(S82)。S82の処理においてタブレット端末30から遅延時間を受信した場合は(S82:Yes)、受信した遅延時間を遅延時間メモリ12aに保存する(S83)。一方で、S82の処理においてタブレット端末30から遅延時間を受信していない場合は(S82:No)、S83の処理をスキップする。
【0086】
S82,S83の処理の後、マイク100から音声を取得する(S84)。S84の処理の後、タブレット端末30の動作モードがセミオート設定モードかを確認する(S85)。なお、S85の処理においては、音声処理装置1がタブレット端末30の動作モードを都度確認するものに限られず、タブレット端末30の動作モードが変わるたびに音声処理装置1に動作モードを送信し、動作モードを音声処理装置1で記憶するようにしても良い。
【0087】
S85の処理において、タブレット端末30の動作モードがセミオート設定モードではない場合は(S85:No)、S84の処理で取得された音声を、遅延時間メモリ12aの遅延時間分だけ遅延させた遅延音声をタブレット端末30に送信する(S86)。一方で、S85の処理において、タブレット端末30の動作モードがセミオート設定モードの場合は(S85:Yes)、S84の処理で取得された音声を、そのままタブレット端末30に送信する(S87)。かかるS87の処理で送信された音声が、上記した
図9のS54の処理で受信される。
【0088】
S86,S87の処理の後、音声処理装置1のその他の処理を実行し(S88)、S80以下の処理を繰り返す。
【0089】
以上、上記実施形態に基づき説明したが、種々の改良変更が可能であることは容易に推察できるものである。
【0090】
上記実施形態において、フルオートモードでは、携帯端末70から受信した映像送信時刻と、タブレット端末30における映像処理完了時刻との時間差を遅延時間としたが、これに限られない。携帯端末70から受信した音声送信時刻とタブレット端末30における映像処理完了時刻との時間差を遅延時間としても良いし、携帯端末70から受信した音声送信時刻とタブレット端末30における音声処理完了時刻との時間差を遅延時間としても良いし、携帯端末70から受信した映像送信時刻とタブレット端末30における音声処理完了時刻との時間差を遅延時間としても良い。
【0091】
また、上記の遅延時間の算出において、映像処理完了時刻の代わりに、タブレット端末30が映像の受信を完了した時刻である映像受信完了時刻を用いても良いし、タブレット端末30が音声の受信を完了した時刻である音声受信完了時刻を用いても良い。
【0092】
上記実施形態において、フルオートモード又はセミオートモードで設定された遅延時間を用いて、音声処理装置1で取得させた音声を遅延させたがこれに限られない。例えば、設定キー15で設定された遅延時間を用いて音声処理装置1で取得させた音声を遅延させても良い。また、フルオートモード又はセミオートモードで設定された遅延時間に、設定キー15で設定された遅延時間を加算または減算した遅延時間を用いて、音声処理装置1で取得させた音声を遅延させても良い。
【0093】
また、ユーザHによりセミオートモードが選択された場合、動作モードをセミオート設定モードとし、遅延時間が算出された場合に動作モードをセミオートモードとしたが、これに限られない。例えば、セミオートモードで動作している場合も、セミオート設定モードと同様に、特定の音を用いた遅延時間の算出を継続しても良い。
【0094】
更に、フルオートモードにおいても映像処理完了時刻および映像送信時刻による遅延時間の算出と共に、セミオート設定モードと同様の特定の音を用いた遅延時間の算出を行っても良い。この場合、映像処理完了時刻および映像送信時刻による遅延時間と、セミオート設定モードと同様の特定の音を用いた遅延時間との平均値を、実際に用いる遅延時間としても良いし、映像処理完了時刻および映像送信時刻とによる遅延時間とセミオート設定モードと同様の特定の音を用いた遅延時間とのうち、現状の遅延時間(即ち遅延時間メモリ33aに記憶されている遅延時間)に近い方を、実際に用いる遅延時間としても良い。
【0095】
上記実施形態において、遅延時間をタブレット端末30で算出し、音声処理装置1に送信したが、これに限られない。例えば、音声処理装置1で遅延時間を算出しても良い。この場合、フルオートモードにおいては、タブレット端末30から映像送信時刻と映像処理完了時刻とを音声処理装置1に送信すれば良い。また、セミオートモードでは、タブレット端末30が受信した携帯端末70の音声を音声処理装置1に送信すれば良い。
【0096】
上記実施形態において、セミオートモードにおいては、特定の音としてハンドクラップ音を例示したが、これに限られない。ユーザHが発する音声や楽器の音色、ブザー音等、他の特徴的な音を用いても良い。また、特定の音のピークに基づいて遅延時間を算出するものに限られない。例えば、特定の音に固有の周波数を含ませておき、音声処理装置1で取得された音声と携帯端末70で取得された音声とにおいて、その固有の周波数を観測したタイミングに基づいて遅延時間を算出しても良い。
【0097】
また上記実施形態において、音声処理装置1において取得された音声の遅延を処理したが、これに限られない。例えば、音声の遅延の処理をタブレット端末30で行っても良い。この場合、音声処理装置1は、マイク100から取得された音声をタブレット端末30に送信し、タブレット端末30は、音声処理装置1から受信した音声を、算出された遅延時間だけ遅延させて遅延音声を作成すれば良い。
【0098】
上記実施形態において、遅延時間の算出に用いられる映像送信時刻が送信される携帯端末70を、携帯端末70の識別子に基づいて選定したが、これに限られない。例えば、タブレット端末30と最も早く接続された携帯端末70を選定しても良い。また、
図8のS38の処理の合成に用いられる映像を取得している携帯端末70を選定しても良いし、人物や楽器が映っている映像を取得している携帯端末70を選定しても良い。
【0099】
また、複数の携帯端末70から取得される映像送信時刻の平均値を遅延時間の算出に用いられる映像送信時刻としても良い。この際、極端に小さな又は大きな映像送信時刻を平均値を算出する映像送信時刻から除外すると良い。或いは、複数の携帯端末70から取得される映像送信時刻の中央値、最小値や最大値を遅延時間の算出に用いられる映像送信時刻としても良い。
【0100】
上記実施形態において、音声処理装置1とタブレット端末30とを有線接続したが、これに限られない。音声処理装置1とタブレット端末30とを無線接続しても良い。また、タブレット端末30と携帯端末70とを無線接続したが、これに限られない。タブレット端末30と携帯端末70とを有線接続しても良い。
【0101】
上記実施形態において、映像処理システムSを携帯端末70と、タブレット端末30と、音声処理装置1とで構成したが、これに限られない。例えば、タブレット端末30にマイク100を接続させ、音声処理装置1の機能もタブレット端末30で実現することで、映像処理システムSを携帯端末とタブレット端末30とで構成しても良い。この場合、音声処理装置1の機能を併せ持つタブレット端末30が「映像処理装置」とされる。
【0102】
上記実施形態において、映像を取得する映像出力装置として携帯端末70を例示したが、これに限られない。携帯端末70の代わりに、ビデオカメラ等の映像を取得可能な装置を用いても良い。
【0103】
上記実施形態では、映像を処理する映像処理装置として、タブレット端末30を例示したが、これに限られない。例えば、パーソナルコンピュータや携帯端末を映像処理装置としても良い。
【0104】
上記実施形態に挙げた数値は一例であり、他の数値を採用することは当然可能である。
【符号の説明】
【0105】
1 音声処理装置(映像処理装置の一部)
30 タブレット端末(映像処理装置の一部)
50 アクセスポイント
100 マイク(音声入力装置)
S84 音声取得手段
70 携帯端末(映像出力装置)
S34 映像受信手段、映像送信時刻受信手段、映像処理手段
S35 音声受信手段、音声処理手段
S51 映像処理完了時刻取得手段、遅延時間算出手段
S86 遅延音声作成手段
S38,S39 出力手段