(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0015】
<第1の実施の形態>
第1の実施の形態を説明する。
【0016】
図1は第1の実施の形態の全体の構成を示すブロック図である。
図1中、1はカメラ、2は映像処理装置、3は表示装置である。
【0017】
カメラ1は、番組を撮影するカメラである。カメラ1は、原則1台で、被写体(例えば、番組の出演者)全員が写るような広い画角で、番組を撮影する。本実施の形態は、後述するように、カメラ1が撮影した映像(以下、撮影映像と記載する)の一部をトリミングすることにより、仮想的なカメラワークの映像を生成するため、カメラ1は高画質な映像が撮影できる4K又は8Kのカメラが好ましいが、これらに限定されるものではない。
【0018】
映像処理装置2は、カメラ1の撮影映像を入力し、被写体に対してユーザが指定するカメラワーク(以下、仮想カメラワークと記載する)を行った場合に得られる映像(以下、仮想カメラワーク映像と記載する)を出力する。仮想カメラワークは、仮想的なカメラの操作によって得られる映像効果(例えば、映像の構図、画角を変化させる)を実現するものであり、例えば、アップショット、バストショット、ウェストショット、フルショット、パン(左右)、ティルト(上下)、ロール、ズームイン、ズームアウトなどがある。仮想カメラワーク映像は、被写体に対する仮想カメラワークを指定することによりその仮想カメラワークに対応する映像を、入力された撮影映像からトリミング(切り出す)することにより得られる映像である。
【0019】
表示装置3は、撮影映像と、映像処理装置2から出力される仮想カメラワーク映像とが出力されるディスプレイである。しかし、表示装置3は、表示機能のみならず、タブレット端末のように、タッチパネルの機能を持つディスプレイであっても良い。
【0020】
次に、映像処理装置2を説明する。
図2は映像処理装置2のブロック図である。
【0021】
映像処理装置2は、撮影映像入力部20と、特定人物指定受付部21と、仮想カメラワーク指定受付部22と、顔画像辞書部23と、顔認識部24と、骨格判定部25と、人物特定部26と、構図データベース27と、トリミングフレームサイズ決定部28と、トリミング制御部29と、トリミング部30とを備える。
【0022】
撮影映像入力部20は、カメラ1が撮影した撮影映像を入力するものである。
【0023】
特定人物指定受付部21は、仮想カメラワークの被写体となる人物の指定を、ユーザから受け付けるものである。特定人物指定受付部21は、例えば、タッチ操作パッド、マウス、キーボードといった直接ユーザが指で操作する素子はもちろん、ユーザの音声を取得するマイクや、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。
【0024】
仮想カメラワークの被写体の人物は、撮影映像に写っている人物であれば良い。また、仮想カメラワークの被写体となる人物(以下、特定人物と記載する)の指定は、特定人物の氏名を直接に入力して指定する方法、予め用意されている氏名から選択して指定する方法、音声入力によって特定人物を指定する方法、表示されている撮影映像中の人物をタッチパネル等の入力手段により選択して指定する方法等があるが、これらには限られない。
【0025】
仮想カメラワーク指定受付部22は、仮想カメラワークの指定を、ユーザから受け付けるものである。仮想カメラワーク指定受付部22は、例えば、タッチ操作パッド、マウス、キーボードといった直接ユーザが指で操作する素子はもちろん、ユーザの音声を取得するマイクや、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。
【0026】
仮想カメラワークの指定は、カメラワークの種類を直接入力して指定する方法、予め用意されているカメラワークから選択して指定する方法、音声入力によってカメラワークを指定する方法等があるが、これらには限られない。
【0027】
顔画像辞書部23は、カメラ1で撮影される被写体の顔の画像データ、例えば、番組の出演者の顔の画像データが登録された記憶部である。画像データは、被写体の顔の特徴量のデータ等である。
【0028】
顔認識部24は、顔認識辞書23を用いて、撮影映像中の人物を認識するものである。認識方法の種類は問わないが、パターンマッチングによる方法、機械学習して得られたアルゴリズムによる認識などがある。機械学習の方法は、深層学習(ディープラーニング)が代表的なものであるが、これに限られない。顔認識部24は、これらの方法用いて、撮影映像中の人物を認識する。具体的に説明すると、
図3に示すような三人の出演者が映った撮影映像の場合、三人の出演者の顔を認識する。
図3の例では、撮影映像中の人物A、人物B、人物Cが認識されている。
【0029】
骨格判定部25は、撮影映像中に写っている人物の骨格を判定する。骨格判定の手法は、例えば、OpenPose、VisionPose、tf-pose-estimation等があるが、これらに限られない。骨格判定部25は、例えば、
図4に示すような三人の出演者が映った撮影映像の場合、三人の出演者の骨格を判定する。
【0030】
人物特定部26は、特定人物指定受付部21で受け付けた特定人物を、顔認識部24の結果を用いて撮影映像から特定し、その特定人物の骨格判定部25による骨格判定の結果を用いて、特定人物の部位の撮影映像上の位置関係を特定する。
【0031】
人物特定部26による特定人物の部位の撮影映像上の位置関係の特定について説明する。
図5は人物特定部26による特定人物の部位の撮影映像上の位置関係の特定を説明するための図である。
図5は特定人物が人物Bの場合を示しており、人物Bの部位の骨格判定の結果を示している。
図5では、骨格の頂点から足の骨格の最下部までを人物Bの縦方向の全身としている。また、縦方向のうち、骨格の頂点から骨格の首部までを縦方向の人物Bの顔としている。また、縦方向のうち、骨格の首部から骨格の股関節に対応する部分までを人物Bの上半身としている。また、縦方向のうち、骨格の股関節に対応する部分から足の先端部までを人物Bの下半身としている。また、骨格が横方向に占める最大の範囲を人物Bの全身の横幅としている。また、顔の骨格のうち横方向に占める最大の範囲を人物Bの顔の横幅としている。また、縦方向の右手先から右腕の肘関節までの長さを縦右前腕部の長さとしている。横方向の右手先から右腕の肘関節までの長さを横右前腕部の長さとしている。また、縦方向の左手先から左腕の肘関節までの長さを縦左前腕部の長さとしている。横方向の左手先から左腕の肘関節までの長さを横左前腕部の長さとしている。また、骨格の首部を通る垂線を、人物Bの骨格中心線としている。そして、人物特定部26は、特定人物の各部位の位置及び長さを、撮影映像の画素位置に対応させて特定する。以上の人物特定部26による特定人物の部位の判定は一例であり、適時、判定する部位を変更しても良い。
【0032】
尚、顔認識部24、骨格判定部25及び人物特定部26による処理に用いる画像は、かならずしも撮影映像である必要はない。撮影映像よりも解像度の低い映像を用いることも可能である。撮影映像よりも解像度の低い映像を用いることにより、顔認識部24、骨格判定部25及び人物特定部26の処理速度が速くなるという効果を得られる。
【0033】
構図データベース27は、仮想カメラワークの種類毎の構図情報が記憶されたデータベースである。構図情報は、被写体をどのような構図で映すかの情報である。具体的には、構図情報は、被写体フレームの大きさ(例えば、縦又は横の長さ)、使用するトリミングフレームの種類、トリミングフレームの位置(例えば、骨格中心線との位置関係)、トリミングフレームの移動の制御情報等がある。
【0034】
トリミングフレームサイズ決定部28は、指定された仮想カメラワークと、特定人物の骨格と、構図データベース27の構図情報とから、撮影映像から被写体を切り出す(トリミング)ためのトリミングフレームのサイズを決定する。
【0035】
トリミング制御部29は、トリミングフレームサイズ決定部28により決定されたサイズのトリミングフレームの映像上の位置を制御する。
【0036】
トリミング部30は、撮影映像から、トリミング制御部29により制御されて映像上の所定の位置に配置されたトリミングフレーム内の映像をトリミングする。
【0037】
上述した映像処理装置2は、具体的には、各種の演算処理等を行うプロセッサを有するコンピュータシステムによって実現することができる。
図6はコンピュータシステムによって構成された映像処理装置2のブロック図である。
【0038】
映像処理装置2は、
図6に示す如く、プロセッサ101、メモリ(ROMやRAM)102、記憶装置(ハードディスク、半導体ディスクなど)103、入力装置(キーボード、マウス、タッチパネルなど)104、通信装置105を有するコンピュータ100により構成することができる。
【0039】
映像処理装置2は、記憶装置103に格納されたプログラムがメモリ102にロードされ、プロセッサ101により実行されることにより、撮影映像入力処理110、特定人物指定受付処理111、仮想カメラワーク指定受付処理112、顔認識処理113、骨格判定処理114、人物特定処理115、トリミングフレームサイズ決定処理116、トリミング制御処理117及びトリミング処理118が実現されるものである。ここで、撮影映像入力処理110は撮影映像入力部20に対応し、特定人物指定受付処理111は特定人物指定受付部21に対応し、仮想カメラワーク指定受付処理112は仮想カメラワーク指定受付部22に対応し、顔認識処理113は顔認識部24に対応し、骨格判定処理114は骨格判定部25に対応し、人物特定処理115は人物特定部26に対応し、トリミングフレームサイズ決定処理116はトリミングフレームサイズ決定部28に対応し、トリミング制御処理117はトリミング制御部29に対応し、トリミング処理118はトリミング部30に対応する。また、顔画像辞書部23及び構図データベース27は、記憶装置103に対応する。尚、顔画像辞書部23及び構図データベース27は、コンピュータ100と物理的に外部に設けられ、LAN等のネットワークを介してコンピュータ100と接続されていても良い。
【0040】
次に、第1の実施の形態における映像処理装置2の動作を説明する。
【0041】
まず、映像処理装置2の全体の動作を説明する。
【0042】
以下の説明では、情報処理装置2と表示装置3とが一体に構成されたタブレット端末(コンピュータ100)を想定して説明する。そして、タブレット端末(コンピュータ100)の表示部(表示装置3)には、
図7に示す如く、撮影映像が表示される表示部40と、仮想カメラワーク映像が表示される表示部41と、仮想カメラワークを指定する仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)と、被写体となる特定人物を指定する特定人物指定受付部43(特定人物指定受付部21)とが表示されるものとする。尚、指定できる仮想カメラワークは、ロングショット、アップショット、バストショット、ウェストショット、ティルトアップ、ティルトダウン、パンである。また、特定人物指定受付部43(特定人物指定受付部21)は、顔認識部24により認識された人物の名前が表示されるものとする。尚、人物の名前に代えて又は加えて、顔認識部24により認識された人物の顔を表示しても良い。
【0043】
図8は映像処理装置2の全体的な動作フローチャートであり、
図9は映像処理装置2の全体的な動作を説明するための図である。
【0044】
撮影映像入力部20は撮影映像を入力する(Step1)。入力された撮影映像は、表示部40に表示される。
【0045】
顔認識部24は、撮影映像上の人物を認識する(Step2)。
図9の例では、人物A、人物B及び人物Cが認識され、その結果として、
図9の例では、特定人物指定部43として、認識された人物A、人物B及び人物Cが表示されている。
【0046】
骨格判定部25は、撮影映像上の人物の骨格を判定する(Step3)。
図9の例では、人物A、人物B及び人物Cの骨格を判定している。
【0047】
ユーザは、表示部40に表示されている撮影映像を見ながら、特定人物指定受付部43に表示されている人物をタッチすることにより、被写体となる特定人物を指定する(Step4)。
【0048】
人物特定部26は、指定された特定人物を認識された人物から特定し、特定人物の部位の撮影映像における長さ、位置を判定する(Step5)。
【0049】
ユーザは、仮想カメラワークを、仮想カメラワーク指定受付部42に表示されている仮想カメラワークのいずれかをタッチすることにより、仮想カメラワークを指定する(Step6)。
【0050】
トリミングフレームサイズ決定部28は、構図データベース27から指定された仮想カメラワークの構図情報を読み出し、構図情報及び特定人物の部位の撮影映像における長さ、位置を用いて、トリミングフレームサイズを決定する(Step7)。
【0051】
トリミング制御部29は、仮想カメラワークの構図情報を読み出し、構図情報及び特定人物の部位の撮影映像における長さ、位置を用いて、トリミングフレームサイズ決定部28で決定されたトリミングフレームの撮影映像上における位置を制御する(Step8)。
【0052】
トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし(Step9)、トリミングした映像を仮想カメラワーク映像として出力し、表示部41に表示する(Step10)。
【0053】
以上が、映像処理装置2の概略の動作である。
【0054】
次に、トリミングフレームサイズ決定部28、トリミング制御部29、トリミング部30の具体的な動作を説明する。
【0055】
具体的な動作の説明に先立って、トリミングに使用されるトリミングフレームについて説明する。第1の実施の形態では、以下の第1のトリミングフレーム、第2のトリミングフレーム、第3のトリミングフレーム及び第4のトリミングフレームが用いられる。
【0056】
(1)第1のトリミングフレーム
第1のトリミングフレームは、アップショット、バストショット、ウェストショット等に用いられ、フレームの下部にマージン(余白)を取る必要がない仮想カメラワークに用いられる。具体的な第1のトリミングフレームを、
図10に示す。第1のトリミングフレームの特徴は以下の通りである。
・アスペクト比: 16:9
・上部マージン: 縦のフレーム長に対して、0.1から0.15倍の長さ(好ましくは、0.15倍の長さ)
・左右部マージン: 横のフレーム長に対して、0.05から0.1倍の長さ(好ましくは、0.1倍の長さ)
・下部マージン: なし
(2)第2のトリミングフレーム
第2のトリミングフレームは、ロングショット等に用いられ、フレームの上下左右にマージン(余白)を取る必要がある仮想カメラワークに用いられる。具体的な第2のトリミングフレームを、
図11に示す。第2のトリミングフレームの特徴は以下の通りである。
・アスペクト比: 16:9
・上部マージン: 縦のフレーム長に対して、0.1から0.15倍の長さ(好ましくは、0.15倍の長さ)
・左右部マージン: 縦のフレーム長に対して、0.05から0.1倍の長さ(好ましくは、0.1倍の長さ)
・下部マージン: 縦のフレーム長に対して、0.0.5から0.1倍の長さ(好ましくは、0.1倍の長さ)
(3)第3のトリミングフレーム
第3のトリミングフレームは、ティルトアップ又はティルトダウン等の最初又は最後のフレームに用いられ、フレームの上部にマージン(余白)を取る必要がない仮想カメラワークに用いられる。具体的な第3のトリミングフレームを、
図12に示す。第3のトリミングフレームの特徴は以下の通りである。
・アスペクト比: 16:9
・上部マージン: なし
・左右部マージン: 横のフレーム長に対して、0.05から0.1倍の長さ(好ましくは、0.1倍の長さ)
・下部マージン: 縦のフレーム長に対して、0.2から0.25倍の長さ(好ましくは、0.25倍の長さ)
(4)第4のトリミングフレーム
第4のトリミングフレームは、ティルトアップ、ティルトダウンの途中のフレームに用いられ、フレームの上下部にマージン(余白)を取る必要がない仮想カメラワークに用いられる。具体的な第4のトリミングフレームを、
図13に示す。第4のトリミングフレームの特徴は以下の通りである。
・アスペクト比: 16:9
・上部マージン: なし
・左右部マージン: 横のフレーム長に対して、0.05から0.1倍の長さ(好ましくは、0.1倍の長さ)
・下部マージン: なし
第1のトリミングフレーム、第2のトリミングフレーム、第3のトリミングフレーム及び第4のトリミングフレームの特徴は、トリミングフレームサイズ決定部28に設定されている。
【0057】
次に、具体的な仮想カメラワークを想定したトリミングフレームサイズ決定部28、トリミング制御部29、トリミング部30の動作を説明する。
【0058】
1.特定人物が「人物A(一人)」であり、仮想カメラワークが「アップショット」の場合の具体的な動作
以下の説明では、映像処理装置2には、
図14に示すような撮影映像が入力されており、特定人物指定受付部21が受け付けた特定人物(仮想カメラワークの被写体)が「人物A」であり、仮想カメラワーク指定受付部22により指定された仮想カメラワークが「アップショット」である場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
【0059】
人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、
図15に示すように撮影映像から「人物A」の骨格を判定する。また、「人物A」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。
【0060】
トリミングフレームサイズ決定部28は、特定人物が「一人」であり、仮想カメラワークが「アップショット」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される「アップショット」に対応する構図情報は、以下の通りである。
・顔の縦方向の長さを1としたとき、被写体フレームの縦方向の長さを1.1倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
【0061】
トリミングフレームサイズ決定部28は、人物Aの骨格より、顔の縦方向の長さを計算する。そして、
図15に示すように、縦方向の長さが、顔の長さの1.1倍の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の顔の骨格の頂点に位置し、かつ、縦方向の中心線と骨格中心線とが一致する位置に、仮フレームを設置する。
【0062】
次に、トリミングフレームサイズ決定部28は、
図15に示すように、仮フレームの縦方向の長さをかえずに、横方向の人物Aの骨格の最大範囲となるように横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。
【0063】
トリミングフレームサイズ決定部28は、
図15に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、
図16に示すように、トリミングフレームのサイズを決定する。
【0064】
トリミング制御部29は、特定人物が「一人」であり、仮想カメラワークが「アップショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームを、トリミングフレームの縦方向の中心線と被写体の縦方向の骨格中心線とが一致するように配置する。
【0065】
トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、
図16に示すように、撮影映像上に配置する。
【0066】
尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、その移動に伴い骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。
【0067】
トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、
図16に示されるように、指定された仮想カメラワークである「人物A」の「アップショット」の映像として出力する。また、タブレット端末(コンピュータ100)の表示部41に仮想カメラワーク映像が表示されている状態を、
図17に示す。
【0068】
2.特定人物が「人物A(一人)」であり、仮想カメラワークが「ウェストショット」の場合の具体的な動作
以下の説明では、映像処理装置2には、
図14に示すような撮影映像が入力されており、特定人物指定受付部21が受け付けた特定人物(仮想カメラワークの被写体)が「人物A」であり、仮想カメラワーク指定受付部22により指定された仮想カメラワークが「ウェストショット」である場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
【0069】
人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、
図15に示すように撮影映像から「人物A」の骨格を特定する。また、「人物A」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。
【0070】
トリミングフレームサイズ決定部28は、特定人物が「一人」であり、仮想カメラワークが「ウェストショット」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される「ウェストショット」に対応する構図情報は、以下の通りである。
・顔の長さを1としたとき、被写体フレームの縦方向の長さを1.7倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
【0071】
トリミングフレームサイズ決定部28は、人物Aの骨格より、顔の縦方向の長さを計算する。そして、
図18に示すように、縦方向の長さが、顔の長さの1.7倍の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の顔の骨格の頂点に位置し、かつ、縦方向の中心線と骨格中心線とが一致する位置に、仮フレームを設置する。
【0072】
次に、トリミングフレームサイズ決定部28は、
図18に示すように、仮フレームの縦方向の長さをかえずに、横方向の人物Aの骨格の最大範囲となるように横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。
【0073】
トリミングフレームサイズ決定部28は、
図18に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、
図18に示すように、トリミングフレームのサイズを決定する。
【0074】
トリミング制御部29は、特定人物が「一人」であり、仮想カメラワークが「ウェストショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームを、トリミングフレームの縦方向の中心線と被写体の縦方向の骨格中心線とが一致するように配置する。
【0075】
トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、
図19に示すように、撮影映像上に配置する。
【0076】
尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。
【0077】
トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、
図19に示されるように、指定された仮想カメラワークである「人物A」の「ウェストショット」の映像として出力する。尚、タブレット端末(コンピュータ100)の表示部41に仮想カメラワーク映像が表示されている状態は、仮想カメラワーク映像が「人物A」の「ウェストショット」の映像となるだけなので、省略する。
【0078】
3.仮想カメラワークが「人物A(一人)」の「フルショット」の場合の具体的な動作
以下の説明では、映像処理装置2には、
図14に示すような撮影映像が入力されており、特定人物指定受付部21が受け付けた特定人物(仮想カメラワークの被写体)が「人物A」であり、仮想カメラワーク指定受付部22により指定された仮想カメラワークが「フルショット」である場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
【0079】
人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、
図15に示すように撮影映像から「人物A」の骨格を特定する。また、「人物A」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。
【0080】
トリミングフレームサイズ決定部28は、特定人物が「一人」であり、仮想カメラワークが「フルショット」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・特定人物の骨格の縦方向の長さ(全身)を、被写体フレームの縦方向の長さとする。
・トリミングフレームは第2のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
【0081】
トリミングフレームサイズ決定部28は、人物Aの骨格より、骨格の縦方向の長さ(全身)を計算する。そして、
図20に示すように、縦方向の長さが、人物Aの縦方向の骨格の長さと同一の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の骨格の最上部の頂点に位置し、かつ、縦方向の中心線と骨格の中心線とが一致する位置に、仮フレームを設置する。
【0082】
次に、トリミングフレームサイズ決定部28は、
図20に示すように、仮フレームの縦方向の長さをかえずに、人物Aの骨格が入る最大の範囲となるように、横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。
【0083】
トリミングフレームサイズ決定部28は、
図20に示すように、構図情報を満足するように、第2のトリミングフレームのサイズを調整する。第2のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第2のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、
図21に示すように、トリミングフレームのサイズを決定する。
【0084】
トリミング制御部29は、特定人物が「一人」であり、仮想カメラワークが「フルショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームを、トリミングフレームの縦方向の中心線と被写体の縦方向の骨格中心線とが一致するように配置する。
【0085】
トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、
図21に示すように、撮影映像上に配置する。
【0086】
尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。
【0087】
トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、
図21に示されるように、指定された仮想カメラワークである「人物A」の「フルショット」の映像として出力する。尚、タブレット端末(コンピュータ100)の表示部41に仮想カメラワーク映像が表示されている状態は、仮想カメラワーク映像が「人物A」の「フルショット」の映像となるだけなので、省略する。
【0088】
4.仮想カメラワークが「人物A、人物B(二人)」の「フルショット」の場合の具体的な動作
以下の説明では、映像処理装置2には、
図14に示すような撮影映像が入力されており、特定人物指定受付部21が受け付けた特定人物(仮想カメラワークの被写体)が「人物A、人物B(二人)」であり、仮想カメラワーク指定受付部22により指定された仮想カメラワークが「フルショット」である場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
【0089】
人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、
図22に示すように撮影映像から「人物A」及び「人物B」の骨格を特定する。また、「人物A」及び「人物B」」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。
【0090】
トリミングフレームサイズ決定部28は、特定人物がが「二人」であり、仮想カメラワークである「フルショット」に対応する構図情報のうち縦方向の構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・全ての特定人物の骨格の縦方向が入る長さを、被写体フレームの縦方向の長さとする。
・被写体フレームの縦方向の中心線は、二人の人物の骨格中心線の真ん中に位置する。
・トリミングフレームは第2のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
【0091】
トリミングフレームサイズ決定部28は、「人物A」及び「人物B」の骨格より、骨格の縦方向の長さを計算する。そして、
図22に示すように、縦方向の長さが、「人物A」及び「人物B」の縦方向の骨格が全て入る長さと同一の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の骨格の最上部の頂点に位置し、かつ、縦方向の中心線が二人の骨格中心線との真ん中となる位置に、仮フレームを設置する。
【0092】
次に、トリミングフレームサイズ決定部28は、
図22に示すように、フレームの縦方向の長さをかえずに、人物A及び人物Bの骨格が入る最大の範囲となるように、横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。
【0093】
トリミングフレームサイズ決定部28は、
図22に示すように、構図情報を満足するように、第2のトリミングフレームのサイズを調整する。第2のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第2のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、
図23に示すように、トリミングフレームのサイズを決定する。
【0094】
トリミング制御部29は、特定人物がが「二人」であり、仮想カメラワークである「フルショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームを、トリミングフレームの縦方向の中心線が二人の骨格中心線の真ん中に位置するように配置する。
【0095】
トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、
図23に示すように、撮影映像上に配置する。
【0096】
尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。
【0097】
トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、
図23に示すように、指定された仮想カメラワークである「人物A、人物B(二人)」の「フルショット」の映像として出力する。尚、タブレット端末(コンピュータ100)の表示部41に仮想カメラワーク映像が表示されている状態は、仮想カメラワーク映像が「人物A、人物B(二人)」の「フルショット」の映像となるだけなので、省略する。
【0098】
5.仮想カメラワークが「人物C(一人)」の「ティルトアップ」の場合の具体的な動作
以下の説明では、映像処理装置2には、
図14に示すような撮影映像が入力されており、特定人物指定受付部21が受け付けた特定人物(仮想カメラワークの被写体)が「人物C」であり、仮想カメラワーク指定受付部22により指定された仮想カメラワークが「ティルトアップ」である場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
【0099】
人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、
図24に示すように撮影映像から「人物C」の骨格を特定する。また、「人物C」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。
【0100】
トリミングフレームサイズ決定部28は、特定人物が「一人」であり、仮想カメラワークである「ティルトアップ」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・顔の縦方向の長さを1としたとき、被写体フレームの縦方向の長さを1.1倍とする。
・被写体フレームの縦方向の長さは、人物の全身の横幅(人物の骨格が横方向に占める最大の範囲)とする。
・仮想カメラワークの開始時に使用するフレームは、第3のトリミングフレームを使用する。
・仮想カメラワークの終了時に使用するフレームは、第1のトリミングフレームを使用する。
・仮想カメラワークの開始時及び終了時に使用するフレームは、第4のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
【0101】
トリミングフレームサイズ決定部28は、人物Cの骨格より、横方向の横幅の長さを計算する。そして、
図24に示すように、横幅が人物Cの横幅であり、人物Cの骨格中心線と被写体フレームの中心線とが一致するように仮フレームを決定する。更に、トリミングフレームサイズ決定部28は、仮フレームの縦方向の長さが、顔の長さの1.1倍の長さとする被写体フレームを生成する。
【0102】
トリミングフレームサイズ決定部28は、
図24に示すように、構図情報を満足するように、第1のトリミングフレームを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。第3及び第4のトリミングフレームの横幅については、サイズの調整後の第1のトリミングフレームの横幅と同じ大きさとする。このようにして、トリミングフレームサイズ決定部28は、
図24に示すように、トリミングフレームのサイズを決定する。
【0103】
トリミング制御部29は、特定人物が「一人」であり、仮想カメラワークである「ティルトアップ」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・仮想カメラワークの開始時に使用するフレームは、第3のトリミングフレームを使用する。
・仮想カメラワークの終了時に使用するフレームは、第1のトリミングフレームを使用する。
・仮想カメラワークの開始時及び終了時に使用するフレームは、第4のトリミングフレームを使用する。
・トリミングフレームを、トリミングフレームの縦方向の中心線と人物の縦方向の骨格中心線とが一致するように配置する。
・仮想カメラワークの開始時に使用するフレームを1秒静止後、人物の骨格中心線に沿ってスプライン(最初と最後はゆっくり動き途中は速い動き)に移動する。
・仮想カメラワークの終了時に使用するフレームは静止を維持する。
【0104】
トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、
図21に示すように、撮影映像上に配置する。
【0105】
尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。
【0106】
トリミング部30は、撮影映像から移動するトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、
図25に示されるように、指定された仮想カメラワークである「人物C」の「ティルトアップ」の映像として出力する。尚、タブレット端末(コンピュータ100)の表示部41に仮想カメラワーク映像が表示されている状態は、仮想カメラワーク映像が仮想カメラワークである「人物C」の「ティルトアップ」の映像となるだけなので、省略する。
【0107】
6.仮想カメラワークが「パン」の場合の具体的な動作
以下の説明では、映像処理装置2には、
図14に示すような撮影映像が入力されており、「人物A」から「人物B」に、アップショットでパンする場合を説明する。尚、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
【0108】
仮想カメラワークが「パン」の場合は、始点と終点とを指定する必要がある。始点及び終点の指定内容は、被写体となる特定人物とショット(ロングショット、アップショット、バストショット、ウェストショット)である。本例では、始点は「人物A」のアップショットであるので、仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)の「Pan(パン)」をタッチした後に始点をタッチし、「Up(アップショット)」をタッチする。続けて、特定人物指定受付部43(特定人物指定受付部21)の「人物A」をタッチする。次に、終点は「人物B」のアップショットであるので、仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)の「Pan(パン)」をタッチした後に終点をタッチし、「Up(アップショット)」をタッチする。続けて、特定人物指定受付部43(特定人物指定受付部21)の「人物B」をタッチする。これにより、「パン」の始点と終点とを指定する。
【0109】
まず、始点の「人物A」について、人物特定部26及びトリミングフレームサイズ決定部28は以下のように動作する。
【0110】
人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、
図15に示すように撮影映像から「人物A」の骨格を判定する。また、「人物A」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。
【0111】
トリミングフレームサイズ決定部28は、始点の特定人物が「一人」であり、始点のショットが「アップショット」に対応する仮想カメラワーク「パン」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・顔の縦方向の長さを1としたとき、被写体フレームの縦方向の長さを1.1倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
【0112】
トリミングフレームサイズ決定部28は、人物Aの骨格より、顔の縦方向の長さを計算する。そして、
図15に示すように、縦方向の長さが、顔の長さの1.1倍の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の顔の骨格の頂点に位置し、かつ、縦方向の中心線と骨格中心線とが一致する位置に、仮フレームを設置する。
【0113】
次に、トリミングフレームサイズ決定部28は、
図15に示すように、仮フレームの縦方向の長さをかえずに、横方向の人物Aの骨格の最大範囲となるように横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。
【0114】
トリミングフレームサイズ決定部28は、
図15に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、
図16に示すように、トリミングフレームのサイズを決定する。
【0115】
次に、終点の「人物B」について、人物特定部26及びトリミングフレームサイズ決定部28は以下のように動作する。
【0116】
人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、
図26に示すように撮影映像から「人物B」の骨格を判定する。また、「人物B」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。
【0117】
トリミングフレームサイズ決定部28は、終点の特定人物が「一人」であり、終点のショットが「アップショット」に対応する仮想カメラワーク「パン」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・顔の縦方向の長さを1としたとき、被写体フレームの縦方向の長さを1.1倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
【0118】
トリミングフレームサイズ決定部28は、人物Bの骨格より、顔の縦方向の長さを計算する。そして、
図26に示すように、縦方向の長さが、顔の長さの1.1倍の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の顔の骨格の頂点に位置し、かつ、縦方向の中心線と骨格中心線とが一致する位置に、仮フレームを設置する。
【0119】
次に、トリミングフレームサイズ決定部28は、
図26に示すように、仮フレームの縦方向の長さをかえずに、横方向の人物Aの骨格の最大範囲となるように横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。
【0120】
トリミングフレームサイズ決定部28は、
図26に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、
図26に示すように、トリミングフレームのサイズを決定する。
【0121】
始点及び終点のトリミングフレームのサイズが決定すると、トリミング制御部29は、始点及び終点の特定人物が「一人」であり、始点及び終点のショットが「アップショット」に対応する仮想カメラワーク「パン」の構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・始点時に指定された特定人物のトリミングフレームを、トリミングフレームの縦方向の中心線と、始点時に指定された特定人物の縦方向の骨格中心線とが一致するように配置する。
・終点時に指定された特定人物のトリミングフレームを、トリミングフレームの縦方向の中心線と、終点時時に指定された特定人物の縦方向の骨格中心線とが一致するように配置する。
・始点時から終点時直前のトリミングフレームは、始点時に使用されるトリミングフレームを使用する。
・終点時は、終点時に指定された特定人物のトリミングフレームを使用する。
・仮想カメラワークの開始時に使用するトリミングフレームを1秒静止後、始点時のトリミングフレームの位置から終点時直前のトリミングフレームの位置まで、スプライン(最初と最後はゆっくり動き途中は速い動き)に移動する。
・仮想カメラワークの終了時に使用するトリミングフレームは静止を維持する。
【0122】
トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、
図27に示すように、撮影映像上に配置して制御する。
【0123】
尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。
【0124】
トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、
図27に示されるように、始点「人物A」から終点「人物B」へのアップショットのパンに対応する仮想カメラワーク映像として出力する。
【0125】
以上で、第1の実施の形態の説明を終わる。尚、上述したトリミングフレーム及び構図情報の数値等は一例であり、適時変更が可能であることは言うまでもない。
【0126】
第1の実施の形態は、撮影映像中の人物を認識するように構成されているので、従来の技術のように、ユーザが撮影画像中の特定人物(被写体)を探す必要がなく、手間を削減することができる。
【0127】
更に、第1の実施の形態は、特定人物(被写体)の骨格を判定し、特定人物の部位の映像上の大きさや位置を特定し、その情報と構図情報とを用いて、仮想カメラワーク映像を生成しているので、多様なカメラワークの映像を生成することができる。
【0128】
<第1の実施の形態の変形例1>
上述した第1の実施の形態における仮想カメラワークでは、特定人物の顔の向きを考慮していない。しかしながら、特定人物の顔の向きを考慮することにより、より自然なカメラワークを行うことができる。例えば、特定人物のアップショットを撮影する場合等、特定人物の顔が向いている方向の空間を広く取ることにより、より良い構図を得ることが出来る。そこで、第1の実施の形態の変形例では、顔認識部24より、特定人物の顔の向きの情報を取得し、特定人物の顔の向きの情報を考慮した構図情報を用いた仮想カメラワークの例を説明する。
【0129】
以下の説明においては、特定人物が「人物B(一人)」であり、仮想カメラワークが「アップショット」の場合における、トリミングフレームサイズ決定部28、トリミング制御部29、トリミング部30の具体的な動作を中心に説明する。そして、映像処理装置2には、
図14に示すような撮影映像が入力されている場合を説明する。また、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
【0130】
人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、
図28に示すように撮影映像から「人物B」の骨格を判定する。また、「人物B」の骨格の縦方向の骨格中心線も決定する。尚、骨格中心線は、骨格の首元を通過する線である。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。
【0131】
また、顔認識部24は、「人物B」の顔の向きの情報をトリミングフレームサイズ決定部28に出力する。
【0132】
トリミングフレームサイズ決定部28は、特定人物が「一人」であり、仮想カメラワークが「アップショット」、顔の向きが「右方向」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される「アップショット」に対応する構図情報は、以下の通りである。
・顔の縦方向の長さを1としたとき、被写体フレームの縦方向の長さを1.1倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・被写体フレームの縦方向の中心線が、トリミングフレームの左から0.65:0.35の位置を通過するようにする。
【0133】
トリミングフレームサイズ決定部28は、人物Bの骨格より、顔の縦方向の長さを計算する。そして、
図28に示すように、縦方向の長さが、顔の長さの1.1倍の長さである被写体フレームの仮フレームを生成し、仮フレームの上辺が人物の顔の骨格の頂点に位置し、かつ、縦方向の中心線と骨格中心線とが一致する位置に、仮フレームを設置する。
【0134】
次に、トリミングフレームサイズ決定部28は、
図28に示すように、仮フレームの縦方向の長さをかえずに、横方向の人物Bの骨格の最大範囲となるように横方向の長さを調整する。このようにして生成されたフレームが被写体フレームである。
【0135】
トリミングフレームサイズ決定部28は、
図28に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、被写体フレームの縦方向の中心線が、トリミングフレームの左から0.65:0.35の位置を通過する位置で、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、
図28に示すように、トリミングフレームのサイズを決定する。
【0136】
トリミング制御部29は、特定人物が「一人」であり、仮想カメラワークが「アップショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームを、特定人物の縦方向の骨格中心線がトリミングフレームの左から0.65:0.35の位置を通過するように配置する。
【0137】
トリミング制御部29は、人物特定部26からの骨格の位置情報(骨格中心線)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、
図29に示すように、撮影映像上に配置する。
【0138】
尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、骨格中心線も移動する可能性がある。骨格中心線の移動に伴って、トリミングフレームの位置も制御しても良いが、骨格中心線の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、骨格中心線の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。
【0139】
トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、
図29に示されるように、指定された仮想カメラワークである「人物B」の「アップショット」の映像として出力する。
【0140】
第1の実施の形態の変形例1によれば、
図27に例示されるように、顔の向きを考慮しない「人物B」の「アップショット」に比べて、
図29に示されるように、人物の顔の向きを考慮した「人物B」の「アップショット」の方が、より人間が撮影する理想的な構図の映像を得ることができる。すなわち、より、人間が撮影するカメラワーク映像に近い仮想カメラワーク映像を得ることができる。
【0141】
<第1の実施の形態の変形例2>
上述した第1の実施の形態では、被写体の指定として特定人物のみを指定する例を説明した。しかしながら、人物特定部26では、特定人物の各部位を判定している。そこで、第1の実施の形態の変形例2は、特定人物のみならず、特定人物の部位も指定し、特定人物の部位を被写体とするカメラワークを実現する例を説明する。
【0142】
第1の実施の形態の変形例2の具体例としては、特定人物が「人物B(一人)」であり、その特定人物の被写体となる部位が「右手」であり、仮想カメラワークが「アップショット」の場合を説明する。尚、各部が読み出す具体的な構図情報は、構図データベース27に予め記憶されているものとする。
【0143】
まず、具体的な部位の指定方法であるが、
図30に示す如く、情報処理装置2と表示装置3とが一体に構成されたタブレット端末(コンピュータ100)上に、特定人物指定受付部43に加えて、部位指定部50を設ける。部位指定部50は、人物の全身を模式的に示した図であり、被写体となる部位をタッチすることにより、部位を指定することができる。例えば、特定人物が「人物B(一人)」であり、その特定人物の被写体となる部位が「右手」の場合、特定人物指定受付部43の「人物B」をタッチ後、部位指定部50の「右手」をタッチすることにより、「人物B」及び「右手」を指定することができる。
【0144】
特定人物、被写体となる特定人物の部位及び仮想カメラワークの指定が終了すると、人物特定部26は、顔認識部24により認識された人物及び骨格判定部25により判定された骨格を用いて、
図5に示すように撮影映像から「人物B」の骨格を判定する。そして、これらの骨格の座標情報をトリミングフレームサイズ決定部28に出力する。
【0145】
トリミングフレームサイズ決定部28は、特定人物が「一人」、被写体となる部位が「右手」であり、仮想カメラワークが「アップショット」に対応する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・被写体フレームの縦横の中心線の交点(被写体フレームの中心)が、右手の先端となるようにする。
・被写体フレームの縦の長さは、縦右前腕部の長さの2倍とする。
・被写体フレームの横の長さは、横右前腕部の長さの2倍とする。
・トリミングフレームは第1のトリミングフレームを使用する。
・トリミングフレームの縦方向の中心線と被写体フレームの縦方向の中心線とは一致させる。
【0146】
トリミングフレームサイズ決定部28は、人物Bの骨格より、縦方向及び横方向の右前腕部の長さを計算する。そして、
図31に示すように、縦方向の長さが縦右前腕部の長さの2倍、横方向の長さが横右前腕部の長さの2倍であり、かつ、被写体フレームの縦横の中心線の交点(被写体フレームの中心)が、右手の先端となるように被写体フレームを調整する。
【0147】
トリミングフレームサイズ決定部28は、
図31に示すように、構図情報を満足するように、第1のトリミングフレームのサイズを調整する。第1のトリミングフレームのサイズの調整は、最低のマージンを確保した上で、第1のトリミングフレームのマージンが被写体フレームに重ならない範囲で、なるべく好ましいマージンの大きさになるように調整する。このようにして、トリミングフレームサイズ決定部28は、
図31に示すように、トリミングフレームのサイズを決定する。
【0148】
トリミング制御部29は、特定人物が「一人」であり、被写体となる部位が「右手」であり、仮想カメラワークが「アップショット」に対応する構図情報のうち、制御に関する構図情報を、構図データベース27から読み出す。ここで、読み出される構図情報は、以下の通りである。
・トリミングフレームは、トリミングフレームの縦横方向の中心線の交点と、右手の先端とが一致するように配置する。
【0149】
トリミング制御部29は、人物特定部26からの骨格の位置情報(右手の先端の座標)と構図情報とを用いて、トリミングフレームサイズ決定部28で決定されたサイズのトリミングフレームを、
図32に示すように、撮影映像上に配置する。
【0150】
尚、撮影映像は動画であるため、人物は時間の経過にともなって移動する可能性があり、その移動に伴い右手の先端の座標も移動する可能性がある。右手の先端の座標の移動に伴って、トリミングフレームの位置も制御しても良いが、右手の先端の座標の移動が少ない場合にも、トリミングフレームを移動させると、視聴者にとって視聴し難い映像になる可能性がある。そこで、右手の先端の座標の移動の範囲が所定の距離範囲内である場合には、トリミングフレームの位置を維持するように制御しても良い。
【0151】
トリミング部30は、撮影映像からトリミングフレーム内の映像をトリミングし、トリミングされたトリミング映像を、
図32に示されるように、「人物Bの右手」の「アップショット」の映像として出力する。
【0152】
第1の実施の形態の変形例2では、特定人物(被写体)の骨格を用いて判定した各部位の位置や長さの情報と、構図情報とを用いることにより、特定人物の特定の部位を被写体とする仮想カメラワークを実現することができる。
【0153】
<第1の実施の形態の変形例3>
第1の実施の形態の変形例3を説明する。
図33は第1の実施の形態の変形例3の情報処理装置2のブロック図である。
【0154】
第1の実施の形態の変形例3では、撮影映像をトリミングして生成された仮想カメラワーク映像に対して映像効果を与える例である。映像効果としては、例えば、フォーカスインのように、撮影フレーム自体は変化がないが、時間と共にフォーカスされていない映像から被写体からフォーカスされた映像になるような映像効果や、その逆のフォーカスアウトなどがある。
【0155】
これらの映像効果を、撮影映像をトリミングして生成された仮想カメラワーク映像に対して与えるため、第1の実施の形態の変形例3の情報処理装置2は、映像効果処理部31を更に備える。
【0156】
映像効果処理部31は、指定された仮想カメラワークに対応する構図情報から映像効果の情報を、構図データベース27から取得する。そして、映像効果処理部31は、トリミング部30から出力されたトリミング映像に対し、その映像効果を処理し、仮想カメラワーク映像を出力する。
【0157】
<第2の実施の形態>
第2の実施の形態を説明する。
【0158】
図34は第2の実施の形態の情報処理装置2のブロック図である。
【0159】
第2の実施の形態の情報処理装置2は、CG(コンピュータグラフィックス)画像や、他の編集済み映像等を、仮想カメラワーク映像にテロップ又はスーパー(重畳)する機能を更に備える。その機能の実現のため、第2の実施の形態の情報処理装置2は、第1の実施の形態の情報処理装置2の構成に加えて、画像データベース50と、画像選択部51と、加算器52とを備える。
【0160】
画像記憶部50は、ロゴなどのCG画像、編集済み映像等(重畳画像と記載する)が格納される。
【0161】
画像選択部51は、画像記憶部50に格納されている重畳画像のうち仮想カメラワーク映像に重畳する重畳画像の選択を、ユーザから受付ける部である。画像選択部51は、ユーザの重畳画像の選択のために、画像記憶部50に記憶されている重畳画像のうちユーザが選択可能な重畳画像を表示装置3に表示する。表示の一例としては、重畳画像を識別する識別情報、重畳画像のサムネイル画像などがある。また、画像選択部51は、選択された重畳画像を、仮想カメラワーク映像のどの位置に重畳するか、及びその大きさの制御も行う。位置、大きさの制御は、ユーザによる仮想カメラワーク映像上の位置及び大きさの指定により決定される。
【0162】
加算器52は、仮想カメラワーク映像に、選択された重畳画像を加算(重畳)し、重畳画像が重畳された仮想カメラワーク映像を出力する。
【0163】
次に、第2の実施の形態の情報処理装置2の動作を説明する。以下の説明では、第1の実施の形態と同様に、情報処理装置2と表示装置3とが一体に構成されたタブレット端末(コンピュータ100)を想定して説明する。
【0164】
タブレット端末(コンピュータ100)の表示部(表示装置3)には、
図35に示す如く、撮影映像が表示される表示部40と、仮想カメラワーク映像が表示される表示部41と、仮想カメラワークを指定する仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)と、被写体となる特定人物を指定する特定人物指定受付部43(特定人物指定受付部21)とに加えて、重畳画像を選択するためのサムネイル画像44(画像選択部51)が表示される。
【0165】
ユーザは、表示部41に表示されている仮想カメラワーク映像に重畳したい重畳画像を、サムネイル画像44から選択する。選択及び配置方法は、
図36に示す如く、選択するサムネイル画像を、指で仮想カメラワーク映像上にドラッグする。そして、仮想カメラワーク映像上の希望する位置にドロップする。重畳画像のサイズは、重畳画像を仮想カメラワーク映像上にドロップ後、
図37に示すように、その重畳画像をピンチイン又はピンチアウトすることで、そのサイズを決定する。
【0166】
このようにして、ロゴや編集済み映像を仮想カメラワーク映像上に重畳した映像を生成することができる。
【0167】
<第3の実施の形態>
第3の実施の形態を説明する。
【0168】
第3の実施の形態は、スイッチングシステムである。
図38は第3の実施の形態のスイッチングシステムのブロック図である。
【0169】
第3の実施の形態のスイッチングシステムは、第1又は第2の実施の形態における情報処理装置2を複数備えている。各情報処理装置2にはカメラ1の撮影映像が入力され、各情報処理装置2はユーザが選択した仮想カメラワークによるひとつの仮想カメラワーク映像を出力する。
【0170】
スイッチング装置4は、各情報処理装置2からの仮想カメラワーク映像が入力され、ユーザの選択により、ひとつの仮想カメラワーク映像がライン映像として出力される。
【0171】
次に、第3の実施の形態のスイッチングシステムの動作を説明する。以下の説明では、二つの情報処理装置2を用い、第1の実施の形態と同様に、情報処理装置2と表示装置3とが一体に構成されたタブレット端末(コンピュータ100)を想定して説明する。すなわち、タブレット端末(コンピュータ100)は、二つのの情報処理装置2と、表示装置3と、スイッチング装置4とを備える。
【0172】
第3の実施の形態のタブレット端末(コンピュータ100)の表示部(表示装置3)には、二つの情報処理装置2から出力される二種類の仮想カメラワーク映像が表示される表示部41−1及び41−2が有る点で、第1の実施の形態及び第2の実施の形態と異なる。表示部41−1はライン映像が表示される表示部であり、表示部41−2はライン映像の候補となるプレビュー映像が表示される表示部である。ライン映像が表示される表示部41−1は、表示部41−2に比べて枠線を太く表示され、ライン映像であることが容易に視認できるようになっている。
【0173】
ユーザは、ライン映像の候補となる仮想カメラワーク映像を得るため、まず、表示部41−2の画面を指でタッチ(選択)後、特定人物指定受付部43(特定人物指定受付部21)により特定人物を指定し、仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)により仮想カメラワークを指定する。すると、選択した表示部41−2には指定した特定人物及び仮想カメラワークに対応する仮想カメラワーク映像が表示される。ここで、表示部41−2に表示されている仮想カメラワーク映像(プレビュー映像)をライン映像にスイッチングする場合、表示部41−2をタッチして選択後、「TAKE」ボタンをタッチすることにより、表示部41−2に表示されている仮想カメラワーク映像(プレビュー映像)をライン映像として出力することができる。このとき、表示部41−2に表示されていた仮想カメラワーク映像(プレビュー映像)は、表示部41−2には表示されず、ライン映像が表示される表示部41−1に表示されるようになる。
【0174】
更に、ライン映像の候補となる仮想カメラワーク映像を得るためには、仮想カメラワーク映像(プレビュー映像)が表示されていない表示部41−2の画面を指でタッチ(選択)後、特定人物指定受付部43(特定人物指定受付部21)により特定人物を指定し、仮想カメラワーク指定受付部42(仮想カメラワーク指定受付部22)により仮想カメラワークを指定する。すると、選択した表示部41−2には指定した特定人物及び仮想カメラワークに対応する仮想カメラワーク映像が表示される。
【0175】
図40は二種類の仮想カメラワーク映像が表示部41−1及び表示部41−2に表示されている例を示している。表示部41−1に表示されている仮想カメラワーク映像がライン映像であり、表示部41−2に表示されている仮想カメラワーク映像がプレビュー映像である。そして、表示部41−1に表示されている仮想カメラワーク映像から表示部41−2に表示されている仮想カメラワーク映像に、ライン映像をスイッチングする場合、表示部41−2をタッチして選択後、「TAKE」ボタンをタッチすることにより、表示部41−2に表示されている仮想カメラワーク映像(プレビュー映像)をライン映像として出力することができる。このとき、
図41に示すように、表示部41−2に表示されていた仮想カメラワーク映像(プレビュー映像)は、表示部41−2には表示されず、ライン映像が表示される表示部41−1に表示されるようになる。
【0176】
尚、上述の説明では、ライン映像の候補となる仮想カメラワーク映像を得るため、まず、表示部41−2の画面を指でタッチ(選択)する例を説明した。これは、プレビュー映像を表示する表示部が複数の場合でも対応できるようにするためである。しかし、本例のように、プレビュー映像を表示する表示部がひとつの場合は、表示部を選択しなくても良い構成とすることもできる。
【0177】
第3の実施の形態によれば、多数のカメラやユーザ(操作者)を必要とすることなく、スイッチングシステムを実現することができる。
【0178】
以上好ましい実施の形態をあげて本発明を説明したが、全ての実施の形態の構成を備える必要はなく、適時組合せて実施することができるばかりでなく、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。