(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-07-26
(45)【発行日】2023-08-03
(54)【発明の名称】映像演出処理装置及びそのプログラム
(51)【国際特許分類】
H04N 5/222 20060101AFI20230727BHJP
H04N 23/611 20230101ALI20230727BHJP
H04N 23/60 20230101ALI20230727BHJP
G06T 19/00 20110101ALI20230727BHJP
【FI】
H04N5/222 400
H04N23/611
H04N23/60 500
G06T19/00 A
(21)【出願番号】P 2019144745
(22)【出願日】2019-08-06
【審査請求日】2022-07-11
(73)【特許権者】
【識別番号】000004352
【氏名又は名称】日本放送協会
(74)【代理人】
【識別番号】110001807
【氏名又は名称】弁理士法人磯野国際特許商標事務所
(72)【発明者】
【氏名】三ツ峰 秀樹
(72)【発明者】
【氏名】三須 俊枝
(72)【発明者】
【氏名】荒井 敦志
【審査官】高野 美帆子
(56)【参考文献】
【文献】国際公開第2017/183346(WO,A1)
【文献】特開2017-022457(JP,A)
【文献】特表2017-507557(JP,A)
【文献】特開2011-39778(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04N 5/222
H04N 23/611
H04N 23/60
G06T 19/00
(57)【特許請求の範囲】
【請求項1】
被写体の3次元形状及び表面模様からなるボリューメトリックキャプチャ情報を、前記被写体の動きから3次元データにデジタル化するボリューメトリックキャプチャにより生成し、前記ボリューメトリックキャプチャ情報と前記被写体を撮影する撮影カメラのカメラパラメータとを用いて、肉眼の動き特性により前記被写体のVRコンテンツに誘導をかける視線誘導効果を付加するようにした映像演出処理装置であって、
前記ボリューメトリックキャプチャにより、前記VRコンテンツ及び前記ボリューメトリックキャプチャ情報を生成するボリューメトリックキャプチャ手段と、
前記カメラパラメータに含まれる前記撮影カメラのレンズの中心座標であるレンズ主点と前記撮影カメラの撮影画角とで表される四角錐状の領域を、前記撮影カメラの撮影範囲である視体積として算出する視体積算出手段と、
前記ボリューメトリックキャプチャ情報に基づいて、前記視体積に含まれる被写体の3次元形状及び表面模様についての3次元顕著性マップを生成する3次元顕著性マップ生成手段と、
機械学習により、前記視体積に含まれる被写体の種類を認識する被写体認識手段と、
前記被写体認識手段が認識した被写体の種類と重要度とを対応付けて設定する重要度設定手段と、
前記視体積を複数の分割領域に分割し、前記被写体の種類毎に
設定された重要度を前記
被写体が分割されている分割領域に割り当て、割り当てた前記分割領域の重要度に、前記撮影カメラのフォーカス位置から前記分割領域までの距離が離れる程に小さくなるように予め設定された第1係数と、前記分割領域が前記カメラパラメータの焦点深度に基づき前記フォーカス位置から外れる程に小さくなるように予め設定された第2係数とを乗算する重要度乗算手段と、
前記重要度乗算手段が乗算した重要度を前記ボリューメトリックキャプチャ情報に反映させたレンダリングパラメータを生成し、当該レンダリングパラメータを前記VRコンテンツに付加する視線誘導手段と、
を備えることを特徴とする映像演出処理装置。
【請求項2】
カメラキャリブレーションにより、前記カメラパラメータを推定するカメラパラメータ推定手段
、
をさらに備えることを特徴とする請求項1に記載の映像演出処理装置。
【請求項3】
前記被写体認識手段は、前記機械学習により、前記被写体として顔を認識すると共に前記顔の方向も認識し、
前記重要度設定手段は、前記被写体認識手段が認識した顔の方向と前記重要度とを対応付けて設定することを特徴とする請求項2に記載の映像演出処理装置。
【請求項4】
前記視体積算出手段は、予め設定されたレンズ歪み係数が反映された前記撮影画角、及び、前記レンズ主点で表される四角錐状の領域を、前記視体積として算出することを特徴とする請求項1から請求項3の何れか一項に記載の映像演出処理装置。
【請求項5】
コンピュータを、請求項1から請求項4の何れか一項に記載の映像演出処理装置として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、VRコンテンツに視線誘導効果を付加する映像演出処理装置及びそのプログラムに関する。
【背景技術】
【0002】
従来、映像コンテンツを視聴する表示デバイスとしては、2次元ディスプレイが主流であった。近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)のコンテンツを視聴できるヘッドマウントディスプレイやスマートグラスといった表示デバイスの利用も拡大しつつある(例えば、非特許文献1及び2)。以後、VR及びARのコンテンツをVRコンテンツと記載する。
【先行技術文献】
【非特許文献】
【0003】
【文献】山口勝、公共放送による360°映像のVR配信の意義~2020年とその先に向けて、放送研究と調査、2017年10月、P.90~97
【文献】神谷直亮、NHK番組技術展、FDI,2018年7月、P.28~29
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、コンテンツの内容が同一であるにも関わらず、表示デバイスの種類に合わせて、2次元映像コンテンツとVRコンテンツを別々に制作することが多い。このため、VRコンテンツを制作する際、2次元映像コンテンツの制作者(例えば、放送局やプロダクション)のノウハウを十分に活かすことができていない。例えば、2次元映像コンテンツの制作で用いられる映像演出手法である撮影時のカメラワークによる視線・視野の拘束やテロップ、ナレーション又はセリフ無しで「視線を誘導」することによる映像的ストーリーテリングが困難である。
【0005】
そこで、本発明は、肉眼の動きの特性により被写体のVRコンテンツに誘導をかける視線誘導効果を有するVRコンテンツを効率的に制作できる映像演出処理装置及びそのプログラムを提供することを課題とする。
【課題を解決するための手段】
【0006】
前記した課題に鑑みて、本発明に係る映像演出処理装置は、被写体の3次元形状及び表面模様からなるボリューメトリックキャプチャ情報を、被写体の動きから3次元データにデジタル化するボリューメトリックキャプチャにより生成し、ボリューメトリックキャプチャ情報と被写体を撮影する撮影カメラのカメラパラメータとを用いて、肉眼の動き特性により被写体のVRコンテンツに誘導をかける視線誘導効果を付加するようにした映像演出処理装置であって、ボリューメトリックキャプチャ手段と、視体積算出手段と、3次元顕著性マップ生成手段と、被写体認識手段と、重要度設定手段と、重要度乗算手段と、視線誘導手段と、を備える構成とした。
【0007】
かかる構成によれば、ボリューメトリックキャプチャ手段は、ボリューメトリックキャプチャにより、VRコンテンツ及び前記ボリューメトリックキャプチャ情報を生成する。
視体積算出手段は、カメラパラメータに含まれる撮影カメラのレンズの中心座標であるレンズ主点と撮影カメラの撮影画角とで表される四角錐状の領域を、撮影カメラの撮影範囲である視体積として算出する。このカメラパラメータには、2次元映像コンテンツの制作者のノウハウの一つである、カメラマンによるカメラワークが反映されている。従って、カメラパラメータから算出した視体積には、2次元映像コンテンツの制作者が視線を誘導したい被写体が含まれることになる。
【0008】
3次元顕著性マップ生成手段は、ボリューメトリックキャプチャ情報に基づいて、視体積に含まれる被写体の3次元形状及び表面模様についての3次元顕著性マップを生成する。この3次元顕著性マップは、被写体の3次元形状を平面上の奥行き画像に変換した情報と、表面模様の勾配や色彩を数値化した情報とが含まれている。
【0009】
被写体認識手段は、機械学習により、視体積に含まれる被写体の種類を認識する。重要度設定手段は、被写体認識手段が認識した被写体の種類と重要度とを対応付けて設定する。重要度乗算手段は、視体積を複数の分割領域に分割し、被写体の種類毎に設定された重要度を被写体が分割されている分割領域に割り当て、割り当てた分割領域の重要度に、撮影カメラのフォーカス位置から分割領域までの距離が離れる程に小さくなるように予め設定された第1係数と、分割領域がカメラパラメータの焦点深度に基づきフォーカス位置から外れる程に小さくなるように予め設定された第2係数とを乗算する。つまり、重要度乗算手段は、2次元映像コンテンツの制作者が視線を誘導したい被写体の重要度が高くなるように、第1係数及び第2係数を乗算する。
【0010】
視線誘導手段は、重要度乗算手段が乗算した重要度をボリューメトリックキャプチャ情報に反映させたレンダリングパラメータを生成し、レンダリングパラメータをVRコンテンツに付加する。つまり、このVRコンテンツは、重要度が高い被写体を注視させるようにレンダリングパラメータが付加されているので、視線誘導効果が高くなる。
【0011】
ここで、視線誘導効果とは、肉眼の動きの特性により、映像コンテンツの制作者が意図した被写体のVRコンテンツに視聴者の視線を誘導(誘目)する映像演出効果のことである。例えば、視線誘導効果は、所望の被写体を強調する、色鮮やかにする、明るくする、又は、視聴者の視線を誘導したくない被写体をぼかす(デフォーカス)ことである。
【0012】
なお、本発明は、コンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、前記した映像演出処理装置として動作させるプログラムで実現することもできる。
【発明の効果】
【0013】
本発明によれば、2次元映像コンテンツの制作者が視線を誘導したい被写体を注視させるように、視線誘導効果が高いVRコンテンツを効率的に制作することができる。
【図面の簡単な説明】
【0014】
【
図1】実施形態に係るVRコンテンツ制作システムの概略構成図である。
【
図2】実施形態に係る映像演出処理装置の構成を示すブロック図である。
【
図3】実施形態において、視体積の算出を説明する説明図である。
【
図4】実施形態において、重要度DBを説明する説明図である。
【
図5】実施形態において、注視パラメータの推定を説明する説明図である。
【
図6】
図2の映像演出処理装置の動作を示すフローチャートである。
【発明を実施するための形態】
【0015】
(実施形態)
[VRコンテンツ制作システムの構成]
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。
図1を参照し、実施形態に係るVRコンテンツ制作システム1の構成について説明する。
図1に示すように、VRコンテンツ制作システム1は、視線誘導効果が高いVRコンテンツを制作するものであり、固定カメラ2と、撮影カメラ3と、映像演出処理装置4とを備える。
【0016】
固定カメラ2は、後記する撮影カメラ3で撮影した被写体9の動きを正確にトラッキングして、3次元データとしてデジタル化するボリューメトリックキャプチャを行うためのカメラである。この固定カメラ2は、被写体9を撮影した映像を映像演出処理装置4に出力する。この固定カメラ2が撮影した映像には、映像演出処理装置4によりボリューメトリックキャプチャが施される。例えば、固定カメラ2は、図示を省略した撮影スタジオの所定位置に固定されている。なお、
図1では、図面を見やすくするために、固定カメラ2を5台図示したが、固定カメラ2の台数は特に限定されない。
【0017】
撮影カメラ3は、被写体9を撮影する一般的な実写カメラであり、被写体9の撮影映像を映像演出処理装置4に出力する。この撮影カメラ3が撮影した映像は、2次元映像コンテンツの制作に用いられる。例えば、図示を省略したカメラマンが撮影カメラ3を操作して、被写体9の撮影を行う。このとき、固定カメラ2と撮影カメラ3とによる撮影を同時に行ってもよい。
なお、撮影カメラ3を仮想カメラとしてもよい。この場合、カメラマンは、カメラパラメータを入力可能なマニピュレータを用いて、仮想カメラを操作して被写体9を撮影する。
【0018】
映像演出処理装置4は、ボリューメトリックキャプチャ情報と、撮影カメラ3のカメラパラメータとを用いて、ボリューメトリックキャプチャで予め生成した被写体9のVRコンテンツに視線誘導効果を付加するものである。
【0019】
[映像演出処理装置の構成]
図2を参照し、映像演出処理装置4の構成について説明する。
図2に示すように、映像演出処理装置4は、ボリューメトリックキャプチャ手段40と、カメラパラメータ推定手段41と、視体積算出手段42と、3次元顕著性マップ生成手段43と、被写体認識手段44と、重要度ラベリング手段(重要度設定手段)45と、注視パラメータ推定手段(重要度乗算手段)46と、視線誘導手段47とを備える。
【0020】
ボリューメトリックキャプチャ手段40は、ボリューメトリックキャプチャにより、VRコンテンツ及びボリューメトリックキャプチャ情報を生成するものである。本実施形態では、ボリューメトリックキャプチャ手段40は、各固定カメラ2からの映像に後記するボリューメトリックキャプチャを施すことで、被写体9のVRコンテンツ及びボリューメトリックキャプチャ情報を生成する。そして、ボリューメトリックキャプチャ手段40は、生成したボリューメトリックキャプチャ情報及びVRコンテンツをカメラパラメータ推定手段41及び視線誘導手段47に出力する。
【0021】
なお、ボリューメトリックキャプチャとは、被写体9の3次元形状及び表面模様(例えば、テクスチャ等の表面特性)を時系列で取得する手法である。また、ボリューメトリックキャプチャ情報とは、ボリューメトリックキャプチャにより取得した被写体9の3次元形状及び表面模様を表す情報のことである。例えば、ボリューメトリックキャプチャとしては、参考文献1に記載の手法があげられる。
参考文献1:”4D Views”、[online]、株式会社クレッセント、[令和1年5月17日検索]、インターネット〈URL:https://www.crescentinc.co.jp/company/〉
【0022】
カメラパラメータ推定手段41は、カメラキャリブレーションにより、撮影カメラ3のカメラパラメータを推定するものである。本実施形態では、カメラパラメータ推定手段41は、撮影カメラ3からの撮影映像に一般的なカメラキャリブレーションを施すことで、撮影カメラ3のカメラパラメータを推定する。例えば、カメラキャリブレーションの手法としては、特開2011-118724号公報、及び、特開2014-127068号公報に記載の手法があげられるため、詳細な説明を省略する。そして、カメラパラメータ推定手段41は、推定したカメラパラメータ及び撮影映像を視体積算出手段42に出力する。
【0023】
なお、カメラパラメータは、カメラマンにより操作されている撮影カメラ3の位置及び姿勢、撮影画角を表しており、例えば、パン、チルト、ズーム、フォーカス位置、アイリス、レンズ主点の位置が含まれている。つまり、カメラパラメータには、2次元映像コンテンツの制作者のノウハウの一つである、カメラマンによるカメラワークが反映されていると考えられる。
【0024】
ここで、カメラパラメータ推定手段41は、撮影カメラ3が仮想カメラの場合、仮想カメラを操作するマニピュレータの操作結果に基づいてカメラパラメータを推定してもよい。この場合、カメラパラメータ推定手段41は、カメラパラメータ及びボリューメトリックキャプチャ情報を用いて、仮想カメラで撮影した映像をレンダリングし、仮想カメラのビューファインダ映像として、カメラマンに提示してもよい。
【0025】
視体積算出手段42は、カメラパラメータ推定手段41が推定したカメラパラメータのレンズ主点及び撮影画角で表される四角錐状の領域を、撮影カメラ3の撮影範囲である視体積として算出するものである。この視体積は、3次元空間でどのエリアが撮影対象となっているかを表すボリューム情報である。
図3に示すように、視体積Vは、レンズ主点V
Tが頂点となり、水平撮影画角θ
H及び垂直撮影画角θ
Vに応じたサイズとなる。また、底面V
Bは、奥行き方向で被写体9の背面まで視体積Vに収まるように、撮影カメラ3のフォーカス位置の近傍に設定される。従って、視体積Vには、2次元映像コンテンツの制作者が視線を誘導したい被写体9(例えば、人物の顔)が含まれている。
その後、視体積算出手段42は、算出した視体積Vを3次元顕著性マップ生成手段43及び被写体認識手段44に出力する。
【0026】
3次元顕著性マップ生成手段43は、ボリューメトリックキャプチャ手段40からのボリューメトリックキャプチャ情報を参照し、3次元顕著性マップを生成するものである。
図3に示すように、3次元顕著性マップ生成手段43は、視体積算出手段42が算出した視体積Vに含まれる被写体9について、3次元顕著性マップを生成する。そして、3次元顕著性マップ生成手段43は、生成した3次元顕著性マップを注視パラメータ推定手段46に出力する。
なお、
図3では、被写体9の全体のうち、視体積Vに含まれる被写体9の領域を実線で図示し、視体積Vに含まれない被写体9の領域を破線で図示した。
【0027】
3次元顕著性マップは、被写体9の3次元形状を平面の奥行き画像に変換した情報と、被写体9の表面模様を対象として、その勾配や色彩の目立ちやすさを数値化した情報とを表している。すなわち、3次元顕著性マップは、輝度値、色空間及び勾配方向という3つの特徴マップを生成し、各特徴マップから算出した注目度を表している。ここで、3次元顕著性マップは、視体積Vに含まれる被写体9毎に生成される。
【0028】
なお、2次元顕著性マップの一例は、参考文献2及び、参考文献3に詳細に記載されており、3次元顕著性マップも同様の手順で生成できるため、これ以上の説明を省略する。
参考文献2:Itti ,Koch, “A saliency-based search mechanism for overt and covert shifts of visual attention”, Vision Research, 40(2000), 1489-1506
参考文献3:ディジタル画像処理[改定新版]、公益社団法人画像情報教育振興協会、2015年3月9日、244頁-246頁
【0029】
被写体認識手段44は、機械学習により、視体積算出手段42からの視体積Vに含まれる被写体9の種類を認識するものである。この被写体の種類は、2次元映像コンテンツの台本に含まれる被写体9の種類を表しており、例えば、主役、主役の顔、脇役、エキストラ等である。例えば、被写体認識手段44は、ボリューメトリックキャプチャ情報を参照し、被写体9の3次元形状及び表面模様を対象として、各被写体9を上下左右前後の6方向から2次元映像にレンダリングする。そして、被写体認識手段44は、2次元映像としてレンダリングされた被写体9の種類を機械学習により認識する。なお、機械学習の手法としては、参考文献3に記載された手法があげられる。
参考文献3:Joseph Redmon, Ali Farhadi ,”YOLOv3: An Incremental Improvement“,2018.4.8
【0030】
ここで、被写体認識手段44は、被写体9の種類が顔である場合、機械学習により、「前方」又は「後方」のように顔の方向も認識してもよい。例えば、被写体認識手段44は、主役が正面を向いている場合、顔の方向を「前方」と認識する。
その後、被写体認識手段44は、認識した被写体9の種類を重要度ラベリング手段45に出力する。
【0031】
重要度ラベリング手段45は、被写体認識手段44からの被写体9の種類と、被写体9の種類毎に予め設定された重要度とをラベリング(対応付ける)ものである。さらに、重要度ラベリング手段45は、被写体9の種類が顔である場合、顔に視聴者の視線が集まりやすいので、被写体認識手段44が認識した顔の方向と重要度とをラベリングする。つまり、重要度ラベリング手段45は、
図4に示すように、被写体9の種類と、被写体9の方向と、重要度とを対応付けた重要度DBを生成する。そして、重要度ラベリング手段45は、生成した重要度DBを注視パラメータ推定手段46に出力する。
【0032】
「被写体の種類」は、被写体認識手段44が認識した被写体9の種類を表す。
「被写体の方向」は、被写体9の種類が顔である場合、その顔の方向(例えば、「前方」又は「後方」)を表している。
図4の例では、主役の顔の向きが「前方」になっている。
「重要度」は、2次元映像コンテンツにおける被写体9の重要度を表している。この重要度は、被写体9が重要であれば大きな値、被写体9が重要でなければ小さな値になる。ここで、重要度は、2次元映像コンテンツを制作する台本に含まれるワード(例えば、セリフ)に基づいて、手動で設定する。例えば、重要度は、台本に含まれるワードの出現頻度(例えば、TF-IDF)に基づいて設定する。
【0033】
注視パラメータ推定手段46は、3次元顕著性マップ生成手段43からの3次元顕著性マップ、及び、重要度ラベリング手段45からの重要度DBに基づいて、以下で説明するように、各ボクセルの注視パラメータ(重要度)を推定するものである。そして、注視パラメータ推定手段46は、推定した注視パラメータを視線誘導手段47に出力する。
【0034】
<注視パラメータの推定>
図5を参照し、注視パラメータの推定について説明する。
図5に示すように、注視パラメータ推定手段46は、視体積Vを複数のボクセル(分割領域)Bに分割する。その結果、視体積Vに含まれる被写体9もボクセルBに分割される。このボクセルBは、直方体であり、その個数及びサイズが撮影カメラ3の画角(アスペクト比)を基準として任意である。
図5の例では、撮影カメラ3の画角を4対3とし、水平方向に4個、垂直方向に3個、奥行き方向に4個、合計48個のボクセルBに視体積Vを分割している。また、
図5の例では、奥行き方向の分割数を水平方向又は垂直方向の分割数の大きい方に合わせている。また、視体積Vの底面V
Bは、ボクセルBに分割した際、撮影カメラ3のフォーカス位置が奥行方向でボクセル空間の中心となるように設定されている。なお、ボクセル空間とは、各ボクセルBの集合で構成される空間のことである。
【0035】
次に、注視パラメータ推定手段46は、重要度DBに格納されている重要度を、被写体9が分割されているボクセルBに割り当てる。これにより、ボクセルB毎に重要度が推定されることになり、重要度が各ボクセルBの注視パラメータとなる。
【0036】
次に、注視パラメータ推定手段46は、ボクセルB毎に重要度に、後記する第1係数及び第2係数を乗算する。つまり、注視パラメータ推定手段46は、2次元映像コンテンツの制作者が視線を誘導したい被写体9の重要度が高くなるように、第1係数及び第2係数を各ボクセルBの重要度に乗算する。この第1係数は、撮影カメラ3のフォーカス位置(ボクセル空間の中心)から各ボクセルBまでの距離が離れる程に小さくなるように予め設定された係数である。具体的には、第1係数は、下記の式(1)に示すように、距離Lの二乗に反比例し、この距離LはボクセルBの一辺を1としている。なお、Wは、1以上の任意の値で予め設定した重みを表す。
W/(L2+1) …式(1)
【0037】
ここで、ボクセルBに対応する被写体9の種類が顔である場合、下記の式(1-2)及び式(1-3)に示すように、顔の方向に応じて第1係数を設定してもよい。これにより、後記する視線誘導手段47において、2次元映像コンテンツの映像演出効果である「前空き」を実現できる。なお、W1及びW2は、1以上の任意の値で予め設定した重みを表し、例えば、「前空き」を実現する場合、W1>W2となるように設定する。
前方向:W1/(L2+1) …式(1-2)
後方向:W2/(L2+1) …式(1-3)
【0038】
また、第2係数は、撮影カメラ3の焦点深度に応じた係数である。具体的には、第2係数は、カメラパラメータの焦点深度に基づいて、ボクセルBがフォーカス位置から外れる程に小さくなるように予め設定された係数である。すなわち、第2係数は、カメラ光軸上の合焦位置を基準として、撮影カメラ3に近づく方向及び遠ざかる方向の両方で、合焦位置から離れるにつれて小さくなる。
【0039】
例えば、第1係数の重みW,W1,W2については、経験則より「2.0」に設定した。また、例えば、第2係数については、合焦時の解像度に対して、解像度が1/4となる限界位置で「0」とし、合焦位置で「2.0」とし、限界位置から合焦位置までの間を線形補間した値とした。
【0040】
図2に戻り、映像演出処理装置4の構成ついて説明を続ける。
視線誘導手段47は、注視パラメータ推定手段46が推定した重要度(注視パラメータ)を、ボリューメトリックキャプチャ手段40からのボリューメトリックキャプチャ情報に反映させたレンダリングパラメータを生成するものである。
【0041】
まず、視線誘導手段47は、各ボクセルBの重要度を正規化する。例えば、視線誘導手段47は、ボクセルBの重要度を「0」~「1」の値で正規化する。次に、視線誘導手段47は、ボリューメトリックキャプチャ情報の表面模様(色彩度)と正規化した重要度とを乗算する。これにより、各ボクセルの重要度が高いほど、色が鮮やかになる。さらに、視線誘導手段47は、3次元空間におけるフォーカス位置と、撮影カメラ3の撮像素子サイズ及びレンズの口径とから、レンダリングに反映させるボケフィルタのカーネルサイズと焦点距離との関係を示す係数を一般的なレンズモデルに基づいて算出し、算出した係数をレンダリングパラメータに反映させる。これにより、各ボクセルBでデフォーカスが表現される。
【0042】
そして、視線誘導手段47は、重要度や焦点深度が反映されたレンダリングパラメータをボリューメトリックキャプチャ手段40からのVRコンテンツに付加し、そのVRコンテンツを出力する。このように、VRコンテンツにおいて、視線を誘導したい被写体9の色が鮮やかになり、デフォーカスが表現される。
【0043】
[映像演出処理装置の処理]
図6を参照し、映像演出処理装置4の処理について説明する。
図6に示すように、ステップS1において、ボリューメトリックキャプチャ手段40は、ボリューメトリックキャプチャにより、VRコンテンツ及びボリューメトリックキャプチャ情報を生成する。
【0044】
ステップS2において、カメラパラメータ推定手段41は、カメラキャリブレーションにより、撮影カメラ3のカメラパラメータを推定する。
ステップS3において、視体積算出手段42は、ステップS2で推定したカメラパラメータのレンズ主点及び撮影画角で表される四角錐状の領域を、撮影カメラ3の撮影範囲である視体積Vとして算出する。
【0045】
ステップS4において、3次元顕著性マップ生成手段43は、ステップS1で生成したボリューメトリックキャプチャ情報を参照し、3次元顕著性マップを生成する。
ステップS5において、被写体認識手段44は、機械学習により、ステップS3で算出した視体積Vに含まれる被写体9の種類を認識する。
ステップS6において、重要度ラベリング手段45は、ステップS5で認識した被写体9の種類と、被写体9の種類毎に予め設定された重要度とをラベリングする。
【0046】
ステップS7において、注視パラメータ推定手段46は、3次元顕著性マップ及び重要度DBに基づいて、各ボクセルBの注視パラメータを推定する。
ステップS8において、視線誘導手段47は、注視パラメータをボリューメトリックキャプチャ情報に反映させたレンダリングパラメータを生成し、生成したレンダリングパラメータをVRコンテンツに付加する。
【0047】
[作用・効果]
以上のように、映像演出処理装置4は、視線を誘導したい被写体9の色が鮮やかになり、デフォーカスが表現されたVRコンテンツを生成する。このようにして、映像演出処理装置4は、2次元映像コンテンツの制作者が視線を誘導したい被写体9を注視させて、視線誘導効果が高いVRコンテンツを効率的に制作することができる。すなわち、映像演出処理装置4は、VRコンテンツの制作を効率化するだけでなく、VRコンテンツにおいて、制作者の意図を2次元映像と同レベルで伝えることが可能となる。
【0048】
さらに、映像演出処理装置4は、視聴者の視線が集まりやすい顔については、その方向も重要度に反映させる。これにより、映像演出処理装置4は、2次元映像コンテンツの制作で用いられる映像演出手法である「前空き」をVRコンテンツにも適用することができる。
【0049】
(変形例)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
【0050】
前記した実施形態において、カメラパラメータに含まれていないレンズ歪を考慮してもよい。つまり、レンズ歪については、レンズ歪モデルを予め選択しておき、レンズ歪に関連するカメラパラメータを用いて、レンズ歪モデルからレンズ歪み係数を設定する。そして、視体積算出手段が、設定されたレンズ歪係数が反映された撮影画角、及び、レンズ主点で表される四角錐状の領域を、視体積として算出する。これにより、レンズ歪の影響を受けやすい超広角レンズで撮影する場合でも、視体積を正確に求められるので、視線を誘導したい被写体を正確に注視させることができる。
【0051】
前記した実施形態において、ボリュームダイアルやGUI(Graphical User Interface)を介して、ユーザが手動で第1係数の重みを調整してもよい。また、被写体の種類及び第1係数をニューラルネットワークで学習し、学習した識別器を用いて、認識した被写体の種類に応じた第1係数を推定してもよい。
【0052】
視線誘導効果は、前記した実施形態に限定されない。例えば、重要度に基づいて所定の基準値を超えるボクセルを内包するバウンディングボックスを設定し、そのバウンディングボックスをVRコンテンツに含めてもよい。この場合、視聴者の視点に対応させて、バウンディングボックスを矩形実線で描画することで、注視させたい領域を明示(強調)してもよい。
【0053】
前記した各実施形態では、映像演出処理装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した映像演出処理装置として動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
【符号の説明】
【0054】
1 VRコンテンツ制作システム
2 固定カメラ
3 撮影カメラ
4 映像演出処理装置
40 ボリューメトリックキャプチャ手段
41 カメラパラメータ推定手段
42 視体積算出手段
43 3次元顕著性マップ生成手段
44 被写体認識手段
45 重要度ラベリング手段(重要度設定手段)
46 注視パラメータ推定手段(重要度乗算手段)
47 視線誘導手段