(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024180651
(43)【公開日】2024-12-26
(54)【発明の名称】自動映像演出装置、自動映像演出方法、及び、それに用いる映像記録媒体
(51)【国際特許分類】
H04N 5/91 20060101AFI20241219BHJP
G06T 19/00 20110101ALI20241219BHJP
【FI】
H04N5/91
G06T19/00 600
【審査請求】有
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2024184145
(22)【出願日】2024-10-18
(62)【分割の表示】P 2023047096の分割
【原出願日】2018-07-25
(71)【出願人】
【識別番号】000005810
【氏名又は名称】マクセル株式会社
(74)【代理人】
【識別番号】110001689
【氏名又は名称】青稜弁理士法人
(72)【発明者】
【氏名】大西 邦一
(72)【発明者】
【氏名】村田 誠治
(57)【要約】
【課題】
AR(拡張現実)やMR(複合現実)等に代表される次世代映像技術において、所定の情報処理装置を用いて、高度な映像演出による合理的かつシームレスな映像融合を自動的、自律的に行うための自動映像演出装置及び自動映像演出方法を提供することである。
【解決手段】
そのために、自動映像演出装置として、融合元となる親映像コンテンツの映像内容やシナリオを解読する機能部と、その解読結果から生成された各親映像オブジェクトやユーザに関する各種データを生成する各機能部と、各種データと融合対象の子映像オブジェクトに関する配役データ(当該映像オブジェクトの属性、特徴などを明示するデータ)を基に、所定の映像融合条件をクリアするよう融合対象となる親映像シーンの選択、子映像オブジェクト融合位置の決定、映像融合のための映像加工、編集手順の構築など所定の映像融合演出を行う機能部を設ける。
【選択図】
図1
【特許請求の範囲】
【請求項1】
映像融合元となる親映像の所定映像シーン内に当該親映像に含まれない所定の子映像オブジェクトを嵌め込みまたは融合処理を行う自動映像演出方法であって、
前記親映像内の所定の第1映像シーンにおける映像内容を解読し、当該解読結果を基に前記第1映像シーンから所定時間経過時に放映される第2映像シーンの映像内容を推定したうえで、
当該第2映像シーンにおける親映像内容推定結果を所定の記述形式でデータ化した所定の親映像推定データである処理データを生成する映像カット推定手段を備えることを特徴とする自動映像演出方法。
【請求項2】
請求項1に記載の自動映像演出方法であって、
前記処理データを基に、前記親映像内で映像化されている所定の親映像オブジェクト及び前記子映像オブジェクトを他の映像オブジェクトから識別、抽出し、所定のオブジェクト識別子を付加する映像オブジェクト識別抽出手段を備えたことを特徴とする自動映像演出方法。
【請求項3】
請求項2に記載の自動映像演出方法であって、
前記映像オブジェクト識別抽出手段によって識別、抽出された各映像オブジェクトに対して、所定の観点から当該映像オブジェクトの物理的な類別、属性または特徴を規定した物理的属性項目、あるいは
所定の観点から当該映像オブジェクトの社会的な類別、属性または特徴を規定した社会的属性項目、あるいは
当該映像オブジェクトの可視的な外観の類別または特徴を明示した項目、または
当該映像オブジェクトの非可視的な状態の類別または特徴を明示した項目、または
当該映像オブジェクト間の相互の関係性あるいは接続性を明示した項目、
に関する所定の情報を所定の記述形式でデータ化またはパラメータ化した所定の配役データである処理データを生成する配役データ生成手段を備えることを特徴とする自動映像演出方法。
【請求項4】
請求項2に記載の自動映像演出方法であって、
前記映像オブジェクト識別抽出手段によって識別、抽出された親映像オブジェクトのうち、前記親映像内の所定の親映像シーン内において映像化されている所定の親映像オブジェクトまたは子映像オブジェクトに対して、
当該親映像オブジェクトの当該親映像シーン内での3次元位置に関する項目、または
当該親映像オブジェクトの3次元方向に関する向きあるいは姿勢に関する項目、または
当該親映像オブジェクトの台詞あるいは表情、仕草、行動に関する項目、または
当該親映像オブジェクトまたは前記子映像オブジェクトに対して課せられる所定の制約条件、または
前記所定の親映像シーン内で前記子映像オブジェクトの嵌め込みまたは融合が許容される映像領域の指定を含む前記所定の親映像シーン全体に対して課せられる制約条件、
に関する所定の情報を所定の記述形式でデータ化またはパラメータ化した脚本データである処理データを生成する脚本データ生成手段を備えることを特徴とする自動映像演出方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、映像コンテンツの加工、編集を行う自動映像演出装置及び自動映像演出方法に関する。
【背景技術】
【0002】
近年「拡張現実(Augmented Reality;略称 AR)」や「複合現実(Mixed Reality;略称 MR)」などに代表される次世代向けの新しい映像が注目されている。これら次世代映像の分野においては、例えば前記ARやMRにおいて現実空間像(ユーザ実視認映像)と仮想映像(所定の映像オブジェクト等)とを、リアルタイムかつ合理的でシームレスに融合させる高度な映像技術が要求される。
【0003】
一方、例えば人工知能(AI)などに代表される高機能情報処理装置の出現により、映像の加工や編集など従来人間が行っていた映像処理作業を情報処理装置が自動的または自律的行うことも現実的に可能になりつつあり、そのための技術もいくつか開示されている。
【0004】
本技術分野における背景技術として、例えば特許文献1がある。特許文献1では、コンピュータ等の所定の情報処理装置が予め定められた演出手順に応じて一連の撮影指示命令を撮影装置に与え、その命令群に従い撮影された動画を自動編集する動画シーケンス合成用ビデオシステム技術が開示されている。
【先行技術文献】
【特許文献】
【0005】
【発明の概要】
【発明が解決しようとする課題】
【0006】
特許文献1は、所定の映像処理装置が予め定められた演出スキーム(演出の内容や手順を示す枠組み)に即して、映像の加工や編集処理作業を行うための技術を開示したものである。しかしながら、融合元の映像コンテンツが持つストーリー性やコンテンツイメージ等を損なうことなく、かつ映像オブジェクトの嵌め込み、融合により視聴者やユーザに対して所定の訴求効果が望めるような映像融合演出を自動、自律的に行うための映像技術に関して開示は無い。
【0007】
特に前記したARやMRのケースのように、シナリオ不定の現実空間像を映像の嵌め込みまたは融合元として、この現実空間像に所定の仮想映像をリアルタイムかつ合理的でシームレスに融合するための高度映像融合演出手段の創出は、次世代映像分野における一つの技術課題である。
【0008】
本発明は前記課題を解決するためになされたものであり、その目的とするところは、前記のような高度映像融合演出を自動的または自律的に実行するための自動映像演出装置、自動映像演出方法、及び、それに用いる映像記録媒体を提供することである。
【課題を解決するための手段】
【0009】
本発明は、上記背景技術及び課題に鑑み、その一例を挙げるならば、映像融合元となる親映像コンテンツの所定映像シーン内に当該親映像に含まれない所定の子映像オブジェクトを嵌め込みまたは融合処理を行う自動映像演出装置であって、親映像コンテンツの全部または一部の映像内容を解読、または当該親映像コンテンツを所定の親映像シーンに分割して、親映像の内容解読結果または親映像シーン分割結果を所定の記述形式でデータ化した所定の親映像解読データを生成する映像コンテンツ解読部を備える。
【発明の効果】
【0010】
本発明によれば、合理的でシームレスな映像融合を実現するための高度映像演出および加工、編集処理を自動、自律的に実行させることができる。
【図面の簡単な説明】
【0011】
【
図1】実施例1における自動映像演出装置の構成ブロック図である。
【
図2】実施例1における配役データ及び脚本データ生成プロセスの処理フローチャートである。
【
図3】実施例1における配役データの内容およびデータ構造を示した概略模式図である。
【
図4】実施例1における脚本データの内容およびデータ構造を示した概略模式図である。
【
図5】実施例1における配役データ及び脚本データ組込み済み映像コンテンツのデータストリーム構造を示した概略模式図である。
【
図6】実施例1における映像融合演出、加工、編集プロセスの処理フローチャートである。
【
図7】実施例1における映像融合演出、加工、編集プロセスの具体的な実施事例の概略を処理ステップ別に示した模式図表である。
【
図8】実施例2における処理プロセスのフローチャートである。
【
図9】実施例2における処理プロセスの流れを概念的に表した模式図である。
【
図10】実施例3における自動映像演出装置の構成ブロック図である。
【
図11】実施例3における処理プロセスのフローチャートである。
【
図12】実施例4における自動映像演出装置の構成ブロック図である。
【
図13】実施例4における処理プロセスのフローチャートである。
【
図14】実施例4における眼鏡型HMDによるAR表示の一実施事例を示した概略図である。
【
図15】実施例5における自動映像演出装置の構成ブロック図である。
【
図16】実施例5における処理プロセスのフローチャートである。
【
図17】実施例6における自動映像演出装置を用いたCM映像融合サービスシステムの概念図である。
【発明を実施するための形態】
【0012】
以下、図面を用いて本発明の実施例について説明する。
【実施例0013】
図1は、本実施例における自動映像演出装置の構成ブロック図である。
図1において、破線で囲まれた自動映像演出装置80は、映像コンテンツデータ読込み部1、映像コンテンツ解読部2、映像オブジェクト識別抽出部3、視聴者生体データ検知部4、視聴者仕草及び行動データ検知部5、周囲環境データ検知部6、配役データ生成部7、脚本データ生成部8、子(融合対象)映像オブジェクトデータ格納部9、処理データ格納部10、映像融合演出部11、映像加工、編集及びレンダリング部12、制御部20等の各機能部から構成されている。また各機能部は図に示すように共通のデータバス25に接続しており、このデータバス25を経由して所定の機能部間で互いにデータ信号や制御信号のやり取りを行える。
【0014】
次に各機能部の具体的な機能について説明する。なお本実施例においては、映像融合の融合元となる映像(以下簡単のため親映像と記す)コンテンツは、例えばドラマや収録済みのアーティストライブ映像など制作済みの映像コンテンツである。
【0015】
自動映像演出装置80内の映像コンテンツデータ読込み部1は、親映像コンテンツ50の映像データを読込む機能を備えている。
【0016】
また映像コンテンツ解読部2は、映像コンテンツデータ読込み部1から得た親映像コンテンツ50の映像データからその映像内容やシナリオを解読し、さらにその解読結果から当該親映像コンテンツ全編を所定の映像シーンに分割処理する機能を備えている。
【0017】
また映像オブジェクト識別抽出部3は、親映像コンテンツ50内に登場する人物や物体さらには背景、情景なども含めた映像対象物の一部または全てをそれぞれ個別の映像オブジェクトとして識別、抽出し、抽出された各映像オブジェクトに他の映像オブジェクトと区別するためのオブジェクト名あるいはID番号などの所定のオブジェクト識別子を付与する機能を備えている。
【0018】
一方、視聴者生体データ検知部4は、所定の生体センサ15により視聴者またはユーザ60の呼吸数、心拍数、体温、血圧、発汗量等々の生体データを検知、取得する機能を備えている。
【0019】
また視聴者仕草及び行動データ検知部5は、視聴者モニタカメラなど所定の視覚センサ16により、例えば視聴者の視線方向や表情の変化など視聴者またはユーザ60の仕草あるいは行動形態などに関する諸データを検知、取得する機能を備えている。
【0020】
さらに周囲環境データ検知部6は、所定の環境センサ17により温度、湿度、気圧、照度(明るさ)など視聴者またはユーザ60の周囲環境の状態に関するデータを検知、取得する機能を備えている。なお、これら検知、取得データは前記したデータに限定されるものではなく、必要に応じて任意のデータ項目を追加あるいは取捨選択しても一向に構わない。また各検知部についても当然のことながら、その全てが自動映像演出装置80内に装備される必要は無く、必要なデータ項目に応じて任意に追加あるいは取捨選択できるし、後述するように、これら検知、取得データを全く必要としない場合は、当然全て装備しなくても構わない。
【0021】
次に配役データ生成部7は、映像オブジェクト識別抽出部3で識別、抽出された親映像内の各映像オブジェクト(以下簡単のため親映像オブジェクトと記す)や、当該親映像に融合する対象である映像オブジェクト(子映像オブジェクトと記す)に対して、その物理的属性、社会的属性等々その映像オブジェクトの種別、特長、キャラクターなどを明示化したデータ(以下簡単のため配役データと記す)を生成し、それぞれ対応する映像オブジェクトに紐付けする機能を備えている。
【0022】
同様に脚本データ生成部8は、映像コンテンツ解読部2によって分割された親映像の各映像シーンに登場する各映像オブジェクトに対して、同じく映像コンテンツ解読部2において解読された親映像の放映内容やシナリオなどを基に解析した当該映像オブジェクトの位置や動き、移動などを所定のタイムテーブルに沿って明示化したデータ(以下簡単のため脚本データと記す)を生成し、それぞれ対応する映像シーン及び映像オブジェクトに紐付けする機能を備えている。なお、この脚本データ及び前記の配役データの具体的な内容については後述する。
【0023】
次に子映像オブジェクトデータ格納部9及び処理データ格納部10は、それぞれ所定の記憶装置またはサーバなどの記憶装置、あるいは磁気ディスクや光ディスクなど所定データ記憶媒体で構成されている。
【0024】
そして子映像オブジェクトデータ格納部9には、前記した子映像オブジェクトの映像データが格納、記憶されている。なお、ここに格納される子映像オブジェクトは単一の映像オブジェクトでも構わないし、視聴者やその周囲環境の状況あるいは親映像コンテンツの放映内容やシナリオに応じて自動映像演出装置80が自由に取捨選択できるように、複数の映像オブジェクトがライブラリーの形で格納されていても構わない。さらに、これら格納子映像オブジェクトは、時間経過や季節の推移など所定の条件に応じて逐次変更または更新される仕組みであっても一向に構わない。
【0025】
一方、処理データ格納部10には、配役データや脚本データなど自動映像演出装置80で生成または処理された諸データ、あるいは、これら各データを組み込んだ親映像のデータストリームなどが適宜格納される。
【0026】
なお
図1では、説明の便宜上、子映像オブジェクトデータ格納部9及び処理データ格納部10は各々独立した記憶装置で示されているが、当然のことながら同一の記憶装置を共用するような構成であっても構わない。
【0027】
また
図1では、子映像オブジェクトデータ格納部9や処理データ格納部10が自動映像演出装置80の内部に組み込まれた構成になっているが、本実施例はこのような構成に限定されるものでは無い。例えば、これらデータ格納部をクラウドのような外部サーバに設置し、所定の通信手段あるいはネットワークによって自動映像演出装置80とデータのやり取りや制御を行う構成であっても一向に構わない。
【0028】
次に映像融合演出部11は、配役データや脚本データなどの各種データを用いて、親映像コンテンツに子映像オブジェクトを融合するための「映像融合演出」処理を実行する機能を備えている。この「映像融合演出」処理の具体的な内容については後述する。
【0029】
次に映像加工、編集及びレンダリング部12は、「映像融合演出」処理結果に基づき、実際に映像の加工、編集またはレンダリング(映像描画)等の処理を実行する機能を備えている。なおこの映像の加工、編集またはレンダリング処理については、コンピュータグラフィクス技術や3Dモーフィング技術、シェーディング技術など所定のディジタル画像処理技術を駆使することで実行できるので、ここではその詳細な説明は省略する。
【0030】
最後に制御部20は、データバス25を通じて前記各機能部と繋がり適宜その機能を制御する機能を備えている。
【0031】
なお以上説明したように、
図1の実施例においては、説明の便宜上機能部ごとにブロック分けされた例を示したが、当然の事ながら本実施例の自動映像演出装置80は、実際に図のように分割された機能ブロックで構成される必要は無い。例えばAIなど所定の情報処理装置を用いて前記各機能部における処理を包括的に実行するような構成であっても一向に構わない。
【0032】
なお、このようにAI等の情報処理装置を本実施例の自動映像演出装置80として用いると、例えばディープラーニング技術など最新のAI技術を駆使することで、より人間の思考に近づいた高度な推定、判断能力を持って前記各処理プロセスを遂行させることができる。
【0033】
そして最後に、前記一連の処理を経て子映像オブジェクトが融合処理された親映像コンテンツは、映像再生部13で再生処理され所定の表示装置14を経て視聴者またはユーザ60に向けて再生または配信、放映される。
【0034】
次に本実施例における自動映像演出装置80の処理プロセスの実施例について説明する。
【0035】
本実施例における一連の処理プロセスは、最初に親映像コンテンツ全編にわたって配役データや脚本データを生成する「配役データ、脚本データ生成プロセス」と、次に当該処理プロセスで生成された配役データと脚本データを用いて映像融合演出及び映像の加工、編集、レンダリング処理を実施し、さらに必要に応じて子映像オブジェクトが融合された親映像コンテンツを視聴者またはユーザ60に向けて再生または配信、放映する「映像融合演出、加工、編集プロセス」の2段階の処理プロセスに分けられる。
【0036】
まず初めに「配役データ、脚本データ生成プロセス」の処理フローについて説明する。
図2は本実施例における配役データ、脚本データ生成プロセスのフローチャートである。
【0037】
図2において、まず処理ステップ101(S101、以降、処理ステップをSと略す)において、親映像コンテンツの全編及び子映像オブジェクトの映像データの全ての読込みが実行される。
【0038】
そして次のS102において、親映像コンテンツ50内に登場する人物や物体さらには背景、景色なども含めた映像対象物の一部または全部が、それぞれ個別の親映像オブジェクトとして識別、抽出され、抽出された各親映像オブジェクトおよび別途読込まれた子映像オブジェクトに他の映像オブジェクトと区別するためのオブジェクト名あるいはID番号などの所定のオブジェクト識別子が付与される。
【0039】
さらに次のS103において、S102で識別、抽出した各親映像オブジェクトの位置や動き、台詞などから、親映像コンテンツ全編の映像内容やシナリオすなわちコンテンツのストーリー、世界観あるいは映像演出の枠組みなどが解読され、さらにその解読結果に基づきコンテンツ全編が所定の映像シーンに適宜分割処理される。そして解読された映像内容情報やシナリオ情報、あるいは映像シーン分割情報は、所定のデータ記述言語あるいはフォーマットでデータ化され適宜処理データ格納部10に格納される。
【0040】
そして次のS104では、前段の処理ステップで識別、抽出された各親映像オブジェクト(以下親映像オブジェクト)や子映像オブジェクトに対して、それぞれ後述するような所定の配役データが生成される。さらに次のS105で、当該親映像配役データがそれぞれ対応する親映像オブジェクトに紐付けされた上で親映像コンテンツの映像データストリームに組み込まれる。また子映像オブジェクトに関する配役データもそれぞれ対応する親映像オブジェクトに紐付けされた上で子映像オブジェクトデータ格納部9あるいは処理データ格納部10または前記以外の所定のデータ格納部に書き込まれる。
【0041】
その後、次のS106において、まずシーン番号Nを1とし、次のS107において親映像コンテンツの先頭からN番目のシーンが選択される。
【0042】
さらに次のS108では、当該親映像の映像シーン内に登場する各親映像オブジェクトに対して、後述するような所定の脚本データが生成され、次のS109で、当該脚本データがそれぞれ対応する映像シーンおよび映像オブジェクトに紐付けされた上で、親映像コンテンツの映像データストリームに組み込まれる。
【0043】
ここで、前記配役データ及び前記脚本データの内容および構成に関する実施例について説明する。
【0044】
図3は、本実施例における前記のS104で生成される配役データの内容およびデータ構造を示した概略模式図である。
【0045】
配役データとは、S103において識別、抽出された各親映像オブジェクトおよび子映像オブジェクトが、それぞれ親映像コンテンツ内あるいはそれ単独でどのような位置づけや役割を担っているかを、自動映像演出装置80に確実に認識させるために生成されるデータである。
【0046】
したがって、この配役データは、前記各映像オブジェクトに対して、S103で解読された当該親映像コンテンツの映像内容情報やシナリオ情報あるいは映像オブジェクト自体の解析情報に基づき、例えば
図3に示すような項目、すなわち、
(a)物理的属性(対象物の物理的類別や属性を明示する項目)
(b)社会的属性(人物、動物については社会的属性や性格、キャラクターなど映像コンテンツ内でその人物や動物を特徴づける事項、あるいはその他物理的属性では明示できないオブジェクトに関する項目)
(c)可視的状態(形状、寸法、色など映像から認識可能な状態を明示する項目)
(d)非可視的状態(重量、温度、触感など映像では認識不可能または困難な状態を明示する項目)
(e)相関パラメータ(人間関係、社会的関係、あるいはオブジェクト同士の物理的、化学的相互関係などオブジェクト間の関係性を明示する項目)
等々、当該映像コンテンツにおける各映像オブジェクトの分類、属性、役割、位置づけ、特徴、キャラクターなどに関する必要諸情報がデータ化あるいはパラメータ化され、対応する映像オブジェクト毎に紐付けされ包括管理されたデータ群またはパラメータ群で構成される。
【0047】
一方、
図4は、本実施例における前記S108で生成される脚本データの内容およびデータ構造を示した概略模式図である。
【0048】
脚本データとは、個々の親映像コンテンツに関してちょうどドラマや演劇などで作成、使用される脚本に相当する情報を、自動映像演出装置80に確実に認識させるために生成されるデータである。したがってこの脚本データは、前記各映像シーン及び当該シーン内に登場する各映像オブジェクトに対して、S103で解読された当該親映像コンテンツのシーン毎の映像内容情報やシナリオ情報あるいは映像オブジェクト自体の解析情報に基づき、例えば
図4に示すような項目、すなわち、
(a)当該映像オブジェクトのシーン内における3次元位置
(b)当該映像オブジェクトの向きや姿勢
(c)当該映像オブジェクトの台詞(台詞があるオブジェクトの場合)、表情、仕草、行動
(d)各映像オブジェクトあるいはシーン全体に課せられる所定の制約条件
等々、当該映像シーン内における各映像オブジェクトの位置や動きあるいはそれらに課せられる制約条件などに関する情報がデータ化あるいはパラメータ化され、対応する映像シーン及び映像オブジェクト毎に紐付けされ包括管理されたデータ群またはパラメータ群で構成される。
【0049】
なお前記した配役データや脚本データの各項目は、あくまで一実施例であり勿論これに限定されるものではない。後述する映像演出への必要性に応じて、所定の項目に関する情報をデータ化あるいはパラメータ化して追加しても構わないし、任意に取捨選択しても構わない。
【0050】
また、この配役データや脚本データ、あるいは前記の映像内容情報データやシナリオ情報データ、あるいは映像シーン分割情報データなどを記述するデータ記述言語あるいはフォーマットについては、当然のことながら自動映像演出装置が認識できるものであれば、どのような記述言語、フォーマットであっても構わない。
【0051】
ここで再び
図2の「配役データ、脚本データ生成プロセス」の処理フローについての説明に戻る。
前記のS109に引き続きS110では、親映像の全シーンについて関して脚本データの生成、組込みが完了したか否かが判定される。判定が「Yes」の場合は、次のS111にて配役データや脚本データが組み込まれた親映像データストリームが処理データ格納部10またはそれ以外の所定のデータ格納部に書き込まれ、さらに各子映像オブジェクトに紐付けされた配役データも子映像オブジェクトデータ格納部9もしくは処理データ格納部10に書き込まれる。一方「No」の場合はS112にてN=N+1の処理がなされ、S107に戻り、一連の処理プロセスが繰り返される。
【0052】
図5は、本実施例における配役データ及び脚本データが組み込まれた親映像コンテンツのデータストリーム構造を示している。
図5(a)は当該データストリームの先頭に配役データ及び脚本データを一括して配置したデータ構造例を示しており、
図5(b)は配役データのみデータストリームの先頭に配置し、脚本データはシーン毎に分割された各映像データの先頭に配置したデータ構造例を示している。
【0053】
なお、
図5は単に2つの実施例を示したものであって、当該データストリーム構造は本実施例に限定されるものではない。当然のことながら、自動映像演出装置80が自由に読込み、書き出しできるものであればどのようなデータ構造でも一向に構わない。
【0054】
最後に以上の処理フローに従い、親映像コンテンツの全シーンに対して配役データ及び脚本データの生成、組込み処理が完了すると、S113にて一連の「配役データ、脚本データ生成プロセス」を終了するか否かが判定される。判定が「Yes」の場合は一連の「配役データ、脚本データ生成プロセス」の処理プロセスが終了する。一方「No」の場合は、S101に戻り、引き続いて別の親映像コンテンツに対して一連の「配役データ、脚本データ生成プロセス」が繰り返される。
【0055】
次に、もう一つの処理プロセスである「映像融合演出、加工、編集プロセス」の処理フローについて説明する。
図6は本実施例における映像融合演出、加工、編集プロセスのフローチャートである。
【0056】
図6において、まずS121において、前記の「配役データ、脚本データ生成プロセス」で生成され所定のデータ格納部に格納されている配役データ及び脚本データ組込み済み親映像コンテンツの映像データストリームや、全ての子映像オブジェクトデータ(子映像オブジェクトの映像データ及び当該子映像オブジェクトに紐付けされた配役データ)が読込まれる。
【0057】
なお、ここで読込まれる配役データ及び脚本データ組込み済みの親映像データストリームは、前記の「配役データ、脚本データ生成プロセス」で生成された映像データストリームに限定されるものではない。当然他の映像機器または処理プロセスで生成されたものでも構わないし、例えば手動によって作成された配役データ及び脚本データなどと元の映像コンテンツデータストリームをそれぞれ別個に読込んでも構わない。
【0058】
次のS122では、視聴者生体データ検知部4から視聴者またはユーザ60の呼吸数、心拍数、体温、血圧、発汗量等々の生体データが検知、取得される。また同時に、視聴者仕草及び行動データ検知部5から当該視聴者またはユーザ60の視線方向や顔の表情など仕草あるいは行動形態などに関するデータが、さらに周囲環境データ検知部6から温度、湿度、気圧、照度(明るさ)など当該視聴者またはユーザ60の周囲環境状態に関する諸データが検知、取得される。
【0059】
なおこれら検知データの種類については本実施例に限定されるものではなく、必要に応じて任意に追加あるいは取捨選択して構わない。
【0060】
次にS123では、S122で検知、取得された各データから、自動映像演出装置80自身が視聴者またはユーザ60の健康状態や生理状態、さらには心理状態例えば感情、嗜好、欲求、興味の対象物などを推定する。
【0061】
なお勿論、本実施例における自動映像演出装置80は、以上説明したように視聴者またはユーザ60に関する健康状態、生理状態、心理状態の推定結果をもって後述する最適映像オブジェクトの選択条件とするものに限定されるものではなく、どのような選択条件で選択しても構わない。その場合は当然のことながらS122で取得対象となるデータは前記した各データに限定されるものではなく、選択条件に合わせて任意に変更して構わないし、選択条件によってはこのような視聴者状況に関するデータを必要としない場合もある。そのような場合は、当然のことながらS122やS123をスキップまたは当該処理ステップ自体を省略しても一向に構わない。
【0062】
そして次のS124では、検知、取得した各データ、あるいはそこから推定される視聴者またはユーザ60の健康状態、生理状態、心理状態を基に、その時点でどのような子映像オブジェクトを親映像に嵌め込みまたは融合すれば、最も適切な訴求効果を生み出すかを自動映像演出装置80自身が判断し、単独または複数ある子映像オブジェクトの中から最適な子映像オブジェクトが選択される。
【0063】
さらに次のS125では、親映像コンテンツの各シーンの中から選択した子映像オブジェクトを融合すべき融合元映像シーンが選択される。
【0064】
また次のS126では、当該映像シーンの中で対象の子映像オブジェクトの嵌め込みまたは融合する画面位置が指定される。
【0065】
ここで特に注意しなければならないのは、当該映像シーン中の前記子映像オブジェクト嵌め込みまたは融合位置に何らかの親映像オブジェクトが存在している場合である。このような場合は、対象の子映像オブジェクトと親映像オブジェクトとの前後関係や重畳関係に注意してこの両映像オブジェクトが違和感無く自然かつシームレスに嵌め込みまたは融合して見えるように、所定の映像加工や編集を行う必要がある。この映像加工や編集による映像演出の枠組みを決めるのが、次のS127である。
【0066】
すなわち、このS127では、選択された子映像オブジェクトを対象の親映像オブジェクトまたは画面位置に違和感無く自然かつシームレスに融合するために、当該子映像オブジェクトまたは当該親映像オブジェクトあるいはその他親映像画面に施すべき具体的な映像加工、編集の内容や手順を明示した「映像加工編集スキーム」が構築される。
【0067】
なお、このS124、S125、S126及びS127の4段階の処理ステップは、主として
図1に示した本実施例のブロック図中の映像融合演出部11で実行される処理プロセスであり、本実施例の最も主要な構成要件である。以下では説明の便宜上、当該処理プロセスを総称して「映像融合演出」ステップと記す。
【0068】
この「映像融合演出」プロセスでは、S127で読み込んだ各親映像オブジェクトに関する配役データや脚本データと、各子映像オブジェクトの配役データ、さらにはS122で得られた各種データとそれに基づきS123で得られた視聴者またはユーザ60の健康状態、生理状態、心理状態の推定結果等の各種データを基にして、自動映像演出装置80自身の判断で前記した子映像オブジェクト及び親映像融合対象シーンの選択、子映像オブジェクト融合位置の指定、「映像加工編集スキーム」の構築を実行する。
【0069】
各処理の実行に当たっては、例えば、以下に示すような「映像融合条件」をクリアするように最適処理がなされる。
(a)親映像コンテンツの放映内容やシナリオから想起されるコンテンツのストーリー性やコンテンツイメージを阻害しない事。
(b)子映像オブジェクトの融合により所定の訴求効果が生まれる事。
(c)子映像オブジェクトの融合により非合理性や物理的矛盾が無い事。
(d)子映像オブジェクトの融合により視聴者へ違和感や嫌悪感を与え無い事。
なお、上記「映像融合条件」例のうち(c)の「非合理性や物理的矛盾が無い事」とは、具体的に云うと、例えば何ら支えが無いのにも関わらず物体が空中に浮いていたり、あるいは実体物が壁をすり抜けたりするような非合理的な映像が存在しないということを意味している。
【0070】
しかしながら、例えば他の「映像融合条件」をクリアするため敢えてファンタジー的あるいはSF的な映像演出を行うことが適当であると判断された場合は、上記のような非合理性や物理的矛盾がある演出でも許容される。
【0071】
このように前記「映像融合条件」は各条件のバランスを考慮して適宜緩和あるいは強化することが可能である。さらに、この「映像融合条件」については、前記した(a)~(d)の各項目はあくまで一例であり、当然のことながら当該項目にのみ限定されるものではない。自動映像演出装置80の使用者あるいは管理者が任意に追加、削除、変更しても一向に構わない。
【0072】
次にS128では、前記「映像融合演出」ステップに引き続き、その処理結果に基き、実際に映像加工、編集、レンダリング等の映像融合処理を実行するか否かが判定される。「Yes」の場合は、次のS129で実際に映像の加工、編集またはレンダリングの処理が実行される。なおこの映像の加工、編集またはレンダリング処理については、前記したようにコンピュータグラフィクス技術や3Dモーフィング技術、シェーディング技術など所定のディジタル画像処理技術を駆使することで実行できるので、その詳細な説明は省略する。一方「No」の場合は、このS129はスキップされ、次のS130において、一連の「映像融合演出、加工、編集プロセス」が親映像コンテンツ全編に対して完了したか否かが判定される。判定が「Yes」の場合は、処理フローが再びS122に戻り一連のプロセスが繰り返される。一方「No」の場合は、次のS131に移る。
【0073】
そして、このS131では、前記「映像融合演出」ステップで得られた融合対象の親映像シーンの選択結果や融合対象親映像オブジェクトまたは画面位置の指定結果、さらには前記「映像加工編集スキーム」などの諸データを所定の映像融合演出用データとして処理データ格納部10に書き込む処理がなされる。また併せて一連の映像融合処理が完了した親映像コンテンツの映像データストリームも処理データ格納部10またはそれ以外の所定のデータ格納部に書き込まれる。
【0074】
また次のS132では、一連の映像融合処理が完了した親映像コンテンツを再生するか否かが判定される。判定が「Yes」の場合は次のS133で実際に映像の再生あるいは配信、放映が実行される。一方「No」の場合は、このS133はスキップされ、「映像融合演出、加工、編集プロセス」に関する一連の処理フローが完了する。
【0075】
なお本実施例では、説明の便宜上一連の「映像融合演出、加工、編集プロセス」が親映像コンテンツ全編に対して完了した後で、改めて映像融合処理済みの親映像コンテンツの再生あるいは配信、放映処理が実行される処理フローについて説明したが、本実施例はそれに限定されるものではない。すなわち「映像融合演出、加工、編集プロセス」を先行させながら、並行して映像融合処理済み親映像コンテンツの追っかけ再生または配信、放映を行う仕組みであっても勿論構わない。
【0076】
次に、具体的な処理事例を使って
図6で説明した「映像融合演出、加工、編集プロセス」の各処理ステップにおける具体的な処理手順を説明する。
【0077】
図7は、ある映像融合処理事例に関して、前記「映像融合演出、加工、編集プロセス」における処理ステップ別の具体的処理手順を示した模式図表である。ここで紹介する処理事例は、映像融合元となる制作済み親映像コンテンツとして、あるアイドル(仮名(A))のライブコンサート映像を取り上げ、当該制作済みライブコンサート映像に、ある飲料メーカ(仮名(B)社)が発売している製品をCM映像として組み込んで配信、放映する事例である。なおこの制作済み親映像コンテンツは、既に前記「配役データ、脚本データ生成プロセス」により所定の配役データ及び脚本データの生成、映像データストリームに組込まれているものとする。
【0078】
また
図7において、処理ステップ欄に記載されている文字は、
図6で説明した各処理ステップ名に相当し、処理内容欄は当該処理ステップにおける処理内容の概要を記している。そして具体的処理事例欄で本事例における具体的処理内容を文章と模式図を用いて説明している。
【0079】
図7において、(B)社からCM映像提示のリクエストがあると、まず配役及び脚本データが組込まれた当該ライブコンサート映像データストリームが自動映像演出装置80に読み込まれる(S121)。
【0080】
次に自動映像演出装置80は、各種センサから視聴者の生体状況や表情、注視対象物(=興味対象物)、周囲環境などに関するデータを検知、取得する(S122)。
【0081】
そして、これら検知、取得データから自動映像演出装置80は、視聴者60は現在喉が渇いており、何らかの飲料水を欲している状態と推定。当該ライブ映像の中に飲料水の映像を組み込むと高いCM訴求効果が得られるものと判断する(S123)。
【0082】
そこで親映像に組込む子映像オブジェクト(CM映像対象物)として、(B)社製清涼飲料水ペットボトル(C)の映像を選択し、その映像オブジェクトデータを読込む(S124)。
【0083】
次に自動映像演出装置80は、親映像コンテンツがアイドル(A)を主役とするライブコンサートの映像であることを認識し、そのコンテンツイメージを阻害せず、かつ所定のCM訴求効果が得られる映像演出として、ライブコンサート中にアイドル(A)がダンスをする映像シーンの中に、子映像オブジェクトであるペットボトル(C)の映像を自然に融合させることを決定。親映像コンテンツの映像シーンの中から映像融合元となるダンスシーンを選択する(S125)。
【0084】
さらに選択したダンスシーン内で、具体的な子映像オブジェクト(ペットボトル(C))の嵌め込み位置として、アイドル(A)の右手を指定。あくまで自然でシームレスな映像融合を実践するために、アイドル(A)がペットボトル(C)を右手で持ってダンスする映像に演出を変更することを決定する(S126)。
【0085】
そこで自動映像演出装置80は、次に、何も手にしていない元の親映像から右手にペットボトル(C)持ってダンスする映像に演出変更するため、親映像側や子映像オブジェクトにどのような映像加工あるいは編集を施せばよいか、その具体的な内容や手順が明示された「映像加工編集スキーム」を、自身の判断で構築していく(S127)。
【0086】
ここで当該「映像加工編集スキーム」の概要としては、例えば
図7に示すように、
(a)(A)の右手の各手指とペットボトルの重畳状態(前後関係)を整合
(b)(A)の開いた右手指の映像を、ペットボトルを持つ手指の映像に加工
(c)ペットボトルに照射する照明光の照射状態や照り返し状態を調整
(d)ペットボトルが作る影の追加と変更した手指が作る影の変更
等が挙げられる。なお上記は「映像加工編集スキーム」の一例でかつその概要であり、実際はもっと具体的で詳細なスキームが構築される。
【0087】
そして、このようにして構築された「映像加工編集スキーム」は、コンピュータグラフィクス技術や3Dモーフィング技術、シェーディング技術など所定のディジタル画像処理技術を駆使することで、実際の動画映像に施される(S129)。
【0088】
そして最後に、子映像オブジェクト(ペットボトル(C))が正しく融合処理された親映像コンテンツ、すなわち所定のダンスシーンでアイドル(A)がペットボトル(C)を持ちながらダンスするシーンを含むライブ映像が視聴者60に対して配信、放映される(S133)。
【0089】
以上述べてきたように、本実施例の自動映像演出手段または装置を用いると、所定の映像コンテンツの中に当該映像コンテンツとは独立した所定の映像オブジェクトを、当該映像コンテンツのストーリー性やコンテンツイメージを阻害することなくごく自然かつシームレスに融合させることが出来る。
【0090】
さらに本実施例の自動映像演出装置によれば、融合させる映像オブジェクトを、視聴者あるいはユーザ個々人の感情、嗜好、欲求、興味などに適合するよう選択する、あるいは視聴者またはユーザのほぼリアルタイム(例えば、まさに当該映像コンテンツを鑑賞している最中)の状況変化に合わせてその時々に有効な映像融合を適宜実行するなどの柔軟な対応が可能である。
【0091】
したがって、このような特徴を考慮すると、本実施例のような自動映像演出装置は、
図7で紹介したような映像コンテンツへのCM映像組込み用途として非常に有効であるといえる。
【0092】
なお、このように本実施例の自動映像演出装置を所定の映像コンテンツへのCM映像組込み用途等で用いる場合は、対象のCM映像が親映像コンテンツに嵌め込みまたは融合表示される回数や時間などをカウントして、そのカウント結果に応じて、CM提供に制限を加える、あるいはCMスポンサー側に所定のCM料金を課金、請求する仕組みなどを組み合わせることもできる。勿論本実施例における自動映像演出装置は、前記のような映像コンテンツへのCM映像組込み用途に限定されるものではなく、どのような用途に用いても構わない。
実施例1では、初めに「配役データ、脚本データ生成プロセス」により、一旦親映像コンテンツ全編に対して配役データ及び脚本データを生成し、親映像データストリームへの組込みを実施した後に、改めて「映像融合演出、加工、編集プロセス」によって子映像オブジェクトの映像融合処理を行う2段構えの実施例であった。
これに対して、親映像コンテンツを再生または配信、放映しつつ、並行して親映像コンテンツを先行読み込みして子映像オブジェクトの嵌め込み、融合処理を行うことも可能である。
そこで、本実施例では、親映像コンテンツの再生または配信、放映処理と当該親映像コンテンツへの映像融合演出、加工、編集処理とを同時並行的に実行する自動映像演出装置を、親映像コンテンツを放映あるいは配信する映像コンテンツ供給サーバ等に設置する例について説明する。
次にS202において、親映像コンテンツの映像データ読込みが開始される。そして次のS203で自動映像演出装置80は、親映像コンテンツの再生を開始すると共に、同時並行で現再生シーンから所定時間例えば数秒から数十秒先までに再生または配信、放映される親映像の映像データを先行して読込む。
次にS205では、S204で識別、抽出した各親映像オブジェクトの位置や動き、台詞などの情報データから、当該先行読込み済みの映像に関して、その映像内容やシナリオが解読され、さらにそれら解読情報を基に必要に応じて所定の映像シーンに適宜分割される。
なお、このようなコンテンツの途中段階での映像解読の場合、当然のことながら、親映像データの読込み、解読が進行するに従って解読されていく映像内容情報やシーン分割情報は順次追加される。そして、これら追加情報に基づき、配信、放映の開始時からその時点までの映像コンテンツのシナリオ情報にも所定の追加、変更あるいは修正が加えられる形で逐次更新されていく。
そこで本実施例における映像コンテンツ解読部2あるいはそれを制御する制御部20は、このような映像内容情報やシナリオ情報、シーン分割情報などを前記のように追加あるいは変更、修正が加えられた最新の情報データに逐次更新したうえで、所定の処理データ格納部10に格納する機能をも備えている。
そして次のS206では、先行読込みした親映像シーンが、子映像オブジェクトを嵌め込みまたは融合すべき対象の親映像シーンであるか否かが判定される。そして判定が「Yes」の場合は後述のS207以降に進む。一方「No」の場合は、後述のS207からS210はスキップされ、S211に飛ぶ。
次のS207では、子映像オブジェクトが複数種類ある場合にその中から選択された対象親映像シーンへの嵌め込みまたは融合の対象となる子映像オブジェクトが選択される。
さらに次のS209では、選択された子映像オブジェクトを対象の親映像オブジェクトまたは画面位置に違和感無く自然にかつシームレスに融合するために、当該子映像オブジェクトまたは当該親映像オブジェクトあるいはその他親映像画面に施される具体的な映像加工、編集の内容や手順を明示した「映像加工編集スキーム」が構築される。
ただし本実施例は、実施例1の場合と異なり、親映像コンテンツを再生または配信、放映しながら並行して先読みした親映像コンテンツの映像データから一連の処理を実行するので、実施例1の場合に比べ時間的な制約が多く、より高速な処理が求められる。
そこでS206やS207あるいはS208における各判定、選択、指定処理ステップでは、例えば子映像オブジェクト側の配役データの一部または全部を所定のキーワードとして、そのキーワードに対する各親映像シーンの適合性あるいは訴求効果等を所定の数値あるいはパラメータで評価し、その大小を判定や選択の基準にすることで高速に処理を行う手法などを用いることができる。
例えば「映像加工編集スキーム」として、親映像の所定映像シーンに嵌め込む子映像オブジェクトと当該親映像シーン内の既存の親映像オブジェクトとの前後関係または重複関係だけを規定する映像融合演出や、あるいは選択された所定の子映像オブジェクトまたはその一部を同じく選択された親映像の所定映像シーン内の指定画面位置に嵌め込むだけの演出とし、映像自体の加工や編集の演出手順を全て省略するような映像融合演出であっても勿論構わない。
そして次のS211では、上記の子映像嵌め込みまたは融合処理済みの親映像データを所定の処理データ格納部10に逐次書き込んでいく処理が行われる。なお、ここでは前記映像データと併せて、前記の「映像融合演出」処理で得られた融合対象の親映像シーンや子映像オブジェクト、あるいは当該融合対象親映像シーン内で対象の子映像オブジェクの嵌め込みまたは融合する画面位置の指定結果、さらには「映像加工編集スキーム」など「映像融合演出」関連の諸データ等を書き込みあるいは更新する処理を行っても構わない。
そして次のS212では、S211で処理データ格納部10に書き込まれた映像嵌め込みまたは融合処理済みの親映像データが読出され、現再生映像シーンの次の映像シーンが再生または配信、放映される。
そして次のS213で、親映像コンテンツの全シーンが再生または配信、放映されたか否かが判定される。判定が「No」の場合はS203まで戻り一連の処理プロセスが繰り返される。一方「Yes」の場合は、一連の処理プロセスが終了する。
そして次に、親映像コンテンツの映像データを先頭から所定の映像シーンあるいは映像カットごとに先読みし、読込んだ親映像シーンまたはカットごとに対象の子映像オブジェクトを嵌め込むか否かの判定し、さらに嵌め込み位置のスキャン(検索)を行う。例えばこれをn番目のシーンまたはカットとする。
そして次のステップでは、このn番目の親映像シーンまたはカットが子映像オブジェクト嵌め込み対象であった場合、実際に親映像シーンまたはカットの指定位置に子映像オブジェクトを嵌め込む処理を行う。また同時に、次のn+1番目の親映像シーンまたはカットに対して前記先読み処理他が行われる。
さらに次のステップでは、前記n番目の親映像シーンまたはカットを映像再生しつつ、同時に前記n+1番目の親映像シーンまたはカットに対して前記の子映像オブジェクト嵌め込み処理と、さらにn+2番目の親映像シーンに対する前記先読み処理他が行われる。
このように複数の処理ステップを逐次かつ同時並行的に行う処理プロセスは、一般にパイブライン処理と呼ばれるが、本実施例ではこのようなパイプライン処理を採用することで、所定の親映像コンテンツを再生または放映、配信しつつ、併行して当該親映像コンテンツ内への所定の子映像オブジェクトの嵌め込み映像演出をほぼリアルタイムに実行することが可能となる。
さらにまた、本実施例のような自動映像演出装置を映像コンテンツへのCM映像組込み用途等に用いる場合は、実施例1と同様に、対象のCM映像が親映像コンテンツに嵌め込みまたは融合表示される回数や時間などをカウントして、そのカウント結果に応じて、CM提供に制限を加える、あるいはCMスポンサー側に所定のCM料金を課金、請求する仕組みなどを組み合わせることもできる。
以上のように本実施例によれば、親映像コンテンツを再生または配信、放映しつつ、並行して親映像コンテンツを先行読み込みして子映像オブジェクトの嵌め込み、融合処理を行うことができる。