(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022042153
(43)【公開日】2022-03-14
(54)【発明の名称】立体撮影モデル生成システムおよび立体撮影モデル生成方法
(51)【国際特許分類】
H04N 5/232 20060101AFI20220307BHJP
H04N 7/18 20060101ALI20220307BHJP
G06T 19/00 20110101ALI20220307BHJP
G03B 35/08 20210101ALI20220307BHJP
G03B 15/00 20210101ALI20220307BHJP
【FI】
H04N5/232
H04N7/18 E
G06T19/00 A
G03B35/08
G03B15/00 H
G03B15/00 M
【審査請求】有
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2020147419
(22)【出願日】2020-09-02
(71)【出願人】
【識別番号】512092782
【氏名又は名称】株式会社クレッセント
(74)【代理人】
【識別番号】110001508
【氏名又は名称】特許業務法人 津国
(72)【発明者】
【氏名】小谷 創
(72)【発明者】
【氏名】小林 達彦
【テーマコード(参考)】
2H059
5B050
5C054
5C122
【Fターム(参考)】
2H059AA07
2H059AA18
5B050BA09
5B050DA07
5B050EA06
5B050EA28
5C054CA04
5C054CC02
5C054EA01
5C054EA07
5C054FC03
5C054FC13
5C054FC14
5C054FD02
5C054FD07
5C054FE05
5C054FF02
5C054GB01
5C054GB05
5C122DA36
5C122EA42
5C122EA61
5C122EA67
5C122FA04
5C122FA18
5C122FD10
5C122FH03
5C122HA88
(57)【要約】
【課題】簡素な構成で実現でき、誰もが手軽に楽しめて取り扱うことができる立体撮影モデル生成システムを提供すること。
【解決手段】立体撮影モデル生成システムは、被写体OBを複数の方向から撮影するための複数の撮影装置20であるカメラ201~204と、複数の撮影装置201~204が被写体OBを撮影することで得られる画像データに基づいて該被写体OBの立体撮影モデルを生成するよう構成された演算処理装置10であるコントローラ110および画像処理サーバ120とを含む。カメラ201~204に用いられる撮像レンズ系221の被写界深度DOFが、光軸Ax上において焦点が合う位置CIFを中心に±0.5~±1.5mに設定されている。
【選択図】
図2
【特許請求の範囲】
【請求項1】
被写体を複数の方向から撮影するための複数の撮影装置と、
前記複数の撮影装置が前記被写体を撮影することで得られる画像データに基づいて該被写体の立体撮影モデルを生成するよう構成された演算処理装置とを含む立体撮影モデル生成システムであって、
前記撮影装置に用いられる撮像レンズ系の被写界深度が、光軸上において焦点が合う位置を中心に±0.5~±1.5mに設定されている、立体撮影モデル生成システム。
【請求項2】
前記被写体が前記被写界深度の内にある場合の前記輪郭のエッジ検出精度の最大値に対し、該被写体が前記被写界深度の外にある場合のエッジ検出精度の比が0.7以下である、請求項1に記載の立体撮影モデル生成システム。
【請求項3】
前記エッジ検出精度が、前記輪郭の境界における輝度変化を一次微分した値に基づいて算定される、請求項2に記載の立体撮影モデル生成システム。
【請求項4】
前記エッジ検出精度が、前記輪郭の境界における輝度変化を二次微分した値に基づいて算定される、請求項2に記載の立体撮影モデル生成システム。
【請求項5】
前記演算処理装置が、前記立体撮影モデルに基づいて自由視点画像を生成する自由視点画像生成部を有している、請求項1~4の何れか1項に記載の立体撮影モデル生成システム。
【請求項6】
複数の撮影装置と、前記複数の撮影装置が被写体を撮影することで得られる画像データに基づいて該被写体の立体撮影モデルを生成する演算処理装置とを含み、前記撮影装置に用いられる撮像レンズ系の被写界深度が、光軸上において焦点が合う位置を中心に±0.5~±1.5mに設定されているシステムにおいて行われる立体撮影モデル生成方法であって、
前記複数の撮影装置により前記被写体を複数の方向から撮影するステップと、
前記演算処理装置が実行する処理が、
前記複数の撮影装置により撮影された画像データから前記被写体の輪郭を検出するステップと、
検出された前記輪郭によって画される前記被写体画像データに基づいて該被写体の立体撮影モデルを生成するステップと
を含む三次元画像生成方法。
【請求項7】
前記被写体が前記被写界深度の内にある場合の前記輪郭のエッジ検出精度の最大値に対し、該被写体が前記被写界深度の外にある場合のエッジ検出精度の比が0.7以下である、請求項6に記載の三次元画像生成方法。
【請求項8】
前記エッジ検出精度が、前記輪郭の境界における輝度変化を一次微分した値に基づいて算定される、請求項7に記載の立体撮影モデル生成方法。
【請求項9】
前記エッジ検出精度が、前記輪郭の境界における輝度変化を二次微分した値に基づいて算定される、請求項7に記載の立体撮影モデル生成方法。
【請求項10】
前記演算処理装置が実行する処理が、前記立体撮影モデルに基づいて自由視点画像を生成するステップを更に含む、請求項6~9の何れか1項に記載の立体撮影モデル生成方法。
【請求項11】
前記複数の撮影装置が被写体を撮影することで得られる画像データが動画像データであり、
前記演算処理装置は、複数の前記動画像データを同期して前記被写体の動的な立体撮影モデルを生成する、請求項6~10の何れか1項に記載の立体撮影モデル生成方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、複数の方向から撮影した被写体の画像データに基づいて該被写体の三次元モデルを生成するための実写立体撮影技術(Volumetric Caputure)に関する。
【背景技術】
【0002】
近年、マーカーを使わずに、360度全方位から対象となる人や物の動きを撮影することで、被写体の三次元モデルを生成することができる実写立体撮影技術(Volumetric Caputure)が注目されている。本技術によれば、複数のカメラで同期撮影した人物等の動画像からフレーム毎に被写体を抽出し三次元モデル化することで、被写体モデルを仮想空間の任意の位置に配置してその動きをディスプレイ上で自由に再現することができる。複数の視点から撮影した画像を演算処理し、任意の視点から見えるように再現された画像は「自由視点画像」または「仮想視点画像」と呼ばれ、例えば特許文献1には、そのような仮想視点画像を生成するシステムが開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
Volumetric Caputureにおいては、上述したように撮影したフレーム画像から背景を排除し対象とする被写体を抽出する必要がある。被写体と背景とを区別するための手法として、従来、被写体にメッシュ光を投影する方法や、背景にグリーンバックを使用する方法などが採られている。しかし、これら従来の手法では、撮影の場にメッシュ光を投影するためのプロジェクタやグリーンバックなどを設置しなければならず、設備が整えられたスタジオ等でなければ撮影することができない。また、撮影した画像データに対しオブジェクト抽出処理を施して被写体を抽出する手法も考えられる。しかし、複数の視点から撮影された毎秒数十フレームの高精細動画像データに対し、フレーム毎に逐一オブジェクト(被写体画像)を抽出するには、高速大容量の処理能力を有する大型のプラットフォームが必要となる。
【0005】
本発明は、このような従来の課題に鑑みてなされたものであり、簡素な構成で実現でき、誰もが手軽に楽しめて取り扱うことができる立体撮影モデル生成システムおよびそのシステムで実行される立体撮影モデル生成方法を提供することを目的としている。
【課題を解決するための手段】
【0006】
上述した課題を解決するため、本発明は、被写体を複数の方向から撮影するための複数の撮影装置と、前記複数の撮影装置が前記被写体を撮影することで得られる画像データに基づいて該被写体の立体撮影モデルを生成するよう構成された演算処理装置とを含む立体撮影モデル生成システムであって、前記撮影装置に用いられる撮像レンズ系の被写界深度が、光軸上において焦点が合う位置を中心に±0.5~±1.5mに設定されている、立体撮影モデル生成システムである。
【0007】
立体撮影モデル生成システムは、前記被写体が前記被写界深度の内にある場合の前記輪郭のエッジ検出精度の最大値に対し、該被写体が前記被写界深度の外にある場合のエッジ検出精度の比が0.7以下であることが好ましい。
【0008】
また、立体撮影モデル生成システムは、前記エッジ検出精度が、前記輪郭の境界における輝度変化を一次微分した値に基づいて算定されることが好ましい。または、立体撮影モデル生成システムは、前記エッジ検出精度が、前記輪郭の境界における輝度変化を二次微分した値に基づいて算定されるものでもよい。
【0009】
また、立体撮影モデル生成システムは、前記演算処理装置が、前記立体撮影モデルに基づいて自由視点画像を生成する自由視点画像生成部を有していることが好ましい。
【0010】
また、本発明は、複数の撮影装置と、前記複数の撮影装置が被写体を撮影することで得られる画像データに基づいて該被写体の立体撮影モデルを生成する演算処理装置とを含み、前記撮影装置に用いられる撮像レンズ系の被写界深度が、光軸上において焦点が合う位置を中心に±0.5~±1.5mに設定されているシステムにおいて行われる立体撮影モデル生成方法であって、前記複数の撮影装置により前記被写体を複数の方向から撮影するステップと、前記演算処理装置が実行する処理が、前記複数の撮影装置により撮影された画像データから前記被写体の輪郭を検出するステップと、検出された前記輪郭によって画される前記被写体画像データに基づいて該被写体の立体撮影モデルを生成するステップとを含む三次元画像生成方法である。
【0011】
三次元画像生成方法において、前記被写体が前記被写界深度の内にある場合の前記輪郭のエッジ検出精度の最大値に対し、該被写体が前記被写界深度の外にある場合のエッジ検出精度の比が0.7以下であることが好ましい。
【0012】
また、三次元画像生成方法において、前記エッジ検出精度が、前記輪郭の境界における輝度変化を一次微分した値に基づいて算定されることが好ましい。または、三次元画像生成方法は、前記エッジ検出精度が、前記輪郭の境界における輝度変化を二次微分した値に基づいて算定されるものでもよい。
【0013】
また、三次元画像生成方法において、前記演算処理装置が実行する処理が、前記立体撮影モデルに基づいて自由視点画像を生成するステップを更に含むことが好ましい。
【0014】
また、三次元画像生成方法において、前記複数の撮影装置が被写体を撮影することで得られる画像データが動画像データであり、前記演算処理装置は、複数の前記動画像データを同期して前記被写体の動的な立体撮影モデルを生成することが好ましい。
【発明の効果】
【0015】
本発明によれば、簡素な構成で実現でき、誰もが手軽に楽しめて取り扱うことができる、立体撮影モデル生成システムおよびそのシステムで実行される立体撮影モデル生成方法を提供することができる。
【図面の簡単な説明】
【0016】
【
図1】本発明の一つの実施形態による立体撮影モデル生成システムのブロック図である。
【
図2】カメラと被写界深度との位置関係を説明するための図である。
【
図3】テストパターンを用いてエッジ検出精度(シャープネス)を測定する方法を説明するための図である。
【
図5】コントロールボックス及びその周辺部の機能ブロック図である。
【
図7】本発明のもう一つの実施形態による立体撮影モデル生成システムのブロック図である。
【発明を実施するための形態】
【0017】
本発明の好適な実施形態による立体撮影モデル生成システムは、被写体の三次元モデルを生成する等の処理を行う演算処理装置と、被写体を複数の方向から撮影するための複数の撮影装置とを備えて構成される。なお、本明細書においてカメラで撮影される「被写体」と「オブジェクト」とは同じ意味で用いている。被写体は人物に限らず物(可動物)であってもよい。また、本システムで生成されるオブジェクトの「立体撮影モデル」を「三次元モデル」または「三次元動画モデル」と称する。また、以下説明する実施形態において、「画像」とは動画像を想定しており、「三次元モデル」は動きを表現するための時間パラメータを含むが、本発明の実施にあたっては「画像」が写真等の静止画像を含むことを明記しておく。
【0018】
以下、オブジェクト(被写体)OBを人物とし、ある一定時間、その場での当該人物の動きを三次元モデル化する場合の例について、具体的な実施形態を説明する。
【0019】
図1は、本発明の一つの実施形態による立体撮影モデル生成システムのブロック図である。演算処理装置10は、ユーザ側のコントローラ110と、インターネットN上のクラウドサーバシステムである画像処理サーバ120とを含む。コントローラ110の本体であるコントロールボックス111は、専用のコンピュータ装置または汎用のPC(Personal Computer)とすることができる。また、コントローラ110は、ユーザによる操作を補助するために、コントロールボックス111に無線接続した例えばスマートフォンやタブレットPC等の端末装置113を含むものでもよい。
【0020】
撮影装置20は、デジタル動画撮影が可能な複数台のカメラ201~204を含む。カメラ201~204の本体には、カメラアダプタ211~214がそれぞれ装備されている。
図1の実施形態では、撮影装置20が4台のカメラで構成されているが、カメラの台数はこれに限定されず、例えば3~24台程度の範囲で適宜増減させてもよい。
【0021】
カメラ201~204は、床面に敷いた例えば5m四方のマット230上の4隅および/または辺の所定位置に置かれた三脚(図示省略)に設置される。各カメラ201~204の撮像レンズ系221は、被写体OBが立つマット230の中央に予め向けられている。なお、マット230は、被写体との区別がつき、被写体の抽出処理をし易くするためにグリーンのマットであることが好ましい。更にマットの形状は四角形に限定されず、カメラの台数に応じて多角形または円形であってもよい。
【0022】
図2に示すように、本実施形態のカメラ201~204に用いられる撮像レンズ系221は、その被写界深度(DOF;Depth of Field)が、光軸Axにおいてレンズの焦点がちょうど合う中央位置(CIF;Center in Foucus)を中心に±0.5~±1.5mに設定されている。ただし、各カメラ201~204の光学的な特性は共通しており、カメラ201~204間では被写界深度特性そのもののばらつきはないものとする。
【0023】
なお、被写界深度は、被写体を撮影した像の焦点が合っているように見える被写体側の距離の範囲(フィールド)をいう。被写界深度よりも遠景および近景をカメラで撮影した像はぼやける。被写界深度が「深い」とは焦点が合う範囲が比較的広いことを意味し、被写界深度が「浅い」とは焦点が合う範囲が比較的狭いことを意味する。本実施形態の立体撮影モデル生成システムは、後に詳述するように、従来よりも被写界深度が浅いレンズを使用することに一つの特徴がある。
【0024】
カメラの被写界深度特性は、撮像レンズの焦点距離や絞り(F値)によっても影響を受ける。
図2に示すように、本実施形態による撮像レンズ系221は、撮影場所の広さやオブジェクト(人物)OBが動く範囲等の撮影環境・条件に合わせて、像の焦点がちょうど合う位置CIFを中心に被写界深度が±0.5~±1.5mの特性を有するレンズが選択採用される。なお、
図2の実施例において、カメラ201から被写界深度の中央の位置CIFまでの距離は3.5mであり、F値は1とした。
【0025】
光軸上のある位置が被写界深度内にあるか否かを判定する基準、言い換えると光軸上における被写界深度の境界を測定する基準として許容錯乱円径がある。しかし、本実施形態のように、被写体輪郭のエッジ検出精度(「シャープネス」ともいう。)を基準に被写界深度またはフィールドの境界を判定してもよい。より具体的には、被写体が被写界深度の内にある場合のエッジ検出精度の最大値に対し、該被写体が被写界深度の外にある場合のエッジ検出精度の比が0.7以下(つまり最大値に対し30%減)であるか否かで境界を判定することができる。
【0026】
輪郭のエッジ検出精度(シャープネス)は、例えば
図3に示すように、白黒が明確に区分けされたテストパターンTPを用い、その白黒が反転する境界部分の輝度変化に基づいて正確に測定することができる。先ず、テストパターンTPが被写界深度DOFの中央の位置CIFにあるときのシャープネスの最大値SEmaxを測定する。次に、テストパターンTPの光軸Ax上の位置を、CIFを中心にカメラ201に近い側(マイナス方向)と遠い側(プラス方向)に徐々に変えながらシャープネスSEを測定する。そして、シャープネスの比SE/SEmaxが0.7となる前後両位置を、被写界深度DOFの境界と判定することができる。
【0027】
エッジ検出精度は、例えば輪郭の境界における輝度変化を一次微分した値に基づいて算定することができる(勾配法)。この勾配法では、輝度を一次微分した最大値または最小値の縦軸の大きさでシャープネスを算定することができる。また、エッジ検出精度は、輪郭の境界における輝度変化を二次微分した値に基づいて算定してもよい(ラプラシアン法)。このラプラシアン法では、輝度の変曲点を構成する横軸の振幅の大きさでシャープネスを算定することができる。なお、エッジ検出精度の算定法は、上述の勾配法およびラプラシアン法に限定されない。
【0028】
次に、カメラアダプタ211~214は、例えばEthernet(登録商標)、USB(Universal Serial Bus)等の規格に準拠した通信ケーブル240を介してスイッチングハブ300に接続されている。コントローラ110(コントロールボックス111)は、このスイッチングハブ300を経由して、各カメラ201~204が撮影した画像のデータや、カメラパラメータ情報を取得する。
【0029】
なお、
図1の実施形態のシステムでは、それぞれのカメラ201~204およびカメラアダプタ211~214が一つのスイッチングハブ300に接続された、いわゆるスター型のネットワーク構造となっている。ただし、撮影画像の4Kまたは8Kなどの高精細化、高フレームレート化に伴う大容量化に対応するために、隣接のカメラアダプタをカスケード接続したデイジーチェーンにより複数のカメラ201~204を接続してもよい。
【0030】
図4は、カメラアダプタ211内部の機能ブロック図である。なお、他のカメラアダプタ212~214もこれと同一の構成を有しているので、それらの説明は省略する。同図に示すように、カメラアダプタ211は、大まかにはカメラ制御部215、補正処理部216およびフレーム生成・伝送部217に区分けされる。カメラ制御部215は、レンズ調整部2151、撮影動作制御部2152および撮影パラメータ設定部2153を有している。
【0031】
レンズ調整部2151は、カメラ201の撮像レンズ系221のフォーカス、ズームおよび露出等のパラメータを電気的に調整する。なお、撮像レンズ系221のフォーカス等の調整は自動で行ってもよいし、外部(例えばコントローラ110)からの指令やユーザがモニター画面を見ながらマニュアルで行ってもよい。
【0032】
撮影動作制御部2152は、外部(例えばコントローラ110)からのゲンロック(Genlock)信号等に同期して撮影の開始や停止の動作を制御する。
【0033】
撮影パラメータ設定部2153は、画像解像度(撮影画素数)、色深度、フレームレートおよびホワイトバランス等の撮影パラメータを設定し、撮影動作制御部2152をサブミットする。撮影パラメータの設定は外部(例えばコントローラ110)から指定されてもよいし、撮影パラメータ設定部2153が自動で設定してもよい。
【0034】
補正処理部216は、キャッシュメモリ218に保持された生画像データに対し色補正処理や、カメラの振動に起因するブレの補正処理、レンズ固有の歪み補正処理などを行う。
【0035】
フレーム生成・伝送部217は、フレームメモリ219上で画像データをフォーマット変換しフレームデータを生成する。フレームデータには、撮影された時刻を示すタイムコードや、撮影したカメラの識別子情報、カメラパラメータ(フォーカス値、ズーム値、レンズ特性等)などのメタ情報(付属情報)が付与されファイル化される。フレーム生成・伝送部217の通信アダプタ2171は、作成したフレーム画像データをコントローラ110に伝送する。
【0036】
次に、コントローラ110の構成を説明する。
図5は、コントローラ110の本体であるコントロールボックス111及びその周辺部の機能ブロック図である。コントロールボックス111は、データ入力部1111、データ同期部1112、キャリブレーション部1113、データ圧縮部1114、ストレージ1115、ネットワークアダプタ部1116、フォーマット変換部1117、レンダリング処理部1118およびユーザインタフェース部1119を有している。
【0037】
データ入力部1111は、通信ケーブル240とスイッチングハブ300とを介して、カメラアダプタ211~214と接続されており、カメラ201~204が撮影した画像のデータであるフレーム画像データをリアルタイムで受信する。
【0038】
データ同期部1112は、取得した画像データを、内部の高速DRAM(Dynamic Random Access Memory)に一次的に記憶し、全てのカメラ201~204のデータが揃うまでバッファする。画像データにはタイムコード(時間情報)とカメラ識別子情報とが付与されており、データ同期部1112は、各タイムコードに基づいて各画像データの時刻同期制御を行う。また、データ同期部1112は、例えば特徴点マッチング法を用いて各画像データの同期を行ってもよい。
【0039】
各カメラ201~204と被写体OBとの間の僅かな距離の違いやレンズ固有の特性差等により、各画像に写し込まれた被写体OBの絶対座標に対する寸法が各画像において異なる可能性がある。キャリブレーション部1113は、このような寸法誤差を較正するために、各画像のサイズを正規化する処理を行う。また、キャリブレーション部1113は、同時に各画像データの輝度やコントラストを一致させる補正を行ってもよい。
【0040】
同期および正規化された画像データは、データ圧縮部1114によりMPEG等の所定のフォーマットに圧縮処理され、ネットワークアダプタ部1116を介して画像処理サーバ120に伝送される。画像処理サーバ120は、後述するように、カメラ201~204のフレーム画像データに基づいて被写体(人物)OBの三次元動画モデルを生成するための高速演算処理を行うクラウド上のプラットフォームである。また、画像データは、例えば大容量のSSD(Solid State Drive)である内部のストレージ1115に保管されてもよい。
【0041】
画像処理サーバ120からネットワークアダプタ部1116に返送された被写体OBの三次元動画モデルデータは、フォーマット変換部1117でデータの伸張等の処理が施され、時間情報と座標情報とが分離されて、フレーム毎のポリゴンメッシュモデルデータに変換される。そして、変換されたポリゴンメッシュモデルデータは、フレームレート等の時間情報と関連付けられてストレージ1115に記憶される。
【0042】
レンダリング処理部1118は、ストレージ1115に記憶された被写体OBの三次元モデルを、ディスプレイ112または外付けのモニタリング装置(例えばスマートフォン113など)に再生表示可能な二次元の自由視点画像に変換処理する。ユーザは、ユーザインタフェース部119を介して、必要であればスマートフォン113を操作して視点位置をレンダリング処理部1118に指示することができる。視点は被写体OBの360°周囲のどの位置であってもよく、また制限された範囲内で視点の高さを任意に変えることもできる。また、ユーザは、再生中の三次元モデル動画像に対し、視点位置を任意に移動させて向きを変える指示をすることができる。更に、ユーザは、三次元モデル画像の特定部分のズームインやズームアウトさせた任意視点画像もディスプレイ112等に表示させることができる。
【0043】
次に、
図6の機能ブロック図を参照して、画像処理サーバ120の構成を説明する。画像処理サーバ120は、主として入出力部1201、画像処理部1202およびルーティング処理部1203を有している。
【0044】
入出力部1201は、データ受信部1204と、データ送信部1205とを含む。複数のカメラ201~204で複数の方向から撮影された被写体OBの画像データは、コントロールボックス111およびインターネットNを経由して、入出力部1201のデータ受信部1204で受信される。
【0045】
画像処理部1202は、前処理部1206、オブジェクト抽出部1207および三次元モデル生成部1208を含む。前処理部1206は、受信された画像データに対し、カメラの識別子情報、カメラパラメータ、コントロールボックス111のアドレス情報等のメタ情報を分離するとともに所定の伸張処理を施してフレームデータをオブジェクト抽出部1207に送る。
【0046】
この段階では、フレーム画像は被写体OBとその周囲の背景を含んでいる。オブジェクト抽出部1207は、各フレームの画像データに含まれる輪郭のエッジを検出することにより、被写体OBが写された画像領域を抽出する処理を行う。エッジ検出法は、輪郭の境界における輝度変化を一次微分した値に基づく勾配法、またはその輝度変化を二次微分した値に基づくラプラシアン法を用いることが好ましい。
【0047】
本実施形態においては、上述したように、カメラ201~204のレンズの被写界深度が±0.5~±1.5mと比較的浅く設定されている。そのため、撮影された画像のうち、被写体OBの領域のみ焦点が合い、その周囲の背景の領域はぼやけている。したがって、背景にグリーンバックを設置したり、被写体OBにメッシュ光を投光しなくても、被写体OBの輪郭のエッジを検出するだけで、比較的容易にかつ正確に、被写体OBの輪郭によって画される画像領域(被写体画像データ)を抽出することができる。
【0048】
背景画像から分離された被写体画像データは三次元モデル生成部1208に送られる。三次元モデル生成部1208は、複数の方向から撮影された被写体画像データに基づいて、例えばステレオカメラの原理を用いて、被写体OBの三次元動画モデルを生成する。
【0049】
ルーティング処理部1203は、生成した三次元動画モデルデータの転送先として、その元となる画像データを送信したコントロールボックス111のアドレスを設定する。そして、データ送信部1205は、設定されたインターネットN上のアドレスのコントロールボックス111に、生成された三次元動画モデルデータを送信する。
【0050】
以上、本発明の一つの好適な実施形態を説明したが、本発明の実施にあたっては、その趣旨を逸脱しない範囲で種々の改変が可能である。例えば、上述のコントロールボックス111で実行される画像データ処理機能を、インターネットN上の画像処理サーバ120が有してもよい。また、クラウドサーバを用いずに、三次元モデルを生成するための一連の演算処理をスタンドアロン型のコントロールボックス111が実行する態様であってもよい。
【0051】
更に、
図7に示すように、撮影装置20を、小型のカメラを有する例えばスマートフォン251~254等の携帯電子機器で構成してもよい。スマートフォン251~254の各カメラ開口部には、カメラの被写界深度を浅く設定するための専用のレンズユニット261~264が装着される。撮影用のスマートフォン251~254と、操作制御用のスマートフォン255には、ユーザが立体撮影モデル生成サービスを受けるためのアプリケーションソフトがインストールされている。ユーザは、スマートフォン255のアプリを使って、複数のスマートフォン251~254で撮影した被写体OBの画像データを、スイッチングハブ300および回線モデム310によりインターネットN経由で演算処理装置10に送信することができる。
【0052】
演算処理装置10で生成処理された、被写体OBの立体撮影モデルおよび/またはその自由視点画像は、インターネットNを介してスマートフォン255に転送またはダウンロードすることができる。それにより、ユーザは、スマートフォン255を操作して、手軽に被写体OBの立体撮影画像をその画面上に再生することができる。
【0053】
以上説明した実施形態の立体撮影モデル生成システムおよびそのシステムで実行される立体撮影モデル生成方法によれば、被写界深度が比較的浅い撮像レンズを撮像装置に用いることにより、被写体のみ焦点が合い、その周囲の背景がぼやけた動画像を撮影することができる。またそのような被写界深度が浅い動画像を用いれば、撮影場所にグリーンバックを設置したり、被写体にメッシュ光を投光するためのプロジェクタを設けなくても、被写体画像を、単純なエッジ検出処理によって容易にかつ正確に背景画像から分離・抽出することができる。したがって、被写体を抽出するまでの画像データ処理負荷を大幅に低減でき、それにより一般的なユーザであっても手軽に扱うことができ、そして簡素な構成のシステムを提供することができる。
【符号の説明】
【0054】
10 演算処理装置
20 撮影装置
110 コントローラ
111 コントロールボックス
112 ディスプレイ
113 端末装置(スマートフォン)
120 画像処理サーバ
201~204 カメラ
211~214 カメラアダプタ
220 撮像素子(CCD)
221 撮像レンズ系
230 マット
240 通信ケーブル
251~255 スマートフォン
261~264 レンズユニット
300 スイッチングハブ
1110 同期信号生成部
1112 データ同期部
1115 ストレージ
1116 ネットワークアダプタ部
1118 レンダリング処理部
1119 ユーザインタフェース部
1201 入出力部
1202 画像処理部
1203 ルーティング処理部
1207 オブジェクト抽出部
1208 三次元モデル生成部
N インターネット
Ax 光軸
CIF 焦点が合う位置
DOF 被写界深度
OB 被写体、オブジェクト
SE エッジ検出精度、シャープネス
TP テストパターン
【手続補正書】
【提出日】2022-02-25
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
被写体を複数の方向から撮影するための複数の撮影装置と、
前記複数の撮影装置が前記被写体を撮影することで得られる画像データに基づいて前記被写体の輪郭を検出し、該被写体の立体撮影モデルを生成するよう構成された演算処理装置とを含む立体撮影モデル生成システムであって、
前記撮影装置に用いられる撮像レンズ系の被写界深度が、光軸上において焦点が合う位置を中心に±0.5~±1.5mに設定されている、立体撮影モデル生成システム。
【請求項2】
前記被写体が前記被写界深度の内にある場合の前記輪郭のエッジ検出精度の最大値に対し、該被写体が前記被写界深度の外にある場合のエッジ検出精度の比が0.7以下である、請求項1に記載の立体撮影モデル生成システム。
【請求項3】
前記エッジ検出精度が、前記輪郭の境界における輝度変化を一次微分した値に基づいて算定される、請求項2に記載の立体撮影モデル生成システム。
【請求項4】
前記エッジ検出精度が、前記輪郭の境界における輝度変化を二次微分した値に基づいて算定される、請求項2に記載の立体撮影モデル生成システム。
【請求項5】
前記演算処理装置が、前記立体撮影モデルに基づいて自由視点画像を生成する自由視点画像生成部を有している、請求項1~4の何れか1項に記載の立体撮影モデル生成システム。
【請求項6】
複数の撮影装置と、前記複数の撮影装置が被写体を撮影することで得られる画像データに基づいて該被写体の立体撮影モデルを生成する演算処理装置とを含み、前記撮影装置に用いられる撮像レンズ系の被写界深度が、光軸上において焦点が合う位置を中心に±0.5~±1.5mに設定されているシステムにおいて行われる立体撮影モデル生成方法であって、
前記複数の撮影装置により前記被写体を複数の方向から撮影するステップと、
前記演算処理装置が実行する処理が、
前記複数の撮影装置により撮影された画像データから前記被写体の輪郭を検出するステップと、
検出された前記輪郭によって画される被写体画像データに基づいて該被写体の立体撮影モデルを生成するステップと
を含む立体撮影モデル生成方法。
【請求項7】
前記被写体が前記被写界深度の内にある場合の前記輪郭のエッジ検出精度の最大値に対し、該被写体が前記被写界深度の外にある場合のエッジ検出精度の比が0.7以下である、請求項6に記載の立体撮影モデル生成方法。
【請求項8】
前記エッジ検出精度が、前記輪郭の境界における輝度変化を一次微分した値に基づいて算定される、請求項7に記載の立体撮影モデル生成方法。
【請求項9】
前記エッジ検出精度が、前記輪郭の境界における輝度変化を二次微分した値に基づいて算定される、請求項7に記載の立体撮影モデル生成方法。
【請求項10】
前記演算処理装置が実行する処理が、前記立体撮影モデルに基づいて自由視点画像を生成するステップを更に含む、請求項6~9の何れか1項に記載の立体撮影モデル生成方法。
【請求項11】
前記複数の撮影装置が被写体を撮影することで得られる画像データが動画像データであり、
前記演算処理装置は、複数の前記動画像データを同期して前記被写体の動的な立体撮影モデルを生成する、請求項6~10の何れか1項に記載の立体撮影モデル生成方法。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0001
【補正方法】変更
【補正の内容】
【0001】
本発明は、複数の方向から撮影した被写体の画像データに基づいて該被写体の三次元モデルを生成するための実写立体撮影技術(Volumetric Capture)に関する。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0002
【補正方法】変更
【補正の内容】
【0002】
近年、マーカーを使わずに、360度全方位から対象となる人や物の動きを撮影することで、被写体の三次元モデルを生成することができる実写立体撮影技術(Volumetric Capture)が注目されている。本技術によれば、複数のカメラで同期撮影した人物等の動画像からフレーム毎に被写体を抽出し三次元モデル化することで、被写体モデルを仮想空間の任意の位置に配置してその動きをディスプレイ上で自由に再現することができる。複数の視点から撮影した画像を演算処理し、任意の視点から見えるように再現された画像は「自由視点画像」または「仮想視点画像」と呼ばれ、例えば特許文献1には、そのような仮想視点画像を生成するシステムが開示されている。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0004
【補正方法】変更
【補正の内容】
【0004】
Volumetric Captureにおいては、上述したように撮影したフレーム画像から背景を排除し対象とする被写体を抽出する必要がある。被写体と背景とを区別するための手法として、従来、被写体にメッシュ光を投影する方法や、背景にグリーンバックを使用する方法などが採られている。しかし、これら従来の手法では、撮影の場にメッシュ光を投影するためのプロジェクタやグリーンバックなどを設置しなければならず、設備が整えられたスタジオ等でなければ撮影することができない。また、撮影した画像データに対しオブジェクト抽出処理を施して被写体を抽出する手法も考えられる。しかし、複数の視点から撮影された毎秒数十フレームの高精細動画像データに対し、フレーム毎に逐一オブジェクト(被写体画像)を抽出するには、高速大容量の処理能力を有する大型のプラットフォームが必要となる。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0006
【補正方法】変更
【補正の内容】
【0006】
上述した課題を解決するため、本発明は、被写体を複数の方向から撮影するための複数の撮影装置と、前記複数の撮影装置が前記被写体を撮影することで得られる画像データに基づいて前記被写体の輪郭を検出し、該被写体の立体撮影モデルを生成するよう構成された演算処理装置とを含む立体撮影モデル生成システムであって、前記撮影装置に用いられる撮像レンズ系の被写界深度が、光軸上において焦点が合う位置を中心に±0.5~±1.5mに設定されている、立体撮影モデル生成システムである。
【手続補正6】
【補正対象書類名】明細書
【補正対象項目名】0010
【補正方法】変更
【補正の内容】
【0010】
また、本発明は、複数の撮影装置と、前記複数の撮影装置が被写体を撮影することで得られる画像データに基づいて該被写体の立体撮影モデルを生成する演算処理装置とを含み、前記撮影装置に用いられる撮像レンズ系の被写界深度が、光軸上において焦点が合う位置を中心に±0.5~±1.5mに設定されているシステムにおいて行われる立体撮影モデル生成方法であって、前記複数の撮影装置により前記被写体を複数の方向から撮影するステップと、前記演算処理装置が実行する処理が、前記複数の撮影装置により撮影された画像データから前記被写体の輪郭を検出するステップと、検出された前記輪郭によって画される被写体画像データに基づいて該被写体の立体撮影モデルを生成するステップとを含む立体撮影モデル生成方法である。
【手続補正7】
【補正対象書類名】明細書
【補正対象項目名】0011
【補正方法】変更
【補正の内容】
【0011】
立体撮影モデル生成方法において、前記被写体が前記被写界深度の内にある場合の前記輪郭のエッジ検出精度の最大値に対し、該被写体が前記被写界深度の外にある場合のエッジ検出精度の比が0.7以下であることが好ましい。
【手続補正8】
【補正対象書類名】明細書
【補正対象項目名】0012
【補正方法】変更
【補正の内容】
【0012】
また、立体撮影モデル生成方法において、前記エッジ検出精度が、前記輪郭の境界における輝度変化を一次微分した値に基づいて算定されることが好ましい。または、三次元画像生成方法は、前記エッジ検出精度が、前記輪郭の境界における輝度変化を二次微分した値に基づいて算定されるものでもよい。
【手続補正9】
【補正対象書類名】明細書
【補正対象項目名】0013
【補正方法】変更
【補正の内容】
【0013】
また、立体撮影モデル生成方法において、前記演算処理装置が実行する処理が、前記立体撮影モデルに基づいて自由視点画像を生成するステップを更に含むことが好ましい。
【手続補正10】
【補正対象書類名】明細書
【補正対象項目名】0014
【補正方法】変更
【補正の内容】
【0014】
また、立体撮影モデル生成方法において、前記複数の撮影装置が被写体を撮影することで得られる画像データが動画像データであり、前記演算処理装置は、複数の前記動画像データを同期して前記被写体の動的な立体撮影モデルを生成することが好ましい。
【手続補正11】
【補正対象書類名】明細書
【補正対象項目名】0022
【補正方法】変更
【補正の内容】
【0022】
図2に示すように、本実施形態のカメラ201~204に用いられる撮像レンズ系221は、その被写界深度(DOF;Depth of Field)が、光軸Axにおいてレンズの焦点がちょうど合う中央位置(CIF;Center in Focus)を中心に±0.5~±1.5mに設定されている。ただし、各カメラ201~204の光学的な特性は共通しており、カメラ201~204間では被写界深度特性そのもののばらつきはないものとする。
【手続補正12】
【補正対象書類名】明細書
【補正対象項目名】0035
【補正方法】変更
【補正の内容】
【0035】
フレーム生成・伝送部217は、フレームメモリ219上で画像データをフォーマット変換しフレームデータを生成する。フレームデータには、撮影された時刻を示すタイムコードや、撮影したカメラの識別子情報、カメラパラメータ(フォーカス値、ズーム値、レンズ特性等)などのメタ情報(付属情報)が付与されファイル化される。フレーム生成・伝送部217は、作成したフレーム画像データをコントローラ110に伝送する。