(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-12-22
(45)【発行日】2024-01-05
(54)【発明の名称】画像処理装置、画像処理方法、及びプログラム
(51)【国際特許分類】
G06T 15/20 20110101AFI20231225BHJP
H04N 7/18 20060101ALI20231225BHJP
【FI】
G06T15/20 500
H04N7/18 U
H04N7/18 F
(21)【出願番号】P 2019103846
(22)【出願日】2019-06-03
【審査請求日】2022-05-27
(73)【特許権者】
【識別番号】000001007
【氏名又は名称】キヤノン株式会社
(74)【代理人】
【識別番号】110001243
【氏名又は名称】弁理士法人谷・阿部特許事務所
(72)【発明者】
【氏名】阿達 大地
【審査官】粕谷 満成
(56)【参考文献】
【文献】特開2019-067130(JP,A)
【文献】特開2018-133063(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 15/20
H04N 7/18
(57)【特許請求の範囲】
【請求項1】
複数の撮像装置の位置及び向きを特定するための撮像情報、及び前記複数の撮像装置に含まれる1又は複数の撮像装置により撮像される表示装置の位置及び当該表示装置の表示面に対する法線方向を特定するための表示装置情報を取得する取得手段と、
前記取得された撮像情報と前記取得された表示装置情報とに基づいて、前記複数の撮像装置による撮像に基づく複数の画像のうち、仮想視点に対応する仮想視点画像であって前記表示装置を含む仮想視点画像の生成に用いる画像を決定する決定手段と、
前記決定された画像に基づいて、前記表示装置を含む仮想視点画像を生成する生成手段と、
を有することを特徴とする画像処理装置。
【請求項2】
前記決定された画像に対応する撮像装置の向きに応じた光軸方向と前記表示装置の表示面に対する法線方向との差は、前記仮想視点からの視線方向と前記表示装置の表示面に対する法線方向との差よりも小さい、ことを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記表示面は発光面であり、
前記表示装置の表示面に対する法線方向は、前記発光面に垂直な方向である、
ことを特徴とする請求項2に記載の画像処理装置。
【請求項4】
前記決定された画像に対応する撮像装置は、撮像装置の向きに応じた光軸方向と前記表示装置の表示面に対する法線方向との差が、前記複数の撮像装置の中で最も小さい、ことを特徴とする請求項1に記載の画像処理装置。
【請求項5】
前記決定手段は、
前記取得された撮像情報及び前記取得された表示装置情報に基づいて、前記複数の撮像装置に含まれる各撮像装置に対し優先度を設定し、
前記設定された優先度に基づいて、前記仮想視点画像の生成に使用する画像を決定する、
ことを特徴とする請求項1に記載の画像処理装置。
【請求項6】
前記決定手段は、撮像装置の向きに応じた光軸方向と、前記表示装置の表示面に対する法線方向との差が小さいほど、前記優先度を高く設定し、
前記生成手段は、前記優先度が高く設定された撮像装置に対応する撮像画像を優先的に用いて前記仮想視点画像を生成する
ことを特徴とする請求項5に記載の画像処理装置。
【請求項7】
前記決定手段は、前記撮像情報、前記表示装置情報、および前記仮想視点の位置および前記仮想視点からの視線方向を特定するための視点情報に基づいて、前記優先度を設定する、ことを特徴とする請求項5に記載の画像処理装置。
【請求項8】
前記表示装置情報は、前記表示面の輝度を特定するための特性情報を含み、
前記決定手段は、前記特性情報から、前記仮想視点画像の生成に用いる画像をさらに決定する、
ことを特徴とする請求項1に記載の画像処理装置。
【請求項9】
前記決定された画像は、前記表示装置の3次元モデルの描画色を決定するために使用される、ことを特徴とする請求項1に記載の画像処理装置。
【請求項10】
前記取得手段は、前記複数の撮像装置による撮像に基づく複数の画像、及び前記仮想視点の位置および前記仮想視点からの視界方向を特定するための仮想視点情報をさらに取得し、
前記生成手段は、前記取得された複数の画像のうち前記決定された画像と、前記取得された視点情報とに基づいて、前記仮想視点画像を生成する、
ことを特徴とする請求項1に記載の画像処理装置。
【請求項11】
複数の撮像装置の位置及び向きを特定するための撮像情報、及び前記複数の撮像装置に含まれる1又は複数の撮像装置により撮像される表示装置の位置及び当該表示装置の表示面に対する法線方向を特定するための表示装置情報を取得する取得ステップと、
前記取得された撮像情報と前記取得された表示装置情報とに基づいて、前記複数の撮像装置による撮像に基づく複数の画像のうち、仮想視点に対応する仮想視点画像であって前記表示装置を含む仮想視点画像の生成に用いる画像を決定する決定ステップと、
前記決定された画像に基づいて、前記表示装置を含む仮想視点画像を生成する生成ステップと、
を含むことを特徴とする画像処理方法。
【請求項12】
コンピュータを、請求項1乃至10のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示の技術は、複数の撮影画像データを用いて仮想視点画像データを生成する技術に関する。
【背景技術】
【0002】
昨今、複数のカメラを異なる位置に設置し、それら複数のカメラで複数視点から同期撮影して得られた複数の撮影画像データ(複数視点画像データ)を用いて仮想視点からの見えを表す仮想視点画像データを生成する技術が注目されている。このような技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することができるため、通常の画像と比較してユーザに高い臨場感を与えることが出来る。
【0003】
特許文献1には、複数のカメラから得られた撮影画像データからオブジェクト(被写体)の3次元モデル(3次元形状データ)を導出し、その3次元モデルに撮影画像データを用いてレンダリングすることで仮想視点画像データを生成する方法が開示されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、従来の方法で仮想視点画像データを生成した場合に、次の課題があった。例えば撮影対象となるフィールド周辺に設置される電子看板には、LEDディスプレイなど、表示面に指向性の高い光源を用いた表示装置が使用される場合がある。また、自ら光を発しないが、反射光が高い指向性を持つような表面を有するオブジェクトが撮影領域に存在する場合がある。こうした視野角の制限が強い面を有するオブジェクトに対し、その視野角の外側に位置するカメラから得られた撮影画像データを主に用いて仮想視点画像データを生成した場合、次のような課題があった。すなわち、そのような場合、仮想視点画像データにおける当該オブジェクトの表示面や表面が暗く描画され視認性が低下するという課題があった。
【0006】
そのため本開示の技術は、仮想視点画像データにおける所定のオブジェクトの視認性の低下を抑制することを目的とする。
【課題を解決するための手段】
【0007】
本開示に係る画像処理装置は、複数の撮像装置の位置及び向きを特定するための撮像情報、及び前記複数の撮像装置に含まれる1又は複数の撮像装置により撮像される表示装置の位置及び当該表示装置の表示面に対する法線方向を特定するための表示装置情報を取得する取得手段と、前記取得された撮像情報と前記取得された表示装置情報とに基づいて、前記複数の撮像装置による撮像に基づく複数の画像のうち、仮想視点に対応する仮想視点画像であって前記表示装置を含む仮想視点画像の生成に用いる画像を決定する決定手段と、前記決定された画像に基づいて、前記表示装置を含む仮想視点画像を生成する生成手段と、を有することを特徴とする。
【発明の効果】
【0008】
本開示の技術によれば、仮想視点画像データにおける所定のオブジェクトの視認性の低下を抑制することができる。
【図面の簡単な説明】
【0009】
【
図2】実施形態1におけるハードウェア構成図である。
【
図3】実施形態1における画像生成装置の処理フローを示す図である。
【
図4】実施形態1におけるカメラ配置を示す図である。
【
図5】実施形態1におけるカメラの撮影画像例である。
【
図6】実施形態1における本発明の適用の有無による仮想視点画像を比較した図である。
【
図8】実施形態2における画像生成装置の処理フローを示す図である。
【
図9】実施形態2におけるカメラ毎の優先度を示す図である。
【
図10】実施形態3におけるLEDディスプレイの配光特性を示す図である。
【
図11】実施形態3におけるカメラ毎の優先度を示す図である。
【
図12】実施形態4におけるLEDディスプレイの輝度のヒストグラムを示す図である。
【発明を実施するための形態】
【0010】
[実施形態1]
本実施形態では、サッカースタジアムに複数のカメラを設置し、それら複数のカメラによる撮影により得られた複数の撮影画像データを用いて仮想視点画像データを生成するシステムについて述べる。さらに、フィールド上のLEDディスプレイの法線方向とカメラ配置情報(カメラの位置および方向に関する情報)に基づいて仮想視点画像データを生成する方法について説明する。
【0011】
図1に、仮想視点画像を生成するシステム構成を示す。複数のカメラ110は、フィールド上のオブジェクトを多視点から撮影するように設置され、ネットワークを介してカメラ配置情報および撮影画像データをサーバ130へ送信する。なお、複数のカメラ110は同一符号を用いて説明するが、性能や機種が異なっていてもよい。
【0012】
サーバ130は、複数のカメラ110から受信したカメラ配置情報および撮影画像データを用いてカメラ110のキャリブレーションを行い、キャリブレーション後のカメラ配置情報を不図示の記憶部に記憶する。
【0013】
また、サーバ130は、複数のカメラ110から受信した撮影画像データとカメラ配置情報を用いて、前景オブジェクト(プレーヤーやボール)を抽出する。そしてサーバ130は、ステレオ計測の原理から抽出した前景オブジェクトの3次元モデル(3次元形状データ)を生成し、不図示の記憶部に記憶する。
【0014】
また、サーバ130は、レーザースキャナの計測により得られる背景オブジェクト(サッカースタジアム、フィールド、LEDディスプレイ、サッカーゴールなど)の3次元モデルを不図示の記憶部に予め記憶する。このとき、LEDディスプレイなど、指向性の高い光を発する、視野角の制限が強い所定のオブジェクトの3次元モデルには、後述する視野角情報を関連付けてさらに記憶する。なお、本開示において視野角とは、物体表面に正対したときのその物体表面の見えを基準としたとき、その基準とする見えが維持される、物体表面上の正対した位置での法線方向と視線方向とのなす角度である。
【0015】
コントローラ120は、ユーザの操作に基づき仮想視点の位置、姿勢、焦点距離を指定する仮想視点情報を生成するためのUIである。またコントローラ120は、画像処理装置200とネットワークを介して接続され、生成した仮想視点情報を画像処理装置200中のレンダリング部250に送信する。
【0016】
画像処理装置200は、後述するCPU201がプログラムを実行することにより、カメラ配置情報取得部210、視野角情報取得部220、仮想視点情報取得部230、優先度算出部240、レンダリング部250の各機能構成部を実現する。また画像処理装置200は、コントローラ120、サーバ130、及び表示装置300とネットワークを介して接続している。
【0017】
カメラ配置情報取得部210は、通信部205およびネットワークを介して、サーバ130からカメラ配置情報を取得する。
【0018】
視野角情報取得部220は、通信部205およびネットワークを介して、サーバ130から視野角情報を取得する。
【0019】
仮想視点情報取得部230は、通信部205およびネットワークを介して、コントローラ120から仮想視点情報を取得する。
【0020】
優先度算出部240は、カメラ配置情報取得部210が取得したカメラ配置情報と、視野角情報取得部220が取得した視野角情報とに基づき優先度を算出する。
【0021】
レンダリング部250は、サーバ130から撮影画像データ、前景オブジェクトおよび背景オブジェクトの3次元モデルを取得する。レンダリング部250は、カメラ配置情報取得部210からカメラ配置情報を取得し、仮想視点情報取得部230から仮想視点情報を取得し、優先度算出部240から優先度を取得する。レンダリング部250は、前景オブジェクトおよび背景オブジェクトの3次元モデルについて、撮影画像データを用いてレンダリング処理を行い、仮想視点情報で指定された仮想視点からの見えを表す仮想視点画像データを生成する。
【0022】
表示装置300は、画像処理装置200とネットワークまたはSDIなどの映像伝送経路を介して接続され、レンダリング部250でレンダリング処理された仮想視点画像データを表示する。なお、画像処理装置200により仮想視点画像データが出力される先は表示装置300に限らず、仮想視点画像データを記憶する記憶装置などであってもよい。
【0023】
図2は、本実施形態における画像処理装置200のハードウェア構成図である。画像処理装置200は、CPU201、ROM202、RAM203、記憶装置204、及び通信部205を有する。
【0024】
CPU201は、画像処理装置200の全体を制御する中央演算ユニットであり、画像処理装置200の処理シーケンスを統括的に制御する。ROM202及び記憶装置204は、後述する処理フローを実現するためのプログラムやデータを格納する。RAM203は、データの一時保存やプログラムのロードに使用される。通信部205は、ネットワーク206を介した外部装置とのデータの送受信を行う。通信部205は、例えば、画像処理装置200によって画像合成を行った仮想視点画像データを、ネットワーク206を介して表示装置300に送信する。画像処理装置200の各構成要素は、バス207を介して相互に接続されている。
【0025】
次に
図3に示すフローチャートを用いて、画像処理装置200の各構成部による処理フローを説明する。なお、本フローチャートで示す処理に係るプログラムは画像処理装置200の記憶装置に格納されており、ROM202によって呼び出され、CPU201によって実行される。
【0026】
ステップS301では、カメラ配置情報取得部210が、キャリブレーション済みのカメラ配置情報を取得する。カメラ配置情報は、各カメラの位置T=(tx,ty,tz)と、光軸方向Ropt=(rx,ry,rz)とが記述されたデータである。キャリブレーション済みのカメラ配置情報は、特許文献1に示すようにサーバ130において予めカメラ110から受信したカメラ配置情報および撮影画像データを用いてキャリブレーション処理によって算出しておく。なお、以降、単にカメラ配置情報と記載した場合は、キャリブレーション済みのカメラ配置情報を指すものとする。
【0027】
ステップS302では、視野角情報取得部220が、視野角情報を取得する。視野角情報は、LEDディスプレイ6の表示面上の位置Tled=(x,y,z)と、位置TledにおけるLEDディスプレイ6の表示面の法線方向N=(nx,ny,nz)とが記述されたデータである。
【0028】
ステップS303では、優先度算出部240が、カメラ配置情報および視野角情報に基づき、レンダリング処理で用いる撮影画像データの優先度を算出する。
【0029】
図4に、複数のカメラ110のカメラ配置を示す。全てのカメラ110a~110pは、サッカースタジアム4内を囲うように配置され、フィールド5およびその周囲にあるLEDディスプレイ6などを含む撮影領域を撮影する。また、フィールド5内にプレーヤー7がおり、仮想視点(仮想カメラ)10からの仮想視点画像には、フィールド5、LEDディスプレイ6、およびプレーヤー7が写ることになる。
【0030】
仮想視点画像に写るオブジェクトのうち、指向性の高い光源を用いたLEDディスプレイ6の表示面は視野角外からの視認性は著しく低下する。そのため、本実施形態では、LEDディスプレイ6の表示面の表示が明瞭に写っている撮影画像データをLEDディスプレイ6のレンダリングに使用する。
【0031】
本実施形態では、LEDディスプレイ6の表示面の表示が明瞭に写っている撮影画像データが得られるカメラ110を、下記式(1)により算出される優先度Pに基づき判定する。
【0032】
【0033】
ここでカメラ110の光軸方向R
optとLEDディスプレイ6の表示面の法線方向Nとはベクトルの大きさが1になるよう正規化されているものとする。この優先度Pは、LEDディスプレイ6との配置関係が最も正対に近いカメラ110で最大となる。
図4の例では、カメラ110dの優先度Pが最大となる。
【0034】
ステップS304では、仮想視点情報取得部230が、コントローラ120から仮想視点情報を取得する。仮想視点情報は、コントローラ120におけるユーザ操作によって得られた仮想視点の位置、姿勢、焦点距離に関する情報を含む。
【0035】
ステップS305では、レンダリング部250が、サーバ130からカメラ110の撮影画像データ、前景オブジェクトおよび背景オブジェクトの3次元モデルを取得する。
【0036】
ステップS306では、レンダリング部250が、撮影画像データ、前景オブジェクトおよび背景オブジェクトの3次元モデル、優先度および仮想視点情報に基づき、設定された仮想視点10からの見えを表す仮想視点画像データをレンダリングする。
【0037】
視野角情報が関連付けられていないLEDディスプレイ6以外のオブジェクトをレンダリングする際は、仮想視点10に近いカメラ110iの撮影画像データから順に用いる。一方、視野角情報が関連付けられているLEDディスプレイ6をレンダリングする際は、優先度Pの大きいカメラ110の撮影画像データを優先的に用いる。レンダリング部250でのレンダリングには、特許文献1に示すイメージベースレンダリングまたはモデルベースレンダリングを用いることができる。
【0038】
LEDディスプレイ6をレンダリングする際には、例えば、優先度が最も高いカメラ110の撮影画像データが用いられてもよい。また例えば、優先度が閾値以上である複数のカメラ110の中から各カメラ110の位置や向きに基づいて選択されたカメラ110の撮影画像データが用いられてもよい。レンダリングに使用する撮影画像の決定における優先度の使用方法は、これらの例に限定されない。
【0039】
また、LEDディスプレイ6の一部または全部を撮影できていないカメラ110の撮影画像データは、LEDディスプレイ6のレンダリングに用いなくてもよい。例えば、あるカメラ110の位置とLEDディスプレイ6の位置を結ぶ線上に選手が位置する場合、そのカメラ110の撮影画像データにおいてLEDディスプレイ6の少なくとも一部が選手により遮蔽されてしまう。そのような撮影画像データをレンダリングに用いると、LEDディスプレイ6のモデルに選手の色を用いた誤った色付けがされてしまう。そこで、レンダリング部250は、LEDディスプレイ6全部を撮影できているカメラ110のうち優先度の高いカメラ110の撮影画像データを用いて、LEDディスプレイ6のレンダリングを行ってもよい。あるいはレンダリング部250は、LEDディスプレイ6の部分ごとに、その部分を撮影できているカメラ110のうち優先度の高いカメラ110の撮影画像データを用いてレンダリングを行ってもよい。すなわち、あるカメラ110から見てLEDディスプレイ6の一部が遮蔽されている場合、遮蔽されていない部分のレンダリングにはそのカメラ110の撮影画像データを用いるようにしてもよい。またその場合、遮蔽されている部分のレンダリングにはそのカメラ110の撮影画像データを用いないようにしてもよい。
【0040】
図5に、カメラ110dおよび110iの撮影画像データの模式図を示す。
図5(a)はカメラ110dから得られた撮影画像データを示しており、LEDディスプレイ6を正面側から撮影しているためLEDディスプレイ6に表示される文字「Football」が鮮明に撮影されている。一方、
図5(b)はカメラ110iから得られた撮影画像データを示しており、LEDディスプレイ6を表示面の視野角の外側から撮影しているため、表示面に表示される文字が暗く見えづらく撮影されている。
【0041】
図6に、本開示の技術を用いたレンダリング結果の差異を示す。
図6(a)はLEDディスプレイ6をその他のオブジェクトと同じく優先度Pを考慮せずにレンダリングした結果を示し、
図6(b)は優先度Pを考慮してレンダリングした結果を示す。
【0042】
図6(a)では、LEDディスプレイ6が、その側面側から撮影したカメラ110iの撮影画像データを用いているため暗く見えづらくレンダリングされる。一方で
図6(b)では、LEDディスプレイ6が、LEDディスプレイ6の正面側から撮影したカメラ110dの画像データを用いているため鮮明にレンダリングされる。
【0043】
以上のようにレンダリングした結果は、仮想視点画像データとして記憶装置204に記憶するか、仮想視点画像データを通信部205およびネットワーク206を介して表示装置300に送信して表示することができる。
【0044】
このように、オブジェクトの表示面の法線とカメラの光軸との関係から優先度を算出し、その優先度Pの高いカメラの撮影画像データを優先して用いてレンダリングすることにより、オブジェクトの視認性が低下する仮想視点を低減することができる。
【0045】
なお、本実施形態では、LEDディスプレイ6全体を1つのオブジェクトとしたが、LEDディスプレイ6を構成する各要素を1つのオブジェクトとしてもよい。例えば、LEDディスプレイ6を表す複数のボクセルの各々を1つのオブジェクトとしてもよい。そして、各要素に対して視野角情報を設定し、要素ごとに設定された視野角情報に基づき優先度を算出してもよい。このような場合、LEDディスプレイ6に対して複数の視野角情報が設定でき、視野角情報が設定された要素ごとに優先度の高い撮影画像データを用いてLEDディスプレイ6をレンダリングすることができる。
【0046】
また、視野角情報を設定するオブジェクトとしては、LEDディスプレイの他に、液晶ディスプレイや、表面に光沢のある物体、フィールドの芝など、見る角度によって視認性や見え方が変化するオブジェクトであれば、本実施形態と同様の効果を奏する。
【0047】
また、視野角情報を設定するオブジェクトは、ユーザが指定してもよいし、サーバ130や他の画像処理装置がカメラごとの撮影画像データを比較して画質の変化量に基づき指定してもよい。視野角情報も、ユーザが設定してもよいし、サーバ130や他の画像処理装置が画質の変化量に基づき設定してもよい。
【0048】
[実施形態2]
実施形態1では、カメラ配置情報と視野角情報とに基づき優先度を算出した。本実施形態では、さらに仮想視点とカメラの配置を加味して優先度を算出する方法について説明する。
【0049】
本実施形態の構成、処理フローは、以下に記載するステップS302、ステップS306以外は実施形態1と同様である。そのため以下、実施形態1と同様の構成、処理フローについては説明を省略する。
【0050】
図7にシステム構成を示す。また
図8に、本実施形態における画像処理装置200の各構成部による処理フローを示す。
【0051】
ステップS801では、仮想視点情報取得部230が、コントローラ120からネットワーク経由で仮想視点情報を取得する。
【0052】
ステップS802では、優先度算出部240が、仮想視点情報取得部230により取得された仮想視点情報を考慮した優先度Pmを算出する。まず、仮想視点10の視線方向Rvir=(rvx,rvy,rvz)とカメラ110の光軸方向Roptとの内積を用いて、仮想視点を考慮した優先度Pvirを下記式(2)により算出する。
【0053】
【0054】
そして優先度Pと優先度Pvirとを掛け合わせたカメラの優先度Pmを下記式(3)により算出する。
【0055】
【0056】
図9に、
図4に示す例におけるカメラごとの優先度P,P
vir,P
mの算出結果を示す。P
mの値は、仮想視点10に近くかつLEDディスプレイ6の正面側を撮影しているという条件を満たすカメラ110gが最大となる。
【0057】
ステップS306では、レンダリング部250がレンダリングする際、LEDディスプレイ6には優先度Pmの高いカメラの撮影画像データを優先的に用いる。
【0058】
以上述べたように、仮想視点とカメラの配置に基づく優先度Pvirを加味した優先度Pmを用いることで、LEDディスプレイ6を正面側から撮影しているカメラの中でもより仮想視点に近いカメラ110gの撮影画像データを優先してレンダリングする。これによりLEDディスプレイ6を見やすくしながら、仮想視点からの見え方により近い仮想視点画像データを生成することができる。
【0059】
[実施形態3]
本実施形態では視野角情報としてLEDディスプレイの配光特性を加味して優先度を算出する方法について説明する。
【0060】
本実施形態の構成、処理フローは、以下に記載するステップS302、ステップS303以外は実施形態1と同様である。そのため以下では、実施形態1と同様の構成、処理フローについては説明を省略する。
【0061】
ステップS302では、視野角情報取得部220が、視野角情報としてオブジェクトの位置Tled、表示面の法線方向Nに加えて配光特性Iled(θ)を取得する。この配光特性Iled(θ)は、LEDディスプレイ6から発する光の強度の分布を表す、発光面の法線方向からの角度θの関数であり、予め測定して求めておく。そして、配光特性Iled(θ)を視野角情報の一部として、サーバ130に予め記憶しておく。
【0062】
図10に、LEDディスプレイ6の典型的な配光特性I
led(θ)の例を示す。θ=0のときに最大となり、θが大きくなるにつれて値は小さくなる。なお、最大値が1となるようにI
led(θ)の値を正規化しておく。
【0063】
ステップS303では、優先度算出部240が、LEDディスプレイ6から発する光のうち、カメラ110に向かう光の強度に基づき優先度を算出する。そのため、まずLEDディスプレイ6の表示面の法線方向Nと、カメラ110に向かう方向との角度θcを下式(4)により求める。
【0064】
【0065】
ここで、Tは各カメラの位置、TledはLEDディスプレイ6の位置、NはLEDディスプレイ6の表示面の法線方向である。したがって、LEDディスプレイ6からカメラ方向θcに発せられる光の強度は、配光特性Iled(θc)となる。
【0066】
これらから本実施形態では、配光特性を考慮した優先度Plを下式(5)から求める。
【0067】
【0068】
図11に、カメラ110ごとの優先度P
lを示す。光の強度が最大となる方向はLEDディスプレイ6の表示面の法線方向となるため、カメラ110dの優先度P
lが最大となる。
【0069】
ステップS306では、レンダリング部250がレンダリングする際、LEDディスプレイ6には優先度Plの高いカメラの撮影画像データを優先的に用いる。
【0070】
以上述べたように、LEDディスプレイ6の配光特性を用いて算出された優先度に基づき決定したカメラの撮影画像データを優先的に用いてレンダリングすることにより、LEDディスプレイ6をより明るい仮想視点画像データを生成することができる。
【0071】
[実施形態4]
本実施形態では、視野角情報としてカメラから撮影したLEDディスプレイの像の輝度のヒストグラムに基づき優先度を算出する方法について説明する。
【0072】
本実施形態の構成、処理フローは、以下に記載するステップS302、ステップS303以外は実施形態1と同様である。そのため以下、実施形態1と同様の構成、処理フローについては説明を省略する。
【0073】
ステップS302では、視野角情報取得部220が、視野角情報として、カメラ110の各々の撮影画像データ中のLEDディスプレイ6に対応する画素領域の輝度の中央値でカメラ110を分類したヒストグラムを取得する。なお、画素領域の輝度の中央値に替えて、画素領域の輝度の平均値や最頻値、標準偏差など他の値を使用してもよい。
【0074】
図12に、
図4の例において、横軸にLEDディスプレイ6に対応する画素領域の輝度の中央値、縦軸にカメラ数をとったヒストグラムを示す。LEDディスプレイ6に対応する画素領域の輝度値が比較的高い撮影画像データが得られたカメラ群Aは、LEDディスプレイ6を正面側から撮影しているため、輝度値の高い撮影画像データが得られたと考えられる。LEDディスプレイ6に対応する画素領域の輝度値が比較的低い撮影画像データが得られたカメラ群Bは、LEDディスプレイ6を側面側、あるいは裏側から撮影しているため輝度値の低い撮影画像データが得られたと考えられる。
【0075】
ステップS303では、優先度算出部240が、視野角情報として取得したヒストグラムに基づき優先度P
hを算出する。まず撮影画像データにおけるLEDディスプレイ6に対応する画素領域の輝度値が最上位(輝度値226~250)のビンから順に、ビンの数に応じた優先度を割り振る。
図12に示す例では、ビンの数を10とし、各ビンに1.0、0.9、0.8、・・・、0.1と優先度を割り振る。すなわち輝度値226~250のビンは優先度1.0、輝度値201~225のビンは優先度0.9、・・・、輝度値0~25のビンは優先度0.1とする。
【0076】
さらに同じビンに属するカメラ間の優先度の差が、各ビンの優先度の幅の中で等しくなるよう、カメラ110の各々の優先度Phを設定する。すなわち、輝度値226~250のビンにカメラ110のうちの2つが含まれる場合、撮影画像データにおける対象画素領域の輝度値が大きい方からそれぞれ優先度Phに1.0、0.95を設定する。また、輝度値201~225のビンにカメラ110のうちの5つが含まれる場合、撮影画像データにおける対象画素領域の輝度値の大きい方からそれぞれ優先度Phに0.9、0.88、0.86、0.84、0.82を設定する。同様にカメラ110のうちの残りのカメラに対しても優先度Phを設定する。なお、LEDディスプレイ6が写っていない撮影画像データが得られないカメラは優先度0とする。
【0077】
ステップS306では、レンダリング部250がレンダリングする際、LEDディスプレイ6には優先度Phに基づき決定したカメラの撮影画像データを優先的に用いる。
【0078】
以上述べたように、本実施形態では、視野角情報として撮影画像データ中のLEDディスプレイ6に対応する画素領域の輝度値でカメラを分類したヒストグラムに基づく優先度の高いカメラの撮影画像データを優先的にレンダリングに用いる。これにより、本実施形態では、LEDディスプレイ6がより明るくレンダリングされた仮想視点画像データを生成することができる。
【0079】
なお、撮影画像内におけるオブジェクトに対応する画素領域の輝度値に基づいてカメラの優先度を決定する方法は上記に限定されない。例えば、
図12に示すヒストグラムにおいて輝度値が閾値以上となるビン(輝度値が251~255のビンなど)に属するカメラについては、優先度を低く設定してもよい。輝度値が大きすぎる画素を含む撮影画像は白飛びが発生しており、そのような撮影画像をレンダリングに使用すると仮想視点画像の画質が低下する虞があるためである。このような方法によれば、表面に光沢があり反射率が高いオブジェクト(例えばガラス面など)を含む仮想視点画像の生成において、反射光が強く入射するカメラの撮影画像がレンダリングに用いられることによる仮想視点画像の画質低下を抑制できる。
【0080】
なお、実施形態1~4においては、それぞれ異なる優先度を用いたが、これらの優先度は個別に使用しても、それらを掛け合わせたり、足し合わせたりして複数の優先度を同時に使用してもよい。
【0081】
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
【符号の説明】
【0082】
110 カメラ
120 コントローラ
130 サーバ