(58)【調査した分野】(Int.Cl.,DB名)
前記解析データ生成部は、前記解析データとして、前記多視点映像で連続するフレーム画像に含まれる前記オブジェクトの世界座標の変化により、前記オブジェクトの軌跡データを生成することを特徴とする請求項1に記載の多視点映像表現装置。
前記解析データ生成部は、前記解析データとして、単位時間における前記オブジェクトの世界座標の変化により、前記オブジェクトの速度データを生成することを特徴とする請求項1又は請求項2に記載の多視点映像表現装置。
【発明を実施するための形態】
【0013】
[多視点映像表現装置の構成]
図1を参照し、本願発明の実施形態に係る多視点映像表現装置1の構成について、説明する。
多視点映像表現装置1は、同一の被写体を複数の撮影カメラで撮影した多視点映像を用いて、被写体を異なる視点で表示すると共にオブジェクトの動きに関する解析データを合成するものである。
【0014】
図1に示すように、多視点映像表現装置1は、多視点映像撮影部10と、多視点映像格納部20と、カメラキャリブレーション部30と、オブジェクト追跡部40と、データ解析部(解析データ生成部)50と、CG生成部60と、CG合成部70と、演算部80と、射影変換行列群生成部90と、射影変換部100と、多視点映像表現部110とを備える。
【0015】
本実施形態では、一例として、ハンドボール試合の多視点映像について多視点映像表現を行うこととする。このとき、ハンドボール選手を被写体とし、ボール(オブジェクト)の解析データを生成することとする。
【0016】
多視点映像撮影部10は、複数の撮影カメラで同一の被写体を撮影して、この被写体が様々な視点で撮影された多視点映像を生成するものである。例えば、多視点映像撮影部10は、
図2に示すように、複数のロボットカメラ(撮影カメラ)Cと、操作部11とを備える多視点ロボットカメラシステムである。
【0017】
ロボットカメラCは、三脚Caに搭載されている。このロボットカメラCは、三脚Caの上方に設けた雲台Cbによって、パン軸及びチルト軸の2軸方向に駆動されると共に、ズームイン及びズームアウトができるように設置されている。また、ロボットカメラCは、撮影時のパン値、チルト値等のエンコーダ値を計測するエンコーダ(不図示)を備え、計測されたエンコーダ値をカメラキャリブレーション部30に出力する。
【0018】
操作部11は、ロボットカメラCの各種操作を行うものである。この操作部11は、ロボットカメラCを操作するためのハンドルが設けられると共に、ケーブルを介して、各ロボットカメラCに接続されている。
【0019】
まず、カメラマン(2点鎖線で図示)は、操作部11のハンドルを操作し、被写体を追随する。このとき、多視点映像撮影部10は、操作部11からの制御信号によって、全ロボットカメラCが被写体を追随するように方向制御し、被写体を撮影する。そして、多視点映像撮影部10は、被写体が撮影された多視点映像(撮影映像)を生成し、多視点映像格納部20に格納する。このように、多視点映像撮影部10は、一人のカメラマンによる一台分のカメラ操作で、複数のロボットカメラCを一斉に協調制御できるように構成されている。
【0020】
図3(a)に示すように、多視点映像撮影部10では、カメラマンの操作ミス、又は、雲台Cbの制御誤差により、ロボットカメラCの方向誤差が生じ、被写体Hが正確に多視点映像の中央に捉えられないことがある。このままでは、被写体Hが画像中央に位置しておらず、多視点映像表現が行えない場合がある。そこで、多視点映像表現装置1は、
図3(b)に示すように、画像処理(射影変換)によって、ロボットカメラCが被写体H(注視点P)に向くように仮想的な方向制御を行う。
以後、ロボットカメラC(C
1,…,C
l,…,C
n)をn台として説明する(但し、1<l<nを満たす)。
なお、射影変換により被写体を捉える位置は、多視点映像の中央に制限されない。
【0021】
図1に戻り、多視点映像表現装置1の構成について、説明を続ける。
多視点映像格納部20は、例えば、多視点映像撮影部10が生成した多視点映像を格納するフレームメモリである。この多視点映像格納部20に格納された多視点映像は、後記するオブジェクト追跡部40及びCG合成部70によって、フレーム画像単位で参照される。
【0022】
カメラキャリブレーション部30は、ロボットカメラC毎に、このロボットカメラCの位置及び姿勢が含まれるカメラパラメータをカメラキャリブレーションにより算出するものである。本実施形態では、カメラキャリブレーション部30は、ロボットカメラCから入力されたエンコーダ値を用いて、カメラパラメータを算出する。そして、カメラキャリブレーション部30は、算出したカメラパラメータを、オブジェクト追跡部40と、CG合成部70と、演算部80とに出力する。
【0023】
例えば、カメラパラメータの算出手法は、下記の参考文献1に記載されている。この参考文献1に記載の手法は、多視点カメラと複数の校正パターンを利用し、これらの関係を高精度に推定することで精度の高いカメラ校正を実現したものである。
参考文献1:「角度センサを用いた多視点カメラの校正手法と映像表現への適用」、映像情報メディア学会技術報告vol.39、no.7、2015、p.273-278
【0024】
前記したカメラパラメータには、各ロボットカメラCの内部パラメータと、各ロボットカメラCの位置(光学中心)及び姿勢を示す外部パラメータとが含まれている。この内部パラメータとは、内部パラメータ行列A
nのことである。また、外部パラメータとは、回転行列R
n及び並進行列T
nのことである。このとき、画像座標系(u
n,v
n)と世界座標系xの関係は、下記の式(1)〜式(5)で表わされる。
【0030】
なお、式(1)〜式(5)では、ωが画像距離であり、A
nがロボットカメラC
nの内部パラメータ行列であり、aがフレーム画像のアスペクト比であり、F
nがロボットカメラC
nの焦点距離であり、γがスキューであり、(C
x,C
y)がロボットカメラC
nの光軸と画像面との交点座標であり、R
nがロボットカメラC
nの回転行列であり、T
nがロボットカメラC
nの並進行列である。
【0031】
なお、画像座標とは、画像中の位置を示す座標のことである。
また、世界座標とは、各ロボットカメラCに共通する三次元座標のことである。
【0032】
<ロボットカメラCの姿勢>
図4を参照し、ロボットカメラCの姿勢について、説明する。
図4では、ロボットカメラCが設置された面(フロア面、地面)を設置面Gと図示した。また、
図4では、ロボットカメラCの光軸が設置面Gに平行であることとする。さらに、
図4には、ロボットカメラCのロール軸をZ軸とし、チルト軸をX軸とし、パン軸をY軸と図示した(以後の図面も同様)。
【0033】
ロボットカメラCの姿勢は、
図4に示すように、パン軸(Y軸)、チルト軸(X軸)、及び、ロール軸(Z軸)の3軸で表される。このパン軸は、ロボットカメラCがパンするときの回転軸であり、ロボットカメラCの上下に伸びている。従って、ロボットカメラCの光軸が設置面Gに平行な場合、パン軸が、設置面Gの法線に一致する。
【0034】
チルト軸は、ロボットカメラCがチルトするときの回転軸であり、ロボットカメラCの左右に伸びている。さらに、ロール軸は、ロボットカメラCがロールするときの回転軸であり、ロボットカメラCの前後に伸びており、ロボットカメラCの光軸に一致する。従って、ロボットカメラCの光軸が設置面Gに平行な場合、チルト軸及びロール軸が、設置面Gに平行となり、かつ、互いに直交する。
【0035】
図1に戻り、多視点映像表現装置1の説明を続ける。
オブジェクト追跡部40は、多視点映像格納部20に格納された多視点映像に含まれるオブジェクトを追跡し、予め設定された座標系変換式により、追跡したオブジェクトの画像座標から世界座標を算出するものである。
【0036】
例えば、オブジェクトの追跡部手法は、下記の参考文献2に記載されている。この参考文献2に記載の手法は、機械学習を用いて、映像からオブジェクトを頑健に検出・追跡するものである。
参考文献2:「機械学習を利用した複数視点映像からのサッカーボール追跡」、映像情報メディア学会技術報告vol.38、no.51、2014、p.5-8
【0037】
ここで、オブジェクト追跡部40は、世界座標を算出する際、n台のうち、2台のロボットカメラCを予め選択し、選択された2台のロボットカメラCの多視点映像を用いる。このとき、オブジェクト追跡部40は、光軸のなす角が直角に最も近い2台のロボットカメラCを予め選択すると、世界座標がより正確に求められるので好ましい。
【0038】
2台のロボットカメラCの撮影画像のそれぞれで、オブジェクトの画像座標(u
a,v
a),(u
b,v
b)が求まったとき、オブジェクトの世界座標gは、下記の座標変換式としての式(6)〜式(8)で求められる。そして、オブジェクト追跡部40は、算出したオブジェクトの世界座標gをデータ解析部50に出力する。
【0042】
なお、S
nijは、3行4列のカメラパラメータS
nのうち、i行j列の要素を表す(但し、1≦i≦3、1≦j≦4)。また、M
+はMの一般逆行列を表し、添え字a,bは選択された2台のロボットカメラを表す。
【0043】
データ解析部50は、オブジェクト追跡部40から入力されたオブジェクトの世界座標の変化により、解析データを生成するものである。そして、データ解析部50は、生成した解析データをCG生成部60に出力する。
【0044】
<解析データの第1例:ボールの軌跡データ>
図5,
図6を参照し、解析データの生成について、第1例及び第2例を説明する(適宜
図1参照)。
この第1例では、データ解析部50は、解析データとして、多視点映像で連続するフレーム画像に含まれるボール(オブジェクト)Oの世界座標の変化により、ボールOの軌跡データを生成する。
【0045】
ここで、
図5(a)〜(e)のように、ハンドボール試合の多視点映像が5枚のフレーム画像で構成され、各フレーム画像でのボールOの世界座標がg
1〜g
5であることとする。つまり、
図5では、連続するフレーム画像において、ボールOの世界座標がg
1からg
5まで変化している。
【0046】
まず、データ解析部50は、各フレーム画像において、ボールOの重心位置又は中心位置をボールOの世界座標g
1〜g
5として算出する。そして、データ解析部50は、世界座標g
1から世界座標g
2までの軌跡を求める。この解析データは、世界座標g
1,g
2を結ぶ線分と、世界座標g
2,g
3を結ぶ線分と、世界座標g
3,g
4を結ぶ線分と、世界座標g
4,g
5を結ぶ線分とを連結した軌跡データとなる。
【0047】
<解析データの第2例:ボールの速度データ>
この第2例では、データ解析部50は、解析データとして、単位時間におけるボールOの世界座標の変化により、ボールOの速度データを生成する。
【0048】
ここで、単位時間を1秒とし、
図6(b)のフレーム画像が、
図6(a)のフレーム画像より1秒(単位時間)だけ後のフレーム画像であることとする。また、各フレーム画像でのボールOの世界座標がg
10,g
11であることとする。つまり、ボールOは、1秒間に世界座標g
10から世界座標g
11まで移動している。
【0049】
まず、データ解析部50は、各フレーム画像において、ボールOの重心位置又は中心位置をボールOの世界座標g
10,g
11として算出する。そして、データ解析部50は、世界座標g
10から世界座標g
11までの移動距離を求める。さらに、データ解析部50は、求めた移動距離及び単位時間から、ボールOの速度を求める。
【0050】
なお、データ解析部50は、第1例又は第2例の何れの手法を用いるか、予め設定しておく。また、データ解析部50は、第1例又は第2例の手法を併用してもよい。
【0051】
図1に戻り、多視点映像表現装置1の説明を続ける。
CG生成部60は、データ解析部50から入力された解析データが視覚的に表現された三次元CGを生成するものである。第1例の手法で解析データを生成した場合、CG生成部60は、三次元CGとして、世界座標g
1〜g
5までの軌跡を生成する。また、第2例の手法で解析データを生成した場合、CG生成部60は、ボールOの速度を表した三次元CGを生成する。その後、CG生成部60は、生成した解析データのCGをCG合成部70に出力する。
【0052】
CG合成部70は、多視点映像格納部20に格納された多視点映像に、CG生成部60から入力された解析データのCGを合成するものである。具体的には、CG合成部70は、カメラキャリブレーション部30から入力されたカメラパラメータを式(1)及び式(2)に代入し、各多視点映像に解析データのCGを投影する。そして、CG合成部70は、解析データのCGが合成された多視点映像を演算部80に出力する。
【0053】
演算部80は、射影変換行列の生成に必要な各種演算を行うものであり、データ指定部82と、カメラ姿勢算出部84と、射影変換行列生成部86とを備える。
【0054】
データ指定部82は、基準フレーム画像、注視点、カメラパス(切替順序)等のデータが指定されるものである。本実施形態では、多視点映像表現装置1のユーザが、図示を省略したマウス、キーボード等の操作手段(不図示)を操作して、データをデータ指定部82に指定する。
【0055】
基準フレーム画像とは、多視点映像で連続するフレーム画像のうち、後記する射影変換行列を生成するフレーム画像のことである。通常、基準フレーム画像は、複数指定される。
注視点とは、基準フレーム画像毎に被写体の位置を表すものである。
カメラパスとは、多視点映像表現を行うときのロボットカメラCの切替順序を表すものである。
なお、多視点映像のうち、基準フレーム画像以外のフレーム画像を参照フレーム画像と呼ぶ。
【0056】
<基準フレーム画像及びカメラパスの指定>
図7を参照し、データ指定部82による基準フレーム画像及びカメラパスの指定について、説明する(適宜
図1参照)。
図7では、ロボットカメラC
1,C
2,…,C
nで撮影された多視点映像のフレーム画像が時系列順に並んでいる。また、ロボットカメラC
1,C
2,…,C
nのフレーム画像は同期している。
【0057】
データ指定部82は、多視点映像をディスプレイ(不図示)に表示する。そして、データ指定部82は、操作手段をユーザに操作させて、多視点映像表現を開始するフレーム画像F
1と、多視点映像表現を終了するフレーム画像F
iとを指定させる。ここで、多視点映像表現を開始及び終了するフレーム画像F
1,F
iは、基準フレーム画像として扱われる。
【0058】
前記したように、各ロボットカメラCのフレーム画像は同期している。そこで、データ指定部82は、何れか一台のロボットカメラCを基準ロボットカメラとし、この基準ロボットカメラの多視点映像に対し、基準フレーム画像をユーザに指定させればよい。この場合、データ指定部82は、残りのロボットカメラCの多視点映像についても、基準ロボットカメラのフレーム画像と同時刻のフレーム画像を、基準フレーム画像として扱う。
図7の例では、ドットで図示したフレーム画像F
1,F
2,F
iが基準フレーム画像として扱われる。
【0059】
次に、データ指定部82は、多視点映像表現を行うフレーム画像F
1〜F
iの間でカメラパスPhをユーザに指定させる。
図7の例では、カメラパスPhは、フレーム画像F
1でロボットカメラC
1からロボットカメラC
nに切り替わり、フレーム画像F
1とフレーム画像F
2との間ではロボットカメラC
nのままであることを表す。また、カメラパスPhは、フレーム画像F
2でロボットカメラC
nからロボットカメラC
1に切り替わり、再び、フレーム画像F
iでロボットカメラC
1からロボットカメラC
nに切り替わることを表す。
【0060】
なお、データ指定部82は、基準フレーム画像の数、及び、前後する基準フレーム画像の間隔を任意に指定できる。
また、データ指定部82は、ロボットカメラC
2からロボットカメラC
nへの切り替えのように、任意のロボットカメラCの間にカメラパスPhを指定できる。また、データ指定部82は、基準フレーム画像F
1,F
2,F
iだけでなく、参照フレーム画像にもカメラパスPhを指定できる。
【0061】
<注視点の指定>
続いて、データ指定部82による注視点の指定について、説明する。
データ指定部82は、各ロボットカメラCの基準フレーム画像毎に、注視点をユーザに指定させる。このとき、データ指定部82は、被写体が画像中央から外れたフレーム画像のみ、注視点を指定させればよい。
【0062】
そして、データ指定部82は、注視点がフレーム画像上(つまり、画像座標系)で指定されるため、以下のように、ユーザが指定した注視点を世界座標系に変換する。
【0063】
画像座標系(u,v)と世界座標系(X,Y,Z)との座標変換式は、ロボットカメラC毎に、前記した式(1)〜式(5)で定義される。つまり、データ指定部82は、式(1)〜式(5)を用いて、画像座標系(u,v)で指定された被写体の位置を、世界座標系(X,Y,Z)に変換する。
【0064】
図1に戻り、多視点映像表現装置1の説明を続ける。
カメラ姿勢算出部84は、カメラパラメータで表されるロボットカメラCの位置から注視点を向くように、仮想的にロボットカメラCを方向制御したときの姿勢を算出するものである。このカメラ姿勢算出部84は、ロール軸算出部841と、チルト軸算出部843と、パン軸算出部845とを備える。
【0065】
ロール軸算出部841は、ロボットカメラC毎に、ロボットカメラCの位置から注視点を向いたロール軸単位ベクトルe
nzを、注視点に向いたロボットカメラCのロール軸として算出するものである。
【0066】
まず、ロール軸算出部841は、カメラパラメータから、ロボットカメラCの位置(光学中心)を抽出する。また、ロール軸算出部841は、下記の式(9)に示すように、n台目のロボットカメラCについて、そのロボットカメラCの光学中心の世界座標(X
n,Y
n,Z
n)から注視点の世界座標(X
t,Y
t,Z
t)を向くベクトルE
nzを算出する。
【0068】
次に、ロール軸算出部841は、式(9)のベクトルE
nzが正規化されたロール軸単位ベクトルe
nzを算出する。つまり、このロール軸単位ベクトルe
nzが、注視点に向いたロボットカメラCのロール軸を示す。
なお、本実施形態において、正規化とは、ベクトルの方向をそのままとし、大きさが‘1’の単位ベクトルに変換することである。
【0069】
チルト軸算出部843は、ロボットカメラC毎に、ロール軸算出部841で算出されたロール軸単位ベクトルe
nzと、設置面Gに垂直な設置面法線単位ベクトルvとの外積で表されるチルト軸単位ベクトルe
nxを、注視点に向いたロボットカメラCのチルト軸として算出するものである。
【0070】
まず、チルト軸算出部843は、カメラパラメータから、カメラキャリブレーションを施したときのロボットカメラCのチルト軸を抽出する。このチルト軸とは、回転行列R
nでチルト軸を示す要素のことであり、例えば、前記した式(4)の一行目の要素を指している。
【0071】
次に、チルト軸算出部843は、下記の式(10)に示すように、2台のロボットカメラCのチルト軸R
Atilt,R
Btiltの外積で表される設置面法線単位ベクトルvを算出する。この式(10)は、
図8に示すように、2軸駆動のロボットカメラCにおいて、チルト軸(X軸)が三脚Caに垂直になり、かつ、この三脚Caが設置面Gに垂直になることから成立する。
【0073】
なお、式(10)では、‘||’がノルムを示す。また、式(10)では、A,Bが、多視点映像撮影部10を構成するロボットカメラCのうち、異なる2台を表す。ここで、A,Bに対応する2台のロボットカメラCは、任意に設定することができる。さらに、A,Bに対応するロボットカメラCは、チルト軸の誤差を低減するため、最も遠くに離れた2台、つまり、光軸のなす角が最大となる2台を設定することが好ましい。
【0074】
次に、チルト軸算出部843は、式(11)に示すように、注視点に向いたロボットカメラCのロール軸単位ベクトルe
nzと、設置面法線単位ベクトルvとの外積の値を正規化して、チルト軸単位ベクトルe
nxを算出する。つまり、このチルト軸単位ベクトルe
nxが、注視点に向いたロボットカメラCのチルト軸を示す。
【0076】
ここで、
図9に示すように、ロボットカメラCの光軸(ロール軸=Z´軸)が設置面Gに平行にならない場合でも、設置面法線単位ベクトルvが設置面Gに常に垂直になる。この性質を利用して、チルト軸算出部843は、ロボットカメラCのロール軸(Z´軸)と設置面法線単位ベクトルvとの外積により、ロボットカメラCのチルト軸(X´軸)を求めることができる。
なお、
図9では、注視点に向いたロボットカメラCのロール軸をZ´軸とし、チルト軸をX´軸とし、パン軸をY´軸と図示した(以後の図面も同様)。
【0077】
図1に戻り、多視点映像表現装置1の構成について、説明を続ける。
パン軸算出部845は、ロボットカメラC毎に、チルト軸算出部843で算出されたチルト軸単位ベクトルe
nxと、ロール軸単位ベクトルe
nzとの外積で表されるパン軸単位ベクトルe
nyを、注視点に向いたロボットカメラCのパン軸として算出するものである。
【0078】
具体的には、パン軸算出部845は、式(12)に示すように、注視点に向いたロボットカメラCのロール軸単位ベクトルe
nzとチルト軸単位ベクトルe
nxとの外積の値を正規化して、パン軸単位ベクトルe
nyを算出する。つまり、このパン軸単位ベクトルe
nyが、注視点に向いたロボットカメラCのパン軸を示す。
【0080】
射影変換行列生成部86は、ロボットカメラC及び基準フレーム画像毎に、注視点がフレーム画像の所定位置(例えば、画像中央)となるように射影変換するための射影変換行列を生成するものである。
具体的には、射影変換行列生成部86は、カメラ姿勢算出部84で算出されたパン軸単位ベクトルの転置e
nyTとロール軸単位ベクトルの転置e
nzTとチルト軸単位ベクトルの転置e
nxTとが要素として含まれる回転行列R´
nを生成する。
【0081】
下記の式(13)のように、前記した単位ベクトルe
nx,e
ny,e
nzを用いると、注視点を画像中央に合わせ、かつ、フレーム画像の水平軸を世界座標系の垂直軸に直交させるための回転行列R´
nを得ることができる。この式(13)では、Tが転置を示す。
【0083】
本実施形態では、各フレーム画像における被写体のサイズを揃えることとした。このため、各ロボットカメラCの焦点距離を、各ロボットカメラCの光学中心から注視点までの距離に応じて、デジタルズームにより補正する。つまり、補正後の焦点距離F´
nは、式(14)に示すように、全てのロボットカメラCの焦点距離の平均F
aveに、全てのロボットカメラCの光学中心から注視点までの距離平均ω
aveと、ロボットカメラC
nの光学中心から注視点までの距離平均ω
nとの比を乗じた値とする。
【0085】
この式(14)では、kが射影変換後のズーム率を示す係数であり、予め任意の値で設定される。つまり、この係数kの値を大きくする程、射影変換画像がデジタルズームによって拡大される。
【0086】
ここで、内部パラメータ行列A´
nは、補正後の焦点距離F´
nを用いて、下記の式(15)で定義される。従って、射影変換行列H
nは、下記の式(16)で表される。このように、射影変換行列生成部86は、式(16)で表される射影変換行列を、射影変換行列群生成部90に出力する。
【0089】
射影変換行列群生成部90は、ロボットカメラC毎に、参照フレーム画像の射影変換行列を、射影変換行列生成部86から入力された基準フレーム画像の射影変換行列から補間するものである。
【0090】
<射影変換行列の補間>
図7を参照し、射影変換行列群生成部90による射影変換行列の補間について、説明する(適宜
図1参照)。
【0091】
図7に示すように、射影変換行列生成部86は、ロボットカメラC
1,C
2,…,C
n毎に、基準フレーム画像F
1,F
2,F
iの射影変換行列H
11〜H
niを生成している。そこで、射影変換行列群生成部90は、基準フレーム画像F
1,F
2,F
i以外の参照フレーム画像について、射影変換行列を補間する。
【0092】
ロボットカメラC
1の基準フレーム画像F
1,F
2の間には、7枚の参照フレーム画像が挟まれている。言い換えるなら、これら参照フレーム画像は、前後に基準フレーム画像F
1,F
2が位置している。従って、射影変換行列群生成部90は、ロボットカメラC
1について、これら参照フレーム画像の射影変換行列を、基準フレーム画像F
1,F
2の射影変換行列H
11,H
12により補間する。
【0093】
各参照フレーム画像の射影変換行列は、基準フレーム画像F
1,F
2とのフレーム間距離に応じて補間される。つまり、参照フレーム画像が基準フレーム画像F
1に近くなる程、その参照フレーム画像の射影変換行列が、基準フレーム画像F
1の射影変換行列H
11に近くなる。一方、参照フレーム画像が基準フレーム画像F
2に近くなる程、その参照フレーム画像の射影変換行列が、基準フレーム画像F
2の射影変換行列H
12に近くなる。
【0094】
前記と同様、射影変換行列群生成部90は、ロボットカメラC
1について、基準フレーム画像F
2,F
iに挟まれた参照フレーム画像の射影変換行列を、基準フレーム画像F
2,F
iの射影変換行列H
12,H
1iを用いて補間する。ロボットカメラC
1と同様、射影変換行列群生成部90は、ロボットカメラC
2,…,C
nについても、参照フレーム画像の射影変換行列を補間する。
【0095】
このとき、射影変換行列群生成部90は、参照フレーム画像の射影変換行列を線形補間することが好ましい。これにより、射影変換行列群生成部90は、補間処理の負荷を抑えることができる。
【0096】
ここで、カメラマンは、一定の速度でパンニングするのではなく、次第にパンニング速度を上げるカメラワークを行うことが知られている。そこで、射影変換行列群生成部90は、このカメラワークを多視点映像表現として反映すべく、参照フレーム画像の射影変換行列を非線形補間することもできる。
【0097】
さらに、射影変換行列群生成部90は、線形補間及び非線形補間を併用してもよい。例えば、射影変換行列群生成部90は、基準フレーム画像F
1,F
2に挟まれた参照フレーム画像の射影変換行列を線形補間し、基準フレーム画像F
2,F
iに挟まれた参照フレーム画像の射影変換行列を非線形補間する。
【0098】
このようにして、射影変換行列群生成部90は、全てのロボットカメラC
1,C
2,…,C
nについて、基準フレーム画像F
1,F
2,F
iと参照フレーム画像との射影変換行列からなる射影変換行列群を生成する。そして、射影変換行列群生成部90は、生成した射影変換行列群を射影変換部100に出力する。
【0099】
図1に戻り、多視点映像表現装置1の説明を続ける。
射影変換部100は、射影変換行列群生成部90から入力された射影変換行列群により、全てのロボットカメラC
1,…,C
nの基準フレーム画像及び参照フレーム画像を射影変換することで、射影変換画像を生成するものである。
【0100】
ここで、基準フレーム画像及び参照フレーム画像の画素座標(u
n,v
n)を下記の式(17)の座標変換式により変換することで、射影変換後の画素座標(u´
n,v´
n)が求められる。つまり、
図10に示すように、射影変換部100は、式(16)及び式(17)を用いて、基準フレーム画像αを射影変換し、射影変換画像βを生成する(参照フレーム画像も同様に射影変換)。
【0102】
射影変換画像βの中心は、3次元座標系(X´,Y´,Z´)の原点Oから注視点PまでのZ´軸上に位置する。従って、射影変換画像βでは、注視点Pが画像中央に位置することになる。
その後、射影変換部100は、基準フレーム画像α及び参照フレーム画像から生成した射影変換画像βを、多視点映像表現部110に出力する。
【0103】
多視点映像表現部110は、データ指定部82から入力されたカメラパスに従って、射影変換部100から入力された射影変換画像を切り替えることで、多視点表現映像を生成するものである。
なお、多視点表現映像とは、多視点映像表現が施された多視点映像のことである。
【0104】
<多視点表現映像>
図11を参照し、解析データが表示された多視点表現映像の具体例について、説明する(適宜
図1参照)。
【0105】
図11(a)及び
図11(b)の多視点表現映像は、ハンドボール試合のシュートシーンにおいて、コート横側から選手Hの背中側に視点を切り替えたものである。この多視点表現映像には、解析データのCGとして、選手HがシュートしたボールOの速度が合成されている(符号αで図示)。従って、
図11(b)のように、選手Hの腕にボールOが隠れる場合でも、視聴者がボールOの速度を把握しやすくなる。
【0106】
また、
図11(c)及び
図11(d)の多視点表現映像は、ハンドボール試合のシュートシーンにおいて、ゴールの正面側から横側に視点を切り替えたものである。この多視点表現映像には、解析データのCGとして、ボールOの軌道が合成されている(符号βで図示)。従って、
図11(d)のように、ボールOが高速に飛ぶ場合でも、視聴者がボールOの弾道を把握しやすくなる。
【0107】
[多視点映像表現装置の動作]
図12を参照し、
図1の多視点映像表現装置1の動作について、説明する(適宜
図1参照)。
多視点映像表現装置1は、多視点映像撮影部10によって、多視点映像を生成する(ステップS1)。
多視点映像表現装置1は、多視点映像撮影部10が生成した多視点映像を、多視点映像格納部20に格納する(ステップS2)。
【0108】
多視点映像表現装置1は、カメラキャリブレーション部30によって、カメラキャリブレーションによりカメラパラメータを算出する(ステップS3)。
多視点映像表現装置1は、オブジェクト追跡部40によって、多視点映像に含まれるオブジェクトを追跡し、追跡したオブジェクトの画像座標から世界座標を算出する(ステップS4)。
【0109】
多視点映像表現装置1は、データ解析部50によって、オブジェクトの世界座標の変化により、解析データを生成する(ステップS5)。
多視点映像表現装置1は、CG生成部60によって、解析データが視覚的に表現された三次元CGを生成する(ステップS6)。
多視点映像表現装置1は、CG合成部70によって、多視点映像に解析データのCGを合成する(ステップS7)。
【0110】
多視点映像表現装置1は、データ指定部82によって、基準フレーム画像、注視点、カメラパス等のデータが指定される(ステップS8)。
多視点映像表現装置1は、ロール軸算出部841によって、ロボットカメラCの位置から注視点を向いたロール軸単位ベクトルe
nzを、被写体(注視点)へ向いたロボットカメラCのロール軸として算出する(ステップS9)。
【0111】
多視点映像表現装置1は、チルト軸算出部843によって、ロール軸単位ベクトルe
nzと、設置面法線単位ベクトルvとの外積で表されるチルト軸単位ベクトルe
nxを、被写体(注視点)へ向いたロボットカメラCのチルト軸として算出する(ステップS10)。
多視点映像表現装置1は、パン軸算出部845によって、チルト軸単位ベクトルe
nxとロール軸単位ベクトルe
nzとの外積で表されるパン軸単位ベクトルe
nyを、被写体(注視点)へ向いたロボットカメラCのパン軸として算出する(ステップS11)。
【0112】
多視点映像表現装置1は、射影変換行列生成部86によって、ロボットカメラC及び基準フレーム画像毎に、式(16)で表される射影変換行列を生成する(ステップS12)。
多視点映像表現装置1は、射影変換行列群生成部90によって、参照フレーム画像の射影変換行列をステップS12で算出した基準フレーム画像の射影変換行列から補間することで、射影変換行列群を生成する(ステップS13)。
【0113】
多視点映像表現装置1は、射影変換部100によって、ステップS13で生成した射影変換行列群により、全てのロボットカメラCの基準フレーム画像及び参照フレーム画像を射影変換することで、射影変換画像を生成する(ステップS14)。
多視点映像表現装置1は、多視点映像表現部110によって、ステップS8で指定されたカメラパスに従って、ステップS14で生成された射影変換画像を切り替えることで、多視点表現映像を生成する(ステップS15)。
【0114】
[作用・効果]
本願発明の実施形態に係る多視点映像表現装置1は、多視点映像表現を行う際、ボールOの弾道や速度等の解析データが表示されるので、ボールOの動きが分かりやすくなる。これによって、本願発明によれば、多視点映像表現の臨場感を高くすることができる。
【0115】
また、多視点映像表現装置1は、視点が連続的に切り替わるようにカメラパスを指定できる。そして、多視点映像表現装置1は、基準フレーム画像の射影変換行列から参照フレーム画像の射影変換行列を補間するので、従来技術に比べて、少ない演算量で射影変換行列群を生成できる。これによって、多視点映像表現装置1は、複数のフレーム画像で連続的な多視点映像表現を行うことができ、例えば、スポーツ中継における選手の姿勢や動作の分析、解説の幅を広げることができる。
【0116】
さらに、多視点映像表現装置1は、基準フレーム画像のみに注視点を指定するだけでよく、参照フレーム画像に注視点を指定する必要がないので、ユーザの作業負担を軽減することができる。
【0117】
(変形例)
以上、本願発明の実施形態を詳述してきたが、本願発明は前記した実施形態に限られるものではなく、本願発明の要旨を逸脱しない範囲の設計変更等も含まれる。
【0118】
前記した実施形態では、射影変換行列群を用いて射影変換を行うこととして説明したが、本願発明は、これに限定されない。例えば、本願発明は、下記の参考文献3に記載された手法により、射影変換を行ってもよい。
参考文献3:特開2014−27528号公報
【0119】
前記した実施形態では、解析データとして、ボールの速度と軌道を求めることとして説明したが、本願発明は、これに限定されない。
例えば、解析データとして、ボールの出射角を求めることができる。具体的には、ボールの出射角は、ボールの世界座標の変化から、ボールの移動方向を求め、求めたボールの移動方向と予め設定した基準方向とのなす角を表す。
また、解析データとして、ボールの打点を求めることができる。具体的には、ボールの打点は、ボールの速度と移動方向との両方が予め設定した閾値を超える程、大きく変化した位置になる。
【0120】
多視点映像表現装置1は、コンピュータが備える演算装置、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させる多視点映像表現プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。