(58)【調査した分野】(Int.Cl.,DB名)
赤外光マーカを付けて移動する1以上のオブジェクトを赤外光で撮影した赤外画像と、前記オブジェクトを可視光で撮影した可視画像とを用いて、前記オブジェクトを追跡するオブジェクト追跡装置であって、
前記赤外画像から前記赤外光マーカの領域を赤外光領域として検出する赤外光検出部と、
前記赤外光領域を検出できたときは当該赤外光領域の検出位置又は前記赤外光領域を検出できないときは前記検出位置の欠落と、当該赤外光領域の検出対象となった赤外画像の時刻情報とが含まれる位置データを生成する位置データ生成部と、
前記位置データの欠落区間を特定し、特定した前記欠落区間の開始時刻から終了時刻までの時間長が予め設定した閾値以上であるか否かを判定する欠落区間特定部と、
前記欠落区間の時間長が前記閾値以上の場合、前記開始時刻直前及び前記終了時刻直後の位置データから前記検出位置を取得し、取得した前記検出位置に基づいて画像領域を前記開始時刻及び前記終了時刻の可視画像に設定し、設定した前記画像領域から特徴点を検出する特徴点検出部と、
前記開始時刻及び前記終了時刻の位置データを前記特徴点の検出位置で補間し、補間した前記位置データを前記欠落区間特定部に出力する位置データ補間部と、
前記欠落区間の時間長が前記閾値未満の場合、前記位置データに基づいて前記オブジェクトを追跡するオブジェクト追跡部と、を備え、
前記欠落区間特定部は、前記位置データ補間部から入力された位置データの欠落区間を特定することを特徴とするオブジェクト追跡装置。
【発明を実施するための形態】
【0018】
[オブジェクト追跡システムの概略]
図1を参照し、本発明の実施形態に係るオブジェクト追跡システム1の概略について説明する。
以後の実施形態では、フェンシングにおいて、選手が持つ剣先(オブジェクト)を追跡対象として説明する。フェンシングの最中、両選手の剣先は、高速で移動することが多い。
【0019】
オブジェクト追跡システム1は、可視光及び赤外光を同光軸で撮影可能な可視・赤外同光軸カメラ20を利用して、高速で移動する2本の剣先位置を追跡し、その軌跡C(C
1,C
2)を描画するものである。
図1に示すように、オブジェクト追跡システム1は、赤外光投光器10と、可視・赤外同光軸カメラ20と、オブジェクト追跡装置30と、を備える。
【0020】
赤外光投光器10は、赤外光を投光する一般的な投光器である。
図2に示すように、この赤外光投光器10が投光した赤外光は、両選手の剣先90に付けた反射テープ(赤外光マーカ)91で反射され、後記する可視・赤外同光軸カメラ20で撮影される。
【0021】
反射テープ91は、赤外光投光器10からの赤外線を反射するものである。この反射テープ91は、剣先90に1枚以上付ければよく、その大きさや枚数に特に制限はない。
図2の例では、剣先90は、その側面に矩形状の反射テープ91を1枚付けている。ここで、剣先90は、側面反対側に反射テープ91を1枚追加してもよく、その側面を一周するように帯状の反射テープ91を巻いてもよい(不図示)。
【0022】
可視・赤外同光軸カメラ20は、可視光と赤外光を同一光軸で撮影し、同一画素数の可視画像I及び赤外画像Hを生成するものである。本実施形態では、可視・赤外同光軸カメラ20は、フェンシングの競技を撮影した可視画像Iと、剣先90の反射テープ91を撮影した赤外画像Hと、を生成する。ここで、可視画像Iの剣先90と、赤外画像Hの反射テープ91との画像座標が対応するため、3次元空間での視点変換を行うことなく軌跡Cを描画できる。
【0023】
オブジェクト追跡装置30は、可視・赤外同光軸カメラ20から入力された赤外画像Hと可視画像Iとを用いて、両選手の剣先90を追跡するものである。そして、オブジェクト追跡装置30は、追跡した両選手の剣先90の軌跡C
1,C
2を異なる色で描画し、描画した軌跡C
1,C
2を可視画像Iに合成することで、軌跡合成画像Fを生成する。
なお、
図1では、左側の選手が持つ剣先90の軌跡C
1を破線で図示し、右側の選手が持つ剣先90の軌跡C
2を一点鎖線で図示した。
【0024】
[オブジェクト追跡装置の構成]
図3を参照し、オブジェクト追跡装置30の構成について説明する。
図3に示すように、オブジェクト追跡装置30は、赤外光検出手段31と、可視画像解析手段33と、タイムコード連動型CG合成手段35と、を備える。以下、タイムコード連動型CG合成手段35をTC連動型CG合成手段35と略記する。
【0025】
ここで、オブジェクト追跡装置30は、時間方向に連続するフレーム1,…,t−1,t,…の赤外画像H及び可視画像Iが入力され、入力された赤外画像H及び可視画像Iに順次処理を施すこととする。以後、現在のフレーム(現フレーム)をtとし、現フレームtの赤外画像H及び可視画像Iを赤外画像H
t及び可視画像I
tとする。この添え字tは、各画像や位置情報の時刻情報(例えば、タイムコードを表す)。
【0026】
赤外光検出手段31は、現フレームtの赤外画像H
tから剣先90を検出し、剣先90の位置データを生成するものである。本実施形態では、赤外光検出手段31は、赤外画像H
tに含まれる2つの剣先90を検出し、剣先90毎に位置データを生成する。この赤外光検出手段31は、赤外光検出部311と、位置データ生成部313と、を備える。
【0027】
赤外光検出部311は、可視・赤外同光軸カメラ20より入力された赤外画像H
tから赤外光マーカの領域を赤外光領域として検出するものである。この赤外光検出部311は、任意の手法で赤外光領域を検出できる。以下、赤外光検出部311における赤外光領域の検出手法の一例を説明する。
【0028】
本実施形態では、赤外画像H
tから反射テープ91の領域を候補ブロブとして抽出する。そして、赤外光検出部311は、予め設定した面積及び形状特徴量の範囲内の候補ブロブを、予め設定したオブジェクト上限数だけ候補ブロブの面積が広い順に検出ブロブとして検出する。本実施形態では、オブジェクト上限数は、剣先90と同数の‘2’に設定する。
【0029】
まず、赤外光検出部311は、下記の式(1)を用いて、赤外画像H
tと、1つ前のフレームの赤外画像H
t−1との2値赤外差分画像を生成することで、動オブジェクトの領域Q
tのみを抽出する。つまり、赤外光検出部311は、赤外画像H
tの画素(x
t,y
t)の輝度値H
xytと、赤外画像H
t−1の画素(x
t−1,y
t−1)の輝度値H
xyt−1との差分を求める。そして、赤外光検出部311は、求めた差分が予め設定した閾値R
bri2を超える動オブジェクトの領域Q
xytを、候補ブロブとして抽出する。
【0031】
ここで、x,yは、水平及び垂直の画像座標を表す。また、閾値R
bri2は、任意の値で予め設定する。また、式(1)の‘0’、‘255’は、各画素の輝度値を表す。
なお、赤外光検出部311は、静止しているノイズブロブの発生を抑えるために2値赤外差分画像Q
xytを生成したが、赤外画像H
tで輝度が高い領域を候補ブロブとして抽出してもよい。
【0032】
次に、赤外光検出部311は、抽出した候補ブロブにモルフォロジ処理(オープニングモルフォロジ処理)を施し、小領域のノイズブロブを消去する。このモルフォロジ処理とは、画像をいくつかの方向に画素単位でずらした画像群と、もとの画像との画像間演算によって、小領域のノイズブロブを消去する処理である。
【0033】
次に、赤外光検出部311は、モルフォロジ処理で残った候補ブロブにラベリング処理を施す。このラベリング処理とは、候補ブロブにラベル(番号)を割り当てる処理である。
【0034】
次に、赤外光検出部311は、ラベリング処理を施した候補ブロブの位置、面積及び形状特徴量を求める。ここで、候補ブロブの位置は、候補ブロブの中心位置又は重心位置である。また、候補ブロブの形状特徴量は、円形度や外接矩形のアスペクト比とする。
【0035】
そして、赤外光検出部311は、予め設定した最小面積から最大面積までの範囲内にない候補ブロブを消去する。さらに、赤外光検出部311は、形状特徴量が予め設定した範囲内にない候補ブロブを消去する。さらに、赤外光検出部311は、候補ブロブの数がオブジェクト上限数を超えている場合、面積が大きい2個の候補ブロブを検出ブロブとして残し、他の候補ブロブを消去する。
【0036】
赤外光領域を検出できた場合(検出ブロブが残った場合)、赤外光検出部311は、赤外画像H
tの時刻情報に対応付けて、検出ブロブの位置を赤外光領域の検出位置として位置データ生成部313に出力する。
一方、赤外光領域を検出できない場合(検出ブロブが残らない場合)、赤外光検出部311は、赤外画像H
tの時刻情報と共に、赤外光領域が検出できないことを位置データ生成部313に通知する(検出失敗通知)。
【0037】
位置データ生成部313は、赤外光検出部311から入力された赤外光領域の検出位置又は検出失敗通知と、赤外画像H
tの時刻情報とに基づいて、位置データP
tを生成するものである。そして、位置データ生成部313は、生成した位置データPを欠落区間特定部331に出力する。
【0038】
<位置データ>
以下、位置データを詳細に説明する。
この位置データP
tは、赤外光領域の位置情報と、赤外光領域の検出対象となった赤外画像H
tの時刻情報(タイムコード)とを対応付けた情報である。
本実施形態では、赤外光領域の位置情報は、剣先90の検出位置を表す。ここで、赤外光領域の位置情報は、赤外光検出部311から赤外光領域の検出位置が入力された場合、その赤外光領域の画像座標(x
t,y
t)となる。一方、赤外光領域の位置情報は、赤外光検出部311から検出失敗通知が入力された場合、検出位置の欠落を示す画像座標(−1,−1)となる。
【0039】
図4(a)に示すように、位置データPの各行が、赤外画像H
tのタイムコードと、その赤外画像H
tに含まれる赤外光領域の位置情報とを表している。
図4(a)の位置データPでは、1行目〜4行目及び10行目〜11行目が赤外光領域の検出位置を表し、5行目〜9行目が検出位置の欠落を表す。
【0040】
例えば、位置データPの1行目は、赤外画像Hのタイムコードが「10:25:30.25」であり、赤外光領域の画像座標が(1250,350)である。また、位置データPの5行目は、赤外画像Hのタイムコードが「10:25:30.29」であり、赤外光領域の画像座標が(−1,−1)なので、検出位置の欠落を表す。
【0041】
なお、位置データPは、オブジェクト毎に生成することとする。本実施形態では剣先90が2つのため、
図4の位置データPが左側選手の剣先90に対応し、右側選手の剣先90に対応する位置データPも別に生成する。
【0042】
図3に戻り、オブジェクト追跡装置30の構成について、説明を続ける。
可視画像解析手段33は、位置データPに含まれる欠落区間を特定し、欠落区間両端の可視画像から特徴点を検出し、位置データPを補間するものである。この可視画像解析手段33は、欠落区間特定部331と、特徴点検出部333と、位置データ補間部335と、を備える。
【0043】
欠落区間特定部331は、位置データ生成部313又は位置データ補間部335から入力された位置データPの欠落区間を特定し、特定した欠落区間の時間長dが閾値m以上であるか否かを判定するものである。
【0044】
まず、欠落区間特定部331は、位置データPの各行を参照し、位置情報が連続して欠落している欠落区間を特定する。本実施形態では、欠落区間特定部331は、位置データPで画像座標(−1,−1)が含まれる行を特定する。
【0045】
次に、欠落区間特定部331は、画像座標(−1,−1)が連続する欠落区間のうち、最も先の時刻を欠落区間の開始時刻T
STとし、最も遅い時刻を欠落区間の終了時刻T
EDとして求める。そして、欠落区間特定部331は、特定した欠落区間の開始時刻T
STから終了時刻T
EDまでの時間長dを求める。
【0046】
次に、欠落区間特定部331は、求めた欠落区間の時間長dが閾値m以上であるか否かを判定する。この閾値mは、任意の値で予め設定されている(例えば、‘3’フレーム)。
時間長dが閾値m以上の場合、欠落区間特定部331は、位置データPと共に、求めた欠落区間の開始時刻T
ST及び終了時刻T
EDを特徴点検出部333に出力する。
一方、時間長dが閾値m未満の場合、欠落区間特定部331は、位置データPを位置データ蓄積部351に書き込む。
【0047】
特徴点検出部333は、欠落区間の時間長dが閾値m以上の場合、位置データPから開始時刻直前及び終了時刻直後の検出位置を取得し、取得した検出位置に基づいて、開始時刻及び終了時刻の可視画像I
tに画像領域を設定し、設定した画像領域から特徴点を検出するものである。この特徴点検出部333は、特徴点検出部333は、欠落区間特定部331から位置データPが入力され、可視・赤外同光軸カメラ20から可視画像I
tが入力される。
【0048】
まず、特徴点検出部333は、欠落区間の開始時刻T
STから開始直前時刻T
ST−1を求める。この開始直前時刻T
ST−1は、開始時刻T
STの1つ前の時刻(タイムコード)を表す。また、特徴点検出部333は、欠落区間の終了時刻T
EDから終了直後時刻T
ED+1を求める。この終了直後時刻T
ED+1は、終了時刻T
EDの1つ後の時刻(タイムコード)を表す。
【0049】
ここで、開始直前時刻T
ST−1及び終了直後時刻T
ED+1の赤外画像Hでは、剣先90の検出に成功している。このため、開始時刻T
STの可視画像I
STにおいて、開始直前時刻T
ST−1の検出位置(x
ST-1,y
ST-1)の周辺に剣先90が存在する可能性が高い。これと同様、終了時刻T
EDの可視画像I
EDにおいても、終了直後時刻T
ED+1の検出位置(x
ED+1,y
ED+1)の周辺に剣先90が存在する可能性が高い。
【0050】
そこで、特徴点検出部333は、開始直前時刻T
ST−1の位置データP
ST−1から検出位置(x
ST-1,y
ST-1)を取得し、その検出位置(x
ST-1,y
ST-1)を基準とした画像領域(探索領域)を可視画像I
STに設定する。この画像領域は、検出位置を中心として任意の形状及びサイズで設定可能であり、例えば、縦160画素×横160画素の矩形領域である。
また、特徴点検出部333は、終了直後時刻T
ED+1の位置データP
ED+1から検出位置(x
ED+1,y
ED+1)を取得し、その検出位置(x
ED+1,y
ED+1)を基準とした画像領域を可視画像I
EDに設定する。
【0051】
次に、特徴点検出部333は、この画像領域において、下記の式(2)を用いて、可視画像I
tと、1つ前のフレームの可視画像I
t−1との差分画像S
tを生成する。つまり、特徴点検出部333は、可視画像I
tの画素(x
t,y
t)の輝度値I
xytと、可視画像I
t−1の画素(x
t−1,y
t−1)の輝度値I
xyt−1との差分が、予め設定した閾値R
briを超える差分画像S
xytを抽出する。
【0053】
なお、式(2)を可視画像I
STに適用する際はt=STとし、式(2)を可視画像I
EDに適用する際はt=EDとする。また、閾値R
briは、任意の値で予め設定する。
また、特徴点検出部333は、赤外光検出部311と同様、差分画像S
tにオープニングモルフォロジ処理を施し、小領域のノイズブロブを除去してもよい。
【0054】
特徴点を差分画像S
tから検出することで、固定カメラ映像の場合、静止したノイズブロブの発生を抑制することができる。動カメラ映像の場合、カメラの動きによる差分が生じるため、差分画像S
tを利用する効果が低減する。その場合、特徴点検出部333は、エッジ画像を作成し、エッジ値の高い画像領域から特徴点を検出してもよい。さらに、特徴点検出部333は、2値化を行わず、差分値、エッジ値又は輝度値をそのまま利用して特徴点を検出してもよい。
【0055】
次に、特徴点検出部333は、可視画像I
STに設定した差分画像S
xySTから特徴点を検出し、検出した特徴点の中から、開始直前時刻T
ST−1における赤外光領域の検出位置(x
ST-1,y
ST-1)に最も近い特徴点を、開始時刻T
STの特徴点として取得する。
さらに、特徴点検出部333は、可視画像I
EDに設定した差分画像S
xyEDから特徴点を検出し、検出した特徴点の中から、終了直後時刻T
ED+1における赤外光領域の検出位置(x
ED+1,y
ED+1)に最も近い特徴点を、終了時刻T
EDの特徴点として取得する。
その後、特徴点検出部333は、取得した開始時刻T
ST及び終了時刻T
EDの特徴点の位置を位置データ補間部335に出力する。
【0056】
前記した特徴点の検出手法としては、SIFT(Scale Invariant Feature Transform)やSURF(Speeded Up Robust Features)等が代表的であるが、特徴点検出部333は、どのような特徴点の検出手法を用いてもよい。本実施形態では、以下の参考文献に記載のFAST(Features from Accelerated Segment Test)特徴量を用いることとする。
【0057】
参考文献:Edward Rosten and Tom Drummond,”Machine learning for high-speed corner detection,” In Proc. of European Conference on Computer Vision (ECCV2006),pp.430-443,2006.
【0058】
<FAST特徴量>
このFAST特徴量は、コーナーのみを特徴点の対象とし、決定木により高速かつ効率的に特徴点を検出する。ここでは、
図5(a)の可視画像IからFAST特徴量を検出することとして説明する。FAST特徴量では、
図5(b)に示すように、注目画素pの周囲16箇所の画素を観測する。そして、FAST特徴量では、注目画素pの画素値と比較して、16個の観測画素のうち、連続してn個以上の画素値が閾値t以上明るくなる又は暗くなる場合、その注目画素pをコーナーとして検出する(但し、nは1以上の自然数)。
なお、
図5(b)では、可視画像Iの注目画素をp、観測画素を1〜16の数値で図示した。
【0059】
FAST特徴量では、再現性の高い特徴点を高速かつ効率的に検出するために決定木を用いる。下記の式(3)に示すように、16個の観測画素を明るい(brighter)、類似(similar)、又は、暗い(darker)の3値に分類する。
なお、式(3)では、I
pが注目画素pの輝度値、xが観測画素の位置、I
p→xが観測画素の輝度値、tが閾値を表す。
【0061】
3値に分類した観測画素を特徴ベクトルとし、観測画素の画素値が連続してn個以上、明るい(brighter)又は暗い(darker)のという条件を満たすとき、コーナーとして検出する。一方、この条件を満たさないとき、非コーナーとして扱う。このように決定木を構築し、コーナー及び非コーナーを最適に分類できる円上の観測画素を分岐ノードとして選択する処理を再帰的に行い、全体の木構造を得る。
【0062】
多くの特徴点検出手法では、特徴点らしさを表すレスポンス値の局所最大値を抽出することで、隣接して検出される特徴点の中で有効な画素のみを検出する。しかし、FAST特徴量では、レスポンス値を抽出しないため、以下の式(4)でレスポンス値Vを算出する。隣接して検出されたコーナー点の中で、最もレスポンス値Vが高い画素をコーナー点とすることで、互いに離れたコーナー点を検出できる。
【0064】
図3に戻り、オブジェクト追跡装置30の構成について、説明を続ける。
位置データ補間部335は、開始時刻T
ST及び終了時刻T
EDの位置データPを、特徴点検出部333から入力された特徴点の検出位置で補間するものである。つまり、検出位置が欠落している位置データPを、特徴点検出部333が検出した特徴点の位置で更新する。
【0065】
続いて、位置データ補間部335は、補間した位置データPを欠落区間特定部331に出力する。
すると、欠落区間特定部331は、位置データ補間部335より入力された位置データPから欠落区間を再び特定する。その後、可視画像解析手段33は、前記した処理を繰り返す。
【0066】
<位置データの補間>
図4を参照し、可視画像解析手段33による位置データの補間を具体例に説明する(適宜
図3参照)。
ここでは、
図4(a)の位置データPが入力され、閾値mが‘3’フレームであることとする。
【0067】
まず、
図4(a)の位置データPにおける1回目の補間を説明する。
欠落区間特定部331は、この位置データPの各行を参照し、画像座標(−1,−1)が連続している5行目〜9行目を欠落区間として特定する。そして、欠落区間特定部331は、5行目〜9行目の欠落区間のうち、最も先の時刻「10:25:30.29」を開始時刻T
STとし、最も遅い時刻「10:25:31.03」を終了時刻T
EDとして求める。
【0068】
次に、欠落区間特定部331は、欠落区間の開始時刻T
ST「10:25:30.29」から終了時刻T
ED「10:25:31.03」までの時間長dを‘5’フレームと算出し、欠落区間の時間長dと閾値mとの閾値判定を行う。ここで、欠落区間特定部331は、時間長d=‘5’が閾値m=‘3’以上なので、位置データPと、開始時刻T
ST「10:25:30.29」及び終了時刻T
ED「10:25:31.03」とを特徴点検出部333に出力する。
【0069】
特徴点検出部333は、開始時刻T
ST「10:25:30.29」の1フレーム前である開始直前時刻T
ST−1「10:25:30.28」を算出する。また、特徴点検出部333は、終了時刻T
ED「10:25:31.03」の1フレーム後である終了直後時刻T
ED+1「10:25:31.04」を算出する。そして、特徴点検出部333は、開始直前時刻T
ST−1の位置データPから画像座標(1255,344)を取得し、終了直後時刻T
ED+1の位置データPから画像座標(1265,331)を取得する。
【0070】
次に、特徴点検出部333は、開始時刻T
STの可視画像I
STに画像座標(1255,344)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。さらに、特徴点検出部333は、終了時刻T
EDの可視画像I
EDに画像座標(1265,331)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。
【0071】
位置データ補間部335は、
図4(a)の位置データPにおいて、開始時刻T
STの画像座標(−1,−1)を特徴点の画像座標(1256,343)で更新する。また、位置データ補間部335は、終了時刻T
EDの画像座標(−1,−1)を特徴点の画像座標(1264,331)で更新する。
【0072】
続いて、
図4(b)の位置データPにおける2回目の補間を説明する。
欠落区間特定部331は、この位置データPの各行を参照し、画像座標(−1,−1)が連続している6行目〜8行目を欠落区間として特定し、開始時刻T
ST「10:25:31.00」及び終了時刻T
ED「10:25:31.02」を求める。
【0073】
次に、欠落区間特定部331は、欠落区間の時間長d=‘3’が閾値m=‘3’以上なので、位置データPと、開始時刻T
ST「10:25:31.00」及び終了時刻T
ED「10:25:31.02」とを特徴点検出部333に出力する。
【0074】
特徴点検出部333は、開始直前時刻T
ST−1「10:25:30.29」及び終了直後時刻T
ED+1「10:25:31.03」を算出する。そして、特徴点検出部333は、開始直前時刻T
ST−1の位置データPから画像座標(1256,343)を取得し、終了直後時刻T
ED+1の位置データPから画像座標(1264,331)を取得する。
【0075】
次に、特徴点検出部333は、開始時刻T
STの可視画像I
STに画像座標(1256,343)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。さらに、特徴点検出部333は、終了時刻T
EDの可視画像I
EDに画像座標(1264,331)を中心とした画像領域を設定し、この画像領域から特徴点を検出する。
【0076】
位置データ補間部335は、
図4(b)の位置データPにおいて、開始時刻T
ST及び終了時刻T
EDの画像座標(−1,−1)を、特徴点検出部333が検出した特徴点の画像座標で更新する。
【0077】
このように、可視画像解析手段33は、オブジェクトを高確率で検出可能な開始時刻T
STの可視画像I
ST及び終了時刻T
EDの可視画像I
EDからオブジェクトを検出し、徐々に位置データPの欠落区間を狭めていくことで、正確な位置データPを生成することができる。
【0078】
なお、
図4の位置データPでは欠落区間が1つであることとして説明したが、位置データPに複数の欠落区間が含まれる場合もある。この場合、可視画像解析手段33は、前記した処理をそれぞれの欠落区間に適用すればよい。
また、位置データは、
図4の例に限定されないことは言うまでもない。
【0079】
図3に戻り、オブジェクト追跡装置30の構成について、説明を続ける。
TC連動型CG合成手段35は、可視・赤外同光軸カメラ20から入力された可視画像I
tのタイムコードT
tをトリガとして、蓄積した位置データPからオブジェクトの位置座標を取得して軌跡を描画し、描画した軌跡を可視画像I
tに合成するものである。
【0080】
通常、プレイバックのスローVTRは、生映像やリアルタイムで生成したCG映像をVTRに収録し、使用するタイミングで巻き戻してから再生する。しかし、CG映像をリアルタイムで生成できない場合、位置データPを補間した後、VTRに収録した可視画像Iを再生して軌跡を描画する必要がある。この場合、一定の作業時間が必要となり効率が損なわれる。そのため、VTRに収録した映像の再生に同期したタイミングで軌跡を描画し、その場でCGを合成することが好ましい。
【0081】
図3に示すように、TC連動型CG合成手段35は、位置データ蓄積部351と、軌跡描画部(オブジェクト追跡部)353と、を備える。
位置データ蓄積部351は、位置データPを蓄積するHDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリ等の記憶装置である。この位置データPは、欠落区間特定部331によって書き込まれ、軌跡描画部353によって参照される。
【0082】
軌跡描画部353は、可視・赤外同光軸カメラ20から入力された可視画像I
tの時刻情報に対応する位置データP
tを位置データ蓄積部351から読み出す。そして、軌跡描画部353は、読み出した位置データP
tの画素(x
t,y
t)に剣先90の軌跡を描画し、描画した軌跡及び可視画像I
tを合成した軌跡合成画像F
tを外部に出力するものである。
【0083】
例えば、軌跡描画部353は、両選手の剣先90の軌跡C
1,C
2を異なる色で描画し、描画した軌跡C
1,C
2を可視画像I
tに合成することで、軌跡合成画像F
tを生成する。ここで、左側選手の剣先90の検出に失敗している場合でも位置データPが補間されるので、軌跡描画部353は、
図6に示すように、左側選手の剣先90の軌跡C
1を描画できる。
なお、
図6では矩形βは特徴点検出部333が設定した画像領域を表し、円γは赤外光検出部311が検出した剣先90を表す。
【0084】
[オブジェクト追跡装置の動作]
図7を参照し、オブジェクト追跡装置30の動作について説明する(適宜
図3参照)。
図7に示すように、赤外光検出部311は、2値赤外差分画像を生成し、抽出した候補ブロブにモルフォロジ処理を施す(ステップS1)。
【0085】
赤外光検出部311は、モルフォロジ処理で残った候補ブロブにラベリング処理を施し、候補ブロブの位置、面積及び形状特徴量を求める。そして、赤外光検出手段31は、面積及び形状特徴量を基準にフィルタリングし、検出ブロブ(赤外光領域)を検出する(ステップS2)。
位置データ生成部313は、赤外光領域の検出位置と、赤外画像の時刻情報とを対応付けた位置データを生成する(ステップS3)。
【0086】
欠落区間特定部331は、位置データから欠落区間の開始時刻T
ST及び終了時刻T
EDを取得し、その開始時刻T
STから終了時刻T
EDまでの時間長dを求める(ステップS4)。
欠落区間特定部331は、欠落区間の時間長dが閾値m以上であるか否かを判定する(ステップS5)。
【0087】
時間長dが閾値m以上の場合(ステップS5でYes)、特徴点検出部333は、位置データから、開始直前時刻T
ST−1及び終了直後時刻T
ED+1の検出位置を取得する(ステップS6)。
特徴点検出部333は、可視画像に、開始直前時刻T
ST−1及び終了直後時刻T
ED+1の検出位置を基準とした画像領域を設定する(ステップS7)。
【0088】
特徴点検出部333は、可視画像に設定した画像領域内の特徴点を検出する(ステップS8)。
位置データ補間部335は、過去の検出位置に最も近い特徴点で位置データを補間し(ステップS9)、ステップS4の処理に戻る。
【0089】
時間長dが閾値m未満の場合(ステップS5でNo)、欠落区間特定部331は、位置データを位置データ蓄積部351に書き込む。
軌跡描画部353は、可視・赤外同光軸カメラ20から入力された可視画像の時刻情報に対応する位置データを位置データ蓄積部351から読み出す(ステップS10)。
軌跡描画部353は、読み出した位置データの検出位置に応じて、オブジェクトの軌跡を描画し、描画した軌跡を可視画像に合成する(ステップS11)。
【0090】
[作用・効果]
本発明の実施形態に係るオブジェクト追跡装置30は、剣先90が存在する可能性の高い開始時刻T
ST及び終了時刻T
EDの可視画像から特徴点を検出し、その特徴点の検出位置で位置データを補間する。これにより、オブジェクト追跡装置30は、検出位置が欠落する場合でも正確に剣先90の軌跡を描画することができる。
【0091】
さらに、オブジェクト追跡装置30は、剣先90にセンサを付けることなく、高速で移動する剣先90を確実に追跡し、正確な軌跡を描画することができる。つまり、オブジェクト追跡装置30は、肉眼や通常のカメラ映像上での視認が難しい高速移動オブジェクトの動きを可視化することが可能である。このオブジェクト追跡装置30は、肉眼では確認できないほど高速で移動するフェンシングの剣先90について、その動きを映像で表現できる。これにより、オブジェクト追跡装置30は、フェンシングにおける剣先90の軌跡描画が可能になると共に、軌跡描画の品質を向上させることができる。
【0092】
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
オブジェクト追跡装置で補間した位置データは、その利用方法が特に制限されず、軌跡の描画以外にも利用することができる。
【0093】
前記した実施形態では、オブジェクト追跡装置は、可視・赤外同光軸カメラから可視画像及び赤外画像が入力されることとして説明したが、これに限定されない。つまり、オブジェクト追跡装置は、他の画像処理装置の後段に配置され、他の画像処理装置で追跡に失敗した可視画像及び赤外画像が入力されてもよい。
【0094】
前記した実施形態では、フェンシングを一例として説明したが、オブジェクト追跡装置の適用対象は、これに限定されない。つまり、オブジェクト追跡装置は、テニス、バドミントン、バレーボール等のスポーツにも適用することができる。
【0095】
さらに、オブジェクト追跡装置は、軌跡を異なる色で描かない場合、選手の位置が入れ換わるスポーツにも適用することができる。例えば、オブジェクト追跡装置は、バドミントンのシャトルを追跡し、その軌跡を描画することができる。この他、オブジェクト追跡装置は、オーケストラにおける指揮棒の軌跡や、ドラマや映画における刀等の軌跡を描画することができる。
【0096】
オブジェクト追跡装置は、追跡対象となるオブジェクトの移動速度が特に制限されず、特に、モーションブラーが発生する移動速度でも確実に追跡可能である。この移動速度は、可視・近赤外同光軸カメラとオブジェクトとの距離、可視・近赤外同光軸カメラの撮影画角及び感度、ノイズ量に大きく依存する。例えば、時間解像度が30フレーム/秒の場合、移動速度が100km/hを超えたあたりで、モーションブラーが多くなる。
【0097】
前記した実施形態では、オブジェクト追跡装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、オブジェクト追跡装置は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した各手段として協調動作させるオブジェクト追跡プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。