(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0077】
[第1実施形態]
第1実施形態について、図面を参照しながら、以下、説明する。
【0078】
<1.1:状態推定システムの構成>
図1は、第1実施形態に係る状態推定システム1000の概略構成図である。
【0079】
状態推定システム1000は、
図1に示すように、観測取得部1と、観測選択部2と、尤度取得部3と、事後確率分布推定部4と、事前確率分布出力部5と、初期状態設定部6と、を備える。
【0080】
観測取得部1は、複数の観測(観測データ)を取得し、取得した複数の観測(観測データ)を観測選択部2に出力する。観測取得部1は、
図1に示すように、第1観測取得部11と、第2観測取得部12とを備える。
【0081】
第1観測取得部11は、第1の観測(第1の観測データ)を取得し、取得した第1の観測(第1の観測データ)を観測選択部2に出力する。第1観測取得部11は、例えば、
図2に示すように、第1映像入力部111と、第1物体検出部112とを備える。
【0082】
第1映像入力部111は、例えば、被写体を撮像することで映像信号(動画像信号)を取得する。そして、第1映像入力部111は、取得した映像信号(動画像信号)を第1物体検出部112に出力する。
【0083】
第1物体検出部112は、第1映像入力部111から出力される映像信号(動画像信号)を入力する。第1物体検出部112は、入力された画像(動画像を形成する画像)から、物体検出画像を取得する。
【0084】
物体を追跡する処理を行う場合、第1物体検出部112は、追跡対象とする物体の画像特徴量を抽出(検出)した物体検出画像(物体検出画像信号)を取得し、取得した物体検出画像(物体検出画像信号)を第1の観測(第1の観測データ)として観測選択部2に出力する。
【0085】
第2観測取得部12は、第2の観測(第2の観測データ)を取得し、取得した第2の観測(第2の観測データ)を観測選択部2に出力する。第2観測取得部12は、例えば、
図2に示すように、第2映像入力部121と、第2物体検出部122とを備える。
【0086】
第2映像入力部121は、例えば、被写体を撮像することで映像信号(動画像信号)を取得する。そして、第2映像入力部121は、取得した映像信号(動画像信号)を第2物体検出部122に出力する。
【0087】
第2物体検出部122は、第2映像入力部121から出力される映像信号(動画像信号)を入力する。第2物体検出部122は、入力された画像(動画像を形成する画像)から、物体検出画像を取得する。
【0088】
物体を追跡する処理を行う場合、第2物体検出部122は、追跡対象とする物体の画像特徴量を抽出(検出)した物体検出画像(物体検出画像信号)を取得し、取得した物体検出画像(物体検出画像信号)を第2の観測(第2の観測データ)として観測選択部2に出力する。
【0089】
なお、本実施形態では、説明便宜のため、観測取得部1が、2つの観測取得部(第1観測取得部11および第2観測取得部12)を備える場合について説明するが、観測取得部1が備える観測取得部の数は、2つに限定されることはなく、3以上であってもよい。観測取得部1が、N個(N:自然数)の観測取得部を備える場合、観測取得部1は、N個の観測(N個の観測データ)を観測選択部2に出力する。
【0090】
観測選択部2は、観測取得部1から出力される複数の観測(観測データ)と、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)とを入力する。観測選択部2は、事前確率分布(事前確率分布データ)に基づいて、複数の観測(観測データ)の中から1つの観測(観測データ)を選択し、選択した観測(観測データ)を尤度取得部3に出力する。
【0091】
尤度取得部3は、観測選択部2から出力される観測(観測データ)と、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)とを入力する。尤度取得部3は、事前確率分布(事前確率分布データ)に対して予測処理を行い、予測後確率分布(予測後確率分布データ)を取得する。そして、尤度取得部3は、観測(観測データ)と、予測後確率分布(予測後確率分布データ)とに基づいて、尤度を算出する。そして、尤度取得部3は、算出した尤度(尤度データ)と予測後確率分布(予測後確率分布データ)とを事後確率分布推定部4に出力する。
【0092】
事後確率分布推定部4は、尤度取得部3から出力される尤度(尤度データ)と、予測後確率分布(予測後確率分布データ)とを入力する。事後確率分布推定部4は、尤度(尤度データ)と予測後確率分布(予測後確率分布データ)とに基づいて、事後確率分布(事後確率分布データ)を推定(取得)する。そして、事後確率分布推定部4は、取得した事後確率分布(事後確率分布データ)を、事前確率分布出力部5に出力する。
【0093】
事前確率分布出力部5は、初期状態設定部6から出力される初期状態の設定データと、事後確率分布推定部4から出力される事後確率分布(事後確率分布データ)とを入力する。事前確率分布出力部5は、初期状態では、初期状態設定部6から出力される初期状態の設定データに基づいて、事前確率分布(事前確率分布データ)を生成し、生成した事前確率分布(事前確率分布データ)を観測選択部2と、尤度取得部3とに出力する。
【0094】
また、事前確率分布出力部5は、初期状態以外の状態では、事後確率分布推定部4から出力される、時刻tにおける事後確率分布(事後確率分布データ)を、次の時刻t+1において、事前確率分布(事前確率分布データ)として、観測選択部2と、尤度取得部3とに出力する。
【0095】
初期状態設定部6は、初期状態における事前確率分布(事前確率分布)を生成するためのデータ(初期値)を保持しており、当該データ(初期値)を事前確率分布出力部5に出力する。
【0096】
<1.2:状態推定システムの動作>
以上のように構成された状態推定システム1000の動作について、以下、説明する。
【0097】
なお、以下では、大きさが変化する黄色の物体を追跡する処理を例に説明する。具体的には、
図3に示すように、大きさを変化させながら移動する黄色の物体を追跡する場合について、説明する。なお、
図3は、動画像上で移動する物体を模式的に示した図であり、
図3において、横軸がX軸であり、縦軸がY軸であるものとする。そして、物体は、時刻t0〜t3において、B0〜B3に大きさを変化させながら移動するものとする。各時刻における、物体B0〜B3の中心位置、幅(X軸方向の大きさ)、高さ(Y軸方向の大きさ)は、以下の通りであるものとする。
【0098】
≪時刻t0≫ 物体:B0、中心位置:(X0,Y0)、幅:W0、高さ:H0
≪時刻t1≫ 物体:B1、中心位置:(X1,Y1)、幅:W1、高さ:H1
≪時刻t2≫ 物体:B2、中心位置:(X2,Y2)、幅:W2、高さ:H2
≪時刻t3≫ 物体:B3、中心位置:(X3,Y3)、幅:W3、高さ:H3
また、以下の関係が成り立つものとする。
【0099】
W0<W1<W2<W3
H0<H1<H2<H3
W3=2×W0
H3=2×H0
また、観測対象(追跡対象)の時刻tの内部状態を示す状態ベクトルをx
tとし、時刻tにおいて観測された特徴を観測ベクトルy
tとし、事前確率分布p(x
t|y
t−1)に従って生成されたサンプル集合(パーティクルの集合)S
t|t−1を
S
t|t−1={s
t|t−1(1),s
t|t−1(2),・・・,s
t|t−1(M)}
とし、事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|tを
S
t|t={s
t|t(1),s
t|t(2),・・・,s
t|t(M)}
とする。
【0100】
また、サンプル集合(パーティクルの集合)S
t|tのi番目のサンプル(パーティクル)s
t|t(i)は、i番目のサンプル(パーティクル)の画像上の座標位置(Xt
(i),Yt
(i))と、当該座標位置を中心とする画像領域の幅Wt
(i)および高さHt
(i)を内部変数とするベクトルデータであるものとする。つまり、サンプル(パーティクル)s
t|t(i)は、
s
t|t(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるものとする。
【0101】
また、第1の観測(第1の観測データ)は、幅W0、高さH0である黄色の物体を検出した結果を示す画像信号(物体検出画像信号)であるものとする。つまり、第1物体検出部112は、第1映像入力部111が取得した画像において、幅W0、高さH0の黄色の画像領域に近い画像領域である程、当該画像領域の画素の画素値を大きな値(幅W0、高さH0である黄色の画像領域である度合いが高いことを示す値)とした画像(検出画像)を生成するものとする。
【0102】
また、第2の観測(第2の観測データ)は、幅(2×W0)、高さ(2×H0)である黄色の物体を検出した結果を示す画像信号(物体検出画像信号)であるものとする。つまり、第2物体検出部122は、第2映像入力部121が取得した画像において、幅(2×W0)、高さ(2×H0)の黄色の画像領域に近い画像領域である程、当該画像領域の画素の画素値を大きな値(幅(2×W0)、高さ(2×H0)である黄色の画像領域である度合いが高いことを示す値)とした画像(検出画像)を生成するものとする。
(時刻t0の処理):
まず、時刻t0の処理について、説明する。
【0103】
時刻t0において、初期状態設定部6は、追跡対象の状態の初期状態を設定するための初期値を事前確率分布出力部5に出力する。
【0104】
事前確率分布出力部5は、初期状態設定部6から入力された初期値に基づいて、追跡対象の初期状態を示すサンプル(パーティクル)の集合S
t|t−1(t=t0)を生成する。
【0105】
なお、追跡対象の初期状態を示すサンプル(パーティクル)の集合S
t|t−1(t=t0)の生成処理は、例えば、可能性のある全ての状態を表すパーティクルの集合が、初期状態を示すパーティクルの集合として生成されるように実行すればよい。
【0106】
事前確率分布出力部5により生成された時刻t0における事前確率分布(事前確率分布データ)は、観測選択部2、および、尤度取得部3に出力される。
【0107】
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))と、観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))とが、観測選択部2に出力される。
【0108】
観測選択部2では、追跡対象を発見(特定)するまで、第1の観測データと第2の観測データの両方のデータを尤度取得部3に出力する、あるいは、物体検出結果が顕著である方の観測データ(例えば、物体検出結果画像の全画素の画素値の平均値が高い方の画像(観測データ))を尤度取得部3に出力するようにする。
【0109】
図4は、時刻t0における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B0の状態とを模式的に示す図である。なお、
図4の左側の第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)は、右側の物体B0の状態を示す図と同じ画像領域を縮小して示している(
図5、
図7、
図8において同様)。
【0110】
図4に示すように、時刻t0では、第1の観測(物体検出画像)のみに検出画像領域があるので、観測選択部2は、第1の観測データを尤度取得部3に出力するものとする。
【0111】
尤度取得部3では、事前確率分布出力部5により生成された時刻t0における事前確率分布(事前確率分布データ)に従うパーティクルの集合s
t−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合s
t|t−1を取得する。
【0112】
そして、予測処理後のパーティクルの集合s
t|t−1と、観測選択部2から出力された第1の観測データ(実際の観測)とに基づいて、尤度を算出する。
【0113】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0114】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wa
t(i)とする。
【0115】
そして、尤度取得部3により算出された尤度wa
tは、予測後確率分布データ(予測処理後のパーティクルの集合s
t|t−1に関するデータ)とともに、事後確率分布推定部4に出力される。
【0116】
事後確率分布推定部4では、尤度wa
t(i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa
t(i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t0の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|t、すなわち、
S
t|t={s
t|t(1),s
t|t(2),・・・,s
t|t(M)}
を取得する。
【0117】
なお、
図4に、上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合s
t|t−1に関するデータ)に従うパーティクルの平均値(X
t|t−1_ave,Y
t|t−1_ave,W
t|t−1_ave,H
t|t−1_ave)を示す領域R_pred_aveを示す。
【0118】
また、
図4に、上記処理により取得された、時刻t0の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|tの平均値(X
t|t_ave,Y
t|t_ave,W
t|t_ave,H
t|t_ave)を示す領域R_after_aveを示す。
【0119】
なお、W
t|t_ave、および、H
t|t_aveは、
W
t|t_ave=1.4×W0
H
t|t_ave=1.4×H0
として取得されたものとする。
(時刻t1の処理):
次に、時刻t1の処理について、説明する。
【0120】
図5は、時刻t1における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B1の状態とを模式的に示す図である。
【0121】
時刻t1において、事前確率分布出力部5は、時刻t0における事後確率分布(事後確率分布データ)を、時刻t1における事前確率分布(事前確率分布データ)として、観測選択部2と、尤度取得部3とに出力する。
【0122】
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))と、観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))とが、観測選択部2に出力される。
【0123】
観測選択部2は、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
【0124】
つまり、観測選択部2は、時刻t1の事前確率分布p(x
t−1|y
t−1)に従って生成されたサンプル集合(パーティクルの集合)S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)に基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
【0125】
具体的には、観測選択部2は、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさを、第1観測取得部11が検出対象としている画像領域の大きさ(幅W0×高さH0)と、第2観測取得部12が検出対象としている画像領域の大きさ(2×幅W0×2×高さH0)との間の所定の閾値Thと比較することで、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。なお、本実施形態では、Th=2×WO×H0とし、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさが閾値Thよりも小さい場合、第1の観測データを選択するものとする。
【0126】
パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、
W
t−1|t−1_ave=W
t|t_ave=1.4×W0
H
t−1|t−1_ave=H
t|t_ave=1.4×H0
であり、
1.4×W0×1.4×H0=1.96×W0×H0<2×W0×H0
である。つまり、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも小さいので、観測選択部2は、第1の観測データを選択する。
【0127】
そして、選択された第1の観測データは、尤度取得部3に出力される。
【0128】
尤度取得部3では、事前確率分布出力部5により生成された時刻t1における事前確率分布(事前確率分布データ)に従うパーティクルの集合s
t−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合s
t|t−1を取得する。
【0129】
例えば、時刻t1における事前確率分布(事前確率分布データ)に従うパーティクルの集合s
t−1|t−1に含まれる各パーティクルの状態に対して、ランダムウォークのダイナミクスを仮定したガウシアンノイズを重畳させることで、予測処理後のパーティクルの集合s
t|t−1を取得する。つまり、v
t(i)がガウス分布に従うシステムノイズとし、
s
t|t−1(i)=f(s
t−1|t−1(i),v
t(i))
f():時刻t−1と時刻tとの状態変化を表す状態遷移関数
v
t(i):システムノイズ
により、予測処理後のパーティクルの集合s
t|t−1を取得する。
【0130】
具体的には、時刻t1における事前確率分布(事前確率分布データ)に従う、i番目のパーティクルの内部状態は、(X
t−1|t−1(i),Y
t−1|t−1(i),W
t−1|t−1(i),H
t−1|t−1(i))であり、予測処理後のi番目のパーティクルの内部状態は、(X
t|t−1(i),Y
t|t−1(i),W
t|t−1(i),H
t|t−1(i))であるので、
X
t|t−1(i)=X
t−1|t−1(i)+ΔX
(i)
Y
t|t−1(i)=Y
t−1|t−1(i)+ΔY
(i)
W
t|t−1(i)=W
t−1|t−1(i)+ΔW
(i)
H
t|t−1(i)=H
t−1|t−1(i)+ΔH
(i)
により、尤度取得部3は、予測処理後のパーティクルの集合s
t|t−1を取得する。なお、ΔX
(i)、ΔY
(i)、ΔW
(i)、ΔH
(i)は、それぞれ、ガウス分布に従う。
【0131】
このようにして取得した予測処理後のパーティクルの集合s
t|t−1の平均値による画像領域R_pred_aveを、
図5に示す。
【0132】
そして、尤度取得部3は、予測処理後のパーティクルの集合s
t|t−1と、観測選択部2から出力された第1の観測データ(実際の観測)とに基づいて、尤度を算出する。
【0133】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0134】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wa
t(i)とする。
【0135】
そして、尤度取得部3により算出された尤度wa
tは、予測後確率分布データ(予測処理後のパーティクルの集合s
t|t−1に関するデータ)とともに、事後確率分布推定部4に出力される。
【0136】
事後確率分布推定部4では、尤度wa
t(i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa
t(i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t1の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|t、すなわち、
S
t|t={s
t|t(1),s
t|t(2),・・・,s
t|t(M)}
を取得する。
【0137】
なお、
図5に、(1)時刻t1における事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合s
t|t−1に関するデータ)に従うパーティクルの平均値(X
t|t−1_ave,Y
t|t−1_ave,W
t|t−1_ave,H
t|t−1_ave)を示す領域R_pred_aveと、を示す。
【0138】
また、
図5に、上記処理により取得された、時刻t1の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|tの平均値(X
t|t_ave,Y
t|t_ave,W
t|t_ave,H
t|t_ave)を示す領域R_after_aveを示す。
【0139】
なお、W
t|t_ave、および、H
t|t_aveは、
W
t|t_ave=1.6×W0
H
t|t_ave=1.4×H0
として取得されたものとする。
【0140】
図6は、時刻t1における、尤度取得部3による予測処理および尤度計算と、事後確率分布推定部4による
リサンプリングとを説明するための図であり、
図5の物体B1の周辺の画像領域を抽出して示した図である。なお、
図6では、Y軸方向のパーティクルのみを模式的に示している。
【0141】
図6に示すように、時刻t1の事前確率分布に従うパーティクル集合s
t−1|t−1に対して予測処理を実行することで、予測後確率分布に従うパーティクル集合s
t|t−1が取得される。そして、予測後確率分布に従うパーティクル集合s
t|t−1の中で、その中心位置が、物体B1の画像領域内に含まれるパーティクルの尤度は、大きな値となる。
図6では、尤度が大きなパーティクルを大きな円で示している。
【0142】
そして、事後確率分布推定部4では、尤度に比例する割合でM個のパーティクル(粒子)を復元抽出するので、
図6に示すように、尤度の大きなパーティクルが複数個のパーティクルに復元されることで、時刻t1の事後確率分布に従うサンプル集合(パーティクルの集合)S
t|tが取得される。
【0143】
そして、時刻t1の事後確率分布に従うサンプル集合(パーティクルの集合)S
t|tの平均値を算出することで、Y軸の平均位置が、
図6のY_aveとなり、高さの平均値が、
図6のH_aveとなる。
【0144】
X軸方向についても、同様に処理を実行し、時刻t1の事後確率分布に従うサンプル集合(パーティクルの集合)S
t|tの平均値を算出することで、X軸の平均位置が、
図6のX_aveとなり、幅の平均値が、
図6のW_aveとなる。
【0145】
これにより、時刻t1の事後確率分布に従うサンプル集合(パーティクルの集合)S
t|tの平均値により決定される画像領域が、
図6の領域R_after_aveとなる。
(時刻t2の処理):
次に、時刻t2の処理について、説明する。
【0146】
図7は、時刻t2における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B2の状態とを模式的に示す図である。
【0147】
時刻t2において、事前確率分布出力部5は、時刻t1における事後確率分布(事後確率分布データ)を、時刻t2における事前確率分布(事前確率分布データ)として、観測選択部2と、尤度取得部3とに出力する。
【0148】
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))と、観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))とが、観測選択部2に出力される。
【0149】
観測選択部2は、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
【0150】
つまり、観測選択部2は、時刻t2の事前確率分布p(x
t−1|y
t−1)に従って生成されたサンプル集合(パーティクルの集合)S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)に基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
【0151】
パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、
W
t−1|t−1_ave=W
t|t_ave=1.6×W0
H
t−1|t−1_ave=H
t|t_ave=1.4×H0
であり、
1.6×W0×1.4×H0=2.24×W0×H0>2×W0×H0
である。つまり、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、観測選択部2は、第2の観測データを選択する。
【0152】
そして、選択された第2の観測データは、尤度取得部3に出力される。
【0153】
尤度取得部3では、事前確率分布出力部5により生成された時刻t2における事前確率分布(事前確率分布データ)に従うパーティクルの集合s
t−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合s
t|t−1を取得する。
【0154】
例えば、時刻t2における事前確率分布(事前確率分布データ)に従うパーティクルの集合s
t−1|t−1に含まれる各パーティクルの状態に対して、ランダムウォークのダイナミクスを仮定したガウシアンノイズを重畳させることで、予測処理後のパーティクルの集合s
t|t−1を取得する。つまり、v
t(i)がガウス分布に従うシステムノイズとし、
s
t|t−1(i)=f(s
t−1|t−1(i),v
t(i))
f():時刻t−1と時刻tとの状態変化を表す状態遷移関数
v
t(i):システムノイズ
により、予測処理後のパーティクルの集合s
t|t−1を取得する。
【0155】
具体的には、時刻t2における事前確率分布(事前確率分布データ)に従う、i番目のパーティクルの内部状態は、(X
t−1|t−1(i),Y
t−1|t−1(i),W
t−1|t−1(i),H
t−1|t−1(i))であり、予測処理後のi番目のパーティクルの内部状態は、(X
t|t−1(i),Y
t|t−1(i),W
t|t−1(i),H
t|t−1(i))であるので、
X
t|t−1(i)=X
t−1|t−1(i)+ΔX
(i)
Y
t|t−1(i)=Y
t−1|t−1(i)+ΔY
(i)
W
t|t−1(i)=W
t−1|t−1(i)+ΔW
(i)
H
t|t−1(i)=H
t−1|t−1(i)+ΔH
(i)
により、尤度取得部3は、予測処理後のパーティクルの集合s
t|t−1を取得する。なお、ΔX
(i)、ΔY
(i)、ΔW
(i)、ΔH
(i)は、それぞれ、ガウス分布に従う。
【0156】
このようにして取得した予測処理後のパーティクルの集合s
t|t−1の平均値による画像領域R_pred_aveを、
図7に示す。
【0157】
そして、尤度取得部3は、予測処理後のパーティクルの集合s
t|t−1と、観測選択部2から出力された第2の観測データ(実際の観測)とに基づいて、尤度を算出する。
【0158】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0159】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wa
t(i)とする。
【0160】
ここで、
図7に示すように、第2の観測データは、第1の観測データよりも、物体B2の領域の検出結果が良好である。このため、第
2の観測データを用いて、尤度を計算することで、物体B2の画像領域に含まれるパーティクルの尤度を大きくすることができる。その結果、事後確率分布において、物体B2の画像領域に含まれるパーティクルの数を多くすることができる。したがって、時刻t2において、観測選択部2により選択された第2の観測を用いて、尤度の算出を行うことで、より適切に物体の追跡処理が実行できる。
【0161】
そして、尤度取得部3により算出された尤度wa
tは、予測後確率分布データ(予測処理後のパーティクルの集合s
t|t−1に関するデータ)とともに、事後確率分布推定部4に出力される。
【0162】
事後確率分布推定部4では、尤度wa
t(i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa
t(i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t2の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|t、すなわち、
S
t|t={s
t|t(1),s
t|t(2),・・・,s
t|t(M)}
を取得する。
【0163】
なお、
図7に、(1)時刻t2における事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合s
t|t−1に関するデータ)に従うパーティクルの平均値(X
t|t−1_ave,Y
t|t−1_ave,W
t|t−1_ave,H
t|t−1_ave)を示す領域R_pred_aveと、を示す。
【0164】
また、
図7に、上記処理により取得された、時刻t2の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|tの平均値(X
t|t_ave,Y
t|t_ave,W
t|t_ave,H
t|t_ave)を示す領域R_after_aveを示す。
【0165】
なお、W
t|t_ave、および、H
t|t_aveは、
W
t|t_ave=2.3×W0
H
t|t_ave=1.6×H0
として取得されたものとする。
(時刻t3の処理):
次に、時刻t3の処理について、説明する。
【0166】
図8は、時刻t3における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B
3の状態とを模式的に示す図である。
【0167】
時刻t3において、事前確率分布出力部5は、時刻t2における事後確率分布(事後確率分布データ)を、時刻t3における事前確率分布(事前確率分布データ)として、観測選択部2と、尤度取得部3とに出力する。
【0168】
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))と、観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))とが、観測選択部2に出力される。
【0169】
観測選択部2は、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
【0170】
つまり、観測選択部2は、時刻t
3の事前確率分布p(x
t−1|y
t−1)に従って生成されたサンプル集合(パーティクルの集合)S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)に基づいて、第1の観測データと第2の観測データのどちらのデータを選択するか決定する。
【0171】
パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、
W
t−1|t−1_ave=W
t|t_ave=2.3×W0
H
t−1|t−1_ave=H
t|t_ave=1.6×H0
であり、
2.3×W0×1.6×H0=3.68×W0×H0>2×W0×H0
である。つまり、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、観測選択部2は、第2の観測データを選択する。
【0172】
そして、選択された第2の観測データは、尤度取得部3に出力される。
【0173】
尤度取得部3では、事前確率分布出力部5により生成された時刻t3における事前確率分布(事前確率分布データ)に従うパーティクルの集合s
t−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合s
t|t−1を取得する。
【0174】
例えば、時刻t3における事前確率分布(事前確率分布データ)に従うパーティクルの集合s
t−1|t−1に含まれる各パーティクルの状態に対して、ランダムウォークのダイナミクスを仮定したガウシアンノイズを重畳させることで、予測処理後のパーティクルの集合s
t|t−1を取得する。つまり、v
t(i)がガウス分布に従うシステムノイズとし、
s
t|t−1(i)=f(s
t−1|t−1(i),v
t(i))
f():時刻t−1と時刻tとの状態変化を表す状態遷移関数
v
t(i):システムノイズ
により、予測処理後のパーティクルの集合s
t|t−1を取得する。
【0175】
具体的には、時刻t3における事前確率分布(事前確率分布データ)に従う、i番目のパーティクルの内部状態は、(X
t−1|t−1(i),Y
t−1|t−1(i),W
t−1|t−1(i),H
t−1|t−1(i))であり、予測処理後のi番目のパーティクルの内部状態は、(X
t|t−1(i),Y
t|t−1(i),W
t|t−1(i),H
t|t−1(i))であるので、
X
t|t−1(i)=X
t−1|t−1(i)+ΔX
(i)
Y
t|t−1(i)=Y
t−1|t−1(i)+ΔY
(i)
W
t|t−1(i)=W
t−1|t−1(i)+ΔW
(i)
H
t|t−1(i)=H
t−1|t−1(i)+ΔH
(i)
により、尤度取得部3は、予測処理後のパーティクルの集合s
t|t−1を取得する。なお、ΔX
(i)、ΔY
(i)、ΔW
(i)、ΔH
(i)は、それぞれ、ガウス分布に従う。
【0176】
このようにして取得した予測処理後のパーティクルの集合s
t|t−1の平均値による画像領域R_pred_aveを、
図8に示す。
【0177】
そして、尤度取得部3は、予測処理後のパーティクルの集合s
t|t−1と、観測選択部2から出力された第2の観測データ(実際の観測)とに基づいて、尤度を算出する。
【0178】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0179】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度wa
t(i)とする。
【0180】
ここで、
図8に示すように、第2の観測データは、第1の観測データよりも、物体B3の領域の検出結果が良好である。このため、第
2の観測データを用いて、尤度を計算することで、物体B3の画像領域に含まれるパーティクルの尤度を大きくすることができる。その結果、事後確率分布において、物体B3の画像領域に含まれるパーティクルの数を多くすることができる。したがって、時刻t3において、観測選択部2により選択された第2の観測を用いて、尤度の算出を行うことで、より適切に物体の追跡処理が実行できる。
【0181】
そして、尤度取得部3により算出された尤度wa
tは、予測後確率分布データ(予測処理後のパーティクルの集合s
t|t−1に関するデータ)とともに、事後確率分布推定部4に出力される。
【0182】
事後確率分布推定部4では、尤度wa
t(i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa
t(i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t3の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|t、すなわち、
S
t|t={s
t|t(1),s
t|t(2),・・・,s
t|t(M)}
を取得する。
【0183】
なお、
図8に、(1)時刻t
3における事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合s
t|t−1に関するデータ)に従うパーティクルの平均値(X
t|t−1_ave,Y
t|t−1_ave,W
t|t−1_ave,H
t|t−1_ave)を示す領域R_pred_aveと、を示す。
【0184】
また、
図8に、上記処理により取得された、時刻t3の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|tの平均値(X
t|t_ave,Y
t|t_ave,W
t|t_ave,H
t|t_ave)を示す領域R_after_aveを示す。
【0185】
以上の処理を継続させることで、状態推定システム1000により、物体の追跡処理を行うことができる。
【0186】
このように、状態推定システム1000では、観測取得部1により、複数の観測(観測データ)が取得され、観測選択部2より、追跡対象の状態(本実施形態では、物体の大きさ)に応じて、より適切な観測データが選択される。そして、状態推定システム1000では、選択された観測データに基づいて、尤度が算出され、算出された尤度を用いて、リサンプリングが実行される。したがって、状態推定システム1000では、追跡対象の状態が変化した場合であっても(本実施形態では、物体の大きさが変化した場合であっても)、適切な事後確率分布データを取得することができる。その結果、状態推定システム1000では、観測対象の内部状態を適切に推定することができ、例えば、動画像上において、大きさが変化する物体や、大きさが異なる複数の物体を追跡する場合であっても、正確に物体を追跡することができる。
【0187】
[第2実施形態]
次に、第2実施形態について、説明する。
【0188】
<2.1:状態推定システムの構成>
図9は、第2実施形態に係る状態推定システム2000の概略構成図である。
【0189】
状態推定システム2000は、
図9に示すように、観測取得部1と、尤度算出部7と、尤度取得部3Aと、事後確率分布推定部4と、事前確率分布出力部5と、初期状態設定部6と、を備える。
【0190】
状態推定システム2000において、観測取得部1と、事後確率分布推定部4と、事前確率分布出力部5と、初期状態設定部6とは、第1実施形態の状態推定システム1000のものと同様である。
【0191】
なお、事前確率分布出力部5は、第1実施形態とは出力先だけが異なる。つまり、状態推定システム2000の事前確率分布出力部5は、生成した事前確率分布(事前確率分布データ)を尤度算出部7と、尤度取得部3
Aとに出力する。
【0192】
本実施形態にお
いて、第1実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
【0193】
尤度算出部7は、
図9に示すように、第1尤度算出部71と、第2尤度算出部72とを備える。
【0194】
第1尤度算出部71は、第1観測取得部11から出力される第1の観測(第1の観測データ)と、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)とを入力する。第1尤度算出部71は、事前確率分布(事前確率分布データ)に対して予測処理を行い、予測後確率分布(予測後確率分布データ)を取得する。そして、第1尤度算出部71は、第1の観測(第1の観測データ)と、予測後確率分布(予測後確率分布データ)とに基づいて、尤度(第1尤度)を算出する。そして、第1尤度算出部71は、第1の観測データを用いて算出した第1尤度(第1尤度データ)と予測後確率分布(予測後確率分布データ)とを尤度取得部3Aに出力する。
【0195】
第2尤度算出部72は、第2観測取得部12から出力される第2の観測(第2の観測データ)と、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)とを入力する。第2尤度算出部72は、事前確率分布(事前確率分布データ)に対して予測処理を行い、予測後確率分布(予測後確率分布データ)を取得する。そして、第2尤度算出部72は、第2の観測(第2の観測データ)と、予測後確率分布(予測後確率分布データ)とに基づいて、尤度(第2尤度)を算出する。そして、第2尤度算出部72は、第2の観測データを用いて算出した第2尤度(第1尤度データ)と予測後確率分布(予測後確率分布データ)とを尤度取得部3Aに出力する。
【0196】
なお、事前確率分布(事前確率分布データ)に対する予測処理は、第1尤度算出部71および第2尤度算出部72のいずれか一方のみで実行されるものであってもよい。この場合、第1尤度算出部71および第2尤度算出部72のいずれか一方で取得された予測後確率分布(予測後確率分布データ)は、他方に出力される。また、第1尤度算出部71および第2尤度算出部72のいずれか一方で取得された予測後確率分布(予測後確率分布データ)は、尤度取得部3Aに出力される。
【0197】
なお、
図9では、尤度算出部が2つの構成を示しているが、これに限定されることはなく、尤度算出部は、3つ以上であってもよい。
【0198】
尤度取得部3Aは、第1尤度算出部71から出力される第1尤度と、第2尤度算出部72から出力される第2尤度と、第1尤度算出部71および第2尤度算出部72の一方(または両方)から出力される予測後確率分布(予測後確率分布データ)と、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)とを入力する。尤度取得部3Aは、事前確率分布(事前確率分布データ)に基づいて、複数の尤度(
図9の場合、第1尤度と第2尤度)の中から1つの尤度(尤度データ)を選択し、選択した尤度(尤度データ)を事後確率分布推定部4に出力する。
【0199】
<2.2:状態推定システムの動作>
以上のように構成された状態推定システム2000の動作について、以下、説明する。
【0200】
なお、以下では、第1実施形態と同様に、大きさが変化する黄色の物体を追跡する処理を例に説明する。
【0201】
また、第1実施形態と同様に、第1の観測(第1の観測データ)は、幅W0、高さH0である黄色の物体を検出した結果を示す画像信号(物体検出画像信号)であるものとする。つまり、第1物体検出部112は、第1映像入力部111が取得した画像において、幅W0、高さH0の黄色の画像領域に近い画像領域である程、当該画像領域の画素の画素値を大きな値(幅W0、高さH0である黄色の画像領域である度合いが高いことを示す値)とした画像(検出画像)を生成するものとする。
【0202】
また、第2の観測(第2の観測データ)は、幅(2×W0)、高さ(2×H0)である黄色の物体を検出した結果を示す画像信号(物体検出画像信号)であるものとする。つまり、第2物体検出部122は、第2映像入力部121が取得した画像において、幅(2×W0)、高さ(2×H0)の黄色の画像領域に近い画像領域である程、当該画像領域の画素の画素値を大きな値(幅(2×W0)、高さ(2×H0)である黄色の画像領域である度合いが高いことを示す値)とした画像(検出画像)を生成するものとする。
(時刻t0の処理):
まず、時刻t0の処理について、説明する。
【0203】
時刻t0において、初期状態設定部6は、追跡対象の状態の初期状態を設定するための初期値を事前確率分布出力部5に出力する。
【0204】
事前確率分布出力部5は、初期状態設定部6から入力された初期値に基づいて、追跡対象の初期状態を示すサンプル(パーティクル)の集合S
t|t−1(t=t0)を生成する。
【0205】
なお、追跡対象の初期状態を示すサンプル(パーティクル)の集合S
t|t−1(t=t0)の生成処理は、例えば、可能性のある全ての状態を表すパーティクルの集合が、初期状態を示すパーティクルの集合として生成されるように実行すればよい。
【0206】
事前確率分布出力部5により生成された時刻t0における事前確率分布(事前確率分布データ)は、尤度算出部7、尤度取得部3A、および、事後確率分布推定部4に出力される。
【0207】
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第1尤度算出部71に出力される。観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第2尤度算出部72に出力される。
【0208】
尤度算出部7の第1尤度算出部71では、事前確率分布出力部5により生成された時刻t0における事前確率分布(事前確率分布データ)に従うパーティクルの集合s
t−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合s
t|t−1を取得する。
【0209】
そして、予測処理後のパーティクルの集合s
t|t−1と、第1観測取得部11から出力された第1の観測データ(実際の観測)とに基づいて、尤度(第1尤度)を算出する。
【0210】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0211】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1a
t(i)とする。
【0212】
そして、第1尤度算出部71により算出された尤度w1a
t(第1尤度)は、予測後確率分布データ(予測処理後のパーティクルの集合s
t|t−1に関するデータ)とともに、尤度取得部3Aに出力される。
【0213】
また、尤度算出部7の第2尤度算出部72では、第1尤度算出部71で取得された予測処理後のパーティクルの集合s
t|t−1と、第2観測取得部12から出力された第2の観測データ(実際の観測)とに基づいて、尤度(第2尤度)を算出する。
【0214】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0215】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2a
t(i)とする。
【0216】
そして、第2尤度算出部72により算出された尤度w2a
t(第2尤度)は、尤度取得部3Aに出力される。
【0217】
尤度取得部3Aでは、追跡対象が発見(特定)されるまで、第1の観測データと第2の観測データの両方のデータを参照し、第1尤度および第2尤度のどちらを出力するかを決定する。時刻t0の場合、
図4に示すように、第1の観測データ(物体検出画像)に検出結果が顕著に現れているので、尤度取得部3Aは、第1尤度を選択し、選択した第1尤度を事後確率分布推定部4に出力する。
【0218】
事後確率分布推定部4では、第1尤度w1a
t(i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa
t(i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t0の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|t、すなわち、
S
t|t={s
t|t(1),s
t|t(2),・・・,s
t|t(M)}
を取得する。
【0219】
なお、上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合s
t|t−1に関するデータ)に従うパーティクルの平均値(X
t|t−1_ave,Y
t|t−1_ave,W
t|t−1_ave,H
t|t−1_ave)を示す領域R_pred_aveは、
図4に示したものと同様のものとなる。
【0220】
また、上記処理により取得された、時刻t0の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|tの平均値(X
t|t_ave,Y
t|t_ave,W
t|t_ave,H
t|t_ave)を示す領域R_after_aveは、
図4に示したものと同様のものとなる。
【0221】
なお、W
t|t_ave、および、H
t|t_aveは、
W
t|t_ave=1.4×W0
H
t|t_ave=1.4×H0
として取得されたものとする。
(時刻t1の処理):
次に、時刻t1の処理について、説明する。
【0222】
時刻t1における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B1の状態とは、
図5と同様である。
【0223】
時刻t1において、事前確率分布出力部5は、時刻t0における事後確率分布(事後確率分布データ)を、時刻t1における事前確率分布(事前確率分布データ)として、尤度算出部7と、尤度取得部3Aとに出力する。
【0224】
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第1尤度算出部71に出力される。観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第2尤度算出部72に出力される。
【0225】
尤度算出部7の第1尤度算出部71では、事前確率分布出力部5により生成された時刻t1における事前確率分布(事前確率分布データ)に従うパーティクルの集合s
t−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合s
t|t−1を取得する。
【0226】
そして、予測処理後のパーティクルの集合s
t|t−1と、第1観測取得部11から出力された第1の観測データ(実際の観測)とに基づいて、尤度(第1尤度)を算出する。
【0227】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0228】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1a
t(i)とする。
【0229】
そして、第1尤度算出部71により算出された尤度w1a
t(第1尤度)は、予測後確率分布データ(予測処理後のパーティクルの集合s
t|t−1に関するデータ)とともに、尤度取得部3Aに出力される。
【0230】
また、尤度算出部7の第2尤度算出部72では、第1尤度算出部71で取得された予測処理後のパーティクルの集合s
t|t−1と、第2観測取得部12から出力された第2の観測データ(実際の観測)とに基づいて、尤度(第2尤度)を算出する。
【0231】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0232】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2a
t(i)とする。
【0233】
そして、第2尤度算出部72により算出された尤度w2a
t(第2尤度)は、尤度取得部3Aに出力される。
【0234】
尤度取得部3Aでは、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
【0235】
つまり、尤度取得部3Aは、時刻t1の事前確率分布p(x
t−1|y
t−1)に従って生成されたサンプル集合(パーティクルの集合)S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)に基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
【0236】
具体的には、尤度取得部3Aは、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさを、第1観測取得部11が検出対象としている画像領域の大きさ(幅W0×高さH0)と、第2観測取得部12が検出対象としている画像領域の大きさ(2×幅W0×2×高さH0)との間の所定の閾値Thと比較することで、第1尤度と第2尤度のどちらの尤度を選択するか決定する。なお、本実施形態では、Th=2×WO×H0とし、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさが閾値Thよりも小さい場合、第1尤度を選択するものとする。
【0237】
パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、
W
t−1|t−1_ave=W
t|t_ave=1.4×W0
H
t−1|t−1_ave=H
t|t_ave=1.4×H0
であり、
1.4×W0×1.4×H0=1.96×W0×H0<2×W0×H0
である。つまり、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも小さいので、尤度取得部3Aは、第1尤度を選択する。
【0238】
そして、選択された第1尤度は、事後確率分布推定部4に出力される。
【0239】
事後確率分布推定部4では、第1尤度w1a
t(i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa
t(i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t1の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|t、すなわち、
S
t|t={s
t|t(1),s
t|t(2),・・・,s
t|t(M)}
を取得する。
【0240】
なお、(1)時刻t1における事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合s
t|t−1に関するデータ)に従うパーティクルの平均値(X
t|t−1_ave,Y
t|t−1_ave,W
t|t−1_ave,H
t|t−1_ave)を示す領域R_pred_aveとは、
図5と同様である。
【0241】
また、上記処理により取得された、時刻t1の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|tの平均値(X
t|t_ave,Y
t|t_ave,W
t|t_ave,H
t|t_ave)を示す領域R_after_aveは、
図5と同様である。
【0242】
なお、W
t|t_ave、および、H
t|t_aveは、
W
t|t_ave=1.6×W0
H
t|t_ave=1.4×H0
として取得されたものとする。
(時刻t2の処理):
次に、時刻t2の処理について、説明する。
【0243】
時刻t2における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B2の状態とは、
図7と同様である。
【0244】
時刻t2において、事前確率分布出力部5は、時刻t1における事後確率分布(事後確率分布データ)を、時刻t2における事前確率分布(事前確率分布データ)として、尤度算出部7と、尤度取得部3Aとに出力する。
【0245】
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第1尤度算出部71に出力される。観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第2尤度算出部72に出力される。
【0246】
尤度算出部7の第1尤度算出部71では、事前確率分布出力部5により生成された時刻t2における事前確率分布(事前確率分布データ)に従うパーティクルの集合s
t−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合s
t|t−1を取得する。
【0247】
そして、予測処理後のパーティクルの集合s
t|t−1と、第1観測取得部11から出力された第1の観測データ(実際の観測)とに基づいて、尤度(第1尤度)を算出する。
【0248】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0249】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1a
t(i)とする。
【0250】
そして、第1尤度算出部71により算出された尤度w1a
t(第1尤度)は、予測後確率分布データ(予測処理後のパーティクルの集合s
t|t−1に関するデータ)とともに、尤度取得部3Aに出力される。
【0251】
また、尤度算出部7の第2尤度算出部72では、第1尤度算出部71で取得された予測処理後のパーティクルの集合s
t|t−1と、第2観測取得部12から出力された第2の観測データ(実際の観測)とに基づいて、尤度(第2尤度)を算出する。
【0252】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0253】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2a
t(i)とする。
【0254】
そして、第2尤度算出部72により算出された尤度w2a
t(第2尤度)は、尤度取得部3Aに出力される。
【0255】
尤度取得部3Aでは、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
【0256】
つまり、尤度取得部3Aは、時刻t2の事前確率分布p(x
t−1|y
t−1)に従って生成されたサンプル集合(パーティクルの集合)S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)に基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
【0257】
具体的には、尤度取得部3Aは、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、
W
t−1|t−1_ave=W
t|t_ave=1.6×W0
H
t−1|t−1_ave=H
t|t_ave=1.4×H0
であり、
1.6×W0×1.4×H0=2.24×W0×H0>2×W0×H0
である。つまり、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、尤度取得部3Aは、第2尤度を選択する。
【0258】
そして、選択された第2尤度は、事後確率分布推定部4に出力される。
【0259】
事後確率分布推定部4では、第2尤度w2a
t(i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa
t(i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t2の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|t、すなわち、
S
t|t={s
t|t(1),s
t|t(2),・・・,s
t|t(M)}
を取得する。
【0260】
なお、(1)時刻t2における事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合s
t|t−1に関するデータ)に従うパーティクルの平均値(X
t|t−1_ave,Y
t|t−1_ave,W
t|t−1_ave,H
t|t−1_ave)を示す領域R_pred_aveとは、
図7と同様である。
【0261】
また、上記処理により取得された、時刻t2の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|tの平均値(X
t|t_ave,Y
t|t_ave,W
t|t_ave,H
t|t_ave)を示す領域R_after_aveは、
図7と同様である。
【0262】
なお、W
t|t_ave、および、H
t|t_aveは、
W
t|t_ave=2.3×W0
H
t|t_ave=1.6×H0
として取得されたものとする。
(時刻t3の処理):
次に、時刻t3の処理について、説明する。
【0263】
時刻t3における第1の観測データ(物体検出画像)と第2の観測データ(物体検出画像)と、画像上の物体B2の状態とは、
図8と同様である。
【0264】
時刻t3において、事前確率分布出力部5は、時刻t2における事後確率分布(事後確率分布データ)を、時刻t3における事前確率分布(事前確率分布データ)として、尤度算出部7と、尤度取得部3Aとに出力する。
【0265】
また、観測取得部1の第1観測取得部11により取得された第1の観測データ(幅W0、高さH0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第1尤度算出部71に出力される。観測取得部1の第2観測取得部12により取得された第2の観測データ(幅2×W0、高さ2×H0の黄色の画像領域の検出結果(物体検出画像))は、尤度算出部7の第2尤度算出部72に出力される。
【0266】
尤度算出部7の第1尤度算出部71では、事前確率分布出力部5により生成された時刻t3における事前確率分布(事前確率分布データ)に従うパーティクルの集合s
t−1|t−1に基づいて、予測処理を行い、予測処理後のパーティクルの集合s
t|t−1を取得する。
【0267】
そして、予測処理後のパーティクルの集合s
t|t−1と、第1観測取得部11から出力された第1の観測データ(実際の観測)とに基づいて、尤度(第1尤度)を算出する。
【0268】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0269】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w1a
t(i)とする。
【0270】
そして、第1尤度算出部71により算出された尤度w1a
t(第1尤度)は、予測後確率分布データ(予測処理後のパーティクルの集合s
t|t−1に関するデータ)とともに、尤度取得部3Aに出力される。
【0271】
また、尤度算出部7の第2尤度算出部72では、第1尤度算出部71で取得された予測処理後のパーティクルの集合s
t|t−1と、第2観測取得部12から出力された第2の観測データ(実際の観測)とに基づいて、尤度(第2尤度)を算出する。
【0272】
なお、尤度は、各パーティクルの内部変数が示す画像領域内における、第2の観測データ、すなわち、物体検出画像の画素値の積算値とする。
【0273】
つまり、i番目(1≦i≦M)のパーティクルの場合、
s
t|t−1(i)=(Xt
(i),Yt
(i),Wt
(i),Ht
(i))
であるので、画像上の位置(Xt
(i),Yt
(i))を中心とする、幅Wt
(i)、高さHt
(i)である画像領域の物体検出画像の画素値の積算値を、i番目のパーティクルの尤度w2a
t(i)とする。
【0274】
そして、第2尤度算出部72により算出された尤度w2a
t(第2尤度)は、尤度取得部3Aに出力される。
【0275】
尤度取得部3Aでは、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
【0276】
つまり、尤度取得部3Aは、時刻t3の事前確率分布p(x
t−1|y
t−1)に従って生成されたサンプル集合(パーティクルの集合)S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)に基づいて、第1尤度と第2尤度のどちらの尤度を選択するか決定する。
【0277】
具体的には、尤度取得部3Aは、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、
W
t−1|t−1_ave=W
t|t_ave=2.3×W0
H
t−1|t−1_ave=H
t|t_ave=1.6×H0
であり、
2.3×W0×1.6×H0=3.68×W0×H0>2×W0×H0
である。つまり、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさは、閾値Th(=2×WO×H0)よりも大きいので、尤度取得部3Aは、第2尤度を選択する。
【0278】
そして、選択された第2尤度は、事後確率分布推定部4に出力される。
【0279】
事後確率分布推定部4では、第2尤度w2a
t(i)に比例する割合でM個のパーティクル(粒子)を復元抽出する(パーティクルxa
t(i)を抽出する)。このようにして復元抽出されたM個のパーティクルの分布から、時刻t3の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|t、すなわち、
S
t|t={s
t|t(1),s
t|t(2),・・・,s
t|t(M)}
を取得する。
【0280】
なお、(1)時刻t3における事前確率分布に従うパーティクルの平均値が示す領域R_before_aveと、(2)上記処理により取得された、予測後確率分布(予測処理後のパーティクルの集合s
t|t−1に関するデータ)に従うパーティクルの平均値(X
t|t−1_ave,Y
t|t−1_ave,W
t|t−1_ave,H
t|t−1_ave)を示す領域R_pred_aveとは、
図8と同様である。
【0281】
また、上記処理により取得された、時刻t3の事後確率分布p(x
t|y
t)に従って生成されたサンプル集合(パーティクルの集合)S
t|tの平均値(X
t|t_ave,Y
t|t_ave,W
t|t_ave,H
t|t_ave)を示す領域R_after_aveは、
図8と同様である。
【0282】
以上の処理を継続させることで、状態推定システム2000により、物体の追跡処理を行うことができる。
【0283】
このように、状態推定システム2000では、観測取得部1により、複数の観測(観測データ)が取得され、尤度算出部7より、複数の観測のそれぞれに対して尤度が算出される。そして、状態推定システム2000では、尤度算出部7により算出された複数の尤度の中から、追跡対象の状態(本実施形態では、物体の大きさ)に応じて、より適切な尤度が選択される。そして、状態推定システム2000では、選択された尤度を用いて、リサンプリングが実行される。したがって、状態推定システム2000では、追跡対象の状態が変化した場合であっても(本実施形態では、物体の大きさが変化した場合であっても)、適切な事後確率分布データを取得することができる。その結果、状態推定システム2000では、観測対象の内部状態を適切に推定することができ、例えば、動画像上において、大きさが変化する物体や、大きさが異なる複数の物体を追跡する場合であっても、正確に物体を追跡することができる。
【0284】
≪変形例≫
次に、第2実施形態の変形例について、説明する。
【0285】
本変形例の状態推定システムは、第2実施形態の状態推定システム2000と同様の構成を有している。
【0286】
第2実施形態の状態推定システム2000では、尤度取得部3Aが、第1尤度および第2尤度のいずれか一方を選択していたが、本変形例では、尤度取得部3Aは、第1尤度および第2尤度を合成した合成尤度を取得し、取得した合成尤度を事後確率分布推定部4に出力する。本変形例において、この点のみが、第2実施形態と相違する。
【0287】
以下では、本変形例に特有の部分について、説明する。
【0288】
尤度取得部3Aでは、事前確率分布出力部5から出力された事前確率分布データに基づいて、第1尤度と第2尤度とを合成する比率を決定する。
【0289】
具体的には、尤度取得部3Aは、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の大きさをA1とし、第1観測取得部11が検出対象としている画像領域の大きさ(幅W0×高さH0)をD1とし、第2観測取得部12が検出対象としている画像領域の大きさ(2×幅W0×2×高さH0)D2とし、D1<A1<D2であるとすると、
α=(A1―D1)/(D2−D1)
0≦α≦1
により、内分比αを取得する。そして、尤度取得部3Aは、
(合成尤度)=(第1尤度)×(1−α)+(第2尤度)×α
により、合成尤度を算出し、算出した合成尤度を事後確率分布推定部4に出力する。
【0290】
このように、本変形例の状態推定システムでは、第1尤度と第2尤度とを重み付けして合成した合成尤度を用いて、リサンプリングが実行されるので、追跡対象の状態が急激に変化する場合であっても、適切な事後確率分布データを取得することができる。つまり、追跡対象の状態が急激に変化する場合、複数の観測のいずれかを選択して処理を行うと、選択対象が切り替わるときに、取得される事後確率分布データも急激に変化し、不自然な追跡処理になることがあるが、本変形例の状態推定システムでは、第1尤度と第2尤度とを重み付けして合成した合成尤度により処理が実行されるので、このような急激な変化があった場合であっても、取得される事後確率分布データが急激に変化することを適切に抑制できる。その結果、本変形例の状態推定システムでは、自然な追跡処理を実現することができる。
【0291】
なお、上記では、内分により合成尤度を算出する場合について説明したが、これに限定されることはなく、外分等の他の重み付けにより、合成尤度を取得するようにしてもよい。
【0292】
また、非線形な関数(例えば、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の幅および高さを変数とする非線形関数)により、合成尤度を取得するようにしてもよい。
【0293】
また、上記では、尤度算出部7で取得される尤度の数が2つである場合について、説明したが、これに限定されることはなく、尤度算出部7で取得される尤度の数は3以上であってもよい。
【0294】
[他の実施形態]
上記実施形態(変形例を含む)では、第1の観測データおよび第2観測データの選択処理、あるいは、第1尤度および第2尤度の選択処理において、画像領域の面積に基づいて、閾値Thを設定する場合について、説明したがこれに限定されることはない。例えば、追跡対象の物体の高さHと幅Wのアスペクト比が固定値である場合、閾値を幅または高さに基づいて、閾値を設定し、パーティクルの集合S
t−1|t−1の平均値(X
t−1|t−1_ave,Y
t−1|t−1_ave,W
t−1|t−1_ave,H
t−1|t−1_ave)が示す画像領域の幅または高さを比較対象として、閾値処理することで、第1の観測データおよび第2観測データの選択処理、あるいは、第1尤度および第2尤度の選択処理を実行するようにしてもよい。
【0295】
例えば、追跡対象の物体の高さHと幅Wのアスペクト比がH:W=1:2で固定である場合であって、第1観測データが幅16画素である物体を最も顕著に検出する物体検出画像であり、第2観測データが幅32画素である物体を最も顕著に検出する物体検出画像である場合、例えば、中間値の「24」を閾値とする。そして、
(1)W≦24のとき、第1観測データを選択し、
(2)W>24のとき、第2観測データを選択する
ことで、第1の観測データおよび第2観測データの選択処理を実行し、
(1)W≦24のとき、第1尤度を選択し、
(2)W>24のとき、第2尤度を選択する
ことで、第1尤度および第2尤度の選択処理を実行するようにしてもよい。
【0296】
また、上記実施形態(変形例を含む)では、パーティクルの示す状態は、パーティクルの中心座標(X,Y)と、座標(X,Y)を中心とする幅W、高さHとにより決定される矩形領域を示す状態ベクトル(X,Y,W,H)を用いて処理を行う場合について説明したが、これに限定されることはない。例えば、パーティクルの示す状態は、例えば、パーティクルの中心座標(X,Y)と、座標(X,Y)を中心とする長軸2A、短軸2Bとにより決定される楕円領域を示す状態ベクトル(X,Y,A,B)を用いて処理を行うようにしてもよい。
【0297】
また、上記実施形態(変形例を含む)では、尤度は、各パーティクルの内部変数が示す画像領域内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値としたが、これに限定されることはなく、例えば、各パーティクルの内部変数に基づいて、設定される画像領域(例えば、W×Hの画像領域より所定の割合だけ大きい画像領域等)内における、第1の観測データ、すなわち、物体検出画像の画素値の積算値、重み付け積算値(パーティクルの中心座標からの距離により重み付けした値の積算値)、平均値、重み付け平均値(パーティクルの中心座標からの距離により重み付けした値の平均値)等であってもよい。
【0298】
また、上記実施形態(変形例を含む)では、観測は、黄色物体に反応するような観測であったが、観測はこれによらず、例えば、ニューラルネットを用いた物体検出器で、異なる大きさの物体を検出するような複数の観測であってもよい。この場合、観測取得部1では、カメラから入力された画像がニューラルネットワークを用いた検出器に入力され、検出結果として検出信号がグレースケールの画像として出力され、この画像が、観測選択部2あるいは尤度算出部7の入力となる。そして、尤度を算出処理において、パーティクルの状態ベクトル(X,Y,W,H)が示す領域を抽出し、抽出した領域内の上記グレー画像のすべての画素について画素値を加算することにより尤度を算出すればよい。
【0299】
また、上記実施形態(変形例を含む)では、大きさが変化する1つの物体を追跡する場合について説明したが、これに限定されることはなく、状態推定システムにおいて、大きさが変化する複数の物体を追跡する処理を実行するようにしてもよい。この場合、複数の追跡対象物体が占有する画像領域ごとに、第1の観測データおよび第2観測データの選択処理、あるいは、第1尤度および第2尤度の選択処理を実行し、上記と同様の処理を適用すればよい。
【0300】
また、上記実施形態(変形例を含む)では、黄色の物体を追跡対象としたが、これに限定さされることはなく、追跡対象は、他の特徴を有するものであってもよい。
【0301】
黄色の物体を追跡対象とする場合、第1映像入力部111、第2映像入力部121で取得される画像(映像)の各画素のRGB値をR,G,B(各8ビット)とすると、たとえば、
Ye=(255−B)×R×G/(1+R+G+B)
により黄色度合いを検出し、検出した結果を物体検出画像とすればよい。
【0302】
また、他の色の物体を追跡対象とする場合、上記と同様に、当該他の色成分を抽出する処理を実行し、検出した結果を物体検出画像とすればよい。
【0303】
また、上記実施形態(変形例を含む)では、
図3に示すように、第1観測取得部11と第2観測取得部12とが、それぞれ、映像入力部(第1映像入力部111と第2映像入力部121)を有する構成としたが、これに限定されることはなく、例えば、観測取得部1は、1つの映像入力部を有し、その映像入力部の出力が、第1物体検出部112および第2物体検出部122の入力となるように構成されるものであってもよい。
【0304】
また、第1実施形態の状態推定システムにおいて、観測取得部1を、
図10に示す観測取得部1Aに置換し、観測選択部2を
図10に示す観測選択部2Aに置換した構成としてもよい。
【0305】
この場合、
図10に示すように、観測取得部1Aは、1つの映像入力
部とN個の物体検出部
とを備える。つまり、観測取得部1Aは、映像入力部111Aと、第1物体検出部112A、第2物体検出部112B、・・・、第N物体検出部112Nとを備える。
【0306】
そして、第1物体検出部112A、第2物体検出部112B、・・・、第N物体検出部112Nは、それぞれ、映像入力部111Aが取得した動画像(動画像信号)を入力し、入力された動画像(動画像信号)から第1〜第Nの物体検出画像を取得し、取得した第1〜第Nの物体検出画像(第1〜第Nの観測データ)を観測選択部2Aに出力する。
【0307】
観測選択部2は、第1〜第Nの物体検出画像(第1〜第Nの観測データ)の中から、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)に基づいて、複数の観測(観測データ)の中から1つの観測(観測データ)を選択する。
【0308】
以降の処理は、第1実施形態と同様である。このように、複数の観測データ(例えば、複数の物体検出結果画像)を用いて、第1実施形態と同様の処理を行うようにしてもよい。
【0309】
また、第2実施形態の状態推定システムにおいて、観測取得部1を、
図11に示す観測取得部1Aに置換し、尤度算出部7を、
図11に示す尤度算出部7Aに置換し、尤度取得部3Aを、
図11に示す尤度取得部3Bに置換した構成としてもよい。
【0310】
この場合、
図11に示すように、観測取得部1Aは、1つの映像入力
部とN個の物体検出部とを備える。つまり、観測取得部1Aは、映像入力部111Aと、第1物体検出部112A、第2物体検出部112B、・・・、第N物体検出部112Nとを備える。
【0311】
そして、第1物体検出部112A、第2物体検出部112B、・・・、第N物体検出部112Nは、それぞれ、映像入力部111Aが取得した動画像(動画像信号)を入力し、入力された動画像(動画像信号)から第1〜第Nの物体検出画像を取得し、取得した第1〜第Nの物体検出画像(第1〜第Nの観測データ)を尤度算出部7Aに出力する。
【0312】
図11に示すように、尤度算出部7Aは、第1尤度算出部71A、第2尤度算出部71B、・・・、第N尤度算出部71Nを備える。
【0313】
尤度算出部7Aの第1尤度算出部71A、第2尤度算出部71B、・・・、第N尤度算出部71Nは、それぞれ、第1〜第Nの物体検出画像(第1〜第Nの観測データ)を入力し、第1〜第Nの物体検出画像(第1〜第Nの観測データ)に対して、上記実施形態で説明したのと同様の処理(上記実施形態で説明した第1尤度算出部71等と同様の処理)を行い、第1〜第N尤度(第1〜第N尤度データ)を取得する。そして、第1尤度算出部71A、第2尤度算出部71B、・・・、第N尤度算出部71Nは、それぞれ、取得した第1〜第N尤度(第1〜第N尤度データ)を尤度取得部3Bに出力する。
【0314】
尤度取得部3Bは、事前確率分布出力部5から出力される事前確率分布(事前確率分布データ)に基づいて、複数の尤度(第1〜第N尤度)の中から1つの尤度(尤度データ)を選択する。
【0315】
以降の処理は、第2実施形態と同様である。このように、複数の観測データ(例えば、複数の物体検出画像)、複数の尤度(尤度データ)を用いて、第2実施形態と同様の処理を行うようにしてもよい。
【0316】
また、上記実施形態(変形例)および
図10、
図11に示した構成において、観測取得部(1、A)を、
図12に示す観測取得部1Bに置換した構成にしてもよい。
【0317】
観測取得部1Bは、
図12に示すように、2つの映像入力部(第1映像入力部111A、第2映像入力部111B)と、N個の物体検出部を備える。
【0318】
そして、
図12に示すように、第1映像入力部111Aの出力は、第1〜第K物体検出部に入力され、第2映像入力部111Bの出力は、第K+1〜第N物体検出部に入力される。
【0319】
このように、複数の映像入力部と、複数の物体検出部とを用いて、複数の観測データ(例えば、複数の物体検出画像)により、上記実施形態と同様の処理を適用するようにしてもよい。
【0320】
なお、映像入力部の数と、物体検出部の数とは、例えば、
図12に示すように、同じ数でなくてもよい。
【0321】
上記のように、複数の観測(複数の観測データ)、および/または、複数の尤度(複数の尤度データ)を用いて、上記実施形態(変形例も含む)と同様の処理を適用させることで、状態推定システムでは、より精度の高い状態推定(例えば、物体追跡処理)を実行することができる。例えば、状態推定システムにおいて、物体追跡処理を行う場合、第1〜第N物体検出部が、それぞれ、異なる大きさの物体の検出結果(物体検出画像)を取得し、その検出結果(物体検出画像)を用いて、処理を実行することで、より精度の高い物体追跡処理を実現することができる。
【0322】
また、状態推定システムにおいて、物体追跡処理を行う場合、第1〜第N物体検出部が、それぞれ、異なる大きさの物体の検出結果(物体検出画像)を取得し、その検出結果(物体検出画像)を用いて複数の尤度を取得し、取得した複数の尤度を用いて処理を実行することで、より精度の高い物体追跡処理を実現することができる。
【0323】
さらに、取得した複数の尤度を用いて、第2実施形態で説明したのと同様に、内分処理により、合成尤度を算出し、算出した合成尤度を用いて、第2実施形態と同様の処理を行うことで、より精度の高い物体追跡処理を実現することができる。
【0324】
また、上記実施形態で説明した状態推定システムにおいて、各ブロックは、LSIなどの半導体装置により個別に1チップ化されても良いし、一部又は全部を含むように1チップ化されても良い。
【0325】
なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
【0326】
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。
【0327】
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
【0328】
また、上記各実施形態の各機能ブロックの処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記各実施形態の各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。
【0329】
また、上記実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。
【0330】
また、上記実施形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。
【0331】
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。
【0332】
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
【0333】
なお、本発明の具体的な構成は、前述の実施形態に限られるものではなく、発明の要旨を逸脱しない範囲で種々の変更および修正が可能である。