【文献】
青木義満, 統計的モデリングと画像認識の融合による人間行動理解,電子情報通信学会誌,一般社団法人電子情報通信学会,2012年 5月 1日,第95巻 第5号,第410−415頁
(58)【調査した分野】(Int.Cl.,DB名)
前記第2の画像データにおいて部位枠が特定されていない場合、前記人物枠に基づいて、前記第1の画像データにおいてデフォルトの部位枠を設定する部位枠設定部をさらに備える、
請求項1から4のいずれか1項に記載の人物検出追跡装置。
【発明を実施するための形態】
【0013】
(実施の形態1)
本発明の実施の形態1について、図面を参照しながら説明する。
【0014】
<人物検出追跡装置100の構成>
まず、本発明の実施の形態1に係る人物検出追跡装置100の構成例について、
図1を参照して説明する。
図1は、本実施の形態の人物検出追跡装置100の構成例を示す図である。
【0015】
図1において、本実施の形態の人物検出追跡装置100は、人物枠検出部110と、部位追跡部120とを有する。部位追跡部120は、部位枠設定部121、部位枠位置特定部122、および部位枠位置補正部123を有する。
【0016】
人物枠検出部110は、撮像部200から画像データを受け取る。撮像部200は、所定の監視対象領域を動画で撮影するカメラである。よって、人物枠検出部110は、撮像部200から、連続する複数のフレームの画像データを受け取る。この画像データの一例は、
図2Aに示す。
図2Aに示す画像データは、撮像部200が監視対象領域を撮影した画像データの1フレーム分である。
図2Aにおいて、画像データは、例えば、直立姿勢の人物30が映っている。
【0017】
そして、人物枠検出部110は、1フレーム分の画像データを受け取るごとに、その画像データと、予め学習済みの人物特徴データとを照合する。人物特徴データとは、人物全体の特徴を示すデータであり、例えば、輝度エッジ情報、色情報、またはテクスチャ情報などが挙げられる。また、人物特徴データは、人物の姿勢(例えば、直立姿勢)を示すデータである。なお、人物特徴データは、所定のデータベース等に予め格納されており、照合の際、人物枠検出部110により読み出される。また、人物特徴データを格納するデータベースは、人物検出部110の内部または外部のどちらに備えられてもよい。
【0018】
上記照合の結果、画像データの中に人物特徴データに合致する領域がある場合、人物枠検出部110は、その領域を、人物が存在する可能性の高い領域(以下、「人物枠」という)として検出する。人物枠は、人物の絶対的な大きさおよび位置を示す。この人物枠の例は、
図2Bに示す。
図2Bにおいて、人物枠40は、人物30の全体を包含している。
【0019】
ここで、人物枠検出部110は、部位枠設定部121からの部位枠設定終了通知(詳細は後述)の有無に基づいて、検出した人物枠に含まれる人物に対して、デフォルトの部位枠(詳細は後述)が設定済みであるか否かを判定する。換言すれば、人物枠検出部110は、検出した人物枠に含まれる人物の部位がすでに追跡を開始されているか否かを判定することになる。
【0020】
上記判定の結果、デフォルトの部位枠が設定済みで、部位の追跡がすでに開始されている場合、人物枠検出部110は、1フレーム分の画像データと検出した人物枠を示す人物枠情報とを、部位追跡部120の部位枠位置特定部122へ送る。一方、上記判定の結果、デフォルトの部位枠が設定みでなく、部位の追跡がこれから開始される場合、人物枠検出部110は、1フレーム分の画像データと検出した人物枠を示す人物枠情報とを、部位追跡部120の部位枠設定部121へ送る。ここでいう人物枠情報は、例えば、人物枠を特定可能な座標を含む情報である。
【0021】
なお、上述した通り、人物枠検出部110は、予め学習された人物特徴データを利用して人物枠を検出するため、いずれの人物特徴データとも合致しないこともある。よって、人物枠検出部110は、時間的に連続するフレームにおいて、間欠的にしか人物を検出できず、常に動いている人物を連続的に検出することが難しい。そこで、本実施の形態は、後述する部位枠位置特定部122を用いることで、人物枠検出部110が行う間欠的な人物検出を補間する。これにより、本実施の形態の人物検出追跡装置100は、連続する複数のフレームの全てにおいて、人物の検出および部位の追跡を可能としている。
【0022】
部位枠設定部121は、人物枠検出部110から、1フレーム分の画像データおよび人物枠情報を受け取る。そして、部位枠設定部121は、人物枠情報が示す人物枠の範囲内において、デフォルトの部位枠を設定する。部位枠とは、人体を構成する部位が存在する可能性の高い領域である。例えば、部位枠設定部121は、人物枠を垂直方向に5等分し、頭部位、胸部位、腹部位、太腿部位、脚部位のそれぞれに対して、デフォルトの部位枠を設定する。これらデフォルトの部位枠の例は、
図2Cに示す。
図2Cにおいて、人物枠40(図示略)に含まれる人物30は、デフォルトの部位枠として、頭部位枠51、胸部位枠52、腹部位枠53、太腿部位枠54、脚部位枠55がそれぞれ設定されている。
【0023】
部位枠設定部121は、デフォルトの部位枠の設定を終えると、その旨を示す部位枠設定終了通知を人物枠検出部110へ送る。また、部位枠設定部121は、設定したデフォルトの部位枠をそれぞれ示す部位枠情報を、部位枠位置特定部122へ送る。ここでいう部位枠情報は、例えば、各部位枠を特定可能な座標を含む情報である。
【0024】
部位枠位置特定部122は、人物枠検出部110から、1フレーム分の画像データおよび人物枠情報を受け取る。この画像データの一例は、
図2Dに示す。
図2Dに示す画像データは、例えば、
図2Aの画像データに続く1フレーム分の画像データである。
図2Dにおいて、人物30は、
図2Aに示す位置から矢印xに示す方向へ移動した位置に存在している。この人物30は、人物枠検出部110により人物枠41が検出されている。よって、部位枠位置特定部122が人物枠検出部110から受け取った人物枠情報は、人物枠41を示す情報である。
【0025】
なお、部位枠位置特定部122が人物枠検出部110から受け取った1フレーム分の画像データは、以下、「現フレームの画像データ」(第1の画像データの一例)という。現フレームの画像データは、各部位の位置がまだ特定されていない画像データである。これに対し、現フレームの画像データより時間が前のフレームの画像データは、以下、「前フレームの画像データ」(第2の画像データの一例)という。前フレームの画像データは、各部位の位置がすでに特定された画像データである。したがって、本実施の形態において、
図2Dの画像データは現フレームの画像データの一例として、
図2Aの画像データは前フレームの画像データの一例として、説明する。
【0026】
そして、部位枠位置特定部122は、算出範囲の設定、部位尤度の算出、部位枠位置の特定を順に行う。以下、これらの動作について、それぞれ説明する。なお、これらの動作は、部位ごとに行われるが、以下では、頭部位の例を説明する。
【0027】
まず、部位枠位置特定部122は、人物枠情報および部位枠情報に基づいて、現フレームの画像データに対して算出範囲を設定する。算出範囲とは、現フレームの画像データの中で、部位の尤度を算出する範囲である。また、ここで用いられる部位枠情報は、部位枠設定部121から受け取った部位枠情報、または、部位枠位置特定部122自身が記憶した部位枠情報のいずれかである。すなわち、部位枠位置特定部122は、前フレームの画像データにおいて部位枠位置を特定しておらず、自分自身が部位枠情報を記憶していない場合、部位枠設定部121から受け取った部位枠情報を用いる。一方、部位枠位置特定部122は、前フレームの画像データにおいて部位枠位置を特定しており、自分自身が部位枠情報を記憶している場合、その部位枠情報を用いる。
【0028】
ここで、算出範囲の設定について、具体例を用いて説明する。ここでは、部位枠設定部121から受け取った部位枠情報を用いる場合とする。
【0029】
まず、部位枠位置特定部122は、人物枠情報が示す人物枠41と、部位枠情報が示す頭部位枠51との位置関係に基づいて、人物30の移動方向が右方向(矢印xの方向)であると判断する。
【0030】
そして、部位枠位置特定部122は、頭部位枠51から右方向への所定範囲を、算出範囲として設定する。この算出範囲の一例は、
図2Eに示す。
図2Eにおいて、算出範囲60は、頭部位枠51を含み、かつ、頭部位枠51から上方向、下方向、右方向へそれぞれ拡大した範囲として設定されている。
【0031】
このようにして、頭部位枠51に対して算出範囲60が設定される。
【0032】
次に、部位枠位置特定部122は、算出範囲60において、頭部位枠51と同じ大きさの枠を所定距離ずつ移動させる度に、その枠で囲まれた領域の部位尤度を算出する。これにより、複数の部位尤度が算出される。部位尤度とは、前フレームの画像データにおける部位枠位置が、現フレームの画像データのどの位置に存在するのかの尤もらしさを表す指標である。部位尤度は、予め学習された部位特徴データに基づいて算出される。部位特徴データは、人物の部位の特徴を示すデータであり、例えば、色情報、輝度エッジ情報、またはテクスチャ情報が挙げられる。
【0033】
次に、部位枠位置特定部122は、最大の部位尤度が算出された領域を、現フレームの画像データにおける部位枠として特定する。この部位枠の一例は、
図2Eに示す。
図2Eにおいて、領域71は、最大の部位尤度が算出され、かつ、部位枠位置特定部122により、現フレームの画像データにおける頭部位枠として特定された領域である。以下、領域71は、「頭部位枠71」という。
【0034】
このようにして、
図2Eに示す現フレームの画像データにおいて、頭部位枠の位置の特定が終了する。なお、部位枠位置特定部122は、上記同様の動作を行うことで、胸部位枠、腹部位枠、太腿部位枠、脚部位枠のそれぞれについても、
図2Eに示す現フレームの画像データにおいて位置を特定する。したがって、連続する複数のフレームの画像データごとに部位枠位置特定部122が各部位枠の位置特定を行うことで、複数のフレームにわたって各部位枠の追跡が可能となる。
【0035】
そして、部位枠位置特定部122は、特定した各部位枠を示す部位枠情報を記憶する。ここでいう部位枠情報は、例えば、特定した部位枠ごとの位置(すなわち、部位枠間の相対的な位置関係)を示す情報である。ここで記憶された部位枠情報は、上述した通り、次のフレームの画像データにおいて算出範囲の設定を行う際に用いられる。
【0036】
また、部位枠位置特定部122は、記憶した部位枠情報とともに、現フレームの画像データおよび人物枠情報を、部位枠位置補正部123へ送る。ここでいう現フレームの画像データは、例えば、
図2Eに示す画像全体を示す画像データである。また、ここでいう人物枠情報は、
図2Dに示す人物枠41を示す人物枠情報である。
【0037】
部位枠位置補正部123は、部位枠位置特定部122から、現フレームの画像データ、人物枠情報、および部位枠情報を受け取る。そして、部位枠位置補正部123は、現フレームの画像データにおいて、部位枠情報が示す各部位枠の位置が、人物枠情報が示す人物枠に合致するように補正する。この補正の一例は、
図2Fに示す。
図2Fにおいて、部位枠位置補正部123は、頭部位枠71、胸部位枠72、腹部位枠73、太腿部位枠74、脚部位枠75のそれぞれの位置を、人物枠41に合致するように補正する。
【0038】
以上で、本実施の形態の人物検出追跡装置100の構成例についての説明を終える。
【0039】
<人物検出追跡装置100の動作>
次に、本実施の形態の人物検出追跡装置100の動作例について、
図3を参照して説明する。
図3は、本実施の形態の人物検出追跡装置100の動作例を示すフロー図である。
【0040】
ステップS1において、人物枠検出部110は、撮像部200から1フレーム分の画像データを受け取る。この1フレーム分の画像データは、例えば、
図2Aに示す画像データまたは
図2Dに示す画像データである。
【0041】
ステップS2において、人物枠検出部110は、1フレーム分の画像データと、予め学習済みの人物特徴データとを照合し、画像データにおいて人物特徴データに合致する領域を、人物枠として検出する。この人物枠は、例えば、
図2Bに示す人物枠40または
図2Dに示す人物枠41である。
【0042】
ステップS3において、人物枠検出部110は、部位枠設定部121からの部位枠設定終了通知の有無に基づいて、検出した人物枠に含まれる人物にデフォルトの部位枠が設定済みであるか否かを判定する。
【0043】
ステップS3の判定の結果、デフォルトの部位枠が設定済みである場合(ステップS3:YES)、人物枠検出部110は、1フレーム分の画像データおよび人物枠情報を、部位枠位置特定部122へ送る。この1フレーム分の画像データおよび人物枠情報は、例えば、
図2Dに示す画像データおよび人物枠41を示す人物枠情報である。そして、フローは、ステップS5へ進む。
【0044】
一方、ステップS3の判定の結果、デフォルトの部位枠が設定みではない場合(ステップS3:NO)、人物枠検出部110は、1フレーム分の画像データおよび人物枠情報を、部位枠設定部121へ送る。この1フレーム分の画像データおよび人物枠情報は、例えば、
図2Aに示す画像データおよび人物枠40を示す人物枠情報である。そして、フローは、ステップS4へ進む。
【0045】
ステップS4において、部位枠設定部121は、1フレーム分の画像データにおいて、人物枠情報が示す人物枠の範囲内でデフォルトの部位枠を設定する。このデフォルトの部位枠は、例えば、
図2Cに示す、頭部位枠51、胸部位枠52、腹部位枠53、太腿部位枠54、脚部位枠55である。その後、部位枠設定部121は、デフォルトの部位枠の設定を終えた旨を示す部位枠設定終了通知を人物枠検出部110へ送る。また、部位枠設定部121は、デフォルトの部位枠をそれぞれ示す部位枠情報を、部位枠位置特定部122へ送る。この部位枠情報は、例えば、
図2Cに示す、頭部位枠51、胸部位枠52、腹部位枠53、太腿部位枠54、脚部位枠55をそれぞれ示す部位枠情報である。そして、フローは、ステップS1へ戻る。
【0046】
ステップS5において、部位枠位置特定部122は、人物枠情報および部位枠情報に基づいて、1フレーム分の画像データ(現フレームの画像データ)に算出範囲を設定する。算出範囲は、部位ごとに1つ設定される。この算出範囲は、例えば、
図2Eに示す算出範囲60である。
【0047】
ステップS6において、部位枠位置特定部122は、算出範囲において、所定の部位枠と同じ大きさの枠を所定距離ずつ移動させる度に、その枠で囲まれた領域の部位尤度を算出する。これにより、複数の部位尤度が算出される。部位尤度は、部位ごとに複数算出される。
【0048】
ステップS7において、部位枠位置特定部122は、算出範囲60において最も大きい部位尤度が算出された領域を、現フレームの画像データにおける部位枠として特定する。部位枠の特定は、部位ごとに行われる。この特定された部位枠は、例えば、
図2Eに示す頭部位枠71である。この後、部位枠位置特定部122は、特定した各部位枠を示す部位枠情報を記憶する。この部位枠情報は、例えば、
図2Fに示す、頭部位枠71、胸部位枠72、腹部位枠73、太腿部位枠74、脚部位枠75をそれぞれ示す部位枠情報である。また、部位枠位置特定部122は、記憶した部位枠情報とともに、現フレームの画像データおよび人物枠情報を、部位枠位置補正部123へ送る。ここでいう現フレームの画像データは、例えば、
図2Eに示す画像全体を示す画像データである。また、ここでいう人物枠情報は、
図2Dに示す人物枠41を示す人物枠情報である。
【0049】
ステップS8において、部位枠位置補正部123は、現フレームの画像データにおいて、部位枠情報が示す各部位枠の位置が、人物枠情報が示す人物枠に合致するように補正する。この補正は、例えば、
図2Fにおいて、頭部位枠71、胸部位枠72、腹部位枠73、太腿部位枠74、脚部位枠75のそれぞれの位置が、人物枠41に合致するように行われる。そして、フローは、ステップS1へ戻る。
【0050】
以上で、本実施の形態の人物検出追跡装置100の動作例についての説明を終える。
【0051】
このように、本実施の形態の人物検出追跡装置100は、1フレーム分の画像データごとに、人物の絶対的な大きさおよび位置を示す人物枠に基づいて、特定した部位枠間の相対的な位置関係を補正することを特徴とする。よって、人物検出追跡装置100は、部位枠間で尤度に差分のない(部位枠間に特徴差がない)場合でも、特定した各部位枠の位置が真値と剥離(例えば、各部位枠が人物の上半身に偏る現象が発生)することがない。したがって、人物検出追跡装置100は、実際の画像データと追跡結果との間において、人物の大きさおよび各部位の位置のズレを防止でき、精度良い追跡結果を得ることができる。さらに、人物検出追跡装置100は、得られた追跡結果を用いて人物の姿勢を推定する場合、その姿勢推定の精度を向上させることができる。
【0052】
(実施の形態2)
本発明の実施の形態2について、図面を参照しながら説明する。本実施の形態は、各部位枠の位置特定の後で、人物の姿勢について簡易的な推定を行い、その推定結果に応じて各部位枠の位置補正を実施するか否かを決定する点が、上記実施の形態1と異なる。
【0053】
<人物検出追跡装置101の構成>
まず、本実施の形態の人物検出追跡装置101の構成例について説明する。
図4は、本実施の形態の人物検出追跡装置101の構成例を示す図である。
図4に示す構成は、
図1に示す構成と比較して、簡易姿勢推定部124を備える点が異なる。よって、以下では、
図1に示す構成と異なる部分を中心に説明する。
【0054】
簡易姿勢推定部124は、部位枠位置特定部122から、現フレームの画像データ、人物枠情報、および部位枠情報を受け取る。そして、簡易姿勢推定部124は、受け取った部位枠情報が示す各部位枠の相対的な位置関係に基づいて、現フレームの画像データにおける人物の姿勢を推定する。例えば、
図5Aにおいて、頭部位枠、胸部位枠、腹部位枠、太腿部位枠、脚部位枠が画像データの縦軸方向に沿って一直線である位置関係に基づいて、簡易姿勢推定部124は、人物が直立姿勢であると推定する。一方で、例えば、
図5Bにおいて、頭部位枠、腰部位枠、脚部位枠が「くの字」に折れ曲がっている位置関係に基づいて、簡易姿勢推定部124は、人物が前傾姿勢であると推定する。
【0055】
簡易姿勢推定部124は、推定した姿勢(例えば、直立姿勢または前傾姿勢)を示す姿勢情報を、部位枠位置補正部123へ送る。このとき、簡易姿勢推定部124は、姿勢情報とともに、部位枠位置特定部122から受け取った、現フレームの画像データ、人物枠情報、および部位枠情報を、部位枠位置補正部123へ送る。
【0056】
部位枠位置補正部123は、部位枠位置特定部122から、現フレームの画像データ、人物枠情報、部位枠情報、および姿勢情報を受け取る。そして、部位枠位置補正部123は、人物枠情報および姿勢情報に基づいて、推定された姿勢が人物枠に合っているか否かを判定する。換言すれば、部位枠位置補正部123は、人物枠情報が示す人物枠に該当する姿勢と、姿勢情報が示す姿勢とが相違しているか否かを判定する。例えば、部位枠位置補正部123は、人物枠情報が示す人物枠に該当する姿勢(以下、「人物枠の姿勢」という)が直立姿勢である場合、姿勢情報が示す姿勢(以下、「推定姿勢」という)が直立姿勢であるか否かを判定する。
【0057】
上記判定の結果、推定姿勢が人物枠の姿勢に合っている場合、部位枠位置補正部123は、現フレームの画像データにおいて、部位枠情報が示す各部位枠の位置が、人物枠情報が示す人物枠に合致するように補正する。一方で、上記判定の結果、推定姿勢が人物枠の姿勢に合っていない場合、部位枠位置補正部123は、各部位枠の位置の補正を行わない。
【0058】
以上で、本実施の形態の人物検出追跡装置101の構成例についての説明を終える。
【0059】
<人物検出追跡装置101の動作>
次に、本実施の形態の人物検出追跡装置101の動作例について、
図6を参照して説明する。
図6は、本実施の形態の人物検出追跡装置101の動作例を示すフロー図である。
図6に示すフローは、
図3に示すフローと比較して、ステップS11およびS12を備える点が異なる。よって、以下では、
図3に示すフローと異なる部分についてのみ説明する。
【0060】
ステップS11において、簡易姿勢推定部124は、部位枠情報が示す各部位枠の相対的な位置関係に基づいて、現フレームの画像データにおける人物の姿勢を推定する。換言すれば、簡易姿勢推定部124は、人物の姿勢が、
図5Aに示す直立姿勢であるか、または、
図5Bに示す前傾姿勢であるかを推定する。そして、簡易姿勢推定部124は、推定結果を示す姿勢情報を、部位枠位置特定部122から受け取った、現フレームの画像データ、人物枠情報、および部位枠情報とともに、部位枠位置補正部123へ送る。
【0061】
ステップS12において、部位枠位置補正部123は、姿勢情報が示す姿勢(推定姿勢)が、受け取った人物枠情報が示す人物枠に該当する姿勢(人物枠の姿勢)に合っているか否かを判定する。例えば、人物枠の姿勢が直立姿勢である場合、部位枠位置補正部123は、推定姿勢が直立姿勢であるか否かを判定する。
【0062】
ステップS12の判定の結果、推定姿勢が人物枠の姿勢に合っている場合(ステップS12:YES)、フローは、ステップS8に進む。
【0063】
ステップS8において、部位枠位置補正部123は、現フレームの画像データにおいて、部位枠情報が示す各部位枠の位置が、人物枠情報が示す人物枠に合致するように補正する。そして、フローは、ステップS1へ戻る。
【0064】
ステップS12の判定の結果、推定姿勢が人物枠の姿勢に合っていない場合(ステップS12:NO)、部位枠位置補正部123は、部位枠情報が示す各部位枠の位置の補正を行わない。そして、フローは、ステップS1へ戻る。
【0065】
以上で、本実施の形態の人物検出追跡装置101の動作例についての説明を終える。
【0066】
このように、本実施の形態の人物検出追跡装置101は、簡易姿勢推定部124を備えることで、上記実施の形態1の効果に加えて、以下の作用、効果を得ることができる。すなわち、人物検出追跡装置101は、人物枠を用いた部位枠の位置補正を行う場合を、推定姿勢が人物枠の姿勢に合致する場合のみに限定する。換言すれば、人物検出追跡装置101は、姿勢推定が人物枠の姿勢に合致しない場合、人物枠を用いた部位枠の位置補正を行わない。これにより、人物検出追跡装置101は、実施の形態1に比べて、精度良く部位枠の位置補正を行うことができる。
【0067】
<実施の形態の変形例>
以上、本実施の形態1、2について説明したが、上記説明は一例であり、種々の変形が可能である。以下、変形例について説明する。
【0068】
実施の形態1、2において、人物枠の検出に用いる特徴(人物特徴データ)および部位枠の特定に用いる特徴(部位特徴データ)は、例として、色情報、輝度エッジ情報、またはテクスチャ情報のいずれかとした。しかし、実施の形態1、2では、それらの情報を任意に組み合わせて用いてもよい。
【0069】
また、実施の形態1、2において、現フレームの画像データにおける各部位枠の特定は、最大の部位尤度が算出された領域としたが、これに限定されない。例えば、部位枠位置特定部122は、以下のように動作してもよい。まず、部位枠位置特定部122は、算出範囲において、部位尤度を算出した複数の領域のうち、部位尤度が規定の閾値以上の領域を複数選定する。次に、部位枠位置特定部122は、選定した領域それぞれについて、規定の位置(以下、「基準点」という)の座標を抽出する。次に、部位枠位置特定部122は、抽出した複数の基準点の座標の平均値を算出し、その平均値を新たな基準点の座標に決定する。次に、部位枠位置特定部122は、新たな基準点の座標に基づいた領域(部位尤度を算出する際の領域と同じ大きさ)を、現フレームの画像データにおける部位枠として特定する。このように、部位尤度が閾値以上である複数の領域の基準点の平均値を求めることにより、現フレームの画像データにおける部位枠を特定してもよい。
【0070】
また、実施の形態1、2およびその変形例は、本発明をハードウェアで構成する場合を例にとって説明したが、本発明はハードウェアとの連係においてソフトウェアでも実現することも可能である。
【0071】
以上、本開示の人物検出追跡装置は、人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出する人物枠検出部と、人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定する部位枠位置特定部と、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正する部位枠位置補正部と、を備える。
【0072】
また、本開示の人物検出追跡装置において、前記部位枠位置特定部により特定された部位枠の位置に基づいて、前記第1の画像データにおいて人物の姿勢を推定する簡易姿勢推定部をさらに備え、前記部位枠位置補正部は、前記簡易姿勢推定部により推定された人物の姿勢が前記人物枠に合致する場合、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正する。
【0073】
また、本開示の人物検出追跡装置において、前記部位枠位置補正部は、前記簡易姿勢推定部により推定された人物の姿勢が前記人物枠に合致しない場合、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正しない。
【0074】
また、本開示の人物検出追跡装置において、前記部位枠位置特定部は、前記第2の画像データにおいて特定された部位枠と、前記第1の画像データにおいて検出された人物枠とに基づいて、算出範囲を設定し、前記算出範囲内において、前記第2の画像データにおいて特定された部位枠と同じ大きさの領域ごとに、前記部位特徴データに基づいて、部位尤度を算出し、前記部位尤度に基づいて選定した領域を、前記第1の画像データにおける部位枠として特定する。
【0075】
また、本開示の人物検出追跡装置において、前記第2の画像データにおいて部位枠が特定されていない場合、前記人物枠に基づいて、前記第1の画像データにおいてデフォルトの部位枠を設定する部位枠設定部をさらに備える。
【0076】
また、本開示の人物検出追跡装置において、前記部位枠設定部は、前記人物枠を垂直方向に分割し、分割した各領域を前記デフォルトの部位枠として設定する。
【0077】
また、本開示の人物検出追跡方法は、人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出するステップと、人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定するステップと、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正するステップと、を有する。
【0078】
また、本開示の人物検出追跡プログラムは、人物全体の特徴を示す人物特徴データに基づいて、第1の画像データから、人物が存在する可能性の高い領域として人物枠を検出する処理と、人物の部位の特徴を示す部位特徴データと、前記第1の画像データより過去の第2の画像データにおいて前記人物の部位が存在する可能性の高い領域として特定された部位枠とに基づいて、前記第1の画像データにおいて部位枠を特定する処理と、前記第1の画像データにおいて特定された部位枠の位置を、前記人物枠に基づいて補正する処理と、をコンピュータに実行させる。