IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ KDDI株式会社の特許一覧

特許7229954オブジェクト追跡装置及びオブジェクト追跡方法
<>
  • 特許-オブジェクト追跡装置及びオブジェクト追跡方法 図1
  • 特許-オブジェクト追跡装置及びオブジェクト追跡方法 図2
  • 特許-オブジェクト追跡装置及びオブジェクト追跡方法 図3
  • 特許-オブジェクト追跡装置及びオブジェクト追跡方法 図4
  • 特許-オブジェクト追跡装置及びオブジェクト追跡方法 図5
  • 特許-オブジェクト追跡装置及びオブジェクト追跡方法 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-02-17
(45)【発行日】2023-02-28
(54)【発明の名称】オブジェクト追跡装置及びオブジェクト追跡方法
(51)【国際特許分類】
   G06T 7/246 20170101AFI20230220BHJP
【FI】
G06T7/246
【請求項の数】 12
(21)【出願番号】P 2020009676
(22)【出願日】2020-01-24
(65)【公開番号】P2021117635
(43)【公開日】2021-08-10
【審査請求日】2021-12-20
(73)【特許権者】
【識別番号】000208891
【氏名又は名称】KDDI株式会社
(74)【代理人】
【識別番号】100166006
【弁理士】
【氏名又は名称】泉 通博
(74)【代理人】
【識別番号】100154070
【弁理士】
【氏名又は名称】久恒 京範
(74)【代理人】
【識別番号】100153280
【弁理士】
【氏名又は名称】寺川 賢祐
(72)【発明者】
【氏名】西村 仁志
(72)【発明者】
【氏名】田坂 和之
【審査官】佐田 宏史
(56)【参考文献】
【文献】特開2010-273112(JP,A)
【文献】特開2017-111660(JP,A)
【文献】特開2018-181273(JP,A)
【文献】西村 仁志、外3名,“基本行動特徴量を用いたオンライン複数人物追跡”,第34回 画像符号化シンポジウム 第24回 映像メディア処理シンポジウム,日本,電子情報通信学会画像工学研究専門委員会,2019年11月18日,pp.168-169
【文献】Atif Ilyas et al.,"A combined motion and appearance model for human tracking in multiple cameras environment",2010 6th International Conference on Emerging Technologies (ICET),米国,IEEE,2010年10月18日,pp.198-203
【文献】Gurkirt Singh et al.,"Online Real-Time Multiple Spatiotemporal Action Localisation and Prediction",2017 IEEE International Conference on Computer Vision (ICCV),米国,IEEE,2017年10月22日,pp.3657-3666
(58)【調査した分野】(Int.Cl.,DB名)
G06T 1/00,7/00-7/90
G06V 10/00-10/98
(57)【特許請求の範囲】
【請求項1】
所定エリアを撮像する撮像装置が以上の複数の時刻のそれぞれで撮像した以上の複数の撮像画像を取得する取得部と、
前記取得部が取得した前記複数の撮像画像のそれぞれから、前記撮像画像に映るオブジェクトを検出するオブジェクト検出部と、
前記オブジェクト検出部が検出した前記オブジェクトに対応する前記撮像画像の部分画像に基づいて、前記オブジェクトの行動の特徴量を示す行動特徴量を抽出する行動特徴量抽出部と、
前記行動特徴量抽出部が抽出した前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行う関連付け部と、
を備え、
前記行動特徴量抽出部は、前記関連付け部により関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた一以上の他のオブジェクトのそれぞれに対応する前記部分画像とに基づいて前記行動特徴量を再抽出し、
前記関連付け部は、前記行動特徴量抽出部により再抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを再度行い、
前記関連付け部によるオブジェクトの関連付けを行った結果、当該関連付けを行った後において関連付けられているオブジェクトの数に対する、当該関連付けを行う前において関連付けられているオブジェクトの数の割合が所定の割合以上となるまで、前記行動特徴量抽出部による前記行動特徴量の再抽出と、前記関連付け部による前記オブジェクトの再度の関連付けとを、所定の条件を満たすまで交互に繰り返し実行させることにより、オブジェクトの追跡を行う実行制御部を備える、
オブジェクト追跡装置。
【請求項2】
所定エリアを撮像する撮像装置が4以上の複数の時刻のそれぞれで撮像した4以上の複数の撮像画像を取得する取得部と、
前記取得部が取得した前記複数の撮像画像のそれぞれから、前記撮像画像に映るオブジェクトを検出するオブジェクト検出部と、
前記オブジェクト検出部が検出した前記オブジェクトに対応する前記撮像画像の部分画像に基づいて、前記オブジェクトの行動の特徴量を示す行動特徴量を抽出する行動特徴量抽出部と、
前記行動特徴量抽出部が抽出した前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行う関連付け部と、
を備え、
前記行動特徴量抽出部は、前記関連付け部により関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた一以上の他のオブジェクトのそれぞれに対応する前記部分画像とに基づいて前記行動特徴量を再抽出し、
前記関連付け部は、前記行動特徴量抽出部により再抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを再度行い、
前記行動特徴量抽出部による前記行動特徴量の再抽出と、前記関連付け部による前記オブジェクトの再度の関連付けとを、所定の条件を満たすまで交互に繰り返し実行させることにより、オブジェクトの追跡を行う実行制御部を備え、
前記行動特徴量抽出部は、前記関連付け部により関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する前記行動特徴量が示す行動傾向に基づいて、当該オブジェクトの前記行動特徴量の再抽出に用いる他のオブジェクトの数を変化させる、
オブジェクト追跡装置。
【請求項3】
前記オブジェクト検出部は、前記撮像画像に映る前記オブジェクトの位置を示すオブジェクト位置を特定することにより前記オブジェクトを検出し、
前記行動特徴量抽出部は、前記オブジェクト検出部が特定した前記オブジェクト位置に対応する前記部分画像に基づいて、前記行動特徴量を抽出する、
請求項1又は2に記載のオブジェクト追跡装置。
【請求項4】
前記関連付け部は、前記オブジェクト検出部が特定した前記オブジェクト位置にさらに基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行う、
請求項に記載のオブジェクト追跡装置。
【請求項5】
前記オブジェクト検出部が検出した前記オブジェクトの前記撮像画像における見え方を示す見え特徴量を抽出する見え特徴量抽出部をさらに備え、
前記関連付け部は、前記見え特徴量抽出部が抽出した前記見え特徴量にさらに基づいて、撮像された時刻が異なる撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行う、
請求項1からのいずれか1項に記載のオブジェクト追跡装置。
【請求項6】
前記行動特徴量抽出部は、前記オブジェクト検出部が検出した前記オブジェクトに対応する前記撮像画像の前記部分画像と、当該撮像画像が撮像された時刻の前の時刻又は後の時刻に撮像された撮像画像の前記部分画像との差分に基づいて、前記行動特徴量を抽出する、
請求項1からのいずれか1項に記載のオブジェクト追跡装置。
【請求項7】
前記行動特徴量抽出部は、前記オブジェクト検出部が検出した前記オブジェクトを含む前記部分画像である第1部分画像と、前記オブジェクトを含み、前記第1部分画像より表示領域が大きい前記部分画像である第2部分画像に基づいて、前記行動特徴量を抽出する、
請求項1からのいずれか1項に記載のオブジェクト追跡装置。
【請求項8】
前記行動特徴量抽出部は、前記部分画像の入力に対して前記行動特徴量を出力するニューラルネットワークに、前記オブジェクトに対応する前記部分画像と、当該オブジェクトとの関連付けが行われた一以上の前記他のオブジェクトに対応する前記部分画像とを入力し、前記ニューラルネットワークから出力された複数の行動特徴量に基づいて、当該オブジェクトの前記行動特徴量を再抽出する、
請求項1からのいずれか1項に記載のオブジェクト追跡装置。
【請求項9】
前記行動特徴量抽出部は、前記部分画像の入力に対して前記行動特徴量を出力するニューラルネットワークに、前記オブジェクトに対応する前記部分画像を入力し、前記ニューラルネットワークにおける中間層が示す特徴量を取得し、取得した特徴量に基づいて、当該オブジェクトの前記行動特徴量を抽出する、
請求項1からのいずれか1項に記載のオブジェクト追跡装置。
【請求項10】
前記行動特徴量抽出部は、前記部分画像の入力に対して前記行動特徴量を出力するニューラルネットワークに、前記オブジェクトに対応する前記部分画像と、当該オブジェクトとの関連付けが行われた一以上の前記他のオブジェクトに対応する前記部分画像とを入力し、前記ニューラルネットワークにおける中間層が示す特徴量を取得し、取得した特徴量に基づいて、当該オブジェクトの前記行動特徴量を再抽出する、
請求項1からのいずれか1項に記載のオブジェクト追跡装置。
【請求項11】
コンピュータが実行する、
所定エリアを撮像する撮像装置が以上の複数の時刻のそれぞれで撮像した以上の複数の撮像画像を取得するステップと、
取得された前記複数の撮像画像のそれぞれから、前記撮像画像に映るオブジェクトを検出するステップと、
検出された前記オブジェクトに対応する前記撮像画像の部分画像に基づいて、前記オブジェクトの行動の特徴量を示す行動特徴量を抽出するステップと、
抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから検出された前記オブジェクトの関連付けを行うステップと、
関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた一以上の他のオブジェクトのそれぞれに対応する前記部分画像とに基づいて前記行動特徴量を再抽出するステップと、
再抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから検出された前記オブジェクトの関連付けを再度行うステップと、
前記オブジェクトの関連付けを行った結果、当該関連付けを行った後において関連付けられているオブジェクトの数に対する、当該関連付けを行う前において関連付けられているオブジェクトの数の割合が所定の割合以上となるまで、前記行動特徴量の再抽出と、前記オブジェクトの再度の関連付けとを、所定の条件を満たすまで交互に繰り返し実行させることにより、オブジェクトの追跡を行うステップと、
を有するオブジェクト追跡方法。
【請求項12】
コンピュータが実行する、
所定エリアを撮像する撮像装置が以上の複数の時刻のそれぞれで撮像した以上の複数の撮像画像を取得するステップと、
取得された前記複数の撮像画像のそれぞれから、前記撮像画像に映るオブジェクトを検出するステップと、
検出された前記オブジェクトに対応する前記撮像画像の部分画像に基づいて、前記オブジェクトの行動の特徴量を示す行動特徴量を抽出するステップと、
抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから検出された前記オブジェクトの関連付けを行うステップと、
関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた一以上の他のオブジェクトのそれぞれに対応する前記部分画像とに基づいて前記行動特徴量を再抽出するステップと、
再抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから検出された前記オブジェクトの関連付けを再度行うステップと、
前記行動特徴量の再抽出と、前記オブジェクトの再度の関連付けとを、所定の条件を満たすまで交互に繰り返し実行させることにより、オブジェクトの追跡を行うステップと、
を有し、
前記行動特徴量を再抽出するステップにおいて、前記コンピュータは、関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する前記行動特徴量が示す行動傾向に基づいて、当該オブジェクトの前記行動特徴量の再抽出に用いる他のオブジェクトの数を変化させる、
オブジェクト追跡方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、オブジェクト追跡装置及びオブジェクト追跡方法に関する。
【背景技術】
【0002】
従来、撮像装置が撮像した撮像画像に映る人物等のオブジェクトを追跡することが行われている。例えば、非特許文献1には、オブジェクトの位置に関する特徴を示す位置特徴量と、オブジェクトの見え方を示す見え特徴量と、オブジェクトの行動の特徴を示す行動特徴量を用いてオブジェクトの追跡を行うことが開示されている。
【先行技術文献】
【非特許文献】
【0003】
【文献】Gurkirt Singh, Suman Saha, Michael Sapienza, Philip H. S. Torr, and Fabio Cuzzolin, "Online Real-time Multiple Spatiotemporal Action Localisation and Prediction," IEEE International Conference on Computer Vision (ICCV), pp. 3637-3646, 2017年
【発明の概要】
【発明が解決しようとする課題】
【0004】
非特許文献1では、撮像画像から行動特徴量を抽出する場合に、当該撮像画像に映るオブジェクトと、他の撮像画像に映るオブジェクトとの関係を考慮していない。しかしながら、行動は、動きを伴った結果判明するものであり、1つの撮像画像から精度良く行動特徴量を抽出することは困難である。したがって、非特許文献1では、位置や見え方が似ているオブジェクトに対する追跡精度が低下してしまうという問題があった。
【0005】
そこで、本発明はこれらの点に鑑みてなされたものであり、オブジェクトを精度良く追跡することができるオブジェクト追跡装置及びオブジェクト追跡方法を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の第1の態様に係るオブジェクト追跡装置は、所定エリアを撮像する撮像装置が3以上の複数の時刻のそれぞれで撮像した3以上の複数の撮像画像を取得する取得部と、前記取得部が取得した前記複数の撮像画像のそれぞれから、前記撮像画像に映るオブジェクトを検出するオブジェクト検出部と、前記オブジェクト検出部が検出した前記オブジェクトに対応する前記撮像画像の部分画像に基づいて、前記オブジェクトの行動の特徴量を示す行動特徴量を抽出する行動特徴量抽出部と、前記行動特徴量抽出部が抽出した前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行う関連付け部と、を備え、前記行動特徴量抽出部は、前記関連付け部により関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた一以上の他のオブジェクトのそれぞれに対応する前記部分画像とに基づいて前記行動特徴量を再抽出し、前記関連付け部は、前記行動特徴量抽出部により再抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを再度行う。
【0007】
前記取得部は、前記撮像装置が4以上の複数の時刻のそれぞれで撮像した4以上の複数の撮像画像を取得し、前記オブジェクト追跡装置は、前記行動特徴量抽出部による前記行動特徴量の再抽出と、前記関連付け部による前記オブジェクトの再度の関連付けとを、所定の条件を満たすまで交互に繰り返し実行させることにより、オブジェクトの追跡を行う実行制御部をさらに備えてもよい。
【0008】
前記実行制御部は、前記関連付け部によるオブジェクトの関連付けを行った結果、当該関連付けを行った後において関連付けられているオブジェクトの数に対する、当該関連付けを行う前において関連付けられているオブジェクトの数の割合が所定の割合以上となるまで、前記行動特徴量抽出部による前記行動特徴量の再抽出と、前記関連付け部によるオブジェクトの関連付けとを交互に繰り返し実行させてもよい。
【0009】
前記行動特徴量抽出部は、前記関連付け部により関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する前記行動特徴量が示す行動傾向に基づいて、当該オブジェクトの前記行動特徴量の再抽出に用いる他のオブジェクトの数を変化させてもよい。
【0010】
前記オブジェクト検出部は、前記撮像画像に映る前記オブジェクトの位置を示すオブジェクト位置を特定することにより前記オブジェクトを検出し、前記行動特徴量抽出部は、前記オブジェクト検出部が特定した前記オブジェクト位置に対応する前記部分画像に基づいて、前記行動特徴量を抽出してもよい。
【0011】
前記関連付け部は、前記オブジェクト検出部が特定した前記オブジェクト位置にさらに基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行ってもよい。
【0012】
前記オブジェクト追跡装置は、前記オブジェクト検出部が検出した前記オブジェクトの前記撮像画像における見え方を示す見え特徴量を抽出する見え特徴量抽出部をさらに備え、前記関連付け部は、前記見え特徴量抽出部が抽出した前記見え特徴量にさらに基づいて、撮像された時刻が異なる撮像画像のそれぞれから前記オブジェクト検出部が検出した前記オブジェクトの関連付けを行ってもよい。
【0013】
前記行動特徴量抽出部は、前記オブジェクト検出部が検出した前記オブジェクトに対応する前記撮像画像の前記部分画像と、当該撮像画像が撮像された時刻の前の時刻又は後の時刻に撮像された撮像画像の前記部分画像との差分に基づいて、前記行動特徴量を抽出してもよい。
【0014】
前記行動特徴量抽出部は、前記オブジェクト検出部が検出した前記オブジェクトを含む前記部分画像である第1部分画像と、前記オブジェクトを含み、前記第1部分画像より表示領域が大きい前記部分画像である第2部分画像に基づいて、前記行動特徴量を抽出してもよい。
【0015】
前記行動特徴量抽出部は、前記部分画像の入力に対して前記行動特徴量を出力するニューラルネットワークに、前記オブジェクトに対応する前記部分画像と、当該オブジェクトとの関連付けが行われた一以上の前記他のオブジェクトに対応する前記部分画像とを入力し、前記ニューラルネットワークから出力された複数の行動特徴量に基づいて、当該オブジェクトの前記行動特徴量を再抽出してもよい。
【0016】
前記行動特徴量抽出部は、前記部分画像の入力に対して前記行動特徴量を出力するニューラルネットワークに、前記オブジェクトに対応する前記部分画像を入力し、前記ニューラルネットワークにおける中間層が示す特徴量を取得し、取得した特徴量に基づいて、当該オブジェクトの前記行動特徴量を抽出してもよい。
【0017】
前記行動特徴量抽出部は、前記部分画像の入力に対して前記行動特徴量を出力するニューラルネットワークに、前記オブジェクトに対応する前記部分画像と、当該オブジェクトとの関連付けが行われた一以上の前記他のオブジェクトに対応する前記部分画像とを入力し、前記ニューラルネットワークにおける中間層が示す特徴量を取得し、取得した特徴量に基づいて、当該オブジェクトの前記行動特徴量を再抽出してもよい。
【0018】
本発明の第2の態様に係るオブジェクト追跡方法は、コンピュータが実行する、所定エリアを撮像する撮像装置が3以上の複数の時刻のそれぞれで撮像した3以上の複数の撮像画像を取得するステップと、取得された前記複数の撮像画像のそれぞれから、前記撮像画像に映るオブジェクトを検出するステップと、検出された前記オブジェクトに対応する前記撮像画像の部分画像に基づいて、前記オブジェクトの行動の特徴量を示す行動特徴量を抽出するステップと、抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから検出された前記オブジェクトの関連付けを行うステップと、関連付けが行われた複数の前記オブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた一以上の他のオブジェクトのそれぞれに対応する前記部分画像とに基づいて前記行動特徴量を再抽出するステップと、再抽出された前記行動特徴量に基づいて、撮像された時刻が異なる複数の前記撮像画像のそれぞれから検出された前記オブジェクトの関連付けを再度行うステップと、を有する。
【発明の効果】
【0019】
本発明によれば、オブジェクトを精度良く追跡することができるという効果を奏する。
【図面の簡単な説明】
【0020】
図1】本実施形態に係るオブジェクト追跡装置の概要を示す図である。
図2】オブジェクトの関連付けの例について示す図である。
図3】本実施形態に係るオブジェクト追跡装置の構成を示す図である。
図4】オブジェクトの関連付けが行われていない場合における行動特徴量情報の抽出例を示す図である。
図5】オブジェクトの関連付けが行われている場合における行動特徴量情報の抽出例を示す図である。
図6】本実施形態に係るオブジェクト追跡装置における処理の流れを示すフローチャートである。
【発明を実施するための形態】
【0021】
[オブジェクト追跡装置1の概要]
図1は、本実施形態に係るオブジェクト追跡装置1の概要を示す図である。オブジェクト追跡装置1は、店舗内等の所定エリアを撮像する撮像装置2が撮像した複数の撮像画像に映る一以上のオブジェクトを関連付けることにより、オブジェクトを追跡する装置である。ここで、オブジェクトは、例えば店舗内を行動する店員や顧客である。
【0022】
オブジェクト追跡装置1は、撮像装置2が撮像した時系列の複数の撮像画像を取得する(図1の(1))。オブジェクト追跡装置1は、取得した複数の撮像画像のそれぞれから、撮像画像に映るオブジェクトを検出する(図1の(2))。
【0023】
オブジェクト追跡装置1は、複数の撮像画像のそれぞれについて、検出したオブジェクトの行動の特徴量を示す行動特徴量を抽出する(図1の(3))。オブジェクト追跡装置1は、抽出した行動特徴量に基づいて、複数の撮像画像のそれぞれから検出したオブジェクトの関連付けを行う(図1の(4))。
【0024】
オブジェクト追跡装置1は、複数のオブジェクトのそれぞれについて、当該オブジェクトに対応する撮像画像と、関連付けが行われたオブジェクトが映る他の撮像画像とに基づいて行動特徴量を再抽出する。複数の撮像画像において関連付けられたオブジェクトは、複数の撮像画像が示すオブジェクトの行動に基づいて行動特徴量を抽出できることから、関連付けが行われる前に比べて、行動特徴量の精度が高くなる。
【0025】
オブジェクト追跡装置1は、再抽出した行動特徴量に基づいて、複数の撮像画像のそれぞれから検出したオブジェクトの関連付けを行う。行動特徴量の精度が高くなったことにより、これまでに関連付けられていなかったオブジェクト同士での関連付けが行われることとなる。
【0026】
図2は、オブジェクトの関連付けの例について示す図である。図2(a)~(d)において、横軸は撮像時刻を示し、縦軸はオブジェクトの位置を示している。また、図2(a)~(d)において、マークMは、検出されたオブジェクトを示している。図2(a)~(d)において、同じ時刻に示されるマークMは、オブジェクト追跡装置1が検出した同一のオブジェクトを示している。なお、時刻tでは、マークMが存在していないが、これは、同時刻において、例えば遮蔽等の理由により、オブジェクトが検出できなかったことを示している。また、マークMの中に示すアルファベットは、行動特徴量が示す行動クラスを示すクラス情報を示している。
【0027】
図2(a)は、オブジェクト追跡装置1が、オブジェクトの関連付けを行う前の状態を示している。図2(b)は、オブジェクト追跡装置1により、初めて関連付けが行われた状態を示している。
【0028】
図2(c)は、初めて関連付けが行われた後、オブジェクト追跡装置1が、オブジェクトの行動特徴量の再抽出を行った状態を示している。関連付けが行われたオブジェクトによって行動特徴量の再抽出が行われた結果、図2(c)に示すように、時刻tにおけるオブジェクトのクラス情報が「b」から「a」に変化しているとともに、時刻tにおけるオブジェクトのクラス情報が「c」から「a」に変化していることが確認できる。
【0029】
図2(d)は、図2(c)に示すようにオブジェクトの行動特徴量の再抽出が行われた後に、再度、オブジェクトの関連付けが行われた状態を示している。図2(d)に示すように、時刻tにおけるオブジェクトと時刻tにおけるオブジェクトの行動特徴量が再抽出された結果、時刻tにおけるオブジェクトと時刻tにおけるオブジェクトとが関連付けられたことが確認できる。このように、時刻tにおいてオブジェクトが検出できなかった場合であっても、時刻tの前後の時刻t、tにおける行動特徴量の再抽出により、時刻t、tにおけるオブジェクトのクラス情報が同一のものに修正され、時刻t、tにおけるオブジェクトを関連付けることができる。
【0030】
図1に説明を戻し、オブジェクト追跡装置1は、図1の(3)の処理と、(4)の処理とを繰り返し実行する。オブジェクト追跡装置1は、行動特徴量の再抽出と、オブジェクトの関連付けとが交互に行うことにより、オブジェクトの関連付けの精度を向上させることができるので、結果として、オブジェクトを精度良く追跡することができる。
以下、オブジェクト追跡装置1の構成を詳細に説明する。
【0031】
[オブジェクト追跡装置1の構成]
図3は、本実施形態に係るオブジェクト追跡装置1の構成を示す図である。図3に示すように、オブジェクト追跡装置1は、記憶部11と、制御部12とを備える。
【0032】
記憶部11は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部11は、制御部12が実行するプログラムを記憶している。例えば、記憶部11は、制御部12を、取得部121、オブジェクト検出部122、見え特徴量抽出部123、行動特徴量抽出部124、関連付け部125、及び実行制御部126として機能させるオブジェクト追跡プログラムを記憶している。
【0033】
制御部12は、例えばCPU(Central Processing Unit)又はGPU(Graphics Processing Unit)である。制御部12は、記憶部11に記憶されたオブジェクト追跡プログラムを実行することにより、取得部121、オブジェクト検出部122、見え特徴量抽出部123、行動特徴量抽出部124、関連付け部125、及び実行制御部126として機能する。
【0034】
[撮像画像の取得]
取得部121は、所定エリアを撮像する撮像装置2が4以上の複数の時刻のそれぞれで撮像した4以上の複数の撮像画像を取得する。ここで、撮像装置2は、複数の時刻のそれぞれで、同じ撮像範囲を撮像するものとする。
【0035】
[オブジェクトの検出]
オブジェクト検出部122は、取得部121が取得した複数の撮像画像のそれぞれから、撮像画像に映るオブジェクトを検出する。具体的には、オブジェクト検出部122は、撮像画像に映るオブジェクトの位置を示すオブジェクト位置を特定することによりオブジェクトを検出する。
【0036】
例えば、オブジェクト検出部122は、例えば、オブジェクト検出器である。オブジェクト検出部122は、取得部121が取得した撮像画像が入力されると、当該撮像画像に対してオブジェクトの位置の特徴量を示す位置特徴量情報Xlocと、当該オブジェクトが当該位置に存在する確からしさを示すコストCdetとを出力することにより、オブジェクトを検出する。オブジェクト検出器には、例えば、SSD(Single Shot Multibox Detector)が用いられる。
【0037】
位置特徴量情報Xlocは、例えば、4つの変数(x,y,w,h)の組み合わせによって示される。xは撮像画像におけるX軸方向(横方向)上の位置、yは撮像画像におけるX軸と直行するY軸方向(縦方向)上の位置、wはオブジェクトのX軸方向上の長さ(幅)、hはオブジェクトのY軸方向上の長さ(高さ)を示している。位置特徴量情報Xlocにより、検出されたオブジェクトを囲む矩形領域であるバウンディングボックスが特定される。オブジェクト検出部122は、複数の撮像画像のそれぞれにおいて検出されたオブジェクトに対してインデックスiを割り振り、各オブジェクトiに対応する位置特徴量情報X loc及びコストCdet(i)を特定する。
【0038】
[見え特徴量の抽出]
見え特徴量抽出部123は、オブジェクト検出部122が検出したオブジェクトの撮像画像における見え方を示す見え特徴量を抽出する。例えば、見え特徴量抽出部123は、オブジェクト検出部122が撮像画像から検出した位置特徴量情報Xlocに基づいて、撮像画像におけるバウンディングボックスの位置及び大きさを特定する。見え特徴量抽出部123は、当該撮像画像から、オブジェクトを示す部分画像として、特定したバウンディングボックスに囲まれる部分画像を抽出する。
【0039】
見え特徴量抽出部123は、画像の入力に対してオブジェクトの見え方の特徴量を示す複数次元のベクトルである見え特徴量情報Xappを出力する見え特徴量出力プログラムに、抽出した部分画像を入力し、当該プログラムから出力される見え特徴量情報Xappを取得することにより、オブジェクトの見え特徴量を抽出する。見え特徴量出力プログラムは、例えば、深層ニューラルネットワークのプログラムであり、例えば、WRNs(Wide Residual Networks)が用いられる。
【0040】
見え特徴量抽出部123は、オブジェクト検出部122が検出した各オブジェクトiに対応する部分画像を見え特徴量出力プログラムに入力し、当該プログラムから各オブジェクトiに対応する見え特徴量情報X appを取得する。
【0041】
[行動特徴量の抽出]
行動特徴量抽出部124は、オブジェクト検出部122が検出した複数のオブジェクトのそれぞれに対応する撮像画像の部分画像に基づいて、複数のオブジェクトのそれぞれの行動の特徴量を示す行動特徴量を抽出する。行動特徴量抽出部124は、オブジェクト検出部122が検出した複数のオブジェクトiのオブジェクト位置を示す位置特徴量情報X locに対応する部分画像に基づいて、複数のオブジェクトiのそれぞれに対応する行動特徴量を抽出する。行動特徴量は、複数次元のベクトルであり、次元の数は、例えば、行動クラスの数に対応している。
【0042】
[関連付けが行われていない場合の行動特徴量の抽出]
行動特徴量抽出部124は、関連付け部125により、オブジェクトの関連付けが行われていない場合、以下に示すように、オブジェクト検出部122が検出したオブジェクトiの行動特徴量を示す複数次元のベクトルである行動特徴量情報X pafを抽出する。図4は、オブジェクトの関連付けが行われていない場合における行動特徴量情報X pafの抽出例を示す図である。
【0043】
行動特徴量抽出部124は、オブジェクトiの部分画像の色に基づく行動特徴量情報X paf-Cを抽出するとともに、部分画像と、当該部分画像が抽出された撮像画像の前後の撮像画像から抽出した部分画像との差分に基づく行動特徴量情報X paf-Fを抽出する。そして、行動特徴量抽出部124は、部分画像の色に基づく行動特徴量情報X paf-Cと、部分画像の差分に基づく行動特徴量情報X paf-Fとを統合することにより、オブジェクトiの行動特徴量情報X pafを抽出する。
【0044】
まず、行動特徴量抽出部124は、オブジェクト検出部122が検出したオブジェクトiの位置特徴量情報X locに基づいて、当該オブジェクトが検出された撮像画像から、当該オブジェクトを含む第1部分画像としての局所切出画像Imと、当該オブジェクトを含み、第1部分画像よりも表示領域が大きい部分画像である第2部分画像としての大域切出画像Imとを抽出する。
【0045】
局所切出画像Imは、例えば、オブジェクトiの位置特徴量情報X locが示すバウンディングボックスに囲まれる画像であり、大域切出画像Imは、局所切出画像Imを含み、局所切出画像Imよりも数倍の表示領域を有する画像である。そして、行動特徴量抽出部124は、抽出した局所切出画像Im及び大域切出画像Imに基づいて行動特徴量情報X pafを抽出する。このようにすることで、オブジェクト追跡装置1は、オブジェクトの周りに存在する他のオブジェクトや物体の情報を考慮して、より高精度に行動特徴量を抽出することができる。
【0046】
なお、本実施形態において、オブジェクト追跡装置1は、局所切出画像Imと大域切出画像Imとに基づいて行動特徴量情報X pafを抽出することとしたが、これに限らず、局所切出画像Imと大域切出画像Imとのいずれか一方に基づいて行動特徴量情報X pafを抽出してもよい。
【0047】
図4に示す例では、行動特徴量抽出部124は、局所切出画像Imが示す色情報と、大域切出画像Imが示す色情報とを、それぞれ、ResNet(Residual Networks)等の深層ニューラルネットワークのベースモデルプログラムに入力し、各ベースモデルプログラムから出力される行動特徴量情報を結合することにより、色に基づく行動特徴量情報X paf-Cを抽出する。
【0048】
また、行動特徴量抽出部124は、オブジェクトiが検出された撮像画像から抽出したオブジェクトiの部分画像(局所切出画像Im及び大域切出画像Im)と、当該撮像画像が撮像された時刻の前の時刻又は後の時刻に撮像された撮像画像の部分画像との差分に基づいて、行動特徴量情報X paf-Fを抽出する。
【0049】
例えば、行動特徴量抽出部124は、オブジェクトiが検出された撮像時刻tの撮像画像から、位置特徴量情報X locに基づいて局所切出画像Im及び大域切出画像Imを抽出する。また、行動特徴量抽出部124は、オブジェクトiが検出された撮像時刻tの直前の撮像時刻ti-1の撮像画像から、位置特徴量情報X locに基づいて局所切出画像ImLb及び大域切出画像ImGbを抽出する。そして、行動特徴量抽出部124は、抽出した2つの局所切出画像の差分D、及び2つの大域切出画像の差分Dに基づいて、行動特徴量情報X paf-Fを抽出する。
【0050】
図4に示す例では、行動特徴量抽出部124は、局所切出画像の差分Dと、大域切出画像の差分Dとを、それぞれ、ResNet等の深層ニューラルネットワークのベースモデルプログラムに入力し、各ベースモデルプログラムから出力される行動特徴量情報を結合することにより行動特徴量情報X paf-Fを抽出する。なお、ベースモデルプログラムは予め学習が行われているものとする。
【0051】
そして、行動特徴量抽出部124は、抽出した行動特徴量情報X paf-Cと行動特徴量情報X paf-Fとを統合することにより、オブジェクトiの行動特徴量情報X pafを抽出する。例えば、行動特徴量抽出部124は、抽出した行動特徴量情報X paf-Cと行動特徴量情報X paf-Fとの平均値をオブジェクトiの行動特徴量情報X pafとする。
【0052】
行動特徴量抽出部124は、行動特徴量情報X paf-Cと行動特徴量情報X paf-Fとを統合する他の方法として、行動特徴量情報X paf-Cと行動特徴量情報X paf-Fとを要素ごとに比較し、大きいほうの値で構成されたベクトルを、オブジェクトiの行動特徴量情報X pafとしてもよい。例えば、X paf-C=(0.1,0.2,0.5,0.6)、X paf-F=(0.9,0.6,0.2,0.9)である場合、X paf=(0.9,0.6,0.5,0.9)となる。以下、この抽出方法を、最大要素抽出法と呼ぶ。
【0053】
また、行動特徴量抽出部124は、行動特徴量情報X pafを抽出すると、当該行動特徴量情報X pafが示すベクトル値のうち、最も高いベクトル値に対応する行動クラスを示すクラス情報を抽出する。
【0054】
なお、行動特徴量抽出部124は、図4に示すように行動特徴量情報X pafを抽出したが、これに限らない。行動特徴量抽出部124は、TSN(Temporal Segment Networks)のような深層ニューラルネットワークのプログラムを用いて行動特徴量情報X pafを抽出してもよい。
【0055】
また、オブジェクトの関連付けが行われていない場合には、抽出した行動特徴量情報X paf-Cと行動特徴量情報X paf-Fとの平均値が、必ずしもオブジェクトの行動特徴量を反映しているとはいえず、むしろ、行動特徴量にあいまいさを持たせたほうが好ましいとも考えられる。このため、行動特徴量抽出部124は、各ニューラルネットワークにおける中間層が示す特徴量を取得し、取得した複数の特徴量の平均化等を行ったものを、行動特徴量情報X pafとして抽出してもよい。このようにすることで、オブジェクト追跡装置1は、オブジェクトの関連付けが行われていない場合に、行動特徴量情報X pafにあいまいさを持たせることができる。
【0056】
[関連付けが行われている場合の行動特徴量の抽出]
行動特徴量抽出部124は、関連付け部125によりオブジェクトの関連付けが行われている場合、関連付け部125により関連付けが行われた複数のオブジェクトiのそれぞれについて、当該オブジェクトiに対応する部分画像と、当該オブジェクトiに関連付けられた一以上の他のオブジェクトのそれぞれに対応する部分画像とに基づいて行動特徴量を再抽出する。ここで、行動特徴量抽出部124は、オブジェクトiに関連付けられた一以上の他のオブジェクトのうち、オブジェクトiが映る撮像画像の撮像時刻から所定時間(所定のフレーム数)以内に撮像された撮像画像から検出された他のオブジェクトの部分画像に基づいて行動特徴量を再抽出するものとする。以下の説明において、所定のフレーム数によって定められる、オブジェクトiの行動特徴量の抽出に用いる他のオブジェクトの参照範囲をウィンドウサイズという。
【0057】
図5は、オブジェクトの関連付けが行われている場合における行動特徴量情報X pafの抽出例を示す図である。例えば、時刻tに検出されたオブジェクトiに対して、時刻ti-1に検出されたオブジェクトと、時刻ti+1に検出されたオブジェクトとが関連付けられたものとする。この場合、行動特徴量抽出部124は、図5に示すように、時刻tに検出されたオブジェクトiの部分画像に基づいて行動特徴量情報を抽出するとともに、時刻ti-1及び時刻ti+1に検出されたオブジェクトの行動特徴量情報を抽出する。そして、行動特徴量抽出部124は、抽出したこれらの行動特徴量情報の平均値を算出し、活性化させることにより、行動特徴量情報X pafを再抽出する。また、行動特徴量抽出部124は、行動特徴量情報X paf-Cと行動特徴量情報X paf-Fとを統合する方法と同様に、抽出したこれらの行動特徴量情報に最大要素抽出法を適用して行動特徴量情報を算出し、算出した結果を活性化させることにより、行動特徴量情報X pafを再抽出してもよい。
【0058】
図5に示す例では、時刻ti-1、時刻t、及び時刻ti+1に検出されたオブジェクトの行動特徴量情報を示すベクトルBt(i-1)、Bti、Bt(i+1)に含まれる行動クラスの値のうち、相対的に値が大きい行動クラスを、他の行動クラスと異なる色で示している。ベクトルBt(i-1)、Bti、Bt(i+1)を統合した結果、行動特徴量情報X pafを示すベクトルが、時刻tのベクトルBti(再抽出前の行動特徴量情報を示すベクトル)から変化していることが確認できる。なお、行動特徴量抽出部124は、時刻tだけでなく、時刻ti-1及び時刻ti+1に検出されたオブジェクトの行動特徴量情報として、再抽出された行動特徴量情報X pafを示すベクトルを用いてもよい。
【0059】
なお、行動特徴量抽出部124は、関連付け部125により関連付けが行われた複数のオブジェクトのそれぞれについて、当該オブジェクトに対応する行動特徴量が示す行動傾向に基づいてウィンドウサイズを変化させることにより、当該オブジェクトの行動特徴量の再抽出に用いる他のオブジェクトの数を変化させてもよい。例えば、行動特徴量抽出部124は、行動傾向が静止等の静的な行動傾向を示す場合、ウィンドウサイズを大きくし、歩行等の動的な行動を示す場合、ウィンドウサイズを小さくしてもよい。このようにすることで、ウィンドウサイズを、行動傾向に対して適切なウィンドウサイズとすることができるので、行動特徴量の抽出精度を向上させることができる。
【0060】
また、行動特徴量抽出部124は、オブジェクトの関連付けが行われている場合においても、再抽出の回数が所定回数以内であることを条件として、ニューラルネットワークの中間層が示す特徴量に基づいて、オブジェクトの行動特徴量を再抽出してもよい。具体的には、行動特徴量抽出部124は、ニューラルネットワークに、検出したオブジェクトiに対応する部分画像と、当該オブジェクトiとの関連付けが行われた一以上の他のオブジェクトに対応する部分画像とを入力し、ニューラルネットワークにおける中間層が示す特徴量を取得し、取得した特徴量に基づいて、当該オブジェクトiの行動特徴量情報X pafを再抽出してもよい。
【0061】
例えば、行動特徴量抽出部124は、検出したオブジェクトに対応する部分画像をニューラルネットワークに入力した場合における、当該ニューラルネットワークにおける中間層が示す特徴量と、関連するオブジェクトに対応する部分画像をニューラルネットワークに入力した場合における、当該ニューラルネットワークにおける中間層が示す特徴量との平均値を、検出したオブジェクトの行動特徴量情報X pafを再抽出してもよい。このようにすることで、オブジェクト追跡装置1は、オブジェクトの関連付けが十分に行われていない場合に、行動特徴量情報X pafにあいまいさを持たせることができる。
【0062】
[オブジェクトの関連付け]
関連付け部125は、オブジェクト検出部122が抽出した位置特徴量、見え特徴量抽出部123が抽出した見え特徴量、及び行動特徴量抽出部124が抽出した行動特徴量に基づいて、撮像された時刻が異なる複数の撮像画像のそれぞれからオブジェクト検出部122が検出したオブジェクトの関連付けを行う。
【0063】
関連付け部125は、検出されたオブジェクトiをノードとし、各ノード間のコストを設定して、最小費用流問題を解くことにより、オブジェクトの関連付けを行う。具体的にはまず、関連付け部125は、以下の式(1)に示すように、検出されたオブジェクトiを示すノードyを定義する。
【0064】
【数1】
【0065】
続いて、関連付け部125は、各ノードyに対するコストを算出する。コストには、観測コストCobsv(i)、遷移コストCtran(i,j)、開始コストCentr(i)、終了コストCexit(i)が含まれる。遷移コストCtran(i,j)に含まれるjは、他のノードyのインデックスを示している。また、他のノードyは、オブジェクトiが検出された撮像画像の撮像時刻から所定時間内に撮像された撮像画像から検出したオブジェクトに対応しているものとする。
【0066】
また、開始コストCentr(i)は、予め定数として与えられるものである。開始コストCentr(i)が小さければ小さいほど、ノードyに対して新たに関連付けが行われる頻度が増加する。終了コストCexit(i)は、予め定数として与えられるものである。終了コストCexit(i)が小さければ小さいほど、ノードyに対して関連付けが行われない頻度が増加する。
【0067】
関連付け部125は、観測コストCobsv(i)を以下に示す式(2)、(3)に基づいて算出する。
【数2】
【0068】
式(2)に示されるbは予め定められる定数である。コストCdet(i)は、オブジェクト検出器の出力(当該オブジェクトが位置特徴量情報X locが示す位置に存在する確からしさ)を示している。α、βは、コストCdet(i)に対して最適となる観測コストCobsv(i)を算出するためのパラメータである。α、βは、位置特徴量情報X locにおけるコストCdet(i)と、当該オブジェクトの位置が正しいか否かを示す正解データとを組み合わせた教師データに基づいて学習を行うことにより設定される。
【0069】
関連付け部125は、遷移コストCtran(i,j)を以下に示す式(4)、(5)に基づいて算出する。
【0070】
【数3】
【0071】
式(4)に示されるCiou(i,j)は、例えば、ノードyに含まれる位置特徴量情報X locによって示されるバウンディングボックスと、ノードyに含まれる位置特徴量情報X locによって示されるバウンディングボックスとの重複率である。式(4)に示されるCapp(i,j)は、ノードyに含まれる見え特徴量情報X appとノードyに含まれる見え特徴量情報X appとのコサイン距離である。式(4)に示されるCpaf(i,j)は、ノードyに含まれる行動特徴量情報X pafとノードyに含まれる行動特徴量情報X pafとのコサイン距離である。
【0072】
関数gは、式(4)にCiou(i,j)、Capp(i,j)、Cpaf(i,j)を入力した結果、最適となる観測コストCtran(i,j)を算出するための非線形関数である。関数gは、予め関連付けが行われている複数のオブジェクトiと、オブジェクト検出部122によって検出された当該複数のオブジェクトiに対応するノードyとを組み合わせた教師データに基づいて学習を行うことにより設定される。なお、関数gは、例えば決定木で表現してもよい。この場合、関数gは、例えばブースティングアルゴリズムによって予めパラメータを学習させておくものとする。
【0073】
関連付け部125は、以下の式(6)に示すオブジェクトの関連付けの結果Fを求めることにより、オブジェクトの関連付けを行う。
【数4】
【0074】
ここで、fは、関連付けをするか否かを示すものであり、fentr(i)、fobsv(i)、ftran(i,j)、fexit(i)のうち、いずれかが1となり、その他が0となる。fが0である場合は関連付けが行われないことを示し、fが1である場合は関連付けが行われることを示す。
【0075】
関連付け部125は、各オブジェクトの最適な関連付けの結果Fを、以下の式(7)に示す目的関数を最適化、すなわち、Fを最小の値にすることによって求める。関連付け部125は、例えばスケーリングプッシュ再ラベルアルゴリズムを用いて式(7)に示す目的関数の最適化を行うことにより、オブジェクトの関連付けを行う。
【数5】
【0076】
関連付け部125は、行動特徴量抽出部124により再抽出された行動特徴量に基づいて、撮像された時刻が異なる複数の撮像画像のそれぞれからオブジェクト検出部122が検出したオブジェクトの関連付けを再度行う。関連付け部125が、オブジェクトの関連付けを再度行うときも、上述したように、各ノードyに対するコストを算出し、式(7)に示す目的関数の最適化を行うことにより、オブジェクトの関連付けを行う。
【0077】
[行動特徴量の再抽出及びオブジェクトの関連付けの繰り返し]
実行制御部126は、行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125によるオブジェクトの再度の関連付けとを、所定の条件を満たすまで交互に繰り返し実行させることにより、オブジェクトの追跡を行う。例えば、所定の条件は、関連付け部125によるオブジェクトの関連付けが収束したことである。
【0078】
具体的には、実行制御部126は、関連付け部125によるオブジェクトの関連付けを行った結果、当該関連付けを行った後において関連付けられているオブジェクトの数に対する、当該関連付けを行う前において関連付けられているオブジェクトの数の割合が所定の割合以上(例えば90%以上)となるまで、行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125によるオブジェクトの関連付けとを交互に繰り返し実行させる。すなわち、実行制御部126は、関連付け部125によるオブジェクトの関連付けを行った前後において関連付けられているオブジェクトの数の変化(増分)が小さくなるまで行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125によるオブジェクトの関連付けとを交互に繰り返し実行させる。このようにすることで、オブジェクト追跡装置1は、オブジェクトの関連付けが収束するまでオブジェクトの関連付けを行うことができる。
【0079】
なお、行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125によるオブジェクトの関連付けとを交互に繰り返し実行させる回数を予め定めておき、実行制御部126が、当該回数に基づいて、行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125によるオブジェクトの関連付けとを交互に繰り返し実行させてもよい。
【0080】
[オブジェクト追跡装置1における処理の流れ]
続いて、オブジェクト追跡装置1における処理の流れについて説明する。図6は、本実施形態に係るオブジェクト追跡装置1における処理の流れを示すフローチャートである。
【0081】
まず、取得部121は、所定エリアを撮像する撮像装置2が複数の時刻のそれぞれで撮像した複数の撮像画像を取得する(S1)。
続いて、オブジェクト検出部122は、取得部121が取得した複数の撮像画像のそれぞれからオブジェクトに対応する位置特徴量を抽出することにより、複数の撮像画像のそれぞれに映るオブジェクトを検出する(S2)。
【0082】
続いて、見え特徴量抽出部123は、オブジェクト検出部122が検出したオブジェクトの見え特徴量を抽出する(S3)。
続いて、行動特徴量抽出部124は、オブジェクト検出部122が検出したオブジェクトの行動特徴量を抽出する(S4)。
【0083】
続いて、関連付け部125は、オブジェクト検出部122が抽出した位置特徴量、見え特徴量抽出部123が抽出した見え特徴量、及び行動特徴量抽出部124が抽出した行動特徴量に基づいて、オブジェクト検出部122が検出したオブジェクトの関連付けを行う(S5)。
【0084】
続いて、行動特徴量抽出部124は、関連付け部125により関連付けが行われた複数のオブジェクトのそれぞれについて、当該オブジェクトと、当該オブジェクトに関連付けられた一以上の他のオブジェクトとに基づいて行動特徴量を再抽出する(S6)。
【0085】
続いて、関連付け部125は、オブジェクト検出部122が抽出した位置特徴量、見え特徴量抽出部123が抽出した見え特徴量、及び行動特徴量抽出部124が再抽出した行動特徴量に基づいて、オブジェクト検出部122が検出したオブジェクトの関連付けを行う(S7)。
【0086】
続いて、実行制御部126は、関連付け部125によるオブジェクトの関連付けが収束したか否かを判定する(S8)。実行制御部126は、オブジェクトの関連付けが収束したと判定すると、本フローチャートに係る処理を終了し、オブジェクトの関連付けが収束していないと判定すると、S6に処理を移す。
【0087】
[本実施形態における効果]
以上説明したように、本実施形態に係るオブジェクト追跡装置1は、所定エリアを複数の時刻のそれぞれで撮像した複数の撮像画像からオブジェクトを検出し、検出したオブジェクトに対応する撮像画像の部分画像に基づいてオブジェクトの行動特徴量を抽出し、抽出した行動特徴量に基づいて撮像時刻が異なる複数の撮像画像のそれぞれから検出されたオブジェクトの関連付けを行う。そして、オブジェクト追跡装置1は、関連付けが行われた複数のオブジェクトのそれぞれについて、当該オブジェクトに対応する部分画像と、当該オブジェクトに関連付けられた他のオブジェクトに対応する部分画像とに基づいて行動特徴量を再抽出し、再抽出した行動特徴量に基づいて、撮像時刻が異なる複数の撮像画像のそれぞれから検出されたオブジェクトの関連付けを再度行う。
【0088】
このようにすることで、オブジェクト追跡装置1は、関連付けが行われたオブジェクトのそれぞれに対応するオブジェクトの行動特徴量の精度を高めることができるので、オブジェクトを精度良く追跡することができる。
【0089】
また、オブジェクト追跡装置1は、行動特徴量の再抽出と、オブジェクトの再度の関連付けとを、所定の条件を満たすまで交互に繰り返し実行させることにより、オブジェクトの追跡を行う。これにより、オブジェクト追跡装置1は、関連付けが行われたオブジェクト同士が示す行動特徴量に基づいて、各オブジェクトの行動特徴量の精度をさらに高めることができるので、オブジェクトの追跡精度をさらに向上させることができる。
【0090】
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、上述の実施形態では、関連付け部125は、オブジェクト検出部122が抽出した位置特徴量、見え特徴量抽出部123が抽出した見え特徴量、及び行動特徴量抽出部124が抽出した行動特徴量に基づいて、オブジェクトの関連付けを行うこととしたが、これに限らない。
【0091】
関連付け部125は、行動特徴量抽出部124が抽出した行動特徴量のみに基づいて、オブジェクト検出部122が検出したオブジェクトの関連付けを行ってもよい。また、関連付け部125は、オブジェクト検出部122が抽出した位置特徴量及び見え特徴量抽出部123が抽出した見え特徴量のいずれかと、行動特徴量抽出部124が抽出した行動特徴量とに基づいてオブジェクト検出部122が検出したオブジェクトの関連付けを行ってもよい。
【0092】
また、取得部121は、撮像装置2が4以上の複数の時刻のそれぞれで撮像した4以上の複数の撮像画像を取得したが、これに限らない。取得部121は、撮像装置2が3つの時刻のそれぞれで撮像した3つの撮像画像を取得してもよい。この場合には、行動特徴量抽出部124による行動特徴量の再抽出と、関連付け部125による行動特徴量の再抽出が行われたオブジェクトの関連付けとを、それぞれ1回のみ実行し、行動特徴量の再抽出と、行動特徴量の再抽出が行われたオブジェクトの関連付けとを複数回実行しないようにしてもよい。
【0093】
また、上記の実施の形態では、オブジェクトが、店舗内を行動する店員や顧客等の人物であることを例として説明したが、これに限らない。例えば、撮像画像が、町中を撮像する撮像画像である場合、人物に限らず、車両等の移動物もオブジェクトとしてもよい。この場合、オブジェクト追跡装置1は、オブジェクトの種別に応じた各種特徴量を用いてもよい。
【0094】
また、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
【符号の説明】
【0095】
1・・・オブジェクト追跡装置、11・・・記憶部、12・・・制御部、121・・・取得部、122・・・オブジェクト検出部、123・・・見え特徴量抽出部、124・・・行動特徴量抽出部、125・・・関連付け部、126・・・実行制御部、2・・・撮像装置

図1
図2
図3
図4
図5
図6