IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日本電気株式会社の特許一覧

特開2023-180277行動推定装置、行動推定方法、及び、記録媒体
<>
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図1
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図2
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図3
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図4
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図5
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図6
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図7
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図8
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図9
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図10
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図11
  • 特開-行動推定装置、行動推定方法、及び、記録媒体 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023180277
(43)【公開日】2023-12-21
(54)【発明の名称】行動推定装置、行動推定方法、及び、記録媒体
(51)【国際特許分類】
   G06T 7/20 20170101AFI20231214BHJP
   A61B 5/11 20060101ALI20231214BHJP
【FI】
G06T7/20 300Z
A61B5/11 120
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022093414
(22)【出願日】2022-06-09
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100107331
【弁理士】
【氏名又は名称】中村 聡延
(74)【代理人】
【識別番号】100104765
【弁理士】
【氏名又は名称】江上 達夫
(74)【代理人】
【識別番号】100131015
【弁理士】
【氏名又は名称】三輪 浩誉
(72)【発明者】
【氏名】安藤 隆平
(72)【発明者】
【氏名】馬場崎 康敬
【テーマコード(参考)】
4C038
5L096
【Fターム(参考)】
4C038VA20
4C038VB01
4C038VB35
4C038VC05
5L096AA06
5L096CA04
5L096DA03
5L096FA66
5L096FA69
5L096FA72
5L096HA11
5L096JA03
5L096MA07
(57)【要約】
【課題】人物の行動を推定する際の推定精度を向上させることが可能な行動推定装置等を提供する。
【解決手段】行動推定装置において、人物特徴抽出手段は、時系列な複数の画像から検出された人物の特徴を抽出する。物体特徴抽出手段は、時系列な複数の画像から検出された物体の特徴を抽出する。周辺特徴抽出手段は、時系列な複数の画像における人物の周辺の特徴を抽出する。特徴集約手段は、人物の特徴と、物体の特徴と、人物の周辺の特徴と、を集約するための集約処理を行う。行動推定処理手段は、集約処理の処理結果を含む情報に基づき、複数の画像に含まれる人物の行動を推定するための処理を行う。
【選択図】図3
【特許請求の範囲】
【請求項1】
時系列な複数の画像から検出された人物の特徴を抽出する人物特徴抽出手段と、
前記複数の画像から検出された物体の特徴を抽出する物体特徴抽出手段と、
前記複数の画像における前記人物の周辺の特徴を抽出する周辺特徴抽出手段と、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を集約するための集約処理を行う特徴集約手段と、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる前記人物の行動を推定するための処理を行う行動推定処理手段と、
を有する行動推定装置。
【請求項2】
前記特徴集約手段は、前記集約処理として、前記人物の特徴に対して前記人物の周辺の特徴を統合する第1の処理を行うことにより第1の処理結果を取得し、当該第1の処理結果に対して前記物体の特徴を統合する第2の処理を行うことにより第2の処理結果を取得し、当該第2の処理結果に対して前記人物の周辺の特徴を統合する第3の処理を行うことにより第3の処理結果を取得する処理を行う請求項1に記載の行動推定装置。
【請求項3】
前記特徴集約手段は、前記第2の処理において用いられる所定のパラメータに基づいて前記人物の行動に対する前記物体の関連度を示す情報である関連度情報を取得し、当該取得した関連度情報を用いて前記第3の処理を行う請求項2に記載の行動推定装置。
【請求項4】
前記行動推定処理手段は、前記集約処理の処理結果を含む情報の代わりに、前記第1の処理結果を含む情報から前記人物の行動を推定した第1の推定結果と、前記第2の処理結果を含む情報から前記人物の行動を推定した第2の推定結果と、前記第3の処理結果を含む情報から前記人物の行動を推定した第3の推定結果と、に基づき、前記複数の画像に含まれる前記人物の行動を推定する請求項2に記載の行動推定装置。
【請求項5】
時系列な複数の画像から検出された人物の特徴を抽出する人物特徴抽出手段と、
前記複数の画像から検出された物体の特徴を抽出する物体特徴抽出手段と、
前記複数の画像における前記人物の周辺の特徴を抽出する周辺特徴抽出手段と、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を統合するための統合処理を行う特徴統合手段と、
前記人物の特徴と、前記統合処理の処理結果と、を集約するための集約処理を行う集約処理手段と、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる人物の行動を推定する行動推定処理手段と、
を有する行動推定装置。
【請求項6】
時系列な複数の画像から検出された人物の特徴を抽出し、
前記複数の画像から検出された物体の特徴を抽出し、
前記複数の画像における前記人物の周辺の特徴を抽出し、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を集約するための集約処理を行い、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる前記人物の行動を推定する行動推定方法。
【請求項7】
時系列な複数の画像から検出された人物の特徴を抽出し、
前記複数の画像から検出された物体の特徴を抽出し、
前記複数の画像における前記人物の周辺の特徴を抽出し、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を統合するための統合処理を行い、
前記人物の特徴と、前記統合処理の処理結果と、を集約するための集約処理を行い、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる人物の行動を推定する行動推定方法。
【請求項8】
時系列な複数の画像から検出された人物の特徴を抽出し、
前記複数の画像から検出された物体の特徴を抽出し、
前記複数の画像における前記人物の周辺の特徴を抽出し、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を集約するための集約処理を行い、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる前記人物の行動を推定する処理をコンピュータに実行させるプログラムを記録した記録媒体。
【請求項9】
時系列な複数の画像から検出された人物の特徴を抽出し、
前記複数の画像から検出された物体の特徴を抽出し、
前記複数の画像における前記人物の周辺の特徴を抽出し、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を統合するための統合処理を行い、
前記人物の特徴と、前記統合処理の処理結果と、を集約するための集約処理を行い、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる人物の行動を推定する処理をコンピュータに実行させるプログラムを記録した記録媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、人物の行動推定に利用可能な技術に関する。
【背景技術】
【0002】
画像内の人物の行動を推定するための技術が従来知られている。
【0003】
具体的には、例えば、特許文献1には、撮像装置が生成した画像に映る人の姿勢特徴を抽出し、当該画像に映る人の周辺物体の形状、位置又は種別を示す周辺特徴を抽出し、当該姿勢特徴と当該姿勢特徴に関連付けて設定された周辺特徴の重要度とに基づいて当該周辺特徴をフィルタリングし、当該姿勢特徴とフィルタリングされた当該周辺特徴とに基づいて当該画像に映る人の行動クラスを推定する技術が開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】国際公開WO2018/163555号
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかし、特許文献1に開示された手法によれば、例えば、画像内の人物と、当該人物の周辺物体と、の間の関連性を考慮していないため、当該人物の行動を正しく推定できない場合がある、という問題点がある。また、特許文献1に開示された手法によれば、例えば、人物の周辺の物体を検出できなかった場合において、当該人物の行動を正しく推定できない場合がある、という問題点がある。
【0006】
すなわち、特許文献1に開示された手法によれば、人物の行動を推定する際の推定精度が低下してしまう、という上記の問題点に応じた課題が生じている。
【0007】
本開示の1つの目的は、人物の行動を推定する際の推定精度を向上させることが可能な行動推定装置を提供することにある。
【課題を解決するための手段】
【0008】
本開示の一つの観点では、行動推定装置は、時系列な複数の画像から検出された人物の特徴を抽出する人物特徴抽出手段と、前記複数の画像から検出された物体の特徴を抽出する物体特徴抽出手段と、前記複数の画像における前記人物の周辺の特徴を抽出する周辺特徴抽出手段と、前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を集約するための集約処理を行う特徴集約手段と、前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる前記人物の行動を推定するための処理を行う行動推定処理手段と、を有する。
【0009】
本開示の他の観点では、行動推定装置は、時系列な複数の画像から検出された人物の特徴を抽出する人物特徴抽出手段と、前記複数の画像から検出された物体の特徴を抽出する物体特徴抽出手段と、前記複数の画像における前記人物の周辺の特徴を抽出する周辺特徴抽出手段と、前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を統合するための統合処理を行う特徴統合手段と、前記人物の特徴と、前記統合処理の処理結果と、を集約するための集約処理を行う集約処理手段と、前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる人物の行動を推定する行動推定処理手段と、を有する。
【0010】
本開示のさらに他の観点では、行動推定方法は、時系列な複数の画像から検出された人物の特徴を抽出し、前記複数の画像から検出された物体の特徴を抽出し、前記複数の画像における前記人物の周辺の特徴を抽出し、前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を集約するための集約処理を行い、前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる前記人物の行動を推定する。
【0011】
本開示のさらに他の観点では、行動推定方法は、時系列な複数の画像から検出された人物の特徴を抽出し、前記複数の画像から検出された物体の特徴を抽出し、前記複数の画像における前記人物の周辺の特徴を抽出し、前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を統合するための統合処理を行い、前記人物の特徴と、前記統合処理の処理結果と、を集約するための集約処理を行い、前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる人物の行動を推定する。
【0012】
本開示のさらに他の観点では、記録媒体は、時系列な複数の画像から検出された人物の特徴を抽出し、前記複数の画像から検出された物体の特徴を抽出し、前記複数の画像における前記人物の周辺の特徴を抽出し、前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を集約するための集約処理を行い、前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる前記人物の行動を推定する処理をコンピュータに実行させるプログラムを記録する。
【0013】
本開示のさらに他の観点では、記憶媒体は、時系列な複数の画像から検出された人物の特徴を抽出し、前記複数の画像から検出された物体の特徴を抽出し、前記複数の画像における前記人物の周辺の特徴を抽出し、前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を統合するための統合処理を行い、前記人物の特徴と、前記統合処理の処理結果と、を集約するための集約処理を行い、前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる人物の行動を推定する処理をコンピュータに実行させるプログラムを記録する。
【発明の効果】
【0014】
本開示によれば、人物の行動を推定する際の推定精度を向上させることが可能となる。
【図面の簡単な説明】
【0015】
図1】第1実施形態に係る行動推定装置の概略を示す図。
図2】第1実施形態に係る行動推定装置のハードウェア構成を示すブロック図。
図3】第1実施形態に係る行動推定装置の機能構成を示すブロック図。
図4】第1実施形態に係る行動推定装置に含まれる周辺特徴抽出部の構成の一例を示す図。
図5】第1実施形態に係る行動推定装置に含まれる特徴集約部の構成の一例を示す図。
図6】第1実施形態に係る行動推定装置に含まれる集約処理部の構成の一例を示す図。
図7】第1実施形態に係る行動推定装置において行われる処理を説明するためのフローチャート。
図8】第1実施形態の変形例に係る行動推定装置に含まれる特徴集約部の構成の一例を示す図。
図9図8の特徴集約部に複数の特徴統合部を設けた場合の構成例を示す図。
図10】第1実施形態の変形例に係る行動推定装置に含まれる特徴集約部の構成の一例を示す図。
図11】第2実施形態に係る行動推定装置の機能構成を示すブロック図。
図12】第2実施形態に係る行動推定装置において行われる処理を説明するためのフローチャート。
【発明を実施するための形態】
【0016】
以下、図面を参照して、本開示の好適な実施形態について説明する。
【0017】
<第1実施形態>
[概略構成]
図1は、第1実施形態に係る行動推定装置の概略を示す図である。行動推定装置100は、例えば、パーソナルコンピュータ等のような装置により構成されている。また、行動推定装置100は、カメラ等により撮影された映像に含まれる人物の行動を推定するための行動推定処理を行う。また、行動推定装置100は、前述の行動推定処理により得られた推定結果を外部装置へ出力する。
【0018】
[ハードウェア構成]
図2は、第1実施形態に係る行動推定装置のハードウェア構成を示すブロック図である。行動推定装置100は、図2に示すように、インタフェース(IF)111と、プロセッサ112と、メモリ113と、記録媒体114と、データベース(DB)115と、を備える。
【0019】
IF111は、外部装置との間でデータの入出力を行う。また、カメラ等により撮影された映像は、IF111を通じて行動推定装置100に入力される。また、行動推定装置100により得られた推定結果は、必要に応じ、IF111を通じて外部装置へ出力される。
【0020】
プロセッサ112は、CPU(Central Processing Unit)などのコンピュータであり、予め用意されたプログラムを実行することにより、行動推定装置100の全体を制御する。具体的には、プロセッサ112は、行動推定処理等の処理を行う。
【0021】
メモリ113は、ROM(Read Only Memory)、RAM(Random Access Memory)などにより構成される。メモリ113は、プロセッサ112による各種の処理の実行中に作業メモリとしても使用される。
【0022】
記録媒体114は、ディスク状記録媒体、半導体メモリなどの不揮発性で非一時的な記録媒体であり、行動推定装置100に対して着脱可能に構成される。記録媒体114は、プロセッサ112が実行する各種のプログラムを記録している。行動推定装置100が各種の処理を実行する際には、記録媒体114に記録されているプログラムがメモリ113にロードされ、プロセッサ112により実行される。
【0023】
DB115には、例えば、IF111を通じて入力された情報、及び、プロセッサ112の処理により得られた処理結果等が格納される。
【0024】
[機能構成]
図3は、第1実施形態に係る行動推定装置の機能構成を示すブロック図である。行動推定装置100は、図3に示すように、映像取得部11と、人物領域検出部12と、人物特徴抽出部13と、物体領域検出部14と、物体特徴抽出部15と、周辺特徴抽出部16と、特徴集約部17と、行動推定処理部18と、を有している。
【0025】
映像取得部11は、カメラ等により撮影された映像を取得し、当該取得した映像を人物領域検出部12、物体領域検出部14及び周辺特徴抽出部16に対して出力する。
【0026】
なお、以降においては、特に言及のない限り、1または複数の人物と、1または複数の物体と、が映像取得部11により取得された映像に含まれているものとして説明を行う。
【0027】
人物領域検出部12は、映像取得部11により得られた映像に含まれる時系列な複数の画像各々において人物を検出するための処理を行う。また、人物領域検出部12は、前述の処理により検出した人物に対応する画像内の領域を人物領域として特定可能な情報である人物検出情報を生成し、当該生成した人物検出情報を人物特徴抽出部13へ出力する。人物領域は、例えば、画像内の1または複数の人物の周囲を個々に囲む矩形領域であればよい。
【0028】
人物特徴抽出部13は、例えば、CNN(Convolutional Neural Network)等のようなニューラルネットワーク(以降、NNと略記する)を用いて処理を行うように構成されている。また、人物特徴抽出部13は、人物領域検出部12により得られた人物検出情報に基づいて画像内の人物領域を特定し、当該特定した人物領域に含まれる人物の特徴を抽出するための処理を行う。具体的には、人物特徴抽出部13は、人物領域に含まれる各画素の画素値に基づいて算出した複数の特徴量のうちの所定の条件を満たす特徴量である人物特徴量を、当該人物領域に含まれる人物の特徴として抽出する処理を行う。また、人物特徴抽出部13は、人物検出情報に複数の人物領域が含まれている場合には、当該複数の人物領域各々に対して前述の処理を行う。そして、人物特徴抽出部13は、画像内の人物領域において算出された人物特徴量に係る情報である人物特徴情報を生成し、当該生成した人物特徴情報を特徴集約部17へ出力する。
【0029】
物体領域検出部14は、映像取得部11により得られた映像に含まれる時系列な複数の画像各々において人物以外の所定の物体を検出するための処理を行う。また、物体領域検出部14は、前述の処理により検出した所定の物体に対応する画像内の領域を物体領域として特定可能な情報である物体検出情報を生成し、当該生成した物体検出情報を物体特徴抽出部15へ出力する。物体領域は、例えば、画像内の1または複数の物体の周囲を個々に囲む矩形領域であればよい。また、物体領域検出部14は、例えば、工事現場を撮影した映像が映像取得部11により得られた場合には、ショベルカー及びスコップ等の物体を所定の物体として検出するための処理を行えばよい。
【0030】
物体特徴抽出部15は、例えば、CNN等のようなNNを用いて処理を行うように構成されている。また、物体特徴抽出部15は、物体領域検出部14により得られた物体検出情報に基づいて画像内の物体領域を特定し、当該特定した物体領域に含まれる物体の特徴を抽出するための処理を行う。具体的には、物体特徴抽出部15は、例えば、物体領域に含まれる各画素の画素値に基づいて算出した複数の特徴量のうちの所定の条件を満たす特徴量である物体特徴量を、当該物体領域に含まれる物体の特徴として抽出する処理を行う。また、物体特徴抽出部15は、物体検出情報に複数の物体領域が含まれている場合には、当該複数の物体領域各々に対して前述の処理を行う。そして、物体特徴抽出部15は、画像内の物体領域において算出された物体特徴量に係る情報である物体特徴情報を生成し、当該生成した物体特徴情報を特徴集約部17へ出力する。
【0031】
周辺特徴抽出部16は、映像取得部11により得られた映像に含まれる時系列な複数の画像各々の特徴を抽出し、当該抽出した特徴を表す情報を周辺特徴情報として特徴集約部17へ出力する。また、周辺特徴抽出部16は、例えば、図4に示すように、特徴抽出部161と、領域分割部162と、を有している。図4は、第1実施形態に係る行動推定装置に含まれる周辺特徴抽出部の構成の一例を示す図である。
【0032】
特徴抽出部161は、例えば、CNN等のようなNNを用いて処理を行うように構成されている。また、特徴抽出部161は、映像取得部11により得られた画像の全体から、画素値に基づいて算出した複数の特徴量のうちの所定の条件を満たす特徴量である周辺特徴量を、当該画像の特徴として抽出する処理を行う。換言すると、特徴抽出部161は、映像取得部11から出力される映像に含まれる画像の特徴として、当該画像に含まれる人物の特徴と、当該画像に含まれる物体の特徴と、当該人物及び当該物体以外の背景部分の特徴と、を抽出する。なお、前述の背景部分の特徴は、人物領域検出部12により検出された人物の周辺の特徴と言い換えてもよい。また、前述の背景部分の特徴には、例えば、人物領域検出部12により検出された人物から一定距離以上離れた位置に存在する物体の特徴、及び、物体領域検出部14により検出される所定の物体以外の物体の特徴等が含まれる。
【0033】
領域分割部162は、特徴抽出部161により抽出された複数の特徴各々に対応する領域を矩形領域として分割する処理を行う。また、領域分割部162は、前述の領域分割により分割された各矩形領域において算出された周辺特徴量に係る情報である周辺特徴情報を生成し、当該生成した周辺特徴情報を特徴集約部17へ出力する。
【0034】
なお、本実施形態の周辺特徴抽出部16は、特徴抽出部161の後に領域分割部162を設けたものに限らず、領域分割部162の後に特徴抽出部161を設けたものであってもよい。このような場合においては、例えば、映像取得部11から出力される映像に含まれる画像全体を複数の矩形領域に分割する処理が領域分割部162により行われるとともに、当該複数の矩形領域の中から当該画像の特徴を表す領域を抽出する処理と、当該抽出した領域において算出された周辺特徴量に係る情報である周辺特徴情報を生成する処理と、が特徴抽出部161により行われるようにすればよい。
【0035】
特徴集約部17は、人物特徴抽出部13から時系列に取得したn(n≧2)個の人物特徴情報に含まれる複数の人物特徴量に対応する人物特徴量列と、物体特徴抽出部15から時系列に取得したn個の物体特徴情報に含まれる複数の物体特徴量に対応する物体特徴量列と、周辺特徴抽出部16から時系列に取得したn個の周辺特徴情報に含まれる複数の周辺特徴量に対応する周辺特徴量列と、を集約するための処理を行う。また、特徴集約部17は、前述の処理の処理結果に応じて得られた特徴ベクトルを行動推定処理部18へ出力する。前述の特徴ベクトルは、特徴集約部17により行われた集約処理の処理結果を含む情報として言い換えることができる。また、特徴集約部17は、例えば、図5に示すように、時系列特徴統合部171A、171B及び171Cと、集約処理部172と、を有している。図5は、第1実施形態に係る行動推定装置に含まれる特徴集約部の構成の一例を示す図である。
【0036】
時系列特徴統合部171Aは、人物特徴量列に含まれる複数の人物特徴量を1つに統合するための処理を行う。具体的には、時系列特徴統合部171Aは、例えば、人物特徴量列に含まれる複数の人物特徴量の平均値を算出することにより、当該複数の人物特徴量を1つの人物特徴量に統合する。または、時系列特徴統合部171Aは、例えば、人物特徴量列に含まれる複数の人物特徴量と、Source-Target Attention機構を有するNNと、を用いた重み付け加算を行うことにより、当該複数の人物特徴量を1つの人物特徴量に統合する。なお、時系列特徴統合部171AにおいてSource-Target Attention機構を有するNNを用いた処理が行われる場合には、例えば、当該機構のqueryに重み付け対象の人物特徴量が入力され、かつ、当該機構のkey及びvalueに同一の人物特徴量列が入力されるようにすればよい。また、時系列特徴統合部171Aは、人物特徴情報または人物特徴量列に基づいて特定可能な人物毎に、複数の人物特徴量を1つに統合するための処理を行う。そのため、時系列特徴統合部171Aは、人物特徴情報または人物特徴量列に基づいて特定可能な人物がk(k≧1)人である場合には、複数の人物特徴量を1つに統合するための処理を行うことにより、k個の統合後の人物特徴量を取得する。
【0037】
時系列特徴統合部171Bは、物体特徴量列に含まれる複数の物体特徴量を1つに統合するための処理を行う。具体的には、時系列特徴統合部171Bは、例えば、物体特徴量列に含まれる複数の物体特徴量の平均値を算出することにより、当該複数の物体特徴量を1つの物体特徴量に統合する。または、時系列特徴統合部171Bは、例えば、物体特徴量列に含まれる複数の物体特徴量と、Source-Target Attention機構を有するNNと、を用いた重み付け加算を行うことにより、当該複数の物体特徴量を1つの物体特徴量に統合する。なお、時系列特徴統合部171BにおいてSource-Target Attention機構を有するNNを用いた処理が行われる場合には、例えば、当該機構のqueryに重み付け対象の物体特徴量が入力され、かつ、当該機構のkey及びvalueに同一の物体特徴量列が入力されるようにすればよい。また、時系列特徴統合部171Bは、物体特徴情報または物体特徴量列に基づいて特定可能な物体毎に、複数の物体特徴量を1つに統合するための処理を行う。そのため、時系列特徴統合部171Bは、物体特徴情報または物体特徴量列に基づいて特定可能な物体がm(m≧1)個である場合には、複数の物体特徴量を1つに統合するための処理を行うことにより、m個の統合後の物体特徴量を取得する。
【0038】
時系列特徴統合部171Cは、周辺特徴量列に含まれる複数の周辺特徴量を1つに統合するための処理を行う。具体的には、時系列特徴統合部171Cは、例えば、周辺特徴量列に含まれる複数の周辺特徴量の平均値を算出することにより、当該複数の周辺特徴量を1つの周辺特徴量に統合する。または、時系列特徴統合部171Cは、例えば、周辺特徴量列に含まれる複数の周辺特徴量と、Source-Target Attention機構を有するNNと、を用いた重み付け加算を行うことにより、当該複数の周辺特徴量を1つの周辺特徴量に統合する。なお、時系列特徴統合部171CにおいてSource-Target Attention機構を有するNNを用いた処理が行われる場合には、例えば、当該機構のqueryに重み付け対象の周辺特徴量が入力され、かつ、当該機構のkey及びvalueに同一の周辺特徴量列が入力されるようにすればよい。また、時系列特徴統合部171Cは、周辺特徴情報または周辺特徴量列に基づいて特定可能な矩形領域毎に、複数の周辺特徴量を1つに統合するための処理を行う。そのため、時系列特徴統合部171Cは、周辺特徴情報または周辺特徴量列に基づいて特定可能な矩形領域がp(p≧1)個である場合には、複数の周辺特徴量を1つに統合するための処理を行うことにより、p個の統合後の周辺特徴量を取得する。
【0039】
集約処理部172は、時系列特徴統合部171Aにより得られたk個の人物特徴量と、時系列特徴統合部171Bにより得られたm個の物体特徴量と、時系列特徴統合部171Cにより得られたp個の周辺特徴量と、を集約するための処理を行う。また、集約処理部172は、前述の処理の処理結果に応じた特徴ベクトルを取得し、当該取得した特徴ベクトルを行動推定処理部18へ出力する。なお、本実施形態によれば、前述の処理の処理結果に応じて生成した特徴ベクトルが行動推定処理部18へ出力される限りにおいては、複数の集約処理部172が直列に接続されていてもよい。また、集約処理部172は、例えば、図6に示すように、特徴統合部172A、172B及び172Cを有している。図6は、第1実施形態に係る行動推定装置に含まれる集約処理部の構成の一例を示す図である。
【0040】
特徴統合部172Aは、人物の特徴に対して当該人物の周辺の特徴を統合する第1の処理を行うことにより第1の処理結果を取得し、当該取得した第1の処理結果を特徴統合部172Bへ出力する。また、特徴統合部172Aは、人物特徴量及び周辺特徴量を統合することにより、当該人物特徴量に対して当該周辺特徴量を関連付けた特徴量であるシーン特徴量が得られるように予め学習されたNNを有している。また、特徴統合部172Aは、k個の人物特徴量と、p個の周辺特徴量と、をSource-Target Attention機構を有するNNに入力して重み付け加算を行うことにより、当該k個の人物特徴量各々に対応するk個のシーン特徴量を取得する。具体的には、特徴統合部172Aは、Source-Target Attention機構のqueryに重み付け対象の1つの人物特徴量を入力し、かつ、当該機構のkey及びvalueにp個の周辺特徴量を有する特徴量列を入力して重み付け加算を行う処理をk回繰り返すことにより、k個の人物特徴量各々に対応するk個のシーン特徴量を取得する。すなわち、シーン特徴量は、カメラ等により撮影された映像に含まれるk人の人物各々についての撮影シーン(例えば撮影時の背景等)の特徴を表す特徴量として取得される。
【0041】
特徴統合部172Bは、特徴統合部172Aから出力される第1の処理結果に対して物体の特徴を統合する第2の処理を行うことにより第2の処理結果を取得し、当該取得した第2の処理結果を特徴統合部172Cへ出力する。また、特徴統合部172Bは、シーン特徴量及び物体特徴量を統合することにより、当該シーン特徴量に対して当該物体特徴量を関連付けた特徴量である状況特徴量が得られるように予め学習されたNNを有している。また、特徴統合部172Bは、特徴統合部172Aにより得られたk個のシーン特徴量と、m個の物体特徴量と、をSource-Target Attention機構を有するNNに入力して重み付け加算を行うことにより、当該k個のシーン特徴量各々に対応するk個の状況特徴量を取得する。具体的には、特徴統合部172Aは、Source-Target Attention機構のqueryに重み付け対象の1つのシーン特徴量を入力し、かつ、当該機構のkey及びvalueにm個の物体特徴量を有する特徴量列を入力して重み付け加算を行う処理をk回繰り返すことにより、k個のシーン特徴量各々に対応するk個の状況特徴量を取得する。すなわち、状況特徴量は、カメラ等により撮影された映像に含まれるk人の人物各々についての撮影状況(例えば撮影時における人物と物体との間の距離等)の特徴を表す特徴量として取得される。
【0042】
また、特徴統合部172Bは、カメラ等により撮影されたk人の人物各々の行動に対するm個の物体の関連度を示す情報である関連度情報を取得する。
【0043】
具体的には、特徴統合部172Bは、例えば、Source-Target Attention機構におけるSoftmax層の処理結果として得られる重みのエントロピーの値を関連度情報として取得する。そして、例えば、前述のエントロピーの値が相対的に大きい場合には、カメラ等により撮影された人物の行動に対する物体の関連度が相対的に高いと推定することができる。また、例えば、前述のエントロピーの値が相対的に小さい場合には、カメラ等により撮影された人物の行動に対する物体の関連度が相対的に低いと推定することができる。
【0044】
一方、特徴統合部172Bは、例えば、人物の行動に対応する物体が画像内に存在しない場合において、所望の一の物体を模するような特徴量として設定されたダミー特徴量に対する重みが最も大きくなるように学習されていてもよい。このような学習が行われた場合には、特徴統合部172Bは、m個の物体特徴量に対してダミー特徴量(ベクトル列)を追加した特徴量列をSource-Target Attention機構のkey及びvalueに入力して重み付け加算を行った際の、当該ダミー特徴量に対して設定された重みの値を関連度情報として取得することができる。そして、例えば、ダミー特徴量に対して設定された重みの値が相対的に小さい場合には、カメラ等により撮影された人物の行動に対する物体の関連度が相対的に低いと推定することができる。また、例えば、ダミー特徴量に対して設定された重みの値が相対的に大きい場合には、カメラ等により撮影された人物の行動に対する物体の関連度が相対的に高いと推定することができる。なお、本実施形態においては、ダミー特徴量を用いた学習の代わりに、人物の行動と物体との間の関係性を示すラベルを有する教師データを用いた学習が特徴統合部172Bにおいて行われてもよい。このような学習が行われた場合であっても、特徴統合部172Bは、ダミー特徴量に対して設定された重みの大きさと同様の関連度情報を取得することができる。
【0045】
特徴統合部172Cは、特徴統合部172Bから出力される第2の処理結果に対して人物の周辺の特徴を統合する第3の処理を行うことにより第3の処理結果を取得し、当該取得した第3の処理結果を含む情報を行動推定処理部18へ出力する。また、特徴統合部172Cは、状況特徴量及び周辺特徴量を統合することにより、当該状況特徴量に対して当該周辺特徴量を関連付けた特徴量である統合特徴量が得られるように予め学習されたNNを有している。また、特徴統合部172Cは、特徴統合部172Bにより得られたk個の状況特徴量及び関連度情報と、p個の周辺特徴量と、をSource-Target Attention機構を有するNNに入力して重み付け加算を行うことにより、当該k個の状況特徴量各々に対応するk個の統合特徴量を取得する。具体的には、特徴統合部172Cは、Source-Target Attention機構のqueryに重み付け対象の1つの状況特徴量を入力し、かつ、当該機構のkey及びvalueにp個の周辺特徴量を有する特徴量列を入力して重み付け加算を行う処理をk回繰り返すことにより、k個の状況特徴量各々に対応するk個の統合特徴量を取得する。また、特徴統合部172Cは、前述の重み付け加算における重みを関連度情報に基づいて設定する。具体的には、特徴統合部172Cは、例えば、関連度情報から特定したエントロピーの値をエントロピーの最大値で除して得られた値を、前述の重み付け加算における重みとして設定する。または、特徴統合部172Cは、例えば、関連度情報から特定したダミー特徴量に対する重みの値を「1」から減じて得られた値を、前述の重み付け加算における重みとして設定する。また、特徴統合部172Cは、k個の統合特徴量に応じた特徴ベクトルを取得し、当該取得した特徴ベクトルを行動推定処理部18へ出力する。
【0046】
ここで、以上に述べたような特徴統合部172Cの処理によれば、例えば、人物の行動に対する関連度が高い物体が画像内に存在する場合に、重み付け加算における重みが相対的に小さな値に設定される。そして、このような場合には、特徴統合部172Cは、相対的に小さな統合特徴量を含む特徴ベクトルを取得する。
【0047】
また、以上に述べたような特徴統合部172Cの処理によれば、例えば、人物の行動に対する関連度が高い物体が画像内に存在しない場合に、及び、人物の行動に対する関連度が高い物体を検出できなかった場合に、重み付け加算における重みが相対的に大きな値に設定される。そして、これらのような場合には、特徴統合部172Cは、相対的に大きな統合特徴量を含む特徴ベクトルを取得する。
【0048】
すなわち、以上に述べた特徴統合部172Cの処理によれば、カメラ等により撮影された映像に含まれるk人の人物各々の行動推定に利用可能な統合特徴量を有する特徴ベクトルを取得することができる。
【0049】
行動推定処理部18は、特徴集約部17により得られた特徴ベクトルを推定モデル18Aに入力することにより得られる出力情報に基づき、映像取得部11から出力される映像に含まれる人物の行動を推定するための行動推定処理を行う。また、行動推定処理部18は、前述の行動推定処理により得られた推定結果を外部装置へ出力する。
【0050】
推定モデル18Aは、例えば、CNN等のようなニューラルネットワークを有するモデルとして構成されている。また、推定モデル18Aは、例えば、時系列な複数の画像から得られた特徴ベクトルと、当該複数の画像に含まれる人物の行動を所定の複数の行動のうちの一の行動として表した行動ラベルと、を関連付けた教師データによる機械学習を行った学習済のモデルとして構成されている。そのため、推定モデル18Aは、前述の出力情報として、特徴集約部17により得られた特徴ベクトルを所定の複数の行動各々に対応する複数のクラスのうちのいずれかに分類した場合におけるクラス毎の蓋然性を示す値である行動スコアを得ることができる。また、推定モデル18Aが前述のような構成を有する場合において、行動推定処理部18は、前述の行動スコアに含まれる複数の値の中で最も大きな値を有する一のクラスに対応する一の行動を、映像取得部11から出力される映像に含まれる人物の行動の推定結果として得ることができる。
【0051】
なお、本実施形態においては、人物特徴抽出部13、物体特徴抽出部15、及び/または、周辺特徴抽出部16の処理において用いられるNNのパラメータが、行動推定処理部18により推定結果が得られた際の推定モデル18Aのパラメータに基づいて調整されるようにしてもよい。また、本実施形態においては、特徴集約部17の処理において用いられるNNのパラメータが、行動推定処理部18により推定結果が得られた際の推定モデル18Aのパラメータに基づいて調整されるようにしてもよい。
【0052】
[処理フロー]
続いて、第1実施形態に係る行動推定装置において行われる処理の流れについて説明する。図7は、第1実施形態に係る行動推定装置において行われる処理を説明するためのフローチャートである。
【0053】
まず、行動推定装置100は、1または複数の人物と、1または複数の物体と、を含む映像を取得する(ステップS11)。
【0054】
次に、行動推定装置100は、ステップS11により取得した映像に含まれる時系列な複数の画像の中から人物及び物体を検出する(ステップS12)。
【0055】
続いて、行動推定装置100は、ステップS12により検出された人物及び物体の特徴を抽出する(ステップS13)。また、行動推定装置100は、ステップS12により検出された人物の周辺の特徴を抽出する(ステップS13)。
【0056】
続いて、行動推定装置100は、ステップS12により検出された人物の行動に対するステップS12により検出された物体の関連度を示す関連度情報を用いつつ、ステップS13により抽出された各特徴を集約する(ステップS14)。
【0057】
最後に、行動推定装置100は、ステップS14により集約された各特徴に基づき、ステップS12により検出された人物の行動を推定する(ステップS15)。
【0058】
以上に述べたように、本実施形態によれば、映像に含まれる人物の特徴と、当該映像に含まれる物体の特徴と、当該映像に含まれる人物の周辺の特徴と、を用い、当該映像に含まれる人物の行動の推定に用いられる特徴量を算出することができる。また、以上に述べたように、本実施形態によれば、映像に含まれる人物の行動の推定に用いられる特徴量の算出結果を、当該人物の行動に対する物体の関連度に応じて異ならせることができる。そのため、本実施形態によれば、人物の行動を推定する際の推定精度を向上させることができる。また、本実施形態によれば、例えば、人物の行動に対する関連度が高い物体が画像内に存在しない場合、及び、人物の行動に対する関連度が高い物体を検出できなかった場合のいずれの場合においても、人物の行動を推定する際の推定精度を極力低下させないようにすることができる。
【0059】
[変形例]
以下、上記の実施形態に対する変形例を説明する。なお、以降においては、簡単のため、既述の処理等を適用可能な部分に関する具体的な説明を適宜省略するものとする。
【0060】
(変形例1)
本実施形態によれば、行動推定処理部18が、推定モデル18Aの代わりに、第1の推定モデル、第2の推定モデル、及び、第3の推定モデルを有していてもよい。第1の推定モデル及び第2の推定モデルは、推定モデル18Aとは異なる重みを有するNNにより時系列な複数の画像に含まれる人物の行動を推定できるように学習されていればよい。また、第3の推定モデルは、推定モデル18Aと同様の重みを有するNNにより時系列な複数の画像に含まれる人物の行動を推定できるように学習されていればよい。
【0061】
また、前述のような場合において、行動推定処理部18は、第1の推定モデルに対してシーン特徴量を含む第1の特徴ベクトルを入力することにより第1の推定結果を取得し、第2の推定モデルに対して状況特徴量を含む第2の特徴ベクトルを入力することにより第2の推定結果を取得し、第3の推定モデルに対して統合特徴量を含む第3の特徴ベクトルを入力することにより第3の推定結果を取得するようにしてもよい。また、前述のような場合において、行動推定処理部18は、第1の推定結果と、第2の推定結果と、第3の推定結果と、に基づき、映像取得部11から出力される映像に含まれる人物の行動を推定するようにしてもよい。具体的には、行動推定処理部18は、第1の推定結果と、第2の推定結果と、第3の推定結果と、における複数の推定結果が一致した場合に、当該複数の推定結果に対応する行動を最終的な推定結果とするようにしてもよい。また、前述のような場合において、例えば、シーン特徴量に基づいて算出された損失が第1の推定モデルにおける損失関数に適用され、状況特徴量に基づいて算出された損失が第2の推定モデルにおける損失関数に適用され、統合特徴量に基づいて算出された損失が第3の推定モデルにおける損失関数に適用されるようにしてもよい。前述の損失としては、例えば、交差エントロピー損失等を利用することができる。
【0062】
(変形例2)
図8は、第1実施形態の変形例に係る行動推定装置に含まれる特徴集約部の構成の一例を示す図である。本実施形態によれば、特徴集約部17の代わりに、図8に示すような特徴集約部27が行動推定装置100に設けられていてもよい。
【0063】
特徴集約部27は、時系列特徴統合部271A、271B、271C及び271Dと、特徴統合部272と、集約処理部273と、を有している。
【0064】
時系列特徴統合部271Aは、時系列特徴統合部171Aと同様の処理を行うことが可能な機能を有し、人物特徴量列に含まれる複数の人物特徴量を統合することにより得られた人物特徴量を集約処理部273へ出力する。
【0065】
時系列特徴統合部271Bは、時系列特徴統合部171Aと同様の処理を行うことが可能な機能を有し、人物特徴量列に含まれる複数の人物特徴量を統合することにより得られた人物特徴量を特徴統合部272へ出力する。
【0066】
時系列特徴統合部271Cは、時系列特徴統合部171Bと同様の処理を行うことが可能な機能を有し、物体特徴量列に含まれる複数の物体特徴量を統合することにより得られた物体特徴量を特徴統合部272へ出力する。
【0067】
時系列特徴統合部271Dは、時系列特徴統合部171Cと同様の処理を行うことが可能な機能を有し、周辺特徴量列に含まれる複数の周辺特徴量を統合することにより得られた周辺特徴量を特徴統合部272へ出力する。
【0068】
特徴統合部272は、時系列特徴統合部271Bにより得られた人物特徴量と、時系列特徴統合部271Cにより得られた物体特徴量と、時系列特徴統合部271Dにより得られた周辺特徴量と、に基づき、特徴統合部172A、172B及び172Cと同様の処理を行うことにより統合特徴量を取得し、当該取得した統合特徴量を集約処理部273へ出力する。換言すると、特徴統合部272は、集約処理部172により行われる各処理のうち、統合特徴量に応じた特徴ベクトルの取得に係る処理以外の処理を行うことができるように構成されている。また、特徴統合部272は、集約処理部172と同様の関連度情報を取得することができるとともに、当該関連度情報を用いた処理を行うことができるように構成されている。
【0069】
集約処理部273は、時系列特徴統合部271Aから出力される人物特徴量と、特徴統合部272から出力される統合特徴量と、に基づいて特徴ベクトルを取得し、当該取得した特徴ベクトルを行動推定処理部18へ出力する。なお、集約処理部273は、特徴ベクトルを取得するための処理として、例えば、人物特徴量及び統合特徴量を特徴量次元方向に連結する処理、または、人物特徴量及び統合特徴量の和を算出する処理を行えばよい。
【0070】
なお、本変形例によれば、3つの時系列特徴統合部271B~271Dと、集約処理部273と、の間において、1つの特徴統合部272が接続されているものに限らず、例えば、図9に示すようなy(y≧2)個の特徴統合部272が直列に接続されていてもよい。図9は、図8の特徴集約部に複数の特徴統合部を設けた場合の構成例を示す図である。
【0071】
図9に例示した構成によれば、y個の特徴統合部272のうちの1番目の特徴統合部272に対し、時系列特徴統合部271Bにより得られた人物特徴量と、時系列特徴統合部271Cにより得られた物体特徴量と、時系列特徴統合部271Dにより得られた周辺特徴量と、が入力される。また、図9に例示した構成によれば、y個の特徴統合部272のうちのz(2≦z≦y)番目の特徴統合部272に対し、(z-1)番目の特徴統合部272により得られた統合特徴量と、時系列特徴統合部271Cにより得られた物体特徴量と、時系列特徴統合部271Dにより得られた周辺特徴量と、が入力される。また、図9に例示した構成によれば、y番目の特徴統合部272により得られた統合特徴量が集約処理部273へ出力される。
【0072】
(変形例3)
図10は、第1実施形態の変形例に係る行動推定装置に含まれる特徴集約部の構成の一例を示す図である。本実施形態によれば、特徴集約部17の代わりに、図10に示すような特徴集約部37が行動推定装置100に設けられていてもよい。
【0073】
特徴集約部37は、時系列特徴統合部371と、統合処理部372と、集約処理部373と、を有している。
【0074】
時系列特徴統合部371は、時系列特徴統合部171Aと同様の処理を行うことが可能な機能を有し、人物特徴量列に含まれる複数の人物特徴量を統合することにより得られた人物特徴量を集約処理部373へ出力する。
【0075】
統合処理部372は、人物特徴量列と、物体特徴量列と、周辺特徴量列と、に基づいて統合特徴量を取得し、当該取得した統合特徴量を集約処理部373へ出力する。また、統合処理部372は、特徴統合部372Aと、時系列特徴統合部372Bと、を有している。
【0076】
特徴統合部372Aは、人物特徴量列、物体特徴量列及び周辺特徴量列に基づき、特徴統合部172A、172B及び172Cと同様の処理を行うことにより統合特徴量を取得し、当該取得した統合特徴量を時系列特徴統合部372Bへ出力する。すなわち、特徴統合部372Aは、集約処理部172と同様の関連度情報を取得することができるとともに、当該関連度情報を用いた処理を行うことができるように構成されている。
【0077】
時系列特徴統合部372Bは、特徴統合部372Aから時系列に取得した複数の統合特徴量を1つに統合するための処理を行う。具体的には、時系列特徴統合部372Bは、例えば、複数の統合特徴量と、Source-Target Attention機構を有するNNと、を用いた重み付け加算を行うことにより、当該複数の統合特徴量を1つの人物特徴量に統合する。また、時系列特徴統合部372Bは、人物特徴情報または人物特徴量列に基づいて特定可能な人物毎に統合した統合特徴量を集約処理部373へ出力する。なお、時系列特徴統合部372Bは、特徴統合部372Aの処理に組み込まれるように統合特徴量をフィードバックしてもよい。具体的には、時系列特徴統合部372Bは、人物特徴量列に含まれるように統合特徴量をフィードバックしてもよく、シーン特徴量の代わりに用いられるように統合特徴量をフィードバックしてもよく、状況特徴量の代わりに用いられるように統合特徴量をフィードバックしてもよい。また、時系列特徴統合部372Bの処理は、例えば、LSTM(Long Short Term Memory)を有するNNを用いて行われるものであってもよい。
【0078】
集約処理部373は、時系列特徴統合部371から出力される人物特徴量と、統合処理部372から出力される統合特徴量と、に基づいて特徴ベクトルを取得し、当該取得した特徴ベクトルを行動推定処理部18へ出力する。なお、集約処理部373は、特徴ベクトルを取得するための処理として、例えば、人物特徴量及び統合特徴量を特徴量次元方向に連結する処理、または、人物特徴量及び統合特徴量の和を算出する処理を行えばよい。
【0079】
<第2実施形態>
図11は、第2実施形態に係る行動推定装置の機能構成を示すブロック図である。
【0080】
本実施形態に係る行動推定装置500は、行動推定装置100と同様のハードウェア構成を有している。また、行動推定装置500は、人物特徴抽出手段511と、物体特徴抽出手段512と、周辺特徴抽出手段513と、特徴集約手段514と、行動推定処理手段515と、を有している。
【0081】
図12は、第2実施形態に係る行動推定装置において行われる処理を説明するためのフローチャートである。
【0082】
人物特徴抽出手段511は、時系列な複数の画像から検出された人物の特徴を抽出する(ステップS51)。
【0083】
物体特徴抽出手段512は、時系列な複数の画像から検出された物体の特徴を抽出する(ステップS52)。
【0084】
周辺特徴抽出手段513は、時系列な複数の画像における人物の周辺の特徴を抽出する(ステップS53)。
【0085】
特徴集約手段514は、人物の特徴と、物体の特徴と、当該人物の周辺の特徴と、を集約するための集約処理を行う(ステップS54)。
【0086】
行動推定処理手段515は、集約処理の処理結果を含む情報に基づき、時系列な複数の画像に含まれる人物の行動を推定するための処理を行う(ステップS55)。
【0087】
本実施形態によれば、人物の行動を推定する際の推定精度を向上させることができる。
【0088】
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
【0089】
(付記1)
時系列な複数の画像から検出された人物の特徴を抽出する人物特徴抽出手段と、
前記複数の画像から検出された物体の特徴を抽出する物体特徴抽出手段と、
前記複数の画像における前記人物の周辺の特徴を抽出する周辺特徴抽出手段と、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を集約するための集約処理を行う特徴集約手段と、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる前記人物の行動を推定するための処理を行う行動推定処理手段と、
を有する行動推定装置。
【0090】
(付記2)
前記特徴集約手段は、前記集約処理として、前記人物の特徴に対して前記人物の周辺の特徴を統合する第1の処理を行うことにより第1の処理結果を取得し、当該第1の処理結果に対して前記物体の特徴を統合する第2の処理を行うことにより第2の処理結果を取得し、当該第2の処理結果に対して前記人物の周辺の特徴を統合する第3の処理を行うことにより第3の処理結果を取得する処理を行う付記1の行動推定装置。
【0091】
(付記3)
前記特徴集約手段は、前記第2の処理において用いられる所定のパラメータに基づいて前記人物の行動に対する前記物体の関連度を示す情報である関連度情報を取得し、当該取得した関連度情報を用いて前記第3の処理を行う付記2の行動推定装置。
【0092】
(付記4)
前記行動推定処理手段は、前記集約処理の処理結果を含む情報の代わりに、前記第1の処理結果を含む情報から前記人物の行動を推定した第1の推定結果と、前記第2の処理結果を含む情報から前記人物の行動を推定した第2の推定結果と、前記第3の処理結果を含む情報から前記人物の行動を推定した第3の推定結果と、に基づき、前記複数の画像に含まれる前記人物の行動を推定する付記2の行動推定装置。
【0093】
(付記5)
時系列な複数の画像から検出された人物の特徴を抽出する人物特徴抽出手段と、
前記複数の画像から検出された物体の特徴を抽出する物体特徴抽出手段と、
前記複数の画像における前記人物の周辺の特徴を抽出する周辺特徴抽出手段と、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を統合するための統合処理を行う特徴統合手段と、
前記人物の特徴と、前記統合処理の処理結果と、を集約するための集約処理を行う集約処理手段と、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる人物の行動を推定する行動推定処理手段と、
を有する行動推定装置。
【0094】
(付記6)
時系列な複数の画像から検出された人物の特徴を抽出し、
前記複数の画像から検出された物体の特徴を抽出し、
前記複数の画像における前記人物の周辺の特徴を抽出し、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を集約するための集約処理を行い、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる前記人物の行動を推定する行動推定方法。
【0095】
(付記7)
時系列な複数の画像から検出された人物の特徴を抽出し、
前記複数の画像から検出された物体の特徴を抽出し、
前記複数の画像における前記人物の周辺の特徴を抽出し、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を統合するための統合処理を行い、
前記人物の特徴と、前記統合処理の処理結果と、を集約するための集約処理を行い、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる人物の行動を推定する行動推定方法。
【0096】
(付記8)
時系列な複数の画像から検出された人物の特徴を抽出し、
前記複数の画像から検出された物体の特徴を抽出し、
前記複数の画像における前記人物の周辺の特徴を抽出し、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を集約するための集約処理を行い、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる前記人物の行動を推定する処理をコンピュータに実行させるプログラムを記録した記録媒体。
【0097】
(付記9)
時系列な複数の画像から検出された人物の特徴を抽出し、
前記複数の画像から検出された物体の特徴を抽出し、
前記複数の画像における前記人物の周辺の特徴を抽出し、
前記人物の特徴と、前記物体の特徴と、前記人物の周辺の特徴と、を統合するための統合処理を行い、
前記人物の特徴と、前記統合処理の処理結果と、を集約するための集約処理を行い、
前記集約処理の処理結果を含む情報に基づき、前記複数の画像に含まれる人物の行動を推定する処理をコンピュータに実行させるプログラムを記録した記録媒体。
【0098】
以上、実施形態及び実施例を参照して本開示を説明したが、本開示は上記実施形態及び実施例に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
【符号の説明】
【0099】
13 人物特徴抽出部
15 物体特徴抽出部
16 周辺特徴抽出部
17 特徴集約部
18 行動推定処理部
100 行動推定装置
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12