(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-22
(45)【発行日】2024-07-30
(54)【発明の名称】画像解析装置、画像解析方法及びプログラム
(51)【国際特許分類】
G06T 7/20 20170101AFI20240723BHJP
G06T 7/00 20170101ALI20240723BHJP
G06T 7/70 20170101ALI20240723BHJP
【FI】
G06T7/20 300A
G06T7/00 660B
G06T7/70 B
(21)【出願番号】P 2023508783
(86)(22)【出願日】2022-02-16
(86)【国際出願番号】 JP2022006213
(87)【国際公開番号】W WO2022201987
(87)【国際公開日】2022-09-29
【審査請求日】2023-07-12
(31)【優先権主張番号】P 2021048550
(32)【優先日】2021-03-23
(33)【優先権主張国・地域又は機関】JP
【前置審査】
(73)【特許権者】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100110928
【氏名又は名称】速水 進治
(72)【発明者】
【氏名】吉田 諭史
(72)【発明者】
【氏名】劉 健全
(72)【発明者】
【氏名】西村 祥治
【審査官】真木 健彦
(56)【参考文献】
【文献】国際公開第2006/013765(WO,A1)
【文献】特開2010-239992(JP,A)
【文献】特開2015-002547(JP,A)
【文献】特開2005-086626(JP,A)
【文献】特開2004-058737(JP,A)
【文献】特開2016-186740(JP,A)
【文献】特許第6794575(JP,B1)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/20
G06T 7/70
G06T 7/00
G06T 1/00
H04N 7/18
G08B 25/00
(57)【特許請求の範囲】
【請求項1】
時系列的に連続する複数の画像を取得する画像取得手段と、
前記複数の画像それぞれにおいて、人及び当該人の姿勢を検出する検出手段と、
前記検出された人の姿勢を用いて、互いに異なる画像にて検出された人の同一性を判断する判断手段とを備え、
前記判断手段は、
前記検出された人の姿勢を用いて、当該人の姿勢の特徴を示す姿勢特徴量を求める特徴量取得手段と、
前記姿勢特徴量の類似度に基づいて、同一人である人の画像が同じグループに属するように、前記複数の画像の各々に含まれる人の画像をグループ分けし、前記同じグループに属する前記人の画像を時系列に従って接続することによって前記複数の画像に含まれる各人の動線を生成するグループ化手段と、
前記生成される動線に途切れた動線が含まれる場合に、当該途切れた動線間を結合する結合手段とを含む
画像解析装置。
【請求項2】
前記生成される動線に途切れた動線が含まれる場合は、前記複数の画像のいずれかにおいて前記人が重なり合った場合、前記人が物の後方に隠れた場合、の少なくとも一方を含む
請求項1に記載の画像解析装置。
【請求項3】
前記結合手段は、異なる前記動線を構成する人物同士の距離に基づき、前記動線間を結合する、請求項1又は2に記載の画像解析装置。
【請求項4】
前記判断手段は、前記複数の画像のうち、時系列的に所定の時間内に撮影された画像それぞれにおいて検出された人の姿勢を用いて、前記互いに異なる画像にて検出された人の同一性を判断する
請求項1から3のいずれか1項に記載の画像解析装置。
【請求項5】
前記判断手段は、前記複数の画像のそれぞれにおいて検出された人のうち、所定の距離内の人の姿勢を用いて、前記互いに異なる画像にて検出された人の同一性を判断する
請求項1から4のいずれか1項に記載の画像解析装置。
【請求項6】
前記判断手段は、前記複数の画像のそれぞれにおいて検出された人の向きを求め、前記複数の画像のそれぞれにおいて検出された人のうち、前記求められた向きの違いが予め定められた範囲内である人の姿勢を用いて、前記互いに異なる画像にて検出された人の同一性を判断する
請求項1から5のいずれか1項に記載の画像解析装置。
【請求項7】
前記判断手段は、前記複数の画像のそれぞれにおいて検出された人の画像特徴量を求め、前記複数の画像のそれぞれにおいて検出された人のうち、前記求められた画像特徴量の類似度が予め定められた基準値以上であるか否かに基づいて、前記互いに異なる画像にて検出された人の同一性を判断する
請求項1から6のいずれか1項に記載の画像解析装置。
【請求項8】
前記グループ化手段は、前記求められた姿勢特徴量の類似度が予め定められた基準値以上であるか否かに基づいて、前記互いに異なる画像にて検出された人の同一性を判断す
る
請求項1から7のいずれか1項に記載の画像解析装置。
【請求項9】
前記
グループ化手段は、前記求められた姿勢特徴量の類似度が予め定められた基準値以上である場合において、同一人が時間的に重複して又は異なる人が場所的に重複して存在することになるとき、前記互いに異なる画像にて検出された人を同一人ではないと判断する
請求項8に記載の画像解析装置。
【請求項10】
前記
グループ化手段は、前記求められた姿勢特徴量の類似度が予め定められた基準値以上である場合において、同一人が重複して存在することにならず、かつ、異なる人が場所的に重複して存在することにならないとき、前記互いに異なる画像にて検出された人を同一人であると判断する
請求項8又は9に記載の画像解析装置。
【請求項11】
コンピュータが、
時系列的に連続する複数の画像を取得することと、
前記複数の画像それぞれにおいて、人及び当該人の姿勢を検出することと、
前記検出された人の姿勢を用いて、互いに異なる画像間における人の同一性を判断することとを含み、
前記同一性を判断することは、
前記検出された人の姿勢を用いて、当該人の姿勢の特徴を示す姿勢特徴量を求め、
前記姿勢特徴量の類似度に基づいて、同一人である人の画像が同じグループに属するように、前記複数の画像の各々に含まれる人の画像をグループ分けし、
前記同じグループに属する前記人の画像を時系列に従って接続することによって前記複数の画像に含まれる各人の動線を生成し、
前記生成される動線に途切れた動線が含まれる場合に、当該途切れた動線間を結合することを含む
画像解析方法。
【請求項12】
前記生成される動線に途切れた動線が含まれる場合は、前記複数の画像のいずれかにおいて前記人が重なり合った場合、前記人が物の後方に隠れた場合、の少なくとも一方を含む
請求項11に記載の画像解析方法。
【請求項13】
前記動線を結合することでは、異なる前記動線を構成する人物同士の距離に基づき、前記動線間を結合する、請求項11又は12に記載の画像解析方法。
【請求項14】
コンピュータに、
時系列的に連続する複数の画像を取得することと、
前記複数の画像それぞれにおいて、人及び当該人の姿勢を検出することと、
前記検出された人の姿勢を用いて、互いに異なる画像間における人の同一性を判断することとを実行させ、
前記同一性を判断することは、
前記検出された人の姿勢を用いて、当該人の姿勢の特徴を示す姿勢特徴量を求め、
前記姿勢特徴量の類似度に基づいて、同一人である人の画像が同じグループに属するように、前記複数の画像の各々に含まれる人の画像をグループ分けし、
前記同じグループに属する前記人の画像を時系列に従って接続することによって前記複数の画像に含まれる各人の動線を生成し、
前記生成される動線に途切れた動線が含まれる場合に、当該途切れた動線間を結合することを含むプログラム。
【請求項15】
前記生成される動線に途切れた動線が含まれる場合は、前記複数の画像のいずれかにおいて前記人が重なり合った場合、前記人が物の後方に隠れた場合、の少なくとも一方を含む
請求項
14に記載のプログラム。
【請求項16】
前記動線を結合することでは、異なる前記動線を構成する人物同士の距離に基づき、前記動線間を結合する、請求項14又は15に記載のプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像解析装置、画像解析方法及びプログラムに関する。
【背景技術】
【0002】
カメラなどで撮影された時系列的に連続する複数の画像から、当該複数の画像における人の移動を追跡する技術がある。
【0003】
例えば、特許文献1に記載の一致判定装置は、解析グループに含まれる解析対象についての1つまたは複数の特徴量から選択した選択特徴量を特定し、異なる解析グループ間の選択特徴量の組み合わせに基づいて、複数の解析グループの間の解析対象が一致するかを評価する。また、評価が前記解析グループ間の前記解析対象の一致を示す場合、異なる解析グループそれぞれの解析対象を同一対象と特定する。なお、非特許文献1には、人物の骨格推定に関連する技術が記載されている。
【先行技術文献】
【特許文献】
【0004】
【非特許文献】
【0005】
【文献】Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh, "Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields";, The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, P. 7291-7299
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、特許文献1に記載の技術では、複数の画像の一部で人同士が重なり合うことや人が柱などの物の後ろに隠れてしまうことなどが生じた場合に、その前後で実際には同一対象である人を同一と判断できなくなることがある。
【0007】
本発明は、上述の事情に鑑みてなされたもので、時系列的に連続する複数の画像において精度良く同一の人を特定することが可能な画像解析装置、画像解析システム、画像解析方法及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0008】
上記目的を達成するため、本発明の第1の観点に係る画像解析装置は、
時系列的に連続する複数の画像を取得する画像取得手段と、
前記複数の画像それぞれにおいて、人及び当該人の姿勢を検出する検出手段と、
前記検出された人の姿勢を用いて、互いに異なる画像にて検出された人の同一性を判断する判断手段とを備え、
前記判断手段は、
前記検出された人の姿勢を用いて、当該人の姿勢の特徴を示す姿勢特徴量を求める特徴量取得手段と、
前記姿勢特徴量の類似度に基づいて、同一人である人の画像が同じグループに属するように、前記複数の画像の各々に含まれる人の画像をグループ分けし、前記同じグループに属する前記人の画像を時系列に従って接続することによって前記複数の画像に含まれる各人の動線を生成するグループ化手段と、
前記生成される動線に途切れた動線が含まれる場合に、当該途切れた動線間を結合する結合手段とを含む。
【0010】
本発明の第2の観点に係る画像解析方法は、
コンピュータが、
時系列的に連続する複数の画像を取得することと、
前記複数の画像それぞれにおいて、人及び当該人の姿勢を検出することと、
前記検出された人の姿勢を用いて、互いに異なる画像間における人の同一性を判断することとを含、
前記同一性を判断することは、
前記検出された人の姿勢を用いて、当該人の姿勢の特徴を示す姿勢特徴量を求め、
前記姿勢特徴量の類似度に基づいて、同一人である人の画像が同じグループに属するように、前記複数の画像の各々に含まれる人の画像をグループ分けし、
前記同じグループに属する前記人の画像を時系列に従って接続することによって前記複数の画像に含まれる各人の動線を生成し、
前記生成される動線に途切れた動線が含まれる場合に、当該途切れた動線間を結合することを含む。
【0011】
本発明の第3の観点に係るプログラムは、
コンピュータに、
時系列的に連続する複数の画像を取得することと、
前記複数の画像それぞれにおいて、人及び当該人の姿勢を検出することと、
前記検出された人の姿勢を用いて、互いに異なる画像間における人の同一性を判断することとを実行させ、
前記同一性を判断することは、
前記検出された人の姿勢を用いて、当該人の姿勢の特徴を示す姿勢特徴量を求め、
前記姿勢特徴量の類似度に基づいて、同一人である人の画像が同じグループに属するように、前記複数の画像の各々に含まれる人の画像をグループ分けし、
前記同じグループに属する前記人の画像を時系列に従って接続することによって前記複数の画像に含まれる各人の動線を生成し、
前記生成される動線に途切れた動線が含まれる場合に、当該途切れた動線間を結合することを含むプログラムである。
【発明の効果】
【0012】
本発明によれば、時系列的に連続する複数の画像において精度良く同一の人を特定することが可能になる。
【図面の簡単な説明】
【0013】
【
図1】本発明の一実施の形態に係る画像解析システムの機能的な構成例を示す図である。
【
図2】撮影領域A1~A2の各々を時刻T1~T4の各時刻に撮影した画像の例を模式的に示す図である。
【
図3】一実施の形態に係る画像解析システムの物理的な構成例を示す図である。
【
図4】本発明の一実施の形態に係る画像解析処理の一例を示すフローチャートである。
【
図5】本発明の一実施の形態に係る画像解析処理の一例を示すフローチャートである。
【
図6】撮影領域A1~A2の各々を時刻T5~T8の各時刻に撮影した画像の例を模式的に示す図である。
【
図7】
図4に示す検出処理の詳細を示すフローチャートである。
【
図8】
図4に示すグループ化処理の詳細を示すフローチャートである。
【
図9】撮影領域A1を撮影した時刻T1~T6の画像を重ね合わせて示す図である。
【
図10】撮影領域A1を撮影した時刻T1~T6の画像にて検出された人の領域をグループ化して動線が生成された例を示す図である。
【
図11】
図5に示す結合処理の詳細を示すフローチャートである。
【
図12】
図5に示す結合処理の詳細を示すフローチャートである。
【
図13】
図10に示す途切れた動線が結合処理によって結合された例を示す図である。
【
図14】撮影領域A2を撮影した時刻T1~T8の画像にて検出された人の領域をグループ化して動線が生成された例を示す図である。
【
図15】異なる撮影領域A1,A2の動線が結合された例を示す図である。
【発明を実施するための形態】
【0014】
以下、本発明の一実施の形態について、図面を参照しつつ説明する。全図を通じて同一の要素には同一の符号を付す。なお、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
【0015】
<画像解析システムの構成>
本発明の一実施の形態に係る画像解析システムは、時系列的に連続する複数の画像に基づいて互いに異なる画像間における人の同一性を判断し、その判断の結果に基づいて人の動線を求めるなどの処理を行う。
【0016】
画像解析システムは、
図1に示すように、2つのカメラ101a~101bと、画像解析装置100とを備える。画像解析装置100は、画像取得部102と、検出部103と、判断部104と、識別画像出力部105とを備える。
【0017】
カメラ101a~101bの各々は、駅、建造物、施設、道路上などに設けられ、予め定められた撮影領域を撮影する撮影手段の一例である。カメラ101a~101bは、例えば
図2に示すように、固定の撮影領域A1~A2を撮影することによって時系列的に連続する複数の2次元画像を示す画像情報を生成する。
【0018】
図2は、時刻T1~T4に撮影された撮影領域A1~A2の各々の画像を示す。撮影領域A1に示すP_T1~P_T4は、時刻T1~T4のそれぞれに撮影された人Pの領域を模式的に示す。撮影領域A1に示すQ_T1~Q_T4は、時刻T1~T4のそれぞれに撮影された人Qの領域を模式的に示す。撮影領域A2に示すR_T1~R_T4は、時刻T1~T4のそれぞれに撮影された人Rの領域を模式的に示す。
【0019】
なお、カメラは、画像解析システムに1つ以上備えられればよい。
【0020】
再び、
図1を参照する。
画像取得部102は、撮影領域A1~A2を撮影した時系列的に連続する複数の画像を取得する。本実施の形態では、画像取得部102は、カメラ101a~101bの各々によって生成された画像情報を、有線、無線又はこれらを適宜組み合わせて構成されたネットワークを介してカメラ101a~101bの各々から取得する。
【0021】
検出部103は、画像取得部102によって取得された複数の画像それぞれにおいて、人及び当該人の姿勢を検出する。
【0022】
詳細には例えば、検出部103は、複数の画像それぞれの画像情報に基づいて、各画像における人の領域と当該人の姿勢とを検出する。画像から人の領域及び姿勢のそれぞれを検出する手法には、公知の手法が用いられてよい。
【0023】
人の姿勢は、機械学習を用いた骨格推定技術を用いて、認識される人物の関節等の特徴に基づいて検出されるとよい。骨格推定技術の例として、非特許文献1に記載のOpenPoseを挙げることができる。
【0024】
判断部104は、検出部103によって検出された人の姿勢を用いて、互いに異なる画像間にて検出された人の同一性を判断する。
【0025】
詳細には、判断部104は、
図1に示すように、特徴量取得部106と、特定部107とを含む。
【0026】
特徴量取得部106は、検出部103によって検出された人の姿勢を用いて、当該人の姿勢特徴量を求める。
【0027】
姿勢特徴量は、人の姿勢の特徴を示す値であって、例えば検出部103によって検出された2次元の骨格構造の特徴量である。姿勢特徴量は、骨格構造の全体の特徴量でもよいし、骨格構造の一部の特徴量でもよく、骨格構造の各部のように複数の特徴量を含んでもよい。
【0028】
姿勢特徴量の算出方法は、機械学習や正規化等の任意の方法でよく、正規化として最小値や最大値を求めてもよい。一例として、姿勢特徴量は、骨格構造を機械学習することで得られた特徴量や、骨格構造の頭部から足部までの画像上の大きさなどである。骨格構造の大きさは、画像上の骨格構造を含む骨格領域の上下方向の高さや面積などである。上下方向(高さ方向または縦方向)は、画像における上下の方向(Y軸方向)であり、例えば、地面(基準面)に対し垂直な方向である。また、左右方向(横方向)は、画像における左右の方向(X軸方向)であり、例えば、地面に対し平行な方向である。
【0029】
特定部107は、特徴量取得部106によって求められた姿勢特徴量の類似度が第1基準値以上であるか否かに基づいて、当該互いに異なる画像にて検出された人の同一人を特定する。
【0030】
ここで、第1基準値は、姿勢が類似するか否かを判断するための基準として、姿勢特徴量の類似度について予め定められる値である。
【0031】
本実施の形態に係る特定部107は、以下の条件A~Cのすべてを満たす場合に、互いに異なる画像にて検出された人を同一人であると判断する。また、特定部107は、条件A~Cの少なくとも1つを満たさない場合に、互いに異なる画像にて検出された人を同一人ではないと判断する。
【0032】
条件A:姿勢特徴量の類似度が第1基準値以上であること
条件B:同一人が時間的に重複して存在することにならないこと
条件C:異なる人が場所的に重複して存在することにならないこと
【0033】
なお、条件B及び条件Cの一方又は両方が、同一人を特定するための条件に含まれなくてもよい。
【0034】
より詳細には、特定部107は、グループ化部108と、結合部109とを含む。
【0035】
グループ化部108は、上述したように条件A~条件Cに基づいて互いに異なる画像にて検出された人が同一人であるか否かを判断し、同一人と判断した人の画像が同じグループに属するように、複数の画像の各々に含まれる人の画像をグループ分けする。このグループ化処理において、「互いに異なる画像」には例えば、撮影された時刻が隣接する画像が時系列に沿って順次選択されるとよい。
【0036】
そして、グループ化部108は、同じグループに属する人の画像領域を時系列に従って接続することによって、複数の画像に含まれる各人の動線を生成する。この動線は、人の画像の重心、肩の中心など所定箇所を接続した線である。
【0037】
なお、グループ化部108が、後述する結合部109と同様に、条件A~Gに基づいて、互いに異なる画像に含まれる人が同一人であるか否かを判断してもよい。
【0038】
結合部109は、グループ化部108によって生成される動線に途切れた動線が含まれる場合に、当該途切れた動線間を結合する。
【0039】
ここで、途切れた動線とは、撮影領域A1又はA2の中に端部を含む動線である。
【0040】
人が移動する場合、通常、撮影領域A1又はA2の外から撮影領域A1又はA2の中に進入して、撮影領域A1又はA2の外へ出て行く。そのため、多くの動線の両端は、撮影領域A1又はA2の境界と概ね一致する。しかし、画像において人が重なり合った場合や柱などの物の後方に隠れた場合などに、途切れた動線が生じることがある。
【0041】
結合部109は、動線の端部となる画像、すなわち動線が途切れる前後の画像に含まれる人が同一人であるか否かを判断し、同一人であると判断した場合に、当該途切れた動線の端部間を接続する。
【0042】
本実施の形態に係る結合部109は、上記の条件A~条件C及び以下の条件D~Gに基づいて、互いに異なる画像に含まれる人が同一人であるか否かを判断する。この結合処理において、「互いに異なる画像」には、動線が途切れる前後の画像が選択されるとよい。
【0043】
条件D:動線が途切れる前後の画像の撮影時間間隔が所定時間内であること
条件E:動線が途切れる前後の画像にて検出された人の距離が所定距離内であること
条件F:動線が途切れる前後の画像にて検出された人の向きの違いが所定の範囲内であること
条件G:動線が途切れる前後の画像にて検出された人の画像特徴量の類似度が第2基準値以上であること
【0044】
ここで、画像の撮影時間間隔とは、当該画像が撮影された時刻の時間間隔である。時系列的に連続する画像は、例えば毎秒N(Nは1以上の整数)など概ね一定の時間間隔で撮影されることが多いので、撮影時間間隔について予め定められる時間(上記の所定時間)は、画像数で規定されとよい。なお、所定時間は例えば時間長さなどで規定されてもよい。
【0045】
人の距離が所定距離であるか否かは、例えば、画像における人の画像領域間の距離(例えば、画素数)に基づいて判断されてもよく、画像における人の画像領域間の距離から推定される実空間の距離に基づいて判断されてもよい。
【0046】
画像特徴量とは、人の画像領域の画像としての特徴を示す値であって、画像情報に基づいて生成される特徴量である。画像特徴量は、人の画像全体の特徴量でもよいし、当該画像の一部の特徴量でもよく、顔、胴及び脚のように複数の部分の特徴量を含んでもよい。画像特徴量の算出方法は、機械学習や正規化等の任意の方法でよく、正規化として最小値や最大値を求めてもよい。一例として、画像特徴量は、各色成分の平均輝度、チェック柄、ストライプなどの色彩パターンとの一致度などである。
【0047】
第2基準は、画像が類似するか否かを判断するための基準として、画像特徴量の類似度について予め定められる値である。
【0048】
本実施の形態に係る結合部109は、条件A~Gのすべてを満たす場合に、互いに異なる画像にて検出された人を同一人であると判断する。また、結合部107は、条件A~Gの少なくとも1つを満たさない場合に、互いに異なる画像にて検出された人を同一人ではないと判断する。
【0049】
なお、条件B~条件Gの一部又は全部が、途切れた動線を結合するための条件に含まれなくてもよい。
【0050】
識別画像出力部105は、判断部104による判断の結果に基づく識別画像情報を出力する。識別画像情報は、複数の画像それぞれにおいて検出された人に当該人を識別するための情報(すなわち、同一の人を識別するための識別情報)を対応付けた画像を含む情報である。
【0051】
識別画像出力部105による画像情報の出力方法は、例えば、画像情報の表示、送信などである。すなわち、識別画像出力部105は、ディスプレイに画像を表示させてもよく、有線、無線又はこれらを適宜組み合わせて構成されたネットワークを介して接続された他の装置へ画像を送信してもよい。
【0052】
<画像解析システムの物理的構成>
ここから、本実施の形態に係る画像解析システムの物理的構成の例について、図を参照して説明する。
【0053】
画像解析装置100は物理的には、
図3に示すように、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、ユーザインタフェース1060を有する。
【0054】
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、ネットワークインタフェース1050、及びユーザインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
【0055】
プロセッサ1020は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
【0056】
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
【0057】
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。
【0058】
ストレージデバイス1040は、各種の情報を保持する機能を実現する。
【0059】
また、ストレージデバイス1040は、画像解析装置100の各機能部(画像取得部102、検出部103、判断部104(特徴量取得部106、特定部107(グループ化部108、結合部109))、識別画像出力部105)を実現するためのプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能部が実現される。
【0060】
ネットワークインタフェース1050は、有線、無線又はこれらを組み合わせて構成されるネットワークに画像解析装置100を接続するためのインタフェースである。本実施の形態に係る画像解析装置100は、ネットワークインタフェース1050を通じてネットワークに接続されることによって、カメラ101a~101bなどと互いに通信する。
【0061】
ユーザインタフェース1070は、ユーザから情報が入力されるインタフェース及びユーザに情報を提示するインタフェースであり、例えば、入力手段としてのマウス、キーボード、タッチセンサなど、ディスプレイ(例えば、液晶ディスプレイ、有機ELディスプレイ)などを含む。
【0062】
このように画像解析装置100の機能は、ソフトウェアプログラムを物理的な各構成要素が協働して実行することによって実現することができる。そのため、本発明は、ソフトウェアプログラム(単に「プログラム」ともいう。)として実現されてもよく、そのプログラムが記録された非一時的な記憶媒体として実現されてもよい。
【0063】
<画像解析処理>
ここから、本発明の一実施の形態に係る画像解析処理について図を参照して説明する。
【0064】
画像解析処理は、カメラ101a~101bによって撮影された時系列的に連続する複数の画像に基づいて互いに異なる画像間における人の同一性を判断し、その判断の結果に基づいて人の動線を求めるなどの処理である。
【0065】
画像解析処理は、例えば、ユーザから処理対象となる画像を指示することによって開始される。処理対象の画像は、例えば、撮影するカメラと、撮影の開始時刻と終了時刻とを含む撮影時刻とによって指示される。本実施の形態では、処理対象の画像として、カメラ101a~101bの各々によって、開始時刻T1~終了時刻T8に撮影された画像が指示される例により説明する。
【0066】
画像取得部102は、カメラ101a~101bによって撮影された撮影領域A1,A2の各々についての時系列的に連続する複数の画像を取得する(ステップS101)。
【0067】
詳細には例えば、ステップS101にて、画像取得部102は、
図2及び6に示す各画像を示す画像情報をカメラ101a~101bの各々から取得する。画像情報は、撮影したカメラ101a~101bを識別するためのカメラ識別情報と、撮影時刻とを含むとよい。
【0068】
図2及び6は、カメラ101a~101bの各々によって、開始時刻T1~終了時刻T8に撮影された画像の例を示す図であり、
図2は、上述の通り、時刻T1~T4に撮影された撮影領域A1~A2の各々の画像を示す。
図6は、時刻T5~T8に撮影された撮影領域A1~A2の各々の画像を示す。
【0069】
図6において、撮影領域A1に示すP_T5~P_T6は、時刻T5~T6のそれぞれに撮影された人Pの領域を模式的に示す。撮影領域A1に示すQ_T5~Q_T6は、時刻T5~T6のそれぞれに撮影された人Qの領域を模式的に示す。撮影領域A2に示すP_T7~P_T8は、時刻T7~T8のそれぞれに撮影された人Pの領域を模式的に示す。
【0070】
図4及び5に示すように、検出部103及び判断部104は、ステップS101にて取得した撮影領域A1,A2ごとに、ステップS103~S110の処理を繰り返し実行する(ステップS102;ループA)。
【0071】
ここで、各画像が撮影領域A1,A2のいずれの撮影領域の画像であるかは、ステップS101にて取得された画像情報のカメラ識別情報を参照することによって判別されるとよい。以下では、最初に撮影領域A1を撮影した時刻T1~T8の各画像を対象に処理をする例により説明する。
【0072】
検出部103及び特徴量取得部106は、時系列的に連続する画像の各々について、ステップS104~S105の処理を繰り返す(ステップS103;ループB)。詳細には例えば、処理対象の撮影領域を撮影領域A1として、時刻T1~T8の各画像に対して順にステップS104~S105の処理を繰り返す。
【0073】
検出部103は、検出処理を行う(ステップS104)。
【0074】
図7は、検出処理(ステップS104)の詳細を示すフローチャートである。
【0075】
同図に示すように、検出部103は、各画像において人の領域を検出する(ステップS201)。詳細には例えば、
図2の左上の画像に示す時刻T1の画像の場合、実線の楕円P_T1で示す人Pの領域と、点線の楕円Q_T1で示す人Qの領域とを検出する。
【0076】
検出部103は、ステップS201にて特定された人の領域の各々について、画像特徴量を求める(ステップS202)。詳細には例えば、ステップS201にて特定した人の領域の画像情報に基づいて、各領域の画像の特徴を示す画像特徴量を求める。
【0077】
検出部103は、ステップS201にて特定された人の領域の各々について、人の姿勢を検出する(ステップS203)。
【0078】
詳細には例えば、ステップS201にて特定した人の領域の画像を入力として、機械学習を用いて学習済みの骨格推定モデルを用いて、当該人の骨格の状態を推定することによって、人の姿勢を検出する。例えば、
図2の左上の画像に示す時刻T1の画像の場合、実線の楕円P_T1で示す人Pの姿勢と、点線の楕円Q_T1で示す人Qの姿勢とを検出する。これにより、検出部103は、検出処理(ステップS104)を終了して、
図4に示す画像解析処理に戻る。
【0079】
同図に示すように、特徴量取得部106は、ステップS203にて検出された人の姿勢を用いて、姿勢特徴量を求める(ステップS105)。
【0080】
詳細には例えば、特徴量取得部106は、ステップS104にて検出された人の姿勢を入力として、機械学習を用いて学習済みの姿勢特徴量算出モデルを用いて、当該人の姿勢特徴量を出力する。例えば、
図2の左上の画像に示す時刻T1の画像の場合、実線の楕円P_T1で示す人Pの姿勢特徴量と、点線の楕円Q_T1で示す人Qの姿勢特徴量とを求める。
【0081】
なお、姿勢特徴量を求めるための入力情報に、ステップS201にて特定された人の領域の画像が、人の姿勢とともに用いられてもよい。
【0082】
このようなステップS104~S105の処理は、ループA(ステップS102)にて処理の対象とされている撮影領域A1を撮影した時系列的に連続する時刻T1~T8の画像の各々について繰り返される(ステップS103;ループB)。
【0083】
ループB(ステップS103)の処理が終了すると、グループ化部108は、ループA(ステップS102)にて処理の対象とされている撮影領域A1を撮影した時系列的に連続する時刻T1~T8の画像の各々にて検出された人の画像をグループ化する(ステップS106)。
【0084】
図8は、グループ化処理(ステップS106)の詳細を示すフローチャートである。
【0085】
グループ化部108は、ループA(ステップS102)にて処理の対象とされている撮影領域A1を撮影した時系列的に連続する画像の組み合わせについて、ステップS302~S306の処理を繰り返す(ループC;ステップS301)。
【0086】
詳細には例えば、ループCでの処理対象となる時系列的に連続する画像の組み合わせは、時刻T6及びT5の画像、時刻T5及びT4の画像、時刻T4及びT3の画像、時刻T3及びT2の画像、時刻T2及びT1の画像である。ループCでは、例えば、時系列順に処理対象となる画像の組み合わせが選定されるとよい。以下では、時間的に後の画像から、すなわち時刻T6及びT5の画像の組み合わせから処理対象となる画像の組み合わせが選定される例により説明する。
【0087】
なお、撮影領域A1を撮影した画像について、時刻T7及びT8に人は含まれていないため、ループCの処理対象としては、時刻T7及びT8の画像は除外されてよい。
【0088】
グループ化部108は、互いに異なる画像にて検出された人の姿勢特徴量の類似度が第1基準値以上であるか否かを判断する(ステップS302)。このステップS302での姿勢特徴量に関する判断処理は、上述の条件Aを満たすか否かの判断に相当する。
【0089】
詳細には例えば、撮影領域A1を撮影した時刻T6及びT5の画像の組み合わせが処理対象であるとする。この場合、グループ化部108は、時刻T6及びT5の画像にて検出された人の各組み合わせについて、ステップS105にて求められた姿勢特徴量の類似度を求める。
【0090】
ここで、
図9は、撮影領域A1を撮影した時刻T1~T6の画像を重ね合わせて示す図である。同図において、時刻T6及びT5の画像にて検出された人は、領域P_T6,P_T5,Q_T6,Q_T5の人である。類似度は、これら4つの領域から2つの領域を抽出する場合の6個の組み合わせの各々について求められる。この例での組み合わせは、具体的には、領域P_T6及びP_T5,P_T6及びQ_T6,P_T6及びQ_T5,P_T5及びQ_T6,P_T5及びQ_T5,Q_T6及びQ_T5の組み合わせである。
【0091】
姿勢特徴量の類似度は、例えば、姿勢特徴量の差、比などである。そして、グループ化部108は、姿勢特徴量の類似度と第1基準値とを比較することによって、類似度が第1基準値以上であるか否かを判断する。
【0092】
姿勢特徴量の類似度が第1基準値以上ではないと判断した場合(ステップS302;No)、グループ化部108は、当該類似度を求めた姿勢特徴量に係る人が同一人ではないと判断する(ステップS303)。
【0093】
一般的に、移動している人の姿勢が短時間で大きく変わることは少なく、当該姿勢の変化は、一定の範囲内であることが多い。そのため、互いに異なる画像にて検出された人の姿勢特徴量の類似度が第1基準値未満である場合、当該人は同一人ではなく、当該人の姿勢特徴量の類似度が第1基準値以上である場合、当該人は同一人である、と推定することができる。
【0094】
例えば撮影領域A1を撮影した時刻T6及びT5の画像にて検出された人の場合、上述の6つの組み合わせのうちの4つの組み合わせについて、領域が示す人が同一人ではないと判断される。この例で、同一人ではないと判断される人を示す領域の組み合わせは、具体的には、領域P_T6及びQ_T6,領域P_T6及びQ_T5,領域P_T5及びQ_T6,領域P_T5及びQ_T5である。
【0095】
姿勢特徴量の類似度が第1基準値以上であると判断した場合(ステップS302;Yes)、グループ化部108は、同一人が時間的に重複して又は異なる人が場所的に重複して存在することになるか否かを判断する(ステップS304)。このステップS304での同一人の重複に関する判断処理は、上述の条件B及びCを満たすか否かの判断に相当する。
【0096】
例えば撮影領域A1を撮影した時刻T6及びT5の画像にて検出された人の場合、領域P_T6及びP_T5,領域Q_T6及びQ_T5の組み合わせについては、姿勢特徴量の類似度が第1基準値以上であると判断される。
【0097】
領域P_T6及びP_T5は、異なる時刻T6及びT5の画像に含まれるので、同一人が時間的に重複して存在していない。領域Q_T6及びQ_T5についても同様に、異なる時刻T6及びT5の画像に含まれるので、同一人が時間的に重複して存在していない。
【0098】
また、領域P_T6及びP_T5は場所的に重複しておらず、領域Q_T6及びQ_T5も場所的に重複していない。
【0099】
そのため、この例での領域P_T6及びP_T5,領域Q_T6及びQ_T5の組み合わせについては、同一人が時間的に重複して存在することにならず、かつ、異なる人が場所的に重複して存在することにならない、と判断される。
【0100】
同一人が時間的に重複して存在することにならず、かつ、異なる人が場所的に重複して存在することにならないと判断した場合に(ステップS304;No)、グループ化部108は、当該領域によって示される人が同一人であると判断する(ステップS305)。
【0101】
例えば撮影領域A1を撮影した時刻T6及びT5の画像にて検出された領域P_T6及びP_T5,領域Q_T6及びQ_T5の組み合わせについては、各領域によって示される人が同一人であると判断される。
【0102】
同一人が時間的に重複して存在することになる、或いは、異なる人が場所的に重複して存在することになると判断した場合に(ステップS304;Yes)、グループ化部108は、当該領域によって示される人が同一人でないと判断する(ステップS303)。
【0103】
例えば、
図2及び9に示すように、時刻T4の撮影領域A1では、撮影方向から見て、領域Q_T4の大部分が、領域P_T4の奥にあって、領域P_T4の背後に隠れている。このような場合、ステップS201にて、領域Q_T4が人の領域であると検出できないことがある。この場合、時刻T5及びT4の画像にて検出される人は、領域P_T5,P_T4,Q_T5の人となる。
【0104】
この場合において例えば、時刻T5における領域P_T5の人と領域Q_T5の人の姿勢が類似しているときなどには、実際の人の領域とは異なる誤った組み合わせの領域の人の姿勢特徴量との類似度が第1基準値以上となることがある。
【0105】
例えば、領域P_T5及びQ_T5の人の姿勢特徴量の両方と、領域P_T4の人の姿勢特徴量の類似度が第1基準値以上となるときである。このとき、領域P_T4の人は、領域P_T5の人Pと同一人であり、かつ、領域Q_T5の人Qと同一人である、と判断されることになるので、異なる人P及びQが領域P_T4によって示される場所に重複して存在することになる。すなわち、異なる人が場所的に重複して存在することになる。
【0106】
或いは、領域Q_T4の大部分が領域P_T4の背後に隠れているために、ステップS203にて、領域Q_T4の人の姿勢が実際の正しい姿勢で検出されないことがある。
【0107】
この場合においても、時刻T5における領域P_T5の人と領域Q_T5の人の姿勢が類似しているときなどには、実際の人の領域とは異なる誤った組み合わせの領域の人の姿勢特徴量との類似度が第1基準値以上となることがある。
【0108】
例えば、領域P_T5の人の姿勢特徴量と領域P_T4及びQ_T4の人の姿勢特徴量の両方との類似度が第1基準値以上となることである。このとき、領域P_T4及びQ_T4の人は、領域P_T5の人Pと同一人であると判断されることになるので、同一人Pが時間T4に重複して存在することになる。すなわち、同一人が時間的に重複して存在することになる。
【0109】
また例えば、領域Q_T5の人の姿勢特徴量と領域P_T4及びQ_T4の人の姿勢特徴量の両方との類似度が第1基準値以上となることもある。このとき、領域P_T4及びQ_T4の人は、領域Q_T5の人Qと同一人であると判断されることになるので、同一人Qが時間T4に重複して存在することになる。
【0110】
このように、条件Aだけでなく条件B及びCを併せて人の同一性を判断することによって、画像にて検出された人が、実際とは異なる人と誤って同一人であると判断されることを防ぐことができる。
【0111】
なお、人の同一性の判断に誤りが生じる場合は、他の人の背後に隠れることによって人の領域や姿勢を正しく検出できない場合に限られず、柱の背後に隠れることによって人の領域や姿勢を正しく検出できない場合(図示せず)などもある。
【0112】
グループ化部108は、同一人と判断された人の領域をグループ化する(ステップS306)。
【0113】
詳細には例えば、
図10に、撮影領域A1を撮影した時刻T1~T6の画像にて検出された人をグループ化した例を示す。
【0114】
同図に示すように、撮影領域A1を撮影した時刻T6及びT5の画像にて検出された人の領域P_T6,P_T5,Q_T6,Q_T5について、グループ化部108は、領域P_T6及びP_T5を、同一人の画像を示すグループG1に帰属させる。また、グループ化部108は、領域Q_T6及びQ_T5を、同一人の画像を示すグループG2に帰属させる。
【0115】
グループ化部108は、時刻T1~T6の画像のうち時系列的に連続する画像の組み合わせの各々について、ステップS302~S306の処理を実行する(ループC;ステップS301)。これにより、
図10に示すように、時刻T1~T6の画像にて検出された人がグループG1~G4にグループ分けされる。
【0116】
図10は、撮影領域A1を撮影した時刻T1~T6の画像にて検出された人をグループ化した例を示す。上述の通り、領域P_T6及びP_T5はグループG1に、領域Q_T6及びQ_T5はグループG2にグループ化される。また、領域P_T1~P_T3はグループG3に、領域Q_T1~Q_T3はグループG4にグループ化される。
【0117】
これにより、グループ化部108は、グループ化処理(ステップS106)を終了して、
図4に示す画像解析処理に戻る。
【0118】
同図に示すように、グループ化部108は、各グループG1~G4の動線を生成する(ステップS107)。
【0119】
例えば
図10に示すように、グループG1~G4のそれぞれに属する人の領域の所定箇所(例えば、肩の中心に相当する箇所)を滑らかに接続した動線ML_1~ML_4が生成される。動線ML_1~ML_4の矢印が示す方向は、時系列に沿った移動方向である。例えばグループG1では、領域P_T5~P_T6を接続した動線ML_1が生成される。また、動線ML_1の矢印から、グループG1に属する領域によって示される人は、画像においてやや上方へ傾斜しつつ概ね右方向へ移動していることが分かる。
【0120】
再び、
図5を参照する。
結合部109は、ステップS107にて生成された動線ML_1~ML_4に途切れた動線が含まれるか否かを判断する(ステップS108)。
【0121】
例えば
図10を参照すると、動線ML_1の端部ML_1Sは、領域P_T5によって示される人の位置に対応しており、撮影領域A1の内部にある。従って、動線ML_1は、途切れた動線である。
【0122】
同様に、動線ML_2の端部ML_2S、動線ML_3の端部ML_3E、動線ML_4の端部ML_4Eのいずれの端部も、撮影領域A1の内部にある。従って、動線ML_2~4のいずれも、途切れた動線である。
【0123】
このように、
図10の例では、動線ML_1~ML_4のすべてが途切れた動線であり、結合部109は、途切れた動線が含まれると判断する。
【0124】
途切れた動線が含まれないと判断された場合(ステップS108;No)、検出部103及び判断部104は、次の撮影領域についてステップS103~S110の処理を実行する(ステップS102;ループA)。
【0125】
途切れた動線が含まれると判断した場合(ステップS108;Yes)、結合部109は、途切れた動線ML_1~ML_4について、結合処理(ステップS110)を繰り返し実行する(ステップS109;ループD)。
【0126】
詳細には、結合処理(ステップS110)では、結合部109は、途切れた動線ML_1~ML_4の各組み合わせについて、上述の条件A~Gを満たすか否かを判断する。そして、結合部109は、条件A~Gが満たされる場合に、グループを併合するとともに併合したグループ間の動線の端部を結合する。
【0127】
ここで、
図10の例では、端部ML_1S及びML_2Sは共通の時刻T5の画像に基づくものであり、端部ML_3E及びML_4Eは共通の時刻T3の画像に基づくものである。共通の時刻の画像に同一人が重複して撮影されることはあり得ないので、共通の時刻の画像に基づく端部を有する動線の組み合わせについて、併合や結合の処理をする必要はない。
【0128】
そのため、
図10の例において、ループD(ステップS109)の処理対象となる動線ML_1~ML_4の組み合わせは、異なる時刻の画像に含まれる端部ML_1S,ML_2S,ML_3E,ML_4Eを有する動線の組み合わせとなる。すなわち、ループD(ステップS109)の処理対象となる動線の組み合わせは、動線ML_1と動線ML_3の組、動線ML_1と動線ML_4の組、動線ML_2と動線ML_3の組、動線ML_2と動線ML_4の組である。
【0129】
図11及び12は、結合処理(ステップS110)の詳細を示すフローチャートである。
【0130】
図11に示すように、結合部109は、動線ML_1~ML_4が途切れる前後の画像の撮影時間間隔が所定時間内であるか否かを判断する(ステップS401)。このステップS401での途切れた撮影時間間隔に関する判断処理は、上述の条件Dを満たすか否かの判断に相当する。
【0131】
ここで、同一人の動線が途切れる場合には、上述のように柱のような固定物に隠れる場合、人のような移動体に隠れる場合などがある。途切れる前後の画像の撮影時間間隔は、カメラ101aから見て固定物や人の奥方を通過する時間に応じたものとなる。そのため、所定時間には、一般的に、人が固定物や他の人の奥方を通過する時間に応じた時間が予め定めるとよい。
【0132】
これにより、動線ML_1~ML_4が途切れる前後の画像の撮影時間間隔が所定時間内でない場合に、両画像から検出された人が同一人ではないと判断することができる。また、当該撮影時間間隔が所定時間内である場合に、両画像から検出された人が同一人の可能性があると判断することができる。
【0133】
図10に示す例では、動線ML_1~ML_4のいずれの組み合わせにおいても、途切れている画像数は、1画像である。そのため、所定時間が例えば3画像と定められている場合、結合部109は、動線ML_1~ML_4の各組み合わせについて、途切れる前後の画像の撮影時間間隔が所定時間内であると判断する。
【0134】
なお、動線が途切れた原因を推定して、推定された原因に応じて異なる所定時間が定められてもよい。例えば上述のように、固定物に隠れる場合と移動体に隠れる場合とでは、双方が移動する後者の原因で動線が途切れる場合の方が、前者による場合よりも動線が途切れる時間間隔は短くなると考えられる。この場合、動線が途切れた原因は、固定物の位置を予め画像から求めておき、当該固定物の近傍にて動線が途切れたか否かを画像から判断することによって推定されるとよい。
【0135】
再び、
図11を参照する。
撮影時間間隔が所定時間内であると判断した場合(ステップS401;Yes)、結合部109は、動線ML_1~ML_4が途切れる前後の画像にて検出された人の距離が所定距離内であるか否かを判断する(ステップS402)。このステップS402での途切れた距離に関する判断処理は、上述の条件Eを満たすか否かの判断に相当する。
【0136】
ここで、所定距離には、上述の所定時間で人が一般的に移動する距離が採用されるとよい。例えば、カメラ101a~101bによってN画像/秒で撮影され、所定時間が3画像と定められている場合、所定距離は、人が3/N[秒]の間に移動する距離に応じて定められるとよい。ここで、人が一定の時間に移動する距離は、一般的な歩行速度(例えば、時速5km)或いはそれよりも速い速度を基に定められるとよい。
【0137】
これにより、動線ML_1~ML_4が途切れる前後の画像にて検出された人の距離が所定距離内でない場合に、当該人が同一人ではないと判断することができる。また、当該距離が所定距離内である場合に、当該人が同一人の可能性があると判断することができる。
【0138】
図10の例では、端部ML_3Eと端部ML_1S及びML_2Sの各々との間、端部ML_4Eと端部ML_1S及びML_2Sの各々との間のいずれもが、所定距離内であるとする。この場合、結合部109は、動線ML_1~ML_4の各組み合わせについて、途切れる前後の画像にて検出された人の距離が所定距離内であると判断する。
【0139】
再び、
図11を参照する。
検出された人の距離が所定距離内であると判断した場合(ステップS402;Yes)、結合部109は、動線ML_1~ML_4が途切れる前後の画像にて検出された人の向きの違いが所定の範囲内であるか否かを判断する(ステップS403)。このステップS403での人の向きに関する判断処理は、上述の条件Fを満たすか否かの判断に相当する。
【0140】
ここで、人の向きは、例えば顔領域が画像に含まれるか否か、両肩を結ぶ線分の方向などによって推定することができ、条件Fは、人がすれ違うことによって動線が交差する場合の人の同一性を判断する場合に特に有効である。
【0141】
例えば、カメラ101aの撮影方向に沿ってカメラ101aから遠ざかる方向へ歩く人は、カメラ101aに顔領域が撮影されない。これに対して、同方向に沿ってカメラ101aへ近づく方向へ歩く人は、カメラ101aに顔領域が撮影される。このように、顔領域が画像に含まれるか否かによって、人の向きを推定することができる。
【0142】
また例えば、カメラ101aの撮影方向に沿って移動する人(すなわち、撮影領域A1の上方又は下方へ移動する人)の両肩を結ぶ線分は、撮影領域A1の概ね左右方向を向く。これに対して、カメラ101aの撮影方向と直行する方向へ移動する人(すなわち、撮影領域A1の左方又は右方へ移動する人)の両肩を結ぶ線分は、撮影領域A1の概ね上下方向を向く。このように、両肩を結ぶ線分の方向によって、人の向きを推定することができる。
【0143】
移動する人が急に向きを変えることは少ないので、動線ML_1~ML_4が途切れる前後の画像にて検出された人の向きが大きく異なる場合、当該人は同一人ではない可能性が高い。そのため、動線ML_1~ML_4が途切れる前後の画像にて検出された人の向きの違いが所定の範囲内でない場合に、当該人が同一人ではないと判断することができる。また、当該人の向きの違いが所定の範囲内である場合に、当該人が同一人の可能性があると判断することができる。
【0144】
図10の例では、動線ML_1及びML_3は、撮影領域A1において概ね右上方へ移動する人の動線である。動線ML_2及びML_4は、撮影領域A1において概ね左上方へ移動する人の動線である。そのため、動線ML_1~ML_4の人について、顔領域はいずれも撮影されないか、撮影されたとしても比較的小さいため、顔領域から人の向きを推定することは困難なことが多い。
【0145】
また、両肩を結ぶ線分の方向も、動線ML_1及びML_3の人と動線ML_2及びML_4の人とでは直交する場合ほどの角度の違いがない。そのため、結合部109は、動線ML_1~ML_4の各組み合わせについて、途切れる前後の画像にて検出された人の向きの違いが所定の範囲内であると判断する。
【0146】
再び、
図11を参照する。
検出された人の向きの違いが所定の範囲内であると判断した場合(ステップS403;Yes)、結合部109は、動線ML_1~ML_4が途切れる前後の画像にて検出された人の画像特徴量の類似度が第2基準値以上であるか否かを判断する(ステップS404)。このステップS404での画像特徴量に関する判断処理は、上述の条件Gを満たすか否かの判断に相当する。
【0147】
ここで、画像特徴量が大きく異なる人の画像は、異なる人の画像である可能性が高い。そのため、人の画像特徴量の類似度が第2基準値以上でない場合、当該人は同一人ではないと判断することができる。また、人の画像特徴量の類似度が第2基準値以上である場合に、当該人が同一人の可能性があると判断することができる。
【0148】
図10の例では、動線ML_1~ML_4の組み合わせのそれぞれに対応する領域P_T3,P_T5,Q_T3,Q_T5の各組み合わせにおいて、途切れる前後の画像にて検出された人の画像特徴量の類似度が第2基準値以上であるとする。
【0149】
再び、
図11を参照する。
画像特徴量の類似度が第2基準値以上であると判断した場合(ステップS404;Yes)、結合部109は、
図12に示すように、動線ML_1~ML_4が途切れる前後の画像にて検出された人の姿勢特徴量の類似度が第1基準値以上であるか否かを判断する(ステップS405)。このステップS405での姿勢特徴量に関する判断処理は、上述の条件Aを満たすか否かの判断に相当する。
【0150】
上述した通り、移動している人の姿勢が短時間で大きく変わることは少ない。そのため、
図10の例では、動線ML_1及び動線ML_3の組と、動線ML_2及び動線ML_4の組とについて、結合部109は、人の姿勢特徴量の類似度が第1基準値以上であると判断する。また、これら以外の動線の組について、結合部109は、人の姿勢特徴量の類似度が第1基準値以上でないと判断する。
【0151】
再び、
図12を参照する。
姿勢特徴量の類似度が第1基準値以上であると判断した場合(ステップS405;Yes)、結合部109は、同一人が時間的に重複して又は異なる人が場所的に重複して存在することになるか否かを判断する(ステップS406)。このステップS406での同一人の重複に関する判断処理は、上述の条件B及びCを満たすか否かの判断に相当する。
【0152】
図10の例では、動線ML_1及び動線ML_3の組と、動線ML_2及び動線ML_4の組とについて、結合部109は、同一人が時間的に重複して存在することにならず、かつ、異なる人が場所的に重複して存在することにならないと判断する。
【0153】
ただし、ステップS406では、同一人が時間的に重複して存在することになるか否か、また異なる人が場所的に重複して存在することになるか否かは、各グループに含まれるすべての領域、言い換えると各動線の全体について判断される。
【0154】
図10の例とは異なり、動線A,B,Cがそれぞれ時刻TA,TB,TCに端部を有し、時刻TCは時刻TBよりも後であり、時刻TBは時刻TAよりも後であるとする。また、動線A及びBの組と、動線B及びCの組の両方の組み合わせにおいて、条件D~Gが満たされるとする。
【0155】
この例において、動線A及びBの組と、動線B及びCの組の両方の組み合わせにおいて、条件Aが満たされると、動線Aは、動線B及びCの両方と結合されることになり、時刻TC以降において、同一人が時間的に重複して存在することになる。このような場合に、ステップS406では、各動線の全体に基づいて、同一人が時間的に重複して存在することになると判断される。
【0156】
同一人が時間的に重複して存在することにならず、かつ、異なる人が場所的に重複して存在することにならないと判断した場合(ステップS406;No)、結合部109は、処理対象となる動線ML_1~ML_4の組み合わせが同一人のものと判断する。
【0157】
そのため、結合部109は、同一人の動線ML_1~ML_4を構成する領域のグループ、すなわち同一人のグループを併合する(ステップS407)。さらに、結合部109は、同一人の途切れた動線ML_1~ML_4の端部間を結合する(ステップS408)。ステップS408の処理を行うと、結合部109は、結合処理(ステップS110)を終了する。
【0158】
図10に示す例では、動線ML_1及び動線ML_3の組と、動線ML_2及び動線ML_4の組とが、これまで説明したように条件A~Gを満たす。そのため、ステップS407において、グループG1とグループG3とは、人Pに関するグループとして併合される。グループG2とグループG4とは、人Qに関するグループとして併合される。
【0159】
また、ステップS408では、
図13に示すように、動線ML_1と動線ML_3とが結合され、これによって、人Pに関する動線ML_Pが生成される。動線ML_2と動線ML_4とが結合され、これによって、人Qに関する動線ML_Qが生成される。
【0160】
再び、
図11及び12を参照する。
ステップS401~S406にて上述とは異なる判断をした場合、結合部109は、結合処理(ステップS110)を終了する。
【0161】
すなわち、
図11を参照して、撮影時間間隔が所定時間内でないと判断した場合(ステップS401;No)、人の距離が所定距離内でないと判断した場合(ステップS402;No)、人の向きの違いが所定の範囲内でないと判断した場合(ステップS403;No)、又は、画像特徴量の類似度が第2基準値以上でないと判断した場合(ステップS404;No)、結合部109は、結合処理(ステップS110)を終了する。
【0162】
図12を参照して、姿勢特徴量の類似度が第1基準値以上でないと判断した場合(ステップS405;No)、又は、同一人が時間的に重複して存在することになる、若しくは、異なる人が場所的に重複して存在することになると判断した場合(ステップS406;Yes)、結合部109は、結合処理(ステップS110)を終了する。
【0163】
結合処理(ステップS110)を終了すると、
図5に示す画像解析処理に戻り、検出部103は、ループA(ステップS102)の処理を繰り返す。本実施の形態では、撮影領域A2について、ステップS103~S110の処理がさらに行われる。
【0164】
撮影領域A2の時刻T1~T8の画像(
図2及び6参照)に基づいて、例えば
図14に示すように、領域R_T1~R_T4を人Rに関するグループG5にグループ化し、人Rに関する動線ML_Rを生成する。また、領域P_T7~P_T8をグループG6にグループ化し、動線ML_5を生成する。
【0165】
すべての撮影領域A1,A2についてステップS103~S110の処理が行われると、
図5に示すように、ループA(ステップS102)を終了する。そして、結合部109は、異なる撮影領域A1,A2間の動線ML_P,ML_Q,ML_5,ML_Rを結合する(ステップS111)。
【0166】
ここでも、共通の時刻の画像に同一人が重複して撮影されることはあり得ないので、異なる時刻の画像に含まれる端部を有する動線の組み合わせについて、画像特徴量に基づいて、同一人の動線であるか否かを判断する。ステップS111にて処理対象となる動線の組み合わせは、動線ML_P,ML_Q,ML_5,ML_Rの場合、動線ML_Pと動線ML_5の組、動線ML_Qと動線ML_5の組である。
【0167】
例えば、動線の組の端部となる領域の画像特徴量の類似度が第2基準値以上である場合に、結合部109は、動線が同一人のものであると判断して、動線を構成する領域のグループ間を併合するとともに動線の端部間を結合する。また、画像特徴量の類似度が第2基準値以上でない場合に、結合部109は、動線が同一人のものでないと判断し、グループを併合せず、また動線も結合しない。
【0168】
ステップS111が行われることによって、
図15に示すように、異なる撮影領域A1,A2の動線が結合される。同図では人Pに関する動線として、
図13に示す動線ML_Pに、
図14に示す動線ML_5を結合した動線ML_Pが生成される例を示す。また、撮影領域A1と撮影領域A2との間において、動線ML_Pは、
図13に示す動線ML_Pと動線ML_5とを滑らかに接続した動線によって接続されている。
【0169】
なお、ステップS111においても、条件A~Gの適宜の組み合わせを満たすか否かに基づいて、グループの併合や動線の結合が行われてもよい。
【0170】
再び、
図5を参照する。
識別画像出力部105は、判断部104による判断の結果に基づく識別画像情報を出力し(ステップS112)、画像解析処理を終了する。
【0171】
識別画像情報が示す画像は、例えば、複数の画像にて検出された人の動線を識別情報とし、動線が人の領域を接続することによって各画像に示される人に識別情報を対応付けた画像である(
図15参照)。また例えば、識別画像情報が示す画像は、人を識別するための数字、記号、符号(例えば、P,Q,R)などを識別情報とし、当該識別情報を画像に示される人の領域に対応付けた画像である。
【0172】
なお、ここでは、時系列的に連続する複数の画像にて検出された人の同一性の判断結果が識別画像情報として出力される例を示すが、同一性の判断結果は、画像に限らず、適宜の方法で出力されて、人の移動に関する分析処理など種々の処理に利用されてもよい。
【0173】
これまで説明したように、本実施の形態によれば、時系列的に連続する複数の画像それぞれにおいて人及び当該人の姿勢が検出され、当該検出された人の姿勢を用いて互いに異なる画像にて検出された人の同一性が判断される。これにより、画像特徴量から人の同一性を判断する場合に、人の動線が途切れるなど人の追跡が困難な場合であっても、人の同一性を判断することができる。従って、時系列的に連続する複数の画像において精度良く同一の人を特定することが可能になる。
【0174】
本実施の形態によれば、複数の画像のうち、時系列的に所定の時間内に撮影された画像それぞれにおいて検出された人の姿勢を用いて、互いに異なる画像にて検出された人の同一性を判断する。これにより、より正確に人の同一性を判断することができる。従って、時系列的に連続する複数の画像において、より精度良く同一の人を特定することが可能になる。
【0175】
本実施の形態によれば、複数の画像のそれぞれにおいて検出された人のうち、所定の距離内の人の姿勢を用いて、互いに異なる画像にて検出された人の同一性を判断する。これにより、より正確に人の同一性を判断することができる。従って、時系列的に連続する複数の画像において、より精度良く同一の人を特定することが可能になる。
【0176】
本実施の形態によれば、複数の画像のそれぞれにおいて検出された人の向きを求める。そして、複数の画像のそれぞれにおいて検出された人のうち、求められた向きの違いが予め定められた範囲内である人の姿勢を用いて、互いに異なる画像にて検出された人の同一性を判断する。これにより、より正確に人の同一性を判断することができる。従って、時系列的に連続する複数の画像において、より精度良く同一の人を特定することが可能になる。
【0177】
本実施の形態によれば、検出された人の姿勢を用いて、当該人の姿勢特徴量を求める。そして、求められた姿勢特徴量の類似度が予め定められた基準値以上であるか否かに基づいて、互いに異なる画像にて検出された人の同一性を判断する。これにより、画像特徴量から人の同一性を判断する場合に、人の動線が途切れるなど人の追跡が困難な場合であっても、人の同一性を判断することができる。従って、時系列的に連続する複数の画像において精度良く同一の人を特定することが可能になる。
【0178】
本実施の形態によれば、求められた姿勢特徴量の類似度が予め定められた基準値以上である場合において、同一人が時間的に重複して又は異なる人が場所的に重複して存在することになるとき、互いに異なる画像にて検出された人を同一人ではないと判断する。これにより、人の同一性が実際には起こりえない状態で判断されることを防ぐことができる。従って、時系列的に連続する複数の画像において、より精度良く同一の人を特定することが可能になる。
【0179】
本実施の形態によれば、求められた姿勢特徴量の類似度が予め定められた基準値以上である場合において、同一人が時間的に重複して存在することにならず、かつ、異なる人が場所的に重複して存在することにならないとき、互いに異なる画像にて検出された人を同一人であると判断する。これにより、人の同一性が実際には起こりえない状態で判断されることを防ぐことができる。従って、時系列的に連続する複数の画像において、より精度良く同一の人を特定することが可能になる。
【0180】
本実施の形態によれば、検出された人の同一性に関する判断の結果に基づいて、複数の画像における人を識別する情報を各画像に示される人に対応付けた画像を出力する。このような画像を参照することによって、ユーザは画像を見て容易に人の移動を理解することができる。従って、ユーザが人の移動を容易に理解することが可能になる。
【0181】
以上、本発明の実施の形態及び変形例について説明したが、本発明は、これらに限られるものではない。例えば、本発明は、これまで説明した実施の形態及び変形例の一部又は全部を適宜組み合わせた形態、その形態に適宜変更を加えた形態をも含む。
【0182】
上記の実施の形態の一手段または全手段は、以下の付記のようにも記載されうるが、以下に限られない。
【0183】
1.時系列的に連続する複数の画像を取得する画像取得手段と、
前記複数の画像それぞれにおいて、人及び当該人の姿勢を検出する検出手段と、
前記検出された人の姿勢を用いて、互いに異なる画像にて検出された人の同一性を判断する判断手段とを備える
画像解析装置。
2.前記判断手段は、前記複数の画像のうち、時系列的に所定の時間内に撮影された画像それぞれにおいて検出された人の姿勢を用いて、前記互いに異なる画像にて検出された人の同一性を判断する
1に記載の画像解析装置。
3.前記判断手段は、前記複数の画像のそれぞれにおいて検出された人のうち、所定の距離内の人の姿勢を用いて、前記互いに異なる画像にて検出された人の同一性を判断する
1又は2に記載の画像解析装置。
4.前記判断手段は、前記複数の画像のそれぞれにおいて検出された人の向きを求め、前記複数の画像のそれぞれにおいて検出された人のうち、前記求められた向きの違いが予め定められた範囲内である人の姿勢を用いて、前記互いに異なる画像にて検出された人の同一性を判断する
1から3のいずれか1つに記載の画像解析装置。
5.前記判断手段は、前記複数の画像のそれぞれにおいて検出された人の画像特徴量を求め、前記複数の画像のそれぞれにおいて検出された人のうち、前記求められた画像特徴量の類似度が予め定められた基準値以上であるか否かに基づいて、前記互いに異なる画像にて検出された人の同一性を判断する
1から4のいずれか1つに記載の画像解析装置。
6.前記判断手段は、
前記検出された人の姿勢を用いて、当該人の姿勢特徴量を求める特徴量取得手段と、
前記求められた姿勢特徴量の類似度が予め定められた基準値以上であるか否かに基づいて、前記互いに異なる画像にて検出された人の同一性を判断する特定手段とを含む
1から5のいずれか1つに記載の画像解析装置。
7.前記特定手段は、前記求められた姿勢特徴量の類似度が予め定められた基準値以上である場合において、同一人が時間的に重複して又は異なる人が場所的に重複して存在することになるとき、前記互いに異なる画像にて検出された人を同一人ではないと判断する
6に記載の画像解析装置。
8.前記特定手段は、前記求められた姿勢特徴量の類似度が予め定められた基準値以上である場合において、同一人が重複して存在することにならず、かつ、異なる人が場所的に重複して存在することにならないとき、前記互いに異なる画像にて検出された人を同一人であると判断する
6又は7に記載の画像解析装置。
9.前記判断手段による判断の結果に基づいて、前記複数の画像それぞれにおいて検出された人に当該人を識別するための情報を対応付けた画像を出力する識別画像出力手段をさらに備える
1から8のいずれか1つに記載の画像解析装置。
10.1つ又は複数の撮影手段と、
1から9のいずれか1つに記載の画像解析装置とを備える
画像解析システム。
11.コンピュータが、
時系列的に連続する複数の画像を取得することと、
前記複数の画像それぞれにおいて、人及び当該人の姿勢を検出することと、
前記検出された人の姿勢を用いて、互いに異なる画像間における人の同一性を判断することとを含む
画像解析方法。
12.コンピュータに、
時系列的に連続する複数の画像を取得することと、
前記複数の画像それぞれにおいて、人及び当該人の姿勢を検出することと、
前記検出された人の姿勢を用いて、互いに異なる画像間における人の同一性を判断することとを実行させるためのプログラム。
【0184】
この出願は、2021年3月23日に出願された日本出願特願2021-048550号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
【符号の説明】
【0185】
100 画像解析装置
101a,101b カメラ
102 画像取得部
103 検出部
104 判断部
105 識別画像出力部
106 特徴量取得部
107 特定部
108 グループ化部
109 結合部