【文献】
小林貴訓 外1名,分散センサ情報の統合によるエリア内人物追跡と動線推定,情報処理学会研究報告 2008−CVIM−163 コンピュータビジョンとイメージメディア,社団法人情報処理学会,2008年 5月 1日,第2008巻 第36号,第231−246頁
(58)【調査した分野】(Int.Cl.,DB名)
【発明の概要】
【発明が解決しようとする課題】
【0004】
前記従来のレーザー測域センサーの人物位置検出追跡は、レーザー測域センサーによるレーザー光の内部ミラー回転による円周上への投光に対する反射光の遅延時間(光飛翔時間)に基づいて、センサーから物体までの距離と方向、物体の大きさを計測することで、物体の大きさから推定した人物の位置を検出追跡するものであり、人物属性を推定することはできなかった。また、前記従来のレーザー測域センサーとカメラを統合した人物追跡は、レーザー測域センサーによる距離の観測と、カメラによる見えの観測の、異なるセンサーモダリティを相補的に統合した手法であるが、その目的は人物追跡の精度と頑健性の向上であり、人物属性情報を人物追跡に紐付けることはできなかった。
【0005】
本発明は、人物の位置検出追跡に属性推定を紐付け、演算量を低減し、検出精度を向上させた人物追跡属性推定装置に関する。
【課題を解決するための手段】
【0006】
本発明
の人物追跡属性推定装置は、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリング部と、
人物候補を走査フレーム間で比較し、距離差が所定の範囲内である
人物候補を同一の人物候補として人物
候補IDを付与し、人物
候補IDと
同一の人物候補の位置座標とを出力する人物候補追跡部と、位置座標を2次元画像座標に変換するビューポート変換部と、2次元画像座標に基づいて、前記人物
候補ID
を付与した人物候補に対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定部と、
上半身探索領域設定部からの人物候補ID、ウィンドウ・サイズ及び座標データに基づき、設定範囲内にある複数の同じ人物候補IDの上半身探索領域を一つに統合して人物IDの検出ウィンドウとし、カメラからのフレーム画像データ
中の前記検出ウィンドウの人物の顔検出を行
い、更に顔検出を行った人物の人物属性を推定
し、その人物属性を対応する人物IDと共に出力する
人物属性推定部と、人物候補追跡部から出力された人物
候補ID
及び位置座標と、
人物属性推定部からの人物ID
及び人物属性情報とに基づいて、
人物候補IDと一致する人物ID
と位置座標
及び人物属性情報
との対応付けを行う人物追跡属性判定部と、を有する
ことを特徴とする。
【0007】
また、本発明の人物追跡属性推定装置の人物
追跡属性判定部は、複数のフレーム画像データにおける、同一の人物
の人物IDが付与された人物属性情報に基づいて、人物IDの人物属性を判定してもよい。
【0008】
上記人物追跡属性推定装置において、人物
追跡属性判定部は、複数の人物属性情報の平均値、中央値、多数決のいずれかに基づいて該人物IDの人物属性を判定してもよい。
【0009】
上記人物追跡属性推定装置において、人物
追跡属性判定部は、さらに前記
人物属性推定部からサムネイル画像を受信し、
前記人物IDに対応する位置座標に基づいて、前記サムネイル画像と人物属性情報とをプロットして表示装置へ表示するよう出力するようにしてもよい。
【0010】
上記人物追跡属性推定装置において、人物
追跡属性判定部は、該人物IDに対応する前記位置座標から動きベクトルを算出し、設定辺に対する動きを判定してもよい。
【0011】
上記人物追跡属性推定装置において、人物
追跡属性判定部は、複数の人物IDの人物属性情報を集計してもよい。
【0012】
上記人物追跡属性推定装置において、人物
追跡属性判定部は、複数の人物IDの人物属性情報と設定辺に対する動きを合わせて集計してもよい。
【0013】
また、本発明の人物追跡属性推定方法は、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、人物候補を走査フレーム間で比較し、距離差が所定の範囲内である人物候補を同一の人物候補として人物候補IDを付与し、前記人物候補IDと前記同一の人物候補の位置座標とを出力する人物候補追跡ステップ、位置座標を2次元画像座標に変換するビューポート変換ステップ、
前記2次元画像座標に基づいて、
前記人物
候補ID
を付与した前記人物候補に対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、上半身探索領域設定ステップで設定された人物候補ID、ウィンドウ・サイズ及び座標データに基づき、設定範囲内にある複数の同じ人物候補IDの上半身探索領域を一つに統合して人物IDの検出ウィンドウとし、カメラからのフレーム画像データ中の検出ウィンドウの人物の顔検出を行い、更に顔検出を行った人物の人物属性を推定し、その人物属性を対応する人物IDと共に出力する人物属性推定ステップ、人物候補追跡ステップで出力された人物候補ID及び位置座標と、人物属性推定ステップで出力された人物ID及び人物属性情報とに基づいて、人物候補IDに一致する人物IDと位置座標及び人物属性情報との対応付けを行う人物追跡属性判定ステップ、を有することを特徴とする。
【0014】
また、本発明の人物追跡属性推定プログラムは、コンピュータに、レーザー測域センサーの測定データから所定の閾値内の距離である点群をクラスタリングして人物候補を抽出する人物候補クラスタリングステップ、人物候補を走査フレーム間で比較し、距離差が所定の範囲内である人物候補を同一の人物候補として人物候補IDを付与し、前記人物候補IDと前記同一の人物候補の位置座標とを出力する人物候補追跡ステップ、位置座標を2次元画像座標に変換するビューポート変換ステップ、
前記2次元画像座標に基づいて、前記人物
候補ID
を付与した前記人物候補に対応する上半身探索領域としてウィンドウ・サイズと座標データとを設定する上半身探索領域設定ステップ、上半身探索領域設定ステップで設定された人物候補ID、ウィンドウ・サイズ及び座標データに基づき、設定範囲内にある複数の同じ人物候補IDの上半身探索領域を一つに統合して人物IDの検出ウィンドウとし、カメラからのフレーム画像データ中の検出ウィンドウの人物の顔検出を行い、更に顔検出を行った人物の人物属性を推定し、その人物属性を対応する人物IDと共に出力する人物属性推定ステップ、人物候補追跡ステップで出力された人物候補ID及び位置座標と、人物属性推定ステップで出力された人物ID及び人物属性情報とに基づいて、人物候補IDに一致する人物IDと位置座標及び人物属性情報との対応付けを行う人物追跡属性判定ステップ、実行させることを特徴とする。
【発明の効果】
【0015】
本発明によれば、人物追跡・属性統合部30を備えることで、レーザー測域センサーによる物体の3次元実空間位置追跡機能と、カメラによる顔検出属性推定機能を、複数の追跡人物にそれぞれ対応して紐付けることが可能となる。また、上半身識別部41における上半身識別を、上半身探索領域設定部32からのデータを利用することでスキャン回数を減らすことができるため、高速に行うことができる。さらに、人物属性情報を伴った3次元実空間人物追跡を実現できる。
【0016】
また、レーザー測域センサーからの人物IDを用いた、シーケンス画像における人物属性の総合判断を行なうことが可能となり、照明条件の変化や、顔の向きの変化、顔の隠れなどが生じた状態においても安定した高精度の人物属性判定を行なうことが可能となる。
【0017】
さらに、レーザー測域センサーからの人物追跡位置情報と、カメラ映像からの人物属性情報を統合した、人物追跡・属性統合鳥瞰図の生成が可能となり、属性情報や人物写真を伴った行動追跡を鳥瞰図として非常に分かりやすく表示することができる。
【0018】
また、人物属性と紐付けた行動収集が可能になり、例えば店舗来店客の買い回り行動の収集が可能になり、POSデータからは見えてこない来店客の店舗内の流れを知ることで、商品配置やフロア・レイアウトを最適化することが可能となる。また、ビル内のエレベーターから出てきた人の属性別の流れを時間帯ごとに把握することにより、オフィス店舗複合ビルにおける店舗商品やレストランでのメニューなどを戦略的に検討することも可能となる。
【発明を実施するための形態】
【0020】
この発明を施設内の任意エリア内における来場者追跡と属性推定に適用した実施の形態を以下に説明する。この実施の形態では、レーザー測域センサーをレーザーが水平円周投光するように設置し、カメラはエリア内の人物の顔が適切な大きさで写る位置に設置している。レーザー測域センサーでエリア内の人物候補の実空間三次元座標検出と追跡を行なう。また、カメラで、レーザー測域センサーからの人物候補の実空間三次元座標をカメラ画像座標に射影した画像位置から、レーザー測域センサーからのそれぞれの人物候補に対応した人物検出、人物属性推定を行ない、更にその結果を、レーザー測域センサーからの追跡情報を用いて平均値、中央値、多数決などにより総合判断することで高精度かつ安定した人物属性情報を人物追跡に結び付けることができる。
【0021】
図1は、本発明にかかるカメラ、レーザー測域センサー、人物追跡属性推定装置から構成される人物追跡属性システムの設置配置の一例である。カメラ10とレーザー測域センサー11は固定されるようにそれぞれ設置されており、カメラ10はビデオカメラであり、人物検出追跡エリア内の人物の顔が適切な大きさで撮影されるように配置・設定され、レーザー測域センサー
11は、例えば人物の腰高を想定した床面からの高さ80cmのところにレーザーを水平円周投光するように配置されている。カメラ
10とレーザー測域センサー
11はそれぞれUSB、LAN、RS−232C等のインタフェースにより人物追跡属性推定装置12と接続される。
【0022】
レーザー測域センサー11は、レーザーを照射し、物体に反射して戻ってくるまでの時間から物体までの距離を測定する。トランスミッタから照射したレーザーを回転ミラーで反射させ、前方を扇状にスキャンすることで床面から一定の高さの平面上に存在する物体までの距離を測定できる。本システムでは
図1のようにレーザー測域センサー11を搭載しているので、床面からの高さが80cmで床面に平行な平面上をスキャンすることになる。
【0023】
レーザー測域センサー11の回転ミラーはステップ角を利用しており、走査方向は反時計回りに走査する。例えば、1[step]は約1.05[deg]とし、最大ステップ数を228[step]として、約240度の扇型が検出エリアとする。レーザー測域センサー11は、角度θ、距離rのr−θ平面の極座標データから構成される測定データを一点ごとに出力する。これらの検出された点群の測定データが走査周波数のタイミングで人物追跡属性推定装置12へ入力される。なお、レーザー測域センサー11の代わりに、例えばGPSに加速度センサーや方位角センサーを組み合わせて角度と座標データを取得してもよい。また、ステレオ・カメラを用いて距離測定を行うことデータを取得してもよい。
【0024】
図2は、本発明の一つの実施形態における人物追跡属性推定システムのブロック図である。人物追跡属性推定システムは、カメラ10、レーザー測域センサー11、人物追跡属性推定装置12を有する。人物追跡属性推定装置12は、人物候補検出追跡部20と、人物追跡・属性統合部30と、人物属性推定部40を有する。人物追跡属性推定装置12は、一つの態様では、ハードウェア資源とソフトウェアの協働で実現され、例えばコンピュータである。具体的には、人物追跡属性推定装置12の各種機能は、ROMやハードディスク等の記録媒体に記録された人物追跡属性推定プログラムがメインメモリに読み出されて制御装置(例えば、CPUなどのプロセッサ)によって実行されることで実現される。但し、人物追跡属性推定装置12は、ハードウェアでのみ実現されていてもよい。また、人物追跡属性推定装置12は、物理的に一つの装置により実現されてもよく、複数の装置により実現されていてもよい。また、人物追跡属性推定装置12は、カメラで撮影された画像フレームや、レーザー測域センサーから出力されたデータを入力するための図示せぬ入力インタフェースを備えている。
【0025】
人物追跡属性推定装置12の人物候補検出追跡部20は、極座標/平面座標変換部21、背景登録部22、人物候補クラスタリング部23、人物候補追跡部24を有する。
【0026】
極座標/平面座標変換部21は、レーザー測域センサー11から走査周波数ごとのタイミングで入力された角度θ、距離rのr−θ平面の極座標データを有する測定データを、x−y平面の平面座標データに変換する。これにより鳥瞰見取り図として表示することができる。
【0027】
背景登録部22は、あらかじめ人物検出追跡エリア内に人物がいない状況でレーザー測域センサーの測定結果を背景として登録している。これにより、背景測定との差の大きな点群のみを取り出すことで背景以外の物体を検出することができる。
【0028】
人物候補クラスタリング部23は、レーザー測域センサー11から出力された点群であって、背景登録部22に登録された背景部分との差分を取り出し、距離差が近い点同士のクラスタリングを行う。クラスタリングすることで、点群を物体ごとに分類することができる。例えば幅25cm以上の点群を人物候補とすると、人物候補クラスタリング部23は、その点群の中心のx−y座標を人物候補座標として出力する。
【0029】
人物候補追跡部24は、レーザー走査フレーム間で距離差が近い人物候補同士を同じ人物だと判断することで同じ人物候補IDを割り振り、人物追跡を行なう。以上により、人物候補検出追跡部20は、人物追跡・属性推定統合部30に対して、レーザー走査フレームごとに、検出人物候補ごとの人物候補IDとx−y位置座標(x、y)を出力する。
【0030】
人物追跡・属性統合部30は、ビューポート変換部31、上半身探索領域設定部32、人物追跡属性判定部33を有する。ビューポート変換部31は、人物候補検出追跡部20から出力された検出人物候補IDごとのx−y位置座標が入力されると、あらかじめカメラ・キャリブレーションにより求めておいたカメラ内部パラメーターとカメラ外部パラメーターによる投影変換により、レーザー測域センサー11により検出された人物候補IDに対応した頭部の3次元実空間座標を画像座標に変換する。
【0031】
上半身探索領域設定部32では、レーザー測域センサー11により検出された人物候補頭部の画像座標を中心に、胸部から頭頂部までの高さに平均身長との差や検出誤差などを考慮して上半身探索領域を設定する。また、平均身長から上半身領域の上端(頭頂部)の高さと、下端(胸部)の高さをそれぞれ3次元空間座標のZwとしてレーザー測域センサー11から検出された人物候補のx−y位置座標(Xw、Yw)と合わせてビューポート変換することで、画像座標における上半身領域の高さを求めることができる。さらに、この情報から、平均身長との差や検出誤差などを考慮し、上半身検出ウィンドウ・サイズの範囲(探索する上半身の大きさの範囲)を設定する。そして、これらの人物候補IDとそれに対応した上半身探索スケール範囲(ウィンドウ・サイズ)と探索領域(座標データ)を人物属性推定部40に入力する。但し、人物属性推定部40への出力タイミングは、レーザー走査周波数のタイミングではなく、人物属性推定部40において人物推定処理が終了し、人物追跡属性判定部33へ属性情報が入力されるタイミングとなる。つまり、人物推定処理に要する時間の間に取得したレーザー走査フレームの情報は、用いられない。人物追跡・属性統合部30からの人物属性推定部40への人物候補ID、上半身探索領域、スケール範囲の情報の出力タイミングは、人物属性推定部40においてその人物候補IDに関する人物属性推定処理が終了するのを待って、次の同じ人物候補IDに関する情報を出力する。
【0032】
人物属性推定部40は、上半身識別部41、上半身判定部42、顔検出属性推定部43を有し、カメラ10が取得したフレーム画像データと上半身探索領域設定部32から入力された人物候補ID、上半身探索スケール範囲と探索領域を用いて、顔検出を行い、人物属性の推定を行う。
【0033】
上半身識別部41はカメラからのフレーム画像に対して、上半身探索領域設定部32から入力された人物候補IDに対応した上半身探索スケール範囲と探索領域の中で、周知の画像認識手法を用いてマルチ・スケールにおける人物上半身検出を行ない、上半身の有無、検出上半身の大きさ、画像座標位置を判定する。なお、上半身識別部41は、上半身探索領域設定部32から人物属性推定部40に人物候補ID、上半身探索領域、スケール範囲が入力されるタイミングで、同時間に撮影されたカメラのフレーム画像に対して人物上半身検出を行う。従って、人物属性推定部40に入力されるすべてのカメラフレーム画像が必ずしも用いられるものではない。
人物上半身を識別する処理としては、任意の公知の方法を適用可能である。本発明の方式を、輝度勾配方向ヒストグラムを特徴量としたサポート・ベクター・マシン識別器による人物上半身検出を行なう場合で説明する。
【0034】
人物上半身検出手法は、特徴量の学習過程と識別過程に分けられる。学習過程では、あらかじめ大量の検出対象である上半身画像と非上半身画像を用意し、それぞれの画像から輝度勾配方向ヒストグラム特徴量を抽出し、サポート・ベクター・マシンを用いて上半身形状特徴を学習する。これにより、入力画像から抽出された輝度勾配方向ヒストグラム特徴量が人物上半身かそうでないかを判断する識別器が得られる。
【0035】
識別過程では、入力画像に対して上半身検出ウィンドウを設定し、この検出ウィンドウを入力画像内で逐次スキャンする。スキャンしながら、スキャンごとに上半身検出ウィンドウによって切り出された領域の輝度勾配方向ヒストグラム特徴量を抽出し、あらかじめ学習により得られたサポート・ベクター・マシン識別器による検出ウィンドウの上半身らしさを評価することで、上半身の識別を行う。
【0036】
また、入力画像内の様々な大きさの人物上半身を検出するために、上半身検出ウィンドウの大きさを変えて、入力画像内の逐次スキャンを繰り返し、それぞれの大きさでの上半身識別を行う。
【0037】
上半身識別部41は、上半身探索領域設定部32から入力される上半身検出ウィンドウ・サイズ範囲に基づいて、たとえば、16段階ある上半身検出ウィンドウの大きさから、2、3段階のウィンドウ・サイズを選択してスキャンする。従って、上半身探索領域設定部32から入力されたウィンドウ・サイズ範囲を利用することで、スキャンの回数を減らすことができる。更に上半身探索領域設定部32から入力される上半身探索領域の画像座標データを用いることで、入力画像内での検出ウィンドウ・スキャン範囲を画像全体スキャンから上半身探索領域に絞ったスキャンにすることができる。このようにレーザー測域センサーからの検出人物候補の3次元空間座標を用いることで、入力画像内の上半身検出ウィンドウのスキャン数を劇的に少なくすることができ、また人物候補の領域に限定した上半身検出を行なうため、複雑な背景などによる誤検出を減らすことができる。これらの処理により上半身識別部41は人物候補IDごとに対応した上半身識別結果と、上半身が識別された場合にはその識別ウィンドウの画像座標と大きさを上半身判定部42に出力する。
【0038】
上半身判定部42は、上半身識別部41から入力された人物候補IDごとの上半身識別結果である複数の上半身識別ウィンドウの画像座標位置と大きさ(ウィンドウ・サイズ)を用いて、識別ウィンドウの位置と大きさがあらかじめ設定した範囲内に収まっている場合には同じ人物上半身であると想定し、同じ人物候補IDに対応した複数の上半身識別ウィンドウを1つの検出ウィンドウに統合する。入力画像内に人物上半身が存在する場合、通常、複数の上半身識別ウィンドウが重畳して識別される。これら、複数の上半身識別ウィンドウのうち、所定の範囲内に上半身が収まっている一つの識別ウィンドウに統合する。
【0039】
なお、所定の数以上の上半身識別ウィンドウが統合された場合のみ上半身が検出されたと判断し、統合処理を行うようにしてもよい。このようにすることで、誤検出を低減することもできる。また、上半身識別ウィンドウの統合判定結果として、人物候補IDごとに対応した上半身判定結果と、上半身と判定された場合にはその人物候補IDを人物IDとし、上半身検出ウィンドウの画像座標と大きさを顔検出属性推定部43に出力する。
【0040】
顔検出属性推定部43は、上半身判定部42
から人物IDと上半身検出ウィンドウの画像座標と大きさが入力されると、上半身検出ウィンドウの位置と大きさから、顔探索スケール範囲と探索領域の中で、周知の画像認識手法を用いてマルチ・スケールにおける顔検出を
行う。そして
、顔が所定の大きさ以上で検出された場合には、周知の画像認識手法を用いて人物IDごとに顔画像からの属性推定を
行い、その結果の人物IDと人物属性情報を、上半身判定部42からの人物候補IDごとの上半身判定結果と合わせて人物
追跡属性判定部33に出力する。
【0041】
なお、人物属性推定部40において、まず上半身検出を行ない、上半身検出領域に対して顔検出属性推定を実施する形態で説明したが、人物属性推定部40において、上半身探索領域設定部32からの画像座標における上半身探索スケール範囲と探索領域情報に基づいて、上半身検出を行うことなく、顔検出及び属性推定だけを実施する構成としても良い。
【0042】
人物
追跡属性判定部33では、レーザー測域センサー11による追跡結果とカメラ10による属性情報付きの追跡結果
とを最終的に統合する。人物
追跡属性判定部33は、人物候補検出追跡部20から出力された検出人物候補IDごとのx−y位置座標を保持している。
また、人物追跡属性判定部33は、顔検出属性推定部43から人物IDと対応する人物属性情報が入力されると
、それらを一時的に保存する。また、人物属性情報が入力されたことを上半身探索領域設定部32に通知する。
人物追跡属性判定部33は、顔検出属性推定部43から入力された人物IDと、レーザー測域センサー11により追跡され、人物候補検出追跡部20から入力された人物候補IDとを比較し、同じ人物IDを有する情報同士を対応づける。また、異なる画像フレームデータにおける同一人物IDに対応する人物属性情報に対して、個々の属性ごとに判定結果やそのパラメーターを平均値、中央値、多数決などをとることで、追跡した同じ人物に対する属性情報の
ばらつきをなくし、精度を高めて、人物追跡3次元実空間位置情報に人物属性情報を紐付けて出力する。人物
追跡属性判定部33における処理の詳細については、後述する。
【0043】
図3は、ワールド座標、カメラ座標、画像座標の関係を示した図である。レーザー測域センサー11で検出された人物候補の3次元実空間座標はレーザー測域センサー11の位置を原点としたワールド座標となる。また、透視投影によるピンホール・カメラをモデルとして、ピンホール・カメラの光学中心を座標原点Ocにとり、3次元座標のX軸とY軸をそれぞれ撮像素子が置かれる画像面上のu軸およびv軸に平行にとり、Z軸を光軸に対し並行にとるように定義した座標をカメラ座標と呼ぶ。更に、物理的な大きさや位置とは無関係に、画像データの原点をどこにとるか、あるいは画素の細かさや縦横比をどうするかで決まる画素単位で定義される画像座標がある。
【0044】
このワールド座標に対するカメラの位置、姿勢から決まるカメラ座標の位置関係を回転と平行移動で示したものがカメラ外部パラメーターであり、ワールド座標(Xw、Yw、Zw)からカメラ座標(Xc、Yc、Zc)への変換は次のようになる。
【数1】
ここに、r1,1・・・r3,3は回転を表すパラメーターであり、tx、ty、tzは平行移動を表すパラメーターである。
【0045】
そして、カメラ内部パラメーターを用いて、カメラ座標(Xc、Yc、Zc)から画素を単位とした画像座標(u、v)への変換は次のようになる。
【数2】
ここに、fはカメラの焦点距離を表し、δuとδvはそれぞれ横方向と縦方向の画素の物理的な間隔を表し、cu、cvは画像座標系における光軸と画像面との交点位置を表し、Sは定数を表す。
【0046】
具体例として、レーザー測域センサー11が人物の腰高を想定して床面から80cm高で検出した人物候補のx−y位置座標(Xw、Yw)に対して、例えば平均人物頭部高として145cmとした場合には、ビューポート変換部31において3次元実空間座標(Xw、Yw、145)を2次元画像座標(u、v)に投影変換する。
【0047】
図4は、上半身画像を正方形とした場合の、上半身検出ウィンドウの大きさの変化ステップの例である。この例では、上半身検出ウィンドウの大きさを480画素×480画素の大きさから48画素×48画素の大きさまでの16段階に順次小さくしていきながら、それぞれの検出ウィンドウの大きさごとに、入力画像内の検出ウィンドウをスキャンしながら上半身識別を繰り返し行なうことで、様々な大きさの上半身を検出している。
【0048】
図5は、複数の上半身識別ウィンドウを1つの上半身検出ウィンドウに統合した場合の画像例である。上半身判定部42で、複数のウィンドウ・サイズを用いて人物上半身を判定する場合の画像例である。入力画像内に人物上半身が存在する場合、
図5の
上側画像例が示すように複数の上半身識別ウィンドウが識別される。これら、複数の上半身識別ウィンドウのうち、所定の範囲内に上半身が収まっている
上半身識別ウィンドウを一つの
上半身検出ウィンドウに統合する。統合した例が、
図5の
下側画像例である。
【0049】
図6は、レーザー測域センサー11からの信号が入力される人物候補検出追跡部20と、人物追跡・属性統合部30と、カメラ10からの映像が入力される人物属性推定部40、との間におけるデータフローの一例である。レーザー測域センサー11の検出エリア内に人物候補物体がある場合、レーザー測域センサー11からのレーザー測定結果が入力される人物候補検出追跡部20において物体を検出し、人物候補かどうか判定を行う。人物候補と判定された場合、人物候補検出追跡部20の人物候補追跡部24から、人物候補それぞれの人物IDとワールド座標(x、y)が人物追跡・属性統合部30に入力される。
【0050】
人物追跡・属性統合部30では、人物候補検出追跡部20から入力された人物候補の人物候補IDとワールド座標(x、y)の情報を保持する。そして、ビューポート変換部31において、ワールド座標(x、y)に基づき2次元画像座標に投影変換する。また、上半身探索領域設定部32は、投影変換された座標に基づいて上半身探索スケール範囲と上半身探索領域を設定する。こうして、人物追跡・属性統合部30から人物属性推定部40へ、人物候補IDと上半身探索スケール範囲、上半身探索領域とが出力される。
【0051】
人物属性推定部40では、カメラ10からのフレーム画像に基づいて、上半身識別部41において人物上半身検出を行い、上半身判定部42で検出したウィンドウによって上半身位置及び範囲を判定し、顔検出属性推定部43にて顔検出と属性推定を行って、人物IDと人物属性情報とを人物追跡・属性統合部30へ出力する。
【0052】
人物追跡属性判定部33では、保持していた人物候補IDと人物IDを一致させることで、ワールド座標(x、y)と人物属性情報とを紐づけて出力することとなる。
【0053】
次に、人物追跡属性判定部33における処理について詳細に説明する。レーザー測域センサーからの人物IDを用いて、シーケンス画像における人物属性判定行うものである。
【0054】
図7は、人物追跡属性判定部33における判定処理フローの一例である。人物追跡属性判定部33には、顔検出属性推定部43から人物IDとその人物の属性情報が入力される。例えば、人物の属性情報として人物IDそれぞれに対応した性別識別値と年齢推定値が人物追跡属性判定部33に入力される。
【0055】
カメラ画像に複数の人物が写っている場合、人物追跡属性判定部33には複数の人物IDと、それぞれの人物IDに対応した性別識別値と年齢推定値が入力される。人物追跡属性判定部33においては、それぞれのフレーム画像において、それぞれの人物IDごとに処理を行なう。まず、その人物IDに対応した性別識別と年齢推定が、現処理画像において行なわれているかどうかを判定する(ステップ71)。レーザー測域センサーで人物検出はされたものの、画像では顔が隠れていた場合など、性別識別と年齢推定が行なわれていない場合もあるためである。性別識別と年齢推定が行なわれている場合にはその人物IDに対応した性別識別値と年齢推定値が入力されるが、性別識別と年齢推定が行なわれていない場合には「NA」が入力されている。
【0056】
現処理画像において性別識別と年齢推定が行なわれている場合には、平均性別識別値更新処理を行なう(ステップ72)。平均性別識別値更新処理の演算は下記の通りである。
【数3】
人物追跡属性判定部33は、人物属性パラメーター・テーブルとしてそれぞれの人物IDごとに、判定回数、平均性別識別値、平均年齢推定値を保存している。
【0057】
性別識別値は、サポート・ベクター・マシンにより性別識別された結果の値であり、性別の識別曲面からの距離を表す。例えば、性別識別値が正の値の場合には男性と識別され、負の場合には女性と識別されたことを示す。性別識別値の絶対値が大きいほど、処理顔画像が性別を判定する識別曲面から離れていることを示し、識別の確からしさを表している。ここではサポート・ベクター・マシンの識別値を用いているが、別の統計的識別手法における尤度や確率を代わりに用いることなども可能である。
【0058】
次に、平均年齢推定値更新処理を行う(ステップ73)。平均性別識別値更新処理と同様に、下記の演算により平均年齢推定値の更新を
行う。
【数4】
そして、人物属性パラメーター・テーブルの判定回数を1増
加する(ステップ74)。その後、人物追跡属性判定結果を出力する(ステップ75)。
【0059】
図8は、人物追跡属性判定部33における判定方法の具体的なフローである。
図8に示すように、まだ一度もその人物IDの属性推定が行なわれていない時点では、人物属性パラメーター・テーブルのその人物IDに対応したパラメーターは、判定回数=0、平均性別識別値=NA、平均年齢推定値=NAとなっている。
【0060】
そして、顔検出属性推定部43から現処理画像(処理画像番号=1)の人物ごとの人物ID、性別識別値、年齢推定値が入力されると、平均性別識別値更新処理の演算により平均性別識別更新値が計算される。人物ID=1の場合では、人物属性パラメーター・テーブルの人物ID=1に対応した判定回数=0、平均性別識別値=0の状態において、顔検出属性推定部43から現処理画像の人物ID=1に対応した性別識別値=+1.26が入力されることで、平均性別識別更新値が1.26となり、人物属性パラメーター・テーブルが人物ID=1の平均性別識別値=1.26に更新される。
【0061】
この実施例では、サポート・ベクター・マシンにより性別識別された結果の値を示しており、性別識別値が正の値の場合には男性と識別され、負の場合には女性と識別されたことを示している。
【0062】
次に、平均年齢推定値更新処理を行われ、平均性別識別値更新処理と同様に、平均年齢推定値更新処理の演算が行われ、平均年齢推定値の更新を行なう。人物ID=1の場合では、顔検出属性推定部43から現処理画像の人物ID=1に対応した年齢推定値24.84が入力されることで、平均年齢推定更新値が24.84となり、人物属性パラメーター・テーブルが人物ID=1の平均年齢推定値=24.84に更新される。
【0063】
そして、人物属性パラメーター・テーブルの判定回数を1増加し、人物属性パラメーター・テーブルを判定回数=1とする。その後、人物追跡属性判定結果を出力する。判定結果の出力としては、人物ID=1を例とすると、この時点の人物属性パラメーター・テーブルの人物ID=1に対応する平均性別識別値=+1.26であるので男性と出力し、平均年齢推定値=24.84であるので25歳と出力する。
【0064】
なお、
図7に示す人物属性判定処理フローは、人物IDごとに行なわれ、これまで
図8の人物ID=1について行なった処理を同様に、現処理画像内の全ての人物IDに対して行われる。つまり、人物ID=2、人物ID=3についても同様の処理を行い、現処理画像での人物追跡属性判定を終了する。顔検出属性推定部43からの現処理画像の人物ID=2と人物ID=3の人物ID属性情報が
【表1】
の場合、終了時の人物属性パラメーター・テーブルは、
【表2】
となり、判定結果として
【表3】
を出力する。
【0065】
図9は、次の処理画像(処理画像番号=2)における判定方法のフローである。人物追跡属性判定処理が、
図8と同様に示すように行なわれる。例えば、顔検出属性推定部43からの人物ID属性情報が
【表4】
の場合、終了時の人物属性パラメーター・テーブルは、
【表5】
となり、判定結果として
【表6】
を出力する。
【0066】
図10は、更に次の処理画像(処理画像番号=3)における判定方法のフローである。人物追跡属性判定処理が、
図8及び
図9と同様に行なわれる。顔検出属性推定部43からの人物ID属性情報が
【表7】
の場合、終了時の人物属性パラメーター・テーブルは、
【表8】
となり、判定結果として
【表9】
を出力する。
【0067】
この処理画像番号=3の人物追跡属性判定処理では、顔検出属性推定部43において人物ID=1に対して顔検出がされず属性推定が行なわれなかったため性別識別値=NA、年齢推定値=NAが人物追跡属性判定部33に入力された場合の例を示している。
図7のステップ71の判定処理において、顔検出属性推定部43での人物属性が推定されていないため、ステップ72〜75の処理は行なわれず、その結果、人物属性パラメーター・テーブルの人物ID=1に対応する判定回数、平均性別識別値、平均年齢推定値は更新されていない。しかし、以前の値が保持され、その結果、性別判定も年齢判定も出力することができる。こうすることで、カメラ映像シーケンスにおいて顔が隠れた場面などが生じた場合などにおいても、それまでにカメラ映像シーケンスの中で追跡してきたその人物IDの人物属性判定結果を用いることで、正しい判定結果を出力することができる。
【0068】
更に、処理画像番号=3の人物追跡属性判定処理では、人物ID=2に対して顔画像の照明条件変動や部分隠れなどの影響などにより、顔検出属性推定部43において正しい性別識別が行なわれなかった場合の例を示している。この処理画像(処理画像番号=3)においては、顔検出属性推定部43の人物ID=2に対する性別識別値=+0.18であり、僅かに男性であると識別されている。しかし、平均性別識別値更新処理を行うことで、カメラ映像シーケンスの中での人物ID=2の性別識別値を過去の処理画像における同じ人物IDの性別識別値を含めて総合的に判定することができ、その結果、この処理画像における平均性別識別値=−1.18となり、正しく女性と判定をすることができる。
【0069】
図11は、処理画像番号=4における判定方法のフローである。
図11では、顔検出属性推定部43において人物ID=3の属性推定が行なわれなかった場合の例を示している。この場合も同様に、
図7のステップ71の判定の結果、ステップ72〜75の処理は行なわれず、人物属性パラメーター・テーブルの人物ID=3に対応する判定回数、平均性別識別値、平均年齢推定値は更新されていない。しかし、以前の値が保持されているため、性別判定と年齢判定が正しく行なわれる。
【0070】
図12は、処理画像番号=5における判定方法のフローである。レーザー測域センサー人物検出で人物ID=1は検出エリアから消え、新しく人物ID=4が検出エリアに加わった状況を示している。レーザー測域センサーの人物検出に対応して、顔検出属性推定部43からの人物ID属性情報も人物ID=2、人物ID=3、人物ID=4の3名分の
【表10】
となる。
図10に示される平均性別識別値更新処理52と平均年齢推定値更新処理53の演算により、人物属性パラメーター・テーブルが更新されるが、人物ID=1は顔検出属性推定部43からの人物ID属性情報が無いため更新は行なわれず、以前の値が保持される。また、人物ID=4はこの処理画像で初めて人物ID属性情報が入力されたので、新しく人物属性パラメーター・テーブルに加わり、
【表11】
となり、判定結果として
【表12】
を出力する。
【0071】
人物ID=3については、処理画像番号=3の人物ID=2のときと同様に、顔画像の照明条件や部分隠れなどの影響により顔検出属性推定部43からの性別推定値が−0.04と僅かながら女性と誤識別されているが、本方式の人物追跡属性判定方式により平均性別識別値=+0.61となり、男性と正しく判定される。なお、ここでは判定に平均値を用いた例を述べたが、平均値の代わりに中央値や、性別判定などにおいては多数決などを用いることも可能である。
【0072】
次に、人物追跡属性判定部33からの出力の一例について説明する。上述のとおり、人物追跡属性判定部33は、人物ID、人物追跡ワールド座標(x、y)、年齢・性別等の人物属性情報を出力する。これを図示しないディスプレイに出力することで、x軸、y軸の2次元鳥瞰図上に人物IDと共にプロットすることが可能である。また、逐次、人物候補追跡部24から入力される人物候補の人物IDとワールド座標に対応して鳥瞰図上の表示を更新する。
【0073】
図13は、人物追跡属性判定部33から出力される画面の一例である。カメラ10が接続された人物属性推定部40から人物IDに対応付けられた属性情報(性別識別値、年齢推定値)が処理画像ごとに逐次人物追跡・属性統合部30に入力され、その情報から、前述した人物属性パラメーター・テーブルとして、各人物IDに対応した判定回数、平均性別識別値、平均年齢推定値が逐次計算され保存されている。レーザー測域センサー11からのデータに基づく人物ID、人物追跡ワールド座標(x、y)に対し、この各人物IDに対応した平均性別識別値と平均年齢推定値からの性別判定と年齢判定を、付加表示をすることにより、人物追跡情報と属性情報を統合表示した鳥瞰図を生成することができる。
【0074】
更に、
図13のように、上半身判定部42で判定された上半身画像を人物IDに対応したサムネイル画像として、プロットした位置にあわせて表示をするようにしてもよい。この場合、人物追跡属性判定部33は、上半身検出画像を、人物IDに対応づけた形で顔検出属性推定部43から合わせて受信する。これにより
図13に示すような、より分かりやすい人物追跡・属性統合鳥瞰図を作成表示することができる。サムネイル画像の生成については、例えば、顔検出属性推定部43から出力された、カメラ映像からのシーケンス画像における同じ人物IDの上半身検出画像の中から、顔の検出識別値が最大の画像を選択し、更新保存することで、最も正面顔が写った上半身画像をサムネイル画像とする。このようにすることで、鳥瞰図表示の分かりやすさを増すことも可能である。レーザー測域センサーからの人物追跡位置情報と、カメラ映像からの人物属性情報を統合した、人物追跡・属性統合鳥瞰図の生成が可能となり、属性情報や人物写真を伴った行動追跡を鳥瞰図として非常に分かりやすく表示することができる。
【0075】
次に、本人物追跡属性推定装置を利用した来店客の行動収集の方法について、オフィス店舗複合ビル内のエレベーターを出てきた人の行動収集をした例を以下に説明する。
【0076】
図14は、カメラ10とレーザー測域センサー11の配置の一例である。エレベーターを出てきた人の顔が撮影でき、かつエレベーターを出てきたエリアが人物属性追跡エリアになるようにカメラ10とレーザー測域センサー11が設置される。このようにすることで、エレベーターを出てきた人の位置追跡に属性判定情報を紐付けることができる。
【0077】
図14に示すように、人物属性追跡エリアのビル内ショップ&レストラン方面の一辺をA辺、ビル出入口方面の一辺をB辺とし、人物属性の追跡を行う設定辺を定める。人物属性情報が紐付けられた人物位置追跡により、エレベーターを出た人が人物属性追跡エリアのA辺から出ていった人数と、B辺から出ていった人数をそれぞれ人物属性別に時間帯ごとに集計する。
【0078】
図15は、人物の入出判定手法を示す図である。人物がA辺、あるいはB辺をどのように横切ったかの判定は、レーザー測域センサー11による人物候補追跡により行なう。人物候補追跡部24から、人物IDと共にワールド座標(x、y)が、レーザー測域センサーの走査周波数ごとのタイミング(t=n)で出力される。人物追跡属性判定部33は、人物IDが同じでタイミングがひとつ前(t=n−1)の実空間座標(x
n-1、y
n-1)と現タイミングの(x
n、y
n)を結ぶことで、実空間座標上での人物候補の動きベクトルを算出する。そして、この動きベクトルがA辺、あるいはB辺をどの方向に横切ったかどうかを判定することで、設定したA辺、あるいはB辺をエレベーターから出て行ったか、エレベーターへ入ってきたかを判定することができる。
【0079】
レーザー測域センサー11の仕様により、人物候補の移動に対して走査周波数が非常に速い場合などは、走査周波数のタイミングで出力される人物IDと実空間座標を、例えば5分の1などに間引き、同様の処理を行なうことで、特に設定したA辺、あるいはB辺での横切り判定を安定して行なうことができる。
【0080】
1つのレーザー測域センサーで人物候補の実空間座標上での追跡が可能であり、
図14に示すように、1つのレーザー測域センサーで人物候補の入出判定を行なう設定辺は複数辺設定することができる。
【0081】
図16は、午前7時台から午後10時台までの時間帯ごとの、男性の年代別のエレベーターを出てショップ&レストラン方面に向かった人数と出入口方面に向かった人数を集計した結果の一例を示す図である。
図17は、午前7時台から午後10時台までの時間帯ごとの、女性の年代別のエレベーターを出てショップ&レストラン方面に向かった人数と出入口方面に向かった人数を集計した結果の一例を示す図である。これらの例において、男女それぞれにおいて、20歳未満、20歳以上40歳未満、40歳以上60歳未満、60歳以上の4つの年代に分類している。このように、判定された人物IDごとの属性情報を蓄積し、人物追跡属性判定部33において、集計するようにすることで、エレベーターを出てきた人全体の各時間帯の性別比率、年代比率を分析することができる。
図18は、エレベーターから出てきた人について、時間帯ごとの人数と年代比率を集計した一例の図である。
【0082】
さらに、エレベーターを出た後、ショップ&レストラン方面に向かったか、あるいは出入口方面に向かったかの行動調査として、人物属性ごとの動向を調査することができる。
図19は、40歳以上60歳未満の男性における、それぞれの時間帯ごとのエレベーターを出た後の向かい先の人数と比率を求めた図の一例である。
図20は、20歳以上40歳未満の女性に絞ったエレベーターを出た後の向かい先の人数と比率を求めた図の一例である。こうした分析を行うことで、40歳以上60歳未満の男性が昼休みと定時後にしかショップ&レストランに足を向けないのに対して、20歳以上40歳未満の女性は昼休みから定時後までの時間においてもショップ&レストランに足を向けていることが分析され、この結果から例えば昼休みから定時後までの時間については女性をターゲットにした販売戦略を行なうことで売り上げを伸ばすことが期待できることなどが分かる。
【0083】
このように、人物属性と紐付けた行動収集が可能になり、例えば店舗来店客の買い回り行動の収集が可能になり、POSデータからは見えてこない来店客の店舗内の流れを知ることで、商品配置やフロア・レイアウトを最適化することが可能となる。また、ビル内のエレベーターから出てきた人の属性別の流れを時間帯ごとに把握することにより、オフィス店舗複合ビルにおける店舗商品やレストランでのメニューなどを戦略的に検討することも可能となる。