(58)【調査した分野】(Int.Cl.,DB名)
前記第1のステップと前記第2のステップにおいて、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする請求項1または請求項2に記載の移動体情報管理方法。
前記第1の手段と前記第2の手段において、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする請求項4または請求項5に記載の移動体情報管理装置。
カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを対応づける移動体情報管理で使用するプログラムであって、
前記移動体情報管理を、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1の手段と、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2の手段と、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3の手段として機能させることを特徴とするプログラム。
【発明の開示】
【発明が解決しようとする課題】
【0006】
しかし特許文献1は、顧客がカードを所有していることを前提としており、ポイントカードを所持していない顧客、若しくはポイントカードがない店舗には適用できない。また、非特許文献1、非特許文献2は、それぞれ顧客の属性と動線とを取得する装置であり、属性と動線とを対応付ける具体的な方法を開示していない。
【0007】
本発明はこのような状況に鑑みてなされたものであり、カメラで取得した顧客の属性情報と測域センサで取得した動線情報とを対応付ける方法及び装置を提供することを目的とするものである。
【課題を解決するための手段】
【0008】
上記課題を解決するために、本発明に係る移動体情報管理方法は、カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを移動体情報管理装置によって対応付ける方法であって、
前記移動体情報管理装置が、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1のステップと、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2のステップと、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3のステップと、を備えることを特徴とする。
また、前記位置測定装置として測域センサを用いることを特徴とする。
また、前記第1のステップと前記第2のステップにおいて、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする。
【0009】
本発明に係る移動体情報管理装置は、カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを対応づける装置であって、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1の手段と、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2の手段と、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3の手段と、を備えることを特徴とする。
また、位置測定装置として測域センサを用いることを特徴とする。
また、前記第1の手段と前記第2の手段において、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする。
また、位置測定装置として測域センサを用いることを特徴とする。
また、前記第1の手段と前記第2の手段において、y座標値y1とy座標値y2の他に更に人物の性別と年齢とから推定される平均身長の情報を加えて推定点e1と推定点e2とを算出することを特徴とする。
【0010】
本発明に係るプログラムは、カメラで撮影された情報を分析して得られる人物の属性情報と、位置測定装置で測定された情報を分析して得られる人物の動線情報とを対応づける移動体情報管理で使用するプログラムであって、
前記移動体情報管理を、
前記属性情報内の特定の属性識別子を持つ属性に含まれる時刻t1におけるカメラ画像内の顔の中心位置のy座標値y1から実空間内で人物が存在する推定点e1を算出する第1の手段と、
前記属性情報内の前記特定の属性識別子を持つ属性に含まれる時刻t2におけるカメラ画像内の顔の中心位置のy座標値y2から実空間内で人物が存在する推定点e2を算出する第2の手段と、
前記動線情報内の各動線識別子毎に前記時刻t1に最も近い時刻における実空間内の位置と前記推定点e1との間の距離と、前記動線情報内の各動線識別子毎に前記時刻t2に最も近い時刻における実空間内の位置と前記推定点e2との間の距離との和をスコアとし、前記スコアを最小とする動線識別子と前記特定の属性識別子とを対応付ける第3の手段として機能させることを特徴とするプログラム。
【発明の効果】
【0011】
本発明によれば、カメラで取得した顧客の属性情報と測域センサで取得した動線情報とを対応付けることが可能となり、どのような属性を持った顧客がどのように店舗を回遊したかが把握できる。さらに、この情報を元にして店舗のレイアウト変更など店舗の売上向上などの施策を実施することが可能となる。
【発明を実施するための形態】
【0013】
以下、図面に基づいて、本発明の実施の形態を説明する。なお、本発明の実施態様は、後述する形態例に限定されるものではなく、その技術思想の範囲において、種々の変形が可能である。また、実施の形態を説明するための全図において、同一の機能を有する部材には同一または関連する符号を付し、その繰り返しの説明は省略する。
【0014】
図1は、本発明の実施形態に関わる移動体情報管理システム構成のブロック図である。
この実施形態の移動情報管理システムは、店舗101に設置されたカメラ102、位置測定装置103、移動体情報管理サーバ106で構成される。
【0015】
カメラ102は、店舗101の出入口105の方向を撮影し、映像をネットワーク107を介して移動体情報管理サーバ106に送信する。ここでは、カメラ102は出入口105の方向を撮影しているとしたが、撮影する領域は任意で良い。また、カメラも1台だけでなく複数台あってもよい。カメラとしては、店舗に設置された防犯カメラやウェブカメラが相当する。
【0016】
位置測定装置103は、店舗内を顧客が時々刻々とどのように移動したか(動線)の情報を記録する装置である。位置測定装置103としては、測域センサ、屋内GPS(Global Positioning System)、Wi-Fi電波強度による位置測定装置が該当する。例えば位置測定装置103が測域センサである場合、ある時刻における測域センサと店舗内の対象物との距離を測定し、対象物が人物の部分を分析して抽出することで、店舗内の動線を知ることができる。なお、
図1には位置測定装置103を4つ示したが、台数は限定されない。
【0017】
ネットワーク107は、カメラ102と位置測定装置103とが、移動体情報管理サーバ106に対して通信できるようにするためのものであり、例えばイーサネット(登録商標)、Wi-Fi(登録商標)、USB(Universal Serial Bus)等が相当するが、これらに限定されない。
【0018】
なお、カメラ102、位置測定装置103は測定中にネットワーク107と必ずしも接続されている必要はない。例えば、カメラ102が撮影した映像をカメラ内に情報として記録し、店舗の閉店後にカメラ102内の情報を移動体情報管理サーバ106に送信してもよい。
【0019】
図2に、移動体情報管理サーバ106の構成を示す。
移動体情報管理サーバ106は、位置測定装置103から測定情報を取得して動線情報205を作成する移動情報管理部201と、カメラ102から映像を取得して分析することで、カメラに映った顧客の属性(年齢、性別等)を推測して属性情報206を作成する属性情報管理部202と、カメラ102の前を通過した顧客の動線と属性とを対応付けて動線属性対応情報207を作成する動線属性情報管理部203と、記憶部204と、
ネットワーク接続部208とで構成される。
【0020】
記憶部204には、動線情報205と、属性情報206と、動線属性対応情報207とが保存される。記憶部204としては、RAM、HDDなどが相当する。
【0021】
本実施形態の場合、移動体情報管理サーバ106は、サーバ、PC(Personal Computer)、仮想マシンなどを想定する。なお、移動体情報管理サーバ106には、図示しないが、CPU(Central Processing Unit)、メモリ、入力指示装置(キーボード、マウス)などが必要に応じて搭載されているものとする。
【0022】
また、移動体情報管理サーバ106が設置されている場所については限定しない。店舗内に設置されていてもよいし、クラウド上にあってもよい。
図2に移動体情報管理サーバ106の構成を示しているが、個々の構成要素は別々の移動体情報管理サーバ106にあってもよい。
【0023】
図3は属性情報206の構成を示す図である。
図3の属性情報206について、二行目の項目を例に取って説明する。
属性情報管理部202が、カメラ102が撮影した映像を解析して人物の顔を検出する。検出した顔毎に固有の識別子「1」をfield_id301として割り当て、検出した時刻「2013-05-01T10:00:00.000+09:00」をstart_time302とし、映像内の顔の中心座標の横成分「200」をstart_cx304、縦成分「300」をstart_cy305とする。
属性情報管理部202は、顔を検出した後に当該人物を追跡し、当該人物がカメラの撮影範囲から外れたり、顔が識別不能になった場合に追跡を終了する。
その際の終了時刻「2013-05-01T10:00:05.123+09:00」をend_time303とし、映像内の顔の中心座標の横成分「500」をend_cx306、縦成分「400」をend_cy307とする。
また、属性情報管理部202は、当該人物の年齢や性別を推定し、年齢「20」をage308、性別「男」をgender309とする。
【0024】
ここで、例えば「2013-05-01T10:00:00.000+09:00」は、2013年5月1日10時00分00秒000ミリ秒(時差9時間)を意味するが、時刻の表現方法は限定しない。
なお、属性情報206は一例であり、年齢や性別以外の属性情報を含んでいてもよい。
【0025】
図4は動線情報205の構成を示す図である。
図4の動線情報205について、二行目の項目を例に取って説明する。
動線情報管理部201が、位置測定装置103が測定した情報を解析して店舗内の顧客の位置を検出する。検出した顧客毎に固有の識別子「1」をhuman_id401として割り当て、検出した時刻「2013-05-01T10:00:00.000+09:00 」をtime402とし、店舗内の顧客の座標の横成分「100」をx403、縦成分「200」をy404とする。
動線情報管理部201は、定期的若しくは非定期的に店舗内の顧客の位置情報を動線情報205として記録する。但し、human_id401については、以前に検出した顧客と同一人物と推定される場合には、その際に採番した識別子を用いる。
従って、例えば動線情報205からhuman_id401が「1」のものだけ取り出すと、human_id401が「1」と割り当てられた顧客が、どの時刻に店舗内のどこに存在したかの一連の情報が分かることになる。
【0026】
上記までは動線情報205と属性情報206とを別々に関連がないものとして説明した。しかし、店舗内でどのような属性(性別・年齢)をもった顧客が、どのような経路で買い回りをしているか、という情報が得られると、店舗の売上向上などの施策を打ち立てる際に、より価値の高い情報として利用できる。
【0027】
次に、店舗の出入口105から入店した顧客に対して割り当てられた属性と動線とを対応付ける方法について説明する。
まず、
図6を用いて属性と動線との対応付けに必要となる基準線について説明する。ここでカメラ画像601は、カメラ102で出入口105を撮影した場合の一例である。
始点605、終点607は顧客の顔の中心を表している。ここでは仮想的に、顧客がカメラ102の前を始点605から終点607の位置まで移動した場合の始点605と終点607とを同一のカメラ画像601に図示している。
【0028】
カメラ画像601で撮影した領域が店舗101内の実空間内のどの領域に対応するか決めるために、基準線602を設定する。ここで基準線602の左端を点P603、右端を点Q604とする。基準線602としては、例えば店舗の自動ドアや防犯ゲートの床面接地部分のように直線になっており、かつ点P603、点Q604が自動ドアの両端、防犯ゲートの両端のようにカメラ画像内の位置と、店舗内の実際の位置とが対応付けられるものが良い。
【0029】
<基準線からの距離の推定>
図6の始点605と終点607とを比較すると、顧客がカメラ102に近づくほど、顔の中心位置はカメラ画像601の下部に移動していくことが分かる。具体的に
図6、
図7を用いて説明をする。終点607から基準線602に垂直に引いた線との交点を交点E608とし、交点E608の実空間上の対応する点を
図7の交点E'704とし、カメラ102の実空間上の設置位置を点O'706とすると、終点607を持つ人物は、実空間上では交点E'704と点O'706とを結ぶ直線上に存在することになる。交点E608と交点E'704との対応方法としては、交点E608が基準線602をm対nに内分したとすると、基準線701をm対nに内分するような点を交点E'704とする。
ここでカメラ画像601内の基準線602、点P603、点Q604は、実空間上では、基準線701、点P'702、点Q'703にそれぞれ対応するとする。
【0030】
次に、当該人物の実空間上の存在位置を推定する方法を説明する。
推定された位置を推定点E'705とすると、推定点E'705は、基準線701から距離RE'706離れた距離に基準線701と平行に引いた直線L'707と交点E'704と点O'708との交点になる。したがって、カメラ画像601内の終点607から距離RE'706が推定できれば、推定点E'705が算出できることになる。
【0031】
距離RE'706の推定方法の一例を説明する。
例えば、カメラ画像601の縦幅を600ピクセルとし、人物が基準線602上に立った場合の顔の中心位置のy座標値をカメラ画像601の上部から測って200ピクセルであり、カメラ102前に立った場合に顔の中心位置のy座標値が600ピクセルだったとする。この場合、y座標値と基準線602からの距離を線形補間することで、y座標値が400であれば、基準線602とカメラ102との中間地点に人物が存在したと推定することができる。
【0032】
上記ではy座標値のみを用いたが、属性情報206には年齢・性別の情報も含まれることから、例えば年代別性別ごとの全国平均身長の情報を加味して距離RE'706を推定してもよい。例えば、子どもと大人では身長が子どもの方が一般に低いため、大人と子供が出入口に立った場合に、カメラ画像内のy座標値は子どもの方が大きくなる。これを踏まえた上で上記補間方法を変更することもできる。
【0033】
<スコアの導入>
以下に、本発明の特徴となるスコアの概念について述べる。まず、店舗の出入口が狭いために同一時刻には一人しか入店できない場合や、出入口が広くても人の出入りが少ない場合を考える。この場合は、カメラ102に人が映った時刻と、位置測定装置103が出入口で人を検出した時刻とを対応させることで、動線と属性を簡単に対応付けることができる。
【0034】
しかし、例えば家族連れ顧客など複数人が同時に出入口から入店する場合は、カメラ102に人が映った時刻に、位置測定装置103は複数人検知するため、時刻のみではどの属性とどの動線とを対応付けてよいか判断できない。
そこで本発明では、顔が検出された時刻における推定点と、前記時刻における人の位置との距離をスコアとして、スコアを最小化する動線を抽出する。
図10を用いて、スコア最小化の意味を説明する。
図10では、二人が出入口105から入店し、それぞれ動線A1001、動線B1002が位置測定装置103により得られた場合を想定する。また、カメラ102が入店者を検出して対応する属性情報206を作成した場合を想定する。この時のstart_time302の値を、仮に「時刻T」とする。
【0035】
上記想定のもと、前述の方法に従って「時刻T」における推定点1007を求める。次に、動線A1001・動線B1002のそれぞれについて「時刻T」に最も近い時刻における位置測定装置103が測定した位置を、それぞれ位置A1003、位置B1004とする。この時、位置A1003と推定点1007との距離を距離A1005、位置B1004と推定点1007との距離を距離B1006を求める。距離A1005と距離B1006とを比較すると、距離A1005の方が小さい。すなわち、「時刻T」においてカメラ102に映った顔の位置から推定された推定点1007に最も近い場所に存在したのが動線Aに対応する人だと判断できる。
このように、スコアを導入することで、複数人が出入口105から入店した場合においても、属性情報206と対応させるべき人を適切に選び出すことが可能となる。
【0036】
尚、上記では説明を簡単にするため、スコアとしてstart_time302に対応する推定点と前記時刻に最も近い時刻における人の位置との距離をスコアとしたが、左記に加えてend_time303に対応する推定点と前記時刻に最も近い時刻における人の位置との距離の合計値をスコアとした方が、より精度が高まる。
【0037】
<動線と属性との対応方法>
以上に基づき、動線情報205と属性情報206とが与えられた場合に、動線属性情報管理部203が動線属性対応情報207を作成する方法について説明する。
動線属性対応情報207は
図5に示すように、face_id301とhuman_id401とを対応付ける表で構成される。
【0038】
以下、
図8と
図9のフローチャートとを用いて、動線属性対応情報207を作成する手順を説明する。
まず、属性情報206から上から順に一行取り出す(ステップ901)。
次に、動線情報205の中の各human_id401毎に、ステップ901で取り出した属性のstart_time302、end_time303ぞれぞれに対して最も近いtime402を持つ行を探す(ステップ902)。例えば、human_id401が「1」のものが含まれていたとすると、
図8の動線T'809に示すように、顧客が店舗を時々刻々と移動しているうち、前記start_time302に最も近いtime402の時に、位置S'804、同様に前記end_time303に最も近いtime402の時に、位置E'808に存在したということが分かる。
ここで、前記start_time302を始点、前記end_time303を終点とすると、カメラ画像601において、人物の顔の中心はそれぞれ始点605、終点607に対応することになる。
【0039】
次に、上記で説明したように、カメラ画像内で始点605、終点607に対応する交点S606、交点E608を求め、実空間上で対応する交点S'801、交点E'805を求める。これらの情報を用い、ステップ901で取得した顔の中心位置のy座標値start_cy305、end_cy307から、推定点S'802、推定点E'806を推定する(ステップ903)。
さらに、各human_id毎に推定点S'802と位置S'804との距離RS'803、および推定点E'806と位置E'808との距離RE'807を求め、距離RS'803と距離RE'807との合計値をスコアとする(ステップ904)。
【0040】
以上により、face_id301ひとつにつき、各human_id401とスコアとの組の情報が得られることになる。この中からスコアを最小とするhuman_id401を選ぶ(ステップ905)。これにより、face_id301に対応したhuman_id401をひとつ与えることができ、face_id301とhuman_id301との組を動線属性対応情報207として記録する(ステップ906)。
上述の手順を属性情報205の項目がなくなるまで繰り返し(ステップ907)、動線属性対応情報207の作成を終了する。
【0041】
以上のようにして店舗内でカメラ102と位置測定装置103との測定情報から得られた顧客の属性と動線とを、上記の手法で対応付けることにより、属性情報付きの動線が得られる。これを元にして、どの属性を持つ顧客が店舗内をどのように回遊しているかなどを分析することができ、店舗の売上向上の施策の計画に利用できる。