(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024180001
(43)【公開日】2024-12-26
(54)【発明の名称】情報処理プログラム、情報処理方法および情報処理装置
(51)【国際特許分類】
G06Q 30/0241 20230101AFI20241219BHJP
【FI】
G06Q30/0241
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2023099399
(22)【出願日】2023-06-16
(71)【出願人】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】菊地 高史
(72)【発明者】
【氏名】宮原 捺希
(72)【発明者】
【氏名】遠藤 ありす
(72)【発明者】
【氏名】木幡 駿
【テーマコード(参考)】
5L030
5L049
【Fターム(参考)】
5L030BB08
5L049BB08
(57)【要約】
【課題】電子機器の配置された場所の周辺環境を考慮して、電子機器を操作すること。
【解決手段】情報処理装置は、施設内で撮影した映像を取得する。情報処理装置は、取得をした映像を分析することで、施設内での人物の軌跡を追跡する。情報処理装置は、追跡をした人物の軌跡に基づいて、施設内での人物の軌跡に関するヒートマップを生成する。情報処理装置は、生成されたヒートマップおよび施設内に配置された電子機器の位置情報に基づいて、施設内の環境設定に関する情報を生成する。情報処理装置は、環境設定に関する情報に基づいて、電子機器に、環境設定に関する処理を実行させる。
【選択図】
図3
【特許請求の範囲】
【請求項1】
施設内で撮影した映像を取得し、
取得をした前記映像を分析することで、前記施設内での人物の軌跡を追跡し、
追跡をした前記人物の軌跡に基づいて、前記施設内での前記人物の軌跡に関するヒートマップを生成し、
生成された前記ヒートマップおよび前記施設内に配置された電子機器の位置情報に基づいて、前記施設内の環境設定に関する情報を生成し、
前記環境設定に関する情報に基づいて、前記電子機器に、前記環境設定に関する処理を実行させる
処理をコンピュータに実行させることを特徴とする情報処理プログラム。
【請求項2】
前記環境設定に関する情報は、前記電子機器に表示させるコンテンツの種類、前記施設内に配置された照明機器の照度、前記電子機器が前記施設内に流す音楽の種類、前記電子機器が前記施設内に散布する香水の種類、の何れかであることを特徴とする請求項1に記載の情報処理プログラム。
【請求項3】
前記分析する処理は、取得をした前記映像に含まれる、第一の期間での前記人物の第一の移動軌跡を特定し、特定した前記第一の移動軌跡に基づいて、前記第一の期間後の第二の期間での前記人物の第二の移動軌跡を予測し、取得した前記映像を分析することで、前記第二の期間の人物の実際の移動軌跡を示す第三の移動軌跡を特定し、
前記ヒートマップを生成する処理は、前記第二の移動軌跡と前記第三の移動軌跡との誤差を領域毎に示す前記ヒートマップを生成することを特徴とする請求項1に記載の情報処理プログラム。
【請求項4】
前記ヒートマップを基にして、誤差が所定の条件を満たす第一の注目領域と、前記第一の注目領域における人物を抽出し、
抽出した前記第一の注目領域における人物の骨格情報に基づいて、前記人物の第一の行動を特定し、
特定した前記人物の第一の行動が所定の行動である場合に、前記第一の注目領域に位置する前記電子機器に、前記所定の行動と対応付けられた環境設定に関する処理を実行させる処理を更にコンピュータに実行させることを特徴とする請求項3に記載の情報処理プログラム。
【請求項5】
人物の行動と環境設定に関する情報とをペアとする複数の訓練データを基にして訓練した機械学習モデルに、前記第一の注目領域における前記人物の第一の行動を入力することで、前記施設内での環境設定に関する情報を生成し、
前記電子機器によって、前記環境設定に関する処理が実施された後に、前記第一の注目領域における前記人物を含む映像を分析することで、前記人物の第二の行動を特定し、
特定された前記人物の第二の行動が所定の行動でない場合に、前記複数の訓練データから、前記第一の行動と前記環境設定に関する情報とのペアに対応する訓練データを除外した残りの訓練データを基にして、前記機械学習モデルを再訓練する処理を更にコンピュータに実行させることを特徴とする請求項4に記載の情報処理プログラム。
【請求項6】
施設内で撮影した映像を取得し、
取得をした前記映像を分析することで、前記施設内での人物の軌跡を追跡し、
追跡をした前記人物の軌跡に基づいて、前記施設内での前記人物の軌跡に関するヒートマップを生成し、
生成された前記ヒートマップおよび前記施設内に配置された電子機器の位置情報に基づいて、前記施設内の環境設定に関する情報を生成し、
前記環境設定に関する情報に基づいて、前記電子機器に、前記環境設定に関する処理を実行させる
処理をコンピュータが実行することを特徴とする情報処理方法。
【請求項7】
施設内で撮影した映像を取得し、
取得をした前記映像を分析することで、前記施設内での人物の軌跡を追跡し、
追跡をした前記人物の軌跡に基づいて、前記施設内での前記人物の軌跡に関するヒートマップを生成し、
生成された前記ヒートマップおよび前記施設内に配置された電子機器の位置情報に基づいて、前記施設内の環境設定に関する情報を生成し、
前記環境設定に関する情報に基づいて、前記電子機器に、前記環境設定に関する処理を実行させる
処理を実行する制御部を有する情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理プログラム等に関する。
【背景技術】
【0002】
近年では、屋外、店頭、公共の空間、交通機関等の多様な場所において、ネットワークに接続された電子機器のディスプレイ等を用いて情報を発信する、デジタルサイネージと称されるメディアが普及しつつある。また、公共の空間に限らず、例えば、企業等のオフィスにおいても、従業員に対する情報共有の支援や、企業の情報統制等を目的として、デジタルサイネージの活用が注目されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ここで、電子機器は、ネットワークを通じて、サーバー装置が配信したコンテンツを受信するとともに、受信したコンテンツを出力する。しかしながら、電子機器の配置された場所の周辺環境に合ったコンテンツを配信することができないという問題がある。このとき、電子機器は、自装置の配置された場所の周辺環境を識別するために、電子機器の配置された周辺環境をセンシングすることが考えられる。しかしながら、周辺環境をセンシングするためには、電子機器に専用のセンサーを搭載する必要がある。したがって、電子機器にセンサーが搭載されていない場合は、電子機器は周辺環境をセンシングすることができない。
【0005】
1つの側面では、電子機器の配置された場所の周辺環境を考慮して、電子機器を操作することができる情報処理プログラム、情報処理方法および情報処理装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
第1の案では、コンピュータに次の処理を実行させる。コンピュータは、施設内で撮影した映像を取得する。コンピュータは、取得をした映像を分析することで、施設内での人物の軌跡を追跡する。コンピュータは、追跡をした人物の軌跡に基づいて、施設内での人物の軌跡に関するヒートマップを生成する。コンピュータは、生成されたヒートマップおよび施設内に配置された電子機器の位置情報に基づいて、施設内の環境設定に関する情報を生成する。コンピュータは、環境設定に関する情報に基づいて、電子機器に、環境設定に関する処理を実行させる。
【発明の効果】
【0007】
電子機器の配置された場所の周辺環境を考慮して、電子機器を操作することができる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、本実施例1に係るシステムの一例を示す図である。
【
図2】
図2は、本実施例1に係る情報処理装置の処理の一例を説明するための図である。
【
図3】
図3は、ヒートマップの一例を示す図である。
【
図4】
図4は、生成ポリシーテーブルのデータ構造の一例を示す図である。
【
図5】
図5は、本実施例1に係る情報処理装置の構成を示す機能ブロック図である。
【
図6】
図6は、カメラパラメータテーブルのデータ構造の一例を示す図である。
【
図7】
図7は、映像バッファのデータ構造の一例を示す図である。
【
図8】
図8は、第一の機械学習モデルの一例を示す図である。
【
図9】
図9は、移動軌跡テーブルのデータ構造の一例を示す図である。
【
図10】
図10は、誤差データベースのデータ構造の一例を示す図である。
【
図11】
図11は、電子機器位置情報のデータ構造の一例を示す図である。
【
図12】
図12は、商品情報テーブルのデータ構造の一例を示す図である。
【
図13】
図13は、本実施例1に係る情報処理装置の処理手順を示すフローチャートである。
【
図14】
図14は、本実施例2に係る情報処理装置の処理の一例を説明するための図である。
【
図17】
図17は、ルールテーブルのデータ構造の一例を示す図である。
【
図18】
図18は、訓練データテーブルのデータ構造の一例を示す図である。
【
図19】
図19は、本実施例2に係る情報処理装置の構成を示す機能ブロック図である。
【
図20】
図20は、本実施例2に係る情報処理装置の処理手順を示すフローチャート(1)である。
【
図21】
図21は、本実施例2に係る情報処理装置の処理手順を示すフローチャート(2)である。
【
図22】
図22は、実施例の情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
【発明を実施するための形態】
【0009】
以下に、本願の開示する情報処理プログラム、情報処理方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
【実施例0010】
図1は、本実施例1に係るシステムの一例を示す図である。
図1に示すように、本実施例1に係るシステムは、カメラ10a,10b,10cと、情報処理装置100とを有する。また、本実施例1に係るシステムは、表示装置15a,15b,15cと、照明機器16a,16b,16cと、スピーカ17a,17b,17cとを有する。
【0011】
カメラ10a~10cと、情報処理装置100とは、ネットワークを介して相互に接続される。表示装置15a~15c、照明機器16a~16c、および、スピーカ17a~17cと、情報処理装置100とは、ネットワークを介して相互に接続される。
【0012】
図1では説明の便宜上、カメラ10a~10cのみを示すが、本実施例1に係るシステムは、他のカメラを有していてもよい。同様に、表示装置15a~15cのみを示すが、システムは、他の表示装置を有していてもよい。照明機器16a~16cのみを示すが、システムは、他の照明機器を有していてもよい。スピーカ17a~17cのみを示すが、システムは、他のスピーカを有していてもよい。
【0013】
以下の説明では、適宜、カメラ10a~10cをまとめて、「カメラ10」と表記する。表示装置15a~15cをまとめて、「表示装置15」と表記する。照明機器16a~16cをまとめて、「照明機器16」と表記する。スピーカ17a~17cをまとめて、「スピーカ17」と表記する。更に、表示装置15、照明機器16、スピーカ17をまとめて、「電子機器」と表記する。カメラ10、電子機器は、それぞれ、店内の所定の位置であって、事前に設定された位置に配置される。
【0014】
カメラ10は、映像を撮影し、撮影した映像のデータを、情報処理装置100に送信する。以下の説明では、カメラ10が情報処理装置100に送信する映像のデータを、「映像データ」と表記する。本実施例1では、人物が撮影された映像データを用いて説明する。
【0015】
映像データには、時系列の複数の画像フレームが含まれる。各画像フレームには、時系列の昇順に、フレーム番号が付与される。1つの画像フレームは、カメラ10があるタイミングで撮影した静止画像である。各画像フレームには、時刻のデータが付与されていてもよい。映像データには、映像データを撮影したカメラ10を識別するカメラ識別情報が設定される。
【0016】
情報処理装置100は、映像データを基にして、顧客の過去の移動軌跡から予測した人物の移動軌跡と、映像データを解析して特定した実際の移動軌跡とを比較し、各移動軌跡の誤差を領域毎に示すヒートマップを生成する。
【0017】
情報処理装置100は、生成したヒートマップ、および、店内に配置された電子機器の位置情報を基にして、環境設定に関する情報を生成し、生成した環境設定に関する処理を電子機器に実行させる。
【0018】
図2は、本実施例1に係る情報処理装置の処理の一例を説明するための図である。情報処理装置100は、映像データ20に含まれる各画像フレームを基にして、人物の領域21を検出および追跡し、人物の位置を特定する。情報処理装置100は、時刻t-nから、現在の時刻tまでの画像フレームについて上記処理を繰り返し実行することで、時刻t-n~tの人物の時系列の位置情報を取得する。以下の説明では、時刻t-n~tまでの期間を「第一の期間」と表記する。第一の期間の人物の時系列の位置情報を「第一の移動軌跡」と表記する。
【0019】
たとえば、第一の移動軌跡は、時系列の位置(座標)が設定され、[(x
t-n,y
t-n),(x
t-n+1,y
t-n+1),・・・,(x
t,y
t)]となる。
図2では、第一の移動軌跡を、第一の移動軌跡22aとする。第一の移動軌跡の時系列の位置は、画像フレームの時刻に対応付けられる。
【0020】
情報処理装置100は、第一の移動軌跡を、訓練済みの第一の機械学習モデルに入力することで、時刻t+1~t+mまでの人物の時系列の位置情報を予測する。第一の機械学習モデルは、LSTM(Long Short Term Memory)、Transformer等である。以下の説明では、時刻t+1~t+mまでの期間を「第二の期間」と表記する。第一の移動軌跡を、訓練済みの第一の機械学習モデルに入力することで予測される、第二の期間の人物の時系列の位置情報を「第二の移動軌跡」と表記する。
【0021】
たとえば、第二の移動軌跡は、時系列の位置(座標)が設定され、[(x’
t+1,y’
t+1),・・・,(x’
t+m,y
t+m)]となる。
図2では、第二の移動軌跡を、第二の移動軌跡22bとする。なお、第二の移動軌跡の開始の位置を「(x’
t,y’
t)」としてもよい。
【0022】
情報処理装置100は、映像データ20の時刻t+1から、時刻t+mまでの画像フレームについて、人物の領域21を検出および追跡することで、時刻t+1~t+mの人物の時系列の位置情報であって、実際の位置情報を取得する。以下の説明では、時刻t+1~t+mの人物の時系列の位置情報であって、実際の位置情報を「第三の移動軌跡」と表記する。
【0023】
たとえば、第三の移動軌跡は、時系列の位置(座標)が設定され、[(x
t+1,y
t+1),・・・,(x
t+m,y
t+m)]となる。
図2では、第三の移動軌跡を、第三の移動軌跡22cとする。第三の移動軌跡の時系列の位置は、画像フレームの時刻に対応付けられる。なお、第三の移動軌跡の開始の位置を「(x
t,y
t)」としてもよい。
【0024】
情報処理装置100は、第二の移動軌跡22bと、第三の移動軌跡22cとの誤差eを算出する。誤差eには、第二の移動軌跡22bと、第三の移動軌跡22cとの時刻毎の誤差が設定される。たとえば、時刻t+1の誤差et+1は、(x’t+1,y’t+1)と(xt+1,yt+1)との誤差となる。
【0025】
情報処理装置100は、
図2の処理によって算出した誤差eを基にして、ヒートマップを生成する。
図3は、ヒートマップの一例を示す図である。たとえば、ヒートマップ30は、複数の領域に分割され、領域毎に、所定期間毎の誤差eの積算値が設定される。情報処理装置100は、ヒートマップ30を基にして、領域毎の誤差eの積算値が閾値Th1以上となる領域を、「注目領域」として抽出する。注目領域において、顧客は、何らかの影響によって、通常とは異なる移動を行いやすい領域であり、顧客に注目されやすい領域である。通常とは異なる行動は、立ち止まる等である。
【0026】
情報処理装置100は、ヒートマップ30を基にして、領域毎の誤差eの積算値が閾値Th2未満となる領域を、「非注目領域」として抽出する。非注目領域において、顧客は、通常と同様の行動を行いやすい領域であり、顧客に注目されにくい領域である。
【0027】
たとえば、閾値Th1、閾値Th2は予め設定される閾値であり、閾値Th1および閾値Th2の大小関係を閾値Th1>閾値Th2とする。
【0028】
図3に示す例では、情報処理装置100は、ヒートマップ30の複数の領域のうち、領域31a,32a,33aを、注目領域として抽出する。また、情報処理装置100は、領域31b,32b,33bを、非注目領域として抽出する。便宜的に、ヒートマップ30における、電子機器(表示装置15、照明機器16、スピーカ17)の位置もあわせて表示する。
【0029】
情報処理装置100は、ヒートマップ30、および、店内に配置された電子機器の位置情報を基にして、環境設定に関する情報を生成し、電子機器に環境設定に関する処理を実行させる。たとえば、情報処理装置100は、生成ポリシーテーブルを基にして、環境設定情報を生成する。
【0030】
図4は、生成ポリシーテーブルのデータ構造の一例を示す図である。
図4に示すように、生成ポリシーテーブル140hは、電子機器種別、第一ポリシー、第二ポリシーを対応付ける。電子機器種別は、電子機器の種別を示す。たとえば、電子機器の種別は、表示装置、照明機器、スピーカの何れかとなるが、他の種別の電子機器が設定されてもよい。
【0031】
第一ポリシーは、該当する電子機器が、注目領域に含まれている場合に、係る電子機器に設定する環境設定に関する情報を生成するポリシーを示す。
【0032】
図3において、表示装置15aは、注目領域となる領域31aに位置している。情報処理装置100は、電子機器種別「表示装置」の第一ポリシー「初期設定の商品の情報を表示」に基づいて、表示装置15aの環境設定に関する情報を生成する。たとえば、情報処理装置100は、表示装置15aの近くに位置する商品棚cab1に配置された商品の情報であって、初期設定の商品の情報を生成し、表示装置15aに出力して表示させる。既に注目されている領域において、商品の情報を表示させることで、顧客が商品の情報を参照してくれる可能性が高い。なお、商品の情報には、商品の特徴、利点、付加価値、価格、販売方法等の情報が含まれる。
【0033】
なお、情報処理装置100は、訓練済みの第二の機械学習モデルを用いて、商品の情報を生成してもよい。第二の機械学習モデルは、商品の画像を入力した場合に、かかる商品の広告情報を出力するモデルである。情報処理装置100は、カメラ10が撮影した、領域31aの画像フレームを解析することで、商品棚cab1の商品の画像を抽出し、抽出した画像を、第二の機械学習モデルに入力することで、商品の情報を生成する。
【0034】
照明機器16bは、注目領域となる領域32aに位置している。情報処理装置100は、電子機器種別「照明機器」の第一ポリシー「初期設定の照度に保つ」に基づいて、照明機器16bの環境設定に関する情報を生成する。たとえば、情報処理装置100は、照明機器16bに、初期設定の照度パラメータを生成し、照明機器16bに出力することで、照明機器16bの照明を制御する。既に注目されている領域であるため、情報処理装置100は、照明機器16bの照度を初期の状態に保つ。
【0035】
スピーカ17cは、注目領域となる領域33aに位置している。情報処理装置100は、電子機器種別「スピーカ」の第一ポリシー「初期設定の商品の情報を再生」に基づいて、スピーカ17cの環境設定に関する情報を生成する。たとえば、情報処理装置100は、スピーカ17cの近くに位置する商品棚cab3に配置された商品を説明する音声情報を生成し、スピーカ17cに出力することで、スピーカ17cに商品を説明する音声情報を再生させる。既に注目されている領域であるため、スピーカ17cから再生される商品を説明する音声情報を、顧客に聞いてもらうことができる。
【0036】
第二ポリシーは、電子機器が、非注目領域に含まれている場合に、係る電子機器に設定する環境設定情報を生成するポリシーを示す。
【0037】
図3において、表示装置15cは、非注目領域となる領域31bに位置している。情報処理装置100は、電子機器種別「表示装置」の第二ポリシー「初期設定の商品の情報を強調表示」に基づいて、表示装置15cの環境設定に関する情報を生成する。たとえば、情報処理装置100は、表示装置15cの近くに位置する商品棚cab2に配置された商品の情報であって、初期設定の商品の情報(強調表示)を生成し、表示装置15aに出力して表示させる。注目されていない領域において、商品の情報を強調して表示させることで、顧客が足を止めて、商品の情報を参照してくれる可能性が高い。情報処理装置100は、どのように商品の情報を強調表示させてもよいが、たとえば、商品の情報の画面の枠を点滅させるなどの強調表示を行う。
【0038】
なお、情報処理装置100は、上述した第二の機械学習モデルを用いて、商品の情報を生成し、生成した商品の情報を、強調表示用に更新し、更新した商品の情報を、表示装置15aに出力して表示させてもよい。
【0039】
照明機器16aは、非注目領域となる領域32bに位置している。情報処理装置100は、電子機器種別「照明機器」の第二ポリシー「照度を上げる」に基づいて、照明機器16aの環境設定に関する情報を生成する。たとえば、情報処理装置100は、照明機器16aに、初期設定から所定値分だけ照度値を上げた、照度パラメータを生成し、照明機器16aに出力することで、照明機器16aの照明を制御する。情報処理装置100は、注目されていない領域において、照明機器16aの照度を上げて明るくすることで、商品を見やすくし、商品に対する顧客の注目具合を向上させることができる。
【0040】
スピーカ17aは、非注目領域となる領域33bに位置している。情報処理装置100は、電子機器種別「スピーカ」の第二ポリシー「流行の音楽を流す」に基づいて、スピーカ17aの環境設定に関する情報を生成する。たとえば、情報処理装置100は、スピーカ17aに、流行の音楽の情報を生成し、スピーカ17aに出力することで、スピーカ17aに流行の音楽を再生させる。注目されていない領域において、スピーカ17aから流行の音楽を再生させることで、顧客が足を止めて、周辺の商品に目を向けさせることができる。
【0041】
上記のように、情報処理装置100は、映像データを基にして、顧客の過去の移動軌跡から予測した人物の移動軌跡と、映像データを解析して特定した実際の移動軌跡とを比較し、各移動軌跡の誤差を領域毎に示すヒートマップを生成する。情報処理装置100は、ヒートマップ、および、店内に配置された電子機器の位置情報を基にして、環境設定に関する情報を生成し、生成した環境設定に関する処理を電子機器に実行させる。これによって、電子機器の配置された場所の周辺環境を考慮して、電子機器を操作することができる。
【0042】
次に、上述した情報処理装置100の構成例について説明する。
図5は、本実施例1に係る情報処理装置の構成を示す機能ブロック図である。
図5に示すように、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
【0043】
通信部110は、ネットワークを介して、カメラ10、表示装置15、照明機器16、スピーカ17、外部装置等との間でデータ通信を実行する。通信部110は、NIC(Network Interface Card)等である。たとえば、通信部110は、カメラ10から、映像データを受信する。通信部110は、制御部150によって生成される環境設定に関する情報を、表示装置15、照明機器16、スピーカ17等に送信する。
【0044】
入力部120は、情報処理装置100の制御部150に各種の情報を入力する入力装置である。たとえば、入力部120は、キーボードやマウス、タッチパネル等に対応する。
【0045】
表示部130は、制御部150から出力される情報を表示する表示装置である。
【0046】
記憶部140は、カメラパラメータテーブル140a、映像バッファ140b、第一の機械学習モデル140c、移動軌跡テーブル140d、誤差データベース140e、第二の機械学習モデル140fを有する。また、記憶部140は、電子機器位置情報140g、生成ポリシーテーブル140h、商品情報テーブル140i、照明設定情報140j、音楽DB140kを有する。記憶部140は、メモリなどの記憶装置である。
【0047】
カメラパラメータテーブル140aは、カメラ10のカメラパラメータに関する情報を保持する。
図6は、カメラパラメータテーブルのデータ構造の一例を示す図である。
図6に示すように、カメラパラメータテーブル140aは、カメラ識別情報と、カメラパラメータとが対応付けられる。また、カメラパラメータテーブル140aは、該当するカメラ10の撮影範囲に対応するマップ上の領域を識別する情報を更に保持してもよい。
【0048】
カメラ識別情報は、カメラ10を識別する情報である。たとえば、カメラ10a,10b,10cのカメラ識別情報をそれぞれ、Ca10a,Ca10b,Ca10cとする。カメラパラメータは、カメラ内部パラメータ、カメラ外部パラメータ等である。カメラパラメータは、キャリブレーション等に基づいて、事前に設定される。
【0049】
映像バッファ140bは、カメラが撮影した映像データを保持する。
図7は、映像バッファのデータ構造の一例を示す図である。
図7に示すように、映像バッファ140bは、カメラ識別情報と、映像データとを対応付ける。カメラ識別情報、映像データに関する説明は、上記の説明と同様である。
【0050】
第一の機械学習モデル140cは、第一の期間の第一の移動軌跡を入力とし、第二の期間の第二の移動軌跡を出力とする訓練済みの機械学習モデルである。
図8は、第一の機械学習モデルの一例を示す図である。
図8に示すように、第一の機械学習モデル140cは、エンコーダと、デコーダとを有する。エンコーダのLSTMに、第一の移動軌跡の位置情報が時系列に入力されると、情報が、デコーダに入力され、デコーダのLSTMから、第二の移動軌跡の位置情報が時系列に出力させる。
図8では、第一の機械学習モデル140cを、LSTMによって実現する場合について説明したが、Transformer等を代わりに用いてもよい。
【0051】
移動軌跡テーブル140dは、人物の各移動軌跡に関する情報を保持する。
図9は、移動軌跡テーブルのデータ構造の一例を示す図である。
図9に示すように、この移動軌跡テーブル140dは、人物IDと、第一の移動軌跡と、第二の移動軌跡と、第三の移動軌跡とを対応付ける。人物IDは、映像データから検出される人物に割り当てられる識別情報である。第一の移動軌跡、第二の移動軌跡、第三の移動軌跡の説明は、上述した説明と同様である。
【0052】
誤差データベース140eは、マップ上の各領域と、所定期間毎の誤差との関係を保持する。マップは、店内のマップである。
図10は、誤差データベースのデータ構造の一例を示す図である。
図10に示すように、この誤差データベース140eは、領域IDと、位置情報と、誤差情報とを対応付ける。領域IDは、店内の領域を識別する情報である。位置情報は、領域IDによって識別される領域の位置情報である。たとえば、位置情報には、領域の左上隅の位置、領域の右下隅の位置が設定される。
【0053】
誤差情報には、該当する領域における各期間の誤差の積算値が設定される。たとえば、第1期間~第N期間は、24時間をN等分した期間である。
【0054】
第二の機械学習モデル140fは、商品の画像を入力とし、かかる商品の広告情報を出力とする訓練済みの機械学習モデルである。第二の機械学習モデル140fは、NN等である。
【0055】
電子機器位置情報140gは、電子機器の識別情報と、この電子機器が設置されたマップ上の領域の領域IDとを対応付ける。
図11は、電子機器位置情報のデータ構造の一例を示す図である。
図11に示すように、この電子機器位置情報140gは、電子機器の識別情報と、領域IDとを対応付ける。たとえば、電子機器識別情報D15a~15cは、表示装置15a~15cに対応する。電子機器識別情報D16a~16cは、照明機器16a~16cに対応する。電子機器識別情報D17a~17cは、スピーカ17a~17cに対応する。
【0056】
生成ポリシーテーブル140hは、電子機器種別、第一ポリシー、第二ポリシーを対応付ける。生成ポリシーテーブル140hのデータ構造は、
図4で説明したデータ構造である。
【0057】
商品情報テーブル140iは、マップ上の領域の領域IDと、係る領域の商品棚に配置された商品の情報を保持する。商品の情報は、商品の特徴、利点、付加価値、価格、販売方法等の情報が含まれる。
図12は、商品情報テーブルのデータ構造の一例を示す図である。
図12に示すように、商品情報テーブル140iは、領域IDと、商品の情報(テキスト情報および音声情報)とを対応付ける。たとえば、商品の情報(テキスト情報)は、表示装置15に表示させる広告情報である。商品の情報(音声情報)は、スピーカ17から再生される商品を説明する音声情報である。
【0058】
照明設定情報140jは、照明機器16の初期設定の照度パラメータを保持する。
【0059】
音楽DB140kは、流行の音楽の情報を格納する。
【0060】
図5の説明に戻る。制御部150は、取得部151、前処理部152、生成部153、設定部154を有する。制御部150は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等である。
【0061】
取得部151は、カメラ10から映像データを取得する。上記のように、映像データには、映像データを撮影したカメラ10のカメラ識別情報が設定されている。取得部151は、カメラ識別情報に対応付けて、映像データを映像バッファ140bに格納する。
【0062】
前処理部152は、特定処理、予測処理、算出処理を実行することで、誤差データベース140eを生成する。以下において、特定処理、予測処理、算出処理について、順に説明する。
【0063】
前処理部152が実行する特定処理について説明する。以下に説明するように、特定処理によって、第一の移動軌跡と、第三の移動軌跡とが特定される。
【0064】
前処理部152は、映像バッファ140bから映像データを取得し、映像データに含まれる各画像フレームを基にして、人物の領域を検出および追跡し、人物の位置を特定する。前処理部152は、同一の人物に対し、ユニークな人物IDを割り当てる。前処理部152は、時刻t-nから、現在の時刻tまでの画像フレームについて上記処理を繰り返し実行することで、時刻t-n~tの人物の時系列の位置を特定し、第一の移動軌跡を生成する。
【0065】
前処理部152は、画像フレームに設定された時刻を基にして、第一の移動軌跡に含まれる時系列の位置と、時刻とを対応付ける。以下の説明では、時系列の各位置が時刻に対応付けられた第一の移動軌跡を、単に、第一の移動軌跡と表記する。前処理部152は、人物IDと対応付けて、第一の移動軌跡を、移動軌跡テーブル140dに格納する。
【0066】
続いて、前処理部152は、第一の移動軌跡を生成した後、時刻t+mまで待機する。前処理部152は、映像バッファ140bから、時刻t+1~t+mまでの映像データを取得し、時刻t+1~t+mまでの画像フレームについて、人物の領域を検出および追跡することで、時刻t+1~t+mの人物の時系列の位置を特定し、第三の移動軌跡を生成する。
【0067】
前処理部152は、画像フレームに設定された時刻を基にして、第三の移動軌跡に含まれる時系列の位置と、時刻とを対応付ける。以下の説明では、時系列の各位置が時刻に対応付けられた第三の移動軌跡を、単に、第三の移動軌跡と表記する。前処理部152は、人物IDと対応付けて、第三の移動軌跡を、移動軌跡テーブル140dに格納する。
【0068】
前処理部152は、映像データを基にして、他の人物(人物ID)に関する第一の移動軌跡、第三の移動軌跡も同様に生成し、移動軌跡テーブル140dに格納する。
【0069】
ここで、前処理部152は、画像フレームに含まれる人物の領域を検出する場合には、YLOO(You Look Only Once)等の技術を用いてもよい。たとえば、前処理部152は、各画像フレームから検出する人物の領域を比較し、追跡条件を満たす領域を、同一の人物の領域として、人物の追跡を行う。追跡条件は、人物の領域の特徴の類似度が閾値以上であるという条件、人物の領域の距離が一定の距離未満であるとう条件等である。なお、前処理部152は、映像データの各画像フレームに含まれる人物の領域を検出し、人物の領域を追跡する場合に、DeepSort等の機械学習モデルを利用してもよい。
【0070】
次に、前処理部152が実行する予測処理について説明する。以下に説明するように、予測処理によって、第二の移動軌跡が予測される。
【0071】
前処理部152は、移動軌跡テーブル140dから、第一の移動軌跡を取得し、取得した第一の移動軌跡の時系列の位置を、第一の機械学習モデル140cに入力することで、第二の移動軌跡を予測する。前処理部152は、第二の移動軌跡を予測する場合に用いた第一の移動軌跡の人物IDを、第二の移動軌跡の人物IDとする。前処理部152は、人物IDと対応付けて、第二の移動軌跡を、移動軌跡テーブル140dに格納する。
【0072】
前処理部152は、他の人物IDの第二の移動軌跡も同様にして予測し、予測した第二の移動軌跡を、移動軌跡テーブル140dに格納する。
【0073】
次に、前処理部152が実行する算出処理について説明する。算出処理では、移動軌跡テーブル140dに格納された第二の移動軌跡と、第三の移動軌跡とを基にして、マップ上の各領域と、所定期間毎の誤差との関係を算出し、誤差データベース140eの誤差情報を更新する。以下において、算出処理の一例について説明する。
【0074】
前処理部152は、誤差データベース140eの各領域IDの誤差情報を初期値に設定しておく。たとえば、初期値を0(積算値=0)とする。
【0075】
前処理部152は、同一の人物IDの第二の移動軌跡と、第三の移動軌跡とを、移動軌跡テーブル140dから取得する。前処理部152は、第二の移動軌跡のn番目の位置と、第三の移動軌跡のn番目の位置との誤差e(xtn,ytn)を算出する。前処理部152は、第二の移動軌跡のn番目の位置およびn番目の位置に対応する時刻と、誤差データベース145の位置情報および第1期間~第N期間とを比較し、誤差e(xtn,ytn)を積算する対象を特定し、積算する。
【0076】
たとえば、第二の移動軌跡のn番目の位置が、領域ID「A1」の位置情報に含まれ、第二の移動軌跡のn番目の位置の時刻が、第1期間に含まれるものとする。この場合には、前処理部152は、領域ID「A1」の「第1期間」に設定されたこれまでの積算値に、誤差e(xtn,ytn)を積算する。
【0077】
前処理部152は、n(n=1~M)番目の位置について、上記処理を繰り返し実行する。また、前処理部152は、移動軌跡テーブル140dに登録された各人物IDの第二の移動軌跡と、第三の移動軌跡とを基にして、上記処理を繰り返し実行する。
【0078】
上記のように、前処理部152が、特定処理、予測処理、算出処理を実行することで、誤差データベース140eが生成される。ここで、誤差データベース140eは、マップ上の各領域と、各領域の各期間の積算値とを対応付けた情報であり、ヒートマップに対応する。
【0079】
生成部153は、ヒートマップに相当する誤差データベース140eと、電子機器位置情報140gに設定された電子機器の位置情報を基にして、店内の環境設定に関する情報を生成する。たとえば、生成部153は、抽出処理、生成処理を実行する。
【0080】
生成部153が実行する抽出処理について説明する。生成部153が抽出処理を実行することで、注目領域となる領域の領域IDと、非注目領域となる領域の領域IDとが抽出される。
【0081】
生成部153は、誤差データベース145の各領域IDのレコードに含まれる第1期間~第N期間の積算値を走査し、いずれかの期間の積算値が閾値Th1以上となる領域IDを特定する。生成部153は、特定した領域IDの領域を、注目領域として抽出する。なお、生成部153は、いずれかの期間の積算値の最大値または平均値が、閾値Th1以上となる領域IDの領域を、注目領域として抽出してもよい。以下の説明では適宜、注目領域となる領域の領域IDを、「注目領域ID」と表記する。
【0082】
また、生成部153は、誤差データベース145の各領域IDのレコードに含まれる第1期間~第N期間の積算値を走査し、いずれかの期間の積算値が閾値Th2未満となる領域IDを特定する。生成部153は、特定した領域IDの領域を、非注目領域として抽出する。なお、生成部153は、いずれかの期間の積算値の最大値または平均値が、閾値Th2未満となる領域IDの領域を、非注目領域として抽出してもよい。以下の説明では適宜、非注目領域となる領域の領域IDを、「非注目領域ID」と表記する。
【0083】
次に、生成部153が実行する生成処理について説明する。
【0084】
生成部153は、注目領域IDと、電子機器位置情報140gとを基にして、注目領域に配置されている電子機器を特定する。生成部153は、特定した電子機器に対応する環境設定に関する情報を生成する。ここでは一例として、注目領域に配置された電子機器を、
図3に示した表示装置15a、照明機器16b、スピーカ17cとして、生成部153の処理について説明する。
【0085】
生成部153が、表示装置15aの環境設定に関する情報を生成する処理について説明する。生成部153は、生成ポリシーテーブル140hに設定された、電子機器種別「表示装置」の第一ポリシー「初期設定の商品の情報を表示」に基づいて、表示装置15aの環境設定に関する情報を生成する。
【0086】
たとえば、生成部153は、表示装置15aが配置された領域の注目領域IDと、商品情報テーブル140iとを基にして、表示装置15aの近くに位置する商品棚cab1に配置された商品の情報を生成する。
【0087】
なお、生成部153は、第二の機械学習モデル140fを用いて、商品の情報を生成してもよい。生成部153は、表示装置15aの配置された注目領域IDの領域を撮影範囲に含むカメラ10の画像フレームから、商品棚cab1に配置された商品の画像を抽出する。生成部153は、抽出した商品の画像を、第二の機械学習モデル140fに入力することで、商品の情報を生成する。
【0088】
生成部153は、表示装置15aの識別情報と、生成した商品の情報とを対応付けた環境設定情報(1-1)を、設定部154に出力する。
【0089】
生成部153が、照明機器16bの環境設定に関する情報を生成する処理について説明する。生成部153は、生成ポリシーテーブル140hに設定された、電子機器種別「照明機器」の第一ポリシー「初期設定の照度に保つ」に基づいて、照明機器16bの環境設定に関する情報を生成する。
【0090】
たとえば、生成部153は、照明設定情報140iを基にして、照明機器16bに関する、初期設定の照度パラメータを生成する。
【0091】
生成部153は、照明機器16bの識別情報と、生成した照度パラメータとを対応付けた環境設定情報(1-2)を、設定部154に出力する。
【0092】
生成部153が、スピーカ17cの環境設定に関する情報を生成する処理について説明する。生成部153は、生成ポリシーテーブル140hに設定された、電子機器種別「スピーカ」の第一ポリシー「初期設定の商品の情報を再生」に基づいて、スピーカ17cの環境設定に関する情報を生成する。
【0093】
たとえば、生成部153は、スピーカ17cが配置された注目領域IDと、商品情報テーブル140iとを基にして、スピーカ17cの近くに位置する商品棚cab3に配置された商品の情報(音声情報)を生成する。
【0094】
生成部153は、スピーカ17cの識別情報と、生成した商品の情報(音声情報)とを対応付けた環境設定情報(1-3)を、設定部154に出力する。
【0095】
続いて、生成部153は、非注目領域IDと、電子機器位置情報140gとを基にして、非注目領域に配置されている電子機器を特定する。生成部153は、特定した電子機器に対応する環境設定に関する情報を生成する。ここでは一例として、非注目領域に配置された電子機器を、
図3に示した表示装置15c、照明機器16a、スピーカ17aとして、生成部153の処理について説明する。
【0096】
生成部153が、表示装置15cの環境設定に関する情報を生成する処理について説明する。生成部153は、生成ポリシーテーブル140hに設定された、電子機器種別「表示装置」の第二ポリシー「初期設定の商品の情報を強調表示」に基づいて、表示装置15cの環境設定に関する情報を生成する。
【0097】
たとえば、生成部153は、表示装置15cが配置された領域の非注目領域IDと、商品情報テーブル140iとを基にして、表示装置15cの近くに位置する商品棚cab2に配置された商品の情報を生成する。
【0098】
なお、生成部153は、第二の機械学習モデル140fを用いて、商品の情報を生成してもよい。生成部153は、表示装置15cの配置された非注目領域IDの領域を撮影範囲に含むカメラ10の画像フレームから、商品棚cab2に配置された商品の画像を抽出する。生成部153は、抽出した商品の画像を、第二の機械学習モデル140fに入力することで、商品の情報を生成する。
【0099】
生成部153は、生成した商品の情報に対し、商品の情報の画面の枠を点滅させるなどの強調表示を実行させるための情報を設定する。
【0100】
生成部153は、表示装置15cの識別情報と、生成した商品の情報(強調表示)とを対応付けた環境設定情報(2-1)を、設定部154に出力する。
【0101】
生成部153が、照明機器16aの環境設定に関する情報を生成する処理について説明する。生成部153は、生成ポリシーテーブル140hに設定された、電子機器種別「照明機器」の第二ポリシー「照度を上げる」に基づいて、照明機器16aの環境設定に関する情報を生成する。
【0102】
たとえば、生成部153は、照明設定情報140iを基にして、照明機器16aに関する、初期設定の照度パラメータを取得し、初期設定から所定値分だけ照度値を上げた、照度パラメータを生成する。
【0103】
生成部153は、照明機器16aの識別情報と、生成した照度パラメータとを対応付けた環境設定情報(2-2)を、設定部154に出力する。
【0104】
生成部153が、スピーカ17aの環境設定に関する情報を生成する処理について説明する。生成部153は、生成ポリシーテーブル140hに設定された、電子機器種別「スピーカ」の第二ポリシー「流行の曲を流す」に基づいて、スピーカ17aの環境設定に関する情報を生成する。
【0105】
たとえば、生成部153は、音楽DB140kから、流行の音楽の情報を取得する。生成部153は、スピーカ17aの識別情報と、流行の音楽の情報とを対応付けた環境設定情報(2-3)を、設定部154に出力する。
【0106】
設定部154は、生成部153によって生成された環境設定情報を取得し、環境設定情報に設定された電子機器に対して、環境設定情報を出力することで、電子機器に環境設定に関する処理を実行させる。
【0107】
たとえば、設定部154は、生成部153から環境設定情報(1-1)を受け付けると、環境設定情報(1-1)を表示装置15aに出力し、設定することで、環境設定に関する処理を実行させる。表示装置15aは、環境設定情報(1-1)の商品の情報を表示する。
【0108】
設定部154は、生成部153から環境設定情報(1-2)を受け付けると、環境設定情報(1-2)を照明機器16bに出力し、設定することで、環境設定に関する処理を実行させる。照明機器16bは、環境設定情報(1-2)に基づいて、初期設定の照度に保つ。
【0109】
設定部154は、生成部153から環境設定情報(1-3)を受け付けると、環境設定情報(1-3)をスピーカ17cに出力し、設定することで、環境設定に関する処理を実行させる。スピーカ17cは、環境設定情報(1-3)に基づいて、商品の情報(音声情報)を再生する。
【0110】
設定部154は、生成部153から環境設定情報(2-1)を受け付けると、環境設定情報(2-1)を表示装置15cに出力し、設定することで、環境設定に関する処理を実行させる。表示装置15cは、環境設定情報(2-1)に基づいて、商品の情報を表示するとともに、商品の情報を強調表示する。たとえば、表示装置15cは、商品の情報の画面枠を点滅させるなどの強調表示を行う。
【0111】
設定部154は、生成部153から環境設定情報(2-2)を受け付けると、環境設定情報(2-2)を照明機器16aに出力し、設定することで、環境設定に関する処理を実行させる。照明機器16aは、環境設定情報(2-2)に基づいて、初期設定の照度値よりも、所定値分だけ照度値を上げる。
【0112】
設定部154は、生成部153から環境設定情報(2-3)を受け付けると、環境設定情報(2-3)をスピーカ17aに出力し、設定することで、環境設定に関する処理を実行させる。スピーカ17aは、環境設定情報(2-3)に基づいて、流行の音楽を再生する。
【0113】
次に、本実施例1に係る情報処理装置100の処理手順について説明する。
図13は、本実施例1に係る情報処理装置の処理手順を示すフローチャートである。
図13に示すように、情報処理装置100の取得部151は、カメラ10から映像データを取得し、映像バッファ140bに格納する(ステップS101)。
【0114】
情報処理装置100の前処理部152は、映像データを基にして、人物の検出および追跡を実行する(ステップS102)。前処理部152は、第一の期間の人物の検出結果および追跡結果を基にして、第一の移動軌跡を特定する(ステップS103)。
【0115】
前処理部152は、第一の移動軌跡を、第一の機械学習モデル140cに入力することで、第二の移動軌跡を予測する(ステップS104)。前処理部152は、第二の期間の人物の検出結果および追跡結果を基にして、第三の移動軌跡を特定する(ステップS105)。
【0116】
前処理部152は、第二の移動軌跡と、第三の移動軌跡とを基にして、誤差を算出し、誤差データベース140eを更新する(ステップS106)。
【0117】
情報処理装置100の生成部153は、誤差データベース140eを基にして、マップ上の注目領域と、非注目領域とを抽出する(ステップS107)。生成部153は、電子機器位置情報140gを基にして、注目領域に位置する電子機器と、非注目領域に位置する電子機器とを特定する(ステップS108)。
【0118】
生成部153は、生成ポリシーテーブル140hを基にして、注目領域に位置する電子機器の環境設定情報および非注目領域に位置する電子機器の環境設定情報を生成する(ステップS109)。
【0119】
情報処理装置100の設定部154は、該当する電子機器に環境設定情報を設定し、環境設定に関する処理を実行させる(ステップS110)。
【0120】
次に、本実施例1に係る情報処理装置100の効果について説明する。情報処理装置100は、映像データを基にして、顧客の過去の移動軌跡から予測した人物の移動軌跡と、映像データを解析して特定した実際の移動軌跡とを比較し、各移動軌跡の誤差を領域毎に示すヒートマップ(誤差データベース140e)を生成する。情報処理装置100は、生成したヒートマップ、および、店内に配置された電子機器の位置情報を基にして、環境設定に関する情報を生成し、生成した環境設定に関する処理を電子機器に実行させる。これによって、電子機器の配置された場所の周辺環境を考慮して、電子機器を操作することができる。
【0121】
情報処理装置100は、環境設定に関する情報として、表示装置15に表示させるコンテンツの種類、照明機器16の照度、スピーカ17が流す音楽の種類を設定し、該当する電子機器に出力する。これによって、表示装置、照明機器、スピーカを利用して、顧客に対して商品の購買意欲を向上させることができる。
【0122】
情報処理装置100は、映像データを基にして、第一の移動軌跡、第三の移動軌跡を特定し、第一の機械学習モデル140cに第一の移動軌跡を入力して、第二の移動軌跡を予測する。情報処理装置100は、第二の移動軌跡と、第三の移動軌跡との誤差を基にして、ヒートマップ(誤差データベース140e)を生成する。これによって、注目領域と、非注目領域とを特定するためのヒートマップを生成することができる。
【0123】
ところで、本実施例1では、電子機器として、表示装置15、照明機器16、スピーカ17を用いて説明したが、それ以外の電子機器を用いて、処理を行ってもよい。たとえば、情報処理装置100は、電子機器として、香水を店内に散布する電子機器を用いてもよい。以下の説明では、香水を店内に散布する電子機器を、「香水散布機」と表記する。香水散布機は、ネットワーク等を介して、情報処理装置100に接続される。
【0124】
情報処理装置100は、香水散布機が、注目領域に位置している場合には、香水散布機に、第一種別の香水を散布させるための環境設定情報を生成し、香水散布機に出力して設定する。一方、情報処理装置100は、香水散布機が、非注目領域に位置している場合には、第二種別の香水を散布させるための環境設定情報を生成し、香水散布機に出力して設定する。
【0125】
香水散布機は、第一種別の香水のタンクと、第二種別の香水のタンクとが予め設定されており、情報処理装置100によって設定された環境設定情報を基にして、香水を散布する。なお、第一種別の香水、第二種別の香水は、管理者によって予め選定される。
情報処理装置200は、ヒートマップを基にしてマップ上の注目領域を特定し、かかる注目領域を撮影範囲に含むカメラ10の映像データから、注目領域における人物の領域を抽出する。ここで、注目領域は、上記の注目領域IDに対応する領域である。情報処理装置200は、カメラ10の撮影範囲(マップ上の領域)の情報を保持しているものとする。
情報処理装置200は、映像データに含まれる人物の領域の画像を解析することで人物の骨格情報を生成し、骨格情報を基にして、人物の行動を特定する。情報処理装置200は、人物の行動が所定の行動である場合に、所定の行動と対応付けられた環境設定に関する情報を生成し、生成した環境設定に関する情報を、注目領域に位置する電子機器に出力して設定することで、環境設定に関する処理を実行させる。
情報処理装置200は、顧客を含む領域40aの画像を、訓練済みの第三の機械学習モデルに入力することで、顧客の骨格情報を生成する。第三の機械学習モデルは、人物の画像を入力とし、骨格情報を出力とする機械学習モデルである。たとえば、第三の機械学習モデルは、NN等である。
情報処理装置200は、時系列の画像フレームから抽出した顧客の領域の画像を、第三の機械学習モデルに順に入力することで、時系列の骨格情報を生成する。情報処理装置200は、生成した時系列の骨格情報と、ルールテーブルとを基にして、顧客の行動を特定する。たとえば、ルールテーブルは、骨格情報の所定の関節の位置の推移と、人物の行動の種別との関係を定義したテーブルである。所定の関節は、事前に設定される。
情報処理装置200は、ルールテーブル240aを基にして特定した行動種別が、所定の行動種別である場合に、注目領域に位置する電子機器に、所定の行動と対応付けられた環境設定に関する処理を実行させる。所定の行動種別は、事前に設定される。
たとえば、情報処理装置200は、特定した行動種別が「行動X1」である場合に、行動種別「行動X1」の情報を、第四の機械学習モデルに入力することで、環境設定に関する情報を生成する。第四の機械学習モデルは、人物の行動種別を入力とし、環境設定に関する情報を出力とする機械学習モデルである。第四の機械学習モデルは、NN等である。
情報処理装置200は、生成した環境設定に関する情報を、表示装置15aに設定して、環境設定に関する処理を実行させる。たとえば、情報処理装置200は、環境設定に関する情報として、商品の広告情報を表示装置15aに設定し、商品の広告情報を、表示装置15aに表示させる。
情報処理装置200は、第二の行動種別が、予め設定された行動種別に含まれない場合に、第一の行動種別と、かかる第一の行動種別を第四の機械学習モデルに入力した際に出力された環境設定に関する情報とを特定する。情報処理装置200は、特定した第一の行動種別と、環境設定に関する情報との組に対応する訓練データを、訓練データテーブル240bから除外する処理を実行する。
情報処理装置200は、上記の処理を繰り返し実行することで、訓練データテーブル240bを更新する。情報処理装置200は、更新した訓練データテーブル240bを利用して、第四の機械学習モデルを再訓練する。
上記のように、情報処理装置200は、映像データに含まれる人物の領域の画像を解析することで人物の骨格情報を生成し、骨格情報を基にして、人物の行動を特定する。情報処理装置200は、人物の行動が所定の行動である場合に、所定の行動と対応付けられた環境設定に関する情報を生成し、生成した環境設定に関する情報を、注目領域に位置する電子機器に出力して設定することで、環境設定に関する処理を実行させる。これによって、所定の行動に適した環境設定の情報を生成することができる。
また、情報処理装置200は、第二の行動種別が、予め設定された行動種別に含まれない場合に、第一の行動種別と、かかる第一の行動種別を第四の機械学習モデルに入力した際に出力された環境設定に関する情報とを特定する。情報処理装置200は、特定した第一の行動種別と、環境設定に関する情報との組に対応する訓練データを、訓練データテーブル240bから除外する。これによって、顧客の購買行動を刺激することができる行動種別と、環境設定に関する情報との関係を、訓練データテーブル240bに残すことができ、第四の機械学習モデルをよく適切に再訓練することができる。
なお、情報処理装置200は、第一の行動種別から、第二の行動種別への遷移が、予め設定された遷移とならない場合に、第一の行動種別と、かかる第一の行動種別を第四の機械学習モデルに入力した際に出力された環境設定に関する情報とのペアに対応する訓練データを、訓練データテーブル240bから除外してもよい。第一の行動種別から、第二の行動種別への遷移は、より購買行動に近づく遷移である。たとえば、予め設定される第一の行動種別から第二の行動種別への遷移は行動種別「見ている」から行動種別「把持している」への遷移である。
記憶部240は、カメラパラメータテーブル140a、映像バッファ140b、第一の機械学習モデル140c、移動軌跡テーブル140d、誤差データベース140e、第二の機械学習モデル140fを有する。また、記憶部240は、電子機器位置情報140g、生成ポリシーテーブル140h、商品情報テーブル140i、照明設定情報140j、音楽DB140kを有する。また、記憶部240は、ルールテーブル240a、訓練データテーブル240b、第三の機械学習モデル240c、第四の機械学習モデル240dを有する。記憶部240は、メモリなどの記憶装置である。
カメラパラメータテーブル140a、映像バッファ140b、第一の機械学習モデル140c、移動軌跡テーブル140d、誤差データベース140e、第二の機械学習モデル140fに関する説明は、実施例1の説明と同様である。電子機器位置情報140g、生成ポリシーテーブル140h、商品情報テーブル140i、照明設定情報140j、音楽DB140kに関する説明は、実施例1の説明と同様である。
続いて、制御部250について説明する。制御部250は、取得部251、前処理部252、生成部253、設定部254、学習処理部255を有する。制御部250は、CPU、GPU等である。
取得部251は、カメラ10から映像データを取得する。上記のように、映像データには、映像データを撮影したカメラ10のカメラ識別情報が設定されている。取得部251は、カメラ識別情報に対応付けて、映像データを映像バッファ140bに格納する。
前処理部252は、特定処理、予測処理、算出処理を実行することで、誤差データベース240eを生成する。前処理部252が実行する特定処理、予測処理、算出処理は、実施例1で説明した前処理部152が実行する処理と同様である。
生成部253は、ヒートマップに相当する誤差データベース140eと、電子機器位置情報140gに設定された電子機器の位置情報を基にして、店内の環境設定に関する情報を生成する。たとえば、生成部253は、抽出処理、生成処理を実行する。
生成部253が実行する抽出処理は、実施例1で説明した生成部153が実行する抽出処理と同様である。たとえば、生成部253が実行する抽出処理によって、注目領域IDと、非注目IDとが抽出される。
生成部253は、注目領域IDと、電子機器位置情報140gとを基にして、注目領域に配置されている電子機器を特定する。また、生成部253は、注目領域IDと、カメラパラメータテーブル140aとを基にして、注目領域を撮影範囲に含むカメラ10を特定する。生成部253は、特定した電子機器に対応する環境設定に関する情報を生成する。
生成部253は、時系列の画像フレームの顧客を含む領域40aの画像を、訓練済みの第三の機械学習モデル240cに入力することで、時系列の骨格情報を生成する。生成部253は、時系列の骨格情報の所定の関節の位置の推移と、ルールテーブル240aとを基にして、顧客の第一の行動種別を特定する。
生成部253は、特定した第一の行動種別が、所定の行動種別である場合には、生成部253は、第一の行動種別の情報を、第四の機械学習モデル240dに入力することで、環境設定に関する情報を生成する。生成部253は、電子機器の種別と、環境設定に関する情報とを対応付けた環境設定情報を、設定部254に出力する。
ところで、生成部253は、特定した第一の行動種別が、所定の行動種別でない場合には、実施例1で説明した生成部153と同様の処理を実行することで、環境設定情報を生成し、環境設定情報を、設定部254に出力してもよい。
設定部254は、生成部253によって生成された環境設定情報を取得し、環境設定情報に設定された電子機器に対して、環境設定情報を出力することで、電子機器に環境設定に関する処理を実行させる。設定部254に関するその他の処理は、実施例1で説明した設定部254に関する処理と同様である。
学習処理部255は、生成部253によって更新された訓練データテーブル240bに含まれる複数の訓練データを基にして、第四の機械学習モデル240dを再訓練する。たとえば、学習処理部255は、誤差逆伝播法を利用して、第四の機械学習モデル240dのパラメータを更新する。
情報処理装置200の前処理部252は、映像データを基にして、人物の検出および追跡を実行する(ステップS202)。前処理部252は、第一の期間の人物の検出結果および追跡結果を基にして、第一の移動軌跡を特定する(ステップS203)。
前処理部252は、第一の移動軌跡を、第一の機械学習モデル140cに入力することで、第二の移動軌跡を予測する(ステップS204)。前処理部252は、第二の期間の人物の検出結果および追跡結果を基にして、第三の移動軌跡を特定する(ステップS205)。
生成部253は、顧客を含む領域の画像を第三の機械学習モデル240cに順に入力し、時系列の骨格情報を生成する(ステップS210)。生成部253は、骨格情報の所定の関節の位置の推移と、ルールテーブル240aとを基にして、第一の行動種別を特定する(ステップS211)。
生成部253は、第一の行動種別が所定の行動種別でない場合には(ステップS212,No)、ステップS213に移行する。生成部253は、電子機器位置情報140gを基にして、注目領域に位置する電子機器と、非注目領域に位置する電子機器とを特定する(ステップS213)。
生成部253は、生成ポリシーテーブル140hを基にして、注目領域に位置する電子機器の環境設定情報および非注目領域に位置する電子機器の環境設定情報を生成する(ステップS214)。情報処理装置200の設定部254は、該当する電子機器に環境設定情報を設定し、環境設定に関する処理を実行させ(ステップS215)、ステップS220に移行する。
一方、生成部253は、第一の行動種別が所定の行動種別である場合には(ステップS212,Yes)、ステップS216に移行する。生成部253は、第一の行動種別を、第四の機械学習モデル240dに入力し、環境設定に関する情報を生成する(ステップS216)。
生成部253は、該当する電子機器に環境設定情報を設定し、環境設定に関する処理を実行させる(ステップS217)。生成部253は、電子機器に環境設定情報を設定した後の映像データを解析し、第二の行動種別を特定する(ステップS218)。
生成部253は、第一の行動種別から第二の行動種別が、所定の行動種別でない場合に、第一の行動種別と環境設定に関する情報との組に対応する訓練データを訓練データテーブル240bから削除する(ステップS219)。
情報処理装置200は、処理を継続する場合には(ステップS220,Yes)、ステップS208に移行する。情報処理装置200は、処理を継続しない場合には(ステップS220,No)、ステップS221に移行する。情報処理装置200の学習処理部255は、訓練データテーブル240bを基にして、第四の機械学習モデルを再訓練する(ステップS221)。
次に、本実施例2に係る情報処理装置200の効果について説明する。情報処理装置200は、映像データに含まれる人物の領域の画像を解析することで人物の骨格情報を生成し、骨格情報を基にして、人物の行動を特定する。情報処理装置200は、人物の行動が所定の行動である場合に、所定の行動と対応付けられた環境設定に関する情報を生成し、生成した環境設定に関する情報を、注目領域に位置する電子機器に出力して設定することで、環境設定に関する処理を実行させる。これによって、所定の行動に適した環境設定の情報を生成することができる。
また、情報処理装置200は、第二の行動種別が、予め設定された行動種別に含まれない場合に、第一の行動種別と、かかる第一の行動種別を第四の機械学習モデルに入力した際に出力された環境設定に関する情報とを特定する。情報処理装置200は、特定した第一の行動種別と、環境設定に関する情報との組に対応する訓練データを、訓練データテーブル240bから除外する。これによって、顧客の購買行動を刺激することができる行動種別と、環境設定に関する情報との関係を、訓練データテーブル240bに残すことができ、第四の機械学習モデルをよく適切に再訓練することができる。
ハードディスク装置307は、取得プログラム307a、前処理プログラム307b、生成プログラム307c、設定プログラム307d、学習処理プログラム307eを有する。また、CPU301は、各プログラム307a~307dを読み出してRAM306に展開する。
取得プログラム307aは、取得プロセス306aとして機能する。前処理プログラム307bは、前処理プロセス306bとして機能する。生成プログラム307cは、生成プロセス306cとして機能する。設定プログラム307dは、設定プロセス306dとして機能する。学習処理プログラム307eは、学習処理プロセス306eとして機能する。
取得プロセス206aの処理は、取得部151,251の処理に対応する。前処理プロセス306bの処理は、前処理部152,252の処理に対応する。生成プロセス306cの処理は、生成部153,253の処理に対応する。設定プロセス306dの処理は、設定部154,254の処理に対応する。学習処理プロセス306eの処理は、学習処理部255の処理に対応する。
なお、各プログラム307a~307eについては、必ずしも最初からハードディスク装置307に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD-ROM、DVD、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム307a~307eを読み出して実行するようにしてもよい。
(付記2)前記環境設定に関する情報は、前記電子機器に表示させるコンテンツの種類、前記施設内に配置された照明機器の照度、前記電子機器が前記施設内に流す音楽の種類、前記電子機器が前記施設内に散布する香水の種類、の何れかであることを特徴とする付記1に記載の情報処理プログラム。
(付記3)前記分析する処理は、取得をした前記映像に含まれる、第一の期間での前記人物の第一の移動軌跡を特定し、特定した前記第一の移動軌跡に基づいて、前記第一の期間後の第二の期間での前記人物の第二の移動軌跡を予測し、取得した前記映像を分析することで、前記第二の期間の人物の実際の移動軌跡を示す第三の移動軌跡を特定し、
前記ヒートマップを生成する処理は、前記第二の移動軌跡と前記第三の移動軌跡との誤差を領域毎に示す前記ヒートマップを生成することを特徴とする付記1に記載の情報処理プログラム。
(付記5)人物の行動と環境設定に関する情報とをペアとする複数の訓練データを基にして訓練した機械学習モデルに、前記第一の注目領域における前記人物の第一の行動を入力することで、前記施設内での環境設定に関する情報を生成し、
前記電子機器によって、前記環境設定に関する処理が実施された後に、前記第一の注目領域における前記人物を含む映像を分析することで、前記人物の第二の行動を特定し、
特定された前記人物の第二の行動が所定の行動でない場合に、前記複数の訓練データから、前記第一の行動と前記環境設定に関する情報とのペアに対応する訓練データを除外した残りの訓練データを基にして、前記機械学習モデルを再訓練する処理を更にコンピュータに実行させることを特徴とする付記4に記載の情報処理プログラム。
(付記7)前記環境設定に関する情報は、前記電子機器に表示させるコンテンツの種類、前記施設内に配置された照明機器の照度、前記電子機器が前記施設内に流す音楽の種類、前記電子機器が前記施設内に散布する香水の種類、の何れかであることを特徴とする付記6に記載の情報処理方法。
(付記8)前記分析する処理は、取得をした前記映像に含まれる、第一の期間での前記人物の第一の移動軌跡を特定し、特定した前記第一の移動軌跡に基づいて、前記第一の期間後の第二の期間での前記人物の第二の移動軌跡を予測し、取得した前記映像を分析することで、前記第二の期間の人物の実際の移動軌跡を示す第三の移動軌跡を特定し、
前記ヒートマップを生成する処理は、前記第二の移動軌跡と前記第三の移動軌跡との誤差を領域毎に示す前記ヒートマップを生成することを特徴とする付記6に記載の情報処理方法。
(付記10)人物の行動と環境設定に関する情報とをペアとする複数の訓練データを基にして訓練した機械学習モデルに、前記第一の注目領域における前記人物の第一の行動を入力することで、前記施設内での環境設定に関する情報を生成し、
前記電子機器によって、前記環境設定に関する処理が実施された後に、前記第一の注目領域における前記人物を含む映像を分析することで、前記人物の第二の行動を特定し、
特定された前記人物の第二の行動が所定の行動でない場合に、前記複数の訓練データから、前記第一の行動と前記環境設定に関する情報とのペアに対応する訓練データを除外した残りの訓練データを基にして、前記機械学習モデルを再訓練する処理を更にコンピュータが実行することを特徴とする付記9に記載の情報処理方法。
(付記12)前記環境設定に関する情報は、前記電子機器に表示させるコンテンツの種類、前記施設内に配置された照明機器の照度、前記電子機器が前記施設内に流す音楽の種類、前記電子機器が前記施設内に散布する香水の種類、の何れかであることを特徴とする付記11に記載の情報処理装置。
(付記13)前記分析する処理は、取得をした前記映像に含まれる、第一の期間での前記人物の第一の移動軌跡を特定し、特定した前記第一の移動軌跡に基づいて、前記第一の期間後の第二の期間での前記人物の第二の移動軌跡を予測し、取得した前記映像を分析することで、前記第二の期間の人物の実際の移動軌跡を示す第三の移動軌跡を特定し、
前記ヒートマップを生成する処理は、前記第二の移動軌跡と前記第三の移動軌跡との誤差を領域毎に示す前記ヒートマップを生成することを特徴とする付記11に記載の情報処理装置。
(付記15)前記制御部は、人物の行動と環境設定に関する情報とをペアとする複数の訓練データを基にして訓練した機械学習モデルに、前記第一の注目領域における前記人物の第一の行動を入力することで、前記施設内での環境設定に関する情報を生成し、
前記電子機器によって、前記環境設定に関する処理が実施された後に、前記第一の注目領域における前記人物を含む映像を分析することで、前記人物の第二の行動を特定し、
特定された前記人物の第二の行動が所定の行動でない場合に、前記複数の訓練データから、前記第一の行動と前記環境設定に関する情報とのペアに対応する訓練データを除外した残りの訓練データを基にして、前記機械学習モデルを再訓練する処理を更に実行することを特徴とする付記14に記載の情報処理装置。