IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ AWL株式会社の特許一覧 ▶ 伊藤忠商事株式会社の特許一覧

特開2023-96652広告閲覧判定システム、情報処理装置、及び広告閲覧判定プログラム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023096652
(43)【公開日】2023-07-07
(54)【発明の名称】広告閲覧判定システム、情報処理装置、及び広告閲覧判定プログラム
(51)【国際特許分類】
   G06Q 30/0242 20230101AFI20230630BHJP
   G06Q 30/0201 20230101ALI20230630BHJP
【FI】
G06Q30/02 382
G06Q30/02 300
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2021212551
(22)【出願日】2021-12-27
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.QRコード
(71)【出願人】
【識別番号】516249414
【氏名又は名称】AWL株式会社
(71)【出願人】
【識別番号】000000147
【氏名又は名称】伊藤忠商事株式会社
(74)【代理人】
【識別番号】100084375
【弁理士】
【氏名又は名称】板谷 康夫
(74)【代理人】
【識別番号】100125221
【弁理士】
【氏名又は名称】水田 愼一
(74)【代理人】
【識別番号】100142077
【弁理士】
【氏名又は名称】板谷 真之
(72)【発明者】
【氏名】土田 安紘
(72)【発明者】
【氏名】アロック ビショイ
(72)【発明者】
【氏名】ダルマワン アリーフ
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049BB02
(57)【要約】
【課題】広告閲覧判定システム、情報処理装置、及び広告閲覧判定プログラムにおいて、実際の広告及び撮影装置の設置条件における、人の位置と、この位置の人が広告を閲覧しているとみなせる視線方向との対応関係が、複雑な場合でも、上記の対応関係を、実際の広告及び撮影装置の設置条件に応じて適切に自動設定する。
【解決手段】広告の前方周辺領域の実際のフレーム画像に基づいて、フレーム画像に映り込んだ人の頭の位置と、頭の向きと、人が広告を視聴しているか否かを示す視聴判別用サインとを検出して(S13及びS15)、検出した人の頭の位置と、頭の向きと、視聴判別用サインとに基づいて、視聴判定用の学習済NNモデルの教師データを生成するようにした(S16)。これにより、人の位置と、この位置の人が広告を視聴しているとみなせる視線方向との対応関係が複雑な場合でも、この対応関係を、実際の設置条件に応じて適切に自動設定できる。
【選択図】図10
【特許請求の範囲】
【請求項1】
広告の前方周辺の領域を撮影する撮影装置から撮影画像を取得する撮影画像取得部と、
前記撮影画像取得部により取得した撮影画像に基づいて、前記撮影画像に映り込んだ人の位置と、この位置の人が前記広告を閲覧しているとみなすことができる視線方向との対応関係を自動的に設定する自動設定部と、
前記自動設定部により予め設定した対応関係に基づいて、前記撮影画像取得部により取得した撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定する閲覧判定部とを備える広告閲覧判定システム。
【請求項2】
前記自動設定部は、ある位置における、ある視線方向の人が前記広告を閲覧しているか否かを示す複数の正解画像に基づいて、前記撮影画像に映り込んだ人の位置と、この位置の人が前記広告を閲覧しているとみなすことができる視線方向との対応関係を自動的に設定することを特徴とする請求項1に記載の広告閲覧判定システム。
【請求項3】
前記閲覧判定部は、前記撮影画像に映り込んだ人の位置と、前記人の視線方向とを入力すると、前記人が前記広告を閲覧しているか否かの推論結果を出力する機械学習済みモデルを用いて、前記撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定することを特徴とする請求項1又は請求項2に記載の広告閲覧判定システム。
【請求項4】
前記自動設定部は、
前記撮影画像取得部により取得した撮影画像から、前記撮影画像に映り込んだ人の位置と、前記人の視線方向と、前記人が前記広告を閲覧しているか否かを示す正解ラベルの情報とを組み合わせた教師データを生成するデータ生成部と、
前記教師データを用いて教師あり学習を行うことにより、前記機械学習済みモデルを生成する学習部とを備えることを特徴とする請求項3に記載の広告閲覧判定システム。
【請求項5】
前記データ生成部は、前記撮影画像取得部により取得した撮影画像から、前記撮影画像に映り込んだ人の頭の位置と、前記人の頭の向きと、前記人が前記広告を閲覧しているか否かを示す閲覧判別用情報とを検出して、検出した前記人の頭の位置と、前記人の頭の向きと、前記閲覧判別用情報とに基づいて、前記教師データを生成することを特徴とする請求項4に記載の広告閲覧判定システム。
【請求項6】
前記広告閲覧判定システムの設置担当者が携帯する、撮像部を備えた情報処理端末をさらに備え、
前記情報処理端末は、いずれかの面に可視コードを有し、
前記データ生成部は、
前記撮影画像取得部により取得した撮影画像から、前記撮影画像に映り込んだ前記可視コードの位置と向きを検出する可視コード位置向き検出手段と、
前記情報処理端末の撮像部で撮影した画像に、所定の面積以上の所定のパターンが存在するか否かを判定することにより、前記可視コード位置向き検出手段で検出した可視コードの位置と向きに対応した、頭の位置と向きの人が、前記広告を閲覧しているとみなすことができるか否かを判定する閲覧非閲覧判定部とを備え、
前記可視コード位置向き検出手段で検出した可視コードの位置と向き、及び前記閲覧非閲覧判定部により判定した、前記広告を閲覧しているとみなすことができるか否かの判定結果に基づいて、前記教師データを生成することを特徴とする請求項4に記載の広告閲覧判定システム。
【請求項7】
広告の前方周辺の領域を撮影する撮影装置と通信可能な情報処理装置であって、
前記撮影装置から撮影画像を取得する撮影画像取得部と、
前記撮影画像取得部により取得した撮影画像に基づいて、前記撮影画像に映り込んだ人の位置と、この位置の人が前記広告を閲覧しているとみなすことができる視線方向との対応関係を自動的に設定する自動設定部と、
前記自動設定部により予め設定した対応関係に基づいて、前記撮影画像取得部により取得した撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定する閲覧判定部とを備える情報処理装置。
【請求項8】
前記閲覧判定部は、前記撮影画像に映り込んだ人の位置と、前記人の視線方向とを入力すると、前記人が前記広告を閲覧しているか否かの推論結果を出力する機械学習済みモデルを用いて、前記撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定することを特徴とする請求項7に記載の情報処理装置。
【請求項9】
前記自動設定部は、
前記撮影画像取得部により取得した撮影画像から、前記撮影画像に映り込んだ人の位置と、前記人の視線方向と、前記人が前記広告を閲覧しているか否かを示す正解ラベルの情報とを組み合わせた教師データを生成するデータ生成部と、
前記教師データを用いて教師あり学習を行うことにより、前記機械学習済みモデルを生成する学習部とを備えることを特徴とする請求項8に記載の情報処理装置。
【請求項10】
情報処理装置を、
広告の前方周辺の領域を撮影する撮影装置から撮影画像を取得する撮影画像取得部と、
前記撮影画像取得部により取得した撮影画像に基づいて、前記撮影画像に映り込んだ人の位置と、この位置の人が前記広告を閲覧しているとみなすことができる視線方向との対応関係を自動的に設定する自動設定部と、
前記自動設定部により予め設定した対応関係に基づいて、前記撮影画像取得部により取得した撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定する閲覧判定部として機能させるための広告閲覧判定プログラム。
【請求項11】
前記閲覧判定部は、前記撮影画像に映り込んだ人の位置と、前記人の視線方向とを入力すると、前記人が前記広告を閲覧しているか否かの推論結果を出力する機械学習済みモデルを用いて、前記撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定することを特徴とする請求項10に記載の広告閲覧判定プログラム。
【請求項12】
前記自動設定部は、
前記撮影画像取得部により取得した撮影画像から、前記撮影画像に映り込んだ人の位置と、前記人の視線方向と、前記人が前記広告を閲覧しているか否かを示す正解ラベルの情報とを組み合わせた教師データを生成するデータ生成部と、
前記教師データを用いて教師あり学習を行うことにより、前記機械学習済みモデルを生成する学習部とを備えることを特徴とする請求項11に記載の広告閲覧判定プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、広告閲覧判定システム、情報処理装置、及び広告閲覧判定プログラムに関する。
【背景技術】
【0002】
近年、いわゆるデジタルサイネージを利用した広告ビジネスが立ち上がりの兆しを見せている。このビジネスは、例えば、コンビニエンスストアのレジ裏等に設置された大型のデジタルサイネージに、メーカ等より募った広告を放映し、広告の放映回数や放映時間に応じてメーカより広告料を徴収するといったものである。
【0003】
従来の店舗等に設置されたデジタルサイネージで放映される広告は、この広告を、どのような属性の人がどの程度の時間視聴(又は閲覧)していたかを、計測することができなかったため、インターネット広告等と比較して、効果的な広告方法とみなされていなかった。しかし、近年、ディープラーニング・コンピュータビジョン(DNN(Deep Neural Network)モデルを利用して、人間並みの視覚能力を実現するために行われる処理)を応用した人物や視線方向を認識する手法が、安価なデバイスでも実現可能になったことにより、店舗に設置されたデジタルサイネージの内蔵カメラや外付けカメラによる撮影画像に基づいて、顧客の属性の推定や、広告閲覧時間の計測を行うことが可能となり、デジタルサイネージを用いた広告ビジネスの成長への期待が高まっている。
【0004】
上記のデジタルサイネージを利用した広告ビジネスにおいて、広告の閲覧者数や閲覧時間の計測は、根幹をなす重要技術である。広告の閲覧者数や閲覧時間の計測が重要なのは、紙等の媒体を用いた広告ビジネスにおいても、同様である。この種の従来技術としては、例えば、下記の特許文献1が挙げられる。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】国際公開第2021/038800号
【発明の概要】
【発明が解決しようとする課題】
【0006】
上記のディープラーニング・コンピュータビジョンの進化により、人(顧客)の頭や視線方向を精度高く検出することが可能となった。ところが、店舗に設置されるデジタルサイネージ等の広告の設置位置や大きさ、形状、数、カメラの設置位置や向き、広告の前等に置かれる障害物、その他の店内の空間条件(棚位置、ライトの位置、階層構造等)(以下、これらの条件を「広告及びカメラの設置条件」という)には、多くのバリエーションが存在することから、人(又は人の頭)の位置と視線方向(例えば、頭の向き)の組み合わせだけで、単純に顧客が広告を閲覧しているとみなすことができるかどうかを判定することは困難であり、精度高く閲覧の有無の判定を行うためには、実際の店舗における広告及びカメラの設置条件を考慮して、人の位置と、この位置の人が広告を閲覧しているとみなすことができる視線方向との対応関係を、非常に細かく設定する必要がある。しかし、このような非常に細かい対応関係の設定を手動で行うことは、現実的ではない。
【0007】
なお、上記特許文献1には、(1)上記の「人の位置」に類似した「エリア」、及び上記の「人が広告を閲覧しているとみなすことができる視線方向」に類似した「角度範囲」を、システム管理者が手動で設定する例や、(2)上記の「エリア」及び「角度範囲」を、システム管理者が手動で入力した広告の位置と撮影範囲との関係に基づいて、サーバが設定する例が記載されている。しかしながら、実際の店舗における広告及びカメラの設置条件には、多くのバリエーションが存在することから、上記(1)の「エリア」及び「角度範囲」をシステム管理者が手動で設定する方法は、現実的ではない。また、実際の店舗における人の位置と、この位置の人が広告を閲覧しているとみなすことができる視線方向との対応関係は複雑である。例えば、広告の前に障害物が置かれただけでも、店舗における人の位置と、この位置の人が広告を閲覧しているとみなすことができる視線方向との対応関係は、複雑になる。このため、上記(2)の「エリア」及び「角度範囲」を、システム管理者が手動で入力した広告の位置と撮影範囲との関係のみに基づいて、サーバが設定する方法では、実際の店舗における人の位置(「エリア」)と、この位置の人が広告を閲覧しているとみなすことができる視線方向(「角度範囲」)との対応関係を、正確に設定することは不可能である。
【0008】
本発明は、上記課題を解決するものであり、実際の広告及び撮影装置の設置条件における、人の位置と、この位置の人が広告を閲覧しているとみなすことができる視線方向との対応関係が、複雑な場合でも、上記の対応関係を、実際の広告及び撮影装置の設置条件に応じて適切に自動設定することが可能な広告閲覧判定システム、情報処理装置、及び広告閲覧判定プログラムを提供することを目的とする。
【課題を解決するための手段】
【0009】
上記課題を解決するために、本発明の第1の態様による広告閲覧判定システムは、広告の前方周辺の領域を撮影する撮影装置から撮影画像を取得する撮影画像取得部と、前記撮影画像取得部により取得した撮影画像に基づいて、前記撮影画像に映り込んだ人の位置と、この位置の人が前記広告を閲覧しているとみなすことができる視線方向との対応関係を自動的に設定する自動設定部と、前記自動設定部により予め設定した対応関係に基づいて、前記撮影画像取得部により取得した撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定する閲覧判定部とを備える。
【0010】
この広告閲覧判定システムにおいて、前記自動設定部は、ある位置における、ある視線方向の人が前記広告を閲覧しているか否かを示す複数の正解画像に基づいて、前記撮影画像に映り込んだ人の位置と、この位置の人が前記広告を閲覧しているとみなすことができる視線方向との対応関係を自動的に設定することが望ましい。
【0011】
この広告閲覧判定システムにおいて、前記閲覧判定部は、前記撮影画像に映り込んだ人の位置と、前記人の視線方向とを入力すると、前記人が前記広告を閲覧しているか否かの推論結果を出力する機械学習済みモデルを用いて、前記撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定することが望ましい。
【0012】
この広告閲覧判定システムにおいて、前記自動設定部は、前記撮影画像取得部により取得した撮影画像から、前記撮影画像に映り込んだ人の位置と、前記人の視線方向と、前記人が前記広告を閲覧しているか否かを示す正解ラベルの情報とを組み合わせた教師データを生成するデータ生成部と、前記教師データを用いて教師あり学習を行うことにより、前記機械学習済みモデルを生成する学習部とを備えることが望ましい。
【0013】
この広告閲覧判定システムにおいて、前記データ生成部は、前記撮影画像取得部により取得した撮影画像から、前記撮影画像に映り込んだ人の頭の位置と、前記人の頭の向きと、前記人が前記広告を閲覧しているか否かを示す閲覧判別用情報とを検出して、検出した前記人の頭の位置と、前記人の頭の向きと、前記閲覧判別用情報とに基づいて、前記教師データを生成するようにしてもよい。
【0014】
この広告閲覧判定システムにおいて、この広告閲覧判定システムの設置担当者が携帯する、撮像部を備えた情報処理端末をさらに備え、前記情報処理端末は、いずれかの面に可視コードを有し、前記データ生成部は、前記撮影画像取得部により取得した撮影画像から、前記撮影画像に映り込んだ前記可視コードの位置と向きを検出する可視コード位置向き検出手段と、前記情報処理端末の撮像部で撮影した画像に、所定の面積以上の所定のパターンが存在するか否かを判定することにより、前記可視コード位置向き検出手段で検出した可視コードの位置と向きに対応した、頭の位置と向きの人が、前記広告を閲覧しているとみなすことができるか否かを判定する閲覧非閲覧判定部とを備え、前記可視コード位置向き検出手段で検出した可視コードの位置と向き、及び前記視聴非視聴判定部により判定した、前記広告を閲覧しているとみなすことができるか否かの判定結果に基づいて、前記教師データを生成するようにしてもよい。
【0015】
本発明の第2の態様による情報処理装置は、広告の前方周辺の領域を撮影する撮影装置と通信可能な情報処理装置であって、前記撮影装置から撮影画像を取得する撮影画像取得部と、前記撮影画像取得部により取得した撮影画像に基づいて、前記撮影画像に映り込んだ人の位置と、この位置の人が前記広告を閲覧しているとみなすことができる視線方向との対応関係を自動的に設定する自動設定部と、前記自動設定部により予め設定した対応関係に基づいて、前記撮影画像取得部により取得した撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定する閲覧判定部とを備える。
【0016】
この情報処理装置において、前記閲覧判定部は、前記撮影画像に映り込んだ人の位置と、前記人の視線方向とを入力すると、前記人が前記広告を閲覧しているか否かの推論結果を出力する機械学習済みモデルを用いて、前記撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定することが望ましい。
【0017】
この情報処理装置において、前記自動設定部は、前記撮影画像取得部により取得した撮影画像から、前記撮影画像に映り込んだ人の位置と、前記人の視線方向と、前記人が前記広告を閲覧しているか否かを示す正解ラベルの情報とを組み合わせた教師データを生成するデータ生成部と、前記教師データを用いて教師あり学習を行うことにより、前記機械学習済みモデルを生成する学習部とを備えることが望ましい。
【0018】
本発明の第3の態様による広告閲覧判定プログラムは、情報処理装置を、広告の前方周辺の領域を撮影する撮影装置から撮影画像を取得する撮影画像取得部と、前記撮影画像取得部により取得した撮影画像に基づいて、前記撮影画像に映り込んだ人の位置と、この位置の人が前記広告を閲覧しているとみなすことができる視線方向との対応関係を自動的に設定する自動設定部と、前記自動設定部により予め設定した対応関係に基づいて、前記撮影画像取得部により取得した撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定する閲覧判定部として機能させる。
【0019】
この広告閲覧判定プログラムにおいて、前記閲覧判定部は、前記撮影画像に映り込んだ人の位置と、前記人の視線方向とを入力すると、前記人が前記広告を閲覧しているか否かの推論結果を出力する機械学習済みモデルを用いて、前記撮影画像に映り込んだ人が、前記広告を閲覧しているか否かを判定することが望ましい。
【0020】
この広告閲覧判定プログラムにおいて、前記自動設定部は、前記撮影画像取得部により取得した撮影画像から、前記撮影画像に映り込んだ人の位置と、前記人の視線方向と、前記人が前記広告を閲覧しているか否かを示す正解ラベルの情報とを組み合わせた教師データを生成するデータ生成部と、前記教師データを用いて教師あり学習を行うことにより、前記機械学習済みモデルを生成する学習部とを備えることが望ましい。
【発明の効果】
【0021】
本発明の第1の態様による広告閲覧判定システム、第2の態様による情報処理装置、及び第3の態様による広告閲覧判定プログラムによれば、広告の前方周辺領域の実際の撮影画像に基づいて、撮影画像に映り込んだ人の位置と、この位置の人が広告を閲覧しているとみなすことができる視線方向との対応関係を自動的に設定するようにした。これにより、実際の広告及び撮影装置の設置条件における、人の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向との対応関係が複雑な場合でも、この対応関係を、実際の広告及び撮影装置の設置条件に応じて適切に自動設定することができる。従って、上記の自動設定した対応関係に基づいて、撮影画像に映り込んだ人が、広告を閲覧しているか否かを正確に判定することができる。
【図面の簡単な説明】
【0022】
図1】本発明の第1の実施形態における広告視聴判定システムの概略のハードウェア構成を示すブロック構成図。
図2】同広告視聴判定システムにおける、顧客が広告を視聴しているか否かを判定する方法の説明図。
図3図1中の真ん中のサイネージのハードウェア構成を示すブロック図。
図4図1中のサイネージ学習管理サーバの概略のハードウェア構成を示すブロック図。
図5】上記の真ん中のサイネージとサイネージ学習管理サーバの機能ブロック構成図。
図6】上記広告視聴判定システムの実運用時の処理のフローチャート。
図7図6中のS1の処理の説明図。
図8図6中のS2の処理の説明図。
図9図6中のS4の処理の説明図。
図10】上記広告視聴判定システムにおける視聴判定NNモデルの学習時の処理のフローチャート。
図11図10中のS12の処理の説明図。
図12図10中のS13の処理の説明図。
図13】(a)は、図10中のS14とS15の処理の説明図で、(b)は、教師データの説明図。
図14】人の位置と、この位置の人が広告を視聴しているとみなせる視線方向との対応関係が複雑な場合における、視聴判定処理の1つ目の例の説明図。
図15】人の位置と、この位置の人が広告を視聴しているとみなせる視線方向との対応関係が複雑な場合における、視聴判定処理の2つ目の例の説明図。
図16】人の位置と、この位置の人が広告を視聴しているとみなせる視線方向との対応関係が複雑な場合における、視聴判定処理の3つ目の例の説明図。
図17】本発明の第2の実施形態における広告視聴判定システムの概略のハードウェア構成を示すブロック構成図。
図18図17中のタブレット端末のハードウェア構成を示すブロック図。
図19図17中のサイネージ学習管理サーバの概略のハードウェア構成を示すブロック図。
図20図17中の真ん中のサイネージとタブレット端末とサイネージ学習管理サーバの機能ブロック構成図。
図21】上記第2の実施形態の広告視聴判定システムにおける、視聴判定NNモデルの学習時の処理のフローチャート。
図22】(a)(b)は、それぞれ、上記タブレット端末の表面と裏面を示す図。
図23】上記第2の実施形態の広告視聴判定システムにおける、視聴非視聴データの生成方法の説明図。
図24】上記第2の実施形態の広告視聴判定システムにおける、視聴非視聴データ保存Fに格納された視聴非視聴データの例を示す図。
図25】(a)(b)は、上記第2の実施形態の広告視聴判定システムにおける、QRコード位置向きデータの生成方法の説明図。
図26】上記第2の実施形態の広告視聴判定システムにおける、QRコード位置向き保存Fに格納されたQRコード位置向きデータの例を示す図。
図27】上記第2の実施形態の広告視聴判定システムにおける、教師データ保存Fに格納された教師データの例を示す図。
【発明を実施するための形態】
【0023】
以下、本発明を具体化した実施形態による広告視聴判定システム(請求項における「広告閲覧判定システム」に相当)について、図面を参照して説明する。図1は、本発明の第1の実施形態による広告視聴判定システム1の概略のハードウェア構成を示すブロック構成図である。第1及び第2の実施形態では、広告が、サイネージで放映される広告である場合の例を示しているので、以下の説明では、請求項における(広告の)「閲覧」の代わりに、(広告の)「視聴」という用語を用いている。また、第1及び第2の実施形態では、図1及び図2に示すように、広告映像表示用の端末である3台のデジタルサイネージ(以下、「サイネージ」と略す)2a、2b、及び2cを、チェーン店等の店舗S内に、横並びにして設置した場合の例について、説明する。
【0024】
図1に示すように、広告視聴判定システム1は、店舗S内に、上記のサイネージ2a、2b、及び2cと、ルータ4とを備えている。サイネージ2a、2b、及び2cのうち、真ん中のサイネージ2aには、いわゆる広角レンズを有する広角Webカメラ3(請求項における「撮影装置」)が接続されている。サイネージ2a、2b、及び2cは、例えば、図2に示すように、店舗S内のレジ裏に設置されて、そのディスプレイ14(図3参照)上に、店舗に来店した顧客に対する広告映像(以下、「広告」と略す)を表示すると共に、外付けの広角Webカメラ3からのフレーム画像(撮影画像)に基づいて、フレーム画像に映りこんだ顧客が、サイネージ2a、2b、又は2cの広告を視聴しているか否かを判定する。
【0025】
また、図1に示すように、広告視聴判定システム1は、クラウドC上のサイネージ学習管理サーバ5を備えている。各店舗のサイネージ2(サイネージ2a、2b、及び2cの総称)は、LAN(Local Area Network)とルータ4とを介して、上記のサイネージ学習管理サーバ5と接続されている。サイネージ学習管理サーバ5は、例えば、店舗Sを含むチェーン店の管理部門(本社等)に設置されて、各店舗のサイネージ2の管理と、サイネージ2に配布するプログラムの管理と、サイネージ2aに配布する推論用ニューラルネットワークモデル(以下、NN(Neural Netowrk)モデルという)の機械学習を行う。詳細については後述するが、サイネージ学習管理サーバ5が機械学習を行うNNモデルには、サイネージ2aに配布する学習済視聴判定NNモデル16b(図3参照)が含まれている。店舗Sの管理者や、サイネージ2aに表示される広告の広告主等は、自分のパソコンから、上記のクラウドC上のサイネージ学習管理サーバ5にアクセスして、サイネージ2に表示される広告の視聴者数や視聴時間を知ることができる。上記のサイネージ2aとサイネージ学習管理サーバ5が、請求項における情報処理装置に相当する。
【0026】
ここで、図2を参照して、この広告視聴判定システム1における、顧客が広告を視聴しているか否かを判定する方法の概要について、簡単に説明する(詳細については、後述する)。上記のサイネージ学習管理サーバ5がサイネージ2aに配布する学習済視聴判定NNモデル16b(請求項における「機械学習済みモデル」に相当)は、フレーム画像に映りこんだ人(顧客)の位置と、人の視線方向(より正確に言うと、人の頭の向きから推定した視線方向)とを入力すると、人が広告を視聴しているか否かの推論結果を出力する学習済NNモデルである。本実施形態の広告視聴判定システム1では、サイネージ学習管理サーバ5からサイネージ2aに、この学習済視聴判定NNモデル16bをインストールしておいて、サイネージ2aが、上記の学習済視聴判定NNモデル16bを用いて、広角Webカメラ3からのフレーム画像に映り込んだ顧客の位置と視線方向から、顧客がサイネージ2a、2b、又は2cの広告を視聴しているか否かを判定する。図2の例では、視線方向9aの顧客7aと、視線方向9bの顧客7bは、広告(サイネージ2bの広告(1))を視聴していると判定され、視線方向9cの顧客7cは、広告を視聴していないと判定される。なお、図2における8a~8dは、商品棚を示し、6は、POS(Point Of Sales)レジスタが載置されるカウンタ(レジカウンタ)を示す。
【0027】
次に、図3を参照して、上記(真ん中の)サイネージ2aのハードウェア等の構成について説明する。サイネージ2aは、上記の広角Webカメラ3に加えて、電源のオン・オフボタン等の操作部10と、SoC(System-on-a-Chip)11と、ディスプレイ14と、スピーカ15と、各種のデータやプログラムを記憶するメモリ16と、通信部17と、USBインタフェース18とを備えている。SoC11は、装置全体の制御及び各種演算を行うCPU12と、各種の学習済DNN(Deep Neural Networks)モデルの推論処理等に用いられるGPU13とを備えている。通信部17は、通信ICとアンテナを備えている。サイネージ2aは、通信部17とネットワークとを介して、クラウドC上のサイネージ学習管理サーバ5と接続されている。また、広角Webカメラ3は、USBケーブル20を介して、USBインタフェース18と接続されている。
【0028】
上記のメモリ16に格納されるプログラムには、サイネージ側広告視聴判定プログラム16aと広告表示プログラム16cとが含まれている。上記のサイネージ側広告視聴判定プログラム16aと、サイネージ学習管理サーバ5における自動設定プログラム29(図4参照)とが、請求項における広告閲覧判定プログラムに相当する。サイネージ側広告視聴判定プログラム16aは、上記の学習済視聴判定NNモデル16bを用いて、広角Webカメラ3からのフレーム画像に映り込んだ顧客が、広告を視聴しているか否かを判定する。また、上記の広告表示プログラム16cは、サイネージ学習管理サーバ5から送信されたデータ(例えば、コンテンツの識別情報(URL等)や、コンテンツのストリームデータ)に基づいて、コンテンツの画像と音声とを、それぞれ、ディスプレイ14とスピーカ15とに出力する。
【0029】
なお、図1及び図2における左右のサイネージ2c、2bのハードウェア等の構成は、広角Webカメラ3とUSBインタフェース18とを備えていない点と、メモリ16にサイネージ側広告視聴判定プログラム16a(学習済視聴判定NNモデル16bを含む)を格納していない点を除くと、図3に示す真ん中のサイネージ2aのハードウェア等の構成と同じである。
【0030】
次に、図4を参照して、サイネージ学習管理サーバ5のハードウェア構成について説明する。サイネージ学習管理サーバ5は、SoC21と、RAM(Random Access Memory)24と、ディスプレイ25と、キーボード、マウス等の操作部26と、学習済NNモデルの配布等を行うための通信部27と、各種のデータやプログラムを格納するハードディスク28とを備えている。SoC21は、装置全体の制御及び各種演算を行うCPU22と、各種の学習済DNN(Deep Neural Networks)モデルの推論処理等に用いられるGPU23とを備えている。
【0031】
上記のハードディスク28に格納されるプログラムには、自動設定プログラム29と、視聴情報集計プログラム30とが含まれている。自動設定プログラム29は、広角Webカメラ3から取得したフレーム画像に基づいて、フレーム画像に映りこんだ人(顧客)の位置と、この位置の人が広告を閲覧しているとみなすことができる視線方向との対応関係を自動的に設定するためのプログラム(請求項における「自動設定部」の機能を実現するためのプログラム)である。また、視聴情報集計プログラム30は、サイネージ2aにより行われる、顧客が広告を視聴しているか否かの判定の結果に基づいて、各広告の視聴者数や、各顧客による各広告の視聴時間や、延べ視聴時間(全顧客の広告視聴時間の合計)等の視聴情報を集計するためのプログラムである。
【0032】
また、上記のハードディスク28に格納されるファイルには、教師データ保存ファイル31(以下、「教師データ保存F」と記す)と、視聴判定結果保存ファイル32(以下、「視聴判定結果保存F」と記す)とが含まれている。教師データ保存F31に格納される教師データは、広角Webカメラ3から取得したフレーム画像に映りこんだ顧客の位置と、この顧客の頭の向き(視線方向)と、この顧客が広告を閲覧しているか否かを示す正解ラベルの情報とを組み合わせたデータである。視聴判定結果保存F32に保存されるデータは、サイネージ2aにより行われる、顧客が広告を視聴しているか否かの判定の結果のデータである。この視聴判定結果保存F32に保存されたデータは、上記の視聴情報集計プログラム30による視聴情報の集計に用いられる。
【0033】
図5は、上記のサイネージ2aとサイネージ学習管理サーバ5の機能ブロックを示す。サイネージ2aは、機能ブロックとして、撮影画像取得部33と、位置向き検出部38と、視聴判定部39とを備えている。また、サイネージ学習管理サーバ5は、機能ブロックとして、自動設定部34を備えている。この自動設定部34は、データ生成部35と学習部37とを備えている。上記の視聴判定部39は、請求項における「閲覧判定部」に相当する。サイネージ2a側の撮影画像取得部33は、主に、図3中の通信部17とCPU12とサイネージ側広告視聴判定プログラム16aとにより実現される。位置向き検出部38は、図3中のSoC11とサイネージ側広告視聴判定プログラム16aとにより実現される。視聴判定部39は、図3中のSoC11とサイネージ側広告視聴判定プログラム16a(学習済視聴判定NNモデル16bを含む)とにより実現される。また、サイネージ学習管理サーバ5側のデータ生成部35と学習部37とは、図4中のSoC21と自動設定プログラム29とにより実現される。
【0034】
まず、上記の機能ブロックのうち、上記の学習済視聴判定NNモデル16bの元になるニューラルネットワークの機械学習に関係する機能ブロックの説明を行う。この機械学習時には、広角Webカメラ3は、図13(a)に示す視聴判別用サイン53、57(請求項における「閲覧判別用情報」)を掲げた(サイネージ2の)設置担当者が写りこんだ映像を撮影する。上記の機械学習に関係する機能ブロックは、サイネージ2a側の撮影画像取得部33と、サイネージ学習管理サーバ5側の自動設定部34である。
【0035】
サイネージ2a側の撮影画像取得部33は、ディスプレイ14に表示された広告の前方周辺の領域を撮影する広角Webカメラ3から撮影画像(フレーム画像)を取得する。より正確に言うと、撮影画像取得部33は、外付けの広角Webカメラ3から入力された映像ストリームを受信してデコードし、フレーム画像のデータにする。
【0036】
サイネージ学習管理サーバ5側の自動設定部34は、撮影画像取得部33により取得したフレーム画像に基づいて、フレーム画像に映り込んだ設置担当者の位置(正確に言うと、設置担当者の頭の位置)と、この位置の設置担当者が広告を視聴しているとみなすことができる視線方向(正確に言うと、設置担当者の頭の向き)との対応関係を自動的に設定する。
【0037】
上記の自動設定部34による対応関係の自動設定処理について、より詳細に説明する。自動設定部34におけるデータ生成部35は、撮影画像取得部33により取得したフレーム画像から、フレーム画像に映り込んだ設置担当者の頭の位置と、頭の向きと、設置担当者が広告を視聴しているか否かを示す視聴判別用サインを検出して、検出した設置担当者の頭の位置と、頭の向きと、視聴判別用サインとに基づいて、教師データを生成する。より正確に言うと、データ生成部35は、上記の検出した視聴判別用サイン53、57(図13(a)参照)に基づいて、検出した頭の位置と頭の向きを有する設置担当者が、広告を視聴しているか否かを示す正解ラベルの情報を生成し、上記の検出した設置担当者の頭の位置と、頭の向きと、上記の生成した正解ラベルの情報とを組み合わせた教師データを生成する。自動設定部34における学習部37は、上記の教師データを用いて、学習済視聴判定NNモデル16bの元になるニューラルネットワークの教師あり学習を行うことにより、学習済視聴判定NNモデル16bを生成する。サイネージ学習管理サーバ5のCPU22は、上記の学習済視聴判定NNモデル16bをサイネージ2aに送って、サイネージ2aのメモリ16に格納する(インストールする)。なお、上記の設置担当者と視聴判別用サインが映りこんだフレーム画像が、請求項における「正解画像」に相当する。
【0038】
次に、図5に示す機能ブロックのうち、学習済視聴判定NNモデル16bの生成後の実運用時に使用する機能ブロックの説明を行う。実運用時に使用する機能ブロックは、サイネージ2a側における、撮影画像取得部33と位置向き検出部38と視聴判定部39である。実運用時における、広角Webカメラ3の撮影対象、及び広告視聴判定システム1による視聴判定の対象は、店舗S内の顧客である。実運用時には、撮影画像取得部33は、広角Webカメラ3から顧客のフレーム画像を取得する。位置向き検出部38は、撮影画像取得部33により取得したフレーム画像に基づいて、フレーム画像に映り込んだ顧客の頭の位置と頭の向きとを検出する。そして、視聴判定部39は、フレーム画像に映り込んだ人の頭の位置と頭の向きとを入力すると、人が広告を視聴しているか否かの推論結果を出力する学習済視聴判定NNモデル16bを用いて、フレーム画像に映り込んだ各顧客が、サイネージ2a、2b、又は2cの広告を視聴しているか否かを判定する。サイネージ2aは、CPU12と通信部17を用いて、上記の各顧客が広告を視聴しているか否かの判定結果(視聴判定結果)を、サイネージ学習管理サーバ5に送信して、サイネージ学習管理サーバ5のハードディスク28の視聴判定結果保存F32に保存する。
【0039】
次に、図6のフローチャートと、図7図9の説明図を参照して、上記の広告視聴判定システム1の実運用時の処理(学習済視聴判定NNモデル16bの推論時の処理)について、詳述する。広告視聴判定システム1の実運用時には、サイネージ2aの撮影画像取得部33は、広角Webカメラ3から、広告の前方周辺の領域を撮影した映像を入力して、この映像から、図7に示すようなフレーム画像41を切り出す(S1)。そして、サイネージ2aの位置向き検出部38が、上記の切り出したフレーム画像41から、顧客7a~7cの頭を検出する(S2)。より詳細に説明すると、位置向き検出部38は、切り出したフレーム画像41を、学習済頭検出DNNモデル(ディープラーニングにより人の頭を検出するように学習したDNNモデル)に入力して、切り出したフレーム画像41に映りこんだ顧客7a~7cの頭の位置(顧客7a~7cの頭のバウンディングボックス42a~42cの左上座用と右下座標)を得る。そして、位置向き検出部38は、上記のフレーム画像41から頭のバウンディングボックス42a~42cの部分を切り出した頭画像を生成する(S3)。図9に示す頭画像45は、図8における顧客7bの頭のバウンディングボックス42bに対応する頭画像である。
【0040】
上記S3の頭画像の生成(切り出し)処理が完了すると、サイネージ2aの位置向き検出部38は、この頭画像を、学習済頭向き検出DNNモデル(人の頭画像が入力されると、この画像に映った頭の向きを、3軸の角度(Roll(ロール)角,Pitch(ピッチ)角,Yaw(ヨー)角)で出力するように、ディープラーニングで学習したDNNモデル)に入力して、頭画像に映った頭の向きを検出(取得)する(S4)。図9は、頭画像45を上記の学習済頭向き検出DNNモデルに入力した場合に得られる頭の向き(ロール角,ピッチ角,ヨー角)が、(Roll0,Pitch0,Yaw0)であることを示している。
【0041】
上記S4の頭の向きの検出処理が完了すると、サイネージ2aの視聴判定部39は、上記S2で検出した各顧客7a~7cの頭の位置と、上記S4で検出した各顧客7a~7cの頭の向きを、上記の学習済視聴判定NNモデル16bに入力して、フレーム画像41に映りこんだ各顧客7a~7cが、広告を視聴しているか否かを判定する(S5)。そして、サイネージ2aのCPU12は、上記S2で検出した各顧客7a~7cの頭の位置と、上記S4で検出した各顧客7a~7cの頭の向きと、上記S5で判定した各顧客7a~7cが広告を視聴しているか否かの判定結果を、サイネージ学習管理サーバ5に送って、サイネージ学習管理サーバ5のハードディスク28の視聴判定結果保存F32に保存する(S6)。
【0042】
上記の視聴判定結果保存F32には、上記S2で頭の位置が検出された各顧客7a~7cをトラッキングするためのトラッキングIDも保存されている。このトラッキングIDは、サイネージ2aのCPU12が、上記S2で検出した各顧客7a~7cの頭毎に付与したものである。視聴判定結果保存F32に、上記の各顧客のトラッキングIDを付与したことにより、同じ顧客の視聴行動を追跡することができるので、上記の視聴情報集計プログラム30による視聴情報の集計処理(例えば、各広告の視聴者数の集計処理や、各顧客による各広告の視聴時間の集計処理)において、適切な集計処理を行うことができる。
【0043】
次に、図10のフローチャートと、図11図13の説明図を参照して、上記の学習済視聴判定NNモデル16bの学習時(正確に言うと、学習済視聴判定NNモデル16bの元になるニューラルネットワークの学習時)における、広告視聴判定システム1の処理について、詳述する。
【0044】
学習済視聴判定NNモデル16bの学習時には、サイネージ2の設置担当者が、図11図12及び図13(a)に示す視聴判別用サイン53(人が広告を視聴していることを示す視聴判別用サイン)、又は図13(a)に示す視聴判別用サイン57(人が広告を視聴していないことを示す視聴判別用サイン)を持って(掲げて)、店舗S内における各位置において、人が広告を視聴しているとみなすことができる視線方向の範囲内と、みなすことができない視線方向の範囲内で、首を振って、頭の向き(視線方向)を徐々に変える動作を繰り返す(S11)。すなわち、まず、紙やプラスチック等のボードに記載された視聴判別用サイン53(人が広告を視聴していることを示す視聴判別用サイン)を持った(掲げた)設置担当者が、店舗S内における、サイネージ2a、2b、又は2cの広告を視聴可能な各位置に立って、上記の各位置で、サイネージ2a、2b、又は2cの広告を視聴可能な頭の向き(視線方向)の範囲内で、首を振って、頭の向きを徐々に変える動作を繰り返す。次に、ボードに記載された視聴判別用サイン57(人が広告を視聴していないことを示す視聴判別用サイン)を持った(掲げた)設置担当者が、店舗S内における各位置に立って、上記の各位置で、サイネージ2a、2b、又は2cの広告を視聴することができない頭の向き(視線方向)の範囲内で、首を振って、頭の向きを徐々に変える動作を繰り返す。
【0045】
サイネージ2aに接続された広角Webカメラ3は、上記の視聴判別用サイン53又は視聴判別用サイン57を掲げた設置担当者を撮影する。そして、サイネージ学習管理サーバ5のデータ生成部35は、上記の視聴判別用サイン53又は視聴判別用サイン57を掲げた設置担当者が映りこんだフレーム画像に基づいて、上記の教師データを生成する。すなわち、まず、サイネージ2aの撮影画像取得部33が、広角Webカメラ3から、広告の前方周辺の領域を撮影した映像を入力して、この映像から、図11に示すようなフレーム画像51を切り出し(S12)、サイネージ学習管理サーバ5に送信する。サイネージ学習管理サーバ5のデータ生成部35は、サイネージ2aから受信した上記のフレーム画像51(図11参照)から、各設置担当者50a~50cの頭と、設置担当者が掲げる(持つ)視聴判別用サイン53又は視聴判別用サイン57を検出する(S13)。
【0046】
上記S13の処理を、より詳細に説明する。先ず、データ生成部35は、サイネージ2aから受信したフレーム画像51を、位置向き検出部38が有する学習済頭検出DNNモデルと同様な学習済頭検出DNNモデルに入力して、図12に示すように、フレーム画像51に映りこんだ各設置担当者50a~50cの頭の位置(各設置担当者50a~50cの頭のバウンディングボックス52a~52cの左上座用と右下座標)を得る。次に、データ生成部35は、上記のフレーム画像51を学習済サイン検出DNNモデル(視聴判別用サイン53、57に対応する図形(例えば、「●」)や「▲」)を検出するように、ディープラーニングで学習したDNNモデル)に入力して、フレーム画像51に映りこんだ視聴判別用サイン53又は視聴判別用サイン57(図13(a)参照)の位置(各視聴判別用サイン53、57のバウンディングボックス54、58の左上座用と右下座標)と、上記の各視聴判別用サイン53、57のクラス分け結果(「視聴」を示す視聴判別用サイン53(例えば、「●」)と、「非視聴」を示す視聴判別用サイン57(例えば、「▲」)とのクラス分け結果)を得る。なお、図11図12及び図13(a)では、紙やプラスチック等のボードに記載された視聴判別用サイン53及び57を、学習済サイン検出DNNモデルで検出する場合の例を示したが、視聴判別用サインは、ボードに記載されたものである必要は無く、例えば、設置担当者が自分の体で表現したサインであってもよい。具体的には、例えば、設置担当者が手で表したサイン(例えば、「パー」は、「視聴」を示すサインで、「グー」は、「非視聴」を示すサイン)であってもよい。
【0047】
次に、上記のデータ生成部35は、上記のフレーム画像51から、視聴判別用サイン53、57の近傍で検出された頭のバウンディングボックスの部分を切り出して、頭画像を生成する(S14)。図13(a)に示す頭画像55は、図12における設置担当者50cの頭のバウンディングボックス52cの部分を切り出した頭画像である。図13(a)は、「視聴」を示す視聴判別用サイン53(「●」)の近傍で検出された設置担当者の頭画像55と、「非視聴」を示す視聴判別用サイン57(「▲」)の近傍で検出された設置担当者の頭画像56を示している。また、図13(a)は、頭画像55に対応するバウンディングボックス(図12におけるバウンディングボックス52c)の左上座用と右下座標とが、(X11,Y11)と(X12,Y12)であり、頭画像56に対応するバウンディングボックスの左上座用と右下座標とが、(X21,Y21)と(X22,Y22)であることを示している。
【0048】
上記S14の頭画像の切り出し処理が終了すると、データ生成部35は、上記の頭画像55、56を、サイネージ2aの位置向き検出部38が有する学習済頭向き検出DNNモデルと同様な学習済頭向き検出DNNモデルに入力して、頭画像55、56に映った頭の向きを検出(取得)する(S15)。図13(a)に示すように、頭画像55と頭画像56とを上記の学習済頭向き検出DNNモデルに入力した場合、このモデルにより得られる頭の向き(ロール角,ピッチ角,ヨー角)は、(Roll1,Pitch1,Yaw1)と(Roll2,Pitch2,Yaw2)である。なお、図11における視聴判別用サイン53と、この視聴判別用サイン53近傍の人(設置担当者50c)とが映り込んだフレーム画像51が、請求項における、ある位置における、ある視線方向の人が広告を閲覧しているか否かを示す「正解画像」に相当する。
【0049】
上記S15の処理が終了すると、データ生成部35は、上記S13の検出結果と上記S15の検出結果を用いて、上記の視聴判別用サイン53、57の近傍で検出された設置担当者の頭の位置(設置担当者の頭のバウンディングボックスの左上座用と右下座標)と、頭の向きと、該当の視聴判別用サイン53、57についての視聴・非視聴のクラス分け結果を組み合わせた教師データを生成して、上記サイネージ学習管理サーバ5のハードディスク28の教師データ保存F31に保存する(S16)。
【0050】
図13(b)は、教師データ保存F31に保存された教師データの例を示す。この教師データには、図13(b)に示すように、上記の設置担当者の頭の向き(ロール角,ピッチ角,ヨー角)と、設置担当者の頭のバウンディングボックスの左上座用及び右下座標と、設置担当者の頭の近傍の視聴判別用サインについての視聴・非視聴のクラス分け結果(視聴判定結果)に加えて、タイムスタンプが含まれている。このタイムスタンプは、例えば、上記フレーム画像の元になる(広角Webカメラ3からの)映像のタイムスタンプである。なお、図13(b)では、頭の向き(ロール角,ピッチ角,ヨー角)を、(Roll1,Pitch1,Yaw1)等の抽象的な記載で表しているが、実際の教師データにおける、ロール角、ピッチ角、及びヨー角のデータは、数値のデータである。また、図13(b)では、視聴判別用サインについての視聴判定結果を、「●」(視聴)と「▲」(非視聴)の図形で表しているが、上記の視聴判定結果のデータは、実際には、“0”と“1”の二値データであることが望ましい。
【0051】
図13(b)に示す例では、教師データ保存F31内の1つ目のレコードが、図13(a)に示す視聴判別用サイン53と頭画像55に対応する教師データであり、2つ目のレコードが、図13(a)に示す視聴判別用サイン57と頭画像56に対応する教師データである。
【0052】
データ生成部35は、上記S11~S16の処理を繰り返すことにより、上記の教師データを教師データ保存F31に蓄積する。そして、店舗S内における予定範囲内のエリアの教師データの生成が完了すると(S17でYES)、サイネージ学習管理サーバ5のCPU22は、学習部37により、教師データ保存F31に蓄積された教師データを用いて、(学習済視聴判定NNモデル16bの)元になるニューラルネットワークの教師あり学習を行うことにより、学習済視聴判定NNモデル16bを生成する(S18)。この学習済視聴判定NNモデル16bは、フレーム画像から検出された人の位置と頭の向き(視線方向)を入力すると、この人が広告を視聴しているか否か(視聴か非視聴か)を出力する関数(視聴判定関数)を、学習済NNモデルで実現(実装)したものである。上記の学習部37による(学習済視聴判定NNモデル16bの元になる)ニューラルネットワークの教師あり学習は、上記の視聴判定関数のパラメータ調整に相当する。また、上記の自動設定部34(図5参照)による処理の全体は、上記の視聴判定関数のパラメータを自動的に調整することにより、視聴判定関数を自動的に最適化する処理に相当する。
【0053】
上記の学習済視聴判定NNモデル16bは、例えば、シンプルな3層程度の全結合層から構成されるニューラルネットワークである。このネットワークへの入力は、例えば、頭のバウンディングボックスの左上座標(のx座標及びy座標)と右下座標(のx座標及びy座標)を、それぞれ、0~1で正規化したものと、視線方向である頭の向き(3軸の角度)を0~1で正規化したものであり、このネットワークの出力は、例えば、“0”(非視聴)と“1”(視聴)の二値データである。
【0054】
上記S18の学習済視聴判定NNモデルの生成処理が完了すると、サイネージ学習管理サーバ5のCPU22は、生成した学習済視聴判定NNモデル16bをサイネージ2aに送信して、サイネージ2aのメモリ16に格納する(インストールする)(S19)。
【0055】
上記のように、この広告視聴判定システム1では、サイネージ2を店舗Sに設置する際に、特に人工知能やディープラーニング・コンピュータビジョンの知識を有さない(サイネージ2の)設置担当者が、店舗S内のいくつかの場所に立って、「視聴」を示す視聴判別用サイン53(「●」)を掲げながら、広告を視聴可能な視線方向(頭の向き)の範囲内で、首振りをする(頭の向きを徐々に変える)と共に、いくつかの場所に立って、「非視聴」を示す視聴判別用サイン57(「▲」)を掲げながら、広告を視聴不可能な視線方向の範囲内で、首振りをするだけで、店舗Sにおける、人(顧客)の位置と、広告を視聴しているとみなすことができる視線方向(頭の向き)との対応関係を自動的に設定することができる。すなわち、フレーム画像から検出された人の位置と頭の向き(視線方向)を入力すると、この人が広告を視聴しているか否かを出力することが可能な学習済視聴判定NNモデル16b(視聴判定関数)を、自動的に生成することができる。この学習済視聴判定NNモデル16bを用いて、店内の様々な位置にいる、様々な視線方向の人(顧客)が、広告を視聴しているか否かを正確に判定することができる。
【0056】
この広告視聴判定システム1によれば、実際の(サイネージ2の)広告及び広角Webカメラ3の設置条件における、人(顧客)の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向との対応関係が複雑な場合でも、フレーム画像に映り込んだ人が、広告を視聴しているか否かを正確に判定することができる。
【0057】
次に、図14乃至図16を参照して、上記のように、人の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向との対応関係が複雑な場合における、広告視聴判定システム1による視聴判定処理の例について、説明する。
【0058】
図14は、人61の視線方向62に、遮蔽物63(例えば、商品棚や、いわゆるポップ広告(商品周りの広告))があり、遮蔽物63に遮られて、人61がサイネージ2cの広告(3)を視聴することができない場合の例を示している。このような場合に、もし、広角Webカメラ3からのフレーム画像に映り込んだ人61の位置と視線方向(頭の向き)62だけで判定すると、この人61は、サイネージ2cの広告(3)を視聴することができると判定されるであろう。しかし、実際には、人61は、遮蔽物63に遮られて、サイネージ2cの広告(3)を視聴することができない。このような場合でも、本広告視聴判定システム1では、上記の学習済視聴判定NNモデル16bの学習時に、人(設置担当者)61が掲げた「非視聴」を示す視聴判別用サイン57(「▲」)を検出して、この人61の位置と視線方向62が、「非視聴」(広告を視聴しているとみなすことができない状態)に相当するという対応関係を学習(設定)することができるので、システムの実運用時に、上記の対応関係に基づいて、この位置と視線方向62の人61が、広告を視聴していないと判定することができる。
【0059】
また、図15は、人64の視線方向65にある(サイネージ2cの)広告(3)に、店内照明66の映り込み(照明映り込み箇所67)があるので、人64がサイネージ2cの広告(3)を視聴することができない場合の例を示している。この場合も、もし、広角Webカメラ3からのフレーム画像に映り込んだ人64の位置と視線方向(頭の向き)65だけで判定すると、この人64は、サイネージ2cの広告(3)を視聴することができると判定されるであろう。このような場合でも、本広告視聴判定システム1では、図14の場合と同様に、学習済視聴判定NNモデル16bの学習時に、人(設置担当者)64が掲げた「非視聴」を示す視聴判別用サイン57(「▲」)を検出して、この人64の位置と視線方向65が、「非視聴」に相当するという対応関係を学習(設定)することができるので、システムの実運用時に、上記の対応関係に基づいて、この位置と視線方向65の人64が、広告を視聴していないと判定することができる。
【0060】
また、この広告視聴判定システム1では、本実施形態のように、複数のサイネージ2a~2cの広告(1)~(3)を並べていることに起因して、人の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向との対応関係が複雑になる場合にも、広告の視聴の有無を正確に判定することができる。例えば、図16に示すように、人68の視線方向69の先が、サイネージ2aの広告(2)とサイネージ2cの広告(3)との間の隙間70に相当する位置である場合には、人68は、サイネージ2aの広告(2)も、サイネージ2cの広告(3)も、視聴することができない。このような場合でも、本広告視聴判定システム1では、図14及び図15の場合と同様に、学習済視聴判定NNモデル16bの学習時に、人(設置担当者)68が掲げた「非視聴」を示す視聴判別用サイン57(「▲」)を検出して、この人68の位置と視線方向69が、「非視聴」に相当するという対応関係を学習(設定)することができるので、この対応関係に基づいて、この位置と視線方向69の人68が、広告を視聴していないと判定することができる。
【0061】
上記図14図16では、遮蔽物や店内照明の映り込みの影響や、複数のサイネージの広告を並べていることに起因して、人の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向(頭の向き)との対応関係が複雑になる場合の例について説明したが、人の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向との対応関係が複雑になる場合には、店内が階層構造になっているために、二次元の座標として検出される人の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向との対応関係が複雑になる場合もある。本広告視聴判定システム1では、上記の店内が階層構造になっているために、二次元の座標として検出される人の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向との対応関係が複雑になる場合は勿論、サイネージ2a、2b、及び2cの設置位置や、広角Webカメラ3の設置位置及び向き等が、設置担当者により微妙に変わってしまうような状況でも、上記の設置担当者による僅少な工数の作業(視聴判別用サイン53、57を掲げて、数分間首振りをするという作業)で、学習済視聴判定NNモデル16b(視聴判定関数)のパラメータを最適化して、顧客の広告視聴の有無を正確に判定することができる。
【0062】
また、この広告視聴判定システム1では、店舗Sの改装等により、店舗Sのレイアウトや照明条件が変化してしまった場合でも、変化後の環境の店舗Sにおいて、設置担当者が視聴判別用サイン53、57を掲げて首振りをするという作業を実施するだけで、学習済視聴判定NNモデル16b(視聴判定関数)のパラメータを再度最適化して、上記の変化後の店舗Sでも、顧客の広告視聴の有無を正確に判定できるようにすることが可能である。
【0063】
本広告視聴判定システム1では、上記のように、設置担当者による僅少な工数の作業(視聴判別用サイン53、57を掲げて首振りをするという作業)で、学習済視聴判定NNモデル16b(視聴判定関数)のパラメータを最適化することができる。ここで、サイネージ2が設置される店舗Sが、多店舗展開のチェーン店であることが多く、店舗内の状況が経時的に変化するという点を考慮すると、本広告視聴判定システム1に採用されている視聴判定技術は、サイネージを利用した広告ビジネスを展開する上で、必須の技術であるということができる。
【0064】
また、本実施形態のように、サイネージ2a、2b、及び2cを横並びにして設置した場合や、サイネージの横幅が大きい場合には、人(顧客)の位置と視線方向との組み合わせが多くなる。このような場合でも、本広告視聴判定システム1によれば、上記のように、設置担当者による僅少な工数の作業で学習済視聴判定NNモデル16bのパラメータを最適化することにより、フレーム画像に映り込んだ人の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向(頭の向き)との対応関係を自動的に設定することができる。
【0065】
上記のように、本実施形態の広告視聴判定システム1によれば、サイネージ2の広告の前方周辺領域の実際のフレーム画像に基づいて、フレーム画像に映り込んだ人の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向(頭の向き)との対応関係を自動的に設定(学習)するようにした。これにより、実際の(サイネージ2の)広告及び広角Webカメラ3の設置条件における、人の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向との対応関係が複雑な場合でも、この対応関係を、実際の広告及び広角Webカメラ3の設置条件に応じて適切に自動設定することができる。従って、上記の自動設定した対応関係に基づいて、フレーム画像に映り込んだ人が、広告を視聴しているか否かを正確に判定することができる。
【0066】
また、本実施形態の広告視聴判定システム1によれば、自動設定部34が、ある位置における、ある視線方向の人が広告を視聴しているか否かを示す複数の正解画像(例えば、図11における視聴判別用サイン53と、この視聴判別用サイン53近傍の人(設置担当者50c)とが映り込んだフレーム画像51)に基づいて、フレーム画像に映り込んだ人の位置と、この位置の人が広告を視聴しているとみなすことができる視線方向との対応関係を自動的に設定するようにした。これにより、上記の対応関係(のパラメータ)を手入力で調整する必要がなくなる。
【0067】
また、本実施形態の広告視聴判定システム1によれば、広角Webカメラ3より取得したフレーム画像から、フレーム画像に映り込んだ人の頭の位置と、人の頭の向きと、人が広告を視聴しているか否かを示す視聴判別用サイン53、57を検出して、検出した人の頭の位置と、人の頭の向きと、視聴判別用サイン53、57とに基づいて、学習済視聴判定NNモデル16b生成用の教師データを生成するようにした。これにより、上記の教師データの作成時に、人が広告を視聴しているか否かを示す正解ラベルのアノテーションを手動で行う必要が無くなり、広角Webカメラ3より取得したフレーム画像から、上記の教師データを自動的に生成することができる。
【0068】
次に、図17乃至図27を参照して、本発明の第2の実施形態の広告視聴判定システム71について説明する。第2の実施形態の広告視聴判定システム71は、学習済視聴判定NNモデル16bの学習時に使用する教師データの生成方法が、第1の実施形態の広告視聴判定システム1と異なる。図17に示すように、第2の実施形態の広告視聴判定システム71のハードウェア構成は、タブレット端末72(請求項における「情報処理端末」)と、WiFi AP(WiFi Access Point)74と、ハブ75とを備えている点において、第1の実施形態の広告視聴判定システム1と異なる。第2の実施形態では、上記のサイネージ2aとタブレット端末72とサイネージ学習管理サーバ5が、請求項における情報処理装置に相当する。
【0069】
タブレット端末72は、広告視聴判定システム71の(主にサイネージ2の)設置担当者が携帯するモバイルタイプの情報処理端末であって、内蔵カメラ73(請求項における「撮像部」)を備えている。詳細については後述するが、タブレット端末72の裏面には、QRコードのステッカー(図22(b)参照)が貼り付けられている。このQRコードは、請求項における「可視コード」に相当する。
【0070】
次に、図18を参照して、上記のタブレット端末72のハードウェア構成について説明する。タブレット端末72は、上記の内蔵カメラ73に加えて、SoC81と、タッチパネルディスプレイ84と、スピーカ85と、各種のデータやプログラムを記憶するメモリ86と、通信部87と、二次電池88と、充電端子89とを備えている。SoC81は、装置全体の制御及び各種演算を行うCPU82と、各種の学習済DNNモデルの推論処理等に用いられるGPU83とを備えている。
【0071】
上記のメモリ86に格納されるプログラムには、上記の教師データの元データの一部を生成するタブレット側データ生成プログラム76が含まれている。また、メモリ86に格納されるファイルには、視聴非視聴データ保存ファイル77(以下、「視聴非視聴データ保存F」と記す)が含まれている。詳細については後述するが、視聴非視聴データ保存F77に保存されるデータは、タイムスタンプと広告の視聴/非視聴の判定結果とを組み合わせたデータ(視聴非視聴データ)である。通信部87は、通信ICとアンテナを備えている。タブレット端末72は、通信部87とネットワークとを介して、サイネージ2a、2b、2c、及びクラウドC上のサイネージ学習管理サーバ5と接続されている。また、二次電池88は、リチウムイオン電池等の、充電により繰り返し使用することが可能な電池であり、AC/DCコンバータにより直流電力に変換した後の商用電源からの電力を、蓄電して、タブレット端末72の各部に供給する。
【0072】
次に、図19を参照して、第2の実施形態のサイネージ学習管理サーバ5のハードウェア構成について、説明する。図19に示すように、第2の実施形態のサイネージ学習管理サーバ5は、ハードディスク28に、第1の実施形態における自動設定プログラム29の代わりに、サーバ側自動設定プログラム78を格納している点と、QRコード位置向き保存ファイル79(以下、「QRコード位置向き保存F」と記す)を格納している点以外は、第1の実施形態のサイネージ学習管理サーバ5(図4参照)と同じである。従って、図19におけるサーバ側自動設定プログラム78とQRコード位置向き保存F79以外の構成要素(ブロック)については、図1中の各ブロックと同じ符号を付して、その説明を省略する。
【0073】
上記のサーバ側自動設定プログラム78は、図20で後述するサーバ側自動設定部96の機能を果たすためのプログラムであり、上記のタブレット端末72側のタブレット側データ生成プログラム76と合わせて、請求項における「自動設定部」の機能を実現するためのプログラムである。第2実施形態では、上記のサーバ側自動設定プログラム78と、上記のサイネージ2aのサイネージ側広告視聴判定プログラム16aと、タブレット端末72のタブレット側データ生成プログラム76とが、請求項における広告閲覧判定プログラムに相当する。また、QRコード位置向き保存F79に格納されるデータは、設置担当者が掲げたタブレット端末72の裏面のQRコードの位置と向きの検出結果とタイムスタンプとを組み合わせたデータである。
【0074】
次に、図20を参照して、第2の実施形態におけるサイネージ2aとサイネージ学習管理サーバ5とタブレット端末72の機能ブロックについて、説明する。図20に示すように、第2の実施形態におけるサイネージ2aの機能ブロックの構成は、検出パターン表示制御部95を備えている点以外は、第1の実施形態のサイネージ2aの機能ブロック(図5参照)と同じである。また、第2の実施形態におけるサイネージ学習管理サーバ5の機能ブロックとファイルの構成は、第1の実施形態における自動設定部34とデータ生成部35(図5参照)の代わりに、サーバ側自動設定部96とサーバ側データ生成部97を備えている点と、上記のQRコード位置向き保存F79を備えている点と、サーバ側データ生成部97がQRコード位置向き検出部98を備えている点以外は、第1の実施形態のサイネージ学習管理サーバ5と同じである。従って、図5に示した第1の実施形態のサイネージ2aとサイネージ学習管理サーバ5の構成要素(機能ブロック及びファイル)と同じものについては、図5と同じ符号を付して、その説明を省略する。
【0075】
まず、タブレット端末72の機能ブロックから説明する。図20に示すように、タブレット端末72は、機能ブロックとして、上記の内蔵カメラ73と、タブレット側データ生成部90とを備えている。また、タブレット側データ生成部90は、検出パターン表示指示部91と、画像入力部92と、視聴非視聴判定部93(請求項における「閲覧非閲覧判定部」に相当)と、データ結合要求部94と、上記の視聴非視聴データ保存F77とを備えている。上記のタブレット側データ生成部90と、サイネージ学習管理サーバ5のサーバ側データ生成部97とが、請求項における「データ生成部」に相当する。検出パターン表示指示部91は、主に、図18中のタッチパネルディスプレイ84と、CPU82と、通信部87と、タブレット側データ生成プログラム76とにより実現される。画像入力部92及び視聴非視聴判定部93は、図18中のSoC81とタブレット側データ生成プログラム76とにより実現される。データ結合要求部94は、図18中のCPU82と、通信部87と、タブレット側データ生成プログラム76とにより実現される。
【0076】
上記のタブレット側データ生成部90は、上記の教師データの元データの一部である視聴非視聴データ(タイムスタンプと広告の視聴/非視聴の判定結果とを組み合わせたデータ)を生成する機能ブロックである。上記の検出パターン表示指示部91は、サイネージ2aのディスプレイ14に、容易に検出可能な色及びパターンを有する所定の検出パターン(請求項における「所定のパターン」に相当)(の画像)を表示するように、サイネージ2aに対して指示する機能を有している。上記の所定の検出パターンの画像には、検出し易い色(単色)のみで構成された塗りつぶしの画像や、検出し易い模様で構成された白黒の画像等が含まれる。画像入力部92は、内蔵カメラ73から撮影画像(フレーム画像)を入力する。より正確に言うと、画像入力部92は、内蔵カメラ73から入力された映像ストリームをデコードして、フレーム画像のデータにする。
【0077】
上記の視聴非視聴判定部93は、内蔵カメラ73で撮影したフレーム画像に、所定の面積以上の所定の検出パターンが存在するか否かを判定することにより、QRコード位置向き検出部98で検出したQRコードの位置と向きに対応した、頭の位置と向きの人が、広告を視聴しているとみなすことができるか否かを判定して、この(広告の)視聴/非視聴の判定結果とタイムスタンプとを組み合わせたデータ(視聴非視聴データ)を、視聴非視聴データ保存F77に保存する。データ結合要求部94は、設置担当者がタブレット端末72のタッチパネルディスプレイ84から、サイネージ学習管理サーバ5へのデータ結合要求を指示入力した時に、サイネージ学習管理サーバ5に対して、視聴非視聴データ保存F77に保存された視聴非視聴データと共に、データ結合要求を送信する。
【0078】
次に、サイネージ2aの検出パターン表示制御部95について、説明する。サイネージ2aの検出パターン表示制御部95は、タブレット端末72の検出パターン表示指示部91から送信された、上記所定の検出パターンの表示指示に基づいて、所定の検出パターンの画像をディスプレイ14に表示する。
【0079】
次に、サイネージ学習管理サーバ5のサーバ側データ生成部97とQRコード位置向き検出部98について、説明する。QRコード位置向き検出部98は、撮影画像取得部33により取得したフレーム画像から、フレーム画像に映り込んだ(タブレット端末72裏面の)QRコード(図22(b)及び図25参照)の位置と向きを検出して、検出したQRコードの位置及び向きとタイムスタンプとを組み合わせたデータ(QRコード位置向きデータ)を、QRコード位置向き保存F79に保存する。サーバ側データ生成部97は、タブレット端末72のデータ結合要求部94から送信されたデータ結合要求に応じて、QRコード位置向き検出部98で検出したQRコードの位置と向き、及びタブレット端末72のデータ結合要求部94から送信された上記の視聴非視聴データ(視聴非視聴判定部93により判定した、広告を視聴しているとみなすことができるか否かの判定結果)に基づいて、教師データを生成して、教師データ保存F31に保存する。
【0080】
次に、図21のフローチャートと、図22図27の説明図を参照して、上記の学習済視聴判定NNモデル16bの学習時(正確に言うと、学習済視聴判定NNモデル16bの元になるニューラルネットワークの学習時)における、第2の実施形態の広告視聴判定システム71の処理について、詳述する。
【0081】
図21に示す学習時の処理では、設置担当者は、図22(a)(b)に示すタブレット端末72を用いて、上記の教師データを生成する。図22(a)に示すように、タブレット端末72は、その表面72aに、タッチパネルディスプレイ84を有している。また、タブレット端末72は、図22(b)に示すように、その裏面72bに、QRコード99を有している。より正確に言うと、タブレット端末72の裏面72bに、QRコード99のステッカーが貼り付けられている。なお、このQRコード99は、タブレット端末72の裏面72bに印字したもの等であってもよい。
【0082】
この学習時の処理では、設置担当者が、まず、タブレット端末72において、上記の検出パターン表示指示部91を用いて、サイネージ2a、2b、及び2cに、上記の容易に検出可能な色及びパターンを有する所定の検出パターンを表示するように、指示入力する(S21)。具体的には、設置担当者が、タブレット端末72において、タブレット側データ生成プログラム76を起動するように指示すると、タブレット端末72のCPU82は、タブレット側データ生成プログラム76を起動した後、このプログラムに従って、図23の左側に示すように、「タップして、サイネージ上に検出パターンを表示させてください」というメッセージ101を、タッチパネルディスプレイ84上に表示する。設置担当者が、このメッセージ101に従って、タッチパネルディスプレイ84をタップすると、図20で説明したタブレット端末72側の検出パターン表示指示部91と、サイネージ学習管理サーバ5側の検出パターン表示制御部95の機能により、図23の右上に示すように、上記の容易に検出可能な所定の検出パターン103が、サイネージ2a、2b、及び2cのディスプレイ14に表示される。また、上記のタッチパネルディスプレイ84のタップにより、タブレット端末72のCPU82が、タブレット側データ生成プログラム76に従って、図23の右上に示すように、「端末を色んな方向に回転させてください」というメッセージ102を、タッチパネルディスプレイ84上に表示すると共に、タブレット側データ生成プログラム76に含まれる検出用アプリケーション(上記の検出パターン103の検出用アプリケーション)を起動して、検出パターン103の検出の準備に入る。
【0083】
上記のように、サイネージ2a、2b、及び2cのディスプレイ14に、容易に検出可能な所定の検出パターン103を表示した状態で、設置担当者が、タッチパネルディスプレイ84に表示された上記のメッセージ102に従って、裏面72bにQRコード99(のステッカー)が貼り付けられたタブレット端末72を、頭の位置に掲げて、様々な向きに回転させる(S22)。すると、タブレット端末72のCPU82が、画像入力部92(図20参照)を用いて内蔵カメラ73の撮影映像を入力して、図23の右下に示すように、この撮影映像をタッチパネルディスプレイ84に表示すると共に、画像入力部92を用いて、この撮影映像からフレーム画像を切り出す(S23)。
【0084】
次に、タブレット端末72のCPU82は、上記の検出用アプリケーションを用いて、図23の右下に示すように、上記の撮影映像から切り出したフレーム画像の検出領域104内において、検出パターン103を検出する。そして、タブレット端末72のCPU82(の視聴非視聴判定部93)は、上記の検出領域104内に、一定面積以上の検出パターン103が検出された否かに基づいて、図25の説明で後述する方法で検出したQRコードの位置と向きに対応した、頭の位置と向きの人が、広告を視聴しているとみなすことができるか否かを判定して、この(広告の)視聴/非視聴の判定結果とタイムスタンプとを組み合わせたデータ(視聴非視聴データ)を、視聴非視聴データ保存F77に保存する(S24)。タブレット端末72のCPU82(の視聴非視聴判定部93)は、例えば、図23の右下の左側の検出領域104と検出パターン103のように、検出領域104内に一定面積以上の検出パターン103が検出されなかった場合は、非視聴(上記の頭の位置と向きの人が、広告を視聴しているとみなすことができない)と判定し、図23の右下の右側の検出領域104と検出パターン103のように、検出領域104内に一定面積以上の検出パターン103が検出された場合は、視聴(上記の頭の位置と向きの人が、広告を視聴しているとみなすことができる)と判定する。
【0085】
図24は、視聴非視聴データ保存F77に保存されたデータの例を示す。図24に示すように、視聴非視聴データ保存F77には、タイムスタンプと(広告の)視聴/非視聴の判定結果とを組み合わせたデータ(視聴非視聴データ)が格納されている。このタイムスタンプは、例えば、上記フレーム画像の元になる(内蔵カメラ73からの)映像のタイムスタンプである。なお、図24では、視聴/非視聴の判定結果を、「視聴」と「非視聴」の文字で表しているが、上記の視聴/非視聴の判定結果のデータは、実際には、“0”と“1”の二値データであることが望ましい。
【0086】
上記S22で説明したように、設置担当者105が、店舗S内の様々な位置で、図25(a)(b)に示すように、裏面72bにQRコード99が貼り付けられたタブレット端末72を、様々な向きに回転させると、サイネージ2a側の撮影画像取得部33(図20参照)が、広角Webカメラ3より入力された撮影映像から、フレーム画像を切り出して(S25)、サイネージ学習管理サーバ5に送信する。
【0087】
サイネージ学習管理サーバ5のSoC81(のQRコード位置向き検出部98)は、サイネージ2aから受信した上記のフレーム画像から、フレーム画像に映り込んだ、タブレット端末72の裏面72bのQRコード99の位置と向きを検出して、検出したQRコード99の位置及び向きを、タイムスタンプと共に、QRコード位置向き保存F79に保存する(S26)。
【0088】
上記のQRコード99の位置と向きの検出処理について、より詳細に説明する。サイネージ学習管理サーバ5のQRコード位置向き検出部98は、サイネージ2aから受信した上記のフレーム画像を、学習済QRコード検出DNNモデル(ディープラーニングによりQRコード99を検出するように学習したDNNモデル)に入力して、上記のフレーム画像内のQRコード99の位置(QRコード99のバウンディングボックスの左上座標と右下座標)を得る。そして、QRコード位置向き検出部98は、上記のフレーム画像からQRコード99のバウンディングボックスの部分を切り出したQRコード画像を生成する。
【0089】
上記のQRコード画像の生成(切り出し)処理が完了すると、QRコード位置向き検出部98は、このQRコード画像を、学習済QRコード向き検出DNNモデル(QRコード画像が入力されると、この画像に映ったQRコード99の向きを、3軸の角度(Roll(ロール)角,Pitch(ピッチ)角,Yaw(ヨー)角)で出力するように、ディープラーニングで学習したDNNモデル)に入力して、QRコード画像に映ったQRコード99の向きを検出する。
【0090】
図26は、QRコード位置向き保存F79に保存されるQRコード位置向きデータの例を示す。この例では、QRコード位置向き保存F79に格納された1つ目のQRコード位置向きデータ(のレコード)は、図25(a)に示すQRコード99の位置と、QRコード99の向き107において、QRコード位置向き検出部98で検出したQRコード99の位置(QRコード99のバウンディングボックスの左上座標(X11,Y11)、右下座標(X12,Y12))と、QRコード99の3軸の角度(Roll1,Pitch1,Yaw1)で構成されている。また、QRコード位置向き保存F79に格納された2つ目のQRコード位置向きデータ(のレコード)は、図25(b)に示すQRコード99の位置と、QRコード99の向き108において、QRコード位置向き検出部98で検出したQRコード99の位置(QRコード99のバウンディングボックスの左上座標(X21,Y21)、右下座標(X22,Y22))と、QRコード99の3軸の角度(Roll2,Pitch2,Yaw2)で構成されている。なお、図26では、QRコード99の3軸の角度を、(Roll1,Pitch1,Yaw1)等の抽象的な記載で表しているが、実際のQRコード位置向きデータにおける、QRコード99の3軸の角度のデータは、数値のデータである。
【0091】
上記S22~S26の処理を繰り返すことによる、教師データの元データ(視聴非視聴データとQRコード位置向きデータ)の採取が完了して(S27でYES)、設置担当者が、タブレット端末72のタッチパネルディスプレイ84を用いて、サイネージ学習管理サーバ5へのデータ結合要求を指示入力すると(S28)、タブレット端末72が、データ結合要求部94を用いて、サイネージ学習管理サーバ5に対して、視聴非視聴データ保存F77に保存された視聴非視聴データと共に、データ結合要求を送信する。
【0092】
サイネージ学習管理サーバ5(のサーバ側データ生成部97)は、タブレット端末72から、上記の視聴非視聴データ(視聴/非視聴の判定結果とタイムスタンプとを組み合わせたデータ)と、データ結合要求を受信すると(S29)、受信した視聴非視聴データと、サイネージ学習管理サーバ5側で生成したQRコード位置向きデータ(QRコードの位置と向きの検出結果とタイムスタンプとを組み合わせたデータ)とを結合して、人の頭の位置と、頭の向きと、視聴/非視聴の判定結果とを組み合わせた教師データを生成し、教師データ保存F31に保存する(S30)。
【0093】
例えば、視聴非視聴データ保存F77が、図24に示す視聴非視聴データ(のレコード)を格納しており、QRコード位置向き保存F79が、図26に示すQRコード位置向きデータ(のレコード)を格納しているときには、同じタイムスタンプを有するレコード同士が結合されて、図27に示す教師データ保存F31の教師データが生成される。ここで、このサーバ側データ生成部97による教師データの生成では、設置担当者が頭の位置に掲げたタブレット端末72に貼り付けられたQRコード99の位置(QRコード99のバウンディングボックスの左上座標と右下座標)と、QRコード99の向き(3軸の角度)とを、それぞれ、人の頭の位置と、頭の向きとみなして、人の頭の位置と、頭の向きと、視聴/非視聴の判定結果とを組み合わせた教師データを生成する。例えば、図25(a)に示すQRコード99の位置と、QRコード99の向き107とが、人の頭の位置と、頭の向きである時には、この人は、広告を視聴しているとみなすことができると判定されるので、図27に示す図25(a)に対応する教師データ(1つ目のレコード)の視聴/非視聴判定結果は、「視聴」である。これに対して、図25(b)に示すQRコード99の位置と、QRコード99の向き108とが、人の頭の位置と、頭の向きである時には、この人は、広告を視聴しているとみなすことができないと判定されるので、図27に示す図25(b)に対応する教師データ(2つ目のレコード)の視聴/非視聴判定結果は、「非視聴」である。なお、図27では、視聴/非視聴の判定結果を、「視聴」、「非視聴」という文字で表しているが、上記の視聴/非視聴の判定結果は、実際には、“0”と“1”の二値データであることが望ましい。
【0094】
上記S30の教師データの生成処理が完了すると、上記第1の実施形態における学習時処理の場合と同様に、サイネージ学習管理サーバ5のCPU22は、学習部37により、教師データ保存F31に蓄積された教師データを用いて、(学習済視聴判定NNモデル16bの)元になるニューラルネットワークの教師あり学習を行うことにより、学習済視聴判定NNモデル16bを生成する(S31)。そして、サイネージ学習管理サーバ5のCPU22は、生成した学習済視聴判定NNモデル16bをサイネージ2aに送信して、サイネージ2aのメモリ16に格納する(インストールする)(S32)。
【0095】
上記のように、本実施形態の広告視聴判定システム1によれば、設置担当者が、裏面72bにQRコード99(のステッカー)が貼り付けられたタブレット端末72を、頭の位置に掲げて、様々な向きに回転させ、広角Webカメラ3からのフレーム画像に映り込んだQRコード99の位置と向きを検出すると共に、タブレット端末72の内蔵カメラ73で撮影したフレーム画像に、所定の面積以上の所定の検出パターンが存在するか否かを判定することにより、上記の検出したQRコードの位置と向きに対応した、頭の位置と向きの人が、広告を視聴しているとみなすことができるか否かを判定する。そして、上記の検出したQRコードの位置と向き、及び上記の広告を視聴しているとみなすことができるか否かの判定結果に基づいて、教師データを生成するようにした。これにより、上記の第1の実施形態の場合のように、設置担当者が、自分の頭の位置と視線方向(頭の向き)が、「視聴」を示す視聴判別用サイン53(「●」)を掲げるべきケースであるか、「非視聴」を示す視聴判別用サイン57(「▲」)を掲げるべきケースであるかを判断する場合と比べて、設置担当者による教師データの質のバラツキを抑えて、より安定した良質の教師データを生成することができる確率を高めることが可能になる。従って、上記の良質の教師データに基づいて、広角Webカメラ3からのフレーム画像に映り込んだ人が、広告を視聴しているか否かをより正確に判定することが可能な学習済視聴判定NNモデル16bを生成することができる。
【0096】
変形例:
なお、本発明は、上記の各実施形態の構成に限られず、発明の趣旨を変更しない範囲で種々の変形が可能である。次に、本発明の変形例について説明する。
【0097】
変形例1:
上記第1及び第2の実施形態では、請求項における「広告」が、サイネージ2で放映される広告である場合の例を示したが、本発明における広告は、これに限られず、他の種類のデジタル広告(例えば、Web広告)であってもよいし、紙やプラスチック等の媒体による広告であってもよい。
【0098】
変形例2:
上記第1及び第2の実施形態では、広告の設置場所がチェーン店等の店舗S内である場合を示したが、広告の設置場所は、これに限られず、例えば、店舗以外の施設内であってもよいし、街中等の施設外の場所であってもよい。
【0099】
変形例3:
上記第1の実施形態では、人の視線方向が、人の頭の向きから推定した視線方向(人の頭の向きの角度)である場合の例を示したが、請求項における「視線方向」は、これに限られず、例えば、人の瞳の中心位置と目領域を検出して、検出した瞳の中心位置と目領域に基づいて求めた目線の方向であってもよい。
【0100】
変形例4:
上記第1及び第2の実施形態では、サイネージ2aに外付けの広角Webカメラ3を接続した場合の例を示したが、請求項における「撮影装置」は、これに限られず、例えば、サイネージの内蔵カメラであってもよいし、広告の前方周辺の領域を撮影する監視カメラであってもよい。
【0101】
変形例5:
上記第1の実施形態では、請求項における「情報処理装置」が、サイネージ2aとサイネージ学習管理サーバ5とで構成される場合の例を示したが、「情報処理装置」を、サイネージのみで構成してもよいし、サイネージ学習管理サーバのみで構成してもよい。
【0102】
変形例6:
上記第1及び第2の実施形態では、サイネージ2aが、撮影画像取得部33と位置向き検出部38と視聴判定部39とを備える構成にしたが、この構成に限られず、例えば、サイネージに接続するカメラを、いわゆるエッジコンピューティング機能を有するAI(Artificial Intelligence)カメラにして、このAIカメラに、頭検出処理、頭向き検出処理、及び広告視聴判定処理等の推論処理用の学習済DNNモデルを備えたアプリパッケージをインストールし、AIカメラが、上記の撮影画像取得部33、位置向き検出部38、及び視聴判定部39と同様な機能を備えるようにしてもよい。
【0103】
変形例7:
上記第1及び第2の実施形態では、サイネージ2(サイネージ2a、2b、及び2c)が、ディスプレイ14と、SoC12等のコンピューティング処理用の部分とを一体化した構成である場合の例を示したが、サイネージは、ディスプレイと、コンピューティング処理用の部分とが分離したタイプのものであってもよい。
【0104】
変形例8:
上記第1及び第2の実施形態では、サイネージ2が3台である場合の例を示したが、サイネージの台数は、1つであっても、複数であってもよい。また、上記の実施形態では、3台のサイネージ2a、2b、及び2cのうち、サイネージ2aだけに、カメラ(広角Webカメラ3)を接続した場合の例を示したが、サイネージの台数が複数である場合に、全てのサイネージにカメラを接続して、各サイネージにインストールした学習済視聴判定NNモデルを用いて、各サイネージの前方周辺の領域の撮影画像(フレーム画像)に映り込んだ人が、広告を視聴しているか否かを判定するようにしてもよい。
【0105】
変形例9:
上記第1及び第2の実施形態では、サイネージ2が、GPU13を備え、このGPU13を用いて、各種の学習済DNNモデルの推論処理を行う場合の例を示したが、サイネージが、必ずしも、GPUを備えている必要はなく、CPUを用いて、各種の学習済DNNモデルの推論処理を行ってもよい。
【符号の説明】
【0106】
1、71 広告視聴判定システム(広告閲覧判定システム)
2、2a、2b、2c サイネージ(2aは、「情報処理装置」の一部)
3 広角Webカメラ(撮影装置)
5 サイネージ学習管理サーバ(「情報処理装置」の一部)
16a サイネージ側広告視聴判定プログラム(「広告閲覧判定プログラム」の一部)
16b 学習済視聴判定NNモデル(機械学習済みモデル)
29 自動設定プログラム(「広告閲覧判定プログラム」の一部)
33 撮影画像取得部
34 自動設定部
35 データ生成部
37 学習部
39 視聴判定部(閲覧判定部)
53 視聴判別用サイン(閲覧判別用情報)
57 視聴判別用サイン(閲覧判別用情報)
72 タブレット端末(情報処理端末、「情報処理装置」の一部)
73 内蔵カメラ(撮像部)
76 タブレット側データ生成プログラム(「広告閲覧判定プログラム」の一部)
78 サーバ側自動設定プログラム(「広告閲覧判定プログラム」の一部)
90 タブレット側データ生成部(「データ生成部」の一部)
93 視聴非視聴判定部(閲覧非閲覧判定部)
96 サーバ側自動設定部(「自動設定部」の一部)
97 サーバ側データ生成部(「データ生成部」の一部)
98 QRコード位置向き検出部(可視コード位置向き検出手段)
99 QRコード(可視コード)

図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27