(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2025-09-29
(45)【発行日】2025-10-07
(54)【発明の名称】インサイト調査システム、インサイト調査方法、及びインサイト調査プログラム
(51)【国際特許分類】
G06Q 30/0203 20230101AFI20250930BHJP
G06F 3/01 20060101ALI20250930BHJP
【FI】
G06Q30/0203
G06F3/01 510
(21)【出願番号】P 2025041958
(22)【出願日】2025-03-16
【審査請求日】2025-04-14
(31)【優先権主張番号】P 2024191244
(32)【優先日】2024-10-30
(33)【優先権主張国・地域又は機関】JP
【新規性喪失の例外の表示】特許法第30条第2項適用 PR TIMESのウェブサイト (1)令和6年3月18日 https://prtimes.jp/main/html/rd/p/000000006.000116494.html (2)令和6年9月13日 https://prtimes.jp/main/html/rd/p/000000012.000116494.html (3)令和6年9月13日 https://prtimes.jp/main/html/rd/p/000000126.000071963.html (4)令和6年11月11日 https://prtimes.jp/main/html/rd/p/000000013.000116494.html (5)令和7年2月3日 https://prtimes.jp/main/html/rd/p/000000017.000116494.html
【早期審査対象出願】
(73)【特許権者】
【識別番号】523126630
【氏名又は名称】ヴィアゲート株式会社
(74)【代理人】
【識別番号】100205006
【氏名又は名称】板東 雄二郎
(74)【代理人】
【識別番号】100222117
【氏名又は名称】鬼鞍 信太郎
(72)【発明者】
【氏名】新冨 健太
(72)【発明者】
【氏名】渡辺 寛紀
(72)【発明者】
【氏名】河相 光孝
【審査官】加舎 理紅子
(56)【参考文献】
【文献】国際公開第2023/112745(WO,A1)
【文献】特開2010-224715(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00 - 99/00
G06F 3/01
(57)【特許請求の範囲】
【請求項1】
動画に対する視聴者のインサイトを調査するインサイト調査システムであって、
前記動画を表示し、
前記視聴者が前記動画を見たときの顔を撮影することにより、前記視聴者が前記動画を見たときの視線情報又は表情情報を取得し、
前記視線情報又は表情情報を解析することにより、前記動画の中で前記視聴者の注目度が高かった時間に対応する注目シーンを特定し、
前記注目シー
ンをAIに入力することにより、前記注目シーンに関する質問を生成し、
前記質問を表示し、
前記質問に対する回答を前記視聴者から受付ける、
インサイト調査システム。
【請求項2】
前記質問及び前記回答は、チャット形式で行う、
請求項1に記載のインサイト調査システム。
【請求項3】
前記質問とともに、前記注目シーンを示す画像を表示する、
請求項1に記載のインサイト調査システム。
【請求項4】
前記注目シーンの特徴を示す言葉を生成し、
前記質問は、前記特徴を示す言葉を含む、
請求項1に記載のインサイト調査システム。
【請求項5】
前記質問は、メイン質問とフォロー質問により構成される、
請求項1に記載のインサイト調査システム。
【請求項6】
前記質問を生成する際に用いるべき質問モデルの選択を前記視聴者から受付け、
前記質問モデルに対して前記注目シーンに対応する動画を入力することにより、前記質問を生成する、
請求項1に記載のインサイト調査システム。
【請求項7】
動画に対する視聴者のインサイトを調査するインサイト調査システムが実行するインサイト調査方法であって、
前記動画を表示し、
前記視聴者が前記動画を見たときの顔を撮影することにより、前記視聴者が前記動画を見たときの視線情報又は表情情報を取得し、
前記視線情報又は表情情報を解析することにより、前記動画の中で前記視聴者の注目度が高かった時間に対応する注目シーンを特定し、
前記注目シー
ンをAIに入力することにより、前記注目シーンに関する質問を生成し、
前記質問を表示し、
前記質問に対する回答を前記視聴者から受付ける、
インサイト調査方法。
【請求項8】
請求
項7に記載のインサイト調査方法を、インサイト調査システムに実行させるインサイト調査プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、インサイト調査システム、インサイト調査方法、及びインサイト調査プログラムに関する。
【背景技術】
【0002】
コロナ禍の影響によって社会生活の大部分においてオンライン化(換言すれば、デジタルトランスフォーメーション(DX)化)が加速度的に現在進んできている。特に、マーケティング分野においては、デジタルマーケティングが紙媒体等を用いた従来のマーケティングよりも主流となっている。デジタルマーケティングの分野においては、ECサイトによる販売に加えて、各種ポータルサイト上に広告用コンテンツ(画像や動画等)を表示したり、YouTube(登録商標)等の動画プラットフォーム上に広告用コンテンツをアップしたりする手法が、現在主流となりつつある。
【0003】
従来、広告評価システムでは、広告用コンテンツで紹介された商品をユーザーが実際に購入したかどうかの販売実績に応じて、当該コンテンツの効果が評価されていた。このため、当該広告評価システムでは、広告対象の商品の実際の販売実績が未だない段階では、広告用コンテンツを評価することはできなかった。その一方で、商品についてのデジタルマーケティングを行う企業側では、広告用コンテンツのローンチ前に、当該コンテンツに関する詳細なインサイトを把握しておきたい、とのニーズが存在する。ここで、「インサイト」とは、顧客のデータやフィードバックを分析して洗練された形で提示される、顧客の潜在的ニーズ、感情、動機、価値観、行動パターンや傾向に関する深い理解を意味する。
【0004】
特許文献1および特許文献2には、上記企業側のニーズに対応すべく、人がコンテンツを見たときの生体情報(視線や表情等)に基づいて、当該コンテンツに対する消費者のインサイトを解析するシステムが開示されている。具体的には、特許文献1はCM等の動画のコンテンツを、特許文献2はWebページ等の静止画のコンテンツを、それぞれ対象としている。
【先行技術文献】
【特許文献】
【0005】
【文献】特許第7398853号
【文献】特許第7398854号
【発明の概要】
【発明が解決しようとする課題】
【0006】
しかしながら、前記特許文献では、人がコンテンツを見たときの生体情報に基づく消費者のインサイトは分かるものの、更に深堀りした情報を得ることは難しい。例えば、当該コンテンツの中で何らかのシーンやオブジェクトに対して消費者の注目度や興味度が高いということが判明した場合に、マーケティングの視点からすると、その理由を知ることでコンテンツの改善等に役立てたいと考えるが、そこまでは至っていなかった。インサイト調査として、より有用な価値提供を行うには、消費者が何に注目し興味を持ったかのみならず、その理由や消費者の生活環境等も含むバックグラウンドを深く理解することが重要である。
【0007】
本開示は、コンテンツに対するインサイト調査において、生体情報だけでは分からない情報を明らかにすることを目的とする。
【課題を解決するための手段】
【0008】
本開示の一態様に係るインサイト調査システムは、コンテンツに対するユーザーのインサイトを調査するインサイト調査システムであって、前記コンテンツを表示し、前記ユーザーが前記コンテンツを見たときの生体情報を取得し、前記生体情報に基づいて、前記コンテンツの中で前記ユーザーが注目した注目箇所を特定し、前記注目箇所に関する質問を生成し、前記質問を表示し、前記ユーザーから前記質問に対する回答を受付け、前記回答に基づいて、前記インサイトの調査結果を出力する。
【発明の効果】
【0009】
本開示によれば、コンテンツに対するインサイト調査において、生体情報だけでは分からない情報を明らかにすることができる。
【図面の簡単な説明】
【0010】
【
図5】インサイト調査システムが実行する処理の概要
【
図7】インタビューの設定画面2:ブランド情報登録
【
図8】インタビューの設定画面3:ブランド情報閲覧
【
図10】インタビューの設定画面5A:インタビュー作成A
【
図11】インタビューの設定画面5B:インタビュー作成B
【
図12】インタビューの設定画面5C:インタビュー作成C
【
図15】インタビューの例1:メイン質問とフォロー質問
【
図16】インタビューの例2:コンテンツの一部を冒頭に表示
【
図18】インタビュー結果画面:クラスタリング結果
【
図20】インタビュー結果画面:テーブルデータのダウンロード
【
図21】インタビュー結果画面:クラスターの属性分布
【
図22】インタビュー結果画面:動機・シーン・アクション(樹形図)
【
図23】インタビュー結果画面:動機・シーン・アクション(サンバースト図)
【
図24】インタビュー結果画面:動機・シーン・アクション(属性ごとの分析結果)
【
図25】インタビュー結果画面:動機・シーン・アクション(組み合わせの出現回数/ラベル別の詳細情報)
【
図26】インタビュー結果画面:動機・シーン・アクション(ユーザー情報確認)
【
図28】インタビュー結果画面:各ユーザーの詳細情報
【
図29】インタビュー結果画面:各ユーザーのインタビューの内容
【発明を実施するための形態】
【0011】
〔定義〕
本実施形態に係る用語の定義は、次の通りである。「インサイト」とは、顧客のデータやフィードバックを分析して洗練された形で提示される、顧客の潜在的ニーズ、感情、動機、価値観、行動パターンや傾向に関する深い理解を意味する。「コンテンツ」とは、人が見るために作成された画像や動画等であり、例えば、ECサイト上のWebページ、各種ポータルサイト上の広告、YouTube(登録商標)等の動画プラットフォーム上における広告等を含む。「視聴者」「ユーザー」とは、コンテンツを見る人であり、コンテンツが動画の場合は視聴者、コンテンツがWebページの場合は閲覧者を意味し、インサイト調査の被験者となる一般消費者の代表を意味する。「操作者」とは、インサイト調査を発注する企業の担当者や、インサイト調査を受注して実施する企業の担当者等を意味する。「生体情報」とは、人がコンテンツを見ているときの視線や表情等を計測して得られる、視線情報や表情情報等を意味する。
【0012】
〔システムの概要〕
以下、本実施形態に係るインサイト調査システム1について図面を参照しながら説明する。
図1は、本実施形態に係るインサイト調査システム1の構成の一例を示す図である。
図1に示すように、インサイト調査システム1は、視聴者端末2a,2bと、サーバ3と、企業側端末4とを備える。これらは通信ネットワーク8に接続されている。視聴者端末2a,2bの各々は、通信ネットワーク8を介してサーバ3に通信可能に接続されている。企業側端末4は、通信ネットワーク8を介してサーバ3に通信可能に接続されている。通信ネットワーク8は、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、無線コアネットワークのうちの少なくとも一つによって構成されている。
【0013】
視聴者端末2aは、視聴者Vaに関連付けられた端末であって、視聴者Vaによって操作される。視聴者端末2bは、視聴者Vbに関連付けられた端末であって、視聴者Vbによって操作される。尚、本実施形態では、説明の便宜上、視聴者端末2a,2bを視聴者端末2と総称する場合がある。同様に、視聴者Va,Vbを視聴者Vと総称する場合がある。また、本実施形態では、多数の視聴者に関連付けられた多数の視聴者端末2がインサイト調査システム1に設けられているが、説明の便宜上、多数の視聴者端末のうちの2台の視聴者端末2a,2bのみが
図1では図示されている。視聴者端末2の種類は特に限定されるものではなく、視聴者端末2は、例えば、スマートフォン、パーソナルコンピュータ、タブレット又はウェアラブルデバイス(例えば、ヘッドマウントディスプレイやARディスプレイ)等であってもよい。
【0014】
〔視聴者端末の構成〕
次に、
図2を参照して、視聴者端末2のハードウェア構成について以下に説明する。
図2は、視聴者端末2のハードウェア構成の一例を示す図である。
図2に示すように、視聴者端末2は、制御部20と、記憶装置21と、撮像部22と、通信部23と、入力操作部24と、表示部25と、スピーカ26と、RTC(Real Time Clock)28とを備える。視聴者端末2を構成するこれらの要素は通信バス29に接続されている。
【0015】
制御部20は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令(プログラム)を記憶するように構成されている。例えば、メモリは、各種プログラム等が格納されたROM(Read Only Memory)やプロセッサにより実行される各種プログラム等が格納される複数ワークエリアを有するRAM(Random Access Memory)等から構成される。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)及びGPU(Graphics Processing Unit)のうちの少なくとも一つにより構成される。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。プロセッサは、記憶装置21又はROMに組み込まれた各種プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。
【0016】
記憶装置21は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等の記憶装置(ストレージ)であって、プログラムや各種データを格納するように構成されている。撮像部22は、撮影を通じて、視聴者端末2の周辺環境を示す映像データを取得するように構成されている。特に、撮像部22は、撮影を通じて視聴者端末2の周辺環境を示す画像データ若しくは映像データを生成するように構成されたカメラであって、イメージセンサ(例えば、CCDセンサやCMOSセンサ等)と、イメージセンサ駆動処理回路とを備える。本実施形態では、制御部20は、撮像部22によって取得された映像データに基づいて、視聴者Vの視線の変化を検出する視線トラッキング部として機能する。さらに、制御部20は、当該映像データに基づいて視聴者Vの表情の変化を検出する表情トラッキング部として機能する。
【0017】
通信部23は、通信ネットワーク8に接続された外部装置と通信するための無線通信モジュール及び/又は有線通信モジュールを備えている。無線通信モジュールは、基地局や無線LANルータ等の外部機器と無線通信するように構成され、送受信アンテナと、無線送受信回路とを備える。無線通信モジュールは、Wi-FiやBluetooth等の近距離無線通信規格に対応した無線通信モジュールであってもよいし、SIM(Subscriber Identity Module)を用いた第X世代移動体通信システム(例えば、LTE等の第4世代移動通信システム)に対応する無線通信モジュールであってもよい。
【0018】
入力操作部24は、例えば、表示部25の映像表示ディスプレイに重ねて配置されたタッチパネル、マウス、及び/又はキーボードであって、視聴者Vの入力操作を受け付けると共に、当該入力操作に応じた操作信号を生成するように構成されている。表示部25は、例えば、映像表示ディスプレイと、当該映像表示ディスプレイを駆動制御する映像表示回路とによって構成される。表示部25は、動画が表示される表示画面27を有する。
【0019】
スピーカ26は、動画に含まれる音声データに基づいて動画の音声を外部に向けて出力するように構成されている。RTC28は、現在時刻を示す情報を取得するように構成されている。
【0020】
図1に戻ると、サーバ3は、通信ネットワーク8を介して視聴者端末2及び企業側端末4に通信可能に接続されている。サーバ3は、通信ネットワーク8を介して複数の視聴者端末2の各々に動画データを送信すると共に、企業側端末4に注視点ヒートマップが動画に重畳された合成動画を送信する。サーバ3は、複数のサーバによって構成されてもよい。サーバ3は、WEBアプリケーションとしてインサイト調査アプリケーションを提供するように構成されたWEBサーバとして機能する。この点において、サーバ3は、インサイト調査画面を企業側端末4のWEBブラウザに表示するためのデータ(例えば、HTMLファイル、CSSファイル、画像や映像ファイル、プログラムファイル等)を送信するように構成されている。このように、サーバ3は、SaaS(System as a Service)を提供するためのサーバとして機能している。サーバ3は、オンプレミスで構築されてもよいし、クラウドサーバであってもよい。また、サーバ3は、複数の動画データ、各視聴者Vの注視点データ、及び各視聴者Vの表情データを管理するデータ管理サーバとして機能する。
【0021】
〔サーバの構成〕
図3を参照して、サーバ3のハードウェア構成について以下に説明する。
図3は、サーバ3のハードウェア構成の一例を示す図である。
図3に示すように、サーバ3は、制御部30と、記憶装置31と、入出力インターフェース32と、通信部33と、入力操作部34と、表示部35とを備える。サーバ3を構成するこれらの要素は通信バス36に接続されている。
【0022】
制御部30は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令を記憶するように構成されている。特に、メモリには、サーバ3によって実行される一連の処理(インサイト調査方法)をプロセッサに実行させるためのインサイト調査プログラムが記憶されてもよい。メモリは、ROM及びRAMにより構成されている。プロセッサは、CPU、MPU及びGPUのうちの少なくとも一つにより構成される。
【0023】
記憶装置31は、例えば、HDD、SSD、フラッシュメモリ等の記憶装置(ストレージ)であって、プログラムや各種データを格納するように構成されている。記憶装置31には、複数の動画データ、各視聴者Vの注視点データ、及び各視聴者Vの表情データが保存されている。また、記憶装置31には、各視聴者Vの情報に関連する視聴者情報テーブルおよびインサイト調査アプリケーションを利用する各ユーザーUに関連するユーザー情報テーブルが保存されている。視聴者情報テーブルは、各視聴者Vの属性情報を含む。例えば、視聴者情報テーブルは、各視聴者Vの識別情報、性別情報、年代情報、世帯人数情報、住所情報、職業情報のうちの少なくとも一つを含んでもよい。ユーザー情報テーブルは、各ユーザーUの識別情報、属性情報、ログイン情報等を含んでもよい。
【0024】
入出力インターフェース32は、外部装置とサーバ3との間の接続を可能とするインターフェースであって、USB規格やHDMI(登録商標)規格等の所定の通信規格に応じたインターフェースを含む。通信部33は、通信ネットワーク8上の外部端末と通信するための各種有線通信モジュールを含んでもよい。入力操作部34は、例えば、タッチパネル、マウス、及び/又はキーボード等であって、操作者の入力操作を受け付けると共に、操作者の入力操作に応じた操作信号を生成するように構成されている。表示部35は、例えば、映像表示ディスプレイと映像表示回路とによって構成されている。
【0025】
企業側端末4は、サーバ3によって提供されるインサイト調査アプリケーションを利用するユーザーUによって操作される端末である。本実施形態では、複数の企業側端末4がインサイト調査システム1に設けられているが(換言すれば、本実施形態では、複数のユーザーUがインサイト調査アプリケーションを利用しているが)、説明の便宜上、一台の企業側端末4のみが
図1では図示されている。
【0026】
〔企業側端末の構成〕
図4を参照して、企業側端末4のハードウェア構成について以下に説明する。
図4は、企業側端末4のハードウェア構成の一例を示す図である。
図4に示すように、企業側端末4は、例えば、パーソナルコンピュータ、スマートフォン、タブレット又はユーザーUに装着されたウェアラブルデバイスであってもよい。企業側端末4は、WEBブラウザを有する。インサイト調査アプリケーションは、企業側端末4のWEBブラウザ上で動作するものとする。企業側端末4は、制御部40と、記憶装置41と、入出力インターフェース42と、通信部43と、入力操作部44と、表示部45とを備える。これらの要素は通信バス46に接続されている。
【0027】
制御部40は、メモリとプロセッサを備えている。メモリは、コンピュータ可読命令(プログラム)を記憶するように構成されている。例えば、メモリは、ROM及びRAMにより構成されている。プロセッサは、例えば、CPU、MPU及びGPUのうちの少なくとも一つにより構成される。
【0028】
記憶装置41は、例えば、HDD、SSD、フラッシュメモリ等の記憶装置であって、プログラムや各種データを格納するように構成されている。入出力インターフェース42は、外部装置と企業側端末4との間の接続を可能とするインターフェース(例えば、USBやHDMI(登録商標)等)である。通信部43は、企業側端末4を通信ネットワーク8に接続するように構成されており、無線通信モジュール及び/又は有線通信モジュールを備える。入力操作部44は、例えば、タッチパネル、マウス、及び/又はキーボード等であって、ユーザーUの入力操作を受け付けると共に、ユーザーUの入力操作に応じた操作信号を生成するように構成されている。表示部45は、例えば、映像表示ディスプレイと映像表示回路とによって構成されている。
【0029】
〔処理の概要〕
図5を参照して、インサイト調査システム1が実行する処理の概要について、以下に説明する。
図5は、企業側端末4、サーバ3、視聴者端末2、の間で実行されるシーケンス図を示している。この処理は、大きく分けて、視聴者の生体情報の取得(S101~S105)、インタビューの設定(S111~S112)、インタビューの実施(S121~S128)、インタビュー結果の出力(S131~S134)、により構成される。また、実線は処理の流れ、点線は情報等の参照先、に対応する。なお、本インサイト調査では、S101~S105やS121~S128の調査を複数の視聴者(被験者)に対して行った後、そこで得られたデータに基づいてS131~S134で調査結果を出力するものとする。
【0030】
#視聴者の生体情報の取得#
S101において、サーバ3は、通信部33を用いて、コンテンツを視聴者端末2へ送信する。S102において、視聴者端末2は、通信部23を用いて、コンテンツをサーバ3から受信し、表示部25を用いて、そのコンテンツを表示する。これを受けて、視聴者は、表示されたコンテンツを視聴する。S103において、視聴者端末2は、撮像部22を用いて、視聴者の生体情報(視線情報や表情情報等)を取得し、通信部23を用いて、その生体情報をサーバ3へ送信する。ここで、生体情報の取得は、例えば特許第7398853号等に記載の技術を用いればよい。例えば、視聴者端末2の撮像部22(カメラ)を用いて、コンテンツを視聴中の視聴者の顔を撮影し、その映像を録画(時刻ごとに画像を対応づけて記憶)する。視線情報を取得する場合は、その映像に基づいて、視聴者が時刻ごとにコンテンツのどの部分を注視していたかを解析する。表情情報を取得する場合は、その映像に基づいて、視聴者が時刻ごとにどの様な表情をしていたか(喜怒哀楽等の表情の種類/それら表情の程度)かを解析する。S104において、サーバ3は、通信部33を用いて、生体情報を視聴者端末2から受信する。S105において、サーバ3は、制御部30を用いて、生体情報を解析し、記憶装置31を用いて、その解析結果(例えば、コンテンツに対する視聴者の注目度や興味度の推移や、特に注目度や興味度高かったシーンやオブジェクト等を示す情報等)を保存する。ここで、生体情報の解析は、例えば特許第7398853号等に記載の技術を用いればよい。例えば、視線情報を解析する場合には、時刻ごとの視線情報に基づいて、視聴者の視線が所定時間以上ある部分に留まったことをもって、それに対応する部分(コンテンツが動画の場合はシーンと領域/コンテンツが静止画の場合は領域)を注目度が高かったものとして、情報を記憶する。表情情報を解析する場合には、時刻ごとの表情情報に基づいて、視聴者の表情の程度(ある種類の表情において/複数種類の表情を総合して)が所定値以上となったことをもって、それに対応する部分(コンテンツが動画の場合はシーンと領域/コンテンツが静止画の場合は領域)を注目度が高かったものとして、情報を記憶する。S105の解析結果は、S122やS132等で利用される。なお、S101~S105の詳細については、例えば前述の特許文献1や特許文献2に記載の技術を用いればよいため、説明を省略する。
【0031】
#インタビューの設定#
S111において、企業側端末4は、入力操作部44を用いて、インタビューに関する設定を操作者から受付け、通信部43を用いて、その設定をサーバ3へ送信する。S111の詳細については、
図6~
図9を用いて後述する。S112において、サーバ3は、通信部33を用いて、インタビューに関する設定を企業側端末4から受信し、記憶装置31を用いて、その設定を企業ID等と対応付けて保存する。S112の設定は、S122等で利用される。
【0032】
#インタビューの実施#
S121において、企業側端末4は、入力操作部44を用いて、インタビューを実行させるための指示を操作者から受付け、通信部43を用いて、その指示をサーバ3へ送信する。S121の詳細については、
図10~
図12を用いて後述する。S122において、サーバ3は、通信部33を用いて、インタビューを実行させるための指示を企業側端末4から受信し、制御部30を用いて、インタビューの質問を作成する。例えば、視聴者の注目度が高かったシーン/領域について映像を解析し、その対象(人物/動物/それらの表情/植物/物体/天気/背景等)を特定したうえで、その対象に注目したか否か、その対象に注目した理由等を確認するための質問を生成する。S122の詳細については、
図13~
図14を用いて後述する。S123において、サーバ3は、通信部33を用いて、インタビューの質問を視聴者端末2へ送信する。S124において、視聴者端末2は、通信部23を用いて、インタビューの質問をサーバ3から受信し、表示部25を用いて、その質問を表示する。これを受けて、視聴者は、表示された質問に対して回答する。S125において、視聴者端末2は、入力操作部24を用いて、インタビューの回答を受付け、通信部23を用いて、その回答をサーバ3へ送信する。S124~S125の詳細については、
図15~
図16を用いて後述する。S126において、サーバ3は、通信部33を用いて、インタビューの回答を視聴者端末2から受信する。S126において、サーバ3は、制御部30を用いて、インタビューを終了させるか否か判断する。具体的には、例えば予め設定された全ての質問に対して回答が完了したと判断した場合、インタビューを終了させる。S126でYESとなった場合、S122に戻る。S126でNOとなった場合、S128に進む。S128において、サーバ3は、制御部30を用いて、インタビューの回答を解析し、記憶装置31を用いて、その解析結果(回答結果データ)を視聴者ID等と対応付けて保存する。当該解析を行うには、例えば生成AI等を利用する場合、予めプロンプトとして「回答に対してテキストマイニングを実行し、得られた情報を所定の基準や形式で整理したうえで出力する。」等といった主旨のものを用意しておき、当該プロンプトを用いてAIに回答をインプットすることにより、所望のアウトプットが得られるようにすればよい。S128の解析結果(回答結果データ)は、S132等で利用される。なお、実際のインサイト調査においては、これまでの処理(S101~S128)が複数人の視聴者(被験者/ユーザー)を対象として実行されたうえで、それら複数人の視聴者(被験者/ユーザー)に対応する解析結果(回答結果データ)が収集されるものとする。
【0033】
#インタビュー結果の出力#
S131において、企業側端末4は、入力操作部44を用いて、インタビュー結果を出力させるための指示を操作者から受付け、通信部43を用いて、その指示をサーバ3へ送信する。S132において、サーバ3は、通信部33を用いて、インタビュー結果を出力させるための指示を企業側端末4から受信し、制御部30を用いて、インタビュー結果を作成する。S133において、サーバ3は、通信部33を用いて、インタビュー結果を企業側端末4へ送信する。S134において、企業側端末4は、通信部43を用いて、インタビュー結果をサーバ3から受信し、表示部45を用いて、そのインタビュー結果を表示する。S134の詳細については、
図17~
図20を用いて後述する。
【0034】
〔インタビューの設定〕
図6~
図9を参照して、
図5のS111(インタビューの設定)の詳細について、以下に説明する。
【0035】
図6は、インタビュー設定画面のうち、ホーム画面(トップ画面)に対応するものである。U100(画面の左側部分)には、ユーザーIDに対応する情報、メニュー等が表示される。デフォルトでは、U100のメニューで「ホーム」が選択され、画面の右側部分にU111が表示される。U111には、調査の一覧が表示され、それぞれ名称やステータス等の情報が表示される。その右側には「調査結果を確認する」ボタンが設けられ、それがクリックされると当該調査結果が表示(出力)される。このクリックが、
図5のS131(インタビューの出力指示)に対応する。
【0036】
図7は、インタビュー設定画面のうち、ブランド情報を登録する際の画面に対応するものである。この画面は、U100のメニューで「ブランド情報登録」が選択された場合に表示される。U121には、ブランドごとに、組織名、ブランド名、ブランドメッセージ、ブランドコンセプト、ブランドターゲット、ブランドカテゴリ等の情報を設定するための入力欄が表示される。各入力欄に情報が入力(記載/選択)され、「登録する」ボタンがクリックされると、入力された情報をブランド情報として、ユーザーIDと対応付けて、サーバ3の記憶装置31に記憶(登録/設定)される。なお、設定可能なブランド情報の数としては、原則として1ユーザーIDあたり複数を想定しているが、それは所定数/任意数の何れでもよい。
【0037】
図8は、インタビュー設定画面のうち、ブランド情報を閲覧する際の画面に対応するものである。この画面は、U100のメニューで「ブランド情報閲覧」が選択された場合に表示される。U131には、登録済のブランド情報の一覧が表示され、それぞれブランド名、企業名等の情報が表示される。その右側には「詳細」ボタンが設けられ、それがクリックされると当該ブランド情報の詳細(各入力欄に入力された全ての情報)が表示される。
【0038】
図9は、インタビュー設定画面のうち、企業情報を登録する際の画面に対応するものである。この画面は、U100のメニューで「企業情報登録」が選択された場合に表示される。U141には、企業ごとに、会社名、ホームページURL、ミッション、ビジョン、バリュー等の情報を設定するための入力欄が表示される。各入力欄に情報が入力(記載/選択)され、「設定する」ボタンがクリックされると、入力された情報を企業情報として、ユーザーIDと対応付けて、サーバ3の記憶装置31に記憶(登録/設定)される。なお、設定可能な企業情報の数としては、原則として1ユーザーIDあたり1つを想定している。
【0039】
〔インタビューの実行指示〕
図10~
図12を参照して、
図5のS121(インタビューの実行指示)の詳細について、以下に説明する。
【0040】
図10は、インタビュー設定画面のうち、インタビューを作成する際の画面に対応するものである。この画面は、U100のメニューで「インタビューの作成」が選択された場合に表示される。
図10のU151には、インタビューの目的(調査したいブランド、調査したいユーザー層、調査の種類、インタビューの追加情報:目的の詳細、を含む)、インタビューの設定事項(タイトル、イントロダクションンのボックス数、冒頭に入力する文言、を含む)等の情報を設定するための入力欄が表示される。この画面をスクロールすると、
図11のU152が表示される。
【0041】
図11のU152には、インタビューの設定事項(言語、組織、ブランド、終了日、ターゲットサンプルサイズ、連携オプション、を含む)、シーケンスの設定(デフォルトの質問数、質問※複数設定可、完了ページのメッセージ、を含む)等の情報を設定するための入力欄が表示される。各「質問」をクリックすると、
図12のU153が表示される。U151~U153の各入力欄に情報が入力(記載/選択)され、「インタビューを作成」ボタンがクリックされると、入力された情報をインタビュー情報として、ユーザーIDと対応付けて、サーバ3の記憶装置31に記憶(登録/設定)される。このクリックが、
図5のS121(インタビューの実行指示)に対応する。
【0042】
図12のU153には、当該質問の内容(シーケンス、質問文、回答形式、ブランド、を含む)を入力(記載/選択)することができる。「シーケンスを選択」をクリックすると、質問の種類(メイン質問/フォロー質問)と、質問を作成(生成)する際に用いる質問モデルとを、選択することができる。メイン質問が選択された場合、「質問文」に、後述するメイン質問となる文章を入力することができる。なお、質問としては、単なる定型文のみならず、例えば
図5のS105(生体情報に基づくインサイト調査の解析結果)等を受けて、コンテンツに対する視聴者の注目度/興味度が高かったシーン/エリア等を示すサムネイル等の情報も併せて表示したうえで、それについて深堀りするための質問を設定することもできる。その場合、当該機能のON/OFFは、例えば前述した質問モデルの種類や、別途チェックボックスを用いて設定可能とすればよい。また、当該サムネイル等を表示する位置は、例えば当該位置を選択形式で設定可能とすればよい。また、「質問文」において、当該サムネイル等の内容を画像解析により文章化した文言を記載する場合、その位置を文章中で所定の記号等で示せばよい。メイン質問が選択された場合、「回答形式」において、質問に対する回答の形式として、選択式/自由記述式のうち何れかを選択することができる。
【0043】
〔質問の作成〕
図13~
図14を参照して、
図5のS122(質問の作成)の詳細について、以下に説明する。
【0044】
図13は、インタビューの概要を示す概念図である。本インタビューでは、「メイン質問」と、それに続く複数の「フォロー質問」とを組み合わせて1セットの質問群とし、その質問群を複数セット繰り返すことにより、深堀りインタビューを実施する。メイン質問は、例えば
図12のU153の「シーケンス」で選択された質問モデルを用いて、「質問文」に入力された内容等に基づいて作成する。フォロー質問は、例えば
図12のU153の「シーケンス」で選択された質問モデルを用いて、メイン質問に対する回答を受けてAIにより生成する。フォロー質問の回数としては、例えば予め設定された回数、回答の待ち状態がタイムアウトとなるまでの回数等とすればよい。時間が実際の質問構成の例は、図に示した通りである。
【0045】
図14は、質問モデルの一覧を示す表である。メイン質問/フォロー質問ともに、それぞれ異なる複数の質問モデルがある。各質問モデルの概要は、図に記載した通りである。なお、メイン質問の質問モデルは、質問の際に前述したサムネイル等を併せて表示するか否かといった形式等を意味するのに対して、フォロー質問の質問モデルは、AIにより質問を作成する際の学習モデル等を意味する。
【0046】
〔インタビューの実施〕
図15~
図16を参照して、インタビューの実施:
図5のS124(質問の表示)~S125(回答の受付)の詳細について、以下に説明する。
【0047】
図15は、インタビューの例1として、メイン質問とフォロー質問の関係性について示したものである。図示したように、メイン質問の後、それに対する回答を受けて、フォロー質問を繰り返している。
【0048】
図16は、インタビューの例2として、コンテンツの一部を冒頭に表示する場合について示したものである。図示したように、インタビューの冒頭で、コンテンツの中で注目度/興味度が高かったシーンやエリア等を示すサムネイルを表示し、続いて、そのサムネイルに関連するメイン質問をしている。コンテンツがCM等の映像(動画)である場合、コンテンツの中で注目度/興味度が高かったシーンについて、サムネイルを作成すればよい。その中で特に注目度/興味度が高いエリアが分かる場合、その部分を強調表示または拡大表示してもよい。コンテンツがWebサイト等の画像(静止画)である場合、コンテンツの中で注目度/興味度が高かったエリアについて、強調表示または拡大表示したサムネイルを作成すればよい。コンテンツが映像である場合、当該サムネイルをクリックすると、当該サムネイルに対応する映像(全部またはその前後等の一部)を再生可能としてもよい。メイン質問において、下線部のように、当該サムネイルに対応するコンテンツを、AI等を用いて解析することにより、当該サムネイルの特徴を示す文章を生成し、当該文言を質問の対象として記載してもよい。当該下線部は、単に「上記サムネイルで示したシーン:AI解析であなたの注目度が高かったシーン」等の定型文に置き換えてもよい。
【0049】
〔インタビュー結果の表示〕
図17~
図29を参照して、
図5のS124(インタビュー結果の表示)の詳細について、以下に説明する。
【0050】
#結果の概要#
図17は、インタビュー結果画面のうち、ホーム(トップ)に対応するものである。この画面(U201)は、
図6のU111で「結果を確認する」ボタンがクリックされた場合に表示される。上部のタブを切り替えることにより、後述する各調査結果が表示される。なお、インタビューの質問モデルにより、タブ内容やタブ数は異なることがある。「クラスタリングの結果を見る」ボタンをクリックすると、調査結果データに基づいてユーザーのクラスタリングを行い、その結果等を表示する。インタビュー単一選択結果表示では、AIインタビュー内で、単一選択式で質問した結果を、グラフ形式で表示する。下部の「インタビュー一覧ボタン」ボタンをクリックすると、
図6のU111(インタビュー選択画面)に戻る。なお、各種ボタンやグラフ表示のうち、データがないものやデータ量が多いもの等は、表示されない場合がある。
【0051】
#クラスタリング#
図18は、インタビュー結果画面のうち、クラスタリング結果に対応するものである。この画面(U211)は、
図17のU201で「クラスタリングの結果を見る」ボタンがクリックされた場合に表示される。クラスターとは、データの中で似た特徴を持つユーザーをグループ分けしたものである。インタビューの会話履歴のサマリーに基づき、ユーザーのクラスタリングを行う。クラスターの数は、最適な分類ができるよう、自動的に決定されてもよい。ここでは、回答結果データに基づいて、各ユーザ(視聴者/被験者)をクラスターに分類し、様々な形式で表示する。当該クラスターとは、例えば回答結果データの中で一定数以上出現した言葉や文章(同一のみならず類似のものを含んでもよい)のことであり、似た特徴を持つユーザーを分類するための基準に相当する。当該クラスタリングを行うには、例えば生成AI等を利用する場合、予めプロンプトとして「回答結果データに対してクラスタリングを実行し、所定の基準や形式で整理したうえで出力する。」等といった主旨のものを用意しておき、当該プロンプトを用いてAIに回答結果データをインプットすることにより、所望のアウトプットが得られるようにすればよい。U211Aは、当該クラスタリング結果を散布図で示している。当該散布図は、会話履歴のサマリーのテキストをベクトル化したものを、次元圧縮により2次元にしたものである。X軸/Y軸には、それぞれ当該2次元の何れかに対応するものが設定される。各ユーザーは、クラスター毎に色分けして点でプロットされる。各点をクリックすると、それに対応するユーザー情報が表示されるようにしてもよい。U211Bは、当該クラスタリング結果を出力する際の処理の状況や進捗等を示している。U211Cは、当該クラスタリング結果におけるクラスター毎のユーザーの人数と、その全体に対する割合を示している。
【0052】
図19は、インタビュー結果画面のうち、クラスターの特徴に対応するものである。この画面(U212)は、
図18のU211と併せて表示される。U212Aは、各クラスターの特徴を一言で表現した名称を設定し、リスト形式で並べたものを示している。ここで何れかの名称をクリックすると、U212Bが表示される。U212Bは、選択されたクラスターについて、その詳細情報(当該クラスターに該当するユーザーの人数、分析結果、特徴的な情報等)を表示した状態を示している。
【0053】
図20は、インタビュー結果画面のうち、テーブルデータのダウンロードに対応するものである。この画面(U213)は、
図18のU211と併せて表示される。U213は、回答結果データをCSV形式等のテーブルデータとしてダウンロードするための画面を示している。この画面では、ダウンロード対象とするテーブルデータについて、例えばクラスター/性別/年代等の条件を指定して、フィルタリング(絞り込み)することが可能である。その下には、フィルタリングされたテーブルデータの一覧が表示される。ユーザーが不図示のダウンロードボタンをクリックすると、回答結果データのうち指定された条件でフィルタリングされたものがダウンロードされる。
【0054】
図21は、インタビュー結果画面のうち、クラスターの属性分布に対応するものである。この画面(U214)は、
図18のU211と併せて表示される。U214Aは、性別ごとに、各クラスターの割合を示している。U214Bは、年代ごとに、各クラスターの割合を示している。
【0055】
#動機・シーン・アクション#
図22は、インタビュー結果画面のうち、動機・シーン・アクション(樹形図)に対応するものである。この画面(U221)は、
図17のU201で上部のタブのうち「動機・シーン・アクション」がクリックされた場合に表示される。ここでは、回答結果データに基づいて、ユーザーの回答に含まれるキーワードを動機・シーン・アクションの観点で分類し、様々な形式で表示する。ここで、「動機」「シーン」「アクション」の意味としては、例えばユーザーがコンテンツの一部に対して注目等した(興味を持った/関心が高かった)場合において、インタビューでそれを深堀りした際に、回答に含まれるキーワードの属性を意味する。例えば、「動機」は「なぜ注目等したか」、「シーン」は、「どんなシーンを連想したか」、「アクション」は「どんな行動に繋がるか」といった意味である。画面上部のメニューでは、世代年代/シーン/曜日等の観点で、表示対象とする回答結果データの母集団を絞り込むことが可能である。画面下部の樹形図では、各キーワードを動機・シーン・アクションのうち何れの属性に対応するかにより整理して配置したうえで(動機:一番上の行に赤色のバブルで/シーン:真ん中の行に青色のバブルで/アクション:一番下の行に緑色のバブルで※各バブルの大きさは当該キーワードの出現回数に比例)、互いに相関性が高いキーワード同士を線分で繋いでいる。樹形図の上のメニューでは、当該キーワードに対応するユーザーの年代/性別、当該キーワードの出現頻度等の観点で、表示対象とするバブル(キーワード)を絞り込むことが可能である。
【0056】
図23は、インタビュー結果画面のうち、動機・シーン・アクション(サンバースト図)に対応するものである。この画面(U222)は、
図22のU221と併せて表示される。画面上側の図は、画面上側の図は、
図22の樹形図と同様のデータを、サンバースト図で表現したものである。ここでは、円の中心から動機・シーン・アクションの順に、対応するキーワードを同心円状に分類している。この順番は、UIを介した指示等に応じて任意に設定可能としてもよい。画面上側の図において、何れかのキーワードがクリックされると、画面下側の図が表示される。この図は、指定されたキーワードを円の中心に配置し、当該キーワードの下位層(同心円状の外側に位置するもの)について、詳細なサンバースト図を描き直したものである。
【0057】
図24は、インタビュー結果画面のうち、動機・シーン・アクション(属性ごとの分析結果)に対応するものである。この画面(U223)は、
図22のU221と併せて表示される。この画面は、キーワードのうち動機の属性に対応するものを母集団として、各種分析結果を表示したものである。なお、同様分析をシーン・アクションの各属性に対応するキーワードについて行い結果を表示してもよい。画面上部の「クラスタリング分析結果を見る」ボタンがクリックされると、キーワードのうち動機の属性に対応するものを抽出したうえでクラスタリングを行い、例えば
図18~
図21と同様の形式で表示する。「ワードクラウド」は、キーワードのうち動機の属性に対応するものについて、その出現数に応じてビジュアル的に表示したものである(例えば、出現数が多いキーワードほど文字サイズを大きく/似た意味のキーワードは同系色で等)。「頻出語」は、当該ワードクラウドに含まれる頻出語を、グラフ形式でランキング順(出現回数が多い順)に表示したものである。「動機ラベルの選択」は、動機のラベル(その属性に対応するキーワード/そのキーワードを何らかの観点で分類したもの)の中から絞り込みたいものを選択するためのものである。「ワードカウント結果」は、当該選択された動機ラベルに対応するキーワードに母集団を絞り込んだうえで、当該ワードクラウドに含まれる頻出語を、カウント表形式でランキング順(出現回数が多い順)に表示したものである。
【0058】
図25は、インタビュー結果画面のうち、動機・シーン・アクション(組み合わせの出現回数/ラベル別の詳細情報)に対応するものである。この画面(U224)は、
図22のU221と併せて表示される。「各動機、シーン、アクションの組み合わせの出現回数」は、動機、シーン、アクションの組み合わせのパターンごとに出現回数を算出し、カウント表形式でランキング順(出現回数が多い順)に表示したものである。「ラベル別の詳細情報」は、動機、シーン、アクションそれぞれについて、ラベルごとの出現回数をカウント表形式やグラフ形式でランキング順(出現回数が多い順)に表示したものである。
【0059】
図26は、インタビュー結果画面のうち、動機・シーン・アクション(ユーザー情報確認)に対応するものである。この画面(U225)は、
図22のU221と併せて表示される。ここでは、ユーザー(インタビューの回答者)ごとの情報について、各種ラベルで絞り込んでリスト形式で表示している。画面上側(V1)より画面下側(V2)の方が、情報量が多く、より柔軟に絞り込みが可能である。
【0060】
#ユーザー一覧#
図27は、インタビュー結果画面のうち、ユーザー一覧に対応するものである。この画面(U231)は、
図17のU201で上部のタブのうち「ユーザー一覧」がクリックされた場合に表示される。画面左上の「ダウンロード用のファイルを作成するボタン」がクリックされると、全ユーザーの属性情報や会話履歴をCSV形式等でダウンロードすることが可能である。画面中央部には、ユーザーごとに、各種スコアが表示される。当該スコアは、回答結果データを次に示す各種基準でスコア化したものである。トータルスコアは、各スコアの合計値であり、これが高いほど高いほどモニターとしての品質が高い/聞く価値のあるモニターであることを意味する。インタビュー時間スコアは、インタビューに参加した時間が長いほど高くなる。応答正確性スコアは、インタビュアーの質問に正確に回答できているほど高くなる。応答長スコアは、回答者の回答が長いほど高くなる。応答バリエーションスコアは、回答のバリエーションが高いほど高くなり、同じことばかり答えていると低くなる。インタビュー目的適合スコアは、インタビューの目的に合致しているほど高くなる。スコアの下にある「ユーザーの詳細情報を見る」ボタンがクリックされると、
図28の画面が表示される。同じユーザーが複数回答をした場合、画面下部のように各回答について各種スコアを折りたたんでリスト形式で表示したり、不図示の日記形式等で表示したりしてもよい。その他、動機ラベルを設け、動機クラスターの中から何れかを選択してユーザーを絞り込んで表示可能としてもよい。
【0061】
図28は、インタビュー結果画面のうち、各ユーザーの詳細情報に対応するものである。この画面(U232)は、
図27のU231で各ユーザーのスコアの下にある「ユーザーの詳細情報を見る」ボタンがクリックされた場合に表示される。顔写真は、AIを用いて、当該ユーザーの回答結果データを基に、ペルソナ像を生成したものである。顔写真の右側にある年齢/性別等の情報は、ユーザーがモニターとして事前登録している属性情報である。その右側の「エモミルの過去回答履歴からの推定内面情報」は、AIを用いて、当該ユーザーの回答結果データを基に、当該ユーザーのライフスタイル・価値観・性格等を推定したものである。その右側の「今回の回答履歴から推定された人物像/要約」は、AIを用いて、当該ユーザーの回答結果データを基に、当該ユーザーの人物像を推定/やりとりの内容を要約したものである。その下の「会話の内容を見る」ボタンがクリックされると、
図29が表示される。
【0062】
図29は、インタビュー結果画面のうち、各ユーザーのインタビューの内容に対応するものである。この画面(U233)は、
図28のU232で「会話の内容を見る」ボタンがクリックされた場合に表示される。この画面では、
図5のS124~S125における実際のAIインタビューでのやりとり(回答内容全体)が表示される。
【0063】
以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
【符号の説明】
【0064】
1:インサイト調査システム、2,2a,2b:視聴者端末、3:サーバ、4:企業側端末、8:通信ネットワーク、20:制御部、21:記憶装置、22:撮像部、23:通信部、24:入力操作部、25:表示部、26:スピーカ、RTC:28、30:制御部、31:記憶装置、32:入出力インターフェース、33:通信部、34:入力操作部、35:表示部、40:制御部、41:記憶装置、42:入出力インターフェース、43:通信部、44:入力操作部、45:表示部、U:ユーザー、V,Va,Vb:視聴者
【要約】 (修正有)
【課題】コンテンツに対するインサイト調査において、生体情報だけでは分からない情報を明らかにするシステム、方法及びプログラムを提供する。
【解決手段】コンテンツに対するユーザーのインサイトを調査するインサイト調査システムにおける処理は、ユーザーの視聴者端末でコンテンツを表示し、ユーザーがコンテンツを見たときの生体情報を取得し、サーバが、生体情報に基づいて、前記コンテンツの中でユーザーが注目した注目箇所を特定し、注目箇所に関する質問を生成し、視聴者端末に質問を表示させ、視聴者端末からユーザーの質問に対する回答を受付け、回答に基づいて、インサイトの調査結果を企業側端末に出力する。
【選択図】
図5