(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-05-12
(45)【発行日】2023-05-22
(54)【発明の名称】表情解析技術を用いた商品に対するモニタの反応を評価するための情報処理装置、情報処理システム、情報処理方法、及び、プログラム
(51)【国際特許分類】
G06Q 30/0201 20230101AFI20230515BHJP
G10L 15/00 20130101ALI20230515BHJP
【FI】
G06Q30/0201
G10L15/00 200Z
(21)【出願番号】P 2019567964
(86)(22)【出願日】2019-01-09
(86)【国際出願番号】 JP2019000335
(87)【国際公開番号】W WO2019146405
(87)【国際公開日】2019-08-01
【審査請求日】2021-11-11
(31)【優先権主張番号】P 2018010593
(32)【優先日】2018-01-25
(33)【優先権主張国・地域又は機関】JP
【前置審査】
(73)【特許権者】
【識別番号】000001959
【氏名又は名称】株式会社 資生堂
(74)【代理人】
【識別番号】230116816
【氏名又は名称】成川 弘樹
(74)【代理人】
【識別番号】100146123
【氏名又は名称】木本 大介
(72)【発明者】
【氏名】川添 寛子
(72)【発明者】
【氏名】平尾 直靖
【審査官】関 博文
(56)【参考文献】
【文献】米国特許出願公開第2014/0365272(US,A1)
【文献】米国特許第08235725(US,B1)
【文献】特開2006-012171(JP,A)
【文献】米国特許第08219438(US,B1)
【文献】特開2016-024599(JP,A)
【文献】特開2003-030469(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00-99/00
G10L 15/00
(57)【特許請求の範囲】
【請求項1】
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記解析する手段は、前記第1画像と、前記第2ユーザの顔の第2画像と、を解析する、情報処理装置。
【請求項2】
前記第1動画像は、前記商品の画像を含み、
前記特定する手段は、前記取得された第1動画像に含まれる商品の画像に基づいて、前記商品情報を特定する、請求項1に記載の情報処理装置。
【請求項3】
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記取得する手段は、前記第1ユーザが発した商品情報を含む第1音声と、前記第2ユーザの第2音声と、を取得し、
前記特定する手段は、前記取得された第1音声に基づいて前記商品情報を特定し、
前記解析する手段は、前記第1音声及び前記第2音声を更に解析する、
情報処理装置。
【請求項4】
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記第1ユーザの生体に関する第1生体情報と、前記第2ユーザの第2生体情報と、を取得する手段を備え、
前記計算する手段は、前記解析の結果と、前記取得された第1生体情報及び第2生体情報と、に基づいて、前記反応スコアを計算する、
情報処理装置。
【請求項5】
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記解析の結果に基づいて、前記商品を見ている第1ユーザの顔の傾きと、前記第2ユーザの顔の傾きと、を判定する手段を備え、
前記計算する手段は、前記傾きを参照して、前記反応スコアを計算する、情報処理装置。
【請求項6】
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段を備え、
前記商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記第1画像を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段を備え、
前記計算する手段は、前記第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、前記第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、前記反応スコアを計算し、
前記第1重み付け係数は、前記第2重み付け係数より大きい、
情報処理装置。
【請求項7】
コンピュータ
が、
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを
実行し、
前記商品に関する商品情報を特定するステップを
実行し、
前記商品情報が特定された場合、前記第1画像を解析するステップを
実行し、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを
実行し、
前記解析するステップは、前記第1画像と、前記第2ユーザの顔の第2画像と、を解析する、情報処理方法。
【請求項8】
コンピュータ
が、
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを
実行し、
前記商品に関する商品情報を特定するステップを
実行し、
前記商品情報が特定された場合、前記第1画像を解析するステップを
実行し、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを
実行し、
前記取得するステップは、前記第1ユーザが発した商品情報を含む第1音声と、前記第2ユーザの第2音声と、を取得し、
前記特定するステップは、前記取得された第1音声に基づいて前記商品情報を特定し、
前記解析するステップは、前記第1音声及び前記第2音声を更に解析する、
情報処理方法。
【請求項9】
コンピュータ
が、
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを
実行し、
前記商品に関する商品情報を特定するステップを
実行し、
前記商品情報が特定された場合、前記第1画像を解析するステップを
実行し、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを
実行し、
前記第1ユーザの生体に関する第1生体情報と、前記第2ユーザの第2生体情報と、を取得するステップを
実行し、
前記計算するステップは、前記解析の結果と、前記取得された第1生体情報及び第2生体情報と、に基づいて、前記反応スコアを計算する、
情報処理方法。
【請求項10】
コンピュータ
が、
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを
実行し、
前記商品に関する商品情報を特定するステップを
実行し、
前記商品情報が特定された場合、前記第1画像を解析するステップを
実行し、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを
実行し、
前記解析の結果に基づいて、前記商品を見ている第1ユーザの顔の傾きと、前記第2ユーザの顔の傾きと、を判定するステップを
実行し、
前記計算するステップは、前記傾きを参照して、前記反応スコアを計算する、情報処理方法。
【請求項11】
コンピュータ
が、
商品を所有する第1ユーザの顔の第1画像を含む第1動画像と、前記第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得するステップを
実行し、
前記商品に関する商品情報を特定するステップを
実行し、
前記商品情報が特定された場合、前記第1画像を解析するステップを
実行し、
前記解析の結果に基づいて、前記商品に対する第1ユーザの反応に関する指標である反応スコアを計算するステップを
実行し、
前記計算するステップは、前記第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、前記第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、前記反応スコアを計算し、
前記第1重み付け係数は、前記第2重み付け係数より大きい、
情報処理方法。
【請求項12】
コンピュータを、請求項1~請求項6の何れかに記載の各手段として機能させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理システム、及び、プログラムに関する。
【背景技術】
【0002】
一般に、商品に関する市場調査では、消費者に対するアンケートを用いて商品に対する評価を集計している。多数の消費者からの回答を得ることにより、商品に対する評価の精度の向上が期待できる。
【0003】
特開2003-308415号公報は、ユーザ端末及びサーバを備えるシステムを用いて、多くのアンケート結果を容易に取得する技術を開示している。
【発明の概要】
【発明が解決しようとする課題】
【0004】
一般に、商品に対する評価は、客観性を有することが好ましい。
しかし、特開2003-308415号公報のアンケート結果には、消費者の主観が反映される。そのため、アンケート結果から得られる評価は、商品に対する客観性を有していない。
【0005】
本発明の目的は、商品に対する客観的な評価の指標を得ることである。
【課題を解決するための手段】
【0006】
本発明の一態様は、
ユーザの表情に関する表情情報を取得する手段を備え、
商品に関する商品情報を特定する手段を備え、
前記商品情報が特定された場合、前記表情情報に基づいて前記表情の変化を解析する手段を備え、
前記解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置である。
【発明の効果】
【0007】
本発明によれば、商品に対するユーザの客観的な評価の指標を得ることができる。
【図面の簡単な説明】
【0008】
【
図1】第1実施形態の情報処理システムの概略図である。
【
図2】第1実施形態の情報処理システムの構成を示すブロック図である。
【
図4】第1実施形態のユーザ情報データベースのデータ構造を示す図である。
【
図5】第1実施形態の商品情報データベースのデータ構造を示す図である。
【
図6】第1実施形態の情報処理のシーケンス図である。
【
図7】
図6の情報処理において表示される画面例を示す図である。
【
図8】
図6の情報処理において表示される画面例を示す図である。
【
図10】第2実施形態の情報処理のシーケンス図である。
【
図11】
図10の情報処理において表示される画面例を示す図である。
【
図12】
図10の情報処理において表示される画面例を示す図である。
【
図13】第2実施形態の変形例1の情報処理において表示される画面例を示す図である。
【
図15】第3実施形態の情報処理のシーケンス図である。
【
図16】
図15の情報処理において表示される画面例を示す図である。
【発明を実施するための形態】
【0009】
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
【0010】
(1)第1実施形態
第1実施形態について説明する。
【0011】
(1-1)情報処理システムの構成
第1実施形態の情報処理システムの構成について説明する。
図1は、第1実施形態の情報処理システムの概略図である。
図2は、第1実施形態の情報処理システムの構成を示すブロック図である。
【0012】
図1及び
図2に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
【0013】
クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
【0014】
サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
【0015】
(1-1-1)クライアント装置の構成
クライアント装置10の構成について説明する。
【0016】
図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、ディスプレイ15と、カメラ16と、音声入出力装置17と、を備える。
【0017】
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
【0018】
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
【0019】
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
【0020】
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
【0021】
入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
【0022】
通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
【0023】
ディスプレイ15は、画像を表示するように構成される。ディスプレイ15は、例えば、以下の何れかである。
・液晶ディスプレイ
・有機EL(Electro Luminescence)ディスプレイ
【0024】
カメラ16は、画像を撮像し、且つ、撮像した画像の画像データを生成するように構成される。カメラ16は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを有する。
【0025】
音声入出力装置17は、音声の入出力を行うように構成される。音声入出力装置17は、音声を入力するマイク、及び、音声を出力するスピーカの組合せである。
【0026】
(1-1-2)サーバの構成
サーバ30の構成について説明する。
【0027】
図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
【0028】
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
【0029】
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
【0030】
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
【0031】
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
【0032】
入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
【0033】
通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
【0034】
(1-2)第1実施形態の概要
第1実施形態の概要について説明する。
図3は、第1実施形態の概要の説明図である。
【0035】
図3に示すように、クライアント装置10は、ユーザの表情に関する表情情報(例えば、動画像又は表情筋筋電図)を取得する。
【0036】
クライアント装置10は、評価の対象となる商品に関する商品情報を特定する。
クライアント装置10は、商品情報の特定に成功した場合、表情情報を解析することにより、ユーザの表情の変化に関する指標である表情変化指標を計算する。
クライアント装置10は、解析によって得られた表情変化指標に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する。
【0037】
このように、クライアント装置10は、商品情報を特定することができた場合、ユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを計算する。
これにより、商品に対する客観的な評価の指標を得ることができる。
【0038】
(1-3)データベース
第1実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
【0039】
(1-3-1)ユーザ情報データベース
第1実施形態のユーザ情報データベースについて説明する。
図4は、第1実施形態のユーザ情報データベースのデータ構造を示す図である。
【0040】
図4のユーザ情報データベースには、ユーザに関するユーザ情報が格納される。
ユーザ情報データベースは、「ユーザID」フィールドと、「ユーザ名」フィールドと、「ユーザ属性」フィールドと、を含む。各フィールドは、互いに関連付けられている。
【0041】
「ユーザID」フィールドには、ユーザを識別するユーザIDが格納される。
【0042】
「ユーザ名」フィールドには、ユーザの名称に関する情報(例えば、テキスト)が格納される。
【0043】
「ユーザ属性」フィールドには、ユーザの属性に関するユーザ属性情報が格納される。
「ユーザ属性」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。
【0044】
「性別」フィールドには、ユーザの性別に関する情報が格納される。
【0045】
「年齢」フィールドには、ユーザの年齢に関する情報が格納される。
【0046】
(1-3-2)商品情報データベース
第1実施形態の商品情報データベースについて説明する。
図5は、第1実施形態の商品情報データベースのデータ構造を示す図である。
【0047】
図5の商品情報データベースには、商品に関する商品情報が格納される。
商品情報データベースは、「商品ID」フィールドと、「商品名」フィールドと、「商品画像」フィールドと、「特徴パターン」フィールドと、「商品属性」フィールドと、「反応スコア」フィールドと、を含む。各フィールドは、互いに関連付けられている。
【0048】
「商品ID」フィールドには、商品を識別する商品IDが格納される。
【0049】
「商品名」フィールドには、商品の名称に関する情報(例えば、テキスト)が格納される。
【0050】
「商品画像」フィールドには、商品(例えば、商品本体、商品のパッケージ、及び、商品の使用状態の少なくとも1つ)の画像情報が格納される。
【0051】
「特徴パターン」フィールドには、商品の画像上の特徴のパターンに関する情報が格納される。
【0052】
「商品属性」フィールドには、商品の属性に関する商品属性情報が格納される。
「商品属性」フィールドは、「種類」フィールドと、「メーカ」フィールドと、を含む。
【0053】
「種類」フィールドには、商品の種類(例えば、口紅、又は、化粧水)に関する情報が格納される。
【0054】
「メーカ」フィールドには、商品の製造者に関する情報(例えば、製造者名を示すテキスト)が格納される。
【0055】
「反応スコア」フィールドには、商品に対するユーザの反応のレベルを示す数値(以下「反応スコア」という)が格納される。
「反応スコア」フィールドは、「全体平均」フィールドと、「属性平均」フィールドと、を含む。
【0056】
「全体平均」フィールドには、全ユーザの反応スコアの平均値が格納される。
【0057】
「属性平均」フィールドには、ユーザ属性毎の反応スコアの平均値が格納される。
「属性平均」フィールドは、「性別」フィールドと、「年齢」フィールドと、を含む。
【0058】
「性別」フィールドには、性別毎の反応スコアの平均値が格納される。
【0059】
「年齢」フィールドには、年齢毎の反応スコアの平均値が格納される。
【0060】
(1-4)情報処理
第1実施形態の情報処理について説明する。
図6は、第1実施形態の情報処理のシーケンス図である。
図7~
図8は、
図6の情報処理において表示される画面例を示す図である。
【0061】
図6に示すように、クライアント装置10は、ログインリクエスト(S100)を実行する。
具体的には、プロセッサ12は、画面P100(
図7)をディスプレイ15に表示する。
【0062】
画面P100は、ボタンオブジェクトB100と、フィールドオブジェクトF100と、を含む。
フィールドオブジェクトF100は、ユーザIDの入力を受け付けるオブジェクトである。
ボタンオブジェクトB100は、ログインのためのユーザ指示を受け付けるオブジェクトである。
【0063】
ユーザが、フィールドオブジェクトF100にユーザIDを入力し、且つ、ボタンオブジェクトB100を操作すると、プロセッサ12は、ログインリクエストデータをサーバ30に送信する。
ログインリクエストデータは、フィールドオブジェクトF100に入力されたユーザIDを含む。
【0064】
ステップS100の後、サーバ30は、ログイン認証(S300)を実行する。
具体的には、プロセッサ32は、ログインリクエストデータに含まれるユーザIDがユーザ情報データベース(
図4)に含まれる場合、ログインを認証するためのログインレスポンスデータをクライアント装置10に送信する。
【0065】
ステップS300の後、クライアント装置10は、表情情報の取得(S101)を実行する。
【0066】
ステップS101の第1例として、プロセッサ12は、ログインレスポンスデータを受信すると、画面P101(
図7)をディスプレイ15に表示する。
【0067】
画面P101は、表示オブジェクトA101と、ボタンオブジェクトB101と、を含む。
表示オブジェクトA101には、カメラ16が撮像した画像が表示される。カメラ16が撮像した画像は、ユーザの顔の画像IMG101aと、商品の画像IMG101bと、を含む。
ボタンオブジェクトB101は、ビデオデータの取得のためのユーザ指示を受け付けるオブジェクトである。
【0068】
ユーザがボタンオブジェクトB101を操作すると、プロセッサ12は、ビデオデータ(「表情情報」の一例)を生成し、且つ、当該ビデオデータを記憶装置11に記憶する。ビデオデータは、カメラ16によって撮像された動画像と、音声入出力装置17によって入力された音声と、を含む。
【0069】
ステップS101の第2例として、クライアント装置10は、計測装置に接続されている。計測装置は、例えば、ユーザの顔に装着される電極から表情筋の動きに関する表情筋信号を取得するように構成される。プロセッサ12は、計測装置から表情筋信号を取得する。
【0070】
ステップS101の後、クライアント装置10は、商品の特定(S102)を実行する。
【0071】
ステップS102の第1例として、プロセッサ12は、ユーザ指示(例えば、ディスプレイ15に表示された画面に含まれるフィールドオブジェクトに対する商品情報)に基づいて、商品の商品IDを特定する。
【0072】
ステップS102の第2例として、プロセッサ12は、ステップS101で取得したビデオデータに含まれる商品の画像IMG101bに対して特徴量解析を適用することにより、画像IMG101bの特徴量を抽出する。
プロセッサ12は、抽出した特徴量と、商品情報データベース(
図5)の「特徴パターン」フィールドの情報と、を比較することにより、画像IMG101bが表す商品の商品IDを特定する。
【0073】
ステップS102の第3例として、ユーザが商品情報(例えば、商品名)の音声を発すると、音声入出力装置17は、ユーザが発した音声を入力する。
プロセッサ12は、音声入出力装置17によって入力された音声を解析することにより、商品名を特定する。
プロセッサ12は、商品情報データベース(
図5)を参照して、特定した商品名に関連付けられた商品IDを特定する。
【0074】
ステップS102の後、クライアント装置10は、ステップS101で得られた表情情報に対して、表情解析(S103)を実行する。
【0075】
ステップS103の第1例として、プロセッサ12は、ステップS101で取得したビデオデータに含まれる顔の画像IMG101aに対して、顔面動作符号化システム(以下「FACS」(Facial Action Coding System)という)理論に基づく画像解析を実行することにより、顔の部位毎に、動きの変化のレベルに関するアクションユニット情報を生成する。このアクションユニット情報は、商品に対するユーザの表情の変化を示す表情変化指標の一例である。
【0076】
ステップS103の第2例として、プロセッサ12は、ステップS101で取得した表情筋信号から、表情筋筋電図(「表情変化指標」の一例)を生成する。
【0077】
ステップS103の後、クライアント装置10は、ステップS103で得られた表情変化指標に基づいて、感情の推定(S104)を実行する。
【0078】
ステップS104の第1例としては、プロセッサ12は、各部位のアクションユニット情報を、感情を推定するための感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
感情情報は、例えば、以下の情報を含む。
・感情の種類(一例として、喜び、悲しみ、怒り、驚き、恐怖、又は、苛立ち)に関する情報
・感情の強度に関する情報
【0079】
ステップS104の第2例としては、記憶装置11には、表情筋筋電図とユーザの感情との関係を示す基準情報が記憶されている。プロセッサ12は、表情筋筋電図と、記憶装置11に記憶された基準情報と、を対比することにより、ユーザの感情に関する感情情報を推定する。
【0080】
ステップS104の第3例としては、プロセッサ12は、アクションユニット情報から推定した感情情報と、表情筋筋電図から推定した感情情報と、に所定のアルゴリズムを適用することにより、アクションユニット情報及び表情筋筋電図の両方に基づく感情情報を推定する。
【0081】
ステップS104の後、クライアント装置10は、ステップS104で得られた表情変化指標に基づいて、反応スコアの計算(S105)を実行する。
具体的には、プロセッサ12は、商品情報データベース(
図5)を参照して、ステップS102で特定した商品IDに関連付けられた商品名に関する情報を特定する。
プロセッサ12は、ステップS104で推定した感情情報(つまり、ユーザの表情の変化から得られる感情情報)を、反応スコアの計算式に適用することにより、反応スコアを計算する。
プロセッサ12は、ステップS104で推定した感情情報、及び、ステップS105で計算した反応スコアに基づく画面P102(
図8)をディスプレイ15に表示する。
【0082】
画面P102は、表示オブジェクトA101、A102a、及びA102bと、ボタンオブジェクトB102と、を含む。
表示オブジェクトA101は、画面P101(
図7)と同様である。
表示オブジェクトA102aには、グラフ画像IMG102が表示される。グラフ画像IMG102は、感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザの感情の時系列変化)を示している。
表示オブジェクトA102bには、ステップS102で特定した商品情報と、ステップS105で計算した反応スコアと、が表示される。
ボタンオブジェクトB102は、更新リクエスト(S106)を実行させるためのユーザ指示を受け付けるオブジェクトである。
【0083】
ステップS105の後、クライアント装置10は、更新リクエスト(S106)を実行する。
具体的には、ユーザがボタンオブジェクトB102を操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
更新リクエストデータは、以下の情報を含む。
・ステップS102で特定された商品ID
・ステップS105で計算された反応スコア
【0084】
ステップS106の後、サーバ30は、データベースの更新(S301)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(
図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたユーザ属性情報を特定する。
プロセッサ32は、商品情報データベース(
図5)を参照して、更新リクエストデータに含まれる商品IDに関連付けられたレコード(以下「更新対象レコード」という)を特定する。
プロセッサ32は、更新対象レコードの「反応スコア」フィールドの値を以下のとおり更新する。
・「全体平均」フィールドでは、更新リクエストデータに含まれる反応スコアに基づいて、平均値が更新される。
・「属性平均」フィールドでは、更新リクエストデータに含まれる反応スコアと、特定したユーザ属性情報と、に基づいて平均値が更新される。
【0085】
本実施形態によれば、ユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標を得ることができる。
【0086】
(2)第2実施形態
第2実施形態について説明する。第2実施形態は、会話中のユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを取得する例である。
【0087】
(2-1)第2実施形態の概要
第2実施形態の概要について説明する。
図9は、第2実施形態の概要の説明図である。
【0088】
図9に示すように、クライアント装置10-1は、ユーザAの顔を含む動画像をサーバ30に送信する。クライアント装置10-2は、ユーザBの顔を含む動画像をサーバ30に送信する。これにより、クライアント装置10-1のユーザA、及び、クライアント装置10-2のユーザBは、サーバ30を介して、ビデオ通話を行う。
【0089】
商品を所有するユーザAが、クライアント装置10-1を用いて、自身の顔を含む動画像を撮影すると、サーバ30は、評価の対象となる商品に関する商品情報を特定する。
サーバ30は、商品情報の特定に成功した場合、動画像に含まれるユーザAの顔の画像を解析する。
サーバ30は、解析の結果に基づいて、商品に対するユーザAの反応に関する指標である反応スコアを計算する。
【0090】
このように、サーバ30は、商品を所有するユーザAと、ユーザBとの会話中に、ユーザAの顔の画像の解析の結果に基づいて、当該商品に対するユーザAの反応スコアを計算する。
【0091】
これにより、商品についてユーザBと会話しているユーザAの商品に対する客観的な評価の指標を得ることができる。
【0092】
(2-2)情報処理
第2実施形態の情報処理について説明する。
図10は、第2実施形態の情報処理のシーケンス図である。
図11~
図12は、
図10の情報処理において表示される画面例を示す図である。
【0093】
図10に示すように、クライアント装置10-1及び10-2は、第1実施形態(
図6)と同様に、ログインリクエスト(S100)を実行する。
ステップS100の後、サーバ30は、第1実施形態と同様に、ログイン認証(S300)を実行する。
【0094】
ステップS300の後、クライアント装置10-1及び10-2は、サーバ30を介して、ビデオ通話シーケンス(S310)を開始する。
具体的には、クライアント装置10-1のプロセッサ12は、ユーザAの顔を含む動画像をサーバ30に送信する。プロセッサ32は、この動画像をクライアント装置10-2に送信する。
クライアント装置10-2のプロセッサ12は、ユーザBの顔を含む動画像をサーバ30に送信する。プロセッサ32は、この動画像をクライアント装置10-1に送信する。
【0095】
クライアント装置10-1のプロセッサ12は、ディスプレイ15に画面P110-1(
図11A)を表示する。
画面P110-1は、表示オブジェクトA110-1a~A110-1bを含む。
表示オブジェクトA110-1aには、クライアント装置10-1のカメラ16が撮像した画像が表示される。このカメラ16が撮像した画像は、ユーザAの顔の画像IMG110-1aと、商品の画像IMG110-1bと、を含む。
表示オブジェクトA110-1bには、クライアント装置10-2から送信された動画像が表示される。この動画像は、クライアント装置10-2のユーザBの顔の画像IMG110-1cを含む。
【0096】
クライアント装置10-2のプロセッサ12は、ディスプレイ15に画面P110-2(
図11B)を表示する。
画面P110-2は、表示オブジェクトA110-2a~A110-2bを含む。
表示オブジェクトA110-2aには、クライアント装置10-2のカメラ16が撮像した画像が表示される。このカメラ16が撮像した画像は、ユーザBの顔の画像IMG110-2aを含む。
表示オブジェクトA110-2bには、クライアント装置10-1から送信された動画像が表示される。この動画像は、クライアント装置10-1のユーザAの顔の画像IMG110-2bと、商品の画像IMG110-2cと、を含む。
【0097】
ステップS310の後、サーバ30は、商品の特定(S311)を実行する。
【0098】
ステップS311の第1例として、プロセッサ12は、ユーザ指示(例えば、ディスプレイ15に表示された画面に含まれるフィールドオブジェクトに対する商品情報)をサーバ30に送信する。
プロセッサ32は、プロセッサ12によって送信されたユーザ指示に基づいて、商品の商品IDを特定する。
【0099】
ステップS311の第2例として、プロセッサ32は、ステップS310で取得したビデオデータに含まれる商品の画像IMG110-1bに対して、特徴量解析を適用することにより、画像IMG110-1bの特徴量を抽出する。
プロセッサ32は、抽出した特徴量と、商品情報データベース(
図5)の「特徴パターン」フィールドの情報とを比較することにより、画像IMG110-1bが表す商品の商品IDを特定する。
【0100】
ステップS311の第3例として、ユーザが商品情報(例えば、商品名)の音声を発すると、音声入出力装置17は、ユーザが発した音声を入力する。
プロセッサ12は、音声入出力装置17によって入力された音声をサーバ30に送信する。
プロセッサ32は、プロセッサ12によって送信された音声を解析することにより、商品名を特定する。
プロセッサ32は、商品情報データベース(
図5)を参照して、特定した商品名に関連付けられた商品IDを特定する。
【0101】
ステップS311の後、サーバ30は、顔画像解析(S312)を実行する。
具体的には、プロセッサ32は、ステップS310で取得したビデオデータに含まれる顔の画像IMG110-1aに対して、FACS理論に基づく画像解析を実行することにより、ユーザAの顔の部位毎に、動きの変化のレベルに関するアクションユニット情報を生成する。
【0102】
ステップS312の後、サーバ30は、感情の推定(S313)を実行する。
具体的には、プロセッサ32は、ユーザAの各部位のアクションユニット情報を、感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザAの感情に関する感情情報を推定する。
【0103】
ステップS313の後、サーバ30は、反応スコアの計算(S314)を実行する。
具体的には、プロセッサ32は、商品情報データベース(
図5)を参照して、ステップS311で特定した商品IDに関連付けられた商品名に関する情報を特定する。
プロセッサ32は、ステップS313で推定したユーザAの感情情報(つまり、ビデオデータを構成する全ての画像フレームに対応する感情情報)を、反応スコアの計算式に適用することにより、ユーザAの反応スコアを計算する。
プロセッサ32は、計算した反応スコアに関する情報を、クライアント装置10-1及び10-2に送信する。
【0104】
ステップS314の後、クライアント装置10-1及び10-2は、反応スコアの提示(S110)を実行する。
具体的には、プロセッサ12は、ステップS314においてサーバ30から送信された反応スコアに基づく画面P112(
図12)をディスプレイ15に表示する。
【0105】
画面P112は、画面P110-1(
図11)と同様のオブジェクト(表示オブジェクトA110-1a及びA110-1b)に加えて、表示オブジェクトA112a~112bと、ボタンオブジェクトB112と、を含む。
表示オブジェクトA112aには、グラフ画像IMG112aが表示される。グラフ画像IMG112aは、ユーザAの感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザAの感情の時系列変化)を示している。
表示オブジェクトA112bには、ユーザAの反応スコアが表示される。
ボタンオブジェクトB112は、動画の撮影を終了するためのユーザ指示を受け付けるオブジェクトである。
【0106】
ステップS110の後、クライアント装置10-1は、更新リクエスト(S112)を実行する。
具体的には、ユーザAがボタンオブジェクトB112を操作すると、プロセッサ12は、更新リクエストデータをサーバ30に送信する。
【0107】
ステップS112の後、サーバ30は、データベースの更新(S315)を実行する。
具体的には、プロセッサ32は、ユーザ情報データベース(
図4)を参照して、ログインリクエストデータに含まれるユーザIDに関連付けられたユーザ属性情報を特定する。
プロセッサ32は、商品情報データベース(
図5)を参照して、ステップS311で特定した商品IDに関連付けられたレコード(以下「更新対象レコード」という)を特定する。
プロセッサ32は、更新対象レコードの「反応スコア」フィールドの値を以下のとおり更新する。
・「全体平均」フィールドでは、ステップS314で計算した反応スコアに基づいて、平均値が更新される。
・「属性平均」フィールドでは、ステップS314で計算した反応スコアと、特定したユーザ属性情報と、に基づいて平均値が更新される。
【0108】
人の感情は、他人との会話中により強く現れる。第2実施形態によれば、ユーザBと商品について会話するユーザAの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザAの客観的な評価の指標の精度を向上させることができる。
【0109】
(2-3)第2実施形態の変形例
第2実施形態の変形例について説明する。
【0110】
(2-3-1)第2実施形態の変形例1
第2実施形態の変形例1について説明する。第2実施形態の変形例1では、会話中のユーザの両方の反応スコアを計算する。
図13は、第2実施形態の変形例1の情報処理において表示される画面例を示す図である。
【0111】
第2実施形態の変形例1のプロセッサ32は、ステップS312において、ユーザAの反応スコアと、ユーザBの反応スコアと、を計算する。
【0112】
第2実施形態の変形例1のプロセッサ12は、ステップS110において、画面P114(
図13)をディスプレイ15に表示する。
【0113】
画面P114は、画面P112(
図12)と同様のオブジェクトに加えて、表示オブジェクトA114a~A114bを含む。
表示オブジェクトA114aには、グラフ画像IMG114aが表示される。グラフ画像IMG114aは、ユーザBの感情の種類(例えば、喜び(HAPPY)及び悲しみ(SAD))毎に、ビデオデータを構成する画像フレーム(F)毎の感情情報(EMOTION LEVEL)の推移(つまり、商品に対するユーザAの感情の時系列変化)を示している。
表示オブジェクトA114bには、ユーザBの反応スコアが表示される。
【0114】
(2-3-2)第2実施形態の変形例2
第2実施形態の変形例2について説明する。第2実施形態の変形例2では、会話中のユーザのうち、商品を所有するユーザの表情を優先して、反応スコアを計算する。
【0115】
第2実施形態の変形例2のプロセッサ32は、ステップS312において、以下の何れかに該当するユーザ(つまり、商品への関心が相対的に高いユーザ)を第1ユーザとして特定し、第1ユーザ以外のユーザを第2ユーザとして特定する。
・商品情報を指定したユーザ
・ビデオデータに商品の画像が含まれるクライアント装置10のユーザ
・商品情報の音声を最初に発したユーザ
【0116】
記憶装置31に記憶された感情推定式は、第1ユーザのための第1重み付け係数と、第2ユーザのための第2重み付け係数と、を含む。第1重み付け係数は、第2重み付け係数より大きい。つまり、この感情推定式では、第1ユーザの表情を第2ユーザより重視して、反応スコアが計算される。
【0117】
プロセッサ32は、ステップS312において、第1ユーザの第1アクションユニット情報と、第2ユーザの第2アクションユニット情報と、を生成する。
【0118】
プロセッサ32は、ステップS313において、第1アクションユニット情報及び第2アクションユニット情報を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、感情情報を推定する。この場合、第1アクションユニット情報は第1重み付け係数に適用される。第2アクションユニット情報は第2重み付け係数に適用される。
【0119】
第2実施形態の変形例2によれば、複数のユーザの顔の表情の変化に基づいて反応スコアを計算する場合において、商品を所有するユーザAの表情を重視する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。
【0120】
(3)第3実施形態
第3実施形態について説明する。第3実施形態は、仮想的な人物(以下「アバタ」という)との会話中のユーザの表情の変化に基づいて、商品に対するユーザの反応スコアを取得する例である。
【0121】
(3-1)第3実施形態の概要
第3実施形態の概要について説明する。
図14は、第3実施形態の概要の説明図である。
【0122】
図14に示すように、クライアント装置10のユーザは、クライアント装置10を用いて商品の動画像を撮影し、且つ、アバタとの会話を行う。
【0123】
クライアント装置10は、評価の対象となる商品に関する商品情報を特定する。
クライアント装置10は、商品情報の特定に成功した場合、動画像に含まれるユーザの顔の画像を解析する。
クライアント装置10は、解析の結果に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する。
【0124】
このように、クライアント装置10は、商品情報を特定することができた場合、アバタと会話するユーザの顔の画像の解析の結果に基づいて、当該商品情報に対応する商品に対するユーザの反応スコアを計算する。
これにより、商品に対する客観的な評価の指標を得ることができる。
【0125】
(3-2)情報処理
第3実施形態の情報処理について説明する。
図15は、第3実施形態の情報処理のシーケンス図である。
図16は、
図15の情報処理において表示される画面例を示す図である。
【0126】
図15に示すように、クライアント装置10は、第1実施形態(
図6)と同様に、ログインリクエスト(S100)を実行する。
ステップS100の後、サーバ30は、第1実施形態と同様に、ログイン認証(S300)を実行する。
【0127】
ステップS300の後、クライアント装置10は、アバタの提示(S120)を実行する。
具体的には、プロセッサ12は、画面P120をディスプレイ15(
図16)に表示する。
【0128】
画面P120は、画面P101(
図7)と同様のオブジェクトに加えて、表示オブジェクトA120を含む。
表示オブジェクトA120には、アバタの画像IMG120が表示される。アバタは、ユーザに対する問いかけ(例えば「どんな商品?」という質問のテキスト及び音声の少なくとも1つ)を提示する。
【0129】
ステップS120の後、クライアント装置10は、ビデオデータの取得(S121)を実行する。
具体的には、ユーザがボタンオブジェクトB101を操作し、且つ、アバタの問いかけに対して回答(例えば、回答に関するテキスト及び音声の少なくとも1つ)の入力を行うと、プロセッサ12は、ビデオデータを生成し、且つ、当該ビデオデータ及び回答に関する情報を記憶装置11に記憶する。ビデオデータは、カメラ16によって撮像された動画像と、音声入出力装置17によって入力された音声と、を含む。
【0130】
ステップS121の後、クライアント装置10は、第1実施形態(
図6)と同様に、ステップS102~S106を実行する。
ステップS106の後、サーバ30は、第1実施形態と同様に、ステップS301を実行する。
【0131】
人の感情は、他人との会話中により強く現れる。第3実施形態によれば、他のユーザが存在しなくても、アバタと商品について会話するユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。
【0132】
(4)変形例
本実施形態の変形例について説明する。
【0133】
(4-1)変形例1
変形例1について説明する。変形例1は、表情の変化及び音声を考慮して反応スコアを計算する例である。
【0134】
変形例1を第1実施形態に適用する場合、プロセッサ12は、ステップS104において、ビデオデータに含まれる音声の特徴量を抽出する。
プロセッサ12は、アクションユニット情報と、音声の特徴量と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
【0135】
変形例1によれば、表情の変化及び音声を考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。
【0136】
変形例1は、第2実施形態及び第3実施形態にも適用可能である。
【0137】
(4-2)変形例2
変形例2ついて説明する。変形例2は、表情の変化及び生体情報を考慮して反応スコアを計算する例である。
【0138】
変形例2では、ユーザは、生体情報を計測可能な計測装置を装着している。生体情報は、例えば、以下の少なくとも1つを含む。
・心拍数
・脳波
・体温
・ストレスホルモンの値
【0139】
変形例2を第1実施形態に適用する場合、プロセッサ12は、ステップS104において、計測装置から生体情報を取得する。
プロセッサ12は、アクションユニット情報と、生体情報と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
【0140】
変形例2によれば、表情の変化及び生体情報を考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。
【0141】
変形例2は、第2実施形態及び第3実施形態にも適用可能である。
【0142】
(4-3)変形例3
変形例3について説明する。変形例3は、表情の変化及び顔の傾きを考慮して、反応スコアを計算する例である。
【0143】
変形例3を第1実施形態に適用する場合、プロセッサ12は、ステップS103において、アクションユニット情報に加えて、顔の傾きの変化量に関する傾き情報を生成する。
プロセッサ12は、ステップS104において、アクションユニット情報と、傾き情報と、を感情推定式に適用することにより、ビデオデータを構成する画像フレーム毎に、ユーザの感情に関する感情情報を推定する。
【0144】
変形例3によれば、表情の変化及び顔の傾きを考慮して反応スコアを計算するので、顔画像解析のみを用いる場合よりも反応スコアの精度を向上させることができる。
【0145】
変形例3は、第2実施形態及び第3実施形態にも適用可能である。
【0146】
(4-4)変形例4
変形例4について説明する。変形例4は、ユーザの顔の画像を含む静止画像に基づいて、反応スコアを計算する例である。
【0147】
変形例4のプロセッサ12は、ステップS101においてビデオデータを生成した場合、ステップS103において、ビデオデータを構成する画像フレームから、所定条件を満たす画像フレームを抽出する。
【0148】
所定条件を満たす画像フレームは、例えば、以下の何れかである。
・ボタンオブジェクトB102が操作された時点の画像フレーム
・ビデオデータを構成する画像フレームのうち、表情の変化量が最も大きい画像フレーム
・ビデオデータを構成する画像フレームのうち、ユーザが指定した画像フレーム(例えば、ユーザが「自身の感情がもっとも表れている」と感じた画像の画像フレーム)
【0149】
プロセッサ12は、所定条件を満たす画像フレームに対して、特徴量解析を適用することにより、ユーザの感情に関する感情情報を推定する。
【0150】
なお、変形例4では、ステップS101は省略可能である。この場合、クライアント装置10は、ステップS101に変えて、ユーザの顔の画像を含む静止画像を取得する。
【0151】
変形例4によれば、静止画像の解析結果に基づいて反応スコアを計算する。これにより、静止画像(つまり、ある時点の表情)からでも、商品に対するユーザの客観的な評価の指標を得ることができる。
【0152】
(5)本実施形態の小括
本実施形態について小括する。
【0153】
本実施形態の第1態様は、
ユーザの表情に関する表情情報を取得する手段(例えば、ステップS101を実行するプロセッサ12)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS102を実行するプロセッサ12)を備え、
商品情報が特定された場合、表情情報に基づいて表情の変化を解析する手段(例えば、ステップS103を実行するプロセッサ12)を備え、
解析の結果に基づいて、商品に対するユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS104を実行するプロセッサ12)を備える、
情報処理装置(例えば、クライアント装置10)である。
【0154】
第1態様によれば、ユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標を得ることができる。
【0155】
本実施形態の第2態様は、
取得する手段は、ユーザの顔の画像を含む動画像、及び、ユーザの表情筋筋電図の少なくとも1つを取得する、
情報処理装置である。
【0156】
本実施形態の第3態様は、
取得する手段は、商品の画像を含む動画像を更に取得し、
特定する手段は、取得された動画像に含まれる商品の画像に基づいて、商品情報を特定する、
情報処理装置である。
【0157】
本実施形態の第4態様は、
少なくとも1人のユーザが発した商品情報を含む音声を取得する手段(例えば、音声入出力装置17)を備え、
特定する手段は、取得された音声に基づいて商品情報を特定する、
情報処理装置である。
【0158】
本実施形態の第5態様は、
解析する手段は、音声を更に解析する、
情報処理装置である。
【0159】
第5態様によれば、ユーザの顔の画像に加えて、ユーザの音声の解析結果を考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。
【0160】
本実施形態の第6態様は、
ユーザの生体に関する生体情報 を取得する手段を備え、
計算する手段は、解析の結果と、取得された生体情報と、に基づいて、反応スコアを計算する、
情報処理装置である。
【0161】
第6態様によれば、ユーザの顔の画像に加えて、ユーザの生体情報を考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。
【0162】
本実施形態の第7態様は、
解析の結果に基づいて、商品を見ているユーザの顔の傾きを判定する手段を備え、
計算する手段は、傾きを参照して、反応スコアを計算する、
情報処理装置である。
【0163】
第7態様によれば、ユーザの顔の画像に加えて、ユーザの顔の傾きを考慮して反応スコアが計算される。これにより、反応スコアの精度を向上させることができる。
【0164】
本実施形態の第8態様は、
仮想ユーザのアバタ画像、ユーザに対する質問を含むテキストメッセージ、及び、ユーザに対する質問を含む音声メッセージの少なくとも1つをユーザに提示する手段(例えば、ステップS120を実行するプロセッサ12)を備え、
解析する手段は、提示のときの動画像に含まれる顔を解析する、
情報処理装置である。
【0165】
第8態様によれば、他のユーザが存在しなくても、アバタと商品について会話するユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。
【0166】
本実施形態の第9態様は、
商品を使用する第1ユーザの顔の第1画像を含む第1動画像と、第1ユーザと対話する第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段(例えば、ステップS310を実行するプロセッサ32)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS311を実行するプロセッサ32)を備え、
商品情報が特定された場合、第1画像を解析する手段(例えば、ステップS312を実行するプロセッサ32)を備え、
解析の結果に基づいて、商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS314を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
【0167】
第9態様によれば、ユーザBと商品について会話するユーザAの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザAの客観的な評価の指標の精度を向上させることができる。
【0168】
本実施形態の第10態様は、
解析する手段は、第1画像と、第2ユーザの顔の第2画像と、を解析する、
情報処理装置である。
【0169】
第10態様によれば、複数のユーザの表情の変化に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。
【0170】
本実施形態の第11態様は、
第1動画像は、商品の画像を含み、
特定する手段は、取得された第1動画像に含まれる商品の画像に基づいて、商品情報を特定する、
情報処理装置である。
【0171】
本実施形態の第12態様は、
取得する手段は、第1ユーザが発した商品情報を含む第1音声と、第2ユーザの第2音声と、を取得し、
特定する手段は、取得された第1音声に基づいて商品情報を特定する、
情報処理装置である。
【0172】
本実施形態の第13態様は、
解析する手段は、第1音声及び第2音声を更に解析する、
情報処理装置である。
【0173】
第13態様によれば、複数のユーザの表情及び音声に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。
【0174】
本実施形態の第14態様は、
第1ユーザの生体に関する第1生体情報と、第2ユーザの第2生体情報と、を取得する手段を備え、
計算する手段は、解析の結果と、取得された第1生体情報及び第2生体情報と、に基づいて、反応スコアを計算する、
情報処理装置である。
【0175】
第14態様によれば、複数のユーザの表情及び生体情報に基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。
【0176】
本実施形態の第15態様は、
解析の結果に基づいて、商品を見ている第1ユーザの顔の傾きと、第2ユーザの顔の傾きと、を判定する手段を備え、
計算する手段は、傾きを参照して、反応スコアを計算する、
情報処理装置である。
【0177】
第15態様によれば、複数のユーザの表情及び顔の傾きに基づいて、反応スコアを計算する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。
【0178】
本実施形態の第16態様は、
計算する手段は、第1ユーザの顔の画像の解析結果に第1重み付け係数を適用し、第2ユーザの顔の画像の解析結果に第2重み付け係数を適用することにより、反応スコアを計算し、
第1重み付け係数は、第2重み付け係数より大きい、
情報処理装置である。
【0179】
第16態様によれば、複数のユーザの顔の表情の変化に基づいて反応スコアを計算する場合において、商品を所有するユーザの表情を重視する。これにより、商品に対するユーザの客観的な評価の指標の精度を向上させることができる。
【0180】
本実施形態の第17態様は、
商品を所有する第1ユーザが使用する第1クライアント装置10-1と、第1ユーザと対話する第2ユーザが使用する第2クライアント装置10-2と、第1クライアント装置10-1と第2クライアント装置10-2との間のビデオ通話シーケンス(S310)を実行するサーバ30と、を備える情報処理システム1であって、
第1クライアント装置10-1は、第1ユーザの顔の第1画像を含む第1動画像を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
第2クライアント装置10-2は、第2ユーザの顔の第2画像を含む第2動画像と、を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
サーバ30は、
第1動画像及び第2動画像を取得する手段(例えば、ステップS310を実行するプロセッサ12)を備え、
商品に関する商品情報を特定する手段(例えば、ステップS311を実行するプロセッサ12)を備え、
商品情報が特定された場合、第1動画像に含まれる顔の画像を解析する手段(例えば、ステップS312を実行するプロセッサ12)を備え、
解析の結果に基づいて、商品に対する第1ユーザの反応に関する指標である反応スコアを計算する手段(例えば、ステップS314を実行するプロセッサ12)を備える、情報処理システム1である。
【0181】
本実施形態の第18態様は、
ユーザの顔の画像を含む静止画像を取得する手段を備え、
商品に関する商品情報を特定する手段を備え、
商品情報が特定された場合、前記静止画像を解析する手段を備え、
解析の結果に基づいて、前記商品に対する前記ユーザの反応に関する指標である反応スコアを計算する手段を備える、
情報処理装置である。
【0182】
第18態様によれば、ある時点のユーザの表情に基づいて、反応スコアを計算する。これにより、静止画像からでも、商品に対するユーザの客観的な評価の指標を得ることができる。
【0183】
本実施形態の第19態様は、
コンピュータ(例えば、プロセッサ12)を、上記各手段として機能させるためのプログラムである。
【0184】
(6)その他の変形例
【0185】
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
【0186】
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
【0187】
画面P102(
図8)の表示オブジェクトA102a及びA102b、並びに、画面P112(
図12)の表示オブジェクトA112a及びA112bは、省略可能である。
表示オブジェクトA102a及びA102bを省略する場合、ステップS106(
図6)も省略される。この場合、クライアント装置10は、ステップS105の後、ユーザ指示を受け付けることなく、更新リクエストデータをサーバ30に送信する。
表示オブジェクトA112a及びA112bを省略する場合、ステップS110及びS112(
図10)も省略される。この場合、サーバ30は、ステップS314の後、クライアント装置10との通信を行わずに、ステップS315を実行する。
これにより、測定中に感情情報及び反応スコアを示すことによる測定への影響(例えば、感情情報及び反応スコアの客観性の毀損)を防ぐことができる。
【0188】
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
【符号の説明】
【0189】
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :ディスプレイ
16 :カメラ
17 :音声入出力装置
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース