(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024084340
(43)【公開日】2024-06-25
(54)【発明の名称】システム、方法、サーバ装置及びプログラム
(51)【国際特許分類】
G06Q 50/10 20120101AFI20240618BHJP
【FI】
G06Q50/10
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2022198553
(22)【出願日】2022-12-13
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100168310
【弁理士】
【氏名又は名称】▲高▼橋 幹夫
(72)【発明者】
【氏名】川崎 大輔
(72)【発明者】
【氏名】日比 康貴
【テーマコード(参考)】
5L049
5L050
【Fターム(参考)】
5L049CC11
5L050CC11
(57)【要約】
【課題】利用者の個人情報等を保護しつつ利用者の感情を解析可能とするシステムを提供する。
【解決手段】システムは、複数の端末と、サーバ装置と、を含む。複数の端末のそれぞれは、バイタルデータ取得手段と、顔画像取得手段と、生成手段と、を備える。バイタルデータ取得手段は、所持者が装着しているウェアラブル端末から所持者のバイタルデータを取得する。顔画像取得手段は、所持者の顔画像を取得する。生成手段は、バイタルデータと顔画像を用いて、所持者の感情に関する感情情報を生成し、生成された感情情報を含む感情情報通知をサーバ装置に送信する。サーバ装置は、受信手段と、解析手段と、を備える。受信手段は、端末から感情情報通知を受信する。解析手段は、受信した感情情報通知それぞれに含まれる感情情報を解析し、複数の利用者全体の感情の変化を示す解析結果を生成する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、
サーバ装置と、
を含み、
前記複数の端末のそれぞれは、
所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得する、バイタルデータ取得手段と、
前記所持者を撮影することで前記所持者の顔画像を取得する、顔画像取得手段と、
前記取得されたバイタルデータと前記取得された顔画像を用いて、前記所持者の感情に関する感情情報を生成し、前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信する、生成手段と、
を備え、
前記サーバ装置は、
前記複数の端末それぞれから前記感情情報通知を受信する、受信手段と、
前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、解析手段と、
を備える、システム。
【請求項2】
同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、
前記複数の利用者を撮影可能に設置された、カメラ装置と、
前記複数の利用者それぞれの顔情報を記憶する、サーバ装置と、
を含み、
前記サーバ装置は、
前記カメラ装置から画像データを取得し、
前記画像データに写る複数の顔画像それぞれについて、前記画像データから抽出された複数の顔画像と前記記憶された顔情報を使った1対N照合(Nは正の整数)により前記画像データに写る各顔画像に対応する利用者を特定し、
前記特定した利用者の端末に、前記特定された利用者の顔画像を送信し、
前記複数の端末のそれぞれは、
所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得し、
前記取得されたバイタルデータと前記サーバ装置から取得した顔画像を用いて、前記所持者の感情に関する感情情報を生成し、
前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信し、
前記サーバ装置は、
前記複数の端末それぞれから前記感情情報通知を受信し、
前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、システム。
【請求項3】
同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、
前記複数の利用者を撮影可能に設置された、カメラ装置と、
サーバ装置と、
を含み、
前記サーバ装置は、
前記カメラ装置から画像データを取得し、前記取得した画像データを前記複数の端末それぞれに送信し、
前記複数の端末のそれぞれは、
所持者の顔画像を記憶し、
前記画像データから抽出された複数の顔画像と前記記憶された所持者の顔情報を使った1対N照合(Nは正の整数)により前記画像データに写る複数の顔画像のなかから前記所持者の顔画像を特定し、
前記所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得し、
前記取得されたバイタルデータと前記特定された所持者の顔画像を用いて、前記所持者の感情に関する感情情報を生成し、
前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信し、
前記サーバ装置は、
前記複数の端末それぞれから前記感情情報通知を受信し、
前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、システム。
【請求項4】
同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、
サーバ装置と、
を含むシステムにおいて、
前記複数の端末のそれぞれが、
所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得し、
前記所持者を撮影することで前記所持者の顔画像を取得し、
前記取得されたバイタルデータと前記取得された顔画像を用いて、前記所持者の感情に関する感情情報を生成し、前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信し、
前記サーバ装置が、
前記複数の端末それぞれから前記感情情報通知を受信し、
前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、方法。
【請求項5】
同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末それぞれから、前記複数の端末それぞれが各所持者を撮影することで得られる顔画像と前記各所持者が装着しているウェアラブル端末から得られるバイタルデータを用いて生成された前記各所持者の感情に関する感情情報を含む感情情報通知を受信する、受信手段と、
前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、解析手段と、
を備える、サーバ装置。
【請求項6】
前記解析手段は、所定のタイミング又は所定の期間における、前記複数の利用者それぞれの感情が数値化された感情スコアの平均値を計算することで、前記解析結果を生成する、請求項5に記載のサーバ装置。
【請求項7】
端末に搭載されたコンピュータに、
自装置の所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得する処理と、
前記所持者を撮影することで前記所持者の顔画像を取得する処理と、
前記取得されたバイタルデータと前記取得された顔画像を用いて、前記所持者の感情に関する感情情報を生成する処理と、
前記生成された感情情報を含む感情情報通知をサーバ装置に送信する処理と、
を実行させるためのプログラム。
【請求項8】
前記所持者の顔情報を記憶する処理と、
前記記憶された顔情報と前記撮影により得られた顔画像を用いた1対1照合を実行する処理と、
をさらに実行させ、
前記感情情報を生成する処理は、前記1対1照合に成功した前記撮影により得られた顔画像を用いて前記感情情報を生成する、請求項7に記載のプログラム。
【請求項9】
前記感情情報通知を前記サーバ装置に送信する処理は、前記感情情報を前記サーバ装置に送信することに対する前記所持者の同意が得られた場合に、前記感情情報通知を前記サーバ装置に送信する、請求項8に記載のプログラム。
【請求項10】
前記感情情報を生成する処理は、機械学習により得られた学習モデルに前記取得されたバイタルデータと前記取得された顔画像を入力することで、前記所持者の感情を数値化した感情スコアを取得すると共に、前記感情スコアの時系列データを前記感情情報として生成する、請求項7乃至9のいずれか一項に記載のプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、システム、方法、サーバ装置及びプログラムに関する。
【背景技術】
【0002】
映画館等で提示されるコンテンツに対する利用者の反応(感情)を推定する技術が存在する。例えば、特許文献1には、提示情報に対するユーザの反応を示す反応情報を、当該反応情報の利用が許諾されている場合に利用する反応情報利用部を有する情報処理装置が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1のように、利用者の感情を推定するためには当該利用者の顔画像等が必要となる。特許文献1では、利用者とは異なる第三者により管理されている装置が、顔画像等を用いて利用者の感情に関する処理を実行している。近年、個人情報やプライバシーに対する利用者の意識は変化している。そのため、第三者に顔画像等を渡すことを躊躇する(嫌がる)利用者も多い。
【0005】
本発明は、利用者の個人情報等を保護しつつ利用者の感情を解析可能とすることに寄与する、システム、方法、サーバ装置及びプログラムを提供することを主たる目的とする。
【課題を解決するための手段】
【0006】
本発明の第1の視点によれば、同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、サーバ装置と、を含み、前記複数の端末のそれぞれは、所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得する、バイタルデータ取得手段と、前記所持者を撮影することで前記所持者の顔画像を取得する、顔画像取得手段と、前記取得されたバイタルデータと前記取得された顔画像を用いて、前記所持者の感情に関する感情情報を生成し、前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信する、生成手段と、を備え、前記サーバ装置は、前記複数の端末それぞれから前記感情情報通知を受信する、受信手段と、前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、解析手段と、を備える、システムが提供される。
【0007】
本発明の第2の視点によれば、同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、前記複数の利用者を撮影可能に設置された、カメラ装置と、前記複数の利用者それぞれの顔情報を記憶する、サーバ装置と、を含み、前記サーバ装置は、前記カメラ装置から画像データを取得し、前記画像データに写る複数の顔画像それぞれについて、前記画像データから抽出された複数の顔画像と前記記憶された顔情報を使った1対N照合(Nは正の整数)により前記画像データに写る各顔画像に対応する利用者を特定し、前記特定した利用者の端末に、前記特定された利用者の顔画像を送信し、前記複数の端末のそれぞれは、所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得し、前記取得されたバイタルデータと前記サーバ装置から取得した顔画像を用いて、前記所持者の感情に関する感情情報を生成し、前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信し、前記サーバ装置は、前記複数の端末それぞれから前記感情情報通知を受信し、前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、システムが提供される。
【0008】
本発明の第3の視点によれば、同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、前記複数の利用者を撮影可能に設置された、カメラ装置と、サーバ装置と、を含み、前記サーバ装置は、前記カメラ装置から画像データを取得し、前記取得した画像データを前記複数の端末それぞれに送信し、前記複数の端末のそれぞれは、所持者の顔画像を記憶し、前記画像データから抽出された複数の顔画像と前記記憶された所持者の顔情報を使った1対N照合(Nは正の整数)により前記画像データに写る複数の顔画像のなかから前記所持者の顔画像を特定し、前記所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得し、前記取得されたバイタルデータと前記特定された所持者の顔画像を用いて、前記所持者の感情に関する感情情報を生成し、前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信し、前記サーバ装置は、前記複数の端末それぞれから前記感情情報通知を受信し、前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、システムが提供される。
【0009】
本発明の第4の視点によれば、同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、サーバ装置と、を含むシステムにおいて、前記複数の端末のそれぞれが、所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得し、前記所持者を撮影することで前記所持者の顔画像を取得し、前記取得されたバイタルデータと前記取得された顔画像を用いて、前記所持者の感情に関する感情情報を生成し、前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信し、前記サーバ装置が、前記複数の端末それぞれから前記感情情報通知を受信し、前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、方法が提供される。
【0010】
本発明の第5の視点によれば、同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末それぞれから、前記複数の端末それぞれが各所持者を撮影することで得られる顔画像と前記各所持者が装着しているウェアラブル端末から得られるバイタルデータを用いて生成された前記各所持者の感情に関する感情情報を含む感情情報通知を受信する、受信手段と、前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、解析手段と、を備える、サーバ装置が提供される。
【0011】
本発明の第6の視点によれば、端末に搭載されたコンピュータに、自装置の所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得する処理と、前記所持者を撮影することで前記所持者の顔画像を取得する処理と、前記取得されたバイタルデータと前記取得された顔画像を用いて、前記所持者の感情に関する感情情報を生成する処理と、前記生成された感情情報を含む感情情報通知をサーバ装置に送信する処理と、を実行させるためのプログラムが提供される。
【発明の効果】
【0012】
本発明の各視点によれば、利用者の個人情報等を保護しつつ利用者の感情を解析可能とすることに寄与する、システム、方法、サーバ装置及びプログラムが提供される。なお、本発明の効果は上記に限定されない。本発明により、当該効果の代わりに、又は当該効果と共に、他の効果が奏されてもよい。
【図面の簡単な説明】
【0013】
【
図1】
図1は、一実施形態の概要を説明するための図である。
【
図2】
図2は、一実施形態の動作概要を説明するためのフローチャートである。
【
図3】
図3は、第1の実施形態の概略を説明するための図である。
【
図4】
図4は、第1の実施形態に係る感情解析システムの概略構成の一例を示す図である。
【
図5】
図5は、第1の実施形態に係る感情解析システムの動作を説明するための図である。
【
図6】
図6は、第1の実施形態に係る感情解析システムの動作を説明するための図である。
【
図7】
図7は、第1の実施形態に係る端末の処理構成の一例を示す図である。
【
図8】
図8は、第1の実施形態に係る端末の表示の一例を示す図である。
【
図9】
図9は、第1の実施形態に係る端末の表示の一例を示す図である。
【
図10】
図10は、第1の実施形態に係る端末の動作の一例を示すフローチャートである。
【
図11】
図11は、第1の実施形態に係るサーバ装置の処理構成の一例を示す図である。
【
図12】
図12は、第1の実施形態に係る参加者管理データベースの一例を示す図である。
【
図14】
図14は、第1の実施形態に係る感情解析結果の一例を示す図である。
【
図15】
図15は、第1の実施形態に係る感情解析システムの動作の一例を示すシーケンス図である。
【
図16】
図16は、第2の実施形態の概略を説明するための図である。
【
図17】
図17は、第2の実施形態に係るサーバ装置の処理構成の一例を示す図である。
【
図18】
図18は、第2の実施形態に係る参加者管理データベースの一例を示す図である。
【
図19】
図19は、第2の実施形態に係る感情解析システムの動作の一例を示すシーケンス図である。
【
図20】
図20は、第2の実施形態の変形例に係るサーバ装置の処理構成の一例を示す図である。
【
図21】
図21は、本願開示に係る端末のハードウェア構成の一例を示す図である。
【発明を実施するための形態】
【0014】
はじめに、一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。また、特段の釈明がない場合には、各図面に記載されたブロックはハードウェア単位の構成ではなく、機能単位の構成を表す。各図におけるブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。なお、本明細書及び図面において、同様に説明されることが可能な要素については、同一の符号を付することにより重複説明が省略され得る。
【0015】
一実施形態に係るシステムは、複数の端末101と、サーバ装置102と、を含む(
図1参照)。複数の端末101は、同じコンテンツが提供される、複数の利用者それぞれにより所持される。複数の端末101のそれぞれは、バイタルデータ取得手段111と、顔画像取得手段112と、生成手段113と、を備える。バイタルデータ取得手段111は、所持者が装着しているウェアラブル端末から所持者のバイタルデータを取得する(
図2のステップS1)。顔画像取得手段112は、所持者を撮影することで所持者の顔画像を取得する(ステップS2)。生成手段113は、取得されたバイタルデータと取得された顔画像を用いて、所持者の感情に関する感情情報を生成し、当該生成された感情情報を含む感情情報通知をサーバ装置102に送信する(ステップS3)。サーバ装置102は、受信手段121と、解析手段122と、を備える。受信手段121は、複数の端末101それぞれから感情情報通知を受信する(ステップS4)。解析手段122は、受信した感情情報通知それぞれに含まれる感情情報を解析し、複数の利用者全体の感情の変化を示す解析結果を生成する(ステップS5)。
【0016】
複数の端末101それぞれは、所持者(所有者)の顔画像を取得し、当該取得した顔画像とウェアラブル端末から取得したバイタルデータを用いて感情情報(感情スコア)を算出する。即ち、所持者の顔画像取得処理や当該所持者の個人的な情報(顔画像、バイタルデータ)を用いた感情情報の算出処理は端末101の内部で完結している。そのため、外部のサーバ装置102に上記個人的な情報が渡されることがない。従って、利用者の個人情報が的確に保護される。また、サーバ装置10は、各端末所持者の感情情報を使った解析処理を実行する。その結果、利用者の個人情報等を保護しつつ利用者の感情を解析可能とするシステムが提供される。
【0017】
以下に具体的な実施形態について、図面を参照してさらに詳しく説明する。
【0018】
[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
【0019】
第1の実施形態に係る感情解析システム(情報処理システム)では、映画やセミナーなど複数の利用者に同一のコンテンツが提供される。第1の実施形態では、例えば、
図3に示すように、講演者によるセミナーを想定し説明を行う。感情解析システムは、複数のセミナー参加者全体の感情(感想)を解析する。
【0020】
具体的には、感情解析システムは、多くの聴衆が提供されたコンテンツに対して興味を示すポイント(時間帯)や退屈しているポイント等を算出する。感情解析システムは、算出した結果を解析結果としてセミナー主催者や講演者等に提供する。
【0021】
[システムの構成]
図4は、第1の実施形態に係る感情解析システムの概略構成の一例を示す図である。
図4に示すように、感情解析システムには、サーバ装置10が含まれる。
【0022】
例えば、サーバ装置10は、セミナーを主催する企業等により管理、運営される。サーバ装置10は、当該企業の建物内に設置されていてもよいし、ネットワーク上(クラウド上)に設置されていてもよい。
【0023】
各セミナー参加者は、ウェアラブル端末20を装着している。例えば、参加者がセミナー会場に入場する際、ウェアラブル端末20が各参加者に配られる。あるいは、各参加者は、予めウェアラブル端末20を所有していてもよい。
【0024】
同じコンテンツが提供される、セミナー等の各参加者(システムの利用者)のそれぞれは、端末30を所持する。端末30は、例えば、スマートフォン、タブレット等のモバイル型端末である。
【0025】
ウェアラブル端末20と端末30は、Bluetooth(登録商標)のような近距離無線通信手段により通信可能に構成されている。また、端末30は、無線LAN(Local Area Network)やモバイル回線を介してサーバ装置10と通信可能に構成されている。
【0026】
図4に示す感情解析システムの構成は例示であって、その構成を限定する趣旨ではない。例えば、複数のサーバ装置10がシステムに含まれていてもよい。また、
図4には3人の聴衆を図示しているが、感情解析システムを利用する利用者の数を3人に限定する趣旨ではないことは勿論である。
【0027】
[概略動作]
続いて、第1の実施形態に係る感情解析システムの概略動作について説明する。
【0028】
<参加者登録>
セミナー参加者は、セミナーの開始前に参加者登録を行う。具体的には、セミナー参加者は、端末30を操作してサーバ装置10にアクセスする。参加者は、サーバ装置10が提供するWEB(ウェブ)ページ等において、参加者登録を行う。
【0029】
例えば、セミナー参加者は、端末30を操作して、ユーザIDをサーバ装置10に入力する(
図5参照)。例えば、端末30が受信可能なメールアドレスがユーザIDとしてサーバ装置10に入力される。
【0030】
あるいは、セミナー参加者は、性別や所属企業等の情報をサーバ装置10に入力してもよい。サーバ装置10は、セミナー参加者が入力した情報をユーザIDと共に管理する。
【0031】
<バイタルデータの取得>
ウェアラブル端末20は、自端末の装着者(セミナー参加者等)のバイタルデータを取得する。例えば、ウェアラブル端末20は、セミナーが開催されている間、利用者の脈拍、血圧、呼吸、体温等のバイタル(バイタルサイン)を取得する。
【0032】
ウェアラブル端末20は、定期的又は所定のタイミングで、取得したバイタルデータを端末30に送信する。ウェアラブル端末20は、自装置を装着している利用者が所持する端末30に取得したバイタルデータを送信する(
図6参照)。
【0033】
<顔画像の取得>
各利用者の端末30は、セミナーが開催されている間、その所持者を撮影可能に設置される。端末30は、所持者の顔を撮影可能に設置される。端末30は、セミナーが終了するまで所持者の顔を撮影し続ける。
【0034】
端末30は、所持者の顔を撮影することで、所持者(セミナー参加者)の顔画像を含む画像データを取得する。端末30は、取得した画像データのなかから顔画像を抽出する。その際、端末30は、自装置に予め格納された顔画像と同一人物の顔画像と判定される顔画像を抽出する。
【0035】
<感情情報の算出>
端末30は、ウェアラブル端末20から取得したバイタルデータと撮影により得られた顔画像を用いてセミナー参加者の感情に関する情報(感情情報)を算出する。
【0036】
具体的には、端末30は、バイタルデータと顔画像を用いてセミナー参加者による「楽しい」、「退屈」といった感情を数値化した感情スコアを算出する。例えば、端末30は、セミナー参加者のバイタルデータと顔画像を用いて感情スコアをリアルタイムに算出する。例えば、端末30は、時刻t1=+10(極めて楽しい)、時刻t2=-10(極めて退屈)といった利用者の感情を数値化した感情スコアの時系列データを算出する。
【0037】
セミナーが終了すると、端末30は、算出した感情情報(感情スコアの時系列データ)とユーザIDを含む感情情報通知をサーバ装置10に送信する。端末30は、感情情報等をサーバ装置10に送信する前に、算出された感情情報の送信に関する同意(所持者の同意)を取得する。なお、当該同意は、セミナー開始時に取得されてもよい。
【0038】
<感情解析>
サーバ装置10は、取得した感情情報を用いてセミナー参加者の感情を解析する。サーバ装置10は、セミナー参加者全体(平均的な参加者)の感情の変化を含む解析結果を生成する。具体的には、サーバ装置10は、取得した感情情報を用いて多くの聴衆が興味を持った時間帯、多くの聴衆が退屈に感じた時間帯等に関する情報を「感情解析結果」として算出する。
【0039】
算出された感情解析結果は、セミナー主催者等に提供される。セミナー主催者等は、感情解析結果を用いて業務改善(セミナー内容の改善)に役立てる。
【0040】
続いて、第1の実施形態に係る感情解析システムに含まれる各装置の詳細について説明する。
【0041】
[端末]
端末30には、スマートフォン、携帯電話機、ゲーム機、タブレット等の携帯端末装置が例示される。端末30は、利用者の操作を受け付け、ウェアラブル端末20及びサーバ装置10と通信可能であれば任意の機器、デバイスとすることができる。
【0042】
図7は、第1の実施形態に係る端末30の処理構成(処理モジュール)の一例を示す図である。
図7を参照すると、端末30は、通信制御部201と、原本顔画像管理部202と、参加者登録制御部203と、バイタルデータ取得部204と、顔画像取得部205と、感情情報生成部206と、記憶部207と、を備える。
【0043】
通信制御部201は、他の装置との間の通信を制御する手段である。例えば、通信制御部201は、サーバ装置10からデータ(パケット)を受信する。また、通信制御部201は、サーバ装置10に向けてデータを送信する。通信制御部201は、他の装置から受信したデータを他の処理モジュールに引き渡す。通信制御部201は、他の処理モジュールから取得したデータを他の装置に向けて送信する。このように、他の処理モジュールは、通信制御部201を介して他の装置とデータの送受信を行う。通信制御部201は、他の装置からデータを受信する受信部としての機能と、他の装置に向けてデータを送信する送信部としての機能と、を備える。
【0044】
通信制御部201は、Bluetooth(登録商標)等の近距離無線通信に対応しており、当該近接無線通信によりウェアラブル端末20と通信する。なお、端末30とウェアラブル端末20がBluetooth(登録商標)により通信する場合に必要なペアリング処理は、例えば、セミナー参加者がウェアラブル端末20を受け取った際に行われる。
【0045】
原本顔画像管理部202は、端末30の所持者(所有者)の顔画像を管理する手段である。原本顔画像管理部202は、種々の認証処理、照合処理で用いる顔情報の原本となる顔画像(以下、原本顔画像と表記する)を取得する。例えば、原本顔画像管理部202は、
図8に示すようなGUI(Graphical User Interface)を用いて原本顔画像を取得する。
【0046】
原本顔画像管理部202は、取得した原本顔画像を記憶部207に記憶する。その際、原本顔画像管理部202は、原本顔画像に暗号化処理を施し、暗号化された原本顔画像を記憶部207に格納してもよい。
【0047】
また、原本顔画像管理部202は、取得した原本顔画像から特徴量を生成し、当該生成した特徴量を記憶部207に格納してもよい。以降の説明において、原本顔画像から生成された特徴量を「原本特徴量」と表記する。記憶部207は、端末所持者の顔情報(原本顔画像、原本特徴量)を記憶する。
【0048】
なお、特徴量の生成処理に関しては既存の技術を用いることができるので、その詳細な説明を省略する。例えば、原本顔画像管理部202は、顔画像から目、鼻、口等を特徴点として抽出する。その後、原本顔画像管理部202は、特徴点それぞれの位置や各特徴点間の距離を特徴量として計算する(複数の特徴量からなる特徴ベクトルを生成する)。
【0049】
参加者登録制御部203は、利用者の参加者登録に関する制御を実行する手段である。参加者登録制御部203は、利用者(セミナー参加者)の操作に応じて、サーバ装置10が提供するWEBページにアクセスする。
【0050】
参加者登録制御部203は、サーバ装置10が提供するGUIに利用者が入力した情報を取得する。参加者登録制御部203は、取得した情報(例えば、メールアドレス)をサーバ装置10に送信する。
【0051】
バイタルデータ取得部204は、バイタルデータの取得に関する制御を行う手段である。バイタルデータ取得部204は、端末30の所持者が装着しているウェアラブル端末20から当該所持者のバイタルデータを取得する。
【0052】
具体的には、バイタルデータ取得部204は、自装置(端末30)と通信可能な状態にあるウェアラブル端末20からバイタルデータを受信する。より具体的には、バイタルデータ取得部204は、ペアリングが完了したウェアラブル端末20からバイタルデータを取得する。
【0053】
バイタルデータ取得部204は、取得したバイタルデータを記憶部207に記憶する。バイタルデータ取得部204は、取得したバイタルデータ(脈拍等の具体的な数値)とバイタルデータ取得時刻を対応付けて記憶部207に記憶する。
【0054】
顔画像取得部205は、顔画像の取得に関する制御を行う手段である。顔画像取得部205は、端末30の所持者を撮影することで当該所持者の顔画像を取得する。顔画像取得部205は、利用者による所定の動作(例えば、セミナー開始ボタンの押下)に応じて、利用者の撮影を開始する。
【0055】
顔画像取得部205は、自装置に搭載されたカメラを制御し、セミナー参加中の利用者を撮影し続ける。顔画像取得部205は、撮影により得られた画像データを取得する。
【0056】
顔画像取得部205は、取得した画像データのなかから顔画像(顔領域)の抽出を試みる。
【0057】
なお、顔画像取得部205による顔画像の抽出処理には既存の技術を用いることができるので詳細な説明を省略する。例えば、顔画像取得部205は、CNN(Convolutional Neural Network)により学習された学習モデルを用いて、画像データの中から顔画像(顔領域)を抽出してもよい。あるいは、顔画像取得部205は、テンプレートマッチング等の手法を用いて顔画像を抽出してもよい。
【0058】
顔画像の抽出に成功すると、顔画像取得部205は、記憶部207に記憶された顔情報と撮影により得られた顔画像を用いた1対1照合を実行する。具体的には、顔画像取得部205は、抽出された顔画像から特徴量を生成する。顔画像取得部205は、当該生成された特徴量と原本特徴量(原本顔画像から生成された特徴量)を用いた1対1照合を実行する。
【0059】
その際、顔画像取得部205は、2つの特徴量の間の類似度を算出する。なお、当該類似度には、カイ二乗距離やユークリッド距離等を用いることができる。距離が離れているほど類似度は低く、距離が近いほど類似度が高い。
【0060】
類似度が所定の値よりも大きければ(距離が所定の値よりも短ければ)、顔画像取得部205は、1対1照合(1対1認証)に成功したと判定する。類似度が所定の値以下であれば、顔画像取得部205は、1対1照合に失敗したと判定する。
【0061】
1対1照合に成功すると、顔画像取得部205は、画像データから抽出された顔画像を記憶部207に記憶する。顔画像取得部205は、取得した顔画像と顔画像取得時刻を対応付けて記憶部207に記憶する。1対1照合に成功した、撮影により得られた顔画像が感情情報の生成に用いられる。
【0062】
1対1照合に失敗すると、顔画像取得部205は、特段の処理を行わない。顔画像取得部205は、画像データから抽出された顔画像等を破棄する。
【0063】
感情情報生成部206は、感情情報を生成する手段である。感情情報生成部206は、取得されたバイタルデータと取得された顔画像を用いて、端末30の所持者の感情に関する感情情報を生成する。感情情報生成部206は、当該生成された感情情報を含む感情情報通知をサーバ装置10に送信する。
【0064】
例えば、感情情報生成部206は、セミナーが開催されている間リアルタイムに感情情報(感情スコア)を算出する。例えば、感情情報生成部206は、バイタルデータ又は顔画像が取得されたタイミングで感情スコアを算出する。
【0065】
感情情報生成部206は、バイタルデータ及び顔画像を用いて、利用者(端末30の所持者;セミナー参加者)の感情スコアを算出する。例えば、感情情報生成部206は、機械学習により得られる学習モデルを用いて感情スコアを取得する。
【0066】
例えば、感情情報生成部206は、感情スコア算出時又は直前のバイタルデータ及び顔画像を入力すると感情スコアを出力する学習モデルを使って感情スコアを取得する。
【0067】
当該学習モデルは、数多くのデータ(バイタルデータ及び顔画像の組み合わせ)にラベル(感情スコア;例えば、+10~-10の範囲の21段階の数値)が付与された教師データを用いた機械学習により得られる。学習モデルの生成には、サポートベクタマシン、ブースティングやニューラルネットワーク等の任意のアルゴリズムを用いることができる。なお、上記サポートベクタマシン等のアルゴリズムは公知の技術を使用することができるので、その説明を省略する。
【0068】
例えば、正の感情スコアはポジティブな感情(喜び、楽しい、興味深い、興奮等)を示し、負の感情スコアはネガティブな感情(怒り、悲しみ、退屈、無関心等)を示す。また、感情スコアの値は感情の程度を示す。
【0069】
感情情報生成部206は、バイタルデータ用の学習モデルと顔画像用の学習モデルのそれぞれを用いて感情スコアを算出してもよい。例えば、感情情報生成部206は、バイタルデータ用の学習モデルにバイタルデータを入力することで、感情スコア(バイタル)を取得する。また、感情情報生成部206は、顔画像用の学習モデルに顔画像を入力することで、感情スコア(顔画像)を取得する。
【0070】
感情情報生成部206は、得られた2つの感情スコア(バイタル、顔画像)に対する算術処理により感情スコア(全体)を算出してもよい。例えば、感情情報生成部206は、2つの感情スコアを加算することで感情スコア(全体)を算出する。あるいは、感情情報生成部206は、2つの感情スコアに対して重みを付与して加算することで感情スコア(全体)を算出してもよい。あるいは、感情情報生成部206は、2つの感情スコアを乗算することで感情スコア(全体)を取得する。
【0071】
このように、感情情報生成部206は、機械学習により得られた学習モデルにバイタルデータと顔画像を入力することで、端末30の所持者の感情を数値化した感情スコアを取得する。
【0072】
感情情報生成部206は、感情スコアが記載されたテーブル情報を使って感情スコアを算出してもよい。例えば、感情情報生成部206は、バイタルデータ(脈拍、血圧等)と感情スコアを対応付けて記憶するテーブル情報を用いて感情スコア(バイタル)を算出してもよい。
【0073】
感情情報生成部206は、算出した感情スコアをスコア算出時刻と対応付けて記憶部207に記憶する。感情情報生成部206は、感情スコアの時系列データを感情情報として記憶部207に格納する。
【0074】
感情情報生成部206は、生成された感情情報(感情スコアの時系列データ)をサーバ装置10に送信する。例えば、感情情報生成部206は、セミナーの終了時又は利用者がセミナー会場から退出する際に、感情情報をサーバ装置10に送信する。
【0075】
例えば、感情情報生成部206は、利用者による所定の動作(例えば、セミナー終了ボタンの押下)を検出すると、感情情報をサーバ装置10に送信する。その際、感情情報生成部206は、感情情報を第三者(例えば、セミナー主催企業)に提供することに対する利用者の同意を取得する。
【0076】
例えば、感情情報生成部206は、
図9に示すようなGUIを用いて利用者の意思(感情情報の提供に同意又は不同意)を取得する。
【0077】
感情情報の提供に対する同意が得られないと、感情情報生成部206は、特段の動作を行わない。
【0078】
感情情報の提供に対する同意が得られると、感情情報生成部206は、感情情報をサーバ装置10に送信する。具体的には、感情情報生成部206は、算出された感情情報(感情スコアの時系列データ)とユーザID(例えば、メールアドレス)を含む感情情報通知をサーバ装置10に送信する。
【0079】
このように、感情情報生成部206は、感情情報をサーバ装置10に送信することに対する端末30の所持者の同意が得られた場合に、感情情報通知をサーバ装置10に送信する。
【0080】
記憶部207は、端末30の動作に必要な情報を記憶する手段である。
【0081】
上記説明した端末30の動作をまとめると
図10に示すフローチャートのとおりとなる。
【0082】
端末30は、ウェアラブル端末20からバイタルデータを取得する(ステップS101)。
【0083】
端末30は、利用者(セミナー参加者)の顔画像を取得する(ステップS102)。
【0084】
端末30は、バイタルデータ及び顔画像を用いて感情情報(感情スコア)を算出する(ステップS103)。
【0085】
端末30は、感情情報の送信前に、当該感情情報を他者に提供することに対する利用者の同意を取得する(ステップS104)。
【0086】
端末30は、ユーザID及び感情情報を含む感情情報通知をサーバ装置10に送信する(ステップS105)。
【0087】
[サーバ装置]
図11は、第1の実施形態に係るサーバ装置10の処理構成(処理モジュール)の一例を示す図である。
図11を参照すると、サーバ装置10は、通信制御部301と、参加者管理部302と、感情情報処理部303と、感情解析部304と、記憶部305と、を備える。
【0088】
通信制御部301は、他の装置との間の通信を制御する手段である。例えば、通信制御部301は、端末30からデータ(パケット)を受信する。また、通信制御部301は、端末30に向けてデータを送信する。通信制御部301は、他の装置から受信したデータを他の処理モジュールに引き渡す。通信制御部301は、他の処理モジュールから取得したデータを他の装置に向けて送信する。このように、他の処理モジュールは、通信制御部301を介して他の装置とデータの送受信を行う。通信制御部301は、他の装置からデータを受信する受信部としての機能と、他の装置に向けてデータを送信する送信部としての機能と、を備える。
【0089】
参加者管理部302は、セミナー等の参加者に関する管理を行う手段である。
【0090】
参加者がWEBページ等において所定の操作を行うと、参加者管理部302は、当該参加者に関する情報(例えば、ユーザIDとなるメールアドレス)を取得する。参加者管理部302は、GUI等を用いて上記参加者に関する情報を取得する。
【0091】
参加者管理部302は、取得した情報(ユーザIDを含む情報)を参加者管理データベースに記憶する(
図12参照)。なお、
図12に示す参加者管理データベースは例示であって、記憶する項目等を限定する趣旨ではない。例えば、参加者登録された日時等が参加者管理データベースに記憶されていてもよい。
【0092】
感情情報処理部303は、利用者(セミナー参加者)の感情情報に関する管理、処理を行う手段である。感情情報処理部303は、端末30から受信する感情情報通知を処理する。
【0093】
感情情報通知を受信すると、感情情報処理部303は、感情情報通知に含まれるユーザIDごとに感情情報を記憶部305に記憶する。感情情報処理部303は、参加者ごとの感情スコアの時系列データを記憶する。
【0094】
例えば、記憶部305には、
図13A及び
図13Bに示すような感情スコアの時系列データが記憶される。
図13Aは、参加者Aの感情スコアの時系列データをグラフ化した図である。
図13Bは、参加者Bの感情スコアの時系列データをグラフ化した図である。
【0095】
感情解析部304は、セミナー参加者の感情に関する解析を行う手段である。感情解析部304は、複数の端末30から受信した感情情報通知それぞれに含まれる感情情報を解析し、セミナーに参加している複数の利用者全体の感情の変化を示す解析結果を生成する。
【0096】
即ち、感情解析部304は、各参加者の感情情報(感情スコアの時系列データ)を解析することで、セミナー中の各ポイント、各時刻において、セミナー参加者全体(多くのセミナー参加者)に共通する感情を解析結果として生成する。
【0097】
具体的には、感情解析部304は、システム管理者等の要求に応じて、参加者全体の感情(感情の変化)を解析する。感情解析部304は、解析結果をシステム管理者等に提示する。
【0098】
例えば、感情解析部304は、各参加者から得られた感情情報(感情スコアの時系列データ)を用いて参加者全体の感情を解析する。
【0099】
例えば、感情解析部304は、セミナー開始からセミナー終了までの間における所定ポイントごとに各参加者の感情スコアの平均値を算出する。例えば、感情解析部304は、セミナー開始から1分間隔で各参加者の感情スコアの平均値を算出する。
【0100】
なお、当該所定のタイミングで感情スコアが得られていない参加者が存在する場合には、感情解析部304は、直前の感情スコアを使用したり前後の感情スコアを用いて補間された感情スコアを使用したりする。
【0101】
あるいは、感情解析部304は、各参加者について、所定期間(例えば、5分間)の感情スコアの平均値を算出する。感情解析部304は、算出された感情スコアの平均値を用いてセミナー参加者全体に関する感情スコアの平均値を算出してもよい。
【0102】
例えば、感情解析部304は、セミナー開始から5分間の参加者Aに関する感情スコアの平均値を算出する。同様に、感情解析部304は、セミナー開始から5分間の参加者Bに関する感情スコアの平均値を算出する。感情解析部304は、参加者A及び参加者Bの感情スコアの平均値のさらに平均値を算出することで、セミナー開始から5分間における参加者全体(上記の例では2人の参加者)の感情スコアを算出する。
【0103】
このように、感情解析部304は、所定の時刻又は所定の期間における、複数の利用者それぞれの感情スコアの平均値を計算することで、解析結果を生成する。
【0104】
感情解析部304は、得られた解析結果(参加者全体の感情変化を示す時系列データ)をシステム管理者等に提示する。
【0105】
例えば、感情解析部304は、
図14に示すような感情解析結果を液晶モニター等に表示する。あるいは、感情解析部304は、感情解析結果を印刷したり、感情解析結果をシステム管理者が所持する端末に送信したりしてもよい。
【0106】
図14に示すような結果を参照し、システム管理者(セミナー主催者)は、時刻t3から時刻t6のセミナー内容には改善の余地があることを認識する。
【0107】
あるいは、感情解析部304は、セミナー参加者が提供されたコンテンツに対して最も興味を示した時間帯や最も退屈に感じた時間帯を解析結果として生成してもよい。例えば、
図14の例では、時刻t1~t2が多くの参加者が提供コンテンツに最も興味を示した時間帯、時刻t4~t5が多くの参加者が最も退屈と感じた時間帯として生成される。
【0108】
記憶部305は、サーバ装置10の動作に必要な情報を記憶する手段である。
【0109】
[システムの動作]
続いて、第1の実施形態に係る感情解析システムの動作について説明する。
【0110】
図15は、第1の実施形態に係る感情解析システムの動作の一例を示すシーケンス図である。
図15を参照し、第1の実施形態に係る感情解析システムの動作を説明する。
【0111】
端末30は、ウェアラブル端末20からバイタルデータを取得する(ステップS01)。
【0112】
端末30は、利用者を撮影することで顔画像を取得する(ステップS02)。
【0113】
端末30は、バイタルデータ及び顔画像を用いて感情スコアを算出する(ステップS03)。
【0114】
端末30は、セミナーが終了したタイミング等において、ユーザIDと感情情報を含む感情情報通知をサーバ装置10に送信する(ステップS04)。
【0115】
サーバ装置10は、各参加者の感情情報(感情スコアの時系列データ)を記憶する(ステップS05)。
【0116】
サーバ装置10は、システム管理者等の要求に応じて、セミナー参加者全体を対象とした感情解析を行う(ステップS06)。
【0117】
<第1の実施形態に係る変形例1>
上記第1の実施形態では、端末30は、利用者のメールアドレスを当該利用者のユーザIDとしてサーバ装置10に入力する場合について説明した。しかし、端末30は、利用者のユーザIDを生成し、当該生成したユーザIDをサーバ装置10に送信してもよい。
【0118】
例えば、参加者登録制御部203は、利用者に固有な氏名やメールアドレス等のハッシュ値を計算し、当該計算されたハッシュ値をユーザIDとしてサーバ装置10に送信してもよい。
【0119】
あるいは、セミナー参加者が座る座席の座席番号等がユーザIDとして利用されてもよい。この場合、セミナー参加者は、端末30を操作して着席した席に貼られた座席番号をサーバ装置10に入力する。あるいは、端末30は、座席に貼られた2次元バーコード等から座席番号を読み取り、当該読み取った座席番号をサーバ装置10に送信してもよい。
【0120】
あるいは、参加者登録の際、サーバ装置10が、参加者を一意に識別可能なユーザIDを生成してもよい。サーバ装置10は、セミナー参加への参加意思を示した利用者の端末30に上記生成したユーザIDを送信してもよい。
【0121】
<第1の実施形態に係る変形例2>
端末30が生成した感情情報(感情スコアの時系列データ)は、セミナー参加者に提供されてもよい。例えば、感情情報生成部206は、利用者の所定の動作(例えば、セミナー感想表示ボタンの押下)を検出すると、
図13Aや
図13Bで示される感情情報を表示してもよい。
【0122】
<第1の実施形態に係る変形例3>
端末30が感情情報を生成するのではなく、サーバ装置10が感情情報を生成してもよい。この場合、端末30は、ウェアラブル端末20から取得したバイタルデータや撮影により得られた顔画像をユーザIDと共にサーバ装置10に送信すればよい。
【0123】
以上のように、第1の実施形態に係る感情解析システムでは、端末30は、所持者(所有者)の顔画像を取得し、当該取得した顔画像とウェアラブル端末20から取得したバイタルデータを用いて感情情報(感情スコア)を算出する。即ち、所持者の顔画像取得処理や当該所持者の個人的な情報(顔画像、バイタルデータ)を用いた感情スコアの算出処理は端末30の内部で完結している。そのため、外部のサーバ装置10等に上記個人的な情報が渡されることがない。従って、利用者の個人情報が的確に保護される。
【0124】
また、端末30は、バイタルデータと顔画像を用いて利用者の感情分析(感情スコアの算出)を行うので、いずれか一方を使用した場合と比較して、より精度の高い分析を行うことができる。
【0125】
さらに、端末30は、自装置に事前登録された顔情報(原本顔画像、原本特徴量)を使って撮影画像に写る顔画像が端末所持者の顔画像か否か判定する。その結果、所持者が席を外すことで他人が映り込んでしまった場合などでも、他人の顔画像を用いて感情分析(感情スコアの算出)が行われることもない。
【0126】
また、サーバ装置10は、利用者のユーザID(例えば、メールアドレス)を使って利用者を識別し、各利用者の端末30から取得した感情情報(感情スコアの時系列データ)を解析する。サーバ装置10は、各参加者の感情情報を解析することで、セミナー主催者の業務改善等に役立つ情報を生成する。また、サーバ装置10の解析処理は、感情スコアの平均値を算出する等の処理負荷の軽いものである。従って、セミナー参加者が大きく増えてもサーバ装置10に過度な負荷が発生することもない。
【0127】
[第2の実施形態]
続いて、第2の実施形態について図面を参照して詳細に説明する。
【0128】
第1の実施形態では、端末30に搭載されたカメラが各セミナー参加者(端末30の所持者)を撮影することを説明した。第2の実施形態では、セミナーに参加した聴衆全体を撮影可能なカメラがセミナー参加者を撮影する場合について説明する。
【0129】
以下、第1の実施形態及び第2の実施形態の相違点を中心に説明する。
【0130】
第2の実施形態に係る感情解析システムは、
図16に示すように、カメラ装置40を含む。カメラ装置40は、セミナー会場の全体を俯瞰した画像を取得可能に設置されている。カメラ装置40は、有線又は無線によりサーバ装置10と接続されている。
【0131】
図17は、第2の実施形態に係るサーバ装置10の処理構成(処理モジュール)の一例を示す図である。
図17を参照すると、第1の実施形態に係るサーバ装置10の構成に参加者特定部306が追加されている。
【0132】
参加者特定部306は、セミナー参加者の特定に関する制御を実行する手段である。
【0133】
第2の実施形態に係る端末30(参加者登録制御部203)は、参加者登録の際、原本特徴量をサーバ装置10に送信する。なお、利用者の明確な同意があれば、端末30は、当該利用者の原本顔画像をサーバ装置10に送信してもよい。原本顔画像を取得した場合、サーバ装置10は、当該原本顔画像から原本特徴量を生成する。
【0134】
サーバ装置10(参加者管理部302)は、生成した原本特徴量を参加者管理データベースに記憶する(
図18参照)。
【0135】
セミナーが開始されると、サーバ装置10の参加者特定部306は、定期的又は所定のタイミングで、カメラ装置40から画像データ(セミナー参加者の全員が写る画像データ)を取得する。
【0136】
参加者特定部306は、取得した画像データから顔画像を抽出する。例えば、セミナー参加者が10人の場合には、10個の顔画像が抽出される。
【0137】
参加者特定部306は、抽出した顔画像それぞれについて、対応するセミナー参加者の特定を行う。具体的には、参加者特定部306は、抽出した顔画像から特徴量を生成する。参加者特定部306は、生成した特徴量を照合側、参加者管理データベースに記憶された特徴量(原本特徴量)を登録側に設定し、1対N照合(Nは正の整数、以下同じ)を実行する。
【0138】
参加者特定部306は、照合対象の特徴量と登録側の複数の特徴量それぞれとの間の類似度を計算する。参加者特定部306は、参加者管理データベースに登録された複数の特徴量のうち、照合対象の特徴量との間の類似度が所定の値以上の特徴量が存在しなければ、照合処理に失敗したと判定する。
【0139】
参加者特定部306は、参加者管理データベースに登録された複数の特徴量のうち、照合対象の特徴量との間の類似度が所定の値以上の特徴量が存在すれば、照合処理に成功したと判定する。参加者特定部306は、類似度が最も高いエントリの参加者を照合対象の顔画像に対応する参加者に定める。
【0140】
1対N照合により顔画像に対応するセミナー参加者が特定されると、参加者特定部306は、当該特定された参加者が所持する端末30に顔画像を送信する。具体的には、参加者特定部306は、特定された参加者のユーザID、顔画像及び顔画像取得時刻を含む「顔画像検出通知」を端末30に送信する。
【0141】
参加者特定部306は、カメラ装置40から取得した画像データに含まれる各顔画像について上記参加者特定処理と顔画像送信処理を繰り返す。
【0142】
端末30の感情情報生成部206は、顔画像検出通知を受信する。感情情報生成部206は、受信した顔画像検出通知に含まれる顔画像とウェアラブル端末20から取得したバイタルデータを用いて感情情報(感情スコア)を算出する。
【0143】
このように、サーバ装置10は、カメラ装置40から画像データを取得する。サーバ装置10は、当該画像データに写る複数の顔画像それぞれについて、画像データから抽出された複数の顔画像と記憶された顔情報を使った1対N照合により、画像データに写る各顔画像に対応する利用者を特定する。サーバ装置10は、特定した利用者の端末30に、当該特定された利用者の顔画像を送信する。端末30は、バイタルデータとサーバ装置10から取得した顔画像を用いて、所持者の感情に関する感情情報を生成する。
【0144】
[システムの動作]
続いて、第2の実施形態に係る感情解析システムの動作について説明する。
【0145】
図19は、第2の実施形態に係る感情解析システムの動作の一例を示すシーケンス図である。
図19を参照し、第2の実施形態に係る感情解析システムの動作を説明する。なお、
図15と
図19において同一の処理には同一の符号(ステップ)を付与し、説明を省略する。
【0146】
サーバ装置10は、カメラ装置40から得られる画像データに写るセミナー参加者を特定する(ステップS11)。
【0147】
サーバ装置10は、特定したセミナー参加者の端末30に対して、当該特定されたセミナー参加者の顔画像を含む顔画像検出通知を送信する(ステップS12)。
【0148】
端末30は、第1の実施形態と同様に、取得したバイタルデータと顔画像を用いて感情スコアを算出する(ステップS03)。
【0149】
このように、第2の実施形態では、セミナー等の開始前に利用者の原本特徴量及びユーザIDがサーバ装置10に送信される。サーバ装置10は、原本特徴量とカメラ装置40が撮影した画像データから得られる顔画像の特徴量を用いた1対N照合によりセミナー参加者を特定する。サーバ装置10は、特定したセミナー参加者の端末30(ユーザIDから特定される端末30)に参加者の顔画像を送信する。
【0150】
<第2の実施形態に係る変形例1>
上記第2の実施形態では、参加者を特定するための1対N照合がサーバ装置10で実行される場合について説明した。しかし、当該1対N照合は各セミナー参加者が所持する端末30で実行されてもよい。
【0151】
この場合、参加者特定部306は、カメラ装置40から取得した画像データを各セミナー参加者の端末30に送信する。
【0152】
端末30の顔画像取得部205は、サーバ装置10から取得した画像データから顔画像を抽出する。例えば、セミナー参加者が10人であれば10個の顔画像が抽出される。
【0153】
顔画像取得部205は、抽出された各顔画像から特徴量を生成する。顔画像取得部205は、記憶部207に記憶された原本特徴量と上記生成された特徴量を使った照合処理を実行する。
【0154】
具体的には、顔画像取得部205は、原本特徴量を照合側、画像データから生成された特徴量を登録側に設定し、1対N照合を実行する。顔画像取得部205は、1対N照合により特定された特徴量に対応する顔画像(画像データから抽出された顔画像)を所持者の顔画像として扱う。
【0155】
顔画像取得部205は、1対N照合により特定された顔画像と顔画像取得時刻を記憶部207に記憶する。
【0156】
端末30は、第1の実施形態等と同様に、バイタルデータと顔画像を用いた感情情報(感情スコア)の算出処理を行う。
【0157】
このように、サーバ装置10は、カメラ装置40から画像データを取得し、当該取得した画像データを複数の端末30それぞれに送信する。複数の端末30のそれぞれは、対応する所持者の顔画像を記憶している。また、各端末30は、受信した画像データから抽出された複数の顔画像と記憶部207に記憶された所持者の顔情報を使った1対N照合(Nは正の整数)により、画像データに写る複数の顔画像のなかから所持者の顔画像を特定する。端末30は、当該特定した顔画像を用いて感情スコアを算出する。
【0158】
<第2の実施形態に係る変形例2>
上記第2の実施形態では、感情情報(感情スコア)の算出は端末30で行われる場合について説明した。当該感情情報の算出は、サーバ装置10で行われてもよい。
【0159】
この場合、サーバ装置10は、
図20に示すように、バイタルデータ処理部307及び感情情報生成部308を備える。なお、サーバ装置10は、上記第1の実施形態等で説明した感情情報処理部303を具備しない。
【0160】
バイタルデータ処理部307は、端末30から受信するバイタルデータに関する処理を行う手段である。感情情報生成部308は、第1の実施形態等で説明した端末30の感情情報生成部206と同様に動作する。
【0161】
第2の実施形態に係る端末30のバイタルデータ取得部204は、ウェアラブル端末20からバイタルデータを取得すると、当該取得したバイタルデータをサーバ装置10に送信する。
【0162】
例えば、バイタルデータ取得部204は、ウェアラブル端末20からバイタルデータを取得するたびに、セミナー参加者のユーザID、取得したバイタルデータ及びバイタルデータ取得時刻を含むバイタルデータ通知をサーバ装置10に送信する。
【0163】
バイタルデータ通知を受信したサーバ装置10のバイタルデータ処理部307は、当該通知に含まれるユーザID、バイタルデータ及びバイタルデータ取得時刻を記憶する。
【0164】
感情情報生成部308は、参加者特定部306が特定したセミナー参加者の顔画像と端末30から取得したバイタルデータを用いて感情情報(感情スコアの時系列データ)を算出する。
【0165】
なお、感情情報生成部308は、ユーザIDを用いて参加者特定部306が取得した顔画像と端末30から取得したバイタルデータの対応付け(名寄せ)を行う。
【0166】
<第2の実施形態に係る変形例3>
上記説明した第2の実施形態に係るサーバ装置10の一部機能はカメラ装置40により実施されてもよい。
【0167】
例えば、画像データから顔画像を抽出する処理や当該抽出された顔画像から特徴量を生成する処理はカメラ装置40が実行してもよい。
【0168】
以上のように、第2の実施形態に係る感情解析システムは、会場全体を俯瞰した画像データの取得が可能なカメラ装置40を含む。サーバ装置10や端末30は、当該カメラ装置40から得られる画像データに写る顔画像から1対N認証により端末所持者を特定する。端末所持者の端末30は、特定された顔画像を感情スコアの算出に用いる。その結果、机がないセミナー会場等であって、端末30が利用者を撮影可能に設置することが困難な場合でも、利用者の感情スコアの算出や感情情報の解析が行うことができる。
【0169】
続いて、感情解析システムを構成する各装置のハードウェアについて説明する。
図21は、端末30のハードウェア構成の一例を示す図である。
【0170】
端末30は、情報処理装置(所謂、コンピュータ)により構成可能であり、
図21に例示する構成を備える。例えば、端末30は、プロセッサ311、メモリ312、入出力インターフェイス313及び通信インターフェイス314等を備える。上記プロセッサ311等の構成要素は内部バス等により接続され、相互に通信可能に構成されている。
【0171】
但し、
図21に示す構成は、端末30のハードウェア構成を限定する趣旨ではない。端末30は、図示しないハードウェアを含んでもよいし、必要に応じて入出力インターフェイス313を備えていなくともよい。また、端末30に含まれるプロセッサ311等の数も
図21の例示に限定する趣旨ではなく、例えば、複数のプロセッサ311が端末30に含まれていてもよい。さらに、端末30は、被認証者を撮影するためのカメラを備えていればよい。
【0172】
プロセッサ311は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)等のプログラマブルなデバイスである。あるいは、プロセッサ311は、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等のデバイスであってもよい。プロセッサ311は、オペレーティングシステム(OS;Operating System)を含む各種プログラムを実行する。
【0173】
メモリ312は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)等である。メモリ312は、OSプログラム、アプリケーションプログラム、各種データを格納する。
【0174】
入出力インターフェイス313は、図示しない表示装置や入力装置のインターフェイスである。表示装置は、例えば、液晶ディスプレイ等である。入力装置は、例えば、キーボード、マウス、タッチパネル等のユーザ操作を受け付ける装置である。
【0175】
通信インターフェイス314は、他の装置と通信を行う回路、モジュール等である。例えば、通信インターフェイス314は、NIC(Network Interface Card)等を備える。
【0176】
端末30の機能は、各種処理モジュールにより実現される。当該処理モジュールは、例えば、メモリ312に格納されたプログラムをプロセッサ311が実行することで実現される。また、当該プログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transitory)なものとすることができる。即ち、本発明は、コンピュータプログラム製品として具現することも可能である。また、上記プログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。さらに、上記処理モジュールは、半導体チップにより実現されてもよい。
【0177】
なお、サーバ装置10も端末30と同様に情報処理装置により構成可能であり、その基本的なハードウェア構成は端末30と相違する点はないので説明を省略する。
【0178】
端末30は、コンピュータを搭載し、当該コンピュータにプログラムを実行させることで端末30の機能が実現できる。また、端末30は、当該プログラムにより端末30の制御方法を実行する。同様に、サーバ装置10は、コンピュータを搭載し、当該コンピュータにプログラムを実行させることでサーバ装置10の機能が実現できる。また、サーバ装置10は、当該プログラムによりサーバ装置10の制御方法を実行する。
【0179】
[変形例]
なお、上記実施形態にて説明した感情解析システムの構成、動作等は例示であって、システムの構成等を限定する趣旨ではない。
【0180】
上記実施形態では、映画館やセミナー会場のように同じ場所(同じ空間、所定の空間)で同じコンテンツが提供される場合を想定し、感情解析システムの動作を説明した。しかし、本願開示の感情解析システムは、オンラインセミナーのような異なる場所で同じコンテンツが提供される場合についても適用可能である。この場合、各セミナー参加者は、所有するウェアラブル端末20を装着し、端末30を自身の顔画像を撮影可能に設置すればよい。
【0181】
上記実施形態では、セミナー参加者を例にとり感情解析システムの説明を行った。しかし、感情解析システムは、他のイベント等の参加者を感情解析の対象としてもよい。例えば、映画の視聴者や会議の出席者等が感情解析の対象であってもよい。
【0182】
ウェアラブル端末20は、利用者から取得したバイタルデータをリアルタイムに端末30に送信してもよいし、所定期間に取得されたバイタルデータをまとめて端末30に送信してもよい。
【0183】
ウェアラブル端末20は、複数種類のバイタルデータを取得し、当該複数種類のバイタルデータを端末30に送信してもよい。例えば、ウェアラブル端末20は、脈拍と体温、脈拍と血圧といったような組み合わせのバイタルデータを端末30に送信してもよい。
【0184】
複数種類のバイタルデータを取得した場合、端末30は、バイタルデータごとに用意された学習モデルを用いて感情スコアを算出してもよい。端末30は、バイタルデータごとの感情スコアに対する算術処理等によって利用者の感情スコアを算出してもよい。
【0185】
端末30は、感情ごとのスコアを算出してもよい。例えば、端末30は、ポジティブな感情をより細分化し、「楽しい」に関する楽しみスコア、「興奮」に関する興奮スコアを算出してもよい。あるいは、端末30は、ネガティブな感情をより細分化し、「悲しみ」に関する悲しみスコア、「退屈」に関する退屈スコア等を算出してもよい。
【0186】
端末30は、細分化された感情スコア(例えば、楽しみスコア、興奮スコア)をサーバ装置10に送信してもよい。サーバ装置10は、感情ごとの解析結果を算出してもよい。
【0187】
上記実施形態では、リアルタイムに感情スコアが算出される場合について説明したが、端末30は、所定のタイミング等において、感情スコアをまとめて算出してもよい。例えば、端末30は、セミナー終了後にまとめて感情スコアを算出してもよい。あるいは、端末30は、セミナー参加者が感情情報を第三者(例えば、セミナー参加者)に提供することについて同意を与えた後に、感情スコアを算出してもよい。
【0188】
上記実施形態では、感情情報(感情スコアの時系列データ)はセミナー終了後にサーバ装置10に送信されることを説明した。しかし、感情情報(感情スコアの時系列データ)はリアルタイムにサーバ装置10に送信されてもよい。
【0189】
上記実施形態では、ウェアラブル端末20は、端末30にバイタルデータを送信する場合について説明した。セミナー参加者に配られた各ウェアラブル端末20は、1つの装置(バイタルデータ収集装置)に対して集中的にバイタルデータを送信してもよい。例えば、ウェアラブル端末20は、端末30からユーザIDを取得し、当該ユーザIDと共に取得したバイタルデータをバイタルデータ収集装置に送信する。バイタルデータ収集装置は、取得したバイタルデータを端末30やサーバ装置10に送信する。
【0190】
サーバ装置10は、各セミナー参加者の属性情報(例えば、性別、年齢)が得られる場合には、属性ごとの感情解析結果を算出してもよい。例えば、サーバ装置10は、男性が面白いと感じた時間帯や女性が面白いと感じた時間帯等の情報をシステム管理者等に提供できる。
【0191】
サーバ装置10は、セミナーを録画した動画データ等が得られる場合には、当該動画データを用いた感情解析結果をシステム管理者等に提供してもよい。例えば、サーバ装置10は、1つの画面(ウィンドウ)で動画データを再生し、再生している時間帯の感情スコア(セミナー参加者の感情スコアの平均値)を別の画面で表示するような形態で解析結果をシステム管理者等に提示してもよい。
【0192】
上記実施形態では、サーバ装置10の内部に参加者管理データベースが構成される場合について説明したが、当該データベースは外部のデータベースサーバ等に構築されてもよい。即ち、サーバ装置10の一部の機能は別の装置に実装されていてもよい。より具体的には、上記説明した「感情解析部(感情解析手段)」等がシステムに含まれるいずれかの装置に実装されていればよい。
【0193】
各装置(端末30、サーバ装置10)間のデータ送受信の形態は特に限定されないが、これら装置間で送受信されるデータは暗号化されていてもよい。これらの装置間では、感情情報等が送受信され、これらの情報を適切に保護するためには、暗号化されたデータが送受信されることが望ましい。
【0194】
上記説明で用いた流れ図(フローチャート、シーケンス図)では、複数の工程(処理)が順番に記載されているが、実施形態で実行される工程の実行順序は、その記載の順番に制限されない。実施形態では、例えば各処理を並行して実行する等、図示される工程の順番を内容的に支障のない範囲で変更することができる。
【0195】
上記の実施形態は本願開示の理解を容易にするために詳細に説明したものであり、上記説明したすべての構成が必要であることを意図したものではない。また、複数の実施形態について説明した場合には、各実施形態は単独で用いてもよいし、組み合わせて用いてもよい。例えば、実施形態の構成の一部を他の実施形態の構成に置き換えることや、実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、実施形態の構成の一部について他の構成の追加、削除、置換が可能である。
【0196】
上記の説明により、本発明の産業上の利用可能性は明らかであるが、本発明は、利用者の感情を正確に推定する必要がある感情解析システムなどに好適に適用可能である。
【0197】
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、
サーバ装置と、
を含み、
前記複数の端末のそれぞれは、
所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得する、バイタルデータ取得手段と、
前記所持者を撮影することで前記所持者の顔画像を取得する、顔画像取得手段と、
前記取得されたバイタルデータと前記取得された顔画像を用いて、前記所持者の感情に関する感情情報を生成し、前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信する、生成手段と、
を備え、
前記サーバ装置は、
前記複数の端末それぞれから前記感情情報通知を受信する、受信手段と、
前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、解析手段と、
を備える、システム。
[付記2]
同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、
前記複数の利用者を撮影可能に設置された、カメラ装置と、
前記複数の利用者それぞれの顔情報を記憶する、サーバ装置と、
を含み、
前記サーバ装置は、
前記カメラ装置から画像データを取得し、
前記画像データに写る複数の顔画像それぞれについて、前記画像データから抽出された複数の顔画像と前記記憶された顔情報を使った1対N照合(Nは正の整数)により前記画像データに写る各顔画像に対応する利用者を特定し、
前記特定した利用者の端末に、前記特定された利用者の顔画像を送信し、
前記複数の端末のそれぞれは、
所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得し、
前記取得されたバイタルデータと前記サーバ装置から取得した顔画像を用いて、前記所持者の感情に関する感情情報を生成し、
前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信し、
前記サーバ装置は、
前記複数の端末それぞれから前記感情情報通知を受信し、
前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、システム。
[付記3]
同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、
前記複数の利用者を撮影可能に設置された、カメラ装置と、
サーバ装置と、
を含み、
前記サーバ装置は、
前記カメラ装置から画像データを取得し、前記取得した画像データを前記複数の端末それぞれに送信し、
前記複数の端末のそれぞれは、
所持者の顔画像を記憶し、
前記画像データから抽出された複数の顔画像と前記記憶された所持者の顔情報を使った1対N照合(Nは正の整数)により前記画像データに写る複数の顔画像のなかから前記所持者の顔画像を特定し、
前記所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得し、
前記取得されたバイタルデータと前記特定された所持者の顔画像を用いて、前記所持者の感情に関する感情情報を生成し、
前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信し、
前記サーバ装置は、
前記複数の端末それぞれから前記感情情報通知を受信し、
前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、システム。
[付記4]
同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末と、
サーバ装置と、
を含むシステムにおいて、
前記複数の端末のそれぞれが、
所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得し、
前記所持者を撮影することで前記所持者の顔画像を取得し、
前記取得されたバイタルデータと前記取得された顔画像を用いて、前記所持者の感情に関する感情情報を生成し、前記生成された感情情報を含む感情情報通知を前記サーバ装置に送信し、
前記サーバ装置が、
前記複数の端末それぞれから前記感情情報通知を受信し、
前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、方法。
[付記5]
同じコンテンツが提供される、複数の利用者それぞれが所持する、複数の端末それぞれから、前記複数の端末それぞれが各所持者を撮影することで得られる顔画像と前記各所持者が装着しているウェアラブル端末から得られるバイタルデータを用いて生成された前記各所持者の感情に関する感情情報を含む感情情報通知を受信する、受信手段と、
前記受信した感情情報通知それぞれに含まれる感情情報を解析し、前記複数の利用者全体の感情の変化を示す解析結果を生成する、解析手段と、
を備える、サーバ装置。
[付記6]
前記解析手段は、所定のタイミング又は所定の期間における、前記複数の利用者それぞれの感情が数値化された感情スコアの平均値を計算することで、前記解析結果を生成する、付記5に記載のサーバ装置。
[付記7]
端末に搭載されたコンピュータに、
自装置の所持者が装着しているウェアラブル端末から前記所持者のバイタルデータを取得する処理と、
前記所持者を撮影することで前記所持者の顔画像を取得する処理と、
前記取得されたバイタルデータと前記取得された顔画像を用いて、前記所持者の感情に関する感情情報を生成する処理と、
前記生成された感情情報を含む感情情報通知をサーバ装置に送信する処理と、
を実行させるためのプログラム。
[付記8]
前記所持者の顔情報を記憶する処理と、
前記記憶された顔情報と前記撮影により得られた顔画像を用いた1対1照合を実行する処理と、
をさらに実行させ、
前記感情情報を生成する処理は、前記1対1照合に成功した前記撮影により得られた顔画像を用いて前記感情情報を生成する、付記7に記載のプログラム。
[付記9]
前記感情情報通知を前記サーバ装置に送信する処理は、前記感情情報を前記サーバ装置に送信することに対する前記所持者の同意が得られた場合に、前記感情情報通知を前記サーバ装置に送信する、付記8に記載のプログラム。
[付記10]
前記感情情報を生成する処理は、機械学習により得られた学習モデルに前記取得されたバイタルデータと前記取得された顔画像を入力することで、前記所持者の感情を数値化した感情スコアを取得すると共に、前記感情スコアの時系列データを前記感情情報として生成する、付記7乃至9のいずれか一項に記載のプログラム。
【0198】
なお、引用した上記の先行技術文献の各開示は、本書に引用をもって繰り込むものとする。以上、本発明の実施形態を説明したが、本発明はこれらの実施形態に限定されるものではない。これらの実施形態は例示にすぎないということ、及び、本発明のスコープ及び精神から逸脱することなく様々な変形が可能であるということは、当業者に理解されるであろう。即ち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得る各種変形、修正を含むことは勿論である。
【符号の説明】
【0199】
10 サーバ装置
20 ウェアラブル端末
30 端末
40 カメラ装置
101 端末
102 サーバ装置
111 バイタルデータ取得手段
112 顔画像取得手段
113 生成手段
121 受信手段
122 解析手段
201 通信制御部
202 原本顔画像管理部
203 参加者登録制御部
204 バイタルデータ取得部
205 顔画像取得部
206 感情情報生成部
207 記憶部
301 通信制御部
302 参加者管理部
303 感情情報処理部
304 感情解析部
305 記憶部
306 参加者特定部
307 バイタルデータ処理部
308 感情情報生成部
311 プロセッサ
312 メモリ
313 入出力インターフェイス
314 通信インターフェイス