(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-02-19
(45)【発行日】2024-02-28
(54)【発明の名称】情報処理方法、端末装置、情報処理装置、及び情報処理システム
(51)【国際特許分類】
G06Q 30/0242 20230101AFI20240220BHJP
A61B 5/16 20060101ALI20240220BHJP
G06Q 50/10 20120101ALI20240220BHJP
【FI】
G06Q30/0242
A61B5/16 110
A61B5/16 120
G06Q50/10
(21)【出願番号】P 2020010943
(22)【出願日】2020-01-27
【審査請求日】2022-11-01
(31)【優先権主張番号】P 2019015075
(32)【優先日】2019-01-31
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】521473871
【氏名又は名称】株式会社センシング
(73)【特許権者】
【識別番号】304021831
【氏名又は名称】国立大学法人千葉大学
(74)【代理人】
【識別番号】100114557
【氏名又は名称】河野 英仁
(74)【代理人】
【識別番号】100078868
【氏名又は名称】河野 登夫
(72)【発明者】
【氏名】津村 徳道
(72)【発明者】
【氏名】金 一石
(72)【発明者】
【氏名】武川 陽一
【審査官】山崎 誠也
(56)【参考文献】
【文献】特開2017-029318(JP,A)
【文献】特表2016-535347(JP,A)
【文献】特開2010-250528(JP,A)
【文献】特開2014-081913(JP,A)
【文献】特開2017-146733(JP,A)
【文献】特開2015-082691(JP,A)
【文献】特開2009-005094(JP,A)
【文献】特開2005-150796(JP,A)
【文献】安丸 昌輝,顔映像の脈波測定を活用した感情推定,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2018年05月31日,Vol.118 No.73,p.39-42
【文献】津村 徳道,顔画像のヘモグロビン色素分離による非接触心拍変動計測とストレスモニタリング,[online],2016年12月13日,[検索日 2023.08.29], インターネット<URL:https://shingi.jst.go.jp/pdf/2016/2016_cictokyoB_6.pdf>
【文献】第2章 潜在意識編 進化するニューロリサーチ、一方で手軽な潜在意識調査も,日経XTREND,日経BP社,2018年09月14日,p.26-29
(58)【調査した分野】(Int.Cl.,DB名)
G06Q 10/00-99/00
A61B 5/16
(57)【特許請求の範囲】
【請求項1】
第1装置が、
コンテンツを表示部に表示し、
表示されるコンテンツを視認するユーザの顔の顔画像データを取得し、
前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成し、
前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成し、
前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成し、
第2装置が、
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成
し、
複数の前記ユーザの感情データに基づいて、動画である前記コンテンツに対して、複数の感情パラメータに対する分析値が最大値となった時点における再生開始からの時間を示す感情レポートを生成する
情報処理方法。
【請求項2】
前記第2装置が、
動画である前記コンテンツの再生開始からの各時点における複数の感情パラメータに対する分析値を示す感情レポートを生成する
請求項
1に記載の情報処理方法。
【請求項3】
前記第2装置が、
前記感情レポートに基づく前記複数の感情パラメータに対する分析値と、前記コンテンツとを、前記コンテンツの再生開始からの経過時間に同期して表示するための表示データを出力する
請求項
2に記載の情報処理方法。
【請求項4】
前記コンテンツは、複数の質問を有するアンケートを含み、
前記第2装置が、
前記複数の質問のそれぞれに回答するユーザの顔画像データ
から生成された前記ユーザの心拍変動データに基づいて、それぞれの質問に対する前記ユーザの感情データを生成する
請求項1から
3までのいずれかひとつに記載の情報処理方法。
【請求項5】
前記コンテンツは、ストレスチェックに係る質問を含み、
前記第1装置が、
前記質問に対する回答を受け付け、
前記質問に回答するユーザの顔画像データに基づいて
前記質問に回答する前記ユーザの心拍変動データを生成し、
前記第2装置が、
前記質問に回答する前記ユーザの心拍変動データに基づいて前記質問に対する前記ユーザの感情データを生成し、
前記質問に対する回答と生成した前記感情データとを対応付けて出力する
請求項1から
4までのいずれかひとつに記載の情報処理方法。
【請求項6】
第1装置が、
コンテンツを表示部に表示し、
表示されるコンテンツを視認するユーザの顔の顔画像データを取得し、
前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成し、
前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成し、
前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成し、
第2装置が、
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成し、
前記感情データに基づいて、前記コンテンツから、前記ユーザが所定の感情を抱いた箇所を抽出し、
抽出した箇所に対応するデータを用いてアルバムデータを生成し、
前記ユーザに割り当てられた識別子に対応付けて、生成された前記アルバムデータを記憶部に記憶し、
前記識別子に基づいて前記アルバムデータを要求された場合に、前記アルバムデータを出力する
情報処理方法。
【請求項7】
コンテンツを表示する表示部と、
前記表示部に表示されるコンテンツを視認するユーザの顔の顔画像データを取得する取得部と、
前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成する抽出部と、
前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成する心拍データ生成部と、
前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成する心拍変動データ生成部と、
前記心拍変動データを前記コンテンツに係るコンテンツ情報と共に出力する出力部と
を備える端末装置。
【請求項8】
前記取得部が取得した顔画像データ、及び前記抽出部が生成したヘモグロビン画像データの少なくとも一方を記憶する記憶部と、
前記出力部が前記心拍変動データ及びコンテンツ情報を出力した後に、前記記憶部に記憶された前記顔画像データ又は前記ヘモグロビン画像データを前記記憶部から消去する消去部と
を備える請求項
7に記載の端末装置。
【請求項9】
前記取得部が顔画像データを取得した場合に、前記顔画像データに対して画質補正処理を行う補正部と、
前記顔画像データ
を前記ユーザの感情分析に用いる場合、前記補正部による画質補正処理の実行を禁止する禁止部と
を更に備える請求項
7又は
8に記載の端末装置。
【請求項10】
表示されるコンテンツを視認するユーザの顔の顔画像データに基づいて生成された前記ユーザの心拍変動を示す心拍変動データを取得するデータ取得部と、
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成する感情分析部と、
複数の前記心拍変動データに基づいて生成した複数の前記ユーザの感情データに基づいて、前記コンテンツに対する感情レポートを生成するレポート生成部と
を備え
、
前記レポート生成部は、複数の前記ユーザの感情データに基づいて、動画である前記コンテンツに対して、複数の感情パラメータに対する分析値が最大値となった時点における再生開始からの時間を示す感情レポートを生成する
情報処理装置。
【請求項11】
表示されるコンテンツを視認するユーザの顔の顔画像データに基づいて生成された前記ユーザの心拍変動を示す心拍変動データを取得するデータ取得部と、
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成する感情分析部と、
前記感情データに基づいて、前記コンテンツから、前記ユーザが所定の感情を抱いた箇所を抽出する箇所抽出部と、
抽出した箇所に対応するデータを用いてアルバムデータを生成するアルバム生成部と、
前記ユーザに割り当てられた識別子に対応付けて、生成した前記アルバムデータを記憶する記憶部と、
前記識別子に基づいて前記アルバムデータを要求された場合に、前記アルバムデータを出力する出力部と
を備える情報処理装置。
【請求項12】
前記データ取得部は、請求項
7から
9までのいずれかひとつに記載の端末装置が出力した前記心拍変動データ及びコンテンツ情報を取得する
請求項1
0又は11に記載の情報処理装置。
【請求項13】
コンテンツを表示する表示部を備える端末装置と、前記端末装置と通信可能な情報処理装置とを有する情報処理システムであって、
前記端末装置は、
前記表示部に表示されるコンテンツを視認するユーザの顔の顔画像データを取得する取得部と、
前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成する抽出部と、
前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成する心拍データ生成部と、
前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成する心拍変動データ生成部と、
前記心拍変動データを前記コンテンツに係るコンテンツ情報と共に出力する出力部とを備え、
前記情報処理装置は、
前記端末装置が出力した前記心拍変動データ及びコンテンツ情報を取得するデータ取得部と、
前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成する感情分析部と、
複数の前記心拍変動データに基づいて生成した複数の前記ユーザの感情データに基づいて、前記コンテンツに対する感情レポートを生成するレポート生成部とを備える
情報処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理方法、端末装置、情報処理装置、及び情報処理システムに関する。
【背景技術】
【0002】
近年、人の顔を撮影して得られた撮影画像から被写体の人の感情を判定する技術が開発されている。特許文献1には、RGBカメラを用いて撮影した顔画像に基づいて、被写体の人の心拍変動を示す心拍変動スペクトログラムを作成し、心拍変動スペクトログラムに基づいて被写体の人のストレス状態を判定する技術が提案されている。特許文献1に開示された技術では、顔画像から色素成分分離によってヘモグロビン画像が作成され、ヘモグロビン画像に基づいて心拍変動スペクトログラムが作成される。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1に開示された技術によって作成される心拍変動スペクトログラムは、被写体の人のストレス状態の判定だけでなく、人の感情の判定にも利用することができる。よって、特許文献1に開示された技術は、人の感情を判定した結果を用いて種々の処理を行う様々なシステムに利用されることが期待される。
【0005】
本開示はこのような事情に鑑みてなされたものであり、その目的は、コンテンツに対する視聴者の感情を分析することを支援することが可能な情報処理方法等を提供することにある。
【課題を解決するための手段】
【0006】
本開示の一態様に係る情報処理方法は、コンテンツを表示部に表示し、表示されるコンテンツを視認するユーザの顔の顔画像データを取得し、前記顔画像データからヘモグロビンに対応する色素成分を抽出してヘモグロビン画像データを生成し、前記ヘモグロビン画像データに基づいて、前記ユーザの心拍を示す心拍データを生成し、前記心拍データに対して周波数変換を行い、前記ユーザの心拍変動を示す心拍変動データを生成し、前記心拍変動データに基づいて前記ユーザの感情を分析し、前記ユーザの感情を示す感情データを生成する処理をコンピュータが実行する。
【発明の効果】
【0007】
本開示の一態様にあっては、コンテンツを視認(視聴)するユーザの顔画像に基づいて、視認中のユーザの感情を逐次分析できるので、コンテンツの再生タイミング毎のユーザの感情を取得できる。また、複数のユーザの感情の分析結果に基づいて、コンテンツに対する視認者(視聴者)の感情レポートを生成できる。よって、視認者の感情レポートをコンテンツの作成者に提供することができ、また、視認者の感情レポートに基づいてコンテンツに対する評価を行うことができる。
【図面の簡単な説明】
【0008】
【
図1】感情分析システムの構成例を示す模式図である。
【
図2】感情分析システムの構成例を示すブロック図である。
【
図3】サーバ及び端末装置に記憶されるDBの構成例を示す模式図である。
【
図4】端末装置の制御部によって実現される機能を示すブロック図である。
【
図6】サーバの制御部によって実現される機能を示すブロック図である。
【
図8】端末装置による心拍変動データの取得処理の手順を示すフローチャートである。
【
図9】サーバによる感情分析処理の手順を示すフローチャートである。
【
図10】実施形態2の感情分析システムの構成例を示すブロック図である。
【
図11】実施形態2の端末装置による心拍変動データの取得処理の手順を示すフローチャートである。
【
図12】実施形態3の端末装置による心拍変動データの取得処理の手順を示すフローチャートである。
【
図13】実施形態3の端末装置による心拍変動データの取得処理の手順を示すフローチャートである。
【
図15】実施形態3のサーバによる感情分析処理の手順を示すフローチャートである。
【
図16】実施形態4の端末装置による健康状態判定処理の手順を示すフローチャートである。
【発明を実施するための形態】
【0009】
以下に、本開示の情報処理方法、端末装置及び情報処理装置について、コンテンツを視認(視聴)するユーザの感情を分析する感情分析システムに適用した実施形態を示す図面に基づいて具体的に説明する。以下の実施形態では、コンテンツは画像のみを含むコンテンツであってもよく、画像及び音声を含むコンテンツであってもよい。よって、以下では、コンテンツを視聴する場合には、画像及び音声を含むコンテンツを見る場合だけでなく、画像のみのコンテンツを視認する場合も含まれる。また、視聴者は、画像及び音声を含むコンテンツを視聴するユーザだけでなく、画像のみのコンテンツを視認するユーザ(視認者)も含まれる。
【0010】
(実施形態1)
図1は、感情分析システムの構成例を示す模式図である。本実施形態の感情分析システムは、サーバ(情報処理装置)10及び複数の端末装置20を含み、サーバ10及び各端末装置20は、インターネット又はLAN(Local Area Network)等のネットワークNを介して情報の送受信を行う。サーバ10は、サーバコンピュータ又はパーソナルコンピュータ等であり、複数台設けられてもよいし、1台のサーバ装置内に設けられた複数の仮想マシンによって実現されてもよいし、クラウドサーバを用いて実現されてもよい。サーバ10は、コンテンツの視聴中のユーザ(視聴者)の心拍変動に関するデータを各端末装置20から取得して蓄積する処理、蓄積したデータに基づいて各視聴者の感情を分析する処理、分析した結果に基づいて各コンテンツに対する感情レポートを生成する処理等、種々の情報処理を行う。端末装置20は、タブレット端末、パーソナルコンピュータ等であり、感情分析システムに用いられる専用端末であることが好ましい。端末装置20は、コンテンツの再生処理(表示処理)、再生中のコンテンツを視聴するユーザ(視聴者)の心拍変動に関するデータを収集する処理等、種々の情報処理を行う。端末装置20は例えば、ショッピングモール等に設けられたフードコート内の飲食店で料理を注文したユーザに貸し出され、注文した料理が出来上がったことを通知する通知端末を、注文した料理が出来上がるまでの間コンテンツを再生させるように構成した装置を用いることができる。また端末装置20は、美術館や博物館等で入館者に貸し出され、展示作品に対する解説コンテンツを再生する端末を用いることができる。
【0011】
図2は、感情分析システムの構成例を示すブロック図である。端末装置20は、制御部21、記憶部22、通信部23、表示部24、入力部25、カメラ26等を含み、これらの各部はバスを介して相互に接続されている。制御部21は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部21は、記憶部22に記憶してある制御プログラム22Pを適宜実行することにより、端末装置20が行うべき種々の情報処理、制御処理等を行う。
【0012】
記憶部22は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部22は、制御部21が実行する制御プログラム22P及び制御プログラム22Pの実行に必要な各種のデータ等を予め記憶している。また記憶部22は、制御部21が制御プログラム22Pを実行する際に発生するデータ等を一時的に記憶する。更に記憶部22には、後述するコンテンツDB(データベース)22a及び心拍変動DB22bが記憶される。コンテンツDB22a及び心拍変動DB22bは、端末装置20に接続された外部の記憶装置に記憶されてもよく、ネットワークNを介して端末装置20と通信可能な記憶装置に記憶されてもよい。
【0013】
通信部23は、例えば無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して外部装置との間で情報の送受信を行う。なお、通信部23は、有線通信によってネットワークNに接続される構成でもよい。表示部24は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部21からの指示に従って各種の情報を表示する。入力部25は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部21へ送出する。表示部24及び入力部25は一体として構成されたタッチパネルであってもよい。
【0014】
カメラ26は、レンズ及び撮像素子等を有する撮像装置であり、レンズを介して入射した光を、R(赤)、G(緑)、B(青)の各色に対応する撮像素子にて光電変換してRGBのカラー画像データを取得する。カメラ26は、制御部21からの指示に従って撮影を行い、取得した画像データ(撮影画像)を逐次記憶部22へ送出して記憶する。なお、カメラ26及び表示部24は、
図1に示すように、カメラ26の撮影方向が表示部24の表示画面側となるように端末装置20に設けられており、表示部24の表示画面を視認するユーザの顔をカメラ26で撮影できるように配置されている。
【0015】
端末装置20において、記憶部22に予め記憶される制御プログラム及びデータは、制御部21が通信部23を介してネットワークN経由で外部装置からダウンロードして記憶部22に記憶してもよい。また、端末装置20が可搬型記憶媒体に記憶された情報を読み取る読み取り部を有する場合、記憶部22に予め記憶される制御プログラム及びデータは、制御部21が読み取り部を介して可搬型記憶媒体から読み取って記憶部22に記憶してもよい。
【0016】
サーバ10は、制御部11、記憶部12、通信部13、入力部14、表示部15、読み取り部16等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU、MPU又はGPU等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、本開示の情報処理装置が行うべき種々の情報処理、制御処理等をサーバ10に行わせる。
【0017】
記憶部12は、RAM、フラッシュメモリ、ハードディスク、SSD等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。更に記憶部12には、後述するコンテンツDB12a、心拍変動DB12b及び感情DB12cが記憶される。コンテンツDB12a、心拍変動DB12b及び感情DB12cは、サーバ10に接続された外部の記憶装置に記憶されてもよく、ネットワークNを介してサーバ10と通信可能な記憶装置に記憶されてもよい。
【0018】
通信部13は、有線通信又は無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して外部装置との間で情報の送受信を行う。入力部14は、マウス及びキーボード等を含み、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部15は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。
【0019】
読み取り部16は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM又はUSB(Universal Serial Bus)メモリを含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に予め記憶される制御プログラム及びデータは、制御部11が読み取り部16を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に予め記憶される制御プログラム及びデータは、制御部11が通信部13を介してネットワークN経由で外部装置からダウンロードして記憶部12に記憶してもよい。更に、半導体メモリ1bから、制御部11が制御プログラム及びデータを読み出してもよい。
【0020】
図3は、サーバ10に記憶されるDB12a~12c及び端末装置20に記憶されるDB22a~22bの構成例を示す模式図である。サーバ10に記憶されるコンテンツDB12a及び端末装置20に記憶されるコンテンツDB22aは同様の構成を有しており、
図3AはコンテンツDB12a,22aを示す。またサーバ10に記憶される心拍変動DB12b及び端末装置20に記憶される心拍変動DB22bは同様の構成を有しており、
図3Bは心拍変動DB12b,22bを示す。
図3Cは感情DB12cを示す。
【0021】
コンテンツDB12a,22aは、端末装置20によって再生されるコンテンツを記憶している。
図3Aに示すコンテンツDB12a,22aは、コンテンツID列、コンテンツデータ列等を含む。コンテンツID列は、各コンテンツに予め割り当てられた識別情報を記憶する。コンテンツデータ列は、各コンテンツの再生用データを記憶する。コンテンツは動画コンテンツであってもよく静止画コンテンツであってもよく、再生用データはコンテンツに係る画像を表示するための表示用データである。なお、再生用データはコンテンツに係る音声を出力するための音声出力用データを含んでいてもよい。コンテンツの再生用データは、コンテンツDB12a,22aに記憶されるほかに、記憶部12,22の所定領域又は外部の記憶装置に記憶されてもよく、この場合、コンテンツデータ列は、コンテンツの再生用データを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。サーバ10のコンテンツDB12aの記憶内容は、通信部13又は入力部14を介して追加、変更又は削除の指示を取得する都度、制御部11によって追加、変更又は削除される。端末装置20のコンテンツDB22aの記憶内容は、例えばネットワークN経由でサーバ10から更新用のデータを受信した場合に、制御部21によって更新される。コンテンツDB12a,22aの記憶内容は
図3Aに示す例に限定されず、例えばコンテンツに付されたコンテンツ名、コンテンツの再生時間等が記憶されていてもよい。また、コンテンツDB12a,22aは異なる構成であってもよく、例えば端末装置20のコンテンツDB22aに、各コンテンツの再生順序が登録されていてもよい。
【0022】
心拍変動DB12b,22bは、端末装置20を用いてコンテンツを視聴した視聴者の情報を記憶する。
図3Bに示す心拍変動DB12b,22bは、コンテンツID列、視聴ID列、年齢列、性別列、心拍変動データ列等を含む。コンテンツID列は、各コンテンツに予め割り当てられた識別情報を記憶する。視聴ID列は、各コンテンツに対する視聴処理(再生処理)毎に割り当てられた識別情報を記憶する。なお、視聴IDは、例えば各コンテンツの視聴処理(視聴者)毎に割り当てられる。年齢列及び性別列はそれぞれ、それぞれの視聴処理を行った視聴者の年齢及び性別を記憶する。心拍変動データ列は、コンテンツの視聴処理中における視聴者の心拍変動を示すデータを記憶する。心拍変動を示すデータは、心拍変動DB12b,22bに記憶されるほかに、記憶部12,22の所定領域又は外部の記憶装置に記憶されてもよく、この場合、心拍変動データ列は、心拍変動を示すデータを読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶する。
【0023】
端末装置20の心拍変動DB22bに記憶されるコンテンツID及び視聴IDは、制御部21がコンテンツの再生処理を開始した場合に、制御部21によって記憶される。また端末装置20の心拍変動DB22bに記憶される年齢、性別及び心拍変動データは、コンテンツの再生処理中に制御部21が検出する都度、制御部21によって記憶される。端末装置20は、心拍変動DB22bに記憶した各データを、例えばコンテンツ毎又は視聴処理毎にまとめてサーバ10へ送信する。サーバ10の心拍変動DB12bの記憶内容は、制御部11が例えばネットワークN経由で端末装置20から各データを取得する都度、制御部11によって記憶される。心拍変動DB12b,22bの記憶内容は
図3Bに示す例に限定されず、また、心拍変動DB12b,22bは異なる構成であってもよい。例えばサーバ10の心拍変動DB12bに、データの送信元の端末装置20の識別情報が登録されていてもよい。なお、心拍変動DB12b,22bには、コンテンツを視聴した視聴者個人を特定できない形式のデータが記憶されることが好ましい。
【0024】
感情DB12cは、端末装置20を用いてコンテンツを視聴した視聴者の感情に関する情報を記憶する。
図3Cに示す感情DB12cは、コンテンツID列、視聴ID列、年齢列、性別列、感情データ列等を含む。コンテンツID列は、各コンテンツに予め割り当てられた識別情報を記憶し、視聴ID列は、各視聴処理(再生処理)に割り当てられた識別情報を記憶し、年齢列及び性別列はそれぞれ、それぞれの視聴処理を行った視聴者の年齢及び性別を記憶する。感情データ列は、コンテンツの視聴中における視聴者の感情を示すデータを記憶し、具体的には喜び列、怒り列、悲しみ列、驚き列、嫌悪列、リラックス列等を含む。喜び列、怒り列、悲しみ列、驚き列、嫌悪列、リラックス列はそれぞれ、コンテンツの視聴中に視聴者が喜び、怒り、悲しみ、驚き、嫌悪、リラックスのそれぞれの感情について感じた可能性を示す数値を記憶する。各感情の数値は、例えばコンテンツの再生開始からの経過時間(再生時間)に対応付けて時系列的に記憶されており、コンテンツの視聴中における視聴者の感情の変化を示す。各感情を示す数値は、心拍変動DB12bに記憶された各コンテンツの視聴処理における視聴者の心拍変動データを分析して算出される。感情DB12cに記憶される感情データ以外の各データは、制御部11が、心拍変動DB12bに記憶された心拍変動データに基づいて視聴者の感情分析処理を開始した場合に、制御部11によって記憶される。また感情DB12cに記憶される感情データは、制御部11が感情分析処理によって各感情の数値を取得する都度、制御部11によって記憶される。感情DB12cの記憶内容は
図3Cに示す例に限定されず、例えば各視聴処理を行った端末装置20(心拍変動データを収集した端末装置20)の識別情報が登録されていてもよい。また、感情DB12cに記憶される各感情は、
図3Cに示す例に限定されない。
【0025】
次に、端末装置20の制御部21が制御プログラム22Pを実行することによって実現される機能について説明する。
図4は、端末装置20の制御部21によって実現される機能を示すブロック図、
図5は、端末装置20による処理の説明図である。端末装置20の制御部21は、記憶部22に記憶してある制御プログラム22Pを実行した場合、コンテンツ再生部201、撮影部202、属性判定部203、ヘモグロビン画像生成部204、心拍データ生成部205、心拍変動データ生成部206、出力部207の各機能を実現する。なお、本実施形態では、これらの各機能を制御部21が制御プログラム22Pを実行することにより実現するが、これらの一部を専用のハードウェア回路で実現してもよい。
【0026】
端末装置20において記憶部22には、
図3Aに示すようなコンテンツDB22aと、
図3Bに示す構成においてコンテンツIDのみが記憶された心拍変動DB22bとが格納されているものとする。なお、心拍変動DB22bは、コンテンツIDも記憶されていない状態であってもよい。
【0027】
コンテンツ再生部201は、コンテンツDB22aに記憶されているコンテンツの再生用データに基づいてコンテンツを再生する(コンテンツに係る画像を表示部24に表示する)。なお、再生用データにコンテンツに係る音声を出力するための音声出力用データが含まれる場合、コンテンツ再生部201は、音声出力用データに基づいてコンテンツに係る音声をスピーカ(図示せず)から出力する。コンテンツ再生部201は、コンテンツDB22aに記憶されている順に各コンテンツを再生してもよいし、コンテンツDB22aに再生順序が登録されている場合には、登録された再生順序で各コンテンツを再生してもよい。コンテンツ再生部201は、コンテンツの再生処理を開始した場合、このコンテンツのコンテンツIDに対応付けて、視聴IDを心拍変動DB22bに記憶する。なお、視聴IDは、各コンテンツにおいてそれぞれの視聴処理間で重複しないIDであればどのような情報でもよい。
【0028】
撮影部(取得部)202は、コンテンツ再生部201がコンテンツの再生処理を開始した場合、カメラ26による撮影を開始し、表示部24に表示されるコンテンツを視聴する視聴者の顔の顔画像(カラーの顔画像データ)を取得する。撮影部202は、例えば1秒間に30枚(30フレーム)の顔画像を取得し、取得した顔画像を例えば記憶部22に順次記憶しておく。
【0029】
属性判定部203は、撮影部202が取得した顔画像(顔画像データ)に基づいて、この顔画像の被写体である人の属性を判定する。属性判定部203は例えばテンプレートマッチング技術によって顔画像中の被写体の属性を判定する。具体的には、年齢(年齢層)及び性別を含む人の属性毎に、各属性の人の一般的な顔又は顔の各器官の画像に基づくテンプレートを予め記憶部22に記憶しておき、属性判定部203は、顔画像にいずれかのテンプレートに一致する領域があるか否かを検知し、一致する領域を検知した場合、一致したテンプレートに対応付けられた属性を、ここでの被写体の属性に判定する。属性判定部203は、被写体の属性を判定した場合、再生中のコンテンツのコンテンツIDと実行中の再生処理(視聴処理)の視聴IDとに対応付けて、判定した属性(年齢及び性別)を心拍変動DB22bに記憶する。
【0030】
ヘモグロビン画像生成部(抽出部)204は、撮影部202が取得した顔画像(顔画像データ)に対して色素成分分離処理を行い、ヘモグロビンに対応する色素成分を抽出してヘモグロビン画像(ヘモグロビン成分の顔画像データ)を生成する。なお、ヘモグロビン画像生成部204は、撮影部202が取得した顔画像から被写体の顔領域を検出し、検出した顔領域に対してのみ色素成分分離を行ってヘモグロビン画像を生成すればよい。この場合、ヘモグロビン画像生成部204は、例えば顔領域以外の領域(背景領域)における各画素の画素値を全て0にしてもよい。
【0031】
心拍データ生成部205は、ヘモグロビン画像生成部204が生成したヘモグロビン画像に基づいて、被写体の人の心拍を示す心拍データ(脈波データ)を生成する。具体的には、心拍データ生成部205は、順次生成されるヘモグロビン画像において、被写体の顔領域中の各画素の画素値(ヘモグロビン成分の成分量)の平均値(平均画素値)を算出し、それぞれのヘモグロビン画像における平均画素値の時間変化を心拍データとして生成する。なお、ヘモグロビン成分の成分量は血流量を表すので、ヘモグロビン成分の成分量に基づいて心拍を推定できる。
図5Aは心拍データの一例を示し、
図5Aに示す心拍データは、横軸をコンテンツの再生開始からの経過時間とし、縦軸をヘモグロビン画像における平均画素値として示されている。心拍データ生成部205は、ヘモグロビン画像において被写体の顔領域に含まれる全画素の平均画素値の代わりに、顔領域の一部に含まれる画素の平均画素値を算出して心拍データを生成してもよい。例えば、制御部21は、撮影部202が取得した顔画像に基づいて、被写体の人の目、鼻、口等の器官を検出し、例えば額、頬、口の回り等の所定領域を特定する。そして、心拍データ生成部205は、ヘモグロビン画像において、特定された額、頬、口の回り等の所定領域に含まれる画素の平均画素値を算出して心拍データを生成してもよい。このように、顔領域の全体における平均画素値の代わりに、所定領域における平均画素値を用いることにより、撮影条件の影響を抑制して精度の高い心拍データを生成できる。
【0032】
心拍データ生成部205は、
図5Aに示すような心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対してフィルタ処理を行い、
図5Bに示すような心拍データを生成する。
図5Bに示す心拍データは、横軸をコンテンツの再生開始からの経過時間とし、縦軸をフィルタ処理後の平均画素値として示されている。心拍データ生成部205は、例えば傾き除去処理及びバンドパスフィルタ処理等のフィルタ処理を行うが、これらの処理に限定されない。心拍データ生成部205は、後段の心拍変動データ生成部206が精度の高い心拍変動データを生成できるような心拍データが得られる各種処理を行えばよい。
【0033】
心拍変動データ生成部206は、心拍データ生成部205が生成した心拍データに対して周波数変換処理を行い、被写体の人の心拍変動を示す心拍変動データを生成する。心拍変動データ生成部206は、時系列の心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対して、例えばフーリエパワースペクトル変換を行うことによって周波数領域の心拍変動スペクトログラムデータを生成する。なお、心拍変動スペクトログラムデータは、例えば心拍変動周波数の時間変化を示すデータであり、
図5Cは心拍変動スペクトログラムデータの一例を示す。
図5Cに示す心拍変動データは、横軸をコンテンツの再生開始からの経過時間とし、縦軸を変動周波数として示されている。フーリエパワースペクトル変換においては、0.75Hz~3Hz(心拍数が45bpm~180bpm)における最大のパワースペクトルを脈拍と判断する。心拍変動データ生成部206は、生成した心拍変動データ(心拍変動スぺクトログラムデータ)を、再生中のコンテンツのコンテンツID及び実行中の視聴処理の視聴IDに対応付けて心拍変動DB22bに記憶する。
【0034】
ヘモグロビン画像生成部204、心拍データ生成部205及び心拍変動データ生成部206は、撮影部202が被写体(視聴者)の顔画像データを取得する都度、取得した顔画像データに対して上述した各処理を行う。よって、コンテンツ再生部201が1つのコンテンツの再生処理を1回行った場合に、再生されたコンテンツに対応する心拍変動データが生成されて心拍変動DB22bに記憶される。
【0035】
出力部207は、心拍変動DB22bに蓄積された各コンテンツに対応する心拍変動データを通信部23からサーバ10へ送信する。具体的には、出力部207は、各コンテンツの1回の再生処理毎に、再生されたコンテンツのコンテンツID、実行された再生処理(視聴処理)の視聴ID、視聴者の年齢、性別及び心拍変動データを心拍変動DB22bから読み出し、まとめてサーバ10へ送信する。なお、出力部207は、例えばサーバ10から心拍変動データの出力要求を受け付けた場合に、それまでに心拍変動DB22bに蓄積した各コンテンツの心拍変動データをサーバ10へ送信する。サーバ10は、出力部207が送信したコンテンツID、視聴ID、年齢、性別及び心拍変動データを受信し、それぞれを対応付けて心拍変動DB12bに記憶する。これにより、端末装置20で取得された視聴者の心拍変動データがサーバ10に蓄積される。なお、出力部207は、コンテンツを特定するための情報(コンテンツ情報)と、視聴者の属性に関する情報と共に心拍変動データをサーバ10へ送信すればよい。
【0036】
本実施形態の端末装置20では、撮影部202は、取得した顔画像データを逐次記憶部22に記憶し、ヘモグロビン画像生成部204は、記憶部22に記憶された顔画像データを読み出してヘモグロビン画像の生成処理を行う。ヘモグロビン画像が生成された顔画像データは以降の処理では必要ないので、制御部(消去部)21は、ヘモグロビン画像生成部204がヘモグロビン画像を生成した後、顔画像データを記憶部22から消去(削除)してもよい。なお、制御部21は、例えば出力部207が心拍変動データをサーバ10へ送信した後に、この心拍変動データを生成する際に用いた顔画像データを記憶部22から消去する構成でもよい。このように視聴者個人を特定できる顔画像データを記憶部22から消去することによって、端末装置20に個人情報が残ることを防止できる。
【0037】
次に、サーバ10の制御部11が制御プログラム12Pを実行することによって実現される機能について説明する。
図6は、サーバ10の制御部11によって実現される機能を示すブロック図、
図7は、画面例を示す模式図である。サーバ10の制御部11は、記憶部12に記憶してある制御プログラム12Pを実行した場合、心拍変動データ取得部101、心拍変動データ記憶部102、感情分析部103、レポート生成部104、出力部105の各機能を実現する。なお、これらの各機能の一部を専用のハードウェア回路で実現してもよい。
【0038】
心拍変動データ取得部(データ取得部)101は、端末装置20(出力部207)が送信した心拍変動データを通信部13にて取得する。具体的には、心拍変動データ取得部101は、端末装置20から各コンテンツの1回の再生処理毎に、再生されたコンテンツのコンテンツID、実行された再生処理の視聴ID、視聴者の年齢、性別及び心拍変動データをまとめて取得する。心拍変動データ記憶部102は、心拍変動データ取得部101が取得したコンテンツID、視聴ID、年齢、性別及び心拍変動データを対応付けて心拍変動DB12bに記憶する。心拍変動データ記憶部102は、心拍変動データ取得部101がいずれかの端末装置20から心拍変動データを取得する都度、取得した心拍変動データを心拍変動DB12bに記憶する。これにより、複数の端末装置20のそれぞれにおいてコンテンツの再生中に取得(収集)された視聴者の心拍変動データをサーバ10に蓄積することができる。
【0039】
感情分析部103は、心拍変動DB12bに記憶した心拍変動データに基づいて、各視聴者の感情を分析し、各視聴者の感情を示す感情データを生成する。感情分析部103は例えば、喜び、怒り、悲しみ、驚き、嫌悪、リラックスの各感情(感情パラメータ)について、それぞれの程度を示す数値(スコア、分析値)を、例えば10点満点で取得(算出)する。なお、各感情の程度が高い程大きい値とする。感情分析部103は、心拍変動データにおいて、例えばコンテンツの再生開始から所定時間(例えば1/30秒)毎における変動周波数に基づいて対応する各感情の数値を決定し、コンテンツの視聴中の各感情の時間変化を示す感情データを生成する。具体的には、例えば変動周波数における各周波数帯毎に各感情の程度を示す数値を予め設定しておき、感情分析部103は、心拍変動データにおいて、コンテンツの再生開始から所定時間毎の変動周波数の値に対応する周波数帯に設定された各感情の数値を、この時点での感情の程度を示す数値に決定する。例えばリラックスの感情について、0.05Hz~0.15Hzの周波数帯に、リラックスの程度が低いことを示す数値(例えば0に近い値)が設定され、0.15Hz~0.4Hzの周波数帯に、リラックスの程度が高いことを示す数値(例えば10に近い値)が設定されてもよい。なお、それぞれの周波数帯において、段階的に増減する数値が設定されてもよい。また、感情毎に各感情の程度を示す数値に対応する周波数帯を設定しておいても、感情分析部103は同様に、コンテンツの再生開始から所定時間毎の変動周波数に対応する各感情の程度を示す数値を特定できる。
【0040】
感情分析部103は、感情の分析処理を行う場合、心拍変動DB12bからコンテンツID、視聴ID、年齢、性別及び心拍変動データを読み出し、読み出したコンテンツID、視聴ID、年齢及び性別を対応付けて感情DB12cに記憶する。そして、感情分析部103は、心拍変動データに基づいてコンテンツの再生開始から所定時間毎の感情の分析を行い、分析の結果得られた各感情の感情データを、先に記憶したコンテンツID、視聴ID、年齢及び性別に対応付けて感情DB12cに記憶する。これにより、コンテンツの再生中(視聴中)における視聴者の各感情の時間変化を示す感情データが生成されて感情DB12cに記憶される。なお、感情分析部103は、逆変換処理によって心拍変動データから心拍データ(脈波データ)を生成し、心拍データに基づいて視聴者の感情を分析し、視聴者の感情を示す感情データを生成してもよい。例えば感情分析部103は、心拍データにおいて心拍数のピーク値やピーク間の時間等を検出し、これらの検出結果に基づいて各感情の程度を判定してもよい。この場合にも、心拍データにおける心拍数のピーク値やピーク間の時間等に各感情の程度を示す数値を予め設定しておくことにより、感情分析部103は、コンテンツの再生開始から所定時間毎における心拍数のピーク値やピーク間の時間等に対応する各感情の数値を特定できる。また、感情毎に各感情の程度を示す数値に対応付けて、一般的な心拍数のピーク値やピーク間の時間等を予め設定しておくことにより、感情分析部103は、コンテンツの再生開始から所定時間毎における心拍数のピーク値やピーク間の時間等に対応する各感情の程度を示す数値を特定できる。
【0041】
レポート生成部104は、感情DB12cに蓄積された感情データに基づいて、各コンテンツに対する視聴者の感情レポートを生成する。例えばレポート生成部104は、感情レポートを生成すべきコンテンツのコンテンツID及びコンテンツデータ(再生用データ)をコンテンツDB12aから読み出し、このコンテンツに対する全ての感情データを感情DB12cから読み出す。レポート生成部104は、DB12a,12cから読み出した各情報に基づいて、
図7A,Bに示すような感情レポートを表示するための表示データを生成する。
図7A,Bはそれぞれ、感情レポートに基づく表示画面の例を示す。
図7Aに示す画面は、分析対象のコンテンツのコンテンツID、コンテンツ名及び再生時間を表示する。コンテンツ名及び再生時間は、例えばコンテンツDB12aに記憶されており、レポート生成部104がコンテンツDB12aから読み出す。また
図7Aに示す画面は、コンテンツ領域R1、ボタン領域R2及びレポート領域R3を有し、コンテンツ領域R1には、コンテンツDB12aから読み出したコンテンツデータが再生(表示)される。ボタン領域R2には、コンテンツ領域R1で再生されるコンテンツに対して再生指示、停止指示、早送り指示、早戻し指示等の操作を受け付けるボタンが表示される。またボタン領域R2には、コンテンツ領域R1に表示中の画像(場面)におけるコンテンツの再生開始からの経過時間を示すインジケータが表示されており、インジケータの下部には、表示中の場面における再生開始からの経過時間が表示されている。なお、インジケータは、コンテンツ領域R1で再生が開始(再開)される時点として、コンテンツの再生開始から再生終了までの間の任意の時点を受け付けることができ、インジケータが任意の時点を受け付けた場合、コンテンツ領域R1には、インジケータが受け付けた時点からコンテンツが再生される。
【0042】
レポート領域R3には、コンテンツ領域R1で再生されるコンテンツに対する各感情のレポートが表示される。
図7Aに示す感情レポートを生成する場合、レポート生成部104は、感情DB12cから読み出したコンテンツに対する全ての感情データに基づいて、コンテンツの再生開始から所定時間毎の各感情の数値の平均値を算出し、各感情について、コンテンツを視聴した視聴者の平均値(平均的な度合)の時間変化(分析値)を示す感情レポートを生成する。
図7Aに示す感情レポートは、それぞれの感情の程度を縦長の矩形による感情ゲージで示しており、感情ゲージの下端は最低値を示し、上端は最高値を示し、下端からの色領域(
図7Aではハッチング領域)の大きさによって感情の程度を示す。
図7Aに示す画面は例えば、コンテンツ領域R1で再生されるコンテンツの再生タイミング(再生開始からの経過時間)と、レポート領域R3に表示される各感情の出現タイミング(視聴者が各感情を抱いたタイミング)とを同期して表示する。即ち、各感情に対する分析値とコンテンツとが、コンテンツの再生開始からの経過時間に同期して表示される。よって、コンテンツの再生タイミングのそれぞれにおける各感情の程度を容易に把握できる。即ち、コンテンツの各場面における視聴者の感情及び感情の変化を容易に把握できる。なお、レポート生成部104は、感情DB12cから読み出した全ての視聴者の感情データ(各感情の数値)の平均値に基づいて各感情の感情レポートを生成するほかに、各感情について視聴者の属性(年齢及び性別)毎の感情レポートを生成してもよい。この場合、レポート生成部104は、所定の属性の視聴者の感情データを感情DB12cから読み出し、読み出した感情データ(各感情の数値)の平均値に基づいて各感情の感情レポートを生成する。
【0043】
図7Bに示す画面は、分析対象のコンテンツのコンテンツID、コンテンツ名及び再生時間と、コンテンツに対する各感情について属性(年齢及び性別)毎の感情レポートを表示する。
図7Bに示す感情レポートを生成する場合、レポート生成部104は、感情DB12cに蓄積してあるコンテンツに対する感情データを、属性毎に読み出す。属性は、例えば10代の男女を示すT層、20歳~34歳の男性を示すM1層、35歳~49歳の男性を示すM2層、50歳以上の男性を示すM3層、20歳~34歳の女性を示すF1層、35歳~49歳の女性を示すF2層、50歳以上の女性を示すF3層に区分できるが、これらの区分に限定されない。レポート生成部104は、属性毎に各属性の視聴者の感情データを感情DB12cから読み出す。レポート生成部104は、属性毎に読み出した感情データから、それぞれの属性について各感情の最大値を抽出する。レポート生成部104は、各感情について、属性毎に抽出した最大値を、それぞれの属性に対応付けて表示するグラフ(感情レポート)を生成する。
図7Bに示す感情レポートでは、例えば実線は喜びの感情について属性毎の最大値を示しており、破線は悲しみの感情について属性毎の最大値を示している。
【0044】
なお、レポート生成部104は、各感情について属性毎の最大値を示す感情レポートを生成するほかに、各感情について属性毎の平均値を示す感情レポートを生成してもよい。この場合、レポート生成部104は、属性毎に読み出した感情データに基づいて、例えばそれぞれの視聴者における各感情の数値の平均値を算出し、更に全ての視聴者における各感情の数値の平均値を算出する。これにより、それぞれの属性について、コンテンツに対する各感情における全視聴者の平均値(平均的な度合)が得られる。レポート生成部104は、各感情について属性毎に算出した平均値をそれぞれの属性に対応付けて表示するグラフ(感情レポート)を生成する。この場合にも、
図7Bに示すようなグラフで属性毎の各感情の平均値を表示できる。また、
図7Bに示す画面において、コンテンツ全体における感情の最大値や平均値を示す感情レポートの代わりに、コンテンツの再生開始からの経過時間帯毎における感情の最大値や平均値を示す感情レポートを表示してもよい。更に、
図7Bに示す画面に、
図7Aと同様に、コンテンツが再生されるコンテンツ領域や、再生されるコンテンツに対して再生指示、停止指示、早送り指示、早戻し指示等の操作を受け付けるボタンが表示されるボタン領域等を設けてもよい。
【0045】
レポート生成部104は、
図7Aに示す感情レポートと
図7Bに示す感情レポートとを各別に生成してもよいし、
図7Aに示す感情レポートと
図7Bに示す感情レポートとを1つの画面で表示するための表示データを生成してもよい。上述した感情レポートのほかに、レポート生成部104は例えば、各感情について最大値となった時点の再生開始からの経過時間を示す感情レポート、各感情について所定値以上の値となった時点の再生開始からの経過時間を示す感情レポート等を生成してもよい。またレポート生成部104は例えば、各感情について所定値以上の値となった時間の合計や、所定値未満の値となった時間の合計等を示す感情レポートを生成してもよい。これらの感情レポートも属性毎に生成されてもよい。
【0046】
出力部105は、レポート生成部104が生成した感情レポート(表示データ)を通信部13から所定の装置へ送信する。なお、例えばサーバ10が外部装置からあるコンテンツに対する感情レポートの生成要求を受信した場合に、レポート生成部104は、要求されたコンテンツに対する感情レポートを生成し、出力部105は、要求してきた外部装置に感情レポートを出力する。また、レポート生成部104は、所定のタイミングで各コンテンツに対する感情レポートを生成して記憶部12に記憶しておき、サーバ10が外部装置からあるコンテンツに対する感情レポートを要求された場合に、出力部105は、要求された感情レポートを記憶部12から読み出し、要求してきた外部装置に出力してもよい。出力部105が出力した感情レポートを受信した外部装置は、受信した感情レポートに基づいて
図7A,Bに示すような画面を表示部に表示する。これにより、各コンテンツに対する視聴者の感情の変化を通知できる。
【0047】
以下に、上述した構成の感情分析システムにおいて各装置が行う処理について説明する。
図8は、端末装置20による心拍変動データの取得処理の手順を示すフローチャートである。以下の処理は、端末装置20の記憶部22に記憶してある制御プログラム22Pに従って制御部21によって実行される。
【0048】
端末装置20の制御部21は、コンテンツDB22aに記憶されているコンテンツの再生用データに基づいてコンテンツの再生処理を開始する(S11)。なお、コンテンツの再生を開始するタイミングは、例えば入力部25を介して再生指示が入力された場合や、通信部23を介して外部装置から再生指示を取得した場合等である。制御部21は、再生を開始したコンテンツのコンテンツIDと、この再生処理(視聴処理)に対して発行した視聴IDとを対応付けて心拍変動DB22bに記憶しておく。
【0049】
制御部21は、カメラ26による撮影を開始し、再生中のコンテンツを視聴する視聴者の顔画像を取得する(S12)。ここでは、制御部21は1枚の静止画である顔画像を取得する。制御部21は、取得した顔画像(顔画像データ)に基づいて、顔画像中の被写体である視聴者の属性(年齢及び性別)を判定する(S13)。制御部21は例えばテンプレートマッチング技術によって被写体の属性を判定し、判定した属性を、再生中のコンテンツのコンテンツID及び実行中の再生処理の視聴IDに対応付けて心拍変動DB22bに記憶しておく。
【0050】
制御部21は、ステップS12で取得した顔画像に対してヘモグロビンに対応する色素成分を抽出する分離処理を行ってヘモグロビン画像を生成し(S14)、ヘモグロビン画像に基づいて、被写体(視聴者)の心拍を示す心拍データを生成する(S15)。ここでは、制御部21は、ヘモグロビン画像において被写体の顔領域中の各画素の画素値(ヘモグロビン成分の成分量)の平均値(平均画素値)を算出し、心拍データとして、この顔画像を撮影した時点における再生開始からの経過時間(再生タイミング)に対応付けて記憶部22に記憶する。なお、制御部21は、コンテンツの再生開始後、顔画像を取得した場合、取得時点におけるコンテンツの再生開始からの経過時間を特定しておく。
【0051】
制御部21は、コンテンツを最後まで再生することによってコンテンツの再生処理を終了したか否かを判断しており(S16)、終了していないと判断した場合(S16:NO)、ステップS12で顔画像を取得してから所定時間が経過したか否かを判断する(S17)。制御部21は例えば1秒間に30枚の顔画像を取得する場合、1/30秒が経過したか否かを判断する。所定時間が経過していないと判断した場合(S17:NO)、制御部21は、ステップS16~S17の処理を繰り返し、所定時間が経過したと判断した場合(S17:YES)、ステップS12の処理に戻る。そして、制御部21は、視聴者の顔画像を取得し(S12)、取得した顔画像に基づいてステップS13~S15の処理を繰り返す。これにより、コンテンツの再生中に所定時間毎に取得した視聴者の顔画像に基づいて、所定時間毎の視聴者の心拍を示す心拍データが生成されて記憶部22に記憶される。
【0052】
コンテンツの再生処理を終了したと判断した場合(S16:YES)、制御部21は、上述した処理によって生成した心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対してフィルタ処理を行う(S18)。そして制御部21は、フィルタ処理後の心拍データに対して周波数変換処理を行い(S19)、心拍変動データ(周波数領域の心拍変動スペクトログラム)を生成し、生成した心拍変動データをコンテンツID及び視聴IDに対応付けて心拍変動DB22bに記憶する(S20)。これにより、コンテンツの視聴中における視聴者の心拍変動を示す心拍変動データが生成されて心拍変動DB22bに記憶される。なお、制御部21は、異なるコンテンツの再生処理を連続して行う場合、1つのコンテンツの再生処理を終了した後、このコンテンツに対してステップS18~S20の処理を行いつつ、次のコンテンツに対してステップS11以降の処理を実行する。
【0053】
図9は、サーバ10による感情分析処理の手順を示すフローチャートである。以下の処理は、サーバ10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。サーバ10の制御部11は、端末装置20が送信した心拍変動データを通信部13にて取得し(S31)、取得した心拍変動データを心拍変動DB12bに記憶する(S32)。なお、制御部11は、端末装置20から、各コンテンツの1回の再生処理毎に、コンテンツID、視聴ID、年齢、性別及び心拍変動データをまとめて取得する。端末装置20からサーバ10へ心拍変動データを送信するタイミングは、例えば1日に1回の所定時刻、1週間に1回の所定時刻、コンテンツに設定された再生可能期間の満了後等とすることができる。また、端末装置20は、送信タイミングが到来した場合に、心拍変動データをサーバ10へ送信してもよいし、サーバ10からの送信要求に応じて送信してもよい。
【0054】
制御部11は、心拍変動DB12bに記憶した各コンテンツに対する心拍変動データに基づいて、各コンテンツに対するそれぞれの視聴者の感情を分析する(S33)。例えば制御部11は、心拍変動データ(心拍変動スぺクトログラム)における各変動周波数の値に応じて、喜び、怒り、悲しみ、驚き、嫌悪、リラックス等のそれぞれの感情パラメータに対して、それぞれの程度を示す数値(分析値)を決定する。制御部11は、各感情について、コンテンツの再生開始からの逐次タイミング(例えば1/30秒毎)での数値を決定することにより、コンテンツの再生開始から再生終了までの間における視聴者の各感情の時間変化を示す感情データを生成する。制御部11は、心拍変動DB12bから読み出したコンテンツID、視聴ID、年齢及び性別に対応付けて、生成した各感情の感情データを感情DB12cに記憶する(S34)。
【0055】
制御部11は、各コンテンツに対して感情DB12cに記憶した感情データに基づいて、各コンテンツに対する複数の視聴者の感情を総合的に評価した感情レポートを生成する(S35)。制御部11は、感情レポートを生成すべきコンテンツに対する全ての感情データを感情DB12cから読み出し、読み出した感情データに基づいて、
図7Aや
図7Bに示すような感情レポートを生成する。なお、制御部11が生成する感情レポートは、例えばコンテンツの再生開始から再生終了までの間において各感情について、複数の視聴者の平均値の時間変化、所定の時間帯毎又は属性毎の平均値の時間変化、複数の視聴者における最大値や平均値、所定の時間帯毎又は属性毎の最大値や平均値等、コンテンツに対する視聴者の感情を評価できるレポートを通知する。制御部11は、生成した感情レポートを、例えばコンテンツIDに対応付けて記憶部12に記憶しておき、例えば外部装置から所定のコンテンツに対する感情レポートの要求を受け付けた場合に、要求された感情レポートを要求元の外部装置へ提供する。
【0056】
本実施形態では、コンテンツを視聴する視聴者の顔画像から、視聴者の視聴中の感情の変化(時間変化)を取得することができる。よって、視聴者の感情の時間変化に基づいて、コンテンツの再生開始からの各時点における視聴者の感情を把握できる。また本実施形態では、端末装置20がサーバ10へ心拍変動データを送信することにより、端末装置20及びサーバ10間で、視聴者個人を特定できない情報(心拍変動データ)のみが送受信される。即ち、例えば顔画像のように視聴者個人を特定できるデータを送受信しないことにより、個人情報の漏洩を防止できる。なお、周波数変換を行う前の心拍データを送受信してもよく、この場合、心拍データを受信したサーバ10が、心拍データから心拍変動データを生成する処理を行う。また、端末装置20において、視聴者個人を特定できる顔画像等のデータを、不要となった後に記憶部22から消去しておくことにより、端末装置20に個人情報が残ることを防止できる。なお、顔画像データだけでなくヘモグロビン画像データについても、生成された後に一旦記憶部22に記憶される場合、不要となった後に記憶部22から消去しておいてもよい。また、端末装置20は、収集(蓄積)した心拍変動データを直接サーバ10へ送信するように構成してもよく、この場合、端末装置20及びサーバ10間の通信は有線通信であっても無線通信であってもよい。
【0057】
(実施形態2)
ショッピングモール等に設けられたフードコート内の飲食店で料理を注文したユーザに端末装置が貸し出され、注文した料理が出来上がったことを端末装置によって通知する通知システムに適用した感情分析システムについて説明する。
図10は、実施形態2の感情分析システムの構成例を示すブロック図である。本実施形態の感情分析システムは、サーバ10及び端末装置20のほかに通知装置30を含み、通知装置30は複数の端末装置20のそれぞれと無線通信を行うように構成されている。本実施形態では、通知装置30とそれぞれの端末装置20とは直接通信を行う構成とするが、ネットワークN経由で通信を行う構成でもよい。本実施形態では、例えば各店舗に1つの通知装置30及び複数の端末装置20が用意され、各店舗に設けられた通知装置30は、各店舗用に用意された複数の端末装置20との間で通信を行う。本実施形態のサーバ10は実施形態1と同じ構成を有し、同様の処理を行う。
【0058】
端末装置20は、実施形態1と同じ構成のほかに、無線通信部27及び通知部28を有する。無線通信部27は、例えば特定小電力無線によって外部装置と通信するためのインタフェースであり、本実施形態では通知装置30との通信を行う。なお、無線通信部27は、Bluetooth(登録商標)やWi-Fi等の無線通信を行う構成でもよい。通知部28は、例えばバイブレータ、ランプ、ブザー等を含み、制御部21からの指示に従って、バイブレータによる振動、ランプの点灯又は点滅、ブザーの鳴動等を行うことにより、端末装置20を貸し出されたユーザに所定の状況(注文した料理が出来上がったこと)を通知する。なお、通知部28は、スピーカによって所定のメッセージを音声出力することにより通知する構成でもよい。また、通知部28の代わりに表示部24に所定のメッセージを表示することにより通知する構成でもよい。
【0059】
通知装置30は、制御部31、記憶部32、入力部33、表示部34、無線通信部35等を含み、これらの各部はバスを介して相互に接続されている。通知装置30の各部は端末装置20の各部と同様の構成を有しており、同様の構成については詳細な説明を省略する。通知装置30の無線通信部35は端末装置20の無線通信部27との間で通信を行う。また、通知装置30の記憶部32には端末DB32aが記憶されている。端末DB32aには、通知装置30が通信を行う複数の端末装置20のそれぞれを識別するための識別情報(例えば端末ID)と、それぞれの端末装置20との間で無線通信を行うための宛先情報とが対応付けて記憶してある。なお、通知装置30は、上述した構成のほかに、ネットワークNに接続するためのインタフェース等が設けられていてもよい。
【0060】
図11は、実施形態2の端末装置20による心拍変動データの取得処理の手順を示すフローチャートである。
図11に示す処理は、
図8に示す処理においてステップS16の代わりにステップS51を追加し、ステップS18の前にステップS52,S53を追加し、通知装置30が行う処理としてステップS41,S42を追加したものである。
図8と同様のステップについては説明を省略する。
【0061】
本実施形態において、例えば飲食店の従業員は、料理が注文されて料金の支払いが完了したユーザに対して1つの端末装置20を貸し出す。そして従業員は、料理が出来上がった場合、この料理を注文したユーザに貸し出した端末装置20に通知処理を行わせるために、この端末装置20の端末IDを通知装置30の入力部33にて入力する。通知装置30の制御部31は、入力部33を介して端末IDを受け付けたか否かを判断しており(S41)、受け付けていないと判断する場合(S41:NO)、受け付けるまで待機する。制御部31は、端末IDを受け付けたと判断した場合(S41:YES)、受け付けた端末IDに対応する宛先情報を端末DB32aから読み出し、読み出した宛先情報に基づいて無線通信部35によって通知信号を送信する(S42)。通知装置30の制御部31は、端末IDを受け付ける都度、受け付けた端末IDの端末装置20に通知信号を送信する。
【0062】
端末装置20の制御部21は、実施形態1と同様にステップS11~S15の処理を行いつつ、通知装置30から通知信号を受信したか否かを判断しており(S51)、受信していないと判断した場合(S51:NO)、ステップS17の処理に移行する。このような処理により、制御部21は、コンテンツを視聴中の視聴者の顔画像に基づいて視聴者の心拍データを生成して記憶部22に記憶する。通知装置30から通知信号を受信したと判断した場合(S51:YES)、制御部21は通知部28による通知処理を行う(S52)。通知部28は例えばバイブレータによる振動、ランプの点灯又は点滅、ブザーの鳴動等を開始し、注文した料理が出来上がったことをユーザに通知する。そして制御部21は、コンテンツの再生処理を終了し(S53)、上述した処理によって生成した心拍データ(ヘモグロビン画像における平均画素値の時間変化)に対して、ステップS18~S20の処理を行う。
【0063】
上述した処理により、注文した料理が出来上がるまでの待ち時間において、ユーザはコンテンツを視聴して楽しむことができると共に、ユーザのコンテンツ視聴中の心拍変動を示す心拍変動データを収集できる。上述した処理において、制御部21は、料理が出来上がったことを通知する通知処理を行った場合、例えば入力部25を介して通知処理の終了指示を受け付けた後に、コンテンツの再生処理を終了してもよい。例えばバイブレータによる振動の停止指示、ランプの消灯指示、ブザーの消音指示等の操作が入力部25を介して行われた場合に、コンテンツの再生処理を終了してもよい。また、通知処理の終了指示とは別にコンテンツ再生の終了指示が入力部25を介して行われた場合に、コンテンツの再生処理を終了するようにしてもよい。この場合、コンテンツを視聴中のユーザは、見たい場面までコンテンツを視聴でき、コンテンツの視聴時間が長くなることが期待できる。
【0064】
本実施形態において、サーバ10は
図9に示す処理と同様の処理を行い、複数の端末装置20から収集した多数の視聴者の心拍変動データに基づいて、各コンテンツに対する感情レポートを生成できる。本実施形態では、実施形態1と同様の効果が得られる。即ち、コンテンツを視聴する視聴者の顔画像から、視聴者の視聴中の感情の変化(時間変化)を取得でき、複数の視聴者の感情の時間変化に基づいて、コンテンツに対する視聴者の感情レポートを提供できる。また本実施形態では、例えばフードコートの飲食店等で料理を注文したユーザが、料理が出来上がるまでの待ち時間にコンテンツを視聴することにより、待ち時間を楽しむことができる。なお、本実施形態の端末装置20で再生されるコンテンツは、例えばフードコートが設けられたショッピングモール内の店舗の広告、イベント、キャンペーン、クーポン等の情報を通知するためのコンテンツ、ショッピングモールや店舗に対するアンケートの回答やクレーム等を受け付けるためのコンテンツ等を用いることができる。なお、端末装置20は入力部25を介してアンケートの回答やクレームの入力等を受け付けることができる。
【0065】
上述した感情分析システムは、例えば、美術館や博物館等で入館者に端末装置が貸し出され、展示作品に対する解説コンテンツを端末装置で再生することによって展示作品の解説等を行うシステムにも適用できる。このようなシステムに適用した場合、端末装置20によって展示作品の解説を行えるだけでなく、解説コンテンツを視聴する入館者の感情を分析することにより、展示作品や展示作品に関する解説に対して入館者の関心の有無等を把握できる。
【0066】
実施形態1,2の感情分析システムにおいて、端末装置20で再生されるコンテンツはどのようなコンテンツでもよく、どのようなコンテンツ対しても視聴中の視聴者の感情レポートを生成できる。例えば動画コンテンツに限らず、入力部25を操作することによってページ送りができる電子書籍であってもよい。この場合、ユーザが読書中のページ番号に対応付けてユーザの感情を分析することにより、各ページに対するユーザの感情レポートを生成できる。また、複数の選択肢のいずれかを選択するクイズ、ゲーム、アンケート等のコンテンツを用いてもよい。この場合、端末装置20は入力部25を介して選択肢に対する選択を受け付けることができ、それぞれの選択肢を受け付けた際のユーザの感情を分析できる。またアンケートが複数の質問を有する場合に、各質問に回答する回答者(ユーザ)の顔画像データに基づいて、各質問に対する回答者の感情を分析でき、各質問に対する感情データを生成できる。また、複数の回答者の感情データを用いることにより、各質問に対する回答者全体の感情レポートを生成できる。
【0067】
また、例えば従業員の満足度アンケート、ストレスチェック、360度評価調査等の従業員アンケートをコンテンツとして用いることができる。例えばアンケートがストレスチェックに関する質問を含む場合、端末装置20の制御部21は、各質問を表示部24に表示し、各質問に対する回答者の回答を入力部25にて受け付けると共に、回答者の顔画像に基づいて回答時の感情を分析して感情データを生成する。この場合、端末装置20は、質問に対して回答者が意図して回答した内容と、回答者が意図せずに顔画像から分析された質問回答時の感情とを取得できる。よって、端末装置20は、回答者の意識下での回答内容と、回答者が意図しない感情から読み取れる回答者の真意とを取得することができ、これらの情報に基づいて、回答者が回答した内容に対する真偽を客観的に判定することができ、回答者に対するストレスチェックを正確に行うことができる。また、端末装置20は、回答者の意識下での回答内容と、回答者が意図しない真意とを対応付けて所定装置へ出力することができる。ここでの所定装置は例えばストレスチェックの回答情報を収集する装置等である。このように各質問について、回答者による回答内容だけでなく、回答者が回答時に意図しない真意(感情)を収集できるので、回答者の真意に基づいて、今後の働き方の改善方法を検討でき、働き方改革を進めることが可能となる。
【0068】
実施形態1,2の感情分析システムにおいて、端末装置20が行う処理を、店舗等に設置されたデジタルサイネージが行うように構成してもよい。例えばデジタルサイネージに、店舗又は商品等に関する広告コンテンツを表示し、広告コンテンツを視聴しているユーザの顔画像からユーザの感情の変化(感情レポート)を取得するように構成することができる。このような構成により、表示中の商品等に対するユーザの関心度を測定できる。よって、ユーザの関心度に応じて、表示する広告コンテンツを切り替えることにより、ユーザが興味のある商品等の広告を表示することができ、商品の宣伝を効率良く行うことができる。また、デジタルサイネージ及び端末装置20に、例えば商品名又は商品のパッケージ画像等を表示し、視聴するユーザの感情を取得することにより、表示中の商品に対するユーザの認知度を測定することもできる。この場合には、複数のユーザの認知度を集計することにより、商品の認知度又は広告による宣伝効果を測定できる。
【0069】
実施形態1,2の感情分析システムにおいて、端末装置20で再生されるコンテンツは、映画、ドラマ、アニメ等の動画コンテンツのほかに、ゲームコンテンツであってもよい。この場合、ゲーム中のステージ、レベル、コース、シーン等の各単位に対応付けてユーザの感情を分析することにより、各単位に対するユーザの感情レポートを生成できる。また、ゲームの開始時点、チュートリアルの再生時点、ゲーム内の各イベントの発生時点、課金時点、終了時点等の各タイミングに対応付けてユーザの感情を分析することにより、各タイミングでのユーザの感情レポートを生成できる。このようにゲーム中のユーザの感情の変化を分析することにより、ユーザがゲームを楽しんでいるタイミング及びゲーム中の箇所、並びに、ユーザがゲームを楽しんでいない又はゲームを終了するタイミング及びゲーム中の箇所を判定できる。よって、ユーザがゲームを終了する理由を分析することができ、分析結果を用いることにより、ユーザが飽きないゲームを製作することが可能となる。
【0070】
(実施形態3)
美術館や博物館等で入館者に端末装置が貸し出され、展示作品に対する解説コンテンツを端末装置で再生することによって展示作品の解説等を行うシステムに適用した感情分析システムについて説明する。本実施形態の感情分析システムは、実施形態1の各装置と同様の装置によって実現できるので、構成については説明を省略する。
【0071】
図12及び
図13は、実施形態3の端末装置20による心拍変動データの取得処理の手順を示すフローチャート、
図14は画面例を示す模式図である。
図12及び
図13に示す処理は、
図8に示す処理においてステップS11の前にステップS61~S62を追加し、ステップS16の代わりにステップS63~S65を追加し、ステップS20の後にステップS66を追加したものである。
図8と同様のステップについては説明を省略する。
【0072】
本実施形態では、例えば美術館の入館者が入館する際に、端末装置20を借り受ける。端末装置20は、美術館内に展示されている展示品のそれぞれに対する解説コンテンツをコンテンツDB22aに記憶しており、表示部24に
図14Aに示すようなコンテンツ一覧を表示している。なお、本実施形態におけるコンテンツIDは、解説コンテンツに割り当てられた識別情報であり、即ち、各展示品に割り当てられた識別情報である。コンテンツ一覧は、美術館内の各展示品のサムネイル画像を表示しており、それぞれのサムネイル画像に対応付けて、各展示品に関する解説コンテンツの再生指示を受け付けるための「解説を再生」ボタンが設けられている。よって、入館者は、解説を聴きたい展示品がある場合、展示品のサムネイル画像に対応する「解説を再生」ボタンを操作することにより、解説コンテンツの再生を指示する。
【0073】
よって、本実施形態において、端末装置20の制御部21は、美術館内の展示品のサムネイル画像を含むコンテンツ一覧を表示しており(S61)、コンテンツ一覧を介して、いずれかの解説コンテンツの再生指示を受け付けたか否かを判断する(S62)。再生指示を受け付けていないと判断した場合(S62:NO)、制御部21は、受け付けるまで待機する。いずれかの解説コンテンツの再生指示を受け付けたと判断した場合(S62:YES)、制御部21は、再生指示を受け付けた解説コンテンツの再生処理を開始する(S11)。具体的には、制御部21は、再生指示された解説コンテンツの再生用データをコンテンツDB22aから読み出し、読み出した再生用データに基づく再生処理を行う。
図14Bは解説コンテンツの再生画面例を示しており、再生画面は、展示品に関する解説を表示する。なお、解説コンテンツは動画データであっても静止画データであってもよく、音声データが含まれていてもよい。また、
図14Bに示す再生画面には、展示品に関する感想を入力するための入力欄と、展示品が気に入ったことを通知するためのいいねボタンと、表示中の解説コンテンツの表示終了を指示するための終了ボタンとが設けられている。なお、解説コンテンツに音声データが含まれる場合、制御部21は、スピーカ(図示せず)を介して音声データの再生処理も行う。制御部21は、解説コンテンツの再生処理を開始した場合、再生を開始した解説コンテンツのコンテンツIDと、この再生処理に対して発行した視聴IDとを対応付けて心拍変動DB22bに記憶しておく。
【0074】
その後、制御部21は、
図8中のステップS12~S15と同様の処理を行い、再生中の解説コンテンツを視聴するユーザ(視聴者)の顔画像に基づいて、ユーザの属性(年齢及び性別)を判定し、ユーザの心拍を示す心拍データを生成する。なお、ユーザは、再生画面によって展示品の解説を視聴し、必要に応じて入力部25を介して入力欄に感想を入力し、展示品が気に入った場合には入力部25を介していいねボタンを操作する。制御部21は、
図14Bに示すような再生画面において、ユーザによるいいねボタンの操作又は入力欄への感想の入力を受け付けたか否かを判断する(S63)。いいねボタンの操作又は感想の入力のいずれかを受け付けたと判断した場合(S63:YES)、制御部21は、再生中の解説コンテンツのコンテンツIDに対応付けて、いいねボタンが操作されたことを示す情報、又は受け付けた感想を記憶部22に記憶する(S64)。なお、制御部21は、コンテンツIDに対応付けて、いいねボタンが操作されたことを示す情報、又は受け付けた感想を心拍変動DB22bに記憶するように構成されていてもよい。
【0075】
制御部21は、いいねボタンの操作及び感想の入力のいずれも受け付けていないと判断した場合(S63:NO)、ステップS64の処理をスキップし、ステップS65の処理に移行する。制御部21は、
図14Bに示すような再生画面において、ユーザが終了ボタンを操作することにより、再生中の解説コンテンツの再生終了の指示を受け付けたか否かを判断する(S65)。制御部21は、再生終了の指示を受け付けていないと判断した場合(S65:NO)、ステップS17の処理に移行し、再生終了の指示を受け付けたと判断した場合(S65:YES)、ステップS18の処理に移行する。これにより、各展示品の解説コンテンツの再生中に所定時間毎に取得したユーザの顔画像に基づいて、所定時間毎のユーザの心拍を示す心拍データが生成されて記憶部22に記憶される。また制御部21は、
図8中のステップS18~S20の処理を行うことにより、生成した心拍データ(ヘモグロビン画像における平均画素値の時間変化)に基づいて、解説コンテンツの視聴中におけるユーザの心拍変動を示す心拍変動データが生成されて心拍変動DB22bに記憶される。
【0076】
ステップS20の処理後、制御部21は、入力部25を介した操作に応じて、解説コンテンツの再生処理の終了指示を受け付けたか否かを判断する(S66)。例えば
図14Aに示すコンテンツ一覧又は
図14Bに示す再生画面中に、端末装置20の動作終了(解説処理の終了)を指示するための終了ボタンを設けておき、終了ボタンが操作された場合に、再生処理の終了指示を受け付けるように構成されていてもよい。なお、このような終了ボタンは、ユーザが端末装置20の利用を終了する際に操作してもよく、端末装置20が美術館に返却された後に美術館のスタッフ等によって操作されてもよい。制御部21は、再生処理の終了指示を受け付けていないと判断した場合(S66:NO)、ステップS61の処理に戻り、
図14Aに示すようなコンテンツ一覧の表示に戻り、終了指示を受け付けたと判断した場合(S66:YES)、処理を終了する。上述した処理により、ユーザは美術館等の展示品に関する解説を受けることができると共に、ユーザのコンテンツ視聴中の心拍変動を示す心拍変動データを収集できる。
【0077】
図15は、実施形態3のサーバ10による感情分析処理の手順を示すフローチャートである。
図15に示す処理は、
図9に示す処理においてステップS35の代わりにステップS71~S73を追加したものである。
図9と同様のステップについては説明を省略する。本実施形態において、サーバ10の制御部11は、
図9中のステップS31~S34と同様の処理を行う。これにより、サーバ10は、端末装置20が送信した心拍変動データを受信し、受信した心拍変動データに基づいて、各解説コンテンツ(解説コンテンツに対応する展示品)に対するユーザの感情を分析し、ユーザの各感情の時間変化を示す感情データを生成する。なお、本実施形態では、端末装置20が心拍変動データをサーバ10へ送信するタイミングは、ユーザが端末装置20の利用を終了したタイミングとしてもよい。また、本実施形態では、端末装置20は、端末装置20に割り当てられた識別子(例えば端末ID)又はユーザに割り当てられた識別子(例えばユーザID)に対応付けて心拍変動データをサーバ10へ送信する。よって、サーバ10は、端末ID又はユーザIDに対応付けて心拍変動データを例えば心拍変動DB12bに記憶し、ステップS34で生成した各感情の感情データを、端末ID又はユーザIDに対応付けて感情DB12cに記憶する。
【0078】
ステップS34の処理後、制御部11(箇所抽出部)は、端末ID又はユーザIDに対応付けて感情DB12cに記憶した各解説コンテンツに対する感情データに基づいて、ユーザが所定の感情を抱いた箇所を抽出する(S71)。例えば制御部11は、各解説コンテンツに対する感情データに基づいて、例えば喜びの感情パラメータのスコアが所定値以上であった解説コンテンツを特定し、特定した解説コンテンツに対応するコンテンツIDを抽出する。そして制御部11(アルバム生成部)は、抽出したコンテンツIDに対応する解説コンテンツ又は展示品のサムネイル画像等を用いてアルバムデータを生成する(S72)。これにより、ユーザが所定の感情を抱いたコンテンツ又は展示品をまとめて閲覧できるアルバムを生成できる。制御部11は、生成したアルバムデータを端末ID又はユーザIDに対応付けて記憶部12に記憶し(S73)、処理を終了する。
【0079】
上述した処理により、解説コンテンツ及び展示品を見たユーザの感情に応じたアルバムデータを生成できるので、ユーザが無意識に所定の感情を抱いた解説コンテンツ又は展示品をまとめて閲覧できるアルバムを提供できる。なお、アルバムデータを生成する感情は、例えば喜び、怒り、悲しみ、驚き、嫌悪、リラックス等の感情パラメータのいずれかが予め設定されていてもよく、また、ユーザからの選択によって変更できるように構成されていてもよい。また、サーバ10は、端末ID又はユーザIDに対応付けて記憶部12に記憶したアルバムデータを、例えばユーザが所有するユーザ端末(図示せず)に提供できるように構成されている。サーバ10は、例えばユーザ端末から、端末ID又はユーザIDを指定してアルバムデータの要求を受け付けた場合、要求されたアルバムデータを要求元のユーザ端末へ送信してもよい。これにより、ユーザは、自身のユーザ端末においてアルバムを閲覧できるので、美術館での展示品の鑑賞だけでなく、美術館での鑑賞後にアルバムによって展示品又は解説コンテンツを振り返ることができる。
【0080】
なお、サーバ10がアルバムデータをユーザ端末へ送信する場合、例えばサーバ10が、端末ID又はユーザIDに応じたQRコード(登録商標)を発行し、発行したQRコードをユーザ端末へ送信してもよい。この場合、ユーザ端末は、QRコードを読み取って得られた宛先情報(例えばURL(Uniform Resource Locator))に基づいてアルバムデータを要求し、サーバ10からアルバムデータを取得することができる。また、例えばサーバ10がユーザIDに対応付けてアルバムデータを記憶する構成において、端末装置20を用いてネットワークN経由でユーザIDに基づいてアルバムデータをサーバ10からダウンロードできるように構成してもよい。この場合、同じ美術館又は他の美術館で貸し出された端末装置20において、前回鑑賞した際に生成されたアルバムを見ながら展示品を鑑賞することができる。
【0081】
本実施形態において、サーバ10は、端末装置20から受信した心拍変動データに基づいてアルバムデータを生成するか否かを、ユーザからの要求に応じて切り替えてもよい。例えば、サーバ10は、端末装置20又はユーザのユーザ端末からアルバムデータの要求を受け付けた後に、アルバムデータの生成処理を行い、端末装置20又はユーザ端末へ送信してもよい。このような構成とすることにより、アルバムデータの生成処理を不用意に行うことなく、処理負荷の増加を抑制できる。なお、本実施形態においても、サーバ10の制御部11は、
図9中のステップS35の処理を行い、複数の端末装置20から収集した多数の視聴者の心拍変動データに基づいて、各コンテンツに対する感情レポートを生成してもよい。この場合、展示品を鑑賞する入館者の感情を分析し、各展示品について入館者の関心の有無等を把握できる。
【0082】
本実施形態において、端末装置20で再生されるコンテンツは美術館等の展示品に対する解説コンテンツのほかに、観光地及び観光スポット等を解説又は案内するためのコンテンツであってもよく、映画、アニメ及びドラマ等のようにそれ自体が鑑賞対象である電子データ(コンテンツ)であってもよい。観光案内用のコンテンツを用いる場合、ユーザの心拍変動データに基づいて、ユーザが所定の感情を抱いた箇所(観光地又は観光スポット)を抽出し、抽出した箇所の写真又は解説等をまとめたアルバムデータを生成することができる。また、映画、アニメ及びドラマ等の映像コンテンツを用いる場合、ユーザの心拍変動データに基づいて、ユーザが所定の感情を抱いた箇所(シーン)を抽出し、例えばユーザが気に入ったシーンをまとめたアルバムデータを生成することができる。
【0083】
(実施形態4)
ユーザが自身のユーザ端末(端末装置20)を使用している場合に、ユーザの顔画像に基づいてユーザの健康状態を判定する分析システムについて説明する。本実施形態の分析システムは、実施形態1の各装置と同様の装置によって実現できるので、構成については説明を省略する。なお、本実施形態では、端末装置20はユーザが所有するユーザ端末である。
【0084】
図16は、実施形態4の端末装置20による健康状態判定処理の手順を示すフローチャートである。以下の処理は、端末装置20の記憶部22に記憶してある制御プログラム22Pに従って制御部21によって実行される。本実施形態において、例えばユーザが端末装置20を用いてテレビ電話中、又は、電子メール、LINE(登録商標)、SNS(Social Networking Service )に関する操作中の場合、端末装置20の制御部21は、カメラ26による撮影を開始し、操作中のユーザの顔画像を取得する(S81)。ここでは、制御部21は、
図8中のステップS12と同様の処理を行う。
【0085】
制御部21は、
図8中のステップS13と同様の処理を行い、取得した顔画像(顔画像データ)に基づいてユーザの属性(年齢及び性別)を判定する(S82)。次に制御部21は、
図8中のステップS14と同様の処理を行い、ステップS81で取得した顔画像に対してヘモグロビンに対応する色素成分を抽出する分離処理を行ってヘモグロビン画像を生成する(S83)。そして、制御部21は、生成したヘモグロビン画像に基づいて、ユーザのヘモグロビン色素濃度(ヘモグロビン濃度)を算出する(S84)。例えば制御部21は、ヘモグロビン画像においてユーザの顔領域中の各画素の画素値(ヘモグロビン成分の成分量)の平均値(平均画素値)を算出し、算出した値に対応するヘモグロビン色素濃度を特定する。なお、ヘモグロビン画像における平均画素値と、平均画素値に対応するヘモグロビン色素濃度とを対応付けて記憶部22に記憶しておくことにより、制御部21は、ヘモグロビン画像の平均画素値からユーザのヘモグロビン色素濃度を特定できる。
【0086】
制御部21は、算出したヘモグロビン色素濃度が所定範囲内であるか否かを判断し(S85)、所定範囲内でないと判断した場合(S85:NO)、ユーザの健康状態がよくない可能性があることを通知する(S86)。例えば制御部21は、健康状態がよくない可能性があることを示すメッセージを表示部24に表示して通知する。なお、端末装置20がランプを有する場合、ランプを点灯又は点滅させることによって通知してもよく、端末装置20がスピーカ又はブザーを有する場合、スピーカによる音声出力又はブザーの鳴動によって通知してもよい。ヘモグロビン色素濃度が所定範囲内であると判断した場合(S85:YES)、制御部21は、ステップS86の処理をスキップして処理を終了する。
【0087】
上述した処理により、ユーザの顔画像に基づいてユーザの健康状態を判定することができ、健康状態がよくない可能性がある場合に通知することができる。よって、ユーザは端末装置20を使用(操作)しているだけで意識することなく、健康状態の判定を行うことができる。例えば体内の水分量が低下すると血液中のヘモグロビン濃度が上昇するので、ヘモグロビン濃度によって熱中症を発症する気配があるか否かの判断が行われている。本実施形態では、ユーザの顔画像からユーザのヘモグロビン濃度を検出するので、血液検査を行うことなく、熱中症を発症する気配があるか否かの判断が可能となる。よって、熱中症の可能性がある場合に、水分補給の提案及び日陰への誘導等を行うことにより、早期の処置が可能となる。また、例えば建設現場又は工事現場等で作業中の作業者が用いるタブレット端末を端末装置20としてもよい。この場合、タブレット端末を操作する作業者の顔画像を撮影することによって、顔画像から作業者の健康状態を判定できる。また、例えば観光地等の屋外に長時間いる観光客に観光ガイドアプリを提供する場合に、観光ガイドアプリに、本実施形態のような健康状態を判定する機能を追加して提供してもよい。この場合、観光ガイドアプリは利用者に観光ガイドを提供すると共に、利用者の健康状態を判定し、健康状態がよくない可能性がある場合には通知することができる。
【0088】
本実施形態では、ヘモグロビン画像に基づいてユーザの健康状態を判定するが、例えば、ヘモグロビン画像に基づいてユーザの心拍を示す心拍データを生成し、心拍データも考慮してユーザの健康状態を判定してもよい。この場合、ヘモグロビン濃度の変化だけでなく、心拍の変動に基づいて不整脈等の健康状態をチェックできる。また、本実施形態の構成は、上述した実施形態1~3の感情分析システムにも適用できる。実施形態1-2の感情分析システムに適用した場合、端末装置20において、各種のコンテンツをユーザに提供しつつ、ユーザの顔画像に基づいて健康状態を判定できる。また実施形態3の感情分析システムに適用した場合、美術館等で貸し出される端末装置20において、展示品の解説コンテンツをユーザ(入館者)に提供しつつ、ユーザの顔画像に基づいて健康状態を判定できる。
【0089】
上述した各実施形態において、端末装置20は、例えばスマートフォンに所定のアプリケーションプログラムをインストールすることによって実現されてもよい。なお、カメラを有するスマートフォンでは、カメラによる撮影が行われた場合に、取得された撮影画像に対してホワイトバランス処理等の画質を補正する処理(画質補正処理)が自動的に行われるように構成されている場合がある。このような画質補正機能を有するスマートフォンを用いて端末装置20を実現する場合、制御部21は、カメラ26で顔画像データを取得した場合に、顔画像データに対して画質補正処理を行う補正部として機能する。このような構成においては、制御部(禁止部)21は、視聴者の顔画像に基づいて視聴者の感情分析を行う場合には、カメラ26で撮影した視聴者の顔画像に対する画質補正処理の実行を禁止するように構成される。自動的に実行される画質補正処理を行わないことにより、視聴者の顔画像を忠実に取得でき、このような顔画像に基づいて視聴者の感情を精度よく分析できる。
【0090】
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
【符号の説明】
【0091】
10 サーバ(情報処理装置)
11 制御部
12 記憶部
20 端末装置
21 制御部
22 記憶部
24 表示部
26 カメラ
101 心拍変動データ取得部
103 感情分析部
104 レポート生成部
202 撮影部
204 ヘモグロビン画像生成部
205 心拍データ生成部
206 心拍変動データ生成部
207 出力部