(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022153233
(43)【公開日】2022-10-12
(54)【発明の名称】情報処理システム
(51)【国際特許分類】
G06Q 50/10 20120101AFI20221004BHJP
A61B 5/16 20060101ALI20221004BHJP
G06N 20/00 20190101ALI20221004BHJP
【FI】
G06Q50/10
A61B5/16 120
G06N20/00
【審査請求】未請求
【請求項の数】19
【出願形態】OL
(21)【出願番号】P 2021132938
(22)【出願日】2021-08-17
(31)【優先権主張番号】P 2021056032
(32)【優先日】2021-03-29
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】110001357
【氏名又は名称】弁理士法人つばさ国際特許事務所
(72)【発明者】
【氏名】佐塚 直也
(72)【発明者】
【氏名】勝又 航生
【テーマコード(参考)】
4C038
5L049
【Fターム(参考)】
4C038PP03
5L049CC11
5L049DD01
(57)【要約】
【課題】お互いの相性をより正確に判断することを可能にする情報処理システムを提供する。
【解決手段】本開示の一側面に係る情報処理システムは、推定部と、表示部とを備えている。推定部は、センサによって得られた対象生体の生体情報および動作情報の少なくとも1つに基づいて対象生体の情動情報を推定する。表示部は、情動情報を表示面に表示する。
【選択図】
図2
【特許請求の範囲】
【請求項1】
センサによって得られた対象生体の生体情報および動作情報の少なくとも1つに基づいて前記対象生体の情動情報を推定する推定部と、
前記情動情報を表示面に表示する表示部と
を備えた
情報処理システム。
【請求項2】
前記センサによるセンシング期間における非音声のコンテキストを取得する取得部を更に備え、
前記表示部は、前記情動情報および前記コンテキストを表示する
請求項1に記載の情報処理システム。
【請求項3】
前記表示部の表示を視認するユーザの顔の動画を、前記表示面に隣接して設けられたレンズを介して取得する撮像部を更に備え、
前記表示部は、前記表示面のうち前記レンズ寄りの箇所に前記コンテキストを表示する
請求項2に記載の情報処理システム。
【請求項4】
前記センサによるセンシング期間における音声のコンテキストを取得する取得部を更に備え、
前記表示部は、前記情動情報および前記コンテキストを表示する
請求項1に記載の情報処理システム。
【請求項5】
前記情動情報は、前記対象生体の覚醒度および快不快の少なくとも一方である
請求項1に記載の情報処理システム。
【請求項6】
前記コンテキストは、前記対象生体の動作および会話の少なくとも一方についての情報である
請求項1に記載の情報処理システム。
【請求項7】
前記情動情報に基づいて振動する振動部を更に備えた
請求項1に記載の情報処理システム。
【請求項8】
第1センサによって得られた第1対象生体の第1生体情報および第1動作情報の少なくとも1つに基づいて前記第1対象生体の情動情報を推定する第1推定部と、
第2センサによって得られた第2対象生体の第2生体情報および第2動作情報の少なくとも1つに基づいて前記第2対象生体の情動情報を推定する第2推定部と、
前記第1推定部で得られた情動情報と、前記第2推定部で得られた情動情報とを表示面に一緒に表示する表示部と
を備えた
情報処理システム。
【請求項9】
前記第1センサおよび前記第2センサによるセンシング期間における非音声のコンテキストを取得する取得部を更に備え、
前記表示部は、前記第1推定部で得られた情動情報と、前記第2推定部で得られた情動情報と、前記取得部で得られたコンテキストとを前記表示面に一緒に表示する
請求項8に記載の情報処理システム。
【請求項10】
前記第1対象生体は、前記表示部の表示を視認するユーザであり、
前記第2対象生体は、コミュニケーション相手である
請求項8に記載の情報処理システム。
【請求項11】
前記ユーザの顔の動画を、前記表示面に隣接して設けられたレンズを介して取得する撮像部を更に備え、
前記表示部は、前記表示面のうち前記レンズ寄りの箇所に前記コンテキストを表示する
請求項10に記載の情報処理システム。
【請求項12】
前記第1センサおよび前記第2センサによるセンシング期間における音声のコンテキストを取得する取得部を更に備え、
前記表示部は、前記情動情報を表示するとともに、前記音声のコンテキストをグラフィカルに表示する
請求項8に記載の情報処理システム。
【請求項13】
前記第1推定部で得られた情動情報は、前記第1対象生体の覚醒度および快不快のいずれか1つであり、
前記第2推定部で得られた情動情報は、前記第2対象生体の覚醒度および快不快のいずれか1つである
請求項8に記載の情報処理システム。
【請求項14】
前記コンテキストは、前記第1対象生体の動作および会話の少なくとも一方、ならびに前記第2対象生体の動作および会話の少なくとも一方の中で、少なくとも1つについての情報である
請求項8に記載の情報処理システム。
【請求項15】
センサによって得られた対象生体の生体情報および動作情報の少なくとも1つに基づいて前記対象生体の情動情報を推定する推定部と、
前記センサによるセンシング期間におけるコンテキストを取得する取得部と、
前記推定部で得られた前記情動情報と、前記取得部で得られた前記コンテキストとを互いに関連付ける関連付け部と
を備えた
情報処理システム。
【請求項16】
前記コンテキストは、非音声の情報であり、
当該情報処理システムは、前記情動情報および前記コンテキストを表示面に一緒に表示する表示部を更に備えた
請求項15に記載の情報処理システム。
【請求項17】
前記コンテキストは、音声の情報であり、
当該情報処理システムは、
当該情報処理システムは、前記情動情報を表示するとともに、前記コンテキストをグラフィカルに表示する表示部を更に備えた
を更に備えた
請求項15に記載の情報処理システム。
【請求項18】
第1センサによって得られた第1対象生体の第1生体情報および第1動作情報の少なくとも1つに基づいて前記第1対象生体の情動情報を推定する第1推定部と、
第2センサによって得られた第2対象生体の第2生体情報および第2動作情報の少なくとも1つに基づいて前記第2対象生体の情動情報を推定する第2推定部と、
前記第1センサおよび前記第2センサによるセンシング期間におけるコンテキストを取得する取得部と、
前記第1推定部で得られた情動情報と、前記第2推定部で得られた情動情報と、前記取得部で得られた前記コンテキストとを互いに関連付ける関連付け部と
を備えた
情報処理システム。
【請求項19】
当該情報処理システムは、前記第1推定部で得られた情動情報と、前記第2推定部で得られた情動情報と、前記コンテキストとを表示面に一緒に表示する表示部を更に備えた
請求項18に記載の情報処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理システムに関する。
【背景技術】
【0002】
複数人が人間関係を構築する際には、お互いが観測可能な情報から相手の人柄や相手との関係構築に必要な要素を類推する。しかし、その類推が不確実であるため、自分に合った人との人間関係の構築は一般に難しい。また、その類推の不確実性により、人間関係構築の機会損失が起こっている。
【0003】
人の行動履歴、趣向情報および属性情報に基づいて、お互いの相性を判断することが、例えば、特許文献1に記載されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかし、人の行動履歴、趣向情報および属性情報は、お互いの相性を正確に判断するのに適した情報とは言えない。従って、お互いの相性をより正確に判断することを可能にする情報処理システムを提供することが望ましい。
【課題を解決するための手段】
【0006】
本開示の第1の側面に係る情報処理システムは、推定部と、表示部とを備えている。推定部は、センサによって得られた対象生体の生体情報および動作情報の少なくとも1つに基づいて対象生体の情動情報を推定する。表示部は、情動情報を表示面に表示する。
【0007】
本開示の第2の側面に係る情報処理システムは、第1推定部と、第2推定部と、表示部とを備えている。第1推定部は、第1センサによって得られた第1対象生体の第1生体情報および第1動作情報の少なくとも1つに基づいて第1対象生体の情動情報を推定する。第2推定部は、第2センサによって得られた第2対象生体の第2生体情報および第2動作情報の少なくとも1つに基づいて第2対象生体の情動情報を推定する。表示部は、第1推定部で得られた情動情報と、第2推定部で得られた情動情報とを表示面に一緒に表示する。
【0008】
本開示の第3の側面に係る情報処理システムは、推定部と、取得部と、関連付け部とを備えている。推定部は、センサによって得られた対象生体の生体情報および動作情報の少なくとも1つに基づいて対象生体の情動情報を推定する。取得部は、センサによるセンシング期間におけるコンテキストを取得する。関連付け部は、推定部で得られた情動情報と、取得部で得られたコンテキストとを互いに関連付ける。
【0009】
本開示の第4の側面に係る情報処理システムは、第1推定部と、第2推定部と、取得部と、関連付け部とを備えている。第1推定部は、第1センサによって得られた第1対象生体の第1生体情報および第1動作情報の少なくとも1つに基づいて第1対象生体の情動情報を推定する。第2推定部は、第2センサによって得られた第2対象生体の第2生体情報および第2動作情報の少なくとも1つに基づいて第2対象生体の情動情報を推定する。取得部は、第1センサおよび第2センサによるセンシング期間におけるコンテキストを取得する。関連付け部は、第1推定部で得られた情動情報と、第2推定部で得られた情動情報と、取得部で得られたコンテキストとを互いに関連付ける。
【0010】
本開示の第1の側面に係る情報処理システムでは、センサによって得られた対象生体の生体情報および動作情報の少なくとも1つに基づいて対象生体の情動情報が推定され、表示面に表示される。これにより、例えば、対象生体がコミュニケーション相手の場合には、ユーザは、相手の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、相手の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。また、例えば、対象生体がユーザ自身の場合には、ユーザは、ユーザ自身の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、ユーザ自身の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手との関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。
【0011】
本開示の第2の側面に係る情報処理システムでは、第1センサによって得られた第1対象生体の第1生体情報および第1動作情報の少なくとも1つに基づいて第1対象生体の情動情報が推定される。さらに、第2センサによって得られた第2対象生体の第2生体情報および第2動作情報の少なくとも1つに基づいて第2対象生体の情動情報が推定される。そして、第1推定部で得られた情動情報と、第2推定部で得られた情動情報とが表示面に一緒に表示される。これにより、例えば、第1対象生体がユーザ自身であり、第2対象生体がコミュニケーション相手である場合には、ユーザは、双方の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、双方の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。
【0012】
本開示の第3の側面に係る情報処理システムでは、センサによって得られた対象生体の生体情報および動作情報の少なくとも1つに基づいて対象生体の情動情報が推定される。さらに、センサによるセンシング期間におけるコンテキストが取得される。そして、推定部で得られた情動情報と、取得部で得られたコンテキストとが互いに関連付けられる。これにより、例えば、対象生体がコミュニケーション相手の場合には、ユーザは、相手の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、相手の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。また、例えば、対象生体がユーザ自身の場合には、ユーザは、ユーザ自身の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、ユーザ自身の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手との関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。
【0013】
本開示の第4の側面に係る情報処理システムでは、第1センサによって得られた第1対象生体の第1生体情報および第1動作情報の少なくとも1つに基づいて第1対象生体の情動情報が推定される。さらに、第2センサによって得られた第2対象生体の第2生体情報および第2動作情報の少なくとも1つに基づいて第2対象生体の情動情報が推定される。さらに、第1センサおよび第2センサによるセンシング期間におけるコンテキストが取得される。そして、第1推定部で得られた情動情報と、第2推定部で得られた情動情報と、取得部で得られたコンテキストとが互いに関連付けられる。これにより、例えば、第1対象生体がユーザ自身であり、第2対象生体がコミュニケーション相手である場合には、ユーザは、双方の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、双方の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。
【図面の簡単な説明】
【0014】
【
図1】本開示の第1の実施の形態に係る情報処理システムの概略構成の一例を表す図である。
【
図2】
図1の電子機器の機能ブロックの一例を表す図である。
【
図3】
図1の電子機器の画面表示の一例を表す図である。
【
図4】
図1の電子機器の画面表示の一例を表す図である。
【
図5】本開示の第2の実施の形態に係る情報処理システムの概略構成の一例を表す図である。
【
図6】
図5の電子機器の機能ブロックの一例を表す図である。
【
図7】
図5のサーバ装置の機能ブロックの一例を表す図である。
【
図8】本開示の第3の実施の形態に係る情報処理装置の概略構成の一例を表す図である。
【
図9】
図2の電子機器の機能ブロックの一変形例を表す図である。
【
図10】
図6の電子機器の機能ブロックの一変形例を表す図である。
【
図11】
図8の情報処理装置の概略構成の一変形例を表す図である。
【
図12】低難易度の問題に対する反応時間の時系列データの一例を表す図である。
【
図13】高難易度の問題に対する反応時間の時系列データの一例を表す図である。
【
図14】低難易度の問題を解いているときのユーザの脳波(α波)の観測データに対してFFT(Fast Fourier Transform)を行うことにより得られるパワースペクトラム密度の一例を表す図である。
【
図15】高難易度の問題を解いているときのユーザの脳波(α波)の観測データに対してFFT(Fast Fourier Transform)を行うことにより得られるパワースペクトラム密度の一例を表す図である。
【
図16】反応時間のばらつきの課題差と、低周波数帯の脳波のパワーのピーク値の課題差との関係の一例を表す図である。
【
図17】反応時間のばらつきの課題差と、正解率の課題差との関係の一例を表す図である。
【
図18】覚醒度の課題差と、低周波数帯の脳波のパワーのピーク値の課題差との関係の一例を表す図である。
【
図19】覚醒度の課題差と、正解率の課題差との関係の一例を表す図である。
【
図20】反応時間のばらつきと、正解率との関係の一例を表す図である。
【
図21】覚醒度と、正解率との関係の一例を表す図である。
【
図22】センサが搭載されたヘッドマウントディスプレイの一例を表す図である。
【
図23】センサが搭載されたヘッドバンドの一例を表す図である。
【
図24】センサが搭載されたヘッドフォンの一例を表す図である。
【
図25】センサが搭載されたイヤフォンの一例を表す図である。
【
図26】センサが搭載された時計の一例を表す図である。
【
図27】センサが搭載された眼鏡の一例を表す図である。
【
図28】脈波のpnn50の課題差と、正解率との関係の一例を表す図である。
【
図29】脈波のpnn50のばらつきの課題差と、正解率との関係の一例を表す図である。
【
図30】低周波数帯の脈波のpnn50のパワーの課題差と、正解率との関係の一例を表す図である。
【
図31】脈波のrmssdの課題差と、正解率との関係の一例を表す図である。
【
図32】脈波のrmssdのばらつきの課題差と、正解率との関係の一例を表す図である。
【
図33】低周波数帯の脈波のrmssdのパワーの課題差と、正解率との関係の一例を表す図である。
【
図34】精神性発汗のSCRの個数のばらつきの課題差と、正解率との関係の一例を表す図である。
【
図35】精神性発汗のSCRの個数の課題差と、正解率との関係の一例を表す図である。
【
図36】反応時間の中央値の課題差と、正解率との関係の一例を表す図である。
【
図37】覚醒度と、正解率との関係の一例を表す図である。
【発明を実施するための形態】
【0015】
以下、本開示を実施するための形態について、図面を参照して詳細に説明する。
【0016】
<1.覚醒度について>
人の覚醒度は、人の集中力に大きく関係している。人は、集中しているとき、集中の対象に対して高い興味・関心を有している。そのため、人の覚醒度を知ることで、人の客観的な興味・関心の度合い(情動)を推定することが可能である。人の覚醒度は、コミュニケーション相手と会話をしている最中の、自身もしくはコミュニケーション相手(以下、「対象生体」と称する。)から得られた生体情報もしくは動作情報に基づいて導出することが可能である。
【0017】
対象生体の覚醒度を導出可能な生体情報としては、例えば、脳波、発汗、脈波、心電図、血流、皮膚温度、表情筋電位、眼電、もしくは唾液に含まれる特定成分についての情報が挙げられる。
【0018】
(脳波)
脳波に含まれるα波は安静時などのリラックスしたときに増大し、脳波に含まれるβ波は能動的な活発な思考をしているときや集中しているときに増大することが知れられている。そこで、例えば、脳波に含まれるα波の周波数帯域のパワースペクトル面積が所定の閾値th1よりも小さく、かつ、脳波に含まれるβ波の周波数帯域のパワースペクトル面積が所定の閾値th2よりも大きいとき、対象生体の覚醒度が高いと推定することが可能である。
【0019】
また、脳波を用いて対象生体の覚醒度を推定する際に、閾値th1,th2の代わりに、機械学習などの推定モデルを用いることも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの脳波のパワースペクトルを教示データとして学習させたモデルである。この推定モデルは、例えば、脳波のパワースペクトルが入力されると、入力された脳波のパワースペクトルに基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0020】
また、脳波を時間軸において複数のセグメントに分割し、分割したセグメントごとにパワースペクトルを導出し、導出したパワースペクトルごとに、α波の周波数帯域のパワースペクトル面積を導出してもよい。このとき、例えば、導出したパワースペクトル面積が所定の閾値thaよりも小さいとき、対象生体の覚醒度が高いと推定することが可能である。
【0021】
また、例えば、導出したパワースペクトル面積に基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときのパワースペクトル面積を教示データとして学習させたモデルである。この推定モデルは、例えば、パワースペクトル面積が入力されると、入力されたパワースペクトル面積に基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0022】
(発汗)
精神性発汗は、ストレスや緊張、不安などの精神的・心理的な問題が原因で、交感神経緊張時に、エクリン腺から放出される発汗である。例えば、発汗計プローブを手掌や足底に装着し,種々の負荷刺激で誘発される手掌または足底の発汗(精神性発汗)を測定することで、交感神経性発汗反応(SSwR)を信号電圧として取得することができる。この信号電圧において、所定の高周波成分や所定の低周波成分の数値が所定の閾値よりも高いとき、対象生体の覚醒度が高いと推定することが可能である。
【0023】
また、例えば、この信号電圧に含まれる所定の高周波成分もしくは所定の低周波成分に基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの信号電圧に含まれる所定の高周波成分もしくは所定の低周波成分を教示データとして学習させたモデルである。この推定モデルは、例えば、所定の高周波成分もしくは所定の低周波成分が入力されると、入力された所定の高周波成分もしくは所定の低周波成分に基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0024】
(脈波、心電図、血流)
心拍数が高いとき、一般的に、覚醒度が高いと言われている。心拍数は、脈波、心電図もしくは血流速度から導出することが可能である。そこで、例えば、脈波、心電図もしくは血流速度から心拍数を導出し、導出した心拍数が所定の閾値よりも大きいとき、対象生体の覚醒度が高いと推定することが可能である。
【0025】
また、例えば、脈波、心電図もしくは血流速度から導出した心拍数に基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの心拍数を教示データとして学習させたモデルである。この推定モデルは、例えば、脈波、心電図もしくは血流速度から導出した心拍数が入力されると、入力された心拍数に基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0026】
また、心拍変動(HRV)が小さいとき、一般的に、副交感神経が劣位となり、覚醒度が高いと言われている。そこで、例えば、脈波、心電図もしくは血流速度から心拍変動(HRV)を導出し、導出した心拍変動(HRV)が所定の閾値よりも小さいとき、対象生体の覚醒度が高いと推定することも可能である。
【0027】
また、例えば、脈波、心電図もしくは血流速度から導出した心拍変動(HRV)に基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの心拍変動(HRV)を教示データとして学習させたモデルである。この推定モデルは、例えば、脈波、心電図もしくは血流速度から導出した心拍変動(HRV)が入力されると、入力された心拍変動(HRV)に基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0028】
(皮膚温度)
皮膚温度が高いとき、一般的に、覚醒度が高いと言われている。皮膚温度は、例えば、サーモグラフィで計測することが可能である。そこで、例えば、サーモグラフィで計測した皮膚温度が所定の閾値よりも高いとき、対象生体の覚醒度が高いと推定することも可能である。
【0029】
また、例えば、皮膚温度に基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの皮膚温度を教示データとして学習させたモデルである。この推定モデルは、例えば、皮膚温度が入力されると、入力された皮膚温度に基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0030】
(表情筋電位)
考え事をしている時に眉をしかめる皺眉筋が高い活動を示すことが知られている。また、幸福な想像をしている時には大頬骨筋が余り変化しないことが知られている。このように、顔の部位に応じて、情動や覚醒度を推定することが可能である。そこで、例えば、所定の部位の表情筋電位を計測し、その計測値が所定の閾値よりも高いとき、対象生体の覚醒度の高低を推定することが可能である。
【0031】
また、例えば、表情筋電位に基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの表情筋電位を教示データとして学習させたモデルである。この推定モデルは、例えば、表情筋電位が入力されると、入力された表情筋電位に基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0032】
(眼電)
眼球の角膜側が正に帯電し、網膜側が負に帯電することを利用して眼球運動を測定する方法が知られている。この計測方法を用いて得られた計測値が眼電図である。例えば、取得した眼電図から眼球運動を推定し、推定した眼球運動が所定の傾向にあるとき、対象生体の覚醒度の高低を推定することが可能である。
【0033】
また、例えば、眼電図に基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの眼電図を教示データとして学習させたモデルである。この推定モデルは、例えば、眼電図が入力されると、入力された眼電図に基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0034】
(唾液)
唾液には、ストレスホルモンの一種であるコルチゾールが含まれている。ストレスを受けると、唾液に含まれるコルチゾールの量が増加することが知られている。そこで、例えば、唾液に含まれるコルチゾールの量が所定の閾値よりも高いとき、対象生体の覚醒度が高いと推定することが可能である。
【0035】
また、例えば、唾液に含まれるコルチゾールの量に基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの唾液に含まれるコルチゾールの量を教示データとして学習させたモデルである。この推定モデルは、例えば、唾液に含まれるコルチゾールの量が入力されると、入力されたコルチゾールの量に基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0036】
一方、対象生体の覚醒度を導出可能な動作情報としては、例えば、顔の表情、音声、瞬き、呼吸、もしくは行動の反応時間についての情報が挙げられる。
【0037】
(顔の表情)
考え事をしている時に眉をしかめたり、幸福な想像をしている時に大頬骨筋が余り変化しないことが知られている。このように、顔の表情に応じて、情動や覚醒度を推定することが可能である。そこで、例えば、カメラで顔を撮影し、それにより得られた動画データに基づいて顔の表情を推定し、推定により得られた顔の表情に応じて、対象生体の覚醒度の高低を推定することが可能である。
【0038】
また、例えば、顔の表情が撮影された動画データに基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの顔の表情が撮影された動画データを教示データとして学習させたモデルである。この推定モデルは、例えば、顔の表情が撮影された動画データが入力されると、入力された動画データに基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0039】
(音声)
音声は、顔の表情と同様に、情動や覚醒度に応じて変化することが知られている。そこで、例えば、マイクで音声データを取得し、それにより得られた音声データに基づいて、対象生体の覚醒度の高低を推定することが可能である。
【0040】
また、例えば、音声データに基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの音声データを教示データとして学習させたモデルである。この推定モデルは、例えば、音声データが入力されると、入力された音声データに基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0041】
(瞬き)
瞬きは、顔の表情と同様に、情動や覚醒度に応じて変化することが知られている。そこで、例えば、カメラで瞬きを撮影し、それにより得られた動画データに基づいて瞬きの頻度を計測し、計測により得られた瞬きの頻度に応じて、対象生体の覚醒度の高低を推定することが可能である。また、例えば、眼電図から瞬きの頻度を計測し、計測により得られた瞬きの頻度に応じて、対象生体の覚醒度の高低を推定することも可能である。
【0042】
また、例えば、瞬きが撮影された動画データ、もしくは、眼電図に基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの瞬きが撮影された動画データ、もしくは、眼電図を教示データとして学習させたモデルである。この推定モデルは、例えば、瞬きが撮影された動画データ、もしくは、眼電図が入力されると、入力された動画データ、もしくは、眼電図に基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0043】
(呼吸)
呼吸は、顔の表情と同様に、情動や覚醒度に応じて変化することが知られている。そこで、例えば、呼吸量もしくは呼吸速度を計測し、それにより得られた計測データに基づいて、対象生体の覚醒度の高低を推定することが可能である。
【0044】
また、例えば、呼吸量もしくは呼吸速度に基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの呼吸量もしくは呼吸速度を教示データとして学習させたモデルである。この推定モデルは、例えば、呼吸量もしくは呼吸速度が入力されると、入力された呼吸量もしくは呼吸速度に基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0045】
(行動の反応時間)
人が複数のタスクを順次処理する際の処理時間(反応時間)や、処理時間(反応時間)のばらつきは、その人の覚醒度に因ることが知られている。そこで、例えば、処理時間(反応時間)や、処理時間(反応時間)のばらつきを計測し、それにより得られた計測データに基づいて、対象生体の覚醒度の高低を推定することが可能である。
【0046】
図12、
図13は、ユーザが多数の問題を連続して解いたときの、ユーザが回答に要した時間(反応時間)をグラフで表したものである。
図12には、難易度が相対的に低い問題を解いたときのグラフが表されており、
図13には、難易度が相対的に高い問題を解いたときのグラフが表されている。
図14は、ユーザが多数の低難易度の問題を連続して解いたときの、ユーザの脳波(α波)の観測データに対してFFT(Fast Fourier Transform)を行うことにより得られるパワースペクトラム密度である。
図15は、ユーザが多数の高難易度の問題を連続して解いたときの、ユーザの脳波(α波)の観測データに対してFFTを行うことにより得られるパワースペクトラム密度である。
図14、
図15には、20秒程度のセグメントで脳波(α波)を計測し、200秒程度の解析窓でFFTを行うことにより得られたグラフが表されている。
【0047】
図12、
図13から、高難易度の問題を解いたときの方が、低難易度の問題を解いたときと比べて、反応時間が長くなるだけでなく、反応時間のばらつきも大きくなることがわかる。
図14、
図15から、高難易度の問題を解いたときの方が、低難易度の問題を解いたときと比べて、0.01Hz付近の脳波(α波)のパワーが大きく、0.02~0.04付近の脳波(α波)のパワーが小さくなることがわかる。本明細書では、0.01Hz付近の脳波(α波)のパワーを適宜、「遅い(低周波数帯の)脳波(α波)の揺らぎ」と称する。
【0048】
図16は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、ユーザの反応時間のばらつき(75%percentile-25%percentile)の課題差Δtv[s]と、高難易度の問題を解いたときと、低難易度の問題を解いたときの、ユーザの遅い脳波(α波)のパワーのピーク値の課題差ΔP[(mV
2/Hz)
2/Hz]との関係の一例を表したものである。課題差Δtv[s]は、高難易度の問題を解いたときの、ユーザの反応時間のばらつきから、低難易度の問題を解いたときの、ユーザの反応時間のばらつきを減算することにより得られるベクトル量である。課題差ΔPは、高難易度の問題を解いたときの、ユーザの遅い脳波(α波)のパワーのピーク値から、低難易度の問題を解いたときの、ユーザの遅い脳波(α波)のパワーのピーク値を減算することにより得られるベクトル量である。なお、反応時間のばらつきの種類は、75%percentile-25%percentileに限られるものではなく、例えば、標準偏差であってもよい。
【0049】
図17は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、ユーザの反応時間のばらつき(75%percentile-25%percentile)の課題差Δtv[s]と、高難易度の問題を解いたときと、低難易度の問題を解いたときの、問題の正解率の課題差ΔR[%]との関係の一例を表したものである。課題差ΔRは、高難易度の問題を解いたときの正解率から、低難易度の問題を解いたときの正解率を減算することにより得られるベクトル量である。なお、反応時間のばらつきの種類は、75%percentile-25%percentileに限られるものではなく、例えば、標準偏差であってもよい。
【0050】
図16、
図17には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図16において、回帰式は、ΔP=a1×Δtv+b1で表されており、
図17において、回帰式は、ΔR=a2×Δtv+b2で表されている。
【0051】
反応時間のばらつきの課題差Δtvが小さいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、反応時間のばらつきの差分が小さいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、問題を解く時間のばらつきの課題差が他のユーザと比べて小さくなる傾向があると言える。一方、反応時間のばらつきの課題差Δtvが大きいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、反応時間のばらつきの差分が大きいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、問題を解く時間のばらつきの課題差が他のユーザと比べて大きくなる傾向があると言える。
【0052】
図16から、反応時間のばらつきの課題差Δtvが小さいとき、遅い脳波(α波)のパワーのピーク値の課題差ΔPが大きくなり、反応時間のばらつきの課題差Δtvが大きいとき、遅い脳波(α波)のパワーのピーク値の課題差ΔPが小さくなることがわかる。このことから、難しい問題でも、簡単な問題と同じ程度の反応時間で回答できる人は、遅い脳波(α波)のパワーのピーク値の課題差ΔPが大きくなる傾向を有することがわかる。逆に、難しい問題で反応時間のばらつきが大きくなる人は、遅い脳波(α波)のパワーのピーク値の課題差ΔPが、問題の難易度に依らず、あまり変化しない傾向を有することがわかる。
【0053】
図17から、反応時間のばらつきの課題差Δtvが大きいとき、問題の正解率の課題差ΔRが小さくなり、反応時間のばらつきの課題差Δtvが小さいとき、問題の正解率の課題差ΔRが大きくなることがわかる。このことから、難しい問題で反応時間のばらつきが大きくなる人は、正解率の課題差ΔRが小さくなる(つまり、難しい問題の正解率が下がる)傾向を有することがわかる。逆に、難しい問題でも反応時間のばらつきが小さい人は、正解率の課題差ΔRが大きくなる(つまり、難しい問題でも、簡単な問題と同程度に正解できる)傾向を有することがわかる。
【0054】
以上のことから、反応時間のばらつきの課題差Δtvが大きいときは、ユーザの認知容量(cognitive resource)が所定の基準よりも低くなっていると推察することが可能となる。また、反応時間のばらつきの課題差Δtvが小さいときは、ユーザの認知容量が所定の基準よりも高くなっていると推察することが可能となる。ユーザの認知容量が所定の基準よりも低くなっている場合、ユーザにとって問題の難易度が高すぎる可能性がある。一方、ユーザの認知容量が所定の基準よりも高くなっている場合、ユーザにとって問題の難易度が低すぎる可能性がある。
【0055】
図18は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、ユーザの覚醒度の課題差Δk[%]と、高難易度の問題を解いたときと、低難易度の問題を解いたときの、ユーザの遅い脳波(α波)のパワーのピーク値の課題差ΔP[(mV
2/Hz)
2/Hz]との関係の一例を表したものである。
図19は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、ユーザの覚醒度の課題差Δk[%]と、高難易度の問題を解いたときと、低難易度の問題を解いたときの、問題の正解率の課題差ΔR[%]との関係の一例を表したものである。課題差Δk[%]は、高難易度の問題を解いたときのユーザの覚醒度から、低難易度の問題を解いたときのユーザの覚醒度を減算することにより得られるベクトル量である。覚醒度は、例えば、上述の、脳波を用いて覚醒度を推定する推定モデルを利用することにより得られる。
【0056】
図18、
図19には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図18において、回帰式は、ΔP=a3×Δk+b3で表されており、
図19において、回帰式は、ΔR=a4×Δk+b4で表されている。
【0057】
図16~
図19から、反応時間のばらつきの課題差Δtvと、覚醒度の課題差Δkとが対応関係にあることがわかる。従って、反応時間のばらつきの課題差Δtvを計測することにより、覚醒度の課題差Δkを推定することが可能であることがわかる。
【0058】
図20は、高難易度の問題を解いたときのユーザの反応時間のばらつき(75%percentile-25%percentile)tv[s]と、高難易度の問題を解いたときの、問題の正解率R[%]との関係の一例を表したものである。
図20には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図20において、回帰式は、R=a5×tv+b5で表されている。
【0059】
図21は、高難易度の問題を解いたときのユーザの覚醒度k[%]と、高難易度の問題を解いたときの問題の正解率のR[%]との関係の一例を表したものである。
図21には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図21において、回帰式は、R=a6×k+b6で表されている。
【0060】
図20、
図21から、反応時間のばらつきtvと、覚醒度kとが対応関係にあることがわかる。従って、反応時間のばらつきtvを計測することにより、覚醒度kを推定することが可能であることがわかる。
【0061】
<2.快・不快について>
人の快・不快は、人の覚醒度と同様、人の集中力に大きく関係している。人は、集中しているとき、集中の対象に対して高い興味・関心を有している。そのため、人の快・不快を知ることで、人の客観的な興味・関心の度合い(情動)を推定することが可能である。人の快・不快は、コミュニケーション相手と会話をしている最中の、自身もしくはコミュニケーション相手(以下、「対象生体」と称する。)から得られた生体情報もしくは動作情報に基づいて導出することが可能である。
【0062】
対象生体の快・不快を導出可能な生体情報としては、例えば、脳波、発汗についての情報が挙げられる。また、対象生体の快・不快を導出可能な動作情報としては、例えば、顔の表情が挙げられる。
【0063】
(脳波)
脳波に含まれるα波の、前頭部の左右差から人の快・不快を推定可能であることが知られている。そこで、例えば、前頭部の左側で得られる脳波に含まれるα波(以下、「左側α波」と称する。)と、前頭部の右側で得られる脳波に含まれるα波(以下、「右側α波」と称する。)とを対比したとする。そのとき、左側α波が右側α波よりも低いとき、対象生体は快を感じており、左側α波が右側α波よりも高いとき、対象生体は不快を感じていると推定することが可能である。
【0064】
また、脳波を用いて対象生体の快・不快を推定する際に、脳波に含まれるα波の、前頭部の左右差を導出する代わりに、機械学習などの推定モデルを用いることも可能である。この推定モデルは、例えば、対象生体が明らかに快を感じているときの脳波に含まれるα波もしくはβ波を教示データとして学習させたモデルである。この推定モデルは、例えば、脳波に含まれるα波もしくはβ波が入力されると、入力されたα波もしくはβ波に基づいて対象生体の快・不快を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0065】
(発汗)
精神性発汗は、ストレスや緊張、不安などの精神的・心理的な問題が原因で、交感神経緊張時に、エクリン腺から放出される発汗である。例えば、発汗計プローブを手掌や足底に装着し,種々の負荷刺激で誘発される手掌または足底の発汗(精神性発汗)を測定することで、交感神経性発汗反応(SSwR)を信号電圧として取得することができる。この信号電圧において、左手から得られた所定の高周波成分や所定の低周波成分の数値が右手から得られた所定の高周波成分や所定の低周波成分の数値よりも高いとき、対象生体は快を感じていると推定することが可能である。また、上記信号電圧において、左手から得られた所定の高周波成分や所定の低周波成分の数値が右手から得られた所定の高周波成分や所定の低周波成分の数値よりも低いとき、対象生体は不快を感じていると推定することが可能である。また、この信号電圧において、左手から得られた振幅値が右手から得られた振幅値よりも高いとき、対象生体は快を感じていると推定することが可能である。また、上記信号電圧において、左手から得られた振幅値が右手から得られた振幅値よりも低いとき、対象生体は不快を感じていると推定することが可能である。
【0066】
また、例えば、この信号電圧に含まれる所定の高周波成分もしくは所定の低周波成分に基づいて対象生体の覚醒度を推定する推定モデルを用いて、対象生体の覚醒度を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの信号電圧に含まれる所定の高周波成分もしくは所定の低周波成分を教示データとして学習させたモデルである。この推定モデルは、例えば、所定の高周波成分もしくは所定の低周波成分が入力されると、入力された所定の高周波成分もしくは所定の低周波成分に基づいて対象生体の覚醒度を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0067】
(顔の表情)
不快な気持ちの時に眉をしかめたり、快の気持ちの時に大頬骨筋が余り変化しないことが知られている。このように、顔の表情に応じて、快・不快を推定することが可能である。そこで、例えば、カメラで顔を撮影し、それにより得られた動画データに基づいて顔の表情を推定し、推定により得られた顔の表情に応じて、対象生体の快・不快を推定することが可能である。
【0068】
また、例えば、顔の表情が撮影された動画データに基づいて対象生体の快・不快を推定する推定モデルを用いて、対象生体の快・不快を推定することも可能である。この推定モデルは、例えば、明らかに覚醒度が高いときの顔の表情が撮影された動画データを教示データとして学習させたモデルである。この推定モデルは、例えば、顔の表情が撮影された動画データが入力されると、入力された動画データに基づいて対象生体の快・不快を推定する。この推定モデルは、例えば、ニューラルネットワークを含む。この学習モデルは、例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワークを含んでいてもよい。
【0069】
・脳波の周波数成分については、例えば、下記の文献に記載されている。
Wang, Xiao-Wei, Dan Nie, and Bao-Liang Lu. "EEG-based emotion recognition using frequency domain features and support vector machines." International conference on neural information processing. Springer, Berlin, Heidelberg, 2011.
・脳波を用いた推定モデルについては、例えば、下記の文献に記載されている。
特願2020-203058
・発汗については、例えば、下記の文献に記載されている。
Jing Zhai, A. B. Barreto, C. Chin and Chao Li, "Realization of stress detection using psychophysiological signals for improvement of human-computer interactions," Proceedings. IEEE SoutheastCon, 2005., Ft. Lauderdale, FL, USA, 2005, pp. 415-420, doi: 10.1109/SECON.2005.1423280.
Boucsein, Wolfram. Electrodermal activity. Springer Science & Business Media, 2012.
・心拍数については、例えば、下記の文献に記載されている。
Veltman, J. A., and A. W. K. Gaillard. "Physiological indices of workload in a simulated flight task." Biological psychology 42.3 (1996): 323-342.
・心拍変動間隔については、例えば、下記の文献に記載されている。
Appelhans, Bradley M., and Linda J. Luecken. "Heart rate variability as an index of regulated emotional responding." Review of general psychology 10.3 (2006): 229-240.
・唾液コルチゾール量については、例えば、下記の文献に記載されている。
Lam, Suman, et al. "Emotion regulation and cortisol reactivity to a social-evaluative speech task." Psychoneuroendocrinology 34.9 (2009): 1355-1362.
・顔の表情については、例えば、下記の文献に記載されている。
Lyons, Michael J., Julien Budynek, and Shigeru Akamatsu. "Automatic classification of single facial images." IEEE transactions on pattern analysis and machine intelligence 21.12 (1999): 1357-1362.
・表情筋については、例えば、下記の文献に記載されている。
Ekman, Paul. "Facial action coding system." (1977).
・瞬き頻度については、例えば、下記の文献に記載されている。
Chen, Siyuan, and Julien Epps. "Automatic classification of eye activity for cognitive load measurement with emotion interference." Computer methods and programs in biomedicine 110.2 (2013): 111-124.
・呼吸量/呼吸速度については、例えば、下記の文献に記載されている。
Zhang Q., Chen X., Zhan Q., Yang T., Xia S. Respiration-based emotion recognition with deep learning. Comput. Ind. 2017;92-93:84-90. doi: 10.1016/j.compind.2017.04.005.
・皮膚表面温度については、例えば、下記の文献に記載されている。
Nakanishi R., Imai-Matsumura K. Facial skin temperature decreases in infants with joyful expression. Infant Behav. Dev. 2008;31:137-144. doi: 10.1016/j.infbeh.2007.09.001.
・マルチモーダルについては、例えば、下記の文献に記載されている。
Choi J.-S., Bang J., Heo H., Park K. Evaluation of Fear Using Nonintrusive Measurement of Multimodal Sensors. Sensors. 2015;15:17507-17533. doi: 10.3390/s150717507.
【0070】
以下に、上述した覚醒度や快・不快の導出アルゴリズムを利用した情報処理システムの実施形態について説明する。
【0071】
<3.第1の実施の形態>
[構成]
本開示の第1の実施の形態に係る情報処理システム100について説明する。
図1は、情報処理システム100の概略構成例を表したものである。情報処理システム100は、対象生体から得られた生体情報および動作情報の少なくとも1つに基づいて対象生体の情動情報を推定するシステムである。本実施の形態では、対象生体は、人である。なお、情報処理システム100において、対象生体は、人に限られるものではない。
【0072】
情報処理システム100は、複数の電子機器10を備えている。複数の電子機器10は、ネットワーク30を介して互いにデータの送受信が可能となるように接続されている。情報処理システム100は、さらに、複数の生体センサ20を備えている。複数の生体センサ20は、電子機器10ごとに1つずつ割り当てられており、各生体センサ20は電子機器10に接続されている。ネットワーク30は、無線方式または有線方式の通信手段であり、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、公衆通信網、専用線等である。
【0073】
生体センサ20は、例えば、対象生体に接触するタイプのセンサであってもよいし、対象生体に非接触のセンサであってもよい。生体センサ20は、例えば、脳波、発汗、脈波、心電図、血流、皮膚温度、表情筋電位、眼電、および唾液に含まれる特定成分のうち、少なくとも1つについての情報(生体情報)を取得するセンサである。生体センサ20は、例えば、顔の表情、音声、瞬き、呼吸、もしくは行動の反応時間のうち、少なくとも1つについての情報(動作情報)を取得するセンサであってもよい。生体センサ20は、例えば、脳波、発汗のうち、少なくとも1つについての情報(生体情報)を取得するセンサであってもよい。生体センサ20は、例えば、顔の表情についての情報(動作情報)を取得するセンサであってもよい。生体センサ20は、例えば、上述の生体情報および上述の動作情報の少なくとも1つの情報を取得するセンサであってもよい。生体センサ20は、取得した情報(上述の生体情報および上述の行動情報の少なくとも1つの情報)を電子機器10に出力する。
【0074】
電子機器10は、例えば、
図2に示したように、カメラ11、マイク12、センサ入力受付部13、ユーザ入力受付部14,信号処理部15、記憶部16、映像信号生成部17a、音声信号生成部17b、映像表示部18aおよびスピーカ18bを備えている。カメラ11が本開示の「撮像部」の一具体例に相当する。信号処理部15が本開示の「推定部」「第1推定部」「第2推定部」「取得部」「関連付け部」の一具体例に相当する。記憶部16が本開示の「記憶部」の一具体例に相当する。映像表示部18aが本開示の「表示部」の一具体例に相当する。
【0075】
カメラ11は、例えば、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを含んで構成されている。カメラ11は、信号処理部15の制御に従って撮像を行い、撮像により得られた画像データを信号処理部15に出力する。カメラ11は、電子機器10の表示を視認するユーザ(対象生体)の顔の動画を、表示面10aに隣接して設けられたカメラレンズ11bを介して取得する。カメラレンズ11bは、例えば、表示面10a上端辺の中央付近に配置されている。マイク12は、例えば、音声を検出するマイクロフォンなどを含んで構成されている。マイク12は、信号処理部15の制御に従って音声検出を行い、音声検出により得られた音声データを信号処理部15に出力する。
【0076】
センサ入力受付部13は、生体センサ20からの入力を受け付け、信号処理部15に出力する。生体センサ20からの入力としては、上述の生体情報および上述の行動情報の少なくとも1つである。センサ入力受付部13は、例えば、生体センサ20と通信を行うことの可能なインターフェースで構成されている。ユーザ入力受付部14は、ユーザからの入力を受け付け、信号処理部15に出力する。ユーザからの入力としては、例えば、対象生体の属性情報(例えば氏名など)や、情動推定開始指示が挙げられる。ユーザ入力受付部14は、例えば、キーボードやマウス、タッチパネルなどの入力インターフェースで構成されている。
【0077】
記憶部16は、例えば、DRAM(Dynamic Random Access Memory)などの揮発性メモリ、または、EEPROM(Electrically Erasable Programmable Read-Only Memory)やフラッシュメモリなどの不揮発性メモリである。記憶部16には、対象生体の情動を推定する情報処理プログラム16aが記憶されている。さらに、記憶部16には、生体情報処理プログラム16aによる処理により得られる識別子16b、情動情報16cおよびコンテキスト16dが記憶される。情報処理プログラム16aにおける処理内容については、後に詳述する。
【0078】
識別子16bは、対象生体を識別するための数値データであり、例えば、対象生体ごとに付与される識別番号となっている。識別子16bは、例えば、対象生体から、対象生体の属性情報が入力されたタイミングで生成される。情動情報16cは、生体センサ20からの入力(検出信号)に基づいて導出される情動についての情報である。情動情報16cは、例えば、
図3に示したように、時間の経過とともに変化する覚醒度および快不快の少なくとも一方についての数値データである。
【0079】
コンテキスト16dは、対象生体の動作および会話の少なくとも一方についての情報である。コンテキスト16dは、例えば、ネットワーク30に接続された複数の電子機器10の各々のユーザのうち、少なくとも一人の動作および会話の少なくとも一方についての情報である。コンテキスト16dは、例えば、
図3に示したように、対象生体の視線についての情報、または、対象生体の音声についての情報である。対象生体の視線についての情報は、カメラ11によって得られた画像データから導出することが可能であり、カメラ11による撮像期間(センシング期間)における非音声のコンテキストに該当する。対象生体の音声についての情報は、マイク12によって得られた音声データから導出することが可能であり、マイク12による音声検出期間(センシング期間)における音声のコンテキストに該当する。
【0080】
映像信号生成部17aは、信号処理部15から入力された画像データを表示するための映像信号を生成し、映像表示部18aに出力する。映像表示部18aは、映像信号生成部17aから入力された映像信号に基づいて映像を表示する。映像表示部18aは、対象生体の情動情報16c(上述の覚醒度および上述の快不快の少なくとも一方)を表示する。音声信号生成部17bは、信号処理部15から入力された音声データを出力するための音声信号を生成し、スピーカ18bに出力する。スピーカ18bは、音声信号生成部17bから入力された音声信号に基づいて音声を出力する。
【0081】
信号処理部15は、例えば、プロセッサによって構成されている。信号処理部15は、記憶部16に記憶された情報処理プログラム16aを実行する。信号処理部15の機能は、例えば、信号処理部15によって情報処理プログラム16aが実行されることによって実現される。信号処理部15は、対象生体の情動推定に必要な一連の処理を実行する。
【0082】
信号処理部15は、生体センサ20によって得られた対象生体の上述の生体情報および上述の動作情報の少なくとも1つに基づいて、対象生体の情動情報16c(上述の覚醒度および上述の快不快の少なくとも一方)を推定する。信号処理部15は、推定により得られた情動情報16cを記憶部16に格納する。信号処理部15は、対象生体の識別子16bを生成し、生成した識別子16bと、推定により得られた情動情報16cとを互いに関連付けて記憶部16に格納する。
【0083】
例えば、Aさん、Bさん、Cさんのそれぞれが、ネットワーク30に接続された電子機器10を利用しているとする。このとき、Cさんが利用する電子機器10(信号処理部15)は、Aさんが利用する電子機器10から、Aさんの情動情報16cと、Aさんの識別子16bとを取得する。さらに、Cさんが利用する電子機器10(信号処理部15)は、Bさんが利用する電子機器10から、Bさんの情動情報16cと、Bさんの識別子16bとを取得する。さらに、Cさんが利用する電子機器10(信号処理部15)は、Cさんが利用する電子機器10に接続された生体センサ20を用いて、Cさんの情動情報16cを取得するとともに、Cさんの識別子16bを取得する。
【0084】
Cさんが利用する電子機器10において、信号処理部15は、例えば、Aさんの情動情報16c、Bさんの情動情報16cおよびCさんの情動情報16cをグラフィカルな情動情報に変換する。信号処理部15は、例えば、Aさんの情動情報16c、Bさんの情動情報16cおよびCさんの情動情報16cを、横軸を時間とし、縦軸を情動情報とするグラフで表現した画像データを生成する。Cさんが利用する電子機器10において、映像表示部18aは、信号処理部15で生成された、グラフィカルな情動情報を含む画像データに基づく映像信号を生成し、映像表示部18aに出力する。映像表示部18aは、例えば、
図3に示したように、Aさん、BさんおよびCさんのそれぞれの情動情報16cを表示面10aに一緒に表示する。
【0085】
信号処理部15は、例えば、カメラ11で得られた画像データ(動画データ)に基づいて、カメラ11による撮像期間(センシング期間)における非音声のコンテキスト16dを取得する。信号処理部15は、例えば、カメラ11で得られた画像データ(動画データ)に基づいて、対象生体の視線についての情報を取得する。信号処理部15は、対象生体の識別子16bと、取得した非音声のコンテキスト16d(例えば、対象生体の視線についての情報)と互いに関連付けて記憶部16に格納する。
【0086】
信号処理部15は、例えば、動画データa1に基づいて、動画データa1に含まれる対象生体の眼球の向きから、表示面10aにおける、対象生体の注視位置を検出する。その結果、対象生体の注視位置が表示面10aにおける、他の電子機器10のユーザが写る動画の表示窓内にあるとき、信号処理部15は、対象生体が他の電子機器10のユーザを注視していることを意味するデータを、対象生体の視線データとして生成する。信号処理部15は、生成した対象生体の視線データを、非音声のコンテキスト16dとして、対象生体の識別子16bと一緒に記憶部16に格納する。
【0087】
例えば、Aさん、Bさん、Cさんのそれぞれが、ネットワーク30に接続された電子機器10を利用しているとする。このとき、Aさんが利用する電子機器10において、カメラ11は、Aさんの顔の動画データ(以下、「動画データa1」と称する。)を取得し、信号処理部15に出力する。信号処理部15は、動画データa1に基づいて、動画データa1に含まれるAさんの眼球の向きから、表示面10aにおける、Aさんの注視位置を検出する。その結果、Aさんの注視位置が表示面10aにおける、Bさんが写る動画の表示窓10a-2内にあるとき、信号処理部15は、AさんがBさんを注視していることを意味するデータを、Aさんの視線データとして生成する。また、Aさんの注視位置が表示面10aにおける、Cさんが写る動画の表示窓10a-3内にあるとき、信号処理部15は、AさんがCさんを注視していることを意味するデータを、Aさんの視線データとして生成する。信号処理部15は、生成したAさんの視線データを、非音声のコンテキスト16dとして、Aさんの識別子16bと一緒に記憶部16に格納する。信号処理部15は、さらに、Aさんの識別子16bと、非音声のコンテキスト16dとを、通信部19およびネットワーク30を介して、BさんおよびCさんの電子機器10に送信する。
【0088】
また、Bさんが利用する電子機器10において、カメラ11は、Bさんの顔の動画データ(以下、「動画データa2」と称する。)を取得し、信号処理部15に出力する。信号処理部15は、動画データa2に基づいて、動画データa2に含まれるBさんの眼球の向きから、表示面10aにおける、Bさんの注視位置を検出する。その結果、Bさんの注視位置が表示面10aにおける、Aさんが写る動画の表示窓10a-1内にあるとき、信号処理部15は、BさんがAさんを注視していることを意味するデータを、Bさんの視線データとして生成する。また、Bさんの注視位置が表示面10aにおける、Cさんが写る動画の表示窓10a-3内にあるとき、信号処理部15は、BさんがCさんを注視していることを意味するデータを、Bさんの視線データとして生成する。信号処理部15は、生成したBさんの視線データを、非音声のコンテキスト16dとして、Bさんの識別子16bと一緒に記憶部16に格納する。信号処理部15は、さらに、Bさんの識別子16bと、非音声のコンテキスト16dとを、通信部19およびネットワーク30を介して、AさんおよびCさんの電子機器10に送信する。
【0089】
また、Cさんが利用する電子機器10において、カメラ11は、Cさんの顔の動画データ(以下、「動画データa3」と称する。)を取得し、信号処理部15に出力する。信号処理部15は、動画データa3に基づいて、動画データa3に含まれるCさんの眼球の向きから、表示面10aにおける、Cさんの注視位置を検出する。その結果、Cさんの注視位置が表示面10aにおける、Aさんが写る動画の表示窓10a-1内にあるとき、信号処理部15は、CさんがAさんを注視していることを意味するデータを、Cさんの視線データとして生成する。また、Cさんの注視位置が表示面10aにおける、Bさんが写る動画の表示窓10a-2内にあるとき、信号処理部15は、CさんがBさんを注視していることを意味するデータを、Cさんの視線データとして生成する。信号処理部15は、生成したCさんの視線データを、非音声のコンテキスト16dとして、Cさんの識別子16bと一緒に記憶部16に格納する。信号処理部15は、さらに、Cさんの識別子16bと、非音声のコンテキスト16dとを、通信部19およびネットワーク30を介して、AさんおよびBさんの電子機器10に送信する。
【0090】
Cさんが利用する電子機器10において、信号処理部15は、Aさんが利用する電子機器10から、Aさんの識別子16bと、Aさんの非音声のコンテキスト16dとを取得する。Cさんが利用する電子機器10において、信号処理部15は、さらに、Bさんが利用する電子機器10から、Bさんの識別子16bと、Bさんの非音声のコンテキスト16dとを取得する。信号処理部15は、Aさんの識別子16bと、Aさんの非音声のコンテキスト16dと、Bさんの識別子16bと、Bさんの非音声のコンテキスト16dとを記憶部16に格納する。Cさんが利用する電子機器10において、信号処理部15は、Aさん、BさんおよびCさんの非音声のコンテキスト16dを、例えば
図3に示したようなグラフィカルなデータに変換する。Cさんが利用する電子機器10において、映像信号生成部17aは、Aさん、BさんおよびCさんのそれぞれの情動情報16cと、Aさん、BさんおよびCさんのグラフィカルな非音声のコンテキスト16dとを含む画像データに基づく映像信号を生成し、映像表示部18aに出力する。映像表示部18aは、例えば、
図3に示したように、Aさん、BさんおよびCさんのそれぞれの情動情報16cと、Aさん、BさんおよびCさんのグラフィカルな非音声のコンテキスト16dを表示面10aに一緒に表示する。
図3には、非音声のコンテキスト16d(視線データ)のグラフィカル表示として、コミュニケーション相手を注視している期間を着色して表現した棒グラフが例示されている。
【0091】
信号処理部15は、例えば、マイク12で得られた音声データに基づいて、マイク12による音声検出期間(センシング期間)における音声のコンテキスト16dを取得する。信号処理部15は、例えば、マイク12で得られた音声データに基づいて、対象生体の音声についての情報を取得する。信号処理部15は、対象生体の識別子16bと、取得した音声のコンテキスト16d(例えば、対象生体の音声についての情報)と互いに関連付けて記憶部16に格納する。
【0092】
例えば、Aさん、Bさん、Cさんのそれぞれが、ネットワーク30に接続された電子機器10を利用しているとする。このとき、Aさんが利用する電子機器10において、マイク12は、Aさんの音声データ(以下、「音声データa2」と称する。)を取得し、信号処理部15に出力する。信号処理部15は、取得したAさんの音声データa2を、音声のコンテキスト16dとして、Aさんの識別子16bと一緒に記憶部16に格納する。信号処理部15は、さらに、Aさんの識別子16bと、音声のコンテキスト16dとを、通信部19およびネットワーク30を介して、BさんおよびCさんの電子機器10に送信する。
【0093】
また、Bさんが利用する電子機器10において、マイク12は、Bさんの音声データ(以下、「音声データb2」と称する。)を取得し、信号処理部15に出力する。信号処理部15は、取得したBさんの音声データb2を、音声のコンテキスト16dとして、Bさんの識別子16bと一緒に記憶部16に格納する。信号処理部15は、さらに、Bさんの識別子16bと、音声のコンテキスト16dとを、通信部19およびネットワーク30を介して、AさんおよびCさんの電子機器10に送信する。
【0094】
また、Cさんが利用する電子機器10において、マイク12は、Cさんの音声データ(以下、「音声データc2」と称する。)を取得し、信号処理部15に出力する。信号処理部15は、取得したCさんの音声データc2を、音声のコンテキスト16dとして、Cさんの識別子16bと一緒に記憶部16に格納する。信号処理部15は、さらに、Cさんの識別子16bと、音声のコンテキスト16dとを、通信部19およびネットワーク30を介して、AさんおよびBさんの電子機器10に送信する。
【0095】
Cさんが利用する電子機器10において、信号処理部15は、Aさんが利用する電子機器10から、Aさんの識別子16bと、Aさんの音声のコンテキスト16dとを取得する。Cさんが利用する電子機器10において、信号処理部15は、さらに、Bさんが利用する電子機器10から、Bさんの識別子16bと、Bさんの音声のコンテキスト16dとを取得する。信号処理部15は、Aさんの識別子16bと、Aさんの音声のコンテキスト16dと、Bさんの識別子16bと、Bさんの音声のコンテキスト16dとを記憶部16に格納する。Cさんが利用する電子機器10において、信号処理部15は、Aさん、BさんおよびCさんの音声のコンテキスト16dを、例えば
図3に示したようなグラフィカルなデータに変換する。Cさんが利用する電子機器10において、映像信号生成部17aは、Aさん、BさんおよびCさんのそれぞれの情動情報16cと、Aさん、BさんおよびCさんのグラフィカルな音声のコンテキスト16dとを含む画像データに基づく映像信号を生成し、映像表示部18aに出力する。映像表示部18aは、例えば、
図3に示したように、Aさん、BさんおよびCさんのそれぞれの情動情報16cと、Aさん、BさんおよびCさんのグラフィカルな音声のコンテキスト16dを表示面10aに一緒に表示する。
図3には、音声のコンテキスト16d(音声データ)のグラフィカル表示として、発話している期間を着色して表現した棒グラフが例示されている。
【0096】
Cさんが利用する電子機器10において、信号処理部15は、音声のコンテキスト16d(音声データ)と、非音声のコンテキスト16d(視線データ)と、情動情報16cとに基づいて、Cさんへのメッセージ10bを生成してもよい。例えば、音声のコンテキスト16d(音声データ)において、Cさんが発話しているときに、非音声のコンテキスト16d(視線データ)において、AさんがCさんを注視しており、さらに、Aさんの情動情報16cが高い値となっているとする。このとき、Aさんは、Cさんに何らかの興味、関心を有していると考えられる。そこで、信号処理部15は、例えば、メッセージ10bとして、例えば、「Aさんがあなたを見ています。Aさんを見て話してみてください」というテキストデータを生成してもよい。
【0097】
なお、Cさんが利用する電子機器10において、信号処理部15は、非音声のコンテキスト16d(視線データ)に基づいて、AさんがCさんを注視した回数やトータルの時間を算出してもよい。このとき、AさんがCさんを注視した回数やトータルの時間が所定の閾値を超えたとき、信号処理部15は、例えば、メッセージ10bとして、例えば、「Aさんはあなたに興味、関心があるようです。Aさんに話しかけてみてください」というテキストデータを生成してもよい。また、信号処理部15は、AさんがCさんを注視した回数やトータルの時間や、BさんがCさんを注視した回数やトータルの時間を算出し、記憶部24に格納してもよい。
【0098】
Cさんが利用する電子機器10において、映像信号生成部17aは、信号処理部15で生成されたメッセージ10bを含む画像データを生成し、映像表示部18aに出力してもよい。このとき、映像表示部18aは、例えば、
図3に示したように、表示面10aのうちカメラレンズ11a寄りの箇所にメッセージ10bを表示してもよい。このとき、Cさんは、目線をカメラレンズ11aの近傍を視認するだけで、メッセージ10bを視認することが可能である。これにより、Cさんはメッセージ10bを視認するために目線を逸らすなどの不自然な動きをする必要がない。その結果、Cさんは、AさんやBさんと自然な会話をしながらメッセージ10bを視認し、メッセージ10bを参考にした動作や会話を行うことが可能となる。
【0099】
Cさんが利用する電子機器10において、音声信号生成部17bは、信号処理部15で生成されたメッセージ10bに対応する音声データを生成し、スピーカ18bに出力してもよい。このとき、スピーカ18bがイヤホンや骨伝導スピーカなどで構成されている場合、スピーカ18bは、音声データに基づいて生成された音声を、AさんやBさんに聞かれることなく、Cさんにだけ音声を出力することができる。これにより、Cさんはメッセージ10bを取得するために目線を逸らすなどの不自然な動きをする必要がない。その結果、Cさんは、AさんやBさんと自然な会話をしながら、スピーカ18bからメッセージ10bを聞き取り、聞き取ったメッセージ10bを参考にした動作や会話を行うことが可能となる。
【0100】
[効果]
次に、情報処理システム100の効果について説明する。
【0101】
本実施の形態では、生体センサ20によって得られた対象生体の情報(生体情報および動作情報の少なくとも1つ)に基づいて対象生体の情動情報16cが推定され、表示面10aに表示される。これにより、例えば、対象生体がコミュニケーション相手の場合には、ユーザは、相手の情動情報16cに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、相手の情動情報16cはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。また、例えば、対象生体がユーザ自身の場合には、ユーザは、ユーザ自身の情動情報16cに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、ユーザ自身の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手との関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。その結果、お互いの相性をより正確に判断することができる。
【0102】
本実施の形態では、生体センサ20によるセンシング期間における非音声のコンテキスト16dと、情動情報16cとが表示される。これにより、例えば、対象生体がコミュニケーション相手の場合には、ユーザは、相手の非音声のコンテキスト16dと、相手の情動情報16cとに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、相手の非音声のコンテキスト16dや、相手の情動情報16cはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。また、例えば、対象生体がユーザ自身の場合には、ユーザは、ユーザ自身の非音声のコンテキスト16dや、ユーザ自身の情動情報16cに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、ユーザ自身の非音声のコンテキスト16dや、ユーザ自身の情動情報16cはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手との関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。その結果、お互いの相性をより正確に判断することができる。
【0103】
本実施の形態では、ユーザの顔の動画を、表示面10aに隣接して設けられたカメラレンズ11bを介して取得するカメラ11が設けられており、表示面10aのうちカメラレンズ11b寄りの箇所にコンテキスト16dが表示される。これにより、ユーザは、目線をカメラレンズ11aの近傍を視認するだけで、メッセージ10bを視認することが可能である。その結果、ユーザはメッセージ10bを視認するために目線を逸らすなどの不自然な動きをする必要がない。従って、ユーザは、他のユーザと自然な会話をしながらメッセージ10bを視認し、メッセージ10bを参考にした動作や会話を行うことが可能となる。
【0104】
本実施の形態では、情動情報16cが表示面10aに表示されるとともに、生体センサ20によるセンシング期間における音声のコンテキスト16dがグラフィカルに表示面10aに表示される。これにより、例えば、対象生体がコミュニケーション相手の場合には、ユーザは、相手の音声のコンテキスト16dと、相手の情動情報16cとに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、相手の音声のコンテキスト16dや、相手の情動情報16cはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。また、例えば、対象生体がユーザ自身の場合には、ユーザは、ユーザ自身の音声のコンテキスト16dや、ユーザ自身の情動情報16cに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、ユーザ自身の音声のコンテキスト16dや、ユーザ自身の情動情報16cはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手との関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。その結果、お互いの相性をより正確に判断することができる。
【0105】
本実施の形態では、自身が利用する電子機器10に接続された生体センサ20によって得られた自身の生体情報および動作情報の少なくとも1つに基づいて自身の情動情報16cが推定される。さらに、他のユーザが利用する電子機器10に接続された生体センサ20によって得られた他のユーザの生体情報および動作情報の少なくとも1つに基づいて他のユーザの情動情報16cが推定される。そして、自身の情動情報16cと、他のユーザの情動情報16cとが表示面10aに一緒に表示される。これにより、例えば、自身は、双方の情動情報16cに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、双方の情動情報16cはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。
【0106】
本実施の形態において、自身が利用する電子機器10に接続された生体センサ20によるセンシング期間における非音声のコンテキスト16dを第1のコンテキストとする。本実施の形態において、他のユーザが利用する電子機器10に接続された生体センサ20に接続された生体センサ20によるセンシング期間における非音声のコンテキスト16dを第2のコンテキストとする。本実施の形態において、自身が利用する電子機器10で得られた自身の情動情報16cを第1の情動情報とし、他のユーザが利用する電子機器10で得られた他のユーザの情動情報16cを第2の情動情報とする。このとき、第1のコンテキスト、第2のコンテキスト、第1の情動情報および第2の情動情報が表示面10aに一緒に表示される。これにより、自身は、これらの情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、これらの情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。その結果、お互いの相性をより正確に判断することができる。
【0107】
本実施の形態では、生体センサ20によって得られた対象生体の情報(生体情報および動作情報の少なくとも1つ)に基づいて対象生体の情動情報16cが推定される。本実施の形態では、さらに、対象生体の情動情報16cと、生体センサ20によるセンシング期間におけるコンテキスト16dとが互いに関連付けられる。これにより、例えば、対象生体がコミュニケーション相手の場合には、ユーザは、相手の情動情報16cに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、相手の情動情報16cはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。また、例えば、対象生体がユーザ自身の場合には、ユーザは、ユーザ自身の情動情報16cに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、ユーザ自身の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手との関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。その結果、お互いの相性をより正確に判断することができる。
【0108】
本実施の形態では、対象生体の情動情報16cと、非音声のコンテキスト16dとが表示面10aに一緒に表示される。これにより、例えば、対象生体がコミュニケーション相手の場合には、ユーザは、相手の情動情報16cと、非音声のコンテキスト16dとに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、相手の情動情報16cや、非音声のコンテキスト16dはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。また、例えば、対象生体がユーザ自身の場合には、ユーザは、ユーザ自身の情動情報16cと、非音声のコンテキスト16dとに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、ユーザ自身の情動情報や、非音声のコンテキスト16dはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手との関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。その結果、お互いの相性をより正確に判断することができる。
【0109】
本実施の形態では、対象生体の情動情報16cと、音声のコンテキスト16dとが表示面10aに一緒に表示される。これにより、例えば、対象生体がコミュニケーション相手の場合には、ユーザは、相手の情動情報16cと、音声のコンテキスト16dとに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、相手の情動情報16cや、音声のコンテキスト16dはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。また、例えば、対象生体がユーザ自身の場合には、ユーザは、ユーザ自身の情動情報16cと、音声のコンテキスト16dとに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、ユーザ自身の情動情報や、音声のコンテキスト16dはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手との関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。その結果、お互いの相性をより正確に判断することができる。
【0110】
<4.第1の実施の形態の変形例>
次に、上記実施の形態に係る情報処理システム100の変形例について説明する。
【0111】
[変形例A]
上記実施の形態に係る情報処理システム100において、生体センサ20、カメラ11、映像表示部18aおよびスピーカ18bが、例えば、アイグラスなどのデバイスに設けられていてもよい。このようにした場合には、例えば、視線を精度よく導出したり、スピーカ18bからの音声がマイク12に拾われ難くしたりすることが可能である。
【0112】
[変形例B]
上記実施の形態に係る情報処理システム100において、ネットワーク30に接続された2つの電子機器10の間だけで互いに通信されていてもよい。このようにした場合、自身が利用する電子機器20において、信号処理部15は、自身の情動情報16cと、自身の識別子16bとを取得する。信号処理部15は、さらに、コミュニケーション相手が利用する電子機器20から、相手の識別子16bと、相手の情動情報16cとを取得する。
【0113】
自身が利用する電子機器20において、信号処理部15は、例えば、自身の情動情報16c、および相手の情動情報16cをグラフィカルな情動情報に変換する。信号処理部15は、例えば、自身の情動情報16c、および相手の情動情報16cを、横軸を時間とし、縦軸を情動情報とするグラフで表現した画像データを生成する。自身が利用する電子機器10において、映像表示部18aは、信号処理部15で生成された、グラフィカルな情動情報を含む画像データに基づく映像信号を生成し、映像表示部18aに出力する。映像表示部18aは、例えば、
図4に示したように、自身および相手のそれぞれの情動情報16cを表示面10aに一緒に表示する。
【0114】
信号処理部15は、例えば、自身の情動情報16cと、相手の情動情報16cとの同期性を計算し、その計算結果を含む画像データを生成してもよい。この場合、映像表示部18aは、信号処理部15で生成された、同期性の計算結果を含む画像データに基づく映像信号を生成し、映像表示部18aに出力する。映像表示部18aは、例えば、
図4に示したように、同期性の計算結果を表示面10aに表示する。
【0115】
信号処理部15は、例えば、自身の情動情報16cと、相手の情動情報16cとを互いに関連付けて記憶部16に格納してもよい。信号処理部15は、例えば、さらに、上述した同期性の計算結果を記憶部16に格納してもよい。このようにした場合には、ユーザは、記憶部16に格納しておいた、自身および相手の情動情報16cや、同期性の計算結果に基づいて、自身の、相手へのコミュニケーション方法の適否について復習することができる。ユーザは、例えば、自身の情動情報16cと相手の情動情報16cとの同期性を見ることで、相手の言葉がお世辞であるのか否かを知ったり、相手が何に興味を持ったかを知ったりすることが可能である。
【0116】
[変形例C]
上記実施の形態およびその変形例に係る情報処理システム100は、例えば、グループ交流や、デート、お見合い、社員教育、オンラインゲームなどに適用することが可能である。
【0117】
例えば、オンライン上の不特定多数の人とチームを組んでクエストをクリアしていくような協力型のオンラインゲームに、上記実施の形態およびその変形例に係る情報処理システム100を適用したとする。このとき、映像表示部18aは、例えば、ゲーム画面と、信号処理部15で生成された、チームメンバーのグラフィカルな情動情報とを含む画像データに基づく映像信号を生成し、映像表示部18aに出力してもよい。このとき、各メンバーは、お互いの情動の上下のタイミングを見ることで,楽しんでいるシーンの共通点や,クエストをクリアしていく連携の相性を知ることができる。
【0118】
<5.第2の実施の形態>
[構成]
次に、本開示の第2の実施の形態に係る情報処理システム200について説明する。
図5は、情報処理システム200の概略構成例を表したものである。情報処理システム200は、上記実施の形態およびその変形例に係る情報処理システム100において、複数の電子機器40とネットワーク30で接続されたサーバ装置50が、情動情報16cを導出する一連の処理を実行するプログラムや推定モデルを備えていてもよい。
【0119】
電子機器40は、例えば、
図6に示したように、上記実施の形態およびその変形例に係る電子機器10において、記憶部16に、情報処理プログラム16aの代わりに、情報処理プログラム16eが格納されたものである。情報処理プログラム16eは、情報処理プログラム16aで実行される一連の処理のうち、情動情報16cを導出する一連の処理を除いた処理を実行するためのプログラムである。
【0120】
サーバ装置50は、例えば、
図7に示したように、通信部51、信号処理部52および記憶部53を備えている。通信部51は、ネットワーク30を介して複数の電子機器40と通信を行うデバイスである。
【0121】
信号処理部52は、例えば、プロセッサによって構成されている。信号処理部52は、記憶部53に記憶された情報処理プログラム16eを実行する。信号処理部52の機能は、例えば、信号処理部52によって情報処理プログラム16eが実行されることによって実現される。信号処理部52は、情動情報16cを導出する一連の処理を実行する。
【0122】
信号処理部52は、各電子機器40から入力された、上述の生体情報および上述の動作情報の少なくとも1つに基づいて、対象生体の情動情報16c(上述の覚醒度および上述の快不快の少なくとも一方)を推定する。信号処理部52は、推定により得られた情動情報16cを、通信部51およびネットワーク30を介して電子機器40に送信する。信号処理部52は、電子機器40から入力された識別子16bと、推定により得られた情動情報16cとを互いに関連付けて記憶部53に格納する。信号処理部52は、情動情報16cを、識別子16bに対応する電子機器40に送信する。信号処理部52は、電子機器40から入力された識別子16bおよびコンテキスト16dを、互いに関連付けて記憶部53に格納する。信号処理部52は、記憶部53から読み出した識別子16bおよびコンテキスト16dを、互いに関連付けて電子機器40に送信する。
【0123】
このように、本変形例では、情動情報16cを導出する一連の処理がサーバ装置50で実行される。これにより、各電子機器40に対して、情動情報16cを導出する一連の処理を実行するプログラムや推定モデルを設ける必要がなくなる。その結果、複数の電子機器40で、サーバ装置50に設けられた、情動情報16cを導出する一連の処理を実行するプログラムや推定モデルを共用することができる。
【0124】
<6.第3の実施の形態>
本開示の第3の実施の形態に係る情報処理装置300について説明する。
図8は、情報処理装置300の概略構成例を表したものである。情報処理装置300は、対象生体から得られた生体情報および動作情報の少なくとも1つに基づいて対象生体の情動情報を推定するシステムである。本実施の形態では、対象生体は、人である。なお、情報処理装置300において、対象生体は、人に限られるものではない。
【0125】
情報処理装置300は、複数の(例えば2つの)デバイス310と、複数の(例えば2つの)デバイス310に接続された信号処理部15と、ユーザ入力受付部14と、記憶部16とを備えている。各デバイス310は、例えば、アイグラスなどのデバイスであり、信号処理部15による制御によって、上記実施の形態およびその変形例に係る電子機器10や、上記実施の形態およびその変形例に係る電子機器40と同様の動作を実行する。つまり、本実施の形態では、1台の情報処理装置300を複数のユーザが共有する。
【0126】
各デバイス310は、例えば、カメラ11、マイク12、センサ入力受付部13、映像信号生成部17a、映像表示部18a、音声信号生成部17bおよびスピーカ18bを有している。例えば、各デバイス310には、生体センサ20が1つずつ取り付けられている。
【0127】
本実施の形態では、上記実施の形態およびその変形例と同様、生体センサ20によって得られた対象生体の情報(生体情報および動作情報の少なくとも1つ)に基づいて対象生体の情動情報16cが推定され、映像表示部18a,18bの表示面に表示される。これにより、例えば、対象生体がコミュニケーション相手の場合には、ユーザは、相手の情動情報16cに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、相手の情動情報16cはお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。また、例えば、対象生体がユーザ自身の場合には、ユーザは、ユーザ自身の情動情報16cに基づいて、相手との関係構築に必要な要素を類推することができる。ここで、ユーザ自身の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手との関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。その結果、お互いの相性をより正確に判断することができる。
【0128】
<7.各実施の形態の変形例>
上記第1の形態およびその変形例において、電子機器10は、例えば、
図9に示したように、振動信号生成部21aおよび振動部21bを備えていてもよい。また、上記第2の実施の形態において、電子機器40は、例えば、
図10に示したように、振動信号生成部21aおよび振動部21bを備えていてもよい。また、上記第3の実施の形態において、各デバイス310は、例えば、
図11に示したように、振動信号生成部21aおよび振動部21bを備えていてもよい。
【0129】
振動信号生成部21aは、信号処理部15から入力された振動データを出力するための振動信号を生成し、振動部21bに出力する。振動部21bは、振動信号生成部21aから入力された振動信号に基づいて振動する。信号処理部15は、例えば、音声のコンテキスト16d(音声データ)、非音声のコンテキスト16d(視線データ)および情動情報16cの少なくとも1つに基づいて、振動データを生成してもよい。このとき、振動部21bは、例えば、音声のコンテキスト16d(音声データ)、非音声のコンテキスト16d(視線データ)および情動情報16cの少なくとも1つに基づいて振動する。このようにした場合には、ユーザは、振動部21bによる振動から、相手との関係構築に必要な要素を類推することができる。その結果、お互いの相性をより正確に判断することができる。
【0130】
なお、上記第3の実施の形態およびその変形例において、ユーザ入力受付部14が、デバイス310ごとに設けられていてもよい。このようにした場合には、ユーザは、ユーザ入力受付部14を使ってデバイス310から情報を入力することができる。その結果、各デバイス310が例えばスマートフォンのようなモバイルデバイスとなっており、ユーザがデバイス310を持ち歩いた場合であっても、デバイス310ごとに情報を入力することができる。
【0131】
上記第1の実施の形態およびその変形例において、複数の電子機器10が、ネットワーク30以外の手段で互いに接続されていてもよい。
【0132】
[変形例G]
上記第1~第3の実施の形態およびそれらの変形例において、生体センサ10を、例えば、
図22に示したようなヘッドマウントディスプレイ(HMD)400に搭載することが可能である。ヘッドマウントディスプレイ400では、例えば、パッド部401およびバンド部402の内面などに、生体センサ10の検出電極403を設けることができる。
【0133】
また、上記第1~第3の実施の形態およびそれらの変形例において、生体センサ10を、例えば、
図23に示したようなヘッドバンド500に搭載することが可能である。ヘッドバンド500では、例えば、頭部と接触するバンド部501,502の内面などに、生体センサ10の検出電極503を設けることができる。
【0134】
また、上記第1~第3の実施の形態およびそれらの変形例において、生体センサ10を、例えば、
図24に示したようなヘッドフォン600に搭載することが可能である。ヘッドフォン600では、例えば、頭部と接触するバンド部601の内面やイヤーパッド602などに、生体センサ10の検出電極603を設けることができる。
【0135】
また、上記第1~第3の実施の形態およびそれらの変形例において、生体センサ10を、例えば、
図25に示したようなイヤフォン700に搭載することが可能である。イヤフォン700では、例えば、耳に挿入するイヤーピース701に、生体センサ10の検出電極702を設けることができる。
【0136】
また、上記第1~第3の実施の形態およびそれらの変形例において、生体センサ10を、例えば、
図26に示したような時計800に搭載することが可能である。時計800では、例えば、時刻等を表示する表示部801の内面や、バンド部802の内面(例えば、バックル部803の内面)などに、生体センサ10の検出電極804を設けることができる。
【0137】
また、上記第1~第3の実施の形態およびそれらの変形例において、生体センサ10を、例えば、
図27に示したような眼鏡900に搭載することが可能である。眼鏡900では、例えば、つる901の内面やなどに、生体センサ10の検出電極902を設けることができる。
【0138】
また、上記第1~第3の実施の形態およびそれらの変形例において、生体センサ10を、例えば、手袋、指輪、鉛筆、ペン、ゲーム機のコントローラなどに搭載することも可能である。
【0139】
[変形例H]
上記第1~第3の実施の形態およびその変形例において、信号処理部15は、例えば、センサで得られた評価対象者の脈波、心電図、血流の電気信号に基づいて、例えば、以下に示したような特徴量を導出し、導出した特徴量に基づいて、評価対象者の覚醒度24eを導出してもよい。
【0140】
(脈波、心電図、血流)
センサで得られた脈波、心電図、血流の電気信号に基づいて得られる、例えば、以下に示したような特徴量を用いることで、評価対象者の覚醒度24eを導出することが可能である。
・1sごとの心拍数
・1sごとの心拍数の、所定の期間(窓)内の平均値
・rmssd(root mean square successive difference):連続する心拍間隔の二乗平均平方根
・pnn50(percentage of adjacent normal-to-normal intervals):連続する心拍間隔が50msを超える個数の比率
・LF:心拍間隔のPSDの0.04~0.15Hz間の面積
・HF:心拍間隔のPSDの0.15~0.4Hz間の面積
・LF/(LF+HF)
・HF/(LF+HF)
・LF/HF
・心拍のエントロピー
・SD1:ポアンカレプロット(心拍間隔のt番目をx軸,t+1番目をy軸にした散布図)のy=xを軸とした方向の標準偏差
・SD2:ポアンカレプロットのy=xの垂直方向を軸とした方向の標準偏差
・SD1/SD2
・SDRR(standard deviation of RR interval):心拍間隔の標準偏差
【0141】
また、上記第1~第3の実施の形態およびその変形例において、信号処理部15は、例えば、センサで得られた評価対象者の精神性発汗の電気信号(EDA: electrodermal activity)に基づいて、例えば、以下に示したような特徴量を導出し、導出した特徴量に基づいて、評価対象者の覚醒度24eを導出してもよい。
【0142】
(精神性発汗)
センサで得られた精神性発汗の電気信号に基づいて得られる、例えば、以下に示したような特徴量を用いることで、評価対象者の覚醒度24eを導出することが可能である。
・1分間に発生するSCR(skin conductance response)の個数
・SCRの振幅
・SCL(skin conductance level)の値
・SCLの変化率
【0143】
例えば、下記文献に記載の方法を用いることで、EDAから、SCRとSCLを分離することが可能である。
Benedek, M., & Kaernbach, C. (2010). A continuous measure of phasic electrodermal activity. Journal of neuroscience methods, 190(1), 80-91.
【0144】
なお、覚醒度24eの導出において、単モーダル(1つの生理指標)を用いてもよいし、複数モーダル(複数の生理指標)の組み合わせを用いてもよい。
【0145】
信号処理部15は、例えば、後述の
図28~
図35に記載の回帰式を用いて、上述の特徴量を導出する。
【0146】
図28は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、脈波のpnn50の課題差Δha[%]と、高難易度の問題を解いたときの正解率R[%]との関係の一例を表したものである。課題差Δhaは、高難易度の問題を解いたときの脈波のpnn50から、低難易度の問題を解いたときの脈波のpnn50を減算することにより得られるベクトル量である。
図28には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図28において、回帰式は、R=a10×Δha+b10で表されている。
【0147】
脈波のpnn50の課題差Δhaが小さいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のpnn50の差分が小さいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、脈波のpnn50の課題差が他のユーザと比べて小さくなる傾向があると言える。一方、脈波のpnn50の課題差Δhaが大きいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のpnn50の差分が大きいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、脈波のpnn50の課題差が他のユーザと比べて大きくなる傾向があると言える。
【0148】
図28から、脈波のpnn50の課題差Δhaが大きいとき、問題の正解率Rが高くなり、脈波のpnn50の課題差Δhaが小さいとき、問題の正解率Rが小さくなることがわかる。このことから、難しい問題で脈波のpnn50が大きくなる人は、正解率Rが高くなる(つまり、難しい問題でも、簡単な問題と同程度に正解できる)傾向を有することがわかる。逆に、難しい問題でも脈波のpnn50が小さい人は、正解率Rが低くなる(つまり、難しい問題の正解率が下がる)傾向を有することがわかる。
【0149】
ここで、上述したように、
図21からは、正解率が高い時は覚醒度が低く、正解率が低い時は覚醒度が高いことが分かる。以上のことから、脈波のpnn50の課題差Δhaが大きいときは、ユーザの覚醒度が所定の基準よりも低くなっていると推察することが可能となる。また、脈波のpnn50の課題差Δhaが小さいときは、ユーザの覚醒度が所定の基準よりも高くなっていると推察することが可能となる。
【0150】
以上のことから、脈波のpnn50の課題差Δhaと、
図21、
図28の回帰式とを用いることで、ユーザの覚醒度を導出することが可能であることがわかる。
【0151】
図29は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、脈波のpnn50のばらつきの課題差Δhb[%]と、高難易度の問題を解いたときの正解率R[%]との関係の一例を表したものである。課題差Δhbは、高難易度の問題を解いたときの脈波のpnn50のばらつきから、低難易度の問題を解いたときの脈波のpnn50のばらつきを減算することにより得られるベクトル量である。
図29には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図29において、回帰式は、R=a11×Δhb+b11で表されている。
【0152】
脈波のpnn50のばらつきの課題差Δhbが小さいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のpnn50のばらつきの差分が小さいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、脈波のpnn50のばらつきの課題差が他のユーザと比べて小さくなる傾向があると言える。一方、脈波のpnn50のばらつきの課題差Δhbが大きいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のpnn50のばらつきの差分が大きいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、脈波のpnn50のばらつきの課題差が他のユーザと比べて大きくなる傾向があると言える。
【0153】
図29から、脈波のpnn50のばらつきの課題差Δhbが大きいとき、問題の正解率Rが高くなり、脈波のpnn50のばらつきの課題差Δhbが小さいとき、問題の正解率Rが小さくなることがわかる。このことから、難しい問題で脈波のpnn50のばらつきが大きくなる人は、正解率Rが高くなる(つまり、難しい問題でも、簡単な問題と同程度に正解できる)傾向を有することがわかる。逆に、難しい問題でも脈波のpnn50のばらつきが小さい人は、正解率Rが低くなる(つまり、難しい問題の正解率が下がる)傾向を有することがわかる。
【0154】
ここで、上述したように、
図21からは、正解率が高い時は覚醒度が低く、正解率が低い時は覚醒度が高いことが分かる。以上のことから、脈波のpnn50のばらつきの課題差Δhbが大きいときは、ユーザの覚醒度が所定の基準よりも低くなっていると推察することが可能となる。また、脈波のpnn50のばらつきの課題差Δhaが小さいときは、ユーザの覚醒度が所定の基準よりも高くなっていると推察することが可能となる。
【0155】
以上のことから、脈波のpnn50のばらつきの課題差Δhbと、
図21、
図29の回帰式とを用いることで、ユーザの覚醒度を導出することが可能であることがわかる。
【0156】
図30は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、脈波のpnn50に対してFFTを行うことにより得られるパワースペクトラムの低周波帯(0.01Hz付近)のパワーの課題差Δhc[ms
-2Hz]と、高難易度の問題を解いたときの正解率R[%]との関係の一例を表したものである。以下では、「脈波のpnn50に対してFFTを行うことにより得られるパワースペクトラムの低周波帯(0.01Hz付近)のパワー」を「脈波のpnn50の低周波帯のパワー」と称するものとする。課題差Δhcは、高難易度の問題を解いたときの脈波のpnn50の低周波帯のパワーから、低難易度の問題を解いたときの脈波のpnn50の低周波帯のパワーを減算することにより得られるベクトル量である。
図30には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図30において、回帰式は、R=a12×Δhc+b12で表されている。
【0157】
脈波のpnn50の低周波帯のパワーの課題差Δhcが大きいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のpnn50の低周波帯のパワーの差分が大きいことを意味する。このような結果が得られたユーザには、高難易度の問題を解いた時に、脈波のpnn50の低周波帯のパワーの課題差が他のユーザと比べて大きくなる傾向があると言える。一方、脈波のpnn50の低周波帯のパワーの課題差Δhcが小さいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のpnn50の低周波帯のパワーの差分が小さいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、脈波のpnn50の低周波帯のパワーの課題差が他のユーザと比べて小さくなる傾向があると言える。
【0158】
図30から、脈波のpnn50の低周波帯のパワーの課題差Δhcが大きいとき、問題の正解率Rが高くなり、脈波のpnn50の低周波帯のパワーの課題差Δhcが小さいとき、問題の正解率Rが低くなることがわかる。このことから、難しい問題でも脈波のpnn50の低周波帯のパワーが大きい人は、正解率Rが高くなる(つまり、難しい問題でも、簡単な問題と同程度に正解できる)傾向を有することがわかる。逆に、難しい問題で脈波のpnn50の低周波帯のパワーが小さくなる人は、正解率Rが低くなる(つまり、難しい問題の正解率が下がる)傾向を有することがわかる。
【0159】
ここで、上述したように、
図21からは、正解率が高い時は覚醒度が低く、正解率が低い時は覚醒度が高いことが分かる。以上のことから、脈波のpnn50の低周波帯のパワーの課題差Δhcが小さいときは、ユーザの覚醒度が所定の基準よりも低くなっていると推察することが可能となる。また、脈波のpnn50の低周波帯のパワーの課題差Δhcが大きいときは、ユーザの覚醒度が所定の基準よりも高くなっていると推察することが可能となる。
【0160】
以上のことから、脈波のpnn50の低周波帯のパワーの課題差Δhcと、
図21、
図30の回帰式とを用いることで、ユーザの覚醒度を導出することが可能であることがわかる。
【0161】
図31は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、脈波のrmssdの課題差Δhd[ms]と、高難易度の問題を解いたときの正解率R[%]との関係の一例を表したものである。課題差Δhdは、高難易度の問題を解いたときの脈波のrmssdから、低難易度の問題を解いたときの脈波のrmssdを減算することにより得られるベクトル量である。
図31には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図31において、回帰式は、R=a13×Δhd+b13で表されている。
【0162】
脈波のrmssdの課題差Δhdが大きいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のrmssdの差分が大きいことを意味する。このような結果が得られたユーザには、高難易度の問題を解いた時に、脈波のrmssdの課題差が他のユーザと比べて大きくなる傾向があると言える。一方、脈波のrmssdの課題差Δhdが小さいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のrmssdの差分が小さいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、脈波のrmssdの課題差が他のユーザと比べて小さくなる傾向があると言える。
【0163】
図31から、脈波のrmssdの課題差Δhdが大きいとき、問題の正解率Rが高くなり、脈波のrmssdの課題差Δhdが小さいとき、問題の正解率Rが小さくなることがわかる。このことから、難しい問題でも脈波のrmssdが大きい人は、正解率Rが高くなる(つまり、難しい問題でも、簡単な問題と同程度に正解できる)傾向を有することがわかる。逆に、難しい問題で脈波のrmssdが小さくなる人は、正解率Rが低くなる(つまり、難しい問題の正解率が下がる)傾向を有することがわかる。
【0164】
ここで、上述したように、
図21からは、正解率が高い時は覚醒度が低く、正解率が低い時は覚醒度が高いことが分かる。以上のことから、脈波のrmssdの課題差Δhdが小さいときは、ユーザの覚醒度が所定の基準よりも低くなっていると推察することが可能となる。また、脈波のrmssdの課題差Δhdが負方向に大きいときは、ユーザの覚醒度が所定の基準よりも高くなっていると推察することが可能となる。
【0165】
以上のことから、脈波のrmssdの課題差Δhdと、
図21、
図31の回帰式とを用いることで、ユーザの覚醒度を導出することが可能であることがわかる。
【0166】
図32は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、脈波のrmssdのばらつきの課題差Δhe[ms]と、高難易度の問題を解いたときの正解率R[%]との関係の一例を表したものである。課題差Δheは、高難易度の問題を解いたときの脈波のrmssdのばらつきから、低難易度の問題を解いたときの脈波のrmssdのばらつきを減算することにより得られるベクトル量である。
図32には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図32において、回帰式は、R=a14×Δhe+b14で表されている。
【0167】
脈波のrmssdのばらつきの課題差Δheが大きいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のrmssdのばらつきの差分が大きいことを意味する。このような結果が得られたユーザには、高難易度の問題を解いた時に、脈波のrmssdのばらつきの課題差が他のユーザと比べて大きくなる傾向があると言える。一方、脈波のrmssdのばらつきの課題差Δheが小さいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のrmssdのばらつきの差分が小さいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、脈波のrmssdのばらつきの課題差が他のユーザと比べて小さくなる傾向があると言える。
【0168】
図32から、脈波のrmssdのばらつきの課題差Δheが大きいとき、問題の正解率Rが高くなり、脈波のrmssdのばらつきの課題差Δheが小さいとき、問題の正解率Rが小さくなることがわかる。このことから、難しい問題でも脈波のrmssdのばらつきが大きい人は、正解率Rが高くなる(つまり、難しい問題でも、簡単な問題と同程度に正解できる)傾向を有することがわかる。逆に、難しい問題で脈波のrmssdのばらつきが小さくなる人は、正解率Rが低くなる(つまり、難しい問題の正解率が下がる)傾向を有することがわかる。
【0169】
ここで、上述したように、
図21からは、正解率が高い時は覚醒度が低く、正解率が低い時は覚醒度が高いことが分かる。以上のことから、脈波のrmssdのばらつきの課題差Δheが小さいときは、ユーザの覚醒度が所定の基準よりも低くなっていると推察することが可能となる。また、脈波のrmssdのばらつきの課題差Δheが負方向に大きいときは、ユーザの覚醒度が所定の基準よりも高くなっていると推察することが可能となる。
【0170】
以上のことから、脈波のrmssdのばらつきの課題差Δheと、
図21、
図32の回帰式とを用いることで、ユーザの覚醒度を導出することが可能であることがわかる。
【0171】
図33は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、脈波のrmssdに対してFFTを行うことにより得られるパワースペクトラムの低周波帯(0.01Hz付近)のパワーの課題差Δhf[ms
2/Hz]と、高難易度の問題を解いたときの正解率R[%]との関係の一例を表したものである。以下では、「脈波のrmssdに対してFFTを行うことにより得られるパワースペクトラムの低周波帯(0.01Hz付近)のパワー」を「脈波のrmssdの低周波帯のパワー」と称するものとする。課題差Δhfは、高難易度の問題を解いたときの脈波のrmssdの低周波帯のパワーから、低難易度の問題を解いたときの脈波のrmssdの低周波帯のパワーを減算することにより得られるベクトル量である。
図33には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図33において、回帰式は、R=a15×Δhf+b15で表されている。
【0172】
脈波のrmssdの低周波帯のパワーの課題差Δhfが大きいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のrmssdの低周波帯のパワーの差分が大きいことを意味する。このような結果が得られたユーザには、高難易度の問題を解いた時に、脈波のrmssdの低周波帯のパワーの課題差が他のユーザと比べて大きくなる傾向があると言える。一方、脈波のrmssdの低周波帯のパワーの課題差Δhfが小さいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、脈波のrmssdの低周波帯のパワーの差分が小さいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、脈波のrmssdの低周波帯のパワーの課題差が他のユーザと比べて小さくなる傾向があると言える。
【0173】
図33から、脈波のrmssdの低周波帯のパワーの課題差Δhfが大きいとき、問題の正解率Rが高くなり、脈波のrmssdの低周波帯のパワーの課題差Δhfが小さいとき、問題の正解率Rが小さくなることがわかる。このことから、難しい問題でも脈波のrmssdの低周波帯のパワーが大きい人は、正解率Rが高くなる(つまり、難しい問題でも、簡単な問題と同程度に正解できる)傾向を有することがわかる。逆に、難しい問題で脈波のrmssdの低周波帯のパワーが小さくなる人は、正解率Rが低くなる(つまり、難しい問題の正解率が下がる)傾向を有することがわかる。
【0174】
ここで、上述したように、
図21からは、正解率が高い時は覚醒度が低く、正解率が低い時は覚醒度が高いことが分かる。以上のことから、脈波のrmssdの低周波帯のパワーの課題差Δhfが小さいときは、ユーザの覚醒度が所定の基準よりも低くなっていると推察することが可能となる。また、脈波のrmssdの低周波帯のパワーの課題差Δhfが負方向に大きいときは、ユーザの覚醒度が所定の基準よりも高くなっていると推察することが可能となる。
【0175】
以上のことから、脈波のrmssdの低周波帯のパワーの課題差Δhfと、
図21、
図33の回帰式とを用いることで、ユーザの覚醒度を導出することが可能であることがわかる。
【0176】
図34は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、精神性発汗のSCRの個数のばらつきの課題差Δhg[min]と、高難易度の問題を解いたときの正解率R[%]との関係の一例を表したものである。課題差Δhgは、高難易度の問題を解いたときの精神性発汗のSCRの個数のばらつきから、低難易度の問題を解いたときの精神性発汗のSCRの個数のばらつきを減算することにより得られるベクトル量である。
図34には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図34において、回帰式は、R=a16×Δhg+b16で表されている。
【0177】
精神性発汗のSCRの個数のばらつきの課題差Δhgが大きいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、精神性発汗のSCRの個数のばらつきの差分が大きいことを意味する。このような結果が得られたユーザには、高難易度の問題を解いた時に、精神性発汗のSCRの個数のばらつきの課題差が他のユーザと比べて大きくなる傾向があると言える。一方、精神性発汗のSCRの個数のばらつきの課題差Δhgが小さいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、精神性発汗のSCRの個数のばらつきの差分が小さいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、精神性発汗のSCRの個数のばらつきの課題差が他のユーザと比べて小さくなる傾向があると言える。
【0178】
図34から、精神性発汗のSCRの個数のばらつきの課題差Δhgが大きいとき、問題の正解率Rが高くなり、精神性発汗のSCRの個数のばらつきの課題差Δhgが小さいとき、問題の正解率Rが小さくなることがわかる。このことから、難しい問題でも精神性発汗のSCRの個数のばらつきが大きい人は、正解率Rが高くなる(つまり、難しい問題でも、簡単な問題と同程度に正解できる)傾向を有することがわかる。逆に、難しい問題で精神性発汗のSCRの個数のばらつきが小さくなる人は、正解率Rが低くなる(つまり、難しい問題の正解率が下がる)傾向を有することがわかる。
【0179】
ここで、上述したように、
図21からは、正解率が高い時は覚醒度が低く、正解率が低い時は覚醒度が高いことが分かる。以上のことから、精神性発汗のSCRの個数のばらつきの課題差Δhgが小さいときは、ユーザの覚醒度が所定の基準よりも低くなっていると推察することが可能となる。また、精神性発汗のSCRの個数のばらつきの課題差Δhgが負方向に大きいときは、ユーザの覚醒度が所定の基準よりも高くなっていると推察することが可能となる。
【0180】
以上のことから、精神性発汗のSCRの個数のばらつきの課題差Δhgfと、
図21、
図34の回帰式とを用いることで、ユーザの覚醒度を導出することが可能であることがわかる。
【0181】
図35は、高難易度の問題を解いたときと、低難易度の問題を解いたときの、精神性発汗のSCRの個数の課題差Δhh[ms2/Hz]と、高難易度の問題を解いたときの正解率R[%]との関係の一例を表したものである。課題差Δhhは、高難易度の問題を解いたときの精神性発汗のSCRの個数から、低難易度の問題を解いたときの精神性発汗のSCRの個数を減算することにより得られるベクトル量である。
図35には、ユーザごとのデータがプロットされており、ユーザ全体の特徴が回帰式(回帰直線)で表されている。
図35において、回帰式は、R=a17×Δhh+b17で表されている。
【0182】
精神性発汗のSCRの個数の課題差Δhhが大きいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、精神性発汗のSCRの個数の差分が大きいことを意味する。このような結果が得られたユーザには、高難易度の問題を解いた時に、精神性発汗のSCRの個数の課題差が他のユーザと比べて大きくなる傾向があると言える。一方、精神性発汗のSCRの個数の課題差Δhhが小さいということは、高難易度の問題を解いたときと、低難易度の問題を解いたときとで、精神性発汗のSCRの個数の差分が小さいことを意味する。このような結果が得られたユーザには、問題の難易度が高くなると、精神性発汗のSCRの個数の課題差が他のユーザと比べて小さくなる傾向があると言える。
【0183】
図35から、精神性発汗のSCRの個数の課題差Δhhが大きいとき、問題の正解率Rが高くなり、精神性発汗のSCRの個数の課題差Δhhが小さいとき、問題の正解率Rが低くなることがわかる。このことから、難しい問題でも精神性発汗のSCRの個数が大きい人は、正解率Rが高くなる(つまり、難しい問題でも、簡単な問題と同程度に正解できる)傾向を有することがわかる。逆に、難しい問題で精神性発汗のSCRの個数が小さくなる人は、正解率Rが低くなる(つまり、難しい問題の正解率が下がる)傾向を有することがわかる。
【0184】
ここで、上述したように、
図21からは、正解率が高い時は覚醒度が低く、正解率が低い時は覚醒度が高いことが分かる。以上のことから、精神性発汗のSCRの個数の課題差Δhhが小さいときは、ユーザの覚醒度が所定の基準よりも低くなっていると推察することが可能となる。また、精神性発汗のSCRの個数の課題差Δhhが負方向に大きいときは、ユーザの覚醒度が所定の基準よりも高くなっていると推察することが可能となる。
【0185】
以上のことから、精神性発汗のSCRの個数の課題差Δhhと、
図21、
図35の回帰式とを用いることで、ユーザの覚醒度を導出することが可能であることがわかる。
【0186】
また、上記第1~第3の実施の形態およびその変形例に係る回帰式において、例えば、
図36に示したように、反応時間のばらつきの課題差Δtvの代わりに、反応時間の中央値(median)の課題差Δtvが用いられてもよい。
【0187】
また、上記第1~第3の実施の形態およびその変形例において、回帰式は、直線(回帰直線)に限られるものではなく、例えば、曲線(回帰曲線)になっていてもよい。曲線(回帰曲線)は、例えば、2次関数となっていてもよい。覚醒度k[%]と正解率R[%]との関係を規定した回帰式が、例えば、
図37に示したように、2次関数(R=a×k2+bk+c)で規定されていてもよい。
【0188】
また、例えば、本開示は以下のような構成を取ることができる。
(1)
センサによって得られた対象生体の生体情報および動作情報の少なくとも1つに基づいて前記対象生体の情動情報を推定する推定部と、
前記情動情報を表示面に表示する表示部と
を備えた
情報処理システム。
(2)
前記センサによるセンシング期間における非音声のコンテキストを取得する取得部を更に備え、
前記表示部は、前記情動情報および前記コンテキストを表示する
(1)に記載の情報処理システム。
(3)
前記表示部の表示を視認するユーザの顔の動画を、前記表示面に隣接して設けられたレンズを介して取得する撮像部を更に備え、
前記表示部は、前記表示面のうち前記レンズ寄りの箇所に前記コンテキストを表示する
(2)に記載の情報処理システム。
(4)
前記センサによるセンシング期間における音声のコンテキストを取得する取得部を更に備え、
前記表示部は、前記情動情報および前記コンテキストを表示する
(1)に記載の情報処理システム。
(5)
前記情動情報は、前記対象生体の覚醒度および快不快の少なくとも一方である
(1)ないし(4)のいずれか1つに記載の情報処理システム。
(6)
前記コンテキストは、前記対象生体の動作および会話の少なくとも一方についての情報である
(1)ないし(5)のいずれか1つに記載の情報処理システム。
(7)
前記情動情報に基づいて振動する振動部を更に備えた
(1)ないし(6)のいずれか1つに記載の情報処理システム。
(8)
第1センサによって得られた第1対象生体の第1生体情報および第1動作情報の少なくとも1つに基づいて前記第1対象生体の情動情報を推定する第1推定部と、
第2センサによって得られた第2対象生体の第2生体情報および第2動作情報の少なくとも1つに基づいて前記第2対象生体の情動情報を推定する第2推定部と、
前記第1推定部で得られた情動情報と、前記第2推定部で得られた情動情報とを表示面に一緒に表示する表示部と
を備えた
情報処理システム。
(9)
前記第1センサおよび前記第2センサによるセンシング期間における非音声のコンテキストを取得する取得部を更に備え、
前記表示部は、前記第1推定部で得られた情動情報と、前記第2推定部で得られた情動情報と、前記取得部で得られたコンテキストとを前記表示面に一緒に表示する
(8)に記載の情報処理システム。
(10)
前記第1対象生体は、前記表示部の表示を視認するユーザであり、
前記第2対象生体は、コミュニケーション相手である
(8)または(9)に記載の情報処理システム。
(11)
前記ユーザの顔の動画を、前記表示面に隣接して設けられたレンズを介して取得する撮像部を更に備え、
前記表示部は、前記表示面のうち前記レンズ寄りの箇所に前記コンテキストを表示する
(10)に記載の情報処理システム。
(12)
前記第1センサおよび前記第2センサによるセンシング期間における音声のコンテキストを取得する取得部を更に備え、
前記表示部は、前記情動情報を表示するとともに、前記音声のコンテキストをグラフィカルに表示する
(8)に記載の情報処理システム。
(13)
前記第1推定部で得られた情動情報は、前記第1対象生体の覚醒度および快不快のいずれか1つであり、
前記第2推定部で得られた情動情報は、前記第2対象生体の覚醒度および快不快のいずれか1つである
(8)ないし(12)のいずれか1つに記載の情報処理システム。
(14)
前記コンテキストは、前記第1対象生体の動作および会話の少なくとも一方、ならびに前記第2対象生体の動作および会話の少なくとも一方の中で、少なくとも1つについての情報である
(8)ないし(13)のいずれか1つに記載の情報処理システム。
(15)
センサによって得られた対象生体の生体情報および動作情報の少なくとも1つに基づいて前記対象生体の情動情報を推定する推定部と、
前記センサによるセンシング期間におけるコンテキストを取得する取得部と、
前記推定部で得られた前記情動情報と、前記取得部で得られた前記コンテキストとを互いに関連付ける関連付け部と
を備えた
情報処理システム。
(16)
前記コンテキストは、非音声の情報であり、
当該情報処理システムは、前記情動情報および前記コンテキストを表示面に一緒に表示する表示部を更に備えた
(15)に記載の情報処理システム。
(17)
前記コンテキストは、音声の情報であり、
当該情報処理システムは、前記情動情報を表示するとともに、前記コンテキストをグラフィカルに表示する表示部を更に備えた
を更に備えた
(15)に記載の情報処理システム。
(18)
第1センサによって得られた第1対象生体の第1生体情報および第1動作情報の少なくとも1つに基づいて前記第1対象生体の情動情報を推定する第1推定部と、
第2センサによって得られた第2対象生体の第2生体情報および第2動作情報の少なくとも1つに基づいて前記第2対象生体の情動情報を推定する第2推定部と、
前記第1センサおよび前記第2センサによるセンシング期間におけるコンテキストを取得する取得部と、
前記第1推定部で得られた情動情報と、前記第2推定部で得られた情動情報と、前記取得部で得られた前記コンテキストとを互いに関連付ける関連付け部と
を備えた
情報処理システム。
(19)
当該情報処理システムは、前記第1推定部で得られた情動情報と、前記第2推定部で得られた情動情報と、前記コンテキストとを表示面に一緒に表示する表示部を更に備えた
(18)に記載の情報処理システム。
【0189】
本開示の第1の側面に係る情報処理システムでは、センサによって得られた対象生体の生体情報および動作情報の少なくとも1つに基づいて対象生体の情動情報が推定され、表示面に表示される。これにより、例えば、対象生体がコミュニケーション相手の場合には、ユーザは、相手の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、相手の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。また、例えば、対象生体がユーザ自身の場合には、ユーザは、ユーザ自身の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、ユーザ自身の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手との関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。従って、お互いの相性をより正確に判断することが可能である。
【0190】
本開示の第2の側面に係る情報処理システムでは、第1センサによって得られた第1対象生体の第1生体情報および第1動作情報の少なくとも1つに基づいて第1対象生体の情動情報が推定される。さらに、第2センサによって得られた第2対象生体の第2生体情報および第2動作情報の少なくとも1つに基づいて第2対象生体の情動情報が推定される。そして、第1推定部で得られた情動情報と、第2推定部で得られた情動情報とが表示面に一緒に表示される。これにより、例えば、第1対象生体がユーザ自身であり、第2対象生体がコミュニケーション相手である場合には、ユーザは、双方の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、双方の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。従って、お互いの相性をより正確に判断することが可能である。
【0191】
本開示の第3の側面に係る情報処理システムでは、センサによって得られた対象生体の生体情報および動作情報の少なくとも1つに基づいて対象生体の情動情報が推定される。さらに、センサによるセンシング期間におけるコンテキストが取得される。そして、推定部で得られた情動情報と、取得部で得られたコンテキストとが互いに関連付けられる。これにより、例えば、対象生体がコミュニケーション相手の場合には、ユーザは、相手の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、相手の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。また、例えば、対象生体がユーザ自身の場合には、ユーザは、ユーザ自身の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、ユーザ自身の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手との関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。従って、お互いの相性をより正確に判断することが可能である。
【0192】
本開示の第4の側面に係る情報処理システムでは、第1センサによって得られた第1対象生体の第1生体情報および第1動作情報の少なくとも1つに基づいて第1対象生体の情動情報が推定される。さらに、第2センサによって得られた第2対象生体の第2生体情報および第2動作情報の少なくとも1つに基づいて第2対象生体の情動情報が推定される。さらに、第1センサおよび第2センサによるセンシング期間におけるコンテキストが取得される。そして、第1推定部で得られた情動情報と、第2推定部で得られた情動情報と、取得部で得られたコンテキストとが互いに関連付けられる。これにより、例えば、第1対象生体がユーザ自身であり、第2対象生体がコミュニケーション相手である場合には、ユーザは、双方の情動情報に基づいて、相手との関係構築に必要な要素を類推することができる。ここで、双方の情動情報はお互いのコミュニケーションの過程で得られる客観的な情報である。従って、相手の行動履歴、趣向情報および属性情報に基づいて、相手の人柄や関係構築に必要な要素を類推する場合と比べて、より正確な類推を行うことが可能である。従って、お互いの相性をより正確に判断することが可能である。
【符号の説明】
【0193】
10…電子機器、10a…表示面、10b…メッセージ、11b…カメラレンズ、11…カメラ、12…マイク、13…センサ入力受付部、14…ユーザ入力受付部、15…信号処理部、16…記憶部、16a…情報処理プログラム、16b…識別子、16c…情動情報、16d…コンテキスト、16e‥情報処理プログラム、17a…映像信号生成部、17b…音声信号生成部、18a…映像表示部、18b…スピーカ、19…通信部、20…生体センサ、21a…振動信号生成部、21b…振動部、30…ネットワーク、40…電子機器、50…サーバ装置、51…通信部、52…信号処理部、53…記憶部、53a…情報処理プログラム、100,200…情報処理システム、300…情報処理装置、310…デバイス、400…ヘッドマウントディスプレイ、401…パッド部、402…バンド部、403…検出電極、500…ヘッドバンド、501,502…バンド部、503…検出電極、600…ヘッドフォン、601…バンド部、602…イヤーパッド、603…検出電極、700…イヤフォン、701…イヤーピース、702…検出電極、800…時計、801…表示部、802…バンド部、803…バックル部、804…検出電極、900…眼鏡、901…つる、902…検出電極。