IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 国立大学法人 千葉大学の特許一覧

<>
  • 特開-情報処理装置及び情報処理方法 図1
  • 特開-情報処理装置及び情報処理方法 図2
  • 特開-情報処理装置及び情報処理方法 図3A
  • 特開-情報処理装置及び情報処理方法 図3B
  • 特開-情報処理装置及び情報処理方法 図3C
  • 特開-情報処理装置及び情報処理方法 図3D
  • 特開-情報処理装置及び情報処理方法 図4
  • 特開-情報処理装置及び情報処理方法 図5A
  • 特開-情報処理装置及び情報処理方法 図5B
  • 特開-情報処理装置及び情報処理方法 図6
  • 特開-情報処理装置及び情報処理方法 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024168619
(43)【公開日】2024-12-05
(54)【発明の名称】情報処理装置及び情報処理方法
(51)【国際特許分類】
   G06N 3/09 20230101AFI20241128BHJP
   G06N 20/00 20190101ALI20241128BHJP
【FI】
G06N3/09
G06N20/00 130
【審査請求】未請求
【請求項の数】4
【出願形態】OL
(21)【出願番号】P 2023085457
(22)【出願日】2023-05-24
(71)【出願人】
【識別番号】304021831
【氏名又は名称】国立大学法人千葉大学
(74)【代理人】
【識別番号】100120031
【弁理士】
【氏名又は名称】宮嶋 学
(74)【代理人】
【識別番号】100103263
【弁理士】
【氏名又は名称】川崎 康
(74)【代理人】
【識別番号】100118876
【弁理士】
【氏名又は名称】鈴木 順生
(72)【発明者】
【氏名】小室 信喜
(72)【発明者】
【氏名】紅林 勲
(57)【要約】
【課題】複数の環境データの時間変化に基づいて将来の人間の感情を精度よく予測できる。
【解決手段】情報処理装置は、第1期間内の、少なくとも複数の環境の時間変化と、感情の時間変化との対応関係を示す教師データに基づいて、将来の予測時刻での感情を予測する予測モデルを機械学習により構築する学習部と、前記予測時刻の直前の第2期間内の少なくとも前記複数の環境の時間変化のデータを取得する取得部と、前記取得部で取得された少なくとも前記複数の環境の時間変化のデータを前記予測モデルに入力して、前記予測時刻での感情を予測する予測部と、を備える。
【選択図】図4
【特許請求の範囲】
【請求項1】
第1期間内の、少なくとも複数の環境の時間変化と、感情の時間変化との対応関係を示す教師データに基づいて、将来の予測時刻での感情を予測する予測モデルを機械学習により構築する学習部と、
前記予測時刻の直前の第2期間内の少なくとも前記複数の環境の時間変化のデータを取得する取得部と、
前記取得部で取得された少なくとも前記複数の環境の時間変化のデータを前記予測モデルに入力して、前記予測時刻での感情を予測する予測部と、を備える、
情報処理装置。
【請求項2】
前記予測部において、前記予測モデルには、前記複数の環境の時間変化のデータのみが入力されることを特徴とする、
請求項1に記載の情報処理装置。
【請求項3】
前記学習部は、前記教師データの前記感情の出現頻度を均一化させるオーバーサンプリング処理を行う、
請求項1に記載の情報処理装置。
【請求項4】
第1期間内の、少なくとも複数の環境の時間変化と、感情の時間変化との対応関係を示す教師データに基づいて、将来の予測時刻での感情を予測する予測モデルを機械学習により構築するステップと、
前期予測時刻の直前の第2期間内の少なくとも前記複数の環境の時間変化のデータを取得するステップと、
前期取得部で取得された少なくとも前記複数の環境の時間変化のデータを前記予測モデルに入力して、前記予測時刻での感情を予測するステップと、を備える、
情報処理方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置及び情報処理方法に関する。
【背景技術】
【0002】
昨今の学習及び労働環境の変化に伴い、これらの環境に起因するストレスや疲労感、快適感、感情的覚醒度など、人間の心的状態(以下、感情と呼ぶ)を把握及び推定する研究が注目されている。感情を把握及び推定する手法としては、心理的実験やアンケートなどの主観的解析が一般的であるが、その一方で眼球運動、体温、脳波などの生理データ及び心理指標を元にした客観的及び定量的な解析も進められているとともに、近年では機械学習及び深層学習によって生理データ及び心理指標との対応関係を解明する研究も行われている。例えば、無線センサなどから得られる室内環境データから、その環境内にいる人間の感情を推定する手法が提案されている(非特許文献1、2参照)。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】心の状態のセンシング(1)(http://sensait.jp/22706/)
【非特許文献2】心の状態のセンシング(2)(http://sensait.jp/22709/)
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、非特許文献1、2の開示内容は、複数の環境データの時間変化に基づいて現在の人間の感情を推定するに留まり、将来の人間の感情を予測する手法は開示されていない。
【0005】
そこで、本発明の実施形態では、複数の環境データの時間変化に基づいて将来の人間の感情を精度よく予測できる情報処理装置及び情報処理方法を提供するものである。
【課題を解決するための手段】
【0006】
上記の課題を解決するために、本発明の実施形態によれば、第1期間内の、少なくとも複数の環境の時間変化と、感情の時間変化との対応関係を示す教師データに基づいて、将来の予測時刻での感情を予測する予測モデルを機械学習により構築する学習部と、
前記予測時刻の直前の第2期間内の少なくとも前記複数の環境の時間変化のデータを取得する取得部と、
前記取得部で取得された少なくとも前記複数の環境の時間変化のデータを前記予測モデルに入力して、前記予測時刻での感情を予測する予測部と、を備える、
情報処理装置が提供される。
【発明の効果】
【0007】
昨今では、新型感染症の流行に伴い、感染防止対策によって教育労働環境は多様化している。多様化する教育労働環境における心身の健康管理として、これまで以上に、ストレスや疲労感、快適感を含む感情価、感情各制度などの人間の心的状態の把握(メンタルヘルス)と作業環境の把握、及び、環境改善が重要になってきている。
【0008】
これまでに、本発明者は、非接触センサデータで得られた環境情報、生体データ等を収集して、非接触センサから客観的かつ非侵襲的に心身の健康状態を指定・把握するシステムを構築し、教育労働環境を統合的に評価する手法を見出した。なお、非接触型環境センサとは、人の体に身に着けることなく計測できる環境センサを指す。
【0009】
しかしながら、これまでの技術であるリアルタイムでの感情推定では、自動車運転や工場でのうっかり事故などを未然に防ぐことができない。また、オフィスでの仕事、勉強効果についてもより効率的に向上することができない。
【0010】
本発明の実施形態によれば、少なくとも複数の環境の時間変化と、感情の時間変化との対応関係を示す教師データに基づいて機械学習により構築された予測モデルを用いることで、将来の予測時刻での感情(心的状態)を推定できる。
【0011】
本発明の実施形態によって、リアルタイムではなく、将来の感情を予測することで、これまでの技術であるリアルタイムでの感情推定では、自動車運転や工場でのうっかり事故などを未然に防ぎ、事故の予防効果を大きく向上することができる。また、オフィスでの仕事、勉強効果についてもより効率的に向上し得ることができる。
【0012】
また、本発明の実施形態には、非接触センサを用いた非接触型環境が適用されてもよい。非接触型環境は、ウエアラブル端末など、継続して装着しなくてはならない等の利用するための制約がなく、様々な状況にて、本発明の実施形態を適用できる。また、被験者のストレスもないため、自然な状態での推定が可能である。
【0013】
このように、本発明の実施形態は、複数の環境の時間変化のデータを取得するとともに、これらのデータを時系列で解析することで、将来の感情を予測することに特徴がある。生体データは直接的に感情に影響し、侵襲的でかつ主観的な性質を持つが、本発明の実施形態は、このような生体データを用いなくても、生体データに影響を及ぼす非侵襲的な環境の時間変化のデータに着目し、これらのデータから、非侵襲的に、かつ、客観的に、そして、高精度で感情を予測できる。
【0014】
本発明の実施形態は、現在人物が晒されている環境状態を踏まえて、未来の感情状態の変化を予測できる。この予測に基づいて、教育労働環境が、快適でよりストレスの少なく、空気もきれいな環境へと改善されることにより、心身の健康を維持できると期待できる。これによって、生活環境の制御によるメンタルヘルスの向上や予防医学、自動車の安全運転支援、工場でのうっかり事故防止、オフィスでの仕事効率化、学校での勉強効果など、さまざまな分野への応用が期待できる。
【図面の簡単な説明】
【0015】
図1】本発明の実施形態に係る情報処理装置の概略構成を示すブロック図である。
図2】本発明の実施形態に係る感情データを示す図である。
図3A】温度と感情の相関を示すグラフである。
図3B】ブルーライトと感情の相関を示すグラフである。
図3C】音量と感情の相関を示すグラフである。
図3D】CO濃度と感情の相関を示すグラフである。
図4】本発明の実施形態に係る情報処理装置の処理を示すフローチャートである。
図5A】CNNモデルによる予測計算処理を示すブロック図である。
図5B】LSTMモデルによる予測計算処理を示すブロック図である。
図6】LSTMモデルを示すブロック図である。
図7】センサ数ごとの感情予測の精度を示すグラフである。
【発明を実施するための形態】
【0016】
以下、図面を参照して、情報処理装置及び情報処理方法の実施形態について説明する。
【0017】
(本発明の実施形態)
図1は、本発明の実施形態に係る情報処理装置1の概略構成を示すブロック図である。この情報処理装置1は、所定の環境(例えば、実験室内)の状態を測定するとともに、その環境内の被験者の将来の感情を予測するものである。情報処理装置1は、取得部2と情報処理部3とを備える。
【0018】
取得部2は、上記の環境の複数の環境データ、及びその被験者の感情の入力を受け付け、情報処理部3に提供する。取得部2は、感情入力部11、及び環境センサ部13を有する。また、取得部2には、その環境内の被験者の生体データの入力を受け付けるために、生体センサ部12を有してもよい。以下の実施形態では、取得部2が生体センサ部12を有する形態を説明する。
【0019】
感情入力部11は、被験者の感情の入力を受け付けるものであり、例えばコンピュータ等の入力端末から構成される。感情入力部11は、例えば有線又は無線ネットワークで情報処理部3と接続される。また、感情入力部11は、情報処理部3内に含まれていてもよい。感情入力部11に入力される感情には、例えばHappy(幸福)、Stress(ストレス)、Relax(リラックス)、Sad(悲しみ)がある。感情についての詳細については、後述する。なお、感情入力部に入力される感情は、例えば、生体データ(脳波等)の測定値から求めることもできる。
【0020】
生体センサ部12は、環境内の被験者の身体に関するデータを測定するものであり、例えば接触型又は非接触型のセンサ、ウェアラブルデバイスなどにより構成される。本明細書では、生体センサ部12が取得するデータを生体データと呼ぶ。生体センサ部12は、例えば被験者の体温、肌温度(皮膚温度)、血圧、体動、脈拍数などの複数の生体データを取得する。
【0021】
環境センサ部13は、所定の環境(例えば、実験室内)に関するデータを測定するものであり、例えば実験室内に設けられたセンサ、カメラなどにより構成される。本明細書では、環境センサ部13が取得するデータを環境データと呼ぶ。環境センサ部13は、例えば室内温度、可視光の強度(照度)、匂い(臭気強度)、湿度、ブルーライト強度、ほこり(微粒子濃度)、音量、CO濃度、VOC(揮発性有機化合物;Volatile Organic Compounds)、気圧などの複数の環境データを取得する。また、環境センサ部13は、例えば赤外線によって被験者同士の距離を測定してもよい。また、環境センサ部13は、環境センサ部13を構成するセンサと被験者との距離を測定する人感センサを有していてもよい。
【0022】
生体センサ部12及び環境センサ部13から得られたデータは、例えば無線ネットワークにより情報処理部3に転送される。
【0023】
情報処理部3は、取得部2から入力された情報を学習するとともに、取得部2から入力された情報に基づいて被験者の将来の環境を予測する。情報処理部3は、モデル構築部21、ニューラルネットワーク部22、予測部23を有する。ニューラルネットワーク部22とモデル構築部21とは、学習部24を構成する。
【0024】
モデル構築部21は、感情入力部11から所定の学習期間(以下、第1期間と呼ぶ)における複数の感情の時間変化を示すデータを取得するとともに、生体センサ部12及び環境センサ部13から第1期間における複数の生体データの時間変化と複数の環境データの時間変化を示すデータを取得し、これらのデータを時刻情報に対応づける。
【0025】
本明細書では、第1期間内においてモデル構築部21に構築されるデータを教師データと呼ぶ。教師データは、複数の環境データの時間変化と複数の感情データの時間変化との対応関係、及び複数の生体データの時間変化と複数の感情データの時間変化との対応関係を含む。モデル構築部21は、この教師データをニューラルネットワーク部22に供給することにより、将来の予測時刻での感情を予測する予測モデルを機械学習により構築する。
【0026】
ニューラルネットワーク部22は、上記の機械学習により得られた予測モデルを保持する。
【0027】
予測部23は、環境センサ部13から、所定の計測期間(以下、第2期間と呼ぶ)における複数の環境データの時間変化を示すデータを取得し、ニューラルネットワーク部22内の予測モデルに入力する。なお、第2期間においては、第1期間に測定する複数の環境データのうち少なくとも一部を測定する。予測部23は、環境センサ部13から取得された複数の環境データの時間変化を示すデータのみを予測モデルに入力してもよい。また、予測部23は、複数の環境データの時間変化を示すデータに加えて、生体センサ部23から取得した複数の生体データの時間変化を示すデータを予測モデルに入力してもよい。第2期間は、予測部23は、予測モデルに入力されたデータに基づいて、将来の予測時刻での感情を予測する。予測部23は、予測した感情データを、例えば不図示の外部機器に出力する。なお、本明細書では、第2期間に生体センサ部12及び環境センサ部13から入力されるデータを入力データと呼ぶ。
【0028】
教師データを蓄積する第1期間は、計測期間である第2期間と比べて、十分に長い時間である。例えば、第1期間は80時間であり、第2期間は3分である。また、上記の将来の予測時刻とは、第2期間以降の時刻を指す。例えば、予測部23は第2期間から1分後の感情を予測する。
【0029】
図2は、本発明の実施形態に係る感情データを示す図である。感情データは、覚醒度と快適度の2つの尺度を有する。感情データは、覚醒度が所定の基準値(第1基準値)より高く、快適度が所定の基準値(第2基準値)より高いHappy領域(第1領域)、覚醒度が所定の基準値より高く快適度は所定の基準値以下のStress領域(第2領域)、覚醒度が所定の基準値以下で快適度は所定の基準値より高いRelax領域(第3領域)、覚醒度が所定の基準値以下で快適度も所定の基準値以下のSad領域(第4領域)を有する。なお、Stress領域はAngry領域と呼ばれることもある。
【0030】
感情入力部11には、被験者の感情が上記の4つの領域のどれに当てはまるかが入力される。また、予測部23は、将来の予測時刻の感情が、上記の4つの領域のどれに当てはまるかを予測する。なお、感情入力部11には覚醒度及び快適度が入力されてもよく、これに基づいて予測部23は、覚醒度及び快適度を予測してもよい。
【0031】
被験者の複数の生体データ(例えば、心拍数、肌温度)は、感情データに直接的に影響を与え、被験者の感情データを変動させる。また、例えば、被験者がいる実験室内の、複数の環境データ(例えば温湿度、光強度、におい)は、被験者の複数の生体データに影響を与えるものであり、複数の環境データを用いることで、客観的に被験者の感情データを推定することができる。
【0032】
複数の環境データが時間に応じて変化する場合、感情データも時間に応じて変化する。時間に応じて変化する複数の環境データに基づいて、将来の感情データを予測することが可能である。このように、本発明の実施形態では、環境データと時刻情報とを時系列で解析することで、将来の感情データを予測することを可能としている。
【0033】
図3A図3Dは、複数の環境データのうち代表的な環境データと、感情データの相関すなわち対応関係を示すグラフである。図3A図3Dは、一人の被験者がいる部屋における各環境パラメータの時間変化(経時変化)と、計測時間の被験者の感情を、時系列データとして示している。図3A図3Dにはそれぞれ、測定時間ごとの被験者の感情がプロットPemとして表示されている。プロットPemは、図3A図3D上に×印で示されている。また、図3A図3Dの計測時間と感情の関係は共通している。
【0034】
図3A図3Dは、横軸がいずれも測定時間であり、縦軸はそれぞれ温度、ブルーライト、音量、CO濃度である。図3A図3B図3C図3Dでは、温度、ブルーライト、音量、CO濃度の経時変化が、それぞれ実線のグラフW1、W2、W3、W4で示されている。図3A図3Dでは、被験者に刺激を与えうる環境変化があるときに、被験者の感情が変わることが示されている。
【0035】
図3A図3Dに示すように、被験者の感情変化は、特定の1つの環境データのみに起因するものではなく、複数の環境データの変化に応じて被験者の感情が変化する場合がありうる。温度などの環境が急激に変化すれば、直観的には感情データがStressになるように思われるが、例えば図3Bでは感情データがHappyである被験者も認められる。これは、他の環境データが影響しているためである。このように、環境データの種類によっては、一つの環境データだけではいずれの感情データとも相関性があるとは言えない場合がある。環境データは、直接的に感情データに影響を与える生体データとは異なり、他の環境データとの組み合わせによって、影響を与える感情データが変化するという特徴がある。
【0036】
このため、予測部23は、複数の環境データに基づいて感情データを予測する。予測部23における感情データの予測精度を上げるためには、モデル構築部21及び予測部23には、より多くの環境データが入力されることが望ましい。また、各環境データは、感情データに与える影響の度合いの強弱により、重み付けされることが望ましい。
【0037】
図4は、本発明の実施形態に係る情報処理装置1の処理手順を示すフローチャートである。まず、感情入力部11、生体センサ部12、環境センサ部13により、教師データを生成する(ステップS1)。教師データの生成は、例えば実験室内に1人以上の被験者を配置し、例えば80時間継続して行われる。実験室内には1つ以上の環境センサ部13が配置され、1人以上の被験者には生体センサ部12が装着される。被験者の感情は、一定時間ごとに感情入力部11に入力される。
【0038】
なお、感情の出現頻度は被験者によって異なり、不均衡が生じる場合がある。感情入力部11は被験者の感情をオーバーサンプリングすることによって感情の出現頻度を均一化させ、この不均衡を解消するのが望ましい。本明細書においては、学習部24が教師データ内の感情データのオーバーサンプリング処理を行う例を説明する。
【0039】
教師データは、環境センサ部13から出力される1人以上の被験者が配置された室内の温度、ブルーライト、音量等の時系列の入力データと、感情入力部11から入力される複数の被験者の時系列の感情データとを、時系列順に関連づけたデータである。教師データは、環境データのほか生体データを含んでもよく、その場合、教師データは、環境データの時間変化と感情データの時間変化の対応関係と、生体データの時間変化と感情データの時間変化の対応関係とを含むデータである。教師データは、これら対応関係を例えば80時間にわたって測定して生成されたデータである。
【0040】
感情入力部11、生体センサ部12及び環境センサ部13を用いて生成された教師データは、モデル構築部21に入力される。モデル構築部21は、ステップS1の1人以上の被験者の感情の時間変化に関する教師データに基づいて、ニューラルネットワーク部22を用いて将来の感情を予測する予測モデルを構築する(ステップS2)。
【0041】
予測モデルには、様々な深層学習モデルが適用可能である。本明細書では、CNN(Convolutional Neural Network)モデルとLSTM(Long Short-Term Memory)モデルとを組み合わせた、CNN―LSTMモデルを用いる例を説明する。なお、CNN-LSTMモデルの代わりに、例えばリカレントニューラルネットワーク、又はニューラルネットワークを用いても、CNN―LSTMモデルと同程度の精度で将来の感情を予測することが可能である。また、予測モデルにCART(Classification and Regression Tree;決定木)を用いてもよい。
【0042】
予測モデルは、教師データに基づいて構築される。予測モデルは、上述したように、例えば80時間分の教師データに基づいて機械学習により構築されたモデルである。
【0043】
その後、被験者の将来の感情を予測する直前(第2期間)に、環境センサ部13により、入力データの測定が行われる(ステップS3)。入力データの測定は、例えば1分~5分間行われる。入力データの測定時間は、短すぎると予測に必要なデータが不足し、長すぎると過学習により予測精度が下がる。将来の感情を高精度で予測するためには、入力データの測定は3分間程度行われることが望ましい。以下では、入力データの測定が3分間行われる例を説明する。入力データの測定は、ステップS1と同様の実験室内で行われる。
【0044】
環境センサ部13が取得した入力データは、予測部23に入力される。予測部23は、ステップS2に構築された予測モデルに入力データを入力し、ステップS3の測定を行った被験者の将来の感情を予測する(ステップS4)。将来の感情とは、例えば、ステップS3の測定から15秒~3分後の感情である。
【0045】
ステップS3における被験者は、ステップS1と共通の被験者であってもよいし、異なる被験者であってもよい。なお、ステップS1において1人の特定の被験者の教師データを生成し、当該特定の被験者の感情を高精度に予測できるように調整された情報処理装置1は、専用機と呼ばれる。また、ステップS1において不特定かつ複数の被験者の教師データを生成し、不特定かつ複数の被験者の感情を予測できるように調整された情報処理装置1は、汎用機と呼ばれる。以下では、情報処理装置1が専用機である例を説明する。
【0046】
また、本発明の実施形態に係る情報処理装置1は、教師データを測定した部屋と異なる部屋での感情を測定することもできる。
【0047】
以下では、1分後の感情を予測する例を説明する。なお、生体センサ部12により測定された入力データを、環境センサ部13が取得した入力データと共に予測部23に入力してもよい。
【0048】
上記の通り、ステップS1における教師データの生成には、例えば、生体センサ部12が測定した被験者の複数の生体データと、環境センサ部13が測定した複数の環境データが用いられる。また、ステップS3における予測部23の入力データには、少なくとも環境センサ部13が測定した複数の環境データが用いられる。さらに、ステップS3及びS4においては、複数の環境データのみから被験者の将来の感情を予測することも可能である。
【0049】
以下では、複数の環境データのみから被験者の将来の感情を予測する例を説明する。教師データの生成には、環境センサ部13が測定したデータのほか、生体センサ部12又はそれ以外のセンサ(例えば、被験者同士の距離を測定する距離センサ)が測定したデータが用いられてもよい。
【0050】
図5A及び図5Bは、CNN―LSTMモデルによる予測計算の手順を示すブロック図である。図5Aは、CNNモデルの処理を示している。まず、予測部23に入力データが入力される(ステップS11)。入力データは、複数の環境データを含む。また、入力データは、複数の生体データを含んでいてもよいし、複数の環境データのみが含まれていてもよい。本明細書では、入力データが有する環境データ及び生体データのそれぞれを、パラメータとも呼ぶ。入力データは、少なくとも環境センサ部13から得られたn個の環境データに対応した、n個のパラメータを有する。
【0051】
入力データのパラメータには、例えば図3A図3Dで示す温度、ブルーライトなどが含まれる。図3A図3Dで説明するように、モデル構築部21及び予測部23に入力されるデータは、より多くのパラメータを有することが望ましい。また、各パラメータは、感情データに与える影響の度合いの強弱により、重み付けされることが望ましい。なお、パラメータが多数存在する場合には、少数のパラメータに畳み込みされてもよい。
【0052】
パラメータの測定は、入力データの測定期間(図4のステップS3)において、所定の時間間隔で、u回の測定が行われる。すなわち、予測部23にはn×uのデータが入力される。パラメータの数は、次元数とも呼ばれる。また、n個のパラメータはn次元のパラメータとも呼ばれる。すなわち、入力データは、時間変化するn次元のパラメータで表される。
【0053】
続いて、パラメータの畳み込みが行われる(ステップS12)。予測部23は、畳み込みにより入力されたパラメータをフィルタリングする。これにより、特徴量が抽出される。ステップS12では、n次元のパラメータが例えばn-k1次元まで削減される。
【0054】
ステップS12で削減されたパラメータに対し、さらに畳み込みが行われる(ステップS13)。ステップS13では、ステップS12と同様の畳み込みが行われ、n-k1次元のパラメータがn-k1-k2次元まで削減される。これにより、特徴量がより抽出される。
【0055】
ステップS12及びS13に示すように、CNNモデルでは次元数を段階的に圧縮して特徴量データを生成する。図5Aでは、2段階のパラメータ圧縮の例を示しているが、これに限られず3段階以上のパラメータ削減が行われてもよい。また、パラメータの圧縮は1段階のみであってもよい。
【0056】
続いて、パラメータのプーリングが行われる(ステップS14)。予測部23は、プーリングにより、畳み込みされたパラメータを集約するとともに、感情により大きな影響を与えるパラメータを特徴量データとして抽出する。ステップS14では、n-k1-k2個のパラメータが例えば1個まで圧縮される。なお、図5Aでは、ステップS11で入力されたn×uのデータが、1×uのデータに圧縮される例を示しているが、これに限られず、CNNモデルはn次元よりも少ない次元数の特徴量データを抽出できる。
【0057】
図5Bは、LSTMモデルの処理を示している。図5Aに続いて、CNNモデルで抽出された特徴量データが、時系列データとして取得される(ステップS21)。予測部23は、この時系列データの各データを時系列順にLSTMモデルに入力する(ステップS22)。LSTMモデルにより、予測部23は1つの感情データを算出し、出力する(ステップS23)。
【0058】
図6は、LSTMモデルを示すブロック図である。図6のLSTMモデルには、入力データ31、隠れ状態データ32a、セル状態データ33aが入力される。また、LSTMモデルは隠れ状態データ32b、セル状態データ33b、出力データ34を出力する。また、LSTMモデルはシグモイド関数41a、41b、41c、双曲線正接関数42a、42b、乗算器43a、43b、43c、加算器44を有する。
【0059】
入力データ(Xt)31には、例えば、図5AのステップS13で抽出された特徴量のうち、時刻tの特徴量データが入力される。出力データ(ht)34からは、例えば、時刻tの特徴量データから予測された感情が出力される。また、この感情データは隠れ状態データ(ht)32bとして出力される。隠れ状態データ(ht-1)32aには、時刻tの前の時刻t-1の特徴量データから予測された感情が入力される。
【0060】
また、LSTMモデルは所定の記憶セルに出力結果を長期記憶する。LSTMモデルは、時刻tの特徴量データに基づいて算出された値をセル状態データ(Ct)33bとして出力して長期記憶する。また、LSTMモデルには、前の時刻t-1の特徴量データに基づいて算出されて長期記憶された値が、セル状態データ(Ct-1)33aとして入力される。
【0061】
シグモイド関数41aは、忘却ゲートとも呼ばれ、記憶セルの忘却に用いられる。シグモイド関数41aは、入力データ31及び隠れ状態データ32aに基づいて忘却ゲート活性化ベクトルftを算出し、乗算器43aに入力する。乗算器43aは、忘却ゲート活性化ベクトルftとセル状態データ33aを乗算する。
【0062】
シグモイド関数41bは、入力ゲートとも呼ばれ、記憶セルへの新しい記憶の入力に用いられる。シグモイド関数41bは、入力データ31及び隠れ状態データ32aに基づいて入力ゲート活性化ベクトルitを算出し、乗算器43bに入力する。また、乗算器43bには、双曲線正接関数42aによって正規化された入力データ31及び隠れ状態データ32aが入力される。乗算器43bは、これらの入力データを乗算し、算出結果を加算器44に出力する。加算器44は、乗算器43aの出力値と、乗算器43bの出力値とを加算する。加算器44の出力結果は、セル状態データ33bとして出力される。
【0063】
シグモイド関数41cは、出力ゲートとも呼ばれ、LSTMモデルの出力データを算出する。シグモイド関数41cは、入力データ31及び隠れ状態データ32aに基づいて出力ゲート活性化ベクトルOtを算出し、乗算器43cに入力する。また、乗算器43cには、双曲線正接関数42bによって正規化された加算器44の出力結果が入力される。乗算器43cはこれらの入力データを乗算し、出力データ34及び隠れ状態データ32bとして出力する。
【0064】
LSTMモデルには、所定の時刻の時系列データが入力されるとともに、所定の時刻より前の時刻の出力結果が、再帰的に入力されるという特徴がある。すなわち、過去の出力結果に基づいて、次の出力結果が算出される。また、LSTMモデルは出力結果を長期に亘って保持する長期記憶を有するため、長期的な出力結果の変動が、次の出力結果に反映される。
【0065】
本発明の実施形態に係るLSTMモデルは、時系列順に感情データを出力する。また、LSTMモデルには、特徴量データ(すなわち、圧縮された入力データ)が時系列順に入力されるとともに、過去に出力した感情データが入力される。すなわち、LSTMモデルは所定の時刻における複数の環境データと、所定の時刻までの過去の感情データに基づいて、将来の感情を予測する。LSTMモデルでは、同じ環境刺激を受けた場合においても、例えば過去にRelax状態にあった被験者はHappy状態に変化し、過去にSad状態にあった被験者はStress状態に変化する等の、過去の感情データの変動に基づく感情の変動を予測することができる。
【0066】
モデル構築部21に入力される教師データの一例を表1に示す。
【0067】
【表1】
【0068】
表1の教師データには、環境センサ部13から複数の被験者が配置された室内の温度、ブルーライト、音量等の環境データが時系列順に格納される。また、感情入力部11から、被験者の感情が入力され、環境データと時系列順に紐付けられる。複数の被験者がいる場合は、教師データには表1の時間ごとに複数の被験者の感情が格納される。教師データは、例えば80時間分が入力されている。
【0069】
予測部23に入力される入力データを表2に示す。
【0070】
【表2】
【0071】
表2の入力データは、教師データに格納されている環境データと、共通するパラメータを有する。例えば、表1の教師データ及び表2の入力データは、共通して温度、ブルーライト、音量のパラメータを格納している。
【0072】
なお、表1及び表2では、1分間隔のデータを示しているが、実際には、例えば10秒間隔で環境データ(及び、生体データ)の測定が行われる。測定間隔は、例えば10秒~1分間のうち、被験者のいる環境、及び予測したい時間によって決定される。車載環境など、僅かな時間の集中力の欠落が致命的な結果につながりうる場面では、10秒間隔での測定が求められる。一方、車載環境ほどのリアルタイム性が求められない室内環境においては、1分程度の測定間隔でもよい。
【0073】
予測部23が出力する出力データを表3に示す。
【0074】
【表3】
【0075】
表3は、表2の入力データから1分後のデータを示している。
【0076】
予測部23は、予測モデルに入力されたデータより、測定期間(第2期間)から1分後の感情を予測する。図6に示すように、予測部23は入力データを時系列順に入力するとともに、予測された感情を時系列順に出力する。教師データ内に、入力データ(表2)と同一又は類似の時間変化を示すデータを探索して、測定期間(第2期間)の感情もこの探索された教師データに対応する感情データと同様に推移するとして、当該教師データから1分後の感情を、測定期間(第2期間)の1分後の感情として出力する(表3)。すなわち、予測モデルは、取得部2で取得された複数の環境データの時間変化と傾向が同一又は類似の教師データにおける感情の変化に基づいて予測時刻での感情を出力することができる。
【0077】
具体的には、表2の入力データの環境入力データの推移は、表1の教師データの16:31~16:33の環境入力データの推移と類似する。この場合、予測部23が予測する感情データは、表1の教師データの16:32~16:34の感情と同様の推移で、時系列順に出力される。
【0078】
予測部23は、表1の教師データ及び表2の入力データに基づいて、最終的には表3に示すように、教師データ内の16:34のデータと同様の、感情Sadが出力される。
【0079】
本発明者は、入力するパラメータが多いほど、予測部23の予測の精度が向上することを実験で確認した。まず、本発明者は、被験者4名に対して、それぞれ専用機を用意し、72時間の学習期間(第1期間)に測定した脈拍数、皮膚温度、CO濃度、照度(可視光)、温度に基づいて教師データを生成した。また、予測部23に3分間の測定期間(第2期間)に測定したCO濃度、照度(可視光)、温度の環境データを入力し、次の1分後の感情を予測する実験を行った。その結果、予測部23の感情予測の精度は、被験者ごとに60%、66%、63%、85%の精度であった。
【0080】
また、本発明者は、上記と同様の第1期間に測定した脈拍数、皮膚温度、CO濃度、照度(可視光)、温度、ブルーライト、赤外線(距離)、人感、音量、臭気強度、気圧、微粒子濃度に基づく教師データを生成するとともに、上記と同様の第2期間に測定したCO濃度、照度(可視光)、温度、ブルーライト、赤外線(距離)、人感、音量、臭気強度、気圧、微粒子濃度の環境データを入力し、1分後の感情を予測する別の実験を行った。その結果、予測部23の感情予測の精度は、被験者ごとに78%、81%、80%、86%の精度が得られ、全ての被験者において、検討データの種類が多い方が、精度が向上していた。
【0081】
次に、本発明者は、被験者2名に対して、予測部23に3分間の測定期間における肌温度及び心拍数からなる2種類の生体データを入力し、次の1分後の感情を予測する実験を行った。入力データとして肌温度及び心拍数を入力して予測した結果を、表4に示す。
【0082】
【表4】
【0083】
表4は、所定の実験時間における被験者1及び2のHappy率、Relax率、Stress率、Sad率をそれぞれ示している。表4は、被験者1では予測の精度(Accuracy)が75.6%であることを示している。また、被験者2では予測の精度が91.6%である。
【0084】
入力データとして、生体データに環境データのパラメータを追加した場合の予測結果を、表5に示す。
【0085】
【表5】
【0086】
表5では、入力データとして肌温度、可視光、匂い、湿度、ブルーライト、ほこりを入力して予測している。この場合、被験者1では予測の精度が81.1%である。また、被験者2では予測の精度が94.4%である。表4には、感情に直接的に影響する生体データを入力データとすることで、2種類と少ないパラメータでもある程度の高い精度が得られることが示されているが、上記の通り、入力データに、環境データを複数追加した表5は、表4よりも精度がさらに向上している。
【0087】
さらに、本発明者は被験者3名に対して、感情データにおける重要度順にパラメータを追加していったときの、感情予測の精度を確認した。表6は、感情データにおける、パラメータごとの重要度を示す図である。重要度とは、感情の予測に対する寄与度を示す。また、全パラメータの重要度の和は100%となるように調整されている。
【0088】
【表6】
【0089】
図7は、被験者3名のセンサ数ごとの感情予測の精度を示すグラフである。横軸はパラメータ数を示し、縦軸は感情予測の精度を示す。また、図7においては3名の被験者に対応した、3つの線グラフが描写されている。
【0090】
パラメータは表6の降順に追加されている。例えば、パラメータ数が3の場合には、CO濃度、温度、臭気強度のパラメータを測定し、感情予測を行っている。図7に示す通り、入力するパラメータが増えるほど感情予測の精度は高まる。特にパラメータが4つまではどの被験者も感情予測の精度が単調増加する。またパラメータが5つ以上になると、感情予測の精度は略80%まで高まる。
【0091】
これらの実験結果からわかるように、入力するパラメータ数が多いほど、より具体的には図5のステップS3における測定期間で測定する環境データの種類が多いほど、予測部23の感情予測の精度を向上できる。
【0092】
上記に示すように、本発明の実施形態は、生体データに影響を及ぼす環境データを時系列で解析することで、個々のデータにおいては感情データとの関係に相関性は見いだせない環境データを用いて、感情データを予測することに成功している。これにより、本発明の実施形態は、侵襲的で感情に直結する生体データを用いなくても、生体データに影響を及ぼす環境データを時系列で解析することで、感情の予測を、非侵襲的に、かつ、客観的に、そして、高精度で予測できる。
【0093】
このように、本発明の実施形態に係る情報処理装置1は、入力データとして、少なくとも環境データを用いることで、環境の時間変化に基づいて被験者の未来(例えば、1分後)の感情を予測することができる。また、入力パラメータ(入力データ)の次元数(すなわち、測定期間内に測定する環境データの種類)を増やすことで、未来の感情の予測精度を向上できる。さらに、本発明の実施形態に係る情報処理装置1では、機械学習により、多次元のパラメータの次元数を圧縮して未来の感情を予測する予測モデルを構築するため、構築された予測モデルを用いることで、未来の感情を簡易かつ精度よく予測できる。また、未来の感情を予測する直前に、短時間の環境の時間変化のデータを取得して未来の感情を予測するため、わずかな期間の取得データで未来の感情を精度よく予測できる。また、本発明の実施形態では、直接に感情データと相関性がある生体データを用いず、環境データのみでも、未来の感情を精度よく予測できる。この場合、上述したように、一つの環境データだけでは感情データとの相関性を特定できない場合がありうるため、複数の環境データと感情データとの相関性を予め学習したモデルを用意し、このモデルに複数の環境データを入力して感情データを予測する必要がある。
【0094】
上述した実施形態で説明した情報処理装置1の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、情報処理装置1の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD-ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。
【0095】
また、情報処理装置1の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。
【0096】
本発明の実施形態は、様々な用途に活用することができる。例えば、現在人物が晒されている環境状態を踏まえて、未来の感情状態の変化を予測できる。本発明の実施形態は、生活環境の制御によるメンタルヘルスの向上や予防医学、自動車の安全運転支援、工場でのうっかり事故防止、オフィスでの仕事効率化、学校での勉強効果など、さまざまな分野への応用が期待できる技術である。
【0097】
(付記)
なお、本技術は以下のような構成を取ることができる。
[項目1]
第1期間内の、少なくとも複数の環境の時間変化と、感情の時間変化との対応関係を示す教師データに基づいて、将来の予測時刻での感情を予測する予測モデルを機械学習により構築する学習部と、
前記予測時刻の直前の第2期間内の少なくとも前記複数の環境の時間変化のデータを取得する取得部と、
前記取得部で取得された少なくとも前記複数の環境の時間変化のデータを前記予測モデルに入力して、前記予測時刻での感情を予測する予測部と、を備える、
情報処理装置。
[項目2]
前記予測部において、前記予測モデルには、前記複数の環境の時間変化のデータのみが入力されることを特徴とする、
項目1に記載の情報処理装置。
[項目3]
前記学習部において、前記教師データは、前記感情の出現頻度を均一化させるオーバーサンプリング処理を行われている、
項目1又は2に記載の情報処理装置。
[項目4]
第1期間内の、少なくとも複数の環境の時間変化と、感情の時間変化との対応関係を示す教師データに基づいて、将来の予測時刻での感情を予測する予測モデルを機械学習により構築するステップと、
前期予測時刻の直前の第2期間内の少なくとも前記複数の環境の時間変化のデータを取得するステップと、
前期取得部で取得された少なくとも前記複数の環境の時間変化のデータを前記予測モデルに入力して、前記予測時刻での感情を予測するステップと、を備える、
情報処理方法。
【符号の説明】
【0098】
1 情報処理装置、2 取得部、3 情報処理部、11 感情入力部、12 生体センサ部、13 環境センサ部、21 モデル構築部、22 ニューラルネットワーク部、23 予測部、24 学習部、31 入力データ、32a、32b 状態データ、33a、33b セル状態データ、34 出力データ、41a、41b、41c シグモイド関数、42a、42b 双曲線正接関数、43a、43b、43c 乗算器、44 加算器
図1
図2
図3A
図3B
図3C
図3D
図4
図5A
図5B
図6
図7