(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024146531
(43)【公開日】2024-10-15
(54)【発明の名称】推定システム、推定方法、及びプログラム
(51)【国際特許分類】
A61B 5/16 20060101AFI20241004BHJP
A61B 5/11 20060101ALI20241004BHJP
A61B 5/113 20060101ALI20241004BHJP
【FI】
A61B5/16 120
A61B5/11
A61B5/113
【審査請求】未請求
【請求項の数】11
【出願形態】OL
(21)【出願番号】P 2023059497
(22)【出願日】2023-03-31
(71)【出願人】
【識別番号】314012076
【氏名又は名称】パナソニックIPマネジメント株式会社
(74)【代理人】
【識別番号】110002527
【氏名又は名称】弁理士法人北斗特許事務所
(72)【発明者】
【氏名】西田 龍樹
(72)【発明者】
【氏名】衞藤 文
(72)【発明者】
【氏名】天沼 はるか
(72)【発明者】
【氏名】小岩 弘子
(72)【発明者】
【氏名】村上 祐介
(72)【発明者】
【氏名】菅村 玄二
【テーマコード(参考)】
4C038
【Fターム(参考)】
4C038PP03
4C038PP05
4C038PS00
4C038VA04
4C038VA12
4C038VB01
4C038VB33
4C038VC05
(57)【要約】
【課題】人の感情を推定する際の精度を向上させることができる推定システム、推定方法、及びプログラムを提供すること。
【解決手段】推定システム100は、取得部1と、第1推定部2と、第2推定部3と、感情推定部4と、を備える。取得部1は、ユーザに関する第1生体情報I1、及び第1生体情報I1とは異なる第2生体情報I2を含む複数の生体情報を取得する。第1推定部2は、第1生体情報I1に基づき、ユーザの活性度L1を推定する。第2推定部3は、第2生体情報I2に基づき、ユーザの快適度L2及び覚醒度L3の少なくとも一方を推定する。感情推定部4は、第1推定部2及び第2推定部3の推定結果に基づき、ユーザの感情を推定する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
ユーザに関する第1生体情報、及び前記第1生体情報とは異なる第2生体情報を含む複数の生体情報を取得する取得部と、
前記第1生体情報に基づき、前記ユーザの活性度を推定する第1推定部と、
前記第2生体情報に基づき、前記ユーザの快適度及び覚醒度の少なくとも一方を推定する第2推定部と、
前記第1推定部及び前記第2推定部の推定結果に基づき、前記ユーザの感情を推定する感情推定部と、を備える、
推定システム。
【請求項2】
前記第1生体情報は、前記ユーザの動作に関する情報である、
請求項1に記載の推定システム。
【請求項3】
前記第1生体情報は、予め定められた所定期間内の複数の時点の各々において取得する前記ユーザの歩行特徴量を含む、
請求項2に記載の推定システム。
【請求項4】
前記第1生体情報は、予め定められた所定期間内の複数の時点の各々において取得する前記ユーザの体動の変化量を含む、
請求項2に記載の推定システム。
【請求項5】
前記第2生体情報は、前記ユーザの表情に関する表情情報と前記ユーザの呼吸に関する呼吸情報との少なくとも一方を含む、
請求項1に記載の推定システム。
【請求項6】
前記第1生体情報は、予め定められた所定期間内の複数の時点の各々において取得する前記ユーザの歩行特徴量、又は前記ユーザの体動の変化量を含み、
前記第2生体情報は、前記ユーザの表情に関する表情情報と前記ユーザの呼吸に関する呼吸情報との両方を含み、
前記第1推定部は、前記歩行特徴量又は前記体動の変化量に基づき、前記ユーザの活性度を推定し、
前記第2推定部は、
前記表情情報に基づき、前記ユーザの快適度を推定し、
前記呼吸情報に基づき、前記ユーザの覚醒度を推定し、
前記感情推定部は、複数の候補活性度、複数の候補快適度、及び複数の候補覚醒度の各々の組み合わせにそれぞれ対応付けられた複数の候補感情を用いて、前記第1推定部及び前記第2推定部の推定結果の組み合わせと一致する候補活性度、候補快適度及び候補覚醒度の組み合わせに応じた候補感情を、前記ユーザの感情として特定する、
請求項1に記載の推定システム。
【請求項7】
前記ユーザが歩行状態であるか着座状態であるかを推定する状態推定部と、
前記ユーザが前記歩行状態であると前記状態推定部が推定した場合には動作モードとして歩行モードを選択し、前記ユーザが前記着座状態であると前記状態推定部が推定した場合には前記動作モードとして着座モードを選択する選択部と、を更に備え、
前記歩行モードでは、
前記取得部は、予め定められた所定期間内の複数の時点の各々において前記ユーザの歩行特徴量を前記第1生体情報として取得し、
前記第1推定部は、前記歩行特徴量に基づき前記活性度を推定し、
前記着座モードでは、
前記取得部は、予め定められた所定期間内の複数の時点の各々において前記ユーザの体動の変化量を前記第1生体情報として取得し、
前記第1推定部は、前記体動の変化量に基づき前記活性度を推定する、
請求項1に記載の推定システム。
【請求項8】
前記第1生体情報及び前記第2生体情報と、前記第1推定部及び前記第2推定部の推定結果と、前記感情推定部が推定した前記ユーザの感情と、の少なくとも1つを出力する出力部を更に備える、
請求項1に記載の推定システム。
【請求項9】
第1収集情報及び第2収集情報を収集し、前記取得部に出力する収集部を更に備え、
前記取得部は、
前記第1収集情報に基づいて前記第1生体情報を取得し、
前記第2収集情報に基づいて前記第2生体情報を取得する、
請求項1に記載の推定システム。
【請求項10】
ユーザに関する第1生体情報、及び前記第1生体情報とは異なる第2生体情報を含む複数の生体情報を取得する取得ステップと、
前記第1生体情報に基づき、前記ユーザの活性度を推定する第1推定ステップと、
前記第2生体情報に基づき、前記ユーザの快適度及び覚醒度の少なくとも一方を推定する第2推定ステップと、
前記第1推定ステップ及び前記第2推定ステップにおける推定結果に基づき、前記ユーザの感情を推定する感情推定ステップと、を含む、
推定方法。
【請求項11】
コンピュータシステムに、
請求項10に記載の推定方法を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、一般に、推定システム、推定方法、及びプログラムに関する。より詳細には、本開示は、感情を推定する推定システム、推定方法、及びプログラムに関する。
【背景技術】
【0002】
特許文献1には、物理量収集部と、評価スコア算出部と、活性度推定部と、備える活性度推定装置が開示されている。物理量収集部は、車両の近傍にいる人の運動に基づく物理量を非接触で測定する。評価スコア算出部は、該物理量に基づき人の体調及び心的状態の少なくとも一方を表現する活性度を推定するための評価指標を選択し、該評価指標に関する評価スコアを算出する。活性度推定部は、該評価スコアに基づき活性度を推定する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述の活性度推定装置(推定システム)では、人の運動に基づく物理量に基づき心理状況として活性度を推定する。しかし、人の運動に基づく物理量のみに基づき推定できる心理状況は限定的である。そのため、人の運動に基づく物理量に基づく心理状況から人の感情を推定する場合には、その精度は高くなかった。
【0005】
本開示の目的とするところは、人の感情を推定する際の精度を向上させることができる推定システム、推定方法、及びプログラムを提供することにある。
【課題を解決するための手段】
【0006】
本開示の一態様に係る推定システムは、取得部と、第1推定部と、第2推定部と、感情推定部と、を備える。前記取得部は、ユーザに関する第1生体情報、及び前記第1生体情報とは異なる第2生体情報を含む複数の生体情報を取得する。前記第1推定部は、前記第1生体情報に基づき、前記ユーザの活性度を推定する。前記第2推定部は、前記第2生体情報に基づき、前記ユーザの快適度及び覚醒度の少なくとも一方を推定する。前記感情推定部は、前記第1推定部及び前記第2推定部の推定結果に基づき、前記ユーザの感情を推定する。
【0007】
本開示の一態様に係る推定方法は、取得ステップと、第1推定ステップと、第2推定ステップと、感情推定ステップと、を含む。前記取得ステップでは、ユーザに関する第1生体情報、及び前記第1生体情報とは異なる第2生体情報を含む複数の生体情報を取得する。前記第1推定ステップでは、前記第1生体情報に基づき、前記ユーザの活性度を推定する。前記第2推定ステップでは、前記第2生体情報に基づき、前記ユーザの快適度及び覚醒度の少なくとも一方を推定する。前記感情推定ステップでは、前記第1推定ステップ及び前記第2推定ステップにおける推定結果に基づき、前記ユーザの感情を推定する。
【0008】
本開示の一態様に係るプログラムは、コンピュータシステムに、上記の推定方法を実行させるためのプログラムである。
【発明の効果】
【0009】
本開示によれば、人の感情を推定する際の精度を向上させることができるという利点がある。
【図面の簡単な説明】
【0010】
【
図1】
図1は、実施形態1に係る推定システムの概略構成を示すブロック図である。
【
図2】
図2は、同上の推定システムが推定する対象を説明する説明図である。
【
図3】
図3は、同上の出力部が表示部に表示させる情報を説明する説明図である。
【
図4】
図4は、同上の推定方法を示すフローチャートである。
【
図5】
図5は、同上の第1変形例の推定システムの概略構成を示すブロック図である。
【
図6】
図6は、同上の第2変形例の推定システムの概略構成を示すブロック図である。
【
図7】
図7は、実施形態2に係る推定システムの概略構成を示すブロック図である。
【
図8】
図8は、同上の推定方法を示すフローチャートである。
【
図9】
図9は、実施形態3に係る推定システムの概略構成を示すブロック図である。
【
図10】
図10は、同上の推定方法を示すフローチャートである。
【発明を実施するための形態】
【0011】
(実施形態1)
(1-1)概要
以下、本実施形態に係る推定システム100の概要について、
図1~
図2を参照して説明する。
【0012】
本実施形態に係る推定システム100は、ユーザX1(
図2参照)の感情を推定するシステムである。本開示でいう「ユーザX1の感情」とは、例えば、「わくわくした」、「元気な」、「怒った」、「びくびくした」、「真剣な」、「のんびりした」、「緊迫した」、「落ち込んだ」等である。
【0013】
推定システム100は、
図1に示すように、取得部1と、第1推定部2と、第2推定部3と、感情推定部4と、記憶部5と、を備える。
【0014】
取得部1は、ユーザX1に関する第1生体情報I1、及び第1生体情報I1とは異なる第2生体情報I2を含む複数の生体情報を取得する。
【0015】
第1推定部2は、第1生体情報I1に基づき、ユーザX1の活性度L1を推定する。本開示でいう「ユーザX1の活性度L1」とは、ユーザX1がどれぐらい動いているかを示す指標である。ユーザX1の活性度L1が高いほど、ユーザX1は活発に動いていることを示し、ユーザX1の活性度L1が低いほど、ユーザX1は活発に動いていないことを示す。
【0016】
第2推定部3は、第2生体情報I2に基づき、ユーザX1の快適度L2及び覚醒度L3の少なくとも一方を推定する。本開示でいう「ユーザX1の快適度L2」とは、ユーザX1がどのぐらい快適に感じているかを推定した指標である。ユーザX1の快適度L2が高いほど、ユーザX1が快適に感じている可能性が高く、ユーザX1の快適度L2が低いほど、ユーザX1が不快適に感じている可能性が高い。また、本開示でいう「ユーザX1の覚醒度L3」とは、ユーザX1がどのぐらい興奮又は緊張しているかを推定した指標である。ユーザX1の覚醒度L3が高い場合、ユーザX1が興奮又は緊張している可能性が高く、ユーザX1の快適度L2が低い場合、ユーザX1が落ち着いている可能性が高い。
【0017】
感情推定部4は、第1推定部2及び第2推定部3の推定結果に基づき、ユーザX1の感情を推定する。すなわち、感情推定部4は、第1推定部2が推定したユーザX1の活性度L1と、第2推定部3が推定したユーザX1の快適度L2及び覚醒度L3の少なくとも一方と、に基づき、ユーザX1の感情を推定する。
【0018】
従来の推定システムでは、ユーザの活性度L1のみに基づき、ユーザの感情を推定する。このため、従来の推定システムが推定できるユーザの感情は限定的である。しかし、実施形態1の推定システム100では、ユーザX1の活性度L1と、ユーザX1の快適度L2及び覚醒度L3の少なくとも一方と、に基づき、ユーザX1の感情を推定する。この結果、実施形態1の推定システム100が推定できるユーザX1の感情は限定的にならず、多くの種類の心理状況の中から推定される。この結果、実施形態1の推定システム100は、人の感情を推定する際の精度を向上させることができるという利点がある。
【0019】
(1-2)詳細な構成
(1-2-1)推定システム
以下に、本実施形態の推定システム100の詳細な構成について、
図1~
図3を参照して説明する。
【0020】
推定システム100は、施設Y1内を歩行するユーザX1(
図2参照)の感情を推定するシステムである。ここでいう施設Y1は、例えば、オフィスビル、ジム、学校、住宅施設、ホテル、運動施設、福祉施設、商業施設、テーマパーク、病院、又は工場等である。具体的に、施設Y1がオフィスビルである場合を例示すると、ユーザX1は、労働者又は来客等である。すなわち、推定システム100は、オフィスビル内を歩行する労働者又は来客等の感情を推定するシステムである。
【0021】
実施形態1の推定システム100は、ユーザX1の活性度L1、快適度L2、及び覚醒度L3に基づき、ユーザX1の感情を推定する。
【0022】
推定システム100は、
図1に示すように、取得部1と、第1推定部2と、第2推定部3と、感情推定部4と、記憶部5と、出力部6と、収集部7と、を備える。
【0023】
推定システム100は、コンピュータシステムを備えることが好ましい。コンピュータシステムでは、CPU(Central Processing Unit)、又はMPU(Micro Processing Unit)などのプロセッサがメモリに記憶されているプログラムを読み出して実行することによって、取得部1、第1推定部2、第2推定部3、感情推定部4、及び出力部6の各機能が実現される。コンピュータシステムは、プログラムに従って動作するプロセッサを主なハードウェア構成として備える。プロセッサは、プログラムを実行することによって機能を実現することができれば、その種類は問わない。プロセッサは、半導体集積回路(IC)、又はLSI(Large Scale Integration)を含む一つ又は複数の電子回路で構成される。ここでは、ICやLSIと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(Very Large Scale Integration)、若しくはULSI(Ultra Large Scale Integration)と呼ばれるものであってもよい。LSIの製造後にプログラムされる、フィールド・プログラマブル・ゲート・アレイ(FPGA)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができる再構成可能な論理デバイスも同じ目的で使うことができる。複数の電子回路は、一つのチップに集積されてもよいし、複数のチップに設けられてもよい。複数のチップは一つの装置に集約されていてもよいし、複数の装置に備えられていてもよい。なお、プログラムは、電気通信回線を通じて提供されてもよいし、メモリカード等の記録媒体に記録されて提供されてもよい。
【0024】
(収集部)
収集部7は、第1収集情報I3及び第2収集情報I4を収集し、取得部1に出力する。第1収集情報I3は、取得部1が第1生体情報I1を取得するための情報であり、第2収集情報I4は、取得部1が第2生体情報I2を取得するための情報である。
【0025】
実施形態1の収集部7は、第1収集部71と、第2収集部72と、を有する。例えば、第1収集部71は施設Y1の天井Y11(
図2参照)に設けられたセキュリティカメラ等の撮像装置であり、第2収集部72はウェアラブル加速度センサである。
【0026】
実施形態1では、第1収集情報I3は、ユーザX1が歩行している様子を第1収集部71が撮像した撮像データである。本開示でいう「撮像データ」は、ユーザX1が歩行している様子を所定時間において撮像した動画データであってもよく、ユーザX1が歩行している様子を所定時間内の複数の時点で撮像した複数の画像データであってもよい。一方、第2収集情報I4は、歩行しているユーザX1の表情を第1収集部71が撮像した撮像データと、歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮を第2収集部72が検出した検出データと、である。
【0027】
すなわち、第1収集部71は、ユーザX1が歩行している様子と、歩行しているユーザX1の表情と、を撮像し、撮像した撮像データを取得部1に出力する。一方、第2収集部72は、歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮を検出し、検出した検出データを取得部1に出力する。
【0028】
(取得部)
取得部1は、ユーザX1に関する第1生体情報I1及び第2生体情報I2を含む複数の生体情報を取得する。第2生体情報I2は、ユーザX1に関する、第1生体情報I1とは異なる生体情報である。取得部1は、収集部7から出力された第1収集情報I3に基づき第1生体情報I1を取得し、収集部7から出力された第2収集情報I4に基づき第2生体情報I2を取得する。
【0029】
第1生体情報I1は、ユーザX1の動作に関する情報である。より詳細には、実施形態1の第1生体情報I1は、予め定められた所定期間内の複数の時点の各々において取得するユーザX1の歩行特徴量を含む。ここにおける所定時間は、例えば、10秒~30分の間で定められることが望ましいが、限定されない。実施形態1では、所定時間は、10分であることを想定する。実施形態1では、ユーザX1の歩行特徴量は、ユーザX1の歩行速度、歩幅、鉛直方向における腰の揺れ、ストライド、及び進行方向における頭の傾きである。
【0030】
本開示でいう「歩幅」は、ユーザX1が左足又は右足である第1の足を先に踏み出した後に、もう一方の足である第2の足を踏み出した場合、着地した第1の足の踵から次に着地したもう一方の足である第2の足の踵までの距離である。具体的には、ユーザX1が左足を踏み出した(第1の足が左足である)場合を想定すると、「歩幅」は、着地した第1の足である左足の踵から次に着地した第2の足である右足の踵までの距離である。同様に、ユーザX1が右足を踏み出した(第1の足が右足である)場合を想定すると、「歩幅」は、着地した第1の足である右足の踵から次に着地した第2の足である左足の踵までの距離である。すなわち、「歩幅」は、ユーザX1の状態(例えば、片足が動かしづらい等)によって、左足を踏み出した場合と、右足を踏み出した場合と、によって異なる値になることが考えられる。
【0031】
一方、本開示でいう「ストライド」は、ユーザX1が左足又は右足である第1の足を先に踏み出した後に、もう一方の足である第2の足を踏み出した場合、着地した第1の足の踵から次に第1の足を踏み出したときの着地した第1の足の踵までの距離、すなわち、第1の足を踏み出したときの歩幅と、第2の足を踏み出したときの歩幅と、を加算した値である。具体的には、ユーザX1が左足を先に踏み出した(第1の足が左足である)場合を想定すると、「ストライド」は、第1の足である左足を踏み出したときの歩幅と、第2の足である右足を踏み出したときの歩幅と、を加算した値である。同様に、ユーザX1が右足を先に踏み出した(第1の足が右足である)場合を想定すると、「ストライド」は、第1の足である右足を踏み出したときの歩幅と、第2の足である左足を踏み出したときの歩幅と、を加算した値である。すなわち、「ストライド」は、ユーザX1の状態(例えば、片足が動かしづらい等)に関わらず、左足を先に踏み出した場合と、右足を先に踏み出した場合と、において同じ値になる。
【0032】
ユーザX1の歩行特徴量が「歩幅」と「ストライド」との両方を含むことによって、「ストライド」が同じ値である場合において、「歩幅」が左足を踏み出した場合と右足を踏み出した場合とで異なる値をとるときと、「歩幅」が左足を踏み出した場合と右足を踏み出した場合とで同じ値をとるときと、を区別することができるという利点がある。
【0033】
取得部1は、第1収集情報I3である撮像データから歩行しているユーザX1の骨格点を抽出し、当該骨格点の推移に基づき、予め定められた所定期間内の複数の時点の各々におけるユーザX1の歩行特徴量を取得する。取得部1は、取得したユーザX1の歩行特徴量を第1生体情報I1として第1推定部2に出力する。
【0034】
一方、実施形態1の第2生体情報I2は、ユーザX1の表情に関する表情情報と、ユーザX1の呼吸に関する呼吸情報と、の両方を含む。
【0035】
取得部1は、第2収集情報I4に含まれる第1収集部71が撮像した撮像データから、予め定められた所定期間内のある時点におけるユーザX1の表情が撮像された撮像画像を取得する。取得部1は、ユーザX1の表情が撮像された撮像画像を第2生体情報I2の表情情報として第2推定部3に出力する。
【0036】
取得部1は、第2収集情報I4に含まれる第2収集部72が検出した検出データに基づき、所定期間内のユーザX1の呼吸数を計測し取得する。取得部1は、所定時間内のユーザX1の呼吸数を第2生体情報I2の呼吸情報として第2推定部3に出力する。
【0037】
(第1推定部)
第1推定部2は、取得部1から出力された第1生体情報I1に基づき、ユーザX1の活性度L1を推定する。すなわち、第1推定部2は、ユーザX1の歩行特徴量に基づき、ユーザX1の活性度L1を推定する。第1推定部2は、ユーザX1が活発に動いているほど高い値の快適度L2を推定し、ユーザX1が活発に動いていないほど低い値の快適度L2を推定する。
【0038】
実施形態1の第1推定部2は、第1生体情報I1であるユーザX1の歩行特徴量を用いて、ユーザX1の活性度L1を(式1)で算出する。活性度L1は、-4から+4までの値で算出される。実施形態1では、算出された活性度L1の小数点第一位は、切り上げられる。なお、算出された活性度L1の小数点第一位は、切り下げられてもよく、四捨五入されてもよい。
【0039】
【0040】
(式1)における「V1」は、取得部1が取得する所定時間におけるユーザX1の歩行速度の平均値が、事前に取得されているユーザX1の歩行速度の基準値(例えば、数週間におけるユーザX1の歩行速度の平均値)に対してどのぐらい増減しているかを示す値である。同様に、「V2」は、取得部1が取得する所定時間におけるユーザX1の歩幅の平均値が、事前に取得されているユーザX1の歩幅の基準値(例えば、数週間におけるユーザX1の歩幅の平均値)に対してどのぐらい増減しているかを示す値である。「V3」は、取得部1が取得する所定時間におけるユーザX1の腰の鉛直方向の揺れの平均値が、事前に取得されているユーザX1の腰の鉛直方向の揺れの基準値(例えば、数週間におけるユーザX1の腰の鉛直方向の揺れの平均値)に対してどのぐらい増減しているかを示す値である。「V4」は、取得部1が取得する所定時間におけるユーザX1のストライドの平均値が、事前に取得されているユーザX1のストライドの揺れの基準値(例えば、数週間におけるユーザX1のストライドの平均値)に対してどのぐらい増減しているかを示す値である。「V5」は、取得部1が取得する所定時間におけるユーザX1の頭の進行方向の傾きの平均値が、事前に取得されているユーザX1の頭の進行方向の傾きの基準値(例えば、数週間におけるユーザX1の頭の進行方向の傾きの平均値)に対してどのぐらい増減しているかを示す値である。「k1」は、ユーザX1の歩行速度が活性度L1に寄与する程度に応じて導出される係数である。同様に、「k2」は、ユーザX1の歩幅が活性度L1に寄与する程度に応じて導出される係数である。「k3」は、鉛直方向におけるユーザX1の腰の揺れが活性度L1に寄与する程度に応じて導出される係数であり、「k4」は、ユーザX1のストライドが活性度L1に寄与する程度に応じて算出される係数であり、「k5」は、進行方向におけるユーザX1の頭の傾きが活性度L1に寄与する程度に応じて導出される係数である。「k1」、「k2」、「k3」、「k4」、及び「k5」は、重回帰分析によって、活性度L1が-4~+4の間に算出されるように導出される回帰係数である。
【0041】
第1推定部2は、推定したユーザX1の活性度L1を感情推定部4に出力する。
【0042】
(第2推定部)
実施形態1の第2推定部3は、取得部1から出力された第2生体情報I2に基づき、ユーザX1の快適度L2及び覚醒度L3の両方を推定する。
【0043】
第2推定部3は、第2生体情報I2に含まれるユーザX1の表情に関する表情情報に基づき、快適度L2を推定する。快適度L2は、-4から+4までの値で推定される。第2推定部3は、ユーザX1の表情が笑顔であるほど高い値の快適度L2を推定し、ユーザX1の表情が怒顔であるほど低い値の快適度L2を推定する。
【0044】
具体的には、第2推定部3は、蓄積部と、機械学習部と、を有する。蓄積部は、様々な種類の表情を撮像した複数の候補撮像画像の各々とユーザが設定した設定快適度の値とを対応付けて学習モデルとして蓄積する。設定快適度は、-4から+4までの値で設定される。設定快適度は、候補撮像画像に撮像された表情が笑顔であるほど高い値が対応付けられ、候補撮像画像に撮像された表情が怒顔であるほど低い値が対応付けられる。機械学習部は、蓄積された学習モデルを用いて、快適度L2を予測し推定する。機械学習部は、複数の候補撮像画像のうち取得部1から出力された撮像画像に類似する候補撮像画像を特定し、当該候補撮像画像に対応付けられた候補快適度を快適度L2として予測し推定する。
【0045】
また、第2推定部3は、第2生体情報I2に含まれるユーザX1の呼吸に関する呼吸情報に基づき、覚醒度L3を推定する。覚醒度L3は、-4から+4までの値で推定される。第2推定部3は、ユーザX1が興奮又は緊張しているほど高い値の覚醒度L3を推定し、ユーザX1が落ち着いているほど低い値の覚醒度L3を推定する。
【0046】
具体的には、第2推定部3は、所定期間内のユーザX1の呼吸数に応じて、下記表1のように、覚醒度L3を推定する。より詳細には、第2推定部3は、所定期間内のユーザX1の呼吸数が多いほど高い値の覚醒度L3を推定し、所定期間内のユーザX1の呼吸数が少ないほど低い値の覚醒度L3を推定する。なお、ここにおける所定期間は、1分であることを想定するが、1分に限定されない。
【0047】
【0048】
第2推定部3は、推定したユーザX1の快適度L2及び覚醒度L3を感情推定部4に出力する。
【0049】
(記憶部)
記憶部5は、複数の候補活性度Lc1、複数の候補快適度Lc2、及び複数の候補覚醒度Lc3の各々の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶する。ここでいう「候補活性度Lc1」は、第1推定部2により推定される活性度L1の候補値である。同様に、「候補快適度Lc2」は、第2推定部3により推定される快適度L2の候補値である。「候補覚醒度Lc3」は、第2推定部3により推定される覚醒度L3の候補値である。
【0050】
実施形態1では、候補活性度Lc1は、0以上であるか否かによって区別される。同様に、候補快適度Lc2は、0以上であるか否かによって区別され、候補覚醒度Lc3は、0以上であるか否かによって区別される。すなわち、実施形態1の記憶部5は、候補活性度Lc1が0以上であるか否かと、候補快適度Lc2が0以上であるか否かと、候補覚醒度Lc3が0以上であるか否かと、の8組の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶する。一例として、記憶部5は、下記表2のような対応関係の複数の候補感情を記憶する。
【0051】
【0052】
より詳細には、記憶部5は、候補活性度Lc1が0以上であり、候補快適度Lc2が0以上であり、候補覚醒度Lc3が0以上である組み合わせに対して、「わくわくした」という候補感情を対応付けて記憶する。記憶部5は、候補活性度Lc1が0以上であり、候補快適度Lc2が0以上であり、候補覚醒度Lc3が0未満である組み合わせに対して、「元気な」という候補感情を対応付けて記憶する。記憶部5は、候補活性度Lc1が0以上であり、候補快適度Lc2が0未満であり、候補覚醒度Lc3が0以上である組み合わせに対して、「怒った」という候補感情を対応付けて記憶する。記憶部5は、候補活性度Lc1が0以上であり、候補快適度Lc2が0未満であり、候補覚醒度Lc3が0未満である組み合わせに対して、「びくびくした」という候補感情を対応付けて記憶する。
【0053】
同様に、記憶部5は、候補活性度Lc1が0未満であり、候補快適度Lc2が0以上であり、候補覚醒度Lc3が0以上である組み合わせに対して、「真剣な」という候補感情を対応付けて記憶する。記憶部5は、候補活性度Lc1が0未満であり、候補快適度Lc2が0以上であり、候補覚醒度Lc3が0未満である組み合わせに対して、「のんびりした」という候補感情を対応付けて記憶する。記憶部5は、候補活性度Lc1が0未満であり、候補快適度Lc2が0未満であり、候補覚醒度Lc3が0以上である組み合わせに対して、「緊迫した」という候補感情を対応付けて記憶する。記憶部5は、候補活性度Lc1が0未満であり、候補快適度Lc2が0未満であり、候補覚醒度Lc3が0未満である組み合わせに対して、「落ち込んだ」という候補感情を対応付けて記憶する。
【0054】
なお、記憶部5に記憶される複数の候補感情は、上記表2に記載の種別に限定されない。例えば、上記表2において「わくわくした」という候補感情は、「いきいき」又は「楽しい」という候補感情であってもよい。すなわち、記憶部5は、候補活性度Lc1が0以上であり、候補快適度Lc2が0以上であり、候補覚醒度Lc3が0以上である組み合わせに対して、「いきいき」又は「楽しい」という候補感情を対応付けて記憶してもよい。
【0055】
実施形態1の記憶部5は、推定システム100の備えるコンピュータのメモリであり、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、又はEEPROM(Electrically Erasable Programmable Read Only Memory)である。しかし、記憶部5は、推定システム100の備えるコンピュータとは別体の装置のメモリであってもよい。
【0056】
(感情推定部)
感情推定部4は、記憶部5に記憶されている候補感情を用いて、第1推定部2及び第2推定部3の推定結果に基づき、ユーザX1の感情を推定する。言い換えれば、感情推定部4は、記憶部5に記憶されている候補感情を用いて、第1推定部2から出力されるユーザX1の活性度L1と、第2推定部3から出力されるユーザX1の快適度L2及び覚醒度L3と、に基づき、ユーザX1の感情を推定する。
【0057】
より詳細には、感情推定部4は、複数の候補活性度Lc1、複数の候補快適度Lc2、及び複数の候補覚醒度Lc3の各々の組み合わせにそれぞれ対応付けられた候補感情を用いて、第1推定部2及び第2推定部3の推定結果に基づき、ユーザX1の感情を推定する。感情推定部4は、第1推定部2及び第2推定部3の推定結果の組み合わせと一致する候補活性度Lc1、候補快適度Lc2、及び候補覚醒度Lc3の組み合わせに応じた候補感情をユーザX1の感情として特定する。言い換えれば、感情推定部4は、第1推定部2から出力されるユーザX1の活性度L1と、第2推定部3から出力されるユーザX1の快適度L2及び覚醒度L3と、の組み合わせに一致する候補活性度Lc1、候補快適度Lc2、及び候補覚醒度Lc3の組み合わせに対応付けられた候補感情をユーザX1の感情として特定する。
【0058】
従来の推定システムでは、ユーザの活性度L1のみに基づき、ユーザの感情を推定する。このため、従来の推定システムが推定できるユーザの感情は限定的である。しかし、実施形態1の推定システム100では、感情推定部4は、ユーザX1の活性度L1と、ユーザX1の快適度L2及び覚醒度L3の両方と、に基づき、ユーザX1の感情を推定する。この結果、実施形態1の推定システム100が推定できるユーザX1の感情は限定的にならず、記憶部5に記憶されている多くの種類の心理状況の中から推定される。すなわち、多くの種類の心理状況からユーザX1の感情を推定できるという利点がある。また、実施形態1の推定システム100は、ユーザX1の快適度L2又は覚醒度L3の差異によって生じるユーザX1の感情の差異も推定することができる。すなわち、ユーザX1の感情を精度高く推定できるという利点もある。
【0059】
以下、実施形態1の感情推定部4がどのようにユーザX1の感情を推定するのかを具体例を挙げて説明する。
【0060】
例えば、第1推定部2から出力されるユーザX1の活性度L1が0以上であり、第2推定部3から出力されるユーザX1の快適度L2が0以上であり、第2推定部3から出力されるユーザX1の覚醒度L3が0以上である組み合わせの場合について説明する。この場合、感情推定部4は、候補活性度Lc1が0以上であり、候補快適度Lc2が0以上であり、候補覚醒度Lc3が0以上である組み合わせに対応付けて記憶された「わくわくした」という候補感情をユーザX1の感情として推定する。
【0061】
また、第1推定部2から出力されるユーザX1の活性度L1が0未満であり、第2推定部3から出力されるユーザX1の快適度L2が0未満であり、第2推定部3から出力されるユーザX1の覚醒度L3が0未満である組み合わせの場合について説明する。この場合、感情推定部4は、候補活性度Lc1が0未満であり、候補快適度Lc2が0未満であり、候補覚醒度Lc3が0未満である組み合わせに対応付けて記憶された「落ち込んだ」という候補感情をユーザX1の感情として推定する。
【0062】
感情推定部4は、推定したユーザX1の感情を出力部6に出力する。また、感情推定部4は、第1生体情報I1、第2生体情報I2、第1収集情報I3、及び第2収集情報I4の少なくとも1つを出力部6に出力してもよい。
【0063】
(出力部)
出力部6は、第1生体情報I1及び第2生体情報I2と、第1推定部2及び第2推定部3の推定結果と、感情推定部4が推定したユーザX1の感情と、の少なくとも1つを出力する。実施形態1では、出力部6は、第1生体情報I1であるユーザX1の歩行特徴量と、第2生体情報I2であるユーザX1の表情に関する表情情報及びユーザX1の呼吸に関する呼吸情報の両方と、第1推定部2が推定したユーザX1の活性度L1と、第2推定部3が推定したユーザX1の快適度L2及び覚醒度L3と、感情推定部4が推定したユーザX1の感情と、を出力する。上記の構成によると、ユーザX1に関する情報を確認しやすくなるという利点がある。
【0064】
実施形態1の出力部6の出力先は、外部装置A1の表示部A11である。外部装置A1は、例えば、ユーザX1が労働者である場合、ユーザX1の業務を監督する監督者の情報端末であり、ユーザX1が来客である場合、ユーザX1が歩行する施設Y1の管理者の情報端末である。ここでいう「情報端末」とは、例えば、コンピュータ、スマートフォン、タブレット型端末、又はスマートウォッチ等のウェアラブルデバイスである。
【0065】
出力部6は、
図3に示すように、第1表示情報B1と、第2表示情報B2と、第3表示情報B3と、第4表示情報B4と、第5表示情報B5と、を表示部A11が表示するように出力する。第1表示情報B1は、ユーザX1の歩行特徴量を示す情報である。第2表示情報B2は、ユーザX1の表情に関する表情情報を示す情報である。第3表示情報B3は、ユーザX1の呼吸に関する呼吸情報を示す情報である。第4表示情報B4は、第1推定部2及び第2推定部3の推定結果を示す情報である。第5表示情報B5は、感情推定部4が推定したユーザX1の感情を示す情報である。
【0066】
第1表示情報B1は、取得部1が抽出したユーザX1の骨格点に関する情報B11を含む。より詳細には、第1表示情報B1は、取得部1が抽出した所定期間内のある時点におけるユーザX1の骨格点の静止画像を表示する情報B11を含む。
【0067】
第2表示情報B2は、取得部1が取得した所定期間内のある時点におけるユーザX1の表情を撮像した撮像画像B12と、単位時間あたりのユーザX1が笑顔になった回数の時間変化を図示したグラフB22と、を含む。ここでいう「撮像画像B12」は、取得部1から出力され、第2推定部3が快適度L2を推定する際に使用した撮像画像である。
【0068】
第3表示情報B3は、取得部1が計測し取得したユーザX1の呼吸数に基づき、単位時間あたりにユーザX1が呼吸した回数の時間変化を図示したグラフB31を含む。
【0069】
第4表示情報B4は、第1推定部2が推定したユーザX1の活性度L1と、第2推定部3が推定したユーザX1の快適度L2及び覚醒度L3と、を示した表B41を含む。
図3では、第1推定部2がユーザX1の活性度L1を「4」と推定し、第2推定部3がユーザX1の快適度L2を「3」と推定し、ユーザX1の覚醒度L3を「4」と推定した場合を例示する。
【0070】
第5表示情報B5は、感情推定部4が推定したユーザX1の感情を絵柄で記号化して表現したアイコンB51と、感情推定部4が推定したユーザX1の感情を形容した言葉B52と、を含む。
図3では、感情推定部4が推定したユーザX1の感情を「わくわくした」と推定した場合を例示する。
【0071】
(1-2-2)推定方法
実施形態1において、施設Y1内を歩行するユーザX1の感情を推定する推定方法について
図4のフローチャートを用いて説明する。
【0072】
推定方法は、収集ステップST11と、取得ステップST12と、第1推定ステップST13と、第2推定ステップST14と、感情推定ステップST15と、出力ステップST16と、を含む。
【0073】
まず、収集ステップST11では、収集部7は、第1収集情報I3及び第2収集情報I4を収集し、取得部1に出力する。より詳細には、収集ステップST11では、第1収集部71は、ユーザX1が歩行している様子と歩行しているユーザX1の表情とを撮像し、取得部1に出力し、第2収集部72は、歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮を検出し、取得部1に出力する。
【0074】
その後、取得ステップST12では、取得部1は、ユーザX1に関する第1生体情報I1及び第2生体情報I2を含む複数の生体情報を取得する。より詳細には、取得ステップST12では、取得部1は、収集部7から出力された第1収集情報I3に基づき第1生体情報I1を取得し、収集部7から出力された第2収集情報I4に基づき第2生体情報I2を取得する。
【0075】
実施形態1の取得ステップST12は、第1取得ステップST121と、第2取得ステップST122と、第3取得ステップST123と、を含む。なお、第1取得ステップST121、第2取得ステップST122、及び第3取得ステップST123の順序が適宜入れ替わっていてもよい。
【0076】
第1取得ステップST121では、取得部1は、第1収集情報I3である撮像データから歩行しているユーザX1の骨格点を抽出し、当該骨格点の推移に基づき、予め定められた所定期間内の複数の時点の各々におけるユーザX1の歩行特徴量を取得する。その後、取得部1は、取得したユーザX1の歩行特徴量を第1生体情報I1として第1推定部2に出力する。
【0077】
第2取得ステップST122では、取得部1は、第2収集情報I4に含まれる第1収集部71が撮像した撮像データから、予め定められた所定期間内のある時点におけるユーザX1の表情が撮像された撮像画像を取得する。その後、取得部1は、ユーザX1の表情が撮像された撮像画像を第2生体情報I2の表情情報として第2推定部3に出力する。
【0078】
第3取得ステップST123では、取得部1は、第2収集情報I4に含まれる第2収集部72が検出した検出データに基づき、所定期間内のユーザX1の呼吸数を計測し取得する。その後、取得部1は、所定時間内のユーザX1の呼吸数を第2生体情報I2の呼吸情報として第2推定部3に出力する。
【0079】
そして、第1推定ステップST13では、第1推定部2は、取得部1から出力された第1生体情報I1に基づき、ユーザX1の活性度L1を推定する。より詳細には、第1推定ステップST13では、第1推定部2は、第1生体情報I1であるユーザX1の歩行特徴量を用いて、ユーザX1の活性度L1を算出し、推定したユーザX1の活性度L1を感情推定部4に出力する。その後、第2推定ステップST14では、第2推定部3は、取得部1から出力された第2生体情報I2に基づき、ユーザX1の快適度L2及び覚醒度L3の少なくとも一方を推定する。実施形態1の第2推定ステップST14では、第2推定部3は、取得部1から出力された第2生体情報I2に基づき、ユーザX1の快適度L2及び覚醒度L3の両方を推定する。より詳細には、実施形態1の第2推定ステップST14では、第2推定部3は、第2生体情報I2に含まれるユーザX1の表情に関する表情情報に基づき快適度L2を推定し、第2生体情報I2に含まれるユーザX1の呼吸に関する呼吸情報に基づき、覚醒度L3を推定する。なお、第1推定ステップST13、及び第2推定ステップST14の順序が適宜入れ替わっていてもよい。
【0080】
その後、感情推定ステップST15では、感情推定部4は、第1推定部2及び第2推定部3の推定結果に基づき、ユーザX1の感情を推定する。より詳細には、感情推定部4は、第1推定部2及び第2推定部3の推定結果の組み合わせと一致する候補活性度Lc1、候補快適度Lc2、及び候補覚醒度Lc3の組み合わせに応じた候補感情をユーザX1の感情として特定する。そして、出力ステップST16では、出力部6は、第1生体情報I1及び第2生体情報I2と、第1推定部2及び第2推定部3の推定結果と、感情推定部4が推定したユーザX1の感情と、の少なくとも1つを出力する。実施形態1の出力ステップST16では、出力部6は、第1生体情報I1であるユーザX1の歩行特徴量と、第2生体情報I2であるユーザX1の表情に関する表情情報及びユーザX1の呼吸に関する呼吸情報の両方と、第1推定部2が推定したユーザX1の活性度L1と、第2推定部3が推定したユーザX1の快適度L2及び覚醒度L3と、感情推定部4が推定したユーザX1の感情と、を出力する。
【0081】
(1-3)実施形態1の変形例
上述の実施形態1は、本開示の様々な実施形態の一つに過ぎない。上述の実施形態1は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。上述の実施形態と同様の構成については、同一の符号を付して説明を省略する。
【0082】
(1-3-1)実施形態1の第1変形例
上述の実施形態1の推定システム100は、ユーザX1の活性度L1、快適度L2、及び覚醒度L3に基づきユーザX1の感情を推定するが、ユーザX1の活性度L1、及び快適度L2のみに基づきユーザX1の感情を推定してもよい。言い換えれば、ユーザX1の感情を推定する際に、ユーザX1の覚醒度L3を使用しなくてもよい。
【0083】
以下、上述の実施形態1の第1変形例である推定システム100aの詳細な構成について説明する。
【0084】
推定システム100aは、ユーザX1の活性度L1、及び快適度L2のみに基づきユーザX1の感情を推定する。推定システム100aは、
図5に示すように、取得部1aと、第1推定部2と、第2推定部3aと、感情推定部4aと、記憶部5aと、出力部6aと、収集部7aと、を備える。
【0085】
(収集部)
収集部7aは、収集部7と同様に、第1収集情報I3及び第2収集情報I4aを収集し、取得部1に出力する。
【0086】
収集部7aは、第1収集部71aを有する。例えば、第1収集部71は施設Y1の天井Y11(
図2参照)に設けられたセキュリティカメラ等の撮像装置である。
【0087】
第1収集部71aは、ユーザX1が歩行している様子と、歩行しているユーザX1の表情と、を撮像し、撮像した撮像データを取得部1に出力する。第1収集情報I3は、上述の実施形態1と同じく、ユーザX1が歩行している様子を第1収集部71aが撮像した撮像データである。一方、第2収集情報I4aは、上述の実施形態1とは異なり、歩行しているユーザX1の表情を第1収集部71aが撮像した撮像データである。
【0088】
(取得部)
取得部1aは、取得部1と同様に、第1収集情報I3に基づき第1生体情報I1を取得し、第2収集情報I4aに基づき第2生体情報I2aを取得する。第1変形例の第2生体情報I2aは、ユーザX1の表情に関する表情情報を含み、ユーザX1の呼吸に関する呼吸情報を含まない。なお、第1生体情報I1については、実施形態1と同じであるため、詳細な説明を省略する。
【0089】
取得部1aは、第2収集情報I4aに含まれる撮像データから、予め定められた所定期間内のある時点におけるユーザX1の表情が撮像された撮像画像を取得する。取得部1aは、ユーザX1の表情が撮像された撮像画像を第2生体情報I2aの表情情報として第2推定部3に出力する。
【0090】
(第2推定部)
第2推定部3aは、取得部1aから出力された第2生体情報I2aに基づき、ユーザX1の快適度L2を推定する。第1変形例の第2推定部3aは、ユーザX1の覚醒度L3を推定しないという点で、実施形態1の第2推定部3とは異なる。
【0091】
第2推定部3aは、第2推定部3と同様に、第2生体情報I2aに含まれるユーザX1の表情に関する表情情報に基づき、ユーザX1の快適度L2を推定する。第2推定部3aにおける快適度L2を推定する具体的な方法は、第2推定部3と同様であるため省略する。
【0092】
(記憶部)
記憶部5aは、複数の候補活性度Lc1及び複数の候補快適度Lc2の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶する。実施形態2では、候補活性度Lc1は、0以上であるか否かによって区別され、候補快適度Lc2は、0以上であるか否かによって区別される。すなわち、実施形態2の記憶部5aは、候補活性度Lc1が0以上であるか否かと、候補快適度Lc2が0以上であるか否かと、の4組の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶する。一例として、記憶部5aは、下記表3のような対応関係の複数の候補感情を記憶する。
【0093】
【0094】
より詳細には、記憶部5aは、候補活性度Lc1が0以上であり、候補快適度Lc2が0以上である組み合わせに対して、「わくわくした」という候補感情を対応付けて記憶する。記憶部5aは、候補活性度Lc1が0以上であり、候補快適度Lc2が0未満である組み合わせに対して、「びくびくした」という候補感情を対応付けて記憶する。記憶部5aは、候補活性度Lc1が0未満であり、候補快適度Lc2が0以上である組み合わせに対して、「真剣な」という候補感情を対応付けて記憶する。記憶部5aは、候補活性度Lc1が0未満であり、候補快適度Lc2が0未満である組み合わせに対して、「落ち込んだ」という候補感情を対応付けて記憶する。
【0095】
(感情推定部)
感情推定部4aは、記憶部5aに記憶されている候補感情を用いて、第1推定部2及び第2推定部3aの推定結果に基づき、ユーザX1の感情を推定する。言い換えれば、感情推定部4aは、記憶部5aに記憶されている候補感情を用いて、第1推定部2から出力されるユーザX1の活性度L1と、第2推定部3aから出力されるユーザX1の快適度L2と、に基づき、ユーザX1の感情を推定する。
【0096】
より詳細には、感情推定部4aは、第1推定部2及び第2推定部3aの推定結果の組み合わせと一致する候補活性度Lc1及び候補快適度Lc2の組み合わせに応じた候補感情をユーザX1の感情として特定する。言い換えれば、感情推定部4aは、第1推定部2から出力されるユーザX1の活性度L1と、第2推定部3aから出力されるユーザX1の快適度L2と、の組み合わせに一致する候補活性度Lc1と候補快適度Lc2との組み合わせに対応付けられた候補感情をユーザX1の感情として特定する。
【0097】
以下、第1変形例の感情推定部4aがどのようにユーザX1の感情を推定するのかを具体例を挙げて説明する。
【0098】
例えば、第1推定部2から出力されるユーザX1の活性度L1が0以上であり、第2推定部3aから出力されるユーザX1の快適度L2が0以上である組み合わせの場合について説明する。この場合、感情推定部4aは、候補活性度Lc1が0以上であり、候補快適度Lc2が0以上である組み合わせに対応付けて記憶された「わくわくした」という候補感情をユーザX1の感情として推定する。
【0099】
また、第1推定部2から出力されるユーザX1の活性度L1が0未満であり、第2推定部3aから出力されるユーザX1の快適度L2が0未満である組み合わせの場合について説明する。この場合、感情推定部4aは、候補活性度Lc1が0未満であり、候補快適度Lc2が0未満である組み合わせに対応付けて記憶された「落ち込んだ」という候補感情をユーザX1の感情として推定する。
【0100】
感情推定部4aは、推定したユーザX1の感情を出力部6aに出力する。また、感情推定部4aは、第1生体情報I1、第2生体情報I2a、第1収集情報I3、及び第2収集情報I4aの少なくとも1つを出力部6に出力してもよい。
【0101】
(出力部)
出力部6aは、第1生体情報I1及び第2生体情報I2aと、第1推定部2及び第2推定部3aの推定結果と、感情推定部4aが推定したユーザX1の感情と、の少なくとも1つを出力する。第1変形例では、出力部6aは、第1生体情報I1であるユーザX1の歩行特徴量と、第2生体情報I2aであるユーザX1の表情に関する表情情報と、第1推定部2が推定したユーザX1の活性度L1と、第2推定部3aが推定したユーザX1の快適度L2と、感情推定部4aが推定したユーザX1の感情と、を出力する。
【0102】
出力部6aは、出力部6と同様に、第1表示情報B1と、第2表示情報B2と、第4表示情報B4と、第5表示情報B5と、を表示部A11が表示するように出力する。第1表示情報B1は、ユーザX1の歩行特徴量を示す情報である。第2表示情報B2は、ユーザX1の表情に関する表情情報を示す情報である。第4表示情報B4は、第1推定部2及び第2推定部3の推定結果を示す情報である。第5表示情報B5は、感情推定部4が推定したユーザX1の感情を示す情報である。
【0103】
しかし、推定システム100aでは、ユーザX1の感情を推定する際に、ユーザX1の覚醒度L3を使用しない。言い換えれば、推定システム100aでは、ユーザX1の感情を推定する際に、ユーザX1の呼吸に関する呼吸情報を使用しない。そのため、出力部6aは、出力部6とは異なり、ユーザX1の呼吸に関する呼吸情報を示す情報である第3表示情報B3を表示しない。また、第4表示情報B4の表B41では、ユーザX1の覚醒度L3の値を表示しない。一例として、第4表示情報B4の表B41におけるユーザX1の覚醒度L3の値を表示する欄に「-」を表示する。
【0104】
(1-3-2)実施形態1の第2変形例
上述の実施形態1の推定システム100は、ユーザX1の活性度L1、快適度L2、及び覚醒度L3に基づきユーザX1の感情を推定するが、ユーザX1の活性度L1、及び覚醒度L3のみに基づきユーザX1の感情を推定してもよい。言い換えれば、ユーザX1の感情を推定する際に、ユーザX1の快適度L2を使用しなくてもよい。
【0105】
以下、上述の実施形態1の第2変形例である推定システム100bの詳細な構成について説明する。
【0106】
推定システム100bは、ユーザX1の活性度L1、及び覚醒度L3のみに基づきユーザX1の感情を推定する。推定システム100bは、
図5に示すように、取得部1bと、第1推定部2と、第2推定部3bと、感情推定部4bと、記憶部5bと、出力部6bと、収集部7bと、を備える。
【0107】
(収集部)
収集部7bは、収集部7と同様に、第1収集情報I3及び第2収集情報I4bを収集し、取得部1に出力する。
【0108】
収集部7bは、第1収集部71bと、第2収集部72bと、を有する。例えば、第1収集部71bは施設Y1の天井Y11(
図2参照)に設けられたセキュリティカメラ等の撮像装置であり、第2収集部72bはウェアラブル加速度センサである。
【0109】
第1収集部71bは、ユーザX1が歩行している様子を撮像し、撮像した撮像データを取得部1に出力する。また、第2収集部72bは、歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮を検出し、検出した検出データを取得部1に出力する。第1収集情報I3は、上述の実施形態1と同じく、ユーザX1が歩行している様子を第1収集部71bが撮像した撮像データである。一方、第2収集情報I4bは、上述の実施形態1とは異なり、歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮を第2収集部72bが検出した検出データである。
【0110】
(取得部)
取得部1bは、取得部1と同様に、第1収集情報I3に基づき第1生体情報I1を取得し、第2収集情報I4bに基づき第2生体情報I2bを取得する。第1変形例の第2生体情報I2bは、ユーザX1の呼吸に関する呼吸情報を含み、ユーザX1の表情に関する表情情報を含まない。なお、第1生体情報I1については、実施形態1と同じであるため、詳細な説明を省略する。
【0111】
取得部1bは、第2収集情報I4bに含まれる撮像データから、所定期間内のユーザX1の呼吸数を計測し取得する。取得部1bは、所定時間内のユーザX1の呼吸数を第2生体情報I2の呼吸情報として第2推定部3bに出力する。
【0112】
(第2推定部)
第2推定部3bは、取得部1bから出力された第2生体情報I2bに基づき、ユーザX1の覚醒度L3を推定する。第1変形例の第2推定部3bは、ユーザX1の快適度L2を推定しないという点で、実施形態1の第2推定部3とは異なる。
【0113】
第2推定部3bは、第2推定部3と同様に、所定期間内のユーザX1の呼吸数に応じて、ユーザX1の覚醒度L3を推定する。第2推定部3bにおける覚醒度L3を推定する具体的な方法は、第2推定部3と同様であるため省略する。
【0114】
(記憶部)
記憶部5bは、複数の候補活性度Lc1及び複数の候補覚醒度Lc3の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶する。実施形態2では、候補活性度Lc1は、0以上であるか否かによって区別され、候補覚醒度Lc3は、0以上であるか否かによって区別される。すなわち、実施形態2の記憶部5bは、候補活性度Lc1が0以上であるか否かと、候補覚醒度Lc3が0以上であるか否かと、の4組の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶する。一例として、記憶部5bは、下記表4のような対応関係の複数の候補感情を記憶する。
【0115】
【0116】
より詳細には、記憶部5bは、候補活性度Lc1が0以上であり、候補覚醒度Lc3が0以上である組み合わせに対して、「焦った」という候補感情を対応付けて記憶する。記憶部5bは、候補活性度Lc1が0以上であり、候補覚醒度Lc3が0未満である組み合わせに対して、「びくびくした」という候補感情を対応付けて記憶する。記憶部5bは、候補活性度Lc1が0未満であり、候補覚醒度Lc3が0以上である組み合わせに対して、「緊迫した」という候補感情を対応付けて記憶する。記憶部5bは、候補活性度Lc1が0未満であり、候補覚醒度Lc3が0未満である組み合わせに対して、「沈んだ」という候補感情を対応付けて記憶する。
【0117】
(感情推定部)
感情推定部4bは、記憶部5bに記憶されている候補感情を用いて、第1推定部2及び第2推定部3bの推定結果に基づき、ユーザX1の感情を推定する。言い換えれば、感情推定部4bは、記憶部5bに記憶されている候補感情を用いて、第1推定部2から出力されるユーザX1の活性度L1と、第2推定部3bから出力されるユーザX1の覚醒度L3と、に基づき、ユーザX1の感情を推定する。
【0118】
より詳細には、感情推定部4bは、第1推定部2及び第2推定部3bの推定結果の組み合わせと一致する候補活性度Lc1及び候補覚醒度Lc3の組み合わせに応じた候補感情をユーザX1の感情として特定する。言い換えれば、感情推定部4bは、第1推定部2から出力されるユーザX1の活性度L1と、第2推定部3bから出力されるユーザX1の覚醒度L3と、の組み合わせに一致する候補活性度Lc1と候補覚醒度Lc3との組み合わせに対応付けられた候補感情をユーザX1の感情として特定する。
【0119】
以下、実施形態2の感情推定部4bがどのようにユーザX1の感情を推定するのかを具体例を挙げて説明する。
【0120】
例えば、第1推定部2から出力されるユーザX1の活性度L1が0以上であり、第2推定部3bから出力されるユーザX1の覚醒度L3が0以上である組み合わせの場合について説明する。この場合、感情推定部4bは、候補活性度Lc1が0以上であり、候補覚醒度Lc3が0以上である組み合わせに対応付けて記憶された「焦った」という候補感情をユーザX1の感情として推定する。
【0121】
また、第1推定部2から出力されるユーザX1の活性度L1が0未満であり、第2推定部3bから出力されるユーザX1の覚醒度L3が0未満である組み合わせの場合について説明する。この場合、感情推定部4bは、候補活性度Lc1が0未満であり、候補覚醒度Lc3が0未満である組み合わせに対応付けて記憶された「沈んだ」という候補感情をユーザX1の感情として推定する。
【0122】
感情推定部4bは、推定したユーザX1の感情を出力部6bに出力する。また、感情推定部4bは、第1生体情報I1、第2生体情報I2b、第1収集情報I3、及び第2収集情報I4bの少なくとも1つを出力部6に出力してもよい。
【0123】
(出力部)
出力部6bは、第1生体情報I1及び第2生体情報I2bと、第1推定部2及び第2推定部3bの推定結果と、感情推定部4bが推定したユーザX1の感情と、の少なくとも1つを出力する。第2変形例では、出力部6bは、第1生体情報I1であるユーザX1の歩行特徴量と、第2生体情報I2bであるユーザX1の呼吸に関する呼吸情報と、第1推定部2が推定したユーザX1の活性度L1と、第2推定部3bが推定したユーザX1の覚醒度L3と、感情推定部4bが推定したユーザX1の感情と、を出力する。
【0124】
出力部6bは、出力部6と同様に、第1表示情報B1と、第3表示情報B3と、第4表示情報B4と、第5表示情報B5と、を表示部A11が表示するように出力する。第1表示情報B1は、ユーザX1の歩行特徴量を示す情報である。第3表示情報B3は、ユーザX1の呼吸に関する呼吸情報を示す情報である。第4表示情報B4は、第1推定部2及び第2推定部3の推定結果を示す情報である。第5表示情報B5は、感情推定部4が推定したユーザX1の感情を示す情報である。
【0125】
しかし、推定システム100bでは、ユーザX1の感情を推定する際に、ユーザX1の快適度L2を使用しない。言い換えれば、推定システム100bでは、ユーザX1の感情を推定する際に、ユーザX1の表情に関する表情情報を使用しない。そのため、出力部6bは、出力部6とは異なり、ユーザX1の表情に関する表情情報を示す情報である第2表示情報B2を表示しない。また、第4表示情報B4の表B41では、ユーザX1の快適度L2の値を表示しない。一例として、第4表示情報B4の表B41におけるユーザX1の快適度L2の値を表示する欄に「-」を表示する。
【0126】
(1-3-3)実施形態1のその他の変形例
以下、上述の実施形態1のその他変形例を列挙する。以下の変形例は、適宜組み合わせて実現されてもよい。また、上述の実施形態1に係る推定システム100と同様の機能は、コンピュータプログラムであるプログラム、又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。一態様に係るプログラムは、コンピュータシステムに、上述の実施形態1における推定方法を実行させるためのプログラムである。
【0127】
上述の実施形態1では、記憶部5は、候補活性度Lc1が0以上であるか否かと、候補快適度Lc2が0以上であるか否かと、候補覚醒度Lc3が0以上であるか否かと、の8組の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶する。しかし、記憶部5は、候補活性度Lc1の値と、候補快適度Lc2の値と、候補覚醒度Lc3の値と、の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶してもよい。例えば、記憶部5は、候補活性度Lc1が4であり、候補快適度Lc2が3であり、候補覚醒度Lc3が4である組み合わせに対して、「わくわくした」という候補感情を対応付けて記憶してもよい。また、記憶部5は、候補活性度Lc1が4であり、候補快適度Lc2が-3であり、候補覚醒度Lc3が-4である組み合わせに対して、「びくびくした」という候補感情を対応付けて記憶してもよい。
【0128】
上述の実施形態1では、第1推定部2は、ユーザX1の活性度L1を-4から+4までの値で算出するが、第1推定部2が算出するユーザX1の活性度L1の値の範囲は限定されない。例えば、第1推定部2は、ユーザX1の活性度L1を-10から+10までの値で算出してもよいし、ユーザX1の活性度L1を0から+4までの値で算出してもよい。
【0129】
上述の実施形態1では、第2推定部3は、ユーザX1の快適度L2を-4から+4までの値で算出するが、第2推定部3が算出するユーザX1の快適度L2の値の範囲は限定されない。例えば、第2推定部3は、ユーザX1の快適度L2を-10から+10までの値で算出してもよいし、ユーザX1の快適度L2を0から+4までの値で算出してもよい。
【0130】
同様に、上述の実施形態1では、第2推定部3は、ユーザX1の覚醒度L3を-4から+4までの値で算出するが、第2推定部3が算出するユーザX1の覚醒度L3の値の範囲は限定されない。例えば、第2推定部3は、ユーザX1の覚醒度L3を-10から+10までの値で算出してもよいし、ユーザX1の快適度L2を0から+4までの値で算出してもよい。
【0131】
上述の実施形態1では、記憶部5は、候補活性度Lc1が0以上であるか否かと、候補快適度Lc2が0以上であるか否かと、候補覚醒度Lc3が0以上であるか否かと、の8組の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶する。すなわち、上述の実施形態1では、記憶部5は、0を基準値とした候補活性度Lc1、候補快適度Lc2、及び候補覚醒度Lc3の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶する。しかし、記憶部5が記憶する候補活性度Lc1、候補快適度Lc2、及び候補覚醒度Lc3の組み合わせにおける基準値は、限定されない。一例として、記憶部5は、3を基準値とした候補活性度Lc1、候補快適度Lc2、及び候補覚醒度Lc3の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶してもよい。すなわち、記憶部5は、候補活性度Lc1が3以上であるか否かと、候補快適度Lc2が3以上であるか否かと、候補覚醒度Lc3が3以上であるか否かと、の8組の組み合わせにそれぞれ対応付けられた複数の候補感情を記憶してもよい。
【0132】
上述の実施形態1では、取得部1は、第2収集情報I4に含まれる第2収集部72が歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮を検出した検出データに基づき、所定期間内のユーザX1の呼吸数を計測し取得する。しかし、取得部1は、第1収集部71が歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮を撮像した撮像データに基づき、所定期間内のユーザX1の呼吸数を計測し取得してもよい。
【0133】
すなわち、上述の実施形態1では、第2収集情報I4は、歩行しているユーザX1の表情を第1収集部71が撮像した撮像データと、歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮を第2収集部72が検出した検出データと、である。しかし、第2収集情報I4は、歩行しているユーザX1の表情と、歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮と、を第1収集部71が撮像した撮像データであってもよい。言い換えれば、収集部7は、セキュリティカメラ等の撮像装置である第1収集部71のみを有していてもよい。
【0134】
上述の実施形態1では、取得部1は、ユーザX1の動作に関する第1生体情報I1と、ユーザX1の表情及び呼吸に関する第2生体情報I2と、を含む複数の生体情報を取得する。しかし、取得部1が取得する複数の生体情報は、ユーザX1に関する、第1生体情報I1及び第2生体情報I2とは異なる生体情報を含んでいてもよい。例えば、取得部1が取得する複数の生体情報は、ユーザX1の脳波、脈拍、心拍、発汗、体温、呼吸活動、血圧、血流速度、血流量、血中酸素濃度、筋電、又は眼電位の生体情報を含んでいてもよい。また、取得部1が取得する複数の生体情報は、虹彩、瞳孔の開き具合、視点の位置・視点の動き、視線の動き、音声、発話量、匂い、ジェスチャー、顔の表情、皮膚温度、又は皮膚電位の生体情報を含んでいてもよい。上記の場合、推定システム100は、第1生体情報I1と、第2生体情報I2と、第1生体情報I1及び第2生体情報I2とは異なる生体情報と、を含む複数の生体情報のうち2つ以上の生体情報を用いて、ユーザX1の感情を推定してもよい。
【0135】
(実施形態2)
(2-1)概要
以下、実施形態2に係る推定システム100cについて、
図8を用いて説明する。実施形態1と同様の構成については、同一の符号を付して説明を省略する。
【0136】
実施形態1の推定システム100は、施設Y1内を歩行するユーザX1の感情を推定するシステムであるが、実施形態2の推定システム100cは、施設Y1内で停留しているユーザX1の感情を推定するシステムである。ここでいう「施設Y1内で停留しているユーザX1」とは、施設Y1内を移動していないユーザX1であり、例えば、着座している、又は立ち止まっているユーザX1等である。
【0137】
実施形態2の推定システム100cは、ユーザX1の体動の変化量を用いてユーザX1の活性度L1を推定する点で、実施形態1の推定システム100と異なる。すなわち、実施形態2の推定システム100cは、第1生体情報I1が予め定められた所定期間内の複数の時点の各々において取得されるユーザX1の体動の変化量を含む点で、実施形態1の推定システム100と異なる。本開示でいう「ユーザX1の体動」は、停留しているユーザX1の体の動きであり、例えば、腕を動かしたり、顔を動かしたり、体の向きを変更したりすることである。
【0138】
(2-2)詳細な構造
(2-2-1)推定システム
推定システム100cは、
図7に示すように、取得部1cと、第1推定部2cと、第2推定部3と、感情推定部4と、記憶部5と、出力部6と、収集部7cと、を備える。
【0139】
(収集部)
収集部7cは、第1収集情報I3c及び第2収集情報I4を収集し、取得部1cに出力する。第1収集情報I3cは、取得部1が第1生体情報I1cを取得するための情報であり、第2収集情報I4は、取得部1cが第2生体情報I2を取得するための情報である。なお、第2収集情報I4については、実施形態1と同じであるため、詳細な説明を省略する。
【0140】
実施形態2の収集部7cは、第1収集部71cと、第2収集部72cと、を有する。例えば、第1収集部71cは施設Y1の天井Y11(
図2参照)に設けられたセキュリティカメラ等の撮像装置であり、第2収集部72cはウェアラブル加速度センサである。
【0141】
実施形態2では、第1収集情報I3cは、ユーザX1の体動を第2収集部72cが検出した検出データである。すなわち、第2収集部72cは、ユーザX1の体動を検出し、検出した検出データを取得部1cに出力する。
【0142】
実施形態2では、第1収集部71cは、歩行しているユーザX1の表情を撮像し、取得部1cに出力する。一方、第2収集部72cは、歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮と、ユーザX1の体動と、を検出し取得部1cに出力する。
【0143】
(取得部)
取得部1cは、ユーザX1に関する第1生体情報I1c及び第2生体情報I2を含む複数の生体情報を取得する。取得部1cは、収集部7cから出力された第1収集情報I3に基づき第1生体情報I1を取得し、収集部7cから出力された第2収集情報I4に基づき第2生体情報I2を取得する。なお、第2生体情報I2については、実施形態1と同じであるため、詳細な説明を省略する。
【0144】
第1生体情報I1は、ユーザX1の動作に関する情報である。より詳細には、実施形態2の第1生体情報I1は、予め定められた所定期間内の複数の時点の各々において取得するユーザX1の体動の変化量を含む。ここにおける所定時間は、例えば、10秒~30分の間で定められることが望ましいが、限定されない。実施形態2では、所定時間は、10分であることを想定する。
【0145】
取得部1cは、第2収集部72cが検出した検出データに基づき、所定期間内の複数の時点の各々において取得するユーザX1の体動の変化量を取得する。具体的には、取得部1cは、所定期間の間において、1秒毎のユーザX1の体動の変化量を累計した累計値を取得する。取得部1cは、取得したユーザX1の体動の変化量を第1生体情報I1として第1推定部2cに出力する。
【0146】
(第1推定部)
第1推定部2cは、取得部1cから出力された第1生体情報I1に基づき、ユーザX1の活性度L1を推定する。すなわち、第1推定部2cは、ユーザX1の体動の変化量に基づき、ユーザX1の活性度L1を推定する。実施形態1の第1推定部2cは、第1生体情報I1であるユーザX1の体動の変化量を用いて、ユーザX1の活性度L1を推定する。活性度L1は、-4から+4までの値で算出される。
【0147】
具体的には、第1推定部2cは、第1生体情報I1であるユーザX1の体動の変化量に応じて、下記表5のように、活性度L1を推定する。より詳細には、第2推定部3は、所定期間内のユーザX1の呼吸数が多いほど高い値の活性度L1を推定し、所定期間内のユーザX1の呼吸数が少ないほど低い値の活性度L1を推定する。
【0148】
【0149】
(2-2-2)推定方法
実施形態2において、施設Y1内で停留しているユーザX1の感情を推定する推定方法について
図8のフローチャートを用いて説明する。
【0150】
実施形態2の推定方法は、
図8に示すように、収集ステップST21と、取得ステップST22と、第1推定ステップST23と、第2推定ステップST24と、感情推定ステップST25と、出力ステップST26と、を含む。なお、実施形態2における第2推定ステップST24、感情推定ステップST25、及び出力ステップST26は、実施形態1における第2推定ステップST14、感情推定ステップST15、及び出力ステップST16と同様のステップであるので、詳細な説明を省略する。
【0151】
まず、収集ステップST21では、収集部7cは、第1収集情報I3及び第2収集情報I4を収集し、取得部1cに出力する。より詳細には、収集ステップST21では、第1収集部71cは、歩行しているユーザX1の表情を撮像し、取得部1cに出力し、第2収集部72cは、歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮と、ユーザX1の体動と、を検出し取得部1cに出力する。
【0152】
その後、取得ステップST22では、取得部1cは、ユーザX1に関する第1生体情報I1c及び第2生体情報I2を含む複数の生体情報を取得する。より詳細には、取得ステップST22では、取得部1cは、収集部7cから出力された第1収集情報I3に基づき第1生体情報I1を取得し、収集部7cから出力された第2収集情報I4に基づき第2生体情報I2を取得する。
【0153】
実施形態2の取得ステップST22は、第1取得ステップST221と、第2取得ステップST222と、第3取得ステップST223と、を含む。また、第1取得ステップST221、第2取得ステップST222、及び第3取得ステップST223の順序が適宜入れ替わっていてもよい。なお、実施形態2における第2取得ステップST222及び第3取得ステップST223は、実施形態1における第2取得ステップST122及び第3取得ステップST123と同様のステップであるので、詳細な説明を省略する。
【0154】
第1取得ステップST221では、取得部1cは、第2収集部72cが検出した検出データに基づき、所定期間内の複数の時点の各々において取得するユーザX1の体動の変化量を取得する。
【0155】
取得ステップST22の終了後、第1推定ステップST23を実施する。第1推定ステップST23では、第1推定部2cは、取得部1cから出力された第1生体情報I1cに基づき、ユーザX1の活性度L1を推定する。より詳細には、第1推定ステップST23では、第1推定部2cは、第1生体情報I1であるユーザX1の体動の変化量を用いて、ユーザX1の活性度L1を推定し、推定したユーザX1の活性度L1を感情推定部4に出力する。その後、第2推定ステップST24、感情推定ステップST25、及び出力ステップST26を記載の順で実施する。なお、第1推定ステップST23、及び第2推定ステップST24の順序が適宜入れ替わっていてもよい。
【0156】
(2-3)実施形態2の変形例
上述の実施形態2は、本開示の様々な実施形態の一つに過ぎない。上述の実施形態2は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。
【0157】
上述の実施形態2の推定システム100cは、ユーザX1の活性度L1、快適度L2、及び覚醒度L3に基づきユーザX1の感情を推定するが、ユーザX1の活性度L1、及び快適度L2のみに基づきユーザX1の感情を推定してもよい。また、推定システム100cは、ユーザX1の活性度L1、及び覚醒度L3のみに基づきユーザX1の感情を推定してもよい。
【0158】
(実施形態3)
(3-1)概要
以下、実施形態3に係る推定システム100dについて、
図9を用いて説明する。実施形態1と同様の構成については、同一の符号を付して説明を省略する。
【0159】
実施形態3の推定システム100dは、
図9に示すように、取得部1dと、第1推定部2dと、第2推定部3と、感情推定部4と、記憶部5と、出力部6と、収集部7dと、状態推定部8と、選択部9と、を備える。
【0160】
状態推定部8は、ユーザX1が歩行状態であるか着座状態であるかを推定する。選択部9は、ユーザX1が歩行状態であると状態推定部8が推定した場合には動作モードとして歩行モードを選択し、ユーザX1が着座状態であると状態推定部8が推定した場合には動作モードとして着座モードを選択する。歩行モードでは、取得部1dは、予め定められた所定期間内の複数の時点の各々においてユーザの歩行特徴量を第1生体情報として取得し、第1推定部2dは、歩行特徴量に基づき活性度を推定する。着座モードでは、取得部1dは、予め定められた所定期間内の複数の時点の各々においてユーザの体動の変化量を第1生体情報として取得し、第1推定部2dは、体動の変化量に基づき活性度を推定する。
【0161】
以上より、実施形態3の推定システム100dは、ユーザX1が施設Y1内を歩行しているか、停留しているかに関わらず、多くの種類の心理状況からユーザX1の感情を推定できるという利点がある。
【0162】
(3-2)詳細な構造
(3-2-1)推定システム
推定システム100dは、
図9に示すように、取得部1dと、第1推定部2dと、第2推定部3と、感情推定部4と、記憶部5と、出力部6と、収集部7dと、状態推定部8と、選択部9と、を備える。
【0163】
状態推定部8及び選択部9の各機能は、取得部1d、第1推定部2d、第2推定部3、感情推定部4、及び出力部6の各機能と同様に、コンピュータシステムのCPU又はMPUなどのプロセッサがメモリに記憶されているプログラムを読み出して実行することによって、実現される。
【0164】
(収集部)
収集部7dは、第1収集情報I3d及び第2収集情報I4を収集し、取得部1dに出力する。第1収集情報I3dは、取得部1dが第1生体情報I1を取得するための情報であり、第2収集情報I4は、取得部1dが第2生体情報I2を取得するための情報である。なお、第2収集情報I4については、実施形態1と同じであるため、詳細な説明を省略する。
【0165】
実施形態3の収集部7dは、第1収集部71dと、第2収集部72dと、を有する。例えば、第1収集部71dは施設Y1の天井Y11(
図2参照)に設けられたセキュリティカメラ等の撮像装置であり、第2収集部72dはウェアラブル加速度センサである。
【0166】
実施形態3では、第1収集情報I3dは、ユーザX1が歩行している様子を第1収集部71dが撮像した撮像データと、ユーザX1の体動を第2収集部72dが検出した検出データと、である。すなわち、第1収集部71dは、ユーザX1が歩行している様子と、歩行しているユーザX1の表情と、を撮像し、取得部1d及び状態推定部8に出力する。一方、第2収集部72dは、歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮と、ユーザX1の体動と、を検出し取得部1d及び状態推定部8に出力する。
【0167】
(状態推定部)
状態推定部8は、ユーザX1が歩行状態であるか着座状態であるかを推定する。より詳細には、状態推定部8は、収集部7dから出力されたユーザX1が歩行している様子を撮像した撮像データと、ユーザX1の体動と、の少なくとも一方に基づき、ユーザX1が歩行状態であるか着座状態であるかを推定する。
【0168】
(選択部)
選択部9は、ユーザX1が歩行状態であると状態推定部8が推定した場合には動作モードとして歩行モードを選択し、ユーザX1が着座状態であると状態推定部8が推定した場合には動作モードとして着座モードを選択する。
【0169】
(取得部)
取得部1dは、ユーザX1に関する第1生体情報I1d及び第2生体情報I2を含む複数の生体情報を取得する。取得部1dは、収集部7dから出力された第1収集情報I3に基づき、選択部9が選択した動作モードによって異なる第1生体情報I1dを取得する。取得部1dは、収集部7dから出力された第2収集情報I4に基づき第2生体情報I2を取得する。なお、第2生体情報I2については、実施形態1と同じであるため、詳細な説明を省略する。
【0170】
選択部9が動作モードとして歩行モードを選択した場合、取得部1dは、第1収集情報I3dに含まれる撮像データに基づき、ユーザX1の歩行特徴量を取得する。具体的には、選択部9が動作モードとして歩行モードを選択した場合、取得部1dは、第1収集情報I3dに含まれる撮像データから歩行しているユーザX1の骨格点を抽出し、当該骨格点の推移に基づき、予め定められた所定期間内の複数の時点の各々におけるユーザX1の歩行特徴量を取得する。取得部1は、取得したユーザX1の歩行特徴量を第1生体情報I1dとして第1推定部2dに出力する。
【0171】
一方、選択部9が動作モードとして着座モードを選択した場合、取得部1dは、第1収集情報I3dに含まれる検出した検出データに基づき、所定期間内の複数の時点の各々において取得するユーザX1の体動の変化量を取得する。具体的には、選択部9が動作モードとして着座モードを選択した場合、取得部1dは、所定期間の間において、1秒毎のユーザX1の体動の変化量を累計した累計値を取得する。取得部1dは、取得したユーザX1の体動の変化量を第1生体情報I1として第1推定部2dに出力する。
【0172】
(第1推定部)
第1推定部2dは、選択部9が選択した動作モードによって異なる方法を用いて、取得部1dから出力された第1生体情報I1dに基づき、ユーザX1の活性度L1を推定する。
【0173】
選択部9が動作モードとして歩行モードを選択した場合、第1推定部2dは、第1生体情報I1であるユーザX1の歩行特徴量を用いて、ユーザX1の活性度L1を算出する。上記の場合において第1推定部2dがユーザX1の活性度L1を算出する方法は、実施形態1の第1推定部2がユーザX1の活性度L1を算出する方法と同様であるため、詳細な説明を省略する。
【0174】
一方、選択部9が動作モードとし着座モードを選択した場合、第1推定部2dは、第1生体情報I1であるユーザX1の体動の変化量を用いて、ユーザX1の活性度L1を推定する。上記の場合において第1推定部2dがユーザX1の活性度L1を算出する方法は、実施形態2の第1推定部2dがユーザX1の活性度L1を算出する方法と同様であるため、詳細な説明を省略する。
【0175】
(2-2-2)推定方法
実施形態3において、施設Y1内を歩行する、又は施設Y1内で停留しているユーザX1の感情を推定する推定方法について
図10のフローチャートを用いて説明する。
【0176】
実施形態3の推定方法は、
図10に示すように、収集ステップST31と、状態推定ステップST32と、選択ステップST33と、取得ステップST34と、第1推定ステップST35と、第2推定ステップST36と、感情推定ステップST37と、出力ステップST38と、を含む。なお、実施形態2における第2推定ステップST36、感情推定ステップST37、及び出力ステップST38は、実施形態1における第2推定ステップST14、感情推定ステップST15、及び出力ステップST16と同様のステップであるので、詳細な説明を省略する。
【0177】
まず、収集ステップST31では、収集部7dは、第1収集情報I3及び第2収集情報I4を収集し、取得部1dに出力する。より詳細には、収集ステップST31では、第1収集部71dは、ユーザX1が歩行している様子と、歩行しているユーザX1の表情と、を撮像し、取得部1d及び状態推定部8に出力する。また、収集ステップST31では、第2収集部72dは、歩行しているユーザX1の呼吸に伴う腹部及び胸部の膨張、収縮と、ユーザX1の体動と、を検出し取得部1d及び状態推定部8に出力する。
【0178】
そして、状態推定ステップST32では、状態推定部8は、ユーザX1が歩行状態であるか着座状態であるかを推定する。より詳細には、状態推定ステップST32では、状態推定部8は、収集部7dから出力されたユーザX1が歩行している様子を撮像した撮像データと、ユーザX1の体動と、の少なくとも一方に基づき、ユーザX1が歩行状態であるか着座状態であるかを推定する。選択ステップST33では、選択部9は、ユーザX1が歩行状態であると状態推定部8が推定した場合には動作モードとして歩行モードを選択し、ユーザX1が着座状態であると状態推定部8が推定した場合には動作モードとして着座モードを選択する。
【0179】
その後、取得ステップST34では、取得部1dは、ユーザX1に関する第1生体情報I1d及び第2生体情報I2を含む複数の生体情報を取得する。より詳細には、取得ステップST34では、取得部1dは、収集部7dから出力された第1収集情報I3に基づき、選択部9が選択した動作モードによって異なる第1生体情報I1dを取得し、収集部7dから出力された第2収集情報I4に基づき第2生体情報I2を取得する。
【0180】
実施形態3の取得ステップST34は、第1取得ステップST341と、第2取得ステップST342と、第3取得ステップST343と、を含む。また、第1取得ステップST341、第2取得ステップST342、及び第3取得ステップST343の順序が適宜入れ替わっていてもよい。なお、実施形態2における第2取得ステップST342及び第3取得ステップST343は、実施形態1における第2取得ステップST122及び第3取得ステップST123と同様のステップであるので、詳細な説明を省略する。
【0181】
選択ステップST33において選択部9が動作モードとして歩行モードを選択した場合、第1取得ステップST341では、取得部1dは、第1収集情報I3dに含まれる撮像データに基づき、ユーザX1の歩行特徴量を取得する。具体的には、選択ステップST33において選択部9が動作モードとして歩行モードを選択した場合、第1取得ステップST341では、選択部9が動作モードとして歩行モードを選択した場合、取得部1dは、第1収集情報I3dに含まれる撮像データから歩行しているユーザX1の骨格点を抽出し、当該骨格点の推移に基づき、予め定められた所定期間内の複数の時点の各々におけるユーザX1の歩行特徴量を取得する。取得部1は、取得したユーザX1の歩行特徴量を第1生体情報I1dとして第1推定部2dに出力する。
【0182】
一方、選択ステップST33において選択部9が動作モードとして着座モードを選択した場合、第1取得ステップST341では、取得部1dは、第1収集情報I3dに含まれる検出した検出データに基づき、所定期間内の複数の時点の各々において取得するユーザX1の体動の変化量を取得する。具体的には、選択ステップST33において選択部9が動作モードとして着座モードを選択した場合、第1取得ステップST341では、取得部1dは、所定期間の間において、1秒毎のユーザX1の体動の変化量を累計した累計値を取得する。取得部1dは、取得したユーザX1の体動の変化量を第1生体情報I1として第1推定部2dに出力する。
【0183】
取得ステップST34の終了後、第1推定ステップST35を実施する。
【0184】
選択ステップST33において選択部9が動作モードとして歩行モードを選択した場合、第1推定ステップST35では、第1推定部2dは、第1生体情報I1であるユーザX1の歩行特徴量を用いて、ユーザX1の活性度L1を算出する。一方、選択ステップST33において選択部9が動作モードとして着座モードを選択した場合、第1推定ステップST35では、第1推定部2dは、第1生体情報I1であるユーザX1の体動の変化量を用いて、ユーザX1の活性度L1を推定する。
【0185】
その後、第2推定ステップST36、感情推定ステップST37、及び出力ステップST38を記載の順で実施する。なお、第1推定ステップST35、及び第2推定ステップST36の順序が適宜入れ替わっていてもよい。
【0186】
(まとめ)
第1の態様の推定システム(100、100a~100d)は、取得部(1、1a~1d)と、第1推定部(2、2c、2d)と、第2推定部(3、3a、3b)と、感情推定部(4、4a、4b)と、を備える。取得部(1、1a~1d)は、ユーザに関する第1生体情報(I1、I1c、I1d)、及び第1生体情報(I1、I1c、I1d)とは異なる第2生体情報(I2、I2a、I2b)を含む複数の生体情報を取得する。第1推定部(2、2c、2d)は、第1生体情報(I1、I1c、I1d)に基づき、ユーザの活性度(L1)を推定する。第2推定部(3、3a、3b)は、第2生体情報(I2、I2a、I2b)に基づき、ユーザの快適度(L2)及び覚醒度(L3)の少なくとも一方を推定する。感情推定部(4、4a、4b)は、第1推定部(2、2c、2d)及び第2推定部(3、3a、3b)の推定結果に基づき、ユーザの感情を推定する。
【0187】
この態様によれば、人の感情を推定する際の精度を向上させることができる、という利点がある。
【0188】
第2の態様の推定システム(100、100a~100d)では、第1の態様において、第1生体情報(I1、I1c、I1d)は、ユーザの動作に関する情報である。
【0189】
この態様によれば、人の感情を推定する際の精度をより向上させることができる、という利点がある。
【0190】
第3の態様の推定システム(100、100a~100b)では、第2の態様において、第1生体情報(I1)は、予め定められた所定期間内の複数の時点の各々において取得するユーザの歩行特徴量を含む。
【0191】
この態様によれば、歩行する人の感情を推定する際の精度を向上させることができる、という利点がある。
【0192】
第4の態様の推定システム(100c)では、第2の態様において、第1生体情報(I1c)は、予め定められた所定期間内の複数の時点の各々において取得するユーザの体動の変化量を含む。
【0193】
この態様によれば、停留している人の感情を推定する際の精度を向上させることができる、という利点がある。
【0194】
第5の態様の推定システム(100、100a~100d)では、第1~第4のいずれかの態様において、第2生体情報(I2、I2a、I2b)は、ユーザの表情に関する表情情報とユーザの呼吸に関する呼吸情報との少なくとも一方を含む。
【0195】
この態様によれば、人の感情を推定する際の精度をより向上させることができる、という利点がある。
【0196】
第6の態様の推定システム(100、100c~100d)では、第1~第5のいずれかの態様において、第1生体情報(I1、I1c、I1d)は、予め定められた所定期間内の複数の時点の各々において取得するユーザの歩行特徴量、又はユーザの体動の変化量を含む。第2生体情報(I2)は、ユーザの表情に関する表情情報とユーザの呼吸に関する呼吸情報との両方を含む。第1推定部(2、2c、2d)は、歩行特徴量又は体動の変化量に基づき、ユーザの活性度(L1)を推定する。第2推定部(3)は、表情情報に基づき、ユーザの快適度(L2)を推定し、呼吸情報に基づき、ユーザの覚醒度(L3)を推定する。感情推定部(4)は、複数の候補活性度(Lc1)、複数の候補快適度(Lc2)、及び複数の候補覚醒度(Lc3)の各々の組み合わせにそれぞれ対応付けられた複数の候補感情を用いて、第1推定部(2、2c、2d)及び第2推定部(3)の推定結果の組み合わせと一致する候補活性度(Lc1)、候補快適度(Lc2)及び候補覚醒度(Lc3)の組み合わせに応じた候補感情を、ユーザの感情として特定する。
【0197】
この態様によれば、人の感情を推定する際の精度をより向上させることができる、という利点がある。
【0198】
第7の態様の推定システム(100d)は、第1~第6のいずれかの態様において、状態推定部(8)と、選択部(9)と、を更に備える。状態推定部(8)は、ユーザが歩行状態であるか着座状態であるかを推定する。選択部(9)は、ユーザが歩行状態であると状態推定部(8)が推定した場合には動作モードとして歩行モードを選択し、ユーザが着座状態であると状態推定部が推定した場合には動作モードとして着座モードを選択する。歩行モードでは、取得部(1d)は、予め定められた所定期間内の複数の時点の各々においてユーザの歩行特徴量を第1生体情報(I1d)として取得し、第1推定部(2d)は、歩行特徴量に基づき活性度(L1)を推定する。着座モードでは、取得部(1d)は、予め定められた所定期間内の複数の時点の各々においてユーザの体動の変化量を第1生体情報(I1d)として取得し、第1推定部(2d)は、体動の変化量に基づき活性度(L1)を推定する。
【0199】
この態様によれば、人が歩行しているか、停留しているかに関わらず、人の感情を推定する際の精度を向上させることができる、という利点がある。
【0200】
第8の態様の推定システム(100、100a~100d)は、第1~第7のいずれかの態様において、出力部(6、6a、6b)を更に備える。出力部(6、6a、6b)は、第1生体情報(I1、I1c、I1d)及び第2生体情報(I2、I2a、I2b)と、第1推定部(2、2c、2d)及び第2推定部(3、3a、3b)の推定結果と、感情推定部(4、4a、4b)が推定したユーザの感情と、の少なくとも1つを出力する。
【0201】
この態様によれば、ユーザに関する情報を確認しやすくなる、という利点がある。
【0202】
第9の態様の推定システム(100、100a~100d)は、第1~第8のいずれかの態様において、収集部(7、7a~7d)を更に備える。収集部(7、7a~7d)は、第1収集情報及び第2収集情報を収集し、取得部(1、1a~1d)に出力する。取得部(1、1a~1d)は、第1収集情報に基づいて第1生体情報(I1、I1c、I1d)を取得し、第2収集情報に基づいて第2生体情報(I2、I2a、I2b)を取得する。
【0203】
この態様によれば、人の感情を推定する際の精度を向上させることができる、という利点がある。
【0204】
第10の態様の推定方法は、取得ステップ(ST12、ST22、ST34)と、第1推定ステップ(ST13、ST23、ST35)と、第2推定ステップ(ST14、ST24、ST36)と、感情推定ステップ(ST15、ST25、ST37)と、を含む。取得ステップ(ST12、ST22、ST34)では、ユーザに関する第1生体情報(I1、I1c、I1d)、及び第1生体情報(I1、I1c、I1d)とは異なる第2生体情報(I2、I2a、I2b)を含む複数の生体情報を取得する。第1推定ステップ(ST13、ST23、ST35)では、第1生体情報(I1、I1c、I1d)に基づき、ユーザの活性度(L1)を推定する。第2推定ステップ(ST14、ST24、ST36)では、第2生体情報(I2、I2a、I2b)に基づき、ユーザの快適度(L2)及び覚醒度(L3)の少なくとも一方を推定する。感情推定ステップ(ST15、ST25、ST37)では、第1推定ステップ(ST13、ST23、ST35)及び第2推定ステップ(ST14、ST24、ST36)における推定結果に基づき、ユーザの感情を推定する。
【0205】
この態様によれば、人の感情を推定する際の精度を向上させることができる、という利点がある。
【0206】
第11の態様のプログラムは、コンピュータシステムに、第10の態様の推定方法を実行させるためのプログラムである。
【0207】
この態様によれば、人の感情を推定する際の精度を向上させることができる、という利点がある。
【符号の説明】
【0208】
100、100a~100d 推定システム
1、1a~1d 取得部
2、2c、2d 第1推定部
3、3a、3b 第2推定部
4、4a、4b 感情推定部
5、5a、5b 記憶部
6、6a、6b 出力部
7、7a~7d 収集部
8 状態推定部
9 選択部
A1 外部装置
A11 表示部
L1 活性度
L2 快適度
L3 覚醒度
L3 呼吸数覚醒度
Lc1 候補活性度
Lc2 候補快適度
Lc3 候補覚醒度
I1、I1c、I1d 第1生体情報
I2、I2a、I2b 第2生体情報
I3、I3c、I3d 第1収集情報
I4、I4a、I4b 第2収集情報
ST12、ST22、ST34 取得ステップ
ST13、ST23、ST35 第1推定ステップ
ST14、ST24、ST36 第2推定ステップ
ST15、ST25、ST37 感情推定ステップ
ユーザ X1