(58)【調査した分野】(Int.Cl.,DB名)
前記出力において、前記第一値と前記第二値とを2つの座標軸とする平面上の点を前記被験者の感情を示す情報として前記感情推定装置が備える表示装置の表示画面に出力する
請求項1に記載の感情推定方法。
【発明を実施するための形態】
【0010】
本開示の一態様に係る感情推定方法は、被験者の感情を推定する感情推定装置における感情推定方法であって、生理学データに対応する第一データと、前記第一データとは異なる生理学データおよび非生理学データのうちの一方に対応する第二データとを前記被験者から取得し、取得した前記第一データと前記第二データとに基づいて、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出し、算出した前記第一値及び前記第二値から前記被験者の感情を、メモリに予め記憶された人の覚醒の度合い及び快適さの度合いと前記人の感情との所定の対応付けに基づいて推定し、推定した前記感情を示す情報を出力する。
【0011】
上記態様によれば、感情推定装置は、被験者から取得した生理学データおよび上記生理学データとは異なる被験者から取得した生理学データ又は非生理学データを含む、2以上のデータを用いて所定の対応付けに基づいて被験者の感情を推定することができる。ここで、感情推定装置は、上記2以上のデータを用いことで被験者の第一値(覚醒感)及び第二値(快適感)の2つの指標を算出することにより、被験者が抱いているさまざまな感情を適切に推定することができる。
【0012】
例えば、前記第二データは、非生理学データであってもよい。
【0013】
上記態様によれば、感情推定装置は、被験者から取得した生理学データ及び非生理学データを用いて、所定の対応付けに基づいて被験者の感情を推定することができる。生理学データは覚醒感との相関が比較的大きく、非生理学データは快適感との相関が比較的大きい。よって、生理学データ及び非生理学データを用いることにより覚醒感及び快適感をより正確に算出し、その結果、被験者の感情をより正確に推定することができる。
【0014】
例えば、前記算出において、前記第一データに基づいて前記第一値を算出し、前記第二データに基づいて前記第二値を算出してもよい。
【0015】
上記態様によれば、感情推定装置は、被験者から取得した生理学データを用いて生理学データに相関が比較的大きい覚醒感を算出し、また、非生理学データを用いて非生理学データに相関が比較的大きい快適感を算出する。よって、被験者の覚醒感及び快適感をより正確に算出し、その結果、被験者の感情をより正確に推定することができる。
【0016】
例えば、前記感情推定装置は、前記被験者の顔を撮像し、動画像データを生成するカメラを備え、前記取得において、前記カメラにより生成された前記動画像データに基づいて前記被験者の心拍数を前記第一データとして取得し、前記カメラにより生成された前記動画像データにおける前記被験者の顔の特徴点の位置に基づいて特定される前記被験者の表情を前記第二データとして取得してもよい。
【0017】
上記態様によれば、感情推定装置は、被験者の生理学データとしての心拍数と、非生理学データとしての表情とをともにカメラを用いて取得し、被験者の感情を推定する。このように、カメラという1つのデバイスを用いて生理学データ及び非生理学データの両方を取得して感情を推定することで、被験者の負担を削減するとともに、利便性が向上する。
【0018】
例えば、前記出力において、前記第一値と前記第二値とを2つの座標軸とする平面上の点として前記被験者の感情を示す情報を前記感情推定装置が備える表示装置の表示画面に出力してもよい。
【0019】
上記態様によれば、感情推定装置は、被験者の覚醒感と快適感とを平面上の点として表現して出力する。これにより、ユーザ又は被験者は、被験者の感情を、被験者が取り得るさまざまな感情のうちのどれであるか、また、併せてその感情の強度を直観的に知ることができる。
【0020】
例えば、前記出力において、前記第一値及び前記第二値の少なくとも一方を前記被験者の感情を示す情報として前記感情推定装置が備える表示装置の表示画面に出力してもよい。
【0021】
上記態様によれば、感情推定装置は、被験者の覚醒感と快適感との少なくとも一方を出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、被験者が感じている覚醒感及び/又は快適感を知ることができる。
【0022】
例えば、前記出力において、前記被験者の所定の感情の強さを示す値を、前記被験者の感情を示す情報として前記感情推定装置が備える表示装置の表示画面に出力してもよい。
【0023】
上記態様によれば、感情推定装置は、被験者の特定の感情(例えば、喜び)の強さ(言い換えれば、感情の度合い)を出力する。例えば、感情推定装置は、単に「喜び」という感情を出力するだけでなく、喜びの度合いを出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、その感情の強さ又は度合いを知ることができる。
【0024】
例えば、前記算出において、さらに、当該第一値に基づいて推定される前記被験者の感情の正しさを示す指標である第一信頼性を算出し、当該第二値に基づいて推定される前記被験者の感情の正しさを示す指標である第二信頼性を算出し、前記出力において、さらに前記感情を示す情報とともに、前記第一信頼性及び前記第二信頼性の少なくとも一方を示す情報を出力してもよい。
【0025】
上記態様によれば、感情推定装置は、推定した感情がどれだけ正しく被験者の感情を表しているかを信頼性として出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、その感情がどれだけ正しく被験者の感情を表しているかを知ることができる。
【0026】
例えば、前記感情推定方法では、前記取得において、1以上の前記第一データおよび1以上の前記第二データを取得し、前記算出において、取得した1以上の前記第一データのそれぞれについて、第一値と、第一信頼性とを算出し、算出した前記第一値の前記第一信頼性を重みとした加重平均により、前記被験者の覚醒の度合いを示す第一値を算出し、取得した1以上の前記第二データのそれぞれについて、第二値と、第二信頼性とを算出し、算出した前記第二値の前記第二信頼性を重みとした加重平均により、前記被験者の快適さ度合いを示す第二値を算出してもよい。
【0027】
上記態様によれば、感情推定装置は、複数の生理学データ及び非生理学データにより覚醒感又は快適感が算出され得る場合に、これら複数の生理学データ及び非生理学データを信頼性に基づいて適切に評価して、被験者の感情を推定することができる。
【0028】
例えば、前記出力において、さらに、前記第一信頼性及び前記第二信頼性の少なくとも一方が所定の閾値より小さい場合には、警告を出力してもよい。
【0029】
上記態様によれば、感情推定装置は、推定した感情が被験者の感情をそれほど正しく表していないと評価される場合に警告を出力する。これにより、ユーザ又は被験者は、推定された感情が被験者の感情をそれほど正しく表していないことを明確に知ることができる。
【0030】
例えば、前記算出において、前記第一データを所定の第一基準値と比較することで前記第一値を算出し、前記第二データを所定の第二基準値と比較することで前記第二値を算出し、前記感情推定方法は、さらに、前記被験者の身体的特徴に関連する情報を取得し、取得した前記被験者の身体的特徴に関連する情報に基づいて、前記所定の第一基準値又は前記所定の第二基準値を調整してもよい。
【0031】
上記態様によれば、感情推定装置は、被験者の身体的特徴に関連する情報(例えば、性別又は年齢など)に基づいて覚醒感及び快適感の基準値を変動させることで、覚醒感及び快適感を被験者の身体的特徴に合わせて調整することができ、より適切に感情を推定することができる。
【0032】
例えば、前記感情推定方法では、さらに、人の顔の予め定められた複数の領域のうち、前記第二データとしての表情を取得するのに用いる領域の選択をユーザから受け付け、前記取得において、前記被験者の顔のうち前記領域に含まれる特徴点を前記第二データとして取得し、前記算出において、前記被験者の顔のうち前記領域に含まれる特徴点に基づいて前記第二値を算出してもよい。
【0033】
上記態様によれば、感情推定装置は、被験者の表情を取得するための顔の領域についての設定を受け付け、これを用いて被験者の表情を取得する。例えば被験者がサングラスを着用している場合には被験者の目の部分がサングラスにより隠されるので、目の部分から表情に関する情報を取得することができない。このような場合に、被験者の目の部分を除く部分から被験者の表情を取得するようにすることで、感情推定装置は、表情の検出をより適切に行うことができる。
【0034】
例えば、前記生理学データは、顔の色、心拍数、心拍数変動、心拍数変動のLF/HF(Low Frequency/High Frequency)、R−R間隔、脈波、脈拍変動、脳波、呼吸数、呼吸量、血流、血流変動、血圧、血圧変動、酸素飽和度、身体の部分の動き、身体の筋肉の動き、顔の筋肉の動き、体温、皮膚温、皮膚コンダクタンス、皮膚抵抗、発汗量及び発汗レートの少なくとも1つを含んでもよい。
【0035】
上記態様によれば、感情推定装置は、顔の色などの生理学データを用いてより具体的に被験者が抱く感情を推定することができる。
【0036】
例えば、前記非生理学データは、表情、感情、接触入力信号、音声、言語表現、文章及び身振りの少なくとも1つを含んでもよい。
【0037】
上記態様によれば、感情推定装置は、表情などの非生理学データを用いてより具体的に被験者が抱く感情を推定することができる。
【0038】
例えば、前記所定の第一基準値又は前記所定の第二基準値は、被験者の性別、国籍、年齢及び肌の色の少なくとも1つに基づいて算出されてもよい。
【0039】
上記態様によれば、感情推定装置は、性別などの情報を用いてより具体的に被験者が抱く感情を推定することができる。
【0040】
また、本開示の一態様に係る感情推定装置は、生理学データに対応する第一データと、前記第一データとは異なる生理学データおよび非生理学データの内の一方に対応する第二データとを被験者から取得する取得部と、(i)取得した前記第一データと前記第二データとに基づいて、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出し、(ii)算出した前記第一値及び前記第二値から前記被験者の感情を、メモリに予め記憶された人の覚醒の度合い及び快適さの度合いと前記人の感情との所定の対応付けに基づいて推定する推定部と、推定した前記感情を示す情報を出力する出力部とを備える。
【0041】
上記態様によれば、上記感情推定装置と同様の効果を奏する。
【0042】
また、本開示の一態様に係る記録媒体は、コンピュータプログラムを記録した非一時的記録媒体であって、前記プログラムは、コンピュータに、生理学データに対応する第一データと、前記第一データとは異なる生理学データおよび非生理学データのうちの一方に対応する第二データとを被験者から取得し、取得した前記第一データと前記第二データとに基づいて、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出し、算出した前記第一値及び前記第二値から前記被験者の感情を、メモリに予め記憶された人の覚醒の度合い及び快適さの度合いと前記人の感情との所定の対応付けに基づいて推定し、推定した前記感情を示す情報を出力する処理を実行させる。
【0043】
上記態様によれば、上記感情推定装置と同様の効果を奏する。
【0044】
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
【0045】
以下、実施の形態について、図面を参照しながら具体的に説明する。
【0046】
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
【0047】
(実施の形態)
本実施の形態において、人が抱いているさまざまな感情を推定する感情推定装置、及び、感情推定装置における感情推定方法について説明する。なお、以降の説明において、感情推定装置により感情を推定する対象の人のことを被験者といい、感情推定装置を操作する人のことをユーザという。被験者とユーザとが同一の人であってもよい。
【0048】
図1は、人の感情の二次元モデルの一例の説明図である。より具体的には、
図1に示される感情の二次元モデルはラッセル円環モデルと呼ばれるものである。
【0049】
人は、喜び又は驚きというようなさまざまな感情を抱く。
図1は、人が抱くさまざまな感情を、覚醒の度合いである覚醒感(Arousal Level)と、快適さの度合いである快適感(Valence Level)とを2軸とする平面に配置したものである。
図1に示されるように、人が抱くさまざまな感情は、この平面において円環状に配置され得ることが知られている。
【0050】
発明者らは、被験者の顔の表情のみを用いてラッセル円環モデルに基づく感情の推定を行った場合、推定結果と実際の感情とが十分一致しないという結果を得た。発明者らは、この点に関して検討を重ねた結果、顔の表情をはじめとする非生理学データは、ラッセル円環モデルにおける快適感との相関が大きい一方、覚醒感との相関は小さいという知見を得た。また、本願発明者らは、ラッセル円環モデルにおける覚醒感は、心拍数などの生理学データとの相関が大きいという知見を得た。
【0051】
発明者らは、以上の知見に基づき、非生理学データと生理学データとを適切に用いることにより、より高い精度でラッセル円環モデルを用いた感情推定を行うことができることに着想し、本開示に至った。
【0052】
本実施の形態に係る感情推定装置は、生理学データ又は非生理学データから、上記の相関関係に基づいて、被験者が抱いているさまざまな感情を推定する。以降において、感情推定装置の構成及び動作について順に説明する。
【0053】
図2は、本実施の形態に係る感情推定装置10のハードウェア構成を示すブロック図である。
【0054】
図2に示されるように、感情推定装置10は、CPU(Central Processing Unit)11と、メモリ12と、センサ13と、表示装置14と、操作入力IF(Interface)15とを備える。
【0055】
CPU11は、メモリ12に記憶された制御プログラムを実行するプロセッサである。感情推定装置10の後述する各機能ブロックは、CPU11が制御プログラムを実行することで実現され得る。
【0056】
メモリ12は、記憶装置であり、CPU11が制御プログラムを実行するときに使用するワークエリアとして用いられる揮発性の記憶領域、並びに、制御プログラムなどを保持する不揮発性の記憶領域を含む。
【0057】
センサ13は、人である被験者Uの生理学データ又は非生理学データを被験者Uから取得するセンサである。センサ13は、複数のセンサ素子を含む。複数のセンサ素子のそれぞれは、生理学データ又は非生理学データを被験者Uから検知することで取得する。上記複数のセンサ素子の少なくとも1つは、生理学データを取得するセンサ素子(生理学センサ)である。上記複数のセンサ素子のうちの上記1つを除くものは、生理学センサであってもよいし、非生理学データを取得するセンサ素子(非生理学センサ)であってもよい。
【0058】
生理学データは、生体の機能に関するデータであり、例えば、顔の色、心拍数、心拍数変動、心拍数変動のLF/HF(Low Frequency/High Frequency)、R−R間隔、脈波、脈拍変動、脳波、呼吸数、呼吸量、血流、血流変動、血圧、血圧変動、酸素飽和度(SO2)、身体の部分の動き、身体の筋肉の動き、顔の筋肉の動き、体温、皮膚温、皮膚コンダクタンス、皮膚抵抗、皮膚のザラツキ、皮膚のテカリ、発汗量及び発汗レートの少なくとも1つを含む。ここで、身体の部分の動きとして、例えば瞬きの頻度、速度などが挙げられる。なお、生理学データは、後述する「表情データ」との対比のため、「非表情データ」とも称する。
【0059】
生理学センサは、例えば、カメラ(可視光カメラ又は特定の電磁波フィルタを有するカメラ)、心電センサ(EKG又はECG)、光電式容積脈波記録法(フォトプレチスモグラフィ)センシング、脳波測定器具(EEG)、肺活量計、呼吸活性測定器、TOF(Time−of−Flight)センサ、ミリ波センサ、ミリ波レーダ、パルスオキシメータ、サーモグラファー、サーマルイメージャ、赤外イメージャ、顔の筋肉の動きの検知器、皮膚温コンダクタンスセンサ、皮膚抵抗センサ、発汗量センサ、近赤外分光器及びコンピュータ断層撮影器(CT)の少なくとも1つを含む。
【0060】
非生理学データは、生体に関するデータのうち、生理学データでないデータであり、例えば、表情、感情、接触入力信号、音声、言語表現、文章及び身振り(ジェスチャ)の少なくとも1つを含む。なお、非生理学データとしての感情は、感情推定装置10が推定する感情のことではなく、他の方法により得られる感情のことであり、例えば、被験者Uが自身の感情として入力するものである。また、非生理学データのうち、例えば顔の画像から読み取れる情報(口や目、眉毛などの位置や形)のような、表情の推定に用いるデータを「表情データ」と称する。
【0061】
非生理学センサは、例えば、カメラ、感情検出装置、接触入力器(タッチスクリーン)、マイク、TOFセンサ、ミリ波センサ、ミリ波レーダ、入力用キーボードによる言葉、文章の入力、マイクによる音声入力に基づく言葉、文章の入力及び歩行センサの少なくとも1つを含む。
【0062】
表示装置14は、各種情報を出力する一例として、各種情報を画像として表示する表示画面を備える表示装置である。表示装置14は、例えば、タッチパネル式ディスプレイのディスプレイ部分である。
【0063】
操作入力IF15は、ユーザによる感情推定装置10に対する操作を受け付ける操作入力インタフェースである。操作入力IF15は、例えば、タッチパネル式ディスプレイのタッチパネル部分である。
【0064】
図3は、本実施の形態に係る感情推定装置10の機能構成を示すブロック図である。
図4は、本実施の形態に係る感情推定装置10による感情の推定方法を示す模式図である。
図5は、本実施の形態に係る感情推定装置10による感情の出力方法を示す模式図である。これらを参照しながら感情推定装置10の機能について説明する。
【0065】
図3に示されるように、感情推定装置10は、機能ブロックとして、取得部20と、推定部30と、出力部40とを備える。
【0066】
取得部20は、被験者Uから生理学データ等を取得する処理部である。具体的には、取得部20は、生理学データ(第一データに相当)と、上記生理学データとは異なる生理学データ又は非生理学データ(第二データに相当)とを取得する。取得部20は、生理学データ取得部21と、データ取得部22とを備える。なお、取得部20は、1つ以上のデータ取得部22(データ取得部2n等)を備えてもよい。
【0067】
取得部20が、被験者Uから取得した第一データ、第二データなどは、推定部30へ出力される。
【0068】
生理学データ取得部21は、被験者Uから被験者Uの生理学データを取得する処理部である。生理学データ取得部21は、センサ13に含まれる生理学センサを用いて、被験者Uの生理学データを取得する。なお、生理学データ取得部21は、他の装置が保有している被験者Uの生理学データを取得してもよい。
【0069】
データ取得部22は、被験者Uから被験者Uの生理学データ又は非生理学データを取得する処理部である。データ取得部22は、センサ13に含まれる生理学センサ又は非生理学センサを用いて、被験者Uの生理学データ又は非生理学データを取得する。なお、データ取得部22は、他の装置が保有している被験者Uの生理学データ又は非生理学データを取得してもよい。
【0070】
生理学データ取得部21とデータ取得部22とは、同一の被験者Uから、実質的に同時に、生理学データ及び非生理学データを取得する。
【0071】
なお、データ取得部22が複数ある場合、複数のデータ取得部22のそれぞれは、独立に生理学データ又は非生理学データを取得する。よって、取得部20が取得する複数のデータのうちの少なくとも1つは生理学データであり、その他は、生理学データ又は非生理学データである。例えば、取得部20が1つの生理学データと1つの非生理学データとを取得することもあるし、2つの生理学データを取得する(非生理学データを1つも取得しない)こともある。
【0072】
推定部30は、取得部20が取得したデータに基づいて推定される被験者Uの感情を推定する処理部である。推定部30は、覚醒成分算出部31と、快適成分算出部32と、感情推定部33とを備える。また、推定部30は、補正部37を備えてもよい。
【0073】
覚醒成分算出部31は、取得部20が取得したデータに基づいて、被験者Uの覚醒の度合いを示す覚醒感AR(
図4参照)を算出する処理部である。より具体的には、覚醒成分算出部31は、生理学データ取得部21及びデータ取得部22が取得した生理学データ及び非生理学データのそれぞれを取得し、これらのデータに基づいて覚醒感ARを算出する。覚醒成分算出部31は、生理学データ及び非生理学データについての基準値となるパラメータ34を保有しており、取得部20が取得したデータを基準値と比較することで覚醒感ARを算出する。なお、上記のように「生理学データ取得部21及びデータ取得部22が取得した生理学データ及び非生理学データ」という場合、非生理学データが含まれないこともある。覚醒感は、第一値に相当する。
【0074】
なお、覚醒成分算出部31は、生理学データ及び非生理学データのうち、覚醒感との相関が比較的小さいとして定められているデータを除外して、覚醒感ARを算出してもよい。
【0075】
例えば、覚醒成分算出部31が生理学データとしての顔の色に基づいて覚醒感ARを算出するときには、覚醒成分算出部31は、例えば、生理学データ取得部21が取得した被験者Uの顔の色の赤色の輝度値と、パラメータ34として保有している顔の色の赤色の輝度値の基準値とを比較する。そして、被験者Uの顔の色の赤色の輝度値が上記基準値と等しい場合に覚醒感ARをゼロと算出し、被験者Uの顔の色の赤色の輝度値が大きいほど大きい(言い換えれば、輝度値が小さいほど小さい)覚醒感ARを算出する。
【0076】
快適成分算出部32は、取得部20が取得したデータに基づいて、被験者Uの快適さの度合いを示す快適感VA(
図4参照)を算出する処理部である。より具体的には、快適成分算出部32は、生理学データ取得部21及びデータ取得部22が取得した生理学データ及び非生理学データのそれぞれを取得し、これらのデータに基づいて快適感VAを算出する。快適成分算出部32は、生理学データ及び非生理学データについての基準値となるパラメータ35を保有しており、取得部20が取得したデータを基準値と比較することで快適感VAを算出する。快適感は、第二値に相当する。
【0077】
なお、快適成分算出部32は、生理学データ及び非生理学データのうち、快適感との相関が比較的小さいとして定められているデータを除外して、快適感VAを算出してもよい。
【0078】
例えば、快適成分算出部32が非生理学データとしての表情に基づいて快適感VAを算出するときには、快適成分算出部32は、例えば、データ取得部22が取得した被験者Uの顔のパーツの特徴点から表情を特定し、特定した表情について所定の対応付けに基づいて快適感VAを算出する。
【0079】
感情推定部33は、覚醒成分算出部31が算出した覚醒感ARと、快適成分算出部32が算出した快適感VAとから被験者Uの感情を推定する処理部である。感情推定部33は、例えば、人の覚醒感と快適感との所定の対応付け(例えば
図1に示すラッセル円環モデル)を予めメモリに保有している。このメモリは、
図2に示すメモリ12であってもよいし、感情推定装置10が備えるメモリ12とは、別のメモリであってもよい。別のメモリとは、例えば、感情推定装置10とは別体の記憶装置(外部記憶装置ともいう)であってもよい。感情推定装置10がメモリから上述の所定の対応付けに関する情報を読み出したり、このメモリへ情報を書き込んだりすることができる構成であれば、所定の対応付けを記憶したメモリは、感情推定装置10に含まれていてもよいし、そうでなくてもよい。
【0080】
そして、感情推定部33は、覚醒成分算出部31が算出した覚醒感ARと、快適成分算出部32が算出した快適感VAとを取得し、取得した覚醒感AR及び快適感VAに、上記所定の対応付けにより対応付けられている感情を選択することで、被験者Uの感情を推定する。
【0081】
所定の対応付けとしてラッセル円環モデルを用いる場合、感情推定部33は、覚醒感を縦軸とし、快適感を横軸とした平面上に、取得した覚醒感AR及び快適感VAに対応する点をプロットし、ラッセル円環モデルにおいてその点に割り当てられている感情を、被験者Uの感情として推定する(
図4参照)。
【0082】
感情推定部33は、覚醒感ARと快適感VAとに基づいて感情を推定する際の基準となるパラメータ36を保有している。パラメータ36は、例えば、覚醒感ARと快適感VAとのどちらに比重を置くかを示す割合を示す基準値である。感情推定部33は、覚醒感ARと快適感VAとに基づいて、パラメータ36を基準として被験者Uの感情を推定する。
【0083】
補正部37は、覚醒成分算出部31が保有しているパラメータ34、快適成分算出部32が保有しているパラメータ35、及び、感情推定部33が保有しているパラメータ36を補正する処理部である。補正部37は、被験者Uの身体的特徴に関する情報、より具体的には性別、国籍、年齢、又は、肌の色などの情報に基づいて、パラメータ34、35及び36を調整することで補正する。例えば、補正部37は、生理学データとしての心拍数から覚醒感ARを算出する場合、被験者Uが男性である場合に心拍数の基準値を比較的低い値に設定する。これにより、覚醒成分算出部31は、同じ心拍数であっても、男性の被験者の覚醒感を女性の被験者の覚醒感より高い値として算出するようになる。一般に平常時の心拍数は女性より男性の方が低いので、同じ心拍数であれば、男性の方が、平常時からの差分が大きいからである。
【0084】
推定部30は、推定した感情を示す情報を出力部40へ出力する。
【0085】
出力部40は、推定部30が推定した感情を示す情報を出力する処理部である。出力部40は、表示部41を備える。表示部41は、推定部30が推定した感情を示す情報を画像として、表示装置14の表示画面に表示する処理部である。
【0086】
出力部40は、例えば
図5のように、取得部20が取得したデータと、推定部30が推定した感情を示す情報とを並べた画像を表示装置14に表示する。
図5に示される画像は、生理学データ取得部21が生理学データとして取得した被験者Uの顔の色を示す画像51と、データ取得部22が非生理学データとして取得した被験者Uの表情を示す画像52と、推定部30が推定した被験者Uの感情を示す画像53とを含む。画像53は、快適感と覚醒感とを2つの座標軸とする平面上の点として被験者Uの感情を示す画像の一例である。なお、画像53は、快適感と覚醒感との少なくとも一方を示す画像であってもよい。また、画像53は、被験者Uの所定の感情(例えば、喜び)の強さを示す値を示す画像であってもよい。また、画像53は、被験者Uの覚醒感の信頼性及び快適感の信頼性の少なくとも一方を示す画像であってもよい。
【0087】
なお、出力部40による出力方法は、
図5に示されるものに限られず、例えば覚醒感だけを出力する、特定の感情の強度を出力する等、さまざまなバリエーションがある。バリエーションについては後で詳しく説明する。
【0088】
以降において、感情推定装置10のより具体的な構成について説明する。
【0089】
図6は、本実施の形態に係る感情推定装置10の機能構成の第一の具体例としての感情推定装置10Aを示すブロック図である。なお、感情推定装置10の構成要素と同一のものについては、同一の符号を付し、詳細な説明を省略する。以降も同様とする。
【0090】
図6に示されるように、感情推定装置10Aは、感情推定装置10における取得部20及び推定部30として、それぞれ、取得部20A及び推定部30Aを備える。その他の構成要素は、感情推定装置10におけるものと同じである。
【0091】
取得部20Aは、生理学データ取得部21Aと、非生理学データ取得部22Aとを備える。
【0092】
生理学データ取得部21Aは、感情推定装置10の生理学データ取得部21の一具体例であり、被験者Uの生理学データを取得する処理部である。生理学データ取得部21Aは、取得した生理学データを覚醒成分算出部31Aに提供する。
【0093】
非生理学データ取得部22Aは、感情推定装置10のデータ取得部22の一具体例であり、被験者Uの非生理学データを取得する処理部である。非生理学データ取得部22Aは、取得した非生理学データを快適成分算出部32Aに提供する。
【0094】
推定部30Aは、覚醒成分算出部31Aと、快適成分算出部32Aとを備える。
【0095】
覚醒成分算出部31Aは、感情推定装置10の覚醒成分算出部31の一具体例であり、生理学データ取得部21Aが取得した生理学データに基づいて覚醒感を算出する処理部である。覚醒成分算出部31Aは、覚醒感を算出するために、生理学データ取得部21Aが取得した生理学データを用い、また、非生理学データ取得部22Aが取得した非生理学データを用いない。
【0096】
快適成分算出部32Aは、感情推定装置10の快適成分算出部32の一具体例であり、非生理学データ取得部22Aが取得した非生理学データに基づいて快適感を算出する処理部である。快適成分算出部32Aは、快適感を算出するために、非生理学データ取得部22Aが取得した非生理学データを用い、また、生理学データ取得部21Aが取得した生理学データを用いない。
【0097】
感情推定装置10Aは、覚醒感との相関が比較的小さい非生理学データを用いて覚醒感を算出すること、及び、快適感との相関が比較的小さい生理学データを用いて快適感を算出することを回避することができる。その結果、覚醒感及び快適感それぞれに相関が大きいデータに基づいて被験者Uの感情を推定することができる利点がある。また、構成が単純化されるので、装置の開発コストの削減、保守運用コストの削減の効果もある。
【0098】
図7は、本実施の形態に係る感情推定装置10の機能構成の第二の具体例としての感情推定装置10Bを示すブロック図である。
図8は、本実施の形態に係る感情推定装置10の機能構成の第二の具体例としての感情推定装置10Bの感情推定処理を示すブロック図である。
【0099】
図7に示されるように、感情推定装置10Bは、感情推定装置10における取得部20及び推定部30として、それぞれ、取得部20B及び推定部30Bを備える。その他の構成要素は、感情推定装置10におけるものと同じである。
【0100】
取得部20Bは、生理学データ取得部21Bと、非生理学データ取得部22Bとを備える。
【0101】
生理学データ取得部21Bは、感情推定装置10における生理学データ取得部21の一具体例であり、被験者Uの生理学データを取得する処理部である。生理学データ取得部21Bは、取得した生理学データを、覚醒成分算出部31Aと快適成分算出部32Aとに提供する。このように、生理学データ取得部21Bは、取得した生理学データを提供する先が生理学データ取得部21と異なる。
【0102】
非生理学データ取得部22Bは、感情推定装置10におけるデータ取得部22の一具体例であり、被験者Uの非生理学データを取得する処理部である。非生理学データ取得部22Bは、取得した非生理学データを、覚醒成分算出部31Bと快適成分算出部32Bとに提供する。このように、非生理学データ取得部22Bは、取得した非生理学データを提供する先がデータ取得部22と異なる。
【0103】
推定部30Bは、覚醒成分算出部31A及び31Bと、快適成分算出部32A及び32Bとを備える。覚醒成分算出部31A及び31Bが、感情推定装置10の覚醒成分算出部31に相当し、快適成分算出部32A及び32Bが、感情推定装置10の快適成分算出部32に相当する。
【0104】
覚醒成分算出部31Aは、生理学データ取得部21Bが取得した生理学データに基づいて覚醒感(
図8の覚醒感AR1)を算出する処理部である。また、覚醒成分算出部31Aは、算出する覚醒感に基づく感情推定の正しさの指標である信頼性(
図8の信頼性r1)を算出する。
【0105】
信頼性を算出する方法は、さまざまな方法があり得る。例えば、生理学データ取得部21Bが取得した生理学データに含まれるノイズの量が大きいほど、低い信頼性を算出してもよい。また、生理学データ取得部21Bが被験者Uから生理学データを取得するのに用いるセンサ13の種別により設定されてもよいし、ユーザにより任意に設定されてもよい。
【0106】
覚醒成分算出部31Bは、非生理学データ取得部22Bが取得した非生理学データに基づいて覚醒感(
図8の覚醒感AR2)を算出する処理部である。また、覚醒成分算出部31Bは、算出する覚醒感の信頼性(
図8の信頼性r2)を算出する。
【0107】
快適成分算出部32Aは、生理学データ取得部21Bが取得した生理学データに基づいて快適感(
図8の快適感VA1)を算出する処理部である。また、快適成分算出部32Aは、算出する快適感の信頼性(
図8の信頼性r3)を算出する。
【0108】
快適成分算出部32Bは、非生理学データ取得部22Bが取得した非生理学データに基づいて快適感(
図8の快適感VA2)を算出する処理部である。また、快適成分算出部32Bは、算出する快適感の信頼性(
図8の信頼性r4)を算出する。
【0109】
感情推定部33Bは、覚醒成分算出部31B及び32Bそれぞれから覚醒感を取得し、また、快適成分算出部32A及び32Bそれぞれから快適感を取得し、被験者Uの感情を推定する。
【0110】
感情推定部33Bは、複数の覚醒感を取得した場合、複数の覚醒感に基づいて1つの覚醒感を算出する。複数の覚醒感に基づいて1つの覚醒感を算出する方法はさまざまな方法があり得るが、例えば、複数の覚醒感の平均をとる、複数の覚醒感について各覚醒感の信頼性を重みとして加重平均をとる、複数の覚醒感の中央値をとる、というような方法があり得る。
【0111】
加重平均をとる方法について
図8に示している。感情推定部33Bは、複数の覚醒感AR1及びAR2それぞれの信頼性r1及びr2を用いて1つの覚醒感ARを以下の(式1)により算出する。
【0112】
AR=(r1×AR1+r2×AR2)/(r1+r2) (式1)
【0113】
また、感情推定部33Bは、複数の快適感VA1及びVA2それぞれの信頼性r3及びr4を用いて1つの快適感VAを以下の(式2)により算出する。
【0114】
VA=(r3×VA1+r4×VA2)/(r3+r4) (式2)
【0115】
そして、感情推定部33Bは、算出した覚醒感ARと快適感VAとに、所定の対応付け(例えばラッセル円環モデル)により対応付けられている感情を選択することで、被験者Uの感情を推定する。
【0116】
図9は、本実施の形態に係る感情推定装置10の機能構成の第三の具体例としての感情推定装置10Cを示すブロック図である。
【0117】
図9に示されるように、感情推定装置10Cは、感情推定装置10における取得部20及び推定部30として、それぞれ、取得部20C及び推定部30Bを備える。その他の構成要素は、感情推定装置10におけるものと同じである。
【0118】
取得部20Cは、生理学データ取得部21A及び22Cと、非生理学データ取得部22A及び22Dとを備える。
【0119】
生理学データ取得部21Aは、感情推定装置10における生理学データ取得部21の一具体例であり、被験者Uの生理学データを取得する処理部である。生理学データ取得部21Aは、取得した生理学データを、覚醒成分算出部31Aに提供する。
【0120】
生理学データ取得部22Cは、感情推定装置10におけるデータ取得部22の一具体例であり、被験者Uの生理学データを取得する処理部である。生理学データ取得部22Cは、取得した生理学データを、覚醒成分算出部31Bに提供する。
【0121】
非生理学データ取得部22A及び22Dは、それぞれ、感情推定装置10におけるデータ取得部22の一具体例であり、被験者Uの非生理学データを取得する処理部である。非生理学データ取得部22A及び22Dは、それぞれ、取得した非生理学データを快適成分算出部32A及び32Bに提供する。
【0122】
推定部30Bは、感情推定装置10Bにおける場合と同様に、複数の覚醒感及び快適感に基づいて、被験者Uの感情を推定する。
【0123】
図10は、本実施の形態に係る感情推定装置10の機能構成の第四の具体例としての感情推定装置10Dを示すブロック図である。
【0124】
図10に示されるように、感情推定装置10Dは、感情推定装置10Aにおける取得部20A及び推定部30Aを、それぞれ、取得部20D及び推定部30Dとしてより具体的に示すものである。
【0125】
取得部20Dは、カメラ61と、解析部62と、心拍取得部63と、特徴点抽出部64と、表情特定部65とを備える。
【0126】
カメラ61は、被験者Uの顔の動画像を撮影し、動画像データを生成する撮像装置である。カメラ61は、生成した動画像データを、解析部62及び特徴点抽出部64に提供する。
【0127】
解析部62は、カメラ61が生成した動画像データに基づいて、被験者Uの顔の色の微小な変化を解析する処理部である。解析部62は、カメラ61が生成した動画像データを取得し、動画像における被験者Uの顔の領域を抽出する。そして、抽出した顔の領域に含まれる画素の色を示す時系列データを生成する。顔の色は、脈波(心拍)に基づいて微小な変化をするので、この時系列データは、脈波に基づいて変化する成分を有している。
【0128】
心拍取得部63は、解析部62が生成した時系列データから被験者Uの心拍数を取得する処理部である。心拍取得部63は、解析部62が生成した時系列データを取得し、取得した時系列データから周波数フィルタなどを用いて脈波に応じて変化する成分を抽出し、心拍数を取得する。
【0129】
特徴点抽出部64は、カメラ61が生成した動画像データに基づいて、被験者Uの顔の特徴点を抽出する処理部である。特徴点抽出部64は、動画像データから被験者Uの眉、目、鼻又は口等のパーツを抽出し、さらに、各パーツの特徴点(例えば上下左右の端点)の位置を抽出する。
【0130】
表情特定部65は、特徴点抽出部64が抽出したパーツの位置に基づいて被験者Uの表情を特定する処理部である。表情特定部65は、例えば、口の左右の端点が基準位置より上にある場合に、被験者Uの表情が笑顔であると特定する。
【0131】
推定部30Dは、覚醒成分算出部31Dと、快適成分算出部32Dと、感情推定部33とを備える。
【0132】
覚醒成分算出部31Dは、心拍取得部63が取得した被験者Uの心拍数を基準値と比較し、被験者Uの覚醒感を算出する。例えば、心拍取得部63が取得した被験者Uの心拍数が基準値と等しい場合に覚醒感をゼロと算出し、心拍取得部63が取得した被験者Uの心拍数が大きいほど大きい(言い換えれば、心拍数が小さいほど小さい)覚醒感を算出する。
【0133】
快適成分算出部32Dは、表情特定部65が特定した被験者Uの表情に基づいて快適感を算出する。例えば、表情特定部65が特定した被験者Uの表情が笑顔である場合、快適感を比較的大きな値として算出する。
【0134】
感情推定部33は、上記のように覚醒成分算出部31Dが算出した覚醒感、及び、快適成分算出部32Dが算出した快適感に基づいて、被験者Uの感情を推定する。
【0135】
以上のように構成された感情推定装置10の処理について、以下で説明する。
【0136】
図11は、本実施の形態に係る感情推定装置10により推定される感情の推定方法を示すフロー図である。
【0137】
まず、感情推定装置10は、ステップS1(ステップS101〜S103)において被験者Uから生理学データを取得し、また、ステップS2(ステップS104〜S106)において被験者Uから生理学データ又は非生理学データを取得する。なお、ステップS1とS2とは、どちらが先に行われてもよいし、同時並行的に行われてもよい。
【0138】
ステップS101において、生理学データ取得部21は、生理学センサにより被験者Uの生理学データを取得する。
【0139】
ステップS102において、補正部37は、覚醒成分算出部31のパラメータ34の調整を行う。なお、ステップS102は必須の処理ステップではなく、実行されなくてもよい。
【0140】
ステップS103において、覚醒成分算出部31は、ステップS101で取得した生理学データに基づいて覚醒感を算出する。
【0141】
ステップS104において、データ取得部22は、生理学センサ又は非生理学センサにより被験者Uの生理学データ又は非生理学データを取得する。
【0142】
ステップS105において、補正部37は、快適成分算出部32のパラメータ35の調整を行う。なお、ステップS105は必須の処理ステップではなく、実行されなくてもよい。
【0143】
ステップS106において、快適成分算出部32は、ステップS104で取得した生理学データ又は非生理学データに基づいて快適感を算出する。
【0144】
ステップS107において、補正部37は、感情推定部33のパラメータ36の調整を行う。なお、ステップS107は必須の処理ステップではなく、実行されなくてもよい。
【0145】
ステップS108において、感情推定部33は、ステップS103で算出した覚醒感と、ステップS106で算出した快適感とに基づいて、被験者Uの感情を推定する。
【0146】
ステップS109において、表示部41は、ステップS108で推定した被験者Uの感情を示す情報を表示する。
【0147】
以上の一連の処理により、感情推定装置10は、被験者Uから取得する生理学データ及び非生理学データに基づいて被験者Uが抱いているさまざまな感情を推定する。
【0148】
以降において、感情推定装置10が表示装置14に表示する画像等について説明する。
【0149】
図12は、本実施の形態に係る取得部20がデータ取得に用いるセンサ13の選択、及び、取得するデータの選択をユーザから受け付けるための画像の説明図である。
【0150】
図12に示される画像は、取得部20がデータ取得に用いるセンサ13の選択、及び、取得するデータの選択をユーザから受け付けるための画像であり、表示装置14に表示されるものである。この画像は、センサ13を示すボタン121を複数含んでおり、また、データ種別を示すボタン122を複数含んでいる。
【0151】
センサ13を示すボタン121は、より具体的には、センサ13としてのカメラ、マイク、及び、赤外線カメラをそれぞれ示すボタン121A、121B、及び、121Cを含む。ユーザは、上記ボタンのうち、取得部20によるデータ取得に用いるセンサ13を示すボタンを操作(例えばタッチ)すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応するセンサ13を用いて取得部20がデータを取得するように制御する。
【0152】
データ種別を示すボタン122は、より具体的には、データ種別としての顔の色、心拍数、及び、血圧をそれぞれ示すボタン122A、122B、及び、122Cを含む。ユーザは、上記ボタンのうち、取得部20により取得されるデータ種別を示すボタンを操作すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応するデータ種別のデータを取得部20が取得するように制御する。
【0153】
なお、センサ13又はデータ種別は、複数選択されてよく、選択されるセンサ13の個数に上限又は下限が設けられていてもよい。また、センサ13及びデータ種別に互いに関連するものが含まれる場合、それらが連動して選択されてもよい。例えば、センサ13としてカメラが選択された場合に、カメラにより取得可能なデータ種別である顔の色と心拍数とが自動的に選択されるようにしてもよい。
【0154】
図13は、本実施の形態に係る出力部40が出力する情報の選択をユーザから受け付けるための画像の説明図である。
図13に示される画像は、出力部40が出力する情報の選択をユーザから受け付けるための画像であり、表示装置14に表示されるものである。この画像は、出力する情報を示すボタン131及び132を複数含んでいる。
【0155】
ボタン131は、例えば一般ユーザ用のボタンであり、より具体的には、感情、覚醒感、快適感、及び、喜びレベルをそれぞれ示すボタン131A、131B、131C、及び、131Dを含む。ユーザが、上記ボタンのうち、出力部40により出力させる情報を示すボタンを操作すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応する情報を出力部40が出力するように制御する。例えば、ユーザがボタン131Aを操作した場合には、出力部40は、推定した被験者Uの感情を出力する。また、ユーザがボタン131Bを操作した場合には、出力部40は、被験者Uの覚醒感を出力する。
【0156】
ボタン132は、例えば開発者用のボタンであり、より具体的には、3つの特別出力それぞれを示すボタン132A、132B、及び、132Cを含む。特別出力とは、覚醒感及び快適感の算出方法を試験的に調整するなどのために設けられる出力方法である。ユーザが、上記ボタンのうち、出力部40により出力させる情報を示すボタンを操作すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応する情報を出力部40が出力するように制御する。
【0157】
なお、出力する情報は、複数選択されてよく、選択されるセンサ13の個数に上限又は下限が設けられていてもよい。
【0158】
図14は、本実施の形態に係るセンサ13の設定をユーザから受け付けるための画像の説明図である。
図14に示される画像は、センサ13の種別等についての設定をユーザから受け付けるための画像であり、表示装置14に表示されるものである。この画像は、センサ13の種別を示すボタン141、センサ13のハードウェア状態を示す表示領域142、覚醒感の信頼性を示す表示領域143、覚醒感の信頼性を調整するためのボタン144、快適感の信頼性を示す表示領域145、及び、快適感の信頼性を調整するためのボタン146を含む。
【0159】
センサ13の種別を変更するときには、ユーザは、ボタン141を操作し、その後、変更後のセンサ13の種別を入力する操作を行う。この操作を操作入力IF15が受け付け、センサ13の種別を変更し、ボタン141に表示する文字列を変更後のセンサ13の種別に変更するよう制御する。
【0160】
表示領域142は、センサ13が感情推定装置10に適切に接続されているか否かを示す情報を表示する表示領域である。センサ13が適切に接続されているときには「接続状態」と表示され、センサ13が適切に接続されていないときには「非接続状態」と表示される。
【0161】
表示領域143及び145は、それぞれ、覚醒感及び快適感の信頼性を表示する表示領域である。ユーザがこの信頼性を調整する場合には、ユーザは、ボタン144又は146を操作し、その後、信頼性を変更する操作を行う。
【0162】
図15は、本実施の形態に係るセンサ13の信頼性の調整をユーザから受け付けるための画像の説明図である。
図15に示される画像は、センサ13の信頼性の調整(具体的には増加又は減少)についての設定をユーザから受け付けるための画像であり、表示装置14に表示されるものである。この画像は、例えば、
図14のボタン144又は146に対するユーザによる操作を操作入力IF15が受け付けたときに表示される。
【0163】
この画像は、覚醒感及び快適感のそれぞれの信頼性を表示する表示領域151及び154を含んでいる。また、覚醒感及び快適感のそれぞれの信頼性を増加させるボタン152及び155、並びに、覚醒感及び快適感のそれぞれの信頼性を減少させるボタン153及び156を含んでいる。
【0164】
ユーザは、センサ13の覚醒感の信頼性を増加又は減少させるときには、それぞれ、ボタン152又は153を操作する。この操作を操作入力IF15が受け付けると、この操作に従って、センサ13の覚醒感の信頼性を増加又は減少させ、表示領域151に表示している覚醒感を示す数値を増加または減少させる。このようにして、感情推定装置10は、ユーザに快適感の信頼性を示す数値を提示しながら調整させることができる。なお、快適感についても上記と同様であるので説明を省略する。
【0165】
図16は、本実施の形態に係る出力情報に関する計算式の設定のための画像の説明図である。
図16に示される画像は、出力情報の1つである特別出力のための計算式の設定をユーザから受け付けるための画像であり、表示装置14に表示されるものである。この画像は、例えば、
図13のボタン132A等に対するユーザによる操作を操作入力IF15が受け付けたときに表示される。
【0166】
この画像は、計算式の表示領域161と、演算子の入力のための複数のボタン162と、計算式を決定するためのボタン163とを含んでいる。ボタン162に対するユーザによる操作がなされると、この操作を操作入力IF15が受け付け、表示領域161に表示される計算式を更新する。そして、ボタン163に対するユーザによる操作がなされると、この操作を操作入力IF15が受け付け、表示領域161に表示された計算式が特別出力1の計算式として決定される。
【0167】
ユーザは、特別出力の内容を変更するときには、表示領域161に表示される計算式を視認するとともに、複数のボタン162を操作することにより計算式を変更することができる。
【0168】
図17は、本実施の形態に係る出力情報に関する計算式の確認のための画像の説明図である。
図17に示される画像は、出力情報の1つである特別出力のための計算式をユーザに閲覧させるための画像であり、表示装置14に表示されるものである。この画像は、例えば、
図16のボタン163に対するユーザによる操作を操作入力IF15が受け付けたときに表示される。
【0169】
この画像は、3つの特別出力の計算式のそれぞれを示す表示領域171、172及び173を含む。これらの表示領域には、例えば
図16に示される画像に基づいてユーザが設定した計算式が表示される。ユーザは、3つの特別出力の計算式を1つの画像として閲覧することで、効率よく、これらの計算式同士の関係を把握したり、計算式の修正点を発見したりすることができる。
【0170】
図18は、本実施の形態に係る感情を示す情報の出力の選択のための画像の説明図である。
図18に示される画像は、感情推定装置10が、推定した感情として出力する情報を設定するための画像であり、表示装置14に表示されるものである。
【0171】
この画像は、感情推定装置10が、推定した感情として出力する情報の候補を示すボタン181、182及び183を含む。これらのボタンそれぞれには、感情を示す文字列が付されており、ユーザによりボタンに対する操作がなされると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応する感情を、推定した感情として出力するか出力しないかを切り替えるよう制御する。例えば、ユーザによるボタン操作により、「Happy Levelを出力する」、「Surprised Levelを出力する」、及び、「Angry Levelを出力しない」ということが決定された場合、推定部30が被験者Uの感情として「Happy」及び「Surprised」を示す情報を出力することは許容されるが、「Angry」を示す情報を出力することは抑制される。
【0172】
ユーザは、出力される感情を一部のものに限定することができる。これにより、ユーザは、例えば被験者Uにとって必要な推定結果のみを得ることができる、又は、ユーザ自身が被験者Uであって他人に見られることが想定される場合に他人に見せたくない推定結果を出力させないようにすることができるという利点がある。
【0173】
図19は、本実施の形態に係る感情を示す情報の表現の設定のための画像の説明図である。
図19に示される画像は、感情推定装置10が、推定した感情として出力する情報の表現を設定するための画像であり、表示装置14に表示されるものである。
【0174】
この画像は、感情推定装置10が、推定した感情として出力する情報の表現の候補を示すボタン191、192、193及び194を含む。これらのボタンそれぞれには、喜びの感情又はこれに類似する感情を示す複数の表現の文字列が付されている。ユーザによりボタンに対する操作がなされると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応する表現を用いた情報を、出力部40が出力するよう制御する。例えば、ユーザによるボタン操作により、ボタン191の「Happy」を選択すると、喜びの感情を出力する場合に「Happy」という表現を出力する。
【0175】
図20は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第一例の説明図である。
【0176】
図20に示される画像は、推定部30が推定した感情として出力する情報を設定するための画像であり、表示装置14に表示されるものである。
【0177】
この画像は、入力に関する画像を左側に含み、出力に関する情報を右側に含んでいる。
【0178】
図20に示される画像のうちの左側には、生理学データとしての「顔の色」と、非生理学データとしての「表情」とを被験者Uから取得するか否かを選択するためのボタン201及び202、並びに、被験者Uから取得しているデータを示す画像203が含まれている。ユーザは、上記ボタンのうち、取得部20により取得するデータを示すボタンを操作すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応するデータを取得部20が取得するように制御する。
図20では、取得部20が「顔の色」を取得するように制御されている状態であり、ボタン201の色が濃い色で示されている。また、実際に被験者Uから取得している顔の色が、画像203により示されている。
【0179】
図20に示される画像のうちの右側には、推定部30が推定した被験者Uの感情を示す画像204と、覚醒感及び快適感それぞれを出力するか否かを選択するためのボタン205及び206とが含まれている。
図20では、推定部30が覚醒感を用いて、また、快適感を用いずに、感情を推定する状態であり、ボタン205が濃い色で示されている。また、画像204では、推定部30が推定した感情を、覚醒感だけを用いて示している。
【0180】
このように、ユーザ又は被験者Uは、被験者Uから取得されたデータと、そのデータに基づいて推定される感情とが並んだ1の画像を視認することで、直観的に被験者Uの感情の推定結果を把握することができる。
【0181】
図21は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第二例の説明図である。
図21に示される画像の全体的な構成は、
図20に示される画像と同じであるが、
図20に示される画像とは、被験者Uから取得する情報、及び、出力する情報が異なる。
【0182】
図21に示される画像のうちの左側には、
図20に示される画像と同様、「顔の色」と「表情」とを被験者Uから取得するか否かを選択するためのボタン211及び212、並びに、取得しているデータを示す画像213が含まれている。
図21では、取得部20が「表情」を取得するように制御されている状態であり、ボタン212の色が濃い色で示されている。また、実際に被験者Uから取得している顔の色が、画像213により示されている。
【0183】
図21に示される画像のうちの右側には、被験者Uの感情を示す画像214と、覚醒感及び快適感それぞれを出力するか否かを選択するためのボタン215及び216とが含まれている。
図21では、推定部30が快適感を用いて、また、覚醒感を用いずに、感情を推定する状態であり、ボタン216が濃い色で示されている。また、画像214では、推定部30が推定した感情を、快適感だけを用いて示している。
【0184】
図22は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第三例の説明図である。
図22に示される画像の全体的な構成は、
図20に示される画像と同じであるが、
図20に示される画像とは、被験者Uから取得する情報、及び、出力する情報が異なる。
【0185】
図22に示される画像のうちの左側には、
図20に示される画像と同様、「顔の色」と「表情」とを被験者Uから取得するか否かを選択するためのボタン221及び222、並びに、取得しているデータを示す画像223及び224が含まれている。
図22では、取得部20が「顔の色」及び「表情」を取得するように制御されている状態であり、ボタン221及び222の色が濃い色で示されている。また、実際に被験者Uから取得している顔の色及び表情が、画像223及び224により示されている。
【0186】
図22に示される画像のうちの右側には、被験者Uの感情を示す画像225と、覚醒感及び快適感それぞれを出力するか否かを選択するためのボタン226及び227と、推定した感情を出力するか否かを選択するボタン228と、推定した感情を示す文字列229とが含まれている。
図22では、推定部30が覚醒感及び快適感を用いて感情を推定する状態であり、ボタン226及び227が濃い色で示されている。画像225では、推定部30が推定した感情を、覚醒感及び快適感を用いて示している。
【0187】
さらに、
図22では、推定した感情を出力する状態であり、ボタン228が濃い色で示されている。この場合、推定した感情を示す文字列229が示されている。なお、ボタン228は、ボタン226及び227により、覚醒感及び快適感の両方を出力することが選択されているときにのみ表示されるようにしてもよい。覚醒感及び快適感の一方だけを出力する場合に、覚醒感及び快適感の両方から推定される感情を示すことは適当でないからである。
【0188】
図23は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第四例の説明図である。
図23に示される画像の上側の部分は、
図22に示される画像と同じである。
図23に示される画像の下側の部分は、取得部20が取得する生理学データ及び非生理学データ(入力データ)の信頼性を設定するための画像を含む。
【0189】
入力データの信頼性を設定するための画像には、取得部20が取得する生理学データ及び非生理学データとしての「顔の色」及び「表情」それぞれの信頼性を表示する表示領域231及び234、並びに、上記信頼性を調整するためのボタン232、233、235及び236が含まれている。信頼性の調整方法は、
図15におけるものと同じであるので説明を省略する。
【0190】
図24は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第五例の説明図である。
図24に示される画像の全体的な構成は、
図20に示される画像と同じであるが、
図20に示される画像とは、被験者Uから取得する情報、及び、出力する情報が異なる。
【0191】
図24に示される画像のうちの左側は、
図20におけるものと同じである。つまり、取得部20が「顔の色」を取得するように制御されている状態である。
【0192】
図24に示される画像のうちの右側は、推定部30が覚醒感及び快適感を用いて感情を推定する状態であることを示しており、また、推定した感情を示す情報が表示されている。
【0193】
また、
図24に示される画像は、生理学データとしての「顔の色」から推定される快適感の信頼性が低いことを示す警告のための画像241を含む。
【0194】
このように、出力部40は、覚醒感及び快適感から推定した感情を表示する一方で、その覚醒感及び快適感の少なくとも一方の信頼性が所定値より低い場合に、その旨を示す画像を表示する。ユーザ又は被験者Uは、この画像を視認すると、警告とともに出力されている感情は、それほど正しくないものであると判断することができる。
【0195】
図25は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第六例の説明図である。
図25に示される画像の全体的な構成は、
図22に示される画像と同じであるが、
図22に示される画像とは、被験者Uから取得する生理学データを示す情報が異なる。
【0196】
図25に示される画像のうちの左側には、生理学データとしての「心拍」を被験者Uから取得するか否かを設定するためのボタン251、及び、取得している心拍の波形の時系列データを示す画像252が含まれている。
【0197】
このように、ユーザ又は被験者Uは、心拍と表情とに基づいて推定される被験者Uの感情を把握することができる。
【0198】
図26Aは、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第七例の説明図である。
図26Aに示される画像の全体的な構成は、
図22に示される画像と同じであるが、
図22に示される画像とは、被験者Uから取得する非生理学データを示す情報が異なる。
【0199】
図26Aに示される画像のうちの左側には、非生理学データとしての音声及び言語表現を被験者Uから取得するか否かを設定するためのボタン261及び262、並びに、取得している音声の大きさの大小を示す画像263、及び、取得している言語表現の強弱を示す画像264が含まれている。
【0200】
図26Bは、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第八例の説明図である。
図26Bに示される画像の全体的な構成は、
図26Aに示される画像と同じであるが、
図26Aに示される画像とは、被験者Uから取得する生理学データを示す情報が異なる。
【0201】
図26Bに示される画像のうちの左側には、生理学データとしての心拍を被験者から取得するか否かを設定するためのボタン265、及び、取得している心拍の波形を示す画像266が含まれている。
【0202】
このように、ユーザ又は被験者Uは、顔の色、音声、及び、言語表現に基づいて推定される被験者Uの感情を把握することができる。
【0203】
図27は、本実施の形態に係る被験者情報の登録のための画像の説明図である。
【0204】
図27に示される画像は、感情推定装置10により感情を推定する対象となる被験者Uに関する情報(被験者情報ともいう)を感情推定装置10に登録するための画像であり、表示装置14に表示されるものである。
【0205】
この画像は、被験者Uに関する情報として、被験者Uの国籍、性別、年齢、平常時の平均心拍数、平常時の血圧、肌の色、及び、慢性疾患等についての登録のための操作をユーザから受け付けるための画像を含んでいる。ユーザは、上記の各情報が表示された領域に対して操作すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応するデータを変更するよう制御する。データの変更の際には、設定し得る文字又は記号などの選択肢を表示しユーザに選択させる等、既知の方法が採用され得る。
【0206】
図28は、本実施の形態に係る被験者Uの顔の登録のための画像の第一例の説明図である。
【0207】
図28に示される画像は、感情推定装置10により感情を推定する対象となる被験者Uの顔を登録するための画像であり、表示装置14に表示されるものである。
【0208】
この画像は、感情推定装置10に登録する被験者Uの顔を示す画像281、平常時の平均心拍数を示す表示領域282、平常時の平均呼吸数を示す表示領域283、及び、登録のためのボタン284を含む。画像281は、記憶媒体に保存されていたデータを読みだしたものであってもよいし、感情推定装置10がカメラを備えている場合にはカメラで撮影したものであってもよい。平均心拍数及び平均呼吸数は、ユーザにより入力されたものであってもよいし、センサ13によりユーザから取得したものであってもよい。
【0209】
ボタン284に対するユーザによる操作がなされると、この操作を操作入力IF15が受け付け、操作がなされたときの画像281が、被験者Uの顔として登録される。このように登録された被験者Uの顔に基づいて、非生理学データとしての表情の分析がなされる。
【0210】
図29は、本実施の形態に係る被験者Uの顔の登録のための画像の第二例の説明図である。
【0211】
図29に示される画像は、感情推定装置10により感情を推定する対象となる被験者Uのさまざまな表情の顔を登録するための画像であり、表示装置14に表示されるものである。
【0212】
この画像は、感情推定装置10に登録する被験者Uの顔を示す画像291、登録のためのボタン293、及び、被験者Uの表情を形成させるための画像294を含む。なお、感情推定装置10がカメラを備えている場合には、被験者Uにさまざまな表情をさせるためのメッセージ292を含んでもよい。
【0213】
画像291は、記憶媒体に保存されていたデータを読みだしたものであってもよいし、感情推定装置10がカメラを備えている場合にはカメラで撮影したものであってもよい。
【0214】
メッセージ292は、登録すべき被験者Uの表情(例えば、怒った表情)を被験者Uにさせるためのメッセージである。被験者Uは、メッセージ292を視認し、メッセージ292の内容に従って表情を形成する。
【0215】
ボタン293に対するユーザによる操作がなされると、この操作を操作入力IF15が受け付け、操作がなされたときの画像291が、登録すべき表情の被験者Uの顔として登録される。このように登録された被験者Uの顔に基づいて、非生理学データとしての表情の分析がなされる。登録すべき表情は、複数あってもよいが、例えばラッセル円環モデル(
図1)に含まれる感情のすべてに対応する表情それぞれを登録する必要はない。人の感情と表情との関連は、例えば特徴点の動き等を用いた方法等がすでに知られており、登録された被験者Uの顔に含まれる特徴点の位置を所定の関係に基づいて動かすことで、所定の感情の顔を形成することができるからである。
【0216】
画像294は、被験者Uの表情を形成させるための画像である。例えば、画像294は、被験者Uに怒った表情をさせたい場合に、その表情の例として、被験者Uの顔の画像に基づいてコンピュータグラフィックスにより生成された被験者Uの怒った表情を示す画像である。なお、画像294は、被験者Uが自発的に表情を形成するように感情を抱かせる画像であってもよい。例えば、被験者Uの笑顔を登録したい場合に、被験者Uと異なる人物の笑顔を示す画像としてもよいし、動物の画像などにしてもよい。また、言葉又は文字表現(例えば、「とても美しいですね」というような言葉)を含んでもよい。
【0217】
図30は、本実施の形態に係る被験者Uの顔から表情を検知する領域の選択の画像の第一例の説明図である。
図30に示される画像は、取得部20により非生理学データとしての表情を取得する対象となる被験者Uの顔の領域を設定するための画像であり、表示装置14に表示されるものである。
【0218】
この画像は、表情を取得する対象となる領域のパターンを被験者Uの顔に重畳させて示す画像301と、上記領域のパターンの候補を示す複数の画像302A、302B及び302Cと、カーソル303と、登録のためのボタン304とを含む。
【0219】
画像301は、複数の画像302Aのうちカーソル303により指定される領域のパターンを被験者Uの顔に重畳させた画像である。領域のパターンの候補は、顔を特徴ある複数の部分に区分した上で、これらの部分の組み合わせのさまざまなパターンとして形成される。例えば、顔の目を含む部分、鼻及び頬を含む部分、鼻及び眉間を含む部分、及び、口を含む部分に区分した上で、これらの部分をさまざまに組み合わせることで、複数の画像302A等に示されるような上記複数の領域のパターンが形成される。
【0220】
カーソル303は、複数の画像302Aのうちのいずれかを指定するカーソルであり、ユーザによる操作により移動され得る。
【0221】
ボタン304に対するユーザによる操作がなされると、この操作を操作入力IF15が受け付け、操作がなされたときの画像301が、表情を取得する対象となる領域のパターンとして登録される。
【0222】
図31は、本実施の形態に係る被験者Uの顔から表情を検知する領域の選択の画像の第二例の説明図である。
図31に示される画像の全体的な構成及び役割は、
図30に示される画像と同じである。
【0223】
図31に示される画像311に含まる被験者Uの顔は、目を含む部分がサングラスにより覆われており、目の部分に基づく表情の分析が困難であると考えられる。このような場合には、目の部分を含まない領域のパターンである画像302Bに対応する領域のパターンを、表情を取得する対象となる領域のパターンとして登録するようにしてもよい。
【0224】
なお、顔のしわの情報を含めると、感情推定装置10における顔の表情または感情の決定精度を向上させることができる。加えて、感情推定装置10が個人を識別する機能を有する場合、個人識別の精度をも向上させることができる。
【0225】
図32は、感情推定装置10により顔の表情または感情を決定する際に、顔のしわの情報を用いるかどうかの選択をユーザに選択させるための画像の一例であり、表示装置14に表示されるものである。
【0226】
図32に示される画像は、感情推定装置10により顔の表情または感情を決定する際に顔のしわの情報を用いないモード(しわ非使用モード)を選択するためのボタン321と、上記の際に顔のしわの情報を用いるモード(しわ使用モード)を選択するボタン322とを含む。ユーザは、これらのいずれかのボタンを操作することで、感情推定装置10により顔の表情または感情を決定する際に、顔のしわの情報を用いるかどうかを選択することができる。
【0227】
なお、
図32の例において、顔のしわの情報を用いることで顔の表情と感情の決定精度を向上させることが可能である旨をユーザに示してもよい。
【0228】
(実施の形態の変形例)
本変形例において、人が抱いているさまざまな感情を推定する感情推定装置の別構成について説明する。なお、実施の形態と同じ構成要素には、同じ符号を付し、詳細な説明を省略する。
【0229】
図33は、本変形例に係る感情推定装置10Eのハードウェア構成を示すブロック図である。
【0230】
図33に示されるように、感情推定装置10Eは、CPU11と、メモリ12と、表示装置14と、操作入力IF15と、センサ入力IF16と、センサ17とを備える。感情推定装置10Eは、センサ13の代わりに、センサ入力IF16を備える点で、感情推定装置10と異なる。
【0231】
センサ入力IF16は、人である被験者Uの生理学データ又は非生理学データを被験者Uから取得するセンサ17に接続されている。センサ17は、感情推定装置10のセンサ13と同等のものでよい。
【0232】
感情推定装置10Eにおいて、取得部20は、センサ入力IF16を介してセンサ17から情報を取得し、実施の形態の感情推定装置10と同様の処理を行う。
【0233】
この構成によれば、感情推定装置10Eは、自装置にセンサを備えることなく、感情推定装置10Eの外部のセンサ17から情報を取得し、被験者の感情を推定することができる。
【0234】
以上のように、本実施の形態の感情推定装置は、被験者から取得した生理学データ又は非生理学データを含むであって、少なくとも1つの生理学データを含む2以上のデータを用いて、所定の対応付けに基づいて被験者の感情を推定することができる。ここで、感情推定装置は、上記2以上のデータを用いことで被験者の第一値(覚醒感)及び第二値(快適感)の2つの指標を算出することにより、被験者が抱いているさまざまな感情を適切に推定することができる。
【0235】
また、感情推定装置は、被験者から取得した生理学データ及び非生理学データを用いて、所定の対応付けに基づいて被験者の感情を推定することができる。生理学データは覚醒感との相関が比較的大きく、非生理学データは快適感との相関が比較的大きい。よって、生理学データ及び非生理学データを用いることにより覚醒感及び快適感をより正確に算出し、その結果、被験者の感情をより正確に推定することができる。
【0236】
また、感情推定装置は、被験者から取得した生理学データを用いて生理学データに相関が比較的大きい覚醒感を算出し、また、非生理学データを用いて非生理学データに相関が比較的大きい快適感を算出する。よって、被験者の覚醒感及び快適感をより正確に算出し、その結果、被験者の感情をより正確に推定することができる。
【0237】
また、感情推定装置は、被験者の生理学データとしての心拍数と、非生理学データとしての表情とをともにカメラを用いて取得し、被験者の感情を推定する。このように、カメラという1つのデバイスを用いて生理学データ及び非生理学データの両方を取得して感情を推定することで、被験者の負担を削減するとともに、利便性が向上する。
【0238】
また、感情推定装置は、被験者の覚醒感と快適感とを平面上の点として表現して出力する。これにより、ユーザ又は被験者は、被験者の感情を、被験者が取り得るさまざまな感情のうちのどれであるか、また、併せてその感情の強度を直観的に知ることができる。
【0239】
また、感情推定装置は、被験者の覚醒感と快適感との少なくとも一方を出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、被験者が感じている覚醒感及び/又は快適感を知ることができる。
【0240】
また、感情推定装置は、被験者の特定の感情(例えば、喜び)の強さ(言い換えれば、感情の度合い)を出力する。例えば、感情推定装置は、単に「喜び」という感情を出力するだけでなく、喜びの度合いを出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、その感情の強さ又は度合いを知ることができる。
【0241】
また、感情推定装置は、推定した感情がどれだけ正しく被験者の感情を表しているかを信頼性として出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、その感情がどれだけ正しく被験者の感情を表しているかを知ることができる。
【0242】
また、感情推定装置は、複数の生理学データ及び非生理学データにより覚醒感又は快適感が算出され得る場合に、これら複数の生理学データ及び非生理学データを信頼性に基づいて適切に評価して、被験者の感情を推定することができる。
【0243】
また、感情推定装置は、推定した感情が被験者の感情をそれほど正しく表していないと評価される場合に警告を出力する。これにより、ユーザ又は被験者は、推定された感情が被験者の感情をそれほど正しく表していないことを明確に知ることができる。
【0244】
また、感情推定装置は、被験者の身体的特徴に関連する情報(例えば、性別又は年齢など)に基づいて覚醒感及び快適感の基準値を変動させることで、覚醒感及び快適感を被験者の身体的特徴に合わせて調整することができ、より適切に感情を推定することができる。
【0245】
また、感情推定装置は、被験者の表情を取得するための顔の領域についての設定を受け付け、これを用いて被験者の表情を取得する。例えば被験者がサングラスを着用している場合には被験者の目の部分がサングラスにより隠されるので、目の部分から表情に関する情報を取得することができない。このような場合に、被験者の目の部分を除く部分から被験者の表情を取得するようにすることで、感情推定装置は、表情の検出をより適切に行うことができる。
【0246】
また、感情推定装置は、顔の色などの生理学データを用いてより具体的に被験者が抱く感情を推定することができる。
【0247】
また、感情推定装置は、表情などの非生理学データを用いてより具体的に被験者が抱く感情を推定することができる。
【0248】
また、感情推定装置は、性別などの情報を用いてより具体的に被験者が抱く感情を推定することができる。
【0249】
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の感情推定装置などを実現するソフトウェアは、次のようなプログラムである。
【0250】
すなわち、このプログラムは、コンピュータに、被験者の感情を推定する感情推定装置における感情推定方法であって、生理学データに対応する第一データと、前記第一データとは異なる生理学データおよび非生理学データのうちの一方に対応する第二データとを前記被験者から取得し、取得した前記第一データと前記第二データとに基づいて、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出し、算出した前記第一値及び前記第二値から前記被験者の感情を、コンピュータのメモリに予め記憶された人の覚醒の度合い及び快適さの度合いと前記人の感情との所定の対応付けに基づいて推定し、推定した前記感情を示す情報を出力する感情推定方法を実行させる。
【0251】
以上、一つまたは複数の態様に係る感情推定装置などについて、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。