(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024067929
(43)【公開日】2024-05-17
(54)【発明の名称】感情誘導システム、感情誘導方法、サーバ装置、通信端末およびプログラム
(51)【国際特許分類】
G16H 40/00 20180101AFI20240510BHJP
G09B 5/14 20060101ALI20240510BHJP
G06F 3/01 20060101ALI20240510BHJP
G06F 3/04815 20220101ALI20240510BHJP
G06T 19/00 20110101ALI20240510BHJP
【FI】
G16H40/00
G09B5/14
G06F3/01 510
G06F3/04815
G06T19/00 300A
【審査請求】未請求
【請求項の数】8
【出願形態】OL
(21)【出願番号】P 2022178352
(22)【出願日】2022-11-07
(71)【出願人】
【識別番号】000001960
【氏名又は名称】シチズン時計株式会社
(74)【代理人】
【識別番号】100099759
【弁理士】
【氏名又は名称】青木 篤
(74)【代理人】
【識別番号】100123582
【弁理士】
【氏名又は名称】三橋 真二
(74)【代理人】
【識別番号】100114018
【弁理士】
【氏名又は名称】南山 知広
(74)【代理人】
【識別番号】100180806
【弁理士】
【氏名又は名称】三浦 剛
(74)【代理人】
【氏名又は名称】阿形 直起
(72)【発明者】
【氏名】清水 秀樹
【テーマコード(参考)】
2C028
5B050
5E555
5L099
【Fターム(参考)】
2C028AA12
2C028BA05
2C028BB04
2C028BC05
2C028BD01
5B050BA08
5B050BA12
5B050CA07
5B050CA08
5B050DA10
5B050EA07
5B050EA12
5B050EA18
5B050EA19
5B050FA02
5B050FA08
5E555AA48
5E555AA71
5E555AA76
5E555BA02
5E555BA05
5E555BA06
5E555BA20
5E555BB02
5E555BB05
5E555BB06
5E555BB20
5E555BC04
5E555BD01
5E555BD09
5E555BE17
5E555CA12
5E555CA41
5E555CA42
5E555CA47
5E555CB12
5E555CB69
5E555CB74
5E555DA23
5E555DB32
5E555DB41
5E555DB53
5E555DB56
5E555DC05
5E555DC13
5E555DC35
5E555DD05
5E555DD06
5E555EA05
5E555EA14
5E555FA00
5L099AA15
(57)【要約】
【課題】遠隔地にいる複数の受講者が高いモチベーションで感情誘導トレーニングを受講することを可能とする感情誘導システム等を提供する。
【解決手段】感情誘導システムは、複数の受講者の通信端末と、サーバ装置と、を有する感情誘導システムであって、複数の受講者の通信端末に、所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示するコンテンツ表示手段と、コンテンツを視聴した受講者の生体情報に基づいて、受講者の感情を検出する検出手段と、検出された感情に基づいて、受講者が感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を生成する生成手段と、達成情報を仮想空間において各受講者のアバターに関連付けて表示する達成情報表示手段と、を有する。
【選択図】
図6
【特許請求の範囲】
【請求項1】
複数の受講者の通信端末と、サーバ装置と、を有する感情誘導システムであって、
前記複数の受講者の通信端末に、所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示するコンテンツ表示手段と、
前記感情誘導コンテンツを視聴した受講者の生体情報に基づいて、当該受講者の感情を検出する検出手段と、
前記検出された感情に基づいて、受講者が前記感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を生成する生成手段と、
前記達成情報を前記仮想空間において各受講者のアバターに関連付けて表示する達成情報表示手段と、
を有することを特徴とする感情誘導システム。
【請求項2】
前記達成情報表示手段は、各受講者のアバターの動作によって前記達成情報を表示する、
請求項1に記載の感情誘導システム。
【請求項3】
音声または文字による受講者のメッセージを取得し、前記取得したメッセージを他の受講者の通信端末に送信することにより他の受講者に伝達する伝達手段をさらに有する、
請求項1に記載の感情誘導システム。
【請求項4】
複数の受講者の通信端末に、所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示し、
前記感情誘導コンテンツを視聴した受講者の生体情報に基づいて、当該受講者の感情を検出し、
前記検出された感情に基づいて、受講者が前記感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を生成し、
前記達成情報を前記仮想空間において各受講者のアバターに関連付けて表示する、
ことを含むことを特徴とする感情誘導方法。
【請求項5】
複数の受講者の通信端末と、サーバ装置と、を有する感情誘導システムのサーバ装置であって、
前記複数の受講者の通信端末に、所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示するコンテンツ表示部と、
前記感情誘導コンテンツを視聴した受講者の生体情報に基づいて検出された、当該受講者の感情を取得する取得部と、
前記検出された感情に基づいて、受講者が前記感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を生成する生成部と、
前記達成情報を前記仮想空間において各受講者のアバターに関連付けて表示させる達成情報表示部と、
を有することを特徴とするサーバ装置。
【請求項6】
複数の受講者の通信端末と、サーバ装置と、を有する感情誘導システムのサーバ装置のプログラムであって、
前記複数の受講者の通信端末に、所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示し、
前記感情誘導コンテンツを視聴した受講者の生体情報に基づいて検出された、当該受講者の感情を取得し、
前記検出された感情に基づいて、受講者が前記感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を生成し、
前記達成情報を前記仮想空間において各受講者のアバターに関連付けて表示する、
ことを前記サーバ装置に実行させることを特徴とするプログラム。
【請求項7】
複数の受講者の通信端末と、サーバ装置と、を有する感情誘導システムの通信端末であって、
所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示する表示部と、
前記感情誘導コンテンツを視聴した受講者の生体情報に基づいて、当該受講者の感情を検出する感情検出部と、を有し、
前記表示部は、前記検出された感情に基づいて生成された、受講者が前記感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を、前記仮想空間において各受講者のアバターに関連付けて表示する、
ことを特徴とする通信端末。
【請求項8】
複数の受講者の通信端末と、サーバ装置と、を有する感情誘導システムの通信端末のプログラムであって、
所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示し、
前記感情誘導コンテンツを視聴した受講者の生体情報に基づいて、当該受講者の感情を検出し、
前記検出された感情に基づいて生成された、受講者が前記感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を、前記仮想空間において各受講者のアバターに関連付けて表示する、
ことを前記通信端末に実行させることを特徴とするプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、感情誘導システム、感情誘導方法、サーバ装置、通信端末およびプログラムに関する。
【背景技術】
【0002】
近年、ストレスを緩和するトレーニングとして、現在の内的または外的経験に注意を向けるマインドフルネスと呼ばれる感情誘導トレーニングが注目されている。マインドフルネスでは、自己の呼吸に意識を向けることを通じて、内的または外的経験に注意が向けられる。
【0003】
特許文献1には、マインドフルネス療法を利用して認知症の予防改善をする装置について記載されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
このような感情誘導トレーニングを実施する際には、受講者のモチベーションを維持するために、複数の受講者が集合して実施されることが好ましい。しかしながら、受講者を集合させることが難しい場合がある。例えば、企業が従業員のストレス対策として感情誘導トレーニングを導入する場合において、従業員が複数の事業所に分散している場合等には、従業員を集合させることは難しい。
【0006】
本発明は、上述の課題を解決するためになされたものであり、遠隔地にいる複数の受講者が高いモチベーションで感情誘導トレーニングを受講することを可能とする感情誘導システム、感情誘導方法、サーバ装置およびプログラムを提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の実施形態に係る感情誘導システムは、複数の受講者の通信端末と、サーバ装置と、を有する感情誘導システムであって、複数の受講者の通信端末に、所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示するコンテンツ表示手段と、コンテンツを視聴した受講者の生体情報に基づいて、受講者の感情を検出する検出手段と、検出された感情に基づいて、受講者が感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を生成する生成手段と、達成情報を仮想空間において各受講者のアバターに関連付けて表示する達成情報表示手段と、を有することを特徴とする。
【0008】
また、達成情報表示手段は、各受講者のアバターの動作によって達成情報を表示することが好ましい。
【0009】
また、感情誘導システムは、音声または文字による受講者のメッセージを取得し、取得したメッセージを他の受講者の通信端末に送信することにより他の受講者に伝達する伝達手段をさらに有することが好ましい。
【0010】
本発明の実施形態に係る感情誘導方法は、複数の受講者の通信端末に、所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示し、コンテンツを視聴した受講者の生体情報に基づいて、受講者の感情を検出し、検出された感情に基づいて、受講者が感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を生成し、達成情報を仮想空間において各受講者のアバターに関連付けて表示する、ことを含むことを特徴とする。
【0011】
本発明の実施形態に係るサーバ装置は、複数の受講者の通信端末と、サーバ装置と、を有する感情誘導システムのサーバ装置であって、複数の受講者の通信端末に、所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示するコンテンツ表示部と、コンテンツを視聴した受講者の生体情報に基づいて検出された、受講者の感情を取得する取得部と、検出された感情に基づいて、受講者が感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を生成する生成部と、達成情報を仮想空間において各受講者のアバターに関連付けて表示させる達成情報表示部と、を有することを特徴とする。
【0012】
本発明の実施形態に係るプログラムは、複数の受講者の通信端末と、サーバ装置と、を有する感情誘導システムのサーバ装置のプログラムであって、複数の受講者の通信端末に、所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示し、コンテンツを視聴した受講者の生体情報に基づいて検出された、受講者の感情を取得し、検出された感情に基づいて、受講者が感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を生成し、達成情報を仮想空間において各受講者のアバターに関連付けて表示する、ことをサーバ装置に実行させることを特徴とする。
【0013】
本発明の実施形態に係る通信端末は、複数の受講者の通信端末と、サーバ装置と、を有する感情誘導システムの通信端末であって、所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示する表示部と、感情誘導コンテンツを視聴した受講者の生体情報に基づいて、受講者の感情を検出する感情検出部と、を有し、表示部は、検出された感情に基づいて生成された、受講者が感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を、仮想空間において各受講者のアバターに関連付けて表示する、ことを特徴とする。
【0014】
本発明の実施形態に係るプログラムは、複数の受講者の通信端末と、サーバ装置と、を有する感情誘導システムの通信端末のプログラムであって、所定の仮想空間において提供される、受講者の感情を誘導する感情誘導コンテンツを表示し、感情誘導コンテンツを視聴した受講者の生体情報に基づいて、受講者の感情を検出し、検出された感情に基づいて生成された、受講者が感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を、仮想空間において各受講者のアバターに関連付けて表示する、ことを通信端末に実行させることを特徴とする。
【発明の効果】
【0015】
本発明に係る感情誘導システム、感情誘導方法、サーバ装置、通信端末およびプログラムは、遠隔地にいる複数の受講者が高いモチベーションで感情誘導トレーニングを受講することを可能とする。
【図面の簡単な説明】
【0016】
【
図1】感情誘導システム1の概略構成を示す図である。
【
図3】コンテンツサーバ3の機能ブロック図である。
【
図6】コンテンツ提供画面G2の例を示す図である。
【
図7】呼吸誘導画像Bの時間変化について説明するための模式図である。
【
図9】感情誘導処理の流れの例を示すフロー図である。
【
図10】起動時処理の流れの例を示すシーケンス図である。
【
図11】操作時処理の流れの例を示すシーケンス図である。
【
図12】コンテンツ出力処理の流れの例を示すシーケンス図である。
【
図13】検出処理の流れの例を示すシーケンス図である。
【
図14】脈拍数の時間変化の取得方法について説明するための模式図である。
【
図15】情動の検出方法について説明するための模式図である。
【
図16】結果出力処理の流れの例を示すシーケンス図である。
【
図17】検出処理の流れの他の例を示すシーケンス図である。
【
図18】結果出力処理の流れの他の例を示すシーケンス図である。
【発明を実施するための形態】
【0017】
以下、図面を参照しつつ、本発明の様々な実施形態について説明する。本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明及びその均等物に及ぶ点に留意されたい。
【0018】
図1は、本発明の実施形態に係る感情誘導システム1の概略構成を示す図である。感情誘導システム1は、メタバースとも称される仮想空間において、複数の受講者に対して感情誘導コンテンツを提供する。感情誘導コンテンツは、各受講者が自身の呼吸に意識を向けるように促すことにより、受講者が過去の失敗や将来の不安といった負の感情から解放されるように誘導するためのコンテンツである。感情誘導システム1は、複数の通信端末2a、2b、2c、コンテンツサーバ3および仮想空間サーバ4を有する。複数の通信端末2a、2b、2c、コンテンツサーバ3および仮想空間サーバ4は、ネットワークNを介して相互に通信可能に接続される。なお、コンテンツサーバ3は、サーバ装置の一例である。以降では、複数の通信端末2a、2b、2cを通信端末2と総称することがある。
【0019】
図2は、通信端末2の機能ブロック図である。通信端末2は、受講者が所持する、携帯電話機、スマートフォン、PC(Personal Computer)、タブレット端末、ゲーム機等の情報処理端末である。通信端末2は、感情誘導コンテンツを出力するとともに、感情誘導コンテンツを視聴する受講者の生体情報を取得する。通信端末2は、記憶部21、通信部22、撮像部23、音声出力部24、表示部25、操作部26および処理部27を有する。
【0020】
記憶部21は、プログラムおよびデータを記憶するための構成であり、例えば半導体メモリを備える。記憶部21は、プログラムとして、処理部27による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム等を記憶する。プログラムは、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)等のコンピュータ読取可能かつ非一時的な可搬型記憶媒体から記憶部21にインストールされる。
【0021】
通信部22は、通信端末2を他の装置と通信可能にする構成であり、通信インタフェース回路を備える。通信部22が備える通信インタフェース回路は、有線LAN(Local Area Network)、無線LAN、移動体通信方式等の通信インタフェース回路である。通信部22は、データを他の装置から受信して処理部27に供給するとともに、処理部27から供給されたデータを他の装置に送信する。
【0022】
撮像部23は、感情誘導コンテンツを視聴する受講者を撮像するための構成であり、カメラを備える。カメラは、受光面に結像させるための結像光学系と、受光面に二次元に配列され、入射した光量に応じた電気信号を出力するCCD(Charge Coupled Device)センサ等の光電変換素子と、光電変換素子の出力に基づいて画像を生成する画像生成回路とを備える。撮像部23は、処理部27から供給される制御信号に基づいて画像を生成し、生成された画像を処理部27に供給する。
【0023】
音声出力部24は、音声を出力するための構成であり、スピーカを備える。音声出力部24は、処理部27から供給される電気信号を機械的な振動に変換することにより、音声を出力する。
【0024】
表示部25は、画像を表示するための構成であり、例えば液晶ディスプレイまたは有機EL(Electro Luminescence)ディスプレイを備える。表示部25は、処理部27から供給された表示データに基づいて画像を表示する。
【0025】
操作部26は、利用者の操作を受け付けるための構成であり、例えばキーボード、キーパッド、マウスを備える。操作部26はタッチパネルを備え、表示部25と一体化されていてもよい。操作部26は、利用者の操作に応じた操作信号を生成し、処理部27に供給する。
【0026】
処理部27は、通信端末2の動作を統括的に制御するデバイスであり、一つまたは複数個のプロセッサおよびその周辺回路を備える。処理部27は、例えばCPU(Central Processing Unit)を備える。処理部27は、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等を備えてもよい。処理部27は、記憶部21に記憶されているプログラムおよび操作部26からの操作信号に基づいて通信端末2の各種処理が適切な手順で実行されるように、各構成の動作を制御するとともに、各種の処理を実行する。
【0027】
処理部27は、仮想空間処理部271、画像取得部272、生体情報取得部273、情動検出部274、感情検出部275、検出結果送信部276、メッセージ受付部277およびメッセージ送信部278をその機能ブロックとして備える。これらの各部は、処理部27によって実行されるプログラムに基づいて実現される機能モジュールである。これらの各部は、ファームウェアとして通信端末2に実装されてもよい。なお、感情検出部275は、検出手段の一例である。
【0028】
図3は、コンテンツサーバ3の機能ブロック図である。コンテンツサーバ3は、仮想空間サーバ4が提供する仮想空間において感情誘導コンテンツを提供するとともに、受講者が感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報を生成する。コンテンツサーバ3は、感情誘導コンテンツの提供者によって管理される。コンテンツサーバ3は、記憶部31、通信部32および処理部33を有する。
【0029】
記憶部31は、プログラムおよびデータを記憶するための構成であり、例えば半導体メモリを備える。記憶部31は、プログラムとして、処理部33による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム等を記憶する。プログラムは、CD-ROM、DVD-ROM等のコンピュータ読取可能かつ非一時的な可搬型記憶媒体から記憶部31にインストールされる。
【0030】
通信部32は、コンテンツサーバ3を他の装置と通信可能にする構成であり、通信インタフェース回路を備える。通信部32が備える通信インタフェース回路は、有線LAN、無線LAN、移動体通信方式等の通信インタフェース回路である。通信部32は、データを他の装置から受信して処理部33に供給するとともに、処理部33から供給されたデータを他の装置に送信する。
【0031】
処理部33は、コンテンツサーバ3の動作を統括的に制御するデバイスであり、一つまたは複数個のプロセッサおよびその周辺回路を備える。処理部33は、例えば、CPUを備える。処理部33は、GPU、DSP、LSI、ASIC、FPGA等を備えてもよい。処理部33は、記憶部31に記憶されているプログラムに基づいてコンテンツサーバ3の各種処理が適切な手順で実行されるように、各構成の動作を制御するとともに、各種の処理を実行する。
【0032】
処理部33は、コンテンツ送信部331、達成情報生成部332、メッセージ生成部333、モーションデータ生成部334、モーションデータ送信部335、達成率算出部336、結果コンテンツ生成部337および結果コンテンツ送信部338をその機能ブロックとして備える。これらの各部は、処理部33によって実行されるプログラムに基づいて実現される機能モジュールである。これらの各部は、ファームウェアとしてコンテンツサーバ3に実装されてもよい。なお、コンテンツ送信部331は、コンテンツ表示手段およびコンテンツ表示部の一例である。達成情報生成部332および達成率算出部336は生成手段および生成部の一例である。
【0033】
図4は、仮想空間サーバ4の機能ブロック図である。仮想空間サーバ4は、受講者に仮想空間を提供するためのサーバである。仮想空間サーバ4は、仮想空間サービスの提供者によって管理される。仮想空間サービスの提供者は、感情誘導コンテンツの提供者と同一であってもよく、異なっていてもよい。仮想空間サーバ4は、記憶部41、通信部42および処理部43を有する。
【0034】
記憶部41は、プログラムおよびデータを記憶するための構成であり、例えば半導体メモリを備える。記憶部41は、プログラムとして、処理部43による処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム等を記憶する。プログラムは、CD-ROM、DVD-ROM等のコンピュータ読取可能かつ非一時的な可搬型記憶媒体から記憶部41にインストールされる。
【0035】
通信部42は、仮想空間サーバ4を他の装置と通信可能にする構成であり、通信インタフェース回路を備える。通信部42が備える通信インタフェース回路は、有線LAN、無線LAN、移動体通信方式等の通信インタフェース回路である。通信部42は、データを他の装置から受信して処理部43に供給するとともに、処理部43から供給されたデータを他の装置に送信する。
【0036】
処理部43は、仮想空間サーバ4の動作を統括的に制御するデバイスであり、一つまたは複数個のプロセッサおよびその周辺回路を備える。処理部43は、例えば、CPUを備える。処理部43は、GPU、DSP、LSI、ASIC、FPGA等を備えてもよい。処理部43は、記憶部41に記憶されているプログラムに基づいて仮想空間サーバ4の各種処理が適切な手順で実行されるように、各構成の動作を制御するとともに、各種の処理を実行する。
【0037】
処理部43は、生成部431、送信部432をその機能ブロックとして備える。これらの各部は、処理部43によって実行されるプログラムに基づいて実現される機能モジュールである。これらの各部は、ファームウェアとして仮想空間サーバ4に実装されてもよい。
【0038】
図5は、通信端末2の表示部25に表示される仮想空間画面G1の例を示す図である。仮想空間画面G1は、通信端末2によって仮想空間アプリケーションプログラムが実行された場合に表示される。仮想空間画面G1は、仮想空間画像VR、アバターA1~A4および操作オブジェクトCを含む。
【0039】
仮想空間画像VRは、仮想的な空間を示す画像である。仮想空間画像VRは、仮想空間サーバ4から送信される仮想空間データに基づいて表示される。仮想空間データは、仮想空間の内部の構造物の形状および位置を示すモデルデータを含む。通信端末2は、モデルデータが示す構造物を所定の投影面に透視投影した画像を生成して、仮想空間画像VRとして表示する。
【0040】
アバターA1~A4は、仮想空間において複数の受講者を示すオブジェクトである。
図5に示す例では、アバターA1は通信端末2のユーザである受講者を示し、アバターA2~A4は他の受講者を示す。アバターA1~A4の近傍には、あらかじめ各受講者によって設定されるユーザ名UNが表示される。
【0041】
操作オブジェクトCは、受講者がアバターを操作するためのオブジェクトである。
図5に示す例では、左側の操作オブジェクトCはアバターA1を前後に移動させるためのオブジェクトであり、右側の操作オブジェクトCはアバターA1を左右に移動させるためのオブジェクトである。通信端末2のユーザである受講者が操作オブジェクトCを操作すると、操作に従ってアバターA1が移動する。また、アバターA2のユーザがそのユーザの通信端末で操作オブジェクトCを操作すると、操作に従って、アバターA1のユーザの通信端末2においてアバターA2が移動する。
【0042】
感情誘導コンテンツの受講者は、開始時刻までに通信端末2を操作して仮想空間アプリケーションプログラムを実行し、通信端末2に仮想空間画面G1を表示させる。後述するように、受講者が感情誘導コンテンツによって達成すべき目標を達成したか否かが、各受講者のアバターに関連付けて表示される。受講者は、自身のアバターを他の受講者のアバターの近くに移動させて感情誘導コンテンツを受講することにより、他の受講者が目標を達成したか否かを把握することができる。
【0043】
図6は、通信端末2の表示部25に表示されるコンテンツ提供画面G2の例を示す図である。コンテンツ提供画面G2は、仮想空間画面G1が表示されている状態で感情誘導トレーニングの開始時刻が経過した場合に表示される。コンテンツ提供画面G2は、仮想空間画像VR、複数のアバターA1~A4およびコンテンツ表示領域Dを含む。
【0044】
コンテンツ表示領域Dは、感情誘導コンテンツの画像が表示される領域である。感情誘導コンテンツは、受講者に自身の呼吸を制御させることにより、受講者が負の感情から解放されるように誘導するコンテンツである。感情誘導コンテンツの画像がコンテンツ表示領域Dに表示されている間、感情誘導コンテンツの音声が通信端末2の音声出力部24から出力される。
図6に示す例では、コンテンツ表示領域Dには、感情誘導コンテンツの画像として、指導者アバターTおよび呼吸誘導画像Bが表示されている。
【0045】
指導者アバターTは、感情誘導トレーニングの指導者を模したオブジェクトである。コンテンツ提供画面が表示されている間、指導者アバターTが感情誘導トレーニングの指導を模した動作をするとともに、指導者アバターTによる指導を模した音声が音声出力部24から出力される。例えば、感情誘導トレーニングが開始されたときに、指導者アバターTが受講者に語り掛ける動作をするとともに、「皆さん、マインドフルネスの時間です。私に合わせて、吸って吐いてを繰り返してください。」といった音声が出力される。
【0046】
呼吸誘導画像Bは、受講者の呼吸を誘導するための画像である。感情誘導トレーニングの間、受講者は、呼吸誘導画像Bが示すリズムに従って呼吸をする。受講者は、意識を呼吸に向けることを通じて負の感情から解放されるように誘導される。呼吸誘導画像Bは、受講者に息を吸うことまたは吐くことを指示する文字列STおよび息を吸う期間または吐く期間の進行状況を示す円環状のプログレスバーPBを含む。文字列STおよびプログレスバーPBの表示が時間変化することにより、受講者に呼吸のリズムが示される。
【0047】
図7は、呼吸誘導画像Bの時間変化について説明するための模式図である。最初に、
図7の上段左側に示すように、文字列STとして「すって」の文字列が表示される。このとき、プログレスバーPBの長さはゼロである。この状態から時間が経過すると、
図7の上段中央に示すように、プログレスバーPBが12時の位置から時計回りに延伸する。この状態からさらに時間が経過すると、
図5の上段右側に示すように、プログレスバーPBの先端は、12時の位置に到達する。プログレスバーPBの先端が12時の位置に到達すると、
図5の下段右側に示すように、文字列STとして「はいて」の文字列が表示される。このとき、プログレスバーPBの長さはゼロである。この状態から時間が経過すると、
図5の下段中央に示すように、再びプログレスバーPBが12時の位置から時計回りに延伸する。この状態からさらに時間が経過すると、
図5の下段左側に示すように、プログレスバーPBの先端は、12時の位置に到達する。プログレスバーPBの先端が12時の位置に到達すると、再び文字列STとして「すって」の文字列が表示される。呼吸誘導画像Bは、上述した表示を繰り返すことにより、呼吸のリズムを受講者に示す。
【0048】
また、文字列STとして「すって」の文字列が表示されている間、指導者アバターTは息を吸う動作をする。文字列STとして「はいて」の文字列が表示されている間、指導者アバターTは息を吐く動作をする。
【0049】
図6に戻り、感情誘導トレーニングの間、通信端末2の撮像部23は、感情誘導コンテンツを視聴し、呼吸誘導画像Bが示すリズムに従って呼吸する受講者を撮像して、受講者の画像を生成する。通信端末2は、感情誘導コンテンツが提供されている間の所定の検出期間ごとに、受講者の画像に基づいて受講者の脈波間隔および脈拍数の時間変化を取得し、脈波間隔および脈拍数の時間変化に基づいて受講者の感情および情動を検出する。検出期間は、例えば、所定回数の呼吸に相当する期間である。検出期間ごとに、受講者の感情および情動に基づいて、受講者が感情誘導コンテンツによって達成すべき目標を達成したか否かに関する達成情報が生成される。
【0050】
感情に関する目標が達成されているか否かは、後述する受講者の感情を示す数値と所定の閾値とを比較することにより判定される。感情に関する複数の目標が設定されてもよい。例えば、受講者の感情を示す数値が第1の閾値以上である場合には、受講者は感情に関する第1の目標を達成し、負の感情から解放されている状態であると判定される。受講者の感情を示す数値が第1の閾値未満でありかつ第2の閾値以上である場合には、受講者は感情に関する第2の目標を達成し、負の感情からやや解放されている状態であると判定される。受講者の感情を示す数値が第2の閾値未満でありかつ第3の閾値以上である場合には、受講者は感情に関する第3の目標を達成し、負の感情をやや有している状態であると判定される。受講者の感情に関する数値が第3の閾値未満である場合には、受講者は第1~第3の目標のいずれも達成しておらず、負の感情を有している状態であると判定される。
【0051】
情動に関する目標が達成されているか否かは、受講者の情動を示す数値と所定の閾値とを比較することにより判定される。例えば、受講者の情動を示す数値が所定の閾値以上である場合には、受講者は情動に関する目標を達成し、情動がない状態であると判定される。受講者の情動を示す数値が所定の閾値未満である場合には、受講者は情動に関する目標を達成しておらず、情動がある状態であると判定される。
【0052】
受講者の達成情報は、複数のアバターA1~A4の動作によって表示される。達成情報を表示するためのアバターの動作には、アバターが特定の姿勢をとること、およびアバターが特定のパターンで身体の部位を動かすことが含まれる。以下では、アバターが特定のパターンで身体の部位を動かすことをアバターの動きと称することがある。
【0053】
例えば、複数のアバターA1~A4は、受講者の感情に関する達成情報に応じて異なる姿勢をとる。
図6に示す例では、アバターA1は、両手を下ろした姿勢をとっており、これはアバターA1が示す受講者が負の感情から解放されていることを示している。アバターA2は、両手を水平方向に広げた姿勢をとっており、これはアバターA2が示す受講者が負の感情からやや解放されていることを示している。アバターA3は、片手を上げた姿勢をとっており、これはアバターA3が示す受講者がやや負の感情を有していることを示している。アバターA4は、両手を上げた姿勢をとっており、これはアバターA4が示す受講者が負の感情を有していることを示している。
【0054】
また、複数のアバターA1~A4は、受講者の情動が目標を達成したか否かに応じて異なる動きをする。例えば、受講者の情動がない場合には、アバターA1~A4は上述した姿勢をとったまま静止し、受講者の情動がある場合には、アバターA1~A4は上述した姿勢をとりながら両手を小さく振る動きをする。
【0055】
アバターA1~A4は、達成情報に基づいて生成されるモーションデータに基づいて上述した動作をする。
【0056】
また、受講者の感情および情動が検出されるたびに、検出された感情および情動に基づいて、指導者アバターTによる指導を模した音声が音声出力部24から出力される。例えば、アバターA1が示す受講者が負の感情から解放されていると判定された場合には、「ヒデさん、いい感じですよ。」といった音声が出力される。
【0057】
図8は、通信端末2の表示部25に表示される結果出力画面G3の例を示す図である。結果出力画面G3は、コンテンツ提供画面G2が表示されている状態で感情誘導トレーニングが終了した場合に表示される。結果出力画面G3は、仮想空間画像VR、複数のアバターA1~A4、結果表示領域Eおよびメッセージ送信オブジェクトMを含む。
【0058】
結果表示領域Eは、結果コンテンツの画像が表示される領域である。結果コンテンツは、感情誘導トレーニングの結果を示すコンテンツである。結果コンテンツの画像は結果表示領域Eに表示され、結果コンテンツの音声は通信端末2の音声出力部24から出力される。
図8に示す例では、結果表示領域Eには、結果コンテンツの画像として、指導者アバターTおよび達成情報画像Fが表示されている。
【0059】
達成情報画像Fは、各受講者の達成情報を表示する。
図8に示す例では、達成情報として、感情誘導トレーニングの開始から終了までの期間のうち、受講者の感情および情動が目標を達成していた期間の比率を示す達成率並びに達成率に基づく各受講者の順位および合否が表示されている。
【0060】
結果出力画面G3が表示されている間、指導者アバターTが受講者に語り掛ける動作をするとともに、指導者アバターTによる指導を模した音声が音声出力部24から出力される。例えば、達成情報画像Fが表示されたときに、受講者に語り掛ける動作をする指導者アバターTの動画像が表示されるともに、「はい、これで終わりです。リラックスできましたか。」といった音声が出力される。また、達成情報に基づく音声が出力されてもよい。例えば、「マサさん、大変よくできました。」「カズさん、次はもう少し深く呼吸してみましょう。」といった音声が出力される。
【0061】
達成情報は、アバターの動作によっても表示される。
図8に示す例では、達成率が最も大きい受講者のアバターであるアバターA3が、両手を上に挙げる動作をしている。
【0062】
メッセージ送信オブジェクトMは、受講者が他の受講者に対してメッセージを送信するためのオブジェクトである。メッセージ送信オブジェクトMは、テキストボックスおよび送信ボタンを含む。受講者は、通信端末2の操作部26を操作して、メッセージ送信オブジェクトMのテキストボックスにメッセージを入力し、送信ボタンを選択する。送信ボタンが選択されると、テキストボックスに入力されたメッセージが、メッセージを入力した受講者を示すアバターに関連付けられて表示される。
図8に示す例では、アバターA3が示す受講者が入力した「今日はリラックスできたよ。」というメッセージ表示BLがアバターA3に関連付けられて表示されている。
【0063】
図9は、感情誘導システム1によって実行される感情誘導処理の流れの例を示すフロー図である。感情誘導処理は、通信端末2、コンテンツサーバ3および仮想空間サーバ4の処理部が、あらかじめ記憶されたプログラムに基づいて他の構成と協働することにより実現される。
【0064】
最初に、起動時処理が実行される(ステップS101)。起動時処理は、通信端末2に仮想空間画面G1を表示する処理である。起動時処理の詳細は後述する。
【0065】
次に、複数の通信端末2のうちのいずれかにおいて、操作オブジェクトCに対する操作がされたか否かが判定される(ステップS102)。通信端末2の仮想空間処理部271は、操作部26から供給される操作信号に基づいて、操作オブジェクトCに対する操作がされたか否かを判定する。
【0066】
操作オブジェクトCに対する操作がされた場合、操作時処理が実行される(ステップS103)。操作時処理は、仮想空間においてアバターA1を移動させる処理である。操作時処理の詳細は後述する。
【0067】
ステップS102において操作オブジェクトCに対する操作がされていない場合(ステップS102-No)、またはステップS103の次に、開始時刻が経過したか否かが判定される(ステップS104)。コンテンツサーバ3のコンテンツ送信部331は、あらかじめ記憶された開始時刻が経過したか否かを判定する。
【0068】
開始時刻が経過していない場合(ステップS104-No)、感情誘導処理はステップS102に戻る。すなわち、開始時刻が経過するまでの間に操作オブジェクトCに対する操作がされるたびに操作処理が実行される。
【0069】
開始時刻が経過した場合(ステップS104-Yes)、感情誘導コンテンツを出力するコンテンツ出力処理が実行される(ステップS105)。コンテンツ出力処理の詳細は後述する。
【0070】
次に、検出期間が終了したか否かが判定される(ステップS106)。通信端末2の生体情報取得部273は、検出期間が経過したか否かを判定する。検出期間は、感情誘導コンテンツの提供が開始された時刻、または直前の検出期間が終了した時刻から所定時間が経過するまでの期間である。所定時間は、所定回数の呼吸に相当する期間である。
【0071】
検出期間が終了していない場合(ステップS106-No)、感情誘導処理はステップS105に戻る。すなわち、検出期間が終了するまでコンテンツ出力処理が繰り返される。
【0072】
検出期間が終了した場合(ステップS106-Yes)、受講者の感情および情動を検出する検出処理が実行される(ステップS107)。検出処理の詳細は後述する。
【0073】
次に、感情誘導コンテンツが終了したか否かが判定される(ステップS108)。コンテンツサーバ3の達成率算出部336は、感情誘導コンテンツが終了したか否かを判定する。
【0074】
感情誘導コンテンツが終了していない場合(ステップS108-No)、感情誘導処理はステップS105に戻る。すなわち、感情誘導コンテンツが終了するまでコンテンツ出力処理および検出処理が繰り返される。
【0075】
感情誘導コンテンツが終了した場合(ステップS108-Yes)、感情誘導トレーニングの結果を出力する結果出力処理が実行される(ステップS109)。結果出力処理の詳細は後述する。以上で、感情誘導処理が終了する。
【0076】
図10は、起動時処理の流れの例を示すシーケンス図である。起動時処理は、感情誘導処理のステップS101において実行される。
【0077】
最初に、通信端末2の仮想空間処理部271は、通信部22を介して、記憶部21にあらかじめ記憶された受講者識別情報を仮想空間サーバ4に送信する(ステップS201)。
【0078】
次に、仮想空間サーバ4の生成部431は、受講者識別情報に対応するアバターを生成する(ステップS202)。生成部431は、通信部42を介して、受講者識別情報を取得する。生成部431は、あらかじめ記憶された、受講者識別情報に対応するアバターのモデルデータを記憶部31から取得して、仮想空間の内部の所定位置に配置する。生成部431は、配置したアバターに、受講者識別情報に対応するユーザ名を関連付けて表示するための表示データを生成する。受講者識別情報に対応するユーザ名は、あらかじめ仮想空間サーバ4の記憶部41に記憶されていてもよく、ステップS201で受講者識別情報とともに通信端末2から送信されてもよい。
【0079】
次に、送信部432は、通信部42を介して、生成したアバターおよびユーザ名の表示データを含む仮想空間データを通信端末2に送信する(ステップS203)。
【0080】
次に、通信端末2の仮想空間処理部271は、表示部25に仮想空間を表示する(ステップS204)。仮想空間処理部271は、通信部22を介して、仮想空間データを取得する。仮想空間処理部271は、仮想空間データに基づいて仮想空間画像VRを生成する。仮想空間処理部271は、仮想空間画像VR、アバターA1、ユーザ名UNおよび操作オブジェクトCを含む仮想空間画面G1の表示データを生成する。仮想空間処理部271は、仮想空間画面G1の表示データを表示部25に供給することにより仮想空間画面G1を表示する。
【0081】
次に、画像取得部272は、撮像部23を制御して、感情誘導コンテンツを視聴する受講者の画像の取得を開始する(ステップS205)。以後、画像取得部272は、順次、受講者の動画像データを記憶部21に記憶する。以上で、起動時処理は終了する。
【0082】
図11は、操作時処理の流れの例を示すシーケンス図である。操作時処理は、感情誘導処理のステップS103において実行される。
図11に示す例は、通信端末2aおよび2bにおいて仮想空間画面G1が表示されており、通信端末2aの操作オブジェクトCが操作された場合の例である。
【0083】
最初に、通信端末2aの仮想空間処理部271は、仮想空間画面G1の操作オブジェクトCに対する操作を受け付ける(ステップS301)。仮想空間処理部271は、操作部26から操作信号を取得する。
【0084】
次に、仮想空間処理部271は、受け付けた操作に従ってアバターA1を移動させるためのモーションデータを生成する(ステップS302)。例えば、操作信号が、アバターA1を仮想空間画面G1において右方向に移動させる操作を受け付けたことを示す場合には、アバターA1が右方向に歩いて移動する動作を示すモーションデータが生成される。
【0085】
次に、仮想空間処理部271は、モーションデータに基づいてアバターの表示を更新する(ステップS303)。仮想空間処理部271は、モーションデータに基づいてアバターA1を動作させる。
【0086】
次に、仮想空間処理部271は、通信部22を介して、生成したモーションデータを仮想空間サーバ4に送信する(ステップS304)。
【0087】
次に、仮想空間サーバ4の送信部432は、通信部42を介して、アバターA1のモーションデータを通信端末2bに送信する(ステップS305)。
【0088】
次に、通信端末2bの仮想空間処理部271は、モーションデータに基づいてアバターの表示を更新する(ステップS306)。仮想空間処理部271は、通信部22を介してモーションデータを取得する。仮想空間処理部271は、モーションデータに基づいてアバターA1を動作させる。このようにして、通信端末2aでアバターA1を移動させる操作がされた場合に、通信端末2bにおいてもアバターA1が移動する。以上で、操作時処理が終了する。
【0089】
なお、通信端末2bのユーザを示すアバターが操作された場合も、同様にして、通信端末2aにおいて仮想空間の表示が更新される。
【0090】
図12は、コンテンツ出力処理の流れの例を示すシーケンス図である。コンテンツ出力処理は、感情誘導処理のステップS105において実行される。
【0091】
最初に、コンテンツサーバ3のコンテンツ送信部331は、通信部32を介して、仮想空間サーバ4に感情誘導コンテンツを送信する(ステップS401)。コンテンツ送信部331は、指導者アバターTおよび呼吸誘導画像Bを表示するための動画像を記憶部31から取得する。コンテンツ送信部331は、取得した動画像を感情誘導コンテンツとして送信する。
【0092】
次に、仮想空間サーバ4の送信部432は、通信部42を介して、感情誘導コンテンツを通信端末2に送信する(ステップS402)。
【0093】
次に、通信端末2の仮想空間処理部271は、感情誘導コンテンツを出力する(ステップS403)。仮想空間処理部271は、通信部22を介して、感情誘導コンテンツを取得する。仮想空間処理部271は、感情誘導コンテンツの画像をコンテンツ表示領域Dに表示するとともに、感情誘導コンテンツの音声を音声出力部24から出力する。以上で、コンテンツ出力処理が終了する。
【0094】
図13は、検出処理の流れの例を示すシーケンス図である。検出処理は、感情誘導処理のステップS107において実行される。
【0095】
最初に、通信端末2の生体情報取得部273は、受講者の脈波間隔および脈拍数の時間変化を取得する(ステップS501)。生体情報取得部273は、記憶部21に記憶された、感情誘導コンテンツを受講する受講者の顔などの画像に基づいて、受講者の脈波間隔を取得する。生体情報取得部273は、受講者の脈波間隔に基づいて、受講者の脈拍数の時間変化を取得する。受講者の脈波間隔および脈拍数の時間変化は、受講者の生体情報の一例である。
【0096】
図14は、脈拍数の時間変化の取得方法について説明するための模式図である。
図14のグラフの縦軸は脈波の振幅Aであり、横軸は時間tである。生体情報取得部273は、利用者の動画像データから複数のフレーム画像を抽出する。生体情報取得部273は、複数のフレーム画像に対して輪郭検知アルゴリズムまたは特徴点抽出アルゴリズムを適用し、フレーム画像において利用者の額に対応する領域を特定する。生体情報取得部273は、利用者の顔の動画像データから各フレーム画像の額に対応する領域に含まれる画素を抽出し、抽出した画素のRGBの画素値のうちG(緑)の画素値を取得することにより、Gの画素値の時間変化を算出する。額には毛細血脈が集中しており、Gの画素値には利用者の血流が反映されるため、Gの画素値の時間変化に基づいて脈波が検出される。生体情報取得部273は、Gの画素値の時間変化を示す信号に、人の脈波に対応する0.5Hz~3Hzの透過帯域を有するバンドパスフィルタを適用することにより、
図14に示す脈波信号PWを抽出する。なお、生体情報取得部273は、フレーム画像において、額とは異なる他の人体の皮膚露出部位に対応する領域を抽出してもよい。
【0097】
生体情報取得部273は、抽出した脈波信号PWに基づいて、利用者の脈波間隔および脈拍数の時間変化を算出する。例えば、生体情報取得部273は、脈波信号PWのピーク点P(n)を特定する。情動評価部174は、隣接する二つのピーク点(P(n)、P(n+1))の間の間隔を脈波間隔d(n)として算出して取得する。情動評価部174は、脈波間隔の逆数の60倍を一分間あたりの脈拍数として、脈拍数の時間変化を算出して取得する。
【0098】
図13に戻り、次に、情動検出部274は、受講者の脈拍数の時間変化に基づいて、受講者の情動を検出する(ステップS502)。情動検出部274は、受講者の情動を示す数値として、脈拍数の変動回数を算出する。
【0099】
図15は、情動の検出方法について説明するための模式図である。
図15のグラフの縦軸は脈拍数bであり、横軸は時間tである。情動検出部274は、検出期間P1の間の脈拍数の時間変化PRの極大値となる点の脈拍数b2と、極大値となる点の所定時間前の脈拍数b1とを抽出する。情動検出部274は、脈拍数b2が一般的な人の平均脈拍数bavよりも大きく、かつ、脈拍数b2と脈拍数b1との差分Δbが所定値以上である場合に、脈拍数が変動したと判定する。情動検出部274は、検出期間P1における脈拍数の極大値となる点のそれぞれについて上述の処理を実行することにより、検出期間P1における脈拍数の変動回数を算出する。
【0100】
図13に戻り、次に、感情検出部275は、受講者の脈波間隔に基づいて、受講者の感情を検出する(ステップS503)。感情検出部275は、検出期間に含まれる脈波間隔d(n)を記憶部21から取得する。感情検出部275は、受講者の感情を示す数値として、次の式で示される最大リアプノフ指数λを算出する。
【数1】
ここで、Mは検出期間に含まれる脈波間隔のデータ数から1を減じた値である。
【0101】
最大リアプノフ指数は、脈波間隔の時間変化が複雑系の揺らぎをどの程度有しているかを示す指数であり、その値が大きいほど複雑系の揺らぎがあり、小さいほど複雑系の揺らぎが小さいことを示す。人の脈波間隔は自律神経の機能により一定程度の複雑系の揺らぎを有しているが、自律神経の機能が低下すると複雑系の揺らぎが失われることが知られている。したがって、最大リアプノフ指数の値が小さくなるほど人の自律神経の機能が低下しており、その人がストレス要因を抱えている、すなわち負の感情を有していると推定される。
【0102】
図13に戻り、次に、検出結果送信部276は、通信部22を介して、感情および情動の検出結果に受講者識別情報を関連付けてコンテンツサーバ3に送信する(ステップS504)。検出結果送信部276は、検出期間における脈拍数の変動回数を情動の検出結果としてコンテンツサーバ3に送信する。また、検出結果送信部276は、最大リアプノフ指数を感情の検出結果としてコンテンツサーバ3に送信する。
【0103】
次に、コンテンツサーバ3の達成情報生成部332は、感情および情動の検出結果に基づいて、受講者が感情誘導コンテンツによって達成すべき目標を達成しているか否かに関する達成情報を生成する(ステップS505)。達成情報生成部は、通信部32を介して、各受講者の通信端末2から感情および情動の検出結果を取得する。達成情報生成部332は、取得した各受講者の検出結果に基づいて、各受講者の達成情報を生成する。
【0104】
達成情報生成部332は、検出期間における脈拍数の変動回数を所定の閾値と比較することにより、情動に関する達成情報を生成する。例えば、検出期間における脈拍数の変動回数が所定の閾値以上である場合に、達成情報生成部332は、受講者が情動に関する目標を達成し、情動がない状態であると判定する。また、検出期間における脈拍数の変動回数が所定の閾値未満である場合に、達成情報生成部332は、受講者が情動に関する目標を達成しておらず、情動がある状態であると判定する。
【0105】
また、達成情報生成部332は、最大リアプノフ指数λを所定の閾値と比較することにより、感情に関する達成情報を生成する。例えば、受講者の感情を示す数値が第1の閾値以上である場合に、達成情報生成部332は、受講者が感情に関する第1の目標を達成し、負の感情から解放されている状態であると判定する。また、受講者の感情を示す数値が第1の閾値未満でありかつ第2の閾値以上である場合に、達成情報生成部332は、受講者が感情に関する第2の目標を達成し、負の感情からやや解放されている状態であると判定する。受講者の感情を示す数値が第2の閾値未満でありかつ第3の閾値以上である場合に、達成情報生成部332は、受講者が感情に関する第3の目標を達成し、負の感情をやや有している状態であると判定する。受講者の感情に関する数値が第3の閾値未満である場合に、達成情報生成部332は、受講者が第1~第3の目標のいずれも達成しておらず、負の感情を有している状態であると判定する。
【0106】
達成情報生成部332は、各受講者について、検出期間と感情および情動に関する達成情報とを関連付けて、記憶部31に記憶する。
【0107】
次に、コンテンツサーバ3のメッセージ生成部333は、達成情報に基づいて、受講者に対するメッセージを含む感情誘導コンテンツを生成する(ステップS506)。メッセージ生成部333は、所定の基準に基づいて複数の受講者のうちからメッセージの対象者となる受講者を選定し、対象者に対するメッセージを含むコンテンツを生成する。所定の基準は、例えば、受講者が感情に関する第1~第3の目標を達成しておらず、かつ情動に関する目標を達成していないことである。この場合、メッセージ生成部333は、指導者アバターTが対象者に対して「○○さん、少し緊張していますね。」と呼びかける動画像を含む感情誘導コンテンツを生成する。
【0108】
所定の基準は、上述した例に限られない。例えば、所定の基準は、受講者が感情に関する第1の目標を達成しており、かつ情動に関する目標を達成していることでもよい。この場合、メッセージ生成部333は、指導者アバターTがメッセージの対象者に対して「○○さん、いい感じです。」と呼びかける動画像を含む感情誘導コンテンツを生成する。また、所定の基準は、達成情報に関するものでなくてもよい。例えば、メッセージ生成部333は、受講者のうちからランダムに対象者を選定してもよい。この場合、メッセージ生成部333は、対象者の達成情報に応じて異なるメッセージを含む感情誘導コンテンツを生成してもよい。
【0109】
メッセージ生成部333は、生成した感情誘導コンテンツを記憶部31に記憶する。記憶部31に記憶されたコンテンツは、次に実行されるコンテンツ出力処理のステップS401において仮想空間サーバ4に送信され、通信端末2に表示される。
【0110】
次に、モーションデータ生成部334は、ステップS505で生成された感情および情動に関する達成情報に基づいて、各受講者のアバターを動作させるためのモーションデータを生成する(ステップS507)。モーションデータ生成部334は、受講者が感情に関する目標を達成したか否かに基づいて異なる姿勢をアバターにとらせ、かつ、受講者が情動に関する目標を達成したか否かに基づいて異なる動きをアバターにさせるモーションデータを生成する。
【0111】
次に、モーションデータ送信部335は、通信部32を介して、生成されたモーションデータに受講者識別情報を関連付けて仮想空間サーバ4に送信する(ステップS508)。
【0112】
次に、仮想空間サーバ4の送信部432は、通信部42を介して、取得したモーションデータを、各受講者の通信端末2に送信する(ステップS509)。
【0113】
次に、通信端末2の仮想空間処理部271は、モーションデータに基づいてアバターの表示を更新する(ステップS510)。仮想空間処理部271は、通信部22を介して、モーションデータを取得する。仮想空間処理部271は、アバターにモーションデータに基づく姿勢をとらせ、モーションデータに基づく動きをさせることにより、アバターの表示を更新する。以上で、検出処理が終了する。
【0114】
このように、モーションデータ生成部334は達成情報に基づいてモーションデータを生成し、モーションデータ送信部335は仮想空間サーバ4を介してモーションデータを通信端末2に送信する。送信されたモーションデータは、仮想空間処理部271がアバターに関連付けて達成情報を表示するために用いられる。すなわち、モーションデータ生成部334およびモーションデータ送信部335は、達成情報を仮想空間において各受講者のアバターに関連付けて表示する達成情報表示手段および達成情報表示部の一例である。
【0115】
図16は、結果出力処理の流れの例を示すシーケンス図である。結果出力処理は、感情判定処理のステップS109で実行される。
【0116】
最初に、コンテンツサーバ3の達成率算出部336は、記憶部31に記憶された各受講者の達成情報に基づいて、各受講者が感動誘導コンテンツにおいて達成すべき目標を達成した程度を示す達成率を算出する(ステップS601)。達成率算出部336は、各受講者の達成情報に基づいて、各受講者について、感情に関する第1の目標が達成され、かつ情動に関する目標が達成された検出期間を抽出する。達成率算出部336は、抽出された期間の長さの総和の、感情誘導トレーニングの開始から終了までの期間の長さに対する比率を達成率として算出する。なお、達成率は、達成情報の一例である。
【0117】
次に、結果コンテンツ生成部337は、達成率および受講者へのメッセージを含む結果コンテンツを生成する(ステップS602)。結果コンテンツ生成部337は、各受講者の順位を、達成率の大きい順となるように決定する。また、結果コンテンツ生成部337は、各受講者の達成率が所定の閾値以上であるか否かに基づいて、各受講者の合否を決定する。結果コンテンツ生成部337は、各受講者の達成率並びに達成率に基づく各受講者の順位および合否を示す達成情報画像を生成する。
【0118】
また、結果コンテンツ生成部337は、達成率に基づいて、メッセージの対象となる受講者を選定する。例えば、結果コンテンツ生成部337は、達成率が最も大きい受講者を対象者として選定する。結果コンテンツ生成部337は、指導者アバターTが対象者に対して「○○さん、大変よくできました。」と呼びかける動画像を生成する。
【0119】
結果コンテンツ生成部337は、達成情報画像および動画像を含む結果コンテンツを生成する。
【0120】
次に、結果コンテンツ出力部送信8は、通信部32を介して、各受講者の目標達成状況を含むコンテンツを仮想空間サーバ4に送信する(ステップS603)。
【0121】
次に、仮想空間サーバ4の送信部432は、通信部42を介して、結果コンテンツを複数の通信端末2に送信する(ステップS604)。
【0122】
次に、通信端末2の仮想空間処理部271は、結果コンテンツを出力する(ステップS605)。仮想空間処理部271は、結果コンテンツの画像を結果表示領域Eに表示するとともに、結果コンテンツの音声を音声出力部24から出力する。
【0123】
次に、コンテンツサーバ3のモーションデータ生成部334は、達成率に基づいて、受講者のアバターを動作させるためのモーションデータを生成する(ステップS606)。モーションデータ生成部334は、メッセージの対象者として選定された、達成率が最も大きい受講者のアバターに所定の動作をさせるためのモーションデータを生成する。
【0124】
次に、モーションデータ送信部335は、通信部32を介して、生成されたモーションデータに、対象者として選定された受講者の受講者識別情報を関連付けて仮想空間サーバ4に送信する(ステップS607)。
【0125】
次に、仮想空間サーバ4の送信部432は、通信部42を介して、取得したモーションデータを、各受講者の通信端末2に送信する(ステップS608)。
【0126】
次に、通信端末2の仮想空間処理部271は、モーションデータに基づいてアバターの表示を更新する(ステップS609)。仮想空間処理部271は、通信部22を介して、モーションデータを取得する。仮想空間処理部271は、メッセージの対象者のアバターにモーションデータに基づく姿勢をとらせることにより、アバターの表示を更新する。
【0127】
次に、通信端末2のメッセージ受付部277は、受講者から他の受講者に対するメッセージを受け付ける(ステップS610)。メッセージ受付部277は、メッセージ送信オブジェクトMを表示部25に表示する。メッセージ受付部277は、メッセージ送信オブジェクトMの送信ボタンが選択されたときにテキストボックスに入力されている文字列をメッセージとして取得する。
【0128】
次に、メッセージ送信部278は、通信部22を介して、他の受講者に対するメッセージに受講者識別情報を関連付けて仮想空間サーバ4に送信する(ステップS611)。
【0129】
次に、仮想空間サーバ4の生成部431は、取得したメッセージを受講者識別情報が示す受講者のアバターに関連付けて表示するための表示データを生成し、通信部42を介して、各受講者の通信端末2に送信する(ステップS612)。
【0130】
次に、通信端末2の仮想空間処理部271は、メッセージの表示データに基づいて他の受講者に対するメッセージを表示することにより出力する(ステップS613)。以上で、結果出力処理が終了する。
【0131】
このように、メッセージ受付部277は文字による受講者のメッセージを取得し、メッセージ送信部278は仮想空間サーバ4を介してメッセージを他の受講者の通信端末2に送信する。すなわち、メッセージ受付部277およびメッセージ送信部278は、受講者のメッセージを取得し、前記取得したメッセージを他の受講者に伝達する伝達手段の一例である。
【0132】
以上説明したように、感情誘導システム1は、感情誘導コンテンツを視聴した受講者の感情を検出し、感情に基づいて達成情報を生成し、達成情報を各受講者のアバターに関連付けて表示する。これにより、感情誘導システム1は、遠隔地にいる複数の受講者が高いモチベーションで感情誘導トレーニングを受講することを可能とする。
【0133】
また、感情誘導システム1は、アバターの動作によって達成情報を表示する。これにより、感情誘導システム1は、受講者が他の受講者の達成情報をより直感的に把握できるようにし、各受講者がより高いモチベーションで感情誘導トレーニングを受講することを可能とする。
【0134】
また、感情誘導システム1は、受講者のメッセージを取得し、取得したメッセージを他の受講者の通信端末に送信することにより他の受講者に伝達する。これにより、感情誘導システム1は、感情誘導トレーニングを契機として受講者の間のコミュニケーションが可能となり、各受講者がより高いモチベーションで感情誘導トレーニングを受講することを可能とする。
【0135】
感情誘導システム1には、次に述べるような変形例が適用されてもよい。
【0136】
上述した説明では、検出処理のステップS501において、生体情報取得部273が脈波間隔および脈拍数の時間変化を受講者の画像に基づいて取得するものとしたが、このような例に限られない。例えば、生体情報取得部273は、受講者の脈拍を計測可能なウェアラブル端末等の他の端末と通信することにより、生体情報を取得してもよい。これにより、通信端末2における画像処理が不要となるため、通信端末2における処理負荷が低減する。また、通信端末2が撮像部23を備える必要がなくなるため、通信端末2として、HMD(Head Mounted Display)やVR(Virtual Reality)ヘッドセット等の端末を用いることができるようになる。
【0137】
上述した説明では、検出処理のステップS506において、メッセージ生成部333が達成情報に基づいて感情誘導コンテンツを生成するものとしたが、このような例に限られない。メッセージ生成部333は、達成率の途中経過に基づいて感情誘導コンテンツを生成してもよい。この場合、メッセージ生成部333は、記憶部31に記憶された達成情報に基づいて、感情に関する第1の目標が達成され、かつ情動に関する目標が達成された検出期間を抽出する。達成率算出部336は、抽出された期間の長さの総和の、感情誘導トレーニングの開始から直近の検出期間の終了までの期間の長さに対する比率を達成率の途中経過として算出する。メッセージ生成部333は、各受講者の達成率の途中経過に基づいてメッセージの対象者を選定し、または各受講者の達成率の途中経過に応じて異なるメッセージを含む感情誘導コンテンツを生成する。
【0138】
上述した説明では、検出処理のステップS510において、仮想空間処理部271は、アバターの動作により達成情報を表示するものとしたが、このような例に限られない。例えば、仮想空間処理部271は、達成情報に応じて異なる色でアバターを表示することにより達成情報を出力してもよい。また、仮想空間処理部271は、アバターに関連付けて達成情報を示す文字列を表示してもよい。このように、仮想空間処理部271は、達成情報を任意の態様でアバターに関連付けて表示してよい。
【0139】
上述した説明では、結果出力処理のステップS601において、達成率算出部336が、感情に関する第1の目標が達成され、かつ情動に関する目標が達成された検出期間を抽出して達成率を算出するものとしたが、このような例に限られない。達成率算出部336は、達成情報に関する任意の条件を満たす検出期間を抽出してよい。例えば、達成率算出部336は、感情に関する第2の目標が達成された検出期間を抽出してもよい。また、達成率算出部336は、達成情報ではなく感情または情動の検出結果に基づいて検出期間を抽出してもよい。例えば、達成率算出部336は、最大リアプノフ指数が、達成情報の生成に用いられた第1~第3の閾値とは異なる第4の閾値以上である検出期間を抽出して達成率を算出してもよい。すなわち、達成率算出部336は、感情または情動の検出結果に基づいて達成率を算出する。
【0140】
上述した説明では、結果出力処理のステップS609において、メッセージ受付部277がテキストボックスに入力された文字列をメッセージとして取得するものとしたが、このような例に限られない。例えば、メッセージ受付部277は、通信端末2が有する音声入力部を制御して、音声入力によりメッセージを取得してもよい。この場合、結果出力処理のステップS612において、仮想空間処理部271は音声入力された音声を音声出力部24から出力してもよい。これにより、受講者の間で音声による円滑なコミュニケーションが可能となり、各受講者がより高いモチベーションで感情誘導トレーニングを受講することが可能となる。
【0141】
上述した説明では、通信端末2が検出期間ごとに感情および情動の検出結果をコンテンツサーバ3に送信するものとしたが、このような例に限られない。通信端末2は、感情誘導コンテンツが終了するまで、感情および情動の検出結果をコンテンツサーバ3に送信しなくてもよい。この場合、検出処理および結果出力処理は、
図13および
図16に示した流れではなく、
図17および
図18に示す流れに従って実行される。
【0142】
図17は、検出処理の流れの他の例を示すシーケンス図である。ステップS701~S703は、
図13のステップS501~S503と同様である。ステップS703の次に、通信端末2の仮想空間処理部271は、
図13のステップS505と同様にして、感情および情動の検出結果に基づいて、受講者の達成情報を生成する(ステップS704)。次に、仮想空間処理部271は、
図13のステップS507と同様にして、達成情報に基づいてモーションデータを生成する(ステップS705)。次に、仮想空間処理部271は、
図13のステップS510と同様にして、モーションデータに基づいてアバターの表示を更新する(ステップS706)。次に、仮想空間処理部271は、通信部22を介して、生成されたモーションデータに受講者識別情報を関連付けて仮想空間サーバ4に送信する(ステップS707)。次に、仮想空間サーバ4の送信部432は、通信部42を介して、取得したモーションデータを、各受講者の通信端末2に送信する(ステップS708)。各受講者の通信端末2は、送信されたモーションデータに基づいて各受講者のアバターの表示を更新する。
【0143】
図18は、結果出力処理の流れの他の例を示すシーケンス図である。最初に、通信端末2の検出結果送信部276は、通信部22を介して、感情誘導コンテンツが終了するまでの間に実行されたステップS704において生成された全ての達成情報をコンテンツサーバ3に送信する(ステップS801)。ステップS802~S814の処理は、
図16のステップS601~ステップS613の処理と同様である。
【0144】
このようにすることで、通信端末2とコンテンツサーバ3との間におけるデータの送受信の回数が減少するため、通信負荷が低減する。
【0145】
上述した説明では、通信端末2の仮想空間処理部271が仮想空間データおよびモーションデータに基づいて仮想空間画像およびアバターを表示するものとしたが、このような例に限られない。仮想空間サーバ4の生成部431が仮想空間画像およびアバターを含む画像を生成し、送信部432がこれらを通信端末2に送信することにより仮想空間画像およびアバターが通信端末2に表示されてもよい。
【0146】
上述した通信端末2、コンテンツサーバ3および仮想空間サーバ4の機能は、複数の装置によって実現されてもよい。また、通信端末2、コンテンツサーバ3および仮想空間サーバ4の機能の一部または全部は、他の装置によって実現されてもよい。
【0147】
当業者は、本発明の範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。例えば、上述した実施形態及び変形例は、本発明の範囲において、適宜に組み合わせて実施されてもよい。
【符号の説明】
【0148】
1 感情誘導システム
2 通信端末
271 仮想空間処理部
273 生体情報取得部
275 感情検出部
277 メッセージ受付部
278 メッセージ送信部
3 コンテンツサーバ
331 コンテンツ送信部
332 達成情報生成部
334 モーションデータ生成部
335 モーションデータ送信部