(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024179530
(43)【公開日】2024-12-26
(54)【発明の名称】情報処理システム、情報処理方法、情報処理プログラム、及び操作端末
(51)【国際特許分類】
G06F 3/01 20060101AFI20241219BHJP
H04L 51/043 20220101ALI20241219BHJP
H04L 51/52 20220101ALI20241219BHJP
G06Q 30/0207 20230101ALI20241219BHJP
G06T 7/20 20170101ALI20241219BHJP
G10L 15/10 20060101ALI20241219BHJP
【FI】
G06F3/01 510
H04L51/043
H04L51/52
G06Q30/0207
G06T7/20 300B
G10L15/10 500N
【審査請求】未請求
【請求項の数】17
【出願形態】OL
(21)【出願番号】P 2023098450
(22)【出願日】2023-06-15
(71)【出願人】
【識別番号】000005049
【氏名又は名称】シャープ株式会社
(74)【代理人】
【識別番号】100167302
【弁理士】
【氏名又は名称】種村 一幸
(74)【代理人】
【識別番号】100135817
【弁理士】
【氏名又は名称】華山 浩伸
(74)【代理人】
【識別番号】100181869
【弁理士】
【氏名又は名称】大久保 雄一
(72)【発明者】
【氏名】名村 智博
【テーマコード(参考)】
5E555
5L030
5L049
5L096
【Fターム(参考)】
5E555AA48
5E555AA61
5E555BA02
5E555BA76
5E555BB02
5E555BC04
5E555BD09
5E555BE17
5E555CA42
5E555CA47
5E555CB64
5E555CB67
5E555CC30
5E555DB18
5E555DB51
5E555DC13
5E555DC19
5E555DC61
5E555DC84
5E555DD02
5E555DD06
5E555EA20
5E555EA22
5E555EA23
5E555FA00
5L030BB07
5L049BB07
5L096AA06
5L096BA08
5L096CA04
5L096DA02
5L096HA09
(57)【要約】
【課題】ユーザーの感情に応じたサポートを実行することが可能な情報処理システム、情報処理方法、情報処理プログラム、及び操作端末を提供する。
【解決手段】情報処理システムは、第1ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて前記第1ユーザーの感情を推定する推定処理部と、前記推定処理部により推定される前記第1ユーザーの感情が所定の感情である場合に、前記第1ユーザー及び前記第1ユーザーとは異なる第2ユーザーの少なくともいずれかに、前記推定処理部により推定される前記感情に応じた会話支援情報を通知する通知処理部と、を備える。
【選択図】
図2
【特許請求の範囲】
【請求項1】
第1ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて前記第1ユーザーの感情を推定する推定処理部と、
前記推定処理部により推定される前記第1ユーザーの感情が所定の感情である場合に、前記第1ユーザー及び前記第1ユーザーとは異なる第2ユーザーの少なくともいずれかに、前記推定処理部により推定される前記感情に応じた会話支援情報を通知する通知処理部と、
を備える情報処理システム。
【請求項2】
前記通知処理部は、前記推定処理部により推定される前記第1ユーザーの感情が第1の感情であって、かつ前記第1の感情の状態が所定時間継続した場合に、前記第2ユーザーに前記会話支援情報を通知する、
請求項1に記載の情報処理システム。
【請求項3】
前記通知処理部は、前記推定処理部により推定される前記第1ユーザーの感情が第2の感情であって、かつ前記推定処理部により前記第2の感情が推定されてから所定時間内に前記第1ユーザー及び前記第2ユーザーが会話を開始する場合に、前記第1ユーザー及び前記第2ユーザーの少なくともいずれかに前記会話支援情報を通知する、
請求項1に記載の情報処理システム。
【請求項4】
仮想空間内の所定位置にユーザーのユーザーアイコンを表示させる表示処理部をさらに備え、
前記表示処理部は、前記仮想空間において、前記推定処理部により推定される前記第1ユーザーの感情を表す感情アイコンを、前記第1ユーザーの第1ユーザーアイコンに関連付けて表示させる、
請求項1に記載の情報処理システム。
【請求項5】
前記通知処理部は、前記第1ユーザーの会話相手を除いたユーザーであって、前記第1ユーザーアイコンから所定範囲内に存在するユーザーアイコンの前記第2ユーザーに前記会話支援情報を通知する、
請求項4に記載の情報処理システム。
【請求項6】
前記通知処理部は、前記第1ユーザーとの会話を開始するか否かを問い合わせる前記会話支援情報を前記第2ユーザーに通知する、
請求項4に記載の情報処理システム。
【請求項7】
前記会話支援情報に対して前記第2ユーザーが前記第1ユーザーとの会話を開始する旨の回答を行った場合に、前記表示処理部は、前記仮想空間において、前記第2ユーザーの第2ユーザーアイコンを、前記第1ユーザーと会話可能な位置に移動させる、
請求項6に記載の情報処理システム。
【請求項8】
前記会話支援情報に対して前記第2ユーザーが前記第1ユーザーとの会話を開始しない旨の回答を行った場合に、前記表示処理部は、前記仮想空間において、前記第2ユーザーの第2ユーザーアイコンを移動させず、前記第1ユーザーアイコンから所定範囲内の位置に留める、
請求項6に記載の情報処理システム。
【請求項9】
前記通知処理部は、前記第1ユーザーが前記第2ユーザーに対して会話の開始を要求する場合に、前記第1ユーザーの現在の感情を示す情報を含む前記会話支援情報を前記第1ユーザーに通知する、
請求項4に記載の情報処理システム。
【請求項10】
前記会話支援情報に対して前記第1ユーザーが前記第2ユーザーとの会話を開始する旨の回答を行った場合に、前記第1ユーザー及び前記第2ユーザーを会話可能にする、
請求項9に記載の情報処理システム。
【請求項11】
前記会話支援情報に対して前記第1ユーザーが前記第2ユーザーとの会話を開始しない旨の回答を行った場合に、前記表示処理部は、前記仮想空間において、前記第1ユーザーアイコンを、前記第1ユーザーと前記第2ユーザーとが会話不可能な位置に移動させる、
請求項9に記載の情報処理システム。
【請求項12】
前記表示処理部は、前記第1ユーザーの会話が終了した場合に、会話終了時点の前記第1ユーザーの感情を表す前記感情アイコンを、会話終了時点から所定時間継続して表示させる、
請求項4に記載の情報処理システム。
【請求項13】
前記表示処理部は、会話終了時点から所定時間経過した場合に、前記感情アイコンを平常状態の感情アイコンに変更する、
請求項12に記載の情報処理システム。
【請求項14】
前記所定の感情は、哀しみ又は怒りを表す感情である、
請求項1~13のいずれかに記載の情報処理システム。
【請求項15】
第1ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて前記第1ユーザーの感情を推定することと、
推定される前記第1ユーザーの感情が所定の感情である場合に、前記第1ユーザー及び前記第1ユーザーとは異なる第2ユーザーの少なくともいずれかに、推定される前記感情に応じた会話支援情報を通知することと、
を一又は複数のプロセッサーが実行する情報処理方法。
【請求項16】
第1ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて前記第1ユーザーの感情を推定することと、
推定される前記第1ユーザーの感情が所定の感情である場合に、前記第1ユーザー及び前記第1ユーザーとは異なる第2ユーザーの少なくともいずれかに、推定される前記感情に応じた会話支援情報を通知することと、
を一又は複数のプロセッサーに実行させるための情報処理プログラム。
【請求項17】
第1ユーザーの操作端末と通信可能であり、会話用画面を表示可能な第2ユーザーの操作端末であって、
前記第1ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて推定される前記第1ユーザーの感情が所定の感情である場合に、前記第1ユーザーの感情に応じた会話支援情報を前記会話用画面に表示させる操作端末。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、仮想空間を利用してコミュニケーションを行う技術に関する。
【背景技術】
【0002】
従来、仮想空間において複数のユーザーが会話を行うことが可能なシステムが知られている。例えば、ユーザーの感情を認識し、認識した感情情報を仮想空間上に表示するシステムが知られている(例えば特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
従来の技術では、仮想空間上においてユーザーの感情を表示させることは可能であるが、当該ユーザーに対して感情に応じたサポートを行うことは困難である。
【0005】
本開示の目的は、ユーザーの感情に応じたサポートを実行することが可能な情報処理システム、情報処理方法、情報処理プログラム、及び操作端末を提供することにある。
【課題を解決するための手段】
【0006】
本開示の一の態様に係る情報処理システムは、推定処理部と通知処理部とを備える。前記推定処理部は、第1ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて前記第1ユーザーの感情を推定する。前記通知処理部は、前記推定処理部により推定される前記第1ユーザーの感情が所定の感情である場合に、前記第1ユーザー及び前記第1ユーザーとは異なる第2ユーザーの少なくともいずれかに、前記推定処理部により推定される前記感情に応じた会話支援情報を通知する。
【0007】
本開示の他の態様に係る情報処理方法は、第1ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて前記第1ユーザーの感情を推定することと、推定される前記第1ユーザーの感情が所定の感情である場合に、前記第1ユーザー及び前記第1ユーザーとは異なる第2ユーザーの少なくともいずれかに、推定される前記感情に応じた会話支援情報を通知することと、を一又は複数のプロセッサーが実行する方法である。
【0008】
本開示の他の態様に係る情報処理プログラムは、第1ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて前記第1ユーザーの感情を推定することと、推定される前記第1ユーザーの感情が所定の感情である場合に、前記第1ユーザー及び前記第1ユーザーとは異なる第2ユーザーの少なくともいずれかに、推定される前記感情に応じた会話支援情報を通知することと、を一又は複数のプロセッサーに実行させるためのプログラムである。
【0009】
本開示の他の態様に係る操作端末は、第1ユーザーの操作端末と通信可能であり、会話用画面を表示可能な第2ユーザーの操作端末である。前記操作端末は、前記第1ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて推定される前記第1ユーザーの感情が所定の感情である場合に、前記第1ユーザーの感情に応じた会話支援情報を前記会話用画面に表示させる。
【発明の効果】
【0010】
本開示によれば、ユーザーの感情に応じたサポートを実行することが可能な情報処理システム、情報処理方法、情報処理プログラム、及び操作端末を提供することができる。
【図面の簡単な説明】
【0011】
【
図1】
図1は、本開示の実施形態に係る会話システムの概略構成を示す模式図である。
【
図2】
図2は、本開示の実施形態に係る会話システムの構成を示す機能ブロック図である。
【
図3】
図3は、本開示の実施形態に係るユーザー情報管理テーブルの一例を示す図である。
【
図4】
図4は、本開示の実施形態に係るグループ情報管理テーブルの一例を示す図である。
【
図5】
図5は、本開示の実施形態に係る音声制御情報管理テーブルの一例を示す図である。
【
図6】
図6は、本開示の実施形態に係る感情テーブルの一例を示す図である。
【
図7】
図7は、本開示の実施形態に係るユーザー端末に表示される会話用画面(仮想ルーム)の一例を示す図である。
【
図8A】
図8Aは、本開示の実施形態(実施例1)に係るユーザー端末に表示される会話用画面(仮想ルーム)の一例を示す図である。
【
図8B】
図8Bは、本開示の実施形態(実施例1)に係る会話領域及び通知領域の一例を示す図である。
【
図9】
図9は、本開示の実施形態(実施例1)に係るユーザー端末に表示される会話用画面(仮想ルーム)の一例を示す図である。
【
図10A】
図10Aは、本開示の実施形態(実施例1)に係るユーザー端末に表示される会話用画面(仮想ルーム)の一例を示す図である。
【
図10B】
図10Bは、本開示の実施形態(実施例1)に係る会話領域及び通知領域の一例を示す図である。
【
図11A】
図11Aは、本開示の実施形態(実施例2)に係るユーザー端末に表示される会話用画面(仮想ルーム)の一例を示す図である。
【
図11B】
図11Bは、本開示の実施形態(実施例2)に係る会話領域及び通知領域の一例を示す図である。
【
図12】
図12は、本開示の実施形態(実施例2)に係るユーザー端末に表示される会話用画面(仮想ルーム)の一例を示す図である。
【
図13A】
図13Aは、本開示の実施形態(実施例2)に係るユーザー端末に表示される会話用画面(仮想ルーム)の一例を示す図である。
【
図13B】
図13Bは、本開示の実施形態(実施例2)に係る会話領域及び通知領域の一例を示す図である。
【
図14】
図14は、本開示の実施形態(実施例2)に係るユーザー端末に表示される会話用画面(仮想ルーム)の一例を示す図である。
【
図15A】
図15Aは、本開示の実施形態に係るユーザー端末に表示される会話用画面(仮想ルーム)の一例を示す図である。
【
図15B】
図15Bは、本開示の実施形態(実施例3)に係る会話領域及び通知領域の一例を示す図である。
【
図16】
図16は、本開示の実施形態(実施例3)に係るユーザー端末に表示される会話用画面(仮想ルーム)の一例を示す図である。
【
図17A】
図17Aは、本開示の実施形態(実施例4)に係るユーザー端末に表示される会話用画面(仮想ルーム)の一例を示す図である。
【
図17B】
図17Bは、本開示の実施形態(実施例4)に係る会話領域及び通知領域の一例を示す図である。
【
図18】
図18は、本開示の実施形態(実施例1)に係る会話システムで実行される会話制御処理の手順の一例を説明するためのフローチャートである。
【
図19】
図19は、本開示の実施形態(実施例1)に係る会話システムで実行される会話制御処理の手順の一例を説明するためのフローチャートである。
【
図20】
図20は、本開示の実施形態に係る会話システムで実行される会話制御処理の手順の一例を説明するためのフローチャートである。
【
図21】
図21は、本開示の実施形態(実施例2)に係る会話システムで実行される会話制御処理の手順の一例を説明するためのフローチャートである。
【
図22】
図22は、本開示の実施形態(実施例3,4)に係る会話システムで実行される会話制御処理の手順の一例を説明するためのフローチャートである。
【発明を実施するための形態】
【0012】
以下、添付図面を参照しながら、本開示の実施形態について説明する。なお、以下の実施形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。
【0013】
本開示に係る情報処理システムは、仮想空間(仮想ルーム)においてユーザーアイコン同士を近付けることにより、各ユーザーアイコンのユーザー同士で会話を行うことが可能なシステムである。本開示に係る情報処理システムの一例として、以下の実施形態では、会話システムを例に挙げて説明する。なお、以下の実施形態に係る会話システムは、本開示の情報処理システムの一例である。
【0014】
前記会話システムは、例えば複数のユーザーがそれぞれ異なる場所(オフィスの会議室、自宅など)にいながら、情報処理装置(パーソナルコンピュータ(ノートパソコン、デスクトップパソコンなど)、モバイル端末(スマートフォンなどの携帯端末など))のユーザー端末を利用して仮想ルーム内で会話を行うWebミーティング(オンラインミーティング)などに適用することができる。また、前記会話システムは、前記オンラインミーティングを実行するための汎用ソフトウェアである会話アプリケーションによりオンラインミーティングサービスを提供する会話サーバーと、前記オンラインミーティングを管理する管理サービスを提供する管理サーバーとを備える。
【0015】
[会話システム100]
図1は、本開示の実施形態1に係る会話システム100の概略構成を示す模式図である。会話システム100は、管理サーバー1と、会話サーバー2と、ユーザー端末3とを含んでいる。会話システム100は、複数のユーザーが参加するオンラインミーティングを支援するシステムである。会話システム100は、本開示の情報処理システムの一例である。ユーザー端末3は、本開示の操作端末の一例である。
【0016】
図1には、ユーザーAの拠点Ra、ユーザーBの拠点Rb、ユーザーCの拠点Rc、及びユーザーDの拠点Rdを示している。
図1では、ユーザーA~Dのそれぞれが異なる拠点(会議室、自宅など)でオンラインミーティングに参加する例を示している。各拠点には、各ユーザーが所持する1台のユーザー端末3が配置されている。
【0017】
会話システム100は、各ユーザー端末3にインストールされた会話アプリケーションを実行することにより、複数のユーザーが遠隔地においてオンラインミーティングを行うことが可能になる。前記会話アプリケーションは汎用ソフトウェアであり、同一のミーティングに参加する複数のユーザーは共通の前記会話アプリケーションを選択する。
【0018】
例えば、ユーザーA,B,C,Dのそれぞれは、自身のユーザー端末3a,3b,3c,3dにおいて、前記会話アプリケーションを起動させる。
図1に示す例では、各ユーザー端末3はパーソナルコンピュータ(例えばノートパソコン)であるが、ユーザー端末3はモバイル端末(例えばスマートフォン)であってもよい。
【0019】
なお、会話システム100は、各拠点に、ユーザー端末3に接続可能なマイクスピーカー装置及びカメラなどが接続されており、音声及びカメラ映像を双方向通信可能に構成されている。マイクスピーカー装置及びカメラは、ユーザー端末3に内蔵されてもよい。
【0020】
管理サーバー1及び会話サーバー2のそれぞれは、例えば1台又は複数台のサーバー装置(例えばクラウドサーバー)で構築される。管理サーバー1及び会話サーバー2が一体のサーバー装置であってもよい。
【0021】
管理サーバー1、会話サーバー2、及びユーザー端末3は、ネットワークN1を介して互いに接続されている。ネットワークN1は、インターネット、LAN、WAN、又は公衆電話回線などの通信網である。
【0022】
[会話サーバー2]
図2に示すように、会話サーバー2は、制御部21、記憶部22、操作表示部23、通信部24などを備える。会話サーバー2は、1台又は複数台の仮想サーバー(クラウドサーバー)であってもよいし、1台又は複数台の物理サーバーであってもよい。
【0023】
通信部24は、会話サーバー2を有線又は無線でネットワークN1に接続し、ネットワークN1を介して他の機器(例えば管理サーバー1、ユーザー端末3など)との間で所定の通信プロトコルに従ったデータ通信を実行するための通信部である。
【0024】
操作表示部23は、各種の情報を表示する液晶ディスプレイ又は有機ELディスプレイのような表示部と、操作を受け付けるマウス、キーボード、又はタッチパネルなどの操作部とを備えるユーザインターフェースである。
【0025】
記憶部22は、各種の情報を記憶するHDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリーなどの不揮発性の記憶部である。記憶部22には、制御部21に各種処理を実行させるための制御プログラムが記憶されている。例えば、前記制御プログラムは、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録され、会話サーバー2が備えるCDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部22に記憶される。なお、前記制御プログラムは、クラウドサーバーから配信されて記憶部22に記憶されてもよい。
【0026】
例えば、記憶部22には、オンラインミーティングサービスを実行させるためのオンラインミーティングプログラムが記憶されている。前記オンラインミーティングプログラムは、ユーザー端末3にインストールされた会話アプリケーションの実行に応じて前記オンラインミーティングを実行させる。本実施形態の会話サーバー2は、汎用ソフトウェアの一つである会話アプリケーションのオンラインミーティングサービスを提供するものとする。
【0027】
また、記憶部22には、会話アプリケーションを利用可能なユーザーに関するユーザー情報(ユーザーID、パスワードなど)が記憶されている。
【0028】
制御部21は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるためのBIOS及びOSなどの制御プログラムを予め記憶する。前記RAMは、各種の情報を記憶し、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部21は、前記ROM又は記憶部22に予め記憶された各種の制御プログラムを前記CPUで実行することにより会話サーバー2を制御する。
【0029】
具体的に、制御部21は、音声処理部211などの各種の処理部を含む。なお、制御部21は、前記制御プログラムに従った各種の処理を実行することによって前記各種の処理部として機能する。また、制御部21に含まれる一部又は全部の処理部が電子回路で構成されていてもよい。なお、前記制御プログラムは、複数のプロセッサーを前記各種の処理部として機能させるためのプログラムであってもよい。
【0030】
音声処理部211は、複数のユーザー端末3のそれぞれにおいて会話アプリケーションを実行させてオンラインミーティングを行う。具体的には、音声処理部211は、ユーザー端末3から取得するログイン情報に基づいて、オンラインミーティングを開始する。例えば、ユーザーAがユーザー端末3aにおいて会話アプリケーションを起動させてログイン操作を行うと、ユーザー端末3aは、ユーザーID及びパスワードを含むログイン情報を会話サーバー2に送信する。音声処理部211は、ユーザー端末3aから前記ログイン情報を取得してユーザーAを認証すると、前記オンラインミーティングを開始する。
【0031】
また例えば、ユーザーAがユーザー端末3aにおいて前記会話アプリケーションを終了させる(前記オンラインミーティングを終了させる)と、ユーザー端末3aは終了要求を会話サーバー2に送信する。音声処理部211は、ユーザー端末3aから前記終了要求を取得すると、前記オンラインミーティングを終了(ログオフ)する。
【0032】
前記オンラインミーティングに参加を希望する各ユーザーA,B,C,Dのそれぞれは、自身のユーザー端末3a,3b,3c,3dにおいて、前記会話アプリケーションにログインする操作を行う。前記会話アプリケーションにログイン及び認証されたユーザーは、前記会話アプリケーションで設定される仮想ルーム(バーチャルミーティングルーム)において、自身のユーザーアイコンを操作して他のユーザーと会話を行うことが可能になる。例えば、音声処理部211は、仮想ルームにおいて複数のユーザーアイコン同士の距離が所定距離未満になった場合に、当該複数のユーザーアイコンに対応する複数のユーザー端末3間において音声の送受信を開始することにより、複数のユーザー間の会話を可能にする。
【0033】
[ユーザー端末3]
図2に示すように、ユーザー端末3は、制御部31、記憶部32、操作表示部33、通信部34などを備える。ユーザー端末3は、例えばパーソナルコンピュータ(ノートパソコン、デスクトップパソコンなど)、モバイル端末(スマートフォンなど)のような情報通信端末である。各ユーザー端末3は同一の構成を備えてもよい。
【0034】
通信部34は、ユーザー端末3を有線又は無線でネットワークN1に接続し、ネットワークN1を介して他の機器(例えば管理サーバー1、会話サーバー2)との間で所定の通信プロトコルに従ったデータ通信を実行するための通信部である。
【0035】
操作表示部33は、各種の情報を表示する液晶ディスプレイ又は有機ELディスプレイのような表示部と、操作を受け付けるマウス、キーボード、又はタッチパネルなどの操作部とを備えるユーザインターフェースである。操作表示部33は、ユーザーの操作を受け付ける。
【0036】
記憶部32は、各種の情報を記憶するHDD、SSD、又はフラッシュメモリーなどの不揮発性の記憶部である。記憶部32には、制御部31に後述の会話制御処理を実行させるための会話制御プログラムなどの制御プログラムが記憶されている。例えば、前記会話制御プログラムは、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録され、ユーザー端末3が備えるCDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部32に記憶される。なお、前記会話制御プログラムは、クラウドサーバーから配信されて記憶部32に記憶されてもよい。
【0037】
また記憶部32には、オンラインミーティングサービスを提供するための一又は複数の会話アプリケーションがインストールされている。
【0038】
制御部31は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるためのBIOS及びOSなどの制御プログラムを予め記憶する。前記RAMは、各種の情報を記憶し、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部31は、前記ROM又は記憶部32に予め記憶された各種の制御プログラムを前記CPUで実行することによりユーザー端末3を制御する。また、制御部31は、前記会話アプリケーションを実行する処理部として機能する。
【0039】
具体的に、制御部31は、音声処理部311、表示処理部312、受付処理部313などの各種の処理部を含む。なお、制御部31は、前記CPUで前記制御プログラムに従った各種の処理を実行することによって前記各種の処理部として機能する。また、制御部31に含まれる一部又は全部の処理部が電子回路で構成されていてもよい。なお、前記制御プログラムは、複数のプロセッサーを前記各種の処理部として機能させるためのプログラムであってもよい。
【0040】
音声処理部311は、会話アプリケーションに従った前記オンラインミーティングに関する各種の処理を実行する。具体的には、音声処理部311は、ユーザーによる会話アプリケーションを起動させる操作(ログイン操作)を受け付けると、開始要求を会話サーバー2に送信する。会話サーバー2が前記開始要求に対して認証すると、音声処理部311は、ユーザー端末3において会話用画面を表示させて前記オンラインミーティングを開始する。
図7には、会話アプリケーション(オンラインミーティングサービス)に対応する前記会話用画面の一例を示している。
【0041】
表示処理部312は、
図7に示すように、前記会話用画面において仮想ルームを表示させる。また、表示処理部312は、仮想ルームにおいてユーザーを識別可能なユーザーアイコンを表示させる。前記ユーザーアイコンには、ユーザー名、ユーザーの写真、イラストなどの顔画像などが含まれる。また、表示処理部312は、仮想ルームにおいて、ユーザーの感情を表す感情アイコンを、ユーザーアイコンに関連付けて表示させる。ユーザーの感情は、管理サーバー1の推定処理(後述)によって推定される。表示処理部312は、ユーザー端末3におけるマイク及びスピーカーの設定状態を示す情報(マイクアイコン、スピーカーアイコンなど)をユーザーアイコン上に表示させてもよい。
図7に示す例では、ユーザーA,B,C,Dが前記会話アプリケーションにログインした状態を示している。
図7に示す会話用画面は、各ユーザーのユーザー端末3に表示される。
図8Aに示す例では、ユーザーAのユーザーアイコンとユーザーBのユーザーアイコンとの間の距離が所定距離未満であり、ユーザーA及びユーザーBが会話可能な状態を示している。
【0042】
表示処理部312は、管理サーバー1の指示(位置情報)に応じて、前記会話用画面に各ユーザーアイコンを表示させる。各ユーザー端末3の表示処理部312は、管理サーバー1から取得する表示指示に従って表示処理を実行する。
【0043】
ユーザーA~Dのそれぞれは、自身のユーザー端末3a~3dにおいて、会話用画面を閲覧することができる。
【0044】
受付処理部313は、ユーザーから各種操作を受け付ける。例えば、ユーザー端末3aの受付処理部313は、操作表示部33に表示される会話用画面(
図7参照)において、ユーザーAから自身のユーザーアイコンの移動操作を受け付ける。受付処理部313は、受け付けたユーザー操作の情報を管理サーバー1に出力する。
【0045】
受付処理部313がユーザーアイコンの移動操作を受け付けると、表示処理部312は、管理サーバー1から取得する位置情報に基づいて、前記会話用画面において前記ユーザーアイコンの位置を移動して表示させる(
図8A参照)。ユーザーは、前記会話用画面において、自身のユーザーアイコンをドラッグアンドドロップ操作などにより所望の位置に移動させることができる。
【0046】
また、音声処理部311は、隣り合う2つのユーザーアイコンの間の距離が所定距離未満である場合に、会話サーバー2を介して会話音声を送受信する。例えば、ユーザーAが自身のユーザーアイコンをユーザーBのユーザーアイコンの位置を中心とした所定の会話領域P1(
図8B参照)内に移動させた場合、ユーザーAのユーザー端末3aの音声処理部311は、ユーザーAの発話音声をマイクを通じて取得すると会話サーバー2に送信し、会話サーバー2はユーザーAの発話音声をユーザーBのユーザー端末3bに送信する。ユーザー端末3bの音声処理部311は、ユーザーAの発話音声を受信するとスピーカーから出力する。また、ユーザーBのユーザー端末3bの音声処理部311は、ユーザーBの発話音声をマイクを通じて取得すると会話サーバー2に送信し、会話サーバー2はユーザーBの発話音声をユーザーAのユーザー端末3aに送信する。ユーザー端末3aの音声処理部311は、ユーザーBの発話音声を受信するとスピーカーから出力する。このようにして、ユーザーA及びユーザーBは会話(オンラインミーティング)が可能となる。
図8Aに示す状態では、ユーザーA及びユーザーBが互いに会話可能となっている。
【0047】
また、音声処理部311は、ユーザーによる会話アプリケーションを終了させる操作(終了操作)を受け付けると、終了要求を会話サーバー2に送信する。会話サーバー2が前記終了要求に対して認証すると、音声処理部311は、ユーザー端末3において前記オンラインミーティングを終了する。
【0048】
前記オンラインミーティングに参加するユーザーのそれぞれは、自身のユーザー端末3において会話アプリケーションを起動させて前記オンラインミーティングを開始する。また、各ユーザーは、自身のユーザー端末3において会話アプリケーションを終了させて前記オンラインミーティングを終了する。
【0049】
[管理サーバー1]
図2に示すように、管理サーバー1は、制御部11、記憶部12、操作表示部13、通信部14などを備える。管理サーバー1は、1台又は複数台の仮想サーバー(クラウドサーバー)であってもよいし、1台又は複数台の物理サーバーであってもよい。
【0050】
通信部14は、管理サーバー1を有線又は無線でネットワークN1に接続し、ネットワークN1を介して他の機器(例えば会話サーバー2、ユーザー端末3など)との間で所定の通信プロトコルに従ったデータ通信を実行するための通信部である。
【0051】
操作表示部13は、各種の情報を表示する液晶ディスプレイ又は有機ELディスプレイのような表示部と、操作を受け付けるマウス、キーボード、又はタッチパネルなどの操作部とを備えるユーザインターフェースである。
【0052】
記憶部12は、各種の情報を記憶するHDD、SSD、又はフラッシュメモリーなどの不揮発性の記憶部である。記憶部12には、制御部11に後述の会話制御処理を実行させるための会話制御プログラムなどの制御プログラムが記憶されている。例えば、前記会話制御プログラムは、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録され、管理サーバー1が備えるCDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部12に記憶される。なお、前記会話制御プログラムは、クラウドサーバーから配信されて記憶部12に記憶されてもよい。
【0053】
また、記憶部12には、各種情報を含む管理テーブルが記憶されている。具体的には、記憶部12には、前記会話アプリケーションにログインしたユーザーの情報を管理するユーザー情報管理テーブルT1(
図3参照)、会話グループの情報を管理するグループ情報管理テーブルT2(
図4参照)、前記会話アプリケーションにログインした各ユーザーの音声の制御情報を管理する音声制御情報管理テーブルT3(
図5参照)、ユーザーの感情を識別可能な感情アイコンを管理する感情テーブルT4(
図6参照)などのデータが記憶されている。
【0054】
図3に示すように、ユーザー情報管理テーブルT1には、前記会話アプリケーションにログイン中のユーザーのユーザー名、ユーザーID、ユーザーアイコン位置、マイク設定、スピーカー設定、感情ステータスなどの情報が登録される。前記ユーザー名及び前記ユーザーIDは、会話アプリケーションのログイン情報として利用される。前記ユーザーアイコン位置は、仮想ルームにおけるユーザーアイコンの位置を示す情報である。例えば、ユーザーAが会話アプリケーションにログインすると、ユーザー端末3aに会話用画面が表示され、前記会話用画面において、ユーザーAのユーザーアイコンが表示される(
図7等参照)。また、前記会話用画面には、ログイン済みの複数のユーザーのそれぞれのユーザーアイコンが表示される。
図7には、各ユーザーのユーザー端末3の会話用画面を示しており、ここでは、ユーザーA~Dのそれぞれのユーザーアイコンが表示されている。制御部11は、前記会話用画面(仮想ルーム)におけるユーザーアイコンの位置を取得してユーザー情報管理テーブルT1に登録する。
【0055】
前記マイク設定及び前記スピーカー設定は、ユーザー端末3におけるマイク及びスピーカーの設定状態を示す情報である。例えば、ユーザーがマイク及びスピーカーをON状態に設定すると、ユーザー情報管理テーブルT1の前記マイク設定及び前記スピーカー設定に「ON」が登録される。また例えば、ユーザーがマイク及びスピーカーをOFF状態(ミュート)に設定すると、ユーザー情報管理テーブルT1の前記マイク設定及び前記スピーカー設定に「OFF」が登録される。
【0056】
前記感情ステータスは、ユーザーの現在の感情を示す情報である。制御部11は、周知の技術によりユーザーの感情をリアルタイムで推定し、推定結果を前記感情ステータスに登録及び更新する。例えば、制御部11は、ユーザーの発話音声及び顔画像を用いて周知の感情認識AI(学習済みモデル)により、「平常」、「怒り」、「喜び」、「哀しみ」、「楽しみ」、「驚き」、「嫌悪」、「恐れ」などの感情を推定する。
図3に示す例では、ユーザーAの現在の感情が「怒り」の状態であり、ユーザーBの現在の感情が「哀しみ」の状態であり、ユーザーC及びユーザーDの現在の感情が「平常」の状態であることを示している。
【0057】
図4に示すように、グループ情報管理テーブルT2には、会話グループに関するグループID、仮想ルームに関するルームID、ユーザーIDなどの情報が含まれる。制御部11は、前記会話アプリケーションにログインした複数のユーザーのうち特定の複数のユーザーを含む会話グループを設定する。前記グループIDは、前記会話グループの識別情報である。前記ルームIDは、仮想ルームの識別情報である。前記ユーザーIDは、前記会話グループに含まれる複数のユーザーのそれぞれの識別情報である。例えば、グループIDが「g001」の会話グループには、ルームR1に対応するルームID「r001」と、ユーザーA~DのユーザーIDとが対応付けられている。グループID「g001」の会話グループは、
図7に示す例(ルームR1)に対応している。
【0058】
図5に示すように、音声制御情報管理テーブルT3には、ユーザーID、各ユーザーの音声制御情報が含まれる。制御部11は、前記会話グループの設定情報に基づいて、各ユーザーの音声制御情報を登録する。
図5の音声制御情報管理テーブルT3は、グループIDが「g001」の会話グループ(
図7参照)に対応する音声制御情報の一例を示している。具体的には、ユーザーA~DがルームR1にログインして会話グループが設定された場合、制御部11は、ユーザーA~Dの各ユーザーアイコンの位置に基づいて音声制御情報を登録する。
図5に示す例では、
図8に示すユーザーアイコンの位置に対応する音声制御情報を示している。具体的には、ユーザーA及びユーザーBの各ユーザーアイコンの距離が所定距離未満(会話領域P1内)である場合に、制御部11は、ユーザーA(ユーザー端末3a)(ユーザーID「a001」)に対して、ユーザーBの発話音声の出力を許可(「〇」を登録)し、ユーザーB(ユーザー端末3b)(ユーザーID「b002」)に対して、ユーザーAの発話音声の出力を許可(「〇」を登録)する。これにより、ユーザーA及びユーザーBは、前記会話グループ(ルームR1)内において互いの発話音声を聞き取ることが可能になる。
【0059】
一方、ユーザーC及びユーザーDそれぞれのユーザーアイコンは、他のユーザーのユーザーアイコンから所定距離以上離れており会話領域P1外のため、ユーザーC及びユーザーDのそれぞれは、他のユーザーの発話音声を聞き取ることができない状態となる。
【0060】
図6に示すように、感情テーブルT4には、感情種別、感情アイコンの情報が含まれる。感情種別には、「平常」、「怒り」、「喜び」、「哀しみ」、「楽しみ」、「驚き」、「嫌悪」、「恐れ」など周知の感情が含まれる。
図6では一例として「平常」、「怒り」、「哀しみ」を示している。感情アイコンは、ユーザー端末3の表示画面(会話用画面)においてユーザーが感情を把握することが可能な画像である。制御部11は、会話アプリケーションで利用可能な感情種別及び感情アイコンを予め感情テーブルT4に登録する。他の実施形態として、感情アイコンに代えて、感情を表す文字(例えば、「平」、「怒」、「哀」などのテキスト文字)が感情テーブルT4に登録されてもよい。この場合、前記会話用画面において、感情を表す文字がユーザーアイコンに関連付けて表示されてもよい。
【0061】
ユーザー情報管理テーブルT1、グループ情報管理テーブルT2、音声制御情報管理テーブルT3、及び感情テーブルT4の一部又は全部が、他のサーバー(データサーバー)に記憶されてもよい。
【0062】
制御部11は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の処理を実行させるためのBIOS及びOSなどの制御プログラムを予め記憶する。前記RAMは、各種の情報を記憶し、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部11は、前記ROM又は記憶部12に予め記憶された各種の制御プログラムを前記CPUで実行することにより管理サーバー1を制御する。
【0063】
具体的に、制御部11は、表示処理部111、推定処理部112、受付処理部113、通知処理部114などの各種の処理部を含む。なお、制御部11は、前記会話制御プログラムに従った各種の処理を実行することによって前記各種の処理部として機能する。また、制御部11に含まれる一部又は全部の処理部が電子回路で構成されていてもよい。なお、前記会話制御プログラムは、複数のプロセッサーを前記各種の処理部として機能させるためのプログラムであってもよい。
【0064】
制御部11は、ユーザーのログイン操作に基づいて、認証されたユーザーに関するユーザー情報(ユーザー登録情報)を取得し、当該ユーザー情報をユーザー情報管理テーブルT1(
図3参照)に登録する。
【0065】
表示処理部111は、会話用画面(仮想ルーム)の所定位置にユーザーアイコンを表示させる。例えば、ユーザーA~Dがログインすると、表示処理部111は、予め設定された位置(初期位置)、又は、前回ログオフした時点におけるユーザーアイコンの位置に、ユーザーアイコンを表示させる(
図7参照)。
【0066】
推定処理部112は、ユーザーの感情を推定する。具体的には、推定処理部112は、ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて当該ユーザーの感情を推定する。例えば、推定処理部112は、周知の感情認識AIの推定モデルにユーザーの発話音声及び顔画像のデータを入力して、当該ユーザーの感情をリアルタイムに推定する。推定処理部112は、推定結果をユーザー情報管理テーブルT1(
図3参照)の感情ステータスに登録する。
【0067】
表示処理部111は、会話用画面において、推定処理部112により推定されるユーザーの感情を表す感情アイコンを、当該ユーザーのユーザーアイコンに関連付けて表示させる。例えば
図7に示すように、推定処理部112がユーザーA~Dの感情をそれぞれ「平常」と推定した場合に、表示処理部111は、「平常」を示す感情アイコン(
図6参照)を、ユーザーA~Dのそれぞれのユーザーアイコンに関連付けて表示させる。なお、表示処理部111は、ユーザーアイコンの顔領域に感情アイコンを重畳して表示させてもよい。
【0068】
受付処理部113は、会話用画面(仮想ルーム)におけるユーザーアイコンの移動操作をユーザーから受け付ける。例えば
図8Aに示すユーザー端末3aの会話用画面において、ユーザーAが自身のユーザーアイコンを移動させる操作(ドラッグアンドドロップ操作)を行うと、受付処理部113は、ユーザー端末3aから前記移動操作を受け付ける。受付処理部113は、前記移動操作受け付けると、移動後のユーザーアイコンの位置を示す位置情報をユーザー情報管理テーブルT1(
図3参照)に登録(更新)する。
【0069】
制御部11は、仮想ルームにおいて複数のユーザーを含む会話グループを設定する。例えば、ユーザーA~Dが特定の仮想ルーム(ルームR1)にログインすると、制御部11は、ユーザーA~Dを含む会話グループを設定してグループ情報管理テーブルT2(
図4参照)に登録する。また、制御部11は、前記会話グループの各ユーザーの音声の送受信を制御する。具体的には、制御部11は、前記会話グループ内の各ユーザーアイコンの位置関係に基づいて、会話可能なユーザーと会話不可能なユーザーとを判定して、各ユーザーの音声の送受信を制御する音声制御情報を音声制御情報管理テーブルT3(
図5参照)に登録する。
【0070】
例えば、ユーザーAの前記移動操作に応じてユーザーA及びユーザーBのそれぞれのユーザーアイコンが会話領域P1内(
図8B参照)に含まれると、ユーザーA及びユーザーB同士がユーザー端末3a,3bにより会話を行うことが可能になる。
【0071】
通知処理部114は、推定処理部112により推定される感情に応じた会話支援情報(サポート情報)を通知する。具体的には、通知処理部114は、推定処理部112により推定される第1ユーザーの感情が所定の感情である場合に、第1ユーザー及び第2ユーザーの少なくともいずれかに、推定処理部112により推定される感情に応じた会話支援情報を通知する。以下、会話支援情報を通知する処理の具体例(実施例1~4)を説明する。
【0072】
[実施例1]
実施例1に係る通知処理部114は、推定処理部112により推定される第1ユーザーの感情が「哀しみ」(本開示の第1の感情の一例)であって、かつ「哀しみ」の感情の状態が所定時間継続した場合に、第2ユーザーに会話支援情報を通知する。例えば
図8Aに示すように、ユーザーA及びユーザーBが会話中にユーザーAの感情が「怒り」の状態になり、ユーザーBの感情が「哀しみ」の状態になった場合に、表示処理部111は、ユーザーAの感情アイコンを「平常」から「怒り」の感情アイコンに変更し、ユーザーBの感情アイコンを「平常」から「哀しみ」の感情アイコンに変更する。
【0073】
ユーザーBの感情が「哀しみ」に変化した場合、ユーザーBをサポート(フォロー)することが望ましい。そこで、通知処理部114は、ユーザーBの感情が「哀しみ」に変化した時点で時間の計測を開始し、「哀しみ」の状態が所定時間(例えば10分)継続した場合に、ユーザーBの近くにいるユーザー、例えばユーザーBのユーザーアイコンの位置を中心として所定範囲(通知領域P2(
図8B参照))内にいるユーザーCに会話支援情報を通知する。例えば
図9に示すように、通知処理部114は、ユーザーCのユーザー端末3cの会話用画面に、ユーザーBの感情が「哀しみ」の状態であることを示すメッセージM1(ダイアログ)(会話支援情報の一例)を表示させる。また、通知処理部114は、メッセージM1に、「今すぐサポートに向かう」の操作ボタンを表示させる。このように、通知処理部114は、ユーザーBとの会話を開始するか否かを問い合わせる会話支援情報を、通知領域P2内に存在するユーザーのうち、会話相手(ここではユーザーA)を除いたユーザー(ここではユーザーC)に通知する。なお、メッセージM1には、ユーザーが会話の開始を希望しない場合に選択する選択ボタン「×」が表示される(
図9参照)。
【0074】
なお、通知処理部114は、ユーザー端末3bにおいて、メッセージM1を会話用画面外の表示領域(例えば画面右下)にポップアップ通知してもよい。前記ポップアップ通知の処理は、後述する各実施例においても同様に適用可能である。
【0075】
また、通知処理部114は、メッセージM1を通知した場合に、時間の計測を停止して計測時間をリセットする。
【0076】
ユーザーCがメッセージM1の「今すぐサポートに向かう」の操作ボタンを押下すると(会話支援情報に対してユーザーCがユーザーBとの会話を開始する旨の回答を行った場合に)、表示処理部111は、会話用画面において、ユーザーCのユーザーアイコンを、ユーザーBと会話可能な位置に移動させる。例えば
図10A及び
図10Bに示すように、表示処理部111は、ユーザーCのユーザーアイコンをユーザーBのユーザーアイコンの位置を中心とした会話領域P1内に移動させる。これにより、ユーザーCはユーザーA及びユーザーBの会話に参加することが可能になる。
【0077】
なお、ユーザーAは「怒り」の感情でありサポートの優先度が低いため、通知処理部114は、ユーザーAのユーザー端末3aにはメッセージM1を通知しない。また、他のユーザー(ここではユーザーD)は、通知領域P2外にいるため、通知処理部114は、ユーザーDのユーザー端末3dにはメッセージM1を通知しない。
【0078】
このように、実施例1では、制御部11は、会話中のユーザーの感情が「哀しみ」に変化した場合において、「哀しみ」の状態が所定時間継続した場合に、当該ユーザーを支援(サポート)するための会話支援情報を所定のユーザーに通知する。なお、制御部11は、ユーザーAのサポートが必要な場合には、ユーザーAのユーザー端末3aにメッセージM1を通知してもよいし、ユーザーAのユーザー端末3a及びユーザーCのユーザー端末3cの両方にメッセージM1を通知してもよい。
【0079】
[実施例2]
実施例2では、例えば実施例1においてユーザーA及びユーザーBの会話が終了した場合に、表示処理部111は、会話終了時点の感情の状態を、会話終了時点から所定時間継続して表示させる。例えば
図8に示すように、ユーザーA及びユーザーBが会話をして、会話終了時点の推定感情が、ユーザーAが「怒り」あって、ユーザーBが「哀しみ」であった場合に、表示処理部111は、
図11A及び
図11Bに示すように、ユーザーAのユーザーアイコンをユーザーBのユーザーアイコンに対応する会話領域P1の外に移動させるとともに、ユーザーAの感情アイコンを「怒り」のアイコンを継続して表示させ、ユーザーBの感情アイコンを「哀しみ」のアイコンを継続して表示させる。
【0080】
また、会話終了後に継続して表示されるユーザーBの感情アイコンが「哀しみ」の状態である場合に、通知処理部114は、ユーザーBのユーザーアイコンに対応する通知領域P2(
図11B参照)内にいるユーザーCに会話支援情報を通知する。例えば
図12に示すように、通知処理部114は、ユーザーCのユーザー端末3cの会話用画面に、ユーザーBの感情が「哀しみ」の状態であることを示すメッセージM2(会話支援情報の一例)を表示させる。また、通知処理部114は、メッセージM2に、ユーザーBとの会話を開始するための操作ボタン(「開始」ボタン)を表示させる。
【0081】
なお、通知処理部114は、ユーザー端末3bにおいて、メッセージM2を会話用画面外の表示領域(例えば画面右下)にポップアップ通知してもよい。
【0082】
ユーザーCがメッセージM2の「開始」ボタンを押下すると、表示処理部111は、会話用画面において、ユーザーCのユーザーアイコンを、ユーザーBと会話可能な位置に移動させる。例えば
図13A及び
図13Bに示すように、表示処理部111は、ユーザーCのユーザーアイコンをユーザーBのユーザーアイコンの位置を中心とした会話領域P1内に移動させる。これにより、ユーザーCはユーザーBと会話することが可能になる。
【0083】
なお、ユーザーAは「怒り」の感情でありサポートの優先度が低いため、通知処理部114は、ユーザーAのユーザー端末3aにはメッセージM2を通知しない。また、ユーザーDは、通知領域P2外にいるため、通知処理部114は、ユーザーDのユーザー端末3dにはメッセージM2を通知しない。
【0084】
また、ユーザーCがメッセージM2の「閉じる」ボタンを押下した場合には、表示処理部111は、会話用画面からメッセージM2を削除する処理のみ実行する。
【0085】
また、表示処理部111は、会話終了時点から所定時間経過した場合に、感情アイコンを平常状態の感情アイコンに変更する。例えば、表示処理部111は、ユーザーA及びユーザーBの会話が終了した時点から所定時間の間、ユーザーAの感情アイコンを「怒り」の状態に維持し、ユーザーBの感情アイコンを「哀しみ」の状態を維持し、所定時間経過した時点で、ユーザーA及びユーザーBのそれぞれの感情アイコンを「平常」の状態に変更する(
図14参照)。
【0086】
このように、実施例2では、通知処理部114は、第1ユーザー(上記の例ではユーザーB)との会話を開始するか否かを問い合わせる会話支援情報を第2ユーザー(上記の例ではユーザーC)に通知する。また、会話支援情報に対して第2ユーザーが第1ユーザーとの会話を開始する旨の回答を行った場合に、表示処理部111は、会話用画面(仮想ルーム)において、第2ユーザーの第2ユーザーアイコンを、第1ユーザーと会話可能な位置に移動させる(
図13A参照)。
【0087】
また、会話支援情報に対して第2ユーザーが第1ユーザーとの会話を開始しない旨の回答を行った場合には、表示処理部111は、会話用画面(仮想ルーム)において、第2ユーザーの第2ユーザーアイコンを移動させず、通知領域P2内に留める(
図11B参照)。
【0088】
実施例2の構成によれば、会話終了後に「哀しみ」の状態にあるユーザーCを、他のユーザーがサポートすることができる。
【0089】
[実施例3]
実施例3では、例えば実施例1においてユーザーA及びユーザーBの会話が終了した場合において、ユーザーAが自身の推定感情が「怒り」の状態のまま他のユーザー(例えばユーザーD)に対して会話を要求した場合に、通知処理部114は、ユーザーAに対して会話支援情報を通知する。
【0090】
例えば
図15A及び
図15Bに示すように、ユーザーAがユーザーアイコンをユーザーDに対応する会話領域P1内に移動させると、通知処理部114は、ユーザーAのユーザー端末3aにおいて、ユーザーAの感情が「怒り」の状態であることと、今すぐに会話を開始するかどうかの問い合わせとを含むメッセージM3を通知する。
【0091】
ユーザーAがメッセージM3の「開始」ボタンを押下すると、制御部11は、ユーザーA及びユーザーDの会話を可能にする。すなわち、制御部11は、ユーザーA及びユーザーDの発話音声を相互に送受信可能に音声制御情報(
図5参照)を更新する。
【0092】
一方、ユーザーAがメッセージM3の「やめる」ボタンを押下すると、例えば
図16に示すように、表示処理部111は、ユーザーAのユーザーアイコンをユーザーDのユーザーアイコンの位置を中心とした会話領域P1外に移動させる。これにより、ユーザーAはユーザーDと会話できない状態になる。
【0093】
このように、実施例3では、通知処理部114は、第1ユーザー(上記の例ではユーザーA)が第2ユーザー(上記の例ではユーザーD)に対して会話の開始を要求する場合に、第1ユーザーの現在の感情を示す情報を含む会話支援情報を第1ユーザーに通知する。また、会話支援情報に対して第1ユーザーが第2ユーザーとの会話を開始する旨の回答を行った場合に、制御部11は、第1ユーザー及び第2ユーザーを会話可能にする。
【0094】
また、会話支援情報に対して第1ユーザーが第2ユーザーとの会話を開始しない旨の回答を行った場合に、表示処理部111は、会話用画面(仮想ルーム)において、第1ユーザーの第1ユーザーアイコンを、第2ユーザーと会話不可能な位置に移動させる(
図16参照)。
【0095】
また、通知処理部114は、第1ユーザー(ユーザーA)の感情が「怒り」(本開示の第2の感情の一例)であって、かつ「怒り」の感情が推定されてから所定時間内に第1ユーザー及び第2ユーザーが会話を開始する場合に、第1ユーザーに会話支援情報を通知する。また、前記所定時間が経過して感情アイコンが「怒り」から「平常」に変更された場合には、通知処理部114は、前記会話支援情報の通知を省略する。
【0096】
実施例3の構成によれば、ユーザーAは他のユーザーとの会話を開始する前に自身の感情を自覚することができるため、例えば自身が平常な感情になるまで会話を控えるなど適切な対応を取ることが可能になる。
【0097】
[実施例4]
実施例4では、例えば実施例1においてユーザーA及びユーザーBの会話が終了した時点でユーザーAの推定感情が「怒り」の状態の場合において、ユーザーDがユーザーAに対して会話を要求した場合に、通知処理部114は、ユーザーDに対して会話支援情報を通知する。
【0098】
例えば
図17A及び
図17Bに示すように、ユーザーDがユーザーアイコンをユーザーAに対応する会話領域P1内に移動させると、通知処理部114は、ユーザーDのユーザー端末3dにおいて、ユーザーAの感情が「怒り」の状態であることと、ユーザーAと会話を開始する最適なタイミングまでの時間と、今すぐに会話を開始するかどうかの問い合わせとを含むメッセージM4を通知する。
【0099】
例えば会話相手の感情が「怒り」の状態に対して予め待機時間(例えば30分)が設定されている場合に、通知処理部114は、ユーザーA及びユーザーBの会話が終了した時点から待機時間をカウントダウンし、残り時間をメッセージM4に表示させる。ユーザーDは、残り時間を確認して、待機時間が経過するまで会話を控えるか、今すぐに会話の開始を要求するかを選択することができる。
【0100】
ユーザーDがメッセージM4の「開始」ボタンを押下すると、制御部11は、ユーザーA及びユーザーDの会話を可能にする。すなわち、制御部11は、ユーザーA及びユーザーDの発話音声を相互に送受信可能に音声制御情報(
図5参照)を更新する。
【0101】
一方、ユーザーAがメッセージM3の「やめる」ボタンを押下すると、例えば
図16に示すように、表示処理部111は、ユーザーDのユーザーアイコンをユーザーAのユーザーアイコンの位置を中心とした会話領域P1外に移動させる。これにより、ユーザーDはユーザーAと会話できない状態になる。
【0102】
なお、前記残り時間が「0」になると、表示処理部111は、ユーザーAの感情アイコンを「平常」の状態に変更する。
【0103】
このように、通知処理部114は、第1ユーザー(ユーザーA)の感情が「怒り」(本開示の第2の感情の一例)であって、かつ「怒り」の感情が推定されてから所定時間(待機時間)内に第1ユーザー及び第2ユーザー(ユーザーD)が会話を開始する場合に、第2ユーザーに会話支援情報を通知する。また、前記所定時間が経過して感情アイコンが「怒り」から「平常」に変更された場合には、通知処理部114は、前記会話支援情報の通知を省略する。
【0104】
実施例4の構成によれば、ユーザーDは会話相手のユーザーとの会話を開始する最適なタイミングを把握することができるため、適切な対応を取ることが可能になる。
【0105】
[会話制御処理]
以下、会話システム100において実行される会話制御処理の手順の一例について説明する。
【0106】
なお、本開示は、前記会話制御処理に含まれる一又は複数のステップを実行する会話制御方法(本開示の情報処理方法の一例)として捉えることができる。また、ここで説明する前記会話制御処理に含まれる一又は複数のステップが適宜省略されてもよい。また、前記会話制御処理における各ステップは、同様の作用効果を生じる範囲で実行順序が異なってもよい。
【0107】
また、ここでは管理サーバー1の制御部11が前記会話制御処理における各ステップを実行する場合を例に挙げて説明するが、他の実施形態では、一又は複数のプロセッサーが前記会話制御処理における各ステップを分散して実行してもよい。
<1.会話中の会話制御処理>
以下では、ユーザーA~Dが会話アプリケーションにログインし、ユーザーA及びユーザーBが会話可能な状態になった場合(
図8A及び
図8B参照)の会話制御処理(実施例1に対応)について、
図18及び
図19を参照しつつ説明する。
【0108】
先ずステップS11において、制御部11は、音声データを取得する。ここでは、制御部11は、ユーザーA及びユーザーBの会話の音声データを取得する。
【0109】
次にステップS12において、制御部11は、ユーザーの感情を推定し、感情アイコンを表示させる。例えば、制御部11は、ユーザーA及びユーザーBの音声データ及び顔画像データに基づいて、ユーザーA及びユーザーBの感情を推定する。制御部11は、推定した感情に対応する感情アイコン(
図6参照)を、会話用画面においてユーザーアイコンに関連付けて表示させる(
図8A参照)。
【0110】
次にステップS13において、制御部11は、推定したユーザーの感情が「哀しみ」であるか否かを判定する。具体的には、制御部11は、会話中のユーザーA及びユーザーBの少なくともいずれかの感情が「哀しみ」であるか否かを判定する。制御部11は、推定したユーザーの感情が「哀しみ」であると判断すると(S13:Yes)、処理をステップS14に移行させる。一方、制御部11は、推定したユーザーの感情が「哀しみ」以外、例えば「平常」、「怒り」、「喜び」、「楽しみ」、「驚き」、「嫌悪」、「恐れ」などあると判断すると(S13:No)、処理をステップS18に移行させる。
【0111】
ステップS14において、制御部11は、時間の計測を開始する。例えば、制御部11は、ユーザーBの感情が「平常」から「哀しみ」に変化したタイミングで時間の計測を開始する。
【0112】
ステップS15において、制御部11は、計測時間が所定時間(例えば10分)を経過したか否かを判定する。制御部11は、計測時間が所定時間を経過したと判断すると(S15:Yes)、処理をステップS16に移行させる。一方、制御部11は、計測時間が所定時間を経過していないと判断すると(S15:No)、処理をステップS151に移行させる。
【0113】
ステップS151では、制御部11は、ユーザーの感情が依然として「哀しみ」であるか否かを判定する。制御部11は、ユーザーBの感情が依然として「哀しみ」であると判断すると(S151:Yes)、処理をステップS15に移行させて時間の計測を継続する。一方、制御部11は、ユーザーBの感情が「哀しみ」から他の感情に変化したと判断すると(S151:No)、ステップS152において時間の計測を終了して計測時間をリセットする。ステップS152の後、制御部11は、処理をステップS18に移行させる。
【0114】
ステップS16では、制御部11は、計測時間をリセットし、会話支援情報を通知する。例えば、制御部11は、ユーザーBのユーザーアイコンの位置を中心として通知領域P2(
図8B参照)内にいるユーザーCに会話支援情報を通知する。例えば
図9に示すように、制御部11は、ユーザーCのユーザー端末3cの会話用画面に、ユーザーBの感情が「哀しみ」の状態であることを示すメッセージM1を表示させる。
【0115】
次にステップS17において、制御部11は、会話支援処理を実行する。
図19に示すように、前記会話支援処理では、先ずステップS171において、制御部11は、メッセージM1の「今すぐサポートに向かう」の操作ボタン(
図9参照)の押下操作を受け付けたか否かを判定する。制御部11は、メッセージM1の「今すぐサポートに向かう」の操作ボタンの押下操作を受け付けると(S171:Yes)、処理をステップS172に移行させる。一方、制御部11は、メッセージM1の「今すぐサポートに向かう」の操作ボタンの押下操作を受け付けない場合(例えば「閉じる」ボタンを押下した場合)(S171:No)、前記会話支援処理を終了して処理をステップS18(
図18参照)に移行させる。
【0116】
ステップS172において、制御部11は、ユーザーA及びユーザーBが会話を継続中であるか否かを判定する。制御部11は、ユーザーA及びユーザーBが会話を継続中であると判断すると(S172:Yes)、処理をステップS173に移行させる。一方、制御部11は、ユーザーA及びユーザーBが会話を終了したと判断すると(S172:No)、前記会話支援処理を終了して処理をステップS18(
図18参照)に移行させる。
【0117】
ステップS173において、制御部11は、会話用画面において、ユーザーアイコンをサポート対象のユーザーと会話可能な位置に移動させる。例えば
図10A及び
図10Bに示すように、制御部11は、ユーザーCのユーザーアイコンをユーザーBのユーザーアイコンの位置を中心とした会話領域P1内に移動させる。
【0118】
次にステップS174において、制御部11は、移動したユーザーアイコンのユーザーを会話に参加させる。ここでは、制御部11は、ユーザーCをユーザーA及びユーザーBの会話に参加させる。すなわち、制御部11は、ユーザーA~Cの発話音声を相互に送受信可能に音声制御情報(
図5参照)を更新する。
【0119】
制御部11は、前記会話支援処理を終了すると、ステップS18に移行して、会話が終了したか否かを判定する。制御部11は、ユーザーA及びユーザーBの会話が終了したと判断すると(S18:Yes)、前記会話制御処理を終了する。一方、制御部11は、ユーザーA及びユーザーBの会話が終了していないと判断すると(S18:No)、処理をステップS11に戻す。
【0120】
以上のように、ユーザーA及びユーザーBが会話中、制御部11は、上述の会話制御処理を実行する。
<2.会話終了後の会話制御処理>
以下では、ユーザーA及びユーザーBの会話が終了した後の会話制御処理(実施例2~4に対応)について説明する。
【0121】
先ずステップS21において、制御部11は、会話終了時点の各ユーザーの感情を示す感情アイコンを会話用画面(仮想ルーム)に表示させる(
図11A参照)。
【0122】
次にステップS22において、制御部11は、時間の計測を開始する。例えば、制御部11は、会話が終了したタイミングで時間の計測を開始する。
【0123】
次にステップS23において、制御部11は、感情に応じた会話支援処理を実行する。例えば制御部11は、ユーザーBの感情が「哀しみ」の場合に、
図21に示す会話支援処理を実行する。また、例えば制御部11は、ユーザーAの感情が「怒り」の場合に、
図22に示す会話支援処理を実行する。
【0124】
図21に示す会話支援処理(実施例2に対応)では、制御部11は、ステップS31において、通知領域P2内にユーザーがいるか否かを判定する。制御部11は、通知領域P2内にユーザーがいると判断すると(S31:Yes)、処理をステップS32に移行させる。一方、制御部11は、通知領域P2内にユーザーがいないと判断すると(S31:No)、処理をステップS311に移行させる。
【0125】
ステップS32において、制御部11は、会話支援情報を通知する。例えば、制御部11は、ユーザーBの位置を中心として通知領域P2(
図11B参照)内にいるユーザーCに会話支援情報を通知する。例えば
図12に示すように、制御部11は、ユーザーCのユーザー端末3cの会話用画面に、ユーザーBの感情が「哀しみ」の状態であることを示すメッセージM2を表示させる。
【0126】
次にステップS33において、制御部11は、ユーザーCからユーザーBとの会話を開始する操作を受け付けたか否かを判定する。ユーザーCがメッセージM2の「開始」ボタンを押下すると(
図12参照)、制御部11は、ユーザーBとの会話の開始操作を受け付ける。制御部11は、開始操作を受け付けると(S33:Yes)、処理をステップS34に移行させる。一方、制御部11は、開始操作を受け付けない場合(S33:No)、会話支援処理を終了する。
【0127】
ステップS34において、制御部11は、ユーザーBの感情が「哀しみ」の状態のままであるか否かを判定する。制御部11は、ユーザーBの感情が「哀しみ」の状態を継続していると判断すると(S34:Yes)、処理をステップS35に移行させる。一方、制御部11は、ユーザーBの感情が「哀しみ」の状態ではないと判断すると(S34:No)、会話支援処理を終了する。
【0128】
ステップS35において、制御部11は、会話用画面において、ユーザーアイコンを会話対象のユーザーと会話可能な位置に移動させる。例えば
図13A及び
図13Bに示すように、制御部11は、ユーザーCのユーザーアイコンをユーザーBのユーザーアイコンの位置を中心とした会話領域P1内に移動させる。
【0129】
次にステップS36において、制御部11は、ユーザーB及びユーザーCの会話を開始させる。すなわち、制御部11は、ユーザーB及びユーザーCの発話音声を相互に送受信可能に音声制御情報(
図5参照)を更新する。
【0130】
また、ステップS311では、制御部11は、所定時間が経過したか否かを判定する。例えば制御部11は、会話が終了してから所定時間が経過すると(S311:Yes)、ステップS312において、会話用画面においてユーザーBの感情アイコンを「哀しみ」から「平常」に変更する。制御部11は、会話が終了してから所定時間が経過するまでステップS31の処理を繰り返す(S311:No)。
【0131】
制御部11は、
図21に示す前記会話支援処理を終了すると、前記会話制御処理を終了する(
図20参照)。
【0132】
図22に示す会話支援処理(実施例3,4に対応)では、制御部11は、ステップS41において、通知領域P2内にユーザーがいるか否かを判定する。制御部11は、通知領域P2内にユーザーがいると判断すると(S41:Yes)、処理をステップS42に移行させる。一方、制御部11は、通知領域P2内にユーザーがいないと判断すると(S41:No)、処理をステップS411に移行させる。
【0133】
ステップS42において、制御部11は、会話の開始要求を取得する。例えばユーザーAの感情が「怒り」の状態において、ユーザーAがユーザーDに会話の開始要求を行った場合(実施例3に対応)に、制御部11は、ユーザーAによる開始要求を取得する。一方。例えばユーザーAの感情が「怒り」の状態において、ユーザーDがユーザーAに会話の開始要求を行った場合(実施例4に対応)に、制御部11は、ユーザーDによる開始要求を取得する。
【0134】
次にステップS43において、制御部11は、会話支援情報を通知する。例えば、制御部11は、ユーザーAから会話の開始要求を取得した場合に、ユーザーAに会話支援情報を通知する。例えば
図15Aに示すように、制御部11は、ユーザーAのユーザー端末3aの会話用画面に、ユーザーAの感情が「怒り」の状態であることを示すメッセージM3を表示させる。
【0135】
一方、例えば、制御部11は、ユーザーDから会話の開始要求を取得した場合に、ユーザーDに会話支援情報を通知する。例えば
図17Aに示すように、制御部11は、ユーザーDのユーザー端末3dの会話用画面に、ユーザーAの感情が「怒り」の状態であることを示すメッセージM4を表示させる。なお、制御部11は、会話対象のユーザーの感情が「怒り」から「平常」に変更した後に会話の開始要求を取得した場合には、会話支援情報の通知を省略して、会話を開始させてもよい。
【0136】
次にステップS44において、制御部11は、会話を開始する操作を受け付けたか否かを判定する。例えば
図15Aに示すメッセージM3においてユーザーAが「開始」ボタンを押下すると、制御部11は、ユーザーAから会話の開始操作を受け付けて(S44:Yes)、処理をステップS45に移行させる。
【0137】
また、例えば
図17Aに示すメッセージM4においてユーザーDが「開始」ボタンを押下すると、制御部11は、ユーザーDから会話の開始操作を受け付けて(S44:Yes)、処理をステップS45に移行させる。
【0138】
制御部11は、開始操作を受け付けない場合(S44:No)、すなわちユーザーが「やめる」ボタンを押下した場合(
図15A及び
図17A参照)、処理をステップS441に移行させる。
【0139】
次にステップS45において、制御部11は、ユーザーA及びユーザーDの会話を開始させる。すなわち、制御部11は、ユーザーA及びユーザーDの発話音声を相互に送受信可能に音声制御情報(
図5参照)を更新する。
【0140】
ステップS441において、制御部11は、ユーザーアイコンを会話領域P1外に移動させる。例えば
図15AのメッセージM3においてユーザーAが「やめる」ボタンを押下すると、制御部11は、ユーザーAのユーザーアイコンをユーザーDのユーザーアイコンの位置を中心とした会話領域P1外に移動させる(
図16参照)。また、例えば
図17AのメッセージM4においてユーザーDが「やめる」ボタンを押下すると、制御部11は、ユーザーDのユーザーアイコンをユーザーAのユーザーアイコンの位置を中心とした会話領域P1外に移動させる(
図16参照)。
【0141】
制御部11は、
図22に示す前記会話支援処理を終了すると、前記会話制御処理を終了する(
図20参照)。
【0142】
以上のように、ユーザーA及びユーザーBの会話が終了すると、制御部11は、上述の会話制御処理を実行する。
【0143】
以上説明したように、本実施形態に係る会話システム100は、第1ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて第1ユーザーの感情を推定し、推定した第1ユーザーの感情が所定の感情である場合に、第1ユーザー及び第2ユーザーの少なくともいずれかに、推定した感情に応じた会話支援情報を通知する。
【0144】
例えば、会話システム100は、推定した第1ユーザーの感情が「哀しみ」であって、かつ「哀しみ」の感情の状態が所定時間継続した場合に、第2ユーザーに会話支援情報を通知する(
図9参照)。
【0145】
また例えば、会話システム100は、推定した第1ユーザーの感情が「怒り」であって、かつ「怒り」の感情が推定されてから所定時間内に第1ユーザー及び第2ユーザーが会話を開始する場合に、第1ユーザー及び第2ユーザーの少なくともいずれかに会話支援情報を通知する(
図15A及び
図17A参照)。
【0146】
上記構成によれば、ユーザーの感情に応じた支援情報(サポート情報)を他のユーザーに通知することができるため、当該感情を有するユーザーをサポートすることが可能になる。
【0147】
上述の実施形態では、「哀しみ」の感情を有するユーザーBをサポートする例を示したが、他の実施形態として、「怒り」の感情を有するユーザーAをサポートする構成であってもよい。例えば
図9において、制御部11は、ユーザーCに、ユーザーAをサポートするための会話支援情報を通知してもよい。すなわち、本開示において、サポート対象のユーザーの感情は限定されない。
【0148】
上述の実施形態では、会話システム100が本開示に係る情報処理システムに相当するが、本開示に係る情報処理システムは、管理サーバー1、会話サーバー2、及びユーザー端末3のうち一又は複数の構成要素を含むものであってもよい。例えば、管理サーバー1、会話サーバー2、及びユーザー端末3のうち複数の構成要素が協働して前記会話制御処理を分担して実行する場合には、その処理を実行する複数の構成要素を含むシステムを本開示に係る情報処理システムとして捉えることが可能である。例えば、管理サーバー1及び会話サーバー2が本開示に係る情報処理システムを構成してもよいし、管理サーバー1単体が本開示に係る情報処理システムを構成してもよい。
【0149】
[開示の付記]
以下、上述の各実施形態から抽出される開示の概要について付記する。なお、以下の付記で説明する各構成及び各処理機能は取捨選択して任意に組み合わせることが可能である。
【0150】
<付記1>
第1ユーザーの発話データ及び顔画像データの少なくともいずれかに基づいて前記第1ユーザーの感情を推定する推定処理部と、
前記推定処理部により推定される前記第1ユーザーの感情が所定の感情である場合に、前記第1ユーザー及び前記第1ユーザーとは異なる第2ユーザーの少なくともいずれかに、前記推定処理部により推定される前記感情に応じた会話支援情報を通知する通知処理部と、
を備える情報処理システム。
【0151】
<付記2>
前記通知処理部は、前記推定処理部により推定される前記第1ユーザーの感情が第1の感情であって、かつ前記第1の感情の状態が所定時間継続した場合に、前記第2ユーザーに前記会話支援情報を通知する、
付記1に記載の情報処理システム。
【0152】
<付記3>
前記通知処理部は、前記推定処理部により推定される前記第1ユーザーの感情が第2の感情であって、かつ前記推定処理部により前記第2の感情が推定されてから所定時間内に前記第1ユーザー及び前記第2ユーザーが会話を開始する場合に、前記第1ユーザー及び前記第2ユーザーの少なくともいずれかに前記会話支援情報を通知する、
付記1又は2に記載の情報処理システム。
【0153】
<付記4>
仮想空間内の所定位置にユーザーのユーザーアイコンを表示させる表示処理部をさらに備え、
前記表示処理部は、前記仮想空間において、前記推定処理部により推定される前記第1ユーザーの感情を表す感情アイコンを、前記第1ユーザーの第1ユーザーアイコンに関連付けて表示させる、
付記1~3のいずれかに記載の情報処理システム。
【0154】
<付記5>
前記通知処理部は、前記第1ユーザーの会話相手を除いたユーザーであって、前記第1ユーザーアイコンから所定範囲内に存在するユーザーアイコンの前記第2ユーザーに前記会話支援情報を通知する、
付記4に記載の情報処理システム。
【0155】
<付記6>
前記通知処理部は、前記第1ユーザーとの会話を開始するか否かを問い合わせる前記会話支援情報を前記第2ユーザーに通知する、
付記4又は5に記載の情報処理システム。
【0156】
<付記7>
前記会話支援情報に対して前記第2ユーザーが前記第1ユーザーとの会話を開始する旨の回答を行った場合に、前記表示処理部は、前記仮想空間において、前記第2ユーザーの第2ユーザーアイコンを、前記第1ユーザーと会話可能な位置に移動させる、
付記6に記載の情報処理システム。
【0157】
<付記8>
前記会話支援情報に対して前記第2ユーザーが前記第1ユーザーとの会話を開始しない旨の回答を行った場合に、前記表示処理部は、前記仮想空間において、前記第2ユーザーの第2ユーザーアイコンを、前記第1ユーザーと会話不可能な位置に移動させる、
付記6又は7に記載の情報処理システム。
【0158】
<付記9>
前記通知処理部は、前記第1ユーザーが前記第2ユーザーに対して会話の開始を要求する場合に、前記第1ユーザーの現在の感情を示す情報を含む前記会話支援情報を前記第1ユーザーに通知する、
付記4~8のいずれかに記載の情報処理システム。
【0159】
<付記10>
前記会話支援情報に対して前記第1ユーザーが前記第2ユーザーとの会話を開始する旨の回答を行った場合に、前記第1ユーザー及び前記第2ユーザーを会話可能にする、
付記9に記載の情報処理システム。
【0160】
<付記11>
前記会話支援情報に対して前記第1ユーザーが前記第2ユーザーとの会話を開始しない旨の回答を行った場合に、前記表示処理部は、前記仮想空間において、前記第1ユーザーアイコンを、前記第1ユーザーと前記第2ユーザーとが会話不可能な位置に移動させる、
付記9又は10に記載の情報処理システム。
【0161】
<付記12>
前記表示処理部は、前記第1ユーザーの会話が終了した場合に、会話終了時点の前記第1ユーザーの感情を表す前記感情アイコンを、会話終了時点から所定時間継続して表示させる、
付記1~11のいずれかに記載の情報処理システム。
【0162】
<付記13>
前記表示処理部は、会話終了時点から所定時間経過した場合に、前記感情アイコンを平常状態の感情アイコンに変更する、
付記12に記載の情報処理システム。
【0163】
<付記14>
前記所定の感情は、哀しみ又は怒りを表す感情である、
付記1~13のいずれかに記載の情報処理システム。
【符号の説明】
【0164】
1 :管理サーバー
2 :会話サーバー
3 :ユーザー端末
100 :会話システム
111 :表示処理部
112 :推定処理部
113 :受付処理部
114 :通知処理部
211 :音声処理部
311 :音声処理部
312 :表示処理部
313 :受付処理部
M1~M4:メッセージ
P1 :会話領域
P2 :通知領域
T1 :ユーザー情報管理テーブル
T2 :グループ情報管理テーブル
T3 :音声制御情報管理テーブル
T4 :感情テーブル