(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024024603
(43)【公開日】2024-02-22
(54)【発明の名称】チャット相手に対する感情状態表示方法及びシステム
(51)【国際特許分類】
G06F 3/04817 20220101AFI20240215BHJP
H04L 51/04 20220101ALI20240215BHJP
H04L 51/21 20220101ALI20240215BHJP
【FI】
G06F3/04817
H04L51/04
H04L51/21
【審査請求】未請求
【請求項の数】20
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2023125552
(22)【出願日】2023-08-01
(31)【優先権主張番号】10-2022-0099021
(32)【優先日】2022-08-09
(33)【優先権主張国・地域又は機関】KR
(71)【出願人】
【識別番号】516014409
【氏名又は名称】ライン プラス コーポレーション
【氏名又は名称原語表記】LINE Plus Corporation
(74)【代理人】
【識別番号】110002952
【氏名又は名称】弁理士法人鷲田国際特許事務所
(72)【発明者】
【氏名】イ スン ファン
(72)【発明者】
【氏名】オ チョル ウォン
(72)【発明者】
【氏名】ユン ヒョンス
(72)【発明者】
【氏名】チェ ジンジュ
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA09
5E555AA23
5E555AA46
5E555AA48
5E555BA04
5E555BA45
5E555BA77
5E555BA82
5E555BB04
5E555BC10
5E555BD09
5E555CB34
5E555CB44
5E555DB18
5E555DB41
5E555DD06
5E555DD08
5E555FA00
(57)【要約】
【課題】少なくとも一つのプロセッサが実行する、チャット相手に対する感情状態表示方法を提供する。
【解決手段】チャット相手に対する感情状態表示方法は、第1のユーザ及び第2のユーザ間で送信された少なくとも一つのチャットメッセージを取得するステップと、取得されたチャットメッセージに基づいて、第1のユーザに対する第2のユーザの感情状態を決定するステップと、決定された感情状態と関連した第1の視覚化情報をトークルームに表示するステップと、を含むことができる。
【選択図】
図1
【特許請求の範囲】
【請求項1】
少なくとも一つのプロセッサが実行する、チャット相手に対する感情状態を表示する方法において、
第1のユーザ及び第2のユーザ間で送信された少なくとも一つのチャットメッセージを取得するステップと、
前記取得されたチャットメッセージに基づいて、前記第1のユーザに対する前記第2のユーザの感情状態を決定するステップと、
前記決定された感情状態と関連した第1の視覚化情報をトークルームに表示するステップと、を含む、感情状態表示方法。
【請求項2】
前記取得されたチャットメッセージに基づいて、前記第2のユーザに対する前記第1のユーザの感情状態を決定するステップと、
前記決定された感情状態と関連した第2の視覚化情報を前記トークルームに表示するステップと、をさらに含む、請求項1に記載の感情状態表示方法。
【請求項3】
前記第1のユーザに対する前記第2のユーザの感情状態を決定するステップは、前記取得されたチャットメッセージのうち、前記第2のユーザにより作成されたチャットメッセージに基づいて、前記第1のユーザに対する前記第2のユーザの感情状態を決定するステップを含み、
前記第2のユーザに対する前記第1のユーザの感情状態を決定するステップは、前記取得されたチャットメッセージのうち、前記第1のユーザにより作成されたチャットメッセージに基づいて、前記第2のユーザに対する前記第1のユーザの感情状態を決定するステップを含む、請求項2に記載の感情状態表示方法。
【請求項4】
前記トークルームから、第3のユーザを対象として作成された前記第1のユーザのチャットメッセージを検知するステップと、
前記検知されたチャットメッセージに応じて、前記第3のユーザに対する前記第1のユーザの感情状態と関連した第3の視覚化情報を前記トークルームに表示するステップと、をさらに含む、請求項2に記載の感情状態表示方法。
【請求項5】
前記第2の視覚化情報を前記トークルームに表示するステップは、前記第1のユーザの感情状態が表示される所定の領域に、前記第2の視覚化情報を表示するステップを含み、
前記第3の視覚化情報を前記トークルームに表示するステップは、前記所定の領域に表示された第2の視覚化情報を前記第3の視覚化情報に変更するステップを含む、請求項4に記載の感情状態表示方法。
【請求項6】
前記第3の視覚化情報を前記トークルームに表示するステップは、前記トークルーム又は他のトークルームの少なくとも一つに含まれた前記第3のユーザ及び前記第1のユーザ間のチャットメッセージに基づいて、前記第3のユーザに対する前記第1のユーザの感情状態を決定するステップを含む、請求項4に記載の感情状態表示方法。
【請求項7】
前記第3のユーザを対象として作成された前記第1のユーザのチャットメッセージを検知するステップは、前記トークルームから、前記第1のユーザが前記第3のユーザを指定するメンションメッセージを検知、または、前記第3のユーザのチャットメッセージに対する前記第1のユーザの応答メッセージを検知する場合に、前記第3のユーザを対象として作成された前記第1のユーザのチャットメッセージを検知したと判定するステップを含む、請求項4に記載の感情状態表示方法。
【請求項8】
前記トークルームはグループトークルームであり、
前記少なくとも一つのチャットメッセージを取得するステップは、
前記第1のユーザ及び前記第2のユーザが属する前記グループトークルームに含まれた前記第2のユーザにより作成された第1のセットのチャットメッセージを取得するステップと、
前記第1のユーザ及び前記第2のユーザが属する個人トークルームに含まれた第2のセットのチャットメッセージを取得するステップと、を含み、
前記第1のユーザに対する前記第2のユーザの感情状態は、前記第1のセットのチャットメッセージ及び前記第2のセットのチャットメッセージに基づいて決定される、請求項1に記載の感情状態表示方法。
【請求項9】
前記第1のユーザに対する前記第2のユーザの感情状態を決定するステップは、
前記第1のセットのチャットメッセージに基づいて、第1の感情状態を決定するステップと、
前記第2のセットのチャットメッセージに基づいて、第2の感情状態を決定するステップと、
前記第1の感情状態及び前記第2の感情状態に基づいて、前記第1のユーザに対する前記第2のユーザの感情状態を決定するステップと、を含む、請求項8に記載の感情状態表示方法。
【請求項10】
前記第1のユーザに対する前記第2のユーザの感情状態を決定するステップは、
前記第1の感情状態及び前記第2の感情状態が同一であるか否かを判定するステップと、
前記第1の感情状態及び前記第2の感情状態が異なるという判定に応じて、前記第1の感情状態及び前記第2の感情状態のうち、優先順位が高い感情状態を、前記第1のユーザに対する前記第2のユーザの感情状態として決定するステップと、を含む、請求項9に記載の感情状態表示方法。
【請求項11】
前記第1のユーザに対する第2のユーザの感情状態は、前記第1の感情状態に第1の加重値を適用し、前記第2の感情状態に第2の加重値を適用して決定される、請求項9に記載の感情状態表示方法。
【請求項12】
前記第2の加重値が前記第1の加重値よりも大きい、請求項11に記載の感情状態表示方法。
【請求項13】
前記第1のセットのチャットメッセージは、前記グループトークルームにおいて前記第2のユーザが前記第1のユーザを対象として作成したメッセージである、請求項8に記載の感情状態表示方法。
【請求項14】
前記グループトークルームに含まれた前記第1のユーザ及び第3のユーザ間の第3のセットのチャットメッセージを取得するステップと、
前記第1のユーザ及び前記第3のユーザが属する個人トークルームに含まれた第4のセットのチャットメッセージを取得するステップと、
前記第3のセットのチャットメッセージ及び前記第4のセットのチャットメッセージに基づいて、前記第1のユーザに対する前記第3のユーザの感情状態を決定するステップと、
前記決定された前記第1のユーザに対する前記第3のユーザの感情状態と関連した第4の視覚化情報を、前記グループトークルームに表示するステップと、をさらに含む、請求項8に記載の感情状態表示方法。
【請求項15】
前記グループトークルームに属する全てのユーザ間の感情関係情報を表示するステップをさらに含み、
前記感情関係情報は、前記第1のユーザに対する他のユーザの各々の感情状態と、他のユーザの各々に対する前記第1のユーザの感情状態とを含む、請求項14に記載の感情状態表示方法。
【請求項16】
前記第1のユーザから前記感情関係情報の出力要求を受信するステップと、
前記感情関係情報の少なくとも一部を外部装置から取得するステップと、をさらに含む、請求項15に記載の感情状態表示方法。
【請求項17】
前記第1のユーザに対する前記第2のユーザの感情状態を決定するステップは、
前記取得されたチャットメッセージから感情と関連した少なくとも一つのキーワード又はエモティコンを抽出するステップと、
前記抽出された少なくとも一つのキーワード又はエモティコンに基づいて、前記第1のユーザに対する前記第2のユーザの感情状態を決定するステップと、を含む、請求項1に記載の感情状態表示方法。
【請求項18】
前記第1の視覚化情報をトークルームに表示するステップは、前記トークルーム内の前記第2のユーザのプロフィールに関連付けて前記第1の視覚化情報を表示するステップを含む、請求項1に記載の感情状態表示方法。
【請求項19】
請求項1乃至18のいずれか一項に記載の方法をコンピュータで実行するためのコンピュータプログラム。
【請求項20】
ユーザ端末であって、
メモリと、
前記メモリと接続され、前記メモリに含まれたコンピュータ読み取り可能な少なくとも一つのプログラムを実行するように構成される少なくとも一つのプロセッサと、を含み、
前記少なくとも一つのプログラムは、
第1のユーザ及び第2のユーザ間で送信された少なくとも一つのチャットメッセージを取得し、
前記取得されたチャットメッセージに基づいて、前記第1のユーザに対する前記第2のユーザの感情状態を決定し、
前記決定された感情状態と関連した第1の視覚化情報をトークルームに表示するためのコマンドを含む、ユーザ端末。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、チャット相手に対する感情状態を表示する方法に関し、具体的には、多数のユーザ間で送受信されたチャットメッセージに基づいて、チャット相手に対するユーザの感情状態をトークルームに表示する方法及びシステムに関する。
【背景技術】
【0002】
スマートフォンなどのようなモバイル機器の拡散及びインターネットの発達により、モバイル機器を利用したインスタントメッセージングアプリケーション(instant messaging application)が広く使用されている。モバイル機器を介してインスタントメッセージングアプリケーションを使用するユーザは、他のユーザ等に対してトークルームを介して多様なチャットメッセージをやりとりできる。
【0003】
こうしたインスタントメッセージングアプリケーションには、ユーザのプロフィールを設定できる機能が提供されることで、ユーザは、プロフィールを通してニックネームや写真などを登録できる。また、インスタントメッセージングアプリケーションには、状態を設定できる機能が提供されることで、ユーザは、留守中、応答不可、休暇中、運転中、悲しみ、喜び、怒り等のような様々の状態を設定できる。こうしたユーザの状態に基づいて、他のユーザ等はユーザの状態を把握できる。
【0004】
ところが、このような状態設定機能は、ユーザがプロフィールを通して自分の状態を直接的に変更するため、ユーザの入力情報が必要になると同時に、リアルタイムでユーザの状態を反映しにくいという問題点がある。また、ユーザのプロフィールに状態情報が記録されていない場合、他のユーザ等はユーザの状態を把握しにくい。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】韓国公開特許公報第10-2019-0086140号
【発明の概要】
【発明が解決しようとする課題】
【0006】
本開示は、前記問題点を解決するためのチャット相手に対する感情状態表示方法、コンピュータプログラム及び装置(システム)を提供する。
【課題を解決するための手段】
【0007】
本開示は、方法、装置(システム)及び/又はコンピュータプログラムを含む多様な方式により具現化できる。
【0008】
本開示の一実施例によれば、少なくとも一つのプロセッサが実行する感情状態表示方法は、第1のユーザ及び第2のユーザ間で送信された少なくとも一つのチャットメッセージを取得するステップと、取得されたチャットメッセージに基づいて、第1のユーザに対する第2のユーザの感情状態を決定するステップと、決定された感情状態と関連した第1の視覚化情報をトークルームに表示するステップと、を含むことができる。
【0009】
前述した感情状態表示方法をコンピュータで実行するためのコンピュータプログラムが提供され得る。
【0010】
本開示の一実施例に係るユーザ端末は、メモリと、メモリと接続され、メモリに含まれたコンピュータ読み取り可能な少なくとも一つのプログラムを実行するように構成される少なくとも一つのプロセッサと、を含み、少なくとも一つのプログラムは、第1のユーザ及び第2のユーザ間で送信された少なくとも一つのチャットメッセージを取得し、取得されたチャットメッセージに基づいて、第1のユーザに対する第2のユーザの感情状態を決定し、決定された感情状態と関連した第1の視覚化情報をトークルームに表示するためのコマンドを含むことができる。
【発明の効果】
【0011】
本開示の一部の実施例によれば、チャットメッセージに基づいて各チャット相手の感情状態が分析され、分析された結果に基づいて各々のチャット相手の感情状態をトークルームに自動的に表示できる。これにより、ユーザの受動的な操作なしに、チャット相手の感情状態をリアルタイムで反映して表示できる。
【0012】
本開示の一部の実施例によれば、グループトークルームに含まれたチャットメッセージ、及び個人トークルームに含まれたチャットメッセージに基づいて、各チャット相手の感情状態をより正確に決定できる。
【0013】
本開示の一部の実施例によれば、感情状態と関連した視覚化情報をトークルームに出力できることで、ユーザは、直観的にチャット相手の感情状態を把握できる。
【0014】
本開示の一部の実施例によれば、チャット相手等及びユーザ間の感情関係情報の表示や、トークルーム内における感情状態の表示などのような様々の機能が提供されることで、インスタントメッセージングサービスに対するユーザの満足度を向上させることができる。
【0015】
本開示の効果は、これに制限されず、言及されない他の効果等は、請求範囲の記載から本開示が属する技術分野における通常の知識を有した者(以下、“当業者”という)に明確に理解されるべきである。
【図面の簡単な説明】
【0016】
本開示の実施例等は、以下の添付図面に基づいて説明される。ここで、類似の参照番号は類似の要素を示すが、これに限定されるものではない。
【
図1】本開示の一実施例に係る感情状態が表示されたグループトークルームの画面に対する例を示す図である。
【
図2】本開示の一実施例に係る情報処理システムが複数のユーザ端末と通信可能であるように接続された構成を示す概要図である。
【
図3】本開示の一実施例に係るユーザ端末及び情報処理システムの内部構成を示すブロック図である。
【
図4】本開示の一実施例に係るユーザ端末のプロセッサの内部構成を示すブロック図である。
【
図5】感情状態を含む個人トークルームの画面の一例を示す図である。
【
図6】感情状態が表示される個人トークルームの画面の他の例を示す図である。
【
図7】感情状態が表示されるグループトークルームの画面の一例を示す図である。
【
図8】本開示の一実施例に係る感情関係情報の例を示す図である。
【
図9】本開示の一実施例に係るチャット相手に対する感情状態表示方法を説明するためのフローチャートである。
【発明を実施するための形態】
【0017】
<発明の概要>
本開示の一実施例によれば、感情状態表示方法は、取得されたチャットメッセージに基づいて、第2のユーザに対する第1のユーザの感情状態を決定するステップと、決定された感情状態と関連した第2の視覚化情報をトークルームに表示するステップと、をさらに含むことができる。
【0018】
本開示の一実施例によれば、第1のユーザに対する第2のユーザの感情状態を決定するステップは、取得されたチャットメッセージのうち、第2のユーザにより作成されたチャットメッセージに基づいて、第1のユーザに対する第2のユーザの感情状態を決定するステップを含み、第2のユーザに対する第1のユーザの感情状態を決定するステップは、取得されたチャットメッセージのうち、第1のユーザにより作成されたチャットメッセージに基づいて、第2のユーザに対する第1のユーザの感情状態を決定するステップを含むことができる。
【0019】
本開示の一実施例によれば、感情状態表示方法は、トークルームから、第3のユーザを対象として作成された第1のユーザのチャットメッセージを検知するステップと、検知されたチャットメッセージに応じて、第3のユーザに対する第1のユーザの感情状態と関連した第3の視覚化情報をトークルームに表示するステップと、をさらに含むことができる。
【0020】
本開示の一実施例によれば、第2の視覚化情報をトークルームに表示するステップは、第1のユーザの感情状態が表示される所定の領域に、第2の視覚化情報を表示するステップを含み、第3の視覚化情報をトークルームに表示するステップは、所定の領域に表示された第2の視覚化情報を第3の視覚化情報に変更するステップを含むことができる。
【0021】
本開示の一実施例によれば、第3の視覚化情報をトークルームに表示するステップは、トークルーム又は他のトークルームの少なくとも一つに含まれた第3のユーザ及び第1のユーザ間のチャットメッセージに基づいて、第3のユーザに対する第1のユーザの感情状態を決定するステップを含むことができる。
【0022】
本開示の一実施例によれば、第3のユーザを対象として作成された第1のユーザのチャットメッセージを検知するステップは、トークルームから、第1のユーザが第3のユーザを指定するメンション(mention)メッセージを検知、または、第3のユーザのチャットメッセージに対する第1のユーザの応答メッセージを検知する場合に、第3のユーザを対象として作成された第1のユーザのチャットメッセージを検知したと判定するステップを含むことができる。
【0023】
本開示の一実施例によれば、トークルームはグループトークルームであり、少なくとも一つのチャットメッセージを取得するステップは、第1のユーザ及び第2のユーザが属するグループトークルームに含まれた第2のユーザにより作成された第1のセットのチャットメッセージを取得するステップと、第1のユーザ及び第2のユーザが属する個人トークルームに含まれた第2のセットのチャットメッセージを取得するステップと、を含み、第1のユーザに対する第2のユーザの感情状態は、第1のセットのチャットメッセージ及び第2のセットのチャットメッセージに基づいて決定され得る。
【0024】
本開示の一実施例によれば、第1のユーザに対する第2のユーザの感情状態を決定するステップは、第1のセットのチャットメッセージに基づいて、第1の感情状態を決定するステップと、第2のセットのチャットメッセージに基づいて、第2の感情状態を決定するステップと、第1の感情状態及び第2の感情状態に基づいて、第1のユーザに対する第2のユーザの感情状態を決定するステップと、を含むことができる。
【0025】
本開示の一実施例によれば、第1のユーザに対する第2のユーザの感情状態を決定するステップは、第1の感情状態及び第2の感情状態が同一であるか否かを判定するステップと、第1の感情状態及び第2の感情状態が異なるという判定に応じて、第1の感情状態及び第2の感情状態のうち、優先順位が高い感情状態を、第1のユーザに対する第2のユーザの感情状態として決定するステップと、を含むことができる。
【0026】
本開示の一実施例によれば、第1のユーザに対する第2のユーザの感情状態は、第1の感情状態に第1の加重値を適用し、第2の感情状態に第2の加重値を適用して決定され得る。
【0027】
本開示の一実施例によれば、第2の加重値が第1の加重値よりも大きいことができる。
【0028】
本開示の一実施例によれば、第1のセットのチャットメッセージは、グループトークルームにおいて第2のユーザが第1のユーザを対象として作成されたメッセージであり得る。
【0029】
本開示の一実施例によれば、感情状態表示方法は、グループトークルームに含まれた第1のユーザ及び第3のユーザ間の第3のセットのチャットメッセージを取得するステップと、第1のユーザ及び第3のユーザが属する個人トークルームに含まれた第4のセットのチャットメッセージを取得するステップと、第3のセットのチャットメッセージ及び第4のセットのチャットメッセージに基づいて、第1のユーザに対する第3のユーザの感情状態を決定するステップと、決定された第1のユーザに対する第3のユーザの感情状態と関連した第4の視覚化情報を、グループトークルームに表示するステップと、をさらに含むことができる。
【0030】
本開示の一実施例によれば、感情状態表示方法は、グループトークルームに属する全てのユーザ間の感情関係情報を表示するステップをさらに含み、感情関係情報は、第1のユーザに対する他のユーザの各々の感情状態と、他のユーザの各々に対する第1のユーザの感情状態とを含むことができる。
【0031】
本開示の一実施例によれば、感情状態表示方法は、第1のユーザから感情関係情報の出力要求を受信するステップと、感情関係情報の少なくとも一部を外部装置から取得するステップと、をさらに含むことができる。
【0032】
本開示の一実施例によれば、第1のユーザに対する第2のユーザの感情状態を決定するステップは、取得されたチャットメッセージから感情と関連した少なくとも一つのキーワード又はエモティコンを抽出するステップと、抽出された少なくとも一つのキーワード又はエモティコンに基づいて、第1のユーザに対する第2のユーザの感情状態を決定するステップと、を含むことができる。
【0033】
本開示の一実施例によれば、第1の視覚化情報をトークルームに表示するステップは、トークルーム内の第2のユーザのプロフィールに関連付けて第1の視覚化情報を表示するステップを含むことができる。
【0034】
<発明の詳細な説明>
以下、本開示の実施のための具体的な内容を添付図面に基づいて詳細に説明する。ただし、以下の説明では、本開示の要旨を不要に不明瞭にする恐れがある場合、公知の機能や構成に関する具体的な説明は省略する。
【0035】
添付図面において、同一又は対応する構成要素には同一の参照符号が付与される。また、以下の実施例の説明において、同一又は対応する構成要素について重複する記述は省略され得る。しかしながら、構成要素に関する記述が省略されても、そのような構成要素が、ある実施例に含まれないものと意図してはならない。
【0036】
開示の実施例の利点及び特徴、そしてそれらを達成する方法は、添付図面に基づいて後述する実施例を参照すれば明確になる。しかしながら、本開示は、以下で開示される実施例に限定されず、互いに異なる多様な形態で具現化され得る。但し、本実施例は、本開示が完全になるようにし、本開示が通常の技術者に発明のカテゴリを正確に認識させるために提供されるだけである。
【0037】
本明細書で使用される用語について簡略に説明し、開示の実施例について具体的に説明する。本明細書で使用される用語は、本開示での機能を考慮しつつ、可能な限り現在広く使用される一般的な用語を選択したが、これは関連分野に従事する技術者の意図又は判例、新技術の出現などにより変化し得る。また、特定の場合は出願人が任意で選定した用語もあり得るが、これらの意味は当該発明の説明の部分において詳細に記載する。よって、本開示で使用される用語は、単純な用語の名称ではなく、その用語が有する意味と本開示の全般にわたった内容に基づいて定義されるべきである。
【0038】
本明細書では、文脈上において明確に特定しない限り、単数の表現は複数の表現を含み、複数の表現は単数の表現を含むことができる。明細書の全般に渡り、ある部分がある構成要素を「含む」とする際、これは特に反対の記載がない限り、他の構成要素を排除するものではなく、他の構成要素をさらに含むこともできることを意味する。
【0039】
また、明細書で使用される「モジュール」又は「部」という用語は、ソフトウェアやハードウェア構成要素を意味し、「モジュール」又は「部」はある役割を実行する。しかしながら、「モジュール」又は「部」はソフトウェアやハードウェアに限定される意味ではない。「モジュール」又は「部」は、アドレッシング可能な保存媒体にあるように構成してもよく、一つ又はそれ以上のプロセッサを再生させるように構成してもよい。したがって、一例として、「モジュール」又は「部」は、ソフトウェア構成要素、オブジェクト指向ソフトウェア構成要素、クラス構成要素、タスク構成要素のような構成要素、並びに、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバー、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ又は変数のうちで少なくとも一つを含むことができる。構成要素と「モジュール」又は「部」は、内部で提供される機能はさらに小さい数の構成要素及び「モジュール」又は「部」で結合されたり、追加的な構成要素と「モジュール」又は「部」にさらに分離されたりできる。
【0040】
本開示の一実施例によれば、「モジュール」又は「部」はプロセッサ及びメモリで具現化され得る。「プロセッサ」は汎用プロセッサ、中央処理装置(CPU)、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、制御器、マイクロ制御器、状態マシンなどを含むように広く解釈されるべきである。いくつかの環境では、「プロセッサ」は特定用途向け半導体(ASIC)、プログラム可能なロジックデバイス(PLD)、フィールドプログラム可能なゲートアレイ(FPGA)等を指すこともできる。「プロセッサ」は、例えば、DSPとマイクロプロセッサの組合せ、複数のマイクロプロセッサの組合せ、DSPコアと結合した一つ以上のマイクロプロセッサの組合せ、若しくは、任意の他のそのような構成等の組合せのような処理デバイスの組合せを指すこともできる。また、「メモリ」は電子情報を保存可能な任意の電子コンポーネントを含むように広く解釈されるべきである。「メモリ」は、RAM(Random Access Memory)、ROM(Read Only Memory)、NVRAM(Non-Volatile Random Access Memory)、PROM(Programmable Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Reda-Only Memory)、フラッシュメモリ、磁気又は光学データ保存装置、レジスタなどのようなプロセッサ-読み取り可能な媒体の多様な類型を指すこともできる。プロセッサがメモリから情報を読み取り/読み取ったりメモリに情報を記録できる場合、メモリはプロセッサと電子通信状態にあると言われる。プロセッサに集積されたメモリはプロセッサと電子通信状態にある。
【0041】
本開示において、「システム」は、サーバ装置及びクラウド装置の少なくとも一つを含むことのできるが、これに限定されるものではない。例えば、システムは、一つ以上のサーバ装置からなることができる。他の例として、システムは、一つ以上のクラウド装置からなることができる。また他の例として、システムは、サーバ装置及びクラウド装置の全部からなって動作されることもできる。
【0042】
また、以下の実施例等で使用される第1、第2、A、B、(a)、(b)などのような用語は、ある構成要素を他の構成要素と区別するために使用されるだけであり、その用語により当該構成要素の本質や順序などが限定されるものではない。
【0043】
また、以下の実施例等において、ある構成要素が他の構成要素に「連結」、「結合」又は「接続」されると記載された場合、その構成要素は、他の構成要素に直接的に連結又は接続され得るが、各構成要素間にまた他の構成要素が「連結」、「結合」又は「接続」されることもできると理解しなければならない。
【0044】
本開示において、「複数のAの各々」は、複数のAに含まれた全ての構成要素の各々を示したり、複数のAに含まれた一部の構成要素の各々を示したりできる。
【0045】
また、以下の実施例等で使用される「含む(comprises)」及び/又は「含む(comprising)」は、言及された構成要素、ステップ、動作及び/又は素子は一つ以上の他の構成要素、ステップ、動作及び/又は素子の存在又は追加を排除しない。
【0046】
本開示の多様な実施例を説明するに先立ち、使用される用語について説明する。
【0047】
本開示の実施例において、「感情状態」は、ユーザの感情と関連した状態情報であって、例えば、喜び、楽しみ、憂うつ、幸せ、怒り、悲しみ等を含むことができる。また、各々の感情状態は互いに異なる視覚化情報と関連する。例えば、第1の感情状態は第1の視覚化情報と関連し、第2の感情状態は第2の視覚化情報と関連する。
【0048】
本開示の実施例において、「視覚化情報」は、グラフィック要素を含んで画面に表示される情報であり得る。例えば、視覚化情報は、特定の色相を有するグラフィック要素、エモティコンなどのようなグラフィックオブジェクト、アニメーション形態で出力されるグラフィックオブジェクトなどを含むことができる。視覚化情報はトークルーム内の所定の領域に表示され得る。ここで、所定の領域は視覚化情報が表示される領域であって、ピクセル範囲に予め設定され得る。例えば、所定の領域はプロフィールが出力される領域と関連する。
【0049】
本開示の実施例において、「メンション(mention)メッセージ」は、同じトークルームに属する他のユーザを指定するチャットメッセージであり得る。例えば、メンションメッセージは、タグ(例えば、@)と、インスタントメッセージングアプリケーションに加入したユーザ名とを組み合わせて、当該ユーザを指定するチャットメッセージであり得る。
【0050】
本開示の実施例において、「応答メッセージ」は、特定のチャットメッセージに対する応答メッセージであり得る。例えば、トークルームに第1のチャットメッセージが含まれた状態において、第1のチャットメッセージに対する応答として第2のチャットメッセージがトークルームに入力される場合、第2のチャットメッセージが第1のチャットメッセージに対する応答メッセージとして作用し得る。
【0051】
本開示の実施例において、「個人トークルーム」は、2人のユーザが属する1:1トークルームであり得る。
【0052】
本開示の実施例において、「グループトークルーム」は3人以上のユーザが属するトークルームであり得る。
【0053】
以下、本開示の多様な実施例について、添付図面に基づいて詳細に説明する。
【0054】
図1は、本開示の一実施例に係る感情状態が表示されたグループトークルームの画面120に対する例を示す図である。一実施例によれば、ユーザ端末110は、インスタントメッセージングアプリケーションを介してチャットメッセージをやりとりする中で、ユーザ(James)に対するチャット相手(Brown、Sally及びCony)の感情状態と関連した視覚化情報132、142、152をトークルームに表示できる。
【0055】
各々のチャット相手の感情状態は、グループトークルームAに含まれたチャットメッセージ130、140、150に基づいて決定できる。
図1のグループトークルームの画面120に示すように、チャット相手(Brown、Sally及びCony)別のチャットメッセージ130、140、150に基づいて、ユーザ(James)に対する各チャット相手(Brown、Sally及びCony)の感情状態を決定できる。例えば、Brownのチャットメッセージ130に含まれた「気持ちのいい」というキーワードに基づいて、Brownの感情状態が「楽しみ」として決定され、「楽しみ」と関連した第1の視覚化情報132をトークルームに表示できる。他の例として、Sallyのチャットメッセージ140に含まれた「幸せだよ」というキーワードに基づいて、Sallyの感情状態が「幸せ」として決定され、「幸せ」と関連した第2の視覚化情報142をトークルームに表示できる。また他の例として、Conyのチャットメッセージ150に含まれた「憂うつだな」というキーワードに基づいて、Conyの感情状態が「憂うつ」として決定され、「憂うつ」と関連した第3の視覚化情報152をトークルームに表示できる。ここで、「@James」は、Conyにより作成されたチャットメッセージ150がJamesを指定したメンションメッセージであり得る。
【0056】
各々の視覚化情報132、142、152は、当該ユーザのプロフィールに関連付けて表示できる。例えば、各々の視覚化情報132、142、152は、当該ユーザのプロフィール写真のサムネイルの右側下部に表示できる。代替的に、各々の視覚化情報132、142、152は、プロフィールの以外の他の領域に表示できる。
【0057】
付加的又は代替的に、チャット相手等の各々の感情状態は、個人トークルームに含まれたチャットメッセージに基づいて決定できる。ここで、個人トークルームは、ユーザ及び1人のチャット相手が属するトークルームであり得る。一実施例によれば、特定のチャット相手が、個人トークルーム及びグループトークルームに全部属する場合、ユーザ端末110は、個人トークルームに含まれたチャットメッセージ、及びグループトークルームに含まれたチャットメッセージに基づいて、ユーザに対する特定のチャット相手の感情状態を決定できる。また、ユーザ端末110は、個人トークルームに含まれたチャットメッセージ、及びグループトークルームに含まれたチャットメッセージに基づいて、特定のチャット相手に対するユーザの感情状態を決定できる。
【0058】
かかる構成により、ユーザが別に操作することなく、チャット相手の感情状態を決定でき、感情状態と関連した視覚化情報をトークルームに表示できる。これにより、ユーザは、直観的にチャット相手のユーザに対する感情状態を把握できる。
【0059】
図2は、本開示の一実施例に係る情報処理システム230が複数のユーザ端末210_1、210_2、210_3と通信可能であるように接続された構成を示す概要図である。図に示すように、複数のユーザ端末210_1、210_2、210_3は、ネットワーク220を介して、インスタントメッセージングサービスを提供できる情報処理システム230と接続され得る。ここで、複数のユーザ端末210_1、210_2、210_3は、インスタントメッセージングサービスが提供されるユーザの端末を含むことができる。
【0060】
一実施例において、情報処理システム230は、インスタントメッセージングサービスの提供などと関連したコンピュータ実行可能なプログラム(例えば、ダウンロード可能なアプリケーション)や、データを保存、提供及び実行できる一つ以上のサーバ装置及び/又はデータベースや、クラウドコンピューティング(cloud computing)サービス基盤の一つ以上の分散コンピューティング装置及び/又は分散データベースを含むことができる。
【0061】
情報処理システム230により提供されるインスタントメッセージングサービスは、複数のユーザ端末210_1、210_2、210_3の各々に設置されたインスタントメッセージングアプリケーションなどを介してユーザに提供される。例えば、情報処理システム230は、インスタントメッセージングアプリケーションなどを介して、ユーザ端末210_1、210_2、210_3から受信される指定の目標(すなわち、チャット相手の端末)に転送できる。また、情報処理システム230は、ユーザとチャット相手別の感情状態を含む感情関係情報(
図8を参照)を保存して管理できる。
【0062】
複数のユーザ端末210_1、210_2、210_3は、ネットワーク220を介して情報処理システム230と通信できる。ネットワーク220は、複数のユーザ端末210_1、210_2、210_3及び情報処理システム230間の通信が可能であるように構成できる。ネットワーク220は、設置環境に応じて、例えば、イーサネット(Ethernet)(登録商標)、PLC(Power Line Communication)、電話線通信装置及びRS-serial通信などのような有線ネットワーク、移動通信網、WLAN(Wireless LAN)、Wi-Fi(登録商標)、Bluetooth(登録商標)及びZigBee(登録商標)などのような無線ネットワーク又はその組合せからなることができる。通信方式は制限されず、ネットワーク220を含むことができる通信網(例えば、移動通信網、有線インターネット、無線インターネット、放送網、衛星網など)を活用する通信方式だけでなく、ユーザ端末210_1、210_2、210_3間の近距離無線通信も含まれ得る。
【0063】
図2では、携帯電話端末210_1、タブレット端末210_2及びPC端末210_3をユーザ端末の例として示したが、これに限定されず、ユーザ端末210_1、210_2、210_3は、有線及び/又は無線通信が可能であり、インスタントメッセージングアプリケーション又はウェブブラウザ等がインストールされて実行できる任意のコンピューティング装置であり得る。例えば、ユーザ端末は、AIスピーカー、スマートフォン、携帯電話、ナビゲーション、デスクトップコンピュータ、ラップトップコンピュータ、デジタル放送用端末、PDA(Personal Digital Assistants)、PMP(Portable Multimedia Player)、タブレットPC、ゲームコンソール(game console)、ウェアラブルデバイス(wearable device)、IoT(internet of things)デバイス、VR(virtual reality)デバイス、AR(augmented reality)デバイス、セットトップボックスなどを含むことができる。また、
図2では、3つのユーザ端末210_1、210_2、210_3がネットワーク220を介して情報処理システム230と通信するものを示したが、これに限定されず、異なる数のユーザ端末がネットワーク220を介して情報処理システム230と通信するように構成されることもできる。
【0064】
一実施例において、情報処理システム230は、チャット相手別の感情状態を含む感情関係情報を保存して管理できる。情報処理システム230は、ユーザ端末210_1、210_2、210_3から当該ユーザの感情関係情報を受信できる。ここで、感情関係情報には、多様なユーザ間の双方向感情状態が含まれ得る。双方向感情状態は、ユーザがチャット相手に感じる第1の方向の感情状態と、チャット相手がユーザに感じる第2の方向の感情状態とを含むことができる。
【0065】
情報処理システム230は、特定のユーザ及び多数のチャット相手間の感情状態に基づいて、各々のユーザ間の双方向感情状態が含まれた感情状態情報を生成又は更新できる。情報処理システム230は、感情状態情報をユーザ端末210_1、210_2、210_3に提供できる。
【0066】
図3は、本開示の一実施例に係るユーザ端末210及び情報処理システム230の内部構成を示すブロック図である。ユーザ端末210は、インスタントメッセージングアプリケーションなどが実行可能であり、有線通信/無線通信が可能な任意のコンピューティング装置を指すことができ、例えば、
図2の携帯電話端末210_1、タブレット端末210_2及びラップトップコンピュータ端末210_3などを含むことができる。図に示すように、ユーザ端末210は、メモリ312、プロセッサ314、通信モジュール316及び入出力インタフェース318を含むことができる。同様に、情報処理システム230は、メモリ332、プロセッサ334、通信モジュール336及び入出力インタフェース338を含むことができる。
図3に示すように、ユーザ端末210及び情報処理システム230は、各々の通信モジュール316、336を用いて、ネットワーク220を介して情報及び/又はデータが通信できるように構成できる。また、入出力装置320は、入出力インタフェース318を介して、ユーザ端末210に情報及び/又はデータを入力したり、ユーザ端末210から生成された情報及び/又はデータを出力したりするように構成できる。
【0067】
メモリ312、332は、非一時的な任意のコンピュータ読み取り可能な記録媒体を含むことができる。一実施例によれば、メモリ312、332は、ROM(read only memory)、ディスクドライブ、SSD(solid state drive)及びフラッシュメモリ(flash memory)などのような永久的な大容量保存装置(permanent mass storage device)を含むことができる。他の例として、ROM、SSD、フラッシュメモリ及びディスクドライブなどのような永久的な大容量保存装置は、メモリとは区分される別の永久保存装置としてユーザ端末210又は情報処理システム230に含まれることができる。また、メモリ312、332には、オペレーティングシステムと少なくとも一つのプログラムコード(例えば、ユーザ端末210に設置されて駆動されるインスタントメッセージングアプリケーションなどのためのコード)が保存され得る。
【0068】
このようなソフトウェア構成要素は、メモリ312、332とは別のコンピュータ読み取り可能な記録媒体からローディングできる。このような別のコンピュータ読み取り可能な記録媒体は、このようなユーザ端末210及び情報処理システム230に直接接続可能な記録媒体を含むことができ、例えば、フロッピードライブ、ディスク、テープ、DVD/CD-ROMドライブ及びメモリカードなどのようなコンピュータ読み取り可能な記録媒体を含むことができる。他の例として、ソフトウェア構成要素等は、コンピュータ読取り可能な記録媒体でなく、通信モジュールを介してメモリ312、332にローディングされることもできる。例えば、少なくとも一つのプログラムは、開発者又はアプリケーションの設置ファイルを配信するファイル配信システムが、ネットワーク220を介して提供するファイルにより設置されるコンピュータプログラムに基づいてメモリ312、332にローディングされることができる。
【0069】
プロセッサ314、334は、基本的な算術、ロジック及び入出力演算を実行することで、コンピュータプログラムの命令を処理するように構成できる。命令は、メモリ312、332又は通信モジュール316、336により、プロセッサ314、334に提供され得る。例えば、プロセッサ314、334は、メモリ312、332のような記録装置に保存されたプログラムコードによって受信される命令を実行するように構成できる。
【0070】
通信モジュール316、336は、ネットワーク220を介して、ユーザ端末210と情報処理システム230とが互いに通信するための構成や機能が提供でき、ユーザ端末210及び/又は情報処理システム230が、他のユーザ端末又は他のシステム(例えば、別のクラウドシステムなど)と通信するための構成や機能が提供できる。一例として、ユーザ端末210のプロセッサ314がメモリ312などのような記録装置に保存されたプログラムコードによって生成した要求又はデータ(例えば、感情関係情報やチャットメッセージなど)は、通信モジュール316の制御により、ネットワーク220を介して情報処理システム230に伝送され得る。反対に、情報処理システム230のプロセッサ334の制御により提供される制御信号や命令が、通信モジュール336及びネットワーク220を経て、ユーザ端末210の通信モジュール316を介してユーザ端末210に受信され得る。例えば、ユーザ端末210は、情報処理システム230からチャットメッセージや感情関係情報などを受信できる。
【0071】
入出力インタフェース318は、入出力装置320とのインタフェースのための手段であり得る。一例として、入力装置はオーディオセンサー及び/又はイメージセンサーを含むカメラ、キーボード、マイクロホン、マウスなどのような装置を含み、出力装置はディスプレイ、スピーカー、ハプティック(触覚)フィードバックデバイス(haptic feedback device)などのような装置を含むことができる。他の例として、入出力インタフェース318は、タッチスクリーンなどのように入力及び出力を実行するための構成又は機能が一つで統合された装置とのインタフェースのための手段であり得る。例えば、ユーザ端末210のプロセッサ314がメモリ312にローディングされたコンピュータプログラムの命令を処理する際に、情報処理システム230や他のユーザ端末が提供する情報及び/又はデータを利用して構成されるサービス画面などが、入出力インタフェース318を介してディスプレイに表示され得る。
図3では、入出力装置320がユーザ端末210に含まれないように示したが、これに限定されず、ユーザ端末210と一体に構成することもできる。また、情報処理システム230の入出力インタフェース338は、情報処理システム230と接続するか、又は、情報処理システム230が含むことのできる入力や出力のための装置(図示せず)とのインタフェースのための手段であり得る。
図3では、入出力インタフェース318、338がプロセッサ314、334と別に構成される要素として示したが、これに限定されず、入出力インタフェース318、338がプロセッサ314、334に含まれるように構成することもできる。
【0072】
ユーザ端末210及び情報処理システム230は、
図3に示す構成要素よりも多くの構成要素を含むことができる。しかしながら、大部分の従来技術による構成要素を明確に示す必要はない。一実施例によれば、ユーザ端末210は、前述した入出力装置320の少なくとも一部を含むように具現化できる。また、ユーザ端末210は、トランシーバー(transceiver)、GPS(Global Positioning system)モジュール、カメラ、各種センサー及びデータベースなどのような他の構成要素をさらに含むことができる。例えば、ユーザ端末210がスマートフォンである場合、一般にスマートフォンが有する構成要素を含むことができ、例えば、加速度センサー、ジャイロセンサー、イメージセンサー、近接センサー、タッチセンサー、照度センサー、カメラモジュール、各種物理的なボタン、タッチパネルを用いたボタン、入出力ポート及び振動のための振動器などのような多様な構成要素がユーザ端末210にさらに含まれるように具現化できる。
【0073】
チャット相手の感情状態を表示する機能が提供できるインスタントメッセージングアプリケーションなどのためのプログラムが動作される際に、プロセッサ314は、入出力インタフェース318と接続されたタッチスクリーン、キーボード、オーディオセンサー及び/又はイメージセンサーを含むカメラ、マイクロホンなどのような入力装置により入力又は選択されたテキスト、イメージ、映像、音声及び/又は動作などが受信でき、受信されたテキスト、イメージ、映像、音声及び/又は動作などをメモリ312に保存したり、通信モジュール316及びネットワーク220を介して情報処理システム230に提供したりできる。例えば、プロセッサ314は、感情状態を含むトークルームが出力される際に、チャットメッセージの転送を要求するユーザの入力を受信して、通信モジュール316及びネットワーク220を介して、情報処理システム230に提供できる。
【0074】
ユーザ端末210のプロセッサ314は、入出力装置320、他のユーザ端末、情報処理システム230及び/又は複数の外部システムから受信された情報及び/又はデータを管理、処理及び/又は保存するように構成できる。プロセッサ314により処理された情報及び/又はデータは、通信モジュール316及びネットワーク220を介して情報処理システム230に提供できる。ユーザ端末210のプロセッサ314は、入出力インタフェース318を介して、入出力装置320に情報及び/又はデータを転送して出力できる。例えば、プロセッサ314は、受信した情報及び/又はデータをユーザ端末210の画面に表示できる。
【0075】
情報処理システム230のプロセッサ334は、複数のユーザ端末210及び/又は複数の外部システムから受信された情報及び/又はデータを管理、処理及び/又は保存するように構成できる。プロセッサ334により処理された情報及び/又はデータは、通信モジュール336及びネットワーク220を介してユーザ端末210に提供できる。
【0076】
図4は、本開示の一実施例に係るユーザ端末のプロセッサ314の内部構成を示すブロック図である。図に示すように、プロセッサ314は、メッセージ抽出部410、感情分析部420、及び感情状態出力部430を含むことができる。
【0077】
メッセージ抽出部410は、少なくとも一つのトークルームに含まれたチャットメッセージを抽出できる。一実施例によれば、メッセージ抽出部410は、個人トークルーム又はグループトークルームの少なくとも一つに含まれたチャット相手のチャットメッセージを抽出できる。例えば、メッセージ抽出部410は、第1のチャット相手が属する個人トークルーム、又は、第1のチャット相手が属するグループトークルームの少なくとも一つのトークルームに含まれたユーザ及び第1のチャット相手間のチャットメッセージを抽出できる。
【0078】
一実施例によれば、メッセージ抽出部410は、既定のn時間前の時刻から現在時刻まで発生するチャットメッセージを抽出できる。これにより、メッセージ抽出部410は、状況に応じて、複数個のチャットメッセージを抽出できる。一部の実施例によれば、メッセージ抽出部410は、最近に入力されたm(ここで、mは自然数)個のチャットメッセージをトークルームから抽出できる。メッセージ抽出部410から抽出されたチャットメッセージは、ユーザ又はチャット相手の感情状態を決定するのに用いられる。
【0079】
感情分析部420は、少なくとも一つのチャットメッセージを分析して、チャット相手に対するユーザの感情状態、及び/又はユーザに対するチャット相手の感情状態を決定できる。一実施例によれば、感情分析部420は、感情を分析するために、感情キーワードが記録された感情参照テーブルが用いられる。
【0080】
次の表1は、感情参照テーブルの例を示す図である。
【0081】
【0082】
表1に示すように、各々の感情と関連したキーワードが感情参照テーブルに記録され、また、各々の感情と関連したエモティコンの識別情報が感情参照テーブルに記録され得る。
【0083】
一実施例によれば、感情分析部420は、チャットメッセージに含まれたテキストと、感情参照テーブルに含まれたキーワードとを比較して、チャットメッセージに含まれた感情別キーワードの回数を算出できる。また、感情分析部420は、チャットメッセージに含まれたエモティコンと、感情参照テーブルに含まれたエモティコンとを比較して、チャットメッセージに含まれた感情別エモティコンの回数を算出できる。感情分析部420は、感情別キーワードの回数及びエモティコンの回数に基づいて、感情状態を決定できる。感情分析部420は、キーワードの回数及びエモティコンの回数の各々に同一又は互いに異なる加重値を適用し、加重値が適用された回数を合算した後、合算された回数のうちで最多の回数を有する感情を、ユーザ又はチャット相手の感情状態として決定できる。代替的に、感情分析部420は、感情参照テーブルを使用せず、機械学習モデルを利用してチャットメッセージに基づいた感情状態を決定できる。
【0084】
一実施例によれば、感情分析部420は、ユーザ及びチャット相手が属する個人トークルーム/グループトークルームから抽出したチャットメッセージのうちで、ユーザにより作成された少なくとも一つのチャットメッセージを第1のチャットメッセージグループとして設定し、チャット相手により作成された少なくとも一つのチャットメッセージを第2のチャットメッセージグループとして設定できる。このとき、感情分析部420は、第1のチャットメッセージグループに含まれたテキスト/エモティコンと、感情参照テーブルに含まれたキーワード/エモティコンとを比較して、第1のグループに対する感情別キーワード/エモティコンの回数を算出した後、算出されたキーワード/エモティコンの回数に基づいて、チャット相手に対するユーザの感情状態を決定できる。また、感情分析部420は、第2のチャットメッセージグループに含まれたテキスト/エモティコンと、感情参照テーブルに含まれたキーワード/エモティコンとを比較して、第2のグループに対する感情別キーワード/エモティコンの回数を算出した後、算出されたキーワード/エモティコンの回数に基づいて、ユーザに対するチャット相手の感情状態を決定できる。
【0085】
一方、チャット相手が、グループトークルームに属し、個人トークルームにも属する場合があり得る。このとき、メッセージ抽出部410は、グループトークルームから、チャット相手及びユーザ間で送信された第1のセットのチャットメッセージを抽出できる。また、メッセージ抽出部410は、個人トークルームから、チャット相手及びユーザ間で送信された第2のセットのチャットメッセージを抽出できる。
【0086】
一実施例によれば、メッセージ抽出部410は、グループトークルームに含まれたチャットメッセージのうちで、ユーザが作成したチャットメッセージ、及びチャット相手が作成したチャットメッセージを抽出できる。また、メッセージ抽出部410は、抽出されたチャットメッセージのうちで、ユーザ及びチャット相手間で送信されるチャットメッセージを、第1のセットのチャットメッセージとして抽出できる。このとき、メッセージ抽出部410は、抽出されたチャットメッセージのうちで、ユーザ又はチャット相手の名前が記録されたメッセージ、ユーザ/チャット相手に対するメンションメッセージ、及びユーザ/チャット相手に対する応答メッセージを、第1のセットのチャットメッセージとして抽出できる。
【0087】
一実施例において、感情分析部420は、グループトークルームから抽出された第1のセットのチャットメッセージに基づいて、チャット相手に対するユーザの感情状態及び/又はユーザに対するチャット相手の感情状態を決定できる。また、感情分析部420は、個人トークルームから抽出された第2のセットのチャットメッセージに基づいて、チャット相手に対するユーザの感情状態、及び/又はユーザに対するチャット相手の感情状態を決定できる。
【0088】
一実施例において、感情分析部420は、第1のセットのチャットメッセージに基づいて決定された第1の感情状態と、第2のセットのチャットメッセージに基づいて決定された第2の感情状態とが、一致するか否かを判定でき、一致する場合、一致する感情状態をユーザ及び/又はチャット相手の感情状態として決定できる。これに対し、第1の感情状態と第2の感情状態とが不一致の場合、感情分析部420は、優先順位が高い感情状態をユーザ又はチャット相手の感情状態として決定できる。個人トークルームの感情状態又はグループトークルームの感情状態のうちで、どのような優先順位とするかはユーザによって設定できる。代替的に、感情分析部420は、第1の感情状態に第1の加重値を適用し、第2の感情状態に第2の加重値を適用して、最終の感情状態を決定できる。ここで、第2の加重値が第1の加重値よりも大きいため、個人トークルームでの感情にさらに高い加重値が適用され得る。
【0089】
一部の実施例において、感情分析部420は、第1のセットのチャットメッセージに基づいて算出された感情別回数と、第2のセットのチャットメッセージに基づいて算出された感情別回数との各々に互いに異なる加重値を適用し、各々の加重値が適用されて合算された各感情別回数のうちで、最多の回数を有する感情をユーザ又はチャット相手の感情状態として決定できる。例えば、第1のセットのチャットメッセージに基づいて算出された感情別回数に第1の加重値が適用され、第2のセットのチャットメッセージに基づいて算出された感情別回数に第2の加重値が適用され得る。このとき、第2の加重値が第1の加重値よりも大きいため、個人トークルームでの感情にさらに高い加重値が適用され得る。
【0090】
一実施例によれば、感情分析部420は、一定の周期間隔又はリアルタイムで、ユーザ及び/又はチャット相手の感情状態を決定できる。ここで、リアルタイムで感情状態を決定するとは、ユーザ又はチャット相手によって新規のメッセージが作成されるのをトリガー(trigger)として、ユーザ又はチャット相手に対する感情状態を再分析することを意味する。以前の感情状態及び現在の感情状態が異なる場合、ユーザ又はチャット相手の感情状態を現在の感情状態に更新できる。更新された感情状態は、感情状態出力部430によりトークルームに出力され得る。一部の実施例において、感情分析部420は、ユーザ及びチャット相手間の双方向感情状態を外部装置(例えば、情報処理システム)に転送できる。
【0091】
リアルタイムで感情状態が決定される代わりに、一定の周期間隔で感情状態が決定されるように設定された場合、感情状態の決定周期は、時間又は新規のチャットメッセージの発生回数に基づいて決定できる。例えば、感情分析部420は、既定の時間(例えば、一日又はn時間)の間に、ユーザ及び/又はチャット相手により作成された少なくとも一つのチャットメッセージに基づいて、チャット相手に対するユーザの感情状態、及び/又はユーザに対するチャット相手の感情状態を決定できる。他の例として、ユーザ及び/又はチャット相手により作成された新規のチャットメッセージが既定の個数だけ蓄積される場合、蓄積された新規のチャットメッセージに基づいて、チャット相手に対するユーザの感情状態、及び/又はユーザに対するチャット相手の感情状態を決定できる。すなわち、既定の個数以上のチャットメッセージがユーザ及びチャット相手間に発生した時点に、感情状態を決定するためのプロセスを実行できる。
【0092】
一定の周期間隔又はリアルタイムで実行して決定された、チャット相手に対するユーザの感情状態(又は、ユーザに対するチャット相手の感情状態)は、以前の感情状態と異なることができる。このとき、感情状態が更新され、その更新された感情状態が感情状態出力部430によってトークルームに出力され得る。更新された感情状態は、当該周期に出力されたユーザのプロフィール(又は、チャット相手のプロフィール)に関連付けて出力され得る。
【0093】
例えば、第1の周期の間に抽出された少なくとも一つのチャットメッセージに基づいて、ユーザに対するチャット相手の感情状態が第1の感情状態として決定された状態から、第2の周期の間に抽出された少なくとも一つのチャットメッセージに基づいて、ユーザに対するチャット相手の感情状態が第2の感情状態に変更された場合を仮定し得る。このとき、感情状態出力部430は、第1の周期の間に出力されたチャット相手のプロフィールに関連付けて第1の感情状態を示す視覚化情報を出力し、第2の周期の間に出力されたチャット相手のプロフィールに関連付けて第2の感情状態を示す視覚化情報を出力できる。
図1及び
図5乃至
図7に示すように、ユーザのプロフィールはチャットメッセージと一緒にトークルームに出力でき、感情状態出力部430は、特定の周期に決定されたチャット相手(又はユーザ)の感情状態を示す視覚化情報を、特定の周期に出力されたチャット相手のプロフィール(又はユーザのプロフィール)に関連付けて出力できる。このように各周期のプロフィールに関連付けて感情状態が出力された場合、ユーザ及び/又はチャット相手の感情状態の変化推移を確認できる。
【0094】
感情状態出力部430は、ユーザ及び/又はチャット相手の感情状態をトークルームに出力できる。一実施例によれば、感情状態出力部430は、ユーザの感情状態と関連した第1の視覚化情報を取得し、第1の視覚化情報をトークルームに出力できる。このとき、感情状態出力部430は、ユーザのプロフィールに関連付けて第1の視覚化情報を表示できる。ここで、プロフィールに関連付けて第1の視覚化情報が表示されるとは、プロフィール(又は、プロフィール写真のサムネイル)の内部又はプロフィールの周辺の少なくとも一箇所に第1の視覚化情報が表示されることを意味する。また、感情状態出力部430は、チャット相手の感情状態と関連した第2の視覚化情報を取得し、第2の視覚化情報をトークルームに出力できる。このとき、感情状態出力部430は、チャット相手のプロフィールに関連付けて第2の視覚化情報を表示できる。
【0095】
一実施例によれば、感情状態出力部430は、感情関係情報の要求入力を受信し、これに対する応答として、チャット相手等及びユーザ間の双方向感情状態を含む感情関係情報(
図8を参照)を出力できる。感情関係情報が出力される具体例は、
図8を参照して後述する。
【0096】
図5は、感情状態512、522を含む個人トークルームの画面500の一例を示す図である。
図5では、ユーザ及びチャット相手(Brown)が属する個人トークルームの画面500を示す。
図5に示すように、チャット相手のBrownが作成したチャットメッセージ510において、怒り(anger)と関連したキーワードである「頭にくる」が含まれることで、ユーザに対するBrownの感情状態が「怒り(anger)」として決定され、「怒り(anger)」と関連した視覚化情報512をBrownのプロフィールに関連付けて表示できる。
【0097】
また、ユーザが作成したチャットメッセージ520において、怒り(anger)と関連したキーワードである「腹が立つよ」が含まれることで、チャット相手のBrownに対するユーザの感情状態が「怒り(anger)」として決定され、「怒り(anger)」と関連した視覚化情報522をユーザのプロフィールに関連付けて表示できる。
【0098】
図5では、ユーザ及びチャット相手の感情状態が各々一つのメッセージに基づいて決定されるものを示したが、これに限定されるものではない。例えば、チャット相手(Brown)のユーザに対する感情状態は、ユーザ及びチャット相手(Brown)が属する個人トークルームにおいてチャット相手(Brown)が入力した複数のチャットメッセージ、及び/又は、ユーザ及びチャット相手(Brown)が一緒に属する少なくとも一つのグループトークルームにおいてチャット相手(Brown)がユーザを対象として作成した複数のチャットメッセージに基づいて決定できる。同様に、ユーザのチャット相手(Brown)に対する感情状態は、ユーザ及びチャット相手(Brown)が属する個人トークルームにおいてユーザが入力した複数のチャットメッセージ、及び/又は、ユーザ及びチャット相手(Brown)が一緒に属する少なくとも一つのグループトークルームにおいてユーザがチャット相手(Brown)を対象として作成した複数のチャットメッセージに基づいて決定できる。
【0099】
図6は、感情状態が表示される個人トークルームの画面600の他の例を示す図である。
図6では、ユーザ及びチャット相手(Sally)が属する個人トークルームの画面600を示す。
図6に示すように、チャット相手のSallyが作成したチャットメッセージ610において、幸せと関連したキーワードである「幸せだよ」が含まれることで、ユーザに対するSallyの感情状態が「幸せ」として決定され、「幸せ」と関連した視覚化情報612をSallyのプロフィールに関連付けて表示できる。
【0100】
また、ユーザが作成したチャットメッセージ620において、幸せと関連したキーワードである「幸せだ」が含まれることで、チャット相手のSallyに対するユーザの感情状態が「幸せ」として決定され、「幸せ」と関連した視覚化情報622をユーザのプロフィールに関連付けて表示できる。
【0101】
図7は、感情状態が表示されるグループトークルームの画面700の一例を示す図である。
図7に示すように、複数のチャット相手及びユーザがグループトークルームBに属する。グループトークルームの画面700には、各々のチャット相手の感情状態710、720、730、740、770、及びユーザの感情状態750、760が表示され得る。
【0102】
図7に示すように、第1のチャット相手のBrownがグループトークルームBで作成したチャットメッセージである「こんにちは」では、感情と関連したキーワードを抽出できない場合もあり得る。このとき、Brown及びユーザが属する個人トークルーム(例えば、
図5のトークルーム)に含まれたチャットメッセージに基づいて、ユーザに対するBrownの感情状態(例えば、怒り)が決定され、ユーザに対するBrownの感情状態(例えば、怒り)と関連した視覚化情報710をBrownのプロフィールに関連付けて表示できる。ユーザに対するBrownの感情状態は、ユーザ及びBrownが属する個人トークルームにおいてBrownが入力したチャットメッセージ、及び/又は、ユーザ及びBrownが一緒に属する少なくとも一つのグループトークルーム(グループトークルームBを含む)においてBrownがユーザを対象として作成したチャットメッセージに基づいて決定できる。例えば、ユーザ及びBrownが属する個人トークルーム及び/又はグループトークルームから算出された感情関連キーワード/エモティコンの回数が、ユーザに対するBrownの感情状態を決定するのに用いられる。ここで、キーワード/エモティコンの回数は、Brownがユーザを対象として作成した少なくとも一つのチャットメッセージに基づいて算出できる。
【0103】
また、第2のチャット相手のSallyがグループトークルームBで作成したチャットメッセージでは、幸せと関連したキーワードとして「幸せだよ」が抽出されることで、ユーザに対するSallyの感情状態を「幸せ」として決定できる。また、ユーザに対するSallyの感情状態(すなわち、幸せ)と関連した視覚化情報720をSallyのプロフィールに関連付けて表示できる。ユーザに対するSallyの感情状態は、ユーザ及びSallyが属する個人トークルームにおいてSallyが入力したチャットメッセージ、及び/又は、ユーザ及びSallyが一緒に属する少なくとも一つのグループトークルーム(グループトークルームBを含む)においてSallyがユーザを対象として作成したチャットメッセージに基づいて決定できる。例えば、ユーザ及びSallyが属する個人トークルーム及び/又はグループトークルームから算出された感情関連キーワード/エモティコンの回数が、ユーザに対するSallyの感情状態を決定するのに用いられる。ここで、キーワード/エモティコンの回数は、Sallyがユーザを対象として作成した少なくとも一つのチャットメッセージに基づいて算出できる。
【0104】
第3のチャット相手のConyがグループトークルームBで作成したチャットメッセージでは、感情と関連したキーワードとして「憂うつだな」が抽出されることで、ユーザに対するConyの感情状態を「憂うつ」として決定できる。また、ユーザに対するConyの感情状態(すなわち、憂うつ)と関連した視覚化情報730をConyのプロフィールに関連付けて表示できる。ユーザに対するConyの感情状態は、ユーザ及びConyが属する個人トークルームにおいてConyが入力したチャットメッセージ、及び/又は、ユーザ及びConyが一緒に属する少なくとも一つのグループトークルーム(グループトークルームBを含む)においてConyがユーザを対象として作成したチャットメッセージに基づいて決定できる。例えば、ユーザ及びConyが属する個人トークルーム及び/又はグループトークルームから算出された感情関連キーワード/エモティコンの回数が、ユーザに対するConyの感情状態を決定するのに用いられる。ここで、キーワード/エモティコンの回数は、Conyがユーザを対象として作成した少なくとも一つのチャットメッセージに基づいて算出できる。
【0105】
第4のチャット相手のChocoがグループトークルームBで作成したチャットメッセージ(「こんにちは」)では、感情と関連したキーワードを抽出できない場合があり得る。また、Choco及びユーザが属する個人トークルームが開設されていないか、又は、Choco及びユーザが属する個人トークルームは開設されているが、この個人トークルームから感情と関連したキーワード及びエモティコンを抽出できない場合もあり得る。このとき、Chocoの感情状態は、「感情なし」として決定され、「感情なし」と関連した視覚化情報740をChocoのプロフィールに関連付けて表示できる。ここで、「感情なし」と関連した視覚化情報740は、無表情と関連したグラフィック要素を含むことができる。代替的に、Chocoの場合、視覚化情報740を表示しなくてもよい。
【0106】
ユーザもグループトークルームBにチャットメッセージ(「こんにちは」)を入力できる。
図7に示すように、グループトークルームBに入力されたユーザのチャットメッセージ(「こんにちは」)はチャット相手が特定されず、また、チャットメッセージ(「こんにちは」)に感情と関連したキーワード及びエモティコンが含まれていないので、「こんにちは」のチャットメッセージを入力した時点でのユーザの感情状態は、「感情なし」として決定できる。これにより、「こんにちは」のチャットメッセージが入力された時点に、「感情なし」と関連した視覚化情報750をユーザプロフィールに関連付けて表示できる。代替的に、視覚化情報750を表示しなくてもよい。
【0107】
図7に示すように、ユーザは、Sallyが作成したチャットメッセージに対する応答メッセージ762を作成できる。応答メッセージは、ユーザがSallyをチャット相手として特定したものであるから、Sally及びユーザが属する個人トークルーム(例えば、
図6のトークルーム)でのユーザの感情状態に基づいて、Sallyに対するユーザの感情状態を決定できる。このとき、応答メッセージから感情関連キーワード/エモティコンが抽出される場合、感情関連キーワード/エモティコン、及び個人トークルームから抽出されたユーザの感情状態も一緒に使用して、Sallyに対するユーザの感情状態を決定できる。
【0108】
図7では、Sallyに対するユーザの感情状態が「幸せ」として決定され、「幸せ」と関連した視覚化情報760をユーザのプロフィールに関連付けて表示するものを示す。図面符号750及び760を比較すると、ユーザの感情状態と関連した視覚化情報が変更されることが分かる。すなわち、グループトークルームにおいて指定又は応答されるチャット相手が変更される場合、このチャット相手と関連した感情状態に基づいて、ユーザのプロフィールに関連付けた感情状態も変更され得る。
【0109】
一方、チャット相手が追加のチャットメッセージを入力できる。
図7に示すように、第4のチャット相手のChocoは、ジェームズ(James)を指定するメンションメッセージ772を作成できる。ここで、ジェームズ(James)はユーザ名であり得る。当該メンションメッセージ772には、感情関連キーワードである「腹が立つ」が含まれることで、ユーザに対するChocoの感情状態を「怒り(anger)」として決定できる。これにより、メンションメッセージ772が作成された時点に、「怒り(anger)」と関連した視覚化情報770をChocoのプロフィールに関連付けて表示できる。
【0110】
一実施例によれば、メンションメッセージと関連したタグ(例えば、@)がチャットメッセージに含まれていなくても、チャットメッセージに特定のユーザ名が含まれる場合、ユーザ端末は、当該チャットメッセージが特定のユーザを指定したメンションメッセージであると判定できる。例えば、Chocoが「どうしてジェームズ?マジで腹が立つ」のようなチャットメッセージを入力した場合、このチャットメッセージにメンションメッセージと関連したタグ(例えば、@)が含まれていなくても、「ジェームズ」というユーザ名が含まれているので、ユーザ端末は、当該チャットメッセージがジェームズを指定するメンションメッセージであると判定できる。また、チャットメッセージから感情関連キーワードである「腹が立つ」が含まれることで、ユーザに対するChocoの感情状態を「怒り(anger)」として決定できる。
【0111】
図面符号740及び770に示すように、Chocoの感情状態は、「感情なし」から「怒り(anger)」に変更されていることを直観的に認知できる。チャット相手等及びユーザ間に新規のチャットメッセージが送受信される場合、ユーザの感情状態も変更されることができ、チャット相手等の各々の感情状態も変更されることができる。感情状態が変更される場合、これと関連した視覚化情報をプロフィールに関連付けて出力できる。
【0112】
一部の実施例において、代表トークルームを設定できる。ここで、代表トークルームは、感情状態を代表するトークルームであることが分かる。代表トークルームはユーザによって設定できる。代表トークルームが設定された場合、代表トークルームに含まれたチャットメッセージに基づいてユーザの感情状態が決定され、決定されたユーザの感情状態を他のトークルームに転送できる。すなわち、代表トークルームでのユーザの感情状態が「幸せ」である場合、他のトークルームでもユーザの感情状態が「幸せ」として決定され、代表トークルーム及び他のトークルームにおいて、全部、幸せと関連した視覚化情報を表示できる。
【0113】
一方、グループトークルームには、感情関係情報と関連したメニュー/アイコン780が含まれ得る。ユーザが当該メニュー/アイコン780をタッチ又はクリックする場合、グループトークルームに属する全てのユーザ間の双方向感情状態を含む感情関係情報が出力できる。これについては、
図8で後述する。
【0114】
図8は、本開示の一実施例に係る感情関係情報800の例を示す図である。グループトークルームに含まれた感情関係情報と関連したメニュー/アイコンがタッチ又は選択される場合、
図8に示す感情関係情報800を出力できる。
図8に示すように、感情関係情報800は、ユーザが直観的に確認できるように、感情状態と関連した視覚化情報812~828を含むことができる。
【0115】
図8に示すように、ユーザ(私)を基準として、グループトークルームに属する多数のチャット相手間の双方向感情状態が感情関係情報800に含まれる。ユーザ及びBrown間の双方向感情状態の場合、ユーザがBrownに対して感じる感情状態は「怒り(812)」であり、Brownもユーザに対して感じる感情状態は「怒り(822)」であることを示す。また、ユーザ及びSally間の双方向感情状態の場合、ユーザがSallyに対して感じる感情状態は「幸せ(814)」であり、Sallyもユーザに対して感じる感情状態は「幸せ(824)」であることを示す。
【0116】
ユーザ及びCony間の双方向感情状態の場合、ユーザがConyに対して感じる感情状態は「感情なし(816)」であり、Conyがユーザに対して感じる感情状態は「憂うつ(826)」であることを示す。ユーザ及びChoco間の双方向感情状態の場合、ユーザがChocoに対して感じる感情状態は「幸せ(818)」であり、Chocoがユーザに対して感じる感情状態は「感情なし(828)」であることを示す。
【0117】
このような感情関係情報はユーザ端末に保存できる。一部の実施例において、感情関係情報の少なくとも一部は、外部装置(例えば、情報処理システム)から受信できる。例えば、ユーザ端末は、ユーザから感情関係情報の出力要求を受信すると、外部装置に感情関係情報を要求し、これに応じて外部装置から感情関係情報の少なくとも一部を受信できる。
【0118】
一部の実施例において、多数のチャット相手間の双方向感情状態を感情関係情報に含んで出力できる。すなわち、
図8に示すように、チャット相手等及びユーザ間の感情状態だけでなく、Sally、Cony、Chocoの各々に対するBrownの感情状態と、Brown、Cony、Chocoの各々に対するSallyの感情状態と、Brown、Sally、Chocoの各々に対するConyの感情状態と、Brown、Sally、Conyの各々に対するChocoの感情状態とが、感情関係情報にさらに含まれ得る。多数のチャット相手間の双方向感情状態は外部装置から受信できる。
【0119】
図9は、本開示の一実施例に係るチャット相手に対する感情状態表示方法900を説明するためのフローチャートである。
図9に示す方法は、本開示の目的を達成するための一実施例に過ぎず、必要によって一部のステップが追加又は削除され得ることは勿論である。また、
図9に示す方法は、
図2に示すユーザ端末に含まれた少なくとも一つのプロセッサにより実行できる。説明の便宜のために、
図2に示すユーザ端末に含まれたプロセッサにより、
図9に示す各ステップが実行されるものとして説明する。
【0120】
プロセッサは、第1のユーザ及び第2のユーザ間で送信された少なくとも一つのチャットメッセージを取得できる(S910)。一実施例によれば、プロセッサは、第1のユーザ及び第2のユーザが属するグループトークルーム及び/又は個人トークルームから、既定の時間の間に発生したチャットメッセージを取得できる。
【0121】
その後、プロセッサは、取得されたチャットメッセージに基づいて、第1のユーザに対する第2のユーザの感情状態を決定できる(S920)。一実施例によれば、プロセッサは、取得されたチャットメッセージのうちで、第2のユーザにより作成されたチャットメッセージに基づいて、第1のユーザに対する第2のユーザの感情状態を決定できる。一実施例において、プロセッサは、取得されたチャットメッセージから感情と関連した少なくとも一つのキーワード及び/又はエモティコンを抽出し、抽出された少なくとも一つのキーワード及び/エモティコンに基づいて、第1のユーザに対する第2のユーザの感情状態を決定できる。
【0122】
続いて、プロセッサは、決定された感情状態と関連した第1の視覚化情報を取得し、取得された第1の視覚化情報をトークルームに表示できる(S930)。
【0123】
付加的又は代替的に、プロセッサは、取得されたチャットメッセージに基づいて、第2のユーザに対する第1のユーザの感情状態を決定し、決定された感情状態と関連した第2の視覚化情報をトークルームに表示できる。このとき、プロセッサは、第1のユーザの感情状態が表示される所定の領域に、第2の視覚化情報を表示できる。一実施例によれば、プロセッサは、取得されたチャットメッセージのうちで、第1のユーザにより作成されたチャットメッセージに基づいて、第2のユーザに対する第1のユーザの感情状態を決定できる。
【0124】
プロセッサは、第1のユーザ、第2のユーザ及び第3のユーザが属するトークルームから、第3のユーザを対象として作成された第1のユーザのチャットメッセージを検知できる。プロセッサは、トークルームから、第1のユーザが第3のユーザを指定するメンション(mention)メッセージを検知したり、第3のユーザのチャットメッセージに対する第1のユーザの応答メッセージを検知した場合、第3のユーザを対象として作成された第1のユーザのチャットメッセージを検知したと判定できる。このとき、プロセッサは、検知されたチャットメッセージに応じて、第3のユーザに対する第1のユーザの感情状態と関連した第3の視覚化情報をトークルームに表示できる。一実施例によれば、プロセッサは、第1のユーザの感情状態が表示される所定の領域(例えば、プロフィール関連領域)において、現在の視覚化情報(例えば、第2の視覚化情報)を第3の視覚化情報に変更できる。一実施例によれば、プロセッサは、トークルーム又は他のトークルームの少なくとも一つに含まれた第3のユーザ及び第1のユーザ間のチャットメッセージに基づいて、第3のユーザに対する第1のユーザの感情状態を決定できる。
【0125】
一方、第1のユーザ及び第2のユーザが属するトークルームは、グループトークルームであり得る。このとき、プロセッサは、第1のユーザ及び第2のユーザが一緒に属するグループトークルームに含まれた第2のユーザにより作成された第1のセットのチャットメッセージを取得し、第1のユーザ及び第2のユーザが属する個人トークルームに含まれた第2のセットのチャットメッセージを取得できる。ここで、第1のユーザに対する第2のユーザの感情状態は、第1のセットのチャットメッセージ及び第2のセットのチャットメッセージに基づいて決定できる。ここで、第1のセットのメッセージは、グループトークルームにおいて第2のユーザが第1のユーザを対象として作成したメッセージを含むことができる。
【0126】
一実施例において、プロセッサは、第1のセットのチャットメッセージに基づいて、第1の感情状態を決定し、第2のセットのチャットメッセージに基づいて、第2の感情状態を決定した後、第1の感情状態及び第2の感情状態に基づいて、第1のユーザに対する第2のユーザの感情状態を決定できる。このとき、プロセッサは、第1の感情状態及び第2の感情状態が同一であるか否かを判定し、第1の感情状態及び第2の感情状態が異なるという判定に応じて、第1の感情状態及び第2の感情状態のうちで優先順位が高い感情状態を、第1のユーザに対する第2のユーザの感情状態として決定できる。
【0127】
一部の実施例において、第1のユーザに対する第2のユーザの感情状態は、第1の感情状態に第1の加重値を適用し、第2の感情状態に第2の加重値を適用して決定できる。
【0128】
一実施例において、プロセッサは、グループトークルームに含まれた第1のユーザ及び第3のユーザ間の第3セットのチャットメッセージを取得し、第1のユーザ及び第3のユーザが属する個人トークルームに含まれた第4のセットのチャットメッセージを取得できる。また、プロセッサは、第3のセットのチャットメッセージ及び第4のセットのチャットメッセージに基づいて、第1のユーザに対する第3のユーザの感情状態を決定し、決定された第1のユーザに対する第3のユーザの感情状態と関連した第4の視覚化情報をグループトークルームに表示できる。
【0129】
一方、プロセッサは、グループトークルームに属する全てのユーザ間の感情関係情報を表示できる。ここで、感情関係情報は、第1のユーザに対する他のユーザ等の各々の感情状態と、他のユーザ等の各々に対する第1のユーザの感情状態とを含むことができる。一実施例によれば、プロセッサは、ユーザから感情関係情報の出力要求を受信する場合、感情関係情報の少なくとも一部を外部装置から取得できる。
【0130】
前述したフローチャート及び説明は、一つの例示に過ぎず、一部の実施例では異なるように具現化できる。例えば、一部の実施例では、各ステップの順序が変化したり、一部のステップが繰り返して実行されたり、一部のステップが省略されたり、一部のステップが追加されたりできる。
【0131】
前述した方法は、コンピュータで実行するために、コンピュータ読み取り可能な記録媒体に保存されたコンピュータプログラムとして提供され得る。媒体は、コンピュータで実行可能なプログラムを継続的に保存したり、実行又はダウンロードのために一時保存したりするものであり得る。また、媒体は、単一又は多数のハードウェアが結合された形態の多様な記録手段又は保存手段であり得るが、あるコンピュータシステムに直接接続される媒体に限定されず、ネットワーク上に分散して存在するものであり得る。媒体の例としては、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD-ROMやDVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical medium)、及び、ROM、RAM、フラッシュメモリなどを含み、プログラム命令語が保存されるように構成されたものが挙げられる。また、他の媒体の例としては、アプリケーションを流通するアプリストアやその他の多様なソフトウェアを供給乃至流通するサイト、サーバなどで管理する記録媒体乃至保存媒体も挙げられる。
【0132】
本開示の方法、動作又は技法は多様な手段により具現化できる。例えば、このような技法は、ハードウェア、ファームウェア、ソフトウェア、若しくはこれらの組合せで具現化できる。本願の開示により説明された多様な例示的な論理的ブロック、モジュール、回路及びアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、若しくは両方の組合せで具現化できることを、通常の技術者であれば理解できるはずである。ハードウェア及びソフトウェアのこのような相互の代替を明確に説明するために、多様な例示的な構成要素、ブロック、モジュール、回路及びステップが、それらの機能的観点から一般的に前述された。そのような機能が、ハードウェアとして具現化されるか、若しくは、ソフトウェアとして具現化されるかは、特定アプリケーション及び全体システムに付加される設計要求事項によって変化する。通常の技術者は、各々の特定アプリケーションのために多様な方式により説明された機能を具現化することもできるが、そのような具現化は本開示の範囲から逸脱するものと解釈してはならない。
【0133】
ハードウェアの具現化において、技法の実行に利用されるプロセッシングユニットは、一つ以上のASIC、DSP、デジタル信号処理デバイス(digital signal processing devices DSPD)、プログラム可能な論理デバイス(programmable logic devices PLD)、フィールドプログラム可能なゲートアレイ(field programmable gate arrays FPGA)、プロセッサ、制御器、マイクロ制御器、マイクロプロセッサ、電子デバイス、本開示に説明された機能を実行するように設計された他の電子ユニット、コンピュータ、若しくはこれらの組合せ内で具現化されることもできる。
【0134】
したがって、本開示により説明された多様な例示的な論理ブロック、モジュール及び回路は、汎用プロセッサ、DSP、ASIC、FPGAや他のプログラム可能な論理デバイス、離散ゲートやトランジスタロジック、離散ハードウェアコンポーネント、若しくは、本願に説明された機能を実行するように設計されたもの等の任意の組合せで具現化又は実行されることもできる。汎用プロセッサはマイクロプロセッサであり得るが、代替的に、プロセッサは、任意の従来のプロセッサ、制御器、マイクロ制御器、若しくは状態マシンであり得る。プロセッサは、また、コンピューティングデバイスの組合せ、例えば、DSPとマイクロプロセッサ、複数のマイクロプロセッサ、DSPコアと関連した一つ以上のマイクロプロセッサ、若しくは任意の他の構成の組合せで具現化されることもできる。
【0135】
ファームウェア及び/又はソフトウェアの具現化において、技法は、RAM(random access memory)、ROM(read-only memory)、NVRAM(non-volatile random access memory)、PROM(programmable read-only memory)、EPROM(erasable programmable read-only memory)、EEPROM(electrically erasable PROM)、フラッシュメモリ、CD(compact disc)、磁気又は光学データストレージデバイスなどのようなコンピュータ読み取り可能な媒体上に保存された命令として具現化できる。命令は、一つ以上のプロセッサによって実行可能であり得、プロセッサが本開示に説明された機能の特定様態を実行するようにできる。
【0136】
ソフトウェアとして具現化される場合、前記技法は、一つ以上の命令又はコードとしてコンピュータ読み取り可能な媒体上に保存されたり、コンピュータ読み取り可能な媒体を介して転送されたりできる。コンピュータ読み取り可能な媒体は、ある場所から他の場所にコンピュータプログラムの転送を容易にする任意の媒体を含み、コンピュータ保存媒体及び通信媒体の両方を含む。保存媒体は、コンピュータによってアクセスできる任意の利用可能な媒体であり得る。非制限的な例として、このようなコンピュータ読み取り可能な媒体は、RAM、ROM、EEPROM、CD-ROMや他の光学ディスクストレージ、磁気ディスクストレージや他の磁気ストレージデバイス、若しくは、所望のプログラムコードを命令又はデータ構造の形態に移送又は保存するために使用されることができ、コンピュータによってアクセスできる任意の他の媒体を含むことができる。また、任意の接続がコンピュータ読み取り可能な媒体として適切に称することができる。
【0137】
例えば、ソフトウェアが同軸ケーブル、光ファイバーケーブル、鉛線、デジタル加入者回線(DSL)、又は、赤外線、無線及びマイクロ波のような無線技術を用いて、ウェブサイト、サーバ又は他の遠隔ソースから転送される場合、同軸ケーブル、光ファイバーケーブル、鉛線、デジタル加入者回線、又は、赤外線、無線及びマイクロ波などのような無線技術は、媒体の定義内に含まれる。本願で使用されたディスク(disk)及びディスク(disc)は、CD、レーザーディスク、光ディスク、DVD(digital versatile disc)、フロッピーディスク及びブルーレイディスクを含み、ここで、通常、ディスク(disk)は磁気的にデータを再生するのに対し、ディスク(disc)はレーザーを用いて光学的にデータを再生する。前記組合せ等も、コンピュータ読み取り可能な媒体等の範囲内に含まれなければならない。
【0138】
ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、移動式ディスク、CD-ROM、又は、公知された任意の他の形態の保存媒体内に常駐することもできる。例示的な保存媒体は、プロセッサが保存媒体から情報を読み取る、或いは、保存媒体に情報を書き込むように、プロセッサに接続できる。代替的に、保存媒体はプロセッサに統合されることもできる。プロセッサ及び保存媒体はASIC内に存在することもできる。ASICはユーザ端末内に存在することもできる。代替的に、プロセッサ及び保存媒体はユーザ端末で個別構成要素として存在することもできる。
【0139】
以上で説明された実施例は、一つ以上の独立型コンピュータシステムで現在開示された主題の態様を活用するものとして記述しているが、本開示は、これに限定されず、ネットワークや分散コンピューティング環境のような任意のコンピューティング環境によって具現化できる。さらには、本開示における主題の様態は複数のプロセッシングチップや装置で具現化されることもでき、ストレージは複数の装置に亘り、同様に影響を受ける場合もある。このような装置は、PC、ネットワークサーバ及び携帯用装置を含むこともできる。
【0140】
本明細書では、本開示が一部の実施例によって説明されてきたが、本開示の発明が属する技術分野における通常の技術者が理解し得る本開示から逸脱しない範囲内で多様な変形や変更が可能である。また、そのような変形や変更は、本明細書に添付された特許請求の範囲内に属するものと理解されるべきである。
【符号の説明】
【0141】
110 ユーザ端末
120 グループトークルームの画面
130、140、150 チャットメッセージ
132、142、152 視覚化情報
【外国語明細書】