(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022129628
(43)【公開日】2022-09-06
(54)【発明の名称】電子会議システム、電子会議方法及び端末装置
(51)【国際特許分類】
G06F 13/00 20060101AFI20220830BHJP
G10L 25/63 20130101ALI20220830BHJP
【FI】
G06F13/00 650A
G10L25/63
【審査請求】未請求
【請求項の数】14
【出願形態】OL
(21)【出願番号】P 2021028369
(22)【出願日】2021-02-25
(71)【出願人】
【識別番号】000237592
【氏名又は名称】株式会社デンソーテン
(74)【代理人】
【識別番号】110001933
【氏名又は名称】特許業務法人 佐野特許事務所
(72)【発明者】
【氏名】加藤 徹洋
(72)【発明者】
【氏名】村下 君孝
【テーマコード(参考)】
5B084
【Fターム(参考)】
5B084AA01
5B084AA03
5B084AA16
5B084AB07
5B084AB11
5B084AB14
5B084AB50
5B084BB01
5B084CA07
5B084CB24
5B084CF12
5B084DC02
5B084DC03
5B084EA17
(57)【要約】
【課題】電子会議を円滑に進める。
【解決手段】ネットワークを通じて互いに接続された複数の端末装置を用いて複数の人物間で電子会議を行うための電子会議システムにおいて、第1人物(PS[i])の感情に応じた感情情報を取得する感情情報取得部を備え、第1人物の感情情報をネットワークを通じて第2人物の端末装置(10[g])に伝達し、伝達された第1人物の感情情報を第2人物の端末装置にて第2人物(PS[g])へ通知する。
【選択図】
図7
【特許請求の範囲】
【請求項1】
ネットワークを通じて互いに接続された複数の端末装置を用いて複数の人物間で電子会議を行うための電子会議システムにおいて、
前記複数の人物の何れかである第1人物の感情に応じた感情情報を取得する感情情報取得部を備え、
前記第1人物の感情情報を前記ネットワークを通じて、前記複数の人物に含まれ且つ前記第1人物と異なる第2人物の端末装置に伝達し、伝達された前記第1人物の感情情報を前記第2人物の端末装置にて前記第2人物へ通知する
、電子会議システム。
【請求項2】
前記感情情報取得部は、前記第1人物の感情の影響を受ける前記第1人物の感情推定用情報に基づいて前記第1人物の感情を推定し、推定結果に基づき前記第1人物の感情情報を取得する
、請求項1に記載の電子会議システム。
【請求項3】
前記感情情報取得部は、前記第1人物の端末装置が受けた前記第1人物からの感情指定操作の内容に基づいて、前記第1人物の感情情報を取得する
、請求項1に記載の電子会議システム。
【請求項4】
前記感情情報取得部は、
前記第1人物の感情の影響を受ける前記第1人物の感情推定用情報に基づいて前記第1人物の感情を推定し、推定結果に基づき前記第1人物の感情に関わる第1候補情報を生成する第1処理、及び、前記第1人物の端末装置にて前記第1人物から感情指定操作を受けたとき前記感情指定操作の内容に基づいて前記第1人物の感情に関わる第2候補情報を生成する第2処理、を実行可能であり、
前記感情指定操作があった場合には前記第2処理にて生成された前記第2候補情報を前記第1人物の感情情報に設定する一方、前記感情指定操作がなかった場合には前記第1処理にて生成された前記第1候補情報を前記第1人物の感情情報に設定する
、請求項1に記載の電子会議システム。
【請求項5】
前記第1処理による推定結果が所定条件を満たすとき前記感情指定操作の入力に関わる通知を前記第1人物に対して行う通知部を更に備える
、請求項4に記載の電子会議システム。
【請求項6】
前記第1人物に対応付けられた登録画像を前記第1人物の感情情報に応じて加工する画像処理部を更に備え、
前記第2人物の端末装置にて加工後の前記登録画像が表示される
、請求項1~5の何れかに記載の電子会議システム。
【請求項7】
前記画像処理部は、前記第1人物に対応付けられた前記登録画像を元に、前記第1人物の感情情報及び前記第1人物の発話音声情報に応じた動画像を生成し、
前記第2人物の端末装置にて前記動画像が表示される
、請求項6に記載の電子会議システム。
【請求項8】
前記電子会議に関わる会議データを記録媒体に記録させる記録管理部を備え、
前記複数の人物は第1~第n人物から成り、nは2以上の整数であり、
前記感情情報取得部は、前記第1~第n人物の夫々に対して感情に応じた感情情報を取得することで、前記第1~第n人物の感情情報を取得し、
前記記録管理部は、各人物の発話ごとに発話者の感情情報を前記会議データに含める
、請求項1~7の何れかに記載の電子会議システム。
【請求項9】
前記電子会議に関わる会議データを記録媒体に記録させる記録管理部を備え、
前記複数の人物は第1~第n人物から成り、nは2以上の整数であり、
前記感情情報取得部は、前記第1~第n人物の夫々に対して感情に応じた感情情報を取得することで、前記第1~第n人物の感情情報を取得し、
前記記録管理部は、前記第1~第n人物の感情情報を前記会議データに含める
、請求項1~7の何れかに記載の電子会議システム。
【請求項10】
前記第1~第n人物の感情情報の統計をとることで感情統計データを生成する統計処理部を備え、
前記記録管理部は、前記会議データに前記感情統計データを含める
、請求項9に記載の電子会議システム。
【請求項11】
統計処理部及び統計通知部を備え、
前記複数の人物は第1~第n人物から成り、nは2以上の整数であり、
前記感情情報取得部は、前記第1~第n人物の夫々に対して感情に応じた感情情報を取得することで、前記第1~第n人物の感情情報を取得し、
前記統計処理部は、前記第1~第n人物の感情情報の統計をとることで感情統計データを生成し、
前記統計通知部は、前記感情統計データに応じた通知を前記複数の端末装置の何れか1以上で行わせる
、請求項1~7の何れかに記載の電子会議システム。
【請求項12】
ネットワークを通じて互いに接続された複数の端末装置を用いて複数の人物間で電子会議を行うための電子会議方法において、
前記複数の人物の何れかである第1人物の感情に応じた感情情報を取得する感情情報取得工程と、
前記第1人物の感情情報を前記ネットワークを通じて、前記複数の人物に含まれ且つ前記第1人物と異なる第2人物の端末装置に伝達する伝達工程と、
伝達された前記第1人物の感情情報を前記第2人物の端末装置にて前記第2人物へ通知する通知工程と、を備える
、電子会議方法。
【請求項13】
請求項12に記載の会議方法を演算処理装置に実現させるプログラム。
【請求項14】
ネットワークを通じて複数の人物間で電子会議を行うために用いられる端末装置であって、
前記複数の人物に含まれ且つ当該端末装置のユーザである第1人物の感情情報を取得する感情情報取得部と、
前記複数の人物に含まれ且つ前記第1人物と異なる第2人物の端末装置にて前記第1人物の感情情報を前記第2人物に通知させるために、前記第1人物の感情情報を前記ネットワークに送信する通信処理部と、を備えた
、端末装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、電子会議システム、電子会議方法及び端末装置に関する。
【背景技術】
【0002】
複数の人物が一同に会することなく、複数の端末装置を用いて複数の人物間で会議を行う電子会議(Web会議)が広く実用化されている。一般的な電子会議システム(Web会議システム)ではカメラ画像出力条件のオン/オフ切替が可能である。或る人物の端末装置においてカメラ画像出力条件がオンに設定されている場合には、当該人物の顔画像を含むカメラ画像が他の端末装置に表示されるが、カメラ画像出力条件がオフに設定されている場合、そのような表示は行われない。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
電子会議に限らず、会議では参加者同士の表情を伺いながら会話を進めることで会議が円滑に進むことが多いと考えられる。但し、電子会議では、通信データ量やプライバシー等の観点からカメラ画像出力条件がオフに設定されることも多く、結果、会議の円滑さが損なわれる可能性がある。
【0005】
本発明は、電子会議の円滑な進行等に寄与する電子会議システム、電子会議方法及び端末装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明に係る電子会議システムは、ネットワークを通じて互いに接続された複数の端末装置を用いて複数の人物間で電子会議を行うための電子会議システムにおいて、前記複数の人物の何れかである第1人物の感情に応じた感情情報を取得する感情情報取得部を備え、前記第1人物の感情情報を前記ネットワークを通じて、前記複数の人物に含まれ且つ前記第1人物と異なる第2人物の端末装置に伝達し、伝達された前記第1人物の感情情報を前記第2人物の端末装置にて前記第2人物へ通知する構成(第1の構成)である。
【0007】
上記第1の構成に係る電子会議システムにおいて、前記感情情報取得部は、前記第1人物の感情の影響を受ける前記第1人物の感情推定用情報に基づいて前記第1人物の感情を推定し、推定結果に基づき前記第1人物の感情情報を取得する構成(第2の構成)であっても良い。
【0008】
上記第1の構成に係る電子会議システムにおいて、前記感情情報取得部は、前記第1人物の端末装置が受けた前記第1人物からの感情指定操作の内容に基づいて、前記第1人物の感情情報を取得する構成(第3の構成)であっても良い。
【0009】
上記第1の構成に係る電子会議システムにおいて、前記感情情報取得部は、前記第1人物の感情の影響を受ける前記第1人物の感情推定用情報に基づいて前記第1人物の感情を推定し、推定結果に基づき前記第1人物の感情に関わる第1候補情報を生成する第1処理、及び、前記第1人物の端末装置にて前記第1人物から感情指定操作を受けたとき前記感情指定操作の内容に基づいて前記第1人物の感情に関わる第2候補情報を生成する第2処理、を実行可能であり、前記感情指定操作があった場合には前記第2処理にて生成された前記第2候補情報を前記第1人物の感情情報に設定する一方、前記感情指定操作がなかった場合には前記第1処理にて生成された前記第1候補情報を前記第1人物の感情情報に設定する構成(第4の構成)であっても良い。
【0010】
上記第4の構成に係る電子会議システムにおいて、前記第1処理による推定結果が所定条件を満たすとき前記感情指定操作の入力に関わる通知を前記第1人物に対して行う通知部を更に備える構成(第5の構成)であっても良い。
【0011】
上記第1~第5の構成の何れかに係る電子会議システムにおいて、前記第1人物に対応付けられた登録画像を前記第1人物の感情情報に応じて加工する画像処理部を更に備え、前記第2人物の端末装置にて加工後の前記登録画像が表示される構成(第6の構成)であっても良い。
【0012】
上記第6に係る電子会議システムにおいて、前記画像処理部は、前記第1人物に対応付けられた前記登録画像を元に、前記第1人物の感情情報及び前記第1人物の発話音声情報に応じた動画像を生成し、前記第2人物の端末装置にて前記動画像が表示される構成(第7の構成)であっても良い。
【0013】
上記第1~第7の構成の何れかに係る電子会議システムにおいて、前記電子会議に関わる会議データを記録媒体に記録させる記録管理部を備え、前記複数の人物は第1~第n人物から成り、nは2以上の整数であり、前記感情情報取得部は、前記第1~第n人物の夫々に対して感情に応じた感情情報を取得することで、前記第1~第n人物の感情情報を取得し、前記記録管理部は、各人物の発話ごとに発話者の感情情報を前記会議データに含める構成(第8の構成)であっても良い。
【0014】
上記第1~第7の構成の何れかに係る電子会議システムにおいて、前記電子会議に関わる会議データを記録媒体に記録させる記録管理部を備え、前記複数の人物は第1~第n人物から成り、nは2以上の整数であり、前記感情情報取得部は、前記第1~第n人物の夫々に対して感情に応じた感情情報を取得することで、前記第1~第n人物の感情情報を取得し、前記記録管理部は、前記第1~第n人物の感情情報を前記会議データに含める構成(第9の構成)であっても良い。
【0015】
上記第9の構成に係る電子会議システムにおいて、前記第1~第n人物の感情情報の統計をとることで感情統計データを生成する統計処理部を備え、前記記録管理部は、前記会議データに前記感情統計データを含める構成(第10の構成)であっても良い。
【0016】
上記第1~第7の構成の何れかに係る電子会議システムにおいて、統計処理部及び統計通知部を備え、前記複数の人物は第1~第n人物から成り、nは2以上の整数であり、前記感情情報取得部は、前記第1~第n人物の夫々に対して感情に応じた感情情報を取得することで、前記第1~第n人物の感情情報を取得し、前記統計処理部は、前記第1~第n人物の感情情報の統計をとることで感情統計データを生成し、前記統計通知部は、前記感情統計データに応じた通知を前記複数の端末装置の何れか1以上で行わせる構成(第11の構成)であっても良い。
【0017】
本発明に係る会議方法は、ネットワークを通じて互いに接続された複数の端末装置を用いて複数の人物間で電子会議を行うための電子会議方法において、前記複数の人物の何れかである第1人物の感情に応じた感情情報を取得する感情情報取得工程と、前記第1人物の感情情報を前記ネットワークを通じて、前記複数の人物に含まれ且つ前記第1人物と異なる第2人物の端末装置に伝達する伝達工程と、伝達された前記第1人物の感情情報を前記第2人物の端末装置にて前記第2人物へ通知する通知工程と、を備える構成(第12の構成)である。
【0018】
本発明に係るプログラムは、上記第12の構成に係る会議方法を演算処理装置に実現させる構成(第13の構成)である。
【0019】
本発明に係る端末装置は、ネットワークを通じて複数の人物間で電子会議を行うために用いられる端末装置であって、前記複数の人物に含まれ且つ当該端末装置のユーザである第1人物の感情情報を取得する感情情報取得部と、前記複数の人物に含まれ且つ前記第1人物と異なる第2人物の端末装置にて前記第1人物の感情情報を前記第2人物に通知させるために、前記第1人物の感情情報を前記ネットワークに送信する通信処理部と、を備えた構成(第14の構成)である。
【発明の効果】
【0020】
本発明によれば、電子会議の円滑な進行等に寄与する電子会議システム及び方法並びに端末装置を提供することが可能となる。
【図面の簡単な説明】
【0021】
【
図1】本発明の実施形態に係る会議システム(電子会議システム)の全体構成図である。
【
図2】本発明の実施形態に係る端末装置の内部構成図である。
【
図3】本発明の実施形態に係るサーバ装置の内部構成図である。
【
図4】本発明の実施形態に係る会議システムの全体構成図である。
【
図5】本発明の実施形態に係る端末装置の内部構成図である。
【
図6】本発明の実施形態に属する第1実施例に係り、対象人物の感情情報が複数の受領人物に伝達される様子を示す図である。
【
図7】本発明の実施形態に属する第1実施例に係り、複数の端末装置間の情報伝達の様子を示す図である。
【
図8】本発明の実施形態に属する第1実施例に係り、会議システムの感情情報に関わる動作フローチャートである。
【
図9】本発明の実施形態に属する第1実施例に係り、端末装置に感情情報取得部が設けられる様子を示す図である。
【
図10】本発明の実施形態に属する第1実施例に係り、電子会議開催期間に複数のフレームが設定される様子を示す図である。
【
図11】本発明の実施形態に属する第4実施例に係り、感情情報の取得動作の概念図である。
【
図12】本発明の実施形態に属する第5実施例に係り、端末装置に手動入力示唆通知部が設けられる様子を示す図である。
【
図13】本発明の実施形態に属する第5実施例に係り、感情情報の設定及び取得動作のフローチャートである。
【
図14】本発明の実施形態に属する第6実施例に係り、端末装置に画像処理部が設けられると共に登録画像群データ及び加工用データが保持される様子を示す図である。
【
図15】本発明の実施形態に属する第6実施例に係り、会議の参加者ごとの登録画像を示す図である。
【
図16】本発明の実施形態に属する第8実施例に係り、サーバ装置に記録管理部、記録媒体、再生管理部、統計処理部及び統計通知部が設けられる様子を示す図である。
【
図17】本発明の実施形態に属する第8実施例に係り、会議データの構造図である。
【
図18】本発明の実施形態に属する第8実施例に係り、個別音声データ及び属性データを示す図である。
【
図19】本発明の実施形態に属する第9実施例に係り、付加データの構造図である。
【
図20】本発明の実施形態に属する第9実施例に係る動作の一態様を説明するための図である。
【
図21】本発明の実施形態に属する第9実施例に係る動作の一態様を説明するための図である。
【
図22】本発明の実施形態に属する第9実施例に係り、統計通知画像の例を示すための図である。
【発明を実施するための形態】
【0022】
以下、本発明の実施形態の例を、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。尚、本明細書では、記述の簡略化上、情報、信号、物理量又は部材等を参照する記号又は符号を記すことによって、該記号又は符号に対応する情報、信号、物理量又は部材等の名称を省略又は略記することがある。例えば、後述の“20”によって参照される感情情報取得部は(
図9(a)参照)、感情情報取得部20と表記されることもあるし、取得部20と略記されることもあり得るが、それらは全て同じものを指す。
【0023】
図1に本実施形態に係るシステムSYSの全体構成を示す。システムSYSを様々な用途に利用することができるが、本実施形態では、複数の人物PS間で会議(会話)を行う用途にシステムSYSが利用されることを想定する。この場合、システムSYSは会議システム(電子会議システム)として機能し、以下、システムSYSを会議システムSYSと称する。本実施形態における会議は電子会議であって、本実施形態において会議と電子会議は互いに同じものを指す。電子会議では、複数の人物PSが一同に会することなく、複数の端末装置間における信号(少なくとも音声信号を含む)の送受信を通じて複数の人物PS間の会話を実現する。電子会議は一般にWeb会議とも称される。各人物PSは電子会議の参加者に相当する。
【0024】
会議システムSYSは複数の端末装置10とサーバ装置30とを備えて構成される。各端末装置10が上記複数の人物PSの内の一人に割り当てられる。各端末装置10及びサーバ装置30はインターネットを含むネットワーク50に接続される。換言すれば、複数の端末装置10及びサーバ装置30は、ネットワーク50を通じて互いに接続される。複数の端末装置10及びサーバ装置30は、夫々に、ネットワーク50に接続された任意の装置との間で双方向通信が可能である。
【0025】
各端末装置10は、パーソナルコンピュータ、タブレット又はスマートホンなどの電子機器である。会議システムSYSに組み込まれる複数の端末装置10は互いに同じ種類の電子機器であっても良いし、互いに異なる種類の電子機器であっても良い。但し、以下では、複数の端末装置10が互いに同じ構成を有していると考える。
【0026】
図2に1つの端末装置10の内部構成を示す。端末装置10は、通信処理部11、記憶部12、端末制御部13、表示部14、操作部15、カメラ部16、マイクロホン17、スピーカ18及びセンサ部19を備える。以下に示す信処理部11、記憶部12、端末制御部13、表示部14、操作部15、カメラ部16、マイクロホン17、スピーカ18及びセンサ部19の説明は、各端末装置10に適用される。端末装置10の内部構成を説明するにあたり、必要に応じて、注目された1つの端末装置10を注目端末装置10と称する。また、注目端末装置10のユーザである人物PSを注目人物PSと称することがある。注目端末装置10は、会議システムSYSにおいて注目人物PSに割り当てられた(注目人物PSに対応付けられた)端末装置10である。会議システムSYSに組み込まれる各々の端末装置10が注目端末装置10になり得る。
【0027】
通信処理部11は、ネットワーク50を通じて相手側装置と双方向通信を行う。注目端末装置10において、双方向通信は、ネットワーク50に対して任意の情報を出力することで当該情報を相手側装置に送信する送信動作と、相手側装置がネットワーク50に出力した任意の情報を受信する受信動作と、を含む。注目端末装置10にとっての相手側装置は、ネットワーク50に接続された装置であって且つ注目端末装置10以外の任意の装置であり、少なくともサーバ装置30を含む。注目端末装置10における通信処理部11は、ネットワーク50及びサーバ装置30を介し、注目端末装置10以外の各端末装置10と双方向通信できる。注目端末装置10における通信処理部11は、サーバ装置30を経由することなく、注目端末装置10以外の各端末装置10との間の双方向通信を実現可能であっても良い。
【0028】
記憶部12は、磁気ディスク又は半導体メモリ等から成り、或いは、それらの組み合わせから成り、各種プログラム及びデータを格納及び記憶する。記憶部12内の不揮発性メモリに格納されたプログラムの中に端末用プログラムPG1が含まれる。
【0029】
端末制御部13は、演算処理装置であるCPU(Central Processing Unit)、ROM(Read only memory)及びRAM(Random access memory)等から成り、端末装置10内の各部位の動作を統括的に制御すると共に、記憶部12に格納されたプログラムを端末制御部13内の演算処理装置にて実行することで各種機能を実現する。
【0030】
表示部14は、液晶ディスプレイパネル又は有機エレクトロルミネッセンスパネル等から成り、端末制御部13の制御の下で任意の画像(換言すれば映像)を表示する。注目人物PSは注目端末装置10の表示部14の表示内容を視認可能である。尚、以下の説明において、端末装置10での表示とは、端末装置10に設けられた表示部14での表示を意味する。
【0031】
操作部15は、操作者からの各種操作を受ける。注目端末装置10における操作者は注目人物PSである。端末装置10にタッチパネルが設けられる場合、当該タッチパネルにて表示部14及び操作部15が構成されても良い。
【0032】
カメラ部16は、自身の視野内の撮影を行って撮影結果を表す画像信号を出力する。カメラ部16は静止画像及び動画像の撮影機能を有する。カメラ部16からの出力画像信号により表される画像(即ちカメラ部16による撮影画像)を、カメラ画像と称する。注目端末装置10のカメラ部16の視野には注目人物PSの全身又は一部が含まれているとする。少なくとも、注目人物PSの顔は、注目端末装置10のカメラ部16の視野に含まれているとする。故に、注目端末装置10のカメラ部16の撮影結果を表すカメラ画像には、少なくとも注目人物PSの顔画像が含まれる。
【0033】
マイクロホン17は、自身の周辺音を音声信号に変換して出力する。会議システムSYSにおいて、注目端末装置10におけるマイクロホン17の主目的は、注目人物PSの発話内容の収音である。故に、注目端末装置10におけるマイクロホン17は、注目人物PSの発話内容を収音し、収音した音を音声信号に変換して出力する。
【0034】
スピーカ18は、端末制御部13の制御の下、自身へ入力された音声信号を音として(音波として)出力する。注目人物PSは、注目端末装置10のスピーカ18の出力音を聞くことができる。尚、以下の説明において、端末装置10での音の出力又は音声の出力とは、端末装置10に設けられたスピーカ18による音の出力又は音声の出力を意味する。
【0035】
センサ部19は、カメラ部16及びマイクロホン17では取得できない又は取得し難い情報を取得するセンサ装置である。例えば、注目端末装置10におけるセンサ部19は注目人物PSの生体情報を取得することができる。但し、端末装置10にセンサ部19が設けられないことがあっても良い。
【0036】
図3にサーバ装置30の内部構成を示す。サーバ装置30は、通信処理部31、記憶部32及びサーバ制御部33を備える。端末装置10に設けられるものと同様の表示部、操作部、カメラ部、操作部、マイクロホン、スピーカ及びセンサ部の内の全部又は一部が、サーバ装置30に設けられていても良いが、ここでは、会議システムSYSの運用に重要な役割を果たす通信処理部31、記憶部32及びサーバ制御部33にのみ注目する。尚、サーバ装置SVは1以上のコンピュータ装置にて構成されていて良い。所謂クラウトコンピューティングを利用して会議システムSYSが構成されても良い。
【0037】
通信処理部31は、ネットワーク50を通じて相手側装置と双方向通信を行う。サーバ装置30において、双方向通信は、ネットワーク50に対して任意の情報を出力することで当該情報を相手側装置に送信する送信動作と、相手側装置がネットワーク50に出力した任意の情報を受信する受信動作と、を含む。サーバ装置30にとっての相手側装置は、ネットワーク50に接続された任意の装置である。ここでは、複数の端末装置10の夫々がサーバ装置30にとっての相手側装置に相当する。
【0038】
記憶部32は、磁気ディスク又は半導体メモリ等から成り、或いは、それらの組み合わせから成り、各種プログラム及びデータを格納及び記憶する。記憶部32内の不揮発性メモリに格納されたプログラムの中にサーバ用プログラムPG2が含まれる。
【0039】
サーバ制御部33は、演算処理装置であるCPU(Central Processing Unit)、ROM(Read only memory)及びRAM(Random access memory)等から成り、サーバ装置30内の各部位の動作を統括的に制御すると共に、記憶部32に格納されたプログラムをサーバ制御部33内の演算処理装置にて実行することで各種機能を実現する。
【0040】
図4を参照し、以下では、説明の具体化のため、会議システムSYSに計n台の端末装置10が組み込まれるものとし、n台の端末装置10の内、第1~第nの端末装置10を端末装置10[1]~10[n]と称する。また、端末装置10[i]が割り当てられた人物PSを人物PS[i]と称する。nは2以上の任意の整数を表し、iはn以下の任意の自然数を表す。更に、
図5に示す如く、端末装置10[i]における通信処理部11、記憶部12、端末制御部13、表示部14、操作部15、カメラ部16、マイクロホン17、スピーカ18及びセンサ部19を、夫々、通信処理部11[i]、記憶部12[i]、端末制御部13[i]、表示部14[i]、操作部15[i]、カメラ部16[i]、マイクロホン17[i]、スピーカ18[i]及びセンサ部19[i]と称することがある。
【0041】
尚、端末装置10[i]において、端末装置10[i]と相手側装置との双方向通信は通信処理部11[i]を用いネットワーク50を通じて行われるが、以下では、説明の簡略化上、通信処理部11[i]及びネットワーク50の記述を書略することがある。サーバ装置30とサーバ装置30の相手側装置との双方向通信についても同様である。
【0042】
端末装置10[1]~10[n]の夫々において端末制御部13が端末用プログラムPG1を実行し、且つ、サーバ装置30においてサーバ制御部33がサーバ用プログラムPG2を実行することで、電子会議が開催される。
【0043】
会議システムSYSは電子会議において音声伝達処理を実行可能である。音声伝達処理では、任意の人物PSの発話内容を他の人物PSに割り当てられた端末装置10から音声出力する。
【0044】
人物PS[1]が発話する際の音声伝達処理では、人物PS[1]の発話内容がマイクロホン17[1]にて収音されて音声信号に変換され、人物PS[1]の発話内容を表す音声信号がネットワーク50及びサーバ装置30を通じて、端末装置10[2]~10[n]に伝達される。そして、端末装置10[2]~10[n]の夫々において、人物PS[1]の発話内容を表す音声信号が音声出力される。同様に、人物PS[2]が発話する際の音声伝達処理では、人物PS[2]の発話内容がマイクロホン17[2]にて収音されて音声信号に変換され、人物PS[2]の発話内容を表す音声信号がネットワーク50及びサーバ装置30を通じて、端末装置10[1]及び10[3]~10[n]に伝達される。そして、端末装置10[1]及び10[3]~10[n]の夫々において、人物PS[2]の発話内容を表す音声信号が音声出力される。人物PS[3]等が発話する際の音声伝達処理も同様である。
【0045】
装置の動作に注目して詳細に述べると、人物PS[i]が発話する際の音声伝達処理は、人物PS[i]の発話内容をマイクロホン17[i]にて収音して音声信号に変換する処理PRA1と、その処理PRA1にて得られた音声信号を端末装置10[i]がサーバ装置30に送信する処理PRA2と、処理PRA2を経てサーバ装置30にて受信した音声信号をサーバ装置30が端末装置10[i]以外の各端末装置10に送信する処理PRA3と、処理PRA3を経て端末装置10[i]以外の各端末装置10が受信した音声信号を端末装置10[i]以外の各端末装置10にて音として出力する処理PRA4と、で実現できる。
【0046】
また、会議システムSYSは電子会議においてカメラ画像伝達処理も実行可能である。カメラ画像伝達処理では、各人物PSの撮影結果を表すカメラ画像が他の人物PSに割り当てられた端末装置10に表示される。カメラ画像伝達処理におけるカメラ画像はリアルタイムで取得され且つ更新表示される(但し伝達に関わる遅延は存在する)。
【0047】
人物PS[1]に対するカメラ画像伝達処理では、カメラ部16[1]の撮影により得られたカメラ画像の画像信号がネットワーク50及びサーバ装置30を経由して端末装置10[2]~10[n]に伝達され、端末装置10[2]~10[n]の夫々において、伝達されたカメラ画像が表示部14に表示される。この際、端末装置10[2]~10[n]の夫々が受けたカメラ画像には、人物PS[1]の撮影結果(人物PS[1]の顔画像)が含まれるので、人物PS[2]~PS[n]は人物PS[1]の表情を見ながら会議を進めることができる。同様に、人物PS[2]に対するカメラ画像伝達処理では、カメラ部16[2]の撮影により得られたカメラ画像の画像信号がネットワーク50及びサーバ装置30を経由して端末装置10[1]及び10[3]~10[n]に伝達され、端末装置10[1]及び10[3]~10[n]の夫々において、伝達されたカメラ画像が表示部14に表示される。この際、端末装置10[1]及び10[3]~10[n]の夫々が受けたカメラ画像には、人物PS[2]の撮影結果(人物PS[2]の顔画像)が含まれるので、人物PS[1]及びPS[3]~PS[n]は人物PS[2]の表情を見ながら会議を進めることができる。人物PS[3]等に対するカメラ画像伝達処理も同様である。
【0048】
装置の動作に注目して詳細に述べると、人物PS[i]に対するカメラ画像伝達処理は、カメラ部16[i]にて人物PS[i]の像を含むカメラ画像の画像信号を取得する処理PRV1と、その処理PRV1にて得られた画像信号を端末装置10[i]がサーバ装置30に送信する処理PRV2と、処理PRV2を経てサーバ装置30にて受信した画像信号をサーバ装置30が端末装置10[i]以外の各端末装置10に送信する処理PRV3と、処理PRV3を経て端末装置10[i]以外の各端末装置10が受信した画像信号を端末装置10[i]以外の各端末装置10にて画像として表示する処理PRV4と、で実現できる。
【0049】
但し、各人物PSは、カメラ画像出力条件のオン/オフ切替によりカメラ画像伝達処理の実行有無を指定することができる。即ち、人物PS[i]は操作部15[i]に所定操作を入力することで端末装置10[i]におけるカメラ画像出力条件を自在にオン又はオフに設定することができる。
【0050】
端末装置10[1]におけるカメラ画像出力条件がオンに設定されているときには、上述の人物PS[1]に対するカメラ画像伝達処理が実行されて、カメラ部16[1]の撮影によるカメラ画像が端末装置10[2]~10[n]にて表示される。端末装置10[1]におけるカメラ画像出力条件がオフに設定されているときには、上述の人物PS[1]に対するカメラ画像伝達処理が実行されず、結果、カメラ部16[1]の撮影によるカメラ画像は端末装置10[2]~10[n]にて表示されない。同様に、端末装置10[2]におけるカメラ画像出力条件がオンに設定されているときには、上述の人物PS[2]に対するカメラ画像伝達処理が実行されて、カメラ部16[2]の撮影によるカメラ画像が端末装置10[1]及び10[3]~10[n]にて表示される。端末装置10[2]におけるカメラ画像出力条件がオフに設定されているときには、上述の人物PS[2]に対するカメラ画像伝達処理が実行されず、結果、カメラ部16[2]の撮影によるカメラ画像は端末装置10[1]及び10[3]~10[n]にて表示されない。端末装置10[3]等におけるカメラ画像出力条件についても同様である。
【0051】
ところで、電子会議に限らず、会議では相手の表情を伺いながら会話を進めることで会議が円滑に進むことが多いと考えられる。但し、電子会議では、通信データ量やプライバシー等の観点からカメラ画像出力条件がオフに設定されることも多く、結果、会議の円滑さが損なわれる可能性がある。ここで、発明者らは、相手の表情を伺うことは相手の感情を察することに類している点に着眼し、会議参加者の感情を参加者間で通知しあう技術を開発した。この技術の活用により、カメラ画像出力条件がオフに設定されていても、相手の感情を察することが可能となり(即ち相手の表情を伺うのと同様の効果が得られ)、以って会議(電子会議)を円滑に進めることができると考えられる。
【0052】
以下、複数の実施例の中で、会議システムSYSの具体的な動作例(特に感情の通知に関する動作例)及び応用技術等を説明する。本実施形態にて上述した事項は、特に記述無き限り且つ矛盾無き限り、以下の各実施例に適用される。各実施例において、上述の事項と矛盾する事項がある場合には、各実施例での記載が優先されて良い。また矛盾無き限り、以下に示す複数の実施例の内、任意の実施例に記載した事項を、他の任意の実施例に適用することもできる(即ち複数の実施例の内の任意の2以上の実施例を組み合わせることも可能である)。
【0053】
尚、以下の各実施例に示される処理及び動作は、特に記述なき限り、会議システムSYSにて電子会議が開催されている期間中の処理及び動作であるとする(但し会議データの記録又は再生に関わる第8及び第9実施例を除く)。以下において、会議システムSYSにて電子会議が開催されている期間は電子会議開催期間と称されることがある。また、以下の各実施例では、特に記述なき限り、上述の音声伝達処理は実行されるものの、端末装置10[1]~10[n]の夫々においてカメラ画像出力条件がオフに設定されており、故に会議システムSYSにおいてカメラ画像伝達処理が一切実行されていないことを想定する。
【0054】
<<第1実施例>>
第1実施例を説明する。
図6に示す如く、第1実施例に係る会議システムSYSは、電子会議において、対象人物の感情に応じた感情情報を取得し、取得した感情情報を各受領人物に割り当てられた各端末装置10に伝達することで、対象人物の感情を各受領人物に通知する機能を持つ。人物PS[1]が対象人物であるとき、それ以外の人物PS[2]~PS[n]が受領人物に相当し、人物PS[2]が対象人物であるとき、それ以外の人物PS[1]及びPS[3]~PS[n]が受領人物に相当する。人物PS[3]等が対象人物であるときも同様であり、人物PS[1]~PS[n]の夫々が対象人物となることで各人物の感情情報が互いに通知され合う。
【0055】
図7に第1実施例に係る情報伝達の様子を示す。
図7では、人物PS[i]が対象人物として機能し且つ人物PS[g]が受領人物として機能する場合の、情報伝達の様子が模式的に示されている。端末装置10[g]は、端末装置10[1]~10[n]の内、端末装置10[i]と異なる任意の端末装置10を表し、人物PS[g]は、人物PS[1]~PS[n]の内、人物PS[i]と異なる任意の人物PSを表す。従って、gは、iとは異なり且つn以下の任意の自然数を表す。上述したように、第1実施例において上述の音声伝達処理が実行され、故に、人物PS[i]の発話内容は端末装置10[g]に伝達されて端末装置10[g]にて音声出力され、且つ、人物PS[g]の発話内容は端末装置10[i]に伝達されて端末装置10[i]にて音声出力される(
図7では前者の伝達の様子のみ図示)。
【0056】
図8に、感情情報の取得、伝達及び通知に関わる会議システムSYSの動作フローチャートを示す。会議システムSYSはステップS10、S20及びS30の処理を順次実行する。ステップS10、S20及びS30の処理から成る一連の処理群は所定周期で繰り返し実行されて良い。
【0057】
ステップS10において、端末装置10[i]は人物PS[i]の感情に応じた感情情報を取得する感情情報取得処理を実行する。
【0058】
続くステップS20では、ステップS10にて取得された感情情報を端末装置10[i]以外の各端末装置10に伝達する装置間伝達処理が実行される。この伝達はサーバ装置30を介して行われる。即ち、装置間伝達処理は、端末装置10[i](詳細には通信処理部11[i])がステップS10にて取得された感情情報をネットワーク50に向けて送信する処理(換言すればネットワーク50を介してサーバ装置30に送信する処理)と、サーバ装置30が端末装置10[i]から受信した感情情報をサーバ装置30から端末装置10[i]以外の各端末装置10へと送信する処理と、端末装置10[i]以外の各端末装置10がサーバ装置30から送信された感情情報を受信する処理と、で構成される。
【0059】
ステップS20に続くステップS30において、端末装置10[i]以外の各端末装置10は、サーバ装置30から受信した感情情報を自身のユーザに通知する感情情報通知処理を実行する。端末装置10[g]で感情情報通知処理を行うことで、端末装置10[g]は人物PS[i]の感情情報を自身のユーザである人物PS[g]に通知することができる。ステップS30における通知は、人物PS[g]の知覚に訴える任意の通知をあって良いが、音声による通知は会議の進行阻害等を招きうるので、ステップS30の通知は視覚的な通知であると良い。即ち、ステップS30の通知は、受信した感情情報(ステップS10にて取得された人物PS[i]の感情情報)を表示部14[g]に表示する通知であると良い。以下では、感情情報通知処理が感情情報の表示に相当すると考える。具体的には、ステップS30において、受信した感情情報(ステップS10にて取得された人物PS[i]の感情情報)に応じた感情通知画像を表示部14[g]に表示する。
【0060】
図7では、人物PS[i]の感情に応じた感情情報が人物PS[g]の端末装置10[g]に伝達されて人物PS[g]に通知される様子が示されているが、実際には、これと並行して、人物PS[g]の感情に応じた感情情報が人物PS[i]の端末装置10[i]に伝達されて人物PS[i]に通知される。即ち、上述のステップS10、S20及びS30から成る処理群は、人物PS[1]~PS[n]を個別に対象人物とみなした上で、人物PS[1]~PS[n]の夫々に対して実行される。このため、人物PS[1]の感情情報は端末装置10[2]~10[n]に伝達されて人物PS[2]~PS[n]に通知され、人物PS[2]の感情情報は端末装置10[1]及び10[3]~10[n]に伝達されて人物PS[1]及びPS[3]~PS[n]に通知され、・・・、人物PS[n]の感情情報は端末装置10[1]~10[n-1]に伝達されて人物PS[1]~PS[n-1]に通知される。
【0061】
図9(a)及び(b)を参照し、各端末装置10には、対応する人物の感情情報を取得するための感情情報取得部20が設けられており、端末装置10[i]に設けられた感情情報取得部20を特に記号“20[i]”にて参照する。感情情報取得部20[1]は人物PS[1]の感情に応じた感情情報を取得する感情情報取得処理を実行し、感情情報取得部20[2]は人物PS[2]の感情に応じた感情情報を取得する感情情報取得処理を実行する。感情情報取得部20[3]等も同様である。取得部20[i]は端末制御部13[i]が端末用プログラムPG1を実行することで実現される機能ブロックである。取得部20[i]についての説明は、取得部20[1]~20[n]の夫々に適用される。
【0062】
取得部20[i]にて実行される感情情報取得処理は、人物PS[i]の感情がf種類の分類先感情の何れに分類されるのかを判断する感情分類処理を少なくとも含み、その分類結果が人物PS[i]の感情情報に含められる。fは2以上の任意の整数である。f種類の分類先感情は、例えば、「喜び」、「受容」、「恐れ」、「驚き」、「悲しみ」、「嫌悪」、「怒り」、「期待」、「平静」及び「その他」の計10種類の分類先感情から成る。但し、上述したように“f≧2”であれば任意であり、人物PS[i]の感情の分類の仕方も任意である。故に例えば、取得部20[i]は人物PS[i]の感情がポジティブ感情及びネガティブ感情の何れに属するのかを2段階で分類判定するものであっても良い(この場合、ポジティブ感情及びネガティブ感情が計2種類の分類先感情となる)。
【0063】
更に、取得部20[i]にて実行される感情情報取得処理は、上記感情分類処理に加え、人物PS[i]の感情レベルを決定及び判断する感情レベル決定処理を更に含んでいても良い。取得部20[i]にて実行される感情情報取得処理に感情レベル決定処理が含まれる場合、人物PS[i]の感情レベルの決定及び判断結果も人物PS[i]の感情情報に含められる。人物PS[i]の感情レベルは、人物PS[i]の感情の度合いを表す。ここでは、例として、感情レベルが第1~第5レベルの中から決定されるものとする。任意の自然数sに関し、第(s+1)レベルに対応する感情の度合いは第sレベルに対応する感情の度合いよりも強いものとする。故に、第1~第5レベルの内、第5レベルにおいて感情の度合いが最も強く、第1レベルにおいて感情の度合いが最も弱い。また、第(s+1)レベルは第sレベルよりも高いと考える。例えば、人物PS[i]の感情が「怒り」の感情に属すると判断した場合、取得部20[i]は、更に感情レベル決定処理を実行することができ、これにより、人物PS[i]の「怒り」の感情の度合いが第1~第5レベルの何れに属するのかを決定及び判断することができる。
【0064】
端末装置10[g]にて表示される人物PS[i]の感情情報に応じた感情通知画像は、人物PS[i]の感情情報にて示される人物PS[i]の感情を人物PS[g]が認識できる限り、任意である。即ち例えば、人物PS[i]の感情情報にて示される人物PS[i]の感情が「怒り」の感情である場合、「怒り」の感情を表したような所定の怒りアイコン画像を人物PS[i]の感情を表す感情通知画像として表示部14[g]に表示し、人物PS[i]の感情情報にて示される人物PS[i]の感情が「喜び」の感情である場合、「喜び」の感情を表したような所定の喜びアイコン画像を人物PS[i]の感情を表す感情通知画像として表示部14[g]に表示する。これらの各アイコン画像は各端末装置10の記憶部12に予め格納されていて良い。
【0065】
上記感情レベル決定処理の実行により、人物PS[i]の感情情報に人物PS[i]の感情レベルも含まれている場合には、人物PS[i]の感情レベルに応じて表示部14[g]に表示される感情通知画像の詳細を変化させると良い。
【0066】
本実施例によれば、カメラ画像出力条件がオフに設定されていても、相手の感情を察することが可能となり(即ち相手の表情を伺うのと同様の効果が得られ)、以って会議(電子会議)を円滑に進めることができると考えられる。
【0067】
<<第2実施例>>
第2実施例を説明する。第2実施例は第1実施例と組み合わせて実施される。第2実施例に係る感情情報取得部20[i]は、人物PS[i]の感情の影響を受ける感情推定用情報に基づいて人物PS[i]の感情を推定し、その推定結果に基づき人物PS[i]の感情情報を取得する。この推定により、少なくとも上述の感情分類処理が実現され、更に感情レベル決定処理が実現されても良い。
【0068】
例えば、人物PS[i]の感情推定用情報は人物PS[i]の撮影画像情報を含んでいると良い。人物PS[i]の撮影画像情報は、端末装置10[i]のカメラ部16[i]にて得られるカメラ画像の画像信号であり、このカメラ画像に少なくとも人物PS[i]の顔画像(カメラ部16[i]にて撮影された人物PS[i]の顔の画像)が含まれる。人物の顔画像から当該人物の感情を推定する方法は公知であるため、その方法の説明を省略する。取得部20[i]は、人物の顔画像から当該人物の感情を推定する任意の方法を利用できる。また、カメラ部16[i]にて得られるカメラ画像の画像信号(即ち人物PS[i]の撮影画像情報)には人物PS[i]の視線情報も含まれる。人物PS[i]の視線情報は人物PS[i]の視線の向き及び動きを表す情報であり、人物PS[i]の視線情報と人物PS[i]の感情に相関があることが知られている。このため、人物PS[i]の視線情報も参照して人物PS[i]の感情の推定を行っても良い。この他、人物PS[i]の撮影画像情報から人物PS[i]の顔及び体の動きを検出して、その動きの検出結果に基づき人物PS[i]の感情の推定を行っても良い。
【0069】
或いは例えば、人物PS[i]の感情推定用情報は人物PS[i]の発話音声情報を含んでいても良い。人物PS[i]の発話音声情報は、人物PS[i]の発話内容を示す音声信号であり、端末装置10[i]のマイクロホン17[i]の出力音声信号に人物PS[i]の発話音声情報が含まれる。取得部20は、人物PS[i]の発話音声情報から人物PS[i]の感情を推定することができる。人物の発話音声情報から当該人物の感情を推定する方法は公知であるため、その方法の説明を省略する。取得部20[i]は、人物の発話音声情報から当該人物の感情を推定する任意の方法を利用できる。
【0070】
更に或いは例えば、人物PS[i]の感情推定用情報は人物PS[i]の生体情報を含んでいても良い。この際、センサ部19[i](
図5参照)にて人物PS[i]の生体情報が検出及び取得される。人物PS[i]の生体情報は、例えば、人物PS[i]の心拍、脳波、体温、血流及び発汗状態などを表す。人物の生体情報から当該人物の感情を推定する方法は公知であるため、その方法の説明を省略する。取得部20[i]は、人物の生体情報から当該人物の感情を推定する任意の方法を利用できる。
【0071】
人物PS[i]の感情推定用情報は、人物PS[i]の撮影画像情報、発話音声情報及び生体情報の内、任意の1つの情報又は任意の2つ情報を含むものであっても良いし、人物PS[i]の撮影画像情報、発話音声情報及び生体情報を全て含んでいても良い。推定に用いる情報の種類が増えるほど推定の精度が高まると期待される。
【0072】
本実施例によれば、カメラ画像出力条件がオフに設定されていても、会議の各参加者の手を煩わせることなく、各参加者が相手の感情を察することが可能となる。
【0073】
尚、第2実施例において、ステップS10、S20及びS30の処理から成る一連の処理群は所定周期で繰り返し実行されて良い。例えば、
図10に示す如く、電子会議開催期間を、所定周期分の長さを有するフレームを単位に複数に分割する。実際には、電子会議開催期間の開始後、所定周期が経過するごとに新たなフレームが設定され、これにより最終的には電子会議開催期間に複数のフレームが設定される。そして、ステップS10では、フレームごとにフレーム内の感情推定用情報に基づいて人物PS[i]の感情を推定し、その推定結果に基づき人物PS[i]の感情情報を取得すれば良い。ステップS20において端末装置10[i]及び10[g]間で伝達される感情情報、及び、ステップS30において端末装置10[g]に表示される人物PS[i]の感情情報は、ステップS10で取得された最新の感情情報により更新されると良い。
【0074】
<<第3実施例>>
第3実施例を説明する。第3実施例は第1実施例と組み合わせて実施される。第3実施例に係る感情情報取得部20[i]は、端末装置10[i]の操作部15[i]にて人物PS[i]からの感情指定操作の入力を受け付け、操作部15[i]にて受けた感情指定操作の内容に基づいて人物PS[i]の感情情報を取得する。
【0075】
感情指定操作により、少なくとも上述の感情分類処理が実現される。即ち、感情指定操作は、人物PS[i]の感情がf種類の分類先感情の何れに分類されるのかを指定する感情分類指定操作を含み、この感情分類指定操作の指定内容に従って、取得部20[i]は人物PS[i]の感情情報(詳細には、人物PS[i]の感情がf種類の分類先感情の何れに分類されるのかを示す情報)を設定及び取得する。
【0076】
感情指定操作に基づき更に上述の感情レベル決定処理が実現されても良い。即ち、感情指定操作は、人物PS[i]の感情レベルを指定する感情レベル指定操作を含んでいても良く、この場合、感情レベル指定操作の指定内容に従って、取得部20[i]は人物PS[i]の感情情報(詳細には、人物PS[i]の感情レベルを示す情報)を設定及び取得する。
【0077】
感情指定操作の態様は任意であり、例えばリストからの選択又はテキスト入力により感情指定操作が構成されて良い。
【0078】
本実施例によれば、第2実施例で述べたような推定を必要とすることなく、自身の感情を相手に通知する、又は、相手の感情を知ることが可能となる。相手に自身の心の内を明かしたくない場合には、指定の感情(場合によっては虚偽の感情)を相手に通知するといったことも可能である。
【0079】
尚、第3実施例において、ステップS10、S20及びS30の処理から成る一連の処理群は所定周期で繰り返し実行されて良い。ステップS20において端末装置10[i]及び10[g]間で伝達される感情情報、及び、ステップS30において端末装置10[g]に表示される人物PS[i]の感情情報は、ステップS10で取得された最新の感情情報により更新されると良い。
【0080】
<<第4実施例>>
第4実施例を説明する。第4実施例は第1実施例と組み合わせて実施され、第2実施例に示した技術と第3実施例に示した技術が第4実施例に組み込まれる。
【0081】
図11に第4実施例における人物PS[i]の感情情報の設定及び取得の概念図を示す。第4実施例に係る感情情報取得部20[i]は、第2実施例にて感情情報を生成する処理に相当する推定情報生成処理と、第3実施例にて感情情報を生成する処理に相当する手動情報生成処理と、の双方を実行できる。但し、第4実施例において、推定情報生成処理にて生成された情報及び手動情報生成処理にて生成された情報は、ステップS10にて取得されるべき感情情報の候補として機能する。
【0082】
即ち、推定情報生成処理において、取得部20[i]は、第2実施例に示した方法により、人物PS[i]の感情推定用情報に基づいて人物PS[i]の感情を推定し、その推定結果に基づき人物PS[i]の感情に関わる第1候補情報を生成する。人物PS[i]の感情に関わる第1候補情報は、第2実施例で取得されるべき人物PS[i]の感情情報と同じである。また、手動情報生成処理において、取得部20[i]は、第3実施例に示した方法により、端末装置10[i]の操作部15[i]にて人物PS[i]からの感情指定操作の入力を受け付け、操作部15[i]にて受けた感情指定操作の内容に基づき人物PS[i]の感情に関わる第2候補情報を生成する。人物PS[i]の感情に関わる第2候補情報は、第3実施例で取得されるべき人物PS[i]の感情情報と同じである。そして、取得部20[i]は、第1候補情報又は第2候補情報を人物PS[i]の感情情報に設定する(即ち第1候補情報又は第2候補情報を人物PS[i]の感情情報として取得する)。
【0083】
手動情報生成処理に基づく第2候補情報は感情指定操作があった場合にのみ生成される。取得部20[i]は、感情指定操作があった場合には手動情報生成処理で生成された第2候補情報を人物PS[i]の感情情報に設定する(即ち第2候補情報を人物PS[i]の感情情報として取得する)。第2候補情報が人物PS[i]の感情情報に設定された場合には、感情指定操作に基づく人物PS[i]の感情情報が端末装置10[g]に伝達されて人物PS[g]に通知される。
【0084】
取得部20[i]は、感情指定操作がなかった場合には推定情報生成処理で生成された第1候補情報を人物PS[i]の感情情報に設定する(即ち第1候補情報を人物PS[i]の感情情報として取得する)。第1候補情報が人物PS[i]の感情情報に設定された場合には、上記推定結果に基づく人物PS[i]の感情情報が端末装置10[g]に伝達されて人物PS[g]に通知される。
【0085】
人物PS[i]の感情情報に関し、端末装置10[i]の動作モードは、第1候補情報が人物PS[i]の感情情報に設定されて端末装置10[g]に伝達される第1モード、又は、第2候補情報が人物PS[i]の感情情報に設定されて端末装置10[g]に伝達される第2モードに設定される、と言える。端末装置10[i]の動作モードが第1モードに設定されている状態での端末装置10[i]の動作は第2実施例と同様であり、端末装置10[i]の動作モードが第2モードに設定されている状態での端末装置10[i]の動作は第3実施例と同様である。端末装置10[i]の動作モードを第1又は第2モードに設定するモード設定部(不図示)が端末制御部13[i]に設けられている、と考えることができる。
【0086】
端末装置10[i]の動作モードは原則として第1モードに設定される。即ち、端末装置10[i]の動作モードは、操作部15[i]に感情指定操作が入力されない限り、第1モードに維持される。端末装置10[i]の動作モードが第1モードに設定されている状態を起点に、操作部15[i]に対して感情指定操作が入力されると、端末装置10[i]の動作モードが第1モードから第2モードに切り替わる。以後、例えば、操作部15[i]に所定の解除操作が入力されるまで端末装置10[i]の動作モードが第2モードに維持され、操作部15[i]に所定の解除操作が入力されたことを契機に端末装置10[i]の動作モードが第1モードに戻される。或いは例えば、端末装置10[i]の動作モードが第1モードから第2モードに切り替わった後、所定時間(例えば10秒)が経過すると、端末装置10[i]の動作モードが第2モードから第1モードに戻るようにしても良い。
【0087】
本実施例によれば、第2実施例の効果と第3実施例の効果の双方を奏することができる。即ち、原則として、推定情報生成処理を通じ会議の各参加者の手を煩わせることなく相手の感情を察することができるようになる一方で、相手に自身の心の内を明かしたくない場合などに限り指定の感情(場合によっては虚偽の感情)を相手に通知するといったことが可能となる。
【0088】
<<第5実施例>>
第5実施例を説明する。第4実施例において、推定情報生成処理による人物PS[i]の感情の推定結果が所定の通知判定条件を満たすとき、端末装置10[i]は、人物PS[i]に対して感情指定操作の入力に関わる手動入力示唆通知を行っても良い。これを第5実施例として説明する。第5実施例は第4実施例に応用技術を付加した実施例であり、第4実施例と組み合わせて実施される。
【0089】
図12(a)及び(b)を参照し、各端末装置10には上記の手動入力示唆通知を行うための手動入力示唆通知部22が設けられており、端末装置10[i]に設けられた手動入力示唆通知部22を特に記号“22[i]”にて参照する。通知部22[1]は人物PS[1]に対して手動入力示唆通知を行い、通知部22[2]は人物PS[2]に対して手動入力示唆通知を行う。通知部22[3]等も同様である。通知部22[i]は端末制御部13[i]が端末用プログラムPG1を実行することで実現される機能ブロックである。通知部22[i]についての説明は、通知部22[1]~22[n]の夫々に適用される。
【0090】
図13を参照して第5実施例の動作を説明する。第5実施例では、
図13に示されるステップS11~S18の処理を
図8のステップS10にて実行する。各端末装置10においてステップS11~S18の処理を実行することができるが、ここでは、説明の具体化のため、端末装置10[i]に注目し、端末装置10[i]で実行されるステップS11~S18の処理を説明する。端末装置10[i]における端末制御部13[i]が端末用プログラムPG1を実行することでステップS11~S18の処理が実行される。
図13の動作はステップS11の処理から始まる。
【0091】
ステップS11において、感情情報取得部20[i]は推定情報生成処理を実行し、人物PS[i]の感情を推定することで第1候補情報を取得する。続くステップS12において、端末制御部13[i]は操作部15[i]に感情指定操作が入力されたかを確認し、感情指定操作の入力があった場合には(ステップS12のY)ステップS12からステップS16に進む一方で、感情指定操作の入力がなかった場合には(ステップS12のN)ステップS12からステップS13に進む。
【0092】
ステップS13において、端末制御部13[i](例えば端末制御部13[i]に内包される条件成否判定部(不図示))は、ステップS11における人物PS[i]の感情の推定結果に基づき、所定の通知判定条件の成否を判定する。通知判定条件の内容については後述される。ステップS13において通知判定条件が成立していると判定された場合には(ステップS13のY)ステップS14に進み、そうでない場合には(ステップS13のN)ステップS18に進む。
【0093】
ステップS14において、手動入力示唆通知部22[i]は人物PS[i]に対して感情指定操作の入力に関わる手動入力示唆通知を行う。手動入力示唆通知部22[i]により実行される手動入力示唆通知は、感情指定操作の存在を人物PS[i]に認識させる任意の通知であって良く、例えば、人物PS[i]に対して感情指定操作の入力を促す又は推奨する第1示唆通知でも良いし、人物PS[i]に対して感情指定操作の入力の必要性を問い合わせる第2示唆通知であっても良いし、人物PS[i]に対して感情指定操作の入力が可能であることを知らせる第3示唆通知であっても良い。人物PS[i]の知覚に訴える任意の方法で手動入力示唆通知を行って良い。但し、音声による手動入力示唆通知は会議の進行阻害等を招きうるので手動入力示唆通知は視覚的な通知であると良い。即ち例えば、手動入力示唆通知部22[i]による手動入力示唆通知は、感情指定操作の入力に関わる示唆画像(例えば上記第1、第2又は第3示唆通知を実現するテキスト画像等)を表示部14[i]に表示する通知であると良い。
【0094】
ステップS14にて手動入力示唆通知を行った後、ステップS15において、端末制御部13[i]により操作部15[i]に感情指定操作が入力されたか否かが監視される。ステップS14にて手動入力示唆通知を行った後、所定のタイムタウト時間が経過するまでに操作部15[i]に感情指定操作が入力された場合には(ステップS15のY)ステップS15からステップS16に進み、そうでない場合には(ステップS15のN)ステップS15からステップS18に進む。ステップS14にて手動入力示唆通知を行った後、操作部15[i]に所定のキャンセル操作が入力された場合は、即座に、ステップS15からステップS18に進むようにしても良い。
【0095】
ステップS16において、感情情報取得部20[i]は、操作部15[i]に入力された感情指定操作に基づく手動情報生成処理を実行することで人物PS[i]についての第2候補情報を生成する。ステップS16に続くステップS17において、感情情報取得部20[i]は、ステップS16にて生成された第2候補情報を人物PS[i]の感情情報に設定する。第2候補情報が人物PS[i]の感情情報に設定された場合には、感情指定操作に基づく人物PS[i]の感情情報が端末装置10[g]に伝達されて人物PS[g]に通知される。
【0096】
一方、ステップS18において、感情情報取得部20[i]は、ステップS11にて生成された第1候補情報を人物PS[i]の感情情報に設定する。第1候補情報が人物PS[i]の感情情報に設定された場合には、上記推定結果に基づく人物PS[i]の感情情報が端末装置10[g]に伝達されて人物PS[g]に通知される。
【0097】
推定情報生成処理の結果に基づく通知判定条件の成否の例を説明する。推定情報生成処理の中で、推定を通じた上記感情分類処理により人物PS[i]の感情がf種類の分類先感情の何れに分類されるのかが判断(推定)され、推定を通じた上記感情レベル決定処理により人物PS[i]の感情レベルが判断(推定)される。
【0098】
例えば、通知判定条件は、推定情報生成処理における感情分類処理により人物PS[i]の感情が特定の分類先感情に分類されたときに成立する。特定の分類先感情は、例えば「怒り」の感情である。この場合、人物PS[i]が「怒り」の感情を抱き、それが正しく推定されたとき、通知判定条件が成立する。このとき、「怒り」の感情情報が人物PS[g]に通知されることを人物PS[i]が望まないならば、人物PS[i]は感情指定操作を入力することで真の感情を隠すことができる。尚、特定の分類先感情は「怒り」の感情以外でも良い。
【0099】
或いは例えば、通知判定条件は、推定情報生成処理における感情レベル決定処理により人物PS[i]の感情レベルが所定レベル以上であると判断(推定)されたときに成立する。例えば、人物PS[i]の感情レベルが第4レベル以上であると判断(推定)されたときに通知判定条件が成立して良い。このとき、高い感情レベルが人物PS[g]に通知されることを人物PS[i]が望まないならば、人物PS[i]は感情指定操作を入力することで感情レベルの高まりを隠すことができる。推定情報生成処理における感情分類処理により人物PS[i]の感情が特定の分類先感情に分類され、且つ、推定情報生成処理における感情レベル決定処理により人物PS[i]の感情レベルが所定レベル以上であると判断(推定)されたときに通知判定条件が成立するものであっても良い。
【0100】
更に或いは例えば、通知判定条件は、推定情報生成処理にて推定された人物PS[i]の感情の変化が大きいときに成立するであっても良い。感情の大きな変化は人物PS[i]の動揺を表すと考えられる。より具体的には例えば、推定情報生成処理にて推定された人物PS[i]の感情レベルの所定時間内での変化量が所定値以上であるとき、通知判定条件が成立しても良い。このとき、感情の大きな変化(動揺)が人物PS[g]に通知されることを人物PS[i]が望まないならば、人物PS[i]は感情指定操作を入力することで感情に大きな変化が生じたことを隠すことができる。
【0101】
また例えば、人物PS[i]が操作部15[i]に対し所定の設定操作を入力することで、端末装置10[i]における通知判定条件が自在に設定されるようにしても良い。
【0102】
本実施例の如く手動入力示唆通知を行い得るようにしておくことで、人物PS[i]の特定の感情や感情の起伏など、相手側に知られたくない感情情報の相手側への通知を効果的に抑制できる。
【0103】
<<第6実施例>>
第6実施例を説明する。第6実施例は第1~第5実施例を含む任意の実施例と組み合わせ可能である。
図14(a)及び(b)を参照し、各端末装置10には画像処理部24が設けられており、端末装置10[i]に設けられた画像処理部24を特に記号“24[i]”にて参照する。画像処理部24[i]は端末制御部13[i]が端末用プログラムPG1を実行することで実現される機能ブロックであっても良いし、端末制御部13[i]とは別に設けられたプロセッサであっても良い。また、各端末装置10には登録画像群データ25及び加工用データ26が与えられる。端末装置10[i]における登録画像群データ25及び加工用データ26を特に記号“25[i]”、“26[i]”にて参照する。登録画像群データ25[i]及び加工用データ26[i]は記憶部12[i](
図5参照)内に予め記憶されたデータであって良いし、電子会議の開始に先立ってサーバ装置30から端末装置10[i]に送信されるデータであっても良い。
【0104】
図15に示す如く、人物PS[1]~PS[n]の顔に対応する計n個の登録画像RI[1]~RI[n]が予め会議システムSYSに登録及び設定されている。登録画像RI[i]は人物PS[i]の顔に対応する静止画像である。登録画像RI[i]は、人物PS[i]の顔を撮影することで得られた画像そのものであっても良いし、人物PS[i]の顔を模したアニメーション画像であっても良い。
【0105】
各端末装置10の登録画像群データ25に登録画像RI[1]~RI[n]の画像データが含まれる。但し、人物PS[i]に対応する端末装置10[i]の登録画像群データ25[i]に当該人物PS[i]の登録画像RI[i]の画像データは含まれていなくて良い。
【0106】
加工用データ26は各登録画像を感情情報に応じて加工するために参照されるデータである。この加工を画像処理部24にて行い、加工後の登録画像をステップS30の感情通知画像(
図8参照)として表示する。人物PS[i]の感情情報に基づく感情通知画像を端末装置10[g]で表示する際の動作を具体的に説明する。
図8のステップS10及びS20により人物PS[i]の感情情報が端末装置10[i]から端末装置10[g]に伝達される。ステップS30において、端末装置10[g]における画像処理部24[g]は登録画像群データ25[g]から人物PS[i]に対応する登録画像RI[i]を読み出し、加工用データ26[g]に基づき登録画像RI[i]を人物PS[i]の感情情報に応じて加工する。この加工後の登録画像RI[i]が人物PS[i]の感情を表す感情通知画像として表示部14[g]にて表示される。例えば、人物PS[i]の感情情報にて示される人物PS[i]の感情が「怒り」の感情であるとき、画像処理部24[g]は、加工後の登録画像RI[i]が「怒り」の感情を表出させた人物PS[i]の顔を模した画像となるように、登録画像RI[i]を加工する。この際、人物PS[i]の感情情報に感情レベルが含まれるのであれば、その感情レベルに応じて加工の内容を変化させて良い。
【0107】
本実施例によれば、カメラ画像出力条件がオフに設定されていても、加工後の登録画像を見ることで相手の感情を察することが可能となる(即ち相手の表情を伺うのと同様の効果が得られる)。
【0108】
<<第7実施例>>
第7実施例を説明する。第7実施例では上述の第6実施例に対して応用技術を付加する。会議システムSYSにおいて、人物PS[1]~PS[n]の発話内容を夫々にテキストデータに変換する音声認識処理が実行されて良い。ここでは音声認識処理がサーバ制御部33にて実行されると考える。サーバ制御部33は、電子会議開催期間において人物PS[i]の発話があったとき、人物PS[i]の発話内容の音声信号を含むマイクロホン17[i]の出力音声信号を端末装置10[i]から受信し、その受信信号に対して音声認識処理を施すことで人物PS[i]の発話内容をテキストデータに変換する。サーバ装置30は、このテキストデータ(人物PS[i]の発話内容を表すテキストデータ)を端末装置10[i]以外の各端末装置10に送信する。また、これと並行して、サーバ制御部33は、人物PS[i]の感情情報も端末装置10[i]以外の各端末装置10に送信する。
【0109】
このとき、端末装置10[i]以外の端末装置10の代表である端末装置10[g]は以下のように動作する。人物PS[i]の感情情報及び人物PS[i]の発話内容を表すテキストデータ(以下、テキストデータTXT[i]と称する)を受けた端末装置10[g]において、画像処理部24[g]は、登録画像群データ25[g]から人物PS[i]に対応する登録画像RI[i]を読み出し、加工用データ26[g]を参照しつつ登録画像RI[i]を元に人物PS[i]の感情情報及びテキストデータTXT[i]に応じた動画像を生成する。この動画像が感情通知画像として表示部14[g]にて表示される。この動画像は、登録画像RI[i]を、人物PS[i]の感情情報に応じて且つテキストデータTXT[i]に応じて加工することで得られる画像である。例えば、人物PS[i]の感情情報にて示される人物PS[i]の感情が「怒り」の感情であるとき、「怒り」の感情を表出させた人物PS[i]の顔を模した画像が人物PS[i]の発言内容に沿って動くような動画像を生成する。
【0110】
本実施例によれば、カメラ画像出力条件がオフに設定されていても、感情に関わる表情を含めて、実際に相手がしゃべっている様子を示したような動画像を表示することができる。これにより相手の感情を察することが可能となる(即ち相手の表情を伺うのと同様の効果が得られる)。
【0111】
尚、端末装置10[i]において感情指定操作が入力されていた場合にあっては、その感情指定操作に基づいて生成された人物PS[i]の感情情報に基づき、人物PS[i]の発話内容の音声信号を含むマイクロホン17[i]の出力音声信号を加工する音声信号加工処理を実行して良い。この場合、音声信号加工処理後のマイクロホン17[i]の出力音声信号が端末装置10[g]にて音声出力される。即ち例えば、端末装置10[i]において感情指定操作が入力され、その感情指定操作が「怒り」の感情を指定しているとき、人物PS[i]の発話内容を表すマイクロホン17[i]の出力音声信号を「怒り」の感情を含んだ音声信号に加工し、この加工後の音声信号を端末装置10[g]に送信して端末装置10[g]にて音声出力されるようにして良い。マイクロホン17[i]の出力音声信号を加工する音声信号加工処理は、端末装置10[i]内に設けられた音声信号処理部(不図示)にて実行される。但し、この音声信号加工処理をサーバ装置30にて行うようにしても良い。
【0112】
<<第8実施例>>
第8実施例を説明する。第8実施例では会議データの記録及び再生に関わる動作例を説明する。第8実施例は上述の第1~第7実施例を含む任意の実施例と組み合わせ可能である。
図16に示す如く、サーバ装置30には記録管理部41、記録媒体42、再生管理部43、統計処理部44及び統計通知部45が設けられる。記録媒体42はサーバ装置30とは物理的に分離された記録媒体であっても良い。記録管理部41、再生管理部43、統計処理部44及び統計通知部45は、サーバ制御部33が端末用プログラムPG2を実行することで実現される機能ブロックである。尚、第8実施例の実現にあたり、統計処理部44及び統計通知部45は不要である。第8実施例では統計処理部44及び統計通知部45の機能について触れず、後述の他の実施例で統計処理部44及び統計通知部45の説明を設ける。
【0113】
記録管理部41は、会議システムSYSにおいて開催された会議(電子会議)に関わる会議データを記録媒体42に記録させる。再生管理部43は、何れかの端末装置10からの要求信号の受信に応答して、記録媒体42より会議データの全部又は一部を読み出し、読み出したデータを要求信号の送信元の端末装置10に送信する。
【0114】
図17に会議データの構造を示す。会議データは会議主データを含む。会議主データは、会議共有画像データ(換言すれば会議共有映像データ)、会議共有音声データ及び会議共有資料データを含む。
【0115】
電子会議開催期間(
図10参照)では、何れかの端末装置10又はサーバ装置30の制御の下で共有画像が設定され、端末装置10[1]~10[n]の全てにおいて当該共有画像が表示される。会議共有画像データは、電子会議開催期間中における共有画像を示す画像データである。
【0116】
電子会議開催期間(
図10参照)においては、継続的に、各端末装置10からマイクロホン17の出力音声信号に基づく音声信号がサーバ装置30に送信される。このため、人物PS[i]の発話期間においては人物PS[i]の発話内容を含む音声信号が端末装置10[i]からサーバ装置30に送信される。端末装置10[1]~10[n]の夫々からサーバ装置30に送信される音声信号を全て包含する音声信号(即ち端末装置10[1]~10[n]の夫々からサーバ装置30に送信される音声信号の合成信号)が、電子会議開催期間の全体に亘り、会議共有音声データとして記録媒体42に記録される。尚、各端末装置10にはエコーキャンセラが設けられている。エコーキャンセラの機能により、端末装置10[i]からサーバ装置30に送信される音声信号において、スピーカ18[i]の出力音の信号成分は除去又は十分に低減されている。また、記録媒体42に記録される各データにはデータの生成又は取得日時を表すタイムスタンプ(時刻データ)が付加される。各データの再生時にはタイムスタンプに基づいて各データの同期がとられる他、タイムスタンプに基づき、指定された時間帯のデータの選択再生が可能となる。
【0117】
人物PS[1]~PS[n]の何れかは、自身の端末装置10を操作することで会議に対して資料データを登録することができる。この登録された資料データは会議共有資料データとして記録媒体42に記録される。会議共有資料データは電子会議開催期間中に各端末装置10上で表示され得る。
【0118】
各人物は会議データを任意のタイミングで任意の用途(例えば議事録作成用途)に利用できる。電子会議開催期間の終了後、人物PS[1]~PS[n]の内の任意の人物PS[i]が、端末装置10[i]の操作部15[i]に所定の第1再生要求操作を入力すると、端末制御部13[i]はサーバ装置30に対して所定の第1要求信号を送信する。第1再生要求操作はパスワードの入力などによる認証操作を含むものであると良い。サーバ装置30にて第1要求信号が受信されると、再生管理部43は記録媒体42から会議主データを読み出して、会議主データを端末装置10[i]に送信する。端末装置10[i]にて会議主データが受信されると、端末制御部13[i]の制御の下、会議主データが端末装置10[i]上で再生される。会議主データの再生は、会議共有画像データにて表される共有画像の表示部14[i]での表示と、会議共有音声データにて表される音声信号のスピーカ18[i]からの音声出力と、を含み、会議共有資料データの表示部14[i]での表示も更に含みうる。端末装置10[i]における会議主データの再生は、端末装置10[i]において過去に行われた会議の内容を再現するものである。即ち、電子会議開催期間の終了後、端末装置10[i]での会議主データの再生により、会議の中で端末装置10[i]で表示されていた共有画像が時系列に沿って再度表示されると共に会議の中での各人物の発話内容が時系列に沿って再度音声出力される。
【0119】
図17に示す如く会議データは個別音声データと属性データの組を、1以上を含む。会議では各人物が発話を行う。個別音声データは各人物の発話ごとの発話の内容を表す音声データである。記録管理部41は各発話に対応する属性データを作成して会議データに含める。
【0120】
電子会議開催期間において、マイクロホン17[i]の出力音声信号に基づき発話/沈黙期間設定処理が実行される。発話/沈黙期間設定処理では、人物PS[i]が発話している期間である人物PS[i]の発話期間及び人物PS[i]が沈黙している期間である人物PS[i]の沈黙期間を認識及び設定する。人物PS[1]の発話期間及び沈黙期間を設定するための発話/沈黙期間設定処理は端末制御部13[1]より実行されて良く、人物PS[2]の発話期間及び沈黙期間を設定するための発話/沈黙期間設定処理は端末制御部13[2]より実行されて良い。人物PS[3]等の発話期間及び沈黙期間の設定についても同様である。或いは、人物PS[1]~PS[n]の夫々の発話期間及び沈黙期間を設定するための発話/沈黙期間設定処理をサーバ制御部33にて実行しても良い。
【0121】
図18に属性データの構造を示す。記録管理部41は、電子会議開催期間において、時系列に沿って会議の参加者の発話ごとに固有の発話番号を割り当てる。そして、記録管理部41は、各発話番号に対し、対応する発話者の発話内容を表す個別音声データと属性データとを互いに関連付けて会議データに含める。
【0122】
ここでは具体例として、電子会議開催期間において1番目に人物PS[1]が発話し、2番目に人物PS[6]が発話した場合を想定する。この場合、1番目の発話に対応して、記録管理部41は、「001」の発話番号を設定すると共に、人物PS[1]の発話期間中におけるマイクロホン17[1]の出力音声信号を含む個別音声データSD_001と、属性データAD_001とを、「001」の発話番号に関連づけて会議データに格納する。2番目の発話に対応して、記録管理部41は、「002」の発話番号を設定すると共に、人物PS[6]の発話期間中におけるマイクロホン17[6]の出力音声信号を含む個別音声データSD_002と、属性データAD_002とを、「002」の発話番号に関連付けて会議データに格納する。3番目以降の発話についても同様である。
【0123】
属性データは、対応する発話者が人物PS[1]~PS[n]が何れであるのかを特定する発話者情報、対応する発話者による発話の開始時刻及び終了時刻を特定する発話時刻情報、対応する発話者の発話期間中の感情情報を含む。記録管理部41は電子会議開催期間中において各端末装置10からサーバ装置30に送信される感情情報を属性データの作成に利用できる。
【0124】
上記具体例に関し、「001」の発話番号に関連付けられた属性データAD_001においては、発話者情報は個別音声データSD_001に対応する発話者が人物PS[1]であることを示し、発話時刻情報は個別音声データSD_001に対応する発話者(PS[1])の発話期間の開始時刻及び終了時刻を示し、発話者の感情情報は個別音声データSD_001に対応する発話者(PS[1])の発話期間中の感情情報を示す。同様に、「002」の発話番号に関連付けられた属性データAD_002においては、発話者情報は個別音声データSD_002に対応する発話者が人物PS[6]であることを示し、発話時刻情報は個別音声データSD_002に対応する発話者(PS[6])の発話期間の開始時刻及び終了時刻を示し、発話者の感情情報は個別音声データSD_002に対応する発話者(PS[6])の発話期間中の感情情報を示す。
【0125】
また、属性データは、対応する発話者の発話期間において共有画像として参照されていた資料のページ番号などを、更に含んでいて良い。
【0126】
尚、記録媒体42において個別音声データと会議共有音声データとを別々に記録しておくことも可能であるが、会議共有音声データは全ての個別音声データを包含しているため、会議共有音声データを記録媒体42に記録しておいて必要に応じ会議共有音声データから個別音声データを抽出するようにしても良い。
【0127】
本実施例において特筆すべきは、記録される会議データに発話者の感情情報が格納されている点である。会議データ中の発話者の感情情報を参照することで、参照者は発話者の発話当時の感情を推し量ることができる。これは、発話の意図の解釈等に役立つと考えられる。
【0128】
上述したように、各人物は会議データを任意のタイミングで任意の用途(例えば議事録作成用途)に利用できる。電子会議開催期間の終了後、人物PS[1]~PS[n]の内の任意の人物PS[i]が、端末装置10[i]の操作部15[i]に所定の第2再生要求操作を入力すると、端末制御部13[i]はサーバ装置30に対して所定の第2要求信号を送信する。第2再生要求操作はパスワードの入力などによる認証操作を含むものであると良い。ここで、第2再生要求操作は属性データの取得を要求する操作であり、故に、第2要求信号は属性データの送信を要求する操作である。サーバ装置30にて第2要求信号が受信されると、再生管理部43は記録媒体42から会議データに含まれる各属性データを読み出して、各属性データを端末装置10[i]に送信する。端末装置10[i]にて各属性データが受信されると、端末制御部13[i]の制御の下、各属性データが端末装置10[i]上で表示される。
【0129】
ここで、端末装置10[i]上で表示された全属性データの内、属性データAD_001を指定する所定の第3再生要求操作が操作部15[i]に入力されたとき、端末制御部13[i]はサーバ装置30に対して所定の第3要求信号を送信する。サーバ装置30にて第3要求信号が受信されると、再生管理部43は記録媒体42から会議データに含まれる個別音声データSD_001を読み出して、個別音声データSD_001を端末装置10[i]に送信する。端末装置10[i]にて個別音声データSD_001が受信されると、端末制御部13[i]の制御の下、個別音声データSD_001が端末装置10[i]上で再生出力される。即ち、音声データSD_001に含まれる音声信号(発話番号001に対応する、人物PS[1]の発話期間中のマイクロホン17[1]の出力音声信号)が端末装置10[i]上で音声出力される。属性データAD_002等を指定する第3再生要求操作が操作部15[i]に入力された場合も同様である。
【0130】
<<第9実施例>>
第9実施例を説明する。第9実施例でも会議データの記録に関わる動作例を説明する。第9実施例は上述の第1~第8実施例を含む任意の実施例と組み合わせ可能である。第9実施例でも、第8実施例に示した会議データを記録媒体42(
図16参照)に記録する。但し、第9実施例に係る記録管理部41は、記録媒体42に記録される会議データに、
図19に示すような付加データを追加する。
【0131】
付加データについて説明する。記録管理部41において電子会議開催期間は時系列で並ぶ複数の単位期間に分割される。各単位期間は所定の単位時間分の長さを有する。単位時間の長さは任意であり、例えば、1分、10秒又は5秒である。単位期間は
図10に示したフレームと一致していて良い。但し、複数のフレームにて単位期間が構成されていても良い。
【0132】
付加データは発話有無情報を含む。発話有無情報は、会議の参加者ごとに(即ち人物PS[1]~PS[n]の夫々について)、当該参加者が電子会議開催期間中の各単位期間において発話していたか否かを示す。記録管理部41は上述の発話/沈黙期間設定処理の設定結果に基づき発話有無情報を作成できる。
【0133】
付加データは感情時系列情報を含む。感情時系列情報は、会議の参加者ごとに(即ち人物PS[1]~PS[n]の夫々について)、電子会議開催期間中の当該参加者の感情情報の時系列変化を表す。故に、人物PS[1]の各単位期間における感情情報、人物PS[2]の各単位期間における感情情報、・・・、及び、人物PS[n]の各単位期間における感情情報が、感情時系列情報に含められる。記録管理部41は電子会議開催期間中において各端末装置10からサーバ装置30に送信される感情情報に基づき感情時系列情報を作成できる。
【0134】
また、付加データは、各単位期間において共有画像として参照されていた資料のページ番号などを、更に含んでいて良い。
【0135】
本実施例において特筆すべきは、記録される会議データに各参加者の感情情報が格納されている点である。各参加者の感情情報を参照することで、参照者は電子会議開催期間中の各時刻における場の状況や各参加者の思惑を推し量ることができる。
【0136】
電子会議開催期間中の各時刻における場の雰囲気を解析するための機能ブロックとして統計処理部44(
図16)を利用することができる。
図20に示す如く、統計処理部44は、電子会議開催期間中の各時刻における人物PS[1]~PS[n]の感情情報の統計をとることで感情統計データを生成する。統計処理部44は、電子会議開催期間中にリアルタイムで感情統計データを生成しても良いし、電子会議開催期間の終了後の任意のタイミングで感情統計データを生成しても良い。
【0137】
具体的には例えば、統計処理部44は、第1番目の単位期間における人物PS[1]~PS[n]の感情情報の統計をとることで第1の感情統計データを生成し、第2番目の単位期間における人物PS[1]~PS[n]の感情情報の統計をとることで第2の感情統計データを生成する。第3番目の単位期間についても同様である。ここでは、電子会議開催期間が第1~第m番目の単位期間にて構成されると考える(mは2以上の任意の整数)。そうすると、第j番目の単位期間における人物PS[1]~PS[n]の感情情報の統計をとることで第jの感情統計データが生成されることになる(jはm以下の任意の自然数)。
【0138】
第jの感情統計データは人物PS[1]~PS[n]の感情情報に基づく統計量であり、所定のアルゴリズムに従って人物PS[1]~PS[n]から第jの感情統計データが生成される。単純には例えば、人物PS[i]の感情がポジティブ感情及びネガティブ感情の何れに属するのかを2段階で分類判定することで人物PS[i]の感情情報を生成する場合、第j番目の単位期間における人物PS[1]~PS[n]の感情情報の内、ポジティブ感情に分類された感情情報の個数VAL[j]をカウントし、カウント値VAL[j]を第jの感情統計データとして生成する。
【0139】
記録管理部41は第1~第mの単位期間における感情統計データを会議データに含めて記録媒体42に記録して良い。これにより、会議の場の雰囲気を任意のタイミングで確認するといったことが可能となる。
【0140】
また、電子会議開催期間中に感情統計データに基づく通知をリアルタイムに各端末装置10にて行わせることも可能である。これは統計通知部45(
図16参照)を用いて実現される。統計通知部45について説明する。
【0141】
統計通知部45は、各単位期間において感情統計データに基づく通知を各端末装置10で行わせるための統計通知処理を実行する。統計通知処理で行われる通知は、電子会議開催期間中においてリアルタイムに行われる。このため、統計通知処理は、統計処理部44において電子会議開催期間中にリアルタイムで感情統計データが生成されることを前提とする。
【0142】
電子会議開催期間において、第j番目の単位期間についての第jの感情統計データが統計処理部44にて生成されると、統計通知部45は第jの感情統計データに基づく統計通知情報を各端末装置10に送信する(
図21参照)。各端末装置10において、統計通知情報が受信されると端末制御部13は受信した統計通知情報を表す統計通知画像を表示部14に表示させる。これにより、端末装置10[i]において統計通知情報が人物PS[i]に通知される。
【0143】
図22に統計通知画像が表示された状態での表示部14の表示例を示す。
図22において、画像TIが統計通知画像の例である。例えば、第jの感情統計データが上記のカウント値VAL[j]である場合、統計通知画像は、カウント値VAL[j]そのものを数値化した画像であっても良いし、画像TIの如くカウント値VAL[j]をバー表示した画像であっても良い。
【0144】
統計通知画像の観察者は統計通知画像を見ることにより、参加者全体で形成される場の雰囲気(例えば盛り上がり度合い)を感じ取ることができ、もって会議の円滑な進行が促進されると期待される。
【0145】
尚、統計通知部45は所定の通知条件が成立した場合にのみ統計通知情報を各端末装置10に送信するようにしても良い。即ち例えば、第jの感情統計データが上記のカウント値VAL[j]である場合、カウント値VAL[j]が所定値以上であるときにのみ統計通知部45は第jの感情統計データに基づく統計通知情報を各端末装置10に送信するようにしても良い。これにより、例えば、会議の各参加者は、場の雰囲気が盛り上がっているか否か等をリアルタイムに認識することができる。
【0146】
また、端末装置10の設定状態によっては統計通知画像が表示部14に表示されないことがあっても良い。例えば、端末装置10[1]及び10[2]の設定状態に応じて、端末装置10[1]では統計通知画像が表示されるが、端末装置10[2]では統計通知画像が表示され得ないといったことがあっても良い。これを考慮すると、統計通知処理において、統計通知部45は、感情統計データに基づく通知を端末装置10[1]~10[n]の内、少なくとも1以上の端末装置10で行わせる、と言える。
【0147】
<<第10実施例>>
第10実施例を説明する。第10実施例では上述の各実施例に適用可能な応用技術、変形例技術又は注釈事項を説明する。
【0148】
上述の各実施例では、端末装置10[1]~10[n]の夫々においてカメラ画像出力条件がオフに設定されていることが想定されており、各参加者が相手の表情を確認できないことに対応すべく感情情報の相互通知を行っている。仮に、端末装置10[1]~10[n]の夫々においてカメラ画像出力条件がオンに設定されている場合には感情情報の相互通知を行わないようにしても良い(即ち
図8のステップS10、S20及びS30の処理を実行しないようにしても良い)。但し、端末装置10[1]~10[n]の夫々においてカメラ画像出力条件がオンに設定されている場合であっても感情情報の相互通知を行うようにしても構わない(即ち
図8のステップS10、S20及びS30の処理を実行しても構わない)。また、端末装置10[1]~10[n]の中に、カメラ画像出力条件がオンに設定されている端末装置10とカメラ画像出力条件がオフに設定されている端末装置10とが混在している場合にも感情情報の相互通知を行っても良い(即ち
図8のステップS10、S20及びS30の処理を実行しても良い)。
【0149】
上述の各実施例では、各端末装置10に感情情報取得部20が設けることで端末装置10[1]~10[n]に計n個の感情情報取得部20[1]~20[n]が設けられることを想定している。人物PS20[1]~20[n]の感情情報を取得する単一の感情状態取得部(第1感情状態取得部)が会議システムSYSに設けられていて、当該単一の感情状態取得部が感情情報取得部20[1]~20[n](計n個の第2感情状態取得部)にて構成される、と考えることもできる。
【0150】
各端末装置10に感情情報取得部20が設ける代わりに、人物PS20[1]~20[n]の感情情報を取得する単一の感情状態取得部(第1感情状態取得部)をサーバ装置30に設けるようにしても良い。この場合、単一の感情状態取得部(第1感情状態取得部)は、サーバ制御部33がサーバ用プログラムPG2を実行することで実現される機能ブロックであって良く、人物PS[i]の感情情報を取得するために必要な情報をネットワーク50を通じて端末装置10[i]から受信することにより上述の各実施例の方法に従い人物PS[i]の感情情報を取得すれば良い。この際、端末装置10[1]~10[n]の内の任意の端末装置10[i]においてカメラ画像出力条件がオフに設定されていても、端末装置10[i]にてカメラ部16[i]に撮影を行わせてカメラ部16[i]によるカメラ画像の画像信号をサーバ装置30に送信させる機能を、会議システムSYS(例えば端末用プログラムPG1及びサーバ用プログラムPG2)に持たせておく良い。但し、この際、端末装置10[i]のカメラ部16[i]にて取得されたカメラ画像の画像信号の、他の端末装置10への伝達はサーバ装置30にて遮断される。
【0151】
端末装置10[1]~10[n]の内、1以上の端末装置10は、自動車等の車両に搭載される車載装置であっても良い。
【0152】
端末装置10[i]又はサーバ装置30において実現される任意の特定の処理及び特定の動作を定義した特定のプログラムを作成し、当該特定のプログラムを端末装置10[i]又はサーバ装置30に設けられた演算処理装置にて実行させることで、上記特定の処理及び特定の動作を実現しても良い。端末用プログラムPG1又はサーバ用プログラムPG2は上記特定のプログラムの例である。既に述べたように、端末制御部13[i]及びサーバ制御部33の夫々に演算処理装置が設けられる。
【0153】
本発明の実施形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。
【符号の説明】
【0154】
SYS 会議システム(電子会議システム)
PS 人物(参加者)
10 端末装置
11、11[i] 通信処理部
12、12[i] 記憶部
13、13[i] 端末制御部
14、14[i] 表示部
15、15[i] 操作部
16、16[i] カメラ部
17、17[i] マイクロホン
18、18[i] スピーカ
19、19[i] センサ部
20、20[i] 感情情報取得部
22、22[i] 手動入力示唆通知部
24、24[i] 画像処理部
25、25[i] 登録画像群データ
26、26[i] 加工用データ
30 サーバ装置
31 通信処理部
32 記憶部
33 サーバ制御部
41 記録管理部
42 記録媒体
43 再生管理部
44 統計処理部
45 統計通知部
50 ネットワーク