IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ シャープ株式会社の特許一覧

特許7590866双方向通信支援システム、及び、コンピュータプログラム
<>
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図1
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図2
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図3
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図4
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図5
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図6
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図7
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図8
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図9
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図10
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図11
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図12
  • 特許-双方向通信支援システム、及び、コンピュータプログラム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-19
(45)【発行日】2024-11-27
(54)【発明の名称】双方向通信支援システム、及び、コンピュータプログラム
(51)【国際特許分類】
   H04N 7/15 20060101AFI20241120BHJP
   H04M 3/56 20060101ALI20241120BHJP
【FI】
H04N7/15
H04M3/56 C
【請求項の数】 8
(21)【出願番号】P 2020219237
(22)【出願日】2020-12-28
(65)【公開番号】P2022104190
(43)【公開日】2022-07-08
【審査請求日】2023-09-20
(73)【特許権者】
【識別番号】000005049
【氏名又は名称】シャープ株式会社
(74)【代理人】
【識別番号】100147304
【弁理士】
【氏名又は名称】井上 知哉
(74)【代理人】
【識別番号】100148493
【弁理士】
【氏名又は名称】加藤 浩二
(74)【代理人】
【識別番号】100168583
【弁理士】
【氏名又は名称】前井 宏之
(72)【発明者】
【氏名】高谷 守
【審査官】鈴木 隆夫
(56)【参考文献】
【文献】特開2001-067482(JP,A)
【文献】特開2006-262010(JP,A)
【文献】特開平02-184880(JP,A)
【文献】特開2016-213631(JP,A)
【文献】原 智英、長谷川 忍,多地点遠隔講義環境におけるつぶやき共有手法に関する提案,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2018年02月24日,Vol.117 No.469,pp. 113 - 118
(58)【調査した分野】(Int.Cl.,DB名)
H04N 7/14-7/173
H04N 21/00-21/858
H04M 3/38-3/58
(57)【特許請求の範囲】
【請求項1】
第1端末装置が配置される側に存在する第1ユーザの状態に応じて変化する第1状態データを、前記第1端末装置から受信して前記第1状態データによって示される画像及び音声を出力する第2端末装置と、前記第1端末装置との間の双方向通信を支援する双方向通信支援システムであって、
前記第2端末装置が配置される側に存在する第2ユーザの状態に応じて変化する第2状態データを解析して、前記第2ユーザの状態を特定する状態特定部と、
前記状態特定部による前記第2ユーザの状態の特定結果を示す解析情報を、前記第1端末装置に出力させる出力制御部と
を備え
前記第2状態データは、前記第2ユーザの音声を入力して生成された音声データを含み、
前記状態特定部は、音声解析部を含み、
前記音声解析部は、前記第2ユーザの前記音声データを解析して、前記第2ユーザの音声によって表される前記第2ユーザの状態を特定し、
前記第1状態データは、前記第1ユーザの音声を入力して生成された音声データを含み、
前記第1ユーザの前記音声データを解析して、前記第1ユーザからの問い掛けを示す音声を検出する特定音声検出部をさらに備え、
前記第1ユーザからの前記問い掛けを示す音声が検出された場合、前記音声解析部は、前記第2ユーザの前記音声データを解析して、前記第2ユーザの反応内容を識別し、
前記出力制御部は、前記第2ユーザの反応内容の識別結果を含む前記解析情報を、前記第1端末装置に出力させる、双方向通信支援システム。
【請求項2】
前記第2状態データは、前記第2ユーザの顔を撮像して生成された画像データを含み、
前記状態特定部は、画像解析部を含み、
前記画像解析部は、前記第2ユーザの前記画像データを解析して、前記第2ユーザの顔の表情によって表される前記第2ユーザの状態を特定する、請求項1に記載の双方向通信支援システム。
【請求項3】
前記第2状態データは、前記第2ユーザの生体情報を示す生体データを含み、
前記状態特定部は、生体データ解析部を含み、
前記生体データ解析部は、前記第2ユーザの前記生体データを解析して、前記第2ユーザの前記生体情報によって表される前記第2ユーザの状態を特定する、請求項1または2に記載の双方向通信支援システム。
【請求項4】
前記第2状態データは、前記第2ユーザの音声を入力して生成された音声データを含み、
前記第2ユーザの前記音声データに基づく音声がミュートされている場合に、前記状態特定部は、前記第2ユーザの状態を特定し、前記出力制御部は、前記状態特定部による特定結果を示す前記解析情報を、前記第1端末装置に出力させる、請求項1から請求項のいずれか1項に記載の双方向通信支援システム。
【請求項5】
複数の前記第2ユーザの状態の特定結果をそれぞれ示す複数の前記解析情報の統計を算出する統計算出部をさらに備え、
前記出力制御部は、前記統計算出部による統計結果を示す統計情報を、前記第1端末装置に出力させる、請求項1から請求項のいずれか1項に記載の双方向通信支援システム。
【請求項6】
前記統計算出部は、前記統計情報としてのグラフを作成し、
前記出力制御部は、前記グラフを前記第1端末装置に表示させる、請求項に記載の双方向通信支援システム。
【請求項7】
前記出力制御部は、前記統計情報を前記第2端末装置に出力させる、請求項又は請求項に記載の双方向通信支援システム。
【請求項8】
第1端末装置が配置される側に存在する第1ユーザの状態に応じて変化する第1状態データを、前記第1端末装置から受信して前記第1状態データによって示される画像及び音声を出力する第2端末装置と、前記第1端末装置との間の双方向通信を支援する双方向通信支援システムのコンピュータに、
前記第2端末装置が配置される側に存在する第2ユーザの状態に応じて変化する第2状態データを解析して、前記第2ユーザの状態を特定する第1ステップと、
前記第2ユーザの状態の特定結果を示す解析情報を、前記第1端末装置に出力させる第2ステップと
を実行させ
前記第2状態データは、前記第2ユーザの音声を入力して生成された音声データを含み、
前記第1ステップは、前記第2ユーザの前記音声データを解析して、前記第2ユーザの音声によって表される前記第2ユーザの状態を特定し、
前記第1状態データは、前記第1ユーザの音声を入力して生成された音声データを含み、
前記第1ユーザの前記音声データを解析して、前記第1ユーザからの問い掛けを示す音声を検出する第3ステップをさらに備え、
前記第1ユーザからの前記問い掛けを示す音声が検出された場合、前記第1ステップは、前記第2ユーザの前記音声データを解析して、前記第2ユーザの反応内容を識別し、
前記第2ステップは、前記第2ユーザの反応内容の識別結果を含む前記解析情報を、前記第1端末装置に出力させる、コンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、双方向通信支援システム、及び、コンピュータプログラムに関する。
【背景技術】
【0002】
特許文献1に記載された通信制御装置では、テレビ会議において話し手からの発話の音量レベルが取得される。そして、音量レベルが閾値より小さい場合、通信制御装置により音声認識が行われ、テキストデータが他の通信制御装置に対して送信される。テキストデータを受信した通信制御装置では、送信元の通信制御装置に対応する個別領域に、表示テキストが表示される。これにより、話し手の声が小さくて相手が聞き取りにくいと考えられる場合のみ、テキストデータが送信される。つまり、話し手の発話状態に応じて、必要な場合にのみテキストデータが送信される。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2010-232780号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載された通信制御装置では、発話内容と同じ内容を示すテキストデータが生成される。従って、テキストデータを受信した通信制御装置のテレビ会議画面には、テキストデータに基づく表示テキストが表示される。そして、テレビ会議の参加者は、表示テキストによって示される文章を読まなければならない。特に、テレビ会議の参加者が増えるほど、テレビ会議画面に表示される表示テキストも増加する。よって、参加者が、表示テキストに追従できずに、結局、表示テキストによって示される文書を読むことができない事態が発生し得る。
【0005】
加えて、特許文献1に記載された通信制御装置では、話し手の発話内容が、聞き手のテレビ会議画面に、表示テキストとして表示されるに過ぎない。従って、話し手は、聞き手の状態(例えば、聞き手の反応)を、テレビ会議画面から認識しなければならない。特に、テレビ会議の参加者が増えるほど、テレビ会議画面に表示される参加者の数も増加する。よって、話し手は、全ての聞き手の状態を、テレビ会議画面から認識することは困難である。
【0006】
本発明は上記課題に鑑みてなされたものであり、その目的は、話し手が聞き手の状態を容易に認識できる双方向通信支援システム、及び、コンピュータプログラムを提供することにある。
【課題を解決するための手段】
【0007】
本発明の第1の局面によれば、双方向通信支援システムは、第1端末装置が配置される側に存在する第1ユーザの状態に応じて変化する第1状態データを、前記第1端末装置から受信して前記第1状態データによって示される画像及び音声を出力する第2端末装置と、前記第1端末装置との間の双方向通信を支援する。双方向通信支援システムは、状態特定部と、出力制御部とを備える。状態特定部は、前記第2端末装置が配置される側に存在する第2ユーザの状態に応じて変化する第2状態データを解析して、前記第2ユーザの状態を特定する。出力制御部は、前記状態特定部による前記第2ユーザの状態の特定結果を示す解析情報を、前記第1端末装置に出力させる。
【0008】
本発明の第2の局面によれば、コンピュータプログラムは、第1端末装置が配置される側に存在する第1ユーザの状態に応じて変化する第1状態データを、前記第1端末装置から受信して前記第1状態データによって示される画像及び音声を出力する第2端末装置と、前記第1端末装置との間の双方向通信を支援する双方向通信支援システムのコンピュータに、前記第2端末装置が配置される側に存在する第2ユーザの状態に応じて変化する第2状態データを解析して、前記第2ユーザの状態を特定するステップと、前記第2ユーザの状態の特定結果を示す解析情報を、前記第1端末装置に出力させるステップとを実行させる。
【発明の効果】
【0009】
本発明によれば、話し手が聞き手の状態を容易に認識できる双方向通信支援システム、及び、コンピュータプログラムを提供できる。
【図面の簡単な説明】
【0010】
図1】本発明の実施形態1に係る双方向通信支援システムを示す図である。
図2】実施形態1に係る第2端末装置を示す図である。
図3】実施形態1に係る第1端末装置を示す図である。
図4】実施形態1に係る第1端末装置に表示される画面を示す図である。
図5】実施形態1に係る第2端末装置に表示される画面示す図である。
図6図4及び図5に示すグラフの一例を示す図である。
図7図4及び図5に示すグラフの他の例を示す図である。
図8図4及び図5に示すグラフの更に他の例を示す図である。
図9】実施形態1に係る第2端末装置の処理を示すフローチャートである。
図10】実施形態1に係る第2端末装置の反応内容識別処理を示すフローチャートである。
図11】実施形態1に係る第1端末装置の処理を示すフローチャートである。
図12】本発明の実施形態2に係るサーバ装置を示す図である。
図13】実施形態2に係るサーバ装置の処理を示すフローチャートである。
【発明を実施するための形態】
【0011】
以下、本発明の実施形態について、図面を参照しながら説明する。なお、図中、同一または相当部分については同一の参照符号を付して説明を繰り返さない。
【0012】
(実施形態1)
図1図11を参照して、本発明の実施形態1に係る双方向通信支援システムSYSを説明する。
【0013】
図1は、双方向通信支援システムSYSを示す図である。図1に示すように、双方向通信支援システムSYSは、第1端末装置TM1と、少なくとも1つの第2端末装置TM2とを備える。図1の例では、双方向通信支援システムSYSは、複数の第2端末装置TM2を備える。双方向通信支援システムSYSは、第1端末装置TM1と第2端末装置TM2との間の双方向通信を支援する。例えば、双方向通信支援システムSYSは、第1端末装置TM1と第2端末装置TM2との間のオンライン会議、オンラインセミナー、又は、オンラインライブにおける双方向通信を支援する。オンライン会議は、例えば、テレビ会議又はウェブ会議である。
【0014】
第1端末装置TM1及び複数の第2端末装置TM2は、ネットワークNWに接続され、ネットワークNWを介して相互に通信する。ネットワークNWは、例えば、インターネット、LAN(Local Area Network)、及び公衆電話網を含む。
【0015】
以下、第1端末装置TM1のユーザを「第1ユーザU1」と記載し、第2端末装置TM2のユーザを「第2ユーザU2」と記載する。第1ユーザU1は、第1端末装置TM1が配置される側に存在する。第2ユーザU2は、第2端末装置TM2が配置される側に存在する。以下、理解の容易のために、第1ユーザU1が「話し手(発話者)」又は「発信者」であり、第2ユーザU2が「聞き手」又は「視聴者」である例を説明する。
【0016】
第1端末装置TM1は、第1状態データ(以下、「第1状態データD10」と記載)を、第2端末装置TM2に送信する。第1状態データD10は、第1ユーザU1の状態に応じて変化するデータである。
【0017】
第2端末装置TM2は、第1状態データD10を第1端末装置TM1から受信する。そして、第2端末装置TM2は、第1状態データD10によって示される画像及び音声を出力する。
【0018】
第2端末装置TM2は、第2状態データ(以下、「第2状態データD20」と記載)を、第1端末装置TM1に送信する。第2状態データD20は、第2ユーザU2の状態に応じて変化するデータである。
【0019】
第1端末装置TM1は、第2状態データD20を、第2端末装置TM2から受信する。そして、第1端末装置TM1は、第2状態データD20によって示される画像及び音声を出力する。
【0020】
図2は、実施形態1に係る第2端末装置TM2を示す図である。図2に示すように、第2端末装置TM2は、第2制御部20と、第2操作部21と、第2表示部22と、第2音声出力部23と、第2通信部24と、第2状態検出部25と、第2記憶部26とを含む。第2制御部20は、第2表示制御部201と、第2音声制御部202と、第2通信制御部203と、状態特定部50と、特定音声検出部60とを含む。状態特定部50は、画像解析部501と、音声解析部502と、生体データ解析部503とを含む。
【0021】
第2制御部20は、第2操作部21、第2表示部22、第2音声出力部23、第2通信部24、第2状態検出部25、及び、第2記憶部26を制御する。第2制御部20は、CPU(Central Processing Unit)のようなプロセッサを含む。
【0022】
第2操作部21は、第2ユーザU2からの操作を受け付ける。第2操作部21は、例えば、キーボード及びマウスを含む。第2操作部21は、タッチスクリーンを含んでいてもよい。この場合、タッチスクリーンは、第2表示部22に重ねて配置される。
【0023】
第2表示部22は、各種情報を表示する。第2表示部22は、例えば、液晶ディスプレイ、又は、有機エレクトロルミネッセンスディスプレイである。なお、第2表示部22のサイズは、特に限定されず、例えば、1人の第2ユーザU2又は少数の第2ユーザU2が見るため適した大きさであってもよいし、多人数の第2ユーザU2が見るために適した大きさであってもよい。
【0024】
第2音声出力部23は、音声を出力する。第2音声出力部23は、例えば、スピーカを含む。
【0025】
第2通信部24は、通信機であり、例えば、所定の通信プロトコルに従って通信を行うネットワークインタフェースコントローラ(NIC)を含む。所定の通信プロトコルは、例えば、TCP/IP(Transmission Control Protocol/Internet Protocol)プロトコル・スイート(つまり、インターネット・プロトコル・スイート)である。第2通信部24は、有線または無線によりネットワークNWに接続する。
【0026】
第2状態検出部25は、第2ユーザU2の状態を検出する。そして、第2状態検出部25は、第2ユーザU2の状態を示す第2状態データD20を第2制御部20に出力する。第2状態データD20は、第2ユーザU2の状態に応じて変化する。第2状態データD20は、画像データD21と、音声データD22と、生体データD23とを含む。
【0027】
具体的には、第2状態検出部25は、第2撮像部261と、第2音声入力部262と、第2生体情報検出部263とを含む。
【0028】
第2撮像部261は、第2ユーザU2を撮像して、第2ユーザU2の像を含む撮像画像を示す画像データD21を第2制御部20に出力する。撮像画像は、第2ユーザU2の顔画像を含む。画像データD21によって示される画像は、第2ユーザU2の状態に応じて変化する。例えば、顔画像は、第2ユーザU2の表情に応じた内容を示す。第2撮像部261は、例えば、カメラを含む。
【0029】
第2音声入力部262には、第2ユーザU2の音声が入力される。そして、第2音声入力部262は、第2ユーザU2の音声を示す音声データD22を第2制御部20に出力する。音声データD22に基づく音声は、第2ユーザU2の状態に応じて変化する。例えば、音声は、第2ユーザU2の発話内容及び発話音量に応じた内容を示す。第2音声入力部262は、例えば、マイクロフォン及びADコンバータを含む。
【0030】
第2生体情報検出部263は、第2ユーザU2の生体情報を検出して、生体情報を示す生体データD23を第2制御部20に出力する。生体情報は、例えば、体温、脈拍、又は、血圧である。従って、第2生体情報検出部263は、例えば、体温計、脈拍計、又は、血圧計を含む。第2生体情報検出部263は、例えば、スマートウォッチに搭載される。生体データD23によって示される生体情報は、第2ユーザU2の状態に応じて変化する。
【0031】
第2記憶部26は、記憶装置を含み、データ及びコンピュータプログラムを記憶する。具体的には、第2記憶部26は、半導体メモリーのような主記憶装置と、半導体メモリー、ソリッドステートドライブ、及び/又は、ハードディスクドライブのような補助記憶装置とを含む。第2記憶部26は、リムーバブルメディアを含んでいてもよい。第2記憶部26は、非一時的コンピュータ読取可能記憶媒体の一例に相当する。
【0032】
第2制御部20のプロセッサは、第2記憶部26の記憶装置が記憶しているコンピュータプログラムを実行して、第2表示制御部201、第2音声制御部202、第2通信制御部203、状態特定部50、及び、特定音声検出部60として機能する。
【0033】
第2表示制御部201は、第2表示部22を制御する。第2音声制御部202は、第2音声出力部23を制御する。また、第2音声制御部202は、操作部61を介した第2ユーザU2からのミュート指示に応じて、第2ユーザU2の音声データD22に基づく音声をミュートする。
【0034】
第2通信制御部203は、第2通信部24を制御する。第2通信制御部203は、第2端末装置TM2において、本発明の「出力制御部」の一例に相当する。
【0035】
第2通信制御部203は、第2通信部24が第2状態データD20を第1端末装置TM1に送信するように、第2通信部24を制御する。その結果、第2通信部24は、第2状態データD20を第1端末装置TM1に送信する。具体的には、第2通信部24は、第2ユーザU2の画像データD21を第1端末装置TM1に送信する。また、第2ユーザU2の音声がミュートされていない場合、第2通信部24は、第2ユーザU2の音声データD22を第1端末装置TM1に送信する。
【0036】
一方、第2通信部24は、第1状態データD10を第1端末装置TM1から受信する。具体的には、第2通信部24は、第1ユーザU1の画像データD11を第1端末装置TM1から受信する。そして、第2表示制御部201は、第2表示部22が第1ユーザU1の画像データD11に基づく画像を表示するように、第2表示部22を制御する。その結果、第2表示部22は、第1ユーザU1の画像を表示する。
【0037】
また、第2通信部24は、第1ユーザU1の音声データD12を第1端末装置TM1から受信する。そして、第2音声制御部202は、第2音声出力部23が第1ユーザU1の音声データD12に基づく音声を出力するように、第2音声出力部23を制御する。その結果、第2音声出力部23は、第1ユーザU1の音声を出力する。
【0038】
状態特定部50は、第2ユーザU2の状態に応じて変化する第2状態データD20を解析して、第2ユーザU2の状態を特定する。第2ユーザU2の状態は、第2ユーザU2の顔、音声、及び、生体情報のうち、少なくとも1つを解析することで特定可能な状態を示す。第2ユーザU2の状態は、例えば、第2ユーザU2の反応である。第2ユーザU2の反応は、例えば、第1ユーザU1の発話に対する第2ユーザU2の反応である。「反応」は、例えば、第2ユーザU2が、笑っている状態、怒っている状態、肯定的な反応を行った状態、否定的な反応を行った状態、又は、無反応の状態である。
【0039】
第2通信制御部203は、状態特定部50による第2ユーザU2の状態の特定結果を示す解析情報(以下、「解析情報AN2」と記載)を、第2通信部24を介して第1端末装置TM1へ送信することで、解析情報AN2を第1端末装置TM1(図3の第1表示部12)に表示させる。換言すれば、第2通信制御部203は、状態特定部50による第2ユーザU2の状態の特定結果を示す解析情報AN2を、第1端末装置TM1(図3の第1表示部12)に出力させる。従って、実施形態1によれば、話し手である第1ユーザU1は、第1端末装置TM1において解析情報AN2を見ることで、聞き手である第2ユーザU2の状態(例えば、第2ユーザU2の反応)を容易に認識できる。第2ユーザU2の状態を容易に認識できる理由は、解析情報AN2は、第2ユーザU2の画像自体及び音声自体ではなく、第2ユーザU2の状態の特定結果(つまり、第2ユーザU2の状態の解釈結果)を示しているからである。
【0040】
好ましくは、第2ユーザU2の音声データD22に基づく音声がミュートされている場合に、状態特定部50は、第2ユーザU2の状態を特定する。そして、第2ユーザU2の音声データD22に基づく音声がミュートされている場合に、第2通信制御部203は、状態特定部50による特定結果を示す解析情報AN2を、第2通信部24を介して第1端末装置TM1に送信することで、解析情報AN2を第1端末装置TM1(図3の第1表示部12)に表示させる。換言すれば、第2ユーザU2の音声データD22に基づく音声がミュートされている場合に、第2通信制御部203は、状態特定部50による特定結果を示す解析情報AN2を、第1端末装置TM1(図3の第1表示部12)に出力させる。
【0041】
この好ましい例によれば、話し手である第1ユーザU1及び聞き手である第2ユーザU2の双方にメリットがある。
【0042】
例えば、聞き手である第2ユーザU2は、第2ユーザU2の音声が話し手である第1ユーザU1に伝わらないように、音声をミュートしている場合がある。聞き手の音声によって話し手の発話が邪魔されないようにするためである。この場合、第2ユーザU2の音声がミュートされていると、話し手である第1ユーザU1は、映像だけでは、聞き手である第2ユーザU2の反応を認識することが困難な場合がある。
【0043】
そこで、この好ましい例では、第2ユーザU2の音声がミュートされている場合に、聞き手である第2ユーザU2の状態の特定結果を示す解析情報AN2を、話し手である第1ユーザU1の第1端末装置TM1に出力(表示)させることで、第2ユーザU2の音声がミュートされている場合であっても、第1ユーザU1は、第2ユーザU2の状態(例えば、第2ユーザU2の反応)を容易に認識できる。
【0044】
一方、聞き手である第2ユーザU2にとって、例えば、簡潔な応答(例えば、「はい」又は「いいえ」)をするためだけにミュートを解除する操作を逐次行うことは、煩わしい。しかしながら、この好ましい例では、第2ユーザU2の音声をミュートしたままで、第2ユーザU2の状態が第1ユーザU1に伝達される。従って、第2ユーザU2は、ミュートを解除する操作を行うことが要求されず、第2ユーザU2の煩わしさを軽減できる。
【0045】
詳細には、第2状態検出部25が出力する第2状態データD20は、第2ユーザU2の顔を撮像して生成された画像データD21を含む。そして、状態特定部50の画像解析部501は、第2ユーザU2の画像データD21を解析して、第2ユーザU2の顔の表情によって表される第2ユーザU2の状態を特定する。従って、画像解析によって第2ユーザU2の状態を精度良く特定できる。
【0046】
例えば、画像解析部501は、画像データD21から第2ユーザU2の顔画像を認識する。この場合、顔認識アルゴリズムとしては、例えば、主成分分析を使った固有顔、線形判別分析、弾性バンチグラフマッチング、隠れマルコフモデル、又は、ニューロン動機づけによるダイナミックリンク照合を採用できる。そして、画像解析部501は、顔画像を解析して、第2ユーザU2の顔の表情を特定する。具体的には、画像解析部501は、顔画像から特徴量を抽出し、特徴量を解析することで、第2ユーザU2の顔の表情を特定する。特徴量は、例えば、眉毛、目、及び、口である。この場合、画像解析部501は、特徴量に基づくパターンマッチングを実行することで、第2ユーザU2の顔の表情を特定する。
【0047】
例えば、画像解析部501は、顔画像を解析して、第2ユーザU2の状態が、「笑っている状態」であるか、「怒っている状態」であるか、又は、「無表情の状態」であるか、を特定する。
【0048】
画像解析部501は、第2ユーザU2の顔の表情によって特定された第2ユーザU2の状態を示す解析情報AN2を出力する。以下、画像解析部501による解析情報AN2を「解析情報AN21」と記載する場合がある。
【0049】
そして、第2通信制御部203は、画像解析部501による第2ユーザU2の状態の特定結果を示す解析情報AN21を、第2通信部24を介して第1端末装置TM1へ送信することで、解析情報AN21を第1端末装置TM1(図3の第1表示部12)に表示させる。従って、実施形態1によれば、第1ユーザU1(話し手)は、第1端末装置TM1において解析情報AN21を見ることで、画像解析に基づく第2ユーザU2(聞き手)の状態を容易に認識できる。
【0050】
また、状態特定部50が出力する第2状態データD20は、第2ユーザU2の音声を入力して生成された音声データD22を含む。そして、状態特定部50の音声解析部502は、第2ユーザU2の音声データD22を解析して、第2ユーザU2の音声によって表される第2ユーザU2の状態を特定する。従って、音声解析によって第2ユーザU2の状態を精度良く特定できる。
【0051】
音声解析は、例えば、音量レベルの認識処理、及び、音声認識処理を含む。この場合、音声認識アルゴリズムとしては、例えば、隠れマルコフモデルによる音声認識、統計的手法による音声認識、又は、動的時間伸縮法による音声認識を採用できる。
【0052】
例えば、音声解析部502は、第2ユーザU2の音声を解析して、第2ユーザU2の状態が、「笑っている状態」であるか、「怒っている状態」であるか、又は、「沈黙している状態」であるか、を特定する。この場合、例えば、第2記憶部26は、人間の各種状態を示す各種音声パターンを記憶している。そして、音声解析部502は、第2ユーザU2の音声に対してパターンマッチングを実行して、第2ユーザU2の状態を特定する。
【0053】
また、例えば、音声解析部502は、第2ユーザU2の音声を解析して、第2ユーザU2の状態の程度を特定する。この場合、例えば、音声解析部502は、音量レベルに基づいて、「笑っている状態」の程度、「怒っている状態」の程度、又は、「沈黙している状態」の程度を特定する。
【0054】
音声解析部502は、第2ユーザU2の音声によって特定された第2ユーザU2の状態を示す解析情報AN2を出力する。以下、音声解析部502による解析情報AN2を「解析情報AN22」と記載する場合がある。
【0055】
そして、第2通信制御部203は、音声解析部502による第2ユーザU2の状態の特定結果を示す解析情報AN22を、第2通信部24を介して第1端末装置TM1へ送信することで、解析情報AN22を第1端末装置TM1(図3の第1表示部12)に表示させる。従って、実施形態1によれば、第1ユーザU1(話し手)は、第1端末装置TM1において解析情報AN22を見ることで、音声解析に基づく第2ユーザU2(聞き手)の状態を容易に認識できる。
【0056】
一方、第2通信部24が第1端末装置TM1から受信する第1状態データD10は、第1ユーザU1の音声を入力して生成された音声データD12を含む。そして、特定音声検出部60は、第1ユーザU1の音声データD12を解析して、第1ユーザU1からの問い掛けを示す音声を検出する。音声解析は、例えば、音声認識処理を含む。この場合、音声認識アルゴリズムとしては、例えば、隠れマルコフモデルによる音声認識、統計的手法による音声認識、又は、動的時間伸縮法による音声認識を採用できる。更に、この場合、例えば、第2記憶部26は、人間の問い掛けを示す音声パターンを記憶している。そして、音声解析部502は、第1ユーザU1の音声に対してパターンマッチングを実行して、第1ユーザU1からの問い掛けを示す音声を検出する。
【0057】
そして、第1ユーザU1からの問い掛けを示す音声が検出された場合、音声解析部502は、第2ユーザU2の音声データD22を解析して、第1ユーザU1の問い掛けに対する第2ユーザU2の反応内容を識別する。
【0058】
例えば、音声解析部502は、第2ユーザU2の音声データD22を解析して、第2ユーザU2の反応が、肯定的な反応(例えば、「はい」を示す音声)か、否定的な反応(例えば、「いいえ」を示す音声)か、又は、無反応(例えば、「無音」)か、を識別する。この場合、例えば、第2記憶部26は、問い掛けに対する人間の反応を示す各種音声パターンを記憶している。そして、音声解析部502は、第2ユーザU2の音声に対してパターンマッチングを実行して、第2ユーザU2の反応内容を識別する。
【0059】
そして、第2通信制御部203は、第2ユーザU2の反応内容の識別結果を含む解析情報AN22を、第2通信部24を介して第1端末装置TM1へ送信することで、解析情報AN22を第1端末装置TM1(図3の第1表示部12)に表示させる。換言すれば、第2通信制御部203は、第2ユーザU2の反応内容の識別結果を含む解析情報AN22を、第1端末装置TM1に出力させる。
【0060】
従って、実施形態1によれば、第1ユーザU1は、第1端末装置TM1において解析情報AN22を見ることで、問い掛けに対する第2ユーザU2の反応内容を容易に認識できる。
【0061】
また、状態特定部50が出力する第2状態データD20は、第2ユーザU2の生体情報を示す生体データD23を含む。そして、状態特定部50の生体データ解析部503は、第2ユーザU2の生体データD23を解析して、第2ユーザU2の生体情報によって表される第2ユーザU2の状態を特定する。従って、生体情報によって第2ユーザU2の状態を精度良く特定できる。
【0062】
生体データ解析部503は、第2ユーザU2の生体情報によって特定された第2ユーザU2の状態を示す解析情報AN2を出力する。以下、生体データ解析部503による解析情報AN2を「解析情報AN23」と記載する場合がある。
【0063】
そして、第2通信制御部203は、生体データ解析部503による第2ユーザU2の状態の特定結果を示す解析情報AN23を、第2通信部24を介して第1端末装置TM1へ送信することで、解析情報AN23を第1端末装置TM1(図3の第1表示部12)に表示させる。従って、実施形態1によれば、第1ユーザU1(話し手)は、第1端末装置TM1において解析情報AN23を見ることで、生体情報に基づく第2ユーザU2(聞き手)の状態を容易に認識できる。
【0064】
次に、図3を参照して、第1端末装置TM1を説明する。図3は、第1端末装置TM1を示す図である。図3に示すように、第1端末装置TM1は、第1制御部10と、第1操作部11と、第1表示部12と、第1音声出力部13と、第1通信部14と、第1状態検出部15と、第1記憶部16とを含む。第1制御部10は、第1表示制御部101と、第1音声制御部102と、第1通信制御部103と、統計算出部70とを含む。
【0065】
第1制御部10は、第1操作部11、第1表示部12、第1音声出力部13、第1通信部14、第1状態検出部15、及び、第1記憶部16を制御する。その他、第1制御部10のハードウェア構成は、図2の第2制御部20のハードウェア構成と同様である。
【0066】
第1操作部11は、第1ユーザU1からの操作を受け付ける。その他、第1操作部11のハードウェア構成は、図2の第2操作部21のハードウェア構成と同様である。
【0067】
第1表示部12は、各種情報を表示する。その他、第1表示部12のハードウェア構成は、図2の第2表示部22のハードウェア構成と同様である。
【0068】
第1音声出力部13は、音声を出力する。その他、第1音声出力部13のハードウェア構成は、図2の第2音声出力部23ハードウェア構成と同様である。
【0069】
第1通信部14は、通信機であり、例えば、所定の通信プロトコルに従って通信を行うネットワークインタフェースコントローラ(NIC)を含む。第1通信部14は、有線または無線によりネットワークNWに接続する。その他、第1通信部14のハードウェア構成は、図2の第2通信部24ハードウェア構成と同様である。
【0070】
第1状態検出部15は、第1ユーザU1の状態を検出する。そして、第1状態検出部15は、第1ユーザU1の状態を示す第1状態データD10を第1制御部10に出力する。第1状態データD10は、第1ユーザU1の状態に応じて変化する。第1状態データD10は、画像データD11と、音声データD12と、生体データD13とを含む。
【0071】
具体的には、第1状態検出部15は、第1撮像部151と、第1音声入力部152と、第1生体情報検出部153とを含む。
【0072】
第1撮像部151は、第1ユーザU1を撮像して、第1ユーザU1の像を含む撮像画像を示す画像データD11を第1制御部10に出力する。撮像画像は、第1ユーザU1の顔画像を含む。画像データD11によって示される画像は、第1ユーザU1の状態に応じて変化する。例えば、顔画像は、第1ユーザU1の表情に応じた内容を示す。第1撮像部151は、例えば、カメラを含む。
【0073】
第1音声入力部152には、第1ユーザU1の音声が入力される。そして、第1音声入力部152は、第1ユーザU1の音声を示す音声データD12を第1制御部10に出力する。音声データD12に基づく音声は、第1ユーザU1の状態に応じて変化する。例えば、音声は、第1ユーザU1の発話内容及び発話音量に応じた内容を示す。第1音声入力部152は、例えば、マイクロフォン及びADコンバータを含む。
【0074】
第1生体情報検出部153は、第1ユーザU1の生体情報を検出して、生体情報を示す生体データD13を第1制御部10に出力する。生体情報は、例えば、体温、脈拍、又は、血圧である。従って、第1生体情報検出部153は、例えば、体温計、脈拍計、又は、血圧計を含む。第1生体情報検出部153は、例えば、スマートウォッチに搭載される。生体データD13によって示される生体情報は、第1ユーザU1の状態に応じて変化する。
【0075】
第1記憶部16は、記憶装置を含み、データ及びコンピュータプログラムを記憶する。第1記憶部16は、非一時的コンピュータ読取可能記憶媒体の一例に相当する。その他、第1記憶部16のハードウェア構成は、図2の第2記憶部26のハードウェア構成と同様である。
【0076】
第1制御部10のプロセッサは、第1記憶部16の記憶装置が記憶しているコンピュータプログラムを実行して、第1表示制御部101、第1音声制御部102、第1通信制御部103、及び、統計算出部70として機能する。
【0077】
第1表示制御部101は、第1表示部12を制御する。第1音声制御部102は、第1音声出力部13を制御する。その他、第1音声出力部13の構成は、図2の第2音声出力部23の構成と同様である。
【0078】
第1表示制御部101は、第1端末装置TM1において、本発明の「出力制御部」の一例に相当する。
【0079】
第1通信制御部103は、第1通信部14を制御する。具体的には、第1通信制御部103は、第1通信部14が第1状態データD10を第2端末装置TM2に送信するように、第1通信部14を制御する。その結果、第1通信部14は、第1状態データD10を第2端末装置TM2に送信する。具体的には、第1通信部14は、第1ユーザU1の画像データD11及び音声データD12を第2端末装置TM2に送信する。
【0080】
一方、第1通信部14は、第2状態データD20を第2端末装置TM2から受信する。具体的には、第1通信部14は、第2ユーザU2の画像データD21を第2端末装置TM2から受信する。そして、第1表示制御部101は、第1表示部12が第2ユーザU2の画像データD21に基づく画像を表示するように、第1表示部12を制御する。その結果、第1表示部12は、第2ユーザU2の画像を表示する。
【0081】
また、第1通信部14は、第2ユーザU2の音声がミュートされていない場合、第2ユーザU2の音声データD22を第2端末装置TM2から受信する。そして、第2ユーザU2の音声がミュートされていない場合、第1音声制御部102は、第1音声出力部13が第2ユーザU2の音声データD22に基づく音声を出力するように、第1音声出力部13を制御する。その結果、第2ユーザU2の音声がミュートされていない場合、第1音声出力部13は、第2ユーザU2の音声を出力する。
【0082】
また、第1通信部14は、複数の第2端末装置TM2から複数の解析情報AN2を受信する。複数の解析情報AN2は、それぞれ、複数の第2ユーザU2に対応する。そして、複数の解析情報AN2の各々は、対応する第2ユーザU2の状態の特定結果を示す。第2端末装置TM2の状態特定部50による解析情報AN2は、第2端末装置TM2の画像解析部501による解析情報AN21、第2端末装置TM2の音声解析部502による解析情報AN22、及び、第2端末装置TM2の生体データ解析部503による解析情報AN23を含む。
【0083】
そして、第1表示制御部101は、複数の解析情報AN2を表示するように、第1表示部12を制御する。その結果、第1表示部12は、複数の解析情報AN2を表示する。換言すれば、第1表示制御部101は、複数の解析情報AN2を第1表示部12に出力させる。従って、実施形態1によれば、話し手である第1ユーザU1は、第1表示部12において解析情報AN2を見ることで、聞き手である第2ユーザU2の状態(例えば、第2ユーザU2の反応)を容易に認識できる。
【0084】
好ましくは、統計算出部70は、複数の第2ユーザU2の状態の特定結果をそれぞれ示す複数の解析情報AN2の統計を算出する。統計は、集団を構成する複数の解析情報AN2の分布、傾向、又は、特性を示す。例えば、統計は、第1ユーザU1の発話に対する複数の第2ユーザU2の反応内容の分布、傾向、又は、特性を示す。
【0085】
そして、第1表示制御部101は、統計算出部70による統計結果を示す統計情報(以下、「統計情報ST」と記載)を、第1表示部12に表示させる。換言すれば、第1表示制御部101は、統計算出部70による統計結果を示す統計情報STを、第1端末装置TM1の第1表示部12に出力させる。従って、実施形態1によれば、話し手である第1ユーザU1は、第1表示部12において統計情報STを見ることで、聞き手である複数の第2ユーザU2の状態(例えば、複数の第2ユーザU2の反応)を直感的に認識できる。例えば、統計情報STは、第1ユーザU1の発話に対する複数の第2ユーザU2の反応内容の分布、傾向、又は、特性を示す。
【0086】
また、第1通信制御部103は、統計算出部70による統計結果を示す統計情報STを、第1通信部14を介して第2端末装置TM2へ送信することで、統計情報STを第2端末装置TM2(第2表示部22)に表示させる。換言すれば、第1通信制御部103は、統計算出部70による統計結果を示す統計情報STを、第2端末装置TM2(第2表示部22)に出力させる。従って、実施形態1によれば、聞き手である第2ユーザU2は、第2端末装置TM2において統計情報STを見ることで、聞き手である他の第2ユーザU2の状態(例えば、他の第2ユーザU2の反応)を直感的に認識できる。この場合、第1通信制御部103は、第1端末装置TM1において、本発明の「出力制御部」の一例に相当する。
【0087】
更に好ましくは、統計算出部70は、複数の解析情報AN2の統計を算出して、統計結果を示す統計情報STとしてのグラフ(以下、「グラフGP」と記載)を作成する。そして、第1表示制御部115は、グラフGPを第1端末装置TM1の第1表示部12に表示させる。従って、実施形態1によれば、話し手である第1ユーザU1は、第1表示部12においてグラフGPを見ることで、聞き手である複数の第2ユーザU2の状態(例えば、複数の第2ユーザU2の反応)を更に直感的に認識できる。例えば、グラフGPは、第1ユーザU1の発話に対する複数の第2ユーザU2の反応内容の分布、傾向、又は、特性を示す。
【0088】
また、第1通信制御部103は、複数の解析情報AN2統計結果を示すグラフGPを、第1通信部14を介して第2端末装置TM2へ送信することで、グラフGPを第2端末装置TM2(第2表示部22)に表示させる。換言すれば、第1通信制御部103は、複数の解析情報AN2統計結果を示すグラフGPを、第2端末装置TM2(第2表示部22)に出力させる。従って、実施形態1によれば、聞き手である第2ユーザU2は、第2端末装置TM2においてグラフGPを見ることで、聞き手である他の第2ユーザU2の状態(例えば、他の第2ユーザU2の反応)を更に直感的に認識できる。この場合、第1通信制御部103は、第1端末装置TM1において、本発明の「出力制御部」の一例に相当する。
【0089】
次に、図4図6を参照して、統計算出部70が作成するグラフGPを例示する。
【0090】
図4は、第1端末装置TM1に表示される画面SC1を示す図である。図4に示すように、第1端末装置TM1の第1表示部12は、画面SC1を表示する。画面SC1は、複数の第2ユーザU2の画像SUと、グラフGPとを含む。
【0091】
図5は、第2端末装置TM2に表示される画面SC2示す図である。図5に示すように、複数の第2端末装置TM2の各々の第2表示部22は、画面SC2を表示する。画面SC2は、第1ユーザU1の画像FUと、グラフGPとを含む。
【0092】
図6は、図4及び図5に示すグラフGPの一例(以下、「グラフGP1」と記載)を示す図である。図6に示すように、グラフGP1は、第2ユーザU2の笑い声の音量と人数との関係を示す。グラフGP1において、横軸は、笑い声の音量を示し、縦軸は、各音量を発した第2ユーザU2の数を示す。
【0093】
図7は、図4及び図5に示すグラフGPの他の例(以下、「グラフGP2」と記載)を示す図である。図7に示すように、グラフGP2は、複数の第2ユーザU2の喜怒哀楽の分布を示す。横軸は、状態「哀」から状態「楽」までの感情の程度を示す。縦軸は、状態「喜」から状態「怒」までの感情の程度を示す。
【0094】
図8は、図4及び図5に示すグラフGP(以下、「グラフGP3」と記載)の更に他の例を示す図である。図8に示すように、グラフGP3は、第1ユーザU1の発話に対する第2ユーザU2の反応内容と人数との関係を示す。横軸は、反応内容を示す。横軸において、反応内容として、「はい」等の「肯定的な反応」、「いいえ」等の「否定的な反応」、及び、「無反応」等の「その他」が表示される。縦軸は、各反応内容をした第2ユーザU2の数を示す。
【0095】
以上、図4図8を参照して説明したように、実施形態1によれば、話し手である第1ユーザU1は、第1表示部12においてグラフGPを見ることで、聞き手である複数の第2ユーザU2の反応を直感的に認識できる。
【0096】
また、聞き手である第2ユーザU2は、第2表示部22においてグラフGPを見ることで、聞き手である他の第2ユーザU2の反応を直感的に認識できる。
【0097】
次に、図2及び図9を参照して、第2端末装置TM2の処理を説明する。図9は、第2端末装置TM2の処理を示すフローチャートである。図9に示すように、第2端末装置TM2の処理は、ステップS1~ステップS14を含む。具体的には、第2端末装置TM2の第2記憶部26に記憶されたコンピュータプログラムが、第2端末装置TM2の第2制御部20に、ステップS1~ステップS14の処理を実行させる。
【0098】
図2及び図9に示すように、まず、ステップS1において、第2通信制御部203は、第2通信部24を介して、第1端末装置TM1から、第1ユーザU1の画像データD11及び音声データD12の受信を開始する。そして、第2表示制御部201は、第1ユーザU1の画像データD11に基づく画像を第2表示部22に表示させる。また、第2音声制御部202は、第1ユーザU1の音声データD12に基づく音声を第2音声出力部23に出力させる。
【0099】
次に、ステップS2において、第2音声制御部202は、第2ユーザU2からのミュート指示に応じて、第2ユーザU2の音声データD22に基づく音声をミュートする。
【0100】
次に、ステップS3において、第2通信制御部203は、第2通信部24を介して、第1端末装置TM1へ、第2ユーザU2の画像データD21の送信を開始する。
【0101】
次に、ステップS4において、画像解析部501は、第2撮像部261が出力した画像データD21に対する画像解析を開始する。
【0102】
次に、ステップS5において、画像解析部501は、画像データD21によって示される画像から顔画像を認識できたか否かを判定する。
【0103】
ステップS5で顔画像を認識できなかったと判定された場合、処理はステップS7に進む。
【0104】
一方、ステップS5で顔画像を認識できたと判定された場合、処理はステップS6に進む。
【0105】
次に、ステップS6において、画像解析部501は、顔画像に基づいて、第2ユーザU2の顔の表情を解析する。そして、画像解析部501は、第2ユーザU2の顔の表情の解析結果を示す解析情報AN21を第2記憶部26に記憶させる。解析情報AN21は、画像に基づく第2ユーザU2の状態の特定結果を示す。
【0106】
次に、ステップS7において、音声解析部502は、第2音声入力部262に音声が入力されたか否かを判定する。
【0107】
ステップS7で音声が入力されていないと判定された場合、処理はステップS9に進む。
【0108】
一方、ステップS7で音声が入力されたと判定された場合、処理はステップS8に進む。
【0109】
次に、ステップS8において、音声解析部502は、第2音声入力部262に入力された音声を示す音声データD22に対して音声解析を実行する。そして、音声解析部502は、第2ユーザU2の音声の解析結果を示す解析情報AN22を第2記憶部26に記憶させる。解析情報AN22は、音声に基づく第2ユーザU2の状態の特定結果を示す。
【0110】
次に、ステップS9において、生体データ解析部503は、第2生体情報検出部263から生体データD23が入力されたか否かを判定する。
【0111】
ステップS9で生体データD23が入力されていないと判定された場合、処理はステップS11に進む。
【0112】
一方、ステップS9で生体データD23が入力されたと判定された場合、処理はステップS10に進む。
【0113】
次に、ステップS10において、生体データ解析部503は、生体データD23に対して解析処理を実行する。そして、生体データ解析部503は、第2ユーザU2の生体データD23の解析結果を示す解析情報AN23を第2記憶部26に記憶させる。解析情報AN23は、生体情報に基づく第2ユーザU2の状態の特定結果を示す。
【0114】
次に、ステップS11において、第2通信制御部203は、第2通信部24を介して、第1端末装置TM1へ、解析情報AN2を送信する。解析情報AN2は、解析情報AN21、解析情報AN22、及び、解析情報AN23を含む。
【0115】
次に、ステップS12において、第2通信制御部203は、第2通信部24を介して、第1端末装置TM1から、統計情報STを受信する。統計情報STは、複数の第2ユーザU2にそれぞれ対応する複数の解析情報AN2の統計結果を示す。具体的には、第2通信制御部203は、第2通信部24を介して、第1端末装置TM1から、統計情報STとしてのグラフGPを受信する。
【0116】
次に、ステップS13において、第2表示制御部201は、統計情報STを第2表示部22に表示させる。具体的には、第2表示制御部201は、グラフGPを第2表示部22に表示させる。この場合、第2表示制御部201は、第2端末装置TM2において、本発明の「出力制御部」の一例に相当する。
【0117】
次に、ステップS14において、第2通信制御部203は、第2端末装置TM2と第1端末装置TM1との間の通信が終了したか否かを判定する。
【0118】
ステップS14で通信が終了していないと判定された場合、処理はステップS4に進む。
【0119】
一方、ステップS14で通信が終了したと判定された場合、処理は終了する。
【0120】
次に、図2及び図10を参照して、第2端末装置TM2の反応内容識別処理を説明する。図10は、第2端末装置TM2の反応内容識別処理を示すフローチャートである。図10に示すように、反応内容識別処理は、ステップS21~ステップS24を含む。具体的には、第2端末装置TM2の第2記憶部26に記憶されたコンピュータプログラムが、第2端末装置TM2の第2制御部20に、ステップS21~ステップS24の処理を実行させる。
【0121】
図2及び図10に示すように、まず、ステップS21において、特定音声検出部60は、第1ユーザU1の音声データD12に基づいて、問い掛け検出処理を実行する。問い掛け検出処理は、第1ユーザU1の音声データD12を解析して、第1ユーザU1の問い掛けを示す音声を、第1ユーザU1の音声データD12から検出する処理を示す。
【0122】
次に、ステップS22において、音声解析部502は、特定音声検出部60が問い掛けを示す音声を検出したか否かを判定する。
【0123】
ステップS22で問い掛けを示す音声が検出されていないと判定された場合、処理は終了する。
【0124】
一方、ステップS22で問い掛けを示す音声が検出されたと判定された場合、処理はステップS23に進む。
【0125】
次に、ステップS23において、音声解析部502は、第2ユーザU2の音声データD22を解析して、問い掛けに対する第2ユーザU2の反応内容を識別する。そして、音声解析部502は、第2ユーザU2の反応内容の識別結果を含む解析情報AN22を第2記憶部26に記憶させる。
【0126】
次に、ステップS24において、第2通信制御部203は、第2通信部24を介して、第1端末装置TM1へ、解析情報AN22を送信する。そして、処理は終了する。
【0127】
次に、図3及び図11を参照して、第1端末装置TM1の処理を説明する。図11は、第1端末装置TM1の処理を示すフローチャートである。図11に示すように、第1端末装置TM1の処理は、ステップS31~ステップS37を含む。具体的には、第1端末装置TM1の第1記憶部16に記憶されたコンピュータプログラムが、第1端末装置TM1の第1制御部10に、ステップS31~ステップS37の処理を実行させる。
【0128】
図3及び図11に示すように、まず、ステップS31において、第1通信制御部103は、第1通信部14を介して、複数の第2端末装置TM2へ、第1ユーザU1の画像データD11及び音声データD12の送信を開始する。
【0129】
次に、ステップS32において、第1通信制御部103は、第1通信部14を介して、複数の第2端末装置TM2から、複数の第2ユーザU2の画像データD21の受信を開始する。そして、第1表示制御部101は、複数の第2ユーザU2の各々の画像データD21に基づく画像を第1表示部12に表示させる。
【0130】
次に、ステップS33において、第1通信制御部103は、第1通信部14を介して、複数の第2端末装置TM2から、それぞれ、複数の解析情報AN2を受信する。解析情報AN2は、第2ユーザU2の状態の特定結果を示す。解析情報AN2は、解析情報AN21、解析情報AN22、及び、解析情報AN23を含む。
【0131】
次に、ステップS34において、統計算出部70は、複数の第2ユーザU2の状態の特定結果をそれぞれ示す複数の解析情報AN2の統計を算出し、統計結果を示す統計情報STを生成する。具体的には、統計算出部70は、統計情報STとしてのグラフGPを作成する。
【0132】
次に、ステップS35において、第1表示制御部101は、統計情報STを第1表示部12に表示させる。具体的には、第1表示制御部101は、グラフGPを第1表示部12に表示させる。
【0133】
次に、ステップS36において、第1通信制御部103は、第1通信部14を介して、各第2端末装置TM2へ、統計情報STを送信する。具体的には、第1通信制御部103は、第1通信部14を介して、各第2端末装置TM2へ、グラフGPを送信する。
【0134】
次に、ステップS37において、第1通信制御部103は、第1端末装置TM1と第2端末装置TM2との間の通信が終了したか否かを判定する。
【0135】
ステップS37で通信が終了していないと判定された場合、処理はステップS33に進む。
【0136】
一方、ステップS37で通信が終了したと判定された場合、処理は終了する。
【0137】
(実施形態2)
次に、図1図3図12、及び、図13を参照して、本発明の実施形態2に係る双方向通信支援システムSYSを説明する。実施形態2に係る双方向通信支援システムSYSでは、図1に示すサーバ装置SVが、図2の状態特定部50、図2の特定音声検出部60、及び、図3の統計算出部70を備える点で、実施形態2は実施形態1と主に異なる。以下、実施形態2が実施形態1と異なる点を主に説明する。
【0138】
図1に示すように、実施形態2では、双方向通信支援システムSYSは、第1端末装置TM1と、少なくとも1つの第2端末装置TM2と、サーバ装置SVとを備える。サーバ装置SVは、第1端末装置TM1と各第2端末装置TM2との間の通信を仲介する。
【0139】
また、実施形態2に係る第1端末装置TM1の構成は、図3の第1端末装置TM1の構成と同様である。ただし、実施形態2に係る第1端末装置TM1は、図3の統計算出部70を備えていない。
【0140】
さらに、実施形態2に係る第2端末装置TM2の構成は、図2の第2端末装置TM2の構成と同様である。ただし、実施形態2に係る第2端末装置TM2は、図2の状態特定部50及び特定音声検出部60を備えていない。
【0141】
図12は、本発明の実施形態2に係るサーバ装置SVを示す図である。図12に示すように、サーバ装置SVは、制御部30と、通信部31と、記憶部32とを含む。制御部30は、通信制御部301と、音声制御部302と、発話端末特定部40と、状態特定部50と、特定音声検出部60と、統計算出部70とを含む。
【0142】
制御部30は、通信部31及び記憶部32を制御する。その他、制御部30のハードウェア構成は、図2の第2制御部20のハードウェア構成と同様である。
【0143】
通信部31は、通信機であり、例えば、所定の通信プロトコルに従って通信を行うネットワークインタフェースコントローラ(NIC)を含む。通信部31は、有線または無線によりネットワークNWに接続する。その他、通信部31のハードウェア構成は、図2の第2通信部24ハードウェア構成と同様である。
【0144】
通信部31は、第1状態データD10を第1端末装置TM1から受信する。具体的には、通信部31は、第1ユーザU1の画像データD11及び音声データD12を第1端末装置TM1から受信する。
【0145】
通信部31は、第2状態データD20を第2端末装置TM2から受信する。具体的には、通信部31は、第2ユーザU2の画像データD21及び生体データD23を第2端末装置TM2から受信する。また、通信部31は、第2ユーザU2の音声がミュートされているか否かに関係なく、第2ユーザU2の音声データD22を第2端末装置TM2から受信する。つまり、図2に示す通信部31は、第2ユーザU2の音声がミュートされているか否かに関係なく、第2ユーザU2の音声データD22をサーバ装置SVに送信する。
【0146】
記憶部32は、記憶装置を含み、データ及びコンピュータプログラムを記憶する。記憶部32は、非一時的コンピュータ読取可能記憶媒体の一例に相当する。その他、記憶部32のハードウェア構成は、図2の第2記憶部26のハードウェア構成と同様である。
【0147】
制御部30のプロセッサは、記憶部32の記憶装置が記憶しているコンピュータプログラムを実行して、通信制御部301、音声制御部302、発話端末特定部40、状態特定部50、特定音声検出部60、及び、統計算出部70として機能する。
【0148】
通信制御部301は、通信部31を制御する。通信制御部301は、サーバ装置SVにおいて、本発明の「出力制御部」の一例に相当する。
【0149】
具体的には、通信制御部301は、通信部31が第1状態データD10を第2端末装置TM2に送信するように、通信部31を制御する。その結果、通信部31は、第1状態データD10を第2端末装置TM2に送信する。具体的には、通信部31は、第1ユーザU1の画像データD11及び音声データD12を第2端末装置TM2に送信する。
【0150】
また、通信制御部301は、通信部31が第2状態データD20を第1端末装置TM1に送信するように、通信部31を制御する。その結果、通信部31は、第2状態データD20を第1端末装置TM1に送信する。具体的には、通信部31は、第2ユーザU2の画像データD21を第1端末装置TM1に送信する。
【0151】
また、音声制御部302は、通信部31を介して、第2端末装置TM2から、第2ユーザU2の音声データD22に基づく音声のミュート指示を受け付ける。従って、音声制御部302は、ミュート指示に応じて、第2ユーザU2の音声データD22に基づく音声をミュートする。そして、通信制御部301は、第2ユーザU2の音声がミュートされた場合は、第2ユーザU2の音声データD22を第1端末装置TM1に送信することを禁止する。一方、第2ユーザU2の音声がミュートされていない場合、通信部31は、第2ユーザU2の音声データD22を第1端末装置TM1に送信する。
【0152】
発話端末特定部40は、話し手(発話者)である第1ユーザU1の第1端末装置TM1を特定する。例えば、発話端末特定部40は、第1端末装置TM1のIPアドレスを特定する。
【0153】
実施形態2に係る状態特定部50(画像解析部501、音声解析部502、及び、生体データ解析部503)の動作は、図2の状態特定部50(画像解析部501、音声解析部502、及び、生体データ解析部503)の動作と同様である。また、実施形態2に係る特定音声検出部60の動作は、図2の特定音声検出部60の動作と同様である。
【0154】
例えば、状態特定部50は、第2ユーザU2の第2状態データD20を解析して、第2ユーザU2の状態を特定する。
【0155】
そして、通信制御部301は、状態特定部50による第2ユーザU2の状態の特定結果を示す解析情報AN2を、通信部31を介して第1端末装置TM1へ送信することで、解析情報AN2を第1端末装置TM1に表示させる。換言すれば、通信制御部301は、解析情報AN2を第1端末装置TM1に出力させる。従って、実施形態2によれば、話し手である第1ユーザU1は、第1端末装置TM1において解析情報AN2を見ることで、聞き手である第2ユーザU2の状態(例えば、第2ユーザU2の反応)を容易に認識できる。
【0156】
好ましくは、第2ユーザU2の音声データD22に基づく音声がミュートされている場合に、状態特定部50は、第2ユーザU2の状態を特定する。そして、第2ユーザU2の音声データD22に基づく音声がミュートされている場合に、通信制御部301は、通信部31を介して第1端末装置TM1に解析情報AN2を送信することで、解析情報AN2を第1端末装置TM1に表示させる。換言すれば、第2ユーザU2の音声データD22に基づく音声がミュートされている場合に、第2通信制御部203は、第1端末装置TM1に解析情報AN2を出力させる。この好ましい例のメリットは、実施形態1と同様である。
【0157】
また、実施形態1と同様に、例えば、画像解析部501は、第2ユーザU2の画像データD21を解析して、第2ユーザU2の顔の表情によって表される第2ユーザU2の状態を特定する。そして、通信制御部301は、画像解析部501による第2ユーザU2の状態の特定結果を示す解析情報AN21を、第1端末装置TM1へ送信することで、解析情報AN21を第1端末装置TM1に表示させる。
【0158】
さらに、実施形態1と同様に、例えば、音声解析部502は、第2ユーザU2の音声データD22を解析して、第2ユーザU2の音声によって表される第2ユーザU2の状態を特定する。そして、通信制御部301は、音声解析部502による第2ユーザU2の状態の特定結果を示す解析情報AN22を、第1端末装置TM1へ送信することで、解析情報AN22を第1端末装置TM1に表示させる。
【0159】
また、実施形態1と同様に、例えば、特定音声検出部60は、第1ユーザU1の音声データD12を解析して、第1ユーザU1からの問い掛けを示す音声を検出する。そして、第1ユーザU1からの問い掛けを示す音声が検出された場合、音声解析部502は、第2ユーザU2の音声データD22を解析して、第1ユーザU1の問い掛けに対する第2ユーザU2の反応内容を識別する。さらに、通信制御部301は、第2ユーザU2の反応内容の識別結果を含む解析情報AN22を、第1端末装置TM1へ送信することで、解析情報AN22を第1端末装置TM1に表示させる。換言すれば、通信制御部301は、第2ユーザU2の反応内容の識別結果を含む解析情報AN22を、第1端末装置TM1に出力させる。
【0160】
さらに、実施形態1と同様に、例えば、生体データ解析部503は、第2ユーザU2の生体データD23を解析して、第2ユーザU2の生体情報によって表される第2ユーザU2の状態を特定する。そして、通信制御部301は、生体データ解析部503による第2ユーザU2の状態の特定結果を示す解析情報AN23を、第1端末装置TM1へ送信することで、解析情報AN23を第1端末装置TM1に表示させる。
【0161】
また、実施形態2に係る統計算出部70の動作は、図3の統計算出部70の動作と同様である。例えば、実施形態1と同様に、統計算出部70は、複数の第2ユーザU2の状態の特定結果をそれぞれ示す複数の解析情報AN2の統計を算出する。そして、通信制御部301は、統計算出部70による統計結果を示す統計情報STを、通信部31を介して第1端末装置TM1及び各第2端末装置TM2に送信することで、統計情報STを第1端末装置TM1及び各第2端末装置TM2に表示させる。換言すれば、通信制御部301は、統計情報STを、第1端末装置TM1及び各第2端末装置TM2に出力させる。従って、実施形態2によれば、話し手である第1ユーザU1は、第1端末装置TM1において統計情報STを見ることで、聞き手である複数の第2ユーザU2の状態(例えば、複数の第2ユーザU2の反応)を直感的に認識できる。また、聞き手である第2ユーザU2は、第2端末装置TM2において統計情報STを見ることで、聞き手である他の第2ユーザU2の状態(例えば、他の第2ユーザU2の反応)を直感的に認識できる。
【0162】
好ましくは、実施形態1と同様に、例えば、統計算出部70は、複数の解析情報AN2の統計を算出して、統計結果を示す統計情報STとしてのグラフGPを作成する。
【0163】
次に、図12及び図13を参照して、サーバ装置SVの処理を説明する。図13は、サーバ装置SVの処理を示すフローチャートである。図13に示すように、サーバ装置SVの処理は、ステップS41~ステップS53を含む。具体的には、サーバ装置SVの記憶部32に記憶されたコンピュータプログラムが、サーバ装置SVの制御部30に、ステップS41~ステップS53の処理を実行させる。
【0164】
図12及び図13に示すように、まず、ステップS41において、通信制御部301は、通信部31を介して、第1端末装置TM1から、第1ユーザU1の画像データD11及び音声データD12の受信を開始する。
【0165】
次に、ステップS42において、発話端末特定部40は、話し手(発話者)である第1ユーザU1の第1端末装置TM1を特定する。
【0166】
次に、ステップS43において、通信制御部301は、通信部31を介して、複数の第2端末装置TM2へ、第1ユーザU1の画像データD11及び音声データD12の送信を開始する。
【0167】
次に、ステップS44において、通信制御部301は、通信部31を介して、複数の第2端末装置TM2の各々から、第2ユーザU2の画像データD21、及び、音声データD22の受信を開始する。また、通信制御部301は、通信部31を介して、複数の第2端末装置TM2の各々から、第2ユーザU2の生体データD23の受信を開始する。
【0168】
次に、ステップS45において、音声制御部302は、第2端末装置TM2からのミュート指示に応じて、第2ユーザU2の音声データD22に基づく音声をミュートする。
【0169】
次に、ステップS46において、通信制御部301は、通信部31を介して、第1端末装置TM1へ、複数の第2ユーザU2の画像データD21の送信を開始する。
【0170】
次に、ステップS47において、画像解析部501は、複数の第2端末装置TM2ごとに(つまり、複数の第2ユーザU2ごとに)、第2ユーザU2の画像データD21に対する画像解析を実行する。そして、画像解析部501は、第2ユーザU2の顔の表情の解析結果を示す解析情報AN21を記憶部32に記憶させる。具体的には、画像解析部501は、複数の第2端末装置TM2に対応する複数の解析情報AN21を記憶部32に記憶させる。その他、ステップS47の処理は、図9のステップS4~S6の処理と同様である。
【0171】
次に、ステップS48において、音声解析部502は、複数の第2端末装置TM2ごとに(つまり、複数の第2ユーザU2ごとに)、第2ユーザU2の音声データD22に対して音声解析を実行する。そして、音声解析部502は、第2ユーザU2の音声の解析結果を示す解析情報AN22を記憶部32に記憶させる。具体的には、音声解析部502は、複数の第2端末装置TM2に対応する複数の解析情報AN22を記憶部32に記憶させる。
【0172】
次に、ステップS49において、生体データ解析部503は、複数の第2端末装置TM2ごとに(つまり、複数の第2ユーザU2ごとに)、第2ユーザU2の生体データD23に対して解析処理を実行する。そして、生体データ解析部503は、第2ユーザU2の生体データD23の解析結果を示す解析情報AN23を記憶部32に記憶させる。具体的には、生体データ解析部503は、複数の第2端末装置TM2に対応する複数の解析情報AN23を記憶部32に記憶させる。
【0173】
次に、ステップS50において、統計算出部70は、複数の第2ユーザU2の状態の特定結果をそれぞれ示す複数の解析情報AN2の統計を算出し、統計結果を示す統計情報STを生成する。具体的には、統計算出部70は、統計情報STとしてのグラフGPを作成する。解析情報AN2は、解析情報AN21~解析情報AN23を含む。
【0174】
次に、ステップS51において、通信制御部301は、通信部31を介して、第1端末装置TM1へ、統計情報ST(具体的にはグラフGP)を送信する。
【0175】
次に、ステップS52において、通信制御部301は、通信部31を介して、各第2端末装置TM2へ、統計情報ST(具体的にはグラフGP)を送信する。
【0176】
次に、ステップS53において、通信制御部301は、第1端末装置TM1と第2端末装置TM2との間の通信が終了したか否かを判定する。
【0177】
ステップS53で通信が終了していないと判定された場合、処理はステップS47に進む。
【0178】
一方、ステップS53で通信が終了したと判定された場合、処理は終了する。
【0179】
以上、図面を参照して本発明の実施形態について説明した。ただし、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施できる。また、上記の実施形態に開示される複数の構成要素は適宜改変可能である。例えば、ある実施形態に示される全構成要素のうちのある構成要素を別の実施形態の構成要素に追加してもよく、または、ある実施形態に示される全構成要素のうちのいくつかの構成要素を実施形態から削除してもよい。
【0180】
また、図面は、発明の理解を容易にするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の厚さ、長さ、個数、間隔等は、図面作成の都合上から実際とは異なる場合もある。また、上記の実施形態で示す各構成要素の構成は一例であって、特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能であることは言うまでもない。
【0181】
(1)図2に示す第2状態検出部25は、少なくとも、第2撮像部261又は第2音声入力部262を備えていればよい。第2状態検出部25は、第2生体情報検出部263を備えていなくてもよい。図3に示す第1状態検出部15は、第1生体情報検出部153を備えていなくてもよい。
【0182】
また、図2及び図12の状態特定部50は、少なくとも、画像解析部501又は音声解析部502を備えていればよい。状態特定部50は、生体データ解析部503を備えていなくてもよい。
【0183】
さらに、状態特定部50は、画像データD21、音声データD22、及び、生体データD23のうちの一部又は全部に基づいて、第2ユーザU2の状態を特定して、特定結果を示す解析情報AN2(以下、「解析情報AN24」と記載)を生成してもよい。また、状態特定部50は、画像解析部501による解析情報AN21、音声解析部502による解析情報AN22、及び、生体データ解析部503による解析情報AN23のうちの一部又は全部に基づいて、第2ユーザU2の状態を特定して、特定結果を示す解析情報AN2(以下、「解析情報AN25」と記載)を生成してもよい。
【0184】
さらに、図2及び図12に示す統計算出部70は、複数の解析情報AN21の統計を算出して、統計結果を示す統計情報STを生成してもよいし、複数の解析情報AN22の統計を算出して、統計結果を示す統計情報STを生成してもよいし、複数の解析情報AN23の統計を算出して、統計結果を示す統計情報STを生成してもよい。また、統計算出部70は、複数の解析情報AN24又は複数の解析情報AN25の統計を算出して、統計結果を示す統計情報STを生成してもよい。
【0185】
(2)図2及び図12に示す状態特定部50及び特定音声検出部60、並びに、図3及び図12に示す統計算出部70の配置は特に限定されない。つまり、状態特定部50、特定音声検出部60、及び、統計算出部70の各々は、第1端末装置TM1の第1制御部10、第2端末装置TM2の第2制御部20、及び、サーバ装置SVの制御部30のいずれにおいて実現されてもよい。
【0186】
例えば、状態特定部50、特定音声検出部60、及び、統計算出部70が、第1端末装置TM1の第1制御部10によって実現されてもよいし、第2端末装置TM2の第2制御部20によって実現されてもよい。また、実施形態1では、統計算出部70が第1端末装置TM1の第1制御部10によって実現されたが、例えば、実施形態1に係る双方向通信支援システムSYSがサーバ装置SVを備えることで、統計算出部70がサーバ装置SVの制御部30によって実現されてもよい。また、実施形態1又は実施形態2において、例えば、特定音声検出部60が、第1端末装置TM1の第1制御部10によって実現されてもよい。
【0187】
(3)図2に示す第2状態検出部25は、第2ユーザU2の状態を検出できる限りにおいて、他のセンサーを備えていてもよい。センサーは、第2ユーザU2の状態を検出する。そして、センサーは、第2ユーザU2の状態を示す第2状態データD20を状態特定部50に出力する。さらに、状態特定部50は、センサーが出力した第2状態データD20を解析して、第2ユーザU2の状態(例えば、反応)を特定する。
【0188】
また、例えば、第2端末装置TM2の第2表示部22は、GUI(Graphical User Interface)のウィジェット(例えば、ボタン)を表示してもよい。この場合、ウィジェットは、第1ユーザU1の問い掛けに対して、第2ユーザU2が反応する場合の「反応内容」を表す。例えば、「反応内容」は、「いいね」等の肯定的な反応、又は、「だめ」等の否定的な反応である。例えば、ウィジェットは、「いいね」ボタン、又は、「だめ」ボタンである。
【0189】
第2端末装置TM2の第2通信制御部203は、ウィジェットの操作内容を解析情報AN2として、第1端末装置TM1又はサーバ装置SVに送信する。そして、統計算出部70は、複数の第2端末装置TM2から送信された複数の解析情報AN2の統計を算出する。
【0190】
(4)双方向通信支援システムSYSは、例えば、オンラインセミナー及びオンラインライブ等のイベントにおける双方向通信を支援することもできる。イベントでは、例えば、発信者(第1ユーザU1)から多数の視聴者(第2ユーザU2)に向けて映像及び音声が配信される。この場合、例えば、多数の視聴者が同一場所(例えば、セミナー会場又はコンサートホール)に存在し、1つ又は複数の第2端末装置TM2が用意されてもよい。また、例えば、多数の視聴者が別個に存在し、多数の視聴者にそれぞれ対応して多数の第2端末装置TM2が用意されてもよい。これらの場合、例えば、状態特定部50による解析情報AN2、又は、統計算出部70による統計情報STは、視聴者の「盛り上がりの程度」を示す。視聴者の「盛り上がりの程度」は、例えば、数値又はグラフによって示される。
【産業上の利用可能性】
【0191】
本発明は、双方向通信支援システム、及び、コンピュータプログラムを提供するものであり、産業上の利用可能性を有する。
【符号の説明】
【0192】
50 状態特定部
60 特定音声検出部
70 統計算出部
101 第1表示制御部(出力制御部)
103 第1通信制御部(出力制御部)
201 第2表示制御部(出力制御部)
203 第2通信制御部(出力制御部)
301 通信制御部(出力制御部)
501 画像解析部
502 音声解析部
503 生体データ解析部
TM1 第1端末装置
TM2 第2端末装置
SV サーバ装置
SYS 双方向通信支援システム
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13