(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2022-09-29
(45)【発行日】2022-10-07
(54)【発明の名称】コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム
(51)【国際特許分類】
G06F 3/16 20060101AFI20220930BHJP
G06F 3/01 20060101ALI20220930BHJP
G06F 3/0481 20220101ALI20220930BHJP
H04N 7/15 20060101ALI20220930BHJP
G10L 21/034 20130101ALI20220930BHJP
H04M 3/56 20060101ALI20220930BHJP
【FI】
G06F3/16 540
G06F3/16 610
G06F3/16 620
G06F3/01 510
G06F3/0481
G06F3/16 650
H04N7/15 120
G10L21/034
H04M3/56
(21)【出願番号】P 2021143002
(22)【出願日】2021-09-02
【審査請求日】2021-09-02
【早期審査対象出願】
【前置審査】
(73)【特許権者】
【識別番号】598138327
【氏名又は名称】株式会社ドワンゴ
(74)【代理人】
【識別番号】100088155
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100144440
【氏名又は名称】保坂 一之
(74)【代理人】
【識別番号】100183081
【氏名又は名称】岡▲崎▼ 大志
(74)【代理人】
【識別番号】100208524
【氏名又は名称】小曳 満昭
(72)【発明者】
【氏名】戀塚 昭彦
【審査官】鈴木 順三
(56)【参考文献】
【文献】特開2014-225801(JP,A)
【文献】特開2020-028084(JP,A)
【文献】特開2018-036871(JP,A)
【文献】特開2017-069687(JP,A)
【文献】特開2016-201739(JP,A)
【文献】特開2017-118364(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/16
G06F 3/01
G06F 3/048 - 3/0489
H04N 7/10
H04N 7/14 - 7/173
H04N 7/20 - 7/56
G10L 21/00 - 21/18
H04M 3/38 - 3/58
(57)【特許請求の範囲】
【請求項1】
複数のユーザ間の音声コミュニケーションを支援するコミュニケーション支援システムであって、
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
前記複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定し、
前記第1ユーザと前記第2ユーザとを含むグループを設定し、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力し、
前記仮想空間において、前記グループの範囲を視覚的に示すグループ領域を設定し、
前記第1ユーザが前記グループ領域を注視した状態で発話した場合に、前記グループに所属するユーザに対して出力される前記第1ユーザの発話音声の第1音量を、前記グループに所属しないユーザに対して出力される前記第1ユーザの発話音声の第2音量よりも大きくする
とともに、前記グループに所属しない第3ユーザが前記グループ領域を注視した状態で発話した場合にも、前記グループに所属するユーザに対して出力される前記第3ユーザの発話音声の第1音量を、前記グループに所属しないユーザに対して出力される前記第3ユーザの発話音声の第2音量よりも大きくする、
コミュニケーション支援システム。
【請求項2】
前記少なくとも一つのプロセッサは、
前記第1ユーザが前記グループ領域を注視した状態で発話した量に基づいて、前記第1ユーザの前記グループへの関与度を算出し、
前記第1ユーザに対して出力される前記第2ユーザの発話音声の音量を、前記関与度に基づいて決定する、
請求項1に記載のコミュニケーション支援システム。
【請求項3】
複数のユーザ間の音声コミュニケーションを支援するコミュニケーション支援システムであって、
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
前記複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定し、
前記第1ユーザと前記第2ユーザとを含むグループを設定し、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力し、
前記グループに所属するユーザ間の会話に基づいて、前記グループの特徴を抽出し、
前記仮想空間において、抽出された前記特徴を示す表示情報を前記グループに関連付けて配置する、
コミュニケーション支援システム。
【請求項4】
複数のユーザ間の音声コミュニケーションを支援するコミュニケーション支援システムであって、
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
前記複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定し、
前記第1ユーザと前記第2ユーザとを含むグループを設定し、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力し、
前記グループに所属している前記第1ユーザが前記グループに所属していない第3ユーザに対応する第3ユーザオブジェクトに関連付けられた領域を注視した状態で、予め定められたアクションが前記第1ユーザによって実行されたことに応じて、前記グループに前記第3ユーザを所属させる、
コミュニケーション支援システム。
【請求項5】
複数のユーザ間の音声コミュニケーションを支援するコミュニケーション支援システムであって、
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
前記複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定し、
前記第1ユーザと前記第2ユーザとを含むグループを設定し、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力し、
前記第1ユーザが第1グループに所属する状態において、前記第1グループに所属しない第4ユーザが前記第1ユーザの対話相手として特定された場合に、前記第1ユーザが前記第1グループに所属する状態を維持したまま、前記第1ユーザと前記第4ユーザとを含む第2グループを設定する、
コミュニケーション支援システム。
【請求項6】
複数のユーザ間の音声コミュニケーションを支援するコミュニケーション支援システムであって、
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
前記複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定し、
前記第1ユーザと前記第2ユーザとを含むグループを設定し、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力し、
複数の前記グループが設定されている場合に、各前記グループに所属するユーザ間の会話内容を認識し、
第3グループについて認識された前記会話内容と第4グループについて認識された前記会話内容とが予め定められた関係を有する場合に、前記第3グループと前記第4グループとを併合する、
コミュニケーション支援システム。
【請求項7】
前記少なくとも一つのプロセッサは、前記仮想空間における前記第1ユーザに対応する第1ユーザオブジェクトと前記第2ユーザに対応する第2ユーザオブジェクトとの距離が短くなるように、前記第1ユーザオブジェクト及び前記第2ユーザオブジェクトの少なくとも一方の位置を変更する、
請求項1~5のいずれか一項に記載のコミュニケーション支援システム。
【請求項8】
前記少なくとも一つのプロセッサは、前記仮想空間において、各前記ユーザの視線に関する表示情報を配置する、
請求項1~7のいずれか一項に記載のコミュニケーション支援システム。
【請求項9】
少なくとも一つのプロセッサを備えるコミュニケーション支援システムによって実行されるコミュニケーション支援方法であって、
複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定するステップと、
前記第1ユーザと前記第2ユーザとを含むグループを設定するステップと、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力するステップと、
前記仮想空間において、前記グループの範囲を視覚的に示すグループ領域を設定するステップと、
前記第1ユーザが前記グループ領域を注視した状態で発話した場合に、前記グループに所属するユーザに対して出力される前記第1ユーザの発話音声の第1音量を、前記グループに所属しないユーザに対して出力される前記第1ユーザの発話音声の第2音量よりも大きくする
とともに、前記グループに所属しない第3ユーザが前記グループ領域を注視した状態で発話した場合にも、前記グループに所属するユーザに対して出力される前記第3ユーザの発話音声の第1音量を、前記グループに所属しないユーザに対して出力される前記第3ユーザの発話音声の第2音量よりも大きくする、ステップと、
を含む、コミュニケーション支援方法。
【請求項10】
少なくとも一つのプロセッサを備えるコミュニケーション支援システムによって実行されるコミュニケーション支援方法であって、
複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定するステップと、
前記第1ユーザと前記第2ユーザとを含むグループを設定するステップと、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力するステップと、
前記グループに所属するユーザ間の会話に基づいて、前記グループの特徴を抽出するステップと、
前記仮想空間において、抽出された前記特徴を示す表示情報を前記グループに関連付けて配置するステップと、
を含む、コミュニケーション支援方法。
【請求項11】
少なくとも一つのプロセッサを備えるコミュニケーション支援システムによって実行されるコミュニケーション支援方法であって、
複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定するステップと、
前記第1ユーザと前記第2ユーザとを含むグループを設定するステップと、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力するステップと、
前記グループに所属している前記第1ユーザが前記グループに所属していない第3ユーザに対応する第3ユーザオブジェクトに関連付けられた領域を注視した状態で、予め定められたアクションが前記第1ユーザによって実行されたことに応じて、前記グループに前記第3ユーザを所属させるステップと、
を含む、コミュニケーション支援方法。
【請求項12】
少なくとも一つのプロセッサを備えるコミュニケーション支援システムによって実行されるコミュニケーション支援方法であって、
複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定するステップと、
前記第1ユーザと前記第2ユーザとを含むグループを設定するステップと、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力するステップと、
前記第1ユーザが第1グループに所属する状態において、前記第1グループに所属しない第4ユーザが前記第1ユーザの対話相手として特定された場合に、前記第1ユーザが前記第1グループに所属する状態を維持したまま、前記第1ユーザと前記第4ユーザとを含む第2グループを設定するステップと、
を含む、コミュニケーション支援方法。
【請求項13】
少なくとも一つのプロセッサを備えるコミュニケーション支援システムによって実行されるコミュニケーション支援方法であって、
複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定するステップと、
前記第1ユーザと前記第2ユーザとを含むグループを設定するステップと、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力するステップと、
複数の前記グループが設定されている場合に、各前記グループに所属するユーザ間の会話内容を認識するステップと、
第3グループについて認識された前記会話内容と第4グループについて認識された前記会話内容とが予め定められた関係を有する場合に、前記第3グループと前記第4グループとを併合するステップと、
を含む、コミュニケーション支援方法。
【請求項14】
複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定するステップと、
前記第1ユーザと前記第2ユーザとを含むグループを設定するステップと、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力するステップと、
前記仮想空間において、前記グループの範囲を視覚的に示すグループ領域を設定するステップと、
前記第1ユーザが前記グループ領域を注視した状態で発話した場合に、前記グループに所属するユーザに対して出力される前記第1ユーザの発話音声の第1音量を、前記グループに所属しないユーザに対して出力される前記第1ユーザの発話音声の第2音量よりも大きくする
とともに、前記グループに所属しない第3ユーザが前記グループ領域を注視した状態で発話した場合にも、前記グループに所属するユーザに対して出力される前記第3ユーザの発話音声の第1音量を、前記グループに所属しないユーザに対して出力される前記第3ユーザの発話音声の第2音量よりも大きくする、ステップと、
をコンピュータに実行させるコミュニケーション支援プログラム。
【請求項15】
複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定するステップと、
前記第1ユーザと前記第2ユーザとを含むグループを設定するステップと、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力するステップと、
前記グループに所属するユーザ間の会話に基づいて、前記グループの特徴を抽出するステップと、
前記仮想空間において、抽出された前記特徴を示す表示情報を前記グループに関連付けて配置するステップと、
をコンピュータに実行させるコミュニケーション支援プログラム。
【請求項16】
複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定するステップと、
前記第1ユーザと前記第2ユーザとを含むグループを設定するステップと、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力するステップと、
前記グループに所属している前記第1ユーザが前記グループに所属していない第3ユーザに対応する第3ユーザオブジェクトに関連付けられた領域を注視した状態で、予め定められたアクションが前記第1ユーザによって実行されたことに応じて、前記グループに前記第3ユーザを所属させるステップと、
をコンピュータに実行させるコミュニケーション支援プログラム。
【請求項17】
複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定するステップと、
前記第1ユーザと前記第2ユーザとを含むグループを設定するステップと、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力するステップと、
前記第1ユーザが第1グループに所属する状態において、前記第1グループに所属しない第4ユーザが前記第1ユーザの対話相手として特定された場合に、前記第1ユーザが前記第1グループに所属する状態を維持したまま、前記第1ユーザと前記第4ユーザとを含む第2グループを設定するステップと、
をコンピュータに実行させるコミュニケーション支援プログラム。
【請求項18】
複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線と前記ユーザオブジェクトとの位置関係と、前記第1ユーザの発話の検出結果と、に基づいて、前記第1ユーザの対話相手である第2ユーザを特定するステップと、
前記第1ユーザと前記第2ユーザとを含むグループを設定するステップと、
前記グループに所属する前記第2ユーザの発話音声を、前記第2ユーザが前記グループに所属していない場合における前記第2ユーザの発話音声よりも大きい音量で前記第1ユーザに対して出力するステップと、
複数の前記グループが設定されている場合に、各前記グループに所属するユーザ間の会話内容を認識するステップと、
第3グループについて認識された前記会話内容と第4グループについて認識された前記会話内容とが予め定められた関係を有する場合に、前記第3グループと前記第4グループとを併合するステップと、
をコンピュータに実行させるコミュニケーション支援プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示の一側面は、コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラムに関する。
【背景技術】
【0002】
オンラインで行われる遠隔会議において、全会議参加者のうちの一部の会議参加者により構成されるグループを作成した場合に、自分が含まれるグループの音声を他のグループの音声よりも大きくする仕組みが知られている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記特許文献1に開示された仕組みでは、グループ設定操作は、グループ設定画面に表示された参加者画像を仕切る手動操作(例えば、ポインティングデバイス、キーボード等を用いた操作)により行われる。すなわち、上記仕組みにおいては、ユーザは、ユーザ間の会話を行う前に、上記グループ設定操作によってグループを作成しておく必要がある。また、ユーザは会話の途中で自分が所属するグループを変更したくなった場合、その都度、手動でグループ設定を行う必要があるため手間がかかる。
【0005】
そこで、本開示の一側面は、複数のユーザ間の音声コミュニケーションにおいて、一部のユーザ同士の会話を円滑且つ容易に行うことができるコミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示の一側面に係るコミュニケーション支援システムは、複数のユーザ間の音声コミュニケーションを支援するコミュニケーション支援システムであって、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線とユーザオブジェクトとの位置関係と、第1ユーザの発話の検出結果と、に基づいて、第1ユーザの対話相手である第2ユーザを特定し、第1ユーザと第2ユーザとを含むグループを設定し、グループに所属する第2ユーザの発話音声を、第2ユーザがグループに所属していない場合における第2ユーザの発話音声よりも大きい音量で第1ユーザに対して出力する。
【発明の効果】
【0007】
本開示の一側面によれば、複数のユーザ間の音声コミュニケーションにおいて、一部のユーザ同士の会話を円滑且つ容易に行うことができるコミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラムを提供することができる。
【図面の簡単な説明】
【0008】
【
図1】実施形態に係るコミュニケーション支援システムの適用の一例を示す図である。
【
図2】
図1のコミュニケーション支援システムに関連するハードウェア構成の一例を示す図である。
【
図3】
図1のコミュニケーション支援システムに関連する機能構成の一例を示す図である。
【
図4】
図1のコミュニケーション支援システムの動作の一例を示すシーケンス図である。
【
図5】ユーザ端末上に表示される画面例を示す図である。
【
図6】第2の制御例の動作を示すフローチャートである。
【
図7】第2の制御例の実行結果である画面例を示す図である。
【
図8】第3の制御例の動作を示すフローチャートである。
【
図9】第3の制御例の実行結果である画面例を示す図である。
【
図10】第4の制御例の動作を示すフローチャートである。
【
図11】第4の制御例の実行結果である画面例を示す図である。
【
図12】第5の制御例の実行結果である画面例を示す図である。
【
図13】第6の制御例の実行結果である画面例を示す図である。
【発明を実施するための形態】
【0009】
以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
【0010】
[システムの概要]
実施形態に係るコミュニケーション支援システムは、複数のユーザが参加して行う音声コミュニケーションを支援するコンピュータシステムである。音声コミュニケーションは、電話回線、インターネット回線等の任意の有線又は無線の通信ネットワークを介して接続された多地点に存在する複数のユーザの端末装置を用いて実行される。このような音声コミュニケーションは、一般に、Web会議、オンライン会議、遠隔会議等と呼ばれることもある。
【0011】
コミュニケーション支援システムでは、音声コミュニケーションに参加する各ユーザが端末装置(以下「ユーザ端末」という。)を有する。各ユーザは、ユーザ端末のディスプレイに表示された画面を見ながら発話することで、他のユーザのユーザ端末へと自身の発話音声を届けることができる。また、他のユーザの発話音声は、ユーザ端末のスピーカから出力される。コミュニケーション支援システムは、このようにユーザ端末間で送受信されるデータ(発話音声等)を制御することで、ユーザ間の会話を円滑化する。
【0012】
なお、本開示において、データ又は情報を第1コンピュータから第2コンピュータ“に送信する”との表現は、第2コンピュータに最終的にデータ又は情報を届けるための送信を意味する。すなわち、上記表現は、その送信において別のコンピュータ又は通信装置がデータ又は情報を中継する場合を含む。
【0013】
[コミュニケーション支援システムの全体構成]
図1は、実施形態に係るコミュニケーション支援システム1の適用の一例を示す図である。本実施形態では、コミュニケーション支援システム1は、サーバ10と、複数のユーザ端末20と、設定情報記憶部30と、を備える。
【0014】
サーバ10は、ユーザ端末20間の通信を中継するコンピュータである。サーバ10は、通信ネットワークNを介して、各ユーザ端末20及び設定情報記憶部30と接続されている。通信ネットワークNの構成は限定されない。例えば、通信ネットワークNは、インターネットを含んで構成されてもよいし、イントラネットを含んで構成されてもよい。
【0015】
ユーザ端末20は、音声コミュニケーションに参加するユーザによって用いられるコンピュータである。本実施形態では、ユーザ端末20は、複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面を提示する機能と、ユーザの視線を検出する機能と、ユーザの発話音声を検出(入力)する機能と、他のユーザの発話音声を出力する機能と、を有する。ユーザ端末20の種類及び構成は限定されない。例えば、ユーザ端末20は、高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラス等)、ラップトップ型パーソナルコンピュータ、携帯電話機等の携帯端末でもよい。或いは、ユーザ端末20は、デスクトップ型パーソナルコンピュータ等の据置型端末でもよい。
【0016】
本実施形態では、ユーザ端末20Aは、複数のユーザのうち着目する一のユーザA(第1ユーザ)のユーザ端末である。ユーザ端末20B,20Cは、ユーザAとは異なるユーザB,Cのユーザ端末である。
図1は、3台のユーザ端末20を例示しているが、ユーザ端末20の台数(すなわち、音声コミュニケーションに参加するユーザの数)は特に限定されない。
【0017】
ユーザは、例えば、ユーザ端末20を操作してコミュニケーション支援システム1にログインすることにより、音声コミュニケーションに参加することができる。本実施形態では、各ユーザがコミュニケーション支援システム1にログインしていることを前提とする。
【0018】
設定情報記憶部30は、サーバ10において生成又は更新された種々の設定情報を記憶する非一時的な記憶媒体又は記憶装置である。設定情報記憶部30は、例えば、上記仮想空間における各ユーザオブジェクトの位置を示す配置情報、後述するグループに関するグループ情報等を記憶する。
【0019】
設定情報記憶部30の設置場所は限定されない。例えば、設定情報記憶部30は、コミュニケーション支援システム1とは別のコンピュータシステム内に設けられてもよいし、コミュニケーション支援システム1の構成要素であってもよい。
【0020】
[コミュニケーション支援システムのハードウェア構成]
図2は、コミュニケーション支援システム1に関連するハードウェア構成の一例を示す図である。
図2は、サーバ10として機能するサーバコンピュータ100と、ユーザ端末20として機能する端末コンピュータ200とを示す。
【0021】
一例として、サーバコンピュータ100は、ハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、及び通信部104を備える。
【0022】
プロセッサ101は、オペレーティングシステム及びアプリケーションプログラムを実行する演算装置である。プロセッサの例としては、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)が挙げられるが、プロセッサ101の種類はこれらに限定されない。例えば、プロセッサ101は、センサ及び専用回路の組合せでもよい。専用回路は、FPGA(Field-Programmable Gate Array)のようなプログラム可能な回路でもよいし、他の種類の回路でもよい。
【0023】
主記憶部102は、サーバ10を実現するためのプログラム、プロセッサ101から出力された演算結果等を記憶する装置である。主記憶部102は、例えばROM(Read Only Memory)又はRAM(Random Access Memory)等により構成される。
【0024】
補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶することが可能な装置である。補助記憶部103は、例えばハードディスク、フラッシュメモリ等の不揮発性記憶媒体によって構成される。補助記憶部103は、サーバコンピュータ100をサーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。本実施形態では、コミュニケーション支援プログラムは、サーバプログラムP1として実装される。
【0025】
通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部104は、例えばネットワークカード又は無線通信モジュールにより構成される。
【0026】
サーバ10の各機能要素は、プロセッサ101又は主記憶部102にサーバプログラムP1を読み込ませ、プロセッサ101に当該サーバプログラムP1を実行させることにより実現される。サーバプログラムP1は、サーバ10の各機能要素を実現するためのコードを含む。プロセッサ101は、サーバプログラムP1に従って通信部104を動作させ、主記憶部102又は補助記憶部103におけるデータの読み出し及び書き込みを実行する。このような処理により、サーバ10の各機能要素が実現される。
【0027】
サーバ10は、一つ又は複数のコンピュータにより構成され得る。複数のコンピュータが用いられる場合には、通信ネットワークを介して当該複数のコンピュータが互いに接続されることにより、論理的に一つのサーバ10が構成される。
【0028】
一例として、端末コンピュータ200は、ハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203、通信部204、入力インタフェース205、出力インタフェース206、及び撮像部207を備える。
【0029】
プロセッサ201は、オペレーティングシステム及びアプリケーションプログラムを実行する演算装置である。プロセッサ201は、例えばCPU又はGPUであり得るが、プロセッサ201の種類はこれらに限定されない。
【0030】
主記憶部202は、ユーザ端末20を実現させるためのプログラム、プロセッサ201から出力された演算結果等を記憶する装置である。主記憶部202は、例えばROM又はRAM等により構成される。
【0031】
補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶することが可能な装置である。補助記憶部203は、例えばハードディスク、フラッシュメモリ等の不揮発性記憶媒体によって構成される。補助記憶部203は、端末コンピュータ200をユーザ端末20として機能させるためのクライアントプログラムP2と各種のデータとを記憶する。
【0032】
通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部204は、例えばネットワークカード又は無線通信モジュールにより構成される。
【0033】
入力インタフェース205は、ユーザの操作又は動作に基づいて、データを受け付ける装置である。例えば、入力インタフェース205は、コントローラ、キーボード、操作ボタン、ポインティングデバイス、マイクロフォン、センサ、及びカメラのうちの少なくとも一つによって構成される。本実施形態では、入力インタフェース205は、少なくとも、ユーザの視線を検出するセンサ又はカメラと、ユーザの発話音声を検出するマイクロフォンと、を含んでいる。キーボード及び操作ボタンは、タッチパネル上に表示されてもよい。入力インタフェース205の種類が限定されないことに対応して、入力インタフェース205に入力されるデータも限定されない。例えば、入力インタフェース205は、キーボード、操作ボタン、又はポインティングデバイスによって入力又は選択されたデータを受け付けてもよい。或いは、入力インタフェース205は、マイクロフォンにより入力された音声データを受け付けてもよい。或いは、入力インタフェース205は、カメラによって撮影された画像データ(例えば、映像データ又は静止画データ)を受け付けてもよい。或いは、入力インタフェース205は、センサ又はカメラを用いたモーションキャプチャ機能によって検知されたユーザの非言語活動(例えば、視線、ジェスチャ、表情等)を示すデータをモーションデータとして受け付けてもよい。
【0034】
出力インタフェース206は、端末コンピュータ200で処理されたデータを出力する装置である。例えば、出力インタフェース206は、モニタ、タッチパネル、HMD等の表示装置と、スピーカと、によって構成される。表示装置は、処理されたデータを画面上に表示する。スピーカは、処理された音声データにより示される音声を出力する。
【0035】
撮像部207は、現実世界を写した画像を撮影する装置であり、具体的にはカメラである。撮像部207は、動画像(映像)を撮影してもよいし、静止画(写真)を撮影してもよい。動画像を撮影する場合には、撮像部207は、映像信号を所与のフレームレートに基づいて処理することにより、時系列に並ぶ一連のフレーム画像を動画像として取得する。撮像部207は、入力インタフェース205としても機能し得る。例えば、撮像部207は、表示装置(出力インタフェース206)の前方(ユーザ側)に設けられ、ユーザの顔画像を撮影する。撮像部207により撮影されたユーザの顔画像は、例えば、上記仮想空間に配置されるユーザオブジェクトの表示情報として用いられ得る。なお、音声コミュニケーションの画面上にユーザの顔画像を表示しない場合(例えば、ユーザオブジェクトの表示情報としてユーザの顔画像を利用しない場合)、撮像部207は省略されてもよい。
【0036】
ユーザ端末20の各機能要素は、プロセッサ201又は主記憶部202にクライアントプログラムP2を読み込ませ、当該クライアントプログラムP2を実行させることにより実現される。クライアントプログラムP2は、ユーザ端末20の各機能要素を実現するためのコードを含む。プロセッサ201は、クライアントプログラムP2に従って、通信部204、入力インタフェース205、出力インタフェース206、又は撮像部207を動作させ、主記憶部202又は補助記憶部203におけるデータの読み出し及び書き込みを行う。この処理により、ユーザ端末20の各機能要素が実現される。
【0037】
サーバプログラムP1及びクライアントプログラムP2の少なくとも一つは、CD-ROM、DVD-ROM、半導体メモリ等の有形の記録媒体に固定的に記録された上で提供されてもよい。或いは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。これらのプログラムは、別々に提供されてもよいし、一緒に提供されてもよい。
【0038】
[コミュニケーション支援システムの機能構成]
図3は、コミュニケーション支援システム1に関連する機能構成の一例を示す図である。サーバ10は、機能要素として、受信部11、グループ設定部12、制御部13、及び送信部14を備える。
【0039】
受信部11は、ユーザ端末20から送信されたデータ信号を受信する。データ信号は、例えば、視線情報、音声データ、アクション情報等を含み得る。視線情報は、ユーザ端末20のセンサ又はカメラ(入力インタフェース205)により検出されたユーザの視線に関する情報である。音声データは、ユーザ端末20のマイクロフォン(入力インタフェース205)により検出されたユーザの発話音声を示すデータである。アクション情報は、ユーザ端末20のコントローラ、キーボード、センサ、カメラ等(入力インタフェース205)により検出されたユーザの所定のアクション(例えば、コントローラ操作、ジェスチャ等)を示す情報である。
【0040】
グループ設定部12は、ユーザ端末20から受信したデータ信号に基づいて、グループを設定する。グループ設定部12は、グループの生成(新規作成)、グループの更新(例えば、グループのメンバの変更(追加・削除)等)、グループの削除等を行う。グループ及びグループ設定部12の処理の詳細については後述する。グループ設定部12によって設定されたグループに関するグループ情報は、設定情報記憶部30(
図1参照)に記憶される。
【0041】
制御部13は、ユーザ端末20から受信したデータ信号と、グループ設定部12により設定されたグループ情報(すなわち、設定情報記憶部30に記憶されたグループ情報)と、に基づいて、各ユーザのユーザ端末20に送信する音声データの制御及び仮想空間の表示内容の制御を行う。例えば、制御部13は、グループ情報に基づいて、各ユーザに送信する音声データの音量調整等を行う。また、制御部13は、仮想空間における各種表示情報を制御(決定)する。例えば、制御部13は、仮想空間における各ユーザのユーザオブジェクトの配置の設定、グループの範囲を示すグループ領域の設定、グループに関連付ける表示情報の設定、ユーザの視線を示す表示情報の設定等を行う。各制御内容の具体例は後述する。
【0042】
送信部14は、制御部13によって制御された音声データ及び表示情報を各ユーザ端末20に送信する。なお、本実施形態では、共通の表示情報が各ユーザのユーザ端末20に送信される。一方、音声データについては、ユーザ毎に個別に選別及び調整された音声データが各ユーザのユーザ端末20に送信される。すなわち、ユーザ毎(ユーザ端末20毎)に、サーバ10(送信部14)から送信される音声データの内容(音量等)が異なる。
【0043】
ユーザ端末20は、機能要素として、視線検出部21、発話検出部22、アクション検出部23、送信部24、受信部25、表示制御部26、及び音声出力部27を備える。
【0044】
視線検出部21は、ユーザ端末20の入力インタフェース205(カメラ等)によって検出されたユーザの視線に関する視線情報を取得する。ユーザの視線を検出する手法としては、例えば、公知のアイトラッキング技術を用いることができる。例えば、視線検出部21は、カメラ(入力インタフェース205)によって検出されたユーザの目(例えば、虹彩、瞳孔等)の位置又は状態に基づいて、ユーザの視線方向及び焦点位置等を検出する。
【0045】
視線検出部21は、表示装置(出力インタフェース206)の画面に表示された仮想空間におけるユーザの注視点を検出する。例えば、視線検出部21は、カメラ等によって検出されたユーザの視線方向及び焦点位置と表示装置の画面との位置関係に基づいて、ユーザが表示装置の画面に表示された仮想空間のどの位置を注視しているかを特定する。このようにして視線検出部21により取得される視線情報は、仮想空間におけるユーザの注視点を示す情報を含み得る。例えば、仮想空間が2次元空間(平面)である場合、注視点を示す情報は2次元座標(XY座標)で表現され得る。また、仮想空間が3次元空間である場合、注視点を示す情報は3次元座標(XYZ座標)で表現され得る。
【0046】
発話検出部22は、マイクロフォン(入力インタフェース205)により検出されたユーザの発話音声を検出し、検出された発話音声を音声データとして取得する。
【0047】
アクション検出部23は、コントローラ、キーボード、センサ、カメラ等(入力インタフェース205)により検出されたユーザの所定のアクション(例えば、予め定められたコントローラ操作、ジェスチャ等)を検出し、検出されたアクションの内容を示すアクション情報を取得する。
【0048】
送信部24は、視線検出部21により視線情報が取得された際に、当該視線情報をサーバ10に送信する。また、送信部24は、発話検出部22により音声データが取得された際に、当該音声データをサーバ10に送信する。また、送信部24は、アクション検出部23によりアクション情報が取得された際に、当該アクション情報をサーバ10に送信する。
【0049】
受信部25は、サーバ10から音声データ及び表示情報を受信する。
【0050】
表示制御部26は、サーバ10から受信した表示情報に基づいて、表示装置(出力インタフェース206)に、音声コミュニケーションに参加する複数のユーザの各々のユーザオブジェクトが配置された仮想空間を表す画面を表示する。
【0051】
音声出力部27は、サーバ10から受信した音声データをスピーカ(出力インタフェース206)から出力する。
【0052】
[コミュニケーション支援システムの動作]
図4及び
図5を参照して、コミュニケーション支援システム1の動作を説明すると共に、本実施形態に係るコミュニケーション支援方法について説明する。
図4は、コミュニケーション支援システム1の動作の一例を示すシーケンス図である。
図5は、各ユーザのユーザ端末20の表示装置に表示される画面例を模式的に示した図である。なお、ここでは一例として、各ユーザのユーザオブジェクト50が配置される仮想空間VSは2次元空間(平面)であるものとする。この場合、
図5に示される例のように、仮想空間VS上に、複数のユーザ(ここでは、A~Eの5人のユーザ)の各々に対応するユーザオブジェクト50が、2次元的に配置される。
【0053】
まず、各ユーザが音声コミュニケーション(オンライン会議)にログインした直後の初期状態として、各ユーザのユーザ端末20の表示装置には、
図5に示される画面SC0が表示される。画面SC0は、例えば、サーバ10により生成される。例えば、サーバ10は、各ユーザからのログイン処理を受け付け、ログインされたユーザに対応するユーザオブジェクト50を仮想空間VS上に配置する。サーバ10は、このように各ユーザのユーザオブジェクト50が配置された仮想空間VSを表す画面SC0を生成し、各ユーザのユーザ端末20に送信する。そして、各ユーザのユーザ端末20の表示制御部26が、サーバ10から受信した画面SC0を表示装置に表示する。
【0054】
なお、ユーザオブジェクト50は、ユーザを識別可能な態様で表示されればよく、ユーザオブジェクト50の表示態様は特定の表示態様に限定されない。例えば、ユーザオブジェクト50には、ユーザの名前(或いは、名前の一部、イニシャル等)、ユーザの実写画像、予め登録されたユーザのアバター画像、或いはこれらの組み合わせ等を関連付けて表示してもよい。仮想空間VSが3次元空間の場合には、上記アバター画像の代わりに、3次元のアバターオブジェクトが用いられてもよい。また、ユーザ端末20のカメラでリアルタイムに撮影されるユーザの顔画像を含んだ画像(映像)が、ユーザオブジェクト50として用いられてもよい。
【0055】
ステップS101において、ユーザA(第1ユーザ)のユーザ端末20Aの視線検出部21は、ユーザAの視線を検出する。本実施形態では、視線検出部21は、仮想空間VSにおけるユーザの注視点51(
図5の画面SC1参照)を示す情報(例えば、2次元座標)を含む視線情報を取得する。なお、注視点51を示す表示情報(例えば、
図5の画面SC1に示されるような星印のマーク)は、画面上に表示されてもよい。この場合、ユーザAは、注視点51を示す表示情報を参照することにより、自身が見ていると認識している位置と視線検出部21により推定された注視点51とが一致しているか否かを確認することができる。仮に、ユーザA自身が見ていると認識している位置と注視点51とが一致しない場合には、ユーザ端末20Aは、ユーザAによる操作(例えば、コントローラ操作等)を受け付けることにより、注視点51の位置を調整するキャリブレーション処理を実行してもよい。
【0056】
ステップS102において、ユーザ端末20Aの送信部24がユーザAの視線情報をサーバ10に送信し、受信部11が当該視線情報を受信する。なお、ユーザ端末20Aからサーバ10への視線情報の送信は、例えば予め定められた時間間隔で継続的に実行される。
【0057】
ステップS103において、ユーザ端末20Aの発話検出部22は、ユーザAの発話を検出し、ユーザAの発話音声を示す音声データを取得する。
【0058】
ステップS104において、ユーザ端末20Aの送信部24がユーザAの音声データをサーバ10に送信し、受信部11が当該音声データを受信する。
【0059】
ステップS105において、グループ設定部12は、ユーザAの対話相手を特定する。グループ設定部12は、仮想空間VSを表す画面に対するユーザAの視線と仮想空間VSに配置された各ユーザのユーザオブジェクト50との位置関係と、ユーザAの発話の検出結果と、に基づいて、ユーザAの対話相手を特定する。
【0060】
例えば、
図5の画面SC1に示されるように、グループ設定部12は、視線情報に示されるユーザAの注視点51が特定のユーザ(この例では、第2ユーザであるユーザB)のユーザオブジェクト50B(或いは、ユーザオブジェクト50Bの近傍を含む領域52。以下同じ。)と重なった状態で、ユーザAの発話が検出された場合(すなわち、ユーザAの音声データが受信された場合)に、ユーザBをユーザAの対話相手として特定してもよい。
【0061】
ただし、ユーザAの注視点51がユーザオブジェクト50Bと偶然重なった状態でユーザAの咳払い等の音声データがユーザ端末20Aの発話検出部22により検出される可能性もある。このような場合、実際にはユーザBはユーザAの対話相手ではないにもかかわらず、ユーザAの対話相手として特定されてしまうことになる。そこで、このような事態を回避するために、グループ設定部12は、上記以外の方法でユーザAの対話相手を特定してもよい。例えば、グループ設定部12は、ユーザAの注視点51がユーザオブジェクト50Bと重なった状態で、ユーザAの発話が所定の閾値回数以上検出された場合、又は所定の閾値時間以上継続して検出された場合に、ユーザBをユーザAの対話相手として特定してもよい。或いは、グループ設定部12は、ユーザAの注視点51がユーザオブジェクト50Bと重なった状態でユーザAの発話が検出された後、ユーザB(第2ユーザ)からユーザAに対する発話がされたこと(例えば、ユーザBが、ユーザBの注視点をユーザAに対応するユーザオブジェクト50Aに合わせた状態で発話したこと)に応じて、ユーザBをユーザAの対話相手として特定してもよい。また、グループ設定部12は、上記のようなユーザAとユーザBとの間の発話のやり取りが所定の閾値回数以上往復した場合に、ユーザBをユーザAの対話相手として特定してもよい。以上のように、グループ設定部12は、ユーザAの注視点と各ユーザのユーザオブジェクト50との位置関係と、ユーザAの発話の検出結果と、を基本情報として用いつつ、他の情報も用いることで、ユーザAの対話相手をより精度良く特定するようにしてもよい。
【0062】
なお、仮想空間VSが3次元空間であり、ユーザオブジェクト50が3次元のアバターオブジェクトとして表現される場合、ユーザAから見た視界(すなわち、ユーザ端末20Aの表示装置に表示される画面)において、複数のユーザのユーザオブジェクトが重なる場合がある。例えば、ユーザBのユーザオブジェクトがユーザCのユーザオブジェクトの後方に存在し、ユーザAがユーザCのユーザオブジェクトを注視できない場合がある。このような場合、制御部13は、例えば、ユーザCのユーザオブジェクトに関連付けられる吹き出し等の関連オブジェクトを、ユーザAから見てユーザBのユーザオブジェクトと重ならない位置に配置してもよい。そして、グループ設定部12は、ユーザAの注視点が上記関連オブジェクトに合わされた状態でユーザAの発話が検出された場合に、ユーザCをユーザAの対話相手として特定してもよい。
【0063】
ステップS106において、グループ設定部12は、ユーザAと、ステップS105においてユーザAの対話相手として特定されたユーザBと、を含むグループGを設定する。グループ設定部12により設定されたグループGに関する情報(例えば、グループGに含まれるメンバ等の情報)は、設定情報記憶部30(
図1参照)に記憶される。
【0064】
なお、この例では、ユーザA及びユーザBのいずれもグループに所属していない状態であるため、グループ設定部12によって、ユーザA及びユーザBをメンバに含むグループGが新たに生成されたが、ユーザA及びユーザBの一方が既存のグループに所属している場合には、グループ設定部12は、ユーザA及びユーザBの他方を当該既存のグループに追加してもよい。例えば、ユーザAが既存のグループ(例えば、ユーザA及びユーザCをメンバに含むグループ)に所属していた場合、グループ設定部12は、当該既存のグループにユーザBを新たなメンバとして加えてもよい。すなわち、グループ設定部12は、ユーザA,B,Cを含むグループを設定してもよい。また、仮に、ユーザBが既存のグループ(例えば、ユーザB及びユーザCをメンバに含むグループ)に所属していた場合、グループ設定部12は、当該既存のグループにユーザAを新たなメンバとして加えてもよい。すなわち、グループ設定部12は、ユーザA,B,Cを含むグループを設定してもよい。
【0065】
ステップS107において、制御部13は、仮想空間VSの表示制御を行う。例えば、制御部13は、仮想空間VS内に配置される各ユーザオブジェクト50の位置を変更したり、各ユーザのユーザ端末20の表示装置の画面上に表示するための表示情報を設定したりする。
【0066】
本実施形態では、制御部13は、仮想空間VSにおけるユーザA(第1ユーザ)に対応するユーザオブジェクト50A(第1ユーザオブジェクト)とユーザB(第2ユーザ)に対応するユーザオブジェクト50B(第2ユーザオブジェクト)との距離が短くなるように、ユーザオブジェクト50A及びユーザオブジェクト50Bの少なくとも一方の位置を変更する。その上で、制御部13は、仮想空間VSに、グループGの範囲を視覚的に示すグループ領域60を設定する。
【0067】
本実施形態では一例として、画面SC2に示されるように、制御部13は、ユーザDのユーザオブジェクト50とユーザBのユーザオブジェクト50Bとの位置を入れ替えることにより、ユーザオブジェクト50Bをユーザオブジェクト50Aに近づける。ただし、上記のような操作を行った場合、仮想空間VSにおけるユーザDのユーザオブジェクト50の位置がユーザDの操作と無関係に変化してしまうため、ユーザDに違和感を与えるおそれがある。そこで、このような問題を回避するために、制御部13は、他のユーザのユーザオブジェクト50の位置を変えることなく、ユーザオブジェクト50A及びユーザオブジェクト50Bの少なくとも一方の位置を変更することにより、ユーザオブジェクト50Aとユーザオブジェクト50Bとの距離を短くしてもよい。
【0068】
ステップS108において、送信部14は、ステップS107における表示制御の結果を反映するための表示情報をユーザ端末20Aに送信し、ユーザ端末20Aの受信部25が当該表示情報を受信する。
【0069】
ステップS109において、ユーザ端末20Aの表示制御部26は、ステップS108において受信された表示情報が反映された画面SC2(
図5参照)を表示装置に表示する。画面SC2では、ユーザオブジェクト50Bがユーザオブジェクト50Aに近づけられた上で設定されたグループGのグループ領域60が表示されている。この例では、グループ領域60は、グループGのメンバであるユーザA,Bのユーザオブジェクト50A,50Bを含む楕円状の領域とされている。ただし、グループ領域60の形状は、特に限定されず、楕円状以外の形状とされてもよい。
【0070】
ユーザAは、画面SC2に表示されたグループ領域60を確認することによって、グループの設定状況を把握することができる。なお、
図4においては処理フローを省略しているが、ステップS107における表示制御の結果を反映するための表示情報は、サーバ10からユーザA以外の各ユーザのユーザ端末20にも送信され、各ユーザ端末20の表示装置にも画面SC2と同様の画面が表示されてもよい。この場合、複数のユーザ(
図5の例ではA~Eの5人のユーザ)の各々が、自身が所属するか否かにかかわらず、グループの設定状況をリアルタイムに把握することができる。
【0071】
ステップS110において、ユーザ端末20Bの発話検出部22は、ユーザB(第2ユーザ)の発話を検出し、ユーザBの発話音声を示す音声データを取得する。
【0072】
ステップS111において、ユーザ端末20Bの送信部24がユーザBの音声データをサーバ10に送信し、受信部11が当該音声データを受信する。
【0073】
ステップS112において、制御部13は、ステップS111において取得されたユーザBの音声データを制御する。より具体的には、制御部13は、ユーザBがユーザAと同一のグループに所属しているか否かに基づいて、ユーザAに送信すべきユーザBの音声データの音量を調整する。ここで、ユーザBは、ユーザAと同一のグループGに所属している。この場合、一例として、制御部13は、ユーザBの音声データの基準音量を、ユーザ端末20Bの発話検出部22により検出されたユーザBの発話音声の音量と同一の音量に設定する。
【0074】
ステップS113において、送信部14は、ステップS112で制御されたユーザBの音声データをユーザ端末20Aに送信する。
【0075】
ステップS114において、ユーザ端末20Aの音声出力部27は、ユーザ端末20が備えるスピーカ(出力インタフェース206)等から、ステップS113において取得されたユーザBの音声データを出力する。ここで、音声出力部27から出力されるユーザBの音声データの音量は、ステップS112で設定された基準音量とユーザ端末20Aで設定されているスピーカ音量(ローカル設定)とに基づいて決定される。
【0076】
ステップS115において、ユーザ端末20Cの発話検出部22は、ユーザCの発話を検出し、ユーザCの発話音声を示す音声データを取得する。
【0077】
ステップS116において、ユーザ端末20Cの送信部24がユーザCの音声データをサーバ10に送信し、受信部11が当該音声データを受信する。
【0078】
ステップS117において、制御部13は、ステップS116において取得されたユーザCの音声データを制御する。より具体的には、制御部13は、ユーザCがユーザAと同一のグループに所属しているか否かに基づいて、ユーザAに送信すべきユーザCの音声データの音量を調整する。ここで、ユーザCは、ユーザAと同一のグループGに所属していない。この場合、一例として、制御部13は、ユーザCの音声データの基準音量を、ユーザ端末20Cの発話検出部22により検出されたユーザCの発話音声の音量よりも小さい音量に設定する。
【0079】
ステップS118において、送信部14は、ステップS117で制御されたユーザCの音声データをユーザ端末20Aに送信する。
【0080】
ステップS119において、ユーザ端末20Aの音声出力部27は、ユーザ端末20が備えるスピーカ(出力インタフェース206)等から、ステップS118において取得されたユーザCの音声データを出力する。ここで、音声出力部27から出力されるユーザCの音声データの音量は、ステップS117で設定された基準音量とユーザ端末20Aで設定されているスピーカ音量(ローカル設定)とに基づいて決定される。
【0081】
ここで、ステップS112において、ユーザBの音声データの基準音量は、ユーザ端末20Bの発話検出部22により検出されたユーザBの発話音声の音量と同一に設定されるのに対して、ステップS117において、ユーザCの音声データの基準音量は、ユーザ端末20Cの発話検出部22により検出されたユーザBの発話音声の音量よりも小さく設定される。その結果、ユーザ端末20Aにおいて、ユーザAと同一のグループGに所属するユーザBの音声データの方が、ユーザAと同一のグループGに所属していないユーザCの音声データよりも聞こえやすくなる。すなわち、仮にユーザBの発話音量とユーザCの発話音量とが同一であった場合、ステップS114において出力されるユーザBの音声データの音量は、ステップS119において出力されるユーザCの音声データの音量よりも大きくなる。
【0082】
[他の制御例]
以下、
図4のシーケンス図に含めなかった他のいくつかの制御例について説明する。
【0083】
(第1の制御例)
制御部13は、ユーザAがグループGのグループ領域60(
図5の画面SC2参照)を注視した状態(すなわち、ユーザAの注視点51がグループ領域60内に位置する状態)で発話した場合に、グループGに所属するユーザ(ここでは、発話元のユーザA以外のユーザB)に対して出力されるユーザAの発話音声の第1音量を、グループGに所属しないユーザ(ここでは、ユーザC,D,E)に対して出力されるユーザAの発話音声の第2音量よりも大きくしてもよい。なお、第2音量は0でもよい。すなわち、上記状態におけるユーザAの発話音声は、グループGに所属するユーザのみに対して出力されてもよい。上記構成によれば、グループ領域60に視線を合わせる簡単な操作によってグループG内に閉じた会話(すなわち、グループG外のユーザには聞こえなくなるか、或いは聞き難くなる会話)を行うことが可能となる。
【0084】
なお、上記では、ユーザAが自身の所属するグループGに対して発信する場合を例示したが、上記仕組みは、あるユーザが自身の所属しないグループに対して発話する場合にも適用可能である。例えば、制御部13は、グループGに所属しないユーザCがグループGのグループ領域60を注視した状態で発話した場合に、グループGに所属するユーザ(ここでは、ユーザA,B)に対して出力されるユーザCの発話音声の音量を、グループGに所属しないユーザ(ここでは、発話元のユーザC以外のユーザD,E)に対して出力されるユーザCの発話音声の音量よりも大きくしてもよい。
【0085】
(第2の制御例)
制御部13は、既存のグループ(ここでは一例として、ユーザA及びユーザBを含むグループG)に所属しているユーザAが当該グループGに所属していないユーザC(第3ユーザ)に対応するユーザオブジェクト50Cに関連付けられた領域を注視した状態で、予め定められたアクションがユーザAによって実行されたことに応じて、当該グループにユーザCを所属させてもよい。以下、
図6に示されるフローチャートを参照して、上記制御の動作例を説明する。
【0086】
ステップS201において、制御部13は、ユーザA(第1ユーザ)の視線情報を取得する。具体的には、ユーザ端末20Aの視線検出部21により検出(取得)されたユーザAの視線情報が、ユーザ端末20Aからサーバ10に送信される。その結果、制御部13は、ユーザAの視線情報を取得することができる。
【0087】
ステップS202において、制御部13は、ユーザA(第1ユーザ)のアクション情報を取得する。具体的には、ユーザ端末20Aのアクション検出部23により検出(取得)されたユーザAのアクション情報が、ユーザ端末20Aからサーバ10に送信される。その結果、制御部13は、ユーザAの視線情報を取得することができる。
【0088】
ステップS203において、制御部13は、ステップS201において取得されたユーザAの視線情報に基づいて、ユーザAがユーザCに対応するユーザオブジェクト50Cに関連付けられる領域を注視しているか否かを判定する。ユーザオブジェクト50Cに関連付けられる領域は、例えば、ユーザオブジェクト50Cが表示された領域であってもよいし、ユーザオブジェクト50Cから所定の距離以内の領域(ユーザオブジェクト50Cの近傍の領域)を含む領域であってもよいし、上述した吹き出し等の関連オブジェクトであってもよい。ステップS203の判定結果がYESの場合、ステップS204の処理が実行される。ステップS203の判定結果がNOの場合、ユーザCをユーザAが所属するグループに追加することなく処理が終了される。
【0089】
ステップS204において、制御部13は、ステップS202において取得されたユーザAのアクション情報に基づいて、ユーザAが予め定められた特定のアクションを実行したか否かを判定する。特定のアクションの例としては、例えば、「Cさん、来て下さい。」等の発話(例えば、グループに新たに追加したいユーザを示す名称、グループへの参加を呼びかけるものとして予め登録されたキーワード等を含む発話)を行うこと、手招き等の予め定められたジェスチャ動作を行うこと等が挙げられる。ステップS204の判定結果がYESの場合、ステップS205の処理が実行される。ステップS204の判定結果がNOの場合、ユーザCをユーザAが所属するグループに追加することなく処理が終了される。
【0090】
ステップS205において、制御部13は、ユーザCをユーザAが所属する既存のグループのメンバとして追加する。その結果、
図7の画面SC3のように、ユーザA及びユーザBを含む既存のグループGのメンバとしてユーザCが新たに追加され、設定情報記憶部30に記憶されているグループGに関するグループ情報が更新される。また、グループGのグループ領域60は、ユーザA,B,Cのユーザオブジェクト50A,50B,50Cを含む領域に変更される。第2の制御例によれば、既存のグループGに対する新たなメンバ(上記例ではユーザC)の追加を、直感的且つ容易な操作により実行することが可能となる。
【0091】
(第3の制御例)
制御部13は、グループに所属するユーザ間の会話に基づいて、当該グループの特徴を抽出し、仮想空間VSにおいて、抽出された特徴を示すアイコンオブジェクト(表示情報)を当該グループに関連付けて配置してもよい。以下、
図8に示されるフローチャートを参照して、上記制御の動作例を説明する。
【0092】
ステップS301において、制御部13は、グループ(ここでは一例として、
図7に示されるユーザA,B,Cを含むグループG)内の会話に基づいて、グループGの特徴を抽出する。例えば、制御部13は、グループG内において発言しているユーザの数、ユーザの発話音量、沈黙状態(無音の状態)の割合等に基づいて、会話の盛り上がり度をグループGの特徴として算出してもよい。また、制御部13は、各ユーザの発話音声の特徴(声の音量、トーン、スピード等)に基づく公知の感情分析を行うことにより、楽しい会話をしているのか、或いは真面目な会話をしているのかといった会話の雰囲気をグループGの特徴として特定してもよい。また、制御部13は、各ユーザの発話内容を認識(音声認識)した結果に基づいて、会話のテーマ(例えば、仕事、政治、趣味等)を特定し、特定された会話のテーマをグループGの特徴として抽出してもよい。
【0093】
ステップS302において、制御部13は、ステップS301で抽出されたグループGの特徴に対応するアイコンオブジェクトを決定する。各特徴に対応するアイコンオブジェクトは、例えば、設定情報記憶部30に予め記憶(登録)されていてもよい。
【0094】
ステップS303において、制御部13は、仮想空間VS上で、ステップS302で決定されたアイコンオブジェクトをグループGに関連付けて配置する。その結果、
図9の画面SC4のように、ユーザA,B,Cを含むグループGに対して、当該グループGの特徴(この例では、楽しい会話をしていることを示す特徴)に対応するアイコンオブジェクト70が関連付けて配置される。第3の制御例によれば、グループGの特徴を示すアイコンオブジェクト70に基づいて、各ユーザがグループGの特徴を容易に把握することが可能となる。
【0095】
(第4の制御例)
制御部13は、複数のグループが設定されている場合に、各グループに所属するユーザ間の会話内容を認識し、一のグループ(第3グループ)について認識された会話内容と他のグループ(第4グループ)について認識された会話内容とが予め定められた関係を有する場合に、当該一のグループと当該他のグループとを併合してもよい。以下、
図10及び
図11を参照して、上記制御の動作例を説明する。ここでは、初期状態として、
図11の画面SC5に示されるように、ユーザA及びユーザBを含む一のグループG1とユーザC及びユーザDを含む他のグループG2とが存在している。
【0096】
ステップS401において、制御部13は、複数のグループG1,G2の各々の会話内容を認識する。例えば、制御部13は、上記第3の制御例のように、グループG1,G2毎に、各ユーザの発話内容を認識(音声認識)した結果に基づいて各グループG1,G2における会話のテーマを認識してもよい。
【0097】
ステップS402において、制御部13は、グループG1について認識された会話内容(例えば、会話のテーマ等)とグループG2について認識された会話内容とが予め定められた関係を有するか否かを判定する。例えば、制御部13は、グループG1について認識された会話のテーマとグループG2について認識された会話のテーマとが同一であるか、或いは予め定められた類似の関係にある場合に、上記予め定められた関係を有すると判定してもよい。一方、制御部13は、グループG1について認識された会話のテーマとグループG2について認識された会話のテーマとが上記のような同一又は類似の関係にない場合に、上記予め定められた関係を有さないと判定してもよい。ステップS402の判定結果がYESの場合、ステップS403の処理が実行される。ステップS402の判定結果がNOの場合、グループG1とグループG2とは併合されない。
【0098】
ステップS403において、制御部13は、グループG1とグループG2とを併合する。その結果、
図11の画面SC6に示されるように、ユーザA,B,C,Dを含む1つのグループG3が、グループG1,G2の併合結果として新たに生成(設定)される。第4の制御例によれば、例えば同一又は類似のテーマについて別々に会話しているグループG1,G2同士を併合することにより、より大人数で同一又は類似のテーマについて会話することが可能となるため、ユーザ間の会話を盛り上げることができる。
【0099】
(第5の制御例)
図12の画面SC7に示されるように、制御部13は、ユーザA(第1ユーザ)がグループG1(第1グループ)に所属する状態において、グループG1に所属しないユーザD(第4ユーザ)がユーザAの対話相手として特定された場合に、ユーザAがグループG1に所属する状態を維持したまま、ユーザAとユーザDとを含むグループG2(第2グループ)を設定してもよい。
【0100】
第5の制御例においては、第1の制御例と同様に、制御部13は、ユーザAがグループG1のグループ領域と重なり且つグループG2のグループ領域と重ならない領域を注視した状態(すなわち、ユーザAの注視点がグループG1のグループ領域内に位置する一方でグループG2のグループ領域内に位置しない状態)で発話した場合に、グループG1に所属するユーザ(ここでは、発話元のユーザA以外のユーザB)に対して出力されるユーザAの発話音声の音量を、グループG1に所属しないユーザ(ここでは、ユーザC,D,E)に対して出力されるユーザAの発話音声の音量よりも大きくしてもよい。同様に、制御部13は、ユーザAがグループG2のグループ領域と重なり且つグループG1のグループ領域と重ならない領域を注視した状態(すなわち、ユーザAの注視点がグループG2のグループ領域内に位置する一方でグループG1のグループ領域内に位置しない状態)で発話した場合に、グループG2に所属するユーザ(ここでは、発話元のユーザA以外のユーザD)に対して出力されるユーザAの発話音声の音量を、グループG2に所属しないユーザ(ここでは、ユーザB,C,E)に対して出力されるユーザAの発話音声の音量よりも大きくしてもよい。このような構成によれば、ユーザAは、複数のグループG1,G2をかけもちしつつ、視線(注視点)を切り替えながら発話を行うことで、各グループG1,G2に閉じた会話を円滑且つ容易に行うことができる。
【0101】
また、第5の制御例において、制御部13は、ユーザAの各グループG1,G2への関与度に応じて、ユーザAに対して出力される各グループG1,G2に所属するユーザの発話音声の音量を決定してもよい。例えば、制御部13は、ユーザAのグループG1への関与度を、ユーザAのグループG1に対する発話量(発話時間、発話回数等)が多い程大きくなるように設定してもよい。すなわち、制御部13は、グループG1に対応するグループ領域を注視した状態で発話した量に基づいて、グループG1への関与度を設定してもよい。そして、制御部13は、ユーザAのグループG1への関与度が大きい程、ユーザAに対して出力されるグループG1に所属するユーザの発話音声の音量を大きくしてもよい。例えば、ユーザAのグループG1への関与度がユーザAのグループG2への関与度よりも大きい場合について考える。この場合、グループG1に所属するユーザ(例えば、ユーザB)の発話音量とグループG2に所属するユーザ(例えば、ユーザD)の発話音量とが同一であったときには、制御部13は、ユーザAに対して出力されるユーザBの発話音声の音量を、ユーザAに対して出力されるユーザDの発話音声の音量よりも大きくする。これにより、ユーザAが複数のグループG1,G2に所属する場合において、ユーザAの各グループG1,G2への関与度に応じて、ユーザAに対する各グループG1,G2内の音声の音量を適切に調整することができる。つまり、ユーザAがより重視しているグループ内の会話音声を、ユーザAに対してより大きく聞こえるように出力することが可能となる。なお、上記の仕組みは、ユーザAが1つのグループのみに所属している場合にも適用可能である。
【0102】
(第6の制御例)
制御部13は、仮想空間VSにおいて、各ユーザの視線に関する表示情報を配置してもよい。
図13の画面SC8は、ユーザDの視線に関する表示情報80が配置された仮想空間VSを表している。なお、実際には、ユーザD以外のユーザの視線に関する表示情報も仮想空間VSに配置され得るが、この例では、説明を簡単にするためにユーザDの視線に関する表示情報80のみを図示している。なお、自分の視線(自分がどこを見ているか)を他のユーザに知られたくないユーザも存在し得る。そこで、制御部13は、予め視線情報の公開可否を各ユーザに設定させ、視線情報の公開を許可したユーザの視線に関する表示情報のみを仮想空間VSに配置してもよい。
【0103】
図13の例では、ユーザDが、ユーザDのユーザ端末20の表示装置に表示された画面上において、ユーザAに対応するユーザオブジェクト50を注視しており、制御部13は、ユーザDに対応するユーザオブジェクト50から注視先のユーザAに対応するユーザオブジェクト50へと延びる矢印状のオブジェクトである表示情報80を仮想空間VS内に配置している。第6の制御例によれば、各ユーザは、画面SC8上に表示された表示情報80を参照することにより、誰が誰と話しているか、誰が誰と話そうとしているか、誰がどのグループに興味を持っているか、といった情報を得ることができる。各ユーザは、このような情報に基づいて、話しかける相手を選択したり、グループへの参加を促す相手を選択したりすることが可能となる。
【0104】
(第7の制御例)
各ユーザのユーザオブジェクト50は、仮想空間VS内を移動可能に構成されてもよい。例えば、制御部13は、あるユーザからのユーザ操作を受け付け、当該ユーザ操作に応じて、当該ユーザに対応するユーザオブジェクト50を移動させてもよい。また、ユーザオブジェクト50同士の距離に応じて、発話音量が制御されてもよい。例えば、ユーザA,B,Cに対応するユーザオブジェクト50A,50B,50Cが仮想空間VS内に存在し、ユーザオブジェクト50Aとユーザオブジェクト50Bとの距離がユーザオブジェクト50Aとユーザオブジェクト50Cとの距離よりも短く、ユーザB及びユーザCが同一の音量の発話を行った場合について考える。この場合、制御部13は、ユーザA(すなわち、ユーザAのユーザ端末20)に対して出力されるユーザBの音声データの音量を、ユーザAに対して出力されるユーザCの音声データの音量よりも大きくしてもよい。上記構成によれば、近くにいる人の声の方が遠くにいる人の声よりも聞こえやすいという直感的に分かり易い仕組みをユーザに提供することが可能となる。
【0105】
(第8の制御例)
仮想空間VS内には、グループを形成するためのオブジェクト(以下「グループ形成オブジェクト」)が配置されてもよい。グループ形成オブジェクトは、例えば、ユーザオブジェクト50と同様の表示態様で表示されてもよい。例えば、グループ形成オブジェクトは、実際には存在しないユーザ(仮想的な参加者)を模したダミーオブジェクト(ダミーアバター)として、仮想空間VS内に配置されてもよい。また、グループ形成オブジェクトには、属性が関連付けられてもよい。グループ形成オブジェクトの属性の例としては、会話のテーマ(トピック)が挙げられる。会話のテーマの例としては、「政治」、「音楽」、「スポーツ」、「アニメ」、「ゲーム」等が挙げられる。また、グループの属性の他の例としては、グループへの参加条件(例えば、「女性のみ」、「10代のみ」等)等が挙げられる。グループ形成オブジェクトは、音声コミュニケーションのサービス提供者によって設定されてもよいし、音声コミュニケーションに参加するユーザによって設定されてもよい。
【0106】
各ユーザは、上記実施形態と同様の方法により、グループ形成オブジェクトに対応するグループに参加することができる。例えば、
図5の例において、ユーザオブジェクト50Bがグループ形成オブジェクト(例えば、会話テーマ「音楽」が設定されたダミーアバター)であると仮定する。この場合、「音楽」について他のユーザと会話をしたいユーザAは、視線を仮想空間VSに配置されたダミーアバター(ユーザオブジェクト50B)に関連付けられた領域に合わせた状態で発話することにより、当該ダミーアバターに対応するグループGに参加することができる。他のユーザ(例えばユーザC)も、同様の方法により、当該ダミーアバターに対応するグループGに参加することができる。このように、会話テーマを関連付けたダミーアバターを仮想空間VS内に配置することにより、ユーザの音声コミュニケーションをより円滑化することができる。すなわち、複数のユーザ(この例では、ユーザA,C)が、同一のダミーアバターに対応するグループGに参加することによって、当該ダミーアバターに設定された会話テーマ(上記例では「音楽」)に関する会話を楽しむことが可能となる。
【0107】
[効果]
以上説明したように、本開示の一側面に係るコミュニケーション支援システムは、複数のユーザ間の音声コミュニケーションを支援するコミュニケーション支援システムであって、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線とユーザオブジェクトとの位置関係と、第1ユーザの発話の検出結果と、に基づいて、第1ユーザの対話相手である第2ユーザを特定し、第1ユーザと第2ユーザとを含むグループを設定し、グループに所属する第2ユーザの発話音声を、第2ユーザがグループに所属していない場合における第2ユーザの発話音声よりも大きい音量で第1ユーザに対して出力する。
【0108】
本開示の一側面に係るコミュニケーション支援方法は、少なくとも一つのプロセッサを備えるコミュニケーション支援システムによって実行される。コミュニケーション支援方法は、複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線とユーザオブジェクトとの位置関係と、第1ユーザの発話の検出結果と、に基づいて、第1ユーザの対話相手である第2ユーザを特定するステップと、第1ユーザと第2ユーザとを含むグループを設定するステップと、グループに所属する第2ユーザの発話音声を、第2ユーザがグループに所属していない場合における第2ユーザの発話音声よりも大きい音量で第1ユーザに対して出力するステップと、を含む。
【0109】
本開示の一側面に係るコミュニケーション支援プログラムは、複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線とユーザオブジェクトとの位置関係と、第1ユーザの発話の検出結果と、に基づいて、第1ユーザの対話相手である第2ユーザを特定するステップと、第1ユーザと第2ユーザとを含むグループを設定するステップと、グループに所属する第2ユーザの発話音声を、第2ユーザがグループに所属していない場合における第2ユーザの発話音声よりも大きい音量で第1ユーザに対して出力するステップと、をコンピュータに実行させる。
【0110】
このような側面においては、各ユーザの視線及び発話の検出結果に基づいて、会話しているユーザ同士を自動的に同一のグループに分類することができる。そして、各ユーザに対して、自分と同じグループに属しているユーザの発話音声が、自分と同じグループに属していないユーザの発話音声よりも大きく出力される。その結果、複数のユーザ間の音声コミュニケーションにおいて、一部のユーザ同士の会話(すなわち、グループ内の会話)を円滑且つ容易に行うことが可能となる。
【0111】
コミュニケーション支援システムでは、少なくとも一つのプロセッサは、仮想空間における第1ユーザに対応する第1ユーザオブジェクトと第2ユーザに対応する第2ユーザオブジェクトとの距離が短くなるように、第1ユーザオブジェクト及び第2ユーザオブジェクトの少なくとも一方の位置を変更してもよい。すなわち、上記実施形態(
図5)のように、同一のグループGに所属させるユーザA(第1ユーザ)のユーザオブジェクト50AとユーザB(第2ユーザ)のユーザオブジェクト50Bとの距離が短くなるように、ユーザオブジェクト50A及びユーザオブジェクト50Bの少なくとも一方(
図5の例では、ユーザオブジェクト50Bのみ)の位置を変更してもよい。このように、同一のグループGに所属するユーザA,Bのユーザオブジェクト50A,50Bをなるべく近づけることにより、グループGを示すグループ領域60をなるべくコンパクトに表示することが可能となる。
【0112】
コミュニケーション支援システムでは、少なくとも一つのプロセッサは、仮想空間において、グループの範囲を視覚的に示すグループ領域を設定してもよく、第1ユーザがグループ領域を注視した状態で発話した場合に、グループに所属するユーザに対して出力される第1ユーザの発話音声の第1音量を、グループに所属しないユーザに対して出力される第1ユーザの発話音声の第2音量よりも大きくしてもよい。すなわち、コミュニケーション支援システムは、上述した第1の制御例の処理を実行する機能を有してもよい。上記構成によれば、グループ領域に視線を合わせる簡単な操作によってグループ内に閉じた会話を行うことが可能となる。
【0113】
コミュニケーション支援システムでは、少なくとも一つのプロセッサは、第1ユーザがグループ領域を注視した状態で発話した量に基づいて、第1ユーザの当該グループへの関与度を算出してもよく、第1ユーザに対して出力される第2ユーザの発話音声の音量を、関与度に基づいて決定してもよい。すなわち、コミュニケーション支援システムは、上述した第5の制御例において説明した機能を有してもよい。上記構成によれば、第1ユーザのグループへの関与度に応じて、第1ユーザに対するグループ内の音声の音量を適切に調整することができる。
【0114】
コミュニケーション支援システムでは、少なくとも一つのプロセッサは、グループに所属するユーザ間の会話に基づいて、グループの特徴を抽出してもよく、仮想空間において、抽出された特徴を示す表示情報をグループに関連付けて配置してもよい。すなわち、コミュニケーション支援システムは、上述した第3の制御例の処理を実行する機能を有してもよい。上記構成によれば、グループの特徴を示す表示情報(一例として、
図9に示されるアイコンオブジェクト70)に基づいて、各ユーザがグループの特徴(例えば、グループ内の雰囲気、会話内容等)を容易に把握することが可能となる。
【0115】
コミュニケーション支援システムでは、少なくとも一つのプロセッサは、グループに所属している第1ユーザがグループに所属していない第3ユーザに対応する第3ユーザオブジェクトに関連付けられた領域を注視した状態で、予め定められたアクションが第1ユーザによって実行されたことに応じて、グループに第3ユーザを所属させてもよい。すなわち、コミュニケーション支援システムは、上述した第2の制御例の処理を実行する機能を有してもよい。上記構成によれば、既存のグループに対する新たなメンバの追加を、直感的且つ容易な操作により実行することが可能となる。
【0116】
コミュニケーション支援システムでは、少なくとも一つのプロセッサは、第1ユーザが第1グループに所属する状態において、第1グループに所属しない第4ユーザが第1ユーザの対話相手として特定された場合に、第1ユーザが第1グループに所属する状態を維持したまま、第1ユーザと第4ユーザとを含む第2グループを設定してもよい。すなわち、コミュニケーション支援システムは、上述した第5の制御例の処理を実行する機能を有してもよい。上記構成によれば、第1ユーザは、複数のグループ(第1グループ及び第2グループ)をかけもちしつつ、視線(注視点)を切り替えながら発話を行うことで、各グループに閉じた会話を円滑且つ容易に行うことができる。
【0117】
コミュニケーション支援システムでは、少なくとも一つのプロセッサは、複数のグループが設定されている場合に、各グループに所属するユーザ間の会話内容を認識してもよく、第3グループについて認識された会話内容と第4グループについて認識された会話内容とが予め定められた関係を有する場合に、第3グループと第4グループとを併合してもよい。すなわち、コミュニケーション支援システムは、上述した第4の制御例の処理を実行する機能を有してもよい。上記構成によれば、例えば同一又は類似のテーマについて別々に会話しているグループ同士を併合することにより、より大人数で同一又は類似のテーマについて会話することが可能となるため、ユーザ間の会話を盛り上げることができる。
【0118】
コミュニケーション支援システムでは、少なくとも一つのプロセッサは、仮想空間において、各ユーザの視線に関する表示情報を配置してもよい。すなわち、コミュニケーション支援システムは、上述した第6の制御例の処理を実行する機能を有してもよい。上記構成によれば、音声コミュニケーションに参加する各ユーザの利便性を向上させることができる。例えば、各ユーザは、画面上に表示された表示情報を参照することにより、誰が誰と話しているか、誰が誰と話そうとしているか、誰がどのグループに興味を持っているか、といった情報を得ることができる。また、各ユーザは、このような情報に基づいて、話しかける相手を選択したり、グループへの参加を促す相手を選択したりすることが可能となる。
【0119】
[変形例]
以上、本開示について、実施形態に基づいて詳細に説明した。しかし、本開示は、上記実施形態に限定されない。本開示は、その要旨を逸脱しない範囲で様々な変形が可能である。
【0120】
上記実施形態では、コミュニケーション支援システム1がサーバ10を用いて構成されたが、コミュニケーション支援システムは、サーバ10を含まなくてもよい。例えば、複数のユーザ端末20のうちのいずれかが音声コミュニケーションを管理するホスト機能を担い、上述したサーバ10の機能を実行してもよい。或いは、コミュニケーション支援システムは、複数のユーザ端末20間の直接通信(P2P)により実現されてもよい。この場合、上述したサーバ10の各機能は、各ユーザ端末20間で分担して実行されてもよい。これに関連して、コミュニケーション支援プログラムはクライアントプログラムとして実現されてもよい。
【0121】
また、上述したサーバ10の機能の一部は、ユーザ端末20で実行されてもよい。例えば、
図4のステップS105においてユーザAの対話相手を特定する処理は、ユーザ端末20A側で実行されてもよい。この場合、ユーザ端末20Aにおいて特定したユーザAの対話相手であるユーザを示す情報が、ユーザ端末20Aからサーバ10に通知されればよい。また、
図4のステップS112,S117における音声データの制御は、ユーザ端末20A側で実行されてもよい。
【0122】
本開示において、「少なくとも一つのプロセッサが、第1の処理を実行し、第2の処理を実行し、…第nの処理を実行する。」との表現、又はこれに対応する表現は、第1の処理から第nの処理までのn個の処理の実行主体(すなわちプロセッサ)が途中で変わる場合を含む概念である。すなわち、この表現は、n個の処理のすべてが同じプロセッサで実行される場合と、n個の処理においてプロセッサが任意の方針で変わる場合との双方を含む概念である。
【0123】
少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正又は削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。
【0124】
本明細書で述べた各機能部の任意の一部または全部がプログラムによって実現されてもよい。本明細書で言及したプログラムは、コンピュータ読み取り可能な記録媒体に非一時的に記録して頒布されてもよいし、インターネットなどの通信回線(無線通信も含む)を介して頒布されてもよいし、任意の端末にインストールされた状態で頒布されてもよい。
【0125】
上記の記載に基づいて、当業者であれば、本開示についての追加の効果または種々の変形例を想到できるかもしれないが、本開示の態様は、上述した個々の実施形態に限定されるものではない。特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨とを逸脱しない範囲で、種々の追加、変更および部分的削除が可能である。
【0126】
例えば、本明細書において1台の装置(あるいは部材。以下同じ)として説明される構成(これは、図面において1台の装置として描かれている構成を含む)が、複数の装置によって実現されもよい。あるいは、本明細書において複数の装置として説明される構成(これは、図面において複数の装置として描かれている構成を含む)が1台の装置によって実現されてもよい。あるいは、或る装置(例えばサーバ)に含まれる手段または機能の一部または全部が、他の装置(例えばユーザ端末)に含まれてもよい。
【0127】
本明細書に記載された事項のすべてが必須の要件というわけではない。例えば、本明細書に記載されているが特許請求の範囲に記載されていない事項は、任意の付加的事項ということができる。
【0128】
本出願人は本明細書の「先行技術文献」欄に記載された公知技術を知っているにすぎない。本開示は必ずしもその公知技術における課題を解決することを目的とするものではないことにも留意されたい。本開示において解決しようとする課題は、本明細書の全体を考慮して認定されるべきものである。例えば、本明細書において、特定の構成によって所定の効果を奏する旨の記載がある場合、当該所定の効果に対応する課題が解決されるということもできる。しかし、その効果に関する記載は必ずしも、そのような特定の構成を必須の要件とする趣旨ではない。
【符号の説明】
【0129】
1…コミュニケーション支援システム、10…サーバ、11…受信部、12…グループ設定部、13…制御部、14…送信部、20,20A,20B,20C…ユーザ端末、21…視線検出部、22…発話検出部、23…アクション検出部、24…送信部、25…受信部、26…表示制御部、27…音声出力部、50,50A,50B,50C…ユーザオブジェクト、60…グループ領域、70…アイコンオブジェクト(表示情報)、80…表示情報、101…プロセッサ、201…プロセッサ、P1…サーバプログラム、P2…クライアントプログラム、G,G1,G2,G3…グループ、SC0~SC8…画面、VS…仮想空間。
【要約】
【課題】複数のユーザ間の音声コミュニケーションにおいて、一部のユーザ同士の会話を円滑且つ容易に行うことができる。
【解決手段】一実施形態に係るコミュニケーション支援システムは、複数のユーザ間の音声コミュニケーションを支援するコミュニケーション支援システムであって、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、複数のユーザの各々に対応するユーザオブジェクトが配置される2次元又は3次元の仮想空間を表す画面に対する第1ユーザの視線とユーザオブジェクトとの位置関係と、第1ユーザの発話の検出結果と、に基づいて、第1ユーザの対話相手である第2ユーザを特定し、第1ユーザと第2ユーザとを含むグループを設定し、グループに所属する第2ユーザの発話音声を、第2ユーザがグループに所属していない場合における第2ユーザの発話音声よりも大きい音量で第1ユーザに対して出力する。
【選択図】
図4