(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024135640
(43)【公開日】2024-10-04
(54)【発明の名称】コミュニケーションシステム、プログラム、端末装置、情報処理システム
(51)【国際特許分類】
G06F 3/0481 20220101AFI20240927BHJP
H04N 7/15 20060101ALI20240927BHJP
【FI】
G06F3/0481
H04N7/15 120
【審査請求】未請求
【請求項の数】13
【出願形態】OL
(21)【出願番号】P 2023046427
(22)【出願日】2023-03-23
(71)【出願人】
【識別番号】000006747
【氏名又は名称】株式会社リコー
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100107515
【弁理士】
【氏名又は名称】廣田 浩一
(72)【発明者】
【氏名】渡辺 恵里
(72)【発明者】
【氏名】堀 悠貴
(72)【発明者】
【氏名】鈴木 友規
(72)【発明者】
【氏名】田中 宏昌
(72)【発明者】
【氏名】小山 輝憲
(72)【発明者】
【氏名】内藤 拓朗
【テーマコード(参考)】
5C164
5E555
【Fターム(参考)】
5C164FA10
5C164VA13P
5C164VA36P
5E555AA02
5E555AA29
5E555AA65
5E555BA02
5E555BB02
5E555BC08
5E555CA18
5E555DB03
5E555DB39
5E555DC02
5E555DC39
5E555FA00
(57)【要約】
【課題】グループ毎の表示画面を共有したコミュニケーションの状態を把握可能とする。
【解決手段】所定のグループに所属するユーザーに対して音声から変換された言語情報が時系列に表示される領域と、表示された言語情報に基づくコンテンツが表示される領域とを含む前記所定のグループ毎の情報表示画面を表示する表示制御部と、複数の前記グループを管理するユーザーに対して前記グループ毎に表示された複数の前記情報表示画面の一覧を含む状態確認画面を表示する状態表示部と、を有するコミュニケーションシステムである。
【選択図】
図7
【特許請求の範囲】
【請求項1】
所定のグループに所属するユーザーに対して音声から変換された言語情報が時系列に表示される領域と、表示された言語情報に基づくコンテンツが表示される領域とを含む前記所定のグループ毎の情報表示画面を表示する表示制御部と、
複数の前記グループを管理するユーザーに対して前記グループ毎に表示された複数の前記情報表示画面の一覧を含む状態確認画面を表示する状態表示部と、を有するコミュニケーションシステム。
【請求項2】
前記表示制御部は、複数の前記グループに所属するユーザーに紐付けられた第一の端末装置に、前記グループと対応した前記情報表示画面を表示させ、
前記状態表示部は、複数の前記グループを管理するユーザーに紐付けられた第二の端末装置に対して前記状態確認画面を表示させる、請求項1記載のコミュニケーションシステム。
【請求項3】
前記言語情報が時系列に表示される領域を第一の領域とし、前記表示された言語情報に基づくコンテンツが表示される領域を第二の領域とした場合に、
前記第一の領域に表示された言語情報の選択を受け付ける操作受付部を有し、
前記表示制御部は、前記操作受付部が選択を受け付けた言語情報に基づくコンテンツを前記第二の領域に表示する、請求項1又は2記載のコミュニケーションシステム。
【請求項4】
前記言語情報が時系列に表示される領域を第一の領域とし、前記表示された言語情報に基づくコンテンツが表示される領域を第二の領域とした場合に、
前記第一の領域に表示された言語情報を絞り込むフィルタリング部を有し、
前記表示制御部は、前記フィルタリング部が絞り込んだ前記言語情報のみを前記第一の領域に表示させ、前記フィルタリング部が絞り込んだ前記コンテンツのみを前記第二の領域に表示する、請求項1又は2記載のコミュニケーションシステム。
【請求項5】
前記第一の領域に存在する言語情報に基づいて前記第二の領域に配置されたコンテンツは、前記言語情報の識別情報と対応付けられており、
前記表示制御部は、前記フィルタリング部が絞り込んだ前記言語情報のみを前記第一の領域に表示した場合に、前記第一の領域に表示された前記言語情報の識別情報と対応付けられているコンテンツのみを前記第二の領域に表示する、請求項4記載のコミュニケーションシステム。
【請求項6】
表示されたコンテンツを絞り込むフィルタリング部を有し、
前記状態表示部は、
前記状態確認画面において、前記フィルタリング部によるフィルタリングの要素を選択される選択欄を表示させ、
前記状態確認画面に含まれる前記情報表示画面において、前記選択欄において選択された要素によって前記フィルタリング部が絞り込んだ前記コンテンツを強調表示させる、請求項1又は2記載のコミュニケーションシステム。
【請求項7】
前記状態表示部は、
前記状態確認画面に含まれる前記情報表示画面の前記言語情報が時系列に表示される領域において、表示された言語情報の表示態様を、前記言語情報を発話した発言者毎に異ならせる、請求項1又は2記載のコミュニケーションシステム。
【請求項8】
前記状態表示部は、
前記状態確認画面に含まれる前記情報表示画面の前記言語情報が時系列に表示される領域に表示された言語情報に基づき、発言者毎の発言数を示す画像を表示させる、請求項1又は2記載のコミュニケーションシステム。
【請求項9】
前記言語情報が時系列に表示される領域を第一の領域とし、前記表示された言語情報に基づくコンテンツが表示される領域を第二の領域とした場合に、
前記表示制御部は、
前記第一の領域に存在する言語情報に含まれる各単語の出現頻度に応じて前記単語を示す文字画像の大きさと配置を決定し、
前記大きさと配置に基づき前記単語を示す文字画像を前記第二の領域に表示する、請求項1又は2記載に記載のコミュニケーションシステム。
【請求項10】
前記表示制御部は、
前記単語同士の関連性に応じて、前記単語を示す文字画像同士を繋ぐ線を前記第二の領域に表示する、請求項9記載のコミュニケーションシステム。
【請求項11】
端末装置を、
所定のグループに所属するユーザーに対して音声から変換された言語情報が時系列に表示される領域と、表示された言語情報に基づくコンテンツが表示される領域とを含む前記所定のグループ毎の情報表示画面を表示する表示制御部、
複数の前記グループを管理するユーザーに対して前記グループ毎に表示された複数の前記情報表示画面の一覧を含む状態確認画面を表示する状態表示部、として機能させるためのプログラム。
【請求項12】
所定のグループに所属するユーザーに対して音声から変換された言語情報が時系列に表示される領域と、表示された言語情報に基づくコンテンツが表示される領域とを含む情報表示画面を表示する表示制御部と、
複数の前記グループを管理するユーザーに対して前記グループ毎に表示された複数の前記情報表示画面の一覧を含む状態確認画面を表示する状態表示部と、を有する端末装置。
【請求項13】
所定のグループに所属するユーザーに対して音声から変換された言語情報が時系列に表示される領域と、表示された言語情報に基づくコンテンツが表示される領域とを含む情報表示画面を表示する表示制御部と、
複数の前記グループを管理するユーザーに対して前記グループ毎に表示された複数の前記情報表示画面の一覧を含む状態確認画面を表示する状態表示部と、を有する端末装置と、ネットワークを介して通信する情報処理システムであって、
前記端末装置のユーザーの権限に応じて、前記端末装置に表示させる情報を管理する権限管理部を有し、
前記権限管理部は、複数の前記グループを管理するユーザーに紐付けられた端末装置に対して、前記状態確認画面の表示させる、情報処理システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、コミュニケーションシステム、プログラム、端末装置、及び情報処理システムに関する。
【背景技術】
【0002】
近年では、表示画面を共有して行われる会議等のイベントにおいて発生した音声データから変換されたテキストデータを表示する表示領域と、当該イベントのある時点における表示画面のキャプチャを表示する表示領域と、を時系列に表示させる技術が知られている。これらの表示を見ることによって、当該イベントにおけるコミュニケーションの状態を把握することができる。
【発明の概要】
【発明が解決しようとする課題】
【0003】
しかしながら、従来の技術では、例えば、複数のグループ毎それぞれで表示画面を共有してイベントを行っている場合に、当該複数のイベントのファシリテータが、当該複数のイベントそれぞれにおける表示画面を共有したコミュニケーションの状態を把握することはできない。
【0004】
本発明は、上記課題に鑑み、グループ毎の表示画面を共有したコミュニケーションの状態を把握可能とすることを目的とする。
【課題を解決するための手段】
【0005】
上記課題に鑑み、本発明は、所定のグループに所属するユーザーに対して音声から変換された言語情報が時系列に表示される領域と、表示された言語情報に基づくコンテンツが表示される領域とを含む前記所定のグループ毎の情報表示画面を表示する表示制御部と、
複数の前記グループを管理するユーザーに対して前記グループ毎に表示された複数の前記情報表示画面の一覧を含む状態確認画面を表示する状態表示部と、を有するコミュニケーションシステムである。
【発明の効果】
【0006】
グループ毎の表示画面を共有したコミュニケーションの状態を把握可能とすることができる。
【図面の簡単な説明】
【0007】
【
図1】ビジュアルコミュニケーションシステムの利用シーンを説明する図である。
【
図2】ビジュアルコミュニケーションシステムのシステム構成を示すシステム構成図である。
【
図3】コンピュータのハードウェア構成図の一例である。
【
図4】参加者が操作する端末装置が表示するホーム画面の一例を示す図である。
【
図5】端末装置が会議中に表示する情報表示画面を示す図である。
【
図6】ファシリテータが操作する端末装置が表示するホーム画面の一例を示す図である。
【
図7】ファシリテータが操作する端末装置が表示する状態確認画面の一例を示す第一の図である。
【
図8】ビジュアルコミュニケーションシステムの機能ブロック図である。
【
図13】コンテンツ表示時系列テーブルを示す概念図である。
【
図14】端末装置が表示する初期状態の情報表示画面の一例を示す図である。
【
図15】端末装置が音声データを情報処理システム3に送信し、情報処理システムが音声データから変換した言語情報を他の端末装置と共有する処理を説明するシーケンス図である。
【
図16】ユーザー操作に応じて、端末装置が会話蓄積領域からホワイトボード作業領域へ言語情報をコピーする処理を模式的に説明する図である。
【
図17】ユーザー操作に応じて、端末装置が会話蓄積領域からホワイトボード作業領域へ言語情報をコピーする処理を説明するシーケンス図である。
【
図18】ユーザー操作に応じて、端末装置が会話蓄積領域からホワイトボード作業領域へ言語情報の全文をコピーする処理を模式的に説明する図である。
【
図19】ホワイトボード作業領域にコピーされた言語情報に基づいて検索されたイラストの表示例を説明する図である。
【
図20】ユーザー操作に応じて、端末装置がホワイトボード作業領域の言語情報に基づいてイラストを表示する処理を説明するシーケンス図である。
【
図21】ホワイトボード作業領域102のコンテンツが選択された場合に強調して表示される会話蓄積領域101の言語情報の一例を示す図である。
【
図22】ユーザー操作に応じて、端末装置がホワイトボード作業領域のコンテンツに対応する言語情報を強調して表示する処理を説明するシーケンス図である。
【
図23】端末装置が会話蓄積領域の言語情報をフィルタリングする処理を説明するフローチャート図である。
【
図24】ファシリテータが操作する端末装置が表示する状態確認画面の一例を示す第二の図である。
【
図25】ファシリテータが操作する端末装置が表示する状態確認画面の一例を示す第三の図である。
【
図26】ファシリテータが操作する端末装置が表示する状態確認画面の一例を示す第四の図である。
【
図27】ファシリテータが操作する端末装置が表示する状態確認画面の一例を示す第五の図である。
【
図28】端末装置が会議中に表示する情報表示画面の他の例を示す図である。
【
図29】ファシリテータが操作する端末装置が表示するホーム画面の他の例を示す図である。
【
図30】情報表示画面の他の表示態様を示す図である。
【発明を実施するための形態】
【0008】
以下に、本発明を実施するための形態の一例として、ビジュアルコミュニケーションシステムとビジュアルコミュニケーションシステムが行う表示方法について図面を参照しながら説明する。
【0009】
会議などのコミュニケーションの場面では、短い時間で効率的な情報伝達を行うために、言語情報によるコミュニケーションだけでは不十分であることがある。例えば、新しい企画やアイデアを考える際に行われる会議では、意思疎通のために視覚情報の活用が有効である。
【0010】
また、コミュニケーションを行う場面の一例として、複数のユーザーのグループ活動を行うワークショップ等がある。ワークショップでは、複数のユーザーがそれぞれ異なる観点から新しいビジネスモデルの検討や、様々な問題に対してアイデアを出すグループディスカッション(グループワーク)等が行われる。
【0011】
グループディスカッションでは、グループのアイデアを協同でまとめるために、模造紙やホワイトボードなどを用いることがある。対面でのグループディスカッションでは、ファシリテータと参加者ともに同じ空間にいるため、ファシリテータが各グループの盛り上がりや議論の様子を把握することができる。
【0012】
これに対し、オンラインでグループディスカッションを実施する場合、Web会議システムのブレイクアウトルーム機能により参加者を複数のグループを分割し、各グループで、複数人の共同編集が可能な表示領域(ホワイトボード作業領域)を用いてグループワークを実施することが多い。
【0013】
この場合、ファシリテータは、各グループの議論の状態を把握するために、各グループのブレイクアウトルームに入室せずに、グループ毎の表示領域を俯瞰することが考えられるが、編集中の表示領域を俯瞰するだけでは、議論の状態を把握することが困難なグループもある。具体的には、例えば、議論の内容が表示領域に可視化されていないグループや、表示領域に文字だけが羅列しているグループの場合には、表示領域を俯瞰するだけでは議論の状態を把握することが難しい。また、表示領域を俯瞰するだけでは、議論における会話の量や、会話の内容まで把握することはできない。
【0014】
そのため、本実施形態では、ファシリテータに対して、複数のグループのそれぞれの議論の状態を直感的に把握させる。なお、ファシリテータとは、グループディスカッションの進行を支援する立場の人物の一例である。
【0015】
<利用シーン>
以下に、
図1を参照して、本実施形態のビジュアルコミュニケーションシステムの利用シーンについて説明する。
図1は、ビジュアルコミュニケーションシステムの利用シーンを説明する図である。
【0016】
図1は、ビジュアルコミュニケーションシステムを用いてグループディスカッションを行う場合を示している。
図1の例では、グループディスカッションの参加者は、ビジュアルコミュニケーションシステムのブレイクアウトルーム機能により、グループA、グループB、グループC、グループDに分割されている。また、グループディスカッションは、ファシリテータPによって進行が支援される。
【0017】
ブレイクアウトルーム機能とは、オンラインコミュニケーションツールの機能であり、参加者をグループ分けしてグループ単位で会話するための機能である。以下の説明では、ブレイクアウトルームを、単にルームと呼ぶ場合がある。
【0018】
図1の例では、グループAによる議論は、ビジュアルコミュニケーションシステムによってオンライン上に形成されたルーム1で行われ、グループBによる議論は、ビジュアルコミュニケーションシステムによってオンライン上に形成されたルーム2で行われる。また、グループCによる議論は、ビジュアルコミュニケーションシステムによってオンライン上に形成されたルーム3で行われ、グループDによる議論は、ビジュアルコミュニケーションシステムによってオンライン上に形成されたルーム4で行われる。
【0019】
なお、本実施形態のルーム1~ルーム4は、ビジュアルコミュニケーションシステムが有するブレイクアウトルーム機能以外の方法によって設定されてもよい。
【0020】
本実施形態では、ファシリテータPに対して、グループA~グループDのそれぞれにおける議論の状態を、直感的に且つリアルタイムに把握させる。
【0021】
<システム構成例>
図2は、ビジュアルコミュニケーションシステム5のシステム構成を示すシステム構成図である。ビジュアルコミュニケーションシステム5は、ネットワーク2を介して通信が可能な端末装置1A、端末装置1B及び情報処理システム3を有する。
【0022】
ネットワーク2は、インターネット、移動体通信網、LAN(Local Area Network)等のうち1つ以上を用いて構築されていてよい。ネットワーク2には、例えば、3G(3rd Generation)、4G(4th Generation)、5G(5th Generation)、Wi-Fi(Wireless Fidelity)(登録商標)、WiMAX(Worldwide Interoperability for Microwave Access)又はLTE(Long Term Evolution)等の無線通信によるネットワークが含まれてもよい。
【0023】
端末装置1A(第一の端末装置)は、参加者が操作する情報処理装置である。具体的には、例えば、端末装置1Aは、グループA~グループDに含まれる参加者が操作する情報処理装置である。端末装置1Bは、ファシリテータが操作する情報処理装置である。なお、ファシリテータPは、グループA~グループDの参加者のうちの一人であってもよい。
【0024】
なお、端末装置1Bは、各グループにおける議論を管理する管理者によって利用されればよく、管理者はファシリテータに限定されない。例えば、グループディスカッションが教育現場の授業として行われる場合には、教師が管理者となってもよい。また、グループディスカッションが、部署内の会議として行われる場合には、部署内の上司が管理者となってもよい。
【0025】
本実施形態の端末装置1Aは、情報表示画面を表示させる。より具体的には、グループAに所属する参加者の端末装置1Aは、グループAの情報表示画面を表示させ、グループBに所属する参加者の端末装置1Aは、グループBの情報表示画面を表示させる。また、グループCに所属する参加者の端末装置1Aは、グループCの情報表示画面を表示させ、グループDに所属する参加者の端末装置1Aは、グループDの情報表示画面を表示させる。
【0026】
情報表示画面は、参加者による議論が行われてる最中に、端末装置1Aに表示される画面であり、音声から変換された言語情報が時系列に表示される会話蓄積領域(第一の領域)と、言語情報に基づくコンテンツが配置されるホワイトボード作業領域(第二の領域)を含む。
【0027】
端末装置1Aは、参加者が発声した音声データを情報処理システム3に送信する。端末装置1Aは、サーバが音声データを文字に変換した言語情報を受信し、端末装置1Aに表示される情報表示画面の会話蓄積領域に表示する。
【0028】
端末装置1Aは、この処理を繰り返す。ネットワーク2には会議に参加する複数の参加者が操作する端末装置1Aが接続されており、各端末装置1Aが同様の処理を行うことで、各参加者が入力した言語情報が、情報表示画面の会話蓄積領域に時系列に表示される。情報表示画面の詳細は後述する。
【0029】
端末装置1B(第二の端末装置)は、ファシリテータPに各グループの議論の状態を把握させるための状態確認画面を表示させる。状態確認画面は、各グループの情報表示画面の一覧が表示される。具体的には、例えば、端末装置1Bには、グループAの情報表示画面、グループBの情報表示画面、グループCの情報表示画面、グループDの情報表示画面が一覧表示される。状態確認画面の詳細は後述する。
【0030】
本実施形態では、このように、各グループの情報表示画面の一覧を端末装置1Bに表示させることで、ファシリテータPに対して、各グループにおける議論の状態を直感的に把握させる。
【0031】
なお、以下の説明において、端末装置1Aと端末装置1Bとを区別しない場合には、単に端末装置1と呼ぶ場合がある。
【0032】
端末装置1は、例えば、Windows(登録商標)、MAC OS(登録商標)、Android(登録商標)、iOS(登録商標)等、一般的なOSで動作するデスクトップPC(パーソナルコンピュータ)、ノート型PC、スマートフォン、タブレット端末等でよい。この他、端末装置1はWebブラウザをはじめとするアプリケーションが動作可能な装置であればよい。
【0033】
また、端末装置1は電子黒板、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、医療機器、ネットワーク家電、自動車(Connected Car)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)等であってもよい。
【0034】
情報処理システム3は、端末装置1からの要求に対して情報や処理結果を提供する機能を果たす情報処理装置である。このようは情報処理装置をサーバという。本実施形態のビジュアルコミュニケーションシステム5において、情報処理システム3は、上記の音声認識を行う他、言語情報に対応するイラストなどの画像を端末装置1に提供する場合がある。なお、音声認識は端末装置1においても可能である。
【0035】
情報処理システム3は、Webサーバの機能を有することが好ましい。Webサーバとは、クライアントであるWebブラウザに指示されたURLに基づいて、Webサーバ内に存在するHTMLドキュメント等の各種情報を、端末装置1から接続されたHTTPに則って送信する。WebブラウザとWebサーバとが通信することでWebアプリの実行が可能となる。Webアプリとは、Webブラウザ上で動作するプログラミング言語(例えばJavaScript(登録商標))によるプログラムとWebサーバ側のプログラムが協調することによって動作するアプリケーションである。これに対し、端末装置1にインストールされなければ実行されないアプリケーションをネイティブアプリという。
【0036】
情報処理システム3はクラウドコンピューティングに対応していてよい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される利用形態をいう。例えば、情報処理システム3が有するWebサーバの機能、音声認識の機能、イラストの検索機能などに対応したサーバが別々に存在してもよい。
【0037】
<ハードウェア構成例>
図3は、端末装置1、情報処理システム3のハードウェア構成図を示す。端末装置1、情報処理システム3は、それぞれ、
図3に示すようなコンピュータ500のハードウェア構成を有している。
【0038】
コンピュータ500は、
図3に示されているように、CPU501、ROM502、RAM503、HD504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、光学ドライブ514、メディアI/F516、動作取得デバイス517、マイク518、スピーカ519、カメラ520を備えている。
【0039】
これらのうち、CPU501は、コンピュータ500全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム500a等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。表示手段としてのディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F509は、ネットワーク2を利用してデータ通信をするためのインターフェースである。バスライン510は、
図3に示されているCPU501等の各構成要素を電気的に接続するためのアドレス
また、キーボード511は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。光学ドライブ514は、着脱可能な記録媒体の一例としての光記憶媒体513に対する各種データの読み出し又は書き込みを制御する。なお、光学ドライブ514はCD、DVD、Blu-RayR等でよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。
【0040】
動作取得デバイス517は、ユーザーの動作を検出し、電気信号に変える回路で、入力手段の一種である。ユーザーの動作の検出は、光の反射を検出する光学式、ユーザーに取り付けられた磁気センサ、機械式センサ、磁気センサの検出結果を用いるもの、又はユーザーの画像を解析する方式等いずれか、又はそれらを組み合わせてもよい。
【0041】
マイク518は、音を電気信号に変える内蔵型の回路である。スピーカ519は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。マイク518,スピーカ519は内蔵されていても外付けでもよい。
【0042】
スピーカ519は、電気信号を物理振動に変えて音楽や音声などの音を生み出す内蔵型の回路である。
【0043】
カメラ520は、被写体を撮像して画像データを得る内蔵型の撮像手段の一種である。
【0044】
なお、情報処理システム3に適用されるコンピュータ500において、HDDコントローラ505は、HD504に対応し、プログラム500aを格納する。端末装置1に適用されるコンピュータ500において、情報処理システム3からネットワーク2経由でプログラム500aがダウンロードされHD504に格納され、CPU501によりプログラム500aがHD504から読み出され実行されることで、RAM503内に
図4に示すような機能構成が、コンパイル時に一括して又は処理の進行に応じて順次に展開され得る。また、情報処理システム3に適用されるコンピュータ500において、プログラム500aがCPU501により実行されることで、RAM503内に
図8に示すような機能構成が、コンパイル時に一括して又は処理の進行に応じて展開され得る。
【0045】
また、情報処理システム3に適用されるコンピュータ500は、ユーザーインタフェースに関する構成が省略されていてもよく、ディスプレイ506、キーボード511、及びポインティングデバイス512、動作取得デバイス517のうち少なくとも1つが省略されていてもよい。
【0046】
<端末装置1Aの動作の概略>
図4、
図5を参照して、端末装置1Aの動作の概略について説明する。
図4は、参加者が操作する端末装置が表示するホーム画面の一例を示す図である。
【0047】
図4に示す画面400は、例えば、参加者が端末装置1Aを操作して本実施形態のビジュアルコミュニケーションシステムにログインした場合に、端末装置1Aに表示される、参加者用のホーム画面の一例である。
【0048】
画面400は、表示領域401を含む、表示領域401は、各グループの情報表示画面を表示させるための操作ボタンの一覧が表示される。具体的には、表示領域401は、操作ボタン401A、操作ボタン401B、操作ボタン401C、操作ボタン401Dを含む。
【0049】
操作ボタン401Aは、画面400をグループAの情報表示画面に遷移させるための操作ボタンであり、操作ボタン401Bは、画面400をグループBの情報表示画面に遷移させるための操作ボタンである。操作ボタン401Cは、画面400をグループCの情報表示画面に遷移させるための操作ボタンであり、操作ボタン401Dは、画面400をグループDの情報表示画面に遷移させるための操作ボタンである。
【0050】
次に、
図5を参照して、グループ毎の情報表示画面について説明する。
図5は、端末装置が会議中に表示する情報表示画面を示す図である。
図5に示すように、情報表示画面100は、会話蓄積領域101(第一の領域の一例)と、ホワイトボード作業領域102(第二の領域の一例)と、を有している。ホワイトボード作業領域102は、タッチパネルであり、手書きデータ、直接入力された言語情報、又は各種の画像などを通常の電子黒板と同様に、参加者が表示させる領域である。会話蓄積領域101は、会議の参加者による会話の内容が音声認識により変換された言語情報の履歴が表示される領域である。なお、ホワイトボード作業領域102はタッチパネルを必須とするわけではなく、通常のディスプレイでもよい。この場合、ユーザーは、マウスを使用して手書き入力等を行う。
【0051】
このように、ホワイトボード作業領域102と会話蓄積領域101とが同一画面に表示される。参加者は、会話蓄積領域101に表示されている言語情報を、押下やドラッグなどによりホワイトボード作業領域102に配置できる。
図1では「リラックスできる」という文字列104と「face to faceがいい」という文字列105が、ホワイトボード作業領域102に表示されている。
【0052】
また、参加者は、会話蓄積領域101又はホワイトボード作業領域102の言語情報に基づいてイラストをホワイトボード作業領域102に配置できる。
図1では、「face to faceがいい」という文字列105に基づいたイラスト108が、ホワイトボード作業領域102に表示されている。
【0053】
このように本実施形態のビジュアルコミュニケーションシステム5は、音声から変換された言語情報を基にイラストなどの視覚情報をホワイトボード作業領域102に表示できる。ユーザーは、会話の内容をイラストに変換してホワイトボード作業領域102に手書きしたりネットワーク等から取得したりしなくても、会議中のコミュニケーションを容易に視覚化できる。ホワイトボード作業領域102と、会話蓄積領域101が同じ画面に表示されるので、ユーザーはホワイトボード作業領域102のコンテンツがどのようなコミュニケーションの過程で配置されたのかを把握しながら、コミュニケーションを進めることができる。
【0054】
図6は、ファシリテータが操作する端末装置が表示するホーム画面の一例を示す図である。
図6に示す画面400Aは、例えば、ファシリテータPが端末装置1Bを操作して本実施形態のビジュアルコミュニケーションシステムにログインした場合に、端末装置1Bに表示される、ファシリテータ用のホーム画面の一例である。
【0055】
なお、ファシリテータPが端末装置1Bを操作して本実施形態のビジュアルコミュニケーションシステムにログインした場合には、端末装置1Bには、ファシリテータ用の画面が表示される。
【0056】
画面400Aは、表示領域401と、操作ボタン402とを含む。操作ボタン402は、画面400Aを状態確認画面に遷移させるための操作ボタンである。言い換えれば、操作ボタン402は、ファシリテータPとしての権限を有する参加者が端末装置1Bを用いてビジュアルコミュニケーションシステム5にログインした場合に表示される。
【0057】
端末装置1Bは、ファシリテータPにより、操作ボタン402が操作されると、各グループの情報表示画面の一覧を含む状態確認画面を表示させる。
【0058】
図7は、ファシリテータが操作する端末装置が表示する状態確認画面の一例を示す第一の図である。
図7に示す画面700は、端末装置1Bに表示されるファシリテータ用の状態確認画面の一例を示す。
【0059】
画面700は、表示領域701と、操作ボタン702とを含む。表示領域701には、グループ毎の情報表示画面の一覧が表示される。
図7の例では、表示領域701には、グループAの情報表示画面100Aと、グループBの情報表示画面100Bの一部とが表示されている。画面700では、スライダ703を移動させることで、表示領域701に、グループCの情報表示画面100CやグループDの情報表示画面100Dを表示させることができる。
【0060】
また、表示領域701に表示される情報表示画面100Aには、表示領域704a、操作ボタン705aが表示されおり、情報表示画面100Bには、表示領域704b、操作ボタン705bが表示される。
【0061】
表示領域704aは、グループAに所属する参加者を特定するアイコン画像が表示される。操作ボタン705aは、ファシリテータPが、グループAが議論を行っているルーム1に入室するための操作ボタンである。表示領域704bは、グループBに所属する参加者を特定するアイコン画像が表示される。操作ボタン705bは、ファシリテータPが、グループBが議論を行っているルーム2に入室するための操作ボタンである。
【0062】
画面700において、操作ボタン705aが操作されると、端末装置1Bは、グループAの情報表示画面100Aを共有する複数の端末装置1Aの1つとなり、端末装置1Bに表示される画面は、画面700から情報表示画面100Aに遷移する。
【0063】
操作ボタン702は、画面700を、
図6に示す画面400Aに遷移させるための操作ボタンである。
【0064】
なお、画面700では、例えば、これまでの対話および可視化の様子を短時間のアニメーションで振り返る機能があっても良い。また、端末装置1Bは、各グループの情報表示画面においてイラストやテキストが選択されると、選択されたテキストやイラストを操作参加者を特定し、特定された参加者が視認できるように表示されてもよい。また、端末装置1Bでは、イラストが選択されると、選択されたイラストと紐付くテキストが特定できるように表示されてもよい。
【0065】
<用語について>
言語情報とは、日本語や英語などの言語で構成される情報をいう。本実施形態では、言語情報には、発言者が発言した言葉が音声認識されたものの他、キーボードなどから入力される場合も言語情報に含まれる。言語情報には、文字、図形、数字、アルファベット、など文字コードに基づいてコンピュータで表示できる情報が含まれる。
【0066】
時系列に蓄積されるとは、発言の順番に言語情報が表示され、また、過去の言語情報を任意に閲覧可能であることをいう。
【0067】
作業領域とは、言語情報及びコンテンツの配置や内容をユーザーが編集できるコンピュータ画面上の領域である。作業領域の一例として電子ホワイトボードのように使用できる領域がある。電子ホワイトボードとは、タッチパネルを利用して従来のホワイトボード同様に手書きデータを書き込むこともでき、PC等の画面やデータを映し出すことができる装置である。なお、ホワイトボードは、電子黒板、電子情報ボード、電子白板などと呼ばれてよい。
【0068】
コンテンツとは、作業領域に表示された表示物である。コンテンツは、例えば言語情報、イラスト、図形、表、PC等の画面やデータ、インターネット上の情報など、コンピュータで表示可能なものであればコンテンツとなり得る。
【0069】
<ビジュアルコミュニケーションシステムの機能構成>
続いて、
図8~
図13を用いて、本実施形態の機能構成について説明する。
図8は、ビジュアルコミュニケーションシステム5の機能ブロック図である。
【0070】
<情報処理システムの機能構成>
図8に示されているように、情報処理システム3は、第二通信部31、変換部32、会話内容管理部33、コンテンツ管理部34、権限管理部35、フィルタリング部36を有している。情報処理システム3が有するこれら各部は、
図3に示されている各構成要素のいずれかが、HD504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能、又は機能する手段である。また、情報処理システム3は、
図3に示されているRAM503、HD504によって構築される記憶部3000を有している。
【0071】
第二通信部31は、ネットワーク2を介して端末装置1と通信する。第二通信部31は、音声データ又は手書きデータを端末装置1から受信し、音声データ又は手書きデータから変換された言語情報を端末装置1に送信する。
【0072】
変換部32は、ユーザーが発話した音声データ、又は、ユーザーが手書きした1つ以上のストロークデータ(手書きデータ)に対し文字認識処理を行い、言語情報に変換する。言語情報の実体は文字コードである。変換部32は、ユーザーの発話、及び、ユーザーのペン操作と並行して文字(日本語だけでなく英語などの多国語)、数字、記号(%、$、&など)、図形(線、丸、三角など)等を認識していく。認識方法については様々なアルゴリズムが考案されているが、本実施形態では公知の技術を利用できるとして詳細を割愛する。なお、音声データと手書きデータの認識のアルゴリズムはそれぞれに適したものが使用される。
【0073】
なお、変換部32による変換を端末装置1側が行ってもよい。また、変換部32を情報処理システム3とは独立したサーバが有していてもよい。
【0074】
会話内容管理部33は、変換部32が各端末装置1の音声データから変換した言語情報を会話内容記憶部3001に保存する。会話内容記憶部3001には会話の履歴が時系列に保存される。
【0075】
コンテンツ管理部34は、ホワイトボード作業領域102に表示された言語情報とイラスト等を管理する。コンテンツは、後述するコンテンツ記憶部3002において管理される。ホワイトボード作業領域102は各端末装置1で共有されるので、コンテンツ記憶部3002には各ユーザーが配置したコンテンツが含まれる。
【0076】
権限管理部35は、端末装置1の利用者の権限に応じて、端末装置1に表示させる情報を管理する。具体的には、権限管理部35は、ファシリテータの権限を有するユーザーがビジュアルコミュニケーションシステム5にログインした場合には、このユーザーと紐付けられた端末装置1Bに対して、ファシリテータ用のホーム画面や状態確認画面を表示させるための処理を行う。
【0077】
また、権限管理部35は、ファシリテータの権限を有していない一般の参加者であるユーザーがビジュアルコミュニケーションシステム5にログインした場合には、このユーザーと紐付けられた端末装置1Aに対して、参加者用のホーム画面や情報表示画面を表示させるための処理を行う。なお、ユーザーの権限は、後述する会議管理テーブル等を参照することで判別される。
【0078】
フィルタリング部36は、会話蓄積領域101に表示される言語情報をユーザーIDなどでフィルタリングする。こうすることで、ユーザーは、会話蓄積領域101に表示される言語情報の数を少なくし、重要な言語情報を探しやすくできる。
【0079】
また、フィルタリング部36は、会話蓄積領域101に表示される言語情報をユーザーIDでフィルタリングし、ユーザー毎の発言数を端末装置1Bに表示される状態確認画面に表示させてもよい。また、フィルタリング部36は、ホワイトボード作業領域102に表示されたイラストを、特定の要素でフィルタリングし、状態確認画面において、フィルタリングされたイラストを強調表示させてもよい。
【0080】
なお、権限管理部35、フィルタリング部36は、端末装置1の機能として、端末装置1に設けられていてもよい。
【0081】
(会話内容テーブル)
図9は、会話内容テーブルを示す概念図である。記憶部3000には、
図9に示されているような会話内容テーブルによって構成されている会話内容記憶部3001が構築されている。この会話内容テーブルでは、言語情報ID、言語情報、入力時刻、発言者、いいね回数の各項目が対応付けて保存される。
【0082】
また、会話内容テーブルは、グループ毎に格納される。会話内容テーブル3001Aは、グループAの会話内容テーブルであり、会話内容テーブル3001Bは、グループBの会話内容テーブルであり、会話内容テーブル3001Cは、グループCの会話内容テーブルであり、会話内容テーブル3001Dは、グループDの会話内容テーブルである。
【0083】
・言語情報IDの項目は、会話蓄積領域101に表示される言語情報の識別情報である。会話内容管理部33が重複しないように採番する。
【0084】
・言語情報の項目は、会話蓄積領域101に表示される言語情報であり、変換部32が音声データから変換したものである。
【0085】
・入力時刻の項目は、言語情報が入力された時刻であり、例えば変換部32が音声データから言語情報への変換を完了した時刻である。
【0086】
・ユーザーIDの項目は、言語情報を音声として発言したユーザー(発言者)の識別情報(以下、ユーザーIDという場合がある)である。ユーザーの識別情報は音声データと共に情報処理システム3に送信される。
【0087】
・いいね回数の項目は、言語情報についていいねボタンが押下された回数である。いいねボタンは好意的な反応を意味し、いいね回数は好意的な反応数である。
【0088】
(コンテンツテーブル)
図10は、コンテンツテーブルを示す概念図である。記憶部3000には、
図10に示されているようなコンテンツテーブルによって構成されているコンテンツ記憶部3002が構築されている。このコンテンツテーブルでは、コンテンツID、種別、ページ、座標、サイズ、フォントサイズ、配置時刻、言語情報IDの各項目が対応付けて保存される。
【0089】
また、コンテンツテーブルは、グループ毎に格納される。コンテンツテーブル3002Aは、グループAのコンテンツテーブルであり、コンテンツテーブル3002Bは、グループBのコンテンツテーブルであり、コンテンツテーブル3002Cは、グループCのコンテンツテーブルであり、コンテンツテーブル3002Dは、グループDのコンテンツテーブルである。
【0090】
・コンテンツIDの項目は、コンテンツを識別する識別情報である。コンテンツIDは、コンテンツ管理部34が採番する。
【0091】
・種別の項目は、コンテンツの種類であり、手書き、言語情報、図形(四角、三角等)、イラスト、表、等がある。手書きはストロークデータ(座標点列)である。言語情報はホワイトボード作業領域102に配置された1つ以上の文字や記号等(文字コード)である。図形は、三角や四角など手書きデータや言語情報から変換された幾何学的な形状である。イラストは、言語情報により検索されたり、ユーザーが直接配置したりした、Jpeg、Png、Tiffなどの画像データである。表は、一次元又は二次元のテーブル状のコンテンツである。
【0092】
・ホワイトボード作業領域102の1画面をページと称する。ページの項目はそのページ番号である。
【0093】
・座標の項目は、ホワイトボード作業領域102の所定の原点を基準とするコンテンツの位置を示す。コンテンツの位置は例えばコンテンツの外接矩形の左上頂点である。座標は例えば、ディスプレイの画素単位で表される。
【0094】
・サイズの項目は、コンテンツの外接矩形の幅と高さである。
【0095】
・フォントサイズの項目は、種別が言語情報のコンテンツについて、設定される一文字の大きさである。言語情報については、この他、色、フォントなどが設定されてもよい。
【0096】
・配置時刻の項目は、コンテンツがホワイトボード作業領域102に最初に配置された日時である。配置は、会話蓄積領域101からのコピーでもよいし、直接、ユーザーがホワイトボード作業領域102に手書き等したものでもよい。「最初」とは、言語情報が形態素解析で分解されたり、イラストのサイズなどが変更されたりしても、配置時刻は変更されないことをいう。これは、会話蓄積領域101の言語情報の入力時刻との関連を維持するためである。
【0097】
・言語情報IDの項目は、言語情報又はイラストが会話蓄積領域101の言語情報を由来とする場合(会話蓄積領域101からコピーされたり、検索されたりしたイラストである場合)、該言語情報の言語情報IDである。つまり、コンテンツテーブルの言語情報IDは、各コンテンツを会話蓄積領域101の言語情報と対応付ける。換言すると、会話蓄積領域101の言語情報を由来としないコンテンツには言語情報IDが設定されない。
【0098】
(イラストテーブル)
図11は、イラストテーブルを示す概念図である。記憶部3000には、
図11に示されているようなイラストテーブルによって構成されているイラスト記憶部3003が構築されている。このイラストテーブルでは、キーワード、ID、及び、ファイル名の各項目が対応付けて保存される。
【0099】
・キーワードの項目は、イラストの名称や呼称であり、検索の対象となる文字列である。言語情報が含む単語と少なくとも部分一致するキーワードに対応付けられているファイル名のイラストが端末装置1に表示される。キーワードは、単語、表音文字、表意文字、文章、数字、これらの組み合わせ等いずれであってもよい。
【0100】
・IDの項目はイラストの識別情報である。
【0101】
・ファイル名の項目は、イラストが格納されたファイル名である。
【0102】
図11のようなイラストテーブルは、管理者などが予め情報処理システム3に登録しておく。あるいは、イラストテーブルを用意せずに、検索部15がインターネット上のイラストを検索してもよい。あるいは、GAN(Generative Adversarial Network)などの技術で言語情報が含む単語に対応するイラストを情報処理システム3が生成してもよい。
【0103】
また、イラストには3Dモデル又は三次元イラストが含まれていてよい。3Dモデル又は三次元イラストは三次元空間内の仮想的な立体物である。ユーザーは360°のうち任意に方向から3Dモデル又は三次元イラストを閲覧でき、更に、情報処理システム3が二次元平面のイラストに変換することができる。また、イラストテーブルは、端末装置1が保持していてよい。
【0104】
(会議管理テーブル)
図12は、会議管理テーブルを示す概念図である。記憶部3000には、
図12に示されているような会議管理テーブルによって構成されている会議管理記憶部3004が構築されている。会議管理テーブルは、会議IDに対応付けて、参加者、タイトル(会議名)、開始日時、終了日時、場所、パスワードなどの項目を有する。会議IDは、グループ毎に行われるグループディスカッション(議論)を特定する識別情報である。
【0105】
また、会議管理テーブルは、グループ毎に格納される。会議管理テーブル3004Aは、グループAの会議管理テーブルであり、会議管理テーブル3004Bは、グループBの会議管理テーブルであり、会議管理テーブル3004Cは、グループCの会議管理テーブルであり、会議管理テーブル3004Dは、グループDの会議管理テーブルである。
【0106】
・ファシリテータの項目は、グループ毎に行われる会議の進行を支援するファシリテータを特定する識別情報(ファシリテータのユーザーID)を示す。ファシリテータのユーザーIDは、端末装置1Bと紐付けられていてよい。
【0107】
・グループの項目は、グループを特定する情報を示す。グループを特定する情報は、グループID等であってもよいし、グループの名称等であってもよい。
【0108】
・参加者の項目は、会議の参加者を特定する識別情報(参加者のユーザーID)を示す。言い換えれば、会議の参加者は、会議を行ったグループに所属する参加者である。参加者のユーザーIDは、端末装置1Aと紐付けられていてよい。
【0109】
・タイトルの項目は、会議名や会議の議題など、会議の内容を表す。
【0110】
・開始日時の項目は、会議が開始される予定の日時である。
【0111】
・終了日時の項目は、会議が終了する予定の日時である。
【0112】
・場所の項目は、会議の開催場所であり、例えば会議室や、支社名、建屋などである。
【0113】
・パスワードの項目は会議に参加するための認証情報であって、予め参加者に配布されている。
【0114】
(コンテンツ表示時系列テーブル)
図13は、コンテンツ表示時系列テーブルを示す概念図である。記憶部3000には、
図13に示されているようなコンテンツ表示時系列テーブルによって構成されているコンテンツ表示時系列記憶部3005が構築されている。
【0115】
また、コンテンツ表示時系列テーブルは、グループ毎に格納される。コンテンツ表示時系列テーブル3005Aは、グループAのコンテンツ表示時系列テーブルであり、コンテンツ表示時系列テーブル3005Bは、グループBのコンテンツ表示時系列テーブルであり、コンテンツ表示時系列テーブル3005Cは、グループCのコンテンツ表示時系列テーブルであり、コンテンツ表示時系列テーブル3005Dは、グループDのコンテンツ表示時系列テーブルである。
【0116】
このコンテンツ表示時系列テーブルでは、状態IDに対応付けて、会話蓄積領域101の状態とホワイトボード作業領域102の状態が時系列に対応付けて保存される。
【0117】
・状態IDの項目は、会話蓄積領域101の状態とホワイトボード作業領域102の状態の識別情報である。
【0118】
・会話蓄積領域101の状態は、会話蓄積領域101にどの言語情報が表示されているかを言語情報IDにて示す。例えば、状態IDがs001の場合、会話蓄積領域101にはt001~t002の言語情報が表示されており、その状態のホワイトボード作業領域102には状態IDがs001のホワイトボード作業領域102の状態に示すコンテンツが表示されていた。次に、会話蓄積領域101にt003が追加され、t001~t003の言語情報が表示された状態のホワイトボード作業領域102には状態IDがs002のホワイトボード作業領域102の状態に示すコンテンツが表示されていた。このように、会話蓄積領域101の状態とホワイトボード作業領域102の状態が対応付けられている。
【0119】
・ホワイトボード作業領域102の状態は、上記のコンテンツテーブルにより示されている。したがって、端末装置1は、スナップショットのような画像ではなく、過去のホワイトボード作業領域102の状態をそのまま再現できる。ただし、ホワイトボード作業領域102の状態がスナップショットのような画像で保存されていてもよい。また、情報表示画面100の全体が動画のように記録されてもよい。
【0120】
なお、コンテンツ表示時系列記憶部3005は、端末装置1が記録しておいて、情報処理システム3に送信してもよい。
【0121】
<端末装置の機能構成>
図8に戻って端末装置1について説明する。端末装置1は、第一通信部11、音声入力部12、手書き入力部13、形態素解析部14、検索部15、操作受付部18、更新通知部19、時系列記憶処理部21、表示制御部22、状態表示部23等を有している。端末装置1が有するこれら各部は、
図3に示されている各構成要素のいずれかが、HD504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能、又は機能する手段である。また、端末装置1は、
図3に示されているRAM503、HD504によって構築される記憶部1000を有している。
【0122】
第一通信部11は、ネットワークを介して情報処理システム3と通信する。第一通信部11は、音声データ又は手書きデータを情報処理システム3に送信し、音声データ又は手書きデータから変換された言語情報を受信する。
【0123】
音声入力部12は、マイク518が集音する音声の入力を受け付け、受け付けた音声に基づき、音声情報としての音声データを取得する。すなわち、音声入力部12は、アナログ信号である音声にPCM(Pulse Code Modulation)を行い、音声をデジタルデータである音声データに変換する。
【0124】
手書き入力部13は、タッチパネルに対しペン等の入力手段が接触した位置の座標を検出することで、ストロークデータ(座標点列)の入力を受け付ける。手書き入力部13は、マウス操作に応じてストロークデータ(座標点列)の入力を受け付けてもよい。手書き入力部13は、この座標点列を補間することで接続してストロークデータを生成する。ストロークデータとは、入力手段により入力される座標の軌跡に基づいてディスプレイに表示される情報である。ストロークデータは適宜、補間されてよい。手書きデータとは、1つ以上のストロークデータを有するデータである。
【0125】
形態素解析部14は、情報処理システム3により任意の言語情報に形態素解析を行い、品詞付きの単語に分解する。形態素解析とは、言語情報を意味のある最小の単位に分解して、意味や品詞など判別することをいう。
【0126】
検索部15は、形態素解析部14が分解した単語等の文字列でイラスト記憶部1002を検索する。検索部15は、文字列に適合したイラストをイラスト記憶部1002から取得する。
【0127】
表示制御部22は、端末装置1Aに情報表示画面を表示させる。表示制御部22は、第一表示制御部16と第二表示制御部17を含む。
【0128】
第一表示制御部16は、情報表示画面100のうち、会話蓄積領域101に言語情報、イラストのリスト、及びメニューアイコンなどを表示する。第二表示制御部17は、情報表示画面100のうち、ホワイトボード作業領域102に言語情報、イラストのリスト、イラスト、及びメニューアイコンなどを表示する。また、本実施形態の第二表示制御部17は、言語情報(テキストデータ)を画像化した結果をホワイトボード作業領域102に表示させてもよい。なお、第一表示制御部16と第二表示制御部17は、端末装置1Bに表示された状態確認画面に含まれる情報表示画面においても、同様に表示を制御する。
【0129】
操作受付部18は、会話蓄積領域101又はホワイトボード作業領域102における各種の操作を受け付ける。操作には、メニューアイコンの押下、コンテンツの選択、コンテンツの編集、コンテンツの移動、及びコンテンツの削除等がある。なお、操作受付部18は、状態確認画面に一覧表示された各グループの情報表示画面に対する操作も受け付ける。
【0130】
更新通知部19は、ホワイトボード作業領域102のコンテンツに変更があった場合に、他の端末装置9と共有するために、コンテンツに関する情報を情報処理システム3に通知する。コンテンツの変更には、位置、サイズ、色、など、コンテンツについて共有すべき変更が含まれてよい。他の端末装置9とは、端末装置1Aと紐付けられた参加者と同じグループに所属する参加者が利用する端末装置1Aの一例である。
【0131】
時系列記憶処理部21は、会話蓄積領域101に蓄積される言語情報とホワイトボード作業領域102のコンテンツを対応付けてコンテンツ表示時系列記憶部3005に保存する。すなわち、ある時刻において会話蓄積領域101に表示されていた言語情報と、ホワイトボード作業領域102のコンテンツとが、情報処理システム3において対応付けられる。
【0132】
状態表示部23は、ファシリテータの権限を有するユーザーがログインした場合に、ファシリテータ用のホーム画面や状態確認画面を表示させる。
【0133】
なお、表示制御部22や状態表示部23は、情報処理システム3に設けられていてもよい。
【0134】
(イラストテーブル)
端末装置1が有するイラスト記憶部1002については、その構造は情報処理システム3が有するイラスト記憶部3003と同様でよい。端末装置1がWebアプリを実行する場合、イラスト記憶部1002は端末装置1が情報処理システム3に接続することで、情報処理システム3から端末装置1にダウンロードされる。端末装置1がネイティブアプリを実行する場合、イラスト記憶部1002は予めネイティブアプリが有している。端末装置1がネイティブアプリを実行する場合に、イラスト記憶部1002がダウンロードされてもよい。
【0135】
<情報表示画面の一例>
次に、
図14を参照して、端末装置1が表示する情報表示画面100について説明する。
図14は、端末装置1Aが表示する初期状態の情報表示画面100の一例を示す図である。情報表示画面100は、Webアプリでもよいし、ネイティブアプリでもよい。
【0136】
情報表示画面100は、会話蓄積領域101、ホワイトボード作業領域102、ツール表示欄103、及び、音声認識結果表示欄110、を有している。
【0137】
ツール表示欄103は、各種のツールを表示する。このツールには、コンテンツの選択ツール111、手書き入力するためのペンツール112、図形を描くための図形ツール113、文字を入力するためのテキストツール114、投げ縄ツール115などがある。これらは一例である。また、ツールには、会話蓄積領域101の表示非表示切り替えツール116がある。表示非表示切り替えツール116の押下により、会話蓄積領域101が閉じてその分、ホワイトボード作業領域102が拡大する。
【0138】
会話蓄積領域101には、音声データから変換された言語情報が時系列に表示される。新しい言語情報が会話蓄積領域101に追加されると、言語情報は古いものが上方から下方に移動する。会話蓄積領域101の最下部に到達した言語情報は、スクロールアウトする。スクロールアウトしても、ユーザーがスクロールバーを操作することで過去の言語情報を表示できる。
【0139】
音声認識結果表示欄110には、端末装置1Aの音声入力部12が取得した音声データから変換された言語情報がリアルタイムに表示される。音声認識結果表示欄110に表示中の言語情報も他の端末装置9と共有されてよい。音声認識結果表示欄110に表示中の言語情報については、自動的にイラストが表示される。例えば、無音状態が一定時間以上継続すると、音声認識結果表示欄110に表示中の言語情報が情報処理システム3に送信される。情報処理システム3は変換が完了した言語情報を、会話蓄積領域101に表示する旨を各端末装置1Aに送信することで、言語情報が他の端末装置との間で共有される。
【0140】
ホワイトボード作業領域102には、ユーザーが任意にコンテンツを入力できる。すなわち、ユーザーはホワイトボード作業領域102を電子黒板のように使用できる。また、後述するように、ユーザーは会話蓄積領域101の言語情報をホワイトボード作業領域102にコピーできる。
【0141】
会話蓄積領域101とホワイトボード作業領域102の位置やサイズをユーザーが調整できてもよい。ユーザーは例えば会話蓄積領域101とホワイトボード作業領域102の左右を入れ替える。ユーザーがホワイトボード作業領域102を大きくすると、その分、会話蓄積領域101が小さくなるとよい。ユーザーが会話蓄積領域101のサイズを変更した場合も同様である。また、ホワイトボード作業領域102がディスプレイ506より広くてもよく、この場合、ディスプレイ506は、ユーザーの操作に応じてホワイトボード作業領域の一部のみをディスプレイ506に表示する。
【0142】
<音声認識と言語情報の共有>
次に、
図15を参照して、会議に参加した各端末装置1Aが音声データから変換された言語情報を共有する流れを説明する。
図15は、端末装置1Aが音声データを情報処理システム3に送信し、情報処理システム3が音声データから変換した言語情報を他の端末装置9と共有する処理を説明するシーケンス図である。なお、端末装置1Aと他の端末装置9は、メール等で招待されたURLに接続するなどして、同じ会議に参加しており、情報処理システム3が同じ会議に参加している複数の端末装置1をユーザーIDやIPアドレス等で管理している。あるいは、各ユーザーが会議管理テーブルに登録した会議を端末装置1で選択して、所定のパスワードを入力することで、同じ会議に参加してもよい。この場合も情報処理システム3が同じ会議に参加している複数の端末装置1AをユーザーIDやIPアドレス等で管理している。
【0143】
S101:端末装置1Aの音声入力部12はユーザーが発言する音声の入力を受け付ける。
【0144】
S102:音声入力部12は第一通信部11を介して、デジタルデータに変換した音声データを情報処理システム3に送信する。
【0145】
S103:情報処理システム3の第二通信部31は、音声データを受信し、変換部32が音声データに音声認識を行い言語情報に変換する。
【0146】
S104、S105:第二通信部31は、言語情報を会議に参加している他の端末装置9に送信する。なお、音声認識はリアルタイムに行われるので、この時点では発言内容が確定していない場合がある。
【0147】
S106、S107:端末装置1Aと他の端末装置9の第一通信部11は言語情報を受信し、第一表示制御部16は、未確定の言語情報を随時、音声認識結果表示欄110に表示する。
【0148】
S108:会話内容管理部33は、無音時間などに基づいて発言の区切りを検出した場合、会話内容テーブルに、言語情報ID(新たに採番)、言語情報、入力時刻、発言者(ログインしたユーザー)、いいね回数(初期値はゼロ)を保存する。
【0149】
S109、S110:第二通信部31は、言語情報ID、言語情報及び入力時刻を端末装置1Aと他の端末装置9に送信する。
【0150】
S111、S112:端末装置1Aと他の端末装置9の第一通信部11は、言語情報ID、言語情報及び入力時刻を受信し、第一表示制御部16が会話蓄積領域101に新しい言語情報を追加で表示する。
【0151】
S113、S114:また、会話蓄積領域101の状態が変わったので、時系列記憶処理部21が現在、会話蓄積領域101に表示中の言語情報IDを会話蓄積領域101の状態として取得する。また、時系列記憶処理部21は、ホワイトボード作業領域102に表示中のコンテンツデータをホワイトボード作業領域102の状態として取得する(情報処理システム3から取得しても、端末装置1Aで表示しているコンテンツから取得してもよい)。
【0152】
S115、S116:時系列記憶処理部21は、会話蓄積領域101の状態とホワイトボード作業領域102の状態を対応付けて、コンテンツ表示時系列記憶部3005への保存を要求する。
【0153】
S117:コンテンツ管理部34は、会話蓄積領域101の状態とホワイトボード作業領域102の状態を対応付けて、コンテンツ表示時系列記憶部3005へ格納する。
【0154】
<会話蓄積領域からホワイトボード作業領域への言語情報のコピー>
次に、
図16を参照して、会話蓄積領域101の言語情報を利用したホワイトボード作業領域102へのコンテンツの表示例を説明する。
図16は、ユーザー操作に応じて、端末装置1Aが会話蓄積領域101からホワイトボード作業領域102へ言語情報をコピーする処理を模式的に説明する図である。
【0155】
図16(a)は、いくつかの言語情報が表示された会話蓄積領域101を示す。ホワイトボード作業領域102にはコンテンツがないが、あってもよい。ユーザーが会話蓄積領域101の任意の言語情報121をホワイトボード作業領域102にて利用するため選択する(タップ又はクリックする)。選択された言語情報121は、一文字ずつ、漢字のみ、又は、形態素解析による文字列に分解され、検索部15がイラスト記憶部1002を検索する。
【0156】
これにより、
図16(b)に示すように、第一表示制御部16は、会話蓄積領域101の選択された言語情報121に周囲に、言語情報に関連するイラストのリスト122を表示する。イラストのリスト122は複数のイラストのサムネイル(イラストが1つの場合もある)である。ユーザーは、イラストのリスト122の中からホワイトボード作業領域102に表示するイラストを選択できる。ユーザーは選択したイラストをホワイトボード作業領域102にドラッグ&ドロップしてもよいし、単にイラストのリスト122のイラストを選択するだけで、イラストがホワイトボード作業領域102に表示されてもよい。このホワイトボード作業領域に表示されるイラストは、ユーザの選択に基づくコンテンツの一例である。
【0157】
イラストのリスト122の中からのイラストの選択は、自身が発言した内容以外に他者の発言に対しても行える。これにより他者にとっては自身の発言が利用されたと感じ、主体的な参加の実感が得られる。なお、
図16(b)ではユーザーはイラストを選択しなかったものとする。
【0158】
また、音声認識結果表示欄110に表示されていた言語情報に対し表示されたイラストを端末装置1Aが保持しておいて、イラストのリスト122として表示してよい。ユーザーが言語情報121を選択してから、イラストのリスト122が表示されるまでの時間を短縮できる。
【0159】
図16(c)に示すように、ユーザーが言語情報の一部の文字列123を選択し、文字列123の複製(以下、文字列126という)を会話蓄積領域101からホワイトボード作業領域102にドラッグ&ドロップした。
図16(d)はホワイトボード作業領域102に表示された文字列126を示す。文字列126は言語情報に対するユーザーの選択に基づくコンテンツの一例である。したがって、ユーザーは自身の発言がホワイトボード作業領域102にどのように影響を与えたのか理解することができる。
【0160】
なお、ユーザーは文字列123の一部又は全体をクリックし、その後、ホワイトボード作業領域102でクリックすることで、文字列126を表示させることもできる。イラストのリスト122のイラストについても、ドラッグ&ドロップ又はクリックのどちらでもホワイトボード作業領域102に表示可能でよい。
【0161】
このように、ユーザーは会話蓄積領域101の言語情報を利用してホワイトボード作業領域102への入力作業を低減できる。ユーザーは、文字列126を更に移動したり、任意の角度に回転させたりすることができる。
【0162】
なお、
図16(a)に示すように、会話蓄積領域101の各言語情報にはいいねボタン124やお気に入りボタン125が表示される。いいねボタン124やお気に入りボタン125は、常時、表示されてもよいし、ユーザーが言語情報を選択したりマウスオーバーしたりした際に表示されてもよい。ユーザーがいいねボタン124を押下すると、言語情報IDといいねボタンが押下された旨が情報処理システム3に送信され、会話内容テーブルのいいね回数が1つ増える。
【0163】
また、
図16(d)に示すように、ホワイトボード作業領域102にコンテンツが追加されると、更新通知部19が、第一通信部11を介して、コンテンツの種別、ページ、座標、サイズ、フォントサイズ、言語情報IDを情報処理システム3に送信する。コンテンツ管理部34は、他の端末装置9に新たに追加されたコンテンツテーブルの一レコードを送信するので、他の端末装置9がホワイトボード作業領域102の状態を共有できる。
【0164】
図17は、ユーザー操作に応じて、端末装置1Aが会話蓄積領域101からホワイトボード作業領域102へ言語情報をコピーする処理を説明するシーケンス図である。
【0165】
S1:ユーザーが会話蓄積領域101の言語情報121を選択すると、操作受付部18が選択を受け付ける。
【0166】
S2:形態素解析部14が言語情報121に形態素解析を行い、文字列に分解する。形態素解析は必須でなく、形態素解析部14は単に漢字だけを取り出してもよい。検索部15が各文字列でイラスト記憶部1002のキーワードを検索する。第一表示制御部16は、検索に適合したキーワードに対応付けられているイラストのリスト122を、選択された言語情報121の周囲に表示する。
【0167】
S3:ユーザーが言語情報の文字列123の複製である文字列126をホワイトボード作業領域102にドラッグ&ドロップする。操作受付部18がこの操作を受け付け、第二表示制御部17が文字列126をドロップ先に表示する。
【0168】
S4:ホワイトボード作業領域102の状態が変更されたことを更新通知部19が検出する。更新通知部19は、第一通信部11を介して、コンテンツの更新通知(コンテンツの種別、文字列126、ページ、座標、サイズ、フォントサイズ、言語情報ID)を情報処理システム3に送信する。
【0169】
S5:情報処理システム3の第二通信部31はコンテンツの更新通知を受信し、コンテンツ管理部34がコンテンツIDを採番して、更新通知の内容と共に、対応するグループのコンテンツテーブルに保存する。
【0170】
S6:情報処理システム3の第二通信部31はコンテンツIDを端末装置1Aに送信する。
【0171】
S7:また、コンテンツテーブルに変更が生じたので、コンテンツ管理部34は、同じ会議に参加している他の端末装置9に対しコンテンツの共有要求(コンテンツID、コンテンツの種別、文字列126、ページ、座標、サイズ、フォントサイズ、言語情報ID)を送信する。
【0172】
S8:他の端末装置9の第一通信部11がコンテンツの共有要求を受信し、第二表示制御部17が文字列126を座標で指定された位置に、フォントサイズで表示する。
【0173】
<会話蓄積領域からホワイトボード作業領域への言語情報の全文コピー>
次に、
図18を参照して、会話蓄積領域101の言語情報を利用したホワイトボード作業領域102へのコンテンツの表示例を説明する。
図18は、ユーザー操作に応じて、端末装置1Aが会話蓄積領域101からホワイトボード作業領域102へ言語情報の全文をコピーする処理を模式的に説明する図である。なお、
図18の説明では主に
図16との相違を説明する。
【0174】
図18(a)については
図16(a)と同様である。
図18(b)では、1つの言語情報131の全体の複製(以下、言語情報132という)がドラッグされている。なお、マウスホバーの状態では、第一表示制御部16は、会話蓄積領域101の言語情報を移動させない。こうすることで、コピーしたい言語情報131が移動して操作性が低減することを抑制できる。
【0175】
図18(c)では、引き続き、1つの言語情報132がドラッグされている。
図18(d)は、ユーザーが言語情報132をドロップした状態を示す。このように、ユーザーは会話蓄積領域101の言語情報131の全体をホワイトボード作業領域102にコピーできる。後述するように、ユーザーはホワイトボード作業領域102で言語情報の形態素解析を行うこともできるので、所望の文字列のみをドラッグ&ドロップすることなく、言語情報131が含む文字列を利用できる。
【0176】
なお、
図18の処理の流れについては、ホワイトボード作業領域102にコピーされる文字数が異なる以外は
図17と同様でよい。
【0177】
<ホワイトボード作業領域における言語情報に基づくイラストの表示>
次に、
図19を参照して、ホワイトボード作業領域102における言語情報に基づくイラストの表示例を説明する。
図19は、ホワイトボード作業領域102にコピーされた言語情報に基づいて検索されたイラストの表示例を説明する図である。
【0178】
会議の議論の中ではホワイトボード作業領域102に、ユーザーが直接、言語情報を入力したり、会話蓄積領域101で選択した言語情報を配置したりする。ここで言語情報だけではなく関連するイラストを合わせて配置すると、言語情報の内容がわかりやすくなる。
【0179】
図19(a)に示すように、ユーザーがホワイトボード作業領域102の言語情報132を選択する(タップ又はクリック)。選択された言語情報132は、一文字ずつ、漢字のみ、又は、形態素解析による文字列に分解され、検索部15がイラスト記憶部1002を検索する。
【0180】
これにより、
図19(b)に示すように、第二表示制御部17は、ホワイトボード作業領域102の選択された言語情報132の周囲に、言語情報に関連するイラストのリスト142とメニューアイコン141を表示する。メニューアイコン141は、ユーザーID表示アイコン141a、言語情報や枠の色を設定するアイコン141b、言語情報の中央揃えアイコン141c、形態素解析アイコン141d、言語情報の一固定アイコン141eなどである。これらは一例に過ぎない。
【0181】
ユーザーは、イラストのリスト142の中からホワイトボード作業領域102に表示するイラストを選択できる。
図19(c)に示すように、第二表示制御部17は選択されたイラスト143を表示する。イラスト143は言語情報に対するユーザーの選択に基づくコンテンツの一例である。イラスト143のサイズは予め決まっているものとするが、ユーザーが適宜変更できる。
【0182】
ユーザーは表示されたイラストのリスト142からイラスト143を選択することで、自身で適したイラストを探索することなく、会議中にスムーズに内容を分かりやすく伝える視覚情報を追加できる。ユーザーは、イラスト143を移動したり、任意の角度に回転させたりすることができる。
【0183】
図20は、ユーザー操作に応じて、端末装置1Aがホワイトボード作業領域102の言語情報に基づいてイラストを表示する処理を説明するシーケンス図である。
【0184】
S11:ユーザーがホワイトボード作業領域102の言語情報132を選択すると、操作受付部18が選択を受け付ける。
【0185】
S12:形態素解析部14が言語情報132に形態素解析を行い、文字列に分解する。形態素解析は必須でなく、形態素解析部14は単に漢字だけを取り出してもよい。検索部15が各単文字列でイラスト記憶部1002のキーワードを検索する。第二表示制御部17は、検索に適合したキーワードに対応づけられているイラストのリスト142とメニューアイコン141を選択された言語情報132の周囲に表示する。
【0186】
S13:ユーザーがイラストのリスト142から任意のイラストを選択する。操作受付部18がこのイラストの選択を受け付ける。
【0187】
S14:第二表示制御部17が選択されたイラスト143を、ホワイトボード作業領域102の言語情報132の周囲に表示する。
【0188】
S15:ホワイトボード作業領域102の状態が変更されたことを更新通知部19が検出する。更新通知部19は、第一通信部11を介して、コンテンツの更新通知(コンテンツの種別、イラスト、ページ、座標、サイズ、言語情報ID)を情報処理システム3に送信する。
【0189】
S16:情報処理システム3の第二通信部31はコンテンツの更新通知を受信し、コンテンツ管理部34がコンテンツIDを採番して、更新通知の内容と共にコンテンツテーブルに保存する。
【0190】
S17:情報処理システム3の第二通信部31はコンテンツIDを端末装置1Aに送信する。
【0191】
S18:また、コンテンツテーブルに変更が生じたので、コンテンツ管理部34は、同じ会議に参加している他の端末装置9に対しコンテンツの共有要求(コンテンツID、コンテンツの種別、イラスト、ページ、座標、サイズ、言語情報ID)を送信する。
【0192】
S19:他の端末装置9の第一通信部11がコンテンツの共有要求を受信し、第二表示制御部17がイラスト143を座標で指定された位置に表示する。
【0193】
<ホワイトボード作業領域のコンテンツによる会話蓄積領域の参照>
次に、
図21を参照して、ホワイトボード作業領域102のコンテンツによる会話蓄積領域101の参照方法を説明する。
図21は、ホワイトボード作業領域102のコンテンツが選択された場合に強調して表示される会話蓄積領域101の言語情報の一例を示す図である。
【0194】
議論が進んだ後、ホワイトボード作業領域102の各コンテンツが会議におけるどの場面で発想されたか確認できると振り返りに有効である。そこで、第一表示制御部16は、ホワイトボード作業領域102で選択されたコンテンツに対応付けられている言語情報を会話蓄積領域101で強調して表示する。
【0195】
まず、
図21(a)に示すように、ユーザーがホワイトボード作業領域102でコンテンツを選択する。ここではユーザーが、イラスト161を選択(タップ又はクリック)したものとする。これにより、
図21(b)に示すように、第二表示制御部17は、関連情報確認アイコン162をイラスト161の近くに表示する。ユーザーが関連情報確認アイコン162を押下する。これにより、
図21(c)に示すように、第一表示制御部16は、選択されたイラスト161の言語情報IDを有する言語情報163を会話蓄積領域101に強調して表示する。仮にこの言語情報163がスクロールアウトしている場合、第一表示制御部16は、会話蓄積領域101の中央付近に言語情報163をスクロールさせて強調して表示する。
【0196】
選択されたイラスト161が直接、ユーザーがホワイトボード作業領域102に入力したため、言語情報IDを有さない場合もある。この場合、第一表示制御部16は、選択されたイラスト161が配置された日時付近(日時から一定以内)の言語情報を強調して表示する。
【0197】
なお、強調表示は文字を太字にしたり、該当部分の色を変更したり、表示領域をスクロールし該当部分を見える状態にするだけでも良い。
【0198】
図22は、ユーザー操作に応じて、端末装置1Aがホワイトボード作業領域102のコンテンツに対応する言語情報を強調して表示する処理を説明するシーケンス図である。
【0199】
S51:ユーザーがホワイトボード作業領域102のコンテンツ(イラスト161)を選択すると、操作受付部18が選択を受け付ける。
【0200】
S52:第二表示制御部17が、関連情報確認アイコン162を選択されたイラスト161に表示する。
【0201】
S53:コンテンツテーブルにおいて選択されたイラスト161が言語情報IDを有する場合、第一表示制御部16は、選択されたイラスト161の言語情報IDの言語情報163を会話蓄積領域101に強調して表示する。
【0202】
S54:コンテンツテーブルにおいて選択されたイラスト161が言語情報IDを有さない場合、第一表示制御部16は、選択されたイラスト161の配置時刻に近い入力時刻が対応付けられている言語情報を会話蓄積領域101に強調して表示する。「選択されたコンテンツの配置時刻に近い」とは、配置時刻の直前から一定時間内の入力時刻でよい。会話蓄積領域101の言語情報を由来とするコンテンツは、該言語情報よりも後にホワイトボード作業領域102に配置されるからである。また、直前から一定時間内は、1つの言語情報が表示されてからスクロールアウトされるまでのおよその時間が最大であるが、例えばその1/2~1/4程度としてよい。
【0203】
なお、会話蓄積領域101の状態は他の端末装置9と共有されない。共有されると、会話蓄積領域101を見ている他の端末装置9のユーザーにとって意図しない言語情報のスクロールが生じるためである。しかしながら、複数のユーザーが一緒に会議を振り返る状況など、ユーザーの設定に応じて、会話蓄積領域101の状態が他の端末装置9と共有されてよい。
【0204】
<端末装置によるフィルタリング>
会話蓄積領域101の言語情報は議論が進むにつれ数が増えていき、振り返りが困難になる。このため、第一表示制御部16は、会話蓄積領域101の言語情報をフィルタリングする機能を有している。フィルタリングの方法としては、
・ユーザーの名前(ユーザーID)で絞り込む方法(言語情報の発言者による絞り込み)
・会話蓄積領域101の各言語情報に対していいねボタンが押下された回数が一定数を超えるもので絞り込む方法
・自分だけの気に入った言語情報が保存されたテーブルに登録されているもので絞り込む方法
・会話蓄積領域101への言語情報の入力時刻(発言時刻)で絞り込む方法
等がある。
【0205】
また、フィルタリングの際、第二表示制御部17が、ホワイトボード作業領域102のコンテンツを、会話蓄積領域101で絞り込んだコンテンツに関連するもののみに限定することも有効である。第二表示制御部17は、フィルタリングされた言語情報の言語情報IDと対応付けられたコンテンツのみを表示し、そうでないコンテンツを非表示にする。あるいは、第二表示制御部17は、フィルタリングされた言語情報の言語情報IDと対応付けられていないコンテンツの彩度や透過度を下げて視認性を下げてもよい。
【0206】
図23は、端末装置1Aが会話蓄積領域101の言語情報をフィルタリングする処理を説明するフローチャート図である。
【0207】
まず、端末装置1Aの操作受付部18が、フィルタリングの実行開始を受け付ける(S61)。操作受付部18は、フィルタリングの絞り込み方法についてもラジオボタンなどで選択を受け付ける。
【0208】
フィルタリング部36は、会話蓄積領域101の全ての言語情報についてフィルタリングを実行する(S62)。
【0209】
第一表示制御部16は、会話蓄積領域101にフィルタリング後の言語情報のみを表示する(S63)。会話蓄積領域101に表示しきれない言語情報はスクロールにより表示可能である。
【0210】
第二表示制御部17は、ホワイトボード作業領域102に、フィルタリングされた言語情報の言語情報IDと対応付いているコンテンツのみを表示する(S64)。
【0211】
こうすることで、会話蓄積領域101の言語情報の数が、議論が進むにつれて増えていっても、振り返りが容易になる。
【0212】
<状態表示画面における操作>
上述した
図16乃至
図23では、主に、端末装置1Aに表示された情報表示画面において行われる操作について説明した。
【0213】
これらの処理は、端末装置1Bに表示された状態確認画面に含まれる、各情報表示画面においても、同様の操作を行うことができる。
【0214】
具体的には、例えば、
図5に示す画面(状態確認画面)700の表示領域701内に表示された情報表示画面100Aにおいて、ファシリテータPによって、会話蓄積領域からホワイトボード作業領域へ言語情報をコピーする操作が行われたとする。
【0215】
この場合、この操作の内容は、グループAに所属するユーザーと紐付けられた端末装置1Aに表示された情報表示画面に反映されてよい。
【0216】
本実施形態では、このようにすることで、ファシリテータPは、状態確認画面を各グループの情報表示画面に遷移させずに、各グループの情報表示画面を操作することができる。
【0217】
<情報処理システム3によるフィルタリング>
情報処理システム3は、フィルタリング部36によるフィルタリングの結果を、端末装置1Bに表示されるファシリテータ用の状態確認画面に反映させてよい。
【0218】
図24は、ファシリテータが操作する端末装置が表示する状態確認画面の一例を示す第二の図である。
【0219】
図24に示す画面(状態確認画面)700Aでは、フィルタリング部36によって、グループ毎の会話蓄積領域101に蓄積された言語情報を、ユーザーID毎にフィルタリングした結果が反映されている。
【0220】
具体的には、フィルタリング部36は、グループ毎の会話内容テーブルを参照し、同一のユーザーIDが対応付けられた言語情報IDと対応する言語情報を同一の色とし、ユーザーID毎に対応する言語情報の表示態様が異なるように、状態確認画面を表示させる。
【0221】
画面700Aの表示領域701には、グループAの情報表示画面100A-1が表示される。グループAの情報表示画面100A-1では、グループAに所属する参加者の言語情報は、参加者毎に色が異なるように表示される。
【0222】
情報表示画面100A-1において、言語情報712、714、715は、同じ色で表示されている。したがって、言語情報711と、言語情報712、714、715と、言語情報713とは、それぞれ色が異なる。したがって、言語情報711と、言語情報712、714、715と、言語情報713とは、それぞれが別々の参加者の発言であることがわかる。また、言語情報712、714、715は、同じ色で表示されている。したがって、言語情報712、714、71は、同一の参加者による発話であることがわかる。
【0223】
本実施形態では、このように、状態確認画面に表示されるグループ毎の情報表示画面の一覧において、各情報表示画面における言語情報をユーザー毎に色分けして表示させる。したがって、本実施形態によれば、状態確認画面を閲覧したファシリテータPに対し、短時間で各グループにおける参加者毎の発言量を把握させることができる。
【0224】
図25は、ファシリテータが操作する端末装置が表示する状態確認画面の一例を示す第三の図である。
【0225】
図25に示す画面(状態確認画面)700Bでは、フィルタリング部36によって、グループ毎の会話蓄積領域101に蓄積された言語情報を、ユーザーID毎にフィルタリングした結果に加え、ユーザーID毎の発言数がカウントされた結果が反映されている。
【0226】
画面700Bの表示領域701には、グループAの情報表示画面100A-2が表示される。グループAの情報表示画面100A-2では、グループAに所属する参加者の言語情報は、参加者毎に色が異なるように表示される。
【0227】
また、情報表示画面100A-2は、表示領域706aを含む。表示領域706aは、グループAの参加者を特定するアイコン画像の一覧が表示される。また、表示領域706aでは、参加者のアイコン画像の大きさが、各参加者の発言数に対応する大きさとして表示される。具体的には、表示領域706aに表示される各参加者のアイコン画像の大きさは、各参加者のユーザーIDと対応する発言数に応じて決められる。
【0228】
情報表示画面100A-2では、グループAに所属する参加者のうち、参加者「N」の発言数が最も多く、次に発言数が多い参加者は、参加者「T」であることがわかる。
【0229】
また、画面700Bにおいて、情報表示画面100B-2は、表示領域706bを含む。表示領域706bでは、グループBに所属する参加者のアイコン画像の大きさが、各参加者の発言数に対応する大きさとして表示される。
【0230】
図26は、ファシリテータが操作する端末装置が表示する状態確認画面の一例を示す第四の図である。
【0231】
図26に示す画面(状態確認画面)700Cでは、フィルタリング部36によって、ユーザーID毎の発言数がカウントされた結果が、グループ毎に棒グラフとして表示される。
【0232】
画面700Cの表示領域701には、グループAの情報表示画面100A-3が表示される。グループAの情報表示画面100A-3は、表示領域705Aを含む。表示領域705Aは、グループAに所属する各参加者の発言数を示す棒グラフが表示される。
【0233】
本実施形態では、このように、状態確認画面において、グループ毎に、グループに所属する参加者毎の発言数を示す画像を表示させることで、ファシリテータPに対し、グループ内の参加者の発言数の割合等を視覚的に把握させることができる。
【0234】
図27は、ファシリテータが操作する端末装置が表示する状態確認画面の一例を示す第五の図である。
【0235】
図27に示す画面(状態確認画面)700Dでは、フィルタリング部36によって、情報表示画面100Aのホワイトボード作業領域102に表示されたイラストを、特定の要素でフィルタリングした結果が反映されている。
【0236】
この場合、フィルタリング部36は、フィルタリングの要素が特定されると、グループ毎のコンテンツテーブルを参照し、要素に応じたコンテンツIDが特定するコンテンツをフィルタリングすればよい。
【0237】
画面700Dの表示領域701は、情報表示画面100A、情報表示画面100Bに加え、表示領域707を含む。表示領域707は、ホワイトボード作業領域102に表示されたイラストをフィルタリングする際の要素を選択されるための選択欄が表示される。
【0238】
表示領域707には、イラストをフィルタリングする際の要素の候補が一覧表示される。本実施形態における要素の候補は、イラストの移動量、イラストのクリック数、イラストと関連する発言数等を含む。
【0239】
フィルタリング部36は、表示領域707に表示された選択欄において、イラストの移動量が選択された場合には、参加者の操作によってホワイトボード作業領域102内の移動量が一定に閾値以上のイラストや、移動量が多い順から選択された複数のイラストを強調表示してよい。なお、移動量とは、ホワイトボード作業領域102内で移動した長さの合計であってよい。
【0240】
また、フィルタリング部36は、表示領域707に表示された選択欄において、イラストの発言数が選択された場合には、関連する発言数が一定に閾値以上のイラストや、関連する発言数が多い順から選択された複数のイラストを強調表示してよい。
【0241】
また、フィルタリング部36は、表示領域707に表示された選択欄において、イラストのクリック数が選択された場合には、クリック数が一定に閾値以上のイラストや、クリック数が多い順から選択された複数のイラストを強調表示してよい。
【0242】
図27の例では、表示領域707に表示された選択欄において、イラストのクリック数が選択されており、情報表示画面100Aのホワイトボード作業領域102において、クリック数が多い順に選択されたイラスト708とイラスト709が強調表示されている。
【0243】
本実施形態では、このように、グループ毎の情報表示画面のホワイトボード作業領域において、選択された要素に応じたイラストを強調表示させることができる。
【0244】
なお、本実施形態では、フィルタリングの要素は表示領域707に表示された選択欄から選択されるものとしたが、これに限定されない。フィルタリングの要素は、例えば、端末装置1Aに搭載されたカメラ等によって取得された生体情報等が用いられてもよい。具体的には、例えば、カメラ等によってグループに所属する参加者の視線から検出されるイラスト毎の注目回数をフィルタリングの要素の候補に含めてもよい。
【0245】
<ホワイトボード作業領域102の他の例>
本実施形態の端末装置1Aにおいて、第二表示制御部17は、言語情報(テキストデータ)を画像化した結果をホワイトボード作業領域102に表示させる機能を有していてよい。言語情報(テキストデータ)を画像化する方法としては、
・形態素解析部14が分解した単語毎の出現頻度を取得する。
・各単語の出現頻度に応じて、単語を示す文字画像それぞれの大きさ、フォント、色、配置等を決定する。
・それぞれの単語を示す文字画像(コンテンツ)を、決定された大きさ、フォント、色、配置で表示させる。
【0246】
図28は、端末装置が会議中に表示する情報表示画面の他の例を示す図である。
図28に示す情報表示画面100-1におけるホワイトボード作業領域102-1では、会話蓄積領域101に蓄積された言語情報が画像化されている。また、
図28の例では、単語同士の関連性がベクトル図のように繋れて表示されてもよい。言い換えれば、
図28では、単語同士の関連性に応じて、単語を示す文字画像同士を繋ぐ線が表示されてよい。このように文字画像を表示させることで、単語同士の関連性を視覚的に把握させることができる。さらに、
図28の例では、出現頻度が一定の頻度に満たない単語を省いて、言語情報を画像化してもよい。
【0247】
本実施形態では、ホワイトボード作業領域102-1をこのような表示とすることで、例えば、あるグループの参加者が、他のグループのルームに入室した際に、他のグループ内の会話の概要を把握することができる。なお、あるグループの参加者が、他のグループのルームに入室する、とは、あるグループの参加者が、自身が利用する端末装置1Aに表示された画面400において、自身が所属するグループ以外の他のグループを選択する操作を行い、他のグループの情報表示画面を端末装置1Aに表示させることを示す。
【0248】
<ファシリテータ用のホーム画面の他の例>
さらに、本実施形態では、
図29に示す情報表示画面100-1を、ファシリテータ用のホーム画面に表示させてよい。
【0249】
図29は、ファシリテータが操作する端末装置が表示するホーム画面の他の例を示す図である。
図29に示す画面400Bの表示領域401には、操作ボタン401a、401b、401C、401Dが表示されている。
【0250】
また、表示領域401において、操作ボタン401aの下方には表示領域403Aが対応付けられており、操作ボタン401bの下方には表示領域403Bが対応付けられている。また、表示領域401において、操作ボタン401Cの下方には表示領域403Cが対応付けられており、操作ボタン401Dの下方には表示領域403Dが対応付けられている。
【0251】
操作ボタン401aは、内側にグループAの情報表示画面100Aにおけるホワイトボード作業領域102(
図5参照)が表示されている。また、操作ボタン401bは、内側にグループBの情報表示画面100Bにおけるホワイトボード作業領域102-1(
図24参照)が表示されている。
【0252】
本実施形態では、このように、操作ボタン401a、401bを表示させることで、ファシリテータPに対し、画面400Bを閲覧するだけで、各グループの会話内容の概要を把握させることができる。また、ファシリテータPは、状態確認画面において、各グループの状態表示画面に表示された会話蓄積領域の内容を読み込むまなくても、グループ内で繰り広げられている会話の内容を短時間で直感的に理解することができる。
【0253】
本実施形態の表示領域403Aは、操作ボタン401aと対応するグループ名「グループA」とグループAに所属する参加者を特定するアイコン画像の一覧とが表示され、表示領域403Bは、操作ボタン401bと対応するグループ名「グループB」と、グループBに所属する参加者を特定するアイコン画像の一覧とが表示される。また、表示領域403Cは、操作ボタン401Cと対応するグループ名「グループC」とグループCに所属する参加者を特定するアイコン画像の一覧とが表示され、表示領域403Dは、操作ボタン401Dと対応するグループ名「グループD」と、グループDに所属する参加者を特定するアイコン画像の一覧とが表示される。
【0254】
本実施形態では、このようにグループ名と、グループに所属する参加者を特定するアイコン画像の一覧とを表示させることで、画面400Bにおいて、グループ毎の参加者をファシリテータPに把握させることができる。
【0255】
<変形例>
図30は、情報表示画面の他の表示態様を示す図である。本実施形態における情報表示画面の表示態様は、上述した各図に示す例に限定されない。
【0256】
図30に示す画面100-2は、Web会議中に端末装置1に表示される情報表示画面の一例である。
【0257】
この画面100-2では、会話蓄積領域101-1と、音声認識結果表示欄110-1と、ホワイトボード作業領域102-1の配置が、上述した各情報表示画面と異なる。
【0258】
図30の例では、会話蓄積領域101-1に表示された文字列104-1が、上述した方法によってホワイトボード作業領域102-1で画像化される。
【0259】
このように、本実施形態の機能は、情報表示画面の表示態様にかかわらず、実現することができる。
【0260】
<主な効果>
以上説明したように、本実施形態のビジュアルコミュニケーションシステム5は、ファシリテータに対して、各グループのそれぞれの議論の状態を容易に把握させることができる。
【0261】
また、本実施形態では、音声から変換された言語情報を基にイラストなどの視覚情報をホワイトボード作業領域102に表示できる。ユーザーは、会話の内容をイラストに変換してホワイトボード作業領域102に手書きしたりネットワーク等から取得したりしなくても、会議中のコミュニケーションを容易に可視化できる。ホワイトボード作業領域102と、会話蓄積領域101が同じ画面に表示されるので、ユーザーはホワイトボード作業領域102のコンテンツがどのようなコミュニケーションの過程で配置されたのかを把握しながら、コミュニケーションできる。
【0262】
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
【0263】
例えば、本実施形態では、ディスプレイ506に情報表示画面100が表示されたが、情報表示画面100をプロジェクターが表示してもよい。この場合、ビジュアルコミュニケーションシステム5は、手書き用のペン先の座標を超音波により検出する。ペンは発光と共に超音波を発信しており、端末装置1は超音波の到達時間により距離を算出する。端末装置1は、方向と距離によりペンの位置を特定でき、ペンの軌跡をストロークデータとしてプロジェクターが描画(投影)する。
【0264】
また、端末装置1は一台でもよい。この場合、ユーザーは端末装置1を自分の考えをまとめたり記録したりするツールとして使用できる。
【0265】
また、
図8などの構成例は、端末装置1、及び、情報処理システム3による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。端末装置1、及び、情報処理システム3の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
【0266】
また、実施例に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。ある実施形態では、情報処理システム3は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。
【0267】
更に、情報処理システム3は、本実施形態で開示された処理ステップ、例えば
図12等を様々な組み合わせで共有するように構成できる。例えば、所定のユニットによって実行されるプロセスは、情報処理システム3が有する複数の情報処理装置によって実行され得る。また、情報処理システム3は、1つのサーバ装置にまとめられていても良いし、複数の装置に分けられていても良い。
【0268】
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等のデバイスを含むものとする。
【0269】
また、明細書中のテーブルは、機械学習の学習効果によって生成されたものでもよい。ここで、機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり、コンピュータが、データ識別等の判断に必要なアルゴリズムを、事前に取り込まれる学習データから自律的に生成し、新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、更に、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。
【0270】
<請求項に関する付記>
[1]
所定のグループに所属するユーザーに対して音声から変換された言語情報が時系列に表示される領域と、表示された言語情報に基づくコンテンツが表示される領域とを含む前記所定のグループ毎の情報表示画面を表示する表示制御部と、
複数の前記グループを管理するユーザーに対して前記グループ毎に表示された複数の前記情報表示画面の一覧を含む状態確認画面を表示する状態表示部と、を有するコミュニケーションシステム。
[2]
前記表示制御部は、複数の前記グループに所属するユーザーに紐付けられた第一の端末装置に、前記グループと対応した前記情報表示画面を表示させ、
前記状態表示部は、複数の前記グループを管理するユーザーに紐付けられた第二の端末装置に対して前記状態確認画面を表示させる、付記1記載のコミュニケーションシステム。
[3]
前記言語情報が時系列に表示される領域を第一の領域とし、前記表示された言語情報に基づくコンテンツが表示される領域を第二の領域とした場合に、
前記第一の領域に表示された言語情報の選択を受け付ける操作受付部を有し、
前記表示制御部は、前記操作受付部が選択を受け付けた言語情報に基づくコンテンツを前記第二の領域に表示する、付記1又は2記載のコミュニケーションシステム。
[4]
前記言語情報が時系列に表示される領域を第一の領域とし、前記表示された言語情報に基づくコンテンツが表示される領域を第二の領域とした場合に、
前記第一の領域に表示された言語情報を絞り込むフィルタリング部を有し、
前記表示制御部は、前記フィルタリング部が絞り込んだ前記言語情報のみを前記第一の領域に表示させ、前記フィルタリング部が絞り込んだ前記コンテンツのみを前記第二の領域に表示する、付記1乃至3の何れか一項に記載のコミュニケーションシステム。
[5]
前記第一の領域に存在する言語情報に基づいて前記第二の領域に配置されたコンテンツは、前記言語情報の識別情報と対応付けられており、
前記表示制御部は、前記フィルタリング部が絞り込んだ前記言語情報のみを前記第一の領域に表示した場合に、前記第一の領域に表示された前記言語情報の識別情報と対応付けられているコンテンツのみを前記第二の領域に表示する、付記4記載のコミュニケーションシステム。
[6]
表示されたコンテンツを絞り込むフィルタリング部を有し、
前記状態表示部は、
前記状態確認画面において、前記フィルタリング部によるフィルタリングの要素を選択される選択欄を表示させ、
前記状態確認画面に含まれる前記情報表示画面において、前記選択欄において選択された要素によって前記フィルタリング部が絞り込んだ前記コンテンツを強調表示させる、付記1乃至5の何れか一項に記載のコミュニケーションシステム。
[7]
前記状態表示部は、
前記状態確認画面に含まれる前記情報表示画面の前記言語情報が時系列に表示される領域において、表示された言語情報の表示態様を、前記言語情報を発話した発言者毎に異ならせる、付記1乃至6の何れか一項に記載のコミュニケーションシステム。
[8]
前記状態表示部は、
前記状態確認画面に含まれる前記情報表示画面の前記言語情報が時系列に表示される領域に表示された言語情報に基づき、発言者毎の発言数を示す画像を表示させる、付記1乃至7の何れか一項に記載のコミュニケーションシステム。
[9]
前記言語情報が時系列に表示される領域を第一の領域とし、前記表示された言語情報に基づくコンテンツが表示される領域を第二の領域とした場合に、
前記表示制御部は、
前記第一の領域に存在する言語情報に含まれる各単語の出現頻度に応じて前記単語を示す文字画像の大きさと配置を決定し、
前記大きさと配置に基づき前記単語を示す文字画像を前記第二の領域に表示する、付記1乃至8の何れか一項に記載に記載のコミュニケーションシステム。
[10]
前記表示制御部は、
前記単語同士の関連性に応じて、前記単語を示す文字画像同士を繋ぐ線を前記第二の領域に表示する、付記9記載のコミュニケーションシステム。
[11]
端末装置を、
所定のグループに所属するユーザーに対して音声から変換された言語情報が時系列に表示される領域と、表示された言語情報に基づくコンテンツが表示される領域とを含む前記所定のグループ毎の情報表示画面を表示する表示制御部、
複数の前記グループを管理するユーザーに対して前記グループ毎に表示された複数の前記情報表示画面の一覧を含む状態確認画面を表示する状態表示部、として機能させるためのプログラム。
[12]
所定のグループに所属するユーザーに対して音声から変換された言語情報が時系列に表示される領域と、表示された言語情報に基づくコンテンツが表示される領域とを含む情報表示画面を表示する表示制御部と、
複数の前記グループを管理するユーザーに対して前記グループ毎に表示された複数の前記情報表示画面の一覧を含む状態確認画面を表示する状態表示部と、を有する端末装置。
[13]
所定のグループに所属するユーザーに対して音声から変換された言語情報が時系列に表示される領域と、表示された言語情報に基づくコンテンツが表示される領域とを含む情報表示画面を表示する表示制御部と、
複数の前記グループを管理するユーザーに対して前記グループ毎に表示された複数の前記情報表示画面の一覧を含む状態確認画面を表示する状態表示部と、を有する端末装置と、ネットワークを介して通信する情報処理システムであって、
前記端末装置のユーザーの権限に応じて、前記端末装置に表示させる情報を管理する権限管理部を有し、
前記権限管理部は、複数の前記グループを管理するユーザーに紐付けられた端末装置に対して、前記状態確認画面の表示させる、情報処理システム。
【符号の説明】
【0271】
1A、1B 端末装置
3 情報処理システム
5 ビジュアルコミュニケーションシステム
【先行技術文献】
【特許文献】
【0272】