IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社イトーキの特許一覧 ▶ 学校法人武蔵野大学の特許一覧

<>
  • 特開-情報処理装置、及びプログラム 図1
  • 特開-情報処理装置、及びプログラム 図2
  • 特開-情報処理装置、及びプログラム 図3
  • 特開-情報処理装置、及びプログラム 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024078838
(43)【公開日】2024-06-11
(54)【発明の名称】情報処理装置、及びプログラム
(51)【国際特許分類】
   G06Q 50/10 20120101AFI20240604BHJP
【FI】
G06Q50/10
【審査請求】未請求
【請求項の数】7
【出願形態】OL
(21)【出願番号】P 2022191413
(22)【出願日】2022-11-30
(71)【出願人】
【識別番号】000139780
【氏名又は名称】株式会社イトーキ
(71)【出願人】
【識別番号】502054196
【氏名又は名称】学校法人武蔵野大学
(74)【代理人】
【識別番号】100172502
【弁理士】
【氏名又は名称】黒瀧 眞輔
(74)【代理人】
【識別番号】100092679
【弁理士】
【氏名又は名称】樋口 盛之助
(72)【発明者】
【氏名】大橋 一広
(72)【発明者】
【氏名】秋山 恵
(72)【発明者】
【氏名】小笠原 豊
(72)【発明者】
【氏名】宮前 太一
(72)【発明者】
【氏名】福島 浩介
(72)【発明者】
【氏名】小澤 照
(72)【発明者】
【氏名】中西 崇文
(72)【発明者】
【氏名】岡田 龍太郎
(72)【発明者】
【氏名】大西 力登
(72)【発明者】
【氏名】村上 唯希
(72)【発明者】
【氏名】小宮 和真
【テーマコード(参考)】
5L049
5L050
【Fターム(参考)】
5L049CC12
5L050CC12
(57)【要約】
【課題】 コミュニケーションにおける映像及び/又は音声を付加的な情報と共に一括して出力する情報処理装置、及びプログラムを提供する。
【解決手段】
二以上の参加者によるコミュニケーションを支援又は/及び分析する情報処理装置が、参加者の各々が用いる参加者端末の撮影装置が撮影した映像を表示する映像領域と、参加者端末の音声入力装置に入力された音声に含まれる発話毎に参加者を示す参加者識別情報と共にテキストデータとして表示するトランスクリプション領域を備えるコミュニケーション画面を音声と同期して出力する。
【選択図】 図3


【特許請求の範囲】
【請求項1】
二以上の参加者によるコミュニケーションを支援又は/及び分析する情報処理装置であって、
前記二以上の参加者の各々が用いる参加者端末の撮影装置が撮影した映像を表示する映像領域と、
前記参加者端末の音声入力装置に入力された音声に含まれる前記参加者の発話を、前記発話毎に前記参加者を示す参加者識別情報と共にテキストデータとして表示するトランスクリプション領域と、
を備えるコミュニケーション画面と、
前記音声を同期して出力するコミュニケーション画面出力部
を備えることを特徴とする、情報処理装置。
【請求項2】
前記コミュニケーション画面出力部は、前記トランスクリプション領域に表示された前記参加者の発話が選択された場合に、該選択された発話の時点から前記映像の表示及び前記音声の出力を行う
ことを特徴とする、請求項1記載の映像処理装置。
【請求項3】
前記コミュニケーション画面は、さらに、前記トランスクリプション領域の表示を所定のフィルタ条件により絞り込むフィルタ領域を備え、
前記コミュニケーション画面出力部は、前記フィルタ条件に合致する前記参加者の発話を前記テキストデータとしてトランスクリプション領域に表示する
ことを特徴とする、請求項1記載の情報処理装置。
【請求項4】
前記コミュニケーション画面は、さらに、前記映像及び/又は発話について、一方の軸を前記コミュニケーションにおける時間とし、他方の軸を所定の分析値とするグラフを表示するグラフ領域を備え、
前記コミュニケーション画面出力部は、前記グラフ領域の前記時間軸における任意の位置が選択された場合に、該選択された位置の時点から前記映像の表示及び前記音声の出力を行う
ことを特徴とする、請求項1記載の情報処理装置。
【請求項5】
前記所定の分析値が、前記コミュニケーションにおける前記発話を所定の基準に基づいて分割したフェーズの各々において、新しい語がどれだけ発話されたかを示す鮮度値及び/又は前記コミュニケーションにおける全てのフェーズとの類似度を示す発散・収束値である
ことを特徴とする、請求項4記載の情報処理装置。
【請求項6】
前記所定の分析値が、所定の単位時間における前記参加者の体の動きの大きさ及び/又は多さを示すリアクション値である
ことを特徴とする、請求項4記載の情報処理装置。
【請求項7】
コンピュータを請求項1~6のいずれかに記載の情報処理装置として機能させるプログラム。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は情報処理装置、及びプログラムに関し、具体的にはコミュニケーションにおける映像及び/又は音声を付加的な情報と共に一括して出力する情報処理装置、及びプログラムに関する。
【背景技術】
【0002】
会議や議論その他のコミュニケーションにおいて録音した音声から文字の議事録を作成するいわゆる文字おこしを情報システムを用いて行う装置として、例えば特許文献1の音声認識装置が知られている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2022-121643号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
昨今では、会議や議論等のコミュニケーションを情報システムを用いて行うことが広く行われている。情報システムを用いることで、遠隔地の参加者がコミュニケーションに参加できる他、映像や音声によりコミュニケーションの記録をすることができる。
【0005】
参加者同士がコミュニケーションを行う際、或いは、コミュニケーションの内容を事後的に確認する際には、従来技術により文字おこしした情報や、コミュニケーションの内容を分析した結果その他の付加的な情報を同時に閲覧することで、効率よくコミュニケーションを進める、或いは、効率よく振り返ることができる。しかしながら、従来技術では映像や音声の再生と、文字や分析結果の表示は別個の情報システムを操作して行うことが通常であり、煩雑な操作を要求する要因となっていた。
【0006】
本発明は前述の問題に鑑み、コミュニケーションにおける映像及び/又は音声を付加的な情報と共に一括して出力する情報処理装置、及びプログラムを提供することをその目的とするものである。
【課題を解決するための手段】
【0007】
前述の課題を解決することを課題としてなされた本発明に係る情報処理装置は、二以上の参加者によるコミュニケーションを支援又は/及び分析する情報処理装置であって、前記二以上の参加者の各々が用いる参加者端末の撮影装置が撮影した映像を表示する映像領域と、前記参加者端末の音声入力装置に入力された音声に含まれる前記参加者の発話を、前記発話毎に前記参加者を示す参加者識別情報と共にテキストデータとして表示するトランスクリプション領域と、を備えるコミュニケーション画面と、前記音声を同期して出力するコミュニケーション画面出力部を備えることを特徴としている。
【0008】
本発明に係る情報処理装置は、前記コミュニケーション画面出力部は、前記トランスクリプション領域に表示された前記参加者の発話が選択された場合に、該選択された発話の時点から前記映像の表示及び前記音声の出力を行うようにしてもよい。
【0009】
本発明に係る情報処理装置は、前記コミュニケーション画面は、さらに、前記トランスクリプション領域の表示を所定のフィルタ条件により絞り込むフィルタ領域を備え、前記コミュニケーション画面出力部は、前記フィルタ条件に合致する前記参加者の発話を前記テキストデータとしてトランスクリプション領域に表示するようにしてもよい。
【0010】
本発明に係る情報処理装置は、前記コミュニケーション画面は、さらに、前記映像及び/又は発話について、一方の軸を前記コミュニケーションにおける時間とし、他方の軸を所定の分析値とするグラフを表示するグラフ領域を備え、前記コミュニケーション画面出力部は、前記グラフ領域の前記時間軸における任意の位置が選択された場合に、該選択された位置の時点から前記映像の表示及び前記音声の出力を行うようにしてもよい。
【0011】
本発明に係る情報処理装置は、前記所定の分析値が、前記コミュニケーションにおける前記発話を所定の基準に基づいて分割したフェーズの各々において、新しい語がどれだけ発話されたかを示す鮮度値及び/又は前記コミュニケーションにおける全てのフェーズとの類似度を示す発散・収束値であるようにしてもよい。
【0012】
本発明に係る情報処理装置は、前記所定の分析値が、所定の単位時間における前記参加者の体の動きの大きさ及び/又は多さを示すリアクション値であるようにしてもよい。
【発明の効果】
【0013】
本発明の構成によれば、参加者端末の撮影装置が撮影した映像と、参加者端末の音声入力装置に入力された音声に含まれる発話のテキストデータを表示するコミュニケーション画面に、上記音声が同期して出力されるので、コミュニケーションにおける映像及び/又は音声を付加的な情報と共に一括して出力することができる。
【図面の簡単な説明】
【0014】
図1】本発明の実施形態の一例における情報処理装置の構成を示す図である。
図2】同実施形態の一例における、コミュニケーション画面の構成を示す図である。
図3】同実施形態の一例における、鮮度値、発散・収束値、及び発話量の分析の流れを示すフロー図である。
図4】同実施形態の一例における、コミュニケーション画面の発話を絞り込んだ例を示す図である。
【発明を実施するための形態】
【0015】
以下、本発明の実施形態の一例について、図面を参照しながら説明する。図1は、本発明の実施形態の一例に係る情報処理装置1の構成を示した図である。
【0016】
図1で示すように、本実施形態の一例における情報処理装置1は、コミュニケーション画面出力部11と、映像入力部12と、音声入力部13と、音声出力部14と、トランスクリプション部15と、分析部16と、を備えている。
【0017】
本実施形態の一例における情報処理装置1は、映像入力部12及び音声入力部13から入力されたコミュニケーションの映像及び音声を分析し、映像及び音声と、当該音声を文字に変換したテキストデータ及び所定の分析結果を付加情報として表示する装置である。映像及び音声は、コミュニケーションが行われている最中の映像や音声をリアルタイムで入力するものであってもよいし、或いは、コミュニケーションにおける映像及び音声を記録したものを事後的に入力するものであってもよい。本実施形態の一例では、ネットワーク3を介して通信可能に接続された参加者端末2から映像及び音声を入力し、これを分析して映像及び音声と共に参加者端末2に出力することで、コミュニケーションにおけるリアルタイムの分析を行う例について説明する。
【0018】
なお、本実施形態の一例における情報処理装置1は、ハードウェア構成として周知のサーバ用コンピュータを用いている。サーバ用コンピュータのHDD(Hard Disk Drive)、SSD(Solid State Drive)その他のストレージ装置に記録されたプログラムをメモリにロードし、CPU(中央演算装置)が実行することにより、サーバ用コンピュータを情報処理装置1として機能させるように構成されている。
なお、情報処理装置1のハードウェア構成は任意に選択してよく、性能要求等に応じてサーバ用コンピュータではなく、一般的な据え置き型のパーソナルコンピュータや、ノートブック型コンピュータを使用してもよい。また、情報処理装置1を2台以上のコンピュータで構成してもよい。
【0019】
コミュニケーション画面出力部11は、後述するコミュニケーション画面を出力する。本実施形態の一例では、情報処理装置1は後述するようにネットワーク3を介して参加者端末2と通信可能に接続されており、コミュニケーション画面出力部11は、参加者端末2が備える表示装置21にコミュニケーション画面を出力する。
【0020】
映像入力部12は、コミュニケーションを行う参加者を撮影した映像を入力する。本実施形態の一例では、参加者端末2の撮影装置22により撮影した映像はネットワーク3を介して情報処理装置1に送信される。これを情報処理装置1の映像入力部12が受信することにより、映像の入力が行われる。
【0021】
音声入力部13は、コミュニケーションを行う参加者の発話を含む音声を入力する。本実施形態の一例では、参加者端末2の音声入力装置23に入力された音声はネットワーク3を介して情報処理装置1に送信される。これを情報処理装置1の音声入力部13が受信することにより、音声の入力が行われる。
【0022】
音声出力部14は、前述の音声入力部13が入力した音声を出力する。本実施形態の一例では、参加者の発話を含む音声が前述の音声入力部13に入力される。当該入力された音声を、参加者端末2の音声出力装置22に出力する。
【0023】
トランスクリプション部15は、音声入力部13が入力した音声に含まれる参加者の発話をテキストデータに変換する。トランスクリプション部15により変換されたテキストデータは発話した参加者を示す参加者識別情報と共に前述のコミュニケーション画面出力部11を構成する情報として出力される。
【0024】
分析部16は、映像入力部12に入力された映像、音声入力部13に入力された音声、トランスクリプション部15が変換した文字情報のいずれか1以上を用いて、コミュニケーションに関する所定の分析を行う。
【0025】
参加者端末2は、コミュニケーションを行う参加者が使用する端末である。参加者端末2は、情報処理装置1がコミュニケーション画面を表示するディスプレイその他の表示装置21と、参加者を撮影するカメラその他の撮影装置22と、参加者の発話を音声入力するマイクロフォンその他の音声入力装置23と、情報処理装置1が出力する音声を出力するスピーカその他の音声出力装置24と、キーボードやマウスその他の入力装置25と、後述するネットワーク3を介して情報処理1と通信を行う通信装置26を備えている。
【0026】
参加者端末2は、ハードウェア構成としては周知のコンピュータを用いて構成してよく、上記の装置群を備えているコンピュータであれば、例えば周知のパーソナルコンピュータを用いてもよいし、スマートフォンやタブレット型コンピュータその他の携帯端末を用いてもよい。
【0027】
ネットワーク3は、情報処理装置1と参加者端末2を通信可能に接続するネットワークである。ネットワーク3は周知のネットワークを用いて構成してよく、例えばインターネットその他の広域ネットワークを用いてもよいし、LAN(Local Area Network)を用いてもよい。また、インターネットを用いて構築されたVPN(Virtual Private Network)を用いるようにしてもよい。また、ネットワーク3は有線ネットワークであっても無線ネットワークであってもよく、両者を組み合わせたネットワークであってもよい。
【0028】
本実施形態の一例では、情報処理装置1はいわゆるWEBアプリケーション・サーバとして構成されている。参加者端末2は、参加者端末2が備えるWEBブラウザ(図示しない)を介して情報処理装置1の所定のURL(Unified Resource Locator)にアクセスすることにより、情報処理装置1のコミュニケーション画面出力部11が出力するコミュニケーション画面を参加者端末2の表示装置21に表示する。なお、情報処理装置1が出力するコミュニケーション画面をどのようにして参加者端末2に表示するかは周知の方法を選択してよく、本実施形態の一例のようにWEBブラウザを用いる他、例えば、専用のクライアント・アプリケーション・プログラムを参加者端末2に予めインストールして、当該プログラムを用いるように構成してもよい。
【0029】
以上が情報処理装置1の構成である。次いで、本実施形態の一例における情報処理装置1が出力するコミュニケーション画面について説明する。図2は、本実施形態の一例におけるコミュニケーション画面W1の構成を示す図である。本実施形態の一例におけるコミュニケーション画面W1は、情報処理装置1のコミュニケーション画面出力部によって、参加者端末2の表示装置21に表示される画面であり、図2で示すように、映像領域W2と、トランスクリプション領域W3と、フィルタ領域W4と、グラフ領域W5を備えている。
【0030】
映像領域W2は、参加者の各々を表示する領域である。本実施形態の一例では、前述のように、参加者端末2が備える撮影装置22によって、コミュニケーション中の参加者を撮影する。各々の参加者端末2によって撮影された映像は情報処理装置1に送信され、これを情報処理装置1が一覧表示する映像領域W2として、各参加者端末2のコミュニケーション画面W1に表示する。本実施形態の一例では、前述の音声出力部14によって各参加者端末2に出力される音声は、コミュニケーション画面W1の映像領域W2と同期して出力される。当該構成により、各参加者端末2同士は音声及び映像の相互通信によるコミュニケーションを行うことができる。
【0031】
トランスクリプション領域W3は、前述のトランスクリプション部15が変換したテキストデータW31を表示する領域である。テキストデータW31は、参加者を特定する情報として、参加者識別情報W32及びアイコンW33と共に、参加者の発話毎に時系列順に表示される。なお、本実施形態の一例において、アイコンW33は各参加者を一意に識別できるように色分けされている。また、本実施形態の一例では、トランスクリプション領域W3における任意のテキストデータW31を選択した場合、当該選択したテキストデータW31に該当する発話が行われたタイミングを後述するタイミング表示W54aにより表示する。なお、参加者識別情報W32は、参加者を識別できる情報を任意に選択することができ、本実施形態の一例では氏名をもって参加者識別情報W32として表示する。
【0032】
フィルタ領域W4は、前述のトランスクリプション領域W3に表示されるテキストデータW31を所定の条件によりフィルタリングする操作を行う領域である。本実施形態の一例において、フィルタ領域W4は、話者選択W41と、時間W42と、会話内容W43のフィルタ条件設定フォームを備えている。上記設定フォームに任意の値を設定すると、当該設定した条件に合致するテキストデータW31のみがトランスクリプション領域W3に表示される。また、フィルタ領域W4には、現在設定中の条件を示す現在フィルタW44が表示される。
【0033】
グラフ領域W5は、前述の分析部16が分析した結果である分析値W51と、コミュニケーションにおける時間W52を軸とするグラフW53を表示する。本実施形態の一例において、グラフ領域W5は、縦軸を分析値W51としており、横軸を時間W52としている。図5で示すグラフW53は、コミュニケーションにおける映像及び/又は音声の所定の分析結果として、コミュニケーションにおける発話を所定の基準に基づいて分割したフェーズの各々において新しい語がどれだけ発話されたかを示す鮮度値を分析値W51とするグラフである。
【0034】
また、グラフ領域W5には、映像領域W2に出力された映像がコミュニケーション全体のどのタイミングかを示すタイミング表示W54aが表示される。
【0035】
本実施形態の一例におけるグラフ領域W5では、上記の鮮度値の他、上記フェーズの各々における全フェーズとの類似度を示す発散・収束値と、上記フェーズの各々における発話量と、所定の単位時間における参加者の体の動きの大きさ及び/又は多さを示すリアクション値の何れかを選択的に分析値W51として表示する。
【0036】
図3は、本実施形態の一例における、鮮度値及び発散・収束値の分析の流れを示すフロー図である。図3で示すように、本実施形態の一例では、分析のフローが発散・収束分析(ステップS11~S15)と、鮮度分析(ステップS21~S24)の行程から構成されている。
【0037】
本実施形態の一例における鮮度値及び発散・収束値の分析では、コミュニケーションの発話内容を所定の基準に基づいて複数のフェーズに分割する(ステップS11)。所定の基準は任意に選択してよく、例えば、1分や5分等を単位時間として所定の基準に用いてよいし、所定の発言数を所定の基準としてもよい。或いは、コミュニケーション中の発話を、各フェーズ間で等しい発言量となるように所定数のフェーズに分割するようにしてもよい。
【0038】
なお、前述のとおり、コミュニケーションの発話内容は音声入力部13に入力され、トランスクリプション部15によってテキストデータに変換されている。本実施形態の一例における分析部16は、トランスクリプション部15が変換したテキストデータを用いて分析処理を行うが、音声入力部13に入力された音声を直接分析するようにしてもよい。
【0039】
次いで、分析部16は、各フェーズにおける発話から所定の品詞に該当する単語を抽出する(ステップS12)。本実施形態の一例では、各フェーズにおける各発話のそれぞれを形態素解析し、当該解析した結果から名詞を上記単語として抽出する。なお、本実施形態の一例では名詞を抽出しているが、他の品詞を抽出してもよく、例えば形容詞を抽出してよい。また、単一種類の品詞だけでなく、複数の品詞を抽出対象としてもよい。例えば、名詞と形容詞を抽出するようにしてもよい。
【0040】
また、本実施形態の一例ではフェーズ分割(ステップS11)の後に単語抽出(ステップS12)を行っているが、当該ステップS11,S12の順序を逆にして、単語抽出の後にフェーズ分割を行うようにしてもよい。この場合、フェーズ分割を行う前に所定の基準による単語の抽出が完了しているので、例えば抽出した単語の数等をフェーズ分割の基準として用いてもよい。
【0041】
各フェーズにおいて単語の抽出が完了すると、単語重み付け手段による単語の重み付けが行われる(ステップS13)。重み付けの方法は任意に選択してよいが、本実施形態の一例では、一のフェーズにおける発言全体を一の文書としてTF-IDFによる重み付けを行う。
【0042】
次いで、分析部16は、各フェーズのベクトルを算出する(ステップS14)。前述の通り、本実施形態の一例では各フェーズにおける発言から名詞を単語として抽出し、当該抽出した単語の重み付けを行っており、全フェーズの出現単語数を次元数とするベクトルとして、各フェーズのベクトルを算出する。
【0043】
前フェーズについて前記のベクトルを算出すると、分析部16は、次いで、各フェーズ同士の類似度を発散・収束値として出する(ステップS15)。本実施形態の一例では各フェーズを出現単語の重みによるベクトルとして算出しており、ベクトル同士の類似度としてコサイン尺度を算出している。
【0044】
以上がステップS11~S15による発散・収束度分析行程である。次に、鮮度分析行程(ステップS21~S24)について説明する。鮮度分析行程は、発散・収束度分析行程において解析した各フェーズの発言内容にもとづいて、各フェーズにおけるトピック語の数を鮮度値として算出する行程である。
【0045】
本実施形態の一例では、前述のステップS15により、各フェーズ間の類似度を発散・収束値として算出している。この類似度に基づいて、分析部16は各フェーズをクラスタリングする(ステップS21)。本実施形態の一例では、各フェーズ間の類似度が所定のしきい値εを上回った場合に、両者のフェーズを同一クラスタに属するものとして、クラスタ数が最大になるしきい値εを算出する。他のフェーズとの類似度がしきい値εを上回らないフェーズについては、クラスタに属さないフェーズとして分類する。
【0046】
全フェーズについてクラスタ分類が完了すると、次いで、各クラスタのトピック語を抽出する(ステップS22、S23)。トピック語は各クラスタの発言内容を特徴づける単語であり、本実施形態の一例では、各クラスタのトピック語を抽出し(ステップS22)、次いで、各フェーズにおいて、当該フェーズが属するクラスタのトピック語の内、当該フェーズで出現したトピック語を抽出する(ステップS23)。トピック語の抽出には、クラスタに分類されたフェーズにおいて前述のステップS13により算出した各単語の重みを用いる。トピック語の抽出数は最大20であり、一のクラスタ、すなわち、一のクラスタに属するフェーズすべてにおける出現単語のうち、上記重みの値が大きい順に最大20語の単語を抽出する。各クラスタのトピック語が抽出された後は、各フェーズにおいて、当該フェーズで出現したトピック語を抽出する。なお、本実施形態の一例ではトピック語を最大20語抽出しているが、抽出する語の数は任意に変更してよい。
【0047】
各フェーズにおけるトピック語の抽出が完了すると、分析部16は、各フェーズの各々において抽出したトピック語の数を鮮度として算出する(ステップS24)。前述のとおり、本実施形態の一例において、コミュニケーションを分割したフェーズの各々における新しい話題が発生した度合いが鮮度であり、分析部16は、上記形状したトピック語の数をもって、各フェーズの鮮度として算出する。
【0048】
前述のとおり、本実施形態の一例では、コミュニケーションにおける映像及び音声がリアルタイムで情報処理装置1に入力され、これを逐次的に分析して出力する。ステップS11~S15及びステップS21~S24の各処理は、コミュニケーションにおける発言がフェーズ分割されるタイミングで繰り返し実行され、当該実行されるごとに前述のグラフ領域W5が更新されるように構成されている。なお、リアルタイムでの分析ではなく、コミュニケーションの映像・音声記録を分析する場合には、上記分析処理は映像、音声の入力がなされた後に1回行うように構成してよい。
【0049】
また、本実施形態の一例における発話量は、上記フェーズ又は所定の単位時間における参加者の発話量である。本実施形態の一例では鮮度値及び発散・収束値を算出する上でコミュニケーションを所定の基準によりフェーズ分割しており、発話量は、当該分割されたフェーズの各々における発話量であってもよいし、或いは、1分や5分等、フェーズ分割の基準とは異なる所定の単位時間ごとの発話量であってもよい。フェーズごとの発話量を算出する場合、前述のステップS11によるフェーズ分割処理に続いて、各フェーズの発話量を算出する処理を行うようにしてもよい。
【0050】
リアクション値は、所定の単位時間における参加者の体の動きの大きさ及び/又は多さを示す分析値である。前述の鮮度値、発散・収束値、及び発話量は音声入力部13に入力された音声、又は当該音声を変換した文字情報を分析した分析値であるが、リアクション値は映像入力部12に入力された映像を分析した分析値である。当該映像から画像認識処理によって参加者の体の動きを認識し、当該認識した参加者の体の動きの大きさ及び/又は多さを数値として算出したものがリアクション値である。リアクション値は所定の単位時間ごとに算出されて、グラフ領域W5に表示される。所定の単位時間は、前述の発話量における所定の単位時間と同一であってもよいし、異なっていてもよい。
【0051】
コミュニケーション画面W5では、前述のように、フィルタ領域W4を用いて表示する発話を絞り込むことができる。図4は、本実施形態の一例における、コミュニケーション画面の発話を絞り込んだ例を示す図である。前述のように、本実施形態の一例では、コミュニケーション画面W1のフィルタ領域W4が、話者選択W41と、時間W42と、会話内容W43のフィルタ条件設定フォームを備えており、図4は話者選択W41を用いて、話者、すなわち発言を行った参加者による絞り込みを行った例を示す図である。
【0052】
図4で示すように、フィルタ領域W4においてフィルタ条件を設定すると、当該設定したフィルタ条件に合致する発言のみがトランスクリプション領域W3に表示されると共に、トランスクリプション領域W3に表示された発話がコミュニケーション中のどのタイミングで行われたかを示すタイミング表示W54bが表示される。タイミング表示W54bは、トランスクリプション領域W3に表示された発話ごとに、当該発話に対応するテキストデータW31にアイコンW33と同色の帯形状に描画される。
【0053】
本実施形態の一例の説明は以上である。なお、本発明の実施形態はこれに限られない。本実施形態の一例はコミュニケーションをリアルタイムに分析して出力する例を説明したが、前述のとおり、情報処理装置1の映像入力部12及び音声入力部13により入力する映像及び音声は、記録されたものを事後的に入力するものであってもよい。この場合、情報処理装置1のコミュニケーション画面出力部11及び音声出力部14が出力するコミュニケーション画面及び音声は、参加者端末2ではなく、情報処理装置1や、コミュニケーションの振り返り作業を行う作業者の端末に出力するように構成してよい。この場合、例えばトランスクリプション領域W3で任意のテキストデータW31を選択した場合、或いは、グラフ領域W5で任意のタイミングを指定した場合に、当該選択したテキストデータW31の発話が行われたタイミング、或いは、指定したタイミングから映像及び音声を出力するようにして、映像及び音声の再生をスキップできるようにしてもよい。
【0054】
その他の具体的な構成についても上記の実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲でさまざまな変更が可能である。
【符号の説明】
【0055】
1 情報処理装置
11 コミュニケーション画面出力部
12 映像入力部
13 音声入力部
14 音声出力部
15 トランスクリプション部
16 分析部

図1
図2
図3
図4