(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2025-04-16
(45)【発行日】2025-04-24
(54)【発明の名称】ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
(51)【国際特許分類】
G06T 7/00 20170101AFI20250417BHJP
【FI】
G06T7/00 660A
(21)【出願番号】P 2022518704
(86)(22)【出願日】2021-02-02
(86)【国際出願番号】 JP2021003792
(87)【国際公開番号】W WO2022168175
(87)【国際公開日】2022-08-11
【審査請求日】2024-01-30
(73)【特許権者】
【識別番号】520408744
【氏名又は名称】株式会社I’mbesideyou
(74)【代理人】
【識別番号】110002790
【氏名又は名称】One ip弁理士法人
(72)【発明者】
【氏名】神谷 渉三
【審査官】山田 辰美
(56)【参考文献】
【文献】特開2020-155944(JP,A)
【文献】特開2016-206261(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00-7/90
(57)【特許請求の範囲】
【請求項1】
第1のユーザと1又は複数の第2のユーザとのそれぞれが撮影された動画像を取得する取得手段と、
前記動画像内に含まれる前記第1及び第2のユーザの少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記第1及び第2のユーザの少なくとも音声を認識する音声認識手段と、
認識した前記顔画像及び前記音声の双方を解析して、前記第1及び第2のユーザのそれぞれについて所定の感情の大きさに関する評価値を算出する評価手段と、
前記第1のユーザについての前記評価値の変化のパターンと同一のパターンの前記評価値の変化が算出された前記第2のユーザを特定する特定手段と、を備える
動画像分析システム。
【請求項2】
請求項1に記載の動画像分析システムであって、
前記第1のユーザについての前記評価値を時系列に沿ったグラフ情報として出力する出力手段を備え、
前記特定手段は、分析ユーザから当該グラフ情報の一部の選択操作を受け付け、当該選択操作がされた部分のグラフパターンと同一のグラフパターンを含む前記評価値の変化が算出された前記第2のユーザを特定する、
動画像分析システム。
【請求項3】
請求項1又は請求項2に記載の動画像分析システムであって、
前記特定手段は、同一の時間帯における
前記評価値の変化のパターンと同一のパターンを含む前記評価値の変化が算出された前記第2のユーザを特定する
動画像分析システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラムに関する。
【背景技術】
【0002】
従来、発言者の発言に対して他者が受ける感情を解析する技術が知られている(例えば、特許文献1参照)。また、対象者の表情の変化を長期間にわたり時系列的に解析し、その間に抱いた感情を推定する技術も知られている(例えば、特許文献2参照)。さらに、感情の変化に最も影響を与えた要素を特定する技術も知られている(例えば、特許文献3~5参照)。さらにまた、対象者の普段の表情と現在の表情とを比較して、表情が暗い場合にアラートを発する技術も知られている(例えば、特許文献6参照)。また、対象者の平常時(無表情時)の表情と現在の表情とを比較して、対象者の感情の度合いを判定するようにした技術も知られている(例えば、特許文献7~9参照)。更に、また、組織としての感情や、個人が感じるグループ内の雰囲気を分析する技術も知られている(例えば、特許文献10、11参照)。
【先行技術文献】
【特許文献】
【0003】
【文献】特開2019-58625号公報
【文献】特開2016-149063号公報
【文献】特開2020-86559号公報
【文献】特開2000-76421号公報
【文献】特開2017-201499号公報
【文献】特開2018-112831号公報
【文献】特開2011-154665号公報
【文献】特開2012-8949号公報
【文献】特開2013-300号公報
【文献】特開2011-186521号公報
【文献】WO15/174426号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述したすべての技術は、現実空間におけるコミュニケーションが主である状況におけるサブ的な機能にすぎない。即ち、昨今の業務のDX(Digital Transformation)化や、世界的な感染症の流行等を受け、業務や授業等のコミュニケーションがオンラインで行われることが主とされる状況に生まれたものではない。
【0005】
本発明は、オンラインコミュニケーションが主となる状況において、より効率的なコミュニケーションを行うために、交わされたコミュニケーションを客観的に評価することを目的とする。
【課題を解決するための手段】
【0006】
本発明によれば、
対象者を撮影することによって得られる動画像を取得するカメラ部と、
取得した前記動画像に基づいて前記対象者の目線の動きを取得する視線取得部と、
前記対象者に複数の画像を連続して表示するディスプレイ部と、
前記カメラ部と、前記ディスプレイ部との位置関係を取得する位置取得部と、
表示した複数の前記画像ごとに前記目線の動きを関連付けて出力する出力部と、
が得られる。
【0007】
また、本発明によれば、
少なくとも動画像を取得する取得手段と、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記対象者の少なくとも音声を認識する音声認識手段と、
認識した前記顔画像及び前記音声の双方に基づいて所定の観点による評価値を算出する評価手段と、
前記評価値を時系列に沿った変化情報として出力する出力手段と、
他の動画像に関する他の変化情報を参照して、前記変化情報から抽出されるパターンと同一のパターンを含む他の動画像を特定する特定手段と、を備える
動画像分析システム。
が得られる。
【0008】
また、本発明によれば、
少なくとも二のユーザ端末間において実施されたビデオセッションに関する動画像を取得する取得手段と、
前記動画像に含まれるユーザの顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記ユーザの少なくとも音声を認識する音声認識手段と、
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前記評価値を時系列に沿った変化情報として記憶する記憶手段と、
複数の前記観点のうち、一の前記観点における前記評価値のみが所定範囲を超えて変化したことを検知する検知手段と、
前記検知された範囲を含む特異フレームを取得する特異フレーム取得手段と、を備える、
動画像分析システム。
が得られる。
【0009】
また、本発明によれば、
少なくとも二のユーザ端末間において実施されたビデオセッションに関する動画像を取得する取得手段と、
前記動画像に含まれるユーザの顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記ユーザの少なくとも音声を認識する音声認識手段と、
認識した前記顔画像に基づいて複数の観点による表情評価値を算出する表情評価手段と、
認識した前記音声に基づいて複数の観点による音声評価値を算出する音声評価手段と、
少なくとも一の前記ユーザの前記表情評価値と前記音声評価値との相関関係を評価する表情音声相関評価手段と、
前記表情評価値と前記音声評価値とが前記相関関係から所定範囲を超えて変化したことを検知する検知手段と、
前記検知された範囲を含む特異フレームを取得する特異フレーム取得手段と、を備える、
動画像分析システム。
が得られる。
【0010】
また、本発明によれば、
少なくとも二のユーザ端末間において実施されたビデオセッションに関する動画像を取得する取得手段と、
前記動画像に含まれるユーザの顔画像を所定のフレームごとに認識する顔認識手段と、
認識した前記顔画像から、前記ユーザの標準的な表情を分析すると共に、当該ユーザにおける標準的な表情からの乖離度合いを評価するエモーション評価手段と、
認識した前記顔画像から、前記ユーザの少なくとも瞳の動き又は顔の動きの量を評価するコンセントレーション評価手段と、
認識した前記顔画像から、前記ユーザの不安に関する感情を評価するセーフティ評価手段と、
前記エモーション評価手段、前記コンセントレーション評価手段、前記セーフティ評価手段のうち二以上の評価に基づいてスコアを生成するスコア生成手段と、を備える、
動画像分析システム。
が得られる。
【0011】
また、本発明によれば、
他の端末との間で行われるビデオセッションの動画像を取得する取得手段と、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
複数の前記ビデオセッションに関する前記動画像の夫々から、前記対象者が認識された対象者フレームを特定する対象者特定手段と、
複数の前記対象者フレームを連結してダイジェスト動画を生成するダイジェスト生成動画手段を更に備える、
動画分析システム。
が得られる。
【0012】
また、本発明によれば、
他の端末との間で行われるビデオセッションの動画像を取得する取得手段と、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
認識した前記顔画像から、前記ユーザの少なくとも瞳の動き及び顔の動きの量を夫々評価する評価手段と、
前記評価に基づいて、集中度に関するスコアを算出するスコア算出手段と、を備える
動画像分析システム。
が得られる。
【0013】
また、本発明によれば、
他の端末との間で行われるビデオセッションの動画像を取得する取得手段と、
前記動画像内に含まれるユーザの少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記ユーザの少なくとも音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
同一のユーザに対して、第1の期間において前記評価値を分析した第1評価分析値と、前記第1の期間よりも長い第2の期間において前記評価値を分析した第2評価分析値とに基づいて前記ユーザの状態を評価する状態評価手段と、を備える、
動画像分析システム。
が得られる。
【0014】
また、本発明によれば、
他の端末との間で行われるビデオセッションの動画像を取得する取得手段と、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記ユーザの少なくとも音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前記複数の観点に基づいて作成された質問情報に対する、前記ユーザの回答情報を取得する回答取得手段と、
前記評価値と、前記回答情報とを比較して前記ユーザの状態を評価する、
状態評価システム。
が得られる。
【0015】
また、本発明によれば、
他の端末との間で行われるビデオセッションの動画像を取得する取得手段と、
前記動画像内に含まれるユーザの少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記対象者の少なくとも音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前記評価値に対して、前記ユーザからアノテーションを受け付けるアノテーション受付手段と、
前記評価値と、受け付けた前記アノテーションとを同時に表示する表示手段とを備えた
ビデオセッション評価システム。
が得られる。
【0016】
また、本発明によれば、
営業側担当者の営業側端末と、営業先担当者の営業先端末との間で行われる営業ビデオセッションの動画像を取得する動画取得手段と、
前記営業ビデオセッションの成約情報を取得する成約情報取得手段と、
前記動画像内に含まれる前記営業側担当者又は営業先担当者の少なくともいずれかの顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記営業側担当者又は営業先担当者の少なくともいずれかの音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前記評価値と前記成約情報とを教師データとして、他の営業ビデオセッションの動画像の前記成約率を複数のランクとして推定する成約推定モデルを生成するモデル生成手段と、
前記モデルを利用して新規の営業ビデオセッションに複数の前記ランクのいずれかを関連付ける判定手段と、を備える、
ビデオセッション評価システム。
が得られる。
【0017】
また、本発明によれば、
講師ユーザの少なくとも顔を映すための講師側カメラを有する講師端末と;当該講師端末とネットワークを介して通信可能に接続された受講者端末であって受講者の少なくとも顔を映すための受講者側顔カメラ及び当該受講者の手元を映すための手元カメラを有する受講者端末と;の間で行われるビデオセッションの動画像を取得する取得手段と、
少なくとも前記手元カメラから取得された前記動画像内における前記受講者の手元の動作を所定のフレームごとに認識する手元動作認識手段と、
認識された前記手元の動作に基づいて、前記受講者の理解度を推定する推定手段と、
を備える、
ビデオセッション評価システム。
が得られる。
【発明の効果】
【0018】
本開示によれば、ビデオセッションの動画像を分析評価することにより、特に内容に関する評価を客観的に行うことができる。
【0019】
特に、本発明によれば、オンラインコミュニケーションが主となる状況において、より効率的なコミュニケーションを行うために、交わされたコミュニケーションを客観的に評価することができる。
【図面の簡単な説明】
【0020】
【
図1】本発明の実施の形態によるシステム全体図を示す図である。
【
図2】本発明の実施の形態による端末の構成例を示す図である。
【
図3】本発明の実施の形態による評価端末の機能ブロック図の一例である。
【
図4】本発明の実施の形態による評価端末の機能構成例1を示す図である。
【
図5】本発明の実施の形態による評価端末の機能構成例2を示す図である。
【
図6】本発明の実施の形態による評価端末の機能構成例3を示す図である。
【
図7】
図6の機能構成例3による画面表示例である。
【
図8】
図6の機能構成例3による他の画面表示例である。
【
図9】本発明の実施の形態による評価端末の機能構成例3の他の構成を示す図である。
【
図10】本発明の実施の形態による評価端末の機能構成例3の他の構成を示す図である。
【
図11】本発明の第1の実施の形態によるシステムのヒートマップを示す図である。
【
図12】本発明の第1の実施の形態によるシステムのキャリブレーションのイメージを示す図である。
【
図13】本発明の第2の実施の形態によるシステムのグラフの比較図である。
【
図14】本発明の第2の実施の形態によるシステムの他のグラフの比較図である。
【
図15】本発明の第3の実施の形態によるシステムのグラフを示す図である。
【
図16】本発明の第3の実施の形態によるシステムの他のグラフを示す図である。
【
図17】本発明の第4の実施の形態によるシステムの他のグラフを示す図である。
【
図18】本発明の第4の実施の形態によるシステムの評価のイメージを示す図である。
【
図19】本発明の第6の実施の形態によるシステムの評価のイメージを示す図である。
【
図20】本発明の第6の実施の形態によるシステムの評価のイメージを示す図である。
【
図21】本発明の第8の実施の形態によるシステムの評価のイメージを示す図である。
【
図22】本発明の第10の実施の形態によるシステムの評価のイメージを示す図である。
【
図23】本発明の第12の実施の形態によるシステムの評価のイメージを示す図である。
【発明を実施するための形態】
【0021】
本開示の実施形態の内容を列記して説明する。本開示は、以下のような構成を備える。
[項目1]
対象者を撮影することによって得られる動画像を取得するカメラ部と、
取得した前記動画像に基づいて前記対象者の目線の動きを取得する視線取得部と、
前記対象者に複数の画像を連続して表示するディスプレイ部と、
前記カメラ部と、前記ディスプレイ部との位置関係を取得する位置取得部と、
表示した複数の前記画像ごとに前記目線の動きを関連付けて出力する出力部と、
を備える、視線評価システム。
[項目2]
項目1に記載の視線評価システムであって、
前記出力部は、前記画像に前記目線の動きに基づいて生成された注視時間を示すヒートマップを重ねて出力する、
視線評価システム
[項目3]
項目1に記載の視線評価システムであって、
前記出力部は、同一の前記画像を表示した他の対象者の前記目線の動きを更に関連付けて出力する、
視線評価システム
[項目4]
項目3に記載の視線評価システムであって、
前記対象者に関連付けられた前記目線の動きが、前記他の対象者に関連付けられた前記目線の動きと比べて特異的か否かを判定する特異判定部を更に備える、
視線評価システム。
[項目5]
項目1乃至項目4のいずれかに記載の視線評価システムであって、
前記出力部は、前記画像ごとに複数の前記対象者の前記目線の動きを平準化して得られる平準化ヒートマップを関連付けて出力する、
視線評価システム。
[項目6]
少なくとも動画像を取得する取得手段と、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記対象者の少なくとも音声を認識する音声認識手段と、
認識した前記顔画像及び前記音声の双方に基づいて所定の観点による評価値を算出する評価手段と、
前記評価値を時系列に沿った変化情報として出力する出力手段と、
他の動画像に関する他の変化情報を参照して、前記変化情報から抽出されるパターンと同一のパターンを含む他の動画像を特定する特定手段と、を備える
動画像分析システム。
[項目7]
項目6に記載の動画像分析システムであって、
前記出力手段は、前記評価値を時系列に沿ったグラフ情報として出力し、
前記特定手段は、分析ユーザから当該グラフ情報の一部の選択操作を受け付け、当該選択操作がされた部分のグラフパターンと同一のグラフパターンを含む他の動画像の対応するフレームを特定する特定手段と、を備える
動画像分析システム。
[項目8]
項目6又は項目7に記載の動画像分析システムであって、
前記特定手段は、同一の時間帯における前記変化情報から抽出されるパターンと同一のパターンを含む他の前記動画像を特定する
動画像分析システム。
[項目9]
少なくとも二のユーザ端末間において実施されたビデオセッションに関する動画像を取得する取得手段と、
前記動画像に含まれるユーザの顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記ユーザの少なくとも音声を認識する音声認識手段と、
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前記評価値を時系列に沿った変化情報として記憶する記憶手段と、
複数の前記観点のうち、一の前記観点における前記評価値のみが所定範囲を超えて変化したことを検知する検知手段と、
前記検知された範囲を含む特異フレームを取得する特異フレーム取得手段と、を備える、
動画像分析システム。
[項目10]
項目9に記載の動画像分析システムであって、
前記複数の観点は、互いに相反する属性が関連付けられた第1の観点及び第2の観点を含むものであり、
前記検知手段は、前記第1の観点による前記評価値と前記第2の観点による前記評価値とが前記所定範囲を超えて乖離したことを検知する、
動画像分析システム。
[項目11]
項目9に記載の動画像分析システムであって、
前記検知手段は、前記第1の時点を経過後の所定時間内に、一の前記観点における前記評価値が所定範囲を超えて変化し且つ直後に前記第1の時点における評価値と略同一の値に戻ったことを検知する、
動画像分析システム。
[項目12]
項目9乃至項目11のいずれかに記載の動画像分析システムであって、
前記動画像内から取得された複数の前記特異フレームを連結してダイジェスト動画を生成するダイジェスト生成動画手段を更に備える、
動画分析システム。
[項目13]
項目9乃至項目12のいずれかに記載の動画像分析システムであって、
前記特異フレームに対応する前記音声をテキストに変換して出力する特異フレーム対応テキスト出力手段を更に備える、
動画像分析システム。
[項目14]
項目9乃至項目13のいずれかに記載の動画像分析システムであって、
前記ビデオセッションは、一のユーザ端末の画面に表示された画面情報を共有することが可能であり、
少なくとも共有された前記特異フレームに対応する前記画面情報を出力する共有画面出力手段を更に備える、
動画像分析システム。
[項目15]
少なくとも二のユーザ端末間において実施されたビデオセッションに関する動画像を取得する取得手段と、
前記動画像に含まれるユーザの顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記ユーザの少なくとも音声を認識する音声認識手段と、
認識した前記顔画像に基づいて複数の観点による表情評価値を算出する表情評価手段と、
認識した前記音声に基づいて複数の観点による音声評価値を算出する音声評価手段と、
少なくとも一の前記ユーザの前記表情評価値と前記音声評価値との相関関係を評価する表情音声相関評価手段と、
前記表情評価値と前記音声評価値とが前記相関関係から所定範囲を超えて変化したことを検知する検知手段と、
前記検知された範囲を含む特異フレームを取得する特異フレーム取得手段と、を備える、
動画像分析システム。
[項目16]
項目15に記載の動画像分析システムであって、
前記表情評価値と前記音声評価値とのそれぞれに対応する属性を関連付ける属性評価手段を更に備えており、
前記検知手段は、前記表情評価値の前記属性と、前記音声評価値の前記属性とが互いに相反していることを検知する、
動画像分析システム。
[項目17]
項目15又は項目16のいずれかに記載の動画像分析システムであって、
前記動画像内から取得された複数の前記特異フレームを連結してダイジェスト動画を生成するダイジェスト生成動画手段を更に備える、
動画分析システム。
[項目18]
項目15乃至項目17のいずれかに記載の動画像分析システムであって、
前記特異フレームに対応する前記音声をテキストに変換して出力する特異フレーム対応テキスト出力手段を更に備える、
動画像分析システム。
[項目19]
項目15乃至項目18のいずれかに記載の動画像分析システムであって、
前記ビデオセッションは、一のユーザ端末の画面に表示された画面情報を共有することが可能であり、
少なくとも共有された前記特異フレームに対応する前記画面情報を出力する共有画面出力手段を更に備える、
動画像分析システム。
[項目20]
少なくとも二のユーザ端末間において実施されたビデオセッションに関する動画像を取得する取得手段と、
前記動画像に含まれるユーザの顔画像を所定のフレームごとに認識する顔認識手段と、
認識した前記顔画像から、前記ユーザの標準的な表情を分析すると共に、当該ユーザにおける標準的な表情からの乖離度合いを評価するエモーション評価手段と、
認識した前記顔画像から、前記ユーザの少なくとも瞳の動き又は顔の動きの量を評価するコンセントレーション評価手段と、
認識した前記顔画像から、前記ユーザの不安に関する感情を評価するセーフティ評価手段と、
前記エモーション評価手段、前記コンセントレーション評価手段、前記セーフティ評価手段のうち二以上の評価に基づいてスコアを生成するスコア生成手段と、を備える、
動画像分析システム。
[項目21]
他の端末との間で行われるビデオセッションの動画像を取得する取得手段と、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
複数の前記ビデオセッションに関する前記動画像の夫々から、前記対象者が認識された対象者フレームを特定する対象者特定手段と、
複数の前記対象者フレームを連結してダイジェスト動画を生成するダイジェスト生成動画手段を更に備える、
動画分析システム。
[項目22]
他の端末との間で行われるビデオセッションの動画像を取得する取得手段と、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
認識した前記顔画像から、前記ユーザの少なくとも瞳の動き及び顔の動きの量を夫々評価する評価手段と、
前記評価に基づいて、集中度に関するスコアを算出するスコア算出手段と、を備える
動画像分析システム。
[項目23]
他の端末との間で行われるビデオセッションの動画像を取得する取得手段と、
前記動画像内に含まれるユーザの少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記ユーザの少なくとも音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
同一のユーザに対して、第1の期間において前記評価値を分析した第1評価分析値と、前記第1の期間よりも長い第2の期間において前記評価値を分析した第2評価分析値とに基づいて前記ユーザの状態を評価する状態評価手段と、を備える、
動画像分析システム。
[項目24]
項目23に記載の動画像分析システムであって、
前記第2評価分析値に関して所定のトレンドを検出するトレンド検出手段と、
検出したトレンドに応じて、前記第1評価分析値を補正する補正手段と、を備える、
動画分析システム。
[項目25]
他の端末との間で行われるビデオセッションの動画像を取得する取得手段と、
前記動画像内に含まれる対象者の少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記ユーザの少なくとも音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前記複数の観点に基づいて作成された質問情報に対する、前記ユーザの回答情報を取得する回答取得手段と、
前記評価値と、前記回答情報とを比較して前記ユーザの状態を評価する、
状態評価システム。
[項目26]
項目25に記載の状態評価システムであって、
同一の組織に所属するすべての前記ユーザの前記状態に基づいて、組織状態をスコアリングする組織スコアリング手段を更に備える、
状態評価システム。
[項目27]
他の端末との間で行われるビデオセッションの動画像を取得する取得手段と、
前記動画像内に含まれるユーザの少なくとも顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記対象者の少なくとも音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前記評価値に対して、前記ユーザからアノテーションを受け付けるアノテーション受付手段と、
前記評価値と、受け付けた前記アノテーションとを同時に表示する表示手段とを備えた
ビデオセッション評価システム。
[項目28]
項目27に記載のビデオセッション評価システムであって、
前記評価値を時系列に沿ったグラフ情報として出力するグラフ出力手段を更に備え、
前記表示手段は、前記グラフ情報に前記アノテーションを重畳して表示する、
ビデオセッション評価システム。
[項目29]
営業側担当者の営業側端末と、営業先担当者の営業先端末との間で行われる営業ビデオセッションの動画像を取得する動画取得手段と、
前記営業ビデオセッションの成約情報を取得する成約情報取得手段と、
前記動画像内に含まれる前記営業側担当者又は営業先担当者の少なくともいずれかの顔画像を所定のフレームごとに認識する顔認識手段と、
前記動画像内に含まれる前記営業側担当者又は営業先担当者の少なくともいずれかの音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前記評価値と前記成約情報とを教師データとして、他の営業ビデオセッションの動画像の前記成約率を複数のランクとして推定する成約推定モデルを生成するモデル生成手段と、
前記モデルを利用して新規の営業ビデオセッションに複数の前記ランクのいずれかを関連付ける判定手段と、を備える、
ビデオセッション評価システム。
[項目30]
項目29に記載のビデオセッション評価システムであって、
組織内において、推定された前記営業ビデオセッションにかかる取引金額と、前記ランクとに基づいて、所定期間における期待される営業数値を算出する期待値算出手段を更に備える、
ビデオセッション評価システム。
[項目31]
講師ユーザの少なくとも顔を映すための講師側カメラを有する講師端末と;当該講師端末とネットワークを介して通信可能に接続された受講者端末であって受講者の少なくとも顔を映すための受講者側顔カメラ及び当該受講者の手元を映すための手元カメラを有する受講者端末と;の間で行われるビデオセッションの動画像を取得する取得手段と、
少なくとも前記手元カメラから取得された前記動画像内における前記受講者の手元の動作を所定のフレームごとに認識する手元動作認識手段と、
認識された前記手元の動作に基づいて、前記受講者の理解度を推定する推定手段と、
を備える、
ビデオセッション評価システム。
[項目32]
項目31に記載のビデオセッション評価システムであって、
前記動画像内に含まれる前記受講者の少なくとも音声を認識する音声認識手段と
認識した前記顔画像及び前記音声の双方に基づいて複数の観点による評価値を算出する評価手段と、
前期推定手段は、前記手元の動作と前記評価値とに基づいて、前記受講者の理解度を推定する、
ビデオセッション評価システム。
[項目33]
項目31又は項目32に記載のビデオセッション評価システムであって、
前記推定手段は、認識された前記手元の動作の量に応じて前記受講者の理解度を推定する、
ビデオセッション評価システム。
[項目34]
項目31乃至項目33のいずれかに記載のビデオセッション評価システムであって、
前記推定手段は、受講者側顔カメラによって受講者の顔が映っていない場合であって、かつ前記手元カメラから前記受講者の手の動きが認識されない場合にアラートを発するアラート手段を更に有する、
ビデオセッション評価システム。
【0022】
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0023】
<基本機能>
本実施形態のビデオセッション評価システムは、複数人でビデオセッション(以下、一方向及び双方向含めてオンラインセッションという)が行われる環境において、当該複数人の中の解析対象者について他者とは異なる特異的な感情(自分または他人の言動に対して起こる気持ち。快・不快またはその程度など)を解析し評価するシステムである。
【0024】
オンラインセッションは、例えばオンライン会議、オンライン授業、オンラインチャットなどであり、複数の場所に設置された端末をインターネットなどの通信ネットワークを介してサーバに接続し、当該サーバを通じて複数の端末間で動画像をやり取りできるようにしたものである。
【0025】
オンラインセッションで扱う動画像には、端末を使用するユーザの顔画像や音声が含まれる。また、動画像には、複数のユーザが共有して閲覧する資料などの画像も含まれる。各端末の画面上に顔画像と資料画像とを切り替えて何れか一方のみを表示させたり、表示領域を分けて顔画像と資料画像とを同時に表示させたりすることが可能である。また、複数人のうち1人の画像を全画面表示させたり、一部または全部のユーザの画像を小画面に分割して表示させたりすることが可能である。
【0026】
端末を使用してオンラインセッションに参加する複数のユーザのうち、何れか1人または複数人を解析対象者として指定することが可能である。例えば、オンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)が何れかのユーザを解析対象者として指定する。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。なお、解析対象者を指定せず全ての参加者を解析対象としてもよい。
【0027】
また、オンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)が何れかのユーザを解析対象者として指定することも可能である。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。
【0028】
本実施の形態によるビデオセッション評価システムは、複数の端末間においてビデオセッションセッションが確立された場合に、当該ビデオセッションから取得される少なくとも動画像を表示される。表示された動画像は、端末によって取得され、動画像内に含まれる少なくとも顔画像を所定のフレーム単位ごとに識別される。その後、識別された顔画像に関する評価値が算出される。当該評価値は必要に応じて共有される。
【0029】
特に、本実施の形態においては、取得した動画像は当該端末に保存され、端末上で分析評価され、その結果が当該端末のユーザに提供される。従って、例えば個人情報を含むビデオセッションや機密情報を含むビデオセッションであっても、その動画自体を外部の評価機関等に提供することなく分析評価できる。また、必要に応じて、当該評価結果(評価値)だけを外部端末に提供することによって、結果を可視化したり、クロス分析等行うことができる。
【0030】
図1に示されるように、本実施の形態によるビデオセッション評価システムは、少なくともカメラ部及びマイク部等の入力部と、ディスプレイ等の表示部とスピーカー等の出力部とを有するユーザ端末10、20と、ユーザ端末10、20に双方向のビデオセッションを提供するビデオセッションサービス端末30と、ビデオセッションに関する評価の一部を行う評価端末40とを備えている。
【0031】
<ハードウェア構成例>
図2は、本実施形態に係る各端末10乃至40を実現するコンピュータのハードウェア構成例を示す図である。コンピュータは、少なくとも、制御部110、メモリ120、ストレージ130、通信部140および入出力部150等を備える。これらはバス160を通じて相互に電気的に接続される。
【0032】
制御部110は、各端末全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えば制御部110は、CPU等のプロセッサであり、ストレージ130に格納されメモリ120に展開されたプログラム等を実行して各情報処理を実施する。
【0033】
メモリ120は、DRAM等の揮発性記憶装置で構成される主記憶と、フラッシュメモリまたはHDD等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ120は、制御部110のワークエリア等として使用され、また、各端末の起動時に実行されるBIOS、及び各種設定情報等を格納する。
【0034】
ストレージ130は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ130に構築されていてもよい。特に本実施の形態においては、ビデオセッションサービス端末30のストレージ130にはオンラインセッションにおける動画像は記録されず、ユーザ端末10のストレージ130に格納される。また、評価端末40は、ユーザ端末10上において取得された動画像を評価するために必要なアプリケーションその他のプログラムを格納し、ユーザ端末10が利用可能に適宜提供する。なお、評価端末40の管理するストレージ13には、例えば、ユーザ端末10によって解析された結果、評価された結果のみが共有されることとしてもよい。
【0035】
通信部140は、端末をネットワークに接続する。通信部140は、例えば、有線LAN、無線LAN、Wi-Fi(登録商標)、赤外線通信、Bluetooth(登録商標)、近距離または非接触通信等の方式で、外部機器と直接またはネットワークアクセスポイントを介して通信する。
【0036】
入出力部150は、例えば、キーボード、マウス、タッチパネル等の情報入力機器、及びディスプレイ等の出力機器である。
【0037】
バス160は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。
【0038】
特に、本実施の形態による評価端末は、ビデオセッションサービス端末から動画像を取得し、当該動画像内に含まれる少なくとも顔画像を所定のフレーム単位ごとに識別すると共に、顔画像に関する評価値を算出する(詳しくは後述する)。
<動画の取得方法>
図3に示されるように、ビデオセッションサービス端末が提供するビデオセッションサービス(以下、単に「本サービス」と言うことがある」)は、ユーザ端末10、20に対して双方向に画像および音声によって通信が可能となるものである。本サービスは、ユーザ端末のディスプレイに相手のユーザ端末のカメラ部で取得した動画像を表示し、相手のユーザ端末のマイク部で取得した音声をスピーカーから出力可能となっている。
【0039】
また、本サービスは双方の又はいずれかのユーザ端末によって、動画像及び音声(これらを合わせて「動画像等」という)を少なくともいずれかのユーザ端末上の記憶部に記録(レコーディング)することが可能に構成されている。記録された動画像情報Vs(以下「記録情報」という)は、記録を開始したユーザ端末にキャッシュされつついずれかのユーザ端末のローカルのみに記録されることとなる。ユーザは、必要があれば当該記録情報を本サービスの利用の範囲内で自分で視聴、他者に共有等行うこともできる。
【0040】
ユーザ端末10は、当該記録情報を取得して、後述するような分析及び評価を行う。
【0041】
ユーザ端末10は、以上のようにして取得した動画を以下のような分析によって評価を行う。
【0042】
<機能構成例1>
図4は、本実施形態による構成例を示すブロック図である。
図4に示すように、本実施形態のビデオセッション評価システムは、ユーザ端末10が有する機能構成として実現される。すなわち、ユーザ端末10はその機能として、動画像取得部11、生体反応解析部12、特異判定部13、関連事象特定部14、クラスタリング部15および解析結果通知部16を備えている。
【0043】
上記各機能ブロック11~16は、例えばユーザ端末10に備えられたハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11~16は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
【0044】
動画像取得部11は、オンラインセッション中に各端末が備えるカメラにより複数人(複数のユーザ)を撮影することによって得られる動画像を各端末から取得する。各端末から取得する動画像は、各端末の画面上に表示されるように設定されているものか否かは問わない。すなわち、動画像取得部11は、各端末に表示中の動画像および非表示中の動画像を含めて、動画像を各端末から取得する。
【0045】
生体反応解析部12は、動画像取得部11により取得された動画像(画面上に表示中のものか否かは問わない)に基づいて、複数人のそれぞれについて生体反応の変化を解析する。本実施形態において生体反応解析部12は、動画像取得部11により取得された動画像を画像のセット(フレーム画像の集まり)と音声とに分離し、それぞれから生体反応の変化を解析する。
【0046】
例えば、生体反応解析部12は、動画像取得部11により取得された動画像から分離したフレーム画像を用いてユーザの顔画像を解析することにより、表情、目線、脈拍、顔の動きの少なくとも1つに関する生体反応の変化を解析する。また、生体反応解析部12は、動画像取得部11により取得された動画像から分離した音声を解析することにより、ユーザの発言内容、声質の少なくとも1つに関する生体反応の変化を解析する。
【0047】
人は感情が変化すると、それが表情、目線、脈拍、顔の動き、発言内容、声質などの生体反応の変化となって現れる。本実施形態では、ユーザの生体反応の変化を解析することを通じて、ユーザの感情の変化を解析する。本実施形態において解析する感情は、一例として、快/不快の程度である。本実施形態において生体反応解析部12は、生体反応の変化を所定の基準に従って数値化することにより、生体反応の変化の内容を反映させた生体反応指標値を算出する。
【0048】
表情の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、事前に機械学習させた画像解析モデルに従って特定した顔の表情を複数に分類する。そして、その分類結果に基づいて、連続するフレーム画像間でポジティブな表情変化が起きているか、ネガティブな表情変化が起きているか、およびどの程度の大きさの表情変化が起きているかを解析し、その解析結果に応じた表情変化指標値を出力する。
【0049】
目線の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から目の領域を特定し、両目の向きを解析することにより、ユーザがどこを見ているかを解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、画面の外を見ているかなどを解析する。また、目線の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。目線の変化はユーザの集中度にも関連する。生体反応解析部12は、目線の変化の解析結果に応じた目線変化指標値を出力する。
【0050】
脈拍の変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定する。そして、顔の色情報(RGBのG)の数値を捉える学習済みの画像解析モデルを用いて、顔表面のG色の変化を解析する。その結果を時間軸に合わせて並べることによって色情報の変化を表した波形を形成し、この波形から脈拍を特定する。人は緊張すると脈拍が速くなり、気持ちが落ち着くと脈拍が遅くなる。生体反応解析部12は、脈拍の変化の解析結果に応じた脈拍変化指標値を出力する。
【0051】
顔の動きの変化の解析は、例えば以下のようにして行う。すなわち、フレーム画像ごとに、フレーム画像の中から顔の領域を特定し、顔の向きを解析することにより、ユーザがどこを見ているかを解析する。例えば、表示中の話者の顔を見ているか、表示中の共有資料を見ているか、画面の外を見ているかなどを解析する。また、顔の動きが大きいか小さいか、動きの頻度が多いか少ないかなどを解析するようにしてもよい。顔の動きと目線の動きとを合わせて解析するようにしてもよい。例えば、表示中の話者の顔をまっすぐ見ているか、上目遣いまたは下目使いに見ているか、斜めから見ているかなどを解析するようにしてもよい。生体反応解析部12は、顔の向きの変化の解析結果に応じた顔向き変化指標値を出力する。
【0052】
発言内容の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声認識処理を行うことによって音声を文字列に変換し、当該文字列を形態素解析することにより、助詞、冠詞などの会話を表す上で不要なワードを取り除く。そして、残ったワードをベクトル化し、ポジティブな感情変化が起きているか、ネガティブな感情変化が起きているか、およびどの程度の大きさの感情変化が起きているかを解析し、その解析結果に応じた発言内容指標値を出力する。
【0053】
声質の解析は、例えば以下のようにして行う。すなわち、生体反応解析部12は、指定した時間(例えば、30~150秒程度の時間)の音声について公知の音声解析処理を行うことによって音声の音響的特徴を特定する。そして、その音響的特徴に基づいて、ポジティブな声質変化が起きているか、ネガティブな声質変化が起きているか、およびどの程度の大きさの声質変化が起きているかを解析し、その解析結果に応じた声質変化指標値を出力する。
【0054】
生体反応解析部12は、以上のようにして算出した表情変化指標値、目線変化指標値、脈拍変化指標値、顔向き変化指標値、発言内容指標値、声質変化指標値の少なくとも1つを用いて生体反応指標値を算出する。例えば、表情変化指標値、目線変化指標値、脈拍変化指標値、顔向き変化指標値、発言内容指標値および声質変化指標値を重み付け計算することにより、生体反応指標値を算出する。
【0055】
特異判定部13は、解析対象者について解析された生体反応の変化が、解析対象者以外の他者について解析された生体反応の変化と比べて特異的か否かを判定する。本実施形態において、特異判定部13は、生体反応解析部12により複数のユーザのそれぞれについて算出された生体反応指標値に基づいて、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する。
【0056】
例えば、特異判定部13は、生体反応解析部12により複数人のそれぞれについて算出された生体反応指標値の分散を算出し、解析対象者について算出された生体反応指標値と分散との対比により、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する。
【0057】
解析対象者について解析された生体反応の変化が他者と比べて特異的である場合として、次の3パターンが考えられる。1つ目は、他者については特に大きな生体反応の変化が起きていないが、解析対象者について比較的大きな生体反応の変化が起きた場合である。2つ目は、解析対象者については特に大きな生体反応の変化が起きていないが、他者について比較的大きな生体反応の変化が起きた場合である。3つ目は、解析対象者についても他者についても比較的大きな生体反応の変化が起きているが、変化の内容が解析対象者と他者とで異なる場合である。
【0058】
関連事象特定部14は、特異判定部13により特異的であると判定された生体反応の変化が起きたときに解析対象者、他者および環境の少なくとも1つに関して発生している事象を特定する。例えば、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける解析対象者自身の言動を動画像から特定する。また、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける他者の言動を動画像から特定する。また、関連事象特定部14は、解析対象者について特異的な生体反応の変化が起きたときにおける環境を動画像から特定する。環境は、例えば画面に表示中の共有資料、解析対象者の背景に写っているものなどである。
【0059】
クラスタリング部15は、特異判定部13により特異的であると判定された生体反応の変化(例えば、目線、脈拍、顔の動き、発言内容、声質のうち1つまたは複数の組み合わせ)と、当該特異的な生体反応の変化が起きたときに発生している事象(関連事象特定部14により特定された事象)との相関の程度を解析し、相関が一定レベル以上であると判定された場合に、その相関の解析結果に基づいて解析対象者または事象をクラスタリングする。
【0060】
例えば、特異的な生体反応の変化がネガティブな感情変化に相当するものであり、当該特異的な生体反応の変化が起きたときに発生している事象もネガティブな事象である場合には一定レベル以上の相関が検出される。クラスタリング部15は、その事象の内容やネガティブな度合い、相関の大きさなどに応じて、あらかじめセグメント化した複数の分類の何れかに解析対象者または事象をクラスタリングする。
【0061】
同様に、特異的な生体反応の変化がポジティブな感情変化に相当するものであり、当該特異的な生体反応の変化が起きたときに発生している事象もポジティブな事象である場合には一定レベル以上の相関が検出される。クラスタリング部15は、その事象の内容やポジティブな度合い、相関の大きさなどに応じて、あらかじめセグメント化した複数の分類の何れかに解析対象者または事象をクラスタリングする。
【0062】
解析結果通知部16は、特異判定部13により特異的であると判定された生体反応の変化、関連事象特定部14により特定された事象、およびクラスタリング部15によりクラスタリングされた分類の少なくとも1つを、解析対象者の指定者(解析対象者またはオンラインセッションの主催者)に通知する。
【0063】
例えば、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたとき(上述した3パターンの何れか。以下同様)に発生している事象として解析対象者自身の言動を解析対象者自身に通知する。これにより、解析対象者は、自分がある言動を行ったときに他者とは違う感情を持っていることを把握することができる。このとき、解析対象者について特定された特異的な生体反応の変化も併せて解析対象者に通知するようにしてもよい。さらに、対比される他者の生体反応の変化を更に解析対象者に通知するようにしてもよい。
【0064】
例えば、解析対象者が普段どおりの感情で特に意識せずに行った言動、または、解析対象者がある感情を伴って特に意識して行った言動に対して他者が受けた感情と、言動の際に解析対象者自身が抱いていた感情とが相違している場合に、そのときの解析対象者自身の言動が解析対象者に通知される。これにより、自分の意識に反して他者の受けが良い言動や他者の受けが良くない言動などを発見することも可能である。
【0065】
また、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたときに発生している事象を、特異的な生体反応の変化と共にオンラインセッションの主催者に通知する。これにより、オンラインセッションの主催者は、指定した解析対象者に特有の現象として、どのような事象がどのような感情の変化に影響を与えているのかを知ることができる。そして、その把握した内容に応じて適切な処置を解析対象者に対して行うことが可能となる。
【0066】
また、解析結果通知部16は、解析対象者について他者とは異なる特異的な生体反応の変化が起きたときに発生している事象または解析対象者のクラスタリング結果をオンラインセッションの主催者に通知する。これにより、オンラインセッションの主催者は、指定した解析対象者がどの分類にクラスタリングされたかによって、解析対象者に特有の行動の傾向を把握したり、今後起こり得る行動や状態などを予測したりすることができる。そして、それに対して適切な処置を解析対象者に対して行うことが可能となる。
【0067】
なお、上記実施形態では、生体反応の変化を所定の基準に従って数値化することによって生体反応指標値を算出し、複数人のそれぞれについて算出された生体反応指標値に基づいて、解析対象者について解析された生体反応の変化が他者と比べて特異的か否かを判定する例について説明したが、この例に限定されない。例えば、以下のようにしてもよい。
【0068】
すなわち、生体反応解析部12は、複数人のそれぞれについて目線の動きを解析して目線の方向を示すヒートマップを生成する。特異判定部13は、生体反応解析部12により解析対象者について生成されたヒートマップと他者について生成されたヒートマップとの対比により、解析対象者について解析された生体反応の変化が、他者について解析された生体反応の変化と比べて特異的か否かを判定する。
【0069】
このように、本実施の形態においては、ビデオセッションの動画像をユーザ端末10のローカルストレージに保存し、ユーザ端末10上で上述した分析を行うこととしている。ユーザ端末10のマシンスペックに依存する可能性があるとはいえ、動画像の情報を外部に提供することなく分析することが可能となる。
【0070】
<機能構成例2>
図5に示すように、本実施形態のビデオセッション評価システムは、機能構成として、動画像取得部11、生体反応解析部12および反応情報提示部13aを備えていてもよい。
【0071】
反応情報提示部13aは、画面に表示されていない参加者を含めて生体反応解析部12aにより解析された生体反応の変化を示す情報を提示する。例えば、反応情報提示部13aは、生体反応の変化を示す情報をオンラインセッションの主導者、進行者または管理者(以下、まとめて主催者という)に提示する。オンラインセッションの主催者は、例えばオンライン授業の講師、オンライン会議の議長やファシリテータ、コーチングを目的としたセッションのコーチなどである。オンラインセッションの主催者は、オンラインセッションに参加する複数のユーザの中の一人であるのが普通であるが、オンラインセッションに参加しない別人であってもよい。
【0072】
このようにすることにより、オンラインセッションの主催者は、複数人でオンラインセッションが行われる環境において、画面に表示されていない参加者の様子も把握することができる。
【0073】
<機能構成例3>
図6は、本実施形態による構成例を示すブロック図である。
図6に示すように、本実施形態のビデオセッション評価システムは、機能構成として、上述した実施の形態1と類似する機能については同一つの参照符号を付して説明を省略することがある。
【0074】
本実施の形態によるシステムは、ビデオセッションの映像を取得するカメラ部及び音声を取得するマイク部と、動画像を分析及び評価する解析部、取得した動画像を評価することによって得られた情報に基づいて表示オブジェクト(後述する)を生成するオブジェクト生成部、前記ビデオセッション実行中にビデオセッションの動画像と表示オブジェクトの両方を表示する表示部と、を備えている。
【0075】
解析部は、上述した説明と同様に、動画像取得部11、生体反応解析部12、特異判定部13、関連事象特定部14、クラスタリング部15および解析結果通知部16を備えている。各要素の機能については上述したとおりである。
【0076】
図7に示されるように、オブジェクト生成部は、解析部によってビデオセッションから取得される動画像を解析した結果に基づいて、必要に応じて、当該認識した顔の部分を示すオブジェクト50と、上述した分析・評価した内容を示す情報100を当該動画像に重畳して表示する。当該オブジェクト50は、複数人の顔が動画像内に移っている場合には、複数人全員の顔を識別し、表示することとしてもよい。
【0077】
また、オブジェクト50は、例えば、相手側の端末において、ビデオセッションのカメラ機能を停止している場合(即ち、物理的にカメラを覆う等ではなく、ビデオセッションのアプリケーション内においてソフトウェア的に停止している場合)であっても、相手側のカメラで相手の顔を認識していた場合には、相手の顔が位置している部分にオブジェクト50やオブジェクト100を表示することとしてもよい。これにより、カメラ機能がオフになっていたとしても、相手側が端末の前にいることがお互い確認することが可能となる。この場合、例えば、ビデオセッションのアプリケーションにおいては、カメラから取得した情報を非表示にする一方、解析部によって認識された顔に対応するオブジェクト50やオブジェクト100のみを表示することとしてもよい。また、ビデオセッションから取得される映像情報と、解析部によって認識され得られた情報とを異なる表示レイヤーに分け、前者の情報に関するレイヤーを非表示にすることとしてもよい。
【0078】
オブジェクト50やオブジェクト100は、複数の動画像を表示する領域がある場合には、すべての領域又は一部の領域のみに表示することとしてもよい。例えば、
図8に示されるように、ゲスト側の動画像のみに表示することとしてもよい。
【0079】
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0080】
本明細書において説明した装置は、単独の装置として実現されてもよく、一部または全部がネットワークで接続された複数の装置(例えばクラウドサーバ)等により実現されてもよい。例えば、各端末10の制御部110およびストレージ130は、互いにネットワークで接続された異なるサーバにより実現されてもよい。
【0081】
即ち、本システムは、ユーザ端末10、20と、ユーザ端末10、20に双方向のビデオセッションを提供するビデオセッションサービス端末30と、ビデオセッションに関する評価を行う評価端末40とを含んでいるところ、以下のような構成のバリエーション組み合わせが考えられる。
(1)すべてをユーザ端末のみで処理
図9に示されるように、解析部による処理をビデオセッションを行っている端末で行うことにより、(一定の処理能力は必要なものの)ビデオセッションを行っている時間と同時に(リアルタイムに)分析・評価結果を得ることができる。
(2)ユーザ端末と評価端末とで処理
図10に示されるように、ネットワーク等で接続された評価端末に解析部を備えさせることとしてもよい。この場合、ユーザ端末で取得された動画像は、ビデオセッションと同時に又は事後的に評価端末に共有され、評価端末における解析部によって分析・評価されたのちに、オブジェクト50及びオブジェクト100の情報がユーザ端末に動画像データと共に又は別に(即ち、少なくとも解析データを含む情報が)共有され表示部に表示される。
【0082】
<第1の実施の形態>
図11及び
図12を参照して、本発明の第1の実施の形態を説明する。本実施の形態によるシステムは、概略、評価対象者の目線が画面上のいずれの場所を注視しているのかに関する情報と、その際に表示されている資料の情報から、表示されている資料のどの部分をどれくらいの時間、注視していたかを分析し、評価する。
【0083】
即ち、本実施の形態によるシステムは、評価対象者を撮影することによって得られる動画像を取得するカメラ手段と、取得した動画像に基づいて対象者の目線の動きを取得する視線取得手段と、対象者に複数の画像を連続して表示するディスプレイ手段とを有している。
【0084】
特に、本システムは、カメラ手段と、ディスプレイ手段との位置関係を取得する位置取得手段を有している。これにより、対象者の目の動きと、注視点とをキャリブレーションすることが可能となる。キャリブレーション処理は、例えば、
図11及び
図12に示されるように、ディスプレイのカメラ部によって対象者の目の状態を取得し、その次に画面の所定の場所(キャリブレーションポイント:中央、画面の四隅等)を見ているときの目の動きを取得する。目の動きの取得については、例えば、画面上にアナウンスを流すこととして意図的にキャリブレーションポイントを見てもらうこととしてもよいし。中央のみに目立つようなサインをアイキャッチ的に表示しその瞬間の目の動きを中央を注視している状態と推定することとしてもよい。
【0085】
図11に示されるように、本実施の形態においては、画面に表示された(共有された)資料上に注視点をその注視時間とともに関連付けてヒートマップのように出力される。これにより、資料のどの部分をどれくらいの時間中止していたのかが把握でき、対象者の関心部分がわかる。
【0086】
また、本時実施の形態によるシステムは、同一の資料について、他の対象者(別の営業先や、別の受講者等)の動きも考慮してヒートマップを生成することとしてもよい。この場合、他の対象者の注視点も資料上に表示することとすればよい。この際、他の対象者は注視しているのにもかかわらず当該対象者は注視していない部分や、他の対象者は注視していないにもかかわらず当該対象者は注視している部分のように、対象者特有の特異的特徴を出力することとしてもよい。
【0087】
なお、資料自体の評価を行う方法としては、資料毎に、対象者の目線の動きを平準化して得られる平準化ヒートマップを関連付けて出力してもよい。例えば、どの資料をよく見ていたかという観点でその資料の必要性が把握できる。一方、注視時間が短い資料についてはさほど必要性がないものであることもわかる。
【0088】
<第2の実施の形態>
図13乃至
図14を参照して本発明の第2の実施の形態を説明する。本実施の形態によるシステムは、上述した表情や音声に基づいて分析・評価した評価値をグラフとして可視化し、当該グラフから読み取れるパターンと同じパターンの他の対象者を抽出するものである。
【0089】
即ち、本実施の形態によるシステムは、取得した動画像内に含まれる対象者の顔画像や音声を認識して算出され得られた評価値を(例えば、
図13に示されるようなグラフのように)時系列に沿った変化情報として出力する。
【0090】
図14に示されるように、例えば、評価された対象者A乃至Cのグラフにおいて、安心感を示す「safety」という値を例に説明する。図示されるグラフは、横軸に時間軸を縦軸に安心度を示す評価値をプロットしたものである。対象者Aを示す(A)のグラフは、時刻t1~t2において、大きく値が下がっていることがわかる。例えば、Aが不安に思ったり、恐れたりしたことが表情や音声を複合的に判断して検出された場合にこのようなグラフとして現れる。
【0091】
また、対象者Bを表す(B)のグラフも同様に、時刻t1~t2において、大きく値が下がっていることがわかる。例えば、Aが不安に思ったり、恐れたりしたことが表情や音声を複合的に判断して検出された場合にこのようなグラフとして現れる。
【0092】
AもBも時刻t1~t2においては安心度が大きく下がっているが、対象者Cを表す(C)の時刻t1~t2においては安心度に大きな変化はない。
【0093】
このようなグラフが得られた場合、システムは、(A)の時刻t1~t2の変化を参照して同一のパターンを含む(B)の情報を抽出する。
【0094】
このように、類似パターンを抽出することによって、同一の時間帯に同様の感情を有している対象者を抽出することが可能になる。また、同一の時間帯に反対の感情を有している対象者を抽出することも可能になる。
【0095】
類似パターンを抽出する際に、分析者から元となるグラフ情報の一部の選択操作を受け付け(例えば、
図17の(A)の時刻t1乃至t2を選択するようにして)、当該選択操作がされた部分のグラフパターンと同一のグラフパターンを含む他の動画像の対応するフレームを特定することとしてもよい。
【0096】
<第3の実施の形態>
図15及び
図16を参照して、本発明の第3の実施の形態を説明する。本獅子の形態によるシステムは、上述した表情と音声とが、所定の閾値を超えて瞬間的に的に大きく変化したことを検知するものである。特に、複数の観点における評価のうち、一の観点のみが大きく変化したことを検知することによって、対象者の深層心理を分析することが可能となる。このような変化を生じた動画を切り出して評価することにより、効率的に分析を行うこともできる。
【0097】
図14に示されるように、対象者は、安心度を示す「safety」と幸福度を示す「happy」とのグラフのうち、safetyのグラフは大きい変化はないが、happyのグラフだけが、時刻t1及びt2で大きく落ち込み直後に再び元の水準にもどっている。
【0098】
本システムは、このようにしてt1の変化を含む前後の所定の長さの部分L1、t2の変化を含む前後の所定の長さの部分L2を切り出して結合させてダイジェスト動画を生成する。これにより、深層心理が現れる瞬間を含む動画を抽出することが可能になる。
【0099】
図16に示されるように、本実施の形態によるシステムは、互いに異なる2つのグラフが瞬間的に大きく変化することを検知することとしてもよい。例えば、
図16に示されるように、happyとsadのように、互いに相反する特性を関連付けられた評価値において、時刻t1においては、happyが瞬間的に下がり、sadが瞬間的に上がっている。このように、一つの評価値が瞬間的に変化したときに、相反する他方の評価値が瞬間的に上がった場合、当該上がった方の感情が真の感情であることが多い。
【0100】
なお、評価値の特性が相反しなくとも、何らかの評価値が大きく下がった際に大きく上がった評価値を特定することにより深層心理の分析を用意に行うことができる。
【0101】
なお、動画像内から取得された複数のフレーム(特異フレーム)を連結してダイジェスト動画を生成してもよい。特異フレームに対応する音声をテキストに変換して出力することとしてもよい。ユーザ端末の画面に表示された画面情報を共有することが可能である場合には、上述した瞬間的な変化があった際に特異フレームに対応する画面情報を出力することとしてもよい。
【0102】
<第4の実施の形態>
図17を参照して、本発明の第4の実施の形態によるシステムを説明する。本実施の形態によるシステムは、例えば、「ありがとうございます」というポジティブな言葉を発しているにもかかわらず、感情は「happy」が極端に下がっている場合のように、偽りの感情や、忖度と言ったコミュニケーションを検知することができる。
【0103】
すなわち、本実施の形態によるシステムは、表情評価値と音声評価値に予め属性を関連付けておき、属性間の相関関係から所定範囲を超えて変化したことを検知する。例えば、「ありがとう」や「よくわかりました」という言葉にはポジティブなラベルを関連付けておき、表情の評価(happy、sad、safety)との相関関係を予め定義しておく。
【0104】
図17に示されるように、(A)のグラフでは、「ありがとうございます。」「よくわかりました。」という言葉が抽出され、happyのグラフの値が高い。一方、(B)においては、「説明ありがとうございます。」「とても理解できました。」と言っているにもかかわらず、時刻t1以降においてhappyが大きく下がっている。ここで、「とても理解できた」はポジティブな言葉として定義されているものの、対応するhappyという感情は大きく下がっている。
【0105】
図18に示されるシステムは、画面に表示された画面情報を共有することが可能である。この場合、上述した、当該画面の内容と、テキスト情報と、感情を示すグラフ情報とを関連付けることとしてもよい。
【0106】
<第5の実施の形態>
本発明の第5の実施の形態によるシステムを説明する。本時差氏の形態によるシステムは、認識した顔画像から、ユーザの標準的な表情を分析し、エモーション、コンセントレーション、セーフティの3つの観点で分析評価するものである。
【0107】
即ち、当該ユーザにおける標準的な表情からの乖離度合いを評価するエモーションと、認識した顔画像からユーザの少なくとも瞳の動き又は顔の動きの量を評価するコンセントレーションと、認識した顔画像からユーザの不安に関する感情を評価するセーフティと、の3つの観点で評価を行う。
【0108】
評価は、それぞれの観点を学習された学習器を利用することとしてもよいし、他の方法で評価を行うこととしてもよい。評価された各観点のうちから二以上の評価に基づいてスコアを生成する。
【0109】
<第6の実施の形態>
図19を参照して本発明の第6の実施の形態によるシステムを説明する。本実施の形態によるシステムは、例えば、複数の営業動画、講義動画等から、特定の対象者が写っている動画を特定するものである。これにより、オンラインで行われた様々なセッションから特定の人物にフォーカスをあてて評価すること等が可能になる。
【0110】
図示されるように、ある講師のオンライン講義に関する動画データがあった場合、通常であれば、何らかのラベリングやタイトル等が関連付けられていない場合、内容を再生するまで特定の人物が写っているかどうか(その講師の講義かどうか等)が把握できない。本実施の形態によれば、各動画ファイル内を分析し、あらかじめ顔画像を登録したものが当該動画に写っているかどうかを検出することが可能となる。
【0111】
なお、動画像内において、対象者が写っている部分のみを切り出してダイジェスト動画を生成することとしてもよい。例えば、図示される動画像の講義001乃至講義004のうち、対象者が写っている動画像は講義001、講義002、講義004であったとすると、本システムは、それぞれの動画像内からt1、t2、t3の部分を抽出する。抽出した部分は、ダイジェスト動画像として再生することが可能になる。
【0112】
<第7の実施の形態>
図20を参照して、本発明の第7の実施の形態によるシステムを説明する。本実施の形態によるシステムは、オンラインセッションに参加している対象者のいわゆるコンセントレーションスコア(集中度)を算出するものである。オンラインの場合には、特にウェビナー形式の場合のように聴講者のカメラがオフにされている場合も多い。本システムによれば、このような場合に、それぞれの徴収者がどれくらい講演に集中しているか否かを定量的に判定することが可能となる。
【0113】
本システムは、セッション上において(相手に自分のカメラ画像を共有するか否かに関わらず)カメラで取得した顔画像を認識し、対象者の瞳の動き及び顔の動きの量を夫々評価する。例えば、
図20に示されるように、初期位置から、顔がどれくらい動いたか、目がどれくらい動いたかに関する量を絶対値として評価する。例えば、図示されるグラフの期間L1においては顔の動きも、目の動きも少ないことがわかり、画面等を凝視していることが推測される。一方で、期間L2では、顔は動いていないが、目はいろいろな方向に動いており資料内を読み込んでいることが推測される。集中度は、このような2パターンとして把握し、前者の場合は講演者の顔を注視して話に聞き入っている状態と推測し、後者の場合は表示された資料等を集中して読み込んでいる状態と推測することができる。
【0114】
また、動きの度合い(図示されるグラフのValue)によって、集中度に関するスコアを算出することとしてもよい。算出方法は種々な形式、統計的な方法が選択できる。例えば、faceと、eyesの両方が0の場合を集中度100とし、両方が共に最高値の時には集中度0としてもよい。
【0115】
<第8の実施の形態>
図21を参照して本発明の第8の実施の形態によるシステムを説明する。本実施の形態によるシステムは、上述した第1乃至第7の実施の形態においてシステムが行った評価を異なるスパンで行うことにより、季節的、時期的な要因を補正することによって真の評価を得ようとするものである。
【0116】
即ち、本システムは、同一のユーザに対して、短期間における評価値を分析した短期評価値(分析値)と、長期間における評価値を分析した長期評価値(分析値)とに基づいて対象者の状態を評価する。例えば、ある受講生の1年間の評価値(長期評価値)と1月単位の評価値(短期評価値)とを分析することとしてもよい。
【0117】
例えば、長期評価値から分析される内容としては、冬場になるとコミュニケーションが暗くなる、夏になると活き活きしている、冬の夜はコミュニケーションの数が極端に少ない、等、当該対象者の長期的な特徴が分析可能になる。一方で、短期評価値から分析される内容としては、月末になると気分が落ち込んでいる、金曜日になると表情が明るくなる、といった当該対象者の短期的な特徴が分析可能になる。
【0118】
上述した長期間というのは、例えば、3か月、半年、1年といったサイクルであり、短期間というのは、例えば、1日、1週間、1か月といったサイクルであるが、これに限られず、期間の異なる2つのスパンで評価することとしてもよい。この場合の評価は評価値の平均値や中央値を採用することとしてもよいし、種々の統計的な手法によって適切な値を算出することとすればよい。
【0119】
本発明においては、上述した評価値のトレンドを分析し、例えば、月末に気分が落ち込むという評価を行った場合、その月末に生じた幸福度スコアに所定の係数を乗じることによって補正することとしてもよい。即ち、トレンド上とは異なる評価が生じた場合、当該評価よりも重みづけを高くして評価を行うことにより真の感情を分析することができる。
【0120】
例えば、
図21に示されるように、実線で示された幸福度(happy)のトレンドがある対象者に対して、2月(Feb.)の下旬の値がP1であったとする。本来であれば、月末にはhappyスコアが低いはずであるにもかかわらず、トレンドとは乖離していることがわかる。この場合、トレンドからの乖離分だけ評価値を補正(乖離分を加算)することにより、当該評価値が特別に評価すべきであるものとして扱うこととしてもよい。補正の方法は、トレンドからの正の乖離又は負の乖離をそれぞれ加算丸又は減算することとしてもよいし、他の方法でもよい。
【0121】
<第9の実施の形態>
本発明の第9の実施の形態によるシステムの説明をする。本実施の形態によるシステムは、あるテーマに関して、事前に対象者からの主観的な回答(アンケート、インタビュー等々)を取得しておき、取得した評価値と比較をするものである。これにより、例えば、アンケート等では「講義に不満はない」という主観的な回答を得ていたとしても、実際の表情や音声を分析した際には幸福度の評価が低い場合に、何らかの忖度が働いていることが把握できる。本実施の形態によるシステムは、特に、従業員に対する会社からの意識調査の分野で特に好適である。
【0122】
例えば、対象者に対するアンケートとしては、幸福度に関する質問(会社での働きがい、風通し等)、不安度に関する質問(困っていること、恐れていること等)、将来の安全性に関する質問(キャリアパスの確保、出世や昇給等)を用意して回答させておき、対象者の表情や音声のうち幸福度、不安度、安全度に関する評価値と比較することとしてもよい。
【0123】
このような比較を当該対象者の属する組織の全従業員に行うことによって、従業員の本音を分析することができ、組織全体の評価が可能になる。
【0124】
<第10の実施の形態>
図22を参照して本発明の第10の実施の形態を説明する。本実施の形態によるシステムは、対象者の表情や音声から得られた評価値に対して事後的に当該対象者から当時の状況に関するラベリング(アノテーション)を受け付けるものである。これにより、評価値を事後的に主観的にも評価するとともに、評価の結果をフィードバックすることによりアルゴリズムの更新も行うことができる。
【0125】
図示されるように、幸福度のグラフに対して、ラベルLab.1乃至Lab.4のように時間帯ごとにラベリングし、当該評価値と、受け付けたラベルの内容を重畳して表示することとしてもよい。
【0126】
ラベリングの内容としては、例えば、「その評価値についてあっている/あっていない」、「そのときの状況」、「自己基準での数値」等さまざまな情報を付加することができる。
【0127】
<第11の実施の形態>
本発明の第11の実施の形態によるシステムについて説明する。本実施の形態によるシステムは、営業側担当者の営業側端末と、営業先担当者の営業先端末との間で行われる営業ビデオセッションに関するものである。従来より、営業担当者は、自信の営業の面談等の手ごたえや経験から成約率についての予想を立てつつ、当該営業案件の取引金額と成約率予測を乗じた期待値を算出して営業計画を立てることがあった。本システムによれば、営業ビデオセッションを分析することにより、過去の営業ビデオセッションとその成約結果のデータに基づいて機械学習的統計処理によって成約率を推移呈することができる。
【0128】
本システムは、過去の営業ビデオセッションの成約情報を取得する成約情報取得手段と、当該営業ビデオセッションの動画像内に含まれる営業側担当者又は営業先担当者の少なくともいずれかの顔画像を所定のフレームごとに認識する顔認識手段と、動画像内に含まれる営業側担当者又は営業先担当者の少なくともいずれかの音声を認識する音声認識手段と、認識した顔画像及び音声の双方に基づいて複数の観点による評価値を算出する評価手段とを有している。また、特に、本システムは、記評価値と成約情報とを教師データとして、他の営業ビデオセッションの動画像の成約率を推定する成約推定モデルを生成するモデル生成手段を備え、当該モデルを利用して新規の営業ビデオセッションの成約率を判定する。
【0129】
成約率は、例えば、50%、70%、のような数値としてもよいし、A、B、Cのようなランク(ゾーン)としてもよい。成約率は過去の成約した動画像との類似度を基準に算出することとしてもよい。例えば、新規の営業ビデオセッションの動画像と、過去の同一の営業先(又は類似の営業先)との成約した動画像との類似度が70%であれば、当該新規の営業の成約率も70%という判定をすることとしてもよい。
【0130】
本システムは、組織内において、推定された前記営業ビデオセッションにかかる取引金額と、推定した成約率(ランク)に基づいて、当月、クォーター毎など、所定期間における期待される営業見込みの数値を算出する。
【0131】
<第12の実施の形態>
図23を参照して、本発明の第12の実施の形態によるシステムを説明する。本実施の形態によるシステムは、主にオンラインでの学習指導の利用に好適である。本システムは、互いにネットワークを介して通信可能に接続された講師端末と受講者端末とを含む。
【0132】
講師端末は、講師ユーザの少なくとも顔を映すための講師側カメラを有する。受講者端末は、図示されるように、受講者の少なくとも顔を映すための顔カメラと、受講者の手元(ノートやプリントなどに書き込んでいる状態や、机の上の状態を)を映すための手元カメラを有する。
【0133】
本システムは、特に、手元カメラから取得された動画像内における受講者の手元の動作を所定のフレームごとに認識する手元動作認識手段と、認識された手元の動作に基づいて、受講者の理解度を推定する推定手段とを備えている。
【0134】
推定手段は、認識された手元の動作の量に応じて受講者の理解度を推定する。例えば、板書の量が講師側の板書の量と一致しているかどうか(ノートをきちんととっているか)という観点や、使用しているペンの色を分析することによって重要な点を色分けするなどの工夫をしているかといった評価を行うことができる。
【0135】
また、顔カメラに顔画像が写っていない(即ち、下を向いている)にも関わらず手元の動きが検知されない(板書を取っていない、居眠りをしている)等の状況を検知してアラートを講師端末や受講者端末に出すこととしてもよい。
【0136】
なお、上述したように、受講者の表情や音声に基づく評価値と手元の動作とに基づいて理解度を推定することとしてもよい。この場合、評価した受講者の感情がイライラしていたり、不安に感じていたりした状態を検知しつつ、手元カメラにおいて受講者の手の動きが検知できない場合には、講義が効果的に行われていないことが推定できる。
【0137】
<ハードウェア構成の補足>
本明細書において説明した装置による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。本実施形態に係る情報共有支援装置10の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することが可能である。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
【0138】
また、本明細書においてフローチャート図を用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
【0139】
以上説明した実施の形態を適宜組み合わせて実施することとしてもよい。また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
【符号の説明】
【0140】
10、20 ユーザ端末
30 ビデオセッションサービス端末
40 評価端末