IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社竹中工務店の特許一覧

特開2023-38572ネット会合システム及びネット会合プログラム
<>
  • 特開-ネット会合システム及びネット会合プログラム 図1
  • 特開-ネット会合システム及びネット会合プログラム 図2
  • 特開-ネット会合システム及びネット会合プログラム 図3
  • 特開-ネット会合システム及びネット会合プログラム 図4
  • 特開-ネット会合システム及びネット会合プログラム 図5
  • 特開-ネット会合システム及びネット会合プログラム 図6
  • 特開-ネット会合システム及びネット会合プログラム 図7
  • 特開-ネット会合システム及びネット会合プログラム 図8
  • 特開-ネット会合システム及びネット会合プログラム 図9
  • 特開-ネット会合システム及びネット会合プログラム 図10A
  • 特開-ネット会合システム及びネット会合プログラム 図10B
  • 特開-ネット会合システム及びネット会合プログラム 図11
  • 特開-ネット会合システム及びネット会合プログラム 図12
  • 特開-ネット会合システム及びネット会合プログラム 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023038572
(43)【公開日】2023-03-17
(54)【発明の名称】ネット会合システム及びネット会合プログラム
(51)【国際特許分類】
   G06Q 10/00 20230101AFI20230310BHJP
【FI】
G06Q10/00
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2021145375
(22)【出願日】2021-09-07
(71)【出願人】
【識別番号】000003621
【氏名又は名称】株式会社竹中工務店
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】黒木 友裕
【テーマコード(参考)】
5L049
【Fターム(参考)】
5L049AA20
(57)【要約】
【課題】自身を除く参加者の視線の先を、より直感的に把握することができるネット会合システム及びネット会合プログラムを得る。
【解決手段】ネット会合システム90は、各々表示部35を備えた端末装置30を有する複数の参加者が、当該端末装置30を用い、かつ、予め定められたネットワークを介して利用するネット会合システムであって、情報処理装置10は、複数の参加者の視線の方向を検出する検出部11Aと、参加者の視線の方向を、表示部35を目視する参加者以外の参加者の化身であるアバターの視線の方向として当該アバターを示す画像を表示部35に表示するように制御する制御部11Bと、を備える。
【選択図】図2
【特許請求の範囲】
【請求項1】
各々表示部を備えた端末装置を有する複数の参加者が、当該端末装置を用い、かつ、予め定められたネットワークを介して利用するネット会合システムであって、
前記複数の参加者の視線の方向を検出する検出部と、
前記参加者の視線の方向を、前記表示部を目視する前記参加者以外の前記参加者の化身であるアバターの視線の方向として当該アバターを示す画像を表示部に表示するように制御する制御部と、
を備えたネット会合システム。
【請求項2】
前記検出部は、前記複数の参加者の口の状態を更に検出し、
前記制御部は、前記アバターの口の状態を前記検出部によって検出された口の状態に応じた状態として当該アバターを示す画像を表示部に表示するように制御する、
請求項1に記載のネット会合システム。
【請求項3】
前記制御部は、前記表示部に、文書及び図面の少なくとも一方を示す資料を表示すると共に、前記資料を説明している前記参加者の前記アバターを示す画像を更に表示するように制御する、
請求項1又は請求項2に記載のネット会合システム。
【請求項4】
前記複数の参加者の対応するネット会合に対する集中の度合いを示す集中度を導出する導出部を更に備え、
前記制御部は、前記導出部によって導出された前記集中度を示す情報を前記表示部に更に表示するように制御する、
請求項1~請求項3の何れか1項に記載のネット会合システム。
【請求項5】
前記制御部は、前記集中度を示す情報を、対応するアバターの表情として表示するように制御する、
請求項4に記載のネット会合システム。
【請求項6】
前記制御部は、前記参加者の視線の方向を示すマークを前記表示部に更に表示するように制御する、
請求項1~請求項5の何れか1項に記載のネット会合システム。
【請求項7】
前記検出部は、前記複数の参加者が発する音声を個別に更に検出し、
前記制御部は、前記検出部によって検出された音声を用いて、前記視線の方向に他の参加者である視線先参加者が存在し、かつ、当該視線先参加者を含む複数の参加者が発話している場合、前記視線先参加者が発した音声を、他の参加者が発している音声に対して相対的に大きく聞こえるように、前記視線を前記視線先参加者に向けている参加者が用いている前記端末装置で再生する制御を更に行う、
請求項1~請求項6の何れか1項に記載のネット会合システム。
【請求項8】
前記検出部は、前記複数の参加者の対応するネット会合に対する感情を更に検出し、
前記制御部は、前記検出部によって検出された感情を用いて、前記表示部に表示するアバター毎のコマ割りを決定する制御を更に行う、
請求項1~請求項7の何れか1項に記載のネット会合システム。
【請求項9】
各々表示部を備えた端末装置を有する複数の参加者が、当該端末装置を用い、かつ、予め定められたネットワークを介して利用するネット会合システムにおいて実行されるネット会合プログラムであって、
前記複数の参加者の視線の方向を検出し、
前記参加者の視線の方向を、前記表示部を目視する前記参加者以外の前記参加者の化身であるアバターの視線の方向として当該アバターを示す画像を表示部に表示するように制御する、
処理をコンピュータに実行させるためのネット会合プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ネット会合システム及びネット会合プログラムに関する。
【背景技術】
【0002】
近年、インターネット等を介して会議を行うネット会議が盛んに行われている。なお、ネット会議は、オンライン会議、ウェブ会議等とも呼ばれるが、ここでは「ネット会議」と称する。
【0003】
従来、ネット会議における意思疎通を向上させるための技術として、次の技術があった。
【0004】
特許文献1には、多地点間で会議に参加している人の意思疎通を、従来に比べ図り易く支援することを目的とした多地点間マルチメディア通信会議システムが開示されている。
【0005】
この多地点間マルチメディア通信会議システムは、自マルチメディア通信会議装置の会議参加者の画像を他のマルチメディア通信会議装置に伝送し、会議参加者の画像を自マルチメディア通信会議装置に画像表示させ、多地点間でマルチメディア通信を行う。
【0006】
この多地点間マルチメディア通信会議システムは、自マルチメディア通信会議装置の会議参加者が他の会議参加者の誰を、又は、他のマルチメディア通信会議装置の会議参加者の誰を、注視するかを表す注視情報を生成し、他のマルチメディア通信会議装置に伝送させる注視情報生成手段を備えている。更に、この多地点間マルチメディア通信会議システムは、上記注視情報を自マルチメディア通信会議装置に表示させる注視情報表示手段を備えている。
【0007】
また、特許文献2には、ビデオ会議システム等において、会議における出席者間の意思疎通を円滑に行うことができるようにすることを目的としたコンピュータ会議システムが開示されている。
【0008】
このコンピュータ会議システムでは、各ユーザステーションにおいて、出席者を表すアバターを含む3次元コンピュータモデルの画像が表示される。また、このコンピュータ会議システムでは、一対のカメラを使用して、ボディ・マーカーとライトが取り付けられたヘッドホンを着用したユーザの画像データを処理して、ユーザの動きと注視している表示画像中の点とを決定する。そして、このコンピュータ会議システムでは、この情報が、その他のユーザステーションへ伝送され、アバターの頭部の動きがユーザの頭部の換算された動きに対応するようにアニメ化される。
【先行技術文献】
【特許文献】
【0009】
【特許文献1】特開平7-30877号公報
【特許文献2】特開2000-244886号公報
【発明の概要】
【発明が解決しようとする課題】
【0010】
しかしながら、特許文献1及び特許文献2に記載の技術は、ネット会議に参加している参加者の表示画像内での注視先はわかるものの、当該ネット会議において表示画像を目視している参加者についても表示画像内に表示するものとされているため、当該参加者に対して視線が向けられているか否かを直感的に把握することが難しい、という問題点があった。なお、この問題点は、企業内や企業間等で行われるネット会議のみならず、研修会、講演会、飲酒を伴わない懇親会、飲酒を伴う懇親会(所謂飲み会)等の複数人で行う、あらゆる会話を伴うネット会合においても生じ得る問題点である。
【0011】
本開示は、以上の事情を鑑みて成されたものであり、自身を除く参加者の視線の先を、より直感的に把握することができるネット会合システム及びネット会合プログラムを提供することを目的とする。
【課題を解決するための手段】
【0012】
請求項1に記載の本発明に係るネット会合システムは、各々表示部を備えた端末装置を有する複数の参加者が、当該端末装置を用い、かつ、予め定められたネットワークを介して利用するネット会合システムであって、前記複数の参加者の視線の方向を検出する検出部と、前記参加者の視線の方向を、前記表示部を目視する前記参加者以外の前記参加者の化身であるアバターの視線の方向として当該アバターを示す画像を表示部に表示するように制御する制御部と、を備えている。
【0013】
請求項1に記載の本発明に係るネット会合システムによれば、各々表示部を備えた端末装置を有する複数の参加者が、当該端末装置を用い、かつ、予め定められたネットワークを介して利用するにあたり、上記複数の参加者の視線の方向を検出し、当該参加者の視線の方向を、表示部を目視する参加者以外の参加者の化身であるアバターの視線の方向として当該アバターを示す画像を表示部に表示するように制御することで、自身を除く参加者の視線の先を、より直感的に把握することができる。
【0014】
請求項2に記載の本発明に係るネット会合システムは、請求項1に記載のネット会合システムであって、前記検出部が、前記複数の参加者の口の状態を更に検出し、前記制御部が、前記アバターの口の状態を前記検出部によって検出された口の状態に応じた状態として当該アバターを示す画像を表示部に表示するように制御するものである。
【0015】
請求項2に記載の本発明に係るネット会合システムによれば、上記複数の参加者の口の状態を更に検出し、上記アバターの口の状態を、検出した口の状態に応じた状態として当該アバターを示す画像を表示部に表示するように制御することで、より発話者を特定しやすくなる。
【0016】
請求項3に記載の本発明に係るネット会合システムは、請求項1又は請求項2に記載のネット会合システムであって、前記制御部が、前記表示部に、文書及び図面の少なくとも一方を示す資料を表示すると共に、前記資料を説明している前記参加者の前記アバターを示す画像を更に表示するように制御するものである。
【0017】
請求項3に記載の本発明にネット会合システムによれば、表示部に文書及び図面の少なくとも一方を示す資料を表示すると共に、当該資料を説明している参加者のアバターを示す画像を更に表示するように制御することで、資料を用いたネット会合における説明者の視線の方向を視認することができる結果、より効果的にネット会合を行うことができる。
【0018】
請求項4に記載の本発明に係るネット会合システムは、請求項1~請求項3の何れか1項に記載のネット会合システムであって、前記複数の参加者の対応するネット会合に対する集中の度合いを示す集中度を導出する導出部を更に備え、前記制御部が、前記導出部によって導出された前記集中度を示す情報を前記表示部に更に表示するように制御するものである。
【0019】
請求項4に記載の本発明に係るネット会合システムによれば、上記複数の参加者の対応するネット会合に対する集中の度合いを示す集中度を示す情報を表示部に更に表示することで、より効果的にネット会合を行うことができる。
【0020】
請求項5に記載の本発明に係るネット会合システムは、請求項4に記載のネット会合システムであって、前記制御部が、前記集中度を示す情報を、対応するアバターの表情として表示するように制御するものである。
【0021】
請求項5に記載の本発明に係るネット会合システムによれば、上記集中度を示す情報を、対応するアバターの表情として表示するように制御することで、より効果的にネット会合を行うことができる。
【0022】
請求項6に記載の本発明に係るネット会合システムは、請求項1~請求項5の何れか1項に記載のネット会合システムであって、前記制御部が、前記参加者の視線の方向を示すマークを前記表示部に更に表示するように制御するものである。
【0023】
請求項6に記載の本発明に係るネット会合システムによれば、参加者の視線の方向を示すマークを表示部に更に表示するように制御することで、参加者の視線の方向を、より明確に視認することができる結果、より効果的にネット会合を行うことができる。
【0024】
請求項7に記載の本発明に係るネット会合システムは、請求項1~請求項6の何れか1項に記載のネット会合システムであって、前記検出部が、前記複数の参加者が発する音声を個別に更に検出し、前記制御部が、前記検出部によって検出された音声を用いて、前記視線の方向に他の参加者である視線先参加者が存在し、かつ、当該視線先参加者を含む複数の参加者が発話している場合、前記視線先参加者が発した音声を、他の参加者が発している音声に対して相対的に大きく聞こえるように、前記視線を前記視線先参加者に向けている参加者が用いている前記端末装置で再生する制御を更に行うものである。
【0025】
請求項7に記載の本発明に係るネット会合システムによれば、上記複数の参加者が発する音声を個別に更に検出し、検出した音声を用いて、上記視線の方向に他の参加者である視線先参加者が存在し、かつ、当該視線先参加者を含む複数の参加者が発話している場合、視線先参加者が発した音声を、他の参加者が発している音声に対して相対的に大きく聞こえるように、上記視線を視線先参加者に向けている参加者が用いている端末装置で再生する制御を更に行うことで、視線先参加者の発話の内容を、より明確に把握することができる。
【0026】
請求項8に記載の本発明に係るネット会合システムは、請求項1~請求項7の何れか1項に記載のネット会合システムであって、前記検出部が、前記複数の参加者の対応するネット会合に対する感情を更に検出し、前記制御部が、前記検出部によって検出された感情を用いて、前記表示部に表示するアバター毎のコマ割りを決定する制御を更に行うものである。
【0027】
請求項8に記載の本発明に係るネット会合システムによれば、上記複数の参加者の対応するネット会合に対する感情を更に検出し、検出した感情を用いて、表示部に表示するアバター毎のコマ割りを決定する制御を更に行うことで、より効果的にネット会合を行うことができる。
【0028】
請求項9に記載の本発明に係るネット会合プログラムは、各々表示部を備えた端末装置を有する複数の参加者が、当該端末装置を用い、かつ、予め定められたネットワークを介して利用するネット会合システムにおいて実行されるネット会合プログラムであって、前記複数の参加者の視線の方向を検出し、前記参加者の視線の方向を、前記表示部を目視する前記参加者以外の前記参加者の化身であるアバターの視線の方向として当該アバターを示す画像を表示部に表示するように制御する、処理をコンピュータに実行させる。
【0029】
請求項9に記載の本発明に係るネット会合プログラムによれば、各々表示部を備えた端末装置を有する複数の参加者が、当該端末装置を用い、かつ、予め定められたネットワークを介して利用するにあたり、上記複数の参加者の視線の方向を検出し、当該参加者の視線の方向を、表示部を目視する参加者以外の参加者の化身であるアバターの視線の方向として当該アバターを示す画像を表示部に表示するように制御することで、自身を除く参加者の視線の先を、より直感的に把握することができる。
【発明の効果】
【0030】
以上説明したように、本発明によれば、自身を除く参加者の視線の先を、より直感的に把握することができる。
【図面の簡単な説明】
【0031】
図1】実施形態に係るネット会合システムのハードウェア構成の一例を示すブロック図である。
図2】実施形態に係るネット会合システムの機能的な構成の一例を示すブロック図である。
図3】実施形態に係るアバター関連情報データベースの構成の一例を示す模式図である。
図4】第1実施形態に係るネット会合処理の一例を示すフローチャートである。
図5】第1実施形態に係るネット会合表示画面の表示内容、及び参加者の実際の状態の一例を示す概略図である。
図6】第1実施形態に係るネット会合表示画面の表示内容、及び参加者の実際の状態の他の一例を示す概略図である。
図7】第1実施形態に係るネット会合表示画面の表示内容、及び参加者の実際の状態の他の一例を示す概略図である。
図8】第1実施形態に係るネット会合表示画面の表示内容、及び参加者の実際の状態の他の一例を示す概略図である。
図9】第2実施形態に係るネット会合処理の一例を示すフローチャートである。
図10A】第2実施形態に係るネット会合表示画面の表示内容の一例を示す概略図である。
図10B】第2実施形態に係るネット会合表示画面の表示内容の他の一例を示す概略図である。
図11】第3実施形態に係るネット会合処理の一例を示すフローチャートである。
図12】第3実施形態に係るネット会合表示画面の表示内容の一例を示す概略図である。
図13】他の実施形態に係るネット会合表示画面の表示内容の一例を示す概略図である。
【発明を実施するための形態】
【0032】
以下、図面を参照して、本発明を実施するための形態例を詳細に説明する。なお、本実施形態では、本発明を、ネットワークを介して行われる会合(以下、「ネット会合」という。)の参加者が各々個別に利用する複数の端末装置と、当該ネット会合を統括的に管理する情報処理装置と、を含むネット会合システムに適用した場合について説明する。また、ここでいう「会合」とは、企業内や企業間等で行われる会議のみならず、研修会、講演会、飲酒を伴わない懇親会、飲酒を伴う懇親会(所謂飲み会)等の複数人で行う、あらゆる会話を伴う会を意味する。
【0033】
[第1実施形態]
まず、図1及び図2を参照して、本実施形態に係るネット会合システム90の構成を説明する。図1は、本実施形態に係るネット会合システム90のハードウェア構成の一例を示すブロック図である。また、図2は、本実施形態に係るネット会合システム90の機能的な構成の一例を示すブロック図である。
【0034】
図1に示すように、本実施形態に係るネット会合システム90は、ネットワーク80に各々アクセス可能とされた、情報処理装置10と、複数の端末装置30と、を含む。なお、情報処理装置10の例としては、パーソナルコンピュータ及びサーバコンピュータ等の各種コンピュータが挙げられる。また、端末装置30の例としても、当該各種コンピュータの他、スマートフォン、タブレット端末、PDA(Personal Digital Assistant、携帯情報端末)等の携帯型の装置が挙げられる。本実施形態では、端末装置30として、携帯型の装置を適用する場合について説明する。
【0035】
本実施形態に係る端末装置30は、ネット会合システム90が管理するネット会合の参加者(以下、単に「参加者」という。)が各々所有する端末である。端末装置30は、CPU(Central Processing Unit)31、一時記憶領域としてのメモリ32、不揮発性の記憶部33、タッチパネル等の入力部34、液晶ディスプレイ等の表示部35、及び媒体読み書き装置(R/W)36を備えている。また、端末装置30は、撮影部38、マイクロフォン(以下、「マイク」という。)39、スピーカ40、及び無線通信部42を備えている。CPU31、メモリ32、記憶部33、入力部34、表示部35、媒体読み書き装置36、撮影部38、マイク39、スピーカ40、及び無線通信部42はバスB1を介して互いに接続されている。媒体読み書き装置36は、記録媒体37に書き込まれている情報の読み出し及び記録媒体37への情報の書き込みを行う。
【0036】
記憶部33は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現される。記憶媒体としての記憶部33には、ネット会合参加プログラム33Aが記憶されている。ネット会合参加プログラム33Aは、当該プログラム33Aが書き込まれた記録媒体37が媒体読み書き装置36にセットされ、媒体読み書き装置36が記録媒体37からの当該プログラム33Aの読み出しを行うことで、記憶部33へ記憶(インストール)される。CPU31は、ネット会合参加プログラム33Aを記憶部33から読み出してメモリ32に展開し、ネット会合参加プログラム33Aが有するプロセスを順次実行する。
【0037】
また、本実施形態に係る撮影部38は、参加者に対する動画像を撮影するものであり、当該撮影によって得られた画像情報を出力する。また、本実施形態に係るマイク39は、参加者が発した音声を収集し、音声情報を出力する。更に、本実施形態に係るスピーカ40は、音声情報により示される音声を再生するものである。
【0038】
一方、情報処理装置10は、ネット会合システム90において中心的な役割を有する装置であり、ネット会合システム90が管理するネット会合(以下、単に「ネット会合」という。)を統括的に管理する装置であることは前述した通りである。情報処理装置10は、CPU11、一時記憶領域としてのメモリ12、不揮発性の記憶部13、キーボードとマウス等の入力部14、液晶ディスプレイ等の表示部15、媒体読み書き装置16、及び通信インタフェース(I/F)部18を備えている。CPU11、メモリ12、記憶部13、入力部14、表示部15、媒体読み書き装置16、及び通信I/F部18はバスB2を介して互いに接続されている。媒体読み書き装置16は、記録媒体17に書き込まれている情報の読み出し及び記録媒体17への情報の書き込みを行う。
【0039】
記憶部13はHDD、SSD、フラッシュメモリ等によって実現される。記憶媒体としての記憶部13には、ネット会合プログラム13Aが記憶されている。
【0040】
ネット会合プログラム13Aは、当該プログラム13Aが書き込まれた記録媒体17が媒体読み書き装置16にセットされ、媒体読み書き装置16が記録媒体17からの当該プログラム13Aの読み出しを行うことで、記憶部13へ記憶(インストール)される。CPU11は、ネット会合プログラム13Aを記憶部13から読み出してメモリ12に展開し、当該ネット会合プログラム13Aが有するプロセスを順次実行する。
【0041】
また、記憶部13には、アバター関連情報データベース13Bが記憶される。アバター関連情報データベース13Bについては、詳細を後述する。
【0042】
なお、本実施形態では、ネットワーク80として、インターネット、電話回線網等の公共の通信回線を適用しているが、この形態に限定されるものではない。例えば、ネットワーク80として、LAN(Local Area Network)、WAN(Wide Area Network)等の企業内の通信回線を適用してもよく、これらの企業内の通信回線及び公共の通信回線を組み合わせて適用してもよい。
【0043】
次に、図2を参照して、本実施形態に係るネット会合システム90における情報処理装置10及び端末装置30の機能的な構成について説明する。
【0044】
図2に示すように、本実施形態に係る端末装置30は、制御部31Aを含む。端末装置30のCPU31がネット会合参加プログラム33Aを実行することで、制御部31Aとして機能する。
【0045】
本実施形態に係る制御部31Aは、撮影部38による参加者の撮影の制御、及びマイク39による参加者が発した音声の集音の制御を行う。また、本実施形態に係る制御部31Aは、スピーカ40による音声の再生の制御、表示部35による各種情報の表示の制御、及び無線通信部42による情報処理装置10との通信の制御を行う。その他、本実施形態に係る制御部31Aは、ネット会合を行うための各種制御を行う。
【0046】
一方、図2に示すように、本実施形態に係る情報処理装置10は、検出部11A、制御部11B、及び導出部11Cを含む。情報処理装置10のCPU11がネット会合プログラム13Aを実行することで、検出部11A、制御部11B、及び導出部11Cとして機能する。
【0047】
本実施形態に係る検出部11Aは、複数の参加者の視線の方向を検出する。なお、本実施形態では、上記参加者の視線の方向の検出を、対応する参加者が有する端末装置30に設けられた撮影部38による撮影によって得られた、当該参加者の顔の画像を用いて行うものとされているが、これに限るものではない。例えば、赤外線を利用して視線方向を検出する角膜反射法等の他の方法を、参加者の視線の方向を検出する方法として適用する形態としてもよい。なお、人の視線の方向の検出技術は、従来既知の技術であるため、これ以上の説明は省略する。
【0048】
一方、本実施形態に係る制御部11Bは、検出部11Aによって検出された参加者の視線の方向を、表示部35を目視する参加者以外の参加者の化身であるアバターの視線の方向として当該アバターを示す画像を表示部35に表示するように制御する。なお、ここでいう「アバター」とは、ネット会合を行う際に端末装置30の表示部35における表示画面上で、当該ネット会合の参加者の分身を画像として模式的に表すものである。
【0049】
また、本実施形態に係る検出部11Aは、上記複数の参加者の口の状態を更に検出し、制御部11Bは、上記アバターの口の状態を検出部11Aによって検出された口の状態に応じた状態として当該アバターを示す画像を表示部35に表示するように制御する。なお、本実施形態では、上記口の状態として、当該口が開いているか否かの状態を従来既知の画像認識技術を用いて検出しているが、これに限るものではないことは言うまでもない。例えば、口の動きを撮影画像を用いた画像認識により検出するのではなく、マイク39によって得られた音声情報を用いて参加者が発話をしているか否かを検出することで、参加者の口の状態を間接的に検出する形態としてもよい。
【0050】
一方、本実施形態に係る導出部11Cは、上記複数の参加者の対応するネット会合に対する集中の度合いを示す集中度を導出する。
【0051】
本実施形態では、上記集中度の導出を、対応する参加者が有する端末装置30に設けられた撮影部38による撮影によって得られた、当該参加者の顔の画像を入力情報とした機械学習モデルによる人工知能を用いて行うものとされているが、これに限るものではない。例えば、人工知能を用いない集中度認識手法を、参加者の集中度を導出する方法として適用する形態としてもよい。なお、人の集中度の導出技術も、従来既知の技術であるため、これ以上の説明は省略する。
【0052】
そして、本実施形態に係る制御部11Bは、上記集中度を示す情報を、対応するアバターの表情として表示するように制御する。また、本実施形態に係る制御部11Bは、参加者の視線の方向を示すマークを表示部35に更に表示するように制御する。本実施形態では、上記マークとして、参加者の視線の先を指し示す矢印を示すマークを適用しているが、これに限るものではない。例えば、参加者の視線の先が頂点とされた三角形を示すマークを、参加者の視線の方向を示すマークとして適用する形態としてもよい。
【0053】
次に、図3を参照して、本実施形態に係るアバター関連情報データベース13Bについて説明する。図3は、本実施形態に係るアバター関連情報データベース13Bの構成の一例を示す模式図である。
【0054】
本実施形態に係るアバター関連情報データベース13Bは、上述したアバターに関する情報が登録されたデータベースである。図3に示すように、本実施形態に係るアバター関連情報データベース13Bは、参加者ID(Identification)、及びアバター基本情報の各情報が関連付けられて記憶されている。
【0055】
上記参加者IDは、ネット会合に参加する各参加者を個別に識別するための情報であり、参加者毎に互いに異なるものとして予め定められた情報が各参加者に割り振られる。また、上記アバター基本情報は、対応する参加者のアバターの基本的な表情及び輪郭の形状を示す情報である。なお、本実施形態では、上記基本的な表情として、感情が表れていない表情(本実施形態では、目における瞳(所謂黒目)が正面を向き、かつ、口が水平な直線で表される表情)を適用しているが、これに限るものではない。例えば、穏やかな表情、笑顔等の表情を上記基本的な表情として適用する形態としてもよい。
【0056】
次に、図4図8を参照して、本実施形態に係るネット会合システム90の作用として、情報処理装置10の作用を説明する。図4は、本実施形態に係るネット会合処理の一例を示すフローチャートである。なお、錯綜を回避するために、ここでは、ネット会合の実施中におけるアバターの表示に関する処理のみについて説明し、ネット会合そのものに関する処理についての説明は省略する。また、錯綜を回避するために、ここでは、アバター関連情報データベース13Bが構築済みである場合について説明する。
【0057】
本実施形態に係る情報処理装置10は、ネット会合システム90が管理しているネット会合のうちの何れかのネット会合(以下、「対象会合」という。)が開始されるタイミングでCPU11がネット会合プログラム13Aを実行することで、図4に示すネット会合処理が実行される。
【0058】
図4のステップ100で、CPU11は、対象会合に参加している参加者(以下、「対象参加者」という。)が各々有する端末装置30から、撮影部38による撮影によって得られた画像情報を取得する。ステップ102で、CPU11は、取得した画像情報を用いて、上述したように、各対象参加者の視線の方向を検出する。
【0059】
ステップ104で、CPU11は、対象参加者に対応するアバター基本情報をアバター関連情報データベース13Bから読み出す。そして、ステップ104で、CPU11は、検出した各対象参加者の視線の方向を示す情報を、対応する対象参加者のアバター基本情報と共に関連付けて記憶部13に記憶することにより、当該視線の方向を対応するアバター基本情報に設定する。
【0060】
ステップ106で、CPU11は、取得した画像情報を用いて、上述したように、各対象参加者の口の状態を検出する。ステップ108で、CPU11は、検出した各対象参加者の口の状態を示す情報を、対応する対象参加者のアバター基本情報に関連付けて記憶部13に記憶することにより、当該口の状態を対応するアバター基本情報に設定する。
【0061】
ステップ110で、CPU11は、取得した画像情報を用いて、上述したように、各対象参加者の集中度を検出する。ステップ112で、CPU11は、検出した集中度が予め定められた下限基準値未満である対象参加者が存在するか否かを判定し、肯定判定となった場合はステップ114に移行する。なお、上記下限基準値は、集中度が当該値未満であれば、対応する対象参加者の集中度が、許容される度合に達していないと見なすことができる値として、実機を用いた実験や、コンピュータ・シミュレーション等によって予め得られた値を適用している。但し、これに限るものではなく、例えば、対象会合の重要度や、対象会合に要求される集中度等に応じて、ネット会合システム90の管理者等に対して予め入力させる形態としてもよい。
【0062】
ステップ114で、CPU11は、集中度が下限基準値未満であると判定された対象参加者に対応するアバター基本情報に対して、当該アバター基本情報が示すアバターの表情が集中度に応じたものとなるように更新し、その後にステップ120に移行する。
【0063】
一方、ステップ112において否定判定となった場合はステップ116に移行する。ステップ116で、CPU11は、検出した集中度が予め定められた上限基準値を超えている対象参加者が存在するか否かを判定し、否定判定となった場合はステップ120に移行する一方、肯定判定となった場合はステップ118に移行する。なお、上記上限基準値は、集中度が当該値を超えていれば、対応する対象参加者の集中度が、標準的な度合を超えていると見なすことができる値として、実機を用いた実験や、コンピュータ・シミュレーション等によって予め得られた値を適用している。但し、これに限るものではなく、例えば、対象会合の重要度や、対象会合に要求される集中度等に応じて、ネット会合システム90の管理者等に対して予め入力させる形態としてもよい。
【0064】
ステップ118で、CPU11は、集中度が上限基準値を超えていると判定された対象参加者に対応するアバター基本情報に対して、当該アバター基本情報が示すアバターの表情が集中度に応じたものとなるように更新し、その後にステップ120に移行する。
【0065】
ステップ120で、CPU11は、ステップ102の処理によって検出した各対象参加者の視線の方向を示すマーク(本実施形態では、矢印を示すマーク)を、対応する対象参加者のアバター基本情報に関連付けて記憶部13に記憶することにより、当該マークを対応するアバター基本情報に設定する。
【0066】
ステップ122で、CPU11は、以上の処理を経たアバター基本情報に対し、当該アバター基本情報に関連付けて記憶した視線の方向、口の状態、及びマークの各情報が反映されたアバターを示す画像(以下、「アバター画像」という。)を一括して表示するネット会合表示画面を表示するように、各対象参加者が有する端末装置30の表示部35を制御する。なお、この際、CPU11は、各端末装置30の表示部35を目視する対象参加者のアバター画像は、当該端末装置30では表示しないことは上述した通りである。
【0067】
ステップ124で、CPU11は、対象会合が終了したか否かを判定し、否定判定となった場合はステップ100に戻る一方、肯定判定となった場合は本ネット会合処理を終了する。なお、本実施形態では、対象会合が終了したか否かの判定を、この時点が、対象会合に対して予め定められた終了時刻となったか否かを判定することにより行っているが、この形態に限るものではない。例えば、対象参加者の各々の端末装置30において実行されているネット会合参加プログラム33Aが全て終了されたか否かを判定することにより、対象会合が終了したか否かを判定する形態としてもよい。
【0068】
図5図8には、本実施形態に係るネット会合表示画面の表示内容、及び対象参加者の実際の状態の一例を示す概略図が示されている。なお、図5は、対象参加者Aが有する端末装置30において表示されたネット会合表示画面の一例であり、図6は、図5と同じタイミングで対象参加者Bが有する端末装置30において表示されたネット会合表示画面の一例である。同様に、図7は、図5と同じタイミングで対象参加者Cが有する端末装置30において表示されたネット会合表示画面の一例であり、図8は、図5と同じタイミングで対象参加者Dが有する端末装置30において表示されたネット会合表示画面の一例である。
【0069】
図5に示すように、このネット会合表示画面では、対象参加者Aを除く複数(図5に示す例では、4名)の対象参加者B~Eのアバター画像60B~60Eが表示される。
【0070】
図5に示すように、このネット会合表示画面では、アバター画像60B~60Eの各々における目の画像として、対応する対象参加者の視線の方向と対応する位置に瞳が描画される。なお、CPU11は、対象参加者が有する端末装置30の表示部35における各アバター画面の表示位置を把握しているため、各対象参加者が表示部35に表示されているアバター画像の何れを目視しているのかを検出することができる。
【0071】
ここで、図5図8に示す例では、対象参加者A及び対象参加者Bは互いに目視しており、対象参加者Dは対象参加者Aを目視している場合を例示している。また、図5図8に示す例では、対象参加者Cは他の何れの対象参加者も目視しておらず、対象参加者Eは、集中度が下限基準値に近い場合を例示している。
【0072】
従って、図5に示すネット会合表示画面では、対象参加者Bのアバター画像60Bは、当該画像におけるアバターが、実際の対象参加者Aに対して視線が向けられた状態で表示されている一方、対象参加者Cのアバター画像60Cは、当該画像におけるアバターが、対象参加者Aとは異なる方向に視線が向けられた状態で表示されている。また、図5に示すネット会合表示画面では、対象参加者Dのアバター画像60Dは、当該画像におけるアバターが、対象参加者Aに対して視線が向けられた状態で表示されている一方、対象参加者Eは、集中度が下限基準値に近いため、対象参加者Eのアバター画像60Eは、当該画像におけるアバターの目が閉じられた状態とされている。
【0073】
従って、対象参加者Aは、ネット会合表示画面を目視することで、対象参加者B及び対象参加者Dが、自分を目視していることを直感的に把握することができる。また、対象参加者Aは、ネット会合表示画面を目視することで、対象参加者Cが他の対象参加者を目視していないこと、及び対象参加者Eの集中度が低いことも直感的に把握することができる。
【0074】
一方、図5に示すように、このネット会合表示画面では、アバター画像60B~60Dに対して、各々、マーク62B~62Dが、対応する視線の方向を指し示すものとして表示されている。従って、対象参加者Aは、ネット会合表示画面を目視することによって、他の対象参加者の視線の方向を、より明確に把握することができる。
【0075】
なお、この例では、図5に示すように、対象参加者Aが発話している状態とされている。従って、図6図8に示すように、対象参加者B~対象参加者Dが目視するネット会合表示画面では、対象参加者Aのアバター画像60Aのアバターが、口が開いている状態で表示されている。このため、例えば、実際には、対象参加者Aがマスクをしている場合であっても、対象参加者Aが発話していることを容易に把握することができる。なお、この場合、口の形状のみならず、発話していることを強調するマーク等(一例として、吹き出し)を表示することで、参加者が発話していることを、より強調して表示する形態としてもよい。
【0076】
図6図8に示すネット会合表示画面は、図5に示すネット会合表示画面に対して、目視している対象参加者が異なるのみで、表示内容としては同様であるので、これ以上の説明は省略する。
【0077】
以上説明したように、本実施形態によれば、複数の参加者の視線の方向を検出する検出部11Aと、参加者の視線の方向を、表示部35を目視する参加者以外の参加者の化身であるアバターの視線の方向として当該アバターを示す画像を表示部35に表示するように制御する制御部11Bと、を備えている。従って、自身を除く参加者の視線の先を、より直感的に把握することができる。
【0078】
また、本実施形態によれば、上記複数の参加者の口の状態を更に検出し、上記アバターの口の状態を、検出した口の状態に応じた状態として当該アバターを示す画像を表示部35に表示するように制御している。従って、より発話者を特定しやすくなる。
【0079】
また、本実施形態によれば、上記集中度を示す情報を、対応するアバターの表情として表示するように制御している。従って、より効果的にネット会合を行うことができる。
【0080】
更に、本実施形態によれば、参加者の視線の方向を示すマーク(本実施形態では、矢印)を表示部35に更に表示するように制御している。従って、より効果的にネット会合を行うことができる。
【0081】
[第2実施形態]
本実施形態に係るネット会合システム90のハードウェア構成は第1実施形態と同様であるため、まず、本実施形態に係るネット会合システム90の機能的な構成について説明する。
【0082】
本実施形態に係る検出部11Aは、第1実施形態と同様の機能に加え、上記複数の参加者が発する音声を個別に更に検出する機能を有している。
【0083】
そして、本実施形態に係る制御部11Bは、第1実施形態と同様の機能に加え、検出部11Aによって検出された音声を用いて、上記視線の方向に他の参加者である視線先参加者が存在し、かつ、当該視線先参加者を含む複数の参加者が発話している場合、視線先参加者が発した音声を、他の参加者が発している音声に対して相対的に大きく聞こえるように、上記視線を視線先参加者に向けている参加者が用いている端末装置30で再生する制御を更に行う機能を有している。
【0084】
本実施形態では、上記音声の各参加者別の検出を、対応する参加者が有する端末装置30に設けられたマイク39によって得られた、当該参加者や他の参加者の音声が含まれる音声情報を用いた人工知能による音声認識技術により行っているが、これに限るものではない。例えば、人工知能を用いない音声認識技術を、上記音声の各参加者別の検出に適用する形態としてもよい。なお、人が発する音声の認識技術は、従来既知の技術であるため、これ以上の説明は省略する。
【0085】
また、上述したように、本実施形態に係る導出部11Cは、上記複数の参加者のネット会合に対する集中の度合いを示す集中度を導出する。そして、本実施形態に係る制御部11Bは、導出部11Cによって導出された集中度を示す情報を表示部35に更に表示するように制御する。
【0086】
また、本実施形態に係る検出部11Aは、上記複数の参加者のネット会合に対する感情を更に検出する。
【0087】
本実施形態では、上記感情の検出を、対応する参加者が有する端末装置30に設けられた撮影部38による撮影によって得られた、当該参加者の顔の画像を入力情報とした機械学習モデルによる人工知能によって行うものとされているが、これに限るものではない。例えば、人工知能を用いない感情認識手法を、参加者の感情を検出する方法として適用する形態としてもよい。なお、人の感情の検出技術も、従来既知の技術であるため、これ以上の説明は省略する。
【0088】
そして、本実施形態に係る制御部11Bは、検出部11Aによって検出された感情を、表示部35に表示するアバター毎の画像に反映させる制御を更に行う。
【0089】
次に、図9図10を参照して、本実施形態に係るネット会合システム90の作用として、情報処理装置10の作用を説明する。図9は、本実施形態に係るネット会合処理の一例を示すフローチャートである。なお、図9における図4に示すネット会合処理と同一の処理を行うステップには図4と同一のステップ番号を付して、その説明を省略する。
【0090】
図9のステップ121Aで、CPU11は、上述したように、対象参加者の各々別の音声を検出する。次いで、CPU11は、ステップ102の処理によって検出した各対象参加者の視線の方向を用いて、対象参加者の各々の視線の先にいる対象参加者が発話しており、かつ、当該対象参加者以外に発話している自身以外の対象参加者がいる対象参加者(以下、「音声調整対象参加者」という。)が存在するか否かを判定する。そして、ステップ121Aで、CPU11は、この判定の結果、否定判定となった場合はステップ121Cに移行する一方、肯定判定となった場合はステップ121Bに移行する。なお、以下では、音声調整対象参加者の視線の先にいる、発話している対象参加者を「音声強調対象参加者」といい、上記自身以外の発話している対象参加者を「音声非強調対象参加者」という。
【0091】
ステップ121Bで、CPU11は、これ以降、以下に示す視線先発話強調処理を音声調整対象参加者の各々毎に実行する。
【0092】
即ち、まず、CPU11は、対応する音声強調対象参加者の音声を示す音声信号を予め定められた増幅率(本実施形態では、1.5倍)で増幅する。次いで、CPU11は、増幅後の音声強調対象参加者の音声信号と、対応する音声非強調対象参加者の音声信号とを重畳させる。そして、CPU11は、当該重畳によって得られた音声信号を、対応する音声調整対象参加者が有する端末装置30のスピーカ40で再生するように制御する。
【0093】
以上の視線先発話強調処理により、音声調整対象参加者が有する端末装置30からは、当該音声調整対象参加者の視線の先にいる音声強調対象参加者による発話が強調して再生されることになる。
【0094】
このように、本実施形態では、視線先発話強調処理として、音声強調対象参加者の音声の強調のみを行っているが、これに限るものではない。例えば、音声強調対象参加者の音声については強調させず、音声非強調対象参加者の音声を減衰させて、音声強調対象参加者の音声と重畳する形態としてもよい。また、例えば、音声強調対象参加者の音声を強調させ、かつ、音声非強調対象参加者の音声を減衰させて、これらの音声を重畳する形態としてもよい。
【0095】
ステップ121Cで、CPU11は、ステップ100の処理によって取得した画像情報を用いて、上述したように、各対象参加者の感情を検出する。ステップ121Dで、CPU11は、検出した各対象参加者の感情を示す情報を、対応する対象参加者のアバター基本情報に関連付けて記憶部13に記憶することにより、当該感情を対応するアバター基本情報に設定する。
【0096】
ステップ121Eで、CPU11は、ステップ110の処理によって検出した各対象参加者の集中度を、対応する対象参加者のアバター基本情報に関連付けて記憶部13に記憶することにより、当該集中度を示す情報を対応するアバター基本情報に設定する。
【0097】
図10Aには、本実施形態に係るネット会合処理のステップ122の処理によって対象参加者が有する端末装置30の表示部35に表示されるネット会合表示画面の表示内容の一例が示されている。
【0098】
図10Aに示すように、このネット会合表示画面では、各アバター画像60A~60Dが、対応する対象参加者の感情が反映された状態で表示されると共に、対応する対象参加者の集中度が数値として表示される。従って、各対象参加者は、他の対象参加者の感情や集中度を視覚的に把握することができる。
【0099】
なお、図10Aに示すネット会合表示画面において、一例として図10Bに示すように、ステップ121Cにおいて検出した感情の度合いを示す感情度を、感情の種類毎に導出し、当該感情度を表示する形態としてもよい。この場合の感情の種類としては、怒り、軽蔑、嫌悪、恐怖、喜び、悲しみ、驚き等が例示される。
【0100】
以上説明したように、本実施形態によれば、上記複数の参加者のネット会合に対する集中の度合いを示す集中度を示す情報を表示部35に更に表示している。従って、より効果的にネット会合を行うことができる。
【0101】
また、本実施形態によれば、上記複数の参加者が発する音声を個別に更に検出し、検出した音声を用いて、上記視線の方向に他の参加者である視線先参加者が存在し、かつ、当該視線先参加者を含む複数の参加者が発話している場合、視線先参加者が発した音声を、他の参加者が発している音声に対して相対的に大きく聞こえるように、上記視線を視線先参加者に向けている参加者が用いている端末装置で再生する制御を更に行っている。従って、視線先参加者の発話の内容を、より明確に把握することができる。
【0102】
更に、本実施形態によれば、上記複数の参加者のネット会合に対する感情を更に検出し、検出した感情を、表示部35に表示するアバター毎の画像に反映させる制御を更に行っている。従って、より効果的にネット会合を行うことができる。
【0103】
[第3実施形態]
本実施形態に係るネット会合システム90のハードウェア構成は第1、第2実施形態と同様であるため、まず、本実施形態に係るネット会合システム90の機能的な構成について説明する。
【0104】
本実施形態に係る制御部11Bは、第2実施形態と同様の機能に加え、表示部35に、文書及び図面の双方を示す資料を表示すると共に、当該資料を説明している参加者のアバターを示す画像を表示するように制御する機能を有している。このように、本実施形態では、表示部35に表示する資料として、文書及び図面の双方を示す資料を適用しているが、これに限るものではない。例えば、文書及び図面の何れか一方のみを示す資料を、表示部35に表示する資料として適用する形態としてもよい。
【0105】
次に、図11図12を参照して、本実施形態に係るネット会合システム90の作用として、情報処理装置10の作用を説明する。図11は、本実施形態に係るネット会合処理の一例を示すフローチャートである。なお、図11における図9に示すネット会合処理と同一の処理を行うステップには図9と同一のステップ番号を付して、その説明を省略する。また、錯綜を回避するために、ここでは、上記資料を示す情報(以下、「表示対象資料情報」という。)が予め取得されている場合について説明する。
【0106】
図11のステップ121Fで、CPU11は、表示対象資料情報が示す資料を、対象参加者の各々の端末装置30の表示部35に表示するように制御する。そして、ステップ123で、CPU11は、表示部35に表示させた資料に重畳させて、対象参加者の各々に対応するアバター画像を表示させることでネット会合表示画面を表示するように制御する。
【0107】
この際、CPU11は、一例として図12に示すように、資料を説明している対象参加者のアバター画像60Aを、当該資料を参照しており、かつ、発話している状態として表示するように制御する。従って、資料を説明している対象参加者を除く対象参加者は、当該資料を説明している対象参加者の視線を把握することができる結果、資料のどの部分を説明しているかを把握することができる。
【0108】
以上説明したように、本実施形態によれば、表示部35に文書及び図面の双方を示す資料を表示すると共に、当該資料を説明している参加者のアバターを示す画像を表示するように制御している。従って、資料を用いたネット会合における説明者の視線の方向を視認することができる結果、より効果的にネット会合を行うことができる。
【0109】
なお、上記各実施形態では言及しなかったが、上記各実施形態に係る検出部11Aが、上記複数の参加者のネット会合に対する感情を検出し、制御部11Bが、検出部11Aによって検出された感情を用いて、表示部35に表示するアバター毎のコマ割りを決定する制御を更に行う形態としてもよい。
【0110】
図13には、この形態におけるネット会合表示画面の一例が示されている。図13に示すネット会合表示画面では、気分よく発話している参加者のアバター画像60Aを最も広いコマ割りとし、発話していない参加者については、感情が高ぶっている順に広いコマ割りとしている。従って、このネット会合表示画面を参照することで、各参加者は、他の参加者の感情の起伏の変化を直感的に把握することができる結果、より効果的にネット会合を行うことができる。
【0111】
また、この形態の変形例として、声の大きさを用いて、アバター毎のコマ割りを決定する形態や、感情及び声の大きさの組み合わせを用いて、アバター毎のコマ割りを決定する形態としてもよい。
【0112】
また、上記各実施形態では、本発明を、情報処理装置10と端末装置30との組み合わせで実現する場合について説明したが、これに限るものではない。例えば、端末装置30の各々において、対応する参加者の視線の方向や感情及び集中度等の情報を個別に検出し、検出した情報を他の端末装置30とネットワーク80を介して共有し、最終的に各端末装置30により、自身で表示するネット会合表示画面を示す情報を生成して表示する形態としてもよい。また、例えば、端末装置30の各々において、対応する参加者の視線の方向や感情及び集中度等の情報を個別に検出し、検出した情報を情報処理装置10によって統括的に用いて、端末装置30の各々により表示するネット会合表示画面を示す情報を生成して配信する形態としてもよい。
【0113】
また、上記各実施形態で適用したアバター関連情報データベース13Bの構成は一例であり、例示したものに限定されるものでないことは言うまでもない。
【0114】
また、上記各実施形態において、例えば、検出部11A、制御部11B、及び導出部11Cの各処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
【0115】
処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、処理部を1つのプロセッサで構成してもよい。
【0116】
処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
【0117】
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
【符号の説明】
【0118】
10 情報処理装置
11 CPU
11A 検出部
11B 制御部
11C 導出部
12 メモリ
13 記憶部
13A ネット会合プログラム
13B アバター関連情報データベース
14 入力部
15 表示部
16 媒体読み書き装置
17 記録媒体
18 通信I/F部
30 端末装置
31 CPU
31A 制御部
32 メモリ
33 記憶部
33A ネット会合参加プログラム
34 入力部
35 表示部
36 媒体読み書き装置
37 記録媒体
38 撮影部
39 マイク
40 スピーカ
42 無線通信部
60A~60E アバター画像
62A~62D マーク
80 ネットワーク
90 ネット会合システム
A~E 対象参加者
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10A
図10B
図11
図12
図13