(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022168570
(43)【公開日】2022-11-08
(54)【発明の名称】会議支援制御装置および会議支援方法
(51)【国際特許分類】
H04N 7/15 20060101AFI20221031BHJP
H04N 21/431 20110101ALI20221031BHJP
G06F 13/00 20060101ALI20221031BHJP
G06F 3/01 20060101ALI20221031BHJP
【FI】
H04N7/15
H04N21/431
G06F13/00 650A
G06F3/01 510
【審査請求】未請求
【請求項の数】5
【出願形態】OL
(21)【出願番号】P 2021074116
(22)【出願日】2021-04-26
(71)【出願人】
【識別番号】308036402
【氏名又は名称】株式会社JVCケンウッド
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】新井 雄太
(72)【発明者】
【氏名】小村田 美玖
(72)【発明者】
【氏名】長谷川 祐一
(72)【発明者】
【氏名】玉井 良明
【テーマコード(参考)】
5B084
5C164
5E555
【Fターム(参考)】
5B084AA02
5B084AB06
5B084AB13
5B084BA07
5B084BB04
5B084CB06
5B084CB24
5B084DC05
5C164FA10
5C164UB88P
5C164VA06S
5C164VA07P
5E555AA22
5E555BA13
5E555BB13
5E555BC01
5E555BD06
5E555CB65
5E555DA01
5E555DB06
5E555DB53
5E555DC09
5E555FA00
(57)【要約】
【課題】ウェブ会議において効果的なプレゼンテーションを行うこと。
【解決手段】ネットワークを介して発表画像を共有して開催される会議を支援する会議支援制御装置である制御部20であって、参加者が使用する参加者端末10における発表画像が表示された表示部12上の参加者の視線位置を算出する視線位置算出部21と、発表画像における発表者が指し示すポインタ画像の位置であるポインタ位置を取得するポインタ位置取得部22と、視線位置算出部21が算出した視線位置と、ポインタ位置取得部22が取得したポインタ位置との距離を算出する距離算出部23と、距離算出部23が算出した距離に応じて、ポインタ画像を視線位置まで延長した形状に変化させたポインタ重畳画像を生成し、発表画像に重畳させる重畳画像生成部24とを備える。
【選択図】
図1
【特許請求の範囲】
【請求項1】
ネットワークを介して発表画像を共有して開催される会議を支援する会議支援制御装置であって、
参加者が使用する参加者端末における前記発表画像が表示された表示部上の前記参加者の視線位置を算出する視線位置算出部と、
前記発表画像における発表者が指し示すポインタ画像の位置であるポインタ位置を取得するポインタ位置取得部と、
前記視線位置算出部が算出した前記視線位置と、前記ポインタ位置取得部が取得した前記ポインタ位置との距離を算出する距離算出部と、
前記距離算出部が算出した前記距離に応じて、前記ポインタ画像を前記視線位置まで延長した形状に変化させたポインタ重畳画像を生成し、前記発表画像に重畳させる重畳画像生成部と、
を備える、会議支援制御装置。
【請求項2】
前記表示部の表示画面を複数の領域に区切り、前記視線位置が存在する領域を判定し、視線領域として出力する領域判定部、
を備え、
前記重畳画像生成部は、前記ポインタ画像を前記視線領域まで延長したポインタ重畳画像として生成する、
請求項1に記載の会議支援制御装置。
【請求項3】
前記領域判定部は、前記視線位置が所定の閾値時間以上留まったと判定した領域を前記視線領域として出力する、
請求項2に記載の会議支援制御装置。
【請求項4】
前記ポインタ位置取得部は、前記ポインタ位置を、前記参加者端末において検出、または、前記発表者が使用する発表者端末から取得する、
請求項1から3のいずれか一項に記載の会議支援制御装置。
【請求項5】
ネットワークを介して発表画像を共有して開催される会議を支援する会議支援方法であって、
参加者が使用する参加者端末における前記発表画像が表示された表示部上の前記参加者の視線位置を算出する視線位置算出ステップと、
前記発表画像における発表者が指し示すポインタ画像の位置であるポインタ位置を取得するポインタ位置取得ステップと、
前記視線位置算出ステップにおいて算出された前記視線位置と、前記ポインタ位置取得ステップにおいて取得された前記ポインタ位置との距離を算出する距離算出ステップと、
前記距離算出ステップにおいて算出された前記距離に応じて、前記ポインタ画像を前記視線位置まで延長した形状に変化させたポインタ重畳画像を生成し、前記発表画像に重畳させる重畳画像生成ステップと、
を含む、会議支援方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、会議支援制御装置および会議支援方法に関する。
【背景技術】
【0002】
オンラインで行う会議として、いわゆるウェブ会議が知られている。ウェブ会議では、離れた場所にいる発表者および参加者がそれぞれの端末を使用する。このため、発表者が、参加者の反応を確認しながら、会議の進め方を変えたりすることが難しい。ビデオ会議等で撮像された人物の視線方向に基づいて、ビデオ会議装置の表示部の画面レイアウトを変更する技術が知られている(例えば、特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載の技術では、画面を複数の領域に分割し、最も注目された領域が検出される。ところが、発表者が説明している領域と参加者が注目している領域が異なるため、内容を理解させることが難しく、効果的なプレゼンテーションを行うことは困難である。
【0005】
本発明は、上記に鑑みてなされたものであり、ウェブ会議において効果的なプレゼンテーションを行うことが可能な会議支援制御装置および会議支援方法を提供することを目的とする。
【課題を解決するための手段】
【0006】
上述した課題を解決し、目的を達成するために、本発明に係る会議支援制御装置は、ネットワークを介して発表画像を共有して開催される会議を支援する会議支援制御装置であって、参加者が使用する参加者端末における前記発表画像が表示された表示部上の前記参加者の視線位置を算出する視線位置算出部と、前記発表画像における発表者が指し示すポインタ画像の位置であるポインタ位置を取得するポインタ位置取得部と、前記視線位置算出部が算出した前記視線位置と、前記ポインタ位置取得部が取得した前記ポインタ位置との距離を算出する距離算出部と、前記距離算出部が算出した前記距離に応じて、前記ポインタ画像を前記視線位置まで延長した形状に変化させたポインタ重畳画像を生成し、前記発表画像に重畳させる重畳画像生成部とを備える。
【0007】
目的を達成するために、本発明に係る会議支援方法は、ネットワークを介して発表画像を共有して開催される会議を支援する会議支援方法であって、参加者が使用する参加者端末における前記発表画像が表示された表示部上の前記参加者の視線位置を算出する視線位置算出ステップと、前記発表画像における発表者が指し示すポインタ画像の位置であるポインタ位置を取得するポインタ位置取得ステップと、前記視線位置算出ステップにおいて算出された前記視線位置と、前記ポインタ位置取得ステップにおいて取得された前記ポインタ位置との距離を算出する距離算出ステップと、前記距離算出ステップにおいて算出された前記距離に応じて、前記ポインタ画像を前記視線位置まで延長した形状に変化させたポインタ重畳画像を生成し、前記発表画像に重畳させる重畳画像生成ステップと、を含む。
【発明の効果】
【0008】
本発明によれば、ウェブ会議において効果的なプレゼンテーションを行うことができる。
【図面の簡単な説明】
【0009】
【
図1】
図1は、会議支援システムの一例を模式的に示す図である。
【
図2】
図2は、第一実施形態に係る会議支援制御装置を有する参加者端末の構成例を示すブロック図である。
【
図3】
図3は、参加者端末を模式的に示す概略図である。
【
図4】
図4は、参加者端末に表示される誘導画像の一例を説明する図である。
【
図5】
図5は、発表者端末の構成例を示すブロック図である。
【
図6】
図6は、参加者端末における処理の一例を示すフローチャートである。
【
図7】
図7は、第二実施形態に係る会議支援制御装置を有する参加者端末の構成例を示すブロック図である。
【
図8】
図8は、参加者端末に表示される誘導画像の一例を説明する図である。
【
図9】
図9は、参加者端末における処理の一例を示すフローチャートである。
【発明を実施するための形態】
【0010】
以下、本発明に係る会議支援制御装置および会議支援方法の実施形態を図面に基づいて説明する。なお、以下の実施形態により本発明が限定されるものではない。ネットワークを介して発表画像を共有して開催される会議、いわゆるウェブ会議は、発表画像を提示しながら発表する発表者と、複数の視聴者である参加者とが存在する。ウェブ会議は、会議支援システム1を使用して行われる。発表画像とは、ウェブ会議で使用する、例えば、プレゼンテーション画像などである。発表画像には、発表者によって表示されたポインタ画像を含む。ポインタ画像は、例えば、円形状、リング形状、多角形状、および、指形状などである。
【0011】
[第一実施形態]
(会議支援システム)
図1は、会議支援システム1の一例を模式的に示す図である。会議支援システム1は、ネットワークを介して発表画像を共有して開催される会議を支援する。会議支援システム1は、複数の参加者Uが使用する複数の参加者端末10と、発表者Tが使用する発表者端末30とを備える。複数の参加者端末10と、発表者端末30とは、ネットワークNWを介して互いに情報を通信可能である。会議支援システム1は、ウェブ会議の開催時に、参加者端末10において、参加者Uの視線を所定の位置へ誘導する。
【0012】
所定の位置は、発表者Tが説明している位置である。所定の位置は、発表画像上において、発表者Tが指し示す位置、言い換えると、ポインタの位置である。
【0013】
本実施形態では、発表者端末30は、発表者Tの発表時に、発表内容データを記録する。本実施形態では発表内容データは、発表画像の発表画像データと、発表者映像の発表者映像データとを含む発表映像の発表映像データと、発表音声の発表音声データとを含む。発表者を表示しない場合には、発表者映像データは含まない。発表者端末30は、発表内容データを参加者端末10へ送信する。参加者端末10は、受信した発表内容データを出力する。参加者端末10は、発表時に、参加者Uの視線位置を示す視線位置情報を検出する。参加者端末10は、視線位置情報に応じて、参加者Uの視線を所定の位置へ誘導する誘導画像を表示する。
【0014】
(参加者端末)
図2は、第一実施形態に係る制御部20を有する参加者端末10の構成例を示すブロック図である。
図3は、参加者端末10を模式的に示す概略図である。参加者端末10は、ウェブ会議の参加者Uが使用する端末である。参加者端末10は、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータなどの情報端末が挙げられる。参加者端末10は、参加者Uが視聴する発表内容データを発表者端末30から受信する。参加者端末10は、発表内容データを出力する。参加者端末10は、発表時、表示部12における参加者Uの視線位置を示す視線位置情報を検出する。参加者端末10は、視線位置情報に応じて、参加者Uの視線を所定の位置へ誘導する誘導画像を表示する。参加者端末10は、カメラ11と、表示部12と、スピーカ13と、通信部14と、制御部(会議支援制御装置)20とを有する。
【0015】
カメラ11は、参加者Uを撮影するカメラである。カメラ11は、参加者端末10の表示部12を視認している参加者Uの顔部を撮影可能な位置に配置されている。カメラ11は、例えば、可視光カメラまたは遠赤外線カメラ、または近赤外線カメラで構成される。カメラ11は、例えば、可視光カメラと遠赤外線カメラまたは近赤外線カメラとの組み合わせで構成されてもよい。カメラ11は、発表映像が表示されている間は、参加者映像データを常時撮影する。カメラ11は、撮影した参加者映像データを制御部20の視線位置算出部21へ出力する。
【0016】
表示部12は、各種の情報を表示する装置である。表示部12は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Electro-Luminescence)ディスプレイなどを含むディスプレイである。表示部12は、制御部20の表示制御部25から出力された映像信号に基づいて、映像データを表示する。本実施形態では、表示部12は、発表映像を表示する。表示部12は、発表映像のうち発表画像のみを表示し、発表者映像を表示しなくてもよい。
図3では、表示部12に、発表画像100とポインタ画像101とが表示されている。表示部12は、発表画像とともに、発表者映像を表示してもよい。表示部12は、参加者Uの視線位置に応じて、発表映像とともに誘導画像を表示する。
【0017】
スピーカ13は、各種の音声データを出力する装置である。スピーカ13は、制御部20の音声出力制御部26から出力された音声信号に基づいて、音声データを出力する。本実施形態では、スピーカ13は、発表音声データを出力する。
【0018】
通信部14は、通信ユニットである。通信部14は、インターネットまたは携帯電話回線などいずれの方法で通信を行ってもよい。通信部14は、ネットワークNWを介して発表者端末30とデータを通信可能に接続する。通信部14は、発表者端末30から発表内容データを受信する。
【0019】
制御部20は、例えば、CPUなどで構成された演算処理装置(制御装置)である。制御部20は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部20には図示しない内部メモリが含まれ、内部メモリは制御部20におけるデータの一時記憶などに用いられる。制御部20は、視線位置算出部21と、ポインタ位置取得部22と、距離算出部23と、重畳画像生成部24と、表示制御部25と、音声出力制御部26と、通信制御部27とを有する。
【0020】
視線位置算出部21は、参加者Uの視線位置を算出する。視線位置算出部21は、参加者Uが使用する参加者端末10における発表画像が表示された表示部12上の参加者Uの視線位置を算出する。本実施形態では、視線位置算出部21は、発表画像において参加者Uがどこを見ているかを示す、発表画像上の参加者Uの視線位置を算出する。視線位置算出部21は、カメラ11から参加者映像データを取得する。視線位置算出部21は、取得した参加者映像データに画像処理を行って、参加者Uの眼の映像から、表示部12における参加者Uの視線位置を算出する。視線位置算出部21は、例えば参加者Uの瞳孔の位置と角膜反射像の位置とに基づいて視線位置を算出すること、または参加者Uの目頭の位置と虹彩の位置とに基づいて視線位置を算出することなど、各種の手法により参加者Uの視線位置を算出する。このようにして、視線位置算出部21は、発表画像上における参加者Uの視線位置を示す視線位置情報を算出する。
【0021】
ポインタ位置取得部22は、参加者Uが使用する参加者端末10の表示部12に表示された発表画像上における発表者Tの発表位置を取得する。ポインタ位置取得部22は、発表画像上における、発表者Tが指し示すポインタ画像の座標位置であるポインタ位置を取得する。
【0022】
ポインタ位置取得部22は、参加者端末10においてポインタ位置を検出してもよい。ポインタ位置取得部22は、例えば、図示しないカメラによって表示部12を撮影した映像データに画像処理を行って、発表画像上のポインタ画像を認識する。そして、ポインタ位置取得部22は、表示部12に表示された発表画像上におけるポインタ画像の座標位置を取得する。
【0023】
ポインタ位置取得部22は、発表者端末30からポインタ位置を示す情報を取得してもよい。この場合、発表画像データには、ポインタ画像データとともにポインタ位置データが含まれる。ポインタ位置取得部22は、発表者端末30から取得した発表画像データからポインタ位置データを取得する。
【0024】
距離算出部23は、視線位置算出部21が算出した視線位置と、ポインタ位置取得部22が取得したポインタ位置との距離を算出する。視線位置とポインタ位置との距離が短い場合、参加者は発表者Tが説明している内容に集中していると推測される。視線位置とポインタ位置との距離が長い場合、参加者は発表者Tが説明している内容に集中していないと推測される。
【0025】
重畳画像生成部24は、距離算出部23が算出した距離が閾値以上である場合、重畳画像を生成する。
【0026】
閾値は、参加者Uが、発表者Tが説明している内容に集中していないと予測される距離である。
【0027】
重畳画像生成部24は、距離算出部23が算出した距離に応じて、ポインタ画像を視線位置まで延長した形状に変化させたポインタ重畳画像を生成し、発表画像に重畳させる。より詳しくは、重畳画像生成部24は、距離算出部23が算出した距離に応じて、ポインタ画像の形状を変化させて、視線位置まで延長したポインタ重畳画像を誘導画像として生成する。言い換えると、重畳画像生成部24は、距離算出部23が算出した距離に応じて、ポインタ画像を、視線位置まで延長するように変形したポインタ重畳画像に置き換えた誘導画像を生成する。このように誘導画像が表示される場合、元の形状のポインタ画像は非表示になる。重畳画像生成部24は、発表画像に誘導画像を重畳した重畳画像を生成する。誘導画像は、発表画像上に透過性のレイヤーとして表示されてもよい。
【0028】
誘導画像は、ポインタ位置取得部22が認識した発表画像上のポインタ画像の形状を変化させてもよい。誘導画像は、ポインタ位置取得部22が発表者端末30から取得した発表画像データに含まれるポインタ画像データのポインタ画像の形状を変化させてもよい。
【0029】
誘導画像は、視線位置からポインタ位置へ向かう方向を示す画像である。誘導画像は、例えば視線位置からポインタ位置までを結ぶ矢印画像である。誘導画像は、例えば視線位置とポインタ位置とを結び、色彩、明度および輝度の少なくともいずれかを段階的に変化させた帯状の画像でもよい。誘導画像は、例えば、色彩、明度および輝度の少なくともいずれかによって方向を示してもよい。例えば、参加者Uの視線位置を青色にして、ポインタ位置へ向かうにつれて赤色にする。例えば、参加者Uの視線位置を明度または輝度を低くして、ポインタ位置へ向かうにつれて明度または輝度を高くする。誘導画像は、例えば視線位置とポインタ位置とを結び、太さを段階的に変化させた帯状の画像でもよい。誘導画像は、例えば、帯の太さによって方向を示してもよい。例えば、参加者Uの視線位置を太く、ポインタ位置へ向かうにつれて細くする。
【0030】
図4は、参加者端末10に表示される誘導画像103の一例を説明する図である。
図4は、表示部12に、発表画像100が表示されている。発表画像100上における、視線位置102を破線の円で示している。なお、視線位置102を示す破線の円は、発表画像100上には表示されない。誘導画像103は、視線位置102から図示しないポインタ位置までを結ぶ矢印画像である。
【0031】
表示制御部25は、表示部12における映像データの表示を制御する。表示制御部25は、映像データを表示部12に出力させる映像信号を出力する。より詳しくは、表示制御部25は、発表映像などを表示する映像信号を出力する。表示制御部25は、発表画像のみを表示する映像信号を出力してもよい。表示制御部25は、発表画像とともに、発表者映像を表示する映像信号を出力してもよい。表示制御部25は、重畳画像生成部24によって生成された重畳画像を表示部12に表示するように制御する。
【0032】
音声出力制御部26は、スピーカ13からの音声データの出力を制御する。音声出力制御部26は、音声データをスピーカ13から出力させる音声信号を出力する。より詳しくは、音声出力制御部26は、発表音声データなどを出力する音声信号を出力する。
【0033】
通信制御部27は、通信部14を介したデータの受信を制御する。通信制御部27は、通信部14を介して、発表者端末30から発表内容データを受信するよう制御する。
【0034】
(発表者端末)
図5は、発表者端末30の構成例を示すブロック図である。発表者端末30は、ウェブ会議の発表者Tが使用する端末である。発表者端末30は、例えば携帯電話、スマートフォン、タブレット、ノート型パーソナルコンピュータ、デスクトップ型パーソナルコンピュータなどの情報端末が挙げられる。発表者Tは、発表者端末30を使用して、発表画像を提示しながら発表内容を発表する。発表者端末30は、発表映像データと発表音声データとを含む発表内容データを参加者端末10へ送信する。発表者端末30は、カメラ31と、マイクロフォン32と、表示部33と、スピーカ34と、通信部35と、制御部40とを有する。本実施形態では、発表者端末30は、発表者Tが発表している間、カメラ31によって発表者Tの顔などを含む発表者映像データを撮影し、マイクロフォン32によって発表音声データを収音するものとして説明する。発表者Tを撮影しない場合、発表者端末30は、カメラ31を有していなくてよい。
【0035】
カメラ31は、発表者Tを撮影するカメラである。カメラ31は、発表者Tの顔部を撮影可能である。カメラ31は、例えば、可視光カメラで構成される。カメラ31は、発表者Tが発表している間、常時撮影する。カメラ31は、撮影した発表者映像データを制御部40の映像データ取得部41へ出力する。上述したように、カメラ31は必須の構成ではない。
【0036】
マイクロフォン32は、発表者Tの音声データを収音するマイクロフォンである。マイクロフォン32は、発表者Tの音声データを収音可能な位置に配置されている。マイクロフォン32は、発表者Tが発表している間、音声データを常時収音する。マイクロフォン32は、収音した音声データを制御部40の音声データ取得部42へ出力する。
【0037】
表示部33は、各種の情報を表示する装置である。表示部33は、例えば、液晶ディスプレイまたは有機ELディスプレイなどを含むディスプレイである。表示部33は、制御部40の表示制御部46から出力された映像信号に基づいて、映像データを表示する。本実施形態では、表示部33は、発表画像を表示する。
【0038】
スピーカ34は、各種の音声データを出力する装置である。スピーカ34は、制御部40の音声出力制御部47から出力された音声信号に基づいて、音声データを出力する。
【0039】
通信部35は、通信ユニットである。通信部35は、インターネットまたは携帯電話回線などいずれの方法で通信を行ってもよい。通信部35は、ネットワークNWを介して参加者端末10とデータを通信可能に接続する。通信部35は、参加者端末10へ発表内容データを送信する。
【0040】
制御部40は、例えば、CPUなどで構成された演算処理装置(制御装置)である。制御部40は、記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部40には図示しない内部メモリが含まれ、内部メモリは制御部40におけるデータの一時記憶などに用いられる。制御部40は、映像データ取得部41と、音声データ取得部42と、表示制御部46と、音声出力制御部47と、通信制御部48とを有する。
【0041】
映像データ取得部41は、発表者Tを撮影した発表者映像データを取得する。映像データ取得部41は、カメラ31が撮影した発表者映像データを取得する。発表者映像データは、例えば毎秒30フレームの画像から構成される動画像である。
【0042】
音声データ取得部42は、発表者Tが発表内容を発表する発表音声データを取得する。音声データ取得部42は、マイクロフォン32が収音した発表音声データを取得する。
【0043】
表示制御部46は、表示部33における映像データの表示を制御する。表示制御部46は、映像データを表示部33に出力させる映像信号を出力する。より詳しくは、表示制御部46は、発表画像を表示する映像信号を出力する。
【0044】
音声出力制御部47は、スピーカ34からの音声データの出力を制御する。音声出力制御部47は、音声データをスピーカ34から出力させる音声信号を出力する。
【0045】
通信制御部48は、通信部35を介したデータの送信を制御する。通信制御部48は、通信部35を介して、参加者端末10へ、発表内容データを送信するよう制御する。
【0046】
(参加者端末における処理)
図6を用いて、参加者端末10における処理について説明する。
図6は、参加者端末10における処理の一例を示すフローチャートである。ウェブ会議の開催中、参加者端末10は、発表者端末30から発表内容データを受信する。ウェブ会議の開催中、ステップS11ないしステップS17の処理が常時実行される。
【0047】
制御部20は、発表内容データを出力する(ステップS11)。より詳しくは、制御部20は、表示制御部25によって、発表画像とともに、発表者映像を表示部12に表示させる映像信号を出力する。制御部20は、音声出力制御部26によって、発表音声データなどをスピーカ13から出力させる音声信号を出力する。制御部20は、ステップS12へ進む。
【0048】
制御部20は、視線を検出する(ステップS12)。より詳しくは、カメラ11によって、発表映像が表示されている間、参加者Uの顔部の参加者映像データを常時撮影する。制御部20は、ステップS13へ進む。
【0049】
制御部20は、視線位置を算出する(ステップS13)。より詳しくは、制御部20は、視線位置算出部21によって、参加者映像データに画像処理を行って、参加者Uが使用する参加者端末10の表示部12における参加者Uの視線位置を算出する。制御部20は、視線位置算出部21によって、発表画像上における参加者Uの視線位置を示す視線位置情報を算出する。制御部20は、ステップS14へ進む。
【0050】
制御部20は、ポインタ位置を取得する(ステップS14)。より詳しくは、制御部20は、ポインタ位置取得部22によって、発表画像上における、発表者Tが指し示すポインタ画像の位置を取得する。制御部20は、ステップS15へ進む。
【0051】
制御部20は、距離を算出する(ステップS15)。より詳しくは、制御部20は、距離算出部23によって、視線位置算出部21が算出した視線位置と、ポインタ位置取得部22が取得したポインタ位置との距離を算出する。制御部20は、ステップS16へ進む。
【0052】
制御部20は、距離が閾値以上であるか否かを判定する(ステップS16)。より詳しくは、制御部20は、距離が閾値以上であると判定する場合(ステップS16でYes)、ステップS17へ進む。制御部20は、距離が閾値以上であると判定しない場合(ステップS16でNo)、ステップS19へ進む。
【0053】
距離が閾値以上であると判定する場合(ステップS16でYes)、制御部20は、重畳画像を生成する(ステップS17)。より詳しくは、制御部20は、重畳画像生成部24によって、距離算出部23が算出した距離に応じて、ポインタ画像を、視線位置まで延長するように変形したポインタ重畳画像に置き換えた誘導画像を生成する。制御部20は、重畳画像生成部24によって、発表画像に、誘導画像を重畳した重畳画像を生成する。制御部20は、ステップS18へ進む。
【0054】
制御部20は、重畳画像を表示する(ステップS18)。制御部20は、表示制御部25によって、重畳画像生成部24が生成した重畳画像を表示部12に表示するように制御する。
【0055】
距離が閾値以上であると判定しない場合(ステップS16でNo)、発表画像を表示する(ステップS19)。より詳しくは、制御部20は、表示制御部25によって、発表画像を表示部12に表示するように制御する。
【0056】
(効果)
上述したように、本実施形態によれば、ウェブ会議において参加者Uの視線位置がポインタ位置からずれている場合、ポインタ画像の形状を変化させて、視線位置まで延長した、参加者Uの視線を誘導する誘導画像を表示することができる。本実施形態では、参加者端末10の表示部12に、発表画像に、参加者Uの視線を視線位置からポインタ位置まで誘導する誘導画像を重畳した重畳画像を表示する。このように、本実施形態は、ウェブ会議において参加者Uの視線を所定の位置に誘導することができる。
【0057】
本実施形態では、ポインタ画像を変形または置換した、視線位置まで延長された誘導画像が表示される。本実施形態は、参加者Uの視線位置に、誘導画像の一端側が位置する。本実施形態によれば、参加者Uの視線を誘導画像に沿って、ポインタ位置まで自然に誘導することができる。
【0058】
本実施形態では、誘導画像が視線位置とポインタ位置とを結ぶ形状である。本実施形態では、参加者Uが誘導画像に沿って視線位置を移動すると、ポインタ位置へ自然と誘導することができる。
【0059】
[第二実施形態]
図7ないし
図9を参照しながら、本実施形態に係る制御部20Aを有する参加者端末10Aについて説明する。
図7は、第二実施形態に係る制御部20Aを有する参加者端末10Aの構成例を示すブロック図である。
図8は、参加者端末10Aに表示される誘導画像103の一例を説明する図である。
図9は、参加者端末10Aにおける処理の一例を示すフローチャートである。参加者端末10Aは、基本的な構成は第一実施形態の参加者端末10と同様である。以下の説明においては、参加者端末10と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態の制御部20Aは、領域判定部28Aを有する点と、重畳画像生成部24Aにおける処理とが第一実施形態と異なる。
【0060】
領域判定部28Aは、表示部12の表示画面を複数の領域に区切り、参加者Uの視線位置が存在する領域を判定し、視線領域として出力する。本実施形態では、
図8に示すように、領域判定部28Aは、表示部12の表示画面を4つの領域に区切る。なお、領域の数は、4つに限定されない。
図8において、4つの領域は破線の位置で区切られている。領域判定部28Aは、視線位置算出部21が算出した視線位置が、いずれの領域に位置するかを判定する。
図8においては、領域判定部28Aは、参加者Uの視線は左下の領域に位置すると判定する。
図8においては、視線領域は、左下の領域である。
【0061】
領域判定部28Aは、参加者Uの視線位置が所定の閾値時間以上留まったと判定した領域を視線領域として出力するようにしてもよい。
【0062】
重畳画像生成部24Aは、距離算出部23が算出した距離に応じて、ポインタ画像を視線領域まで延長した形状に変化させたポインタ重畳画像を誘導画像として生成する。言い換えると、重畳画像生成部24Aは、距離算出部23が算出した距離に応じて、ポインタ画像を、視線位置が位置する視線領域まで延長するように変形したポインタ重畳画像に置き換えた誘導画像を生成する。
【0063】
誘導画像は、視線位置が位置する視線領域からポインタ位置へ向かう方向を示す画像である。誘導画像は、例えば視線領域の中心部、端部、または任意の位置からポインタ位置までを結んでもよい。誘導画像は、例えば視線領域からポインタ位置が位置する領域までを結んでもよい。
【0064】
図8に示す誘導画像103は、視線位置102が位置する視線領域の中心から、ポインタ位置までを結ぶ矢印画像である。
【0065】
図9を用いて、参加者端末10Aにおける処理について説明する。ステップS21ないしステップS26、ステップS29、ステップS30の処理は、
図6に示すローチャートのステップS11ないしステップS16、ステップS18、ステップS19の処理を同様の処理を行う。
【0066】
距離が閾値以上であると判定する場合(ステップS26でYes)、制御部20Aは、領域を判定する(ステップS27)。より詳しくは、制御部20Aは、領域判定部28Aによって、表示部12の表示画面を複数の領域に区切り、参加者Uの視線位置が存在する領域を判定し、視線領域として出力する。制御部20Aは、ステップS28へ進む。
【0067】
制御部20Aは、重畳画像を生成する(ステップS28)。より詳しくは、制御部20Aは、重畳画像生成部24Aによって、距離算出部23が算出した距離に応じて、ポインタ画像の形状を変化させて、視線位置が位置する視線領域まで延長したポインタ重畳画像を誘導画像として生成する。制御部20Aは、重畳画像生成部24Aによって、発表画像に、誘導画像を重畳した重畳画像を生成する。制御部20Aは、ステップS29へ進む。
【0068】
上述したように、本実施形態では、視線位置が位置する視線領域まで延長したポインタ重畳画像を誘導画像として表示させる。本実施形態は、参加者Uの視線位置が同じ領域内において移動している場合に、表示される誘導画像が変化しない。本実施形態によれば、表示される誘導画像が短時間で小刻みに移動することを抑制できる。本実施形態によれば、ウェブ会議において参加者Uの視線を所定の位置に誘導することができる。
【0069】
本実施形態は、視線位置が所定の閾値時間以上留まったと判定した領域を視線領域として出力する。本実施形態によれば、参加者Uの視線位置が移動している期間、および、視線位置が定まらない期間などを除いて、より適切に視線領域を判定することができる。
【0070】
図示した会議支援システムの各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
【0071】
会議支援システムの構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
【0072】
上記に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記に記載した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
【符号の説明】
【0073】
1 会議支援システム
10 参加者端末
11 カメラ
12 表示部
13 スピーカ
14 通信部
20 制御部(会議支援制御装置)
21 視線位置算出部
22 ポインタ位置取得部
23 距離算出部
24 重畳画像生成部
25 表示制御部
26 音声出力制御部
27 通信制御部
30 発表者端末
31 カメラ
32 マイクロフォン
33 表示部
34 スピーカ
35 通信部
40 制御部
41 映像データ取得部
42 音声データ取得部
46 表示制御部
47 音声出力制御部
48 通信制御部