【文献】
岩崎 昇一,3D教材開発用共通プラットフォームの提案,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2000年12月13日,Vol.100 No.516,第53〜58頁
(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0013】
[システム構成]
以下、本発明の一実施形態の授業コンテンツの視聴システムについて図面を用いて説明する。
【0014】
本実施形態の授業コンテンツの視聴システムは、仮想現実(VR)を用いた授業コンテンツを配信するシステムである。
図1に示す授業コンテンツの視聴システムは、通信授業用サーバ10および生徒用端末30を備える。通信授業用サーバ10と生徒用端末30は、通信回線20を介して接続されている。通信回線20は、インターネット等の任意の通信回線である。
【0015】
図1では、生徒用端末30を1台のみ図示しているが、生徒用端末30の台数は任意である。生徒1人に対して1台の生徒用端末30を用意する。授業コンテンツが生放送で配信される場合は、多数の生徒用端末30が通信授業用サーバ10に同時に接続される。授業コンテンツがオンデマンドで配信される場合は、生徒用端末30と通信授業用サーバ10とを一対一で接続してもよい。
【0016】
生徒用端末30は、VR機能を有する端末であれば、スマートフォンおよびパーソナルコンピュータなどの任意のコンピュータ機器を用いることができる。生徒用端末30には、HMD31およびカメラ32が接続される。カメラ32はHMD31が備えてもよいし、生徒がいる室内に固定されていてもよい。生徒用端末30とHMD31とカメラ32が一体となった装置を用いてもよい。
【0017】
授業コンテンツを視聴する際、生徒はHMD31を装着する。生徒用端末30は、通信授業用サーバ10から仮想空間を構成するための情報を受信し、受信した情報に基づいて仮想空間を構成し、HMD31に仮想空間を撮影した映像を表示する。生徒用端末30は、仮想空間をレンダリングする際、カメラ32で撮影した生徒の机上の画像を仮想空間内の机オブジェクトにはめ込み合成する。
【0018】
通信授業用サーバ10には、教室ディスプレイ11、中継カメラ12、教師用端末13、マイクロホン14、およびスピーカ15が接続される。スピーカ15は、ヘッドホン(イヤホン)を含む。通信授業用サーバ10は、接続された機器から受信した情報を元に、仮想空間内での授業コンテンツを作成する。
【0019】
図2に示すように、教師40は、教室ディスプレイ11の前に立ち、教室ディスプレイ11および教師用端末13を用いて授業を行う。教室ディスプレイ11は、電子黒板と称される大画面ディスプレイである。教師40は、通信授業用サーバ10に記憶されている授業用データを教室ディスプレイ11に表示させて授業を行う。授業用データは、教師用端末13に表示されてもよい。教師40の発話に合わせて授業用データが遷移して表示されて授業が進行する。教師40は、教師用端末13を操作し、教室ディスプレイ11に表示する授業用データを選択してもよい。
【0020】
教室ディスプレイ11に表示された授業用データは、仮想空間内に配置される黒板オブジェクトにも表示される。教室ディスプレイ11の代わりに黒板またはホワイトボードを用いてもよい。
【0021】
中継カメラ12は、教師40による授業を撮影する。教師40を撮影した動画データは、通信授業用サーバ10に送信される。通信授業用サーバ10は、動画データから教師40の動きおよび姿勢を検出し、仮想空間内に配置される教師アバターに反映させるためのモーションデータを生成する。教師アバターとは、教師40の動きを反映させるコンピュータグラフィックス(CG)キャラクタである。例えば、通信授業用サーバ10は、動画データから教師40のボーン(骨格)を検出し、検出したボーンに基づいて教師アバターを動かす。通信授業用サーバ10は、ボーンに基づいて生成した教師アバターのモーションデータを生徒用端末30へ配信する。教師40を撮影した動画データから教師アバターのモーションデータを作成する代わりに、教師がHMDを装着し、コントローラを操作して、教師アバターを操作してもよい。
【0022】
マイクロホン14は、教師40の発した音声を収音する。収音された音声データは、通信授業用サーバ10に送信される。通信授業用サーバ10は、音声データを生徒用端末30へ配信する。
【0023】
スピーカ15は、例えば、撮影スタッフからの授業の進行に関する指示などを出力して教師40に伝える。授業が双方向の場合、スピーカ15は、生徒用端末30から送信された音声データを出力してもよい。
【0024】
なお、授業を撮影した映像であれば、どのような映像を用いて授業コンテンツを作成してもよい。例えば、過去に録画された教育番組の映像から登場人物のボーンを検出し、検出したボーンに基づいて仮想空間内のアバターを動かしてもよい。
【0025】
[サーバ構成]
図3を参照し、通信授業用サーバ10の構成について説明する。
図3に示す通信授業用サーバ10は、入出力部101、制御部102、音声処理部103、記憶部104、および配信部105を備える。
【0026】
入出力部101は、教室ディスプレイ11、中継カメラ12、教師用端末13、マイクロホン14、およびスピーカ15と接続し、授業用データを出力したり、動画データ、音声データ、および操作を入力したりする。
【0027】
制御部102は、動画データから教師40の動きおよび姿勢を検出し、教師アバターのモーションデータを生成する。モーションデータは記憶部104に記憶される。制御部102は、教室ディスプレイ11に表示された情報および教師用端末13から入力された情報を記憶部104に記憶する。
【0028】
音声処理部103は、マイクロホン14で受信した音声等を記憶部104に記憶する。
【0029】
記憶部104は、授業が行われる仮想空間を構築するための情報を記憶する。仮想空間を構築するための情報としては、例えば、仮想空間内に配置されるオブジェクトのモデルデータ、オブジェクトの配置情報、アバターのモデルデータとモーションデータがある。仮想空間内に配置されるオブジェクトとしては、例えば、黒板オブジェクト、教室の壁・床・天井のオブジェクト、および生徒の机オブジェクトがある。記憶部104は、授業の進行に合わせて録音された音声データ、教室ディスプレイ11に表示された情報および教師用端末13から入力された情報を含む授業用データを記憶する。
【0030】
配信部105は、授業が行われる仮想空間を構築するための仮想空間情報を配信する。例えば、配信部105は、授業の開始前に、仮想空間内の教室に配置されたオブジェクトおよびアバターのモデルデータを生徒用端末30へ配信しておく。配信部105は、授業が視聴されている間、教師アバターのモーションデータ、音声データ、黒板オブジェクトに描画される情報などの授業の進行に応じて変化するデータを生徒用端末30へ随時配信する。
【0031】
[端末構成]
図4を参照し、生徒用端末30の構成について説明する。
図4に示す生徒用端末30は、VR機能部301、入力部302、測定部303、調整部304、および記憶部305を備える。
【0032】
VR機能部301は、通信授業用サーバ10から仮想空間を構築するための仮想空間情報を受信して仮想空間を構築する。VR機能部301は、HMD31で検出した生徒の頭の動きに基づいて仮想カメラを制御して、仮想空間をレンダリングする。生徒の見る映像は、仮想空間内の生徒アバターの視点から見える仮想空間である。生徒アバターとは、授業を視聴する生徒の仮想空間内のCGキャラクタである。
【0033】
VR機能部301は、仮想空間をレンダリングする際、カメラ32で撮影した現実空間の映像を解析し、映像内から机上部分の領域を抽出し、抽出した領域内の映像を仮想空間内の机オブジェクトの天板にはめ込み合成する。これにより、仮想空間内の机オブジェクトに現実空間の机上の映像が融合されて表示される。映像をはめ込み合成した机オブジェクトの天板以外は仮想空間をレンダリングした映像であるので、没入感が損なわれることがない。
【0034】
生徒アバターつまり生徒が机オブジェクトを見ることで、生徒はHMD31を装着したまま、机オブジェクトの天板に投影された現実空間の机上を見ることができる。生徒は、仮想空間内において、現実空間の机上の教科書、ノート、パソコン等を見ることができる。生徒が現実空間のノートに書いた文字等は、机オブジェクトに投影されるので、生徒はHMD31を装着したまま現実空間のノートを作成できる。カメラ32で撮影する現実空間の映像は、生徒の手の届く範囲を少なくとも含む現実空間を撮影した映像である。生徒は、仮想空間に融合された現実空間の映像を見ながら現実空間の実体物を利用できる。なお、机オブジェクト以外の仮想空間内に、映像から抽出した生徒の手の届く範囲の領域をはめ込み合成してもよい。
【0035】
なお、生徒が机の引き出しを開けたとき、VR機能部301は、映像内から引き出し部分の領域を抽出し、机オブジェクトを引き出しを開けた状態にして、机オブジェクトに引き出し部分の領域をはめ込み合成してもよい。映像をはめ込み合成する机は学習机に限らず、サイドテーブル、サイドワゴン、あるいはサイドチェストなどの家具であってもよい。机オブジェクトは、これらの家具に対応するオブジェクトも含む。
【0036】
VR機能部301は、仮想空間内の生徒アバターのモーションデータを生成し、通信授業用サーバ10へ送信してもよい。生徒は、コントローラを操作して生徒アバターのモーションを制御してもよい。
【0037】
入力部302は、カメラ32で撮影した映像を入力する。入力部302は、HMD31で検出した生徒の頭の動きおよびコントローラの操作内容を入力してもよい。入力部302にマイクロホンを接続して生徒の音声を入力し、入力した音声データを通信授業用サーバ10へ送信してもよい。
【0038】
測定部303は、生徒が授業コンテンツを視聴する前に、生徒の利用する机が置かれた現実空間の3次元空間情報を測定し、得られた3次元空間情報に基づいて現実空間の机の天板を検出する。例えば、カメラ32を動かしながら現実空間の動画を撮影し、単眼カメラを用いたマーカーレスARの技術により、撮影場所の3次元空間情報を測定できる。測定部303は、例えば、得られた3次元空間情報に基づき、所定の範囲内の高さにあり、所定の広さを持った平面を机の天板として検出する。
【0039】
測定部303が天板の候補となる平面をいくつか生徒に提示し、生徒が天板を示す平面を選択してもよい。具体的には、例えば、カメラ32を備えたHMD31を生徒が装着し、カメラ32で撮影した映像をHMD31に表示する。生徒は、カメラ32のフレーム内に机の天板が収まるように頭(カメラ32)を動かす。測定部303は、映像から3次元空間情報を測定して平面を検出する。測定部303は、平面を検出できたときは、カメラ32の撮影した映像に検出できた平面を示す枠を重ねて表示する。生徒は、平面を示す枠が机の天板と一致したときに、コントローラを操作するなどの決定操作を行う。
【0040】
調整部304は、現実空間でのHMD31と机の天板との位置関係に基づき、仮想空間内の机オブジェクトの天板の位置を調整する。HMD31の位置が生徒アバターの頭部に相当する。調整部304は、机オブジェクトの天板の大きさを現実空間の机の天板の大きさに調整してもよい。調整部304が机オブジェクトの位置や大きさを現実空間の机に合わせて調製することで、生徒が生徒アバターで机オブジェクトの天板に触れると、現実空間においても机の天板に触れることができる。生徒アバターのサイズは生徒に合わせて調整しておく。仮想空間内に現実空間で触れることができるオブジェクトが表示される。
【0041】
記憶部305は、VR機能部301が仮想空間をレンダリングするのに必要な情報、測定部303が測定した3次元空間情報、および調整部304が調整した調整後の机オブジェクトの情報を保持する。記憶部305は、カメラ32で撮影された映像など入力部302が入力した情報を保存してもよい。
【0042】
なお、授業コンテンツを視聴するための生徒用の専用ブースを用意する場合、生徒の利用する机が写るようにカメラ32を固定して配置してもよい。机には決められた大きさのものを用い、決められた位置に配置する。これにより、カメラ32および机の位置は固定されるので、測定部303による天板の検出が不要である。机の大きさも決められているので、調整部304による机オブジェクトの調整も不要である。また、生徒の自室において、カメラ32を固定して配置してもよい。自室の机に応じて机オブジェクトを一度調整しておけば、2度目から調整が不要である。
【0043】
通信授業用サーバ10および生徒用端末30には、例えば、中央演算処理装置(CPU)、メモリ、ストレージ、通信装置、および入出力装置とを備える汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、通信授業用サーバ10および生徒用端末30が実現される。このプログラムは磁気ディスク、光ディスク、半導体メモリ等のコンピュータ読み取り可能な記録媒体に記録することも、ネットワークを介して配信することもできる。
【0044】
通信授業用サーバ10が仮想空間をレンダリングしてもよい。例えば、生徒用端末30は、HMD31で検出した生徒の頭の動きを通信授業用サーバ10へ送信する。通信授業用サーバ10は、生徒の頭の動きに基づいて仮想カメラを制御し、仮想空間をレンダリングする。生徒用端末30はレンダリング後の映像を受信して表示する。
【0045】
[はめ込み合成処理]
図5を参照し、はめ込み合成を行う処理の流れについて説明する。
【0046】
ステップS11にて、測定部303は、現実空間の机の位置および大きさを検出する。
【0047】
ステップS12にて、調整部304は、現実空間の机の位置および大きさに基づいて仮想空間内の机オブジェクトの位置および大きさを調整する。例えば、HMD31から机の天板までの距離を基準として生徒アバターの視点位置から机オブジェクトの天板までの距離を調整し、さらに、机オブジェクトの天板の大きさを調整する。
【0048】
調整で304による机オブジェクトの調整後、生徒は、HMD31を装着して仮想空間内に机オブジェクトを表示させ、手を動かして、仮想空間内での机オブジェクトの位置および大きさが現実空間の机の位置および大きさに対応しているか否か確認し、机オブジェクトの位置および大きさを微調整してもよい。
【0049】
以上のステップS11およびステップS12の処理により、仮想空間の机オブジェクトを現実空間の机に対応させることができる。
【0050】
ステップS13にて、カメラ32で撮影した映像から机上の領域を抽出し、抽出した領域内の映像を仮想空間内の机オブジェクトの天板にはめ込み合成する。これにより、生徒は、HMD31を装着したまま仮想空間内で現実空間の机上を見ることができる。
【0051】
生徒が、現実空間において机上のノートに記入する場合、机上を撮影した映像には生徒の手や腕が映る。この場合、生徒アバターの手および腕を非表示にしたり、透明にしたりしてもよい。
【0052】
VR機能部301は、オブジェクトをレンダリングする際、現実空間の実体物と対応が取れている部分を強調表示してもよい。例えば、現実空間の実体物と対応がとれている机の天板について、VR機能部301は、机オブジェクトの天板の端を枠で囲って強調表示する。これにより、生徒は、仮想空間で枠で囲われた部分は現実空間において実体物が存在することを認識できる。
【0053】
生徒の頭部が揺動した場合でも、現実空間の映像がオブジェクトに対して揺れずに合成されるようにする。
【0054】
現実空間の映像をはめ込み合成する機能をオン/オフできてもよいし、現実空間の映像に透明度を設定してはめ込み合成してもよい。現実空間の映像をはめ込み合成しない場合でも、仮想空間内の机オブジェクトの位置および大きさは、現実空間の机に対応させておく。
【0055】
[はめ込み合成例]
図6ないし8を参照し、机オブジェクトに映像をはめ込む合成例について説明する。
【0056】
図6は、映像をはめ込み合成する前の仮想空間の一例を示す図である。同図では、教師アバター400、机オブジェクト500、および黒板オブジェクト600を図示している。床・天井・壁など図示したもの以外のオブジェクトを仮想空間内に配置してもよい。
【0057】
複数の生徒で授業を受ける場合あるいは複数の生徒で授業を受けているように演出する場合は、他の生徒のアバターおよび机オブジェクトを配置してもよい。他の生徒の机オブジェクトは、机上を撮影した映像をはめ込み合成した机オブジェクトでもよいし、映像をはめ込み合成しない机オブジェクトでもよい。
【0058】
教師アバター400は、教師40の動きを反映して授業を進行するCGキャラクタである。生徒用端末30は、通信授業用サーバ10から受信したモーションデータに基づき、教師アバター400を制御する。
【0059】
図6に示す机オブジェクト500は、現実空間の机の位置および大きさに対応するように調整していない。机オブジェクト500の手前に生徒アバター(図示せず)が存在する。机オブジェクト500の天板500Aに映像をはめ込み合成する。
【0060】
黒板オブジェクト600は、教師40が授業の進行に応じて用いるオブジェクトである。教室ディスプレイ11に表示された情報を表示したり、教師用端末13から入力した情報を表示したりする。
【0061】
図7は、現実空間の生徒の机の一例を示す図である。机700は、授業を視聴する生徒の手の届く範囲にある机である。生徒用端末30は、生徒が授業コンテンツを視聴中、カメラ32で机700を撮影した映像から机700の天板700Aの領域を抽出する。
【0062】
図8は、
図6の仮想空間に
図7の机を撮影した映像をはめ込み合成した仮想空間の一例を示す図である。
図8では、
図7の天板700Aの領域内の映像を仮想空間内の机オブジェクト500の天板500Aにはめ込み合成している。また、天板500Aの位置を少し高くし、天板500Aの大きさを現実空間の天板700Aに合わせて調整している。現実空間の机700に置かれたパソコンやノートも仮想空間内の机オブジェクトに投影されている。現実空間の映像をはめ込み合成した天板500Aを囲う枠を表示してもよい。
【0063】
なお、机オブジェクトに現実空間の映像をはめ込み合成するだけでなく、例えば、現実空間のパソコンのモニタの画面を仮想空間内のオブジェクトに投影してもよい。具体的には、パソコンのキーボードやマウスは机上に置いて操作できるようにする。パソコンのモニタをカメラで撮影する。仮想空間内にパソコンのモニタに対応するモニタオブジェクトを配置する。現実空間のモニタを撮影した映像からモニタの表示領域を抽出して仮想空間内のモニタオブジェクトにはめ込み合成する。生徒は、現実空間のパソコンを操作しながら、仮想空間内でモニタオブジェクトに写る表示を確認できる。モニタオブジェクトは生徒が触れるものではないので、仮想空間内での位置や大きさは任意に設定してもよい。
【0064】
また、生徒の自室を360度の映像が撮影可能な全天球カメラで撮影し、仮想空間の教室の壁・床・天井に撮影した映像をはめ込み合成してもよい。
【0065】
以上説明したように、本実施形態の授業コンテンツの視聴システムは、仮想空間内で行われる授業を配信する通信授業用サーバ10と授業を視聴するための生徒用端末30を備える。通信授業用サーバ10は、仮想空間内で行われる授業を表示するための仮想空間情報を配信する配信部105を備える。生徒用端末30は、仮想空間情報に基づいて仮想空間を表示するVR機能部301と、授業を視聴する生徒の手の届く範囲の現実空間を撮影した映像を入力する入力部302と、を備える。VR機能部301は、映像から机700の天板700Aが写っている領域を抽出し、机オブジェクト500の天板500Aに領域内の映像をはめ込み合成する。これにより、生徒は、HMD31を外すことなく、生徒の使用する机上を見ることができ、さらに、机上の教科書、ノート、パソコンなどを利用することもできる。
【解決手段】没入感のある仮想空間内で行われる授業を視聴するための生徒用端末30は、仮想空間情報に基づいて仮想空間を表示するVR機能部301と、授業を視聴する生徒の手の届く範囲の現実空間を撮影した映像を入力する入力部302を備える。VR機能部301は、映像から仮想空間内の机オブジェクトに対応する机の天板が写っている領域を抽出し、机オブジェクトの天板部分に領域内の映像をはめ込み合成する。