(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2024-09-02
(45)【発行日】2024-09-10
(54)【発明の名称】通信教育システム、通信教育提供方法及び通信教育提供プログラム
(51)【国際特許分類】
G06F 3/0481 20220101AFI20240903BHJP
G09B 5/02 20060101ALI20240903BHJP
G09B 5/08 20060101ALI20240903BHJP
G06Q 50/20 20120101ALI20240903BHJP
【FI】
G06F3/0481
G09B5/02
G09B5/08
G06Q50/20
(21)【出願番号】P 2024017361
(22)【出願日】2024-02-07
【審査請求日】2024-02-07
【早期審査対象出願】
(73)【特許権者】
【識別番号】522432424
【氏名又は名称】株式会社HINICHIJO
(74)【代理人】
【識別番号】110001519
【氏名又は名称】弁理士法人太陽国際特許事務所
(72)【発明者】
【氏名】高岡 淳二
(72)【発明者】
【氏名】木邨 学人
【審査官】安田 明央
(56)【参考文献】
【文献】特開2021-006894(JP,A)
【文献】特開2021-105707(JP,A)
【文献】特開2023-067892(JP,A)
【文献】特開2022-184724(JP,A)
【文献】特開2021-086146(JP,A)
【文献】特開2023-145956(JP,A)
【文献】特許第7256325(JP,B1)
【文献】特開2014-029670(JP,A)
【文献】特許第7281012(JP,B1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/048-04895
G06F 3/01
G06Q 50/20
G09B 5/00-5/14
(57)【特許請求の範囲】
【請求項1】
仮想空間上に展開される学習用コンテンツを用いて通信教育を提供する通信教育システムであって、
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
指導者側又は生徒側のユーザのアバターオブジェクトを設定し、
ネットワークを介して前記仮想空間に接続されたユーザ端末
に接続されたカメラから前記ユーザの動作情報を取得し、
取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、
予め設定された予定動作に関する前記アバターオブジェクトの予定動作アニメーションを作成し、
前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示さ
せ、
前記ユーザ端末に接続されたカメラを介してユーザによる所定の動作が前記動作情報として取得されることにより、前記仮想空間上の前記アバターオブジェクトを、前記実動作アニメーションから当該所定の動作と異なる前記予定動作アニメーションに切り替えて表示させる、
通信教育システム。
【請求項2】
仮想空間上に展開される学習用コンテンツを用いて通信教育を提供する通信教育システムであって、
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
指導者側又は生徒側のユーザのアバターオブジェクトを設定し、
ネットワークを介して前記仮想空間に接続されたユーザ端末から前記ユーザの動作情報を取得し、
取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、
前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示さ
せ、
指導者側及び生徒側のユーザの前記アバターオブジェクトの少なくとも一方は、前記学習用コンテンツのチャプタに含まれるキャラクターオブジェクトとして予め設定されたオブジェクトの一つである、
通信教育システム。
【請求項3】
前記少なくとも一つのプロセッサは、前記予定動作アニメーションが終了すると、
前記アバターオブジェクトを再び前記実動作アニメーションに切り替えて表示させる、
請求項1に記載の通信教育システム。
【請求項4】
前記予定動作には、前記ユーザの感情を示すリアクション動作が含まれる、
請求項1に記載の通信教育システム。
【請求項5】
前記予定動作には、前記学習用コンテンツに含まれる所定のオブジェクトを操作する動作が含まれる、
請求項1に記載の通信教育システム。
【請求項6】
前記予定動作には、所定の動作パターンを繰り返す繰り返し動作が含まれる、
請求項1に記載の通信教育システム。
【請求項7】
前記アバターオブジェクトは、前記ユーザによって予め設定された任意のオブジェクトである、
請求項1に記載の通信教育システム。
【請求項8】
前記アバターオブジェクトは、前記学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つである、
請求項1に記載の通信教育システム。
【請求項9】
仮想空間上に展開される学習用コンテンツを用いて通信教育を提供する通信教育提供方法であって、
指導者側又は生徒側のユーザのアバターオブジェクトを設定し、
ネットワークを介して前記仮想空間に接続されたユーザ端末
に接続されたカメラから前記ユーザの動作情報を取得し、
予め設定された予定動作に関する前記アバターオブジェクトの予定動作アニメーションを作成し、
取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、
前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示さ
せ、
前記ユーザ端末に接続されたカメラを介してユーザによる所定の動作が前記動作情報として取得されることにより、前記仮想空間上の前記アバターオブジェクトを、前記実動作アニメーションから当該所定の動作と異なる前記予定動作アニメーションに切り替えて表示させる、
通信教育提供方法。
【請求項10】
仮想空間上に展開される学習用コンテンツを用いて通信教育を提供するための通信教育提供プログラムであって、
指導者側又は生徒側のユーザのアバターオブジェクトを設定し、
ネットワークを介して前記仮想空間に接続されたユーザ端末
に接続されたカメラから前記ユーザの動作情報を取得し、
取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、
予め設定された予定動作に関する前記アバターオブジェクトの予定動作アニメーションを作成し、
前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示させる、処理をコンピュータに実行さ
せ、
記ユーザ端末に接続されたカメラを介してユーザによる所定の動作が前記動作情報として取得されることにより、前記仮想空間上の前記アバターオブジェクトを、前記実動作アニメーションから当該所定の動作と異なる前記予定動作アニメーションに切り替えて表示させる、
通信教育提供プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、通信教育システム、通信教育提供方法及び通信教育提供プログラムに関する。
【背景技術】
【0002】
近年、仮想空間を利用した通信教育においては、仮想空間における表現の自由度を利用した学習効果の高い教育方法の導入が検討されている。例えば、生徒側のユーザが好みのキャラクタに扮したアバターで仮想空間に参加することで、授業への積極的な参加を促し、学習効果を高めることが知られている。また、「知育」等の幼児教育の分野では、子供の興味を引き付ける外見的個性を指導者側のアバターに与えることで、子供の人見知りを克服し、学習効果を高めることが期待されている。
【0003】
特許文献1には、黒板の前で教師が授業を行う場面を撮影した原画像データを取得し、原画像データに基づいて、教師の動作を示すモーションデータを作成し、モーションデータに基づいて教師に対応するアバターの仕様を決定するコンテンツ制御システムが開示されている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に記載された技術では、授業を行う場面において、教師とは異なる位置にアバターを配置した教育用コンテンツデータを出力する。従って、生徒側のユーザに対しては、実空間で授業を行う教師の姿と、アバターの画像とが提示されるため、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を得にくいことが考えられる。
【0006】
本発明は上記課題を解決するためになされたものであり、仮想空間上に展開される学習用コンテンツを用いて通信教育を行う際に、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる通信教育システム、通信教育提供方法及び通信教育提供プログラムを得ることを目的とする。
【課題を解決するための手段】
【0007】
本発明の第1の態様に係る通信教育システムは、仮想空間上に展開される学習用コンテンツを用いて通信教育を提供する通信教育システムであって、少なくとも一つのプロセッサを備え、前記少なくとも一つのプロセッサは、指導者側又は生徒側のユーザのアバターオブジェクトを設定し、ネットワークを介して前記仮想空間に接続されたユーザ端末から前記ユーザの動作情報を取得し、取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションを表示させる。
【0008】
第1の態様に係る通信教育システムによれば、ネットワークを介して仮想空間に接続されたユーザ端末からユーザの動作を取得し、取得された動作に基づいて、アバターオブジェクトの実動作アニメーションを作成する。そして、仮想空間上には、指導者側又は生徒側のユーザの動作に基づくアバターオブジェクトの実動作アニメーションが学習用コンテンツとともに表示される。これにより、仮想空間上に展開される学習用コンテンツを用いて通信教育を行う際に、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる。
【0009】
本発明の第2の態様に係る通信教育システムは、第1の態様に記載の構成において、前記少なくとも一つのプロセッサは、予め設定された予定動作に関する前記アバターオブジェクトの予定動作アニメーションを作成し、前記ユーザ端末に対して所定の操作が行われることにより、前記仮想空間上の前記アバターオブジェクトを、前記実動作アニメーションから前記予定動作アニメーションに切り替えて表示させる。
【0010】
第2の態様に係る通信教育システムによれば、ユーザ端末に対して所定の操作が行われることにより、仮想空間上のアバターオブジェクトを実動作アニメーションから予定動作アニメーションに切り替えて表示させる。このため、予め設定された予定動作については、演出効果の高いアニメーション等を用いてコミュニケーションの一部を代替させることができる。これにより、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる。
【0011】
本発明の第3の態様に係る通信教育システムは、第2の態様に記載の構成において、前記少なくとも一つのプロセッサは、前記予定動作アニメーションが終了すると、前記アバターオブジェクトを再び前記実動作アニメーションに切り替えて表示させる。
【0012】
第3の態様に係る通信教育システムによれば、仮想空間上では、アバター画像は、予定動作アニメーションが終了すると、再び実動作アニメーションへと切り替えられる。これにより、アバターオブジェクトの動作として、ユーザの実動作の他に予め設定された予定動作を自然に盛り込むことができる。
【0013】
本発明の第4の態様に係る通信教育システムは、第2の態様又は第3の態様に記載の構成において、前記予定動作には、前記ユーザの感情を示すリアクション動作が含まれる。
【0014】
第4の態様に係る通信教育システムによれば、ユーザの感情を示すリアクション動作を予定動作として設定することにより、仮想空間上のアバターオブジェクトを介したユーザの感情表現を豊かに演出することができる。
【0015】
本発明の第5の態様に係る通信教育システムは、第2の態様又は第3の態様に記載の構成において、前記予定動作には、前記学習用コンテンツに含まれる所定のオブジェクトを操作する動作が含まれる。
【0016】
第5の態様に係る通信教育システムによれば、学習用コンテンツに含まれる所定のオブジェクトを操作する動作を予定動作として設定することにより、仮想空間上のオブジェクトを使ったコミュニケーションを円滑にすることができる。
【0017】
本発明の第6の態様に係る通信教育システムは、第2の態様又は第3の態様に記載の構成において、前記予定動作には、所定の動作パターンを繰り返す繰り返し動作が含まれる。
【0018】
第6の態様に係る通信教育システムによれば、所定の動作パターンを繰り返す繰り返し動作を予定動作として設定することで、例えば、積極的な相互コミュニケーションが必要とされない場面では、アバターオブジェクトに所定の動作パターンを繰り返させて待機させることができる。これにより、ユーザの実動作が常にアバターオブジェクトの動きに反映されることによるユーザの疲労感を低減させることができる。
【0019】
本発明の第7の態様に係る通信教育システムは、第1の態様又は第2の態様に記載の構成において、前記アバターオブジェクトは、前記ユーザによって予め設定された任意のオブジェクトとされている。
【0020】
第7の態様に係る通信教育システムによれば、ユーザは、任意のオブジェクトをアバターオブジェクトとして設定し、仮想空間上でコミュニケーションを図ることができる。
【0021】
本発明の第8の態様に係る通信教育システムは、第1の態様又は第2の態様に記載の構成において、前記アバターオブジェクトは、前記学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つでとされている。
【0022】
第8の態様に係る通信教育システムによれば、ユーザは、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つをアバターオブジェクトとして設定し、仮想空間上でコミュニケーションを図ることができる。
【0023】
本発明の第9の態様に係る通信教育提供方法は、仮想空間上に展開される学習用コンテンツを用いて通信教育を提供する通信教育提供方法であって、指導者側又は生徒側のユーザのアバターオブジェクトを設定し、ネットワークを介して前記仮想空間に接続されたユーザ端末から前記ユーザの動作情報を取得し、取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示させる。
【0024】
本発明の第10の態様に係る通信教育提供プログラムは、仮想空間上に展開される学習用コンテンツを用いて通信教育を提供するための通信教育提供プログラムであって、指導者側又は生徒側のユーザのアバターオブジェクトを設定し、ネットワークを介して前記仮想空間に接続されたユーザ端末から前記ユーザの動作情報を取得し、取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示させる、処理をコンピュータに実行させる。
【発明の効果】
【0025】
以上説明したように、本発明に係る通信教育システム、通信教育提供方法及び通信教育提供プログラムでは、仮想空間上に展開される学習用コンテンツを用いて通信教育を行う際に、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる。
【図面の簡単な説明】
【0026】
【
図1】本実施形態に係る通信教育システムの一例を示す図である。
【
図2】本実施形態に係る通信教育システムに関連するハードウェア構成の一例を示す図である。
【
図3】本実施形態に係る通信教育システムのコンテンツ作成処理に関連する機能構成の一例を示す図である。
【
図4】本実施形態に係るコンテンツ制作装置の表示画面の一例を示す図である。
【
図5】本実施形態に係る通信教育システムのアバターオブジェクト表示処理、及びコンテンツ実行処理に関連する機能構成の一例を示す図である。
【
図6】本実施形態に係る通信教育システムのアバターオブジェクト表示処理の動作の一例を示すフローチャート図である。
【
図7】本実施形態に係る通信教育システムのコンテンツ実行処理の動作の一例を示すフローチャート図である。
【
図8】仮想空間に展開された学習用コンテンツとともにアバターオブジェクトが表示された一例を示す図である。
【
図9】
図8の学習用コンテンツにおけるシナリオの進行の一例を示す図である。
【0027】
以下、
図1~
図9を参照して、本実施形態に係る通信教育システム1について説明する。本実施形態に係る通信教育システム1は、ユーザに向けて学習用コンテンツを配信するコンピュータシステムである。コンテンツとは、コンピュータ又はコンピュータシステムによって提供され、人が認識可能な情報である。コンテンツを示す電子データのことをコンテンツデータという。コンテンツの表現形式は限定されない。コンテンツは、例えば、画像(例えば、写真、映像等)、文書、音声、音楽、又はこれらの中の任意の2以上の要素の組合せによって表現されてもよい。学習用コンテンツは、学習用に用いられる様々な態様の情報伝達又はコミュニケーションのために用いることができる。学習用コンテンツは、例えば、エンターテインメント、ニュース、知育、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修等の様々な場面又は目的で利用され得る。また、学習用コンテンツとは、指導者側のユーザが生徒側のユーザに向けて配信するコンテンツである。指導者とは学業、技芸などを教える人のことをいい、生徒とはその教えを受ける人のことをいう。指導者は配信者の一例であり、生徒は視聴者の一例である。指導者は教員免許を持つ人であってもよいし、教員免許を持たない人でもよい。指導者および生徒のそれぞれについて年齢および所属は限定されず、したがって、学習用コンテンツの目的および利用場面も限定されない。例えば、学習用コンテンツは、保育園、幼稚園、小学校、中学校、高等学校、大学、大学院、専門学校、予備校、オンライン学校などの各種の学校で用いられてよいし、家庭内など、学校以外の場所または場面で用いられてもよい。これに関連して、学習用コンテンツは、知育、幼児教育、義務教育、高等教育、生涯学習などの様々な目的で用いられ得る。配信とは、通信ネットワーク又は放送ネットワークを経由して情報をユーザに向けて送信する処理である。
【0028】
通信教育システム1は、コンテンツデータをユーザ端末30(30A,30B)に送信することで、学習用コンテンツをユーザに提供する。また、本実施形態では、学習用コンテンツは、少なくとも仮想空間に展開される画像を用いて表現される。すなわち、コンテンツデータには、少なくとも学習用コンテンツを示すコンテンツ画像が含まれる。コンテンツ画像は、人が視覚を通して何らかの情報を認識することができる像である。コンテンツ画像は、動画像(映像)でもよいし静止画でもよい。
【0029】
一例では、コンテンツ画像は、複数のオブジェクトが存在する仮想空間を表現する。複数のオブジェクトとは、仮想オブジェクトである。仮想オブジェクトは、現実世界には存在せず、コンピュータシステム上でのみ表現される物体である。仮想オブジェクトは、実写画像とは独立した画像素材を用いて、2次元又は3次元のコンピュータグラフィックス(CG)によって表現される。仮想オブジェクトの表現方法は限定されない。例えば、仮想オブジェクトは、アニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。仮想空間は、コンピュータ上に表示される画像によって表現される仮想の2次元又は3次元の空間である。コンテンツ画像は、例えば、仮想空間内に設定された仮想カメラから見える風景を示す画像である。
【0030】
本実施形態では、仮想オブジェクトの一例として、ユーザの分身であるアバターオブジェクトがある。アバターオブジェクトは、撮影された人そのものではなく、原画像とは独立した画像素材を用いて、2次元又は3次元のコンピュータグラフィックス(CG)によって表現される。アバターオブジェクトの表現方法は限定されない。例えば、アバターオブジェクトは、アニメーション素材を用いて個性的な外観に表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。また、アバターオブジェクトは、ユーザによって予め設定された任意のオブジェクトでもよいし、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つであってもよい。ユーザは、仮想空間上に配置されたアバターを介して、他のユーザへの情報伝達を行い、他のユーザとの相互コミュニケーションを図ることができる。また、ユーザは、仮想空間に展開された学習用コンテンツのコンテンツ画像を見ることで、拡張現実(AR:Augmented Reality)、仮想現実(VR:Virtual Reality)、又は複合現実(MR:Mixed Reality)を体験することができる。
【0031】
(システムの全体概要)
図1実施形態に係る通信教育システム1の適用の一例を示す図である。本実施形態では、通信教育システム1は、サーバ10、コンテンツ作成装置20、及びユーザ端末30(30A,30B)と、を備える。通信教育システム1では、サーバ10、コンテンツ作成装置20及びユーザ端末30がネットワークNを介して接続されている。
【0032】
サーバ10は、サーバコンピュータであり、学習用コンテンツが登録されるコンテンツデータベース14Bを有する。また、サーバ10は、種々のユーザ情報が登録されるユーザデータベース14Cを有する。サーバ10は、ユーザ端末30からの要求により、ユーザ端末30に学習用コンテンツを配信する。また、サーバ10は、ユーザ端末からの要求により、ユーザの動作に対応するアバターオブジェクトのアニメーションを作成し、学習用コンテンツとともに仮想空間上に表示する。
【0033】
コンテンツ作成装置20は、学習用コンテンツを作成するために用いられるコンピュータである。コンテンツ作成装置20で作成されたコンテンツは、サーバ10に送信され、コンテンツデータベース14Bに登録される。
【0034】
ユーザ端末30は、コンテンツを利用するユーザによって用いられるコンピュータである。本実施形態の一例では、ユーザは、学習用コンテンツを配信する指導者と、指導者の指導のもと、学習用コンテンツを利用する生徒に対応する。
図1では、指導者側のユーザが用いる端末がユーザ端末30Aとして示され、生徒側のユーザが用いる端末がユーザ端末30Bとして示されている。
【0035】
(システムのハードウェア構成)
図2は、通信教育システム1に関連するハードウェア構成の一例を示す図である。
【0036】
(サーバ10)
一例として、サーバ10は、ハードウェア構成として、CPU(Central Processing Unit:プロセッサ)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、記憶部14、入力部15、表示部16、及び通信部17を備えている。各構成は、バス18を介して相互に通信可能に接続されている。
【0037】
プロセッサとしてのCPU11は、オペレーティングシステム及びアプリケーションプログラムを実行する中央演算処理ユニットである。CPU11は、ROM12又は記憶部14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又は記憶部14に記録されたプログラムにしたがって、上記各構成の制御及び各種の演算処理を行う。
【0038】
ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。
【0039】
記憶部14は、HDD(Hard Disk Drive)、SSD(Solid State Drive)又はフラッシュメモリ等の記憶装置により構成され、各種プログラム及び各種データを格納する。記憶部14には、CPU11に後述するアバター表示処理及びコンテンツ実行処理を実行させるためのサーバプログラム14Aが格納されている。また、記憶部14には、学習用コンテンツが登録されるコンテンツデータベース14Bと、ユーザに対応するアバターオブジェクトの画像が登録されるユーザデータベース14Cが格納されている。
【0040】
入力部15は、マウス等のポインティングデバイス、キーボード、マイク、及びカメラ等を含み、各種の入力を行うために使用される。
【0041】
表示部16は、例えば、液晶ディスプレイであり、種々の情報を表示する。表示部16は、タッチパネル方式を採用して、入力部15として機能してもよい。
【0042】
通信部17は、他の機器と通信するためのインターフェースである。当該通信には、例えば、イーサネット(登録商標)若しくはFDDI等の有線通信の規格、又は、4G、5G、Bluetooth(登録商標)、若しくはWi-Fi(登録商標)等の無線通信の規格が用いられる。通信部17は、ネットワークNに対して接続されている。
【0043】
(コンテンツ作成装置20)
コンテンツ作成装置20は、ハードウェア構成として、CPU21、ROM22、RAM23、記憶部24、入力部25、表示部26、及び通信部27を備えている。各構成は、バス28を介して相互に通信可能に接続されている。
【0044】
CPU21は、オペレーティングシステム及びアプリケーションプログラムを実行する中央演算処理ユニットである。CPU21は、ROM22又は記憶部24からプログラムを読み出し、RAM23を作業領域としてプログラムを実行する。
【0045】
ROM22は、各種プログラム及び各種データを格納する。RAM23は、作業領域として一時的にプログラム又はデータを記憶する。
【0046】
記憶部24は、HDD、SSD又はフラッシュメモリ等の記憶装置により構成され、各種プログラム及び各種データを格納する。記憶部24には、CPU21に後述するコンテンツ作成処理を実行するためのクリエイタプログラム24Aが格納されている。
【0047】
入力部25は、マウス等のポインティングデバイス、キーボード、マイク、及びカメラ等を含み、各種の入力を行うために使用される。
【0048】
表示部26は、例えば、液晶ディスプレイであり、種々の情報を表示する。表示部26は、タッチパネル方式を採用して、入力部25として機能してもよい。
【0049】
通信部27は、他の機器と通信するためのインターフェースである。通信部27は、ネットワークNに対して接続されている。
【0050】
(ユーザ端末30)
ユーザ端末30は、ハードウェア構成として、CPU31、ROM32、RAM33、記憶部34、入力部35、表示部36、及び通信部37を備えている。各構成は、バス38を介して相互に通信可能に接続されている。
【0051】
CPU31は、オペレーティングシステム及びアプリケーションプログラムを実行する中央演算処理ユニットである。CPU31は、ROM32又は記憶部34からプログラムを読み出し、RAM33を作業領域としてプログラムを実行する。
【0052】
ROM32は、各種プログラム及び各種データを格納する。RAM33は、作業領域として一時的にプログラム又はデータを記憶する。
【0053】
記憶部34は、HDD、SSD又はフラッシュメモリ等の記憶装置により構成され、各種プログラム及び各種データを格納する。
【0054】
指導者側のユーザが利用するユーザ端末30Aには、記憶部34に、CPU31によって実行される指導者側アプリケーション34Aが格納されている。即ち、ユーザは、ユーザ端末30Aで指導者側アプリケーション34Aを実行することにより、指導者側のユーザとなる。
【0055】
生徒側のユーザが利用するユーザ端末30Bには、記憶部34に、CPU31によって実行される生徒側アプリケーション34Bが格納されている。即ち、ユーザは、ユーザ端末30Aで生徒側アプリケーション34Bを実行することにより、生徒側のユーザとなる。
【0056】
上記の指導者側アプリケーション34A及び生徒側アプリケーション34Bは、プログラムと称されるものであってもよい。
【0057】
入力部35は、マウス等のポインティングデバイス、キーボード、マイク、センサ及びカメラ等を含み、各種の入力を行うために使用される。ここで、本実施形態では、一例として、入力部35に含まれるカメラによってユーザを撮影し、撮影画像に基づいて、ユーザの動作情報(例えば、視線、ユーザの頭部の動き、ユーザの頭部以外の身体の一部(例えば手等)の動き(いわゆるジェスチャ)、表情等)を取得する。なお、この動作情報は、ジャイロセンサや加速度センサ等のセンサによって検出されたユーザのモーションデータでもよい。
【0058】
表示部36は、例えば、液晶ディスプレイであり、種々の情報を表示する。表示部26は、タッチパネル方式を採用して、入力部35として機能してもよい。
【0059】
通信部37は、他の機器と通信するためのインターフェースである。通信部37は、ネットワークNに対して接続されている。
【0060】
(コンテンツ作成処理に関するシステムの機能構成)
図3には、通信教育システム1のコンテンツ作成処理に関連する機能構成の一例を示す図である。コンテンツ作成処理とは、コンテンツ作成装置20によって学習用コンテンツを作成し、サーバ10に送信する処理である。
【0061】
サーバ10は、コンテンツ作成処理に関する機能構成として、受信部101及びコンテンツ登録部102を備える。受信部101は、コンテンツ作成装置20から送信された学習用コンテンツデータを受信する。コンテンツ登録部102は、受信した学習用コンテンツデータをコンテンツデータベース14Bに保存(登録)する。
【0062】
コンテンツ作成装置20は、コンテンツ作成処理に関する機能構成として、コンテンツ要素登録部201、操作情報取得部202、コンテンツ設定部203及び送信部204を備える。
【0063】
コンテンツ要素登録部201は、学習用コンテンツを構成するコンテンツ要素のデータを記憶部24に保存(登録)する。コンテンツ要素とは、例えば、仮想空間上に展開されるオブジェクトのデータや、テキストデータ、背景データ等である。
【0064】
操作情報取得部202は、コンテンツ制作者側のユーザの操作情報を取得する。具体的には、操作情報取得部202は、コンテンツ作成装置20の入力部25に入力された入力情報を操作情報として取得する。
【0065】
コンテンツ設定部203は、操作情報取得部202で取得された操作情報に基づいて、学習用コンテンツの設定を行う。
【0066】
本実施形態の一例では、学習用コンテンツは、所定の学習シーンに対応付けられた複数のチャプタを含むように設定可能に構成されている。学習用コンテンツは、例えば、一のチャプタから他のチャプタへ移動することにより、学習シーンを切り替えて進行する。なお、学習シーンの定義は限定されない。例えば、幼児教育における読み聞かせ用の童話を提供する学習用コンテンツにおいては、学習シーンが童話のワンシーンを構成してもよい。また、例えば、特定の時代や所定の世界観をテーマとする仮想空間での体験を提供する学習用コンテンツにおいては、各学習シーンが、仮想空間内のマップにおける所定の地点を構成してもよい。また、例えば、予備校等の受験機関によって教材を提供する学習用コンテンツにおいては、各学習シーンが教材の学習項目に対応してもよい。
【0067】
コンテンツ設定部203は、チャプタ毎に少なくとも一つのイベントを設定する機能を有する。各イベントは学習用コンテンツの進行に関与するイベントであり、例えば、学習シーンの切り替えを行うことが含まれる。また、学習用コンテンツの進行に関するイベントは、生徒側のユーザの反応を引き出すために同一の学習シーンの中で発動されるイベントであってもよい。この場合、指導者側のユーザに、学習用コンテンツの進行に関する判断材料として、生徒側のユーザの反応が提供される。
【0068】
また、コンテンツ設定部203は、学習用コンテンツの各チャプタの並びと、各チャプタの所要時間を設定する機能を有する。学習用コンテンツは、実行中のチャプタについて予め設定された所要時間が経過すると次のチャプタへ移動することで学習シーンの切り替えを行うことができる。
【0069】
コンテンツ設定部203は、各チャプタに含まれる複数のオブジェクトや背景を設定することができる。また、コンテンツ設定部203は、仮想オブジェクトとして学習用コンテンツに含まれるオブジェクトのうち、所定のオブジェクトをイベント発動のトリガーとなる実行オブジェクトとして設定する機能を有する。
【0070】
また、コンテンツ設定部203は、仮想オブジェクトとして学習用コンテンツに含まれるオブジェクトのうち、所定のオブジェクトをアバターオブジェクトとして設定する機能を有する。アバターオブジェクトとして設定されたオブジェクトは、後述するアバターオブジェクト表示処理の実行により、対応するユーザの動作情報に基づくアニメーションによって表示される。
【0071】
なお、学習用コンテンツに含まれる上記実行オブジェクト及びアバターオブジェクトは、コンテンツ制作者側のユーザによって予め設定される。
【0072】
コンテンツ設定部203は、イベントを発動させる所定の条件を設定する機能を有する。例えば、学習用コンテンツに含まれる実行オブジェクトが、指導者側又は生徒側のユーザ端末30を介して操作されることを条件にイベントが発動されるように設定してもよい。
【0073】
なお、ユーザ端末30を介して行われる実行オブジェクトへの操作には、タッチ操作、位置の移動操作、表示向きの変更操作を含んでおり、これらの操作のうちの一つ又はこれらの操作の組み合わせをイベントを発動させる所定の条件として設定することができる。即ち、ユーザ端末30を介して仮想空間上のオブジェクトに対して直接行われる操作をトリガーとしてイベントを発動させることができる。
【0074】
ここで、本実施形態では、実行オブジェクトとして、指導者用オブジェクト、生徒用オブジェクト、相互オブジェクトの設定が可能となっている。指導者用オブジェクトは、指導者側アプリケーション34Aを介して操作可能なオブジェクトであり、指導者側のユーザの操作をトリガーとしてイベントを発動させることができる。生徒用オブジェクトは、生徒側アプリケーション34Bを介して操作可能なオブジェクトであり、生徒側のユーザの操作をトリガーとしてイベントを発動させることができる。相互オブジェクトは、指導者側アプリケーション34A及び生徒側アプリケーション34Bの双方から操作可能なオブジェクトである。
【0075】
また、コンテンツ設定部203は、チャプタ内のタイムライン上にイベントが発動される所定時刻を設定し、チャプタ内において所定時刻が経過したことを条件としてイベントが発動されるように設定することができる。これにより、実行オブジェクトに対する操作が行われなかった場合でも、シナリオを進行させることができる。
【0076】
このようにして、本実施形態の学習用コンテンツには、コンテンツ設定部203野機能により、イベントが発動される複数の条件が設定可能となっている。これにより、指導者側又は生徒側のユーザによる学習用コンテンツへの関与によって学習用コンテンツの進行を積極的に変化させることができる。
【0077】
送信部204は、コンテンツ設定部203で作成された学習用コンテンツをサーバ10に送信する。
【0078】
(コンテンツ作成処理の動作)
図4を参照して、コンテンツ作成処理の動作の一例を説明する。
図4は、学習用コンテンツの制作時に、コンテンツ作成装置20に表示される表示画面の一例である。コンテンツ作成処理は、CPU21が記憶部24からクリエイタプログラム24Aを読み出して、RAM23に展開して実行することにより、行われる。
【0079】
図4に示されるように、表示画面400の上部には、作成中のチャプタを選択するためのチャプタ選択部401が設けられている。ユーザは、入力部25への入力操作によって、チャプタ選択部401に表示されたチャプタの中から任意のチャプタを選択し、選択したチャプタの設定を行う。
【0080】
また、表示画面400には、操作領域として第1操作フィールドF1~第3操作フィールドF3が設けられている。第1操作フィールドF1には、コンテンツ制作者側のユーザによって予め登録されたコンテンツ要素402が表示される。第2操作フィールドF2には、選択中のチャプタに対応する学習用コンテンツの学習シーンが表示される。コンテンツ作成処理では、例えば、マウス等のポインティングデバイスを用いたドラッグ&ドロップ操作により、第1操作フィールドF1から第2操作フィールドF2へと移動された任意のコンテンツ要素402を選択中のチャプタに含まれるオブジェクトやイベントとして設定する。図示の例では、第1操作フィールドF1に、第1風船Q1,第2風船Q2,キャラクターオブジェクトP1等のコンテンツ要素402として表示されている。そして、ドラッグ&ドロップ操作により、第1風船Q1が第1操作フィールドF1から第2操作フィールドF2へと移動されることにより、チャプタ1に含まれるオブジェクトとして設定された場合を示している。
【0081】
図4に示されるように、第2操作フィールドF2に移動されたコンテンツ要素402(図示では第1風船Q1)は、第3操作フィールドF3に一覧として表示される。ユーザは、第3操作フィールドF3で任意のコンテンツ要素を選択し、選択したコンテンツ要素の詳細を設定することができる。例えば、第3操作フィールドF3における操作によって、任意の学習用コンテンツに含まれる所定のオブジェクトをイベント発動のトリガーとなる実行オブジェクトや、指導者側又は生徒側のユーザのアバターオブジェクトとして設定することができる。また、実行オブジェクトを設定した場合に、実行オブジェクトについて、生徒側又は指導者側のユーザ端末を介して行うことができる操作の中からイベント発動のトリガーとなる所定の操作を設定する。また、第3操作フィールドF3で任意のイベントを選択し、選択したイベントについて、チャプタ内のタイムライン上でイベントが発動される所定時刻を設定することができる。
【0082】
学習用コンテンツに含まれる複数のチャプタの設定作業が完了した後、ユーザによって、学習用コンテンツの送信を指示する操作が行われることにより、作成された学習用コンテンツがサーバ10に送信され、コンテンツ作成処理が終了する。
【0083】
(アバター表示処理及びコンテンツ実行処理に関するシステムの機能構成)
図5には、通信教育システム1のアバターオブジェクト表示処理及びコンテンツ実行処理に関する機能構成の一例を示す図である。アバターオブジェクト表示処理とは、指導者側又は生徒側のユーザのアバターオブジェクトを学習用コンテンツとともに仮想空間に表示させる処理である。また、コンテンツ実行処理とは、ユーザ端末30から受け付けた操作情報等に基づいて、学習用コンテンツを進行させる処理である。
【0084】
サーバ10は、アバター表示処理及びコンテンツ実行処理に関する機能構成として、受信部101、アニメーション作成部103、コンテンツ実行部104、画像処理部105及び送信部106を備える。受信部101は、ユーザ端末30から送信されたデータ信号を受信する。ユーザ端末30から送信されるデータ信号には、ユーザ端末30で取得されたユーザの動作情報と、ユーザによって、ユーザ端末30に行われた操作情報が含まれる。また、操作情報には、ユーザ端末30を介して仮想空間に対して行われた操作に関する情報が含まれる。なお、ユーザの動作情報は、ユーザの身体全体の動作情報に限らず、ユーザの身体の一部の動作情報であってもよい。例えば、ユーザの頭部の動きと、表情の変化をユーザ情報として送信してもよい。
【0085】
アニメーション作成部103は、受信部101で受信したユーザの動作情報に基づいて、ユーザに対応するアバターオブジェクトの実動作アニメーションを作成する。この実動作アニメーションは、実空間でのユーザの動作をアバターオブジェクトの画像(以下、アバター画像とも称される。)によって再現したアニメーションとなる。また、アニメーション作成部103は、予め設定された予定動作に関するアバター画像の予定動作アニメーションを作成する。アニメーション作成部103は、受信部101でユーザ端末30に対して所定の操作が行われたことを示す操作情報を受信すると、受信した操作に対応する予定動作アニメーションを作成する。
【0086】
なお、アバターオブジェクトは、生徒側又は指導者側のユーザによって予め設定された任意のオブジェクトであってもよいし、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つであってもよい。本実施形態では、一例として、生徒側のユーザのアバターオブジェクトは、ユーザによって予め設定された任意のオブジェクトとなっている。一方で、指導者側のユーザのアバターオブジェクトは、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つとなっている。
【0087】
予定動作には、ユーザの感情を示すリアクション動作が含まれる。例えば、「嬉しい」に対応づけられた所定の操作がユーザ端末30を介して行われることにより、アバター画像のキャラクタが飛び上がって喜ぶ動作のアニメーションが作成される。
【0088】
また、予定動作には、学習用コンテンツに含まれる所定のオブジェクトを操作する動作が含まれる。例えば、「赤い風船を割る」に対応付けられて、仮想空間上のオブジェクトとして表示された赤い風船の上で、タッチ操作やクリック操作を行うことがトリガーとなる操作として設定されている場合、ユーザが当該操作を行うことにより、仮想空間上でユーザのアバターが赤い風船を割る動作のアニメーションが作成される。
【0089】
また、予定動作には、所定の動作パターンを繰り返す繰り返し動作が含まれる。例えば、「待機状態」に対応づけられた所定の操作がユーザ端末30を介して行われることにより、アバター画像のキャラクタが一定の動作パターンで揺れながら、待機するアニメーションが作成される。
【0090】
なお、予定動作は上記の例に限定されず、種々の操作を予定動作として設定可能である。例えば、予定動作は、指導者側のアバターが生徒側のアバターに行う所定の動作であってもよいし、生徒側のアバターが指導者側のアバターに行う所定の動作であってもよい。予定動作は、学習用コンテンツの内容について指導者側のアバターが説明する動作であってもよい。
【0091】
コンテンツ実行部104は、受信部101操作情報に応じた処理を実行する。例えば、操作実行部13は、指導者側又は生徒側のユーザにより、所定の学習用コンテンツの利用開始操作(コンテンツの視聴開始を示す操作)がされた場合(すなわち、当該利用開始操作を示す操作情報が受信された場合)、指導者側及び生徒側のユーザ端末30に学習用コンテンツを配信する。これにより、ユーザ端末30では、仮想空間上に学習用コンテンツが展開されたコンテンツ画像を視聴することができる。また、コンテンツ実行部104は、学習用コンテンツの設定に従って、コンテンツを進行させる処理を実行する。
【0092】
画像処理部105は、ユーザ端末30に仮想空間に展開された学習用コンテンツとともにアバターオブジェクトのアニメーションを表示させるためのデータを生成する。このデータは、画像そのものであってもよいし、画像を描画(レンダリング)するためのデータであってもよい。また、画像処理部105で生成されるデータは、音声等、画像以外のデータを含んでもよい。
【0093】
送信部106は、画像処理部105で生成されたデータをユーザ端末30に送信する。
【0094】
ユーザ端末30は、アバターオブジェクト表示処理及びコンテンツ実行処理に関する機能構成として、動作情報取得部301、操作情報取得部302、送信部303、受信部304及び表示制御部305を備える。
【0095】
動作情報取得部301は、ユーザの動作情報を取得する。例えば、操作情報取得部302は、入力部35に含まれるカメラによってユーザを撮影し、撮影画像に基づいて、ユーザの動作情報(例えば、視線、ユーザの頭部の動き、ユーザの頭部以外の身体の一部(例えば手等)の動き(いわゆるジェスチャ)、表情等)を取得する。操作情報取得部302は、ユーザにより入力された操作情報を取得する。例えば、ユーザが、マウス等のポインティングデバイス、キーボード、マイク、カメラ、センサ等を介して入力した操作情報を取得する。
【0096】
操作情報取得部302は、ユーザにより入力された操作情報を取得する。例えば、入力部35に含まれるマウス等のポインティングデバイス、キーボード、マイク、センサ及びカメラ等を介して入力した操作情報を取得する。
【0097】
送信部303は、動作情報取得部301により取得されたユーザの動作情報及び、操作情報取得部302により取得された操作情報をサーバ10に送信する。受信部304は、サーバ10から配信中の学習用コンテンツとともにアバターオブジェクトのアニメーションを表示させるためのデータを受信する。表示制御部305は、受信部304により受信されたデータをユーザ端末30の表示部36に表示する。
【0098】
(アバターオブジェクト表示処理の動作)
図6を参照して、アバター表示処理の動作の一例を説明する。アバターオブジェクト表示処理は、例えば、ネットワークNを介して所定の仮想空間がユーザ端末30で視聴される状態において、当該ユーザ端末30でアバターオブジェクトの表示を開始するための入力操作が行われることにより、開始される。アバターオブジェクト表示処理は、CPU11が記憶部14からサーバプログラム14Aを読み出して、RAM13に展開して実行することにより、行われる。
【0099】
図6に示されるように、ステップS10において、CPU11は、ユーザ端末30から、アバターオブジェクトの表示開始を示すアバターオブジェクト表示開始操作を受け付ける。具体的には、ユーザは、ユーザ端末30の入力部35を介した入力操作により、仮想空間上にアバターオブジェクトの表示を開始するための開始操作を実行する。
【0100】
ステップS11において、CPU11は、ユーザ端末30から、ユーザの動作を示す動作情報を受け付ける。
【0101】
ステップS12において、CPU11は、取得したユーザの動作情報に基づいて、対応するアバター画像の実動作アニメーションを作成し、仮想空間上に学習用コンテンツとともに表示する。
【0102】
ここで、
図8を参照して学習用コンテンツの具体的な表示例について説明する。
図8には、知育用の読み聞かせ絵本を提供する学習用コンテンツが仮想空間上に展開された状態が示されている。図示の表示画面500は、学習用コンテンツをユーザ端末30の表示部36に表示した場合の一例である。この表示画面500には、学習シーンとしての絵本のワンシーンを構成するチャプタが仮想空間に展開された状態が表示されている。図示の例では、野原を表す背景画像の中に学習用コンテンツに含まれるオブジェクトとして、複数の風船Q(Q1,Q2,Q3)と木Rが表示されている。また、アバターオブジェクトとして、絵本の読み聞かせを行う指導者側のユーザに対応する第1アバターP1と、生徒側のユーザに対応する第2アバターP2が仮想空間内の所定の位置に表示されている。
【0103】
指導者側の第1アバターP1は学習用コンテンツに含まれるオブジェクトとして、コンテンツ制作者側のユーザによって予め設定されたオブジェクトである。この第1アバターP1は、指導者側のユーザが操作権限を有する指導者用オブジェクトでもあり、指導者側のユーザのユーザ端末30でアバターオブジェクトの表示を開始するための入力操作が行われることにより、第1アバターP1の実動作アニメーションが表示される。
【0104】
生徒側の第2アバターP2は、生徒側のユーザによって予め設定された任意のオブジェクトである。この第2アバターP1は、生徒側のユーザが操作権限を有する生徒用オブジェクトでもあり、例えば、生徒側のユーザは、任意のアバター画像を設定して予めユーザデータベース14Cに格納する。そして、生徒側のユーザのユーザ端末30でアバターオブジェクトの表示を開始するための入力操作が行われることにより、仮想空間上の所定の位置に第2アバターP2の実動作アニメーションが表示される。
【0105】
また、アバターオブジェクトの表示位置は、学習用コンテンツの示す仮想空間上の予め設定された位置でもよいし、ユーザ端末の操作情報に基づく任意の位置でもよい。また、アバターオブジェクトの表示位置が、学習用コンテンツの他のオブジェクトと重ならない位置に制御される構成としてもよい。
【0106】
ステップS13において、CPU11は、ユーザ端末30から、予め設定された予定動作に対応する所定の操作情報を受信したかについて判定する。所定の操作情報を受信している場合、ステップS13の判定が肯定され、ステップS14の処理に進む。一方、所定の操作情報を受信していない場合、ステップS13の判定が否定され、ステップS16の処理に進む。
【0107】
ステップS14において、CPU11は、受信した所定の操作情報に対応づけられた予定動作について、ユーザのアバターオブジェクトを用いて予定動作アニメーションを作成する。そして、アバターオブジェクトを、実動作アニメーションから予定動作アニメーションへと切り替える。そして、CPU11はステップS15の処理に進む。
【0108】
ステップS15において、CPU11は、アバターオブジェクトを予定動作アニメーションから再び実動作アニメーションへと切り替える。具体的には、予定動作アニメーションの再生が終了すると、再び、ユーザの動作情報に基づく実動作アニメーションに切り替えて表示する。
【0109】
ステップS16において、CPU11は、アバター表示の終了を示す操作情報を受け付けたか否かについて判定する。具体的には、ユーザが、ユーザ端末30の入力部35を介した入力操作により、アバターオブジェクトの表示を終了するための終了操作を実行し、この操作情報が受け付けられると、ステップS16の判定が肯定される。ステップS16の判定が肯定されると、CPU11は、アバターオブジェクト表示処理を終了させる。一方、ステップS16の判定が否定されると、CPU11は、ステップS11の処理に戻る。
【0110】
(コンテンツ実行処理の動作)
次に、
図7を参照して、コンテンツ実行処理の動作の一例を説明する。コンテンツ実行処理は、例えば、ネットワークNを介して所定の仮想空間がユーザ端末30で視聴される状態において、当該ユーザ端末30で所定の学習用コンテンツの配信を開始することを要求する操作が行われることにより、開始される。学習用コンテンツの配信が開始されると、例えば、チャプタ1に対応する学習シーンが仮想空間上に展開される。
【0111】
ステップS20で、CPU11は、実行オブジェクトに所定の操作が行われたか否かについて判断する。具体的には、配信中のチャプタにおいて、所定のイベントに対応付けて予め実行オブジェクトとして設定されたオブジェクトに対し、オブジェクトの操作権限のあるユーザ端末30から所定の操作が行われたか否かについて判断する。実行オブジェクトに対して操作権限のあるユーザから所定の操作がおこなわれた場合、ステップS20の判定は肯定され、CPU11は、ステップS23の処理に進む。一方、実行オブジェクトに対して所定の操作がおこなわれなかった場合、ステップS20の判定は否定され、CPU11は、ステップS21の処理に進む。なお、実行オブジェクトに所定の操作が行われない場合には、チャプタに実行オブジェクトが設定されていない場合も含まれる。
【0112】
ステップS21において、CPU11は、所定のイベントについて予め設定された所定のイベントの発動時刻が経過したか否かについて判定する。所定時刻が経過している場合、ステップS22の判定は肯定され、CPU11は、ステップS23の処理へ進む。一方、所定時刻が経過していない場合、ステップS21の判定は否定され、ステップS22の処理に進む。なお、イベント発動の所定時刻が経過していない場合には、イベントに所定時刻が設定されていない場合も含まれる。
【0113】
ステップS22において、CPU11は、配信中のチャプタについて、予め設定された所要時間が経過したか否かについて判定する。チャプタの所要時間が経過している場合、ステップS22の判定は肯定され、CPU11は、ステップS23の処理へ進む。一方、チャプタの所要時間が経過していない場合、ステップS22の判定は否定され、CPU11は、ステップS20の処理に戻る。なお、チャプタの所要時間が経過していない場合には、チャプタに所要時間が設定されていない場合も含まれる。
【0114】
ステップS23において、CPU11は、イベントを発動させる。このイベントは、学習用コンテンツの進行に関与するイベントであり、例えば、イベントの発動によって学習シーンの切り替えが行われる。イベントの実行が終了すると、CPU11は、ステップS24の処理に進む。
【0115】
ステップS24において、CPU11は、学習用コンテンツの配信が終了したか否かについて判定する。具体的には、ユーザ端末30で、学習用コンテンツの配信を終了することを要求する操作が行われたか否かについて判定する。学習用コンテンツの配信を終了することを要求する操作情報を受信している場合、ステップS24の判定が肯定され、CPU11は、コンテンツ実行処理を終了する。一方、学習用コンテンツの配信を終了することを要求する操作情報を受信していない場合、ステップS24の判定が否定され、CPU11は、ステップS20の処理に戻る。
【0116】
ここで、
図8及び
図9を参照し、上記コンテンツ実行処理による学習用コンテンツの進行の一例を説明する。
【0117】
図8の例では、知育用の読み聞かせ絵本を提供する学習用コンテンツにおいて、絵本のワンシーンを示す仮想空間上に三つの風船Q(Q1,Q2,Q3)のオブジェクトが表示されている。三つの風船は、例えば、子猫の閉じ込められた第1風船Q1と、赤色の第2風船Q2と、青色の第3風船Q3で構成されている。ここで、この学習用コンテンツでは、子猫の閉じ込められた第1風船Q1と赤色の第2風船Q2が実行オブジェクトとして設定されている。また、第1風船Q1及び第2風船Q2は相互オブジェクトでもあり、指導者側のユーザと、生徒側のユーザに操作権限が与えられている。
【0118】
図9に示されるように、チャプタの所要時間内に、ユーザによって、仮想空間上の第1風船Q1のオブジェクトに操作が行われると、第1風船Q1に対応付けられたイベントが発動する。図示の例では、タッチパネル式のディスプレイの表示画面500上で、ユーザの手Hが第1風船Q1にタッチ操作を行うことをトリガーとしてイベントが発動される。第1風船Q1に対応付けられたイベントが発動すると、第1風船Q1が割れて、閉じ込められた子猫が登場するというシナリオAが進行する。なお、シナリオAの進行では、子猫が登場する学習シーンになると、子猫のオブジェクトが指導者側のユーザのアバターオブジェクトとして設定される。従って、上述のアバターオブジェクト表示処理が実行されることにより、指導者側のユーザが、子猫のオブジェクトを任意のアニメーションで表示させることができる。
【0119】
一方、チャプタの所要時間内に、ユーザによって、仮想空間上の第2風船Q2のオブジェクトに操作が行われると、第2風船Q2に対応付けられたイベントが発動する。図示の例では、タッチパネル式のディスプレイの表示画面500上で、ユーザの手Hが第2風船Q2にタッチ操作を行うことをトリガーとしてイベントが発動される。第2風船Q2に対応付けられたイベントが発動すると、第2風船Q2が割れて、野原の上に落下する。そして、子猫の閉じ込められた第1風船Q1が風に乗って飛んでいくというシナリオBが進行する。
【0120】
一方、何れの実行オブジェクトにも操作が行われず、チャプタの所要時間が経過した場合、チャプタの所要時間の経過を条件としてイベントが発動される。図示の例では、チャプタの所要時間の経過に対応付けられたイベントが発動すると、子猫の閉じ込められた第1風船Q1が木Rのオブジェクトに引っ掛かり、子猫が木Rから降りられなくなるというシナリオCが進行する。このシナリオCでは、子猫が木Rから降りられなくなるという学習シーンへの切り替えの際に別のチャプタ―に移動する。
【0121】
以上のように、一例では、学習用コンテンツに対してユーザが行う操作によって、学習用コンテンツの進行が複数のパターンに分岐する。これにより、上記の例では、学習用コンテンツによって提供される読み聞かせ用の絵本がマルチシナリオを構成している。また、学習用コンテンツに設定される各イベントは、同一のチャプタ内で行われるイベントでもよいし、別のチャプタへ移動して行われるイベントであってもよい。
【0122】
(作用並びに効果)
以上説明したように、本実施形態に係る通信教育システム1では、ネットワークNを介して仮想空間に接続されたユーザ端末30(30A,30B)からユーザの動作情報を取得し、取得された動作情報に基づいて、アバターオブジェクトの実動作アニメーションを作成する。
図8に示されるように、仮想空間上には、指導者側及び生徒側のユーザの動作に基づく第1アバターP1及び第2アバターP2(アバターオブジェクト)の実動作アニメーションが学習用コンテンツとともに表示される。これにより、実空間のユーザの動作が仮想空間上のアバターP1,P2の動作によって再現される。これにより、仮想空間上に展開される学習用コンテンツを用いて通信教育を行う際に、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる。
【0123】
通信教育システム1は、ユーザ端末30に対して所定の操作が行われることにより、仮想空間上のアバターオブジェクトを実動作アニメーションから予定動作アニメーションに切り替えて表示させる。このため、予め設定された予定動作については、演出効果の高いアニメーション等を用いてコミュニケーションの一部を代替させることができる。これにより、ユーザがアバターオブジェクトを介してコミュニケーションを図るための視覚効果を高めることができる。
【0124】
通信教育システム1において、仮想空間上のアバターオブジェクトは、予定動作アニメーションが終了すると、再び実動作アニメーションへと切り替えられる。これにより、アバターオブジェクトの動作として、ユーザの実動作の他に予め設定された予定動作を自然に盛り込むことができる。
【0125】
例えば、予定動作には、ユーザの感情を示すリアクション動作が含まれる。これにより、仮想空間上のアバターオブジェクトを介したユーザの感情表現を豊かに演出することができる。
【0126】
また例えば、予定動作には、学習用コンテンツに含まれる所定のオブジェクトを操作する動作が含まれる。これにより、アバターオブジェクトを介して仮想空間上のオブジェクトを使ったコミュニケーションを円滑にすることができる。
【0127】
また例えば、予定動作には、所定の動作パターンを繰り返す繰り返し動作が含まれる。これにより、例えば、積極的な相互コミュニケーションが必要とされない場面では、アバターに所定の動作パターンを繰り返させて待機させることができる。これにより、ユーザの実動作が常にアバターの動きに反映されることによるユーザの疲労感を低減させることができる。
【0128】
また、本実施形態では、ユーザは、任意のオブジェクトをアバターオブジェクトとして設定することができる。
図8に示される例では、生徒側のユーザに対応する第2アバターP2を、生徒側のユーザの任意に設定することができる。これにより、ユーザは、任意のオブジェクトをアバターオブジェクトとして設定し、仮想空間上でコミュニケーションを図ることができる。
【0129】
また、本実施形態では、ユーザは、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つをアバターオブジェクトとして設定することができる。
図8に示される例では、指導者側のユーザに対応する第1アバターP1は、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つで構成されている。これにより、ユーザは、学習用コンテンツに含まれるオブジェクトとして予め設定されたオブジェクトの一つをアバターオブジェクトとして設定し、仮想空間上でコミュニケーションを図ることができる。
【0130】
さらに、本実施形態に係る通信教育システム1によれば、ネットワークNを介して接続された指導者側又は生徒側のユーザのユーザ端末30(30A,30B)を介して、仮想空間に対して行われた操作に関する操作情報を取得する。また、学習用コンテンツには、学習用コンテンツに含まれる所定のオブジェクトが実行オブジェクトとして設定されている。ここで、
図9に示されるように、学習用コンテンツでは、ユーザ端末30を介して実行オブジェクト(Q1,Q2)が操作されることを条件として、学習用コンテンツの進行に関与するイベントを発動させることができる。これにより、ユーザのオブジェクトに対する操作によって、学習用コンテンツの進行を積極的に変化させることができるため、ユーザの学習用コンテンツへの没入感を高めることができる。
【0131】
具体的に、ユーザ端末30を介して行われる実行オブジェクトへの操作には、タッチ操作、位置の移動操作、表示向きの変更操作のうち、少なくとも一つが含まれる。このように、学習用コンテンツは、仮想空間上のオブジェクトを直接操作することによりイベントを発動させることができるため、ユーザの学習用コンテンツへの没入感を高めることができる。
【0132】
また、通信教育システムでは、学習用コンテンツは、複数の学習シーンを含むように設定することができる。ここで、学習用コンテンツに設定されたイベントには、学習シーンの切り替えが含まれる。これにより、ユーザのオブジェクトに対する操作により学習シーンを切り替えることができ、ユーザの学習用コンテンツへの没入感を高めることができる。また、学習用コンテンツは、学習シーンの切り替えにより、マルチシナリオを構成することができる。従って、同一の学習用コンテンツを繰り返し使用しても、ユーザの没入感を維持することができる。
【0133】
また、学習用コンテンツの学習シーンは、予め設定された所要時間が経過すると、他の学習シーンへ移動するように設定可能に構成されている。これにより、例えば、生徒側のユーザの参加度合いや理解度が不足する場合でも、所要時間の経過により学習用コンテンツを進行させ、生徒側のユーザに行き詰まりを感じさせることを抑制する。また、学習シーンが自動で切り替わることにより、指導者側の負担を軽減させることができる。
【0134】
また、学習用コンテンツは、学習シーン毎にイベントを設定することができるため、学習用コンテンツの作成や改良が容易になる。
【0135】
また、学習用コンテンツは、所定の学習シーンにおいてイベントが発動される所定時刻の設定が可能となっている。これにより、実行オブジェクトの操作とは別に、所定の学習シーンにおける所定時刻にイベントを発動させることができる。その結果、ユーザの参加度合いや理解度にバラつきがある場合でも、学習用コンテンツの進行が冗長になることを抑制することができる。
【0136】
また、学習用コンテンツは、予め登録された複数のオブジェクトの中から任意のオブジェクトを実行オブジェクトとして設定することができる。このため、例えば、学習用コンテンツに含まれる複数のオブジェクトの中から、生徒側のユーザの対象年齢に合わせて実行オブジェクトを変更させることが可能となる。これにより、生徒側のユーザの対象年齢や理解度等に応じて、共通のコンテンツ要素を使用して、学習用コンテンツに複数のバリエーションを設定することが可能となる。なお、本実施形態では、コンテンツ制作者側のユーザによって実行オブジェクトの設定が可能である例について説明したが、指導者側のユーザの操作によって実行オブジェクトが設定される構成であってもよい。
【0137】
また、上記の実行オブジェクトについて、教師用オブジェクト、生徒用オブジェクト及び相互オブジェクトの設定を行うことができる。これにより、実行オブジェクトに応じて、イベントの操作権限を変更することができる。従って、例えば、幼児向けの学習用コンテンツなど、ユーザの対象年齢が低い場合は、実行オブジェクトを指導者用オブジェクトとして設定することで、生徒側のユーザが端末操作を行わずに視聴できるコンテンツにすることができる。その一方で、大人向けの学習用コンテンツでは、生徒用オブジェクトや相互オブジェクトの数を増やし、生徒側のユーザがシナリオの進行に積極的に関与しやすいコンテンツにすることができる。
【0138】
なお、上記実施形態において、仮想区間にアクセスする指導者側のユーザ及び生徒側のユーザの数は、特に限定されない。指導者側のユーザが複数居てもよいし、生徒側のユーザが複数いてもよい。若しくは、生徒側のユーザのみであってもよい
【0139】
また、上記実施形態では、仮想空間上に指導者側及び生徒側のユーザのアバターオブジェクトを表示したが、これに限らない。教師側のユーザのアバター画像だけを表示してもよい。
【0140】
また、上記実施形態では、指導者側のユーザのアバターオブジェクトが学習用コンテンツに含まれるオブジェクトの一つである場合について説明したが、本発明はこれに限らない。指導者側のユーザによって任意に設定されるオブジェクトをアバターオブジェクトにしてもよい。また、生徒側のユーザのアバターオブジェクトが学習用コンテンツに含まれるオブジェクトの一つであってもよい。
【0141】
さらに、上記実施形態でCPU11,21,31がソフトウェア(プログラム)を読み込んで実行した処理をCPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA等の製造後に回路構成を変更可能なPLD、及びASIC等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、提供処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
【0142】
また、サーバプログラム14A、クリエイタプログラム24Aが、記憶部14及び記憶部24のそれぞれに予め記憶(インストール)されている態様を説明したが、これに限定されない。各プログラムは、CD(Compact Disk)、DVD(Digital Versatile Disk)、及びUSB(Universal Serial Bus)メモリ等の非一時的記録媒体に記録された形態で提供されてもよい。また、各プログラムは、ネットワークNを介して外部装置からダウンロードされる形態としてもよい。
【符号の説明】
【0143】
1 通信教育システム
11 CPU(プロセッサ)
14A サーバプログラム(通信教育提供プログラム)
30 ユーザ端末
P1 第1アバター(指導者側のユーザのアバターオブジェクト)
P2 第2アバター(生徒側のユーザのアバターオブジェクト)
Q 風船(オブジェクト)
R 木(オブジェクト)
N ネットワーク
【要約】
【課題】アバターを介した相互コミュニケーションのための視覚効果を良好にすることができる通信教育システム、通信教育提供方法及び通信教育提供プログラムを得る。
【解決手段】通信教育システムは、仮想空間上に展開される学習用コンテンツを用いて通信教育を提供する通信教育システムであって、少なくとも一つのプロセッサを備え、前記少なくとも一つのプロセッサは、指導者側又は生徒側のユーザのアバターオブジェクトを設定し、ネットワークを介して前記仮想空間に接続されたユーザ端末から前記ユーザの動作情報を取得し、取得された前記動作情報に基づいて、前記アバターオブジェクトの実動作アニメーションを作成し、前記仮想空間上に、前記学習用コンテンツとともに前記実動作アニメーションとを表示させる。
【選択図】
図5