IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社バーチャルキャストの特許一覧 ▶ 株式会社ドワンゴの特許一覧

特許7047168コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム
<>
  • 特許-コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム 図1
  • 特許-コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム 図2
  • 特許-コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム 図3
  • 特許-コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム 図4
  • 特許-コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム 図5
  • 特許-コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム 図6
  • 特許-コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム 図7
  • 特許-コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム 図8
  • 特許-コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム 図9
  • 特許-コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム 図10
  • 特許-コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2022-03-25
(45)【発行日】2022-04-04
(54)【発明の名称】コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラム
(51)【国際特許分類】
   H04L 67/00 20220101AFI20220328BHJP
   G06T 13/40 20110101ALI20220328BHJP
   H04N 21/235 20110101ALI20220328BHJP
   H04N 21/24 20110101ALI20220328BHJP
【FI】
H04L67/00
G06T13/40
H04N21/235
H04N21/24
【請求項の数】 9
(21)【出願番号】P 2021091499
(22)【出願日】2021-05-31
【審査請求日】2021-05-31
【新規性喪失の例外の表示】特許法第30条第2項適用 ウェブサイトの掲載日 令和3年3月24日 ウェブサイトのアドレス https://dwango.co.jp/news/press-release/2021/0324/news-542.html
【早期審査対象出願】
(73)【特許権者】
【識別番号】518412081
【氏名又は名称】株式会社バーチャルキャスト
(73)【特許権者】
【識別番号】598138327
【氏名又は名称】株式会社ドワンゴ
(74)【代理人】
【識別番号】100088155
【弁理士】
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【弁理士】
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100144440
【弁理士】
【氏名又は名称】保坂 一之
(74)【代理人】
【識別番号】100183081
【弁理士】
【氏名又は名称】岡▲崎▼ 大志
(72)【発明者】
【氏名】岩城 進之介
(72)【発明者】
【氏名】甲野 純正
(72)【発明者】
【氏名】國井 理恵子
【審査官】白井 亮
(56)【参考文献】
【文献】特開2020-017242(JP,A)
【文献】特開2012-226669(JP,A)
【文献】特開2018-195177(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H04L 67/00
G06T 13/40
H04N 21/235
H04N 21/24
(57)【特許請求の範囲】
【請求項1】
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサは、
仮想空間を表す所定のコンテンツを視聴する第1ユーザに対応する第1アバターを前記仮想空間内に配置し、
前記第1ユーザが前記コンテンツを視聴している間に前記第1ユーザにより操作された前記第1アバターの動作を示す動作情報と、前記第1アバターが予め定められた特定動作を行ったタイミング及び当該特定動作の内容を示す特定動作情報と、を記録した動作ログ情報を生成し、
前記第1ユーザが前記コンテンツを視聴した後に第2ユーザが前記コンテンツを視聴する際に、前記コンテンツを再生すると共に、前記動作ログ情報に含まれる前記動作情報に基づいて前記第1アバターの動作を再生し、
前記動作ログ情報に含まれる前記特定動作情報を参照することにより、再生中の前記第1アバターが前記特定動作を行うタイミングに、前記特定動作の内容を示す表示オブジェクトを前記第1アバターに関連付けて配置し、
前記コンテンツは、授業の場面を示す教育用コンテンツであり、
前記特定動作は、前記授業の学習に用いるアイテムとして予め登録された一以上のアイテムオブジェクトのうちから所定のアイテムオブジェクトを選択し、選択された前記アイテムオブジェクトを前記仮想空間内に生成するための動作である、
コンテンツ提供システム。
【請求項2】
前記表示オブジェクトは、前記アイテムオブジェクトを示す画像を含む、
請求項に記載のコンテンツ提供システム。
【請求項3】
前記少なくとも一つのプロセッサは、前記第2ユーザが前記コンテンツを視聴する際に、前記第2ユーザと同時に前記コンテンツを視聴中の第3ユーザが存在する場合に、前記第3ユーザに対応する第3アバターを前記第1アバターとは異なる表示態様で表示する、
請求項1又は2に記載のコンテンツ提供システム。
【請求項4】
前記少なくとも一つのプロセッサは、前記第2ユーザが前記コンテンツを視聴している間に、前記第2ユーザからの指示操作に基づいて、前記第1アバターの表示及び非表示を切り替える、
請求項1~3のいずれか一項に記載のコンテンツ提供システム。
【請求項5】
前記少なくとも一つのプロセッサは、前記第2ユーザが前記コンテンツを視聴する際に、複数の前記第1ユーザに対応する複数の前記第1アバターの前記動作ログ情報が生成されている場合には、予め定められた数の前記第1アバターを再生対象として選定する、
請求項1~4のいずれか一項に記載のコンテンツ提供システム。
【請求項6】
前記少なくとも一つのプロセッサは、前記動作ログ情報が生成された時点が新しい前記第1アバターを優先して、前記予め定められた数の前記第1アバターを選定する、
請求項に記載のコンテンツ提供システム。
【請求項7】
前記少なくとも一つのプロセッサは、前記動作ログ情報に含まれる前記特定動作情報の記録数が多い前記第1アバターを優先して、前記予め定められた数の前記第1アバターを選定する、
請求項に記載のコンテンツ提供システム。
【請求項8】
仮想空間を表す所定のコンテンツを視聴する第1ユーザに対応する第1アバターを前記仮想空間内に配置するステップと、
前記第1ユーザが前記コンテンツを視聴している間に前記第1ユーザにより操作された前記第1アバターの動作を示す動作情報と、前記第1アバターが予め定められた特定動作を行ったタイミング及び当該特定動作の内容を示す特定動作情報と、を記録した動作ログ情報を生成するステップと、
前記第1ユーザが前記コンテンツを視聴した後に第2ユーザが前記コンテンツを視聴する際に、前記コンテンツを再生すると共に、前記動作ログ情報に含まれる前記動作情報に基づいて前記第1アバターの動作を再生するステップと、
前記動作ログ情報に含まれる前記特定動作情報を参照することにより、再生中の前記第1アバターが前記特定動作を行うタイミングに、前記特定動作の内容を示す表示オブジェクトを前記第1アバターに関連付けて配置するステップと、
を含み、
前記コンテンツは、授業の場面を示す教育用コンテンツであり、
前記特定動作は、前記授業の学習に用いるアイテムとして予め登録された一以上のアイテムオブジェクトのうちから所定のアイテムオブジェクトを選択し、選択された前記アイテムオブジェクトを前記仮想空間内に生成するための動作である、
コンテンツ提供方法。
【請求項9】
仮想空間を表す所定のコンテンツを視聴する第1ユーザに対応する第1アバターを前記仮想空間内に配置するステップと、
前記第1ユーザが前記コンテンツを視聴している間に前記第1ユーザにより操作された前記第1アバターの動作を示す動作情報と、前記第1アバターが予め定められた特定動作を行ったタイミング及び当該特定動作の内容を示す特定動作情報と、を記録した動作ログ情報を生成するステップと、
前記第1ユーザが前記コンテンツを視聴した後に第2ユーザが前記コンテンツを視聴する際に、前記コンテンツを再生すると共に、前記動作ログ情報に含まれる前記動作情報に基づいて前記第1アバターの動作を再生するステップと、
前記動作ログ情報に含まれる前記特定動作情報を参照することにより、再生中の前記第1アバターが前記特定動作を行うタイミングに、前記特定動作の内容を示す表示オブジェクトを前記第1アバターに関連付けて配置するステップと、
をコンピュータに実行させ
前記コンテンツは、授業の場面を示す教育用コンテンツであり、
前記特定動作は、前記授業の学習に用いるアイテムとして予め登録された一以上のアイテムオブジェクトのうちから所定のアイテムオブジェクトを選択し、選択された前記アイテムオブジェクトを前記仮想空間内に生成するための動作である、
コンテンツ提供プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示の一側面は、コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラムに関する。
【背景技術】
【0002】
特許文献1には、仮想空間(仮想的な3次元バーチャル空間)を用いたコンテンツの視聴者が仮想空間内に新たに自身のアバターオブジェクトを追加することが可能であり、以後に当該コンテンツを再生する他の視聴者端末に、追加されたアバターオブジェクトを表示する仕組みが開示されている。
【先行技術文献】
【特許文献】
【0003】
【文献】特許第6707111号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上記仕組みによれば、過去に他の視聴者によって視聴されたことがあるコンテンツを視聴する際に、当該他の視聴者のアバターが含まれるコンテンツを視聴することができるため、他の視聴者と一緒にコンテンツを視聴しているという連帯感を得ることが可能となる。しかしながら、上記仕組みには、コンテンツを視聴するユーザの利便性向上の観点において、更なる改善の余地がある。
【0005】
本開示の一側面は、コンテンツを視聴するユーザの利便性を効果的に向上させることが可能なコンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示の一側面に係るコンテンツ提供システムは、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、仮想空間を表す所定のコンテンツを視聴する第1ユーザに対応する第1アバターを仮想空間内に配置し、第1ユーザがコンテンツを視聴している間に第1ユーザにより操作された第1アバターの動作を示す動作情報と、第1アバターが予め定められた特定動作を行ったタイミング及び当該特定動作の内容を示す特定動作情報と、を記録した動作ログ情報を生成し、第1ユーザがコンテンツを視聴した後に第2ユーザがコンテンツを視聴する際に、コンテンツを再生すると共に、動作ログ情報に含まれる動作情報に基づいて第1アバターの動作を再生し、動作ログ情報に含まれる特定動作情報を参照することにより、再生中の第1アバターが特定動作を行うタイミングに、特定動作の内容を示す表示オブジェクトを第1アバターに関連付けて配置する。
【0007】
上記コンテンツ提供システムでは、過去にコンテンツを視聴した第1ユーザよりも後に当該コンテンツを視聴する第2ユーザに対して、第1ユーザが視聴中に操作した第1アバターの動作が再生される。これにより、第2ユーザは、コンテンツ視聴中において他のユーザ(第1ユーザ)との連帯感を感じることができる。さらに、第1アバターがコンテンツ視聴中に行った特定動作の内容を示す表示オブジェクトが、当該特定動作が行われたタイミングで、第1アバターに関連付けて配置される。これにより、第1アバターが行った特定動作の内容を、コンテンツ視聴中に取るべき行動についての参考情報として、適切なタイミングで第2ユーザに視覚的に提示することができる。その結果、コンテンツを視聴するユーザ(第2ユーザ)の利便性を効果的に向上させることができる。
【発明の効果】
【0008】
本開示の一側面によれば、コンテンツを視聴するユーザの利便性を効果的に向上させることが可能なコンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラムを提供することができる。
【図面の簡単な説明】
【0009】
図1】実施形態に係るコンテンツ提供システムの適用の一例を示す図である。
図2図1のコンテンツ提供システムに関連するハードウェア構成の一例を示す図である。
図3図1のコンテンツ提供システムのアバター記録処理に関連する機能構成の一例を示す図である。
図4図1のコンテンツ提供システムのアバター記録処理の動作の一例を示すシーケンス図である。
図5】第1ユーザに提供されるコンテンツ画像の一例を示す図である。
図6】アバターの特定動作の一例を示す図である。
図7】アバターの特定動作の一例を示す図である。
図8図1のコンテンツ提供システムのアバター再生処理に関連する機能構成の一例を示す図である。
図9図1のコンテンツ提供システムのアバター再生処理の動作の一例を示すシーケンス図である。
図10】コンテンツ画像に表示される表示オブジェクトの一例を示す図である。
図11】コンテンツ画像に表示される第1アバター及び第3アバターの表示例を示す図である。
【発明を実施するための形態】
【0010】
以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
【0011】
[システムの概要]
実施形態に係るコンテンツ提供システムは、ユーザに向けてコンテンツを配信するコンピュータシステムである。コンテンツとは、コンピュータ又はコンピュータシステムによって提供され、人が認識可能な情報である。コンテンツを示す電子データのことをコンテンツデータという。コンテンツの表現形式は限定されない。コンテンツは、例えば、画像(例えば、写真、映像等)、文書、音声、音楽、又はこれらの中の任意の2以上の要素の組合せによって表現されてもよい。コンテンツは、様々な態様の情報伝達又はコミュニケーションのために用いることができる。コンテンツは、例えば、エンターテインメント、ニュース、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修等の様々な場面又は目的で利用され得る。配信とは、通信ネットワーク又は放送ネットワークを経由して情報をユーザに向けて送信する処理である。
【0012】
コンテンツ提供システムは、コンテンツデータをユーザ端末に送信することで、コンテンツをユーザ(視聴者)に提供する。一例では、コンテンツは、配信者から提供される。配信者は、視聴者に情報を伝えようとする者であり、コンテンツの発信者である。ユーザ(視聴者)は、その情報を得ようとする者であり、コンテンツの利用者である。
【0013】
本実施形態では、コンテンツは、少なくとも仮想空間を表現する画像を用いて表現される。すなわち、コンテンツデータには、少なくともコンテンツを示すコンテンツ画像が含まれる。コンテンツ画像は、人が視覚を通して何らかの情報を認識することができる像である。コンテンツ画像は、動画像(映像)でもよいし静止画でもよい。
【0014】
一例では、コンテンツ画像は、仮想オブジェクトが存在する仮想空間を表現する。仮想オブジェクトは、現実世界には存在せず、コンピュータシステム上でのみ表現される物体である。仮想オブジェクトは、実写画像とは独立した画像素材を用いて、2次元又は3次元のコンピュータグラフィックス(CG)によって表現される。仮想オブジェクトの表現方法は限定されない。例えば、仮想オブジェクトは、アニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。仮想空間は、コンピュータ上に表示される画像によって表現される仮想の2次元又は3次元の空間である。コンテンツ画像は、例えば、仮想空間内に設定された仮想カメラから見える風景を示す画像である。仮想カメラは、コンテンツ画像を見るユーザの視線に対応するように仮想空間内に設定される仮想的な視点(仮想視点)である。コンテンツ画像又は仮想空間は、現実世界に実際に存在する物体である現実オブジェクトを更に含んでもよい。
【0015】
仮想オブジェクトの一例として、ユーザの分身であるアバターがある。アバターは、撮影された人そのものではなく、原画像とは独立した画像素材を用いて、2次元又は3次元のコンピュータグラフィックス(CG)によって表現される。アバターの表現方法は限定されない。例えば、アバターは、アニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。上述した仮想カメラの位置及び向きは、アバターの視点及び視線と一致するように設定され得る。この場合、一人称視点のコンテンツ画像がユーザに提供される。これにより、ユーザは、仮想空間内に配置されたアバターの視点(仮想カメラ)からの視界に対応するコンテンツ画像を視認することができる。ユーザは、コンテンツ画像を見ることで、拡張現実(AR:Augmented Reality)、仮想現実(VR:Virtual Reality)、又は複合現実(MR:Mixed Reality)を体験することができる。
【0016】
コンテンツ提供システムは、リアルタイム配信後の所与の期間においてコンテンツを視聴することが可能なタイムシフトのために用いられてもよい。或いは、コンテンツ提供システムは、任意のタイミングでコンテンツを視聴することが可能なオンデマンド配信のために用いられてもよい。コンテンツ提供システムは、過去に生成及びは保存されたコンテンツデータを用いて表現されるコンテンツを配信する。
【0017】
本開示において、データ又は情報を第1コンピュータから第2コンピュータ“に送信する”との表現は、第2コンピュータに最終的にデータ又は情報を届けるための送信を意味する。すなわち、上記表現は、その送信において別のコンピュータ又は通信装置がデータ又は情報を中継する場合を含む。
【0018】
コンテンツの目的及び利用場面は限定されない。例えば、コンテンツは教育用コンテンツであってもよく、この場合には、コンテンツデータは教育用コンテンツデータである。教育用コンテンツとは、例えば、教師が生徒に向けて授業を行うために用いられるコンテンツである。教師とは学業、技芸などを教える人のことをいい、生徒とはその教えを受ける人のことをいう。教師は配信者の一例であり、生徒は視聴者の一例である。教師は教員免許を持つ人であってもよいし、教員免許を持たない人でもよい。授業とは、教師が生徒に学業、技芸などを教えることをいう。教師および生徒のそれぞれについて年齢および所属は限定されず、したがって、教育用コンテンツの目的および利用場面も限定されない。例えば、教育用コンテンツは、保育園、幼稚園、小学校、中学校、高等学校、大学、大学院、専門学校、予備校、オンライン学校などの各種の学校で用いられてよいし、学校以外の場所または場面で用いられてもよい。これに関連して、教育用コンテンツは、幼児教育、義務教育、高等教育、生涯学習などの様々な目的で用いられ得る。一例では、教育用コンテンツは先生または生徒に対応するアバターを含み、これは、そのアバターが教育用コンテンツの少なくとも一部のシーンで登場することを意味する。
【0019】
[コンテンツ提供システムの全体構成]
図1は、実施形態に係るコンテンツ提供システム1の適用の一例を示す図である。本実施形態では、コンテンツ提供システム1は、サーバ10と、ユーザ端末20(ユーザ端末20A,20B,20C)と、コンテンツデータベース30と、動作ログ情報データベース40と、を備える。
【0020】
サーバ10は、コンテンツデータをユーザ端末20に配信するコンピュータである。サーバ10は、通信ネットワークNを介して、少なくとも一つのユーザ端末20と接続されている。一つのユーザ端末20が複数ユーザによって共有されてもよいし、ユーザ毎に一台のユーザ端末20が用意されてもよい。本実施形態では、サーバ10は、少なくとも、3台のユーザ端末20A,20B,20Cと接続されている。サーバ10は、コンテンツデータベース30及び動作ログ情報データベース40にも接続されている。通信ネットワークNの構成は限定されない。例えば、通信ネットワークNは、インターネットを含んで構成されてもよいし、イントラネットを含んで構成されてもよい。
【0021】
ユーザ端末20は、コンテンツの視聴者(すなわち、コンテンツを利用するユーザ)によって用いられるコンピュータである。本実施形態では、ユーザは、教育用コンテンツを利用する生徒に対応する。ユーザ端末20は、コンテンツ提供システム1(サーバ10)にアクセスしてコンテンツデータを受信及び表示する機能を有する。ユーザ端末20の種類及び構成は限定されない。例えば、ユーザ端末20は、高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラス等)、ラップトップ型パーソナルコンピュータ、携帯電話機等の携帯端末を含んで構成され得る。或いは、ユーザ端末20は、デスクトップ型パーソナルコンピュータ等の据置型端末を含んで構成され得る。ユーザ端末20は、上記に例示した2種類以上の端末の組み合わせによって構成されてもよい。
【0022】
ユーザは、ユーザ端末20を操作してコンテンツ提供システム1にログインすることにより、コンテンツを利用(視聴)することができる。一例として、ユーザは、自身のアバターを介して、コンテンツにより表現される仮想空間内で各種体験を行うことができる。本実施形態では、コンテンツ提供システム1のユーザが既にログインしていることを前提とする。
【0023】
コンテンツデータベース30は、生成されたコンテンツデータを記憶する非一時的な記憶媒体又は記憶装置である。コンテンツデータベース30は、既存のコンテンツのライブラリであるといえる。コンテンツデータは、サーバ10又は別のコンピュータ等の任意のコンピュータによって、コンテンツデータベース30に格納される。
【0024】
コンテンツデータは、コンテンツを一意に識別するコンテンツIDと関連付けられた上でコンテンツデータベース30に格納される。一例では、コンテンツデータは、仮想空間データ、モデルデータ、及びシナリオを含んで構成される。
【0025】
仮想空間データは、コンテンツを構成する仮想空間を示す電子データである。例えば、仮想空間データは、背景を構成する個々の仮想オブジェクトの配置、仮想カメラの位置、又は仮想光源の位置等を示す情報を含み得る。
【0026】
モデルデータは、コンテンツを構成する仮想オブジェクトの仕様を規定するために用いられる電子データである。仮想オブジェクトの仕様とは、仮想オブジェクトを制御するための取り決め又は方法のことをいう。例えば、仮想オブジェクトの仕様は、仮想オブジェクトの構成(例えば形状及び寸法)、動作、及び音声のうちの少なくとも一つを含む。アバターのモデルデータのデータ構造は限定されず、任意に設計されてよい。例えば、モデルデータは、アバターを構成する複数のジョイント及び複数のボーンに関する情報と、アバターの外観デザインを示すグラフィックデータと、アバターの属性と、アバターの識別子であるアバターIDとを含んでもよい。ジョイント及びボーンに関する情報の例として、個々のジョイントの3次元座標と、隣り合うジョイントの組合せ(すなわちボーン)とが挙げられる。ただし、当該情報の構成は、これらに限定されず、任意に設計されてよい。アバターの属性とは、アバターを特徴付けるために設定される任意の情報であり、例えば公称寸法、声質、又は性格等を含み得る。
【0027】
シナリオとは、仮想空間内での時間の経過に伴う個々の仮想オブジェクト、仮想カメラ、又は仮想光源の動作を規定する電子データである。シナリオは、コンテンツのストーリーを決めるための情報であるこということができる。仮想オブジェクトの動作は、視覚で認識できる動きに限定されず、聴覚で認識される音声の発生を含んでよい。シナリオは、度さする個々の仮想オブジェクトについて、どのタイミングでどのように動作するかを示すモーションデータを含む。
【0028】
コンテンツデータは、現実オブジェクトに関する情報を含んでもよい。例えば、コンテンツデータは、現実オブジェクトが映された実写画像を含んでもよい。コンテンツデータが現実オブジェクトを含む場合には、シナリオは、その現実オブジェクトをどのタイミングでどこに映すかをさらに規定し得る。
【0029】
動作ログ情報データベース40は、過去にコンテンツを視聴したユーザがコンテンツ視聴中に操作したアバターの動作内容を記録した動作ログ情報を記憶する非一時的な記憶媒体又は記憶装置である。動作ログ情報の詳細については後述する。
【0030】
個々のデータベースの設置場所は限定されない。例えば、コンテンツデータベース30及び動作ログ情報データベース40の少なくとも一方が、コンテンツ提供システム1とは別のコンピュータシステム内に設けられてもよいし、コンテンツ提供システム1の構成要素であってもよい。
【0031】
[コンテンツ提供システムのハードウェア構成]
図2は、コンテンツ提供システム1に関連するハードウェア構成の一例を示す図である。図2は、サーバ10として機能するサーバコンピュータ100と、ユーザ端末20として機能する端末コンピュータ200とを示す。
【0032】
一例として、サーバコンピュータ100は、ハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、及び通信部104を備える。
【0033】
プロセッサ101は、オペレーティングシステム及びアプリケーションプログラムを実行する演算装置である。プロセッサの例としては、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)が挙げられるが、プロセッサ101の種類はこれらに限定されない。例えば、プロセッサ101は、センサ及び専用回路の組合せでもよい。専用回路は、FPGA(Field-Programmable Gate Array)のようなプログラム可能な回路でもよいし、他の種類の回路でもよい。
【0034】
主記憶部102は、サーバ10を実現するためのプログラム、プロセッサ101から出力された演算結果等を記憶する装置である。主記憶部102は、例えばROM(Read Only Memory)又はRAM(Random Access Memory)等により構成される。
【0035】
補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶することが可能な装置である。補助記憶部103は、例えばハードディスク、フラッシュメモリ等の不揮発性記憶媒体によって構成される。補助記憶部103は、サーバコンピュータ100をサーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。例えば、補助記憶部103は、アバター等の仮想オブジェクト及び仮想空間のうちの少なくとも一つに関するデータを記憶してもよい。コンテンツ提供プログラムは、サーバプログラムP1として実装され得る。
【0036】
通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部104は、例えばネットワークカード又は無線通信モジュールにより構成される。
【0037】
サーバ10の各機能要素は、プロセッサ101又は主記憶部102にサーバプログラムP1を読み込ませ、プロセッサ101に当該サーバプログラムP1を実行させることにより実現される。サーバプログラムP1は、サーバ10の各機能要素を実現するためのコードを含む。プロセッサ101は、サーバプログラムP1に従って通信部104を動作させ、主記憶部102又は補助記憶部103におけるデータの読み出し及び書き込みを実行する。このような処理により、サーバ10の各機能要素が実現される。
【0038】
サーバ10は、一つ又は複数のコンピュータにより構成され得る。複数のコンピュータが用いられる場合には、通信ネットワークを介して当該複数のコンピュータが互いに接続されることにより、論理的に一つのサーバ10が構成される。
【0039】
一例として、端末コンピュータ200は、ハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203、通信部204、入力インタフェース205、及び出力インタフェース206を備える。
【0040】
プロセッサ201は、オペレーティングシステム及びアプリケーションプログラムを実行する演算装置である。プロセッサ201は、例えばCPU又はGPUであり得るが、プロセッサ201の種類はこれらに限定されない。
【0041】
主記憶部202は、ユーザ端末20を実現させるためのプログラム、プロセッサ201から出力された演算結果等を記憶する装置である。主記憶部202は、例えばROM又はRAM等により構成される。
【0042】
補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶することが可能な装置である。補助記憶部203は、例えばハードディスク、フラッシュメモリ等の不揮発性記憶媒体によって構成される。補助記憶部203は、端末コンピュータ200をユーザ端末20として機能させるためのクライアントプログラムP2と各種のデータとを記憶する。例えば、補助記憶部203は、アバター等の仮想オブジェクト及び仮想空間のうちの少なくとも一つに関するデータを記憶してもよい。コンテンツ提供プログラムは、クライアントプログラムP2として実装され得る。
【0043】
通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部204は、例えばネットワークカード又は無線通信モジュールにより構成される。
【0044】
入力インタフェース205は、ユーザの操作又は動作に基づいて、データを受け付ける装置である。例えば、入力インタフェース205は、コントローラ、キーボード、操作ボタン、ポインティングデバイス、マイクロフォン、センサ、及びカメラのうちの少なくとも一つによって構成される。キーボード及び操作ボタンは、タッチパネル上に表示されてもよい。入力インタフェース205の種類が限定されないことに対応して、入力インタフェース205に入力されるデータも限定されない。例えば、入力インタフェース205は、キーボード、操作ボタン、又はポインティングデバイスによって入力又は選択されたデータを受け付けてもよい。或いは、入力インタフェース205は、マイクロフォンにより入力された音声データを受け付けてもよい。或いは、入力インタフェース205は、カメラによって撮影された画像データ(例えば、映像データ又は静止画データ)を受け付けてもよい。或いは、入力インタフェース205は、センサ又はカメラを用いたモーションキャプチャ機能によって検知されたユーザの非言語活動(例えば、視線、ユーザの頭部の動き、ユーザの頭部以外の身体の一部(例えば手等)の動き(いわゆるジェスチャ)、表情等)を示すデータをモーションデータとして受け付けてもよい。
【0045】
出力インタフェース206は、端末コンピュータ200で処理されたデータを出力する装置である。例えば、出力インタフェース206は、モニタ、タッチパネル、HMD及びスピーカのうちの少なくとも一つによって構成される。モニタ、タッチパネル、HMD等の表示装置は、処理されたデータを画面上に表示する。本実施形態では、コンテンツ画像は、HMDに出力表示される。スピーカは、処理された音声データにより示される音声を出力する。
【0046】
ユーザ端末20の各機能要素は、プロセッサ201又は主記憶部202にクライアントプログラムP2を読み込ませ、当該クライアントプログラムP2を実行させることにより実現される。クライアントプログラムP2は、ユーザ端末20の各機能要素を実現するためのコードを含む。プロセッサ201は、クライアントプログラムP2に従って、通信部204、入力インタフェース205、又は出力インタフェース206を動作させ、主記憶部202又は補助記憶部203におけるデータの読み出し及び書き込みを行う。この処理により、ユーザ端末20の各機能要素が実現される。
【0047】
サーバプログラムP1及びクライアントプログラムP2の少なくとも一つは、CD-ROM、DVD-ROM、半導体メモリ等の有形の記録媒体に固定的に記録された上で提供されてもよい。或いは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。これらのプログラムは、別々に提供されてもよいし、一緒に提供されてもよい。
【0048】
[コンテンツ提供システムの機能詳細]
コンテンツ提供システム1は、主に、アバター記録処理とアバター再生処理とを実行可能に構成されている。
【0049】
アバター記録処理は、第1ユーザがコンテンツを視聴している間に、当該第1ユーザにより操作された第1アバターの動作を記録する処理である。
【0050】
アバター再生処理は、少なくとも一人の第1ユーザについてのアバター記録処理が行われた後に第2ユーザがコンテンツを視聴する際に、当該第2ユーザに提供されるコンテンツ画像中で、コンテンツを再生すると共に、アバター記録処理により記録された少なくとも一人の第1ユーザに対応する第1アバターの動作を再生する処理である。
【0051】
以下、アバター記録処理及びアバター再生処理について、順に説明する。なお、本実施形態では、アバターは人型のオブジェクトであるが(図10及び図11参照)、アバターの形態は特定の形態に限定されない。
【0052】
[アバター記録処理に関連する機能構成]
図3は、コンテンツ提供システム1のアバター記録処理に関連する機能構成の一例を示す図である。ここでは、ユーザ端末20Aを利用する第1ユーザに対応する第1アバターの動作が記録される場合を例として説明を行う。
【0053】
サーバ10は、アバター記録処理に関する機能要素として、受信部11、コンテンツ送信部12、及びログ生成部13を備える。受信部11は、ユーザ端末20から送信されたデータ信号を受信する。コンテンツ送信部12は、ユーザからの要求に応じてコンテンツデータをユーザ端末20に送信する。ログ生成部13は、ユーザ端末20から取得したアバターの動作情報に基づいて、アバターの動作ログ情報を生成し、動作ログ情報データベース40に保存する。
【0054】
ユーザ端末20Aは、アバター記録処理に関する機能要素として、要求部21、受信部22、表示制御部23、及び動作情報送信部24を備える。要求部21は、コンテンツに関する各種の制御をサーバ10に要求する。受信部22は、コンテンツデータを受信する。表示制御部23は、受信されたコンテンツデータを処理してコンテンツをユーザ端末20Aの表示装置上に表示する。動作情報送信部24は、第1ユーザにより操作された第1アバターの動作を示す動作情報をサーバ10に送信する。
【0055】
[アバター記録処理に関連するシステムの動作]
図4を参照して、アバター記録処理に関連するコンテンツ提供システム1の動作を説明すると共に、本実施形態に係るコンテンツ提供方法の一部について説明する。図4は、コンテンツ提供システム1のアバター記録処理に関連する動作の一例を示すシーケンス図である。
【0056】
ステップS101において、ユーザ端末20Aの要求部21は、コンテンツ要求をサーバ10に送信する。コンテンツ要求は、コンテンツの再生(すなわち、コンテンツの視聴開始)をサーバ10に要求するためのデータ信号である。当該コンテンツ要求は、サーバ10の受信部11によって受信される。
【0057】
ステップS102において、サーバ10のコンテンツ送信部12は、ユーザ端末20Aからのコンテンツ要求に応答して、コンテンツデータをコンテンツデータベース30から読み出し、当該コンテンツデータをユーザ端末20Aに送信する。当該コンテンツデータは、ユーザ端末20Aの受信部22によって受信される。
【0058】
ステップS103において、ユーザ端末20Aの表示制御部23は、コンテンツを再生する。本実施形態では、コンテンツ提供システム1により配信されるコンテンツは、授業の場面を示す教育用コンテンツである。一例として、コンテンツは、教師による授業風景の映像を示す講義データを含む。講義データは、例えば、3次元の(奥行のある)映像データである。一例として、コンテンツにより表現される仮想空間は、学校の教室のような背景を含むと共に、仮想空間内の所定位置において講義データ(映像)が表示される領域を含む。本実施形態では、コンテンツの再生とは、仮想空間内において上記講義データを再生することをいう。
【0059】
ステップS104において、表示制御部23は、仮想空間内に第1ユーザに対応する第1アバターを配置する。例えば、表示制御部23は、教室を模した仮想空間において、講義データの表示領域の前方の位置(すなわち、講義データを視認可能な位置)に、第1アバターを配置する。
【0060】
ステップS105において、表示制御部23は、仮想空間内に配置された第1アバターの視点(すなわち、仮想空間内に設定された第1ユーザの仮想視点)に基づいて、第1ユーザに提示するためのコンテンツ画像(コンテンツ映像)を生成する。なお、本実施形態では、ユーザ端末20A(表示制御部23)がコンテンツデータと第1ユーザの仮想視点とに基づいて第1ユーザ用のコンテンツ画像を生成する処理(レンダリング)を実行するが、サーバ10がレンダリングを実行してもよい。
【0061】
図5は、第1ユーザに提供されるコンテンツ画像IM1の一例を示す図である。図5の例では、コンテンツ画像IM1は、講義データ(映像)が表示される領域51の一部(すなわち、第1ユーザの仮想視点からの視界に含まれる範囲)を含んでいる。また、コンテンツ画像IM1には、第1ユーザにより操作される第1アバターA1の一部(手の部分)、及び第1アバターA1を介して操作可能なツールオブジェクト52(一例として、本を模したオブジェクト)が表示されている。
【0062】
ステップS106において、第1ユーザは、ユーザ端末20Aを操作することにより、第1アバターA1を操作する。第1ユーザが第1アバターA1を操作する方法は、特定の方法に限られない。例えば、第1ユーザは、ユーザ端末20Aのコントローラ(入力インタフェース205の一例)を操作することによって第1アバターA1を操作してもよい。或いは、例えばユーザ端末20Aが第1ユーザの手に取り付けられる加速度センサ、ジャイロセンサ等のセンサ(入力インタフェース205の一例)を有する場合等には、第1ユーザは、ジェスチャ(すなわち、上記センサにより検出されるユーザの手の動き)によって第1アバターA1を操作してもよい。
【0063】
アバターについて可能な操作の例としては、アバターの手の部分を仮想空間内で動かす操作、アバターの手の部分を介して仮想空間内の所定のオブジェクトに対して何らかの処理を実行する操作等が挙げられる。なお、アバターについて操作可能な部分は、アバターの手の部分に限られない。例えば、ユーザの身体の複数の部位にセンサが設けられており、各部位の動きをセンシング可能な場合には、ユーザの身体の動きに応じて、アバターの複数の部位(すなわち、センサが設けられたユーザの身体の各部位に対応する部位)を動かしてもよい。
【0064】
ステップS107において、ユーザ端末20Aの動作情報送信部24は、ステップS106で操作された第1アバターA1の動作を示す動作情報をサーバ10に送信する。動作情報は、コンテンツ(講義データ)の再生位置(例えば、講義データの先頭時点を基準「0:00」とした場合の再生時刻)と関連付けられる。例えば、第1アバターA1の動作情報は、コンテンツの再生開始時から再生終了時までを所定時間間隔で区切った各時点における第1アバターA1の状態(例えば、第1アバターA1を構成する各部の位置座標等)を記録した情報である。すなわち、第1アバターA1の動作情報は、コンテンツの再生開始時から再生終了時までの第1アバターA1の動きを再現するための情報である。
【0065】
ステップS108において、サーバ10のログ生成部13は、ユーザ端末20A(動作情報送信部24)から受信した第1アバターA1の動作情報に基づいて、第1アバターA1の動作ログ情報を生成する。動作ログ情報は、第1アバターA1の動作情報と共に、第1アバターA1が予め定められた特定動作を行ったタイミング及び当該特定動作の内容を示す特定動作情報を含む。例えば、ログ生成部13は、第1アバターA1の動作情報の中から特定動作を抽出し、抽出された特定動作毎に特定動作情報を生成する。そして、ログ生成部13は、第1アバターA1の動作情報と、抽出された特定動作毎の特定動作情報と、を含む動作ログ情報を生成する。
【0066】
一例として、特定動作は、授業の学習に用いるアイテムとして予め登録された一以上のアイテムオブジェクトのうちから所定のアイテムオブジェクトを選択し、選択されたアイテムオブジェクトを仮想空間内に生成するための動作を含む。図5図7を参照して、このような特定動作の具体例を説明する。
【0067】
図5に示されるように、まず、第1ユーザがコンテンツ画像IM1を確認しながら、第1アバターA1の手をツールオブジェクト52の位置に合わせ、ツールオブジェクト52を選択する操作を実行する。これにより、図6に示されるように、授業の学習に用いるアイテムとして予め登録された一以上(この例では8つ)のアイテムオブジェクト53のリストが表示される。図6の例では、マンモス、アンモナイト、ピカイア等の昔の生物の模型が、アイテムオブジェクト53として登録されている。第1ユーザは、例えば、選択したいアイテムオブジェクト53に第1アバターA1の手の位置を合わせ、当該アイテムオブジェクト53を選択する操作を実行する。これにより、図7に示されるように、選択されたアイテムオブジェクト53(この例ではマンモスの模型)が、第1アバターA1の目の前の位置に生成される。第1ユーザは、例えば、第1アバターA1を介してアイテムオブジェクト53を自由に動かすことができ、様々な角度からアイテムオブジェクト53を観察することができる。なお、アイテムオブジェクト53の種類は上記例に限られない。授業の内容に応じた様々な種類のアイテムオブジェクト53が利用され得る。例えば、コンテンツ(講義データ)が理科(生物)の授業の場面を示す場合、ビーカー、フラスコ、顕微鏡等の実験道具がアイテムオブジェクト53として登録されてもよい。また、コンテンツが数学の授業の場面を示す場合、定規、分度器、コンパス等がアイテムオブジェクト53として登録されてもよい。
【0068】
本実施形態では、ログ生成部13は、第1アバターA1の動作情報の中から上記のような特定動作(すなわち、ツールオブジェクト52を選択して所定のアイテムオブジェクト53を選択する動作)が抽出された場合、当該特定動作が行われたタイミング(例えば、当該特定動作が行われた際のコンテンツの再生位置)と当該特定動作の内容(本実施形態では、選択されたアイテムオブジェクト53を示す情報)とを関連付けた特定動作情報を生成する。
【0069】
ステップS109において、ログ生成部13は、ステップS107で生成した動作ログ情報を動作ログ情報データベース40に保存する。
【0070】
以上の処理により、第1ユーザがコンテンツ視聴中に操作した第1アバターについての動作ログ情報を保存する処理(すなわち、アバター記録処理)が完了する。なお、このようなアバター記録処理は、任意のタイミングでコンテンツを視聴する複数の第1ユーザの各々について実行され得る。これにより、複数の第1アバターについての動作ログ情報が、動作ログ情報データベース40に保存される。
【0071】
[アバター再生処理に関連する機能構成]
図8は、コンテンツ提供システム1のアバター再生処理に関連する機能構成の一例を示す図である。ここでは、上述したアバター記録処理によって一以上の第1アバターの動作ログ情報が保存された後(すなわち、一以上の第1ユーザがコンテンツを視聴した後)に、ユーザ端末20Bを利用する第2ユーザがコンテンツを視聴する場合を例として説明を行う。
【0072】
サーバ10は、アバター再生処理に関する機能要素として、上述した受信部11及びコンテンツ送信部12に加えて、アバター情報送信部14を備える。アバター情報送信部14は、過去にコンテンツを視聴した一以上の第1ユーザの動作ログ情報をユーザ端末20に送信する。また、アバター情報送信部14は、第2ユーザと同時にコンテンツを視聴している第3ユーザが存在する場合には、当該第3ユーザに対応する第3アバターの動作情報もユーザ端末20に送信する。本実施形態では、ユーザ端末20Cを利用する第3ユーザが、第2ユーザと同時にコンテンツを視聴するものとする。この場合、アバター情報送信部14は、ユーザ端末20Cから受信した第3アバターの動作情報をユーザ端末20Bに送信する。なお、実際には、第3ユーザ(ユーザ端末20C)に対しても、第2ユーザ(ユーザ端末20B)に対する処理と同様に、第1ユーザの動作ログ情報及び第2ユーザのアバター(第2アバター)の動作情報が送信されるが、ここでは、第2ユーザ(ユーザ端末20B)に対する処理に着目して以下の説明を行う。
【0073】
ユーザ端末20Bは、アバター再生処理に関する機能要素として、上述した要求部21、受信部22、及び表示制御部23を備える。要求部21及び受信部22は、アバター記録処理と同様の機能を有する。表示制御部23は、アバター記録処理において説明した処理に加えて、アバター再生処理に特有の処理を実行する。
【0074】
[アバター再生処理に関連するシステムの動作]
図9を参照して、アバター再生処理に関連するコンテンツ提供システム1の動作を説明すると共に、本実施形態に係るコンテンツ提供方法の一部について説明する。図9は、コンテンツ提供システム1のアバター再生処理に関連する動作の一例を示すシーケンス図である。
【0075】
ステップS201において、ユーザ端末20Bの要求部21は、コンテンツ要求をサーバ10に送信する。コンテンツ要求は、コンテンツの再生(すなわち、コンテンツの視聴開始)をサーバ10に要求するためのデータ信号である。当該コンテンツ要求は、サーバ10の受信部11によって受信される。
【0076】
ステップS202において、サーバ10のコンテンツ送信部12は、ユーザ端末20Bからのコンテンツ要求に応答して、コンテンツデータをコンテンツデータベース30から読み出し、当該コンテンツデータをユーザ端末20Bに送信する。当該コンテンツデータは、ユーザ端末20Bの受信部22によって受信される。
【0077】
ステップS203において、サーバ10のアバター情報送信部14は、再生対象のアバターを選定する。例えば、第2ユーザが視聴しようとするコンテンツと同じコンテンツを過去に視聴した第1ユーザが複数存在し、複数の第1アバターに関する動作ログ情報が動作ログ情報データベース40に保存されている場合について考える。この場合、仮に、第2ユーザに提供されるコンテンツ(仮想空間)内で全ての第1アバターを再生(表示)すると、第2ユーザに提供されるコンテンツ画像中に多数の第1アバターが表示されてしまい、当該コンテンツ画像中に表示される情報が煩雑になるおそれがある。そこで、アバター情報送信部14は、動作ログ情報データベース40において動作ログ情報が保存されている複数の第1アバターのうちから、予め定められた数(例えば、3人)の第1アバターを再生対象として選定する。
【0078】
例えば、アバター情報送信部14は、動作ログ情報が生成された時点(すなわち、コンテンツが視聴された時点)が新しい第1アバターを優先して、予め定められた数の第1アバターを選定してもよい。或いは、アバター情報送信部14は、動作ログ情報に含まれる特定動作情報の記録数(すなわち、コンテンツ視聴中に特定動作を行った回数)が多い第1アバターを優先して、予め定められた数の第1アバターを選定してもよい。
【0079】
ステップS204において、アバター情報送信部14は、ステップS203で選定された所定数の第1アバターの動作ログ情報をユーザ端末20Bに送信する。
【0080】
第2ユーザと同時に同じコンテンツを視聴中の第3ユーザが存在する場合には、ステップS205及びS206の処理が実行される。すなわち、ステップS205において、サーバ10(一例としてアバター情報送信部14)は、ユーザ端末20Cから第3ユーザに対応する第3アバターの動作情報を取得する。ステップS206において、サーバ10(一例としてアバター情報送信部14)は、第3アバターの動作情報をユーザ端末20Bに送信する。
【0081】
ステップS207において、ユーザ端末20Bの表示制御部23は、コンテンツを再生する。ステップS207の処理は、ステップS103の処理と同様である。
【0082】
ステップS208において、表示制御部23は、ステップS204で受信された各第1アバターの動作ログ情報に含まれる動作情報に基づいて、仮想空間内で各第1アバターの動作を再生する。すなわち、表示制御部23は、仮想空間内に各第1アバターを配置し、各第1アバターを、それぞれに対応する動作ログ情報に含まれる動作情報に基づいて動かす。ここで、各第1アバターが配置される位置は、実際に過去に各第1アバターが配置された位置でもよいが、各第1アバター同士、或いは第1アバターと第2アバターとの間で干渉(同じ場所に重なって配置される状態)が生じるおそれがある。そこで、表示制御部23は、各第1アバターを、アバター同士の干渉が生じないように(例えば、各アバター同士が一定間隔以上離間するように)、過去に各第1アバターが配置された位置とは異なる位置に配置してもよい。
【0083】
ステップS209において、表示制御部23は、ステップS204で受信された各第1アバターの動作ログ情報に含まれる特定動作情報を参照することにより、再生中の各第1アバターが特定動作を行うタイミングに、当該特定動作の内容を示す表示オブジェクトを各第1アバターに関連付けて配置する。例えば、ある第1ユーザが過去にコンテンツを視聴した際に、コンテンツ再生位置「30:00」(再生開始時点から30分後の時点)において、第1アバターを操作して特定動作を行った場合について考える。この場合、第2ユーザがコンテンツを視聴する際において、同じコンテンツ再生位置(この例では「30:00」)になった時点で、表示制御部23は、当該第1アバターの当該特定動作の内容を示す表示オブジェクトを当該第1アバターに関連付けて配置する。
【0084】
第2ユーザと同時に同じコンテンツを視聴中の第3ユーザが存在する場合(すなわち、ステップS206で第3アバターの動作情報が受信された場合)には、ステップS210において、表示制御部23は、仮想空間内に当該第3アバターを配置すると共に、当該第3アバターの動作情報に基づいて当該第3アバターを動かす。なお、第3アバターの動作情報は、ユーザ端末20Cからサーバ10を介してユーザ端末20Bへと、所定時間間隔で定期的に送信される。
【0085】
ステップS211において、表示制御部23は、仮想空間内に配置される第2ユーザに対応する第2アバターの視点(すなわち、仮想空間内に設定された第2ユーザの仮想視点)に基づいて、第2ユーザに提示するためのコンテンツ画像(コンテンツ映像)を生成する。なお、本実施形態では、ユーザ端末20B(表示制御部23)がコンテンツデータと第2ユーザの仮想視点とに基づいて第2ユーザ用のコンテンツ画像を生成する処理(レンダリング)を実行するが、サーバ10がレンダリングを実行してもよい。
【0086】
ステップS212において、表示制御部23は、第2ユーザがコンテンツを視聴している間に、第2ユーザからの指示操作に基づいて、第1アバターの表示及び非表示を切り替えてもよい。表示制御部23は、例えば、ユーザ端末20Bのコントローラを介したユーザ操作により、第1アバターを非表示に切り替える指示を受け付けた場合、再生中の第1アバターがコンテンツ画像に表示されないように切り替えてもよい。また、表示制御部23は、一旦非表示にされた第1アバターを再度表示させる指示を受け付けた場合、当該第1アバターがコンテンツ画像に表示されるように切り替えてもよい。なお、複数の第1アバターが再生対象として選定された場合には、第1アバターの表示/非表示の切替は、第1アバター毎に操作可能とされてもよいし、全ての第1アバターについて一括で操作可能とされてもよい。
【0087】
図10は、第2ユーザに提供されるコンテンツ画像IM2に表示される表示オブジェクト54の一例を示す図である。この例では、第1アバターA1がピカイアの模型を示すアイテムオブジェクト53を選択して仮想空間内に生成する特定動作の内容を示す表示オブジェクト54が、当該第1アバターA1に関連付けて配置されている。一例として、表示オブジェクト54は、第1アバターA1の近傍(この例では、第1アバターA1の頭部の前方の空間)に配置される。図10に示されるように、表示オブジェクト54は、選択されたアイテムオブジェクト53を示すテキスト情報541と、選択されたアイテムオブジェクト53を示すイラスト画像542と、を含み得る。なお、イラスト画像542の代わりに写真等の実写画像が用いられてもよい。第1アバターA1の動作情報に基づいて第1アバターA1を再生するだけ(すなわち、第1アバターA1の手の動きを再現するだけ)では、第1アバターA1がコンテンツ視聴中に具体的にどのような行動を取ったのかを把握することはできない。すなわち、第1アバターA1を介したツールオブジェクト52(図5参照)の操作によってどのアイテムオブジェクト53が選択されたのかを把握することはできない。一方、上記のように、第1アバターA1が特定動作(本実施形態では、所定のアイテムオブジェクト53を選択する操作)を行ったタイミングに、当該特定動作の内容を示す表示オブジェクト54が第1アバターA1に関連付けて配置されることにより、第2ユーザは、第1ユーザ(第1アバターA1)が行った特定動作の内容を、適切なタイミングで視覚的に把握することができる。
【0088】
図11は、コンテンツ画像IM2に表示される第1アバターA1及び第3アバターA3の表示例を示す図である。図11に示されるように、表示制御部23は、第2ユーザと同時にコンテンツを視聴中の第3ユーザに対応する第3アバターA3を、過去にコンテンツを視聴した第1ユーザに対応する第1アバターA1(動作ログ情報に基づいて再生中のアバター)とは異なる表示態様で表示してもよい。図11の例では、表示制御部23は、第3アバターA3の上方の空間に、逆三角形状のマークオブジェクトMを配置している。このようなマークオブジェクトMの有無によって、第2ユーザは、仮想空間内に配置された各アバターが再生中の第1アバターA1であるのか、リアルタイムにコンテンツをしている第3ユーザに対応する第3アバターA3であるのかを的確に把握することが可能となる。なお、第3アバターA3を第1アバターA1と区別するための表示態様は、図11に示される例に限られない。例えば、表示制御部23は、第3アバターA3を第1アバターA1とは異なる色(例えば、明るい色)で表示してもよいし、第1アバターA1を半透明に表示してもよい。
【0089】
[効果]
以上説明したように、本開示の一側面に係るコンテンツ提供システムは、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、仮想空間を表す所定のコンテンツを視聴する第1ユーザに対応する第1アバターを仮想空間内に配置し、第1ユーザがコンテンツを視聴している間に第1ユーザにより操作された第1アバターの動作を示す動作情報と、第1アバターが予め定められた特定動作を行ったタイミング及び当該特定動作の内容を示す特定動作情報と、を記録した動作ログ情報を生成し、第1ユーザがコンテンツを視聴した後に第2ユーザがコンテンツを視聴する際に、コンテンツを再生すると共に、動作ログ情報に含まれる動作情報に基づいて第1アバターの動作を再生し、動作ログ情報に含まれる特定動作情報を参照することにより、再生中の第1アバターが特定動作を行うタイミングに、特定動作の内容を示す表示オブジェクトを第1アバターに関連付けて配置する。
【0090】
本開示の一側面に係るコンテンツ提供方法は、仮想空間を表す所定のコンテンツを視聴する第1ユーザに対応する第1アバターを仮想空間内に配置するステップと、第1ユーザがコンテンツを視聴している間に第1ユーザにより操作された第1アバターの動作を示す動作情報と、第1アバターが予め定められた特定動作を行ったタイミング及び当該特定動作の内容を示す特定動作情報と、を記録した動作ログ情報を生成するステップと、第1ユーザがコンテンツを視聴した後に第2ユーザがコンテンツを視聴する際に、コンテンツを再生すると共に、動作ログ情報に含まれる動作情報に基づいて第1アバターの動作を再生するステップと、動作ログ情報に含まれる特定動作情報を参照することにより、再生中の第1アバターが特定動作を行うタイミングに、特定動作の内容を示す表示オブジェクトを第1アバターに関連付けて配置するステップと、を含む。
【0091】
本開示の一側面に係るコンテンツ提供プログラムは、仮想空間を表す所定のコンテンツを視聴する第1ユーザに対応する第1アバターを仮想空間内に配置するステップと、第1ユーザがコンテンツを視聴している間に第1ユーザにより操作された第1アバターの動作を示す動作情報と、第1アバターが予め定められた特定動作を行ったタイミング及び当該特定動作の内容を示す特定動作情報と、を記録した動作ログ情報を生成するステップと、第1ユーザがコンテンツを視聴した後に第2ユーザがコンテンツを視聴する際に、コンテンツを再生すると共に、動作ログ情報に含まれる動作情報に基づいて第1アバターの動作を再生するステップと、動作ログ情報に含まれる特定動作情報を参照することにより、再生中の第1アバターが特定動作を行うタイミングに、特定動作の内容を示す表示オブジェクトを第1アバターに関連付けて配置するステップと、をコンピュータに実行させる。
【0092】
このような側面においては、以下のような効果が奏される。すなわち、過去にコンテンツを視聴した第1ユーザよりも後に当該コンテンツを視聴する第2ユーザに対して、第1ユーザが視聴中に操作した第1アバターA1の動作が再生される。これにより、第2ユーザは、コンテンツ視聴中において他のユーザ(第1ユーザ)との連帯感を感じることができる。さらに、第1アバターA1がコンテンツ視聴中に行った特定動作の内容を示す表示オブジェクト54が、当該特定動作が行われたタイミングで、第1アバターA1に関連付けて配置される。これにより、第1アバターA1が行った特定動作の内容を、コンテンツ視聴中に取るべき行動についての参考情報として、適切なタイミングで第2ユーザに視覚的に提示することができる。その結果、コンテンツを視聴するユーザ(第2ユーザ)の利便性を効果的に向上させることができる。
【0093】
他の側面に係るコンテンツ配信システムでは、コンテンツは、授業の場面を示す教育用コンテンツであってもよく、特定動作は、授業の学習に用いるアイテムとして予め登録された一以上のアイテムオブジェクトのうちから所定のアイテムオブジェクトを選択し、選択されたアイテムオブジェクトを仮想空間内に生成するための動作であってもよい。上記構成によれば、第2ユーザは、仮想空間内の授業の進行に合わせて、他のユーザ(第1ユーザ)の行動(すなわち、第1アバターA1の特定動作)を参考にして、適切なアイテムオブジェクト53を仮想空間内に生成することが可能となる。その結果、仮想空間を利用した学習の効率を効果的に向上させることができる。
【0094】
他の側面に係るコンテンツ配信システムでは、表示オブジェクトは、アイテムオブジェクトを示すイラスト画像を含んでもよい。上記構成によれば、第1アバターA1が取り出したアイテムオブジェクト53の内容を、イラスト画像542によって、視覚的且つ容易に把握することが可能となる。
【0095】
他の側面に係るコンテンツ配信システムでは、少なくとも一つのプロセッサは、第2ユーザがコンテンツを視聴する際に、第2ユーザと同時にコンテンツを視聴中の第3ユーザが存在する場合に、第3ユーザに対応する第3アバターを第1アバターとは異なる表示態様で表示してもよい。上記構成によれば、過去にコンテンツを視聴した第1ユーザの第1アバターA1と、第2ユーザと同時にリアルタイムにコンテンツを視聴している第3ユーザの第3アバターA3と、を識別可能となる。その結果、第2ユーザは、リアルタイムでコンテンツを視聴している第3ユーザとのコミュニケーションを容易に取ることが可能となる。
【0096】
他の側面に係るコンテンツ配信システムでは、少なくとも一つのプロセッサは、第2ユーザがコンテンツを視聴している間に、第2ユーザからの指示操作に基づいて、第1アバターの表示及び非表示を切り替えてもよい。仮想空間中に表示される第1アバターA1数が多すぎると、第2ユーザに提供されるコンテンツ画像IM2中に表示される情報が煩雑となるおそれがある。上記構成によれば、このような場合に、第2ユーザが自由に第1アバターを非表示に切り替えることが可能となる。
【0097】
他の側面に係るコンテンツ配信システムでは、少なくとも一つのプロセッサは、第2ユーザがコンテンツを視聴する際に、複数の第1ユーザに対応する複数の第1アバターの動作ログ情報が生成されている場合には、予め定められた数の第1アバターを再生対象として選定してもよい。上記構成によれば、仮想空間中に表示される第1アバターA1数を一定数(予め定められた数)以下に抑えることにより、第2ユーザに提供されるコンテンツ画像IM2中に表示される情報が煩雑になることを抑制することができる。
【0098】
他の側面に係るコンテンツ配信システムでは、少なくとも一つのプロセッサは、動作ログ情報が生成された時点が新しい第1アバターを優先して、予め定められた数の第1アバターを選定してもよい。コンテンツを初期に視聴したユーザよりも、過去にコンテンツを視聴したユーザ(アバター)の動作を参考にしながらコンテンツを視聴したユーザの方が、コンテンツ視聴中に適切なアバター操作を行っている可能性が高いと考えられる。上記構成によれば、第2ユーザに提供されるコンテンツ画像IM2に、なるべく最近にコンテンツを視聴した第1ユーザの第1アバターA1を優先的に表示することで、第2ユーザに提供される参考情報(第1アバターA1の特定動作)の質を高めることができる。
【0099】
他の側面に係るコンテンツ配信システムでは、少なくとも一つのプロセッサは、動作ログ情報に含まれる特定動作情報の記録数が多い第1アバターを優先して、予め定められた数の第1アバターを選定してもよい。特定動作情報の記録数が多い第1アバターに対応する第1ユーザは、コンテンツ視聴中に積極的に学習に取り組んだユーザである可能性が高い。このようなユーザの第1アバターA1を再生対象として優先的に選定することにより、第2ユーザに提供される参考情報(第1アバターA1の特定動作)の量を増やすことができる。
【0100】
[変形例]
以上、本開示について、実施形態に基づいて詳細に説明した。しかし、本開示は、上記実施形態に限定されない。本開示は、その要旨を逸脱しない範囲で様々な変形が可能である。
【0101】
例えば、上述したサーバ10の機能の一部は、ユーザ端末20で実行されてもよい。逆に、上述したユーザ端末20の機能の一部は、サーバ10で実行されてもよい。例えば、上記実施形態では、主にユーザ端末20の表示制御部23が、コンテンツの再生、アバターの再生、及びコンテンツ画像の生成を行ったが、これらの処理は、サーバ10で実行されてもよい。この場合、ユーザ端末20は、サーバ10で処理及び生成されたコンテンツ画像をサーバ10から受信し、受信したコンテンツ画像をディスプレイ上に表示する表示処理のみを実行すればよい。
【0102】
本開示において、「少なくとも一つのプロセッサが、第1の処理を実行し、第2の処理を実行し、…第nの処理を実行する。」との表現、又はこれに対応する表現は、第1の処理から第nの処理までのn個の処理の実行主体(すなわちプロセッサ)が途中で変わる場合を含む概念である。すなわち、この表現は、n個の処理のすべてが同じプロセッサで実行される場合と、n個の処理においてプロセッサが任意の方針で変わる場合との双方を含む概念である。
【0103】
少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正又は削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。
【符号の説明】
【0104】
1…コンテンツ提供システム、10…サーバ、11…受信部、12…コンテンツ送信部、13…ログ生成部、14…アバター情報送信部、20,20A,20B,20C…ユーザ端末、21…要求部、22…受信部、23…表示制御部、24…動作情報送信部、30…コンテンツデータベース、40…動作ログ情報データベース、53…アイテムオブジェクト、54…表示オブジェクト、542…イラスト画像、101…プロセッサ、A1…第1アバター、A3…第3アバター、IM1,IM2…コンテンツ画像、P1…サーバプログラム、P2…クライアントプログラム。
【要約】
【課題】コンテンツを視聴するユーザの利便性を効果的に向上させる。
【解決手段】一実施形態に係るコンテンツ提供システムは、少なくとも一つのプロセッサを備える。プロセッサは、第1ユーザがコンテンツを視聴している間に操作した第1アバターの動作を示す動作情報と、第1アバターが特定動作を行ったタイミング及び当該特定動作の内容を示す特定動作情報と、を記録した動作ログ情報を生成し、第1ユーザがコンテンツを視聴した後に第2ユーザがコンテンツを視聴する際に、コンテンツを再生すると共に、動作ログ情報に含まれる動作情報に基づいて第1アバターの動作を再生し、動作ログ情報に含まれる特定動作情報を参照することにより、再生中の第1アバターが特定動作を行うタイミングに、特定動作の内容を示す表示オブジェクトを第1アバターに関連付けて配置する。
【選択図】図10
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11