IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社NTTドコモの特許一覧

<>
  • 特許-コンテンツ提供装置 図1
  • 特許-コンテンツ提供装置 図2
  • 特許-コンテンツ提供装置 図3
  • 特許-コンテンツ提供装置 図4
  • 特許-コンテンツ提供装置 図5
  • 特許-コンテンツ提供装置 図6
  • 特許-コンテンツ提供装置 図7
  • 特許-コンテンツ提供装置 図8
  • 特許-コンテンツ提供装置 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-05-13
(45)【発行日】2024-05-21
(54)【発明の名称】コンテンツ提供装置
(51)【国際特許分類】
   G06T 19/00 20110101AFI20240514BHJP
【FI】
G06T19/00 A
【請求項の数】 9
(21)【出願番号】P 2023518629
(86)(22)【出願日】2022-03-16
(86)【国際出願番号】 JP2022011994
(87)【国際公開番号】W WO2022234724
(87)【国際公開日】2022-11-10
【審査請求日】2023-09-07
(31)【優先権主張番号】P 2021078475
(32)【優先日】2021-05-06
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】392026693
【氏名又は名称】株式会社NTTドコモ
(74)【代理人】
【識別番号】100088155
【弁理士】
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【弁理士】
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100121980
【弁理士】
【氏名又は名称】沖山 隆
(74)【代理人】
【識別番号】100128107
【弁理士】
【氏名又は名称】深石 賢治
(74)【代理人】
【識別番号】100183081
【弁理士】
【氏名又は名称】岡▲崎▼ 大志
(72)【発明者】
【氏名】藤野 弘行
【審査官】村松 貴士
(56)【参考文献】
【文献】特開2017-68851(JP,A)
【文献】特開2019-193697(JP,A)
【文献】特開2009-129398(JP,A)
【文献】特開2022-76762(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 19/00
G06F 3/01
G06F 3/048 - 3/04895
(57)【特許請求の範囲】
【請求項1】
複数のユーザによって共有される仮想空間を表すコンテンツ画像を各前記ユーザに提供するコンテンツ提供装置であって、
前記仮想空間において各前記ユーザが予め定められた閾値期間以上注視した注視領域を特定する特定部と、
各前記ユーザの前記注視領域と前記仮想空間内に配置される仮想オブジェクトとの位置関係に基づいて、前記仮想オブジェクトを注視したユーザ数を集計し、集計結果に応じた注目度を前記仮想オブジェクトに設定する設定部と、
前記仮想オブジェクトに設定された前記注目度を各前記ユーザに通知する通知部と、
を備えるコンテンツ提供装置。
【請求項2】
前記通知部は、第一ユーザに提供される第一コンテンツ画像に第一仮想オブジェクトが含まれる場合に、前記第一コンテンツ画像上に、前記第一仮想オブジェクトに設定された前記注目度を示す第一表示情報を前記第一仮想オブジェクトに関連付けて表示させる、請求項1に記載のコンテンツ提供装置。
【請求項3】
前記設定部は、前記仮想オブジェクトが複数の部分領域によって構成されている場合に、前記部分領域毎に、前記部分領域を注視したユーザ数を更に集計し、集計結果に応じた部分注目度を更に設定し、
前記通知部は、前記部分領域毎の前記部分注目度を各前記ユーザに更に通知する、請求項1又は2に記載のコンテンツ提供装置。
【請求項4】
前記通知部は、第一ユーザに提供される第一コンテンツ画像に第一仮想オブジェクトが含まれる場合に、前記第一コンテンツ画像上に、前記第一仮想オブジェクトに設定された前記注目度を示す第一表示情報を前記第一仮想オブジェクトに関連付けて表示させると共に、前記第一仮想オブジェクトを構成する前記部分領域に設定された前記部分注目度を示す第二表示情報を前記部分領域に関連付けて表示させる、請求項3に記載のコンテンツ提供装置。
【請求項5】
前記仮想オブジェクトは、各前記ユーザに対応するアバターを含み、
前記通知部は、第一ユーザに対応する第一アバターに設定された前記注目度を前記第一ユーザに通知する、請求項1~4のいずれか一項に記載のコンテンツ提供装置。
【請求項6】
前記仮想オブジェクトは、各前記ユーザに対応するアバターを含み、
前記通知部は、第一ユーザに対して、前記第一ユーザに対応する第一アバターに設定された前記注目度を通知すると共に、前記第一アバターを構成する前記部分領域毎の前記部分注目度を更に通知する、請求項3に記載のコンテンツ提供装置。
【請求項7】
前記設定部は、前記仮想オブジェクトに対して予め定められた状態にあるユーザを集計対象外とした上で、前記仮想オブジェクトを注視したユーザ数を集計する、請求項1~6のいずれか一項に記載のコンテンツ提供装置。
【請求項8】
前記仮想オブジェクトは、所定のユーザに対応するアバターであり、
前記予め定められた状態は、前記仮想オブジェクトと会話中の状態である、請求項7に記載のコンテンツ提供装置。
【請求項9】
前記特定部は、ユーザの頭部に装着されたヘッドマウントディスプレイにより検出された前記ユーザの視線に関する視線情報に基づいて、前記ユーザの前記注視領域を特定する、請求項1~8のいずれか一項に記載のコンテンツ提供装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の一側面は、仮想空間を表すコンテンツを提供するコンテンツ提供装置に関する。
【背景技術】
【0002】
複数のユーザにより共有される仮想空間において、ユーザ間で円滑なコミュニケーションを図ることを目的として、一のユーザに対して他のユーザがどこを見ているのかがわかる画像を生成する仕組みが知られている(特許文献1参照)。
【先行技術文献】
【特許文献】
【0003】
【文献】国際公開第2017/191700号
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上記特許文献1に開示された仕組みのように仮想空間中において各ユーザが見ている場所を表示するだけでは、その時点におけるユーザ間のコミュニケーションの促進が図られるだけであり、ユーザの仮想体験のエンタテイメント性を更に向上させる上で改善の余地がある。
【0005】
そこで、本発明の一側面は、ユーザの仮想体験のエンタテイメント性を効果的に向上させることが可能なコンテンツ提供装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一側面に係るコンテンツ提供装置は、複数のユーザによって共有される仮想空間を表すコンテンツ画像を各ユーザに提供するコンテンツ提供装置であって、仮想空間において各ユーザが予め定められた閾値期間以上注視した注視領域を特定する特定部と、各ユーザの注視領域と仮想空間内に配置される仮想オブジェクトとの位置関係に基づいて、仮想オブジェクトを注視したユーザ数を集計し、集計結果に応じた注目度を仮想オブジェクトに設定する設定部と、仮想オブジェクトに設定された注目度を各ユーザに通知する通知部と、を備える。
【0007】
本発明の一側面に係るコンテンツ提供装置においては、仮想空間において各ユーザが閾値期間以上注視した注視領域が特定され、当該注視領域と仮想空間内に配置される仮想オブジェクトとの位置関係に基づいて、仮想オブジェクトを注視したユーザ数が集計される。そして、集計結果に応じた注目度が仮想オブジェクトに設定され、仮想オブジェクトに設定された注目度が各ユーザに通知される。従って、上記コンテンツ提供装置によれば、仮想空間内の各仮想オブジェクトの注目状況を自動的に設定することができると共に、各仮想オブジェクトの注目状況を各ユーザにリアルタイムに通知することができる。上記仕組みにより、ユーザの仮想体験のエンタテイメント性を効果的に向上させることができる。
【発明の効果】
【0008】
本発明の一側面によれば、ユーザの仮想体験のエンタテイメント性を効果的に向上させることが可能なコンテンツ提供装置を提供することができる。
【図面の簡単な説明】
【0009】
図1】一実施形態に係るコンテンツ提供システムの一例を示す図である。
図2】コンテンツ提供システムの機能構成の一例を示す図である。
図3】コンテンツ提供システムの動作の一例を示すシーケンス図である。
図4】注目度設定処理の一例を示すフローチャートである。
図5】コンテンツデータ生成処理の一例を示すフローチャートである。
図6図5のステップS601において生成されるコンテンツ画像の一例を示す図である。
図7図5のステップS603及びS604の処理が実行された後のコンテンツ画像の一例を示す図である。
図8】注目度設定処理の変形例を示すフローチャートである。
図9】コンテンツ提供装置のハードウェア構成の一例を示す図である。
【発明を実施するための形態】
【0010】
以下、添付図面を参照して、本発明の一実施形態について詳細に説明する。なお、図面の説明において同一又は相当要素には同一符号を付し、重複する説明を省略する。
【0011】
図1は、一実施形態に係るコンテンツ提供システム1の一例を示す図である。コンテンツ提供システム1は、複数のユーザにコンテンツを提供(配信)するコンピュータシステムである。コンテンツは、一以上のコンピュータ装置によって生成及び提供される人が認識可能な情報である。コンテンツを示す電子データのことをコンテンツデータという。コンテンツは、例えば、画像、テキスト、音声、又はこれらのうちの2以上の要素の組み合わせによって表現され得る。
【0012】
コンテンツ提供システム1は、コンテンツ提供装置10と、コンテンツ記憶部20と、複数のユーザの各々が所持するユーザ端末であるHMD(ヘッドマウントディスプレイ:Head Mounted Display)30と、を含んでいる。コンテンツ提供システム1では、コンテンツ提供装置10がコンテンツデータを生成し、生成されたコンテンツデータを各ユーザのHMD30に配信することにより、コンテンツをユーザに提供する。本実施形態では一例として、複数のユーザのHMD30の各々に対して、同一の仮想空間を表現するコンテンツが提供される。その結果、複数のユーザ間において、共通の仮想空間が共有される。また、本実施形態では、コンテンツは、少なくとも仮想空間を表すコンテンツ画像を含む。コンテンツ画像は、動画像(映像)であってもよいし静止画像であってもよい。
【0013】
コンテンツ画像は、仮想オブジェクトが存在する仮想空間を表現する。仮想オブジェクトは、現実世界には存在せず、コンピュータシステム上でのみ表現される物体である。仮想オブジェクトは、2次元又は3次元のコンピュータグラフィックス(CG)によって表現され得る。仮想オブジェクトは、アニメーション素材等の実写画像とは異なる画像素材を用いて表現されてもよいし、実写画像に基づいてリアルに表現されてもよい。仮想空間は、コンピュータ上に表示される画像によって表現される仮想の2次元又は3次元の空間である。コンテンツ画像は、例えば、仮想空間内に設定された仮想カメラから見える風景を示す画像である。仮想カメラは、コンテンツ画像を見るユーザの視線(本実施形態では、HMD30により検出されたユーザの視線)に対応するように仮想空間内に設定される。仮想カメラは、ユーザ毎に設定される。より具体的には、仮想空間におけるユーザ(すなわち、ユーザに対応するアバター)の位置に応じて、ユーザ毎の仮想カメラが設定される。ユーザに対して後述するAR又はMRが提供される場合には、コンテンツ画像又は仮想空間は、現実世界に実際に存在する物体である現実オブジェクトを更に含んでもよい。
【0014】
仮想オブジェクトの一例として、ユーザの分身であるアバターが挙げられる。アバターは、アニメーション素材を用いて表現されてもよいし、ユーザの実写画像に基づいて本物に近いように表現されてもよい。なお、上述した仮想カメラの位置及び向きは、アバターの視点及び視線と一致してもよい。この場合、一人称視点のコンテンツ画像がユーザに提供される。或いは、仮想カメラの位置及び向きは、アバターの視点及び視線と一致しなくてもよい。例えば、仮想カメラは、アバターの背後の空間等に配置されてもよい。この場合、三人称視点のコンテンツ画像がユーザに提供される。ユーザは、コンテンツ画像を見ることで、拡張現実(AR:Augmented Reality)、仮想現実(VR:Virtual Reality)、又は複合現実(MR:Mixed Reality)を体験することができる。
【0015】
コンテンツ提供装置10は、コンテンツ画像を含むコンテンツデータを各ユーザのHMD30に送信(提供、配信)するコンピュータ装置である。コンテンツ提供装置10は、通信ネットワークNを介して、コンテンツ記憶部20及び各ユーザのHMD30と通信可能に接続されている。通信ネットワークNは、例えば、インターネット、イントラネット等の任意の種類のネットワークによって構成され得る。
【0016】
コンテンツ記憶部20は、コンテンツデータを記憶する非一時的な記憶媒体又は記憶装置である。コンテンツデータは、例えば、後述する仮想空間情報及び仮想オブジェクト情報を含み得る。
【0017】
仮想空間情報は、コンテンツを構成する仮想空間を示す電子情報である。例えば、仮想空間情報は、仮想空間の背景データ、仮想空間に配置される各仮想オブジェクトの配置、及び各ユーザの仮想カメラの配置(位置及び向き)等に関する情報を含み得る。例えば、仮想空間が互いに直交するX軸、Y軸、及びZ軸で表現される3次元座標空間として構成される場合、仮想空間情報は、仮想オブジェクト(アバターを含む)の配置に関する情報として、仮想オブジェクトの3次元位置座標(XYZ座標)を含み得る。また、仮想空間情報は、アバターの配置に関する情報として、各アバターの姿勢(後述する各パーツの位置等)に関する情報を含み得る。仮想カメラの位置に関する情報(すなわち、仮想空間におけるユーザの視点に対応する情報)は、仮想オブジェクトの配置に関する情報と同様に、3次元位置座標によって表現され得る。また、仮想カメラの向きに関する情報(すなわち、ユーザの視線に対応する情報)は、3次元ベクトルによって表現され得る。
【0018】
仮想オブジェクト情報は、各仮想オブジェクトを規定する電子情報である。例えば、仮想オブジェクト情報は、仮想オブジェクトの形状及び寸法、仮想オブジェクトが行うことが可能な動作等を示す情報を含み得る。例えば、仮想オブジェクト情報は、各アバターを識別する識別情報(以下「アバターID」という。)、各アバターの外観を示すグラフィック情報、及び各アバターの構成を示す構成情報等を含み得る。本実施形態では、アバターは、複数のパーツ(部分領域)によって構成されている。この場合、アバターの構成情報は、例えば、アバターを構成する各パーツに関する情報を含み得る。パーツの例としては、アバターの頭部、胴体、腕、脚等が挙げられる。各パーツは、例えば、アバターに設定された間接(ジョイント)によって区分される。アバターに設定されるジョイントの例としては、首、肩、肘、股関節、膝等の折れ曲がる部分が挙げられる。アバターの身体をこれらのジョイントで区切ることにより、アバターを上述したようなパーツに分けることができる。なお、アバターを構成するパーツは、上述したようなアバターの身体の一部に限られない。例えば、アバターが剣等の装備品、ネックレス等の装飾品等を身につけている場合には、これらの装備品又は装飾品が、アバターを構成するパーツとして扱われてもよい。すなわち、アバターの生身の身体だけでなく、アバターが身につけている(アバターに関連付けられられている)上述したようなアイテム(例えば、衣服、装備品、装飾品等)も、アバターの一部(パーツ)として扱われてもよい。
【0019】
HMD30は、コンテンツを利用するユーザによって利用されるコンピュータ装置である。HMD30は、ユーザの頭部に装着されるデバイスである。例えば、HMD30は、ユーザの両目の前に配置されるディスプレイと、ユーザの両目の前に配置され、ユーザの両目を含む範囲を撮像可能とされたカメラと、コンテンツ提供装置10とデータを送受信するための通信デバイスと、を含む。また、HMD30は、カメラ、ディスプレイ、通信デバイス等の動作を制御する制御部(例えば、プロセッサ、メモリ等で構成されるコンピュータ装置)を含む。
【0020】
HMD30の例としては、例えば、眼鏡型デバイス(例えば、いわゆるXRグラス等のスマートグラス)、ゴーグル型デバイス、帽子型デバイス等が挙げられる。図1には、コンテンツ提供装置10に接続される複数のHMD30のうちの一部の例として、ユーザA(第一ユーザ)により利用されるHMD30A、ユーザBにより利用されるHMD30B、及びユーザCにより利用されるHMD30Cが図示されている。
【0021】
図2は、コンテンツ提供システム1(コンテンツ提供装置10及びHMD30)の機能構成の一例を示す図である。図2に示されるように、HMD30は、動作検出部31、送信部32、受信部33、及び表示制御部34を有する。コンテンツ提供装置10は、受信部11、特定部12、設定部13、及び配信部14を有する。
【0022】
まず、HMD30の各機能要素について説明する。
【0023】
動作検出部31は、HMD30を装着したユーザの動作を検出する。動作検出部31は、ユーザの目の動作を検出する。動作検出部31は、例えば上述したカメラにより撮像された画像に基づいて、現実世界におけるユーザの各目の視線を検出する。動作検出部31は、検出されたユーザの各目の視線が交差する注視位置(焦点位置)を更に検出し、ユーザの各目の位置(視点)から注視位置までの距離(焦点距離)を算出してもよい。本実施形態では一例として、動作検出部31は、上述のようにして現実世界において検出されたユーザの各目の視線方向及び焦点距離を、ユーザの視線に関する視線情報として取得する。
【0024】
また、例えばユーザがHMD30に付属するコントローラ装置等を介して、仮想空間内における当該ユーザの分身であるアバターの位置又は姿勢等の変更を指示する操作を行った場合、動作検出部31は、当該操作に関する情報(以下「操作情報」という。)を更に取得してもよい。このような操作情報は、仮想空間内における当該ユーザに対応するアバターの位置又は姿勢を決定するために用いられる。なお、アバターの位置又は姿勢を決定するための操作情報の入力方法は、コントローラを用いる方法に限られない。例えば、ユーザの身体の動きを検出するセンサ等がユーザの身体に装着され、現実世界におけるユーザの動きを仮想空間内におけるアバターに反映させる手法が考えられる。この場合、上記センサによって検出されたユーザの動きを示す情報(モーション情報)が、上記操作情報として取得されてもよい。
【0025】
送信部32は、動作検出部31により取得された視線情報を含む動作情報をコンテンツ提供装置10に送信する。なお、動作検出部31により操作情報が取得された場合には、上記動作情報には操作情報が含まれる。
【0026】
受信部33は、コンテンツ提供装置10からコンテンツ画像を含むコンテンツデータを受信する。
【0027】
表示制御部34は、受信部33により取得されたコンテンツ画像を、HMD30のディスプレイ上に表示する。
【0028】
次に、コンテンツ提供装置10の各機能要素について説明する。
【0029】
受信部11は、各ユーザのHMD30から、各ユーザの動作情報を取得する。
【0030】
特定部12は、仮想空間において各ユーザが予め定められた閾値期間(例えば5秒等)以上注視した注視領域を特定する。なお、閾値期間は、例えば、コンテンツ提供装置10のオペレータによって任意に定められ得る。閾値期間は、例えば、「ユーザが視線の先にある物に注目している」と判断を下すことが可能な程度の長さ(例えば、人間工学的な見知又は実験等に基づいて得られた長さ)に設定され得る。例えば、特定部12は、以下に述べる一のユーザ(一例としてユーザA)に対する処理を各ユーザについて行うことにより、各ユーザの注視領域を特定する。
【0031】
例えば、特定部12は、受信部11によりユーザAの操作情報が受信された場合、当該操作情報に基づいて、仮想空間におけるユーザAのアバターの位置又は姿勢を更新する。すなわち、特定部12は、コンテンツ記憶部20に記憶されているユーザAのアバターに関する仮想空間情報を更新する。なお、受信部11によりユーザAの操作情報が受信されなかった場合、特定部12は、ユーザAのアバターに関する仮想空間情報を更新しない。
【0032】
特定部12は、コンテンツ記憶部20に記憶されているユーザAのアバターの位置及び姿勢に加えて、ユーザAの視線情報を加味することにより、ユーザAが仮想空間において見ている位置を特定する。例えば、ユーザAのアバターの視点がユーザAの仮想カメラの位置とされる場合(すなわち、ユーザAに対してアバターの視点を介した一人称視点のコンテンツ画像が提供される場合)、特定部12は、ユーザAがアバターの目を通して見ている仮想空間内の位置を特定する。例えば、特定部12は、ユーザAのアバターの位置及び姿勢に関する仮想空間情報から、仮想空間における当該アバターの視点の位置を特定することができる。さらに、特定部12は、現実世界において検出されたユーザAの視線情報(一例として、視線の方向及び焦点距離)に基づいて、ユーザAがアバターの目を通して見ている仮想空間内の位置を特定することができる。すなわち、特定部12は、上記のように特定されたアバターの視点の位置を原点座標として用いて、さらに上記視線情報を参照することにより、仮想空間においてユーザAがアバターの目を通して見ている位置の座標を特定することができる。
【0033】
特定部12は、例えば、予め定められた時間間隔(例えば1秒)で、上記処理を実行することにより、仮想空間においてユーザAが見ている位置の座標を上記時間間隔毎に特定できる。そして、特定部12は、上記時間間隔毎に取得された直近の複数の座標(例えば、閾値期間に対応する長さの期間に取得された複数の座標)を参照し、当該複数の座標が予め定められた閾値距離内の範囲に位置したか否かを判定する。換言すれば、特定部12は、ユーザAが見ている位置が局所的な領域(閾値距離内の範囲)に閾値期間以上留まっているか否かを判定する。特定部12は、上記複数の座標が閾値距離内の範囲に位置したと判定された場合に、当該複数の座標に基づいて注視領域を特定する。一例として、特定部12は、上記複数の座標を全て含む最小半径の球状領域を、注視領域として特定してもよい。
【0034】
設定部13は、特定部12により特定された各ユーザの注視領域と仮想空間内に配置される仮想オブジェクトとの位置関係に基づいて、仮想オブジェクトを注視したユーザ数を集計し、集計結果に応じた注目度を仮想オブジェクトに設定する。本実施形態では、注目度を設定する対象となる仮想オブジェクトは、各ユーザのアバターである。例えば、設定部13は、以下に述べる一のユーザ(一例としてユーザA)に対する処理を各ユーザについて行う。
【0035】
例えば、設定部13は、ユーザAの注視領域と、コンテンツ記憶部20に記憶されたユーザA以外の各ユーザ(以下「他ユーザ」という。)のアバターの位置(パーツ毎の位置を含む)と、を比較することにより、ユーザAの注視領域が他ユーザのアバター(すなわち、アバターを構成するいずれかのパーツ)と重なっているか否かを判定する。設定部13は、ユーザAの注視領域が他ユーザのアバターと重なっていると判定された場合に、ユーザAが当該他ユーザのアバターを注視したと判定する。設定部13は、このような処理を各ユーザについて継続的に実行することにより、アバター毎に、当該アバターを注視したユーザ数を集計する。そして、設定部13は、各アバターの集計結果に応じた注目度を、各アバターのアバターIDに関連付けてコンテンツ記憶部20に格納する。
【0036】
さらに、設定部13は、ユーザAの注視領域と各アバターを構成する各パーツの位置とを比較することにより、ユーザAの注視領域が他ユーザのアバターの特定のパーツと重なっているか否かを判定してもよい。そして、設定部13は、ユーザAの注視領域が当該特定のパーツと重なっていると判定された場合に、ユーザAが当該他ユーザのアバターの特定のパーツを注視したと判定してもよい。設定部13は、このような処理を各ユーザについて継続的に実行することにより、アバターを構成するパーツ毎に、当該パーツを注視したユーザ数を集計してもよい。そして、設定部13は、各パーツの集計結果に応じた部分注目度を、各パーツに関連付けてコンテンツ記憶部20に格納してもよい。例えば、アバターを構成する各パーツに対して識別情報(以下「パーツID」という。)が割り振られる場合、設定部13は、特定のアバターの特定のパーツの部分注目度を、当該特定のアバターのアバターID及び当該特定のパーツのパーツIDの組に関連付けてコンテンツ記憶部20に格納してもよい。
【0037】
アバターに関連付けられる注目度は、アバターを注視したユーザ数そのものであってもよいし、アバターを注視したユーザ数に応じたレベル(段階値)であってもよい。一例として、アバターを注視したユーザ数が0~10の範囲である場合にはレベル「1」が注目度として設定され、アバターを注視したユーザ数が10~50の範囲である場合にはレベル「2」が注目度として設定され、アバターを注視したユーザ数が50以上である場合にはレベル「3」が注目度として設定されてもよい。上記は、パーツに関連付けられる部分注目度についても当てはまる。
【0038】
同一のユーザが同一のアバターを注視したと複数回判定された場合、当該アバターを注視したユーザ数は、最初の1回の判定分だけ加算されてもよいし、判定される毎に加算されてもよい。つまり、注目度を算出する基になる注視ユーザ数は、ユニークユーザ数とされてもよいし、同一のユーザについて重複カウントされてもよい。例えば、ユーザAが他ユーザのアバターを注視したと判定され、当該他ユーザのアバターを注視したユーザ数が1つ加算された後、所定期間後(例えば1日以上経過した後)に再度同じユーザAが当該他ユーザのアバターを注視した場合、設定部13は、当該他ユーザのアバターを注視したユーザ数を更に1つ加算してもよい。
【0039】
また、注目度は注視回数(ユーザ数)だけでなく、注視期間の長さに応じて設定されてもよい。例えば、設定部13は、ユーザAが他ユーザのアバターを注視し続けた期間が長い程、注目度を増加させる量を大きくしてもよい。例えば、設定部13は、ユーザAが他ユーザのアバターを注視し続けた期間が5秒以上10秒未満の場合には、当該他ユーザのアバターの注目度をユーザ一人分に応じた量だけ増加させる一方で、ユーザAが他ユーザのアバターを注視し続けた期間が10秒以上の場合には、当該他ユーザのアバターの注目度をユーザ二人分に応じた量だけ増加させてもよい。上記は、パーツに関連付けられる部分注目度についても当てはまる。
【0040】
配信部14は、各ユーザに対して、コンテンツデータを生成及び配信する。なお、各ユーザに配信されるコンテンツデータは、ユーザ毎に異なる。具体的には、各ユーザに配信されるコンテンツデータに含まれるコンテンツ画像は、各ユーザに関連付けられた仮想カメラの視点に基づいて生成されるため、ユーザ毎に異なる。コンテンツデータには、コンテンツ画像に重畳表示させる各アバターの注目度に関する表示情報が含まれる。すなわち、配信部14は、各アバターに設定された注目度を各ユーザに通知する通知部として機能する。
【0041】
次に、図3に示されるシーケンス図を参照して、コンテンツ提供システム1の動作の一例(実施形態に係るコンテンツ提供方法を含む)について説明する。ここでは、一のユーザ(ユーザA)に着目した処理について説明する。すなわち、ユーザAが利用するHMD30Aとコンテンツ提供装置10との間の処理に着目して、コンテンツ提供システム1の動作を説明する。
【0042】
ステップS1において、HMD30Aの動作検出部31は、ユーザAの動作を検出する。本実施形態では、動作検出部31は、ユーザAの視線情報を取得する。また、ユーザAが、当該ユーザAに対応するアバターの位置又は姿勢の変更を指示する操作を行った場合、動作検出部31は、当該操作に関する操作情報を取得する。
【0043】
ステップS2において、HMD30Aの送信部32は、ステップS1において取得された視線情報を含む動作情報をコンテンツ提供装置10に送信する。なお、ステップS1において操作情報も取得されている場合には、動作情報には操作情報も含まれる。
【0044】
ステップS3において、コンテンツ提供装置10の受信部11は、HMD30Aから、ユーザAの動作情報を取得する。
【0045】
ステップS4において、コンテンツ提供装置10の特定部12は、上述したような処理を実行することにより、ユーザAの動作情報に基づいて、仮想空間におけるユーザAの注視領域を特定する。すなわち、仮想空間においてユーザAが閾値期間以上継続して見ている局所的な領域である注視領域を特定する。
【0046】
ステップS5において、コンテンツ提供装置10の設定部13は、アバターの注目度を設定する。図4に示されるフローチャートを参照して、ステップS5の処理の詳細について説明する。
【0047】
ステップS501において、設定部13は、ユーザAの注視領域と各アバター(ユーザA以外の各ユーザのアバター)の位置(パーツ毎の位置を含む)を示す情報(コンテンツ記憶部20に記憶された各アバターの仮想空間情報)とを比較することにより、ユーザAの注視領域が特定のアバター(ユーザA以外の任意のユーザのアバター)と重なっているか否かを判定する。ユーザAの注視領域がどのユーザのアバターとも重なっていない場合(すなわち、ユーザAが仮想空間において特定のアバターに注目していない場合)、設定部13は、ユーザAについての処理を終了する(ステップS501:NO)。一方、ユーザAの注視領域が特定のアバター(以下「対象アバター」という。)と重なっている場合、設定部13は、ステップS502の処理を実行する(ステップS501:YES)。
【0048】
ステップS502において、設定部13は、ユーザAの注視領域と対象アバターの各パーツの位置を示す情報(コンテンツ記憶部20に記憶された対象アバターの仮想空間情報)とを比較することにより、ユーザAの注視領域が対象アバターを構成する特定の1つのパーツと重なっているか否かを判定する。ユーザAの注視領域が特定の1つのパーツと重なっていない場合(すなわち、ユーザAの注視領域が複数のパーツと重なっており、対象アバターを構成するパーツのうちユーザAが特に注目しているパーツを特定できない場合)、設定部13は、ステップS503の処理をスキップし、ステップS504の処理を実行する(ステップS502:NO)。一方、ユーザAの注視領域が特定の1つのパーツ(以下「対象パーツ」という。)と重なっている場合(ステップS502:YES)、設定部13は、ステップS503の処理を実行する。
【0049】
ステップS503において、設定部13は、対象アバターの対象パーツに対する注視ユーザ数を1つ加算する。そして、設定部13は、加算後の注視ユーザ数(すなわち、現時点までに対象パーツを注視したと判定されたユーザ数の集計結果)に応じた部分注目度を対象パーツに対して設定する。例えば、注視ユーザ数がそのまま部分注目度として用いられる場合、設定部13は、対象パーツの部分注目度を1つ加算すればよい。設定部13は、更新後の部分注目度を対象アバターのアバターID及び対象パーツのパーツIDの組に関連付けて、コンテンツ記憶部20に格納する。なお、対象アバターのアバターID及び対象パーツのパーツIDの組に関連付けられた部分注目度がコンテンツ記憶部20に既に格納されている場合には、設定部13は、コンテンツ記憶部20に格納された当該部分注目度を更新すればよい。
【0050】
ステップS504において、設定部13は、対象アバターに対する注視ユーザ数を1つ加算する。そして、設定部13は、加算後の注視ユーザ数(すなわち、現時点までに対象アバターを注視したと判定されたユーザ数の集計結果)に応じた注目度を対象パーツに対して設定する。例えば、注視ユーザ数がそのまま注目度として用いられる場合、設定部13は、対象アバターの注目度を1つ加算すればよい。設定部13は、更新後の注目度を対象アバターのアバターIDに関連付けて、コンテンツ記憶部20に格納する。なお、対象アバターのアバターIDに関連付けられた注目度がコンテンツ記憶部20に既に格納されている場合には、設定部13は、コンテンツ記憶部20に格納された当該注目度を更新する。
【0051】
以上説明した設定部13による注目度設定処理(ステップS5)は、ユーザAだけでなく、仮想空間を共有する複数のユーザの各々について実行される。従って、多くのユーザに注目されているアバター程、高い注目度が設定される。同様に、多くのユーザに注目されているアバターのパーツ程、高い部分注目度が設定される。
【0052】
図3に戻り、ステップS6において、コンテンツ提供装置10の配信部14は、各ユーザに提供するためのコンテンツデータを生成する。ここでは、ユーザAに提供するためのコンテンツデータを生成する処理について説明する。図5に示されるフローチャートを参照して、ステップS6の処理の詳細について説明する。
【0053】
ステップS601において、配信部14は、ユーザAの視点に対応するコンテンツ画像を生成する。すなわち、配信部14は、ユーザAに関連付けられた仮想カメラから見える風景を示すコンテンツ画像を生成する。図6は、ステップS601において生成されるコンテンツ画像の一例(コンテンツ画像IM1)を示す図である。
【0054】
ステップS602において、配信部14は、ユーザAに提供されるコンテンツ画像IM1(第一コンテンツ画像)にユーザA以外の他ユーザのアバター(第一仮想オブジェクト)が含まれるか否かを判定する。コンテンツ画像IM1に他ユーザのアバターが含まれていない場合、配信部14は、ステップS603及びS604の処理をスキップし、ステップS605の処理を実行する(ステップS602:NO)。一方、図6の例のように、コンテンツ画像IM1に他ユーザのアバター(この例では、3人の他ユーザの各々のアバターA1,A2,A3)が含まれている場合、配信部14は、ステップS603及びS604の処理を実行する(ステップS602:YES)。
【0055】
ステップS603において、配信部14は、コンテンツ画像IM1上において、各アバターA1,A2,A3に設定された注目度を示す第一表示情報を各アバターA1,A2,A3に関連付けて表示させる。
【0056】
ステップS604において、配信部14は、コンテンツ画像IM1上において、各アバターA1,A2,A3を構成するパーツに設定された部分注目度を示す第二表示情報を各パーツに関連付けて表示させる。
【0057】
図7は、コンテンツ画像IM1に対してステップS603及びS604の処理が実行された後のコンテンツ画像の一例(コンテンツ画像IM2)を示す図である。
【0058】
図7の例では、ステップS603の処理により、各アバターA2,A3に設定された注目度(この例では、アバターA2の注目度「15」及びアバターA3の注目度「321」)を表す第一表示情報SC1が、各アバターA2,A3に関連付けて表示されている。この例では、第一表示情報SC1は、ハートを表す図形と注目度を表すテキスト(数値)とを矩形状の枠で囲んだ表示情報として構成されている。また、第一表示情報SC1は、各アバターA2,A3の近傍(この例では各アバターA2,A3の上部)に表示されている。
【0059】
ただし、第一表示情報の表示位置及び構成は上記例に限られない。例えば、第一表示情報は、アバターの上部以外の場所(例えば下部)に表示されてもよいし、アバターと重なる位置に表示されてもよい。また、第一表示情報は、「いいね:15」のように、テキストのみによって表現されてもよい。また、第一表示情報は、必ずしも注目度を表す数値を含まなくてもよい。例えば、第一表示情報は、注目度に応じた色(例えば、注目度が大きい程目立つ色)で着色された図形によって表現されてもよいし、注目度に応じた形状(例えば、注目度が大きい程特徴的な形状)の図形によって表現されてもよいし、注目度に応じたサイズ(例えば、注目度が大きい程大きいサイズ)の図形によって表現されてもよい。また、図7の例のように、注目度が設定されていない(すなわち、注目度が「0」である)アバターA1については、第一表示情報SC1を表示しなくてもよい。この場合、ユーザは、第一表示情報SC1が表示されていないことから、アバターA1の注目度が「0」であることを把握することができる。
【0060】
図7の例では、ステップS604の処理により、アバターA2のパーツ(この例では、アバターA2が手に持っている「剣」)及びアバターA3のパーツ(この例では、アバターA3の「頭部」)の各々に設定された部分注目度を示す第二表示情報SC2が、各パーツに関連付けて表示されている。この例では、アバターA2が持っている「剣」がある程度の注目を集めており、アバターA3の特徴的な頭部(この例では、バナナの形をした頭部)が非常に多くの注目を集めている。すなわち、アバターA2のパーツ「剣」に設定された部分注目度よりも、アバターA3のパーツ「頭部」に設定された部分注目度の方が大きい。この例では、第二表示情報SC2は、パーツ上(或いはパーツの近傍の領域)に表示されている。また、第二表示情報SC2は、部分注目度に応じた数(部分注目度が大きい程多い数)のハートマークによって表現されている。なお、上述した第一表示情報と同様に、第二表示情報の表示位置及び構成も上記例に限られない。
【0061】
ステップS605において、配信部14は、ユーザAのアバター(第一アバター)に設定された注目度及び当該アバターを構成する各パーツに設定された部分注目度を示す表示情報を、コンテンツ画像IM2上に更に表示してもよい。例えば、配信部14は、コンテンツ画像IM2の隅部(例えば、右下隅等)に、ユーザAのアバター、ユーザAのアバターに設定された注目度に応じた第一表示情報、及びユーザAのアバターの各パーツに設定された部分注目度に応じた第二表示情報を小さく表した表示情報を表示してもよい。例えば、配信部14は、アバターA2に対応するユーザに提供されるコンテンツ画像上に、図7の領域Rを切り取って縮小表示させた情報(すなわち、アバターA2、アバターA2の第一表示情報SC1、及びアバターA2のパーツの第二表示情報SC2を含む表示情報)を表示してもよい。このような表示情報によれば、各ユーザは、自身のアバター(及びパーツ)が他のユーザからどの程度の注目を集めているかを容易に把握することが可能となる。
【0062】
図3に戻り、ステップS7において、配信部14は、ステップS6において生成したコンテンツ画像(本実施形態では、ステップS603、S604、及びS605による加工がされた後のコンテンツ画像)を含むコンテンツデータを、ユーザAのHMD30Aに送信する。当該コンテンツデータは、HMD30Aの受信部33によって受信される。
【0063】
ステップS8において、HMD30Aの表示制御部34は、ステップS7において受信されたコンテンツ画像を、HMD30Aのディスプレイ上に表示する。
【0064】
以上説明したステップS1~S8の処理は、定期的に繰り返し実行される。また、コンテンツ提供装置10は、ユーザA以外の各ユーザのHMD30との間でも、上述したHMD30Aとの間の処理(ステップS1~S8)と同様の処理を定期的に繰り返し実行する。その結果、コンテンツ提供装置10によって生成された仮想空間を共有する複数のユーザ間で、どのユーザのアバター(及びパーツ)がどの程度の注目を集めているかを直感的且つリアルタイムに共有することが可能となる。
【0065】
以上説明したように、コンテンツ提供装置10においては、仮想空間において各ユーザが閾値期間以上注視した注視領域が特定され、当該注視領域と仮想空間内に配置されるアバターとの位置関係に基づいて、アバターを注視したユーザ数が集計される。そして、集計結果に応じた注目度がアバターに設定され、アバターに設定された注目度が各ユーザに通知される。従って、コンテンツ提供装置10によれば、仮想空間内の各アバターの注目状況を自動的に設定することができると共に、各アバターの注目状況を各ユーザにリアルタイムに通知することができる。上記仕組みにより、ユーザの仮想体験のエンタテイメント性を効果的に向上させることができる。
【0066】
例えば、仮想空間において複数のユーザ間でアバターを介した交流を行う際に、各ユーザは、各アバターの注目状況をリアルタイムに確認しながら仮想体験を楽しむことができる。より具体的には、各ユーザのアバターが配置される仮想空間においては、各ユーザは、各自のアバターに対して、自身の好み及び個性等を反映させたコスチューム、装飾、仮装等を施すことができる。コンテンツ提供装置10によれば、このようなコスチューム等を注視したユーザ数を集計することにより、アバターの評価を自動的に行うことができる。すなわち、アバターの評価を行うために各ユーザが気に入ったアバターのコスチュームを明示的に選択して「いいね(Good)」の評価を付けるといった面倒な操作を不要とすることができる。また、仮想空間において複数のユーザの注目を集めたアバター(又はパーツ)を自動的に把握することが可能となるため、仮想空間において注目され易い物品(例えば、アバターが装着した洋服、アクセサリ、装備品等のアイテム)のトレンドを容易且つリアルタイムに把握することが可能となる。
【0067】
また、配信部14は、第一ユーザに提供される第一コンテンツ画像にアバター(第一仮想オブジェクト)が含まれる場合に、第一コンテンツ画像上に、アバターに設定された注目度を示す第一表示情報を当該アバターに関連付けて表示させる。本実施形態では、配信部14は、ユーザA(第一ユーザ)に提供されるコンテンツ画像IM1(第一コンテンツ画像)にアバターA1,A2,A3(第一仮想オブジェクト)が含まれている(図6参照)。この場合、配信部14は、コンテンツ画像IM2上に、アバターA1,A2,A3に設定された注目度を示す第一表示情報SC1を各アバターA1,A2,A3に関連付けて表示させる(図7参照)。なお、本実施形態では、注目度が0であるアバターA1の第一表示情報SC1は表示されない。上記構成によれば、コンテンツ画像を介して、アバターの注目度を示す表示情報(第一表示情報SC1)を視覚的に提示することができる。その結果、コンテンツ画像に含まれる各アバターがどの程度の注目を集めているのかを直感的にユーザに把握させることができる。
【0068】
また、設定部13は、アバターが複数のパーツ(部分領域)によって構成されている場合に、パーツ毎に、パーツを注視したユーザ数を更に集計し、集計結果に応じた部分注目度を更に設定する。配信部14は、パーツ毎の部分注目度を各ユーザに更に通知する。上記構成によれば、アバターを構成するパーツのうち特に注目を集めているパーツをユーザに把握させることができる。
【0069】
また、配信部14は、第一ユーザに提供される第一コンテンツ画像にアバター(第一仮想オブジェクト)が含まれる場合に、第一コンテンツ画像上に、アバターに設定された注目度を示す第一表示情報をアバターに関連付けて表示させると共に、アバターを構成するパーツに設定された部分注目度を示す第二表示情報をパーツに関連付けて表示させる。本実施形態では、配信部14は、ユーザA(第一ユーザ)に提供されるコンテンツ画像IM1(第一コンテンツ画像)にアバターA1,A2,A3(第一仮想オブジェクト)が含まれている(図6参照)。この場合、配信部14は、コンテンツ画像IM2上に、アバターA1,A2,A3に設定された注目度を示す第一表示情報SC1を各アバターA1,A2,A3に関連付けて表示させると共に、アバターA2を構成するパーツ「剣」及びアバターA3を構成するパーツ「頭部」に設定された部分注目度を示す第二表示情報SC2を各パーツに関連付けて表示させる(図7参照)。上記構成によれば、コンテンツ画像を介して、アバターのパーツに設定された部分注目度を示す表示情報(第二表示情報SC2)を視覚的に提示することができる。その結果、コンテンツ画像に含まれるアバターにおいて特に注目を集めているパーツをより直感的にユーザに把握させることができる。
【0070】
また、配信部14は、第一ユーザに対応する第一アバターに設定された注目度を第一ユーザに通知する。本実施形態では、配信部14は、ユーザAに対応するアバターに設定された注目度を示す情報をユーザAに提供されるコンテンツ画像に表示させることにより、ユーザA自身のアバターの注目度をユーザA本人に通知する(図5のステップS605参照)。上記構成によれば、ユーザに対して、ユーザ自身のアバターが他のユーザからどの程度の注目を集めているかを把握させることができる。注目度が高い場合には、ユーザに満足感を与えることができる。注目度が低い場合には、ユーザに対してコスチュームの変更等を促すことができる。
【0071】
また、配信部14は、第一ユーザに対して、第一ユーザに対応する第一アバターに設定された注目度を通知すると共に、第一アバターを構成するパーツ毎の部分注目度を更に通知する。本実施形態では、配信部14は、ユーザAに対応するアバターのパーツに設定された部分注目度を示す情報をユーザAに提供されるコンテンツ画像に表示させることにより、ユーザA自身のアバターの注目度及び当該アバターを構成する各パーツの部分注目度をユーザA本人に通知する(図5のステップS605参照)。上記構成によれば、ユーザに対して、ユーザ自身のアバターのどのパーツがどの程度の注目を集めているかを把握させることができる。
【0072】
また、特定部12は、ユーザの頭部に装着されたヘッドマウントディスプレイ(HMD30)により検出されたユーザの視線に関する視線情報に基づいて、ユーザの注視領域を特定する。上記構成によれば、ユーザの目の前方に配置されるスマートグラス(XRグラス)等のHMD30によって検出されたユーザの視線に基づいて、ユーザの視線が停滞した位置(すなわち、ユーザが一定時間以上凝視した注視領域)を適切に特定することができる。
【0073】
(注目度設定処理の変形例)
図8は、注目度設定処理(図3のステップS5)の変形例を示すフローチャートである。図8に示される変形例に係る注目度設定処理は、ステップS501とステップS502との間にステップS510を含む点において、上記実施形態の注目度設定処理(図4参照)と相違している。変形例に係る注目度設定処理においては、設定部13は、アバターに対して予め定められた状態にあるユーザを集計対象外とした上で、当該アバターを注視したユーザ数を集計する。
【0074】
より具体的には、ステップS510において、設定部13は、ステップS501においてユーザAの注視領域が特定のアバターと重なっていると判定された場合であっても、ユーザAが当該特定のアバターに対して予め定められた状態(以下「特定状態」という。)にある場合には、ユーザAを当該特定のアバター(及び当該アバターに含まれるパーツ)を注視したユーザとはカウントしない。すなわち、設定部13は、ステップS510の判定結果が「YES」の場合には、ステップS502~S504の処理をスキップする。
【0075】
特定状態は、例えば、上記特定のアバターと会話中の状態である。なお、ユーザAが特定のアバターと会話中の状態であるか否かは、例えば、ユーザAが特定のアバターと会話するための明示的な操作を行ったか否か(例えば、ユーザAと特定のアバターに対応するユーザとの間で音声通話の接続が確立されているか否か)に基づいて判断することができる。
【0076】
例えば、図6の例において、ユーザAがアバターA2に対応するユーザと会話中である場合について考える。この場合、ユーザAが会話先のユーザに対応するアバターA2に注目するのは当然である。すなわち、ユーザAがアバターA2を一定期間以上継続して見ていたとしても、ユーザAがアバターA2のコスチューム等を気にしてアバターA2を凝視しているとは限られない。従って、会話中に注視したユーザ数をカウントしてアバター(又はパーツ)の注目度(又は部分注目度)を設定してしまうと、多くのユーザと会話を行うことが多いユーザのアバター(又はパーツ)の注目度(又は部分注目度)が高くなってしまい、アバターのデザイン、見栄え等に対する純粋な注目度を適切に設定できないおそれがある。上述した注目度設定処理の変形例(図8)によれば、注視対象のアバターとの間で特定状態(例えばアバターと会話中の状態)にあるユーザを集計対象外とすることにより、アバターのデザイン、見栄え等に対する純粋な注目度を適切に設定することが可能となる。
【0077】
(他の変形例)
上記実施形態では、各ユーザが利用するユーザ端末としてヘッドマウントディスプレイ(HMD)を例示したが、ユーザ端末は、スマートフォン、ゲーム端末等のHMD以外の装置であってもよい。
【0078】
また、上記実施形態では、コンテンツ画像を介して注目度及び部分注目度が通知されたが、コンテンツ画像以外(例えば音声等)の手段によって注目度及び部分注目度が通知されてもよい。
【0079】
また、上記実施形態では、注目度及び部分注目度が設定される対象となる仮想オブジェクトとして、各ユーザのアバターを例示したが、アバター以外の仮想オブジェクトにも注目度及び部分注目度が設定されてもよい。例えば、家具、料理等の静的な仮想オブジェクトに注目度及び部分注目度が設定されてもよい。また、動物、ロボット、人型等のNPC(Non Player Character)等の動的な仮想オブジェクトに注目度及び部分注目度が設定されてもよい。
【0080】
また、上述した注目度設定処理(ステップS5)は、予め定められた特定の状況においてのみ実行されてもよい。例えば、仮想空間内で仮装大会等のイベントが開催される際に、仮装大会の会場内に存在するアバターに限定して注目度設定処理が実行されてもよい。このように、注目度設定処理が行われる場面を限定的にすることにより、注目度設定処理を仮想空間内のあらゆる場所で常時実行する場合と比較して、コンテンツ提供装置10の処理負荷を低減できる。
【0081】
また、サーバ(コンテンツ提供装置10)とユーザ端末(HMD30)との間の機能分担は、上記実施形態(図2参照)に限られない。例えば、上述したコンテンツ提供装置10の処理の一部が、ユーザ端末側で実行されてもよい。例えば、上記実施形態では、サーバ(コンテンツ提供装置10)側で各ユーザに提供されるコンテンツ画像が生成(描画)されたが、コンテンツ画像の描画処理は、ユーザ端末(HMD30)側で実行されてもよいし、サーバ及びユーザ端末で分担して実行されてもよい。例えば、コンテンツ画像上に第一表示情報及び第二表示情報を重畳表示させる処理は、ユーザ端末側で実行されてもよい。この場合、例えば、配信部14は、図6で示したようなコンテンツ画像IM1のデータと、コンテンツ画像IM1に含まれる各アバターA1,A2,A3(及びこれらのアバターを構成する各パーツ)の注目度及び部分注目度を示すデータと、をHMD30Aに送信してもよい。そして、HMD30Aの表示制御部34が、これらのデータを統合することにより、図7に示したようなコンテンツ画像IM2を生成してもよい。
【0082】
また、コンテンツ提供装置10は、必ずしも上記実施形態で説明した全ての処理を備えていなくてもよい。例えば、コンテンツ提供装置10は、アバター単位での注目度のみを設定及び通知するように構成されてもよい。この場合、上述した注目度設定処理の一部(図4のステップS502及びS503)及び上述したコンテンツデータ生成処理の一部(図5のステップS604)は、省略され得る。
【0083】
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
【0084】
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。
【0085】
例えば、本開示の一実施の形態におけるコンテンツ提供装置10は、本開示のコンテンツ提供方法を行うコンピュータとして機能してもよい。図9は、本開示の一実施の形態に係るコンテンツ提供装置10に共通のハードウェア構成の一例を示す図である。コンテンツ提供装置10の各々は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
【0086】
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。コンテンツ提供装置10のハードウェア構成は、図9に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。なお、ユーザ端末(HMD30)も、図9に示すコンテンツ提供装置10のハードウェア構成と同様のハードウェア構成を有してもよい。
【0087】
コンテンツ提供装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
【0088】
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。
【0089】
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、コンテンツ提供装置10の各機能部(例えば、設定部13等)は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
【0090】
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係るコンテンツ提供方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
【0091】
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
【0092】
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
【0093】
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
【0094】
また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
【0095】
また、コンテンツ提供装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
【0096】
以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。
【0097】
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
【0098】
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
【0099】
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
【0100】
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
【0101】
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
【0102】
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
【0103】
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
【0104】
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
【0105】
上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々な情報要素は、あらゆる好適な名称によって識別できるので、これらの様々な情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
【0106】
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
【0107】
本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
【0108】
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
【0109】
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
【0110】
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
【符号の説明】
【0111】
1…コンテンツ提供システム、10…コンテンツ提供装置、11…受信部、12…特定部、13…設定部、14…配信部(通知部)、20…コンテンツ記憶部、30,30A,30B,30C…HMD、31…動作検出部、32…送信部、33…受信部、34…表示制御部、A1,A2,A3…アバター(仮想オブジェクト)、IM1,IM2…コンテンツ画像、SC1…第一表示情報、SC2…第二表示情報。
図1
図2
図3
図4
図5
図6
図7
図8
図9