(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024109587
(43)【公開日】2024-08-14
(54)【発明の名称】プログラム、方法、および端末装置
(51)【国際特許分類】
G06T 13/40 20110101AFI20240806BHJP
G06F 3/0481 20220101ALI20240806BHJP
A63F 13/428 20140101ALI20240806BHJP
A63F 13/525 20140101ALI20240806BHJP
A63F 13/86 20140101ALI20240806BHJP
A63F 13/2145 20140101ALI20240806BHJP
【FI】
G06T13/40
G06F3/0481
A63F13/428
A63F13/525
A63F13/86
A63F13/2145
【審査請求】有
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2024070958
(22)【出願日】2024-04-24
(62)【分割の表示】P 2020109644の分割
【原出願日】2019-08-30
(71)【出願人】
【識別番号】509070463
【氏名又は名称】株式会社コロプラ
(74)【代理人】
【識別番号】100118902
【弁理士】
【氏名又は名称】山本 修
(74)【代理人】
【識別番号】100106208
【弁理士】
【氏名又は名称】宮前 徹
(74)【代理人】
【識別番号】100196508
【弁理士】
【氏名又は名称】松尾 淳一
(74)【代理人】
【識別番号】100173565
【弁理士】
【氏名又は名称】末松 亮太
(74)【代理人】
【識別番号】100161908
【弁理士】
【氏名又は名称】藤木 依子
(72)【発明者】
【氏名】馬場 功淳
(72)【発明者】
【氏名】福重 潤哉
(57)【要約】
【課題】バーチャルキャラクタの実在感をユーザに抱かせることができる、プログラム、
方法、および端末装置を提供する。
【解決手段】演者の動作に連動して動く第1のキャラクタを含む仮想空間の映像を表示可
能にするための第1の表示用データを受信する。第1の表示用データに基づいて、仮想空
間内で第1のキャラクタが動作する映像を表示する。第1のキャラクタには、予め定めら
れた第1のオブジェクトが関連付けられており、第1のオブジェクトの表示態様は、所定
のルールで変更される。
【選択図】
図28
【特許請求の範囲】
【請求項1】
プロセッサを備える端末装置において実行されるプログラムであって、前記プロセッサに
、
演者の動作に連動して動く第1のキャラクタを含む仮想空間の映像を表示可能にするため
の第1の表示用データを受信するステップと、
前記第1の表示用データに基づいて、前記仮想空間内で前記第1のキャラクタが動作する
映像を表示するステップと、を実行させ、
前記第1のキャラクタには、予め定められた第1のオブジェクトが関連付けられており、
前記第1のオブジェクトの表示態様は、所定のルールで変更される、プログラム。
【請求項2】
前記プロセッサに、
演者の動作に連動して動く第2のキャラクタを含む仮想空間の映像を表示可能にするため
の第2の表示用データを受信するステップと、
前記第2の表示用データに基づいて、前記仮想空間内で前記第2のキャラクタが動作する
映像を表示するステップと、を実行させ、
前記第2のキャラクタには、前記第1のオブジェクトと同種の第2のオブジェクトが関連
付けられており、
前記第2のオブジェクトの表示態様は、固定されている、請求項1に記載のプログラム。
【請求項3】
前記第1のオブジェクトの表示態様は、配信期間毎に、前回の配信期間における表示態様
とは異なる表示態様に変更される、請求項1または請求項2に記載のプログラム。
【請求項4】
前記第1の表示用データは、外部から配信されるデータであって、演者の入力したモーシ
ョンに対応するモーションデータを含み、
前記表示するステップは、前記モーションデータに基づいて前記仮想空間内において前記
第1のキャラクタをリアルタイムに動作させ、前記仮想空間内で当該第1のキャラクタが
動作する映像を表示する、請求項1~請求項3のいずれかに記載のプログラム。
【請求項5】
前記プロセッサに、
前記所定のルールで変更された第1のオブジェクトの表示態様を特定するための第1のデ
ータを受信するステップと、
前記第1のデータに基づいて前記第1のオブジェクトの表示態様を設定するステップを実
行させる、請求項4に記載のプログラム。
【請求項6】
前記プロセッサに、
視点を特定するための態様の少なくとも一部が異なる複数種類の視聴モードのうちのいず
れかに設定するステップを実行させ、
前記表示するステップは、特定される視点から見た前記仮想空間の映像を表示し、
前記複数種類の視聴モードのうちの第1の視聴モードである場合には、前記第1のオブジ
ェクトを表示する位置に視点を移動可能であり、前記第1の視聴モード以外のモードであ
る場合には、前記第1のオブジェクトを表示する位置に視点を移動不可能である、請求項
4または請求項5に記載のプログラム。
【請求項7】
前記端末装置は、当該端末装置の位置および向きを検知する検知部と、タッチスクリーン
とを備え、
前記第1の視聴モードは、前記検知部により検知された位置および向きに基づいて視点を
特定可能な視聴モードであり、
前記複数種類の視聴モードは、前記タッチスクリーンに対するタッチ操作に基づいて視点
を特定する第2の視聴モードを含み、
前記複数種類の視聴モードのうちの前記第2の視聴モードである場合には、前記第1のオ
ブジェクトを表示する位置に視点を移動不可能である、請求項6に記載のプログラム。
【請求項8】
前記第1の表示用データは、外部から配信されるデータであって、前記所定のルールで表
示態様が変更された第1のオブジェクトが関連付けられている第1のキャラクタが前記仮
想空間内において動作する映像を含む動画データであり、
前記表示するステップは、前記動画データに基づいて前記仮想空間内で前記第1のキャラ
クタが動作する映像を表示する、請求項1~3のいずれかに記載のプログラム。
【請求項9】
前記第1のキャラクタには、予め定められた第3のオブジェクトが関連付けられており、
前記第3のオブジェクトは、前記第1のオブジェクトの少なくとも一部を覆うオブジェ
クトである、請求項1~請求項8のいずれかに記載のプログラム。
【請求項10】
プロセッサを備える端末装置において実行される方法であって、
演者の動作に連動して動く第1のキャラクタを含む仮想空間の映像を表示可能にするため
の第1の表示用データを受信するステップと、
前記第1の表示用データに基づいて、前記仮想空間内で前記第1のキャラクタが動作する
映像を表示するステップと、を備え、
前記第1のキャラクタには、予め定められた第1のオブジェクトが関連付けられており、
前記第1のオブジェクトの表示態様は、所定のルールで変更される、方法。
【請求項11】
プロセッサを備える端末装置であって、
演者の動作に連動して動く第1のキャラクタを含む仮想空間の映像を表示可能にするため
の第1の表示用データを受信し、
前記第1の表示用データに基づいて、前記仮想空間内で前記第1のキャラクタが動作する
映像をし、
前記第1のキャラクタには、予め定められた第1のオブジェクトが関連付けられており、
前記第1のオブジェクトの表示態様は、所定のルールで変更される、端末装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、プログラム、方法、および端末装置に関する。
【背景技術】
【0002】
従来より、演者によって制御されるバーチャルキャラクタを表示するためのシステムがあ
る。このようなシステムにおいては、ユーザから表示要求がなされた装飾オブジェクトを
バーチャルキャラクタに装着させて表示するものがあった。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかし、従来のシステムにおいては、ユーザからの要求に応じた部位が当該要求に従って
装飾されるものであった。このため、例えばバーチャルキャラクタの特定部位の表示態様
が自発的に変化するような実在感をユーザに抱かせることができず、改善の余地があった
。
【0005】
本発明は、かかる実情に鑑み考え出されたものであり、その目的は、バーチャルキャラク
タの実在感をユーザに抱かせることができる、プログラム、方法、および端末装置を提供
することである。
【課題を解決するための手段】
【0006】
本開示に示す一実施形態のある局面によれば、プロセッサを備える端末装置において実行
されるプログラムであって、プロセッサに、演者の動作に連動して動く第1のキャラクタ
を含む仮想空間の映像を表示可能にするための第1の表示用データを受信するステップと
、第1の表示用データに基づいて、仮想空間内で第1のキャラクタが動作する映像を表示
するステップと、を実行させ、第1のキャラクタには、予め定められた第1のオブジェク
トが関連付けられており、第1のオブジェクトの表示態様は、所定のルールで変更される
。
【発明の効果】
【0007】
本発明によれば、バーチャルキャラクタの実在感をユーザに抱かせることができる。
【図面の簡単な説明】
【0008】
【
図1】ある実施の形態に従うシステムの概要の一例を示す図である。
【
図2】ある実施の形態に従うユーザ端末のハードウェア構成の一例を示すブロック図である。
【
図3】ある実施の形態に従うサーバのハードウェア構成の一例を示すブロック図である。
【
図4】ある実施の形態に従うゲームプレイ端末のハードウェア構成の一例を示すブロック図である。
【
図5】ある実施の形態に従う配信端末のハードウェア構成の一例を示すブロック図である。
【
図6】ある実施の形態に従うユーザ端末、サーバ、HMDセットの機能的構成の一例を示すブロック図である。
【
図7】ある実施の形態に従う配信端末の機能的構成の一例を示すブロック図である。
【
図8】ある実施の形態に従うユーザ端末およびゲームプレイ端末において実行される処理の一部を表すフローチャートである。
【
図9】ある実施の形態に従う、プレイヤに提供される仮想空間、および、プレイヤが視認する視界画像の一例を示す図である。
【
図10】ある実施の形態に従う、ユーザ端末のユーザに提供される仮想空間、および、該ユーザが視認する視界画像の一例を示す図である。
【
図11】ユーザ端末のユーザが視認する視界画像の他の例を示す図である。
【
図12】ユーザ端末のユーザが視認する視界画像のさらに別の例を示す図である。
【
図13】ある実施の形態に従うゲームプレイ端末において実行される処理の一部を表すフローチャートである。
【
図14】ある実施の形態に従うユーザ端末において実行される処理の一部を表すフローチャートである。
【
図15】ある実施の形態に従うサーバにおいて実行される処理の一部を表すフローチャートである。
【
図16】ある実施の形態に従う、ゲームに参加したユーザのリストの一具体例を示す図である。
【
図17】ある実施の形態に従う配信端末において実行される処理の一部を表すフローチャートである。
【
図18】ある実施の形態に従う配信端末に表示される画面の一具体例を示す図である。
【
図19】ある実施の形態に従う配信端末に表示される画面の他の具体例を示す図である。
【
図20】ある実施の形態に従う、プレイヤによる音声入力の一具体例を示す図である。
【
図21】ある実施の形態に従う配信端末に表示される画面のさらなる別の具体例と、動作指図データの配信の概要とを示す図である。
【
図22】ある実施の形態に従う、プレイヤによる音声入力の他の具体例を示す図である。
【
図23】ある実施の形態に従う配信端末に表示される画面のさらなる別の具体例と、動作指図データの配信の概要とを示す図である。
【
図24】ある実施形態に従うゲームプレイ端末からユーザ端末へのゲーム進行情報の送信の概要を示す図である。
【
図25】ある実施の形態に従うユーザ端末において実行される処理の一部を表すフローチャートである。
【
図28】(A)は、ゲームプレイ端末側における表示態様制御処理の一例を示すフローチャートであり、(B)は、ユーザ端末側における表示態様設定処理の一例を示すフローチャートである。
【
図29】(A)はN回目のライブ配信映像の一例を示す図であり、(B)はN+1回目のライブ配信映像の一例を示す図であり、(C)はN+2回目のライブ配信映像の一例を示す図である。
【
図30】(A)は通常視聴モードにおけるライブ配信映像の一例を示す図であり、(B)はAR視聴モードにおけるライブ配信映像の一例を示す図である。
【発明を実施するための形態】
【0009】
本開示に係るシステムは、複数のユーザにゲームを提供するためのシステムである。以下
、該システムについて図面を参照しつつ説明する。なお、本発明はこれらの例示に限定さ
れるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および
範囲内でのすべての変更が本発明に含まれることが意図される。以下の説明では、図面の
説明において同一の要素には同一の符号を付し、重複する説明を繰り返さない。
【0010】
<システム1の動作概要>
図1は、本実施形態に係るシステム1の概要を示す図である。システム1は、複数のユー
ザ端末100(コンピュータ)と、サーバ200と、ゲームプレイ端末300(外部装置
、第2外部装置)と、配信端末400(外部、第1外部装置)とを含む。なお、
図1では
、複数のユーザ端末100の一例として、ユーザ端末100A~100C、換言すれば、
3台のユーザ端末100を記載しているが、ユーザ端末100の台数は図示の例に限定さ
れない。また、本実施形態では、ユーザ端末100A~Cを区別する必要が無い場合、「
ユーザ端末100」と記載する。ユーザ端末100、ゲームプレイ端末300、および配
信端末400は、サーバ200とネットワーク2を介して接続する。ネットワーク2は、
インターネットおよび図示しない無線基地局によって構築される各種移動通信システム等
で構成される。この移動通信システムとしては、例えば、所謂3G、4G移動通信システ
ム、LTE(Long Term Evolution)、および所定のアクセスポイントによってインター
ネットに接続可能な無線ネットワーク(例えばWi-Fi(登録商標))等が挙げられる。
【0011】
(ゲームの概要)
本実施形態では、システム1によって提供されるゲーム(以下、本ゲーム)の一例として
、ゲームプレイ端末300のユーザが主としてプレイするゲームを説明する。以下、ゲー
ムプレイ端末300のユーザを、「プレイヤ」と称する。プレイヤ(演者)は、一例とし
て、本ゲームに登場するキャラクタを操作することにより、ゲームを進行させる。また、
本ゲームにおいて、ユーザ端末100のユーザは、プレイヤによるゲームの進行を支援す
る役割を担う。本ゲームの詳細については後述する。なお、システム1によって提供され
るゲームは、複数のユーザが参加するゲームであればよく、この例に限定されない。
【0012】
(ゲームプレイ端末300)
ゲームプレイ端末300は、プレイヤによる入力操作に応じてゲームを進行させる。また
、ゲームプレイ端末300は、プレイヤのゲームプレイにより生成された情報(以下、ゲ
ーム進行情報)を、順次、サーバ200にリアルタイムで配信する。
【0013】
(サーバ200)
サーバ200は、ゲームプレイ端末300からリアルタイムに受信したゲーム進行情報(
第2データ)を、ユーザ端末100に送信する。また、サーバ200は、ユーザ端末10
0、ゲームプレイ端末300、および配信端末400の間の各種情報の送受信を仲介する
。
【0014】
(配信端末400)
配信端末400は、配信端末400のユーザによる入力操作に応じて、動作指図データ(
第1データ)を生成し、サーバ200を介してユーザ端末100へ動作指図データを配信
する。動作指図データとは、ユーザ端末100において動画を再生するためのデータであ
り、具体的には、動画に登場するキャラクタを動作させるためのデータである。
【0015】
本実施形態では、一例として、配信端末400のユーザは、本ゲームのプレイヤである。
また、一例として、ユーザ端末100にて動作指図データに基づいて再生される動画は、
プレイヤがゲームで操作したキャラクタが動作する動画である。「動作」とは、キャラク
タの身体の少なくとも一部を動かすことであり、発話も含む。このため、本実施形態に係
る動作指図データは、例えば、キャラクタに発話させるための音声データと、キャラクタ
の身体を動かすためのモーションデータとを含む。
【0016】
動作指図データは、一例として、本ゲームの終了後にユーザ端末100へ送信される。動
作指図データ、および、該動作指図データに基づいて再生される動画の詳細については後
述する。
【0017】
(ユーザ端末100)
ユーザ端末100は、ゲーム進行情報をリアルタイムに受信し、該情報を用いてゲーム画
面を生成して表示する。換言すれば、ユーザ端末100は、リアルタイムレンダリングに
より、プレイヤがプレイしているゲームのゲーム画面を再生する。これにより、ユーザ端
末100のユーザは、プレイヤがゲームをプレイしながら視認しているゲーム画面と同一
のゲーム画面を、プレイヤとほぼ同じタイミングで視認することができる。
【0018】
また、ユーザ端末100は、ユーザによる入力操作に応じて、プレイヤによるゲームの進
行を支援するための情報を生成し、該情報を、サーバ200を介してゲームプレイ端末3
00へ送信する。該情報の詳細については後述する。
【0019】
また、ユーザ端末100は、配信端末400から動作指図データを受信し、該動作指図デ
ータを用いて動画(映像)を生成して再生する。換言すれば、ユーザ端末100は、動作
指図データをレンダリングして再生する。
【0020】
<システム1のハードウェア構成>
図2は、ユーザ端末100のハードウェア構成を示す図である。
図3は、サーバ200の
ハードウェア構成を示す図である。
図4は、ゲームプレイ端末300のハードウェア構成
を示す図である。
図5は、配信端末400のハードウェア構成を示す図である。
【0021】
(ユーザ端末100)
本実施形態では、一例として、ユーザ端末100がスマートフォンとして実現される例を
説明するが、ユーザ端末100はスマートフォンに限定されない。例えば、ユーザ端末1
00はフィーチャーフォン、タブレット型コンピュータ、ラップトップ型コンピュータ(
いわゆる、ノートパソコン)、または、デスクトップ型コンピュータなどとして実現され
てもよい。また、ユーザ端末100は、ゲームプレイに適したゲーム装置であってもよい
。
【0022】
ユーザ端末100は
図2に示すように、プロセッサ10と、メモリ11と、ストレージ1
2と、通信インターフェース(IF)13と、入出力IF14と、タッチスクリーン15
(表示部)と、カメラ17と、測距センサ18とを備える。ユーザ端末100が備えるこ
れらの構成は、通信バスによって互いに電気的に接続される。なお、ユーザ端末100は
、タッチスクリーン15に代えて、または、加えて、ユーザ端末100本体とは別に構成
されたディスプレイ(表示部)を接続可能な入出力IF14を備えていてもよい。
【0023】
また、
図2に示すように、ユーザ端末100は、1つ以上のコントローラ1020と通信
可能に構成されることとしてもよい。コントローラ1020は、例えば、Bluetoo
th(登録商標)等の通信規格に従って、ユーザ端末100と通信を確立する。コントロ
ーラ1020は、1つ以上のボタン等を有していてもよく、該ボタン等に対するユーザの
入力操作に基づく出力値をユーザ端末100へ送信する。また、コントローラ1020は
、加速度センサ、および、角速度センサ等の各種センサを有していてもよく、該各種セン
サの出力値をユーザ端末100へ送信する。
【0024】
なお、ユーザ端末100がカメラ17および測距センサ18を備えることに代えて、また
は、加えて、コントローラ1020がカメラ17および測距センサ18を有していてもよ
い。
【0025】
ユーザ端末100は、例えばゲーム開始時に、コントローラ1020を使用するユーザに
、該ユーザの名前またはログインID等のユーザ識別情報を、該コントローラ1020を
介して入力させることが望ましい。これにより、ユーザ端末100は、コントローラ10
20とユーザとを紐付けることが可能となり、受信した出力値の送信元(コントローラ1
020)に基づいて、該出力値がどのユーザのものであるかを特定することができる。
【0026】
ユーザ端末100が複数のコントローラ1020と通信する場合、各コントローラ102
0を各ユーザが把持することで、ネットワーク2を介してサーバ200などの他の装置と
通信せずに、該1台のユーザ端末100でマルチプレイを実現することができる。また、
各ユーザ端末100が無線LAN(Local Area Network)規格等の無線規格により互いに
通信接続する(サーバ200を介さずに通信接続する)ことで、複数台のユーザ端末10
0によりローカルでマルチプレイを実現することもできる。1台のユーザ端末100によ
りローカルで上述のマルチプレイを実現する場合、ユーザ端末100は、さらに、サーバ
200が備える後述する種々の機能の少なくとも一部を備えていてもよい。また、複数の
ユーザ端末100によりローカルで上述のマルチプレイを実現する場合、複数のユーザ端
末100は、サーバ200が備える後述する種々の機能を分散して備えていてもよい。
【0027】
なお、ローカルで上述のマルチプレイを実現する場合であっても、ユーザ端末100はサ
ーバ200と通信を行ってもよい。例えば、あるゲームにおける成績または勝敗等のプレ
イ結果を示す情報と、ユーザ識別情報とを対応付けてサーバ200に送信してもよい。
【0028】
また、コントローラ1020は、ユーザ端末100に着脱可能な構成であるとしてもよい
。この場合、ユーザ端末100の筐体における少なくともいずれかの面に、コントローラ
1020との結合部が設けられていてもよい。該結合部を介して有線によりユーザ端末1
00とコントローラ1020とが結合している場合は、ユーザ端末100とコントローラ
1020とは、有線を介して信号を送受信する。
【0029】
図2に示すように、ユーザ端末100は、外部のメモリカード等の記憶媒体1030の装
着を、入出力IF14を介して受け付けてもよい。これにより、ユーザ端末100は、記
憶媒体1030に記録されるプログラム及びデータを読み込むことができる。記憶媒体1
030に記録されるプログラムは、例えばゲームプログラムである。
【0030】
ユーザ端末100は、サーバ200等の外部の装置と通信することにより取得したゲーム
プログラムをユーザ端末100のメモリ11に記憶してもよいし、記憶媒体1030から
読み込むことにより取得したゲームプログラムをメモリ11に記憶してもよい。
【0031】
以上で説明したとおり、ユーザ端末100は、該ユーザ端末100に対して情報を入力す
る機構の一例として、通信IF13、入出力IF14、タッチスクリーン15、カメラ1
7、および、測距センサ18を備える。入力する機構としての上述の各部は、ユーザの入
力操作を受け付けるように構成された操作部と捉えることができる。
【0032】
例えば、操作部が、カメラ17および測距センサ18の少なくともいずれか一方で構成さ
れる場合、該操作部が、ユーザ端末100の近傍の物体1010を検出し、当該物体の検
出結果から入力操作を特定する。一例として、物体1010としてのユーザの手、予め定
められた形状のマーカーなどが検出され、検出結果として得られた物体1010の色、形
状、動き、または、種類などに基づいて入力操作が特定される。より具体的には、ユーザ
端末100は、カメラ17の撮影画像からユーザの手が検出された場合、該撮影画像に基
づき検出されるジェスチャ(ユーザの手の一連の動き)を、ユーザの入力操作として特定
し、受け付ける。なお、撮影画像は静止画であっても動画であってもよい。
【0033】
あるいは、操作部がタッチスクリーン15で構成される場合、ユーザ端末100は、タッ
チスクリーン15の入力部151に対して実施されたユーザの操作をユーザの入力操作と
して特定し、受け付ける。あるいは、操作部が通信IF13で構成される場合、ユーザ端
末100は、コントローラ1020から送信される信号(例えば、出力値)をユーザの入
力操作として特定し、受け付ける。あるいは、操作部が入出力IF14で構成される場合
、該入出力IF14と接続されるコントローラ1020とは異なる入力装置(図示せず)
から出力される信号をユーザの入力操作として特定し、受け付ける。
【0034】
(サーバ200)
サーバ200は、一例として、ワークステーションまたはパーソナルコンピュータなどの
汎用コンピュータであってよい。サーバ200は、プロセッサ20と、メモリ21と、ス
トレージ22と、通信IF23と、入出力IF24とを備える。サーバ200が備えるこ
れらの構成は、通信バスによって互いに電気的に接続される。
【0035】
(ゲームプレイ端末300)
ゲームプレイ端末300は、一例として、パーソナルコンピュータなどの汎用コンピュー
タであってよい。ゲームプレイ端末300は、プロセッサ30と、メモリ31と、ストレ
ージ32と、通信IF33と、入出力IF34とを備える。ゲームプレイ端末300が備
えるこれらの構成は、通信バスによって互いに電気的に接続される。
【0036】
図4に示すように、本実施形態に係るゲームプレイ端末300は、一例として、HMD(
Head Mounted Display)セット1000に含まれる。つまり、HMDセット1000が、
システム1に含まれていると表現することができ、また、プレイヤは、HMDセット10
00を用いてゲームをプレイすると表現することもできる。なお、プレイヤがゲームをプ
レイするための装置は、HMDセット1000に限定されない。一例として、該装置は、
プレイヤにゲームを仮想体験させることが可能な装置であればよい。また、該装置は、ス
マートフォン、フィーチャーフォン、タブレット型コンピュータ、ラップトップ型コンピ
ュータ(いわゆる、ノートパソコン)、または、デスクトップ型コンピュータなどとして
実現されてもよい。また、該装置は、ゲームプレイに適したゲーム装置であってもよい。
【0037】
HMDセット1000は、ゲームプレイ端末300の他、HMD500、HMDセンサ5
10、モーションセンサ520、ディスプレイ530、コントローラ540を備える。H
MD500は、モニタ51と、注視センサ52と、第1カメラ53と、第2カメラ54と
、マイク55と、スピーカ56とを含む。コントローラ540は、モーションセンサ52
0を含み得る。
【0038】
HMD500は、プレイヤの頭部に装着され、動作中に仮想空間をプレイヤに提供し得る
。より具体的には、HMD500は、右目用の画像および左目用の画像をモニタ51にそ
れぞれ表示する。プレイヤの各目がそれぞれの画像を視認すると、プレイヤは、両目の視
差に基づき当該画像を3次元画像として認識し得る。HMD500は、モニタを備える所
謂ヘッドマウントディスプレイと、スマートフォンその他のモニタを有する端末を装着可
能なヘッドマウント機器のいずれをも含み得る。
【0039】
モニタ51は、例えば、非透過型の表示装置として実現される。ある局面において、モニ
タ51は、プレイヤの両目の前方に位置するようにHMD500の本体に配置されている
。したがって、プレイヤは、モニタ51に表示される3次元画像を視認すると、仮想空間
に没入することができる。ある局面において、仮想空間は、例えば、背景、プレイヤが操
作可能なオブジェクト、プレイヤが選択可能なメニューの画像を含む。ある局面において
、モニタ51は、所謂スマートフォンその他の情報表示端末が備える液晶モニタまたは有
機EL(Electro Luminescence)モニタとして実現され得る。
【0040】
別の局面において、モニタ51は、透過型の表示装置として実現され得る。この場合、H
MD500は、
図1に示されるようにプレイヤの目を覆う密閉型ではなく、メガネ型のよ
うな開放型であり得る。透過型のモニタ51は、その透過率を調整することにより、一時
的に非透過型の表示装置として構成可能であってもよい。モニタ51は、仮想空間を構成
する画像の一部と、現実空間とを同時に表示する構成を含んでいてもよい。例えば、モニ
タ51は、HMD500に搭載されたカメラで撮影した現実空間の画像を表示してもよい
し、一部の透過率を高く設定することにより現実空間を視認可能にしてもよい。
【0041】
ある局面において、モニタ51は、右目用の画像を表示するためのサブモニタと、左目用
の画像を表示するためのサブモニタとを含み得る。別の局面において、モニタ51は、右
目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、モニ
タ51は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識さ
れるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。
【0042】
ある局面において、HMD500は、図示せぬ複数の光源を含む。各光源は例えば、赤外
線を発するLED(Light Emitting Diode)により実現される。HMDセンサ510は、
HMD500の動きを検出するためのポジショントラッキング機能を有する。より具体的
には、HMDセンサ510は、HMD500が発する複数の赤外線を読み取り、現実空間
内におけるHMD500の位置および傾きを検出する。
【0043】
別の局面において、HMDセンサ510は、カメラにより実現されてもよい。この場合、
HMDセンサ510は、カメラから出力されるHMD500の画像情報を用いて、画像解
析処理を実行することにより、HMD500の位置および傾きを検出することができる。
【0044】
別の局面において、HMD500は、位置検出器として、HMDセンサ510の代わりに
、あるいはHMDセンサ510に加えてセンサ(不図示)を備えてもよい。HMD500
は、該センサを用いて、HMD500自身の位置および傾きを検出し得る。例えば、該セ
ンサが角速度センサ、地磁気センサ、あるいは加速度センサである場合、HMD500は
、HMDセンサ510の代わりに、これらの各センサのいずれかを用いて、自身の位置お
よび傾きを検出し得る。一例として、HMD500に備えられたセンサが角速度センサで
ある場合、角速度センサは、現実空間におけるHMD500の3軸周りの角速度を経時的
に検出する。HMD500は、各角速度に基づいて、HMD500の3軸周りの角度の時
間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD500の傾きを算出す
る。
【0045】
注視センサ52は、プレイヤの右目および左目の視線が向けられる方向を検出する。つま
り、注視センサ52は、プレイヤの視線を検出する。視線の方向の検出は、例えば、公知
のアイトラッキング機能によって実現される。注視センサ52は、当該アイトラッキング
機能を有するセンサにより実現される。ある局面において、注視センサ52は、右目用の
センサおよび左目用のセンサを含むことが好ましい。注視センサ52は、例えば、プレイ
ヤの右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの
反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ
52は、検出した各回転角に基づいて、プレイヤの視線を検知することができる。
【0046】
第1カメラ53は、プレイヤの顔の下部を撮影する。より具体的には、第1カメラ53は
、プレイヤの鼻および口などを撮影する。第2カメラ54は、プレイヤの目および眉など
を撮影する。HMD500のプレイヤ側の筐体をHMD500の内側、HMD500のプ
レイヤとは逆側の筐体をHMD500の外側と定義する。ある局面において、第1カメラ
53は、HMD500の外側に配置され、第2カメラ54は、HMD500の内側に配置
され得る。第1カメラ53および第2カメラ54が生成した画像は、ゲームプレイ端末3
00に入力される。別の局面において、第1カメラ53と第2カメラ54とを1台のカメ
ラとして実現し、この1台のカメラでプレイヤの顔を撮影するようにしてもよい。
【0047】
マイク55は、プレイヤの発話を音声信号(電気信号)に変換してゲームプレイ端末30
0に出力する。スピーカ56は、音声信号を音声に変換してプレイヤに出力する。別の局
面において、HMD500は、スピーカ56に替えてイヤホンを含み得る。
【0048】
コントローラ540は、有線または無線によりゲームプレイ端末300に接続されている
。コントローラ540は、プレイヤからゲームプレイ端末300への命令の入力を受け付
ける。ある局面において、コントローラ540は、プレイヤによって把持可能に構成され
る。別の局面において、コントローラ540は、プレイヤの身体あるいは衣類の一部に装
着可能に構成される。さらに別の局面において、コントローラ540は、ゲームプレイ端
末300から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出
力するように構成されてもよい。さらに別の局面において、コントローラ540は、プレ
イヤから、仮想空間に配置されるオブジェクトの位置や動きを制御するための操作を受け
付ける。
【0049】
ある局面において、コントローラ540は、複数の光源を含む。各光源は例えば、赤外線
を発するLEDにより実現される。HMDセンサ510は、ポジショントラッキング機能
を有する。この場合、HMDセンサ510は、コントローラ540が発する複数の赤外線
を読み取り、現実空間内におけるコントローラ540の位置および傾きを検出する。別の
局面において、HMDセンサ510は、カメラにより実現されてもよい。この場合、HM
Dセンサ510は、カメラから出力されるコントローラ540の画像情報を用いて、画像
解析処理を実行することにより、コントローラ540の位置および傾きを検出することが
できる。
【0050】
モーションセンサ520は、ある局面において、プレイヤの手に取り付けられて、プレイ
ヤの手の動きを検出する。例えば、モーションセンサ520は、手の回転速度、回転数等
を検出する。検出された信号は、ゲームプレイ端末300に送られる。モーションセンサ
520は、例えば、コントローラ540に設けられている。ある局面において、モーショ
ンセンサ520は、例えば、プレイヤに把持可能に構成されたコントローラ540に設け
られている。別の局面において、現実空間における安全のため、コントローラ540は、
手袋型のようにプレイヤの手に装着されることにより容易に飛んで行かないものに装着さ
れる。さらに別の局面において、プレイヤに装着されないセンサがプレイヤの手の動きを
検出してもよい。例えば、プレイヤを撮影するカメラの信号が、プレイヤの動作を表わす
信号として、ゲームプレイ端末300に入力されてもよい。モーションセンサ520とゲ
ームプレイ端末300とは、一例として、無線により互いに接続される。無線の場合、通
信形態は特に限られず、例えば、Bluetoothその他の公知の通信手法が用いられ
る。
【0051】
ディスプレイ530は、モニタ51に表示されている画像と同様の画像を表示する。これ
により、HMD500を装着しているプレイヤ以外のユーザにもプレイヤと同様の画像を
視聴させることができる。ディスプレイ530に表示される画像は、3次元画像である必
要はなく、右目用の画像や左目用の画像であってもよい。ディスプレイ530としては、
例えば、液晶ディスプレイや有機ELモニタなどが挙げられる。
【0052】
ゲームプレイ端末300は、HMD500の各部、コントローラ540、およびモーショ
ンセンサ520から取得した各種情報に基づいて、プレイヤの操作対象となるキャラクタ
を動作させ、ゲームを進行させる。ここでの「動作」には、身体の各部を動かすこと、姿
勢を変えること、顔の表情を変えること、移動、発話、仮想空間に配置されたオブジェク
トに触れたり、動かしたりすること、キャラクタが把持する武器、道具などを使用するこ
となどが含まれる。すなわち、本ゲームでは、プレイヤが身体の各部を動かすことにより
、キャラクタもプレイヤと同様に身体の各部を動かす。また、本ゲームでは、プレイヤが
発話した内容をキャラクタが発話する。換言すれば、本ゲームにおいて、キャラクタは、
プレイヤの分身としてふるまうアバターオブジェクトである。一例として、キャラクタの
動作の少なくとも一部が、プレイヤによるコントローラ540に対する入力により実行さ
れてもよい。
【0053】
本実施形態では、モーションセンサ520は、一例として、プレイヤの両手、プレイヤの
両足、プレイヤの腰部、および、プレイヤの頭部に取り付けられる。プレイヤの両手に取
り付けられるモーションセンサ520は、上述したとおり、コントローラ540に設けら
れていてもよい。また、プレイヤの頭部に取り付けられるモーションセンサ520は、H
MD500に設けられていてもよい。モーションセンサ520は、さらに、ユーザの両肘
や両膝に取り付けられてもよい。プレイヤに取り付けるモーションセンサ520の数を増
やすことにより、プレイヤの動きをより正確にキャラクタに反映させることができる。ま
た、プレイヤは、モーションセンサ520を身体の各部に取り付けることに代えて、1以
上のモーションセンサ520が取り付けられたスーツを着用してもよい。つまり、モーシ
ョンキャプチャの方法は、モーションセンサ520を用いる例に限定されない。
【0054】
(配信端末400)
配信端末400は、スマートフォン、PDA(Personal Digital Assistant)、またはタ
ブレット型コンピュータ等の携帯端末であってよい。また、配信端末400は、デスクト
ップパソコン等の、いわゆる据え置き型の端末であってもよい。
【0055】
配信端末400は、
図5に示すように、プロセッサ40と、メモリ41と、ストレージ4
2と、通信IF43と、入出力IF44と、タッチスクリーン45とを備える。なお、配
信端末400は、タッチスクリーン45に代えて、または、加えて、配信端末400本体
とは別に構成されたディスプレイ(表示部)を接続可能な入出力IF44を備えていても
よい。
【0056】
コントローラ1021は、1つ以上のボタン、レバー、スティック、ホイール等の物理的
な入力機構を有していてもよい。コントローラ1021は、配信端末400の操作者(本
実施形態ではプレイヤ)が、該入力機構に対して入力した入力操作に基づく出力値を配信
端末400へ送信する。また、コントローラ1021は、加速度センサ、および、角速度
センサ等の各種センサを有していてもよく、該各種センサの出力値を配信端末400へ送
信してもよい。上述の出力値は、通信IF43を介して配信端末400に受け付けられる
。
【0057】
配信端末400は、カメラと、測距センサ(ともに不図示)とを備えていてもよい。配信
端末400が備えることに代えて、または、加えて、コントローラ1021がカメラと、
測距センサとを有してしてもよい。
【0058】
以上で説明したとおり、配信端末400は、該配信端末400に対して情報を入力する機
構の一例として、通信IF43、入出力IF44、タッチスクリーン45を備える。入力
する機構としての上述の各部は、ユーザの入力操作を受け付けるように構成された操作部
と捉えることができる。
【0059】
操作部がタッチスクリーン45で構成されている場合、配信端末400は、タッチスクリ
ーン45の入力部451に対して実施されたユーザの操作をユーザの入力操作として特定
し、受け付ける。あるいは、操作部が通信IF43で構成される場合、配信端末400は
、コントローラ1021から送信される信号(例えば、出力値)をユーザの入力操作とし
て特定し、受け付ける。あるいは、操作部が入出力IF44で構成される場合、配信端末
400は、該入出力IF44と接続される入力装置(図示せず)から出力される信号をユ
ーザの入力操作として特定し、受け付ける。
【0060】
<各装置のハードウェア構成要素>
プロセッサ10、20、30、40はそれぞれ、ユーザ端末100、サーバ200、ゲー
ムプレイ端末300、配信端末400の全体の動作を制御する。プロセッサ10、20、
30、40は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)
、およびGPU(Graphics Processing Unit)を含む。プロセッサ10、20、30、4
0は、それぞれ、後述するストレージ12、22、32、42からプログラムを読み出す
。そして、プロセッサ10、20、30、40は、それぞれ、読み出したプログラムを、
後述するメモリ11、21、31、41に展開する。プロセッサ10、20、30は、展
開したプログラムを実行する。
【0061】
メモリ11、21、31、41は主記憶装置である。メモリ11、21、31、41は、
ROM(Read Only Memory)およびRAM(Random Access Memory)等の記憶装置で構成
される。メモリ11は、プロセッサ10が後述するストレージ12から読み出したプログ
ラムおよび各種データを一時的に記憶することにより、プロセッサ10に作業領域を提供
する。メモリ11は、プロセッサ10がプログラムに従って動作している間に生成した各
種データも一時的に記憶する。メモリ21は、プロセッサ20が後述するストレージ22
から読み出した各種プログラムおよびデータを一時的に記憶することにより、プロセッサ
20に作業領域を提供する。メモリ21は、プロセッサ20がプログラムに従って動作し
ている間に生成した各種データも一時的に記憶する。メモリ31は、プロセッサ30が後
述するストレージ32から読み出した各種プログラムおよびデータを一時的に記憶するこ
とにより、プロセッサ30に作業領域を提供する。メモリ31は、プロセッサ30がプロ
グラムに従って動作している間に生成した各種データも一時的に記憶する。メモリ41は
、プロセッサ40が後述するストレージ42から読み出したプログラムおよび各種データ
を一時的に記憶することにより、プロセッサ40に作業領域を提供する。メモリ41は、
プロセッサ40がプログラムに従って動作している間に生成した各種データも一時的に記
憶する。
【0062】
本実施形態において、プロセッサ10および30が実行するプログラムは、本ゲームのゲ
ームプログラムであってもよい。本実施形態において、プロセッサ40が実行するプログ
ラムは、動作指図データの配信を実現するための配信プログラムであってもよい。また、
プロセッサ10は、さらに、動画の再生を実現するための視聴プログラムを実行してもよ
い。
【0063】
本実施形態において、プロセッサ20が実行するプログラムは、上述のゲームプログラム
、配信プログラム、視聴プログラムの少なくとも何れかであってもよい。プロセッサ20
は、ユーザ端末100、ゲームプレイ端末300、および配信端末400の少なくとも何
れかからの要求等に応じて、ゲームプログラム、配信プログラム、視聴プログラムの少な
くとも何れかを実行する。なお、配信プログラムと視聴プログラムは、並行して実行され
てもよい。
【0064】
すなわち、ゲームプログラムは、ゲームをユーザ端末100、サーバ200、およびゲー
ムプレイ端末300の協働により実現するプログラムであってもよい。配信プログラムは
、動作指図データの配信を、サーバ200と配信端末400との協働により実現するプロ
グラムであってもよい。視聴プログラムは、動画の再生を、ユーザ端末100とサーバ2
00との協働により実現するプログラムであってもよい。
【0065】
ストレージ12、22、32、42は補助記憶装置である。ストレージ12、22、32
、42は、フラッシュメモリまたはHDD(Hard Disk Drive)等の記憶装置で構成され
る。ストレージ12、32には、例えば、ゲームに関する各種データが格納される。スト
レージ42には、動作指図データの配信に関する各種データが格納される。また、ストレ
ージ12には、動画の再生に関する各種データが格納される。ストレージ22には、ゲー
ム、動作指図データの配信、および動画の再生それぞれに関する各種データのうち、少な
くとも一部が格納されてもよい。
【0066】
通信IF13、23、33、43は、それぞれ、ユーザ端末100、サーバ200、ゲー
ムプレイ端末300、配信端末400における各種データの送受信を制御する。通信IF
13、23、33、43は例えば、無線LAN(Local Area Network)を介する通信、有
線LAN、無線LAN、または携帯電話回線網を介したインターネット通信、ならびに近
距離無線通信等を用いた通信を制御する。
【0067】
入出力IF14、24、34、44は、それぞれ、ユーザ端末100、サーバ200、ゲ
ームプレイ端末300、配信端末400がデータの入力を受け付けるため、また、データ
を出力するためのインターフェースである。入出力IF14、24、34、44は、US
B(Universal Serial Bus)等を介してデータの入出力を行ってもよい。入出力IF14
、24、34、44は、物理ボタン、カメラ、マイク、スピーカ、マウス、キーボード、
ディスプレイ、スティック、レバーなどを含み得る。また、入出力IF14、24、34
、44は、周辺機器との間でデータを送受信するための接続部を含み得る。
【0068】
タッチスクリーン15は、入力部151と表示部152(ディスプレイ)とを組み合わせ
た電子部品である。タッチスクリーン45は、入力部451と表示部452とを組み合わ
せた電子部品である。入力部151および451は、一例として、タッチセンシティブな
デバイスであり、例えばタッチパッドによって構成される。表示部152および452は
、例えば液晶ディスプレイ、または有機EL(Electro-Luminescence)ディスプレイ等に
よって構成される。
【0069】
入力部151および451は、入力面に対しユーザの操作(主にタッチ操作、スライド操
作、スワイプ操作、およびタップ操作等の物理的接触操作)が入力された位置を検知して
、位置を示す情報を入力信号として送信する機能を備える。入力部151および451は
、図示しないタッチセンシング部を備えていればよい。タッチセンシング部は、静電容量
方式または抵抗膜方式等のどのような方式を採用したものであってもよい。
【0070】
図示していないが、ユーザ端末100および配信端末400は、それぞれ、ユーザ端末1
00および配信端末400の保持姿勢を特定するための1以上のセンサを備えていてもよ
い。このセンサは、例えば、加速度センサ、または、角速度センサ等であってもよい。
【0071】
ユーザ端末100および配信端末400がセンサを備えている場合、プロセッサ10およ
び40は、それぞれ、センサの出力からユーザ端末100および配信端末400の保持姿
勢を特定して、保持姿勢に応じた処理を行うことも可能になる。例えば、プロセッサ10
および40は、それぞれ、ユーザ端末100および配信端末400が縦向きに保持されて
いるときには、縦長の画像を表示部152および452に表示させる縦画面表示としても
よい。一方、ユーザ端末100および配信端末400が横向きに保持されているときには
、横長の画像を表示部に表示させる横画面表示としてもよい。このように、プロセッサ1
0および40は、それぞれ、ユーザ端末100および配信端末400の保持姿勢に応じて
縦画面表示と横画面表示とを切り替え可能であってもよい。
【0072】
<システム1の機能的構成>
図6は、システム1に含まれるユーザ端末100、サーバ200、およびHMDセット1
000の機能的構成を示すブロック図である。
図7は、
図6に示す配信端末400の機能
的構成を示すブロック図である。
【0073】
ユーザ端末100は、ユーザの入力操作を受け付ける入力装置としての機能と、ゲームの
画像や音声を出力する出力装置としての機能を有する。ユーザ端末100は、プロセッサ
10、メモリ11、ストレージ12、通信IF13、入出力IF14、およびタッチスク
リーン15等の協働によって、制御部110および記憶部120として機能する。
【0074】
サーバ200は、ユーザ端末100、HMDセット1000、および配信端末400の間
の各種情報の送受信を仲介する機能を有する。サーバ200は、プロセッサ20、メモリ
21、ストレージ22、通信IF23、および入出力IF24等の協働によって、制御部
210および記憶部220として機能する。
【0075】
HMDセット1000(ゲームプレイ端末300)は、プレイヤの入力操作を受け付ける
入力装置としての機能と、ゲームの画像や音声を出力する出力装置としての機能と、ゲー
ム進行情報を、サーバ200を介してユーザ端末100へリアルタイムに送信する機能を
有する。HMDセット1000は、ゲームプレイ端末300のプロセッサ30、メモリ3
1、ストレージ32、通信IF33、入出力IF34、並びに、HMD500、HMDセ
ンサ510、モーションセンサ520、およびコントローラ540等の協働によって、制
御部310および記憶部320として機能する。
【0076】
配信端末400は、動作指図データを生成して、該動作指図データを、サーバ200を介
してユーザ端末100へ送信する機能を有する。配信端末400は、プロセッサ40、メ
モリ41、ストレージ42、通信IF43、入出力IF44、およびタッチスクリーン4
5等の協働によって、制御部410および記憶部420として機能する。
【0077】
(各装置の記憶部が格納するデータ)
記憶部120は、ゲームプログラム131(プログラム)、ゲーム情報132、および、
ユーザ情報133を格納する。記憶部220は、ゲームプログラム231、ゲーム情報2
32、ユーザ情報233、および、ユーザリスト234を格納する。記憶部320は、ゲ
ームプログラム331、ゲーム情報332、および、ユーザ情報333を格納する。記憶
部420は、ユーザリスト421、モーションリスト422、配信プログラム423(プ
ログラム、第2プログラム)を格納する。
【0078】
ゲームプログラム131、231、331は、それぞれ、ユーザ端末100、サーバ20
0、HMDセット1000が実行するゲームプログラムである。ゲームプログラム131
、231、331に基づいて各装置が協働して動作することにより、本ゲームが実現され
る。なお、ゲームプログラム131および331は、記憶部220に格納され、ユーザ端
末100およびHMDセット1000にそれぞれダウンロードされる構成でもよい。なお
、本実施形態では、ユーザ端末100は、ゲームプログラム131に基づいて、配信端末
400から受信したデータをレンダリングし、動画を再生するものとする。換言すれば、
ゲームプログラム131は、配信端末400から配信された動画指図データを用いて、動
画を再生するためのプログラムでもある。該動画を再生するためのプログラムは、ゲーム
プログラム131と異なってもよい。この場合、記憶部120は、ゲームプログラム13
1とは別に、該動画を再生するためのプログラムを格納する。
【0079】
ゲーム情報132、232、332は、それぞれ、ユーザ端末100、サーバ200、H
MDセット1000がゲームプログラムを実行する際に参照するデータである。ユーザ情
報133、233、333は、ユーザ端末100のユーザのアカウントに関するデータで
ある。ゲーム情報232は、各ユーザ端末100のゲーム情報132、および、HMDセ
ット1000のゲーム情報332である。ユーザ情報233は、各ユーザ端末100のユ
ーザ情報133、および、ユーザ情報333に含まれる、プレイヤのユーザ情報である。
ユーザ情報333は、各ユーザ端末100のユーザ情報133、および、プレイヤのユー
ザ情報である。
【0080】
ユーザリスト234およびユーザリスト421は、ゲームに参加したユーザのリストであ
る。ユーザリスト234およびユーザリスト421は、プレイヤによる直近のゲームプレ
イにおいて参加したユーザのリストの他、該ゲームプレイ以前の各ゲームプレイにおいて
参加したユーザのリストを含んでいてもよい。モーションリスト422は、予め作成され
ている複数のモーションデータのリストである。モーションリスト422は、例えば、各
モーションを識別する情報(例えば、モーション名)のそれぞれに、モーションデータが
対応付けられたリストである。配信プログラム423は、ユーザ端末100にて動画を再
生するための動作指図データの、ユーザ端末100への配信を実現するためのプログラム
である。
【0081】
(サーバ200の機能的構成)
制御部210は、記憶部220に格納されたゲームプログラム231を実行することによ
り、サーバ200を統括的に制御する。例えば制御部210は、ユーザ端末100、HM
Dセット1000、および配信端末400の間の各種情報の送受信を仲介する。
【0082】
制御部210は、ゲームプログラム231の記述に応じて、通信仲介部211、ログ生成
部212、リスト生成部213として機能する。制御部210は、ゲームプレイおよび動
作指図データの配信に係る各種情報の送受信の仲介、並びに、ゲームの進行の支援のため
に、図示しないその他の機能ブロックとしても機能することができる。
【0083】
通信仲介部211は、ユーザ端末100、HMDセット1000、および配信端末400
の間の各種情報の送受信を仲介する。例えば、通信仲介部211は、HMDセット100
0から受信したゲーム進行情報をユーザ端末100へ送信する。ゲーム進行情報は、プレ
イヤによって操作されるキャラクタの動き、該キャラクタのパラメータ、該キャラクタが
所持しているアイテムや武器、敵キャラクタなどの情報などを示すデータが含まれる。サ
ーバ200は、ゲーム進行情報を、ゲームに参加している全てのユーザのユーザ端末10
0へ送信する。換言すれば、サーバ200は、共通のゲーム進行情報をゲームに参加して
いる全てのユーザのユーザ端末100へ送信する。これにより、ゲームに参加している全
てのユーザのユーザ端末100それぞれにおいて、HMDセット1000と同様にゲーム
が進行する。
【0084】
また、例えば、通信仲介部211は、ユーザ端末100のいずれかから受信した、プレイ
ヤによるゲームの進行を支援するための情報を、その他のユーザ端末100、および、H
MDセット1000へ送信する。該情報は、一例として、プレイヤがゲームを有利に進行
するためのアイテムであって、プレイヤ(キャラクタ)に提供されるアイテムを示すアイ
テム情報であってもよい。アイテム情報は、アイテムを提供したユーザを示す情報(ユー
ザ名、ユーザIDなど)を含む。また、通信仲介部211は、配信端末400からユーザ
端末100への動作指図データの配信を仲介してもよい。
【0085】
ログ生成部212は、HMDセット1000から受信するゲーム進行情報に基づいて、ゲ
ーム進行のログを生成する。リスト生成部213は、ゲームプレイの終了後にユーザリス
ト234を生成する。詳細については後述するが、ユーザリスト234における各ユーザ
には、そのユーザが行ったプレイヤへの支援の内容を示すタグが関連付けられている。リ
スト生成部213は、ログ生成部212が生成したゲーム進行のログに基づいて、タグを
生成し、該当するユーザに関連付ける。なお、リスト生成部213は、ゲームの運営者な
どがパーソナルコンピュータなどの端末装置を用いて入力した、各ユーザが行ったプレイ
ヤへの支援の内容を、タグとして、該当するユーザに関連付けてもよい。これにより、各
ユーザが行った支援の内容がより詳細なものとなる。なお、ユーザ端末100は、ユーザ
がゲームに参加する際、ユーザの操作に基づいて、ユーザを示す情報をサーバ200へ送
信する。例えば、ユーザ端末100は、ユーザが入力したユーザIDをサーバ200へ送
信する。つまり、サーバ200は、ゲームに参加している全てのユーザについて、各ユー
ザを示す情報を保持している。リスト生成部213は、該情報を用いて、ユーザリスト2
34を生成すればよい。
【0086】
(HMDセット1000の機能的構成)
制御部310は、記憶部320に格納されたゲームプログラム331を実行することによ
り、HMDセット1000を統括的に制御する。例えば、制御部310は、ゲームプログ
ラム331、および、プレイヤの操作に従って、ゲームを進行させる。また、制御部31
0は、ゲームを進行させている間、必要に応じて、サーバ200と通信して、情報の送受
信を行う。制御部310は、情報の送受信を、サーバ200を介さずにユーザ端末100
と直接行ってもよい。
【0087】
制御部310は、ゲームプログラム331の記述に応じて、操作受付部311、表示制御
部312、UI制御部313、アニメーション生成部314、ゲーム進行部315、仮想
空間制御部316、および反応処理部317として機能する。制御部310は、実行され
るゲームの性質に応じて、該ゲームに登場するキャラクタの制御などのために、図示しな
いその他の機能ブロックとしても機能することができる。
【0088】
操作受付部311は、プレイヤの入力操作を検知し、受け付ける。操作受付部311は、
HMD500、モーションセンサ520、コントローラ540などから入力された信号を
受け付け、いかなる入力操作がなされたかを判別し、その結果を制御部310の各要素に
出力する。
【0089】
UI制御部313は、モニタ51、ディスプレイ530などに表示させるユーザインター
フェース(以下、UI)画像を制御する。UI画像は、プレイヤが、ゲームの進行上必要
な入力をHMDセット1000に対して行うためのツール、または、ゲームの進行中に出
力される情報をHMDセット1000から得るためのツールである。UI画像は、これに
は限定されないが、例えば、アイコン、ボタン、リスト、メニュー画面などである。
【0090】
アニメーション生成部314は、各種オブジェクトの制御態様に基づいて、各種オブジェ
クトのモーションを示すアニメーションを生成する。例えば、アニメーション生成部31
4は、オブジェクト(例えば、プレイヤのアバターオブジェクト)がまるでそこにいるか
のように動いたり、口を動かしたり、表情を変えたりする様子を表現したアニメーション
等を生成してもよい。
【0091】
ゲーム進行部315は、ゲームプログラム331、プレイヤによる入力操作、および、該
入力操作に応じたアバターオブジェクトの動作などに基づいて、ゲームを進行する。例え
ば、ゲーム進行部315は、アバターオブジェクトが所定の動作を行った場合に、所定の
ゲーム処理を行う。また、例えば、ゲーム進行部315は、ユーザ端末100におけるユ
ーザの操作を表す情報を受信し、当該ユーザの操作に基づいてゲーム処理を行ってもよい
。また、ゲーム進行部315は、ゲームの進行に従ってゲーム進行情報を生成し、サーバ
200へ送信する。該ゲーム進行情報は、サーバ200を介してユーザ端末100へ送信
される。これにより、HMDセット1000におけるゲームの進行が、ユーザ端末100
において共有される。換言すれば、HMDセット1000におけるゲームの進行と、ユー
ザ端末100におけるゲームの進行とが同期する。
【0092】
仮想空間制御部316は、ゲームの進行に応じて、プレイヤに提供される仮想空間に関す
る各種の制御を行う。一例として、仮想空間制御部316は、各種オブジェクトを生成し
、仮想空間に配置する。また、仮想空間制御部316は、仮想カメラを仮想空間に配置す
る。また、仮想空間制御部316は、ゲームの進行に応じて、仮想空間に配置した各種オ
ブジェクトを動作させる。また、仮想空間制御部316は、ゲームの進行に応じて、仮想
空間に配置した仮想カメラの位置、傾きを制御する。
【0093】
表示制御部312は、モニタ51、ディスプレイ530に対して、上述の各要素によって
実行された処理結果が反映されたゲーム画面を出力する。表示制御部312は、仮想空間
に配置された仮想カメラからの視界に基づく画像を、ゲーム画面として、モニタ51、デ
ィスプレイ530に表示してもよい。また、表示制御部312は、アニメーション生成部
314によって生成されたアニメーションを該ゲーム画面に含めてもよい。また、表示制
御部312は、UI制御部313によって制御される上述のUI画像を、該ゲーム画面に
重畳して描画してもよい。
【0094】
反応処理部317は、ユーザ端末100のユーザによる、プレイヤのゲームプレイに対す
る反応についてフィードバックを受け付けて、これを、プレイヤに対して出力する。本実
施形態では、例えば、ユーザ端末100は、ユーザの入力操作に基づいて、アバターオブ
ジェクトに宛てたコメント(メッセージ)を作成することができる。反応処理部317は
、該コメントのコメントデータを受け付けて、これを出力する。反応処理部317は、ユ
ーザのコメントに対応するテキストデータを、モニタ51、ディスプレイ530に表示し
てもよいし、ユーザのコメントに対応する音声データを、図示しないスピーカから出力し
てもよい。前者の場合、反応処理部317は、上記テキストデータに対応する画像(すな
わち、コメントの内容を含む画像)を、ゲーム画面に重畳して描画してもよい。
【0095】
(ユーザ端末100の機能的構成)
制御部110は、記憶部120に格納されたゲームプログラム131を実行することによ
り、ユーザ端末100を統括的に制御する。例えば、制御部110は、ゲームプログラム
131、および、ユーザの操作に従って、ゲームを進行させる。また、制御部110は、
ゲームを進行させている間、必要に応じて、サーバ200と通信して、情報の送受信を行
う。制御部110は、情報の送受信を、サーバ200を介さずにHMDセット1000と
直接行ってもよい。
【0096】
制御部110は、ゲームプログラム131の記述に応じて、操作受付部111、表示制御
部112、UI制御部113、アニメーション生成部114、ゲーム進行部115、仮想
空間制御部116、および動画再生部117として機能する。制御部110は、実行され
るゲームの性質に応じて、ゲームの進行のために、図示しないその他の機能ブロックとし
ても機能することができる。
【0097】
操作受付部111は、入力部151に対するユーザの入力操作を検知し受け付ける。操作
受付部111は、タッチスクリーン15およびその他の入出力IF14を介したコンソー
ルに対してユーザが及ぼした作用から、いかなる入力操作がなされたかを判別し、その結
果を制御部110の各要素に出力する。
【0098】
例えば、操作受付部111は、入力部151に対する入力操作を受け付け、該入力操作の
入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部111は、入力操作
の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を
特定する。また、操作受付部111は、連続して検知されていた入力が途切れると、タッ
チスクリーン15から接触入力が解除されたことを検知する。
【0099】
UI制御部113は、ユーザの入力操作、および、受信したゲーム進行情報の少なくとも
何れかに応じて、UIを構築するために表示部152に表示させるUI画像を制御する。
UI画像は、ユーザが、ゲームの進行上必要な入力をユーザ端末100に対して行うため
のツール、または、ゲームの進行中に出力される情報をユーザ端末100から得るための
ツールである。UI画像は、これには限定されないが、例えば、アイコン、ボタン、リス
ト、メニュー画面などである。
【0100】
アニメーション生成部114は、各種オブジェクトの制御態様に基づいて、各種オブジェ
クトのモーションを示すアニメーションを生成する。
【0101】
ゲーム進行部115は、ゲームプログラム131、受信したゲーム進行情報、および、ユ
ーザによる入力操作などに基づいて、ゲームを進行する。ゲーム進行部115は、ユーザ
による入力操作により、所定のゲーム処理を行った場合、該ゲーム処理に関する情報を、
サーバ200を介してHMDセット1000へ送信する。これにより、該所定のゲーム処
理が、HMDセット1000において共有される。換言すれば、HMDセット1000に
おけるゲームの進行と、ユーザ端末100におけるゲームの進行とが同期する。所定のゲ
ーム処理とは、例えば、アバターオブジェクトにアイテムを提供する処理であり、この例
の場合、ゲーム処理に関する情報は、上述したアイテム情報である。
【0102】
仮想空間制御部116は、ゲームの進行に応じて、ユーザに提供される仮想空間に関する
各種の制御を行う。一例として、仮想空間制御部116は、各種オブジェクトを生成し、
仮想空間に配置する。また、仮想空間制御部116は、仮想カメラを仮想空間に配置する
。また、仮想空間制御部116は、ゲームの進行、具体的には、受信したゲーム進行情報
に応じて、仮想空間に配置した各種オブジェクトを動作させる。また、仮想空間制御部3
16は、ゲームの進行、具体的には、受信したゲーム進行情報に応じて、仮想空間に配置
した仮想カメラの位置、傾きを制御する。
【0103】
表示制御部112は、表示部152に対して、上述の各要素によって実行された処理結果
が反映されたゲーム画面を出力する。表示制御部112は、ユーザに提供される仮想空間
に配置された仮想カメラからの視界に基づく画像を、ゲーム画面として、表示部152に
表示してもよい。また、表示制御部112は、アニメーション生成部114によって生成
されたアニメーションを該ゲーム画面に含めてもよい。また、表示制御部112は、UI
制御部113によって制御される上述のUI画像を、該ゲーム画面に重畳して描画しても
よい。いずれにしても、表示部152に表示されるゲーム画面は、他のユーザ端末100
、および、HMDセット1000にて表示されるゲーム画面と同様のゲーム画面である。
【0104】
動画再生部117は、配信端末400から受信した動作指図データを解析(レンダリング
)し、動画を再生する。
【0105】
(配信端末400の機能的構成)
制御部410は、記憶部420に格納されたプログラム(不図示)を実行することにより
、配信端末400を統括的に制御する。例えば、制御部410は、該プログラム、および
、配信端末400のユーザ(本実施形態ではプレイヤ)の操作に従って、動作指図データ
を生成し、ユーザ端末100に配信する。また、制御部410は、必要に応じて、サーバ
200と通信して、情報の送受信を行う。制御部410は、情報の送受信を、サーバ20
0を介さずにユーザ端末100と直接行ってもよい。
【0106】
制御部410は、プログラムの記述に応じて、通信制御部411、表示制御部412、操
作受付部413、音声受付部414、モーション特定部415、および動作指図データ生
成部416として機能する。制御部410は、動作指図データの生成および配信のために
、図示しないその他の機能ブロックとしても機能することができる。
【0107】
通信制御部411は、サーバ200、または、サーバ200を介したユーザ端末100と
の情報の送受信を制御する。通信制御部411は、一例として、サーバ200からユーザ
リスト421を受信する。また、通信制御部411は、一例として、動作指図データをユ
ーザ端末100へ送信する。
【0108】
表示制御部412は、表示部452に対して、各要素によって実行された処理結果が反映
された各種画面を出力する。表示制御部412は、一例として、受信したユーザリスト2
34を含む画面を表示する。また、表示制御部412は、一例として、配信する動作指図
データに含まれる、アバターオブジェクトを動作させるためのモーションデータを、プレ
イヤに選択させるためのモーションリスト422を含む画面を表示する。
【0109】
操作受付部413は、入力部151に対するプレイヤの入力操作を検知し受け付ける。操
作受付部111は、タッチスクリーン45およびその他の入出力IF44を介したコンソ
ールに対してプレイヤが及ぼした作用から、いかなる入力操作がなされたかを判別し、そ
の結果を制御部410の各要素に出力する。
【0110】
例えば、操作受付部413は、入力部451に対する入力操作を受け付け、該入力操作の
入力位置の座標を検出し、該入力操作の種類を特定する。操作受付部413は、入力操作
の種類として、例えばタッチ操作、スライド操作、スワイプ操作、およびタップ操作等を
特定する。また、操作受付部413は、連続して検知されていた入力が途切れると、タッ
チスクリーン45から接触入力が解除されたことを検知する。
【0111】
音声受付部414は、配信端末400の周囲で発生した音声を受け付け、該音声の音声デ
ータを生成する。音声受付部414は、一例として、プレイヤが発話した音声を受け付け
、該音声の音声データを生成する。
【0112】
モーション特定部415は、プレイヤの入力操作に応じて、モーションリスト422から
、プレイヤが選択したモーションデータを特定する。
【0113】
動作指図データ生成部416は、動作指図データを生成する。一例として、動作指図デー
タ生成部416は、生成された音声データと、特定されたモーションデータとを含む動作
指図データを生成する。
【0114】
なお、
図6に示すHMDセット1000、サーバ200、およびユーザ端末100の機能
、並びに、
図7に示す配信端末400の機能は一例にすぎない。HMDセット1000、
サーバ200、ユーザ端末100、および配信端末400の各装置は、他の装置が備える
機能の少なくとも一部を備えていてもよい。さらに、HMDセット1000、サーバ20
0、ユーザ端末100、および配信端末400以外のさらに別の装置をシステム1の構成
要素とし、該別の装置にシステム1における処理の一部を実行させてもよい。すなわち、
本実施形態においてゲームプログラムを実行するコンピュータは、HMDセット1000
、サーバ200、ユーザ端末100、および配信端末400、並びに、それ以外の別の装
置の何れであってもよいし、これらの複数の装置の組み合わせにより実現されてもよい。
【0115】
<仮想空間の制御処理>
図8は、プレイヤに提供される仮想空間、および、ユーザ端末100のユーザに提供され
る仮想空間の制御処理の流れの一例を示すフローチャートである。
図9は、ある実施の形
態に従う、プレイヤに提供される仮想空間600A、および、プレイヤが視認する視界画
像を示す図である。
図10は、ある実施の形態に従う、ユーザ端末100のユーザに提供
される仮想空間600B、および、ユーザが視認する視界画像を示す図である。なお以降
、仮想空間600Aおよび600Bを区別する必要が無い場合、「仮想空間600」と記
載する。
【0116】
ステップS1において、プロセッサ30は、仮想空間制御部316として、
図9に示す仮
想空間600Aを規定する。プロセッサ30は、仮想空間データ(不図示)を用いて、仮
想空間600Aを規定する。仮想空間データは、ゲームプレイ端末300に記憶されてい
てもよいし、プロセッサ30が、ゲームプログラム331に基づいて生成してもよいし、
プロセッサ30が、サーバ200などの外部の装置から取得してもよい。
【0117】
仮想空間600は、一例として、中心として定義された点の360度方向の全体を覆う全
天球状の構造を有する。
図9および
図10では、説明を複雑にしないために、仮想空間6
00のうちの上半分の天球が例示されている。
【0118】
ステップS2において、プロセッサ30は、仮想空間制御部316として、仮想空間60
0Aに、アバターオブジェクト610(キャラクタ)を配置する。アバターオブジェクト
610は、プレイヤに関連付けられたアバターオブジェクトであり、プレイヤの入力操作
に従って動作する。
【0119】
ステップS3において、プロセッサ30は、仮想空間制御部316として、仮想空間60
0Aに、その他のオブジェクトを配置する。
図9の例では、プロセッサ30は、オブジェ
クト631~634を配置する。その他のオブジェクトは、例えば、ゲームプログラム3
31に従って動作するキャラクタオブジェクト(いわゆるノンプレイヤキャラクタ、NP
C)、仮想手などの操作オブジェクト、ゲームの進行に従って配置される動物、植物、人
工物、自然物などを模したオブジェクトなどを含み得る。
【0120】
ステップS4において、プロセッサ30は、仮想空間制御部316として、仮想空間60
0Aに仮想カメラ620Aを配置する。プロセッサ30は、一例として、仮想カメラ62
0Aを、アバターオブジェクト610の頭部の位置に配置する。
【0121】
ステップS5において、プロセッサ30は、視界画像650をモニタ51およびディスプ
レイ530に表示する。プロセッサ30は、仮想カメラ620Aの初期の位置と傾きとに
応じて、仮想空間600Aにおける仮想カメラ620Aからの視界である視界領域640
Aを定義する。そして、プロセッサ30は、視界領域640Aに対応する視界画像650
を定義する。プロセッサ30は、視界画像650をモニタ51およびディスプレイ530
に出力することによって、視界画像650をHMD500およびディスプレイ530に表
示させる。
【0122】
図9の例において、
図9(A)に示すように、オブジェクト634の一部が視界領域64
0Aに含まれているため、視界画像650は、
図9(B)に示すようにオブジェクト63
4の一部を含む。
【0123】
ステップS6において、プロセッサ30は、初期配置情報を、サーバ200を介してユー
ザ端末100へ送信する。初期配置情報とは、仮想空間600Aにおける各種オブジェク
トの初期の配置位置を示す情報である。
図9の例において、初期配置情報は、アバターオ
ブジェクト610、および、オブジェクト631~634の初期の配置位置の情報を含む
。初期配置情報は、ゲーム進行情報の1つであると表現することもできる。
【0124】
ステップS7において、プロセッサ30は、仮想空間制御部316として、HMD500
の動きに応じて仮想カメラ620Aを制御する。具体的には、プロセッサ30は、HMD
500の動き、すなわち、プレイヤの頭部の姿勢に応じて、仮想カメラ620Aの向きお
よび傾きを制御する。後述のように、プロセッサ30は、プレイヤが頭部を動かす(頭部
の姿勢を変更する)と、この動きに合わせて、アバターオブジェクト610の頭部を動か
す。プロセッサ30は、例えば、アバターオブジェクト610の視線の方向と、仮想カメ
ラ620Aの視線の方向とが一致するように、仮想カメラ620Aの向きおよび傾きを制
御する。ステップS8において、プロセッサ30は、仮想カメラ620Aの向きおよび傾
きが変更されたことに応じて、視界画像650を更新する。
【0125】
ステップS9において、プロセッサ30は、仮想空間制御部316として、プレイヤの動
きに応じて、アバターオブジェクト610を動かす。一例として、プロセッサ30は、プ
レイヤが現実空間で移動したことに応じて、仮想空間600Aでアバターオブジェクト6
10を移動させる。また、プロセッサ30は、プレイヤが現実空間で頭部を動かしたこと
に応じて、仮想空間600Aでアバターオブジェクト610の頭部を動かす。
【0126】
ステップS10において、プロセッサ30は、仮想空間制御部316として、仮想カメラ
620Aを、アバターオブジェクト610に追随するように移動させる。つまり、仮想カ
メラ620Aは、アバターオブジェクト610が移動しても、常にアバターオブジェクト
610の頭部の位置にある。
【0127】
プロセッサ30は、仮想カメラ620Aの移動に応じて、視界画像650を更新する。つ
まり、プロセッサ30は、プレイヤの頭部の姿勢と、仮想空間600Aにおける仮想カメ
ラ620Aの位置とに応じて、視界領域640Aを更新する。その結果、視界画像650
が更新される。
【0128】
ステップS11において、プロセッサ30は、アバターオブジェクト610の動作指図デ
ータを、サーバ200を介してユーザ端末100へ送信する。ここでの動作指図データは
、仮想体験中(例えば、ゲームプレイ中)において、プレイヤの動作を取り込んだモーシ
ョンデータ、プレイヤが発話した音声の音声データ、コントローラ540に対する入力操
作の内容を示す操作データの少なくとも何れかを含む。プレイヤがゲームをプレイしてい
る場合、動作指図データは、例えば、ゲーム進行情報としてユーザ端末100へ送信され
る。
【0129】
ステップS7~S11の処理は、プレイヤがゲームをプレイしている間、継続して繰り返
し実行される。
【0130】
ステップS21において、ユーザ3のユーザ端末100のプロセッサ10は、仮想空間制
御部116として、
図10に示す仮想空間600Bを規定する。プロセッサ10は、仮想
空間データ(不図示)を用いて、仮想空間600Bを規定する。仮想空間データは、ユー
ザ端末100に記憶されていてもよいし、プロセッサ10が、ゲームプログラム131に
基づいて生成してもよいし、プロセッサ10が、サーバ200などの外部の装置から取得
してもよい。
【0131】
ステップS22において、プロセッサ10は、初期配置情報を受信する。ステップS23
において、プロセッサ10は、仮想空間制御部116として、初期配置情報に応じて各種
オブジェクトを仮想空間600Bに配置する。
図10の例の場合、各種オブジェクトは、
アバターオブジェクト610、および、オブジェクト631~634である。
【0132】
ステップS24において、プロセッサ10は、仮想空間制御部116として、仮想空間6
00Bに仮想カメラ620Bを配置する。プロセッサ10は、一例として、仮想カメラ6
20Bを、
図10(A)に示す位置に配置する。
【0133】
ステップS25において、プロセッサ10は、視界画像660を表示部152に表示する
。プロセッサ10は、仮想カメラ620Bの初期の位置と傾きとに応じて、仮想空間60
0Bにおける仮想カメラ620Bからの視界である視界領域640Bを定義する。そして
、プロセッサ10は、視界領域640Bに対応する視界画像660を定義する。プロセッ
サ10は、視界画像660を表示部152に出力することによって、視界画像660を表
示部152に表示させる。
【0134】
図10の例において、
図10(A)に示すように、アバターオブジェクト610およびオ
ブジェクト631が視界領域640Bに含まれているため、視界画像660は、
図10(
B)に示すようにアバターオブジェクト610およびオブジェクト631を含む。
【0135】
ステップS26において、プロセッサ10は、動作指図データを受信する。ステップS2
7において、プロセッサ10は、仮想空間制御部116として、動作指図データに応じて
、仮想空間600Bでアバターオブジェクト610を動かす。換言すれば、プロセッサ1
0は、リアルタイムレンダリングにより、アバターオブジェクト610が動作している映
像を再生する。
【0136】
ステップS28において、プロセッサ10は、仮想空間制御部116として、操作受付部
111として受け付けたユーザの操作に応じて仮想カメラ620Bを制御する。ステップ
S29において、プロセッサ10は、仮想カメラ620Bの仮想空間600Bにおける位
置、仮想カメラ620Bの向きおよび傾きが変更されたことに応じて、視界画像660を
更新する。なお、ステップS28において、プロセッサ10は、アバターオブジェクト6
10の動き、例えば、アバターオブジェクト610の移動や、向きの変更に応じて仮想カ
メラ620Bを自動的に制御してもよい。例えば、プロセッサ10は、常にアバターオブ
ジェクト610を正面から撮影するように自動的に仮想カメラ620Bを移動させたり、
向きおよび傾きを変更したりしてもよい。また、一例として、プロセッサ10は、アバタ
ーオブジェクト610の動きに応じて、常にアバターオブジェクト610を後方から撮影
するように自動的に仮想カメラ620Bを移動させたり、向きおよび傾きを変更したりし
てもよい。
【0137】
このように、仮想空間600Aにおいて、アバターオブジェクト610は、プレイヤの動
きに応じて動作する。この動作を示す動作指図データは、ユーザ端末100に送信される
。仮想空間600Bにおいて、アバターオブジェクト610は、受信した動作指図データ
に応じて動作する。これにより、仮想空間600Aと仮想空間600Bとにおいて、アバ
ターオブジェクト610は同様の動作を行う。換言すれば、ユーザ3は、ユーザ端末10
0を用いて、プレイヤの動作に応じたアバターオブジェクト610の動作を視認すること
ができる。
【0138】
<ゲーム概要>
図11は、ユーザ端末100において表示される視界画像の他の例を示す図である。具体
的には、プレイヤがプレイしている、システム1が実行するゲーム(本ゲーム)のゲーム
画面の一例を示す図である。
【0139】
本ゲームは、一例として、銃、ナイフなどの武器を操作するアバターオブジェクト610
と、NPCである複数の敵オブジェクト671とを仮想空間600に登場させ、アバター
オブジェクト610に敵オブジェクト671との対戦を行わせるゲームである。アバター
オブジェクト610の体力、使用可能なマガジンの数、銃の残弾数、敵オブジェクト67
1の残数等の各種ゲームパラメータは、ゲームの進行に応じて更新される。
【0140】
本ゲームには、複数のステージが用意されており、プレイヤは、各ステージに関連付けら
れている所定の達成条件を成立させることにより、当該ステージをクリアすることができ
る。所定の達成条件としては、例えば、出現する敵オブジェクト671をすべて倒すこと
や、出現する敵オブジェクト671のうちボスオブジェクトを倒すこと、所定のアイテム
を獲得すること、所定位置に到達することなどにより成立する条件を含むものであっても
よい。該達成条件は、ゲームプログラム131内で定義されている。なお、本ゲームでは
、ゲームの内容に即し、達成条件が成立された場合にプレイヤはステージをクリア、換言
すれば、アバターオブジェクト610の敵オブジェクト671への勝利(アバターオブジ
ェクト610と敵オブジェクト671との間の勝敗)が決定される。これに対し、例えば
、システム1で実行されるゲームがレースゲーム等である場合、ゴールに到達するという
条件が成立した場合に、アバターオブジェクト610の順位が決定される。
【0141】
本ゲームでは、HMDセット1000及び複数のユーザ端末100の間で仮想空間を共有
するために、ゲーム進行情報が、所定時間毎に複数のユーザ端末100にライブ配信され
る。この結果、ゲームを視聴中のユーザ端末100のタッチスクリーン15には、ユーザ
端末100に対応する仮想カメラ620Bによって規定される視界領域の視界画像が表示
される。また、視界画像の右上段および左上段には、アバターオブジェクト610の体力
、使用可能なマガジンの数、銃の残弾数、敵オブジェクト671の残数等を表すパラメー
タ画像が重畳的に表示される。この視界画像は、ゲーム画面と表現することもできる。
【0142】
ゲーム進行情報は、上述したとおり、プレイヤの動作を取り込んだモーションデータ、プ
レイヤが発話した音声の音声データ、コントローラ540に対する入力操作の内容を示す
操作データを含む。これらのデータはすなわち、アバターオブジェクト610の位置、姿
勢、向きなどを特定するための情報、敵オブジェクト671の位置、姿勢、向きなどを特
定する情報、その他オブジェクト(例えば、障害物オブジェクト672、673)の位置
などを特定する情報である。プロセッサ10は、ゲーム進行情報を解析(レンダリング)
することにより、各オブジェクトの位置、姿勢、向きなどを特定する。
【0143】
ゲーム情報132は、アバターオブジェクト610、敵オブジェクト671、障害物オブ
ジェクト672、673等の各種オブジェクトのデータを含む。プロセッサ10は、該デ
ータと、ゲーム進行情報の解析結果とを用いて、各オブジェクトの位置、姿勢、向きなど
を更新する。これにより、ゲームが進行し、仮想空間600Bにおける各オブジェクトは
、仮想空間600Aにおける各オブジェクトと同様に動く。具体的には、仮想空間600
Bにおいて、アバターオブジェクト610を含む各オブジェクトは、ユーザ端末100に
対するユーザからの操作の有無に関わらず、ゲーム進行情報に基づいて動作する。
【0144】
ユーザ端末100のタッチスクリーン15においては、一例として、UI画像701およ
び702が、視界画像に重畳して表示される。UI画像701は、アバターオブジェクト
610を支援するためのアイテム投入操作をユーザ3から受け付けるUI画像711を、
タッチスクリーン15に表示するための操作を受け付けるUI画像である。UI画像70
2は、アバターオブジェクト610(換言すれば、プレイヤ4)に対するコメントを入力
し、送信するための操作をユーザ3から受け付けるUI画像(後述)を、タッチスクリー
ン15に表示するための操作を受け付けるUI画像である。UI画像701および702
が受け付ける操作は、例えば、UI画像701および702をタップする操作であっても
よい。
【0145】
UI画像701がタップされると、UI画像711が、視界画像に重畳して表示される。
UI画像711は、例えば、マガジンのアイコンが描かれたUI画像711A、救急箱の
アイコンが描かれたUI画像711B、三角コーンのアイコンが描かれたUI画像711
C、バリケードのアイコンが描かれたUI画像711Dを含む。アイテム投入操作は、例
えば、いずれかのUI画像をタップする操作に相当する。
【0146】
一例として、UI画像711Aがタップされると、アバターオブジェクト610が使用す
る銃の残弾数が増加する。UI画像711Bがタップされると、アバターオブジェクト6
10の体力が回復する。UI画像711Cおよび711Dがタップされると、敵オブジェ
クト671の移動を妨害する障害物オブジェクト672、673が仮想空間に配置される
。障害物オブジェクト672、673は、一方が他方に比べて、敵オブジェクト671の
移動をより妨害するものであってもよい。
【0147】
プロセッサ10は、アイテム投入操作が行われたことを示すアイテム投入情報を、サーバ
200へ送信する。アイテム投入情報には、アイテム投入操作により指定されたアイテム
の種別を特定するための情報が少なくとも含まれる。アイテム投入情報には、アイテムが
配置される位置を示す情報など、アイテムに関するその他の情報が含まれていてもよい。
アイテム投入情報は、サーバ200を介して、他のユーザ端末100、および、HMDセ
ット1000へ送信される。
【0148】
図12は、ユーザ端末100において表示される視界画像の他の例を示す図である。具体
的には、本ゲームのゲーム画面の一例を示す図であり、ゲームプレイ中のプレイヤとユー
ザ端末100とのコミュニケーションについて説明するための図である。
【0149】
図12(A)の例において、ユーザ端末100は、アバターオブジェクト610に発話6
91を実行させている。具体的には、ユーザ端末100は、ゲーム進行情報に含まれる音
声データに従って、アバターオブジェクト610に発話691を実行させている。発話6
91の内容は、プレイヤ4が発話した「弾が無いよー!」というものである。すなわち、
発話691の内容は、マガジンが0、銃に装填した銃弾が1となったことにより、敵オブ
ジェクト671を攻撃する手段を失いそうであることを各ユーザに伝えるものである。
【0150】
なお、
図12(A)では、アバターオブジェクト610の発話を視覚的に示すため吹き出
しを用いているが、実際は、ユーザ端末100のスピーカから音声が出力される。なお、
音声出力とともに、
図12(A)に示す吹き出し(すなわち、音声の内容のテキストを含
む吹き出し)が視界画像中に表示されてもよい。これは、後述する発話692でも同様で
ある。
【0151】
UI画像702に対するタップ操作を受け付けると、ユーザ端末100は、
図12(B)
に示すように、UI画像705および706(メッセージUI)を視界画像に重畳して表
示する。UI画像705は、アバターオブジェクト610(換言すれば、プレイヤ)に対
するコメントを表示するUI画像である。UI画像706は、入力されたコメントを送信
するためコメント送信操作をユーザ3から受け付けるUI画像である。
【0152】
ユーザ端末100は、一例として、UI画像705へのタップ操作を受け付けると、キー
ボードを模したUI画像(不図示、以下、単に「キーボード」と記載)をタッチスクリー
ン15に表示させる。ユーザ端末100は、キーボードに対するユーザの入力操作に応じ
たテキストを、UI画像705に表示させる。
図12(B)の例では、「マガジン送るね
」というテキストがUI画像705に表示されている。
【0153】
ユーザ端末100は、テキスト入力後に、一例として、UI画像706へのタップ操作を
受け付けると、入力した内容(テキストの内容)を示す情報と、ユーザを示す情報とを含
むコメント情報をサーバ200へ送信する。コメント情報は、サーバ200を介して、他
のユーザ端末100、および、HMDセット1000へ送信される。
【0154】
UI画像703Aは、コメントを送信したユーザのユーザ名を示すUI画像であり、U画
像704Aは、該ユーザが送信したコメントの内容を示すUI画像である。
図12(B)
の例では、ユーザ名が「BBBBB」であるユーザが、自身のユーザ端末100を用い、
「危ない!」という内容のコメント情報を送信したことにより、UI画像703Aおよび
UI画像704Aが表示されている。UI画像703AおよびUI画像704Aは、本ゲ
ームに参加しているすべてのユーザ端末100のタッチスクリーン15、および、HMD
500のモニタ51に表示される。なお、UI画像703Aおよび704Aは、1つのU
I画像であってもよい。すなわち、1つのUI画像にユーザ名とコメントの内容とが含ま
れていてもよい。
【0155】
図12(C)の例では、
図12に示すユーザ端末100のユーザである、「AAAAA」
というユーザ名のユーザが、上述したとおりコメントを入力し、送信したことにより、タ
ッチスクリーン15にUI画像703Bおよび704Bが表示されている。UI画像70
3Bにはユーザ名「AAAAA」が含まれており、UI画像704Bには、
図12(B)
の例において入力された「マガジン送るね!」とのコメントが含まれている。
【0156】
また、
図12(C)の例は、ユーザ「AAAAA」がさらに、UI画像701へのタップ
操作を入力し、UI画像711をタッチスクリーン15に表示させ、UI画像711Aへ
のタップ操作を入力した後の視界画像611である。つまり、ユーザ「AAAAA」のユ
ーザ端末100から、他のユーザ端末100およびHMDセット1000に、マガジンを
示すアイテム投入情報が送信された結果、ユーザ端末100およびHMDセット1000
は、演出オブジェクト674(後述)を仮想空間600に配置している。一例として、ユ
ーザ端末100およびHMDセット1000は、アイテム投入情報にて示された経過時間
が経過した後に、演出オブジェクト674に関する演出を実行し、アイテムオブジェクト
の効果を発動させる処理を実行する。
【0157】
図12(D)の例では、アイテムオブジェクトの効果を発動させる処理の実行により、マ
ガジンの数が0から1に増加している。この結果、プレイヤは、ユーザ「AAAAA」に
対して、「ありがとう!」と発話し、該発話の音声データが、各ユーザ端末100に送信
される。これにより、各ユーザ端末100は、アバターオブジェクト610の発話692
として、「ありがとう!」という音声を出力する。
【0158】
以上のように、本ゲームにおいては、プレイヤの発話に基づくアバターオブジェクト61
0の発話音声の出力と、各ユーザによるコメントの入力とにより、ユーザとアバターオブ
ジェクト610とのコミュニケーションが実現される。
【0159】
(ゲームプレイ端末300におけるゲーム進行処理)
図13は、ゲームプレイ端末300で実行されるゲーム進行処理の流れの一例を示すフロ
ーチャートである。
【0160】
ステップS31において、プロセッサ30は、ゲーム進行部315として、ゲームプログ
ラム331とプレイヤの動きとに基づいてゲームを進行させる。ステップS32において
、プロセッサ30は、ゲーム進行情報を生成し、ユーザ端末100へ配信する。具体的に
は、プロセッサ30は、生成したゲーム進行情報を、サーバ200を介して、各ユーザ端
末100へ送信する。
【0161】
ステップS33において、プロセッサ30は、アイテム投入情報を受信すると(S33で
YES)、ステップS34において、アイテム投入情報に基づいて、アイテムオブジェク
トを仮想空間600Aに配置する。一例として、プロセッサ30は、アイテムオブジェク
トの配置の前に、演出オブジェクト674を仮想空間600Aに配置する(
図11(C)
参照)。演出オブジェクト674は、例えば、プレゼント箱を模したオブジェクトであっ
てもよい。プロセッサ30は、一例として、アイテム投入情報にて示された経過時間が経
過した後に、演出オブジェクト674に関する演出を実行してもよい。該演出は、例えば
、プレゼント箱の蓋が開くアニメーションであってもよい。プロセッサ30は、該アニメ
ーションの実行の後、アイテムオブジェクトの効果を発動させる処理を実行する。例えば
、
図11(D)の例では、障害物オブジェクト673を配置する。
【0162】
プロセッサ30は、アニメーションの実行の後、タップ操作されたUI画像に対応するア
イテムオブジェクトを仮想空間600Aに配置してもよい。例えば、UI画像711Aに
対してタップ操作が行われた場合、プロセッサ30は、アニメーションの実行の後、マガ
ジンを示すマガジンオブジェクトを仮想空間600Aに配置する。また、UI画像711
Bに対してタップ操作が行われた場合、プロセッサ30は、アニメーションの実行の後、
救急箱を示す救急箱オブジェクトを仮想空間600Aに配置する。プロセッサ30は、例
えば、マガジンオブジェクトまたは救急箱オブジェクトの位置に、アバターオブジェクト
610が移動した場合に、マガジンオブジェクトまたは救急箱オブジェクトの効果を発動
させる処理を実行してもよい。
【0163】
プロセッサ30は、ゲームが終了するまで、ステップS31~S34の処理を継続し、繰
り返す。ゲームが終了した場合、例えば、プレイヤがゲームを終了するための所定の入力
操作を入力した場合(ステップS35でYES)、
図13に示す処理は終了する。
【0164】
(ユーザ端末100におけるゲーム進行処理)
図14は、ユーザ端末100で実行されるゲーム進行処理の流れの一例を示すフローチャ
ートである。
【0165】
ステップS41において、プロセッサ10は、ゲーム進行情報を受信する。ステップS4
2において、プロセッサ10は、ゲーム進行部115として、ゲーム進行情報に基づいて
ゲームを進行させる。
【0166】
ステップS43において、プロセッサ10が、ユーザ3によるアイテム投入操作を受け付
けると(ステップS43にてYES)、ステップS44において、プロセッサ10は、仮
想通貨を消費し、演出オブジェクト674を仮想空間600Bに配置する。ここで、仮想
通貨は、ゲームへの参加の前、あるいは、ゲームへの参加中に、ユーザ3がプロセッサ1
0に対し所定の操作を行うことにより購入(本ゲームに対して課金)されるものであって
もよいし、所定の条件を満たした場合にユーザ3に付与されるものであってもよい。所定
の条件とは、本ゲームにおけるクエストのクリア等、本ゲームへの参加が必要なものであ
ってもよいし、アンケートに答える等、本ゲームへの参加が不要なものであってもよい。
仮想通貨の金額(仮想通貨の所有量)は、一例として、ゲーム情報132としてユーザ端
末100に記憶される。
【0167】
ステップS45において、プロセッサ10は、アイテム投入情報をサーバ200へ送信す
る。アイテム投入情報は、サーバ200を介してゲームプレイ端末300へ送信される。
【0168】
プロセッサ10は、演出オブジェクト674の配置後、所定時間が経過すると、アイテム
オブジェクトを仮想空間600Aに配置する。
図11の例では、障害物オブジェクト67
3を配置する。つまり、ユーザ3が、UI画像711Cへのタップ操作を入力することに
より、所定量の仮想通貨が消費され、障害物オブジェクト673が配置される。
【0169】
プロセッサ10は、ゲームが終了するまで、ステップS41~S45の処理を継続し、繰
り返す。ゲームが終了した場合、例えば、プレイヤがゲームを終了するための所定の入力
操作を行った場合や、ユーザ3が、ゲームから途中退席するための所定の入力操作を行っ
た場合(ステップS46でYES)、
図14に示す処理は終了する。
【0170】
(サーバ200におけるゲーム進行処理)
図15は、サーバ200で実行されるゲーム進行処理の流れの一例を示すフローチャート
である。
【0171】
ステップS51において、プロセッサ20は、ゲーム進行情報をゲームプレイ端末300
から受信する。ステップS52において、プロセッサ20は、ログ生成部212として、
ゲーム進行のログ(以下、プレイログ)を更新する。なお、プレイログは、一例として、
ゲームプレイ端末300から初期配置情報を受信したとき、プロセッサ20が生成する。
【0172】
ステップS53において、プロセッサ20は、受信したゲーム進行情報を、各ユーザ端末
100へ送信する。
【0173】
ステップS54において、アイテム投入情報をいずれかのユーザ端末100から受信した
場合(ステップS54にてYES)、ステップS55において、プロセッサ20は、ログ
生成部212としてプレイログを更新する。ステップS56において、プロセッサ20は
、受信したアイテム投入情報をゲームプレイ端末300へ送信する。
【0174】
プロセッサ20は、ゲームが終了するまで、ステップS51~S56の処理を継続し、繰
り返す。ゲームが終了した場合、例えば、ゲームプレイ端末300から、ゲームが終了し
たことを示す情報を受信した場合(ステップS57でYES)、ステップS58において
、プロセッサ20は、リスト生成部213として、プレイログからゲームに参加したユー
ザのリスト(ユーザリスト234)を生成する。プロセッサ20は、生成したユーザリス
ト234を、サーバ200に記憶する。
【0175】
図16は、ユーザリスト234の一具体例を示す図である。「ユーザ」のカラムには、ゲ
ームに参加した各ユーザを示す情報(例えば、ユーザ名)が格納されている。「タグ」の
カラムには、各ユーザがプレイヤに対して行った支援に基づいて生成された情報(タグ)
が格納されている。
図16の例において、「タグ」のカラムに格納されたタグのうち、鍵
括弧を有さないものは、プロセッサ20が自動生成した情報であり、鍵括弧を有するもの
は、ゲームの運営者が手動で入力した情報である。
【0176】
図16の例において、ユーザ「AAAAA」には、マガジン、10F、ボス、「マガジン
のプレゼントによりボスに勝利」という情報が対応付けられている。これは、例えば、1
0Fというステージでのボス戦において、ユーザ「AAAAA」がマガジンを投入し、そ
の投入されたマガジンの銃弾でアバターオブジェクト610がボスに勝利したことを示し
ている。
【0177】
また、ユーザ「BBBBB」には、救急箱、3F、ザコ、「ゲームオーバー寸前で回復」
という情報が対応付けられている、これは、例えば、3Fというステージのザコ敵との戦
闘において、ユーザ「BBBBB」が救急箱を投入し、その結果、アバターオブジェクト
610の体力が0になる(ゲームオーバーになる)寸前で体力が回復したことを示してい
る。
【0178】
また、ユーザ「CCCCC」には、バリケード、5F、ザコ、「バリケードでゾンビを二
人足止め」という情報が対応付けられている。これは、例えば、5Fというステージのザ
コ敵との戦闘において、ユーザ「CCCCC」がバリケード(
図11における障害物オブ
ジェクト672)を投入し、その結果、二人のザコ敵の足止めに成功したことを示してい
る。
【0179】
図16の例では、各ユーザ3のユーザ名に対し、行った支援が1つ対応付けられているが
、支援を複数回行なったユーザ3のユーザ名には、複数回の支援それぞれのタグが対応付
けられる。ユーザリスト234において、該それぞれのタグは区別されていることが好ま
しい。これにより、ゲーム終了後に、配信端末400を用いてユーザリスト421を参照
するプレイヤが、各支援の内容を正確に把握できる。
【0180】
<動作指図データの配信>
(配信端末400における配信処理)
図17は、配信端末400で実行される配信処理の流れの一例を示すフローチャートであ
る。
図18は、配信端末400に表示される画面の一具体例を示す図である。
図19は、
配信端末に表示される画面の他の具体例を示す図である。
【0181】
ステップS61において、プロセッサ40は、操作受付部413として、ゲームに参加し
たユーザのリスト(ユーザリスト234)を表示するための第1操作を受け付ける。
図1
8(A)に示すダウンロード画面721は、ユーザリスト234をサーバ200からダウ
ンロードし、表示部452に表示させるための画面である。ダウンロード画面721は、
一例として、
図17に示す配信処理を実行するアプリケーションの起動操作を、配信端末
400に入力した直後に表示される画面である。
【0182】
ダウンロード画面721は、一例として、UI画像722および723を含む。UI画像
722は、ユーザリスト234をダウンロードするための操作、すなわち、上記第1操作
を受け付ける。第1操作は、例えば、UI画像722をタップする操作であってもよい。
UI画像723は、アプリケーションを終了するための操作を受け付ける。該操作は、例
えば、UI画像723をタップする操作であってもよい。
【0183】
UI画像722に対するタップ操作を受け付けると、ステップS62において、プロセッ
サ40は、通信制御部411として、ユーザリスト234をサーバ200から取得(受信
)する。ステップS63において、プロセッサ40は、表示制御部412として、ユーザ
リスト234を表示部452に表示させる。具体的には、プロセッサ40は、ユーザリス
ト234に基づいて生成されたユーザリスト画面を、表示部452に表示させる。ユーザ
リスト画面は、一例として、
図18(B)に示すユーザリスト画面731であってもよい
。ユーザリスト画面731は、ユーザリスト234における各レコードに対応するレコー
ド画像からなる。
図18(B)の例では、レコード画像として、レコード画像732A~
732Cを記載しているが、レコード画像の数は3つに限定されない。
図18(B)の例
において、ユーザリスト234におけるレコードの数が3より多い(すなわち、ゲームに
参加したユーザの人数が3人より多い)場合、プレイヤは、例えば画面をスクロールする
操作(例えば、ドラッグ操作やフリック操作)をタッチスクリーン45に入力することに
より、他のレコード画像を表示部452に表示させることができる。
【0184】
一例として、レコード画像732A~732Cは、それぞれ、ユーザ名733A~733
C、タグ情報734A~734C、および、アイコン735A~735Cを含む。以降、
レコード画像732A~732C、ユーザ名733A~733C、タグ情報734A~7
34C、および、アイコン735A~735Cについて、区別する必要が無い場合、それ
ぞれ、「レコード画像732」、「ユーザ名733」、「タグ情報734」、「アイコン
735」と記載する。
【0185】
ユーザ名733は、ユーザリスト234において、「ユーザ」のカラムに格納されている
、ゲームに参加した各ユーザを示す情報である。タグ情報734は、ユーザリスト234
において、ゲームに参加した各ユーザを示す情報のそれぞれに対応付けられているタグを
示す情報である。例えば、レコード画像732Aは、ユーザ名733Aとして、「AAA
AA」を含む。このため、レコード画像732Aは、タグ情報734Aとして、ユーザリ
スト234において「AAAAA」に対応付けられている、『マガジン、10F、ボス、
「マガジンのプレゼントによりボスに勝利」』を含む。アイコン735は、例えば、ユー
ザが事前に設定した画像である。
【0186】
なお、プロセッサ40は、受信したユーザリストを配信端末400に記憶してもよい(図
7のユーザリスト421)。ダウンロード画面721は、ユーザリスト421を表示部4
52に表示するためのUI画像(不図示)を含んでいてもよい。この例において、該UI
画像がタップされた場合、プロセッサ40は、ユーザリスト234のダウンロードを行わ
ず、ユーザリスト421を読み出し、該ユーザリスト421からユーザリスト画面を生成
し、表示部452に表示させる。
【0187】
ステップS64において、プロセッサ40は、操作受付部413として、ユーザリスト画
面731に含まれるユーザの何れかを選択するための第2操作を受け付ける。第2操作は
、一例として、ユーザリスト画面731におけるレコード画像732の何れかをタップす
る操作であってもよい。
図18(B)の例では、プレイヤは、レコード画像732Aへの
タップ操作を入力している。すなわち、プレイヤは、動作指図データを配信するユーザと
してユーザ「AAAAA」を選択している。
【0188】
レコード画像732に対するタップ操作を受け付けると、ステップS65において、プロ
セッサ40は、表示制御部412として、モーションリスト422を表示部452に表示
させる。具体的には、プロセッサ40は、モーションリスト422に基づいて生成された
モーションリスト画面を、表示部452に表示させる。モーションリスト画面は、一例と
して、
図19に示すモーションリスト画面741であってもよい。モーションリスト画面
741は、モーションリスト422における各レコードに対応するレコード画像からなる
。
図19の例では、レコード画像として、レコード画像742A~742Cを記載してい
るが、レコード画像の数は3つに限定されない。
図19の例において、モーションリスト
422におけるレコードの数が4より多い場合、プレイヤは、例えば画面をスクロールす
る操作(例えば、ドラッグ操作やフリック操作)をタッチスクリーン45に入力すること
により、他のレコード画像を表示部452に表示させることができる。
【0189】
一例として、レコード画像742A~742Cは、それぞれ、モーション名743A~7
43C、モーション画像744A~744C、および、UI画像745A~745Cを含
む。以降、レコード画像742A~742C、モーション名743A~743C、モーシ
ョン画像744A~744C、および、UI画像745A~745Cについて、区別する
必要が無い場合、それぞれ、「レコード画像7432」、「モーション名743」、「
モーション画像744」、「UI画像745」と記載する。
【0190】
モーション名743は、モーションリスト422に格納されているモーションを識別する
情報である。モーション画像744は、モーションリスト422において、各モーション
名に対応付けられているモーションデータから生成される画像である。プロセッサ40は
、一例として、各モーションデータにおける最初の姿勢をとるアバターオブジェクト61
0の画像を、モーション画像744とてレコード画像742に含める。モーション画像7
44は、プレイヤによる所定の操作(例えば、モーション画像744に対するタップ操作
)を受け付けるUI画像であってもよい。プロセッサ40は、該所定の操作を受け付けた
場合、モーションデータに基づいてアバターオブジェクト610が動作するモーション動
画を再生してもよい。プロセッサ40は、モーション動画が終了すると、自動的にモーシ
ョンリスト画面741を再表示してもよい。
【0191】
なお、レコード画像742は、モーション画像744に代えて、例えば、「モーション再
生」とのテキストを含むUI画像を含んでもよい。
【0192】
ステップS66において、プロセッサ40は、操作受付部413として、モーションを選
択する第3操作を受け付ける。第3操作は、一例として、UI画像745へのタップ操作
であってもよい。つまり、UI画像745は、各レコード画像742に対応するモーショ
ンデータを選択する操作を受け付ける。第3操作を受け付けたことにより、プロセッサ4
0は、モーション特定部415として、プレイヤが選択したモーションデータを特定する
。
【0193】
ステップS67において、プロセッサ40は、表示制御部412および音声受付部414
として、アバターオブジェクト610が、選択されたモーションデータに基づき動作する
モーション動画を再生しながら、プレイヤの音声入力を受け付ける。
【0194】
図20は、プレイヤ4による音声入力の一具体例を示す図である。
図20に示すように、
プレイヤ4は、モーション動画810Aを再生しながら、発話音声820Aを入力してい
る。この発話音声820Aは、ユーザ名が「AAAAA」であるユーザ3(以下、ユーザ
3A)宛の発話音声である。つまり、
図20の例において、プレイヤ4は、ステップS6
4にて、ユーザ3A(第1ユーザ)を選択し、該ユーザ3A宛の動作指図データを作成し
ている。なお、ユーザ3Aが使用するユーザ端末100は、ユーザ端末100Aであると
する。
【0195】
発話音声820Aは、ユーザ3A宛の発話音声であるため、該ユーザ3Aがアバターオブ
ジェクト610(換言すれば、プレイヤ4)に対して行った支援の内容に基づく発話音声
となっている。具体的には、ユーザ3Aは、10Fというステージでのボス戦において、
マガジンを投入し、その投入されたマガジンの銃弾でアバターオブジェクト610がボス
に勝利している。このため、発話音声820Aは、「ボス戦でマガジンをプレゼントして
くれてありがとう!タイミングも完璧だったね!AAAAAさんのおかげでクリアできた
よ!」という内容である。このように、発話音声は、ユーザ3がゲームにおいて行った支
援の内容と、ユーザ3への感謝とを含むものであることが好ましい。
【0196】
ある局面において、プレイヤ4は、音声入力を開始する前、すなわち、第3操作を配信端
末400へ入力する前に、ユーザ3宛の発話内容を作成する。別の局面において、ユーザ
3宛の発話内容は、プロセッサ40が自動生成してもよい。また、プロセッサ40は、第
2操作によって選択されたユーザ3に対応付けられたタグを、モーション動画810Aに
重畳して表示させてもよい。
【0197】
プロセッサ40は、受け付けた音声を音声データに変換する。ステップS68において、
プロセッサ40は、動作指図データ生成部416として、該音声データと、選択されたモ
ーションのモーションデータとを含む動作指図データを生成する。
【0198】
ステップS69において、プロセッサ40は、通信制御部411として、生成した動作指
図データを選択されたユーザ3(
図20の例ではユーザ3A)のユーザ端末100(第1
コンピュータ)に配信する。
図21は、配信端末400に表示される画面のさらなる別の
具体例を示す図である。プロセッサ40は、ステップS68の実行後、表示制御部412
として、配信画面を表示部452に表示させる。配信画面は、一例として、
図21(A)
に示す配信画面751であってもよい。配信画面751は、UI画像752、および、モ
ーション画像753Aを含む。また、配信画面751は、
図21(A)に示すように、動
作指図データの配信先のユーザを示す情報を含むものであってもよい。
【0199】
UI画像752は、動作指図データを選択されたユーザ3へ配信するための操作を受け付
ける。該操作は、例えば、UI画像752へのタップ操作であってもよい。モーション画
像753Aは、生成した動作指図データに基づく動画、すなわち、ユーザ3A用に生成し
た動作指図データに基づく動画を再生するための操作を受け付けるUI画像である。該操
作は、例えば、モーション画像753Aへのタップ操作であってもよい。なお、生成した
動画を再生するための操作を受け付けるUI画像は、モーション画像753Aに限定され
ない。例えば、「動画再生」とのテキストを含むUI画像であってもよい。プロセッサ4
0は、動画が終了すると、自動的に配信画面751を再表示してもよい。
【0200】
配信画面751は、音声入力の受け付けに戻るための操作を受け付けるUI画像をさらに
含むことが好ましい。該操作は、例えば、該UI画像へのタップ操作であってもよい。配
信画面751が該UI画像を含むことにより、プレイヤ4は、例えば、発話する内容を間
違えた場合など、音声入力に失敗した場合に、再度音声入力を行うことができる。なお、
該UI画像は、モーションデータの選択に戻るための操作を受け付けるUI画像であって
もよい。
【0201】
UI画像752に対するタップ操作を受け付けると、プロセッサ40は、ユーザ3Aを示
す情報とともに、動作指図データをサーバ200へ送信する。サーバ200は、ユーザ3
Aを示す情報に基づいて、動作指図データの送信先のユーザ端末100を特定し、該動作
指図データを特定したユーザ端末100(すなわち、ユーザ端末100A)へ送信する。
【0202】
プロセッサ40は、動作指図データの送信が終了した場合、一例として、
図21(B)に
示す配信完了画面761を表示部452に表示させてもよい。配信完了画面761は、一
例として、UI画像762および763を含む。また、配信完了画面761は、
図21(
B)に示すように、動作指図データの送信が完了したことを示すテキストを含むものであ
ってもよい。
【0203】
UI画像762は、別のユーザ3宛の動作指図データの作成を開始するための操作を受け
付ける。該操作は、例えば、UI画像762をタップする操作であってもよい。プロセッ
サ40は、該タップ操作を受け付けると、ユーザリスト画面を、表示部452に再度表示
させる。すなわち、該タップ操作を受け付けた場合、配信処理は、ステップS63に戻る
。このとき、プロセッサ40は、配信端末400に記憶したユーザリスト421に基づい
て、ユーザリスト画面を生成し、表示部452に表示させてもよい。UI画像763は、
アプリケーションを終了するための操作を受け付ける。該操作は、例えば、UI画像76
3をタップする操作であってもよい。該操作を受け付けると、配信処理は終了する。
【0204】
図20、
図21を参照して説明した例では、
図21(C)に示すように、配信端末400
は、ユーザ3A(ユーザ名が「AAAAA」のユーザ3)宛の動画の動作指図データを、
ユーザ端末100Aのみに送信する。
【0205】
図22は、プレイヤ4による音声入力の他の具体例を示す図である。
図22に示すように
、プレイヤ4は、モーション動画810Bを再生しながら、発話音声820Bを入力して
いる。この発話音声820Bは、ユーザ名が「BBBBB」であるユーザ3(以下、ユー
ザ3B)宛の発話音声である。つまり、
図22の例において、プレイヤ4は、ステップS
64にて、ユーザ3Bに対応するレコード画像732Bへのタップ操作を入力し、ユーザ
3B宛の動作指図データを作成している。なお、ユーザ3Bが使用するユーザ端末100
は、ユーザ端末100Bであるとする。
【0206】
発話音声820Bは、ユーザ3B宛の発話音声であるため、該ユーザ3Bがアバターオブ
ジェクト610(換言すれば、プレイヤ4)に対して行った支援の内容に基づく発話音声
となっている。具体的には、ユーザ3Bは、3Fというステージのザコ敵との戦闘におい
て、ユーザ「BBBBB」が救急箱を投入し、その結果、アバターオブジェクト610の
体力が0になる(ゲームオーバーになる)寸前で体力が回復している。このため、発話音
声820Bは、「BBBBBさんがプレゼントしてくれた救急箱のおかげで、3Fでゲー
ムオーバーにならずにすんだよ。本当にありがとう!」という内容である。
【0207】
図23は、配信端末400に表示される画面のさらなる別の具体例を示す図である。
図2
3(A)に示す配信画面751は、UI画像752、および、モーション画像753Bを
含む。モーション画像753Bは、タップ操作を受け付けると、ユーザ3B用に生成した
動作指図データに基づく動画を再生する。
【0208】
UI画像752に対するタップ操作を受け付けると、プロセッサ40は、ユーザ3Bを示
す情報とともに、動作指図データをサーバ200へ送信する。サーバ200は、ユーザ3
Bを示す情報に基づいて、動作指図データの送信先のユーザ端末100を特定し、該動作
指図データを特定したユーザ端末100(すなわち、ユーザ端末100B)へ送信する。
【0209】
図22、
図23を参照して説明した例では、
図23(C)に示すように、配信端末400
は、ユーザ3B(ユーザ名が「BBBBB」のユーザ3)宛の動画の動作指図データを、
ユーザ端末100Bのみに送信する。
【0210】
以上のように、動作指図データに含まれる音声データに基づく音声の内容は、ユーザ3が
直近のゲームへの参加において、プレイヤ4に対して行った支援の内容に基づくものとな
る。該支援の内容はユーザ3ごとに異なるため、音声の内容は、ユーザ3ごとに異なる内
容となる。つまり、ゲームの終了後、ゲームに参加したユーザ3の少なくとも一部のユー
ザ端末100には、それぞれ異なる内容の音声を含む動作指図データが送信される。
【0211】
また、
図22の例におけるアバターオブジェクト610のモーションは、
図20の例にお
けるモーションと異なる。つまり、プレイヤ4は、ユーザ3B宛の動作指図データ生成に
おいて、ユーザ3A宛の動作指図データ生成時と異なるモーションデータを選択している
。具体的には、プレイヤ4は、ステップS66において、レコード画像742Bに対応す
るモーションデータを選択する、UI画像745Bへのタップ操作を入力している。この
ように、プレイヤ4は、動作指図データに含まれるモーションデータを、ユーザ3毎に異
ならせることができる。
【0212】
そして、ユーザ3毎に異なる内容の音声データと、ユーザ3毎に選択されたモーションデ
ータとを含む、ユーザ3毎の動作指図データは、各ユーザ3のユーザ端末100のみに送
信される。換言すれば、ユーザ端末100毎にユニーク(一意)の動作指図データが、選
択されたユーザ3のユーザ端末100の各々に送信される。
【0213】
図24は、ゲームプレイ端末300からユーザ端末100へのゲーム進行情報の送信の概
要を示す図である。ユーザ端末100における動画再生のための動作指図データが、ユー
ザ端末100毎にユニークである一方、
図24に示すように、ゲーム実行中に、ゲームに
参加している全てのユーザ3のユーザ端末100に送信されるゲーム進行情報は、各ユー
ザ端末100の間で共通である。すなわち、ゲーム進行情報に含まれる動作指図データも
また、各ユーザ端末100の間で共通である。このように、動画再生のための動作指図デ
ータと、ゲームを進行させるための動作指図データとは、ユーザ端末100間での同異、
および、送信先といった観点で異なるデータであると言える。
【0214】
(ユーザ端末100における動画再生処理)
図25は、ユーザ端末100で実行される動画再生処理の流れの一例を示すフローチャー
トである。
【0215】
ステップS71において、プロセッサ10は、動画再生部117として、動作指図データ
を受信する。ステップS72において、プロセッサ10は、動画再生部117として、動
作指図データの受信をユーザ3へ通知する。プロセッサ10は、一例として、通知画像の
表示部152への表示、スピーカ(不図示)からの通知音声の再生、LED(light-emit
ting diode)などで構成される点灯部(不図示)の点灯または点滅の少なくともいずれか
により、動作指図データの受信をユーザ3へ通知する。
【0216】
ステップS73において、プロセッサ10は、操作受付部111として、動画を再生する
ための第1再生操作を受け付ける。第1再生操作は、一例として、通知画像をタップする
操作であってもよい。ステップS74において、プロセッサ10は、動画再生部117と
して、動作指図データをレンダリングし、動画を再生する。プロセッサ10は、一例とし
て、本ゲームをプレイするためのアプリケーションを起動し、動画を再生してもよいし、
該アプリケーションとは別の、動画再生用のアプリケーションを起動し、動画を再生して
もよい。以降、該動画を、「ありがとう動画」と記載する。
【0217】
図26は、ありがとう動画の再生の一具体例を示す図である。具体的には、ユーザ3Aの
ユーザ端末100における、ありがとう動画の再生の一例を示す図である。該ユーザ端末
100において再生されたありがとう動画910Aにおいて、アバターオブジェクト61
0は、或るモーションを実行しながら、音声920Aを発話している。換言すれば、プロ
セッサ10は、或るモーションを実行するアバターオブジェクト610を含むありがとう
動画910Aを再生しながら、音声920Aをスピーカ(不図示)から出力させている。
【0218】
ありがとう動画910Aにおけるモーションは、ユーザ3A宛の動作指図データの生成に
おいて、プレイヤ4が選択したモーションデータに基づくものであり、音声920Aは、
該動作指図データの生成において、プレイヤ4が入力した発話音声820Aから生成され
た音声データに基づくものである。つまり、音声920Aは、ユーザ3Aがゲームにおい
て行った支援の内容と、該支援に対する感謝とを含む音声である。このように、ユーザ3
Aは、第1再生操作の入力により、自身がゲームにおいて行った支援の内容と、該支援に
対する感謝とを、アバターオブジェクト610が発話するありがとう動画を視聴すること
ができる。
【0219】
ユーザ端末100は、一例として、ありがとう動画910Aの再生が終了した後、少なく
とも1つのUI画像をタッチスクリーン15に表示させてもよい。該UI画像は、例えば
、ありがとう動画910Aをもう一度再生するための操作を受け付けるUI画像であって
もよいし、別の画面に遷移するための操作を受け付けるUI画像であってもよいし、アプ
リケーションを終了するための操作を受け付けるUI画像であってもよい。
【0220】
また、ユーザ端末100は、一例として、ありがとう動画910Aの再生中に、少なくと
も1つのUI画像をタッチスクリーン15に表示させてもよい。該UI画像は、例えば、
再生中のありがとう動画910Aを一時的に停止させたり、終了させたり、再生する場面
を変更させたりする操作をそれぞれ受け付ける、複数のUI画像であってもよい。
【0221】
なお、ありがとう動画910Aの再生中、および、ありがとう動画910Aの再生が狩猟
した後に表示されるこれらのUI画像には、アバターオブジェクト610に対する返答を
行うためのUI画像は含まれない。すなわち、本実施形態に係るありがとう動画910A
においては、アバターオブジェクト610に対する返答を行うための手段が備えられてい
ない。
【0222】
図27は、ありがとう動画の再生の他の具体例を示す図である。具体的には、ユーザ3B
のユーザ端末100における、ありがとう動画の再生の例を示す図である。該ユーザ端末
100において再生されたありがとう動画910Bにおいて、アバターオブジェクト61
0は、或るモーションを実行しながら、音声920Bを発話している。換言すれば、プロ
セッサ10は、或るモーションを実行するアバターオブジェクト610を含むありがとう
動画910Bを再生しながら、音声920Bをスピーカ(不図示)から出力させている。
【0223】
ありがとう動画910Bにおけるモーションは、ユーザ3B宛の動作指図データの生成に
おいて、プレイヤ4が選択したモーションデータに基づくものであり、音声920Bは、
該動作指図データの生成において、プレイヤ4が入力した発話音声820Bから生成され
た音声データに基づくものである。このため、
図27の例において、アバターオブジェク
ト610が行っているモーションは、
図26の例のモーションとは異なる。また、音声9
20Bは、ユーザ3Bがゲームにおいて行った支援の内容と、該支援に対する感謝とを含
む音声である。このため、
図27の例において、音声920Bの内容は、
図26の例にお
ける音声920Aの内容とは異なる。
【0224】
このように、ゲームの終了後に、ゲームに参加したユーザ3の少なくとも一部のユーザ端
末100が受信するありがとう動画は、ユーザ3毎にアバターオブジェクト610の発話
内容が異なる動画である。
【0225】
なお、プロセッサ10は、次回のゲームへの参加を促す内容を含むUI画像930を、動
画910に重畳させて表示させてもよい。UI画像930は、動作指図データとともに配
信されてもよいし、ゲーム情報132として、ユーザ端末100が記憶していてもよい。
【0226】
本ゲームでは、ゲームプレイ端末300は、配信コンテンツであるゲーム進行情報をサー
バ200を介して複数のユーザ端末100に配信する。当該複数のユーザ端末100の各
々は、当該ゲーム進行情報に基づいて配信コンテンツをタッチスクリーン15に表示する
。具体的には、ユーザ端末100のメモリ11には、アバターオブジェクト610を含む
オブジェクトを表示するための複数種類のオブジェクトデータが予め記憶されている。ユ
ーザ端末100は、ゲームプレイ端末300からゲーム進行情報を受信したとき、当該ゲ
ーム進行情報から動作指図データを特定し、当該動作指図データを解析(レンダリング)
することにより、オブジェクトの種類・位置・姿勢等を特定する。また、ユーザ端末10
0は、当該解析結果に基づき、メモリ11に記憶されているオブジェクトデータを用いて
、アバターオブジェクト610を含むオブジェクトを仮想空間600Bに配置する。タッ
チスクリーン15には、現在の仮想カメラ620Bの位置および向きに応じた視界領域6
40Bの視界画像660が表示される。なお、アバターオブジェクト610を含むオブジ
ェクトは、ゲームプレイ端末300により規定された仮想空間600Aにも配置され、当
該オブジェクトの位置・姿勢等は、仮想空間600Aおよび600Bの間で一致する。
【0227】
配信コンテンツには、アバターオブジェクト610として表示されるキャラクタが異なる
複数種類のコンテンツが設けられている。複数種類のコンテンツには、例えば、1回ある
いは不定期に配信される第1配信コンテンツや、毎日あるいは所定曜日の所定時間におい
て定期的に配信される第2配信コンテンツなどが含まれる。
【0228】
第1配信コンテンツおよび第2配信コンテンツは、それぞれ、例えば主役あるいは進行役
として登場するキャラクタや、内容・進行具合い・その他に登場するキャラクタ、コンテ
ンツ中に行われるゲームの種類等が異なる複数種類のコンテンツが設けられている。また
、第2配信コンテンツは、毎回、種類に応じた同じキャラクタ(例えば、コンテンツaに
応じてキャラクタa)が登場するとともにキャラクタ背景(例えば花輪オブジェクト等)
が表示されるものの、同じ種類のコンテンツ(例えば、コンテンツa)であっても毎回内
容等が異なる。
【0229】
アバターオブジェクト610として表示されるキャラクタには、キャラクタの種類毎に、
衣服やアクセサリー等の装飾オブジェクト(テクスチャ画像)が関連付けられている。以
下では、当該装飾オブジェクトの表示態様を特定する具体的な手法を例示する。
【0230】
配信コンテンツには、アバターオブジェクト610として第1のキャラクタが仮想空間6
00Bに登場する第1キャラクタコンテンツや、アバターオブジェクト610として第2
のキャラクタが仮想空間600Bに登場する第2キャラクタコンテンツなどが含まれる。
第1キャラクタコンテンツを配信する場合、動作指図データは、第1のキャラクタを含む
オブジェクトが配置された仮想空間600Bの映像を表示可能にするためのデータ(第1
の表示用データ)である。一方、第2キャラクタコンテンツを配信する場合、動作指図デ
ータは、第2のキャラクタを含むオブジェクトが配置された仮想空間600Bの映像を表
示可能にするためのデータ(第2の表示用データ)である。
【0231】
第1のキャラクタおよび第2のキャラクタのいずれにおいても、上半身や、下半身、手、
足、首元、耳たぶ、目元等の各部位には、衣服やアクセサリー(ネックレス、イヤリング
、眼鏡等)に相当する装飾オブジェクトが予め関連付けられている。関連付ける装飾オブ
ジェクトの種類や部位は、キャラクタの種類に応じて異なるように定められている。
【0232】
本実施形態では、第1のキャラクタには、シャツに相当する第1のオブジェクトと、当該
第1のオブジェクト(シャツ)の上に羽織ることで当該第1のオブジェクトの一部を覆う
第3のオブジェクト(ブラウス)とを含む装飾オブジェクトが関連付けられている。一方
、第2のキャラクタには、第1のオブジェクトと同種の第2のオブジェクト(デザイン等
が異なるシャツ)を含む装飾オブジェクトが関連付けられている。
【0233】
ここで、第1のキャラクタに関連付けられている第1のオブジェクトの表示態様について
は、配信開始時などの配信毎に、ゲームプレイ端末300側において所定のルール(例え
ば乱数抽選)にしたがって決定される。ゲームプレイ端末300は、当該表示態様を特定
可能な表示態様情報を含むゲーム進行情報をユーザ端末100に対して配信し、ユーザ端
末100は、当該表示態様情報に基づいて第1のオブジェクトの表示態様を特定して設定
する。一方、第1のキャラクタに関連付けられている第1のオブジェクト以外の装飾オブ
ジェクトの表示態様は、第3のオブジェクトの表示態様も含めて、予め固定されている。
ユーザ端末100は、第1のオブジェクト以外の装飾オブジェクトの表示態様を固定の表
示態様に設定する。他方、第2のキャラクタに関連付けられている装飾オブジェクトの表
示態様は、第1のオブジェクトと同種の第2のオブジェクトの表示態様も含めて、予め固
定されている。ユーザ端末100は、当該装飾オブジェクトの表示態様を固定の表示態様
に設定する。
【0234】
このため、第1のキャラクタに関連付けられている装飾オブジェクトのうち第1のオブジ
ェクトの表示態様は、配信毎に変更される。ここで、表示態様の変更は、テクスチャ画像
を変更することを含み、第1のオブジェクトのテクスチャ画像が、配信毎に変更される。
一方、第1のキャラクタに関連付けられている第1のオブジェクト以外の装飾オブジェク
トと、第2のキャラクタに関連付けられている装飾オブジェクトとについては、表示態様
は、配信の回数目(配信期間)にかかわらず固定される。
【0235】
表示態様とは、装飾オブジェクトを表示部152に表示する際の態様である。本実施形態
では、第1のオブジェクト(シャツ)について決定する表示態様が当該第1のオブジェク
トの表示色(即ち、シャツの色)である例を示す。このため、第1のキャラクタに関連付
けられているシャツ、ブラウス等の装飾オブジェクトのうち、シャツの色が、複数色(白
、黒、赤、緑、青、紫等)のうちから特定される。
【0236】
本実施形態において、定期的に配信される第2配信コンテンツには、例えば、第1のオブ
ジェクトの表示態様が毎回変更される第1のキャラクタが登場する第1キャラクタコンテ
ンツが含まれる。また、本実施形態では、第1のキャラクタとして、例えば、オフィスレ
ディーの様相を呈するキャラクタを例示する。ただし、第1のキャラクタはこれに限るも
のではなく、例えばキャラクタに設定されている年齢が所定年齢(18歳)未満となるキ
ャラクタ(例えば高校生キャラクタ)や、応援団の様相を呈するキャラクタ、女子大学生
の様相を呈するキャラクタなどであってもよい。
【0237】
コンテンツは、予め定められている配信期間にゲームプレイ端末300から配信される。
コンテンツの配信を開始する際、ゲームプレイ端末300のプロセッサ30は、
図28(
A)に示す表示態様制御処理を実行する。また、ユーザ端末100側におけるコンテンツ
の視聴は、予め定められているコンテンツアイコンに対するユーザからのタッチ操作など
により開始される。タッチ操作によりコンテンツの視聴を開始する際、ユーザ端末100
側のプロセッサ10は、
図28(B)に示す表示態様設定処理を実行する。
【0238】
図28(A)を参照して、ゲームプレイ端末300は、ステップS81において、現在の
タイミングがコンテンツ毎に予め定められているコンテンツ配信の開始タイミングと一致
するか否かを、メモリ31に記憶されている配信スケジュールに基づいて判定する。即ち
、メモリ31には、コンテンツを配信する時間帯や、当該コンテンツの種類(登場するキ
ャラクタ、すなわち第1キャラクタコンテンツであるか、第2キャラクタコンテンツであ
るかなど)などの情報が、配信スケジュールとして記憶されている。ステップS81では
、当該配信スケジュールに基づいて一致するか否かを判定する。
【0239】
当該開始タイミングと一致すると判定されたときは、ステップS82に進む。ステップS
82では、今回配信するコンテンツが第1キャラクタコンテンツであるか否かを、当該配
信スケジュールに基づいて判定する。当該第1キャラクタコンテンツであると判定された
ときは、ステップS83に進む。
【0240】
ステップS83では、今回の配信期間において第1のキャラクタに関連付けられる装飾オ
ブジェクトのうち第1のオブジェクトの表示態様(即ち、シャツの色)を、複数種類の表
示態様(白、黒、赤、緑、青、紫等)のうちから乱数抽選により(ランダムで)決定する
。より具体的に、第1キャラクタコンテンツは、前述したとおり、定期的に配信される第
2配信コンテンツであり、ステップS83においては、第1キャラクタコンテンツの前回
配信時に決定された前回配信時における表示態様とは異なる表示態様を、乱数抽選により
決定する。これにより、第1のオブジェクトの表示態様(即ち、シャツの色)は、前回配
信時と異なる表示態様に変更される。
【0241】
ステップS84では、ゲーム進行情報に含まれる情報として、ステップS83で決定され
た表示態様を特定可能な表示態様情報(第1のデータ)を設定する。第1キャラクタコン
テンツが配信される場合には、演者のモーション等に応じた情報であってステップS83
の決定に応じた表示態様情報を含むゲーム進行情報が所定時間(例えば1/60秒)毎に
配信される。
【0242】
ステップS84の処理が完了したとき、ステップS81において現在のタイミングがコン
テンツ配信の開始タイミングと一致すると判定されなかったとき、またはステップS82
において今回配信するコンテンツが第1キャラクタコンテンツであると判定されなかった
ときは、リターンする。第1キャラクタコンテンツ以外のコンテンツが配信される場合に
は、演者のモーション等に応じたゲーム進行情報が所定時間(例えば1/60秒)毎に配
信される。
【0243】
図28(B)を参照して、ユーザ端末100は、ステップS91において、コンテンツの
視聴開始操作が行われたか否かを、タッチスクリーン15に対する入力操作に基づいて判
定する。当該視聴開始操作が行われたと判定されなかったときはリターンし、当該視聴開
始操作が行われたと判定されたときはステップS92に進む。ステップS92では、ゲー
ムプレイ端末300から受信したゲーム進行情報が表示態様情報を含んでいるか否かを、
当該ゲーム進行情報を解析することにより判定する。
【0244】
当該表示態様情報を含んでいると判定されると、ステップS93に進み、今回の配信期間
における第1のオブジェクトの表示態様を当該表示態様情報に基づいて設定する。即ち、
今回の配信期間における装飾オブジェクトの表示態様のうち、第1のオブジェクトの表示
態様(即ち、シャツの色)を、当該表示態様情報により特定された表示態様(白、黒、赤
、緑、青、紫等のうちのいずれか)に設定する。ステップS93の処理が完了したとき、
またはステップS92において表示態様情報を含むゲーム進行情報を受信したと判定され
なかったときは、ステップS94に進む。
【0245】
ステップS94では、第1のキャラクタに関連付けられている装飾オブジェクトのうち第
1のオブジェクト以外のオブジェクトの表示態様として、固定の表示態様を設定する。ま
た、第1のキャラクタ以外のキャラクタが登場するコンテンツを視聴する場合、ステップ
S94では、第1のキャラクタとは異なるキャラクタ(例えば第2のキャラクタなど)に
関連付けられている装飾オブジェクト(シャツを含む)の表示態様として、固定の表示態
様を設定する。即ち、第1キャラクタコンテンツが配信される場合には、第1のキャラク
タに関連付けられている装飾オブジェクトのうち第1のオブジェクト(シャツ)以外の装
飾オブジェクト(ブラウス、ズボン、靴等)を、固定の表示態様(固定の色)に設定する
。一方、第1キャラクタコンテンツとは異なるコンテンツ(例えば第2キャラクタコンテ
ンツ)が配信される場合には、第1のキャラクタとは異なるキャラクタ(例えば第2のキ
ャラクタなど)に関連付けられている衣装オブジェクトの全てを、固定の表示態様に設定
する。
【0246】
ステップS93およびS94の処理により、仮想空間600B内において動作させるアバ
ターオブジェクト610のモデルデータが生成される。コンテンツ視聴中においては、当
該モデルデータに基づくアバターオブジェクト610が、ゲームプレイ端末300から配
信されたゲーム進行情報に含まれる動作指図データに基づいて動作する。ステップS94
の処理が完了すると、リターンする。
【0247】
図29は、第1キャラクタコンテンツの視聴中における第1のキャラクタを含むオブジェ
クトの表示例を示す。
図29においては、第1のキャラクタの背後に、花輪を想起させる
花輪オブジェクトが配置されている。第1のキャラクタは、動作指図データに基づいて動
作する。
【0248】
第1のキャラクタに関連付けられる装飾オブジェクトとしては、上半身に着用するシャツ
、当該シャツの上に羽織ったブラウス、下半身着用するズボン、足に着用する靴などが定
められている。また、第1のオブジェクトであるシャツ以外の装飾オブジェクトについて
は、表示態様としての色が一律に定められている。例えば、ブラウスおよび靴については
白色が定められており、ズボンについてはグレー色が定められている。
【0249】
一方、第1のオブジェクトであるシャツについては、
図28のステップS83で示したと
おり、コンテンツ配信毎に前回配信時とは異なる色が設定される。当該シャツの表示態様
として、第1キャラクタコンテンツを対象とするN回目のライブ配信においては、
図29
(A)に示すように白色が設定されている。また、第1キャラクタコンテンツを対象とす
るN+1回目のライブ配信においては、
図29(B)に示すようにグレー色が設定され、
第1キャラクタコンテンツを対象とするN+2回目のライブ配信においては、
図29(C
)に示すように青色(図中の縞模様は青色であることを示す)が設定されている。このよ
うに、第1キャラクタコンテンツについては、同じ第1のキャラクタが、コンテンツ配信
毎に異なる色のシャツを着用して登場する。
【0250】
<本実施形態の効果>
本実施形態によれば、演者の動作に連動して動く第1のキャラクタを含む仮想空間600
Bの映像は、ゲームプレイ端末300から配信された動作指図データ(第1の表示用デー
タ)に基づいて表示される。ここで、第1のキャラクタには、予め定められた第1のオブ
ジェクト(シャツ)が関連付けられており、第1のオブジェクトの表示態様(シャツの色
)は、所定のルールで変更される。これにより、第1のオブジェクトの表示態様を自発的
に変化させることができ、その結果、第1のキャラクタの実在感をユーザに抱かせること
ができる。
【0251】
また、本実施形態によれば、演者の動作に連動して動く第2のキャラクタを含む仮想空間
600Bの映像は、ゲームプレイ端末300から配信された動作指図データ(第2の表示
用データ)に基づいて表示される。ここで、第2のキャラクタには、第1のオブジェクト
と同種の第2のオブジェクト(シャツ)が関連付けられており、第2のオブジェクトの表
示態様(シャツの色)は、固定されている。これにより、第1のキャラクタの実在感を際
立たせることができる。
【0252】
さらに、本実施形態によれば、第1のオブジェクトの表示態様は、配信期間毎に、前回の
配信期間における表示態様とは異なる表示態様に変更される。これにより、配信毎に第1
のオブジェクトの表示態様を意図的に変化させているといった印象とともに、今回の配信
期間においてはどのような表示態様で登場するのかといった面白みをユーザに提供でき、
当該配信の視聴率を向上させることができる。
【0253】
また、本実施形態によれば、第1の表示用データは、ゲームプレイ端末300から配信さ
れるデータであって、演者の入力したモーションに対応するモーションデータを含む。仮
想空間600B内で第1のキャラクタが動作する映像は、当該モーションデータに基づい
て当該仮想空間600B内において第1のキャラクタをリアルタイムに動作させることに
より表示される。これにより、配信されるデータ量を抑制することが可能となる。
【0254】
さらに、本実施形態によれば、所定のルールで変更された第1のオブジェクトの表示態様
は、ゲームプレイ端末300から配信される表示態様情報(第1のデータ)により特定さ
れる。第1のオブジェクトの表示態様は、当該第1のデータに基づいて設定される。これ
により、複数のユーザ端末100における第1のオブジェクトの表示態様をゲームプレイ
端末300側で一律に制御することができる。
【0255】
また、本実施形態によれば、第1のキャラクタには、予め定められた第3のオブジェクト
(ブラウス)が関連付けられている。当該第3のオブジェクトは、第1のオブジェクトの
少なくとも一部を覆うオブジェクトである。これにより、第1のオブジェクトが表示され
る具合を、第3のオブジェクトにより制御することが可能となる。
【0256】
<変形例>
以上説明した実施形態の変形例などを以下に列挙する。
【0257】
(1)上記実施形態においては、仮想空間600Aと同じ仮想空間600B内においてア
バターオブジェクト610等を動作させ、仮想空間600Bに配置されている仮想カメラ
620Bであってユーザ端末100のタッチスクリーン15に対するスワイプ操作に応じ
て変化する仮想カメラ620Bの位置、向き、および傾きに応じた視界領域640Bの視
界画像660をユーザ端末100のタッチスクリーン15に表示する通常視聴モードにつ
いて説明した。
【0258】
しかし、アバターオブジェクト610等を動作させる空間は、仮想空間に限らず、現実空
間であってもよい。現実空間としては、例えば、カメラ(撮像部)17により撮影されて
取得した取得画像により特定される空間であってもよい。具体的には、例えばAR視聴モ
ードに切り替えられると、ユーザ端末100においては、カメラ17により撮影されて取
得した取得画像を解析することにより、床面等の平面部が特定され、例えばアバターオブ
ジェクト610が少なくとも配置されているAR用仮想空間が当該平面部の所定位置(例
えば平面部の中心位置)に配置される。また、この場合における仮想カメラ620Bは、
取得画像を撮影したときのカメラ17の撮影方向と同じ方向からAR用仮想空間を捉える
位置に配置される。この結果、カメラ17からの取得画像に対して仮想カメラ620Bか
らの視界画像を重畳させてなる拡張現実空間内の画像が表示部152に表示される。さら
に、ユーザ端末100は、カメラ17の実際の位置、向き、傾き等を検出し、当該位置、
向き、傾き等に応じて仮想カメラ620Bの位置、向き、傾き等を変更する。これにより
、取得画像は、カメラ17の位置、向き、傾き等の変更に応じて変化させることができる
。
【0259】
AR視聴モードが選択されているユーザ端末100においては、カメラ17から取得した
取得画像に対してアバターオブジェクト610を含むオブジェクトを配置させてなる拡張
現実空間内において、アバターオブジェクト610等が動作する。これにより、ユーザの
目の前の現実空間においてアバターオブジェクト610等が実際に動作しているかのよう
な印象(臨場感)をユーザに抱かせることができる。
【0260】
図30は、帽子を着用した女性を模したキャラクタ(以下、第1’のキャラクタと称する
)が仮想空間600Bに登場する例を示す。第1’のキャラクタには、当該第1’のキャ
ラクタが全身に羽織るワンピース、頭部に被る帽子、耳に付けるピアスなどの装飾オブジ
ェクトが関連付けられている。
図30では、第1’のキャラクタに関連付けられている装
飾オブジェクトのうちのピアスが、第1のオブジェクトに相当する。このため、当該ピア
スの表示態様は、
図28のステップS83により、配信毎に異なる表示態様に設定される
。なお、定期的に配信される第2配信コンテンツには、例えば、第1のオブジェクトの表
示態様が毎回変更される第1’のキャラクタが登場するキャラクタコンテンツが含まれる
。
【0261】
まず、
図30(A)を参照して、通常視聴モードについて説明する。
図30(A-1)は
、第1’のキャラクタが正面を向いて右手の人差し指を前に掲げているときの表示例であ
る。
図30(A-2)は、第1’のキャラクタが右斜め前を向いて右手の人差し指で前方
を指しているときの表示例である。当該通常視聴モードでは、スワイプ操作に応じて仮想
カメラ620Bの位置、向き、および傾きが変更される。ただし、ピアスは第3のオブジ
ェクトに相当する帽子により覆われており、どのようにスワイプ操作を行ったとしても、
ピアスが見える位置(例えば、後述する
図30(B-3)や
図30(B-4)などを表示
可能とする位置)に仮想カメラ320Bを移動させることはできない。通常視聴モードで
は、
図30(A)に示すように、AR視聴モードに切り替えるためのARモード移行用ア
イコン182が通常表示される。通常視聴モードにおいて当該ARモード移行用アイコン
182に対するタッチ操作等が検出されることにより、AR視聴モードに切り替えること
ができる。
【0262】
図30(B)を参照して、AR視聴モードについて説明する。
図30(B-1)および図
30(B-2)は、各々、
図30(A-1)および
図30(A-2)と同じタイミングに
おけるAR視聴モード中の表示例を示している。当該AR視聴モードでは、カメラ17に
より撮影されて取得された取得画像に対して第1’のキャラクタが配置されている拡張現
実空間の画像のうち、仮想カメラ620Bからの画像が、表示部152に表示される。当
該第1’のキャラクタは、ゲームプレイ端末300から配信された動作指図データに基づ
いて動作する。また、仮想カメラ620Bの位置、向き、傾き等は、カメラ17の実際の
位置、向き、傾き等に応じて変更される。なお、AR視聴モードでは、ARモード移行用
アイコン182が強調態様で表示(
図30(B)では白黒反転表示)されることにより、
AR視聴モード中である旨が報知される。
【0263】
このため、第1’のキャラクタの左方の斜め下あたりから左耳を見上げるようにカメラ1
7の位置・向き等を調整すれば、ピアスが見える位置に仮想カメラ320Bが移動し、ピ
アスの画像が表示部152に表示される(
図30(B)の(B-3)参照)。即ち、ピア
スの表示態様は、AR視聴モードを選択し、カメラ17の位置・向き等を調整することに
より、確認することができる。これにより、AR視聴モードで視聴することに対するモチ
ベーションをユーザに持たせることができ、ひいては好趣を向上させることができる。な
お、第1’のキャラクタの足元から当該第1’のキャラクタの左半身を見上げるようにカ
メラ17の位置・向き等を調整すれば、
図30(B)の(B-4)に示すように、足を含
む左半身の画像が表示部152に表示される。
【0264】
このようにAR視聴モードにおいては、カメラ17の位置・向き等を調整することにより
、第1’のキャラクタに関連付けられる第1のオブジェクトであるピアスを表示可能な位
置(例えば、第1’のキャラクタの首元から見上げるような位置、第1’のキャラクタの
足元から見上げるような位置など)に仮想カメラ620Bを移動させることができる。そ
の結果、第1のオブジェクトであるピアスを表示させることができ、ユーザは当該ピアス
の表示態様を確認できる。一方、通常視聴モードにおいては、前述したように、どのよう
に操作を行ったとしても、第1’のキャラクタに関連付けられる第1のオブジェクトであ
るピアスを表示可能な位置(例えば、第1’のキャラクタの首元から見上げるような位置
、第1’のキャラクタの足元から見上げるような位置など)に仮想カメラ620Bを移動
させることができない。その結果、第1のオブジェクトであるピアスを表示させることが
できず、ユーザは当該ピアスの表示態様を確認できない。
【0265】
AR視聴モードでは、強調態様で表示されているARモード移行用アイコン182に対す
るタッチ操作等が検出されることにより通常視聴モードに切り替えることができる。なお
、AR視聴モードでは、ARモード移行用アイコン182を強調態様で表示するとともに
、ARモードリセット用アイコンを通常表示するようにし、当該ARモードリセット用ア
イコンへのタッチに応じてARモードをリセット(再起動)するようにしてもよい。AR
モードがリセットされると、床面等の平面部が再度特定され、当該平面部の所定位置にA
R用仮想空間600C内の視界画像が配置される。
【0266】
なお、AR視聴モードにおいて第1のオブジェクトが表示されている状態で、強調態様で
表示されているARモード移行用アイコン182へのタップ操作が行われた場合、仮想カ
メラ620Bの視点は、予め定められている視点(例えば仮想空間600Bを正面から捉
える視点)に戻されるか、あるいは通常モードにおいて仮想カメラ620Bが移動可能な
範囲内のうちの仮想カメラ620Bの移動量が最小となる視点に変更される。これにより
、モード切替前後における視点のズレを極力低減できる。また、AR視聴モードにおいて
第1のオブジェクトが表示されている状態(
図30(B-3)等)では、ARモード移行
用アイコン182を一時的に非表示とするようにしてもよい。
【0267】
また、AR視聴モードでは、カメラ17の位置、向き、および傾き等の変化に同期させて
仮想カメラ620Bが制御される。しかし、仮想カメラ620Bは、ユーザからの入力操
作(例えば、スワイプ操作、タッチ操作等)に応じて、位置、向き、および傾き等を制御
するようにしてもよい。これにより、ユーザからの入力操作に応じて、仮想カメラ620
Bの視界領域を変更でき、その結果、取得画像上に配置される視界画像を変更できる。具
体的には、スワイプ操作により、取得画像上に配置されるアバターオブジェクト等(例え
ば、アバターオブジェクト610のみ、アバターオブジェクト610およびその他のオブ
ジェクト、仮想空間全体)を回転させたり、移動させたりできる。これにより、例えば、
ユーザ端末100の位置や向き等を十分に調整できないような狭いスペースにおいて拡張
現実空間を生成してアバターオブジェクト610等を動作させているときであっても、タ
ッチスクリーン15に対する入力操作により当該アバターオブジェクト610等を回転・
移動させることが可能となる。
【0268】
さらに、視聴モードとしては、システム1の運営者側のスイッチャの操作に基づいて仮想
カメラ620Bの位置、向き、傾き等が変更されるTVモードを設け、ユーザの操作に応
じて当該TVモードに切替え可能とするようにしてもよい。ただし、当該TVモードにお
いては、第1のオブジェクトが見える位置に仮想カメラ320Bが移動させることができ
ず、即ち当該第1のオブジェクトを表示部152に表示することができない。
【0269】
(2)上記実施形態においては、リアルタイムレンダリング方式により、アバターオブジ
ェクト610が動作している映像を再生するようにしている。しかし、当該映像は動画配
信方式により再生するようにしてもよい。この場合、第1キャラクタコンテンツについて
は、所定のルールで表示態様が変更された第1のオブジェクトが、ゲームプレイ端末30
0において第1のキャラクタに関連付けられ、当該第1のキャラクタが仮想空間内におい
て動作する映像を含む動画データが、第1の表示用データとしてゲームプレイ端末300
から配信される。ユーザ端末100のタッチスクリーン15には、当該動画データに基づ
いて仮想空間内で第1のキャラクタが動作する映像が表示される。
【0270】
(3)上記実施形態におけるアバターオブジェクト610の衣装等の表示態様は、アバタ
ーオブジェクト610の種類に応じて一律に定められている。しかし、アバターオブジェ
クト610の衣装等の表示態様は、例えば、ゲームの進行度合い(例えば、ゲームで勝利
する毎、あるいはアイテムを投入する毎等)に応じてユーザ毎に異なり得るようにしても
よい。例えば、ゲームプレイ端末300側から送信されるゲーム進行情報が同じであって
も、アバターオブジェクト610の衣装を、ゲームの進行度合いに応じた衣装とするよう
にしてもよい。この場合、アバターオブジェクト610の衣装データは、各ユーザ端末1
00側において予め複数種類記憶されているようにしてもよい。なお、アバターオブジェ
クト610の表示態様を異ならせる対象は、衣装に限らず、髪型、肌の色、化粧の程度等
であってもよい。これにより、ゲーム進行情報を出力するゲームプレイ端末300側の処
理負担を増大させることなく、アバターオブジェクト610のバリエーションを増やすこ
とができるため、ユーザを惹きつけることが可能となる。
【0271】
これに替えてあるいは加えて、アバターオブジェクト610の表示態様は、ゲーム中にお
いてユーザによる課金に応じて、他のユーザのユーザ端末100において表示される表示
態様と異ならせることができるようにしてもよい。また、アバターオブジェクト610の
表示態様は、ゲームの結果に応じて更新されるユーザのランキングに応じて異なるように
してもよい。さらに、第1キャラクタコンテンツを受信できるユーザ端末100は、例え
ばゲーム中において課金額が多いユーザのユーザ端末100のように、一部のユーザ端末
100に制限するようにしてもよい。
【0272】
(4)上記実施形態においては、ステップS83の処理によって、第1のオブジェクト(
シャツ)の表示態様のうちの色を変更するようにしている。しかし、ステップS83にお
いては、色の替わりに、または色とともに、第1のオブジェクトの形状を変更するように
してもよい。例えば、シャツをVネックのものから丸首のものに変更したり、ピアスを星
形のものからリング状のものに変更するようにしてもよい。また、ステップS83におい
ては、色や形状・種類等を決定するものに替えてあるいは加えて、当該第1のオブジェク
ト自体の表示(例えば着用させる)・非表示(着用させない)を決定するようにしてもよ
い。
【0273】
(5)上記実施形態においては、第1のキャラクタに関連付けられている装飾オブジェク
トのうちのいずれかのオブジェクト(例えば、シャツ、ピアス)を第1のオブジェクトと
し、当該第1のオブジェクトの表示態様を変更するようにしている。しかし、第1のオブ
ジェクトは、第1のキャラクタに関連付けられているオブジェクトであれば、シャツやピ
アスに限らず、靴下、ズボン、髪留め、手袋、帽子、下着などのオブジェクトであっても
よい。また、装飾オブジェクトに限らず、例えば、第1のキャラクタ自身にかかわるオブ
ジェクト(例えば、髪型、ネイル等)であってもよい。さらに、第1のキャラクタに関連
付けられている第1のオブジェクトの表示態様を変更するとともに、第1のキャラクタの
背景のオブジェクト(例えば花輪オブジェクト)の表示態様を変更するようにしてもよい
。
【0274】
(6)上記実施形態においては、第1のキャラクタの関連付けられている装飾オブジェク
トのうち、第1のオブジェクト以外の装飾オブジェクトの表示態様は、予め固定されてい
る。しかし、第1のオブジェクト以外の装飾オブジェクトの表示態様は、配信毎ではなく
、例えば、所定回数(5回)配信される毎や、季節毎、時間帯毎等に変更するようにして
もよい。同様に、上記実施形態においては、第2のキャラクタに関連付けられている装飾
オブジェクトの表示態様が予め固定されているが、当該表示態様についても、所定回数(
5回)配信される毎や、季節毎、時間帯毎等に変更するようにしてもよい。
【0275】
(7)上記実施形態においては、定期的に配信される第2配信コンテンツにおいて登場す
るキャラクタ(第1のキャラクタや第1’のキャラクタなど)に関連付けられている第1
のオブジェクトの表示態様が配信毎に変更される例について説明した。しかし、不定期に
配信される第1配信コンテンツにおいて登場するキャラクタに関連付けられている第1の
オブジェクトの表示態様についても、前回配信時とは異なる表示態様に変更されるように
してもよい。
【0276】
<付記>
以上の各実施形態で説明した事項を、以下に付記する。
【0277】
(付記1):
本開示に示す一実施形態のある局面によれば、プロセッサを備える端末装置(ユーザ端末
100)において実行されるプログラムであって、前記プロセッサに、演者の動作に連動
して動く第1のキャラクタ(アバターオブジェクト610)を含む仮想空間の映像を表示
可能にするための第1の表示用データ(動作指図データ)を受信するステップ(S26)
と、前記第1の表示用データに基づいて、前記仮想空間内で前記第1のキャラクタが動作
する映像を表示するステップ(S29)と、を実行させ、前記第1のキャラクタには、予
め定められた第1のオブジェクトが関連付けられており、前記第1のオブジェクトの表示
態様(色)は、所定のルールで変更される。
【0278】
(付記2):
(付記1)において、前記プロセッサに、演者の動作に連動して動く第2のキャラクタ(
別のアバターオブジェクト610)を含む仮想空間の映像を表示可能にするための第2の
表示用データを受信するステップ(S26)と、前記第2の表示用データに基づいて、前
記仮想空間内で前記第2のキャラクタが動作する映像を表示するステップ(S29)と、
を実行させ、前記第2のキャラクタには、前記第1のオブジェクトと同種の第2のオブジ
ェクトのシャツ)が関連付けられており、前記第2のオブジェクトの表示態様(色)は、
固定されている。
【0279】
(付記3):
(付記1)または(付記2)において、前記第1のオブジェクトの表示態様は、配信期間
毎に、前回の配信期間における表示態様とは異なる表示態様に変更される。
【0280】
(付記4):
(付記1)から(付記3)のいずれかにおいて、前記第1の表示用データは、外部から配
信されるデータであって、演者の入力したモーションに対応するモーションデータを含み
、前記表示するステップは、前記モーションデータに基づいて前記仮想空間内において前
記第1のキャラクタをリアルタイムに動作させ、前記仮想空間内で当該第1のキャラクタ
が動作する映像を表示する。
【0281】
(付記5):
(付記4)において、前記プロセッサに、前記所定のルールで変更された第1のオブジェ
クトの表示態様を特定するための第1のデータ(表示態様情報)を受信するステップ(S
92)と、前記第1のデータに基づいて前記第1のオブジェクトの表示態様を設定するス
テップ(S93)を実行させる。
【0282】
(付記6):
(付記4)または(付記5)において、前記プロセッサに、視点を特定するための態様の
少なくとも一部が異なる複数種類の視聴モード(通常視聴モード、AR視聴モード)のう
ちのいずれかに設定するステップを実行させ、前記表示するステップは、特定される視点
から見た前記仮想空間の映像を表示し、前記複数種類の視聴モードのうちの第1の視聴モ
ード(AR視聴モード)である場合には、前記第1のオブジェクトを表示する位置に視点
を移動可能であり、前記第1の視聴モード以外のモードである場合には、前記第1のオブ
ジェクトを表示する位置に視点を移動不可能である。
【0283】
(付記7):
(付記6)において、前記端末装置は、当該端末装置の位置および向きを検知する検知部
と、タッチスクリーンとを備え、前記第1の視聴モードは、前記検知部により検知された
位置および向きに基づいて視点を特定可能な視聴モードであり、前記複数種類の視聴モー
ドは、前記タッチスクリーンに対するタッチ操作に基づいて視点を特定する第2の視聴モ
ード(通常視聴モード)を含み、前記複数種類の視聴モードのうちの前記第2の視聴モー
ドである場合には、前記第1のオブジェクトを表示する位置に視点を移動不可能である。
【0284】
(付記8):
(付記1)から(付記3)のいずれかにおいて、前記第1の表示用データは、外部から配
信されるデータであって、前記所定のルールで表示態様が変更された第1のオブジェクト
が関連付けられている第1のキャラクタが前記仮想空間内において動作する映像を含む動
画データであり、前記表示するステップは、前記動画データに基づいて前記仮想空間内で
前記第1のキャラクタが動作する映像を表示する。
【0285】
(付記9):
(付記1)から(付記8)のいずれかにおいて、前記第1のキャラクタには、予め定めら
れた第3のオブジェクトが関連付けられており、前記第3のオブジェクトは、前記第1の
オブジェクトの少なくとも一部を覆うオブジェクトである。
【0286】
(付記10):
本開示に示す一実施形態のある局面によれば、プロセッサを備える端末装置において実行
される方法であって、演者の動作に連動して動く第1のキャラクタを含む仮想空間の映像
を表示可能にするための第1の表示用データを受信するステップと、前記第1の表示用デ
ータに基づいて、前記仮想空間内で前記第1のキャラクタが動作する映像を表示するステ
ップと、を備え、前記第1のキャラクタには、予め定められた第1のオブジェクトが関連
付けられており、前記第1のオブジェクトの表示態様は、所定のルールで変更される。
【0287】
(付記11):
本開示に示す一実施形態のある局面によれば、プロセッサを備える端末装置であって、演
者の動作に連動して動く第1のキャラクタを含む仮想空間の映像を表示可能にするための
第1の表示用データを受信し、前記第1の表示用データに基づいて、前記仮想空間内で前
記第1のキャラクタが動作する映像をし、前記第1のキャラクタには、予め定められた第
1のオブジェクトが関連付けられており、前記第1のオブジェクトの表示態様は、所定の
ルールで変更される。
【0288】
〔ソフトウェアによる実現例〕
ユーザ端末100、サーバ200、ゲームプレイ端末300(HMDセット1000)、
および配信端末400の制御ブロック(特に制御部110、210、310、410)は
、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現しても
よいし、ソフトウェアによって実現してもよい。
【0289】
後者の場合、ユーザ端末100、サーバ200、ゲームプレイ端末300(HMDセット
1000)、および配信端末400は、各機能を実現するソフトウェアであるプログラム
の命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプ
ロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記
録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログ
ラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上
記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができ
る。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only
Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路
などを用いることができる。また、上記プログラムを展開するRAM(Random Access Me
mory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可
能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給さ
れてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化さ
れた、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
【0290】
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変
更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得
られる実施形態についても本発明の技術的範囲に含まれる。
【符号の説明】
【0291】
1 システム、2 ネットワーク、3、3A、3B ユーザ(第1ユーザ)、4 プレイ
ヤ(演者)、10,20,30,40 プロセッサ、11,21,31,41 メモリ、
12,22,32,42 ストレージ、13,23,33,43 通信IF、14,24
,34,44 入出力IF、15,45 タッチスクリーン、17 カメラ、18 測距
センサ、51 モニタ、52 注視センサ、53 第1カメラ、54 第2カメラ、55
マイク、56 スピーカ、100,100A,100B,100C ユーザ端末(コン
ピュータ、第1コンピュータ、第1情報処理装置)、110,210,310,410
制御部(第1制御部、第2制御部)、111,311,413 操作受付部、112,3
12,412 表示制御部、113,313 UI制御部、114,314 アニメーシ
ョン生成部、115,315 ゲーム進行部、116,316 仮想空間制御部
、117 動画再生部、120,220,320,420 記憶部(第1記憶部、第2記
憶部)、131,231,331 ゲームプログラム(プログラム、第1プログラム)、
132,232,332 ゲーム情報、133,233,333 ユーザ情報、151,
451 入力部、152,452 表示部(ディスプレイ)、200 サーバ、211
通信仲介部、212 ログ生成部、213 リスト生成部、234,421 ユーザリス
ト、300 ゲームプレイ端末(外部装置、第2外部装置)、317 反応処理部、40
0 配信端末(外部、第1外部装置、コンピュータ、第2情報処理装置)、411
通信制御部、414 音声受付部、415 モーション特定部、416 動作指図
データ生成部、422 モーションリスト、423 配信プログラム(プログラム、第2
プログラム)、540,1020,1021 コントローラ、500 HMD、510
HMDセンサ、520 モーションセンサ、530 ディスプレイ、600A、600B
仮想空間、610 アバターオブジェクト(キャラクタ)、620A,620B 仮想
カメラ、631,632,633,634 オブジェクト、640A,640B 視
界領域、650,660 視界画像、671 敵オブジェクト、672,673 障害物
オブジェクト、674 演出オブジェクト、691,692 発話、701,702,7
03A,70B,704A,704B,705,706,711,711A,711B,
711C,711D,722,723,745,745A,745B,745C,752
,762,763,930,2011、2022、2031、2032、2033、20
34、2037、2038、2051、2063、2072、2073、2075 UI
画像(メッセージUI、UI)、721 ダウンロード画面、731 ユーザリスト画面
(リスト)、732,732A,732B,732C,742,742A,742B,7
42C レコード画像、733,733A,733B,733C ユーザ名、734,7
34A,734B,734C タグ情報、735,735A,735B,735C アイ
コン、741 モーションリスト画面(選択肢)、743,743A,743B,74
3C モーション名、744,744A,744B,744C,753 モーション画像
、751 配信画面、761 配信完了画面、810A,810B モーション動画、8
20A,820B 発話音声、910A,910B 動画、920A,920B 音声、
1000 HMDセット、1010 物体、1030 記憶媒体、2010 ホーム画面
、2020 ランキング画面、2021 タイトル画像、2026,2026A,20
26B 順位、2027,2027A,2027B 課金額、2028,2028A,2
028B 送信回数、2029 送信済通知、2030 前回送信日、2035 詳細表
示領域、2036 スクロールバー、2040 詳細画面、2050,2060 準備画
面、2052 テキスト、2053、2061 選択画像、2054A、2054B、2
054C、2062A,2062B,2062C,2062D,2062E,2062F
選択肢、2070 音声入力画面、2074 タグ画像
【手続補正書】
【提出日】2024-05-20
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
コンピュータを、
第1のキャラクタを含む仮想空間の映像を表示可能にするための第1の表示用データを受信する第1受信手段と、
前記第1の表示用データに基づいて、前記仮想空間内で前記第1のキャラクタが動作する映像を表示する第1表示手段と、として機能させ、
前記第1のキャラクタには、予め定められた第1のオブジェクトが関連付けられており、
前記第1のオブジェクトの表示態様は、前記映像の進行度合いに応じた表示態様に変更される、プログラム。
【請求項2】
前記コンピュータを、
演者の動作に連動して動く第2のキャラクタを含む仮想空間の映像を表示可能にするための第2の表示用データを受信する第2受信手段と、
前記第2の表示用データに基づいて、前記仮想空間内で前記第2のキャラクタが動作する映像を表示する第2表示手段と、としてさらに機能させ、
前記第2のキャラクタには、前記第1のオブジェクトと同種の第2のオブジェクトが関連付けられており、
前記第2のオブジェクトの表示態様は、固定されている、請求項1に記載のプログラム。
【請求項3】
前記第1のオブジェクトの表示態様は、配信期間毎に、前回の配信期間における表示態様とは異なる表示態様に変更される、請求項1または請求項2に記載のプログラム。
【請求項4】
前記第1の表示用データは、外部から配信されるデータであって、演者の入力したモーションに対応するモーションデータを含み、
前記第1表示手段は、前記モーションデータに基づいて前記仮想空間内において前記第1のキャラクタをリアルタイムに動作させ、前記仮想空間内で当該第1のキャラクタが動作する映像を表示する、請求項1~請求項3のいずれかに記載のプログラム。
【請求項5】
前記コンピュータを、
変更された前記第1のオブジェクトの表示態様を特定するための第1のデータを受信する第3受信手段と、
前記第1のデータに基づいて前記第1のオブジェクトの表示態様を設定する第1設定手段と、としてさらに機能させる、請求項4に記載のプログラム。
【請求項6】
前記コンピュータを、
視点を特定するための態様の少なくとも一部が異なる複数種類の視聴モードのうちのいずれかに設定する第2設定手段としてさらに機能させ、
前記第1表示手段は、特定される視点から見た前記仮想空間の映像を表示し、
前記複数種類の視聴モードのうちの第1の視聴モードである場合には、前記第1のオブジェクトを表示する位置に視点を移動可能であり、前記第1の視聴モード以外のモードである場合には、前記第1のオブジェクトを表示する位置に視点を移動不可能である、請求項4または請求項5に記載のプログラム。
【請求項7】
前記第1の表示用データは、外部から配信されるデータであって、表示態様が変更された第1のオブジェクトが関連付けられている第1のキャラクタが前記仮想空間内において動作する映像を含む動画データであり、
前記第1表示手段は、前記動画データに基づいて前記仮想空間内で前記第1のキャラクタが動作する映像を表示する、請求項1~3のいずれかに記載のプログラム。
【請求項8】
前記第1のキャラクタには、予め定められた第3のオブジェクトが関連付けられており、
前記第3のオブジェクトは、前記第1のオブジェクトの少なくとも一部を覆うオブジェ
クトである、請求項1~請求項7のいずれかに記載のプログラム。
【請求項9】
コンピュータシステムであって、
第1のキャラクタを含む仮想空間の映像を表示可能にするための第1の表示用データを受信し、
前記第1の表示用データに基づいて、前記仮想空間内で前記第1のキャラクタが動作する映像をし、
前記第1のキャラクタには、予め定められた第1のオブジェクトが関連付けられており、
前記第1のオブジェクトの表示態様は、前記映像の進行度合いに応じた表示態様に変更される、コンピュータシステム。