(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0011】
以下、図面を参照しながら、本発明の実施形態について説明する。
【0012】
図1は、本発明の一実施形態に係るユーザ端末10を含むネットワークの構成を概略的に示す構成図である。ユーザ端末10は、図示するように、インターネット等の通信ネットワーク50を介して管理サーバ60と通信可能に接続されている。ユーザ端末10は、ユーザのアバターが含まれる仮想空間を用いたVRコンテンツ(例えば、ゲームコンテンツ等)を当該ユーザに提供する。ユーザ端末10は、本発明のシステムの全部又は一部を実装する装置の一例である。
【0013】
本実施形態において、ユーザ端末10は、スマートフォン等のモバイル端末として構成されており、
図1に示すように、VRゴーグル20(第1の装置)に取り付けられて使用される。ユーザは、ユーザ端末10が取り付けられたVRゴーグル20を頭部に装着してVRコンテンツを楽しむ。VRゴーグル20は、ユーザがVRコンテンツにおける立体視映像を見るためのレンズ等の機構を有する。
【0014】
図2は、ユーザ端末10の構成を概略的に示すブロック図である。ユーザ端末10は、一般的なコンピュータとして構成されており、図示するように、CPU等のコンピュータプロセッサ11と、メインメモリ12と、入出力I/F13と、通信I/F14と、ストレージ(記憶装置)15と、各種センサ16とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。
【0015】
コンピュータプロセッサ11は、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。
【0016】
入出力I/F13は、例えば、タッチパネル、コントローラ等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、入出力I/F13は、ディスプレイ等の画像出力装置(表示装置)、スピーカー等の音声出力装置を含む。
【0017】
本実施形態において、入出力I/F13は、ユーザが手で操作する物理的な装置であるコントローラ30(第2の装置)を含む。
図3は、コントローラ30の外観を例示する。当該コントローラ30は、四隅が丸い略板状の形状を有しており、一方の面に円板形状のタッチパッド32が設けられている。当該タッチパッド32は、クリック可能なタッチパッドとして構成されており、ユーザの指によるタッチ状態(タッチ位置を含む。)を検知すると共に、クリック状態(クリック位置を含む。)を検知し、当該検知した情報を、無線又は有線の通信を介してユーザ端末10に送信するように構成されている。なお、こうした外観及び機能を有するコントローラ30は例示であって、本発明の実施形態におけるコントローラの外観及び機能は、これに限定されない。
【0018】
図2に戻り、通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、有線又は無線の通信を実現できるように構成されている。
【0019】
ストレージ15は、例えば磁気ディスク又はフラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム及び各種データ等を記憶する。ストレージ15が記憶するプログラムは、アプリケーションマーケット等からダウンロードされてインストールされ得る。本実施形態において、ストレージ15が記憶するプログラムは、本発明の一実施形態に係るコンテンツ用プログラム40を含む。コンテンツ用プログラム40は、ユーザ端末10を、仮想空間を用いたVRコンテンツを提供するための装置として機能させるためのプログラムである。
【0020】
各種センサ16は、例えば、加速度センサ、ジャイロセンサ(角速度センサ)、地磁気センサ等を含む。ユーザ端末10は、これらの各種センサ16によって検知される情報に基づいて、ユーザ端末10の向き(姿勢、傾き、方位等)を特定することが出来る。
【0021】
管理サーバ60は、一般的なコンピュータとしての構成を有する。管理サーバ60は、ユーザ端末10が提供するVRコンテンツに関する情報を記憶及び管理する。例えば、管理サーバ60は、ユーザ毎のコンテンツの進行状況(例えば、ゲームの進行状況)、及び、コンテンツデータ(例えば、仮想空間のデータ等)等を管理する。管理サーバ60は、それぞれが一般的なコンピュータとしての構成を有する複数のサーバ装置を用いて構成され得る。
【0022】
例えば、ユーザ端末10は、コンテンツ用プログラム40の起動に応じて、ユーザのコンテンツの進行状況及びコンテンツデータを管理サーバ60から取得する。また、例えば、ユーザ端末10は、コンテンツ用プログラム40の実行中において、コンテンツデータを管理サーバ60から取得し、及び、ユーザの最新のコンテンツの進行状況を管理サーバ60に対して送信する。なお、本実施形態において、ユーザ端末10は、管理サーバ60との通信なしにコンテンツを提供するように構成することができ、この場合、管理サーバ60は不要となり得る。
【0023】
次に、本実施形態のユーザ端末10が有する機能について説明する。
図2に示すように、ユーザ端末10のコンピュータプロセッサ11は、メインメモリ12に読み込まれたプログラムに含まれる命令を実行することによって、画像生成表示部111、及び、仮想空間制御部112として機能するように構成されている。
【0024】
画像生成表示部111は、VRコンテンツに用いられる仮想空間の画像の生成及び表示に関する様々な処理を実行する。例えば、画像生成表示部111は、ユーザの頭部に装着されるVRゴーグル20に取り付けられているユーザ端末10において、仮想空間内に位置する仮想カメラの視野に応じた当該仮想空間の立体視映像に対応する画像を表示するように構成されている。仮想空間は、例えば、三次元の仮想空間として構成される。例えば、画像生成表示部111は、仮想空間の立体視映像に対応する左目用の画像と右目用の画像とをそれぞれ生成してユーザ端末10において表示するように構成される。
【0025】
仮想空間制御部112は、VRコンテンツに用いられる仮想空間の制御に関する様々な処理を実行する。例えば、仮想空間制御部112は、仮想空間内に存在するアバターの制御に関する処理を実行する。本実施形態において、当該アバターの制御は、ユーザによってコントローラ30を介して入力される入力情報(第1の入力情報)に少なくとも基づいて行われる。例えば、仮想空間制御部112は、コントローラ30のタッチパッド32に対するユーザによる操作入力に従ってアバターを動作させる。
【0026】
また、仮想空間制御部112は、仮想空間内に位置する仮想カメラの制御に関する処理を実行する。本実施形態において、当該仮想カメラの制御は、ユーザの頭部の動きに応じて入力される入力情報(第2の入力情報)に少なくとも基づいて行われる。例えば、仮想空間制御部112は、ユーザの頭部に装着されるVRゴーグル20に取り付けられたユーザ端末10又はその他の装置を介してユーザの頭部の動きに応じて入力される入力情報に従って仮想カメラの位置、向き等を制御する。なお、仮想空間制御部112は、ユーザの頭部の動きに応じて入力される入力情報に基づく上述した仮想カメラの制御の他、例えば、仮想空間におけるユーザのアバターを追随させるような仮想カメラの制御も行うように構成され得る。
【0027】
本実施形態において、仮想空間制御部112は、上述した仮想カメラの制御に加えて、アバターの所定の動作の開始に応じて、仮想カメラの位置を、当該アバターを視野に含む三人称の視野に対応する位置(第1の位置)からアバター自体の視野に対応する一人称の視野に対応する位置(第2の位置)に変化させるように構成されている。
【0028】
このように、本実施形態におけるユーザ端末10は、ユーザによってコントローラ30を介して入力される入力情報に基づいてアバターを制御する一方、ユーザの頭部の動きに応じて入力される入力情報に基づいて仮想カメラを制御し、アバターが所定の動作を開始すると、仮想カメラの位置を、三人称の位置から一人称の位置に自動的に変化させるように構成されている。従って、ユーザは、コントローラ30に対する操作及び頭部の動きによってアバター及び仮想カメラをそれぞれ制御しつつ、アバターが所定の動作を開始すると、特別な操作なしに、一人称の視野で没入感を得ることができる。このように、本実施形態におけるユーザ端末10は、ユーザのアバターを含む仮想空間の画像を適切な視野で提供することを支援する。
【0029】
本実施形態において、仮想カメラの位置を三人称の位置から一人称の位置に自動的に変化させる契機となるアバターの上記所定の動作は、様々な動作が含まれ得る。当該所定の動作は、典型的には、一人称の視野でユーザに没入感を与えることが好ましい動作であり、例えば、移動を含む。この場合、仮想空間制御部112は、アバターの移動の開始に応じて、仮想カメラの位置を、三人称の位置から一人称の位置に変化させるように構成される。例えば、仮想空間制御部112は、ユーザによるコントローラ30に対する所定の操作入力に応じてアバターが移動を開始すると、仮想カメラの位置を、当該アバター自体の視野に対応する一人称の位置に変化させる。こうした構成は、仮想カメラの位置を、アバターの移動の開始に応じて一人称の位置に自動的に切り替えることを可能とする。
【0030】
また、本実施形態において、仮想空間制御部112は、アバターを、第1の速度、及び、当該第1の速度よりも速い第2の速度で移動させるように構成することができ、この場合、上記所定の動作は、第2の速度での移動を含む。例えば、仮想空間制御部112は、アバターの第2の速度での移動の開始に応じて、仮想カメラの位置を、三人称の位置から一人称の位置に変化させるように構成される。例えば、仮想空間制御部112は、コントローラ30に対する第1の操作入力に応じてアバターを上記第1の速度で移動させると共に仮想カメラの位置が三人称の位置となるように当該仮想カメラを制御する一方、コントローラ30に対する第2の操作入力に応じてアバターを上記第2の速度で移動させると共に仮想カメラの位置が一人称の位置となるように当該仮想カメラを制御する。こうした構成は、仮想カメラの位置を、アバターの高速(第2の速度)での移動の開始に応じて一人称の位置に自動的に切り替えることを可能とする。
【0031】
本実施形態において、仮想空間制御部112は、VRゴーグル20に取り付けられたユーザ端末10が有する各種センサ16を介して検知されるユーザの頭部の向きに基づいて仮想カメラの向きを制御するように構成され得る。例えば、仮想空間制御部112は、各種センサ16を介して検知されるユーザの頭部の向きに連動するように仮想カメラの向きを制御するように構成される。この場合、仮想空間制御部112は、移動中のアバターを、仮想カメラの向きに基づいて旋回させるように構成され得る。例えば、仮想空間制御部112は、ユーザの頭部の向きに基づく仮想カメラの向きが正面方向である場合はアバターを直進させる一方、当該仮想カメラの向きが正面方向よりも右側(又は左側)である場合はアバターを右方向(又は左方向)に旋回移動させる。こうした構成は、一人称の視野であるアバターの移動中においてユーザの頭部の向きに基づいて(首を振ることにより)アバターを旋回させることが可能となるから、ユーザが得られる没入感とアバターの操作性との良好なバランスが実現される。
【0032】
また、仮想空間制御部112は、仮想カメラの位置を、アバターの所定の動作の開始に応じて、三人称の位置から一人称の位置に第1の時間で変化させる一方、当該所定の動作の終了に応じて、一人称の位置から三人称の位置に、上記第1の時間よりも短い第2の時間で変化させるように構成され得る。こうした構成は、三人称の視野から一人称の視野に変化する際のユーザのVR酔いを抑制しつつ、一人称の視野から三人称の視野への迅速な切り替えを可能とする。
【0033】
次に、このような機能を有する本実施形態のユーザ端末10の具体例について説明する。この具体例において、ユーザ端末10は、VRコンテンツとして、複数のユーザが、同じ仮想空間に存在する各ユーザのアバターを用いてプレイするゲームを提供する。こうしたゲームは、例えば、仮想空間において複数のアバターが「鬼ごっこ」を行うゲームが含まれる。
【0034】
この例において、アバターの動作は、コントローラ30のタッチパッド32を介した操作入力によって制御される。
図4は、コントローラ30(タッチパッド32)に対する操作内容とアバター及び仮想カメラの動作との対応関係を示す。この例では、図示するように、まず、コントローラ30のタッチパッド32が触れられていない状態(非タッチ状態)である場合、アバターは移動しない(停止している)。また、仮想カメラも移動せず、その位置は、ユーザ自身のアバターを視野に含む三人称の視野に対応する位置である。具体的には、仮想カメラの位置は、アバターとの間の相対的な位置関係が所定の関係(例えば、所定の方位に所定の距離だけ離れた所定の高さの位置)となる位置である。
【0035】
図5は、三人称の視野に対応する仮想カメラの位置を説明するための図である。図示するように、仮想カメラ104は、仮想空間100の地面103に立っているアバター102の斜め上方に位置しており、その視野には当該アバター102が含まれている。
【0036】
図6は、VRゴーグル20を介してユーザに提示されるVR画像50であって三人称の視野に対応するVR画像50を例示する。図示するように、三人称の視野に対応するVR画像50は、仮想空間100に位置するアバター102が含まれる。なお、例示されるVR画像50は、ユーザが立体視映像として見る画像を模式的に示したものであり、実際には、ユーザ端末10のディスプレイ等において、両眼視差による立体視映像を実現するための左目用の画像と右目用の画像との2つの画像が表示される。
【0037】
図4に戻り、タッチパッド32が触れられている状態(タッチ状態)であって押されていない状態(非クリック状態)である場合、アバターは、タッチパッド32のタッチ位置に対応する方向に歩行(第1の速度で移動)する。この例では、タッチパッド32のタッチ位置に応じて、アバターは、8方向(上、下、左、右、右上、右下、左上、及び左下)の何れかに対応する方向を向いて歩行する。また、仮想カメラは、三人称の位置を維持しつつ、歩行するアバターを追従する。具体的には、アバターと仮想カメラとの間の相対的な位置関係が維持されるように、仮想カメラを移動させる。
【0038】
また、タッチパッド32の上部が押された(クリックされた)場合、アバターは、前方(その時点におけるアバターの視野(視線)の方向)に向かって走行(上記第1の速度よりも速い第2の速度で移動)する。また、仮想カメラは、三人称の位置から、ユーザのアバター自体の視野に対応する一人称の位置に移動し、その後、走行するアバターを追従する。また、同様に、タッチパッド32の下部が押された(クリックされた)場合、アバターは、後方(その時点におけるアバターの視野(視線)の反対方向)に向かって走行し、仮想カメラは、三人称の位置から一人称の位置に移動し、その後、走行するアバターを追従して移動する。例えば、鬼ごっこの鬼であるユーザは、他のユーザのアバターを見つけた場合に、タッチパッド32の上部を押すことにより、自身のアバターを当該他のユーザのアバターに向けて走行させることができる。また、例えば、鬼ごっこの鬼以外の(子である)ユーザは、鬼のユーザのアバターを見つけた場合に、タッチパッド32の下部を押すことにより、自身のアバターを当該他のユーザのアバターから逃げるように走行させることができる。
【0039】
図7は、仮想カメラが、三人称の位置から一人称の位置に移動する様子を説明するための図である。
図7の上段に示すように、アバター102の視野(視線)の方向が矢印ARの方向(
図7において左方向)であって、仮想カメラ104が、アバター102の後側上方に位置している状態(タッチパッド32の上部が触れられてアバター102が矢印ARの方向に歩行している状態が想定される。)から、タッチパッド32の上部が押さると(クリックされると)、
図7の下段に示すように、アバター102は、視野の方向(矢印ARの方向)に向かって走行し、仮想カメラ104は、アバター102の視野の方向と同じ方向の視野となるように、所定の軌跡BL1に沿って移動する。当該移動は、所定の時間(例えば、1秒)をかけて行われる。このように、仮想カメラを三人称の位置から一人称の位置に移動させる際に所定の時間を要することにより、一人称の視野への切り替え時におけるユーザのVR酔いが抑制される。なお、タッチパッド32の上部又は下部が押された状態が解消されて非タッチ状態となると、アバターの走行が中止され、仮想カメラ104は、一人称の位置から三人称の位置へと戻る。この場合、一人称の位置から三人称の位置への切り替えは、上記所定の時間をかけることなく直ちに行われる。
【0040】
図8は、走行中のアバターの一人称の視野に対応するVR画像50を例示する。図示するように、当該VR画像50は、仮想空間100を、アバター102自体の視野に対応する視野で表示する。また、図示するように、当該VR画像50は、トンネリングの処理が施されている。具体的には、VR画像50の全体領域のうち、中央の所定の大きさの円形領域以外の領域は、仮想空間100の画像の表示に代えてグリッドの表示が行われる。こうしたトンネリングの処理によってユーザの視野を狭くすることにより、走行中のアバターの一人称の視野で画像を表示することに起因するユーザのVR酔いを抑制し得る。
【0041】
図4に戻り、タッチパッド32の右部が押された(クリックされた)場合、アバターは移動しない。一方、仮想カメラは、三人称の位置を維持したまま、アバターを中心に時計回りで回転移動する。また、同様に、タッチパッド32の左部が押された(クリックされた)場合、アバターは移動せず、仮想カメラは、三人称の位置を維持したまま、アバターを中心に反時計回りで回転移動する。
【0042】
図9は、仮想カメラがアバターを中心に回転移動する様子を説明するための図である。図示するように、仮想カメラ104は、アバター102を中心とする所定の円状の軌跡BL2に沿って回転移動する。なお、回転移動する際に、仮想カメラ104の視野(視線)の方向は、アバター102の方向となるように維持される。
【0043】
図10は、仮想カメラがアバターを中心に回転移動している場合のVR画像50を例示する。図示するように、この場合のVR画像50は、アバター102を含む三人称の視野で仮想空間100を表示しつつ、トンネリングの処理が施されている。具体的には、
図8に例示した走行中のアバターの一人称の視野に対応するVR画像50と同様に、VR画像50の全体領域のうち、中央の所定の大きさの円形領域以外の領域は、仮想空間100の画像の表示に代えてグリッドの表示が行われる。こうしたトンネリングの処理によってユーザの視野を狭くすることにより、仮想カメラの回転移動に起因するユーザのVR酔いを抑制し得る。なお、走行中のアバターの一人称の視野に対応するVR画像50におけるトンネリングの処理と、仮想カメラが回転移動している場合のVR画像50におけるトンネリングの処理との間の処理の強度(視野を狭くする程度。つまり、例えば、仮想空間の画像を表示する中央の円形領域の大きさ等)を変化させるようにしても良い。例えば、走行中のアバターの一人称の視野に対応するVR画像よりも、仮想カメラが回転移動している場合のVR画像50の方が、ユーザのVR酔いを生じさせ易いと考えることができるから、前者よりも後者の方が、トンネリングの処理の強度を強くする(例えば、仮想空間の画像を表示する中央の円形領域の大きさを小さくする等)ようにしても良い。
【0044】
上述したように、タッチパッド32の上部又は下部が押された状態が解消されて非タッチ状態となると、アバターの走行が停止され、仮想カメラは、一人称の位置から三人称の位置へと戻るが、こうしたコントローラ30(タッチパッド32)に対する操作入力以外のイベントを契機としてアバターの走行が中断される場合についても、仮想カメラは、一人称の位置から三人称の位置へと戻る。例えば、鬼以外のユーザのアバターが走行中に鬼のユーザのアバターに捕まったり、アイテムの効果(例えば、爆弾アイテムの爆発)によってアバターの走行が中断されたり、アバターの体力が消耗することによって走行が中断されたり、時間制限等によりゲームが終了して走行が中断される場合において、仮想カメラは、一人称の位置から三人称の位置へと戻る。
【0045】
また、この例では、VRゴーグル20に取り付けられたユーザ端末10が有する各種センサ16を介して検知されるユーザの頭部の向きに連動するように仮想カメラの向きが制御される。例えば、
図11の上段に示すように、三人称の視野のVR画像50の中央にアバター102が位置する状態で、ユーザの顔が右上方向を向くように頭部を動かすと、これに連動して仮想カメラの向きが右上方向となり、
図11の下段に示すように、VR画像50の左下にアバター102が位置する状態となる。
【0046】
また、この例では、アバターが走行中である場合、ユーザの頭部の向きに連動するように仮想カメラの向きが制御されると共に、走行中のアバターは、ユーザの頭部の向きに旋回するように制御される。例えば、
図12の上段に示すように、一人称の視野のVR画像50の中央に木型のオブジェクト106が位置する状態で、ユーザの顔が左方向を向くように頭部を動かすと、これに連動して仮想カメラの向きが左方向となり、
図12の下段に示すように、VR画像50の右にオブジェクト106が位置する状態となる。更に、
図13に示すように、走行中のアバター102は、軌跡BL3に沿って左方向に旋回する。このように、この例では、ユーザの頭部の動きによって、走行中のアバター102を旋回させる制御が可能となっており、ユーザが得られる没入感とアバター102の操作性との良好なバランスが実現されている。
【0047】
上述した具体例、又は、本実施形態の他の例において、三人称の視野の仮想カメラの当該視野に他のユーザのアバターが入った場合に、ユーザ自身のアバターと他のユーザのアバターとを比較して鑑賞しやすいように、当該仮想カメラを制御するようにしても良い。例えば、
図14の上段に示すように、三人称の仮想カメラの視野に他のユーザのアバター108が入った場合、
図14の下段に示すように、仮想カメラは、そのアングルが低くなると共に、ユーザのアバター102と他のユーザのアバター108との間の位置を視野の中心とし、且つ、被写体までの距離が近づくように制御される(
図15を参照)。
【0048】
以上説明した本実施形態に係るユーザ端末10は、ユーザによってコントローラ30を介して入力される入力情報(例えば、タッチパッド30に対する操作内容)に基づいてアバターを制御する一方、ユーザの頭部の動きに応じて入力される入力情報(例えば、ユーザ端末10に設けられた各種センサ16を介して検知されるユーザの頭部の向き)に基づいて仮想カメラを制御し、アバターが所定の動作(例えば、走行)を開始すると、仮想カメラの位置を、三人称の位置から一人称の位置に自動的に変化させるように構成されている。従って、ユーザは、コントローラ30の操作及び頭部の動きによってアバター及び仮想カメラをそれぞれ制御しつつ、アバターが所定の動作を開始すると、特別な操作なしに、一人称の視野で没入感を得ることができる。このように、本実施形態におけるユーザ端末10は、ユーザのアバターを含む仮想空間の画像を適切な視野で提供することを支援する。
【0049】
上述した実施形態では、ユーザ端末10は、VRゴーグル20に取り付けられるスマートフォン等のモバイル端末として構成したが、本発明の他の実施形態におけるユーザ端末10Aは、ユーザの頭部に装着されるHMD20Aとは別体の装置(例えば、据え置き型のコンピュータ装置を含む。)として構成される。
図16は、当該他の実施形態におけるユーザ端末10A及びHMD20Aの構成を概略的に示すブロック図である。HMD20Aは、入出力I/F21と、通信I/F22と、各種センサ23と、を有し、各種センサ23は、例えば、加速度センサ、ジャイロセンサ(角速度センサ)、地磁気センサ等を含む。ユーザ端末10Aは、HMD20Aが有する各種センサ23によって検知される情報を当該HMD20Aから受信し、当該受信した情報に基づいてHMD20Aの向き(姿勢、傾き、方位等)を特定し、特定したHMD20Aの向きに基づいて仮想カメラの向きを制御するように構成される。なお、この実施形態において、VR画像は、ユーザ端末10AからHMD20Aに送信され、当該HMD20Aのディスプレイ(入出力I/F21)等において表示される。
【0050】
本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。
【0051】
本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。
【0052】
本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。
本発明の一実施形態に係るユーザ端末10は、仮想空間を用いたVRコンテンツをユーザに提供する。当該ユーザ端末10は、ユーザによってコントローラ30を介して入力される入力情報に基づいてアバターを制御する一方、ユーザの頭部の動きに応じて入力される入力情報に基づいて仮想カメラを制御し、アバターが所定の動作を開始すると、仮想カメラの位置を、三人称の位置から一人称の位置に自動的に変化させるように構成されている。