(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-04-17
(45)【発行日】2024-04-25
(54)【発明の名称】仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータ
(51)【国際特許分類】
G06T 19/00 20110101AFI20240418BHJP
G06F 3/01 20060101ALI20240418BHJP
A63F 13/428 20140101ALI20240418BHJP
A63F 13/55 20140101ALI20240418BHJP
A63F 13/5255 20140101ALI20240418BHJP
A63F 13/58 20140101ALI20240418BHJP
【FI】
G06T19/00 300B
G06F3/01 510
G06F3/01 570
A63F13/428
A63F13/55
A63F13/5255
A63F13/58
(21)【出願番号】P 2022171057
(22)【出願日】2022-10-26
(62)【分割の表示】P 2018129525の分割
【原出願日】2017-08-31
【審査請求日】2022-10-26
【新規性喪失の例外の表示】特許法第30条第2項適用 2017年4月14~15日 VRLA Expo2017 株式会社コロプラが、VRアクションゲーム「TITAN SLAYER」の体験版として展示公開。
(73)【特許権者】
【識別番号】509070463
【氏名又は名称】株式会社コロプラ
(72)【発明者】
【氏名】野口 裕弘
(72)【発明者】
【氏名】柏原 崇生
(72)【発明者】
【氏名】野崎 文代
【審査官】鈴木 圭一郎
(56)【参考文献】
【文献】特開2017-169640(JP,A)
【文献】特開2001-101256(JP,A)
【文献】特開2010-033298(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 19/00
G06F 3/01
A63F 13/428
A63F 13/55
A63F 13/5255
A63F 13/58
(57)【特許請求の範囲】
【請求項1】
コンピュータに、
仮想体験を提供するための仮想空間を規定する規定手段と、
ユーザの身体の一部の動きに応じて、前記仮想空間内で操作オブジェクトを動かす動作手段と、
アイテムが第1領域に関連付けていない状態である非関連付け状態から前記アイテムが前記第1領域に関連付けられた状態である関連付け状態に更新する第1更新手段と、
前記第1領域に関連付けられたアイテムを、前記第1領域と前記操作オブジェクトとの間で第1位置関係が成立したことを条件に前記操作オブジェクトにより選択されている選択状態に更新する第2更新手段と、
前記選択状態にある前記アイテムを使用する使用手段と、を備え、
前記第1領域は、前記ユーザに関連付けられたプレイヤキャラクタの一部分に設定される、
よう機能させるプログラム。
【請求項2】
前記第1領域は、前記ユーザに関連づけられた前記プレイヤキャラクタの複数個所に対してそれぞれ設定される領域である、請求項1に記載のプログラム。
【請求項3】
前記アイテムは、武器オブジェクトであり、前記武器オブジェクトに関連づけられたパラメータを消費することで、前記武器オブジェクトの効力を発動する、請求項2に記載のプログラム。
【請求項4】
前記操作オブジェクトにより選択されている選択状態にある前記アイテムを、前記ユーザの視界領域の範囲外に移動させることで、当該アイテムに関連づけられたパラメータを回復させる回復手段と、をさらに備える請求項1から3に記載のプログラム。
【請求項5】
前記ユーザの頭部の動きに応じて、前記仮想空間内で仮想視点を動かす手段をさらに備え、前記第1領域は、前記ユーザの視界領域の範囲外に位置するようにする、請求項1に記載のプログラム。
【請求項6】
前記第1領域に関連づけられた前記アイテムの描画処理を省略する、請求項1に記載のプログラム。
【請求項7】
コンピュータに、
仮想体験を提供するための仮想空間を規定する規定手段と、
ユーザの身体の一部の動きに応じて、前記仮想空間内で操作オブジェクトを動かす動作手段と、
アイテムが第1領域に関連付けていない状態である非関連付け状態から前記アイテムが前記第1領域に関連付けられた状態である関連付け状態に更新する第1更新手段と、
前記第1領域に関連付けられたアイテムを、前記第1領域と前記操作オブジェクトとの間で第1位置関係が成立したことを条件に前記操作オブジェクトにより選択されている選択状態に更新する第2更新手段と、
前記選択状態にある前記アイテムを使用する使用手段と、を備え、
前記第1領域は、前記ユーザに関連付けられたプレイヤキャラクタの一部分に設定される、よう機能させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータに関する。
【背景技術】
【0002】
下記特許文献1には、ユーザが仮想手を操作し、仮想空間内で使用される剣オブジェクトなどのアイテムを仮想手に扱わせることで、あたかもユーザ自身が仮想空間内で敵オブジェクトと戦っているかのような仮想体験をユーザに提供する技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に開示された技術では、仮想空間内で使用されるアイテムの状態をどのようにして更新するかという思想は開示されていない。このため、特許文献1に開示されたような技術では、ユーザが仮想的に体験する仮想体験を改善する余地がある。
【0005】
本開示は、ユーザの仮想体験を改善することが可能な、仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータを提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示が示す一態様によれば、ユーザに仮想体験を提供するためにコンピュータで実行される方法であって、前記仮想体験を提供するための仮想空間を規定するステップと、前記ユーザの頭部の動きに応じて、前記仮想空間内で仮想視点を動かすステップと、前記ユーザの身体の一部の動きに応じて、前記仮想空間内で操作オブジェクトを動かすステップと、少なくとも、前記仮想視点からの視界の範囲外に前記操作オブジェクトが移動されたことを条件に、前記仮想空間内で使用されるアイテムの状態を更新するステップと、を含む方法が提供される。
【発明の効果】
【0007】
本開示によれば、ユーザの仮想体験を改善し得る、仮想体験を提供するためにコンピュータで実行される方法、プログラム及びコンピュータを提供することができる。
【図面の簡単な説明】
【0008】
【
図1】
図1は、ある実施の形態に従うHMDシステムの構成の概略を表す図である。
【
図2】
図2は、一局面に従うコンピュータのハードウェア構成の一例を表すブロック図である。
【
図3】
図3は、ある実施の形態に従うHMD装置に設定されるuvw視野座標系を概念的に表す図である。
【
図4】
図4は、ある実施の形態に従う仮想空間を表現する一態様を概念的に表す図である。
【
図5】
図5は、ある実施の形態に従うHMD装置を装着するユーザの頭部を上から表した図である。
【
図6】
図6は、仮想空間において視界領域をX方向から見たYZ断面を表す図である。
【
図7】
図7は、仮想空間において視界領域をY方向から見たXZ断面を表す図である。
【
図8】
図8は、ある実施の形態に従うコントローラの概略構成を表す図である。
【
図9】
図9は、ある実施の形態に従うコンピュータをモジュール構成として表すブロック図である。
【
図10】
図10は、ユーザによって使用されるHMDシステムがユーザに仮想空間を提供するために実行する処理を表すフローチャートである。
【
図11】
図11(A)は、HMD装置を装着するとともに、コントローラを保持したユーザの一例を示す図である。
図11(B)は、
図11(A)に示す状態における、仮想空間内に配置された仮想カメラ、左手オブジェクト、及び右手オブジェクトの一例を示す図である。
【
図12】
図12は、
図11(B)に示す仮想空間内を仮想カメラの視界領域で表した視界画像の一例を示す図である。
【
図13】
図13(A)は、ユーザがコントローラを保持した右手をユーザの視界外に位置する右肩付近に動かした状態の一例を示す図である。
図13(B)は、
図13(A)に示す状態における、仮想空間内に配置された仮想カメラ、左手オブジェクト、及び右手オブジェクトの一例を示す図である。
【
図14】
図14は、
図13(B)に示す仮想空間内を仮想カメラの視界領域で表した視界画像の一例を示す図である。
【
図15】
図15(A)は、ユーザがコントローラを保持した右手を、選択操作を行った状態でユーザの視界内に動かした状態の一例を示す図である。
図15(B)は、
図15(A)に示す状態における、仮想空間内に配置された仮想カメラ、左手オブジェクト、及び右手オブジェクトの一例を示す図である。
【
図16】
図16は、
図15(B)に示す仮想空間内を仮想カメラの視界領域で表した視界画像の一例を示す図である。
【
図17】
図17は、本実施形態におけるアイテムの状態を更新する更新処理の一例を示すフローチャートである。
【
図18】
図18は、本実施形態におけるアイテムの効力発動処理の一例を示すフローチャートである。
【
図19】
図19(A)は、ユーザがコントローラを保持した右手をユーザの視界外に動かした状態の一例を示す図である。
図19(B)は、
図19(A)に示す状態における、仮想空間内に配置された仮想カメラ、左手オブジェクト、及び右手オブジェクトの一例を示す図である。
【
図20】
図20は、
図19(B)に示す仮想空間内を仮想カメラの視界領域で表した視界画像の一例を示す図である。
【
図21】
図21は、本実施形態におけるアイテムの状態を更新する更新処理の一例を示すフローチャートである。
【
図22】
図22は、仮想空間内に配置された、第1領域にアイテムを関連付けるために用いられるUIボード、左手オブジェクト、及び右手オブジェクトの一例を示す図である。
【
図23】
図23は、右手オブジェクトにより特定オブジェクトを選択する状態の一例を示す図である。
【
図24】
図24は、右手オブジェクトにより特定オブジェクトを第2領域に配置する状態の一例を示す図である。
【
図25】
図25は、特定オブジェクトを第2領域に配置した状態の一例を示す図である。
【
図26】
図26は、本実施形態におけるアイテムの状態を更新する更新処理の一例を示すフローチャートである。
【発明を実施するための形態】
【0009】
<本開示が示す実施形態の詳細>
以下、本開示が示す実施形態の詳細について図面を参照しながら説明する。以下の説明では、基本的に、同一の構成要素には同一の符号を付している。このため、説明済みの構成要素(説明済みの参照番号が付された構成要素)については、必要がある場合を除き、原則、その説明を繰り返さない。
【0010】
[HMDシステムの構成]
図1を参照して、HMD(Head Mount Device)システム100の構成について説明する。
図1は、ある実施の形態に従うHMDシステム100の構成の概略を表す図である。ある局面において、HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
【0011】
HMDシステム100は、HMD装置110と、HMDセンサ120と、コントローラ160と、コンピュータ200と、を備える。HMD装置110は、ディスプレイ112と、カメラ116と、マイク118と、注視センサ140と、を含む。コントローラ160は、モーションセンサ130を含み得る。
【0012】
ある局面において、コンピュータ200は、インターネットその他のネットワーク19に接続可能であり、ネットワーク19に接続されているサーバ150その他のコンピュータと通信可能である。別の局面において、HMD装置110は、HMDセンサ120の代わりに、センサ114を含み得る。
【0013】
HMD装置110は、ユーザの頭部に装着され、動作中に仮想空間をユーザに提供し得る。より具体的には、HMD装置110は、右目用の画像および左目用の画像をディスプレイ112にそれぞれ表示する。ユーザの各目がそれぞれの画像を視認すると、ユーザは、両目の視差に基づき当該画像を3次元の画像として認識し得る。ディスプレイ112はHMD装置110と一体に構成されていてもよいし、別体であってもよい。
【0014】
ディスプレイ112は、例えば、非透過型の表示装置として実現される。ある局面において、ディスプレイ112は、ユーザの両目の前方に位置するようにHMD装置110の本体に配置されている。従って、ユーザは、ディスプレイ112に表示される3次元画像を視認すると、仮想空間に没入することができる。ある実施の形態において、仮想空間は、例えば、背景、オブジェクト、およびユーザが選択可能なメニューの画像等を含む。ある実施の形態において、ディスプレイ112は、所謂スマートフォンその他の情報表示端末が備える液晶ディスプレイまたは有機EL(Electro Luminescence)ディスプレイとして実現され得る。
【0015】
ある局面において、ディスプレイ112は、右目用の画像を表示するためのサブディスプレイと、左目用の画像を表示するためのサブディスプレイとを含み得る。別の局面において、ディスプレイ112は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、ディスプレイ112は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。
【0016】
カメラ116は、HMD装置110を装着するユーザの顔画像を取得する。カメラ116によって取得された顔画像は、画像解析処理によってユーザの表情を検知するために使用され得る。カメラ116は、例えば、瞳の動き、まぶたの開閉、および眉毛の動き等を検知するために、HMD装置110本体に内蔵された赤外線カメラであってもよい。あるいは、カメラ116は、ユーザの口、頬、および顎等の動きを検知するために、
図1に示されるようにHMD装置110の外側に配置された外付けカメラであってもよい。また、カメラ116は、上述した赤外線カメラおよび外付けカメラの両方によって構成されてもよい。
【0017】
マイク118は、ユーザが発した音声を取得する。マイク118によって取得された音声は、音声解析処理によってユーザの感情を検知するために使用され得る。当該音声は、仮想空間に対して、音声による指示を与えるためにも使用され得る。また、当該音声は、ネットワーク19およびサーバ150等を介して、他のユーザが使用するHMDシステムに送られ、当該HMDシステムに接続されたスピーカ等から出力されてもよい。これにより、仮想空間を共有するユーザ間での会話(チャット)が実現される。
【0018】
HMDセンサ120は、複数の光源(図示しない)を含む。各光源は例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ120は、HMD装置110の動きを検出するためのポジショントラッキング機能を有する。HMDセンサ120は、この機能を用いて、現実空間内におけるHMD装置110の位置および傾きを検出する。
【0019】
なお、別の局面において、HMDセンサ120は、カメラにより実現されてもよい。この場合、HMDセンサ120は、カメラから出力されるHMD装置110の画像情報を用いて、画像解析処理を実行することにより、HMD装置110の位置および傾きを検出することができる。
【0020】
別の局面において、HMD装置110は、位置検出器として、HMDセンサ120の代わりに、センサ114を備えてもよい。HMD装置110は、センサ114を用いて、HMD装置110自身の位置および傾きを検出し得る。例えば、センサ114が角速度センサ、地磁気センサ、加速度センサ、あるいはジャイロセンサ等である場合、HMD装置110は、HMDセンサ120の代わりに、これらの各センサのいずれかを用いて、自身の位置および傾きを検出し得る。一例として、センサ114が角速度センサである場合、角速度センサは、現実空間におけるHMD装置110の3軸周りの角速度を経時的に検出する。HMD装置110は、各角速度に基づいて、HMD装置110の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD装置110の傾きを算出する。また、HMD装置110は、透過型表示装置を備えていてもよい。この場合、該透過型表示装置は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。また、ディスプレイ112に表示された視界画像上に、現実空間を提示する要素を含ませるようにしてもよい。例えば、HMD装置110に搭載されたカメラで撮影した画像を視界画像の一部に重畳して表示させてもよいし、当該透過型表示装置の一部の透過率を高く設定することにより、視界画像の一部から現実空間を視認可能にしてもよい。
【0021】
注視センサ140は、ユーザ190の右目および左目の視線が向けられる方向(視線方向)を検出する。当該方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある局面において、注視センサ140は、右目用のセンサおよび左目用のセンサを含むことが好ましい。注視センサ140は、例えば、ユーザ190の右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、ユーザ190の視線方向を検知することができる。
【0022】
サーバ150は、コンピュータ200にプログラムを送信して、ユーザに仮想空間を提供し得る。
【0023】
また、別の局面において、サーバ150は、他のユーザによって使用されるHMD装置に仮想現実を提供するための他のコンピュータ200と通信し得る。例えば、アミューズメント施設において、複数のユーザが参加型のゲームを行う場合、各コンピュータ200は、各ユーザの動作に基づく信号を他のコンピュータ200と通信して、同じ仮想空間において複数のユーザが共通のゲームを楽しむことを可能にする。
【0024】
コントローラ160は、ユーザ190からコンピュータ200への命令の入力を受け付ける。ある局面において、コントローラ160は、ユーザ190によって把持可能に構成される。別の局面において、コントローラ160は、ユーザ190の身体あるいは衣類の一部に装着可能に構成される。別の局面において、コントローラ160は、コンピュータ200から送られる信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。別の局面において、コントローラ160は、仮想現実を提供する空間に配置されるオブジェクトの位置および動き等を制御するためにユーザ190によって与えられる操作を受け付ける。
【0025】
モーションセンサ130は、ある局面において、ユーザの手に取り付けられて、ユーザの手の動きを検出する。例えば、モーションセンサ130は、手の回転速度、回転数等を検出する。検出された信号は、コンピュータ200に送られる。モーションセンサ130は、例えば、手袋型のコントローラ160に設けられている。ある実施の形態において、現実空間における安全のため、コントローラ160は、手袋型のようにユーザ190の手に装着されることにより容易に飛んで行かないものに装着されるのが望ましい。別の局面において、ユーザ190に装着されないセンサがユーザ190の手の動きを検出してもよい。例えば、ユーザ190を撮影するカメラの信号が、ユーザ190の動作を表す信号として、コンピュータ200に入力されてもよい。モーションセンサ130とコンピュータ200とは、有線により、または無線により互いに接続される。無線の場合、通信形態は特に限られず、例えば、Bluetooth(登録商標)その他の公知の通信手法が用いられる。
【0026】
[ハードウェア構成]
図2を参照して、本実施の形態に係るコンピュータ200について説明する。
図2は、一局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、メモリ11と、ストレージ12と、入出力インターフェース13と、通信インターフェース14とを備える。各構成要素は、それぞれ、バス15に接続されている。
【0027】
プロセッサ10は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ11またはストレージ12に格納されているプログラムに含まれる一連の命令を実行する。ある局面において、プロセッサ10は、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-Programmable Gate Array)その他のデバイスとして実現される。
【0028】
メモリ11は、プログラムおよびデータを一時的に保存する。プログラムおよびデータの少なくともいずれかは、例えば、ストレージ12からロードされる。メモリ11に保存されるデータは、コンピュータ200に入力されたデータと、プロセッサ10によって生成されたデータとを含む。ある局面において、メモリ11は、RAM(Random Access Memory)その他の揮発性メモリとして実現される。
【0029】
ストレージ12は、プログラムおよびデータを永続的に保持する。ストレージ12は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発性記憶装置として実現される。ストレージ12に格納されるプログラムは、HMDシステム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、および他のコンピュータ200との通信を実現するためのプログラム等を含む。ストレージ12に格納されるデータは、仮想空間を規定するためのデータおよびオブジェクト等を含む。
【0030】
なお、別の局面において、ストレージ12は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の局面において、コンピュータ200に内蔵されたストレージ12の代わりに、外部の記憶装置に保存されているプログラムおよびデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のHMDシステム100が使用される場面において、プログラムおよびデータ等の更新を一括して行うことが可能になる。
【0031】
ある実施の形態において、入出力インターフェース13は、HMD装置110、HMDセンサ120またはモーションセンサ130との間で信号を通信する。ある局面において、入出力インターフェース13は、USB(Universal Serial Bus)インターフェース、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)その他の端子を用いて実現される。なお、入出力インターフェース13は上述のものに限られない。
【0032】
ある実施の形態において、入出力インターフェース13は、さらに、コントローラ160と通信し得る。例えば、入出力インターフェース13は、モーションセンサ130から出力された信号の入力を受ける。別の局面において、入出力インターフェース13は、プロセッサ10から出力された命令を、コントローラ160に送る。当該命令は、振動、音声出力、発光等をコントローラ160に指示する。コントローラ160は、当該命令を受信すると、その命令に応じて、振動、音声出力または発光のいずれかを実行する。
【0033】
通信インターフェース14は、ネットワーク19に接続されて、ネットワーク19に接続されている他のコンピュータ(例えば、サーバ150)と通信する。ある局面において、通信インターフェース14は、例えば、LAN(Local Area Network)その他の有線通信インターフェース、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)その他の無線通信インターフェースとして実現される。なお、通信インターフェース14は上述のものに限られない。
【0034】
ある局面において、プロセッサ10は、ストレージ12にアクセスし、ストレージ12に格納されている1つ以上のプログラムをメモリ11にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、コントローラ160を用いて仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ10は、入出力インターフェース13を介して、仮想空間を提供するための信号をHMD装置110に送る。HMD装置110は、その信号に基づいてディスプレイ112に映像を表示する。
【0035】
サーバ150は、ネットワーク19を介して複数のHMDシステム100の各々の制御装置と接続される。
【0036】
なお、
図2に示される例では、コンピュータ200がHMD装置110の外部に設けられる構成が示されているが、別の局面において、コンピュータ200は、HMD装置110に内蔵されてもよい。一例として、ディスプレイ112を含む携帯型の情報通信端末(例えば、スマートフォン)がコンピュータ200として機能してもよい。
【0037】
また、コンピュータ200は、複数のHMD装置110に共通して用いられる構成であってもよい。このような構成によれば、例えば、複数のユーザに同一の仮想空間を提供することもできるので、各ユーザは同一の仮想空間で他のユーザと同一のアプリケーションを楽しむことができる。なお、このような場合、本実施形態における複数のHMDシステム100は、入出力インターフェース13により、コンピュータ200に直接接続されてもよい。また、本実施形態におけるサーバ150の各機能は、コンピュータ200に実装されてもよい。
【0038】
ある実施の形態において、HMDシステム100では、グローバル座標系が予め設定されている。グローバル座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、ならびに、鉛直方向および水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。本実施の形態では、グローバル座標系は視点座標系の一つである。そこで、グローバル座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれ、x軸、y軸、z軸と規定される。より具体的には、グローバル座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。
【0039】
ある局面において、HMDセンサ120は、赤外線センサを含む。赤外線センサが、HMD装置110の各光源から発せられた赤外線をそれぞれ検出すると、HMD装置110の存在を検出する。HMDセンサ120は、さらに、各点の値(グローバル座標系における各座標値)に基づいて、HMD装置110を装着したユーザ190の動きに応じた、現実空間内におけるHMD装置110の位置および傾きを検出する。より詳しくは、HMDセンサ120は、経時的に検出された各値を用いて、HMD装置110の位置および傾きの時間的変化を検出できる。
【0040】
グローバル座標系は現実空間の座標系と平行である。したがって、HMDセンサ120によって検出されたHMD装置110の各傾きは、グローバル座標系におけるHMD装置110の3軸周りの各傾きに相当する。HMDセンサ120は、グローバル座標系におけるHMD装置110の傾きに基づき、uvw視野座標系をHMD装置110に設定する。HMD装置110に設定されるuvw視野座標系は、HMD装置110を装着したユーザ190が仮想空間において物体を見る際の視点座標系に対応する。
【0041】
[uvw視野座標系]
図3を参照して、uvw視野座標系について説明する。
図3は、ある実施の形態に従うHMD装置110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD装置110の起動時に、グローバル座標系におけるHMD装置110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD装置110に設定する。
【0042】
図3に示されるように、HMD装置110は、HMD装置110を装着したユーザの頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD装置110は、グローバル座標系を規定する水平方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD装置110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD装置110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)として設定する。
【0043】
ある局面において、HMD装置110を装着したユーザ190が直立し、かつ、正面を視認している場合、プロセッサ10は、グローバル座標系に平行なuvw視野座標系をHMD装置110に設定する。この場合、グローバル座標系における水平方向(x軸)、鉛直方向(y軸)、および前後方向(z軸)は、HMD装置110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)に一致する。
【0044】
uvw視野座標系がHMD装置110に設定された後、HMDセンサ120は、HMD装置110の動きに基づいて、設定されたuvw視野座標系におけるHMD装置110の傾き(傾きの変化量)を検出できる。この場合、HMDセンサ120は、HMD装置110の傾きとして、uvw視野座標系におけるHMD装置110のピッチ角(θu)、ヨー角(θv)、およびロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ方向周りのHMD装置110の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー方向周りのHMD装置110の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール方向周りのHMD装置110の傾き角度を表す。
【0045】
HMDセンサ120は、検出されたHMD装置110の傾き角度に基づいて、HMD装置110が動いた後のHMD装置110におけるuvw視野座標系を、HMD装置110に設定する。HMD装置110と、HMD装置110のuvw視野座標系との関係は、HMD装置110の位置および傾きに関わらず、常に一定である。HMD装置110の位置および傾きが変わると、当該位置および傾きの変化に連動して、グローバル座標系におけるHMD装置110のuvw視野座標系の位置および傾きが変化する。
【0046】
ある局面において、HMDセンサ120は、赤外線センサからの出力に基づいて取得される赤外線の光強度および複数の点間の相対的な位置関係(例えば、各点間の距離など)に基づいて、HMD装置110の現実空間内における位置を、HMDセンサ120に対する相対位置として特定してもよい。また、プロセッサ10は、特定された相対位置に基づいて、現実空間内(グローバル座標系)におけるHMD装置110のuvw視野座標系の原点を決定してもよい。
【0047】
[仮想空間]
図4を参照して、仮想空間についてさらに説明する。
図4は、ある実施の形態に従う仮想空間2を表現する一態様を概念的に表す図である。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。
図4では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間2に展開(配置)可能な各要素(例えば、オブジェクト、静止画、動画等)を、仮想空間2上の展開位置(配置位置)に対応するメッシュに対応付けることで、ユーザによって視認可能な仮想空間要素が展開される仮想空間2をユーザに提供する。仮想空間要素とは、仮想空間2内に展開される要素であり、例えば、各種オブジェクト(例えば、ユーザが操作可能なオブジェクト、所定のアルゴリズムに基づいて動作するオブジェクト、および動作しないオブジェクトなど)や、各種画像(背景画像、ユーザが選択画像なメニュー画像、写真、動画像など)を含む。
【0048】
ある局面において、仮想空間2では、中心21を原点とするXYZ座標系が規定される。XYZ座標系は、例えば、グローバル座標系に平行である。XYZ座標系は視点座標系の一種であるため、XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)がグローバル座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)がグローバル座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)がグローバル座標系のz軸と平行である。
【0049】
HMD装置110の起動時、すなわちHMD装置110の初期状態において、仮想カメラ1が、仮想空間2の中心21に配置される。仮想カメラ1は、現実空間におけるHMD装置110の動きに連動して、仮想空間2を同様に移動する。これにより、現実空間におけるHMD装置110の位置および向きの変化が、仮想空間2において同様に再現される。
【0050】
仮想カメラ1には、HMD装置110の場合と同様に、uvw視野座標系が規定される。仮想空間2における仮想カメラ1のuvw視野座標系は、現実空間(グローバル座標系)におけるHMD装置110のuvw視野座標系に連動するように規定されている。したがって、HMD装置110の傾きが変化すると、それに応じて、仮想カメラ1の傾きも変化する。また、仮想カメラ1が、HMD装置110を装着したユーザの現実空間における移動に連動して、仮想空間2において移動するようにしてもよいし、コントローラ160により受け付けられたユーザ190による操作に応じて、移動するようにしてもよい。
【0051】
仮想カメラ1の向きは、仮想カメラ1の位置および傾きに応じて決まるので、ユーザが仮想空間要素を視認する際に基準となる視線(基準視線5)は、仮想カメラ1の向きに応じて決まる。但し、仮想カメラ1の向きを注視センサ140により検出されたユーザ190の視線方向に応じて決めるようにしてもよい。コンピュータ200のプロセッサ10は、基準視線5に基づいて、仮想空間2における視界領域23を規定する。視界領域23は、仮想空間2のうち、HMD装置110を装着したユーザの視界に対応する。
【0052】
注視センサ140によって検出されるユーザ190の視線方向は、ユーザ190が物体を視認する際の視点座標系における方向である。HMD装置110のuvw視野座標系は、ユーザ190がディスプレイ112を視認する際の視点座標系に等しい。また、仮想カメラ1のuvw視野座標系は、HMD装置110のuvw視野座標系に連動している。したがって、ある局面に従うHMDシステム100は、注視センサ140によって検出されたユーザ190の視線方向を、仮想カメラ1のuvw視野座標系におけるユーザの視線方向とみなすことができる。
【0053】
[ユーザの視線]
図5を参照して、ユーザの視線方向の決定について説明する。
図5は、ある実施の形態に従うHMD装置110を装着するユーザ190の頭部を上から表した図である。
【0054】
ある局面において、注視センサ140は、ユーザ190の右目および左目の各視線を検出する。ある局面において、ユーザ190が近くを見ている場合、注視センサ140は、視線R1およびL1を検出する。別の局面において、ユーザ190が遠くを見ている場合、注視センサ140は、視線R2およびL2を検出する。この場合、ロール方向wに対して視線R2およびL2がなす角度は、ロール方向wに対して視線R1およびL1がなす角度よりも小さい。注視センサ140は、検出結果をコンピュータ200に送信する。
【0055】
コンピュータ200が、視線の検出結果として、視線R1およびL1の検出値を注視センサ140から受信した場合には、その検出値に基づいて、視線R1およびL1の交点である注視点N1を特定する。一方、コンピュータ200は、視線R2およびL2の検出値を注視センサ140から受信した場合には、視線R2およびL2の交点を注視点として特定する。コンピュータ200は、特定した注視点N1の位置に基づき、ユーザ190の視線方向N0を特定する。コンピュータ200は、例えば、ユーザ190の右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の延びる方向を、視線方向N0として検出する。視線方向N0は、ユーザ190が両目により実際に視線を向けている方向である。また、視線方向N0は、視界領域23に対してユーザ190が実際に視線を向けている方向に相当する。
【0056】
また、別の局面において、HMDシステム100は、テレビジョン放送受信チューナを備えてもよい。このような構成によれば、HMDシステム100は、仮想空間2においてテレビ番組を表示することができる。
【0057】
さらに別の局面において、HMDシステム100は、インターネットに接続するための通信回路、あるいは、電話回線に接続するための通話機能を備えていてもよい。
【0058】
[視界領域]
図6および
図7を参照して、視界領域23について説明する。
図6は、仮想空間2において視界領域23をX方向から見たYZ断面を表す図である。
図7は、仮想空間2において視界領域23をY方向から見たXZ断面を表す図である。
【0059】
図6に示されるように、YZ断面における視界領域23は、領域24を含む。領域24は、仮想カメラ1の基準視線5と仮想空間2のYZ断面とによって定義される。プロセッサ10は、仮想空間2における基準視線5を中心として極角αを含む範囲を、領域24として規定する。
【0060】
図7に示されるように、XZ断面における視界領域23は、領域25を含む。領域25は、基準視線5と仮想空間2のXZ断面とによって定義される。プロセッサ10は、仮想空間2における基準視線5を中心とした方位角βを含む範囲を、領域25として規定する。
【0061】
ある局面において、HMDシステム100は、コンピュータ200からの信号に基づいて、視界画像をディスプレイ112に表示させることにより、ユーザ190に仮想空間を提供する。視界画像は、仮想空間2に展開された仮想空間要素のうち視界領域23に相当する空間内の仮想空間要素を表す画像である。ユーザ190が、頭に装着したHMD装置110を動かすと、その動きに連動して仮想カメラ1も動く。その結果、仮想空間2における視界領域23の位置が変化する。これにより、ディスプレイ112に表示される視界画像は、ユーザ190がHMD装置110を動かす前の視界領域23に相当する空間内の仮想空間要素を表す画像から、ユーザ190がHMD装置110を動かした後の視界領域23に相当する空間内の仮想空間要素を表す画像に更新される。ユーザは、仮想空間2における所望の方向を視認することができる。
【0062】
ユーザ190は、HMD装置110を装着している間、現実世界を視認することなく、仮想空間2に展開される仮想空間要素を視認できる。そのため、HMDシステム100は、仮想空間2への高い没入感覚をユーザに与えることができる。
【0063】
ある局面において、プロセッサ10は、HMD装置110を装着したユーザ190の実空間における移動に連動して、仮想空間2において仮想カメラ1を移動し得る。この場合、プロセッサ10は、仮想空間2における仮想カメラ1の位置および向きに基づいて、HMD装置110のディスプレイ112に投影される画像領域(すなわち、仮想空間2における視界領域23)を特定する。すなわち、仮想カメラ1によって、仮想空間2におけるユーザ190の視野が定義される。
【0064】
ある実施の形態に従うと、仮想カメラ1は、二つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含むことが望ましい。また、ユーザ190が3次元の仮想空間2を認識できるように、適切な視差が、二つの仮想カメラに設定されていることが好ましい。本実施の形態においては、仮想カメラ1が二つの仮想カメラを含み、二つの仮想カメラのロール方向が合成されることによって生成されるロール方向(w)がHMD装置110のロール方向(w)に適合されるように構成されているものとして、本開示に係る技術思想を例示する。
【0065】
[コントローラ]
図8を参照して、コントローラ160の一例について説明する。
図8は、ある実施の形態に従うコントローラ160の概略構成を表す図である。
【0066】
図8の状態(A)に示されるように、ある局面において、コントローラ160は、右コントローラ160Rと左コントローラとを含み得る。右コントローラ160Rは、ユーザ190の右手で操作される。左コントローラは、ユーザ190の左手で操作される。ある局面において、右コントローラ160Rと左コントローラとは、別個の装置として対称に構成される。したがって、ユーザ190は、右コントローラ160Rを把持した右手と、左コントローラを把持した左手とをそれぞれ自由に動かすことができる。別の局面において、コントローラ160は両手の操作を受け付ける一体型のコントローラであってもよい。以下、右コントローラ160Rについて説明する。
【0067】
右コントローラ160Rは、グリップ30と、フレーム31と、天面32とを備える。グリップ30は、ユーザ190の右手によって把持されるように構成されている。例えば、グリップ30は、ユーザ190の右手の掌と3本の指(中指、薬指、小指)とによって保持され得る。
【0068】
グリップ30は、ボタン33,34と、モーションセンサ130とを含む。ボタン33は、グリップ30の側面に配置され、右手の中指による操作を受け付ける。ボタン34は、グリップ30の前面に配置され、右手の人差し指による操作を受け付ける。ある局面において、ボタン33,34は、トリガー式のボタンとして構成される。モーションセンサ130は、グリップ30の筐体に内蔵されている。なお、ユーザ190の動作がカメラその他の装置によってユーザ190の周りから検出可能である場合には、グリップ30は、モーションセンサ130を備えなくてもよい。
【0069】
フレーム31は、その円周方向に沿って配置された複数の赤外線LED35を含む。赤外線LED35は、コントローラ160を使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LED35から発せられた赤外線は、右コントローラ160Rと左コントローラとの各位置および姿勢(傾き、向き)等を検出するために使用され得る。
図8に示される例では、二列に配置された赤外線LED35が示されているが、配列の数は
図8に示されるものに限られない。一列あるいは3列以上の配列が使用されてもよい。
図8に示す例では、コントローラ160は、ユーザが手で把持するコントローラであるため、コントローラ160の位置および姿勢(傾き、向き)を検出することで、ユーザの手の動きを検知できる。なお、コントローラ160が、ユーザ190の身体あるいは衣類の一部に装着可能である場合、コントローラ160の位置および姿勢(傾き、向き)を検出することで、ユーザ190の身体あるいは衣類の一部の動きを検知できる。
【0070】
天面32は、ボタン36,37と、アナログスティック38とを備える。ボタン36,37は、プッシュ式ボタンとして構成される。ボタン36,37は、ユーザ190の右手の親指による操作を受け付ける。アナログスティック38は、ある局面において、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、例えば、仮想空間2に配置されるオブジェクトを移動させるための操作を含む。
【0071】
ある局面において、右コントローラ160Rおよび左コントローラは、赤外線LED35その他の部材を駆動するための電池を含む。電池は、充電式、ボタン型、乾電池型等を含むが、これらに限定されない。別の局面において、右コントローラ160Rおよび左コントローラは、例えば、コンピュータ200のUSBインターフェースに接続され得る。この場合、右コントローラ160Rおよび左コントローラは、電池を必要としない。
【0072】
図8の状態(A)および状態(B)に示されるように、例えば、ユーザ190の右手810に対して、ヨー、ロール、ピッチの各方向が規定される。ユーザ190が親指と人差し指とを伸ばした場合に、親指の伸びる方向がヨー方向、人差し指の伸びる方向がロール方向、ヨー方向の軸およびロール方向の軸によって規定される平面に垂直な方向がピッチ方向として規定される。
[HMD装置の制御装置]
【0073】
図9を参照して、HMD装置110の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。
図9は、ある実施の形態に従うコンピュータ200をモジュール構成として表すブロック図である。
【0074】
図9に示されるように、コンピュータ200は、主制御モジュール220と、メモリモジュール240と、通信制御モジュール250とを備える。主制御モジュール220は、サブモジュールとして、仮想空間制御モジュール221と、仮想カメラ制御モジュール222と、オブジェクト制御モジュール223と、コリジョン判定モジュール224と、パラメータ制御モジュール225と、視界画像生成モジュール226と、表示制御モジュール227と、を含む。但し、主制御モジュール220に、上述した全てのモジュールを含める必要はなく、その一部を含めないようにしてもよい。
【0075】
ある実施の形態において、主制御モジュール220は、プロセッサ10によって実現される。別の実施の形態において、複数のプロセッサ10が主制御モジュール220として作動してもよい。メモリモジュール240は、メモリ11またはストレージ12によって実現される。通信制御モジュール250は、通信インターフェース14によって実現される。
【0076】
仮想空間制御モジュール221は、ユーザ190に提供される仮想空間2を制御する。本実施形態では、仮想空間制御モジュール221は、仮想空間2を表す仮想空間データを特定することにより、HMDシステム100における仮想空間2を規定する。なお本実施形態では、仮想空間2内への、仮想カメラ1、各種オブジェクト、及び背景画像などの仮想空間要素の配置を仮想空間制御モジュール221以外のモジュールが行う場合を例にとり説明するが、これに限定されず、仮想空間制御モジュール221が行うようにしてもよい。また、仮想空間2内への仮想空間要素の配置は、仮想空間2全体に対して行われてもよいし、後述の仮想カメラ制御モジュール222により決定された視界領域23に限定して行われてもよい。
【0077】
仮想カメラ制御モジュール222は、仮想空間2へ仮想カメラ1を配置し、仮想空間2における仮想カメラ1の動作を制御する。本実施形態では、仮想カメラ制御モジュール222は、HMD装置110を装着したユーザの頭の向き、即ち、HMD装置110の動きに基づいて、仮想空間2における仮想カメラ1の挙動、向き等を制御できる。つまり、仮想カメラ1の視界領域23は、HMD装置110を装着したユーザの頭の向きに基づいて規定される。但し、仮想カメラ1の動作制御は、これに限定されるものではない。例えば、ユーザによるコントローラ160のキー操作に基づいて規定されてもよい。
【0078】
オブジェクト制御モジュール223は、仮想空間2へオブジェクトを配置し、仮想空間2におけるオブジェクトの動作を制御する。オブジェクトは、仮想空間2に配置可能な仮想オブジェクトであればどのようなオブジェクトであってもよい。オブジェクトとしては、例えば、操作オブジェクト、操作オブジェクトによって扱われるアイテムなどの対象オブジェクト、敵キャラクタ、及び背景オブジェクトなどが挙げられるが、これらに限定されるものではない。
【0079】
操作オブジェクトは、HMD装置110を装着したユーザに関連付けられ、かつ当該ユーザにより動作が制御されるオブジェクトである。操作オブジェクトは、例えば、HMD装置110を装着したユーザに関連付けられたプレイヤキャラクタそのものであってもよいし、プレイヤキャラクタの身体の一部を構成するオブジェクトであってもよい。プレイヤキャラクタは、HMD装置110を装着したユーザの仮想空間2における分身であり、アバターと称する場合もある。本実施形態では、操作オブジェクトが、HMD装置110を装着したユーザの手に関連付けられた仮想手、即ち、プレイヤキャラクタの手を構成する手オブジェクトである場合を例にとり説明する。この場合、オブジェクト制御モジュール223は、ユーザが手に保持するコントローラ160の動きやユーザによるコントローラ160のキー操作に基づいて、手オブジェクトを動作させる。但し、操作オブジェクトは手オブジェクトに限定されるものではない。例えば、操作オブジェクトを手オブジェクトではなく、指オブジェクト(仮想指)、足オブジェクト、及びユーザが使用するスティックに相当するスティックオブジェクト等としてもよい。操作オブジェクトが指オブジェクトの場合、特に、操作オブジェクトは、当該指が指し示す方向(軸方向)の軸の部分に対応している。なお、操作オブジェクトがプレイヤキャラクタの身体の一部を構成するオブジェクトである場合、当該プレイヤキャラクタの身体を構成する各種オブジェクトのうち、当該操作オブジェクト以外の部位を構成するオブジェクトについては、配置の有無は問わない。
【0080】
対象オブジェクトは、操作オブジェクトによって直接又は間接的に操作される(扱われる)オブジェクトであればどのようなオブジェクトであってもよい。対象オブジェクトとしては、例えば、仮想空間内で使用されるアイテムが挙げられる。アイテムとしては、ゲームを進行する上で使用される仮想的な物品が挙げられる。但し、物品が有体物であるか無体物であるかは問わない。例えば、敵キャラクタを攻撃したり、敵キャラクタから攻撃されたりするようなアクションゲームにおいては、アイテムとして、敵キャラクタを攻撃するための武器オブジェクトや、敵キャラクタからの攻撃を防ぐための防具オブジェクトなどが挙げられるが、これらに限定されるものではない。武器オブジェクトとしては、例えば、銃、剣、槍、斧、弓、及び手榴弾などを模したオブジェクトが挙げられるが、これらに限定されるものではない。防具オブジェクトとしては、例えば、盾や鎧などを模したオブジェクトが挙げられるが、これらに限定されるものではない。なお、武器オブジェクトや防具オブジェクトは、他のオブジェクトとの接触など、パラメータに関係なく効力を発動するものであってもよいし、関連付けられたパラメータを消費することで効力を発動するものであってもよい。例えば、武器オブジェクトが銃を模した銃オブジェクトである場合、銃オブジェクトに関連付けられたパラメータは、銃オブジェクトから発射される弾オブジェクトの残数となる。この場合、銃オブジェクトは、弾オブジェクトの残数があれば弾オブジェクトを消費して、弾オブジェクトを発射する。
【0081】
敵キャラクタは、プレイヤキャラクタとの間で影響を及ぼしあうオブジェクトである。前述したようなアクションゲームにおいては、敵キャラクタは、例えば、プレイヤキャラクタを攻撃したり、プレイヤキャラクタから攻撃されたりするようなオブジェクトが挙げられる。敵キャラクタは、所定のプログラムによって動作が制御されるNPC(Non Player Character)であってもよいし、他のユーザによって制御されるオブジェクトであってもよい。背景オブジェクトは、例えば、ゲームのストーリーの進行に従って配置される森、山その他を含む風景、動物等を含み得る。なお、オブジェクト制御モジュール223は、動作しないオブジェクトについては、固定位置に配置したままに制御しておけばよい。
【0082】
コリジョン判定モジュール224は、オブジェクト間のコリジョンエリアの衝突(接触)を判定することで、オブジェクト間の衝突を判定する。コリジョン判定モジュール224は、例えば、あるオブジェクトと別のオブジェクトとが触れたタイミングを検出したり、触れている状態から離れたタイミングを検出したりすることができる。本実施形態では、コリジョン判定モジュール224は、操作オブジェクトと各種領域との衝突を判定する。具体的には、コリジョン判定モジュール224は、操作オブジェクトに設定されたコリジョンエリアと、コリジョンエリアによって構成される各種領域との衝突(接触)を判定することで、操作オブジェクトと各種領域との衝突を判定する。
【0083】
パラメータ制御モジュール225は、各種パラメータを制御する。前述したように、アイテムが関連付けられたパラメータを消費することで効力を発動するものである場合、パラメータ制御モジュール225は、アイテムの効力発動に伴い、パラメータの残量を制御する。
【0084】
視界画像生成モジュール226は、仮想カメラ制御モジュール222により決定された視界領域23に基づいて、ディスプレイ112に表示される視界画像データを生成する。具体的には、視界画像生成モジュール226は、仮想カメラ1の動きに基づいて定義される仮想カメラ1の視界や仮想空間制御モジュール221により特定された仮想空間データ等に基づいて、視界画像データを生成する。
【0085】
表示制御モジュール227は、視界画像生成モジュール226により生成された視界画像データに基づいて、HMD装置110のディスプレイ112に視界画像を表示させる。例えば、表示制御モジュール227は、視界画像生成モジュール226により生成された視界画像データをHMD装置110に出力することで、視界画像をディスプレイ112に表示させる。
【0086】
メモリモジュール240は、コンピュータ200が仮想空間2をユーザ190に提供するために使用されるデータを保持している。ある局面において、メモリモジュール240は、空間情報241と、オブジェクト情報242と、ユーザ情報243とを保持している。空間情報241には、例えば、仮想空間2を提供するために規定された1つ以上のテンプレートが含まれている。オブジェクト情報242には、例えば、仮想空間2において再生されるコンテンツ、当該コンテンツで使用されるオブジェクトを配置するための情報、そのほかプレイヤキャラクタの描画データやそのサイズ情報などの属性情報等が含まれている。当該コンテンツは、例えば、ゲーム、現実社会と同様の風景を表したコンテンツ等を含み得る。ユーザ情報243には、例えば、HMDシステム100の制御装置としてコンピュータ200を機能させるためのプログラム、オブジェクト情報242に保持される各コンテンツを使用するアプリケーションプログラム等が含まれている。
【0087】
メモリモジュール240に格納されているデータおよびプログラムは、HMD装置110のユーザによって入力される。あるいは、プロセッサ10が、当該コンテンツを提供する事業者が運営するコンピュータ(例えば、サーバ150)からプログラムあるいはデータをダウンロードして、ダウンロードされたプログラムあるいはデータをメモリモジュール240に格納する。
【0088】
通信制御モジュール250は、ネットワーク19を介して、サーバ150その他の情報通信装置と通信し得る。
【0089】
ある局面において、主制御モジュール220は、例えば、ユニティテクノロジーズ社によって提供されるUnity(登録商標)を用いて実現され得る。別の局面において、主制御モジュール220は、各処理を実現する回路素子の組み合わせとしても実現され得る。
【0090】
コンピュータ200における処理は、ハードウェアと、プロセッサ10により実行されるソフトウェアとによって実現される。このようなソフトウェアは、ハードディスクその他のメモリモジュール240に予め格納されている場合がある。また、ソフトウェアは、CD-ROMその他のコンピュータ読み取り可能な不揮発性のデータ記録媒体に格納されて、プログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、インターネットその他のネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、光ディスク駆動装置その他のデータ読取装置によってデータ記録媒体から読み取られて、あるいは、通信制御モジュール250を介してサーバ150その他のコンピュータからダウンロードされた後、メモリモジュール240に一旦格納される。そのソフトウェアは、プロセッサ10によってメモリモジュール240から読み出され、実行可能なプログラムの形式でRAMに格納される。プロセッサ10は、そのプログラムを実行する。
【0091】
図9に示されるコンピュータ200を構成するハードウェアは、一般的なものである。コンピュータ200のハードウェアの動作は周知であるので、詳細な説明は繰り返さない。
【0092】
なお、データ記録媒体としては、CD-ROM、FD(Flexible Disk)、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリカードを含む)、光カード、マスクROM、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する不揮発性のデータ記録媒体でもよい。
【0093】
ここでいうプログラムとは、プロセッサ10により直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含み得る。
【0094】
[制御構造]
図10を参照して、本実施の形態に係るコンピュータ200の制御構造について説明する。
図10は、ユーザ190によって使用されるHMDシステム100がユーザ190に仮想空間2を提供するために実行する処理を表すフローチャートである。
【0095】
ステップS1において、コンピュータ200のプロセッサ10は、仮想空間制御モジュール221として、仮想空間データを特定し、仮想空間2を定義する。また、プロセッサ10は、オブジェクト制御モジュール223として、この仮想空間2に各種オブジェクトを配置する。仮想空間制御モジュール221は、その動作を仮想空間2内に制御可能に定義する。
【0096】
ステップS2において、プロセッサ10は、仮想カメラ制御モジュール222として、仮想カメラ1を初期化する。例えば、プロセッサ10は、メモリのワーク領域において、仮想カメラ1を仮想空間2において予め規定された中心点に配置し、仮想カメラ1の視線をユーザ190が向いている方向に向ける。
【0097】
ステップS3において、プロセッサ10は、視界画像生成モジュール226として、初期の視界画像を表示するための視界画像データを生成する。表示制御モジュール227は、生成した視界画像データを、通信制御モジュール250を介してHMD装置110に送信(出力)する。
【0098】
ステップS4において、HMD装置110のディスプレイ112は、コンピュータ200から受信した視界画像データに基づいて、視界画像を表示する。HMD装置110を装着したユーザ190は、視界画像を視認すると仮想空間2を認識し得る。
【0099】
ステップS5において、HMDセンサ120は、HMD装置110から発信される複数の赤外線光に基づいて、HMD装置110の位置と傾きを検知する。検知結果は、動き検知データとして、コンピュータ200に送られる。
【0100】
ステップS6において、プロセッサ10は、仮想カメラ制御モジュール222として、HMD装置110の位置と傾きとに基づいて、HMD装置110を装着したユーザ190の視界方向を特定する。
【0101】
ステップS7において、コントローラ160は、現実空間におけるユーザ190の操作を検出する。例えば、ある局面において、コントローラ160は、ユーザ190によってボタンが押下されたことを検出する。別の局面において、コントローラ160は、ユーザ190の手の動作を検出する。検出内容を示す信号は、コンピュータ200に送られる。
【0102】
ステップS8において、プロセッサ10は、オブジェクト制御モジュール223、コリジョン判定モジュール224、及びパラメータ制御モジュール225として、HMDセンサ120から送られた動き検知データ、コントローラ160から送られた検出内容および各種オブジェクトの制御内容を仮想空間2に反映する。
【0103】
例えば、プロセッサ10は、オブジェクト制御モジュール223として、HMD装置110の動き検知データやコントローラ160の検出内容に基づいて、仮想空間2における操作オブジェクトを動かす。また例えば、プロセッサ10は、コリジョン判定モジュール224として、各オブジェクトのコリジョンエリアの衝突判定を行う。また例えば、プロセッサ10は、パラメータ制御モジュール225として、アイテムに関連付けられたパラメータを制御する。
【0104】
ステップS9において、プロセッサ10は、視界画像生成モジュール226として、ステップS8における処理の結果に基づく視界画像を表示するための視界画像データを生成する。表示制御モジュール227は、生成した視界画像データをHMD装置110に出力する。
【0105】
ステップS10において、HMD装置110のディスプレイ112は、受信した視界画像データに基づいて視界画像を更新し、更新後の視界画像を表示する。
【0106】
[アイテムの状態更新手法]
次に、本実施形態におけるアイテムの状態の更新手法について説明する。
図11(A)は、HMD装置110を装着するとともに、コントローラ160L、160Rを保持したユーザ190の一例を示す図である。
図11(B)は、
図11(A)に示す状態における、仮想空間2内に配置された仮想カメラ1、左手オブジェクト400L、及び右手オブジェクト400Rの一例を示す図である。
図12は、
図11(B)に示す仮想空間2内を仮想カメラ1の視界領域23で表した視界画像Mの一例を示す図である。
【0107】
本実施形態では、現実空間におけるHMD装置110の位置や動きは、ポジショントラッキングにより検出されて、仮想空間2における仮想カメラ1の位置や動きに反映される。同様に、現実空間におけるコントローラ160L、160Rの位置や動きは、それぞれ、ポジショントラッキングにより検出されて、仮想空間2における左手オブジェクト400L、右手オブジェクト400Rの位置や動きに反映される。このため本実施形態では、ユーザ190の頭(HMD装置110)に対する左手(コントローラ160L)及び右手(コントローラ160R)の位置関係が、仮想カメラ1に対する左手オブジェクト400L及び右手オブジェクト400Rの位置関係として仮想空間2に反映される。従って本実施形態によれば、HMD装置110を装着したユーザ190は、単に、自身の左手及び右手の動きに基づいて、左手オブジェクト400L及び右手オブジェクト400Rを仮想空間2内で動かすだけでなく、左手オブジェクト400L及び右手オブジェクト400Rをあたかもユーザ190自身の仮想手であるかのように仮想空間2内で動かすことができる。このように本実施形態によれば、HMD装置110を装着したユーザ190は、主観視点(1人称視点)で仮想空間2を体験できるため、ユーザ190自身があたかもプレイヤキャラクタ490になったかのような仮想体験を享受できる。つまり、ユーザ190は、あたかもプレイヤキャラクタ490になって敵キャラクタ500と対峙して対戦しているかのような仮想体験を享受できる。なお本実施形態では、プレイヤキャラクタ490の身体を構成するオブジェクトのうち、
図11(B)において実線で示す左手オブジェクト400L及び右手オブジェクト400Rについては仮想空間2内に配置しているが、
図11(B)において破線で示す他の部位を構成するオブジェクトについては、仮想空間2内への配置を省略している。また、以下の説明では、左手オブジェクト400Lと右手オブジェクト400Rとを単に「手オブジェクト400」と総称する場合がある。
【0108】
本実施形態では、プレイヤキャラクタ490の身体を構成する部位のうちの特定の部位に、第1領域が設定されている。第1領域は、例えば、コリジョンエリアにより構成される領域であり、手オブジェクト400に使用させるためのアイテムを関連付け可能な領域となっている。アイテムとしては、敵キャラクタ500を攻撃するための武器オブジェクトや敵キャラクタ500からの攻撃を防ぐための防具オブジェクトなどが挙げられるが、これらに限定されるものではない。ユーザ190は、自身の手(コントローラ160)を動かして、手オブジェクト400に設定されたコリジョンエリアと第1領域とを衝突させるとともに、第1領域に関連付けられたアイテムを選択するための選択操作を行うことで、第1領域に関連付けられたアイテムを手オブジェクト400に選択させることができる。選択操作としては、例えば、ボタン33や34などのトリガー式のボタンを押下し続けることが挙げられるが、これに限定されるものではない。
【0109】
前述したように本実施形態では、ユーザ190は、あたかもプレイヤキャラクタ490になって敵キャラクタ500と対峙して対戦しているかのような仮想体験を享受できるものである。このため、ユーザ190は、敵キャラクタ500を攻撃する場合には、武器オブジェクトが関連付けられた第1領域に手オブジェクト400を近づけて選択操作を行うことで、手オブジェクト400に武器オブジェクトを選択させ、選択した武器オブジェクトを手オブジェクト400で操作して敵キャラクタ500を攻撃する。同様に、ユーザ190は、敵キャラクタ500からの攻撃を防ぐ場合には、防具オブジェクトが関連付けられた第1領域に手オブジェクト400を近づけて選択操作を行うことで、手オブジェクト400に防具オブジェクトを選択させ、選択した防具オブジェクトを手オブジェクト400で操作して敵キャラクタ500からの攻撃を防ぐ。
【0110】
ここで、ユーザ190の仮想体験を向上させる上では、第1領域を、プレイヤキャラクタ490の身体を構成する部位のうち、プレイヤキャラクタ490が実際に武器オブジェクトや防具オブジェクトを身に着けておくことが想定されるような部位に設定しておくことが好ましい。また、第1領域を、仮想カメラ1(プレイヤキャラクタ490)の視界領域23の範囲外に位置するようにしておけば、プレイヤキャラクタ490が武器オブジェクトや防具オブジェクトを身に着けているようなグラフィックの描画を省略できるため、処理負荷の観点からも好ましい。このため本実施形態では、第1領域がプレイヤキャラクタ490の左肩、右肩、左腰、及び右腰それぞれに設定されている場合を例にとり説明するが、これに限定されるものではない。このように本実施形態では、第1領域は、仮想カメラ1に対する相対位置が固定されかつ視界領域23の範囲外に位置する領域となる。
【0111】
図11(B)に示す例では、プレイヤキャラクタ490の右肩に設定された第1領域であるコリジョンエリアCBに、銃オブジェクトが関連付けられている。
図11(B)に示す例では、コリジョンエリアCBに銃オブジェクトが関連付けられていることを分かりやすくするため、コリジョンエリアCBに銃オブジェクトを図示しているが、銃オブジェクトを視覚化する必要はない。以下、
図13~
図16を参照しながら、右手オブジェクト400Rによる銃オブジェクトの選択手法について具体的に説明する。
図13(A)は、ユーザ190がコントローラ160Rを保持した右手をユーザ190の視界外に位置する右肩付近に動かした状態の一例を示す図である。
図13(B)は、
図13(A)に示す状態における、仮想空間2内に配置された仮想カメラ1、左手オブジェクト400L、及び右手オブジェクト400Rの一例を示す図である。
図14は、
図13(B)に示す仮想空間2内を仮想カメラ1の視界領域23で表した視界画像Mの一例を示す図である。
図15(A)は、ユーザ190がコントローラ160Rを保持した右手を、選択操作を行った状態でユーザ190の視界内に動かした状態の一例を示す図である。
図15(B)は、
図15(A)に示す状態における、仮想空間2内に配置された仮想カメラ1、左手オブジェクト400L、及び右手オブジェクト400Rの一例を示す図である。
図16は、
図15(B)に示す仮想空間2内を仮想カメラ1の視界領域23で表した視界画像Mの一例を示す図である。
【0112】
図13(A)に示すように、ユーザ190は、コントローラ160Rを保持した右手を自身の右肩付近に移動させる。これにより、
図13(B)に示すように、プロセッサ10は、右手オブジェクト400Rを、仮想カメラ1の視界領域23の範囲外に位置するプレイヤキャラクタ490の右肩付近に移動させる。この場合、右手オブジェクト400Rは視界領域23の範囲外に位置するため、
図14に示すように、視界画像Mに右手オブジェクト400Rが含まれなくなる。また、右手オブジェクト400Rの移動に伴い、プロセッサ10は、右手オブジェクト400Rとプレイヤキャラクタ490の右肩に設定された第1領域との間で第1位置関係が成立したか否かを判定する。具体的には、プロセッサ10は、右手オブジェクト400RのコリジョンエリアCAと第1領域を構成するコリジョンエリアCBとが衝突しているか否かを判定する。
【0113】
ユーザ190が右手を右肩付近に移動させると、ユーザ190は、前述した選択操作を行う。
図13(B)に示すように、コリジョンエリアCAとコリジョンエリアCBとが衝突している場合、プロセッサ10は、選択操作が継続されている間、右手オブジェクト400Rに銃オブジェクトを選択させる。これにより、プロセッサ10は、オブジェクト制御モジュール223として、銃オブジェクトの状態を、右手オブジェクト400Rに選択されていない非選択状態から右手オブジェクト400Rに選択されている選択状態に更新する。
【0114】
図15(A)に示すように、ユーザ190は、選択操作を継続したまま、右手を自身の視界内に移動させる。これにより、
図15(B)に示すように、プロセッサ10は、右手オブジェクト400Rを視界領域23の範囲内に移動させる。この際、銃オブジェクト450は右手オブジェクト400Rに選択されている選択状態であるため、右手オブジェクト400Rには銃オブジェクト450が保持されている。また、右手オブジェクト400R及び銃オブジェクト450は視界領域23の範囲内に位置するため、
図16に示すように、視界画像Mに右手オブジェクト400R及び銃オブジェクト450が含まれるようになる。
【0115】
銃オブジェクト450が選択状態である場合、ユーザ190は、銃オブジェクト450に効力を発動させるための効力発動操作を行う。効力発動操作としては、銃オブジェクト450から弾オブジェクトを発射させるための発射操作が挙げられる。発射操作が行われることで、銃オブジェクト450から弾オブジェクトを発射させ、敵オブジェクト500を攻撃できる。効力発動操作としては、例えば、ボタン36や37などのプッシュ式ボタンを押下する操作などが挙げられるが、これに限定されるものではない。
【0116】
また、銃オブジェクト450が選択状態である場合に、ユーザ190による選択操作が解除されると、右手オブジェクト400Rによる銃オブジェクト450の選択が解除される。例えば、選択操作がボタン33や34などのトリガー式のボタンを押下し続けることであるとする。この場合、プロセッサ10によりトリガー式のボタンの押下が解除されたことが検出されると、プロセッサ10は、オブジェクト制御モジュール223として、右手オブジェクト400Rに銃オブジェクト450を離させるとともに、銃オブジェクトの状態を、選択状態から非選択状態に更新する。
【0117】
図17は、本実施形態におけるアイテムの状態を更新する更新処理の一例を示すフローチャートであり、詳細には、アイテムの選択状態及び非選択状態間の更新処理を示す。
【0118】
ステップS11では、プロセッサ10は、オブジェクト制御モジュール223として、ユーザ190の手(コントローラ160)の動きを検出し、検出した手の動きに連動して、手オブジェクト400を仮想空間2内で動かす。この際、プロセッサ10は、コリジョン判定モジュール224として、移動後の手オブジェクト400のコリジョンエリアCAが他のコリジョンエリアと衝突しているか否かを判定する。
【0119】
ステップS12では、プロセッサ10は、オブジェクト制御モジュール223として、ユーザ190による選択操作が行われたか否かを判定する。選択操作が行われなかった場合(ステップS12でNo)、ステップS11へ戻る。選択操作が行われた場合(ステップS12でYes)、ステップS13へ進む。
【0120】
ステップS13では、プロセッサ10は、オブジェクト制御モジュール223として、コリジョン判定モジュール224により、手オブジェクト400のコリジョンエリアCAと第1領域を構成するコリジョンエリアCBとが衝突していると判定されているか否かを確認する。コリジョンエリアCAとコリジョンエリアCBとが衝突していない場合(ステップS13でNo)、ステップS11へ戻る。コリジョンエリアCAとコリジョンエリアCBとが衝突している場合(ステップS13でYes)、ステップS14へ進む。
【0121】
ステップS14では、プロセッサ10は、オブジェクト制御モジュール223として、第1領域に関連付けられているアイテムを手オブジェクト400に選択させる。これにより、手オブジェクト400にはアイテムが保持される。またプロセッサ10は、オブジェクト制御モジュール223として、アイテムの状態を非選択状態から選択状態に更新する。但し、第1領域にアイテムが関連付けられていない場合、プロセッサ10は、手オブジェクト400にアイテムを選択させない。
【0122】
ステップS15では、プロセッサ10は、オブジェクト制御モジュール223として、ユーザ190の手(コントローラ160)の動きを検出し、検出した手の動きに連動して、手オブジェクト400を仮想空間2内で動かす。この際、プロセッサ10は、コリジョン判定モジュール224として、移動後の手オブジェクト400のコリジョンエリアCAが他のコリジョンエリアと衝突しているか否かを判定する。
【0123】
ステップS16では、プロセッサ10は、オブジェクト制御モジュール223として、ユーザ190による選択操作が解除されたか否かを判定する。選択操作が解除されなかった場合(ステップS16でNo)、ステップS15へ戻る。選択操作が解除された場合(ステップS16でYes)、ステップS17へ進む。
【0124】
ステップS17では、プロセッサ10は、オブジェクト制御モジュール223として、手オブジェクト400によるアイテムの選択を解除する。これにより、手オブジェクト400からアイテムが離される。またプロセッサ10は、オブジェクト制御モジュール223として、アイテムの状態を選択状態から非選択状態に更新する。この後、ステップS11へ戻る。
【0125】
図18は、本実施形態におけるアイテムの効力発動処理の一例を示すフローチャートである。詳細には、
図18に示すフローチャートは、アイテムの状態が選択状態であり、かつ、当該アイテムが関連付けられたパラメータを消費することで効力を発動するアイテムである場合に行われる。
【0126】
ステップS21では、プロセッサ10は、パラメータ制御モジュール225として、ユーザ190による効力発動操作が行われたか否かを判定する。効力発動操作が行われなかった場合(ステップS21でNo)、処理は終了となる。効力発動操作が行われた場合(ステップS21でYes)、ステップS22へ進む。
【0127】
ステップS22では、プロセッサ10は、パラメータ制御モジュール225として、選択状態であるアイテムに関連付けられたパラメータが、効力発動に必要な分量残っているか否かを確認する。効力発動に必要な分量のパラメータが残っていない場合(ステップS22でNo)、処理は終了となる。効力発動に必要な分量のパラメータが残っている場合(ステップS22でYes)、ステップS23へ進む。例えば、アイテムが銃オブジェクト450であり、銃オブジェクト450に関連付けられたパラメータが銃オブジェクト450から発射される弾オブジェクトの残数であり、銃オブジェクト450が弾オブジェクトを1つ消費することで銃オブジェクト450から弾オブジェクトを発射するとする。この場合、弾オブジェクトの残数が1以上であれば、効力発動に必要な分量のパラメータが残っていることになり、弾オブジェクトの残数が0であれば、効力発動に必要な分量のパラメータが残っていないことになる。
【0128】
ステップS23では、プロセッサ10は、オブジェクト制御モジュール223として、選択状態であるアイテムに効力を発動させるとともに、パラメータ制御モジュール225として、効力発動に必要な分量のパラメータを消費する。具体的には、プロセッサ10は、パラメータの残量から効力発動に必要な分量を減じる。例えば、上述したように、アイテムが銃オブジェクト450である場合、弾オブジェクトを1つ消費することで銃オブジェクト450から弾オブジェクトを1つ発射できる。
【0129】
なお、
図18に示すフローチャートは、手オブジェクト400により選択されているアイテムが視界領域23の範囲内に位置する場合に実行されることを想定しているが、これに限定されるものではない。
【0130】
次に、
図19~
図20を参照しながら、アイテムが関連付けられたパラメータの回復手法について説明する。本実施形態では、手オブジェクト400により選択されているアイテムを仮想カメラ1の視界領域23の範囲外に移動させることで、当該アイテムが関連付けられたパラメータの残量を回復する手法を採用する。ここでは、銃オブジェクト450に関連付けられた弾オブジェクトの残数を回復させる手法を例にとり説明するが、これに限定されるものではない。
図19(A)は、ユーザ190がコントローラ160Rを保持した右手をユーザ190の視界外に動かした状態の一例を示す図である。
図19(B)は、
図19(A)に示す状態における、仮想空間2内に配置された仮想カメラ1、左手オブジェクト400L、及び右手オブジェクト400Rの一例を示す図である。
図20は、
図19(B)に示す仮想空間2内を仮想カメラ1の視界領域23で表した視界画像Mの一例を示す図である。
【0131】
図19(A)に示すように、ユーザ190は、銃オブジェクト450に関連付けられた弾オブジェクトの残数を回復させるため、コントローラ160Rを保持した右手を自身の視界外に移動させる。これにより、
図19(B)に示すように、プロセッサ10は、右手オブジェクト400R及び当該右手オブジェクト400Rにより保持されている銃オブジェクト450を、仮想カメラ1の視界領域23の範囲外に移動させる。この場合、右手オブジェクト400R及び銃オブジェクト450は視界領域23の範囲外に位置するため、
図20に示すように、視界画像Mに右手オブジェクト400R及び銃オブジェクト450が含まれなくなる。ここで、プロセッサ10は、パラメータ制御モジュール225として、銃オブジェクト450が視界領域23の範囲外に移動すると、銃オブジェクト450に関連付けられた弾オブジェクトの残数を回復させる。これにより、プロセッサ10は、パラメータ制御モジュール225として、銃オブジェクト450の状態を、弾オブジェクトの少なくとも一部が消費された第1状態から、第1状態よりも弾オブジェクトの残量が多い第2状態に更新する。本実施形態では、プロセッサ10は、弾オブジェクトの残数を上限値まで回復させる場合を例にとり説明するが、これに限定されるものではない。弾オブジェクトの残数をどの程度まで回復させるかは任意に設定でき、少なくとも、銃オブジェクト450が視界領域23の範囲外に移動した時点での弾オブジェクトの残数よりも多くなればよい。このように本実施形態では、銃オブジェクト450を視界領域23の範囲外に移動させれば、銃オブジェクト450に関連付けられた弾オブジェクトの残数が回復されるため、銃オブジェクト450に弾オブジェクトをリロードするようなグラフィックの描画を省略でき、処理負荷を削減できる。なお、プロセッサ10は、銃オブジェクト450に関連付けられた弾オブジェクトの残数を回復させるタイミングで、銃オブジェクト450に弾オブジェクトをリロードしたことをユーザ190に報知させるための効果音をHMDシステムに接続されたスピーカ等から出力するようにしてもよい。
【0132】
図21は、本実施形態におけるアイテムの状態を更新する更新処理の一例を示すフローチャートであり、詳細には、アイテムに関連付けられたパラメータが消費された第1状態から、消費されたパラメータが回復された第2状態への更新処理を示す。なお
図21に示すフローチャートは、アイテムの状態が選択状態であり、当該アイテムが関連付けられたパラメータを消費することで効力を発動するアイテムである場合に行われる。
【0133】
ステップS31では、プロセッサ10は、オブジェクト制御モジュール223として、ユーザ190の手(コントローラ160)の動きを検出し、検出した手の動きに連動して、手オブジェクト400を仮想空間2内で動かす。
【0134】
ステップS32では、プロセッサ10は、パラメータ制御モジュール225として、手オブジェクト400により選択されているアイテムが視界領域23の範囲内に位置するか否かを判定する。アイテムが視界領域23の範囲内に位置しない場合(ステップS32でNo)、ステップS31へ戻る。アイテムが視界領域23の範囲内に位置する場合(ステップS32でYes)、ステップS33へ進む。
【0135】
ステップS33では、プロセッサ10は、パラメータ制御モジュール225として、手オブジェクト400により選択されているアイテムに関連付けられているパラメータの残量が満タンであるか否かを判定する。パラメータの残量が満タンである場合(ステップS33でYes)、ステップS31へ戻る。パラメータの残量が満タンでない場合(ステップS33でNo)、ステップS34へ進む。
【0136】
ステップS33では、プロセッサ10は、パラメータ制御モジュール225として、アイテムに関連付けられているパラメータの残量を満タンにする。
【0137】
次に、
図22~
図25を参照しながら、第1領域にアイテムを関連付ける手法について説明する。本実施形態では、アイテムを特定するための特定オブジェクトとプレイヤキャラクタ490を表すキャラクタモデルとを用いて、第1領域にアイテムを関連付ける手法を例にとり説明するが、第1領域にアイテムを関連付ける手法はこれに限定されるものではない。
【0138】
図22は、仮想空間2内に配置された、第1領域にアイテムを関連付けるために用いられるUIボード300、左手オブジェクト400L、及び右手オブジェクト400Rの一例を示す図である。UIボード300には、プレイヤキャラクタ490を表すキャラクタモデル301が描画されている。キャラクタモデル301の右肩部分には、プレイヤキャラクタ490の右肩に設定された第1領域に関連付けられた第2領域305が設定されている。キャラクタモデル301の左肩部分には、プレイヤキャラクタ490の左肩に設定された第1領域に関連付けられた第2領域306が設定されている。キャラクタモデル301の右腰部分には、プレイヤキャラクタ490の右腰に設定された第1領域に関連付けられた第2領域307が設定されている。キャラクタモデル301の左腰部分には、プレイヤキャラクタ490の左腰に設定された第1領域に関連付けられた第2領域308が設定されている。またUIボード300には、盾オブジェクトを特定するための特定オブジェクト311、剣オブジェクトを特定するための特定オブジェクト312、及び銃オブジェクトを特定するための特定オブジェクト313が、取り付け可能に設けられている。盾オブジェクト、剣オブジェクト、及び銃オブジェクトは、いずれもアイテムの一例である。特定オブジェクトは、アイテムを特定できるオブジェクトであればどのようなオブジェクトであっても構わない。
【0139】
本実施形態では、手オブジェクト400により特定オブジェクトを選択し、選択した特定オブジェクトを任意の第2領域に配置することで、当該第2領域に関連付けられた第1領域に、当該第2領域に配置された特定オブジェクトが示すアイテムを関連付ける。以下、
図23~
図25を参照しながら、特定オブジェクト313を第2領域305に配置することで、特定オブジェクト313が示す銃オブジェクトを、第2領域305に関連付けられたプレイヤキャラクタ490の右肩に設定された第1領域に関連付ける手法について具体的に説明する。
図23は、右手オブジェクト400Rにより特定オブジェクト313を選択する状態の一例を示す図である。
図24は、右手オブジェクト400Rにより特定オブジェクト313を第2領域305に配置する状態の一例を示す図である。
図25は、特定オブジェクト313を第2領域305に配置した状態の一例を示す図である。
【0140】
ユーザ190は、コントローラ160Rを保持した右手を移動させることで、
図23に示すように、プロセッサ10は、右手オブジェクト400Rを特定オブジェクト313付近に移動させる。右手オブジェクト400Rの移動に伴い、プロセッサ10は、右手オブジェクト400RのコリジョンエリアCAと特定オブジェクト313のコリジョンエリアCCとが衝突しているか否かを判定する。ユーザ190は、右手オブジェクト400Rが特定オブジェクト313付近に移動すると、前述した選択操作を行う。
図23に示すように、コリジョンエリアCAとコリジョンエリアCCとが衝突している場合、プロセッサ10は、選択操作が継続されている間、右手オブジェクト400Rに特定オブジェクト313を選択させる。
【0141】
ユーザ190は、選択操作を継続したまま、右手を移動させることで、
図24に示すように、プロセッサ10は、右手オブジェクト400R及び右手オブジェクト400Rにより選択されている特定オブジェクト313を第2領域305付近に移動させる。右手オブジェクト400Rの移動に伴い、プロセッサ10は、特定オブジェクト313と第2領域305との間で第2位置関係が成立したか否かを判定する。具体的には、プロセッサ10は、特定オブジェクト313のコリジョンエリアCCと第2領域305のコリジョンエリアCDとが衝突しているか否かを判定する。ユーザ190は、特定オブジェクト313が第2領域305付近に移動すると、選択操作を解除する。
図24に示すように、コリジョンエリアCCとコリジョンエリアCDとが衝突している場合、プロセッサ10は、選択操作が解除されると、
図25に示すように、特定オブジェクト313を第2領域305に配置する。これにより、プロセッサ10は、特定オブジェクト313が示す銃オブジェクトを、第2領域305に関連付けられたプレイヤキャラクタ490の右肩に設定された第1領域に関連付け、銃オブジェクトの状態を、第1領域に関連付けられていない非関連付け状態から当該第1領域に関連付けられた関連付け状態に更新する。
【0142】
図26は、本実施形態におけるアイテムの状態を更新する更新処理の一例を示すフローチャートであり、詳細には、アイテムが第1領域に関連付けられていない非関連付け状態から、当該第1領域に関連付けられた関連付け状態への更新処理を示す。
【0143】
ステップS41では、プロセッサ10は、オブジェクト制御モジュール223として、ユーザ190の手(コントローラ160)の動きを検出し、検出した手の動きに連動して、手オブジェクト400を仮想空間2内で動かす。この際、プロセッサ10は、コリジョン判定モジュール224として、移動後の手オブジェクト400のコリジョンエリアCAが他のコリジョンエリアと衝突しているか否かを判定する。
【0144】
ステップS42では、プロセッサ10は、オブジェクト制御モジュール223として、ユーザ190による選択操作が行われたか否かを判定する。選択操作が行われなかった場合(ステップS42でNo)、ステップS11へ戻る。選択操作が行われた場合(ステップS42でYes)、ステップS43へ進む。
【0145】
ステップS43では、プロセッサ10は、オブジェクト制御モジュール223として、コリジョン判定モジュール224により、手オブジェクト400のコリジョンエリアCAと特定オブジェクトのコリジョンエリアCCとが衝突していると判定されているか否かを確認する。コリジョンエリアCAとコリジョンエリアCCとが衝突していない場合(ステップS43でNo)、ステップS41へ戻る。コリジョンエリアCAとコリジョンエリアCCとが衝突している場合(ステップS43でYes)、ステップS44へ進む。
【0146】
ステップS44では、プロセッサ10は、オブジェクト制御モジュール223として、特定オブジェクトを手オブジェクト400に選択させる。これにより、手オブジェクト400には特定オブジェクトが保持される。
【0147】
ステップS45では、プロセッサ10は、オブジェクト制御モジュール223として、ユーザ190の手(コントローラ160)の動きを検出し、検出した手の動きに連動して、手オブジェクト400を仮想空間2内で動かす。この際、プロセッサ10は、コリジョン判定モジュール224として、移動後の手オブジェクト400のコリジョンエリアCA及び手オブジェクト400により選択されている特定オブジェクトのコリジョンエリアCCが他のコリジョンエリアと衝突しているか否かを判定する。
【0148】
ステップS46では、プロセッサ10は、オブジェクト制御モジュール223として、ユーザ190による選択操作が解除されたか否かを判定する。選択操作が解除されなかった場合(ステップS46でNo)、ステップS45へ戻る。選択操作が解除された場合(ステップS46でYes)、ステップS47へ進む。
【0149】
ステップS47では、プロセッサ10は、オブジェクト制御モジュール223として、コリジョン判定モジュール224により、特定オブジェクトのコリジョンエリアCCと第2領域のコリジョンエリアCDとが衝突していると判定されているか否かを確認する。コリジョンエリアCCとコリジョンエリアCDとが衝突していない場合(ステップS47でNo)、ステップS48へ進む。コリジョンエリアCCとコリジョンエリアCDとが衝突している場合(ステップS47でYes)、ステップS49へ進む。
【0150】
ステップS48では、プロセッサ10は、オブジェクト制御モジュール223として、手オブジェクト400による特定オブジェクトの選択を解除する。これにより、手オブジェクト400から特定オブジェクトが離される。その後、ステップS41へ戻る。
【0151】
ステップS49では、プロセッサ10は、オブジェクト制御モジュール223として、手オブジェクト400により選択されている特定オブジェクトを第2領域に配置する。これにより、手オブジェクト400から特定オブジェクトが離される。これにより、プロセッサ10は、特定オブジェクトが示すアイテムを、第2領域に関連付けられた第1領域に関連付け、アイテムの状態を、第1領域に関連付けられていない非関連付け状態から当該第1領域に関連付けられた関連付け状態に更新する。
【0152】
なお本実施形態では、
図26に示す処理と、
図17に示す処理、
図18に示す処理、及び
図21に示す処理とは、異なるモードであることを想定している。
図26に示すアイテムの状態を非関連付け状態から関連付け状態に更新する処理は、例えば、ロビーモードなどのゲームプレイモード以外のモードで実行されることを想定している。
図17に示すアイテムの選択状態及び非選択状態間の更新処理、
図18に示すアイテムの効力発動処理、及び
図21に示すアイテムに関連付けられたパラメータの更新処理は、例えば、ゲームプレイモードで実行されることを想定している。但し、これに限定されるものではない。
【0153】
また本実施形態では、
図17で説明したアイテムの選択処理は、手オブジェクト400が第1領域と第1位置関係になることが条件であることを例にとり説明したが、これに限定されず、手オブジェクト400が視界領域23の範囲外に位置することを条件にしてもよい。このようにすれば、手オブジェクト400が視界領域23の範囲外に位置させることで、当該手オブジェクト400にアイテムを選択させることができる。
【0154】
また、上述の各実施形態の説明においては、HMD装置110によってユーザ190が没入する仮想空間(VR空間)を例示して説明したが、HMD装置110として、透過型のHMD装置を採用してもよい。この場合、透過型のHMD装置を介してユーザ190が視認する現実空間に仮想空間を構成する画像の一部が視界画像として重畳されるように視界画像を出力することにより、拡張現実(AR:Augmented Reality)空間または複合現実(MR:Mixed Reality)空間における仮想体験をユーザ190に提供してもよい。この場合、プレイヤキャラクタの手オブジェクトに代えて、コントローラの動きに基づいて、仮想空間2内におけるアイテム等の対象オブジェクトへの作用を生じさせてもよい。具体的には、プロセッサ10は、現実空間におけるコントローラの位置の座標情報を特定するとともに、仮想空間2内における対象オブジェクトの位置を現実空間における座標情報との関係で定義してもよい。これにより、プロセッサ10は、現実空間におけるコントローラと仮想空間2における対象オブジェクトとの位置関係を把握し、コントローラと対象オブジェクトとの間で上述したコリジョン制御等に対応する処理を実行可能となる。その結果、コントローラの動きに基づいて対象オブジェクトに作用を与えることが可能となる。
【0155】
以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではない。本実施形態は一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
【0156】
本明細書に開示された主題は、例えば以下のような項目として示される。
(項目1)
ユーザ(例えば、ユーザ190)に仮想体験を提供するためにコンピュータ(例えば、コンピュータ200)で実行される方法であって、
前記仮想体験を提供するための仮想空間(例えば、仮想空間2)を規定するステップ(例えば、
図10のステップS1)と、
前記ユーザの頭部の動きに応じて、前記仮想空間内で仮想視点(例えば、仮想カメラ1)を動かすステップ(例えば、
図10のステップS6)と、
前記ユーザの身体の一部の動きに応じて、前記仮想空間内で操作オブジェクト(例えば、手オブジェクト400)を動かすステップ(例えば、
図10のステップS8)と、
少なくとも、前記仮想視点からの視界(例えば、視界領域23)の範囲外に前記操作オブジェクトが移動されたことを条件に、前記仮想空間内で使用されるアイテムの状態を更新するステップ(例えば、
図17のステップS14、
図21のステップS34)と、
を含む方法。
(項目2)
前記更新するステップ(例えば、
図17)では、前記アイテムの状態が前記操作オブジェクトにより選択されていない非選択状態である場合に、少なくとも、前記仮想視点に対する相対位置が固定されかつ前記視界の範囲外に位置する第1領域と前記操作オブジェクトとの間で第1位置関係が成立したことを条件に、前記アイテムの状態を前記操作オブジェクトにより選択されている選択状態に更新する項目1に記載の方法。
(項目3)
前記更新するステップ(例えば、
図17)では、前記第1領域に前記アイテムが関連付けられており、かつ前記アイテムの状態が前記非選択状態である場合に、少なくとも、前記第1領域と前記操作オブジェクトとの間で前記第1位置関係が成立したことを条件に、前記アイテムの状態を前記選択状態に更新する項目2に記載の方法。
(項目4)
前記更新するステップ(例えば、
図17)では、前記第1領域と前記操作オブジェクトとの間で前記第1位置関係が成立し、かつ前記アイテムを選択するための選択操作が行われたことを条件に、前記アイテムの状態を前記選択状態に更新するとともに、前記選択操作が解除されると、前記アイテムの状態を前記非選択状態に更新する項目2又は3に記載の方法。
(項目5)
前記更新するステップ(例えば、
図26)では、前記アイテムの状態が前記第1領域に関連付けられていない非関連付け状態であり、かつ前記操作オブジェクトで前記アイテムを特定するための特定オブジェクトを選択している場合に、少なくとも、前記第1領域と関連付けられた第2領域と前記操作オブジェクトとの間で第2位置関係が成立したことを条件に、前記アイテムの状態を前記第1領域に関連付けられた関連付け状態に更新する項目3又は4に記載の方法。
(項目6)
前記アイテムの状態を前記非関連付け状態から前記関連付け状態に更新するモードと前記アイテムの状態を前記非選択状態から前記選択状態に更新するモードとは、異なるモードである項目5に記載の方法。
(項目7)
前記アイテム(例えば、銃オブジェクト450)は、当該アイテムに関連付けられたパラメータを消費することで効力を発動し、
前記更新するステップ(例えば、
図21)では、前記操作オブジェクトで前記アイテムを選択しており、かつ前記アイテムの状態が前記アイテムに関連付けられたパラメータの少なくとも一部が消費された第1状態である場合に、前記操作オブジェクトが前記視界の範囲外に移動すると、前記アイテムの状態を前記第1状態よりも前記パラメータの残量が多い第2状態に更新する項目1に記載の方法。
(項目8)
項目1~7のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。
(項目9)
ユーザに仮想体験を提供するためのコンピュータであって、
前記コンピュータが備えるプロセッサの制御により、
前記仮想体験を提供するための仮想空間を規定するステップと、
前記ユーザの頭部の動きに応じて、前記仮想空間内で仮想視点を動かすステップと、
前記ユーザの身体の一部の動きに応じて、前記仮想空間内で操作オブジェクトを動かすステップと、
少なくとも、前記仮想視点からの視界の範囲外に前記操作オブジェクトが移動されたことを条件に、前記仮想空間内で使用されるアイテムの状態を更新するステップと、
が実行されるコンピュータ。
【符号の説明】
【0157】
1…仮想カメラ、2…仮想空間、5…基準視線、10…プロセッサ、11…メモリ、12…ストレージ、13…入出力インターフェース、14…通信インターフェース、15…バス、19…ネットワーク、21…中心、23…視界領域、24,25…領域、31…フレーム、32…天面、33,34,36,37…ボタン、35…赤外線LED、38…アナログスティック、100…HMDシステム、110…HMD装置、112…ディスプレイ、114…センサ、116…カメラ、118…マイク、120…HMDセンサ、130…モーションセンサ、140…注視センサ、150…サーバ、160…コントローラ、160R…右コントローラ、190…ユーザ、200…コンピュータ、220…主制御モジュール、221…仮想空間制御モジュール、222…仮想カメラ制御モジュール、223…オブジェクト制御モジュール、224…コリジョン判定モジュール、225…パラメータ制御モジュール、226…視界画像生成モジュール、227…表示制御モジュール、240…メモリモジュール、241…空間情報、242…オブジェクト情報、243…ユーザ情報、250…通信制御モジュール、M…視界画像