(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-09-27
(45)【発行日】2023-10-05
(54)【発明の名称】プログラム、情報処理方法、及び情報処理装置
(51)【国際特許分類】
G06F 3/01 20060101AFI20230928BHJP
G06F 3/0482 20130101ALI20230928BHJP
G06F 3/04815 20220101ALI20230928BHJP
G06T 19/00 20110101ALI20230928BHJP
H04N 21/431 20110101ALI20230928BHJP
H04N 21/482 20110101ALI20230928BHJP
【FI】
G06F3/01 510
G06F3/0482
G06F3/04815
G06T19/00 300B
H04N21/431
H04N21/482
(21)【出願番号】P 2019118918
(22)【出願日】2019-06-26
【審査請求日】2022-06-20
(73)【特許権者】
【識別番号】509070463
【氏名又は名称】株式会社コロプラ
(74)【代理人】
【識別番号】110001416
【氏名又は名称】弁理士法人信栄事務所
(72)【発明者】
【氏名】澤木 一晃
(72)【発明者】
【氏名】菊地 英太
【審査官】円子 英紀
(56)【参考文献】
【文献】特開2017-041780(JP,A)
【文献】田中 雄二,いつでも、どこでもパソコンで楽しむネット動画 第2回,日経パソコン,日本,日経BP社,2010年09月13日,第609号,p.72-79
(58)【調査した分野】(Int.Cl.,DB名)
G06F 3/01
G06F 3/048-3/04895
H04N 21/431
H04N 21/482
G06F 13/00
G06T 19/00
(57)【特許請求の範囲】
【請求項1】
プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
ウェブブラウザを含む仮想空間を定義するステップと、
ウェブコンテンツへのアクセスに基づいて、前記ウェブブラウザ上で前記ウェブコンテンツを提供するステップと、
ユーザの第1操作入力に基づいて、前記ウェブブラウザ上で表示されている前記ウェブコンテンツを、仮想空間に
新たに配置された特定のウェブコンテンツとして提供するステップと、
前記ユーザに装着されたデバイスからの入力に基づいて仮想カメラからの視界を制御するステップと、
前記視界に対応する視界画像を前記ユーザに対応付けられた画像表示装置に表示するステップと、を実行させ、
前記ウェブコンテンツ及び前記特定のウェブコンテンツは、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するためのウェブ画面である、プログラム。
【請求項2】
前記プログラムは、前記プロセッサに、さらに、
前記特定のウェブコンテンツ上で再生対象の動画コンテンツが選択された場合、選択された動画コンテンツを、仮想空間に
新たに配置された特定の動画コンテンツとして再生するステップを実行させる、請求項1に記載のプログラム。
【請求項3】
前記第1操作入力が、前記ウェブコンテンツ上に配置された第1仮想ボタンを選択する操作である、請求項1又は請求項2に記載のプログラム。
【請求項4】
前記プログラムは、前記プロセッサに、さらに、
前記ウェブコンテンツ上で再生対象の動画コンテンツが選択された場合、選択された動画コンテンツを前記ウェブブラウザ上で再生するステップと、
ユーザの第2操作入力に基づいて、前記ウェブブラウザ上で再生されている動画コンテンツを、仮想空間に
新たに配置された特定の動画コンテンツとして再生するステップと、を実行させる、
請求項1から請求項3のいずれか一項に記載のプログラム。
【請求項5】
前記第2操作入力が、前記ウェブコンテンツ上に配置された第2仮想ボタンを選択する操作である、請求項4に記載のプログラム。
【請求項6】
前記コンピュータは、前記ウェブブラウザとは異なる所定のアプリケーション機能を備えており、
前記コンピュータは、前記アプリケーション機能の実行に応じて、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するための画面を、仮想空間に
新たに配置された特定のコンテンツとして提供可能なものであり、
前記特定のウェブコンテンツとして提供される前記ウェブ画面における、選択対象である1以上の動画コンテンツの配置態様が、前記アプリケーション機能の実行に応じて提供される前記画面における、選択対象である1以上の動画コンテンツの配置態様に対応したものである、
請求項1から請求項5のいずれか一項に記載のプログラム。
【請求項7】
前記特定のウェブコンテンツは、仮想空間の形状に沿って仮想空間に配置される、
請求項1から請求項6のいずれか一項に記載のプログラム。
【請求項8】
プロセッサを備えた情報処理装置であって、
前記プロセッサは、
ウェブブラウザを含む仮想空間を定義し、
ウェブコンテンツへのアクセスに基づいて、前記ウェブブラウザ上で前記ウェブコンテンツを提供し、
ユーザの第1操作入力に基づいて、前記ウェブブラウザ上で表示されている前記ウェブコンテンツを、仮想空間に
新たに配置された特定のウェブコンテンツとして提供し、
前記ユーザに装着されたデバイスからの入力に基づいて仮想カメラからの視界を制御し、
前記視界に対応する視界画像を前記ユーザに対応付けられた画像表示装置に表示するものであり、
前記ウェブコンテンツ及び前記特定のウェブコンテンツは、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するためのウェブ画面である、情報処理装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、プログラム、情報処理方法、及び情報処理装置に関する。
【背景技術】
【0002】
近年、ウェブブラウザを用いてVR(Virtual Reality)コンテンツを利用することが可能になっている。例えば、特許文献1には、ヘッドマウントディスプレイ等の端末機器に360度コンテンツである仮想空間を提供し、当該仮想空間におけるメインコンテンツ表示領域やサブコンテンツ表示領域に、URL(Uniform Resource Locator)アドレスに対応するウェブページからのアクセスに基づいて、所定のコンテンツを提供することが記載されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1の方法で提供される仮想空間は、全体としては360度コンテンツであるが、メインコンテンツ自体は限られた領域に平面的に表示されるにとどまっており、ユーザの没入感向上という観点から改善の余地があった。
【0005】
本開示の一態様は、ウェブブラウザを用いてVRコンテンツを利用した場合におけるユーザの没入感を向上させることが可能な、プログラム、情報処理方法、及び情報処理装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本開示に示す一実施形態によれば、
プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
ウェブブラウザを含む仮想空間を定義するステップと、
URL(Uniform Resource Locator)アドレスへのアクセスに基づいて、前記ウェブブラウザ上でウェブコンテンツを提供するステップと、
ユーザの第1操作入力に基づいて、前記ウェブブラウザ上で表示されているウェブコンテンツを、仮想空間に展開された360度ウェブコンテンツとして提供するステップと、
前記ユーザの頭部の動きに応じて、仮想空間に配置された仮想カメラからの視界を制御するステップと、
前記視界に対応する視界画像を前記ユーザの頭部に対応付けられた画像表示装置に表示するステップと、を実行させ、
前記ウェブコンテンツ及び前記360度ウェブコンテンツは、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するためのウェブ画面である、
プログラムが提供される。
【発明の効果】
【0007】
本開示に示す一実施形態よれば、webブラウザを用いてVRコンテンツを利用した場合におけるユーザの没入感を向上させることが可能な、プログラムを提供することができる。
【図面の簡単な説明】
【0008】
【
図1】ある実施の形態に従うHMDシステムの構成の概略を表す図である。
【
図2】ある実施の形態に従うコンピュータのハードウェア構成の一例を表すブロック図である。
【
図3】ある実施の形態に従うHMDに設定されるuvw視野座標系を概念的に表す図である。
【
図4】ある実施の形態に従う仮想空間を表現する一態様を概念的に表す図である。
【
図5】ある実施の形態に従うHMDを装着するユーザの頭部を上から表した図である。
【
図6】仮想空間において視界領域をX方向から見たYZ断面を表す図である。
【
図7】仮想空間において視界領域をY方向から見たXZ断面を表す図である。
【
図8(A)】ある実施の形態に従うコントローラの概略構成を表す図である。
【
図8(B)】ある実施の形態に従うユーザの右手に対して規定されるヨー、ロール、ピッチの各方向の一例を示す図である。
【
図9】ある実施の形態に従うサーバのハードウェア構成の一例を表すブロック図である。
【
図10】ある実施の形態に従うコンピュータをモジュール構成として表わすブロック図である。
【
図11】ある実施の形態に従うHMDセットにおいて実行される処理の一部を表すシーケンスチャートである。
【
図12(A)】ネットワークにおいて、各HMDがユーザに仮想空間を提供する状況を表す模式図である。
【
図12(B)】
図12(A)におけるユーザ5Aの視界画像を示す図である。
【
図13】ある実施の形態に従うHMDシステムにおいて実行する処理を示すシーケンス図である。
【
図14】ある実施の形態に従うコンピュータのモジュールの詳細構成を表わすブロック図である。
【
図15】ある実施の形態に従うコンピュータにおいて実行される動作処理の一例を示すフローチャートである。
【
図16】ある実施の形態に従う仮想空間の一例を示す模式図である。
【
図17】
図16に示す仮想空間をY軸方向から見たXZ断面を示す模式図である。
【
図18】ある実施の形態に従う仮想空間の一例を示す模式図である。
【
図19】
図18に示す仮想空間をY軸方向から見たXZ断面を示す模式図である。
【
図20】
図18におけるユーザ5の視界画像を示す模式図である。
【
図21】ある実施の形態に従う仮想空間をY軸方向から見たXZ断面を示す模式図である。
【
図22】ある実施の形態に従う仮想空間の一例を示す模式図である。
【発明を実施するための形態】
【0009】
以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなすものとする。
【0010】
[HMDシステムの構成]
図1を参照して、HMD(Head-Mounted Device)システム100の構成について説明する。
図1は、本実施の形態に従うHMDシステム100の構成の概略を表す図である。HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
【0011】
HMDシステム100は、サーバ600と、HMDセット110A,110B,110C,110Dと、外部機器700と、ネットワーク2とを含む。HMDセット110A,110B,110C,110Dの各々は、ネットワーク2を介してサーバ600や外部機器700と通信可能に構成される。以下、HMDセット110A,110B,110C,110Dを総称して、HMDセット110とも言う。HMDシステム100を構成するHMDセット110の数は、4つに限られず、3つ以下でも、5つ以上でもよい。HMDセット110は、HMD120と、コンピュータ200と、HMDセンサ410と、ディスプレイ430と、コントローラ300とを備える。HMD120は、モニタ130と、注視センサ140と、第1カメラ150と、第2カメラ160と、マイク170と、スピーカ180とを含む。コントローラ300は、モーションセンサ420を含み得る。
【0012】
ある局面において、コンピュータ200は、インターネットその他のネットワーク2に接続可能であり、ネットワーク2に接続されているサーバ600その他のコンピュータと通信可能である。その他のコンピュータとしては、例えば、他のHMDセット110のコンピュータや外部機器700が挙げられる。別の局面において、HMD120は、HMDセンサ410の代わりに、センサ190を含み得る。
【0013】
HMD120は、ユーザ5の頭部に装着され、動作中に仮想空間をユーザ5に提供し得る。より具体的には、HMD120は、右目用の画像および左目用の画像をモニタ130にそれぞれ表示する。ユーザ5の各目がそれぞれの画像を視認すると、ユーザ5は、両目の視差に基づき当該画像を3次元画像として認識し得る。HMD120は、モニタを備える所謂ヘッドマウントディスプレイと、スマートフォンその他のモニタを有する端末を装着可能なヘッドマウント機器のいずれをも含み得る。
【0014】
モニタ130は、例えば、非透過型の表示装置として実現される。ある局面において、モニタ130は、ユーザ5の両目の前方に位置するようにHMD120の本体に配置されている。したがって、ユーザ5は、モニタ130に表示される3次元画像を視認すると、仮想空間に没入することができる。ある局面において、仮想空間は、例えば、背景、ユーザ5が操作可能なオブジェクト、ユーザ5が選択可能なメニューの画像を含む。ある局面において、モニタ130は、所謂スマートフォンその他の情報表示端末が備える液晶モニタまたは有機EL(Electro Luminescence)モニタとして実現され得る。
【0015】
別の局面において、モニタ130は、透過型の表示装置として実現され得る。この場合、HMD120は、
図1に示されるようにユーザ5の目を覆う密閉型ではなく、メガネ型のような開放型であり得る。透過型のモニタ130は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。モニタ130は、仮想空間を構成する画像の一部と、現実空間とを同時に表示する構成を含んでいてもよい。例えば、モニタ130は、HMD120に搭載されたカメラで撮影した現実空間の画像を表示してもよいし、一部の透過率を高く設定することにより現実空間を視認可能にしてもよい。
【0016】
ある局面において、モニタ130は、右目用の画像を表示するためのサブモニタと、左目用の画像を表示するためのサブモニタとを含み得る。別の局面において、モニタ130は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、モニタ130は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。
【0017】
ある局面において、HMD120は、図示せぬ複数の光源を含む。各光源は例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ410は、HMD120の動きを検出するためのポジショントラッキング機能を有する。より具体的には、HMDセンサ410は、HMD120が発する複数の赤外線を読み取り、現実空間内におけるHMD120の位置および傾きを検出する。
【0018】
別の局面において、HMDセンサ410は、カメラにより実現されてもよい。この場合、HMDセンサ410は、カメラから出力されるHMD120の画像情報を用いて、画像解析処理を実行することにより、HMD120の位置および傾きを検出することができる。
【0019】
別の局面において、HMD120は、位置検出器として、HMDセンサ410の代わりに、あるいはHMDセンサ410に加えてセンサ190を備えてもよい。HMD120は、センサ190を用いて、HMD120自身の位置および傾きを検出し得る。例えば、センサ190が角速度センサ、地磁気センサ、あるいは加速度センサである場合、HMD120は、HMDセンサ410の代わりに、これらの各センサのいずれかを用いて、自身の位置および傾きを検出し得る。一例として、センサ190が角速度センサである場合、角速度センサは、現実空間におけるHMD120の3軸周りの角速度を経時的に検出する。HMD120は、各角速度に基づいて、HMD120の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD120の傾きを算出する。
【0020】
注視センサ140は、ユーザ5の右目および左目の視線が向けられる方向を検出する。つまり、注視センサ140は、ユーザ5の視線を検出する。視線の方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある局面において、注視センサ140は、右目用のセンサおよび左目用のセンサを含むことが好ましい。注視センサ140は、例えば、ユーザ5の右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、ユーザ5の視線を検知することができる。
【0021】
第1カメラ150は、ユーザ5の顔の下部を撮影する。より具体的には、第1カメラ150は、ユーザ5の鼻および口などを撮影する。第2カメラ160は、ユーザ5の目および眉などを撮影する。HMD120のユーザ5側の筐体をHMD120の内側、HMD120のユーザ5とは逆側の筐体をHMD120の外側と定義する。ある局面において、第1カメラ150は、HMD120の外側に配置され、第2カメラ160は、HMD120の内側に配置され得る。第1カメラ150および第2カメラ160が生成した画像は、コンピュータ200に入力される。別の局面において、第1カメラ150と第2カメラ160とを1台のカメラとして実現し、この1台のカメラでユーザ5の顔を撮影するようにしてもよい。
【0022】
マイク170は、ユーザ5の発話を音声信号(電気信号)に変換してコンピュータ200に出力する。スピーカ180は、音声信号を音声に変換してユーザ5に出力する。別の局面において、HMD120は、スピーカ180に替えてイヤホンを含み得る。
【0023】
コントローラ300は、有線または無線によりコンピュータ200に接続されている。コントローラ300は、ユーザ5からコンピュータ200への命令の入力を受け付ける。ある局面において、コントローラ300は、ユーザ5によって把持可能に構成される。別の局面において、コントローラ300は、ユーザ5の身体あるいは衣類の一部に装着可能に構成される。さらに別の局面において、コントローラ300は、コンピュータ200から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。さらに別の局面において、コントローラ300は、ユーザ5から、仮想空間に配置されるオブジェクトの位置や動きを制御するための操作を受け付ける。
【0024】
ある局面において、コントローラ300は、複数の光源を含む。各光源は例えば、赤外線を発するLEDにより実現される。HMDセンサ410は、ポジショントラッキング機能を有する。この場合、HMDセンサ410は、コントローラ300が発する複数の赤外線を読み取り、現実空間内におけるコントローラ300の位置および傾きを検出する。別の局面において、HMDセンサ410は、カメラにより実現されてもよい。この場合、HMDセンサ410は、カメラから出力されるコントローラ300の画像情報を用いて、画像解析処理を実行することにより、コントローラ300の位置および傾きを検出することができる。
【0025】
モーションセンサ420は、ある局面において、ユーザ5の手に取り付けられて、ユーザ5の手の動きを検出する。例えば、モーションセンサ420は、手の回転速度、回転数等を検出する。検出された信号は、コンピュータ200に送られる。モーションセンサ420は、例えば、コントローラ300に設けられている。ある局面において、モーションセンサ420は、例えば、ユーザ5に把持可能に構成されたコントローラ300に設けられている。別の局面において、現実空間における安全のため、コントローラ300は、手袋型のようにユーザ5の手に装着されることにより容易に飛んで行かないものに装着される。さらに別の局面において、ユーザ5に装着されないセンサがユーザ5の手の動きを検出してもよい。例えば、ユーザ5を撮影するカメラの信号が、ユーザ5の動作を表わす信号として、コンピュータ200に入力されてもよい。モーションセンサ420とコンピュータ200とは、一例として、無線により互いに接続される。無線の場合、通信形態は特に限られず、例えば、Bluetooth(登録商標)その他の公知の通信手法が用いられる。
【0026】
ディスプレイ430は、モニタ130に表示されている画像と同様の画像を表示する。これにより、HMD120を装着しているユーザ5以外のユーザにも当該ユーザ5と同様の画像を視聴させることができる。ディスプレイ430に表示される画像は、3次元画像である必要はなく、右目用の画像や左目用の画像であってもよい。ディスプレイ430としては、例えば、液晶ディスプレイや有機ELモニタなどが挙げられる。
【0027】
サーバ600は、コンピュータ200にプログラムを送信し得る。別の局面において、サーバ600は、他のユーザによって使用されるHMD120に仮想現実を提供するための他のコンピュータ200と通信し得る。例えば、アミューズメント施設において、複数のユーザが参加型のゲームを行なう場合、各コンピュータ200は、各ユーザの動作に基づく信号をサーバ600を介して他のコンピュータ200と通信して、同じ仮想空間において複数のユーザが共通のゲームを楽しむことを可能にする。各コンピュータ200は、各ユーザの動作に基づく信号をサーバ600を介さずに他のコンピュータ200と通信するようにしてもよい。
【0028】
外部機器700は、コンピュータ200と通信可能な機器であればどのような機器であってもよい。外部機器700は、例えば、ネットワーク2を介してコンピュータ200と通信可能な機器であってもよいし、近距離無線通信や有線接続によりコンピュータ200と直接通信可能な機器であってもよい。外部機器700としては、例えば、スマートデバイス、PC(Personal Computer)、及びコンピュータ200の周辺機器などが挙げられるが、これらに限定されるものではない。
【0029】
[コンピュータのハードウェア構成]
図2を参照して、本実施の形態に係るコンピュータ200について説明する。
図2は、本実施の形態に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ210と、メモリ220と、ストレージ230と、入出力インターフェイス240と、通信インターフェイス250とを備える。各構成要素は、それぞれ、バス260に接続されている。
【0030】
プロセッサ210は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ220またはストレージ230に格納されているプログラムに含まれる一連の命令を実行する。ある局面において、プロセッサ210は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-Programmable Gate Array)その他のデバイスとして実現される。
【0031】
メモリ220は、プログラムおよびデータを一時的に保存する。プログラムは、例えば、ストレージ230からロードされる。データは、コンピュータ200に入力されたデータと、プロセッサ210によって生成されたデータとを含む。ある局面において、メモリ220は、RAM(Random Access Memory)その他の揮発メモリとして実現される。
【0032】
ストレージ230は、プログラムおよびデータを永続的に保持する。ストレージ230は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発記憶装置として実現される。ストレージ230に格納されるプログラムは、HMDシステム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、他のコンピュータ200との通信を実現するためのプログラムを含む。ストレージ230に格納されるデータは、仮想空間を規定するためのデータおよびオブジェクト等を含む。
【0033】
別の局面において、ストレージ230は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の局面において、コンピュータ200に内蔵されたストレージ230の代わりに、外部の記憶装置に保存されているプログラムおよびデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のHMDシステム100が使用される場面において、プログラムやデータの更新を一括して行なうことが可能になる。
【0034】
入出力インターフェイス240は、HMD120、HMDセンサ410、モーションセンサ420およびディスプレイ430との間で信号を通信する。HMD120に含まれるモニタ130,注視センサ140,第1カメラ150,第2カメラ160,マイク170およびスピーカ180は、HMD120の入出力インターフェイス240を介してコンピュータ200との通信を行ない得る。ある局面において、入出力インターフェイス240は、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)その他の端子を用いて実現される。入出力インターフェイス240は上述のものに限られない。
【0035】
ある局面において、入出力インターフェイス240は、さらに、コントローラ300と通信し得る。例えば、入出力インターフェイス240は、コントローラ300およびモーションセンサ420から出力された信号の入力を受ける。別の局面において、入出力インターフェイス240は、プロセッサ210から出力された命令を、コントローラ300に送る。当該命令は、振動、音声出力、発光等をコントローラ300に指示する。コントローラ300は、当該命令を受信すると、その命令に応じて、振動、音声出力または発光のいずれかを実行する。
【0036】
通信インターフェイス250は、ネットワーク2に接続されて、ネットワーク2に接続されている他のコンピュータ(例えば、サーバ600)と通信する。ある局面において、通信インターフェイス250は、例えば、LAN(Local Area Network)その他の有線通信インターフェイス、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)その他の無線通信インターフェイスとして実現される。通信インターフェイス250は上述のものに限られない。
【0037】
ある局面において、プロセッサ210は、ストレージ230にアクセスし、ストレージ230に格納されている1つ以上のプログラムをメモリ220にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ210は、入出力インターフェイス240を介して、仮想空間を提供するための信号をHMD120に送る。HMD120は、その信号に基づいてモニタ130に映像を表示する。
【0038】
図2に示される例では、コンピュータ200は、HMD120の外部に設けられる構成が示されているが、別の局面において、コンピュータ200は、HMD120に内蔵されてもよい。一例として、モニタ130を含む携帯型の情報通信端末(例えば、スマートフォン)がコンピュータ200として機能してもよい。
【0039】
コンピュータ200は、複数のHMD120に共通して用いられる構成であってもよい。このような構成によれば、例えば、複数のユーザに同一の仮想空間を提供することもできるので、各ユーザは同一の仮想空間で他のユーザと同一のアプリケーションを楽しむことができる。
【0040】
ある実施の形態において、HMDシステム100では、現実空間における座標系である実座標系が予め設定されている。実座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、並びに、鉛直方向および水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。実座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれ、x軸、y軸、z軸と規定される。より具体的には、実座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。
【0041】
ある局面において、HMDセンサ410は、赤外線センサを含む。赤外線センサが、HMD120の各光源から発せられた赤外線をそれぞれ検出すると、HMD120の存在を検出する。HMDセンサ410は、さらに、各点の値(実座標系における各座標値)に基づいて、HMD120を装着したユーザ5の動きに応じた、現実空間内におけるHMD120の位置および傾き(向き)を検出する。より詳しくは、HMDセンサ410は、経時的に検出された各値を用いて、HMD120の位置および傾きの時間的変化を検出できる。
【0042】
HMDセンサ410によって検出されたHMD120の各傾きは、実座標系におけるHMD120の3軸周りの各傾きに相当する。HMDセンサ410は、実座標系におけるHMD120の傾きに基づき、uvw視野座標系をHMD120に設定する。HMD120に設定されるuvw視野座標系は、HMD120を装着したユーザ5が仮想空間において物体を見る際の視点座標系に対応する。
【0043】
[uvw視野座標系]
図3を参照して、uvw視野座標系について説明する。
図3は、ある実施の形態に従うHMD120に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ410は、HMD120の起動時に、実座標系におけるHMD120の位置および傾きを検出する。プロセッサ210は、検出された値に基づいて、uvw視野座標系をHMD120に設定する。
【0044】
図3に示されるように、HMD120は、HMD120を装着したユーザ5の頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD120は、実座標系を規定する水平方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、実座標系内においてHMD120の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD120におけるuvw視野座標系のピッチ軸(u軸)、ヨー軸(v軸)、およびロール軸(w軸)として設定する。
【0045】
ある局面において、HMD120を装着したユーザ5が直立し、かつ、正面を視認している場合、プロセッサ210は、実座標系に平行なuvw視野座標系をHMD120に設定する。この場合、実座標系における水平方向(x軸)、鉛直方向(y軸)、および前後方向(z軸)は、HMD120におけるuvw視野座標系のピッチ軸(u軸)、ヨー軸(v軸)、およびロール軸(w軸)に一致する。
【0046】
uvw視野座標系がHMD120に設定された後、HMDセンサ410は、HMD120の動きに基づいて、設定されたuvw視野座標系におけるHMD120の傾きを検出できる。この場合、HMDセンサ410は、HMD120の傾きとして、uvw視野座標系におけるHMD120のピッチ角(θu)、ヨー角(θv)、およびロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ軸周りのHMD120の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー軸周りのHMD120の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール軸周りのHMD120の傾き角度を表す。
【0047】
HMDセンサ410は、検出されたHMD120の傾きに基づいて、HMD120が動いた後のHMD120におけるuvw視野座標系を、HMD120に設定する。HMD120と、HMD120のuvw視野座標系との関係は、HMD120の位置および傾きに関わらず、常に一定である。HMD120の位置および傾きが変わると、当該位置および傾きの変化に連動して、実座標系におけるHMD120のuvw視野座標系の位置および傾きが変化する。
【0048】
ある局面において、HMDセンサ410は、赤外線センサからの出力に基づいて取得される赤外線の光強度および複数の点間の相対的な位置関係(例えば、各点間の距離など)に基づいて、HMD120の現実空間内における位置を、HMDセンサ410に対する相対位置として特定してもよい。プロセッサ210は、特定された相対位置に基づいて、現実空間内(実座標系)におけるHMD120のuvw視野座標系の原点を決定してもよい。
【0049】
[仮想空間]
図4を参照して、仮想空間についてさらに説明する。
図4は、ある実施の形態に従う仮想空間11を表現する一態様を概念的に表す図である。仮想空間11は、中心12の360度方向の全体を覆う全天球状の構造を有する。
図4では、説明を複雑にしないために、仮想空間11のうちの上半分の天球が例示されている。仮想空間11では各メッシュが規定される。各メッシュの位置は、仮想空間11に規定されるグローバル座標系であるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間11に展開可能なパノラマ画像13(静止画、動画等)を構成する各部分画像を、仮想空間11において対応する各メッシュにそれぞれ対応付ける。
【0050】
ある局面において、仮想空間11では、中心12を原点とするXYZ座標系が規定される。XYZ座標系は、例えば、実座標系に平行である。XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)が実座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)が実座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)が実座標系のz軸と平行である。
【0051】
HMD120の起動時、すなわちHMD120の初期状態において、仮想カメラ14が、仮想空間11の中心12に配置される。ある局面において、プロセッサ210は、仮想カメラ14が撮影する画像をHMD120のモニタ130に表示する。仮想カメラ14は、現実空間におけるHMD120の動きに連動して、仮想空間11を同様に移動する。これにより、現実空間におけるHMD120の位置および傾きの変化が、仮想空間11において同様に再現され得る。
【0052】
仮想カメラ14には、HMD120の場合と同様に、uvw視野座標系が規定される。仮想空間11における仮想カメラ14のuvw視野座標系は、現実空間(実座標系)におけるHMD120のuvw視野座標系に連動するように規定されている。したがって、HMD120の傾きが変化すると、それに応じて、仮想カメラ14の傾きも変化する。仮想カメラ14は、HMD120を装着したユーザ5の現実空間における移動に連動して、仮想空間11において移動することもできる。
【0053】
コンピュータ200のプロセッサ210は、仮想カメラ14の位置と傾き(基準視線16)とに基づいて、仮想空間11における視界領域15を規定する。視界領域15は、仮想空間11のうち、HMD120を装着したユーザ5が視認する領域に対応する。つまり、仮想カメラ14の位置は、仮想空間11におけるユーザ5の視点と言える。
【0054】
注視センサ140によって検出されるユーザ5の視線は、ユーザ5が物体を視認する際の視点座標系における方向である。HMD120のuvw視野座標系は、ユーザ5がモニタ130を視認する際の視点座標系に等しい。仮想カメラ14のuvw視野座標系は、HMD120のuvw視野座標系に連動している。したがって、ある局面に従うHMDシステム100は、注視センサ140によって検出されたユーザ5の視線を、仮想カメラ14のuvw視野座標系におけるユーザ5の視線とみなすことができる。
【0055】
[ユーザの視線]
図5を参照して、ユーザ5の視線の決定について説明する。
図5は、ある実施の形態に従うHMD120を装着するユーザ5の頭部を上から表した図である。
【0056】
ある局面において、注視センサ140は、ユーザ5の右目および左目の各視線を検出する。ある局面において、ユーザ5が近くを見ている場合、注視センサ140は、視線R1およびL1を検出する。別の局面において、ユーザ5が遠くを見ている場合、注視センサ140は、視線R2およびL2を検出する。この場合、ロール軸wに対して視線R2およびL2が成す角度は、ロール軸wに対して視線R1およびL1が成す角度よりも小さい。注視センサ140は、検出結果をコンピュータ200に送信する。
【0057】
コンピュータ200が、視線の検出結果として、視線R1およびL1の検出値を注視センサ140から受信した場合には、その検出値に基づいて、視線R1およびL1の交点である注視点N1を特定する。一方、コンピュータ200は、視線R2およびL2の検出値を注視センサ140から受信した場合には、視線R2およびL2の交点を注視点として特定する。コンピュータ200は、特定した注視点N1の位置に基づき、ユーザ5の視線N0を特定する。コンピュータ200は、例えば、ユーザ5の右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の延びる方向を、視線N0として検出する。視線N0は、ユーザ5が両目により実際に視線を向けている方向である。視線N0は、視界領域15に対してユーザ5が実際に視線を向けている方向に相当する。
【0058】
別の局面において、HMDシステム100は、テレビジョン放送受信チューナを備えてもよい。このような構成によれば、HMDシステム100は、仮想空間11においてテレビ番組を表示することができる。
【0059】
さらに別の局面において、HMDシステム100は、インターネットに接続するための通信回路、あるいは、電話回線に接続するための通話機能を備えていてもよい。
【0060】
[視界領域]
図6および
図7を参照して、視界領域15について説明する。
図6は、仮想空間11において視界領域15をX方向から見たYZ断面を表す図である。
図7は、仮想空間11において視界領域15をY方向から見たXZ断面を表す図である。
【0061】
図6に示されるように、YZ断面における視界領域15は、領域18を含む。領域18は、仮想カメラ14の位置と基準視線16と仮想空間11のYZ断面とによって定義される。プロセッサ210は、仮想空間における基準視線16を中心として極角αを含む範囲を、領域18として規定する。
【0062】
図7に示されるように、XZ断面における視界領域15は、領域19を含む。領域19は、仮想カメラ14の位置と基準視線16と仮想空間11のXZ断面とによって定義される。プロセッサ210は、仮想空間11における基準視線16を中心とした方位角βを含む範囲を、領域19として規定する。極角αおよびβは、仮想カメラ14の位置と仮想カメラ14の傾き(向き)とに応じて定まる。
【0063】
ある局面において、HMDシステム100は、コンピュータ200からの信号に基づいて、視界画像17をモニタ130に表示させることにより、ユーザ5に仮想空間11における視界を提供する。視界画像17は、パノラマ画像13のうち視界領域15に対応する部分に相当する画像である。ユーザ5が、頭に装着したHMD120を動かすと、その動きに連動して仮想カメラ14も動く。その結果、仮想空間11における視界領域15の位置が変化する。これにより、モニタ130に表示される視界画像17は、パノラマ画像13のうち、仮想空間11においてユーザ5が向いた方向の視界領域15に重畳する画像に更新される。ユーザ5は、仮想空間11における所望の方向を視認することができる。
【0064】
このように、仮想カメラ14の傾きは仮想空間11におけるユーザ5の視線(基準視線16)に相当し、仮想カメラ14が配置される位置は、仮想空間11におけるユーザ5の視点に相当する。したがって、仮想カメラ14の位置または傾きを変更することにより、モニタ130に表示される画像が更新され、ユーザ5の視界が移動される。
【0065】
ユーザ5は、HMD120を装着している間、現実世界を視認することなく、仮想空間11に展開されるパノラマ画像13のみを視認できる。そのため、HMDシステム100は、仮想空間11への高い没入感覚をユーザ5に与えることができる。
【0066】
ある局面において、プロセッサ210は、HMD120を装着したユーザ5の現実空間における移動に連動して、仮想空間11において仮想カメラ14を移動し得る。この場合、プロセッサ210は、仮想空間11における仮想カメラ14の位置および傾きに基づいて、HMD120のモニタ130に投影される画像領域(視界領域15)を特定する。
【0067】
ある局面において、仮想カメラ14は、2つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含み得る。ユーザ5が3次元の仮想空間11を認識できるように、適切な視差が、2つの仮想カメラに設定される。別の局面において、仮想カメラ14を1つの仮想カメラにより実現してもよい。この場合、1つの仮想カメラにより得られた画像から、右目用の画像と左目用の画像とを生成するようにしてもよい。本実施の形態においては、仮想カメラ14が2つの仮想カメラを含み、2つの仮想カメラのロール軸が合成されることによって生成されるロール軸(w)がHMD120のロール軸(w)に適合されるように構成されているものとして、本開示に係る技術思想を例示する。
【0068】
[コントローラ]
図8を参照して、コントローラ300の一例について説明する。
図8は、ある実施の形態に従うコントローラ300の概略構成を表す図である。
【0069】
図8に示されるように、ある局面において、コントローラ300は、右コントローラ300Rと図示せぬ左コントローラとを含み得る。右コントローラ300Rは、ユーザ5の右手で操作される。左コントローラは、ユーザ5の左手で操作される。ある局面において、右コントローラ300Rと左コントローラとは、別個の装置として対称に構成される。したがって、ユーザ5は、右コントローラ300Rを把持した右手と、左コントローラを把持した左手とをそれぞれ自由に動かすことができる。別の局面において、コントローラ300は両手の操作を受け付ける一体型のコントローラであってもよい。以下、右コントローラ300Rについて説明する。
【0070】
右コントローラ300Rは、グリップ310と、フレーム320と、天面330とを備える。グリップ310は、ユーザ5の右手によって把持されるように構成されている。たとえば、グリップ310は、ユーザ5の右手の掌と3本の指(中指、薬指、小指)とによって保持され得る。
【0071】
グリップ310は、ボタン340,350と、モーションセンサ420とを含む。ボタン340は、グリップ310の側面に配置され、右手の中指による操作を受け付ける。ボタン350は、グリップ310の前面に配置され、右手の人差し指による操作を受け付ける。ある局面において、ボタン340,350は、トリガー式のボタンとして構成される。モーションセンサ420は、グリップ310の筐体に内蔵されている。ユーザ5の動作がカメラその他の装置によってユーザ5の周りから検出可能である場合には、グリップ310は、モーションセンサ420を備えなくてもよい。
【0072】
フレーム320は、その円周方向に沿って配置された複数の赤外線LED360を含む。赤外線LED360は、コントローラ300を使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LED360から発せられた赤外線は、右コントローラ300Rと左コントローラとの各位置や姿勢(傾き、向き)を検出するために使用され得る。
図8に示される例では、二列に配置された赤外線LED360が示されているが、配列の数は
図8に示されるものに限られない。一列あるいは3列以上の配列が使用されてもよい。
【0073】
天面330は、ボタン370,380と、アナログスティック390とを備える。ボタン370,380は、プッシュ式ボタンとして構成される。ボタン370,380は、ユーザ5の右手の親指による操作を受け付ける。アナログスティック390は、ある局面において、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、たとえば、仮想空間11に配置されるオブジェクトを移動するための操作を含む。
【0074】
ある局面において、右コントローラ300Rおよび左コントローラは、赤外線LED360その他の部材を駆動するための電池を含む。電池は、充電式、ボタン型、乾電池型などを含むが、これらに限定されない。別の局面において、右コントローラ300Rと左コントローラは、たとえば、コンピュータ200のUSBインターフェースに接続され得る。この場合、右コントローラ300Rおよび左コントローラは、電池を必要としない。
【0075】
図8の状態(A)および状態(B)に示されるように、例えば、ユーザ5の右手に対して、ヨー、ロール、ピッチの各方向が規定される。ユーザ5が親指と人差し指とを伸ばした場合に、親指の伸びる方向がヨー方向、人差し指の伸びる方向がロール方向、ヨー方向の軸およびロール方向の軸によって規定される平面に垂直な方向がピッチ方向として規定される。
【0076】
[サーバのハードウェア構成]
図9を参照して、本実施の形態に係るサーバ10について説明する。
図9は、ある実施の形態に従うサーバ600のハードウェア構成の一例を表すブロック図である。サーバ600は、主たる構成要素として、プロセッサ610と、メモリ620と、ストレージ630と、入出力インターフェイス640と、通信インターフェイス650とを備える。各構成要素は、それぞれ、バス660に接続されている。
【0077】
プロセッサ610は、サーバ600に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ620またはストレージ630に格納されているプログラムに含まれる一連の命令を実行する。ある局面において、プロセッサ610は、CPU)、GPU、MPU、FPGAその他のデバイスとして実現される。
【0078】
メモリ620は、プログラムおよびデータを一時的に保存する。プログラムは、例えば、ストレージ630からロードされる。データは、サーバ600に入力されたデータと、プロセッサ610によって生成されたデータとを含む。ある局面において、メモリ620は、RAMその他の揮発メモリとして実現される。
【0079】
ストレージ630は、プログラムおよびデータを永続的に保持する。ストレージ630は、例えば、ROM、ハードディスク装置、フラッシュメモリ、その他の不揮発記憶装置として実現される。ストレージ630に格納されるプログラムは、HMDシステム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、コンピュータ200との通信を実現するためのプログラムを含んでもよい。ストレージ630に格納されるデータは、仮想空間を規定するためのデータおよびオブジェクト等を含んでもよい。
【0080】
別の局面において、ストレージ630は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の局面において、サーバ600に内蔵されたストレージ630の代わりに、外部の記憶装置に保存されているプログラムおよびデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のHMDシステム100が使用される場面において、プログラムやデータの更新を一括して行なうことが可能になる。
【0081】
入出力インターフェイス640は、入出力機器との間で信号を通信する。ある局面において、入出力インターフェイス640は、USB、DVI、HDMIその他の端子を用いて実現される。入出力インターフェイス640は上述のものに限られない。
【0082】
通信インターフェイス650は、ネットワーク2に接続されて、ネットワーク2に接続されているコンピュータ200と通信する。ある局面において、通信インターフェイス650は、例えば、LANその他の有線通信インターフェイス、あるいは、WiFi、Bluetooth、NFCその他の無線通信インターフェイスとして実現される。通信インターフェイス650は上述のものに限られない。
【0083】
ある局面において、プロセッサ610は、ストレージ630にアクセスし、ストレージ630に格納されている1つ以上のプログラムをメモリ620にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、サーバ600のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ610は、入出力インターフェイス640を介して、仮想空間を提供するための信号をコンピュータ200に送ってもよい。
【0084】
[HMDの制御装置]
図10を参照して、HMD120の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。
図10は、ある実施の形態に従うコンピュータ200をモジュール構成として表わすブロック図である。
【0085】
図10に示されるように、コンピュータ200は、コントロールモジュール510と、レンダリングモジュール520と、メモリモジュール530と、通信制御モジュール540とを備える。ある局面において、コントロールモジュール510とレンダリングモジュール520とは、プロセッサ210によって実現される。別の局面において、複数のプロセッサ210がコントロールモジュール510とレンダリングモジュール520として作動してもよい。メモリモジュール530は、メモリ220またはストレージ230によって実現される。通信制御モジュール540は、通信インターフェイス250によって実現される。
【0086】
コントロールモジュール510は、ユーザ5に提供される仮想空間11を制御する。コントロールモジュール510は、仮想空間11を表す仮想空間データを用いて、HMDシステム100における仮想空間11を規定する。仮想空間データは、例えば、メモリモジュール530に記憶されている。コントロールモジュール510が、仮想空間データを生成したり、サーバ600などから仮想空間データを取得するようにしたりしてもよい。
【0087】
コントロールモジュール510は、オブジェクトを表すオブジェクトデータを用いて、仮想空間11にオブジェクトを配置する。オブジェクトデータは、例えば、メモリモジュール530に記憶されている。コントロールモジュール510が、オブジェクトデータを生成したり、サーバ600などからオブジェクトデータを取得するようにしたりしてもよい。オブジェクトは、例えば、ユーザ5の分身であるアバターオブジェクト、キャラクタオブジェクト、コントローラ300によって操作される仮想手などの操作オブジェクト、ゲームのストーリーの進行に従って配置される森、山その他を含む風景、街並み、動物等を含み得る。
【0088】
コントロールモジュール510は、ネットワーク2を介して接続される他のコンピュータ200のユーザ5のアバターオブジェクトを仮想空間11に配置する。ある局面において、コントロールモジュール510は、ユーザ5のアバターオブジェクトを仮想空間11に配置する。ある局面において、コントロールモジュール510は、ユーザ5を含む画像に基づいて、ユーザ5を模したアバターオブジェクトを仮想空間11に配置する。別の局面において、コントロールモジュール510は、複数種類のアバターオブジェクト(例えば、動物を模したオブジェクトや、デフォルメされた人のオブジェクト)の中からユーザ5による選択を受け付けたアバターオブジェクトを仮想空間11に配置する。
【0089】
コントロールモジュール510は、HMDセンサ410の出力に基づいてHMD120の傾きを特定する。別の局面において、コントロールモジュール510は、モーションセンサとして機能するセンサ190の出力に基づいてHMD120の傾きを特定する。コントロールモジュール510は、第1カメラ150および第2カメラ160が生成するユーザ5の顔の画像から、ユーザ5の顔を構成する器官(例えば、口,目,眉)を検出する。コントロールモジュール510は、検出した各器官の動き(形状)を検出する。
【0090】
コントロールモジュール510は、注視センサ140からの信号に基づいて、ユーザ5の仮想空間11における視線を検出する。コントロールモジュール510は、検出したユーザ5の視線と仮想空間11の天球とが交わる視点位置(XYZ座標系における座標値)を検出する。より具体的には、コントロールモジュール510は、uvw座標系で規定されるユーザ5の視線と、仮想カメラ14の位置および傾きとに基づいて、視点位置を検出する。コントロールモジュール510は、検出した視点位置をサーバ600に送信する。別の局面において、コントロールモジュール510は、ユーザ5の視線を表す視線情報をサーバ600に送信するように構成されてもよい。係る場合、サーバ600が受信した視線情報に基づいて視点位置を算出し得る。
【0091】
コントロールモジュール510は、HMDセンサ410が検出するHMD120の動きをアバターオブジェクトに反映する。例えば、コントロールモジュール510は、HMD120が傾いたことを検知して、アバターオブジェクトを傾けて配置する。コントロールモジュール510は、検出した顔器官の動作を、仮想空間11に配置されるアバターオブジェクトの顔に反映させる。コントロールモジュール510は、サーバ600から他のユーザ5の視線情報を受信し、当該他のユーザ5のアバターオブジェクトの視線に反映させる。ある局面において、コントロールモジュール510は、コントローラ300の動きをアバターオブジェクトや操作オブジェクトに反映する。この場合、コントローラ300は、コントローラ300の動きを検知するためのモーションセンサ、加速度センサ、または複数の発光素子(例えば、赤外線LED)などを備える。
【0092】
コントロールモジュール510は、仮想空間11においてユーザ5の操作を受け付けるための操作オブジェクトを仮想空間11に配置する。ユーザ5は、操作オブジェクトを操作することにより、例えば、仮想空間11に配置されるオブジェクトを操作する。ある局面において、操作オブジェクトは、例えば、ユーザ5の手に相当する仮想手である手オブジェクト等を含み得る。ある局面において、コントロールモジュール510は、モーションセンサ420の出力に基づいて現実空間におけるユーザ5の手の動きに連動するように仮想空間11において手オブジェクトを動かす。ある局面において、操作オブジェクトは、アバターオブジェクトの手の部分に相当し得る。
【0093】
コントロールモジュール510は、仮想空間11に配置されるオブジェクトのそれぞれが、他のオブジェクトと衝突した場合に、当該衝突を検出する。コントロールモジュール510は、例えば、あるオブジェクトのコリジョンエリアと、別のオブジェクトのコリジョンエリアとが触れたタイミングを検出することができ、当該検出がされたときに、予め定められた処理を行なう。コントロールモジュール510は、オブジェクトとオブジェクトとが触れている状態から離れたタイミングを検出することができ、当該検出がされたときに、予め定められた処理を行なう。コントロールモジュール510は、オブジェクトとオブジェクトとが触れている状態であることを検出することができる。例えば、コントロールモジュール510は、操作オブジェクトと、他のオブジェクトとが触れたときに、これら操作オブジェクトと他のオブジェクトとが触れたことを検出して、予め定められた処理を行なう。
【0094】
ある局面において、コントロールモジュール510は、HMD120のモニタ130における画像表示を制御する。例えば、コントロールモジュール510は、仮想空間11に仮想カメラ14を配置する。コントロールモジュール510は、仮想空間11における仮想カメラ14の位置と、仮想カメラ14の傾き(向き)を制御する。コントロールモジュール510は、HMD120を装着したユーザ5の頭の傾きと、仮想カメラ14の位置に応じて、視界領域15を規定する。レンダリングモジュール520は、決定された視界領域15に基づいて、モニタ130に表示される視界画像17を生成する。レンダリングモジュール520により生成された視界画像17は、通信制御モジュール540によってHMD120に出力される。
【0095】
コントロールモジュール510は、HMD120から、ユーザ5のマイク170を用いた発話を検出すると、当該発話に対応する音声データの送信対象のコンピュータ200を特定する。音声データは、コントロールモジュール510によって特定されたコンピュータ200に送信される。コントロールモジュール510は、ネットワーク2を介して他のユーザのコンピュータ200から音声データを受信すると、当該音声データに対応する音声(発話)をスピーカ180から出力する。
【0096】
メモリモジュール530は、コンピュータ200が仮想空間11をユーザ5に提供するために使用されるデータを保持している。ある局面において、メモリモジュール530は、空間情報と、オブジェクト情報と、ユーザ情報とを保持している。
【0097】
空間情報は、仮想空間11を提供するために規定された1つ以上のテンプレートを保持している。
【0098】
オブジェクト情報は、仮想空間11を構成する複数のパノラマ画像13、仮想空間11にオブジェクトを配置するためのオブジェクトデータを含む。パノラマ画像13は、静止画像および動画像を含み得る。パノラマ画像13は、非現実空間の画像と現実空間の画像とを含み得る。非現実空間の画像としては、例えば、コンピュータグラフィックスで生成された画像が挙げられる。
【0099】
ユーザ情報は、ユーザ5を識別するユーザIDを保持する。ユーザIDは、例えば、ユーザが使用するコンピュータ200に設定されるIP(Internet Protocol)アドレスまたはMAC(Media Access Control)アドレスであり得る。別の局面において、ユーザIDはユーザによって設定され得る。ユーザ情報は、HMDシステム100の制御装置としてコンピュータ200を機能させるためのプログラム等を含む。
【0100】
メモリモジュール530に格納されているデータおよびプログラムは、HMD120のユーザ5によって入力される。あるいは、プロセッサ210が、当該コンテンツを提供する事業者が運営するコンピュータ(例えば、サーバ600)からプログラムあるいはデータをダウンロードして、ダウンロードされたプログラムあるいはデータをメモリモジュール530に格納する。
【0101】
通信制御モジュール540は、ネットワーク2を介して、サーバ600その他の情報通信装置と通信し得る。
【0102】
ある局面において、コントロールモジュール510及びレンダリングモジュール520は、例えば、ユニティテクノロジーズ社によって提供されるUnity(登録商標)を用いて実現され得る。別の局面において、コントロールモジュール510及びレンダリングモジュール520は、各処理を実現する回路素子の組み合わせとしても実現され得る。
【0103】
コンピュータ200における処理は、ハードウェアと、プロセッサ210により実行されるソフトウェアとによって実現される。このようなソフトウェアは、ハードディスクその他のメモリモジュール530に予め格納されている場合がある。ソフトウェアは、CD-ROMその他のコンピュータ読み取り可能な不揮発性のデータ記録媒体に格納されて、プログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、インターネットその他のネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、光ディスク駆動装置その他のデータ読取装置によってデータ記録媒体から読み取られて、あるいは、通信制御モジュール540を介してサーバ600その他のコンピュータからダウンロードされた後、記憶モジュールに一旦格納される。そのソフトウェアは、プロセッサ210によって記憶モジュールから読み出され、実行可能なプログラムの形式でRAMに格納される。プロセッサ210は、そのプログラムを実行する。
【0104】
[HMDシステムの制御構造]
図11を参照して、HMDセット110の制御構造について説明する。
図11は、ある実施の形態に従うHMDセット110において実行される処理の一部を表すシーケンスチャートである。
【0105】
図11に示されるように、ステップS1110にて、コンピュータ200のプロセッサ210は、コントロールモジュール510として、仮想空間データを特定し、仮想空間11を定義する。
【0106】
ステップS1120にて、プロセッサ210は、仮想カメラ14を初期化する。たとえば、プロセッサ210は、メモリのワーク領域において、仮想カメラ14を仮想空間11において予め規定された中心点12に配置し、仮想カメラ14の視線をユーザ5が向いている方向に向ける。
【0107】
ステップS1130にて、プロセッサ210は、レンダリングモジュール520として、初期の視界画像を表示するための視界画像データを生成する。生成された視界画像データは、通信制御モジュール540によってHMD120に出力される。
【0108】
ステップS1132にて、HMD120のモニタ130は、コンピュータ200から受信した視界画像データに基づいて、視界画像を表示する。HMD120を装着したユーザ5は、視界画像を視認すると仮想空間11を認識し得る。
【0109】
ステップS1134にて、HMDセンサ410は、HMD120から発信される複数の赤外線光に基づいて、HMD120の位置と傾きを検知する。検知結果は、動き検知データとして、コンピュータ200に出力される。
【0110】
ステップS1140にて、プロセッサ210は、HMD120の動き検知データに含まれる位置と傾きとに基づいて、HMD120を装着したユーザ5の視界方向を特定する。
【0111】
ステップS1150にて、プロセッサ210は、アプリケーションプログラムを実行し、アプリケーションプログラムに含まれる命令に基づいて、仮想空間11にオブジェクトを配置する。
【0112】
ステップS1160にて、コントローラ300は、モーションセンサ420から出力される信号に基づいて、ユーザ5の操作を検出し、その検出された操作を表す検出データをコンピュータ200に出力する。別の局面において、ユーザ5によるコントローラ300の操作は、ユーザ5の周囲に配置されたカメラからの画像に基づいて検出されてもよい。
【0113】
ステップS1170にて、プロセッサ210は、コントローラ300から取得した検出データに基づいて、ユーザ5によるコントローラ300の操作を検出する。
【0114】
ステップS1180にて、プロセッサ210は、ユーザ5によるコントローラ300の操作に基づく視界画像データを生成する。生成された視界画像データは、通信制御モジュール540によってHMD120に出力される。
【0115】
ステップS1190にて、HMD120は、受信した視界画像データに基づいて視界画像を更新し、更新後の視界画像をモニタ130に表示する。
【0116】
[アバターオブジェクト]
図12(A)、(B)を参照して、本実施の形態に従うアバターオブジェクトについて説明する。以下、HMDセット110A,110Bの各ユーザ5のアバターオブジェクトを説明する図である。以下、HMDセット110Aのユーザをユーザ5A、HMDセット110Bのユーザをユーザ5B、HMDセット110Cのユーザをユーザ5C、HMDセット110Dのユーザをユーザ5Dと表す。HMDセット110Aに関する各構成要素の参照符号にAが付され、HMDセット110Bに関する各構成要素の参照符号にBが付され、HMDセット110Cに関する各構成要素の参照符号にCが付され、HMDセット110Dに関する各構成要素の参照符号にDが付される。例えば、HMD120Aは、HMDセット110Aに含まれる。
【0117】
図12(A)は、ネットワーク2において、各HMD120がユーザ5に仮想空間11を提供する状況を表す模式図である。コンピュータ200A~200Dは、HMD120A~120Dを介して、ユーザ5A~5Dに、仮想空間11A~11Dをそれぞれ提供する。
図12(A)に示される例において、仮想空間11Aおよび仮想空間11Bは同じデータによって構成されている。換言すれば、コンピュータ200Aとコンピュータ200Bとは同じ仮想空間を共有していることになる。仮想空間11Aおよび仮想空間11Bには、ユーザ5Aのアバターオブジェクト6Aと、ユーザ5Bのアバターオブジェクト6Bとが存在する。仮想空間11Aにおけるアバターオブジェクト6Aおよび仮想空間11Bにおけるアバターオブジェクト6BがそれぞれHMD120を装着しているが、これは説明を分かりやすくするためのものであって、実際にはこれらのオブジェクトはHMD120を装着していない。
【0118】
ある局面において、プロセッサ210Aは、ユーザ5Aの視界画像17Aを撮影する仮想カメラ14Aを、アバターオブジェクト6Aの目の位置に配置し得る。
【0119】
図12(B)は、
図12(A)におけるユーザ5Aの視界画像17Aを示す図である。視界画像17Aは、HMD120Aのモニタ130Aに表示される画像である。この視界画像17Aは、仮想カメラ14Aにより生成された画像である。視界画像17Aには、ユーザ5Bのアバターオブジェクト6Bが表示されている。特に図示はしていないが、ユーザ5Bの視界画像にも同様に、ユーザ5Aのアバターオブジェクト6Aが表示されている。
【0120】
図12(B)の状態において、ユーザ5Aは仮想空間11Aを介してユーザ5Bと対話による通信(コミュニケーション)を図ることができる。より具体的には、マイク170Aにより取得されたユーザ5Aの音声は、サーバ600を介してユーザ5BのHMD17120Bに送信され、HMD120Bに設けられたスピーカ180Bから出力される。ユーザ5Bの音声は、サーバ600を介してユーザ5AのHMD120Aに送信され、HMD120Aに設けられたスピーカ180Aから出力される。
【0121】
ユーザ5Bの動作(HMD120Bの動作およびコントローラ300Bの動作)は、プロセッサ210Aにより仮想空間11Aに配置されるアバターオブジェクト6Bに反映される。これにより、ユーザ5Aは、ユーザ5Bの動作を、アバターオブジェクト6Bを通じて認識できる。
【0122】
図13は、本実施の形態に従うHMDシステム100において実行される処理の一部を表すシーケンスチャートである。
図13においては、HMDセット110Dを図示していないが、HMDセット110Dについても、HMDセット110A、110B、110Cと同様に動作する。以下の説明でも、HMDセット110Aに関する各構成要素の参照符号にAが付され、HMDセット110Bに関する各構成要素の参照符号にBが付され、HMDセット110Cに関する各構成要素の参照符号にCが付され、HMDセット110Dに関する各構成要素の参照符号にDが付されるものとする。
【0123】
ステップS1310Aにおいて、HMDセット110Aにおけるプロセッサ210Aは、仮想空間11Aにおけるアバターオブジェクト6Aの動作を決定するためのアバター情報を取得する。このアバター情報は、例えば、動き情報、フェイストラッキングデータ、および音声データ等のアバターに関する情報を含む。動き情報は、HMD120Aの位置および傾きの時間的変化を示す情報や、モーションセンサ420A等により検出されたユーザ5Aの手の動きを示す情報などを含む。フェイストラッキングデータは、ユーザ5Aの顔の各パーツの位置および大きさを特定するデータが挙げられる。フェイストラッキングデータは、ユーザ5Aの顔を構成する各器官の動きを示すデータや視線データが挙げられる。音声データは、HMD120Aのマイク170Aによって取得されたユーザ5Aの音声を示すデータが挙げられる。アバター情報には、アバターオブジェクト6A、あるいはアバターオブジェクト6Aに関連付けられるユーザ5Aを特定する情報や、アバターオブジェクト6Aが存在する仮想空間11Aを特定する情報等が含まれてもよい。アバターオブジェクト6Aやユーザ5Aを特定する情報としては、ユーザIDが挙げられる。アバターオブジェクト6Aが存在する仮想空間11Aを特定する情報としては、ルームIDが挙げられる。プロセッサ210Aは、上述のように取得されたアバター情報を、ネットワーク2を介してサーバ600に送信する。
【0124】
ステップS1310Bにおいて、HMDセット110Bにおけるプロセッサ210Bは、ステップS1310Aにおける処理と同様に、仮想空間11Bにおけるアバターオブジェクト6Bの動作を決定するためのアバター情報を取得し、サーバ600に送信する。同様に、ステップS1310Cにおいて、HMDセット110Bにおけるプロセッサ210Bは、仮想空間11Cにおけるアバターオブジェクト6Cの動作を決定するためのアバター情報を取得し、サーバ600に送信する。
【0125】
ステップS1320において、サーバ600は、HMDセット110A、HMDセット110B、およびHMDセット110Cのそれぞれから受信したプレイヤ情報を一旦記憶する。サーバ600は、各アバター情報に含まれるユーザIDおよびルームID等に基づいて、共通の仮想空間11に関連付けられた全ユーザ(この例では、ユーザ5A~5C)のアバター情報を統合する。そして、サーバ600は、予め定められたタイミングで、統合したアバター情報を当該仮想空間11に関連付けられた全ユーザに送信する。これにより、同期処理が実行される。このような同期処理により、HMDセット110A、HMDセット110B、およびHMD11020Cは、互いのアバター情報をほぼ同じタイミングで共有することができる。
【0126】
続いて、サーバ600から各HMDセット110A~110Cに送信されたアバター情報に基づいて、各HMDセット110A~110Cは、ステップS1330A~S1330Cの処理を実行する。ステップS1330Aの処理は、
図11におけるステップS1180の処理に相当する。
【0127】
ステップS1330Aにおいて、HMDセット110Aにおけるプロセッサ210Aは、仮想空間11Aにおける他のユーザ5B,5Cのアバターオブジェクト6B、アバターオブジェクト6Cの情報を更新する。具体的には、プロセッサ210Aは、HMDセット110Bから送信されたアバター情報に含まれる動き情報に基づいて、仮想空間11におけるアバターオブジェクト6Bの位置および向き等を更新する。例えば、プロセッサ210Aは、メモリモジュール540に格納されたオブジェクト情報に含まれるアバターオブジェクト6Bの情報(位置および向き等)を更新する。同様に、プロセッサ210Aは、HMDセット110Cから送信されたアバター情報に含まれる動き情報に基づいて、仮想空間11におけるアバターオブジェクト6Cの情報(位置および向き等)を更新する。
【0128】
ステップS1330Bにおいて、HMDセット110Bにおけるプロセッサ210Bは、ステップS1330Aにおける処理と同様に、仮想空間11Bにおけるユーザ5A,5Cのアバターオブジェクト6A,6Cの情報を更新する。同様に、ステップS1330Cにおいて、HMDセット110Cにおけるプロセッサ210Cは、仮想空間11Cにおけるユーザ5A,5Bのアバターオブジェクト6A,6Bの情報を更新する。
【0129】
[モジュールの詳細構成]
図14を参照して、コンピュータ200のモジュール構成の詳細について説明する。
図14は、ある実施の形態に従うコンピュータ200のモジュールの詳細構成を表わすブロック図である。
【0130】
図14に示されるように、コントロールモジュール510は、仮想カメラ制御モジュール1421と、視界領域決定モジュール1422と、基準視線特定モジュール1423と、仮想空間定義モジュール1424と、仮想オブジェクト生成モジュール1425と、操作オブジェクト制御モジュール1426と、ブラウジングモジュール1427と、アプリケーションモジュール1428と、を備える。レンダリングモジュール520は、視界画像生成モジュール1438を備える。メモリモジュール530は、空間情報1431と、ユーザ情報1432と、を保持している。
【0131】
仮想カメラ制御モジュール1421は、仮想空間11に仮想カメラ14を配置する。仮想カメラ制御モジュール1421は、仮想空間11における仮想カメラ14の配置位置と、仮想カメラ14の向き(傾き)を制御する。視界領域決定モジュール1422は、HMD120を装着したユーザ5の頭の向きと、仮想カメラ14の配置位置に応じて、視界領域15を規定する。視界画像生成モジュール1438は、決定された視界領域15に基づいて、モニタ130に表示される視界画像17を生成する。
【0132】
基準視線特定モジュール1423は、注視センサ140からの信号に基づいて、ユーザ5の視線を特定する。仮想空間定義モジュール1424は、仮想空間11を表わす仮想空間データを生成することにより、HMDシステム100における仮想空間11を規定する。仮想オブジェクト生成モジュール1425は、仮想空間11に配置されるオブジェクトを生成する。
【0133】
操作オブジェクト制御モジュール1426は、仮想空間11においてユーザ5の操作を受け付けるための操作オブジェクトを仮想空間11に配置する。ユーザ5は、操作オブジェクトを操作することにより、例えば、仮想空間11に配置されるオブジェクトを操作する。ある局面において、操作オブジェクトは、例えば、HMD120を装着したユーザ5の手に相当する手オブジェクト等を含み得る。ある局面において、操作オブジェクトは、後述するアバターオブジェクトの手の部分に相当し得る。
【0134】
ブラウジングモジュール1427は、仮想空間11においてウェブブラウジングを行うことを可能にする。ある局面において、ブラウジングモジュール1427は、ウェブブラウザ(以下、ブラウザウィンドウとも称する)を仮想空間11に配置する。また、ある局面において、ブラウジングモジュール1427は、ウェブブラウジングに関するユーザ5の操作を受け付けるためのメニューウィンドウを仮想空間11に配置する。例えば、ユーザ5がブラウザウィンドウ又はメニューウィンドウ上でURLを入力した場合、ブラウジングモジュールは、当該URLに対応するサーバから情報リソースを受け取り、ブラウザウィンドウ内に当該情報リソースに基づく画像を提供する。ある局面において、情報リソースが360度ウェブコンテンツを示すものである場合、ブラウジングモジュール1427は、当該情報リソースに基づく画像を、仮想空間11又は他の仮想空間内に展開された360度ウェブコンテンツとして提供する。
【0135】
アプリケーションモジュール1428は、ウェブブラウジングをするためのアプリケーションプログラムとは異なるものであって、VRコンテンツを視聴するための専用アプリケーションプログラム(以下、VRアプリとも称する)を実行する機能を有する。ある局面において、アプリケーションモジュール1428によって実行されるVRアプリは、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するための画面を、仮想空間に展開された360度コンテンツとして提供可能なものである。このようなVRアプリは、例えば、HMD120のPF(Plat Form)上で配信され得る。
【0136】
コントロールモジュール510は、仮想空間11に配置されるオブジェクトのそれぞれが、他のオブジェクトと衝突した場合に、当該衝突を検出する。コントロールモジュール510は、例えば、あるオブジェクトと、別のオブジェクトとが触れたタイミングを検出することができ、当該検出がされたときに、予め定められた処理を行なう。コントロールモジュール510は、オブジェクトとオブジェクトとが触れている状態から離れたタイミングを検出することができ、当該検出がされたときに、予め定められた処理を行なう。コントロールモジュール510は、オブジェクトとオブジェクトとが触れている状態であることを検出することができる。具体的には、コントロールモジュール510は、操作オブジェクトと、他のオブジェクトとが触れたときに、これら操作オブジェクトと他のオブジェクトとが触れたことを検出して、予め定められた処理を行なう。
【0137】
メモリモジュール530は、コンピュータ200が仮想空間11をユーザ5に提供するために使用されるデータを保持している。ある局面において、メモリモジュール530は、空間情報1431と、ユーザ情報1432とを保持している。
【0138】
空間情報1431は、仮想空間11を提供するために規定された1つ以上のテンプレートを保持している。空間情報1431には、仮想空間11に配置されるオブジェクトの情報が含まれ得る。
【0139】
ユーザ情報1432は、HMDシステム100の制御装置としてコンピュータ200を機能させるためのプログラム、ブラウジングモジュール1427やアプリケーションモジュール1428を機能させるためのプログラム等を保持している。
【0140】
[動作処理]
次に、
図15~
図22を参照して本実施形態に係るコンピュータ200の動作処理を説明する。なお、以下の説明において、「360度コンテンツ」とは、例えば、HMD120の位置および傾き等を変更することで、ユーザ5が仮想空間内で自由に視点を変更可能なVRコンテンツのことをいい、例えば、所定の角度(例えば、180度、360度など)にて展開される空間画像を含む仮想空間として提供されることが好ましく、360度空間画像を含む仮想空間として提供されることがより好ましい。360度空間画像を含む仮想空間では、仮想空間の中心位置に仮想カメラが配置されると共に、仮想空間の表面上に360度空間画像が表示される。
【0141】
また、「360度動画コンテンツ」とは、例えば、上記所定の角度にて展開される空間画像を含む仮想空間上で提供される動画コンテンツのことをいい、360度空間画像を含む仮想空間上で提供される動画コンテンツであることが好ましい。また、「360度ウェブコンテンツ」とは、例えば、上記所定の角度にて展開される空間画像を含む仮想空間上で提供されるウェブコンテンツのことをいい、360度空間画像を含む仮想空間上で提供されるものであることが好ましい。一方で、単に「ウェブコンテンツ」という場合は、例えば、仮想空間内に配置されるブラウザウィンドウ内等の限られた領域内で提供されるウェブコンテンツのことをいう。
【0142】
まず、前提として、コンピュータ200のプロセッサ210は、コントロールモジュール510として、VRアプリを実行することが可能である。VRアプリが実行された場合、例えば、プロセッサ210は、当該VRアプリのホーム画面を、360度空間画像を含む仮想空間上に生成する。当該ホーム画面は、例えば、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するための選択画面を含んでいるか、ユーザ5による操作入力に応じて1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するための選択画面へと遷移可能であるか、もしくはこれら両方を満たすものである。選択画面においてユーザ5が1の動画コンテンツを選択した場合、プロセッサ210は、例えば、選択された動画コンテンツを360度動画コンテンツとして再生することができ、再生された画像をHMD120に提供することができる。
【0143】
VRアプリを利用する場合、ホーム画面の段階から360度コンテンツとしての提供が可能であるため、ユーザの没入感向上という観点で優れている。一方で、VRアプリによって提供される動画コンテンツは、HMD120のPF提供者が許可したものだけである。動画コンテンツの配信者は、配信を希望するすべての動画コンテンツをVRアプリによって配信できるとは限らず、また、ユーザにとっては、ウェブ等で公開されている動画コンテンツのすべてがVRアプリによって視聴可能なわけではない。
【0144】
従来、ウェブで公開されている動画コンテンツであれば、HMD120上でVR用のウェブブラウザを用いて視聴することができた。しかし、従来の態様では、動画コンテンツの選択が仮想空間内に配置されたブラウザウィンドウ内で行われる等のため、VRアプリを使用した場合よりも没入感に欠けてしまう。以下の開示は、このような問題点の改善に資するものであり、ウェブブラウザを用いたVRコンテンツの視聴に関するものである。
【0145】
図15は、ある実施の形態に従うコンピュータ200において実行される動作処理の一例を示すフローチャートである。
【0146】
図15に示されるように、ステップS1510にて、コンピュータ200のプロセッサ210は、コントロールモジュール510として、仮想空間データを特定し、仮想空間を定義する。定義された仮想空間は、HMD120に提供される。ステップS1510にて定義される仮想空間は、所定の角度(例えば、180度、360度など)にて展開される空間画像を含む仮想空間であり、以下では、360度空間画像を含む仮想空間として説明をする。
【0147】
ステップS1520にて、プロセッサ210は、ステップS1510において定義された仮想空間にブラウザウィンドウを配置する。ブラウザウィンドウは、例えば、ユーザ5によってウェブブラウザを実行するための操作がされたことに応じて配置されてもよいし、ステップS1510において仮想空間を定義する際に、仮想空間内に配置される初期オブジェクトとして配置されてもよい。
【0148】
プロセッサ210は、ステップS1520と同時的に、ウェブブラウジングをする際の操作メニューを表示するメニューオブジェクトや、ブラウザウィンドウ内に表示されるウェブコンテンツに関する補足情報や広告情報等を表示する情報表示オブジェクトを仮想空間内に配置してもよい。
【0149】
ステップS1530にて、プロセッサ210は、URLアドレスへのアクセス要求を受け付ける。ある局面において、ステップS1530では、VR用の動画コンテンツを提供するサーバを指定するURLアドレスへのアクセス要求を受け付ける。以下では、ステップS1530において、VR用の動画コンテンツを提供するサーバへのアクセス要求があったものとして説明をする。
【0150】
上記アクセス要求は、例えば、ユーザ5による操作入力に基づいて実行される。プロセッサ210は、上記アクセス要求に基づいて指定されたサーバへアクセスし、例えば、上記サーバによって提供されるウェブコンテンツのホーム画面(トップページ)をブラウザウィンドウ内に展開するための情報リソースを取得する。
【0151】
ステップS1540にて、プロセッサ210は、取得した情報リソースに基づいて、ブラウザウィンドウ内にウェブコンテンツを提供する。ステップS1540において提供されるウェブコンテンツは、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するためのウェブ画面を含む。
【0152】
ステップS1550にて、プロセッサ210は、ユーザによる第1操作入力がなされない場合(ステップS1550においてNo)、ブラウザウィンドウ内におけるウェブコンテンツの提供を続行し、ステップS1560、S1570、及びS1580の一連の処理へと進む。当該一連の処理については、後の段落で詳述する。
【0153】
ここで、第1操作入力とは、ステップS1541へ進むための操作入力である。第1操作入力としては、特に限定はされず、例えば、コントローラ300への所定の操作入力や、仮想ボタンを仮想的に押下するような操作入力が挙げられる。
【0154】
ステップS1550にて、プロセッサ210は、ユーザによる第1操作入力がなされた場合(ステップS1550においてYes)、ステップS1541へ進む。
【0155】
ステップS1541にて、プロセッサ210は、ブラウザウィンドウ1621内で提供されていたウェブコンテンツに代わって、360度空間画像を含む仮想空間に展開された360度ウェブコンテンツをHMD120に提供する。具体的には、第1操作入力がなされた場合、プロセッサ210は、サーバと通信接続を行い、360度ウェブコンテンツをHMD120に提供するための情報リソースを取得する。プロセッサ210は、当該情報リソースに基づいて、360度ウェブコンテンツをHMD120に提供する。ステップS1541において提供される360度ウェブコンテンツは、ステップS1540において提供されていたウェブコンテンツに対応するものであって、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するためのウェブ画面を含むものである。
【0156】
以下、
図16及び
図17と、
図18~
図20とを用いて、S1540にて提供されるウェブコンテンツと、S1541にて提供される360度ウェブコンテンツの違いについて詳述する。
【0157】
図16は、ある実施の形態に従う仮想空間1611の一例を示す模式図であり、具体的には、ステップS1540の処理の際にHMD120に提供される仮想空間1611を示す模式図である。
図17は、
図16に示す仮想空間1611をY軸方向から見たXZ断面を示す模式図である。
【0158】
図16及び
図17に示すように、仮想空間1611内には、ブラウザウィンドウ1621と、メニューオブジェクト1623と、情報表示オブジェクト1624と、仮想カメラ1614と、が配置されている。
【0159】
ブラウザウィンドウ1621には、サーバから提供されたウェブコンテンツが表示される。具体的には、サーバが配信する動画コンテンツの中からユーザが再生を希望する動画コンテンツを選択するためのウェブ画面が表示される。
図16の例では、ブラウザウィンドウ1621内に、6つの動画コンテンツ1622(1622a~1622f)が表示されている。動画コンテンツ1622は、例えば、各動画コンテンツのサムネイル画像を含んでいる。
【0160】
ブラウザウィンドウ1621の形状等は、特に限定はされないが、例えば、
図16及び17によって示されるように、一般的には平面的な板状である。よって、動画コンテンツを選択するためのウェブ画面も、平面的な表示にとどまる。なお、
図17において仮想カメラ1614から延びる点線は、ユーザ5の視界領域を示している。
【0161】
メニューオブジェクト1623には、ウェブブラウジングをする際の操作メニューが表示される。ユーザがメニューオブジェクト1623に対して操作入力をすることで、例えば、ブラウザウィンドウ1621内の表示内容が変更される。
図16の例では、3つのメニューオブジェクト1623a~1623cがあり、それぞれに異なる操作メニューが表示される。メニューオブジェクト1623は、ブラウザウィンドウ1621と一体的なものであってもよいし、ブラウザウィンドウ1621に重畳するように配置されてもよい。
【0162】
情報表示オブジェクト1624には、所定の情報が表示される。所定の情報としては、特に制限はされないが、例えば、ブラウザウィンドウ1621内に表示される動画コンテンツ1622に関する補足情報等が挙げられる。
図16の例では、例えば、仮想カメラ1614の視線L上にある動画コンテンツ1622bに関する情報が表示されるようにしてもよい。情報表示オブジェクト1624は、ブラウザウィンドウ1621と一体的なものであってもよいし、ブラウザウィンドウ1621に重畳するように配置されてもよい。
【0163】
ブラウザウィンドウ1621の右下部分には、第1操作ボタン1625が表示されている。第1操作ボタン1625を選択するための操作入力がユーザ5によってなされると、上述のステップS1541の処理がなされ、ブラウザウィンドウ1621内で提供されていたウェブコンテンツが、360度空間画像を含む仮想空間に展開された360度ウェブコンテンツとしてHMD120に提供されることになる。
【0164】
図18は、ある実施の形態に従う仮想空間1811の一例を示す模式図であり、具体的には、ステップS1541の処理の際にHMD120に提供される仮想空間1811を示す模式図である。
図19は、
図18に示す仮想空間1811をY軸方向から見たXZ断面を示す模式図である。
図20は、
図18におけるユーザ5の視界画像2017を示す模式図である。
【0165】
図18及び
図19に示すように、仮想空間1811内には、複数の動画コンテンツ1822(動画コンテンツ1822a~1822hを含む)と、仮想カメラ1814と、が配置されている。仮想空間1811及び仮想カメラ1814は、それぞれ、仮想空間1611及び仮想カメラ1614と同一のものであってもよいし、異なるものであってもよい。仮想空間1811の形状は、特に制限はされないが、例えば、半球状または天球上である。なお、
図19において仮想カメラ1814から延びる点線は、ユーザ5の視界領域を示している。
【0166】
複数の動画コンテンツ1822は、仮想空間1811内に360度ウェブコンテンツとして展開されている。また、複数の動画コンテンツ1822は、仮想空間1811の外縁に沿うように配置されている。複数の動画コンテンツ1822のうち、1822a~1822fは、それぞれ、
図16における動画コンテンツ1622a~1622fと同一の動画コンテンツを示すものである。すなわち、ステップS1540においてウェブコンテンツとして提供される選択画面と、ステップS1541において360度ウェブコンテンツとして提供される選択画面とは、互いに対応するものである。
【0167】
しかし、互いに対応するものであっても、360度ウェブコンテンツとして選択画面を提供する場合は、ウェブコンテンツとして選択画面を提供する場合には得ることが困難な下記のような1以上の効果を期待できる。
【0168】
第1の効果としては、例えば、ユーザの操作性の向上が挙げられる。ウェブコンテンツとして選択画面を提供する場合、ブラウザウィンドウ内に選択画面が表示されることになるが、当該選択画面(例えば、ホーム画面)は、VRのブラウザウィンドウ用に最適化されているわけではないので、ユーザにとっては使いづらいことが多い。一方で、360度ウェブコンテンツとして選択画面を提供する場合、ブラウザウィンドウ内に選択画面を表示するという制限をなくすことができるため、ユーザにとって使いやすい態様で選択画面を提供することが可能になる。
【0169】
例えば、
図20に示される視界画像2017がユーザ5に対して提供されている状態において、ユーザ5は、ヨー軸回りに左方向へ回転させるように頭部を動かすだけで、動画コンテンツ1822gの左側に配置されている動画コンテンツ(例えば、動画コンテンツ1822h)を視界画像2017内に収めることが可能になる。一方で、ブラウザウィンドウ1621内に選択画面が表示されている場合は、ユーザ5が頭部を動かしたとしても、ブラウザウィンドウ1621内に表示された選択画面は変更されない。ブラウザウィンドウ1621内に表示される内容を変更するためには、例えば、メニューオブジェクト1623やコントローラ300に対する操作が必要になる。
【0170】
第2の効果としては、例えば、仮想空間への没入感の向上が挙げられる。ウェブコンテンツとして選択画面を提供する場合において、仮に、当該選択画面(例えば、ホーム画面)をVRのブラウザウィンドウ用に最適化したとしても、所詮は、平面的なブラウザウィンドウ上で表示されるのみなので、VRならではの没入感を得ることはできない。一方で、360度ウェブコンテンツとして選択画面を提供する場合、上述したVRアプリのように動画コンテンツを選択する段階(例えば、ホーム画面を表示する段階)から、360度にわたって展開される仮想空間上で行うことができるため、結果として、仮想空間への没入感を高めることが可能になる。
【0171】
なお、360度ウェブコンテンツとして選択画面を提供する場合において、選択対象である1以上の動画コンテンツの配置態様は、VRアプリによって提供される選択画面における配置態様に対応(例えば、類似または同一)したものであることが好ましい。このような構成により、ユーザは、VRアプリを使用する際と同様の使用感および没入感を得ることが可能になる。
【0172】
なお、VR用のウェブブラウザの場合、API(Application Programming Interface)が最適化されていないので、PF提供者が用意しているAPIを用いてVRアプリのようなコンテンツを作成しようとすると、処理負荷がかかりすぎ、困難である。したがって、コンテンツの選択画面(例えば、ホーム画面)を360度空間画像として実現するには、PF提供者が用意しているAPIを用いて実現するのではなく、よりハードウェア側のレイヤーに近い低レイヤーの技術(例えば、言語等)を利用することが好ましい。
【0173】
また、ユーザの操作入力に基づいて、360度ウェブコンテンツとして選択画面を提供している状態から、ウェブコンテンツとして選択画面を提供する状態への変更も可能であることが好ましい。このような態様により、例えば、VR酔いの兆候が見られたからブラウザウィンドウ1621内でコンテンツの選択をしたいというようなユーザの要望にも応えることが可能になる。
【0174】
図15のフローチャートの説明に戻る。ステップS1541の後、ステップS1561にて、プロセッサ210は、360度ウェブコンテンツ上で、再生対象となる動画コンテンツ1622の選択を受け付ける。ステップS1561における動画コンテンツ1622の選択は、例えば、再生を所望するいずれか1の動画コンテンツ1622上に、ユーザ5が所定の時間以上視線をとどめることや、コントローラ300等への操作入力によって行われる。
【0175】
ステップS1561の後、ステップS1571にて、プロセッサ210は、360度動画コンテンツを再生し、再生された画像を360度空間画像として仮想空間に展開し、HMD120に提供する。具体的には、プロセッサ210は、選択された動画コンテンツを360度動画コンテンツとしてHMD120に提供するための情報リソースをサーバから取得し、取得した当該情報リソースに基づいて、HMD120への提供をおこなう。
【0176】
図21は、ある実施の形態に従う仮想空間をY軸方向から見たXZ断面を示す模式図であり、具体的には、ステップS1561の処理の際にHMD120に提供される仮想空間2111を示す模式図である。
【0177】
図21に示すように、仮想空間2111内には、仮想カメラ2114が配置されるとともに、仮想空間2111の外縁に沿うようにパノラマ画像2113が展開されている。また、仮想カメラ2114の視線は、ユーザ5の頭部の動きと連動している。このような構成により、ウェブブラウジングによる動画コンテンツの視聴であっても、直感的な操作性や、高い没入感をユーザに提供することが可能になる。
【0178】
また、本実施形態においては、ステップS1541、S1561、及びS1571の一連の処理を、360度空間画像を含む仮想空間内で連続して行うことになるため、VR用のウェブブラウザによって動画コンテンツを視聴する場合であっても、ユーザは、動画コンテンツを選択する段階から高い没入感を得られ、それを維持したままで動画コンテンツを楽しむことが可能になる。
【0179】
以下、ステップS1550においてNoの場合の一連の処理について説明をする。ステップS1560にて、プロセッサ210は、ブラウザウィンドウ1621上で、再生対象となる動画コンテンツ1622の選択を受け付ける。ステップS1560における動画コンテンツ1622の選択は、例えば、コントローラ300等への操作入力によって行われる。
【0180】
ステップS1560の後、ステップS1570にて、プロセッサ210は、動画コンテンツを再生し、再生された画像をブラウザウィンドウ1621内において表示する。具体的には、プロセッサ210は、選択された動画コンテンツをブラウザウィンドウ1621内において表示するための情報リソースをサーバから取得し、取得した当該情報リソースに基づいて、ブラウザウィンドウ1621内で表示する。
【0181】
ステップS1580にて、プロセッサ210は、ユーザによる第2操作入力がなされない場合(ステップS1580においてNo)、例えば、動画コンテンツの再生が終了する条件を満たすまで、ステップS1570の処理が続行される。
【0182】
ここで、第2操作入力とは、ステップS1571へ進むための操作入力である。第2操作入力としては、特に限定はされず、例えば、コントローラ300への所定の操作入力や、仮想ボタンを仮想的に押下するような操作入力が挙げられる。
【0183】
一方で、ステップS1580にて、プロセッサ210は、ユーザによる第2操作入力がなされた場合(ステップS1580においてYes)、上述のステップS1571へ進む。ステップS1580は、例えば、ステップS1570においてブラウザウィンドウ1621内で動画コンテンツ1622が再生されている状況で実行される。
【0184】
図22は、ある実施の形態に従う仮想空間1611の一例を示す模式図であり、具体的には、ステップS1570の処理の際にHMD120に提供される仮想空間1611を示す模式図である。
【0185】
図22に示すように、仮想空間1611内には、ブラウザウィンドウ1621と、メニューオブジェクト1623と、情報表示オブジェクト1624と、仮想カメラ1614と、が配置されている。
【0186】
ブラウザウィンドウ1621内には、ユーザ5が再生対象として選択した動画コンテンツ2222bの画像が表示されている。動画コンテンツ2222bは、例えば、
図16の動画コンテンツ1622bに対応する動画コンテンツである。
【0187】
ブラウザウィンドウ1621の右下部分には、第2操作ボタン2226が表示されている。第2操作ボタン2226を選択するための操作入力がユーザ5によってなされると、上述のステップS1571の処理がなされ、ブラウザウィンドウ1621内で再生されていた動画コンテンツ2222bが、360度空間画像として仮想空間に展開され、HMD120に提供される。
【0188】
このように、
図22の例では、HMD120による動画コンテンツ2222bの視聴ではあるが、動画コンテンツ2222bは平面的なウェブブラウザ1611内に表示されるにとどまるため、VRならではの没入感を得ることは困難である。しかし、第2操作ボタン2226が仮想的に押下された場合、再生されていた動画コンテンツ2222bを、360度空間画像として仮想空間に展開可能なように構成したことで、ウェブブラウジングによって動画コンテンツを視聴する場合であっても、ユーザは、高い没入感を得ることが可能になる。
【0189】
また、ユーザの操作入力に基づいて、360度動画コンテンツとして動画を提供している状態から、ブラウザウィンドウ内で動画を提供する状態への変更も可能であることが好ましい。このような態様により、例えば、VR酔いの兆候が見られたからブラウザウィンドウ1621内でコンテンツを視聴したいというようなユーザの要望にも応えることが可能になる。
【0190】
上記の実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
【0191】
上記実施形態においては、HMDによってユーザが没入する仮想空間(VR空間)を例示して説明したが、HMDとして、透過型のHMDを採用してもよい。この場合、透過型のHMDを介してユーザが視認する現実空間に仮想空間を構成する画像の一部を合成した視界画像を出力することにより、拡張現実(AR:Augmented Reality)空間または複合現実(MR:Mixed Reality)空間における仮想体験をユーザに提供してもよい。この場合、操作オブジェクトに代えて、ユーザの手の動きに基づいて、仮想空間内における対象オブジェクトへの作用を生じさせてもよい。具体的には、プロセッサは、現実空間におけるユーザの手の位置の座標情報を特定するとともに、仮想空間内における対象オブジェクトの位置を現実空間における座標情報との関係で定義してもよい。これにより、プロセッサは、現実空間におけるユーザの手と仮想空間における対象オブジェクトとの位置関係を把握し、ユーザの手と対象オブジェクトとの間で上述したコリジョン制御等に対応する処理を実行可能となる。その結果、ユーザの手の動きに基づいて対象オブジェクトに作用を与えることが可能となる。
【0192】
[付記事項]
本開示の内容を列記すると以下の通りである。
【0193】
(項目1)
プロセッサを備えたコンピュータにおいて実行されるプログラムであって、
前記プログラムは、前記プロセッサに、
ウェブブラウザを含む仮想空間を定義するステップと、
URL(Uniform Resource Locator)アドレスへのアクセスに基づいて、前記ウェブブラウザ上でウェブコンテンツを提供するステップと、
ユーザの第1操作入力に基づいて、前記ウェブブラウザ上で表示されているウェブコンテンツを、仮想空間に展開された360度ウェブコンテンツとして提供するステップと、
前記ユーザの頭部の動きに応じて、仮想空間に配置された仮想カメラからの視界を制御するステップと、
前記視界に対応する視界画像を前記ユーザの頭部に対応付けられた画像表示装置に表示するステップと、を実行させ、
前記ウェブコンテンツ及び前記360度ウェブコンテンツは、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するためのウェブ画面である、プログラム。
これにより、ウェブブラウザを用いてVRコンテンツを利用した場合におけるユーザの没入感を向上させることが可能になる。
【0194】
(項目2)
前記プログラムは、前記プロセッサに、さらに、
前記360度ウェブコンテンツ上で再生対象の動画コンテンツが選択された場合、選択された動画コンテンツを、仮想空間に展開された360度動画コンテンツとして再生するステップを実行させる、項目1に記載のプログラム。
これにより、360度ウェブコンテンツから360度動画コンテンツへと移行することが可能になるため、結果として、ウェブブラウザを用いてVRコンテンツを利用した場合におけるユーザの没入感をさらに向上させることが可能になる。
【0195】
(項目3)
前記第1操作入力が、前記ウェブコンテンツ上に配置された第1仮想ボタンを選択する操作である、項目1又は項目2に記載のプログラム。
これにより、ユーザは1つの操作で360度ウェブコンテンツの提供を受けることができるため、ユーザの利便性を向上することができる。また、360度ウェブコンテンツを提供するまでの時間短縮にもつながるため、ウェブブラウザを用いてVRコンテンツを利用した場合におけるユーザの没入感の向上にも資する。
【0196】
(項目4)
前記プログラムは、前記プロセッサに、さらに、
前記ウェブコンテンツ上で再生対象の動画コンテンツが選択された場合、選択された動画コンテンツを前記ウェブブラウザ上で再生するステップと、
ユーザの第2操作入力に基づいて、前記ウェブブラウザ上で再生されている動画コンテンツを、仮想空間に展開された360度動画コンテンツとして再生するステップと、を実行させる、
項目1から項目3のいずれかに記載のプログラム。
これにより、ウェブブラウザを用いてVRコンテンツを利用した場合におけるユーザの没入感を向上させることを可能にしつつ、例えば、コンテンツの選択はウェブブラウザ上で行い、動画は360度コンテンツとして視聴するといったような種々の利用態様をユーザに提供することが可能になる。
【0197】
(項目5)
前記第2操作入力が、前記ウェブコンテンツ上に配置された第2仮想ボタンを選択する操作である、項目4に記載のプログラム。
これにより、ユーザは1つの操作で360度動画コンテンツの提供を受けることができるため、ユーザの利便性を向上することができる。また、360度動画コンテンツを提供するまでの時間短縮にもつながるため、ウェブブラウザを用いてVRコンテンツを利用した場合におけるユーザの没入感の向上にも資する。
【0198】
(項目6)
前記コンピュータは、前記ウェブブラウザとは異なる所定のアプリケーション機能を備えており、
前記コンピュータは、前記アプリケーション機能の実行に応じて、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するための画面を、仮想空間に展開された360度コンテンツとして提供可能なものであり、
前記360度ウェブコンテンツとして提供される前記ウェブ画面における、選択対象である1以上の動画コンテンツの配置態様が、前記アプリケーション機能の実行に応じて提供される前記画面における、選択対象である1以上の動画コンテンツの配置態様に対応したものである、
項目1から項目5のいずれかに記載のプログラム。
これにより、VRアプリと同様の使用感で、ウェブブラウザを用いたコンテンツの利用を楽しむことが可能になる。例えば、あるコンテンツがVRアプリ上で提供されておらず、ウェブ上で提供されているような場合でも、ユーザは、VRアプリを使用する際と同様の使用感および没入感を得ることが可能になる。
【0199】
(項目7)
プロセッサを備えたコンピュータにおいて実行される情報処理方法であって、
前記情報処理方法は、前記プロセッサに、
ウェブブラウザを含む仮想空間を定義するステップと、
URL(Uniform Resource Locator)アドレスへのアクセスに基づいて、前記ウェブブラウザ上でウェブコンテンツを提供するステップと、
ユーザの第1操作入力に基づいて、前記ウェブブラウザ上で表示されているウェブコンテンツを、仮想空間に展開された360度ウェブコンテンツとして提供するステップと、
前記ユーザの頭部の動きに応じて、仮想空間に配置された仮想カメラからの視界を制御するステップと、
前記視界に対応する視界画像を前記ユーザの頭部に対応付けられた画像表示装置に表示するステップと、を実行させることを含み、
前記ウェブコンテンツ及び前記360度ウェブコンテンツは、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するためのウェブ画面である、情報処理方法。
これにより、ウェブブラウザを用いてVRコンテンツを利用した場合におけるユーザの没入感を向上させることが可能になる。
【0200】
(項目8)
プロセッサを備えた情報処理装置であって、
前記プロセッサは、
ウェブブラウザを含む仮想空間を定義し、
URL(Uniform Resource Locator)アドレスへのアクセスに基づいて、前記ウェブブラウザ上でウェブコンテンツを提供し、
ユーザの第1操作入力に基づいて、前記ウェブブラウザ上で表示されているウェブコンテンツを、仮想空間に展開された360度ウェブコンテンツとして提供し、
前記ユーザの頭部の動きに応じて、仮想空間に配置された仮想カメラからの視界を制御し、
前記視界に対応する視界画像を前記ユーザの頭部に対応付けられた画像表示装置に表示するものであり、
前記ウェブコンテンツ及び前記360度ウェブコンテンツは、1以上の動画コンテンツの中から再生対象の動画コンテンツを選択するためのウェブ画面である、情報処理装置。
これにより、ウェブブラウザを用いてVRコンテンツを利用した場合におけるユーザの没入感を向上させることが可能になる。
【符号の説明】
【0201】
2:ネットワーク
11,1611,1811,2111:仮想空間
14,14A,1614,1814,2114:仮想カメラ
17,17A,2017:視界画像
100:HMDシステム
110,110A,110B,110C,110D:HMDセット
120,120A,120B:HMD
200,200A,200B:コンピュータ
210,210A、210B,210C,610:プロセッサ
220,620:メモリ
230,630:ストレージ
300,300B:コントローラ
510:コントロールモジュール
520:レンダリングモジュール
530:メモリモジュール
600:サーバ
700:外部機器
1621:ブラウザウィンドウ
1622,1822:動画コンテンツ