【文献】
湯本 貢司,大規模仮想環境における共同注意を支援する視覚化手法の提案,電子情報通信学会技術研究報告 Vol.108 No.226,日本,社団法人電子情報通信学会,2008年 9月25日,MVE2008-59 (2008-10),P.79-84,ISSN 0913-5685
(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0011】
以下、この技術的思想の実施の形態について図面を参照しながら詳細に説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。なお、以下で説明される各実施の形態は、適宜選択的に組み合わされてもよい。
【0012】
[HMDシステムの構成]
図1を参照して、HMD(Head-Mounted Device)システム100の構成について説明する。
図1は、HMDシステム100の構成の概略を示す。HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
【0013】
HMDシステム100は、HMD(Head-Mounted Device)セット105A,105B,105C,105Dと、ネットワーク19とサーバ150とを含む。HMDセット105A,105B,105C,105Dの各々は、ネットワーク19を介してサーバ150と通信可能に構成される。以下、HMDセット105A,105B,105C,105Dを総称して、HMDセット105とも言う。なお、HMDシステム100を構成するHMDセット105の数は、4つに限られず、3つ以下でも、5つ以上でもよい。HMDセット105は、HMD110と、HMDセンサ120と、コントローラ160と、コンピュータ200とを備える。HMD110は、モニタ112と、スピーカ118と、マイク119と、注視センサ140とを含む。コントローラ160は、モーションセンサ130を含み得る。
【0014】
ある局面において、コンピュータ200は、インターネットその他のネットワーク19に接続可能であり、ネットワーク19に接続されているサーバ150その他のコンピュータ(例えば、他のHMDセット105のコンピュータ)と通信可能である。別の局面において、HMD110は、HMDセンサ120の代わりに、センサ114を含み得る。
【0015】
HMD110は、ユーザの頭部に装着され、動作中に仮想空間をユーザに提供し得る。より具体的には、HMD110は、右目用の画像および左目用の画像をモニタ112にそれぞれ表示する。ユーザの各目がそれぞれの画像を視認すると、ユーザは、両目の視差に基づき当該画像を3次元の画像として認識し得る。HMD100は、モニタを備える所謂ヘッドマウントディスプレイと、スマートフォンその他のモニタを有する端末を装着可能なヘッドマウント機器のいずれをも含み得る。
【0016】
モニタ112は、例えば、非透過型の表示装置として実現される。ある局面において、モニタ112は、ユーザの両目の前方に位置するようにHMD110の本体に配置されている。したがって、ユーザは、モニタ112に表示される3次元画像を視認すると、仮想空間に没入することができる。ある実施の形態において、仮想空間は、例えば、背景、ユーザが操作可能なオブジェクト、ユーザが選択可能なメニューの画像を含む。ある実施の形態において、モニタ112は、所謂スマートフォンその他の情報表示端末が備える液晶モニタまたは有機EL(Electro Luminescence)モニタとして実現され得る。
【0017】
他の局面において、モニタ112は、透過型の表示装置として実現され得る。この場合、HMD110は、
図1に示されるようにユーザの目を覆う密閉型ではなく、メガネ型のような開放型であり得る。透過型のモニタ112は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。また、モニタ112は、仮想空間を構成する画像の一部と、現実空間とを同時に表示する構成を含んでいてもよい。例えば、モニタ112は、HMD110に搭載されたカメラで撮影した現実空間の画像を表示してもよいし、一部の透過率を高く設定することにより現実空間を視認可能にしてもよい。
【0018】
ある局面において、モニタ112は、右目用の画像を表示するためのサブモニタと、左目用の画像を表示するためのサブモニタとを含み得る。別の局面において、モニタ112は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、モニタ112は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。
【0019】
ある局面において、HMD110は、複数の光源(図示しない)を含む。各光源は例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ120は、HMD110の動きを検出するためのポジショントラッキング機能を有する。より具体的には、HMDセンサ120は、HMD110が発する複数の赤外線を読み取り、現実空間内におけるHMD110の位置および傾きを検出する。
【0020】
なお、別の局面において、HMDセンサ120は、カメラにより実現されてもよい。この場合、HMDセンサ120は、カメラから出力されるHMD110の画像情報を用いて、画像解析処理を実行することにより、HMD110の位置および傾きを検出することができる。
【0021】
別の局面において、HMD110は、位置検出器として、HMDセンサ120の代わりに、センサ114を備えてもよい。HMD110は、センサ114を用いて、HMD110自身の位置および傾きを検出し得る。例えば、センサ114が角速度センサ、地磁気センサ、加速度センサ、あるいはジャイロセンサ等である場合、HMD110は、HMDセンサ120の代わりに、これらの各センサのいずれかを用いて、自身の位置および傾きを検出し得る。一例として、センサ114が角速度センサである場合、角速度センサは、現実空間におけるHMD110の3軸周りの角速度を経時的に検出する。HMD110は、各角速度に基づいて、HMD110の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD110の傾きを算出する。
【0022】
スピーカ118は、音声信号を音声に変換してユーザ190に出力する。マイク119は、ユーザ190の発話を電気信号に変換してコンピュータ200に出力する。なお、他の局面において、HMD110は、スピーカ118に替えてイヤホンを含み得る。
【0023】
注視センサ140は、ユーザ190の右目および左目の視線が向けられる方向(視線)を検出する。当該方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある局面において、注視センサ140は、右目用のセンサおよび左目用のセンサを含むことが好ましい。注視センサ140は、例えば、ユーザ190の右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、ユーザ190の視線を検知することができる。
【0024】
サーバ150は、コンピュータ200にプログラムを送信し得る。別の局面において、サーバ150は、他のユーザによって使用される他のHMDセット105を構成するコンピュータ200と通信し得る。例えば、アミューズメント施設において、複数のユーザが参加型のゲームを行なう場合、各コンピュータ200は、各ユーザの動作に基づく信号を他のコンピュータ200と通信して、同じ仮想空間において複数のユーザが共通のゲームを楽しむことを可能にする。
【0025】
コントローラ160は、有線または無線によりコンピュータ200に接続されている。コントローラ160は、ユーザ190からコンピュータ200への命令の入力を受け付ける。ある局面において、コントローラ160は、ユーザ190によって把持可能に構成される。別の局面において、コントローラ160は、ユーザ190の身体あるいは衣類の一部に装着可能に構成される。別の局面において、コントローラ160は、コンピュータ200から送信される信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。別の局面において、コントローラ160は、ユーザ190から、仮想空間に配置されるオブジェクトの位置や動きを制御するための操作を受け付ける。
【0026】
モーションセンサ130は、ある局面において、ユーザの手に取り付けられて、ユーザの手の動きを検出する。例えば、モーションセンサ130は、手の回転速度、回転数等を検出する。検出された信号は、コンピュータ200に送られる。モーションセンサ130は、例えば、手袋型のコントローラ160に設けられている。ある実施の形態において、現実空間における安全のため、コントローラ160は、手袋型のようにユーザ190の手に装着されることにより容易に飛んで行かないものに装着されるのが望ましい。別の局面において、ユーザ190に装着されないセンサがユーザ190の手の動きを検出してもよい。例えば、ユーザ190を撮影するカメラの信号が、ユーザ190の動作を表わす信号として、コンピュータ200に入力されてもよい。モーションセンサ130とコンピュータ200とは、一例として、無線により互いに接続される。無線の場合、通信形態は特に限られず、例えば、Bluetooth(登録商標)その他の公知の通信手法が用いられる。
【0027】
[ハードウェア構成]
図2を参照して、本実施の形態に係るコンピュータ200について説明する。
図2は、ある局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、メモリ11と、ストレージ12と、入出力インターフェイス13と、通信インターフェイス14とを備える。各構成要素は、それぞれ、バス15に接続されている。
【0028】
プロセッサ10は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ11またはストレージ12に格納されているプログラムに含まれる一連の命令を実行する。ある局面において、プロセッサ10は、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-Programmable Gate Array)その他のデバイスとして実現される。
【0029】
メモリ11は、プログラムおよびデータを一時的に保存する。プログラムは、例えば、ストレージ12からロードされる。データは、コンピュータ200に入力されたデータと、プロセッサ10によって生成されたデータとを含む。ある局面において、メモリ11は、RAM(Random Access Memory)その他の揮発メモリとして実現される。
【0030】
ストレージ12は、プログラムおよびデータを永続的に保持する。ストレージ12は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発記憶装置として実現される。ストレージ12に格納されるプログラムは、HMDシステム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、他のコンピュータ200との通信を実現するためのプログラムを含む。ストレージ12に格納されるデータは、仮想空間を規定するためのデータおよびオブジェクト等を含む。
【0031】
なお、別の局面において、ストレージ12は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の局面において、コンピュータ200に内蔵されたストレージ12の代わりに、外部の記憶装置に保存されているプログラムおよびデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のHMDシステム100が使用される場面において、プログラムやデータの更新を一括して行なうことが可能になる。
【0032】
ある実施の形態において、入出力インターフェイス13は、HMD110、HMDセンサ120およびモーションセンサ130との間で信号を通信する。ある局面において、HMD110に含まれるスピーカ118,およびマイク119は、HMD110のインターフェイスを介してコンピュータ200との通信を行ない得る。ある局面において、入出力インターフェイス13は、USB(Universal Serial Bus)、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)その他の端子を用いて実現される。なお、入出力インターフェイス13は上述のものに限られない。
【0033】
ある実施の形態において、入出力インターフェイス13は、さらに、コントローラ160と通信し得る。例えば、入出力インターフェイス13は、コントローラ160およびモーションセンサ130から出力された信号の入力を受ける。別の局面において、入出力インターフェイス13は、プロセッサ10から出力された命令を、コントローラ160に送る。当該命令は、振動、音声出力、発光等をコントローラ160に指示する。コントローラ160は、当該命令を受信すると、その命令に応じて、振動、音声出力または発光のいずれかを実行する。
【0034】
通信インターフェイス14は、ネットワーク19に接続されて、ネットワーク19に接続されている他のコンピュータ(例えば、サーバ150)と通信する。ある局面において、通信インターフェイス14は、例えば、LAN(Local Area Network)その他の有線通信インターフェイス、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)その他の無線通信インターフェイスとして実現される。なお、通信インターフェイス14は上述のものに限られない。
【0035】
ある局面において、プロセッサ10は、ストレージ12にアクセスし、ストレージ12に格納されている1つ以上のプログラムをメモリ11にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ10は、入出力インターフェイス13を介して、仮想空間を提供するための信号をHMD110に送る。HMD110は、その信号に基づいてモニタ112に映像を表示する。
【0036】
なお、
図2に示される例では、コンピュータ200は、HMD110の外部に設けられる構成が示されているが、別の局面において、コンピュータ200は、HMD110に内蔵されてもよい。一例として、モニタ112を含む携帯型の情報通信端末(例えば、スマートフォン)がコンピュータ200として機能してもよい。
【0037】
また、コンピュータ200は、複数のHMD110に共通して用いられる構成であってもよい。このような構成によれば、例えば、複数のユーザに同一の仮想空間を提供することもできるので、各ユーザは同一の仮想空間で他のユーザと同一のアプリケーションを楽しむことができる。
【0038】
ある実施の形態において、HMDシステム100では、グローバル座標系が予め設定されている。グローバル座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、ならびに、鉛直方向および水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。本実施の形態では、グローバル座標系は視点座標系の一つである。そこで、グローバル座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれ、x軸、y軸、z軸と規定される。より具体的には、グローバル座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。
【0039】
ある局面において、HMDセンサ120は、赤外線センサを含む。赤外線センサが、HMD110の各光源から発せられた赤外線をそれぞれ検出すると、HMD110の存在を検出する。HMDセンサ120は、さらに、各点の値(グローバル座標系における各座標値)に基づいて、HMD110を装着したユーザ190の動きに応じた、現実空間内におけるHMD110の位置および傾きを検出する。より詳しくは、HMDセンサ120は、経時的に検出された各値を用いて、HMD110の位置および傾きの時間的変化を検出できる。
【0040】
グローバル座標系は現実空間の座標系と平行である。したがって、HMDセンサ120によって検出されたHMD110の各傾きは、グローバル座標系におけるHMD110の3軸周りの各傾きに相当する。HMDセンサ120は、グローバル座標系におけるHMD110の傾きに基づき、uvw視野座標系をHMD110に設定する。HMD110に設定されるuvw視野座標系は、HMD110を装着したユーザ190が仮想空間において物体を見る際の視点座標系に対応する。
【0041】
[uvw視野座標系]
図3を参照して、uvw視野座標系について説明する。
図3は、ある実施の形態に従うHMD110に設定されるuvw視野座標系を概念的に表す。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD110に設定する。
【0042】
図3に示されるように、HMD110は、HMD110を装着したユーザの頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD110は、グローバル座標系を規定する水平方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)として設定する。
【0043】
ある局面において、HMD110を装着したユーザ190が直立し、かつ、正面を視認している場合、プロセッサ10は、グローバル座標系に平行なuvw視野座標系をHMD110に設定する。この場合、グローバル座標系における水平方向(x軸)、鉛直方向(y軸)、および前後方向(z軸)は、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)に一致する。
【0044】
uvw視野座標系がHMD110に設定された後、HMDセンサ120は、HMD110の動きに基づいて、設定されたuvw視野座標系におけるHMD110の傾き(傾きの変化量)を検出できる。この場合、HMDセンサ120は、HMD110の傾きとして、uvw視野座標系におけるHMD110のピッチ角(θu)、ヨー角(θv)、およびロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ方向周りのHMD110の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー方向周りのHMD110の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール方向周りのHMD110の傾き角度を表す。
【0045】
HMDセンサ120は、検出されたHMD110の傾き角度に基づいて、HMD110が動いた後のHMD110におけるuvw視野座標系を、HMD110に設定する。HMD110と、HMD110のuvw視野座標系との関係は、HMD110の位置および傾きに関わらず、常に一定である。HMD110の位置および傾きが変わると、当該位置および傾きの変化に連動して、グローバル座標系におけるHMD110のuvw視野座標系の位置および傾きが変化する。
【0046】
ある局面において、HMDセンサ120は、赤外線センサからの出力に基づいて取得される赤外線の光強度および複数の点間の相対的な位置関係(例えば、各点間の距離など)に基づいて、HMD110の現実空間内における位置を、HMDセンサ120に対する相対位置として特定してもよい。また、プロセッサ10は、特定された相対位置に基づいて、現実空間内(グローバル座標系)におけるHMD110のuvw視野座標系の原点を決定してもよい。
【0047】
[仮想空間]
図4を参照して、仮想空間についてさらに説明する。
図4は、ある実施の形態に従う仮想空間2を表現する一態様を概念的に表す。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。
図4では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。
【0048】
コンピュータ200は、パノラマ画像22を用いて仮想空間2を構成する。より具体的には、仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、パノラマ画像22を構成する各部分画像を、対応する各メッシュにそれぞれ展開する。これにより、ユーザ190は、仮想空間2に展開されるパノラマ画像22を視認できる。仮想空間2を構成するパノラマ画像は、静止画像のみならず、動画像を含み得る。また、パノラマ画像は、360度全方位にわたり画像が展開される全天球画像を含み得る。
【0049】
ある局面において、仮想空間2に展開されるパノラマ画像22は、パノラマカメラ(例えば、全天球カメラ)が現実空間を撮影した画像であり得る。他の局面において、パノラマ画像22は、複数のカメラが現実空間を撮影した画像を合成することにより生成された画像であり得る。
【0050】
ある局面において、仮想空間2では、中心21を原点とするXYZ座標系が規定される。XYZ座標系は、例えば、グローバル座標系に平行である。XYZ座標系は視点座標系の一種であるため、XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)がグローバル座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)がグローバル座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)がグローバル座標系のz軸と平行である。
【0051】
HMD110の起動時、すなわちHMD110の初期状態において、仮想カメラ1が、仮想空間2の中心21に配置され得る。ある局面において、プロセッサ10は、仮想カメラ1が撮影する画像をHMD110のモニタ112に表示する。仮想カメラ1は、現実空間におけるHMD110の動きに連動して、仮想空間2を同様に移動する。これにより、現実空間におけるHMD110の位置および向きの変化が、仮想空間2において同様に再現され得る。
【0052】
仮想カメラ1には、HMD110の場合と同様に、uvw視野座標系が規定される。仮想空間2における仮想カメラのuvw視野座標系は、現実空間(グローバル座標系)におけるHMD110のuvw視野座標系に連動するように規定されている。したがって、HMD110の傾きが変化すると、それに応じて、仮想カメラ1の傾きも変化する。また、仮想カメラ1は、HMD110を装着したユーザの現実空間における移動に連動して、仮想空間2において移動することもできる。
【0053】
コンピュータ200のプロセッサ10は、仮想カメラ1の配置位置と、基準視線5とに基づいて、仮想空間2における視認領域23を規定する。視認領域23は、仮想空間2に展開されるパノラマ画像22のうち、HMD110を装着したユーザが視認する領域に対応する。ある局面において、基準視線5は、現実空間におけるHMD110の傾き方向(w方向)に一致する。
【0054】
注視センサ140によって検出されるユーザ190の視線は、ユーザ190が物体を視認する際の視点座標系における方向である。HMD110のuvw視野座標系は、ユーザ190がモニタ112を視認する際の視点座標系に等しい。また、仮想カメラ1のuvw視野座標系は、HMD110のuvw視野座標系に連動している。したがって、ある局面に従うHMDシステム100は、注視センサ140によって検出されたユーザ190の視線を、仮想カメラ1のuvw視野座標系におけるユーザの視線とみなすことができる。
【0055】
[ユーザの視線]
図5を参照して、ユーザの視線の決定について説明する。
図5は、ある実施の形態に従うHMD110を装着するユーザ190の頭部を上から表した模式図である。
【0056】
ある局面において、注視センサ140は、ユーザ190の右目および左目の各視線を検出する。ある局面において、ユーザ190が近くを見ている場合、注視センサ140は、視線R1およびL1を検出する。別の局面において、ユーザ190が遠くを見ている場合、注視センサ140は、視線R2およびL2を検出する。この場合、ロール方向wに対して視線R2およびL2が成す角度は、ロール方向wに対して視線R1およびL1が成す角度よりも小さい。注視センサ140は、検出結果をコンピュータ200に送信する。
【0057】
コンピュータ200が、視線の検出結果として、視線R1およびL1の検出値を注視センサ140から受信した場合には、その検出値に基づいて、視線R1およびL1の交点である注視点N1を特定する。一方、コンピュータ200は、視線R2およびL2の検出値を注視センサ140から受信した場合には、視線R2およびL2の交点を注視点として特定する。コンピュータ200は、特定した注視点N1の位置に基づき、ユーザ190の視線N0を特定する。コンピュータ200は、例えば、ユーザ190の右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の延びる方向を、視線N0として検出する。視線N0は、ユーザ190が両目により実際に視線を向けている方向である。また、視線N0は、視認領域23に対してユーザ190が実際に視線を向けている方向に相当する。
【0058】
また、別の局面において、HMDシステム100は、テレビジョン放送受信チューナを備えてもよい。このような構成によれば、HMDシステム100は、仮想空間2においてテレビ番組を表示することができる。
【0059】
さらに別の局面において、HMDシステム100は、インターネットに接続するための通信回路、あるいは、電話回線に接続するための通話機能を備えていてもよい。
【0060】
[視界領域]
図6および
図7を参照して、視認領域23について説明する。
図6は、仮想空間2において視認領域23をX方向から見たYZ断面を表す。
図7は、仮想空間2において視認領域23をY方向から見たXZ断面を表す。
【0061】
図6に示されるように、YZ断面における視認領域23は、領域24を含む。領域24は、仮想カメラ1の配置位置と基準視線5と仮想空間2のYZ断面とによって定義される。プロセッサ10は、仮想空間おける基準視線5を中心として極角αを含む範囲を、領域24として規定する。
【0062】
図7に示されるように、XZ断面における視認領域23は、領域25を含む。領域25は、仮想カメラ1の配置位置と基準視線5と仮想空間2のXZ断面とによって定義される。プロセッサ10は、仮想空間2における基準視線5を中心とした方位角βを含む範囲を、領域25として規定する。極角αおよびβは、仮想カメラ1の配置位置と仮想カメラ1の向きとに応じて定まる。
【0063】
ある局面において、HMDシステム100は、コンピュータ200からの信号に基づいて、視界画像26をモニタ112に表示させることにより、ユーザ190に仮想空間における視界を提供する。視界画像26は、パノラマ画像22のうち視認領域23に重畳する部分に相当する。換言すれば、視界画像26は、パノラマ画像22の一部であり得る。ユーザ190が、頭に装着したHMD110を動かすと、その動きに連動して仮想カメラ1も動く。その結果、仮想空間2における視認領域23の位置が変化する。これにより、モニタ112に表示される視界画像26は、パノラマ画像22のうち、仮想空間2においてユーザ190が向いた方向の視認領域23に重畳する画像(すなわち、パノラマ画像22の一部)に更新される。ユーザは、仮想空間2における所望の方向を視認することができる。
【0064】
このように、仮想カメラ1の向き(傾き)は仮想空間2におけるユーザの視線(基準視線5)に相当し、仮想カメラ1が配置される位置は、仮想空間2におけるユーザの視点に相当する。したがって、仮想カメラ1を移動(配置位置を変える動作、向きを変える動作を含む)させることにより、モニタ112に表示される画像が更新され、ユーザ190の視界が移動される。
【0065】
ユーザ190は、HMD110を装着している間、現実世界を視認することなく、仮想空間2に展開されるパノラマ画像22の一部を視認する。そのため、HMDシステム100は、仮想空間2への高い没入感覚をユーザに与えることができる。
【0066】
ある局面において、プロセッサ10は、HMD110を装着したユーザ190の現実空間における移動に連動して、仮想空間2において仮想カメラ1を移動し得る。この場合、プロセッサ10は、仮想空間2における仮想カメラ1の位置および向きに基づいて、HMD110のモニタ112に投影される画像領域(すなわち、仮想空間2における視認領域23)を特定する。
【0067】
ある実施の形態に従うと、仮想カメラ1は、2つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含み得る。また、ユーザ190が3次元の仮想空間2を認識できるように、適切な視差が、2つの仮想カメラに設定される。本実施の形態においては、仮想カメラ1が2つの仮想カメラを含み、2つの仮想カメラのロール方向が合成されることによって生成されるロール方向(w)がHMD110のロール方向(w)に適合されるように構成されているものとして、本開示に係る技術思想を例示する。
【0068】
[コントローラ]
図8を参照して、コントローラ160の一例について説明する。
図8は、ある実施の形態に従うコントローラ160の概略構成を表す。
図8に示されるように、ある局面において、コントローラ160は、右コントローラ800と左コントローラとを含み得る。右コントローラ800は、ユーザ190の右手で操作される。左コントローラは、ユーザ190の左手で操作される。ある局面において、右コントローラ800と左コントローラとは、別個の装置として対称に構成される。したがって、ユーザ190は、右コントローラ800を把持した右手と、左コントローラを把持した左手とをそれぞれ自由に動かすことができる。別の局面において、コントローラ160は両手の操作を受け付ける一体型のコントローラであってもよい。以下、右コントローラ800について説明する。
【0069】
右コントローラ800は、グリップ30と、フレーム31と、天面32とを備える。グリップ30は、ユーザ190の右手によって把持されるように構成されている。例えば、グリップ30は、ユーザ190の右手の掌と3本の指(中指、薬指、小指)とによって保持され得る。
【0070】
グリップ30は、ボタン33,34と、モーションセンサ130とを含む。ボタン33は、グリップ30の側面に配置され、右手の中指による操作を受け付ける。ボタン34は、グリップ30の前面に配置され、右手の人差し指による操作を受け付ける。ある局面において、ボタン33,34は、トリガー式のボタンとして構成される。モーションセンサ130は、グリップ30の筐体に内蔵されている。なお、ユーザ190の動作がカメラその他の装置によってユーザ190の周りから検出可能である場合には、グリップ30は、モーションセンサ130を備えなくてもよい。
【0071】
フレーム31は、その円周方向に沿って配置された複数の赤外線LED35を含む。赤外線LED35は、コントローラ160を使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LED35から発せられた赤外線は、右コントローラ800と左コントローラ(図示しない)との各位置や姿勢(傾き、向き)を検出するために使用され得る。例えば、センサ120は、コントローラ160が発する光を受光可能に構成される。
図8に示される例では、二列に配置された赤外線LED35が示されているが、配列の数は
図8に示されるものに限られない。一列あるいは3列以上の配列が使用されてもよい。
【0072】
天面32は、ボタン36,37と、アナログスティック38とを備える。ボタン36,37は、プッシュ式ボタンとして構成される。ボタン36,37は、ユーザ190の右手の親指による操作を受け付ける。アナログスティック38は、ある局面において、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、例えば、仮想空間2に配置されるオブジェクトを移動するための操作を含む。
【0073】
ある局面において、右コントローラ800および左コントローラは、赤外線LED35その他の部材を駆動するための電池を含む。電池は、1次電池および2次電池のいずれであってもよく、その形状は、ボタン型、乾電池型など任意であり得る。別の局面において、右コントローラ800と左コントローラは、例えば、コンピュータ200のUSBインターフェイスに接続され得る。この場合、右コントローラ800および左コントローラは、USBインターフェイスを介して電力を供給され得る。
【0074】
[HMDの制御装置]
図9を参照して、HMD110の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。
図9は、ある実施の形態に従うコンピュータ200をモジュール構成として表わすブロック図である。
【0075】
図9に示されるように、コンピュータ200は、表示制御モジュール220と、仮想空間制御モジュール230と、メモリモジュール240と、通信制御モジュール250とを備える。表示制御モジュール220は、サブモジュールとして、仮想カメラ制御モジュール221と、視界領域決定モジュール222と、視界画像生成モジュール223と、基準視線特定モジュール224とを含む。仮想空間制御モジュール230は、サブモジュールとして、仮想空間定義モジュール231と、仮想オブジェクト生成モジュール232と、操作オブジェクト制御モジュール233と、アバター制御モジュール234とを含む。
【0076】
ある実施の形態において、表示制御モジュール220と仮想空間制御モジュール230とは、プロセッサ10によって実現される。別の実施の形態において、複数のプロセッサ10が表示制御モジュール220と仮想空間制御モジュール230として作動してもよい。メモリモジュール240は、メモリ11またはストレージ12によって実現される。通信制御モジュール250は、通信インターフェイス14によって実現される。
【0077】
ある局面において、表示制御モジュール220は、HMD110のモニタ112における画像表示を制御する。
【0078】
仮想カメラ制御モジュール221は、仮想空間2に仮想カメラ1を配置する。また、仮想カメラ制御モジュール221は、仮想空間2における仮想カメラ1の配置位置と、仮想カメラ1の向き(傾き)を制御する。視界領域決定モジュール222は、HMD110を装着したユーザの頭の向きと、仮想カメラ1の配置位置に応じて、視認領域23を規定する。視界画像生成モジュール223は、決定された視認領域23に基づいて、モニタ112に表示される視界画像26を生成する。
【0079】
基準視線特定モジュール224は、HMDセンサ120の出力に基づいてHMD110の傾き方向(w方向)を検知する。HMDセンサ120は、HMD110が出力する赤外光を検知して、HMD110の傾きを検知する。他の局面において、基準視線特定モジュール224は、注視センサ140からの信号に基づいて、ユーザ190の視線を特定し得る。
【0080】
仮想空間制御モジュール230は、ユーザ190に提供される仮想空間2を制御する。仮想空間定義モジュール231は、仮想空間2を定義する。より具体的には、仮想空間定義モジュール231は、仮想空間2の大きさや形等を定義して、仮想空間2を生成する。
【0081】
仮想オブジェクト生成モジュール232は、仮想空間2に配置されるオブジェクトを生成する。オブジェクトは、例えば、ゲームのストーリーの進行に従って配置される森、山その他を含む風景、動物等を含み得る。
【0082】
操作オブジェクト制御モジュール233は、仮想空間2においてユーザの操作を受け付けるための操作オブジェクトを仮想空間2に配置する。ユーザは、操作オブジェクトを操作することにより、例えば、仮想空間2に配置されるオブジェクトを操作する。ある局面において、操作オブジェクトは、例えば、HMD110を装着したユーザの手に相当する手オブジェクト等を含み得る。
【0083】
アバター制御モジュール234は、ネットワークを介して接続される他のコンピュータ200のユーザのアバターオブジェクトを仮想空間2に配置するためのデータを生成する。ある局面において、アバター制御モジュール234は、ユーザ190のアバターオブジェクトを仮想空間2に配置するためのデータを生成する。ある局面において、アバター制御モジュール234は、ユーザ190を含む画像に基づいて、ユーザ190を模したアバターオブジェクトを生成する。他の局面において、アバター制御モジュール234は、複数種類のアバターオブジェクト(例えば、動物を模したオブジェクトや、デフォルメされた人のオブジェクト)の中からユーザ190による選択を受け付けたアバターオブジェクトを仮想空間2に配置するためのデータを生成する。
【0084】
アバター制御モジュール234は、HMDセンサ120が検出するHMD110の動きをアバターオブジェクトに反映する。例えば、アバター制御モジュール234は、HMD110が傾いたことを検知して、アバターオブジェクトを傾けて配置するためのデータを生成する。また、ある局面において、アバター制御モジュール234は、コントローラ160の動きをアバターオブジェクトに反映する。この場合、コントローラ160は、コントローラ160の動きを検知するためのモーションセンサ、加速度センサ、または複数の発光素子(例えば、赤外線LED)などを備えている。
【0085】
メモリモジュール240は、コンピュータ200が仮想空間2をユーザ190に提供するために使用されるデータを保持している。ある局面において、メモリモジュール240は、空間情報241と、オブジェクト情報242と、ユーザ情報243とを保持している。
【0086】
空間情報241は、仮想空間2を提供するために規定された1つ以上のテンプレートを保持している。
【0087】
オブジェクト情報242は、仮想空間2において展開されるパノラマ画像22、仮想空間2に配置されるオブジェクト、およびオブジェクトを仮想空間2に配置するための情報(たとえば、位置情報)を保持している。
【0088】
ユーザ情報243は、HMDシステム100の制御装置としてコンピュータ200を機能させるためのプログラム、オブジェクト情報242に保持される各コンテンツを使用するアプリケーションプログラム等を保持している。
【0089】
メモリモジュール240に格納されているデータおよびプログラムは、HMD110のユーザによって入力される。あるいは、プロセッサ10が、当該コンテンツを提供する事業者が運営するコンピュータ(例えば、サーバ150)からプログラムあるいはデータをダウンロードして、ダウンロードされたプログラムあるいはデータをメモリモジュール240に格納する。
【0090】
通信制御モジュール250は、ネットワーク19を介して、サーバ150その他の情報通信装置と通信し得る。
【0091】
ある局面において、表示制御モジュール220および仮想空間制御モジュール230は、例えば、ユニティテクノロジーズ社によって提供されるUnity(登録商標)を用いて実現され得る。別の局面において、表示制御モジュール220および仮想空間制御モジュール230は、各処理を実現する回路素子の組み合わせとしても実現され得る。
【0092】
コンピュータ200における処理は、ハードウェアと、プロセッサ10により実行されるソフトウェアとによって実現される。このようなソフトウェアは、ハードディスクその他のメモリモジュール240に予め格納されている場合がある。また、ソフトウェアは、CD−ROMその他のコンピュータ読み取り可能な不揮発性のデータ記録媒体に格納されて、プログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、インターネットその他のネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、光ディスク駆動装置その他のデータ読取装置によってデータ記録媒体から読み取られて、あるいは、通信制御モジュール250を介してサーバ150その他のコンピュータからダウンロードされた後、記憶モジュールに一旦格納される。そのソフトウェアは、プロセッサ10によって記憶モジュールから読み出され、実行可能なプログラムの形式でRAMに格納される。プロセッサ10は、そのプログラムを実行する。
【0093】
[コンピュータ200の制御構造]
図10を参照して、本実施の形態に係るコンピュータ200の制御構造について説明する。
図10は、HMDシステム100が実行する処理を表わすフローチャートである。
【0094】
ステップS1005において、コンピュータ200のプロセッサ10は、仮想空間定義モジュール231として、仮想空間2を定義する。
【0095】
ステップS1010において、プロセッサ10は、パノラマ画像22を用いて仮想空間2を構成する。換言すれば、プロセッサ10は、仮想空間2にパノラマ画像22を展開する。
【0096】
ステップS1020において、プロセッサ10は、仮想カメラ1を仮想空間2に配置する。このとき、プロセッサ10は、メモリのワーク領域において、仮想カメラ1を仮想空間2において予め規定された中心21に配置し得る。
【0097】
ステップS1030にて、プロセッサ10は、視界画像生成モジュール223として、初期の視界画像26(パノラマ画像22の一部)を表示するための視界画像データを生成する。生成された視界画像データは、視界画像生成モジュール223を介して通信制御モジュール250によってHMD110に送信される。
【0098】
ステップS1032にて、HMD110のモニタ112は、コンピュータ200から受信した信号に基づいて、視界画像26を表示する。HMD110を装着したユーザ190は、視界画像26を視認すると仮想空間2を認識し得る。
【0099】
ステップS1034にて、HMDセンサ120は、HMD110が出力する複数の赤外線光に基づいて、ユーザ190の頭の動き(HMD110の位置および傾き)を検知する。検知結果は、動き検知データとして、コンピュータ200に送信される。
【0100】
ステップS1040にて、プロセッサ10は、HMDセンサ120から入力された動き検知データに基づいて、HMD110の傾き(動き)を検知する。プロセッサ10はさらに、検知した傾きに連動するように仮想カメラ1の傾き(すなわち、仮想カメラ1の基準視線5)を変更する。これにより、仮想カメラ1が撮影する視界画像26(すなわち、パノラマ画像22の一部)が更新される。
【0101】
ステップS1050において、プロセッサ10は、視界画像生成モジュール223として、傾きを変更された仮想カメラ1が撮影する視界画像26を表示するための視界画像データを生成し、生成した視界画像データをHMD110に出力する。
【0102】
ステップS1052において、HMD110のモニタ112は、受信した視界画像データに基づいて、更新後の視界画像を表示する。これにより、仮想空間2におけるユーザの視界が更新される。
【0103】
ステップS1056において、コントローラ160は、現実空間におけるユーザ190の操作を検出する。例えば、ある局面において、コントローラ160は、ユーザ190によってアナログスティックが前方に倒されたことを検出する。別の局面において、コントローラ160は、ユーザ190によってボタンが押下されたことを検出する。コントローラ160は、検出内容を示す検出信号をコンピュータ200に送信する。
【0104】
ステップS1060において、プロセッサ10は、仮想カメラ制御モジュール221として、検出信号に従い、仮想カメラ1を移動させる。これにより、仮想カメラ1が撮影する視界画像26(すなわち、パノラマ画像22の一部)が更新される。
【0105】
ステップS1070において、プロセッサ10は、視界画像生成モジュール223として、移動後の仮想カメラ1が撮影する視界画像26を表示するための視界画像データを生成し、生成した視界画像データをHMD110に出力する。
【0106】
ステップS1072において、HMD110のモニタ112は、受信した視界画像データに基づいて、更新後の視界画像を表示する。これにより、仮想空間2におけるユーザの視界が更新される。
【0107】
[アバターオブジェクト]
図11を参照して、本実施の形態に従うアバターオブジェクトについて説明する。
図11は、HMDセット105A,105Bの各ユーザのアバターオブジェクトを説明するための図である。以下、HMDセット105Aのユーザをユーザ190A、HMDセット105Bのユーザをユーザ190B、HMDセット105Cのユーザをユーザ190C、HMDセット105Dのユーザをユーザ190Dと表す。また、HMDセット105Aに関する各構成要素の参照符号に記号Aが付され、HMDセット105Bに関する各構成要素の参照符号に記号Bが付され、HMDセット105Cに関する各構成要素の参照符号に記号Cが付され、HMDセット105Dに関する各構成要素の参照符号に記号Dが付される。例えば、HMD110Aは、HMDセット105Aに含まれる。
【0108】
分図(A)は、ネットワークにおいて、複数のHMD110のそれぞれが、複数のユーザのそれぞれに仮想空間を提供する状況を模式的に示す。分図(A)を参照して、コンピュータ200A〜200Dのそれぞれは、HMD110A〜110Dのそれぞれを介して、ユーザ190A〜190Dのそれぞれに、仮想空間2A〜2Dのそれぞれを提供する。
図9に示される例において、仮想空間2Aに含まれる内容(例えば、パノラマ画像22A)と仮想空間2Bに含まれる内容(例えば、パノラマ画像22B)とは同じである。換言すれば、コンピュータ200Aとコンピュータ200Bとは同じ仮想空間を共有していることになる。仮想空間2Aおよび仮想空間2Bには、ユーザ190Aのアバターオブジェクト1100Aと、ユーザ190Bのアバターオブジェクト1100Bとが存在する。なお、仮想空間2Aにおけるアバターオブジェクト1100Aおよび仮想空間2Bにおけるアバターオブジェクト1100BがそれぞれHMDを装着しているが、これは説明を分かりやすくするためのものであって、実際にはこれらのオブジェクトはHMDを装着していない。
【0109】
ある局面において、仮想カメラ制御モジュール221Aは、ユーザ190Aの視界画像26Aを撮影する仮想カメラ1Aを、アバターオブジェクト1100Aの目の位置に配置し得る。
【0110】
分図(B)は、ユーザ190Aの視界画像1110を示す。視界画像1110は、HMD110Aのモニタ112Aに表示される画像である。この視界画像1110は、仮想カメラ1Aにより生成されたものである。
図11において、仮想空間2Aには、現実空間における市街風景のパノラマ画像22が展開されているものとする。また、視界画像1110には、ユーザ190Bのアバターオブジェクト1100Bが表示されている。なお、特に図示はしていないが、ユーザ190Bの視界画像にも同様に、市街風景とユーザ190Aのアバターオブジェクト1100Aとが表示されている。
【0111】
分図(B)の状態において、ユーザ190Aはユーザ190Bと対話によるコミュニケーションを図ることができる。より具体的には、マイク119Aにより取得されたユーザ190Aの音声は、サーバ150を介してユーザ190BのHMD110Bに送信され、HMD110Bに設けられたスピーカ118Bから出力される。また、ユーザ190Bの音声は、サーバ150を介してユーザ190AのHMD110Aに送信され、HMD110Aに設けられたスピーカ118Aから出力される。
【0112】
上記の通り、ユーザ190Bの動作(HMD110Bの動き、コントローラ160Bの動作)は、アバター制御モジュール234によりアバターオブジェクト1100Bに反映される。これにより、ユーザ190Aは、ユーザ190Bの動作を、アバターオブジェクト1100Bを通じて認識できる。
【0113】
このように、ユーザ190Aおよびユーザ190Bは、仮想空間上で同じパノラマ画像22を共有しながらコミュニケーションを図ることができる。このパノラマ画像22は、例えば、映画、ライブ映像、観光名所の画像および、ユーザが過去に撮影した画像などを含み得る。
【0114】
[仮想空間を構成する物体とアバターとの関係に対するユーザの違和感]
図12は、アバターオブジェクトの大きさが異なる2つの視界画像を示す。分図(A)および分図(B)は、いずれもユーザ190Aが視認する視界画像を示す。
【0115】
分図(A)を参照して、ユーザ190Aが視認する視界画像1210には、パノラマ画像22の一部と、アバターオブジェクト1100Bとが含まれる。パノラマ画像22の一部には、東京タワー(登録商標)1220が含まれる。
【0116】
アバターオブジェクト1100Bは、ユーザ190Bの分身としてのキャラクタオブジェクトであって、東京タワー1220に比べて十分小さいことが望ましい。しかし、従来、アバターオブジェクトは、予め定められた大きさで仮想空間に配置されていた。そのため、場合によっては、分図(A)に示されるように、アバターオブジェクト1100Bが東京タワー1220と略同じ大きさで表示されることになる。この場合、ユーザ190Aは、仮想空間2Aに表示される物体(東京タワー1220など)に対するアバターオブジェクト1100Bの相対的な大きさが大きすぎるため、違和感を感じ得る。その結果、ユーザ190Aは、ユーザ190Bとのコミュニケーションに集中できない可能性がある。
【0117】
そのため、実施の形態に従うHMDシステム100は、分図(B)に示されるように、東京タワー1220に比して、アバターオブジェクト1100Bが十分に小さく表示されるような視界画像1260をユーザ190Aに提供する。以下、仮想空間2に表示される物体に対するアバターオブジェクトの大きさを調節するための構成および制御について説明する。
【0118】
[サーバ150の制御構造]
図13は、サーバ150のハードウェア構成およびモジュール構成の一例を示す。ある実施の形態において、サーバ150は、主たる構成要素として通信インターフェイス1310と、プロセッサ1320と、ストレージ1330とを備える。
【0119】
通信インターフェイス1310は、コンピュータ200など外部の通信機器と信号を送受信するための変復調処理などを行なう無線通信用の通信モジュールとして機能する。通信インターフェイス1310は、チューナ、高周波回路等により実現される。
【0120】
プロセッサ1320は、サーバ150の動作を制御する。プロセッサ1320は、ストレージ1330に格納される各種の制御プログラムを実行することにより、送受信部1322、サーバ処理部1324、およびマッチング部1326として機能する。
【0121】
送受信部1322は、各コンピュータ200と各種情報を送受信する。例えば、送受信部1322は、各コンピュータ200が仮想空間2を定義するための情報、仮想空間2に展開されるパノラマ画像22、ユーザの音声などを各コンピュータ200に送信する。
【0122】
サーバ処理部1324は、複数のユーザが同じ仮想空間2を共有するための処理を行なう。例えば、サーバ処理部1324は、コンピュータ200から受信した情報に基づいて、後述するアバターオブジェクト情報1334を更新する。
【0123】
マッチング部1326は、複数のユーザを関連付けるための一連の処理を行なう。マッチング部1326は、例えば、複数のユーザが同じ仮想空間2を共有するための入力操作を行った場合に、仮想空間2に属するユーザ同士を関連付ける処理などを行なう。
【0124】
ストレージ1330は、仮想空間指定情報1332と、アバターオブジェクト情報1334と、ユーザ情報1336と、パノラマ画像DB(データベース)1338とを保持する。
【0125】
仮想空間指定情報1332は、コンピュータ200の仮想空間定義モジュール231が仮想空間2を定義するために用いられる情報である。例えば、仮想空間指定情報1332は、仮想空間2の大きさおよび形状を指定する情報を含む。
【0126】
アバターオブジェクト情報1334は、位置情報1335を含む。位置情報1335は、仮想空間2における各アバターオブジェクトの位置(座標)および向き(基準視線5)を示す情報である。アバターオブジェクト情報1334は、コンピュータ200から入力される情報に基づいて随時更新され得る。
【0127】
ユーザ情報1336は、コンピュータ200のユーザ190についての情報である。ユーザ情報1336は、例えば、複数のユーザ190を互いに識別する識別情報(例えば、ユーザアカウント)を含む。
【0128】
パノラマ画像DB1338は、コンピュータ200が仮想空間2に展開するためのパノラマ画像22を保持する。
【0129】
図14は、パノラマ画像DB1338のデータ構造例を示す。
図14を参照して、パノラマ画像DB1338は、コンピュータ200が仮想空間2に展開するためのパノラマ画像22と、仮想空間2におけるアバターオブジェクトの大きさを定義するための情報とを互いに関連付けて保持する。アバターオブジェクトの大きさを定義するための情報とは、予め定められたアバターオブジェクトの大きさ(例えば、仮想空間2のY方向に従う長さ)に対する表示倍率の情報である。
【0130】
図14に示される例において、パノラマ画像22「東京タワー散策.mpeg」の表示倍率は「0.2」である。そのため、コンピュータ200は、「東京タワー散策.mpeg」のパノラマ画像22を展開した仮想空間2にアバターオブジェクトを配置する場合、アバターオブジェクトの大きさを、予め定められた大きさの0.2倍の大きさで配置する。
【0131】
パノラマ画像DB1338は、コンピュータ200のユーザ190によって更新され得る。この場合、ユーザ190は、パノラマ画像22と、アバターオブジェクトの表示倍率とを互いに関連付けて、サーバ150にアップロードする。他の局面において、パノラマ画像DB1338は、サーバ150を運営するコンテンツ配信事業者によって更新され得る。この場合も、コンテンツ配信事業者は、パノラマ画像22と、アバターオブジェクトの表示倍率とを互いに関連付けて、パノラマ画像DB1338に格納する。
【0132】
[アバターオブジェクトの大きさを調節する制御]
図15は、仮想空間2におけるアバターオブジェクトの大きさを調節する制御について説明するフローチャートである。
図15に示される処理は、コンピュータ200のプロセッサ10がメモリ11またはストレージ12に格納される制御プログラムを、サーバ150のプロセッサ1320がストレージ1330に格納される制御プログラムをそれぞれ実行することにより実現され得る。
【0133】
ステップS1502において、コンピュータ200Aのプロセッサ10Aは、サーバ150に対して、仮想空間2Aに展開するパノラマ画像22を指定する。ステップS1504において、コンピュータ200Bのプロセッサ10Bは、サーバ150に対して、仮想空間2Bに展開するパノラマ画像22を指定する。ステップS1502およびS1504において、コンピュータ200Aおよび200Bは、互いに仮想空間2を共有するための指示を併せてサーバ150に出力し得る。
【0134】
ステップS1506において、サーバ150のプロセッサ1320は、送受信部1322として、指定されたパノラマ画像22と、当該パノラマ画像22に応じた仮想空間指定情報1332と、表示倍率の情報とをコンピュータ200Aおよび200Bに送信する。プロセッサ1320はさらに、マッチング部1326として、ユーザ190Aおよび190Bが同じ仮想空間を共有するものとして、彼らの識別情報を互いに関連付け得る。
【0135】
ステップS1508において、プロセッサ10Aは、仮想空間定義モジュール231Aとして、受信した仮想空間指定情報1332に基づいて、仮想空間2Aを定義する。ステップS1510において、プロセッサ10Aは、受信したパノラマ画像22を仮想空間2Aに展開する。換言すれば、プロセッサ10Aは、パノラマ画像22を用いて仮想空間2Aを構成する。
【0136】
ステップS1512において、プロセッサ10Bは、仮想空間定義モジュール231Bとして、受信した仮想空間指定情報1332に基づいて、仮想空間2Bを定義する。ステップS1514において、プロセッサ10Bは、受信したパノラマ画像22を仮想空間2Bに展開する。
【0137】
ステップS1516において、プロセッサ10Aは、アバター制御モジュール234Aとして、ユーザ190A自身のアバターオブジェクト1100A(
図15では「自アバターオブジェクト」と表記)を仮想空間2Aに配置する。プロセッサ10Aはさらに、アバターオブジェクト1100Aの情報(例えば、モデリングのためのデータ、位置情報など)をサーバ150に送信する。
【0138】
ステップS1518において、プロセッサ1320は、受信したアバターオブジェクト1100Aの情報をストレージ1330(アバターオブジェクト情報1334)に保存する。プロセッサ1320はさらに、アバターオブジェクト1100Aの情報を、コンピュータ200Aと仮想空間2を共有するコンピュータ200Bに送信する。
【0139】
ステップS1520において、プロセッサ10Bは、アバター制御モジュール234Bとして、受信したアバターオブジェクト1100Aの情報に基づいて、仮想空間2Bにアバターオブジェクト1100Aを配置する。
【0140】
ステップS1522〜S1526において、ステップS1516〜S1520と同様に、仮想空間2Aおよび2Bにアバターオブジェクト1100B(
図15では「他アバターオブジェクト」と表記)が生成され、ストレージ1330にアバターオブジェクト1100Bの情報が保存される。
【0141】
ステップS1528において、プロセッサ10Aは、アバター制御モジュール234Aとして、パノラマ画像22に関連付けられた情報、すなわち、表示倍率の情報に基づいて、仮想空間2Aに配置されるアバターオブジェクト1100Aおよび1100Bの大きさを調節する。例えば、表示倍率が「0.3」の場合、プロセッサ10Aは、アバターオブジェクト1100Aおよび1100Bを、予め定められた大きさ(例えば、仮想空間2のY方向に従う長さ)の0.3倍にする。
【0142】
ステップS1530において、プロセッサ10Aは、視界画像生成モジュール223として、仮想カメラ1Aが撮影する視界画像(パノラマ画像22の一部)を、HMD110Aのモニタ112Aに表示する。これにより、ユーザ190Aは、大きさを調節されたユーザ190Bのアバターオブジェクト1100Bを視認する。なお、仮想カメラ制御モジュール221Aは、仮想カメラ1Aを、アバターオブジェクト1100Aの目の位置に配置し得る。
【0143】
ステップS1532およびS1534において、プロセッサ10Bも、プロセッサ10Aと同様にアバターオブジェクト1100Aおよび1100Bの大きさを調節し、仮想カメラ1Bが撮影する視界画像をモニタ112Bに表示する。
【0144】
ステップS1536において、プロセッサ10Aは、HMDセンサ120の出力に基づいてユーザ190Aの頭の動き(傾き)を検知する。他の局面において、プロセッサ10Aは、HMD110の出力(センサ114の出力)に基づいてユーザ190Aの頭の動きを検知する。
【0145】
ステップS1538において、プロセッサ10Aは、アバター制御モジュール234Aとして、検知したユーザ190Aの頭の動き(傾き)に連動するようにアバターオブジェクト1100Aの傾きを変更する。プロセッサ10Aはさらに、変更後のアバターオブジェクト1100Aの傾きを示す傾き情報をサーバ150に送信する。なお、他の局面において、プロセッサ10Aは、変更前後におけるアバターオブジェクト1100Aの傾き変化量を示す情報をサーバ150に送信する構成であってもよい。
【0146】
ステップS1540およびS1542において、プロセッサ10Bは、プロセッサ10Aと同様に、ユーザ190Bの頭の動きに連動するようにアバターオブジェクト1100Bの傾きを変更する。ステップS1542において、プロセッサ10Bはさらに、変更後のアバターオブジェクト1100Bの傾き情報をサーバ150に送信する。
【0147】
ステップS1544において、プロセッサ1320は、サーバ処理部1324として、コンピュータ200Aから受信した傾き情報に基づいてアバターオブジェクト1100Aに対応する位置情報1335を更新する。プロセッサ1320はさらに、コンピュータ200Bから受信した傾き情報に基づいてアバターオブジェクト1100Bに対応する位置情報1335を更新する。
【0148】
ステップS1544において、プロセッサ1320はさらに、送受信部1322として、コンピュータ200Aから受信した傾き情報をコンピュータ200Bに送信する。また、プロセッサ1320は、コンピュータ200Bから受信した傾き情報をコンピュータ200Aに送信する。
【0149】
ステップS1546において、プロセッサ10Aは、アバター制御モジュール234Aとして、受信した位置情報1335に基づいてアバターオブジェクト1100Bの傾きを変更する。ステップS1548において、プロセッサ10Bは、アバター制御モジュール234Bとして、受信した位置情報1335に基づいてアバターオブジェクト1100Aの傾きを変更する。
【0150】
ステップS1550において、プロセッサ10Aは、アバターオブジェクト1100Aの目の位置に配置される仮想カメラ1Aが撮影する画像を、モニタ112Aに表示する。これにより、ユーザ190Aが視認する視界画像が更新される。その後、プロセッサ10Aは、処理をステップS1536に戻す。
【0151】
ステップS1552において、プロセッサ10Bは、プロセッサ10Aと同様に、仮想カメラ1Bが撮影する画像をモニタ112Bに表示する。これにより、ユーザ190Bが視認する視界画像が更新される。その後、プロセッサ10Bは、処理をステップS1540に戻す。
【0152】
ある実施の形態において、繰り返し実行されるステップS1536〜S1552の処理は、1/60秒または1/30秒の間隔で実行され得る。
【0153】
上記によれば、ある実施の形態に従うHMDシステム100は、パノラマ画像22に関連付けられた情報(表示倍率の情報)に基づいて、仮想空間2に配置されるアバターオブジェクト1100の大きさを調節できる。これにより、HMDシステム100は、仮想空間2に表示される物体に対するアバターオブジェクトの相対的な大きさを調節できる。その結果、HMDシステム100を利用するユーザ190は、仮想空間を介して通信する他のユーザとのコミュニケーションに集中できる。このように、ある実施の形態に従うHMDシステム100は、ユーザ190の仮想空間における体験をより豊かにできる。
【0154】
上記の例において、コンピュータ200は、仮想空間2にアバターオブジェクト1100を配置した後に、アバターオブジェクト1100の大きさを調節するように構成されていた。他の局面において、コンピュータ200は、予めアバターオブジェクト1100の大きさを調節した後に仮想空間2にアバターオブジェクト1100を配置する構成であってもよい。
【0155】
また、他の局面において、上記の繰り返し実行される処理は、ユーザ190の音声を相手のコンピュータ200に送信する処理、アバターオブジェクト1100Aおよび1100Bの座標位置を変更する処理、その他の仮想空間2におけるユーザ同士のコミュニケーションを促進する処理を含み得る。
【0156】
上記の例において、ステップS1516およびステップS1522において、コンピュータ200は、当該コンピュータ200のユーザ自身のアバターオブジェクト900を仮想空間2に配置するように構成されていた。他の局面において、これらの処理は省略され得る。仮想空間2において相手のアバターオブジェクトさえ配置されていれば、相手とのコミュニケーションを図ることができるためである。
【0157】
[パノラマ画像に含まれる物体を特定する情報に基づいてアバターの大きさを調整]
上記の実施の形態において、コンピュータ200は、パノラマ画像22に関連付けられた表示倍率の情報に基づいて、アバターオブジェクト1100の大きさを調整するように構成されていた。しかしながら、パノラマ画像22に表示倍率の情報が関連付けられていない場合もあり得る。例えば、ユーザ190がパノラマ画像22に表示倍率の情報を関連付けずに、パノラマ画像22をサーバ150にアップロードする場合である。以下、このような場合においても、アバターオブジェクト1100の大きさを調整可能な技術について説明する。なお、本実施の形態に従うHMDシステムの構成は、上記説明したHMDシステムの構成と略同じである。そのため、以下では相違する部分についてのみ説明する。
【0158】
図16は、パノラマ画像に含まれる物体を特定する情報(以下、「タグ情報」とも称する)を説明するための図である。
図16を参照して、ユーザ190Aが視認する視界画像1600は、アバターオブジェクト1100Bと、東京タワー1220とに加え、タグ情報1230をさらに含む。
【0159】
タグ情報1230は、東京タワー1220を特定するための情報である。
図16に示される例において、タグ情報1230は「東京タワー Tokyo Tower」の文字列を含む。ユーザ190Aは、タグ情報1230を視認することにより、タグ情報1230が指し示す物体が東京タワーであること理解できる。上記のように、ある局面において、タグ情報がパノラマ画像22に関連付けられ得る。
【0160】
本実施の形態に従うHMDシステム100は、このタグ情報を利用してアバターオブジェクト1100の大きさを調節する。
図16の例を用いて、サーバ150のプロセッサ1320がタグ情報に基づいてアバターオブジェクト1100の表示倍率を決定する処理について説明する。
【0161】
まず、プロセッサ1320は、タグ情報1230が指し示す物体(以下、「特定対象」とも称する)が東京タワー1220であることを特定する。
図17で後述するように、タグ情報1230は、「東京タワー Tokyo Tower」の文字列の他に、特定対象の仮想空間2における座標情報を含み得る。プロセッサ1320は、この座標情報に基づいて、タグ情報1230が指し示す物体が東京タワー1220であることを特定し得る。
【0162】
プロセッサ1320は、仮想空間2における特定対象(すなわち東京タワー1220)の大きさを算出する。一例として、プロセッサ1320は、仮想空間2におけるY方向(高さ方向)に従う特定対象の長さ1240を、特定対象の大きさとする。
【0163】
次に、プロセッサ1320は、特定対象の現実空間における大きさを特定する。一例として、プロセッサ1320は、タグ情報1230の文字列に含まれる単語(「東京タワー」および「Tokyo Tower」)が示す物体の大きさを、ネットワーク19に接続される検索エンジン(例えば、Google(登録商標))を利用して特定する。
【0164】
プロセッサ1320は、現実空間における特定対象の大きさと人の平均的な大きさ(例えば160cm)との比率が、仮想空間における特定対象の大きさとアバターオブジェクト1100の大きさとの比率と同じになるように、アバターオブジェクト1100の表示倍率を決定し得る。なお、
図16に示されるように、アバターオブジェクト1100が全身ではなく肩から上部だけしか含まない場合、プロセッサ1320は、それを考慮してアバターオブジェクト1100の表示倍率を決定してもよい。上記によれば、ある実施の形態に従うHMDシステムは、パノラマ画像に関連付けられたタグ情報に基づいてアバターオブジェクト1100の大きさを調整できる。
【0165】
図17は、パノラマ画像DB1338Xのデータ構造例を示す。ある局面においてサーバ150は、ストレージ1330にパノラマ画像DB1338Xをさらに格納し得る。パノラマ画像DB1338Xは、パノラマ画像22と、タグ情報とを互いに関連付けて保持する。タグ情報は、座標と、文字列とを含む。座標は、仮想空間2において特定対象が表示される座標を示す。文字列は、特定対象を特定する情報を含む。
【0166】
ある局面において、パノラマ画像22は動画像であり得る。この場合、タグ情報は、上記のパラメータに、文字列を表示する再生時間(タイミング)をさらに含み得る。
【0167】
図17に示される例において、パノラマ画像「東京タワー散策.mpeg」が仮想空間2に展開(再生)されると、再生時間1分51秒のタイミングで座標(x1,y1,z1)に表示される物体を特定する文字列「東京タワー Tokyo Tower」が仮想空間2上で表示される。
【0168】
パノラマ画像DB1338Xは、コンピュータ200のユーザ190によって更新され得る。この場合、ユーザ190は、パノラマ画像22と、タグ情報とを互いに関連付けて、サーバ150にアップロードする。他の局面において、パノラマ画像DB1338Xは、サーバ150を運営するコンテンツ配信事業者によって更新され得る。この場合も、コンテンツ配信事業者は、パノラマ画像22と、タグ情報とを互いに関連付けて、パノラマ画像DB1338Xに格納する。
【0169】
図18を参照して、タグ情報に基づいてアバターオブジェクト1100の表示倍率を決定する処理を説明する。
図18は、
図15のS1512でサーバ150がアバターオブジェクト1100の表示倍率を決定する処理を説明するためのフローチャートである。
図18に示される処理は、サーバ150のプロセッサ1320が、ストレージ1330に格納される制御プログラムを実行することにより実現され得る。
【0170】
ステップS1810において、プロセッサ1320は、コンピュータ200が仮想空間2に展開するためのパノラマ画像(例えば、全天球動画像)の指定をコンピュータ200から受け付ける。
【0171】
ステップS1820において、プロセッサ1320は、現実空間における特定対象の大きさを特定する。より具体的には、プロセッサ1320は、指定されたパノラマ画像に関連付けられたタグ情報に含まれる文字列に基づき、現実空間における特定対象の大きさを、ネットワーク19に接続される検索エンジンを利用して特定する。
【0172】
ステップS1830において、プロセッサ1320は、仮想空間2における特定対象の大きさを特定する。より具体的には、プロセッサ1320は、タグ情報に含まれる座標情報から仮想空間2における特定対象を検出し、仮想空間2における特定対象の大きさを特定する。
【0173】
ステップS1840において、プロセッサ1320は、現実空間および仮想空間における特定対象の大きさに基づいて、アバターオブジェクト1100の表示倍率を決定する。より具体的には、プロセッサ1320は、現実空間における特定対象の大きさと人の平均的な大きさとの比率が、仮想空間における特定対象の大きさとアバターオブジェクト1100の大きさとの比率と同じになるように、アバターオブジェクト1100の表示倍率を決定する。
【0174】
ステップS1850において、プロセッサ1320は、指定されたパノラマ画像と、決定した表示倍率とを、コンピュータ200に送信する。
【0175】
上記によれば、ある実施の形態に従うHMDシステムは、パノラマ画像に関連付けられたタグ情報に基づいてアバターオブジェクト1100の大きさを調整できる。
【0176】
上記の例において、サーバ150のプロセッサ1320は、コンピュータ200からパノラマ画像の指定を受け付けてから、アバターオブジェクト1100の表示倍率を算出する処理を行なっている。他の局面において、プロセッサ1320は、パノラマ画像DB1338Xに新たなパノラマ画像が追加されたときに、このパノラマ画像に対するアバターオブジェクト1100の表示倍率を算出してもよい。プロセッサ1320は、算出した表示倍率をパノラマ画像DB1338に格納し得る。
【0177】
さらに他の局面において、サーバ150のプロセッサ1320は、パノラマ画像と、当該パノラマ画像に関連付けられたタグ情報とをコンピュータ200に送信する構成であってもよい。この場合、コンピュータ200は、上記説明した処理に従いアバターオブジェクト1100の表示倍率を算出し得る。
【0178】
[パノラマ画像に含まれる物体の大きさに基づいてアバターの大きさを調整]
上記の実施の形態に従うHMDシステムは、パノラマ画像22に関連付けられた情報(表示倍率またはパノラマ画像22に含まれる物体を特定するための情報)に基づいてアバターオブジェクトの大きさを調整するように構成されていた。しかしながら、パノラマ画像22に情報が関連付けられていない場合もあり得る。以下、このような場合においても、アバターオブジェクト1100の大きさを調整可能な技術について説明する。なお、本実施の形態に従うHMDシステムの構成は、上記説明したHMDシステムの構成と略同じである。そのため、以下では相違する部分についてのみ説明する。
【0179】
図19は、アバターオブジェクト1100の大きさを調整する処理について説明するための図である。
図19を参照して、ユーザ190Aが視認する視界画像1900は、アバターオブジェクト1100Bと、人1910とを含む。
【0180】
ある局面において、サーバ150のプロセッサ1320は、視界画像1900に対応するパノラマ画像に、何らの情報も関連付けられていないと判断した場合、このパノラマ画像の中から、現実空間における大きさをある程度特定し得る物体(以下、「基準物体」とも称する)を探す。一例として、プロセッサ1320は、
図20に示されるテンプレートDB2000を用いて、パノラマ画像の中から基準物体を探す。
【0181】
図20は、ある実施の形態に従うテンプレートDB2000のデータ構造例を示す。テンプレートDB2000は、サーバ150のストレージ1330に格納される。テンプレートDB2000は、基準物体の種類と、基準物体に対応するテンプレート画像と、基準物体の現実空間における大きさとを互いに関連付けて保持する。一例として、基準物体は、人間、ペットボトル(例えば、500mlサイズ)、街灯などを含み得る。なお、
図20の例において、テンプレートDB2000は、基準物体に対応する1枚のテンプレート画像を保持しているが、他の局面において複数枚のテンプレート画像を保持してもよい。
【0182】
図19を再び参照して、プロセッサ1320は、パノラマ画像22において矩形上の比較領域を設定する。プロセッサ1320は、比較領域の大きさ、位置および角度をそれぞれ変えながら、比較領域の画像と、テンプレートDB2000に含まれる各種テンプレート画像との類似度を算出する。プロセッサ1320は、テンプレートDB2000を参照して、予め定められたしきい値よりも大きい類似度が算出されたテンプレート画像に対応する基準物体の現実空間における大きさを特定する。プロセッサ1320はさらに、予め定められたしきい値よりも大きい類似度が算出された比較領域のY方向(高さ方向)における長さを特定する。ある局面において、プロセッサ1320は、この比較領域の長さを、仮想空間2における基準物体の大きさとして特定する。
【0183】
図19に示される例において、プロセッサ1320は、視界画像1900に対応するパノラマ画像22から、基準物体である人1910を含む比較領域1920を検出する。プロセッサ1320はさらに、比較領域1920のY方向における長さ1930を、仮想空間における人の大きさとして特定し得る。
【0184】
プロセッサ1320は、現実空間における基準物体の大きさと人の平均的な大きさ(例えば、160cm)との比率が、仮想空間における基準物体の大きさとアバターオブジェクト1100の大きさとの比率と同じになるように、アバターオブジェクト1100の表示倍率を決定する。なお、他の局面において、プロセッサ1320は、基準物体が人である場合、仮想空間における基準物体の大きさと、アバターオブジェクト1100の大きさとが等しくなるように、アバターオブジェクト1100の表示倍率を設定してもよい。なお、
図19に示されるように、アバターオブジェクト1100が全身ではなく肩から上部だけしか含まない場合、プロセッサ1320は、それを考慮してアバターオブジェクト1100の表示倍率を決定し得る。
【0185】
上記によれば、ある実施の形態に従うHMDシステムは、パノラマ画像22に何らの情報も関連付けられていない場合であっても、アバターオブジェクト1100の大きさを調整できる。
【0186】
図21を参照して、パノラマ画像22に何らの情報も関連付けられていない場合にアバターオブジェクト1100の表示倍率を決定する処理を説明する。
図21は、
図15のS1512でサーバ150がアバターオブジェクト1100の表示倍率を決定する処理を説明するためのフローチャートである。
図21に示される処理は、サーバ150のプロセッサ1320が、ストレージ1330に格納される制御プログラムを実行することにより実現され得る。
【0187】
ステップS2110において、プロセッサ1320は、プロセッサ1320は、コンピュータ200が仮想空間2に展開するためのパノラマ画像(例えば、全天球動画像)の指定をコンピュータ200から受け付ける。
【0188】
ステップS2120において、プロセッサ1320は、指定されたパノラマ画像22の中から、予め定められた種類の物体(すなわち、基準物体)を検出する。ステップS2130において、プロセッサ1320は、検出した物体(基準物体)の仮想空間2における大きさを特定する。
【0189】
ステップS2140において、プロセッサ1320は、ストレージ1330に格納されるテンプレートDB2000を参照して、検出した物体(基準物体)の現実空間における大きさを特定する。
【0190】
ステップS2150において、プロセッサ1320は、現実空間および仮想空間における検出した物体(基準物体)の大きさに基づいて、アバターオブジェクト1100の表示倍率を決定する。より具体的には、プロセッサ1320は、現実空間における基準物体の大きさと人の平均的な大きさとの比率が、仮想空間における基準物体の大きさとアバターオブジェクト1100の大きさとの比率と同じになるように、アバターオブジェクト1100の表示倍率を決定する。
【0191】
ステップS2160において、プロセッサ1320は、指定されたパノラマ画像と、決定した表示倍率とを、コンピュータ200に送信する。
【0192】
上記よれば、ある実施の形態に従うHMDシステムは、パノラマ画像22に何らの情報も関連付けられていない場合であっても、アバターオブジェクト1100の大きさを調整できる。これにより、ユーザは、仮想空間2に表示される物体に対するアバターオブジェクトの相対的な大きさに対して、違和感をより感じにくくなる。その結果、ユーザは、仮想空間を介して通信する他のユーザとのコミュニケーションに集中できる。このように、ある実施の形態に従うHMDシステムは、ユーザの仮想空間における体験をより豊かにできる。
【0193】
[構成]
以上に開示された技術的特徴は、以下のように要約され得る。
【0194】
(構成1) ある実施の形態に従うと、仮想空間2におけるアバターオブジェクト1100の大きさを調節するための方法が提供される。この方法は、パノラマ画像22を用いて仮想空間2を構成するステップ(S1510)と、HMD110のモニタ112にパノラマ画像22の一部を表示するステップ(S1530)と、HMD110を装着したユーザ190の頭の動きを検知するステップ(S1536)と、HMD110に表示されるパノラマ画像22の一部を、検知された動きに連動して更新するステップ(S1550)と、仮想空間2を介して通信するユーザのアバターオブジェクト1100を仮想空間2に配置するステップ(S1526)と、パノラマ画像22に関連付けられた情報に基づいてアバターオブジェクト1100の大きさを調節するステップ(S1528)とを備える。ある局面において、この方法は、コンピュータ200によって実行され得る。
【0195】
(構成2) ある実施の形態に従うと、関連付けられた情報は、アバターオブジェクト1100の表示倍率を含む。
【0196】
(構成3) ある実施の形態に従うと、関連付けられた情報は、パノラマ画像22に含まれる物体を特定する情報を含む。アバターオブジェクト1100の大きさを調節するステップは、仮想空間2および現実空間における物体(特定対象)の大きさを特定すること(S1820,S1830)と、特定した仮想空間2および現実空間における物体の大きさに基づいて、アバターオブジェクト1100の表示倍率を調節すること(S1840)とを含む。仮想空間2および現実空間における物体(特定対象)の大きさを特定すること(S1820,S1830)は、コンピュータ200またはサーバ150によって実行され得る。
【0197】
(構成4) ある実施の形態に従うと、仮想空間2におけるアバターオブジェクト1100の大きさを調節するための方法が提供される。この方法は、コンピュータ200がパノラマ画像22を用いて仮想空間2を構成するステップ(ステップS1510)と、コンピュータ200がHMD110のモニタ112にパノラマ画像22の一部を表示するステップ(S1530)と、HMD110を装着したユーザ190の頭の動きを検知するステップ(S1536)と、コンピュータ200がHMD110に表示されるパノラマ画像22の一部を、検知された動きに連動して更新するステップ(S1550)と、コンピュータ200が仮想空間2を介して通信するユーザのアバターオブジェクト1100を仮想空間2に配置するステップ(S1526)と、コンピュータ200またはサーバ150がパノラマ画像22に含まれる基準物体の大きさに基づいてアバターオブジェクト1100の大きさを調節するステップ(S2150)とを備える。
【0198】
(構成5) ある実施の形態に従うと、アバターオブジェクト1100の大きさを調節するステップは、パノラマ画像22から基準物体を検出すること(S2120)と、仮想空間2および現実空間における基準物体の大きさを特定すること(S2130,S2140)と、特定した基準物体の大きさに基づいて、アバターオブジェクト1100の表示倍率を調節すること(S2150)とを含む。
【0199】
(構成6) ある実施の形態に従うと、基準物体(予め定められた種類の物体)は、人間を含む。
【0200】
(構成7) ある実施の形態に従うと、パノラマ画像22は、動画像を含む。
(構成8) ある実施の形態に従うと、パノラマ画像22は、全天球画像を含む。
【0201】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【解決手段】仮想空間におけるアバターオブジェクトの大きさを調節するための方法は、パノラマ画像を用いて仮想空間を構成するステップ(ステップS1510)と、ヘッドマウントデバイスにパノラマ画像の一部を表示するステップ(S1530)と、ヘッドマウントデバイスを装着したユーザの頭の動きを検知するステップ(S1536)と、ヘッドマウントデバイスに表示されるパノラマ画像の一部を、検知された動きに連動して更新するステップ(S1550)と、仮想空間を介して通信するユーザのアバターオブジェクトを仮想空間に配置するステップ(S1526)と、パノラマ画像に関連付けられた情報に基づいてアバターオブジェクトの大きさを調節するステップ(S1528)とを備える。