(58)【調査した分野】(Int.Cl.,DB名)
前記アクセス情報の入力を受け付けるステップは、前記アクセス情報が記録された媒体から、当該アクセス情報を読み出すステップを含む、請求項1に記載のコンテンツ提供方法。
前記コンピュータに接続されているモニタに、前記ヘッドマウントデバイスにおいて出力されているコンテンツを出力するステップをさらに含む、請求項1〜3のいずれかに記載のコンテンツ提供方法。
前記コンピュータに接続されているモニタに、前記ヘッドマウントデバイスの使用の順番待ちの状況を表示するステップをさらに含む、請求項1〜4のいずれかに記載のコンテンツ提供方法。
前記ヘッドマウントデバイスのユーザに対応するアバターオブジェクトを前記コンテンツと共に提示するステップをさらに含む、請求項1〜6のいずれかに記載のコンテンツ提供方法。
前記撮影によって取得された画像に対するコメントの入力を受け付けるユーザインターフェイスを表示するステップをさらに含む、請求項8または9に記載のコンテンツ提供方法。
前記コンテンツの出力が終了した後に出力される次のコンテンツに含まれるキャラクタの音声を出力して、当該次のコンテンツの視聴者に前記ヘッドマウントデバイスの装着を促すステップをさらに含む、請求項1〜10のいずれかに記載のコンテンツ提供方法。
前記アクセス情報の入力を受け付けることは、前記アクセス情報が記録された媒体から、当該アクセス情報を受信することを含む、請求項14に記載のコンテンツ提供装置。
前記プロセッサは、前記コンテンツ提供装置に接続されているモニタに、前記ヘッドマウントデバイスにおいて出力されているコンテンツを出力するように構成されている、請求項14〜16のいずれかに記載のコンテンツ提供装置。
前記プロセッサは、前記コンテンツ提供装置に接続されているモニタに、前記ヘッドマウントデバイスの使用の順番待ちの状況を表示するように構成されている、請求項14〜16のいずれかに記載のコンテンツ提供装置。
前記プロセッサは、前記ヘッドマウントデバイスのユーザに対応するアバターオブジェクトを前記コンテンツと共に提示するように構成されている、請求項14〜19のいずれかに記載のコンテンツ提供装置。
【発明を実施するための形態】
【0010】
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
【0011】
まず、本実施の形態の具体例の概要について説明する。VRコンテンツにアクセスするための情報を含む二次元コード(たとえばQRコード(登録商標)がグッズに付される。グッズは、例えば、当該VRコンテンツに登場するキャラクタに関するものであって、例示すると、マグカップ、Tシャツ、カード、CDケース、クリアフォルダ等であるが、これらに限られない。なお、二次元コードを付すことができないグッズもあり得るので、二次元コードが印刷されたチケットが販売されてもよい。これらのグッズあるいはチケットは、店舗における既存のオペレーションと同様に販売され得る。なお、グッズは、キャラクタに関するものに限られず、一般の商品であってもよい。この場合、グッズの販売促進として、二次元コードが当該グッズに付されてもよい。例えば、ペットボトル飲料のキャップまたは本体に二次元コードが付される場合が想定される。
【0012】
店舗には、VRヘッドセットが用意される。VRヘッドセットの一態様として、カメラを有するスマートフォンがHMDに装着される態様が考えられる。VRヘッドセットは、使用時にはVRヘッドセット外部を撮影できる。
【0013】
店舗を訪れたユーザがVRヘッドセットを装着すると、スマートフォンのカメラが起動し、カメラによって撮影された画像、すなわち、ユーザの前方がHMDのモニタ(例えば、スマートフォンのモニタ)に表示される。したがって、ユーザは、HMDを装着した状態で、シースルーのように、カメラの撮影画像を通じて実世界を見ることができる。
【0014】
ユーザがHMDを装着した状態で、カメラで二次元コードを読み取ると、VRコンテンツのデータが、HMDに接続されたコンピュータにサーバからストリーミング配信される。このデータがさらにスマートフォンに送信されると、モニタは、VRコンテンツを表示し始める。
【0015】
ユーザは、スマートフォンのカメラで二次元コードを読み取るという操作を知っているため、店舗のスタッフに改めて尋ねなくても(VRヘッドセットの利用のためのオペレーションを追加することなく)、VRコンテンツを再生できる。
【0016】
VRコンテンツの再生中に、シャッターチャンスがユーザに提供される。ユーザが所望するシーンを撮影すると、スマートフォンは、VRコンテンツ再生のために読み込まれた二次元コードと、撮影画像とを互いに関連付けて保存する。ユーザは、VRコンテンツの視聴後、スマートフォンをHMDから取り外した後に、スマホアプリ等を用いて撮影した画像を閲覧することができる。
【0017】
図1を参照して、本開示に係る一局面について説明する。
図1は、モニタ63に表示される画面の推移を表わす図である。モニタ63は、例えば、HMDに組み込まれたモニタ、HMDに装着されるスマートフォンその他の情報端末のモニタに相当する。
【0018】
状態Aに示されるように、ある局面において、モニタ63は、二次元コードの撮影画像を表示している。二次元コードに含まれるアクセス情報が抽出されると、モニタ63が接続されている端末と、VRコンテンツの管理サーバとの間で通信が行なわれ、当該アクセス情報が端末から管理サーバに送信される。アクセス情報は、コンテンツID、コンテンツ認証番号、有効期限等を含む。アクセス情報の不正利用を防止して認証の精度を高めるために、さらに、二次元コードから情報を抽出した端末の位置情報が管理サーバに送信されてもよい。管理サーバは、当該情報が正当な情報であることを確認すると、当該二次元コードに関連付けられたVRコンテンツを再生する前のメッセージを端末に送信する。状態Bに示されるように、モニタ63は、そのメッセージを表示する。
【0019】
その後、当該VRコンテンツの出力(例えば、映像の再生、音声の出力等)が始まる。例えば、状態Cに示されるように、モニタ63は、当該二次元コードに基づいてダウンロードされたVRコンテンツの画像を表示する。VRコンテンツの再生中、モニタ63のユーザは、VRコンテンツの画像を撮影することができる。撮影された画像は、端末に保存され得る。あるいは、コンテンツデータにおいて撮影が行なわれた場所(例えばフレーム番号)が、端末によって当該ユーザのIDと共にサーバに送信される。この場合、サーバは、ユーザのIDと、VRコンテンツの識別番号と、フレーム番号とを関連付けてデータベースに蓄積し得る。
【0020】
VRコンテンツの再生が終了すると、状態Dに示されるように、モニタ63は、たとえば「また来てね」といったメッセージを表示する。その後、状態Eに示されるように、モニタ63は、そのVRコンテンツの再生中に撮影された日時とそのときに撮影されたVRコンテンツの画像とを表示する。
【0021】
<第1の実施の形態>
以下、本開示に係る第1の実施の形態について説明する。第1の実施の形態では、グッズに付された二次元コードがアクセス情報を含む。当該アクセス情報は、VRコンテンツにアクセスするために使用される。
【0022】
[HMDシステムの構成]
図2を参照して、HMDを用いたコンテンツ提供システム100について説明する。
図2は、ある実施の形態に従うコンテンツ提供システム100の構成の概略を表す図である。ある局面において、コンテンツ提供システム100は、店舗、アミューズメント施設その他に配置される。なお、本実施の形態において、HMDとは、モニタを備える所謂ヘッドマウントディスプレイと、スマートホンその他のモニタを有する端末を装着可能なヘッドマウント機器のいずれであってもよい。以下では、スマートホンがヘッドマウント機器に着脱可能な場合を中心に説明する。
【0023】
コンテンツ提供システム100は、モニタ16と、HMD110と、HMDセンサ120と、コントローラ160と、コンピュータ200とを備える。HMD110は、注視センサ140を含む。スマートフォン180は、HMD110に装着可能である。コントローラ160は、モーションセンサ130を含み得る。
【0024】
ある局面において、コンピュータ200は、インターネットその他のネットワーク19に接続可能であり、ネットワーク19に接続されているサーバ150その他のコンピュータと通信可能である。
【0025】
別の局面において、コンテンツ提供システム100がHMDセンサ120を備える代わりに、HMD110がセンサ114を含んでもよい。
【0026】
サーバ150は、プロセッサ151と、揮発性のメモリ152と、通信インターフェイス153と、不揮発性のストレージ154とを含む。サーバ150は、周知の構成を有するコンピュータによって実現される。
【0027】
HMD110は、ユーザの頭部に装着され、動作中に仮想空間をユーザに提供し得る。より具体的には、HMD110は、右目用の画像および左目用の画像をモニタ63にそれぞれ表示する。ユーザの各目がそれぞれの画像を視認すると、ユーザは、両目の視差に基づき当該画像を3次元の画像として認識し得る。
【0028】
コンテンツ提供システム100が店舗で使用される場合、HMD110を装着したユーザ190は、店舗で販売されているマグカップ101をモニタ63に表示される映像として視認できる。マグカップ101には、二次元コード(例えば、QRコード(登録商標))が付されている。
【0029】
モニタ63は、例えば、非透過型の表示装置として実現される。ある局面において、モニタ63は、ユーザの両目の前方に位置するようにHMD110の本体に予め配置され得る。したがって、ユーザは、モニタ63に表示される3次元画像を視認すると、仮想空間に没入することができる。ある実施の形態において、仮想空間は、例えば、背景、ユーザが操作可能なオブジェクト、ユーザが選択可能なメニューの画像を含む。ある実施の形態において、HMD110が所謂スマートフォンその他の情報表示端末を装着する構成である場合には、モニタ63は、情報表示端末が備える液晶モニタまたは有機EL(Electro Luminescence)モニタとして実現され得る。
【0030】
ある局面において、モニタ63は、右目用の画像を表示するためのサブモニタと、左目用の画像を表示するためのサブモニタとを含み得る。別の局面において、モニタ63は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、モニタ63は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。
【0031】
HMDセンサ120は、複数の光源(図示しない)を含む。各光源は例えば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ120は、HMD110の動きを検出するためのポジショントラッキング機能を有する。HMDセンサ120は、この機能を用いて、現実空間内におけるHMD110の位置および傾きを検出する。
【0032】
なお、別の局面において、HMDセンサ120は、カメラにより実現されてもよい。この場合、HMDセンサ120は、カメラから出力されるHMD110の画像情報を用いて、画像解析処理を実行することにより、HMD110の位置および傾きを検出することができる。
【0033】
別の局面において、HMD110は、位置検出器として、HMDセンサ120の代わりに、センサ114を備えてもよい。HMD110は、センサ114を用いて、HMD110自身の位置および傾きを検出し得る。例えば、センサ114が角速度センサ、地磁気センサ、加速度センサ、あるいはジャイロセンサ等である場合、HMD110は、HMDセンサ120の代わりに、これらの各センサのいずれかを用いて、自身の位置および傾きを検出し得る。一例として、センサ114が角速度センサである場合、角速度センサは、現実空間におけるHMD110の3軸周りの角速度を経時的に検出する。HMD110は、各角速度に基づいて、HMD110の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD110の傾きを算出する。また、HMD110は、透過型表示装置を備えていても良い。この場合、当該透過型表示装置は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。また、視野画像は仮想空間を構成する画像の一部に、現実空間を提示する構成を含んでいてもよい。例えば、HMD110に搭載されたカメラで撮影した画像を視野画像の一部に重畳して表示させてもよいし、当該透過型表示装置の一部の透過率を高く設定することにより、視野画像の一部から現実空間を視認可能にしてもよい。
【0034】
注視センサ140は、ユーザ190の右目および左目の視線が向けられる方向(視線方向)を検出する。当該方向の検出は、例えば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある局面において、注視センサ140は、右目用のセンサおよび左目用のセンサを含むことが好ましい。注視センサ140は、例えば、ユーザ190の右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、ユーザ190の視線方向を検知することができる。
【0035】
サーバ150は、コンピュータ200にプログラムを送信し得る。別の局面において、サーバ150は、他のユーザによって使用されるHMDに仮想現実を提供するための他のコンピュータ200と通信し得る。例えば、アミューズメント施設において、複数のユーザが参加型のゲームを行なう場合、各コンピュータ200は、各ユーザの動作に基づく信号を他のコンピュータ200と通信して、同じ仮想空間において複数のユーザが共通のゲームを楽しむことを可能にする。
【0036】
コントローラ160は、ユーザ190からコンピュータ200への命令の入力を受け付ける。ある局面において、コントローラ160は、ユーザ190によって把持可能に構成される。別の局面において、コントローラ160は、ユーザ190の身体あるいは衣類の一部に装着可能に構成される。別の局面において、コントローラ160は、コンピュータ200から送られる信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。別の局面において、コントローラ160は、仮想現実を提供する空間に配置されるオブジェクトの位置や動きを制御するためにユーザ190によって与えられる操作を受け付ける。
【0037】
モーションセンサ130は、ある局面において、ユーザの手に取り付けられて、ユーザの手の動きを検出する。例えば、モーションセンサ130は、手の回転速度、回転数等を検出する。検出された信号は、コンピュータ200に送られる。モーションセンサ130は、例えば、手袋型のコントローラ160に設けられている。ある実施の形態において、現実空間における安全のため、コントローラ160は、手袋型のようにユーザ190の手に装着されることにより容易に飛んで行かないものに装着されるのが望ましい。別の局面において、ユーザ190に装着されないセンサがユーザ190の手の動きを検出してもよい。例えば、ユーザ190を撮影するカメラの信号が、ユーザ190の動作を表わす信号として、コンピュータ200に入力されてもよい。モーションセンサ130とコンピュータ200とは、有線により、または無線により互いに接続される。無線の場合、通信形態は特に限られず、例えば、Bluetooth(登録商標)その他の公知の通信手法が用いられる。
【0038】
図3を参照して、ユーザ190の行動と、HMD110の動作と、VRコンテンツのキャラクタの振る舞いとについて説明する。
図3は、ユーザ190がVRコンテンツを楽しむ場合にHMD110によって行なわれる動作を表わす図である。
【0039】
ユーザ190は、来店すると、マグカップ101その他のグッズを購入する(ステップS310)。その後、ユーザ190はその所有物であるスマートフォン180をHMD110に装着する(ステップS312)。ユーザ190が予め定められた手順に従ってスマートフォン180を操作すると、VRコンテンツの提供を受けるためのアプリが起動される。アプリの実行が始まると、HMD110は、スマートフォン180のモニタ63に、「HMDを装着してね」といったメッセージを表示し、あるいは音声を出力する(ステップS314)。
【0040】
HMD110を頭に装着したユーザ190は、スマートフォン180のカメラアプリを起動して、購入したグッズ(例えばマグカップ101)に取り付けられた二次元コード102を撮影する(ステップS320)。
【0041】
HMD110は、スマートフォン180とコンピュータ200とを介して、サーバ150にアクセスする(ステップS322)。スマートフォン180は、撮影によって得られた画像データをサーバ150に送信する。その後、サーバ150からHMD110にVRコンテンツがダウンロードされる。
【0042】
VRコンテンツのキャラクタがモニタ63に表示されると、モニタ63は、たとえば「今日はライブラリに来てくれてありがとう」といったメッセージを表示する(ステップS324)。このとき、HMD110に内蔵されているスピーカ(図示しない)は、スマートフォン180から出力される音声信号に基づいて、そのメッセージを音声で出力してもよい。
【0043】
HMD110は、たとえば「頭を動かして、目の前の白丸を動かしてみて」といったメッセージを表示し、または音声を出力する(ステップS330)。ユーザ190は、HMD110を頭に装着した状態で頭を動かす(ステップS332)。さらにHMD110は、「白丸をここに動かしてみて」といったメッセージを表示し、音声を出力する(ステップS340)。ユーザ190は、HMD110を装着した頭を動かして、所定の場所に白丸を動かしてスタート画面を選択する(ステップS342)。
【0044】
VRコンテンツの再生が開始すると、HMD110は、「公演中一度だけ写真が撮れるよ」といったメッセージを表示する(ステップS350)。HMD110は、さらに「ヘッドセットのここにタッチパネルがあるよ。タッチしてみて」といったメッセージを表示する(ステップS352)。HMD110は、「ライブ中一度だけ写真が撮れるよ。ベストショットを逃さないで」というメッセージを表示する(ステップS354)。その後、HMD110は、「それでは準備完了」というメッセージを表示し(ステップS356)、VRコンテンツの再生を開始する。
【0045】
VRコンテンツがモニタ63に表示されると、当該VRコンテンツのキャラクタが、「ライブを楽しんでね」といったメッセージを表示し、また、音声を出力する(ステップS358)。
【0046】
HMD110は、VRコンテンツを再生している間、画面の例えば片隅に「LIVE」といったメッセージを表示する(ステップS360)。VRコンテンツの再生中、ユーザ190は、VRコンテンツごとに予め定められた回数、ライブのシーンを撮影することができる(ステップS370)。再生のシーンは、ユーザ190によって任意に選択可能であり、あるいは、予め定められていてもよい。また、ユーザ190の好みに応じたシーンが推薦されてもよい。VRコンテンツの再生が終了すると、VRコンテンツのキャラクタは「今日はライブラリに来てくれてありがとう」というメッセージを表示する(ステップS372)。さらにキャラクタは、「また来てくれるとうれしいな」というメッセージを表示する(ステップS374)。
【0047】
HMD110のモニタ63は、「HMDを外してね」というメッセージを表示しあるいは音声を出力する(ステップS376)。このとき、HMD110は、その他のVRコンテンツのライブのデモ映像を二次元映像として表示してもよい。
【0048】
ユーザ190は、HMD110を頭から外す(ステップS378)。ユーザは、二次元コードを読み取ったときに表示されるシリアル番号とユーザ自身の個人情報とを当該VRコンテンツを提供するサイトに登録する(ステップS380)。例えば、ユーザ190がモニタ63に表示されたリンク先にアクセスすると、シリアル番号と個人情報とは、サーバ150に送信される。
【0049】
[ハードウェア構成]
図4を参照して、本実施の形態に係るコンピュータ200について説明する。
図4は、一局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、揮発性のメモリ11と、不揮発性のストレージ12と、入出力インターフェイス13と、通信インターフェイス14とを備える。各構成要素は、それぞれ、バス15に接続されている。
【0050】
プロセッサ10は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ11またはストレージ12に格納されているプログラムに含まれる一連の命令を実行する。ある局面において、プロセッサ10は、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-Programmable Gate Array)その他のデバイスとして実現される。
【0051】
メモリ11は、プログラムおよびデータを一時的に保存する。プログラムは、例えば、ストレージ12からロードされる。データは、コンピュータ200に入力されたデータと、プロセッサ10によって生成されたデータとを含む。ある局面において、メモリ11は、RAM(Random Access Memory)その他の揮発メモリとして実現される。
【0052】
ストレージ12は、プログラムおよびデータを永続的に保持する。ストレージ12は、例えば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発記憶装置として実現される。ストレージ12に格納されるプログラムは、コンテンツ提供システム100において仮想空間を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、他のコンピュータ200との通信を実現するためのプログラムを含む。ストレージ12に格納されるデータは、仮想空間を規定するためのデータおよびオブジェクト等を含む。
【0053】
なお、別の局面において、ストレージ12は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに別の局面において、コンピュータ200に内蔵されたストレージ12の代わりに、外部の記憶装置に保存されているプログラムおよびデータを使用する構成が使用されてもよい。このような構成によれば、例えば、アミューズメント施設のように複数のコンテンツ提供システム100が使用される場面において、プログラムやデータの更新を一括して行なうことが可能になる。
【0054】
ある実施の形態において、入出力インターフェイス13は、HMD110、HMDセンサ120またはモーションセンサ130との間で信号を通信する。ある局面において、入出力インターフェイス13は、USB(Universal Serial Bus)インターフェイス、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)その他の端子を用いて実現される。なお、入出力インターフェイス13は上述のものに限られない。
【0055】
ある実施の形態において、入出力インターフェイス13は、さらに、コントローラ160と通信し得る。例えば、入出力インターフェイス13は、モーションセンサ130から出力された信号の入力を受ける。別の局面において、入出力インターフェイス13は、プロセッサ10から出力された命令を、コントローラ160に送る。当該命令は、振動、音声出力、発光等をコントローラ160に指示する。コントローラ160は、当該命令を受信すると、その命令に応じて、振動、音声出力または発光のいずれかを実行する。
【0056】
通信インターフェイス14は、ネットワーク19に接続されて、ネットワーク19に接続されている他のコンピュータ(例えば、サーバ150)と通信する。ある局面において、通信インターフェイス14は、例えば、LAN(Local Area Network)その他の有線通信インターフェイス、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)その他の無線通信インターフェイスとして実現される。なお、通信インターフェイス14は上述のものに限られない。
【0057】
ある局面において、プロセッサ10は、ストレージ12にアクセスし、ストレージ12に格納されている1つ以上のプログラムをメモリ11にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間を提供するためのアプリケーションプログラム、コントローラ160を用いて仮想空間で実行可能なゲームソフトウェア等を含み得る。プロセッサ10は、入出力インターフェイス13を介して、仮想空間を提供するための信号をHMD110に送る。HMD110は、その信号に基づいてモニタ63に映像を表示する。
【0058】
なお、
図4に示される例では、コンピュータ200は、HMD110の外部に設けられる構成が示されているが、別の局面において、コンピュータ200は、HMD110に内蔵されてもよい。一例として、モニタ63を含む携帯型の情報通信端末(例えば、スマートフォン)がコンピュータ200として機能してもよい。
【0059】
また、コンピュータ200は、複数のHMD110に共通して用いられる構成であってもよい。このような構成によれば、例えば、複数のユーザに同一の仮想空間を提供することもできるので、各ユーザは同一の仮想空間で他のユーザと同一のアプリケーションを楽しむことができる。別の局面において、複数のHMD110がコンピュータ200に接続されている場合、各HMD110は、他のHMD110において再生されるVRコンテンツとは別のVRコンテンツを再生してもよい。
【0060】
ある実施の形態において、コンテンツ提供システム100では、グローバル座標系が予め設定されている。グローバル座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、ならびに、鉛直方向および水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。本実施の形態では、グローバル座標系は視点座標系の一つである。そこで、グローバル座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれ、x軸、y軸、z軸と規定される。より具体的には、グローバル座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。
【0061】
ある局面において、HMDセンサ120は、赤外線センサを含む。赤外線センサが、HMD110の各光源から発せられた赤外線をそれぞれ検出すると、HMD110の存在を検出する。HMDセンサ120は、さらに、各点の値(グローバル座標系における各座標値)に基づいて、HMD110を装着したユーザ190の動きに応じた、現実空間内におけるHMD110の位置および傾きを検出する。より詳しくは、HMDセンサ120は、経時的に検出された各値を用いて、HMD110の位置および傾きの時間的変化を検出できる。
【0062】
グローバル座標系は現実空間の座標系と平行である。したがって、HMDセンサ120によって検出されたHMD110の各傾きは、グローバル座標系におけるHMD110の3軸周りの各傾きに相当する。HMDセンサ120は、グローバル座標系におけるHMD110の傾きに基づき、uvw視野座標系をHMD110に設定する。HMD110に設定されるuvw視野座標系は、HMD110を装着したユーザ190が仮想空間において物体を見る際の視点座標系に対応する。
[uvw視野座標系]
図5を参照して、uvw視野座標系について説明する。
図5は、ある実施の形態に従うHMD110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD110に設定する。
【0063】
図5に示されるように、HMD110は、HMD110を装着したユーザの頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD110は、グローバル座標系を規定する水平方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)として設定する。
【0064】
ある局面において、HMD110を装着したユーザ190が直立し、かつ、正面を視認している場合、プロセッサ10は、グローバル座標系に平行なuvw視野座標系をHMD110に設定する。この場合、グローバル座標系における水平方向(x軸)、鉛直方向(y軸)、および前後方向(z軸)は、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)に一致する。
【0065】
uvw視野座標系がHMD110に設定された後、HMDセンサ120は、HMD110の動きに基づいて、設定されたuvw視野座標系におけるHMD110の傾き(傾きの変化量)を検出できる。この場合、HMDセンサ120は、HMD110の傾きとして、uvw視野座標系におけるHMD110のピッチ角(θu)、ヨー角(θv)、およびロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ方向周りのHMD110の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー方向周りのHMD110の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール方向周りのHMD110の傾き角度を表す。
【0066】
HMDセンサ120は、検出されたHMD110の傾き角度に基づいて、HMD110が動いた後のHMD110におけるuvw視野座標系を、HMD110に設定する。HMD110と、HMD110のuvw視野座標系との関係は、HMD110の位置および傾きに関わらず、常に一定である。HMD110の位置および傾きが変わると、当該位置および傾きの変化に連動して、グローバル座標系におけるHMD110のuvw視野座標系の位置および傾きが変化する。
【0067】
ある局面において、HMDセンサ120は、赤外線センサからの出力に基づいて取得される赤外線の光強度および複数の点間の相対的な位置関係(例えば、各点間の距離など)に基づいて、HMD110の現実空間内における位置を、HMDセンサ120に対する相対位置として特定してもよい。また、プロセッサ10は、特定された相対位置に基づいて、現実空間内(グローバル座標系)におけるHMD110のuvw視野座標系の原点を決定してもよい。
【0068】
[仮想空間]
図6を参照して、仮想空間についてさらに説明する。
図6は、ある実施の形態に従う仮想空間2を表現する一態様を概念的に表す図である。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。
図6では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間2に展開可能なコンテンツ(静止画、動画等)を構成する各部分画像を、仮想空間2において対応する各メッシュにそれぞれ対応付けて、ユーザによって視認可能な仮想空間画像22が展開される仮想空間2をユーザに提供する。
【0069】
ある局面において、仮想空間2では、中心21を原点とするXYZ座標系が規定される。XYZ座標系は、例えば、グローバル座標系に平行である。XYZ座標系は視点座標系の一種であるため、XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)がグローバル座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)がグローバル座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)がグローバル座標系のz軸と平行である。
【0070】
HMD110の起動時、すなわちHMD110の初期状態において、仮想カメラ1が、仮想空間2の中心21に配置される。仮想カメラ1は、現実空間におけるHMD110の動きに連動して、仮想空間2を同様に移動する。これにより、現実空間におけるHMD110の位置および向きの変化が、仮想空間2において同様に再現される。
【0071】
仮想カメラ1には、HMD110の場合と同様に、uvw視野座標系が規定される。仮想空間2における仮想カメラ1のuvw視野座標系は、現実空間(グローバル座標系)におけるHMD110のuvw視野座標系に連動するように規定されている。したがって、HMD110の傾きが変化すると、それに応じて、仮想カメラ1の傾きも変化する。また、仮想カメラ1は、HMD110を装着したユーザの現実空間における移動に連動して、仮想空間2において移動することもできる。
【0072】
仮想カメラ1の向きは、仮想カメラ1の位置および傾きに応じて決まるので、ユーザが仮想空間画像22を視認する際に基準となる視線(基準視線5)は、仮想カメラ1の向きに応じて決まる。コンピュータ200のプロセッサ10は、基準視線5に基づいて、仮想空間2における視界領域23を規定する。視界領域23は、仮想空間2のうち、HMD110を装着したユーザの視界に対応する。
【0073】
注視センサ140によって検出されるユーザ190の視線方向は、ユーザ190が物体を視認する際の視点座標系における方向である。HMD110のuvw視野座標系は、ユーザ190がモニタ63を視認する際の視点座標系に等しい。また、仮想カメラ1のuvw視野座標系は、HMD110のuvw視野座標系に連動している。したがって、ある局面に従うコンテンツ提供システム100は、注視センサ140によって検出されたユーザ190の視線方向を、仮想カメラ1のuvw視野座標系におけるユーザの視線方向とみなすことができる。
【0074】
[ユーザの視線]
図7を参照して、ユーザの視線方向の決定について説明する。
図7は、ある実施の形態に従うHMD110を装着するユーザ190の頭部を上から表した図である。
【0075】
ある局面において、注視センサ140は、ユーザ190の右目および左目の各視線を検出する。ある局面において、ユーザ190が近くを見ている場合、注視センサ140は、視線R1およびL1を検出する。別の局面において、ユーザ190が遠くを見ている場合、注視センサ140は、視線R2およびL2を検出する。この場合、ロール方向wに対して視線R2およびL2がなす角度は、ロール方向wに対して視線R1およびL1がなす角度よりも小さい。注視センサ140は、検出結果をコンピュータ200に送信する。
【0076】
コンピュータ200が、視線の検出結果として、視線R1およびL1の検出値を注視センサ140から受信した場合には、その検出値に基づいて、視線R1およびL1の交点である注視点N1を特定する。一方、コンピュータ200は、視線R2およびL2の検出値を注視センサ140から受信した場合には、視線R2およびL2の交点を注視点N1として特定する。コンピュータ200は、特定した注視点N1の位置に基づき、ユーザ190の視線方向N0を特定する。コンピュータ200は、例えば、ユーザ190の右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の延びる方向を、視線方向N0として検出する。視線方向N0は、ユーザ190が両目により実際に視線を向けている方向である。また、視線方向N0は、視界領域23に対してユーザ190が実際に視線を向けている方向に相当する。
【0077】
別の局面において、コンテンツ提供システム100は、コンテンツ提供システム100を構成するいずれかのパーツに、マイクおよびスピーカを備えてもよい。ユーザは、マイクに発話することにより、仮想空間2に対して、音声による指示を与えることができる。
【0078】
また、別の局面において、コンテンツ提供システム100は、テレビジョン放送受信チューナを備えてもよい。このような構成によれば、コンテンツ提供システム100は、仮想空間2においてテレビ番組を表示することができる。
【0079】
さらに別の局面において、コンテンツ提供システム100は、インターネットに接続するための通信回路、あるいは、電話回線に接続するための通話機能を備えていてもよい。
【0080】
[視界領域]
図8および
図9を参照して、視界領域23について説明する。
図8は、仮想空間2において視界領域23をX方向から見たYZ断面を表す図である。
図9は、仮想空間2において視界領域23をY方向から見たXZ断面を表す図である。
【0081】
図8に示されるように、YZ断面における視界領域23は、領域24を含む。領域24は、仮想カメラ1の基準視線5と仮想空間2のYZ断面とによって定義される。プロセッサ10は、仮想空間おける基準視線5を中心として極角αを含む範囲を、領域24として規定する。
【0082】
図9に示されるように、XZ断面における視界領域23は、領域25を含む。領域25は、基準視線5と仮想空間2のXZ断面とによって定義される。プロセッサ10は、仮想空間2における基準視線5を中心とした方位角βを含む範囲を、領域25として規定する。
【0083】
ある局面において、コンテンツ提供システム100は、コンピュータ200からの信号に基づいて、視界画像26をモニタ63に表示させることにより、ユーザ190に仮想空間を提供する。視界画像26は、仮想空間画像22のうち視界領域23に重畳する部分に相当する。ユーザ190が、頭に装着したHMD110を動かすと、その動きに連動して仮想カメラ1も動く。その結果、仮想空間2における視界領域23の位置が変化する。これにより、モニタ63に表示される視界画像26は、仮想空間画像22のうち、仮想空間2においてユーザが向いた方向の視界領域23に重畳する画像に更新される。ユーザは、仮想空間2における所望の方向を視認することができる。
【0084】
ユーザ190は、HMD110を装着している間、現実世界を視認することなく、仮想空間2に展開される仮想空間画像22のみを視認できる。そのため、コンテンツ提供システム100は、仮想空間2への高い没入感覚をユーザに与えることができる。
【0085】
ある局面において、プロセッサ10は、HMD110を装着したユーザ190の現実空間における移動に連動して、仮想空間2において仮想カメラ1を移動し得る。この場合、プロセッサ10は、仮想空間2における仮想カメラ1の位置および向きに基づいて、HMD110のモニタ63に投影される画像領域(すなわち、仮想空間2における視界領域23)を特定する。
【0086】
ある実施の形態に従うと、仮想カメラ1は、二つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含むことが望ましい。また、ユーザ190が3次元の仮想空間2を認識できるように、適切な視差が、二つの仮想カメラに設定されていることが好ましい。本実施の形態においては、仮想カメラ1が二つの仮想カメラを含み、二つの仮想カメラのロール方向が合成されることによって生成されるロール方向(w)がHMD110のロール方向(w)に適合されるように構成されているものとして、本開示に係る技術思想を例示する。
【0087】
[コントローラ]
図10を参照して、コントローラ160の一例について説明する。
図10は、ある実施の形態に従うコントローラ160の概略構成を表す図である。ある局面において、コントローラ160は、右コントローラ800と左コントローラとを含み得る。右コントローラ800は、ユーザ190の右手で操作される。左コントローラは、ユーザ190の左手で操作される。ある局面において、右コントローラ800と左コントローラとは、別個の装置として対称に構成される。したがって、ユーザ190は、右コントローラ800を把持した右手と、左コントローラを把持した左手とをそれぞれ自由に動かすことができる。別の局面において、コントローラ160は両手の操作を受け付ける一体型のコントローラであってもよい。以下、右コントローラ800について説明する。
【0088】
右コントローラ800は、グリップ30と、フレーム31と、天面32とを備える。グリップ30は、ユーザ190の右手によって把持されるように構成されている。例えば、グリップ30は、ユーザ190の右手の掌と3本の指(中指、薬指、小指)とによって保持され得る。
【0089】
グリップ30は、ボタン33,34と、モーションセンサ130とを含む。ボタン33は、グリップ30の側面に配置され、右手の中指による操作を受け付ける。ボタン34は、グリップ30の前面に配置され、右手の人差し指による操作を受け付ける。ある局面において、ボタン33,34は、トリガー式のボタンとして構成される。モーションセンサ130は、グリップ30の筐体に内蔵されている。なお、ユーザ190の動作がカメラその他の装置によってユーザ190の周りから検出可能である場合には、グリップ30は、モーションセンサ130を備えなくてもよい。
【0090】
フレーム31は、その円周方向に沿って配置された複数の赤外線LED35を含む。赤外線LED35は、コントローラ160を使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LED35から発せられた赤外線は、右コントローラ800と左コントローラ(図示しない)との各位置や姿勢(傾き、向き)を検出するために使用され得る。
図8に示される例では、二列に配置された赤外線LED35が示されているが、配列の数は
図8に示されるものに限られない。一列あるいは3列以上の配列が使用されてもよい。
【0091】
天面32は、ボタン36,37と、アナログスティック38とを備える。ボタン36,37は、プッシュ式ボタンとして構成される。ボタン36,37は、ユーザ190の右手の親指による操作を受け付ける。アナログスティック38は、ある局面において、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、例えば、仮想空間2に配置されるオブジェクトを移動するための操作を含む。
【0092】
ある局面において、右コントローラ800および左コントローラは、赤外線LED35その他の部材を駆動するための電池を含む。電池は、充電式、ボタン型、乾電池型等を含むが、これらに限定されない。別の局面において、右コントローラ800と左コントローラは、例えば、コンピュータ200のUSBインターフェイスに接続され得る。この場合、右コントローラ800および左コントローラは、電池を必要としない。
【0093】
図11は、右コントローラ800を把持するユーザ190の右手に対応して仮想空間に配置されるハンドオブジェクト810の一例を示す。例えば、ユーザ190の右手に対応するハンドオブジェクト810に対して、ヨー、ロール、ピッチの各方向が規定される。例えば、入力操作が、右コントローラ800のボタン34に対して行なわれると、ハンドオブジェクト810の人差し指を握りこんだ状態とし、入力操作がボタン34に対して行なわれていない場合には、ハンドオブジェクト810の人差し指を伸ばした状態とすることもできる。例えば、ハンドオブジェクト810において親指と人差し指とが伸びている場合に、親指の伸びる方向がヨー方向、人差し指の伸びる方向がロール方向、ヨー方向の軸およびロール方向の軸によって規定される平面に垂直な方向がピッチ方向としてハンドオブジェクト810に規定される。
【0094】
[HMD110の制御装置]
図12を参照して、HMD110の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。
図12は、ある実施の形態に従うコンピュータ200をモジュール構成として表わすブロック図である。
【0095】
図12に示されるように、コンピュータ200は、表示制御モジュール220と、仮想空間制御モジュール230と、メモリモジュール240と、通信制御モジュール250とを備える。表示制御モジュール220は、サブモジュールとして、仮想カメラ制御モジュール221と、視界領域決定モジュール222と、視界画像生成モジュール223と、基準視線特定モジュール224と、認証モジュール225と、コンテンツ再生モジュール226とを含む。仮想空間制御モジュール230は、サブモジュールとして、仮想空間定義モジュール231と、仮想オブジェクト生成モジュール232と、コントローラ管理モジュール233とを含む。
【0096】
ある実施の形態において、表示制御モジュール220と仮想空間制御モジュール230とは、プロセッサ10によって実現される。別の実施の形態において、複数のプロセッサ10が表示制御モジュール220と仮想空間制御モジュール230として作動してもよい。メモリモジュール240は、メモリ11またはストレージ12によって実現される。通信制御モジュール250は、通信インターフェイス14によって実現される。
【0097】
ある局面において、表示制御モジュール220は、HMD110のモニタ63における画像表示を制御する。仮想カメラ制御モジュール221は、仮想空間2に仮想カメラ1を配置し、仮想カメラ1の挙動、向き等を制御する。視界領域決定モジュール222は、HMD110を装着したユーザの頭の向きに応じて、視界領域23を規定する。視界画像生成モジュール223は、決定された視界領域23に基づいて、モニタ63に表示される視界画像26を生成する。
【0098】
基準視線特定モジュール224は、注視センサ140からの信号に基づいて、ユーザ190の視線を特定する。
【0099】
認証モジュール225は、HMD110から送信されたデータと、サーバ150から送信されたデータとに基づいて、HMD110から送信されたデータが、予め登録されている正規のデータであるか否かを判定する。ここで、正規のデータとは、例えば、予め準備された動画コンテンツその他のVRコンテンツの識別データである。
【0100】
コンテンツ再生モジュール226は、サーバ150から送信されたコンテンツデータを再生し、ストリーム映像としてHMD110に送信する。
【0101】
仮想空間制御モジュール230は、ユーザ190に提供される仮想空間2を制御する。仮想空間定義モジュール231は、仮想空間2を表わす仮想空間データを生成することにより、コンテンツ提供システム100における仮想空間2を規定する。仮想オブジェクト生成モジュール232は、仮想空間2に配置される対象物を生成し得る。
【0102】
コントローラ管理モジュール233は、仮想空間2においてユーザ190の動作を受け付けて、その動作に応じてコントローラオブジェクトを制御する。ある実施の形態に従うコントローラオブジェクトは、仮想空間2に配置される他のオブジェクトに対して命令を与えるコントローラとして機能する。ある局面において、コントローラ管理モジュール233は、仮想空間2において制御を受け付けるコントローラオブジェクトを仮想空間2に配置するためのデータを生成する。HMD110がこのデータを受信すると、モニタ63は、コントローラオブジェクトを表示し得る。
【0103】
メモリモジュール240は、コンピュータ200が仮想空間2をユーザ190に提供するために使用されるデータを保持している。ある局面において、メモリモジュール240は、空間情報241と、ユーザ情報242と、コンテンツ243とを保持している。
【0104】
空間情報241は、仮想空間2を提供するために規定された1つ以上のテンプレートを保持している。ユーザ情報242は、HMD110のユーザ190の識別情報、ユーザ190に関連付けられている権限等を含む。当該権限は、例えば、アプリケーションを提供するウェブサイトにアクセスするためのアカウント情報(ユーザID、パスワード)等を含む。コンテンツ243は、例えば、HMD110によって提示されるVRコンテンツを含む。
【0105】
通信制御モジュール250は、ネットワーク19を介して、サーバ150その他の情報通信装置と通信し得る。通信制御モジュール250は、無線および有線の少なくともいずれかの通信を実現し得る。
【0106】
ある局面において、表示制御モジュール220および仮想空間制御モジュール230は、例えば、ユニティテクノロジーズ社によって提供されるUnity(登録商標)を用いて実現され得る。別の局面において、表示制御モジュール220および仮想空間制御モジュール230は、各処理を実現する回路素子の組み合わせとしても実現され得る。
【0107】
コンピュータ200における処理は、ハードウェアと、プロセッサ10により実行されるソフトウェアとによって実現される。このようなソフトウェアは、ハードディスクその他のメモリモジュール240に予め格納されている場合がある。また、ソフトウェアは、CD−ROMその他のコンピュータ読み取り可能な不揮発性のデータ記録媒体に格納されて、プログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、インターネットその他のネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、光ディスク駆動装置その他のデータ読取装置によってデータ記録媒体から読み取られて、あるいは、通信制御モジュール250を介してサーバ150その他のコンピュータからダウンロードされた後、記憶モジュールに一旦格納される。そのソフトウェアは、プロセッサ10によって記憶モジュールから読み出され、実行可能なプログラムの形式でRAMに格納される。プロセッサ10は、そのプログラムを実行する。
【0108】
コンピュータ200を構成するハードウェアは、一般的なものである。したがって、本実施の形態に係る最も本質的な部分は、コンピュータ200に格納されたプログラムであるともいえる。なお、コンピュータ200のハードウェアの動作は周知であるので、詳細な説明は繰り返さない。なお、データ記録媒体としては、CD−ROM、FD(Flexible Disk)、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリカードを含む)、光カード、マスクROM、EPROM(Electronically Programmable Read-Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する不揮発性のデータ記録媒体でもよい。ここでいうプログラムとは、プロセッサ10により直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含み得る。
[スマートフォン180の構成]
図13を参照して、スマートフォン180の構成について説明する。
図13は、スマートフォン180のハードウェア構成を表わすブロック図である。スマートフォン180は、CPU(Central Processing Unit)50と、アンテナ51と、通信装置52と、入力スイッチ53と、カメラ54と、フラッシュメモリ55と、RAM(Random Access Memory)56と、ROM(Read-Only Memory)57と、メモリカード駆動装置58と、マイク61と、スピーカ62と、音声信号処理回路60と、モニタ63と、LED(Light Emitting Diode)64と、通信インターフェイス65と、バイブレータ66と、GPSアンテナ68と、GPSモジュール67と、加速度センサ69と、地磁気センサ70とを備える。メモリカード駆動装置58には、メモリカード59が装着され得る。
【0109】
アンテナ51は、基地局によって発信される信号を受信し、または、基地局を介して他の通信装置と通信するための信号を送信する。アンテナ51によって受信された信号は、通信装置52によってフロントエンド処理が行なわれ、処理後の信号は、CPU50に送られる。
【0110】
CPU50は、スマートフォン180に対して与えられる命令に基づいてスマートフォン180の動作を制御するための処理を実行する。スマートフォン180が信号を受信すると、CPU50は、通信装置52から送られた信号に基づいて予め規定された処理を実行し、処理後の信号を音声信号処理回路60に送出する。音声信号処理回路60は、その信号に対して予め規定された信号処理を実行し、処理後の信号をスピーカ62に送出する。スピーカ62は、その信号に基づいて音声を出力する。
【0111】
入力スイッチ53は、スマートフォン180に対する命令の入力を受け付ける。入力スイッチ53は、タッチセンサ、スマートフォン180の筐体に設けられたボタン等により実現される。入力された命令に応じた信号は、CPU50に入力される。
【0112】
マイク61は、スマートフォン180に対する発話を受け付けて、発話された音声に対応する信号を音声信号処理回路60に対して送出する。音声信号処理回路60は、その信号に基づいて通話のために予め規定された処理を実行し、処理後の信号をCPU50に対して送出する。CPU50は、その信号を送信用のデータに変換し、変換後のデータを通信装置52に対して送出する。通信装置52は、そのデータを用いて送信用の信号を生成し、アンテナ51に向けてその信号を送出する。
【0113】
フラッシュメモリ55は、CPU50から送られるデータを格納する。また、CPU50は、フラッシュメモリ55に格納されているデータを読み出し、そのデータを用いて予め規定された処理を実行する。
【0114】
RAM56は、入力スイッチ53に対して行なわれた操作に基づいてCPU50によって生成されるデータを一時的に保持する。ROM57は、スマートフォン180に予め定められた動作を実行させるためのプログラムあるいはデータを格納している。CPU50は、ROM57から当該プログラムまたはデータを読み出し、スマートフォン180の動作を制御する。
【0115】
メモリカード駆動装置58は、メモリカード59に格納されているデータを読み出し、CPU50に送出する。メモリカード駆動装置58は、CPU50によって出力されるデータを、メモリカード59の記憶領域に書き込む。
【0116】
音声信号処理回路60は、上述のような通話のための信号処理を実行する。なお、本実施の形態では、CPU50と音声信号処理回路60とが別個の構成として例示されているが、他の局面において、CPU50と音声信号処理回路60とが一体として構成されていてもよい。
【0117】
モニタ63は、タッチ操作式のモニタであるが、タッチ操作を受け付ける機構は特に限られない。モニタ63は、CPU50から取得されるデータに基づいて、当該データによって規定される画像を表示する。たとえば、フラッシュメモリ55に格納されている静止画、動画、地図などを表示する。
【0118】
LED64は、CPU50から出力される信号に基づいて発光する。通信インターフェイス65は、WiFi、Bluetooth(登録商標)、NFC(Near Field Communication)等により実現される。別の局面において、通信インターフェイス65は、データ通信用のケーブルの装着を受け付ける。通信インターフェイス65は、CPU50から出力される信号を発信する。あるいは、通信インターフェイス65は、スマートフォン180の外部から受信した信号に含まれるデータを、CPU50に対して送信する。ある局面において、スマートフォン180がHMD110に装着されると、通信インターフェイス65は、HMD110の通信インターフェイスと通信可能になる。
【0119】
バイブレータ66は、CPU50から出力される信号に基づいて、予め定められた周波数で発振動作を実行する。
【0120】
GPSアンテナ68は、4つ以上の衛星からそれぞれ送信されるGPS信号を受信する。受信された各GPS信号は、GPSモジュール67に入力される。GPSモジュール67は、各GPS信号と公知の技術とを用いて測位処理を実行し、スマートフォン180の位置情報を取得する。
【0121】
加速度センサ69は、スマートフォン180に作用する加速度を検出する。ある局面において、加速度センサ69は、3軸加速度センサとして実現される。検出された加速度は、CPU50に入力される。CPU50は、この加速度に基づいて、スマートフォン180の動きや姿勢(傾き)を検出する。
【0122】
地磁気センサ70は、スマートフォン180が向いている方角を検出する。この検出により取得された情報は、CPU50に入力される。
【0123】
[データ構造]
図14を参照して、サーバ150のデータ構造について説明する。
図14は、サーバ150が備えるストレージ154におけるデータの格納の一態様を概念的に表わす図である。ストレージ154は、テーブル1410,1420,1430、1440,1450を保持している。
【0124】
テーブル1410は、コンテンツID1411と、コンテンツデータ1412と、再生回数1413と、最終再生日時1414とを含む。コンテンツID1411は、HMD110によって提供されるVRコンテンツを識別する。コンテンツデータ1412は、当該VRコンテンツのデータである。再生回数1413は、当該VRコンテンツが各店舗のHMD110によって再生された回数を表わす。最終再生日時1414は、当該VRコンテンツが最後に再生された日時を表わす。
【0125】
テーブル1420は、VRコンテンツの再生履歴を保持している。より具体的には、テーブル1420は、再生日時1421と、再生場所1422と、コンテンツID1423と、ユーザID1424と、端末ID1425と、二次元コード1426とを含む。再生日時1421は、VRコンテンツの再生が行なわれた日時を表わす。再生場所1422はVRコンテンツが再生された場所(例えば、店舗の名称、住所、座標値等)を表わす。コンテンツID1423は、VRコンテンツを識別する。ユーザID1424は、当該VRコンテンツを視聴したユーザを識別する。端末ID1425は、当該VRコンテンツの再生が行なわれた端末(HMD110あるいはスマートフォン180)を識別する。
【0126】
テーブル1430は、ユーザによって選択されて撮影されたシーンに関するデータを保持している。例えば、ユーザが自宅のパーソナルコンピュータから当該VRコンテンツのユーザ画面にログインして撮影画像を閲覧した場合に、その閲覧の記録がテーブル1430に保持される。より具体的には、テーブル1430は、アクセス日時1431と、アクセス場所1432と、コンテンツID1433と、フレーム番号1434と、ユーザID1435と、端末ID1436とを含む。アクセス日時1431は、当該VRコンテンツへのアクセスが行なわれた日時を表わす。アクセス場所1432は、当該VRコンテンツへのアクセスが行なわれた場所(例えばユーザ190の自宅のパーソナルコンピュータのIP(Internet Protocol)アドレス、地理的座標値、住所その他の位置情報)を表わす。フレーム番号1434は、動画像としてのVRコンテンツデータにおけるフレーム番号であり、当該撮影画像を特定する。ユーザID1435は、当該VRコンテンツを視聴して撮影画像を取得したユーザを識別する。端末ID1436は、当該アクセスを行なった端末(例えば自宅のパーソナルコンピュータ)を識別する。
【0127】
テーブル1440は、広告のデータベースに相当する。より具体的には、テーブル1440は、コンテンツID1441と、広告ID1442と、広告データ1443とを含む。コンテンツID1441は、コンテンツID1411と同様に、VRコンテンツを識別する。広告ID1442は、当該VRコンテンツに関連付けられた広告を識別する。一つのVRコンテンツには、一つ以上の広告が関連付けられる。広告データ1443は、当該広告のデータを表わす。各広告は、VRコンテンツに予め関連付けられ得る。
【0128】
テーブル1450は、広告ID1451と、配信日時1452と、ユーザID1453とを含む。広告ID1451は、広告ID1442と同様に、広告を識別する。配信日時1452は、広告ID1451で特定される広告が配信された日時を表わす。ユーザID1453は、当該広告が配信(提示)されたユーザを表わす。例えば、ユーザ190が自宅のパーソナルコンピュータからサーバ150にアクセスしてVRコンテンツの撮影画像を閲覧した時に、当該VRコンテンツに関連付けられた広告がパーソナルコンピュータのモニタに表示され、この時の配信履歴がテーブル1450に格納される。
【0129】
[VRコンテンツの再生手順]
図15を参照して、VRコンテンツを再生するための手順について説明する。
図15は、HMD110に装着されたスマートフォン180が実行する処理の一部を表わすフローチャートである。この処理は、ユーザ190が店舗でスマートフォン180をHMD110に装着してVRコンテンツを視聴する場合に実行される。
【0130】
ステップS1510にて、スマートフォン180のCPU50は、コンピュータ200に接続されたHMD110にスマートフォン180が装着されたことを検知する。例えば、CPU50は、スマートフォン180の充電用のインターフェイスがHMD110の端子に接続されたことを検出することにより当該装着を検知する。
【0131】
ステップS1515にて、CPU50は、カメラアプリを起動して、カメラ54をオンにする。
【0132】
ステップS1520にて、CPU50は、ユーザ190による操作に基づいて、グッズ(例えばマグカップ101)に印刷されている二次元コード102をカメラ54で撮影し、二次元コードの画像データをフラッシュメモリ55に保存する。
【0133】
ステップS1525にて、CPU50は、VRコンテンツにアクセスするためのアクセス情報を二次元コードから抽出する。アクセス情報は、VRコンテンツの提供事業者等によって予め作成されており、例えば、コンテンツID、VRコンテンツの有効期限等を含む。別の局面において、アクセス情報は、当該グッズが販売されている店舗その他販売場所の位置情報を含んでもよい。位置情報も認証の対象とすることにより、仮にアクセス情報が不正にコピーされた場合でも、当該位置情報を用いて認証を行なうことにより、不正に取得されたアクセス情報の利用が防止され得る。
【0134】
ステップS1530にて、CPU50は、コンピュータ200を介して、スマートフォン180のユーザIDと共に、
アクセス情報をVRコンテンツを提供するサービスの管理サーバ(例えばサーバ150
)に送信する。別の局面において、CPU50は、スマートフォン180の位置情報(すなわち、アクセス情報が取得された場所を特定するための情報)を送信してもよい。アクセス情報が正当な情報であることが認証されると、サーバ150は、コンテンツデータを読み出して、コンピュータ200に送信する。コンテンツデータの送信は、例えばストリーム配信で行なわれる。
【0135】
ステップS1535にて、CPU50は、VRコンテンツを再生するためのコンテンツデータをサーバ150から受信する。ステップS1540にて、CPU50は、受信したコンテンツデータを用いてVRコンテンツをモニタ63に表示する。
【0136】
ステップS1545にて、CPU50は、ユーザ190の操作に基づいてVRコンテンツの一シーンをカメラ54で撮影する。撮影対象となるシーンは、ユーザ190が任意に決定できる。別の局面において、当該シーンは、VRコンテンツの提供事業者によって予め定められていてもよい。さらに別の局面において、当該シーンは、同一のVRコンテンツを視聴した他のユーザによる撮影履歴または他のユーザによって入力されたおすすめ度その他のコメントに基づいて、ユーザ190に推奨されてもよい。
【0137】
ステップS1550にて、CPU50は、撮影した画像と二次元コードの情報とを関連付けてフラッシュメモリ55に保存する。ある局面において、保存されるデータは、スマートフォン180に一時的に保持され、撮影が行なわれたシーンを特定する情報と、二次元コードの情報とが、コンピュータ200からサーバ150に送信される。サーバ150は、コンピュータ200から受信したデータを管理し、後日、ユーザ190によるリクエストに応じて、ユーザ190が使用している端末(スマートフォン180、自宅のパーソナルコンピュータ等)に、撮影した画像のデータを送信し得る。このとき、サーバ150は、さらに、当該VRコンテンツに関連付けられた広告データやプロモーション情報等を送信し得る。これにより、ユーザ190の嗜好に応じた情報がユーザ190に提供され得る。ステップS1555にて、CPU50は、スマートフォン180がHMD110から取り外されたことを検知する。
【0138】
ステップS1560にて、CPU50は、ユーザ190の操作に基づいて、写真アプリを起動して撮影した画像をモニタ63に表示する。この表示は、スマートフォン180に不揮発的に保持される画像データを用いた表示、および、RAM56に一時的に保持されるデータを用いた表示、のいずれであってもよい。別の局面において、ユーザ190は、その画像を見ながらコメントを入力し得る。入力されたコメントは、当該画像を表示している端末からサーバ150に送信される。サーバ150は、そのコメントを当該VRコンテンツに関連付けて保持する。他のユーザが当該VRコンテンツと同じVRコンテンツを視聴する時、当該コメントが他のユーザに提供され得る。このようにすると、各ユーザの嗜好を示すデータがVRコンテンツの提供事業者に蓄積されるので、VRコンテンツや画像を閲覧するユーザに対して嗜好に応じた広告が提供され得る。
【0139】
[撮影画像の再生処理]
図16を参照して、スマートフォン180の制御構造について説明する。
図16は、VRコンテンツの再生時に撮影された画像を表示するためにスマートフォン180が実行する処理の一部を例示するフローチャートである。この処理は、例えば、ユーザ190が、店舗以外の場所、例えば、自宅や電車の中でスマートフォン180を操作した場合に実行される。
【0140】
ステップS1610にて、CPU50は、ユーザ190の操作に基づいて写真を表示するためのアプリを起動する。
【0141】
ステップS1620にて、CPU50は、ユーザ190による選択のためのタッチ操作に基づいて、ユーザ190が店舗においてVRコンテンツを視聴した際に撮影した画像をモニタ63に表示する。画像に関連付けられている情報、例えば、コンテンツID、画像IDその他の属性情報もRAM56にロードされる。
【0142】
ステップS1630にて、CPU50は、ユーザ190によるモニタ63へのタッチ操作に基づいて、ユーザIDとパスワードの入力を受け付ける。
【0143】
ステップS1635にて、CPU50は、ユーザIDとパスワードを管理サーバ(例えばサーバ150)に送信する。ステップS1640にて、CPU50は、管理サーバにアクセスし、通信を確立する。ステップS1645にて、CPU50は、コンテンツIDと画像ID(フレーム番号)とユーザIDとを管理サーバに送信する。
【0144】
ステップS1650にて、CPU50は、管理サーバから広告データを受信する。ステップS1655にて、CPU50は、受信した広告データに基づき、広告をモニタ63に表示する。なお、当該画像を撮影した他のユーザによるコメントがサーバ150に登録されている場合には、サーバ150はスマートフォン180に当該コメントを送信してもよい。この場合、CPU50は、他のユーザによるコメントをモニタ63に表示するので、ユーザ190は画像に対する他のユーザの印象などを知ることができる。
【0145】
[画面の表示態様]
図17および
図18を参照して、本実施の形態における画面の表示態様について説明する。
図17は、店舗に設置されているモニタ16に表示される画面を表わす図である。
図18は、スマートフォン180のモニタ63における画面の推移を表わす図である。
【0146】
図17に示されるように、モニタ16は、ユーザ190以外の他のユーザに対して待ち状況を示す画面を表示する。この画面は、例えば、ユーザ190がHMD110を装着して、HMD110に嵌めこまれたスマートフォン180を用いてVRコンテンツを視聴している時に表示される。より具体的には、モニタ16は、待ち状況として、ユーザ190によるVRコンテンツの再生が終了するまでの時間と、順番を待っているユーザの数(待ち人数)とを表示する。さらに、モニタ16は、次のユーザが誰であるかを示す情報を表示する。例えば、二次元コードが様々なグッズ(例えば、マグカップ、Tシャツ、カード、CD、カバン等)に付されることから、モニタ16は、二次元コードに含まれるグッズの識別データに基づいて、グッズの購入者を表示し得る。別の局面において、モニタ16は、VRコンテンツの再生を受けるユーザとして登録されたユーザIDを表示してもよい。
【0147】
(まとめ)
以上のようにして、本実施の形態によれば、多くのユーザに対して気軽に仮想現実空間を提供できる。また、本実施の形態によれば、各ユーザは、各々が所有するスマートフォンその他の端末を用いてVRコンテンツを楽しむことができ、さらに、希望するシーンを撮影できるので、VRコンテンツの視聴を楽しんだ後に、撮影画像を楽しむことができる。
【0148】
なお、別の局面において、二次元コードの読取後に再生されるVRコンテンツは、二次元コードに含まれる情報にかかわらず、ランダムに、例えば、抽選により決定されてもよい。一例として、二次元コードの読み取り時に、例えば、20種類のVRコンテンツのいずれかが再生対象として抽選で選ばれる。この場合、一つのキャラクタが登場するVRコンテンツよりも複数のキャラクタが登場するVRコンテンツの方が、希少度(レアリティ)は高くなる。そこで、複数のキャラクタが登場するVRコンテンツが再生される頻度は、一つのキャラクタが登場するVRコンテンツが再生される頻度よりも少なく設定され得る。
【0149】
別の局面において、他のユーザがVRコンテンツの再生を待っている場合、コンピュータ200は、待ち時間の間に、当該他のユーザの好みと推定されるキャラクタの音声で、予め定められたメッセージを当該ユーザに発してもよい。このようにすると、待ち時間の間に当該他のユーザの期待感を高め得る。
【0150】
別の局面において、視聴されたVRコンテンツと、視聴したユーザと、撮影されたシーンとが互いに関連付けられてサーバ150に保存される。当該VRコンテンツおよびシーンは、広告に予め関連付けられている。サーバ150は、当該VRコンテンツあるいは撮影されたシーンに基づいて、当該広告をユーザに提供できるので、ユーザの嗜好に応じた広告を提供できる可能性が高まり得る。
【0151】
なお、上記の実施の形態では、VRコンテンツは、二次元コードに含まれる情報で特定される。別の局面において、VRコンテンツは、ランダムに出力されてもよい。例えば、二次元コードに含まれる情報は、サーバ150がVRコンテンツをランダムに抽出するためのトリガとして使用されてもよい。VRコンテンツがランダムに出力されると、ユーザ190は再生されるVRコンテンツを視認するまで内容を知ることができないので、興趣が高まり得る。
【0152】
さらに、別の局面において、ユーザ190のアバターがVRコンテンツの一シーンの撮影時に追加されてもよい。例えば、ユーザ190が撮影した時に予め定められた場所にユーザ190のアバターオブジェクトが追加されて画像が合成されてもよい。
【0153】
<第2の実施の形態>
以下、第2の実施の形態について説明する。本実施の形態では、カード、チケットその他の媒体に付与されたアクセス情報がVRコンテンツにアクセスするために使用される。
【0154】
図19を参照して、本実施の形態におけるVRコンテンツの提供について説明する。
図19は、コンテンツ提供システム1900の構成の概略を表わす図である。コンテンツ提供システム1900は、チケット棚1910と、カードリーダ1920と、コンピュータ200と、HMD110と、モニタ16とを備える。コンテンツ提供システム1900は、例えば、アニメショップ、キャラクタショップ、コンビニエンスショップその他の店舗に配置される。コンテンツ提供システム1900は、ネットワーク19を介して、サーバ150に接続されている。
【0155】
チケット棚1910には、提供されるVRコンテンツを視聴するためのチケット1911〜1915が陳列されている。各カードは、ICチップ1930を内蔵している。ICチップ1930はアクセス情報を格納している。ユーザ190は、カードを購入すると、カードリーダ1920に当該カードをかざして、アクティベーション処理を実行する。ICチップ1930から読み出されるデータは、チケットID、コンテンツ認証番号その他のアクセス情報を含む。読み出されたデータは、コンピュータ200に入力される。コンピュータ200は、入力されたデータをサーバ150に送信し、当該カードが正規のカードであるか否かを認証する。カートが正規のカードであることが認証されると、サーバ150は、当該カードで特定されるVRコンテンツのデータをコンピュータ200に送信する。コンピュータ200は、受信したデータをHMD110に送信する。HMD110に接続されているスマートフォン180は、そのデータに基づいてVRコンテンツを表示する。
【0156】
[データ構造]
図20を参照して、本実施の形態に係るサーバ150のデータ構造について説明する。
図20は、サーバ150が備えるストレージ154におけるデータの格納の一態様を表わす図である。ストレージ154は、テーブル2100と、テーブル1410と、テーブル2120と、テーブル1430とを含む。
【0157】
テーブル2100は、チケットID2101と、コンテンツ認証番号2102と、販売日時2103と、販売端末2104とを含む。チケットID2101は、各店舗で販売されるチケットを特定する。コンテンツ認証番号2102は、当該チケットで再生可能なVRコンテンツへのアクセスを制御する。例えば、コンピュータ200から送信されるコンテンツ認証番号とコンテンツ認証番号2102とが一致すると、CPU150は、そのコンテンツ認証番号およびチケットIDで特定されるチケットが有効であると判断する。販売日時2103は、当該チケットが販売された日時を表わす。例えば、チケットがカードリーダ1920によって読み取られた時が販売日時2103としてテーブル2100に格納される。販売端末2104は、当該チケットが販売された場所で使用されている装置を表わす。例えば、販売端末2104は、店舗に配置されるPOS(Point of Sales)システム、カードリーダ1920、あるいは、コンピュータ200として特定される。
【0158】
テーブル1410は、前述の実施の形態と同様に、コンテンツID1411と、コンテンツデータ1412と、再生回数1413と、最終再生日時1414とを含む。
【0159】
テーブル2120は、再生日時1421と、再生場所1422と、コンテンツID1423と、ユーザID1424と、端末ID1425と、チケットID2126とを含む。チケットID2126は、当該VRコンテンツを視聴するために認証されて正規のチケットであると判定されたチケットを特定する。
【0160】
テーブル1430は、アクセス日時1431と、アクセス場所1432と、コンテンツID1433と、フレーム番号1434と、ユーザID1435と、端末ID1436とを含む。
【0161】
図21を参照して、本実施の形態においてVRコンテンツを視聴するための手順について説明する。
図21は、ユーザ190が実行する手続きの流れを表わすフローチャートである。
【0162】
ステップS2110にて、ユーザ190は、アニメショップ、キャラクタショップその他のショップを訪問する。ステップS2115にて、ユーザ190は、ショップで、VRコンテンツを視聴するためのチケット1911を購入する。ステップS2120にて、ユーザ190は、購入したチケット1911をアクティベートする。例えば、チケット1911は、ショップのスタッフによって端末を用いて有効化される。
【0163】
ステップS2125にて、ユーザ190は、アクティベートされたチケット1911をカードリーダ1920にかざして、チケット1911に記録されているVRコンテンツの識別番号の認証を受ける。より具体的には、カードリーダ1920が接続されているコンピュータ200は、チケット1911から読み取られた情報(例えば、チケットID、コンテンツ認証番号等)をサーバ150に送信する。サーバ150は、ストレージ154のテーブル2100に格納されているチケットID2101およびコンテンツ認証番号2102と、コンピュータ200から受信したチケットIDおよびコンテンツ認証番号とを比較して、当該チケットが正規のチケットであるか否かを判断する。
【0164】
ステップS2130にて、ユーザ190は、スマートフォン180をHMD190に嵌めこんで、HMD190を頭に装着する。購入したチケットが正規のチケットである場合には、サーバ150はHMD110にVRコンテンツのデータを送信し、スマートフォン180はそのデータに基づいてVRコンテンツを表示する。
【0165】
ステップS2135にて、ユーザ190は、スマートフォン180のモニタ63に表示されるVRコンテンツを体験する。ある局面において、ユーザ190はVRコンテンツの視聴に加えて、アバターオブジェクトとして、当該VRコンテンツに参加できてもよい。
【0166】
ステップS2140にて、ユーザ190は、コントローラ160を操作して、あるいは、視線を動かして、撮影ボタンを押下することにより、VRコンテンツの一シーンを撮影する。
【0167】
ステップS2145にて、ユーザ190は、VRコンテンツの視聴が終了すると、スマートフォン180をHMD110から取り外し、退店する。ステップS2150にて、ユーザ190は、スマートフォン180あるいは自宅のパーソナルコンピュータ等を用いて、当該VRコンテンツを提供するサービスのウエブサイトを閲覧する。ステップS2155にて、ユーザ190は、購入したチケット1911に記載されていた識別コードとユーザIDとをウェブサイトに入力し、当該サイトにアクセスする。
【0168】
ステップS2160にて、ユーザ190は、当該サイトのユーザアカウントに個人情報(住所、氏名、電話番号、電子メールアドレス、予め定められたリストから選択されたユーザの嗜好等)を登録する。サーバ150は、個人情報が登録されたことを検知すると、当該ユーザがVRコンテンツを視聴している時に撮影されたデータをストレージ154からメモリ152に読み出し、ユーザ190が使用している端末(スマートフォン180、パーソナルコンピュータ等)に画像データを送信する。
【0169】
ステップS2165にて、ユーザ190は、VRコンテンツを体験している時の撮影画像を確認する。
【0170】
ステップS2170にて、ユーザ190は、その撮影画像をSNS(Social Network Service)に登録されているユーザアカウントにアップロードする。他のユーザは、当該ユーザアカウントの公開ページにアクセスすることにより、ユーザ190によって撮影された画像を楽しむことができる。また、撮影画像に対するコメントがユーザ190によって与えられている場合には、そのコメントも表示され得る。
【0171】
図22を参照して、本実施の形態にコンテンツ提供システム1900の制御構造について説明する。
図22は、コンテンツ提供システム1900が実行する処理の一部を表わすフローチャートである。当該処理は、サーバ150またはコンピュータ200によって実行される。
【0172】
ステップS2210にて、コンピュータ200のプロセッサ10は、POS端末その他の端末からの信号に基づいて、購入されたチケットがアクティベートされたことを検知する。ステップS2215にて、プロセッサ10は、カードリーダ1920によって読み取られた識別コードをカードリーダ1920から受信する。ステップS2220にて、プロセッサ10は、受信した識別コードをサーバ150に送信する。
【0173】
ステップS2225にて、サーバ150のプロセッサ151は、認証処理を実行し、チケット1911が正規のチケットであるか否かを判断する。例えば、プロセッサ151は、ストレージ154に予め登録されているチケットID2101およびコンテンツ認証番号2102と、コンピュータ200から受信したチケットIDおよびコンテンツ認証番号との比較に基づいて、チケット1911が有効であるか否かを判断する。プロセッサ151はチケット1911が有効であると判断すると(ステップS2225にてYES)、制御をステップS2230に切り替える。そうでない場合には(ステップS2225にてNO)、プロセッサ151は、制御をステップS2270に切り替える。
【0174】
ステップS2230にて、プロセッサ151は、チケットIDに関連付けられたコンテンツデータをストレージ154から読み出し、コンピュータ200にコンテンツデータを送信する。
【0175】
ステップS2235にて、コンピュータ200のプロセッサ10は、コンテンツデータに基づく映像を仮想空間に提示するための映像信号を生成する。なお、別の局面において、スマートフォン180のCPU50が当該映像信号を生成してもよい。ステップS2240にて、プロセッサ10は、生成した映像信号をHMD110に出力する。映像信号は、HMD110に装着されたスマートフォン180に入力される。
【0176】
ステップS2245にて、スマートフォン180のCPU50は、映像信号の一部をモニタ63に出力する。モニタ63は、その映像信号に基づいてVRコンテンツの画像を表示する。スマートフォン180がはめ込まれたHMDを装着したユーザ190は、その画像を視認することによりVRコンテンツを視聴することができる。
【0177】
ステップS2250にて、コンピュータ200のプロセッサ10は、カードリーダ1920からの信号の有無に基づいて、別のチケットに基づくVRコンテンツの再生が待機しているか否かを判断する。プロセッサ10は、当該VRコンテンツの再生が待機していると判断すると(ステップS2250にてYES)、制御をステップS2255に切り替える。そうでない場合には(ステップS2250にてNO)、プロセッサ10は処理を終了する。ステップS2255にて、プロセッサ10は、モニタ63に次の視聴者の待ち時間を表示する。ステップS2260にて、プロセッサ10は、VRコンテンツのキャラクタの音声をスピーカ(図示しない)から出力することにより、次の視聴者を呼び出す。
【0178】
ステップS2270にて、サーバ150のプロセッサ151は、当該チケットが有効でない旨をコンピュータ200に通知する。コンピュータ200は、この通知を受信すると、当該チケットが有効でない旨をモニタ16に表示し得る。
【0179】
[画面の表示態様]
図23を参照して、本実施の形態に係るコンテンツ提供システムにおける画面の表示態様について説明する。
図23は、順番待ちの状況を通知するためにモニタ16が表示する画面の一態様を表わす図である。
【0180】
図23に示されるように、モニタ16は、ユーザ190以外の他のユーザに対して待ち状況を示す画面を表示する。この画面は、例えば、ユーザ190がHMD110を装着して、HMD110に嵌めこまれたスマートフォン180を用いてVRコンテンツを視聴している時に表示される。より具体的には、モニタ16は、待ち状況として、ユーザ190によるVRコンテンツの再生が終了するまでの時間(「約2分」)と、順番を待っているユーザの数(「3人」)とを表示する。さらに、モニタ16は、次のユーザが誰であるかを示す情報を表示する。例えば、モニタ16は、各ユーザが購入したチケットに付与されているチケット番号を表示し得る。別の局面において、モニタ16は、VRコンテンツの再生を受けるユーザとして登録されたユーザID、あるいは、再生されるVRコンテンツのタイトルやキャラクタを表示してもよい。
【0181】
別の局面において、チケットと二次元コードとが併用される態様が用いられてもよい。例えば、ユーザ190が店舗のスタッフに申し出てチケットを購入する場合において、チケットに連番を予め付しておき、二次元コードは、チケットに付された連番のいずれかの番号をアクセス情報として含んでいてもよい。
【0182】
このようにすると、コンテンツ視聴時に、カードリーダ1920が連番の情報を読み取ると、順番待ちのユーザに対し、何番までのユーザがコンテンツを視聴したかを提示することができる。また、連番の情報とは別に、チケットを識別する情報(チケットID)を二次元コードあるいはICチップ1930に含めておくことにより、ユーザ190が、VRコンテンツの視聴後に撮影画像をスマートフォン180で閲覧する際、ユーザ190自身の情報(例えば、SNDアカウントでのログイン情報)とチケットを識別する情報とが記録される。
【0183】
ユーザ190がチケットを再び購入して、VRコンテンツを視聴して撮影した場合に、ユーザ190がアプリ等でログイン操作と共に撮影画像をみるための操作が再度行われる。この操作により、そのチケットを識別する情報と、ユーザ190自身の情報とがVRコンテンツあるいは撮影画像に関連付けられる。
【0184】
このような情報がサーバ150に蓄積されることで、コンテンツの提供者は、各ユーザの行動を理解する上で、各撮影画像の中でどの画像が特に好まれているかを知ることができる。例えば、撮影画像のうちユーザの閲覧回数が大きいものはユーザの好みに合致していると推定される。より具体的には、例えば、あるキャラクタの撮影画像の閲覧回数が他のキャラクタの撮影画像の閲覧回数よりも多い場合には、当該あるキャラクタがユーザの好みであることが推定される。
【0185】
以上より、開示された技術的特徴は、以下のように要約される。
(構成1) HMD110を用いてコンテンツを提供するためにコンピュータ200で実行されるコンテンツ提供方法は、コンピュータ200のインターフェイスを介して、コンテンツにアクセスするためのアクセス情報(例えば、コンテンツID,チケットID,コンテンツ認証番号等)(コンテンツID,チケットID,コンテンツ認証番号等)の入力を受け付けるステップと、一つ以上のコンテンツを管理するためのサーバ150に、当該アクセス情報を送信するステップと、サーバ150からコンテンツを表示するためのコンテンツデータを受信するステップと、HMD110を用いてコンテンツを提示するための仮想空間2を定義するステップと、コンテンツデータを用いて当該コンテンツをHMD110に再生させるステップとを含む。
【0186】
(構成2) コンテンツ提供方法は、構成1に加えて、HMD110は、カメラを含む。アクセス情報の入力を受け付けるステップは、カメラを用いてアクセス情報が含まれるコード(例えば二次元コード)を撮影するステップと、撮影によって得られた画像信号の入力を受け付けるステップと、画像信号からアクセス情報を抽出するステップとを含む。
【0187】
(構成3) 構成1に加えて、アクセス情報の入力を受け付けるステップは、アクセス情報が記録された媒体(例えば、チケット1911〜1915)から、当該アクセス情報を取得するステップを含む、構成1に記載の方法。
【0188】
(構成4) 好ましくは、コンテンツ提供方法は、コンピュータ200に接続されているモニタ16に、HMD110において再生されているコンテンツを表示するステップをさらに含む。
【0189】
(構成5) 好ましくは、コンテンツ提供方法は、コンピュータ200に接続されているモニタ16に、HMD110の使用の順番待ちの状況を表示するステップをさらに含む。
【0190】
(構成6) 好ましくは、コンテンツ提供方法は、コンテンツに関連付けられた広告情報を出力するステップをさらに含む。
【0191】
(構成7) 好ましくは、コンテンツ提供方法は、HMD110のユーザ190に対応するアバターオブジェクトをコンテンツと共に提示するステップをさらに含む。
【0192】
(構成8) 好ましくは、コンテンツ提供方法は、再生中のコンテンツの撮影を行なうステップをさらに含む。
【0193】
(構成9) 好ましくは、コンテンツ提供方法は、撮影によって取得された画像を表示するステップをさらに含む。
【0194】
(構成10) 好ましくは、コンテンツ提供方法は、撮影によって取得された画像に対するコメントの入力を受け付けるユーザ190インターフェイスを表示するステップをさらに含む。
【0195】
(構成11) 好ましくは、コンテンツ提供方法は、コンテンツの再生が終了した後に再生される次のコンテンツに含まれるキャラクタの音声を出力して、当該次のコンテンツの視聴者にHMD110の装着を促すステップをさらに含む。
【0196】
(構成12) 好ましくは、コンテンツ提供方法は、コンテンツの再生が行なわれている場所を示す位置情報と、位置情報が関連付けられた識別データとをサーバ150に送信するステップをさらに含む。
【0197】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【解決手段】コンテンツを提供するための方法は、スマートフォンのカメラによって撮影された二次元コードから、コンテンツにアクセスするためのアクセス情報を抽出するステップ(S1525)と、アクセス情報を管理サーバに送信するステップ(S1530)と、コンテンツデータを管理サーバから受信するステップ(S1535)と、コンテンツをHMDに表示するステップ(S1540)と、コンテンツの一シーンを撮影するステップ(S1545)と、撮影された画像を表示するステップ(S1560)とを含む。