(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0009】
以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。即ち、本発明は、その趣旨を逸脱しない範囲で種々変形(各実施例を組み合わせる等)して実施することができる。また、以下の図面の記載において、同一または類似の部分には同一または類似の符号を付して表している。図面は模式的なものであり、必ずしも実際の寸法や比率等とは一致しない。図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。
【0010】
[実施形態]
以下、本発明の実施形態におけるコンテンツ配信システムを、図面を用いて説明する。
【0011】
<コンテンツ配信システムの概要>
図1は、実施形態におけるコンテンツ配信システム1の一例を示す概念図である。
図1に示す例において、コンテンツ配信システム1は、例えばコンテンツを配信する会社等により提供されるサーバ装置(情報処理装置)10と、各ユーザが装着するアイウエア30A、30Bと、1又は複数のオブジェクトを撮像する撮像装置60A、60B、60Cと、がネットワークNを介して接続される。以下、撮像装置を1つ1つ区別する必要がない場合は、符号60を用いる。同様に、アイウエアを1つ1つ区別する必要が合ない場合は、符号30を用いる。
【0012】
オブジェクトは、例えばプレイヤや動物などの動く移動物体を含む。プレイヤは、スポーツをしている1又は複数の人や音楽ライブをしている人などを含む。
【0013】
また、アイウエア30は、頭部装着型のウエアラブル端末であればよく、例えばヘッドマウントディスプレイ等でもよい。アイウエア30を装着したユーザ(利用者)は、AR(拡張現実)を体験することができる。なお、ネットワークNには、その他、コンテンツを購入する際に用いる決済サーバなどが接続されてもよい。
【0014】
図2は、実施形態における撮像装置60による撮像の様子の一例を説明するための図である。
図2に示す例では、陸上のフィールドF1内で選手(プレイヤ)P1が短距離を走っている。このように、撮像装置60は、所定のフィールド内で1又は複数の移動体を撮像するものであり、例えば、スポーツをしている1又は複数のプレイヤの動きを様々な角度から撮像する。スポーツは、プレイヤが乗り物に乗って行うモータースポーツ等も含む。
【0015】
撮像装置60は、プレイヤやモーターの動作解析を容易にするため、高性能の撮像装置、例えば8Kカメラなどが望ましい。また、撮像装置60の設置台数は、
図2に示す例では8台であるが、フィールドF1の大きさに応じて適切な台数が設置されればよい。以下、動作解析対象として、プレイヤを例に挙げて説明する。
【0016】
撮像装置60により撮像された各撮像データは、直接的に又はパーソナルコンピュータなどの処理装置を介して間接的に、サーバ装置10に送信される。サーバ装置10は、各撮像データに基づき、各プレイヤを表す動的オブジェクトを含む三次元仮想空間を生成し、また、撮像データを画像処理すること、又はモーションキャプチャなどの技術を用いることで、各プレイヤを表す各動的オブジェクトの動作解析を行う。動的オブジェクトは、例えば三次元仮想空間内を動作する二次元オブジェクト又は三次元オブジェクトである。
【0017】
なお、サーバ装置10は、フィールドF1が既知であれば、事前に三次元仮想空間を生成しておき、各撮像データに基づいて、プレイヤ等に基づく動的オブジェクトや、風景や置物等に基づく静的オブジェクトを配置し、必要最低限のオブジェクトを配置した三次元仮想空間を生成してもよい。例えば、サーバ装置10は、プレイヤを表す動的オブジェクトだけが、3つの軸だけで表される三次元仮想空間内を動くように処理してもよい。
【0018】
また、これらの処理の一部または全ては、サーバ装置10ではなく、撮像装置60に接続された前述のパーソナルコンピュータなどの処理装置で行い、生成されたオブジェクトや三次元仮想空間をサーバ装置10に送信して記憶させるようにしてもよい。
【0019】
モーションキャプチャは、マーカーレス方式の公知の技術を用いるとよい。例えば、Captury Studio社のモーションキャプチャや、Organic Motion社のモーションキャプチャなどの技術が適用可能である。これにより、オブジェクトに対してカメラを設ける必要がなくなり、オブジェクトに負担をかけずに済む。
【0020】
サーバ装置10は、1又は複数の動的オブジェクトについて、上述した動作解析を行うことにより、三次元仮想空間内において、プレイヤの動きを再現する動的オブジェクトを含む映像コンテンツを生成する。この映像コンテンツは、動的オブジェクト以外にも置物等の静的オブジェクトを含んでもよく、コンピュータグラフィックス(以下、CGとも称する。)を用いて生成されてもよい。
【0021】
CGについて、各プレイヤやフィールドの一部又は全部をモデリングした仮想オブジェクトを含む三次元仮想空間に基づき、CGによる映像コンテンツを生成する方が、実映像の合成による複雑な映像コンテンツを生成するよりも、オブジェクトの様々な動きや視点変更にも柔軟に対応することができる。また、サーバ装置10は、CGを用いることで、自身の処理負荷を軽減することができる。サーバ装置10は、このようにして生成された映像コンテンツを複数記憶しておいてもよい。
【0022】
アイウエア30は、所定のアプリケーションを用いてサーバ装置10にアクセスし、ユーザ操作に基づいて、動的オブジェクトや映像コンテンツを選択し、選択された動的オブジェクトや映像コンテンツをダウンロードする。アイウエア30は、ダウンロードされた動的オブジェクトや映像コンテンツを、現実世界の空間(以下、実空間とも称す。)における現実世界の像に重畳して表示する。
【0023】
図3は、実施形態におけるアイウエア30の一例を示す図である。
図3に示す例では、アイウエア30は、例えばGoogleGlass(登録商標)ようなARを重畳可能なグラスである。アイウエア30は、プリズムディスプレイなどの表示部35により、動的オブジェクトを実空間に重畳して表示することができる。また、アイウエア30は、後述する通信部31、記憶部32、操作部33、制御部34、撮像部36、及びセンサ部37を含む。
【0024】
アイウエア30を装着したユーザは、サーバ装置10から配信された動的オブジェクトや映像コンテンツを視聴することで、ARを体験することができる。このとき、三次元仮想空間と、実空間とを対応付け(マッピング)することで、ユーザ視点からの動的オブジェクトの動きをユーザに体験させることができる。例えば、ユーザは、陸上短距離の世界記録保持者と競争したり、著名なサッカー選手の動きをフィールド上で体験したり、サッカーススタジアムで行われた試合について、同スタジアムの様々な席での観戦を体験したりすることができる。
【0025】
サーバ装置10は、ARにおいて用いられる動的オブジェクトを、動作解析の結果を用いて生成することができる。また、アイウエア30は、所定のアプリケーションを用いることにより、サーバ装置10において生成された動的オブジェクトを取得することができる。
【0026】
<ハードウェア構成>
次に、コンテンツ配信システム1内の各装置のハードウェアについて説明する。以下、サーバ装置10、アイウエア30の順に説明する。
【0027】
≪サーバ装置10≫
まず、サーバ装置(情報処理装置)10のハードウェア構成について説明する。
図4は、実施形態におけるサーバ装置10のハードウェア構成の一例を示す図である。
図4に示すように、サーバ装置10は、制御部11、通信インターフェース13、記憶部14、表示部17、及び入力部18を有し、各部はバスライン19を介して接続される。
【0028】
制御部11は、CPU、ROM、RAM12等を含む。制御部11は、記憶部14に記憶される制御プログラム15等を実行することにより、一般的な情報処理装置としての機能に加え、例えば映像コンテンツの生成に関する処理を実現するように構成される。
【0029】
また、RAM12は、各種情報を一時的に保持したり、CPUが各種処理を実行する際のワークエリアとして使用されたりする。
【0030】
通信インターフェース13は、ネットワークNを介した撮像装置60、アイウエア30、及び課金サーバ(不図示)等との通信を制御する。
【0031】
記憶部14は、例えばHDD等からなり、一般的な情報処理装置としての機能を実現するためのアプリケーション及びデータ(図示省略)を記憶することに加え、制御プログラム15を記憶する。また、記憶部14は、情報記憶部16を有している。
【0032】
制御プログラム15は、撮像データに基づき、三次元仮想空間を生成したり、各プレイヤの動きを動作解析したり、三次元仮想空間や動作解析結果に基づいて、各プレイヤの動きを再現する映像コンテンツを生成したりするプログラムである。制御プログラム15は、コンピュータに読み取り可能な記録媒体に保存され、この記録媒体から読み出されて、記憶部14に記憶されてもよい。
【0033】
情報記憶部16は、例えば撮像データを記憶したり、三次元仮想空間や、動作解析処理で生成される中間データ等を記憶したり、三次元仮想空間や動作解析結果に基づく映像コンテンツを記憶したりする。
【0034】
表示部17は、管理者に対して、三次元仮想空間における動的オブジェクトや映像コンテンツ等を表示する。入力部18は、管理者からの入力を受け付けたり、管理者からの指示を受け付けたりする。また、サーバ装置10は、表示部17と入力部18とを必ずしも設ける必要はなく、表示部17及び入力部18は、外部からサーバ装置10に接続されるようにしてもよい。
【0035】
≪アイウエア30≫
次に、実施形態におけるアイウエア30のハードウェアについて説明する。
図5は、実施形態におけるアイウエア30のハードウェア構成の一例を示すブロック図である。
図5に示すアイウエア30は、通信部31、記憶部32、操作部33、制御部34、及び表示部35、撮像部36、センサ部37を有する。
【0036】
通信部31は、サーバ装置10とデータ通信を行う。例えば、通信部31は、ネットワークNを介してデータ通信を行ったり、マイクロUSB端子を用いてデータ通信を行ったり、Bluetooth(登録商標)等の通信機能を用いてデータ通信を行ったりする。例えば、通信部31は、サーバ装置10から三次元仮想空間における動的オブジェクトや映像コンテンツ等を受信する。
【0037】
記憶部32は、例えばRAMやROMやHDDなどであり、サーバ装置10から配信された動的オブジェクト又は映像コンテンツを記憶する。
【0038】
操作部33は、動的オブジェクトの位置調整ボタンや電源ボタン等の各種ボタンを含み、各種ボタンの押下に基づきアイウエア30を操作する。また、操作部33は、ボタンだけではなく、タッチやスライドなどを検知し、その操作に応じてアイウエア30を操作してもよい。
【0039】
制御部34は、例えばCPUやRAMなどであり、上述したARが表示されるよう制御する。また、制御部34は、動的オブジェクトの位置を調整したり、センサ部37による信号に基づいてARに関する表示制御を行ったりする。
【0040】
表示部35は、アイウエア30から受信した動的オブジェクトや映像コンテンツ等を表示する。映像コンテンツは、2次元映像又は3次元映像である。また、表示部35について、例えば所定サイズのプリズムの中にハーフミラーが埋め込まれ、アイウエア30に設けられたプロジェクタから照射された動的オブジェクト又は映像コンテンツがハーフミラーにより反射され、ユーザの網膜に動的オブジェクト又は映像コンテンツの像が形成される。
【0041】
また、表示部35は、アイウエア30に設けられる少なくとも1つのレンズに、三次元仮想空間における動的オブジェクトや映像コンテンツを表示することで、実空間上の像と、動的オブジェクトや映像コンテンツの像とが重畳されるようにしてもよい。表示部35は、ARの像が表示されるものであればよく、表示の方法は問わない。
【0042】
撮像部36は、例えばカメラであり、実空間上の像を撮像する。例えば、通信部31が、撮像画像をサーバ装置10に送信し、サーバ装置10が、撮像画像に動的オブジェクトを重畳してAR画像を生成してもよい。これにより、リアルタイムに取得する画像に動的オブジェクトを重畳したAR画像を提供することができる。
【0043】
センサ部37は、アイウエア30の加速度及び角速度を計測可能である。センサ部37は、例えば3軸の加速度センサ及び3軸の角速度センサを含む6軸センサであり、6軸センサによりセンシングされた所定のデータに応じて、ユーザの動きに応じた動的オブジェクトや映像コンテンツの表示が可能になる。
【0044】
また、センサ部37によりセンシングされた所定の信号に応じて、ARの表示に関する操作を行うことができる。これにより、アイウエア30を移動させるだけで、動的オブジェクトや映像コンテンツに関する操作が可能になる。
【0045】
<機能的構成>
次に、コンテンツ配信システム1内のサーバ装置10及びアイウエア30の機能について説明する。
【0046】
≪サーバ装置10≫
図6は、実施形態におけるサーバ装置10の機能構成の一例を示す図である。
図6に示す例では、サーバ装置10は、第1送信部102、第1受信部104、生成部106、及び第1記憶部108を有する。生成部106は、例えば制御プログラム15が制御部11により実行されることで機能する。
【0047】
第1送信部102は、例えば通信インターフェース13や制御部11等により実現されうる。第1送信部102は、ダウンロード要求を出したアイウエア30に、要求された映像コンテンツ等を送信する。
【0048】
第1受信部104は、例えば通信インターフェース13や制御部11等により実現されうる。第1受信部104は、アイウエア30から、映像コンテンツやプレイヤを識別する情報とともにダウンロード要求を受信する。また、第1受信部104は、撮像装置60から各撮像データを受信する。
【0049】
生成部106は、例えば制御部11等により実現されうる。生成部106は、各プレイヤの動きが撮像された各撮像データに基づいて、各プレイヤの動きを再現する動的オブジェクトや、動的オブジェクト及び静的オブジェクトを含む全体的な映像コンテンツ等を生成する。なお、動的オブジェクトは、映像コンテンツから抽出可能であり、例えば、抽出した動的コンテンツ以外のオブジェクトやフィールド等が透明に設定されればよい。生成部106は、映像コンテンツを生成するため、動作解析部110、仮想空間生成部112、コンテンツ生成部114を有する。
【0050】
動作解析部110は、例えば複数の撮像装置60から撮像された各撮像データに対し、モーションキャプチャ技術を用いて、撮像データ内の少なくとも1のプレイヤの動きを動作解析する。このモーションキャプチャ技術は、公知の技術を用いればよく、例えばマーカーレスタイプの技術が好ましい。動作解析技術を適用することにより、撮像データ内の各プレイヤの動きが再現可能になる。これにより、三次元仮想空間内をどのように動いたかを、プレイヤごとに求めることができる。
【0051】
なお、動作解析部110により出力される動作解析結果は、動作解析したプレイヤの動きを再現するためのプレイヤの動き情報を含む。
【0052】
仮想空間生成部112は、各撮像データに基づいて、各プレイヤやフィールドの仮想オブジェクトを含む三次元仮想空間を生成する。仮想オブジェクトは、例えば、プレイヤなどの動きを有する動的オブジェクトと、置物などの動きを有しない静的オブジェクトとを含む。
【0053】
例えば、仮想空間生成部112は、各撮像装置60の設置位置や設置角度に基づいて、撮像データ内のどのオブジェクトがどの座標位置にあるかを、例えば三次元画像解析を用いて算出し、オブジェクトに対応する仮想オブジェクトを、その座標位置に配置する。例えば、仮想空間生成部112は、仮想オブジェクトをCGにより生成する場合、三次元仮想空間に配置される、各種仮想オブジェクトのポリゴンデータを保持しておくとよい。
【0054】
また、仮想空間生成部112は、フィールドが既知であれば、事前に三次元仮想空間を生成しておき、各撮像データに基づいて風景やプレイヤ等に基づく仮想オブジェクトを配置し、最終的な三次元仮想空間を生成してもよい。また、仮想空間生成部112は、各プレイヤに対応する動的オブジェクトのみを三次元仮想空間に配置してもよい。
【0055】
コンテンツ生成部114は、三次元仮想空間及び動作解析結果に基づいて、少なくとも1のプレイヤの動きを再現する動的オブジェクトを生成する。例えば、コンテンツ生成部114は、三次元仮想空間のフィールド内を移動する各プレイヤの仮想オブジェクトに対して、動作解析により解析された各プレイヤの実際の動きを与え、動的オブジェクトを生成する。
【0056】
また、コンテンツ生成部114は、全体的な映像コンテンツから、一の動的オブジェクトを特定し、その動的オブジェクトのみを抽出してもよい。この場合、抽出された動的オブジェクト以外の仮想オブジェクトが、透明又は非表示に設定されればよい。これにより、サーバ装置10は、三次元仮想空間における動的オブジェクトや映像コンテンツを外部機器に提供することが可能になる。
【0057】
また、コンテンツ生成部114は、映像コンテンツについて、各プレイヤに対応する各キャラクタをCGにより生成し、このキャラクタが、対応するプレイヤの動きを再現するように映像コンテンツを生成してもよい。コンテンツ生成部114は、プレイヤの写真等を用いてよりリアルなキャラクタにすることで、より現実味を増した映像コンテンツを生成することができる。
【0058】
コンテンツ生成部114は、1つのイベント(例えばスポーツの1試合)内で生成した映像コンテンツに対し、1つの識別情報(コンテンツID)を付与し、イベントごとに映像コンテンツの識別を可能にしておく。また、コンテンツ生成部114は、プレイヤにも識別情報(プレイヤID)を付与し、このプレイヤに対する動的オブジェクトを三次元仮想空間内から抽出可能にしておく。これにより、イベントや、プレイヤごとにアイウエア30からダウンロード要求を受けることが可能になる。コンテンツ生成部114は、生成された映像コンテンツを第1記憶部108に記憶する。
【0059】
第1記憶部108は、例えば記憶部14から実現されうる。第1記憶部108は、コンテンツ情報を記憶する。コンテンツ情報は、例えば、動作解析されたプレイヤを表す動的オブジェクトや、撮像画像内の静的オブジェクト等を含む仮想空間データ(映像コンテンツ)やプレイヤID等を含む。
【0060】
第1記憶部108は、三次元仮想空間、静的な仮想オブジェクト(静的オブジェクト)、及び動的な仮想オブジェクト(動的オブジェクト)を含む仮想空間データを、コンテンツIDに対応付けて記憶してもよい。
【0061】
図7Aは、コンテンツ情報の一例を示す図である。
図7に示す例において、コンテンツ情報は、コンテンツIDに仮想空間データが対応付けられている。
図7Aに示すコンテンツ情報は、コンテンツIDにより仮想空間データが特定される。
【0062】
図7Bは、仮想空間データのデータ構造の一例を示す図である。
図7Bに示す例において、仮想空間データにおいて、動的オブジェクトを識別するプレイヤIDに、動きデータやオブジェクトデータなどが関連付けられる。また、仮想空間データにおいて、静的オブジェクトを識別するIDに、オブジェクトデータや座標等が関連付けられる。動きデータは、動作解析により求められた動的オブジェクトの移動軌跡や移動姿勢等である。オブジェクトデータは、例えばポリゴンデータ等の表示データである。座標は、三次元仮想空間上における、そのオブジェクトが配置される座標である。例えば、仮想空間データにおいて、プレイヤIDを特定することで、その仮想空間データ内の動的オブジェクトが抽出可能である。
【0063】
図7A及びBに示す例では、コンテンツID「G0001」に対し、仮想空間データ「C0001」が対応付けられ、仮想空間データ「C0001」内に、プレイヤID「PA001」〜「PA022」のデータが対応付けられている。例えば、コンテンツIDによりワールドカップの決勝が特定され、プレイヤIDにより所定の選手が特定されると、この決勝の試合に基づく仮想空間データから、プレイヤIDに対応する動的オブジェクトが抽出される。この動的オブジェクトは、三次元仮想空間内を動く選手を表す。
【0064】
他の例として、コンテンツIDにより、オリンピックの男子100m決勝が特定され、プレイヤIDにより、この100m決勝を走った所定選手が特定されると、この100m決勝に基づく仮想空間データから、プレイヤIDに対応する動的オブジェクトが抽出される。この動的オブジェクトは、三次元仮想空間内における所定選手の動きを表す。
【0065】
なお、サーバ装置10は、アイウエア30側のユーザの操作に基づき、AR体験中のユーザの視点位置や視線方向の変更可能性が有る場合、仮想空間データをアイウエア30に送信してもよい。これにより、アイウエア30は、三次元仮想空間と実空間とをマッピングした上で、自身の装置の動きに応じて、視線方向を変更したり、視点位置を変更したりして、変更後の視点位置又は視線方向から見た動的オブジェクトを、例えばCGにより生成することができる。
【0066】
また、サーバ装置10と、アイウエア30とのリアルタイムの双方向通信により、AR体験中のユーザの視点位置や視線方向を変更することもできる。例えば、サーバ装置10において三次元仮想空間と実空間とをマッピングした上で、アイウエア30は、視点位置や視線方向の変更を示す変更情報をサーバ装置10に送信する。サーバ装置10は、その変更情報に基づいて、三次元仮想空間内の視点位置や視線方向を変更し、変更後の視点位置や視線方向から見える動的オブジェクトや映像コンテンツを生成する。
【0067】
サーバ装置10は、変更後の動的オブジェクトや映像コンテンツをその都度アイウエア30に送信し、アイウエア30は、受信した動的オブジェクトや映像コンテンツを表示する。これにより、ユーザ視点に基づく動的オブジェクトの表示を変更することができ、動的オブジェクトの動きと、ユーザの動きとを比較したりすることができる。
【0068】
≪アイウエア30≫
図8は、実施形態におけるアイウエア30の機能構成の一例を示す図である。
図8に示す例では、アイウエア30は、第2送信部302、第2受信部304、AR制御部306、及び第2記憶部308を有する。AR制御部306は、例えばARを制御するプログラムが制御部34により実行されることで機能する。
【0069】
第2送信部302は、例えば制御部34、通信部31等により実現されうる。第2送信部302は、ユーザ操作に基づくダウンロード要求等をサーバ装置10に送信する。
【0070】
第2受信部304は、例えば制御部34、通信部31等により実現されうる。第2受信部304は、サーバ装置10から、ダウンロード要求した動的オブジェクトや映像コンテンツ等を受信する。
【0071】
AR制御部306は、例えば制御部34等により実現されうる。AR制御部306は、第2受信部304により受信された、各プレイヤの動きを再現する動的オブジェクトや映像コンテンツを取得し、再生などの制御を行う。AR制御部306は、動的オブジェクトや映像コンテンツを制御するため、取得部310、対応付け部312、表示制御部314、検知部316、調整部318、及び受付部320を有する。
【0072】
取得部310は、1又は複数のプレイヤの動きを含む各撮像データに基づき生成された三次元仮想空間における、少なくとも一のプレイヤの動作解析結果に基づく動的オブジェクトを取得する。例えば、取得部310は、三次元仮想空間内において、動作解析されたプレイヤの動きを再現する動的オブジェクトを第2記憶部308又は第2受信部304から取得する。
【0073】
対応付け部312は、三次元仮想空間と、利用者の視点に基づく実空間とを対応付ける。例えば、対応付け部312は、ユーザの所定操作が行われると、アイウエア30に関する実空間内の所定位置を原点とし、この原点を、三次元仮想空間内の動的オブジェクトの基準位置に対応付ける。さらに、対応付け部312は、実空間において予め設定された3つの軸に対し、三次元仮想空間における3つの軸をそれぞれ対応付ける。なお、対応付け部312は、実空間の3つの軸と、三次元仮想空間の3つの軸とを予め対応付けしておくことで、実空間上の所定位置と、三次元仮想空間上の基準位置とを対応付けるだけでもよい。対応付け部312は、対応付けの際に用いた基準をマッピング基準とし、表示制御部314に通知する。例えば、マッピング基準は、実空間上の移動距離及び移動方向に対応する、仮想空間上における移動距離及び移動方向を設定しておく。
【0074】
例えば、アイウエア30に関する実空間内の所定位置は、アイウエア30における表示部17の位置(ユーザの視点位置(例えば緯度、経度、高さ))であり、動的オブジェクトの基準位置とは、三次元仮想空間内に配置された初期位置に関する位置である。基準位置は、例えば初期位置から所定方向に所定距離離れた位置である。基準位置の高さ方向の座標値は、例えば平均身長程度の値に設定しておけばよい。
【0075】
また、3つの軸は、例えば、鉛直方向の軸、水平方向の横軸、及び水平方向の縦軸である。実空間における3つの軸は、センサ部37、例えば加速度センサや地磁気センサなどにより検知された信号に基づく軸を用いてもよい。
【0076】
表示制御部314は、対応付け部312により実空間に対応付けられた三次元仮想空間のマッピング基準に従って、三次元仮想空間における動的オブジェクトを、実空間に重畳して表示するよう制御する。例えば、表示制御部314は、対応付けられた三次元仮想空間内の基準位置を、ユーザの視点位置とし、この視点位置から見える動的オブジェクトを実空間上に重畳するよう表示制御する。
【0077】
次に、表示制御部314は、ユーザの所定操作があると、三次元仮想空間内において動的オブジェクトの動きを開始し、三次元仮想空間内の基準位置から見える動的オブジェクトの動きを、実空間に重畳して表示するよう制御する。
【0078】
具体例としては、表示制御部314は、三次元仮想空間と実空間との対応付け(マッピング)が完了すると、実空間において、ユーザ視点位置から左の位置にスポーツ選手が表示されるように制御する。例えば、プロジェクタによりスポーツ選手の初期状態をプリズムディスプレイに対して投影する。
【0079】
次に、表示制御部314は、再生開始の操作に基づく再生指示を受けると、スポーツ選手の動きの再現を三次元仮想空間内で開始する。これにより、ユーザは、自身の視野内で実空間上に重畳されるスポーツ選手の動きを見ることができる。
【0080】
また、検知部316は、センサ部37により水平方向及び鉛直方向のどちらに動いたかを検知する。例えば、検知部316は、現在のユーザの視点位置及び視線方向を示す情報を表示制御部314に通知する。表示制御部314は、通知された情報からユーザの現在の視点位置及び視線方向を求め、マッピング基準に基づき、三次元仮想空間における視点位置及び視線方向を特定する。表示制御部314は、三次元仮想空間内において特定した視点位置及び視線方向から見える動的オブジェクトを、実空間上に重畳して表示するよう制御する。
【0081】
これにより、例えば陸上選手を動的オブジェクトとした場合、ユーザが静止状態であれば、動的オブジェクトは、動的オブジェクトが三次元仮想空間内を走った分だけ、実空間のユーザとの距離が離れていくように表示される。他方、ユーザが動的オブジェクトとともに走れば、移動する自身の位置から相対的に見える動的オブジェクトが表示される。
【0082】
より具体的には、実施形態におけるARを視聴させることで、ユーザは、陸上の100mの世界記録保持者と疑似的に競争したり、有名なサッカー選手と1対1で疑似的に勝負したり、有名な野球のピッチャーの投げる球の軌道を確認したりすることができる。
【0083】
また、ユーザは、水平方向及び鉛直方向における動的オブジェクトの初期の配置位置を変更したい場合、ユーザ自身が移動することで、動的オブジェクトの表示位置を変更することができる。これは、検知部316によりユーザの移動を検知することで、動的オブジェクトを生成する際に用いられる三次元仮想空間内の視点位置を変更することが可能になる。
【0084】
調整部318は、実空間に重畳された動的オブジェクトの位置を調整する。つまり、調整部318は、三次元仮想空間内の基準位置を調整する。例えば、事前にユーザの身長データがアイウエア30に登録されている場合、この身長データに基づき、動的オブジェクトの足が地面の表面にくるように、鉛直方向における動的オブジェクトの基準位置が調整部318により調整される。
【0085】
受付部320は、ハードボタンや、ARを用いて表示されるボタンに対するユーザ操作を受け付ける。例えば、受付部320は、アイウエア300に、物理的又は仮想的に上ボタン、下ボタンが設けられる場合、このボタン操作を受け付ける。受付部320は、上ボタンが操作されていれば、上を示す信号を調整部318に通知し、下ボタンが操作されていれば、下を示す信号を調整部318に通知する。
【0086】
また、調整部318は、ユーザ操作に基づき、実空間に重畳された動的オブジェクトの鉛直方向及び/又は水平方向の位置を調整する。つまり、調整部318は、対応付け部312により対応付けられた三次元仮想空間における動的オブジェクトの鉛直方向及び/又は水平方向の基準位置を調整する。
【0087】
例えば、調整部318は、受付部320から上を示す信号を取得すると、実空間に重畳される動的オブジェクトが上にいくように、三次元仮想空間内の基準位置が鉛直方向における下に行くよう調整する。また、受付部320から下を示す信号を取得すると、実空間に重畳される動的オブジェクトが下にいくように、三次元仮想空間内の基準位置が鉛直方向における上に行くよう調整する。調整部318は、1回のボタンの押下に応じて、動的オブジェクトの移動量を決めておくとよい。これにより、ユーザは、重畳された動的オブジェクトの初期位置を容易に調整することができる。
【0088】
また、取得部310は、動的オブジェクト、及び三次元仮想空間内の静的オブジェクトを含む映像コンテンツを取得してもよい。この場合、表示制御部314は、対応付け部312により対応付けられた三次元仮想空間における映像コンテンツを、実空間に重畳して表示するよう制御する。例えば、表示制御部314は、動的オブジェクトだけではなく、フィールドや観客等についても実空間上に重畳して表示させることができる。これにより、撮像が行われた場所で、ユーザがARを視聴する場合、プレイヤの動きだけではなく、撮像がされた時のフィールド内又は外の雰囲気についても体験することができるようになる。
【0089】
以上の機能をコンテンツ配信システム1の各装置が有することで、撮像された移動物体について、その動きを含む移動物体を拡張現実世界に合成することができる。また、コンテンツ配信システム1は、上述した方法で生成されたコンテンツをユーザに提供することができる。
【0090】
<マッピング>
次に、三次元仮想空間と実空間とのマッピングについて説明する。
図9は、三次元仮想空間と実空間とのマッピングの一例を説明するための図である。
【0091】
図9(A)は、三次元仮想空間の座標系を示す。x1x2の軸は水平方向の横軸であり、y1y2の軸は水平方向の縦軸であり、z1z2方向は鉛直方向の軸である。座標a(xa,ya,za)は、プレイヤP1に対応する動的オブジェクトの初期の配置位置を示す。また、座標b(xb,yb,zb)は、動的オブジェクトのマッピングの際の基準位置を示す。基準位置は、ユーザが動的オブジェクトを実空間上で見るのに適した位置を示す。なお、座標bは、座標aに設定されていてもよく、ユーザごとに動的オブジェクトの初期の基準位置が設定されるようにしてもよい。
【0092】
図9(B)は、実空間の座標系を示す。X1X2の軸は水平方向の横軸であり、Y1Y2の軸は水平方向の縦軸であり、Z1Z2方向は鉛直方向の軸である。実空間においては、ユーザの頭H内の視点位置が原点(X0,Y0,Z0)となるように設定されている。
【0093】
このとき、ユーザが、アイウエア30に対してマッピングの操作を行った時、対応付け部312は、三次元仮想空間における座標bと、実空間における原点とを対応付ける。また、対応付け部312は、各空間の3つの軸についても対応付けておく。これにより、ARにおいて、ユーザは、座標bの位置から、プレイヤP1に対応する動的オブジェクトM1を見ることができる。
【0094】
<ARの表示例>
次に、上述したアイウエア30を用いてユーザが見ることができるARについて例を用いて説明する。
図10〜13を用いて、100mの世界記録保持者とユーザとを競争させる例について説明する。
【0095】
図10は、空き地の一例を示す図である。
図10に示す空き地は、アイウエア30を装着したユーザが、レンズ越しに見ることができる実空間の風景R10を示す。このとき、ユーザは、ARを見るため、アイウエア30に設けられた対応付けボタンを押したとする。
【0096】
受付部320は、このボタン押下を検知し、対応付け部312に対応付けの指示を出す。対応付け部312は、対応付けの指示に基づき、三次元仮想空間と実空間との対応付けを行う。このとき、
図9において説明したように、対応付け部312は、実空間におけるユーザの視点位置の座標(原点)が、三次元仮想空間における基準位置の座標bになるように対応付ける。対応付けが終わると、マッピング基準が表示制御部314に通知され、動的オブジェクトM1の初期状態が表示制御部314により表示される。
【0097】
図11は、動的オブジェクトM1の初期状態が表示された一例を示す図である。
図11に示す例では、動的オブジェクトM1の初期状態は、クラウチングスタートの状態とする。
図11に示す拡張現実AR10は、実空間の風景に初期状態の動的オブジェクトM1が重畳表示される。
【0098】
このとき、ユーザは、動的オブジェクトM1と同じレーンを走りたければ、ユーザがX1方向に移動し、動的オブジェクトM1をX2方向に移動させる。動的オブジェクトM1に対する初期の基準位置が決まると、ユーザは動作開始ボタンを押す。
【0099】
受付部320は、この動作開始ボタンの押下を検知し、表示制御部314に動作開始の指示を出す。表示制御部314は、動作開始の指示に基づき、三次元仮想空間上における動的オブジェクトM1の動作を開始する。なお、操作開始の指示については、センサ部37において所定の動きを検知したときに、動作開始指示を表示制御部314に通知し、表示制御部314は、動的オブジェクトM1の動作を開始してもよい。
【0100】
図12は、動的オブジェクトM1の動作開始直後が表示された一例を示す図である。
図12に示す拡張現実AR12は、実空間の風景に、動作開始直後の動的オブジェクトM1が重畳表示される。このとき、世界記録保持者とともにユーザ自身も走り始めるとする。この場合、ユーザの移動距離及び移動方向がセンサ部37により検知されて、表示制御部314は、マッピング基準にしたがって、実空間における移動距離及び移動方向を、三次元仮想空間の移動距離及び移動方向に変換し、三次元仮想空間におけるユーザの視点位置を変更する。
【0101】
図13は、動的オブジェクトM1の動作開始数秒後が表示された一例を示す図である。
図13に示す拡張現実AR14は、実空間の風景に、動作開始数秒後の動的オブジェクトM1が重畳表示される。
図13に示すように、ユーザと世界記録保持者との距離が、
図12に示す距離に比べて、より一層離されている。これにより、ユーザは、世界記録保持者の隣で走っている感覚を体験することができ、また、世界記録保持者のスピードを体験することができる。さらに、世界記録保持者を表す動的オブジェクトM1は、動作解析結果に基づく動作を行うため、本物と同様の走り方を再現することができる。
【0102】
図14は、他のARの表示例を示す図である。
図14に示す例では、或るサッカースタジアムで行われたサッカーの試合を、ユーザはアイウエア30を装着することで、同スタジアムで別の日に疑似観戦することができる。
【0103】
例えば、サーバ装置10は、サッカーの試合について、上述した仮想空間データを生成する。また、同スタジアムのスタンドには、所定区画ごとに位置情報が関連付けられており、サーバ装置10は、この位置情報に対応付けて、三次元仮想空間上に配置された同スタンドの同所定区画に位置する基準位置を保持しておく。アイウエア30は、位置情報を、所定区画ごと設けられた二次元バーコードやGPS等から取得し、この位置情報に対応する基準位置を取得する。これにより、ユーザの視点位置を三次元仮想空間上の同スタンドの同位置の基準位置に合わせることができる。
【0104】
次に、三次元仮想空間の軸と実空間の軸との対応付けについては、アイウエア30を装着したユーザにスタジアム内の所定位置を見させ、このときに対応付けボタンを押させることで対応付けを行ってもよい。また、スタンドの所定区画内にアイウエア30をセットする台が設けられ、ユーザは、アイウエア30をこの台にセットし、対応付けボタンを押すことで対応付けを行ってもよい。これにより、三次元仮想空間の軸と実空間の軸とを合わせることができ、マッピング基準を生成することができる。
【0105】
図14に示す例では、スタジアム内に誰もいない場合であっても、同スタジアムで行われた過去の試合内容を示す映像コンテンツAR20を表示することで、同試合が行われた時に現地で観戦していたかのような体験をユーザにさせることができる。また、映像コンテンツAR20は、ユーザが同スタジアムにいるため、サッカープレイヤの動的オブジェクトや、観客などの動的オブジェクトだけを含んでもよい。
【0106】
以上の
図11〜14に示す画像は、表示制御部314により表示制御されるARの一例である。また、その他のARの例としては、スキーの大回転などでトッププレイヤとユーザとを競争させたり、モータースポーツにおけるトップ選手のコーナーリングなどをユーザに体験させたりすることができる。
【0107】
<動作>
次に、実施形態におけるコンテンツ配信システム1の各装置の動作について説明する。まず、サーバ装置10におけるコンテンツ生成処理について説明する。
【0108】
≪コンテンツ生成処理≫
図15は、実施形態におけるコンテンツ生成処理の一例を示すフローチャートである。
図15に示すステップS102で、第1受信部104は、各撮像装置60から、1又は複数のプレイヤが動いている様子を撮像した各撮像データを受信する。各撮像装置60は、様々な角度から各プレイヤを撮像する。
【0109】
ステップS104で、動作解析部110は、第1受信部104から各撮像データを取得すると、少なくとも1のプレイヤの動きに対し、公知のモーションキャプチャ技術を用いて動作解析を行う。モーションキャプチャ技術は、マーカーレス方式が好ましい。
【0110】
ステップS106で、仮想空間生成部112は、第1受信部104から各撮像データを取得すると、各プレイヤやフィールドを示す仮想オブジェクトを含む三次元仮想空間を生成する。
【0111】
ステップS108で、コンテンツ生成部114は、三次元仮想空間及び動作解析の結果に基づいて、動作解析されたプレイヤの動きを再現する三次元仮想空間上の動的オブジェクトを生成する。また、コンテンツ生成部114は、複数の動的オブジェクトを含む全体の映像コンテンツを生成してもよい。
【0112】
ステップS110で、コンテンツ生成部114は、生成された動的オブジェクト及び/又は映像コンテンツを第1記憶部108に記憶する。
【0113】
これにより、ARにおいて、実空間への重畳対象である動的オブジェクトであって、動作解析技術を用いて動作を再現可能にした動的オブジェクトを生成することができる。
【0114】
≪コンテンツ表示処理≫
図16は、実施形態におけるコンテンツ表示処理の一例を示すフローチャートである。
図16に示す処理は、アイウエア30が、サーバ装置10から所望の動的オブジェクトを既に受信し、第2記憶部308に記憶していることを前提とする。
【0115】
図16に示すステップS202で、取得部310は、1又は複数のプレイヤの動きを含む各撮像データに基づき生成された三次元仮想空間における、少なくとも一のプレイヤの動作解析結果に基づく動的オブジェクトを取得する。取得部310は、例えば、第2記憶部308から、三次元仮想空間上で動作する動的オブジェクトを取得する。
【0116】
ステップS204で、対応付け部312は、ユーザの所定操作に基づいて、三次元仮想空間と、ユーザの視点に基づく実空間とを対応付ける。例えば、対応付け部312は、実空間におけるユーザの視点位置と、三次元仮想空間上の動的オブジェクトの基準位置とを対応付け、さらに、実空間の軸と、三次元仮想空間の軸とを対応付ける。
【0117】
ステップS206で、表示制御部314は、三次元仮想空間上における基準位置から見た動的オブジェクトの像を、実空間上に表示されるよう制御する(第1表示制御)。
【0118】
ステップS208で、受付部320は、調整操作があるか否かを判定する。例えば、受付部320は、上ボタン又は下ボタンがユーザにより押された場合に、この押下を検知し、調整操作ありと判定する。調整操作があれば(ステップS208−YES)、処理はステップS210に進み、調整操作がなければ(ステップS208−NO)、処理はステップS212に進む。
【0119】
ステップS210で、調整部318は、三次元仮想空間上における動的オブジェクトの基準位置を調整する。例えば、上ボタンが押下されれば、調整部318は、動的オブジェクトをZ1方向に所定距離移動させ、下ボタンが押下されれば、調整部318は、動的オブジェクトをZ2方向に所定距離移動させる。
【0120】
ステップS212で、受付部320は、開始操作があるか否かを判定する。例えば、受付部320は、動作開始ボタンが押された場合に、この押下を検知し、開始操作ありと判定する。開始操作があれば(ステップS212−YES)、処理はステップS214に進み、開始操作がなければ(ステップS212−NO)、処理はステップS216に進む。
【0121】
ステップS214に進み、表示制御部314は、仮想空間上における動的オブジェクトの動作を開始させる(第2表示制御)。これにより、ユーザは、実空間上に重畳される、三次元仮想空間上を動く動的オブジェクトを見ることができる。
【0122】
このとき、ユーザが移動する場合は、ユーザの視点位置が変更される。移動量については、センサ部37において検出可能である。表示制御部314は、センサ部37によるセンサ信号及びマッピング基準に基づいて、三次元仮想空間上における基準位置(ユーザの視点位置)を移動させ、移動後の基準位置から見える動的オブジェクトの動作を実空間上に重畳する。
【0123】
ステップS216で、AR制御部306は、終了指示があるか否かを判定する。例えば、AR制御部306は、終了ボタンの押下を検知したときに、終了指示ありと判定したり、動的オブジェクトの動作が終了してから所定時間後に、終了指示ありと判定したりする。終了指示があれば(ステップS216−YES)、コンテンツ表示処理は終了し、終了指示がなければ(ステップS216−NO)、処理はステップS214に戻る。これにより、ユーザは、ユーザ視点に基づく動的オブジェクトの動きに関する体験を行うことができる。
【0124】
なお、
図15〜16で説明した処理のフローに含まれる各処理ステップは、処理内容に矛盾が生じない範囲で、任意に順番を変更して又は並列に実行することができるとともに、各処理ステップ間に他のステップを追加してもよい。また、便宜上1ステップとして記載されているステップは、複数ステップに分けて実行することができる一方、便宜上複数ステップに分けて記載されているものは、1ステップとして把握することができる。
【0125】
以上より、実施形態におけるコンテンツ配信システム1によれば、ARにおいて、ユーザが、ユーザ視点に基づく動的オブジェクトの動きに関する体験を行うことができる。
【0126】
また、撮像されるイベントをスポーツにすることで、実施形態をスポーツ教育に用いることができる。例えば、子供たちに、有名選手と競技を競わせたり、有名選手との動きの差を体験させたりすることで、そのスポーツに対するプレイを向上させることが可能になる。
【0127】
また、上記実施形態において、第1のコンテンツ提供モデルとして、ユーザは、アイウエア30において視聴を可能にするプログラムを無償でダウンロードし、プログラムによるアプリケーションを用いて、視聴したい動的オブジェクトや映像コンテンツに課金することで、その動的オブジェクトや映像コンテンツをダウンロードすることができるようにしてもよい。
【0128】
また、上記実施形態において、上記モデルに限らず、第2のコンテンツ提供モデルとして、月額のリース契約により、所定のイベントに対する仮想空間データを提供することも考えられる。
【0129】
以上、本願の開示する技術の実施形態について説明したが、本願の開示する技術は、上記例に限定されるものではない。
【0130】
また、上述した実施形態において、コンテンツは、ライブ映像や、スポーツ映像を含み、スポーツ映像は、サッカーや陸上に限らず、野球、テニス、ボクシング等の試合でもよい。
【0131】
また、センサ部37は、ユーザ自身の動きを特定し、この動きを示す動き情報を記憶部32に記憶することで、この動き情報に基づいて、過去のユーザの動きをAR表示することができる。さらに、AR制御部306は、GPS等により取得した位置と、経過時間情報とを、動き情報とともに記憶部23に記憶しておくことで、例えば所定コースのランニングにおいて、ユーザは、AR表示される動的オブジェクト、及びユーザの過去の動きを含むオブジェクト(キャラクタ)と競争することができるようになる。
【0132】
なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。