IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社バスキュールの特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022132286
(43)【公開日】2022-09-08
(54)【発明の名称】仮想現実提供システム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20220901BHJP
   G06F 3/01 20060101ALI20220901BHJP
   A63F 13/65 20140101ALI20220901BHJP
   A63F 13/577 20140101ALI20220901BHJP
   A63F 13/57 20140101ALI20220901BHJP
   A63F 13/428 20140101ALI20220901BHJP
   A63F 13/25 20140101ALI20220901BHJP
   A63F 13/812 20140101ALI20220901BHJP
   A63F 13/86 20140101ALI20220901BHJP
   A63F 13/30 20140101ALI20220901BHJP
【FI】
G06T19/00 300B
G06F3/01 510
A63F13/65
A63F13/577
A63F13/57
A63F13/428
A63F13/25
A63F13/812 A
A63F13/86
A63F13/30
【審査請求】有
【請求項の数】1
【出願形態】OL
(21)【出願番号】P 2022099690
(22)【出願日】2022-06-21
(62)【分割の表示】P 2020069086の分割
【原出願日】2018-04-10
(31)【優先権主張番号】P 2017078385
(32)【優先日】2017-04-11
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】517127908
【氏名又は名称】株式会社バスキュール
(74)【代理人】
【識別番号】100201341
【弁理士】
【氏名又は名称】畠山 順一
(72)【発明者】
【氏名】桟 義雄
(72)【発明者】
【氏名】朴 正義
(57)【要約】
【課題】ユーザ自ら主役となれる新しい体験を得られる仮想現実提供システムを提供する。
【解決手段】仮想現実提供システムは、アスリートから放たれた飛体をトラッキングするセンサのセンサ情報から得られた飛体のトラッキングデータを取得するトラッキングデータ取得部と、取得したトラッキングデータを用いて、仮想空間に飛体に対応する仮想飛体の飛翔映像を表示するための3次元表示データを生成する3次元表示データ生成部と、3次元表示データを用いて、ユーザの位置姿勢に対応する仮想空間内の視点位置からの仮想飛体の飛翔映像を、仮想空間に表示する少なくとも一以上の仮想空間提供システムと、3次元表示データを、前記少なくとも1以上の仮想空間提供システムに送信する送信部と、を備える。
【選択図】図1
【特許請求の範囲】
【請求項1】
アスリートから放たれた飛体をトラッキングするセンサのセンサ情報から得られた前記飛体のトラッキングデータを取得するトラッキングデータ取得部と、
取得したトラッキングデータを用いて、仮想空間に前記飛体に対応する仮想飛体の飛翔映像を表示するための3次元表示データを生成する3次元表示データ生成部と、
前記3次元表示データを用いて、ユーザの位置姿勢に対応する仮想空間内の視点位置からの仮想飛体の飛翔映像を、仮想空間に表示する少なくとも一以上の仮想空間提供システムと、
前記3次元表示データを、前記少なくとも1以上の仮想空間提供システムに送信する送信部と、
を備える仮想現実提供システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は仮想現実提供システムに関する。
【背景技術】
【0002】
ユーザの頭部に装着され、眼前に配置されたディスプレイ等によってユーザに3次元仮想空間画像を提示可能なヘッドマウントディスプレイ(HMD)が知られている。このヘッドマウントディスプレイを利用した練習支援システムが、特許文献1に記載されている。
【0003】
特許文献1の練習支援システムは、練習者の頭部に装着され、練習者が扱う用具の仮想オブジェクトである仮想動作体を配置した仮想空間の3次元映像を提示する表示手段を有するHMDと、練習者の頭部の位置姿勢を検出する頭部位置検出手段と、用具に取り付けられる角速度検出手段と、角速度検出手段によって取得された角速度データに基づいて仮想動作体の軌道データを算出する演算手段と、軌道データを記憶する記憶手段と、軌道データに基づいて仮想空間内での仮想動作体の軌道映像を生成し、頭部位置検出手段によって検出された練習者の頭部の位置姿勢に対応する仮想空間内の視点位置からの軌道映像を表示手段に提示させる画像生成手段とを備える。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2016-47219号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
国内のプロ野球中継やJリーグ中継をはじめ、世界的なオリンピックやワールドカップ等、世界中の人々が家にいながらして、テレビやネットを通じたスポーツのライブ観戦を楽しんでいる。
【0006】
しかし、ライブの映像は観戦のためのものであり、その映像に登場するアスリートのパフォーマンスを体感できるものではない。
【0007】
そこで、本発明は、映像からアスリートのパフォーマンスを観戦するだけでなく、ユーザ自ら主役となれる新しい体験を得られる仮想現実提供システムを提供することにある。
【課題を解決するための手段】
【0008】
本発明の一態様は、アスリートから放たれた飛体をトラッキングするセンサのセンサ情報から得られた前記飛体のトラッキングデータを取得するトラッキングデータ取得部と、取得したトラッキングデータを用いて、仮想空間に前記飛体に対応する仮想飛体の飛翔映像を表示するための3次元表示データを生成する3次元表示データ生成部と、前記3次元表示データを用いて、ユーザの位置姿勢に対応する仮想空間内の視点位置からの仮想飛体の飛翔映像を、仮想空間に表示する少なくとも一以上の仮想空間提供システムと、前記3次元表示データを、前記少なくとも1以上の仮想空間提供システムに送信する送信部と、を備える仮想現実提供システムである。
【発明の効果】
【0009】
本発明によれば、映像からアスリートのパフォーマンスを観戦するだけでなく、ユーザ自ら主役となれる新しい体験を提供することができる。
【図面の簡単な説明】
【0010】
図1図1は第1の実施の形態における仮想現実提供システムの概略構成図である。
図2図2はトラッキングデータの各パラメータの座標系を示す図である。
図3図3は変化量を説明するための図である。
図4図4はトラッキングデータのデータ構成を説明するための図である。
図5図5はコンピュータシステムによって構成された3次元表示データ生成サーバ3のブロック図である。
図6図6は3次元表示データのデータ構成を説明するための図である。
図7図7はヘッドマウントディスプレイシステム5のブロック図である。
図8図8は表示部511に表示される3次元映像の一例を示す図である。
図9図9は第1の実施の形態におけるトラッキングシステム2からヘッドマウントディスプレイシステム55までの処理や情報の流れを示すシーケンス図である。
図10図10は第1の実施の形態の変形例における仮想現実提供システムの概略構成図である。
図11図11は、第1の実施の形態の変形例における放送設備7からヘッドマウントディスプレイシステム5までの処理や情報の流れを示すシーケンス図である。
図12図12は第2の実施の形態における仮想現実提供システムの概略構成図である。
図13図13はコンピュータシステムによって構成された配信データ生成サーバ10のブロック図である。
図14図14は第2の実施の形態におけるヘッドマウントディスプレイシステム5のブロック図である。
図15図15は第2の実施の形態におけるライブ映像生成部9からヘッドマウントディスプレイシステム5までの処理や情報の流れを示すシーケンス図である。
図16図16は第3の実施の形態におけるヘッドマウントディスプレイシステム5のブロック図である。
図17図17は仮想ボールと仮想バットが衝突した場合の映像の一例を示す図である。
図18図18は仮想ボールと仮想バットとの衝突後の仮想ボールの軌道映像の一例を示す図である。
図19図19は複数の異なる仮想用具体の一例を示す図である。
図20図20は第4の実施の形態における仮想現実提供システムの概略構成図である。
図21図21はコンピュータシステムによって構成された集計サーバ11のブロック図である。
図22図22は仮想飛体がボールであり、仮想用具体がバットである場合の統計結果の画像の一例である。
図23図23はライブ映像と統計画像とが合成された映像の一例を示す図である。
図24図24は第5の実施の形態における仮想現実提供システムの概略構成図である。
【発明を実施するための形態】
【0011】
(第1の実施の形態)
第1の実施の形態における仮想現実提供システムを、図面を参照しつつ説明する。図1は、第1の実施の形態における仮想現実提供システムの概略構成図である。
【0012】
図1中、1はスタジアム等で試合を行っている現実のアスリート(実アスリート)であり、2はトラッキングシステムであり、3は3次元(3D)表示データ生成サーバであり、4は同報送信システムであり、5はヘッドマウントディスプレイシステム(仮想空間提供システム)であり、6はカメラであり、7は放送設備であり、8はテレビである。
【0013】
尚、以下の実施の形態の説明では、仮想空間提供システムの例として、ヘッドマウントディスプレイシステムを例にして説明する。しかし、仮想空間提供システムは、ヘッドマウントディスプレイシステムに限られず、ユーザに3次元仮想空間を提示できるものであれば良い。例えば、左眼用と右眼用の映像を同時に撮影したものなどをスクリーンに表示し、ユーザが直線偏光フィルター方式や液晶シャッター方式等の眼鏡を装着して視聴することにより、仮想空間をユーザに提供するようなシステムであっても良い。
【0014】
アスリート1は、プロ野球の試合のように、テレビ放送などによりライブ中継される状況下で、試合を行っているアスリートである。野球の試合は、カメラ6により撮影され、その試合の映像は放送設備7により放送され、テレビ8により視聴される。尚、本実施の形態では、野球の試合を例にするが、野球に限らず、テニス、卓球、ゴルフ、サッカー、格闘技(ボクシング、フェンシング)等でも良い。
【0015】
トラッキングシステム2は、アスリート1や、アスリート1から放たれる飛体を追尾してデータ化するシステムである。ここで、飛体とは、アスリート1から投げられたり、蹴られたりして飛球するボールが代表的な例であるが、これに限られない。アスリート1の体の一部(例えば、ボクシングのパンチ)や、アスリート1が身に着けている用具(例えば、フェンシングの剣)でも良い。
【0016】
トラッキングシステム2は、レーダ、カメラ等のセンサ21と、センサ21から得られたデータから、ピッチ上のアスリート1、ボール、審判のトラッキングデータを生成するトラッキングデータ生成部22とを備える。このような、トラッキングシステム2の代表的な例として、TrackManや、PITCHf/x等のシステムが提供されている。尚、本実施の形態では、ピッチ上の全ての動体(アスリート1、審判等)のトラッキングデータは必要なく、トラッキングシステム2は、少なくもアスリート1から放たれる飛体(例えば、ボール)のトラッキングデータが生成できれば良い。
【0017】
投手が投げるボールをトラッキングする場合、本実施の形態におけるトラッキングデータ生成部22が生成するトラッキングデータの一例として、以下のパラメータがある。各パラメータの座標系は、図2に示す通り、ホームベースの所定位置を原点とし、捕手方向から投手方向を正面とし、捕手右方向をX方向(X軸)、捕手方向から投手方向をY方向(Y軸)とし、高さ方向をZ方向(Z軸)とする座標系である。
【0018】
(1)投手からボールが離れるリリースポイントの座標(リリースポイント座標)
(2)球速(初速)
(3)ホームベース上の所定の通過点の座標(実着弾点座標)
(4)リリースポイント付近から、ホームベース付近までの縦方向(Z方向)及び横方向(X方向)の変化量
ここで、変化量は、図3に示すように、リリース時のベクトルは同じだが、無回転で、まったく変化しないボールのホームベース上の仮着弾点座標と、実際に投げられたボールの着弾点座標との縦方向及び横方向のそれぞれの差分である。
【0019】
尚、トラッキングデータは、アスリート1、ボール等の動きを表す形式であれば、種類は問わない。また、トラッキングシステム2は、トラッキングデータを取得した取得時刻を、例えば、図4に示すように、トラッキングデータに含めておくことが好ましい。
【0020】
3次元(3D)表示データ生成サーバ3は、ヘッドマウントディスプレイシステム5において、ボール等の飛体が仮想空間上の映像化された仮想飛体、実アスリート1が仮想空間上の映像化された仮想動体を表示するための3次元表示データ(3次元座標データ)を、トラッキングデータから生成するものである。
【0021】
3次元表示データ生成サーバ3は、トラッキングデータ取得部31と、3次元表示データ生成部32とを備える。トラッキングデータ取得部31は、トラッキングシステム2から提供されるトラッキングデータを取得する。3次元表示データ生成部32は、ヘッドマウントディスプレイシステム5に、仮想のボール等の仮想飛体、仮想のアスリート1等の仮想動作体を表示するための3次元表示データを、トラッキングデータから生成する。尚、かならずしも、実アスリート1の仮想動体を表示するための3次元表示データは必要ではなく、少なくとも仮想飛体を表示するための3次元表示データが生成できれば良い。
【0022】
3次元表示データ生成サーバ3は、具体的には、各種の演算処理等を行うプロセッサを有するコンピュータシステム(情報処理装置)によって実現することができる。図5はコンピュータシステムによって構成された3次元表示データ生成サーバ3のブロック図である。
【0023】
3次元表示データ生成サーバ3は、プロセッサ300、メモリ(ROMやRAM)301、記憶装置(ハードディスク、半導体ディスクなど)302、入力装置(キーボード、マウス、タッチパネルなど)303、表示装置304、通信装置305などのハードウェア資源を有する汎用のコンピュータにより構成することができる。
【0024】
3次元表示データ生成サーバ3は、記憶装置302に格納されたプログラムがメモリ301にロードされ、プロセッサ300により実行されることにより、トラッキングデータ取得処理と、3次元表示データ生成処理が実現されるものである。尚、トラッキングデータ取得処理はトラッキングデータ取得部31に対応し、3次元表示データ生成処理は3次元表示データ生成部32に対応する。
【0025】
トラッキングデータ取得処理は、トラッキングシステム2から提供されるトラッキングデータを取得する処理である。
【0026】
3次元表示データ生成処理は、ヘッドマウントディスプレイシステム5に、仮想飛体(本例では仮想ボール)、仮想のアスリート等の仮想動作体(本例では仮想アスリート)を表示するための3次元表示データを、トラッキングデータから生成する。具体的には、トラッキングデータが、投球の変化量や打球角度、フィールド上のアスリート、打球、送球の動きに関するデータである場合、これらのデータを、ヘッドマウントディスプレイシステム5が仮想ボールや仮想アスリートを表示するために必要な3次元表示データに変換する処理である。
【0027】
ここで、3次元表示データは、トラッキングデータを、ヘッドマウントディスプレイシステム5が処理可能なデータ形式に変換したデータも含む概念である。従って、3次元表示データ生成処理は、トラッキングデータを、ヘッドマウントディスプレイシステム5が処理可能なデータ形式に変換するだけの処理でも良いし、トラッキングデータから仮想飛体等の軌道データまでを生成する処理でも良い。
【0028】
次に、仮想飛体が投手から投げられたボールである場合、ヘッドマウントディスプレイシステム5が、実ボールのトラッキングデータから、その実ボールに対応する仮想ボール(仮想飛体)を再現表示するに必要な3次元表示データの生成の一例を説明する。
【0029】
ヘッドマウントディスプレイシステム5が仮想ボール(仮想飛体)の飛翔映像を再現表示するためには、以下の4つの要素が定まっていれば、仮想ボール(仮想飛体)の飛翔映像を再現表示できる。
【0030】
(1)リリースポイント座標
リリースポイント座標は、トラッキングデータから取得できる。尚、リリースポイント座標は、ヘッドマウントディスプレイシステム5に表示される投手の仮想動体の投球モーションに合わせるので、厳密な座標値でなくても良い。
【0031】
(2)ヘッドマウントディスプレイシステム5の表示フレーム毎に加算される加速度(ボールの曲がる力)
加速度は、トラッキングデータから取得した変化量を、ヘッドマウントディスプレイシステム5の表示フレームレートで除算することにより得ることが出来る。
【0032】
(3)ボールへの空気抵抗
ボールへの空気抵抗は、初速に対して終速(実着弾点座標付記の速度)が90%-92%となるように設定する。
【0033】
(4)初速ベクトル
初速ベクトルのうち、投手からホームベースのY方向のベクトルは、トラッキングデータから取得した初速から求めることができる。しかし、投手からみて、X方向及びZ方向のベクトルは、トラッキングデータから取得できない。一方、初速ベクトルのうち、X方向及びZ方向のベクトルなくても、実着弾点は異なるが、まったく同じスピード、変化量の投球をシミュレートできる。そこで、初速ベクトルのX方向及びZ方向のベクトルの値を少しずつ変更しながら、ボールの着弾点が本来の実着弾点に近づくようにする。ボールの着弾点が実着弾点に最も近い時のX方向及びZ方向のベクトルを、X方向及びZ方向のベクトルとして採用する。
【0034】
3次元表示データ生成処理は、これらの4つの要素を、3次元表示データとして生成する。
【0035】
また、3次元表示データ生成処理において、例えば、図6に示すように、放送設備7により放送されるアスリート1の試合の映像の所定映像区間に同期して、ヘッドマウントディスプレイシステム5が仮想ボール(仮想飛体)の飛翔映像を表示するタイミングに関するタイミンク情報を、生成した3次元表示データに含めておく。
【0036】
タイミング情報は、所定映像区間の時間がわかるものであれば種類は問わないが、時刻情報や、アスリート1の試合の映像のタイムコード等がある。また、所定映像区間とは、例えば、解説者が仮想ボール(仮想飛体)の飛翔映像の体験をできる旨の告知している区間や、放送映像上に仮想ボール(仮想飛体)の飛翔映像の体験をできる旨の告知を表示している区間等があるが、これに限られない。また、映像区間は、ラジオ放送のような音声だけも含む概念である。尚、所定映像区間の取得は、3次元表示データ生成サーバ3が予め定められた映像区間を記憶しておいても良いし、適時、放送設備7から受け取っても良い。
【0037】
このようなタイミング情報を用いれば、例えば、A投手が決め球を投げたシーン(映像区間)の後に、A投手の決め球を体験できる旨の告知を表示している映像区間中に、A投手が投げた決め球の仮想ボール(仮想飛体)の飛翔映像を、ヘッドマウントディスプレイシステム5で再現できる。このようにすることにより、テレビ中継等との連携を行うことができる。
【0038】
尚、タイミング情報は、アスリート1が実際に放った飛体のトラッキングデータを特定する必要がある。このトラッキングデータの特定は、トラッキングデータに含まれているトラッキングデータの取得時刻を用いることにより可能である。
【0039】
また、他の方法として、図6に示すように、タイミング情報の代わりに、3次元表示データに、3次元表示データを一意に識別できる3次元表示データ識別情報を含めて、ヘッドマウントディスプレイシステム5に送信するようにしても良い。ここで、3次元表示データ識別情報は、各々の3次元表示データを個別に識別できるものであれば良く、上述したトラッキングデータの取得時刻や、3次元表示データを一意に識別する識別子等がある。
【0040】
3次元表示データに3次元表示データ識別情報を含める場合には、3次元表示データ識別情報を含む3次元表示データを配信後、仮想ボール(仮想飛体)の飛翔映像をヘッドマウントディスプレイシステム5に表示するタイミングで、3次元表示データ生成サーバ3、又は、同報送信システム4から、仮想現実を実行する際に用いられる3次元表示データを識別する3次元表示データ識別情報を含む実行情報を送信するようにする。ヘッドマウントディスプレイシステム5では、実行情報を受信し、その中に含まれる3次元表示データ識別情報で特定される3次元表示データを用いて、仮想ボール(仮想飛体)の飛翔映像をヘッドマウントディスプレイシステム5に表示する。
【0041】
このようにすることにより、3次元表示データにタイミング情報を含める場合と同様に、テレビ中継等との連携を行うことができる。
【0042】
3次元表示データは、同報送信システム4を介して、少なくとも1以上のヘッドマウントディスプレイシステム5に送信される。
【0043】
更に、3次元表示データ生成サーバ3は、3次元表示データの生成のみならず、試合のテレビ映像のうち音声のみを取得し、3次元表示データともに送信するようにしても良い。このとき、上述したトラッキングデータの取得時刻と、音声データとが同期するように、音声データにも時刻情報を付与しておく。このようにすれば、後述するように、ヘッドマウントディスプレイシステム5において、仮想空間の映像が表示される際、スタジアムで実際に発せられた生の音声が出力され、より臨場感のある仮想空間を実現することができる。
【0044】
3次元表示データ生成サーバ3は、一台のコンピュータにより構成してもよいし、複数台のコンピュータによる分散コンピューティングにより構成してもよい。また、処理の高速化のため、3次元表示データ生成サーバ3の機能の一部または全部を専用のハードウェア(例えばGPUやFPGA、ASICなど)を用いて実現することも可能である。
【0045】
同報送信システム4は、ネットワークに接続される複数のヘッドマウントディスプレイシステム5に、3次元表示データを同報送信するシステムである。同報送信システム4の例としては、コンテンツデリバリネットワーク(Content Delivery Network: CDN)がある。
【0046】
同報送信システム4は、好ましくは、先に述べた試合のテレビ放送の映像中継と同期したリアルタイム性を持って、3次元表示データを同報送信する。実現方法のひとつとしては、3次元表示データに含まれているトラッキングデータの取得時刻と、テレビ映像側のタイムコードとを参照することにより、テレビ映像に追従した状態で、3次元表示データを同報送信することができる。
【0047】
ヘッドマウントディスプレイ(頭部装着ディスプレイ: Head Mounted Display、HMD)システム5は、装着したユーザに対して奥行きを持った3次元映像を表示することが可能な表示部を有するものである。そして、後述する演算処理や画像生成処理によって生成される各種の仮想オブジェクト等が配置された仮想空間の3次元映像を表示部に表示できるように構成されている。ヘッドマウントディスプレイは、ユーザの頭部に装着されることにより、ユーザの両眼を覆うように表示部が配置される。表示部は、視差のある画像を左右の画像表示面にそれぞれ表示することによって3次元映像がユーザに対して表示される。これにより、ヘッドマウントディスプレイを頭部に装着したユーザは、現実に近い感覚を仮想空間内の3次元映像として体験することができる。
【0048】
図7は、ヘッドマウントディスプレイシステム5のブロック図である。
【0049】
ヘッドマウントディスプレイシステム5は、ヘッドマウントディスプレイ51と、コンピュータ52とを備える。
【0050】
ヘッドマウントディスプレイ51は、仮想空間の映像が表示される表示部511と、頭部位置検出センサ512と、スピーカ513とを備える。
【0051】
頭部位置検出センサ512は、ユーザの頭部の絶対座標系におけるユーザの頭部の位置及び姿勢を検出し、その検出信号をコンピュータ52へと出力するように構成されている。頭部位置検出センサ512は、ヘッドマウントディスプレイ51と一体として設けられているので、ヘッドマウントディスプレイ51がユーザの頭部に装着されることによって、ユーザの頭部の動きを追跡して位置及び姿勢を検出することができる。そして、その検出結果を、ヘッドマウントディスプレイ51の表示部511が表示する仮想空間の3次元映像にフィードバックすることにより、ユーザの頭部の動きに応じた視点位置から見た3次元映像を提示することができる。
【0052】
スピーカ513は、ユーザに対して音声を出力するものであって、例えば、仮想空間内の状況に応じた音声をユーザに出力する。尚、ユーザに音声を伝える手段は、スピーカ513に限定されるものではなく、例えば、イヤホーン等の他の音声出力手段であっても良い。
【0053】
このような機能を備えるヘッドマウントディスプレイ51としては、例えば、エイチティーシー(HTC) Viveや、Oculus VR社のOculus Rift等がある。尚、頭部位置検出センサ512は、ヘッドマウントディスプレイ51とは別に設けて、ユーザの頭部に装着するように構成しても良い。
【0054】
コンピュータ52は、ヘッドマウントディスプレイ51の表示部511に表示する映像等の生成や各種の演算処理等を行うためのものである。コンピュータ52は、プロセッサ520、メモリ(ROMやRAM)521、記憶装置(ハードディスク、半導体ディスクなど)522、入力装置(キーボード、マウス、タッチパネルなど)523、表示装置524、通信装置525などのハードウェア資源を有する汎用のコンピュータにより構成することができる。
【0055】
記憶装置522には、ヘッドマウントディスプレイ51の表示部511に表示する映像等の生成や各種の演算処理等を行うための処理プログラム等が格納されている。更に、アスリート1の仮想空間内での仮想アスリート(仮想動体)、仮想アスリートから放たれる仮想ボール(仮想飛体)、背景となる仮想ホームベース等を、プロセッサ520によって生成するための各種のオブジェクトデータが格納されている。
【0056】
そして、記憶装置522に格納されたプログラム、オブジェクトデータ、受信した3次元表示データがメモリ521にロードされ、プロセッサ520が、プログラムに基づいて、ヘッドマウントディスプレイ51の表示部511表示する仮想空間の映像等の生成を行う。
【0057】
プロセッサ520は、プログラムに基づいて、画像生成処理を行う。画像生成処理は、公知のコンピュータグラフィックス技術により、仮想アスリート(仮想動体)から放たれる仮想ボール(仮想飛体)の3次元表示データと、頭部位置検出センサ512が検出したユーザの頭部の位置及び姿勢と、仮想アスリート(仮想動体)及び仮想ボール(仮想飛体)等の各種のオブジェクトデータとを用いて、仮想アスリートの動作及び仮想ボールの飛翔映像の3次元映像を順次生成して、表示部511に表示する。このとき、3次元表示データにタイミング情報が含まれている場合には、画像生成処理は、タイミング情報に含まれている時刻情報や映像のタイムコードにより表示可能期間を特定し、その期間のみ、仮想ボールの飛翔映像等の3次元映像を表示する。
【0058】
例えば、A投手の決め球を体験できる旨の告知を表示している放送映像区間中に、仮想動体である投手の投球動作をオブジェクトデータから表示部511に表示し、仮想動体である投手から投げられる仮想ボール(仮想飛体)の飛翔映像を、リリースポイント座標、加速度(ボールの曲がる力)、ボールへの空気抵抗、初速ベクトルを含む3次元表示データを用いて、表示部511に表示する。図8は表示部511に表示される3次元映像の一例を示す図である。図8に示す3次元映像では、ユーザの位置姿勢に対応する仮想空間内の視点位置から見た仮想投手、仮想ボールの飛翔映像、仮想のスタジアム等が表示されている。
【0059】
また、3次元表示データに3次元表示データ識別情報が含まれており、配信される実行情報により、仮想ボールの飛翔映像等の3次元映像を表示する場合、実行情報の受信に応答して、実行情報に含まれる3次元表示データ識別情報で特定される3次元表示データを用いて、仮想ボールの飛翔映像等の3次元映像を表示する処理を開始する。
【0060】
上述したヘッドマウントディスプレイシステム5は、一例であり、これに限られない。例えば、ヘッドマウントディスプレイには、コンピュータグラフィックス等で作り出される仮想空間のみが表示されるVirtual Reality(VR)型のヘッドマウントディスプレイと、現実空間(例えば、光学的に透過されて表示される現実空間)と仮想空間とがリアルタイムで表示されるMixed Reality(MR)型のヘッドマウントディスプレイがあるが、本発明は、いずれのヘッドマウントディスプレイにも適用することができる。尚、MR型のヘッドマウントディスプレイには、例えば、Microsoft社のHoloLensがある。
【0061】
また、上述したヘッドマウントディスプレイシステム5では、ヘッドマウントディスプレイ51とコンピュータ52とが物理的に別の筐体で構成される例を説明したが、これに限られない。ヘッドマウントディスプレイ51とコンピュータ52とが一体となって、ヘッドマウントディスプレイシステム5が構成されても良い。ヘッドマウントディスプレイ51とコンピュータ52とが一体となったヘッドマウントディスプレイシステム5の例には、上述したMicrosoft社のHoloLensがある。
【0062】
更に、ヘッドマウントディスプレイシステム5は専用のヘッドマウントディスプレイシステムでなくても良い。例えば、ゴーグル型のヘッドセットにスマートフォンを装着して使用すれば、ヘッドマウントディスプレイと同様な機能を実現することができる。このような例としては、Samsung社のGalaxy Gear VR等がある。
【0063】
次に、本実施の形態の動作を説明する。図9は、第1の実施の形態におけるトラッキングシステム2からヘッドマウントディスプレイシステム5までの処理や情報の流れを示すシーケンス図である。
【0064】
まず、トラッキングシステム2は、中継されている試合のピッチ上のアスリート1(投手)から投げられるボールをリアルタイムに、レーダ、カメラ等でセンシングする。尚、ピッチ上のアスリート1、審判等も、リアルタイムに、レーダ、カメラ等でセンシングしても良い(Step1)。センシングしたデータから少なくとも、アスリート1(投手)から投げられるボールのトラッキングデータを生成する。尚、ピッチ上のアスリート1、審判等のトラッキングデータも生成しても良い(Step2)。このとき、トラッキングデータの時刻情報も取得する。そして、時刻情報を含むトラッキングデータは、3次元表示データ生成サーバ3に送信される。
【0065】
3次元表示データ生成サーバ3は、トラッキングデータを取得する(Step3)。3次元表示データ生成サーバ3は、取得したトラッキングデータに基づいて、ヘッドマウントディスプレイシステム5に仮想ボールの飛翔映像を表示するための3次元表示データを生成する。仮想アスリートを表示するための3次元表示データも生成しても良い(Step4)。このとき、トラッキングデータの取得時刻に用いて、仮想ボールの飛翔映像を表示するタイミング情報を3次元表示データに含めておく。更に、トラッキングデータの取得時刻を、生成した3次元表示データに含めておいても良い。そして、3次元表示データを、同報送信システム4に送信する。
【0066】
同報送信システム4は、受信した3次元表示データを、ネットワークに接続される複数のヘッドマウントディスプレイシステム5に同報送信する(Step5)。3次元表示データの同報送信は、3次元表示データにトラッキングデータの取得時刻が含まれている場合、テレビ中継される映像のタイムコードの情報に近い順に行う。このようにすることにより、試合のテレビ中継に追従した形で3次元表示データを同報送信することができ、リアルタイム性をある程度保つことができる。
【0067】
ヘッドマウントディスプレイシステム5は、3次元表示データを受信する(Step6)。
【0068】
ヘッドマウントディスプレイシステム5は、3次元表示データにタイミング情報が含まれている場合には、タイミング情報に含まれている時刻情報や映像のタイムコードにより表示可能期間を特定し、その期間に、装着しているユーザの頭部の動きに応じた視点位置から見た仮想ボールの3次元映像(飛翔映像)を表示する(Step7)。また、ヘッドマウントディスプレイシステム5は、3次元表示データに3次元表示データ識別情報が含まれている場合には、3次元表示データ識別情報を含んだ実行情報を受信したタイミングで、装着しているユーザの頭部の動きに応じた視点位置から見た仮想ボールの3次元映像(飛翔映像)を表示する(Step7)。このとき、仮想ボールを投げる仮想投手(仮想アスリート)は、ヘッドマウントディスプレイシステム5に予め格納されている仮想投手のオブジェクトデータを用いても表示しても良いし、3次元表示データに実投手の表示データが格納されている場合には、それを用いて仮想投手を表示するようにしても良い。
【0069】
第1の実施の形態は、配信されるスポーツ等の試合の映像等とある程度の同期性を保ちつつ、アスリート、ボール等の動きの情報を、ヘッドマウントディスプレイシステムに同報送信する。これにより、ユーザは、映像からアスリートのパフォーマンスを観戦するだけでなく、ヘッドマウントディスプレイシステムを用いることにより、ユーザの自由な視点で、アスリートのパフォーマンスを体験することができる。
【0070】
尚、かならずしも全てのトラッキングデータの3次元表示データを生成して送る必要はない。体感できる場面は限られるが、限られたアスリート(例えば、投手のみ)や飛体(例えば、投手から投げられたボールのみ)の3次元表示データのみ生成して同報送信するようにしても良い。同様に、試合の全時間を通してトラッキングデータの3次元表示データを生成して送る必要はない。試合の一部の時間のトラッキングデータの3次元表示データを生成し、その時間だけ、3次元表示データを生成して同報送信するようにしても良い。
【0071】
(第1の実施の形態の変形例)
第1の実施の形態の変形例を説明する。第1の実施の形態の変形例は、3次元表示データを送信する手段として、ハイブリッドキャストを用いる例を説明する。図10は第1の実施の形態の変形例における仮想現実提供システムの概略構成図である。
【0072】
ヘッドマウントディスプレイシステム5及びテレビ8がハイブリッドキャスト規格に対応している場合、ヘッドマウントディスプレイシステム5は、ハイブリッドキャスト規格でテレビ8に接続しておく。放送番組がハイブリッドキャストを用いた番組連動型の放送である場合、同報送信システム4はハイブリッドキャストサーバとして機能する。そして、放送局から指定される指定タイミングに先立ち、同報送信システム4は、3次元表示データ生成サーバ3から取得した仮想飛体(仮想ボール)等の3次元表示データに、3次元表示データを一意に識別できる3次元表示データ識別情報を含めて、ヘッドマウントディスプレイシステム5に送信する。ここで、3次元表示データ識別情報は、各々の3次元表示データを個別に識別できるものであれば良く、上述したトラッキングデータの取得時刻や、3次元表示データを個別に識別する識別子がある。
【0073】
放送設備7は、ヘッドマウントディスプレイシステム5において仮想現実を実行するタイミングで、仮想現実を実行する際に用いられる3次元表示データを識別する3次元表示データ識別情報が格納されたイベントメッセージを放送する。ここで、3次元表示データ識別情報は、例えば、上述したトラッキングデータの取得時刻や、3次元表示データを個別に識別する識別子である。
【0074】
テレビ8では、放送設備7から放送されたイベントメッセージを検出して解析し、そのイベントメッセージに格納されている3次元表示データ識別情報を、ヘッドマウントディスプレイシステム5に送信する。ヘッドマウントディスプレイシステム5の画像生成処理部520は、受信している3次元表示データのうち、テレビ8から送信された3次元表示データ識別情報を持つ3次元表示データを用いて、上述した第1の実施の形態と同様に、仮想アスリートの動作及び仮想ボールの飛翔映像の3次元映像を順次生成して、表示部511に表示する。
【0075】
次に、第1の実施の形態の変形例の動作を説明する。図11は、第1の実施の形態の変形例における放送設備7からヘッドマウントディスプレイシステム5までの処理や情報の流れを示すシーケンス図である。
【0076】
まず、放送設備7は、中継されている試合のライブ映像を放送する(Step1)。
【0077】
テレビ8では、放送波を受信し、ライブ映像を表示する(Step2)。
【0078】
一方、トラッキングシステム2は、中継されている試合のピッチ上のピッチ上のアスリート1(投手)から投げられるボールをリアルタイムに、レーダ、カメラ等でセンシングする。尚、ピッチ上のアスリート1、審判等も、リアルタイムに、レーダ、カメラ等でセンシングしても良い(Step3)。センシングしたデータから少なくとも、アスリート1(投手)から投げられるボールのトラッキングデータを生成する。尚、ピッチ上のアスリート1、審判等のトラッキングデータも生成しても良い(Step4)。そして、トラッキングデータは、3次元表示データ生成サーバ3に送信される。
【0079】
3次元表示データ生成サーバ3は、トラッキングデータを取得する(Step5)。3次元表示データ生成サーバ3は、取得したトラッキングデータに基づいて、ヘッドマウントディスプレイシステム5に仮想ボールの飛翔映像を表示するための3次元表示データを生成する(Step6)。尚、仮想アスリートを表示するための3次元表示データも生成しても良い(Step4)。このとき、3次元表示データを識別する3次元表示データ識別子を、生成した3次元表示データに含めておく。そして、3次元表示データを、同報送信システム4に送信する。尚、ここで用いられる3次元表示データ識別子は、予め放送設備7との間で、共有されている3次元表示データ識別子である。
【0080】
同報送信システム4は、受信した3次元表示データを、ハイブリットキャストを利用してヘッドマウントディスプレイシステム5に送信する(Step7)。
【0081】
ヘッドマウントディスプレイシステム5は、3次元表示データを受信する(Step8)。
【0082】
放送設備7は、ヘッドマウントディスプレイシステム5において仮想現実を実行するタイミングで、3次元表示データ識別子が格納されたイベントメッセージを放送する(Step9)。
【0083】
テレビ8は、放送設備7から放送されたイベントメッセージを検出し、そのイベントメッセージを解析し、3次元表示データ識別子をヘッドマウントディスプレイシステム5に送信する(Step10)。
【0084】
ヘッドマウントディスプレイシステム5は、テレビ8から受信した3次元表示データ識別子と、受信している3次元表示データの3次元表示データ識別子とを照合する(Step11)。そして、テレビ8から受信した3次元表示データ識別子を持つ3次元表示データを用いて、装着しているユーザの頭部の動きに応じた視点位置から見た仮想ボールの3次元映像(飛翔映像)を表示する(Step12)。このとき、仮想ボールを投げるか仮想投手(仮想アスリート)は、ヘッドマウントディスプレイシステム5に予め格納されている仮想投手のオブジェクトデータを用いても表示しても良いし、3次元表示データに実投手の表示データが格納されている場合には、それを用いて仮想投手を表示するようにしても良い。
【0085】
尚、第1の実施の形態と同様に、かならずしも全てのトラッキングデータの3次元表示データを生成して送る必要はない。体感できる場面は限られるが、限られたアスリート(例えば、投手のみ)や飛体(例えば、投手から投げられたボールのみ)の3次元表示データのみ生成して同報送信するようにしても良い。同様に、試合の全時間を通してトラッキングデータの3次元表示データを生成して送る必要はない。放送局側で、予め定めた選手、試合の一部の時間のトラッキングデータの3次元表示データを生成し、その選手や時間だけ、3次元表示データを生成して同報送信し、放送局側はそれ対応した3次元表示データ識別情報を含むイベントメッセージを放送するようにしても良い。
【0086】
このような構成にすることにより、番組連動型のサービスとして、放送局側からヘッドマウントディスプレイシステム5に仮想現実を実行するタイミングを指定することができ、放送されるスポーツ等の試合の番組映像と連動した仮想現実をヘッドマウントディスプレイシステム5で提供することができる。
【0087】
(第2の実施の形態)
第2の実施の形態は、コンテンツデリバリネットワーク(content delivery network、CDN)等を用いて、ライブ配信される試合の映像とともに、トラッキングデータの3次元表示データを送信する例を説明する。図12は第2の実施の形態における仮想現実提供システムの概略構成図である。
【0088】
第2の実施の形態では、第1の実施の形態と比較して、カメラ6により撮影された野球の試合の映像は、テレビ放送ではなく、コンテンツデリバリネットワークシステムにより、タブレットやスマートフォン等の端末に同報送信される。第2の実施の形態では、3次元表示データを、送信される試合の映像データとともに送信する点が第1の実施の形態と異なる。
【0089】
第2の実施の形態では、試合のライブ映像の映像データを生成するライブ映像生成部9と、3次元表示データを、試合のライブ映像の映像データに含めて配信データを生成する配信データ生成サーバ10とが設けられる。尚、第1の実施の形態と同様な構成のものについては、同じ符号を付する。
【0090】
配信データ生成サーバ10は、具体的には、各種の演算処理等を行うプロセッサを有するコンピュータシステムによって実現することができる。図13はコンピュータシステムによって構成された配信データ生成サーバ10のブロック図である。
【0091】
配信データ生成サーバ10は、プロセッサ100、メモリ(ROMやRAM)101、記憶装置(ハードディスク、半導体ディスクなど)102、入力装置(キーボード、マウス、タッチパネルなど)103、表示装置104、通信装置105などのハードウェア資源を有する汎用のコンピュータにより構成することができる。
【0092】
配信データ生成サーバ10は、記憶装置102に格納されたプログラムがメモリ101にロードされ、プロセッサ100により実行されることにより、配信データ生成処理が実現されるものである。
【0093】
プロセッサ100は、ライブの映像データと3次元表示データとを受信する受信処理と、配信データを生成する配信データ生成処理を行う。
【0094】
配信データ生成処理は、ライブの映像データと3次元表示データとを、ヘッドマウントディスプレイシステム5側で分離できる形式で配信データを生成する。例えば、映像データのパケットのヘッダに、映像データであることを識別する識別子を付与し、3次元表示データのパケットのヘッダに、3次元表示データであることを識別する識別子を付与して、配信データを生成する。ヘッドマウントディスプレイシステム5側では、その識別子により、映像データと3次元表示データとを分離することができる。また、映像データの各パケットのペイロードのうち、映像データ以外のデータを含めることができるフィールドがある場合には、そのフィールドに、3次元表示データを識別できる形式で挿入するようにしても良い。
【0095】
更に、配信データ生成処理は、映像データのタイムコードと3次元表示データに含まれているトラッキングデータの取得時刻とを参照し、互いにデータが同期するように、配信データを生成する。例えば、映像データの各パケットのペイロードのうち、映像データ以外のデータを含めることができるフィールドがある場合には、そのパケットのタイムコードと同一のトラッキングデータの取得時刻を持つ3次元表示データをそのフィールドに挿入する。この例はあくまで一例であり、他の方法でも良い。
【0096】
配信データ生成サーバ10は、生成した配信データを、同報送信システム4に送信する。
【0097】
同報送信システム4は、ヘッドマウントディスプレイシステム5及び映像を鑑賞するタブレットやスマートフォンに同報送信する。
【0098】
図14は第2の実施の形態におけるヘッドマウントディスプレイシステム5のブロック図である。
【0099】
ヘッドマウントディスプレイシステム5では、プロセッサ520により、予め定められた分離方法によって、映像データと3次元表示データとを分離するデータ分離処理を行う。具体的には、パケットに各データの種類を識別する識別子が付与されている場合には、その識別子に基づいて、映像データと3次元表示データとを分離する。また、映像データの各パケットのペイロードに識別子と共に3次元表示データが含まれている場合には、その識別子に基づいて、映像データと3次元表示データとを分離する。
【0100】
画像生成処理は、第1の実施の形態と同様に、仮想空間の3次元映像を表示部に表示する。
【0101】
尚、ヘッドマウントディスプレイシステム5が、配信される映像データも視聴可能なシステムである場合、ユーザの選択により、ライブ映像又は仮想空間の3次元映像のいずれかを選択できるようにしても良い。
【0102】
次に、本実施の形態の動作を説明する。図15は、第2の実施の形態におけるライブ映像生成部9からヘッドマウントディスプレイシステム5までの処理や情報の流れを示すシーケンス図である。尚、第1の実施の形態と同様な動作については、同じステップ番号を付与した。
【0103】
まず、ライブ映像生成部9は、中継されている試合の映像データを生成する(Step1)。生成された映像データは、配信データ生成サーバ10に送信される。
【0104】
トラッキングシステム2では、中継されている試合のピッチ上のアスリート1(投手)から投げられるボールをリアルタイムに、レーダ、カメラ等でセンシングする。尚、ピッチ上のアスリート1、審判等を、リアルタイムに、レーダ、カメラ等でセンシングしても良い(Step1)。センシングしたデータから少なくとも、アスリート1(投手)から投げられるボールのトラッキングデータを生成する。尚、ピッチ上のアスリート1、審判等のトラッキングデータも生成しても良い(Step2)。このとき、トラッキングデータの時刻情報も取得する。そして、時刻情報を含むトラッキングデータは、3次元表示データ生成サーバ3に送信される。
【0105】
3次元表示データ生成サーバ3は、トラッキングデータを取得する(Step3)。3次元表示データ生成サーバ3は、取得したトラッキングデータに基づいて、ヘッドマウントディスプレイシステム5に仮想ボールの飛翔映像を表示するための3次元表示データを生成する(Step4)。尚、仮想アスリートを表示するための3次元表示データも生成しても良いこのとき、トラッキングデータの取得時刻を、生成した3次元表示データに含めておく。そして、3次元表示データを、配信データ生成サーバ10に送信する。
【0106】
配信データ生成サーバ10は、3次元表示データを、試合のライブ映像の映像データに含めて配信データを生成する(Step11)。生成された配信データは、同報送信システム4に送信される。
【0107】
同報送信システム4は、受信した配信データを、ネットワークに接続される複数のヘッドマウントディスプレイシステム5、タブレットやスマートフォン(図示せず)に同報送信する(Step5)。
【0108】
ヘッドマウントディスプレイシステム5は、配信データを受信する(Step6)。ヘッドマウントディスプレイシステム5は、予め定められた分離方法によって、映像データと3次元表示データとを分離するデータ分離処理を行う(Step12)。そして、ヘッドマウントディスプレイシステム5は、装着しているユーザの頭部の動きに応じた視点位置から見た仮想ボールの3次元映像(飛翔映像)を表示する(Step7)。このとき、仮想ボールを投げるか仮想投手(仮想アスリート)は、ヘッドマウントディスプレイシステム5に予め格納されている仮想投手のオブジェクトデータを用いても表示しても良いし、3次元表示データに実投手の表示データが格納されている場合には、それを用いて仮想投手を表示するようにしても良い。
【0109】
第2の実施の形態は、テレビ放送と異なり、データを配信する側で、3次元表示データの配信とライブ映像の配信との同期が図れる。結果として、ユーザは、現在行われている試合と、より同期したタイミングで、アスリートのパフォーマンスを体験することができる。
【0110】
(第2の実施の形態の変形例)
第2の実施の形態も、第1の実施の形態と同様に、3次元表示データにタイミング情報を含めることも可能である。そして、トラッキングデータの取得時刻を3次元表示データに含めず、タイミング情報のみを含めても良い。
【0111】
この場合、配信データ生成サーバ10は、タイミング情報で特定される3次元映像(飛翔映像)を表示するタイミング(所定の映像区間)前に、その3次元表示データと映像データとを、ヘッドマウントディスプレイシステム5側で分離できる形式で配信データを生成する。
【0112】
このようにすれば、第2の実施の形態も第1の実施の形態と同様な効果を得ることができる。
【0113】
更に、タイミング情報の代わりに、3次元表示データに、3次元表示データを一意に識別できる3次元表示データ識別情報を含めて、ヘッドマウントディスプレイシステム5に送信するようにしても良い。
【0114】
3次元表示データに3次元表示データ識別情報を含める場合には、3次元表示データ識別情報を含む3次元表示データを配信後、仮想ボール(仮想飛体)の飛翔映像をヘッドマウントディスプレイシステム5に表示するタイミングで、配信データ生成サーバ10から、仮想現実を実行する際に用いられる3次元表示データを識別する3次元表示データ識別情報を含む実行情報を送信するようにする。ヘッドマウントディスプレイシステム5では、実行情報を受信し、その中に含まれる3次元表示データ識別情報で特定される3次元表示データを用いて、仮想ボール(仮想飛体)の飛翔映像をヘッドマウントディスプレイシステム5に表示する。
【0115】
このようにすれば、第2の実施の形態も第1の実施の形態と同様な効果を得ることができる。
【0116】
(第3の実施の形態)
第3の実施の形態は、第1の実施の形態(第1の実施の形態の変形例も含む)又は第2の実施の形態(第2の実施の形態の変形例も含む)に加えて、ユーザ側に試合に用いられ用具(例えば、バットやグラブ)と同様な用具を用意し、実アスリート1から得られたトラッキングデータから再現される飛体(例えば、ボール)を打ったり、捉えたりすることを体験できるように構成したものである。
【0117】
図16は第3の実施の形態におけるヘッドマウントディスプレイシステム5のブロック図である。
【0118】
第3の実施の形態では、ユーザがヘッドマウントディスプレイ51を装着した状態で、ユーザが用いる用具の動きをトラッキングするための用具トラッキング取得部520を設ける。用具トラッキング取得部520は、マイクロソフト社のKinect(登録商標)やASUS社のXtion Pro(登録商標)等を用いることができる。また、用具に加速度センサを設けて、用具のトラッキングデータを取得することも可能である。
【0119】
ヘッドマウントディスプレイシステム5では、第1の実施の形態(第1の実施の形態の変形例も含む)又第2の実施の形態(第2の実施の形態の変形例も含む)の動作に加えて、コンピュータ52のプロセッサ520が用具3次元表示データ生成処理を行う。
【0120】
用具3次元表示データ生成処理は、用具トラッキング取得部520が取得した用具トラッキングデータに基づいて、用具に対応する仮想用具体の3次元表示データ(軌道データ)を算出する。また、仮想飛体の3次元表示データ(軌道データ)と仮想用具体の3次元表示データ(軌道データ)とに基づいて、仮想空間内で仮想飛体と仮想用具体との衝突に起因する新たな仮想飛体の3次元表示データ(軌道データ)を算出する。
【0121】
具体的に説明すると、用具3次元表示データ生成処理は、仮想飛体が仮想ボール、仮想用具体が仮想バットである場合、ユーザが仮想アスリートから投じられる仮想ボールの飛翔映像に合わせてバットをスイングすると、バットのトラッキングデータにより、仮想バットのスイングの3次元表示データ(軌道データ)を算出する。そして、用具3次元表示データ生成処理は、仮想バットの3次元表示データ(軌道データ)と仮想ボールの3次元表示データ(軌道データ)とに基づいて、仮想空間内で仮想バットと仮想ボールとが衝突するかを判定する(仮想ボールが仮想バットに当たったかを判定)。衝突した場合は、仮想バットの大きさや反発係数に基づいて、衝突後の仮想ボールの飛翔軌道の3次元表示データ(軌道データ)を生成する。そして、画像生成処理は、仮想ボールの飛翔軌道の3次元表示データ(軌道データ)に基づいて、衝突後の仮想ボールの飛翔映像を生成して表示する。図17は仮想ボールと仮想バットが衝突した場合の映像の一例であり、図18は仮想ボールと仮想バットとの衝突後の仮想ボールの飛翔映像の一例である。
【0122】
尚、ユーザが用いる用具に対応する仮想用具の大きさ、反発係数を複数用意しておき、ユーザに選択できるようにしても良い。例えば、用具がバットの場合、図19に示すように、大きさが異なりそれぞれの反発係数が異なる仮想バットを複数用意し、ユーザに選択させるようにしても良い。この利点は、通常の用具では、打ってないようなボールであっても、大きな反発係数を持つ大きな仮想バットであれば、より、仮想ボールを打ちやすくなり、また、仮想ボールの飛行距離も長くなる。その結果、遊戯性が高まる。
【0123】
第3の実施の形態は、ユーザがアスリートのパフォーマンスを観るだけではなく、ユーザは、実アスリートの放ったボール等と同様な仮想飛体を、打ったり、捕ったりすることができ、アスリートのパフォーマンスに挑戦することができる。
【0124】
(第4の実施の形態)
第4の実施の形態は、第3の実施の形態に加えて、各ヘッドマウントディスプレイシステム5における仮想飛体と仮想用具体とが衝突したかの衝突結果と、新たな前記仮想飛体の軌道データから得られる仮想飛体の飛翔結果とを集計し、その集計結果をライブ映像に反映させる態様である。
【0125】
図20は第4の実施の形態における仮想現実提供システムの概略構成図である。
【0126】
ヘッドマウントディスプレイシステム5のコンピュータ52は、仮想飛体と仮想用具体とが衝突したかを判定する。例えば、仮想ボールと仮想バットが衝突、すなわち、仮想ボールを打つことが出来たかを判定する。そして、仮想飛体と仮想用具体とが衝突した場合、その仮想飛体の飛翔結果を算出する。例えば、仮想ボールを打った打球がヒットなのか、ホームランなのかである。そして、これらの衝突結果と飛翔結果とを、集計サーバ11に送信する。更に、各ユーザの衝突結果や飛翔結果は、個別に管理される。
【0127】
集計サーバ11は、具体的には、各種の演算処理等を行うプロセッサを有するコンピュータシステムによって実現することができる。図21はコンピュータシステムによって構成された集計サーバ11のブロック図である。
【0128】
集計サーバ11は、プロセッサ110、メモリ(ROMやRAM)111、記憶装置(ハードディスク、半導体ディスクなど)112、入力装置(キーボード、マウス、タッチパネルなど)113、表示装置114、通信装置115などのハードウェア資源を有する汎用のコンピュータにより構成することができる。
【0129】
集計サーバ11は、記憶装置112に格納されたプログラムがメモリ111にロードされ、プロセッサ110により実行されることにより、集計処理を行う。集計処理は、各ヘッドマウントディスプレイシステム5から送信されてくる衝突結果と飛翔結果とを集計する。例えば、衝突結果と飛翔結果とを送信したヘッドマウントディスプレイシステム5の数、そのヘッドマウントディスプレイシステム5の数に対する衝突結果(衝突した)の割合、又は、飛翔結果の割合である。
【0130】
更に、集計サーバ11は、集計結果の画像である集計結果画像を生成する集計結果画像生成処理を行う。図22は、仮想飛体がボールであり、仮想用具体がバットである場合の統計結果の画像の一例である。
【0131】
集計サーバ11は、生成した統計画像を放送設備、又は、同報送信システムに送信する。
【0132】
放送設備、又は、同報送信システムでは、ライブ映像と生成した統計画像とを合成し、放送又は同報送信する。図23はライブ映像と統計画像とが合成された映像の一例を示す図である。
【0133】
尚、第4の実施の形態は、ライブ映像を放送するだけでなく、ライブ映像をコンテンツデリバリネットワークシステムによって送信する場合にも適用できることはいうまでもない。
【0134】
第4の実施の形態は、ヘッドマウントディスプレイを装着したユーザの成績がライブ映像に反映されるので、ライブ中継を単に視聴するだけでなく、ユーザ自ら主役となれる新しい体験を提供することができる。
【0135】
(第5の実施の形態)
第5の実施の形態は、第1の実施の形態(第1の実施の形態の変形も含む)、又は、第2の実施の形態(第2の実施の形態の変形も含む)に加えて、過去の実績から、投手等のアスリート1が次にバッターに投じるボールの球種を予測する予測サーバ12を有する。
【0136】
図24は第5の実施の形態における仮想現実提供システムの概略構成図である。
【0137】
予測サーバ12は、トラッキングデータ取得部121と、予測部122とを備える。
【0138】
トラッキングデータ取得部121は、トラッキングシステム2から提供されるトラッキングデータを取得する。取得されるトラッキングデータには、投手及び対戦している打者を識別するデータも含まれている。
【0139】
予測部122は、過去に各投手が各打者に対して投じたボールの球種を機械学習し、取得したトラッキングデータを入力すると、次に投手が打者に対して投じる球種を予測する。予測した球種は、トラッキングデータと同様な形式で、3次元表示データ生成サーバ3に送信される。
【0140】
3次元表示データ生成サーバ3は、予測サーバ12からトラッキングデータを取得する。3次元表示データ生成部32は、上述した実施の形態と同様に、ヘッドマウントディスプレイシステム5に、予測された球種の仮想ボールの飛翔映像を表示するための3次元表示データを生成する。そして、生成された3次元表示データは、同報送信システム4を介して、少なくとも1以上のヘッドマウントディスプレイシステム5に送信される。
【0141】
第5の実施の形態は、上述した第1の実施の形態(第1の実施の形態の変形も含む)、又は、第2の実施の形態(第2の実施の形態の変形も含む)の効果に加えて、投手が次に投げると予測される球種のボールを、ユーザが体験することができる。
【0142】
尚、第5の実施の形態は、上述した第1の実施の形態(第1の実施の形態の変形も含む)のみならず、第2から第4の実施の形態と組み合わせて構成することができる。
【0143】
また、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
【0144】
(付記1)
ユーザに仮想空間の3次元映像を提供する少なくとも一以上の仮想空間提供システムと
センサから取得される、少なくともピッチ上の実アスリートから放たれる飛体のトラッキングデータを取得するトラッキングデータ取得手段と、
取得したトラッキングデータに基づいて、前記仮想空間提供システムに表示される仮想空間に前記飛体に対応する仮想飛体を表示するための三次元座標データを生成する三次元座標データ生成手段と、
同報送信手段を介して、前記三次元座標データを、前記少なくとも1以上の仮想空間提供システムに送信する送信手段と
を有する仮想現実提供システム。
【0145】
(付記2)
前記トラッキングデータは、ピッチ上の実アスリートの動きのトラッキングデータを含み、
前記三次元座標データ生成手段は、取得したトラッキングデータに基づいて、前記仮想空間提供システムに表示される仮想空間に前記実アスリートに対応する仮想動作体を表示するための三次元座標データを生成する
付記1に記載の仮想現実提供システム。
【0146】
(付記3)
前記アスリートの試合の実映像の映像データと前記三次元座標データとを含む配信データを生成する配信データ生成手段を有し、
前記送信手段は、同報送信手段を介して、前記配信データを、前記少なくとも1以上の仮想空間提供システムに送信し、
前記仮想空間提供システムは、前記配信データから、前記映像データと前記三次元座標データとを分離する分離手段を有する
付記1又は付記2に記載の仮想現実提供システム。
【0147】
(付記4)
前記配信データ生成手段は、前記実映像の映像データと前記実映像に対応する三次元座標データとが同期するように、前記配信データを生成する
付記3に記載の仮想現実提供システム。
【0148】
(付記5)
前記仮想空間提供システムは、
前記仮想飛体及び前記仮想動作体のオブジェクトデータと、前記ユーザが扱う用具に対応する仮想用具体のオブジェクトデータとを記憶する記憶手段と、
前記三次元座標データを受信する受信手段と、
前記仮想空間における前記ユーザの位置データ及び前記ユーザの向きデータを検出する位置・向き検出手段と、
前記ユーザが扱う用具のトラッキングデータを取得する用具トラッキングデータ取得手段と、
前記用具のトラッキングデータに基づいて、前記仮想空間提供システムに表示される仮想空間に前記用具に対応する仮想用具体を表示するための三次元座標データを算出する第1の演算手段と、
前記仮想飛体の三次元座標データと前記仮想用具体の三次元座標データとに基づいて、前記仮想空間内で前記仮想飛体と前記仮想用具体との衝突に起因する前記仮想飛体の飛翔軌道の三次元座標データを算出する第2の演算手段と、
前記三次元座標データ、前記オブジェクトデータ及び前記ユーザの位置データ及び向きデータに基づいて、前記ユーザの位置姿勢に対応する前記仮想空間内の視点位置からの前記仮想飛体、前記仮想動作体及び前記仮想用具体の軌道映像を生成し、前記仮想空間提供システムの表示手段に表示する第1の画像生成手段と、
前記仮想空間内で前記仮想飛体と前記仮想用具体との衝突に起因する前記仮想飛体の飛翔軌道の三次元座標データに基づいて、前記ユーザの位置姿勢に対応する前記仮想空間内の視点位置からの前記仮想飛体の飛翔軌道の軌道映像を生成し、前記仮想空間提供システムの表示手段に表示する第2の画像生成手段と
を有する付記1から付記4に記載の仮想現実提供システム。
【0149】
(付記6)
前記記憶手段は、複数の仮想飛体の少なくとも大きさに関する飛体データ及び前記複数の仮想飛体の前記仮想用具に対する反発係数の飛体反発係数データと、複数の仮想用具の少なくとも大きさに関する用具データ及び前記複数の仮想用具の前記仮想飛体に対する反発係数の用具反発係数データが記憶され、
前記第2の演算手段は、飛体データ及び前記飛体反発係数データと前記用具データ及び前記反発係数データとを参照し、前記仮想飛体と前記仮想用具体との衝突に起因する新たな前記仮想飛体の軌道データを算出する
付記5に記載の仮想現実提供システム。
【0150】
(付記7)
集計サーバを有し、
前記仮想空間提供システムは、
前記仮想飛体と前記仮想用具体とが衝突したかの衝突結果と、前記仮想飛体の飛翔軌道の三次元座標データから得られる前記仮想飛体の飛翔結果とを算出する第3の演算手段と、
前記衝突結果及び前記飛翔結果を、前記集計サーバに送信する送信手段と
を有し、
前記集計サーバは、
前記仮想空間提供システムは、から送信される前記衝突結果及び前記飛翔結果を集計して集計結果を算出し、前記実アスリートの実映像である放送映像又は同報送信映像に前記集計結果を表示するための編成装置に送信する手段を
有する付記5又は付記6に記載の仮想現実提供システム。
【0151】
(付記8)
前記仮想空間提供システムは、ユーザの頭部に装着され、仮想空間の3次元映像を表示する表示手段と、前記仮想空間の3次元映像を生成する3次元映像生成手段とを有するヘッドマウントディスプレイシステムである
付記1から付記7のいずれかに記載の仮想現実提供システム。
【0152】
(付記9)
ユーザに仮想空間の3次元映像を提供する仮想空間提供システムのコンピュータのプログラムであって、
センサから取得された、少なくともピッチ上の実アスリートから放たれる飛体のトラッキングデータから生成された仮想空間に前記飛体に対応する仮想飛体を表示するための三次元座標データを、同報送信手段から受信する処理と、
前記仮想空間における前記ユーザの位置データ及び前記ユーザの向きデータを検出する処理と、
前記仮想飛体の三次元座標データ、前記仮想飛体のオブジェクトデータ及び前記ユーザの位置データ及び向きデータに基づいて、前記ユーザの位置姿勢に対応する前記仮想空間内の視点位置からの前記仮想飛体の軌道映像を生成し、前記仮想空間提供システムの表示手段に表示する処理と
をコンピュータに実行させるプログラム。
【0153】
(付記10)
前記プログラムは、
前記ユーザが扱う用具のトラッキングデータを取得する処理と、
前記用具のトラッキングデータに基づいて、前記用具に対応する仮想用具体の三次元座標データを算出する処理と、
前記仮想飛体の三次元座標データと前記仮想用具体の三次元座標データとに基づいて、前記仮想空間内で前記仮想飛体と前記仮想用具体との衝突に起因する前記仮想飛体の飛翔軌道の三次元座標データを算出する処理と、
前記三次元座標データ、前記オブジェクトデータ及び前記ユーザの位置データ及び向きデータに基づいて、前記ユーザの位置姿勢に対応する前記仮想空間内の視点位置からの前記仮想飛体及び前記仮想用具体の軌道映像を生成し、前記仮想空間提供システムの表示手段に表示する処理と、
前記仮想空間内で前記仮想飛体と前記仮想用具体との衝突に起因する前記仮想飛体の飛翔軌道の三次元座標データに基づいて、前記ユーザの位置姿勢に対応する前記仮想空間内の視点位置からの前記仮想飛体の飛翔軌道の軌道映像を生成し、前記仮想空間提供システムの表示手段に表示する処理と
を更に有する付記8に記載のプログラム。
【0154】
(付記11)
前記プログラムは、
前記仮想飛体と前記仮想用具体とが衝突したかの衝突結果と、前記仮想飛体の飛翔軌道の三次元座標データから得られる前記仮想飛体の飛翔結果とを算出する処理と、
前記衝突結果及び前記飛翔結果を集計するサーバに、前記前記衝突結果及び前記飛翔結果を送信する処理と
を更に有する付記9又は付記11に記載のプログラム。
【0155】
(付記12)
前記仮想空間提供システムは、ユーザの頭部に装着され、仮想空間の3次元映像を表示する表示手段と、前記仮想空間の3次元映像を生成する3次元映像生成手段とを有するヘッドマウントディスプレイシステムである
付記9から付記11のいずれかに記載のプログラム。
【0156】
以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
【符号の説明】
【0157】
1 アスリート(実アスリート)
2 トラッキングシステム
3 3次元(3D)表示データ生成サーバ
4 同報送信システム
5 ヘッドマウントディスプレイシステム
6 カメラ
7 放送設備
8 テレビ
9 ライブ映像生成部
10 配信データ生成サーバ
11 集計サーバ
12 予測サーバ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24