IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧

特開2024-113802情報処理装置、情報処理方法、およびプログラム
<>
  • 特開-情報処理装置、情報処理方法、およびプログラム 図1
  • 特開-情報処理装置、情報処理方法、およびプログラム 図2
  • 特開-情報処理装置、情報処理方法、およびプログラム 図3
  • 特開-情報処理装置、情報処理方法、およびプログラム 図4
  • 特開-情報処理装置、情報処理方法、およびプログラム 図5
  • 特開-情報処理装置、情報処理方法、およびプログラム 図6
  • 特開-情報処理装置、情報処理方法、およびプログラム 図7
  • 特開-情報処理装置、情報処理方法、およびプログラム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024113802
(43)【公開日】2024-08-23
(54)【発明の名称】情報処理装置、情報処理方法、およびプログラム
(51)【国際特許分類】
   H04N 21/235 20110101AFI20240816BHJP
   H04N 21/2343 20110101ALI20240816BHJP
   G06T 7/20 20170101ALI20240816BHJP
【FI】
H04N21/235
H04N21/2343
G06T7/20 300
【審査請求】未請求
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2023019005
(22)【出願日】2023-02-10
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(74)【代理人】
【識別番号】100140958
【弁理士】
【氏名又は名称】伊藤 学
(74)【代理人】
【識別番号】100137888
【弁理士】
【氏名又は名称】大山 夏子
(74)【代理人】
【識別番号】100154036
【弁理士】
【氏名又は名称】久保 貴弘
(72)【発明者】
【氏名】井上 正行
(72)【発明者】
【氏名】横山 勇斗
(72)【発明者】
【氏名】薬師神 行雄
【テーマコード(参考)】
5C164
5L096
【Fターム(参考)】
5C164FA06
5C164MA06S
5C164MB13S
5C164PA39
5C164SB02P
5C164SB08P
5C164SB11S
5L096BA08
5L096CA04
5L096FA12
5L096FA13
5L096FA69
5L096HA02
(57)【要約】
【課題】イベント中の対象のモーションデータとイベントメタデータを各々取得して送信することを可能とする。
【解決手段】イベント中における対象の動きをトラッキングして得られるモーションデータと、前記イベントの状況に関する時系列データを少なくとも含むイベントメタデータとを取得する処理と、前記モーションデータに基づいて仮想空間内で前記対象の仮想物体を表示する制御と、前記仮想物体が表示される表示画面における前記イベントメタデータに基づく表示制御と、を行うユーザ端末に、前記モーションデータおよび前記イベントメタデータを送信する処理と、を行う制御部を備え、前記モーションデータと前記イベントメタデータは、それぞれ異なる装置において生成される、情報処理装置。
【選択図】図1
【特許請求の範囲】
【請求項1】
イベント中における対象の動きをトラッキングして得られるモーションデータと、前記イベントの状況に関する時系列データを少なくとも含むイベントメタデータとを取得する処理と、
前記モーションデータに基づいて仮想空間内で前記対象の仮想物体を表示する制御と、前記仮想物体が表示される表示画面における前記イベントメタデータに基づく表示制御と、を行うユーザ端末に、前記モーションデータおよび前記イベントメタデータを送信する処理と、
を行う制御部を備え、
前記モーションデータと前記イベントメタデータは、それぞれ異なる装置において生成される、
情報処理装置。
【請求項2】
前記イベントは、試合である、請求項1に記載の情報処理装置。
【請求項3】
前記制御部は、
前記モーションデータを第1の装置から取得し、
前記イベントメタデータを前記第1の装置と異なる第2の装置から取得する、
請求項2に記載の情報処理装置。
【請求項4】
前記制御部は、
前記モーションデータを外部の装置から取得し、
前記イベントメタデータを前記モーションデータに基づいて生成する、
請求項2に記載の情報処理装置。
【請求項5】
前記イベントメタデータは、試合開始日時の情報と、前記試合での発生事象および発生時間を示す時系列データと、を含む、請求項2に記載の情報処理装置。
【請求項6】
前記制御部は、前記モーションデータに基づいて、前記発生時間のズレを調整する処理を行う、請求項5に記載の情報処理装置。
【請求項7】
前記発生事象は、得点および審判による各種警告を含む、請求項5に記載の情報処理装置。
【請求項8】
前記発生事象は、前記モーションデータに基づいて推測される、請求項5に記載の情報処理装置。
【請求項9】
前記イベントメタデータは、選手に関する情報をさらに含む、請求項2に記載の情報処理装置。
【請求項10】
前記モーションデータは、各選手の骨格位置の時系列データ、およびボールの位置の時系列データを含む、請求項2に記載の情報処理装置。
【請求項11】
前記制御部は、前記モーションデータを配信用フォーマットに変換し、前記イベントメタデータと共に、前記ユーザ端末に送信する処理を行う、請求項2に記載の情報処理装置。
【請求項12】
前記配信用フォーマットに変換されたモーションデータには、前記配信用フォーマットで用いられる基準時間が適用される、請求項11に記載の情報処理装置。
【請求項13】
前記制御部は、前記試合のハイライトシーンに関する情報であるハイライトメタデータをさらに取得し、前記モーションデータおよび前記イベントメタデータと共に、前記ユーザ端末に送信する処理を行う、請求項2に記載の情報処理装置。
【請求項14】
前記ハイライトメタデータは、前記モーションデータにおける各ハイライトシーンの開始時間および継続時間の情報を含む、請求項13に記載の情報処理装置。
【請求項15】
前記ハイライトメタデータの基準時間は、前記モーションデータが変換される配信用フォーマットで用いられる基準時間に対応する、請求項13に記載の情報処理装置。
【請求項16】
前記ハイライトメタデータは、前記モーションデータを生成する装置および前記イベントメタデータを生成する装置と異なる装置において生成される、請求項13に記載の情報処理装置。
【請求項17】
前記制御部は、前記モーションデータを配信用フォーマットに変換したデータおよび前記イベントメタデータを、前記ハイライトメタデータを生成する装置に送信し、当該装置から、前記ハイライトメタデータを受信する、請求項16に記載の情報処理装置。
【請求項18】
前記ハイライトメタデータには、前記ユーザ端末において前記仮想空間における仮想カメラの配置を決定する際に用いられる情報として、各ハイライトシーンにおける攻勢状況を示す情報が含まれる、請求項13に記載の情報処理装置。
【請求項19】
プロセッサが、
イベント中における対象の動きをトラッキングして得られるモーションデータと、前記イベントの状況に関する時系列データを少なくとも含むイベントメタデータとを取得することと、
前記モーションデータに基づいて仮想空間内で前記対象の仮想物体を表示する制御と、前記仮想物体が表示される表示画面における前記イベントメタデータに基づく表示制御と、を行うユーザ端末に、前記モーションデータおよび前記イベントメタデータを送信する処理と、
を行うことと、
を含み、
前記モーションデータと前記イベントメタデータは、それぞれ異なる装置において生成される、
情報処理方法。
【請求項20】
コンピュータを、
イベント中における対象の動きをトラッキングして得られるモーションデータと、前記イベントの状況に関する時系列データを少なくとも含むイベントメタデータとを取得する処理と、
前記モーションデータに基づいて仮想空間内で前記対象の仮想物体を表示する制御と、前記仮想物体が表示される表示画面における前記イベントメタデータに基づく表示制御と、を行うユーザ端末に、前記モーションデータおよび前記イベントメタデータを送信する処理と、
を行う制御部として機能させ、
前記モーションデータと前記イベントメタデータは、それぞれ異なる装置において生成される、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
【背景技術】
【0002】
昨今、画像解析技術が向上し、例えば撮像画像から人間の骨格位置(頭部、胴体、および手足などの身体の各部位に対応する複数の点)を抽出して骨格位置の変化を人間の動作として記録するモーションキャプチャ技術が知られている。
【0003】
このような画像解析技術は、近年ではスポーツの試合などに用いられ、選手を撮像した撮像画像をリアルタイムで解析して撮像画像内で特定の事象が発生したかどうかの判断が行われている。また、撮像画像内に多数のオブジェクト(選手)が含まれると、画像解析の処理負荷が増大するため、例えば下記特許文献1では、撮像画像の一部を選択して元の画像よりも小さい画像を解析することで、より効率的な画像処理技術を実現している。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】米国特許出願公開第2020/0151881号明細書
【発明の概要】
【発明が解決しようとする課題】
【0005】
ここで、撮像画像から抽出して記録された動作の情報であるモーションデータに基づいて、仮想空間における仮想物体(例えば、3DCGにより生成されたアバター)を動かすことも可能であるが、仮想物体の表示制御を行う際に、モーションデータとは異なるデータを併せて活用することは想定されていない。
【0006】
そこで、本開示では、イベント中の対象のモーションデータとイベントメタデータを各々取得して送信することが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
【課題を解決するための手段】
【0007】
本開示によれば、イベント中における対象の動きをトラッキングして得られるモーションデータと、前記イベントの状況に関する時系列データを少なくとも含むイベントメタデータとを取得する処理と、前記モーションデータに基づいて仮想空間内で前記対象の仮想物体を表示する制御と、前記仮想物体が表示される表示画面における前記イベントメタデータに基づく表示制御と、を行うユーザ端末に、前記モーションデータおよび前記イベントメタデータを送信する処理と、を行う制御部を備え、前記モーションデータと前記イベントメタデータは、それぞれ異なる装置において生成される、情報処理装置が提供される。
【0008】
また、本開示によれば、プロセッサが、イベント中における対象の動きをトラッキングして得られるモーションデータと、前記イベントの状況に関する時系列データを少なくとも含むイベントメタデータとを取得することと、前記モーションデータに基づいて仮想空間内で前記対象の仮想物体を表示する制御と、前記仮想物体が表示される表示画面における前記イベントメタデータに基づく表示制御と、を行うユーザ端末に、前記モーションデータおよび前記イベントメタデータを送信する処理と、を行うことと、を含み、前記モーションデータと前記イベントメタデータは、それぞれ異なる装置において生成される、情報処理方法が提供される。
【0009】
また、本開示によれば、コンピュータを、イベント中における対象の動きをトラッキングして得られるモーションデータと、前記イベントの状況に関する時系列データを少なくとも含むイベントメタデータとを取得する処理と、前記モーションデータに基づいて仮想空間内で前記対象の仮想物体を表示する制御と、前記仮想物体が表示される表示画面における前記イベントメタデータに基づく表示制御と、を行うユーザ端末に、前記モーションデータおよび前記イベントメタデータを送信する処理と、を行う制御部として機能させ、前記モーションデータと前記イベントメタデータは、それぞれ異なる装置において生成される、プログラムが提供される。
【図面の簡単な説明】
【0010】
図1】第1の実施形態による情報処理システム1Aの構成を示す図である。
図2】第1の実施形態によるサーバ20Aの構成の一例を示すブロック図である。
図3】第1の実施形態による情報処理システム1Aの動作処理の流れを示すシーケンス図である。
図4】第2の実施形態による情報処理システム1Bの構成を示す図である。
図5】第2の実施形態によるサーバ20Bの構成の一例を示すブロック図である。
図6】第2の実施形態による情報処理システム1Bの動作処理の流れを示すシーケンス図である。
図7】第2の実施形態によるハイライトメタデータ作成画面の一例を示す図である。
図8】情報処理装置900のハードウェア構成例を示すブロック図である。
【発明を実施するための形態】
【0011】
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0012】
また、説明は以下の順序で行うものとする。
1.第1の実施形態
1-1.システム構成
1-2.サーバ20Aの構成
1-3.動作処理
2.第2の実施形態
2-1.システム構成
2-2.サーバ20Bの構成
2-3.動作処理
2-4.ハイライトメタデータ作成画面
3.変形例
4.ハードウェア構成
5.補足
【0013】
<1.第1の実施形態>
本開示による第1の実施形態による情報処理システムについて、図面を用いて具体的に説明する。
【0014】
<<1-1.情報処理システム1Aの構成>>
図1は、第1の実施形態による情報処理システム1Aの構成を示す図である。図1に示すように、情報処理システム1Aは、事業者A装置12(第1の装置の一例)、事業者B装置14(第2の装置の一例)、サーバ20A(情報処理装置の一例)、および視聴者端末30(ユーザ端末の一例)を含む。
【0015】
事業者A装置12は、事業者Aに用いられる装置である。事業者A装置12は、イベント中における対象の動きをトラッキングしてモーションデータを取得する。イベントの一例として、スポーツの試合が挙げられる。より具体的に、本実施形態では、サッカーの試合を想定して説明する。この場合、トラッキングの対象には、選手およびボールが含まれる。また、対象の動きのトラッキングとは、具体的には、撮像画像を解析して得られるボールの位置と高さのトラッキング、および、撮像画像を解析して得られる選手の位置、高さ、各骨格の位置のトラッキングである。
【0016】
事業者A装置12は、例えばサッカーの試合を撮像した撮像画像(以下、試合映像とも称する)をカメラ11aから取得する。試合会場には多数のカメラ11aが配置され、事業者A装置12は、様々な場所および角度からの試合映像を取得する。事業者A装置12は、試合映像を解析し、試合中の選手およびボールのモーションデータを取得する。
【0017】
モーションデータのデータ構造の一例を下記表1に示す。
【0018】
【表1】
【0019】
上記表1に示すように、モーションデータは、ボールデータ、プレイヤーデータ、および、その他のデータを含む。また、モーションデータに含まれるデータのうち、ボールの位置情報、ボール位置のグランドからの高さ情報、各選手の三次元骨格位置データ、および選手位置のグランドからの高さ情報等は、それぞれ、データの絶対時間を基準として時系列に並んでいる時系列データである。「データの絶対時間」とは、所定の起点からの経過時間である。本実施形態では、このようなモーションデータの基準時間の一例として、西暦2000年1月1日からの経過時間を想定し、以下、「モーション基準時間」と称する。
【0020】
モーションデータに含まれる選手の位置情報は骨格位置データに限定されず、例えば関節の位置を示す関節位置データであってもよい。モーションデータには、さらに、試合の特定情報(いつ行われたどのチームの試合か)が含まれていてもよい。
【0021】
なお、モーションデータに含まれる各情報は一例であって、本実施形態はこれに限定されない。また、モーションデータの欠損または破損部分を作業者が手動により修正することも可能である。
【0022】
また、事業者A装置12は、試合会場に多数設置されたマイク(マイクロフォン)11bから試合会場の環境音データ(観客の声援等)を取得してもよい。事業者A装置12は、環境音データを適宜調整し(ノイズ除去、音量調整等)、サウンドデータを生成する。環境音データの調整は、事業者A装置12により自動で行われてもよいし、作業者が手動で行ってもよい。
【0023】
事業者A装置12は、例えば試合後に、当該試合のモーションデータおよびサウンドデータをサーバ20Aに送信する。
【0024】
事業者B装置14は、事業者Aとは異なる事業者Bに用いられる装置である。事業者B装置14は、操作入力装置13において作業者により入力された情報に基づいて、サッカー等のスポーツの試合の状況に関する時系列データを少なくとも含むスポーツメタデータを生成する。スポーツメタデータは、イベントメタデータの一例である。
【0025】
スポーツメタデータのデータ構造は、試合開始日時の情報と、試合での発生事象および事象発生時間の情報(時系列データ)と、選手に関する情報と、から成る。
【0026】
例えば作業者は、試合映像をリアルタイムで見ながら、試合での発生事象を操作入力装置13(例えばPC)から入力する。試合での発生事象とは、例えば、得点(どちらのチームに何点入ったか、どの選手がゴールを決めたか)、審判による各種警告(サッカーであれば、イエローカードまたはレッドカードの告知、違反等)、フリーキック、選手交代等が挙げられる。事業者B装置14は、例えば発生事象の入力時間を事象発生時間として、スポーツメタデータを生成する。また、事象発生時間の情報が作業者により入力されてもよい。なお、本実施形態によるスポーツメタデータで用いられる時間情報は、西暦の日時を想定する。
【0027】
また、選手に関する情報とは、例えば、選手の名前、背番号、役割(キーパー、キーパー以外、審判)、所属チームID等である。選手に関する情報も、作業者により入力されてもよい。
【0028】
以上説明したスポーツメタデータに含まれる情報は一例であって、本実施形態はこれに限定されない。
【0029】
リアルタイムで生成されたスポーツメタデータは、事業者B装置14から所定の配信先に配信される等、様々な活用が行われ得る。本実施形態では、試合後に当該試合のスポーツメタデータが事業者B装置14からサーバ20Aに送信される。
【0030】
サーバ20Aは、事業者A装置12からモーションデータとサウンドデータを取得し、事業者B装置14からスポーツメタデータを取得する。そして、サーバ20Aは、モーションデータ、サウンドデータ、およびスポーツメタデータを、視聴者端末30に送信(配信)する。送信形式は特に限定しないが、データ容量の観点から、事業者A装置12は、例えばスポーツメタデータを視聴前に視聴者端末30にダウンロードさせ、モーションデータおよびサウンドデータはストリーミング配信するようにしてもよい。また、モーションデータおよびサウンドデータは、サーバ20Aにおいて、後述する配信用フォーマットに変換されたデータであってもよい。
【0031】
視聴者端末30は、視聴者に用いられる。視聴者端末30は、仮想空間の映像を表示する機能を有するユーザ端末の一例である。具体的には、視聴者端末30は、サーバ20Aから受信したモーションデータ(選手の骨格データおよびボール位置等)と、予め受信した選手およびボールの3Dモデルと、を用いることで、仮想空間内の3DCG映像を表示(レンダリング)する。視聴者端末30は、仮想カメラの位置を視聴者操作に応じて切り替えることも可能である。実世界で行われた試合のバーチャル化により、視聴者は、試合を様々な視点で任意に切り替えて視聴したり、フィールド内に配置された自分のアバターを操作して自由視点で視聴したりすることができる。
【0032】
選手およびボールの3Dモデルは、サーバ20A等から予め取得し得る。これにより、視聴者端末30は、仮想空間内の3DCG映像をリアルタイムで受信して再生するよりも低負荷で再生を実現することができる。
【0033】
また、視聴者端末30は、選手およびボールの3DCG(仮想物体の一例)が表示される表示画面において、スポーツメタデータ(イベントメタデータの一例)に基づく表示制御を行い得る。スポーツメタデータには、例えば得点情報、審判による警告の情報、選手交代情報等が含まれ、視聴者端末30は、試合開始からの経過時間に応じて表示画面に得点情報を表示したり、警告の情報を表示したり、選手交代の情報を表示したりする。これにより、視聴者は、選手およびボールの3DCGを視聴しながら、試合の状況を認識することができる。また、スポーツメタデータには、各選手の名前も含まれ、視聴者端末30は、選手の3DCGの付近に、選手の名前が追随するよう表示制御してもよい。これにより、視聴者は、選手を容易に識別することができる。
【0034】
以上説明したように、本実施形態による情報処理システム1Aでは、試合映像から得られたモーションデータと、選手およびボールの3Dモデルとに基づいて、視聴者端末30において実世界で行われた試合のバーチャル化を提供できる。また、情報処理システム1Aは、試合のバーチャル化の際、モーションデータの取得元とは異なる取得元からのデータであるスポーツメタデータを併せて活用することで、試合の状況等を認識できるようにすることができる。スポーツメタデータは、モーションデータを生成した装置と異なる装置で生成されたデータであってもよい。また、スポーツメタデータは、モーションデータの権利者と異なる権利者のデータであることを想定する。
【0035】
<<1-2.サーバ20Aの構成>>
図2は、第1の実施形態によるサーバ20Aの構成の一例を示すブロック図である。図2に示すように、サーバ20Aは、通信部210、制御部220A、および記憶部230を含む。
【0036】
(通信部210)
通信部210は、外部装置にデータを送信する送信部と、外部装置からデータを受信する受信部を有する。本実施形態による通信部210は、例えば有線/無線LAN(Local Area Network)、Wi-Fi(登録商標)、Bluetooth(登録商標)、携帯通信網(LTE(Long Term Evolution)、4G(第4世代の移動体通信方式)、5G(第5世代の移動体通信方式))等を用いて、外部装置またはインターネットと通信接続してもよい。
【0037】
通信部210は、事業者A装置12から、モーションデータおよびサウンドデータを受信する。また、通信部210は、事業者B装置14から、スポーツメタデータを受信する。また、通信部210は、モーションデータおよびサウンドデータと、スポーツメタデータとを、視聴者端末30に各々送信する。なお、モーションデータおよびサウンドデータは、後述する配信用フォーマットに変換されたデータであってもよい。
【0038】
(制御部220A)
制御部220Aは、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ20A内の動作全般を制御する。制御部220Aは、例えばCPU(Central Processing Unit)、またはマイクロプロセッサ等の電子回路によって実現される。また、制御部220Aは、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
【0039】
また、制御部220Aは、配信用フォーマット変換部221、データ格納制御部222、および配信制御部223としても機能する。
【0040】
配信用フォーマット変換部221は、モーションデータおよびサウンドデータを配信用フォーマットに変換する。配信用フォーマットは、例えば、MPEG-DASHであってもよい。ここで、モーションデータに用いられる基準時間(モーション基準時間)は、上述したように西暦2000年1月1日からの経過時間を想定するが、配信用フォーマットに変換された際は、新たに配信用フォーマットに用いられる基準時間(以下、フォーマット基準時間とも称する)が付与される。配信用フォーマットに用いられる基準時間は、モーションデータ(時系列データ)の先頭からの経過時間である。フォーマット基準時間は、MPEG-DASHの場合、MPEG-DASH時間とも称される。なお、サウンドデータがある場合、サウンドデータの先頭はモーションデータの先頭と同じタイミングであることを前提としてもよい。例えば、サウンドデータとモーションデータは、試合会場において同じタイミングで収音および撮影が開始されたデータである場合、先頭が同じタイミングとなる。または、サウンドデータとモーションデータは、事業者A装置12において、音合わせ等により自動または手動で先頭が揃えられてもよい。
【0041】
データ格納制御部222は、配信用フォーマットに変換したデータと、スポーツメタデータを記憶部230に格納する制御を行う。かかる配信用フォーマットに変換したデータおよびスポーツメタデータは、コンテンツデータとも称する。なお、データ格納制御部222は、モーションデータに含まれる試合の特定情報に基づいて、当該試合のスポーツメタデータを事業者B装置14から取得し、上記配信用フォーマットに変換したデータと対応付けて記憶部230に格納してもよい。
【0042】
配信制御部223は、配信用フォーマットに変換したデータと、スポーツメタデータを配信する制御を行う。例えば、配信制御部223は、配信要求のあった視聴者端末30に、スポーツメタデータをダウンロード形式で送信し、また、配信用フォーマットに変換したデータ(モーションデータおよびサウンドデータ)をストリーミング形式で送信する。スポーツメタデータの送信は、ストリーミング開始前に行われ得る。
【0043】
(記憶部230)
記憶部230は、制御部220Aの処理に用いられるプログラムや演算パラメータ等を記憶するROM、および適宜変化するパラメータ等を一時記憶するRAMにより実現される。例えば、記憶部230には、配信用フォーマットに変換したデータと、対応するスポーツメタデータが、コンテンツデータとして格納される。
【0044】
以上、サーバ20Aの構成について具体的に説明したが、本開示によるサーバ20Aの構成は図2に示す例に限定されない。例えば、サーバ20Aは、複数の装置により実現されてもよい。
【0045】
<<1-3.動作処理>>
図3は、第1の実施形態による情報処理システム1Aの動作処理の流れを示すシーケンス図である。
【0046】
図3に示すように、事業者A装置12は、試合のモーションデータおよびサウンドデータをサーバ20Aに送信する(ステップS103)。
【0047】
次に、事業者B装置14は、試合のスポーツメタデータをサーバ20Aに送信する(ステップS106)。
【0048】
次いで、サーバ20Aは、モーションデータおよびサウンドデータを配信用フォーマットに変換する(ステップS109)。
【0049】
次に、サーバ20Aは、変換したデータと試合のスポーツメタデータをコンテンツデータとして記憶部230に記憶する(ステップS112)。
【0050】
次いで、サーバ20Aは、コンテンツデータを配信可能状態に制御する(ステップS115)。配信可能状態とは、配信可能なコンテンツデータであることが視聴者端末30に通知され、視聴者端末30からの配信要求に応じて配信を開始できる状態である。視聴者は、視聴者端末30を操作して配信可能なコンテンツデータの一覧を確認し、任意のコンテンツデータ(例えば、特定の試合)の配信要求を行い得る。
【0051】
続いて、サーバ20Aは、視聴者端末30からの配信要求(ステップS118)に応じて、コンテンツデータの配信を行う(ステップS121)。具体的には、サーバ20Aは、スポーツメタデータを視聴者端末30にダウンロードさせ、次いで、変換したデータ(モーションデータおよびサウンドデータ)を視聴者端末30にストリーミング配信する。
【0052】
そして、視聴者端末30は、受信したデータに基づいて表示制御を行う(ステップS124)。具体的には、視聴者端末30は、予め取得した選手の3Dモデルとボールの3Dモデル等を仮想空間(例えば実空間の試合会場をバーチャルで再現した空間)に配置し、モーションデータ(各選手の骨格位置データおよびボールの位置データ等)に基づいて3Dモデルを動かすことで仮想空間の3DCG映像を生成する処理を行う。また、視聴者端末30は、仮想空間の3DCG映像の表示制御の開始に併せてサウンドデータの再生を開始する。また、視聴者端末30は、仮想空間の3DCG映像の表示制御に併せて、スポーツメタデータに基づいて得点情報の表示等を行う。
【0053】
また、視聴者端末30は、上記ステップS124に示す表示制御において、スポーツメタデータとモーションデータの同期も行い得る。上述したように、モーションデータとスポーツメタデータは権利者が異なり、モーションデータとスポーツメタデータとではデータ構造および用いられる基準時間等、データの仕様が異なることが想定される。この場合、モーションデータとスポーツメタデータに基づく仮想空間での再現を適切に行うことが困難であり、時間的な差異が発生し得る。そこで、視聴者端末30は、モーションデータとスポーツメタデータの同期を行うことで、仮想空間での再現を適切に行うことを可能とする。
【0054】
例えば、視聴者端末30は、スポーツメタデータに含まれる試合開始の日時情報(西暦の年月日と時刻)に基づいて、モーションデータにおける試合開始のタイミングを算出し、試合開始のタイミングからの経過時間に応じて表示画面に得点情報等を表示する。より具体的には、視聴者端末30は、試合開始の日時情報(西暦)を、モーションデータに用いられる基準時間(モーション基準時間)である2000年1月1日からの経過時間に変換し、変換時間に基づいてモーションデータにおける試合開始のタイミングを判断できる。
【0055】
そして、視聴者端末30は、モーション基準時間の試合開始のタイミングを、配信用フォーマットで用いられる基準時間(フォーマット基準時間)であるデータの先頭からの経過時間に変換する。モーションデータは、試合開始前のタイミング(例えばキックオフの数分前等)から取得されていることが想定される。以上により、視聴者端末30は、試合開始のタイミングを基準としてスポーツメタデータとモーションデータの同期を取り、試合のモーションデータに基づいて各選手とボールの3DCGを表示すると共に、試合中で得点のあったタイミングで得点情報を表示すること等ができる。
【0056】
なお、上述した同期方法は一例であって、本実施形態はこれに限定されない。また、かかる同期処理がサーバ20Aにおいて予め行われ、モーションデータにおける試合開始のタイミング(先頭からの経過時間)の情報が視聴者端末30に提供されていてもよい。
【0057】
以上、本開示による第1の実施形態について説明した。
【0058】
<2.第2の実施形態>
続いて、本開示による第2の実施形態による情報処理システムについて、以下図面を用いて具体的に説明する。上述した第1の実施形態では、フルタイムの試合のモーションデータに従って仮想空間の表示制御を行うが、本開示はこれに限定されない。例えば、ハイライトシーンの時間(時間軸上の位置)を示す情報を用いて、各ハイライトシーンに対応するモーションデータに基づいて仮想空間の表示制御を行うハイライト再生を行うことも考え得る。このようなハイライト再生を可能とする第2の実施形態について説明する。
【0059】
<<2-1.システム構成>>
図4は、第2の実施形態による情報処理システム1Bの構成を示す図である。図4に示すように、情報処理システム1Bは、事業者A装置12(第1の装置の一例)、事業者B装置14(第2の装置の一例)、サーバ20B(情報処理装置の一例)、視聴者端末30(ユーザ端末の一例)、および運用者端末40を含む。
【0060】
情報処理システム1Bは、図1を参照して説明した情報処理システム1Aの構成に加えて、サービス運用者に用いられ、ハイライトメタデータを生成する運用者端末40を有する。サービス運用者とは、事業者Aおよび事業者Bとは異なる事業者であり、視聴者端末30に提供する視聴用のアプリケーションを提供する事業者であってもよい。さらに、かかるサービス運用者は、試合が行われた試合会場を本拠地とするチームの事業者(チーム事業者)であってもよい。チーム事業者は、自身の本拠地で行われた試合(自身のチームがホームの試合)のバーチャル化を、チームのファン向けに提供する専用のアプリケーションにより実現させることができる。
【0061】
運用者端末40では、試合の2D映像(カメラで試合を撮影した映像)に基づいて当該試合のハイライト2D映像が生成される際に作成された各ハイライトシーンの時間情報に基づいて、モーションデータにおけるハイライトシーンの時間情報を示すハイライトメタデータの生成が行われる。ハイライトシーンの時間情報とは、各ハイライトシーンのIN点、OUT点を示す情報である。かかるIN点、OUT点は、2D映像の先頭からの経過時間で示される。また、モーションデータにおけるハイライトシーンの時間情報とは、モーションデータにおける各ハイライトシーンのシーン再生開始時間およびシーン継続時間を示す情報である。シーン再生開始時間は、(フォーマット変換された)モーションデータの先頭からの経過時間で示される。
【0062】
運用者端末40には、ハイライトコンテンツ作成用のエディターアプリケーション(以下、エディターAPとも称する)がダウンロードされている。サービス運用者は、エディターAPにより表示されるハイライトメタデータ作成画面を操作してハイライトメタデータの生成を行い得る。運用者端末40は、ハイライトメタデータをサーバ20Bに送信する。なお、エディターAPは、サーバ20Bで動作し、ハイライトメタデータ作成画面をWebブラウザとして運用者端末40に提供してもよい。
【0063】
サーバ20Bは、運用者端末40から受信したハイライトメタデータとコンテンツデータを視聴者端末30に送信する。これにより、視聴者端末30は、モーションデータに基づいて仮想空間の表示制御を行う際に、ハイライトメタデータを用いて、各ハイライトシーンのみを表示制御することができる。視聴者は、仮想空間において試合で盛り上がったシーン(例えば得点が入ったシーン)のみを順次視聴することができる。
【0064】
<<2-2.サーバ20Bの構成>>
図5は、第2の実施形態によるサーバ20Bの構成の一例を示すブロック図である。図5に示すように、サーバ20Bは、通信部210、制御部220B、および記憶部230を含む。通信部210および記憶部230は、図2を参照して上述した通りである。
【0065】
制御部220Bは、配信用フォーマット変換部221、データ格納制御部222、配信制御部223、およびハイライトメタデータ取得部224として機能する。配信用フォーマット変換部221、データ格納制御部222、および配信制御部223の機能は、図2を参照して上述した通りである。
【0066】
ハイライトメタデータ取得部224は、ハイライトメタデータを取得する制御を行う。ハイライトメタデータ取得部224は、ハイライトメタデータの生成に必要なデータを通信部210から運用者端末40に送信し、運用者端末40からハイライトメタデータを受信する。ハイライトメタデータ取得部224は、ハイライトメタデータの生成に必要なデータとして、例えば、記憶部230に記憶したモーションデータ(フォーマット変換済み)およびスポーツメタデータを運用者端末40に送信する。または、ハイライトメタデータ取得部224は、ハイライトメタデータの生成に必要なデータとして、例えば、モーションデータおよびサウンドデータ(フォーマット変換済み)と、スポーツメタデータを運用者端末40に送信してもよい。
【0067】
以上、サーバ20Bの構成について具体的に説明したが、本開示によるサーバ20Bの構成は図5に示す例に限定されない。例えば、サーバ20Bは、複数の装置により実現されてもよい。
【0068】
<<2-3.動作処理>>
図6は、第2の実施形態による情報処理システム1Bの動作処理の流れを示すシーケンス図である。
【0069】
図6に示すステップS203~S212の処理は、図3に示すステップS103~S112と同じであるため、説明を省略する。
【0070】
次いで、運用者端末40では、試合の2D映像に基づいて、当該試合のハイライト2D映像の生成が行われる(ステップS215)。ハイライト2D映像は、例えば試合映像から得点が入ったシーンを自動または手動で抜き出して生成されてもよい。この際、抜き出したシーン、すなわちハイライトシーンの時間情報(IN点、OUT点情報)も生成される。
【0071】
次に、サーバ20Bは、運用者端末40に、コンテンツデータ(少なくともモーションデータと、試合のスポーツメタデータ)を送信する(ステップS218)。
【0072】
次いで、運用者端末40は、ハイライトメタデータ作成画面を表示し、サービス運用者の操作入力を受け付ける(ステップS221)。ハイライトメタデータ作成画面では、ハイライト2D映像(実空間で行われた試合の撮像画像)の表示画面と、モーションデータに基づく選手3DCG等の表示画面(バーチャル映像)と、各ハイライトシーンのメタデータを入力する入力画面と、が表示される。各ハイライトシーンのメタデータを入力する画面では、少なくとも各ハイライトシーンの時間情報(シーン再生開始時間およびシーン継続時間)が入力される。ハイライトメタデータ作成画面の詳細については、図7を参照して後述する。
【0073】
次に、運用者端末40は、ハイライトメタデータをサーバ20Bに送信する(ステップS224)。
【0074】
次いで、サーバ20Bは、コンテンツデータ(ハイライトメタデータを含む)を配信可能状態に制御する(ステップS227)。
【0075】
続いて、サーバ20Bは、視聴者端末30からの配信要求(ステップS230)に応じて、コンテンツデータ(ハイライトメタデータを含む)の配信を行う(ステップS233)。具体的には、サーバ20Bは、スポーツメタデータ、ハイライトメタデータ、およびフォーマット変換したデータ(モーションデータおよびサウンドデータ)を視聴者端末30に送信する。
【0076】
そして、視聴者端末30は、受信したデータに基づいて表示制御を行う(ステップS236)。具体的には、視聴者端末30は、予め取得した選手の3Dモデルとボールの3Dモデル等を仮想空間(例えば実空間の試合会場をバーチャルで再現した空間)に配置し、モーションデータ(各選手の3D骨格位置データおよびボールの位置データ等)に基づいて3Dモデルを動かすことで仮想空間の3DCG映像を生成する処理を行う。この際、視聴者端末30は、ハイライトメタデータ(モーション基準時間で表されるシーン再生開始時間およびシーン継続時間の情報を含む)に基づいて、モーションデータに基づく仮想空間の表示制御を行う。
【0077】
モーションデータは、少なくとも試合全体を含む時間的長さのデータであるため、視聴者端末30は、モーションデータのうち、ハイライトメタデータに含まれるシーン再生開始時間からのモーションデータに基づいて仮想空間の表示(再生)を行い、シーンの終了ポイント(シーン再生開始時間からシーン継続時間が経過したタイミング)まで再生した後、次のシーンの再生ポイント(シーン再生開始時間)にシークして再生することを繰り返すことで、すべてのハイライトシーンの再生を行うことができる。なお、ハイライトメタデータの基準時間には、モーション基準時間(モーションデータの先頭からの経過時間による表現)が用いられている。
【0078】
以上、第2の実施形態による動作処理について具体的に説明した。なお、図6に示す動作処理は一例であって、本開示はこれに限定されない。例えば、サーバ30Bが、ハイライトメタデータに基づいて、モーションデータのうちハイライトシーンのモーションデータを順次ストリーミング配信するようにしてもよい。この場合、視聴者端末30は、受信したモーションデータに従って、予め受信した選手の3Dモデルとボールの3Dモデル等を動かすことで、ハイライトシーンの3DCG映像を生成できる。
【0079】
<<2-4.ハイライトメタデータ作成画面>>
図7は、第2の実施形態によるハイライトメタデータ作成画面の一例を示す図である。図7に示すように、ハイライトメタデータ作成画面420では、ハイライト2D映像の表示画面421と、モーションデータに基づいて描画される選手の3DCG等を表示する表示画面422と、各ハイライトシーンのメタデータを入力する入力画面(第1シーンの入力画面424、第2シーンの入力画面425)と、が表示される。
【0080】
運用者端末40は、予め生成されたハイライト2D映像を表示画面421に表示する。操作者(サービス運用者)は、表示画面421で再生される各ハイライトシーンに基づいて、モーションデータに基づいて描画される選手の3DCG等が表示される表示画面422を確認しながら、各種のハイライトメタデータを入力画面から入力する。
【0081】
まず、運用者端末40の操作者は、ハイライトメタデータ作成画面420の上部に表示される日付入力欄431に、対象の試合の日付を入力する。運用者端末40がサーバ20Aから受信したスポーツメタデータには、試合の日付と対戦チームの情報が含まれるため、運用者端末40は、該当する対戦チームの情報を、日付入力欄431の隣に表示する。
【0082】
操作者は、表示画面421に表示されるハイライト2D映像を視認し、モーションデータのハイライトメタデータを作成したいシーンの再生位置において、シークバーの下に表示される設定ボタン432を選択すると、ハイライトメタデータの入力画面(例えば第2シーンの入力画面425)が表示される。
【0083】
入力画面では、例えば、シーンタイプ(得点シーン、フリーキックシーン等)、ターゲットチーム(ホーム、アウェイ)、最後にシュートを打った選手の背番号、シーン再生開始時間、シーン継続時間、シーン説明文章、およびシーン説明文章のショート版が入力され得る。ここで説明する項目は一例であって本実施形態はこれに限定されない。
【0084】
シーンタイプは、視聴時に表示されるチャプターリストにおいて各シーンがどんなシーンであるかをアイコンで示される際に用いられる情報である。例えば得点シーンであればゴールポストのアイコンが表示される。また、チャプターリストでは、アイコンの横にシーン説明文章のショート版も表示され得る。
【0085】
ターゲットチームは、各シーンにおいて攻撃している側のチームがホームチームであるかアウェイチームであるかを示す情報である。ホームチームとは、試合会場を本拠地とする側のチームであり、本実施形態では、ホームチームとアウェイチームとの対戦を想定する。また、対戦しているどちらのチームがホームまたはアウェイであるかは、モーションデータまたはスポーツメタデータに含まれ得る。各ハイライトシーンの視聴時には、例えば当該シーンのターゲットチームのロゴを示すカバー画面が表示され、ターゲットチームはその際に用いられる。カバー画面には、当該シーンの秒数と、シーン説明文章が表示され得る。
【0086】
最後にシュートを打った選手の背番号の情報は、視聴者端末30において仮想カメラの位置を設定する際に用いられる。視聴者端末30において、仮想カメラの位置は、例えば、Basic:ゴールとボールを結んだ延長線上に配置、Bird’s eye:ボールの上空後方で広く画角が取れる位置に配置、GK:ゴールキーパーの視点に配置、Shooter:各シーンの最後にシュートを打つ選手の視点に配置、から視聴者が任意に選ぶことも可能である。
【0087】
シーン再生開始時間およびシーン継続時間は、モーションデータの時間軸上におけるハイライトシーンの位置を示す時間情報である。フォーマット変換済みのモーションデータであるため、シーン再生開始時間は、フォーマット基準時間、すなわちデータの先頭からの経過時間で示される。
【0088】
また、運用者端末40は、ハイライト2D映像のシーン時間(IN点、OUT点情報)に基づいて、モーションデータにおける対応するハイライトシーンのシーン再生開始時間およびシーン継続時間を算出し、入力画面に自動設定し、操作者が手動で調整できるようにしてもよい。ハイライト2D映像(各ハイライトシーンから成る映像)には、監督または観客等、選手以外の映像が含まれる場合もあるが、モーションデータはフィールド内の選手の動きをトラッキングしたデータであるため、ハイライト2D映像に対応するシーンがモーションデータに無い場合がある。従って、操作者がシーン再生開始時間およびシーン継続時間の調整を行うことで、モーションデータに基づく3DCG映像を生成するに適したシーンにすることができる。
【0089】
運用者端末40によるハイライト2D映像に基づく、モーションデータにおける対応するハイライトシーンのシーン再生開始時間およびシーン継続時間の算出について説明する。ハイライト2D映像のシーン時間(IN点、OUT点情報)は、ハイライト2D映像の元となる2D映像における試合開始時間からの経過時間で表現される。一方、モーションデータで用いられるモーション基準時間は、西暦2000年1月1日からの経過時間であり、また、フォーマット変換によりモーションデータの先頭を0msとしてそこからの経過時間も付与されている。このように、「ハイライトシーンのIN点、OUT点情報」と「モーションデータ」の基準時間が異なっているため、運用者端末40は、時間の同期を行うことで、モーションデータにおける対応するハイライトシーンのシーン再生開始時間およびシーン継続時間の自動設定を行い得る。
【0090】
例えば、運用者端末40は、まず、スポーツメタデータに含まれる試合開始時間情報(西暦の日時)を、モーション基準時間(西暦2000年1月1日からの経過時間)に変換する。また、運用者端末40は、フォーマット変換されたモーションデータの先頭の時間(フォーマット基準時間的には、0ms)に対応するモーション基準時間(西暦2000年1月1日からの経過時間)を取得する。これらを照らし合わせることで、運用者端末40は、モーションデータにおけるフォーマット基準時間での試合開始時間(すなわち、モーションデータの先頭(0ms)からの経過時間)を算出する。モーションデータは、試合開始(例えばキックオフ)前から取得されていることが想定され、モーションデータの先頭が試合開始時間とは限らない。これにより、運用者端末40は、操作者によるハイライト2D映像生成の際に作成される、試合開始からの経過時間で示される「IN点、OUT点情報」が、モーションデータにおける時間軸上のどの位置であるかを、モーションデータにおける試合開始時間の位置から算出することができる。ここで説明した同期方法は一例であり、本実施形態はこれに限定されない。また、時間の同期処理は、運用者端末40で動作するエディターAPにより実行され得る。また、時間の同期処理は、サーバ20Bで実行されてもよい。
【0091】
以上、本開示による第2の実施形態について説明した。
【0092】
<3.変形例>
<<3-1.第1の変形例>>
運用者端末40は、ハイライトメタデータの作成時に、各シーンの最終フレームにおけるボールの位置がどちらのゴールに近いかに基づいて、どちらのゴールが攻め込まれているか(攻勢状況)を自動判断し、ハイライトメタデータに自動入力してもよい。視聴者端末30における視聴の際、攻め込まれているゴールの中心とボールの位置の延長線上に仮想カメラを配置することで、攻め込まれているゴールを常に画角に捉えたシーンを表示することが可能となる。なお、各シーンの解析に基づくハイライトメタデータの自動入力は、サーバ20Bで行われてもよい。
【0093】
<<3-2.第2の変形例>>
試合のスポーツメタデータには、誰がいつ得点を入れたか、イエローカードまたはレッドカードをいつ誰が受けたかといった発生事象情報が含まれるが、スポーツメタデータは、主に手動で作業者がリアルタイムの試合映像を見ながら入力することが想定されるため、スポーツメタデータの時間情報が実際の試合で起きた時間と比較すると最大で前後に1分程度ズレる可能性がある。
【0094】
そこで、サーバ20(サーバ20Aまたはサーバ20B)は、スポーツメタデータに記録されている発生事象が事象発生時間の前後1分に対応するモーションデータを分析して、より正確な時間に修正することが可能である。例えば得点情報の場合、サーバ20は、モーションデータに含まれるボールデータの位置情報をチェックし、実際にゴールラインを割った時間をゴールの時間とする。また、イエローカードまたはレッドカードの場合、サーバ20は、モーションデータに含まれる主審の動きデータに基づいて、主審の手の動きが選手に対してカードを指し示す動作を行った時間を、イエローカードまたはレッドカードの時間とする。サーバ20は、分析した結果の時間でスポーツメタデータを書き換え、記憶部230に格納する。
【0095】
<<3-3.第3の変形例>>
上述した実施形態では、試合のスポーツメタデータは事業者B装置14で生成される旨を説明したが、本開示はこれに限定されない。サーバ20(サーバ20Aまたはサーバ20B)が、事業者A装置12(外部の装置の一例)から取得したモーションデータに基づいて発生事象を推測し、スポーツメタデータ(イベントメタデータの一例)を自動生成することも可能である。モーションデータには、選手の位置およびボールの位置の時系列データが含まれるため、サーバ20は、かかるボールの位置とゴールラインの比較を行うことで得点の有無を判断する等、試合中における特定の事象の発生を判断(推測)し、スポーツメタデータを生成し得る。
【0096】
<<3-4.第4の変形例>>
また、上述した実施形態では試合後にモーションデータおよびスポーツメタデータを配信すること想定しているが、本開示はこれに限定されず、情報処理システムは、試合中にリアルタイムで取得されたモーションデータおよびスポーツメタデータをリアルタイムで配信してもよい。
【0097】
<<3-5.第5の変形例>>
上述した実施形態では、運用者端末40において、操作者の入力等に基づいてハイライトメタデータを生成する旨を説明したが、本開示はこれに限定されず、サーバ20Bが、ハイライト2D映像に基づいてハイライトメタデータ(特に、シーン開始時間およびシーン継続時間)を生成することが可能である。例えば、サーバ20Bは、ハイライト2D映像のシーン時間(IN点、OUT点情報)に基づいて、モーションデータにおける対応するハイライトシーンのシーン再生開始時間およびシーン継続時間を算出する。ハイライト2D映像のシーン時間(IN点、OUT点情報)と、モーションデータの基準時間(フォーマット基準時間)との同期については、上述した通りである。
【0098】
<4.ハードウェア構成>
続いて、図8を参照して、本開示の実施形態に係るサーバ20(20A、20B)の例としての情報処理装置900のハードウェア構成例について説明する。図8は、情報処理装置900のハードウェア構成例を示すブロック図である。なお、サーバ20(20A、20B)は、必ずしも図8に示したハードウェア構成の全てを有している必要はなく、サーバ20(20A、20B)の中に、図8に示したハードウェア構成の一部は存在しなくてもよい。また、図8に示すハードウェア構成例は、視聴者端末30、または運用者端末40にも適用され得る。
【0099】
図8に示すように、情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)902、およびRAM(Random Access Memory)903を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
【0100】
CPU901は、演算処理装置および制御装置として機能し、ROM902、RAM903、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM902は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM902、およびRAM903は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
【0101】
入力装置915は、例えば、ボタンなど、ユーザによって操作される装置である。入力装置915は、マウス、キーボード、タッチパネル、スイッチおよびレバーなどを含んでもよい。また、入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。また、入力装置915は、撮像装置を含んでもよい。撮像装置は、例えばユーザの手の動き、ユーザの指などを撮像する。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
【0102】
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音出力装置などであり得る。また、出力装置917は、PDP(Plasma Display Panel)、プロジェクタ、ホログラム、プリンタ装置などを含んでもよい。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
【0103】
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
【0104】
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM903に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
【0105】
接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換され得る。
【0106】
通信装置925は、例えば、ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続されるネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
【0107】
<5.補足>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0108】
例えば、上述したサーバ20A、サーバ20B、視聴者端末30、または運用者端末40に内蔵されるCPU、ROM、およびRAM等のハードウェアに、サーバ20A、サーバ20B、視聴者端末30、または運用者端末40の機能を発揮させるための1以上のコンピュータプログラムも作成可能である。また、当該1以上のコンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
【0109】
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
【0110】
なお、本技術は以下のような構成も取ることができる。
(1)
イベント中における対象の動きをトラッキングして得られるモーションデータと、前記イベントの状況に関する時系列データを少なくとも含むイベントメタデータとを取得する処理と、
前記モーションデータに基づいて仮想空間内で前記対象の仮想物体を表示する制御と、前記仮想物体が表示される表示画面における前記イベントメタデータに基づく表示制御と、を行うユーザ端末に、前記モーションデータおよび前記イベントメタデータを送信する処理と、
を行う制御部を備え、
前記モーションデータと前記イベントメタデータは、それぞれ異なる装置において生成される、
情報処理装置。
(2)
前記イベントは、試合である、前記(1)に記載の情報処理装置。
(3)
前記制御部は、
前記モーションデータを第1の装置から取得し、
前記イベントメタデータを前記第1の装置と異なる第2の装置から取得する、
前記(2)に記載の情報処理装置。
(4)
前記制御部は、
前記モーションデータを外部の装置から取得し、
前記イベントメタデータを前記モーションデータに基づいて生成する、
前記(2)に記載の情報処理装置。
(5)
前記イベントメタデータは、試合開始日時の情報と、前記試合での発生事象および発生時間を示す時系列データと、を含む、前記(2)~(4)のいずれか1項に記載の情報処理装置。
(6)
前記制御部は、前記モーションデータに基づいて、前記発生時間のズレを調整する処理を行う、前記(5)に記載の情報処理装置。
(7)
前記発生事象は、得点および審判による各種警告を含む、前記(5)または(6)に記載の情報処理装置。
(8)
前記発生事象は、前記モーションデータに基づいて推測される、前記(5)~(7)のいずれか1項に記載の情報処理装置。
(9)
前記イベントメタデータは、選手に関する情報をさらに含む、前記(2)~(8)のいずれか1項に記載の情報処理装置。
(10)
前記モーションデータは、各選手の骨格位置の時系列データ、およびボールの位置の時系列データを含む、前記(2)~(9)のいずれか1項に記載の情報処理装置。
(11)
前記制御部は、前記モーションデータを配信用フォーマットに変換し、前記イベントメタデータと共に、前記ユーザ端末に送信する処理を行う、前記(2)~(10)のいずれか1項に記載の情報処理装置。
(12)
前記配信用フォーマットに変換されたモーションデータには、前記配信用フォーマットで用いられる基準時間が適用される、前記(11)に記載の情報処理装置。
(13)
前記制御部は、前記試合のハイライトシーンに関する情報であるハイライトメタデータをさらに取得し、前記モーションデータおよび前記イベントメタデータと共に、前記ユーザ端末に送信する処理を行う、前記(2)~(12)のいずれか1項に記載の情報処理装置。
(14)
前記ハイライトメタデータは、前記モーションデータにおける各ハイライトシーンの開始時間および継続時間を示す情報を含む、前記(13)に記載の情報処理装置。
(15)
前記ハイライトメタデータの基準時間は、前記モーションデータが変換される配信用フォーマットで用いられる基準時間に対応する、前記(13)または(14)に記載の情報処理装置。
(16)
前記ハイライトメタデータは、前記モーションデータを生成する装置および前記イベントメタデータを生成する装置と異なる装置において生成される、前記(13)~(15)のいずれか1項に記載の情報処理装置。
(17)
前記制御部は、前記モーションデータを配信用フォーマットに変換したデータおよび前記イベントメタデータを、前記ハイライトメタデータを生成する装置に送信し、当該装置から、前記ハイライトメタデータを受信する、前記(16)に記載の情報処理装置。
(18)
前記ハイライトメタデータには、前記ユーザ端末において前記仮想空間における仮想カメラの配置を決定する際に用いられる情報として、各ハイライトシーンにおける攻勢状況を示す情報が含まれる、前記(13)~(17)のいずれか1項に記載の情報処理装置。
(19)
プロセッサが、
イベント中における対象の動きをトラッキングして得られるモーションデータと、前記イベントの状況に関する時系列データを少なくとも含むイベントメタデータとを取得することと、
前記モーションデータに基づいて仮想空間内で前記対象の仮想物体を表示する制御と、前記仮想物体が表示される表示画面における前記イベントメタデータに基づく表示制御と、を行うユーザ端末に、前記モーションデータおよび前記イベントメタデータを送信する処理と、
を行うことと、
を含み、
前記モーションデータと前記イベントメタデータは、それぞれ異なる装置において生成される、
情報処理方法。
(20)
コンピュータを、
イベント中における対象の動きをトラッキングして得られるモーションデータと、前記イベントの状況に関する時系列データを少なくとも含むイベントメタデータとを取得する処理と、
前記モーションデータに基づいて仮想空間内で前記対象の仮想物体を表示する制御と、前記仮想物体が表示される表示画面における前記イベントメタデータに基づく表示制御と、を行うユーザ端末に、前記モーションデータおよび前記イベントメタデータを送信する処理と、
を行う制御部として機能させ、
前記モーションデータと前記イベントメタデータは、それぞれ異なる装置において生成される、
プログラム。
【符号の説明】
【0111】
1A、1B 情報処理システム
11a カメラ
11b マイク
12 事業者A装置
13 操作入力装置
14 事業者B装置
20A、20B サーバ
210 通信部
220A、220B 制御部
221 配信用フォーマット変換部
222 データ格納制御部
223 配信制御部
224 ハイライトメタデータ取得部
30 視聴者端末
40 運用者端末
図1
図2
図3
図4
図5
図6
図7
図8