IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ソニー株式会社の特許一覧 ▶ 株式会社ソニー・コンピュータエンタテインメントの特許一覧

特開2024-61694情報処理装置、情報処理方法、およびプログラム
<>
  • 特開-情報処理装置、情報処理方法、およびプログラム 図1
  • 特開-情報処理装置、情報処理方法、およびプログラム 図2
  • 特開-情報処理装置、情報処理方法、およびプログラム 図3
  • 特開-情報処理装置、情報処理方法、およびプログラム 図4
  • 特開-情報処理装置、情報処理方法、およびプログラム 図5
  • 特開-情報処理装置、情報処理方法、およびプログラム 図6
  • 特開-情報処理装置、情報処理方法、およびプログラム 図7
  • 特開-情報処理装置、情報処理方法、およびプログラム 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024061694
(43)【公開日】2024-05-08
(54)【発明の名称】情報処理装置、情報処理方法、およびプログラム
(51)【国際特許分類】
   G06F 3/0481 20220101AFI20240426BHJP
   A63F 13/65 20140101ALI20240426BHJP
   A63F 13/428 20140101ALI20240426BHJP
【FI】
G06F3/0481
A63F13/65
A63F13/428
【審査請求】未請求
【請求項の数】13
【出願形態】OL
(21)【出願番号】P 2021037071
(22)【出願日】2021-03-09
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(71)【出願人】
【識別番号】310021766
【氏名又は名称】株式会社ソニー・インタラクティブエンタテインメント
(74)【代理人】
【識別番号】100140958
【弁理士】
【氏名又は名称】伊藤 学
(74)【代理人】
【識別番号】100137888
【弁理士】
【氏名又は名称】大山 夏子
(74)【代理人】
【識別番号】100154036
【弁理士】
【氏名又は名称】久保 貴弘
(72)【発明者】
【氏名】堂前 拓馬
(72)【発明者】
【氏名】田中 淳一
(72)【発明者】
【氏名】田中 和治
(72)【発明者】
【氏名】松原 正章
(72)【発明者】
【氏名】松井 康範
【テーマコード(参考)】
5E555
【Fターム(参考)】
5E555AA76
5E555BA02
5E555BA04
5E555BB02
5E555BB04
5E555BC01
5E555BE16
5E555BE17
5E555CA41
5E555CA42
5E555CA44
5E555CA45
5E555CA47
5E555DA08
5E555DA09
5E555DA23
5E555DB32
5E555DC09
5E555FA00
(57)【要約】
【課題】仮想空間における演者の姿を切り替えてエンターテインメント性を高めることが可能な情報処理装置、情報処理方法、およびプログラムを提供する。
【解決手段】仮想空間におけるユーザ視点の画像に関する情報を出力する制御を行う制御部を備え、前記制御部は、前記仮想空間内での1以上のユーザの状況、または前記仮想空間の状況の検出結果に応じて、前記画像に含まれる演者に対応する表示を、前記演者の撮像画像に基づいて生成される実写画像と当該演者に対応するキャラクター画像とで切り替える制御を行う、情報処理装置。
【選択図】図1
【特許請求の範囲】
【請求項1】
仮想空間におけるユーザ視点の画像に関する情報を出力する制御を行う制御部を備え、
前記制御部は、
前記仮想空間内での1以上のユーザの状況、または前記仮想空間の状況の検出結果に応じて、前記画像に含まれる演者に対応する表示を、前記演者の撮像画像に基づいて生成される実写画像と当該演者に対応するキャラクター画像とで切り替える制御を行う、情報処理装置。
【請求項2】
前記仮想空間内での1以上のユーザの状況は、前記仮想空間で実施されるイベントに参加している1以上のユーザアバターに関する状況である、請求項1に記載の情報処理装置。
【請求項3】
前記仮想空間の状況は、前記仮想空間で実施されるイベントにおける特定の状況である、請求項1に記載の情報処理装置。
【請求項4】
前記イベントにおける特定の状況は、特定の演出の発生、または、楽曲における特定の時間帯である、請求項3に記載の情報処理装置。
【請求項5】
前記制御部は、前記1以上のユーザの状況、および前記仮想空間の状況の少なくともいずれかが条件を満たした場合、前記演者に対応する表示を、前記実写画像または前記キャラクター画像に切り替える、請求項1に記載の情報処理装置。
【請求項6】
前記実写画像は、前記演者の三次元情報を含む実写画像であって、
前記キャラクター画像は、前記演者の三次元のモーションキャプチャデータに基づいて動く三次元キャラクターモデルの画像である、請求項1に記載の情報処理装置。
【請求項7】
前記制御部は、前記仮想空間においてリアルタイムに実施されるイベント、または、前記仮想空間において事前に収録されたイベントにおいて、前記ユーザ視点の画像に関する情報を出力する制御を行う、請求項1に記載の情報処理装置。
【請求項8】
前記制御部は、前記ユーザ視点の画像に関する情報を、ユーザ端末に出力する制御を行う、請求項1に記載の情報処理装置。
【請求項9】
前記制御部は、前記ユーザ視点の画像に含まれる演者に対応する表示の切り替えを、前記仮想空間で実施されるイベントに参加しているユーザ毎に、または、全てのユーザに対して一律に切り替える、請求項1に記載の情報処理装置。
【請求項10】
前記制御部は、仮想空間の情報を配信するサーバから受信した情報に基づいて、前記仮想空間におけるユーザ視点の画像を表示部に表示出力する制御を行う、請求項1に記載の情報処理装置。
【請求項11】
前記制御部は、前記ユーザ視点の画像に含まれる演者に対応する表示を、ユーザからの操作指示に基づいて前記実写画像と前記キャラクター画像とで切り替える制御を行う、請求項10に記載の情報処理装置。
【請求項12】
プロセッサが、
仮想空間におけるユーザ視点の画像に関する情報を出力する制御を行うことを含み、
さらに、前記仮想空間内での1以上のユーザの状況、または前記仮想空間の状況の検出結果に応じて、前記画像に含まれる演者に対応する表示を、前記演者の撮像画像に基づいて生成される実写画像と当該演者に対応するキャラクター画像とで切り替える制御を行うことを含む、情報処理方法。
【請求項13】
コンピュータを、
仮想空間におけるユーザ視点の画像に関する情報を出力する制御を行う制御部として機能させ、
前記制御部は、
前記仮想空間内での1以上のユーザの状況、または前記仮想空間の状況の検出結果に応じて、前記画像に含まれる演者に対応する表示を、前記演者の撮像画像に基づいて生成される実写画像と当該演者に対応するキャラクター画像とで切り替える制御を行う、プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
【背景技術】
【0002】
近年普及しているVR(Virtual Reality)の技術では、3Dモデルが配置された仮想空間内におけるユーザ操作に応じた任意の視点(自由視点)からの映像が生成され、ユーザに提供される。ユーザは、スマートフォンやタブレット端末、テレビ装置、視界全体を覆う非透過型のHMD(Head Mounted Display)等の表示装置を用いて、仮想空間の映像(画像および音声)を視聴することができる。
【0003】
仮想空間での体験をより楽しむためのことの1つとして、仮想空間で行われるイベントに複数のユーザが同時に参加することが挙げられる。例えば下記特許文献1では、仮想3次元空間内で実施されるイベントの演出制御に関し、イベントに参加する複数の参加者の鑑賞位置(仮想カメラの位置)に対して、特別な演出を制御することが開示されている。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2018-94326号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
仮想空間で行われるイベントとしては、例えばアニメやゲーム等のキャラクターによるコンサート等も想定されるが、近年は、キャラクターの人気もさることながら、当該キャラクターを演じている演者(リアルの人間)の人気も高まっている。しかしながら、仮想空間における演者の姿は、演者用のアバター、すなわち所定のキャラクター3Dモデル(3次元の立体として生成されたモデルデータ)に固定されている。
【0006】
そこで、本開示では、仮想空間における演者の姿を切り替えてエンターテインメント性を高めることが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
【課題を解決するための手段】
【0007】
本開示によれば、仮想空間におけるユーザ視点の画像に関する情報を出力する制御を行う制御部を備え、前記制御部は、前記仮想空間内での1以上のユーザの状況、または前記仮想空間の状況の検出結果に応じて、前記画像に含まれる演者に対応する表示を、前記演者の撮像画像に基づいて生成される実写画像と当該演者に対応するキャラクター画像とで切り替える制御を行う、情報処理装置を提案する。
【0008】
本開示によれば、プロセッサが、仮想空間におけるユーザ視点の画像に関する情報を出力する制御を行うことを含み、さらに、前記仮想空間内での1以上のユーザの状況、または前記仮想空間の状況の検出結果に応じて、前記画像に含まれる演者に対応する表示を、前記演者の撮像画像に基づいて生成される実写画像と当該演者に対応するキャラクター画像とで切り替える制御を行うことを含む、情報処理方法を提案する。
【0009】
本開示によれば、コンピュータを、仮想空間におけるユーザ視点の画像に関する情報を出力する制御を行う制御部として機能させ、前記制御部は、前記仮想空間内での1以上のユーザの状況、または前記仮想空間の状況の検出結果に応じて、前記画像に含まれる演者に対応する表示を、前記演者の撮像画像に基づいて生成される実写画像と当該演者に対応するキャラクター画像とで切り替える制御を行う、プログラムを提案する。
【図面の簡単な説明】
【0010】
図1】本開示の一実施形態による情報処理システムの概要について説明する図である。
図2】本実施形態による仮想空間で行われるイベントにおける演者の姿の切り替えについて説明する図である。
図3】本実施形態による配信サーバの構成の一例を示すブロック図である。
図4】本実施形態によるユーザ端末の構成の一例を示すブロック図である。
図5】本実施形態によるリアルタイムで行っているVRイベントを配信する際の動作処理の流れの一例を示すシーケンス図である。
図6】本実施形態による収録されたVRイベントを配信する際の動作処理の流れの一例を示すシーケンス図である。
図7】本実施形態の変形例によるユーザ端末の構成の一例を示すブロック図である。
図8】本実施形態の本変形例によるVRイベントをライブ配信する際の動作処理の流れの一例を示すシーケンス図である。
【発明を実施するための形態】
【0011】
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
【0012】
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.構成例
3.動作処理
3-1.ライブ配信時の動作処理
3-2.収録配信時の動作処理
4.変形例
4-1.切り替え制御をユーザ端末で行う場合
4-2.ARへの適用
5.補足
【0013】
<<1.本開示の一実施形態による情報処理システムの概要>>
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システムは、ユーザ端末10、配信サーバ20、演者端末30、レンダリングサーバ40、およびイベント管理用端末50を有する。
【0014】
配信サーバ20は、3Dモデルが配置される仮想空間(VR:Virtual Reality)の管理、および、仮想空間における任意の視点(演者視点やユーザ視点)からの映像の配信を行う情報処理装置である。配信サーバ20は、複数のサーバから成る配信システムであってもよい。
【0015】
ユーザ端末10は、ユーザに利用される情報処理端末であって、例えばスマートフォン、タブレット端末、PC(パーソナルコンピュータ)、視界全体を覆う非透過型のHMD(Head Mounted Display)、透過型のメガネ型デバイス、プロジェクター等により実現される。ユーザ端末10は、配信サーバ20から受信した仮想空間におけるユーザ視点の映像データ(画像)および音声を出力(表示出力、音声出力)する。また、ユーザ端末10は、仮想空間に対するユーザからの入力情報を取得し、配信サーバ20に送信する。配信サーバ20は、ユーザからの入力情報に応じて仮想空間におけるユーザ視点(仮想カメラの位置、方向)を変化させたり、仮想空間の3Dオブジェクトに反映させたりする。また、仮想空間には、ユーザの分身となるユーザアバターが存在していてもよい。ユーザアバターは、仮想空間に配置される3Dオブジェクトに含まれ、例えばキャラクター3Dモデルにより生成される。ユーザアバターは、ユーザからの入力情報に従って動いたり、表情を変えたり、移動したりする。仮想空間におけるユーザ視点(仮想カメラの位置、方向)は、ユーザアバターの視点であってもよいし、ユーザアバターを画角内に収める視点であってもよい。
【0016】
演者端末30は、演者からの入力情報を取得し、配信サーバ20に送信する。仮想空間には、演者の分身となる演者アバターが存在し、演者からの入力情報に従って演者アバターが動いたり、表情を変えたり、移動したりする。演者アバターは、仮想空間に配置される3Dオブジェクトに含まれる。配信サーバ20に送信される入力情報は、例えば演者の動きを示すモーションデータ(手足の動き、頭部の動き、顔の表情、姿勢の変化等を含む)や、音声データが挙げられる。例えば演者アバターは3Dモデルデータにより生成されており、演者のモーションデータを当てはめることで、演者アバターを動かすことができる。
【0017】
モーションデータは、例えば実空間において演者を撮像するモーションキャプチャカメラ31により取得される。なお、本実施形態では一例としてモーションデータがカメラにより取得される場合について説明するが、これに限定されない。例えば演者のモーションデータは、演者に装着された各種センサ(加速度センサ、ジャイロセンサ等)により取得されてもよい。また、演者のモーションデータは、各種センサとカメラを組み合わせて取得されてもよい。
【0018】
音声データは、実空間において演者自身に装着されたり、演者が把持したり、演者の周囲に配置されたマイク32により取得される。なお、実空間に配置された複数のマイク32により収音された音声を合成して配信サーバ20に送信されてもよい。また、演者が演奏する楽器や、CDプレーヤー、デジタルプレーヤー等から出力される音声データ(音響データ)も、演者側から提供される音声データとして演者端末30により配信サーバ20に送信される。また、演者端末30から配信サーバ20に送信される音声データは、実空間に配置されたミキサーにより各種音源を個別に調整した上で混合(ミックス)した音声であってもよい。
【0019】
イベント管理用端末50は、仮想空間内で実施されるイベントの進行や演出を操作する際に用いられる情報処理端末である。イベント管理用端末50は、例えばイベントの管理者により操作される。イベントの管理者は、演者自身であってもよいし、演者とは別の人物であってもよい。イベントに出演する演者や管理者も含め、イベントの開催に関わる者を広く配信者側とも称する。
【0020】
また、イベント管理用端末50には、配信サーバ20から、仮想空間で実施されるイベントの映像および音声が送信され得る。イベント映像は、仮想空間における複数視点からの映像であってもよい。例えば、仮想空間で実施されるイベントの会場において、ステージ上から見える観客席(例えばユーザアバターが配置されているエリア)の映像(演者視点の映像)であってもよい。また、ステージを正面や横、上から見る映像であってもよい。また、ステージと観客席を含むイベント会場全体が見える映像であってもよい。かかるイベント映像は、イベント管理用端末50の表示部に表示されてもよいし、実空間において演者の見易い位置等に配置された演者側表示装置51に表示されてもよい。また、演者側表示装置51が複数用意され、それぞれ異なる視点の仮想空間におけるイベント映像が表示されてもよい。演者は、演者側表示装置51を見て仮想空間内の観客(ユーザアバター)の様子や、ステージの様子、自身が演じる演者アバターの様子等をリアルタイムで確認することができる。
【0021】
また、本実施形態では、演者を撮像した多数の実写映像(撮像画像)に基づいて被写体である演者を3DCG化する技術(例えばVolumetric Capture技術)を用いて、演者の実写3Dモデルを演者アバターとして生成し、仮想空間に配置することも可能である。実写3Dモデルを生成するためのデータは、実写3D用カメラ33により取得され得る。実写3D用カメラ33は、実空間において、例えば演者の周囲に数十台設置され、様々な角度から演者を撮影する。撮影されたデータ(撮像データ)は、演者端末30によりレンダリングサーバ40に送信され、レンダリングサーバ40において実写3Dモデルが生成される。レンダリングサーバ40は、複数のサーバから成るクラウドサーバであってもよい。そして、レンダリングサーバ40により生成された実写3Dモデルは、配信サーバ20に出力される。また、本実施形態による実写3D用カメラ33による実写映像の撮影、レンダリングサーバ40による当該実写映像の撮像データに基づく実写3Dモデルの生成、および、配信サーバ20での実写3Dモデルの仮想空間内での配置は、リアルタイムに行われ得る。
【0022】
(課題の整理)
上述したように、近年では、アニメやゲーム等のキャラクターの人気もさることながら、当該キャラクターを演じている演者(リアルの人間)の人気も高まっている。しかしながら、仮想空間における演者の姿は、対応付けられたアバター(キャラクター3Dモデル)に固定されている。
【0023】
そこで、本開示による情報処理システムでは、仮想空間における演者の姿を切り替えることで、エンターテインメント性を高めることを可能とする。
【0024】
図2は、本実施形態による仮想空間で行われるイベントにおける演者の姿の切り替えについて説明する図である。図2左には、演者アバターがキャラクター3Dモデル7aで表示されている場合の映像700を示し、図2右には、演者アバターが実写3Dモデル7bで表示されている場合の映像710を示す。演者アバターをキャラクター3Dモデル7aで表示するか実写3Dモデル7bで表示するかの切り替えは、ユーザ毎に任意に(個別に)行われてもよいし、配信者側で一律に制御されてもよい。また、仮想空間におけるユーザアバターの状況や、仮想空間で行われるイベントの状況に応じて、自動的に切り替えが制御されてもよい。
【0025】
以上、本開示の一実施形態による情報処理システムの概要について説明した。続いて、本実施形態による情報処理システムに含まれる各装置の具体的な構成について図面を参照して説明する。
【0026】
<<2.構成例>>
<2-1.配信サーバ20の構成例>
図3は、本実施形態による配信サーバ20の構成の一例を示すブロック図である。配信サーバ20は、ネットワークを介してユーザ端末10、レンダリングサーバ40、およびイベント管理用端末50と通信接続するサーバである。配信サーバ20は、複数のサーバから成るクラウドサーバであってもよい。
【0027】
図3に示すように、配信サーバ20は、通信部210、制御部220、および記憶部230を有する。
【0028】
(通信部210)
通信部210は、有線または無線により外部装置とデータの送受信を行う。通信部210は、例えば有線/無線LAN(Local Area Network)、Wi-Fi(登録商標)、Bluetooth(登録商標)、携帯通信網(LTE(Long Term Evolution)、4G(第4世代の移動体通信方式)、5G(第5世代の移動体通信方式))等を用いて、ユーザ端末10や、レンダリングサーバ40、イベント管理用端末50と通信接続する。
【0029】
(制御部220)
制御部220は、演算処理装置および制御装置として機能し、各種プログラムに従って配信サーバ20内の動作全般を制御する。制御部220は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部220は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
【0030】
また、本実施形態による制御部220は、仮想空間管理部221、仮想空間情報提供部222、および演者表示切り替え制御部223としても機能する。
【0031】
仮想空間管理部221は、仮想空間の管理を行う。具体的には、仮想空間管理部221は、仮想空間を生成(構築)するための各種情報(仮想空間に配置される3Dオブジェクトの情報等)の取得、追加、更新等を行う。例えば仮想空間管理部221は、ユーザ端末10や、演者端末30、レンダリングサーバ40、およびイベント管理用端末50から送信される入力情報を、適宜、仮想空間に反映させる。例えば、仮想空間管理部221は、ユーザ端末10からの入力情報に従って、仮想空間に配置される当該ユーザのユーザアバターの手足や姿勢を動かしたり、ユーザアバターの位置を前後左右に移動させる(ユーザ視点に対応する仮想カメラの位置も追随して変化させる)。また、仮想空間管理部221は、イベント管理用端末50から送信される情報に従って、仮想空間におけるイベントの実施を制御する。なお、仮想空間で実施されるイベントとは、例えば、コンサートや、講演会、演劇、祭り、その他各種催し物が想定される。また、仮想空間管理部221は、仮想空間における演者や各ユーザアバターのID、位置等を把握する。
【0032】
仮想空間情報提供部222は、仮想空間の情報を、ユーザ端末10やイベント管理用端末50に提供する。仮想空間の情報とは、記憶部230に格納されている情報であってもよいし、記憶部230に格納されている情報に基づいて仮想空間情報提供部222が生成した情報であってもよい。より具体的には、仮想空間の情報とは、仮想空間におけるユーザ視点での映像データであってもよい。仮想空間における各ユーザ視点での映像データが継続的にリアルタイムで各ユーザ端末10に送信され(所謂VRストリーミング配信)、各ユーザ端末10において表示されることで、複数のユーザが、同一の仮想空間を共有して同時に視聴することができる。
【0033】
また、仮想空間の情報とは、仮想空間におけるユーザ視点での映像を生成するためのデータであってもよい。仮想空間におけるユーザ視点での映像を生成するためのデータとは、例えば、仮想空間に配置される各3Dオブジェクト(演者や他ユーザのアバターを含む)の位置・姿勢情報や、仮想空間におけるユーザ視点に対応する仮想カメラの3次元位置座標等が挙げられる。このようなデータが継続的にリアルタイムで各ユーザ端末10に送信され、各ユーザ端末10においてユーザ視点の映像をリアルタイムに生成し、表示することで、複数のユーザが、同一の仮想空間を共有して同時に視聴することができる。なお、ユーザ端末10は、イベントに参加する前に予め配信サーバ20から仮想空間を構築するための情報を取得し、ローカルで仮想空間を構築することも可能である。この場合、イベント中は、配信サーバ20から継続的に仮想空間の更新情報(仮想空間の変化の情報等)が送信され、ユーザ端末10は、更新情報に基づいて、ローカルで構築した仮想空間を更新する。また、ユーザ端末10は、ユーザからの入力情報に従って、ローカルで構築した仮想空間内における仮想カメラの位置・方向を制御し、ユーザ視点の映像を生成し、表示し得る。
【0034】
演者表示切り替え制御部223は、仮想空間における演者アバターを、キャラクター3Dモデルで表示するか、実写3Dモデルで表示するかの切り替えを制御する。切り替えは、ユーザからの指示に従って行われてもよいし、配信者側からの指示に従って行われてもよい。また、演者表示切り替え制御部223は、仮想空間における1以上のユーザアバターの状況および仮想空間で行われるイベントの状況の少なくともいずれかが条件を満たした場合に、自動的に切り替えを制御してもよい。なお、キャラクター3Dモデルと実写3Dモデルとの切り替わりは、ユーザ毎に制御されてもよい。すなわち、あるユーザの視界(仮想空間におけるユーザ視点の映像)ではキャラクター3Dモデルで見えている一方、他のユーザの視界では実写3Dモデルで見えているようにしてもよい。これにより、各ユーザの好みにあった演出(表示)を実現することができ、また、一ユーザによる切り替え指示を他ユーザに影響させないようにすることができる。一方、キャラクター3Dモデルと実写3Dモデルとの切り替えを、全ユーザに対して一律に制御することも可能である。これにより、例えばイベント中における特定のタイミングで、キャラクター3Dモデルが見えていた状況から、全ユーザに対して一斉に実写3Dモデルで見えるよう切り替えるといった演出を実現することもできる。
【0035】
本実施形態による切り替えのトリガについて詳述する。上述したように、一例として、ユーザからの指示が挙げられる。例えばユーザは、ユーザ端末10を操作して、画面上に表示される切り替えボタンを選択したり、コントローラを操作したり、所定のジェスチャを行ったり等することで、切り替えを明示的に指示する。また、ユーザは、ユーザ視点に対応する仮想カメラを、実写視聴用として設定された指定カメラ(仮想カメラの一つ)に切り替える指示を行ってもよい。または、ユーザアバターが仮想空間内で何らかのチャレンジを行って成功した場合(当たり判定が出た場合、条件を満たした場合等)に、演者表示切り替え制御部223が切り替えを行うようにしてもよい。例えば、ユーザアバターが何らかのアイテムを投げて演者アバターに当たった場合に、一定時間切り替わるようにしてもよい。また、ユーザアバターが仮想空間内で行った課金額に応じて一定時間切り替わるようにしてもよい。また、ユーザがイベント中に演者に対して送った応援メッセージのテキスト量が所定値を超えた場合であってもよい。なお、ユーザによる個別の指示や動き等によって演者アバターの表示を切り替える場合、演者表示切り替え制御部223は、ユーザ毎にキャラクター3Dモデルと実写3Dモデルとの切り替えを行うよう制御してもよい(他ユーザの視界には影響を与えない)。
【0036】
また、他の例として、仮想空間における1以上のユーザアバターの状況が所定の条件を満たした場合に、演者表示切り替え制御部223が切り替えを行うようにしてもよい。所定の条件については特に限定しないが、例えば、一定数のユーザアバターが同じ動きを行ったことを検知した場合であってもよい。また、演者が指定した動作を一定数のユーザアバターが同時に行ったことを検知した場合であってもよい。また、仮想空間におけるイベント参加者全体の盛り上がり(ユーザアバターの動きの大きさ、ジャンプ、拍手の多さ等)を所定の条件としてもよい。また、全ユーザからイベント中に演者に送られた応援メッセージのテキスト量が所定値を超えた場合であってもよい。また、イベント参加者(イベントの観客席に居るユーザアバター数)が所定値を超えた場合であってもよい。なお、多数のユーザアバターの状況によって演者アバターの表示を切り替える場合、演者表示切り替え制御部223は、全ユーザに対して一律にキャラクター3Dモデルと実写3Dモデルとの切り替えを行うよう制御してもよい(参加者の一体感が生まれる)。
【0037】
また、他の例として、仮想空間で実施されているイベントの状況に応じて、演者表示切り替え制御部223が切り替えを行うようにしてもよい。例えば、イベントにおいて特定の演出が発生した場合や、イベントで演奏(再生)される所定の楽曲における特定の時間帯(サビの間など)に、演者表示切り替え制御部223は、キャラクター3Dモデルと実写3Dモデルとの切り替えを行ってもよい。
【0038】
また、演者表示切り替え制御部223は、キャラクター3Dモデルと実写3Dモデルとの切り替えに併せて、ステージ背景や、イベント会場の背景も、仮想背景(3DCGにより生成した背景)または実写背景(実写の2D/3D映像)に切り替えるようにしてもよい。実写背景は、予め生成され得る。
【0039】
以上説明した演者表示切り替え制御部223による切り替え制御に応じて、仮想空間情報提供部222は、演者アバターの表示をキャラクター3Dモデルまたは実写3Dモデルに切り替えた映像を生成し、ユーザ端末10に送信する。キャラクター3Dモデルのデータは、配信サーバ20の記憶部230に格納されており、仮想空間情報提供部222は、演者端末30から送信されるモーションデータに基づいて、仮想空間内に配置されるキャラクター3Dモデルをリアルタイムで動かすことができる。また、実写3Dモデルは、レンダリングサーバ40においてリアルタイムに生成され、配信サーバ20に送信され得る。キャラクター3Dモデルおよび実写3Dモデルは、対応する演者のIDや立ち位置(3D座標位置)に対応付けられる。
【0040】
または、仮想空間情報提供部222は、演者アバターの表示の切り替え指示をユーザ端末10に送信してもよい。例えば仮想空間情報提供部222が、仮想空間におけるユーザ視点の映像を生成するためのデータをユーザ端末10に送信しており、ユーザ端末10で映像の生成を行っている場合、ユーザ端末10に送信するデータに、「演者アバターの表示の切り替え指示」を含めてもよい。この場合、演者のキャラクター3Dモデルのデータは予め(イベント開始前等)ユーザ端末10に送信しておき、リアルタイムの演者のモーションデータをユーザ端末10に送信することで、ユーザ端末10において、仮想空間に配置されるキャラクター3Dモデルを動かせるようにしてもよい。また、仮想空間情報提供部222は、ユーザ端末10に送信するデータに、実写3Dモデルも含めて継続的に送信してもよいし、実写3Dモデルへの切り替えが行われている間だけ送信するようにしてもよい。
【0041】
(記憶部230)
記憶部230は、制御部220の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。本実施形態により記憶部230は、仮想空間の情報を格納する。
【0042】
以上、配信サーバ20の構成について具体的に説明したが、本開示による配信サーバ20の構成は図3に示す例に限定されない。例えば、配信サーバ20は、複数の装置により実現されてもよい。また、レンダリングサーバ40による実写3Dモデルの生成を制御部220が行ってもよい。また、制御部220による機能の少なくとも一部をユーザ端末10が行ってもよい。
【0043】
<2-2.ユーザ端末10の構成例>
図4は、本実施形態によるユーザ端末10の構成の一例を示すブロック図である。図4に示すように、ユーザ端末10は、通信部110、制御部120、操作入力部130、センサ部140、表示部150、スピーカ160、および記憶部170を有する。
【0044】
(通信部110)
通信部110は、有線または無線により、配信サーバ20と通信接続してデータの送受信を行う。通信部110は、例えば有線/無線LAN(Local Area Network)、Wi-Fi(登録商標)、Bluetooth(登録商標)、赤外線通信、または携帯通信網(4G(第4世代の移動体通信方式)、5G(第5世代の移動体通信方式))等を用いた通信を行い得る。
【0045】
(制御部120)
制御部120は、演算処理装置および制御装置として機能し、各種プログラムに従ってユーザ端末10内の動作全般を制御する。制御部120は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部120は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
【0046】
本実施形態による制御部120は、操作入力部130やセンサ部140から入力された仮想空間に対する入力情報(操作入力情報、モーションデータ等)を、通信部110から配信サーバ20に送信する制御を行う。また、制御部120は、ユーザが身につけているセンサ装置や、ユーザの周囲に配置されたカメラ、ユーザが把持するコントローラ等の外部装置から取得した情報に基づいて、仮想空間に対する入力情報(操作入力情報、モーションデータ等)をユーザ端末10に送信してもよい。配信サーバ20に送信するユーザの入力情報には、演者アバターの表示の切り替え指示が含まれている場合もある。
【0047】
また、制御部120は、仮想空間画像表示制御部121としても機能し得る。仮想空間画像表示制御部121は、配信サーバ20から送信された(所謂VRストリーミング配信)、仮想空間におけるユーザ視点の映像データを、表示部150に表示する制御を行う。
【0048】
または、仮想空間画像表示制御部121は、配信サーバ20から送信された、仮想空間におけるユーザ視点の映像データを生成するための情報に基づいて、仮想空間におけるユーザ視点の映像データを生成し、表示部150に表示する制御を行う。仮想空間画像表示制御部121は、配信サーバ20から受信した情報に基づいて、仮想空間をローカルで構築してもよい(配信サーバ20から継続的にリアルタイムで送信される更新情報に基づいて更新も行う)。また、仮想空間画像表示制御部121は、操作入力部130やセンサ部140、またはユーザが身に着けているセンサ装置や把持しているコントローラ等から取得される、仮想空間に対する入力情報(操作入力情報、モーションデータ等)を、配信サーバ20に送信すると共に(同期のため)、ローカルで構築した仮想空間に配置されるユーザアバターの動きや移動を制御してもよい。
【0049】
なお、制御部120は、配信サーバ20から、仮想空間におけるユーザ視点の映像データと共に送信される音声データを、スピーカ160から再生する制御も行う。
【0050】
(操作入力部130)
操作入力部130は、ユーザによる操作指示を受付け、その操作内容を制御部120に出力する。操作入力部130は、例えばタッチセンサ、圧力センサ、若しくは近接センサであってもよい。あるいは、操作入力部130は、ボタン、スイッチ、およびレバーなど、物理的構成であってもよい。
【0051】
(センサ部140)
センサ部140は、例えばユーザの位置(3次元位置座標、2次元位置座標、移動情報等)、手足の動き、姿勢、頭部の向き、視線方向、または顔の表情等をセンシングする機能を有する。より具体的には、センサ部140は、位置情報取得部、カメラ(内向き/外向きカメラ)、マイク(マイクロホン)、加速度センサ、角速度センサ、地磁気センサ、および生体センサ(脈拍、心拍、発汗、血圧、体温、呼吸、筋電値、脳波等の検知)等であってもよい。また、センサ部140は、3軸ジャイロセンサ、3軸加速度センサ、および3軸地磁気センサの合計9軸を検出可能なセンサを有していてもよい。また、センサ部140は、ユーザの視線を検出する視線検出センサ(赤外線センサ)であってもよい。
【0052】
(表示部150)
表示部150は、仮想空間におけるユーザ視点の映像データ(画像)を表示する機能を有する。例えば表示部150は、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイなどの表示パネルであってもよい。また、表示部150は、視界全体を覆う非透過型のHMDにより実現されてもよい。この場合、表示部150は、ユーザの左右の眼にそれぞれ固定された左右の画面において、左眼用画像および右眼用画像を表示する。表示部150の画面は、例えば液晶ディスプレイ(LCD)、有機ELディスプレイなどの表示パネル、または、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、表示部150は、表示画面を拡大投影して、ユーザの瞳に所定の画角からなる拡大虚像を結像する結像光学系を備えてもよい。
【0053】
(スピーカ160)
スピーカ160は、制御部120の制御に従って、音声データを出力する。スピーカ160は、例えばユーザ端末10がHMDとして構成される場合、ユーザの頭部に装着されるヘッドフォンとして構成されてもよいし、イヤフォン、若しくは骨伝導スピーカとして構成されてもよい。
【0054】
(記憶部170)
記憶部170は、制御部120の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
【0055】
本実施形態による記憶部170には、例えばユーザアバターの情報(キャラクター3Dモデルのデータ)が格納されていてもよいし、配信サーバ20から受信した仮想空間の情報が格納されていてもよい。
【0056】
以上、ユーザ端末10の構成について具体的に説明したが、本開示によるユーザ端末10の構成は図4に示す例に限定されない。例えば、ユーザ端末10は、複数の装置により実現されてもよい。具体的には、HMD等により実現される出力装置(少なくとも表示部150およびスピーカ160に対応)と、スマートフォンやタブレット端末、PC等により実現される情報処理端末(少なくとも制御部120に対応)とを含むシステム構成により実現されてもよい。
【0057】
また、ユーザ端末10は、スマートフォンやタブレット端末等の非装着型のデバイスであってもよい。
【0058】
<<3.動作処理>>
次に、本実施形態による情報処理システムの動作処理について図面を用いて具体的に説明する。
【0059】
<3-1.ライブ配信時の動作処理>
まず、演者がリアルタイムで行っているVRイベントを配信する際の動作処理について、図5を参照して説明する。図5は、本実施形態によるリアルタイムで行っているVRイベントを配信する際の動作処理の流れの一例を示すシーケンス図である。
【0060】
図5に示すように、まず、演者端末30は、実写3D用カメラ33により撮像した演者の実写3D用の撮像画像をレンダリングサーバ40に送信する(ステップS103)。
【0061】
次に、レンダリングサーバ40は、受信した撮像画像に基づいて、演者の実写3Dモデルを生成し(ステップS106)、生成した実写3Dモデルのデータを配信サーバ20に送信する(ステップS109)。
【0062】
また、演者端末30は、モーションキャプチャカメラ31により取得した演者のモーションキャプチャデータ(以下、モーションデータとも称する)を、配信サーバ20に送信する(ステップS112)。
【0063】
また、演者端末30は、マイク32により収音した演者の音声データを、配信サーバ20に送信する(ステップS115)。
【0064】
以上説明したステップS103~S109に示す処理と、S112に示す処理と、S115に示す処理は、全て(イベントを実施している間中)継続的に並行して行われ得る。これにより、演者のリアルタイムに取得される各種情報が、配信サーバ20に送信される。配信サーバ20では、仮想空間管理部221により、これらの情報に基づいて仮想空間の情報を更新する。なお、図5には図示していないが、イベント管理用端末50からの入力情報も適宜配信サーバ20に送信される。イベント管理用端末50からの入力情報とは、例えばイベントの進行に関する入力情報や、演出に関する入力情報、演者アバターの表示の切り替え指示等である。
【0065】
一方、ユーザ端末10は、ユーザからの入力情報を、配信サーバ20に送信する(ステップS118)。ユーザからの入力情報は、例えば操作入力情報や、ユーザのリアルタイムのモーションデータ等である。かかる入力情報は、例えば仮想空間に配置されるユーザアバターの位置や姿勢等の制御に用いられる。配信サーバ20には、イベントに参加する全ユーザのユーザ端末10から、かかる入力情報を受信する。配信サーバ20では、仮想空間管理部221により、これらの情報に基づいて仮想空間の情報を更新する。
【0066】
続いて、配信サーバ20の仮想空間情報提供部222は、仮想空間におけるユーザ視点の画像(映像データ)を生成する(ステップS121)。ユーザ視点は、仮想空間に配置される仮想カメラの位置および方向から算出され得る。また、仮想空間には多数の仮想カメラが配置され、各ユーザにそれぞれ対応付けられていてもよい。また、多数の仮想カメラは、仮想空間で行われるイベント会場の観客席エリアに配置されていてもよい。仮想カメラは、仮想空間内では描画されない。また、ユーザ視点の画像は、ユーザアバター全体を画角内に含む画像であってもよいし、ユーザアバターの目から見える画像(ユーザアバターの手等は視界に含まれ得る)であってもよい。なお、ユーザアバターを描画するための情報(ユーザアバターのキャラクター3Dモデルのデータ)は、予めユーザ端末10から配信サーバ20に送信されてもよいし、配信サーバ20が提供するキャラクター3Dモデルが利用されてもよい。
【0067】
次に、配信サーバ20の演者表示切り替え制御部223は、仮想空間におけるユーザアバターやイベントの状況を検出する(ステップS124)。
【0068】
次いで、演者表示切り替え制御部223は、検出結果が条件を満たす場合、演者アバターの表示の切り替え(実写3Dモデルとキャラクター3Dモデルとの切り替え)を行う(ステップS127)。演者表示切り替え制御部223は、上記ステップS121において生成されたユーザ視点の画像に含まれる演者アバターの表示を、実写3Dモデルからキャラクター3Dモデル、または、キャラクター3Dモデルから実写3Dモデルに切り替える処理を行う。若しくは、演者表示切り替え制御部223が、演者アバターの表示の設定を実写3Dモデルまたはキャラクター3Dモデルに切り替えた上で、仮想空間情報提供部222が、上記ステップS121によるユーザ視点の画像の生成処理を行ってもよい(つまりステップS121に示す処理を、ステップS127に示す処理の後に行ってもよい)。
【0069】
なお、ここでは一例として仮想空間におけるユーザアバターやイベントの状況を検出して演者アバターの表示切り替えを行う場合について説明しているが、上述したように、ユーザからの操作指示に従って切り替えてもよい。また、検出結果が条件を満たさない場合は、演者アバターの表示の切り替えは行わない。例えばデフォルトがキャラクター3Dモデルの場合は、キャラクター3Dモデルでの表示のままとされる。
【0070】
次に、仮想空間情報提供部222は、仮想空間におけるユーザ視点の画像(映像データ)および音声データを、ユーザ端末10に送信する(ステップS130)。
【0071】
そして、ユーザ端末10の仮想空間画像表示制御部121は、仮想空間におけるユーザ視点の画像の表示と、音声データの出力とを行う(ステップS133)。
【0072】
以上説明したステップS103~S133に示す処理は、VRイベントの配信が終了するまで繰り返される。
【0073】
また、図5に示す動作処理は一例であって、本開示は図5に示す例に限定されない。例えば、本開示は、図5に示すステップの順序に限定されない。少なくともいずれかのステップが並列に処理されてもよいし、逆の順番で処理されてもよい。また、図5に示す全ての処理が必ずしも実行されてなくともよい。
【0074】
また、仮想空間におけるユーザ視点の画像の生成は、ユーザ端末10で行われてもよい。この場合、配信サーバ20は、上記ステップS130において、仮想空間におけるユーザ視点の画像を生成するためのデータを、ユーザ端末10に送信する。かかるデータには、例えば、仮想空間の情報(仮想空間に配置される各3Dオブジェクトの情報(他ユーザアバターの情報も含む))、ユーザ視点に対応する仮想カメラの位置、演者アバターの表示の切り替えに関する情報、演者のモーションデータ、演者の実写3Dモデル等が含まれていてもよい。また、演者アバターのキャラクター3Dモデルのデータは、予めユーザ端末10にダウンロードされていてもよい。
【0075】
<3-2.収録配信時の動作処理>
次に、事前に収録されたVRイベントを配信する際の動作処理について説明する。事前に行われるVRイベントの収録では、例えば図5を参照して説明した「ライブ配信時の動作処理」におけるステップS103~S115に示す処理がイベント開始から終了まで一通り行われ、全てのデータが、VRコンテンツデータとして配信サーバ20に保存される。VRコンテンツデータには、仮想空間で行われるVRイベントの全ての情報が含まれる。
【0076】
例えば、VRコンテンツデータには、VRイベントを構成する各種3Dオブジェクトのデータ(演者のキャラクター3Dデータ、配信者側で設定するユーザアバター(一般参加者)用のキャラクター3Dデータ、各種アイテムのデータ等)、背景データ、その他パラメータデータ等が含まれる。
【0077】
また、VRコンテンツデータには、仮想空間におけるイベント時の映像データ(例えば特定の仮想カメラ視点の視界画像)、音声データ、演者の実写3Dモデルのデータ、演者のモーションデータ、イベントの進行や演出に関する入力情報等が含まれる。これらはいずれもイベント開始時から終了時までの経時データである。
【0078】
配信サーバ20は、予め収録され保存されたVRコンテンツデータに基づいて、VRイベントの配信を行い得る。かかる収録のVRイベントの配信においても、配信サーバ20は、仮想空間におけるユーザ視点での映像データをリアルタイムに生成してユーザ端末10に配信することが可能である。また、ユーザ端末10からの入力情報(例えば頭部の向きの変化や位置移動、視線方向の移動等の入力情報)に応じて、ユーザアバターが仮想空間内で移動したり、視線方向を変えたりすることも可能である。
【0079】
以下、図6を参照して収録配信時の動作処理の一例について説明する。図6は、本実施形態による収録されたVRイベントを配信する際の動作処理の流れの一例を示すシーケンス図である。
【0080】
図6に示すように、まず、配信サーバ20は、仮想空間における収録済みVRコンテンツデータ(VRイベントのデータ)を呼び出す(ステップS203)。
【0081】
次に、配信サーバ20は、VRイベントにおける実写3Dモデルのデータ(経時データ)等をユーザ端末10に送信し(ステップS206)、ユーザ端末10は受信したデータを保存する(ステップS209)。VRイベントの配信における配信サーバ20側での処理負荷や配信サーバ20とユーザ端末10の間の通信負荷(遅延)等を考慮し、VRイベントのデータのうち一部のデータを予めユーザ端末10にダウンロードしておいてもよい。
【0082】
次いで、ユーザ端末10は、ユーザからの入力情報を、配信サーバ20に送信する(ステップS212)。ユーザからの入力情報は、例えば操作入力情報や、ユーザのリアルタイムのモーションデータ等である。かかる入力情報は、例えば仮想空間に配置されるユーザアバターの位置や姿勢等の制御に用いられる。配信サーバ20には、イベントに参加する全ユーザのユーザ端末10から、かかる入力情報を受信する。配信サーバ20では、仮想空間管理部221により、これらの情報に基づいて仮想空間の情報を更新する。
【0083】
次に、配信サーバ20の仮想空間情報提供部222は、仮想空間におけるユーザ視点の画像(映像データ)を生成する(ステップS215)。ユーザ視点は、仮想空間に配置される仮想カメラの位置および方向から算出され得る。また、仮想空間には多数の仮想カメラが配置され、各ユーザにそれぞれ対応付けられていてもよい。また、多数の仮想カメラは、仮想空間で行われるイベント会場の観客席エリアに配置されていてもよい。事前に収録されたVRイベントは、例えば仮想空間におけるイベント会場のステージ上で動く演者アバターや、演者の音声、会場の音響、演出等であり、仮想空間管理部221は、イベント会場の観客席エリアについては、収録したVRイベントの配信時における各ユーザ(視聴者)のリアルタイムの動き等を反映したユーザアバターを配置することも可能である。
【0084】
次いで、配信サーバ20の演者表示切り替え制御部223は、仮想空間におけるユーザアバターやイベントの状況を検出する(ステップS218)。
【0085】
次に、演者表示切り替え制御部223は、検出結果が条件を満たす場合、演者アバターの表示の切り替え(実写3Dモデルとキャラクター3Dモデルとの切り替え)を行う(ステップS221)。演者表示切り替え制御部223は、上記ステップS215において生成されたユーザ視点の画像に含まれる演者アバターの表示を、実写3Dモデルからキャラクター3Dモデル、または、キャラクター3Dモデルから実写3Dモデルに切り替える処理を行う。若しくは、演者表示切り替え制御部223が、演者アバターの表示の設定を実写3Dモデルまたはキャラクター3Dモデルに切り替えた上で、仮想空間情報提供部222が、上記ステップS215によるユーザ視点の画像の生成処理を行ってもよい(つまりステップS215に示す処理を、ステップS221に示す処理の後に行ってもよい)。
【0086】
なお、ここでは一例として仮想空間におけるユーザアバターやイベントの状況を検出して演者アバターの表示切り替えを行う場合について説明しているが、上述したように、ユーザからの操作指示に従って切り替えてもよい。また、検出結果が条件を満たさない場合は、演者アバターの表示の切り替えは行わない。例えばデフォルトがキャラクター3Dモデルの場合は、キャラクター3Dモデルでの表示のままとされる。
【0087】
次に、仮想空間情報提供部222は、仮想空間におけるユーザ視点の画像(映像データ)および音声データを、ユーザ端末10に送信する(ステップS224)。仮想空間情報提供部222によるユーザ視点の画像(映像データ)および音声データの配信は、所謂ストリーミング配信であってもよい。
【0088】
そして、ユーザ端末10の仮想空間画像表示制御部121は、仮想空間におけるユーザ視点の画像の表示と、音声データの出力とを行う(ステップS227)。
【0089】
なお、上記ステップS206に示すように、予め演者の実写3Dモデルのデータをユーザ端末10にダウンロードさせている場合、配信サーバ20の仮想空間情報提供部222は、上記ステップS224において、仮想空間におけるユーザ視点の画像および音声データと共に、実写3Dモデルへの切り替え指示を送信するようにしてもよい。この場合、ユーザ端末10の仮想空間画像表示制御部121は、配信サーバ20から受信した仮想空間におけるユーザ視点の画像に映る演者アバターの表示を、予め取得した実写3Dモデルに切り替える(合成する)処理を行って表示する。予め取得した実写3Dモデルのデータは経時データであるため、仮想空間画像表示制御部121は、例えばイベント開始からの経過時刻の情報に基づいて、時刻が同期された実写3Dモデルの画像を合成することが可能である。
【0090】
また、演者のキャラクター3Dモデルのデータとモーションデータを予め(イベント開始前に)ユーザ端末10にダウンロードしてもよい。配信サーバ20は、仮想空間におけるユーザ視点の画像(演者アバターの表示は含まれない)および音声データと共に、仮想空間における演者の位置(ステージ上の演者アバターの位置)を示す情報(例えば演者IDおよび3次元座標情報)を送信し、ユーザ端末10において、受信した仮想空間におけるユーザ視点の画像に、演者アバターの表示(キャラクター3Dモデルまたは実写3Dモデル)を重畳表示するようにしてもよい。
【0091】
以上、本実施形態による収録配信時の動作処理について説明した。なお図6に示す動作処理は一例であって、本開示は図6に示す例に限定されない。例えば、本開示は、図6に示すステップの順序に限定されない。少なくともいずれかのステップが並列に処理されてもよいし、逆の順番で処理されてもよい。また、図6に示す全ての処理が必ずしも実行されてなくともよい。
【0092】
例えば、実写3Dモデルのデータを予めユーザ端末10にダウンロードさせることをせず、実写3Dモデルに切り替える制御を行う間だけ、配信サーバ20が仮想空間におけるユーザ視点の画像および音声データと共にユーザ端末10に実写3Dモデルのデータを送信してもよい。この場合、ユーザ端末10において、ユーザ視点の画像に映る演者アバターの表示を、受信した実写3Dモデルに切り替える(合成する)処理を行い、表示する。
【0093】
また、上述した動作処理では配信サーバ20において、仮想空間におけるユーザ視点の画像を生成しているが、本開示はこれに限定されない。例えば、仮想空間を構築するための情報(VRイベントのデータを含む)を事前に(イベント開始前に)ユーザ端末10がダウンロードし、ユーザ端末10において、仮想空間におけるユーザ視点の画像を生成するようにしてもよい。また、この際、ユーザ端末10は、ユーザの入力情報(ユーザアバターのモーションデータ等)を継続的に配信サーバ20に送信し、配信サーバ20からは他ユーザアバターのモーションデータ等を受信するようにしてもよい。これにより、イベント会場における各ユーザアバターのリアルタイムの動き等が、イベントの全参加者に共有される。
【0094】
<<4.変形例>>
<4-1.切り替え制御をユーザ端末で行う場合>
上述した実施形態では、図3を参照して説明したように、演者アバターの表示の切り替えを配信サーバ20で制御する旨を述べたが、本開示はこれに限定されない。例えば、演者アバターの表示の切り替えはユーザ端末10で行ってもよい。以下、本実施形態の変形例によるユーザ端末10’について説明する。
【0095】
(構成例)
図7は、本実施形態の変形例によるユーザ端末10’の構成の一例を示すブロック図である。図7に示す構成は、図4を参照して構成に対して、仮想空間画像表示制御部121および演者表示切り替え制御部122としても機能する制御部120’を備える点が異なる。その他の構成は図4と同様であるため、ここでの詳細な説明は省略する。
【0096】
演者表示切り替え制御部122は、図3を参照して説明した演者表示切り替え制御部223と同様に、仮想空間における演者アバターを、キャラクター3Dモデルで表示するか、実写3Dモデルで表示するかの切り替えを制御する。切り替えは、ユーザからの指示に従って行われてもよいし、配信者側からの指示に従って行われてもよい。また、演者表示切り替え制御部122は、仮想空間における1以上のユーザアバターの状況や、仮想空間で行われるイベントの状況に応じて、自動的に切り替えを制御してもよい。これらのより詳細な具体例は、上述の通りである。
【0097】
(動作処理)
続いて、本変形例の動作処理について図8を参照して説明する。図8は、本変形例によるVRイベントをライブ配信する際の動作処理の流れの一例を示すシーケンス図である。
【0098】
図8に示すステップS303~S321に示す処理は、図5に示すステップS103~S121に示す処理と同様である。
【0099】
続いて、配信サーバ20は、仮想空間のユーザ視点の画像(映像データ)および音声データをユーザ端末10に送信する(ステップS324)。この際、配信サーバ20は、イベント会場にいる全てのユーザアバターの情報や、イベント状況に関する情報など、後述する切り替え制御で用いられる情報も送信してもよい。なお、配信サーバ20からユーザ端末10へのユーザ視点の画像の送信は、所謂ライブストリーミング配信であってもよい。このとき、例えば演者アバターの表示のデフォルトがキャラクター3Dモデルの場合、ライブストリーミング配信されるユーザ視点の画像は、演者アバターとしてキャラクター3Dモデルが表示される。また、配信サーバ20は、適宜ユーザ端末10’側で演者アバターの表示の切り替えが行えるよう、実写3Dモデルのデータも併せてライブストリーミング配信してもよい。
【0100】
次に、ユーザ端末10の演者表示切り替え制御部122は、仮想空間におけるユーザアバターやイベントの状況を検出する(ステップS327)。
【0101】
次いで、演者表示切り替え制御部122は、検出結果が条件を満たす場合、演者アバターの表示の切り替え(実写3Dモデルとキャラクター3Dモデルとの切り替え)を行う(ステップS330)。具体的には、演者表示切り替え制御部122は、配信サーバ20から受信したユーザ視点の画像に含まれる演者アバターの表示を、実写3Dモデルからキャラクター3Dモデル、または、キャラクター3Dモデルから実写3Dモデルに切り替える処理を行う。例えば配信サーバ20からは、演者のモーションデータ(キャラクター3Dモデルに適用するデータ)および実写3Dモデルのデータがリアルタイムで配信され、ユーザ端末10は、適宜演者アバターの表示を切り替えることが可能である。演者のキャラクター3Dモデルのデータは、ユーザ端末10に予めダウンロードされる。
【0102】
なお、ここでは一例として仮想空間におけるユーザアバターやイベントの状況を検出して演者アバターの表示切り替えを行う場合について説明しているが、演者表示切り替え制御部122は、ユーザからの操作指示に従って切り替えてもよい。また、検出結果が条件を満たさない場合は、演者アバターの表示の切り替えは行わない。例えばデフォルトがキャラクター3Dモデルの場合は、キャラクター3Dモデルの表示としてもよい。
【0103】
そして、ユーザ端末10の仮想空間画像表示制御部121は、仮想空間におけるユーザ視点の画像の表示と、音声データの出力とを行う(ステップS333)。
【0104】
以上、本実施形態の変形例による動作処理について説明した。なお図8に示す動作処理は一例であって、本開示は図8に示す例に限定されない。
【0105】
例えば、ステップS321に示す処理は、ユーザ端末10の仮想空間画像表示制御部121で行ってもよい。具体的には、ユーザ端末10は、予め仮想空間を構築するための情報を配信サーバ20からダウンロードして、ローカルで仮想空間を構築し、ローカルにおいてユーザ視点の画像を生成することも可能である。配信サーバ20からは、仮想空間で実施されるイベントの情報(演者の3次元位置情報、演者のモーションデータ、演者の実写3Dモデル、演出に関する情報、音声データ等)がリアルタイムで継続的に配信され、ユーザ端末10がローカルで構築した仮想空間と同期する。また、ユーザ端末10は、ユーザの入力情報(ユーザアバターのモーションデータ等)を継続的に配信サーバ20に送信し、配信サーバ20からは他ユーザアバターのモーションデータ等を受信するようにしてもよい。これによりイベント会場における各ユーザアバターのリアルタイムの動き等がイベントの全参加者に共有される。そして、演者表示切り替え制御部122は、ユーザの操作指示や、ユーザアバターの状況、イベントの状況等に応じて、演者アバターの表示の切り替えをローカルで判断する。仮想空間画像表示制御部121は、演者表示切り替え制御部122の判断に従って演者アバターの表示を切り替えた上で、仮想空間におけるユーザ視点の画像の生成処理を行い、表示制御する。
【0106】
<4-2.ARへの適用>
上記実施形態は、一例としてVRコンテンツにおける演者アバターの表示の切り替えについて説明したが、を想定して述べたが、本開示は、AR(Augmented Reality)やMR(Mixed Reality)に適用することも可能である。
【0107】
例えば演者の実写映像と、当該演者に対応するキャラクター映像がサーバからユーザ端末に配信されるシステムを想定する。かかるシステムにおいて、まず、演者の実写映像またはキャラクター映像のいずれかが第1のユーザ端末(例えばテレビ装置、PC、スクリーン等)のディスプレイに表示される。次いで、ユーザが、第2のユーザ端末(例えばスマートフォンやタブレット端末、透過型のメガネ型デバイス等)を第1のユーザ端末にかざし、第1のユーザ端末のディスプレイの撮像画像をスルー表示する。そして、第2のユーザ端末のスルー表示において、第1のユーザ端末のディスプレイに映る演者の実写映像に、対応するキャラクター映像を重畳表示する。若しくは、第2のユーザ端末のスルー表示において、第1のユーザ端末のディスプレイに映るキャラクター映像に、対応する演者の実写映像を重畳表示する。このように、ユーザの好みに応じてその場でコンテンツ上のオブジェクト切り替えを行えることが可能となる。なお、演者が複数居る場合、演者の立ち位置等の位置情報に基づいて、演者の実写映像やキャラクター映像を対応付けてもよい。
【0108】
なお、スマートフォン等を対象にかざして演者の実写映像またはキャラクター映像を重畳表示する制御は、仮想空間内においても実現し得る。例えば仮想空間内においてイベントを視聴している際に、ユーザアバターが仮想スマートフォン等(3Dオブジェクト)をステージにかざすと、仮想スマートフォンの表示画面に実写映像またはキャラクター映像が表示されるようにしてもよい。
【0109】
<<5.補足>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
【0110】
例えば、VRイベントの配信における配信サーバ20側での処理負荷や配信サーバ20とユーザ端末10の間の通信負荷(遅延)等を考慮し、VRイベントのデータのうち一部のデータを予めユーザ端末10にダウンロードしておいてもよい。また、処理負担等を考慮して、上述した配信サーバ20で行われる行われる各処理の少なくとも一部をユーザ端末10で実施するようにしてもよい。本開示によるシステムを実現するために、どの装置がどのようなデータを有し、どの処理をどこで行うかについては様々なバリエーションが想定され、上述した例には限定されない。
【0111】
また、上述したユーザ端末10、ユーザ端末10’、または配信サーバ20に内蔵されるCPU、ROM、およびRAM等のハードウェアに、ユーザ端末10、ユーザ端末10’、または配信サーバ20の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
【0112】
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
【0113】
なお、本技術は以下のような構成も取ることができる。
(1)
仮想空間におけるユーザ視点の画像に関する情報を出力する制御を行う制御部を備え、
前記制御部は、
前記仮想空間内での1以上のユーザの状況、または前記仮想空間の状況の検出結果に応じて、前記画像に含まれる演者に対応する表示を、前記演者の撮像画像に基づいて生成される実写画像と当該演者に対応するキャラクター画像とで切り替える制御を行う、情報処理装置。
(2)
前記仮想空間内での1以上のユーザの状況は、前記仮想空間で実施されるイベントに参加している1以上のユーザアバターに関する状況である、前記(1)に記載の情報処理装置。
(3)
前記仮想空間の状況は、前記仮想空間で実施されるイベントにおける特定の状況である、前記(1)または(2)に記載の情報処理装置。
(4)
前記イベントにおける特定の状況は、特定の演出の発生、または、楽曲における特定の時間帯である、前記(3)に記載の情報処理装置。
(5)
前記制御部は、前記1以上のユーザの状況、および前記仮想空間の状況の少なくともいずれかが条件を満たした場合、前記演者に対応する表示を、前記実写画像または前記キャラクター画像に切り替える、前記(1)~(4)のいずれか1項に記載の情報処理装置。
(6)
前記実写画像は、前記演者の三次元情報を含む実写画像であって、
前記キャラクター画像は、前記演者の三次元のモーションキャプチャデータに基づいて動くキャラクター画像である、前記(1)~(5)のいずれか1項に記載の情報処理装置。
(7)
前記制御部は、前記仮想空間においてリアルタイムに実施されるイベント、または、前記仮想空間において事前に収録されたイベントにおいて、前記ユーザ視点の画像に関する情報を出力する制御を行う、前記(1)~(6)のいずれか1項に記載の情報処理装置。
(8)
前記制御部は、前記ユーザ視点の画像に関する情報を、ユーザ端末に出力する制御を行う、前記(1)~(7)のいずれか1項に記載の情報処理装置。
(9)
前記制御部は、前記ユーザ視点の画像に含まれる演者に対応する表示の切り替えを、前記仮想空間で実施されるイベントに参加しているユーザ毎に、または、全てのユーザに対して一律に切り替える、前記(1)~(8)のいずれか1項に記載の情報処理装置。
(10)
前記制御部は、仮想空間の情報を配信するサーバから受信した情報に基づいて、前記仮想空間におけるユーザ視点の画像を表示部に表示出力する制御を行う、前記(1)~(7)のいずれか1項に記載の情報処理装置。
(11)
前記制御部は、前記ユーザ視点の画像に含まれる演者に対応する表示を、ユーザからの操作指示に基づいて前記実写画像と前記キャラクター画像とで切り替える制御を行う、前記(10)に記載の情報処理装置。
(12)
プロセッサが、
仮想空間におけるユーザ視点の画像に関する情報を出力する制御を行うことを含み、
さらに、前記仮想空間内での1以上のユーザの状況、または前記仮想空間の状況の検出結果に応じて、前記画像に含まれる演者に対応する表示を、前記演者の撮像画像に基づいて生成される実写画像と当該演者に対応するキャラクター画像とで切り替える制御を行うことを含む、情報処理方法。
(13)
コンピュータを、
仮想空間におけるユーザ視点の画像に関する情報を出力する制御を行う制御部として機能させ、
前記制御部は、
前記仮想空間内での1以上のユーザの状況、または前記仮想空間の状況の検出結果に応じて、前記画像に含まれる演者に対応する表示を、前記演者の撮像画像に基づいて生成される実写画像と当該演者に対応するキャラクター画像とで切り替える制御を行う、プログラム。
(14)
仮想空間の情報を配信するサーバと、前記仮想空間におけるユーザ視点の画像を表示するユーザ端末と、を備え、
前記サーバは、
前記ユーザ視点の画像に関する情報を前記ユーザ端末に送信する制御を行う制御部を有し、
前記制御部は、
前記仮想空間内での1以上のユーザの状況、または前記仮想空間の状況の検出結果に応じて、前記画像に含まれる演者に対応する表示を、前記演者の撮像画像に基づいて生成される実写画像と当該演者に対応するキャラクター画像とで切り替える制御を行う、システム。
【符号の説明】
【0114】
10 ユーザ端末
121 仮想空間画像表示制御部
122 演者表示切り替え制御部
20 配信サーバ
221 仮想空間管理部
222 仮想空間情報提供部
223 演者表示切り替え制御部
図1
図2
図3
図4
図5
図6
図7
図8