IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ グリー株式会社の特許一覧

特開2023-181217情報処理システム、情報処理方法、および情報処理プログラム
<>
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図1
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図2
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図3
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図4
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図5
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図6
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図7
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図8
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図9
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図10
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図11
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図12
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図13
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図14
  • 特開-情報処理システム、情報処理方法、および情報処理プログラム 図15
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023181217
(43)【公開日】2023-12-21
(54)【発明の名称】情報処理システム、情報処理方法、および情報処理プログラム
(51)【国際特許分類】
   H04N 7/15 20060101AFI20231214BHJP
   H04N 13/117 20180101ALI20231214BHJP
   H04N 13/366 20180101ALI20231214BHJP
   H04N 13/344 20180101ALI20231214BHJP
   G06T 19/00 20110101ALI20231214BHJP
   G06F 3/01 20060101ALI20231214BHJP
   G06F 3/04815 20220101ALI20231214BHJP
【FI】
H04N7/15 170
H04N7/15
H04N13/117
H04N13/366
H04N13/344
G06T19/00 300A
G06F3/01 510
G06F3/04815
【審査請求】有
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023173869
(22)【出願日】2023-10-05
(62)【分割の表示】P 2022138117の分割
【原出願日】2016-10-26
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り (公開1) 掲載日 平成28年6月20日 http://cedec.cesa.or.jp/2016/whatsnew/session.html#session0620 http://cedec.cesa.or.jp/2016/session/AC/8656.html (公開2) 掲載日 平成28年8月22日 https://www.youtube.com/watch?v=KwOZGsZN2A8 (公開3) 開催日 平成28年8月24日~平成28年8月26日 集会名 コンピュータエンターテインメントデベロッパーズ 開催場所 パシフィコ横浜・会議センター カンファレンス(CEDEC2016)(横浜市西区みなとみらい1-1-1) (公開4) 掲載日 平成28年9月13日 http://blog.shirai.la/blog/2016/09/tgs2016/ (公開5) 展示日 平成28年9月15日~平成28年9月18日 展示会名 東京ゲームショウ2016 開催場所 幕張メッセ(千葉市美浜区中瀬2-1) (公開6) 掲載日 平成28年9月20日 http://blog.shirai.la/blog/2016/09/dcexpo2016/ (公開7) 掲載日 平成28年10月5日 http://blog.shirai.la/blog/2016/10/virtual-cafe/
(71)【出願人】
【識別番号】504437801
【氏名又は名称】グリー株式会社
(74)【代理人】
【識別番号】110002871
【氏名又は名称】弁理士法人坂本国際特許商標事務所
(72)【発明者】
【氏名】白井 暁彦
(72)【発明者】
【氏名】鈴木 久貴
(72)【発明者】
【氏名】山口 裕太
(72)【発明者】
【氏名】米澤 一造
(57)【要約】
【課題】CGで描画された3次元空間内における事象の、2次元映像デバイスを用いたリアルタイムおよび非同期の双方向参加が可能な技術を提供する。
【解決手段】情報処理システムは、撮影対象を多視点で撮影した多視点3次元動画データを生成する動画データ生成手段と、多視点3次元動画データに対して視点の設定を受け付ける手段と、受け付けた視点から撮影対象をみたときの動画を生成する手段と、生成された動画を視聴者装置に提供する手段と、視聴者装置から動画に対する反応を受け付ける手段と、設定された視点と、多視点3次元動画データ中の時刻と、反応とを記録する手段と、を備える。
【選択図】図1
【特許請求の範囲】
【請求項1】
複数のアバターを含む3次元空間における、オブジェクトの3次元データを生成する第1データ生成手段と、
前記3次元データに基づいて、前記複数のアバターのうちの第1アバターの動きに対応する第1バーチャルカメラの視点位置の映像に基づくオブジェクトの2次元データを生成する第2データ生成手段と、を備える情報処理システム。
【請求項2】
前記3次元データは、前記第1アバターとは異なる第2アバターを含み、
前記第2データ生成手段は、前記3次元データに基づいて、前記第2アバターの動きに対応する第2バーチャルカメラの視点位置の映像に基づくオブジェクトの2次元データをさらに生成する、請求項1に記載の情報処理システム。
【請求項3】
ユーザからの要求に従って、前記ユーザの視聴装置に、前記第1バーチャルカメラの視点位置の映像に基づくオブジェクトの2次元データを提供するか、前記第2バーチャルカメラの視点位置の映像に基づくオブジェクトの2次元データを提供するか、を切り替える提供手段を備える、請求項2に記載の情報処理システム。
【請求項4】
前記第2データ生成手段は、前記3次元データに基づいて、前記複数のアバターの動きに追従しない第3バーチャルカメラの視点位置から見たオブジェクトの2次元データをさらに生成する、請求項1に記載の情報処理システム。
【請求項5】
前記第2データ生成手段は、プラットフォーム上で実行される所定のアプリケーションプログラムからの要求に応じて、前記第3バーチャルカメラの視点位置から見たオブジェクトの2次元データを生成する、請求項4に記載の情報処理システム。
【請求項6】
前記第2データ生成手段は、ユーザからの反応に基づいて、前記第3バーチャルカメラの視点位置から見たオブジェクトの2次元データを生成する、請求項4に記載の情報処理システム。
【請求項7】
前記3次元データ及び前記2次元データは、タイムコードに対応付けられる、請求項1から6のいずれか1項に記載の情報処理システム。
【請求項8】
第1データ生成手段が、複数のアバターを含む3次元空間における、オブジェクトの3次元データを生成する第1データ生成ステップと、
第2データ生成手段が、前記3次元データに基づいて、前記複数のアバターのうちの第1アバターの動きに対応する第1バーチャルカメラの視点位置の映像に基づくオブジェクトの2次元データを生成する第2データ生成ステップと、を実行する情報処理方法。
【請求項9】
複数のアバターを含む3次元空間における、オブジェクトの3次元データを生成する第1データ生成処理と、
前記3次元データに基づいて、前記複数のアバターのうちの第1アバターの動きに対応する第1バーチャルカメラの視点位置の映像に基づくオブジェクトの2次元データを生成する第2データ生成処理と、をコンピュータに実行させる情報処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理システム、情報処理方法、および情報処理プログラムに関する。
【背景技術】
【0002】
近年、ICT(Information and Communication Technology:情報通信技術)の発展に伴い、CG(Computer Graphics)で描画された仮想的な3次元空間を用いた様々なコンテンツが提案されている。このようなコンテンツとして、VR(Virtual Reality)コンテンツやゲームコンテンツ、eスポーツ(electronic sports)コンテンツ等が例示される。
【0003】
上記コンテンツを利用する利用者(以下、ユーザとも称す)は、例えば、HMD(Head-Mount Display)等の3次元映像を視聴可能なデバイスを装着することで、CGで描画された仮想的な3次元空間をユーザ視点で立体視することが可能になる。さらに、ユーザの頭部や腕部といった身体の動きや位置等を検知するセンサ等が装着される場合には、例えば、ユーザの動作に応じて3次元空間内の移動、3次元空間内に配置されたオブジェクトへの働きかけといった行動が可能になる。3次元空間内に配置されたオブジェクトには、例えば、上記コンテンツを利用する他のユーザが操作可能なオブジェクト(例えば、キャラクタやアバター)が含まれる。
【0004】
ゲーム、eスポーツ等のコンテンツでは、例えば、他のユーザの操作するオブジェクトとの間で、自身の行動によって生じたイベントに対する応答や会話、競争や対戦等が可能になる。コンテンツに参加するユーザ間では、それぞれの視点で、上記行動によって生じたイベントによる3次元空間内の衝突や物理的な相互作用を、コンテンツの定める所定のルールに従って楽しむことができる。
【0005】
なお、本明細書で説明する技術に関連する技術が記載されている先行技術文献としては、以下の特許文献が存在している。
【先行技術文献】
【特許文献】
【0006】
【特許文献1】特開2011-150402号公報
【特許文献2】特開2001-300131号公報
【特許文献3】特開平11-123280号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
コンテンツの形態として、会議場やオフィス、学校、ショッピングモールといった3次元空間をCGで描画し、上記3次元空間内に複数のユーザがリアルタイムで参加するリモート会議やVRオフィス、e-ラーニング、e-コマース等が想定される。
【0008】
上記の形態では、例えば、描画された3次元空間のユーザ間のやり取りを発言者等としてリアルタイムに参加するだけでなく、事後や聴者として映像で視聴する利用者向けの配信や、その視聴環境・視聴形態、メディア変換の需要は想定される。
【0009】
配信等された3次元空間の映像を事後に視聴する場合には、例えば、HMD等の3次元映像を視聴するための専用デバイスの購入や3次元映像受信のための視聴環境整備に係る負担が想定される。
【0010】
本開示は、撮影対象の多視点3次元動画データに基づいて、受け付けた視点からの動画を再現できる技術の提供を目的とする。
【課題を解決するための手段】
【0011】
開示の技術の一側面は、情報処理システムによって例示される。この情報処理システムは、複数のアバターを含む3次元空間における、オブジェクトの3次元データを生成する第1データ生成手段と、前記3次元データに基づいて、前記複数のアバターのうちの第1アバターの動きに対応する第1バーチャルカメラの視点位置の映像に基づくオブジェクトの2次元データを生成する第2データ生成手段と、を備える。
【発明の効果】
【0012】
開示の技術の一側面によれば、撮影対象の多視点3次元動画データに基づいて、受け付けた視点からの動画を再現できる技術を提供できる。
【図面の簡単な説明】
【0013】
図1】情報処理システムの一例を示す構成図である。
図2】コンピュータのハードウェア構成の一例を示す構成図である。
図3】3DCG空間内のオブジェクトについて保存されるデータ構成の一例を示す図である。
図4】シーンマネージャのイベントに係る事象の記録処理を例示するフローチャートである。
図5】シーンマネージャのバーチャルカメラの設定処理を例示するフローチャートである。
図6】バーチャルカメラのカメラ方向の設定を説明する説明図である。
図7】実空間の会議場を撮影するカメラを備える情報処理システムの一例を示す構成図である。
図8】クロマキー合成を用いる際の、実空間における被写体の撮影を説明する図である。
図9】クロマキー合成を用いる際の、実空間における被写体の撮影を説明する図である。
図10】合成映像の一例を示す図である。
図11】2D映像デバイスに表示された合成映像の一例を示す図である。
図12】HMDを装着した被写体がリモート会議に参加する形態の説明図である。
図13】HMDを装着しない被写体がリモート会議に参加する形態の説明図である。
図14】HMDを装着しない被写体が事後に再生されるリモート会議に参加する形態の説明図である。
図15】実空間を撮影するカメラを備える場合の、シーンマネージャのイベントに係る事象の記録処理を例示するフローチャートである。
【発明を実施するための形態】
【0014】
以下、図面を参照して、一実施形態に係る情報処理システムについて説明する。以下の実施形態の構成は例示であり、本情報処理システムは、以下の実施形態の構成には限定されない。
【0015】
<実施形態>
〔1.システム構成〕
図1は、本実施形態に係る情報処理システムの一例を示す構成図である。先ず、図1に示す情報処理システム10の概要を説明する。図1の形態においては、例えば、CGで作成された3次元空間(以下、「3DCG空間」とも称す)内に会議場が設けられ、リモート会議等のコンテンツが提供される。ここで、「リモート会議」とは、ネットワークに接続する複数の会議参加者が3DCG空間内の会議場を共有し、リアルタイムで行う会議をいう。ネットワークに接続する複数の会議参加者は、3DCG空間で操作可能なオブジェクト(アバター等)を介し、会議における発言や対話、他者への働きかけや移動等の行動を行う。会議進行の様子は、会議参加者の備えるHMD等に、それぞれのアバター視点から見た3DCGの動画映像として提供される。
但し、情報処理システム10が提供するコンテンツは、3DCG空間で仮想的に形成されたVRオフィス、ゲーム、e-ラーニング等であってもよい。コンテンツは、3DCG空間内において、ユーザの行動や移動等で生じたイベントによる衝突や物理的な相互作用を、コンテンツの定める所定のルールに従って提供可能であればよい。
以下においては、情報処理システム10の提供するコンテンツは、3DCG空間に設けられた会議場を使用するリモート会議として説明する。また、CGで作成された3次元空間の動画映像を「立体映像」とも称する。
【0016】
3DCG空間内には、例えば、机、椅子、白板、壁、床、窓、扉、天井といったリモート会議の会議場を構成する様々な構成物のオブジェクトが配置される。同様にして、リモート会議に参加する複数の会議参加者についてのアバターが3DCG空間内に配置される。アバターは、会議参加者が操作可能なオブジェクトである。3DCG空間内に配置されるオブジェクトは、例えば、描画要素であるポリゴン(polygon)の集合体である。オブジェクトを構成する各ポリゴンは共通の座標軸を有する。3DCG空間内のワールド座標系における、オブジェクトの形状、配置位置、向き等は、上記座標軸上の3次元座標(X,Y,Z)により表される。
【0017】
会議参加者は、例えば、HMD等の立体映像を視認可能するデバイス(以下、3D映像デバイスとも称す)、身体の動きや位置を検知するセンサデバイス、マイクやヘッドフォン等の音響デバイスを備え、リモート会議に参加する。進行中のリモート会議の様子は、会議参加者に対し、それぞれのアバター視点を介した立体映像としてリアルタイムに提供される。会議参加者は、会議進行に伴うプロセスの立体映像をアバター視点で視聴すると共に、立体映像を視聴しながらアバターを操作し、会議場の移動や他の会議参加者への対話や働きかけ(行動)を行う。リモート会議内での発言は、例えば、マイクやヘッドフォン等の音響デバイスを介して行われる。会議進行に伴うプロセスで生じた各会議参加者の行動に対応したイベント(例えば、会話や提案、離席等の行動)は、視聴中の立体映像に反映される。
【0018】
本実施形態に係る情報処理システム10は、リモート会議が進行する3DCG空間を、任意の視点位置から見た立体映像として中継する機能を備える。リモート会議が進行する3DCG空間内の視点位置は、例えば、仮想的なカメラであるバーチャルカメラによって指定される。バーチャルカメラは、リモート会議が進行する3DCG空間内の任意の位置に移動可能である。バーチャルカメラは、会議場内に配置されたオブジェクトやアバター、および、会議進行に伴うプロセスで発生したイベント等の事象を、任意の視点位置から見た立体映像として中継する。リモート会議が進行する3DCG空間を中継する中継者が存在する場合には、バーチャルカメラの視点位置は中継者の操作に従って設定される。
【0019】
本実施形態に係る情報処理システム10は、バーチャルカメラの中継する立体映像を2次元映像に変換する機能を備える。変換後の2次元映像は、例えば、リモート会議の様子を視聴する視聴者にリアルタイム、あるいは、事後に配信される。視聴者は、例えば、スマートフォン、携帯電話、タブレットPC(Personal Computer)等の2次元映像が視聴可能なデバイス(以下、2D映像デバイスとも称す)を介して、リモート会議の配信映像を視聴する。
【0020】
本実施形態に係る情報処理システム10は、2次元映像を視聴する視聴者からのメッセージ(文字、音声、動作等のリアクション信号)を受け付ける機能を備える。情報処理システム10は、例えば、受け付けたメッセージに基づいて、リモート会議が進行する3DCG空間内の、バーチャルカメラの視点位置を移動させる。情報処理システム10は、例えば、受け付けたメッセージを中継者に通知し、通知を受けた中継者の操作に従ってバーチャルカメラの視点位置を移動させる。リモート会議が進行中の場合には、バーチャルカメラの中継する立体映像は視点位置の移動に従って更新され、視聴者から受け付けた視点位置が視聴中の2次元映像に反映される。
【0021】
本実施形態に係る情報処理システム10は、リモート会議が進行する3DCG空間の事象、バーチャルカメラ情報(視点位置、焦点距離、回転、ズームパラメータ等)を記録する機能を有する。3DCG空間の事象は、会議進行に伴うプロセスで発生した、各会議参加者の行動に伴うイベントに応じて3DCG空間内を移動する各オブジェクトの座標を含む。3DCG空間の事象には、会議参加者の音声データが含まれる。例えば、記録された音声データ等に基づいてリモート会議の議事録等が作成される。情報処理システム10は、記録された上記情報に基づいてバーチャルカメラの視点位置による立体映像を生成し、生成された立体映像に基づく2次元映像を、事後の視聴者に配信する。事後の視聴においても視聴者からのメッセージが受け付けられ、事後の視聴者による視点位置が視聴中の2次元映像に反映される。
【0022】
次に、図1に示す情報処理システム10の構成を説明する。
図1に示す情報処理システム10は、シーンマネージャSMと、バーチャルカメラVCと、カメラプロセッサCと、レンダラRと、配信サーバCHとを主に備える。上記の各構成は、LAN(Local Area Network)等のネットワークを介して接続する。ネットワークには、バーチャルカメラVC、カメラプロセッサC、レンダラRのそれぞれが複数に接続し得る。図1においては、バーチャルカメラVC1、VC2、VC3、カメラプロセッサC1、C2、C3、レンダラR1、R2、R3が例示される。なお、以下の説明においては、複数のバーチャルカメラVC1、VC2、VC3を総称してバーチャルカメラVCという。カメラプロセッサC、レンダラRについても同様である。
【0023】
また、シーンマネージャSMと配信サーバCHとは、外部ネットワークに接続する。外部ネットワークは、インターネットといった公衆ネットワーク、携帯電話網、有線無線LAN(Local Area Network)を含む。外部ネットワークには、2次元映像を視聴する視聴者(Viewer)の2D映像デバイスが複数に接続する。なお、情報処理システム10は、シーンマネージャSMと、配信サーバCHとを複数に備えるとしてもよい。また、情報処理システム10は、バーチャルカメラVCと、カメラプロセッサCと、レンダラRとが有する機能を一体化して備えるとしてもよい。
【0024】
図1において、A1は、バーチャルカメラVC1の視点位置を操作する配信者U1が視聴中の立体映像を表す。配信者U1が視聴中の立体映像A1には、バーチャルカメラVC1の視点位置から見たリモート会議の会議参加者(P1、P2、P3)のアバターが含まれる。なお、アバターの視点位置の立体映像には、バーチャルカメラVC1の視点位置を操作する配信者U1は描画されない。
【0025】
立体映像A1内のバーチャルカメラVC2、VC3は、3DCG空間内にオブジェクトとして配置されたバーチャルカメラVCである。バーチャルカメラVC2は、例えば、会議参加者P2の動きを追従する。バーチャルカメラVC3は、例えば、会議参加者P3の動きを追従する。
【0026】
配信者U1は、自身が操作するバーチャルカメラVC1の立体映像を視聴するHMD1を装着する。配信者U1が装着するHMD1には、ヘッドフォン、インカムといった音響デバイスが含まれる。また、配信者U1は、例えば、3DCG空間内におけるバーチャルカメラVC1の視点位置を指定するためのコントローラCNを備える。コントローラCNは、3DCG空間を立体視するための2つの視点位置を操作するユーザ入力デバイスである。コントローラCNには、バーチャルカメラVC1の回転角度を検知するセンサ(加速度センサ、ジャイロセンサ、地磁気センサ、画像センサ等)が含まれる。なお、バーチャルカメラVC1、VC2、VC3で中継中の立体映像を切替える機能を有するとしてもよい。また、バーチャルカメラVC1の視点位置を操作する配信者は、複数に存在するとしてもよい。
【0027】
シーンマネージャSMは、リモート会議といった3DCG空間の立体映像を作成するアプリケーションプログラムが動作するプラットフォームである。プラットフォームは、例えば、サーバ、WS(WorkStation)等の情報処理装置によって構成されたコンピュータシステムである。
【0028】
シーンマネージャSMは、アプリケーションプログラムの実行により、3DCG空間の映像を作成し、リモート会議参加者にアバター視点を介した立体映像をリアルタイムで提供する。同様に、シーンマネージャSMは、アプリケーションプログラムの実行により、バーチャルカメラVCの視点位置から見た3DCG空間の立体映像を作成し、レンダラRに送信する。シーンマネージャSMは、バーチャルカメラVC1の視点位置を操作する配信者U1に対して、バーチャルカメラVC1、VC2、VC3のそれぞれの視点位置から見た3DCG空間の立体映像を出力する。配信者U1は、HMD等を介してバーチャルカメラVC1、VC2、VC3の視点位置から見た3DCG空間の立体映像を視聴する。なお、HMD等に表示される立体映像は、配信者U1の操作入力を受け付けるコントローラCNを介して切替えられる。
【0029】
シーンマネージャSMは、3DCG空間の会議室を構成する構造物やアバター等のオブジェクトのデータをタイムコードに対応付けて保存・管理する。ここで、「タイムコード」とは、3DCG空間内における絶対的な時間を表現するカウンタである。リモート会議の進行に伴うプロセスで発生したイベントに係る全ての事象は、タイムコードにより保存・管理される。
【0030】
シーンマネージャSMは、外部ネットワークに接続されたスマートフォン等の2D映像デバイスから送信されたメッセージを受信する。メッセージには、事後あるいはリアルタイムに配信された2次元映像の視聴者からの、文字、音声、動作等のリアクション信号等が含まれる。シーンマネージャSMは、受け付けたメッセージに基づいて、リモート会議が進行する3DCG空間内の、バーチャルカメラVCの視点位置を移動させる。あるいは、シーンマネージャSMは、3DCG空間内の、バーチャルカメラVC1の視点位置を操作する配信者U1に対して、受け付けたメッセージに基づく視点位置を通知する。配信者は、例えば、HMDに表示された視点位置の移動の通知(文字やマーカ等)、あるいは、音声通知等を介してシーンマネージャSMからの指示を受け付け、バーチャルカメラVC1の視点位置を移動させる。なお、シーンマネージャSMが受信したメッセージは、タイムコードに対応付けられて保存される。
【0031】
コンピュータプログラムの実行によってシーンマネージャSMが提供する機能は、「撮影対象を多視点で撮影した多視点3次元動画データを生成する動画データ生成手段」の一例である。同様にして、コンピュータプログラムの実行によってシーンマネージャSMが提供する機能は、「視聴者装置から動画に対する反応を受け付ける手段の」一例である。
同様にして、コンピュータプログラムの実行によってシーンマネージャSMが提供する機
能は、「設定された視点と、多視点3次元動画データ中の時刻と、反応を記録する手段」
の一例である。
【0032】
バーチャルカメラVCは、リモート会議が進行する3DCG空間の立体映像を中継するための視点位置を指定する仮想的なデバイスである。バーチャルカメラVCは、3DCG空間を立体映像として中継するために、2つの視点位置、2つの視点位置から決定される輻輳点をカメラ情報として有する。配信者U1の操作が介在しないバーチャルカメラVCでは、3DCG空間内における配置位置はシーンマネージャSMによって決定される。バーチャルカメラVCは、例えば、3DCG空間内に会議参加者が視覚可能なオブジェクトとして描画されてもよく、会議参加者に視認されないようにしてもよい。また、バーチャルカメラVCのオブジェクトは、立体映像A1内のバーチャルカメラVC2、VC3のように、配信者U1の視聴する立体映像内に限定して描画し、視聴者には見せないようにしてもよい。バーチャルカメラVCの焦点距離やズームパラメータ、回転、視点位置等のバーチャルカメラ情報(以下、単に「カメラ情報」とも称す)はシーンマネージャSM、あるいは、バーチャルカメラVCを操作する配信者U1により制御される。バーチャルカメラVCは、「多視点3次元動画データに対して視点の設定を受け付ける手段」の一例である。
【0033】
カメラプロセッサCは、バーチャルカメラVCのカメラ情報をタイムコードに対応付けて記録し、保存するコンピュータである。カメラプロセッサCは、バーチャルカメラVCのカメラ情報に基づいて、シーンマネージャSMと連携し、リモート会議が進行する3DCG空間内の立体映像を生成する。カメラプロセッサCは、バーチャルカメラVCのカメラ情報、バーチャルカメラVCの視点位置から見た3DCG空間内の立体映像をレンダラRに出力する。
【0034】
レンダラRは、バーチャルカメラVCによって視点位置が指定された3DCG空間の立体映像を2次元映像(ビデオ)に変換する、所謂レンダリング処理を行うコンピュータである。レンダリング処理では、3DCG空間内のオブジェクトの2次元平面へのアフィン変換等の座標変換、照明処理等の描画処理が行われ、3DCG空間に配置されたポリゴン単位のデータが、バーチャルカメラVCの視点位置から見たピクセル単位のデータに変換される。レンダラRは、変換後のピクセル単位のデータに基づいて描画されたフレーム単位の2次元画像から2次元映像を作成し、作成した2次元映像を配信サーバCHに出力する。カメラプロセッサCとレンダラRは、「受け付けた視点から撮影対象をみたときの動画を生成する手段」の一例である。
【0035】
配信サーバCHは、レンダラRから出力された2次元映像(ビデオ)を、外部ネットワークに接続されたスマートフォン等の2D映像デバイスに配信するコンピュータである。配信サーバCHは、上記2D映像デバイスを介して事後、あるいは、リアルタイムで視聴中の視聴者からの要求に従って、複数のレンダラR1、R2、R3等から出力された2次元映像の配信切り替えを行う。配信サーバCHは、「生成された動画を視聴者装置に提供する手段」の一例である。
【0036】
〔2.装置構成〕
図2は、コンピュータのハードウェア構成の一例を示す構成図である。図1に示すシーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHは、図2に示すコンピュータ100を用いて実現される。図2に例示のコンピュータ100は、接続バス106によって相互に接続されたCPU(Central Processing Unit)101、主記憶装置102、補助記憶装置103、通信IF(Interface)104、入出力IF105を備える。CPU101はプロセッサとも呼ばれる。ただし、CPU101は、単一のプロセッサに限定される訳ではなく、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のCPU101がマルチコア構成であってもよい。また、上記構成要素はそれぞれ複数に設けられてもよいし、一部の構成要素を設けないようにしてもよい。
【0037】
CPU101は、コンピュータ100全体の制御を行う中央処理演算装置である。CPU101は、補助記憶装置103に記憶されたプログラムを主記憶装置102の作業領域に実行可能に展開し、プログラムの実行を通じて周辺機器の制御を行うことで所定の目的に合致した機能を提供する。主記憶装置102は、CPU101がプログラムやデータをキャッシュしたり、作業領域を展開したりする記憶媒体である。主記憶装置102は、例えば、フラッシュメモリ、RAM(Random Access Memory)やROM(Read Only Memory)を含む。
【0038】
補助記憶装置103は、OS(Operating System)、CPU101により実行される各プログラムや、動作の設定情報などを記憶する記憶媒体である。補助記憶装置103は、例えば、HDD(Hard-disk Drive)やSSD(Solid State Drive)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、USB(Universal Serial Bus)メモリ等である。補助記憶装置103には、CD(Compact Disc)ドライブ装置、DVD(Digital Versatile Disc)ドライブ装置、BD(Blu-ray(登録商標) Disc)ドライブ装置等が含まれる。記録媒体としては、例えば、不揮発性半導体メモリ(フラッシュメモリ)を含むシリコンディスク、ハードディスク、CD、DVD、BD、USB(Universal Serial Bus)メモリ、SD(Secure Digital)メモリカード等がある。
【0039】
通信IF104は、コンピュータ100に接続するネットワーク、外部ネットワークとのインターフェースである。通信IF104には、所定の規格に基づいて通信を行う無線通信モジュールが含まれる。入出力IF105は、コンピュータ100に接続する他の装置との間でデータの入出力を行うインターフェースである。
【0040】
CPU101のプログラムの実行により、図1に示すシーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHの処理が提供される。但し、上記それぞれの処理の少なくとも一部が、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)等によって提供されてもよい。同様にして、上記それぞれの処理の少なくとも一部が、FPGA(Field-Programmable Gate Array)、数値演算プロセッサ、ベクトルプロセッサ、画像処理プロセッサ等の専用LSI(large scale integration)、その他のデジタル回路であってもよい。また、シーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHの少なくとも一部にアナログ回路を含むとしてもよい。
【0041】
〔3.データ構成〕
図3は、シーンマネージャSMにおいて記録・保存される3DCG空間内のオブジェクトについてのデータ構成の一例を示す図である。図3に示すように、シーンマネージャSMにおいて記録・保存される3DCG空間内のオブジェクトについてのデータは、タイムコード毎のレコードとして記録される。上記レコードは、「TC」、「Object」、「Pos(x,y,z)」、「Rot(p,y,r)」、「FOV(f)」、「Scale(s)」、「Option{Trigger,Target,…}」といったフィールドを有する。
【0042】
「TC」フィールドには、3DCG空間内における絶対的な時間を表現するカウンタのカウンタ値が格納される。カウンタ値は、例えば、0.1msといった周期で計測される。なお、「TC」フィールドには、計測されたカウンタ値から算出された時刻情報が格納されるとしてもよい。図3においては、“h:mm:ss”といった時暦、分歴、秒歴の形式の時刻情報が例示される。
【0043】
「Object」フィールドには、3DCG空間内に配置されるオブジェクトを一意に識別する識別情報が格納される。また、「Object」フィールドに格納されるデータ例としては、バーチャルカメラVCを一意に識別する識別情報が挙げられる。図3においては、リモート会議の参加者の操作可能なアバター(P1,P2)が例示される。同様に、配信者U1が操作するバーチャルカメラVC1(HID1、HID2)、アバターを追従するバーチャルカメラVC2(CAM1)が例示される。バーチャルカメラVC1は、3DCG空間を立体視するための2つの視点位置(HID1、HID2)を有する。バーチャルカメラVC1の視点位置(HID1、HID2)は、配信者U1の備えるユーザ入力デバイスを介して操作される。
【0044】
「Pos(x,y,z)」フィールドには、「Object」フィールドに格納されたオブジェクトの3DCG空間の座標が格納される。「Object」フィールドに格納されたオブジェクトが、会議参加者のアバターの場合には、そのオブジェクトを構成する複数のポリゴンの重心座標が格納される。「Object」フィールドに格納されたオブジェクトが、バーチャルカメラVCの場合には、視点位置の座標が格納される。配信者U1が操作するバーチャルカメラVC1の場合には、HID1、HID2のそれぞれについての視点位置の座標が格納される。
【0045】
「Rot(p,y,r)」フィールドには、「Object」フィールドに格納されたオブジェクトの移動に伴う、ローカル座標の回転を表すパラメータ座標が格納される。バーチャルカメラVCの場合には、視点位置のピッチ軸、ヨー軸、ロール軸についての回転方向を表すパラメータ座標が格納される。配信者U1が操作するバーチャルカメラVC1の場合には、HID1、HID2のそれぞれについての上記座標が格納される。
【0046】
「FOV(f)」フィールドには、バーチャルカメラVCのカメラ情報として画角を表すパラメータが格納される。「Scale(s)」フィールドには、「Object」フィールドに格納されたオブジェクトの3DCG空間の移動に伴う拡大/縮小のパラメータが格納される。「Option{Trigger,Target,…}」フィールドには、例えば、3DCG空間におけるオブジェクトに質感を与えるためのパラメータ、動作等を示すパラメータが格納される。バーチャルカメラVCの場合には、例えば、ズーム対象標や、配信者U1が操作するバーチャルカメラVC1の起動・停止等の情報が格納される。
【0047】
〔4.処理フロー〕
以下、図4、5に示すフローチャートを参照し、情報処理システム10におけるシーンマネージャSMの処理を主に説明する。なお、図1に示すシーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHは、CPU101が補助記憶装置103に記憶されている各種プログラムや各種データを主記憶装置102に読み出して実行することで、図4に示す処理を行う。なお、図5で後述するバーチャルカメラVC1の設定処理についても同様である。
【0048】
図4は、シーンマネージャSMのイベントに係る事象の記録処理を示すフローチャートである。シーンマネージャSMは、情報処理システム10を介して提供するリモート会議の進行に伴うプロセスで発生した会議参加者(アバター)間のやり取り、バーチャルカメラVCのカメラ情報をタイムコードTCに対応付けて記録する。シーンマネージャSMは、例えば、図3を用いて説明したデータ構成により、3DCG空間内に配置されるオブジェクト、バーチャルカメラVCのカメラ情報を補助記憶装置103に記録する。同様にして、シーンマネージャSMは、配信サーバCHから配信された2D映像の視聴者からのメッセージをタイムコードTCに対応付けて記録する。シーンマネージャSMでは、アプリケーションプログラムの実行により作成された、3DCG空間の映像は、リモート会議参加者にアバター視点を介した立体映像としてリアルタイムに提供される。
【0049】
図4のフローチャートにおいて、処理の開始は、リモート会議といったコンテンツを提供するアプリケーションプログラムの実行のときが例示される。シーンマネージャSMは、3DCG空間内における絶対的な時間を表現するカウンタであるタイムコードTCを初期化(リセット)する(S1)。シーンマネージャSMは、例えば、会議場を構成する様々なオブジェクトを3DCG空間内のワールド座標系に配置する。そして、シーンマネージャSMは、会議参加者のログインを受け付けるまで待機する(S2)。但し、リモート会議に参加する会議参加者の人数や役職等が事前に通知されている場合には、予め会議参加者に割当てられたアバターを3DCG空間内に配置するとしてもよい。なお、上記オブジェクトは、例えば、シーンマネージャSMが参照する補助記憶装置103に予め登録される。図4の、待機状態(S2)においては、シーンマネージャSMは、S3からS7の処理で例示される複数のイベント待ちの状態にある。
【0050】
シーンマネージャSMは、3DCG空間を用いて提供されるリモート会議の会議参加者(プレーヤー)のログイン、ログアウトを受け付ける(S3)。シーンマネージャSMは、会議参加者のログイン、ログアウトを受け付けた場合には(S3、受け付け)、受け付けた会議参加者のログイン、ログアウトをタイムコードTCに対応付けられたキー記録として記録する(S8)。キー記録には、例えば、会議参加者を一意に識別する識別情報、会議参加者に対応付けられた3D空間内のアバターの識別情報等が含まれる。
【0051】
シーンマネージャSMは、ログインを受け付けた会議参加者に、アバター視点から見たリモート会議が行われる3DCG空間の立体映像を提供する。ログインした会議参加者は、例えば、HMD等を介して立体映像を視聴しながらアバターを操作し、会議場の移動や他の会議参加者への対話や働きかけを行う。3DCG空間で生じた会議参加者の行動によるイベントは、視聴中の立体映像に反映される。
【0052】
シーンマネージャSMは、リモート会議が進行する3DCG空間を中継する複数の配信者Unのログイン、ログアウトを受け付ける(S4)。シーンマネージャSMは、配信者Unのログイン、ログアウトを受け付けた場合には(S4、受け付け)、受け付けた配信者Unのログイン、ログアウトをタイムコードTCに対応付けられたキー記録として記録する(S8)。キー記録には、例えば、配信者Unを一意に識別する識別情報、配信者Unが操作するバーチャルカメラVCnの識別情報が含まれる。なお、3DCG空間内における、配信者Unが操作するバーチャルカメラVCnの初期の配置位置は、シーンマネージャSMにより決定される。
【0053】
配信者Unは、バーチャルカメラVCnの視点位置(HID1、HID2)を操作し、リモート会議が進行する3DCG空間を中継する。バーチャルカメラVCnの視点位置(HID1、HID2)は、3DCG空間内の任意の位置に設定される。シーンマネージャSMは、ログインを受け付けた配信者Unに、バーチャルカメラVCnの視点位置から見た3DCG空間の立体映像を出力する。配信者Unは、HMD等に表示された立体映像を視聴しながらバーチャルカメラVCnの視点位置を操作し、リモート会議が進行する3DCG空間を中継する。バーチャルカメラVCnの操作を介して中継された立体映像には、例えば、リモート会議の進行に伴うイベントに応じた3DCG空間内の移動、特定のアバターへのズームアップ等が反映される。
【0054】
シーンマネージャSMは、会議参加者によるアバターへの操作入力を受け付ける(S5)。シーンマネージャSMは、受け付けた操作入力により、リモート会議が進行する3DCG空間に配置されたオブジェクト移動、回転、拡大・縮小が生じた場合には(S5、Yes)、タイムコードTCに対応付けて上記オブジェクト移動、回転、拡大・縮小を表すパラメータをキー記録として記録する(S9)。シーンマネージャSMは、例えば、図3に示すデータ構成を用いて対象オブジェクトについての各種パラメータを記録する。
【0055】
シーンマネージャSMは、配信者UnによるバーチャルカメラVCnへの操作入力を受け付ける(S6)。シーンマネージャSMは、配信者UnによるバーチャルカメラVCnへの操作入力を受け付けた場合には(S6、Yes)、バーチャルカメラVCnのカメラ情報をタイムコードTCに対応付けてキー記録として記録する(S10)。シーンマネージャSMは、例えば、図3に示すデータ構成を用いて操作対象のバーチャルカメラVCnについてのカメラ情報を記録する。
【0056】
シーンマネージャSMは、配信サーバCHから配信された2D映像の視聴者からのメッセージ(視聴者反応)を受け付ける(S7)。視聴者から受け付けたメッセージには、文字、音声、動作等のリアクション信号が含まれる。シーンマネージャSMは、配信サーバCHから配信された2D映像の視聴者からのメッセージを受け付けた場合には(S7、Yes)、受け付けたメッセージをタイムコードTCに対応付けて視聴者反応として記録する(S11)。
【0057】
コンテンツの提供者(サービス事業者)は、例えば、シーンマネージャSMに記録されたメッセージに含まれる、配信された2D映像についての評価や要望等を提供するコンテンツやサービス内容に反映する。
【0058】
次に、図5に示すフローチャートを参照し、シーンマネージャSMのバーチャルカメラVC1の設定処理を説明する。図5は、シーンマネージャSMのバーチャルカメラVC1の設定処理を示すフローチャートである。なお、図5に示すフローチャートの処理の開始およびS1の処理は、図4に示す処理と同様である。
【0059】
シーンマネージャSMは、コントローラCNを介し、配信者Unの操作するバーチャルカメラVCnの操作入力を受け付ける(S21)。操作入力には、バーチャルカメラVCnのカメラ情報、例えば、3DCG空間内の視点位置(HID1、HID2の各座標)、ズームイン・ズームアウト(拡大・縮小)、カメラの向き(回転取得センサ)、画角、映像取得開始(HIDトリガーON/OFF)等を表すパラメータが含まれる。シーンマネージャSMは、受け付けたバーチャルカメラVCnのカメラ情報を取得し、主記憶装置102の所定の領域に一時的に記憶する。シーンマネージャSMの処理は、S22の処理に移行する。
【0060】
シーンマネージャSMは、操作入力に映像取得開始を表すパラメータ(HIDトリガーON)が含まれている場合には(S22、Yes)、S23の処理に移行する。シーンマネージャSMは、操作入力に映像取得開始を表すパラメータ(HIDトリガーON)が含まれていない場合には(S22、No)、S21の処理に戻る。
【0061】
シーンマネージャSMは、リモート会議が提供される3DCG空間内を任意の視点で中継するバーチャルカメラVCnが既に配置されているかを判定する(S23)。シーンマネージャSMは、上記のバーチャルカメラVCnが既に配置されている場合には(S23,Yes)、S26の処理に移行する。シーンマネージャSMは、上記のバーチャルカメラVCnが未だ配置されていない場合には(S23,No)、S24の処理に移行する。
【0062】
S24の処理では、シーンマネージャSMは、図6を用いて後述するカメラ方向設定アルゴリズムに従って、バーチャルカメラVCnの視点位置(HID1、HID2)を設定する。シーンマネージャSMは、S24の処理で設定された視点位置(HID1、HID2)に、3DCG空間内を任意の視点で中継するバーチャルカメラVCnを配置する(S25)。3DCG空間におけるバーチャルカメラVCnの配置位置は、2つの視点位置(HID1、HID2)の中間点により表される。シーンマネージャSMの処理は、S27の処理に移行する。
【0063】
S26の処理では、シーンマネージャSMは、バーチャルカメラVCnの位置、角度等を更新する。シーンマネージャSMは、S21の処理で受け付けたHID1、HID2の各座標からバーチャルカメラVCnの位置を更新し、カメラの向きからカメラの回転角度を更新する。シーンマネージャSMの処理は、S27の処理に移行する。
【0064】
S27の処理では、シーンマネージャSMは、S25、S26の処理で設定されたバーチャルカメラVCnのカメラ情報等を補助記憶装置103に記録する。上記カメラ情報は、例えば、図3を用いて説明したデータ構成により記録される。シーンマネージャSMの処理は、S28の処理に移行する。
【0065】
S28の処理では、シーンマネージャSMは、タイムコードTCのカウント値が記録可能時間に到達したかを判定する。ここで、記録可能時間とは、予め定められた設定時間であり、例えば、補助記憶装置103等のメモリ容量等から求めることができる。シーンマネージャSMは、タイムコードTCのカウント値が記録可能時間に到達している場合には(S28,Yes)、図5に示す処理を終了する。また、シーンマネージャSMは、タイムコードTCのカウント値が記録可能時間に到達していない場合には(S28,No)、S21の処理に移行し、図5に示す処理を継続する。
【0066】
次に、図6を参照し、カメラ方向設定アルゴリズムを説明する。図6は、バーチャルカメラVCnのカメラ方向の設定を説明する説明図である。図6においては、バーチャルカメラVCnの視点方向の、右方向への回転(時計回り)を上面視した上面図が例示される。図6に示すバーチャルカメラVCnの状態は、(1)→(2)→(3)の順で変化する。なお、(1)に示す状態は、初期状態を表す。
【0067】
図6において、HID1、HID2は、3DCG空間内におけるバーチャルカメラVCnの視点位置を表し、HID1とHID2の中間点P1が、バーチャルカメラVCnの配置位置を表す。上記視点位置、配置位置は、ワールド座標系で表される。HID1、HID2の視点位置は、バーチャルカメラVCnを操作する配信者Unによって設定される。なお、HID1とHID2との間の距離は、バーチャルカメラVCnの画角(FOV)、または、焦点処理(f)に対応付けられる。バーチャルカメラVCnの画角(FOV)は、例えば、配信者Unの操作入力、或いは、シーンマネージャSMの制御によって、HID1とHID2との間の距離を広げることで、バーチャルカメラVCnの画角(FOV)の広角化が可能になる。
【0068】
中間点P1に配置されたバーチャルカメラVCnの、3DCG空間内の注視点は「VD」で表され、中間点P1から注視点VDに向かう矢印が3DCG空間内におけるバーチャルカメラVCnの視軸方向を表す。「VD1」はHID1による視軸方向を表し、「VD2」はHID2による視軸方向を表す。なお、図6に示すP2、P3は、配信者Unの左右の視点を表す。
【0069】
図6に示すカメラ方向設定アルゴリズムにおいては、HID1の視軸方向の単位ベクトルを定数倍(h)した終点座標VP1と、HID2の視軸方向の単位ベクトルを定数倍(h)した終点座標VP2との中間点を用いて、カメラ方向が移動するバーチャルカメラVCnの注視点VDを設定する。
【0070】
図6(1)に示すように、初期状態においては、終点座標VP1、VP2、注視点VD
の座標は、バーチャルカメラVCnの視軸に直交する同一平面上に存在する。図6(1)状態で、配信者Unの操作入力よってバーチャルカメラVCnの回転角度のセンサ値が入力される。シーンマネージャSMは、例えば、HID1の視軸の方向を維持した状態で、HID2の視軸を入力された回転角度に沿って右方向に回転させる(図6(2))。
【0071】
図6(2)に示すように、シーンマネージャSMは、例えば、HID1の終点座標VP1と、回転移動したHID2の終点座標VP2との中間点にバーチャルカメラVCnの注視点VDを設定する。3DCG空間におけるバーチャルカメラVCnの視軸方向は、HID1とHID2との中間点P1と、回転移動後の上記注視点VDとを結ぶ直線方向となる。
【0072】
シーンマネージャSMは、図6(2)に示す状態から、HID2の視軸を入力された回転角度に沿って右方向に回転させると共に、HID1の視軸を右方向に回転させる(図6(3))。このときの、HID1の視軸の右方向への回転移動量は、図6(2)に示すHID2の視軸の回転移動量に相当する。
【0073】
図6(3)に示すように、シーンマネージャSMは、回転移動後のHID1の終点座標VP1と、HID2の終点座標VP2との中間点にバーチャルカメラVCnの注視点VDを設定する。3DCG空間におけるバーチャルカメラVCnの視軸方向は、HID1とHID2との中間点P1と、回転移動によって更新された注視点VDとを結ぶ直線方向になる。
【0074】
シーンマネージャSMは、入力された回転角度のセンサ値が反映されるまで、上述した処理を連続して実行し、バーチャルカメラVCnの注視点VDと視軸方向を回転させる。シーンマネージャSMにおいては、図6を用いて説明したカメラ方向設定アルゴリズムを実行することで、バーチャルカメラVCnのより自然な回転操作を立体映像に反映する。
【0075】
以上、説明したように、情報処理システム10は、リモート会議が進行する3DCG空間の任意の位置にバーチャルカメラを設定できる。情報処理システム10は、バーチャルカメラを介し、リモート会議が進行するプロセスで発生した会議参加者間のやり取り等の事象を、任意の視点位置から見た立体映像として中継できる。情報処理システム10は、中継された立体映像を2次元映像に変換できる。情報処理システム10は、リモート会議の様子を視聴する視聴者の有する、スマートフォン等の2D映像デバイスにリアルタイムに配信できる。
【0076】
情報処理システム10においては、3次元映像で視聴するための専用デバイスや通信回線の帯域拡張といった環境整備を視聴者に負担させることなく、3DCG空間で進行中のリモート会議の様子がリアルタイムに視聴できる。
【0077】
情報処理システム10は、2次元映像を視聴する視聴者からのメッセージ(文字、音声、動作等のリアクション信号)を受け付けることができる。情報処理システム10は、例えば、受け付けたメッセージに基づいて、リモート会議が進行する3DCG空間内のバー
チャルカメラの中継する視点位置を移動できる。視点位置が更新されたバーチャルカメラの中継する立体映像は、2次元映像に変換されて視聴者に配信される。情報処理システム10は、配信中の2次元映像に視聴者の意図を反映できる。情報処理システム10においては、視聴者の反応や視点を考慮した2次元映像が配信できる。すなわち、例えば、会議に発言者として参加するユーザ間のやり取りを、事後あるいはリアルタイムに視聴する視聴者の反応や視点を考慮した映像の配信が望まれるが、これを、情報処理システム10により実現できる。
【0078】
情報処理システム10は、リモート会議が進行する3DCG空間のオブジェクトの状態、バーチャルカメラの状態を示す情報を、タイムコードに関連付けて記録・保存することができる。情報処理システム10は、タイムコードに関連付けて記録・保存された情報に基づいて、リモート会議の立体映像を再現することができる。情報処理システム10は、再現されたリモート会議の2次元映像を、事後に視聴する視聴者の2D映像デバイスに配信できる。情報処理システム10は、事後に配信する2次元映像についても視聴者からのメッセージを受け付けることができる。情報処理システム10においては、事後においても視聴者の反応や視点を考慮した2次元映像が配信できる。
【0079】
本実施形態に係る情報処理システム10によれば、CGで描画された3次元空間内における事象の、2次元映像デバイスを用いたリアルタイムおよび非同期の双方向参加が可能な技術が提供できる。
【0080】
〔変形例〕
実施形態においては、情報処理システム10の提供するコンテンツは、3DCG空間を用いたコンテンツとして説明した。情報処理システム10は、例えば、実際の会議場をCCD(Charge-Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を備えるカメラで撮影し、撮影された会議場にアバター等のオブジェクトを配置する形態としてもよい。実際の会議場を用いることで、リモート会議における臨場感や没入感の向上が期待できる。
【0081】
図7は、実空間の会議場A2を撮影するカメラRCを備える情報処理システムの一例を示す構成図である。カメラRCは、外部ネットワークに接続し、リモート会議の会議場となる実空間の映像を取得する。実空間の会議場の映像を撮影するカメラRCは、複数に存在し得る。
【0082】
実空間の会議場の映像を撮影するカメラRCは、会議場に対して固定されているものとする。シーンマネージャSMは、例えば、カメラRCの位置、傾き、画角等のカメラ情報を用いて撮像された映像の動画フレームを解析し、会議場を撮影するカメラの視軸を推定する。そして、シーンマネージャSMは、固定されたカメラの視軸に基づいて、3DCGで描画されたアバター等のオブジェクトを配置するワールド座標系を特定する。シーンマネージャSMは、ワールド座標系に3DCGで作成されたオブジェクトを配置するための基準となるマーカ等を設定する。そして、シーンマネージャSMは、マーカ位置に3DCGで作成されたアバター等のオブジェクトを配置し、実施形態で説明したリモート会議のコンテンツを提供するとすればよい。なお、実空間を撮影するカメラRCが固定でない場合には、実空間内に撮影位置の推定基準となるマーカ(実マーカ)を設置すればよい。
【0083】
リモート会議の会議参加者には、例えば、実空間で撮影中の会議場と3DCGで作成されたアバター等が合成された3次元空間が、アバター視点から見た立体映像として提供される。実空間から撮影された会議場においても、会議参加者は自身のアバターを操作し、会議における発言や対話、他者への働きかけや会議場内の移動等の行動が可能になる。
リモート会議の様子を中継する配信者Unは、実施形態と同様にしてバーチャルカメラVCnを操作し、合成された3次元空間の任意の視点位置から見た立体映像を中継することができる。
【0084】
なお、情報処理システム10は、会議参加者や配信者といった被写体を撮影し、撮影された被写体の実空間における映像を3DCG空間に合成するとしてもよい。実空間における被写体の映像と3DCG空間の映像との合成として、クロマキー(Chroma key)合成が例示される。図8図9は、クロマキー合成を用いる際の、実空間における被写体の撮影を説明する図である。
【0085】
図8図9において、背景20はグリーンバック、あるいは、ブルーバックといった所定色の背景である。クロマキー合成においては、所定色の背景20が撮影された領域に、3DCGの映像が合成される。被写体21の映像は、背景20で指定される所定色の実空間を背景として、カメラ22によって撮影される。カメラ22は、例えば、カメラの配置位置、傾き、画角といったカメラ情報と共に被写体21の実空間における映像を撮影する。被写体21の位置は、センサ23によって特定される。なお、カメラ22は、例えば、撮影対象になる空間の奥行きを取得可能な奥行きカメラであってもよい。
【0086】
図9に示すように、被写体21は、自身の頭部の動きを検知可能なHMD25や腕部の
動きを検知するモーションセンサ24を備えるとしてもよい。被写体21が、情報処理シテム10の提供する立体映像の配信者の場合には、実施形態で説明したように、合成された3DCG空間を任意の視点位置から中継するバーチャルカメラVCの操作デバイスを備える。HMD25、モーションセンサ24を介して検知された被写体21の動きは、合成される3DCG空間内の動作や行動に反映される。
【0087】
図10は、合成映像の一例を示す図である。図10においては、図9に示す所定色の背景20に対する映像内の部分領域に対して、3DCG空間の映像26を合成した状態が例示される。情報処理システム10においては、被写体21が会議参加者の場合には、被写体21と3DCG空間で作成された映像26とを合成した立体映像がリモート会議の会議参加者に提供される。
【0088】
図11は、2D映像デバイスに表示された合成映像の一例を示す図である。図11においては、2D映像デバイス27に表示された画面内には、HMD等を装着した被写体21と3DCG空間の映像26とが合成された状態で表示される。なお、図11の2D映像デバイス27は、HMD等を装着した被写体21と3DCG空間の映像26とが合成された立体映像を、裸眼で視聴可能なデバイスであってもよい。被写体21が、情報処理システム10の提供する立体映像の配信者の場合には、例えば、合成された3DCG空間で進行中の事象を任意の視点位置から中継すると共に、事象の解説や事象に至る背景を音声にて視聴者に通知できる。
【0089】
次に、カメラで撮影された被写体がリモート会議に参加する形態について説明する。図12は、HMDを装着した被写体がリモート会議に参加する形態の説明図である。図12において、「C11」は、図8図9で説明した被写体Uaを撮影するカメラを表す。また、「R11」は、被写体Uaの装着するHMDにリアルタイムに表示される映像を表し、「R12」は、外部ネットワークに接続する視聴者に配信される映像を表す。「R13」は、カメラC11で撮影された被写体Uaが合成されたリモート会議のリアルタイム映像を表す。被写体Uaは、HMDに表示される映像を視聴しながらリモートに参加する。HMDには、例えば、HMDを介して検知された被写体Uaの頭部の動きに対応する視点位置の映像が表示される。
【0090】
図8図9を用いて説明したように、被写体Uaは、グリーンバック等のクロマキー合成が可能な背景を設置し、RGB映像を撮影可能なカメラC11、あるいは、撮影された映像領域から背景の切り出しが可能な奥行きカメラC11で自身を撮影する。カメラC11は、少なくともカメラ位置(Pos(x,y,z))、回転(Rot(p,y,r))を含むカメラ情報をタイムコードTCに対応付けて記録すると共に、上記カメラ情報と被写体Uaの映像をシーンマネージャSMに出力する。
【0091】
シーンマネージャSMは、カメラC11の映像と3DCGのオブジェクトとをタイムコードTCを合致させて合成する。シーンマネージャSMによって合成されたカメラC11の映像と3DCG空間のオブジェクトは、映像R13に示すように、被写体Uaを含むクロマキー合成されたリアルタイム映像が生成される。映像R13の生成処理は、例えば、グリーンバック等で撮影されたフレーム毎のRGB画像の色空間を回転し、HSB(Hue、Saturation、Brightness)空間に変換する。そして、上記生成処理においては、変換された画像に対する背景除去処理、および、カメラC11の視軸方向から視た3DCG映像との合成処理がリアルタイムで行われる。生成された映像R13は、配信サーバCHを介し、外部ネットワークに接続する視聴者の2D映像デバイスに2次元映像として配信される。
【0092】
図13は、HMDを装着しない被写体がリモート会議に参加する形態の説明図である。
被写体がHMDを装着しない形態においても、図12と同様の処理が行われる。但し、被写体Uaは、リアルタイムで進行するリモート会議の立体映像を裸眼で視聴可能な表示デバイスに表示された映像、あるいは、情報処理システム10によって変換された2D映像を視聴しながら参加すればよい。シーンマネージャSMは、例えば、補助記憶装置103に、カメラC11の映像と3DCG空間のオブジェクトを合成したリモート会議のデータを、オフライン動画ファイル(SV)として保存するとしてもよい。なお、シーンマネージャSMは、図12の形態についても同様にして、上記リモート会議のデータを補助記憶装置103に保存できる。
【0093】
図13に示す形態は、例えば、事後に再生されるリモート会議の映像についても適用が可能である。図14は、HMDを装着しない被写体が事後に再生されるリモート会議に参加する形態の説明図である。図14においては、補助記憶装置103等にオフライン動画ファイル(SV)として保存された映像が、被写体Uaの視聴可能な映像として再生される。但し、再生される事後の映像は、他の資料映像やシーンを記録した動画やシーケンスといった互換を有する動画映像であってもよい。
【0094】
図14において、情報処理システム10のシーンマネージャSMは、補助記憶装置103に保存されたオフライン動画ファイル(SV)を読み出して再生する。再生されたオフライン動画ファイル(SV)は、被写体Uaが視聴可能な表示デバイスに映像R11として表示される。ここで、映像R11は、被写体Uaが視聴可能な形態であれば、立体映像であってもよく、2D映像であってもよい。
【0095】
図14の被写体Uaは、グリーンバック等のクロマキー合成が可能な背景を設置し、RGB映像を撮影可能なカメラC11、あるいは、撮影された映像領域から背景の切り出しが可能な奥行きカメラC11で自身を撮影する。カメラC11は、少なくともカメラ位置(Pos(x,y,z))、回転(Rot(p,y,r))を含むカメラ情報をタイムコードTCに対応付けて記録すると共に、上記カメラ情報と被写体Uaの映像をシーンマネージャSMに出力する。シーンマネージャSMは、カメラC11の映像と3DCGのオブジェクトとをタイムコードTCを合致させて合成し、被写体Uaがクロマキー合成された映像R13に示す映像を生成する。なお、映像R13の生成処理については、図13を用いて説明した。
【0096】
オフライン動画ファイル(SV)を用いて生成された映像R13は、配信サーバCHを介し、外部ネットワークに接続する視聴者の2D映像デバイスに2次元映像として配信される。視聴者には、オフライン動画ファイル(SV)を用いて再生された立体映像内に、事後の参加者としてリモート会議に参加する被写体Uaを含む2次元映像が配信される。シーンマネージャSMは、再生されたオフライン動画ファイル(SV)に対して被写体Uaが合成された映像データを補助記憶装置103に保存できる。
【0097】
図14に示す形態では、例えば、被写体Uaの身振りや手振り等のアクションを含む演技が、再生されたオフライン動画ファイル(SV)に対して反映される。被写体Uaの演技によっては、例えば、過去に進行されたリモート会議内に被写体Uaが存在しているかのような映像を合成し、タイムコードTCに対応付けて記録することが可能になる。
この結果、図14に示す形態の情報処理システム10においては、リアルタイムで会議に参加できなかった人物が、HMDの装着無しに会議に参加し、発言を記録するといったデータの共有化が可能になる。
補助記憶装置103に保存されたオフライン動画ファイル(SV)は、再帰的に使用できるため、複数の会議参加者がタイムコード上において前後して参加する「時間を超えた会議」が可能になる。
【0098】
図15は、実空間における被写体を撮影するカメラを備える場合の、イベントに係る事象の記録処理を示すフローチャートである。情報処理システム10が実空間における被写体を撮影するカメラを備える場合には、例えば、シーンマネージャSMは、図4に示すS1の処理の実行前に、図15に示すS31からS33の処理を実行するとすればよい。
【0099】
図15のS31の処理では、シーンマネージャSMは、実空間における被写体を撮影するカメラ(実カメラ)の存在を判定する。シーンマネージャSMは、実カメラが存在する場合には(S31,有)、S33の処理に移行する。一方、シーンマネージャSMは、実カメラが存在しない場合には(S31,無)、S32の処理に移行する。S32の処理では、シーンマネージャSMは、実施形態で説明した3DCG空間のコンテンツ映像を生成する。また、S33の処理では、シーンマネージャSMは、変形例で説明した実カメラで撮影された被写体の映像と3DCG空間のオブジェクトとの座標系を合致させて合成されたコンテンツ映像(合成映像)を生成する。図15に示す処理を実行するシーンマネージャSMにおいては、S32あるいはS33の処理で生成された映像コンテンツのオブジェクトを対象として、図4に示すイベントに係る事象の記録処理が行われる。
【0100】
なお、図15のS31に示す処理は、例えば、コンテンツ提供者、あるいは、配信者の操作入力であってもよい。例えば、S32の処理で生成されるコンテンツとS33の処理で生成されるコンテンツのそれぞれが提供可能な場合に、シーンマネージャSMは、操作入力に従って生成するコンテンツの選択が可能になる。
【0101】
他の変形例として、情報処理システム10は、視聴者からのメッセージを収集して解析し、配信者の視点を評価するとしてもよい。評価の高い配信者には、配信希望者が相対的に集まるため、例えば、配信映像に含まれる広告等の広告効果が期待できる。また、情報処理システム10においては、視聴者からのメッセージを収集して解析することで、視聴者の興味の傾向を把握することが可能になる。また、情報処理システム10の提供する、事後における映像配信のサービス形態として、視聴者を配信者に採用することも可能である。配信映像に対する、視聴者の視点から見た演出・編集が可能になる。
【0102】
なお、以上の実施形態に関し、さらに以下の付記を開示する。
【0103】
[付記1]
撮影対象を多視点で撮影した多視点3次元動画データを生成する動画データ生成手段と、
前記多視点3次元動画データに対して視点の設定を受け付ける手段と、
前記受け付けた視点から前記撮影対象をみたときの動画を生成する手段と、
前記生成された動画を視聴者装置に提供する手段と、
前記視聴者装置から前記動画に対する反応を受け付ける手段と、
前記設定された視点と、前記多視点3次元動画データ中の時刻と、前記反応とを記録する手段と、
を備える情報処理システム。
【0104】
[付記2]
前記多視点3次元動画データに対して視点の設定を受け付ける手段は、
前記視聴者から受け付けた反応に基づいて、前記多視点3次元動画データに対する視点を設定する、付記1に記載の情報処理システム。
【0105】
[付記3]
撮像装置をさらに備え、
前記動画データ生成手段は、前記撮像装置で撮影された撮影対象を含む多視点3次元動画データを生成する、付記1または2に記載の情報処理システム。
【0106】
[付記4]
相互に接続するコンピュータが、
撮影対象を多視点で撮影した多視点3次元動画データを生成するステップと、
前記多視点3次元動画データに対して受け付けた視点から前記撮影対象を見たときの動画を生成するステップと、
前記生成された動画を視聴者装置に提供するステップと、
前記視聴者装置から前記動画に対する反応を受け付けるステップと、
前記設定された視点と、前記視点が設定された時刻と、前記反応とを記録するステップと、
を実行する情報処理方法。
【0107】
[付記5]
前記設定された視点と前記視点が設定された時刻とにおいて前記生成された動画を視聴者に視聴させるステップを有し、
視聴する状態における視聴者およびその反応を記録し保存する撮影手段によって前記生成された動画と他の動画との間で、少なくとも座標系、色調、視点方向を合わせた合成処理を実行する、付記4に記載の情報処理方法。
【0108】
[付記6]
前記設定された視点と、前記視点が設定された時刻と前記生成された動画を保存する手段を有し、
視聴する状態における視聴者およびその反応を記録し保存する撮影手段によって前記生成された動画と、前記保存された動画もしくは互換を有する他の動画との間で、少なくとも座標系、色調、視点方向を合わせた合成処理を実行する、付記4に記載の情報処理方法。
【符号の説明】
【0109】
10 情報処理システム
20 背景
21 被写体
22 カメラ
23 センサ
24 モーションセンサ
25 HMD
26 映像
27 2D映像デバイス
100 コンピュータ
101 CPU
102 主記憶装置
103 補助記憶装置
104 入出力IF
105 通信IF
106 接続バス
C、C1、C2、C3 カメラプロセッサ
C11 カメラ
VC、VC1、VC2、VC3 バーチャルカメラ(仮想カメラ)
P1、P2 アバター
R、R1、R2、R3 レンダラ
RC カメラ(実カメラ)
SM シーンマネージャ
SV オフライン動画ファイル
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15