IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日立マクセル株式会社の特許一覧

特開2022-1795833DARコンテンツ作成装置、3DARコンテンツ再生装置、及び、3DARコンテンツ作成システム
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2022179583
(43)【公開日】2022-12-02
(54)【発明の名称】3DARコンテンツ作成装置、3DARコンテンツ再生装置、及び、3DARコンテンツ作成システム
(51)【国際特許分類】
   G06T 19/00 20110101AFI20221125BHJP
   H04N 13/293 20180101ALI20221125BHJP
   H04N 13/279 20180101ALI20221125BHJP
   H04N 13/286 20180101ALI20221125BHJP
   H04N 13/239 20180101ALI20221125BHJP
   H04N 7/18 20060101ALI20221125BHJP
   H04N 13/341 20180101ALN20221125BHJP
【FI】
G06T19/00 600
H04N13/293
H04N13/279
H04N13/286
H04N13/239
H04N7/18 K
H04N7/18 U
H04N13/341
【審査請求】有
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2022158017
(22)【出願日】2022-09-30
(62)【分割の表示】P 2020520971の分割
【原出願日】2018-05-24
(71)【出願人】
【識別番号】000005810
【氏名又は名称】マクセル株式会社
(74)【代理人】
【識別番号】110001689
【氏名又は名称】青稜弁理士法人
(72)【発明者】
【氏名】清水 宏
(72)【発明者】
【氏名】奥 万寿男
(72)【発明者】
【氏名】橋本 康宣
(72)【発明者】
【氏名】川前 治
(72)【発明者】
【氏名】渡辺 光信
(57)【要約】
【課題】
背景映像と3DARオブジェクトの奥行き関係を考慮する3D表示が可能な3DARコンテンツ作成装置、3DARコンテンツ再生装置、及び、3DARコンテンツ作成システムを提供する。
【解決手段】
3DARコンテンツ作成装置であって、カメラと、カメラの位置情報を検出する位置情報センサと、コントローラを有し、コントローラは、カメラが撮影する背景映像の少なくとも一部の映像の特徴点の奥行きを計測し、背景映像の特徴点と3D映像を持つARオブジェクトに対し、カメラの位置情報および計測した特徴点の奥行きから背景映像に対応する空間の位置座標を付与し、背景映像の特徴点とARオブジェクトの奥行きを評価し合成映像を得る構成とする。
【選択図】図2
【特許請求の範囲】
【請求項1】
カメラと、前記カメラの位置情報を検出する位置情報センサと、コントローラと、通信部を有し、
前記通信部は、他の装置と通信し、前記他の装置が3D表示能力を備えているか否かを示す表示能力情報を受信し、
前記コントローラは、前記カメラが撮影する背景映像の少なくとも一部の映像の特徴点の奥行きを計測し、前記背景映像の特徴点に対し、前記カメラの位置情報および計測した特徴点の奥行きから背景映像に対応する空間の位置座標を付与し、前記背景映像の特徴点に付与された位置座標とARオブジェクトに付与された位置座標を用いて、前記背景映像と前記ARオブジェクトの3D合成映像を取得し、
前記コントローラは、前記背景映像と前記ARオブジェクトを2D化し、2D化した背景映像と2D化したARオブジェクトの2D合成映像を取得する2D化処理を有し、
前記コントローラは、前記通信部により受信した前記表示能力情報に基づき前記他の装置が3D表示能力を備えているか否かを判断し、前記他の装置が3D表示能力を備えている場合に前記3D合成映像を前記他の装置に配信し、前記他の装置が3D表示能力を備えていない場合に前記2D合成映像を前記他の装置に配信することを特徴とする3DARコンテンツ作成装置。
【請求項2】
カメラと、前記カメラの位置情報を検出する位置情報センサと、コントローラと、通信部を有し、
前記コントローラは、前記カメラが撮影する背景映像の少なくとも一部の映像の特徴点の奥行きを計測し、前記背景映像の特徴点に対し、前記カメラの位置情報および計測した特徴点の奥行きから背景映像に対応する空間の位置座標を付与し、
前記通信部は、他の装置と通信し、前記他の装置との距離と方向を示す第一の情報と前記他の装置が3D表示能力を備えているか否かを示す第二の情報を受信し、
前記コントローラは、前記通信部により受信した前記第一の情報を前記カメラの位置情報を基準とする情報に変換し、前記他の装置に関するARオブジェクトに対し、前記変換された情報から背景映像に対する空間の位置座標を付与し、前記背景映像の特徴点に付与された位置座標と前記ARオブジェクトに付与された位置座標とを比較することにより前面に表示させる方を判断し、前記背景映像と前記ARオブジェクトの3D合成映像を取得し、
前記コントローラは、前記背景映像と前記ARオブジェクトを2D化し、2D化した背景映像と2D化したARオブジェクトの2D合成映像を取得する2D化処理を有し、
前記コントローラは、前記通信部により受信した前記第二の情報に基づき前記他の装置が3D表示能力を備えているか否かを判断し、前記他の装置が3D表示能力を備えている場合に前記3D合成映像を前記他の装置に配信し、前記他の装置が3D表示能力を備えていない場合に前記2D合成映像を前記他の装置に配信することを特徴とする3DARコンテンツ作成装置。
【請求項3】
請求項1または請求項2に記載の3DARコンテンツ作成装置であって、
前記カメラは3D映像を背景映像として撮影する3Dカメラであって、
前記コントローラは、前記背景映像の特徴点を頂点とする面データの集合として空間形状面データを生成することを特徴とする3DARコンテンツ作成装置。
【請求項4】
請求項1または請求項2に記載の3DARコンテンツ作成装置であって、
背景映像を撮影するカメラよりも広い撮影領域を有し、広角映像を得る広角カメラを備え、
前記コントローラは、前記背景映像の特徴点に対し広角映像に対応する空間の位置座標を付与することを特徴とする3DARコンテンツ作成装置。
【請求項5】
請求項4に記載の3DARコンテンツ作成装置であって、
前記広角映像を得る広角カメラは、おおよそ周囲360度の映像を得る360度カメラであることを特徴とする3DARコンテンツ作成装置。
【請求項6】
請求項1または請求項2に記載の3DARコンテンツ作成装置であって、
前記3D合成映像を3D表示する3Dディスプレイを有することを特徴とする3DARコンテンツ作成装置。
【請求項7】
請求項4に記載の3DARコンテンツ作成装置であって、
前記コントローラは、前記背景映像、もしくは前記背景映像と前記広角映像を保存することを特徴とする3DARコンテンツ作成装置。
【請求項8】
請求項1または請求項2に記載の3DARコンテンツ作成装置であって、
前記コントローラは、前記カメラの移動を計測し、計測した移動データに基づき、前記背景映像の特徴点に付与する空間の位置座標の再計算を行ない、計測した移動データを保存することを特徴とする3DARコンテンツ作成装置。
【請求項9】
請求項3に記載の3DARコンテンツ作成装置であって、
前記コントローラは、前記映像の特徴点を頂点とする面データをひとつ以上指定して、指定された面データの領域の背景映像をマスクすることを特徴とする3DARコンテンツ作成装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、3D(3Dimensional:3次元)映像と3DのAR(Augmented Reality:仮想現実)オブジェクトから成る3DARコンテンツを作成する3DARコンテンツ作成装置、及び3DARコンテンツを再生・表示する3DARコンテンツ再生装置、さらに、それらを有する3DARコンテンツ作成システムに関する。
【背景技術】
【0002】
プレーヤの目線で捉える映像をカメラで撮影して、スポーツ等のアクティビティ体験を共有することが行われている。この時プレーヤは、カメラをヘルメットやヘアバンドに固定して装着する、いわゆる“アクションカム”を用いることが多い。視聴者は、アクションカム等で撮影する映像を、ネットワークを介して“スマートフォン”などの表示デバイスで、リアルタイムに視聴することや、カメラ内部の保存デバイスに一時格納した後、タイムシフトして視聴することができる。
【0003】
また、ARの利用が行われている。ARでは、ARトリガーと呼ばれる映像をカメラで撮影して、ARトリガーで紐付けしているCG(Computer Graphics)等の情報を、カメラ映像に合成して、表示させる。
【0004】
さらに、特開2016-53788号公報(特許文献1)では、カメラ映像上に3DARオブジェクトを投影表示して、ARコンテンツを提供する方法を提案している。また、カメラ映像と3DARオブジェクトを保存する方法を開示している。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2016-53788号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
特許文献1では、3DARオブジェクトを2D化して、カメラ映像上にオーバレイ表示することが開示されているが、背景映像は2D映像であり、背景映像と3DARオブジェクトの奥行き関係を考慮する3D表示を行うことはできず、3DARコンテンツを視聴者に提供するには十分でないという課題がある。また、3DARオブジェクトが、360度全周方向に配置されている場合には、360度のカメラ映像と組み合わせた3DARコンテンツの提供が必要となる。
【0007】
本発明は、上記課題に鑑みてなされたものであり、その目的は、カメラ映像に3DARオブジェクトを合成して3DARコンテンツを作成する装置、3DARコンテンツの再生装置、および3DARコンテンツの作成システムを提供することにある。
【課題を解決するための手段】
【0008】
本発明は、上記背景技術及び課題に鑑み、その一例を挙げるならば、3DARコンテンツ作成装置であって、カメラと、カメラの位置情報を検出する位置情報センサと、コントローラを有し、コントローラは、カメラが撮影する背景映像の少なくとも一部の映像の特徴点の奥行きを計測し、背景映像の特徴点と3D映像を持つARオブジェクトに対し、カメラの位置情報および計測した特徴点の奥行きから背景映像に対応する空間の位置座標を付与し、背景映像の特徴点とARオブジェクトの奥行きを評価し合成映像を得る構成とする。
【発明の効果】
【0009】
本発明によれば、背景映像と3DARオブジェクトの奥行き関係を考慮する3D表示が可能な3DARコンテンツ作成装置、3DARコンテンツ再生装置、及び、3DARコンテンツ作成システムを提供できる。また、3DARオブジェクトが360度全周方向に配置された場合にも、360度方向に3DARコンテンツの作成・保存が可能なシステムを提供できる。
【図面の簡単な説明】
【0010】
図1】実施例1における3DARコンテンツ作成装置の外観模式図である。
図2】実施例1における3DARコンテンツ作成装置の構成ブロック図である。
図3】実施例1における360度の3DARコンテンツの第一の表示例である。
図4】実施例1における3DARコンテンツの第二の表示例である。
図5】実施例1における360度の3DARコンテンツの第三の表示例である。
図6】実施例1におけるメニューオブジェクトを説明する図である。
図7】実施例1における3D映像の空間形状データを説明する図である。
図8】実施例1における3DARオブジェクトのパラメータ設定を説明する図である。
図9】実施例1における3DARコンテンツのマスク処理を説明する図である。
図10A】実施例1における3DARコンテンツを構成するデータの例である。
図10B】実施例1における3DARコンテンツを構成するデータの例である。
図10C】実施例1における3DARコンテンツを構成するデータの例である。
図11】実施例1における3DARコンテンツ作成装置の処理フロー図である。
図12】実施例2における3DARコンテンツ作成装置の外観模式図である。
図13】実施例2における3DARコンテンツ作成装置の構成ブロック図である。
図14】実施例2における3DARコンテンツ作成装置の表示例である。
図15】実施例3における3DARコンテンツ作成システムの構成図である。
図16】実施例4における3DARコンテンツ作成システムの構成図である。
図17】実施例5における3DARコンテンツ再生装置の構成ブロック図である。
図18】実施例5における3DARコンテンツ再生装置の処理フロー図である。
図19】実施例5における表示設定オブジェクトを説明する図である。
図20】実施例5における3DARコンテンツ再生装置の第一の表示例である。
図21】実施例5における3DARコンテンツ再生装置の360度の第二の表示例であり、操作オブジェクトを説明する図である。
図22】実施例5における合成処理部の処理フロー図である。
【発明を実施するための形態】
【0011】
以下、図面を参照しながら本発明の実施例について説明する。
【実施例0012】
図1は本実施例における3DARコンテンツ作成装置の外観模式図である。図1において、1は3DARコンテンツ作成装置、10a、10bは広角カメラ、11a、11bは3Dカメラ、12はディスプレイ、13は偏光光学レンズ、14a、14bはスピーカ、15はコントローラ、16a、16bは装着部、17はセンサである。
【0013】
3DARコンテンツの作成者は、装着部16a、16bで、3DARコンテンツ作成装置1(以下装置1と記す場合もある)を自身の頭部に装着する。装着部16aは頭部上下方向、装着部16bは頭部前後方向に固定するものである。
【0014】
広角カメラ10aは、頭部前方(作成者の視線の前方)を撮影するように取り付けられており、例えばカメラの撮影画角が上下左右180度のカメラであって、前方の半球の範囲を撮影する。広角カメラ10bは、頭部後方(作成者の視線の後方)を撮影するように取り付けられており、同様にカメラの撮影画角が上下左右180度の後方の半球の範囲を撮影する。広角カメラ10aと10bを合わせて、ほぼ頭部周囲の360度を撮影する。
【0015】
3Dカメラ11a、11bにおいて、11aは装置1の左側に装着され、作成者の左側前方視線の映像を撮影し、11bは装置1の右側に装着され、作成者の右側前方視線の映像を撮影する。左右の視差のある2つの映像によりステレオ映像である3Dカメラで撮影する映像(以下3D映像と記す場合がある)を撮影する。なお、3Dカメラは、赤外光等を照射して反射光を捉えることで距離計測を行うカメラであっても良い。この時、3Dカメラを広角カメラに隣接して設置し、広角カメラで撮影する映像の中心を含む領域の距離計測を行わせるようにしても良い。ただし、この時3D(ステレオ)映像は得られない。
【0016】
コントローラ15は、広角カメラ10a、10b、3Dカメラ11a、11bの撮影映像を取り込み、内部の保存デバイスに保存するほか、ディスプレイ12に映し出す映像やスピーカ14a、14bに流す音を作成する。ディスプレイ12に映し出す映像は、広角カメラ10a、10bの映像(以下広角映像と記す場合がある)、3Dカメラ11a、11bの3D映像に、3DARオブジェクトを合成して得る映像である。さらに偏光光学レンズ13の駆動信号を生成し、ディスプレイ12に映し出す合成した3D映像に同期して、左側のみの透過と右側のみの透過を繰り返して、左側視線の映像を作成者の左目で、右側視線の映像を作成者の右目で視認させるようにして、作成者に合成した3D映像を確認させる。
【0017】
またコントローラ15は、3Dカメラ11a、11bで撮影する3D映像の各部に対して、左右の視差を利用して奥行き(距離)情報を算出する。この奥行き情報と映像のエッジ情報等と合わせて、図7にて後述するセグメント化した空間形状の面データを得る。空間形状の面データ、および3DARオブジェクトは、装置1のGPS等のセンサ17による位置情報と広角カメラの撮影映像に対応する位置座標空間で管理する。
【0018】
図2は本実施例における3DARコンテンツ作成装置の構成ブロック図である。図2において、図1と同一のものには同一の番号を付している。また、17aは位置情報センサ、17bは地磁気センサ、17cはジャイロセンサであり、図1でのセンサ17に対応し、装着部16a、16b等に装備される。18はユーザ操作入力部であり、タッチパネル等で装置1の操作を行う。さらに、151aは空間形状面処理部、151bは奥行き情報処理部、151cは明るさ情報処理部、151dは色情報処理部、152は合成処理部、153はマスク処理部、154aはCPU、154bはRAM、154cはROM、154dは通信部、155は空間位置座標処理部、156aは広角映像保持部、156bは3D映像保持部、156cは空間形状面データ保持部、156dは3DARオブジェクト保持部、156eは2D映像保持部、156fは2DARオブジェクト保持部、156gは視線移動データ保持部、157は2D化処理部、158は2D合成映像・サムネイルデータ保持部、159はユーザ操作データ保持部であり、コントローラ15を構成する。
【0019】
広角カメラ10aの映像はコントローラ15に取り込まれ、広角映像保持部156aに格納する。また、3Dカメラの映像は、3D映像保持部156bに格納するほか、明るさ情報処理部151c、色情報処理部151dの入力となる。
【0020】
明るさ情報処理部151c、色情報処理部151dはそれぞれ明るさ情報、色情報の変化点(エッジなど)を抽出する。奥行き情報処理部151bでは、これらの変化点の左右視差を計測し、奥行きデータを得る。奥行きデータは空間位置座標処理部155等に送られる。空間形状面処理部151aでは、変化点、奥行きデータに基づき、特徴点を抽出し空間形状面データを生成し、空間形状面データ保持部156cに格納する。空間形状面データとは、図7で後述するように、特徴点を頂点とするポリゴンデータであり、3D映像を抽象化する面データである。各々の頂点には、奥行きデータが与えられ、これら空間形状面データにより、3D映像の3D形状が把握できる。
【0021】
位置情報センサ17aは、例えばGPSセンサや高度センサであり、装置1の現在位置を測定する。地磁気センサ17bは、装置1の方角を測定する。ジャイロセンサ17cは、測定する装置1の加速度から、装置1の速度や変位などの動きを把握する。地磁気センサ17bの方角とジャイロセンサ17cの動きにより頭部の動きが検出され、それにより装置1のユーザの視線の移動が検知される。視線の移動データは、視線移動データ保持部156gに格納する。
【0022】
空間位置座標処理部155は、装置1の位置と方向、さらに前記空間形状面データ(以下面データと記すこともある)の各頂点の奥行きデータ、および3DARオブジェクトの位置等を管理する。これらのデータは、時刻情報と広角カメラで捉える位置座標空間に関連付けられる。具体的には、時刻T0(初期状態)にて現在位置がP0=(x0、y0、z0)と視線の方向が(水平方向、垂直方向)=(θ0、φ0)を初期値として、以降この初期値との差分の位置を求め、空間位置座標とする。即ち、装置1の空間上の位置および方向が基準となる座標系が定められ、装置1の移動や向きの変化に伴って、空間位置座標系が移動する。
【0023】
初期状態で、3D映像内の面データの頂点がP1=(r1、θ1、φ1)である場合、この頂点には、空間位置座標としてP1が付与される。ここで、(r1、θ1、φ1)は極座標系で、r1が距離、θ1が水平角度、φ1が垂直角度である。
【0024】
装置1が移動した場合、この移動量がP2=(r2,θ2、φ2)であるならば、このP2を基準に、空間位置座標を再計算する。移動前の3D映像の空間位置座標系の原点は、移動後の空間位置座標系では-P2であり、以前のP1が付与されている頂点の空間位置座標は、P3=P1-P2(但し、極座標系の合成演算である)となる。また、新しい3D映像内の面データの頂点がP4=(r4、θ4、φ4)である場合、この頂点にはP4が付与される。
【0025】
装置1がさらに移動する場合にも同様に、以前の3D映像や面データの頂点の空間位置座標が、現在の装置1の位置を基準に再計算され、かつ新たな3D映像や面データの頂点にも空間位置座標が付与される。この結果、装置1の移動があった場合にも、移動後の広角カメラ10a、10bで捉える位置座標空間に一連の3D映像、および3D映像内の面データ、さらには後記する3DARオブジェクトを配置することが可能となる。
【0026】
なお、装置1の移動量が初期値から大きくなりすぎた場合、空間位置座標を初期化して、空間位置座標の計算を再開しても良い。
【0027】
また、3DARオブジェクトにも空間位置座標を与えて、広角カメラ10a、10bで捉える位置座標空間に配置する。空間位置座標が付与された3DARオブジェクトは、3DARオブジェクト保持部に格納される。
【0028】
3DARオブジェクトへの位置座標空間への配置は、コンテンツ作成者がユーザ操作入力部18から実行する。ユーザ操作入力部18からは、3DARオブジェクトの回転、大きさの変更、色修正などの操作も行うことができ、操作データは操作時刻とともに、ユーザ操作データ保持部159に格納する。
【0029】
3D映像保持部156bの3D映像や、3DARオブジェクト保持部156dの3DARオブジェクトは、読み出された後、2D化処理部157で2D化映像として、それぞれ2D映像保持部156e、2DARオブジェクト保持部156fに格納する。これら2D映像や2DARオブジェクトは、3DARコンテンツ再生装置で表示が2D表示デバイスに行われる場合でも、3DARコンテンツの表示を可能とさせるためのものであり、2D映像や2DARオブジェクトに付与する空間情報座標により、2D映像や2DARオブジェクトの奥行き関係の保持や、視線移動による表示画像の切り替えなど、奥行きを感じることのできる3DARコンテンツの視聴を可能とさせる。
【0030】
合成処理部152は、広角映像(広角カメラで撮影する映像)や、3D映像(3Dカメラで撮影する映像)、および3DARオブジェクトを合成して、ディスプレイ12に3DARコンテンツを表示する。合成処理部152では、3D映像の面データを参照し、3D映像と3DARオブジェクトの前後関係を見て、後ろに位置する映像が前に位置する映像によって覆われるようにする。なおディスプレイ12は、平面形状を例えば凹状の形状として、3DARコンテンツの視認性を向上させるものであってもよい。
【0031】
また、マスク処理部153では、3D映像で例えば個人情報が含まれ、3DARコンテンツ再生装置で限定されていない視聴者に表示するのを避けたい領域等の面データを指定して、マスク処理する。マスク処理では、単にマスクするほか、他の映像に置換してもよい。
【0032】
通信部154dは、ネットワークに3DARコンテンツ作成装置1をつなげる役割を担い、例えば3DARコンテンツ作成装置1とネットワークを介して繋がり、3DARコンテンツ再生装置からの要求に応じ3DARコンテンツを送信する。
【0033】
なお、図2での各処理部の処理は、CPUがメモリに記憶したプログラムを実行するソフトウェア処理によって実行してもよいし、専用の信号処理回路によるハードウェア処理により実行してもよい。また、ソフトウェア処理とハードウェア処理の併用でもよい。
【0034】
図3は、本実施例における3DARコンテンツ作成装置1で作成する360度の3DARコンテンツの第一の表示例であり、ディスプレイ12に表示し、作成者が確認する。
【0035】
図3において、2は広角映像、3は3D映像、4a、4b、4c、4d、4e、4fは3DARオブジェクトである。
【0036】
広角映像2は、広角カメラ10aと10bの2つのカメラの映像を加工したものであり、作成者の頭部上方に設置したと仮定する仮想の広角カメラの撮影する映像に加工し、表示している。作成者の視線は、広角映像2の垂直上方を向いており、広角映像2の“2aの矢印”で示す上半分は、広角カメラ10aで撮影した映像で、作成者の視線の前方の映像であり、広角映像2の“2bの矢印”で示す下半分は、広角カメラ10bの映像で、作成者の視線の後方の映像である。
【0037】
広角映像2には、3D映像3がオーバレイされている。3Dカメラ11a、11bは、作成者の前方を撮影しており、3D映像3内に映し出される被写体が前方にあるように広角映像2の上部に配置される。3Dカメラの映像3は、3D映像であり、図2の装置1では、作成者は3D映像として確認できる。
【0038】
図3は、自転車の3DARオブジェクト4a(作成者が乗っていると想定)が街角を移動しながら街角をガイドするという想定のコンテンツである。作成者が街角を移動する度に、広角映像2および3D映像3は更新される。これに合わせて3DARオブジェクト4aも移動する。3DARオブジェクト4bも同様に自転車のオブジェクトであり、3DARオブジェクト4aに伴走するという設定がされている。自転車の3DARオブジェクト4a、4bは、3D映像3に3D映像のオブジェクトとして重畳される。
【0039】
3DARオブジェクト4c、4dは、作成者が街角を移動する過程で、立ち寄った、あるいは紹介したショップ等のオブジェクトであり、例えばショップ等に立ち寄った時に、作成者はオブジェクトを配置する。図3では、3DARオブジェクト4c、4dは、ショップの形状のまま置かれているが、広角映像2上に重畳する場合には、空間位置座標に合わせて4c、4dの形状を変形させて広角映像2に重畳しても良い。一度配置したオブジェクトは、その後作成者が移動した場合には、空間位置座標の再計算が行われ、作成者が前方に移動するとともに、3D映像外の広角映像2の後方(10b)の位置に自動的に表示される。
【0040】
3DARオブジェクト4e、4fは、公開されている公共物のオブジェクトであり、公開されている位置情報を空間位置座標に変換して、3DARオブジェクトとして広角映像2、もしくは3D映像3に合成する。これらのオブジェクトの空間位置座標は、街角に固定されたものであり、作成者が移動する前から、事前に配置することが可能である。また一度配置すると、作成者が近づくように移動すると、空間位置座標が再計算され、近づくように表示が更新される。
【0041】
図4は、本実施例における3DARコンテンツ作成装置1で作成する3DARコンテンツの第二の表示例である。図4においては、ディスプレイ12の全面に3Dカメラ11a、11bの3D映像3を映し出している。さらに図3で説明した3DARオブジェクト4a、4b、4e、4fが合成表示されている。この場合でも、広角カメラ10a、10bで撮影は行われており、広角映像2の位置座標空間はバックグラウンドで維持されており、図3図4の表示画面は任意に切り替え可能である。
【0042】
なお、前述した3D映像を撮影しない場合において、3D映像3は、奥行きデータを伴う2D映像であっても良い。2D映像としては、例えば広角映像を作成者の視線に合わせて切り出した映像としても良い。
【0043】
図5は、本実施例における3DARコンテンツ作成装置1で作成する360度の3DARコンテンツの第三の表示例である。図5においては、ディスプレイ12には広角映像2が写しだされ、その上に3DARオブジェクト4a、4b、4e、4fが合成表示されている。図5において、装置1は3D表示機能を有しているため、3DARオブジェクト4a、4b、4e、4fは3D映像として、広角映像2に合成される。この時、広角映像2の一部には、空間形状の面データで奥行き情報が付与されており、該奥行き情報を補助データとして、合成が行われる。図5では、3DARオブジェクト4a、4b、4e、4fは、元の形状のまま置かれているが、広角映像2上に重畳する場合には、それぞれの空間位置座標に合わせて4a、4b、4e、4fの形状を変形させて広角映像2に重畳しても良い。
【0044】
また、3DARオブジェクト4a、4b、4e、4fは、2D化処理部157により、2DARオブジェクトとして、2DARオブジェクト保持部156fに保持される。同時に、2D化した3DARオブジェクト4a、4b、4e、4fと広角映像2とを同様に合成した2D合成映像は、2D合成映像・サムネイル保持部に格納される。2D合成映像は、例えば3DARコンテンツ再生装置に配信して、3DARコンテンツを選択するサムネイル映像として利用させることや、2D表示機能しか有しない3DARコンテンツ再生装置においても、3DARコンテンツの2D合成映像を視聴させる。
【0045】
図6は、本実施例における異なるタイプの3DARオブジェクトを説明する図である。図6では、作成者の視線が移動し、3Dカメラ11a、11bがパンする場合であり、3D映像はディスプレイ12aの表示領域からディスプレイ12b表示領域に移動する。図6では、ディスプレイ12a、12bの表示領域が移動するように図示しているが、実際にはディスプレイ12は固定されており、表示される映像が移動する。
【0046】
図6には、2つタイプの3DARオブジェクトが置かれている。ひとつは4aであり、もうひとつは5a、5bである。5a、5bは、ひとつのオブジェクトであるが、ディスプレイ12a、12bに、それぞれに映し出されるケースである。3DARオブジェクト5a、5bは、例えばコンテンツ制御のための制御オブジェクトであって、このタイプのオブジェクトは、3Dカメラのパンによる映像の移動にかかわらず、ディスプレイ12の固定位置に置かれるのが良い。従って、ディスプレイ12aと12bの表示領域内で同じ位置になるように、その空間位置座標を維持する。コンテンツ制御のための制御オブジェクトのように、ユーザが表示を切り替えたり制御したりする場合に使用するオブジェクトは、できるだけ他の実像の影になって隠れたりしないように、見やすい近距離に置かれる。ただし、画面の中央に常時配置するのは、視野の邪魔になってしまうため、表示領域の端に近い位置で、できるだけ同じ位置に表示できるようにする。一方、図3図4ならびに図5で説明した自転車の3DARオブジェクト4aは、空間位置座標はパンの移動によって逆方向に変化し、ディスプレイ12aと12bで表示領域内の位置が異なる。
【0047】
図7は、本実施例における3D映像の空間形状の面データを説明する図である。図7に示すように、空間形状面データ6は、3Dカメラの映像3の全域をカバーするポリゴン(図では3角形)であり、その頂点には、奥行きデータが付与される。奥行きデータと3Dカメラの空間位置座標から、各頂点の空間位置座標を算出する。従って、この面データの奥行きの空間位置座標と3DARオブジェクトに付与している空間位置座標とを比較することにより、映像を合成するにあたり、どちらの画像を前面に表示させればよいのか判断できる。
【0048】
図8は、本実施例における3DARオブジェクトのパラメータ設定を説明する図である。図8はメニュー表示の一例であって、図2のユーザ操作入力部18でタッチパネルによる操作やリモコン操作によりユーザが設定する。
【0049】
なお、3DARオブジェクトのパラメータ設定するためのパラメータ設定オブジェクト7もまた3DARオブジェクトの一種であってよく、オブジェクト毎に設定する。
【0050】
図8において、設定できるパラメータの、“透明度”と“表示優先”は、3DARオブジェクトとカメラ映像との表示の関係を設定する項目である。透明度は、3DARオブジェクトを前面にある場合で、バックグラウンドの映像を幾分か表示できるようにし、表示優先は、面データとの奥行きの関係に係らず、3DARオブジェクトを前方にオーバレイする。例えば、図6の5a、5bで示した制御オブジェクトのような場合である。
【0051】
“位置補正(水平)”、“位置補正(垂直)”、“回転補正(水平)“、”回転補正(垂直)“、”サイズ“は、3DARオブジェクトの配置の位置、姿勢の回転制御、大きさの変更を行う項目である。
【0052】
さらに”移動モード“、”表示モード“では、カメラ、即ち作成者の視線の移動に対して、3DARオブジェクトの移動、および表示を行う方法を設定する項目で、空間位置座標の再計算方法に関連する。
【0053】
一般に、3DARオブジェクトは、現時刻の広角画像の位置、および視線方向を原点とした座標空間の位置Pxに配置される。配置後、広角画像の位置、および視線方向が移動量Py移動した場合、座標空間は更新され、前座標空間でPxに配置された3DARオブジェクトの新座標空間での位置はPx-Pyに更新される。この様な、背景画像に固定して、座標空間の更新の度に、位置が再計算される3DARオブジェクトに対しては、移動モード、表示モードともに“座標”が選択される。
【0054】
移動モードで“伴走”が選択される3DARオブジェクトは、図15で後述する、コンテンツ作成装置との位置関係を、通信によって得るタイプであって、図4から図6の3DARオブジェクト4aが相当する。
【0055】
表示モードで“画面連動”が選択される3DARオブジェクトは、図6の5a、5bが相当し、常に表示画面の特定位置に3DARオブジェクトが表示されるように、視線に対する位置が固定されるタイプである。なお、“伴走”と“画面連動”は、排他的であり、同時に選択されることは禁止される。
【0056】
図9は、本実施例における3DARコンテンツのマスク処理を説明する図である。図9では、空間形状の面データの中からマスクする面領域8aをタッチ等のユーザ操作で選択し、マスク設定オブジェクト8bでマスク処理を実行する。
【0057】
図10A図10B図10Cは、本実施例における3DARコンテンツを構成するデータを説明する図である。3DARコンテンツを構成するデータ(以下構成データと記す)は、図2の説明にあるように、視線移動データ、オブジェクト操作データ、広角映像データ、3D映像データ、空間形状面データ、2D映像データ、3DARオブジェクトデータ、2DARオブジェクトデータ、2D合成映像データの一部もしくは全部とヘッダデータである。
【0058】
ヘッダデータの格納については、図2の説明では明示していないが、例えばROM154cの一部に割り当ててもよい。また図2には、それぞれのデータが別々の格納部に置かれる例を説明しているが、物理的にひとつの保存媒体に、論理的に区別された領域に格納しても良い。
【0059】
図10Aでは、ヘッダデータ、視線移動データ、オブジェクト操作データ、広角データの内容が記されている。
【0060】
各構成データには、“CONTENTS ID”の項目があり、該“CONTENTS ID”のIDデータは、例えばUUID(Universally Unique Identifier)等の規則に従って与えられた番号であり、全てのコンテンツにおいてユニークな番号となっている。また各構成データは、“CONTENT TYPE”の項目により、何のデータであるかを識別可能としている。
【0061】
ヘッダデータにはこの他、“CONTENTS TITLE”の項目にコンテンツ名を、“CONTENTS HOLDER”の項目に所有者を、“COPYRIGHT POLICY”の項目には、著作権コントロールデータが記載される。また、各構成データのうちコンテンツに付随するデータの有無を“Accompanying Content”の項目で示している。3DARコンテンツとしては、全ての構成データが揃っている場合もあるが、一部の構成データがない場合もある。
【0062】
視線移動データは、視線移動を検知時刻系列に従った位置データのタイムラインデータである。視線移動は、連続した動きである場合、広角映像のフレーム単位のデータとしても良く、あるいはデータや処理の削減のため、連続した動きの後の動きが収まった時刻で行うようにしても良い。図10Aは、コンテンツの開始時刻T0から、2つの動きがあったとして、T1とT2で、装置の位置データを記載している。T0におけるデータP0は、GPS等の位置情報であるが、T1とT2のデータP1、P2は前回時刻の位置を基準としてどれだけ動いたかを示す情報である。(r*、θ*、φ*)が位置変化を、δ*視線方向の変化を表す。
【0063】
オブジェクト操作データは、オブジェクト操作の内容を、操作を行った時刻系列で記載したタイムラインデータであり、TO0でObject1を空間位置座標系の位置(r3、θ3、φ3)に配置(SET)し、TO1で回転(ROT)操作を、TO2で拡大(ENL)操作を行い、さらにTO3でObject2を配置している。
【0064】
広角映像データは、映像と音声(無くても良い)のデータであって、CONTAINERとCODECの種別が記載される。映像と音声のデータは、前記移動データのタイムラインに準じて、T0からT1の期間のデータ、T1からT2の期間のデータ、T2から次の時刻までの期間のデータとで、分割されて“CONTENT BODY”の項目に格納する。これにより、コンテンツのタイムサーチなどが容易になる。さらに、T2での装置の位置(現在位置)を基準として、T0およびT1の位置データは、-(P1+P2)、-P2にそれぞれ再計算して、書き換える。
【0065】
図10Bでは、3D映像データ、空間形状面データ、3DARオブジェクトデータについて説明する。
【0066】
3D映像データは、映像と音声のデータであり、CONTAINERとCODECの種別が記載される。また映像はステレオ映像であり、左視線のVisual(L)データと右視線のVisual(R)データから成り、2つのデータをインタリーブさせて、前記視線移動データのタイムラインに沿って、“CONTENT BODY”に格納する。また、広角映像データの場合と同様、位置データの書き換えも行っている。
【0067】
空間形状面データは、前記3Dカメラで計測する奥行きデータを有する面データ(3角形のポリゴンデータ)の集合であり、前記視線移動データのタイムラインに沿って、“TIME LINE OF CONTENT BODY”に格納する。ポリゴンにはPOL1、POL2‥‥のように、各々のポリゴンを区別する識別子が与えられ、計測する頂点の奥行きデータa*に対して、空間位置座標の移動を考慮したデータを再計算し、例えば、-(a1+P1+P2)といったように各頂点のデータとして格納する。
【0068】
3DARオブジェクトデータは、3DARコンテンツに使用されるARオブジェクトの3Dデータである。ARオブジェクトには、“Object Name”、“Copyright Policy”が与えられ、3DARコンテンツで設定する、図8に示した“設定パラメータ”を記載する。
【0069】
“CONTENT BODY”には、ARオブジェクトの3Dデータを記載する場合や、第3者のARオブジェクトを利用する場合には、ARオブジェクトの3Dデータが入手可能なURLを記載する場合もある。
【0070】
図10Cでは、2D映像データ、2DARオブジェクトデータ、2D合成映像データについて説明する。
【0071】
2D映像データは、3D映像データを2D化処理したデータであり、2D化した映像データが“TIME LINE OF CONTENT BODY”に記載されること以外は、3D映像データと同様のデータ構造をとる。
【0072】
2DARオブジェクトデータは、3DARオブジェクトを2D化処理したデータであり、2D化したデータが“CONTENT BODY”に記載されることを除いて、3DARオブジェクトデータと同様のデータ構造をとる。
【0073】
2D合成映像データは、広角映像もしくは2D映像に2DARオブジェクトを合成した映像データであり、2D合成映像データが“TIME LINE OF CONTENT BODY”に記載されること以外は、3D映像データと同様のデータ構造をとる。
【0074】
なお、図10A図10B図10Cで説明したデータ構造は一例であって、この他の項目を有するものであっても良く、本発明の動作に直接関与しない一部の項目を含まなくても構わない。
【0075】
図11は、本実施例における3DARコンテンツ作成装置の処理フロー図である。図11において、S101で動作モードを判定する。制作モードであれば、S102においてカメラ設定を実行する。他の動作モードは再生配信モードであり、説明は後述する。
【0076】
S102のカメラ設定は、広角カメラと3Dカメラに対応する。カメラ設定の後は、S104でカメラ映像の記録が行われるが、並行して実行されるS118からS121は、空間情報処理プロセス、動き情報処理プロセスである。
【0077】
S104の後は、S105で表示設定が行われ、広角カメラ映像の表示方法や3Dカメラの映像の表示設定が行われる。そして、S106で背景画像表示を開始する。次に、3DARコンテンツ製作過程をライブ配信するかを判定し(S107)、配信する場合には配信を開始する(S108)。配信しない場合には、スキップする。
【0078】
S109以降は、3DARオブジェクトに関する処理である。S109では3DARコンテンツに配置する3DARオブジェクトを選択する。3DARオブジェクトの選択は、予め作成したり、外部のサイトからダウンロードしたりして、3DARコンテンツ作成装置のROM領域等に格納してある3DARオブジェクトを読み出すことにより選択する。S110で3DARオブジェクトを表示させ、3DARオブジェクトのパラメータ設定し、3DARオブジェクトの配置に対する空間位置座標を計算し、確定させる(S111)。一度確定した後でも、パラメータ再設定等で、3DARオブジェクトを操作することは可能である(S112)。これは、3DARオブジェクトを動かすことが3DARコンテンツのストーリの一部とするアニメーション等に有効である。一連の操作や3DARオブジェクトはS113とS114で記録される。これは3DARコンテンツ再生装置で再生可能とさせるためである。また、3DARコンテンツ再生装置が2Dディスプレイにしか対応していない場合を想定して、3DARオブジェクトを2D化し(S115)、2D化オブジェクトも記録する(S116)。3DARオブジェクトの選択以降の処理は、所望の3DARオブジェクトがある限り繰り返される(S125のY)。
【0079】
S118とS119の空間情報処理プロセスは、3D映像から空間形状の面データを抽出し、面データの頂点の空間位置座標を計算する。これらの面データ等は空間形状面情報として記録する(S119)。
S120とS121は、動き情報処理プロセスである。3DARコンテンツ作成装置1の動きは、ジャイロセンサ、地磁気センサ等で捉える。動き情報処理では、必要な空間位置座標の更新が行われる(S120)。動き情報、および更新された空間位置座標は、動き情報等として記録される(S121)。
【0080】
S101で再生配信モードと判定されれば、3DARコンテンツの再生が実行され(S122)、再生されたコンテンツの配信が行われる(S123)。再生および配信は、コンテンツの終了、もしくは終了命令で終了する(S124)。
【0081】
一連の3DARコンテンツの作成、もしくは再生配信が終わると(S125のN)S126で終わる。
以上説明したように、本実施例の3DARコンテンツ作成装置によれば、3DARコンテンツ作成装置1が移動しながらでも、移動後の広角カメラの映像に関連付けられた位置座標空間で、3Dカメラの映像、および3DARオブジェクトの空間位置座標を与えているため、広角カメラの映像に3Dカメラの映像、および3DARオブジェクトの合成が容易となる。また、3Dカメラで撮影する映像の範囲外にある3DARオブジェクトも取り扱い可能であり、視線移動が伴う場合にでも、広角映像および3D映像への3DARオブジェクトの合成表示がスムーズに行えるようになる。また、3D映像の奥行き情報を利用して、3D映像と3DARオブジェクトの奥行き方向の前後関係を考慮した3D合成が行われるため、3DARコンテンツの作成が可能となる。
【実施例0082】
図12は、本実施例における3DARコンテンツ作成装置の外観模式図である。図12において、図1と同一の構成要素については、同一の符号を付し、その説明は省略する。図12において図1と異なる点は、3DARコンテンツ作成装置1a(以下、装置1aと記すことがある)は、広角カメラ10c、3Dプロジェクタ19、透過型スクリーン20を備えている点であり、背景映像と3DARオブジェクトの合成は、3Dプロジェクタ19、透過型スクリーン20で行われる。
【0083】
広角カメラ10cは、その筐体の前後にレンズの開口部を設けており、それぞれの開口部に取り付けられたレンズを通して、装置1aの前方の映像と後方の映像を撮影する。図1の広角カメラ10aと10bを合わせた機能を持ち、図1の装置1にも適用可能である。
【0084】
図13は、本実施例における装置1aの構成ブロック図である。図13においては、図2に対して、合成処理部152とディスプレイ12が、3Dプロジェクタ19と透過型スクリーン20に置き換えられている。
【0085】
3Dプロジェクタ19は、3DARオブジェクトを透過型スクリーン20に投射する。3DARコンテンツの作成者は、透過型スクリーン20越しに、背景映像を見ながら、投射された3DARオブジェクトを確認する。これにより、背景映像と3DARオブジェクトが合成された映像を確認する。
【0086】
なお、本装置1aにおいても、広角カメラ10cの映像、3Dカメラ11a、11bの映像は、それぞれ広角映像保持部156a、3D映像保持部156bに記録されており、処理フローとしては、図11に示した処理フローが、合成処理部152を除いて適用される。
【0087】
図14は、本実施例における3DARコンテンツ作成装置の表示例であり、透過型スクリーン20に、3DARオブジェクト4a、4bが投射されている例である。透過型スクリーン20からは、背景画像が透視でき、その上に3DARオブジェクト4a、4bが合成された映像となる。
【0088】
以上説明したように、本実施例によれば、3DARコンテンツの作成者は、透過スクリーンから見る実際の背景映像を確認でき、訓練されていない作成者でも安全に利用可能なコンテンツ作成が行えるという利点がある。
【実施例0089】
図15は本実施例における3DARコンテンツ作成システムの構成図である。図15において、1b、1cは3DARコンテンツ作成装置、21はネットワーク1、22はネットワーク2、23は3Dディスプレイ付再生装置、24は2Dディスプレイ付再生装置である。3DARコンテンツ作成装置1b、1cは、図1の3DARコンテンツ作成装置1、もしくは図12の3DARコンテンツ作成装置1aのいずれかである。
【0090】
3DARコンテンツ作成装置1cは、3DARコンテンツの再生装置としても働く。この場合、3Dディスプレイ付再生装置23、2Dディスプレイ付再生装置24、3DARコンテンツ作成装置1cは(総称して再生装置と記す場合がある)、ネットワーク21を介し、3DARコンテンツ作成装置1bにアクセスし、3DARコンテンツの再生をリクエストする。該リクエストに応えて、3DARコンテンツ作成装置1bは、3DARコンテンツを配信する。配信する3DARコンテンツは、それぞれの再生装置23、24、1cに対して異なるものであってよい。再生装置23、24、1cは、受信する3DARコンテンツを再生し、装置内のディスプレイに表示する。
【0091】
3DARコンテンツ作成装置1cは、3DARコンテンツ作成装置としても働く。この場合、3DARコンテンツ作成装置1bのコンテンツ作成を補助する。3DARコンテンツ作成装置1cは、3Dカメラで3DARコンテンツ作成装置1bを捉え、距離、方向を測定し、ネットワーク22を介し、3DARコンテンツ作成装置1bに送信する。ネットワーク21とネットワーク22は、例えばインターネットとし、同一のネットワークでもよいが、ネットワーク22をBluetooth(登録商標)で構成しても良い。3DARコンテンツ作成装置1bと3DARコンテンツ作成装置1cの通信を直接行わせるほうが、屋外の環境では応答性の観点から好ましいことが多い。
【0092】
2つの3DARコンテンツ作成装置1b、1cを用いて3DARコンテンツを作成する例を、前述の図4を用いて説明する。3DARコンテンツ作成装置1b(主コンテンツ作成者)は3DARオブジェクト4bに、3DARコンテンツ作成装置1c(副コンテンツ作成者)は3DARオブジェクト4aに対応する。3DARコンテンツ作成装置1bは、前記3DARコンテンツ作成装置1cから送られる距離と方向の情報から、3DARコンテンツ作成装置1bを基準とする空間位置座標に変換し、3DARオブジェクト4aを表示させる。
【0093】
3DARコンテンツ作成装置1c(副コンテンツ作成者)は、自身の映像等を3DARコンテンツ作成装置1b(主コンテンツ作成者)が作成するシュコンテンツに対する副コンテンツとして作成することができる。この場合、オフラインでの編集により、主コンテンツと副コンテンツの統合を行い、一本のコンテンツに仕上げることも可能であるが、リアルタイムにおいては、3DARコンテンツ作成装置1b(主コンテンツ作成者)は主コンテンツを、3DARコンテンツ作成装置1c(副コンテンツ作成者)は副コンテンツを配信する。
【0094】
以上説明したように、本実施例による3DARコンテンツ作成システムによれば、コンテンツ視聴者が複数であってもよい。また、異なる形態のコンテンツ再生装置であってもよい。
【0095】
また、複数人でひとつのコンテンツを作成することができ、複数の3DARオブジェクトを登場させることにより、異なる興味ポイントの紹介等により、視聴者の一層の興味を喚起する3DARコンテンツの作成が可能となる。
【実施例0096】
図16は本実施例における3DARコンテンツ作成システムの構成図である。図16において、図15に示した3DARコンテンツ作成システムと同一の機能を有するものには、同一の番号を付与し、その説明は省略する。図16において図15と異なる点は、3DARコンテンツストレージサービス25と、3DARオブジェクトバンクサービス26を有する点である。
【0097】
3DARオブジェクトバンクサービス26は、よく使われる多くの3DARオブジェクトをストレージし、3DARコンテンツ作成者に提供し、3DARオブジェクトを生成する手間を省く。
【0098】
3DARコンテンツストレージサービス25は、3DARコンテンツ作成者が作成した3DARコンテンツをストレージし、コンテンツ視聴者の要求により配信する。3DARコンテンツ作成装置は、作成したコンテンツを3DARコンテンツストレージサービス25にアップロードするだけ良く、コンテンツ視聴者の要求を受けコンテンツを配信するという負荷を分離できる。
【0099】
また、3DARコンテンツストレージサービス25は、複数のコンテンツ作成者がアップロードする複数の3DARコンテンツを保持し、コンテンツ視聴者の要求に応じて、異なる複数の3DARコンテンツの配信も可能である。
【0100】
さらに、3DARコンテンツストレージサービス25に、3Dコンテンツと3DARオブジェクトを合成した後の3DARコンテンツを保存することで、合成する機能を持たない3D表示装置でも3DARコンテンツを楽しむことができる。同様に、合成後のコンテンツを2D映像として保存することで、3DARコンテンツを合成できず3D表示ができない2D表示装置でも、疑似的に3DAR合成コンテンツを楽しむことができる。これらの3D表示装置、2D表示装置には、テレビやパソコンのモニタ、スマートフォンのモニタ等が該当する場合がある。
【0101】
以上説明したように、本実施例によれば、コンテンツ作成の効率化が図れるとともに、3DARコンテンツ作成装置の処理負荷の低減を実現できる。
【実施例0102】
図17は本実施例における3DARコンテンツ再生装置の構成ブロック図である。図17において、23は3DARコンテンツ再生装置、231はカメラ、232はスピーカ、233は合成処理部、234aは平面ディスプレイ、234bは偏光光学レンズ、235はマスク処理部、236は通信部、237aはCPU、237bはRAM、237cはROM、238はコンテンツ格納部、239はタッチセンサである。
【0103】
図17の3DARコンテンツ再生装置23は、前記図15および図16の3Dディスプレイ付き再生装置23であるが、平面ディスプレイ234aに左目用の映像と右目用の映像を交互に表示し、偏光光学レンズ234bは、左用、右用の映像の表示に同期して、交互に右側、左側のレンズの透過を遮断し、左目用の映像を左目で、右目用の映像を右目で視認させ、視聴者に3D映像を視聴させる。偏光光学レンズ234bがない場合に、平面ディスプレイ234aに2D映像を映し出すことにより、2Dディスプレイ付き再生装置24となる。偏光光学レンズ234b以外の構成要素がひとつのハードウェアとして構成され、視聴者が偏光光学レンズ234bを眼鏡のように別のハードウェアとして装着する構成では、偏光光学レンズ234bを使用する場合には、3Dディスプレイ付き再生装置23となり、偏光光学レンズ234bを使用しない場合には、2Dディスプレイ付き再生装置24となる。
【0104】
3DARコンテンツ再生装置の表示能力(3D表示可能か、2D表示か)は、3DARコンテンツの再生を始めるにあたって、3DARコンテンツ作成装置等に能力通知を実施する。3DARコンテンツ作成装置等は、3DARコンテンツ再生装置の能力に応じて、3D表示が可能な装置には、3D映像データ等を、2D表示能力しか備えない装置には2D化した映像データ等を配信することにより、3DARコンテンツ再生装置の表示能力に応じたコンテンツの視聴を可能とさせる。
【0105】
CPU237aは、装置全系を制御するものであり、そのプログラムはROM237cに格納され、RAM237bに展開して実行される。CPU237aは、通信部236に指令し、3DARコンテンツの受信を行う。
【0106】
受信する3DARコンテンツは、コンテンツ格納部238にバッファリングしながら再生する。3DARコンテンツの構成要素としては、広角映像、3D映像、空間形状面データ、3DARオブジェクト、および音声である。音声は、スピーカ232で再生する。
【0107】
再生して得る広角映像、3D映像、3DARオブジェクトは、これらに付随する空間位置座標の奥行き関係を評価して、合成処理部233で合成し、平面ディスプレイ234aに表示する。平面ディスプレイ234aの表示と偏光光学レンズ234bは同期しており、3D表示映像を得る。偏光光学レンズ234bを使用しない2Dディスプレイ付き再生装置24の場合には、受信する3DARコンテンツの映像データは2D化されたものを指定し、受信する。この場合でも、空間位置座標の奥行き関係を評価して、合成処理部233で合成し、平面ディスプレイ234aに表示する。
【0108】
タッチセンサ239では、視聴者の入力操作を受け付ける。表示されている3DARオブジェクトを選択したり、制御オブジェクト5a、5bの一例としてのメニューオブジェクトからパラメータを設定したり、広角映像や3D映像のポイントを指定して、視線を移動させたりするのに用いる。
【0109】
なお、図17での各処理部の処理は、CPUがメモリに記憶したプログラムを実行するソフトウェア処理によって実行してもよいし、専用の信号処理回路によるハードウェア処理により実行してもよい。また、ソフトウェア処理とハードウェア処理の併用でもよい。
【0110】
図18は、本実施例における3DARコンテンツ再生装置の処理フロー図である。図18において、S201で、3DARコンテンツ作成装置1あるいは1aは、3DARコンテンツストレージサービス25にログインし、サムネイル画像のダウンロードを行う(S202)。サムネイル画像は、静止画であっても動画であってもよいが、S203でサムネイル画像を表示して、複数の3DARコンテンツの中から再生するコンテンツを直感的に選びやすくする。
【0111】
S204では表示を2Dで行うのか、3Dで行うのかを決定する。3Dで表示するのであれば、S205以降の処理を実行し、2Dで表示するのであれば、S214以降の処理に移る。
【0112】
3D表示の処理フローでは、S205で3DARオブジェクトを、S206で3D映像データおよび広角映像のダウンロードを開始する。次にS207で表示設定を行い、S208で表示の開始、もしくは更新を行い、3DARコンテンツを視聴する。
【0113】
3DARコンテンツの視聴期間において、3DARオブジェクトを操作し、コンテンツを視聴者の好みに合わせることが可能である。このためにS209でオブジェクトの設定の変更を行う。また、S210で、マスク処理された領域に、視聴者オリジナルの映像を表示することも可能である。また、S211では視聴者の視点の不連続な移動(インタラクティブ再生)を指示することもできる。
【0114】
S212では、ユーザ操作の有無を判定し、有の場合は、S208で表示の更新を行う。ユーザ操作が無い場合は、コンテンツの視聴を継続するかどうかを判定し(S213)、継続する場合にはS205に戻り、コンテンツの視聴を継続する。
【0115】
コンテンツの視聴を終了する場合は、S223にて終了する。S223からは、新しいコンテンツの視聴を行うために、S203に戻ることもある。
【0116】
2D表示の処理フローでは、S214で2D化した2DARオブジェクトを、S215で2D化した映像データおよび広角映像のダウンロードを開始する。S216からS222、およびS223の処理は、3D表示のフローと同じである。
【0117】
次に、図19から図22を用いて、3DARコンテンツ再生装置23の3DARコンテンツの表示例の説明を行う。
【0118】
図19は、本実施例における表示設定を行う表示設定オブジェクト27の例である。広角映像の表示・非表示、3D映像の表示・非表示、3D映像を広角映像に合成する場合の3D映像の表示サイズ、マスク領域への視聴者オリジナル映像の表示・非表示を設定する。視聴者オリジナル映像としては、3DARコンテンツ再生装置23に内蔵するカメラ231の映像でも良い。この他、空間形状面データの表示・非表示を設定させるようにしても良い。
【0119】
図20は、平面ディスプレイ234a全面に3D映像を表示している例である。この例では、空間形状面データ6も表示されており、マスクする面領域8aに、視聴者オリジナルの映像28を合成表示している例である。
【0120】
図21は、前記図3と同様に360度の3DARコンテンツの表示例であり、広角カメラの映像2、3Dカメラの映像3、3DARオブジェクト4a、4b、4c、4d、4e、4fが合成表示されている例である。
【0121】
さらに図21では、操作オブジェクト28a、28b、28c、28d、28eが表示されている。操作オブジェクト28aは移動可能であり、視聴者は任意の3DARオブジェクトを選択し、図8のオブジェクト設定でパラメータの変更や、選択した3DARオブジェクトに視点移動させる操作が行える。
【0122】
28b、28c、28d、28eはスクロールオブジェクトであり、広角映像2のスクロール移動を可能とさせる。スクロールオブジェクト28b、28c、28d、28eのように、スクロールオブジェクトを表示して操作を促すこともできるが、タッチセンサ239上の指の動きのパターンに操作を割り当てることも可能である。広角映像2をスクロール移動させると、連動して、3D映像3、3DARオブジェクト4a、4b、4c、4d、4e、4f、操作オブジェクト28aも連動する。
【0123】
また、実施例1の3DARコンテンツ作成装置の説明にある図3図4図5の表示例も、3DARコンテンツ再生装置の表示例となり得る。
【0124】
図22は、前記図17の3DARコンテンツ再生装置23の合成処理部233の処理フローを示す図である。図22において、S301で合成処理の対象とする3DARオブジェクトを選択し、S302で、図8に示したオブジェクトのパラメータで、3DARオブジェクトの表示優先が設定されているかを確認する。表示優先がされている場合は、S305にて、3DARオブジェクトを前面に表示する。
【0125】
表示優先が通常モードである場合、3DARオブジェクトと重なる空間形状の面データを決定し(S303)、3DARオブジェクトと面データの奥行き関係を評価する(S304)。評価結果は、保持される(S305)。S306では、該評価結果に従って、空間形状の面データが手前にある場合には、3Dカメラの映像を3DARオブジェクトの映像の前面に、3DARオブジェクトが手前にある場合には、3DARオブジェクトの映像を前面に表示する。この時、図8の透明度に従う。例えば透明度が中間にある場合は、3Dカメラの映像と3DARオブジェクトの映像を、2つの画像を係数により合成するアルファブレンディングにより合成する。
【0126】
そして、S307にて、合成処理の対象とする3DARオブジェクトが他にあるか判断し、あればS301に戻り、なければ終了する。
【0127】
以上説明したように、本実施例によれば、3DARコンテンツを再生・表示することが、表示デバイスが3Dデバイスでも、2Dデバイスでも可能となる。また、3DARコンテンツの3DARオブジェクトやマスク領域を操作して、視聴者オリジナルな方法での再生が可能である。さらに、視線の移動を行わせることにより、3DARコンテンツのインタラクティブな再生も可能となる。
【0128】
以上実施例について説明したが、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであって、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の一部について、他の構成の追加・削除・置換をすることが可能である。
【符号の説明】
【0129】
1、1a、1b、1c:3DARコンテンツ作成装置、2:広角カメラの映像、3:3Dカメラの映像、4a、4b、4c、4d、4e、4f:3DARオブジェクト、5a、5b:制御オブジェクト、6:空間形状面データ、7:パラメータ設定オブジェクト、8a:マスクする面領域、8b:マスク設定オブジェクト、10a、10b、10c:広角カメラ、11a、11b:3Dカメラ、12、12a、12b:ディスプレイ、13:偏光光学レンズ、15:コントローラ、17:センサ、18:ユーザ操作入力部、19:3Dプロジェクタ、20:透過型スクリーン、21、22:ネットワーク、23:3Dディスプレイ付再生装置、24:2Dディスプレイ付再生装置、26:3DARオブジェクトバンクサービス、25:3DARコンテンツストレージサービス、27:表示設定オブジェクト、28:視聴者オリジナルの映像、28a、28b、28c、28d、28e:操作オブジェクト、151a:空間形状面処理部、151b:奥行き情報処理部、151c:明るさ情報処理部、151d:色情報処理部、152:合成処理部、153:マスク処理部、154a:CPU、154b:RAM、154c:ROM、154d:通信部、155:空間位置座標処理部、156a:広角映像保持部、156b:3D映像保持部、156c:空間形状面データ保持部、156d:3DARオブジェクト保持部、156e:2D映像保持部、156f:2DARオブジェクト保持部、156g:視線移動データ保持部、157:2D化処理部、158:2D合成映像・サムネイルデータ保持部、159:ユーザ操作データ保持部、231:カメラ、232:スピーカ、233:合成処理部、234a:平面ディスプレイ、234b:偏光光学レンズ、235:マスク処理部、238:コンテンツ格納部、239:タッチセンサ
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10A
図10B
図10C
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22