(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-08
(45)【発行日】2024-07-17
(54)【発明の名称】ラベル付き入力を使用してメッシュ精度を向上させる技法
(51)【国際特許分類】
G06T 19/00 20110101AFI20240709BHJP
G06T 15/20 20110101ALI20240709BHJP
【FI】
G06T19/00 A
G06T15/20 500
(21)【出願番号】P 2022559501
(86)(22)【出願日】2021-03-10
(86)【国際出願番号】 IB2021052001
(87)【国際公開番号】W WO2021198817
(87)【国際公開日】2021-10-07
【審査請求日】2022-12-07
(32)【優先日】2020-03-30
(33)【優先権主張国・地域又は機関】US
【早期審査対象出願】
【前置審査】
(73)【特許権者】
【識別番号】522382624
【氏名又は名称】ユーム.コム リミテッド
(74)【代理人】
【識別番号】100118902
【氏名又は名称】山本 修
(74)【代理人】
【識別番号】100106208
【氏名又は名称】宮前 徹
(74)【代理人】
【識別番号】100196508
【氏名又は名称】松尾 淳一
(74)【代理人】
【識別番号】100173565
【氏名又は名称】末松 亮太
(72)【発明者】
【氏名】タミール,マイケル
(72)【発明者】
【氏名】タルモン,ギラッド
(72)【発明者】
【氏名】カガルリツキー,フセヴォロド
(72)【発明者】
【氏名】ケイナン,シャーリー
(72)【発明者】
【氏名】ドレズナー,デヴィッド
(72)【発明者】
【氏名】バルーク,ヤイル
(72)【発明者】
【氏名】バーンボイム,マイケル
【審査官】橋爪 正樹
(56)【参考文献】
【文献】特開2013-070267(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 15/00-19/20
H04N 13/00
G09G 5/00
(57)【特許請求の範囲】
【請求項1】
セマンティック・データを使用して、撮影エリアにおいて少なくとも1つの生体の三次元(3D)表現を生成する方法であって、
前記撮影エリアにおいてキャプチャされたビデオに応答して生成された入力データを受信するステップと、
深層学習方法およびブレンドシェイプ・プロセスのうち少なくとも1つを使用して、前記入力データ
における少なくとも1つの
ボディ・パーツに対し、ラベルを割り当てるステップであって、前記ラベルが
前記少なくとも1つのボディ・パーツの識別子を含む、ステップと、
前記入力データ
における前記少なくとも1つの
ボディ・パーツのそれぞれ1つ毎に、その前記ラベルに基づいて少なくとも1つのメッシュ・パラメータを設定するステップ
であって、前記少なくとも1つのメッシュ・パラメータがメッシュ密度であり、前記ラベルと前記ラベルに関するセマンティック・データとを使用することにより、
前記ボディ・パーツがリジッドであると判定された場合に、前記リジッドなボディ・パーツについての時間系列にわたるデータを追跡することによって作成された各パーツの平均モデルが、元のメッシュの後続の変形に適用され、
前記ボディ・パーツが非リジッドであると判定された場合に、前記非リジッドなボディ・パーツのプロパティが追跡されて、追跡された追跡データに基づいて、前記非リジッドなボディ・パーツのメッシュモデルを作成する、
ステップと、
前記少なくとも1つのメッシュ・パラメータと、前記入力データに関連付けられたセマンティック・データとに基づいて、前記少なくとも1つの生体の前記3D表現を生成するステップであって、前記セマンティック・データが、ラベル、ボディ・パーツ
、セマンティック・ランドマーク、およびこれらの任意の組み合わせから選択される、ステップと、
を含む、方法。
【請求項2】
請求項
1記載の方法であって、更に、
前記少なくとも1つの
ボディ・パーツのうち少なくとも1つが顔としてラベル付けされたとき、前記少なくとも1つの
ボディ・パーツのうち前記少なくとも1つについて高いメッシュ密度でメッシュを生成するステップであって、前記メッシュ密度が、前記少なくとも1つの
ボディ・パーツのうち顔としてはレベル付けされない少なくとも1つについてのメッシュ密度と比較して高い、ステップと、
を含む、方法。
【請求項3】
請求項1記載の方法であって、更に、前記ラベル付けした入力データをメッシュ化するステップを含み、前記メッシュ化するステップが、更に、
各前記少なくとも1つの
ボディ・パーツに対して、それらのそれぞれのラベルに基づいて、それぞれのメッシュ・プロセスを選択するステップと、
前記各少なくとも1つの
ボディ・パーツについて作成された前記メッシュを統一することによって、統一メッシュを作成するステップと、
を含む、方法。
【請求項4】
請求項
3記載の方法において、前記少なくとも1つの
ボディ・パーツのうち少なくとも1つには、少なくとも目または耳のラベルが割り当てられる、方法。
【請求項5】
請求項1記載の方法であって、更に、
メッシュを生成するためにヒューマン・ブレンドシェープ・フィッティング法を適用することによって、前記少なくとも1つの
ボディ・パーツのうち少なくとも1つのメッシュを生成するステップを含む、方法。
【請求項6】
請求項1記載の方法であって、更に、
前記入力データにおける前記少なくとも1つの
ボディ・パーツが
前記リジッド
なボディ・パーツとしてラベル付けされたか否かを、セマンティック・データに基づいて判定するステップと、
前記リジッド
なボディ・パーツであると判定された前記少なくとも1つの
ボディ・パーツの
それぞれを追跡するステップと、
を含む、方法。
【請求項7】
請求項
6記載の方法において、前記追跡するステップが、更に、
時間系列にわたって、前記リジッド
なボディ・パーツにおける移動、変形、または他の変化のうち少なくとも1つを追跡するステップを含む、方法。
【請求項8】
請求項1記載の方法であって、更に、
前記ラベル付けした入力データにおける前記少なくとも1つの
ボディ・パーツが、
前記非リジッド
なボディ・パーツとしてラベル付けされたか否かを、セマンティック・データに基づいて判定するステップと、
前記非リジッド
なボディ・パーツであると判定された前記少なくとも1つの
ボディ・パーツの
それぞれを追跡するステップと、
を含む、方法。
【請求項9】
請求項8記載の方法であって、更に、
各非リジッド
なボディ・パーツの少なくとも1つのプロパティを判定するステップと、
前記判定された少なくとも1つのプロパティをメッシュ作成の基礎にするステップであって、これにより、メッシュ作成が改良されるステップと、
を含む、方法。
【請求項10】
請求項1記載の方法であって、更に、
少なくとも、前記少なくとも1つの
ボディ・パーツの各1つの重要性に基づいて、1組の圧縮パラメータを決定するステップと、
前記3D表現において前記少なくとも1つの
ボディ・パーツの各1つに対し圧縮プロセスを適用することによって、前記少なくとも1つの
ボディ・パーツの少なくとも1つにおける詳細度を低下させるステップであって、各前記少なくとも1つの
ボディ・パーツについての圧縮度が、前記1組の決定した圧縮パラメータによって決定される、ステップと、
を含む、方法。
【請求項11】
処理回路に、請求項1記載の方法を実行させるための命令が格納されている非一時的コンピュータ読み取り可能媒体。
【請求項12】
撮影エリアにおいてキャプチャされたビデオに応答して、少なくとも1つの生体の三次元(3D)表現を生成するシステムであって、
処理回路と、
メモリと、
を備え、前記メモリが命令を収容し、前記命令が前記処理回路によって実行されると、当該システムが、
前記撮影エリアにおいてキャプチャされたビデオに応答して生成された入力データを受信し、
深層学習方法およびブレンドシェイプ・プロセスのうち少なくとも1つを使用して、前記入力データ
において少なくとも1つの
ボディ・パーツに対し、ラベルを割り当て、前記ラベルが、頭部、手、腕、脚部、シャツ、目、耳、顔、および髪の毛からなる一群から選択される一部を含み、
前記ラベルが前記ボディ・パーツの識別子を含み、
前記入力データの前記少なくとも1つの
ボディ・パーツのそれぞれ1つ毎に、その前記ラベルに基づいて少なくとも1つのメッシュ・パラメータを設定し、
前記少なくとも1つのメッシュ・パラメータがメッシュ密度であり、
前記ラベルと前記ラベルに関するセマンティック・データとを使用することにより、
前記ボディ・パーツがリジッドであると判定された場合に、前記リジッドなボディ・パーツについての時間系列にわたるデータを追跡することによって作成された各パーツの平均モデルが、元のメッシュの後続の変形に適用され、
前記ボディ・パーツが非リジッドであると判定された場合に、前記非リジッドなボディ・パーツのプロパティが追跡されて、追跡された追跡データに基づいて、前記非リジッドなボディ・パーツのメッシュモデルを作成し、
前記少なくとも1つのメッシュ・パラメータと、前記入力データに関連付けられたセマンティック・データとに基づいて、前記少なくとも1つの生体の前記3D表現を生成し、前記セマンティック・データが、ラベル、ボディ・パーツ
、セマンティック・ランドマーク、およびこれらの任意の組み合わせから選択される、
ように構成される、システム。
【請求項13】
請求項
12記載のシステムであって、当該システムが、更に、
前記少なくとも1つの
ボディ・パーツのうち少なくとも1つが顔としてラベル付けされたとき、前記少なくとも1つの
ボディ・パーツのうち前記少なくとも1つについて高いメッシュ密度でメッシュを生成するように構成され、前記メッシュ密度が、前記少なくとも1つの
ボディ・パーツのうち顔としてはレベル付けされない少なくとも1つについてのメッシュ密度と比較して高い、システム。
【請求項14】
請求項12記載のシステムにおいて、当該システムが、更に、
各前記少なくとも1つの
ボディ・パーツに対して、それらのそれぞれのラベルに基づいて、それぞれのメッシュ・プロセスを選択することと、
前記各少なくとも1つの
ボディ・パーツについて作成された前記メッシュを統一することによって、統一メッシュを作成することと、
によって、前記ラベル付けした入力データをメッシュ化するように構成される、システム。
【請求項15】
請求項
14記載のシステムにおいて、前記少なくとも1つの
ボディ・パーツのうち少なくとも1つには、少なくとも目または耳のラベルが割り当てられる、システム。
【請求項16】
請求項
12記載のシステムにおいて、当該システムが、更に、
メッシュを生成するためにヒューマン・ブレンドシェープ・フィッティング法を適用することによって、前記少なくとも1つの
ボディ・パーツのうち少なくとも1つのメッシュを生成するように構成される、システム。
【請求項17】
請求項
12記載のシステムにおいて、当該システムが、更に、
前記入力データにおける前記少なくとも1つの
ボディ・パーツが
前記リジッドなボディ・パーツとしてラベル付けされたか否かを、セマンティック・データに基づいて判定し、
前記リジッド
なボディ・パーツであると判定された前記少なくとも1つの
ボディ・パーツの
それぞれを追跡する、
ように構成される、システム。
【請求項18】
請求項
17記載のシステムにおいて、当該システムが、更に、
時間系列にわたって、前記リジッド
なボディ・パーツにおける移動、変形、または他の変化のうち少なくとも1つを追跡する、
ように構成される、システム。
【請求項19】
請求項
12記載のシステムにおいて、当該システムが、更に、
前記ラベル付けした入力データにおける前記少なくとも1つの
ボディ・パーツが、
前記非リジッド
なボディ・パーツとしてラベル付けされたか否かを、セマンティック・データに基づいて判定し、
前記非リジッド
なボディ・パーツであると判定された前記少なくとも1つの
ボディ・パーツの
それぞれを追跡する、
ように構成される、システム。
【請求項20】
請求項
19記載のシステムにおいて、当該システムが、更に、
各非リジッド
なボディ・パーツの少なくとも1つのプロパティを判定し、
前記判定された少なくとも1つのプロパティをメッシュ作成の基礎にすることにより、メッシュ作成が改良される、
ように構成される、システム。
【請求項21】
請求項
12記載のシステムにおいて、当該システムが、更に、
少なくとも、前記少なくとも1つの
ボディ・パーツの各1つの重要性に基づいて、1組の圧縮パラメータを決定し、
前記3D表現において前記少なくとも1つの
ボディ・パーツの各1つに対し圧縮プロセスを適用することによって、前記少なくとも1つの
ボディ・パーツの少なくとも1つにおける詳細度を低下させ、各前記少なくとも1つの
ボディ・パーツについての圧縮度が、前記1組の決定した圧縮パラメータによって決定される、
ように構成される、システム。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願に対する相互引用
[001] 本願は、2020年3月30日に出願された米国仮特許出願第63/001,783号の権利を主張する。この出願をここで引用したことにより、その内容が本願にも含まれるものとする。
【0002】
技術分野
[002] 本願は、一般的には、自由視点ビデオの捕捉、記録、ストリーミング、および表示に関し、特に、自由視点ビデオにおける3Dモデルの生成に関する。
【従来技術】
【0003】
[0003] コンピュータ・システム内におけるオブジェクト(object)の三次元表現は、成長分野であり、美術、科学、技術、およびその他の分野に多数の用途がある。一般に、3D表現とは、空間および時間におけるオブジェクトの記述を意味し、例えば、人の動きに対応する一連のメッシュを使用することによって、動く人間(human being)を記述する。3D表現は、医学において仮想モデルを生成するとき、ビデオ・ゲームのために環境および仮想リソースを提供するとき、VRおよびAR環境ならびに他の用途において説得力のあるフィルム、アニメーション、および芸術的レンダリングを作成するときに有用である。現在の3D表現生成システムは、システム・リソース、用途の制約、および他の要因によって制限され、作成できる表現の範囲および品質が限られる場合がある。
【0004】
[004] 3D表現のドメインでは、3Dモデリングとは、生成されたモデルへのテクスチャおよびアニメーション・シーケンスの適用ではなく、オブジェクトの形状を形成するプロセスを指す。3Dモデルは、ソリッド・モデルまたはシェル・モデルとして生成することができ、各々、一意の態様(aspect)を所有する。ソリッド・モデリングでは、オブジェクトの表面およびボリュームが定められ、医療用目的ならびに工学的設計およびシミュレーションに適した3Dモデルを生成する。シェル・モデルは、オブジェクトのボリュームを表すことなく、このオブジェクトの表面を表す。シェル・モデルは、デジタル映画制作またはビデオ・ゲーム設計におけるように、アニメーションにおいて適用することができる。
【0005】
[005] ソリッドまたはシェルのいずれかのような3D表現の形成に加えて、3Dモデルを生成する複数の技法が存在する。これらの技法は、各々、特有の利点および欠点があり、これらを適用すると、モデル・クリエータに設計の柔軟性を提供し、特定の重要な特徴を、他の特徴に対して強調することを可能にする。普及しているモデリング技法には、ポリゴン・モデリング、曲線モデリング、およびデジタル・スカルプティングが含まれる。
【0006】
[006] ポリゴン・モデリングは、3D空間における点を接続してポリゴンのメッシュを形成することによって、3Dモデルの作成を可能にする。ポリゴン・モデリングは、モデルを生成および操作することができる速度および柔軟性のために、人気がある。しかしながら、ポリゴン・モデリングは、湾曲面の表現というような、特定の点において限界がある。有限数の角がある多角形(angular polygon)を使用するのでは、湾曲面を近似することが難しいのはもっともである。
【0007】
[007] 加えて、曲線モデリングは、加重点を使用して、湾曲面の表現を可能にする。一連の点に関して曲線を定めることによって、ポリゴン・モデリングを用いずに、表面のジオメトリ(geometry)をモデリングすることができる。曲線モデリングは、曲線を定める点に対する重み値の割り当てを基本とし、重み値が大きな点程、点に近い曲線の経路を描く。曲線モデリングは、湾曲表現を表すことができるが、ポリゴン・モデリングの利点、即ち、モデル生成(generation)における速度および柔軟性に欠ける。
【0008】
[008] デジタル・スカルプティングも3Dモデルを生成するために使用することができる。デジタル・スカルプティング・プラットフォームは、仮想素材が一塊の粘土、金属、または他の材料であるかのように操作することによって、ユーザが3Dモデルを生成することを可能にする。
【0009】
[009] 普及している3Dモデリング技法は、一般に、特定の欠点を共有する。3Dモデリングは、特定の技法を用いると、他の技法を用いるよりも効率を高めることができるが、3Dモデルを生成し、モデルの動き(motion)をマッピングするプロセスはリソース集約的になるおそれがある。3Dモデリング・タスクは、大量の記憶空間および処理パワーを必要とするとして差し支えない。更に、3Dモデリング・タスクは、モデリング・システムが利用可能なものを越えてリソースを必要とする場合があり、処理リソースの不足を補償するために、処理時間延長の必要性が生ずる。処理時間延長が必要な場合、3Dモデリングは、ライブまたは低遅延ビデオの作成には適さず、ライブ・ビデオのような特定の用途では、好ましいツールとしての3Dモデリングの使用が妨げられるおそれがある。
【0010】
[0010] 最近開発された3Dモデリングの用途には、自由視点ビデオ(FVV:Free Viewpoint Video)の作成における、モデル生成の使用が含まれる。FVVは、1台以上のカメラからのビデオ・フィードを組み合わせて、キャプチャした場面を仮想化する技法であり、使用されたカメラによって供給される視野角以外でも、視聴者が視野角を選択することを可能にする。FVVの生成は、1台以上のカメラによってキャプチャされたビデオに基づいて、場面における人間の俳優あるいは他のパーツ(part)またはオブジェクトのモデルを作成し、カメラによってキャプチャされた動き(movement)に基づいて、生成したモデルを使用して場面をレンダリングし、本来の実機カメラ(physical camera)によってキャプチャされたのではない角度からの場面のモデル・バージョンを見るように位置付けられた仮想カメラを、視聴者に追加させることによって、行うことができる。FVVは、スポーツ放送のような用途において有用であると言って差し支えなく、仮想カメラの追加によって、従前からのカメラでは近づくことができない種々の角度から、ファンが試合を見ることが可能になる。更に、仮想カメラをスポーツ放送に追加することによって、レフリーが、審議対象のプレー(contested play)を複数の角度から検討することが可能になり、試合を総合的に放送するために必要な実機カメラ、および付随するハードウェアの台数削減が可能になるのはもっともである。スポーツ放送に加えて、FVVは、演劇およびコンサートのような放送のために複数の視点を生成するときに有用であり、更に自動車の設計および安全性検査、モーション・キャプチャ、ならびに他の同様の用途におけるような、移動体(moving bodies)の分析にも有用であるとして差し支えない。
【0011】
[0011] FVVシステムは、1台または複数のカメラによってキャプチャされた場面に基づいて3Dモデルを作成するために、3Dモデリング・システムを含むモデル生成技術を基本とする。3DモデリングはFVVの作成に必須であるので、FVVシステムは、3Dモデリング・システムの限界によって制約を受けるおそれがある。更に、キャプチャされた場面は、複数の移動体、複雑な動き、豊富な視覚情報、および他の複雑な要素を含むこともあるので、キャプチャした場面を、視聴者が仮想カメラを置くことができる3D表現に変換するには大量のストレージを必要とし、更にFVV適用の他の面にも大量のストレージを必要とする場合があるので、大量の処理パワーを必要とするおそれがある。加えて、FVVの用途には、視聴者がライブまたはほぼリアル・タイムで受信することを望むビデオも含まれる場合もあるので、システムがFVV生成の処理要求に応じられなくなることによって、キャプチャと放送との間に大量の遅延が加わることは、視聴者および放送局にとって容認できないのはもっともである。これらの課題は、3Dモデリング・システムのために追加の処理リソースを供給することによって対処できるが、法外な費用がかかるおそれがある。または、モデル、メッシュ、テクスチャ、またはモデリングおよび放送タスクの他の面の品質を低下させて、所与の3Dモデリング・タスクに必要な処理負荷を削減することによっても、これらの課題に対処することができる。処理負荷を削減することによる3Dモデリングの効率向上によって、3Dモデリングされた場面のライブまたはほぼリアル・タイムの放送が可能になるであろうが、3Dモデリング・システムに対する現行の改良では、3Dモデリングを使用するライブまたはほぼリアル・タイムのFVV作成を可能にするには不十分である。
【発明の概要】
【発明が解決しようとする課題】
【0012】
[0012] 以上で注目した3Dモデリング技法は、スタジオ用途またはライブ放送のために自由視点ビデオをレンダリングするという現在の要望には対処できない。ここで注記した課題に取り組むために構成されたシステムがあれば、このような用途のために自由視点ビデオのレンダリングに備える(provide for)ことができ、殆どの視点からの高品質ビデオのレンダリングを可能にするという利点が得られよう。
【0013】
[0013] したがって、以上で注目した欠陥を克服する解決策を提供することができれば、有利であろう。
【課題を解決するための手段】
【0014】
[0014] 以下に、本開示の様々な実施形態例の摘要を記す。この摘要は、このような実施形態の基本的な理解が得られるように、読者の便宜を図るために設けられるのであり、本開示の範囲を完全に定めるのではない。この摘要は、考えられる全ての実施形態の広範な全体像ではなく、全ての実施形態の主要な要素または肝要な要素を識別することを意図するのではなく、任意のまたは全ての態様の範囲を明確に定めることを意図するのでもない。その唯一の目的は、以下に示す更に詳細な説明に対する序文として、簡略化した形態で、1つ以上の実施形態のいくつかの概念を紹介することである。便宜上、「ある実施形態」(some embodiments)または「特定の実施形態」(certain embodiments)という用語は、本明細書では、本開示の1つの実施形態または複数の実施形態に言及するために使用されてもよいものとする。
【0015】
[0015] 本明細書において開示する特定の実施形態は、セマンティック・データを使用してオブジェクトの三次元(3D)表現を改良する方法を含む。この方法は、撮影エリアにおいてキャプチャされたビデオに応答して生成された入力データを受信するステップと、入力データにおける領域毎に少なくとも1つのパラメータを設定するステップと、少なくとも1つのパラメータおよび入力データと関連付けられたセマンティック・データに部分的に基づいて、3D表現を生成するステップとを含む。
【0016】
[0016] 本明細書において開示する特定の実施形態は、撮影エリアにおいてキャプチャされたビデオに応答して生成された入力データを受信するシステムを含む。このシステムは、処理回路と、メモリとを備える。メモリは、命令を収容し、この命令が処理回路によって実行されると、撮影エリアにおいてキャプチャされたビデオに応答して生成された入力データを受信し、入力データにおける領域毎に少なくとも1つのパラメータを設定し、少なくとも1つのパラメータおよび入力データと関連付けられたセマンティック・データに部分的に基づいて、3D表現を生成するように、システムを構成する。
【0017】
[0017] 本明細書において開示する主題を特定的に指摘し、本明細書の最後において特許請求の範囲において明確に特許請求する。開示する実施形態の以上で述べた、およびその他の目的、特徴、ならびに利点は、添付図面と合わせて以下の詳細な説明を検討することから明らかになるであろう。
【図面の簡単な説明】
【0018】
【
図1】実施形態にしたがって、3D表現を作成する方法を示すフローチャートである。
【
図2】実施形態にしたがって、データ点群からのメッシュ生成に、3D表現作成プロセスを適用する場合を示すフローチャートである。
【
図3】実施形態にしたがって、点群からのモデル構築および組み合わせに、3D表現作成プロセスを適用する場合を示すフローチャートである。
【
図4】実施形態にしたがって、セマンティック情報を使用して、リジッド・パーツの幾何学的安定性を経時的に改良するプロセスを示すフローチャートである。
【
図5】実施形態にしたがって、1組の入力データからメッシュを作成するプロセスを示すフローチャートである。
【
図6】実施形態にしたがって、取得した入力データを表すモデルを生成し、続いてパラメータ化圧縮プロセスを使用して、このモデルを圧縮するプロセスを示すフローチャートである。
【
図7】実施形態にしたがって、セマンティック方法を使用して、モデルにおける非リジッド・パーツのプロパティを判定し、これらのパーツを安定化するプロセスを示すフローチャートである。
【
図8】種々の開示する実施形態による、深度カメラを含む、FVVレンダリング・システムの構成例を示す模式図である。
【
図9】
図9は、実施形態によるFVVジェネレータの模式図である。
【発明を実施するための形態】
【0019】
[0027] 本明細書において開示する実施形態は、本明細書における革新的な教示の多くの有利な使用の例に過ぎないことを注記するのは重要である。一般に、本願の明細書において行う言説は、必ずしも種々の特許請求する実施形態のいずれも限定しない。更に、ある言説は、ある発明の特徴には該当するが、他のものには該当しない場合もある。一般に、特に明記しないかぎり、単数の要素が複数であってもそしてその逆でもよく、一般性を失うことはない。図面において、同様の番号は、様々な図を通して、同様の部分を指す。
【0020】
[0028]
図1は、実施形態にしたがって、3D表現を作成する方法を示すフローチャート例100である。S110において、入力データを受信する。受信入力データは、例えばそして限定ではなく、1つ以上の画像、1つ以上の点群、画素、またはボクセル、あるいは他の同様の入力データでもよい。入力データは、一体化されたカメラまたはセンサの場合のように、直接キャプチャを含むがこれには限定されない手段によって受信することができ、例えばそして限定ではなく、Wi-Fi、Bluetooth、および他の同様のプロトコルのようなプロトコルによるワイヤレス・データ転送、例えばそして限定ではなく、イーサネット、USB、および他の同様のプロトコルのような、有線プロトコルによるワイヤレス・データ転送によって受信することができ、または例えばそして限定ではなく、CD、DVD、ディスク・ドライブ、SDカード、および他の同様の媒体のような物理媒体の転送によって、受信することができる。
【0021】
[0029] 取得される入力データは、通常、入力データを求める要求に対する応答として能動的に受信することができ、または特定の入力データに対して入力データ・アップロードを受け入れる場合のように、受動的に受信することができ、または受動および能動受信の任意の組み合わせによって受信することができる。受信される入力データは、限定ではなく、カメラ、センサ、データベース、サーバ、ユーザ・デバイス、コンピュータ、および他の同様のソースを含むソースから受信することができる。実施形態例では、入力データは、スタジオ、会場(venue)、競技場(arena)等においてキャプチャされるビデオである。
図8において論ずるようにデプロイされた1組のカメラを使用して、ビデオをキャプチャしてもよい。
【0022】
[0030] S120において、S110において取得した入力データにラベルを付ける。 実施形態では、入力データの一部にラベルを付けるのでもよく、そして代替実施形態では、入力データの全てにラベルを付ける。実施形態では、入力データが画像を含む場合、一例としてそして限定ではなく、頭部、手、脚部、シャツ、および他の同様のラベルというようなラベルを使用して、画像内にあるエリアにラベルを付けることができる。実施形態では、ラベルは、限定ではなく、深層学習、およびその異形を含む技法によって生成することができる。異形には、一例としてそして限定ではなく、教師あり深層学習、教師なし深層学習、および他の同様の技法等がある。入力データが点群、画素、またはボクセルである場合、個々の点、画素、またはボクセル、あるいはこれらの点、画素、またはボクセルが存在するクラウド、エリア、またはボリュームにラベルを付けてもよい。
【0023】
[0031] S130において、入力データ領域毎のラベルにしたがって、メッシュ・パラメータを設定する。S110において入力データを取得し、続いてS120において取得した入力データにラベルを付ける場合、ラベル付けした各領域に種々の方法を適用することができる。実施形態では、ラベル付けした領域に適用される方法、方法が計算に含むパラメータ値は、方法実行の最終目的、方法を構成するプロセス、ラベル付けした領域のコンテンツ、近隣領域のコンテンツ、および他の同様の要因を含むがこれらに限定されない要因にしたがって、修正することができる。メッシュ・パラメータは、生成されたメッシュの密度を決定するためのパラメータを含むことができ、顔領域におけるメッシュ密度を高めるため、および/または脚部領域におけるメッシュをもっと滑らかにするために調節することができる。
【0024】
[0032] S140において、入力データ領域毎に、設定したパラメータを組み込むプロセスを起動する(activate)。実施形態では、S140において起動するプロセスはS130において設定した1つ以上のパラメータを含んでもよい。S140において起動するプロセスは、実行のプロセス、実行の結果、またはこれら2つの組み合わせが変化することもある。S140において起動するアルゴリズムの1つ以上は、特定のラベル付けした領域への適用に合わせて設計すること、個別に作成すること、またそうでなければ適応させることもできる。
【0025】
[0033] 実施形態では、起動した1つまたは複数のプロセスは、結果を生成することを意図するのでもよく、そしてこれらのプロセスが結果を生成してもよい。結果とは、限定ではなく、メッシュの生成、メッシュ化されないパーツ(un-meshed part)の分析、テクスチャまたは照明(lighting)の適用、任意の他の同様の結果、更にはこれらの任意の組み合わせを含む。実施形態では、S140におけるプロセスが、S130において設定したメッシュ・パラメータを用いるプロセスまたは用いないプロセスの起動を含んでもよく、ラベル付けした入力データ領域、ラベル付けしない入力データ領域、およびこれらの任意の組み合わせまたは部分集合を対象とするアルゴリズムの起動を含んでもよい。
【0026】
[0034]
図2は、実施形態にしたがって、データ点群からのメッシュ生成に、3D表現作成プロセスを適用する場合を示すフローチャート例200である。S210において、点群を取得する。この実施形態例では、取得する点群は、先の
図1におけるS110に関して説明した方法の内いずれによって取得してもよい。取得する点群は、画素、ボクセル、点群、またはこれらの任意の組み合わせでもよい。取得した点群は、構造、オブジェクト、映像(picture)、他の同様のエンティティ、およびこれらの任意の組み合わせまたは部分集合を表すこともできる。
【0027】
[0035] S220において、S210において取得した点群内にあるボリュームにラベルを付ける。この実施形態例では、点群は1つ以上の人間の身体の表現を含んでもよい。この実施形態では、可能なラベルは、耳、目、顔、脚部、および他の同様のラベルを含んでもよいが、これらに限定されるのではない。点群内にあるボリュームのラベル付けは、先の
図1におけるステップS120に関して説明した方法、プロセス、および特徴を含んでもよい。
【0028】
[0036] S230において、所与のラベル付けしたボリュームが、例えば、人間の身体の内、顔であるか否か判定する。所与のラベル付けしたボリュームが顔であるか否かの判定は、後続の処理に関連がある。実施形態では、所与のラベル付けしたボリュームが顔であるか否かの判定が、後続のステップにおいて適切なメッシュ密度を決定付ける場合もある。所与のラベル付けしたボリュームが顔であるか否かの判定は、限定ではなく、S220においてボリュームに割り当てられたラベル、S220において割り当てられたラベルに対する信頼度、隣接するボリュームに割り当てられたラベル、他の同様の要因、およびこれらの任意の組み合わせを含む要因に依存してもよい。
【0029】
[0037] S240において、S230におけるラベル付けしたボリュームが顔であるという判定に基づいて、メッシュ密度を設定する。実施形態では、S230において、所与のボリュームが顔であると判定された場合、高いメッシュ密度を指定するようにメッシュ密度を調節してもよい。あるいは、S230において、所与のボリュームが顔でないと判定された場合、低いメッシュ密度を指定するようにメッシュ密度を調節してもよい。メッシュ密度を設定するパラメータを調節するとき、上記のように、データ・ラベルに基づいてアルゴリズム・パラメータを調節する包括的プロセスを説明する
図1のステップS130を参照するとよい。
【0030】
[0038] S250において、メッシュを作成する。作成したメッシュは、1つ以上のボリュームを含み、異なるラベルを有するボリューム、ラベルが付けられていないボリューム、およびこれらの任意の組み合わせがあってもよい。メッシュは、可変パラメータ、静止パラメータ、またはこれら2つの組み合わせを含んでもよいプロセスにしたがって、作成することができる。実施形態では、可変パラメータを含むメッシュにしたがってメッシュを作成することもでき、可変パラメータは、S230において行われたラベル付け判定にしたがって、S240において設定される。S250におけるメッシュの作成は、
図1におけるS140に関して先に説明したプロセス、エレメント、または他の特徴を含んでもよい。
【0031】
[0039]
図3は、実施形態にしたがって、点群からのモデル構築および組み合わせに、3D表現作成プロセスを適用する場合を示すフローチャート例300である。S310において、点群を取得する。実施形態では、S310における点群の取得は、先に説明した
図2のS210において、点群を取得するために採用されたものと同様に、または全く同一に行われてもよい。更に、S310における点群の取得は、
図1のS110に関して先に説明した、入力データ取得のプロセス、方法、または他の態様を含んでもよい。
【0032】
[0040] S320において、点群内にあるボリュームにラベルを付ける。実施形態では、S320における点群のラベル付けは、先に説明した
図2のS220において点群にラベルを付けるために採用したのと同様に、または全く同一に行われてもよい。更に、S320における点群のラベル付けは、
図1のS120に関して先に説明した、入力データのラベル付けのプロセス、方法、または他の態様を含んでもよい。腕、脚部、目、顔などのような特徴の検出は、限定ではなく、二次元画像、点群、三次元画像、および他の同様のデータ集合を含むデータ集合における特徴の検出を含んでもよい。
【0033】
[0041] S330において、所与のボリューム(または領域)が目を含むか否か判定する。実施形態では、S330における判定は、一例としてそして限定ではなく、顔、脚部、耳等のような、他の特徴に関するのでもよい。ボリュームが目を含むか否かの判定は、限定ではなく、S320においてボリュームに割り当てられたラベルがあればそのラベル、S320において割り当てられたラベルに対する信頼度、隣接するボリュームに割り当てられたラベル、他の同様の要因、およびこれらの任意の組み合わせを含む要因の分析を含んでもよい。実施形態では、S330において、所与のボリュームが目を含まないと判定された場合、S340においてメッシュを構築することができる。あるいは、実施形態では、S330において、所与のボリュームが目を含むと判定された場合、S350において既定のモデルを目に使用することができる。
【0034】
[0042] S340において、所与のボリュームが目を含まないとS330において判定された場合、所与のボリュームにメッシュを構築することができる。S340において構築されるメッシュは、複数のボリューム、複数のラベル、およびこれらの任意の組み合わせを含んでもよく、含まれるボリュームおよびラベルは、S330において目であると判定されていない。実施形態では、S340におけるメッシュ生成は、
図1のS140に関して先に説明した、プロセス、特徴、および他のエレメントを含んでもよい。
【0035】
[0043] S350において、所与のボリュームが目を含むとS330において判定された場合、既定のモデルを目に適用する。実施形態では、この既定のモデルは、例えばそして限定ではなく、耳、脚部、顔等のような、目以外の身体パーツに関するのでもよい。既定のモデルは、具体的なモデリング・タスクに先立って生成されてもよく、一般的な今後の適用のために生成されてもよく、またはフローチャート300において説明したプロセスとは別々に展開された別のモデルから抽出されてもよい。既定のモデルは、ユーザ・デバイス上にローカルに格納されてもよく、リモート・サーバまたはクラウド・サーバもしくはコンピュータ上にホストされてもよく、あるいはUSBデバイス、CDまたはDVD、および他の同様の媒体というような、リムーバブル媒体上に格納されてもよい。
【0036】
[0044] 尚、ステップS340およびS350は、図示の目的上このように付番されたのであり、並び替えても、一般性を失うことは全くなく、記載の範囲から逸脱することもないことを指摘するとよいであろう。S340およびS350のいずれもS330よりも前に実行されなければ、そしてS340およびS350の双方がS360よりも前に実行されるのであれば、S340およびS350は、同時を含んで、どのような順序で現れてもよい。実施形態では、目を含むボリュームがない場合、フローチャート300において説明する方法は、S330からS340に、そして直接S360に進むことができる。代替実施形態では、全てのボリュームが目を含む場合、フローチャート300において説明する方法は、S340を通らずに、S330からS350に進み、直接S360に進むことができる。
【0037】
[0045] S360において、ボリュームを組み合わせて、統一メッシュ(unified mesh)を作成する。一実施形態では、少なくとも1つのメッシュがS350において適用されるまたはS340において生成される場合、1つ以上のアクセスまたは生成されたメッシュを組み合わせて、S310において取得したデータ点群によって記述されるボリュームを表す1つのメッシュにすることもできる。実施形態では、統一メッシュは、ラベル、特徴、または複合メッシュを作成するために組み合わされたボリュームを区別する他の特徴を含むことができる。統一メッシュは、アクセスまたは生成されたメッシュの一部または全てを含んでもよい。
【0038】
[0046]
図4は、実施形態にしたがって、セマンティック情報を使用して、リジッド・パーツの幾何学的安定性を経時的に改良するプロセスを示すフローチャート例400である。フローチャート400に示すプロセスは、セマンティック・データを使用して時間ドメインにおいてメッシュを「スムージング」することによってメッシュ品質を向上させる場合にも、当てはまるとしてよい。
【0039】
[0047] S410において、入力データを取得する。S410における入力データ取得は、
図1のS110に関して先に説明した、入力データ取得のプロセス、方法、または他の態様を含んでもよく、更にS410における入力データ取得は、
図1のS110に関して先に説明した、入力データ取得と同様または全く同一であってもよい。
【0040】
[0048] S420において、入力データにラベルを付ける。S420における入力データのラベル付けは、先に
図1のS120に関して説明したのと同様または全く同一の方法によって実行されてもよい。更に、S420において、ラベル付けおよび今後の処理(operation)を改良するために、セマンティック・データを適用することができる。S420におけるセマンティック・データの適用は、経時的に変化するシーケンスにおける三次元ボディ・パーツの検出を含むことができる。尚、ラベル付けはセマンティック情報であると見なされ、例えばそして限定ではなく、「腕はリジッドである」(arm is rigid)および「髪の毛はリジッドではない」(hair is not rigid)というような記述情報もセマンティックであると見なされることは注記してしかるべきである。
【0041】
[0049] S430において、所与のパーツがリジッドであるか否かについて判定する。所与のパーツがリジッドであるか否かの判定は、限定ではなく、S420において適用したデータ・ラベル、S420において適用したデータ・ラベルと関連付けられた信頼度、隣接するパーツに適用されたラベル、セマンティック・データ、他の同様の情報、およびこれらの任意の組み合わせを含む要因に依存してもよい。パーツがリジッドでないと判定された場合、当該パーツに対する分析を終了してもよく、S430において同じ入力データからの後続のラベル付きパーツに対する分析を開始することができ、またはS410において新たな入力データに対する分析を開始することもできる。点がリジッドであると判定された場合、S440において分析を継続することができる。
【0042】
[0050] S440において、リジッド・パーツを追跡する。実施形態では、S440において、複数のリジッド・パーツを追跡することができる。リジッド・パーツの追跡は、既知の時ジッド・パーツを、それよりも大きい1組のパーツから分離することを含んでもよい。更に、リジッド・パーツの追跡は、時間系列にわたるリジッド・パーツにおける動き(movement)、変形、またはその他の変化を追跡することを含んでもよい。追跡データは、RAMまたは他の短期メモリにというように、一時的に格納することができ、あるいは一例としてそして限定ではなく、ハード・ドライブ、USBドライブ、CDまたはDVD、リモートまたはクラウド・ベース・ストレージ、他の同様の記憶媒体、およびこれらの任意の組み合わせというような、固定記憶媒体に永続的または半永続的に格納することもできる。
【0043】
[0051] S450において、ノイズを低減するために追跡データを使用する。パーツのサブセグメントをリジッド体(rigid body)として扱うことによって、ノイズを低減するために追跡データを使用することができる。追跡データをノイズ低減に適用する例として、時間系列にわたって追跡データから作成された、各パーツの平均モデルを、元のメッシュの後続の変形に適用することによって、系列にわたる安定性を高めることができる。
【0044】
[0052]
図5は、実施形態にしたがって、1組の入力データからメッシュを作成するプロセスを示すフローチャート例500である。ここでは、人間のブレンドシェイプ・フィッティング・プロセス(blendshape fitting process)およびセマンティック方法の一種を使用して、メッシュを作成する。
【0045】
[0053] S510において、入力データを取得する。S510における入力データ取得は、
図1のS110に関して先に説明した、入力データ取得のプロセス、方法、またはその他の態様を含んでもよく、更に
図1のS110に関して先に説明した、入力データ取得と同様または全く同一であってもよい。取得する入力データは、写真、ビデオ、点群、他の入力データ、またはこれらの任意の組み合わせであってもよい。
【0046】
[0054] S520において、入力データにラベルをつける。520における入力データのラベル付けは、先に
図1のS120に関して説明したのと同様または全く同一の方法によって実行してもよい。更に、S520におけるラベル付けにセマンティック・データを適用すると、一例としてそして限定ではなく、関節、顔の特徴、および同様のセマンティック・ランドマーク(semantic landmark)というような、既知のセマンティック・ランドマークのラベル付けに対応する(provide for)こともできる。実施形態では、ブレンドシェイプ・プロセスを含むがこれに限定されない技法によって、ラベルを生成してもよい。
【0047】
[0055] S530において、ラベル付けした入力データを汎用人間モデル(generic human model)に当てはめる。実施形態では、汎用人間モデルは、ブレンドシェイプ・モデル、三次元モーフィング・モデル、または他の同様のモデルでもよい。ラベル付けした入力データを汎用人間モデルに当てはめるには、セマンティック・ランドマークの位置に従って、汎用人間モデルを1つ以上のラベル付けしたデータ点と相関付けることによって行えばよい。
【0048】
[0056] S540において、メッシュ・アルゴリズムを適用する。メッシュ・アルゴリズムは、S510において取得した入力データ、S520においてラベル付けした入力データ、他のデータ、およびこれらの任意の組み合わせに基づいてメッシュを生成するために、適用することができる。使用するメッシュ・アルゴリズムは、先に説明したアルゴリズムと同様であってもよく、可変パラメータ化メッシュ・アルゴリズム、静止パラメータ・メッシュ・アルゴリズム、またはこれら2つの組み合わせの適用を含んでもよい。
【0049】
[0057] S550において、メッシュを作成する。メッシュは、先に説明した方法にしたがって作成することができる。実施形態では、メッシュの作成は、S530において当てはめたモデルをS510において取得しメッシュ生成に使用したデータと融合する(merge)ことによって、メッシュ品質を向上させメッシュ生成を補助することを含んでもよい。
【0050】
[0058]
図6は、実施形態にしたがって、取得した入力データを表すモデルを生成し、続いて、パラメータ化圧縮プロセスを使用して、このモデルを圧縮するプロセスを示すフローチャート例600である。
図6に示すプロセスは、パラメータ化圧縮プロセスの調節および適用に対応する(allow for)。実施形態では、S610およびS620は、それぞれ、先に
図1において示したステップS110およびS120と同様にまたは全く同一に実行し、先に説明したように、ステップS110およびS120の結果と同様または全く同一の結果を得ることができる。尚、ステップS610およびS620は、実施形態によれば、
図1に示したステップの内、ステップS610およびS620の実行に対する例として役割を果たすいずれのステップにも独立して、実行することを指摘するとよいであろう。
【0051】
[0059] S630において、圧縮パラメータを調節する。S630において調節する圧縮パラメータは、圧縮プロセスの適用を調整する(tune)ために適用することができ、圧縮プロセスは、メッシュの作成または他のアルゴリズムの起動の後に行われる。S630において調節する圧縮パラメータは、所望の圧縮結果が得られるようにまたは特定の圧縮プロセスに対処するように、調節することができる。
【0052】
[0060] 実施形態では、領域に基づいて圧縮パラメータを調節する。S630において、高品質のテクスチャ情報を保存する顔のような、セマンティック上重要な領域における幾何学的情報を保存し、腕または脚部のような、重要性が低い領域程圧縮されたテクスチャによる荒いメッシュが得られるようにすることによって、圧縮の間幾何学的品質およびテクスチャ品質を保存する圧縮となるように、圧縮プロセス・パラメータを設定することができる。
【0053】
[0061] S640において、圧縮プロセスを適用する。実施形態では、圧縮プロセスは、三次元表現における詳細度を低下させることによって、種々のセマンティック領域について詳細度を判定するためにセマンティック情報を適用することによって、他の同様の技法によって、またはこれらの任意の組み合わせによって、ファイル・サイズの縮小を達成することができる。更に、実施形態では、ファイル・サイズの縮小は、モデルの異なる領域に適用されたテクスチャに対して可変圧縮度(varying degrees of compression)を適用することによって達成することもできる。このような可変テクスチャ圧縮の適用例として、顔および腕の識別、ならびに顔の詳細は腕の詳細よりも重要であることを指定するポリシーを適用して、顔に適用するテクスチャよりも大きな度合いで、腕に適用するテクスチャを圧縮することもできる。適用する圧縮プロセスをパラメータ化することができ、S630において調節した圧縮アルゴリズム・パラメータを含んでもよい。
【0054】
[0062]
図7は、実施形態にしたがって、セマンティック方法を使用して、モデルにおける非リジッド・パーツのプロパティを判定し、これらのパーツを安定化するプロセスを示すフローチャート例700である。実施形態では、近隣に非リジッド・エリアを有することが分かっているセマンティック特徴の検出、近隣の非リジッド・エリアのプロパティの検出、およびそれに続く、非リジッド・エリアを安定化するための、検出したプロパティの適用によって、非リジッド・パーツのモデリングにおける改良に対応することができる。
【0055】
[0063] 実施形態例では、フローチャート700に図示するように、S710およびS720は、先に図示した
図1のステップS110およびS120と対応する。S710およびS720は、同様または全く同一の方法の適用により、それぞれ、ステップS110およびS120と同様または全く同一の結果を得ることができる。更に、S710および720の実行は、
図2~
図6に示した方法のプロセス、エレメント、または他の態様を含んでもよく、同様または全く同一のプロセスによって、同様または全く同一の結果が得られる。
【0056】
[0064] S730において、ボディ・パーツを識別する。S730におけるボディ・パーツの識別は、限定ではなく、S720において割り当てたラベル、S720において割り当てたラベルに対応する信頼度、近隣パーツ、他の同様の要因、およびこれらの任意の組み合わせを含む要因の分析を含んでもよい。更に、S730におけるボディ・パーツの識別は、エリア識別、位置、および他の関係するセマンティック情報に関するセマンティック情報の検討も含んでもよい。
【0057】
[0065] S740において、所与のパーツが何らかの既知の非リジッドな近隣(non-rigid neighbors)を有するか否かについて判定する。所与のパーツが何らかの既知の非リジッドな近隣を有するか否かの判定は、経時的な(with time)非リジッド・ボディ・パーツの幾何学的安定性の改良に対応することができる。この判定は、セマンティック情報、パーツ・ラベル、パーツ・ラベル信頼度、既知の近隣、他の同様の要因、およびこれらの任意の組み合わせを考慮するとよい。S740において、パーツが既知の非リジッドな近隣を有さないと判定された場合、
図7に示す非リジッド・パーツのモデリングの実行は、終了することができる。S740において、パーツが既知の非リジッドな近隣を有すると判定された場合、実行はステップS750に進むことができる。
【0058】
[0066] S750において、非リジッド・パーツのプロパティを追跡する。非リジッド・パーツは、例えば、髪の毛を含んでもよい。S740において、パーツが既知の非リジッドな近隣を有すると判定された場合、S740において識別された非リジッドな近隣、およびこれらのプロパティを、S750において追跡する。非リジッド・ボディ・パーツのプロパティは、色、形状等を含むことができる。例えば、顔を追跡すると、髪の毛によって覆われていることがわかる。髪の毛は金髪であることを推論し、そして顔から離れている髪の毛の領域を識別することによって、カメラからは、髪の毛によって顔が覆い隠される領域ができるため、カメラには顔が見えないと推測することもできる。
【0059】
[0067] 非リジッド・パーツの追跡は、限定ではなく、パーツ端および中間点を追跡する方法、移動方向および変位を追跡する方法、他の同様の技法、およびこれらの任意の組み合わせを含む方法によって行ってもよい。
【0060】
[0068] S760において、非リジッド・パーツのプロパティを識別することができる。非リジッド・パーツのプロパティは、S750において展開したパーツ追跡データの分析、続いて展開した移動モデルの分析、他の同様の分析、およびこれらの任意の組み合わせによって識別してもよい。識別される非リジッド・パーツのプロパティは、限定ではなく、パーツ重量、パーツの寸法、パーツの柔軟性および剛性、他の同様のプロパティ、およびこれらの任意の組み合わせを含むことができる。
【0061】
[0069] S770において、追跡データを適用する。追跡データは、S750において追跡した移動およびプロパティの分析、続いて展開された移動モデルの分析、S760において識別したパーツ・プロパティの分析、他の同様の要因の分析、またはこれらの任意の組み合わせを含んでもよいが、これらに限定されるのではない。追跡データは、S760において識別した非リジッド・パーツのプロパティに基づいて、非リジッド・パーツについてのモデルを作成することによって、ノイズを低減するために適用することができ、続いて、作成したモデルを適用することによって、同様および全く同一の非リジッドな特徴の今後のモデリングを改良することができる。加えて、一例としてそして限定ではなく、追跡から収集したデータを使用して、被追跡パーツの幾何学的形状を再生する(refine)ことによって経時的にスムージングすることによって、メッシュおよび時間干渉性を改良するために、追跡データを使用することもできる。
【0062】
[0070]
図8は、種々の開示した実施形態による、深度カメラを含むFVVレンダリング・システムの構成例を示す模式図の一例800である。模式
図800は、深度カメラ810-1から810-nまでを示す。ここで、「n」は2以上の整数である(以下、単に簡略化のために、個々に深度カメラ810と呼び、更に集合的に深度カメラ810と呼ぶ)。更に、模式
図800はプロジェクタ820-1および820-mを含む。ここで、「m」は2以上の整数である(以後、単に簡略化のために、個々にプロジェクタ820と呼び、更に集合的にプロジェクタ820と呼ぶ)。これらは、撮影エリア840において生ずるアクティビティに基づいてビデオをキャプチャするためにデプロイされている。深度カメラ810によってキャプチャされた画像は、FVVの作成のために、FVVジェネレータ830に供給される。実施形態例では、1つの深度カメラのみを利用して、FVVを生成することができる。撮影エリア840は、スタジオ、会場、競技場(例えば、スポーツの競技場)等を含むことができる。
【0063】
[0071] 撮影エリア840は、例えば、放送スタジオまたはインターネット・スタジオでもよく、ここで、放映する番組、インターネットを通じて配信する番組、ムービーを作成するために利用される番組、あるいは拡張現実または仮想現実アプリケーションのために利用される番組が記録される。つまり、開示した実施形態は、カメラを動かすことなく、クロマキー処理を行うことなく、または双方を行うことなく、FVVのスタジオ制作を可能にする。プロジェクタ820の各々は、撮影エリア840に近接してデプロイされる。閾値距離は、例えば、プロジェクタ820によって放出される光の種類および強度、深度カメラ810の構成、または双方に応じて、変化させることができる。デプロイされる深度カメラ810の種類は、深度カメラ810から撮影または記録される場面までの最大要求距離に基づく。種々の例について以下に論ずる。
【0064】
[0072] この例および非限定的な構成では、2台の深度カメラ810を利用するが、1台の深度カメラ810を利用してもよく、またはもっと多くの深度カメラ810を利用してもよい。他の実施形態では、3台の深度カメラ810を利用する。深度カメラ810によってキャプチャした画像は、撮影エリアおよびその中にあるオブジェクトの3Dモデルをレンダリングするために利用され、こうすることによって、例えば、ディレクタまたは他のユーザの裁量にしたがって配置することができる「仮想カメラ」の視点からのFVVの作成を可能にする。各仮想カメラは、撮影エリア840からの視点(perspective)、撮影エリア840への視点、またはその周囲の視点を表し、撮影エリア840内で行われるアクティビティをキャプチャする視座(viewpoint)(即ち、位置および姿勢)と関連付けることもできる。したがって、2台から16台までの深度カメラ810からの映像(footage)を利用して、事実上無限数の仮想カメラに対応することができる。
【0065】
[0073] 各深度カメラ810は、RGBカメラと1対の白黒(B/W)カメラを含んでもよい。実施形態では、1つ以上のプロジェクタ820は、深度カメラ810から離れてデプロイされる。
【0066】
[0074] 各プロジェクタ820は、対象エリアに関する局所的特徴を生成し、点クラウドの計算のために実行される空間相関処理(spatial correlation operation)を容易にするために利用される。即ち、局所的特徴とは、撮影エリア内にあるオブジェクトの表面に投影される既知のパターンとすることができる。このために、各プロジェクタ820は、撮影エリア内にあるオブジェクト上に不可視光を投射するように構成される。実施形態例では、プロジェクタ820の光源は、レーザ(目安全メカニズムを有する、または目安全距離で動作する)、発光ダイオード(LED)、または標準的なプロジェクタ・ランプでもよいが、これらに限定されるのではない。投射された光は、オブジェクトから反射され、深度カメラ810に含まれるB/Wカメラによってキャプチャされることにより、その上にある点クラウドの判定を可能にする。
【0067】
[0075] 構成によっては、プロジェクタ820の形式、台数、または双方、したがって、深度カメラ810のB/Wカメラと共に使用されるフィルタが、撮影場所次第で異なるのはもっともである。
【0068】
[0076] ある実施態様では、プロジェクタ820の各々が、アイ・セーフ・レーザ(eye safe laser)またはLED光源を含んでもよい。実施形態では、1.5~2ミクロンスペクトル帯域において放射光線を放出するレーザを使用する。このようなレーザは、人間の目には安全であり、このため、スタジオ内にいる人間に危害を加えることなく、パターンを投射するために、遙かに高い放射強度を使用することができる。したがって、スタジオからのプロジェクタ820および深度カメラ810の距離を広げることができる。このような実施態様では、深度カメラ810は、このようなスペクトル帯域に感応する1対のカメラ(B/Wカメラの代わりに)、例えば、この波長に適合するレンズを有するInGaAsカメラを含む。更に、ある実施態様では、他の深度カメラ810を使用する自動チューニングを利用して、各深度カメラ810によってキャプチャする必要がある視野のサイズを縮小することもできる。
【0069】
[0077] 他のある実施態様では、各プロジェクタ820は分散放射光源を利用する。可視または近赤外線スペクトルにおける分散光源の使用により、プロジェクタ820から離れて位置する人間の目に対する最小許容エネルギを高める。つまり、このようなプロジェクタ820は、目安全距離を広げ、光源強度を高め、したがって、不適切な品質の低下を招くことなく、深度カメラ810の範囲を広げ、即ち、各深度カメラ810とスタジオの遠端との間の距離を広げることを可能にする。一例として、このような距離は20メートルまでとするとよい。一例では、分散光源は、分散光源構成とした、LEDのアレイである。
【0070】
[0078] 開示する実施形態の更に他の実施態様では、撮影エリア840に近接して(例えば、閾値距離以内)に、更に、対象領域(ROI)追跡モジュール(ROIトラッカ)も配置する。この実施態様では、各深度カメラ810がLIDARスキャナを含む。ROIトラッカは、撮影エリア840の撮影エリア内において瞬時的ROIを動的に追跡するように構成される。
【0071】
[0079] 尚、
図8に示す実施態様例は非限定的であること、そして他の台数の深度カメラ810、プロジェクタ820、ROIトラッカ、またはこれらの組み合わせも、開示する実施形態と矛盾なく、等しく利用できることは注記してしかるべきである。更に、FVVジェネレータ830は、離れて配置してもよく、WAN、インターネット等のような、しかしこれらに限定されない、ネットワークを通じて、深度カメラ810と通信することもできる。更に他の実施形態では、FVVジェネレータ830によって実行されるような処理は、種々の深度カメラ810の内任意のものまたは全ての間で分散することもできる。
【0072】
[0080]
図9は、実施形態によるFVVジェネレータ830の模式図例である。FVVジェネレータ830は、メモリ920、ストレージ930、およびネットワーク・インターフェース940に結合された処理回路910を含む。他の実施形態では、FVVジェネレータ830のコンポーネントを、バス950を通じて、通信可能に接続することもできる。
【0073】
[0081] 処理回路910は、1つ以上のハードウェア・ロジック・コンポーネントおよび回路として実現することができる。例えば、そして限定ではなく、使用することができるハードウェア・ロジック・コンポーネントの例示的な種類には、フィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途集積回路(ASIC)、特定用途標準製品(ASSP)、システム・オン・チップ・システム(SOC)、汎用マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)等、あるいは計算または他の情報操作を実行することができる任意の他のハードウェア・ロジック・コンポーネントが含まれる。
【0074】
[0082] メモリ920は、揮発性(例えば、RAM等)、不揮発性(例えば、ROM、フラッシュ・メモリ等)、またはこれらの組み合わせでもよい。1つの構成では、本明細書において開示した1つ以上の実施形態を実現するためのコンピュータ読み取り可能命令をストレージ930に格納することもできる。
【0075】
[0083] 他の実施形態では、メモリ920はソフトウェアを格納するように構成される。ソフトウェアとは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはその他と呼ばれようとも、あらゆる型式の命令をも意味するように広く解釈されてしかるべきである。命令は、コードを含んでもよい(例えば、ソース・コード・フォーマット、二進コード・フォーマット、実行可能コード・フォーマット、または任意の他の適したコード・フォーマット)。命令は、処理回路910によって実行されると、本明細書において説明した種々のプロセスを実行するように、処理回路910を構成する。
【0076】
[0084] ストレージ930は、磁気ストレージ、光ストレージ等でもよく、例えば、フラッシュ・メモリまたは他のメモリ技術、CD-ROM、デジタル・バーサタイル・ディスク(DVD)、あるいは所望の情報を格納するために使用することができる任意の他の媒体として、実現することができる。
【0077】
[0085] ネットワーク・インターフェース940は、深度カメラから入力を受信する、FVVレンダを表示のために送る等というような目的のために、FVVジェネレータが、深度カメラ810、1つ以上のユーザ・デバイス、記録されたFVVコンテンツをホストする1つ以上のサーバ、またはこれらの組み合わせと通信することを可能にする。
【0078】
[0086] 尚、本明細書において説明した実施形態は、
図9に示す具体的なアーキテクチャに限定されるのではなく、開示した実施形態の範囲から逸脱することなく、他のアーキテクチャも等しく使用できることは理解されてしかるべきである。本明細書において開示した種々の実施形態は、ハードウェア、ファームウェア、ソフトウェア、またはこれらの任意の組み合わせとして実装することができる。更に、ソフトウェアは、アプリケーション・プログラムとして実装され、複数の部分からなる、あるいは特定のデバイスおよび/またはデバイスの組み合わせからなるプログラム記憶ユニットまたはコンピュータ読み取り可能媒体上に有形に具体化されることが好ましい。アプリケーション・プログラムは、アップロードされ、任意の適したアーキテクチャを備えるマシーン(machine)によって実行することができる。好ましくは、このマシーンは、1つ以上の中央処理ユニット(「CPU」)、メモリ、および入力/出力インターフェースのようなハードウェアを有するコンピュータ・プラットフォーム上に実装される。また、コンピュータ・プラットフォームは、オペレーティング・システムおよびマイクロ命令コードも含むことができる。本明細書において説明した種々のプロセスおよび機能は、マイクロ命令コードの一部、またはアプリケーション・プログラムの一部、またはこれらの組み合わせのいずれでもよく、このようなコンピュータまたはプロセッサが明示的に示されているか否かには関係なく、CPUによって実行することができる。加えて、追加のデータ記憶ユニットおよび印刷ユニットのような、種々の他の周辺ユニットも、コンピュータ・プラットフォームに接続することができる。更に、非一時的コンピュータ読み取り可能媒体とは、一時的伝搬信号を除く、任意のコンピュータ読み取り可能媒体である。
【0079】
[0087] 本明細書に記載した全ての例および条件付き言語(conditional language)は、開示した実施形態の原理、および当技術分野を発展させるために発明者によって寄稿された概念を、読者が理解するのを補助するという教育的目的を意図しており、このような具体的に記載された例および条件に限定されないものとして解釈されなければならない。更に、開示した実施形態の原理、態様、および実施形態、ならびにその具体的な例を記載する本明細書における全ての文章(statement)は、その構造的および機能的均等物双方を包含することを意図している。加えて、このような均等物は、現在知られている均等物および今後開発される均等物の双方、即ち、構造に関係なく、開発され同じ機能を実行するあらゆるエレメントを含むことを意図している。
【0080】
[0088] 尚、「第1」、「第2」等のような指定を使用して本明細書においてエレメントに言及するときはいつも、通常、これらのエレメントの分量も順序も限定するのではないことは理解されてしかるべきである。むしろ、これらの指定は、本明細書では、2つ以上のエレメントまたはエレメントの実例(instance)間で区別する便利な方法として、全体的に使用される。つまり、第1および第2エレメントに言及するとき、2つのエレメントのみがそこで採用されなければならないことも、何らかの方法で第1エレメントが第2エレメントに先立たなければならないことも意味するのではない。また、特に明記しない限り、1組のエレメントは1つ以上のエレメントを含む。
【0081】
[0089] 本明細書において使用する場合、品目の列挙の前に位置する「少なくとも1つの」という語句は、列挙した項目のいずれかを個別に利用できること、または列挙した項目の内2つ以上の任意の組み合わせを利用できること意味する。例えば、システムが「A、B、およびCの内少なくとも1つ」を含むと記載された場合、このシステムは、Aのみ、Bのみ、Cのみ、2つのA、2つのB、2つのC、3つのA、AおよびBの組み合わせ、BおよびCの組み合わせ、AおよびCの組み合わせ、A、B、およびCの組み合わせ、2つのAおよびCの組み合わせ、A、3つのB、および2つのCの組み合わせ等を含むことができる。