(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-05-28
(54)【発明の名称】3Dマイクロジオメトリ及び反射率モデリング
(51)【国際特許分類】
G06T 15/04 20110101AFI20240521BHJP
G06T 17/20 20060101ALI20240521BHJP
【FI】
G06T15/04
G06T17/20
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2023571954
(86)(22)【出願日】2022-06-03
(85)【翻訳文提出日】2023-11-20
(86)【国際出願番号】 IB2022055207
(87)【国際公開番号】W WO2022259110
(87)【国際公開日】2022-12-15
(32)【優先日】2021-06-08
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】000002185
【氏名又は名称】ソニーグループ株式会社
(71)【出願人】
【識別番号】523395937
【氏名又は名称】ソニー コーポレイション オブ アメリカ
(74)【代理人】
【識別番号】100092093
【氏名又は名称】辻居 幸一
(74)【代理人】
【識別番号】100109070
【氏名又は名称】須田 洋之
(74)【代理人】
【識別番号】100067013
【氏名又は名称】大塚 文昭
(74)【代理人】
【氏名又は名称】上杉 浩
(74)【代理人】
【識別番号】100141553
【氏名又は名称】鈴木 信彦
(72)【発明者】
【氏名】フ チェン
(72)【発明者】
【氏名】ガラヴィ-アルクハンサリ モハメド
(57)【要約】
3次元(3D)マイクロジオメトリ及び反射率モデリングのためのシステム及び方法を提供する。システムは、顔の第1の一連の画像及び顔の第2の一連の画像を含む画像を受け取る。第1の一連の画像及び第2の一連の画像の顔は、それぞれ無指向性照明及び指向性照明に曝されたものである。システムは、受け取った画像に基づいて3D顔メッシュを生成し、生成された3D顔メッシュ及び第2の一連の画像を使用することによって一連の皮膚反射率モデリング動作を実行して顔の一連のテクスチャマップを推定する。システムは、推定された一連のテクスチャマップに基づいて、生成された3D顔メッシュをテクスチャ化する。テクスチャ化は、推定された一連のテクスチャマップのマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を含むテクスチャ情報を生成された3D顔メッシュ上にマッピングする動作を含む。
【選択図】
図6
【特許請求の範囲】
【請求項1】
システムであって、
無指向性照明に曝された顔の第1の一連の画像と、指向性照明に曝された顔の第2の一連の画像とを含む複数の画像を受け取り、
前記受け取った複数の画像に基づいて3次元(3D)顔メッシュを生成し、
前記生成された3D顔メッシュ及び前記第2の一連の画像を使用することによって一連の皮膚反射率モデリング動作を実行して前記顔の一連のテクスチャマップを推定し、
前記推定された一連のテクスチャマップに基づいて、前記生成された3D顔メッシュをテクスチャ化する、
ように構成された回路を備え、
前記テクスチャ化は、前記推定された一連のテクスチャマップのマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を含むテクスチャ情報を前記生成された3D顔メッシュ上にマッピングする動作を含む、
ことを特徴とするシステム。
【請求項2】
3D構造上の対応する第1の複数の位置に配置された複数の撮像装置をさらに備え、前記回路は、前記複数の画像を対応する複数の視点から取り込むように前記複数の撮像装置を制御するよう構成される、
請求項1に記載のシステム。
【請求項3】
前記3D構造上の対応する第2の複数の位置に配置された一連のフラッシュ装置をさらに備え、前記回路は、
前記複数の撮像装置が前記第1の一連の画像を取り込んでいる間に前記一連のフラッシュ装置を同時に作動させ、
前記複数の撮像装置が前記第2の一連の画像を取り込んでいる間に前記一連のフラッシュ装置を順次パターンで作動させる、
ようにさらに構成される、請求項2に記載のシステム。
【請求項4】
前記指向性照明の光強度は、前記無指向性照明の光強度よりも高い、
請求項1に記載のシステム。
【請求項5】
前記回路は、
前記受け取った第1の一連の画像に基づいて第1の3D顔メッシュを生成し、
前記生成された第1の3D顔メッシュに一連のモデルクリーンアップ動作を適用して精緻化された第1の3D顔メッシュを取得し、
前記受け取った第2の一連の画像に基づいて第2の3D顔メッシュを生成し、
前記精緻化された第1の3D顔メッシュと前記生成された第2の3D顔メッシュとの間のアフィン変換を推定し、
前記精緻化された第1の3D顔メッシュに前記推定されたアフィン変換を適用して前記3D顔メッシュを生成する、
ようにさらに構成され、
前記生成された3D顔メッシュは、前記生成された第2の3D顔メッシュに剛体位置合わせされる、
請求項1に記載のシステム。
【請求項6】
前記回路は、
前記受け取った第1の一連の画像内の前記顔上の一連の符号化ターゲットの第1の位置を決定し、
前記受け取った第2の一連の画像内の前記顔上の前記一連の符号化ターゲットの第2の位置を決定し、
前記決定された第1の位置と前記決定された第2の位置との比較に基づいて前記アフィン変換を推定する、
ようにさらに構成される、請求項5に記載のシステム。
【請求項7】
前記回路は、
前記第2の一連の画像にホワイトバランス動作を適用して一連のホワイトバランス画像を生成し、
前記一連のホワイトバランス画像から鏡面情報を除去することによって一連の無鏡面画像を取得する、
ようにさらに構成され、
前記鏡面情報は、前記受け取った第2の一連の画像の各画像内の色情報を赤色-緑色-青色(RGB)空間からSUV色空間に変換することに基づいて除去される、
請求項1に記載のシステム。
【請求項8】
前記回路は、
前記生成された3D顔メッシュに基づいて前記顔のUV座標マップを決定し、
前記決定されたUV座標マップ上に前記一連の無鏡面画像をテクスチャマッピングすることによって前記顔の初期テクスチャマップを生成する、
ようにさらに構成される、請求項7に記載のシステム。
【請求項9】
前記一連の皮膚反射率モデリング動作は、拡散反射モデリング動作、鏡面分離動作、及び鏡面反射モデリング動作を含む、
請求項8に記載のシステム。
【請求項10】
前記回路は、
前記初期テクスチャマップに基づいて前記顔の拡散法線マップを生成し、
前記初期テクスチャマップ及び前記生成された拡散法線マップに基づいて前記顔の拡散アルベドマップを生成する、
ために前記拡散反射モデリング動作を実行するようにさらに構成され、
前記拡散アルベドマップは、前記推定された一連のテクスチャマップのうちの第1のテクスチャマップである、
請求項9に記載のシステム。
【請求項11】
前記回路は、前記生成された拡散法線マップ及び前記生成された拡散アルベドマップに基づいて前記第2の一連の画像から鏡面反射情報を分離するために前記鏡面分離動作を実行するように構成される、
請求項10に記載のシステム。
【請求項12】
前記回路は、前記分離された鏡面反射情報に基づいて前記顔の鏡面アルベドマップ、前記顔の鏡面法線マップ及び前記顔の粗さマップを生成するために前記鏡面反射モデリング動作を実行するように構成され、
前記鏡面アルベドマップ、前記鏡面法線マップ及び前記粗さマップは、前記推定された一連のテクスチャマップのうちの第2のテクスチャマップである、
請求項11に記載の方法。
【請求項13】
前記推定された一連のテクスチャマップは、前記顔の拡散アルベドマップ、前記顔の鏡面アルベドマップ、前記顔の鏡面法線マップ、及び前記顔の粗さマップを含む、
請求項1に記載のシステム。
【請求項14】
無指向性照明に曝された顔の第1の一連の画像と、指向性照明に曝された顔の第2の一連の画像とを含む複数の画像を受け取ることと、
前記受け取った複数の画像に基づいて3次元(3D)顔メッシュを生成することと、
前記生成された3D顔メッシュ及び前記第2の一連の画像を使用することによって一連の皮膚反射率モデリング動作を実行して前記顔の一連のテクスチャマップを推定することと、
前記推定された一連のテクスチャマップに基づいて、前記生成された3D顔メッシュをテクスチャ化することと、
を含み、
前記テクスチャ化は、前記推定された一連のテクスチャマップのマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を含むテクスチャ情報を前記生成された3D顔メッシュ上にマッピングする動作を含む、
ことを特徴とする方法。
【請求項15】
3D構造上の対応する第1の複数の位置に配置された複数の撮像装置を、前記複数の画像を対応する複数の視点から取り込むように制御することをさらに含む、
請求項14に記載の方法。
【請求項16】
前記複数の撮像装置が前記第1の一連の画像を取り込んでいる間に、前記3D構造上の対応する第1の複数の位置に配置された一連のフラッシュ装置を同時に作動させることと、
前記複数の撮像装置が前記第2の一連の画像を取り込んでいる間に前記一連のフラッシュ装置を順次パターンで作動させることと、
をさらに含む、請求項15に記載の方法。
【請求項17】
前記受け取った第1の一連の画像に基づいて第1の3D顔メッシュを生成することと、
前記生成された第1の3D顔メッシュに一連のモデルクリーンアップ動作を適用して精緻化された第1の3D顔メッシュを取得することと、
前記受け取った第2の一連の画像に基づいて第2の3D顔メッシュを生成することと、
前記精緻化された第1の3D顔メッシュと前記生成された第2の3D顔メッシュとの間のアフィン変換を推定することと、
前記精緻化された第1の3D顔メッシュに前記推定されたアフィン変換を適用して前記3D顔メッシュを生成することと、
をさらに含み、
前記生成された3D顔メッシュは、前記生成された第2の3D顔メッシュに剛体位置合わせされる、
請求項14に記載の方法。
【請求項18】
前記受け取った第1の一連の画像内の前記顔上の一連の符号化ターゲットの第1の位置を決定することと、
前記受け取った第2の一連の画像内の前記顔上の前記一連の符号化ターゲットの第2の位置を決定することと、
前記決定された第1の位置と前記決定された第2の位置との比較に基づいて前記アフィン変換を推定することと、
をさらに含む、請求項17に記載の方法。
【請求項19】
前記推定された一連のテクスチャマップは、前記顔の拡散アルベドマップ、前記顔の鏡面アルベドマップ、前記顔の鏡面法線マップ、及び前記顔の粗さマップを含む、
請求項14に記載の方法。
【請求項20】
コンピュータ実行可能命令を記憶した非一時的コンピュータ可読媒体であって、前記コンピュータ実行可能命令は、システムによって実行された時に、
無指向性照明に曝された顔の第1の一連の画像と、指向性照明に曝された顔の第2の一連の画像とを含む複数の画像を受け取ることと、
前記受け取った複数の画像に基づいて3次元(3D)顔メッシュを生成することと、
前記生成された3D顔メッシュ及び前記第2の一連の画像を使用することによって一連の皮膚反射率モデリング動作を実行して前記顔の一連のテクスチャマップを推定することと、
前記推定された一連のテクスチャマップに基づいて、前記生成された3D顔メッシュをテクスチャ化することと、
を含む動作を前記システムに実行させ、
前記テクスチャ化は、前記推定された一連のテクスチャマップのマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を含むテクスチャ情報を前記生成された3D顔メッシュ上にマッピングする動作を含む、
ことを特徴とする非一時的コンピュータ可読媒体。
【発明の詳細な説明】
【技術分野】
【0001】
〔関連出願との相互参照/引用による組み入れ〕
本出願は、2021年6月8日に米国特許商標庁において出願された米国特許出願第17/342,058号の優先権の利益を主張するものである。上記出願の各々はその全体が引用により本明細書に組み入れられる。
【0002】
本開示の様々な実施形態は、3次元(3D)モデリングに関する。具体的には、本開示の様々な実施形態は、3Dマイクロジオメトリ及び反射率モデリングのシステム及び方法に関する。
【背景技術】
【0003】
コンピュータグラフィックス分野の進歩は、フォトリアリスティックな3D顔モデリングのために人間の顔の3D形状及びテクスチャを推定する様々な技術の発展をもたらした。高忠実度3Dモデルは、娯楽業界、ゲーム業界、デザイン業界及びヘルスケア業界などの多くの業界に需要を有することができる。例えば、娯楽及びゲーム業界では、3D顔モデリングを利用してフォトリアリスティックな顔アニメーションを作成し、或いはゲームキャラクタの3Dフェイスを開発することができる。3Dモデリングに使用される従来の撮像設定は、一貫した照明条件を有していないことがある。この結果、従来の撮像設定によって取得された画像に基づいて構築された3Dモデルは、3Dモデルの3D形状に関連する不正確さを有していることがある。また、3Dモデルに含まれる表面レベルの詳細が、表面ジオメトリ及び表面反射の面で弱い場合がある。
【発明の概要】
【発明が解決しようとする課題】
【0004】
当業者には、説明したシステムと、本出願の残り部分において図面を参照しながら示す本開示のいくつかの態様とを比較することにより、従来の慣習的な手法の限界及び不利点が明らかになるであろう。
【課題を解決するための手段】
【0005】
実質的に少なくとも1つの図に関連して図示及び/又は説明し、特許請求の範囲にさらに完全に示すような、3次元(3D)マイクロジオメトリ及び反射率モデリングのシステム及び方法を提供する。
【0006】
全体を通じて同じ要素を同じ参照符号によって示す添付図面を参照しながら本開示の以下の詳細な説明を検討することにより、本開示のこれらの及びその他の特徴及び利点を理解することができる。
【図面の簡単な説明】
【0007】
【
図1】本開示の実施形態による、3次元(3D)マイクロジオメトリ及び反射率モデリングのための例示的なネットワーク環境を示すブロック図である。
【
図2】本開示の実施形態による、3Dマイクロジオメトリ及び反射率モデリングのための例示的なシステムを示すブロック図である。
【
図3】本開示の実施形態による、3Dマイクロジオメトリ及び反射率モデリングのための例示的な写真測量設定を示す図である。
【
図4A】本開示の実施形態による、無指向性照明条件下で取り込んだ画像例を示す図である。
【
図4B】本開示の実施形態による、指向性照明条件下で取り込んだ画像例を示す図である。
【
図5A】本開示の実施形態による、3Dマイクロジオメトリ及び反射率モデリングの例示的な動作を
図5B~
図5Dと共に示す図である。
【
図5B】本開示の実施形態による、3Dマイクロジオメトリ及び反射率モデリングの例示的な動作を
図5A、
図5C及び
図5Dと共に示す図である。
【
図5C】本開示の実施形態による、3Dマイクロジオメトリ及び反射率モデリングの例示的な動作を
図5A、
図5B及び
図5Dと共に示す図である。
【
図5D】本開示の実施形態による、3Dマイクロジオメトリ及び反射率モデリングの例示的な動作を
図5A~
図5Cと共に示す図である。
【
図6】本開示の実施形態による、3Dマイクロジオメトリ及び反射率モデリングのための例示的な方法を示すフローチャートである。
【発明を実施するための形態】
【0008】
3次元(3D)マイクロジオメトリ及び反射率モデリングのための開示するシステム及び方法では、後述する実装を見出すことができる。本開示の例示的な態様は、複数の画像を受け取るように構成できるシステム及び方法を提供する。複数の画像は、顔の第1の一連の画像及び顔の第2の一連の画像を含むことができる。ある実施形態によれば、システムは、人間被験者の顔の複数の画像を複数の視点から取り込むように複数の撮像装置を制御することができる。いくつかの実施形態では、システムが、複数の撮像装置が第1の一連の画像を取り込んでいる間に一連のフラッシュ装置を同時に作動させることができる。第1の一連の画像内の顔は、無指向性照明に曝されたものであることができる。さらに、システムは、複数の撮像装置が第2の一連の画像を取り込んでいる間に一連のフラッシュ装置を順次に作動させることができる。第2の一連の画像内の顔は、指向性照明に曝されたものであることができる。
【0009】
システムは、受け取った複数の画像に基づいて3D顔メッシュを生成するように構成することができる。システムは、顔の一連のテクスチャマップを推定するために、生成された3D顔メッシュと第2の一連の画像とを使用することによって一連の皮膚反射率モデリング動作(skin-reflectance modeling operations)を実行することができる。ある実施形態によれば、一連の皮膚反射率モデリング動作は、拡散反射モデリング動作(diffused reflection modeling operation)、鏡面分離動作(specular separation operation)、及び鏡面反射モデリング動作(specular reflection modeling operation)を含むことができる。いくつかの実施形態では、システムが、人間被験者の顔の拡散法線マップ(diffuse normal map)及び顔の拡散アルベドマップ(diffuse albedo map)を生成するために(例えば、ランバート光モデル(Lambertian light model)に基づいて)拡散反射モデリング動作を実行することができる。拡散アルベドマップは、推定された一連のテクスチャマップのうちの第1のテクスチャマップとすることができる。1又は2以上の実施形態では、システムが、生成された拡散法線マップ及び生成された拡散アルベドマップに基づいて第2の一連の画像から鏡面反射情報を分離するために鏡面分離動作を実行することができる。いくつかの実施形態では、システムが、顔の鏡面アルベドマップ(specular albedo map)、顔の鏡面法線マップ(specular normal map)、及び顔の粗さマップ(roughness map)を生成するために(例えば、ブリンフォン光モデル(Blinn-Phong light model)に基づいて)鏡面反射モデリング動作を実行することができる。鏡面アルベドマップ、鏡面法線マップ及び粗さマップは、推定された一連のテクスチャマップのうちの第2のテクスチャマップと呼ぶことができる。システムは、(第1のテクスチャマップ及び第2のテクスチャマップなどの)推定された一連のテクスチャマップに基づいて、生成された3D顔メッシュをテクスチャ化(texturize)することができる。テクスチャ化は、推定された一連のテクスチャマップ内のマイクロジオメトリ皮膚詳細(microgeometry skin details)及び皮膚反射率詳細(skin reflectance details)を含むテクスチャ情報を生成された3D顔メッシュ上にマッピングすることを含むことができる。
【0010】
いくつかの従来の方法では、顔の画像が無指向性照明でしか取得されないことがある。従って、このような画像は、高忠実度3Dモデルの生成のための正確なテクスチャマップを生成するのに必要な情報を十分に有していないことがある。一方で、本開示のシステムは、無指向性照明及び指向性照明の両方で画像を取り込むように複数の撮像装置を制御して一連のフラッシュ装置を作動させることができる。無指向性照明下での画像は、顔の正確な3D形状を推定するために使用することができ、指向性照明下での画像は、(毛穴レベルの詳細、隆起、しわなどの)マイクロジオメトリ皮膚詳細及び(鏡面アルベド、粗さなどの)皮膚反射率詳細の両方を含むテクスチャマップを推定するために使用することができる。システムは、正確な3D形状マップ及びテクスチャマップの両方を利用して、高忠実度かつフォトリアリスティックな顔の3Dモデルを生成することができる。
【0011】
図1は、本開示の実施形態による、3次元(3D)マイクロジオメトリ及び反射率モデリングのための例示的なネットワーク環境を示すブロック図である。
図1にはネットワーク環境100を示す。ネットワーク環境100は、システム102、複数の撮像装置104、一連のフラッシュ装置106、及び通信ネットワーク108を含むことができる。システム102、複数の撮像装置104及び一連のフラッシュ装置106は、通信ネットワーク108を介して互いに通信するように構成することができる。ネットワーク環境100には、例えば人物の顔110を示す。複数の撮像装置104は、顔110の第1の一連の画像114及び第2の一連の画像116を含む複数の画像112を取得することができる。
【0012】
システム102は、人物の顔110に関連する(第1の一連の画像114及び第2の一連の画像116などの)複数の画像112を受け取るように構成できる好適なロジック、回路及びインターフェイスを含むことができる。システム102は、受け取った複数の画像112に基づいて3D顔メッシュ118を生成し、一連の皮膚反射率モデリング動作を実行して、生成された3D顔メッシュ118のテクスチャ化のためのテクスチャマップを生成するようにさらに構成することができる。テクスチャ化は、3D顔メッシュ118上にマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を生成することができる。システム102の例としては、以下に限定するわけではないが、メインフレームマシン、サーバ、コンピュータワークステーション、(ゲーム機などの)ゲーム装置、(eXtended Reality(XR)ヘッドセットなどの)ヘッドマウントディスプレイ、ウェアラブルディスプレイ装置、消費者向け電子(CE)装置、又はモバイルコンピュータを挙げることができる。
【0013】
複数の撮像装置104は、人物の顔110の複数の画像112を対応する複数の視点から取り込むように構成できる好適なロジック、回路及びインターフェイスを含むことができる。複数の撮像装置104は、取り込んだ複数の画像112をシステム102に送信するようにさらに構成することができる。撮像装置の例としては、以下に限定するわけではないが、イメージセンサ、広角カメラ、アクションカメラ、カムコーダ、(デジタル一眼レフカメラ(DSLR)又はデジタル一眼ミラーレス(DSLM)などの)デジタルカメラ、カメラ付き携帯電話機、及び/又は複数のフォーマット及び異なるフレームレートで画像を取り込む能力を有するいずれかの画像取り込み装置を挙げることができる。
【0014】
一連のフラッシュ装置106は、システム102によって生成されたトリガー信号に基づいて光のフラッシュを生成するように構成することができる。光のフラッシュは、人物の顔110を照明するように生成することができる。一連のフラッシュ装置106の例としては、以下に限定するわけではないが、内蔵及びポップアップカメラフラッシュ装置、専用カメラフラッシュ装置、マクロリングライトカメラフラッシュ装置(macro ring light camera flash unit)、及びハンマーヘッドカメラフラッシュ装置(hammerhead camera flash unit)を挙げることができる。
【0015】
なお、本開示は、システム102から分離した装置としての複数の撮像装置104及び一連のフラッシュ装置の実装に限定されるものではない。従って、いくつかの実施形態では、本開示の範囲から逸脱することなく、複数の撮像装置104及び一連のフラッシュ装置をシステム102に含めることもできる。
【0016】
通信ネットワーク108は、システム102、複数の撮像装置104及び一連のフラッシュ装置106が互いに通信できるようにする通信媒体を含むことができる。通信ネットワーク108は、有線接続又は無線接続のいずれかであることができる。通信ネットワーク108の例としては、以下に限定するわけではないが、インターネット、クラウドネットワーク、(ロングタームエボリューション及び5G新無線などの)セルラー又は無線モバイルネットワーク、ワイヤレスフィデリティ(Wi-Fi)ネットワーク、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、又はメトロポリタンエリアネットワーク(MAN)を挙げることができる。ネットワーク環境100内の様々な装置は、様々な有線及び無線通信プロトコルに従って通信ネットワーク108に接続するように構成することができる。このような有線及び無線通信プロトコルの例としては、以下に限定するわけではないが、伝送制御プロトコル及びインターネットプロトコル(TCP/IP)、ユーザデータグラムプロトコル(UDP)、ハイパーテキスト転送プロトコル(HTTP)、ファイル転送プロトコル(FTP)、ZigBee、EDGE、IEEE802.11、ライトフィデリティ(Li-Fi)、802.16、IEEE802.11s、IEEE802.11g、マルチホップ通信、無線アクセスポイント(AP)、装置間通信、セルラー通信プロトコル及びBluetooth(BT)通信プロトコルのうちの少なくとも1つを挙げることができる。
【0017】
システム102は、動作時に、複数の画像112を対応する複数の視点から取り込むように複数の撮像装置104を制御するよう構成することができる。複数の撮像装置104は、3D構造上の対応する第1の複数の位置に配置することができる。例えば、3D構造は、少なくとも1人の人物を収容するのに十分な空間を提供するドーム型のケージ構造とすることができる。一連のフラッシュ装置106は、3D構造上の対応する一連の複数の位置に配置することができる。各撮像装置及び各フラッシュ装置は、3D構造の空間内の人物を複数の視点から取り囲むように3D構造上に配置することができる。このような配置の例を
図3に示す。
【0018】
一連のフラッシュ装置106は、複数の撮像装置104が顔110の複数の画像112を取り込んでいる期間内に作動することができる。限定ではなく一例として、一連のフラッシュ装置106は、定められた期間(~1.5秒)内に2つのカメラショットのために作動することができる。第1のショットでは、複数の撮像装置104が第1の一連の画像114を取り込んでいる間に、一連のフラッシュ装置106を同時に作動させて顔110を無指向性照明に曝すことができる。第2のショットでは、複数の撮像装置104が第2の一連の画像116を取り込んでいる間に、一連のフラッシュ装置106を順次パターンで作動させて顔110を指向性照明に曝すことができる。複数の画像112を取り込む詳細については、例えば
図3にさらに示す。
【0019】
システム102は、いずれかの時点に複数の撮像装置104から(第1の一連の画像114及び第2の一連の画像116を含むことができる)複数の画像112を受け取るように構成することができる。ある実施形態では、システム102が、様々なソースからの画像のリポジトリを維持するサーバから複数の画像112を受け取ることができる。第1の一連の画像114の顔110は無指向性照明に曝されたものであることができ、第2の一連の画像116の顔110は指向性照明に曝されたものであることができる。
【0020】
ある実施形態によれば、システム102は、受け取った第1の一連の画像114に基づいて第1の3D顔メッシュを生成するようにさらに構成することができる。第1の3D顔メッシュは、顔110の未加工3Dスキャンとすることができ、スパイク又は尖ったエッジ、大小の穴、及びその他の形状異常などのアーチファクトを含むことができる。システム102は、生成された第1の3D顔メッシュに一連のモデルクリーンアップ動作を適用して、精緻化された第1の3D顔メッシュを取得するように構成することができる。限定ではなく一例として、このようなモデルクリーンアップ動作は、第1の3D顔メッシュからアーチファクトを除去するために適用することができる。システム102は、受け取った第2の一連の画像116に基づいて第2の3D顔メッシュをさらに生成することができる。2D画像からの3D顔メッシュの3D再構成には、当業者に周知と考えられる多くの技術が存在する。例えば、第1の3D顔メッシュ及び第2の3D顔メッシュは、いずれも(多視点画像からの3次元形状復元(structure from motion:SfM)などの)写真測量ベースの方法、立体画像を必要とする方法、又は(陰影画像からの形状推定法(shape from shading:SfS)、フォトメトリックステレオ法、又はテクスチャ画像からの形状推定法(shape from texture:SfT)などの)単眼手掛かりを必要とする方法を使用して生成することができる。このような方法の詳細については、簡潔にするために本開示からは省略している。
【0021】
システム102は、精緻化された第1の3D顔メッシュと生成された第2の3D顔メッシュとの間のアフィン変換を推定することができる。その後、システム102は、精緻化された第1の3D顔メッシュに推定されたアフィン変換を適用して3D顔メッシュ118を生成することができる。生成された3D顔メッシュは、生成された第2の3D顔メッシュに剛体位置合わせ(rigid align)して非テクスチャ化(un-texture)することができる。3D顔メッシュ118の生成の詳細については、例えば
図5A及び
図5Bにさらに示す。
【0022】
システム102は、生成された3D顔メッシュ118及び第2の一連の画像116を使用することによって一連の皮膚反射率モデリング動作を実行して顔110の一連のテクスチャマップを推定することができる。ある実施形態によれば、一連の皮膚反射率モデリング動作は、拡散反射モデリング動作、鏡面分離動作、及び鏡面反射モデリング動作を含むことができる。一連の皮膚反射率モデリング動作の実行の詳細については、例えば
図5C及び
図5Dに示す。
【0023】
システム102は、推定された一連のテクスチャマップに基づいて、生成された3D顔メッシュ118をテクスチャ化することができる。テクスチャ化は、推定された一連のテクスチャマップのマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を含むテクスチャ情報を生成された3D顔メッシュ118上にマッピングする動作を含むことができる。生成された3D顔メッシュ118のテクスチャ化の詳細については、例えば
図5Dにさらに示す。
【0024】
図2は、本開示の実施形態による、3Dマイクロジオメトリ及び反射率モデリングのための例示的なシステムを示すブロック図である。
図2の説明は、
図1の要素に関連して行う。
図2にはシステム102のブロック
図200を示す。システム102は、回路202、メモリ204、入力/出力(I/O)装置206、及びネットワークインターフェイス208を含むことができる。回路202は、メモリ204、I/O装置206及びネットワークインターフェイス208に通信可能に結合することができる。
【0025】
回路202は、システム102によって実行される異なる動作に関連するプログラム命令を実行するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。回路202は、それぞれ独立したプロセッサとして実装できる1又は2以上の特殊処理ユニットを含むことができる。ある実施形態では、1又は2以上の特殊処理ユニットを、1又は2以上の特殊処理ユニットの機能をまとめて実行する統合プロセッサ又はプロセッサ群として実装することができる。回路202は、当業で周知の複数のプロセッサ技術に基づいて実装することができる。回路202の実装例としては、以下に限定するわけではないが、x86ベースのプロセッサ、x64ベースのプロセッサ、グラフィックプロセッシングユニット(GPU)、縮小命令セットコンピューティング(RISC)プロセッサ、特定用途向け集積回路(ASIC)プロセッサ、(視覚処理ユニット(VPU)などの)コプロセッサ、複合命令セットコンピューティング(CISC)プロセッサ、マイクロコントローラ、中央処理装置(CPU)、及び/又はこれらの組み合わせを挙げることができる。
【0026】
メモリ204は、回路202によって実行されるプログラム命令を記憶するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。メモリ204は、(第1の一連の画像114及び第2の一連の画像116を含む)複数の画像112を記憶するように構成することができる。メモリ204は、生成された3D顔メッシュ118及び推定された一連のテクスチャマップを記憶するように構成することもできる。メモリ204の実装例としては、以下に限定するわけではないが、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、電気的に消去可能なプログラマブルリードオンリメモリ(EEPROM)、ハードディスクドライブ(HDD)、固体ドライブ(SSD)、CPUキャッシュ、及び/又はセキュアデジタル(SD)カードなどを挙げることができる。
【0027】
I/O装置206は、ユーザからの入力を受け取り、受け取った入力に基づいて出力を提供するように構成できる好適なロジック、回路及びインターフェイスを含むことができる。様々な入力/出力装置を含むことができるI/O装置206は、回路202と通信するように構成することができる。例えば、システム102は、I/O装置206を介して、複数の画像112を取り込むように複数の撮像装置104を制御するためのユーザ入力を受け取ることができる。ディスプレイなどのI/O装置206は、生成された3D顔メッシュ118、推定された一連のテクスチャマップ又はテクスチャ化された3D顔メッシュなどの入力及び/又は出力をレンダリングすることができる。I/O装置206の例としては、以下に限定するわけではないが、タッチ画面、ディスプレイ装置、キーボード、マウス、ジョイスティック、マイク、及びスピーカを挙げることができる。
【0028】
ネットワークインターフェイス208は、通信ネットワーク108を介した回路202、複数の撮像装置104及び一連のフラッシュ装置106間の通信を容易にするように構成できる好適なロジック、回路及びインターフェイスを含むことができる。ネットワークインターフェイス208は、様々な既知の技術を使用してシステム102と通信ネットワーク108との有線又は無線通信をサポートするように実装することができる。ネットワークインターフェイス208は、以下に限定するわけではないが、アンテナ、無線周波数(RF)トランシーバ、1又は2以上の増幅器、チューナ、1又は2以上の発振器、デジタルシグナルプロセッサ、コーダ-デコーダ(CODEC)チップセット、加入者識別モジュール(SIM)カード、又はローカルバッファ回路を含むことができる。
【0029】
ネットワークインターフェイス208は、インターネット、イントラネット、或いはセルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)及びメトロポリタンエリアネットワーク(MAN)などの無線ネットワークなどのネットワークとの有線又は無線通信を可能にするように構成することができる。無線通信は、グローバルシステムフォーモバイルコミュニケーションズ(GSM)、拡張データGSM環境(EDGE)、広帯域符号分割多重アクセス(W-CDMA)、ロングタームエボリューション(LTE)、5G NR、符号分割多重アクセス(CDMA)、時分割多重アクセス(TDMA)、Bluetooth、(IEEE802.11a、IEEE802.11b、IEEE802.11g又はIEEE802.11nなどの)ワイヤレスフィデリティ(WiFi)、ボイスオーバーインターネットプロトコル(VoIP)、ライトフィデリティ(Li-Fi)、ワールドワイド・インターオペラビリティ・フォー・マイクロウェーブ・アクセス(Wi-MAX)、電子メール用プロトコル、インスタントメッセージ、及びショートメッセージサービス(SMS)などの複数の通信標準、プロトコル及び技術のうちの1つ又は2つ以上を使用するように構成することができる。
【0030】
図1で説明したようなシステム102によって実行される機能又は動作は回路202によって実行することができる。回路202によって実行される動作については、例えば
図3、
図4A、
図4B、
図5A、
図5B、
図5C及び
図5Dで詳細に説明する。
【0031】
図3は、本開示の実施形態による、3Dマイクロジオメトリ及び反射率モデリングのための例示的な写真測量設定(photogrammetry setup)を示す図である。
図3の説明は、
図1及び
図2の要素に関連して行う。
図3には、3D構造302、複数の撮像装置104、一連のフラッシュ装置306、及び一連のディフューザ308を含む
図300を示す。
図300には、3D構造302の内部に座っている人物310も示す。
【0032】
複数の撮像装置104は、3D構造302上の対応する第1の複数の位置に配置する(又は取り付ける)ことができる。図示のように、例えば3D構造302は、人物310又は少なくとも人物310の顔を含むのに十分な空間を有するドーム型の照明リグ(lighting rig)とすることができる。複数のフラッシュ装置306及び一連のディフューザ308は、3D構造302上の対応する第2の複数の位置及び対応する第3の複数の位置にそれぞれ配置し又は取り付けることができる。3D構造302における複数の撮像装置104、一連のフラッシュ装置106及び一連のディフューザ308の配置は、各撮像装置、フラッシュ装置及びディフューザが特定の視点から人物310の顔312の方に向いているようなものであることができる。撮像装置は、第1の視点から顔312の画像を取得することができ、フラッシュ装置は、(第1の視点と同じ視点又は異なる視点であることができる)第2の視点から顔312を照明することができる。
【0033】
図300には、人物310の(額などの)顔312に配置された一連の符号化ターゲット314を示す。いくつかの事例では、このような符号化ターゲット314が一意のコード又は識別子を含むことができ、これらの各コード又は識別子は、取り込まれた複数の画像112の各々において顔312の一部の位置を一意的に識別するのに役立つことができる。例えば、一連の符号化ターゲット314は、顔312上に配置された時に複数の撮像装置に対して異なる角度で見えることができる。特定の符号化ターゲットのコード値が異なる視点からの複数の画像内で識別される場合には、各画像内の符号化ターゲットの位置を顔312の共通部分に対して参照することができる。
【0034】
回路202は、複数の画像112を対応する複数の視点から取り込むように複数の撮像装置104を制御するよう構成することができる。限定ではなく一例として、回路202は、複数の撮像装置104を、第1の瞬間に第1の画像114を取り込むように制御するとともに、第2の瞬間に第2の一連の画像116を取り込むようにさらに制御することができる。第1の瞬間と第2の瞬間との間には、約1.5秒の時間差が存在することができる。
【0035】
ある実施形態では、回路202を、複数の撮像装置104が第1の瞬間に第1の一連の画像114を取り込んでいる間に一連のフラッシュ装置106を同時に作動させるように構成することができる。一連のフラッシュ装置106内のフラッシュ装置の数は、複数の撮像装置104の数以下であることができる。一連のフラッシュ装置106の同時作動は、3D構造302内の照明が無指向性であることを可能にすることができる。無指向性照明は、人物310の顔312が均一に照明されることを可能にすることができる。第1の一連の画像114は、無指向性照明に曝された人物310の顔312の画像を含むことができる。第1の一連の画像114は、人物310の顔312の(3D顔メッシュ118などの)正確な3D顔メッシュを生成するために利用することができる。
【0036】
ある実施形態では、回路202が、複数の撮像装置104が第2の瞬間に第2の一連の画像404を取り込んでいる間に一連のフラッシュ装置106を順次パターンでさらに作動させることができる。一連のフラッシュ装置106の順次的作動は、3D構造302内の照明が指向性であることを可能にすることができる。指向性照明は、各画像内の人物310の顔312を部分的に照明することができる。ある実施形態によれば、指向性照明の光強度は、無指向性照明の光強度よりも高いことができる。無指向性照明の光強度を減少させると、人物310の顔312に当たる照明量を減少させることができる。複数の撮像装置104が顔312の画像を取り込んでいる間は、一連のディフューザ308を利用して顔312に当たる照明の影響を和らげることができる。
【0037】
いくつかのシナリオでは、撮像装置の(シャッターの作動などの)制御の時点と、撮像装置が(複数の画像112のうちの)画像を取り込む時点との間の差分に起因して、各撮像装置が関連する遅延を有することができる。このような時間の遅れは、複数の撮像装置104のハードウェア制約に起因することができる。回路202は、各撮像装置が直面する遅延に一致する設定間隔で各フラッシュ装置を順次パターンで作動させることができる。ある実施形態では、回路202が、(複数の撮像装置104のうちの)第1の一群の撮像装置が第2の一連の画像116のうちの1又は2以上の第1の画像を取り込んでいる間に、一連のフラッシュ装置106のうちの第1のフラッシュ装置のサブセットを作動させることができる。回路202は、(複数の撮像装置104のうちの)第2の一群の撮像装置が第2の一連の画像116のうちの1又は2以上の第2の画像を取り込んでいる間に、一連のフラッシュ装置106の第2のフラッシュ装置のサブセットを作動させることができる。第2の一連の画像116は、人物310の顔312のマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を取り込むために利用することができる。
【0038】
図4Aに、本開示の実施形態による、無指向性照明条件下で取り込まれた画像例を示す。
図4Aの説明は、
図1、
図2及び
図3の要素に関連して行う。
図4Aには、第1の一連の画像402を含む
図400Aを示す。第1の一連の画像402は、複数の撮像装置304が第1の瞬間に生成することができる。第1の一連の画像402は、対応する複数の視点からの人物310の顔312を含むことができる。第1の一連の画像402の顔312は、無指向性照明に曝されたものであることができる。例えば、第1の画像は顔312の左側ビューを含むことができ、第2の画像は顔312の右側ビューを含むことができ、第3の画像は顔312の正面ビューを含むことができる。第1の一連の画像402の画像の数は、第1の瞬間に第1の一連の画像402を取り込むように制御できる撮像装置の数に依存することができる。限定ではなく一例として、撮像装置の数は24であることができ、第1の一連の画像402の画像の数も24であることができる。
【0039】
図4Bに、本開示の実施形態による、指向性照明条件下で取り込まれた画像例を示す。
図4Bの説明は、
図1、
図2、
図3及び
図4Aの要素に関連して行う。
図4Bには、第2の一連の画像404を含む
図400Bを示す。第2の一連の画像404は、複数の撮像装置304が第2の瞬間に出力することができる。第2の一連の画像404は、対応する複数の視点からの人物310の顔312を含むことができる。第2の一連の画像404の顔312は、指向性照明に曝されたものであることができる。例えば、第1の画像は顔312の左側ビューを含むことができ、第2の画像は顔312の右側ビューを含むことができ、第3の画像は顔312の正面ビューを含むことができる。第2の一連の画像404の画像の数は、撮像装置の数に依存することができる。例えば、撮像装置の数は24であることができ、第2の一連の画像404の画像の数も24であることができる。
【0040】
図5A、
図5B、
図5C及び
図5Dに、本開示の実施形態による、3Dマイクロジオメトリ及び反射率モデリングのための例示的な動作を集合的に示す。
図5A、
図5B、
図5C及び
図5Dには、本明細書で説明する502~526の例示的な動作を示すブロック
図500を示す。ブロック
図500に示す例示的な動作は502から開始することができ、
図1のシステム102又は
図2の回路202などのいずれかのコンピュータシステム、装置又はデバイスによって実行することができる。ブロック
図500の1又は2以上のブロックに関連する例示的な動作については離散ブロックで示しているが、これらは例示的な動作の実装に応じてさらなるブロックに分割し、より少ないブロックに結合し、又は削除することもできる。
【0041】
502において、複数の画像112を受け取ることができる。ある実施形態によれば、回路202は、複数の撮像装置304から複数の画像112を受け取るように構成することができる。複数の画像112は、第1の一連の画像402及び第2の一連の画像404を含むことができる。例えば、第1の一連の画像402は、第1の画像402A、第2の画像402B、第3の画像402C、及び第Nの画像402Nを含むことができる。第2の一連の画像404は、第1の画像404A、第2の画像404B、第3の画像404C、及び第Nの画像404Nを含むことができる。第1の一連の画像402及び第2の一連の画像404は、人物310の顔312を含むことができる。第1の一連の画像402内の顔312は無指向性照明に曝されたものであることができ、第2の一連の画像404内の顔312は指向性照明に曝されたものであることができる。
【0042】
504において、受け取った第1の一連の画像402に基づいて第1の3D顔メッシュ504Aを生成することができる。ある実施形態によれば、回路202は、受け取った第1の一連の画像402に基づいて第1の3D顔メッシュ504Aを生成するように構成することができる。2D画像からの3D顔メッシュの3D再構成には、当業者に周知と考えられる多くの技術が存在する。例えば、第1の3D顔メッシュ504Aは、(多視点画像からの3次元形状復元(SfM)などの)写真測量ベースの方法、(動きからの構造(SfM)など)、立体画像を必要とする方法、又は(陰影画像からの形状推定法(SfS)、フォトメトリックステレオ法、又はテクスチャ画像からの形状推定法(SfT)などの)単眼手掛かりを必要とする方法を使用して生成することができる。このような方法の詳細については、簡潔にするために本開示からは省略している。
【0043】
ある実施形態では、第1の3D顔メッシュ504Aが人物310の顔312の未加工3Dスキャンであることができ、尖ったエッジ(すなわち、大きな二面角を有するエッジ)、スパイク、又は穴(大小のサイズ)などのアーチファクトを含むことができる。本明細書で説明するように、第1の3D顔メッシュ504Aを精緻化するために一連のモデルクリーンアップ動作を実行することができる。
【0044】
506において、生成された第1の3D顔メッシュ504Aに一連のモデルクリーンアップ動作を適用して、精緻化された第1の3D顔メッシュ506Aを取得することができる。ある実施形態によれば、回路202は、生成された第1の3D顔メッシュ504Aに一連のモデルクリーンアップ動作を適用して、精緻化された第1の3D顔メッシュ506Aを取得するように構成することができる。ある実施形態では、一連のモデルクリーンアップ動作が、第1の3D顔メッシュ504Aから望ましくない領域を除去すること、第1の3D顔メッシュ504A内の(空きスペースなどの)小さな穴を満たすこと、及び第1の3D顔メッシュ504Aからスパイクを除去することを含むことができる。
【0045】
第1の3D顔メッシュ504A上の(人物310の顔312の一部ではない可能性がある)誤った推定ポリゴンなどの望ましくない領域は除去することができる。第1の3D顔メッシュ504Aには、いくつかの空きスペース又は穴(すなわち、ポリゴンが存在しない十分に大きなスペース)が存在することがある。このような穴は、第1の3D顔メッシュ504Aの忠実度に影響を与える恐れがある。従って、例えば第1の3D顔メッシュ504A内の穴の近傍のノードの配置又は形状に依拠する好適な予測法を使用して、このような望ましくない穴を除去することができる。いくつかの事例では、いくつかの場所における誤った深さの推定によって、第1の3D顔メッシュ504A上に望ましくないスパイクが生じることがある。回路202は、第1の3D顔メッシュ504A上のこのような望ましくないスパイクを除去又は平滑化して、精緻化された第1の3D顔メッシュ506Aを取得することができる。
【0046】
508において、受け取った第2の一連の画像404に基づいて第2の3D顔メッシュ508Aを生成することができる。ある実施形態によれば、回路202は、受け取った第2の一連の画像404に基づいて第2の3D顔メッシュ508Aを生成するように構成することができる。第1の3D顔メッシュ504Aと同様に、第2の3D顔メッシュ508Aも、(多視点画像からの3次元形状復元(SfM)などの)写真測量ベースの方法、(動きからの構造(SfM)など)、立体画像を必要とする方法、又は(陰影画像からの形状推定法(SfS)、フォトメトリックステレオ法、又はテクスチャ画像からの形状推定法(SfT)などの)単眼手掛かりを必要とする方法を使用して生成することができる。このような方法の詳細については、簡潔にするために本開示からは省略している。
【0047】
第2の3D顔メッシュ508Aは、人物310の顔312の未加工3Dスキャンであることができ、1又は2以上のアーチファクトを含むことができる。ある実施形態によれば、第2の3D顔メッシュ508Aをさらに精緻化することができる。回路202は、第2の3D顔メッシュ508Aに(506で説明したような)一連のモデルクリーンアップ動作を適用することに基づいて、生成された第2の3D顔メッシュ508Aを精緻化することができる。
【0048】
510において、精緻化された第1の3D顔メッシュ506Aと生成された第2の3D顔メッシュ508Aとの間のアフィン変換を推定することができる。回路202は、精緻化された第1の3D顔メッシュ506Aと生成された第2の3D顔メッシュ508Aとの間のアフィン変換を推定するように構成することができる。ある実施形態によれば、アフィン変換は、一連の符号化ターゲット314に基づいて推定することができる。限定ではなく一例として、回路202は、受け取った第1の一連の画像402内の一連の符号化ターゲット314の第1の位置を決定するように構成することができる。回路202は、受け取った第2の一連の画像404内の顔312上の一連の符号化ターゲット314の第2の位置をさらに決定することができる。アフィン変換は、決定された第1の位置と決定された第2の位置との比較に基づいて推定することができる。
【0049】
最初は、精緻化された第1の3D顔メッシュ506A及び第2の3D顔メッシュがいずれも剛体位置合わせされていないことがあるので、精緻化された第1の3D顔メッシュ506A及び第2の3D顔メッシュ508Aの対応するノード間の差分がゼロでない場合がある。この差分は、例えばL1又はL2ノルムを使用して計算することができる。図示のように、例えばヒートマップ510Aは、精緻化された第1の3D顔メッシュ506Aと生成された第2の3D顔メッシュ508Aとの間のノード毎の差分を表す。ヒートマップ510Aの左半分の点は、2つのメッシュの対応するノード間の差分がヒートマップ510Aの右半分の点と比べて大きいことを表す。
【0050】
512において、精緻化された第1の3D顔メッシュ506Aに推定されたアフィン変換を適用することができる。ある実施形態によれば、回路202は、精緻化された第1の3D顔メッシュ506Aに推定されたアフィン変換を適用して3D顔メッシュ512Aを生成するように構成することができる。生成された3D顔メッシュ512Aは、生成された第2の3D顔メッシュ508Aに剛体位置合わせすることができる。
【0051】
アフィン変換は、回転値及び並進値の行列を含むことができる。この行列に基づいて、精緻化された第1の3D顔メッシュ506Aの相対的位置及び配向を、第2の3D顔メッシュ508Aの相対的位置及び配向に一致するように更新することができる。図示のように、例えばヒートマップ510Bは、3D顔メッシュ512Aと生成された第2の3D顔メッシュ508Aとの間のノード毎の差分を表す。ヒートマップ510Bの顔領域上の全ての点は、3D顔メッシュ512A及び生成された第2の3D顔メッシュ508Aの対応するノード間の差分がゼロに近いことを表す。従って、ヒートマップ510Bは、3D顔メッシュ512A及び生成された第2の3D顔メッシュ508Aの両方を剛体位置合わせできることを示す。
【0052】
514において、第2の一連の画像404にホワイトバランス動作を適用して一連のホワイトバランス画像(white-balanced images)を生成することができる。第2の一連の画像404の異なる画像では、照明変動に起因して顔312の色がわずかに異なることがある。ホワイトバランス動作を適用して、第2の一連の画像404の全部又は一部の画像内の顔312の皮膚の色を補正することができる。ある実施形態によれば、回路202は、第2の一連の画像404にホワイトバランス動作を適用して一連のホワイトバランス画像を生成するように構成することができる。その後、回路202は、一連のホワイトバランス画像から鏡面情報(specular information)を除去することによって(第1の無鏡面画像(specular-less image)514A及び第2の無鏡面画像514Bなどの)一連の無鏡面画像を取得することができる。鏡面情報を除去することで、一連のホワイトバランス画像内の人物310の顔312からハイライトを除去することができる。鏡面情報は、一連のホワイトバランス画像の各画像内の色情報を赤色-緑色-青色(RGB)空間からSUV色空間に変換することに基づいて除去することができる。RGB空間からの色情報は、RGB空間のRGB座標ベクトルの回転によってSUV色空間に変換することができる。
【0053】
516において、生成された3D顔メッシュ512Aに基づいて顔312のUV座標マップを決定することができる。ある実施形態によれば、回路202は、生成された3D顔メッシュ512Aに基づいて顔312のUV座標マップを決定するように構成することができる。顔312のUV座標マップは、2D UV座標空間上での3D顔メッシュ512Aの表現であることができる。その後、回路202は、決定されたUV座標マップ上に(第1の無鏡面画像514A及び第2の無鏡面画像514Bなどの)一連の無鏡面画像をテクスチャマッピングすることによって、顔312の初期テクスチャマップを生成することができる。顔312の初期テクスチャマップは、一連の無鏡面画像内の顔312の皮膚及び/又はその他の可視部分からのテクスチャ情報及び色情報を含むことができる。初期テクスチャマップはUV座標空間で表すことができ、「U」及び「V」はテクスチャ値の2D座標であることができる。
【0054】
518において、一連の皮膚反射率モデリング動作を実行することができる。本明細書で説明するように、回路202は、生成された3D顔メッシュ512A及び第2の一連の画像404を使用することによって一連の皮膚反射率モデリング動作を実行することができる。このような動作は、人物310の顔312の一連のテクスチャマップを推定するために実行することができる。ある実施形態によれば、一連の皮膚反射率モデリング動作は、拡散反射モデリング動作、鏡面分離動作、及び鏡面反射モデリング動作を含むことができる。拡散反射モデリング動作は、拡散法線マップ及び拡散アルベドマップを生成するために実行することができる。鏡面反射分離動作は、鏡面反射情報分離マップを生成するために実行することができる。鏡面反射モデリング動作は、人物310の顔312の鏡面アルベドマップ、鏡面法線マップ及び粗さマップを生成するために実行することができる。
【0055】
520において、拡散反射モデリング動作を実行することができる。ある実施形態では、回路202を、第2の一連の画像404に対して拡散反射モデリング動作を実行するように構成することができる。拡散反射モデリング動作は、(516で取得された)顔312の初期テクスチャマップに基づいて顔312の拡散法線マップ520Aを生成するために実行することができる。拡散反射モデリング動作は、初期テクスチャマップ及び生成された拡散法線マップ520Aに基づいて顔312の拡散アルベドマップ520Bを生成するためにさらに実行することができる。拡散アルベドマップ520Bは、(例えば、518において)推定される一連のテクスチャマップのうちの第1のテクスチャマップと呼ぶことができる。
【0056】
ある実施形態では、拡散法線マップ520A及び拡散アルベドマップの生成がランバート光モデルに基づくことができる。ランバート光モデルは、以下の方程式(1)によって表すことができ、
(1)
ここで、nは拡散法線であり、ρは拡散アルベドであり、L
Iは光の方向である。光の方向は、複数の撮像装置304の各々の所定の位置及び配向から決定することができる。
【0057】
522において、鏡面分離動作を実行することができる。ある実施形態によれば、回路202は、第2の一連の画像404から鏡面反射情報を分離するために鏡面分離動作を実行するように構成することができる。鏡面反射情報は、生成された拡散法線マップ520A及び生成された拡散アルベドマップ520Bに基づいて分離することができる。一例として、分離された鏡面反射情報を含むマップ522Aを示す。
【0058】
524において、鏡面反射モデリング動作を実行することができる。ある実施形態によれば、回路202は、第2の一連の画像404に対して鏡面反射モデリング動作を実行するように構成することができる。鏡面反射モデリング動作は、顔312の鏡面法線マップ524A、顔312の鏡面アルベドマップ524B、及び顔312の粗さマップ524Cを生成するために実行することができる。鏡面法線マップ524A、鏡面アルベドマップ524B及び粗さマップ524Cは、分離された鏡面反射情報(及び第2の一連の画像404)に基づいて生成することができる。鏡面法線マップ524Aは、第2の一連の画像404内の顔312の輝き及びハイライト情報(shine and highlight information)を含むことができる。鏡面アルベドマップ524Bは、顔312の色情報を含んで人物310の顔312のハイライト情報及び影情報を含まないことができる。粗さマップ524Cは、人物310の顔312の皮膚の粗さを表すことができる。粗さマップ524Cは、白黒カラーテクスチャ画像として表すことができる。鏡面法線マップ524A、鏡面アルベドマップ524B及び粗さマップ524Cは、(516で推定された)一連のテクスチャマップのうちの第2のテクスチャマップと呼ぶことができる。第1のテクスチャマップ及び第2のテクスチャマップは、人物310の顔312のマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を含むことができる。
【0059】
ある実施形態では、鏡面法線マップ524A、鏡面アルベドマップ524B及び粗さマップ524Cの生成が、ブリンフォン光モデルに基づくことができる。ブリンフォン光モデルは、以下の方程式(2)によって表すことができ、
(2)
ここで、nは鏡面法線であり、ρは鏡面アルベドであり、αは表面粗さに関連する。
【0060】
526において、生成された3D顔メッシュ512Aをテクスチャ化することができる。ある実施形態によれば、回路202は、推定された一連のテクスチャマップに基づいて、生成された3D顔メッシュ512Aをテクスチャ化するように構成することができる。テクスチャ化は、推定された一連のテクスチャマップのマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を含むテクスチャ情報を生成された3D顔メッシュ512A上にマッピングする動作を含むことができる。ある実施形態によれば、推定された一連のテクスチャマップは、顔312の拡散アルベドマップ520B、顔312の鏡面法線マップ524A、顔312の鏡面アルベドマップ524B、及び顔312の粗さマップ524Cを含むことができる。マイクロジオメトリ皮膚詳細情報は、毛穴、隆起、そばかす及びしわなどの様々な皮膚成分のテクスチャ情報を含むことができる。同様に、皮膚反射率詳細は、拡散反射成分、鏡面反射成分、アルベド成分及び粗さ成分の情報を含むことができる。テクスチャ化された3D顔モデル526Aは、マイクロジオメトリ皮膚詳細及び皮膚反射率詳細の両方を含むことができる。従って、テクスチャ化された3D顔モデル526Aは、人物310の顔312の高忠実度3Dモデルとして取り扱うことができる。
【0061】
ブロック
図500については、502、504、506、508、510、512、514、516、518、520、522、524及び526などの離散的動作として示しているが、本開示はこのように限定されるものではない。従って、いくつかの実施形態では、開示する実施形態の本質を損なうことなく、特定の実装に応じてこのような離散的動作をさらなる動作にさらに分割し、より少ない動作に結合し、又は削除することもできる。
【0062】
図6は、本開示の実施形態による、3Dマイクロジオメトリ及び反射率モデリングのための例示的な方法を示すフローチャートである。
図6の説明は、
図1、
図2、
図3、
図4A、
図4B、
図5A、
図5B、
図5C及び
図5Dの要素に関連して行う。
図6にはフローチャート600を示す。フローチャート600に示す方法は、システム102又は回路202などのいずれかのコンピュータシステムによって実行することができる。方法は、602から開始して604に進むことができる。
【0063】
604において、顔312の第1の一連の画像402及び顔312の第2の一連の画像404を含むことができる複数の画像112を受け取ることができる。ある実施形態によれば、回路202は、人物310の顔312の第1の一連の画像402及び顔312の第2の一連の画像404を含むことができる複数の画像112を受け取るように構成することができる。第1の一連の画像402の顔312は無指向性照明に曝されたものであることができ、第2の一連の画像404の顔312は指向性照明に曝されたものであることができる。複数の画像112を受け取る詳細については、例えば
図3にさらに示している。
【0064】
606において、受け取られた複数の画像112に基づいて3D顔メッシュ512Aを生成することができる。ある実施形態によれば、回路202は、受け取った複数の画像112に基づいて3D顔メッシュ512Aを生成するように構成することができる。3D顔メッシュ512Aの生成の詳細については、例えば
図5Aにさらに示している。
【0065】
608において、生成された3D顔メッシュ512A及び第2の一連の画像404を使用することによって一連の皮膚反射率モデリング動作を実行して顔312の一連のテクスチャマップを推定することができる。ある実施形態によれば、回路202は、生成された3D顔メッシュ512A及び第2の一連の画像404を使用することによって一連の皮膚反射率モデリング動作を実行して顔312の一連のテクスチャマップを推定するように構成することができる。一連の皮膚反射率モデリング動作の実行の詳細については、例えば
図5C及び
図5Dに示している。
【0066】
610において、推定された一連のテクスチャマップに基づいて、生成された3D顔メッシュ512Aをテクスチャ化することができる。ある実施形態によれば、回路202は、推定された一連のテクスチャマップに基づいて、生成された3D顔メッシュ512Aをテクスチャ化するように構成することができる。テクスチャ化は、推定された一連のテクスチャマップのマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を含むテクスチャ情報を生成された3D顔メッシュ512A上にマッピングする動作を含むことができる。3D顔メッシュ512Aのテクスチャ化の詳細については、例えば
図5Dにさらに示している。制御は終了に進むことができる。
【0067】
フローチャート600については、602、604、606、608及び610などの離散的動作として示しているが、本開示はこのように限定されるものではない。従って、いくつかの実施形態では、開示する実施形態の本質を損なうことなく、特定の実装に応じてこのような離散的動作をさらなる動作にさらに分割し、より少ない動作に結合し、又は削除することもできる。
【0068】
本開示の様々な実施形態は、機械及び/又はコンピュータが(システム102などの)システムを動作させるために実行できる命令を記憶した非一時的コンピュータ可読媒体及び/又は記憶媒体を提供することができる。命令は、機械及び/又はコンピュータに、(顔110などの)顔の(第1の一連の画像114などの)第1の一連の画像及び(第2の一連の画像116などの)顔110の第2の一連の画像を含むことができる(複数の画像112などの)複数の画像を受け取ることを含む動作を実行させることができる。第1の一連の画像114の顔110は無指向性照明に曝されたものであることができ、第2の一連の画像116の顔110は指向性照明に曝されたものであることができる。動作は、受け取った複数の画像112に基づいて(3D顔メッシュ118などの)3次元(3D)顔メッシュを生成することをさらに含むことができる。動作は、生成された3D顔メッシュ118及び第2の一連の画像116を使用することによって一連の皮膚反射率モデリング動作を実行して顔110の一連のテクスチャマップを推定することをさらに含むことができる。動作は、推定された一連のテクスチャマップに基づいて、生成された3D顔メッシュ118をテクスチャ化することをさらに含むことができる。テクスチャ化は、推定された一連のテクスチャマップのマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を含むテクスチャ情報を生成された3D顔メッシュ118上にマッピングする動作を含むことができる。
【0069】
本開示の例示的な態様は、(回路202などの)回路を含む(
図1のシステム102などの)システムを提供することができる。回路202は、(顔110などの)顔の(第1の一連の画像114などの)第1の一連の画像及び顔110の(第2の一連の画像116などの)第2の一連の画像を含むことができる(複数の画像112などの)複数の画像を受け取るように構成することができる。第1の一連の画像114の顔110は無指向性照明に曝されたものであることができ、第2の一連の画像116の顔110は指向性照明に曝されたものであることができる。回路202は、受け取った複数の画像112に基づいて(3D顔メッシュ118などの)3次元(3D)顔メッシュを生成するようにさらに構成することができる。回路202は、生成された3D顔メッシュ118と第2の一連の画像116とを使用することによって一連の皮膚反射率モデリング動作を実行して顔110の一連のテクスチャマップを推定するようにさらに構成することができる。回路202は、推定された一連のテクスチャマップに基づいて、生成された3D顔メッシュ118をテクスチャ化するようにさらに構成することができる。テクスチャ化は、推定された一連のテクスチャマップのマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を含むテクスチャ情報を生成された3D顔メッシュ118上にマッピングする動作を含むことができる。
【0070】
ある実施形態によれば、システム102は、(3D構造302などの)3D構造上の対応する第1の複数の位置に配置された(複数の撮像装置304などの)複数の撮像装置をさらに含むことができる。回路202は、複数の画像112を対応する複数の視点から取り込むように複数の撮像装置304を制御するようさらに構成することができる。
【0071】
ある実施形態によれば、システム102は、3D構造302上の対応する第2の複数の位置に配置された(一連のフラッシュ装置306などの)一連のフラッシュ装置をさらに含むことができる。回路202は、複数の撮像装置304が第1の一連の画像402を取り込んでいる間に一連のフラッシュ装置306を同時に作動させるようにさらに構成することができる。回路202は、複数の撮像装置304が第2の一連の画像404を取り込んでいる間に一連のフラッシュ装置306を順次パターンで作動させることができる。
【0072】
ある実施形態によれば、指向性照明の光強度は、無指向性照明の光強度よりも高いことができる。
【0073】
ある実施形態によれば、回路202は、受け取った第1の一連の画像402に基づいて(第1の3D顔メッシュ504Aなどの)第1の3D顔メッシュを生成するようにさらに構成することができる。回路202は、生成された第1の3D顔メッシュ504Aに一連のモデルクリーンアップ動作を適用して、(精緻化された第1の3D顔メッシュ506Aなどの)精緻化された第1の3D顔メッシュを取得することができる。回路202は、受け取った第2の一連の画像404に基づいて(第2の3D顔メッシュ508Aなどの)第2の3D顔メッシュをさらに生成することができる。回路202は、精緻化された第1の3D顔メッシュ506Aと生成された第2の3D顔メッシュ508Aとの間のアフィン変換を推定することができる。回路202は、精緻化された第1の3D顔メッシュ506Aに推定されたアフィン変換をさらに適用して3D顔メッシュ512Aを生成することができる。生成された3D顔メッシュ512Aは、生成された第2の3D顔メッシュ508Aに剛体位置合わせすることができる。
【0074】
ある実施形態によれば、回路202は、受け取った第1の一連の画像402内の顔312上の(一連の符号化ターゲット314などの)一連の符号化ターゲットの第1の位置を決定するようにさらに構成することができる。回路202は、受け取った第2の一連の画像404内の顔312上の一連の符号化ターゲット314の第2の位置を決定することができる。回路202は、決定された第1の位置と決定された第2の位置との比較に基づいてアフィン変換をさらに推定することができる。
【0075】
ある実施形態によれば、回路202は、第2の一連の画像404にホワイトバランス動作を適用して一連のホワイトバランス画像を生成するようにさらに構成することができる。回路202は、一連のホワイトバランス画像から鏡面情報を除去することによって(第1の無鏡面画像514A及び第2の無鏡面画像514Bなどの)一連の無鏡面画像を取得することができる。鏡面情報は、受け取った第2の一連の画像404内の各画像内の色情報を赤色-緑色-青色(RGB)空間からSUV色空間に変換することに基づいて除去することができる。
【0076】
ある実施形態によれば、回路202は、生成された3D顔メッシュ512Aに基づいて顔312のUV座標マップを決定するようにさらに構成することができる。回路202は、決定されたUV座標マップ上に一連の無鏡面画像をテクスチャマッピングすることによって顔312の初期テクスチャマップをさらに生成することができる。
【0077】
ある実施形態によれば、一連の皮膚反射率モデリング動作は、拡散反射モデリング動作、鏡面分離動作、及び鏡面反射モデリング動作を含むことができる。
【0078】
ある実施形態によれば、回路202は、初期テクスチャマップに基づいて顔312の(拡散法線マップ520Aなどの)拡散法線マップを生成するために、拡散反射モデリング動作を実行するようにさらに構成することができる。回路202は、初期テクスチャマップ及び生成された拡散法線マップ520Aに基づいて顔312の(拡散アルベドマップ520Bなどの)拡散アルベドマップをさらに生成することができる。拡散アルベドマップ520Bは、推定された一連のテクスチャマップのうちの第1のテクスチャマップとすることができる。
【0079】
ある実施形態によれば、回路202は、生成された拡散法線マップ520A及び生成された拡散アルベドマップ520Bに基づいて第2の一連の画像404から鏡面反射情報を分離するために、鏡面分離動作を実行するようにさらに構成することができる。
【0080】
ある実施形態によれば、回路202は、分離された鏡面反射情報に基づいて顔312の(鏡面アルベドマップ524Bなどの)鏡面アルベドマップ、顔312の(鏡面法線マップ524Aなどの)鏡面法線マップ、及び顔312の(粗さマップ524Cなどの)粗さマップを生成するために、鏡面反射モデリング動作を実行するようにさらに構成することができる。鏡面アルベドマップ524B、鏡面法線マップ524A及び粗さマップ524Cは、推定された一連のテクスチャマップのうちの第2のテクスチャマップとすることができる。
【0081】
ある実施形態によれば、推定された一連のテクスチャマップは、顔312の拡散アルベドマップ520B、顔312の鏡面アルベドマップ524B、顔312の鏡面法線マップ524A、及び顔312の粗さマップ524Cを含むことができる。
【0082】
本開示は、ハードウェアで実現することも、又はハードウェアとソフトウェアとの組み合わせで実現することもできる。本開示は、少なくとも1つのコンピュータシステム内で集中方式で実現することも、又は異なる要素を複数の相互接続されたコンピュータシステムにわたって分散できる分散方式で実現することもできる。本明細書で説明した方法を実行するように適合されたコンピュータシステム又はその他の装置が適することができる。ハードウェアとソフトウェアとの組み合わせは、ロードされて実行された時に本明細書で説明した方法を実行するようにコンピュータシステムを制御することができるコンピュータプログラムを含む汎用コンピュータシステムとすることができる。本開示は、他の機能も実行する集積回路の一部を含むハードウェアで実現することができる。
【0083】
本開示は、本明細書で説明した方法の実装を可能にする全ての特徴を含み、コンピュータシステムにロードされた時にこれらの方法を実行できるコンピュータプログラム製品に組み込むこともできる。本文脈におけるコンピュータプログラムとは、情報処理能力を有するシステムに特定の機能を直接的に、或いはa)別の言語、コード又は表記法への変換、b)異なる内容形態での複製、のいずれか又は両方を行った後に実行させるように意図された命令セットの、あらゆる言語、コード又は表記法におけるあらゆる表現を意味する。
【0084】
いくつかの実施形態を参照しながら本開示を説明したが、当業者であれば、本開示の範囲から逸脱することなく様々な変更を行うことができ、同等物を代用することもできると理解するであろう。また、本開示の範囲から逸脱することなく、特定の状況又は内容を本開示の教示に適合させるように多くの修正を行うこともできる。従って、本開示は、開示した特定の実施形態に限定されるものではなく、添付の特許請求の範囲内に収まる全ての実施形態を含むように意図される。
【符号の説明】
【0085】
600 フローチャート
602 開始
604 顔の第1の一連の画像及び顔の第2の一連の画像を含む複数の画像を受け取り、第1の一連の画像の顔は無指向性照明に曝されたものであり、第2の一連の画像の顔は指向性照明に曝されたものである
606 受け取った複数の画像に基づいて3次元(3D)顔メッシュを生成する
608 生成された3D顔メッシュ及び第2の一連の画像を使用することによって一連の皮膚反射率モデリング動作を実行して顔の一連のテクスチャマップを推定する
610 推定された一連のテクスチャマップに基づいて、生成された3D顔メッシュをテクスチャ化し、テクスチャ化は、推定された一連のテクスチャマップのマイクロジオメトリ皮膚詳細及び皮膚反射率詳細を含むテクスチャ情報を生成された3D顔メッシュ上にマッピングする動作を含む
【国際調査報告】