IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 浙江大学の特許一覧

<>
  • 特表-高次元マテリアルの自由式収集方法 図1
  • 特表-高次元マテリアルの自由式収集方法 図2
  • 特表-高次元マテリアルの自由式収集方法 図3
  • 特表-高次元マテリアルの自由式収集方法 図4
  • 特表-高次元マテリアルの自由式収集方法 図5
  • 特表-高次元マテリアルの自由式収集方法 図6
  • 特表-高次元マテリアルの自由式収集方法 図7
  • 特表-高次元マテリアルの自由式収集方法 図8
  • 特表-高次元マテリアルの自由式収集方法 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-03-12
(54)【発明の名称】高次元マテリアルの自由式収集方法
(51)【国際特許分類】
   G06T 7/00 20170101AFI20240305BHJP
【FI】
G06T7/00 C
G06T7/00 350C
【審査請求】有
【予備審査請求】未請求
(21)【出願番号】P 2023558118
(86)(22)【出願日】2021-06-07
(85)【翻訳文提出日】2023-09-20
(86)【国際出願番号】 CN2021098576
(87)【国際公開番号】W WO2022256962
(87)【国際公開日】2022-12-15
(81)【指定国・地域】
(71)【出願人】
【識別番号】505072650
【氏名又は名称】浙江大学
【氏名又は名称原語表記】ZHEJIANG UNIVERSITY
(74)【代理人】
【識別番号】100128347
【弁理士】
【氏名又は名称】西内 盛二
(72)【発明者】
【氏名】▲呉▼ ▲鴻▼智
(72)【発明者】
【氏名】周 昆
(72)【発明者】
【氏名】▲馬▼ ▲暁▼▲鶴▼
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096AA09
5L096CA02
5L096FA67
5L096HA11
5L096KA04
(57)【要約】
【課題】本発明は高次元マテリアルの自由式収集方法を提供する。
【解決手段】
本発明はコンピュータグラフィックス及びコンピュータビジョンの分野に属し、本方法はマテリアル情報の学習を非構造化点群における幾何学的学習の問題に変換し、複数の異なる照明及び観察方向における収集結果を高次元点群に構成し、点群における各点が画像測定値と画像撮影時の物体のポーズ情報とからなるベクトルであることを提案し、本方法は無秩序で、不規則で、不均一に分布し且つ精度が制限される高次元点群から非構造化画像の情報を効果的に集約して、高品質のマテリアル属性を回復することができる。
【選択図】図5
【特許請求の範囲】
【請求項1】
高次元マテリアルの自由式収集方法であって、トレーニング段階及び収集段階を含み、
前記トレーニング段階は以下のステップ(1)~ステップ(2)を含み、
前記トレーニング段階のステップ(1)では、収集装置のパラメータを取得して、実際のビデオカメラを模擬する収集結果をトレーニングデータとして生成し、
前記トレーニング段階のステップ(2)では、生成されたトレーニングデータを用いてニューラルネットワークをトレーニングし、
前記ニューラルネットワークの特徴は以下の特徴(2.1)~特徴(2.5)を含み、
前記特徴(2.1)については、ニューラルネットワークの入力がk個の非構造化サンプリングにおけるLumitexelベクトルであり、kがサンプリング個数であり、Lumitexelの各値が各光源からの入射光に対するサンプリング点のある観察方向に沿う反射強度を説明し、Lumitexelが光源の発光強度と線形関係を有し、線形完全接続層で模擬を行い、
前記特徴(2.2)については、ニューラルネットワークの第1層が線形完全接続層を含み、実際に収集する際に用いた照明パターンを模擬して、前記k個のLumitexelをカメラ収集結果に変換することに用いられ、このk個の収集結果がそれぞれ対応するサンプリング点のポーズ情報と組み合わせて高次元点群を構成し、
前記特徴(2.3)については、第2層からは特徴抽出ネットワークであり、前記高次元点群における各点から独立して特徴抽出して特徴ベクトルを取得し、
前記特徴(2.4)については、特徴抽出ネットワークの後では、k個の非構造化画像から抽出された特徴ベクトルを集約して、グローバル特徴ベクトルを取得するための最大プーリング層であり、
前記特徴(2.5)については、最大プーリング層の後では、前記グローバル特徴ベクトルに基づいて高次元マテリアル情報を回復するための非線形マッピングネットワークであり、
前記収集段階は、以下のステップ(1)及びステップ(2)を含み、
前記収集段階のステップ(1)では、マテリアル収集ステップであって、収集装置が前記照明パターンに応じて順に目標三次元物体を照射し、ビデオカメラが1組の非構造化画像における写真を取得し、写真を入力とし、サンプリング物体にテクスチャ座標を持つ幾何学的モデル及び写真撮影時のビデオカメラのポーズを取得し、
前記収集段階のステップ(2)では、マテリアル回復ステップであって、マテリアル収集段階における写真撮影時のビデオカメラのポーズに基づいて各枚の写真を撮影するときのサンプリング物体上の各有効テクスチャ座標の頂点に対するポーズを取得し、収集された前記写真及びポーズ情報に基づいて前記高次元点群をニューラルネットワークの第2層の特徴抽出ネットワークの入力として構成し、高次元マテリアル情報を計算して取得する
ことを特徴とする高次元マテリアルの自由式収集方法。
【請求項2】
前記非構造化サンプリングは非固定視角の自由ランダムサンプリングであり、サンプリングデータが無秩序で、不規則で、不均一に分布しており、固定物体を用いて人の手で収集装置を持って収集し、又は物体を回転テーブルに置いて回転させて固定装置により収集してもよい
ことを特徴とする請求項1に記載の高次元マテリアルの自由式収集方法。
【請求項3】
トレーニングデータ生成過程において、光源がカラーである場合、光源、サンプリング物体及びビデオカメラのスペクトル応答関係を補正する必要があり、補正方法については、
未知のカラー光源Lのスペクトル分布曲線を
として定義し、λが波長を示し、cがRGBの3つのチャネルのうちの1つを示し、光強度{I,I,I}の光源のスペクトル分布曲線L(λ)は、以下の式2に示されることが可能であり、
【数2】
任意のサンプリング点pの反射スペクトル分布曲線p(λ)を、係数がそれぞれp、p、pの3つの未知の基
の線形組合せに示し、cがRGBの3つのチャネルのうちの1つを示し、具体的には、以下の式3に示され、
【数3】
ビデオカメラCのスペクトル分布曲線が
の線形組合せとして示され、光強度{I,I,I}の光源の照射下で、ビデオカメラによる反射係数{p,p,p}のサンプリング点のある特定チャネルcでの測定値は、以下の式4に示され、
【数4】
照明条件{I,I,I}={1,0,0}/{0,1,0}/{0,0,1}の下で、既知の反射係数{p,p,p}のカラーテストカードを撮影し、ビデオカメラにより収集された測定値に基づいて線形連立方程式を構築し、サイズ3×3×3のカラー補正行列δ(c,c,c)を求め、該カラー補正行列が光源、サンプリング物体及びビデオカメラのスペクトル応答関係を示す
ことを特徴とする請求項1に記載の高次元マテリアルの自由式収集方法。
【請求項4】
前記トレーニング段階における特徴(2.1)において、物体表面のサンプリング点pの写真における観測値B、反射関数f及び各光源の光強度の関係は、以下の式5に示され、
【数5】
ここで、Iは各光源lの発光情報を示し、光源lの空間位置x、光源lの法線ベクトルn、光源lの発光強度I(l)を含み、Pはサンプリング点pのパラメータ情報を含み、サンプリング点の空間位置x、マテリアルパラメータn、t、α、α、ρ、ρを含み、
が光源lの異なる入射方向における光強度分布を説明し、Vがxのxに対する可視性の二値関数を示し、
が2つのベクトルのドット積操作であり、f(ω′;ω′,P)はω′が一定である場合にω′に関する二次元反射関数であり、
ニューラルネットワークの入力がk個の非構造化サンプリングにおけるLumitexelベクトルであって、m(l;P)と記され、
【数6】
上記式におけるBが単一チャネルにおける表示であり、光源がカラー光源である場合、Bを下記形式に拡張し、
【数7】
ここで、f(ω′;ω′,P,c)がf(ω′;ω′,P)における
の結果である
ことを特徴とする請求項3に記載の高次元マテリアルの自由式収集方法。
【請求項5】
前記トレーニング段階における特徴(2.3)において、特徴抽出ネットワークの公式は、以下の式9に示され、
【数9】
ここで、fが一次元畳み込み関数であり、畳み込みカーネルのサイズが1×1であり、B(I,P)が第1層のネットワークから出力される結果又は収集して取得された測定値を示し、
がそれぞれj回目にサンプリングするときのサンプリング点の空間位置、サンプリング点の幾何学的法線ベクトル及び幾何学的接ベクトルであり、
が幾何学的モデルにより取得され、

に直交する任意の単位ベクトルであり、ビデオカメラのポーズをj回目にサンプリングすることにより
を変換して
を取得することができ、Vfeature(j)がネットワークから出力されるj回目にサンプリングする特徴ベクトルである
ことを特徴とする請求項1に記載の高次元マテリアルの自由式収集方法。
【請求項6】
前記トレーニング段階における特徴(2.5)において、非線形マッピングネットワークの形骸化された表現は、以下の式11に示され、
【数11】
ここで、fi+1が第i+1層のネットワークのマッピング関数であり、Wi+1が第i+1層のネットワークのパラメータ行列であり、bi+1が第i+1層のネットワークのオフセットベクトルであり、yi+1が第i+1層のネットワークの出力であり、dとsがそれぞれ乱反射及び鏡面反射の2つの分岐を示し、入力y とy が最大プーリング層から出力されるグローバル特徴ベクトルである
ことを特徴とする請求項1に記載の高次元マテリアルの自由式収集方法。
【請求項7】
前記ニューラルネットワークの損失関数は以下のステップ(1)~ステップ(4)のように設計され、
当該ステップ(1)では、1つのLumitextel空間を仮定し、該空間は中心がサンプリング点の空間位置xにある立方体であり、立方体の中心座標系はx軸方向が
であり、z軸方向が
であり、
が幾何学的法線ベクトルであり、

に直交する任意の単位ベクトルであり、
当該ステップ(2)では、1つのビデオカメラを仮定し、観察方向が立方体のz軸の正方向であり、
当該ステップ(3)では、乱反射Lumitexelの場合に立方体の分解能が6×N であり、鏡面反射Lumitexelの場合に立方体の分解能が6×N であり、即ち各面からN 、N 個の点を、光強度が単位光強度の仮想点光源として均一にサンプリングし、以下のステップa~ステップcを含み、
前記ステップaでは、サンプリング点の鏡面反射率ρを0とし、このLumitexel空間における乱反射特徴ベクトル
を生成し、
前記ステップbでは、乱反射率ρを0とし、このLumitexel空間における鏡面反射特徴ベクトル
を生成し、
前記ステップcでは、ニューラルネットワークの出力をベクトルm、mとし、m
の長さと同じであり、m
の長さと同じであり、ベクトルmd、がそれぞれ乱反射特徴ベクトル
、鏡面反射ベクトル
の予測であり、
当該ステップ(4)では、マテリアル特徴部分の損失関数は、以下の式12に示され、
【数12】
ここで、λとλがそれぞれm、mの損失重みを示し、信頼度βが鏡面反射Lumitexelの損失を評価することに用いられ、logがベクトルの各次元に作用し、
信頼度βの決定は、以下の式13に示され、
【数13】
ここで、
項がj回目にサンプリングする全ての単一光源レンダリング値の最大値の対数を示し、
項がj回目にサンプリングする際に理論的に取得できる単一光源レンダリング値の最大値の対数を示し、
が比率調整係数である
ことを特徴とする請求項1に記載の高次元マテリアルの自由式収集方法。
【請求項8】
前記収集段階において、マテリアル収集が終了した後に幾何学的位置合わせを行い、その後にマテリアル回復を行い、幾何学的位置合わせは具体的に、スキャナにより物体を走査して幾何学的モデルを取得し、それを三次元で再構築された幾何学的モデルに位置合わせした後に三次元で再構築された幾何学的モデルを代替することである
ことを特徴とする請求項1に記載の高次元マテリアルの自由式収集方法。
【請求項9】
有効テクスチャ座標に対して、前記収集された写真及びサンプリング点のポーズ情報に基づいて写真における画素を順に取り出して、画素の有効性を判断し、頂点に対するポーズと組み合わせて高次元点群を構成し、ある有効テクスチャ座標に対して決定されたサンプリング物体の表面上の点pについて、j回目のサンプリングが頂点pに対して有効である判断標準は以下の条件(1)~(3)の3つの条件を含み、
前記条件(1)では、頂点pの位置x が該サンプリングにおいてビデオカメラにとって可視となるものであり、且つx がネットワークをトレーニングする際に定義したサンプリング空間内にあること、
前記条件(2)では、
であり、
がドット積操作であり、θが有効サンプリング角度の下限であり、ω′がワールド座標系における出射光の方向を示し、
がj回目の頂点pの法線ベクトルを示すこと、
前記条件(3)では、写真における画素の各チャネル数値が区間[a,b]にあり、aとbが有効サンプリング輝度の下限と上限であり、
前記3つの条件が全て満足される場合、j回目のサンプリングが頂点pに対して有効であると見なされ、j回目のサンプリング結果を高次元点群に追加する
ことを特徴とする請求項1に記載の高次元マテリアルの自由式収集方法。
【請求項10】
マテリアル情報を回復した後にマテリアルパラメータをフィッティングすることは、ローカル座標系及び粗度をフィッティングするステップ及び反射率をフィッティングするステップを含み、
前記ローカル座標系及び粗度をフィッティングするステップでは、ある有効テクスチャ座標に対して決定されたサンプリング物体の表面上の点pについて、ネットワークから出力される単一チャネルの鏡面反射ベクトルに基づいてL-BFGS-B方法によってマテリアルパラメータにおけるローカル座標系及び粗度をフィッティングし、
前記反射率をフィッティングするステップでは、信頼領域アルゴリズムによって鏡面反射率及び乱反射率を求め、求める際に前の過程において取得されたローカル座標系及び粗度を一定にし、収集に用いる視角において観測値を合成して、それを収集して取得された観測値にできる限り近接する
ことを特徴とする請求項1に記載の高次元マテリアルの自由式収集方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は高次元マテリアルの自由式収集方法に関し、コンピュータグラフィックス及びコンピュータビジョンの分野に属する。
【背景技術】
【0002】
現実世界における物体のデジタル化はコンピュータグラフィックス及びビジョンの中核問題の1つである。現在、デジタル化された真の物体は三次元グリッドモデル及び空間に従って変化する六次元の双方向反射率分布関数(SVBRDF)で表現されてもよく、デジタル化された真の物体は任意の視角及び照明条件下でその元の様子を明瞭に再現することができ、文化遺産、電子商取引、コンピュータゲーム及び映画作成などの分野に重要な応用を持っている。
【0003】
高精度の幾何学的モデルは商用モバイル3Dスキャナにより容易に取得できるが、下記原因により外観走査を自由に行うように軽量型装置を開発することも望まれている。第1として、ビデオカメラの姿勢を確実に推定できれば、異なるサイズの物体を走査することができる。第2として、装置の可搬性によって、輸送を許容しないオブジェクト例えば貴重な文化財に対してその場走査を実行できるようにする。また、軽量レベルの装置は製造に必要な時間が短く、コストが低いため、より多くの人に受け入れられる。それは更に幾何学的走査に類似するユーザーフレンドリーな体験を提供する。
【0004】
需要が急増しているが、有効な非平面外観走査は依然として解決の待たれる問題の1つである。一方、従来のほとんどの可動外観走査作業はいずれも単一点/平行光の場合に撮影するため、四次元の観察及び照明方向におけるサンプリング効率がより低く、空間分解能で角度精度を取り換えるために先験知識を必要としている(Giljoo Nam, Joo Ho Lee, Diego Gutierrez, and Min H Kim. 2018. Practical SVBRDF acquisition of 3D objects with unstructured flash photography. In SIGGRAPH Asia Technical Papers. 267.)。他方、固定収集システムは照明が変化する際に一定の画像条件に依存し、現在ではどのように携帯機器に拡張するかはまだ把握されておらず、携帯機器が非構造化されて絶えず変化している画像を有し、且つその外形寸法がより小さいため、照明分野を完全にカバーできない。
【発明の概要】
【発明が解決しようとする課題】
【0005】
本発明の目的は、従来技術の欠点に対して高次元マテリアルの自由式収集方法を提供することにあり、本方法は各画像の収集条件情報を効果的に利用して、無秩序で不均一に分布する収集結果から高品質の物体マテリアル属性を回復することができる。
【課題を解決するための手段】
【0006】
本発明は高次元マテリアルの自由式収集方法を開示し、本方法の主な要旨は、自由型の外観走査を非構造化点群における幾何学的学習の問題に変換することができ、点群における各点が1つの画像測定値及び画像撮影時の物体のポーズ(Pose)情報を示してもよい、ということである。この要旨に基づいて、本発明は1つのニューラルネットワークを設計し、異なる非構造化画像において情報を効果的に集約して、空間的に独立した反射属性を再構築することができ、且つ収集段階に使用される照明パターンを最適化して、最終的に高品質のマテリアル収集結果を取得することができる。本発明はある特定の収集装置に依存せず、固定物体を用いて人の手で装置を持って収集し、又は物体を回転テーブルに置いて回転させて固定装置により収集してもよいが、この2つの方式に限らない。
【0007】
本方法はマテリアル情報の学習を非構造化点群における幾何学的学習の問題に変換し、複数の異なる照明及び観察方向におけるサンプリング結果を高次元点群に構成し、点群における各点が画像測定値と画像撮影時の物体のポーズ情報とからなるベクトルであることを提案し、本方法は無秩序で、不規則で、不均一に分布し且つ精度が制限される高次元点群から非構造化画像の情報を効果的に集約して、高品質のマテリアル属性を回復することができる。形骸化された表示は、F(G(high dimensional point cloud))=mであり、
点群データ特徴抽出方法Gがある特定のネットワーク構造に限らず、点群から特徴を抽出できる他の方法も適用され、非線形マッピングネットワークFが完全接続ネットワークに限らず、物体マテリアル属性の表現がLumitexelベクトルmに限らない。
【0008】
本方法はトレーニング段階及び収集段階の2つの段階を含む。
【0009】
前記トレーニング段階は、
収集装置のパラメータを取得して、実際のビデオカメラを模擬する収集結果をトレーニングデータとして生成するステップ(1)と、
生成されたトレーニングデータを用いてニューラルネットワークをトレーニングするステップ(2)と、を含み、ニューラルネットワークの特徴は、
ニューラルネットワークの入力がk個の非構造化サンプリングにおけるLumitexelベクトルであり、kがサンプリング個数であり、Lumitexelの各値が各光源からの入射光に対するサンプリング点のある観察方向に沿う反射強度を説明し、Lumitexelが光源の発光強度と線形関係を有し、線形完全接続層で模擬する(2.1)と、
ニューラルネットワークの第1層が線形完全接続層を含み、実際に収集する際に用いる照明パターンを模擬して、前記k個のLumitexelをカメラ収集結果に変換することに用いられ、このk個の収集結果がそれぞれ対応するサンプリング点のポーズ情報と組み合わせて高次元点群を構成する(2.2)と、
第2層からは特徴抽出ネットワークであり、前記高次元点群における各点から独立して特徴抽出して特徴ベクトルを取得する(2.3)と、
特徴抽出ネットワークの後では、k個の非構造化画像から抽出された特徴ベクトルを集約して、グローバル特徴ベクトルを取得するための最大プーリング層である(2.4)と、
最大プーリング層の後では、前記グローバル特徴ベクトルに基づいて高次元マテリアル情報を回復するための非線形マッピングネットワークである(2.5)と、を含み、
前記収集段階は、
マテリアル収集ステップであって、収集装置が前記照明パターンに応じて順に目標三次元物体を照射し、ビデオカメラが1組の非構造化画像における写真を取得し、写真を入力とし、サンプリング物体にテクスチャ座標を持つ幾何学的モデル及び写真撮影時のビデオカメラのポーズを取得するステップ(1)と、
マテリアル回復ステップであって、マテリアル収集段階における写真撮影時のビデオカメラのポーズに基づいて各枚の写真を撮影するときのサンプリング物体上の各有効テクスチャ座標の頂点に対するポーズを取得し、前記収集された写真及びポーズ情報に基づいて前記高次元点群をニューラルネットワークの第2層特徴抽出ネットワークの入力として構成し、高次元マテリアル情報を計算して取得するステップ(2)と、を含む。
【0010】
更に、前記非構造化サンプリングは非固定視角の自由ランダムサンプリングであり、サンプリングデータが無秩序で、不規則で、不均一に分布しており、固定物体を用いて人の手で収集装置を持って収集し、又は物体を回転テーブルに置いて回転させて固定装置により収集してもよい。
【0011】
更に、トレーニングデータ生成過程において、光源がカラーである場合、光源、サンプリング物体及びビデオカメラのスペクトル応答関係を補正する必要があり、補正方法については、
未知のカラー光源Lのスペクトル分布曲線を
として定義し、λが波長を示し、cがRGBの3つのチャネルのうちの1つを示し、光強度{I,I,I}の光源のスペクトル分布曲線L(λ)は、以下の式2に示される可能であり、
【数2】
任意のサンプリング点pの反射スペクトル分布曲線p(λ)を、係数がそれぞれp、p、pの3つの未知の基
の線形組合せに示し、cがRGBの3つのチャネルのうちの1つを示し、具体的には、以下の式3に示され、
【数3】
ビデオカメラCのスペクトル分布曲線が
の線形組合せとして示され、光強度{I,I,I}の光源の照射下で、ビデオカメラによる反射係数{p,p,p}のサンプリング点のある特定チャネルcでの測定値は、以下の式4に示され、
【数4】
照明条件{I,I,I}={1,0,0}/{0,1,0}/{0,0,1}の下で、既知の反射係数{p,p,p}のカラーテストカードを撮影し、ビデオカメラにより収集された測定値に基づいて線形連立方程式を構築し、サイズ3×3×3のカラー補正行列δ(c,c,c)を求め、該カラー補正行列が光源、サンプリング物体及びビデオカメラのスペクトル応答関係を示す。
【0012】
更に、トレーニング段階ステップ(2.1)において、物体表面のサンプリング点pの写真における観測値B、反射関数f及び各光源の光強度の関係は、以下の式5に示され、
【数5】
ここで、Iは各光源の発光情報を示し、光源lの空間位置x、光源lの法線ベクトルn、光源lの発光強度I(l)を含み、Pはサンプリング点pのパラメータ情報を含み、サンプリング点の空間位置x、マテリアルパラメータn、t、α、α、ρ、ρを含む。
が光源lの異なる入射方向における光強度分布を説明し、Vがxのxに対する可視性の二値関数を示し、
が2つのベクトルのドット積操作であるf(ω′;ω′,P)はω′が一定である場合にω′に関する二次元反射関数である。
【0013】
ニューラルネットワークの入力がk個の非構造化サンプリングにおけるLumitexelベクトルであって、m(l;P)と記され、
【数6】
上記式におけるBが単一チャネルにおける表示であり、光源がカラー光源である場合、Bを下記形式に拡張し、
【数7】
ここで、f(ω′;ω′,P,c)がf(ω′;ω′,P)における
の結果である。
【0014】
更に、トレーニング段階ステップ(2.3)において、特徴抽出ネットワークの公式は、以下の式9に示され、
【数9】
ここで、fが一次元畳み込み関数であり、畳み込みカーネルのサイズが1×1であり、B(I,P)が第1層のネットワークから出力される結果又は収集して取得された測定値を示し、
がそれぞれj回目にサンプリングするときのサンプリング点の空間位置、サンプリング点の幾何学的法線ベクトル及び幾何学的接ベクトルであり、
が幾何学的モデルにより取得され、

に直交する任意の単位ベクトルであり、ビデオカメラのポーズをj回目にサンプリングすることにより
を変換して
を取得することができ、Vfeature(j)がネットワークから出力されるj回目にサンプリングする特徴ベクトルである。
【0015】
更に、トレーニング段階のステップ(2.5)において、非線形マッピングネットワークの形骸化された表現は、以下の式11に示され、
【数11】
ここで、fi+1が第i+1層のネットワークのマッピング関数であり、Wi+1が第i+1層のネットワークのパラメータ行列であり、bi+1が第i+1層のネットワークのオフセットベクトルであり、yi+1が第i+1層のネットワークの出力であり、dとsがそれぞれ乱反射及び鏡面反射の2つの分岐を示し、入力y とy が最大プーリング層から出力されるグローバル特徴ベクトルである。
【0016】
更に、前記ニューラルネットワークの損失関数は以下のように設計され、
(1)1つのLumitextel空間を仮定し、該空間は中心がサンプリング点の空間位置xにある立方体であり、立方体の中心座標系はx軸方向が
であり、z軸方向が
であり、
が幾何学的法線ベクトルであり、

に直交する任意の単位ベクトルであり、
(2)1つのビデオカメラを仮定し、観察方向が立方体のz軸の正方向であり、
(3)乱反射Lumitexelの場合に立方体の分解能が6×N であり、鏡面反射Lumitexelの場合に立方体の分解能が6×N であり、即ち各面からN 、N 個の点を、光強度が単位光強度の仮想点光源として均一にサンプリングし、
a.サンプリング点の鏡面反射率ρを0とし、このLumitexel空間における乱反射特徴ベクトル
を生成し、
b.乱反射率ρを0とし、このLumitexel空間における鏡面反射特徴ベクトル
を生成し、
c.ニューラルネットワークの出力をベクトルm、mとし、m
の長さと同じであり、m
の長さと同じであり、ベクトルmd、が乱反射特徴ベクトル
、鏡面反射ベクトル
の予測であり、
(4)マテリアル特徴部分の損失関数は、以下の式12に示され、
【数12】
ここで、λとλがそれぞれm、mの損失重みを示し、信頼度βが鏡面反射Lumitexelの損失を評価することに用いられ、logがベクトルの各次元に作用し、信頼度βの決定は、以下の式13に示され、
【数13】
ここで、
項がj回目にサンプリングする全ての単一光源レンダリング値の最大値の対数を示し、
項がj回目にサンプリングする際に理論的に取得できる単一光源レンダリング値の最大値の対数を示し、
が比率調整係数である。
【0017】
更に、前記収集段階において、マテリアル収集が終了した後に幾何学的位置合わせを行い、その後にマテリアル回復を行い、幾何学的位置合わせは具体的に、スキャナにより物体を走査して幾何学的モデルを取得し、それを三次元で再構築された幾何学的モデルに位置合わせした後に三次元で再構築された幾何学的モデルを代替することである。
【0018】
更に、有効テクスチャ座標に対して、前記収集された写真及びサンプリング点のポーズ情報に基づいて写真における画素を順に取り出して、画素の有効性を判断し、頂点に対するポーズと組み合わせて高次元点群を構成し、ある有効テクスチャ座標に対して決定されたサンプリング物体の表面上の点pについて、j回目のサンプリングが頂点pに対して有効である判断標準は、
(1)頂点pの位置x が該サンプリングにおいてビデオカメラにとって可視となるものであり、且つx がネットワークをトレーニングする際に定義したサンプリング空間内にあること、
(2)
であり、
がドット積操作であり、θが有効サンプリング角度の下限であり、ω′がワールド座標系における出射光の方向を示し、
がj回目の頂点pの法線ベクトルを示すこと、
(3)写真における画素の各チャネル数値が区間[a,b]にあり、aとbが有効サンプリング輝度の下限と上限であること、に表現され、
3つの条件が全て満足される場合、j回目のサンプリングが頂点pに対して有効であると見なされ、j回目のサンプリング結果を高次元点群に追加する。
【0019】
更に、マテリアル情報を回復した後にマテリアルパラメータをフィッティングしてもよく、それは、
ローカル座標系及び粗度をフィッティングするステップであって、ある有効テクスチャ座標に対して決定されたサンプリング物体の表面上の点pについて、ネットワークから出力される単一チャネルの鏡面反射ベクトルに基づいてL-BFGS-B方法によってマテリアルパラメータにおけるローカル座標系及び粗度をフィッティングするステップ(1)、
反射率をフィッティングするステップであって、信頼領域アルゴリズムによって鏡面反射率及び乱反射率を求め、求める際に前の過程において取得されたローカル座標系及び粗度を一定にし、収集に用いる視角において観測値を合成して、それを収集して取得された観測値にできる限り近接するステップ(2)、の2つのステップに分けられる。
【発明の効果】
【0020】
本発明の有益な効果は以下のとおりである。本発明の方法はマテリアル情報の学習を非構造化点群における幾何学的学習の問題に変換し、複数の異なる照明及び観察方向におけるサンプリング結果を高次元点群に構成し、点群における各点が画像測定値と画像撮影時の物体のポーズ情報とからなるベクトルであることを提案し、本方法は無秩序で、不規則で、不均一に分布し且つ精度が制限される高次元点群から非構造化画像の情報を効果的に集約して、高品質のマテリアル属性を回復することができる。
【図面の簡単な説明】
【0021】
図1図1は本発明の実施形態における収集装置の三次元模式図である。
図2図2は本発明の実施形態における収集装置の正面図である。
図3図3は本発明の実施形態における収集装置の側面図である。
図4図4は本発明の実施形態における収集装置とサンプリング空間との関係の模式図である。
図5図5は本発明の実施形態における収集方法のフローチャートである。
図6図6は本発明の実施形態におけるニューラルネットワークの構造模式図である。
図7図7は本発明の実施形態において取得された照明パターンの単一チャネル表示であり、階調値で発光強度を代表する。
図8図8は本発明の実施形態に係るシステムにより回復されたLumitexelベクトル結果を示す図である。
図9図9は本発明の実施形態に係るシステムにより回復されたサンプリング物体のマテリアル属性結果を示す図である。
【発明を実施するための形態】
【0022】
本発明の目的、技術案及び利点をより明確にするために、以下に図面を参照しながら本発明を詳しく説明する。
【0023】
本発明に係る高次元マテリアルの自由式収集方法について、具体的な実施は下記のトレーニング段階及び収集段階に分けられてもよい。
【0024】
一、トレーニング段階
1.トレーニングデータを生成して、収集装置のパラメータを取得し、該パラメータは光源からサンプリング空間原点までの距離及び角度、光源の特性曲線、ビデオカメラからサンプリング空間原点までの距離及び角度、ビデオカメラの内部パラメータ及び外部パラメータを含む。これらのパラメータを利用して実際のビデオカメラを模擬する収集結果をトレーニングデータとして生成する。トレーニングデータを生成する際に用いるレンダリングモデルがGGXモデルであり、生成公式は、以下の式1に示され、
【数1】
ここで、f(ω′,ω′;P)がω′,ω′に関する四次元反射関数であり、ω′がワールド座標系における入射光の方向を示し、ω′がワールド座標系における出射光の方向を示し、ωがローカル座標系における入射方向であり、ωがローカル座標系における出射方向であり、ωがローカル座標系における途中ベクトルである。Pはサンプリング点のパラメータ情報を含み、サンプリング点のマテリアルパラメータn、t、α、α、ρ、ρを含み、ここで、nがワールド座標系における法線ベクトルを示し、tがワールド座標系においてサンプリング点のローカル座標系におけるx軸方向を示し、nとtが入射方向及び出射方向をワールド座標系からローカル座標系に変換するためのものである。αとαが粗度係数を示し、ρが乱反射率を示し、ρが鏡面反射率を示し、ρとρが単一チャネルにおいていずれも1つのスカラーであり、カラーの場合にそれぞれ3つのスカラー
及び
であり、DGGXが微小表面分布項であり、Fがフレネル項であり、GGGXが陰影係数関数を示す。
【0025】
収集に用いる光源がカラーである場合、まず、光源、サンプリング物体及びビデオカメラのスペクトル応答関係を補正する必要がある。補正方法については、未知のカラー光源Lのスペクトル分布曲線を
として定義し、λが波長を示し、cがRGBの3つのチャネルのうちの1つを示し、光強度{I,I,I}の光源のスペクトル分布曲線L(λ)は、以下の式2に示される可能であり、
【数2】
同様に、任意のサンプリング点pの反射スペクトル分布曲線p(λ)を、係数がそれぞれp、p、pの3つの未知の基
の線形組合せに示してもよく、cがRGBの3つのチャネルのうちの1つを示し、具体的には、以下の式3に示され、
【数3】
類似に、ビデオカメラCのスペクトル分布曲線が
の線形組合せとして示されてもよい。従って、光強度{I,I,I}の光源の照射下で、ビデオカメラによる反射係数{p,p,p}のサンプリング点のある特定チャネルcでの測定値は、以下の式4に示され、
【数4】
照明条件{I,I,I}={1,0,0}/{0,1,0}/{0,0,1}の下で、既知の反射係数{p,p,p}のカラーテストカードを撮影し、ビデオカメラにより収集された測定値に基づいて線形連立方程式を構築し、サイズ3×3×3のカラー補正行列δ(c,c,c)を求めることができ、該カラー補正行列が光源、サンプリング物体及びビデオカメラのスペクトル応答関係を示す。
【0026】
2.生成されたトレーニングデータを用いて図4に示されるニューラルネットワークをトレーニングする。ニューラルネットワークの特徴は下記(1)~(6)を含む。
【0027】
(1)物体表面のサンプリング点pの写真における観測値B、反射関数f及び各光源の光強度の関係は、以下の式5に示され、
【数5】
ここで、Iは各光源lの発光情報を示し、光源lの空間位置x、光源lの法線ベクトルn、光源lの発光強度I(l)を含み、Pはサンプリング点pのパラメータ情報を含み、サンプリング点の空間位置x、マテリアルパラメータn、t、α、α、ρ、ρを含む。
が光源lの異なる入射方向における光強度分布を説明し、Vがxのxに対する可視性の二値関数を示し、
が2つのベクトルのドット積操作であり、負値が0にカットオフされることとなる。f(ω′;ω′,P)はω′が一定である場合にω′に関する二次元反射関数である。
【0028】
ニューラルネットワークの入力が無秩序で不規則なサンプリングにおけるk個のLumitexelであり、kがサンプリング個数であり、Lumitexelが1つのベクトルであってm(l;P)と記され、その中の各値が各光源からの入射光に対するサンプリング点のある観察方向に沿う反射強度を説明し、
【数6】
上記式におけるBが単一チャネルにおける表示であり、光源がカラー光源である場合、Bを下記形式に拡張し、
【数7】
ここで、f(ω′;ω′,P,c)がf(ω′;ω′,P)の公式における
の結果である。Bが光源の発光強度と線形関係を有し、線形完全接続層で模擬してもよい。
【0029】
(2)ニューラルネットワークの第1層が線形完全接続層を含み、線形完全接続層のパラメータ行列は下記公式によりトレーニングして取得され、
【数8】
ここで、Wrawはトレーニング対象のパラメータであり、Wは照明行列であり、単一チャネル光源の場合にサイズが1×Nであり、カラー光源の場合にサイズが3×Nであり、NがLumitexelのベクトル長さであり、fは1つのマッピングであり、Wrawを変換することにより、生成された照明行列を光源の可能な発光強度に対応できるようにし、本実例ではマッピングfがSigmoid関数を選択し、第1層のネットワークの照明行列Wの初期値を(0,1)に制限するが、fがSigmoid関数に限らない。
【0030】
Wlを光源の発光強度とし、上記(1)の前記関係に応じてk個のサンプリング観測値
を計算して取得する。
【0031】
(3)第2層からは特徴抽出ネットワークであり、k個のサンプリングは独立して特徴抽出して特徴ベクトルを取得し、公式は、以下の式9に示され、
【数9】
ここで、fが一次元畳み込み関数であり、畳み込みカーネルのサイズが1×1であり、
がそれぞれj回目にサンプリングするときのサンプリング点の空間位置、サンプリング点の幾何学的法線ベクトル及び幾何学的接ベクトルであり、
が三次元で再構築され又はスキャナにより走査された後に取得した幾何学的モデルにより取得されてもよく、

に直交する任意の単位ベクトルであり、ビデオカメラのポーズをj回目にサンプリングすることにより
を変換して
を取得することができ、Vfeature(j)がネットワークから出力されるj回目にサンプリングする特徴ベクトルである。
【0032】
(4)特徴抽出ネットワークの後は最大プーリング層である。最大プーリング操作の公式は、以下の式10に示され、
【数10】
最大プーリング操作がVfeature(1),Vfeature(2),…,Vfeature(k)の各次元において行われる。
【0033】
(5)最大プーリング層の後は非線形マッピングネットワークであり、
【数11】
ここで、fi+1が第i+1層のネットワークのマッピング関数であり、Wi+1が第i+1層のネットワークのパラメータ行列であり、bi+1が第i+1層のネットワークのオフセットベクトルであり、yi+1が第i+1層のネットワークの出力であり、dとsがそれぞれ乱反射及び鏡面反射の2つの分岐を示し、入力y とy がVfeatureである。
【0034】
(6)ニューラルネットワークの損失関数は下記(6.1)~(6.4)を含む。
(6.1)1つのLumitextel空間を仮定し、該空間は中心がサンプリング点の空間位置xにある立方体であり、立方体の中心座標系はx軸方向が
であり、z軸方向が
であり、
(6.2)1つのビデオカメラを仮定し、観察方向が立方体のz軸の正方向であり、
(6.3)乱反射Lumitexelの場合に立方体の分解能が6×N であり、鏡面反射Lumitexelの場合に立方体の分解能が6×N であり、即ち各面からN 、N 個の点を、光強度が単位光強度の仮想点光源として均一にサンプリングし、本実施例ではN=8、N=32であり、
a.サンプリング点の鏡面反射率ρを0とし、このLumitexel空間における乱反射特徴ベクトル
を生成し、
b.乱反射率ρを0とし、このLumitexel空間における鏡面反射特徴ベクトル
を生成し、
c.ニューラルネットワークの出力をベクトルm、mとし、m
の長さと同じであり、m
の長さと同じであり、ベクトルmd、がそれぞれ乱反射特徴ベクトル
、鏡面反射ベクトル
の予測であり、
(6.4)マテリアル特徴部分の損失関数は、以下の式12に示され、
【数12】
ここで、λとλがそれぞれm、mの損失重みを示し、信頼度βが鏡面反射Lumitexelの損失を評価することに用いられ、logがベクトルの各次元に作用し、
信頼度βの決定は、以下の式13に示され、
【数13】
ここで、
項がj回目にサンプリングする全ての単一光源レンダリング値の最大値の対数を示し、
項がj回目にサンプリングする際に理論的に取得できる単一光源レンダリング値の最大値の対数を示し、
が比率調整係数であり、本実施例では
=50%である。
【0035】
3.トレーニングが終了した後、ネットワークの線形完全接続層のパラメータWrawを取り出して、公式W=f(Wraw)により変換されたものを照明パターンとする。
【0036】
二、収集段階
収集段階は更にマテリアル収集段階、幾何学的位置合わせ段階(選択可能に)及びマテリアル回復段階に細分化されてもよい。
【0037】
1.マテリアル収集段階
収集装置は照明パターンに応じて順に目標三次元物体を照射し、ビデオカメラは1組の非構造化画像における写真を取得し、写真を入力とし、工業界に開示される三次元再構築ツールによってサンプリング物体の幾何学的モデル及び写真撮影時のビデオカメラのポーズを取得することができる。
2.幾何学的位置合わせ段階(選択可能に)
(1)高精度スキャナにより物体を走査して幾何学的モデルを取得し、
(2)スキャナにより走査して取得された幾何学的モデルと三次元で再構築された幾何学的モデルとを位置合わせしたもので三次元で再構築された幾何学的モデルを代替し、位置合わせ方法は分野内に開示される方法CPDを用いてもよい(A. Myronenko and X. Song. 2010. Point Set Registration: Coherent Point Drift. IEEE PAMI 32, 12 (2010), 2262-2275.
)。
3.マテリアル回復段階
(1)マテリアル収集ステップにおける写真撮影時のビデオカメラのポーズに基づいて第j枚の写真を撮影するときのサンプリング物体の各頂点のポーズ
を取得し、
(2)三次元で再構築して取得されたサンプリング物体の幾何学的モデル又は位置合わせされた後のスキャナにより走査して取得されたサンプリング物体の幾何学的モデルを分野内に開示されるツールIso-chartsにより処理して、テクスチャ座標付きの幾何学的モデルを取得し、
(3)有効テクスチャ座標に対して、上記収集された1組の写真r、r、…、rπ及びサンプリング点のポーズ情報に基づいて写真における画素を順に取り出して、画素の有効性を判断し、頂点に対するポーズ
と組み合わせて高次元点群をニューラルネットワークの第2層の特徴抽出ネットワークの入力ベクトルとして構成し、最終層の出力ベクトルm及びmを計算して取得する。
【0038】
ある有効テクスチャ座標に対して決定されたサンプリング物体の表面上の点pについて、j回目のサンプリングが点pに対して有効である判断標準は、
1)x が該サンプリングにおいてビデオカメラにとって可視となるものであり、且つx がネットワークをトレーニングする際に定義したサンプリング空間内にあること、
2)
であり、
がドット積操作であり、θが有効サンプリング角度の下限であり、本実施例ではθ=0.3であること、
3)写真における画素の各チャネル数値が区間[a,b]にあり、aとbが有効サンプリング輝度の下限と上限であり、本実施例ではa=32、b=224であること、に表現され、
3つの条件が全て満足される場合、j回目のサンプリングが点pに対して有効であると見なされ、j回目のサンプリング結果を高次元点群に追加し、
(4)マテリアルパラメータをフィッティングし、それは下記1)及び2)の2つのステップに分けられる。
1)ローカル座標系及び粗度のフィッティング
ある有効テクスチャ座標に対して決定されたサンプリング物体の表面上の点pについて、ネットワークから出力される単一チャネルの鏡面反射ベクトルに基づいてL-BFGS-B方法によってマテリアルパラメータにおけるローカル座標系及び粗度をフィッティングし、最適化目標は、以下の式14に示され、
【数14】
ここで、iは(6.3)における仮想光源の番号であり、m(l)はネットワークにより予測された鏡面反射特徴ベクトルのl番目の次元における値を示し、ω′は該番号lの仮想光源とサンプリング点とがなす入射角を示し、ω′はサンプリング点から(6.2)における仮想ビデオカメラまでなす出射角を示し、Pは該サンプリング点のレンダリングのための法線ベクトルn′、接ベクトルt′及び他のマテリアルパラメータp′を含み、選択されたモデルの相違によって異なる。この工程がGGXモデルを用いる場合、p′は異方性粗度、鏡面反射率、乱反射率を含む。上記最適化目標においてn′、t′、p′が最適化可能なパラメータである。
【0039】
2)反射率のフィッティング
該過程は信頼領域アルゴリズムによって鏡面反射率及び乱反射率を求め、フィッティング目標は、以下の式15に示され、
【数15】
ここで、
は該画素がj番目のフィッティングのための視角において、上記最適化して取得された照明パターンにより照射された後、ビデオカメラの観測値を示す。Bは該画素がj番目のフィッティングのための視角において、前の過程において取得されたn′及びt′並びに粗度を用いて合成した観測値を示す。カラー光源の場合に合成パラメータは補正して取得されたカラー補正行列δ(c,c,c)を更に含む。Bの計算過程は以下のとおりである。
まず、乱反射率を1、鏡面反射率を0とし、前のステップにおいて取得されたレンダリングのための座標系及び粗度によってj番目の視角における乱反射Lumitexel、
をレンダリングする。次に、乱反射率を0、鏡面反射率を1とし、前のステップにおいて取得されたレンダリングのための座標系及び粗度によってj番目の視角における鏡面反射Lumitexel、
をレンダリングする。2つのLumitexelを接続して行列
を形成し、サイズはN×2であり、ここで、Nがサンプリング装置の光源数である。サンプリングする際に用いるサイズ3×Nの照明パターン行列WをMに乗じてWを取得し、サイズが3×2である。更にサイズ2×3の最適化可能な変数ρd,sに乗じて、以下の式16を取得し、
【数16】
Tのサイズが3×3であり、そのコピーを接続してテンソル
を形成し、下位二次元で和を求めて、最終的に三次元ベクトルBを取得する。カラー光源の場合、
を、装置を校正して取得したカラー補正行列δ(c,c,c)に要素ごとに乗じから下位二次元で和を求める必要がある。
【0040】
以下、1つの具体的な収集装置のシステム実例を挙げて、図1はシステム実例の三次元表示であり、図2は正面図であり、図3は側面図であり、該収集装置は1つのランプパネルで構成され、上部には画像を収集するための1つのカメラが固定される。ランプパネルには計512個のLEDランプビーズが密集して配列される。ランプビーズはFPGAにより制御され、発光輝度及び発光時間を調整することができる。
【0041】
以下、本発明の方法を応用する1つの取得システム実例を挙げて、システム全体は下記いくつかのモジュールに分けられる。
【0042】
用意モジュールについては、
ネットワークトレーニングにデータセットを提供し、該部分がGGXモデルを用い、1組のマテリアルパラメータ及びk個のサンプリング点のポーズ情報、ビデオカメラの位置を入力すると、k個の反射状況で構成される高次元点群を取得することができる。ネットワークトレーニング部はPytorchオープンソースフレームワークを用い、且つAdam最適化装置によってトレーニングを行う。ネットワーク構造は図6に示されるとおりであり、各矩形が1層のニューロンを示し、矩形中の数字が該層のニューロンの個数を示す。最左側の層が入力層であり、最右側の層が出力層である。層と層との間の実線矢印が完全接続を示し、破線矢印が畳み込みを示す。
【0043】
収集モジュールについては、
装置は図1、2、3に示されるとおりであり、以上は具体的な構造を説明したが、このシステムにおいて定義されたサンプリング空間のサイズ、並びに収集装置とサンプリング空間との空間的な位置関係は図4に示される。
【0044】
回復モジュールについては、
三次元で再構築して取得されたサンプリング物体の幾何学的モデル又は位置合わせされた後のスキャナにより走査して取得されたサンプリング物体の幾何学的モデルによってテクスチャ座標付きの幾何学的モデルを計算して取得し、トレーニング済みのニューラルネットワークをロードし、テクスチャ座標付きの幾何学的モデルの各頂点に対してマテリアル特徴ベクトルを予測し、レンダリングのための座標系及びマテリアルパラメータをフィッティングする。
【0045】
図5は本実施例の作業プロセスである。まず、トレーニングデータを生成し、ランダムにサンプリングして2億個のLumitexelを取得し、その80%をトレーニングセットとし、残りを検証セットとする。ネットワークをトレーニングする際にXavier方法によってパラメータを初期化し、学習率を1e-4とする。照明パターンがカラーであり、照明行列のサイズが(3,512)であり、行列の3行がそれぞれ赤、緑、青の3つのチャネルの照明パターンを示す。トレーニングが終了した後、照明行列を取り出して照明パターンに変換し、各列のパラメータが該位置での光源の発光強度を指定しており、図7にはネットワークをトレーニングして取得された1つの赤、緑、青の3つのチャネルの照明パターンを示す。次のプロセスは以下のとおりである。第1として、装置を手で持って、ランプパネルを照明パターンに応じて発光させ、ビデオカメラで物体を同時に撮影して、1組のサンプリング結果を取得する。第2として、三次元で再構築して取得されたサンプリング物体の幾何学的モデル又は位置合わせされた後のスキャナにより走査して取得されたサンプリング物体の幾何学的モデルをIsochartによって処理して、テクスチャ座標付きの幾何学的モデルを取得する。第3として、テクスチャ座標付きの幾何学的モデルの各頂点に対して、サンプリング時のポーズ及びサンプリング写真の画素値に基づいて対応する有効な実際撮影データを見つけて、高次元点群を構成してネットワークに入力して、乱反射特徴ベクトル及び鏡面反射特徴ベクトルを回復する。第4として、ネットワークから出力される乱反射特徴ベクトル及び鏡面反射特徴ベクトルに基づいて、各頂点に対してLBFGS-B方法によってレンダリングのための座標系及び粗度をフィッティングし、信頼領域アルゴリズムによって鏡面反射率及び乱反射率を求める。
【0046】
図8には上記システムにより回復された検証セットにおける2つのLumitexelベクトルを示し、左側の列が
であり、右側の列が対応するmである。
【0047】
図9には上記システムによりサンプリング物体に対してマテリアル外観走査を行って回復したマテリアル属性結果を示し、第1行がそれぞれサンプリング物体の
の3つの成分を示し、第2行がそれぞれサンプリング物体の
の3つの成分を示し、第3行がそれぞれサンプリング物体の粗度係数α、αを示し、階調値が数値の大きさを代表する。
【0048】
以上は単に好適な実施例であり、本発明は上記実施形態に限らず、同じ手段で本発明の技術的効果を実現するものであれば、いずれも本発明の保護範囲に属すべきである。本発明の保護範囲内に、その技術案及び/又は実施形態は種々の異なる修正及び変化を行うことができる。
図1
図2
図3
図4
図5
図6
図7
図8
図9
【国際調査報告】