(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-23
(45)【発行日】2024-07-31
(54)【発明の名称】顔再構成方法、装置、コンピュータ装置及び記憶媒体
(51)【国際特許分類】
G06T 17/00 20060101AFI20240724BHJP
G06T 1/00 20060101ALI20240724BHJP
G06T 7/50 20170101ALI20240724BHJP
G06T 7/30 20170101ALI20240724BHJP
G06T 7/00 20170101ALI20240724BHJP
【FI】
G06T17/00
G06T1/00 315
G06T1/00 340A
G06T7/50
G06T7/30
G06T7/00 350C
(21)【出願番号】P 2023531694
(86)(22)【出願日】2021-07-27
(86)【国際出願番号】 CN2021108629
(87)【国際公開番号】W WO2022110855
(87)【国際公開日】2022-06-02
【審査請求日】2023-05-24
(31)【優先権主張番号】202011337942.0
(32)【優先日】2020-11-25
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】520291939
【氏名又は名称】北京市商▲湯▼科技▲開▼▲發▼有限公司
【氏名又は名称原語表記】BEIJING SENSETIME TECHNOLOGY DEVELOPMENT CO.,LTD.
【住所又は居所原語表記】Room 1101-1117,11th Floor No.58 Northwest 4th Ring Road, Haidian District Beijing 100080 China
(74)【代理人】
【識別番号】110001195
【氏名又は名称】弁理士法人深見特許事務所
(74)【代理人】
【識別番号】110002468
【氏名又は名称】弁理士法人後藤特許事務所
(72)【発明者】
【氏名】林 純澤
(72)【発明者】
【氏名】陳 祖凱
(72)【発明者】
【氏名】王 権
(72)【発明者】
【氏名】徐 勝偉
(72)【発明者】
【氏名】銭 晨
【審査官】鈴木 明
(56)【参考文献】
【文献】特開2021-192220(JP,A)
【文献】特開2014-211719(JP,A)
【文献】米国特許出願公開第2020/0202111(US,A1)
【文献】中国特許出願公開第109376698(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 17/00
G06T 1/00
G06T 7/50
G06T 7/30
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
対象画像に含まれる元の顔の高密度点群データを取得するステップと、
複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて前記元の顔の高密度点群データをフィッティングし、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を得るステップと、
予め設定されたスタイルを有する複数組の第2の参照顔の高密度点群データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを決定するステップであって、前記複数組の第2の参照顔はそれぞれ前記複数の参照画像における第1の参照顔に基づいて生成されるステップと、
前記対象顔モデルの高密度点群データに基づいて、前記対象画像の前記元の顔に対応する対象顔モデルを生成するステップと、を含む、
ことを特徴とする顔再構成方法。
【請求項2】
前記予め設定されたスタイルを有する複数組の第2の参照顔の高密度点群データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを決定するステップは、
複数組の前記第2の参照顔の高密度点群データに基づいて、複数組の前記第2の参照顔の高密度点群データの平均値データを生成するステップと、
複数組の前記第2の参照顔の高密度点群データの各組の前記第2の参照顔の高密度点群データ、及び前記平均値データに基づいて、各組の前記第2の参照顔の高密度点群データの差分データを決定するステップと、
複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、複数組の前記第2の参照顔の高密度点群データのそれぞれに対応する差分データを補間処理するステップと、
前記補間処理の結果及び前記平均値データに基づいて、前記対象顔モデルの高密度点群データを生成するステップと、を含む、
ことを特徴とする請求項1に記載の顔再構成方法。
【請求項3】
前記対象画像における前記元の顔の高密度点群データ
及び前記複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データは、予め訓練されたニューラルネットワークを用いて得られる、
ことを特徴とする請求項
1又は2に記載の顔再構成方法。
【請求項4】
前記複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて前記元の顔の高密度点群データをフィッティングし、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を得るステップは、
前記元の顔の高密度点群データ及び前記第1の参照顔の高密度点群データを最小二乗処理し、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応する中間係数を得るステップと、
各組の前記第1の参照顔の高密度点群データに対応する中間係数に基づいて、各組の前記第1の参照顔の高密度点群データに対応するフィッティング係数を決定するステップと、を含む、
ことを特徴とする請求項1~
3のいずれか1項に記載の顔再構成方法。
【請求項5】
前記各組の前記第1の参照顔の高密度点群データに対応する中間係数に基づいて、各組の前記第1の参照顔の高密度点群データに対応するフィッティング係数を決定するステップは、
各組の前記第1の参照顔の高密度点群データから、対象顔モデルの部位に対応する第1のタイプの高密度点群データを決定するステップと、
前記第1の参照顔の高密度点群データにおける前記第1のタイプの高密度点群データに対応する中間係数を調整し、第1のフィッティング係数を得るステップと、
前記第1の参照顔の高密度点群データのうち第2のタイプの高密度点群データに対応する中間係数を、第2のフィッティング係数として決定するステップであって、前記第2のタイプの高密度点群データは前記第1の参照顔の高密度点群データのうち前記第1のタイプの高密度点群データ以外の高密度点群データであるステップと、
前記第1のフィッティング係数及び前記第2のフィッティング係数に基づいて、各組の前記第1の参照顔の高密度点群データのフィッティング係数を得るステップと、を含む、
ことを特徴とする請求項
4に記載の顔再構成方法。
【請求項6】
前記参照画像における第1の参照顔の高密度点群データを調整し、前記予め設定されたスタイルを有する第2の参照顔の高密度点群データを得ること、又は、
前記参照画像における第1の参照顔に基づいて、前記予め設定されたスタイルを有する第2の参照顔を含む仮想顔画像を生成し、予め訓練されたニューラルネットワークを用いて前記仮想顔画像における前記第2の参照顔の高密度点群データを生成することにより、前記予め設定されたスタイルを有する第2の参照顔の高密度点群データを取得する、
ことを特徴とする請求項1~
5のいずれか1項に記載の顔再構成方法。
【請求項7】
前記ニューラルネットワークを訓練することは、
サンプル画像セットを取得することであって、前記サンプル画像セットは第1のサンプル顔を含む複数の第1のサンプル画像を含み、前記複数の第1のサンプル画像は複数の第1のサンプル画像サブセットに分割され、各前記第1のサンプル画像サブセットは複数の予め設定された収集角度からそれぞれ収集された同じ表情を有する第1のサンプル顔の画像を含むことと、
前記サンプル画像セットにおける第1のサンプル画像の第1のサンプル顔の高密度点群データを取得することと、
前記ニューラルネットワークを用いて、前記サンプル画像セットにおける第1のサンプル画像に対して特徴学習を行い、前記第1のサンプル画像の第1のサンプル顔の予測された高密度点群データを得ることと、
前記第1のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練することと、を含む、
ことを特徴とする請求項
3又は6に記載の顔再構成方法。
【請求項8】
前記サンプル画像セットは第2のサンプル顔及び背景を含む複数の第2のサンプル画像をさらに含み、前記ニューラルネットワークを訓練することは、さらに、
各前記第2のサンプル画像の顔キーポイントデータを取得することと、
前記第2のサンプル画像の顔キーポイントデータ及び前記第2のサンプル画像を用いて、前記第2のサンプル画像の第2のサンプル顔の高密度点群データをフィッティングして生成することと、
前記ニューラルネットワークを用いて、前記サンプル画像セットにおける第2のサンプル画像に対して特徴学習を行い、前記第2のサンプル画像の第2のサンプル顔の予測された高密度点群データを得ることと、
前記第2のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練することと、を含む、
ことを特徴とする請求項
7に記載の顔再構成方法。
【請求項9】
前記サンプル画像セットは第3のサンプル画像をさらに含み、前記第3のサンプル画像は前記第1のサンプル画像に対してデータ拡張処理を行うことにより得られ、前記ニューラルネットワークを訓練することは、さらに、
前記第3のサンプル画像の第3のサンプル顔の高密度点群データを取得することと、
前記ニューラルネットワークを用いて前記第3のサンプル画像に対して特徴学習を行い、前記第3のサンプル画像の第3のサンプル顔の予測された高密度点群データを得ることと、
前記第3のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練することと、を含
み、
前記データ拡張処理は、ランダム消去処理、ガウス雑音処理、モーションブラー処理、及び色チャンネル変更処理の少なくとも1つを含む、
ことを特徴とする請求項
7又は8に記載の顔再構成方法。
【請求項10】
対象画像に含まれる元の顔の高密度点群データを取得するための第1の取得モジュールと、
複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて前記元の顔の高密度点群データをフィッティングし、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を得るための第1の処理モジュールと、
予め設定されたスタイルを有する複数組の第2の参照顔の高密度点群データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを決定するための決定モジュールであって、前記複数組の第2の参照顔はそれぞれ前記複数の参照画像における第1の参照顔に基づいて生成される決定モジュールと、
前記対象顔モデルの高密度点群データに基づいて、前記対象画像の前記元の顔に対応する対象顔モデルを生成するための生成モジュールと、を含む、
ことを特徴とする顔再構成装置。
【請求項11】
プロセッサと、前記プロセッサによって実行可能な機械可読命令を記憶しているメモリと、を含み、前記プロセッサは前記メモリに記憶された機械可読命令を実行するために用いられ、前記機械可読命令が前記プロセッサによって実行されると、前記プロセッサは請求項1~
9のいずれか1項に記載の顔再構成方法のステップを実行する、
ことを特徴とするコンピュータ装置。
【請求項12】
コンピュータプログラムを記憶しているコンピュータ可読記憶媒体であって、前記コンピュータプログラムがコンピュータ装置によって実行されると、前記コンピュータ装置は請求項1~
9のいずれか1項に記載の顔再構成方法のステップを実行する、
ことを特徴とするコンピュータ可読記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
<関連出願の相互参照>
本特許出願は、2020年11月25日に提出された、出願番号202011337942.0、発明の名称「顔再構成方法、装置、コンピュータ装置及び記憶媒体」の中国特許出願の優先権を主張し、当該出願が参照により本明細書に組み込まれる。
【0002】
本開示は、画像処理技術の分野に関し、具体的には、顔再構成方法、装置、コンピュータ装置及び記憶媒体に関する。
【背景技術】
【0003】
通常、実際の顔や自分の好みに基づいて仮想顔3次元モデルを確立し、顔の再構成を実現することができ、ゲーム、アニメ、バーチャルソーシャルなどの分野で広く応用されている。例えば、ゲームにおいて、プレイヤは、ゲームプログラムによって提供される顔再構成システムによって、プレイヤによって提供される画像に含まれる実際の顔に基づいて仮想顔3次元モデルを生成し、生成された仮想顔3次元モデルを用いてより没入感のあるゲームへの参加を可能とする。
【0004】
現在、顔再構成方法に基づいて得られた仮想顔3次元モデルと実際の顔との間の類似度は低い。
【発明の概要】
【0005】
本開示の実施例は、少なくとも1つの顔再構成方法、装置、コンピュータ装置及び記憶媒体を提供する。
【0006】
第1の態様において、本開示の実施例は、顔再構成方法を提供し、対象画像に含まれる元の顔の高密度点群データを取得するステップと、複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて前記元の顔の高密度点群データをフィッティングし、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を得るステップと、予め設定されたスタイルを有する複数組の第2の参照顔の高密度点群データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを決定するステップであって、前記複数組の第2の参照顔はそれぞれ前記複数の参照画像における第1の参照顔に基づいて生成されるステップと、前記対象顔モデルの高密度点群データに基づいて、前記対象画像の前記元の顔に対応する対象顔モデルを生成するステップと、を含む。
【0007】
当該実施形態において、フィッティング係数を媒介として用いて、元の顔の高密度点群データと複数の第1の参照顔の高密度点群データとの間の関連関係を確立し、当該関連関係は、第1の参照顔の高密度点群データに基づいて決定された第2の参照顔の高密度点群データと、元の顔に基づいて確立された対象顔モデルの高密度点群データとの間の関連性を特徴付けることができ、それにより生成された対象顔モデルは対象画像における元の顔の特徴(例えば形状特徴など)を有し、元の顔との間の類似度がより高く、また生成された対象顔モデルが予め設定されたスタイルを有するようにすることができる。
【0008】
選択可能な一実施形態において、前記予め設定されたスタイルを有する複数組の第2の参照顔の高密度点群データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを決定するステップは、複数組の前記第2の参照顔の高密度点群データに基づいて、複数組の前記第2の参照顔の高密度点群データの平均値データを生成するステップと、複数組の前記第2の参照顔の高密度点群データ、前記平均値データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、前記対象顔モデルの高密度点群データを生成するステップと、を含む。
【0009】
選択可能な一実施形態において、前記複数組の前記第2の参照顔の高密度点群データ、前記平均値データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、前記対象顔モデルの高密度点群データを生成するステップは、複数組の前記第2の参照顔の高密度点群データの各組の前記第2の参照顔の高密度点群データ、及び前記平均値データに基づいて、各組の前記第2の参照顔の高密度点群データの差分データを決定するステップと、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、複数組の前記第2の参照顔の高密度点群データのそれぞれに対応する差分データを補間処理するステップと、前記補間処理の結果及び前記平均値データに基づいて、前記対象顔モデルの高密度点群データを生成するステップと、を含む。
【0010】
当該実施形態において、平均値データを用いて複数組の第2の参照顔の高密度点群データの平均的な特徴を正確に特徴付けることができ、各組の第2の参照顔の高密度点群データの差分データを用いて、各組の第2の参照顔の高密度点群データのそれぞれと複数組の第2の参照顔の高密度点群データの平均的な特徴との相違度を正確に特徴付けることができ、それにより、より正確な相違度データを用いて平均値データを調整し、対象顔モデルの高密度点群データをより簡単に決定する。
【0011】
選択可能な一実施形態において、前記対象画像に含まれる元の顔の高密度点群データを取得するステップは、前記元の顔を含む前記対象画像を取得するステップと、予め訓練されたニューラルネットワークを用いて前記対象画像を処理し、前記対象画像における前記元の顔の高密度点群データを得るステップと、を含む。
【0012】
当該実施形態において、元の顔の高密度点群データを用いて対象画像における元の顔の顔特徴をより正確に特徴付けることができる。
【0013】
選択可能な一実施形態において、前記方法は、第1の参照顔を含む複数の参照画像を取得することと、複数の前記参照画像のそれぞれについて、予め訓練されたニューラルネットワークを用いて各前記参照画像を処理し、各前記参照画像における前記第1の参照顔の高密度点群データを得ることと、により前記複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを取得する。
【0014】
当該実施形態において、第1の参照顔の高密度点群データを用いて、参照画像における第1の参照顔のそれぞれに対応する顔特徴をより正確に特徴付けることができる。同時に、第1の参照顔を含む複数の参照画像を用いることで、できるだけ広範囲の顔外形特徴をカバーすることができる。
【0015】
選択可能な一実施形態において、前記複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて前記元の顔の高密度点群データをフィッティングし、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を得るステップは、前記元の顔の高密度点群データ及び前記第1の参照顔の高密度点群データを最小二乗処理し、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応する中間係数を得るステップと、各組の第1の参照顔の高密度点群データに対応する中間係数に基づいて、各組の前記第1の参照顔の高密度点群データに対応するフィッティング係数を決定するステップと、を含む。
【0016】
当該実施形態において、フィッティング係数を用いて、複数の第1の参照顔の高密度点群データを用いて元の顔の高密度点群データをフィッティングする時のフィッティング状況を正確に特徴付けることができる。
【0017】
選択可能な一実施形態において、前記各組の第1の参照顔の高密度点群データに対応する中間係数に基づいて、各組の前記第1の参照顔の高密度点群データに対応するフィッティング係数を決定するステップは、各組の前記第1の参照顔の高密度点群データから、対象顔モデルの部位に対応する第1のタイプの高密度点群データを決定するステップと、前記第1の参照顔の高密度点群データにおける前記第1のタイプの高密度点群データに対応する中間係数を調整し、第1のフィッティング係数を得るステップと、前記第1の参照顔の高密度点群データのうち第2のタイプの高密度点群データに対応する中間係数を、第2のフィッティング係数として決定するステップであって、前記第2のタイプの高密度点群データは前記第1の参照顔の高密度点群データのうち前記第1のタイプの高密度点群データ以外の高密度点群データであるステップと、前記第1のフィッティング係数及び前記第2のフィッティング係数に基づいて、各組の前記第1の参照顔の高密度点群データのフィッティング係数を得るステップと、を含む。
【0018】
選択可能な一実施形態において、前記方法は、前記参照画像における第1の参照顔の高密度点群データを調整し、前記予め設定されたスタイルを有する第2の参照顔の高密度点群データを得ること、又は、前記参照画像における第1の参照顔に基づいて、前記予め設定されたスタイルを有する第2の参照顔を含む仮想顔画像を生成し、予め訓練されたニューラルネットワークを用いて前記仮想顔画像における前記第2の参照顔の高密度点群データを生成することにより、前記予め設定されたスタイルを有する第2の参照顔の高密度点群データを取得する。
【0019】
当該実施形態において、一部の顔の部位に対応するフィッティング係数を調整することにより、フィッティング係数及び複数の対応する第1の参照顔の高密度点群データに基づいてフィッティングされた高密度点群データを、対象画像に対応する元の顔の高密度点群データに近似させることができ、つまり得られたフィッティング係数は第1の参照顔の高密度点群が元の顔の高密度点群にフィッティングする時の係数をより正確に特徴付けることができる。
【0020】
選択可能な一実施形態において、前記ニューラルネットワークを訓練することは、サンプル画像セットを取得することであって、前記サンプル画像セットは第1のサンプル顔を含む複数の第1のサンプル画像を含み、前記複数の第1のサンプル画像は複数の第1のサンプル画像サブセットに分割され、各第1のサンプル画像サブセットは複数の予め設定された収集角度からそれぞれ収集された同じ表情を有する第1のサンプル顔の画像を含むことと、前記サンプル画像セットにおける第1のサンプル画像の第1のサンプル顔の高密度点群データを取得することと、前記ニューラルネットワークを用いて、前記サンプル画像セットにおける第1のサンプル画像に対して特徴学習を行い、前記第1のサンプル画像の第1のサンプル顔の予測された高密度点群データを得ることと、前記第1のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練することと、を含む。
【0021】
選択可能な一実施形態において、前記サンプル画像セットは第2のサンプル顔及び背景を含む複数の第2のサンプル画像をさらに含み、前記ニューラルネットワークを訓練するステップは、さらに、各前記第2のサンプル画像の顔キーポイントデータを取得するステップと、第2のサンプル画像の顔キーポイントデータ及び前記第2のサンプル画像を用いて、前記第2のサンプル画像の第2のサンプル顔の高密度点群データをフィッティングして生成するステップと、前記ニューラルネットワークを用いて、前記サンプル画像セットにおける第2のサンプル画像に対して特徴学習を行い、前記第2のサンプル画像の第2のサンプル顔の予測された高密度点群データを得るステップと、前記第2のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練するステップと、を含む。
【0022】
選択可能な一実施形態において、前記サンプル画像セットは第3のサンプル画像をさらに含み、前記第3のサンプル画像は前記第1のサンプル画像に対してデータ拡張処理を行うことにより得られ、
前記ニューラルネットワークを訓練するステップは、さらに、
前記第3のサンプル画像の第3のサンプル顔の高密度点群データを取得するステップと、
前記ニューラルネットワークを用いて前記第3のサンプル画像に対して特徴学習を行い、前記第3のサンプル画像の第3のサンプル顔の予測された高密度点群データを得るステップと、
前記第3のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練するステップと、を含む。
【0023】
選択可能な一実施形態において、前記データ拡張処理は、ランダム消去処理、ガウス雑音処理、モーションブラー処理、及び色チャンネル変更処理の少なくとも1つを含む。
【0024】
当該実施形態において、第1のサンプル画像、第2のサンプル画像、及び第3のサンプル画像の数を調整することによって、異なる利点のニューラルネットワークを得て、実際のニーズに応じてより優れたニューラルネットワークを得ることができ、同時に、第3のサンプル画像はデータ拡張処理によって得られるので、サンプル画像に第3のサンプル画像が含まれている場合、訓練されたニューラルネットワークのデータ処理能力がより高くなる。
【0025】
同時に、第2のサンプル画像に含まれる顔はできるだけ広範囲の顔外形特徴をカバーすることができるので、得られるニューラルネットワークはより良い汎化能力を有することができる。
【0026】
第2の態様において、本開示の実施例は、顔再構成装置をさらに提供し、
対象画像に含まれる元の顔の高密度点群データを取得するための第1の取得モジュールと、
複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて前記元の顔の高密度点群データをフィッティングし、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を得るための第1の処理モジュールと、
予め設定されたスタイルを有する複数組の第2の参照顔の高密度点群データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを決定するための決定モジュールであって、前記複数組の第2の参照顔はそれぞれ前記複数の参照画像における第1の参照顔に基づいて生成される決定モジュールと、
前記対象顔モデルの高密度点群データに基づいて、前記対象画像の前記元の顔に対応する対象顔モデルを生成するための生成モジュールと、を含む。
【0027】
選択可能な一実施形態において、前記決定モジュールは、予め設定されたスタイルを有する複数組の第2の参照顔の高密度点群データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを決定する場合、複数組の前記第2の参照顔の高密度点群データに基づいて、複数組の前記第2の参照顔の高密度点群データの平均値データを生成することと、複数組の前記第2の参照顔の高密度点群データ、前記平均値データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、前記対象顔モデルの高密度点群データを生成することとに用いられる。
【0028】
選択可能な一実施形態において、前記決定モジュールは、複数組の前記第2の参照顔の高密度点群データ、前記平均値データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、前記対象顔モデルの高密度点群データを生成する場合、複数組の前記第2の参照顔の高密度点群データの各組の前記第2の参照顔の高密度点群データ、及び前記平均値データに基づいて、各組の前記第2の参照顔の高密度点群データの差分データを決定することと、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、複数組の前記第2の参照顔の高密度点群データのそれぞれに対応する差分データを補間処理することと、前記補間処理の結果及び前記平均値データに基づいて、前記対象顔モデルの高密度点群データを生成することとに用いられる。
【0029】
選択可能な一実施形態において、前記第1の取得モジュールは、対象画像に含まれる元の顔の高密度点群データを取得する場合、前記元の顔を含む前記対象画像を取得することと、予め訓練されたニューラルネットワークを用いて前記対象画像を処理し、前記対象画像における前記元の顔の高密度点群データを得ることとに用いられる。
【0030】
選択可能な一実施形態において、前記装置は、第1の参照顔を含む複数の参照画像を取得することと、複数の前記参照画像のそれぞれについて、予め訓練されたニューラルネットワークを用いて各前記参照画像を処理し、各前記参照画像における前記第1の参照顔の高密度点群データを得ることと、により前記複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを取得するための第2の処理モジュールをさらに含む。
【0031】
選択可能な一実施形態において、前記第1の処理モジュールは、複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて前記元の顔の高密度点群データをフィッティングし、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を得る場合、前記元の顔の高密度点群データ及び前記第1の参照顔の高密度点群データを最小二乗処理し、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応する中間係数を得ることと、各組の第1の参照顔の高密度点群データに対応する中間係数に基づいて、各組の前記第1の参照顔の高密度点群データに対応するフィッティング係数を決定することとに用いられる。
【0032】
選択可能な一実施形態において、前記第1の処理モジュールは、各組の第1の参照顔の高密度点群データに対応する中間係数に基づいて、各組の前記第1の参照顔の高密度点群データに対応するフィッティング係数を決定する場合、各組の前記第1の参照顔の高密度点群データから、対象顔モデルの部位に対応する第1のタイプの高密度点群データを決定することと、前記第1の参照顔の高密度点群データにおける前記第1のタイプの高密度点群データに対応する中間係数を調整し、第1のフィッティング係数を得ることと、前記第1の参照顔の高密度点群データのうち第2のタイプの高密度点群データに対応する中間係数を、第2のフィッティング係数として決定することであって、前記第2のタイプの高密度点群データは前記第1の参照顔の高密度点群データのうち前記第1のタイプの高密度点群データ以外の高密度点群データであることと、前記第1のフィッティング係数及び前記第2のフィッティング係数に基づいて、各組の前記第1の参照顔の高密度点群データのフィッティング係数を得ることとに用いられる。
【0033】
選択可能な一実施形態において、前記装置は、前記参照画像における第1の参照顔の高密度点群データを調整し、前記予め設定されたスタイルを有する第2の参照顔の高密度点群データを得ること、又は、前記参照画像における第1の参照顔に基づいて、前記予め設定されたスタイルを有する第2の参照顔を含む仮想顔画像を生成し、予め訓練されたニューラルネットワークを用いて前記仮想顔画像における前記第2の参照顔の高密度点群データを生成することにより、前記予め設定されたスタイルを有する第2の参照顔の高密度点群データを取得するための調整モジュールをさらに含む。
【0034】
選択可能な一実施形態において、前記装置は、前記ニューラルネットワークを訓練する場合、サンプル画像セットを取得することであって、前記サンプル画像セットは第1のサンプル顔を含む複数の第1のサンプル画像を含み、前記複数の第1のサンプル画像は複数の第1のサンプル画像サブセットに分割され、各第1のサンプル画像サブセットは複数の予め設定された収集角度からそれぞれ収集された同じ表情を有する第1のサンプル顔の画像を含むことと、前記サンプル画像セットにおける第1のサンプル画像の第1のサンプル顔の高密度点群データを取得することと、前記ニューラルネットワークを用いて、前記サンプル画像セットにおける第1のサンプル画像に対して特徴学習を行い、前記第1のサンプル画像の第1のサンプル顔の予測された高密度点群データを得ることと、前記第1のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練することとに用いられる訓練モジュールをさらに含む。
【0035】
選択可能な一実施形態において、前記サンプル画像セットは第2のサンプル顔及び背景を含む複数の第2のサンプル画像をさらに含み、前記訓練モジュールは、さらに、各前記第2のサンプル画像の顔キーポイントデータを取得することと、第2のサンプル画像の顔キーポイントデータ及び前記第2のサンプル画像を用いて、前記第2のサンプル画像の第2のサンプル顔の高密度点群データをフィッティングして生成することと、前記ニューラルネットワークを用いて、前記サンプル画像セットにおける第2のサンプル画像に対して特徴学習を行い、前記第2のサンプル画像の第2のサンプル顔の予測された高密度点群データを得ることと、前記第2のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練することとに用いられる。
【0036】
選択可能な一実施形態において、前記サンプル画像セットは第3のサンプル画像をさらに含み、前記第3のサンプル画像は前記第1のサンプル画像に対してデータ拡張処理を行うことにより得られ、
前記訓練モジュールは、さらに、前記第3のサンプル画像の第3のサンプル顔の高密度点群データを取得することと、前記ニューラルネットワークを用いて前記第3のサンプル画像に対して特徴学習を行い、前記第3のサンプル画像の第3のサンプル顔の予測された高密度点群データを得ることと、
前記第3のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練することとに用いられる。
【0037】
選択可能な一実施形態において、前記データ拡張処理は、ランダム消去処理、ガウス雑音処理、モーションブラー処理、及び色チャンネル変更処理の少なくとも1つを含む。
【0038】
第3の態様において、本開示の選択可能な実現形態は、コンピュータ装置をさらに提供し、プロセッサと、メモリと、を含み、前記プロセッサは前記メモリに記憶された機械可読命令を実行するために用いられ、前記機械可読命令が前記プロセッサによって実行されると、上記第1の態様、又は第1の態様におけるいずれかの可能な実施形態におけるステップを実行する。
【0039】
第4の態様において、本開示の選択可能な実現形態は、コンピュータ可読記憶媒体をさらに提供し、記憶しているコンピュータプログラムが実行されると、上記第1の態様、又は第1の態様におけるいずれかの可能な実施形態におけるステップを実行する。
【0040】
上記顔再構成装置、コンピュータ装置、及びコンピュータ可読記憶媒体の効果説明について上記顔再構成方法の説明を参照し、ここではその説明が省略される。
【0041】
本開示の上記目的、特徴及び利点をより明確に分かりやすくするために、以下、添付図面と組み合わせて、好ましい実施例で詳細に説明する。
【図面の簡単な説明】
【0042】
本開示の実施例の技術的解決手段をより明瞭に説明するために、以下、実施例において使用が必要な図面を簡単に紹介する。これらの図面は、本開示に合致する実施例を示し、明細書とともに本開示の技術的解決手段を説明するために用いられる。理解すべきものとして、以下の図面は、本開示のいくつかの実施例のみを示し、したがって、範囲を限定するものと見なされるべきではなく、当業者にとって、創造的な労力を行わずに、さらにこれらの図面に基づいて他の関連する図面を得ることができる。
【
図1】本開示の実施例にて提供される顔再構成方法を示すフローチャートである。
【
図2】本開示の実施例にて提供されるニューラルネットワークを訓練する具体的な方法を示すフローチャートである。
【
図3】本開示の実施例にて提供される第1のサンプル画像、及び第1のサンプル画像を用いて決定された第3のサンプル画像を示す概略図である。
【
図4】本開示の実施例にて提供される第2のサンプル画像の第2のサンプル顔の高密度点群データを取得する具体的な方法を示すフローチャートである。
【
図5】本開示の実施例にて提供されるニューラルネットワーク構造の具体例を示す図である。
【
図6】複数の参照画像のそれぞれに対応するフィッティング係数を決定する方法を示すフローチャートである。
【
図7】本開示の実施例にて提供される各組の第1の参照顔の高密度点群データに対応するフィッティング係数を決定する具体的な方法を示すフローチャートである。
【
図8】本開示の実施例にて提供される対象顔モデルの高密度点群データを決定する具体的な方法を示すフローチャートである。
【
図9】本開示の実施例にて提供される対象顔モデルの高密度点群データを生成する具体的な方法を示すフローチャートである。
【
図10】本開示の実施例にて提供される顔再構成装置を示す概略図である。
【
図11】本開示の実施例にて提供されるコンピュータ装置を示す概略図である。
【発明を実施するための形態】
【0043】
本開示の実施例の目的、技術的解決手段及び利点をより明瞭にするために、以下、本開示の実施例における図面を組み合わせて、本開示の実施例における技術的解決手段を明瞭、完全に記述し、明らかに、記述された実施例は、本開示の一部の実施例に過ぎず、全ての実施例ではない。通常、この図面において記述して示される本開示の実施例のコンポーネントは、様々な異なる構成で配置され、設計されてもよい。したがって、以下、本開示の実施例の詳細な記述は、保護が要求される本開示の範囲を限定することを意図せず、本開示の選定された実施例のみを示す。本開示の実施例に基づき、当業者であれば、創造的な労力を行わずに得られた全ての他の実施例は、いずれも本開示の保護範囲に属する。
【0044】
研究の結果、顔画像に含まれる顔に基づいて顔再構成を行って仮想顔3次元モデルを得る場合、通常、まず顔画像に基づいて顔に対応する顔高密度点群を取得し、さらに仮想顔3次元モデルの具体的なスタイルに基づいて顔高密度点群を複数回調整することで、仮想画像を生成する。異なる顔に対応する顔高密度点群が異なるため、再構成しようとする仮想顔のスタイルが同じであっても、決定されたスタイルに応じて異なる顔に対応する顔高密度点群に対して顔再構成を行う時に行われる調整も異なり、且つ調整には大きな不確定性があり、調整の過程において調整の具体的な方向を制御することが困難となり、生成された仮想顔3次元モデルと実際の顔との間に大きな差異が存在する可能性があり、仮想顔3次元モデルと実際の顔との間の類似度が低いという問題が生じる。
【0045】
また、異なる顔を再構成する時、異なる顔に対応する顔高密度点群、及びスタイルの顔高密度点群に対する要求に応じて、異なる顔に対する調整案を設定する必要があるため、異なる調整案に基づいて各顔の顔高密度点群を調整する場合、いずれも多くの時間を消費し、顔再構成の効率が低くなる。
【0046】
上記研究に基づき、本開示は、顔再構成方法、装置、コンピュータ装置及び記憶媒体を提供し、フィッティング係数を媒介として用いて、元の顔の高密度点群データと複数の第1の参照顔の高密度点群データとの間の関連関係を確立し、当該関連関係は、第1の参照顔の高密度点群データに基づいて決定された第2の参照顔の高密度点群データと、元の顔に基づいて確立された対象顔モデルの高密度点群データとの間の関連性を特徴付けることができ、それにより生成された対象顔モデルは対象画像における元の顔の特徴(例えば形状特徴など)を有し、元の顔との間の類似度がより高く、また生成された対象顔モデルが予め設定されたスタイルを有するようにすることができる。
【0047】
さらに、本解決手段は、異なるスタイルに対して、複数の参照画像のそれぞれに対応する第2の参照顔の高密度点群データを生成し、且つ予め設定されたスタイルを有する第2の参照顔の高密度点群データを用いて、元の顔に対する対象顔モデルを生成するだけでよく、異なる元の顔に対するターゲット調整案を決定することなく、同じ第2の参照顔の高密度点群データ、及び異なる元の顔のフィッティング係数を用いて、異なる元の顔の対象顔モデルを決定し、より高い処理効率を有する。
【0048】
以上の解決手段に存在する欠陥は、いずれも発明者が実践を経て詳細に検討した結果であり、したがって、上記問題の発見過程及び以下の本開示が上記問題に対して提案する解決手段は、いずれも発明者が本開示の過程において本開示に対して行った貢献であるべきである。
【0049】
なお、以下の図面において、類似の符号及び文字は、類似の項目を示し、したがって、ある項目は、1つの図面において定義されると、以降の図面においてさらに定義され、解釈される必要がない。
【0050】
本実施例の理解を容易にするために、まず、本開示の実施例により開示される顔再構成方法を詳細に紹介し、本開示の実施例にて提供される顔再構成方法の実行主体は、一般に、一定のコンピューティング能力を有するコンピュータ装置であり、当該コンピュータ装置は、例えば、端末機器又はサーバ又は他の処理機器を含み、端末機器は、ユーザ機器(User Equipment、UE)、モバイル機器、ユーザ端末、端末、携帯電話、コードレス電話、携帯情報端末(Personal Digital Assistant、PDA)、ハンドヘルド機器、コンピューティング機器、車載機器、ウェアラブル機器などであってもよい。いくつかの可能な実現形態において、当該顔再構成方法は、プロセッサがメモリに記憶されたコンピュータ可読命令を呼び出すことにより実現されることができる。
【0051】
以下、本開示の実施例にて提供される顔再構成方法について説明する。
【0052】
図1に示すように、本開示の実施例は、顔再構成方法を提供し、前記方法は、ステップS101~S104を含み、ここで、
S101において、対象画像に含まれる元の顔の高密度点群データを取得し、
S102において、複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて元の顔の高密度点群データをフィッティングし、複数組の第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を得、
S103において、予め設定されたスタイルを有する複数組の第2の参照顔の高密度点群データ、及び複数組の第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを決定し、複数組の第2の参照顔はそれぞれ複数の参照画像における第1の参照顔に基づいて生成され、
S104において、対象顔モデルの高密度点群データに基づいて、対象画像の元の顔に対応する対象顔モデルを生成する。
【0053】
本開示の実施例は、複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて対象画像における元の顔の高密度点群データをフィッティングすることによって決定されたフィッティング係数、及び参照画像における第1の参照顔に基づいて生成された予め設定されたスタイルを有する第2の参照顔の高密度点群データに基づいて、対象顔モデルの高密度点群データを得、且つ対象顔モデルの高密度点群データに基づいて、対象画像に対応する対象顔モデルを生成する。当該過程はフィッティング係数を媒介として用いて、元の顔の高密度点群データと複数の第1の参照顔の高密度点群データとの間の関連関係を確立し、当該関連関係は、第1の参照顔の高密度点群データに基づいて決定された第2の参照顔の高密度点群データと、元の顔の高密度点群データに基づいて確立された対象顔モデルの高密度点群データとの間の関連性を特徴付けることができ、それにより生成された対象顔モデルの高密度点群データは対象画像における元の顔の特徴(例えば形状特徴など)を有し、元の顔との間の類似度がより高く、また生成された対象顔モデルが予め設定されたスタイルを有するようにすることができる。
【0054】
以下、上記ステップS101~S104について詳細に説明する。
【0055】
上記ステップS101について、詳細に説明する。
【0056】
対象画像は、例えば、予め取得された顔を含む画像であり、例えば、ある被写体をカメラなどの撮影装置で撮影した際に取得された顔を含む画像である。この時、例えば、画像に含まれるいずれかの顔を元の顔として決定し、且つ元の顔を顔再構成の対象としてもよい。
【0057】
本開示の実施例にて提供される顔再構成方法を異なるシナリオに適用する場合、対象画像の取得方法も異なる。
【0058】
例えば、当該顔再構成方法をゲームに適用する場合、ゲーム装置にインストールされている画像取得装置によってゲームプレイヤの顔が含まれる画像を取得してもよいし、ゲーム装置内のアルバムからゲームプレイヤの顔が含まれる画像を選択し、且つ取得されたゲームプレイヤの顔が含まれる画像を対象画像としてもよい。
【0059】
また例えば、顔再構成方法を携帯電話などの端末機器に適用する場合、端末機器のカメラでユーザの顔を含む画像を収集したり、端末機器のアルバムからユーザの顔を含む画像を選択したり、端末機器にインストールされている他のアプリケーションからユーザの顔を含む画像を受信したりしてもよい。
【0060】
また例えば、顔再構成方法をライブシナリオに適用する場合、ライブ装置によって取得されたビデオストリームに含まれる複数フレームのビデオフレーム画像から顔を含むビデオフレーム画像を取得し、且つ顔を含むビデオフレーム画像を対象画像としてもよい。ここで、対象画像は、例えば、複数フレームであってもよく、複数フレームの対象画像は、例えば、ビデオストリームにおける複数フレームのビデオフレーム画像をサンプリングして得られてもよい。
【0061】
対象画像に含まれる元の顔の高密度点群データを取得する時、例えば、元の顔を含む対象画像を取得し、予め訓練されたニューラルネットワークを用いて対象画像を処理し、対象画像における元の顔の高密度点群データを得る、という方式を採用することができる。
【0062】
ここで、予め訓練されたニューラルネットワークを用いて対象画像を処理し、元の顔の高密度点群データを得る時、予め訓練されたニューラルネットワークは、畳み込みニューラルネットワーク(Convolutional Neural Networks、CNN)、逆伝播ニューラルネットワーク(Back Propagation、BP)、バックボーンニューラルネットワーク(Backbone)の少なくとも1つを含む。
【0063】
ニューラルネットワーク構造を決定する時、例えばまずニューラルネットワークのバックボーンネットワーク(Backbone network)を、ニューラルネットワークの主体アーキテクチャとして決定することができ、例示的に、バックボーンネットワークは、開始ネットワーク(Inception)、残差ネットワーク変形ネットワーク(the next dimension to RESNET、ResNeXt)、開始ネットワーク変形ネットワーク(Xception)、スクイーズ及び励起ネットワーク(Squeeze-and-Excitation Networks、SENet)、軽量化ネットワーク(MobileNet)、及び軽量ネットワーク(ShuffleNet)の少なくとも1つを含んでもよい。
【0064】
例示的に、ニューラルネットワークが畳み込みニューラルネットワークを含む場合、軽量化ネットワークを畳み込みニューラルネットワーク基礎モデルとして選択し、軽量化ネットワークに加えて、他のネットワーク構造を追加し、畳み込みニューラルネットワークを構成し、且つ構成された畳み込みニューラルネットワークを訓練することもできる。当該過程は軽量化ネットワークを畳み込みニューラルネットワークの一部として採用し、且つ軽量化ネットワークは体積が小さく、データ処理速度が速いため、訓練の速度もより速く、また、訓練されたニューラルネットワークは体積が小さく、データ処理速度が速いという利点もあり、組み込み機器への配置により適する。
【0065】
ここで、上記ニューラルネットワークのネットワーク構造は一例に過ぎず、ネットワーク構造の具体的な構築方式及び構造は、実際の状況に応じて決定されてもよく、ここではその説明が省略され、上記例も本開示の実施例を限定するものではない。
【0066】
図2に示すように、本開示の実施例は、ニューラルネットワークを訓練する具体的な方法を提供し、以下を含む。
【0067】
S201において、サンプル画像セットを取得し、サンプル画像セットは第1のサンプル顔を含む複数の第1のサンプル画像を含み、複数の第1のサンプル画像は複数の第1のサンプル画像サブセットに分割され、各第1のサンプル画像サブセットは複数の予め設定された収集角度からそれぞれ収集された同じ表情を有する第1のサンプル顔の画像を含む。
【0068】
ここで、サンプル画像セットに含まれる第1のサンプル顔の複数の第1のサンプル画像に対して、対応する第1のサンプル顔は例えば予め決定された顔画像を取得してニューラルネットワークを訓練するための少なくとも1つの個体オブジェクトの顔である。
【0069】
第1のサンプル画像サブセットを決定するために第1のサンプル顔を撮影する時、例えば複数の異なる表情に対して複数の第1のサンプル画像サブセットを決定してもよい。ここで、複数の異なる表情は、例えば、喜び、興奮、落ち込み、苦しみなどである。第1のサンプル顔を撮影して第1のサンプル画像サブセットを取得する場合、「喜び」表情に対する第1のサンプル顔を撮影することを例に、「喜び」表情を呈する第1のサンプル顔を異なる角度から撮影することで、「喜び」表情で対応する複数の第1のサンプル画像を第1のサンプル画像サブセットとして取得することができる。ここで、第1のサンプル画像を取得する時、異なる第1のサンプル画像における第1のサンプル顔の背景が同じであってもよい。
【0070】
同様に、類似の方法を用いて、異なる表情で第1のサンプル顔のそれぞれに対応する第1のサンプル画像サブセットを取得することができ、ここではその説明が省略される。
【0071】
複数の異なる表情のそれぞれに対応する第1のサンプル画像サブセットを決定すると、第1のサンプル顔の複数の第1のサンプル画像を決定することができる。
【0072】
例示的に、第1のサンプル画像を取得する時、画像収集装置を用いて撮影して画像を取得することができ、ここで、画像収集装置は例えば深度カメラ及びカラーカメラの少なくとも1つを含む。
【0073】
例えば、I個の個体オブジェクトの顔をE個の表情で撮影して、複数の第1のサンプル画像を得ることができる。例えば、まずある個体オブジェクトAの顔を第1のサンプル顔として決定してもよい。第1のサンプル顔が「苦しみ」表情を呈する場合、P(Pは1よりも大きい整数)個の異なる角度から第1のサンプル顔を撮影し、「苦しみ」表情でのP個の異なる角度に対応する複数の画像を、「苦しみ」表情に対応する第1のサンプル画像サブセットとして得る。そして第1のサンプル顔が他の表情(例えばE-1個の異なる表情を含む)を呈する場合にP個の角度に対応するP枚の画像を、他の表情に対応する第1のサンプル画像サブセットとして取得する。相応して、個体オブジェクトAのE個の異なる表情についてE個の異なる第1のサンプル画像サブセットを決定することができ、相応して、個体オブジェクトAのP×E枚の画像を取得することができる。そして、残りのI-1個の個体オブジェクトを撮影し、残りのI-1個の個体オブジェクトのそれぞれに対応するP×E枚の画像、つまり合計M(M=I×E×P)枚の画像を、複数の第1のサンプル画像として取得することができる。
【0074】
取得された複数の第1のサンプル画像は異なる表情の複数の撮影個体オブジェクトに対応する顔を呈するが、背景などの他の部分が少ないので、第1のサンプル画像を用いて画像における複数の角度での顔に対応する高密度点群データに対するニューラルネットワークの取得能力を訓練することができる。
【0075】
本開示の別の実施例において、サンプル画像セットは第2のサンプル画像をさらに含み、第2のサンプル画像は、異なる個体オブジェクトに対してランダムに撮影して得られてもよいし、予め設定されたネットワークプラットフォームから顔を含む複数の画像をランダムにクローリングし、且つクローリングした画像を第2のサンプル顔画像としてもよい。
【0076】
例示的に、異なる個体オブジェクトに対してランダムに撮影して第2のサンプル画像を得る場合、カメラ又は他の画像撮影装置を用いて複数の第2のサンプル顔を撮影して第2のサンプル画像を取得することができ、又は、予め撮影された複数の第2のサンプル画像を直接取得することができる。第2のサンプル画像は例えば取得された背景を含むH枚の顔画像を含み、ここで、第2のサンプル画像に含まれる背景など、顔の認識に干渉する部分は、対象画像における顔を認識して高密度点群データを取得する場合、顔以外の他の部分に対するニューラルネットワークの干渉耐性を訓練するために用いられる。
【0077】
本開示の別の実施例において、サンプル画像セットは第3のサンプル画像をさらに含み、第3のサンプル画像は例えば第1のサンプル画像に対してデータ拡張処理を行うことにより得られることができる。ここで、データ拡張処理は、ランダム消去(Random Erasing)処理、ガウス雑音(Gaussian Noise)処理、ブラー(Blur)処理、及び色チャンネル変更(Ccolor Channel Change)処理の少なくとも1つを含む。データ拡張処理の方法を用いることにより、データの特徴を集約し、ニューラルネットワークによる関連性のない特徴の学習を減少させ、それにより高密度点群データを取得する時のニューラルネットワークの性能を向上させることができる。
【0078】
例示的に、ランダム消去処理を選択する場合、第1のサンプル画像における一部の領域に対して消去処理を行って第3のサンプル画像を得ることができ、ここで、消去部分の大きさは第1のサンプル画像の大きさ及び実際の必要に応じて決定することができ、ここでは限定されず、ガウス雑音処理を選択する場合、例えば揺らぎノイズ、宇宙ノイズ、熱雑音、及びショットノイズを含む少なくとも1つを選択して第1のサンプル画像に加え、得られた第3のサンプル画像に少なくとも1つのガウス雑音が含まれるようにすることができ、ブラー処理を選択する場合、例えば画像における少なくとも一部の画素点をモーションブラー処理して、モーションブラー効果を有する第3のサンプル画像を得ることができ、色チャンネル変更処理を選択する場合、例えば大域的色チャンネル変更処理、又はランダム色チャンネル変更処理を用いて第1のサンプル画像を処理し、大域的又は部分的色チャンネル変更の第3のサンプル画像を得ることができる。
【0079】
図3は、本開示の実施例にて提供される第1のサンプル画像、及び第1のサンプル画像を用いて決定された第3のサンプル画像の概略図であり、
図3に示すように、31は第1のサンプル画像を表し、32は第1のサンプル画像31に対してブラー処理のデータ拡張処理を行って得られた第3のサンプル画像を表し、33は第1のサンプル画像31に対して部分消去のデータ拡張処理を行って得られた第3のサンプル画像を表し、ここで、34は部分消去の位置を表す。
【0080】
この場合、第3のサンプル画像に対応するサンプル顔の高密度点群データは、第3のサンプル画像を生成する第1のサンプル画像に対応するサンプル顔の高密度点群データと同じである。
【0081】
上記S201に続いて、ニューラルネットワークを訓練する具体的な方法は、
サンプル画像セットにおける第1のサンプル画像の第1のサンプル顔の高密度点群データを取得するS202をさらに含む。
【0082】
いくつかの実施例において、サンプル画像セットにおける第1のサンプル画像の第1のサンプル顔の高密度点群データを取得する時、サンプル画像セットにおける第2のサンプル画像の第2のサンプル顔の高密度点群データ及び/又は第3のサンプル画像の第3のサンプル顔の高密度点群データをさらに取得することができる。
【0083】
例示的に、サンプル画像セットにおける第1のサンプル画像について、第1のサンプル顔を撮影して対応する第1のサンプル画像を取得した後、各第1のサンプル画像における第1のサンプル顔の高密度点群データを取得することができる。カラーカメラを用いて第1のサンプル画像を取得する場合、例えば顔3D変形統計モデル(3D Morphable Model、3DMM)などのモデルを用いて第1のサンプル顔の高密度点群データを得ることができ、深度カメラを用いて第1のサンプル画像を取得する場合、例えば深度カメラによって取得された深度画像に基づいて、第1のサンプル顔の高密度点群データを得ることができる。
【0084】
サンプル画像セットにおける第2のサンプル画像について、
図4に示すように、本開示の実施例は、第2のサンプル画像の第2のサンプル顔の高密度点群データを取得する具体的な方法を提供し、
各第2のサンプル画像の顔キーポイントデータを取得するS401と、
第2のサンプル画像の顔キーポイントデータ及び第2のサンプル画像を用いて、第2のサンプル画像の第2のサンプル顔の高密度点群データをフィッティングして生成するS402と、
ニューラルネットワークを用いて、サンプル画像セットにおける第2のサンプル画像に対して特徴学習を行い、第2のサンプル画像の第2のサンプル顔の予測された高密度点群データを得るS403と、
第2のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、ニューラルネットワークを訓練するS404と、を含む。
【0085】
ここで、第2のサンプル画像は例えば取得された背景を含むH枚の顔画像を含み、且つ各第2のサンプル画像はいずれも決定された顔キーポイントを含む。ここで、第2のサンプル画像に含まれる顔キーポイントは第2のサンプル画像に対応するサンプル顔の高密度点群データを決定するために用いられ、例えば第2のサンプル画像に直接ラベル付けされる顔特徴を特徴付けるためのキーポイント、例えば眉、目、耳、鼻、口、頬骨、眉骨を特徴付ける複数のキーポイント、又は、キーポイント検出方法を用いて決定された顔に対応するキーポイントを含む。ここで、キーポイント検出方法は、アクティブ形状モデル(Active Shape Model、ASM)、アクティブ外観モデル(Active Appearance Models、AAM)、カスケードポーズ回帰(Cascaded Pose Regression、CPR)の少なくとも1つを含む。
【0086】
第2のサンプル画像の顔キーポイントデータが得られる場合、フィッティングモデルを用いて第2のサンプル画像の第2のサンプル顔の高密度点群データを生成することができる。ここで、フィッティングモデルは例えば顔3D変形統計モデルを含む。
【0087】
上記S202に続いて、ニューラルネットワークを訓練する方法は、
ニューラルネットワークを用いて、サンプル画像セットにおける第1のサンプル画像に対して特徴学習を行い、第1のサンプル画像の第1のサンプル顔の予測された高密度点群データを得るS203をさらに含む。
【0088】
いくつかの実施例において、第1のサンプル画像の第1のサンプル顔の予測された高密度点群データを決定する時、初期ニューラルネットワークを用いて、サンプル画像セットにおける第2のサンプル画像及び/又は第3のサンプル画像に対して特徴学習を行い、第2のサンプル画像の第2のサンプル顔の予測された高密度点群データ及び/又は第3のサンプル画像の第3のサンプル顔の予測された高密度点群データをさらに得ることができる。
【0089】
この時、なお、第1のサンプル画像、第2のサンプル画像、及び第3のサンプル画像の少なくとも1つのサンプル画像を取得するステップは、初期ニューラルネットワークを用いて第1のサンプル画像、第2のサンプル画像、及び第3のサンプル画像の少なくとも1つに対して特徴学習を行うステップと同期実行されてもよく、つまり初期ニューラルネットワークを用いて第1のサンプル画像、第2のサンプル画像、及び第3のサンプル画像の少なくとも1つに対して特徴学習を行った後にそれぞれ対応する予測された高密度点群データを直接得ることができる。
【0090】
また、初期ニューラルネットワークを用いて第1のサンプル画像、第2のサンプル画像、及び第3のサンプル画像の少なくとも1つに対して特徴学習を行う時、同期して第1のサンプル画像、第2のサンプル画像、及び第3のサンプル画像の少なくとも1つに対して特徴学習を行うことができ、又は、実際のニーズに応じて第1のサンプル画像、第2のサンプル画像、及び第3のサンプル画像の少なくとも1つに対して順次特徴学習を行って、第1のサンプル画像の第1のサンプル顔の予測された高密度点群データ、第2のサンプル画像の第2のサンプル顔の予測された高密度点群データ、及び第3のサンプル画像の第3のサンプル顔の予測された高密度点群データを得る。
【0091】
本開示の実施例は、上述したサンプル処理過程の前後実行順序を限定するものではなく、具体的には実際のニーズに応じて設定することができる。
【0092】
例示的に、サンプル画像セットが第1のサンプル画像及び第2のサンプル画像を含む場合、予め設定された割合で異なる数の第1のサンプル画像及び第2のサンプル画像を選択し、且つ選択された第1のサンプル画像及び第2のサンプル画像を初期ニューラルネットワークに入力することができる。サンプル画像セットが第1のサンプル画像、第2のサンプル画像及び第3のサンプル画像を含む場合、予め設定された割合で異なる数の第1のサンプル画像、第2のサンプル画像、及び第3のサンプル画像を選択し、且つ選択された第1のサンプル画像、第2のサンプル画像及び第3のサンプル画像を初期ニューラルネットワークに入力することができる。割合の選択が異なると、ニューラルネットワーク訓練への重点も異なる。第1のサンプル画像及び/又は第3のサンプル画像の割合が大きい時、訓練されたニューラルネットワークは、画像における異なる角度の顔に対応する顔高密度点群を取得する能力が強くなる。第2のサンプル画像の割合が大きい時、訓練されたニューラルネットワークは、画像における顔以外の背景部分からの干渉に対して耐性が強くなる。このように、異なる使用要求を満たすことができる。
【0093】
サンプル画像を初期ニューラルネットワークに入力した後、初期ニューラルネットワークはサンプル画像に対して特徴学習を行い、且つ各サンプル画像の予測された顔の高密度点群データを出力することができる。予測された顔の高密度点群データ、及び各サンプル画像に対応するサンプル顔の高密度点群データを用いて、ニューラルネットワークの損失を決定し、当該損失は、ニューラルネットワークが顔の高密度点群データを生成する時の精度を測定するために用いられる。
【0094】
ニューラルネットワークを用いて得られた予測された顔の高密度点群データは例えば予め設定された座標系における顔高密度点群の位置を特徴付ける座標値を含むか、又は、予め設定された座標系における顔高密度点群の位置を特徴付けるx軸、y軸、z軸のそれぞれに対応する座標値を含むことができる。ここで、予め設定された座標系は例えば予め設定された顔座標系である。
【0095】
例示的に、いずれかの予測された顔の高密度点群データは、顔高密度点群の位置を特徴付ける座標値を含む場合、この予測された顔の高密度点群データは、座標値(x,y,z)を含むか、又は、x軸上の座標値x、y軸上の座標値y、及びz軸上の座標値zを含むことができ、且つ異なる予測された顔の高密度点群データに含まれるx軸、y軸、及びz軸上の座標値は出力された予測された顔の高密度点群データにおいて予め設定された配列順序を有する。
【0096】
図5に示すように、本開示の実施例は、ニューラルネットワーク構造の具体例の図をさらに提供し、ここで、ニューラルネットワーク構造は、バックボーンネットワーク51、第1の全接合層52、及び3組の第2の全接合層53を含む。
【0097】
このニューラルネットワークを用いてサンプル画像を処理し、サンプルにおける顔の予測された顔の高密度点群データを決定する時、例えばサンプル画像をバックボーンネットワークに入力し、サンプル画像の特徴データを得、特徴データは第1の全接合層を経た後、それぞれ3組の第2の全接合層に入力し、3組の第2の全接合層はサンプル画像における顔の高密度点群の顔座標系における座標値を予測するために用いられる。例えば、第1の組の第2の全接合層は顔座標系における高密度点群のx軸の座標値を出力することができ、第2の組の第2の全接合層は顔座標系における高密度点群のy軸の座標値を出力することができ、第3の組の第2の全接合層は顔座標系における高密度点群のz軸の座標値を出力することができる。高密度点群の顔座標系における座標値は、サンプル画像における顔の予測された顔の高密度点群データを構成する。
【0098】
複数の第1のサンプル画像、及び複数の第2のサンプル画像を決定する場合、第1のサンプル画像の選択割合が40%、第2のサンプル画像の選択割合が60%の予め設定された割合でニューラルネットワークを訓練するための複数のサンプル画像を選択する。例えば、100枚のサンプル画像を用いてニューラルネットワークを訓練する場合、40枚の第1のサンプル画像、及び60枚の第2のサンプル画像を複数のサンプル画像として選択する。
【0099】
ここで、畳み込みニューラルネットワークを初期ニューラルネットワークとして選択して訓練し、且つ軽量化ネットワークtを基礎モデル、スプリットネットワーク(split FC)を出力層として畳み込みニューラルネットワークを構築することで、複数のサンプル画像のそれぞれに対応する予測された顔の高密度点群データを得ることができ、且つ得られた予測された顔の高密度点群データは高密度点群における点のそれぞれのx軸、y軸、及びz軸における複数の座標値を含む。
【0100】
この時、いずれかのサンプル画像に対応する予測された顔の高密度点群データについて、顔高密度点群がR個の異なる顔部位を含む場合、出力された予測された顔の高密度点群データは例えば行列形態で出力されてもよく、[x1,x2,…,xR]、[y1,y2,…,yR]、及び[z1,z2,…,zR]と表され、つまりR個の異なる顔部位のうちのいずれか1つに対応する予測された顔の高密度点群データに含まれる座標値(xi,yi,zi),i∈[1,R]は、x軸、y軸、及びz軸における座標値xi、yi、及びziに分割され、且つそれぞれ3つの異なる行列のうちのi番目の要素として出力される。
【0101】
上記S203に続いて、ニューラルネットワークを訓練する方法は、
第1のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、ニューラルネットワークを訓練するS204をさらに含む。
【0102】
いくつかの実施例において、第1のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて初期ニューラルネットワークを訓練する時、第2のサンプル顔の高密度点群データ及び予測された高密度点群データ、及び/又は、第3のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、ニューラルネットワークを訓練し、訓練済みニューラルネットワークをさらに得ることができる。
【0103】
例示的に、予測された顔の高密度点群データ、及びサンプル顔の高密度点群データの差分に基づいてニューラルネットワークの損失を決定し、且つ損失を用いてニューラルネットワークを訓練することができ、訓練の方向は損失を減少させる方向であり、それによりニューラルネットワークが画像を処理する時、得られた予測された顔の高密度点群データは、実際の顔の高密度点群データに十分に近づくようになる。
【0104】
訓練済みニューラルネットワークが得られる場合、対象ピクチャをニューラルネットワークに入力し、対象ピクチャにおける元の顔に対応する高密度点群データを得ることができる。
【0105】
上記ステップS102について、詳細に説明する。
【0106】
参照画像は例えば異なる個体オブジェクトのそれぞれに対応する顔であってもよく、異なる個体オブジェクトに対応する顔は異なり、例示的に、性別、年齢、肌の色、太さなどの少なくとも1つが異なる複数の人を決定し、複数の人のそれぞれについて、人毎の顔画像を取得し、且つ取得された顔画像を第2のサンプル画像とすることができる。このように、第2のサンプル画像に基づいて生成された第2のサンプル顔の高密度点群データは、できるだけ広範囲の顔外形特徴をカバーすることができる。
【0107】
複数の参照画像に対応する複数の第1の参照顔の高密度点群データを取得する時、例えば、第1の参照顔を含む複数の参照画像を取得し、複数の参照画像のそれぞれについて、予め訓練されたニューラルネットワークを用いて各参照画像における第1の参照顔の高密度点群データを取得する、という方式を採用することができる。ここで、予め訓練されたニューラルネットワークを用いて複数の第1の参照顔の高密度点群を取得する方式は、上述した予め訓練されたニューラルネットワークを用いて元の顔の高密度点群を取得する方式と類似しているので、ここではその説明が省略される。
【0108】
元の顔の高密度点群データ、及び第1の参照顔の高密度点群データを決定する場合、第1の参照顔の高密度点群データを用いて元の顔の高密度点群データをフィッティングし、複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データのフィッティング係数を取得することができる。ここで、フィッティング係数は、媒介として、対象画像における元の顔の高密度点群データと複数の参照ピクチャのそれぞれに対応する第1の参照顔の高密度点群データとの間の関連関係を確立することができる。
【0109】
図6に示すように、本開示の実施例は、複数の参照画像のそれぞれに対応するフィッティング係数を決定する方法を提供し、以下のステップS601~S602を含む。
【0110】
S601において、元の顔の高密度点群データ及び第1の参照顔の高密度点群データを最小二乗処理し、複数組の第1の参照顔の高密度点群データのそれぞれに対応する中間係数を得る。
【0111】
例示的に、元の顔の高密度点群データをIN
mesh、第1の参照顔の高密度点群データをBASE
meshとして表す。ここで、第1の参照顔の高密度点群が複数の参照画像により決定されるので、N枚の参照画像が存在する場合、第1の参照顔の高密度点群データBASE
meshのうち対応するN組の顔が含まれる高密度点群データは、
【数1】
として表され、ここで、
【数2】
はi枚目の参照画像に対応する顔の高密度点群データを表す。
【0112】
IN
mesh及び
【数3】
【数4】
を用いて最小二乗処理を行うことにより、N個のフィッティング値を得ることができ、α
i(i∈[1,N])として表される。ここで、α
iは、i組目の第1の参照顔の高密度点群データに対応するフィッティング値を表す。N個のフィッティング値により、フィッティング係数Alphaを決定することができ、例えば係数行列で表すことができ、つまりAlpha=[α
1,α
2,…,α
N]である。
【0113】
ここで、第1の参照顔の高密度点群データによって元の顔の高密度点群データをフィッティングする過程において、フィッティング係数によって第1の参照顔の高密度点群データを重み付け加算したデータを、元の顔の高密度点群データのデータにできるだけ近づけるようにする。
【0114】
当該フィッティング係数は、複数の参照画像に対応する第1の参照顔の高密度点群データで元の顔の高密度点群データを表現する時、各第1の参照顔の高密度点群データの表現係数としても見なされることができる。
【0115】
S602において、複数組の第1の参照顔の高密度点群データの各組の第1の参照顔の高密度点群データに対応する中間係数に基づいて、各組の第1の参照顔の高密度点群データに対応するフィッティング係数を決定する。
【0116】
具体的には、
図7に示すように、本開示の実施例は、各組の第1の参照顔の高密度点群データに対応するフィッティング係数を決定する具体的な方法をさらに提供し、以下のステップS701~S704を含む。
【0117】
S701において、各組の第1の参照顔の高密度点群データから、対象顔モデルの部位に対応する第1のタイプの高密度点群データを決定する。
【0118】
複数組の第1の参照顔の高密度点群データのうちいずれかの組の高密度点群データ
【数5】
について、
【数6】
がi枚目の参照画像に基づいて得られるので、
【数7】
はi枚目の参照画像における顔部位に対応する高密度点群データを含む。ここで、顔部位は例えば眉、鼻、目、口、頬骨、顎の部位を含む。各顔部位について、さらに細かく分けてもよく、例えば眉は、眉尻の部位、眉間の部位、眉山の部位に分けてもよい。
【0119】
可能な一実施形態において、第1の参照顔の高密度点群データが元の顔の高密度点群データをフィッティングする状況をフィッティング係数がより正確に特徴付けるようにするために、一部の顔部位に対応するフィッティング係数を調整することができる。これにより、フィッティング係数と複数の対応する第1の参照顔の高密度点群データに基づいてフィッティングされた高密度点群データとが、対象画像に対応する元の顔の高密度点群データに近くなる。この時、フィッティング係数を調整する必要がある一部の顔部位は、対象顔モデル部位であり、例えば目、口を含んでもよい。具体的な対象顔モデル部位は、具体的な状況や経験によって決定されてもよく、ここではその説明が省略される。
【0120】
各組の第1の参照顔の高密度点群データから、対象顔モデル部位に対応する第1のタイプの高密度点群データを決定する場合、1組の第1の参照顔の高密度点群データ
【数8】
を例に、顔部位は例えばR個に分割することができ、この時R個の顔部位に対応する高密度点群データは例えば
【数9】
、
【数10】
、……、
【数11】
として表すことができる。R個の顔部位における対象顔部位が目、口を含む場合、対象顔モデル部位に対応する高密度点群データは例えば
【数12】
及び
【数13】
を含み、つまり第1のタイプの高密度点群データである。
【0121】
S702において、第1の参照顔の高密度点群データにおける第1のタイプの高密度点群データに対応する中間係数を調整し、第1のフィッティング係数を得る。
【0122】
第1のタイプの高密度点群データを決定する場合、対象顔モデルに対応する一部の部位に対応する第1のフィッティング係数、つまりよりよいフィッティング効果を達成するために調整が必要な一部の中間係数を決定することができる。同時に、中間係数におけるいずれかのフィッティング値α
iに対して、α
iがIN
mesh及び
【数14】
を用いて最小二乗処理を行って得られるので、α
iにそれぞれ複数の対象顔モデルに対応する複数の一部の部位の中間係数も含まれる。
【0123】
例示的に、対象顔モデル部位がそれぞれ目、口である場合、α
iにおける複数の対象顔モデル部位に対応する中間係数は例えばα
i-1及びα
i-2として表すことができ、つまり第1のタイプの高密度点群データ
【数15】
及び
【数16】
に対応する中間係数である。中間係数α
i-1及びα
i-2に対して数値調整を行うことで、調整後に得られた第1のフィッティング係数に基づいて元の顔の高密度点群データをフィッティングした後、フィッティング結果が元の顔の高密度点群データとより類似するようにすることができる。ここで、数値調整は例えば数値増加及び/又は数値減少を含む。
【0124】
S703において、第1の参照顔の高密度点群データにおける第2のタイプの高密度点群データに対応する中間係数を第2のフィッティング係数として決定し、第2のタイプの高密度点群データは第1の参照顔の高密度点群データのうち第1のタイプの高密度点群データ以外の高密度点群データである。
【0125】
この時、第1の参照顔の高密度点群データのうち第2のタイプの高密度点群データに対応する中間係数を第2のフィッティング係数として決定することができる。また、各組の第1の参照顔の高密度点群データのうち第1のタイプの高密度点群データ以外の高密度点群データを第2のタイプの高密度点群データとすることもできる。第2のタイプの高密度点群データに対応するフィッティング係数はフィッティング結果に対する影響が小さいか、又はフィッティングに際してフィッティング結果が優れているため、第2のタイプの高密度点群データに対応するフィッティング係数を調整せず、フィッティング効果を保証しながら効率を向上させることができる。
【0126】
S704において、第1のフィッティング係数及び第2のフィッティング係数に基づいて、各組の第1の参照顔の高密度点群データのフィッティング係数を得る。
【0127】
第1のフィッティング係数が対象顔モデル部位に対応し、第2のフィッティング係数が複数の顔部位のうち対象顔モデル部位を除く他の顔部位に対応するので、第1のフィッティング係数、及び第2のフィッティング係数を組み合わせることにより、複数の顔部位に対応するフィッティング係数、つまり各組の第1の参照顔の高密度点群データのフィッティング係数を決定することができる。
【0128】
上記ステップS103について、詳細に説明する。
【0129】
予め設定されたスタイルは例えばカートゥーンスタイル、古代スタイル又は抽象スタイルなどであってもよく、具体的には実際のニーズに応じて設定することができる。例示的に、予め設定されたスタイルがカートゥーンスタイルである場合について、予め設定されたスタイルを有する第2の参照顔はカートゥーン顔であってもよい。
【0130】
第1の参照顔を用いて予め設定されたスタイルを有する第2の参照顔の高密度点群データを生成する時、例えば、参照画像における第1の参照顔の高密度点群データを調整し、予め設定されたスタイルを有する第2の参照顔の高密度点群データを得るか、又は、参照画像における第1の参照顔に基づいて、予め設定されたスタイルを有する第2の参照顔を含む仮想顔画像を生成し、且つ予め訓練されたニューラルネットワークを用いて仮想顔画像における第2の参照顔の高密度点群データを生成する、という方式を採用することができる。
【0131】
第1の参照顔の高密度点群を調整して予め設定されたスタイルを有する第2の参照顔の高密度点群データを得る場合、例示的に、予め設定されたスタイルに応じて第1の参照顔の高密度点群データにおける全ての高密度点群データ又は一部の高密度点群データを調整することで、得られた第2の参照顔の高密度点群データから反映された顔は予め設定されたスタイルを有する。
【0132】
予め設定されたスタイルがカートゥーンスタイルであることを例に、可能な一実施形態において、カートゥーンスタイルは例えば目に対するズームインを含む場合、第1の参照顔の高密度点群データを調整する時、目に対応する高密度点群データに対して、上瞼部位に対応する高密度点群の位置座標を上へ移動させるか及び/又は下瞼部位に対応する高密度点群の位置座標を下へ移動させる調整を行うことで、得られた第2の参照顔の高密度点群データにおける目に対応する高密度点群データは目がズームインされることを示す。
【0133】
第1の参照顔に基づいて仮想顔画像を生成し、且つ予め訓練されたニューラルネットワークを用いて第2の参照顔の高密度点群データを生成する場合、例示的に、予め設定されたスタイルに応じて参照画像における第1の参照顔に対してグラフィック画像処理を行い、予め設定されたスタイルを有する第2の参照顔の仮想顔画像を生成することができる。ここで、グラフィック画像処理は、例えば、ピクチャ編集、ピクチャ描画、ピクチャデザインを含むことができる。
【0134】
予め設定されたスタイルを有する第2の参照顔の仮想顔画像が得られる場合、予め訓練されたニューラルネットワークを用いて対応する第2の参照顔の高密度点群データを決定することができる。ここで、予め訓練されたニューラルネットワークを用いて第2の参照顔の高密度点群データを決定する方法は、上述した予め訓練されたニューラルネットワークを用いて元の顔の高密度点群データ、及び第1の参照顔の高密度点群データを決定する方法と類似しているので、ここではその説明が省略される。
【0135】
この時、例えば得られた第2の参照顔の高密度点群データをCARTmeshとして表すことができる。
【0136】
予め設定されたスタイルを有する第2の参照顔の高密度点群データ、及び複数組の第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を決定すると、対象顔モデルの高密度点群データを決定することができる。
【0137】
図8に示すように、本開示の実施例は、対象顔モデルの高密度点群データを決定する具体的な方法をさらに提供し、以下のステップS801~S802を含む。
【0138】
S801において、複数組の第2の参照顔の高密度点群データに基づいて、複数組の第2の参照顔の高密度点群データの平均値データを生成する。
【0139】
可能な一実施形態において、第2の参照顔の高密度点群データの平均値データを生成するために、第2の参照顔の高密度点群データCART
meshにおける対応する部位の座標値に基づいて平均化処理を行うことができる。ここで、平均値データは複数組の第2の参照顔の高密度点群データの平均的な特徴を特徴付けるために用いられる。例示的に、第2の参照顔の高密度点群データにN組の顔高密度点群が含まれる場合、第2の参照顔の高密度点群データにおける複数組の顔の高密度点群データを
【数17】
、
【数18】
、……、
【数19】
として表すことができる。
【0140】
ここで、いずれかの組の第2の参照顔の高密度点群データ
【数20】
について、異なる部位位置に対応する複数の顔高密度点群を決定することができ、W個の異なる顔高密度点群を含む場合、例えばW個の異なる顔高密度点群をP
1、P
2、……、P
Wとして表し、それぞれ対応する座標値を
【数21】
、
【数22】
、……、
【数23】
として表すことができる。各組の
【数24】
における対応する部位位置の座標値を用いて平均値を求めることにより、対応する部位位置の平均値データを得ることができる。この時、異なる部位位置の最初の顔高密度点群P
1について、例えば下記式(1)を採用して平均値データ
【数25】
を得ることができる。
【数26】
【0141】
他の異なる部位位置の顔高密度点群の平均値データを決定する方式は、上述した最初の顔高密度点群に対して平均値データを求める方式と類似しているので、ここではその説明が省略される。
【0142】
この時、異なる部位位置の平均値データ
【数27】
、
【数28】
、……、
【数29】
、つまり第2の参照顔の高密度点群データの平均値データを得ることができ、
【数30】
として表すことができる。
【0143】
S802において、複数組の第2の参照顔の高密度点群データ、平均値データ、及び複数組の第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを生成する。
【0144】
具体的には、
図9に示すように、本開示の実施例は、対象顔モデルの高密度点群データを生成する具体的な方法をさらに提供し、以下を含む。
【0145】
S901において、複数組の第2の参照顔の高密度点群データの各組の第2の参照顔の高密度点群データ、及び平均値データに基づいて、各組の第2の参照顔の高密度点群データの差分データを決定する。
【0146】
例示的に、各組の第2の参照顔の高密度点群データと、平均値データにおける異なる部位位置に対応する座標値とを差分し、各組の第2の参照顔の高密度点群データの差分データを決定することができ、Δmesh、つまりΔmesh=CARTmeshーMEANmeshとして表される。ここで、差分データは、各組の第2の参照顔の高密度点群データのそれぞれと複数組の第2の参照顔の高密度点群データの平均的な特徴との差異度を特徴付けることができる。
【0147】
ここで、複数の第2の参照顔の高密度点群データが存在するので、差分データΔ
meshに複数の第2の参照顔の高密度点群データにそれぞれ対応する複数のサブ差分データが含まれる。例示的に、N組の第2の参照顔の高密度点群データが存在する場合、対応する差分データΔ
meshは例えばN組の第2の参照顔の高密度点群データに含まれる
【数31】
【数32】
【数33】
のそれぞれに対応するサブ差分データ
【数34】
【数35】
、……、
【数36】
を含んでもよく、つまり差分データΔ
meshにN個のサブ差分データが含まれ、
【数37】
として表すことができる。
【0148】
S902において、複数組の第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、複数組の第2の参照顔の高密度点群データのそれぞれに対応する差分データを補間処理する。
【0149】
例示的に、フィッティング係数を複数組の第2の参照顔の高密度点群データに対応する重みとし、複数組の第2の参照顔の高密度点群データのそれぞれに対応する差分データを重み付け加算処理し、補間処理の過程を実現することができる。
【0150】
フィッティング係数がAlpha=[α
1,α
2,…,α
N]を含む場合、複数の参照画像のそれぞれに対応する第2の参照顔の第2の参照顔の高密度点群データの重みは即ちα
1、α
2、……、α
Nである。フィッティング係数を用いて複数組の第2の参照顔の高密度点群データのそれぞれに対応する差分データを重み付け加算し、得られた結果はAIM
meshとして表すことができ、元の顔の高密度点群と第1の参照顔の高密度点群との間の関連関係を元の顔の高密度点群と第2の参照顔の高密度点群との間に移すために用いられ、それにより得られた顔高密度点群は元の顔の高密度点群の特徴を有するだけでなく、第2の参照顔の高密度点群のスタイルを有し、この場合、複数組の第2の参照顔の高密度点群データのそれぞれに対応する差分データを重み付け加算した結果AIM
meshは下記式(2)を満たす。
【数38】
【0151】
ここで、λ
i,i∈[1,N]は第2の参照顔の高密度点群データの重みα
1、α
2、……、α
N及び/又は複数組の第2の参照顔の高密度点群データのそれぞれに対応する差分データ
【数39】
、
【数40】
、……、
【数41】
のそれぞれに対応する重みを表し、重み付け加算して得られた結果に対する異なる差分データの寄与度及び/又は重要性を特徴付けるために用いられ、予め設定又は調整可能であり、具体的な設定及び調整方法はここではその説明が省略される。
【0152】
S903において、補間処理の結果及び平均値データに基づいて、対象顔モデルの高密度点群データを生成する。
【0153】
可能な一実施形態において、加重和の結果を平均値データに直接重ね合わせて対象顔モデルの高密度点群データを生成することができ、OUTmeshとして表し、つまり下記式(3)で対象顔モデルの高密度点群データOUTmeshを得ることができる。
OUTmesh=AIMmesh+MEANmesh (3)
【0154】
この時、即ち対象画像における顔特徴を含むだけでなく、第2の参照顔の高密度点群データから反映された予め設定されたスタイルを含む対象顔モデルの高密度点群データOUTmeshを得ることができる。
【0155】
上記ステップS104について、対象顔モデルの高密度点群データを用いて、対象画像に対応する対象顔モデルを生成することができる。
【0156】
例示的に、対象顔モデルの高密度点群データOUTmeshに基づいて、レンダリングの方式で対応する対象顔モデルを生成するか、又は、対象顔モデルの高密度点群データOUTmeshと関連関係を有するスキンを決定し、且つ対象顔モデルの高密度点群データOUTmeshを用いて対象画像に対応する対象顔モデルを生成することができる。具体的な方法は実際の状況に応じて選択することができ、ここではその説明が省略される。
【0157】
本開示の実施例は、本開示の実施例にて提供される顔再構成方法を用いて、対象画像PicAにおける元の顔Aに対応する対象仮想顔モデルModAimを取得する具体的な過程の説明をさらに提供する。
【0158】
対象仮想顔モデルModAimを決定するステップは、下記(1)~(4)を含む。
【0159】
(1)素材を準備し、複数の参照画像Picconsを取得する。
【0160】
(2)高密度点群データを準備し、ここで、下記(2-1)及び(2-2)を含む。
【0161】
(2-1)ニューラルネットワークを用いて対象画像PicAにおける元の顔Aに対応する高密度点群データINmeshを決定する。
【0162】
(2-2)ニューラルネットワークを用いて複数の参照画像Picconsのそれぞれに対応する第1の参照顔の高密度点群データBASEmeshを決定する。
【0163】
(3)フィッティング係数Alphaを決定し、ここで、下記(3-1)~(3-4)を含む。
【0164】
(3-1)対象顔モデルの部位に対応する第1のタイプの高密度点群データ
【数42】
及び
【数43】
を決定する。
【0165】
(3-2)対象顔モデルに対応する高密度点群データを用いて元の顔の高密度点群データをフィッティングし、中間係数を決定する。
【0166】
(3-3)第1のタイプの高密度点群データに対応する中間係数におけるαi-1及びαi-2を調整し、第1のフィッティング係数を得る。
【0167】
(3-4)第1の参照顔の高密度点群データのうち第1のタイプの高密度点群データ以外の第2のタイプの高密度点群に対応する中間係数を、第2のフィッティング係数として決定し、且つ第1のフィッティング係数、及び第2のフィッティング係数を用いてフィッティング係数Alphaを決定する。
【0168】
(4)対象顔モデルModAimを決定し、ここで、下記(4-1)~(4-3)を含む。
【0169】
(4-1)複数組の第2の参照顔の高密度点群データの平均値データMEANmeshを決定する。
【0170】
(4-2)対象顔モデルの高密度点群データを決定し、複数組の第2の参照顔の高密度点群データCARTmesh、平均値データMEANmesh、及び複数組の第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数Alphaに基づいて、対象顔モデルの高密度点群データAIMmeshを生成する。
【0171】
(4-3)生成された対象顔モデルの高密度点群データAIMmeshを用いて、対象顔モデルModAimを決定する。
【0172】
ここで、なお、上記(1)~(4)は顔再構成方法を完了する具体例に過ぎず、本開示の実施例にて提供される顔再構成方法を限定するものではない。
【0173】
当業者であれば理解されるように、具体的な実施形態の上記方法において、各ステップの記載順序は、厳密な実行順序による実施過程に対するいかなる限定も意味するものではなく、各ステップの具体的な実行順序は、その機能及び可能な固有の論理により決定されるべきである。
【0174】
同じ技術的思想に基づき、本開示の実施例は、さらに、顔再構成方法に対応する顔再構成装置を提供し、本開示の実施例における装置の問題解決原理は、本開示の実施例における上記顔再構成方法と類似するため、装置の実施が方法の実施を参照してもよく、重複内容についてはその説明が省略される。
【0175】
図10に示すように、本開示の実施例にて提供される顔再構成装置の概略図であり、前記装置は、
対象画像に含まれる元の顔の高密度点群データを取得するための第1の取得モジュール10と、
複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて前記元の顔の高密度点群データをフィッティングし、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を得るための第1の処理モジュール20と、
予め設定されたスタイルを有する複数組の第2の参照顔の高密度点群データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを決定するための決定モジュール30であって、前記複数組の第2の参照顔はそれぞれ前記複数の参照画像における第1の参照顔に基づいて生成される決定モジュール30と、
前記対象顔モデルの高密度点群データに基づいて、前記対象画像の前記元の顔に対応する対象顔モデルを生成するための生成モジュール40と、を含む。
【0176】
選択可能な一実施形態において、前記決定モジュール30は、予め設定されたスタイルを有する複数組の第2の参照顔の高密度点群データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを決定する場合、複数組の前記第2の参照顔の高密度点群データに基づいて、複数組の前記第2の参照顔の高密度点群データの平均値データを生成することと、複数組の前記第2の参照顔の高密度点群データ、前記平均値データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、前記対象顔モデルの高密度点群データを生成することとに用いられる。
【0177】
選択可能な一実施形態において、前記決定モジュール30は、複数組の前記第2の参照顔の高密度点群データ、前記平均値データ、及び複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、前記対象顔モデルの高密度点群データを生成する場合、複数組の前記第2の参照顔の高密度点群データの各組の前記第2の参照顔の高密度点群データ、及び前記平均値データに基づいて、各組の前記第2の参照顔の高密度点群データの差分データを決定することと、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、複数組の前記第2の参照顔の高密度点群データのそれぞれに対応する差分データを補間処理することと、前記補間処理の結果及び前記平均値データに基づいて、前記対象顔モデルの高密度点群データを生成することとに用いられる。
【0178】
選択可能な一実施形態において、前記第1の取得モジュール10は、対象画像に含まれる元の顔の高密度点群データを取得する場合、前記元の顔を含む前記対象画像を取得することと、予め訓練されたニューラルネットワークを用いて前記対象画像を処理し、前記対象画像における前記元の顔の高密度点群データを得ることとに用いられる。
【0179】
選択可能な一実施形態において、前記装置は、第1の参照顔を含む複数の参照画像を取得することと、複数の前記参照画像のそれぞれについて、予め訓練されたニューラルネットワークを用いて各前記参照画像を処理し、各前記参照画像における前記第1の参照顔の高密度点群データを得ることと、により前記複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを取得するための第2の処理モジュール50をさらに含む。
【0180】
選択可能な一実施形態において、前記第1の処理モジュール20は、複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて前記元の顔の高密度点群データをフィッティングし、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を得る場合、前記元の顔の高密度点群データ及び前記第1の参照顔の高密度点群データを最小二乗処理し、複数組の前記第1の参照顔の高密度点群データのそれぞれに対応する中間係数を得ることと、各組の第1の参照顔の高密度点群データに対応する中間係数に基づいて、各組の前記第1の参照顔の高密度点群データに対応するフィッティング係数を決定することとに用いられる。
【0181】
選択可能な一実施形態において、前記第1の処理モジュール20は、各組の第1の参照顔の高密度点群データに対応する中間係数に基づいて、各組の前記第1の参照顔の高密度点群データに対応するフィッティング係数を決定する場合、各組の前記第1の参照顔の高密度点群データから、対象顔モデルの部位に対応する第1のタイプの高密度点群データを決定することと、前記第1の参照顔の高密度点群データにおける前記第1のタイプの高密度点群データに対応する中間係数を調整し、第1のフィッティング係数を得ることと、前記第1の参照顔の高密度点群データのうち第2のタイプの高密度点群データに対応する中間係数を、第2のフィッティング係数として決定することであって、前記第2のタイプの高密度点群データは前記第1の参照顔の高密度点群データのうち前記第1のタイプの高密度点群データ以外の高密度点群データであることと、前記第1のフィッティング係数及び前記第2のフィッティング係数に基づいて、各組の前記第1の参照顔の高密度点群データのフィッティング係数を得ることとに用いられる。
【0182】
選択可能な一実施形態において、前記装置は、前記参照画像における第1の参照顔の高密度点群データを調整し、前記予め設定されたスタイルを有する第2の参照顔の高密度点群データを得ること、又は、前記参照画像における第1の参照顔に基づいて、前記予め設定されたスタイルを有する第2の参照顔を含む仮想顔画像を生成し、予め訓練されたニューラルネットワークを用いて前記仮想顔画像における前記第2の参照顔の高密度点群データを生成することにより、前記予め設定されたスタイルを有する第2の参照顔の高密度点群データを取得するための調整モジュール60をさらに含む。
【0183】
選択可能な一実施形態において、前記装置は、前記ニューラルネットワークを訓練する場合、サンプル画像セットを取得することであって、前記サンプル画像セットは第1のサンプル顔を含む複数の第1のサンプル画像を含み、前記複数の第1のサンプル画像は複数の第1のサンプル画像サブセットに分割され、各第1のサンプル画像サブセットは複数の予め設定された収集角度からそれぞれ収集された同じ表情を有する第1のサンプル顔の画像を含むことと、前記サンプル画像セットにおける第1のサンプル画像の第1のサンプル顔の高密度点群データを取得することと、初期ニューラルネットワークを用いて、前記サンプル画像セットにおける第1のサンプル画像に対して特徴学習を行い、前記第1のサンプル画像の第1のサンプル顔の予測された高密度点群データを得ることと、前記第1のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練することとに用いられる訓練モジュール70をさらに含む。
【0184】
選択可能な一実施形態において、前記サンプル画像セットは第2のサンプル顔及び背景を含む複数の第2のサンプル画像をさらに含み、前記訓練モジュール70は、さらに、各前記第2のサンプル画像の顔キーポイントデータを取得することと、第2のサンプル画像の顔キーポイントデータ及び前記第2のサンプル画像を用いて、前記第2のサンプル画像の第2のサンプル顔の高密度点群データをフィッティングして生成することと、前記ニューラルネットワークを用いて、前記サンプル画像セットにおける第2のサンプル画像に対して特徴学習を行い、前記第2のサンプル画像の第2のサンプル顔の予測された高密度点群データを得ることと、前記第2のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練することとに用いられる。
【0185】
選択可能な一実施形態において、前記サンプル画像セットは第3のサンプル画像をさらに含み、前記第3のサンプル画像は前記第1のサンプル画像に対してデータ拡張処理を行うことにより得られ、
前記訓練モジュール70は、さらに、前記第3のサンプル画像の第3のサンプル顔の高密度点群データを取得することと、前記初期ニューラルネットワークを用いて第3のサンプル画像に対して特徴学習を行い、前記第3のサンプル画像の第3のサンプル顔の予測された高密度点群データを得ることと、
前記第3のサンプル顔の高密度点群データ及び予測された高密度点群データを用いて、前記ニューラルネットワークを訓練することとに用いられる。
【0186】
選択可能な一実施形態において、前記データ拡張処理は、ランダム消去処理、ガウス雑音処理、モーションブラー(Motion Blur)処理、及び色チャンネル変更処理の少なくとも1つを含む。
【0187】
装置における各モジュールの処理フロー、及び各モジュール間のインタラクションフローについての説明は上述した方法の実施例における関連する説明を参照することができ、ここでは詳しく説明しない。
【0188】
図11に示すように、本開示の実施例は、コンピュータ装置をさらに提供し、プロセッサ11と、メモリ12と、を含み、プロセッサ11はメモリ12に記憶された機械可読命令を実行するために用いられ、前記機械可読命令がプロセッサ11によって実行されると、プロセッサ11は、
対象画像に含まれる元の顔の高密度点群データを取得するステップと、複数の参照画像のそれぞれに対応する第1の参照顔の高密度点群データを用いて元の顔の高密度点群データをフィッティングし、複数組の第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数を得るステップと、予め設定されたスタイルを有する第2の参照顔の高密度点群データ、及び複数組の第1の参照顔の高密度点群データのそれぞれに対応するフィッティング係数に基づいて、対象顔モデルの高密度点群データを決定するステップであって、第2の参照顔は参照画像における第1の参照顔に基づいて生成されるステップと、対象顔モデルの高密度点群データに基づいて、対象画像の元の顔に対応する対象顔モデルを生成するステップと、を実行する。
【0189】
上記メモリ12は、内部メモリ121と外部メモリ122とを含み、ここでの内部メモリ121は、内メモリとも呼ばれ、プロセッサ11における演算データ、及びハードディスクなどの外部メモリ122と交換されるデータを一時的に格納するために用いられ、プロセッサ11は、内部メモリ121により外部メモリ122とデータのやり取りを行う。
【0190】
上記命令の具体的な実行過程は本開示の実施例に記載の顔再構成方法のステップを参照することができ、ここではその説明が省略される。
【0191】
本開示の実施例は、さらに、コンピュータ可読記憶媒体を提供し、当該コンピュータ可読記憶媒体はコンピュータプログラムを記憶しており、当該コンピュータプログラムがプロセッサによって実行されると、上記方法の実施例に記載の顔再構成方法のステップを実行する。ここで、当該記憶媒体は、揮発性又は不揮発性のコンピュータ可読記憶媒体であってもよい。
【0192】
本開示の実施例は、さらに、プログラムコードを担持するコンピュータプログラム製品を提供し、前記プログラムコードに含まれる命令は、上記方法の実施例に記載の顔再構成方法のステップを実行するために用いられ、具体的には上記方法の実施例を参照することができ、ここではその説明が省略される。
【0193】
ここで、上記コンピュータプログラム製品は、具体的には、ハードウェア、ソフトウェア、又はそれらの組み合わせの方式により実現することができる。1つの選択可能な実施例において、前記コンピュータプログラム製品は、具体的には、コンピュータ記憶媒体として具現化され、別の選択可能な実施例において、コンピュータプログラム製品は、具体的には、ソフトウェア製品、例えば、ソフトウェア開発キット(Software Development Kit、SDK)などとして具現化される。
【0194】
当業者であれば、記述の便宜及び簡潔のために、上述したシステム及び装置の具体的な動作過程は、前述方法の実施例における対応する過程を参照してもよく、ここではその説明が省略されることを明確に了解することができる。本開示により提供されるいくつかの実施例において、開示されているシステム、装置、及び方法は、他の方式で実現されることが理解されるべきである。上記で記述した装置の実施例は、単に例示的なものであり、例えば、前記ユニットの分割は、単に論理的機能の分割であり、実際に実現される時、別の分割方式があってもよく、また、例えば、複数のユニット又はコンポーネントが別のシステムに組み合わされてもよく、又は統合されてもよく、又は、いくつかの特徴が無視されてもよく、又は、実行されなくてもよい。他方、表示又は説明した相互間の結合又は直接結合又は通信接続は、いくつかの通信インタフェース、装置又はユニットを介した間接的な結合又は通信接続であってもよく、電気的、機械的、又は他の形態であってもよい。
【0195】
前記分離コンポーネントとして説明されたユニットは、物理的に分離されてもよく、又は物理的に分離されなくてもよく、ユニットとして表示されたコンポーネントは、物理的なユニットであってもよく、又は物理的なユニットでなくてもよく、即ち、一箇所に位置してもよく、又は複数のネットワークユニットに分散されてもよい。実際の要求に応じて、その一部又は全部のユニットを選択して本実施例の手段の目的を実現することができる。
【0196】
また、本開示の各実施例における各機能ユニットは、1つの処理ユニットに統合されてもよく、各ユニットが物理的に別々に存在してもよく、2つ以上のユニットが1つのユニットに統合されてもよい。
【0197】
前記機能は、ソフトウェア機能ユニットの形態で実現され、独立した製品として販売又は使用される時、1つのプロセッサが実行可能な不揮発性のコンピュータ可読記憶媒体に記憶されてもよい。このような理解に基づき、本開示の技術的解決手段は、本質的に、又は、従来技術に貢献する部分、又は、当該技術的解決手段の一部をソフトウェア製品の形態で具体化することができ、当該コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、本開示の各実施例に記載の方法の全て又は一部のステップを、1台のコンピュータ装置(パーソナルコンピュータ、サーバ、又はネットワーク機器などであってもよい)に実行させるための複数の命令を含む。また、前述記憶媒体は、Uディスク、ポータブルハードディスク、リードオンリーメモリ(Read-Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク、又は光ディスクなど各種のプログラムコードを記憶可能な媒体を含む。
【0198】
最後に、上述の実施例は、本開示の具体的な実施形態に過ぎず、本開示の技術的解決手段を説明するために用いられ、これを限定するものではなく、本開示の保護範囲は、これに限定されるものではなく、前述実施例を参照して本開示を詳細に説明したが、当業者であれば理解されるように、当業者であれば、本開示の技術範囲内において、依然として、前述実施例に記載された技術的解決手段を修正したり、容易に変化を想到することができたり、又は、その技術的特徴の一部を均等に置換したりすることができ、これらの修正、変化又は置換は、対応する技術的解決手段の本質を本開示の実施例の技術的解決手段の精神及び範囲から逸脱させず、いずれも本開示の保護範囲に含まれるべきである。したがって、本開示の保護範囲は、特許請求の範囲の保護範囲を基準とすべきである。