(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-10-24
(45)【発行日】2024-11-01
(54)【発明の名称】モデル訓練方法及び装置、アイデンティティ匿名化方法及び装置、機器、記憶媒体並びにコンピュータプログラム
(51)【国際特許分類】
G06T 1/40 20060101AFI20241025BHJP
G06T 1/00 20060101ALI20241025BHJP
【FI】
G06T1/40
G06T1/00 340A
(21)【出願番号】P 2022566254
(86)(22)【出願日】2022-08-11
(86)【国際出願番号】 CN2022111704
(87)【国際公開番号】W WO2023168903
(87)【国際公開日】2023-09-14
【審査請求日】2022-10-28
(31)【優先権主張番号】202210234385.2
(32)【優先日】2022-03-10
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】517392436
【氏名又は名称】▲騰▼▲訊▼科技(深▲セン▼)有限公司
【氏名又は名称原語表記】TENCENT TECHNOLOGY (SHENZHEN) COMPANY LIMITED
【住所又は居所原語表記】35/F,Tencent Building,Kejizhongyi Road,Midwest District of Hi-tech Park,Nanshan District, Shenzhen,Guangdong 518057,CHINA
(74)【代理人】
【識別番号】100110364
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100150197
【氏名又は名称】松尾 直樹
(72)【発明者】
【氏名】▲羅▼ 宇辰
(72)【発明者】
【氏名】朱 俊▲偉▼
(72)【発明者】
【氏名】▲賀▼ 珂珂
(72)【発明者】
【氏名】▲儲▼ 文青
(72)【発明者】
【氏名】▲タイ▼ ▲穎▼
(72)【発明者】
【氏名】汪 ▲チェン▼杰
【審査官】岡本 俊威
(56)【参考文献】
【文献】中国特許出願公開第113642409(CN,A)
【文献】国際公開第2021/080103(WO,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 1/40
G06T 1/00
(57)【特許請求の範囲】
【請求項1】
コンピューティングデバイスが実行するモデル訓練方法であって、
第1訓練画像の先験的アイデンティティ情報を抽出するステップと、
ターゲットネットワークモデルにおける投影モジュールの第1投影ユニットによって、前記先験的アイデンティティ情報をターゲット空間の第1空間に投影し、N個(Nは正の整数である)のアイデンティティ潜在ベクトルを得るステップと、
前記ターゲットネットワークモデルにおける投影モジュールの第2投影ユニットによって、前記N個のアイデンティティ潜在ベクトルを前記ターゲット空間の第2空間に投影し、N個の第1仮想アイデンティティベクトルを得るステップと、
前記ターゲットネットワークモデルにおける属性モジュールによって、第2訓練画像に対して属性ベクトル抽出を行い、
前記第2訓練画像のM個(Mは正の整数である)の属性ベクトルを得るステップと、
前記ターゲットネットワークモデルにおける融合モジュールによって、前記N個の第1仮想アイデンティティベクトル及び前記M個の属性ベクトルに基づいて画像生成を行い、前記第2訓練画像のアイデンティティ匿名化画像を得るステップと、
前記アイデンティティ匿名化画像に基づいて、前記ターゲットネットワークモデルの損失を決定し、前記損失に基づいて前記ターゲットネットワークモデルを訓練するステップと、を含む、モデル訓練方法。
【請求項2】
前記N個のアイデンティティ潜在ベクトルを得るステップは、
前記第1投影ユニットによって前記先験的アイデンティティ情報を前記第1空間の平均値及び分散として投影するステップと、
前記第1空間の平均値及び分散に基づいてサンプリングを行い、前記N個のアイデンティティ潜在ベクトルを得るステップと、を含む、請求項
1に記載のモデル訓練方法。
【請求項3】
前記モデル訓練方法は、
前記N個のアイデンティティ潜在ベクトルの発散制約を決定するステップを更に含み、
前記アイデンティティ匿名化画像に基づいて、前記ターゲットネットワークモデルの損失を決定するステップは、
前記アイデンティティ匿名化画像及び前記発散制約に基づいて、前記ターゲットネットワークモデルの損失を決定するステップを含む、請求項
1に記載のモデル訓練方法。
【請求項4】
前記モデル訓練方法は、
第3訓練画像を取得するステップであって、前記第3訓練画像及び前記第1訓練画像は、第1ターゲットの2つの異なる画像である、ステップと、
前記ターゲットネットワークモデルの投影参照モジュールによって、前記第3訓練画像をターゲット空間に投影し、N個の第2仮想アイデンティティベクトルを得るステップであって、前記投影参照モジュールは前記投影モジュールと同じネットワーク構造を有し、且つ前記投影モジュールに従って更新される、ステップと、
前記N個の第1仮想アイデンティティベクトル及び前記N個の第2仮想アイデンティティベクトルに基づいて、アイデンティティ損失を決定するステップと、を更に含み、
前記アイデンティティ匿名化画像及び前記発散制約に基づいて、前記ターゲットネットワークモデルの損失を決定するステップは、
前記アイデンティティ匿名化画像、前記発散制約及び前記アイデンティティ損失に基づいて、前記ターゲットネットワークモデルの損失を決定するステップを含む、請求項
3に記載のモデル訓練方法。
【請求項5】
前記N個の第1仮想アイデンティティベクトル及び前記N個の第2仮想アイデンティティベクトルに基づいて、アイデンティティ損失を決定するステップは、
前記N個の第2仮想アイデンティティベクトルのうちのi番目(iは1からNまでの正の整数である)の第2仮想アイデンティティベクトルについて、前記i番目の第2仮想アイデンティティベクトルを使用してi番目の動的リスト内の、前記第1ターゲットに対応する仮想アイデンティティベクトルを更新するステップであって、前記i番目の動的リストは、i番目の解像度における異なるターゲットの仮想アイデンティティベクトルを含む、ステップと、
i番目の第1仮想アイデンティティベクトル及び更新された前記i番目の動的リストに基づいて、前記i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失を決定するステップと、
前記N個の第1仮想アイデンティティベクトルにそれぞれ対応するアイデンティティサブ損失の総和を、前記アイデンティティ損失として決定するステップと、を含む、請求項
4に記載のモデル訓練方法。
【請求項6】
前記i番目の第1仮想アイデンティティベクトル及び更新された前記i番目の動的リストに基づいて、前記i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失を決定するステップは、
前記i番目の第2仮想アイデンティティベクトルと第1所定値との第1比率を取得し、前記第1比率を前記i番目の第1仮想アイデンティティベクトルと乗算して第1結果を得、前記第1結果に対して指数演算を行って第1演算値を得るステップと、
更新された前記i番目の動的リストのうち、各第2仮想アイデンティティベクトルと第1所定値との第2比率を取得し、各前記第2比率について、前記第2比率を、対応するi番目の第1仮想アイデンティティベクトルと乗算して第2結果を得、前記第2結果に対して指数演算を行って前記各第2仮想アイデンティティベクトルに対応する第2演算値を得るステップと、
各第2仮想アイデンティティベクトルに対応する第2演算値の和を決定し、前記第1演算値と前記和との第3比率を取得し、前記第3比率に対して対数演算を行って第3演算値を得るステップと、
前記第3演算値の負数を、前記i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失として決定するステップと、を含む、請求項
5に記載のモデル訓練方法。
【請求項7】
前記属性モジュールは、符号化ユニット及び復号ユニットを備え、前記ターゲットネットワークモデルにおける属性モジュールによって、第2訓練画像に対して属性ベクトル抽出を行い、M個(Mは正の整数である)の属性ベクトルを得るステップは、
前記符号化ユニットによって前記第2訓練画像に対して特徴抽出を行い、前記第2訓練画像の特徴情報を得るステップと、
前記復号ユニットによって前記特徴情報を復号し、M個の属性ベクトルを得るステップと、を含む、請求項1ないし
6のいずれか一項に記載のモデル訓練方法。
【請求項8】
前記融合モジュールは、複数の異なる解像度層を含み、前記ターゲットネットワークモデルにおける融合モジュールによって、前記N個の第1仮想アイデンティティベクトル及び前記M個の属性ベクトルに基づいて画像生成を行い、前記第2訓練画像のアイデンティティ匿名化画像を得るステップは、
前記N個の第1仮想アイデンティティベクトルに対応する解像度に基づいて、前記N個の第1仮想アイデンティティベクトルをパターンとして、前記M個の属性ベクトルをノイズとして使用して、対応する解像度層に入力し、前記第2訓練画像のアイデンティティ匿名化画像を得るステップを含む、請求項1ないし
6のいずれか一項に記載のモデル訓練方法。
【請求項9】
前記アイデンティティ匿名化画像、前記発散制約及び前記アイデンティティ損失に基づいて、前記ターゲットネットワークモデルの損失を決定するステップは、
前記アイデンティティ匿名化画像と前記第2訓練画像との間の再構築損失を決定するステップと、
前記再構築損失、前記発散制約及び前記アイデンティティ損失に基づいて、前記ターゲットネットワークモデルの損失を決定するステップと、を含む、請求項
4に記載のモデル訓練方法。
【請求項10】
前記モデル訓練方法は、
前記アイデンティティ匿名化画像と前記第1訓練画像との間の第1距離、前記アイデンティティ匿名化画像と前記第2訓練画像との間の第2距離、及び前記第1訓練画像と前記第2訓練画像との間の第3距離を決定するステップと、
前記第1距離、前記第2距離及び前記第3距離に基づいて、コントラスト損失を決定するステップと、を更に含み、
前記再構築損失、前記発散制約及び前記アイデンティティ損失に基づいて、前記ターゲットネットワークモデルの損失を決定するステップは、
前記再構築損失、前記発散制約、前記アイデンティティ損失及び前記コントラスト損失に基づいて、前記ターゲットネットワークモデルの損失を決定するステップを含む、請求項
9に記載のモデル訓練方法。
【請求項11】
前記第1距離、前記第2距離及び前記第3距離に基づいて、コントラスト損失を決定するステップは、
前記第2距離と前記第3距離との差の平方と、前記第1距離との和を決定するステップと、
所定値と前記和との差を、前記コントラスト損失として決定するステップと、を含む、請求項
10に記載のモデル訓練方法。
【請求項12】
前記融合モジュールが敵対的ネットワークである場合、前記再構築損失、前記発散制約、前記アイデンティティ損失及び前記コントラスト損失に基づいて、前記ターゲットネットワークモデルの損失を決定するステップは、
前記アイデンティティ匿名化画像及び前記第1訓練画像に基づいて敵対的損失を決定するステップと、
前記再構築損失、前記発散制約、前記アイデンティティ損失、前記コントラスト損失及び前記敵対的損失の加重和を、前記ターゲットネットワークモデルの損失として決定するステップと、を含む、請求項
10に記載のモデル訓練方法。
【請求項13】
コンピューティングデバイスが実行するアイデンティティ匿名化方法であって、
ターゲットネットワークモデルにおける投影モジュールのターゲット空間
の第1空間でサンプリングを行い、
N個(Nは正の整数である)のアイデンティティ潜在ベクトルを得るステップと、
前記投影モジュールの第2投影ユニットによって、前記N個のアイデンティティ潜在ベクトルを前記ターゲットネットワークモデルにおける前記投影モジュールの前記ターゲット空間の第2空間に投影し、N
個の仮想アイデンティティベクトルを得るステップと、
ターゲットネットワークモデルにおける属性モジュールによって、処理対象画像に対して属性ベクトル抽出を行い、
前記処理対象画像のM個(Mは正の整数である)の属性ベクトルを得るステップと、
前記ターゲットネットワークモデルにおける融合モジュールによって、前記N個の仮想アイデンティティベクトル及び前記M個の属性ベクトルに基づいて画像生成を行い、前記処理対象画像のアイデンティティ匿名化画像を得るステップと、を含む、アイデンティティ匿名化方法。
【請求項14】
前記第1空間の平均値及び分散は標準のガウス分布を満たし、前記第1空間でサンプリングを行い、N個のアイデンティティ潜在ベクトルを得るステップは、
前記第1空間の平均値及び分散に基づいてサンプリングを行い、前記N個のアイデンティティ潜在ベクトルを得るステップを含む、請求項
13に記載のアイデンティティ匿名化方法。
【請求項15】
請求項1に記載の方法を行うように構成されたモデル訓練装置
。
【請求項16】
請求項13に記載の方法を行うように構成されたアイデンティティ匿名化装置
。
【請求項17】
コンピュータプログラムを記憶するメモリと、
前記コンピュータプログラムを実行することによって請求項
1に記載のモデル訓練方
法を実行するプロセッサと、を備える、コンピューティングデバイス。
【請求項18】
コンピュータプログラムを記憶するメモリと、
前記コンピュータプログラムを実行することによって請求項13に記載のアイデンティティ匿名化方法を実行するプロセッサと、を備える、コンピューティングデバイス。
【請求項19】
コンピュータに、請求項
1に記載のモデル訓練方
法を実行させるためのコンピュータプログラムを記憶した、コンピュータ可読記憶媒体。
【請求項20】
コンピュータに、請求項13に記載のアイデンティティ匿名化方法を実行させるためのコンピュータプログラムを記憶した、コンピュータ可読記憶媒体。
【請求項21】
プロセッサによって実行されるとき、前記プロセッサに請求項
13に記載のアイデンティティ匿名化方
法を実行させる、コンピュータプログラム。
【請求項22】
プロセッサによって実行されるとき、前記プロセッサに請求項1に記載のモデル訓練方法を実行させる、コンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願への相互参照)
本願は、2022年03月10日に中国特許局に提出された、出願番号が202210234385.2である中国特許出願に基づいて提出されるものであり、当該中国特許出願の優先権を主張し、当該国特許出願の全ての内容が参照により本願に組み込まれる。
【0002】
本願は、画像処理の技術分野に関し、特に、モデル訓練方法及び装置、アイデンティティ匿名化方法及び装置、機器、記憶媒体並びにプログラム製品に関するものである。
【背景技術】
【0003】
アイデンティティ匿名化は、デアイデンティティ化(De-Identification)とも呼ばれ、画像又はビデオ内の識別可能なアイデンティティ特徴(Identity)を除去し、一方で他のアイデンティティと無関係な属性を変更せず、匿名化された写真やビデオを依然として視覚的にリアルにすることを保証することである。
【0004】
関連技術において、条件付き生成敵対的ネットワーク(GAN:Generative Adversarial Networks)を用いて匿名化された写真を生成し、原写真の姿勢キーポイントを抽出し、条件として原写真の姿勢キーポイント及び顔領域を除去した後の背景写真をモデルに入力し、新しい仮想アイデンティティを生成して空いている顔領域を埋めている。しかし、当該方法は、モデルとして顔領域を除去した後の背景写真を入力するため、モデルによって生成された画質が悪くなってしまう。
【発明の概要】
【発明が解決しようとする課題】
【0005】
本願の実施例は、アイデンティティ匿名化画像の生成品質を向上させることができる、モデル訓練方法及び装置、アイデンティティ匿名化方法及び装置、コンピューティングデバイス、コンピュータ可読記憶媒体並びにコンピュータプログラム製品を提供する。
【課題を解決するための手段】
【0006】
本願の実施例はモデル訓練方法を提供し、前記方法は、
ターゲットネットワークモデルにおける投影モジュールによって、第1訓練画像をターゲット空間に投影し、N個(Nは正の整数である)の第1仮想アイデンティティベクトルを得るステップと、
前記ターゲットネットワークモデルにおける属性モジュールによって、第2訓練画像に対して属性ベクトル抽出を行い、M個(Mは正の整数である)の属性ベクトルを得るステップと、
前記ターゲットネットワークモデルにおける融合モジュールによって、前記N個の第1仮想アイデンティティベクトル及び前記M個の属性ベクトルに基づいて画像生成を行い、前記第2訓練画像のアイデンティティ匿名化画像を得るステップと、
前記アイデンティティ匿名化画像に基づいて、前記ターゲットネットワークモデルの損失を決定し、前記損失に基づいて前記ターゲットネットワークモデルを訓練するステップと、を含む。
【0007】
本願の実施例は更にアイデンティティ匿名化方法を提供し、前記方法は、
ターゲットネットワークモデルにおける投影モジュールのターゲット空間でサンプリングを行い、N個(Nは正の整数である)の仮想アイデンティティベクトルを得るステップと、
ターゲットネットワークモデルにおける属性モジュールによって、処理対象画像に対して属性ベクトル抽出を行い、M個(Mは正の整数である)の属性ベクトルを得るステップと、
前記ターゲットネットワークモデルにおける融合モジュールによって、前記N個の仮想アイデンティティベクトル及び前記M個の属性ベクトルに基づいて画像生成を行い、前記処理対象画像のアイデンティティ匿名化画像を得るステップと、を含む。
【0008】
本願の実施例は更にモデル訓練装置を提供し、前記装置は、投影ユニットと、属性ユニットと、融合ユニットと、訓練ユニットと、を備え、
前記投影ユニットは、ターゲットネットワークモデルにおける投影モジュールによって、第1訓練画像をターゲット空間に投影し、N個(Nは正の整数である)の第1仮想アイデンティティベクトルを得るように構成され、
前記属性ユニットは、前記ターゲットネットワークモデルにおける属性モジュールによって、第2訓練画像に対して属性ベクトル抽出を行い、M個(Mは正の整数である)の属性ベクトルを得るように構成され、
前記融合ユニットは、前記ターゲットネットワークモデルにおける融合モジュールによって、前記N個の仮想アイデンティティベクトル及び前記M個の属性ベクトルに基づいて画像生成を行い、前記第2訓練画像のアイデンティティ匿名化画像を得るように構成され、
前記訓練ユニットは、前記アイデンティティ匿名化画像に基づいて、前記ターゲットネットワークモデルの損失を決定し、前記損失に基づいて前記ターゲットネットワークモデルを訓練するように構成される。
【0009】
本願の実施例は更にアイデンティティ匿名化装置を提供し、前記装置は、サンプリングユニットと、属性ユニットと、匿名化ユニットと、を備え、
前記サンプリングユニットは、ターゲットネットワークモデルにおける投影モジュールのターゲット空間でサンプリングを行い、N個(Nは正の整数である)の仮想アイデンティティベクトルを得るように構成され、
前記属性ユニットは、ターゲットネットワークモデルにおける属性モジュールによって、処理対象画像に対して属性ベクトル抽出を行い、M個(Mは正の整数である)の属性ベクトルを得るように構成され、
前記匿名化ユニットは、前記ターゲットネットワークモデルにおける融合モジュールによって、前記N個の仮想アイデンティティベクトル及び前記M個の属性ベクトルに基づいて画像生成を行い、前記処理対象画像のアイデンティティ匿名化画像を得るように構成される。
【0010】
本願の実施例は更に、プロセッサとメモリとを備えるコンピューティングデバイスを提供する。前記メモリは、コンピュータプログラムを記憶し、前記プロセッサは、前記メモリに記憶されたコンピュータプログラムを呼び出して実行することによって、本願の実施例による上記のモデル訓練方法又はアイデンティティ匿名化方法を実行する。
【0011】
本願の実施例は更に、本願の実施例による上記のモデル訓練方法又はアイデンティティ匿名化方法を実現するように構成される、チップを提供する。前記チップは、メモリからコンピュータプログラムを呼び出して実行することによって、前記チップを実装した機器に、本願の実施例による上記のモデル訓練方法又はアイデンティティ匿名化方法を実行するためのプロセッサを備える。
【0012】
本願の実施例は更に、実行されるとき、コンピュータに本願の実施例による上記のモデル訓練方法又はアイデンティティ匿名化方法を実現させるためのコンピュータプログラムを記憶した、コンピュータ可読記憶媒体を提供する。
【0013】
本願の実施例は更に、コンピュータによって実行されるとき、コンピュータに本願の実施例による上記のモデル訓練方法又はアイデンティティ匿名化方法を実現させるためのコンピュータプログラム命令を含む、コンピュータプログラム製品を提供する。
【0014】
本願の実施例は更に、コンピュータプログラムを提供し、コンピュータで実行されるとき、コンピュータに本願の実施例による上記のモデル訓練方法又はアイデンティティ匿名化方法を実現させる。
【発明の効果】
【0015】
本願の実施例は、以下の有益な効果を有する。
ターゲットネットワークモデルの訓練プロセスにおいて、第1訓練画像をターゲット空間に投影してN個の第1仮想アイデンティティベクトルを得ることにより、ターゲットネットワークモデルが画像内のアイデンティティ情報を十分に学習できるようにし、第2訓練画像に対して属性ベクトル抽出を行ってM個の属性ベクトルを得ることにより、ターゲットネットワークモデルが画像内の属性情報を十分に学習できるようにし、N個の第1仮想アイデンティティベクトル及びM個の属性ベクトルに基づいて画像生成を行って第2訓練画像のアイデンティティ匿名化画像を得、このようにして、訓練して得られたモデルは、原画像の属性情報を変更することなく、仮想アイデンティティ情報を搬送する画像を生成することができる。
【0016】
ターゲットネットワークモデルの応用プロセスにおいて、投影モジュールのターゲット空間でサンプリングを行ってN個の仮想アイデンティティベクトルを得ることにより、仮想アイデンティティ情報の生成を実現し、処理対象画像に対して属性ベクトル抽出を行ってM個の属性ベクトルを得ることにより、処理対象画像内の属性特徴が失われないようにし、これにより生成されたアイデンティティ匿名化画像の品質を保証し、N個の仮想アイデンティティベクトル及びM個の属性ベクトルに基づいて画像生成を行って処理対象画像のアイデンティティ匿名化画像を得ることにより、処理対象画像の属性情報を変更することなく、仮想アイデンティティ情報を搬送するアイデンティティ匿名化画像、即ち実のアイデンティティを隠したアイデンティティ匿名化画像を生成することができる。即ち、本願の実施例は、アイデンティティ匿名化の際に、画像内の顔領域を除去せず、ターゲットネットワークモデルを用いて独立した仮想アイデンティティを生成することにより、アイデンティティ匿名化の忠実度及び解像度を向上させることができる。
【図面の簡単な説明】
【0017】
【
図1A】本願の実施例による実画像の概略図である。
【
図1B】本願の実施例による、
図1Aに対応するアイデンティティ匿名化画像の概略図である。
【
図1C】本願の実施例による、
図1Aに対応するアイデンティティ匿名化画像の概略図である。
【
図1D】本願の実施例による、
図1Aに対応するアイデンティティ匿名化画像の概略図である。
【
図2】本願の実施例によるシステムアーキテクチャの概略図である。
【
図3】本願の実施例によるモデル訓練方法の例示的なフローチャートである。
【
図4】本願の実施例によるターゲットネットワークモデルの例示的な構造図である。
【
図5】本願の実施例によるターゲットネットワークモデルの例示的な構造図である。
【
図6】本願の実施例によるターゲットネットワークモデルの例示的な構造図である。
【
図7】本願の実施例による融合モジュールの例示的な構造図である。
【
図8】本願の実施例によるターゲットネットワークモデルの例示的な構造図である。
【
図9】本願の実施例によるコントラスト損失の決定の概略図である。
【
図10】本願の実施例によるコントラスト損失の決定の概略図である。
【
図11】本願の実施例によるアイデンティティ匿名化方法の例示的なフローチャートである。
【
図12】本願の実施例による投影モジュールの概略図である。
【
図13】本願の実施例によるアイデンティティ匿名化画像の決定の概略図である。
【
図14】本願の実施例によるモデル訓練装置の例示的なブロック図である。
【
図15】本願の実施例によるアイデンティティ匿名化装置の例示的なブロック図である。
【
図16】本願の実施例によるコンピューティングデバイスの例示的なブロック図である。
【発明を実施するための形態】
【0018】
以下、本願の実施例における図面を参照して、本願の実施例における技術的解決策を説明する。
本発明の実施例において、「Aに対応するB」とは、BがAに関連付けられていることを意味することを理解されたい。1つの実施形態において、Aに従ってBを決定することができる。更に、Aに従ってBを決定することは、Aのみに従ってBを決定することを意味せず、A及び/又は他の情報に従ってBを決定することもできることを理解されたい。
本願の実施例の説明において、特に明記しない限り、「複数」は、2つ又は2つ以上を意味する。
【0019】
なお、本願の実施例の技術的解決策を明確に説明するために、本願の実施例では、「第1」、「第2」、「第3」等の用語を使用して、とほとんど同じである機能と作用の同じ項目又は類似する項目を区別する。当業者であれば、「第1」、「第2」、「第3」等の用語は、数及び実行順序に対して限定しなく、「第1」、「第2」、「第3」等の用語は、必ずしも異なることを限定しないことを理解することができる。
【0020】
本願の実施例の理解を容易にするために、まず、本願の実施例に係る関連概念に対して簡単に説明する。
【0021】
人工知能(AI:Artificial Intelligence)とは、デジタルコンピュータ又はデジタルコンピュータによって制御される機械を利用して人の知能をシミュレーション、伸び拡張し、環境を感知し、知識を取得し、知識を使用して、最適な結果を取得する、理論、方法、技術及びアプリケーションシステムである。言い換えれば、人工知能は、コンピュータ科学の総合的な技術であり、知能の本質を理解し、人の知能と類似する方式で反応できる新しい知能機械を生産することを目的とする。人工知能は、様々な知能機械の設計原理と実現方法を研究し、機械に、感知、推理及び決定する機能を備えるようにする。
【0022】
人工知能技術は、総合的な学問であり、ハードウェアレベルの技術とソフトウェアレベルの技術の両方を含む幅広い分野に関する。人工知能の基礎的技術は、通常、センサ、固有人工知能チップ、クラウドコンピューティング、分散型記憶、ビッグデータ処理技術、操作/対話システム、メカトロニクスなどの技術を含む。人工知能ソフトウェア技術は主に、コンピュータビジョン技術、音声処理技術、自然言語処理技術及び機械学習/深層学習などのいくつかを含む。
【0023】
機械学習(ML:Machine Learning)は、確率論、統計学、近似理論、凸解析、アルゴリズム複雑性理論などの主題に関する多分野のクロス主題である。コンピュータが、人類の学習行動をどのようにシミュレーション又は実現するかを専門的に研究して、新しい知識又はスキルを取得し、既存の知識構造を再編成して、自体のパフォーマンスを改善し続けるようにする。機械学習は、人工知能の中心であり、コンピュータに知能を有させる基本的な方法であり、人工知能の各分野に適用される。機械学習及びディープラーニングは、通常、人工ニューラルネットワーク、信念ネットワーク、強化学習、転移学習、誘導学習、教育学習などの技術を含む。
【0024】
本願の実施例の方法は、画像に対して匿名化処理を実行する必要がある任意のシナリオに適用することができる。例えば、
図1Aないし
図1Dに示すように、
図1Aは、実画像であり、
図1Bないし
図1Dは、
図1Aのアイデンティティ匿名化画像である。
図1Aを
図1Bないし
図1Dと比較すれば分かるように、
図1Bないし
図1Dは、
図1A内の識別可能なアイデンティティ特徴(Identity)を除去する同時に、アイデンティティとは無関係な他の属性を変更せず、依然として視覚的にリアルであることを保証する。
【0025】
シナリオ1において、本願の実施例はプライバシ保護のシナリオに適用することができ、例えば、顔に関する写真又はビデオについて、本願の実施例の方法を使用して、実のアイデンティティを仮想アイデンティティに切り替えることにより、プライバシを漏洩することなく、後続の検出などのタスクを実行し続けることができる。更に、写真又はビデオを公開する場合にも、ユーザは、実の情報の漏洩を回避するために、本願の実施例の方法を使用して自分のアイデンティティ特徴を隠すことができる。
【0026】
シナリオ2において、本願の実施例は、仮想イメージを生成するシナリオに適用することができ、例えば、本願の実施例の技術的解決策は、仮想アイデンティティの生成、例えば、アイデンティティ隠れ変数の固定、背景写真の置き換えに使用されることができ、異なるシナリオにおけるある特定の仮想イメージの写真又はビデオを生成することができる。
【0027】
なお、上記のシナリオ1及びシナリオ2は、ターゲットが顔であることを例として説明しており、本願の実施例の方法は更に、顔以外の他のターゲットのアイデンティティ匿名化のシナリオに適用することができ、例えば、処理対象画像内の動物や車両などの任意のターゲットに対してアイデンティティ匿名化を実行することができる。
【0028】
いくつかの実施例において、本願の実施例の方法はインテリジェント交通システムに適用することができ、知能輸送システム(Intelligent Transportation System)とも呼ばれるインテリジェント交通システム(ITS:Intelligent Traffic System)は、高度な科学技術(情報技術、コンピュータ技術、データ通信技術、センサ技術、電子制御技術、自動制御理論、オペレーションズリサーチ、人工知能など)を、交通輸送、サービス制御及び車両製造に効果的かつ総合的に適用し、車両、道路、利用者間の関係を強化することにより、安全性を保証し、効率を向上させ、環境を改善し、エネルギを節約する総合輸送システムを形成する。例示的に、知能交通と組み合わされた本願の技術案は、車載機器がユーザの顔画像を収集し、本願の実施例の方法により、収集された顔画像に対してアイデンティティ匿名化処理を実行した後、他の機器に送信して、違法運転分析、又は知能運転分析などのタスク分析を実行することであり得る。
【0029】
図2は、本願の実施例に係るシステムアーキテクチャの概略図であり、前記システムは、ユーザ機器101、データ収集機器102、訓練機器103、実行機器104、データベース105、コンテンツライブラリ106、I/Oインターフェース107及びターゲットネットワークモデル108を備える。
【0030】
ここで、データ収集機器102は、コンテンツライブラリ106から訓練データを読み取り、読み取られた訓練データをデータベース105に記憶するように構成される。本願の実施例に係る訓練データは、第1訓練画像、第2訓練画像及び第3訓練画像を含み、第1訓練画像、第2訓練画像及び第3訓練は、いずれもターゲットネットワークモデルを訓練するために使用される。
【0031】
いくつかの実施例において、ユーザ機器101は、データベース105内のデータに対して注釈操作を実行するように構成される。
【0032】
訓練機器103は、データベース105に保持された訓練データに基づいて、ターゲットネットワークモデル108を訓練し、訓練されたターゲットネットワークモデル108が、処理対象画像のアイデンティティ匿名化画像を生成できるようにする。いくつかの実施例において、訓練機器103によって得られたターゲットネットワークモデル108は、異なるシステム又は機器に適用することができる。
【0033】
図2では、実行機器104には、外部の機器とデータを交換するためのI/Oインターフェース107が配置されている。例えば、I/Oインターフェースを介して、ユーザ機器101によって送信された処理対象画像を受信する。実行機器104のコンピューティングモジュール109は、訓練されたターゲットネットワークモデル108を使用して、入力された処理対象画像を処理し、アイデンティティ匿名化画像を出力し、生成されたアイデンティティ匿名化画像をユーザ機器101に出力して表示し、又は、他のタスクモデルに入力して他のタスク処理を実行する。
【0034】
ここで、ユーザ機器101は、携帯電話、タブレットコンピュータ、ノートブックコンピュータ、パームトップコンピュータ、モバイルインターネットデバイス(MID:mobile internet device)又は他のブラウザをインストールする機能を有する端末機器を含み得る。
【0035】
実行機器104は、サーバであってもよい。サーバ1は一台又は複数台であってもよい。サーバが複数台である場合、少なくとも二台のサーバが異なるサービスを提供するように構成される場合、及び、少なくとも二台のサーバが同じサービスを提供するように構成される場合のうちの少なくとも1つが存在することができ、例えば、ロードバランシング方式によって同じサービスを提供することができ、本願の実施例は、これに対して限定しない。ここで、上記のサーバは、独立した物理サーバであってもよいし、複数の物理サーバによって構成されたサーバクラスタ又は分散型システムであってもよいし、クラウドサービス、クラウドデータベース、クラウドコンピューティング、クラウド関数、クラウドストレージ、ネットワークサービス、クラウド通信、ミドルウェアサービス、ドメインネームサービス、セキュリティサービス、コンテンツ配信ネットワーク(CDN:Content Delivery Network)、ビッグデータ及び人工知能プラットフォームなどの基礎的クラウドコンピューティングサービスを提供するクラウドサーバであってもよい。サーバは、ブロックチェーンのノードとなってもよい。
【0036】
本実施例において、実行機器104は、ネットワークを介してユーザ機器101に接続される。前記ネットワークは、イントラネット(Intranet)、インターネット(Internet)、グローバル移動通信システム(GSM:Global System of Mobile communication)、広帯域コード分割多重アクセス(WCDMA(登録商標):Wideband Code Division Multiple Access)、4Gネットワーク、5Gネットワーク、Bluetooth(登録商標)ネットワーク、Wi-Fiネットワーク、通話ネットワークなどの無線又は有線ネットワークであってもよい。
【0037】
なお、
図2は、本願の実施例によるシステムアーキテクチャの概略図に過ぎず、図に示す機器、デバイス、モジュールなどの間の位置関係は、何ら限定を意味するものではない。いくつかの実施例において、上記のデータ収集機器102は、ユーザ機器101、訓練機器103及び実行機器104と同じ機器であってもよい。上記のデータベース105は、1つのサーバに分散されてもよいし、複数のサーバに分散されてもよく、上記のコンテンツライブラリ106は、1つのサーバに分散されてもよいし、複数のサーバに分散されてもよい。
【0038】
以下では、いくつかの実施例を通じて本願の実施例の技術的解決策を具体的に説明する。以下のいくつかの実施例は互いに組み合わせることができ、同じ又は類似する概念又はプロセスは、いくつかの実施例では繰り返して説明しないかもしれない。
【0039】
本願は、ターゲットネットワークモデルを提供し、当該ターゲットネットワークモデルは、処理対象画像内のターゲット(例えば顔)に対してアイデンティティ匿名化処理を実行して、処理対象画像のアイデンティティ匿名化画像を生成するように構成される。よって、いくつかの実施例において、ターゲットネットワークモデルは、アイデンティティ匿名化モデル、又はアイデンティティ匿名化器と呼ばれることがある。
まず、ターゲットネットワークモデルの訓練プロセスについて紹介する。
【0040】
図3は、本願の実施例によるモデル訓練方法の例示的なフローチャートである。本願の実施例の実行主体は、モデル訓練装置などのモデル訓練機能を有する装置であり、当該モデル訓練装置は、コンピューティングデバイスであってもよいし、又はコンピューティングデバイスの一部であってもよい。以下では、実行主体がコンピューティングデバイスであることを例として説明する。
図3に示すように、本願の実施例の方法は、以下のステップを含む。
【0041】
ステップS301において、コンピューティングデバイスは、ターゲットネットワークモデルにおける投影モジュールによって、第1訓練画像をターゲット空間に投影し、N個(Nは正の整数である)の第1仮想アイデンティティベクトルを得る。
【0042】
本願の実施例の第1訓練画像は、訓練データ内の一枚の訓練画像である。なお、上記の第1訓練画像が顔画像である場合、上記の第1訓練画像は、ユーザの許可を得て取得されたものであり、関連画像データの收集、使用及び処理は、関連する国や地域の関連する法律規制及び標準を従うべきである。
【0043】
本願の実施例において、各第1訓練画像を使用してモデルを訓練するプロセスは基本的に同様であり、説明の便宜上、一枚の第1訓練画像を例として説明する。
【0044】
本願の実施例は、ターゲットネットワークモデルを用いて第1訓練画像をターゲット空間に投影して第1訓練画像の1つ又は複数の仮想アイデンティティベクトルを得ることにより、ターゲットネットワークモデルが第1訓練画像のアイデンティティ情報を学習できるようにする。ターゲットネットワークモデルがアイデンティティ情報を十分に学習した後、実際にアイデンティティ匿名化処理を実行する際に、ターゲットネットワークモデルのターゲット空間に対して直接にサンプリングを行って仮想アイデンティティベクトルを生成することができる。
【0045】
本願の実施例は主に、属性ベクトル及び仮想アイデンティティベクトルの概念に関するものである。
【0046】
ここで、仮想アイデンティティベクトルは、仮想アイデンティティ情報に対応するベクトルであり、仮想アイデンティティ情報は、識別可能なアイデンティティ特徴を隠した後のアイデンティティ情報であり、例えば、顔の識別可能なアイデンティティ特徴を隠した後の顔情報である。
【0047】
属性ベクトルは、属性情報に対応するベクトルであり、背景情報などの画像内の、識別可能なアイデンティティ特徴以外の他の特徴情報は属性情報と呼ばれる。
本願の実施例のターゲットネットワークモデルは、独立した仮想アイデンティティベクトルを生成することができる。
【0048】
図4は、本願の実施例によるターゲットネットワークモデルの例示的な構造図であり、
図4に示すように、本願の実施例のターゲットネットワークモデルは、投影モジュール、属性モジュール及び融合モジュールを備える。
【0049】
ここで、投影モジュールは、第1訓練画像をターゲット空間に投影し、第1訓練画像のN個の第1仮想アイデンティティベクトルを得るように構成される。Nは正の整数であり、本願の実施例は、Nの値に対して限定しなく、実際の必要に応じて設定することができる。
【0050】
属性モジュールは、第2訓練画像に対して属性ベクトル抽出を行い、第2訓練画像のM個の属性ベクトルを抽出するように構成される。Mは正の整数であり、本願の実施例は、Mの値に対して限定しなく、実際の必要に応じて設定することができる。いくつかの実施例において、MはNと等しい。
【0051】
融合モジュールは、上記のN個の第1仮想アイデンティティベクトル及びM個の属性ベクトルに基づいて画像生成を行い、第2訓練画像のアイデンティティ匿名化画像を得るように構成される。
【0052】
上記のNが1より大きい正の整数である場合、N個の第1仮想アイデンティティベクトルはそれぞれ異なる解像度に対応する。
【0053】
以上の記載から分かるように、本願の実施例のターゲットネットワークモデルにおいて、投影モジュールは、第2訓練画像内のターゲットの仮想アイデンティティベクトルを生成するように構成され、当該仮想アイデンティティベクトルは、第2訓練画像内のターゲットの実のアイデンティティ特性を隠しており、属性モジュールは、第2訓練画像の属性ベクトルを抽出するように構成され、当該属性ベクトルは、第2訓練画像内のターゲットの実のアイデンティティ特性以外の他の特徴を保留する。このようにして、融合モジュールは、上記の仮想アイデンティティベクトル及び属性ベクトルに基づいて画像生成を実行した後、第2訓練画像内のターゲットのアイデンティティを隠した匿名化画像、即ち、アイデンティティ匿名化画像を得ることができる。
【0054】
いくつかの実施例において、
図5に示すように、投影モジュールは、第1投影ユニット及び第2投影ユニットを備え、ターゲット空間は、第1空間Z及び第2空間Wを含み、この場合、上記のコンピューティングデバイスは、ターゲットネットワークモデルにおける投影モジュールを用いて、第1訓練画像をターゲット空間に投影してN個の第1仮想アイデンティティベクトルを得ることを以下の方法で実施してもよい。
【0055】
第1訓練画像の先験的アイデンティティ情報を抽出し、第1投影ユニットによって、先験的アイデンティティ情報を第1空間Zに投影し、N個のアイデンティティ潜在ベクトルを得、第2投影ユニットによって、N個のアイデンティティ潜在ベクトルを第2空間Wに投影し、N個の第1仮想アイデンティティベクトルを得る。
【0056】
図5に示すように、まず、第1訓練画像の先験的アイデンティティ情報を抽出し、例えば、事前に訓練された識別モデルによって第1訓練画像の先験的アイデンティティ情報を抽出する。その後、第1投影ユニットによって、第1訓練画像の先験的アイデンティティ情報を第1空間Zに投影し、N個のアイデンティティ潜在ベクトルを得、そして、第2投影ユニットによって、N個のアイデンティティ潜在ベクトルを第2空間Wに投影し、N個の第1仮想アイデンティティベクトルを得る。
【0057】
上記の第1空間Z及び第2空間Wは、異なる潜在的空間(latent space)であってもよい。本願の実施例は、第1空間Z及び第2空間Wに対して限定しない。
いくつかの実施例において、第1空間は潜在的空間Zであり、当該潜在的空間Zは標準のガウス分布を満たす。
【0058】
この場合、上記の第1投影ユニットは、以下の方式で、先験的アイデンティティ情報を第1空間Zに投影してN個のアイデンティティ潜在ベクトルを得ることができる。
【0059】
第1投影ユニットによって先験的アイデンティティ情報を、前記第1空間の平均値及び分散として投影し、第1空間の平均値及び分散に基づいてサンプリングを行い、N個のアイデンティティ潜在ベクトルを得る。
【0060】
いくつかの実施例において、第1投影ユニットは、変分オートエンコーダ(VAE:variational autoencoder)であり、例えば、条件付き変分オートエンコーダ(CVAE:conditional variational autoencoder)であり、条件付き変分オートエンコーダは生成ネットワークであり、エンコーダを使用してデータの分布を学習して隠れ変数を取得し、その後、デコーダを使用して隠れ変数をデータの原形に復元する。条件付き変分オートエンコーダは、データの分布を学習した後、サンプリングして新しいデータを生成し、通常、画像生成のために使用される。
【0061】
このようにして、第1訓練画像の先験的アイデンティティ情報を当該VAEに入力し、当該VAEは、先験的アイデンティティ情報を第1空間の平均値及び分散として投影することができる。そして、第1空間の平均値及び分散に基づいてサンプリングを行い、第1訓練画像のN個のアイデンティティ潜在ベクトルを得る。
【0062】
当該例において、上記の第1空間は、標準のガウス分布を満たす潜在的空間Zである。よって、潜在的空間の表現能力を高めるために、本願の実施例は、異なる解像度レベルで、異なる潜在ベクトルを生成し、例えば、N個のアイデンティティ潜在ベクトルを生成し、これは、複数のアイデンティティ潜在ベクトルを含む
【0063】
【0064】
いくつかの実施例において、第2空間Wは、潜在的空間Zによって得られたものであり、例えば、潜在的空間Zによって、線形又は非線形マッピングを実行することによって得られる。
【0065】
本願の実施例は、第2投影ユニットのネットワーク構造に対して限定しなく、例えば、複数の全結合層によって構成されたマッピングネットワーク(Mapping Network)であってもよい。
【0066】
本願の実施例は、第1訓練画像の先験的アイデンティティ情報を投影モジュールの影空間(即ターゲット空間)に投影し、これにより、投影モジュールが第1訓練画像のアイデンティティ情報を十分に学習し、後続で実際の状況に一致する仮想アイデンティティベクトルを生成できるようにする。
【0067】
ステップS302において、ターゲットネットワークモデルにおける属性モジュールによって、第2訓練画像に対して属性ベクトル抽出を行い、M個(Mは正の整数である)の属性ベクトルを得る。
【0068】
ここで、第2訓練画像は、訓練データ集合内の任意の画像であり、当該第2訓練画像は、上記の第1訓練画像と同じ画像であってもよいし、異なる画像であってもよい。
本願の実施例の属性モジュールは、第2訓練画像の属性情報を学習して、M個の属性ベクトルを生成するように構成される。
本願の実施例は、属性モジュールのネットワークモデルに対して限定しない。
【0069】
いくつかの実施例において、
図6に示すように、属性モジュールは、符号化ユニット及び復号ユニットを備え、この場合、ターゲットネットワークモデルにおける属性モジュールによって、以下の方式で、第2訓練画像に対して属性ベクトル抽出を行い、M個の属性ベクトルを得ることができる。
【0070】
第2訓練画像を符号化ユニットに入力し、第2訓練画像の特徴情報を得、特徴情報を復号ユニットに入力し、M個の属性ベクトルを得る。
【0071】
いくつかの実施例において、符号化ユニットは、複数の特徴抽出層を含み、復号ユニットも、複数の特性抽出ユニットを含み、符号化ユニットの少なくとも1つの特徴抽出層と、復号ユニットの少なくとも1つの特徴抽出層との間は、スキップ接続されている。
上記のステップに基づいて、N個の第1仮想アイデンティティベクトル及びM個の属性ベクトルを生成した後、以下のステップS303を実行する。
【0072】
ステップS303において、ターゲットネットワークモデルにおける融合モジュールによって、N個の第1仮想アイデンティティベクトル及びM個の属性ベクトルに基づいて画像生成を行い、第2訓練画像のアイデンティティ匿名化画像を得る。
【0073】
例1において、N個の第1仮想アイデンティティベクトルをスプライスして、スプライスされた第1仮想アイデンティティベクトルを得、M個の属性ベクトルを繋ぎ合わせ、スプライスされた第1仮想アイデンティティベクトル及びスプライスされた属性ベクトルに対して画像生成を実行した後、融合モジュールに入力することにより、アイデンティティ匿名化画像を生成する。
【0074】
例えば、スプライスされた第1仮想アイデンティティベクトルをスプライスされた属性ベクトルとカスケード接続した後、融合モジュールに入力することにより、アイデンティティ匿名化画像を生成する。
【0075】
更に例えば、スプライスされた第1仮想アイデンティティベクトルをスプライスされた属性ベクトルと加算した後、融合モジュールに入力することにより、アイデンティティ匿名化画像を生成する。
【0076】
示例2において、融合モジュールは、複数の異なる解像度層を含み、この場合、融合モジュールは、以下の方式で、N個の第1仮想アイデンティティベクトル及びM個の属性ベクトルに基づいて画像生成を行い、第2訓練画像のアイデンティティ匿名化画像を得ることができる。
【0077】
N個の第1仮想アイデンティティベクトルに対応する解像度に基づいて、N個の第1仮想アイデンティティベクトルをパターンとして、M個の属性ベクトルをノイズとして使用して、対応する解像度層に入力し、第2訓練画像のアイデンティティ匿名化画像を得る。
【0078】
例を挙げると、Nは3であり、Mは4であり、融合モジュールは、異なる4つの解像度層を含み、そのうちの3つの第1仮想アイデンティティベクトルを、第1仮想アイデンティティベクトル1、第1仮想アイデンティティベクトル2及び第1仮想アイデンティティベクトル3に表記し、4つの属性ベクトルを、属性ベクトル1、属性ベクトル2、属性ベクトル3及び属性ベクトル4に表記する。4つの解像度層は、解像度のサイズに従って順次に解像度層1、解像度層2、解像度層3及び解像度層4に表記する。第1仮想アイデンティティベクトル1は、低い解像度の解像度層1及び解像度層2に対応し、第1仮想アイデンティティベクトル2は、中解像度の解像度層3に対応し、第1仮想アイデンティティベクトル3は、最高解像度の解像度層4に対応する。4つの属性ベクトルは、解像度サイズに応じて、4つの解像度層に順次に対応する。
【0079】
例示的に、第1仮想アイデンティティベクトル1を解像度層1に入力し、特徴情報1を得、属性ベクトル1を特徴情報1と合成して、第1仮想アイデンティティベクトル2とともに解像度層2に入力し、特徴情報2を得る。属性ベクトル2を特徴情報2と合成して、第1仮想アイデンティティベクトル3とともに解像度層3に入力し、特徴情報3を得る。属性ベクトル3を特徴情報3と合成して、第1仮想アイデンティティベクトル4とともに解像度層4に入力し、特徴情報4を得る。最後に、特徴情報4を属性ベクトル4と合成するなどの処理の後、第2訓練画像のアイデンティティ匿名化画像を生成する。
【0080】
いくつかの実施例において、融合モジュールは、スタイルベースのジェネレータ(StyleGAN2:Style-based generator)である。
図7に示すように、融合モジュールに隣接する2つの解像度層の間はAdaIN層を含み、例えば、第1仮想アイデンティティベクトルi+1に対してアフィン変換(AT:Affine transform)を実行し、i番目の解像度層によって出力された特徴情報iを属性ベクトルiと合成し、アフィン変換された第1仮想アイデンティティベクトルi+1と共にAdaIN層に入力し、AdaIN操作を実行し、AdaIN操作結果をi+1番目の解像度層に入力する。
【0081】
本願の実施例の融合モジュールは、StyleGAN3及びProGANなどの敵対的モデルであってもよく、融合モジュールが異なる敵対的モデルを採用する場合、第2訓練画像のアイデンティティ匿名化画像を決定する方式は異なってもよく、本願の実施例はこれに対して限定しない。
【0082】
いくつかの実施例において、第1投影ユニットがVAEであり、第2投影ユニットがマッピングネットワークであり、属性モジュールがオートエンコーダであり、融合モジュールがStyleGAN2であることを例として、本願の実施例のモデル訓練プロセスを紹介する。
【0083】
例示的に、
図8に示すように、事前訓練顔識別モデルを用いて、第1訓練画像Xsに基づいて先験的アイデンティティ情報を生成する。そして、先験的アイデンティティ情報をVAEに入力し、VAEによって先験的アイデンティティ情報を第1空間Zに投影し、N個のアイデンティティ潜在ベクトルを得、例えば、3つのアイデンティティ潜在ベクトルを得、この3つのアイデンティティ潜在ベクトルはそれぞれ、低、中、高3つの異なる解像度に対応する。そして、N個のアイデンティティ潜在ベクトルをマッピングネットワークに入力し、マッピングネットワークを介して、N個のアイデンティティ潜在ベクトルを第1空間Zから第2空間Wに投影し、N個の第1仮想アイデンティティベクトルを得る。更に、第2訓練画像Xtをオートエンコーダに入力し、オートエンコーダによって、第2訓練画像Xtを処理した後、M個の属性ベクトルを生成する。最後に、M個の属性ベクトルをノイズとして、N個の第1仮想アイデンティティベクトルをパターンとして使用して、StyleGAN2の各層に入力し、StyleGAN2によって出力された第2訓練画像のアイデンティティ匿名化画像Ys,tを得る。
【0084】
上記のステップに基づいて、第1訓練画像及び第2訓練画像をターゲットネットワークモデルに入力し、ターゲットネットワークモデルによって出力された第2訓練画像のアイデンティティ匿名化画像を得ることができる。そして、以下のステップS304を実行することにより、ターゲットネットワークモデルを訓練する。
【0085】
ステップS304において、アイデンティティ匿名化画像に基づいて、ターゲットネットワークモデルの損失を決定し、損失に基づいてターゲットネットワークモデルを訓練する。
【0086】
上記のステップに基づいて、ターゲットネットワークモデルは、第2訓練画像のアイデンティティ匿名化画像を出力し、当該アイデンティティ匿名化画像に基づいて、ターゲットネットワークモデルの損失を決定する。
【0087】
いくつかの実施例において、アイデンティティ匿名化画像を判断モデルに入力し、当該判断モデルは、事前に訓練された、アイデンティティ匿名化画像の匿名化程度を予測できるモデルである。例えば、当該アイデンティティ匿名化画像を当該判断モデルに入力し、当該判断モデルは、当該アイデンティティ匿名化画像に対してアイデンティティ識別を実行し、識別結果を当該ターゲットネットワークモデルの損失として決定する。識別精度が高い場合、現在のターゲットネットワークモデルの匿名化効果が理想的ではないことを意味し、この場合、ターゲットネットワークモデルの損失に基づいて、当該ターゲットネットワークモデル内のパラメータを調整する。そして、新しい第1訓練画像及び第2訓練画像を選択して、上記のステップS301ないしステップS304を実行し、当該ターゲットネットワークモデルが訓練終了条件を満たすまで、ターゲットネットワークモデルに対して続けて訓練する。ここで、訓練終了条件は少なくとも、訓練回数が所定の回数に達すること、又はモデルの匿名化程度が期待効果に達することを含む。
【0088】
いくつかの実施例において、
図5に示す第1空間Zが標準のガウス分布を満たす潜在的空間である場合、本願の実施例は、第1空間Z内のN個のアイデンティティ潜在ベクトルに対してKL発散制約
【0089】
【数2】
を加えて、アイデンティティ情報が標準のガウス分布に投影されるようにする。
【0090】
この基で、本願の実施例は更に、N個のアイデンティティ潜在ベクトルの発散制約を決定することができ、この場合、アイデンティティ匿名化画像に基づいて、ターゲットネットワークモデルの損失を決定するステップは、アイデンティティ匿名化画像及び発散制約に基づいて、ターゲットネットワークモデルの損失を決定するステップを含む。
例示的に、以下の式(1)を介して、N個のアイデンティティ潜在ベクトルの発散制約
【0091】
【0092】
【0093】
ここで、μiは、N個のアイデンティティ潜在ベクトルのうちのi番目のアイデンティティ潜在ベクトルに対応する平均値であり、σiは、N個のアイデンティティ潜在ベクトルのうちのi番目のアイデンティティ潜在ベクトルに対応する分散である。
【0094】
なお、上記の式(1)は、1つの例に過ぎず、本願の実施例における、N個のアイデンティティ潜在ベクトルの発散制約を決定する方式は、上記の式(1)によって限定されなく、例えば、上記の式(1)を変形することなどの他の発散制約を計算する方式であってもよい。
本願の実施例において、N個のアイデンティティ潜在ベクトルの発散制約
【0095】
【0096】
であり、このように、訓練によって、投影モジュールがアイデンティティ情報を十分に学習できるようにするだけでなく、投影モジュールの第1空間が標準のガウス分布を満たすようにし、このようにして、仮想アイデンティティベクトルを生成するために、後で匿名化処理のとき、第1空間を直接にサンプリングして、標準のガウス分布を満たすN個のアイデンティティ潜在ベクトルを生成することができる。
【0097】
いくつかの実施例において、上記の第2空間は、第1空間が非線形マッピングすることによって得られたものであり、1つの複雑な非ガウス分布である。
図5に示すように、アイデンティティ情報を第1空間にマッピングした後、この場合の中間潜在的空間の第2空間
【0098】
【0099】
の分布が均一ではなく、実のアイデンティティベクトルが複数の異なる中心に集まっており、且つ生成された仮想アイデンティティベクトルと重なっていないことを発見したため、仮想のアイデンティティベクトルは、合理的な顔アイデンティティを生成できない。よって、本願の実施例は、1つのコントラスト損失を使用して、第2空間、即ち
【0100】
【0101】
空間の潜在ベクトル(即ち第1仮想アイデンティティベクトル)を制約することを提案し、それにより、同じアイデンティティからの潜在ベクトルが一緒に集約され、異なるアイデンティティの潜在ベクトルとは互いに反発し合い、すべての潜在ベクトルが空間全体に均等に分布されるようにする。
【0102】
この基で、本願の実施例は更に、以下のステップによりアイデンティティ損失を決定することができる。
ステップ1において、第3訓練画像を取得する。
ステップ2において、投影参照モジュールによって第3訓練画像を処理し、N個の第2仮想アイデンティティベクトルを得る。
ステップ3において、N個の第1仮想アイデンティティベクトル及びN個の第2仮想アイデンティティベクトルに基づいて、アイデンティティ損失を決定する。
【0103】
上記の第3訓練画像及び第1訓練画像は両方とも、第1ターゲットの異なる二枚の画像である。例えば、第3訓練画像及び第1訓練画像は、同じユーザの異なる二枚の顔画像である。
【0104】
上記の投影参照モジュールは投影モジュールと同じネットワーク構造を有し、且つ投影モジュールに従って更新される。例えば、投影参照モジュールは、投影モジュールの運動量に従って更新され、即ち、投影参照モジュールは、投影モジュールの更新に伴ってゆっくり更新される。
例示的に、投影参照モジュールは、以下の式(2)に従って更新されることができる。
Pθ’(t)=(1-Δ)*Pθ’(t-1)+Δ*Pθ(t) (2)
【0105】
ここで、Pθ’(t)は、t回目の更新後の投影参照モジュールパラメータであり、Pθ’(t-1)はt-1回目の更新後の投影参照モジュールパラメータであり、Pθ(t)は、t回目の更新後の投影モジュールパラメータであり、Δは0.01などの小さい値である。
【0106】
図9に示すように、モデル訓練プロセスにおいて、アイデンティティ損失を決定するために、本願の実施例は、投影モジュールのネットワーク構造と完全に一致する1つの投影参照モジュールを配置することにより、投影モジュールによって出力された第1仮想アイデンティティベクトルを制約する。例示的に、第1訓練画像を投影モジュールに入力し、第1訓練画像のN個の第1仮想アイデンティティベクトルを得、第3訓練画像を投影参照モジュールに入力し、第3訓練画像のN個の第2仮想アイデンティティベクトルを得る。第1訓練画像及び第3訓練画像が同じターゲットの画像であり、且つ投影モジュールと投影参照モジュールのネットワーク構造が一致するため、モデル訓練が終了した後、第1訓練画像に対応するN個の第1仮想アイデンティティベクトルと、N個の第2仮想アイデンティティベクトルとの間の差異が比較的に小さく、この基で、第1訓練画像に対応するN個の第1仮想アイデンティティベクトル及びN個の第2仮想アイデンティティベクトルに基づいて、ターゲットネットワークモデルにおける投影モジュールを訓練することにより、投影モジュールが、要求を満たす仮想アイデンティティベクトルを生成できるようにすることができる。
【0107】
上記のステップ3において、N個の第1仮想アイデンティティベクトル及びN個の第2仮想アイデンティティベクトルに基づいて、アイデンティティ損失を決定する方式は、以下を含むがこれに限定されない。
【0108】
方式1において、異なる解像度における、N個の第1仮想アイデンティティベクトルとN個の第2仮想アイデンティティベクトルとの差を決定し、差の和、又は差の平均値を、アイデンティティ損失として決定する。例えば、Nが3であると、第1仮想アイデンティティベクトル1と第2仮想アイデンティティベクトル1との差1を決定し、第1仮想アイデンティティベクトル2と第2仮想アイデンティティベクトル2との差2を決定し、第1仮想アイデンティティベクトル3と第2仮想アイデンティティベクトル3との差3を決定する。差1、差2及び差3の和をアイデンティティ損失として決定するか、差1、差2及び差3の平均値を、アイデンティティ損失として決定する。
【0109】
方式2において、本願の実施例は、N個の動的リスト
【0110】
【数8】
を設計し、当該動的リストは、訓練集合全体のすべての異なるターゲットアイデンティティ(例えば顔アイデンティティ)が第2空間:
【0111】
【0112】
空間での表現を記憶する。この場合、N個の第1仮想アイデンティティベクトル及びN個の第2仮想アイデンティティベクトルに基づいて、以下のステップによりアイデンティティ損失を決定することができる。
【0113】
ステップ31において、N個の第1仮想アイデンティティベクトルのうちのi番目の第1仮想アイデンティティベクトルについて、i番目の第2仮想アイデンティティベクトルを使用してi番目の動的リスト内の、第1ターゲットに対応する仮想アイデンティティベクトルを更新する。
ここで、i番目の動的リストは、i番目の解像度における異なるターゲットの仮想アイデンティティベクトルを含み、iは、1からNまでの正の整数である。
【0114】
本願の実施例において、N個の第2仮想アイデンティティベクトルにおいて、各N個の第2仮想アイデンティティベクトルは1つの動的リストに対応し、例えばNが3であると、それぞれ低解像度、中解像度及び高解像度に対応し、そうすると、動的リストは、低解像度に対応する第1動的リスト、中解像度に対応する第2動的リスト及び高解像度に対応する第3動的リストの3つを含む。
【0115】
i=1であると仮定すると、最初の第2仮想アイデンティティベクトルを使用して第1動的リスト内の、第1ターゲットに対応する仮想アイデンティティベクトルを更新する。
【0116】
i=2であると仮定すると、二番目の第2仮想アイデンティティベクトルを使用して第2動的リスト内の、第1ターゲットに対応する仮想アイデンティティベクトルを更新する。
【0117】
i=3であると仮定すると、三番目の第2仮想アイデンティティベクトルを使用して第3動的リスト内の、第1ターゲットに対応する仮想アイデンティティベクトルを更新する。
【0118】
ステップ32において、i番目の第1仮想アイデンティティベクトル及び更新されたi番目の動的リストに基づいて、i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失を決定する。
【0119】
例示的に、
図10に示すように、第1訓練画像及び第3訓練画像は、第1ターゲットjの異なる二枚の画像であり、第1訓練画像Xjを投影モジュールに入力し、N個の第1仮想アイデンティティベクトルWjを取得し、第3訓練画像Xj’を投影参照モジュールに入力し、N個の第2仮想アイデンティティベクトルWj’を取得する。N個の解像度のうちのi番目の解像度について、i番目の動的リストKiは、i番目の解像度における異なるターゲットの第2仮想アイデンティティベクトルを含み、且つ当該i番目の動的リストKiはリアルタイムで更新される。例示的に、i番目の第2仮想アイデンティティベクトルを使用してi番目の動的リストKi内の、第1ターゲットjに対応する仮想アイデンティティベクトルkjを更新し、即ち、kjをWj’に更新する。そして、i番目の第2仮想アイデンティティベクトル及び更新されたi番目の動的リストに基づいて、i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失iを決定する。
本願の実施例では、i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失を決定する方式に対して限定しない。
【0120】
例えば、センター損失(Center loss)やトリプレット損失(Triplet loss)などの損失方式を使用して、i番目の第1仮想アイデンティティベクトル及び更新されたi番目の動的リストに基づいて、i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失を決定する。
【0121】
いくつかの実施例において、N個の第1仮想アイデンティティベクトル内の、i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失を決定する、上記のステップは、以下のステップを含み得る。
【0122】
ステップ321において、i番目の第2仮想アイデンティティベクトルと第1所定値との第1比率を取得し、第1比率をi番目の第1仮想アイデンティティベクトルと乗算して第1結果を得、第1結果に対して指数演算を行って第1演算値を得る。
【0123】
ステップ322において、更新されたi番目の動的リストのうち、各第2仮想アイデンティティベクトルと第1所定値との第2比率を取得し、各前記第2比率について、前記第2比率を、対応するi番目の第1仮想アイデンティティベクトルと乗算して第2結果を得、前記第2結果に対して指数演算を行って各第2仮想アイデンティティベクトルに対応する第2演算値を得る。
【0124】
ステップ323において、各第2仮想アイデンティティベクトルに対応する第2演算値の和を決定し、前記第1演算値と当該和との第3比率を取得し、第3比率に対して対数演算を行って第3演算値を得る。
【0125】
ステップ324において、第3演算値の負数を、i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失として決定する。
例示的に、
【0126】
【0127】
【0128】
【0129】
が陽性サンプルであり、残りは陰性サンプルであり、情報ノイズ比較推定(InfoNCE:Information Noise Contrastive Noise)形でのコントラスト損失を使用してアイデンティティサブ損失
【0130】
【数13】
を決定し、ここでInfoNCEは、相互情報(Mutual Information)に基づいて自己回帰を修正する損失関数である。
例示的に、以下の式(3)に従ってi番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失L
c(i)を決定する。
【0131】
【0132】
【数15】
は、第1ターゲットjのi番目の第1仮想アイデンティティベクトルであり、
【0133】
【数16】
は、第1ターゲットjのi番目の第2仮想アイデンティティベクトルであり、τは第1所定値であり、
【0134】
【数17】
は、i番目の動的リスト内のk番目のターゲットに対応するi番目の第2仮想アイデンティティベクトルであり、
【0135】
【数18】
は、k番目のターゲットに対応する第1仮想アイデンティティベクトルであり、Kは、i番目の動的リストに含まれるターゲットの総和である。
【0136】
ステップ33において、N個の第1仮想アイデンティティベクトルそれぞれに対応するアイデンティティサブ損失の総和を、ターゲットネットワークモデルのアイデンティティ損失として決定する。
【0137】
上記のステップ32に基づいて、i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失を決定した後、N個の第1仮想アイデンティティベクトルそれぞれに対応するアイデンティティサブ損失の総和を、アイデンティティ損失として決定する。例えばNが3であると、上記の方法に基づいて、3つの第1仮想アイデンティティベクトルのうち、各第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失を決定し、この3つの第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失の総和を、モデルのアイデンティティ損失として決定する。
【0138】
本願の実施例において、上記の方法に従ってモデル訓練プロセスにおけるアイデンティティ損失を決定した後、アイデンティティ匿名化画像及び発散制約に基づいて、ターゲットネットワークモデルの損失を決定するステップは、以下のステップを含む。
アイデンティティ匿名化画像、発散制約及びアイデンティティ損失に基づいて、ターゲットネットワークモデルの損失を決定する。
【0139】
例示的に、前記アイデンティティ匿名化画像と第2訓練画像との間の再構築損失を決定し、再構築損失、発散制約及びアイデンティティ損失に基づいて、ターゲットネットワークモデルの損失を決定する。
【0140】
1つの例において、アイデンティティ匿名化画像と第2訓練画像との間の差を、再構築損失として決定する。例えば、アイデンティティ匿名化画像の各画素点と、第2訓練画像に対応する画素点との間の差の和を、再構築損失として決定する。
別の例において、以下の式(4)に基づいて、再構築損失Lrec
を決定する。
【0141】
【数19】
ここで、Y
s,tは、アイデンティティ匿名化画像であり、X
tは、第2訓練画像であり、
【0142】
【0143】
上記のステップに基づいて、再構築損失Lrecを決定した後、再構築損失、発散制約及びアイデンティティ損失に基づいて、ターゲットネットワークモデルの損失を決定する。例えば、再構築損失、発散制約及びアイデンティティ損失の加重和を、ターゲットネットワークモデルの最終的な損失として決定する。
【0144】
いくつかの実施例において、モデルの訓練精度を向上させるために、本願の実施例は、アイデンティティ匿名化画像のアイデンティティコントラスト損失を決定するステップを更に含み、例示的に、前記ステップは、以下のステップを含む。
【0145】
ステップAにおいて、アイデンティティ匿名化画像と第1訓練画像との間の第1距離、アイデンティティ匿名化画像と第2訓練画像との間の第2距離、及び第1訓練画像と第2訓練画像との間の第3距離を決定する。
ステップBにおいて、第1距離、第2距離及び第3距離に基づいて、コントラスト損失を決定する。
ここで、上記の第1距離、第2距離及び第3距離は、コサイン距離などの任意の距離方式によって決定され得る。
例1において、ステップAに従って第1距離、第2距離及び第3距離を決定した後、第1距離、第2距離及び第3距離の和をコントラスト損失として決定する。
例2において、前記第2距離と前記第3距離との差の平方と、前記第1距離との和を決定し、所定値と前記和との差を、前記コントラスト損失として決定する。
1つの例において、以下の式(5)に基づいて、コントラスト損失LICLを決定する。
【0146】
【数21】
ここで、z
idは、事前訓練顔識別モデルから抽出された、画像Xに関する512次元アイデンティティベクトル表現を表し、
【0147】
【数22】
は、アイデンティティ匿名化画像と第1訓練画像との間の第1距離をであり、
【0148】
【数23】
は、アイデンティティ匿名化画像と第2訓練画像との間の第2距離であり、
【0149】
【数24】
は、第1訓練画像と第2訓練画像との間の第3距離である。
【0150】
上記のステップに基づいて、コントラスト損失LICLを決定した後、再構築損失、発散制約、アイデンティティ損失及びコントラスト損失に基づいて、ターゲットネットワークモデルの損失を決定し、例えば、再構築損失、発散制約、アイデンティティ損失及びコントラスト損失の加重和を、ターゲットネットワークモデルの損失として決定する。
【0151】
いくつかの実施例において、融合モジュールが敵対的ネットワークである場合、モデル訓練プロセスでは、モデルの敵対的損失を更に決定し、例えば、アイデンティティ匿名化画像及び第1訓練画像に基づいて敵対的損失を決定する。
例示的に、以下の式(6)に基づいて、敵対的損失LGAN
を決定する。
【0152】
【0153】
ここで、Dは弁別器であり、Gはジェネレータであり、E(*)は、分布関数の期待値を表し、D(XS)は、識別器による第1訓練画像XSへの識別結果であり、D(Ys,t)は、識別器によるアイデンティティ匿名化画像Ys,tへの識別結果である。
【0154】
上記のステップに基づいて、敵対的損失LGANを決定した後、再構築損失、発散制約、アイデンティティ損失、コントラスト損失及び敵対的損失に基づいて、ターゲットネットワークモデルの損失を決定することができ、例えば、再構築損失、発散制約、アイデンティティ損失、コントラスト損失及び敵対的損失の加重和を、ターゲットネットワークモデルの損失として決定する。
【0155】
なお、本願の実施例は、再構築損失、発散制約、アイデンティティ損失、コントラスト損失及び敵対的損失に対応する重み値のサイズに対して限定しなく、実際の必要に応じて決定することができる。
【0156】
いくつかの実施例において、以下の式(7)に基づいて、再構築損失、発散制約、アイデンティティ損失、コントラスト損失及び敵対的損失に対して加重演算を実行して、ターゲットネットワークモデルの損失Ltotalを得ることができる。
【0157】
【0158】
上記の式(7)の各損失に対応する重みは1つの例であり、本願の実施例における各損失に対応する重みは、上記の式(7)に示されたものを含むがこれに限定されなく、必要に応じて決定することができる。
【0159】
いくつかの実施例において、ターゲットネットワークモデルの訓練精度を向上させるために、上記の実施例に記載の各損失以外の他の損失を決定することができ、本願の実施例はこれに対して限定しなく、実際の必要に応じて決定することができる。
【0160】
以上の記載から分かるように、本願の実施例は、異なる解像度に対応する第1仮想アイデンティティベクトルを生成することにより、アイデンティティ匿名化を実現し、匿名化の解像度を改善することができ、例えば、10242解像度の匿名化結果を生成する同時に、画像アーティファクトが少なく、高い忠実度を有する。更に、本願の実施例においてモデル訓練のとき、キー回帰モデル及び分割モデルに依存しなく、画像内の顔領域を除去しなく、原写真内の姿勢、詳細及び遮蔽を保留する。
【0161】
本願の実施例は、ターゲットネットワークモデルの応用プロセスにおいて、投影モジュールによって第1訓練画像をターゲット空間に投影してN個の第1仮想アイデンティティベクトルを得ることにより、ターゲットネットワークモデルが画像内のアイデンティティ情報を十分に学習できるようにし、第2訓練画像に対して属性ベクトル抽出を行ってM個の属性ベクトルを得ることにより、ターゲットネットワークモデルが画像内の属性情報を十分に学習できるようにし、N個の第1仮想アイデンティティベクトル及びM個の属性ベクトルに基づいて画像生成を行って第2訓練画像のアイデンティティ匿名化画像を得、このようにして、訓練して得られたモデルは、原画像の属性情報を変更することなく、仮想アイデンティティ情報を搬送する画像を生成することができる。即ち、本願は、新しいターゲットネットワークモデルを提供し、上記の訓練方法により、ターゲットネットワークモデルは第1訓練画像内のアイデンティティ情報を学習し、このようにして、ターゲットネットワークモデルが仮想アイデンティティを独立して生成できるようになり、第2訓練画像内の属性情報を十分に学習することができる。学習の全体的なプロセスにおいて、画像内の顔領域を除去することも、実のアイデンティティ情報を使用して指示することも必要なく、顔変えタスク内の明確な監督ターゲットを利用して、ターゲットネットワークモデルを訓練し、ターゲットネットワークモデルのアイデンティティ匿名化の生成の忠実度及び解像度を向上させ、訓練されたターゲットネットワークモデルで高品質のアイデンティティ匿名化画像を生成することができる。
【0162】
以上では、
図3ないし
図10を参照して、本願のモデル訓練方法に対して具体的に紹介しており、以下では、
図11ないし
図13を参照して、本願のアイデンティティ匿名化方法を具体的に説明する。
【0163】
図11は、本願の実施例によるアイデンティティ匿名化方法の例示的なフローチャートである。
図11に示すアイデンティティ匿名化方法は、上記の訓練されたターゲットネットワークモデルを使用して、アイデンティティ匿名化処理を実行する方法である。
図11に示すように、当該方法は、以下のステップを含む。
【0164】
ステップS401において、ターゲットネットワークモデルにおける投影モジュールのターゲット空間でサンプリングを行い、N個(Nは正の整数である)の仮想アイデンティティベクトルを得る。
【0165】
上記の実施例から分かるように、本願の実施例は、第1訓練画像を使用して、投影モジュールを訓練することにより、投影モジュールが第1訓練画像内のアイデンティティ情報を十分に学習できるようにする。そうすると、実際に使用する際に、投影モジュールのターゲット空間をサンプリングすることによって、N個の仮想アイデンティティベクトルを得ることができる。
【0166】
上記のステップS401の実施形態は、以下のいくつかを含むが、これに限定されない。
方式1において、訓練された投影モジュールのターゲット空間の平均値及び分散に基づいてサンプリングを行い、N個の仮想アイデンティティベクトルを得る。例えば、ターゲット空間の分散でランダムサンプリングを実行し、その後、ターゲット空間の平均値に加算して、1つの仮想アイデンティティベクトルを得、上記のステップを繰り返して、N個の仮想アイデンティティベクトルを得ることができる。
【0167】
方式2において、ターゲット空間は、第1空間及び第2空間を含み、ターゲットネットワークモデルは、第2投影ユニットを備え、この場合、以下の方式で、ターゲットネットワークモデルにおける投影モジュールのターゲット空間でサンプリングを行い、N個の仮想アイデンティティベクトルを得ることができる。
【0168】
第1空間でサンプリングを行い、N個のアイデンティティ潜在ベクトルを得、第2投影ユニットによって、N個のアイデンティティ潜在ベクトルを第2空間に投影し、N個の仮想アイデンティティベクトルを得る。
【0169】
本願の実施例において、実際に匿名化する際に、投影モジュールの第1投影ユニットは使用せず、投影モジュールの第2投影ユニットのみを使用して投影する。例示的に、
図12に示すように、標準のガウス分布を満たす第1空間Zでサンプリングして、N個のアイデンティティ潜在ベクトルを得、そして、N個のアイデンティティ潜在ベクトルを第2投影ユニットに入力する。第2投影ユニットは、N個のアイデンティティ潜在ベクトルをW空間に投影し、N個の仮想アイデンティティベクトルを得る。
図12ではNが3であり、第2投影ユニットがマッピングネットワークであることを例とするが、本願の実施例の投影モジュールは、
図12に示されたものによって限定されない。
【0170】
以上の記載から分かるように、第1訓練画像を使用して第1空間を訓練して、第1空間の分散及び平均値が標準のガウス分布を満たすようにする。このように、まず、第1空間でサンプリングを行い、N個のアイデンティティ潜在ベクトルを生成し、例えば、第1空間の平均値及び分散に基づいてサンプリングを行い、N個のアイデンティティ潜在ベクトルを得、第1空間の分散でランダムサンプリングを実行し、その後、第1空間の平均値に加算して、1つのアイデンティティ潜在ベクトルを得、上記のステップを繰り返して、N個のアイデンティティ潜在ベクトルを得ることができる。そして、第2投影ユニットによって、N個のアイデンティティ潜在ベクトルを第2空間に投影し、N個の仮想アイデンティティベクトルを得る。
【0171】
いくつかの実施例において、上記のN個の仮想アイデンティティベクトルはそれぞれ異なる解像度に対応し、例えばN=3であり、ここで、最初の仮想アイデンティティベクトルは低解像度に対応し、二番目の仮想アイデンティティベクトルは中解像度に対応し、三番目の仮想アイデンティティベクトルは高解像度に対応する。
【0172】
上記の方法に基づいて、N個の仮想アイデンティティベクトルを取得した後、以下のステップS402及びステップS403を実行して、処理対象画像のアイデンティティ匿名化画像を得る。
【0173】
ステップS402において、ターゲットネットワークモデルにおける属性モジュールによって、処理対象画像に対して属性ベクトル抽出を行い、M個(Mは正の整数である)の属性ベクトルを得る。
本願の実施例の属性モジュールは、処理対象画像内の属性情報を抽出するように構成される。
【0174】
いくつかの実施例において、属性モジュールは、符号化ユニット及び復号ユニットを備え、この場合、以下の方式で、処理対象画像に対して属性ベクトル抽出を行い、M個の属性ベクトルを得ることができる。
処理対象画像を符号化ユニットに入力し、処理対象画像の特徴情報を得、特徴情報を復号ユニットに入力し、M個の属性ベクトルを得る。
【0175】
いくつかの実施例において、上記の符号化ユニットは、複数の特徴抽出層を含み得、同様に、上記の復号ユニットも、複数の特徴抽出層を含むことができ、ここで、特徴抽出層は、畳み込み層などを含み得る。
【0176】
いくつかの実施例において、符号化ユニットの少なくとも1つの特徴抽出層と、復号ユニットの少なくとも1つの特徴抽出層との間は、スキップ接続されている。
上記の生成されたM個の属性ベクトルは、異なる解像度に対応することができる。
いくつかの実施例において、上記のターゲットネットワークモデルはオートエンコーダである。
【0177】
ステップS403において、ターゲットネットワークモデルにおける融合モジュールによって、N個の仮想アイデンティティベクトル及びM個の属性ベクトルに基づいて画像生成を行い、処理対象画像のアイデンティティ匿名化画像を得る。
【0178】
上記のステップに基づいて、N個の仮想アイデンティティベクトル及びM個の属性ベクトルを生成して融合モジュールに入力し、処理対象画像のアイデンティティ匿名化画像を得る。
上記のS403の実施形態は、以下のいくつかを含むが、これに限定されない。
【0179】
例1において、N個の仮想アイデンティティベクトルを繋ぎ合わせ、その同時に、M個の属性ベクトルを繋ぎ合わせ、スプライスされた仮想アイデンティティベクトル及び属性ベクトルを融合した後、融合モジュールに入力する。
例えば、スプライスされた仮想アイデンティティベクトルを属性ベクトルとカスケード接続した後、融合モジュールに入力する。
更に例えば、スプライスされた仮想アイデンティティベクトルを属性ベクトルと加算した後、融合モジュールに入力する。
【0180】
例2において、融合モジュールは、複数の異なる解像度層を含み、この場合、N個の仮想アイデンティティベクトルに対応する解像度に基づいて、N個の仮想アイデンティティベクトルをパターンとして使用し、M個の属性ベクトルをノイズとして使用し、対応する解像度層に入力し、処理対象画像のアイデンティティ匿名化画像を得ることができる。
【0181】
いくつかの実施例において、融合モジュールはStyleGAN2である。この場合、
図7に示すように、融合モジュールに隣接する2つの解像度層間はAdaIN層を含み、例えば、仮想アイデンティティベクトルi+1に対してアフィン変換を実行し、i番目の解像度層によって出力された特徴情報iを属性ベクトルiと合成して、アフィン変換された仮想アイデンティティベクトルi+1と共にAdaIN層に入力し、AdaIN操作を実行し、AdaIN操作結果をi+1番目の解像度層に入力する。
【0182】
本願の実施例の融合モジュールは、StyleGAN3及びProGANなどの敵対的モデルであってもよい。いくつかの実施例において、第2投影ユニットがマッピングネットワークであり、属性モジュールがオートエンコーダであり、融合モジュールがStyleGAN2であることを例として、本願の実施例のアイデンティティ匿名化プロセスを紹介する。
【0183】
例示的に、
図13に示すように、投影モジュールの第1空間Zでサンプリングして、N個のアイデンティティ潜在ベクトルを得、例えば、3つのN個のアイデンティティ潜在ベクトルを得、この3つのN個のアイデンティティ潜在ベクトルはそれぞれ、低、中、高の3つの異なる解像度に対応する。そして、N個のアイデンティティ潜在ベクトルをマッピングネットワークに入力し、マッピングネットワークを介して、N個のアイデンティティ潜在ベクトルを第1空間Zから第2空間Wに投影し、N個の仮想アイデンティティベクトルを得る。更に、処理対象画像Xtをオートエンコーダに入力し、オートエンコーダを介して、処理対象画像Xtを処理した後、M個の属性ベクトルを生成する。最後に、M個の属性ベクトルをノイズとして使用し、N個の仮想アイデンティティベクトルをパターンとして使用して、StyleGAN2の各層に入力し、StyleGAN2によって出力された処理対象画像のアイデンティティ匿名化画像Ys,tを得る。
【0184】
本願の実施例によるアイデンティティ匿名化方法は、ターゲットネットワークモデルにおける投影モジュールのターゲット空間でサンプリングを行い、N個の仮想アイデンティティベクトルを得、ターゲットネットワークモデルにおける属性モジュールによって、処理対象画像に対して属性ベクトル抽出を行い、M個の属性ベクトルを得、ターゲットネットワークモデルにおける融合モジュールによって、N個の仮想アイデンティティベクトル及びM個の属性ベクトルに基づいて画像生成を行い、処理対象画像のアイデンティティ匿名化画像を得る。即ち、本願の実施例のターゲットネットワークモデルは、仮想アイデンティティを独立して生成することができ、処理対象画像に対してアイデンティティ匿名化を実行するとき、処理対象画像内の顔領域を除去する必要なく、アイデンティティ匿名化の忠実度を向上させる。
【0185】
以上では、
図3ないし
図13を参照して、本願の方法実施例を詳細に説明しており、以下では、
図14ないし
図15を参照して、本願の装置実施例を説明する。
図14は、本願の実施例によるモデル訓練装置の例示的なブロック図である。当該訓練装置10は、コンピューティングデバイスであってもよいし、又はコンピューティングデバイスの一部であってもよい。
図14に示すように、モデル訓練装置10は、投影ユニット11と、属性ユニット12と、融合ユニット13と、訓練ユニット14と、を備え、
【0186】
前記投影ユニット11は、ターゲットネットワークモデルにおける投影モジュールによって、第1訓練画像をターゲット空間に投影し、N個(Nは正の整数である)の第1仮想アイデンティティベクトルを得るように構成され、
【0187】
前記属性ユニット12は、前記ターゲットネットワークモデルにおける属性モジュールによって、第2訓練画像に対して属性ベクトル抽出を行い、M個(Mは正の整数である)の属性ベクトルを得るように構成され、
【0188】
前記融合ユニット13は、前記ターゲットネットワークモデルにおける融合モジュールによって、前記N個の仮想アイデンティティベクトル及び前記M個の属性ベクトルに基づいて画像生成を行い、前記第2訓練画像のアイデンティティ匿名化画像を得るように構成され、
【0189】
前記訓練ユニット14は、前記アイデンティティ匿名化画像に基づいて、前記ターゲットネットワークモデルの損失を決定し、前記損失に基づいて前記ターゲットネットワークモデルを訓練するように構成される。
【0190】
いくつかの実施例において、前記投影モジュールは、第1投影ユニット及び第2投影ユニットを備え、前記ターゲット空間は、第1空間及び第2空間を含み、投影ユニット11は更に、前記第1訓練画像の先験的アイデンティティ情報を抽出し、前記第1投影ユニットによって、前記先験的アイデンティティ情報を第1空間に投影し、N個のアイデンティティ潜在ベクトルを得、前記第2投影ユニットによって、前記N個のアイデンティティ潜在ベクトルを第2空間に投影し、前記N個の第1仮想アイデンティティベクトルを得るように構成される。
【0191】
いくつかの実施例において、投影ユニット11は更に、前記第1投影ユニットによって、先験的アイデンティティ情報を、前記第1空間の平均値及び分散として投影し、前記第1空間の平均値及び分散に基づいてサンプリングを行い、前記N個のアイデンティティ潜在ベクトルを得るように構成される。
【0192】
いくつかの実施例において、訓練ユニット14は更に、前記N個のアイデンティティ潜在ベクトルの発散制約を決定し、前記アイデンティティ匿名化画像及び前記発散制約に基づいて、前記ターゲットネットワークモデルの損失を決定するように構成される。
いくつかの実施例において、N個の第1仮想アイデンティティベクトルはそれぞれ異なる解像度に対応する。
いくつかの実施例において、前記第1投影ユニットは、変分オートエンコーダである。
【0193】
いくつかの実施例において、訓練ユニット14は更に、第3訓練画像を取得し、前記第3訓練画像及び前記第1訓練画像は両方とも、第1ターゲットの異なる二枚の画像であり、前記ターゲットネットワークモデルの投影参照モジュールによって、前記第3訓練画像をターゲット空間に投影し、N個の第2仮想アイデンティティベクトルを得、前記投影参照モジュールは前記投影モジュールと同じネットワーク構造を有し、前記投影モジュールに従って更新され、前記N個の第1仮想アイデンティティベクトル及び前記N個の第2仮想アイデンティティベクトルに基づいて、アイデンティティ損失を決定し、前記アイデンティティ匿名化画像、前記発散制約及び前記アイデンティティ損失に基づいて、前記ターゲットネットワークモデルの損失を決定するように構成される。
【0194】
いくつかの実施例において、訓練ユニット14は更に、前記N個の第2仮想アイデンティティベクトルのうちのi番目(iは1からNまでの正の整数である)の第2仮想アイデンティティベクトルについて、前記i番目の第2仮想アイデンティティベクトルを使用してi番目の動的リスト内の、前記第1ターゲットに対応する仮想アイデンティティベクトルを更新し、ここで、前記i番目の動的リストは、i番目の解像度における異なるターゲットの仮想アイデンティティベクトルを含み、i番目の第1仮想アイデンティティベクトル及び更新された前記i番目の動的リストに基づいて、前記i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失を決定し、前記N個の第1仮想アイデンティティベクトルにそれぞれ対応するアイデンティティサブ損失の総和を、前記アイデンティティ損失として決定するように構成される。
【0195】
いくつかの実施例において、訓練ユニット14は更に、前記i番目の第2仮想アイデンティティベクトルと第1所定値との第1比率を取得し、前記第1比率を前記i番目の第1仮想アイデンティティベクトルと乗算して第1結果を得、前記第1結果に対して指数演算を行って第1演算値を得、更新された前記i番目の動的リストのうち、各第2仮想アイデンティティベクトルと第1所定値との第2比率を取得し、各前記第2比率について、前記第2比率を、対応するi番目の第1仮想アイデンティティベクトルと乗算して第2結果を得、前記第2結果に対して指数演算を行って前記各第2仮想アイデンティティベクトルに対応する第2演算値を得、各第2仮想アイデンティティベクトルに対応する第2演算値の和を決定し、前記第1演算値と前記和との第3比率を取得し、前記第3比率に対して対数演算を行って第3演算値を得、前記第3演算値の負数を、前記i番目の第1仮想アイデンティティベクトルに対応するアイデンティティサブ損失として決定するように構成される。
【0196】
いくつかの実施例において、前記属性モジュールは、符号化ユニット及び復号ユニットを備え、属性ユニット12は更に、前記符号化ユニットによって前記第2訓練画像に対して特徴抽出を行い、前記第2訓練画像の特徴情報を得、前記復号ユニットによって前記特徴情報を復号し、M個の属性ベクトルを得るように構成される。
【0197】
いくつかの実施例において、前記符号化ユニットの少なくとも1つの特徴抽出層と、前記復号ユニットの少なくとも1つの特徴抽出層との間は、スキップ接続されている。
【0198】
いくつかの実施例において、前記融合モジュールは、複数の異なる解像度層を含み、融合ユニット13は更に、前記N個の第1仮想アイデンティティベクトルに対応する解像度に基づいて、前記N個の第1仮想アイデンティティベクトルをパターンとして、前記M個の属性ベクトルをノイズとして使用して、対応する解像度層に入力し、前記第2訓練画像のアイデンティティ匿名化画像を得るように構成される。
【0199】
いくつかの実施例において、訓練ユニット14は更に、前記アイデンティティ匿名化画像と前記第2訓練画像との間の再構築損失を決定し、前記再構築損失、前記発散制約及び前記アイデンティティ損失に基づいて、前記ターゲットネットワークモデルの損失を決定するように構成される。
【0200】
いくつかの実施例において、訓練ユニット14は更に、前記アイデンティティ匿名化画像と前記第1訓練画像との間の第1距離、前記アイデンティティ匿名化画像と前記第2訓練画像との間の第2距離、及び前記第1訓練画像と前記第2訓練画像との間の第3距離を決定し、前記第1距離、前記第2距離及び前記第3距離に基づいて、コントラスト損失を決定し、前記再構築損失、前記発散制約、前記アイデンティティ損失及び前記コントラスト損失に基づいて、前記ターゲットネットワークモデルの損失を決定するように構成される。
【0201】
いくつかの実施例において、訓練ユニット14は更に、前記第2距離と前記第3距離との差の平方と、前記第1距離との和を決定し、所定値と前記和との差を、前記コントラスト損失として決定するように構成される。
【0202】
いくつかの実施例において、前記融合モジュールが敵対的ネットワークである場合、訓練ユニット14は更に、前記アイデンティティ匿名化画像及び前記第1訓練画像に基づいて、敵対的損失を決定し、前記再構築損失、前記発散制約、前記アイデンティティ損失、前記コントラスト損失及び前記敵対的損失の加重和を、前記ターゲットネットワークモデルの損失として決定するように構成される。
【0203】
装置実施例は、方法実施例と互いに対応することができ、類似する説明は、方法実施例を参照することができることを理解されたい。繰り返しを回避するために、本明細書では詳細を再度説明しない。例示的に、
図14に示す装置は、上記の
図3に示すモデル訓練方法の実施例を実行することができ、装置内の各个モジュールの前述及び他の操作及び/又は機能はそれぞれ、コンピューティングデバイスに対応する方法実施例を実行するためのものであり、簡潔にするために、ここで再び説明しない。
【0204】
図15は、本願の実施例によるアイデンティティ匿名化装置の例示的なブロック図である。当該アイデンティティ匿名化装置20は、コンピューティングデバイスであってもよいし、又はコンピューティングデバイスの一部であってもよい。
図15に示すように、アイデンティティ匿名化装置20は、サンプリングユニット21と、属性ユニット22と、匿名化ユニット23と、を備え、
【0205】
前記サンプリングユニット21は、ターゲットネットワークモデルにおける投影モジュールのターゲット空間でサンプリングを行い、N個(Nは正の整数である)の仮想アイデンティティベクトルを得るように構成され、
【0206】
前記属性ユニット22は、ターゲットネットワークモデルにおける属性モジュールによって、処理対象画像に対して属性ベクトル抽出を行い、M個(Mは正の整数である)の属性ベクトルを得るように構成され、
【0207】
前記匿名化ユニット23は、前記ターゲットネットワークモデルにおける融合モジュールによって、前記N個の仮想アイデンティティベクトル及び前記M個の属性ベクトルに基づいて画像生成を行い、前記処理対象画像のアイデンティティ匿名化画像を得るように構成される。
【0208】
いくつかの実施例において、前記ターゲット空間は、第1空間及び第2空間を含み、前記ターゲットネットワークモデルは、第2投影ユニットを備え、サンプリングユニット21は更に、前記第1空間でサンプリングを行い、N個のアイデンティティ潜在ベクトルを得、前記第2投影ユニットによって、前記N個のアイデンティティ潜在ベクトルを第2空間に投影し、前記N個の仮想アイデンティティベクトルを得るように構成される。
【0209】
いくつかの実施例において、前記第1空間の平均値及び分散は標準のガウス分布を満たし、サンプリングユニット21は更に、前記第1空間の平均値及び分散に基づいてサンプリングを行い、前記N個のアイデンティティ潜在ベクトルを得るように構成される。
いくつかの実施例において、前記N個の仮想アイデンティティベクトルはそれぞれ異なる解像度に対応する。
【0210】
いくつかの実施例において、前記属性モジュールは、符号化ユニット及び復号ユニットを備え、属性ユニット22は更に、前記符号化ユニットによって前記処理対象画像に対して特徴抽出を行い、前記処理対象画像の特徴情報を得、前記復号ユニットによって前記特徴情報を復号し、M個の属性ベクトルを得るように構成される。
【0211】
いくつかの実施例において、前記符号化ユニットの少なくとも1つの特徴抽出層と、前記復号ユニットの少なくとも1つの特徴抽出層との間は、スキップ接続されている。
【0212】
いくつかの実施例において、前記融合モジュールは、複数の異なる解像度層を含み、匿名化ユニット23は更に、前記N個の仮想アイデンティティベクトルに対応する解像度に基づいて、前記N個の仮想アイデンティティベクトルをパターンとして、前記M個の属性ベクトルをノイズとして使用して、対応する解像度層に入力し、前記処理対象画像のアイデンティティ匿名化画像を得るように構成される。
【0213】
装置実施例は、方法実施例と互いに対応することができ、類似する説明は、方法実施例を参照することができることを理解されたい。繰り返しを回避するために、本明細書では詳細を再度説明しない。例示的に、
図15に示す装置は、上記の
図11に示すアイデンティティ匿名化方法の実施例を実行することができ、装置内の各个モジュールの前述及び他の操作及び/又は機能はそれぞれ、コンピューティングデバイスに対応する方法実施例を実行するためのものであり、簡潔にするために、ここで再び説明しない。
【0214】
以上では、図面を参照して、機能モジュールの角度で本願の実施例の装置を説明する。当該機能モジュールは、ハードウェアの形を介して実現してもよいし、ソフトウェアの形の命令を介して実現してもよいし、ハードウェア及びソフトウェアモジュールの組み合わせを介して実現してもよいことを理解されたい。例えば、本願の実施例における方法実施例の各ステップは、プロセッサのハードウェアの集積論理回路及び/又はソフトウェア形の命令を介して完了することができ、本願の実施例で開示される方法のステップは、ハードウェア復号プロセッサによって直接実行されてもよいし、復号プロセッサ内のハードウェアとソフトウェアモジュールの形成すによって実行されてもよい。例示的に、ソフトウェアモジュールは、ランダムアクセスメモリ、フラッシュメモリ、読み取り専用メモリ、プログラマブル読み取り専用メモリ、電気的に消去可能なプログラマブルメモリ、レジスタなどの従来の記憶媒体に配置されることができる。当該記憶媒体はメモリに配置され、プロセッサは、メモリ内の情報を読み取り、そのハードウェアと組み合わせて上記の方法実施例におけるステップを完了する。
【0215】
図16は、本願の実施例によるコンピューティングデバイスの例示的なブロック図であり、当該コンピューティングデバイスは、上記の方法実施例を実行するように構成される。
図16に示すように、当該コンピューティングデバイス30は、
【0216】
メモリ31とプロセッサ32とを備えることができ、当該メモリ31は、コンピュータプログラム33を記憶し、当該プログラムコード33を当該プロセッサ32に伝送するように構成される。言い換えれば、当該プロセッサ32は、メモリ31からコンピュータプログラム33を呼び出して実行することにより、本願の実施例における方法を実現することができる。
例えば、当該プロセッサ32は、当該コンピュータプログラム33内の命令に従って上記の方法ステップを実行するように構成されることができる。
本願のいくつかの実施例において、当該プロセッサ32は、
【0217】
汎用プロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、フィールドプログラマブルゲートアレイ(FPGA:Field Programmable Gate Array)、又は他のプログラマブルロジックデバイス、ディスクリートゲート、又はトランジスタロジックデバイス、ディスクリートハードウェアコンポーネントなどを含んでもよいが、これらに限定されない。
【0218】
本願のいくつかの実施例において、当該メモリ31は、
揮発性メモリ及び/又は不揮発性メモリを含んでもよいが、これらに限定されない。ここで、不揮発性メモリは、読み取り専用メモリ(ROM:Read-Only Memory)、プログラム可能な読み取り専用メモリ(PROM:Programmable ROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM:Erasable PROM)、電気的に消去可能なプログラマブル読み取り専用メモリ(EEPROM:Electrically EPROM)、又はフラッシュメモリであり得る。揮発性メモリは、外部キャッシュとして使用される、ランダムアクセスメモリ(RAM:Random Access Memory)であり得る。例示的であるが限定的ではない例示によれば、多くの形のRAMが利用可能であり、例えば、スタティックランダムアクセスメモリ(SRAM:Static RAM)、ダイナミックランダムアクセスメモリ(DRAM:Dynamic RAM)、同期ダイナミックランダムアクセスメモリ(SDRAM:Synchronous DRAM)、ダブルデータレートの同期ダイナミックランダムアクセスメモリ(DDR SDRAM:Double Data Rate SDRAM)、拡張型同期ダイナミックランダムアクセスメモリ(ESDRAM:Enhanced SDRAM)、同期接続ダイナミックランダムアクセスメモリ(SLDRAM:synch link DRAM)、及びダイレクトメモリバスランダムアクセスメモリ(DR RAM:Direct Rambus RAM)などが利用可能である。
【0219】
本願のいくつかの実施例において、当該コンピュータプログラム33は、1つ又は複数のモジュールに分割されることができ、当該1つ又は複数のモジュールは、当該メモリ31に記憶され、当該プロセッサ32によって実行されて、本願による方法を完了する。当該1つ又は複数のモジュールは、特定の機能を完了できる一連のコンピュータプログラム命令セグメントであってもよく、当該命令セグメントは、当該コンピューティングデバイスにおける当該コンピュータプログラム33の実行プロセスを説明するために使用される。
【0220】
図16に示すように、当該コンピューティングデバイス30は更に、
トランシーバ34を備えることができ、当該トランシーバ34は、当該プロセッサ32又はメモリ31に接続することができる。
【0221】
ここで、プロセッサ32は、他の機器と通信するように前記トランシーバ34を制御することができ、例えば、他の機器に情報又はデータを送信するか、他の機器によって送信された情報又はデータを受信することができる。トランシーバ34は、送信機及び受信機を備えることができる。トランシーバ34は、アンテナを備えることもでき、アンテナの数は、1つ又は複数であり得る。
【0222】
当該コンピューティングデバイス30の各構成要素は、バスシステムにより接続され、バスシステムは、データバスに加えて、電力バス、制御バス、及び状態信号バスを含む。
【0223】
本願の実施例は、コンピュータによって実行されるとき、コンピュータに上記の方法実施例の方法を実行させるコンピュータプログラムが記憶された、コンピュータ記憶媒体を提供する。又は、本願の実施例は更に、コンピュータによって実行されるとき、コンピュータに上記の方法実施例の方法を実行させる命令を含む、コンピュータプログラム製品を提供する。
【0224】
本願の実施例は、コンピュータ命令を含む、コンピュータプログラム製品又はコンピュータプログラムを提供し、当該コンピュータ命令は、コンピュータ可読記憶媒体に記憶される。コンピューティングデバイスのプロセッサは、コンピュータ可読記憶媒体から当該コンピュータ命令を読み取り、プロセッサは、当該コンピュータ命令を実行して、当該コンピューティングデバイスに上記の方法実施例の方法を実行させる。
【0225】
上記のコンテンツは、本願の具体的な実施形態に過ぎず、本願の保護範囲はこれに限定されない。当業者は、本願に開示される技術的範囲内で容易に考えられ得る変更又は置換は、すべて本願の保護範囲に含まれるべきである。したがって、本願の保護範囲は、特許請求の保護範囲を基準とするべきである。
【符号の説明】
【0226】
10 モデル訓練装置
11 投影ユニット
12 属性ユニット
13 融合ユニット
14 訓練ユニット
20 アイデンティティ匿名化装置
21 サンプリングユニット
22 属性ユニット
23 匿名化ユニット
30 コンピューティングデバイス
31 メモリ
32 プロセッサ
33 プログラムコード
33 コンピュータプログラム
34 トランシーバ
101 ユーザ機器
102 データ収集機器
103 訓練機器
104 実行機器
105 データベース
106 コンテンツライブラリ
107 I/Oインターフェース
108 ターゲットネットワークモデル
109 コンピューティングモジュール