IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッドの特許一覧

特許7165818ニューラルネットワークのトレーニング方法及び装置並びに画像生成方法及び装置
<>
  • 特許-ニューラルネットワークのトレーニング方法及び装置並びに画像生成方法及び装置 図1
  • 特許-ニューラルネットワークのトレーニング方法及び装置並びに画像生成方法及び装置 図2
  • 特許-ニューラルネットワークのトレーニング方法及び装置並びに画像生成方法及び装置 図3
  • 特許-ニューラルネットワークのトレーニング方法及び装置並びに画像生成方法及び装置 図4
  • 特許-ニューラルネットワークのトレーニング方法及び装置並びに画像生成方法及び装置 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-10-26
(45)【発行日】2022-11-04
(54)【発明の名称】ニューラルネットワークのトレーニング方法及び装置並びに画像生成方法及び装置
(51)【国際特許分類】
   G06T 7/00 20170101AFI20221027BHJP
   G06N 3/08 20060101ALI20221027BHJP
【FI】
G06T7/00 350C
G06N3/08
【請求項の数】 15
(21)【出願番号】P 2021518079
(86)(22)【出願日】2019-12-11
(65)【公表番号】
(43)【公表日】2022-01-13
(86)【国際出願番号】 CN2019124541
(87)【国際公開番号】W WO2021056843
(87)【国際公開日】2021-04-01
【審査請求日】2021-04-01
(31)【優先権主張番号】201910927729.6
(32)【優先日】2019-09-27
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】321006888
【氏名又は名称】ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
(74)【代理人】
【識別番号】100078282
【弁理士】
【氏名又は名称】山本 秀策
(74)【代理人】
【識別番号】100113413
【弁理士】
【氏名又は名称】森下 夏樹
(74)【代理人】
【識別番号】100181674
【弁理士】
【氏名又は名称】飯田 貴敏
(74)【代理人】
【識別番号】100181641
【弁理士】
【氏名又は名称】石川 大輔
(74)【代理人】
【識別番号】230113332
【弁護士】
【氏名又は名称】山本 健策
(72)【発明者】
【氏名】▲でん▼▲ゆ▼彬
(72)【発明者】
【氏名】戴勃
(72)【発明者】
【氏名】相里元博
(72)【発明者】
【氏名】林▲達▼▲華▼
(72)【発明者】
【氏名】▲呂▼健▲勤▼
【審査官】▲広▼島 明芳
(56)【参考文献】
【文献】Arnab Ghosh, et al.,Multi-agent Diverse Generative Adversarial Networks,2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition,米国,2018年,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8578986
【文献】Ying-Cong Chen, et al.,Homomorphic Latent Space Interpolation for Unpaired Image-To-Image Translation,2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),米国,2019年06月15日,pp.2403-2411,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8954444
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00 - 7/90
G06N 3/08
(57)【特許請求の範囲】
【請求項1】
ニューラルネットワークトレーニング装置によって実行されるニューラルネットワークのトレーニング方法であって、
第1ランダムベクトルを生成ネットワークに入力して、第1生成画像を取得することと、
前記第1生成画像及び第1本物画像をそれぞれ判別ネットワークに入力して、前記第1生成画像の第1判別分布及び第1本物画像の第2判別分布をそれぞれ取得することであって、前記第1判別分布は、前記第1生成画像の真実度の確率分布を表し、前記第2判別分布は、前記第1本物画像の真実度の確率分布を表すことと、
前記第1判別分布、前記第2判別分布、プリセットの第1ターゲット分布及びプリセットの第2ターゲット分布に基づいて、前記判別ネットワークの第1ネットワーク損失を決定することであって、前記第1ターゲット分布は、生成画像のターゲット確率分布であり、前記第2ターゲット分布は、本物画像のターゲット確率分布であることと、
前記第1判別分布及び前記第2判別分布に基づいて、前記生成ネットワークの第2ネットワーク損失を決定することと、
前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングすること
を含み、
前記第1判別分布及び前記第2判別分布に基づいて、前記生成ネットワークの第2ネットワーク損失を決定することは、
前記第1判別分布と前記第2判別分布との第3相対エントロピーを決定することと、
前記第3相対エントロピーに基づいて、前記第2ネットワーク損失を決定することと
を含む、ニューラルネットワークのトレーニング方法。
【請求項2】
前記第1判別分布、前記第2判別分布、プリセットの第1ターゲット分布及びプリセットの第2ターゲット分布に基づいて、前記判別ネットワークの第1ネットワーク損失を決定することは、
前記第1判別分布及び前記第1ターゲット分布に基づいて、前記第1生成画像の第1分布損失を決定することと、
前記第2判別分布及び前記第2ターゲット分布に基づいて、前記第1本物画像の第2分布損失を決定することと、
前記第1分布損失及び前記第2分布損失に基づいて、前記第1ネットワーク損失を決定すること
を含む請求項1に記載のニューラルネットワークのトレーニング方法。
【請求項3】
前記第1判別分布及び前記第1ターゲット分布に基づいて、前記第1生成画像の第1分布損失を決定することは、
前記第1判別分布を前記第1ターゲット分布のサポートセットにマッピングして、第1マッピング分布を取得することと、
前記第1マッピング分布と前記第1ターゲット分布との第1相対エントロピーを決定することと、
前記第1相対エントロピーに基づいて、前記第1分布損失を決定すること
を含む請求項2に記載のニューラルネットワークのトレーニング方法。
【請求項4】
前記第2判別分布及び前記第2ターゲット分布に基づいて、前記第1本物画像の第2分布損失を決定することは、
前記第2判別分布を前記第2ターゲット分布のサポートセットにマッピングして、第2マッピング分布を取得することと、
前記第2マッピング分布と前記第2ターゲット分布との第2相対エントロピーを決定することと、
前記第2相対エントロピーに基づいて、前記第2分布損失を決定すること
を含む請求項2に記載のニューラルネットワークのトレーニング方法。
【請求項5】
前記第1分布損失及び前記第2分布損失に基づいて、前記第1ネットワーク損失を決定することは、
前記第1分布損失及び前記第2分布損失に対して重み付加算を行い、前記第1ネットワーク損失を取得することを含む請求項2に記載のニューラルネットワークのトレーニング方法。
【請求項6】
前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングすることは、
前記第1ネットワーク損失に基づいて、前記判別ネットワークのネットワークパラメータを調整することと、
前記第2ネットワーク損失に基づいて、前記生成ネットワークのネットワークパラメータを調整することと、
前記判別ネットワーク及び前記生成ネットワークがトレーニング条件を満たした場合、トレーニング後の前記生成ネットワーク及び前記判別ネットワークを取得すること
を含む請求項1~5のいずれか一項に記載のニューラルネットワークのトレーニング方法。
【請求項7】
前記第1ネットワーク損失に基づいて、前記判別ネットワークのネットワークパラメータを調整することは、
第2ランダムベクトルを生成ネットワークに入力して、第2生成画像を取得することと、
前記第2生成画像に基づいて第2本物画像に対して補間処理を実行して、補間画像を取得することと、
前記補間画像を前記判別ネットワークに入力して、前記補間画像の第3判別分布を取得することと、
前記第3判別分布に基づいて、前記判別ネットワークのネットワークパラメータの勾配を決定することと、
前記勾配が勾配閾値以上である場合、前記第3判別分布に基づいて勾配ペナルティパラメータを決定することと、
前記第1ネットワーク損失及び前記勾配ペナルティパラメータに基づいて、前記判別ネットワークのネットワークパラメータを調整すること
を含む請求項に記載のニューラルネットワークのトレーニング方法。
【請求項8】
前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングすることは、
以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルを現在のトレーニング周期における生成ネットワークに入力して、少なくとも1つの第3生成画像を取得することと、
前記以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルに対応する第1生成画像、少なくとも1つの前記第3生成画像及び少なくとも1つの本物画像をそれぞれ現在のトレーニング周期における判別ネットワークに入力して、少なくとも1つの第1生成画像の第4判別分布、少なくとも1つの第3生成画像の第5判別分布及び少なくとも1つの本物画像の第6判別分布をそれぞれ取得することと、
前記第4判別分布、前記第5判別分布及び前記第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定することと、
前記トレーニング進行度合いパラメータがトレーニング進行度合い閾値以下である場合、前記判別ネットワークのネットワークパラメータの調整を停止し、前記生成ネットワークのネットワークパラメータのみを調整すること
を含む請求項1~7のいずれか一項に記載のニューラルネットワークのトレーニング方法。
【請求項9】
前記第4判別分布、前記第5判別分布及び前記第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定することは、
少なくとも1つの前記第4判別分布の第1期待値、少なくとも1つの前記第5判別分布の第2期待値及び少なくとも1つの前記第6判別分布の第3期待値をそれぞれ取得することと、
前記少なくとも1つの前記第1期待値の第1平均値、少なくとも1つの前記第2期待値の第2平均値及び少なくとも1つの前記第3期待値の第3平均値をそれぞれ取得することと、
前記第3平均値と前記第2平均値との第1差分値及び前記第2平均値と前記第1平均値との第2差分値を決定することと、
前記第1差分値と前記第2差分値との比の値を前記現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータとして決定すること
を含む請求項に記載のニューラルネットワークのトレーニング方法。
【請求項10】
画像生成装置によって実行される画像生成方法であって、
第3ランダムベクトルを取得することと、
前記第3ランダムベクトルを請求項1~9のいずれか一項に記載のニューラルネットワークのトレーニング方法によってトレーニングして得られた生成ネットワークに入力して処理し、ターゲット画像を取得すること
を含む画像生成方法。
【請求項11】
ニューラルネットワークトレーニング装置であって、
第1ランダムベクトルを生成ネットワークに入力して、第1生成画像を取得するように構成されている生成モジュールと、
前記第1生成画像及び第1本物画像をそれぞれ判別ネットワークに入力して、前記第1生成画像の第1判別分布及び第1本物画像の第2判別分布をそれぞれ取得するように構成されている判別モジュールであって、前記第1判別分布は前記第1生成画像の真実度の確率分布を表し、前記第2判別分布は前記第1本物画像の真実度の確率分布を表す、判別モジュールと、
前記第1判別分布、前記第2判別分布、プリセットの第1ターゲット分布及びプリセットの第2ターゲット分布に基づいて、前記判別ネットワークの第1ネットワーク損失を決定するように構成されている第1決定モジュールであって、前記第1ターゲット分布は生成画像のターゲット確率分布であり、前記第2ターゲット分布は本物画像のターゲット確率分布である、第1決定モジュールと、
前記第1判別分布及び前記第2判別分布に基づいて、前記生成ネットワークの第2ネットワーク損失を決定するように構成されている第2決定モジュールと、
前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングするように構成されているトレーニングモジュール
を備え、
前記第2決定モジュールは、
前記第1判別分布と前記第2判別分布との第3相対エントロピーを決定することと、
前記第3相対エントロピーに基づいて、前記第2ネットワーク損失を決定することと
を行うように構成されている、ニューラルネットワークトレーニング装置。
【請求項12】
画像生成装置であって、
第3ランダムベクトルを取得するように構成されている取得モジュールと、
前記第3ランダムベクトルを請求項11に記載のニューラルネットワークトレーニング装置によってトレーニングして得られた生成ネットワークに入力して処理し、ターゲット画像を取得するように構成されている取得モジュール
を備える、画像生成装置。
【請求項13】
電子機器であって、
プロセッサと、
プロセッサ実行可能命令を記憶するように構成されているメモリ
を備え、
前記プロセッサは、前記命令を実行することにより、請求項1~9のいずれか一項に記載のニューラルネットワークのトレーニング方法または請求項10に記載の画像生成方法を実行するように構成されている、電子機器。
【請求項14】
コンピュータプログラム記憶されコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータプログラムは、プロセッサ実行可能な命令を含み、前記命令は、プロセッサによって実行されると、請求項1~9のいずれか1項に記載のニューラルネットワークのトレーニング方法または請求項10に記載の画像生成方法実行することを前記プロセッサに行わせる、コンピュータ読み取り可能な記憶媒体。
【請求項15】
プロセッサ実行可能な命令を含むコンピュータプログラムであって、
前記命令は、プロセッサによって実行されると請求項1~9いずれか1項に記載のニューラルネットワークのトレーニング方法または請求項10に記載の画像生成方法実行することを前記プロセッサに行わせる、コンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、2019年9月27日に中国特許局に提出された、出願番号が201910927729.6であり、発明の名称が「ニューラルネットワークのトレーニング方法及び装置並びに画像生成方法及び装置」である中国特許出願の優先権を主張し、当該中国特許出願の全ての内容が参照により本開示に組み込まれている。
【0002】
本開示は、コンピュータ技術分野に関し、特に、ニューラルネットワークのトレーニング方法及び装置並びに画像生成方法及び装置に関する。
【背景技術】
【0003】
関連技術において、敵対的生成ネットワーク(GAN:Generative Adversarial Networks)は2つのモジュールによって構成され、それぞれ、判別ネットワーク(Discriminator)及び生成ネットワーク(Generator)である。ゼロサムゲーム(zero-sum game)によって、2つのネットワークは、互いに対抗する方式によって最適の生成効果を達成する。トレーニングプロセスでは、弁別器は、本物に報酬を与え、偽物にペナルティを課すことによって、本物の画像データと生成ネットワークによって生成された本物を真似た画像とを見分けるように学習し、ジェネレータは、弁別器の偽物に対するペナルティを徐々に減らして、弁別器から本物画像と生成された画像を見分けられないようにし、両方を互いに競合させながら進化させ、最終的に偽物でごまかせる効果を達成する。
【0004】
関連技術において、敵対的生成ネットワークは、判別ネットワークによって出力された1つの単一なスカラーで入力画像の真偽性を表し、当該スカラーを使用してネットワークの損失を計算し、それによって、敵対的生成ネットワークをトレーニングする。
【発明の概要】
【課題を解決するための手段】
【0005】
本開示は、ニューラルネットワークのトレーニング方法及び装置並びに画像生成方法及び装置を提案する。
【0006】
本開示の一態様によれば、ニューラルネットワークのトレーニング方法を提供し、前記方法は、
第1ランダムベクトルを生成ネットワークに入力して、第1生成画像を取得することと、
前記第1生成画像及び第1本物画像をそれぞれ判別ネットワークに入力して、前記第1生成画像の第1判別分布及び第1本物画像の第2判別分布をそれぞれ取得することであって、ここで、前記第1判別分布は前記第1生成画像の真実度の確率分布を表し、前記第2判別分布は前記第1本物画像の真実度の確率分布を表すことと、
前記第1判別分布、前記第2判別分布、プリセットの第1ターゲット分布及びプリセットの第2ターゲット分布に基づいて、前記判別ネットワークの第1ネットワーク損失を決定することであって、ここで、前記第1ターゲット分布は生成画像のターゲット確率分布であり、前記第2ターゲット分布は本物画像のターゲット確率分布であることと、
前記第1判別分布及び前記第2判別分布に基づいて、前記生成ネットワークの第2ネットワーク損失を決定することと、
前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングすることと、を含む。
【0007】
本開示の実施例におけるニューラルネットワークのトレーニング方法によって、判別ネットワークは、入力画像に対して判別分布を出力し、確率分布の形で入力画像の真偽性を表し、色、テクスチャ、比率、背景などの次元から入力画像が本物画像である確率を表すことができ、複数の態様から入力画像の真偽性を評価することができ、情報ロスを減らし、ニューラルネットワークのトレーニングに、より全面的な教師情報及びより正確なトレーニング方向を提供し、トレーニング精度を向上させ、最終的に生成画像の品質を向上させ、生成ネットワークに高解像度画像を生成することに適用させることができる。しかも、生成画像のターゲット確率分布及び本物画像のターゲット確率分布をプリセットすることによって、トレーニングプロセスをガイダンスし、トレーニングプロセスにおいて本物画像及び生成画像をそれぞれのターゲット確率分布に近づけさせ、本物画像と生成画像の相違度を拡大し、判別ネットワークの本物画像及び生成画像を見分ける能力を強化し、それによって、生成ネットワークによって生成される画像の品質を向上させる。
【0008】
一可能な実施形態において、前記第1判別分布、前記第2判別分布、プリセットの第1ターゲット分布及びプリセットの第2ターゲット分布に基づいて、前記判別ネットワークの第1ネットワーク損失を決定することは、
前記第1判別分布及び前記第1ターゲット分布に基づいて、前記第1生成画像の第1分布損失を決定することと、
前記第2判別分布及び前記第2ターゲット分布に基づいて、前記第1本物画像の第2分布損失を決定することと、
前記第1分布損失及び前記第2分布損失に基づいて、前記第1ネットワーク損失を決定することと、を含む。
【0009】
このような方式によって、生成画像のターゲット確率分布及び本物画像のターゲット確率分布をプリセットすることによって、トレーニングプロセスをガイダンスし、それぞれの分布損失を決定し、トレーニングプロセスにおいて本物画像及び生成画像をそれぞれのターゲット確率分布に近づけさせ、本物画像と生成画像の相違度を拡大し、判別ネットワークにより正確な角度情報を提供し、判別ネットワークの本物画像及び生成画像を見分ける能力を強化し、それによって、生成ネットワークによって生成される画像の品質を向上させる。
【0010】
一可能な実施形態において、前記第1判別分布及び前記第1ターゲット分布に基づいて、前記第1生成画像の第1分布損失を決定することは、
前記第1判別分布を前記第1ターゲット分布のサポートセットにマッピングして、第1マッピング分布を取得することと、
前記第1マッピング分布と前記第1ターゲット分布との第1相対エントロピーを決定することと、
前記第1相対エントロピーに基づいて、前記第1分布損失を決定することと、を含む。
【0011】
一可能な実施形態において、前記第2判別分布及び前記第2ターゲット分布に基づいて、前記第1本物画像の第2分布損失を決定することは、
前記第2判別分布を前記第2ターゲット分布のサポートセットにマッピングして、第2マッピング分布を取得することと、
前記第2マッピング分布と前記第2ターゲット分布との第2相対エントロピーを決定することと、
前記第2相対エントロピーに基づいて、前記第2分布損失を決定することと、を含む。
【0012】
一可能な実施形態において、前記第1分布損失及び前記第2分布損失に基づいて、前記第1ネットワーク損失を決定することは、
前記第1分布損失及び前記第2分布損失に対して重み付加算を行い、前記第1ネットワーク損失を取得することを含む。
【0013】
一可能な実施形態において、前記第1判別分布及び前記第2判別分布に基づいて、前記生成ネットワークの第2ネットワーク損失を決定することは、
前記第1判別分布と前記第2判別分布との第3相対エントロピーを決定することと、
前記第3相対エントロピーに基づいて、前記第2ネットワーク損失を決定することと、を含む。
【0014】
このような方式によって、第1判別分布と第2判別分布との差異を減らす方式によって生成ネットワークをトレーニングして、判別ネットワークのパフォーマンスを向上させる同時に、生成ネットワークのパフォーマンスを向上させるように促進し、それにより、真実度が高い生成画像を生成して、生成ネットワークに高解像度画像を生成することに適用させる。
【0015】
一可能な実施形態において、前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングすることは、
前記第1ネットワーク損失に基づいて、前記判別ネットワークのネットワークパラメータを調整することと、
前記第2ネットワーク損失に基づいて、前記生成ネットワークのネットワークパラメータを調整することと、
前記判別ネットワーク及び前記生成ネットワークがトレーニング条件を満たした場合、トレーニング後の前記生成ネットワーク及び前記判別ネットワークを取得することと、を含む。
【0016】
一可能な実施形態において、前記第1ネットワーク損失に基づいて、前記判別ネットワークのネットワークパラメータを調整することは、
第2ランダムベクトルを生成ネットワークに入力して、第2生成画像を取得することと、
前記第2生成画像に基づいて第2本物画像に対して補間処理を実行して、補間画像を取得することと、
前記補間画像を前記判別ネットワークに入力して、前記補間画像の第3判別分布を取得することと、
前記第3判別分布に基づいて、前記判別ネットワークのネットワークパラメータの勾配を決定することと、
前記勾配が勾配閾値以上である場合、前記第3判別分布に基づいて勾配ペナルティパラメータを決定することと、
前記第1ネットワーク損失及び前記勾配ペナルティパラメータに基づいて、前記判別ネットワークのネットワークパラメータを調整することと、を含む。
【0017】
このような方式によって、判別ネットワークのネットワークパラメータの勾配が勾配閾値以上であるかを検知することによって、判別ネットワークのトレーニング中の勾配降下速度を制限することができ、それにより、判別ネットワークのトレーニング進行度合いを制限し、判別ネットワークで勾配消失の発生確率を減らし、それにより、生成ネットワークを持続的に最適化することが可能であり、生成ネットワークのパフォーマンスを向上させ、生成ネットワークの生成画像の真実度を高め、生成ネットワークに高解像度画像を生成することに適用させる。
【0018】
一可能な実施形態において、前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングすることは、
以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルを現在のトレーニング周期における生成ネットワークに入力して、少なくとも1つの第3生成画像を取得することと、
前記以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルに対応する第1生成画像、少なくとも1つの前記第3生成画像及び少なくとも1つの本物画像をそれぞれ現在のトレーニング周期における判別ネットワークに入力して、少なくとも1つの第1生成画像の第4判別分布、少なくとも1つの第3生成画像の第5判別分布及び少なくとも1つの本物画像の第6判別分布をそれぞれ取得することと、
前記第4判別分布、前記第5判別分布及び前記第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定することと、
前記トレーニング進行度合いパラメータがトレーニング進行度合い閾値以下である場合、前記判別ネットワークのネットワークパラメータの調整を停止し、前記生成ネットワークのネットワークパラメータのみを調整することと、を含む。
【0019】
このような方式によって、判別ネットワーク及び生成ネットワークのトレーニング進行度合いによって、トレーニングにおける判別ネットワークの勾配降下速度を制限し、それにより、判別ネットワークのトレーニング進行度合いを制限でき、判別ネットワークで勾配消失の発生確率を減らし、それにより、生成ネットワークを持続的に最適化することが可能であり、生成ネットワークのパフォーマンスを向上させ、生成ネットワークの生成画像の真実度を高め、生成ネットワークに高解像度画像を生成することに適用させる。
【0020】
一可能な実施形態において、前記第4判別分布、前記第5判別分布及び前記第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定することは、
少なくとも1つの前記第4判別分布の第1期待値、少なくとも1つの前記第5判別分布の第2期待値及び少なくとも1つの前記第6判別分布の第3期待値をそれぞれ取得することと、
前記少なくとも1つの前記第1期待値の第1平均値、少なくとも1つの前記第2期待値の第2平均値及び少なくとも1つの前記第3期待値の第3平均値をそれぞれ取得することと、
前記第3平均値と前記第2平均値との第1差分値及び前記第2平均値と前記第1平均値との第2差分値を決定することと、
前記第1差分値と前記第2差分値との比の値を前記現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータとして決定することと、を含む。
【0021】
本開示の一態様によれば、画像生成方法を提供し、前記方法は、
第3ランダムベクトルを取得することと、
前記第3ランダムベクトルをトレーニングして得られた生成ネットワークに入力して処理し、ターゲット画像を取得することと、を含む。
【0022】
本開示の一態様によれば、ニューラルネットワークトレーニング装置を提供し、前記装置は、
第1ランダムベクトルを生成ネットワークに入力して、第1生成画像を取得するように構成される、生成モジュールと、
前記第1生成画像及び第1本物画像をそれぞれ判別ネットワークに入力して、前記第1生成画像の第1判別分布及び第1本物画像の第2判別分布をそれぞれ取得するように構成される判別モジュールであって、ここで、前記第1判別分布は前記第1生成画像の真実度の確率分布を表し、前記第2判別分布は前記第1本物画像の真実度の確率分布を表す、判別モジュールと、
前記第1判別分布、前記第2判別分布、プリセットの第1ターゲット分布及びプリセットの第2ターゲット分布に基づいて、前記判別ネットワークの第1ネットワーク損失を決定するように構成される第1決定モジュールであって、ここで、前記第1ターゲット分布は生成画像のターゲット確率分布であり、前記第2ターゲット分布は本物画像のターゲット確率分布である、第1決定モジュールと、
前記第1判別分布及び前記第2判別分布に基づいて、前記生成ネットワークの第2ネットワーク損失を決定するように構成される、第2決定モジュールと、
前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングするように構成される、トレーニングモジュールと、を備える。
【0023】
一可能な実施形態において、前記第1決定モジュールは、さらに、
前記第1判別分布及び前記第1ターゲット分布に基づいて、前記第1生成画像の第1分布損失を決定し、
前記第2判別分布及び前記第2ターゲット分布に基づいて、前記第1本物画像の第2分布損失を決定し、
前記第1分布損失及び前記第2分布損失に基づいて、前記第1ネットワーク損失を決定するように構成される。
【0024】
一可能な実施形態において、前記第1決定モジュールは、さらに、
前記第1判別分布を前記第1ターゲット分布のサポートセットにマッピングして、第1マッピング分布を取得し、
前記第1マッピング分布と前記第1ターゲット分布との第1相対エントロピーを決定し、
前記第1相対エントロピーに基づいて、前記第1分布損失を決定するように構成される。
【0025】
一可能な実施形態において、前記第1決定モジュールは、さらに、
前記第2判別分布を前記第2ターゲット分布のサポートセットにマッピングして、第2マッピング分布を取得し、
前記第2マッピング分布と前記第2ターゲット分布との第2相対エントロピーを決定し、
前記第2相対エントロピーに基づいて、前記第2分布損失を決定するように構成される。
【0026】
一可能な実施形態において、前記第1決定モジュールは、さらに、
前記第1分布損失及び前記第2分布損失に対して重み付加算を行い、前記第1ネットワーク損失を取得するように構成される。
【0027】
一可能な実施形態において、前記第2決定モジュールは、さらに、
前記第1判別分布と前記第2判別分布との第3相対エントロピーを決定し、
前記第3相対エントロピーに基づいて、前記第2ネットワーク損失を決定するように構成される。
【0028】
一可能な実施形態において、前記トレーニングモジュールは、さらに、
前記第1ネットワーク損失に基づいて、前記判別ネットワークのネットワークパラメータを調整し、
前記第2ネットワーク損失に基づいて、前記生成ネットワークのネットワークパラメータを調整し、
前記判別ネットワーク及び前記生成ネットワークがトレーニング条件を満たした場合、トレーニング後の前記生成ネットワーク及び前記判別ネットワークを取得するように構成される。
【0029】
一可能な実施形態において、前記トレーニングモジュールは、さらに、
第2ランダムベクトルを生成ネットワークに入力して、第2生成画像を取得し、
前記第2生成画像に基づいて第2本物画像に対して補間処理を実行して、補間画像を取得し、
前記補間画像を前記判別ネットワークに入力して、前記補間画像の第3判別分布を取得し、
前記第3判別分布に基づいて、前記判別ネットワークのネットワークパラメータの勾配を決定し、
前記勾配が勾配閾値以上である場合、前記第3判別分布に基づいて勾配ペナルティパラメータを決定し、
前記第1ネットワーク損失及び前記勾配ペナルティパラメータに基づいて、前記判別ネットワークのネットワークパラメータを調整するように構成される。
【0030】
一可能な実施形態において、前記トレーニングモジュールは、さらに、
以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルを現在のトレーニング周期における生成ネットワークに入力して、少なくとも1つの第3生成画像を取得し、
前記以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルに対応する第1生成画像、少なくとも1つの前記第3生成画像及び少なくとも1つの本物画像をそれぞれ現在のトレーニング周期における判別ネットワークに入力して、少なくとも1つの第1生成画像の第4判別分布、少なくとも1つの第3生成画像の第5判別分布及び少なくとも1つの本物画像の第6判別分布をそれぞれ取得し、
前記第4判別分布、前記第5判別分布及び前記第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定し、
前記トレーニング進行度合いパラメータがトレーニング進行度合い閾値以下である場合、前記判別ネットワークのネットワークパラメータの調整を停止し、前記生成ネットワークのネットワークパラメータのみを調整するように構成される。
【0031】
一可能な実施形態において、前記トレーニングモジュールは、さらに、
少なくとも1つの前記第4判別分布の第1期待値、少なくとも1つの前記第5判別分布の第2期待値及び少なくとも1つの前記第6判別分布の第3期待値をそれぞれ取得し、
前記少なくとも1つの前記第1期待値の第1平均値、少なくとも1つの前記第2期待値の第2平均値及び少なくとも1つの前記第3期待値の第3平均値をそれぞれ取得し、
前記第3平均値と前記第2平均値との第1差分値及び前記第2平均値と前記第1平均値の第2差分値を決定し、
前記第1差分値と前記第2差分値との比の値を前記現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータとして決定するように構成される。
【0032】
本開示の一態様によれば、画像生成装置を提供し、ここで、前記装置は、
第3ランダムベクトルを取得するように構成される、取得モジュールと、
前記第3ランダムベクトルをトレーニングして得られた生成ネットワークに入力して処理し、ターゲット画像を取得するように構成される、取得モジュールと、を備える。
【0033】
本開示の一態様によれば、電子機器を提供し、前記電子機器は、
プロセッサと、
プロセッサ実行可能命令を記憶するように構成されるメモリと、を備え、
ここで、前記プロセッサは、上述した方法を実行するように構成される。
【0034】
本開示の一態様によれば、コンピュータプログラム命令が記憶される、コンピュータ可読記憶媒体を提供し、前記コンピュータプログラム命令はプロセッサによって実行されるとき上述した方法を実現する。
【0035】
本開示の一態様によれば、コンピュータ可読コードを含む、コンピュータプログラムを提供し、前記コンピュータ可読コードが電子機器で実行されるとき、前記電子機器内のプロセッサは上述した方法を実行するために実行される。
【0036】
上記した一般的な説明及び後述する詳細な説明は、単なる例示及び説明に過ぎず、本開示を限定するものではないことを理解されたい。
例えば、本願は以下の項目を提供する。
(項目1)
ニューラルネットワークのトレーニング方法であって、
第1ランダムベクトルを生成ネットワークに入力して、第1生成画像を取得することと、
前記第1生成画像及び第1本物画像をそれぞれ判別ネットワークに入力して、前記第1生成画像の第1判別分布及び第1本物画像の第2判別分布をそれぞれ取得することであって、前記第1判別分布は、前記第1生成画像の真実度の確率分布を表し、前記第2判別分布は、前記第1本物画像の真実度の確率分布を表すことと、
前記第1判別分布、前記第2判別分布、プリセットの第1ターゲット分布及びプリセットの第2ターゲット分布に基づいて、前記判別ネットワークの第1ネットワーク損失を決定することであって、前記第1ターゲット分布は、生成画像のターゲット確率分布であり、前記第2ターゲット分布は、本物画像のターゲット確率分布であることと、
前記第1判別分布及び前記第2判別分布に基づいて、前記生成ネットワークの第2ネットワーク損失を決定することと、
前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングすることと、を含む、ニューラルネットワークのトレーニング方法。
(項目2)
前記第1判別分布、前記第2判別分布、プリセットの第1ターゲット分布及びプリセットの第2ターゲット分布に基づいて、前記判別ネットワークの第1ネットワーク損失を決定することは、
前記第1判別分布及び前記第1ターゲット分布に基づいて、前記第1生成画像の第1分布損失を決定することと、
前記第2判別分布及び前記第2ターゲット分布に基づいて、前記第1本物画像の第2分布損失を決定することと、
前記第1分布損失及び前記第2分布損失に基づいて、前記第1ネットワーク損失を決定することと、を含む、
項目1に記載のニューラルネットワークのトレーニング方法。
(項目3)
前記第1判別分布及び前記第1ターゲット分布に基づいて、前記第1生成画像の第1分布損失を決定することは、
前記第1判別分布を前記第1ターゲット分布のサポートセットにマッピングして、第1マッピング分布を取得することと、
前記第1マッピング分布と前記第1ターゲット分布との第1相対エントロピーを決定することと、
前記第1相対エントロピーに基づいて、前記第1分布損失を決定することと、を含む、
項目2に記載のニューラルネットワークのトレーニング方法。
(項目4)
前記第2判別分布及び前記第2ターゲット分布に基づいて、前記第1本物画像の第2分布損失を決定することは、
前記第2判別分布を前記第2ターゲット分布のサポートセットにマッピングして、第2マッピング分布を取得することと、
前記第2マッピング分布と前記第2ターゲット分布との第2相対エントロピーを決定することと、
前記第2相対エントロピーに基づいて、前記第2分布損失を決定することと、を含む、
項目2に記載のニューラルネットワークのトレーニング方法。
(項目5)
前記第1分布損失及び前記第2分布損失に基づいて、前記第1ネットワーク損失を決定することは、
前記第1分布損失及び前記第2分布損失に対して重み付加算を行い、前記第1ネットワーク損失を取得することを含む、
項目2に記載のニューラルネットワークのトレーニング方法。
(項目6)
前記第1判別分布及び前記第2判別分布に基づいて、前記生成ネットワークの第2ネットワーク損失を決定することは、
前記第1判別分布と前記第2判別分布との第3相対エントロピーを決定することと、
前記第3相対エントロピーに基づいて、前記第2ネットワーク損失を決定することと、を含む、
項目1-5のいずれか一項に記載のニューラルネットワークのトレーニング方法。
(項目7)
前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングすることは、
前記第1ネットワーク損失に基づいて、前記判別ネットワークのネットワークパラメータを調整することと、
前記第2ネットワーク損失に基づいて、前記生成ネットワークのネットワークパラメータを調整することと、
前記判別ネットワーク及び前記生成ネットワークがトレーニング条件を満たした場合、トレーニング後の前記生成ネットワーク及び前記判別ネットワークを取得することと、を含む、
項目1-6のいずれか一項に記載のニューラルネットワークのトレーニング方法。
(項目8)
前記第1ネットワーク損失に基づいて、前記判別ネットワークのネットワークパラメータを調整することは、
第2ランダムベクトルを生成ネットワークに入力して、第2生成画像を取得することと、
前記第2生成画像に基づいて第2本物画像に対して補間処理を実行して、補間画像を取得することと、
前記補間画像を前記判別ネットワークに入力して、前記補間画像の第3判別分布を取得することと、
前記第3判別分布に基づいて、前記判別ネットワークのネットワークパラメータの勾配を決定することと、
前記勾配が勾配閾値以上である場合、前記第3判別分布に基づいて勾配ペナルティパラメータを決定することと、
前記第1ネットワーク損失及び前記勾配ペナルティパラメータに基づいて、前記判別ネットワークのネットワークパラメータを調整することと、を含む、
項目7に記載のニューラルネットワークのトレーニング方法。
(項目9)
前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングすることは、
以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルを現在のトレーニング周期における生成ネットワークに入力して、少なくとも1つの第3生成画像を取得することと、
前記以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルに対応する第1生成画像、少なくとも1つの前記第3生成画像及び少なくとも1つの本物画像をそれぞれ現在のトレーニング周期における判別ネットワークに入力して、少なくとも1つの第1生成画像の第4判別分布、少なくとも1つの第3生成画像の第5判別分布及び少なくとも1つの本物画像の第6判別分布をそれぞれ取得することと、
前記第4判別分布、前記第5判別分布及び前記第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定することと、
前記トレーニング進行度合いパラメータがトレーニング進行度合い閾値以下である場合、前記判別ネットワークのネットワークパラメータの調整を停止し、前記生成ネットワークのネットワークパラメータのみを調整することと、を含む、
項目1-8のいずれか一項に記載のニューラルネットワークのトレーニング方法。
(項目10)
前記第4判別分布、前記第5判別分布及び前記第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定することは、
少なくとも1つの前記第4判別分布の第1期待値、少なくとも1つの前記第5判別分布の第2期待値及び少なくとも1つの前記第6判別分布の第3期待値をそれぞれ取得することと、
前記少なくとも1つの前記第1期待値の第1平均値、少なくとも1つの前記第2期待値の第2平均値及び少なくとも1つの前記第3期待値の第3平均値をそれぞれ取得することと、
前記第3平均値と前記第2平均値との第1差分値及び前記第2平均値と前記第1平均値との第2差分値を決定することと、
前記第1差分値と前記第2差分値との比の値を前記現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータとして決定することと、を含む、
項目9に記載のニューラルネットワークのトレーニング方法。
(項目11)
画像生成方法であって、
第3ランダムベクトルを取得することと、
前記第3ランダムベクトルを項目1-10のいずれか一項に記載のニューラルネットワークのトレーニング方法によってトレーニングして得られた生成ネットワークに入力して処理し、ターゲット画像を取得することと、を含む、前記画像生成方法。
(項目12)
ニューラルネットワークトレーニング装置であって、
第1ランダムベクトルを生成ネットワークに入力して、第1生成画像を取得するように構成される、生成モジュールと、
前記第1生成画像及び第1本物画像をそれぞれ判別ネットワークに入力して、前記第1生成画像の第1判別分布及び第1本物画像の第2判別分布をそれぞれ取得するように構成される判別モジュールであって、前記第1判別分布は前記第1生成画像の真実度の確率分布を表し、前記第2判別分布は前記第1本物画像の真実度の確率分布を表す、判別モジュールと、
前記第1判別分布、前記第2判別分布、プリセットの第1ターゲット分布及びプリセットの第2ターゲット分布に基づいて、前記判別ネットワークの第1ネットワーク損失を決定するように構成される第1決定モジュールであって、前記第1ターゲット分布は生成画像のターゲット確率分布であり、前記第2ターゲット分布は本物画像のターゲット確率分布である、第1決定モジュールと、
前記第1判別分布及び前記第2判別分布に基づいて、前記生成ネットワークの第2ネットワーク損失を決定するように構成される、第2決定モジュールと、
前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングするように構成される、トレーニングモジュールと、を備える、ニューラルネットワークトレーニング装置。
(項目13)
前記第1決定モジュールは、さらに、
前記第1判別分布及び前記第1ターゲット分布に基づいて、前記第1生成画像の第1分布損失を決定し、
前記第2判別分布及び前記第2ターゲット分布に基づいて、前記第1本物画像の第2分布損失を決定し、
前記第1分布損失及び前記第2分布損失に基づいて、前記第1ネットワーク損失を決定するように構成される、
項目12に記載のニューラルネットワークトレーニング装置。
(項目14)
前記第1決定モジュールは、さらに、
前記第1判別分布を前記第1ターゲット分布のサポートセットにマッピングして、第1マッピング分布を取得し、
前記第1マッピング分布と前記第1ターゲット分布との第1相対エントロピーを決定し、
前記第1相対エントロピーに基づいて、前記第1分布損失を決定するように構成される、
項目13に記載のニューラルネットワークトレーニング装置。
(項目15)
前記第1決定モジュールは、さらに、
前記第2判別分布を前記第2ターゲット分布のサポートセットにマッピングして、第2マッピング分布を取得し、
前記第2マッピング分布と前記第2ターゲット分布との第2相対エントロピーを決定し、
前記第2相対エントロピーに基づいて、前記第2分布損失を決定するように構成される、
項目13に記載のニューラルネットワークトレーニング装置。
(項目16)
前記第1決定モジュールは、さらに、
前記第1分布損失及び前記第2分布損失に対して重み付加算を行い、前記第1ネットワーク損失を取得するように構成される、
項目13に記載のニューラルネットワークトレーニング装置。
(項目17)
前記第2決定モジュールは、さらに、
前記第1判別分布と前記第2判別分布との第3相対エントロピーを決定し、
前記第3相対エントロピーに基づいて、前記第2ネットワーク損失を決定するように構成される、
項目12-16のいずれか一項に記載のニューラルネットワークトレーニング装置。
(項目18)
前記トレーニングモジュールは、さらに、
前記第1ネットワーク損失に基づいて、前記判別ネットワークのネットワークパラメータを調整し、
前記第2ネットワーク損失に基づいて、前記生成ネットワークのネットワークパラメータを調整し、
前記判別ネットワーク及び前記生成ネットワークがトレーニング条件を満たした場合、トレーニング後の前記生成ネットワーク及び前記判別ネットワークを取得するように構成される、
項目12-17のいずれか一項に記載のニューラルネットワークトレーニング装置。
(項目19)
前記トレーニングモジュールは、さらに、
第2ランダムベクトルを生成ネットワークに入力して、第2生成画像を取得し、
前記第2生成画像に基づいて第2本物画像に対して補間処理を実行して、補間画像を取得し、
前記補間画像を前記判別ネットワークに入力して、前記補間画像の第3判別分布を取得し、
前記第3判別分布に基づいて、前記判別ネットワークのネットワークパラメータの勾配を決定し、
前記勾配が勾配閾値以上である場合、前記第3判別分布に基づいて勾配ペナルティパラメータを決定し、
前記第1ネットワーク損失及び前記勾配ペナルティパラメータに基づいて、前記判別ネットワークのネットワークパラメータを調整するように構成される、
項目18に記載のニューラルネットワークトレーニング装置。
(項目20)
前記トレーニングモジュールは、さらに、
以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルを現在のトレーニング周期における生成ネットワークに入力して、少なくとも1つの第3生成画像を取得し、
前記以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルに対応する第1生成画像、少なくとも1つの前記第3生成画像及び少なくとも1つの本物画像をそれぞれ現在のトレーニング周期における判別ネットワークに入力して、少なくとも1つの第1生成画像の第4判別分布、少なくとも1つの第3生成画像の第5判別分布及び少なくとも1つの本物画像の第6判別分布をそれぞれ取得し、
前記第4判別分布、前記第5判別分布及び前記第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定し、
前記トレーニング進行度合いパラメータがトレーニング進行度合い閾値以下である場合、前記判別ネットワークのネットワークパラメータの調整を停止し、前記生成ネットワークのネットワークパラメータのみを調整するように構成される、
項目11-19のいずれか一項に記載のニューラルネットワークトレーニング装置。
(項目21)
前記トレーニングモジュールは、さらに、
少なくとも1つの前記第4判別分布の第1期待値、少なくとも1つの前記第5判別分布の第2期待値及び少なくとも1つの前記第6判別分布の第3期待値をそれぞれ取得し、
前記少なくとも1つの前記第1期待値の第1平均値、少なくとも1つの前記第2期待値の第2平均値及び少なくとも1つの前記第3期待値の第3平均値をそれぞれ取得し、
前記第3平均値と前記第2平均値との第1差分値及び前記第2平均値と前記第1平均値との第2差分値を決定し、
前記第1差分値と前記第2差分値との比の値を前記現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータとして決定するように構成される、
項目20に記載のニューラルネットワークトレーニング装置。
(項目22)
画像生成装置であって、
第3ランダムベクトルを取得するように構成される、取得モジュールと、
前記第3ランダムベクトルを項目12-21のいずれか一項に記載のニューラルネットワークトレーニング装置によってトレーニングして得られた生成ネットワークに入力して処理し、ターゲット画像を取得するように構成される、取得モジュールと、を備える、画像生成装置。
(項目23)
電子機器であって、
プロセッサと、
プロセッサ実行可能命令を記憶するように構成されるメモリと、を備え、
前記プロセッサは、項目1-11のいずれか一項に記載のニューラルネットワークのトレーニング方法を実行するように構成される、電子機器。
(項目24)
コンピュータプログラム命令が記憶される、コンピュータ可読記憶媒体であって、
前記コンピュータプログラム命令がプロセッサによって実行される時に、プロセッサに、項目1-11のいずれか1項に記載のニューラルネットワークのトレーニング方法を実現させる、コンピュータ可読記憶媒体。
(項目25)
コンピュータ可読コードを含む、コンピュータプログラムであって、
前記コンピュータ可読コードが、電子機器で実行されるとき、前記電子機器内のプロセッサに、項目1-11の任意の項目に記載のニューラルネットワークのトレーニング方法を実行させる、コンピュータプログラム。
【0037】
以下の図面を参照しや例示的な実施例に対する詳細な説明によれば、本開示の他の特徴及び態様は明らかになる。
【図面の簡単な説明】
【0038】
図1】本開示の実施例に係るニューラルネットワークのトレーニング方法のフローチャートを示す。
図2】本開示の実施例に係るニューラルネットワークのトレーニング方法の適用の概略図を示す。
図3】本開示の実施例に係るニューラルネットワークトレーニング装置のブロック図を示す。
図4】本開示の実施例に係る電子装置のブロック図を示す。
図5】本開示の実施例に係る電子装置のブロック図を示す。
【発明を実施するための形態】
【0039】
ここでの図面は、本明細書に組み込まれてその一部を構成し、これらの図面は、本開示に合致する実施例を示すものであり、明細書とともに本開示の実施例における技術的解決策を説明するために使用される。
【0040】
以下、図面を参照して本開示の様々な例示的な実施例、特徴及び態様を詳しく説明する。図面内の同じ符号は、同じ又は類似の機能の要素を表す。実施例の様々な態様を図面に示したが、特に明記しない限り、縮尺通りに図面を描く必要がない。
【0041】
ここで専用の用語「例示的」とは、「例、実施例又は説明用のものとして使用される」ことを意味する。ここで、「例示的」として説明される任意の実施例は、他の実施例より優れる又はより好ましいと解釈する必要はない。
【0042】
本明細書における「及び/又は」という用語は、単に関連対象を表す関連関係であり、3種類の関係があり得ることを表し、例えば、A及び/又はBは、Aが独立で存在する場合、AとBが同時に存在する場合、Bが独立で存在する場合などの3つの場合を表す。さらに、本明細書における「少なくとも1つ」という用語は、複数のうちの1つ、又は複数のうちの少なくとも2つの任意の組み合わせを示し、例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCで構成されるセットから選択された任意の1つ又は複数の要素を含むことを示す。
【0043】
さらに、本開示の実施例をよりよく説明するために、以下の具体的な実施形態において多くの具体的細部が記載されている。全ての具体的細部を記載しなくても本開示が同様に実施できることは、当業者にとって明らかである。本開示の要旨を強調するために、いくつかの例において、当業者のよく使用される方法、手段、要素及び回路を詳しく記載していない。
【0044】
図1は、本開示の実施例に係るニューラルネットワークのトレーニング方法のフローチャートを示し、図1に示されたように、前記方法は、以下のステップを含む。
【0045】
ステップS11において、第1ランダムベクトルを生成ネットワークに入力して、第1生成画像を取得する。
【0046】
ステップS12において、前記第1生成画像及び第1本物画像をそれぞれ判別ネットワークに入力して、前記第1生成画像の第1判別分布及び第1本物画像の第2判別分布をそれぞれ取得し、ここで、前記第1判別分布は前記第1生成画像の真実度の確率分布を表し、前記第2判別分布は前記第1本物画像の真実度の確率分布を表す。
【0047】
ステップS13において、前記第1判別分布、前記第2判別分布、プリセットの第1ターゲット分布及びプリセットの第2ターゲット分布に基づいて、前記判別ネットワークの第1ネットワーク損失を決定し、ここで、前記第1ターゲット分布は生成画像のターゲット確率分布であり、前記第2ターゲット分布は本物画像のターゲット確率分布である。
【0048】
ステップS14において、前記第1判別分布及び前記第2判別分布に基づいて、前記生成ネットワークの第2ネットワーク損失を決定する。
【0049】
ステップS15において、前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングする。
【0050】
本開示の実施例におけるニューラルネットワークのトレーニング方法によって、判別ネットワークは、入力画像に対して判別分布を出力し、確率分布の形で入力画像の真偽性を表し、色、テクスチャ、比率、背景などの次元で入力画像が本物画像である確率を表すことができ、複数の態様から入力画像の真偽性を評価し、情報ロスを減らし、ニューラルネットワークのトレーニングに、より全面的な教師情報及びより正確なトレーニング方向を提供し、トレーニング精度を向上させ、最終的に生成画像の品質を向上させ、生成ネットワークに高解像度画像の生成に適用させることができる。しかも、生成画像のターゲット確率分布及び本物画像のターゲット確率分布をプリセットすることによって、トレーニングプロセスをガイダンスし、トレーニングプロセスにおいて本物画像及び生成画像をそれぞれのターゲット確率分布に近づけさせ、本物画像と生成画像の相違度を拡大し、判別ネットワークの本物画像及び生成画像を見分ける能力を強化し、それによって、生成ネットワークによって生成される画像の品質を向上させる。
【0051】
一可能な実施形態において、前記ニューラルネットワークのトレーニング方法は、端末機器又は他の処理機器によって実行されることができ、ここで、端末機器は、ユーザ機器(UE:User Equipment)、モバイル機器、ユーザ端末、端末、携帯電話、コードレス電話、パーソナルデジタル処理(PDA:Personal Digital Assistant)、ハンドヘルド機器、コンピューティング機器、車載機器、ウェアラブル機器などであり得る。他の処理機器はサーバ又はクラウドサーバなどであり得る。いくつかの可能な実施形態において、当該ニューラルネットワークのトレーニング方法は、プロセッサによって、メモリに記憶されるコンピュータ可読命令を呼び出す方式によって実現することができる。
【0052】
一可能な実施形態において、前記ニューラルネットワークは、生成ネットワークと判別ネットワークによって構成された敵対的生成ネットワークである得る。生成ネットワークは、畳み込みニューラルネットワークなどのディープラーニングニューラルネットワークであり得、本開示は生成ネットワークのタイプ及び構造に対して限定しない。判別ネットワークは、畳み込みニューラルネットワークなどのディープラーニングニューラルネットワークであり得、本開示は判別ネットワークのタイプ及び構造に対して限定しない。生成ネットワークはランダムベクトルに対して処理することができ、それによって生成画像を取得し、ランダムベクトルは各要素が乱数であるベクトルであり得、ランダムサンプリングなどの方式によって取得できる。ステップS11では、ランダムサンプリングなどの方式によって第1ランダムベクトルを取得することができ、生成ネットワークは、第1ランダムベクトルに対して畳み込むなどの処理を実行して、第1ランダムベクトルに対応する第1生成画像を取得することができる。第1ランダムベクトルはランダムで生成されたベクトルであり、そのため、第1生成画像はランダム画像である。
【0053】
一可能な実施形態において、第1本物画像は任意の本物画像である得、例えば、画像取得装置(例えば、カメラ、ウェブカメラなど)によって撮影された本物画像である得る。ステップS12では、第1本物画像及び第1生成画像をそれぞれ判別ネットワークに入力して、それぞれ、第1生成画像の第1判別分布及び第1本物画像の第2判別分布を取得することができ、第1判別分布及び第2判別分布は、ベクトル形のパラメータであり得、例えば、ベクトルの形で確率分布を表すことができる。第1判別分布は、第1生成画像の真実度を表すことができ、即ち、第1判別分布によって第1生成画像が本物画像である確率を表すことができる。第2判別分布は、第1本物画像の真実度を表すことができ、即ち、第2判別分布によって第1本物画像が本物画像である確率を表すことができる。分布(例えば多次元ベクトル)の形で画像の真偽性を表し、色、テクスチャ、比率、背景などの複数の態様から画像の真偽性を評価し、情報ロスを減らして、トレーニングに正確なトレーニング方向を提供する。
【0054】
一可能な実施形態において、ステップS13では、本物画像のターゲット確率分布(即ち、第2ターゲット分布)、及び生成画像のターゲット確率分布(即ち、第1ターゲット分布)をプリセットでき、トレーニングプロセスでは、本物画像のターゲット確率分布及び生成画像のターゲット確率分布に基づいて、生成画像に対応するネットワーク損失及び本物画像に対応するネットワーク損失をそれぞれ決定し、生成画像に対応するネットワーク損失及び本物画像に対応するネットワーク損失をそれぞれ使用して判別ネットワークのパラメータを調整し、本物画像の第2判別分布が第2ターゲット分布に近づけ、しかも第1ターゲット分布と明らかな差異を有するようにし、生成画像の第1判別分布が第1ターゲット分布に近づけ、第2ターゲット分布と明らかな差異を有するようにし、本物画像と生成画像の相違度を拡大し、判別ネットワークの本物画像と生成画像を見分ける能力を高まり、さらに生成ネットワークによって生成される画像の品質を向上させることができる。
【0055】
例において、生成画像のアンカ(anchor)分布(即ち、第1ターゲット分布)及び本物画像のアンカ分布(即ち、第2ターゲット分布)をプリセットでき、生成画像のアンカ分布を表すベクトルは、本物画像のアンカ分布を表すベクトルと明らかな差異を有する。例えば、1つの固定分布Uをプリセットし、第1ターゲット分布A1=U、第2ターゲット分布A2=U+1と設定する。トレーニングプロセスでは、判別ネットワークのネットワークパラメータを調整することによって、第1判別分布と生成画像のアンカ分布の差異を縮小することができ、このプロセスでは、第1判別分布と本物画像のアンカ分布の差異は大きくなる。トレーニングプロセスでは、判別ネットワークのネットワークパラメータを調整することによって、第2判別分布と本物画像のアンカ分布の差異を縮小することができ、このプロセスでは、第2判別分布と生成画像のアンカ分布の差異は大きくなる。即ち、本物画像及び生成画像に対してアンカ分布をそれぞれプリセットし、本物画像と生成画像との分布差異を大きくし、それにより、判別ネットワークの本物画像及び生成画像に対する区別能力を向上させる。
【0056】
一可能な実施形態において、ステップS13は、前記第1判別分布及び前記第1ターゲット分布に基づいて、前記第1生成画像の第1分布損失を決定することと、前記第2判別分布及び前記第2ターゲット分布に基づいて、前記第1本物画像の第2分布損失を決定することと、前記第1分布損失及び前記第2分布損失に基づいて、前記第1ネットワーク損失を決定することと、を含み得る。
【0057】
例において、第1ターゲット分布は正確な確率分布であり、第1ターゲット分布と第1判別分布との差異を決定することによって、第1分布損失を決定することができる。
【0058】
一可能な実施形態において、第1判別分布及び第1ターゲット分布に基づいて、第1生成画像に対応するネットワーク損失(即ち、第1分布損失)を決定することができる。ここで、前記第1判別分布及び前記第1ターゲット分布に基づいて、前記第1生成画像の第1分布損失を決定することは、前記第1判別分布を前記第1ターゲット分布のサポートセットにマッピングして、第1マッピング分布を取得することと、前記第1マッピング分布と前記第1ターゲット分布との第1相対エントロピーを決定することと、前記第1相対エントロピーに基づいて、前記第1分布損失を決定することと、を含む。
【0059】
一可能な実施形態において、第1判別分布と第1ターゲット分布のサポートセット(前記サポートセットは確率分布の分布範囲を示すトポロジ空間である)は異なる可能性かあり、即ち、第1判別分布の分布範囲と第1ターゲット分布の分布範囲は異なる可能性がある。分布範囲が異なる場合、2つの確率分布の差異を比較することは意味がなく、そのため、第1判別分布を第1ターゲット分布のサポートセットにマッピングするか、又は第1ターゲット分布を第1判別分布のサポートセットにマッピングするか、又は第1判別分布及び第1ターゲット分布を同じサポートセットにマッピングすることができ、即ち、第1判別分布の分布範囲と第1ターゲット分布の分布範囲を同じくし、同じ分布範囲で2つの確率分布の差異を比較することができる。例において、線形変換などの方式によって、例えば、投影行列を使用して第1判別分布に対して投影処理を実行し、第1判別分布を第1ターゲット分布のサポートセットにマッピングし、即ち、第1判別分布のベクトルに対して線形変換を実行することができ、変換して得られたベクトルは、即ち、第1ターゲット分布のサポートセットにマッピングされた第1マッピング分布である。
【0060】
一可能な実施形態において、第1マッピング分布と第1ターゲット分布との第1相対エントロピー、即ち、KL(Kullback-Leibler)距離を決定することができ、前記第1相対エントロピーは、同じサポートセットにおける2つの確率分布の差異(即ち、第1マッピング分布と第1ターゲット分布の差異)を示すことができる。もちろん、他の実施形態では、JS発散(Jensen-Shannon divergence)又はWasserstein距離などの他の方式によって第1マッピング分布と第1ターゲット分布の差異を決定することもできる。
【0061】
一可能な実施形態において、第1相対エントロピーに基づいて、第1分布損失(即ち、生成画像に対応するネットワーク損失)を決定することができる。例において、第1相対エントロピーを前記第1分布損失として決定するか、又は第1相対エントロピーに対して演算処理を実行でき、例えば、第1相対エントロピーを重み付け、対数、指数を取るなどの処理を実行して、前記第1分布損失を取得する。本開示は、第1分布損失の決定方式に対して限定しない。
【0062】
例において、第2ターゲット分布は正確な確率分布であり、第2ターゲット分布と第2判別分布との差異を決定することにより、第2分布損失を決定することができる。
【0063】
一可能な実施形態において、第2判別分布及び第2ターゲット分布に基づいて、第1本物画像に対応するネットワーク損失(即ち、第2分布損失)を決定することができる。ここで、前記第2判別分布及び前記第2ターゲット分布に基づいて、前記第1本物画像の第2分布損失を決定することは、前記第2判別分布を前記第2ターゲット分布のサポートセットにマッピングして、第2マッピング分布を取得することと、前記第2マッピング分布と前記第2ターゲット分布との第2相対エントロピーを決定することと、前記第2相対エントロピーに基づいて、前記第2分布損失を決定することと、を含む。
【0064】
一可能な実施形態において、第2判別分布と第2ターゲット分布のサポートセット(前記サポートセットは確率分布の分布範囲を示すトポロジ空間である)は異なる可能性かあり、即ち、第2判別分布の分布範囲と第2ターゲット分布の分布範囲は異なる可能性かある。第2判別分布を第2ターゲット分布のサポートセットにマッピングするか、又は第2ターゲット分布を第2判別分布のサポートセットにマッピングするか、又は第2判別分布及び第2ターゲット分布を同じサポートセットにマッピングすることができ、第2判別分布の分布範囲と第2ターゲット分布の分布範囲を同じくし、同じ分布範囲で2つの確率分布の差異を比較することができる。例において、線形変換などの方式によって、例えば、投影行列を使用して第2判別分布に対して投影処理を実行し、第2判別分布を第2ターゲット分布のサポートセットにマッピングし、即ち、第2判別分布のベクトルに対して線形変換を実行でき、変換して得られたベクトルは、即ち、第2ターゲット分布のサポートセットにマッピングされた第2マッピング分布である。
【0065】
一可能な実施形態において、第2マッピング分布と第2ターゲット分布との第2相対エントロピーを決定でき、前記第2相対エントロピーは、同じサポートセットにおける2つの確率分布の差異(即ち、第2マッピング分布と第2ターゲット分布との差異)を示すことができる。ここで、第2相対エントロピーの計算方法は第1相対エントロピーと同様であり、ここでは繰り返して説明しない。もちろん、他の実施形態では、JS発散(Jensen-Shannon divergence)又はWasserstein距離などの他の方式によって第2マッピング分布と第2ターゲット分布の差異を決定することもできる。
【0066】
一可能な実施形態において、第2相対エントロピーに基づいて、第2分布損失(即ち、生成画像に対応するネットワーク損失)を決定することができる。例において、第2相対エントロピーを前記第2分布損失として決定するか、又は第2相対エントロピーに対して演算処理を実行でき、例えば、第2相対エントロピーを重み付け、対数、指数を取るなどの処理を実行して、前記第2分布損失を取得することができる。本開示は、第2分布損失の決定方式に対して限定しない。
【0067】
一可能な実施形態において、第1生成画像の第1分布損失及び第2生成画像の第2分布損失に基づいて第1ネットワーク損失を決定することができる。ここで、前記第1分布損失及び前記第2分布損失に基づいて、前記第1ネットワーク損失を決定することは、前記第1分布損失及び前記第2分布損失に対して重み付加算を行い、前記第1ネットワーク損失を取得することを含む。例において、第1分布損失と第2分布損失の重みが同じでもよく、即ち、第1分布損失と第2分布損失を直接加算して、第1ネットワーク損失を取得できる。又は、第1分布損失と第2分布損失の重みは異なってもよく、即ち、第1分布損失及び第2分布損失をそれぞれの重みを掛けてから加算して、第1ネットワーク損失を取得できる。第1分布損失と第2分布損失の重みはプリセットされてもよく、本開示は、第1分布損失と第2分布損失の重みに対して限定しない。
【0068】
このような方式によって、生成画像のターゲット確率分布及び本物画像のターゲット確率分布をプリセットすることによって、トレーニングプロセスをガイダンスし、各自の分布損失をそれぞれ決定し、トレーニングプロセスにおいて本物画像及び生成画像をそれぞれのターゲット確率分布に近づけさせ、本物画像と生成画像の相違度を拡大し、判別ネットワークにより正確な角度情報を提供し、判別ネットワークの本物画像及び生成画像を見分ける能力を強化し、それによって、生成ネットワークによって生成される画像の品質を向上させる。
【0069】
一可能な実施形態において、生成ネットワークの第2ネットワーク損失を決定できる。例において、判別ネットワークは入力画像が本物画像であるか生成画像であるかを判別する必要があるため、判別ネットワークはトレーニングプロセスで本物画像と生成画像を見分ける能力を向上することができ、即ち、本物画像と生成画像の判別分布をそれぞれのターゲット確率分布に近づけさせ、それにより本物画像と生成画像の相違度を拡大す。しかしながら、生成ネットワークは、生成画像を本物画像に近づけさせる目標としており、即ち、生成画像を十分にリアルにし、判別ネットワークが生成ネットワークで出力された生成画像を見分けにくいようにする。敵対的なトレーニングがバランスの取れた状態に達すると、判別ネットワーク及び生成ネットワークのパフォーマンスは両方とも最適になり、即ち、判別ネットワークの判別能力が強く、本物画像と真実度の低い生成画像を見分けることができ、生成ネットワークによって生成された画像の真実度が高いため、判別ネットワークが高品質の生成画像を見分けにくいようにする。敵対的なトレーニングでは、判別ネットワークのパフォーマンスの向上は生成ネットワークのパフォーマンスを向上させるように促進でき、即ち、判別ネットワークの本物画像と生成画像を見分ける能力が大きければ、生成ネットワークによって生成された画像の真実度を向上させることができる。
【0070】
生成ネットワークのトレーニング目的は、生成画像の真実度を向上させることであり、即ち、生成画像を本物画像に近づけさせることである。つまり、生成ネットワークのトレーニングによって、第1生成画像の第1判別分布を第1本物画像の第2判別分布に近づけさせ、それにより、判別ネットワークで見分けにくくすることができる。一可能な実施形態において、ステップS14は、前記第1判別分布と前記第2判別分布との第3相対エントロピーを決定することと、記第3相対エントロピーに基づいて、前記第2ネットワーク損失を決定することと、を含み得る。
【0071】
一可能な実施形態において、第1判別分布と第2判別分布との第3相対エントロピーを決定でき、前記第3相対エントロピーは、同じサポートセットにおける2つの確率分布の差異(即ち、第3マッピング分布と第4マッピング分布との差異)を示す。ここで、第3相対エントロピーの計算方法は第1相対エントロピーと東洋であり、ここでは繰り返して説明しない。もちろん、他の実施形態では、JS発散(Jensen-Shannon divergence)又はWasserstein距離などの他の方式によって第1判別分布と第2判別分布との差異を決定して、両者の差による生成ネットワークのネットワーク損失を決定することもできる。
【0072】
一可能な実施形態において、第3相対エントロピーに基づいて、第2ネットワーク損失を決定することができる。例において、第3相対エントロピーを第2ネットワーク損失として決定するか、又は第3相対エントロピーに対して演算処理を実行するか、例えば、第3相対エントロピーに対して重み付け、対数、指数を取るなどの処理を実行して、第2ネットワーク損失を取得することができる。本開示は、第2ネットワーク損失の決定方式に対して限定しない。
【0073】
一可能な実施形態において、第1判別分布と第2判別分布のサポートセットは異なってもよく、即ち、第1判別分布と第2判別分布の分布範囲は異なってもよい。線形変換によって、第1判別分布と第2判別分布のサポートセットを重ねるようにすることができ、例えば、第1判別分布及び第2判別分布をターゲットサポートセットにマッピングして、第2判別分布の分布範囲と第1判別分布の分布範囲を同じようにし、同じ分布範囲で2つの確率分布の差異を比較することができる。
【0074】
例において、前記ターゲットサポートセットは、前記第1判別分布のサポートセット又は前記第2判別分布のサポートセットである。線形変換などの方式によって、第2判別分布を第1判別分布のサポートセットにマッピングすることができ、即ち、第2判別分布のベクトルに対して線形変換を実行し、変換して得られたベクトルが第1判別分布のサポートセットにマッピングされた第4マッピング分布であり、第1判別分布を前記第3マッピング分布とすることができる。又は、線形変換などの方式によって、第1判別分布を第2判別分布のサポートセットにマッピングでき、即ち、第1判別分布のベクトルに対して線形変換を実行し、変換して得られたベクトルが第2判別分布のサポートセットにマッピングされた第3マッピング分布であり、第2判別分布を前記第4マッピング分布とすることができる。
【0075】
例において、前記ターゲットサポートセットは他のサポートセットでもあり得、例えば、1つのサポートセットをプリセットし、第1判別分布及び第2判別分布を両方とも当該サポートセットにマッピングし、それぞれ、第3マッピング分布及び第4マッピング分布を取得することができる。さらに、第3マッピング分布と第4マッピング分布との第3相対エントロピーを計算することができる。本開示はターゲットサポートセットに対して限定しない。
【0076】
このような方式によって、第1判別分布と第2判別分布との差異を減らす方式によって生成ネットワークをトレーニングして、判別ネットワークのパフォーマンスを向上させる同時に、生成ネットワークのパフォーマンスを向上させるように促進し、それにより、真実度が高い生成画像を生成して、生成ネットワークに高解像度画像を生成することに適用させる。
【0077】
一可能な実施形態において、判別ネットワークの第1ネットワーク損失及び生成ネットワークの第2ネットワーク損失に基づいて、生成ネットワーク及び判別ネットワークを敵対的にトレーニングすることができる。即ち、トレーニングによって、生成ネットワークと判別ネットワークのパフォーマンスを同時に向上させ、判別ネットワークの区別能力を向上させ、生成ネットワークの真実度の高い生成画像を生成する能力を向上させ、生成ネットワーク及び判別ネットワークをバランスの取れた状態に達するようにする。
【0078】
例示的に、ステップS15は、前記第1ネットワーク損失に基づいて、前記判別ネットワークのネットワークパラメータを調整することと、前記第2ネットワーク損失に基づいて、前記生成ネットワークのネットワークパラメータを調整することと、前記判別ネットワーク及び前記生成ネットワークがトレーニング条件を満たした場合、トレーニング後の前記生成ネットワーク及び前記判別ネットワークを取得することと、を含み得る。
【0079】
トレーニングプロセスでは、ネットワークパラメータの複雑さが異なるなどの要因で、判別ネットワークのトレーニング進行度合いは、通常、生成ネットワークよりも速く、判別ネットワークの進行度合いが速くて早めにトレーニングが完了している場合、生成ネットワークに逆伝播の勾配を提供することができず、さらに、生成ネットワークのパラメータを更新することができず、即ち、生成ネットワークのパフォーマンスを向上させることができなくなる。そのため、生成ネットワークによって生成された画像のパフォーマンスは制限され、高解像度の画像の生成に適用されなく、真実度が低い。
【0080】
一可能な実施形態において、判別ネットワークのトレーニングプロセスで、判別ネットワークのネットワークパラメータを調整するために勾配を制限できる。ここで、前記第1ネットワーク損失に基づいて、前記判別ネットワークのネットワークパラメータを調整することは、第2ランダムベクトルを生成ネットワークに入力して、第2生成画像を取得することと、前記第2生成画像に基づいて第2本物画像に対して補間処理を実行して、補間画像を取得することと、前記補間画像を前記判別ネットワークに入力して、前記補間画像の第3判別分布を取得することと、前記第3判別分布に基づいて、前記判別ネットワークのネットワークパラメータの勾配を決定することと、前記勾配が勾配閾値以上である場合、前記第3判別分布に基づいて勾配ペナルティパラメータを決定することと、前記第1ネットワーク損失及び前記勾配ペナルティパラメータに基づいて、前記判別ネットワークのネットワークパラメータを調整することと、を含む。
【0081】
一可能な実施形態において、ランダムサンプリングなどの方式によって第2ランダムベクトルを取得し、生成ネットワークに入力して、第2生成画像を取得することができ、即ち、1つの非本物画像が取得できる。他の方式によって第2生成画像を取得することもでき、例えば、直接にランダムで1つの非本物画像を生成することができる。
【0082】
一可能な実施形態において、第2生成画像及び第2本物画像に対して補間処理を実行して、補間画像を取得することができ、即ち、補間画像が本物画像と非本物画像との合成画像であり、補間画像には、部分的な本物画像を含み、部分的な非本物画像も含む。例において、第2本物画像及び第2生成画像に対してランダム非線形補間を実行して、前記補間画像を取得することができ、本開示は、補間画像の取得方式に対して限定しない。
【0083】
一可能な実施形態において、補間画像を判別ネットワークに入力して、補間画像の第3判別分布を取得することができ、即ち、判別ネットワークは、当該本物画像と非本物画像との合成画像に対して判別処理を実行して、第3判別分布を取得することができる。
【0084】
一可能な実施形態において、第3判別分布を使用して判別ネットワークのネットワークパラメータの勾配を決定することができ、例えば、補間画像のターゲット確率分布(例えば、補間画像が本物画像である確率が50%であるターゲット確率分布を示すことができる)をプリセットし、第3判別分布とターゲット確率分布の相対エントロピーを使用して判別ネットワークのネットワークパラメータの勾配を決定することができる。例えば、第3判別分布とターゲット確率分布の相対エントロピーを逆伝播して、当該相対エントロピーと判別ネットワークの各ネットワークパラメータの偏微分を計算し、それにより、ネットワークパラメータの勾配を取得することができる。もちろん、他の可能な実施形態では、第3判別分布とターゲット確率分布のJS発散などの他のタイプの差異を使用して、判別ネットワークのパラメータ勾配を決定することもできる。
【0085】
一可能な実施形態において、判別ネットワークのネットワークパラメータの勾配がプリセットの勾配閾値以上である場合、第3判別分布に基づいて勾配ペナルティパラメータを決定することができる。勾配閾値は、勾配を制限する閾値であり得、勾配が大きい場合、トレーニングプロセスでは、勾配の降下速度が速い可能性があり(即ち、トレーニングステップ長が大きく、ネットワーク損失が最小値に変化する速度が速い)、そのため、勾配閾値によって勾配を制限することができる。例において、勾配閾値は10、20などに設定してもよく、本開示は勾配閾値に対して限定しない。
【0086】
例において、勾配ペナルティパラメータによって、勾配閾値を超えるネットワークパラメータの勾配を調整するか、又は勾配降下速度を制限して、当該パラメータの勾配を緩やかにし、勾配降下速度を遅くする。例えば、第3判別分布の期待値に基づいて勾配ペナルティパラメータを決定することができる。勾配ペナルティパラメータは、勾配降下に対する補償パラメータであり得、例えば、勾配ペナルティパラメータによって偏微分の乗数を調整するか、又は勾配ペナルティパラメータによって勾配降下の方向を変更して、勾配を制限し、それにより、判別ネットワークのネットワークパラメータの勾配降下速度を低減して、判別ネットワークの勾配降下が急激に低下して判別ネットワークが早期に収束する(即ち、トレーニングの完成が早すぎる)のを防ぐことができる。例において、第3判別分布は確率分布であり、当該確率分布の期待値を計算し、期待値に基づいて前記勾配ペナルティパラメータを決定することができ、例えば、前記期待値をネットワークパラメータの偏微分の乗数として決定することができ、即ち、期待値を勾配ペナルティパラメータとして決定し、勾配ペナルティパラメータを勾配の乗数として使用でき、本開示は勾配ペナルティパラメータの決定方式に対して限定しない。
【0087】
一可能な実施形態において、第1ネットワーク損失及び勾配ペナルティパラメータに基づいて、判別ネットワークのネットワークパラメータを調整することができる。即ち、第1ネットワーク損失を逆伝播して勾配降下のプロセスで、勾配ペナルティパラメータを追加し、判別ネットワークのネットワークパラメータを調整する同時に、勾配が急激に低下するのを防ぐ、即ち、判別ネットワークが早期にトレーニングを完了されることを防ぐ。例えば、勾配ペナルティパラメータを偏微分の乗数、即ち勾配の乗数として使用し、勾配降下の速度を遅くし、判別ネットワークのトレーニングの完成が早すぎることを防ぐことができる。
【0088】
一可能な実施形態において、判別ネットワークのネットワークパラメータの勾配がプリセットの勾配閾値より小さい場合、第1ネットワーク損失に基づいて判別ネットワークのネットワークパラメータを調整することができ、即ち、第1ネットワーク損失を逆伝播して勾配を降下し、第1ネットワーク損失を低減させる。
【0089】
一可能な実施形態において、判別ネットワークのネットワークパラメータを調整するとき、判別ネットワークの勾配が勾配閾値以上であるかを検証して、判別ネットワークの勾配が勾配閾値以上である場合勾配ペナルティパラメータを設定することができる。判別ネットワークの勾配を検証することがなく、他の方式によって判別ネットワークのトレーニング進行度合いを制御することもできる(例えば、判別ネットワークのネットワークパラメータの調整を一時停止し、生成ネットワークのネットワークパラメータのみ調整するなど)。
【0090】
このような方式によって、判別ネットワークのネットワークパラメータの勾配が勾配閾値以上であるかを検知することによって、判別ネットワークのトレーニング中の勾配降下速度を制限することができ、それにより、判別ネットワークのトレーニング進行度合いを制限し、判別ネットワークで勾配消失の発生確率を減らし、それにより、生成ネットワークを持続的に最適化することが可能であり、生成ネットワークのパフォーマンスを向上させ、生成ネットワークの生成画像の真実度を高め、生成ネットワークに高解像度画像を生成することに適用させる。
【0091】
一可能な実施形態において、第2ネットワーク損失に基づいて生成ネットワークのネットワークパラメータを調整することができ、例えば、第2ネットワーク損失を逆伝播して勾配を降下し、第2ネットワーク損失を低減させて、生成ネットワークのパフォーマンスを向上させる。
【0092】
一可能な実施形態において、判別ネットワーク及び生成ネットワークを敵対的なトレーニングでき、第1ネットワーク損失によって判別ネットワークのネットワークパラメータを調整するとき、生成ネットワークのネットワークパラメータが変わらないように維持し、第2ネットワーク損失によって生成ネットワークのネットワークパラメータを調整するとき、判別ネットワークのネットワークパラメータが変わらないように維持する。判別ネットワーク及び生成ネットワークがトレーニング条件を満たすまで、上述したトレーニングプロセスを反復に実行でき、例において、前記トレーニング条件は、判別ネットワーク及び生成ネットワークがバランスの取れた状態に達することを含み、例えば、判別ネットワーク及び生成ネットワークのネットワーク損失が両方ともプリセット閾値以下であるか、又はプリセットの区間に収束される。又は、前記トレーニング条件は、以下の2つの条件がバランスの取れた状態に達することを含む。第1条件として、生成ネットワークのネットワーク損失がプリセットの閾値以下であるか又はプリセットの区間に収束され、第2条件として、判別ネットワークによって出力される判別分布が示す入力画像が本物画像である確率が最大化される。この場合、判別ネットワークの本物画像と生成画像を区別する能力が高く、生成ネットワークによって生成された画像の品質が高く、真実度が高い。
【0093】
一可能な実施形態において、判別ネットワークの勾配が勾配閾値以上であるかを検証する以外に、判別ネットワークのトレーニング進行度合いを制御する方式によって、判別ネットワークで勾配消失の発生確率を減らすこともできる。
【0094】
一可能な実施形態において、いずれかのトレーニング周期が終わった後、判別ネットワーク及び生成ネットワークのトレーニング進行度合いをチェックすることができる。具体的に、ステップS15は、以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルを現在のトレーニング周期における生成ネットワークに入力して、少なくとも1つの第3生成画像を取得することと、前記以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルに対応する第1生成画像、少なくとも1つの前記第3生成画像及び少なくとも1つの本物画像をそれぞれ現在のトレーニング周期における判別ネットワークに入力して、少なくとも1つの第1生成画像の第4判別分布、少なくとも1つの第3生成画像の第5判別分布及び少なくとも1つの本物画像の第6判別分布をそれぞれ取得することと、前記第4判別分布、前記第5判別分布及び前記第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定することと、前記トレーニング進行度合いパラメータがトレーニング進行度合い閾値以下である場合、前記判別ネットワークのネットワークパラメータの調整を停止し、前記生成ネットワークのネットワークパラメータのみを調整することと、を含み得る。
【0095】
一可能な実施形態において、トレーニングプロセスでエクスペリエンスバッファ(experience buffer)のようなバッファを配置することができ、当該バッファには、少なくとも1つの(例えば、M個、Mは正の整数である)以前のトレーニング周期における第1ランダムベクトル及び上記の以前のM個のトレーニング周期で生成ネットワークが第1ランダムベクトルに基づいて生成したM個の第1生成画像を保存することができ、即ち、いずれかの以前のトレーニング周期で1つの第1ランダムベクトルによって1つの第1生成画像を生成することができ、バッファでは、以前のM個のトレーニング周期における第1ランダムベクトル、及び生成したM個の第1生成画像を保存することができる。トレーニングの実行に伴い、トレーニング周期数がMを超えた場合、最後のトレーニング周期における第1ランダムベクトル及び第1生成画像を使用して、最も古くバッファに保存された第1ランダムベクトル及び第1生成画像を置き換えることができる。
【0096】
一可能な実施形態において、以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルを現在のトレーニング周期における生成ネットワークに入力して、少なくとも1つの第3生成画像を取得し、例えば、バッファ内のm(mはM以下であるであり、且つ、mは正の整数である)個の第1ランダムベクトルを現在のトレーニング周期における生成ネットワークに入力して、m個の第3生成画像を取得することができる。
【0097】
一可能な実施形態において、現在のトレーニング周期における判別ネットワークによって、m個の第3生成画像に対して判別処理をそれぞれ実行して、m個の第5判別分布を取得することができる。現在のトレーニング周期における判別ネットワークによって、それぞれ、m個の以前のトレーニング周期の第1生成画像に対して判別処理を実行して、m個の第4判別分布を取得することができる。データベースからランダムサンプリングしてm個の本物画像を取得し、現在のトレーニング周期における判別ネットワークによって、それぞれ、m個の本物画像に対して判別処理を実行して、m個の第6判別分布を取得することができる。
【0098】
一可能な実施形態において、m個の第4判別分布、m個の第5判別分布及びm個の第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定することができ、即ち、判別ネットワークのトレーニング進行度合いが生成ネットワークより大幅に速いか否かを決定し、大幅に速いと決定した場合、生成ネットワークのトレーニング進行度合いパラメータを調整して、生成ネットワークのトレーニング進行度合いを上げ、判別ネットワークと生成ネットワークのトレーニング進行度合い差異を減らし、即ち、判別ネットワークのトレーニングを一時停止し、生成ネットワークだけをトレーニングして、生成ネットワークの進行度合いパラメータを高め、進行度合いを上げる。
【0099】
一可能な実施形態において、前記第4判別分布、前記第5判別分布及び前記第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定することは、少なくとも1つの前記第4判別分布の第1期待値、少なくとも1つの前記第5判別分布の第2期待値及び少なくとも1つの前記第6判別分布の第3期待値をそれぞれ取得することと、前記少なくとも1つの前記第1期待値の第1平均値、少なくとも1つの前記第2期待値の第2平均値及び少なくとも1つの前記第3期待値の第3平均値をそれぞれ取得することと、前記第3平均値と前記第2平均値との第1差分値及び前記第2平均値と前記第1平均値との第2差分値を決定することと、前記第1差分値と前記第2差分値との比の値を前記現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータとして決定することと、を含む。
【0100】
一可能な実施形態において、m個の第4判別分布の期待値をそれぞれ計算して、m個の第1期待値を取得することができ、m個の第5判別分布の期待値をそれぞれ計算して、m個の第2期待値を取得し、m個の第6判別分布の期待値をそれぞれ計算して、m個の第3期待値を取得することができる。さらに、m個の第1期待値に対して平均処理を実行して、第1平均値Sを取得することができ、m個の第2期待値に対して平均処理を実行して、第2平均値Sを取得することができ、m個の第3期待値に対して平均処理を実行して、第3平均値Sを取得することができる。
【0101】
一可能な実施形態において、第3平均値と第2平均値との第1差分値(S-S)を決定し、第2平均値と第1平均値との第2差分値(S-S)を決定することができる。さらに、第1差分値と第2差分値との比の値(S-S)/(S-S)を前記現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータとして決定することができる。別の一例において、プリセットのトレーニング回数を生成ネットワークのトレーニング進行度合いパラメータとして使用することができ、例えば、生成ネットワーク及び判別ネットワークがトレーニング条件を満たすまで、生成ネットワーク及び判別ネットワークを一緒に100回トレーニングするたびに、判別ネットワークのトレーニングを一時停止させ、生成ネットワークを単独で50回トレーニングし、その後、生成ネットワーク及び判別ネットワークを一緒に100回トレーニングして、……。
【0102】
一可能な実施形態において、トレーニング進行度合い閾値を設定することができ、前記トレーニング進行度合い閾値は生成ネットワークのトレーニング進行度合いの閾値であり、トレーニング進行度合いパラメータがトレーニング進行度合い閾値以下である場合、判別ネットワークのトレーニング進行度合いが生成ネットワークより大幅に速いことを表し、即ち、生成ネットワークのトレーニング進行度合いが遅く、この場合、判別ネットワークのネットワークパラメータの調整を一時停止して、生成ネットワークのネットワークパラメータのみを調整することができる。例において、後続のトレーニング周期で、トレーニング進行度合いパラメータがトレーニング進行度合い閾値より大きくなるまで、上記のの判別ネットワーク及び生成ネットワークのトレーニング進行度合いのチェックを繰り返して実行し、この場合、判別ネットワーク及び生成ネットワークのネットワークパラメータを同時に調整することができ、即ち、生成ネットワークのトレーニングの進行度合いが判別ネットワークのトレーニング進行度合いに近づけるまで、判別ネットワークのトレーニングを少なくとも1つのトレーニング周期一時停止させて、生成ネットワークのみをトレーニングしてから(即ち、第3ネットワーク損失に基づいて生成ネットワークのネットワークパラメータを調整し、判別ネットワークのネットワークパラメータが変わらないように維持する)、生成ネットワーク及び判別ネットワークを敵対的にトレーニングする。
【0103】
他の実施形態では、トレーニング進行度合いパラメータがトレーニング進行度合い閾値以下である場合、判別ネットワークのトレーニング速度を下げることもでき、例えば、判別ネットワークのトレーニング周期を延長するか又は判別ネットワークの勾配降下速度を下げ、トレーニング進行度合いパラメータがトレーニング進行度合い閾値より大きくなるまで継続してから、判別ネットワークのトレーニング速度を回復させることができる。
【0104】
このような方式によって、判別ネットワーク及び生成ネットワークのトレーニング進行度合いによって、トレーニングにおける判別ネットワークの勾配降下速度を制限し、それにより、判別ネットワークのトレーニング進行度合いを制限することができ、判別ネットワークで勾配消失の発生確率を減らし、それにより、生成ネットワークを持続的に最適化することが可能であり、生成ネットワークのパフォーマンスを向上させ、生成ネットワークの生成画像の真実度を高め、生成ネットワークに高解像度画像を生成することに適用させる。
【0105】
一可能な実施形態において、生成ネットワーク及び判別ネットワークの敵対的にトレーニングが完了した後、即ち、生成ネットワーク及び判別ネットワークのパフォーマンスが最適になる時に、生成ネットワークを使用して画像を生成することができ、生成された画像の真実度は高い。
【0106】
本開示は、さらに、画像生成方法を提供し、前記トレーニングされた敵対的生成ネットワークを使用して画像を生成する。
【0107】
本開示のいくつかの実施例において、画像生成方法は、第3ランダムベクトルを取得することと、第3ランダムベクトルを上記のニューラルネットワークのトレーニング方法によってトレーニングして得られた生成ネットワークに入力して処理し、ターゲット画像を取得することと、を含む。
【0108】
例において、ランダムサンプリングなどの方式によって第3ランダムベクトルを取得し、第3ランダムベクトルをトレーニング後の生成ネットワークに入力することができる。生成ネットワークは、真実度の高いターゲット画像を出力できる。例において、前記ターゲット画像は高解像度画像であり得、即ち、トレーニング後の生成ネットワークは真実度の高い高解像度画像を生成することに適用できる。
【0109】
本開示の実施例におけるニューラルネットワークのトレーニング方法によって、判別ネットワークは、入力画像に対して判別分布を出力し、分布の形で入力画像の真偽性を表し、複数の態様から入力画像の真偽性を評価することができ、情報ロスを減らし、ニューラルネットワークのトレーニングに、より全面的な教師情報及びより正確なトレーニング方向を提供し、トレーニング精度を向上させ、生成画像の品質を向上させ、生成ネットワークに高解像度画像を生成することに適用させる。しかも、生成画像のターゲット確率分布及び本物画像のターゲット確率分布をプリセットすることによって、トレーニングプロセスをガイダンスし、それぞれの分布損失を決定し、トレーニングプロセスにおいて本物画像及び生成画像をそれぞれのターゲット確率分布に近づけさせ、本物画像と生成画像の相違度を拡大し、判別ネットワークの本物画像及び生成画像を見分ける能力を強化し、第1判別分布と第2判別分布との差異を減らす方式によって生成ネットワークをトレーニングして、判別ネットワークのパフォーマンスを向上させる同時に、生成ネットワークのパフォーマンスを向上させるように促進し、それにより、真実度の高い生成画像を生成して、生成ネットワークに高解像度画像を生成させる。さらに、判別ネットワークのネットワークパラメータの勾配が勾配閾値以上であるかを検知するか、又は判別ネットワーク及び生成ネットワークのトレーニング進行度合いをチェックして、判別ネットワークがトレーニングされるときの勾配降下速度を制限でき、それにより、判別ネットワークのトレーニング進行度合いを制限し、判別ネットワークで勾配消失の発生確率を減らし、それにより、生成ネットワークを持続的に最適化することが可能であり、生成ネットワークのパフォーマンスを向上させ、生成ネットワークの生成画像の真実度を高め、生成ネットワークに高解像度画像を生成することに適用させる。
【0110】
図2は、本開示の実施例に係るニューラルネットワークのトレーニング方法の適用の概略図を示し、図2に示されたように、第1ランダムベクトルを生成ネットワークに入力することができ、生成ネットワークは第1生成画像を出力することができる。判別ネットワークは、第1生成画像及び第1本物画像をそれぞれ判別処理し、第1生成画像の第1判別分布及び第1本物画像の第2判別分布をそれぞれ取得することができる。
【0111】
一可能な実施形態において、生成画像のアンカ分布(即ち、第1ターゲット分布)及び本物画像のアンカ分布(即ち、第2ターゲット分布)をプリセットできる。第1判別分布及び第1ターゲット分布に基づいて、第1生成画像に対応する第1分布損失を決定することができる。第2判別分布及び第2ターゲット分布に基づいて、第1本物画像に対応する第2分布損失を決定することができる。さらに、第1分布損失及び第2分布損失を介して判別ネットワークの第1ネットワーク損失を決定することができる。
【0112】
一可能な実施形態において、第1判別分布及び第2判別分布によって生成ネットワークの第2ネットワーク損失を決定することができる。さらに、第1ネットワーク損失及び第2ネットワーク損失によって生成ネットワーク及び判別ネットワークを敵対的にトレーニングすることができる。即ち、第1ネットワーク損失によって判別ネットワークのネットワークパラメータを調整し、第2ネットワーク損失によって生成ネットワークのネットワークパラメータを調整する。
【0113】
一可能な実施形態において、判別ネットワークのトレーニング進行度合いは、通常、生成ネットワークより速く、判別ネットワークが早くトレーニングを完了することになっており、勾配消失の発生確率を減らし、生成ネットワークの持続的な最適化を保つために、判別ネットワークの勾配を検知することによって、判別ネットワークのトレーニング進行度合いを制御することができ、例において、1枚の本物画像及び生成画像を補間し、判別ネットワークによって当該補間画像の第3判別分布を決定し、さらに、第3判別分布の期待値に基づいて勾配ペナルティパラメータを決定することができ、判別ネットワークの勾配がプリセットの勾配閾値以上である場合、判別ネットワークの勾配が急激に低下することにより、判別ネットワークのトレーニングの完了が速すぎるのを防ぐために、第1ネットワーク損失に対して逆伝播を実行して勾配を降下させるプロセスで、勾配ペナルティパラメータを追加して、判別ネットワークの勾配降下速度を制限することができる。
【0114】
一可能な実施形態において、判別ネットワーク及び生成ネットワークのトレーニング進行度合いをチェックでき、例えば、M個の以前のトレーニング周期における生成ネットワークに入力されたM個の第1ランダムベクトルを現在のトレーニング周期における生成ネットワークに入力して、M個の第3生成画像を取得することができる。M個の以前のトレーニング周期の生成された第1生成画像、M個の第3生成画像及びM個の本物画像に基づいて、現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定する。トレーニング進行度合いパラメータがトレーニング進行度合い閾値以下である場合、判別ネットワークのトレーニング進行度合いが生成ネットワークより大幅に速いことを表し、判別ネットワークのネットワークパラメータの調整を一時停止して、生成ネットワークのネットワークパラメータのみを調整することができる。後続のトレーニング周期で、トレーニング進行度合いパラメータがトレーニング進行度合い閾値より大きくなるまで、上記の判別ネットワーク及び生成ネットワークのトレーニング進行度合いをチェックすることを繰り返して実行し、その場合、判別ネットワーク及び生成ネットワークのネットワークパラメータを同時に調整することができ、即ち、判別ネットワークのトレーニングを少なくとも1つのトレーニング周期一時停止させて、生成ネットワークのみをトレーニングする。
【0115】
一可能な実施形態において、生成ネットワーク及び判別ネットワークの敵対的にトレーニングが完了した後、生成ネットワークを使用してターゲット画像を生成することができ、ターゲット画像は真実度の高い高解像度画像であり得る。
【0116】
一可能な実施形態において、前記ニューラルネットワークのトレーニング方法は、敵対的生成の安定性およぎ生成画像の品質と真実度を向上させることができる。ゲーム内のシナリオの生成又は合成、画像スタイルの転移又は変換、及び画像クラスタリングなどのシナリオに適用でき、本開示は前記ニューラルネットワークのトレーニング方法の使用シナリオに対して限定しない。
【0117】
図3は、本開示の実施例に係るニューラルネットワークトレーニング装置のブロック図を示し、図3に示されたように、前記装置は、
第1ランダムベクトルを生成ネットワークに入力して、第1生成画像を取得するように構成される、生成モジュール11と、
前記第1生成画像及び第1本物画像をそれぞれ判別ネットワークに入力して、前記第1生成画像の第1判別分布及び第1本物画像の第2判別分布をそれぞれ取得するように構成される判別モジュール12であって、ここで、前記第1判別分布は前記第1生成画像の真実度の確率分布を表し、前記第2判別分布は前記第1本物画像の真実度の確率分布を表す、判別モジュール12と、
前記第1判別分布、前記第2判別分布、プリセットの第1ターゲット分布及びプリセットの第2ターゲット分布に基づいて、前記判別ネットワークの第1ネットワーク損失を決定するように構成される第1決定モジュール13であって、ここで、前記第1ターゲット分布は生成画像のターゲット確率分布であり、前記第2ターゲット分布は本物画像のターゲット確率分布である、第1決定モジュール13と、
前記第1判別分布及び前記第2判別分布に基づいて、前記生成ネットワークの第2ネットワーク損失を決定するように構成される、第2決定モジュール14と、
前記第1ネットワーク損失及び前記第2ネットワーク損失に基づいて、前記生成ネットワーク及び前記判別ネットワークを敵対的にトレーニングするように構成される、トレーニングモジュール15と、を備える。
【0118】
一可能な実施形態において、前記第1決定モジュールは、さらに、
前記第1判別分布及び前記第1ターゲット分布に基づいて、前記第1生成画像の第1分布損失を決定し、
前記第2判別分布及び前記第2ターゲット分布に基づいて、前記第1本物画像の第2分布損失を決定し、
前記第1分布損失及び前記第2分布損失に基づいて、前記第1ネットワーク損失を決定するように構成される。
【0119】
一可能な実施形態において、前記第1決定モジュールは、さらに、
前記第1判別分布を前記第1ターゲット分布のサポートセットにマッピングして、第1マッピング分布を取得し、
前記第1マッピング分布と前記第1ターゲット分布との第1相対エントロピーを決定し、
前記第1相対エントロピーに基づいて、前記第1分布損失を決定するように構成される。
【0120】
一可能な実施形態において、前記第1決定モジュールは、さらに、
前記第2判別分布を前記第2ターゲット分布のサポートセットにマッピングして、第2マッピング分布を取得し、
前記第2マッピング分布と前記第2ターゲット分布との第2相対エントロピーを決定し、
前記第2相対エントロピーに基づいて、前記第2分布損失を決定するように構成される。
【0121】
一可能な実施形態において、前記第1決定モジュールは、さらに、
前記第1分布損失及び前記第2分布損失に対して重み付加算を行い、前記第1ネットワーク損失を取得するように構成される。
【0122】
一可能な実施形態において、前記第2決定モジュールは、さらに、
前記第1判別分布と前記第2判別分布との第3相対エントロピーを決定し、
前記第3相対エントロピーに基づいて、前記第2ネットワーク損失を決定するように構成される。
【0123】
一可能な実施形態において、前記トレーニングモジュールは、さらに、
前記第1ネットワーク損失に基づいて、前記判別ネットワークのネットワークパラメータを調整し、
前記第2ネットワーク損失に基づいて、前記生成ネットワークのネットワークパラメータを調整し、
前記判別ネットワーク及び前記生成ネットワークがトレーニング条件を満たした場合、トレーニング後の前記生成ネットワーク及び前記判別ネットワークを取得するように構成される。
【0124】
一可能な実施形態において、前記トレーニングモジュールは、さらに、
第2ランダムベクトルを生成ネットワークに入力して、第2生成画像を取得し、
前記第2生成画像に基づいて第2本物画像に対して補間処理を実行して、補間画像を取得し、
前記補間画像を前記判別ネットワークに入力して、前記補間画像の第3判別分布を取得し、
前記第3判別分布に基づいて、前記判別ネットワークのネットワークパラメータの勾配を決定し、
前記勾配が勾配閾値以上である場合、前記第3判別分布に基づいて勾配ペナルティパラメータを決定し、
前記第1ネットワーク損失及び前記勾配ペナルティパラメータに基づいて、前記判別ネットワークのネットワークパラメータを調整するように構成される。
【0125】
一可能な実施形態において、前記トレーニングモジュールは、さらに、
以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルを現在のトレーニング周期における生成ネットワークに入力して、少なくとも1つの第3生成画像を取得し、
前記以前の少なくとも1つのトレーニング周期で生成ネットワークに入力した第1ランダムベクトルに対応する第1生成画像、少なくとも1つの前記第3生成画像及び少なくとも1つの本物画像をそれぞれ現在のトレーニング周期における判別ネットワークに入力して、少なくとも1つの第1生成画像の第4判別分布、少なくとも1つの第3生成画像の第5判別分布及び少なくとも1つの本物画像の第6判別分布をそれぞれ取得し、
前記第4判別分布、前記第5判別分布及び前記第6判別分布に基づいて現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータを決定し、
前記トレーニング進行度合いパラメータがトレーニング進行度合い閾値以下である場合、前記判別ネットワークのネットワークパラメータの調整を停止し、前記生成ネットワークのネットワークパラメータのみを調整するように構成される。
【0126】
一可能な実施形態において、前記トレーニングモジュールは、さらに、
少なくとも1つの前記第4判別分布の第1期待値、少なくとも1つの前記第5判別分布の第2期待値及び少なくとも1つの前記第6判別分布の第3期待値をそれぞれ取得し、
前記少なくとも1つの前記第1期待値の第1平均値、少なくとも1つの前記第2期待値の第2平均値及び少なくとも1つの前記第3期待値の第3平均値をそれぞれ取得し、
前記第3平均値と前記第2平均値との第1差分値及び前記第2平均値と前記第1平均値との第2差分値を決定し、
前記第1差分値と前記第2差分値との比の値を前記現在のトレーニング周期における生成ネットワークのトレーニング進行度合いパラメータとして決定するように構成される。
【0127】
本開示は、さらに、画像生成装置を提供し、前記トレーニングされた敵対的生成ネットワークを使用して画像を生成する。
【0128】
本開示のいくつかの実施例において、前記画像生成は、
第3ランダムベクトルを取得するように構成される、取得モジュールと、
前記第3ランダムベクトルをトレーニングして得られた生成ネットワークに入力して処理し、ターゲット画像を取得するように構成される、取得モジュールと、を備える。
【0129】
本開示で述べた上述の各方法の実施例は、原理及び論理に違反することなく、互いに組み合わせて、組み合わせされた実施例を生成することができ、スペースの限定により、本開示には繰り返さないことを理解されたい。
【0130】
加えて、本開示は、さらに、ニューラルネットワークトレーニング装置、電子機器、コンピュータ可読記憶媒体、プログラムを提供し、上記は、すべて本開示で提供された任意のニューラルネットワークのトレーニング方法を実現することができ、対応する技術的解決策と説明及び方法部分を参照した対応する記載は、繰り返しない。当業者は、具体的な実施形態の上記方法において、ステップの書き込み順序は、厳密な実行順序で、実装プロセスの限定となることではなく、各ステップの特定の実行順序は、その機能と可能性に基づくべきであることを理解することができる。いくつかの実施例において、本開示の実施例による装置が備える機能又はモジュールは、上記の方法の実施例で説明される方法を実行するために使用され得、特定の実現は、上記の方法の実施例における説明を参照することができ、簡潔にするために、ここで再び説明しない。
【0131】
本開示の実施例は、さらに、コンピュータプログラム命令が記憶される、コンピュータ可読記憶媒体を提案し、前記コンピュータプログラム命令は、プロセッサによって実行されるとき、上記の方法を実現する。コンピュータ可読記憶媒体は、揮発性コンピュータ可読記憶媒体又は不揮発性コンピュータ可読記憶媒体であってもよい。
【0132】
本開示の実施例は、さらに、電子機器を提出し、プロセッサと、プロセッサ実行可能命令を記憶するように構成されるメモリとを備え、ここで、前記プロセッサは上記の方法で構成される。電子機器は、端末、サーバ又はその他の形態の機器として提供できる。
【0133】
図4は、一例示的な実施例によって示された電子機器800のブロック図である。例えば、電子機器800は、携帯電話、コンピュータ、デジタル放送端末、メッセージングデバイス、ゲームコンソール、タブレットデバイス、医療機器、フィットネス機器、携帯情報端末などの端末であり得る。
【0134】
図4を参照すると、電子機器800は、処理コンポーネント802、メモリ804、電力コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)インターフェース812、センサコンポーネント814、及び通信コンポーネント816のうちの1つ又は複数のコンポーネットを備えることができる。
【0135】
処理コンポーネント802は、一般的に、ディスプレイ、電話の呼び出し、データ通信、カメラ操作及び記録操作に関する操作などの、電子機器800の全般的な操作を制御する。処理コンポーネント802は、前記方法のステップのすべて又は一部を完成するために、1つ又は複数のプロセッサ820を備えて命令を実行することができる。加えて、処理コンポーネント802は、1つ又は複数のモジュールを備えて、処理コンポーネント802と他のコンポーネントとの相互作用を容易にすることができる。例えば、マルチメディアコンポーネント808と、処理コンポーネント802との相互作用を容易にするために、処理コンポーネント802は、マルチメディアモジュールを備えることができる。
【0136】
メモリ804は、機器800における操作をサポートするために、様々なタイプのデータを記憶するように構成される。これらのデータの例には、電子機器800で動作する、任意のアプリケーション又は方法の命令、連絡先データ、電話帳データ、メッセージ、画像、ビデオ等が含まれる。モリ804は、スタティックランダムアクセスメモリ(SRAM)、電気的に消去可能なプログラム可能な読み取り専用メモリ(EEPROM)、消去可能なプログラム可能な読み取り専用メモリ(EPROM)、プログラム可能な読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスクなど、あらゆるタイプの揮発性又は不揮発性ストレージデバイス、又はそれらの組み合わせで実装することができる。
【0137】
電力コンポーネント806は、電子機器800の様々なコンポーネントに電力を提供する。電力コンポーネント806は、電力管理システム、1つ又は複数の電源、及び電子機器800のために、電力を生成、管理及び割り当てに関連付けられる、他のコンポーネントを備えることができる。
【0138】
マルチメディアコンポーネント808は、前記電子機器800とユーザとの間に、出力インターフェースを提供するスクリーンを含む。いくつかの実施例において、スクリーンは、液晶ディスプレイ(LCD)及びタッチパネル(TP)を含み得る。スクリーンにタッチパネルが含まれる場合、スクリーンは、ユーザからの入力信号を受信するためのタッチスクリーンとして実現されることができる。タッチパネルは、タッチ、スワイプ及びタッチパネルにおけるジェスチャを検知するための1つ又は複数のタッチセンサを含む。前記タッチセンサは、タッチ又はスワイプの操作の境界を感知するだけでなく、前記タッチ又はスワイプ動作に関する、持続時間及び圧力も検知することができる。いくつかの実施例において、マルチメディアコンポーネント808は、1つのフロントカメラ及び/又はリアカメラを備える。電子機器800が、撮影モード又はビデオモードなどの動作モードにいるとき、フロントカメラ及び/又はリアカメラは、外部のマルチメディアデータを受信し得る。各フロントカメラ及びリアカメラは、固定光学レンズシステムであり得、又は焦点距離と光学ズーム機能を有することがあり得る。
【0139】
オーディオコンポーネント810は、オーディオ信号を出力及び/又は入力するように構成される。例えば、オーディオコンポーネント810は、1つのマイク(MIC)を備え、電子機器800が、通話モード、録音モード及び音声認識モードなどの動作モードにいる場合、マイクは、外部オーディオ信号を受信するように構成される。受信されたオーディオ信号は、さらにメモリ804に記憶されることができ、又は通信コンポーネント816を介して、送信されることができる。いくつかの実施例において、オーディオコンポーネント810は、さらに、オーディオ信号を出力するように構成される、スピーカを備える。
【0140】
I/Oインターフェース812は、処理コンポーネント802と周辺インターフェースモジュールとの間にインターフェースを提供し、前記周辺インターフェースモジュールは、キーボード、クリックホイール、ボタンなどであってもよい。これらのボタンは、ホームボタン、ボリュームボタン、スタートボタン、ロックボタンを含み得るが、これらに限定されない。
【0141】
センサコンポーネント814は、電子機器800に各態様の状態評価を提供するための1つ又は複数のセンサを備える。例えば、センサコンポーネント814は、電子機器800のオン/オフ状態、電子機器800のディスプレイとキーパッドなどのコンポーネントの、相対的な位置を検知することができ、センサコンポーネント814は、電子機器800又は電子機器800の1つのコンポーネントの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位又は加速/減速、及び電子機器800の温度の変化も検知することができる。センサコンポーネット814は、近接センサを備えることができ、物理的接触なしに近くの物体の存在を検知するように構成される。センサコンポーネント814は、さらに、CMOS又はCCD画像センサなどの光センサを備えることもでき、イメージングアプリケーションのために使用される。いくつかの実施例において、当該センサコンポーネント814は、さらに、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサ又は温度センサを備えることができる。
【0142】
通信コンポーネント816は、電子機器800と他の機器の間の有線、又は無線方式の通信を容易にするように構成される。電子機器800は、WiFi、2G又は3G、又はそれらの組み合わせなどの通信規格に基づく無線ネットワークにアクセスすることができる。一例示的な実施例において、通信コンポーネント816は、放送チャンネルを介して、外部放送管理システムからの放送信号又は放送関連情報を受信する。一例示的な実施例において、前記通信コンポーネント816は、さらに、短距離通信を促進するために、近距離通信(NFC)モジュールを備える。例えば、NFCモジュールは、無線周波数認識(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(登録商標)(BT)技術及び他の技術に基づいて実現されることができる。
【0143】
例示的な実施例において、電子機器800は、上記の方法を実行するために、1つ又は複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理装置(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ、又は他の電子素子によって実現されることができる。
【0144】
例示的な実施例において、さらに、コンピュータプログラム命令を含むメモリ804などの、不揮発性コンピュータ可読記憶媒体を提供し、前記コンピュータプログラム命令は、電子機器800のプロセッサ820によって実行されて、上記の方法を完成することができる。
【0145】
本開示の実施例は、さらに、コンピュータ可読コードを含むコンピュータプログラム製品を提供し、コンピュータ可読コードが機器で実行されるとき、機器内のプロセッサは上記の任意の実施例によるニューラルネットワークのトレーニング方法を実現するための命令を実行する。
【0146】
本開示の実施例は、さらに、コンピュータ可読命令を記憶するために使用される、別のコンピュータプログラム製品を提供し、命令が実行されるときに、コンピュータに、上記の任意の実施例による画像生成方法の操作を実行させる。
【0147】
上記したコンピュータプログラム製品は、具体的に、ハードウェア、ソフトウェア又はそれらを組み合わせる方式により実現されることができる。1つの例示的な実施例において、前記コンピュータプログラム製品は、具体的には、コンピュータ記憶媒体として具現され、別の例示的な実施例において、コンピュータプログラム製品は、具体的には、ソフトウェア開発キット(SDK:Software Development Kit)などのソフトウェア製品として具現される。
【0148】
図5は、一例示的な実施例によって示された電子機器1900のブロック図である。例えば、電子機器1900は、サーバとして提供されることができる。図5を参照すると、電子機器1900は、処理コンポーネント1922を備え、1つ又は複数のプロセッサ、及びメモリ1932によって表されるメモリリソースををさらに含み、アプリケーションプログラムなど、処理コンポーネント1922によって、実行される命令を記憶するために使用される。メモリ1932に記憶されるアプリケーションプログラムは、1つ又は1つ以上の1セットの命令に対応する各モジュールを備えることができる。加えて、処理コンポーネント1922は、命令を実行するように構成されて、上記の方法を実行する。
【0149】
電子機器1900は、さらに、電子機器1900の電源管理を実行するように構成される、1つの電力コンポーネント1926と、電子機器1900をネットワークに接続させるように構成される、1つの有線又は無線ネットワークインターフェース1950と、1つの入力/出力(I/O)インターフェース1958とを備えることができる。電子機器1900は、メモリ1932に記憶されたWindows(登録商標) ServerTM、Mac OS XTM、Unix(登録商標)、Linux(登録商標)、FreeBSDTM又は類似したものなどの操作システムに基づいて操作されることができる。
【0150】
例示的な実施例において、さらに、コンピュータプログラム命令を含むメモリ1932などの、揮発性コンピュータ可読記憶媒体を提供し、前記コンピュータプログラム命令は、電子機器1900の処理コンポーネント1922によって実行されて、上記の方法を完成することができる。
【0151】
本開示は、システム、方法及び/又はコンピュータプログラム製品であり得る。コンピュータプログラム製品は、プロセッサに本開示の様々な態様を実現させるために使用される、コンピュータ可読プログラム命令がロードされる、コンピュータ可読記憶媒体を備えることができる。
コンピュータ可読記憶媒体は、命令実行機器によって使用される命令を保持及び記憶することができる、有形の機器であり得る。コンピュータ可読記憶媒体は、例えば、電気記憶機器、磁気記憶機器、光学記憶機器、電磁記憶機器、半導体貯蔵機器、又は前記任意の適切な組み合わせであり得るが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例(非網羅的リスト)には、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピー(登録商標)ディスク、機械的エンコーディング機器、例えば命令が記憶されるパンチカード又は溝の突出構造、及び、前記の任意の適切な組み合わせを含む。ここで使用されるコンピュータ可読記憶媒体は、無線電波又は他の自由に伝播する電磁波、導波管又は他の伝送媒体を介して伝播する電磁波(例えば、光ファイバケーブルを介する光パルス)、又はワイヤーを介して伝送される電気信号などの、過渡信号自体として解釈されない。
【0152】
本明細書に記載のコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体から様々なコンピューティング/処理機器にダウンロードするか、又はインターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、及び/又はワイヤレスネットワークなどのネットワークを介して、外部コンピュータ又は外部記憶機器にダウンロードすることができる。ネットワークは、銅線伝送ケーブル、光ファイバ伝送、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイコンピュータ、及び/又はエッジサーバーを含み得る。各コンピューティング/処理機器における、ネットワークアダプタカード又はネットワークインターフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、前記コンピュータ可読プログラム命令を転送して、各コンピューティング/処理機器におけるコンピュータ可読記憶媒体に記憶される。
【0153】
本開示の操作を実行するために使用されるコンピュータプログラム命令は、アセンブリ命令、命令セットアーキテクチャ(ISA)命令、機械命令、機械関連命令、マイクロコード、ファームウェア命令、ステータス設定データ、又は1つ又は複数のプログラミング言語の任意の組み合わせで記述される、ソースコード又はオブジェクトコードであり得、前記プログラミング言語は、Smalltalk、C++など、対象指向のプログラミング言語、及び「C」言語又は同様のプログラミング言語など、従来の手続き型プログラミング言語とを含む。コンピュータ可読プログラム命令は、完全にユーザのコンピュータで実行でき、部分的にユーザのコンピュータで実行でき、スタンドアロンパッケージとして実行でき、ユーザのコンピュータで一部、リモートコンピュータで一部実行でき、又は、完全にリモートコンピュータ又はサーバーで実行できる。リモートコンピュータに関するシナリオにおいて、リモートコンピュータは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む、任意の種類のネットワークを介して、ユーザのコンピュータにアクセスでき、又は、リモートコンピュータにアクセスできる(例えば、インターネットサービスプロバイダーを使用してインターネットを介してアクセスする)。いくつかの実施例において、コンピュータ可読プログラム命令のステータス情報を使用することによって、プログラマブルロジック回路、フィールドプログラマブルゲートアレイ(FPGA)、又はプログラマブルロジックアレイ(PLA)などの電子回路を、パーソナライズにスタマイズし、前記電子回路は、コンピュータ可読プログラム命令を実行して、本開示の様々な態様を実現することができる。
【0154】
本明細書では、本開示の実施例による方法、装置(システム)、及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照して本開示の様々な態様を説明する。フローチャート及び/又はブロック図の各ブロック、及びフローチャート及び/又はブロック図内の各ブロックの組み合わせは、コンピュータ可読プログラム命令によって実現されることを理解されたい。
【0155】
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、固有コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサに提供することができ、それにより、デバイスが作成され、これらの命令が、コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサによって実行されるとき、フローチャート及び/又はブロック図内の1つ又は複数のブロックの指定される機能/アクションを実現させる。これらのコンピュータ可読プログラム命令を、コンピュータ可読記憶媒体に記憶することもあり得、これらの命令は、コンピュータ、プログラマブルデータ処理装置及び/又は他の機器を特定の方式で作業するようにし、従って、命令が記憶されるコンピュータ可読媒体は、フローチャート及び/又はブロック図内の1つ又は複数のブロックの指定される機能/アクションを実現する様々な態様の命令を含む製造品を含む。
【0156】
コンピュータ可読プログラム命令を、コンピュータ、他のプログラマブルデータ処理装置、又は他の機器にロードすることもでき、コンピュータ、他のプログラマブルデータ処理装置、又は他の機器で一連の操作ステップを実行して、コンピュータ実現のプロセスを生成させ、これにより、コンピュータ、他のプログラマブルデータ処理装置、又は他の機器で実行する命令を、フローチャート及び/又はブロック図内の1つ又は複数のブロックの指定される機能/アクションを実現させる。
【0157】
図面におけるプロセス図及びブロック図は、本開示の複数の実施例によるシステム、方法及びコンピュータプログラム製品の実現可能なアーキテクチャ、機能、及び操作を示す。この点について、フローチャート又はブロック図内の各ブロックは、1つのモジュール、プログラムセグメント、又は命令の一部を表すことができ、前記モジュール、プログラムセグメント、又は命令の一部は、1つ又は複数の指定される論理機能を実現するために使用される実行可能な命令を含む。いくつかの代替実現において、ブロックのマークされる機能は、図面でマークされる順序とは異なる順序で発生することもできる。例えば、関する機能によって、2つの連続するブロックは、実際に基本的に並行して実行でき、時には逆の順序で実行できる。ブロック図及び/又はフローチャート中の各ブロック、及びブロック図及び/又はフローチャートのブロックの組み合わせは、指定される機能又はアクションを実行する、専用のハードウェアベースのシステムによって実現されるか、又は、ハードウェアとコンピュータ命令の組み合わせを使用して、実現されることもできることを留意する必要がある。
【0158】
以上、本開示の各実施例を説明したが、以上の説明は、例示的なものに過ぎず、網羅的ではなく、開示された各実施例に限定されない。説明される各実施例の範囲及び思想から逸脱してない場合は、当業者にとって、多くの修正及び変更は明らかである。本明細書で使用される用語の選択は、各実施例の原理、実際の適用、又は市場における技術の改善を最もよく説明するか、又は、当業者が、本明細書で開示される各実施例を理解することができるようにすることを意図する。
図1
図2
図3
図4
図5