IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 高麗大学校産学協力団の特許一覧

特許7598173テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法
<>
  • 特許-テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法 図1
  • 特許-テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法 図2
  • 特許-テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法 図3
  • 特許-テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法 図4
  • 特許-テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法 図5
  • 特許-テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法 図6
  • 特許-テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法 図7
  • 特許-テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法 図8
  • 特許-テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法 図9
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-03
(45)【発行日】2024-12-11
(54)【発明の名称】テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法
(51)【国際特許分類】
   G06T 5/70 20240101AFI20241204BHJP
   G06T 1/40 20060101ALI20241204BHJP
   H04N 23/60 20230101ALI20241204BHJP
   H04N 5/213 20060101ALI20241204BHJP
【FI】
G06T5/70
G06T1/40
H04N23/60 500
H04N5/213
【請求項の数】 16
(21)【出願番号】P 2023146078
(22)【出願日】2023-09-08
(65)【公開番号】P2024085374
(43)【公開日】2024-06-26
【審査請求日】2023-09-08
(31)【優先権主張番号】10-2022-0174325
(32)【優先日】2022-12-14
(33)【優先権主張国・地域又は機関】KR
(31)【優先権主張番号】10-2023-0033553
(32)【優先日】2023-03-14
(33)【優先権主張国・地域又は機関】KR
(73)【特許権者】
【識別番号】314000442
【氏名又は名称】高麗大学校産学協力団
【氏名又は名称原語表記】KOREA UNIVERSITY RESEARCH AND BUSINESS FOUNDATION
【住所又は居所原語表記】145, Anam-ro Seongbuk-gu Seoul 02841, Republic of Korea
(74)【代理人】
【識別番号】100083138
【弁理士】
【氏名又は名称】相田 伸二
(74)【代理人】
【識別番号】100189625
【弁理士】
【氏名又は名称】鄭 元基
(74)【代理人】
【識別番号】100196139
【弁理士】
【氏名又は名称】相田 京子
(74)【代理人】
【識別番号】100199004
【弁理士】
【氏名又は名称】服部 洋
(72)【発明者】
【氏名】ジョン ウォンキ
(72)【発明者】
【氏名】イ カンガム
【審査官】伊知地 和之
(56)【参考文献】
【文献】中国特許出願公開第113327199(CN,A)
【文献】中国特許出願公開第113222819(CN,A)
【文献】Lee Wooseok et al.,“AP-BSN: Self-Supervised Denoising for Real-World Images via Asymmetric PD and Blind-Spot Network”,2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)[online],IEEE,2022年,p.17704-17713,[検索日 2024.7.2], インターネット:<URL:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9878719>,DOI: 10.1109/CVPR52688.2022.01720
(58)【調査した分野】(Int.Cl.,DB名)
G06T 1/00 - 1/40
G06T 3/00 - 5/94
H04N 5/14 - 5/213
H04N 23/00
H04N 23/40 - 23/76
H04N 23/80 - 23/82
H04N 23/90 - 23/959
CSDB(日本国特許庁)
(57)【特許請求の範囲】
【請求項1】
ノイズを含む原画像を受信する受信部と、
前記原画像にピクセルシャッフルダウンサンプリング(PD:Pixel-shuffle Down-sampling)を行って、少なくとも1枚以上のダウンサンプリングされた画像を生成するPD部と、
前記原画像と前記ダウンサンプリングされた画像からそれぞれノイズを除去し、前記原画像の形状を復元した少なくとも1枚以上の予測画像を生成する予測画像生成部と、
前記予測画像と前記原画像を基にした少なくとも1つ以上の損失関数に基づいて、前記予測画像生成部を最適化学習させる学習部と、
を備える、ノイズの除去装置。
【請求項2】
前記PD部は、
少なくとも1つ以上のストライドファクター(stride factor)に従って前記原画像から複数枚の前記ダウンサンプリングされた画像を生成して前記原画像のデータを増強させるものである、請求項1に記載のノイズの除去装置。
【請求項3】
前記PD部は、
ランダムに選択された変換行列を用いる順序-変異PD(order-variant PD)を行い、
前記変換行列は、サンプリング順序に従ってシャッフルさせるものである、請求項2に記載のノイズの除去装置。
【請求項4】
前記予測画像生成部は、
前記原画像と前記ダウンサンプリングされた画像からノイズを除去する第1のネットワークと、
互いに異なるストライドファクターに従って生成された複数枚のダウンサンプリングされた画像からノイズを除去する第2のネットワークと、
前記第1のネットワークと前記第2のネットワークからのノイズの除去された画像から前記原画像の形状を復元して前記予測画像を生成する復元部と、
を備える、請求項2に記載のノイズの除去装置。
【請求項5】
前記学習部は、
前記第2のネットワークの自体損失を定義する第1の損失関数と、
前記第1のネットワークの残余ノイズ学習(residual noise learning)をサポートするための第2の損失関数と、
前記第1のネットワークと前記第2のネットワークからの予測画像との間の相互類似度を高めるための第3の損失関数と、
前記第1のネットワークからの予測画像の分布を制限するための第4の損失関数に基づいて、前記第1のネットワークと前記第2のネットワークを学習させるものである、請求項4に記載のノイズの除去装置。
【請求項6】
前記第1の損失関数は、
前記第2のネットワークからの予測画像と前記原画像との差から前記第2のネットワークの自体損失を定義するものである、請求項5に記載のノイズの除去装置。
【請求項7】
前記第2の損失関数は、
擬似ノイズマップ(pseudo-noise map)と前記第1のネットワークからの予測画像との差として定義されるが、
前記擬似ノイズマップは、前記原画像と前記第2のネットワークからの予測画像との差から生成されたものであり、
前記第1のネットワークからの予測画像は、前記原画像からの予測画像である、請求項5に記載のノイズの除去装置。
【請求項8】
前記第3の損失関数は、
前記第1のネットワークからの予測画像と前記第2のネットワークからの予測画像との間の低周波特徴の類似度を高めるために、
前記原画像と前記第1のネットワークからの予測画像との差分画像と前記第2のネットワークからの予測画像との差分値に基づいて定義され、
前記第1のネットワークと前記第2のネットワークからの予測画像は、同一のストライドファクターに従ってダウンサンプリングされた画像からの予測画像である、請求項5に記載のノイズの除去装置。
【請求項9】
前記第4の損失関数は、
前記第1のネットワークからの予測画像のノイズ分布が前記原画像のノイズ分布に近づくように、しきい値よりも高い大きさを有するノイズをピーナライズ(penalizing)するノイズ先行損失(noise prior loss)として定義されるものであり、
前記第1のネットワークからの予測画像は、前記原画像からの予測画像である、請求項5に記載のノイズの除去装置。
【請求項10】
ノイズを含む原画像を受信するステップと、
前記原画像にピクセルシャッフルダウンサンプリング(PD:Pixel-shuffle Down-sampling)を行って、少なくとも1枚以上のダウンサンプリングされた画像を生成するステップと、
前記原画像と前記ダウンサンプリングされた画像からそれぞれノイズを除去し、前記原画像の形状を復元した少なくとも1枚以上の予測画像を予測画像生成部で生成するステップと、
前記予測画像と前記原画像を基にした少なくとも1つ以上の損失関数に基づいて、前記予測画像生成部を最適化学習させるステップと、
を含む、ノイズの除去方法。
【請求項11】
前記予測画像を生成するステップは、
第1のネットワークを介して前記原画像と前記ダウンサンプリングされた画像からノイズを除去するステップと、
第2のネットワークを介して互いに異なるストライドファクターに従って生成された複数枚のダウンサンプリングされた画像からノイズを除去するステップと、
復元部を介して前記第1のネットワークと前記第2のネットワークからのノイズの除去された画像から前記原画像の形状を復元して前記予測画像を生成するステップと、
を含む、請求項10に記載のノイズの除去方法。
【請求項12】
前記予測画像生成部を最適化学習させるステップは、
前記第2のネットワークの自体損失を定義する第1の損失関数と、
前記第1のネットワークの残余ノイズ学習(residual noise learning)をサポートするための第2の損失関数と、
前記第1のネットワークと前記第2のネットワークからの予測画像との間の相互類似度を高めるための第3の損失関数と、
前記第1のネットワークからの予測画像の分布を制限するための第4の損失関数に基づいて、前記第1のネットワークと前記第2のネットワークを学習させるステップと、
を含む、請求項11に記載のノイズの除去方法。
【請求項13】
前記第1の損失関数は、
前記第2のネットワークからの予測画像と前記原画像との差から前記第2のネットワークの自体損失を定義するものである、請求項12に記載のノイズの除去方法。
【請求項14】
前記第2の損失関数は、
擬似ノイズマップ(pseudo-noise map)と前記第1のネットワークからの予測画像との差として定義されるが、
前記擬似ノイズマップは、前記原画像と前記第2のネットワークからの予測画像との差から生成されたものであり、
前記第1のネットワークからの予測画像は、前記原画像からの予測画像である、請求項12に記載のノイズの除去方法。
【請求項15】
前記第3の損失関数は、
前記第1のネットワークからの予測画像と前記第2のネットワークからの予測画像との間の低周波特徴の類似度を高めるために、
前記原画像と前記第1のネットワークからの予測画像との差分画像と前記第2のネットワークからの予測画像との差分値に基づいて定義され、
前記第1のネットワークと前記第2のネットワークからの予測画像は、同一のストライドファクターに従ってダウンサンプリングされた画像からの予測画像である、請求項12に記載のノイズの除去方法。
【請求項16】
前記第4の損失関数は、
前記第1のネットワークからの予測画像のノイズ分布が前記原画像のノイズ分布に近づくように、しきい値よりも高い大きさを有するノイズをピーナライズ(penalizing)するノイズ先行損失(noise prior loss)として定義されるものであり、
前記第1のネットワークからの予測画像は、前記原画像からの予測画像である、請求項12に記載のノイズの除去方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、テクスチャーの保存のための自己残差学習に基づく自己監督型ブラインド雑音装置及び方法に関し、より詳細には、画像を取得する過程において生じるノイズを除去するための損失関数を基にしたノイズ除去モデル学習及び推論方法を利用するノイズの除去装置及び方法に関する。
【背景技術】
【0002】
従来の自己監督型ブラインドノイズ除去技術(self-supervised blind denoising)は、空間相関があるノイズの損傷によって、実際の画像を見たときに品質に劣っていた。最近には、このようなノイズの空間相関を取り除くために、ピクセルシャッフルダウンサンプリング(PD:Pixel-shuffle Down-sampling)が提案されている。
【0003】
最近の非対称PDとブラインドスポットネットワーク(BSN)とを組み合わせた研究は、自己監督型ブラインドノイズの除去が実際のノイズ画像に適用可能であるということを成功的に裏付けている。
【0004】
しかしながら、BSNのPDに基づく推論は、ダウンサンプリングされた画像において高周波細部情報(例えば、周縁部)が破壊されるため、テスト段階(デノイジング段階)においてテクスチャーの細部情報を劣化させることが懸念される。
【0005】
このような問題を解決するために、テクスチャー情報を保持するようにPDプロセスなしにノイズを除去することが可能なモデルが求められる。また、全体の性能を向上させるために順序-変異PDの制約条件、ノイズに関する事前知識に基づく損失関数及びPDを用いないための新たな推論体系が求められる。
【先行技術文献】
【特許文献】
【0006】
【文献】大韓民国公開特許第10-2022-0167824号公報(2022.12.22)
【発明の概要】
【発明が解決しようとする課題】
【0007】
本発明は、上記のような問題を解決するために案出されたものであって、本発明の目的は、原画像のテクスチャー情報を保持するようにテスト段階においてPDプロセスなしにノイズを除去するためにノイズ画像だけでノイズ学習及び除去を行うことが可能なモデルを学習する方法を提供することにある。
【課題を解決するための手段】
【0008】
上記の目的を達成するための本発明の実施形態のうちの第1の側面によるノイズの除去装置は、ノイズを含む原画像を受信する受信部と、前記原画像にピクセルシャッフルダウンサンプリング(PD:Pixel-shuffle Down-sampling)を行って、少なくとも1枚以上のダウンサンプリングされた画像を生成するPD部と、前記原画像と前記ダウンサンプリングされた画像からそれぞれノイズを除去し、前記原画像の形状を復元した少なくとも1枚以上の予測画像を生成する予測画像生成部と、前記予測画像と前記原画像を基にした少なくとも1つ以上の損失関数に基づいて、前記予測画像生成部を最適化学習させる学習部と、を備えていてもよい。
【0009】
また、前記PD部は、少なくとも1つ以上のストライドファクター(stride factor)に従って前記原画像から複数枚の前記ダウンサンプリングされた画像を生成して前記原画像のデータを増強させるものであってもよい。
【0010】
さらに、前記PD部は、ランダムに選択された変換行列を用いる順序-変異PD(order-variant PD)を行い、前記変換行列は、サンプリング順序に従ってシャッフルさせるものであってもよい。
【0011】
さらにまた、前記予測画像生成部は、前記原画像と前記ダウンサンプリングされた画像からノイズを除去する第1のネットワークと、互いに異なるストライドファクターに従って生成された複数枚のダウンサンプリングされた画像からノイズを除去する第2のネットワークと、前記第1のネットワークと前記第2のネットワークからのノイズの除去された画像から前記原画像の形状を復元して前記予測画像を生成する復元部と、を備えていてもよい。
【0012】
さらにまた、前記学習部は、前記第2のネットワークの自体損失を定義する第1の損失関数と、前記第1のネットワークの残余ノイズ学習(residual noise learning)をサポートするための第2の損失関数と、前記第1のネットワークと前記第2のネットワークからの予測画像との間の相互類似度を高めるための第3の損失関数と、前記第1のネットワークからの予測画像の分布を制限するための第4の損失関数に基づいて、前記第1のネットワークと前記第2のネットワークを学習させるものであってもよい。
【0013】
さらにまた、前記第1の損失関数は、前記第2のネットワークからの予測画像と前記原画像との差から前記第2のネットワークの自体損失を定義するものであってもよい。
【0014】
さらにまた、前記第2の損失関数は、擬似ノイズマップ(pseudo-noise map)と前記第1のネットワークからの予測画像との差として定義されるが、前記擬似ノイズマップは、前記原画像と前記第2のネットワークからの予測画像との差から生成されたものであり、前記第1のネットワークからの予測画像は、前記原画像からの予測画像であってもよい。
【0015】
さらにまた、前記第3の損失関数は、前記第1のネットワークからの予測画像と前記第2のネットワークからの予測画像との間の低周波特徴の類似度を高めるために、前記原画像と前記第1のネットワークからの予測画像との差分画像と前記第2のネットワークからの予測画像との差分値に基づいて定義され、前記第1のネットワークと前記第2のネットワークからの予測画像は、同一のストライドファクターに従ってダウンサンプリングされた画像からの予測画像であってもよい。
【0016】
さらにまた、前記第4の損失関数は、前記第1のネットワークからの予測画像のノイズ分布が前記原画像のノイズ分布に近づくように、しきい値よりも高い大きさを有するノイズをピーナライズ(penalizing)するノイズ先行損失(noise prior loss)として定義されるものであり、前記第1のネットワークからの予測画像は、前記原画像からの予測画像であってもよい。
【0017】
本発明の実施形態のうちの第2の側面によるノイズの除去方法は、ノイズを含む原画像を受信するステップと、前記原画像にピクセルシャッフルダウンサンプリング(PD:Pixel-shuffle Down-sampling)を行って、少なくとも1枚以上のダウンサンプリングされた画像を生成するステップと、前記原画像と前記ダウンサンプリングされた画像からそれぞれノイズを除去し、前記原画像の形状を復元した少なくとも1枚以上の予測画像を生成するステップと、前記予測画像と前記原画像を基にした少なくとも1つ以上の損失関数に基づいて、前記予測画像生成部を最適化学習させるステップと、を含んでいてもよい。
【0018】
また、前記予測画像を生成するステップは、第1のネットワークを介して前記原画像と前記ダウンサンプリングされた画像からノイズを除去するステップと、第2のネットワークを介して互いに異なるストライドファクターに従って生成された複数枚のダウンサンプリングされた画像からノイズを除去するステップと、復元部を介して前記第1のネットワークと前記第2のネットワークからのノイズの除去された画像から前記原画像の形状を復元して前記予測画像を生成するステップと、を含んでいてもよい。
【0019】
また、前記予測画像生成部を最適化学習させるステップは、前記第2のネットワークの自体損失を定義する第1の損失関数と、前記第1のネットワークの残余ノイズ学習(residual noise learning)をサポートするための第2の損失関数と、前記第1のネットワークと前記第2のネットワークからの予測画像との間の相互類似度を高めるための第3の損失関数と、前記第1のネットワークからの予測画像の分布を制限するための第4の損失関数に基づいて、前記第1のネットワークと前記第2のネットワークを学習させるステップと、を含んでいてもよい。
【0020】
さらに、前記第1の損失関数は、前記第2のネットワークからの予測画像と前記原画像との差から前記第2のネットワークの自体損失を定義するものであってもよい。
【0021】
さらにまた、前記第2の損失関数は、擬似ノイズマップ(pseudo-noise map)と前記第1のネットワークからの予測画像との差として定義されるが、前記擬似ノイズマップは、前記原画像と前記第2のネットワークからの予測画像との差から生成されたものであり、前記第1のネットワークからの予測画像は、前記原画像からの予測画像であってもよい。
【0022】
さらにまた、前記第3の損失関数は、前記第1のネットワークからの予測画像と前記第2のネットワークからの予測画像との間の低周波特徴の類似度を高めるために、前記原画像と前記第1のネットワークからの予測画像との差分画像と前記第2のネットワークからの予測画像との差分値に基づいて定義され、前記第1のネットワークと前記第2のネットワークからの予測画像は、同一のストライドファクターに従ってダウンサンプリングされた画像からの予測画像であってもよい。
【0023】
さらにまた、前記第4の損失関数は、前記第1のネットワークからの予測画像のノイズ分布が前記原画像のノイズ分布に近づくように、しきい値よりも高い大きさを有するノイズをピーナライズ(penalizing)するノイズ先行損失(noise prior loss)として定義されるものであり、前記第1のネットワークからの予測画像は、前記原画像からの予測画像であってもよい。
【発明の効果】
【0024】
上述した本発明の一側面によれば、ノイズ画像だけでノイズ除去モデルを学習することができ、最新の方法に比べてテクスチャーのような高周波領域の特性を効果的に修復し、ピクセル単位のノイズのみならず、空間相関があるノイズまでも除去することが可能である。
【図面の簡単な説明】
【0025】
図1】本発明の一実施形態によるノイズの除去装置の概略的な構成を示すブロック図である。
図2】本発明の一実施形態による予測画像生成部の概略的な構成を示すブロック図である。
図3】本発明の一実施形態による原画像のデータを増強させる従来の方法を説明する図である。
図4】本発明の一実施形態による原画像のデータを増強させる本発明による方法を説明する図である。
図5】本発明の一実施形態による予測画像生成部の学習過程を示す図である。
図6】本発明の一実施形態によるノイズ除去モデルのノイズの除去過程を示す図である。
図7】本発明の一実施形態によるノイズの除去装置が学習する各ステップを示すフローチャートである。
図8】本発明の一実施形態によるノイズの除去能を示す図表である。
図9】本発明の一実施形態によるノイズの除去方法のノイズの除去結果を示す図である。
【発明を実施するための形態】
【0026】
後述する本発明に関する詳しい説明は、本発明が実施されることが可能な特定の実施形態を例として示す添付図面を参照する。これらの実施形態は、当業者が本発明を実施できるのに十分なように詳しく説明される。本発明の様々な実施形態は、互いに異なるものの、相互排他的である必要はないということを理解されたい。例えば、ここに記載されている特定の形状、構造及び特性は、一実施形態に関連して本発明の精神及び範囲を逸脱しないつつ、他の実施形態として実現され得る。また、それぞれの開示された実施形態内の個別的な構成要素の位置または配置は、本発明の精神及び範囲を逸脱しないつつ変更可能であるということを理解されたい。したがって、後述する詳しい説明は限定的な意味として取ろうとするものではなく、本発明の範囲は、適切に説明されれば、その請求項が主張するものと均等なあらゆる範囲と併せて添付された請求項によってのみ限定される。図中、類似の参照符号は、色々な側面にわたって同一もしくは類似の機能を指す。
【0027】
以下では、添付図面を参照して本発明の好ましい実施形態についてさらに詳しく説明する。
【0028】
図1は、本発明の一実施形態によるノイズの除去装置100の概略的な構成を示すブロック図であり、図2は、本発明の一実施形態による予測画像生成部130の概略的な構成を示すブロック図である。
【0029】
図1を参照すると、ノイズの除去装置100は、受信部110、PD部120、予測画像生成部130及び学習部140を備えていてもよい。
【0030】
実施形態において、受信部110は、ノイズを含む原画像を受信することができる。例えば、本発明における原画像は、生成された後に別途の圧縮が加えられなかったり、別途の装置またはサーバーに伝送されていない画像、すなわち、損失が生じていない画像を意味する場合がある。ノイズは、原画像に加えられる圧縮により生じるか、あるいは、画像が伝送されることにつれて生じる画像ピクセルの損傷された部分を意味する場合がある。本発明において説明する「画像」は、静止画、または動画を構成する単位画像(例えば、フレーム)を網羅する概念であり得る。
【0031】
実施形態において、PD部120は、原画像にピクセルシャッフルダウンサンプリング(PD:Pixel-shuffle Down-sampling)を行って、少なくとも1枚以上のダウンサンプリングされた画像を生成することができる。
【0032】
例えば、PD部120において行うPDは、ノイズを含む原画像を1枚以上のピクセルシャッフルされた画像に増強させる過程であって、具体的には、少なくとも1つ以上のストライドファクター(stride factor)に従って原画像から複数枚のダウンサンプリングされた画像を生成して、原画像のデータを増強させる過程を意味する場合がある。これについて、図3及び図4を参照して説明する。
【0033】
図3及び図4は、本発明の一実施形態による原画像のデータを増強させる従来の方法と本発明による方法をそれぞれ説明する図である。
【0034】
図3及び図4は、それぞれストライドファクターPDに対する順序-不変PD及び順序-変異PDの例を示す。
【0035】
まず、図3は、原画像のデータを増強させてダウンサンプリングされた画像を生成する従来のPD方法を示している。
【0036】
図3に示す従来の方法によるPDは、変換行列Iがある原画像に対するPDを示す。
【0037】
具体的には、図3に示す従来の方法によるPDは、空間相関があるノイズを含む原画像に対して、損失関数L(自己監督型損失)のみを用いてPDを行うことになる。
【0038】
これに関し、損失関数Lは、下記の数式1で表わすことができる。
【0039】
【数1】
【0040】
(式1中、xは、ノイズを含む原画像を示し、fは、BSNを示し、PDは、ストライドファクターs(s=5)を有するPD関数を示し、Iは、順序-不変PDに対する変換行列を示す。)
【0041】
従来の方法による順序-不変PDは、損失関数Lのみを用いて予め定義されたピクセルサンプリング順序を用いてダウンサンプリングされた画像を生成するため、限られた数の下位画像が生成される。例えば、図3に示すように、順序-不変PDは、4Х4入力画像から4枚の限られた数の2Х2下位画像を生成することができる。
【0042】
すなわち、従来の方法による順序-不変PDは、規則的にピクセルを抽出してダウンサンプリングされた画像を生成する方式であって、空間相関があるノイズを含む原画像に対して、損失関数L(自己監督型損失)のみを用いてPDを行うため、空間相関があるノイズを効果的に除去し難いという欠点がある。
【0043】
これに対し、本発明による順序-変異PDは、不規則的なピクセルに対してもPDを行う方式であり、これについては、図4を参照して説明する。
【0044】
図4は、原画像のデータを増強させてダウンサンプリングされた画像を生成する本発明による方法を示す図である。
【0045】
図4に示す本発明の方法によるPDは、ランダムに不規則的に生成された変換行列I∈Iを有する順序-変異PDを示す。
【0046】
図4に示すように、本発明は、ダウンサンプリングされた画像の枚数を増やすためにランダムに選択した変換行列Iを用いてサンプリング順序をシャッフルさせる順序-変異方式のPDであってもよい(ここで、変換行列は、サンプリング順序に従ってシャッフルさせるものであってもよい)。これによれば、本発明による順序-変異PDに用いられる損失関数Lは、下記の数式2のように変形可能である。
【0047】
【数2】
【0048】
(式2中、xは、ノイズを含む原画像を示し、fは、第2のネットワーク132であるBSNを示し、Iは、順序-変異PDに対する変換行列を示し、PDは、ストライドファクターs(s=5)を有するPD関数を示す。)
【0049】
本発明の方法による順序-変異PDは、不規則的なピクセルに対してもPDを行う方式であって、原画像を複数枚のダウンサンプリングされた画像に分割する過程が行われるため、ノイズの空間相関が消えてノイズ除去を非常に行い易くなるという特徴がある。また、本発明の方法によるPDは、様々な画像に対しても行われることができるので、画像の種類が制限的ではないという長所がある。
【0050】
本発明の順序-変異PDによるノイズの除去能をさらに高め、AP-BSN(非対称PD-BSN)の視覚的なアーティファクトを低減するために、従来には、R(Random-Replacing Refinement;ランダム置き換えリファインメント)という後処理方式が提案されていた。
【0051】
は、ピクセルごとのノイズ(すなわち、xから選択)を初期の予測f(x;I,PD)にランダムに置き換えて生成された色々な合成ノイズ画像から復元された画像の平均を示す。しかしながら、Rが繰り返されたノイズの除去を通じて復元された画像を過剰に滑らかにし過ぎるという傾向にあるため、テクスチャーの細部事項が損失される。この詳細については、図6を参照して後述する。
【0052】
図1に戻ると、実施形態において、予測画像生成部130は、原画像とダウンサンプリングされた画像からそれぞれノイズを除去し、原画像の形状を復元した少なくとも1枚以上の予測画像を生成することができる。予測画像を生成する予測画像生成部130の構成は、図2及び図5を参照して説明する。
【0053】
図2は、本発明の一実施形態による予測画像生成部130の概略的な構成を示すブロック図であり、図5は、本発明の一実施形態による予測画像生成部130の学習過程を示す図である。
【0054】
図2及び図5を参照すると、実施形態による予測画像生成部130は、予測画像230を生成するための第1のネットワーク131、第2のネットワーク132及び復元部133を備えていてもよい。具体的には、第1のネットワーク131は、原画像210とダウンサンプリングされた画像220からノイズを除去し、第2のネットワーク132は、互いに異なるストライドファクターに従って生成された複数枚のダウンサンプリングされた画像220からノイズを除去し、復元部133は、図5のフォワード(Forward)段階に示すように、第1のネットワーク131と第2のネットワーク132からのノイズの除去された画像から原画像210の形状を復元して予測画像230を生成することができる。
【0055】
一方、第2のネットワーク132は、最新のネットワークとは異なり、ネットワークの構造が限られていて、入力及び出力のピクセルの形態が独立していなければならないという特定の条件を満たしてはじめて、ネットワークが使用可能であるという特徴がある。
【0056】
これに対し、第1のネットワーク131は、そのような特定の条件を満たさなくてもネットワーク学習を使用することができ、PD過程もまた省略可能であるので、ノイズ学習能が向上することができる。学習過程においてPD過程が省略される場合、ノイズの除去過程においてもPD過程が省略可能であるので、結果的にノイズの除去能が向上することができる。
【0057】
また、予測画像230は、第1のネットワーク131により原画像210からノイズが除去されて生成される第1の予測画像231、ダウンサンプリングされた画像220から第1のネットワーク131によりノイズが除去されて生成される第2の予測画像232、互いに異なるストライドファクターに従って生成された複数枚のダウンサンプリングされた画像220から第2のネットワーク132によりノイズが除去されて生成される第3の予測画像233及び第4の予測画像234を備えていてもよい。
【0058】
具体的には、第1の予測画像231は、順序-変異PD過程が行われずに第1のネットワーク131により原画像210から検出されたノイズが除去されて生成される画像であってもよい。第2の予測画像232は、ストライドファクターPDに従って生成されたダウンサンプリングされた画像220から第1のネットワーク131により検出されたPDノイズが除去されて生成される画像であってもよい。第3の予測画像233は、ストライドファクターPDに従って生成されたダウンサンプリングされた画像220から第2のネットワーク132により検出されたPDノイズが除去されて生成される画像であってもよい。第4の予測画像234は、ストライドファクターPDに従って生成されたダウンサンプリングされた画像220から第2のネットワーク132により検出されたPDノイズが除去されて生成される画像であってもよい。
【0059】
すなわち、第1の予測画像231は、PDが行われていない原画像210に対して第1のネットワーク131によりノイズが除去され、原画像210の形状に復元(図5における「PD -1(・,・)」)された画像であってもよい。第2乃至第4の予測画像234は、原画像210にPD(図5における「PD(x,・)」)が行われて 第1及び第2のネットワーク132によりノイズが除去され、原画像210の形状に復元(図5における「PD -1(・,・)」)された画像であってもよい。第1乃至第4の予測画像234は、図5のフォワード段階に示す形状に生成されてもよい。
【0060】
実施形態において、図1及び図5を参照すると、学習部140は、予測画像230と原画像210による少なくとも1つ以上の損失関数に基づいて、予測画像生成部130を最適化学習させることができる。
【0061】
具体的には、学習部140は、第2のネットワーク132の自体損失を定義する第1の損失関数と、第1のネットワーク131の残余ノイズ学習(residual noise learning)をサポートするための第2の損失関数と、第1のネットワーク131と前記第2のネットワーク132からの予測画像230との間の相互類似度を高めるための第3の損失関数、及び第1のネットワーク131からの予測画像230の分布を制限するための第4の損失関数に基づいて、第1のネットワーク131と第2のネットワーク132を学習させることができる。
【0062】
これに関し、第1の損失関数Lは、第2のネットワーク132からの予測画像230である第3の予測画像233と原画像210との差から第2のネットワーク132の自体損失を定義する関数であってもよい。第1の損失関数が第1のネットワーク131の残余ノイズ学習に用いられる場合、別途のノイズ画像なしに自体的に生成するノイズ画像だけでノイズ学習が行えるようにサポートすることができる。ここで、第1の損失関数は、前記数式2のように定義可能である。すなわち、第1の損失関数は、本発明のPD過程において用いられる損失関数Lと同一の関数であってもよい。
【0063】
第2の損失関数Lは、擬似ノイズマップ(pseudo-noise map)と第1のネットワーク131からの予測画像230である第1の予測画像231との差として定義可能である。ここで、擬似ノイズマップは、原画像210と第2のネットワーク132から生成された予測画像230である第4の予測画像234との差から生成されてもよい。第2の損失関数は、下記の数式3のように定義可能である。
【0064】
【数3】
【0065】
(式3中、xは、原画像210を示し、
は、擬似ノイズマップを示し、
は、第1の予測画像231を示す。)
【0066】
第2の損失関数は、PD過程における過剰なダウンサンプリングによる学習-推論データ分布の不一致及びブラーリングアーティファクトの問題を解決することができる。ここで、主要な点は、PDダウンサンプリングされた画像220が学習段階において用いられる場合、実際のノイズの除去段階においても用いられなければならないということである。
【0067】
第2の損失関数において、Iを有する順序-不変PDは、第1のネットワーク131に対するアリアシングアーティファクトを極力抑えるのに使用可能であるというメリットがある。擬似ノイズマップは、空間相関がある実際の雑音とダウンサンプリングによるアリアシングアーティファクトを考慮することができる。本発明によれば、擬似ノイズマップは、第1のネットワーク131の予測画像230の生成に比べて、テクスチャーの復元品質がさらに向上しているということを確認した。
【0068】
他のメリットは、PDのみを用いて学習する従来のネットワークとは異なり、学習のためのデータである原画像210が高解像度のノイズ画像のみから構成されることができるということである。また、第1のネットワーク131のネットワーク構造には、J-不変量(J-invariant)特性が不要である。したがって、すべての最新の画像復元ネットワークアーキテクチャーを第1のネットワーク131に用いることができる。
【0069】
第3の損失関数Lovは、第1のネットワーク131からの予測画像230と第2のネットワーク132からの予測画像230との間の低周波特徴の類似度を高めるために、原画像210と第1のネットワーク131からの予測画像230との差分画像と第2のネットワーク132からの予測画像230との差分値に基づいて、次の数式4のように定義可能である。ここで、第1のネットワーク131からの予測画像230は、第2の予測画像232であり、第2のネットワーク132からの予測画像230は、第3の予測画像233であってもよい。また、第2の予測画像232と第3の予測画像233は、同一のストライドファクターPDに従ってダウンサンプリングされた画像220からの予測画像230であってもよい。
【0070】
【数4】
【0071】
(式4中、xは、ノイズを含む原画像210を示し、fは、第2のネットワーク132であるBSNを示し、I及びI’は、順序-変異PDに対する変換行列を示し、PDは、ストライドファクターs(s=5)を有するPD関数を示し、hは、第1のネットワーク131であるノイズ抽出子hを示し、
は、第3の予測画像233を示し、
は、第2の予測画像232を示す。)
【0072】
第4の損失関数Lnpは、第1のネットワーク131からの予測画像230のノイズ分布が原画像210のノイズ分布に近づくように、しきい値よりも高い大きさを有するノイズをピーナライズ(penalizing)するノイズ先行損失(noise prior loss)であって、次の数式5のように定義可能である。ここで、第1のネットワーク131からの予測画像230は、第1の予測画像231であってもよい。
【0073】
【数5】
【0074】
(式5中、xは、ノイズを含む原画像210を示し、
は、第1の予測画像231を示す。)
【0075】
提案された第1のネットワーク131(Noise Extractor h;ノイズ抽出子h)は、データ分布を一致させてノイズ除去品質を向上させるものの、特に、テクスチャーが豊富な画像においてテクスチャーの細部事項及び色合の変化が一部損失される。これは、第1のネットワーク131が第2の損失関数の実際のノイズのみならず、PDのアリアシングアーティファクトを過剰に適合化させるからである。このようなアリアシングアーティファクトは、テクスチャーの細部事項に寄与し、その大きさは、実際のノイズよりも大きいものと認められる。
【0076】
このため、テクスチャーの細部事項をさらに改善するために、第4の損失関数が提案可能である。第4の損失関数は、L(regularization term;正規化項)を用いて、第1のネットワーク131から生成される第1の予測画像231の分布を制限(すなわち、高い大きさのノイズにペナルティーを与える)することができる。このL正規化項は、ミニレイアウト及び色合軸に沿って平均のピクセルごとの絶対値を取って第2の損失関数の擬似ノイズマップの異常値を効果的に抑えることができる。
【0077】
結果的に、第1のネットワーク131と第2のネットワーク132に対する総損失関数は、次の数式6のように定義可能である。
【0078】
【数6】
【0079】
(式6中、ハイパーパラメーターλ、λ、λOV及びλnpは、第1乃至第4の損失関数の寄与重み付け値を示す。)
【0080】
学習部140は、第1乃至第4の損失関数に基づいて、第1のネットワーク131と第2のネットワーク132を学習させることができる。
【0081】
例えば、学習部140は、第3の予測画像233及び原画像210に第1の損失関数を適用し、第4の予測画像234、原画像210及び第1の予測画像231の間の差分値に第2の損失関数を適用し、第3の予測画像233及び擬似ノイズマップに第3の損失関数を適用し、第1の予測画像231に第4の損失関数を適用して、第1のネットワーク131及び第2のネットワーク132を学習させることにより、ノイズ除去モデルを生成することができる。
【0082】
図5は、本発明の一実施形態による予測画像生成部130の学習過程を示す図である。
【0083】
図5を参照すると、ノイズの除去装置100は、原画像210にピクセルシャッフルダウンサンプリングPDまたはPDを行って、少なくとも1枚以上のダウンサンプリングされた画像220を生成することができる。
【0084】
ノイズの除去装置100は、予測画像生成部130を介して、図5に示すフォワード段階のように、予測画像生成部130の第1のネットワーク131及び第2のネットワーク132を用いて、原画像210とダウンサンプリングされた画像220からそれぞれノイズを除去し、原画像210の形状を復元した少なくとも1枚以上の予測画像230を生成することができる。原画像210の形状を復元する過程は、ピクセルシャッフルダウンサンプリングに従ってノイズが除去された画像を再び原画像210の形状に復元する、図5に示すPD -1(・,・)過程を示し得る。
【0085】
ノイズの除去装置100は、学習部140を介して、図5に示すバックワード(Backward)段階のように、第1の損失関数乃至第4の損失関数、及び第1の予測画像231乃至第4の予測画像234と原画像210に基づいて、予測画像生成部130の第1のネットワーク131及び第2のネットワーク132を最適化学習させることができる。
【0086】
図5に示すバックワードの学習過程に従って全体の損失を極力抑えるように第1のネットワーク131及び第2のネットワーク132を学習した後、第1のネットワーク131及び第2のネットワーク132の構造的な限界によって基準線の学習結果に一部の視覚的なアーティファクトが残っている場合がある。このため、図5に示すノイズの除去過程が行われてもよい。
【0087】
図6は、本発明の一実施形態によるノイズ除去モデル310のノイズの除去過程を示す図である。
【0088】
従来の技術であるAP-BSNにおいて提案したR(ランダム置き換えリファインメント)手法は、視覚的なアーティファクトを緩和させる手法である。しかしながら、様々なノイズサンプルに対する多重予測を平均化すれば、コンテンツの類似性が増加し、テクスチャーの細部情報が減少する。また、Rの基準線は、テクスチャーの細部事項がPDダウンサンプリングにより低下されるという初期の予測に依存する。本発明においては、このようなRの欠点を解決するために、図5に示すノイズ除去モデル310であるPR(Progressively Random-Replacing Refinement;漸進的にランダム置き換えリファインメント)が提案可能である。
【0089】
図6を参照すると、本発明においてノイズ除去モデルとBSN131との予測結果のアンサンブルをする基礎推論モデルであるベースラインと、本発明によるノイズ除去モデル132とBSN131に用いられるPR方式が示されている。
【0090】
従来の方式の場合、ノイズの除去過程においても別途のPD過程が行われるため、ノイズの除去に伴うリソースの増加に伴い、結果物の品質が良好ではないのに対し、本発明によるノイズ除去モデル310のPRの場合、既にPD過程を経た画像を用いるため、別途のPD過程を省略することが可能であって、ランダム置き換え過程における出力物のテキストが押し潰されないので、出力物の高い品質を保証することができ、第2のネットワーク132から導き出される画像のストラクチャーアーティファクト(Structure artefact)を効果的に除去することができる。
【0091】
図6を参照すると、ノイズ除去モデル310がノイズを含む原画像210のノイズを除去する過程が示されている。
【0092】
具体的には、ノイズ除去モデル310は、ノイズを含む原画像210xが第1のネットワーク131に入力されれば、第1のネットワーク131を介して原画像210から第1の予測画像を除去し、原画像210の形状を復元した図5におけるx-h(x)画像であるpをランダム置き換え手法を用いて生成することができる。
【0093】
次いで、ノイズ除去モデル310は、生成されたpを第2のネットワーク132に入力してノイズの除去及びランダム置き換えを行ってpを生成し、生成されたpを第1のネットワーク131に入力することができる。最後に、ノイズ除去モデル310は、第1のネットワーク131を介してpに対するノイズを検出して除去し、ノイズの除去されたpとx-h(x)画像との平均化(Average)を行って最終的にノイズを除去することができる。
【0094】
図7は、本発明の一実施形態によるノイズの除去装置100が学習する各ステップを示すフローチャートである。
【0095】
本発明の一実施形態によるノイズの除去方法は、図1に示すノイズの除去装置100及び図2に示す予測画像生成部130と実質的に同一の構成上において行われるため、図1及び図2と同一の構成要素に対して同一の図面符号を付し、繰り返される説明は省略する。
【0096】
本発明のノイズの除去方法は、ノイズを含む原画像を受信するステップ(S10)、原画像にピクセルシャッフルダウンサンプリングを行って、少なくとも1枚以上のダウンサンプリングされた画像を生成するステップ(S20)、原画像とダウンサンプリングされた画像からそれぞれノイズを除去し、原画像の形状を復元した少なくとも1枚以上の予測画像を生成するステップ(S30)及び予測画像と原画像に基づく少なくとも1つ以上の損失関数に基づいて、予測画像生成部130を最適化学習させるステップ(S40)を含んでいてもよい。
【0097】
ノイズを含む原画像を受信するステップ(S10)は、外部のサーバーまたはデバイスからノイズを含む原画像が受信されるステップを含んでいてもよい。
【0098】
原画像にピクセルシャッフルダウンサンプリングを行って、少なくとも1枚以上のダウンサンプリングされた画像を生成するステップ(S20)は、少なくとも1つ以上のストライドファクター(stride factor)に従って原画像から複数枚の前記ダウンサンプリングされた画像を生成するステップを含んでいてもよい。
【0099】
原画像とダウンサンプリングされた画像からそれぞれノイズを除去し、原画像の形状を復元した少なくとも1枚以上の予測画像を生成するステップ(S30)は、第1のネットワーク131を介して原画像とダウンサンプリングされた画像からノイズを除去するステップ、第2のネットワーク132を介して互いに異なるストライドファクターに従って生成された複数枚のダウンサンプリングされた画像からノイズを除去するステップ及び復元部133を介して第1のネットワーク131と第2のネットワーク132からのノイズの除去された画像から原画像の形状を復元して予測画像を生成するステップを含んでいてもよい。
【0100】
予測画像と原画像を基にした少なくとも1つ以上の損失関数に基づいて、予測画像生成部130を最適化学習させるステップ(S40)は、第2のネットワーク132の自体損失を定義する第1の損失関数と、第1のネットワーク131の残余ノイズ学習(residual noise learning)をサポートするための第2の損失関数と、第1のネットワーク131と第2のネットワーク132からの予測画像との間の相互類似度を高めるための第3の損失関数、及び第1のネットワーク131からの予測画像の分布を制限するための第4の損失関数に基づいて、第1のネットワーク131と第2のネットワーク132を学習させるステップを含んでいてもよい。
【0101】
図8は、本発明の一実施形態によるノイズの除去能を示す図表であり、図9は、本発明の一実施形態によるノイズの除去方法のノイズの除去結果を示す図である。
【0102】
図8は、スマートフォン画像ノイズ除去データセット(SIDD:Smartphone Image Denoising Dataset)検証データセットに対する損失関数の切除研究結果を示す図表である。図8を参照すると、各列には、当該損失関数がない結果が表され、最高と次善には下線が引かれており、最高の結果は、太く表示されている。
【0103】
図8において、第2の損失関数Lを省略すれば、第3の損失関数Lovを用いたコンテンツ情報の保持以外には、第2のネットワークBSN fにおいて詳細情報ベースの学習がないため、全体的な性能の低下を示す。
【0104】
第3の損失関数Lovを省略すれば、ピーク信号対雑音比(PSNR:Peak Signal-to-Noise Ratio)及び構造類似度指数測定(SSIM: Structural Similarity Index Measure)の性能が向上するのに対し、学習済み知覚画像パッチ類似性(LPIPS:Learned Perceptual Image Patch Similarity)及び構造及び深部画像の構造とテクスチャーの類似性(DISTS:Deep Image Structure and Texture Similarity)においては最小限の性能の低下が観察される。
【0105】
これは、第3の損失関数Lovがコンテンツの類似性を促し、テクスチャー復元能の向上の代わりにさらに高いPSNR及びSSIMにつながるからである。
【0106】
第4の損失関数Lnpを省略すれば、損失の前に雑音がなければ、第2のネットワークBSN fの擬似ノイズマップに過剰な適合性が生じてLPIPS及びDISTSの結果がAP-BSNの結果に近づく。すなわち、第4の損失関数Lnpは、擬似ノイズマップにおいて第1のネットワーク(ノイズ抽出子h)がアリアシングアーティファクトを学習することを防いでテクスチャーの変形を成功的に低減することができる。
【0107】
追加的に、第1の損失関数Lと第3の損失関数Lovにおいて順序-変異PDプロセスを順序-不変PD(PDs(・,I))に置き換えれば、全体的な性能が低下する。
【0108】
図8に示す本研究結果によれば、本発明の予測画像生成部の最適化学習過程であるI2Vと基本的な学習過程を用いたとき、各損失関数が除外される場合に性能が部分的に劣化するという現象が現れるものの、すべての損失関数を使用し切ったとき、全体的に高い性能を示すということを確認することができる。
【0109】
図9は、本発明の一実施形態によるノイズの除去方法のノイズの除去結果を示す図である。
【0110】
図9に関連する実験において、I2Vの幅広い適応のために外部教育データセットなしに完全自己監督方式によりノイズの除去実験を構成した。この実験においては、ターゲットノイズ画像のみが使用可能であると仮定する。
【0111】
自己教師あり学習のアプローチ方式とペアをなしていない画像ノイズの除去方法の場合、SIDD-ミディアムデータセットを用いてノイズ除去器が(例えば、第1のネットワークまたは第2のネットワーク)全体の画像の実際のアプリケーションシナリオを仮定するように自己監督型方法を学習する。
【0112】
本発明による自己教師あり学習に基づく方法は、深層学習モデルを教育するために対象ノイズ画像を直接的に使用する。そうではなければ、監督型ノイズ除去またはペアリングされていない画像ノイズの除去方法は、他のデータセットに属するクリーンであり、しかも、ノイズの多い画像として学習される虞がある。互いに異なるデータセットは、対象ノイズ画像と比較してテクスチャーまたは構造の情報が異なる場合がある。本発明による方法が自己教師あり学習のアプローチ方式と比較してLPIPS及びDISTSの側面からみて 類似であるか、あるいは、さらに良好な性能を示す理由であると見られる。
【0113】
図9を参照すると、リストーマー(Restormer)は、自己教師あり学習に基づくノイズの除去方法であり、C2Nは、ペアをなしていないクリーンな画像のデータが必要であるアンペアド(unpaired)画像ノイズの除去方法であり、AP-BSNとI2Vは、ノイズ画像のみを使用した方法である。下記の数字の場合、左側からPSNR/SSIM/LPIPS/DISTSに対する性能を示す。
【0114】
図9から明らかなように、本発明によるI2Vは、すべてのメトリックに対する最先端自己監督型ノイズの除去方法のうち、その効果的な側面からみて最も高い効能を示している。また、最新の方法であるAP-BSNと比較して、遥かに良好なテクスチャーと良好なLPIPSとDISTSを得ることができる。
【0115】
このような本発明のノイズの除去方法は、様々なコンピューターの構成要素を通じて実行可能なプログラムコマンドの形態により実現されてコンピューターにて読み取り可能な記録媒体に記録可能である。前記コンピューターにて読み取り可能な記録媒体は、プログラムコマンド、データファイル、データ構造などを単独にてまたは組み合わせて含んでいてもよい。
【0116】
前記コンピューターにて読み取り可能な記録媒体に記録されるプログラムコマンドは、本発明のために特別に設計され、かつ構成されたものであってもよいし、あるいは、コンピューターソフトウェアの分野における当業者にとって公知となって使用可能なものであってもよい。
【0117】
コンピューターにて読み取り可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープなどの磁気媒体、コンパクトディスク(CD)による読み出し専用メモリー(CD-ROM:Compact Disc Read Only Memory)、デジタル多用途ディスク(DVD:Digital Versatile Disc)などの光記録媒体、フロプティカルディスク(floptical disk)などの磁気-光媒体(magneto-optical media)、及び読み出し専用メモリー(ROM:Read Only Memory)、ランダムアクセスメモリー(RAM:Random Access Memory)、フラッシュメモリーなどのプログラムコマンドを記憶しかつ実行するように特別に構成されたハードウェア装置が含まれる。
【0118】
プログラムコマンドの例には、コンパイラーにより作成されるもののような機械語コードのみならず、インタープリーターなどを用いてコンピューターにより起動可能な高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を行うために1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆もまた同様である。
【0119】
以上においては、本発明の様々な実施形態について図示及び説明したが、本発明は、上述した特定の実施形態に何ら限定されるものではなく、特許請求の範囲において請求する本発明の要旨から逸脱することなく、当該発明が属する技術分野において通常の知識を有する者により種々の変形実施が可能であるということはいうまでもなく、これらの変形された実施形態は、本発明の技術的思想や見通しから個別的に理解されてはならない。
【符号の説明】
【0120】
100 ノイズの除去装置
110 受信部
120 PD部
130 予測画像生成部
131 第1のネットワーク
132 第2のネットワーク
133 復元部
140 学習部
210 原画像
220 ダウンサンプリングされた画像
230 予測画像
231 第1の予測画像
232 第2の予測画像
233 第3の予測画像
234 第4の予測画像
310 ノイズ除去モデル
図1
図2
図3
図4
図5
図6
図7
図8
図9