IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社分子ロボット総合研究所の特許一覧

特許7583475超解像処理方法、超解像処理装置およびプログラム
<>
  • 特許-超解像処理方法、超解像処理装置およびプログラム 図1
  • 特許-超解像処理方法、超解像処理装置およびプログラム 図2
  • 特許-超解像処理方法、超解像処理装置およびプログラム 図3
  • 特許-超解像処理方法、超解像処理装置およびプログラム 図4
  • 特許-超解像処理方法、超解像処理装置およびプログラム 図5
  • 特許-超解像処理方法、超解像処理装置およびプログラム 図6
  • 特許-超解像処理方法、超解像処理装置およびプログラム 図7
  • 特許-超解像処理方法、超解像処理装置およびプログラム 図8
  • 特許-超解像処理方法、超解像処理装置およびプログラム 図9
  • 特許-超解像処理方法、超解像処理装置およびプログラム 図10
  • 特許-超解像処理方法、超解像処理装置およびプログラム 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B1)
(11)【特許番号】
(24)【登録日】2024-11-06
(45)【発行日】2024-11-14
(54)【発明の名称】超解像処理方法、超解像処理装置およびプログラム
(51)【国際特許分類】
   G01Q 30/04 20100101AFI20241107BHJP
   G06T 3/4046 20240101ALI20241107BHJP
   G06T 3/4053 20240101ALI20241107BHJP
   G06T 1/00 20060101ALI20241107BHJP
   G01Q 60/24 20100101ALI20241107BHJP
【FI】
G01Q30/04
G06T3/4046
G06T3/4053
G06T1/00 290Z
G01Q60/24
【請求項の数】 5
(21)【出願番号】P 2023198727
(22)【出願日】2023-11-23
【審査請求日】2024-07-05
【国等の委託研究の成果に係る記載事項】(出願人による申告)2020年度、国立研究開発法人新エネルギー・産業技術総合開発機構「人と共に進化する次世代人工知能に関する技術開発事業」研究開発項目〔1〕「人と共に進化する AIシステムの基盤技術開発」委託研究、産業技術力強化法第17条の適用を受ける特許出願
【早期審査対象出願】
(73)【特許権者】
【識別番号】321014724
【氏名又は名称】株式会社分子ロボット総合研究所
(74)【代理人】
【識別番号】100120916
【弁理士】
【氏名又は名称】佐藤 壽見子
(72)【発明者】
【氏名】小長谷 明彦
(72)【発明者】
【氏名】葛谷 明紀
【審査官】前田 敏行
(56)【参考文献】
【文献】特表2020-529083(JP,A)
【文献】特開2022-013226(JP,A)
【文献】国際公開第2022/008667(WO,A1)
【文献】中国特許出願公開第114897693(CN,A)
(58)【調査した分野】(Int.Cl.,DB名)
G01Q 30/04
G06T 3/4046
G06T 3/4053
G06T 1/00
G01Q 60/24
(57)【特許請求の範囲】
【請求項1】
超解像処理を実行する方法であって、
顕微鏡で撮影した低解像度のリアル画像を取得するステップと、
異なる条件下でシミュレーションを実行してシミュレーション画像を作成するステップと、
前記リアル画像と前記シミュレーション画像とを訓練データとするニューラルネットワーク(以下、「NN」)の学習によって前記リアル画像よりも鮮明な高解像度画像を取得するステップと、からなり、
前記リアル画像は、
走査型プローブ顕微鏡(以下、「SPM」)好ましくは原子間力顕微鏡(以下、「AFM」)から取得したDNAの画像であり、
前記シミュレーション画像は、
誤差を含まないX線結晶構造データを基に仮想現実(以下、「VR」)のシステム上で作成した仮想DNAに対し、仮想SPMの径の異なる仮想探針により且つ異なる解像度で走査するシミュレーションを行って得た複数のシミュレーション画像であり、仮想低解像度画像および仮想高解像度画像が含まれることを特徴とする画像処理方法。
【請求項2】
複数の前記シミュレーション画像を訓練データとして、低解像度の画像を高解像度の画像に変換するように第1のNNを学習して、超解像処理をするステップと、
前記リアル画像と前記仮想低解像度画像とを訓練データとして、リアルな領域の画像とシミュレーションの領域の画像とがほぼ1対1に対応するように第2のNNを学習して、領域変換をするステップと、
前記リアルな領域の画像から領域変換によって生成された低解像度画像を、学習済の前記第1のNNに入力して高解像度画像を生成し、この生成された高解像度画像と前記リアル画像とができるだけ一致するように第3のNNを学習して、前記生成された高解像度画像を微調整するステップと、からなることを特徴とする請求項1に記載の画像処理方法。
【請求項3】
前記第1~第3のNNは、訓練データからデータを生成するジェネレータと、
生成したデータと訓練データとの近さを判定するディスクリミネータとを互いに敵対的に学習させる敵対的生成ネットワーク(以下、「GAN」)であることを特徴とする請求項2に記載の画像処理方法。
【請求項4】
顕微鏡で撮影した低解像度のリアル画像を取得する手段と、
異なる条件下でシミュレーションを実行することによってシミュレーション画像を作成する手段と、
前記リアル画像と前記シミュレーション画像とを訓練データとするニューラルネットワーク(以下、「NN」)の学習によって前記リアル画像よりも鮮明な高解像度画像を取得する手段と、を備え
前記リアル画像は、
走査型プローブ顕微鏡(以下、「SPM」)好ましくは原子間力顕微鏡(以下、「AFM」)から取得したDNAの画像であり、
前記シミュレーション画像は、
誤差を含まないX線結晶構造データを基に仮想現実(以下、「VR」)のシステム上で作成した仮想DNAに対し、仮想SPMの径の異なる仮想探針により且つ異なる解像度で走査するシミュレーションを行って得た複数のシミュレーション画像であり、仮想低解像度画像および仮想高解像度画像が含まれることを特徴とする超解像処理装置。
【請求項5】
コンピュータを
顕微鏡で撮影した低解像度のリアル画像を取得する手段と、
異なる条件下でシミュレーションを実行することによってシミュレーション画像を作成する手段と、
前記リアル画像と前記シミュレーション画像とを訓練データとするニューラルネットワーク(以下、「NN」)の学習によって前記リアル画像よりも鮮明な高解像度画像を取得する手段と、
して超解像処理を実行させ、
前記リアル画像は、
走査型プローブ顕微鏡(以下、「SPM」)好ましくは原子間力顕微鏡(以下、「AFM」)から取得したDNAの画像であり、
前記シミュレーション画像は、
誤差を含まないX線結晶構造データを基に仮想現実(以下、「VR」)のシステム上で作成した仮想DNAに対し、仮想SPMの径の異なる仮想探針により且つ異なる解像度で走査するシミュレーションを行って得た複数のシミュレーション画像であり、仮想低解像度画像および仮想高解像度画像が含まれることを特徴とするコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
走査型プローブ顕微鏡を用いて撮影した、低解像度の画像をニューラルネットワークと仮想現実とを組み合わせて、高解像度の画像に変換する超解像処理の方法、装置およびプログラムに関する。
【背景技術】
【0002】
原子間力顕微鏡(以下、「AFM」)をはじめとする走査型プローブ顕微鏡(以下、「SPM」)は、DNAやがん細胞などの微小な対象の表面形状を計測する装置である。AFM、SPMについては、既存の技術であり、特許文献1をはじめ関連する特許出願が多数あることから、詳細な説明は省略する。
SPMでDNA試料のような微小な対象物の画像を取得する場合、SPMの探針の径と走査の解像度によっては、図1に例示するようなぼやっとした画像しか得ることができず、主溝や副溝などの詳細を観察できないことがある。そこで、AFMによって複数の画像を取得し、これらを超解像処理(元の画像よりも鮮明な画像を生成する方法)によって高解像度の画像に変換することが試みられている。
【0003】
ところで、超解像処理は、SPM画像を対象とするものに限らず、画像処理の一般的な技術として、多数特許出願がなされている(特許文献2、特許文献3など)。
【先行技術文献】
【特許文献】
【0004】
【文献】WO2017/145381公報
【文献】WO2020/175446公報
【文献】特開2021-170284号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
超解像処理には、深層学習を用いて複数の画像から学習する手法があり、特許出願されているだけでなく、これに関する論文もすでに報告されている。ただ、これらの研究は、大量の顕微鏡画像データを重ね合わせて超解像処理する方法に偏っていて、画像データのノイズを完全に除去できないという原理的な限界がある。統計でいう「大数の法則」を応用するようなもので試行回数を増やせば平均値に近づくという原理を使っているのであるが、正規分布に近い誤差は取り除けない。図2は、複数の画像I1~I3を重ね合わせて、平均的な画像Jを得ることを示している。画像I1~I3はそれぞれノイズを含んでいるが、重ね合わせによってノイズが目立たない画像Jとなる。しかし、この方法では誤差を完全に除去することは原理的に不可能である。
【0006】
さらに、AFMをはじめとするSPMの必須部品である探針は高価な消耗品であり、そのうえSPMの操作には熟練を要するという問題がある。DNA表面の走査を水中で行うといった特有の操作法があり、操作に習熟していないと、画像らしきものを満足に得ることすら容易でない。ぼやっとした低解像度の画像を得ることさえ容易でない以上、深層学習に必要な複数の訓練データ(「学習データ」、「学習用データ」等も同義である)を得ることは現実的でない。
【0007】
このような問題に鑑み、本発明は低解像度のSPM画像が1枚だけしかなくても、誤差の無い高解像度画像を得ることを目的とする。
【課題を解決するための手段】
【0008】
上記の課題解決のために、本発明の画像処理方法は、
超解像処理を実行する方法であって、
顕微鏡で撮影した低解像度のリアル画像を取得するステップと、
異なる条件下でシミュレーションを実行してシミュレーション画像を作成するステップと、
前記リアル画像と前記シミュレーション画像とを訓練データとするニューラルネットワーク(以下、「NN」)の学習によって前記リアル画像よりも鮮明な高解像度画像を取得するステップと、からなることを特徴とする。
【0009】
本発明の画像処理方法において、前記リアル画像は、
走査型プローブ顕微鏡(以下、「SPM」)好ましくは原子間力顕微鏡(以下、「AFM」)から取得したDNAの画像であり、
前記シミュレーション画像は、
誤差を含まないX線結晶構造データを基に仮想現実(以下、「VR」)のシステム上で作成した仮想DNAに対し、仮想SPMの径の異なる仮想探針により且つ異なる解像度で走査するシミュレーションを行って得た複数のシミュレーション画像であって、仮想低解像度画像および仮想高解像度画像が含まれ
この処理方法は、複数の前記シミュレーション画像を訓練データとして、低解像度の画像を高解像度の画像に変換するように第1のNNを学習して、超解像処理をするステップと、
前記リアル画像と前記仮想低解像度画像とを訓練データとして、リアルな領域の画像とシミュレーションの領域の画像とがほぼ1対1に対応するように第2のNNを学習して、領域変換をするステップと、
前記リアルな領域の画像から領域変換によって生成された低解像度画像を、学習済の前記第1のNNに入力して高解像度画像を生成し、この生成された高解像度画像と前記リアル画像とができるだけ一致するように第3のNNを学習して、前記生成された高解像度画像を微調整するステップと、を実行するものであってもよい。
【0010】
前記第1~第3のNNは、訓練データからデータを生成するジェネレータと、
生成したデータと訓練データとの近さを判定するディスクリミネータとを互いに敵対的に学習させる敵対的生成ネットワーク(以下、「GAN」)であってもよい。
【発明の効果】
【0011】
SPMによって低解像度の画像が1枚得られたならば、このSPM画像から仮想的な高解像度画像を生成できる。
SPMの実際の操作を必要最小限とすることができるので、SPMの消耗品の使用に伴う高額な費用と、SPMの操作に高い習熟度が要求されるという2つの困難を軽減できる。
【図面の簡単な説明】
【0012】
図1】AFMのリアル画像を例示する図である。
図2】複数のAFMのリアル画像を重ね合わせて、平均的な画像を生成する従来の画像処理を説明する図である。
図3】本実施形態の機能概要を説明する図である。
図4】本実施形態のシステム構成およびブロック構成の図である。
図5】本実施形態の仮想の訓練データを得るために実行するシミュレーションを説明する図である。
図6】cycleGANの一般的な説明をするための図である。
図7】本実施形態の超解像処理を説明する図である。
図8】本実施形態の領域変換処理を説明する図である。
図9】本実施形態で用いる適正な入力画像サイズを説明する図である。
図10】本実施形態の高解像度AFM画像微調整処理を説明する図である。
図11図1に示すAFMのリアル画像を、超解像処理によって高解像度に変換した画像を示す図である。
【発明を実施するための形態】
【0013】
本発明の一実施の形態である超解像処理装置について、下記の順に説明する。
〔1.本実施形態の概要説明〕
〔2.超解像処理装置の構成〕
〔2-1.システム構成〕
〔2-2.機能ブロック構成〕
〔3.超解像処理装置の動作〕
〔3-1.AFMのリアル画像データの取得〕
〔3-2.シミュレーションによる訓練データの生成〕
〔3-3.AFMのリアル画像の超解像処理〕
〔3-3-1.cycleGANの一般的な説明〕
〔3-3-2.第1のcycleGANによる超解像処理〕
〔3-3-3.第2のcycleGANによる領域変換処理〕
〔3-3-4.第3のcycleGANによる高解像度AFM画像微調整処理〕
【0014】
〔1.本実施形態の概要説明〕
図3に従い、本実施形態の概要を説明する。
VRシステムで仮想DNAを作成し、これをシミュレーションして低解像度画像(VLI)と高解像度画像(VHI)を生成する。この画像VLIと画像VHIを訓練データとして、低解像度画像を高解像度画像に変換する第1のNN(本実施形態ではGANを使用するので、以下「GAN」ともいう)を学習する。
一方、第2のGANは、リアルAFM画像(RAI)と画像VLIとを訓練データとして、学習する。この学習によって最終的には、生成AFM画像(GAI)と画像VLIをほぼ1対1対応させ、画像RAIと仮想低解像度画像(GLI)をほぼ1対1に対応させる。この学習によって、画像RAIと画像GAI、および画像GLIと画像VLIとがほぼ一致する程度まで似ているならば、画像RAIと画像GLIとがほぼ一致する程度まで似ているとみなしてもよいことになる。
画像GLIが画像VLIとほぼ1対1対応しているならば、画像VLIと画像VHIとを訓練データとして学習した第1のGANの学習結果を利用して画像GLIから仮想高解像度AFM画像(GHI)を生成することができる。ここで第2のGANの学習結果によって画像RAIと1対1対応する画像GLIが生成され、生成された画像GLIと1対1対応する画像GHIが生成された。この画像GHIは画像RAIとほぼ一致する程度まで似ているとみなしてよいが、画像GHIの精度を一層高めるために、第3のGANを学習する。最終的には入力されたリアルAFM画像(RAI)とほぼ同一視できるような高解像度の画像GHIを得ることが目標なのである。
【0015】
図3において、太線の円で囲んだ画像が訓練データであり、それ以外はGANによって生成された画像である。
図3では、RAIをはじめ画像を英3文字で表現しているが、それぞれの意味は次のとおりである。
RAIは、「リアルAFM画像」(Real Afm Image)を意味する。
VLIは、「仮想低解像度画像」(Virtual Low-resolution Image)を意味する。
VHIは、「仮想高解像度画像」(Virtual High-resolutionImage)を意味する。
GAIは、「生成したAFM画像」(Generated Afm Image)を意味する。
GLIは、「生成した仮想低解像度AFM画像」(Generated Low-resolution Image)を意味する。
GHIは、「生成した仮想高解像度AFM画像」(Generated High-resolutionIImage)を意味する。
【0016】
〔2.超解像処理装置の構成〕
本実施形態の超解像処理装置の構成について、図面を参照しながら説明する。
【0017】
〔2-1.システム構成〕
図4に示すように、超解像処理装置1は、AFM2を使用して撮影したリアルな画像(RAI)3を通信回線を介して、あるいはUSBメモリなどの記憶媒体を介して入力データとする。本実施形態では、AFMを用いて取得した本物の画像を「リアルAFM画像」(RAI)といい、これに対して、VR(仮想現実)システム4によって作成された仮想DNAから、いろいろな条件下でのシミュレーションにより生成された画像を「シミュレーション画像」(VLIとVHI)という。
超解像処理装置1は、リアルなAFM画像(RAI)3と、生成されたシミュレーション画像(VLIとVHI)とを訓練データとして超解像処理を実行し、最終的にリアルなAFM画像(RAI)3を超解像処理した高解像度画像(GHI)7が生成される。
【0018】
〔2-2.機能ブロック構成〕
図4に示すように、超解像処理装置1の機能ブロックは、シミュレーション画像生成部11と、高解像度画像生成部12に大別される。これらの各部は、コンピュータプログラムをメモリ上に展開し、CPUが実行することにより実現される。超解像処理装置1は、記憶部、入出力部、通信インターフェース部なども備えるが、これらの図示および説明は省略する。
超解像処理装置1は、VRシステム4から、X線結晶構造データ5に基づいて作成された仮想DNAデータ6をシミュレーション画像(VLIとVHI)の取得に利用する。この仮想DNAデータ6に対して、シミュレーション画像生成部11はさまざまな条件下で走査シミュレーションを実行する。
高解像度画像生成部12は、第1のNNに相当する超解像処理部121と、第2のNNに相当する領域変換処理部122と、第3のNNに相当する高解像度AFM画像微調整処理部123とを備える。
【0019】
超解像処理部121は、シミュレーション低解像度画像(VLI)8とシミュレーション高解像度画像(VHI)9とが1対1となるように深層学習を行う。超解像処理部121での学習は、複数ある画像VLIから1枚取り出し、これと画像VHIを組み合わせた画像のペアを複数作り、各ペアを訓練データとする。ここで学習した結果は、高解像度AFM画像微調整処理部123でも利用される。
超解像処理装置1は、AFM2のリアルな画像(RAI)と、走査シミュレーションで取得したシミュレーション画像(VLIとVHI)とを訓練データとして、学習を行う。RAIとVLI・VHIは特性が異なる領域のデータであるため、領域変換処理が必要となる。そこで、領域変換処理部122が両領域の画像ができるだけ1対1に対応するように深層学習を行う。
図3に示すように、仮想低解像度AFM画像(GLI)を、超解像処理部121の事前学習結果を利用して仮想高解像度AFM画像(GHI)を生成する。この画像GHIは、画像RAIを超解像処理した結果であるが、画像RAIに一層似せるために微調整する。
【0020】
〔3.超解像処理装置の動作〕
超解像処理装置1の動作を、シミュレーション画像生成部11と、3種類のGANによる処理を中心に説明する。
【0021】
〔3-1.AFMのリアル画像データの取得〕
AFM2から超解像処理装置1は、通信ネットワークを介したりUSBメモリなどの記憶媒体を介したりしてリアルなAFM画像(RAI)を入力する。 この画像RAIは、直交するXY平面上の2次元画像であり、Z方向の情報は、濃淡であらわされる(図1参照)。入力された画像データは、超解像処理装置1の記憶部(図示せず)に格納する。なお、シミュレーション画像データ(VLI・VHI)や3種類のGANが生成した学習途中の画像データ(GLI,GAI,GHI)なども同様に記憶部に格納する。
【0022】
リアルなAFM画像(RAI)を高解像度に変換した画像を取得することが本発明の目的であるが、この画像RAIは教師無し学習の訓練データでもある。ただし、AFMから学習に必要な多数の画像が得られないので、これを補うためにシミュレーション画像(VLI・VHI)も訓練データとするのである。そこで、画像VLIと画像VHIの生成について次に説明する。
【0023】
〔3-2.シミュレーションによる訓練データの生成〕
dsDNA PDB fileすなわち、DNAの2重らせんのX線結晶構造データ5を格納したファイルから適宜DNAデータを取り出す。これをDNAを設計する既存のVRシステム4上で曲げたりねじったりして画像RAIと類似する形状とする。例えば、特開2023-107369で開示した技術では、ヘッドマウントディスプレイを着用して手指の動きだけで容易に仮想DNAデータ6を作成できる。この技術を用いれば、VRシステム上で自由に形状を変更できるのである。
【0024】
望ましい形状の仮想DNAが作成されたならば、様々に条件をかえてシミュレーションを行う。 条件の代表的なものは、実際のAFMをコンピュータプログラムで模した仮想AFMの仮想探針の先端の径(以下、「チップ径」という)と、走査時の解像度である。
シミュレーションの結果を図5に示す。図5の右側を見れば、チップ径を1nmから5nmに変化させたときの同じDNAモデルから生成される画像の太さ(幅)が変わるのがわかる。このAFMイメージに対して、解像度を0.1nm(high-resolution)から0.7nm(low-resolution)に変化させると、ぼやっと見えるAFMイメージを生成できる。図中、チップ径が1nmかつ解像度が0.1nmの画像が、VHIであり、それ以外の複数枚の画像がVLIである。高解像度画像VHIに、任意の1枚の低解像度画像VLIとを組み合わせて、1対の訓練データとする。
【0025】
実際のAFM2で径の異なる探針を変えたり、解像度を変えたりして複数のリアル画像データを取得することは費用や時間の点から無理がある。そこで、X線結晶構造データから画像RAIに似せた形状の仮想DNAをVRシステム上で作成し、これをさまざまな条件下で走査するシミュレーションを行うのである。
シミュレーションを利用すれば、例えば、AFM2の実際の探針のチップ径が2nmであったとしても、チップ径が1nmの仮想の探針で走査シミュレーションをすることで、2倍の周波数の成分も取得することが可能となるのである。
以下の説明において、リアルな訓練データとシミュレーションで作成された訓練データとが敵対する領域に存在するとみなして扱う。リアルな訓練データが属する領域を「リアル領域」、シミュレーションによって得られた訓練データが属する領域を「シミュレーション領域」と呼ぶものとする。
【0026】
〔3-3.AFMのリアル画像の超解像処理〕
AFMから取得したぼやっとしたリアル画像を高解像度の明瞭な画像に変換する処理について説明する。
【0027】
〔3-3-1.cycleGANの一般的な説明〕
上記の説明のとおり、超解像処理装置1では、教師無しタイプのNNであるGANを3種類用いる。GANは公知の技術なので詳しく説明するまでもないのであるが、後述する超解像処理装置1の動作の記述の便宜上、ここで要点を説明しておく。
なお、GAN(敵対的生成ネットワーク、Generative Adversarial Networks)にもさまざまな種類があるが、本実施形態ではcycleGANを利用する。
【0028】
GANは、ジェネレータとディスクリミネータという2種類のネットワークを含み構成され、主にプログラムモジュールとしてコンピュータに実装される。ただし、一部あるいは全部がハードウェアで実装されることもある。
訓練データからデータを生成するときに使用されるネットワークがジェネレータ(「生成器」、「生成モデル」なども同義)であり、所望のデータが生成されるまでパラメータを更新していかなくてはならない。これが、ジェネレータにとっての学習である。 教師無しなのでジェネレータによる生成データの適否は分からない。そのため、ディスクリミネータ(「識別器」、「識別モデル」なども同義)が訓練データからのデータであるかジェネレータが生成したデータであるか識別する。生成されたデータが訓練データとは異なると判定される(ジェネレータはディスクリミネータに見破られる)とジェネレータはディスクリミネータを欺くように学習する。するとディスクリミネータは欺かれないように更に深層学習による学習をすすめる。このように、ジェネレータとディスクリミネータとが互いに敵対的な学習を繰り返すことによって、ジェネレータとディスクリミネータのいずれもがその能力を高め、ジェネレータが訓練データに似ているデータを生成できるようになることを学習の目標とする。
【0029】
ここで、図6を参照して簡単にcycleGANの説明をする。
X領域からY領域へのジェネレータをGとする。X領域の1つの元xを入力データとしてジェネレータGがY領域の元G(x)を生成する。
一方、Y領域からX領域へのジェネレータをFとする。Y領域の1つの元G(x)を入力データとしてジェネレータFがX領域の元F((G(x))を生成する(図6(1))。
X領域側のディスクリミネータD1は、X領域の元xと元F((G(x))とを入力データとして、元F((G(x))が元xと似ているかどうかを判定する。ディスクリミネータD1は、損失関数を用いて元xと元F((G(x))との誤差を評価し、この評価に基づき上記の判定を行う。また、損失関数を基に、ジェネレータのパラメータ、すなわち、ノード間の結合の重みやノードのバイアスなどを更新する。
ジェネレータおよびディスクリミネータの深層学習による学習は、x-->G(x)-->F(G(x))と変換したときに、入力xと出力F(G(x))が似ていると判定されるまで続けられる。
一方、Y領域の1つの元yを入力として、ジェネレータFはX領域の元F(y)を生成し、これがジェネレータGに入力されてY領域のG(F(y))が生成される(図6(2))。
もし、Y領域側のディスクリミネータD2がY領域の元yとG(F(y))とが似ていると判定するまで、ジェネレータFとG、およびディスクリミネータD2は、敵対的に学習を続行する。
図6の(1)と(2)のいずれも、学習の目標が達成されたならば、X領域とY領域とは1対1に対応しているといえる。このように、X領域-->Y領域、Y領域-->X領域と双方向の変換があるのでジェネレータとディスクリミネータは各2個必要なのである。なお、図6(1)と図6(2)のジェネレータGは、X領域のデータからY領域のデータを生成するので構造は同じである。ジェネレータFについても同様である。
【0030】
ところで、深層学習における重要な用語の一つに損失(loss)がある。この損失は、学習過程などで誤差伝搬が入力層に近いノードに正しく伝わったかどうかという意味で使う。 深層学習における学習というのは、深層学習の出力結果が訓練データと違うときにその違いがなくなるように深層学習の各ノード間の重みを調整するのであるが、その際、出力誤差をひとつ前のノードにどの程度伝えるかで学習効率が大きく変わる。また、cycleGANでは、上記の説明のとおり入力と出力は基本同じになるように訓練する。
図6(1)には、2種類の損失が示されているが、「サイクル整合性の損失(cycle-consistency loss)」とは、循環(X領域-->Y領域-->X領域)して生成されたデータF(G(x))と訓練データxとの差分をいう。入力した画像xと生成した画像F(G(x)))が、一周させたときにどれだけ同じか違うかの情報をフィードバックさせるという意味である。 一方、「形状整合性の損失(shape-consistency loss)」とは、入力した画像xと生成した画像G(x)がどれだけ同じ形を維持していたかをフィードバックさせるか、という意味である。図6(2)も同様である。cycleGANの学習は、これらの誤差がほぼゼロになるまで続けられる。
誤差の評価、パラメータの更新などの深層学習の仕組みは、公知であり、参考となる文献類も多数発表されているので、詳しい説明は省略する。
【0031】
〔3-3-2.第1のcycleGANによる超解像処理〕
図7に従い、第1のcycleGANを含む超解像処理部121の動作を説明する。
シミュレーションデータ生成部11において、多数のシミュレーション画像データを作成した。最も精細な1枚の画像がVHIであり、他の画像をVLIと呼ぶことはすでに説明したとおりである。
複数ある画像VLIから任意の1枚を取り出し、この画像VLIと画像VHIのペアを訓練データとして、学習をする。さらに他の画像VLIを取り出し、これと画像VHIのペアを訓練データとして、深層学習を続ける。最大VLIの枚数分の訓練データのペアがあるので、精緻な学習ができる。
図7は、1組の画像VLIと画像VHIを訓練データとしたときの学習を説明するものである。
図7において、Gl2hは、低解像度画像を高解像度画像に変換するジェネレータであり、Gh2lは、高解像度画像を低解像度画像に変換するジェネレータである。
Dliは、生成された低解像度AFM画像がどれだけ仮想低解像度画像(VLI)に似ているかどうかを判定し、Dhiは、生成された高解像度AFM画像がどれだけ仮想高解像度画像(VHI)に似ているかを判定するディスクリミネータである。
【0032】
Gl2hは、仮想低解像度画像(VLI)を入力とし、高解像度AFM画像を生成する。Gh2lは、この高解像度AFM画像を入力とし、低解像度AFM画像を生成する。Dliは、画像VLIと低解像度AFM画像との誤差の評価に基づき、低解像度AFM画像がVLIと似ているかどうか判定する。似ていると判定されるまでGl2hとGh2lの学習が続く。同時に、Dliも適正に判定できるように学習を続ける。
一方、Gh2lは、仮想高解像度画像VHIを入力とし、低解像度AFM画像を生成する。Gl2hは、この低解像度AFM画像を入力とし、高解像度AFM画像を生成する。Dhiは、画像VHIと高解像度AFM画像との誤差の評価に基づき、高解像度AFM画像が画像VHIと似ているかどうか判定する。似ていると判定されるまでジェネレータGh2lとGl2hの学習が続く。同時に、Dhiも適正に判定できるように学習を続ける。
ジェネレータGl2h,Gh2l,およびディスクリミネータDli,Dhiが目標を実現できたならば、このときのパラメータ類を保存し、1組の訓練データによる学習を終える。この学習を、訓練データのペアの個数分だけ実行する。
以上の学習で得られたパラメータ類は、記憶部に保存し、後述する高解像度AFM画像微調整処理部123で画像GLIから画像GHIを生成する際に用いられる。つまり、超解像処理部121は、高解像度AFM画像GHIを生成するための事前学習にあたるのである。
【0033】
〔3-3-3.第2のcycleGANによる領域変換処理〕
領域変換処理部122によってリアル領域とシミュレーション領域との領域変換を行う。
画像RAIと画像VLIという特性が異なる領域の画像データを共に訓練データとするには工夫がいる。
第2のGANを学習させることによって、リアルな領域の画像RAIに対応させたシミュレーション領域の画像GLIを生成するのである。
【0034】
図8に従い、第2のcycleGANを含む領域変換処理部122の動作を説明する。
Gr2sは、リアル領域の画像をシミュレーション領域の画像に変換するジェネレータであり、Gs2rは、シミュレーション領域の画像をリアル領域の画像に変換するジェネレータである。
DriとDsiは、画像が特定の領域に含まれるかどうかの判定をするディスクリミネータである。Driは、生成されたAFM画像(GAI)がどれだけリアルAFM画像(RAI)に似ているかを判定し、それによって、生成された画像GAIがリアル領域に含まれるのかを判定する。Dsiは、生成された仮想AFM画像(GLI)がどれだけ仮想低解像度画像(VLI)に似ているかを判定し、それによって、生成された画像GLIがシミュレーション領域に含まれるのかを判定する。
【0035】
Gr2sは、画像RAIを入力とし、画像GLIを生成する。Gs2rは、この画像GLIを入力とし、画像GAIを生成する。Driは、画像RAIと画像GAIとを誤差の評価に基づき判定し、画像GAIが画像RAIと似ていると判定されるまでジェネレータGr2sとGs2rの学習が続く。同時に、Driも適正に判定できるように学習を続ける。
一方、Gs2rは、画像VLIを入力とし、画像GAIを生成する。Gr2sは、この画像GAIを入力とし、画像GLIを生成する。Dsiは、画像VLIと画像GLIとを誤差の評価に基づき判定し、画像GLIが画像VLIと似ていると判定されるまでGr2sとGs2rの学習が続く。同時に、Dsiも適正に判定できるように学習を続ける。
【0036】
ジェネレータGr2s,Gs2r,およびディスクリミネータDri,Dsiが最終目標を実現できたならば、このときのパラメータ類を保存し、深層学習による学習を終える。ジェネレータが学習の初期段階にあれば、生成した画像データは訓練データと似ても似つかず、ディスクリミネータが生成されたデータを訓練データと誤判定することはないであろう。しかし、深層学習を繰り返すことにより、ジェネレータは似ている画像を生成でき、ディスクリミネータも訓練データに似ていると判定できるようになるのである。
学習を終えた段階で、リアルAFM画像(RAI)とほぼ1対1に対応するシミュレーション領域側の低解像度画像(GLI)が生成できたことになる。この画像GLIが、次の高解像度AFM画像微調整処理123に入力される。
【0037】
なお、「1対1」について、図9を参照しながら付言する。
GANの学習が進展しても、全ての画像に対して顕微鏡で撮影した画像とGANで生成した画像との完全な1対1の対応を実現させることは困難である。GANの学習は図9の領域(a)から領域(b)への写像および領域(b)から領域(a)への逆写像を実現するが、1対1の関係を実現できる範囲(図9の破線の内部)は与えた訓練データの数と種類に大きく依存し、AFM画像の場合には画像の解像度および探針の直径に大きく依存する。したがって、訓練データとして用いた仮想低解像度画像(VLI)の解像度および探針の直径の範囲で撮影したAFM画像を用いて超解像処理を行うことが望ましい。
【0038】
〔3-3-4.第3のcycleGANによる高解像度AFM画像微調整処理〕
図10に従い、第3のcycleGANの動作を説明する。
第3のGANを含む高解像度AFM画像微調整処理部123は、第2のGANによって生成された仮想AFM画像(GLI)から、第1のGANを用いて仮想高解像度AFM画像(GHI)を生成する。ここで用いる第1のGANは既に事前学習済である。
画像RAIは学習済のGr2sに入力されて画像GLIが生成される。画像GLIは学習済のGl2hに入力されて画像GHIが生成される。したがって、画像RAIは画像GHIと1対1に対応するはずである。 しかし、画像GHIの精度を一層高めるために微調整する。
図10に示すように、第3のGANのジェネレータGh2rで画像GAIを生成する。ディスクリミネータDriは、画像RAIと画像GAIとが似ているかどうか判定する。Driが、画像GAIは画像RAI由来のデータと判定したとき、第3のGANの学習は終了したものと判断し、このときの画像GHIを最終的に生成された仮想高解像度AFM画像とする。
図1はリアルAFM画像(RAI)の一例であるが、このRAIから生成された画像GHIは、図11に示すようにDNAの主溝、副溝をはじめとする正確な情報を提供する画像となっている。
【0039】
上記の実施の形態は一例にすぎない。例えば、シミュレーション画像VLI,VHIを取得するシミュレーションデータ生成部11は、超解像処理装置1とは別の情報処理装置で実行してもよい。また、3種類のGANの機能などを1台ではなく複数台のコンピュータで分散して実行してもよい。本発明で重要なことは、VLI,VHIのような仮想のシミュレーション画像を訓練データとして、超解像に必要なリアルな訓練データの不足を補う点である。これを備えた超解像処理方法およびこれを実施するための装置およびコンピュータプログラムは本発明の範囲に属するのである。
【0040】
本発明は、SPMに限らず、他のナノスケール及びマイクロスケールの物体を観測する機器(例えば共焦点顕微鏡、電子顕微鏡)などにも応用できる。 また、対象物はDNAに限らず、がん細胞の表面観察などにも利用できる。
【産業上の利用可能性】
【0041】
SPMで、ナノレベルの対象物の表面を、安価かつ容易に観察できる。したがって、DNAや細胞などを対象とする研究や関連する技術分野の進展に貢献するものと期待される。
【符号の説明】
【0042】
1:超解像処理装置
11:シミュレーション画像生成部
12:高解像度画像生成部
121:超解像処理部(第1のGAN)
122:領域変換処理部(第2のGAN)
123:高解像度AFM画像微調整処理部(第3のGAN)
2:AFM
4:(DNA設計用)VRシステム
RAI:リアルAFM画像
GAI:生成したAFM画像
VLI:仮想低解像度画像
VHI:仮想高解像度画像
GLI:生成した仮想低解像度AFM画像
GHI:生成した仮想高解像度AFM画像








【要約】      (修正有)
【課題】原子間力顕微鏡(AFM)などの顕微鏡を用いて撮影した低解像度の画像を、高解像度の画像に変換する超解像処理の方法、装置およびプログラムの提供。
【解決手段】低解像度のリアル画像を取得するステップと、異なる条件下でシミュレーションを実行してシミュレーション画像を作成するステップと、リアル画像とシミュレーション画像とを訓練データとするニューラルネットワーク(NN)の学習によってリアル画像よりも鮮明な高解像度画像を取得するステップと、からなる。
【選択図】図4
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11