IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 国立大学法人 東京大学の特許一覧

特許7390715情報処理装置、情報処理方法及びプログラム
<>
  • 特許-情報処理装置、情報処理方法及びプログラム 図1
  • 特許-情報処理装置、情報処理方法及びプログラム 図2
  • 特許-情報処理装置、情報処理方法及びプログラム 図3
  • 特許-情報処理装置、情報処理方法及びプログラム 図4
  • 特許-情報処理装置、情報処理方法及びプログラム 図5
  • 特許-情報処理装置、情報処理方法及びプログラム 図6
  • 特許-情報処理装置、情報処理方法及びプログラム 図7
  • 特許-情報処理装置、情報処理方法及びプログラム 図8
  • 特許-情報処理装置、情報処理方法及びプログラム 図9
  • 特許-情報処理装置、情報処理方法及びプログラム 図10
  • 特許-情報処理装置、情報処理方法及びプログラム 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-11-24
(45)【発行日】2023-12-04
(54)【発明の名称】情報処理装置、情報処理方法及びプログラム
(51)【国際特許分類】
   G06N 3/045 20230101AFI20231127BHJP
【FI】
G06N3/045
【請求項の数】 9
(21)【出願番号】P 2020024587
(22)【出願日】2020-02-17
(65)【公開番号】P2021128706
(43)【公開日】2021-09-02
【審査請求日】2023-01-30
【国等の委託研究の成果に係る記載事項】(出願人による申告)平成30年度 国立研究開発法人科学技術振興機構、戦略的創造研究推進事業 総括実施型研究(ERATO)「齊藤スピン量子整流プロジェクト」産業技術力強化法第17条の適用を受けるもの
(73)【特許権者】
【識別番号】504137912
【氏名又は名称】国立大学法人 東京大学
(74)【代理人】
【識別番号】100079108
【弁理士】
【氏名又は名称】稲葉 良幸
(74)【代理人】
【識別番号】100109346
【弁理士】
【氏名又は名称】大貫 敏史
(74)【代理人】
【識別番号】100117189
【弁理士】
【氏名又は名称】江口 昭彦
(74)【代理人】
【識別番号】100134120
【弁理士】
【氏名又は名称】内藤 和彦
(72)【発明者】
【氏名】大門 俊介
(72)【発明者】
【氏名】川上 慎二
(72)【発明者】
【氏名】齊藤 英治
【審査官】藤原 敬利
(56)【参考文献】
【文献】GOMEZ-BOMBARELLI, Rafael, et al.,"Automatic Chemical Design Using a Data-Driven Continuous Representation of Molecules",ACS Central Science,[online], American Chemical Society (ACS),2018年01月12日,Volume 4, No.2,Pages 268-276,<DOI: 10.1021/acscentsci.7b00572>, [retrieved on 2021.04.05], Retrieved from the Internet: <URL: https://pubs.acs.org/doi/abs/10.1021/acscentsci.7b00572>.
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
(57)【特許請求の範囲】
【請求項1】
対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、前記第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、
前記第2ネットワークが、前記状態データを復元するm次元のデータを出力するように、前記第1ネットワーク及び前記第2ネットワークを学習する第1学習部と、
前記対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、前記第2ベクトルに基づくデータを入力とする、前記第1学習部により学習された学習済みの第2ネットワークと、について、
前記学習済みの第2ネットワークが、前記第2ベクトルに基づき前記対象物の状態を推定する推定データを出力するように、前記第3ネットワークを学習する第2学習部と、
を備える、情報処理装置。
【請求項2】
前記第2学習部により学習された学習済みの第3ネットワークと、前記学習済みの第3ネットワークにより出力される前記第2ベクトルに基づくデータを入力する前記学習済みの第2ネットワークとを用いて、前記学習済みの第3ネットワークに前記物理データを入力することで、前記学習済みの第2ネットワークにより前記推定データを生成する推定部、
をさらに備える、請求項1に記載の情報処理装置。
【請求項3】
前記推定部により生成された推定データに基づいて、前記対象物の識別子を生成する識別部、
をさらに備える、請求項2に記載の情報処理装置。
【請求項4】
前記状態データは、2次元空間又は3次元空間のm個の位置の各々について前記対象物の状態に応じた値を対応付けたデータである、
請求項1から3のいずれか1項に記載の情報処理装置。
【請求項5】
前記物理データは、前記対象物における波の干渉による物理現象に基づくデータである、
請求項1から4のいずれか1項に記載の情報処理装置。
【請求項6】
前記物理データは、前記対象物の電気伝導の磁場依存性を、前記対象物にかかる磁場と前記対象物の電気伝導との2次元のグラフで表現するデータである、
請求項5に記載の情報処理装置。
【請求項7】
前記物理データは、前記対象物に光が照射される際に生成されるスペックルパターンを、2次元の画像で表現するデータである、
請求項5に記載の情報処理装置。
【請求項8】
対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、前記第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、
前記第2ネットワークが、前記状態データを復元するm次元のデータを出力するように、前記第1ネットワーク及び前記第2ネットワークを学習することと、
前記対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、前記第2ベクトルに基づくデータを入力とする、学習済みの第2ネットワークと、について、
前記学習済みの第2ネットワークが、前記第2ベクトルに基づき前記対象物の状態を推定する推定データを出力するように、前記第3ネットワークを学習することと、
を含む、情報処理方法。
【請求項9】
コンピュータに、
対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、前記第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、
前記第2ネットワークが、前記状態データを復元するm次元のデータを出力するように、前記第1ネットワーク及び前記第2ネットワークを学習することと、
前記対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、前記第2ベクトルに基づくデータを入力とする、学習済みの第2ネットワークと、について、
前記学習済みの第2ネットワークが、前記第2ベクトルに基づき前記対象物の状態を推定する推定データを出力するように、前記第3ネットワークを学習することと、
を実行させるためのプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、情報処理装置、情報処理方法及びプログラムに関する。
【背景技術】
【0002】
従来、対象物を識別するための技術が提案されている。例えば、特許文献1には、対象物が有するランダムな特徴をスキャンし、スキャンしたランダムな特徴を所定のルールに従って変換してラベルを生成し、当該ラベルを用いて対象物を識別する技術が記載されている。
【先行技術文献】
【特許文献】
【0003】
【文献】米国特許7577844号明細書
【発明の概要】
【発明が解決しようとする課題】
【0004】
対象物の特徴が、必ずしも測定可能ではない場合があると考えらえる。特許文献1に記載の技術では、スキャンできない特徴を対象物が有している場合には、対象物を当該特徴に基づいて、対象物を識別できないと考えられる。
【0005】
そこで、本発明は、測定することが困難な特徴を対象物が有する場合であっても、当該特徴に基づいて対象物を識別することを可能とする情報処理装置、情報処理方法及びプログラムを提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一態様に係る情報処理装置は、対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、第2ネットワークが、状態データを復元するm次元のデータを出力するように、第1ネットワーク及び第2ネットワークを学習する第1学習部と、対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、第2ベクトルに基づくデータを入力とする、第1学習部により学習された学習済みの第2ネットワークと、について、学習済みの第2ネットワークが、第2ベクトルに基づき対象物の状態を推定する推定データを出力するように、第3ネットワークを学習する第2学習部と、を備える。
【0007】
この態様によれば、対象物の状態に含まれる特徴が測定困難であっても、対象物の物理データを用いることで対象物の状態を推定することができる。この推定によって、測定することが困難な特徴に基づいて対象物を識別することが可能となる。
【0008】
上記態様において、第2学習部により学習された学習済みの第3ネットワークと、学習済みの第3ネットワークにより出力される第2ベクトルに基づくデータを入力する学習済みの第2ネットワークとを用いて、学習済みの第3ネットワークに物理データを入力することで、学習済みの第2ネットワークにより推定データを生成する推定部、をさらに備えてもよい。
【0009】
この態様によれば、対象物の状態を推定する推定データが得られる。この推定データを用いることで、対象物を識別することが可能となる。
【0010】
上記態様において、推定部により生成された推定データに基づいて、対象物の識別子を生成する識別部、をさらに備えてもよい。
【0011】
この態様によれば、生成された識別子を用いることで、より簡便に対象物を識別することが可能になる。
【0012】
上記態様において、状態データは、2次元空間又は3次元空間のm個の位置の各々について対象物の状態に応じた値を対応付けたデータであってもよい。
【0013】
この態様によれば、状態データが2次元空間又は3次元空間における対象物の状態に応じたデータとなる。推定データは、状態データと同様に2次元空間における対象物の状態を推定するデータとなる。このような推定データでは、対象物の状態が経時変化したとしても識別子としての機能が失われにくいため、対象物をより長期間に渡って識別することが可能になる。
【0014】
上記態様において、物理データは、対象物における波の干渉による物理現象に基づくデータであってもよい。
【0015】
この態様によれば、波の干渉による物理現象に基づくデータには、対象物の状態が反映されている。このため、波の干渉による物理現象に基づくデータを用いることで、より正確に対象物の状態を推定することができる。この結果、より精度よく対象物を識別することが可能になる。
【0016】
上記態様において、物理データは、対象物の電気伝導の磁場依存性を、対象物にかかる磁場と対象物の電気伝導との2次元のグラフで表現するデータであってもよい。
【0017】
この態様によれば、ナノスケールの現象に基づくデータを物理データとして用いることができる。このため、対象物における特徴が微細であっても、対象物を識別することが可能になる。
【0018】
上記態様において、物理データは、対象物に光が照射される際に生成されるスペックルパターンを、2次元の画像で表現するデータであってもよい。
【0019】
この態様によれば、対象物に光を照射することで物理データを取得できる。このため、より簡便に対象物を識別することが可能になる。
【0020】
本発明の他の態様に係る情報処理方法は、対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、第2ネットワークが、状態データを復元するm次元のデータを出力するように、第1ネットワーク及び第2ネットワークを学習することと、対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、第2ベクトルに基づくデータを入力とする、学習済みの第2ネットワークと、について、学習済みの第2ネットワークが、第2ベクトルに基づき対象物の状態を推定する推定データを出力するように、第3ネットワークを学習することと、を含む。
【0021】
この態様によれば、対象物の状態に含まれる特徴が測定困難であっても、対象物の物理データを用いることで対象物の状態を推定することができる。この推定によって、測定することが困難な特徴に基づいて対象物を識別することが可能となる。
【0022】
本発明の他の態様に係るプログラムは、コンピュータに、対象物の状態に関するm次元(m:2以上の自然数)の状態データを入力とし、n次元(n:自然数、m>n)の第1ベクトルを出力する第1ネットワークと、第1ベクトルに基づくデータを入力とし、m次元のデータを出力する第2ネットワークと、について、第2ネットワークが、状態データを復元するm次元のデータを出力するように、第1ネットワーク及び第2ネットワークを学習することと、対象物のp次元(p:2以上の自然数、p>n)の物理データを入力とし、n次元の第2ベクトルを出力する第3ネットワークと、第2ベクトルに基づくデータを入力とする、学習済みの第2ネットワークと、について、学習済みの第2ネットワークが、第2ベクトルに基づき対象物の状態を推定する推定データを出力するように、第3ネットワークを学習することと、を実行させる。
【0023】
この態様によれば、対象物の状態に含まれる特徴が測定困難であっても、対象物の物理データを用いることで対象物の状態を推定することができる。この推定によって、測定することが困難な特徴に基づいて対象物を識別することが可能となる。
【発明の効果】
【0024】
本発明によれば、測定することが困難な特徴を有する対象物について、当該特徴に基づいて対象物を識別することを可能とする情報処理装置、情報処理方法及びプログラムを提供することができる。
【図面の簡単な説明】
【0025】
図1】本発明の一実施形態に係る情報処理装置の構成を示す機能ブロック図である。
図2】本実施形態に係る学習部が学習するネットワークの構成の一例を示す概略図である。
図3】第1ネットワークと第2ネットワークとが接続されることで形成されたネットワークを示す図である。
図4】電子デバイスの2次元的な電子分布を表す状態データの一例を示す図である。
図5】第3ネットワークと、学習済みの第2ネットワークとが接続されることで形成されたネットワークを示す図である。
図6】本実施形態に係る電子デバイスにおける電気伝導度の揺らぎの磁場依存性を表すグラフである。
図7】本実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。
図8】本実施形態に係る情報処理装置がネットワークを学習し、学習済みのネットワークに基づいて対象物の識別子を生成するまでの処理を示すフローチャートである。
図9】本実施例において作製した量子細線の構造を示す図である。
図10】試料の電気抵抗の揺らぎの磁場依存性を測定した結果を示す図である
図11】量子細線の微細構造を推定する推定データを示す図である。
【発明を実施するための形態】
【0026】
添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
【0027】
[第1実施形態]
図1は、本発明の一実施形態に係る情報処理装置10の構成を示す機能ブロック図である。本実施形態に係る情報処理装置10は、対象物の状態データを入力とし、当該状態データを復元するデータを生成するネットワークを生成する。また、本実施形態に係る情報処理装置10は、対象物の物理データを入力とし、当該対象物の状態を推定する推定データを生成するネットワークを学習する機能を有する。さらに、本実施形態に係る情報処理装置10は、生成した推定データに基づき、検査対象物を識別する機能を有する。なお、本明細書において、「ネットワークを学習する」とは、「ネットワークの重みづけパラメータを学習する」ことを含むものとする。
【0028】
対象物は、物理データを取得可能な各種の物体であってよいが、本実施形態では、対象物はナノレベルのサイズの欠陥及び不純物を有するナノデバイスであるものとする。ここで、ナノデバイスの欠陥及び不純物の分布を、当該ナノデバイスを破壊することなく測定することはできないものとする。状態データは、対象物の状態に関するデータであり、対象物の構造、不純物、欠陥など測定不可能な量に関するデータを含む。本実施形態では、状態データは、電子デバイスにおける電子の分布を表すデータであるものとする。
【0029】
また、物理データは、対象物の測定可能な物理量に基づくデータである。より具体的には、物理データは、例えば、対象物における波の干渉による物理現象に基づくデータであってよい。本実施形態では、物理データは、対象物における電子の波の干渉による物理現象に基づくデータであり、具体的には、ナノデバイスにおける電気伝導度の磁場依存性を表すデータであるものとする。
【0030】
図1を参照して、本実施形態に係る情報処理装置10の構成について詳細に説明する。図1に示すように、情報処理装置10は、記憶部100、学習部110、推定部120及び識別部130を備える。
【0031】
記憶部100は、各種の情報を記憶する機能を有する。記憶部100は、例えば、対象物の物理データ及び学習済みのネットワークに関する情報(例えば、ネットワークの重みづけパラメータ)などを記憶している。記憶部100が記憶している各種の情報は、必要に応じて、学習部110又は推定部120により参照される。
【0032】
学習部110は、深層ニューラルネットワークを含む各種の学習モデルを学習する機能を有する。学習部110は、例えば、自己符号化器、変分自己符号化器、敵対的生成ネットワーク、全結合ニューラルネットワーク、畳み込みニューラルネットワーク、回帰型ニューラルネットワーク又はボルツマンマシンなどの各種のネットワークを学習してもよい。
【0033】
図2は、本実施形態に係る学習部110が学習するネットワーク20の構成の一例を示す概略図である。本実施形態に係るネットワーク20は、第1ネットワーク210、第2ネットワーク220及び第3ネットワーク230を含む。本実施形態では、第1ネットワーク210及び第2ネットワーク220は、畳み込みニューラルネットワークであり、第3ネットワークは、全結合ニューラルネットワークである。なお、第1ネットワーク210、第2ネットワーク220及び第3ネットワーク230は、本実施形態に記載のモデル及び構造に限定されるものではない。
【0034】
第1ネットワーク210の出力層218は、表現空間240を介して、第2ネットワーク220の入力層222に接続されている。また、第3ネットワーク230の出力層238は、表現空間240を介して、第2ネットワーク220の入力層222に接続されている。
【0035】
以下、図3から図6を参照して、学習部110がネットワーク20を学習する方法について、より詳細に説明する。図3は、第1ネットワーク210と第2ネットワーク220とが接続されることで形成されたネットワーク22を示す図である。図3に示すネットワーク22は、第1ネットワーク210をエンコーダ、第2ネットワーク220をデコーダとする変分自己符号化器である。本実施形態では、第1ネットワーク210及び第2ネットワーク220は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)である。CNNには、例えば、バッチノーマライゼーションが適用されてもよく、活性化関数としてLeakly ReLU関数が用いられてもよい。なお、第1ネットワーク210及び第2ネットワーク220を構成するニューラルネットワークは、CNNに限定されるものではない。
【0036】
図3に示すように、第1ネットワーク210は、入力層212、複数の層で構成された第1セット214、複数の層で構成された第2セット216及び出力層218を含む。入力層212は第1セット214の最も入力に近い層に接続されており、第1セット214の最も出力に近い層は第2セット216の最も入力に近い層に接続されており、第2セット216の最も出力に近い層は出力層218に接続されている。
【0037】
入力層212には、m次元(m:2以上の自然数)の状態データが入力される。入力層212の次元数は、状態データの次元数と同一であってよい。入力層212の次元数は特に限定されないが、例えば、3600次元であってもよい。入力層212は、例えば、縦が60画素であり、横が60画素である3600次元の画像の状態データを入力として受け付ける。また、本実施形態では、状態データは、2次元空間のm個の位置の各々について対象物の状態に応じた値を対応付けたデータである。具体的には、状態データは、2次元空間のm個の位置の各々について対象物の電子の密度を対応付けた、電子の分布を表すデータである。
【0038】
第1セット214は、入力層212に入力された状態データを圧縮する。図3には、第1セット214として、5つの層が示されているが、第1セット214の層の数は、特に限定されず、例えば256層であってもよい。また、第1セット214の各層の次元数は特に限定されないが、例えば、900次元(縦30×横30)であってよい。
【0039】
第2セット216は、第1セット214のデータをさらに圧縮する。図3には、第2セット216として、5つの層が示されているが、第2セット216の層の数は、特に限定されず、例えば512層であってよい。第2セット216の各層の次元数は、特に限定されないが、例えば、225次元(縦15×横15)であってよい。
【0040】
出力層218は、第2セット216により圧縮されたデータを、n次元(n:自然数、m>n)の第1ベクトルに圧縮し、表現空間に出力する。出力層218が出力する第1ベクトルの次元数は、特に限定されないが、例えば、7次元であってよい。
【0041】
第2ネットワーク220は、入力層222、複数の層で構成された第3セット224、複数の層で構成された第4セット226及び出力層228を含む。入力層222には、7次元の第1ベクトルにもとづくデータが入力される。また、入力層222には、リパラメタライゼーショントリックに基づくデータが入力されてもよい。
【0042】
第3セット224は、入力層222に入力されたデータについて、次元を拡張することでデータを生成する機能を有する。また、第4セット226は、第3セット224において生成されたデータについて、次元を拡張してデータを生成する機能を有する。第3セット224は、例えば、第2セット216と対称的な構成を有していてよく、第4セット226は、第1セット214と対称的な構成を有していてよい。
【0043】
出力層228は、m次元のデータを出力する。すなわち、本実施形態では、第2ネットワーク220の出力層228の次元数は、第1ネットワーク210の入力層212の次元数と同一である。
【0044】
次いで、本実施形態に係る学習部110が、第1ネットワーク210及び第2ネットワーク220を学習する処理について説明する。学習部110は、第1ネットワーク210の入力層212に状態データを入力する。本実施形態では、状態データは、2次元空間の複数の位置の各々について対象物の状態に応じた値を対応付けたデータであるものとする。より具体的には、本実施形態では、状態データは、ナノデバイスの2次元的な電子分布を表すデータであるものとする。
【0045】
なお、状態データは、実際に測定されたデータであってもよいし、公知の手法による数値計算により生成されたデータであってもよい。例えば、ナノデバイスが複数の円形の欠陥を有するナノサイズの金属ワイヤーである場合に、公知の手法で電子分布の算出し、当該金属ワイヤーにおける電子分布の状態データを生成してよい。或いは、状態データを生成するためのデータベースを用いてもよい。例えば、金属ワイヤーの情報(例えば、金属ワイヤーの形状、欠陥の数、欠陥の形状、又は欠陥の位置など)と金属ワイヤーの電子分布を対応付けたデータベースを用いて、状態データを生成してもよい。
【0046】
図4は、ナノデバイスの2次元的な電子分布を表す状態データ300の一例を示すである。図4では、白いほど電子の密度が高く、黒いほど電子の密度が低くなっている。本実施形態に係るナノデバイスには、2つの円形の欠陥(穴)が形成されている。このため、状態データ300には、電子が存在しない円形の第1欠陥302及び第2欠陥304が形成されている。本実施形態では、このように円形の欠陥が形成されたナノデバイスの電子分布を表す状態データが第1ネットワーク210の入力層212に入力される。
【0047】
学習部110は、第1ネットワーク210の入力層212に状態データを入力し、第2ネットワーク220の出力層228が状態データを復元するデータを出力するように、第1ネットワーク210及び第2ネットワーク220を学習する。これにより、例えば、3600次元の状態データを7次元の第1ベクトルに圧縮し、第1ベクトルから状態データを復元するデータを生成できるようになる。すなわち、3600次元の状態データを7次元のデータで表現することができるようになる。学習部110は、第1ネットワーク210及び第2ネットワーク220の学習を終えると、これらのネットワークの重みづけパラメータなどを記憶部100に記憶させる。
【0048】
図5は、第3ネットワーク230と、図3を参照して説明した方法により学習された学習済みの第2ネットワーク220とが接続されることで形成されたネットワーク24を示す図である。学習部110は、図5に示すネットワーク24を用いて、第3ネットワーク230を学習する。ここでは、学習済みの第2ネットワーク220の構成は、図3を参照して説明した第2ネットワーク220の構成と実質的に同一であるため、ここでは説明を省略する。
【0049】
第3ネットワーク230は、入力層232、第1中間層234、第2中間層236及び出力層238を備える。本実施形態では、第3ネットワーク230は、全結合ネットワークである。当該全結合ネットワークには、例えば、ドロップアウトが適用されてもよい。また、当該全結合ネットワークに適用される活性化関数は特に限定されないが、例えば、ReLU関数が適用されてもよい。
【0050】
第3ネットワーク230の入力層にはp次元(p:2以上の自然数、p>n)の物理データが入力される。物理データの次元数は、入力層232の次元数と同一である。第3ネットワーク230の入力層232の次元数は特に限定されないが、例えば、100次元であってよい。さらに、入力層232の層数は、1層に限らず複数の層により構成されてもよく、例えば、2層であってもよい。このとき、入力層232の2層目の次元数は、例えば8192次元であってよい。また、第1中間層234、第2中間層236及び出力層238の次元数は特に限定されないが、例えば、8192次元であってもよい。
【0051】
次いで、学習部110が図5に示すネットワーク24を用いて、第3ネットワーク230を学習する方法について説明する。学習部110は、第3ネットワーク230の入力層232に物理データを入力する。本実施形態では、学習部110は、ナノデバイスの電気伝導度の磁場依存性を表す物理データを入力層232に入力する。
本実施形態に係る電子デバイスは、円形状の穴(以下、「アンチドット」とも称する。)を有する量子細線であるものとし、アンチドットの配置が互いに異なる複数の量子細線のモデルのそれぞれについて、電気伝導度の磁場依存性(物理データ)が用意される。本実施形態では、学習部110は、電気伝導度の磁場依存性そのものではなく、用意された全ての物理データの平均を電気伝導度の磁場依存性から差し引いて得られた結果を第3ネットワーク230に入力し、ネットワークを学習させる。これにより、電気伝導度の磁場依存性そのものを用いてネットワークを学習させる場合よりも学習効率が向上する。
【0052】
図6は、本実施形態に係る電子デバイスにおける電気伝導度の揺らぎの磁場依存性を表すグラフである。図6では、横軸が磁場、縦軸が電気伝導度の揺らぎである。図6に示す電気伝導度の揺らぎは、計算された電気伝導度の磁場依存性に対して、全ての物理データの平均値を差し引いて得られたグラフである。プロットされたグラフの点の数は、例えば100点程度であってよい。
【0053】
本実施形態では、電気伝導度の磁場依存性は、数十mK程度の極低温度にて測定されるものとする。これにより、メゾスコピック系における磁気抵抗効果として現れる普遍的コンダクタンスの揺らぎ(UCF:Universal Conductance Fluctuations)を測定することができる。
【0054】
UCFは、不純物を含んだ試料の形状によって決まる。従って、試料の形状に基づき、UCFを数値計算することができる。しかしながら、測定された電気抵抗の磁場依存性から試料の形状を逆算することはできない。本実施形態では、UCFのパターン(電気抵抗の磁場依存性)と、試料の形状に関する状態データとの間の関係を機械学習することで、UCFの測定値から試料の形状を推定する推定データを生成することを可能とする。なお、学習に用いられる電気伝導度の磁場依存性に関する物理データ又は試料の形状に関する状態データは、実際に測定することで得られたデータであってもよいし、公知の技術を用いて算出することで得られたデータであってもよい。
【0055】
図6に示したグラフの物理データが第3ネットワーク230の入力層232に入力されると、出力層238からn次元の第2ベクトルが出力される。出力層238は、例えば7次元の第2ベクトルを、表現空間240に出力してもよい。出力された第2ベクトルが学習済みの第2ネットワーク220の入力層222に入力されると、出力層228からm次元のデータが出力される。
【0056】
学習部110は、学習済みの第2ネットワーク220が、第3ネットワーク230により出力された第2ベクトルに基づき対象物の状態を推定する推定データを生成するように、第3ネットワーク230を学習する。具体的には、物理データ及び当該物理データに対応する状態データを教師データとして、第3ネットワークを学習させる。物理データは、対象物の物理量を測定して得られたデータであってよく、例えば、電気伝導度の磁場依存性のデータであって良い。また、状態データは、当該物理データが測定された、対象物の状態(例えば、ナノデバイスの微細構造を表すデータ)であってもよい。
【0057】
本実施形態では、学習部110は、学習済みの第2ネットワーク220が、対象物の状態を推定する推定データを生成するように、第3ネットワーク230を学習する。より具体的には、学習部110は、学習済みの第2ネットワーク220が生成する推定データを、第3ネットワーク230に入力される物理データに対応する状態データに近づけるように、第3ネットワーク230を学習する。学習部110は、学習を終えると、学習した第3ネットワーク230の重みづけパラメータなどに関する情報を記憶部100に記憶させる。
【0058】
本実施形態では、第3ネットワーク230に入力された物理データが、7次元のデータに圧縮され、圧縮されたデータに基づき推定データが生成される。このように、一旦、物理データの次元を圧縮することで、学習に必要なパラメータの数を削減することが可能になり、より高速で第3ネットワーク230を学習させることができる。
【0059】
図1に戻って、情報処理装置10の機能について説明する。推定部120は、学習済みの第3ネットワークと、学習済みの第2ネットワーク220とを用いて、推定データを生成する機能を有する。より具体的には、推定部120は、学習済みの第3ネットワーク230に対象物の物理データを入力し、学習済みの第2ネットワーク220から推定データを出力させる。推定部120は、生成された推定データを識別部130に伝達する。
【0060】
識別部130は、推定部120により生成された推定データに基づいて、対象物を識別する機能を有する。例えば、識別部130は、識別の対象となっている対象物の状態データと、生成された推定データとを比較することで、対象物を同定してもよい。
【0061】
また、識別部130は、推定データに基づいて、対象物の識別子を生成することもできる。識別部130は、推定データそのものを識別子として生成してもよいし、公知のハッシュ関数などを用いて推定データを変換して、識別子を生成してもよい。
【0062】
図7は、本実施形態に係る情報処理装置10のハードウェア構成の一例を示す図である。情報処理装置10は、演算部に相当するCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサ10aと、記憶部100に相当するRAM(Random Access Memory)10bと、記憶部100に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では情報処理装置10が一台のコンピュータで構成される場合について説明するが、情報処理装置10は、複数のコンピュータが組み合わされて実現されてもよい。また、図7で示す構成は一例であり、情報処理装置10はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。ここで、演算部は、学習部110、推定部120、及び識別部130を含む。
【0063】
プロセッサ10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。プロセッサ10aは、ネットワークを学習したり、学習したネットワークを用いた処理をしたりするためのプログラムを実行する演算部である。プロセッサ10aは、入力部10eや通信部10dから種々のデータを受け取り、データの演算結果を表示部10fに表示したり、RAM10bに格納したりする。
【0064】
RAM10bは、記憶部のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM10bは、プロセッサ10aが実行するプログラム、学習用の訓練データといったデータを記憶してよい。なお、これらは例示であって、RAM10bには、これら以外のデータが記憶されていてもよいし、これらの一部が記憶されていなくてもよい。
【0065】
ROM10cは、記憶部のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM10cは、例えばプログラムや、書き換えが行われないデータを記憶してよい。
【0066】
通信部10dは、情報処理装置10を他の機器に接続するインターフェースである。通信部10dは、インターネット等の通信ネットワークに接続されてよい。
【0067】
入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード及びタッチパネルを含んでよい。
【0068】
表示部10fは、プロセッサ10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成されてよい。表示部10fは、生成された推定データなどを表示してよい。
【0069】
プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークを介して提供されてもよい。情報処理装置10では、プロセッサ10aがプログラムを実行することにより、図1を用いて説明した様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、情報処理装置10は、プロセッサ10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。
【0070】
図8は、本実施形態に係る情報処理装置10がネットワークを学習し、学習済みのネットワークを用いて対象物の識別子を生成するまでの処理を示すフローチャートである。以下、図8に沿って、本実施形態に係る情報処理装置10による処理について説明する。
【0071】
まず、情報処理装置10の学習部110は、第1ネットワーク210及び第2ネットワーク220を学習する(ステップS101)。具体的には、学習部110は、図3を参照しながら説明したように、第2ネットワーク220が、第1ネットワーク210に入力された状態データを復元するm次元のデータを生成するように、第1ネットワーク210及び第2ネットワーク220を学習する。学習された第1ネットワーク210及び第2ネットワーク220に関する情報は、記憶部100に記憶される。
【0072】
次いで、学習部110は、第3ネットワーク230を学習する(ステップS103)。より具体的には、図5を参照して説明したように、学習部110は、学習済みの第2ネットワーク220が対象物の状態を推定する推定データを生成するように、第3ネットワーク230を学習する。学習済みの第3ネットワークに関する情報は、記憶部100に記憶される。
【0073】
次いで、推定部120は、推定データを生成する(ステップS105)。より具体的には、推定部120は、ステップS103において学習された学習済みの第3ネットワーク230とステップS101において学習された学習済みの第2ネットワーク220とが接続された状態において、学習済みの第3ネットワーク230の入力層に物理データを入力し、学習済みの第2ネットワーク220に推定データを出力させる。
【0074】
次いで、識別部130は、対象物の識別子を生成する(ステップS107)。より具体的には、識別部130は、ステップS105において生成された推定データに基づいて、対象物の識別子を生成する。
【0075】
このように、本実施形態に係る情報処理装置10によれば、対象物(例えば、電子デバイス)に固有の指紋ともいえる識別子を生成することができる。また、生成される識別子は、データの暗号化及び利用者の認証にも利用することができる。さらに、生成される識別子は、各種のセキュリティに関する技術にも適用することが可能である。
【0076】
また、本実施形態では、対象物の状態(電子分布など)が物理データから算出できない場合であっても、対象物の状態を物理データから推定する推定データに基づき、対象物の識別子を生成することができる。
【0077】
従来、対象物に固有な物理現象を利用して機器の識別子を生成する方法として、PUF(Physically Unclonable Function)が提案されている。PUFは、SRAM(Static Random Access Memory)の初期化情報又は回路特有の遅延時間を利用した手法、あるいは、ランダムテレグラフノイズなどのトランジスタの動作電流のランダム揺らぎを利用した手法などがある。これらの手法は、いずれも、環境変化又は機器の劣化により経時変化する物理量を利用しており、長期間に渡って固有の識別子を維持することが困難であった。
【0078】
本実施形態に係る情報処理装置10では、経時変化する物理特性に基づく物理データを用いて、対象物を識別するための推定データを生成し、対象物に固有の識別子を生成することができる。本実施形態では、電気伝導度の磁場依存性という物理特性が経時変化しても、量子細線の構造は対象物を識別できる程度に維持されるため、経時変化する物理データに基づき堅牢な識別子を生成することが可能である。このため、対象物を長期間に渡って同定することを可能にする識別子を生成できる。
【0079】
近年のIoT(Internet of Things)の進化に伴い、PUFなどのデバイスを特定するセキュリティ技術のニーズが高まっている。IoTにおいて、デバイスはディスポーザルに近いかたちで利用され得るため、デバイスが低価格で提供されることが重要となっている。一方、本発明は、本質的に真贋が重要となる希少性の高いデバイスに適用されることが好ましい。本発明は、例えば、一回の処理コストが高い量子計算において、当該量子計算を行った量子コンピュータを同定したり、量子鍵配送などを行う際において、配信者の信頼性を確保したりするために用いられ得る。
【0080】
本発明の技術は、測定することが困難な特徴を対象物が有する場合にも適用することができる。例えば、対象物の内部構造が当該対象物の特徴である場合、当該特徴を測定するためには、対象物を破壊しなければならない場合がある。対象物である素子の不純物又は欠陥を検出するためには、例えば、素子をスライスして断面構造を観察する必要がある。このように、対象物を破壊しなければ素子の内部の不純物または欠陥などを検出できない場合には、対象物が個体を識別可能なデバイスとならない。このため、対象物の内部の状態を推定することができる本発明が重要となる。
本実施形態に係る情報処理装置10によれば、対象物の電気伝導度などの物理データを測定することで、対象物の特徴(例えば、内部構造)を含む推定データを推定することができる。この推定データを用いることで、測定することが困難な特徴に基づいて、対象物の識別子を生成することが可能になる。
【0081】
また、本実施形態によれば、対象物の物理データを非破壊の手法で測定することで、対象物の特徴を含む推定データを生成し、対象物の識別子を生成することができる。従って、破壊をしなければ測定できないような特徴を対象物が有する場合であっても、対象物を破壊せずに識別子を生成、あるいは当該対象物を同定することができる。
【0082】
(実施例)
上述した方法を用いて、ナノデバイスの試料を識別する実施例について説明する。本実施例では、リフトオフ法により量子細線の試料を作製し、作製した試料について上述した方法により推定データを生成し、当該試料を識別した。
【0083】
まず、図3を参照して説明した方法で、学習済みの第1ネットワークと学習済みの第2ネットワークとを得た。具体的には、2つの穴が形成されている量子細線の画像データを第1ネットワークの入力とし、第2ネットワークから画像データを復元するデータが出力されるように、第1ネットワークと第2ネットワークとを学習した。本実施例で用いた画像データの次元は、縦60画素、横60画素の3600次元である。第1ネットワークと第2ネットワークとを学習することで、3600次元の画像データを7次元のベクトルで表現できるようにした。なお、本実施例の量子細線の特徴は、2つの穴の位置であるため、当該特徴を表現するベクトルの次元は7次元で十分である。なお、穴の数などの条件に応じて、ベクトルの次元を変更することも可能である。
【0084】
本実施例では、アンチドットの配置が互いに異なる複数の量子細線のモデルのそれぞれについて、電気伝導度の磁場依存性(物理データ)を計算して用意した。ネットワークには、学習の効率を向上させるために、正規化されたデータが入力されることが好ましい。本実施例では、アンチドットの配置が異なる複数のモデル(量子細線のモデル)のそれぞれについて電気抵抗の磁場依存性を計算して物理データを得た。次いで、算出した物理データのそれぞれについて、全ての物理データの平均を差し引くことで正規化された電気抵抗の磁場依存性を得た。この正規化された電気抵抗の磁場依存性を表す物理データと、量子細線の微細構造を表す画像データと、を教師データとして、第3ネットワークを学習させた。これにより、学習済みの第3ネットワークに物理データを入力することで、学習済みの第2ネットワークから量子細線の微細構造を推定する推定データを出力できるネットワークが得られた。
【0085】
試料の作製に用いたリフトオフ法について説明する。シリコン基板上に有機物(レジスト)を塗布し、電子線描画装置を用いて有機物の高分子間の結合を電子線により部分的に分解し、所望のパターン部分の有機物をはがした。所望のパターンが形成されたシリコン基板上に、チタン及び金を含む金属を堆積させ、レジストを除去することで所望のパターンに金属を堆積させた構造を得た。このようにして、幅約280nmの量子細線を作製した。
【0086】
その後、作製した量子細線の2点に電子線描画装置を用いてスポット焼を行い、円形状の穴(以下、「アンチドット」とも称する。)を形成した。ここで、スポット焼とは、電子線を1点に集中して照射する方法である。本実施例では、直径が約50nmのアンチドットを形成した。
【0087】
図9は、本実施例において作製した量子細線310の構造を示す図である。量子細線310には、第1アンチドット312と第2アンチドット314とが形成されている。これらの2つのアンチドットについて、量子細線310の長さ方向の間隔を約180nmとした。
【0088】
本実施例では、量子細線における量子干渉効果に基づく普遍的コンダクタンスの揺らぎを観測するために、希釈冷凍機を用いて25mK付近の温度まで試料を冷却した。この温度付近で、磁場Bを0から4(T)の間で変化させながら、試料の電気抵抗Rを計測した。
【0089】
図10は、試料の電気抵抗の揺らぎδRの磁場依存性を測定した結果を示す図である。電気抵抗の揺らぎδRは、測定された電気抵抗の磁場依存性を線形フィッティングして線形関数を取得し、電気抵抗の磁場依存性から当該線形関数を差し引いて得られた値である。図10には、磁場を上げながら測定した結果が示されている。実際の測定結果を用いて対象物の状態を推定する場合にもネットワークに入力されるデータは正規化されていることが好ましい。状態を推定する際には、本実施例では、線形関数を測定データから引くことによって正規化されたデータを取得した。この正規化されたデータを入力として、学習済みの第2ネットワーク及び学習済みの第3ネットワークを用いて推定データを得た。
【0090】
図11は、量子細線の微細構造を推定する推定データ320を示す図である。図11に示すように、第1推定ドット322と第2推定ドット324とが示されている。第1推定ドット322及び第2推定ドット324は、それぞれ、図9に示す第1アンチドット312又は第2アンチドット314に対応している。図11に示すように、特に、第1推定ドット322は、はっきりと示されている。このように、本実施例では、量子細線の電気抵抗の磁場依存性に基づき、量子細線310の構造、具体的には、量子細線310に形成されたアンチドットの位置を推定できることができた。この推定結果を用いることで、量子細線を識別することができる。
【0091】
[第2実施形態]
第2実施形態では、第1実施形態と実質的に同一の点については説明を省略し、主に、第1実施形態と異なる点について説明する。
【0092】
第2実施形態では、物理データは、対象物に光が照射される際に生成されるスペックルパターンを、2次元の画像で表現するデータである。この物理データを取得する方法について、簡単に説明する。まず、対象物となる例えば平板状の材料に向けて、レーザにより光を照射する。照射された光が対象物を透過することで生成される透過光スペックルパターン又は対象物に反射されることで生成される反射光スペックルパターンの画像データが物理データとなる。
【0093】
第2実施形態においても、図3を参照して説明したように、物理データを第1ネットワーク210の入力として、第1ネットワーク210及び第2ネットワーク220が学習される。次いで、図5を参照して説明したように、学習済みの第2ネットワーク220から対象物の状態を推定する推定データが生成されるように、第3ネットワーク230が学習される。推定データは、対象物の表面の構造(例えば、凹凸の分布など)に関するデータであってもよいし、対象物の内部における不純物の分布に関するデータであってもよいし、対象物を構成する元素の分布に関するデータであってもよい。
【0094】
このように、第2実施形態では、対象物に光を照射することで得られる光スペックルパターンの物理データに基づき、対象物の識別子を生成することができる。簡便に得られる物理データを用いることができるため、より簡便に対象物の識別子を生成することが可能になる。
【0095】
本実施形態に係る方法の応用例について説明する。例えば、物品に識別の対象となるタグを付しておく。当該タグにレーザを照射し、得られたスペックルパターンの物理データを用いて推定データを推定し、当該推定データを用いてタグを識別することができる。その識別結果に基づいて、タグが付された物品を識別できる。
【0096】
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素及びその配置、材料、条件、形状、サイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
【0097】
上記の第1実施形態では、主に、物理データが、対象物の電気伝導度の磁場依存性に関するデータであるものとして説明したが、物理データはこれに限定されるものではない。物理データは、例えば、対象物の測定可能な電気物性、熱物性、又は磁気物性などに関するデータであってよい。
【0098】
上記の第1実施形態では、主に、状態データが電子デバイスの電子分布に関するデータであるものとして説明したが、状態データはこれに限定されるものではない。状態データは、例えば、材料中におけるナノスケールの不純物の分布に関するデータであってよい。この場合、ステップS101に相当する処理において、Variational AutoEncoder(変分自己符号化器)又はGenerative Adversarial Network(生成的敵対的ネットワーク)を用いてよい。
【0099】
また、上記実施形態では、主として、状態データが対象物を2次元空間で表すものとして説明した。これに限らず、状態データは、3次元以上の高次元の空間を表すものであって良い。状態データが3次元空間を表す場合にも、状態データは、複数の位置の各々について対象物の状態に応じた値を対応付けたデータであってよい。3次元空間を表す状態データは、例えば立体構造など3次元の物質の状態を推定する場合に用いられる。
【符号の説明】
【0100】
10…情報処理装置、10d…通信部、10e…入力部、10f…表示部、100…記憶部、110…学習部、120…推定部、130…識別部、210…第1ネットワーク、212…入力層、214…第1セット、216…第2セット、218…出力層、220…第2ネットワーク、222…入力層、224…第3セット、226…第4セット、228…出力層、230…第3ネットワーク、232…入力層、234…第1中間層、236…第2中間層、238…出力層、240…表現空間、300…状態データ、302…第1欠陥、304…第2欠陥、310…量子細線、312…第1アンチドット、314…第2アンチドット、320…推定データ、322…第1推定ドット、324…第2推定ドット
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11