(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024143299
(43)【公開日】2024-10-11
(54)【発明の名称】情報処理装置、学習装置、推定装置、探索装置、情報処理方法及びプログラム
(51)【国際特許分類】
G16C 20/00 20190101AFI20241003BHJP
【FI】
G16C20/00
【審査請求】未請求
【請求項の数】15
【出願形態】OL
(21)【出願番号】P 2023055902
(22)【出願日】2023-03-30
(71)【出願人】
【識別番号】000004444
【氏名又は名称】ENEOS株式会社
(74)【代理人】
【識別番号】100126099
【弁理士】
【氏名又は名称】反町 洋
(74)【代理人】
【識別番号】100152423
【弁理士】
【氏名又は名称】小島 一真
(74)【代理人】
【識別番号】100202429
【弁理士】
【氏名又は名称】石原 信人
(72)【発明者】
【氏名】小島 隆嗣
(57)【要約】
【課題】高分子の化合物を含む系における物性値を効率的に算出する。
【解決手段】情報処理装置は、メモリと、処理回路と、を備える。前記処理回路は、第1物質の分子構造を示す第1構造モデル及び第2物質の分子構造を示す第2構造モデルを少なくとも取得し、少なくとも前記第2構造モデルにおいて、分子を構成する原子間の相互作用ポテンシャルを設定し、前記ポテンシャルに基づいて、前記第2構造モデルの複数の立体構造についての第1物理量を算出し、前記物理量に基づいて、前記第2構造モデルから少なくとも1つの立体構造を抽出し、前記抽出した立体構造について、構造最適化計算により第2物理量を取得する。
【選択図】
図1
【特許請求の範囲】
【請求項1】
メモリと、処理回路と、を備え、
前記処理回路は、
第1物質の分子構造を示す第1構造モデル及び第2物質の分子構造を示す第2構造モデルを少なくとも取得し、
少なくとも前記第2構造モデルにおいて、分子を構成する原子間の相互作用ポテンシャルを設定し、
前記相互作用ポテンシャルに基づいて、前記第2構造モデルの複数の立体構造についての第1物理量を算出し、
前記第1物理量に基づいて、前記第2構造モデルから少なくとも1つの立体構造を抽出し、
前記抽出した立体構造について、構造最適化計算により第2物理量を取得する、
情報処理装置。
【請求項2】
前記第1物理量は、エネルギーであり、
前記処理回路は、
エネルギーが他の立体構造と比較して低い立体構造、所定エネルギー値よりも低い立体構造、又は、エネルギーの低い順番に所定個数の立体構造を抽出する、
請求項1に記載の情報処理装置。
【請求項3】
前記処理回路は、
前記第1構造モデル及び前記第2構造モデルの少なくとも1つを入力すると、前記第2物理量を出力するモデルを学習する、
請求項1に記載の情報処理装置。
【請求項4】
前記処理回路は、
前記第1物理量をさらに用いて、前記モデルを学習する、
請求項3に記載の情報処理装置。
【請求項5】
前記第1物質は、固体であり、
前記第2物質は、高分子物質である、
請求項1に記載の情報処理装置。
【請求項6】
前記処理回路は、
NNP (Neural Network Potential) の手法に基づいて、前記抽出した立体構造から前記第2物理量を取得する、
請求項1に記載の情報処理装置。
【請求項7】
前記処理回路は、
NNPの手法に基づいて、前記第2構造モデルの複数の立体構造についての前記第1物理量を算出する、
請求項1に記載の情報処理装置。
【請求項8】
前記処理回路は、
前記構造最適化計算により取得した前記第2物理量から、吸着エネルギー、吸着エネルギーの分布、又は、安定構造のうち少なくとも1つを抽出する、
請求項1に記載の情報処理装置。
【請求項9】
請求項1に記載の前記第1構造モデル及び前記第2構造モデルの少なくとも1つを入力すると、前記第2物理量を出力するモデルを学習する、
学習装置。
【請求項10】
請求項3又は請求項9に記載の前記モデルに、前記第1構造モデル及び前記第2構造モデルを少なくとも入力し、前記第2物理量を予測する、
推定装置。
【請求項11】
前記処理回路は、
前記第2物理量、又は、前記第2物理量から取得される物理量が設定値となる前記第1物質の分子構造及び前記第2物質の分子構造を探索する、
請求項10に記載の推定装置。
【請求項12】
前記第2物理量は、吸着エネルギーであり、
取得した前記吸着エネルギーの分布に基づいて、吸着エネルギーの曲面を予測する、
請求項10に記載の推定装置。
【請求項13】
請求項12に記載の推定装置を用いて、前記第1物質及び前記第2物質のうち少なくとも一方を別の物質に置き換え、繰り返し前記吸着エネルギーを予測し、
所定条件に基づいて、物質を探索する、
探索装置。
【請求項14】
処理回路が、
第1物質の分子構造を示す第1構造モデル及び第2物質の分子構造を示す第2構造モデルを少なくとも取得し、
少なくとも前記第2構造モデルにおいて、分子を構成する原子間の相互作用ポテンシャルを設定し、
前記相互作用ポテンシャルに基づいて、前記第2構造モデルの複数の立体構造についての第1物理量を算出し、
前記第1物理量に基づいて、前記第2構造モデルから少なくとも1つの立体構造を抽出し、
前記抽出した立体構造について、構造最適化計算により第2物理量を取得する、
情報処理方法。
【請求項15】
処理回路に、
第1物質の分子構造を示す第1構造モデル及び第2物質の分子構造を示す第2構造モデルを少なくとも取得し、
少なくとも前記第2構造モデルにおいて、分子を構成する原子間の相互作用ポテンシャルを設定し、
前記相互作用ポテンシャルに基づいて、前記第2構造モデルの複数の立体構造についての第1物理量を算出し、
前記第1物理量に基づいて、前記第2構造モデルから少なくとも1つの立体構造を抽出し、
前記抽出した立体構造について、構造最適化計算により第2物理量を取得する、
情報処理方法を実行させるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理装置、学習装置、推定装置、探索装置、情報処理方法及びプログラムに関する。
【背景技術】
【0002】
固体と、気体又は液体の界面においては、気体又は液体を構成する分子の固体表面への吸着現象が発生する。一般に、吸着現象にはファンデルワールス力による物理吸着と、共有結合等による化学結合が生じることによる化学吸着とがある。これらのうち、化学吸着は強固であり、吸着した分子の電子状態や混成状態等が時々刻々と変化し、分子が有する化学結合が解離したり、固体表面との新たな化学結合を生成したりする。このような固体表面への分子の化学吸着は、触媒反応といった物質変換だけではなく、液体中の固体粒子の凝集性や分散性、界面の接着性や解離性、又は、摩擦や摩耗といった表面、界面の有する性質や特性を大きく変化させることがある。
【0003】
このため、所望の性質、特性を発現しうる分子を設計する場合には、単分子の吸着の特徴、例えば、構造、エネルギーといった特徴を指標とすることが通例であり、それを容易に推定できる方法として分子シミュレーション手法が用いられる。例えば、固体と高分子間の吸着エネルギーを算出する場合、分子の位置や姿勢角を逐次的に変更し、各状態において密度汎関数理論 (DFT: Density Functional Theory) による構造最適化計算を実施し、その結果から吸着エネルギーを取得する。
【0004】
しかしながら、安定状態に到達するまでDFTをグリッドサーチやマルコフ連鎖モンテカルロ法 (MCMC: Markov Chain Monte Carlo method) といった手法において繰り返し実行する必要があり、計算コストが大きくなる。さらに、立体構造を大きく変化させることが困難であり、単純な構造最適化計算における変化のみから算出することとなる。この結果、高分子の複雑な構造を有する化合物における探索を十分に実行することが困難であり、精度的な課題もある。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2021-156618号公報
【特許文献2】特開2021-081819号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
本開示の実施形態が解決しようとする限定されない課題の1つは、高分子の化合物を含む系における物性値を効率的に算出することである。
【課題を解決するための手段】
【0007】
一実施形態によれば、情報処理装置は、メモリと、処理回路と、を備える。
前記処理回路は、
第1物質の分子構造を示す第1構造モデル及び第2物質の分子構造を示す第2構造モデルを少なくとも取得し、
少なくとも前記第2構造モデルにおいて、分子を構成する原子間の相互作用ポテンシャルを設定し、
前記相互作用ポテンシャルに基づいて、前記第2構造モデルの複数の立体構造についての第1物理量を算出し、
前記第1物理量に基づいて、前記第2構造モデルから少なくとも1つの立体構造を抽出し、
前記抽出した立体構造について、構造最適化計算により第2物理量を取得する。
【0008】
前記第1物理量は、エネルギーであってもよい。前記処理回路は、エネルギーが他の立体構造と比較して低い立体構造、所定エネルギー値よりも低い立体構造、又は、エネルギーの低い順番に所定個数の立体構造を抽出してもよい。
【0009】
前記処理回路は、前記第1構造モデル及び前記第2構造モデルの少なくとも1つを入力すると、前記第2物理量を出力するモデルを学習してもよい。
【0010】
前記処理回路は、前記第1物理量をさらに用いて、前記モデルを学習してもよい。
【0011】
前記第1物質は、固体であってもよく、前記第2物質は、高分子物質であってもよい。
【0012】
前記処理回路は、NNP (Neural Network Potential) の手法に基づいて、前記抽出した立体構造から前記第2物理量を取得してもよい。
【0013】
前記処理回路は、NNPの手法に基づいて、前記第2構造モデルの複数の立体構造についての前記第1物理量を算出してもよい。
【0014】
前記処理回路は、前記構造最適化計算により取得した前記第2物理量から、吸着エネルギー、吸着エネルギーの分布、又は、安定構造のうち少なくとも1つを抽出してもよい。
【0015】
上記の学習は、情報処理装置とは別の学習装置が実行してもよい。
【0016】
前記情報処理装置又は推定装置は、前記モデルに、前記第1構造モデル及び前記第2構造モデルの少なくとも1つを入力し、前記第2物理量を予測することができる。
【0017】
前記処理回路は、前記第2物理量、又は、前記第2物理量から取得される物理量が設定値となる前記第1物質の分子構造及び前記第2物質の分子構造を探索してもよい。
【0018】
前記第2物理量は、吸着エネルギーであってもよく、取得した前記吸着エネルギーの分布に基づいて、吸着エネルギーの曲面を予測してもよい。
【0019】
前記情報処理装置又は前記推定装置を用いて、前記第1物質及び前記第2物質のうち少なくとも一方を別の物質に置き換え、繰り返し前記吸着エネルギーを予測してもよく、所定条件に基づいて、物質を探索してもよい。
【0020】
一実施形態によれば、情報処理方法は、処理回路が、
第1物質の分子構造を示す第1構造モデル及び第2物質の分子構造を示す第2構造モデルを少なくとも取得し、
少なくとも前記第2構造モデルにおいて、分子を構成する原子間の相互作用ポテンシャルを設定し、
前記相互作用ポテンシャルに基づいて、前記第2構造モデルの複数の立体構造についての第1物理量を算出し、
前記第1物理量に基づいて、前記第2構造モデルから少なくとも1つの立体構造を抽出し、
前記抽出した立体構造について、構造最適化計算により第2物理量を取得する。
【0021】
一実施形態によれば、プログラムは、処理回路に、
第1物質の分子構造を示す第1構造モデル及び第2物質の分子構造を示す第2構造モデルを少なくとも取得し、
少なくとも前記第2構造モデルにおいて、分子を構成する原子間の相互作用ポテンシャルを設定し、
前記相互作用ポテンシャルに基づいて、前記第2構造モデルの複数の立体構造についての第1物理量を算出し、
前記第1物理量に基づいて、前記第2構造モデルから少なくとも1つの立体構造を抽出し、
前記抽出した立体構造について、構造最適化計算により第2物理量を取得する、
情報処理方法を実行させる。
【図面の簡単な説明】
【0022】
【
図1】一実施形態に係る情報処理の概略を模式的に示す図。
【
図2】一実施形態に係る情報処理システムの一例を模式的に示すブロック図。
【
図3】一実施形態に係る情報処理システムの処理の一例を示すフローチャート。
【
図4】一実施形態に係る情報処理システムの一例を模式的に示すブロック図。
【
図5】一実施形態に係る情報処理システムの処理の一例を示すフローチャート。
【
図6】一実施形態に係る情報処理システムの一例を模式的に示すブロック図。
【
図7】一実施形態に係る情報処理システムの一例を模式的に示すブロック図。
【
図8】一実施形態に係る装置の実装の一例を示すブロック図。
【発明を実施するための形態】
【0023】
本開示の実施形態により解決しようとする課題は、上記に記載した課題に限定されるものではなく、さらに限定されないいくつかの課題の例として、実施形態において記載した効果に対応する課題、とすることもできる。すなわち、本開示の実施形態の説明において記載された効果のうち任意の少なくとも1つに対応する課題を本開示における解決しようとする課題とすることができる。
【0024】
以下、図面を参照して本発明の実施形態について説明する。図面及び実施形態の説明は一例として示すものであり、本発明を限定するものではない。
【0025】
本開示においては特に記載がない限り2つの物質間、例えば、固体の界面と、多原子分子との間における物性等について記載しているが、本開示の内容はこれに限定されるものではなく、3以上の物質 (材料) についても同様の処理を実現することができる。また、多原子分子の物性値について取得する例を説明しているが、固体についての物性値を取得することを排除するものではない。
【0026】
例えば、第1物質を固体又は液体、第2物質を高分子物質として説明するが、これに限定されるものではなく、第1物質及び第2物質のそれぞれを、無機材料、有機材料のいずれかとすることも可能であるし、同一の有機材料又は異なる有機材料を2分子モデル化することもできるし、別の例としてポリマーと添加剤等の組み合わせとしてもよい。
【0027】
限定されない一例として、固体又は液体は、シリカ、カーボンブラック、亜鉛若しくはスチール又は水若しくはトルエンといった物質であってよい。
【0028】
限定されない一例として、高分子物質は、ポリイソプレン、ポリブタジエン、ポリスチレン又はポリビニルといった物質であってよい。
【0029】
また、特に第2物質についての物性値に着目した情報処理について説明するが、本開示における形態は、これに限定されるものではなく、同時に第1物質についての物性値に着目した情報処理をしてもよい。すなわち、情報処理装置は、第2物質についての物性値を取得するとともに、第1物質についての物性値を取得することもできる。物質が3以上ある場合には、3以上ある物質から任意の個数の物質について、物性値を取得することができる。
【0030】
(第1実施形態)
図1は、一実施形態に係る情報処理の概略を模式的に示す図である。この
図1を用いて本開示における情報処理の全体的な概要について説明する。本形態は、第1物質に対して、第2物質がどのようなエネルギーを有するかを、構造最適化を用いて取得する。一般的には、第1物質の構造モデルである第1構造モデルと、第2物質の構造モデルである第2構造モデルと、を定義し、第1構造モデル上で形状が変化することない第2構造モデルを用いて、構造最適化等の演算を実行することで第2物質の吸着エネルギーを算出する。
【0031】
一方で、本実施形態においては、第2物質の形状変化を第2構造モデルの構造を変化させることで実装し、種々の状態である第2物質の吸着エネルギーを取得することで、広い範囲の探索を効率よく実現することができる。
【0032】
図1に示すように、第1物質及び第2物質をそれぞれ第1構造モデル及び第2構造モデルに変換して、分子動力学計算などにより、安定しているか否かの指標となる物理量を取得する。ここで、第2構造モデルを時間発展して計算することで、第1構造モデルに対して第2構造モデルが吸着する位置及びその立体構造を同じタイミングで変化させる。
【0033】
そして、取得された指標となる物理量の時系列の結果から、安定構造を抽出することで種々の形状における第2物質の吸着エネルギーを参酌した上での安定した系の状態を取得することができる。
【0034】
本開示においては、メモリ及び処理回路 (プロセッサ) を有する情報処理装置において、処理回路が上記に示した情報処理方法を具体的に実現する。
【0035】
図2は、一実施形態に係る情報処理システムを模式的に示すブロック図である。情報処理システム 1 は、分子の物性値等を算出するシステムである。情報処理システム 1 は、情報処理装置 10 と、ストレージ 20 と、を備える。
【0036】
情報処理装置 10 は、入出力インタフェース (以下、入出力I/F 100 と記載する) と、記憶部 (メモリ) 102 と、処理回路 104 とを備える。情報処理装置 10 は、2つ以上の分子に関する情報に基づいた構造最適化を実行し、物性値、例えば、吸着エネルギーの値を取得する。
【0037】
入出力I/F 100 は、情報処理装置 10 の内部と外部とでデータを入出力するためのインタフェースである。情報処理装置 10 は、入出力I/F 100 を介して処理に必要となるデータが入力され、解析後のデータ又は解析途中におけるデータを外部へと出力する。
【0038】
記憶部 102 は、情報処理装置 10 において処理に必要となる種々のデータ、処理途中のデータ、及び、処理後のデータを適切に格納する。
【0039】
処理回路 104 は、入出力I/F 100 を介して取得したデータ及び/又は記憶部 102 に格納されているデータに基づいて、情報処理を実行する。処理回路 104 は、分子の構造に関するデータを受信し、この分子についてのデータの演算を実行する。処理回路 104 は、汎用的な処理回路であってもよい。処理回路 104 は、この他、アクセラレータ又は専用回路を有していてもよく、汎用回路とアクセラレータ又は専用回路とが共同して情報処理をする形態であってもよい。
【0040】
ストレージ 20 は、情報処理システム 1 においてデータを格納する装置である。ストレージ 20 は、例えば、情報処理システム 1 におけるファイルサーバに備えられてもよい。また、ストレージ 20 は、例えば、情報処理システム 1 においてクラウド上に分散されて配置されてもよい。別の例として、ストレージ 20 は、情報処理装置 10 の内部に備えられてもよい。
【0041】
情報処理装置 10 は、限定されない一例として、処理回路 104 により取得されたデータを入出力I/F 100 を介してストレージ 20 に格納してもよい。また、情報処理装置 10 は、限定されない一例として、処理回路 104 に処理させるデータを入出力I/F 100 を介してストレージ 20 から取得してもよい。
【0042】
図3は、一実施形態に係る情報処理方法の処理を示すフローチャートである。本フローチャートを用いて
図1に示した分子に関するデータを
図2に示した情報処理装置 10 が算出する処理について説明する。
【0043】
処理回路 104 は、構造モデルを生成する (S100) 。処理回路 104 は、分子に関するデータを記憶部 102 、ストレージ 20 又は入出力I/F 100 を介してユーザに入力された情報等から取得し、当該分子に関するデータを、当該分子の分子構造を示すデータ (モデル) に変換する。この手法は、一般的な手法を用いることができる。
【0044】
限定されない一例として、処理回路 104 は、
図1に示す第1物質である固体、液体等のデータから界面を示す第1構造モデルを生成し、第2物質である高分子物質のデータから第2構造モデルを生成する。処理回路 104 は、第1構造モデル及び第2構造モデルを用いることで、第1物質の界面における第2物質の吸着エネルギーといった物理量を取得することが可能となる。
【0045】
処理回路 104 は、取得した第1構造モデル及び第2構造モデルについて分子動力学計算を実行し、第1構造モデル付近における第2構造モデルの第1物理量を算出する (S102) 。 S102 の処理は、繰り返し実行され、第2構造モデルの時間発展を考慮した上での第1物理量が算出される。処理回路 104 は、第2構造モデルの時間発展した、すなわち、形状変化した形態と、第1構造モデルに対する第2構造モデルの位置、姿勢の情報と、この形状及び位置、姿勢における第1物理量を算出し、時系列データとして記憶部 102 等に格納する。
【0046】
換言すると、この S102 において、処理回路 104 は、第2物質の分子を構成する原子間の相互作用ポテンシャルを設定し、この相互作用ポテンシャルに基づいて第1物理量を算出する。処理回路 104 は、第2物質の形状、第1物質に対する位置、姿勢を時間発展しつつ、複数の時刻におけるそれぞれのデータを紐付けて格納する。
【0047】
処理回路 104 は、限定されない一例として、
図3に示すように分子動力学計算 (古典分子動力学計算) を実行することで時刻ごとの第1物理量を取得することができる。処理回路 104 は、他の限定されない一例として、分子動力学計算ではなく、モンテカルロ法により第1物理量を取得することができる。
【0048】
この S102 の処理は、
図1における物理量を算出する処理に対応する。第1物理量は、前述の指標となる物理量に相当する。処理回路 104 は、
図1に示すように、第2構造モデルを時間的に遷移させながら、形状の情報と、第1物理量の情報を複数セット取得する。なお、このタイミングにおいて処理回路 104 は、併せて第2物質の位置、姿勢の情報を紐付けて取得し、格納してもよい。
【0049】
処理回路 104 は、条件に従って複数の第1物理量に基づいて、少なくとも1つの第2構造モデルを抽出する (S104) 。処理回路 104 は、例えば、第1物理量をエネルギーとし、エネルギーが他の立体構造と比較して低い第2構造モデルを抽出してもよい。処理回路 104 は、例えば、第1物理量をエネルギーとし、エネルギーが所定エネルギー値よりも低い第2構造モデルを抽出してもよい。処理回路 104 は、例えば、エネルギーの低い順番に所定個数を抽出することで、他の立体構造よりも安定している1又は複数の構造を第2構造モデルとして取得することもできる。
【0050】
このエネルギーは、限定されない一例として、ハミルトニアンであってもよい。処理回路 104 は、 S102 において時間発展していく第2構造モデルのそれぞれについて、ハミルトニアンを算出し、 S104 においてこのハミルトニアンを用いて、第2構造モデルを抽出することができる。
【0051】
処理回路 104 は、限定されない一例として、 S102 において取得されたハミルトニアンが所定値よりも低い立体構造を抽出することで、エネルギーが所定値である場合よりも安定している1又は複数の構造を第2構造モデルとして取得することができる。
【0052】
また、処理回路 104 は、限定されない別の例として、 S102 において取得されたハミルトニアンをエネルギーの低い順番に所定個数を抽出することで、他の立体構造よりも安定している1又は複数の構造を第2構造モデルとして取得することもできる。
【0053】
処理回路 104 は、 S104 で抽出した第2構造モデルについて、第1構造モデルとの間の構造最適化計算を実行し、第2物理量を取得する (S106) 。第2物理量は、第1物理量と同じ物理量であってもよいし、異なる物理量であってもよい。限定されない一例として、第2物理量は、エネルギーであってよい。
【0054】
処理回路 104 は、 S104 で抽出した比較的安定した立体構造を有する第2構造モデルについて、構造最適化計算を実行することで、形状の変化を含めた安定な構造に関する情報を取得することができる。処理回路 104 は、構造最適化計算を実行するにあたり、NNP (Neural Network Potential) の学習済みモデルを用いることができる。NNPの手法を用いることで、情報処理装置 10 は、比較的コストが高くなる構造最適化の演算コストを低減することができる。
【0055】
NNPは、分子や結晶等の構造 (三次元座標) と、出力にあたるエネルギーや力との関係を、深層学習を用いて学習した原子間ポテンシャルである。限定されない一例として、NNPを構成する学習済みモデルは、物質 (原子や分子) に関する情報を入力すると、エネルギーを出力する。これにより、NNPは、密度汎関数理論の精度で物理量を高速に取得することができる。限定されない別の例として、NNPは、エネルギーに基づいて算出される物理量を直接出力可能であってよい。NNPとしては、MATLANTIS (登録商標) を用いることができる。
【0056】
なお、本処理に限定されず、 S102 の処理においてもNNPを用いることができる。NNPによる演算を適切な過程において実行することで、情報処理装置 10 における演算コストを低減することができる。また、例えば、時間的コスト、演算コストを低減することで、より広い範囲の探索を高精度に実現することが可能となる。
【0057】
また、処理回路 104 は、限定されない別の例として、構造最適化計算を実行するにあたり、DFTによる構造最適化計算を実施してもよい。この場合、処理回路 104 は、構造最適化計算以外の演算においてNNPを用いてもよい。
【0058】
処理回路 104 は、演算が終了したか否かを判定する (S108) 。演算が完了している場合 (S108: YES) 、処理回路 104 は、記憶部 102 に出力データを格納し、又は、入出力I/F 100 を介してストレージ 20 にデータを出力して (S110) 処理を完了する。
【0059】
処理回路 104 は、演算が完了していない場合 (S108: NO) 、 S102 からの処理を繰り返す。処理回路 104 は、例えば、第2物理量と所定値を比較することで、所定数の第2構造データ (位置、姿勢情報がさらに追加されてもよい) が取得できた、所定回数の S108 までの演算が完了した、といった条件に基づいて演算が完了したか否かを判定することができる。これらに限定されずに、処理回路 104 は、適切な完了条件を設定することができる。
【0060】
3種類以上の物質を用いる場合には、処理回路 104 は、3種類以上の物質の構造モデルを生成し、時間発展させる構造モデルを設定し、それぞれの構造モデルについて S102 から S108 の処理を繰り返し実行することで対応することが可能である。以下に説明する実施形態においても同様であり、2種類の物質を用いて説明するが3種類以上の物質についてもそれぞれの形態において同様に展開することができる。
【0061】
この場合、処理回路 104 は、1段階目の演算において、任意の2以上の構造モデルを同時に時間発展させる分子動力学計算又はモンテカルロ法による演算を実行することも可能である。同様に、処理回路 104 は、2段階目の演算においても任意の2以上の構造モデルを用いた構造最適化計算を実行することができる。
【0062】
処理回路 104 は、取得した第2物理量に基づいた演算をさらに実行することができる。処理回路 104 は、例えば、構造最適化計算により取得した第2物理量から、吸着エネルギー、吸着エネルギーの分布、又は、安定構造のうち、少なくとも1つに関する情報を取得することもできる。また、処理回路 104 は、さらに、この吸着エネルギーの分布等に基づいて、吸着エネルギーの曲面を算出してもよい。
【0063】
処理回路 104 は、 S108 の処理において、第2物理量として上記の吸着エネルギー等のデータを取得してもよい。すなわち、処理回路 104 は、NNPの手法から直接得られる物理量を第2物理量として評価をしてもよいし、この物理量から取得される量を第2物理量としてもよい。
【0064】
処理回路 104 は、この第2物理量に基づいて、第1物質の分子構造及び第2物質の分子構造を探索することができるし、また、第2物理量から導き出すことができる物理量に基づいて、この探索をすることもできる。
【0065】
以上のように、本実施形態によれば、ある物質に対する物理量の演算を、当該物質の分子の立体構造の変化を含めて効率よく探索することが可能となる。高分子材料を用いる場合には、エントロピー弾性によりエネルギーがいろいろな値に変化する。このため、高分子材料の変形を考慮する必要がある。
【0066】
上記で説明した情報処理装置 10 によれば、高分子材料の形状を含めた安定した構造を効率的に探索することが可能となる。例えば、情報処理装置 10 は、NNPが実行する密度汎関数理論の精度で高分子の吸着エネルギーのデータを大量に、短時間で取得することができる。これにより、エネルギー分布の比較といったことを、低コストで実現することが可能となる。
【0067】
例えば、ゴムといった高分子材料は、温度等が一定の条件下において様々な立体構造を取り得るが、界面における形状を変化させた構造最適化を実行することにより、広い範囲での探索及び安定した構造の取得を高速に効率よく実行することができる。
【0068】
また、分子動力学等の形状を含めた演算を実行することで、単純な構造最適化計算では考慮することが困難である結合角、2面書く、捩りといった立体構造を探索対象とした幅広い構造を対象とした吸着エネルギーを取得することができる。
【0069】
一般にDFT等の量子力学計算は、古典力学計算 (分子動力学法、モンテカルロ法など) と比べて計算時間が掛かる。第1実施形態によれば、古典力学計算により第1物理量を求める。そして、条件に従って複数の第1物理量から、少なくとも1つの第2構造モデルを抽出する。これにより短時間での計算が可能となる。換言すれば、物性値を効率的に算出することができる。
【0070】
また、NNPを用いないDFTで構造最適化を実現する場合においても、本実施形態のように分子動力学法で立体構造をサンプリングして構造最適化をすることで、姿勢角を逐次的に変更してサンプリングしてDFT演算を繰り返すよりも高速化することが可能である。以下の実施形態においても原則的には立体構造のサンプリングをしてからNNPを用いる形態として説明するが、同様に構造最適化をDFTで実装することもできる。
【0071】
いずれの場合においても、吸着位置及び立体構造の時間発展を計算してサンプリングすることで、高速化が可能であり、より広くの探索における時間的、計算機的なコストを削減して物性値を効率的に算出することができる。
【0072】
(第2実施形態)
第1実施形態においては分子の立体構造を含めた探索を実現することが可能であるが、情報処理システム 1 は、さらに、この探索結果を用いた機械学習をし、情報処理装置 10 の探索結果を出力するようなモデルを生成する態様であってもよい。
【0073】
図4は、一実施形態に係る情報処理システム 1 を模式的に示すブロック図である。情報処理システム 1 は、第1実施形態に係る情報処理装置 10 と、ストレージ 20 と、に加え、学習装置 30 を備えてもよい。
【0074】
学習装置 30 は、
図2に示す情報処理装置 10 と同様に、少なくとも入出力I/Fと、記憶部と、処理回路と、を備える。以下においては学習装置 30 が実行する処理として記載するが、学習装置 30 の具体的な処理は処理回路と記憶部とが協働することで実装することができる。
【0075】
学習装置 30 は、ストレージ 20 に蓄積された情報処理装置 10 の探索結果に基づいて、モデルの機械学習を実行する。より具体的には、学習装置 30 は、情報処理装置 10 が処理の対象とした物質 (構造モデル) を入力すると情報処理装置 10 が処理した結果を出力するモデルを、情報処理装置 10 が入出力したデータを教師データとして学習する。
【0076】
学習装置 30 は、機械学習の中でも、教師あり学習のアルゴリズムを適用することができる。教師あり学習として、例えば、線形回帰 (Linear Regression) 、正則化回帰 (Regularized Regression) 、部分的最小二乗回帰、多項式回帰、カーネル回帰 (Kernel Regression) 、ロジスティック回帰 (Logistic Regression) 、ランダムフォレスト (Random Forest) 、勾配ブースティング回帰木 (Gradient Boosting Regression Tree) 、サポートベクターマシン (Support Vector Machine、SVM) 、ニューラルネットワーク (Neural Network) 等が挙げられる。
【0077】
ニューラルネットワークは、ニューラルネットワークを3層よりも多層にした深層学習 (ディープラーニング) を用いることができる。ニューラルネットワークの種類としては、例えば、畳み込みニューラルネットワーク (Convolutional Neural Network、CNN) 、回帰型 (再帰型) ニューラルネットワーク (Recurrent Neural Network、RNN) 及び一般回帰ニューラルネットワーク (General Regression Neural Network) 等を用いることができる。
【0078】
限定されない一例として、学習装置 30 は、第1構造モデル及び第2構造モデルの少なくとも1つを入力すると、第2物理量を出力するモデルを学習する。
【0079】
図5は、一実施形態に係る学習装置 30 の処理の一例を示すフローチャートである。
【0080】
学習装置 30 は、教師データを取得する (S200) 。教師データは、情報処理装置 10 から出力されたデータを直接的に受信してもよいし、ストレージ 20 等の他の記憶装置に格納されているデータを取得してもよい。
【0081】
学習装置 30 は、入力データとしての教師データとして、情報処理装置 10 において生成された第1構造モデル及び第2構造モデルの少なくとも1つを取得してもよいし、第1物質及び第2物質に関するデータであってもよい。第2構造モデルを入力データとして用いる場合であっても、適切な学習をすることで第2構造モデルの形状によらないデータを取得することができる。
【0082】
学習装置 30 は、別の例として、さらに、第1物理量を入力データとして取得してもよい。この第1物理量は、例えば、第2構造モデルの形状と対応させて入力するものであってもよい。学習装置 30 は、学習の対象となるモデルの入力層の入力として第1物理量を用いてもよいし、中間層の入力として第1物理量を用いてもよい。学習装置 30 は、第1物理量を入力データとして用いることで、モデルの精度を向上させることができる。
【0083】
学習装置 30 は、出力データとしての教師データとして、情報処理装置 10 が第1構造モデル及び第2構造モデルから取得した第2物理量を取得することができる。
【0084】
また、学習装置 30 は、別の例として、第2物理量から導くことができるデータを出力データの教師データとしてもよい。
【0085】
一例として、学習装置 30 は、固体及び高分子物質の情報を入力すると、吸着エネルギーを出力するモデルの訓練を実装するような教師データを取得することができる。これらは一例として示したものであり、入出力データとなる教師データは、この他の組み合わせであってもよい。
【0086】
学習装置 30 は、モデルの訓練を実行する (S202) 。学習装置 30 は、例えば、第1構造データ及び第2構造データをモデルに入力し、順伝播させて第2物理量を取得し、この第2物理量と教師データに係る第2物理量とを比較して逆伝播することでモデルの訓練を実行する。これに限定されるものではなく、学習装置 30 は、任意の機械学習方法を用いてモデルの訓練を実行することができる。
【0087】
学習装置 30 は、訓練が完了したモデル (推論モデル) を、記憶部に格納し、又は、ストレージ 20 に出力する (S204) 。
【0088】
以上のように、本実施形態によれば、情報処理装置 10 の探索結果を予測する推論モデルを学習装置 30 により訓練することができる。これにより、吸着エネルギーといった物性値を、物質の分子の形状までを考慮した上で、さらに効率的に取得することができるモデルを生成することができる。
【0089】
なお、学習装置 30 と情報処理装置 10 が別々の装置であるとしたが、これに限定されるものではない。例えば、上記で説明した学習装置 30 の動作は、情報処理装置 10 において実行されてもよい。
【0090】
(第3実施形態)
図6は、第2実施形態で生成されたモデルを用いた推定装置が情報処理システム 1 に備えられる形態を示す図である。情報処理システム 1 は、第2実施形態の構成に加えてさらに推定装置 40 を備えることができる。
【0091】
推定装置 40 は、学習装置 30 が機械学習により生成したモデルを用いて、物質の情報を入力すると、第2物理量を推定する。推定装置 40 は、例えば、学習装置 30 が出力したモデルのパラメータを取得し、展開することによりモデルを形成する。推定装置 40 は、このモデルに第1物質及び第2物質に関する情報を入力することで、これらの物質に関連する第2物理量を取得することができる。
【0092】
図7は、この手法を応用する例である。情報処理システム 1 はさらに、探索装置50 を備える。探索装置 50 は、推定装置 40 を用いて望ましい物質を探索する装置である。すなわち、探索装置 50 は、学習装置 30 が生成したモデルを用い、所定条件 (望ましい物質である条件) に基づいて、物質を探索する。換言すれば、第2物理量、又は、第2物理量から取得される物理量が設定値となる第1物質の分子構造及び第2物質の分子構造を探索する。
【0093】
推定装置 40 は、学習装置 30 が複数の「物質の組み合わせ」について訓練したモデルを用いる。それぞれの組み合わせの教師データは、情報処理装置 10 により取得される。
【0094】
推定装置 40 は、複数の組み合わせで訓練されたデータを用いることで、種々の物質の組み合わせについて、物質の形状を考慮した第2物理量を取得することができる。
【0095】
探索装置 50 は、この第2物理量を直接的に、又は、第2物理量から導き出した第3物理量を用いることで、ターゲットとなる物性を有する物質の組み合わせを探索することができる。
【0096】
探索装置 50 は、目標の出力値となるように入力値を変化させて適切な分子構造を探索 (提案) する。探索装置 50 は、例えば、遺伝アルゴリズム、MCMCといった任意の探索手法を用いることができる。探索装置 50 は、別の例として、ベイズ最適化等により探索を実現することもできる。
【0097】
探索装置 50 は、探索過程の物理量の算出にはNNPを用いることができる。
【0098】
また、学習装置 30 があらかじめターゲットとなる物性値を取得するモデル (NNPに用いるモデルであってもよい) を訓練することで、探索装置 50 における探索の効率を向上させることも可能である。
【0099】
なお、前述の実施形態と同様に、情報処理装置 10 、学習装置 30 、推定装置 40 及び探索装置 50 のうち、少なくとも2つの装置は、同一の装置であってもよい。
【0100】
前述の実施形態における訓練済モデルは、例えば、説明したように訓練した上で、さらに、一般的な手法により蒸留されたモデルを含む概念であってもよい。
【0101】
前述した実施形態における各装置(情報処理装置 10 、学習装置 30 、推定装置 40 又は探索装置 50)の一部又は全部は、ハードウェアで構成されていてもよいし、CPU (Central Processing Unit) 又はGPU (Graphics Processing Unit) 等が実行するソフトウェア (プログラム) の情報処理で構成されてもよい。ソフトウェアの情報処理で構成される場合には、前述した実施形態における各装置の少なくとも一部の機能を実現するソフトウェアを、CD-ROM (Compact Disc-Read Only Memory) 、USB (Universal Serial Bus) メモリ等の非一時的な記憶媒体 (非一時的なコンピュータ可読媒体) に収納し、コンピュータに読み込ませることにより、ソフトウェアの情報処理を実行してもよい。また、通信ネットワークを介して当該ソフトウェアがダウンロードされてもよい。さらに、ソフトウェアの処理の全部又は一部がASIC (Application Specific Integrated Circuit) 又はFPGA (Field Programmable Gate Array) 等の回路に実装されることにより、当該ソフトウェアによる情報処理がハードウェアにより実行されてもよい。
【0102】
ソフトウェアを収納する記憶媒体は、光ディスク等の着脱可能なものでもよいし、ハードディスク又はメモリ等の固定型の記憶媒体であってもよい。また、記憶媒体は、コンピュータ内部に備えられてもよいし (主記憶装置または補助記憶装置等) 、コンピュータ外部に備えられてもよい。
【0103】
図8は、前述した実施形態における各装置 (情報処理装置 10 、学習装置 30 、推定装置 40 又は探索装置 50) のハードウェア構成の一例を示すブロック図である。各装置は、一例として、プロセッサ 71と、主記憶装置 72 (メモリ) と、補助記憶装置 73 (メモリ) と、ネットワークインタフェース 74 と、デバイスインタフェース 75 と、を備え、これらがバス 76 を介して接続されたコンピュータ 7 として実現されてもよい。
【0104】
図8のコンピュータ 7 は、各構成要素を一つ備えているが、同じ構成要素を複数備えていてもよい。また、
図8では、1台のコンピュータ 7 が示されているが、ソフトウェアが複数台のコンピュータにインストールされて、当該複数台のコンピュータそれぞれがソフトウェアの同一の又は異なる一部の処理を実行してもよい。この場合、コンピュータそれぞれがネットワークインタフェース 74 等を介して通信して処理を実行する分散コンピューティングの形態であってもよい。つまり、前述した実施形態における各装置 (情報処理装置 10 、学習装置 30 、推定装置 40 又は探索装置 50) は、1又は複数の記憶装置に記憶された命令を1台又は複数台のコンピュータが実行することで機能を実現するシステムとして構成されてもよい。また、端末から送信された情報をクラウド上に設けられた1台又は複数台のコンピュータで処理し、この処理結果を端末に送信するような構成であってもよい。
【0105】
前述した実施形態における各装置 (情報処理装置 10 、学習装置 30 、推定装置 40 又は探索装置 50) の各種演算は、1又は複数のプロセッサを用いて、又は、ネットワークを介した複数台のコンピュータを用いて、並列処理で実行されてもよい。また、各種演算が、プロセッサ内に複数ある演算コアに振り分けられて、並列処理で実行されてもよい。また、本開示の処理、手段等の一部又は全部は、ネットワークを介してコンピュータ 7 と通信可能なクラウド上に設けられたプロセッサ及び記憶装置の少なくとも一方により実現されてもよい。このように、前述した実施形態における各装置は、1台又は複数台のコンピュータによる並列コンピューティングの形態であってもよい。
【0106】
プロセッサ 71 は、少なくともコンピュータの制御又は演算のいずれかを行う電子回路 (CPU、GPU、FPGA、ASIC等) であってもよい。また、プロセッサ 71 は、汎用プロセッサ、特定の演算を実行するために設計された専用の処理回路又は汎用プロセッサと専用の処理回路との両方を含む半導体装置等のいずれであってもよい。また、プロセッサ 71 は、光回路を含むものであってもよいし、量子コンピューティングに基づく演算機能を含むものであってもよい。
【0107】
プロセッサ 71 は、コンピュータ7の内部構成の各装置等から入力されたデータやソフトウェアに基づいて演算処理を行ってもよく、演算結果や制御信号を各装置等に出力してもよい。プロセッサ 71 は、コンピュータ 7 のOS (Operating System) や、アプリケーション等を実行することにより、コンピュータ 7 を構成する各構成要素を制御してもよい。
【0108】
前述した実施形態における各装置 (情報処理装置 10 、学習装置 30 、推定装置 40 又は探索装置 50) は、1又は複数のプロセッサ 71 により実現されてもよい。ここで、プロセッサ 71 は、1チップ上に配置された1又は複数の電子回路を指してもよいし、2つ以上のチップあるいは2つ以上のデバイス上に配置された1又は複数の電子回路を指してもよい。複数の電子回路を用いる場合、各電子回路は有線又は無線により通信してもよい。
【0109】
主記憶装置 72 は、プロセッサ 71 が実行する命令及び各種データ等を記憶してもよく、主記憶装置 72 に記憶された情報がプロセッサ 71 により読み出されてもよい。補助記憶装置 73 は、主記憶装置 72 以外の記憶装置である。なお、これらの記憶装置は、電子情報を格納可能な任意の電子部品を意味するものとし、半導体のメモリでもよい。半導体のメモリは、揮発性メモリ又は不揮発性メモリのいずれでもよい。前述した実施形態における各装置 (情報処理装置 10 、学習装置 30 、推定装置 40 又は探索装置 50) において各種データ等を保存するための記憶装置は、主記憶装置 72 又は補助記憶装置 73 により実現されてもよく、プロセッサ 71 に内蔵される内蔵メモリにより実現されてもよい。例えば、前述した実施形態における記憶部 102 は、主記憶装置 72 又は補助記憶装置 73 により実現されてもよい。例えば、記憶回路に格納された訓練済みモデルに関するデータを参照してプロセッサが訓練済みモデルを構築することで、本開示における少なくとも一部の動作が実装されてもよい。記憶装置は、例えば、分子の情報を入力すると物性値を出力する訓練済みモデルに関するデータを格納する。例えば、プロセッサは、訓練済みモデルを用いて、複数の吸着サイトに対して、複数の分子モデルを吸着させるシミュレーションを実行する。訓練済みモデルは、例えば、 NNP (Neural Network Potential) に用いられるモデルである。例えば、物性値は、少なくとも、分子のエネルギー又は力を含む。
【0110】
前述した実施形態における各装置 (情報処理装置 10 、学習装置 30 、推定装置 40 又は探索装置 50) が、少なくとも1つの記憶装置 (メモリ) と、この少なくとも1つの記憶装置に接続 (結合) される少なくとも1つのプロセッサで構成される場合、記憶装置1つに対して、少なくとも1つのプロセッサが接続されてもよい。また、プロセッサ1つに対して、少なくとも1つの記憶装置が接続されてもよい。また、複数のプロセッサのうち少なくとも1つのプロセッサが、複数の記憶装置のうち少なくとも1つの記憶装置に接続される構成を含んでもよい。また、複数台のコンピュータに含まれる記憶装置とプロセッサによって、この構成が実現されてもよい。さらに、記憶装置がプロセッサと一体になっている構成 (例えば、L1キャッシュ、L2キャッシュを含むキャッシュメモリ) を含んでもよい。
【0111】
ネットワークインタフェース 74 は、無線又は有線により、通信ネットワーク 8 に接続するためのインタフェースである。ネットワークインタフェース 74 は、既存の通信規格に適合したもの等、適切なインタフェースを用いればよい。ネットワークインタフェース 74 により、通信ネットワーク 8 を介して接続された外部装置 9A と情報のやり取りが行われてもよい。なお、通信ネットワーク8は、WAN (Wide Area Network) 、LAN (Local Area Network) 、PAN (Personal Area Network) 等のいずれか、又は、それらの組み合わせであってよく、コンピュータ 7 と外部装置 9A との間で情報のやりとりが行われるものであればよい。WANの一例としてインターネット等があり、LANの一例としてIEEE 802.11やイーサネット (登録商標) 等があり、PANの一例としてBluetooth (登録商標) やNFC (Near Field Communication) 等がある。
【0112】
デバイスインタフェース 75 は、外部装置 9B と直接接続するUSB等のインタフェースである。
【0113】
外部装置 9A は、コンピュータ 7 とネットワークを介して接続されている装置である。外部装置 9B は、コンピュータ 7 と直接接続されている装置である。
【0114】
外部装置 9A 又は外部装置 9B は、一例として、入力装置であってもよい。入力装置は、例えば、カメラ、マイクロフォン、モーションキャプチャ、各種センサ等、キーボード、マウス又はタッチパネル等のデバイスであり、取得した情報をコンピュータ 7 に与える。また、パーソナルコンピュータ、タブレット端末又はスマートフォン等の入力部とメモリとプロセッサを備えるデバイスであってもよい。
【0115】
また、外部装置 9A 又は外部装置 9B は、一例として、出力装置でもよい。出力装置は、例えば、LCD (Liquid Crystal Display) 、有機EL (Electro Luminescence) パネル等の表示装置であってもよいし、音声等を出力するスピーカ等であってもよい。また、パーソナルコンピュータ、タブレット端末又はスマートフォン等の出力部とメモリとプロセッサを備えるデバイスであってもよい。
【0116】
また、外部装置 9A 又は外部装置 9B は、記憶装置 (メモリ) であってもよい。例えば、外部装置 9A は、ネットワークストレージ等であってもよく、外部装置 9B は、HDD等のストレージであってもよい。
【0117】
また、外部装置 9A 又は外部装置 9B は、前述した実施形態における各装置 (情報処理装置 10 、学習装置 30 、推定装置 40 又は探索装置 50) の構成要素の一部の機能を有する装置でもよい。つまり、コンピュータ 7 は、外部装置 9A 又は外部装置 9B に処理結果の一部又は全部を送信してもよいし、外部装置 9A 又は外部装置 9B から処理結果の一部又は全部を受信してもよい。
【0118】
以上、本開示の実施形態について詳述したが、本開示は上記した個々の実施形態に限定されるものではない。特許請求の範囲に規定された内容及びその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲において、種々の追加、変更、置き換え及び部分的削除等が可能である。例えば、前述した実施形態において、数値又は数式を説明に用いている場合、これらは例示的な目的で示されたものであり、本開示の範囲を限定するものではない。また、実施形態で示した各動作の順序も、例示的なものであり、本開示の範囲を限定するものではない。
【符号の説明】
【0119】
1: 情報処理システム、
10: 情報処理装置、
100: 入出力I/F、
102: 記憶部、
104: 処理回路、
20: ストレージ、
30: 学習装置、
40: 推定装置、
50: 探索装置、
7: コンピュータ、
71: プロセッサ、
72: 主記憶装置、
73: 補助記憶装置、
74: ネットワークインタフェース、
75: デバイスインタフェース、
76: バス、
8: 通信ネットワーク、
9A、 9B: 外部装置