(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-18
(45)【発行日】2024-11-26
(54)【発明の名称】分子逆合成経路を決定するニューラルネットワークのトレーニング方法及び装置、並びにコンピュータ機器、コンピュータプログラム
(51)【国際特許分類】
G16C 20/50 20190101AFI20241119BHJP
G06N 3/045 20230101ALI20241119BHJP
G06N 3/09 20230101ALI20241119BHJP
G16C 20/70 20190101ALI20241119BHJP
【FI】
G16C20/50
G06N3/045
G06N3/09
G16C20/70
(21)【出願番号】P 2023518017
(86)(22)【出願日】2021-10-09
(86)【国際出願番号】 CN2021122724
(87)【国際公開番号】W WO2022095659
(87)【国際公開日】2022-05-12
【審査請求日】2023-03-17
(31)【優先権主張番号】202011218991.2
(32)【優先日】2020-11-04
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】517392436
【氏名又は名称】▲騰▼▲訊▼科技(深▲セン▼)有限公司
【氏名又は名称原語表記】TENCENT TECHNOLOGY (SHENZHEN) COMPANY LIMITED
【住所又は居所原語表記】35/F,Tencent Building,Kejizhongyi Road,Midwest District of Hi-tech Park,Nanshan District, Shenzhen,Guangdong 518057,CHINA
(74)【代理人】
【識別番号】100110364
【氏名又は名称】実広 信哉
(74)【代理人】
【識別番号】100150197
【氏名又は名称】松尾 直樹
(72)【発明者】
【氏名】付 悦
(72)【発明者】
【氏名】▲謝▼ 昌▲諭▼
(72)【発明者】
【氏名】廖 奔犇
(72)【発明者】
【氏名】▲ハオ▼ 建▲業▼
(72)【発明者】
【氏名】▲張▼ ▲勝▼誉
【審査官】松野 広一
(56)【参考文献】
【文献】中国特許出願公開第109872780(CN,A)
【文献】中国特許出願公開第111524557(CN,A)
【文献】中国特許出願公開第101789047(CN,A)
【文献】中国特許出願公開第111223532(CN,A)
【文献】Kangjie Lin et al.,Automatic Retrosynthetic Pathway Planning Using Template-free Models,[online],2019年05月21日,pp.1-18,[令和6年5月24日検索],インターネット<URL=https://arxiv.org/pdf/1906.02308>
【文献】Hanjun Dai et al.,Retrosynthesis Prediction with Conditional Graph Logic Network,[online],2020年01月06日,pp.1-15,[令和6年5月24日検索],インターネット<URL=https://arxiv.org/pdf/2001.01408>
(58)【調査した分野】(Int.Cl.,DB名)
G16C 10/00-99/00
G06N 3/09
G06N 3/045
JSTPlus/JMEDPlus/JST7580(JDreamIII)
(57)【特許請求の範囲】
【請求項1】
コンピュータ機器が実行する分子逆合成経路を決定するニューラルネットワークのトレーニング方法であって、前記方法は、
複数の第1分子の分子表現情報に基づいて、各前記第1分子の第1分解経路を決定するステップ
であって、
各前記第1分子の分子表現情報及びコスト値参照情報から、第1初期コスト値関数に基づいて、各前記第1分子の第1初期コスト値関数の値を取得するステップと、
各前記第1分子の何れか1つの分解レベルが分解を完成した場合、各前記第1分子の何れか1層の分解経路に対応する分解コスト値に基づいて、各前記第1分子の第1初期コスト値関数の値を更新して、各前記第1分子の第1ターゲットコスト値関数の値を取得するステップであって、前記第1ターゲットコスト値関数は、前記第1分子の、最小分解コスト値を有する分解経路を決定するための関数であるステップと、
何れか1つの前記第1分子の分解タスクがターゲット分解条件を満たすと、各前記第1分子の第1ターゲットコスト値関数に基づいて、各前記第1分子の第1分解経路を決定するステップと、を含むステップと、
各前記第1分子の第1分解経路に基づいて、第1コスト辞書を取得するステップであって、前記第1コスト辞書は各前記第1分子の分子表現情報及び対応するコスト値情報を含み、前記第1分子のコスト値情報は、対応する第1分解経路に従って、前記第1分子を分離するためのコストを示すステップと、
各前記第1分子の第1分解経路に基づいて、少なくとも1つの第2分子の分子表現情報を決定するステップであって、各前記第2分子は第1分解経路に基づいて相応する第1分子を分解して得られた分子のうちの、分子を取得可能に分解可能な分子であるステップと、
複数の第3分子を各前記第2分子から決定するステップであって、各前記第3分子は1類の前記第2分子を示すステップと、
各前記第3分子の第2分解経路に基づいて、第2コスト辞書を取得するステップであって、前記第2コスト辞書は各前記第3分子の分子表現情報及び対応するコスト値情報を含み、前記第3分子のコスト値情報は、対応する第2分解経路に従って前記第3分子を分離するためのコストを示すステップと、
前記第1コスト辞書及び前記第2コスト辞書に基づいてトレーニングして、ターゲットニューラルネットワークを取得するステップであって、前記ターゲットニューラルネットワークは入力されたターゲット分子の分子表現情報に基づいて、前記ターゲット分子の対応するコスト値情報を出力し、前記ターゲット分子の対応するコスト値情報は前記ターゲット分子の逆合成経路を合成するための情報であるステップと、を含むことを特徴とする方法。
【請求項2】
各前記第1分子の分子表現情報及びコスト値参照情報
から、第1初期コスト値関数に基づいて、各前記第1分子の第1初期コスト値関数
の値を取得する前記ステップは、
各前記第1分子の分子表現情報に基づいて、各前記第1分子の分解タスクを複数の第1サブタスクに区画するステップであって、前記分解タスクは分解経路に従って各前記第1分子を分離するステップと、
各前記第1サブタスクを複数の計算ノードに割り当て、各計算ノードは各第1分子の第1初期コスト値関数
の値を計算して、前記第1初期コスト値関数
の値を戻すステップであって、前記第1初期コスト値関数
の値は、対応する計算ノードが分子コスト値参照情報
から、第1初期コスト値関数に基づいて計算することで得られ、前記分子コスト値参照情報は分子の分解可能性を示すステップと、
各前記計算ノードからフィードバックされた第1初期コスト値関数
の値を受信するステップと、を含むことを特徴とする請求項
1に記載の方法。
【請求項3】
各前記第1分子の第1分解経路に基づいて、第1コスト辞書を取得する前記ステップは、
各前記第1分子の第1分解経路に基づいて、各前記第1分子の対応するコスト値情報を決定するステップと、
各前記第1分子の分子表現情報及び対応するコスト値情報に基づいて、第1コスト辞書を取得するステップと、を含むことを特徴とする請求項1に記載の方法。
【請求項4】
1類の前記第2分子を示す複数の第3分子を各前記第2分子から決定する前記ステップは、
各前記第2分子をクラスタリングして、複数のセットを取得するステップであって、各前記セットには、類似の分子構造を有する少なくとも1つの第2分子が含まれるステップと、
各前記セットのクラスターセンターを前記セットに対応する第3分子にそれぞれ決定して、複数の第3分子を取得するステップであって、前記第3分子は所属するセットにおける代表的な分子であるステップと、を含むことを特徴とする請求項1に記載の方法。
【請求項5】
前記第1コスト辞書及び前記第2コスト辞書に基づいてトレーニングして、ターゲットニューラルネットワークを取得する前記ステップは、
前記第2コスト辞書における各分子の分子表現情報及び対応するコスト値情報に基づいて、第2ニューラルネットワークをトレーニングするステップと、
前記第2コスト辞書に基づいて、前記第1コスト辞書を更新して、更新後の第1コスト辞書を取得するステップと、
更新後の第1コスト辞書における各分子の分子表現情報及び対応するコスト値情報に基づいて、第1ニューラルネットワークをトレーニングするステップと、
トレーニング後の第2ニューラルネットワークと第1ニューラルネットワークとを組み合わせて、ターゲットニューラルネットワークを取得するステップと、を含むことを特徴とする請求項1に記載の方法。
【請求項6】
前記第2コスト辞書における各分子の分子表現情報及び対応するコスト値情報に基づいて、第2ニューラルネットワークをトレーニングする前記ステップは、
前記第2コスト辞書における各分子の分子表現情報を前記第2ニューラルネットワークに入力して、各分子の対応する予測コスト値情報を取得するステップと、
各分子の対応する予測コスト値情報及び前記第2コスト辞書における各分子の対応するコスト値情報に基づいて、前記第2ニューラルネットワークのモデル損失を決定するステップと、
前記第2ニューラルネットワークのモデル損失に基づいて、前記第2ニューラルネットワークにおけるネットワークパラメータを調整するステップと、を含むことを特徴とする請求項
5に記載の方法。
【請求項7】
コンピュータ機器が実行する分子逆合成経路の決定方法であって、前記方法は、
ターゲット分子の分子表現情報を受信するステップであって、前記分子表現情報は前記ターゲット分子の3次元化学構造を示すステップと、
前記ターゲット分子の分子表現情報を、
請求項1から6のいずれか一項に記載の方法によってトレーニングされた、分子逆合成経路を決定するためのニューラルネットワークに入力するステップと、
前記分子逆合成経路を決定するためのニューラルネットワークに基づいて、前記ターゲット分子のターゲット分解経路を決定する
ステップと、
前記ターゲット分解経路に基づいて、前記ターゲット分子の分子逆合成経路情報を取得するステップと、を含むことを特徴とする方法。
【請求項8】
前記分子逆合成経路を決定するためのニューラルネットワークに基づいて、前記ターゲット分子のターゲット分解経路を決定する前記ステップは、
前記分子逆合成経路を決定するためのニューラルネットワークは第1ニューラルネットワーク及び第2ニューラルネットワークを含むステップであって、
前記第1ニューラルネットワークに基づいて、前記ターゲット分子の、上層逆合成経路によるコスト値情報を出力するステップと、
前記ターゲット分子の、上層逆合成経路によるコスト値情報に基づいて、前記ターゲット分子の第1分解経路を決定ステップと、
前記第1分解経路に基づいて前記ターゲット分子を分解して得られた分子から、さらなる分解方法が存在する分子の分子表現情報を決定するステップと、
前記さらなる分解方法が存在する分子の分子表現情報を前記第2ニューラルネットワークに入力するステップと、
前記第2ニューラルネットワークに基づいて、前記ターゲット分子の、下層逆合成経路によるコスト値情報を出力する前記ステップと、
前記ターゲット分子の、下層逆合成経路によるコスト値情報に基づいて、前記ターゲット分子の第2分解経路を決定するステップと、
前記第1分解経路及び前記第2分解経路に基づいて、前記ターゲット分子のターゲット分解経路を決定するステップと、を含むことを特徴とする請求項7に記載の方法。
【請求項9】
分子逆合成経路を決定するためのニューラルネットワークのトレーニング装置であって、コンピュータ機器に設けられ、前記装置は、
複数の第1分子の分子表現情報に基づいて、各前記第1分子の第1分解経路を決定する第1決定モジュール
であって、
各第1分子の分子表現情報及びコスト値参照情報から、第1初期コスト値関数に基づいて、各第1分子の第1初期コスト値関数の値を取得する取得ユニットと、
各第1分子の何れか1つの分解レベルが分解を完成した場合、各第1分子の何れか1層の分解経路に対応する分解コスト値に基づいて、各第1分子の第1初期コスト値関数の値を更新して、各第1分子の第1ターゲットコスト値関数の値を取得する更新ユニットであって、当該第1ターゲットコスト値関数は、当該第1分子の、最小分解コスト値を有する分解経路を決定する更新ユニットと、
何れか1つの第1分子の分解タスクがターゲット分解条件を満たすと、各第1分子の第1ターゲットコスト値関数に基づいて、各第1分子の第1分解経路を決定する決定ユニットと、を含む第1決定モジュールと、
各前記第1分子の第1分解経路に基づいて、第1コスト辞書を取得する第1コスト辞書生成モジュールであって、前記第1コスト辞書は各前記第1分子の分子表現情報及び対応するコスト値情報を含み、前記第1分子のコスト値情報は、対応する第1分解経路に従って、前記第1分子を分離するためのコストを示す第1コスト辞書生成モジュールと、
各前記第1分子の第1分解経路に基づいて、少なくとも1つの第2分子の分子表現情報を決定する第2決定モジュールであって、各前記第2分子は第1分解経路に基づいて相応する第1分子を分解して得られた分子のうちの、分子を取得可能に分解可能な分子である第2決定モジュールと、
複数の第3分子を各前記第2分子から決定する第3決定モジュールであって、各前記第3分子は1類の前記第2分子を示す第3決定モジュールと、
各前記第3分子の第2分解経路に基づいて、第2コスト辞書を取得する第2コスト辞書生成モジュールであって、前記第2コスト辞書は各前記第3分子の分子表現情報及び対応するコスト値情報を含み、前記第3分子のコスト値情報は、対応する第2分解経路に従って前記第3分子を分離するためのコストを示す第2コスト辞書生成モジュールと、
前記第1コスト辞書及び前記第2コスト辞書に基づいてトレーニングして、ターゲットニューラルネットワークを取得するトレーニングモジュールであって、前記ターゲットニューラルネットワークは入力されたターゲット分子の分子表現情報に基づいて、前記ターゲット分子の対応するコスト値情報を出力し、前記ターゲット分子の対応するコスト値情報は前記ターゲット分子の逆合成経路を合成するための情報であるトレーニングモジュールと、を含むことを特徴とする装置。
【請求項10】
分子逆合成経路決定装置であって、コンピュータ機器に設けられ、前記装置は、
ターゲット分子の分子表現情報を受信する受信モジュールであって、前記分子表現情報は前記ターゲット分子の3次元化学構造を示す受信モジュールと、
前記ターゲット分子の分子表現情報を、
請求項1から6のいずれか一項に記載の方法によってトレーニングされた、分子逆合成経路を決定するニューラルネットワークに入力する入力モジュールと、
前記分子逆合成経路を決定するニューラルネットワークに基づいて、前記ターゲット分子のターゲット分解経路を決定する
分解経路決定モジュールと、
前記ターゲット分解経路に基づいて、前記ターゲット分子の分子逆合成経路情報を取得する経路決定モジュールと、を含むことを特徴とする装置。
【請求項11】
コンピュータ機器であって、前記コンピュータ機器は1つ又は複数のプロセッサー及びメモリを含み、前記メモリは少なくとも1つのコンピュータ可読命令を記憶し、前記少なくとも1つのコンピュータ可読命令は前記1つ又は複数のプロセッサーによって読み込まれて、請求項1~
8の何れか1つに記載の方法を実行することを特徴とするコンピュータ機器。
【請求項12】
コンピュータプログラムであって、少なくとも1つのコンピュータ可読命令を含み、前記少なくとも1つのコンピュータ可読命令は請求項1~
8の何れか1つに記載の方法を実行することを特徴とするコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本出願は、2020年11月04日にて中国特許庁に提出され、出願番号が2020112189912であり、出願名称が「分子逆合成経路を決定するニューラルネットワークのトレーニング方法及び装置」である中国特許出願の優先権を主張して、その全ての内容は本出願に援用される。
【0002】
本出願は、人工知能の技術分野に関して、特に、分子逆合成経路を決定するニューラルネットワークのトレーニング方法、装置、機器及び可読記憶媒体に関する。
【背景技術】
【0003】
近年で、人工知能技術は迅速に発展し、だんだん各科学分野に導入されて、重要な作用を発揮する。化学分野において、異なる条件で、化学反応は無限に変化するため、過去、化合物分子を製造する場合、研究員は大量の時間及び精力を消費してこそ、合理な有機合成経路を設計でき、人工知能技術に基づいて有機合成経路を設計するように研究員を補助すれば、研究員が化学薬品分子及び他の化合物を研究して開発する効率を大幅に向上させる。
【0004】
現在、人工知能に基づいて分子逆合成経路を設計する方法は以下を含み、第1種:モンテカルロ木探索(Monte Carlo Tree Search、MCTS)アルゴリズムに基づいて解決策を発見するか又は最大深さに達するまで、ランダム的な探索ステップを行うとともに、シンボリック人工知能を導入して、分子逆合成経路の設計を完成する;第2種:深層強化学習技術に基づいて、分子逆合成反応の各段階のテンプレート選択ポリシーを決定し、最終的に分子逆合成経路を取得する;第3種:分散型トレーニングアーキテクチャに基づいて、深層強化学習技術を結合して最適な分子逆合成経路の構築及びコスト関数のネットワークフィッティングを加速して、当該ネットワークによってトレーニングセット分子逆合成経路の設計を完成する。
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、上記の方法による分子逆合成経路の設計は何れも時間がかかって、上記の方法は分子逆合成木の構築初期で、その最大の探索高さを决定しなければならないため、最大の探索高さが小さすぎると、いくつかの複雑な分子は有限な高さ内で分子逆合成木の構築を完成しにくくなって、逆に、最大の探索高さが大きすぎると、必要な時間は指数的に増えて、分子逆合成経路設計の効率及び正確率は低くなる。
【0006】
本出願の実施例は、分子逆合成経路を決定するニューラルネットワークのトレーニング方法、分子逆合成経路の決定方法、装置、機器及び可読記憶媒体を提供する。
【課題を解決するための手段】
【0007】
1つの態様によれば、コンピュータ機器が実行する分子逆合成経路を決定するニューラルネットワークのトレーニング方法を提供し、前記方法は、
複数の第1分子の分子表現情報に基づいて、各前記第1分子の第1分解経路を決定するステップと、
各前記第1分子の第1分解経路に基づいて、第1コスト辞書を取得するステップであって、前記第1コスト辞書は各前記第1分子の分子表現情報及び対応するコスト値情報を含み、前記第1分子のコスト値情報は、対応する第1分解経路に従って、前記第1分子を分離するためのコストを示すステップと、
各前記第1分子の第1分解経路に基づいて、少なくとも1つの第2分子の分子表現情報を決定するステップであって、各前記第2分子は第1分解経路に基づいて相応する第1分子を分解して得られた分子のうちの、分子を取得可能に分解可能な分子であるステップと、
複数の第3分子を各前記第2分子から決定するステップであって、各前記第3分子は1類の前記第2分子を示すステップと、
各前記第3分子の第2分解経路に基づいて、第2コスト辞書を取得するステップであって、前記第2コスト辞書は各前記第3分子の分子表現情報及び対応するコスト値情報を含み、前記第3分子のコスト値情報は、対応する第2分解経路に従って前記第3分子を分離するためのコストを示すステップと、
前記第1コスト辞書及び前記第2コスト辞書に基づいてトレーニングして、ターゲットニューラルネットワークを取得するステップであって、前記ターゲットニューラルネットワークは入力されたターゲット分子の分子表現情報に基づいて、前記ターゲット分子の対応するコスト値情報を出力し、前記ターゲット分子の対応するコスト値情報は前記ターゲット分子の逆合成経路を合成するステップと、を含む。
【0008】
別の態様によれば、コンピュータ機器が実行する分子逆合成経路の決定方法を提供し、前記方法は、
ターゲット分子の分子表現情報を受信するステップであって、前記分子表現情報は前記ターゲット分子の3次元化学構造を示すステップと、
前記ターゲット分子の分子表現情報を、分子逆合成経路を決定するニューラルネットワークに入力するステップと、
前記分子逆合成経路を決定するニューラルネットワークに基づいて、前記ターゲット分子のターゲット分解経路を決定するステップであって、前記ターゲット分解経路は少なくとも1本の分解経路のうちの、コスト値が最も低い分解経路であるステップと、
前記ターゲット分解経路に基づいて、前記ターゲット分子の分子逆合成経路情報を取得するステップと、を含む。
【0009】
別の態様によれば、コンピュータ機器に設けられる分子逆合成経路を決定するニューラルネットワークのトレーニング装置を提供し、前記装置は、
複数の第1分子の分子表現情報に基づいて、各前記第1分子の第1分解経路を決定する第1決定モジュールであって、前記第1分解経路の経路深さはターゲット深さの以下である第1決定モジュールと、
各前記第1分子の第1分解経路に基づいて、第1コスト辞書を取得する第1コスト辞書生成モジュールであって、前記第1コスト辞書は各前記第1分子の分子表現情報及び対応するコスト値情報を含み、前記第1分子のコスト値情報は、対応する第1分解経路に従って、前記第1分子を分離するためのコストを示す第1コスト辞書生成モジュールと、
各前記第1分子の第1分解経路に基づいて、少なくとも1つの第2分子の分子表現情報を決定する第2決定モジュールであって、各前記第2分子は第1分解経路に基づいて相応する第1分子を分解して得られた分子のうちの、分子を取得可能に分解可能な分子である第2決定モジュールと、
複数の第3分子を各前記第2分子から決定する第3決定モジュールであって、各前記第3分子は1類の前記第2分子を示す第3決定モジュールと、
各前記第3分子の第2分解経路に基づいて、第2コスト辞書を取得する第2コスト辞書生成モジュールであって、前記第2コスト辞書は各前記第3分子の分子表現情報及び対応するコスト値情報を含み、前記第3分子のコスト値情報は、対応する第2分解経路に従って前記第3分子を分離するためのコストを示す第2コスト辞書生成モジュールと、
前記第1コスト辞書及び前記第2コスト辞書に基づいてトレーニングして、ターゲットニューラルネットワークを取得するトレーニングモジュールであって、前記ターゲットニューラルネットワークは入力されたターゲット分子の分子表現情報に基づいて、前記ターゲット分子の対応するコスト値情報を出力し、前記ターゲット分子の対応するコスト値情報は前記ターゲット分子の逆合成経路を合成するトレーニングモジュールと、を含む。
【0010】
コンピュータ機器に設けられる分子逆合成経路決定装置であって、前記装置は、
ターゲット分子の分子表現情報を受信するステップ受信モジュールであって、前記分子表現情報は前記ターゲット分子の3次元化学構造を示す受信モジュールと、
前記ターゲット分子の分子表現情報を、分子逆合成経路を決定するニューラルネットワークに入力する入力モジュールと、
前記分子逆合成経路を決定するニューラルネットワークに基づいて、前記ターゲット分子のターゲット分解経路を決定する分解経路決定モジュールであって、前記ターゲット分解経路は少なくとも1本の分解経路のうちの、分解コスト値が最も低い分解経路である分解経路決定モジュールと、
前記ターゲット分解経路に基づいて、前記ターゲット分子の分子逆合成経路情報を取得する経路決定モジュールと、を含む。
【0011】
別の態様によれば、コンピュータ機器を提供し、前記コンピュータ機器は1つ又は複数のプロセッサー及びメモリを含み、前記メモリは少なくとも1つのコンピュータ可読命令を記憶し、前記少なくとも1つのコンピュータ可読命令は前記1つ又は複数のプロセッサーによって読み込まれて実行されることで、本出願の実施例における方法が実行する操作を実現する。
【0012】
別の態様によれば、1つ又は複数のコンピュータ可読記憶媒体を提供し、前記コンピュータ可読記憶媒体には少なくとも1つのコンピュータ可読命令が記憶され、前記少なくとも1つのコンピュータ可読命令は前記1つ又は複数のプロセッサーによって読み込まれて実行されることで、本出願の実施例における方法が実行する操作を実現する。
【0013】
別の態様によれば、コンピュータプログラム製品を提供し、当該コンピュータプログラム製品はコンピュータ可読命令を含み、当該コンピュータ可読命令はコンピュータ可読記憶媒体に記憶される。コンピュータ機器の1つ又は複数のプロセッサーは当該コンピュータ可読命令をコンピュータ可読記憶媒体から読み取って、1つ又は複数のプロセッサーは当該コンピュータ可読命令を実行することで、当該コンピュータ機器に上記の各種好適な実現形態における方法のステップを実行させる。
【0014】
以下の図面及び記載において、本出願の1つ又は複数の実施例の細部を提出する。本出願の明細書、図面及び請求項に基づいて、本出願的他の特徴、目的及び利点はより明らかになる。
【図面の簡単な説明】
【0015】
本出願の実施例の技術案をより明らかに説明するために、以下、実施例の記載の必要な図面を簡単に紹介し、明らかに、以下に記載の図面は本出願のいくつかの実施例であり、当業者にとって、進歩性に値する労働をしないことを前提として、これらの図面に基づいて他の図面を取得できる。
【
図1】本出願の実施例が提供する分子逆合成経路を決定するニューラルネットワークのトレーニング方法の実施環境の概略図である。
【
図2】本出願の実施例が提供する、階層化方式に基づいて分子逆合成木を構築するアーキテクチャ図である。
【
図3】本出願の実施例が提供する分子逆合成経路を決定するニューラルネットワークのトレーニング方法のフローチャートである。
【
図4】本出願の実施例が提供する別の分子逆合成経路を決定するニューラルネットワークのトレーニング方法のフローチャートである。
【
図5】本出願の実施例が提供する、第2コスト辞書を取得する方法のフローチャートである。
【
図6】本出願の実施例が提供する分子逆合成経路を決定するニューラルネットワークのトレーニング方法のアーキテクチャ図である。
【
図7】本出願の実施例が提供する分子逆合成経路の決定方法のフローチャートである。
【
図8】本出願の実施例が提供する分子逆合成経路を決定するニューラルネットワークのトレーニング装置のブロック図である。
【
図9】本出願の実施例が提供するサーバーの構造概略図である。
【発明を実施するための形態】
【0016】
本出願の目的、技術案及び利点をより明瞭するために、以下、図面を結合して本出願の実施形態をさらに詳しく記載する。ここで、例示的な実施例を詳しく説明し、その例示は図面に示される。以下、関する図面を記載する場合、特に明記しない限り、異なる図面における同一数字は同一又は類似の要素を示す。以下の例示的な実施例に記載の実施形態は本出願と一致する全ての実施形態を代表していない。逆に、添付の請求項に記載の、本出願のいくつかの態様と一致する装置及び方法の例に過ぎない。以下、本出願の実施例において使用する可能性がある技術及び用語を簡単に紹介する。
【0017】
人工知能(Artificial Intelligence、AI)は、デジタルコンピュータ又はデジタルコンピュータで制御される機器によって人間の知能をシミュレーションし、延伸し及び拡張して、環境を感知し、知識を取得して知識によって最適な結果を取得する理論、方法、技術及びオペレーティングシステムである。言い換えると、人工知能はコンピュータ科学の綜合技術であり、知能の実質を了解して、人類の知能に類似する方式で反応できる新たな知能マシンを作り上げるように意図される。人工知能は、マシンに感知、推理及び決定の機能を具備させるように、各種の知能マシンの設計原理及び実現方法を研究する。
【0018】
機械学習(Machine Learning、ML):は、複数の分野に関わる学科であり、確率論、統計学、近似論、凸分析、アルゴリズム複雑度理論などの複数の学科に関する。それは、コンピュータが人間の学習挙動を如何に模擬又は実現するかを鋭意検討し、新たな知識及びスキルを取得し、既存の知識構造を再構造し、自体の性能を絶え間なく改良させる。機械学習は、人工知能のキーポイントであり、コンピュータに知能を持たせる根本的な手段であり、その適用は、人工知能の各分野にわたる。機械学習及び深層学習は一般的には、人工ニューラルネットワーク、信念ネットワーク、強化学習、転移学習、帰納的学習、教示的学習などの技術を含む。
【0019】
マルコフ決定過程(Markov Decision Process、MDP)は、1種のシーケンシャル決定(sequential decision)の数学モデルであり、システム状態にマルコフ性がある環境で知的エージェントが実現し得るランダム性ポリシー及びリワードをシミュレーションするために用いられる。MDPは、1組のインタラクティブオブジェクト、即ち、知的エージェント及び環境に基づいて構築され、その要素には、状態、動作、ポリシー及び報酬が含まれる。MDPのシミュレーションでは、知的エージェントは、現在のシステム状態を感知し、ポリシーに従って環境に対して動作を施すことで、環境の状態を変えて報酬を取得し、時間の経過に伴う報酬の累積はリワードと称される。
【0020】
分子表現情報は分子の3次元化学構造を示す情報である。例えば、当該分子表現情報は分子のSMILES記法(Simplified molecular input line entry specification、SMILES)であり、即ち、分子の化学構造を文字列で示す。また、例えば、当該分子表現情報は分子構造を示す分子グラフであり、表1に示すように、表1は分子グラフにおける通常のノード及びエッジの性質である。
【表1】
【0021】
Jaccard類似度係数(Jaccard similarity coefficient)は有限なサンプルセットの間の類似度及び差異を比較するための係数である。Jaccard類似度係数の値が大きいほど、サンプルの類似度が高い。タニモト(Tanimoto)係数はJaccard係数を拡張することで得られて、広義Jaccard類似度係数とも呼ばれる。
【0022】
合成アクセシビリティスコア(Synthetic Accessibility score、SA Score)は、分子の複雑性に基づいて、大量の化合物の分解難易度を迅速に評価する方法である。当該方法は「出現頻度の高い分子構造の合成が容易でるという仮想」を使用して、有機小分子生物活性データベース(PubChem)から取得された100万種の化合物における、直径が4である拡張連結性フィンガープリント(Extended―Connectivity Fingerprints、ECFP)の頻度に対して加重を行って、出現頻度及び分子複雑性を評価指標として、分子の分解可能性を計算する。合成アクセシビリティスコアは値を1(簡単)~10(複雑)に規格化する。
【0023】
以下、本出願の実施例が提供するトレーニング方法の実施環境を紹介し、
図1は本出願の実施例が提供する分子逆合成経路を決定するニューラルネットワークのトレーニング方法の実施環境の概略図である。当該実施環境は端末101及びサーバー102を含む。
【0024】
端末101とサーバー102は有線又は無線通信方式で直接又は間接的に接続されてもよく、本出願はこれに対して限定しない。1つの実施例において、端末101はスマートフォン、タブレット、ラップトップ、デスクトップコンピュータなどであってもよいが、これらに限定されない。端末101は分子逆合成経路の決定方法の必要な基礎情報、例えば、分子表現情報(分子のグラフ構造、SMILES記法などを含む)、分子コスト値参照情報(例えば、分子の合成アクセシビリティスコア)及び分子逆合成参照情報(例えば、分子の分解可能性解決策)などをサーバー102に提供する。
【0025】
サーバー102は、独立した物理サーバーであってもよいし、複数の物理サーバーからなるサーバークラスター又は分散型システムであってもよいし、さらに、クラウドサービス、クラウドデータベース、クラウドコンピューティング、クラウド関数、クラウドストレージ、ネットワークサービス、クラウド通信、ミドルウェアサービス、ドメイン名サービス、セキュリティーサービス、CDN、ビッグデータ及び人工知能プラットフォームなどの基礎クラウドコンピューティングサービスを提供するクラウドサーバーであってもよい。サーバー102は、本出願の実施例が提供する分子逆合成経路の決定方法を実行し、端末101から提供された基礎情報に基づいてニューラルネットワークをトレーニングする。1つの実施例において、サーバー102にはLinuxオペレーティングシステム及びGPUコンピューティングリソースが搭載される。
【0026】
1つの実施例において、分子逆合成経路を決定するニューラルネットワークのトレーニング過程で、サーバー102は主要なコンピューティング動作を担当し、端末101は副次的なコンピューティング動作を担当するか、又は、サーバー102は副次的なコンピューティング動作を担当し、端末101は主要なコンピューティング動作を担当し、或いは、サーバー102又は端末101はコンピューティング動作をそれぞれ個別に担当してもよい。
【0027】
1つの実施例において、上記のトレーニング過程は分散型トレーニングを採用し、例えば、複数の計算ノードをそれぞれ使用してトレーニングする。サーバー102はトレーニングサーバーを含み、トレーニングサーバーはサーバークラスターであり、計算ノードとしての複数のサーバーを含み、各計算ノードはトレーニングタスクにおける一部のタスクをそれぞれ実行し、トレーニングによるニューラルネットワークモデルを介して、ターゲットサーバーに送信して、相応的な機能をユーザーに提供する。
【0028】
1つの実施例において、端末101は一般的に複数の端末のうちの1つを指し、本実施例は端末101のみを例として記載する。当業者であれば分かるように、上記の端末101の数はより多くてもよい。例えば、上記の端末101は数十又は数百個、或いはより多くの数であり、この場合、上記の分子逆合成経路の決定方法の実施環境は他の端末をさらに含む。本出願の実施例は端末の数及び機器のタイプを限定しない。
【0029】
1つの実施例において、上記の無線ネットワーク又は有線ネットワークは標準通信技術及び/又はプロトコルを採用する。ネットワークは一般的に、インターネットであってもよいが、任意のネットワークであってもよく、ローカルネットワーク(Local Area Network、 LAN)、メトロポリタンエリアネットワーク( Metropolitan Area Network、MAN)、広域エリアネットワーク(Wide Area Network、WAN)、移動、有線又は無線ネットワーク、プライベートネットワーク又は仮想プライベートネットワークの任意の組み合わせを含むが、これらに限定されない。いくつかの実施例において、ハイパーテキストマークアップ言語(Hyper Text Mark―up Language、HTML)、拡張可能なマーク付け言語(Extensible Markup Language、XML)などを含む技術及び/又はフォーマットを使用して、ネットワークを介して交換されるデータを代表する。また、例えばセキュアソケットレイヤー(Secure Socket Layer、SSL)、トランスポートレイヤーセキュリティ(Transport Layer Security、TLS)、仮想プライベートネットワーク(Virtual Private Network、VPN)、インターネットプロトコルセキュリティ(Internet Protocol Security、IPsec)などの通常の暗号化技術を使用して全て又はいくつかのリンクを暗号化してもよい。他のいくつかの実施例において、カスタム及び/又は専用データ通信技術を使用して上記のデータ通信技術を置き換え又は補充してもよい。
【0030】
本出願の実施例において、分子逆合成経路の決定方法を提供し、階層化式強化学習の方法を採用する。化学分野において、逆合成分析は分子合成経路を解决する重要な方法であり、分子合成経路設計の最も簡単且つ基本的な方法でもある。その実質はターゲット分子に対する分離であり、ターゲット分子の構造を分析することで、それをより簡単且つ合成が容易である中間体及び原料に分解して、分子合成経路の設計を完成する。なお、中間体は、ターゲット分子の合成の必要な前駆体化合物であり、即ち、市場で入手しにくい、自己合成を必要とする有機化合物であり、原料は市場で容易に入手できる、ターゲット分子の合成が簡単である有機化合物である。分子に対する逆合成経路の探索は、分子の逆合成木の構築過程である。関連技術において、従来の分子の逆合成木の構築をトレーニングする場合、一般的に、事前設定された最大の探索高さに基づいて行って、このような方法を採用すれば、最大の探索高さが小さすぎると、若干の複雑な分子は有限な高さ内で分子逆合成木の構築を完成しにくくなって、逆に、最大の探索高さが大きすぎると、構築の必要な時間は指数的に増える。本出願の実施例は分子逆合成木の構築のトレーニング過程で、階層化構築の方式を採用するため、分子逆合成木の構築過程による大量の計算及び時間オーバーヘッドを大幅に減少させ、より具体的な記載について、以下の実施例を参照すればよい。
【0031】
ここで、以下の実施例は何れも2層に分けられることを例として説明する。但し、本発明の実施例は2層に分けられる方式に限定されず、分子逆合成木の構築過程を多層に分けてもよく、本出願の実施例はこれに対して限定しない。
【0032】
例えば、
図2を参照して、
図2は本出願の実施例が提供する階層化方式に基づいて、分子逆合成木を構築するアーキテクチャ図である。
図2に示すように、分子逆合成木の最大深さが10であることを例として説明し、分子逆合成木の構築全体を上下の2層に分けて行って、完全な逆合成反応過程の代わりとして、2つの小さい分子逆合木を使用する。上層分子逆合成木の構築を完成した後、分子クラスタリングスクリーニング方式で、下層分子逆合成木の開始分子として、代表性を有する分子を選択することで、分子逆合成経路の探索効率を効果的に向上させ、さらに、正確な分子コスト値情報をより効果的に抽出する。
【0033】
以下、本出願の実施例が提供する分子逆合成経路の決定方法を具体的に説明する。
【0034】
図3は、本出願の実施例が提供する分子逆合成経路の決定方法フローチャートであり、
図3に示すように、本出願の実施例において、サーバーに適用されることを例として説明する。当該方法は以下のステップを含む。
301:サーバーは複数の第1分子の分子表現情報に基づいて、各第1分子の第1分解経路を決定し、当該第1分解経路の経路深さはターゲット深さの以下である。
【0035】
本出願の実施例において、第1分子は既存分子である。分子表現情報は分子の3次元化学構造を表す。例えば、当該分子表現情報は分子のSMILES記法(SMILES)であり、即ち、分子の化学構造を文字列で示す。また、例えば、当該分子表現情報は分子構造を示す分子グラフであり、本出願の実施例はこれに対して限定しない。第1分解経路は、分解後ターゲット分解条件を満たすまで、第1分子を分解するためのコストが最小である経路を指す。
【0036】
302:サーバーは各第1分子の第1分解経路に基づいて、第1コスト辞書を取得し、当該第1コスト辞書は各当該第1分子の分子表現情報及び対応するコスト値情報を含み、当該第1分子のコスト値情報は、対応する第1分解経路に従って当該第1分子を分離するためのコストを示す。
【0037】
本出願の実施例において、第1コスト辞書における分子表現情報と対応するコスト値情報とは一対一の方式で存在している。
【0038】
303:サーバーは各当該第1分子の第1分解経路に基づいて、少なくとも1つの第2分子の分子表現情報を決定し、各当該第2分子は、分子を取得可能になるように分解可能な分子である。
【0039】
本出願の実施例において、対応する第1分解経路に基づいて各第1分子を分解した後、複数の分子を取得し、これらの分子には、分解が完成されていない、且つ分解可能な経路を有する一部の分子が存在し、これらの分子を第2分子に決定する。即ち、各第2分子は、第1分解経路に基づいて相応する第1分子を分解した後、得られた分子のうちの、分子を取得可能になるように分解可能な分子である。
【0040】
304:サーバーは、複数の第3分子を各当該第2分子から決定し、各当該第3分子は1類の当該第2分子を示す。
【0041】
本出願の実施例において、分子の間の構造の類似度に基づいて各第2分子は複数のセットに分けられ、各セットにおける第2分子は類似の分子構造を備え、1つの第3分子を各セットから決定し、当該第3分子は所属するセットにおける、代表性を有する分子である。
【0042】
305:サーバーは各当該第3分子の第2分解経路に基づいて、第2コスト辞書を取得し、当該第2コスト辞書は各当該第3分子の分子表現情報及び対応するコスト値情報を含み、当該第3分子のコスト値情報は、対応する第2分解経路に従って当該第3分子を分離するためのコストを示す。
【0043】
本出願の実施例において、第2分解経路は、分解後ターゲット分解条件を満たすまで、第3分子を分解するためのコストが最小である経路を指す。第2コスト辞書における分子表現情報と対応するコスト値情報とは一対一の方式で存在している。
【0044】
306:サーバーは当該第1コスト辞書及び当該第2コスト辞書に基づいてトレーニングを行って、ターゲットニューラルネットワークを取得し、当該ターゲットニューラルネットワークは入力されたターゲット分子の分子表現情報に基づいて、当該ターゲット分子の対応するコスト値情報を出力する。
【0045】
ここで、当該ターゲット分子の対応するコスト値情報に対応する分解経路は、ターゲット分子の全ての可能な分解経路のうちの、分解コスト値が最も低い分解経路である。従って、当該ターゲット分子の対応するコスト値情報に基づいて、前記ターゲット分子の逆合成経路を合成する。
【0046】
1つの実施例において、当該コスト値情報に対応する分解経路に基づいて、前記ターゲット分子を分離し、分離結果に基づいて分子逆合成経路情報を取得する。
【0047】
本出願の実施例において、サーバーは第1コスト辞書に基づいてトレーニングを行って第1ニューラルネットワークを取得し、第2コスト辞書に基づいてトレーニングを行って、第2ニューラルネットワークを取得し、最後、2つのニューラルネットワークを組み合わせることで、ターゲットニューラルネットワークを取得する。
【0048】
ここで、本出願の実施例において、上記のステップ301~306によれば、サーバーは複数の分子の逆合成経路の探索を多層に分けた後、取得した第L層及び第L+1層に基づいて、各層に対応するコスト辞書をそれぞれ取得し、Lは1以上であり、探索過程で区画された各層に対して、何れも対応するコスト辞書を取得できる。相応するように、トレーニングを行う時、サーバーは第1コスト辞書、第2コスト辞書及び前のL-1個の層によるコスト辞書に基づいてニューラルネットワークをトレーニングし、トレーニングされたニューラルネットワークを取得して、分子の多層分子逆合成経路を取得する。本出願の実施例において、分子逆合成経路を決定するニューラルネットワークのトレーニング方法を提供し、複数の分子に対して、各分子の逆合成経路を決定する時、階層学習の理念を採用し、探索深さが大きな分子逆合成経路のトレーニング過程を多層に分解してトレーニングを行って、トレーニング速度を高めて、完全な逆合成反応過程の変わりとして、多層の分子逆合成経路を使用し、1層の分子逆合成経路のトレーニングを完成した後、分子スクリーニング方式で次の層の分子逆合成経路の開始分子として、代表性を有する分子を選択し、分子逆合成経路の探索効率を効果的に向上させ、正確な分子のコスト値情報をより効果的に抽出する。階層化の方式によって、分子逆合成経路の決定による大量の計算オーバーヘッドを大幅に減少させ、分子逆合成経路の正確さを保証する上に、分子逆合成経路の決定時間を低減させる。
【0049】
図4は本出願の実施例が提供する別の分子逆合成経路を決定するニューラルネットワークのトレーニング方法フローチャートであり、
図4に示すように、本出願の実施例において、サーバーに適用され、分子の逆合成経路を2層に分けることを例として説明する。当該方法は以下のステップを含む。
【0050】
401:サーバーは各第1分子の分子表現情報に基づいて、各第1分子の分解タスクを複数の第1サブタスクに区画し、当該分解タスクは分解経路に従って、各当該第1分子を分離することである。
【0051】
本出願の実施例において、分解タスクは1つの分子の分子表現情報に基づいて、分解経路に従って、1つの分子をその分子構造分析に基づいて、より簡単、合成が容易である少なくとも1つの分子に分離することである。
【0052】
好適な実現形態において、サーバーには分子データベースが関連付けられ、当該分子データベースは既存分子の分子表現情報を記憶する。サーバーは各第1分子の分子表現情報を当該分子データベースから抽出し、各第1分子の分子表現情報に基づいて、各第1分子の分解タスクを生成してから、各第1分子の分解タスクを複数の第1サブタスクに区画し、1つの第1サブタスクは少なくとも1つの第1分子の分解タスクを含む。
【0053】
1つの第1分子が1つの分解タスクに対応することを前提として、サーバーは複数の第1分子の分解タスクを区画する場合、以下の何れか1つの方式を含む。
【0054】
第1種の好適な実現形態において、サーバーは現在第1分子の数及び現在計算ノードの数に基づいて均一に区画する。例えば、現在計算ノードの数を現在第1分子の数で割って、取得した数値で各計算ノードにおける第1サブタスクの数を決定し、各第1サブタスクにおける第1分子の分解タスクの数は同様である。
【0055】
第2種の好適な実現形態において、サーバーは各第1分子の分子表現情報に基づいて、分子の化学3次元構造の複雑度で区画し、例えば、単一ベンゼン環を有する第1分子の分解タスクを1つの第1サブタスクに区画し、1つ以上のベンゼン環を有する第1分子の分解タスクを別の第1サブタスクに区画するなど、1つの第1サブタスクに対応する各第1分子の化学3次元構造の複雑度が類似している。
【0056】
第3種の好適な実現形態において、サーバーは現在計算ノードの数及び計算ノードの計算能力に基づいて区画し、例えば、現在のある計算ノードが実行しているサブタスクの数は閾値より大きいと、10個の第1分子の分解タスクを1つの第1サブタスクに区画し、現在のある計算ノードが実行しているサブタスクの数は閾値より小さいと、100個の第1分子の分解タスクを別の第1サブタスクに区画するなど、各第1サブタスクにおける第1分子の分解タスクの数が異なっている。
【0057】
ここで、本出願の実施例は複数の第1分子の分解タスクの区画方式を具体的に限定せず、以上提供した好適な方式のうちの何れか1つを採用してもよいし、任意の好適な方式を結合して、より複雑な区画方式を取得してもよい。
【0058】
402:サーバーは各第1サブタスクを複数の計算ノードに割り当て、各計算ノードは各第1分子の第1初期コスト値関数を計算して、当該第1初期コスト値関数を戻し、当該第1初期コスト値関数は、対応する計算ノードが分子コスト値参照情報に基づいて計算することで得られる。
【0059】
本出願の実施例において、サーバーは同時に複数の計算ノードに基づいてデータを処理し、サーバーは複数の第1サブタスクを複数の計算ノードに割り当て、1つの計算ノードは少なくとも1つの第1分子の分解タスクを担当する。複数の計算ノードを使用して並行計算を行うことで、トレーニングプロセスを速めて、トレーニング速度を高める。第1初期コスト値関数は、計算ノードが各第1分子の分子表現情報に基づいて、分子コスト値参照情報を使用して計算することで、得られた各第1分子の初期のコスト値関数である。分子コスト値参照情報は分子の分解可能性を示す。コスト値関数は分子の分子表現情報に基づいて、当該分子を分解するためのコストが最小である分解経路を決定する。各第1分子の分解初期で、分子コスト値参照情報によって各第1分子のコスト値関数を初期化し、トレーニング初期でランダムな初期化によるコスト値関数は、ポリシーの不安定が生じやすいという状況を回避して、コスト値関数に基づいて分子分解経路を決定するポリシーの安定性を向上させる。
【0060】
好適な実現形態において、当該分子コスト値参照情報は合成アクセシビリティスコアであり、サーバーは合成アクセシビリティスコアを使用することで、分子のコスト値関数を初期化し、合成アクセシビリティスコアの、分子難易度を表徴する先験的優勢によって、ある程度で分子コスト値関数の収束速度を高める。
【0061】
好適な実現形態において、サーバーは各第1サブタスクを複数の計算ノードに割り当てる場合、以下の何れか1つの方式を含む。
【0062】
第1種の好適な実現形態において、第1サブタスクの数が現在計算ノードの数と同様であれば、サーバーは一対一の方式に従って割り当てる。
【0063】
第2種の好適な実現形態において、第1サブタスクの数が現在計算ノードの数より大きいと、サーバーは現在各計算ノードの計算能力に基づいて割り当てる。例えば、計算能力が強い計算ノードに対して1つより多い第1サブタスクを割り当て、計算能力が弱い計算ノードに対して1つの第1サブタスクのみを割り当てる。
【0064】
第3種の好適な実現形態において、サーバーは第1サブタスクにおける第1分子の分解タスクの数、及び計算ノードの計算能力に基づいて割り当て、例えば、計算能力が強い計算ノードに対して、100個の第1分子の分解タスクを含む第1サブタスクを当該計算ノードに割り当て、計算能力が弱い計算ノードに対して、10個の第1分子の分解タスクを含む第1サブタスクを当該計算ノードに割り当てる。
【0065】
ここで、本出願の実施例は、各第1サブタスクを複数の計算ノードに割り当てる方式を具体的に限定せず、以上提供した好適な方式のうちの何れか1つを採用してもよいし、任意の好適な方式を結合して、より複雑な割当方式を取得してもよい。
【0066】
403:サーバーは各計算ノードからフィードバックされた第1初期コスト値関数を受信する。
【0067】
本出願の実施例において、上記のステップ402で各計算ノードが計算することで得られた第1初期コスト値関数に基づいて、各計算ノードから戻された、各第1分子に対応する第1初期コスト値関数を受信する。
【0068】
ここで、上記のステップ401~ステップ403は本出願の実施例が提供した分散型トレーニングフレームワークに基づいて、分子逆合成経路探索過程を並行する実施形態であり、分散型計算の方式を採用することで、元の計算効果を維持するとともに、計算プロセスを速めて、トレーニング速度を高める。別の好適な実現形態において、サーバーは各第1分子の分解タスクを独立的に実行し、分散型トレーニングフレームワークに基づいて行う必要がなく、例えば、サーバーは各第1分子の分子表現情報及び分子コスト値参照情報に基づいて、各第1分子の第1初期コスト値関数を取得し、本出願の実施例はこれに対して具体的に限定しない。
【0069】
404:各第1分子の何れか1つの分解レベルが分解を完成した場合、サーバーは各第1分子の何れか1層の分解経路に対応する分解コスト値に基づいて、各第1分子の第1初期コスト値関数を更新して、各第1分子の第1ターゲットコスト値関数を取得し、当該第1ターゲットコスト値関数は、当該第1分子の、最小分解コスト値を有する分解経路を決定する。
【0070】
本出願の実施例において、各第1分子に対して分解タスクを実行する時、1つの第1分子の完全な分解経路は少なくとも1つの分解レベルから構成され、1つの分解レベルは1つの第1分子に対して一段階分解を行い、即ち、1つの第1分子の分解経路は少なくとも一段階分解から構成される。
【0071】
各段階の分解には何れも多種の分解方法が存在する。各種の分解方法は1つの分解コスト値に対応し、当該分解コスト値は現在の分解方法に基づいて、第1分子を現在レベルに必要なコストに分解することを示す。各第1分子の何れか1つの分解レベルが分解を完成した場合、サーバーは当該何れか1つの分解レベルに存在する少なくとも1つの分解方法に基づいて、少なくとも1つの分解コスト値を取得する。当該少なくとも1つの分解コスト値に基づいて、各第1分子の第1初期値関数を更新し、各第1分子の第1ターゲットコスト値関数を取得し、当該第1ターゲットコスト値関数は、当該第1分子の、最小分解コスト値を有する分解経路を決定する。
【0072】
例えば、第1分子を分解する場合、サーバーは1つの第1分子に対して、第1分解レベルAにおいて、即ち、当該第1分子に対して第1段階の分解を行う場合、分解コスト値a1、a2、a3にそれぞれ対応するA1、A2、A3という3つの分解方法が存在し、当該3つの分解コスト値に基づいて、当該第1分子の第1初期コスト値関数を更新し、更新後のコスト値関数により分解方法A1で分解すると、対応する分解コスト値a1が最小であると決定し、従って、サーバーは第1分解レベルAにおける分解方法A1に基づいて第2分解レベルB、即ち、第2段階の分解を行って、同じように、当該分解レベルBにおいて、分解コスト値b1、b2、b3にそれぞれ対応するB1、B2、B3という3つの分解方法が存在し、当該3つの分解コスト値に基づいて、分解レベルAによる更新後のコスト値関数を継続的に更新することで、分解レベルBにおいて、分解コスト値が最小である分解方法を決定する。サーバーは上記の方法に従って、次の分解レベルを順に行って、何れか1つの分解レベルが分解を完成した場合、第1初期コスト値関数を反復的に更新することで、最終的に第1ターゲットコスト値関数を取得する。
【0073】
好適な実現形態において、最小分解コスト値を有する分解経路を決定する制約条件をポリシーと称し、各第1分子に対して分解タスクを実行する時、式(1)に従って計算することで、第1分子が当該ポリシーに基づいて少なくとも1つの分解レベルを完成した後得られた分解経路に必要な分解コスト値を得て、この場合、異なる分解方法に基づいて異なる分解経路、即ち、異なる分解コスト値を取得する。当該第1分子の何れか1つの分解レベルが分解を完成した場合、少なくとも1本の分解経路による分解コスト値を取得でき、計算による少なくとも1つの分解コスト値に基づいて、第1分子の第1初期コスト値関数を更新して、式(2)の第1ターゲットコスト値関数v
*(m)を取得する。1つの実施例において、第1ターゲットコスト値関数を取得した後、式(3)に基づいてポリシーを反復的に更新し、π(r|m)を、分子を分解するためのポリシーとし、即ち、第1分子の分解経路は当該ポリシーに基づいて生成され、当該ポリシーを反復的に更新して、更新後のポリシーπ´(r|m)を取得し、当該更新後のポリシーπ´(r|m)に従って第1分子を分解する時必要なコストが最小である。式(1)~式(3)は以下の通りである。
【数1】
式(1)において、rは選択可能な反応、即ち、第1分子の分解経路に存在する分解方法であり、c
totは第1分子を分解するための総分解コスト値であり、c
rxnは、第1分子が1つの分解レベルにおいてr反応に従って分解する時のコスト値である。
【数2】
式(2)において、mは生成物、即ち、第1分子であり、M(r)は分子セットである。
【数3】
式(3)において、v
π(m´)は、第1分子がπに従って展開して生成物mを取得するコスト値関数である。
【0074】
好適な実現形態において、サーバーが各第1分子に対して分解タスクを実行する時、K個の分解レベルが存在し、Kは1以上であり、1つの分解レベルを完成するたびに、対応する分解コスト値は1であり、何れか1つの分解レベルに存在する少なくとも1つの分解方法に従って分解して得られた分子が分子データベースに存在する分子であれば、現在の分解方法の分解コスト値は0であり、取得した分子が存在し得ない分子であり、例えば、分子データベースに当該分子が存在しなければ、現在の分解方法の分解コスト値は100である。サーバーは上記の式(1)に従って計算することで、各第1分子が何れか1つの分解レベルに基づいて取得した分解コスト値を得る。最終的に、サーバーは何れか1つの分解レベルによる分解コスト値に基づいて、第1分子の第1初期コスト値関数を更新して、第1ターゲットコスト値関数を取得する。
【0075】
好適な実現形態において、サーバーは分子逆合成参照情報に基づいて各第1分子に対して分解タスクを実行する。当該分子逆合成参照情報は、各第1分子の何れか1つの分解レベルに対して、少なくとも1つの当該分解レベルによる分解方法を提供する。例えば、当該分子逆合成参照情報は分子類似度によるコンピュータ補助逆合成方法であり、当該方法は好適な分解解決策を分子に提供する。また、例えば、当該分子逆合成参照情報はテンプレートニューラルネットワークであり、少なくとも1つの反応テンプレート、即ち、分解方法を分子の分解に提供し、反応テンプレートは、旧化学結合の破壊及び新化学結合の生成を含む1種類の化学反応の過程を説明する。
【0076】
好適な実現形態において、上記の各第1分子の分解過程で、各第1分子の分解過程を展開ゲームにモデリングし、π(r|m)を、分子を分解するためのポリシーとし、mは生成物であり、rは選択可能な反応であり、そうすれば、現在分子のコスト関数を取得でき、展開過程で、第1ターゲットコスト値関数v*(m)を継続的に更新することで、分解コストが最小である分解経路を決定し、各ラウンドの展開の場合、ポリシーを反復的に更新する。
【0077】
405:何れか1つの第1分子の分解タスクがターゲット分解条件を満たすと、サーバーは各第1分子の第1ターゲットコスト値関数に基づいて、各第1分子の第1分解経路を決定する。
【0078】
本出願の実施例において、ターゲット分解条件は、各第1分子が少なくとも1つの分解レベルに基づいて取得した分解経路の深さがターゲット深さより小さく、且つ取得した分子に分解方法が存在しないか、又は、各第1分子が少なくとも1つの分解レベルに基づいて取得した分解経路の深さがターゲット深さに等しいことを指す。ターゲット深さは、サーバーが事前設定した深さ閾値である。例えば、当該深さ閾値を5に設定する。
【0079】
以下、ターゲット深さが5であることを例をとして説明し、
ある第1分子がP個の分解レベルを経た後(Pが1以上、且つ5より小さい)、取得した分解経路の深さが5より小さく、且つ取得した分子にさらなる分解方法が存在しない、即ち、取得した分子は何れも分子データベースから取得可能な分子であれば、当該第1分子の分解タスクはターゲット分解条件を満たし、サーバーは現在分解レベルに基づいて、当該第1分子の第1ターゲットコスト値関数を取得し、当該関数に基づいて、最小分解コスト値を有する分解経路を決定し、当該分解経路は当該第1分子の第1分解経路である。
【0080】
ある第1分子がQ個の分解レベルを経た後(この場合、Qが5に等しい)、取得した分解経路の深さが5であれば、当該第1分子の分解タスクはターゲット分解条件を満たし、サーバーは現在分解レベルに基づいて、当該第1分子の第1ターゲットコスト値関数を取得し、当該関数に基づいて、最小分解コスト値を有する分解経路を決定し、当該分解経路は当該第1分子の第1分解経路である。
【0081】
406:サーバーは各第1分子の第1分解経路に基づいて、各第1分子の対応するコスト値情報を決定する。
【0082】
本出願の実施例において、各第1分子の対応するコスト値情報は、対応する第1分解経路に従って当該第1分子を分離するためのコストを示す。好適な実現形態において、サーバーは各第1分子の第1ターゲットコスト値関数、即ち、v*(m)に基づいて、各第1分子の対応するコスト値情報を決定する。別の好適な実現形態において、各第1分子を分解する場合、何れか1つの分解レベルを完成するたびに、現在分解レベルに基づいて、最小分解コスト値を有する分解経路、即ち、現在分解レベルに基づいて、各第1分子の対応するコスト値情報を取得できる。
【0083】
407:サーバーは各第1分子の分子表現情報及び対応するコスト値情報に基づいて、第1コスト辞書を取得し、当該第1コスト辞書は各第1分子の分子表現情報及び対応するコスト値情報を含む。
【0084】
本出願の実施例において、第1コスト辞書における分子表現情報と対応するコスト値情報とは一対一の方式で存在している。例えば、第1コスト辞書において、各分子の分子表現情報及びその対応するコスト値情報をキー値ペアの方式で示し、即ち、第1コスト辞書にはN個のキー値ペアが存在し、Nは1以上であり、{Smile1:cost1};{Smile2:cost2}……{SmileN:costN}は、分子1~分子N、及びその対応するコスト値情報をそれぞれ示す。
【0085】
上記のステップ401~ステップ407を介して、サーバーは複数の第1分子の上層逆合成経路に対する探索を完成して、上層逆合成経路に対応する第1コスト辞書を取得する。
【0086】
408:サーバーは各第1分子の第1分解経路に基づいて、少なくとも1つの第2分子の分子表現情報を決定し、各第2分子は分子を取得可能になるように分解可能な分子である。
【0087】
本出願の実施例において、対応する第1分解経路に基づいて各第1分子を分解した後、複数の分子を取得でき、これらの分子には、分解が完成されず、分解可能な経路を有する一部の分子が存在し、これらの分子を第2分子に決定する。
【0088】
好適な実現形態において、サーバーはある第1分子に基づいて、その対応する分解タスクを実行する場合、当該第1分子は、その対応する第1分解経路に基づいて分解を行った後、少なくとも1つの分子を取得してから、取得した少なくとも1つの分子の分子表現情報を決定し、これに基づいて、サーバーは、取得した分子をさらに分解できるかどうかを決定し、さらに分解可能な分子が存在すれば、当該分子に分解方法が存在するかどうかを決定し、分解方法が存在すれば、当該分子を1つの第2分子に決定する。
【0089】
ここで、本出願の実施例において、サーバーは上記のステップ406~ステップ408に従って、前から後ろへの順序で、各第1分子の第1分解経路に基づいて、各第1分子のコスト値情報を決定し、第1コスト辞書を取得してから、少なくとも1つの第2分子を決定する。別の好適な実現形態において、サーバーはまず、ステップ408に従って、各第1分子の第1分解経路に基づいて、少なくとも1つの第2分子を決定してから、ステップ406及び407を実行することで、第1コスト辞書を取得する。本出願の実施例はこれに対して具体的に限定しない。
【0090】
409:サーバーは各第2分子をクラスタリングして、複数のセットを取得し、各セットには、類似の分子構造を有する少なくとも1つの第2分子が含まれる。
【0091】
本出願の実施例において、クラスタリングは、各分子の間の構造化類似度に基づいて各第2分子を複数のセットに区画する過程である。各セットにおける第2分子は類似の分子構造を有する。1つの実施例において、サーバーは他の分類方法、例えば、単純ベイズ分類アルゴリズムなどに基づいて少なくとも1つの第2分子を分類してもよい。本出願の実施例はこれに対して具体的に限定しない。
【0092】
好適な実現形態において、サーバーはテイラーブティナ(Taylor Butina、TB)アルゴリズムに基づいて各第2分子をクラスタリングする。式(4)に示すように、Tanimoto係数に基づいて2つの第2分子の間の構造化類似度を決定する。
【数4】
式(4)において、m
iは分子iのECPF4分子指紋であり、m
jは分子jのECPF4分子指紋であり、例えば、ECPF4分子指紋の指紋長さは1024であり、半径は3である。
【0093】
2つの分子の間のTanimoto係数が所定閾値より小さい場合、2つの分子は同一類の分子に属するとみなし、当該2つの分子を同一のセット内に分類させる。例えば、当該所定閾値は0.4であり、本出願の実施例は当該所定閾値の設定を具体的に限定せず、実際状況に基づいて調整すればよい。
【0094】
ここで、本出願の実施例において、TBアルゴリズムを採用して少なくとも1つの第2分子をクラスタリングし、別の好適な実現形態において、サーバーは他のクラスタリングアルゴリズム、例えば、k平均法クラスタリングアルゴリズム(k―means clustering algorithm)、平均シフトクラスタリングアルゴリズムなどを採用して第2分子をクラスタリングする。本出願の実施例はこれに対して具体的に限定しない。
【0095】
410:サーバーは各セットのクラスターセンターを複数の第3分子に決定し、当該第3分子は所属するセットにおける代表的な分子である。
【0096】
本出願の実施例において、クラスターセンターは、各第2分子をクラスタリングした後生成された複数のセットにおけるセンターであり、当該センターは所属するセットにおける、代表性を有する第2分子であり、当該代表性を有する第2分子を第3分子に決定する。
【0097】
サーバーは上記のステップ408~ステップ410を介して、各第1分子に対して上層逆合成経路の探索を行った後、取得した分解が完成されていないとともに、分解方法が存在する複数の分子をスクリーニングして、代表性を有する複数の第3分子を取得し、これらの第3分子を下層逆合成経路の開始分子とし、それぞれの分子の逆合成経路を探索する時、最大の深さに達するまで、又は、経路全体の探索を完成するまで、継続的に分解しなければならなくて、所要時間が長いという状況を回避する。階層化の過程で、代表性を有する分子を第3分子として選択し、以降のトレーニング過程の計算量を大幅に低減させ、分子逆合成経路の決定時間を低減させ、トレーニング速度をさらに高める。
【0098】
411:サーバーは各第3分子の第2分解経路に基づいて、第2コスト辞書を取得し、当該第2コスト辞書は各第3分子の分子表現情報及び対応するコスト値情報を含み、当該第3分子のコスト値情報は、対応する第2分解経路に従って当該第3分子を分離するためのコストを示す。
【0099】
本出願の実施例において、各第3分子の第2分解経路に基づいて、第2コスト辞書を取得する過程について
図5を参照すればよく、
図5は本出願の実施例が提供する第2コスト辞書を取得する方法のフローチャートであり、具体的に、以下のステップ501~ステップ507に分けられ、ここで、ステップ501~ステップ507は、上記のステップ401~ステップ407の実行過程に類似するため、以下、ステップ501~ステップ507を概略的に説明し、具体的な好適実現形態について贅言しない。
【0100】
501:サーバーは各第3分子の分子表現情報に基づいて、各第3分子の分解タスクを複数の第2サブタスクに区画し、当該分解タスクは分解経路に従って、各当該第3分子を分離することである。
【0101】
本出願の実施例において、第3分子は、上記のステップ410を実行して取得した分子である。サーバーは各第3分子の分子表現情報に基づいて、複数の第3分子の分解タスクを複数のサブタスクに区画する。
【0102】
502:サーバーは各第2サブタスクを複数の計算ノードに割り当て、各計算ノードは各第3分子の第2初期コスト値関数を計算して、当該第2初期コスト値関数を戻し、当該第2初期コスト値関数は、対応する計算ノードが分子コスト値参照情報に基づいて計算することで得られる。
【0103】
本出願の実施例において、サーバーは同時に複数の計算ノードに基づいてデータを処理でき、サーバーは複数の第2サブタスクを複数の計算ノードに割り当て、1つの第2計算ノードは少なくとも1つの第3分子の分解タスクを担当する。第2初期コスト値関数は、計算ノードが各第3分子の分子表現情報に基づいて分子コスト値参照情報を使用して計算することで取得した各第3分子の初期のコスト値関数である。コスト値関数は分子の分子表現情報に基づいて、当該分子を分解するためのコストが最小である分解経路を決定する。各第3分子の分解初期で、分子コスト値参照情報を使用して各第3分子のコスト値関数を初期化し、トレーニング初期でランダムな初期化によるコスト値関数が、ポリシーの不安定が生じやすいという状況を回避して、コスト値関数に基づいて分子分解経路を決定するポリシーの安定性を向上させる。
【0104】
503:サーバーは各計算ノードからフィードバックされた第2初期コスト値関数を受信する。
【0105】
本出願の実施例において、上記のステップ502において、各計算ノードが計算することで取得した第2初期コスト値関数に基づいて、サーバーは各計算ノードから戻された、各第3分子に対応する第2初期コスト値関数を受信することができる。
【0106】
504:各第3分子の何れか1つの分解レベルが分解を完成した場合、各第3分子の何れか1層の分解経路に対応する分解コスト値に基づいて、サーバーは各第3分子の第2初期コスト値関数を更新して、各第3分子の第2ターゲットコスト値関数を取得し、当該第2ターゲットコスト値関数は当該第3分子の、最小分解コスト値を有する分解経路を決定する。
【0107】
本出願の実施例において、各第3分子に対して分解タスクを実行する場合、1つの第3分子の完全な分解経路は少なくとも1つの分解レベルから構成され、1つの分解レベルは1つの第3分子に対して一段階の分解を行って、即ち、1つの第3分子の分解経路は少なくとも一段階の分解から構成される。
【0108】
各段階の分解には多種の分解方法が存在する。各種の分解方法は1つの分解コスト値に対応し、当該分解コスト値は、現在の分解方法に基づいて、第3分子を現在レベルに分解するためのコストを示す。各第3分子の何れか1つの分解レベルが分解を完成した場合、サーバーは当該何れか1つの分解レベルに存在する少なくとも1つの分解方法に基づいて、少なくとも1つの分解コスト値を取得する。当該少なくとも1つの分解コスト値に基づいて、各第3分子の第2初期値関数を更新し、各第3分子の第2ターゲットコスト値関数を取得し、当該第2ターゲットコスト値関数は当該第3分子の、最小分解コスト値を有する分解経路を決定する。
【0109】
505:何れか1つの第3分子の分解タスクがターゲット分解条件を満たすと、サーバーは各第3分子の第2ターゲットコスト値関数に基づいて、各第3分子の第2分解経路を決定する。
【0110】
本出願の実施例において、ターゲット分解条件は、各第3分子が少なくとも1つの分解レベルに基づいて取得した分解経路の深さがターゲット深さより小さく、且つ取得した分子に分解方法が存在していない、又は、各第3分子が少なくとも1つの分解レベルに基づいて取得した分解経路の深さがターゲット深さに等しいことである。ターゲット深さは、サーバーが事前設定した深さ閾値である。例えば、当該深さ閾値を5に設定する。第2分解経路は、分解後、ターゲット分解条件を満たすまで、第3分子を分解するためのコストが最小である経路を指す。
【0111】
506:サーバーは各第3分子の第2分解経路に基づいて、各第3分子の対応するコスト値情報を決定する。
【0112】
本出願の実施例において、各第3分子の対応するコスト値情報は、対応する第2分解経路に従って当該第3分子を分離するためのコストを示す。
【0113】
507:サーバーは各第3分子の分子表現情報及び対応するコスト値情報に基づいて、第2コスト辞書を取得し、当該第2コスト辞書は各第3分子の分子表現情報及び対応するコスト値情報を含む。
【0114】
本出願の実施例において、第2コスト辞書における分子表現情報と対応するコスト値情報とは一対一の方式で存在している。例えば、第2コスト辞書において、各分子の分子表現情報及びその対応するコスト値情報をキー値ペアの方式で示し、即ち、第2コスト辞書にはM個のキー値ペアが存在し、Mは1以上であり、{Smile1:cost1}、{Smile2:cost2}……{SmileM:costM}は分子1~分子M、及びその対応するコスト値情報をそれぞれ示す。
【0115】
サーバーは上記のステップ501~ステップ507を介して、下層逆合成経路の探索を完成して、下層逆合成経路に対応する第2コスト辞書を取得する。このような階層化の方式に基づいて、複数の第1分子の逆合成経路全体の探索を階層化し、上層逆合成経路の探索を完成し、代表性を有する分子をスクリーニングしてから、下層逆合成経路の探索を完成し、分子逆合成経路の探索時間を大幅に減少させる。
【0116】
412:サーバーは第2コスト辞書における各分子の分子表現情報及び対応するコスト値情報に基づいて、第2ニューラルネットワークをトレーニングする。
【0117】
本出願の実施例において、ニューラルネットワークは第1ニューラルネットワーク及び第2ニューラルネットワークを含み、第1ニューラルネットワークは第1コスト辞書における情報に基づいて、トレーニングすることで得られたニューラルネットワークであり、第2ニューラルネットワークは第2コスト辞書における情報に基づいて、トレーニングすることで得られたニューラルネットワークである。上記のステップ412は、サーバーは第2コスト辞書におけるある分子の分子表現情報を第2ニューラルネットワークに入力して、第2ニューラルネットワークのネットワークパラメータに基づいて計算することで、当該分子の対応する予測コスト値情報を取得するステップと、サーバーは当該分子の対応する予測コスト値情報及び第2コスト辞書における当該分子の対応するコスト値情報に基づいて、第2ニューラルネットワークのモデル損失を決定するステップと、サーバーは第2ニューラルネットワークのモデル損失に基づいて、第2ニューラルネットワークにおけるネットワークパラメータを調整して、調整後の第2ニューラルネットワークに基づいて、新分子の分子表現情報を再び入力して、当該第2ニューラルネットワークのモデル損失がターゲット条件に合うまで、毎回の入力による予測コスト値情報及び入力された分子の対応するコスト値情報に基づいて、第2ニューラルネットワークにおけるネットワークパラメータを反復的に調整し続けてから、サーバーは現在第2ニューラルネットワークをトレーニング後の第2ニューラルネットワークに決定するステップと、を含む。
【0118】
ここで、本出願の実施例において、第2ニューラルネットワークのトレーニング過程は他のステップをさらに含んでもよく、ここで贅言しない。
【0119】
413:サーバーは第2コスト辞書に基づいて、第1コスト辞書を更新して、更新後の第1コスト辞書を取得する。
【0120】
本出願の実施例において、第2コスト辞書における各第3分子は、第1コスト辞書における第1分子を分解して取得した複数の分子をクラスタリングすることで決定される。第2コスト辞書には各第3分子の分子表現情報及び対応するコスト値情報が含まれ、サーバーは各第3分子の分子表現情報及び対応するコスト値情報によって、各第1分子のコスト値情報を更新して、更新後の第1コスト辞書を取得する。サーバーは各第1分子のコスト値情報に対して下から上への更新過程により、分子逆合成コストを決定する正確性を向上させる。
【0121】
好適な実現形態において、サーバーは第2コスト辞書に基づいて、第1コスト辞書を更新する具体的な過程は以下の通り、即ち、各第3分子の分子表現情報に基づいて、各第3分子に対応する各第1分子の分子表現情報を決定してから、第2コスト辞書における各第3分子のコスト値情報、及び第1コスト辞書における対応する各第1分子のコスト値情報に基づいて、両者を対応するように加算して、更新後の各第1分子のコスト値情報、即ち、更新後の第1コスト辞書を取得する。例えば、サーバーはある第3分子のコスト値情報に基づいて取得した当該第3分子を分解するための最小分解コスト値が10であり、その対応する第1分子の最小分解コスト値が20であり、そうすれば、更新後の第1分子の最小分解コスト値が30であり、本出願の実施例は第1コスト辞書の更新方式を具体的に限定しない。
【0122】
414:サーバーは更新後の第1コスト辞書における各分子の分子表現情報及び対応するコスト値情報に基づいて、第1ニューラルネットワークをトレーニングする。
【0123】
本出願の実施例において、当該ステップ414は、サーバーは第1コスト辞書におけるある分子の分子表現情報を第1ニューラルネットワークに入力して、第1ニューラルネットワークのネットワークパラメータに基づいて計算して、当該分子の対応する予測コスト値情報を取得するステップと、サーバーは当該分子の対応する予測コスト値情報、及び第1コスト辞書における当該分子の対応するコスト値情報に基づいて、第1ニューラルネットワークのモデル損失を決定するステップと、サーバーは第1ニューラルネットワークのモデル損失に基づいて、第1ニューラルネットワークにおけるネットワークパラメータを調整し、調整後の第1ニューラルネットワークに基づいて、新分子の分子表現情報を再び入力し、当該第1ニューラルネットワークのモデル損失がターゲット条件を満たすまで、毎回の入力による予測コスト値情報、及び入力された分子の対応するコスト値情報に基づいて、第1ニューラルネットワークにおけるネットワークパラメータを反復的に調整し続けてから、サーバーは現在第1ニューラルネットワークをトレーニング後の第1ニューラルネットワークに決定するステップと、を含む。
【0124】
ここで、本出願の実施例において、第1ニューラルネットワークのトレーニング過程は他のステップをさらに含んでもよく、ここで贅言しない。
【0125】
415:サーバーはトレーニング後の第2ニューラルネットワークと第1ニューラルネットワークとを組み合わせて、ターゲットニューラルネットワークを取得する。
【0126】
本出願の実施例において、ターゲットニューラルネットワークは入力されたターゲット分子の分子表現情報に基づいて、当該ターゲット分子の対応するコスト値情報を出力する。サーバーはトレーニング後の第2ニューラルネットワークと第1ニューラルネットワークとを組み合わせて、ターゲットニューラルネットワークを取得する。例えば、サーバーはシリアルの方式に基づいて、ターゲットニューラルネットワークを取得し、ターゲット分子に対して、当該ターゲット分子の分子表現情報を第1ニューラルネットワークに入力し、当該ターゲット分子の、上層逆合成経路によるコスト値情報を出力してから、サーバーは、当該ターゲット分子が上層逆合成経路を経て取得したさらなる分解方法が存在する分子を決定し、さらなる分解方法が存在する分子を第2ニューラルネットワークに入力し、ターゲット分子の、下層逆合成経路によるコスト値情報を出力し、最終的にターゲット分子の完全な逆合成経路を取得し、本出願の実施例はターゲットニューラルネットワークの取得方式を具体的に限定しない。
【0127】
上記のステップ412~ステップ415を介して、サーバーは第2コスト辞書及び更新後の第1コスト辞書に基づいてトレーニングすることで、ターゲットニューラルネットワークを取得し、本発明のターゲットニューラルネットワークの、トレーニング過程に参加していない分子に対する汎用化能力を最大化でき、当該ターゲットニューラルネットワークに基づいて、任意の分子について分解経路を取得できる。
【0128】
ここで、本出願の実施例において、サーバーは上記のステップ412~415に従って、前から後ろへの順序で第2ニューラルネットワークをトレーニングしてから、第1コスト辞書を更新して、第1ニューラルネットワークをトレーニングする。別の好適な実現形態において、サーバーはまず、ステップ413を実行して第1コスト辞書を更新してから、ステップ412、ステップ414及びステップ415を実行することで、ターゲットニューラルネットワークを取得する。本出願の実施例はこれに対して具体的に限定しない。
【0129】
ここで、本出願の実施例において、上記のステップ412~ステップ415は、本出願の実施例が提供する、トレーニングすることでターゲットニューラルネットワークを取得する過程の1つの実施形態であり、1つの実施例において、サーバーは他のトレーニング方式でターゲットニューラルネットワークを取得してもよく、これに対して本出願の実施例は具体的に限定しない。
【0130】
また、表2を参照して、表2は関連方法と本出願の実施例との実験効果の比較であり、当該実験は標準データセットに基づいて行って取得した、同じ数の分子を成功的に分解するための時間であり、実験の結果から分かるように、関連方法に比べると、本出願の実施例が提供する方法を採用すれば、同じ数の分子を分解する場合、所要時間は他のいくつかの方法より明らかに少ない。
【表2】
【0131】
表3を参照して、表3は関連方法と本出願の実施例との実験効果の比較であり、当該実験は標準データセットに基づいて行って取得した、同じ数の分子を分解する分解結果である。実験の結果から分かるように、関連方法に比べると、本出願の実施例が提供する方法を採用すれば、同じ数の分子を分解する場合、分解成功数が最大であり、なぜならば、分解不能による失敗数が最小であり、且つ分解層数が大きすぎることによる失敗数も最小であるためである。
【表3】
【0132】
無論、上記の異なる実施形態を互いに結合することで、異なる実施解決策を形成してもよく、これに対して本発明の実施例は限定しない。
【0133】
本出願の実施例において、分子逆合成経路を決定するニューラルネットワークのトレーニング方法を提供し、複数の分子に対して、各分子の逆合成経路を決定する場合、階層学習の理念を採用して、探索深さが大きな分子逆合成経路のトレーニング過程を多層に分解してトレーニングし、トレーニング速度を高めて、完全な逆合成反応過程の変わりとして、多層の分子逆合成経路を使用し、1層の分子逆合成経路のトレーニングを完成した後、分子スクリーニング方式で次の層の分子逆合成経路の開始分子として、代表性を有する分子を選択し、分子逆合成経路の探索効率を効果的に向上させ、正確な分子のコスト値情報をより効果的に抽出する。階層化の方式によって、分子逆合成経路の決定による大量の計算オーバーヘッドを大幅に減少させ、分子逆合成経路の正確さを保証する上に、分子逆合成経路の決定時間を低減させる。
【0134】
以下、実際状況を結合して、本出願の実施例が提供する分子逆合成経路を決定するニューラルネットワークのトレーニング方法に対して例を挙げて記載し、
図6に示すように、
図6は本出願の実施例が提供する分子逆合成経路を決定するニューラルネットワークのトレーニングアーキテクチャ図であり、2層に分けられることを例として説明する。
【0135】
まず、分子トレーニングセットにおける分子に対して、分散型トレーニングフレームワークを採用して、上層逆合成経路を並行して探索し、全ての分子分解タスクをN個の計算ノードに割り当て、Nは1以上である。各計算ノードは分子の分解タスクをそれぞれ実行し、分解の初期で各分子は分子の合成アクセシビリティスコアを採用して、そのコスト値関数を初期化し、分子分解の難易度を表徴する先験的優勢によって、分子コスト値関数の収束速度を高める。そして、ポリシーπ(r|m)に基づいて、各分子を展開し、最終的には各分子の、それぞれ対応するポリシーでのコストを取得する。各計算ノードの計算が完了した場合、全ての分子の分子表現情報及びそのコスト値情報をまとめて、上層コスト辞書を取得する。
【0136】
そして、上層逆合成経路の探索を完成した後、分解による分子のうちの、分解が完成されていないとともに、分解方法が存在する分子を収集し、TBアルゴリズムで分子をクラスタリングし、代表性を有する分子を下層分子逆合成経路探索の初期トレーニングセット、即ち、下層トレーニングデータとしてスクリーニングする。上層に類似する分子展開過程を採用して下層分子トレーニングセットにおける分子を展開して、下層コスト辞書を取得する。
【0137】
さらに、下層コスト辞書に基づいて上層コスト辞書を更新し、2つのコスト辞書に基づいて対応するニューラルネットワークをそれぞれトレーニングし、深層学習技術を使用して2つのニューラルネットワークに対して教師ありトレーニングを行って、新たなターゲット分子に対して逆合成経路探索を行うことができるターゲットニューラルネットワークを取得する。ニューラルネットワークに対して教師ありトレーニングを行う過程は以下の通りであり、即ち、分子の分子表現情報を入力して、第1完全接続層(Dense)を介してデータに対してバッチ正規化(Batch Normalization)処理を行ってから、第2完全接続層を介して、データに対してバッチ正規化を行って、第2完全接続層を介してデータに対してバッチ正規化を行う過程を5回繰り返して、最後、第3完全接続層を介して500―500e―|x|を出力し、xは変数である。
【0138】
図7は、本出願の実施例が提供する分子逆合成経路の決定方法のフローチャートであり、
図7に示すように、本出願の実施例において、サーバーに適用されることを例として説明する。当該方法は以下のステップを含む。
【0139】
701:サーバーはターゲット分子の分子表現情報を受信し、当該分子表現情報は当該ターゲット分子の3次元化学構造を示す。
【0140】
本出願の実施例において、ターゲット分子は分子データベースから取得できない分子であり、サーバーは当該ターゲット分子の分子表現情報を受信し、例えば、サーバーは当該ターゲット分子のSMILES記法、即ち、1列の文字を受信して、当該分子の3次元化学構造を示す。
【0141】
702:サーバーは当該ターゲット分子の分子表現情報を、分子逆合成経路を決定するニューラルネットワークに入力する。
【0142】
本出願の実施例において、サーバーはターゲット分子の分子表現情報を受信した後、それを、本発明の実施例が提供する分子逆合成経路を決定するニューラルネットワークに入力する。
【0143】
703:当該分子逆合成経路を決定するニューラルネットワークに基づいて、サーバーは当該ターゲット分子のターゲット分解経路を決定し、当該ターゲット分解経路は少なくとも1本の分解経路のうちの、分解コスト値が最も低い分解経路である。
【0144】
本出願の実施例において、本出願の実施例が提供する分子逆合成経路を決定するニューラルネットワークに基づいて、ターゲット分子の対応するコスト値情報を出力し、当該コスト値情報に対応する分解経路は、ターゲット分子の全ての可能な分解経路のうちの、分解コスト値が最も低い分解経路である。
【0145】
好適な実現形態において、上記のステップ703は、
当該分子逆合成経路を決定するためのニューラルネットワークは第1ニューラルネットワーク及び第2ニューラルネットワークを含むステップであって、第1ニューラルネットワークに基づいて、ターゲット分子の、上層逆合成経路によるコスト値情報を出力するステップと、ターゲット分子の第1分解経路を決定するステップであって、当該第1分解経路の経路深さはターゲット深さの以下であるステップと、第1分解経路に基づいてターゲット分子を分解して取得した分子から、さらなる分解方法が存在する分子を決定するステップと、さらなる分解方法が存在する分子の分子表現情報を第2ニューラルネットワークに入力するステップと、第2ニューラルネットワークに基づいて、ターゲット分子の、下層逆合成経路によるコスト値情報を出力するステップと、ターゲット分子の第2分解経路を決定するステップと、第1分解経路及び第2分解経路に基づいて、ターゲット分子のターゲット分解経路を決定するステップと、を含む。
【0146】
704:サーバーは当該ターゲット分解経路に基づいて、当該ターゲット分子の分子逆合成経路情報を取得する。
【0147】
本出願の実施例において、ステップ703によるターゲット分解経路に基づいて、ターゲット分子の、当該分解経路の各段階による分解反応を取得し、最終的に当該ターゲット分子の完全な逆合成経路を決定する。
【0148】
本出願の実施例において、分子逆合成経路の決定方法を提供し、分子逆合成経路を決定するニューラルネットワークによって、ターゲット分子の逆合成経路を取得し、所要時間が短く、正確率が高い。
【0149】
なお、上記実施例のフローチャートの各段階は矢印で示すように順番に示されているが、これらのステップは必ずしも矢印で示した順序で順番に実行されるとは限らない。本明細書で明示的に説明されていない限り、これらのステップの実行はその順序が厳密に制限されておらず、他の順序で実行することもできる。さらに、上記実施例のフローチャートのステップの少なくとも一部は、複数のサブステップ又は複数のステージを含み得る。これらのサブステップ又はステージは、必ずしも同時に実行される必要はなく、異なる時間及び順序で実行され得る。また、その実行の順序も必ずしも連続して実行されるとは限らなく、他のステップ又はサブステップ又は他のステップのステージの少なくとも一部と交互に実行され得る。
【0150】
図8は、本出願の実施例が提供する分子逆合成経路を決定するニューラルネットワークのトレーニング装置のブロック図である。当該装置は、上記の分子逆合成経路を決定するニューラルネットワークのトレーニング方法を実行する時のステップを実行し、
図8を参照して、装置は、
複数の第1分子の分子表現情報に基づいて、各第1分子の第1分解経路を決定する第1決定モジュール801であって、当該第1分解経路の経路深さはターゲット深さ以下である第1決定モジュール801と、
各第1分子の第1分解経路に基づいて、第1コスト辞書を取得する第1コスト辞書生成モジュール802であって、当該第1コスト辞書は各第1分子の分子表現情報及び対応するコスト値情報を含み、当該第1分子のコスト値情報は、対応する第1分解経路に従って当該第1分子を分離するためのコストを示す第1コスト辞書生成モジュール802と、
各第1分子の第1分解経路に基づいて、少なくとも1つの第2分子の分子表現情報を決定する第2決定モジュール803であって、各第2分子は分子を取得可能に分解可能な分子である第2決定モジュール803と、
複数の第3分子を各第2分子から決定する第3決定モジュール804であって、各第3分子は1類の第2分子を示す第3決定モジュール804と、
各第3分子の第2分解経路に基づいて、第2コスト辞書を取得する第2コスト辞書生成モジュール805であって、当該第2コスト辞書は各第3分子の分子表現情報及び対応するコスト値情報を含み、当該第3分子のコスト値情報は、対応する第2分解経路に従って第3分子を分離するためのコストを示す第2コスト辞書生成モジュール805と、
当該第1コスト辞書及び当該第2コスト辞書に基づいてトレーニングを行って、ターゲットニューラルネットワークを取得するトレーニングモジュール806であって、当該ターゲットニューラルネットワークは入力されたターゲット分子の分子表現情報に基づいて、ターゲット分子の対応するコスト値情報を出力するトレーニングモジュール806と、を含む。
【0151】
好適な実現形態において、当該第1決定モジュール801は、
各第1分子の分子表現情報及びコスト値参照情報に基づいて、各第1分子の第1初期コスト値関数を取得する取得ユニットと、
各第1分子の何れか1つの分解レベルが分解を完成した場合、各第1分子の何れか1層の分解経路に対応する分解コスト値に基づいて、各第1分子の第1初期コスト値関数を更新して、各第1分子の第1ターゲットコスト値関数を取得する更新ユニットであって、当該第1ターゲットコスト値関数は、当該第1分子の、最小分解コスト値を有する分解経路を決定する更新ユニットと、
何れか1つの第1分子の分解タスクがターゲット分解条件を満たすと、各第1分子の第1ターゲットコスト値関数に基づいて、各第1分子の第1分解経路を決定する決定ユニットと、を含む。
【0152】
好適な実現形態において、当該取得ユニットは、
各第1分子の分子表現情報に基づいて、各第1分子の分解タスクを複数の第1サブタスクに区画し、当該分解タスクは分解経路に従って各第1分子を分離することであり、
各第1サブタスクを複数の計算ノードに割り当て、各計算ノードは各第1分子の第1初期コスト値関数を計算して、当該第1初期コスト値関数を戻し、当該第1初期コスト値関数は、対応する計算ノードが分子コスト値参照情報に基づいて計算することで得られ、当該分子コスト値参照情報は分子の分解可能性を示し、
各計算ノードからフィードバックされた第1初期コスト値関数を受信する。
【0153】
好適な実現形態において、当該第1コスト辞書生成モジュール802は、
各第1分子の第1分解経路に基づいて、各第1分子の対応するコスト値情報を決定し、
各第1分子の分子表現情報及び対応するコスト値情報に基づいて、第1コスト辞書を取得する。
【0154】
好適な実現形態において、当該第3決定モジュール804は、
各第2分子をクラスタリングして、複数のセットを取得し、各セットには、類似の分子構造を有する少なくとも1つの第2分子が含まれ、
各セットのクラスターセンターを複数の第3分子に決定し、当該第3分子は所属するセットにおける代表的な分子である。
【0155】
好適な実現形態において、当該トレーニングモジュール806は、
第2コスト辞書における各分子の分子表現情報及び対応するコスト値情報に基づいて、第2ニューラルネットワークをトレーニングする第1トレーニングユニットと、
当該第2コスト辞書に基づいて、第1コスト辞書を更新して、更新後の第1コスト辞書を取得する第2コスト辞書更新ユニットと、
更新後の第1コスト辞書における各分子の分子表現情報及び対応するコスト値情報に基づいて、第1ニューラルネットワークをトレーニングする第2トレーニングユニットと、
トレーニング後の第2ニューラルネットワークと第1ニューラルネットワークとを組み合わせて、ターゲットニューラルネットワークを取得する組み合わせユニットと、を含む。
【0156】
好適な実現形態において、当該第1トレーニングユニットは、
第2コスト辞書における各分子の分子表現情報を第2ニューラルネットワークに入力して、各分子の対応する予測コスト値情報を取得し、
各分子の対応する予測コスト値情報、及び第2コスト辞書における各分子の対応するコスト値情報に基づいて、当該第2ニューラルネットワークのモデル損失を決定し、
当該第2ニューラルネットワークのモデル損失に基づいて、当該第2ニューラルネットワークにおけるネットワークパラメータを調整する。
【0157】
本出願の実施例において、分子逆合成経路を決定するニューラルネットワークのトレーニング装置を提供し、複数の分子に対して、各分子の逆合成経路を決定する場合、階層学習の理念を採用して、探索深さが大きな分子逆合成経路のトレーニング過程を多層に分解してトレーニングし、トレーニング速度を高めて、完全な逆合成反応過程の代わりとして、多層の分子逆合成経路を使用し、1層の分子逆合成経路のトレーニングを完成した後、分子スクリーニング方式で次の層の分子逆合成経路の開始分子として、代表性を有する分子を選択し、分子逆合成経路の探索効率を効果的に向上させ、正確な分子のコスト値情報をより効果的に抽出する。階層化の方式によって、分子逆合成経路の決定による大量の計算オーバーヘッドを大幅に減少させ、分子逆合成経路の正確さを保証する上に、分子逆合成経路の決定時間を低減させる。
【0158】
1つの実施例において、分子逆合成経路決定装置を提供し、当該装置は、
ターゲット分子の分子表現情報を受信する受信モジュールであって、前記分子表現情報は前記ターゲット分子の3次元化学構造を示す受信モジュールと、
前記ターゲット分子の分子表現情報を、分子逆合成経路を決定するためのニューラルネットワークに入力する入力モジュールと、
前記分子逆合成経路を決定するためのニューラルネットワークに基づいて、前記ターゲット分子のターゲット分解経路を決定する分解経路決定モジュールであって、前記ターゲット分解経路は少なくとも1本の分解経路のうちの、分解コスト値が最も低い分解経路である分解経路決定モジュールと、
前記ターゲット分解経路に基づいて、前記ターゲット分子の分子逆合成経路情報を取得する経路決定モジュールと、を含む。
【0159】
1つの実施例において、前記分子逆合成経路を決定するためのニューラルネットワークは第1ニューラルネットワーク及び第2ニューラルネットワークを含む。前記分解経路決定モジュールはさらに、前記第1ニューラルネットワークに基づいて、前記ターゲット分子の、上層逆合成経路によるコスト値情報を出力し、前記ターゲット分子の、上層逆合成経路によるコスト値情報に基づいて、前記ターゲット分子の第1分解経路を決定し、前記第1分解経路に基づいて前記ターゲット分子を分解して得られた分子から、さらなる分解装置が存在する分子の分子表現情報を決定し、前記さらなる分解装置が存在する分子の分子表現情報を前記第2ニューラルネットワークに入力し、前記第2ニューラルネットワークに基づいて、前記ターゲット分子の、下層逆合成経路によるコスト値情報を出力し、前記ターゲット分子の、下層逆合成経路によるコスト値情報に基づいて、前記ターゲット分子の第2分解経路を決定し、前記第1分解経路及び前記第2分解経路に基づいて、前記ターゲット分子のターゲット分解経路を決定する。
【0160】
ここで、上記の実施例が提供する装置について、上記の各機能モジュールの区画のみを例として記載し、実際適用において、ニーズに応じて異なる機能モジュールによって完成するように、上記の機能を割り当て、即ち、装置の内部構造を異なる機能モジュールに区画することで、以上に記載の全て又は一部の機能を完成してもよい。また、上記の実施例が提供する装置と、相応する方法実施例とは同一構想に属し、その具体的な実現過程について、方法実施例を参照すればよく、ここで贅言しない。
【0161】
コンピュータ機器はサーバーとして配置される場合、
図9は本出願の実施例が提供するサーバーの構造概略図であり、配置又は性能の差違により、当該サーバー900には大きな差が生じて、1つ又は1つ以上のプロセッサー(Central Processing Units、CPU)901及び1つ又は1つ以上のメモリ902を含み、当該メモリ902には少なくとも1つのコンピュータ可読命令が記憶され、当該少なくとも1つのコンピュータ可読命令は1つ又は複数のプロセッサー901によって読み込まれるとともに、実行されることで、上記の各方法実施例が提供する分子逆合成経路を決定するニューラルネットワークのトレーニング方法又は分子逆合成経路の決定方法を実現する。無論、当該サーバー900は有線又は無線ネットワークインターフェース、キーボード及び入力出力インターフェースなどの部材をさらに具備することで、入力出力を行ってもよく、当該サーバー900は、機器の機能を実現するための他の部材を含んでもよく、ここで、贅言しない。
【0162】
本出願の実施例は1つ又は複数のコンピュータ可読記憶媒体をさらに提供し、当該1つ又は複数のコンピュータ可読記憶媒体はコンピュータ機器に適用され、当該コンピュータ可読記憶媒体には少なくとも1つのコンピュータ可読命令が記憶され、当該少なくとも1つのコンピュータ可読命令は1つ又は複数のプロセッサーによって読み込まれるとともに、実行されることで、上記の実施例の各方法におけるコンピュータ機器が実行する操作を実現する。
【0163】
本出願の実施例はコンピュータプログラム製品をさらに提供し、当該コンピュータプログラム製品はコンピュータ可読命令を含み、当該コンピュータ可読命令はコンピュータ可読記憶媒体に記憶される。コンピュータ機器の1つ又は複数のプロセッサーは当該コンピュータ可読命令をコンピュータ可読記憶媒体から読み取って、1つ又は複数のプロセッサーは当該コンピュータ可読命令を実行することで、当該コンピュータ機器に上記の各種の好適な実現形態が提供する各方法におけるステップを実行させる。
【0164】
当業者であれば理解できるように、上記の実施例の全て又は一部のステップの実現はハードウェアによって完成されてもよいし、コンピュータ可読命令が関連のハードウェアに命令することで完成されてもよく、前記コンピュータ可読命令は1つ又は複数のコンピュータ可読記憶媒体に記憶され、上記に言及された記憶媒体は読み取り専用メモリ、磁気ディスク又は光ディスクなどであってもよい。
【0165】
以上は本出願を限定せず、本出願の好適な実施例であり、本出願の精神及び原則内で完成した任意の修正、等価置換、改良などは何れも本出願の保護範囲内に該当する。