(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-07-01
(45)【発行日】2022-07-11
(54)【発明の名称】データ生成装置および方法、並びに学習装置および方法
(51)【国際特許分類】
G06N 3/08 20060101AFI20220704BHJP
G05B 13/02 20060101ALI20220704BHJP
B01J 19/24 20060101ALI20220704BHJP
【FI】
G06N3/08
G05B13/02 L
B01J19/24 Z
(21)【出願番号】P 2021504931
(86)(22)【出願日】2020-03-02
(86)【国際出願番号】 JP2020008589
(87)【国際公開番号】W WO2020184240
(87)【国際公開日】2020-09-17
【審査請求日】2021-04-08
(31)【優先権主張番号】P 2019042363
(32)【優先日】2019-03-08
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】306037311
【氏名又は名称】富士フイルム株式会社
(74)【代理人】
【識別番号】110001519
【氏名又は名称】特許業務法人太陽国際特許事務所
(72)【発明者】
【氏名】長谷川 昌孝
【審査官】山本 俊介
(56)【参考文献】
【文献】特開2013-161298(JP,A)
【文献】特開2018-148367(JP,A)
【文献】磯 俊樹 ほか,目の分類を行うニューラルネットの検討,電子情報通信学会技術研究報告,社団法人電子情報通信学会,1990年12月14日,pp.65-72,特に,「3.3中間ユニット数を変えた場合の検討」と「4.ニューラルネットを用いた目の分類の汎化性」
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/08
G05B 13/02
B01J 19/24
(57)【特許請求の範囲】
【請求項1】
生成物を産生するためのプロセスにおいて、プロセス条件が入力されると該プロセス条件に対応する産生結果を出力する、複数の層が複数の結合重みにより結合されてなるニューラルネットワークを学習する学習装置であって、
前記ニューラルネットワークを学習するための複数の学習データからなるデータセットを生成するデータ生成装置により生成された前記データセットを用いて、前記ニューラルネットワークの結合重みを導出する第1の演算を行う第1の演算部と、
前記結合重みが演算されたニューラルネットワークを用いて、産生結果が未知である複数のプロセス条件を有する条件データセットの前記プロセス条件毎に予測結果を算出することにより、前記プロセス条件と前記予測結果を関連付けた予測データセットを生成し、得られた複数の前記予測結果のうち、予め設定した目標結果に最も近い前記予測結果を特定し、特定した前記予測結果に関連付けられたプロセス条件を抽出プロセス条件として抽出する第2の演算を行う第2の演算部と、
前記データセットの数をNj、前記ニューラルネットワークの結合重みの数をMjとしたときに、前記抽出プロセス条件で生産物を産生した場合の産生結果と、前記抽出プロセス条件に関連付けられた前記予測結果との相違度が予め設定した許容範囲であるか否かの判定を行い、該判定が否定された場合には、前記抽出プロセス条件と前記抽出プロセス条件で産生させた場合の産生結果とを関連付けた産生情報を前記学習データとして前記データセットに加えることにより該データセットの数Njを更新し、前記ニューラルネットワークの新たな結合重みの数Mjを、Mj-1≦Mj<Nj/2となるように更新し、前記判定が肯定された場合には、前記抽出プロセス条件を前記プロセスに用いるプロセス条件に決定する判定部とを備え、
前記判定が肯定されるまで、更新された前記データセットおよび前記結合重みが更新された前記ニューラルネットワークに基づいて、前記第1の演算、前記第2の演算および前記判定を繰り返
し、
前記データ生成装置は、前記ニューラルネットワークの結合重みの総数をM0としたときに、2×M0個以上の複数のプロセス条件を設定するプロセス条件設定部と、前記複数のプロセス条件のそれぞれにより前記生成物を産生することにより導出される、前記複数のプロセス条件のそれぞれに対応する産生結果を取得する産生結果取得部と、前記複数のプロセス条件のそれぞれと該それぞれのプロセス条件に対応する前記産生結果からなる複数の学習データを、前記データセットとして生成する生成部とを備えてなる、学習装置。
【請求項2】
生成物を産生するためのプロセスにおいて、プロセス条件が入力されると該プロセス条件に対応する産生結果を出力する、複数の層が複数の結合重みにより結合されてなるニューラルネットワークを学習する学習装置であって、
複数のプロセス条件のそれぞれと該それぞれのプロセス条件に対応する前記産生結果とからなる複数の学習データからなるデータセットを用いて、前記ニューラルネットワークの結合重みを導出する第1の演算を行う第1の演算部と、
前記結合重みが演算されたニューラルネットワークを用いて、産生結果が未知である複数のプロセス条件を有する条件データセットの前記プロセス条件毎に予測結果を算出することにより、前記プロセス条件と前記予測結果を関連付けた予測データセットを生成し、得られた複数の前記予測結果のうち、予め設定した目標結果に最も近い前記予測結果を特定し、特定した前記予測結果に関連付けられたプロセス条件を抽出プロセス条件として抽出する第2の演算を行う第2の演算部と、
前記データセットの数をNj、前記ニューラルネットワークの結合重みの数をMjとしたときに、前記抽出プロセス条件で生産物を産生した場合の産生結果と、前記抽出プロセス条件に関連付けられた前記予測結果との相違度が予め設定した許容範囲であるか否かの判定を行い、該判定が否定された場合には、前記抽出プロセス条件と前記抽出プロセス条件で産生させた場合の産生結果とを関連付けた産生情報を前記学習データとして前記データセットに加えることにより該データセットの数Njを更新し、前記ニューラルネットワークの新たな結合重みの数Mjを、Mj-1≦Mj<Nj/2となるように更新し、前記判定が肯定された場合には、前記抽出プロセス条件を前記プロセスに用いるプロセス条件に決定する判定部とを備え、
前記判定が肯定されるまで、更新された前記データセットおよび前記結合重みが更新された前記ニューラルネットワークに基づいて、前記第1の演算、前記第2の演算および前記判定を繰り返す学習装置。
【請求項3】
前記プロセスは、原料を流しながら該原料を反応させて前記生成物を産生するフロー反応処理である請求項
1または
2に記載の学習装置。
【請求項4】
生成物を産生するためのプロセスにおいて、プロセス条件が入力されると該プロセス条件に対応する産生結果を出力する、複数の層が複数の結合重みにより結合されてなるニューラルネットワークを学習する学習方法であって、
前記ニューラルネットワークを学習するための複数の学習データからなるデータセットを生成するデータ生成方法により生成された前記データセットを用いて、前記ニューラルネットワークの結合重みを導出する第1の演算を行い、
前記結合重みが演算されたニューラルネットワークを用いて、産生結果が未知である複数のプロセス条件を有する条件データセットの前記プロセス条件毎に予測結果を算出することにより、前記プロセス条件と前記予測結果を関連付けた予測データセットを生成し、
得られた複数の前記予測結果のうち、予め設定した目標結果に最も近い前記予測結果を特定し、特定した前記予測結果に関連付けられたプロセス条件を抽出プロセス条件として抽出する第2の演算を行い、
前記データセットの数をNj、前記ニューラルネットワークの結合重みの数をMjとしたときに、前記抽出プロセス条件で生産物を産生した場合の産生結果と、前記抽出プロセス条件に関連付けられた前記予測結果との相違度が予め設定した許容範囲であるか否かの判定を行い、該判定が否定された場合には、前記抽出プロセス条件と前記抽出プロセス条件で産生させた場合の産生結果とを関連付けた産生情報を前記学習データとして前記データセットに加えることにより該データセットの数Njを更新し、前記ニューラルネットワークの新たな結合重みの数Mjを、Mj-1≦Mj<Nj/2となるように更新し、前記判定が肯定された場合には、前記抽出プロセス条件を前記プロセスに用いるプロセス条件に決定し、
前記判定が肯定されるまで、更新された前記データセットおよび前記結合重みが更新された前記ニューラルネットワークに基づいて、前記第1の演算、前記第2の演算および前記判定を繰り返
し、
前記データ生成方法は、前記ニューラルネットワークの結合重みの総数をM0としたときに、2×M0個以上の複数のプロセス条件を設定し、前記複数のプロセス条件のそれぞれにより前記生成物を産生することにより導出される、前記複数のプロセス条件のそれぞれに対応する産生結果を取得し、前記複数のプロセス条件のそれぞれと該それぞれのプロセス条件に対応する前記産生結果からなる複数の学習データを、前記データセットとして生成する、学習方法。
【請求項5】
生成物を産生するためのプロセスにおいて、プロセス条件が入力されると該プロセス条件に対応する産生結果を出力する、複数の層が複数の結合重みにより結合されてなるニューラルネットワークを学習する学習方法であって、
複数のプロセス条件のそれぞれと該それぞれのプロセス条件に対応する前記産生結果とからなる複数の学習データからなるデータセットを用いて、前記ニューラルネットワークの結合重みを導出する第1の演算を行い、
前記結合重みが演算されたニューラルネットワークを用いて、産生結果が未知である複数のプロセス条件を有する条件データセットの前記プロセス条件毎に予測結果を算出することにより、前記プロセス条件と前記予測結果を関連付けた予測データセットを生成し、得られた複数の前記予測結果のうち、予め設定した目標結果に最も近い前記予測結果を特定し、特定した前記予測結果に関連付けられたプロセス条件を抽出プロセス条件として抽出する第2の演算を行い、
前記データセットの数をNj、前記ニューラルネットワークの結合重みの数をMjとしたときに、前記抽出プロセス条件で生産物を産生した場合の産生結果と、前記抽出プロセス条件に関連付けられた前記予測結果との相違度が予め設定した許容範囲であるか否かの判定を行い、該判定が否定された場合には、前記抽出プロセス条件と前記抽出プロセス条件で産生させた場合の産生結果とを関連付けた産生情報を前記学習データとして前記データセットに加えることにより該データセットの数Njを更新し、前記ニューラルネットワークの新たな結合重みの数Mjを、Mj-1≦Mj<Nj/2となるように更新し、前記判定が肯定された場合には、前記抽出プロセス条件を前記プロセスに用いるプロセス条件に決定し、
前記判定が肯定されるまで、更新された前記データセットおよび前記結合重みが更新された前記ニューラルネットワークに基づいて、前記第1の演算、前記第2の演算および前記判定を繰り返す学習方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、データ生成装置および方法、並びに学習装置および方法に関するものである。
【背景技術】
【0002】
反応物を含有する原料を反応させる手法には、原料を容器中に収容した状態で反応させるいわゆるバッチ式と、原料を流しながら反応させる連続式とがある。連続式の反応は、原料を流しながら反応させることからフロー反応と呼ばれる。フロー反応処理は、反応を連続的に実施することから生成物が均一な性状で得られやすい。また、フロー反応処理は、生産性がバッチ式に比べて高いという利点がある。
【0003】
ところで、化学反応処理に、例えばニューラルネットワークを用いた各種演算を利用する手法が提案されている。例えば、特許文献1では、化学反応装置の各計測器の異常状態下におけるデータをプログラム中に予め学習記憶させたニューラルネットワークによって演算させている。そして、この演算値が設定された正常許容帯値と乖離した場合には、異常信号をニューロコントローラに出力し、化学反応装置の各部に是正制御信号を送ることにより異常反応を制御している。これにより、化学反応装置の異常状態を早急に検出して、迅速かつ的確な制御を行っている。
【0004】
特許文献2には、化合物の物性予測の手法として、作成した予測モデルを未知サンプルに適用して予測項目を計算する技術が記載されている。この技術は、未知サンプルと個々の学習サンプルとについて取得した複数のパラメータ値に基づいて未知サンプルと個々の学習サンプルとの類似度を算出し、予め設定した閾値以上の類似度である学習サンプルを取り出してサブサンプルセットを構成している。そしてサブサンプルセットのデータ解析を行って予測モデルを作成し、この予測モデルを未知サンプルに適用して予測項目を計算している。また、特許文献3においては、遺伝的アルゴリズムを用いてフロー反応を制御しており、これにより目的とする生成物を産生している。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2002-301359号公報
【文献】国際公開第2009/025045号
【文献】特表2015-520674号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
フロー反応処理は、原料を流しながら反応させることから、最適な反応条件を見つけ出すことがバッチ式反応処理に比べて通常は難しい。流速あるいは流量等、フロー反応ならではの条件パラメータがフロー反応にはあるからである。
【0007】
このように条件パラメータが多いフロー反応は、新たな反応処理を開始するまでに、条件設定に関して多くの試行および時間を要し、特に新たな反応系での条件探索においては顕著である。また、なんらかの理由で例えば複数の条件パラメータのうちのひとつを変更せざるを得ない場合でも、他の条件パラメータのいずれをどう変更するかを決定することは簡単とはいえない。このため、反応結果が既知のデータを学習データとして用いてニューラルネットワークの学習を行うことにより、より好ましい条件設定を行うことが考えられる。
【0008】
一方、ニューラルネットワークを学習する場合、学習データが多いほど、学習の精度が向上する。しかしながら、フロー反応処理のような生成物を産生するための産生プロセスにおいては、多くの学習データを用意するためには、多くの原材料が必要となる。また、学習データを用意する間、生産設備が学習データの用意のために占有されてしまうこととなる。また、反応処理には長時間を要するものもある。このように、フロー反応処理のような産生プロセスにおいては、原材料、設備および反応処理の制約があるため、多くの学習データを用意することは困難である。その一方で、ある程度の数の学習データを用意しないと、ニューラルネットワークの学習を精度よく行うことができない。ニューラルネットワークの学習を精度よく行うことができないと、産生プロセスの条件設定を適切に行うことができない。
【0009】
本開示は上記事情に鑑みなされたものであり、産生プロセスの条件設定を適切に行うことができるようにすることを目的とする。
【課題を解決するための手段】
【0010】
本開示によるデータ生成装置は、生成物を産生するためのプロセスにおいて、プロセス条件が入力されるとプロセス条件に対応する産生結果を出力する、複数の層が複数の結合重みにより結合されてなるニューラルネットワークを学習するための複数の学習データからなるデータセットを生成するデータ生成装置であって、
ニューラルネットワークの結合重みの総数をM0としたときに、2×M0個以上の複数のプロセス条件を設定するプロセス条件設定部と、
複数のプロセス条件のそれぞれにより生成物を産生することにより導出される、複数のプロセス条件のそれぞれに対応する産生結果を取得する産生結果取得部と、
複数のプロセス条件のそれぞれとそれぞれのプロセス条件に対応する産生結果からなる複数の学習データを、データセットとして生成する生成部とを備える。
【0011】
なお、本開示によるデータ生成装置においては、プロセス条件設定部は、2×M0個以上、10×M0個以下の複数のプロセス条件を設定するものであってもよい。
【0012】
また、本開示によるデータ生成装置においては、プロセス条件設定部は、プロセス条件の上限および下限を設定するものであってもよい。
【0013】
また、本開示によるデータ生成装置においては、プロセスは、原料を流しながら原料を反応させて生成物を産生するフロー反応処理であってもよい。
【0014】
本開示による第1の学習装置は、生成物を産生するためのプロセスにおいて、プロセス条件が入力されるとプロセス条件に対応する産生結果を出力する、複数の層が複数の結合重みにより結合されてなるニューラルネットワークを学習する学習装置であって、
本開示のデータ生成装置により生成されたデータセットを用いて、ニューラルネットワークの結合重みを導出する第1の演算を行う第1の演算部と、
結合重みが演算されたニューラルネットワークを用いて、産生結果が未知である複数のプロセス条件を有する条件データセットのプロセス条件毎に予測結果を算出することにより、プロセス条件と予測結果を関連付けた予測データセットを生成し、得られた複数の予測結果のうち、予め設定した目標結果に最も近い予測結果を特定し、特定した予測結果に関連付けられたプロセス条件を抽出プロセス条件として抽出する第2の演算を行う第2の演算部と、
データセットの数をNj、ニューラルネットワークの結合重みの数をMjとしたときに、抽出プロセス条件で生産物を産生した場合の産生結果と、抽出プロセス条件に関連付けられた予測結果との相違度が予め設定した許容範囲であるか否かの判定を行い、判定が否定された場合には、抽出プロセス条件と抽出プロセス条件で産生させた場合の産生結果とを関連付けた産生情報を学習データとしてデータセットに加えることによりデータセットの数Njを更新し、ニューラルネットワークの新たな結合重みの数Mjを、Mj-1≦Mj<Nj/2となるように更新し、判定が肯定された場合には、抽出プロセス条件をプロセスに用いるプロセス条件に決定する判定部とを備え、
判定が肯定されるまで、更新されたデータセットおよび結合重みが更新されたニューラルネットワークに基づいて、第1の演算、第2の演算および判定を繰り返す。
【0015】
本開示による第2の学習装置は、生成物を産生するためのプロセスにおいて、プロセス条件が入力されるとプロセス条件に対応する産生結果を出力する、複数の層が複数の結合重みにより結合されてなるニューラルネットワークを学習する学習装置であって、
複数のプロセス条件のそれぞれとそれぞれのプロセス条件に対応する産生結果とからなる複数の学習データからなるデータセットを用いて、ニューラルネットワークの結合重みを導出する第1の演算を行う第1の演算部と、
結合重みが演算されたニューラルネットワークを用いて、産生結果が未知である複数のプロセス条件を有する条件データセットのプロセス条件毎に予測結果を算出することにより、プロセス条件と予測結果を関連付けた予測データセットを生成し、得られた複数の予測結果のうち、予め設定した目標結果に最も近い予測結果を特定し、特定した予測結果に関連付けられたプロセス条件を抽出プロセス条件として抽出する第2の演算を行う第2の演算部と、
データセットの数をNj、ニューラルネットワークの結合重みの数をMjとしたときに、抽出プロセス条件で生産物を産生した場合の産生結果と、抽出プロセス条件に関連付けられた予測結果との相違度が予め設定した許容範囲であるか否かの判定を行い、判定が否定された場合には、抽出プロセス条件と抽出プロセス条件で産生させた場合の産生結果とを関連付けた産生情報を学習データとしてデータセットに加えることによりデータセットの数Njを更新し、ニューラルネットワークの新たな結合重みの数Mjを、Mj-1≦Mj<Nj/2となるように更新し、判定が肯定された場合には、抽出プロセス条件をプロセスに用いるプロセス条件に決定する判定部とを備え、
判定が肯定されるまで、更新されたデータセットおよび結合重みが更新されたニューラルネットワークに基づいて、第1の演算、第2の演算および判定を繰り返す。
【0016】
なお、本開示による第1または第2の学習装置においては、プロセスは、原料を流しながら原料を反応させて生成物を産生するフロー反応処理であってもよい。
【0017】
本開示によるデータ生成方法は、生成物を産生するためのプロセスにおいて、プロセス条件が入力されるとプロセス条件に対応する産生結果を出力する、複数の層が複数の結合重みにより結合されてなるニューラルネットワークを学習するための複数の学習データからなるデータセットを生成するデータ生成方法であって、
ニューラルネットワークの結合重みの総数をM0としたときに、2×M0個以上の複数のプロセス条件を設定し、
複数のプロセス条件のそれぞれにより生成物を産生することにより導出される、複数のプロセス条件のそれぞれに対応する産生結果を取得し、
複数のプロセス条件のそれぞれとそれぞれのプロセス条件に対応する産生結果からなる複数の学習データを、データセットとして生成する。
【0018】
本開示による第1の学習方法は、生成物を産生するためのプロセスにおいて、プロセス条件が入力されるとプロセス条件に対応する産生結果を出力する、複数の層が複数の結合重みにより結合されてなるニューラルネットワークを学習する学習方法であって、
本開示のデータ生成方法により生成されたデータセットを用いて、ニューラルネットワークの結合重みを導出する第1の演算を行い、
結合重みが演算されたニューラルネットワークを用いて、産生結果が未知である複数のプロセス条件を有する条件データセットのプロセス条件毎に予測結果を算出することにより、プロセス条件と予測結果を関連付けた予測データセットを生成し、得られた複数の予測結果のうち、予め設定した目標結果に最も近い予測結果を特定し、特定した予測結果に関連付けられたプロセス条件を抽出プロセス条件として抽出する第2の演算を行い、
データセットの数をNj、ニューラルネットワークの結合重みの数をMjとしたときに、抽出プロセス条件で生産物を産生した場合の産生結果と、抽出プロセス条件に関連付けられた予測結果との相違度が予め設定した許容範囲であるか否かの判定を行い、判定が否定された場合には、抽出プロセス条件と抽出プロセス条件で産生させた場合の産生結果とを関連付けた産生情報を学習データとしてデータセットに加えることによりデータセットの数Njを更新し、ニューラルネットワークの新たな結合重みの数Mjを、Mj-1≦Mj<Nj/2となるように更新し、判定が肯定された場合には、抽出プロセス条件をプロセスに用いるプロセス条件に決定し、
判定が肯定されるまで、更新されたデータセットおよび結合重みが更新されたニューラルネットワークに基づいて、第1の演算、第2の演算および判定を繰り返す。
【0019】
本開示による第2の学習方法は、生成物を産生するためのプロセスにおいて、プロセス条件が入力されるとプロセス条件に対応する産生結果を出力する、複数の層が複数の結合重みにより結合されてなるニューラルネットワークを学習する学習方法であって、
複数のプロセス条件のそれぞれとそれぞれのプロセス条件に対応する産生結果とからなる複数の学習データからなるデータセットを用いて、ニューラルネットワークの結合重みを導出する第1の演算を行い、
結合重みが演算されたニューラルネットワークを用いて、産生結果が未知である複数のプロセス条件を有する条件データセットのプロセス条件毎に予測結果を算出することにより、プロセス条件と予測結果を関連付けた予測データセットを生成し、得られた複数の予測結果のうち、予め設定した目標結果に最も近い予測結果を特定し、特定した予測結果に関連付けられたプロセス条件を抽出プロセス条件として抽出する第2の演算を行い、
データセットの数をNj、ニューラルネットワークの結合重みの数をMjとしたときに、抽出プロセス条件で生産物を産生した場合の産生結果と、抽出プロセス条件に関連付けられた予測結果との相違度が予め設定した許容範囲であるか否かの判定を行い、判定が否定された場合には、抽出プロセス条件と抽出プロセス条件で産生させた場合の産生結果とを関連付けた産生情報を学習データとしてデータセットに加えることによりデータセットの数Njを更新し、ニューラルネットワークの新たな結合重みの数Mjを、Mj-1≦Mj<Nj/2となるように更新し、判定が肯定された場合には、抽出プロセス条件をプロセスに用いるプロセス条件に決定し、
判定が肯定されるまで、更新されたデータセットおよび結合重みが更新されたニューラルネットワークに基づいて、第1の演算、第2の演算および判定を繰り返す。
【発明の効果】
【0020】
本開示によれば、産生プロセスの条件設定を適切に行うことができる。
【図面の簡単な説明】
【0021】
【
図10】本実施形態において行われる処理を示すフローチャート
【
図11】本実施形態において行われるデータ生成処理のフローチャート
【
図12】本実施形態におけるニューラルネットワークの学習精度の検証結果を示す図
【
図13】本実施形態におけるデータセットに含まれる学習データの数と、ニューラルネットワークの結合数との関係を示す図
【発明を実施するための形態】
【0022】
以下、図面を参照して本開示の実施形態について説明する。
図1は本開示の実施形態によるデータ生成装置および学習装置を適用した産生プロセスの設備の一態様であるフロー反応設備を示す図である。
図1に示すように、フロー反応設備10は、フロー反応装置11、フロー反応支援装置(以下、単に「支援装置」と称する)12、データ生成装置13、システムコントローラ15、設定部16、および検出部17等を備える。フロー反応装置11は、フロー反応処理を行い、生成物を得るための装置である。
【0023】
フロー反応装置11で行うフロー反応は、例えばモノマーである化合物を合成する合成反応、モノマー同士を反応させることにより重合体を生成させる重合反応の他、例えばアニオン重合反応等の開始反応および停止反応等の素反応であってもよい。したがって、フロー反応の対象となる反応物は、例えば停止反応の対象となる生長(成長)段階の化合物であってもよい。本実施形態では、ポリスチリルリチウムの生長(成長)をメタノールで停止させる停止反応をフロー反応で行っている。
【0024】
フロー反応装置11は、第1供給部21、第2供給部22、反応セクション23および回収セクション26を備える。第1供給部21および第2供給部22はそれぞれ反応セクション23の上流側端部に配管で接続されており、回収セクション26は反応セクション23の下流側端部に配管で接続されている。
【0025】
第1供給部21は、フロー反応の第1原料を反応セクション23へ供給するためのものである。本実施形態の第1原料はポリスチリルリチウムを溶媒に溶解した第1液であり、ポリスチリルリチウムはフロー反応処理の反応物の一例である。本実施形態においては、第1供給部21は、ポルスチリルリチウムを溶媒に溶解した第1液を、反応セクション23へ供給している。溶媒にはテトラヒドロフラン(以下、THFと称する)を用いており、トルエンおよびヘキサンが第1液には少量混じっている。このようにフロー反応の原料は反応物と他の物質との混合物であってもよいし、あるいは反応物のみで構成されていてもよい。第1供給部21は、ポンプ(図示無し)を備えており、ポンプの回転数を調節することにより、反応セクション23への第1原料の流量が調節される。
【0026】
第2供給部22は、フロー反応の第2原料を、反応セクション23へ供給するためのものである。本実施形態の第2原料はメタノールと水との混合物、すなわちメタノール水溶液であり、メタノールを停止反応の停止剤として用いている。第2供給部22も第1供給部21と同様にポンプ(図示無し)を備えており、ポンプの回転数を調節することにより、反応セクション23へのメタノールの流量が調節される。第1供給部21および第2供給部22は本実施形態では液体を反応セクション23へ供給しているが、供給物は液体に限定されず、固体または気体であってもよい。
【0027】
反応セクション23は、フロー反応としての停止反応を行うためのものであり、合流部31、反応部32、および温調部33を備える。合流部31はT字に分岐した管、すなわちT字管である。合流部31の第1管部31aは第1供給部21に、第2管部31bは第2供給部22に、第3管部31cは反応部32に、それぞれ接続されている。これにより、案内されてきた第1原料と第2原料とが合流し、混合した状態で反応部32へ送られる。
【0028】
反応部32は、複数の管状部材を長さ方向に繋げた管である。管状部材の本数および用いる個々の管状部材の長さの少なくとも一方を変えることにより、反応部32の長さL32は変更される。また、管状部材を内径が異なる他の管状部材に変えることにより、反応部32の内径である反応路径D32は変更される。
【0029】
反応部32は内部が第1原料と第2原料との混合物(以下、混合原料と称する)の流路とされ、管内の中空部を反応の場として画定している。混合原料は、反応部32を通過しながらアニオン重合の停止反応が進められ、ポリスチレンが生成される。合流部31の第3管部31cにおいても反応が若干は進むが、反応部32の長さL32(本実施形態では8m)に対して合流部31の第3管部31cの長さは非常に短く、本実施形態の第3管部31cの長さは概ね0.03mとしている。そのため、第3管部31cの長さは無視し、反応部32の長さL32を、フロー反応を行う場の長さ(以下、反応路長と称する)と見なしている。以下、反応路長に符号L32を用いる。同様に、反応部32の内径D32を、フロー反応を行う場の径(以下、反応路径と称する)と見なし、反応路径に符号D32を用いる。
【0030】
温調部33は、フロー反応の温度(以下、反応温度と称する)を調節するためのものである。温調部33は、合流部31および反応部32を介して、これらの中を流れる混合原料の温度(反応温度)を調節する。設定部16によって設定した反応温度(以下、設定温度と称する)と、温調部33によって温調された混合原料の温度とが同じである場合には、設定温度を反応温度とみなしてよく、本実施形態でもそのようにしている。なお、設定温度と、混合原料の温度との差が大きい場合等には、例えば反応部32内等に温度を検出する温度検出器を設け、この温度検出器の検出結果を反応温度とすればよい。
【0031】
回収セクション26は、フロー反応の生成物であるポリスチレンを回収するためのものである。回収セクション26は、いずれも不図示の析出部、採取部および乾燥部等で構成されている。析出部は、生成物であるポリスチレンを析出させるためのものである。本実施形態においては、攪拌機を備えた容器を析出部として用いている。容器にメタノールを収容し、攪拌されているメタノール中に、反応セクションから案内されてきたポリスチレン溶液を入れることにより、ポリスチレンを析出させている。
【0032】
採取部は、析出したポリスチレンをメタノールとTHF等との混合液から採取するためのものである。本実施形態ではろ過器を採取部として用いている。
【0033】
乾燥部は、採取されたポリスチレンを乾燥するためのものである。本実施形態では、乾燥部として、減圧機能をもつ恒温槽を用いている。恒温槽内部を減圧状態にした状態で加熱することによりポリスチレンが得られる。
【0034】
反応セクションおよび回収セクションは、上記の例に限られず、フロー反応の種類および生成物の種類等の少なくとも1つに応じて適宜変更される。例えば、回収セクション26に代えて容器を設け、この容器に、反応セクション23から案内されてきたポリスチレン溶液を一旦貯留してもよい。この場合には、貯留したポリスチレン溶液を、回収セクション26に案内し、ポリスチレンを析出、採取、および乾燥させることにより得るとよい。
【0035】
検出部17は、回収セクション26および支援装置12と接続されており、フロー反応の処理結果である反応結果を検出し、支援装置12の判定部56(
図6参照)へ出力する。反応結果が、本開示の産生結果に対応する。反応結果となるパラメータ(以下、結果パラメータと称する)としては、生成物の純度、分子量、または分子量分散度(以下、単に分散度と称する)等の生成物の性状の他、収率等が挙げられる。また、回収セクション26において生成物が例えば溶媒に溶けている溶液状態で得られる場合には、溶液における生成物の濃度(モル濃度等)も結果パラメータとして検出してよい。なお、検出部17は、生成物のこれら各種性状に加えて、副生成物の収率あるいは純度等の各種性状を結果パラメータとして検出してもよい。反応結果を構成する結果パラメータは複数であってもよい。
【0036】
本実施形態では、回収セクション26で得られたポリスチレンの分子量および分散度を検出部17により検出している。すなわち、本実施形態での結果パラメータは分子量および分散度の2つである。検出している分子量は数平均分子量(Mn)である。分子量および分散度は、ポリスチレンをTHFに溶解することによりポリスチレン溶液をつくり、このポリスチレン溶液を用いてゲルパーミエーションクロマトグラフィ(以下、GPCと称する,GPCはGel Permeation Chromatographyの略)により求めている。なお、分散度は、重量平均分子量(Mw)を数平均分子量で除したMw/Mnである。結果パラメータの検出は、GPCに限られない。例えば、赤外分光法(IR,infrared spectroscopy)、核磁気共鳴分光法(NMR,Nuclear Magnetic Resonance spectroscopy)、高速液体クロマトグラフィ(HPLC,High Performance Liquid Chromatography)、またはガスクロマトグラフィ(GC,Gas Chromatography)等、各種の手法で検出してもよい。
【0037】
GPCは、下記の条件で測定している。
装置:HLC-8220GPC(東ソー(株)製)
検出器:示差屈折計(RI(Refractive Index)検出器)
プレカラム:TSKGUARDCOLUMN HXL-L 6mm×40mm(東ソー(株)製)
サンプル側カラム:以下(1)~(3)の3本を順に直結(全て東ソー(株)製)
(1)TSK-GEL GMHXL 7.8mm×300mm
(2)TSK-GEL G4000HXL 7.8mm×300mm
(3)TSK-GEL G2000HXL 7.8mm×300mm
リファレンス側カラム:TSK-GEL G1000HXL 7.8mm×300mm
恒温槽温度:40℃
移動層:THF
サンプル側移動層流量:1.0mL/分
リファレンス側移動層流量:1.0mL/分
試料濃度:0.1質量%
試料注入量:100μL
データ採取時間:試料注入後5分~45分
サンプリングピッチ:300msec
【0038】
システムコントローラ15は、フロー反応装置11を統括的に制御する。システムコントローラ15は、第1供給部21および第2供給部22の各ポンプ、および温調部33のそれぞれと接続されている。システムコントローラ15は、第1供給部21および第2供給部22の各ポンプの回転数を調節することによって第1原料および第2原料のそれぞれの流量を調節し、これにより、反応セクション23へ向かう第1原料および第2原料の各流速を制御する。なお、第1原料の流速は、第1供給部21から反応セクション23へ送り出す第1原料の流量をX1(単位はm3/秒)とし、第1供給部21と反応セクション23との間の配管の断面積をX2(単位はm2)とするときに、X1/X2で求められる。第2原料の流速も同様に、第2供給部22から反応セクション23へ送り出す第2原料の流量をX1とし、第2供給部22と反応セクション23との間の配管の断面積をX2(単位はm2)とし、X1/X2で求められる。なお、第1原料および第2原料の各流量は本実施形態では市販品である各ポンプのカタログデータに基づいて回転数から求めている。また、システムコントローラ15は、温調部33の調節により、混合原料の温度を制御する。このように、システムコントローラ15はフロー反応装置11の各部を調節することにより、フロー反応装置11を統括的に制御する。
【0039】
設定部16は、フロー反応装置11におけるフロー反応処理の処理条件(以下、反応条件と称する)を設定するためのものである。なお、反応条件が本開示のプロセス条件に対応する。反応条件は、複数の条件パラメータの組み合わせである。設定部16は、不図示の操作部を有し、操作部からの操作信号の入力によって反応条件を設定し、これによりシステムコントローラ15を介してフロー反応装置11を設定された反応条件に制御する。例えば、操作部のマウスでのクリックあるいは選択、および/またはキーボードでの文字の入力等により反応条件が設定される。設定部16は支援装置12と接続されており、上記の操作部からの操作信号に加えて、または代わりに、支援装置12の後述の第3記憶部51cから読み出した後述の決定反応条件CSに反応条件を設定し、これによりシステムコントローラ15を介してフロー反応装置11を予め定められた反応条件に制御する。なお、本実施形態の設定部16は、支援装置12に対しても後述のように入力信号を与えることができる。
【0040】
設定部16で設定する条件パラメータは、実施するフロー反応処理の種類によって決定すればよく、特に限定されない。例えば、第1原料および第2原料等の原料の流量、流速、反応セクション23へ送り込む原料の温度、反応温度、および反応時間等の少なくとも1つが挙げられる。本実施形態では、条件パラメータを、第1原料の流量、第2原料の流量、合流部の形状、反応路径D32、反応路長L32および反応温度としている。
【0041】
フロー反応処理の条件パラメータには、予め決定した一定の値に固定する条件パラメータ(以下、固定パラメータと称する)があってもよい。本実施形態の固定パラメータは、第1原料および第2原料における反応物の濃度、並びに反応路長L32である。第1原料および第2原料における反応物の濃度、並びに反応路長L32は、本実施形態では予め決定しており、システムコントローラ15を介した制御(例えば、濃度をより高く変更する、より低く変更する等の制御)は行っていない。このように、フロー反応には、システムコントローラ15による制御を行わず、例えば原料の調製工程およびフロー反応装置11の組み立て工程等において変更を行う条件パラメータがあってもよい。
【0042】
なお、フロー反応設備10において、フロー反応装置11を他のフロー反応装置に置き換えることができる。例えば本実施形態では、
図2に示すフロー反応装置41を
図2に示すフロー反応装置11に置き換えることができる。フロー反応装置41は、合流部31を合流部42に置き換えた反応セクション43を備える。なお、
図2において、
図1と同じ部材については
図1と同じ符号を付し、説明を略す。
【0043】
合流部42は、十字(cross)に分岐した管、すなわち十字管(cross tube)である。合流部42の第1管部42aは第2供給部22に、第1管部42aと交差する第2管部42bおよび第3管部42cは第1供給部21に、残る第4管部42dは反応部32に、それぞれ接続されている。これにより、案内されてきた第1原料と第2原料とが合流し、混合した状態で反応部32へ送られる。
【0044】
支援装置12は、フロー反応装置11によって行うフロー反応処理について、反応条件となる複数の条件パラメータを迅速に決定するための支援を行う。支援装置12の詳細は、後述する。
【0045】
データ生成装置13は、フロー反応装置11によって行うフロー反応処理について、反応条件が入力されると反応条件に対応する反応結果を出力する、複数の層が複数の結合重みにより結合されてなるニューラルネットワークを学習するための複数の学習データからなるデータセットを生成する。
【0046】
図3はデータ生成装置の構成を示す概略ブロック図である。
図3に示すように、データ生成装置13は、反応条件設定部52、反応結果取得部53および生成部54を備える。
反応条件設定部52および反応結果取得部53が、それぞれ本開示のプロセス条件設定部および産生結果取得部に対応する。
【0047】
反応条件設定部52は、ニューラルネットワークの結合重みの総数をM0としたときに、2×M0個以上の複数の反応条件を設定する。なお、反応条件設定部52は、反応条件に含まれる各条件パラメータの上限および下限も設定する。
図4は、本実施形態において使用するニューラルネットワークの層構造の概念図である。
図4に示すように、ニューラルネットワーク70は、入力層L1、中間層(隠れ層)L2および出力層L3の3層構造を有する。入力層L1は、説明変数である条件パラメータの値xiで構成される。本実施形態においては、条件パラメータは、第1原料の流量、第2原料の流量、合流部の形状、反応路径D32、反応路長L32および反応温度であるため、i=1~5である。隠れ層L2は、3つのノードu1~u3で構成され、本実施形態では1層となっている。出力層L3は目的変数である結果パラメータの値ymで構成される。本実施形態においては、結果パラメータは分子量および分散度であるため、m=1,2である。なお、ニューラルネットワーク70の詳細な構成については後述する。
【0048】
図4に示すようなニューラルネットワーク70を使用する場合、ニューラルネットワークの結合の重みの総数M0は、5×3+3×2=21個となる。このため、反応条件設定部52は、2×21=42個以上の反応条件を設定する。また、反応条件の数の上限としては、本実施形態においては、10×M0を用いる。本実施形態においては、反応条件設定部52が結合の重みの総数M0に基づいて設定した反応条件を初期反応条件として用いる。
【0049】
なお、条件パラメータとしての第1原料の流量および第2原料の流量の上限は、第1供給部21および第2供給部が備えるポンプの能力に基づいて決定すればよい。一方、流量の下限は、配管に原料が充満される速度とすればよい。流速が過度に低くなると配管に原料が充満しなくなり、配管内にエアが混入し、反応ムラが生じてしまう。このため、配管に原料が充填される速度とは、配管にエアが混入しないように原料を供給することが可能な最低の速度を意味する。ここで、フロー反応装置のように反応路径が小さい場合、流体体積あたりの面積(比表面積)が大きいため、配管に原料が充満していないと反応ムラが顕著に発生してしまう。上記のように、第1原料の流量および第2原料の流量の下限を配管に原料が充満される速度に決定することにより、反応ムラの発生を防止することができる。
【0050】
一方、連続的な学習データを収集するにあたり、収集する学習データの質が重要となる。すなわち、学習データに含まれる条件パラメータの上限および下限が、学習データの中で均等にばらついている学習データを収集することが重要となる。学習データを収集する際の条件パラメータの振り方によっては、学習データに偏りが生じてしまい、その結果、質の悪い学習データしか得られない可能性がある。このため、学習データを収集するに際して、特にフロー反応プロセスにおいては、フロー反応のマイクロスケールまたはミリスケールで強く発現する物理量を利用して条件パラメータを振ることが有効である。すなわち、マイクロスケールまたはミリスケールの流路での混合では、流れが緻密な層流であるため、まず流体の分割および混合によって微小で規則的な流体塊を生成し、必要であれば衝突等の強制的な対流混合を利用しつつ、最終的に分子拡散によって混合が完了する。このため、マクロサイズにみられるような乱流によるランダムな混合状態にはならず、全体に亘って均一な混合操作が可能となる。対流混合の促進には流量が大きく依存する。
【0051】
したがって、学習データに含まれる条件パラメータとして、流量にばらつきを持たせるために、まず流量の上限および下限に対して50%の値を中間値として導出する。そして、流量の下限以上中間値未満の第1の範囲内で流量を振る。次いで、流量の中間値以上上限以下の第2の範囲内で流量を振るようにする。なお、第1の範囲と第2の範囲とにおいては学習データの数は同一とすることが好ましいが、少なくとも30%の数の学習データが第1の範囲内または第2の範囲内にあればよい。これにより、流量の上限および下限の範囲内において、偏りのない学習データを連続的に収集することが可能となる。このような方法を用いることにより、条件パラメータがばらつきを持った、良質な学習データを生成することが可能である。また、先に第2の範囲内で流量を振り、次いで、第1の範囲内で流量を振るようにしてもよい。
【0052】
反応結果取得部53は、反応条件設定部52が設定した複数の反応条件のそれぞれにより、フロー反応装置11にフロー反応処理を行わせることにより導出される反応結果を取得する。すなわち、設定された反応条件のそれぞれについて、反応結果、すなわち結果パラメータが取得される。この際、個々の反応条件と反応結果とが関連付けられて1つの反応情報が生成される。この1つの反応情報が学習データとなる。
【0053】
生成部54は、反応条件と反応結果との組み合わせからなる42個の反応情報、すなわち学習データをデータセットとして生成する。生成されたデータセットは、支援装置12に入力される。
【0054】
図5はデータセットを示す図である。
図5に示すように、データセットは42個の学習データからなる。各学習データは、第1原料の流量、第2原料の流量、合流部の形状、反応部における反応路径、および反応温度を含む反応条件と、生成物の分散度および分子量を含む反応結果とが対応づけられている。
【0055】
図6は支援装置12の構成を示す概略ブロック図である。
図6に示すように、支援装置12は、演算セクション50、第1記憶部51a~第3記憶部51c、および判定部56等から構成されている。本実施形態においては第1記憶部51a~第3記憶部51cは、演算セクション50とは別に構成されているが、演算セクション50の一部として構成されていてもよい。なお、演算セクション50および判定部56が、本開示の学習装置を構成する。
【0056】
第1記憶部51aは、データ生成装置13が生成した複数の学習データからなるデータセットが記憶される。また、データセットにはない反応条件により、フロー反応装置11において反応結果が取得されると、その反応条件と反応結果とからなる反応情報が新たな学習データとして記憶される。第1記憶部51aは、反応情報のうち反応条件のみで読み込み可能な状態に記憶する。例えば第1記憶部51aは、学習データに含まれる反応条件および反応結果を互いに異なるフィールドに記憶し、かつ反応条件および反応結果の関連付け情報を記憶する。または、反応条件および既知の反応結果をともに記憶しておくフィールドと、反応条件のみを記憶しておくフィールドとを設けてもよい。
【0057】
初期の学習時には、データ生成装置13が生成したデータセットに含まれる反応情報が学習データとして学習に使用される。本実施形態においては、初期状態において
図5に示す42個の学習データからなるデータセットが第1記憶部51aに記憶される。
【0058】
なお、
図5に示すように、第1記憶部51aに記憶されるデータセットは、本実施形態では複数の学習データを表構造で記憶している。具体的には、学習データの種別を縦欄に並んだ状態に配し、学習データの種別と反応条件と反応結果とを横欄に並んだ状態に配してある。但し、縦欄と横欄とは逆でもよい。第1記憶部51aにおけるデータセットの記憶態様は表構造に限られず、反応条件と反応結果とが関連付けられていればよい。したがって、例えば反応条件と反応結果とのそれぞれのフィールドを設けて記憶すればよい。
【0059】
演算セクション50は、学習モードおよび算出モードを有し、モードに応じて目的とする演算処理を行う。演算セクション50は、第1演算部61~第3演算部63を備え、第1演算部61は、学習モードでは演算処理を行い、算出モードでは後述のように演算を休止した休止状態と第1記憶部51aを読み込む状態とを繰り返している。第2演算部62および第3演算部63は、学習モードでは休止状態となっており、算出モードでは演算処理を行う。
【0060】
第1演算部61は、第1記憶部51aに記憶されているデータセットを読み出し、読み出したデータセットに含まれる学習データを用いて反応条件と反応結果との関連性を学習する。そして、第1演算部61は、学習により、反応条件と反応結果とを関連付けた関数を生成し、生成した関数を第2記憶部51bに書き込む。反応条件を構成する複数の条件パラメータと反応結果を構成する結果パラメータとのそれぞれは関数における変数であり、条件パラメータおよび結果パラメータを既に決めてある場合には、関数の生成とは、関数における係数の生成を意味する。
【0061】
本実施形態では、第1演算部61は、反応条件の各条件パラメータを説明変数とし、反応結果の結果パラメータを目的変数として学習を行うことにより、ニューラルネットワークの結合重みを表す重み係数を導出し、1回目の学習を終えた学習済みのニューラルネットワークを構築する。なお、説明変数は入力変数に相当し、目的変数は出力変数に相当する。第1演算部61において構築されたニューラルネットワークによって、本実施形態では、例えば以下の関数(1A)および(1B)が生成される。
【0062】
y1=wu1y1/[1+exp{-(wx1u1×x1+wx2u1×x2+…+wx5u1×x5)}]
+wu2y1/[1+exp{-(wx1u2×x1+wx2u2×x2+…+wx5u2×x5)}]
+wu3y1/[1+exp{-(wx1u3×x1+wx2u3×x2+…+wx5u3×x5)}] …(1A)
y2=wu1y2/[1+exp{-(wx1u1×x1+wx2u1×x2+…+wx5u1×x5)}]
+wu2y2/[1+exp{-(wx1u2×x1+wx2u2×x2+…+wx5u2×x5)}]
+wu3y2/[1+exp{-(wx1u3×x1+wx2u3×x2+…+wx5u3×x5)}] …(1B)
【0063】
上記関数(1A)および(1B)において、xi(iは自然数)は条件パラメータの値であり、iの最大値は条件パラメータの個数である。本実施形態においては、
図4に示す構造のニューラルネットワークを使用するため、本実施形態ではiは5である。ym(mは自然数)は結果パラメータの値であり、mの最大値は結果パラメータの個数である。したがって、本実施形態ではmは2である。ul(lは自然数)は隠れ層L2のノードであり、lの最大値はノードの個数である。本実施形態ではlは3である。w
xiul、w
ulymはニューラルネットワークの結合重みを表す重み係数である。具体的には以下である。下記の流量に関し、1mL(ミリリットル)/minは、1×10
-6×(1/60)m
3/秒として換算できる。
【0064】
y1;ポリスチレンの分子量
y2;ポリスチレンの分散度
x1(単位はmL/min);第1原料の流量(最小値0.5mL/min、最大値100mL/min)
x5(単位はmL/min);第2原料の流量(最小値0.5mL/min、最大値100mL/min)
x3(無次元の値である);合流部の形状がT字の場合を「1」、十字の場合を「2」と定義
x4(単位はmm);反応路径(最小値1mm、最大値10mm)
x5(単位は℃);反応温度(最小値0℃、最大値10℃)
ul;ノード
wxiul;xiとulとの間の重み係数
ym;結果パラメータの値
wulym;ulとymとの間の重み係数
【0065】
ニューラルネットワークは、市販のニューラルネットワークフィッティングアプリケーションを用いて構築できる。例えば本実施形態では、MathWorks社製のMatlab Neural Fitting toolを用いてニューラルネットワークを構築している。ニューラルネットワークフィッティングアプリケーションは、上記に限定されず、例えばR言語上で動作可能なRStudio社製のkerasパッケージ等を用いることもできる。
【0066】
ニューラルネットワークは、上述した
図4に示すように入力層L1と隠れ層L2と出力層L3との3層構造を有する。入力層L1は、説明変数である条件パラメータの値x1~x5で構成される。隠れ層L2は、3つのノードu1~u3で構成され、本実施形態では1層となっている。ノードu1~u3のそれぞれは、x1~x5をx1~x5の各々に対応する重み係数w
xiulで重み付けした値の総和である。出力層L3は目的変数である結果パラメータの値y1,y2で構成される。結果パラメータの値y1,y2のそれぞれは、ノードu1~u3を用いて、ノードu1~u3の各々に対応する重み係数w
ulymで重み付けし、求めた値である。
図4における黒丸「●」は、重み係数w
xiul,w
ulymを示している。なお、ニューラルネットワークの層構造は本実施形態に限定されない。
【0067】
演算セクション50は、第1演算部61によって第2記憶部51bに関数が書き込まれた場合には、学習モードを算出モードに切り替える。第2演算部62は、算出モードにおいて、第1記憶部51aから学習データの反応条件を読み出し、読み出した反応条件に基づいて、反応結果が未知である複数の反応条件を含む条件データセットを生成し、第2記憶部51bに書き込む。条件データセットは、読み出した反応結果が既知である反応条件を含んでいてもよく、本実施形態でもそのようにしている。
【0068】
第2演算部62は、反応条件を成す複数の条件パラメータのうち、少なくとも1つの条件パラメータの値を振り、反応結果が未知の反応条件を生成することにより、条件データセットを生成する。例えば、複数の条件パラメータのうち第1原料の流量について、データ生成装置13が生成した学習データにおける反応条件内の第1原料の流量が1mL/min,10mL/min,11mL/min,20mL/min,100mL/minを含む場合には、例えば2mL/min,5mL/min,6mL/min等の値である場合の反応結果は未知であるから、これらの値についての反応条件を生成する。
【0069】
反応結果が未知の反応条件となる状態に生成する条件パラメータの値は、第1記憶部51aから読み出した反応条件の条件パラメータにおける最小値と最大値との間の値とし、これらに加えて最小値および最大値を含んでいてもよい。例えば上記の例においては第1原料の流量の最小値は1mL/min、最大値は100mL/minであるから、これら両値の間で条件パラメータの値を複数生成する。本実施形態ではこれらに加えて最小値の1mL/minと最大値の100mL/minも含んでいてもよい。さらに、最大値と最小値との間の複数の値は、最大値と最小値との間を等間隔に刻んだ値とすることが好ましく、本実施形態では、上記の第1原料の流量については後述のように1mL/min間隔の値としている(
図7参照)。
【0070】
反応条件を成す複数の条件パラメータのうち、値を振る条件パラメータは、フロー反応装置11において変更してもよいと判断できる条件パラメータとする。本実施形態においては、第1原料の流量、第2原料の流量、合流部のタイプ(合流部31と合流部42)、反応路径D32、および反応温度のそれぞれについて値を振った複数の反応条件を生成している(
図7参照)。
【0071】
第2記憶部51bは、第1演算部61から出力された関数と、
図7に示す第2演算部62から出力された条件データセットとを記憶する。なお、本実施形態においては、第2演算部62が条件データセットを生成しているが、条件データセットは他の演算機器、例えばパーソナルコンピュータ等を用いて生成してもよい。また、
図7に示すように、第2演算部62が生成する条件データセットも、本実施形態では表構造としており、したがって、第2記憶部51bには表構造の条件データセットが記憶されている。具体的には、異なる反応条件を縦欄に並んだ状態に配し、条件パラメータを横欄に並んだ状態に配してある。但し、縦欄と横欄とは逆でもよい。また、条件データセットも学習データと同様に表構造に限られず、反応条件毎に個別に読み出し可能に生成し、第2記憶部51bに記憶させていればよい。
【0072】
図7に示すように、条件データセットにおいては、上述したように、最大値および最小値、並びに最大値と最小値との間を等間隔に刻んだ値としている。例えば、第1原料の流量については最小値である1mL/minから最大値である100mL/minまでを1mL/min間隔で刻んだ値であり、第2原料の流量については最小値である0.6mL/minから最大値である55.0mL/minまでを0.1mL/min間隔で刻んだ値である。また、合流部については、合流部31と合流部42との2通りの形状にしている。反応路径D32については最小値である1mmから最大値である10mmまでを1mm間隔で刻んだ値であり、反応温度は最小値(最低値)である1℃から最大値(最高値)である10℃までを1℃間隔で刻んだ値としている。但し、値を等間隔で刻む場合の間隔は、これに限られない。
【0073】
第3演算部63は、第2記憶部51bから関数および条件データセットを読み出し、予測データセットを生成し、生成した予測データセットを第3記憶部51cに書き込む。予測データセットは、複数の予測情報で構成される。予測情報は、条件データセットの反応条件毎に反応結果を予測し、求めた予測結果を反応条件に関連付けた予測データである。したがって、予測情報の数は、条件データセットにおける反応条件の数に等しい。予測は、読み出した関数を用いて行う演算処理である。
【0074】
第3演算部63は、複数の予測情報の中から、最もよい予測結果を示す予測情報を特定し、抽出する。そして、第3演算部63は、抽出した予測情報の反応条件を抽出反応条件CPとして第3記憶部51cに書き込み、かつ、抽出した予測情報の予測結果RPを抽出反応条件CPに関連付けた状態で第3記憶部51cに書き込む。
【0075】
第3演算部63には、目標とする反応結果(以下、目標結果と称する)RAが、例えば本実施形態では設定部16の操作部での入力により操作信号で予め入力されている。第3演算部63は、目標結果RAと、予測データセットの各予測情報の予測結果とを対比し、複数の予測結果の中から目標結果RAに最も近い(目標結果RAとの差が最も小さい)予測結果を上記の「最もよい予測結果」として特定する。目標結果RAと同じ予測結果がある場合には、その予測結果を「最もよい予測結果」として特定する。
【0076】
また、目標結果RAに最も近い予測結果が複数ある場合には、第1記憶部51aから学習データを読み出し、反応結果が最も目標結果RAに近い学習データの反応条件を参照し、以下のプロセスで「最もよい予測結果」を特定する。まず、予測データセットの各予測情報の条件パラメータをx1~x5とし、結果パラメータをy1とし、y1に対する寄与度をa1~a5とし、a1~a5を以下の式(1C)~(1G)で定義する。
【0077】
a1=wx1u1×wu1y1+wx1u2×wu2y1+wx1u3×wu3y1+…+wx1ul×wuly1 …(1C)
a2=wx2u1×wu1y1+wx2u2×wu2y1+wx2u3×wu3y1+…+wx2ul×wuly1 …(1D)
a3=wx3u1×wu1y1+wx3u2×wu2y1+wx3u3×wu3y1+…+wx3ul×wuly1 …(1E)
a4=wx4u1×wu1y1+wx4u2×wu2y1+wx4u3×wu3y1+…+wx4ul×wuly1 …(1F)
a5=wx5u1×wu1y1+wx5u2×wu2y1+wx5u3×wu3y1+…+wx5ul×wuly1 …(1G)
【0078】
ここでa1~a5をそれぞれ求めた場合の符号が正であれば予測結果に対して正の寄与度をもっており、符号が負であれば予測結果に対して負の寄与度をもっており、絶対値が大きいほど予測結果に対して寄与度が高いことを意味する。
【0079】
続いて、学習データの中から目標結果RAに最も近い反応結果と反応条件とを選択し、その反応結果をy1nとし、y1nと目標結果RAとの差の絶対値を式|RA-y1n|/RAの算出式で求める。次に、a1~a5の絶対値の大きさに着目する。例えばa1~a5の各絶対値の中でa1の絶対値が最も大きかった場合においては、以下の<A>~<D>の4つの場合分けで「最も良い予測結果」が特定される。
【0080】
<A>y1nとRAとの差と、y1RA-y1n/y1RAとがともに正であり、かつ、a1が正であった場合
y1nを正方向に大きくした場合にy1nはRAに近づく。そのため、学習データの最も目標結果RAに近い反応条件のa1の条件パラメータの値よりも正方向に最も大きい値をもつ条件パラメータを有する予測結果を、「最も良い予測結果」として特定する。
【0081】
<B>y1nとRAとの差と、y1RA-y1n/y1RAとがともに正であり、かつ、a1が負であった場合
y1nを正方向に大きくした場合にy1nはRAに近づく。そのため、学習データの最も目標結果RAに近い反応条件のa1の条件パラメータの値よりも負方向に最も大きい値をもつ条件パラメータを有する予測結果を、「最も良い予測結果」として特定する。
【0082】
<C>y1nとRAとの差と、y1RA-y1n/y1RAとがともに負であり、かつ、a1が正であった場合
y1nを負方向に大きくした場合にy1nはRAに近づく。そのため、学習データの最も目標結果RAに近い反応条件のa1の条件パラメータの値よりも負方向に最も大きい値をもつ条件パラメータを有する予測結果を、「最も良い予測結果」として特定する。
【0083】
<D>y1nとRAとの差と、y1RA-y1n/y1RAとがともに負であり、かつ、a1が負であった場合
y1nを負方向に大きくした場合にy1nはRAに近づく。そのため、学習データの最も目標結果RAに近い反応条件のa1の条件パラメータの値よりも正方向に最も大きい値をもつ条件パラメータを有する予測結果を、「最も良い予測結果」として特定する。
【0084】
反応結果の結果パラメータが複数ある場合には、複数の結果パラメータに重み付けをした状態で目標結果RAが入力されており、第3演算部63は、重み付けに基づいて「最もよい予測結果」を特定する。重み付けに基づいた特定は、例えば、重み付けが最も大きい結果パラメータのみで特定する第1の手法でもよいし、重み付けが最も大きい結果パラメータで目標結果RAに最も近い予測結果から例えば複数の候補を絞りこみ、絞り込んだ予測結果の中から重み付けの順位が低い結果パラメータにおいて目標結果RAに最も近い予測結果を「最もよい予測結果」として特定する第2の手法でもよい。本実施形態では第2の手法で特定している。なお、本実施形態での目標結果RAは、分子量が25200の±1%以内であり、分散度が1.03以内としている。
【0085】
第3記憶部51cは、第3演算部63から出力された予測データセットと、抽出反応条件CPと、抽出反応条件CPに関連付けられた予測結果RPとを記憶する。これらの予測データセットと抽出反応条件CPと予測結果RPとは、個別に読み出し可能な状態に記憶されている。
【0086】
図8は、第3演算部63が生成する予測データセットを示す図である。
図8に示すように、第3演算部63が生成する予測データセットも、本実施形態では表構造としており、したがって、第3記憶部51cには表構造の予測データセットが記憶されている。具体的には、予測情報の種別を縦欄に並んだ状態に配し、反応条件の条件パラメータと予測結果である結果パラメータとを横欄に並んだ状態に配してある。但し、縦欄と横欄とは逆でもよい。予測データセットも学習データと同様に表構造に限られず、反応条件と予測結果とが関連付けられており、かつ、少なくとも抽出反応条件CPが読み出し可能に生成し、第3記憶部51cに記憶させていればよい。
【0087】
図8には、
図7の条件データセットに基づき生成した予測データセットを示している。
本実施形態では2つの結果パラメータに前述の重み付けをしており、分子量の重み付けを分散度よりも大きくしている。本実施形態においては、
図8に示すように、重み付けが大きい分子量について、予測情報番号(以下、予測情報No.と記載する)6050と予測情報No.8000との分子量が24870となっており、他の予測情報No.と比べてもっとも目標結果RAに近く、互いに同値となっている。そして、予測情報No.6050と予測情報No.8000とのうち、予測情報No.6050の方が、重み付けが分子量よりも低い分散度について目標結果RAに近い。したがって第3演算部63は、予測情報No.6050の予測結果を前述の「最もよい予測結果」として特定し、予測情報No.6050の反応条件を抽出反応条件CPとして特定する。そして、第3演算部63は、予測情報No.6050の反応条件に、抽出反応条件CPであることの記録をした状態(表6においては説明の便宜上、予測情報No.の横に「*」を付してある)で、抽出反応条件CPとこの抽出反応条件に関連付けた予測結果とを第3記憶部51cに記憶させている。
【0088】
設定部16は、第3記憶部51cから抽出反応条件CPを読み出す。このように第3記憶部51cを介して演算セクション50の第3演算部63から入力された抽出反応条件CPを入力信号として、抽出反応条件CPをフロー反応装置11での反応条件として設定する。検出部17は、抽出反応条件CPで行ったフロー反応処理の反応結果(以下、実測結果と称する)RRを前述の通り判定部56へ出力する。
【0089】
判定部56は、第3記憶部51cから、抽出反応条件CPに関連付けられた予測結果RPを読み出し、予測結果RPと検出部17から入力された実測結果RRとを対比し、予測結果RPと実測結果RRとの相違度DRを求める。本実施形態では、|RP-RR|/RRの算出式により相違度DRを求めているが、予測結果RPの確からしさの指標として用いることができる値が求められれば相違度DRの求め方は特に限定されない。
【0090】
判定部56は、予測結果RPと実測結果RRとの対比演算行う場合に、対比データを生成している。そして、判定部56は対比データを記憶する対比データ記憶部(不図示)を有している。
図9には、対比演算を行う場合の対比データを示している。対比データは、予測結果RPの結果パラメータと実測結果RRとの結果パラメータとを並べた状態の表構造に生成している。本実施形態においては、予測結果RPと実測結果RRとを縦欄に並べて状態で、かつ、分散度と分子量との2つの結果パラメータを横欄に並べた状態にしているが、縦欄と横欄とは逆でもよい。また、実測結果RPと実測結果RRとの同じ結果パラメータ同士を読み出し可能な状態で対比データ記憶部に記憶していれば、記憶の態様は表構造でなくてもよい。
【0091】
判定部56は、この対比データを用いて、分子量の相違度DRと、分散度の相違度DRとを前述の算出式によりそれぞれ求めている。例えば
図9に示す対比データを用いた場合には、分子量の相違度DRは9.9891、分散度の相違度DRは、3.5107として算出される。
【0092】
判定部56には、相違度の許容範囲DTが、例えば本実施形態では設定部16の操作部での入力により操作信号として予め入力されている。判定部56は、相違度DRが許容範囲DTであるか否かを判定する。なお、本実施形態では許容範囲DTを1%と設定しているが、許容範囲は結果パラメータの種類等に応じて適宜設定できる。許容範囲DT(単位は%)は、(|RP-RR|/RR)×100の算出式で求めることができる。
【0093】
判定部56は、相違度DRが許容範囲DTであると判定した場合には、第3記憶部51cに記憶されている予測データセットの反応条件群のうち抽出反応条件CPを、フロー反応装置11で行う以降のフロー反応処理の反応条件(以下、決定反応条件と称する)CSにし、第3記憶部51に書き込む。抽出反応条件CPを決定反応条件CSとすることを含め、第3記憶部51cに記憶されている予測データセットの反応条件群をフロー反応装置11のフロー反応処理に用いる反応データセットとして第3記憶部51cに書き込んでもよく、本実施形態でもそのようにしている。
【0094】
本実施形態においては、判定部56は、第3記憶部51cに、反応データセットを反応条件毎に読み出し可能な状態に記憶させている。本実施形態においては、第3記憶部51cは予測データセットを記憶する領域および反応情報データセットを記憶する領域をもつが、反応データセットにおいて反応条件毎に読み出し可能な状態で記憶させていれば、判定部56は予測データセットの反応条件群を反応データセットに書き換えてもよい。その場合には、第3演算部63は第3記憶部51cに、予測データセットを、反応条件毎に読み出し可能な状態で予め記憶させる。また、本実施形態においては反応条件データセットを第3記憶部51cに記憶させているが、第4記憶部(不図示)をさらに設け、この第4記憶部に記憶させてもよい。
【0095】
判定部56は、相違度DRが許容範囲DTでないと判定した場合には、抽出反応条件CPを第3記憶部51cから読み出し、抽出反応条件CPと実測結果RRとを関連付けた反応情報を生成する。そして、生成した反応情報を、新たな学習データとして第1記憶部51aに書き込む。この書き込みにより、第1記憶部51aに記憶されたデータセットは書き換えられ、データセットに含まれる学習データの数は変化する。本実施形態においては、第1記憶部51aに記憶された初期のデータセットには42個の学習データが含まれており、判定部56の1回の書き込みによりひとつの反応情報が学習データとして追加されることにより、データセットに含まれる学習データの数が43個に更新される。
【0096】
また、判定部56は、データセットの数が更新されると、ニューラルネットワーク70の結合重みの数を更新する。ここで、更新されたデータセットの数をNj、更新前後のニューラルネットワーク70の結合重みの数を、それぞれMj-1、Mjとすると、判定部56は、ニューラルネットワークの新たな結合重みの数Mjを、Mj-1≦Mj<Nj/2となるように更新する。例えば、データセットの数が43個に更新された場合、更新前のニューラルネットワークの結合重みの数Mj-1は21であるため、更新された結合重みの数Mjは21が維持される。
【0097】
なお、ニューラルネットワーク70の結合重みの数は、隠れ層の数または隠れ層L2におけるノードulの数を増加させることにより、増加させることができる。ここで、隠れ層L2のノードの数を1つ増やして4個にすると、結合重みの総数は5×4+4×2=28個となる。Mj=28となるように上述したMj-1≦Mj<Nj/2の関係を満足するためのデータセットの数Njの最小値は57となる。このため、ニューラルネットワーク70の結合重みの数は、データセットの数が57となるまでは21が維持され、データセットの数が57となると、隠れ層L2のノードを1つ追加することにより、28個に更新されることとなる。
【0098】
第1演算部61は、本実施形態においては前述の通り、算出モードにおいては休止状態と第1記憶部51aの読み込みと繰り返している。具体的には、第1演算部61は予め設定した時間間隔で第1記憶部51aの学習データを読み込んでおり、前回読み込んだデータセットが新たな学習データを含むデータセットに書き換えられているか否かを判定している。
【0099】
第1演算部61が第1記憶部51aに記憶されたデータセットが書き換えられていないと判定した場合には、演算セクション50は算出モードを継続させる。書き換えられていると判定した場合には、演算セクション50は算出モードを学習モードに切り替え、第1演算部61は、書き換えられたデータセットに含まれる新たな学習データを用いて次回の学習を行い、新たな関数を生成し、第2記憶部51bに記憶されている関数を新たな関数に書き換える。なお、新たな関数の生成、および新たな関数の書き換えとは、関数における新たな重み係数の導出、および関数における重み係数の書き換えを意味する。例えば、前述の(1A)および(1B)の関数は、重み係数wxiulがw2xiulに書き換えられる。これにより、下記(2A)および(2B)の関数が生成される。
【0100】
y1=w2u1y1/[1+exp{-(w2x1u1×x1+w2x2u1×x2+…+w2x5u1×x5)}]
+w2u2y1/[1+exp{-(w2x1u2×x1+w2x2u2×x2+…+w2x5u2×x5)}]
+w2u3y1/[1+exp{-(w2x1u3×x1+w2x2u3×x2+…+w2x5u3×x5)}] …(2A)
y2=w2u1y2/[1+exp{-(w2x1u1×x1+w2x2u1×x2+…+w2x5u1×x5)}]
+w2u2y2/[1+exp{-(w2x1u2×x1+w2x2u2×x2+…+w2x5u2×x5)}]
+w2u3y2/[1+exp{-(w2x1u3×x1+w2x2u3×x2+…+w2x5u3×x5)}] …(2B)
【0101】
また、第2演算部62は、新たな学習データが生成された場合も同様に、条件データセットを新たに生成する。
【0102】
以下、ニューラルネットワーク70の結合重みの総数をM0としたときに、反応条件の数を2×M0個以上とすることの意義について説明する。ニューラルネットワークを学習するためには、学習データの数は多いほど良いと言われるが、必ずしもそうとは限らず、明確な定義はない。しかしながら、対象の現象の特徴を表現できる程度に、ニューラルネットワークが充分に学習される程度の数の学習データが必要である。
【0103】
画像認識およびコンピュータ囲碁等に用いられているニューラルネットワークにおいては、正答率を高めるためにニューラルネットワークの構造を複雑にし、多数の学習データを使用して学習を行っている。例えば、ある顔認識のニューラルネットワークにおいては、結合重みの総数が1.2億個であり、400万個の学習データを用いて学習を行っている。また、あるコンピュータ囲碁のニューラルネットワークにおいては、結合重みの総数が300万個であり、3000万局面の囲碁盤面のデータを学習データとして用いて学習を行っている。
【0104】
一方、本開示が対象とする生産プロセスにおいては、このような非常に多くの学習データを生成することは難しく、また、画像認識およびコンピュータ囲碁で使うニューラルネットワークほど、ニューラルネットワークの構造を複雑にする必要もない。
【0105】
本開示の発明者は、波形データのサンプリング定理に着目して、本開示に想到するに至ったものである。ここで、サンプリング定理とは、アナログ信号をデジタル信号に変換する際に最低限必要になる周波数のことである。連続したアナログ信号をデジタル信号に変換する場合、アナログ信号に含まれる2倍以上の周波数でサンプリングを行ってデジタル信号を生成すれば、完全に元のアナログ信号の形(周波数)を再現できる。一方、サンプリングの周波数がアナログ信号に含まれる周波数の2倍未満である場合、元のアナログ信号に偽信号が現れて歪んで再現される。この現象はエイリアス効果と呼ばれる。このように、アナログ信号に含まれる2倍以上の周波数でサンプリングを行えば、アナログ信号を精度よくデジタル信号に変換することができる。
【0106】
一方、ニューラルネットワークにおいて、結合重みを用いて表現される入力層(説明変数)と出力層(目的変数)との関係を表す関数は、上記式(1A),(1B)のように表すことができる。この関数は、サイン波形のような波形関数と類似している。このため、本開示の発明者は、サンプリング定理を用いることにより、ニューラルネットワークによって対象データの特徴を表現するためには、結合重みの総数M0の2倍以上の学習データを用意するという本開示に想到するに至ったものである。
【0107】
一方、フロー反応処理においては、1つの反応に要する時間が1時間であるとすると、結合重みの数の10倍程度であれば、実測により学習データを用意することが可能である。例えば、結合重みの数が21個であれば、210個の学習データを用意するために要する時間は210時間(約10日)となり、充分に許容できる時間である。このため、本実施形態においては、学習データの数の上限を結合重みの総数M0の10倍としたものである。
【0108】
次いで、本実施形態において行われる処理について説明する。
図10は、本実施形態において行われる処理を示すフローチャートである。まず、本実施形態においては、目標結果RAが設定される(ステップST1)。本実施形態の目標結果RAは、上述したように、分散度が1.03以内、分子量が25200の±1%以内としている。次に、複数の学習データを含むデータセットが生成される(ステップST2)。目標結果RAの設定および学習データの生成の順序は逆であってもよい。
【0109】
図11は本実施形態において行われる学習データの生成処理を示すフローチャートである。まず、データ生成装置13の反応条件設定部52が、ニューラルネットワーク70の結合重みの総数をM0としたときに、2×M0個以上の複数の反応条件を設定する(ステップST21)。そして、反応結果取得部53が、反応条件設定部52が設定した数の反応条件のそれぞれにより、フロー反応装置11にフロー反応処理を行わせることにより導出される反応結果を取得する(ステップST22)。さらに、生成部54が、反応条件と反応結果との組み合わせからなる42個の反応情報、すなわち学習データをデータセットとして生成し(ステップST23)、学習データの生成処理を終了する。なお、データセットは、第1記憶部51aに記憶される。
【0110】
支援装置12は、モードを学習モードに設定し、これにより第1演算部61は第1記憶部51aから1回目の学習データのデータセットを読み出す。なお、第1記憶部51aを設けず(介在させず)に、データ生成装置13から第1演算部61へデータセットを出力してもよい。このようにして1回目のデータセットが入力された第1演算部61は、1回目の学習データのデータセットに基づいて反応条件と反応結果との関連性を学習する演算を行う。そして、第1演算部61は条件パラメータと結果パラメータとの関数を生成し、生成した関数を第2記憶部51bに書き込む(学習;ステップST3)。
【0111】
関数が第2記憶部51bに書き込まれた後に、支援装置12は学習モードから算出モードにモードを切り替え、これにより、第2演算部62は、第1記憶部51aから学習データのデータセットを読み出す。第2演算部62は、データセットに含まれる学習データの反応条件に基づき、具体的には各条件パラメータの値に基づいて条件パラメータの値を振り、異なる複数の反応条件で構成された条件データセットを生成する(ステップST4)。生成した条件データセットは、反応条件毎に読み出し可能な状態に、第2記憶部51bに書き込まれる。
【0112】
本実施形態においては前述の通り、最大値および最小値、並びに最大値と最小値との間を等間隔に刻んだ値に刻んだ条件パラメータで条件データセットを生成している。第1原料の流量については100通り、第2原料の流量については545通り、合流部の形状は2通り、反応路径D32については10通り、反応温度は11通りであるから、条件データセットの反応条件の個数は、100×545×2×10×11の全11990000個である。
【0113】
なお、支援装置12が、学習と算出とを併行することができる場合には、第1演算部61での学習(すなわちステップST3)の処理と、第2演算部62での条件データセットの生成(すなわちステップST4)の処理とを同時に行ってもよい。
【0114】
関数および条件データセットが第2記憶部51bに書き込まれた後に、第3演算部63が第2記憶部51bからこれら関数および条件データセットを読み出す。なお、第2記憶部51bを設けず(介在させず)に、第1演算部61から第3演算部63へ関数を出力し、第2演算部62から第3演算部63へ条件データセットを出力してもよい。このようにして関数と条件データセットが入力された第3演算部63は、読み出した条件データセットの反応条件毎に、関数を用いて予測結果を算出する。そして、反応条件と予測結果とを関連付けた複数の予測情報で構成された予測データセットを生成する(ステップST5)。第3演算部63は、生成された予測データセットを第3記憶部51cに書き込む。
【0115】
予測結果は、条件データセットの反応条件毎に算出されるから、生成される予測データセットの予測情報の個数は条件データセットの反応条件の個数と同じく、本実施形態では11990000個である。
【0116】
第3演算部63は、予め入力されている目標結果RAと、予測データセットの各予測情報の予測結果との対比により「最もよい予測結果」を示す予測情報を特定する(ステップST6)。特定された予測情報の反応条件は抽出反応条件CPとして抽出され(ステップST7)、抽出反応条件CPと抽出反応条件CPに対応する予測結果RPとからなる予測情報が、予測データセットにおいて抽出反応条件CPと抽出反応条件CPに関連付けられた予測結果RPとして第3記憶部51cに書き込まれる。
【0117】
抽出反応条件CPが第3記憶部51cに書き込まれた後に、設定部16は、第3記憶部51cから抽出反応条件CPを読み出す。なお、第3記憶部51cを設けず(介在させず)に、第3演算部63から設定部16へ抽出反応条件CPを出力してもよい。このようにして抽出反応条件CPが入力された設定部16は、抽出反応条件CPでのフロー反応処理をフロー反応装置11,41に試行させる(ステップST8)。そして、試行の反応結果である実測結果RRが検出部17により判定部56へ出力される。
【0118】
第3記憶部51cに書き込まれている抽出反応条件CPに関連付けられた予測結果RPは、判定部56により読み出される。なお、第3記憶部51cを介在させずに、第3演算部63から判定部56へ予測結果RPを出力してもよい。このようにして予測結果RPが入力された判定部56により、予測結果RPと実測結果RRとが対比され(ステップST9)、相違度DRが求められる。
【0119】
次いで、判定部56により、設定部16から予め入力されている相違度の許容範囲DT(本実施形態では1%)に基づいて、相違度DRが許容範囲DTであるか否かが判定される(ステップST10)。相違度DRが許容範囲DTであると判定された場合には(ステップST10;YES)、判定部56は抽出反応条件CPを決定反応条件CSとして、第3記憶部51cに書き込み、本実施形態の判定部56はさらに、第3記憶部51cに記憶されている予測データセットの反応条件群をフロー反応装置11のフロー反応処理に用いる反応データセットとして第3記憶部51cに書き込む(ステップST11)。
【0120】
抽出反応条件CPが決定反応条件CSとして書き込まれた後に、設定部16はフロー反応装置11での反応条件を決定反応条件CSに設定し、フロー反応装置11でフロー反応を行う(ステップST12)。決定反応条件CSは、既に実測結果RRに極めて近い反応結果が得られると判定されている反応条件であるため、生成物は目的とする分子量および分散度で得られる。また、決定反応条件CSは、本実施形態での例えば11990000個という膨大な数の反応条件から演算を用いて求めており、フロー反応処理の試行および時間が従来に比べて大きく短縮されている。
【0121】
一方、相違度DRが許容範囲DTでないと判定された場合には(ステップST10;NO)、判定部56は抽出反応条件CPを第3記憶部51cから読み出し、抽出反応条件CPと実測結果RRとを関連付けた反応情報を生成する。生成された反応情報は学習データとして第1記憶部51aに記憶されたデータセットに含められ(ステップST13)、第1記憶部51aの学習データのデータセットは第2回目のデータセットに書き換えられる。この書き換えにより、第1記憶部51aには、学習データの数が、前回のデータセットよりも1つ多いデータセットが記憶される。また、判定部56は、ニューラルネットワーク70の結合重みの数をMj-1≦Mj<Nj/2となるように更新する(ステップST14)。そして、ステップST10が肯定されるまで、ステップST3~ステップST10の処理が繰り返される。
【0122】
図12は、本実施形態におけるニューラルネットワークの学習精度の検証結果を示す図である。
図12においては、
図4に示す結合重みの総数が21のニューラルネットワークを用いた場合において、データセットに含まれる学習データの数を250、100、42とした場合の学習精度の指標が、実施例1~3として示されている。また、データセットに含まれる学習データの数を10とした場合の学習精度の指標が、比較例として示されている。学習精度の指標としては、各例のデータセットに含まれる学習データによりニューラルネットワークにより得られる反応結果の分散度および分子量のそれぞれと、学習データの反応条件により得られる実測の反応結果の分散度および分子量のそれぞれの相関を表す決定係数R
2を用いた。本実施形態においては、決定係数R
2が0.8以上を合格とした。
図12に示すように、比較例は、分散度および分子量のいずれの決定係数も不合格であった。一方、実施例1~3は、分散度および分子量のいずれの決定係数も合格であった。したがって、
図12により、学習データの数を、ニューラルネットワークの結合重みの総数M0の2倍以上とすれば、ニューラルネットワークの学習を精度よく行うことができることが分かる。
【0123】
図13は、本実施形態におけるデータセットに含まれる学習データの数と、ニューラルネットワークの結合数との関係を示す図である。
図13において、jは学習の回数であり、0は初期のデータセットによる学習を示す。
図13に示すように、本実施形態においては、14回目の学習の終了後にデータセットに含まれる学習データの数が57に更新され、かつニューラルネットワークの隠れ層のノード数が4に更新される。14回目以降も学習が続けられ、70回目の学習時に、相違度DRが許容範囲DT内になり、この第70回目での抽出反応条件で、フロー反応処理が行われた。
【0124】
このように、本実施形態においては、ニューラルネットワークの結合重みの総数M0を適切に設定することにより、適切な数の学習データを生成することができる。したがって、本実施形態によれば、生成されたデータセットを用いることにより、未知の反応条件が入力されると、それに応じた反応結果を出力するニューラルネットワークを効率よく学習させることができる。よって、本実施形態によれば、フロー反応処理の条件設定を適切に行うことができる。
【0125】
また、本実施形態においては、条件パラメータが多いフロー反応において条件設定が簡便に行えるから、反応処理をより迅速に開始できたり、なんらかの理由で複数の条件パラメータのうちのひとつを変更せざるを得ない場合でも迅速に新たな反応処理を行うことができる。
【0126】
なお、上記実施形態においては、原料として第1原料と第2原料との2つを用いているが、これに限定されるものではない。原料は3種以上であってもよい。この場合、原料の数に応じた流量、原料の数に応じた合流部の形状が条件パラメータとして反応条件に加えられる。このため、ニューラルネットワーク70の結合重みの総数およびデータセットに含まれる学習データの数も変更される。例えば、3つの原料を使用した場合、合流部は2つとなり、そのそれぞれについてT字および十字に分岐した管が用いられる。また、反応管も2種類使用される。このため、ニューラルネットワーク70の入力層のノード数は、3(原料数)+2×2(合流部の数×T字、十字)+2(反応路径)+1(反応温度)=10となる。隠れ層のノード数が3、出力層のノード数が2であれば、ニューラルネットワークの結合重みの総数は、10×3+3×2=36となる。この場合、初期のデータセットに含められる学習データの数は、36×2=72以上、36×10=360以下に設定される。
【0127】
また、上記実施形態においては、ニューラルネットワークの結合重みの総数をM0としたときに、2×M0個以上の学習データを含むデータセットを生成してニューラルネットワークの学習を行っているが、これに限定されるものではない。任意の数の学習データを含むデータセットを生成して、ニューラルネットワークの学習を行うようにしてもよい。
【0128】
また、上記実施形態においては、本開示をフロー反応処理に適用しているが、これに限定されるものではない。本開示は、生産物の産生を行う各種産生プロセスに適用可能である。具体的には、特開2013-129540号公報に記載されたフイルム搬送プロセス、特開2007-52049号に記載された光学補償シートの製造プロセスにおける光学異方性層の塗布プロセス、および特開2011-006788号公報に記載されたガスバリアフィルムの製造プロセスにおける真空成膜プロセス等に本開示を適用できる。
【0129】
例えば、フイルム搬送プロセスにはフイルム巻取り工程があり、フロー反応処理における反応条件に対応するプロセス条件として、(1)フィルムの巻き取りテンション、(2)巻き取り時のテンション変更タイミング、(3)巻き取り速度、および(4)エアプレス圧を使用し、反応結果に対応する産生結果として(1)巻きズレ量、および(2)黒帯を使用することができる。この場合、ニューラルネットワークの構成としては、入力層のノード数が4、出力層のノード数が2となる。隠れ層を1層とし、かつ3つのノードを有するものとした場合、ニューラルネットワークの結合重みの総数は、4×3+3×2=18となるため、初期のデータセットに含まれる学習データの数は36以上、180以下となる。
【0130】
また、光学補償シートの製造プロセスにおける光学異方性層の塗布プロセスにおいては、プロセス条件として、(1)設定塗布膜厚(ライン速度、ワイヤーバー番手)、(2)ラビング回転速度、(3)加熱ゾーン温度、(4)紫外線照射出力、および(5)紫外線照射時のフィルム表面温度を使用し、産生結果として(1)レターデーションのばらつきを使用することができる。この場合、ニューラルネットワークの構成としては、入力層のノード数が5、出力層のノード数が1となる。隠れ層を1層とし、かつ3つのノードを有するものとした場合、ニューラルネットワークの結合重みの総数は、5×3+3×1=18となるため、初期のデータセットに含まれる学習データの数は36以上、180以下となる。
【0131】
また、ガスバリアフィルムの製造プロセスにおける真空成膜プロセスにおいては、プロセス条件として、(1)原料ガス供給流量、(2)印加電力、および(3)成膜圧力を使用し、産生結果として(1)水蒸気透過率を使用することができる。この場合、ニューラルネットワークの構成としては、入力層のノード数が3、出力層のノード数が1となる。
隠れ層を1層とし、かつ3つのノードを有するものとした場合、ニューラルネットワークの結合重みの総数は、3×3+3×1=12となるため、初期のデータセットに含まれる学習データの数は24以上、120以下となる。
【0132】
上述の各実施形態において、演算セクション50の第1演算部61~第3演算部63、並びに支援装置12、データ生成装置13、及びシステムコントローラ15といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
【0133】
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
【0134】
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
【符号の説明】
【0135】
10 フロー反応設備
11,41 フロー反応装置
12 支援装置
13 データ生成装置
15 システムコントローラ
16 設定部
17 検出部
21 第1供給部
22 第2供給部
23,43 反応セクション
26 回収セクション
31,42 合流部
31a~31c 第1管部~第3管部
32 反応部
33 温調部
50 演算セクション
51a~51c 第1記憶部~第3記憶部
52 反応条件設定部
53 反応結果取得部
54 生成部
56 判定部
61~63 第1演算部~第3演算部
70 ニューラルネットワーク
CP 抽出反応条件
CS 決定反応条件
DT 許容範囲
DR 相違度
L1 入力層
L2 中間層
L3 出力層
xi,x1~x5 条件パラメータの値
ul、u1~u3 ノード値
ym,y1~y2 結果パラメータの値
wxiul,wx1u1~wx5u3,wulym,wu1y1~wu3y2 重み係数
RA 目標結果
RP 予測結果
RR 実測結果