(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-12-12
(45)【発行日】2024-12-20
(54)【発明の名称】画像生成装置、ゴム組成物の配合推定装置及び学習装置
(51)【国際特許分類】
G06T 7/00 20170101AFI20241213BHJP
G06N 20/00 20190101ALI20241213BHJP
G06N 3/02 20060101ALI20241213BHJP
G01N 33/44 20060101ALI20241213BHJP
G01N 23/2251 20180101ALI20241213BHJP
G01N 23/04 20180101ALI20241213BHJP
【FI】
G06T7/00 350C
G06N20/00
G06N3/02
G01N33/44
G01N23/2251
G01N23/04
(21)【出願番号】P 2021019382
(22)【出願日】2021-02-09
【審査請求日】2023-09-04
(31)【優先権主張番号】P 2020029574
(32)【優先日】2020-02-25
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000183233
【氏名又は名称】住友ゴム工業株式会社
(73)【特許権者】
【識別番号】504173471
【氏名又は名称】国立大学法人北海道大学
(74)【代理人】
【識別番号】100124039
【氏名又は名称】立花 顕治
(74)【代理人】
【識別番号】100210251
【氏名又は名称】大古場 ゆう子
(74)【代理人】
【識別番号】100170542
【氏名又は名称】桝田 剛
(72)【発明者】
【氏名】福地 将志
(72)【発明者】
【氏名】山田 宏明
(72)【発明者】
【氏名】伊藤 和加奈
(72)【発明者】
【氏名】長谷山 美紀
(72)【発明者】
【氏名】小川 貴弘
(72)【発明者】
【氏名】藤後 廉
【審査官】菊池 伸郎
(56)【参考文献】
【文献】特許第6609387(JP,B1)
【文献】金井美岬 外3名,ゴム材料の配合量を用いたAC-GANに基づく電子顕微鏡画像の生成に関する一検討,映像情報メディア学会技術報告,日本,一般社団法人映像情報メディア学会,2020年02月20日,第44巻, 第6号,pp.107-111
【文献】Tero KARRAS et al.,A Style-Based Generator Architecture for Generative Adversarial Networks,2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2019年06月20日,pp.4396-4405,DOI: 10.1109/CVPR.2019.00453
(58)【調査した分野】(Int.Cl.,DB名)
G06T 7/00
G06N 20/00
G06N 3/02
G01N 33/44
G01N 23/2251
G01N 23/04
(57)【特許請求の範囲】
【請求項1】
ゴム組成物を構成する材料の配合を表す配合データを取得するデータ取得部と、
前記取得した配合データをノイズとともに
複数の機械学習モデルに入力し、前記
複数の機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する
複数の模擬顕微鏡画像を生成する画像生成部と
を備え
、
前記複数の機械学習モデルの出力として生成された前記複数の模擬顕微鏡画像は、製造からの経過時間が互いに異なる前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する、
画像生成装置。
【請求項2】
前記顕微鏡は、電子顕微鏡である、
請求項1に記載の画像生成装置。
【請求項3】
前記
複数の機械学習モデルは、
各々、入力された前記配合データ及び前記ノイズから、前記
複数の模擬顕微鏡画像に反映されるべき性質を表す特徴量を算出し、出力する射影ネットワークを含む、
請求項1又は2に記載の画像生成装置。
【請求項4】
前記
複数の機械学習モデルは、
各々、入力されたデータをアップサンプリングすることで、前記入力されたデータよりサイズの大きいデータを生成し、前記
複数の模擬顕微鏡画像として出力する生成ネットワークをさらに含み、前記生成ネットワークには、アップサンプリングの都度前記特徴量が取り込まれる、
請求項3に記載の画像生成装置。
【請求項5】
ゴム組成物を構成する材料の配合を表す配合データを取得するステップと、
前記取得した配合データをノイズとともに
複数の機械学習モデルに入力し、前記
複数の機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する
複数の模擬顕微鏡画像を生成するステップと
を含
み、
前記複数の機械学習モデルの出力として生成された前記複数の模擬顕微鏡画像は、製造からの経過時間が互いに異なる前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する、
画像生成方法。
【請求項6】
ゴム組成物を構成する材料の配合を表す配合データを取得するステップと、
前記取得した配合データをノイズとともに
複数の機械学習モデルに入力し、前記
複数の機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する
複数の模擬顕微鏡画像を生成するステップと
をコンピュータに実行さ
せ、
前記複数の機械学習モデルの出力として生成された前記複数の模擬顕微鏡画像は、製造からの経過時間が互いに異なる前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する、
画像生成プログラム。
【請求項7】
製造から第1時間が経過したゴム組成物を顕微鏡により撮像した
第1顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた
第1学習用データを用意するステップと、
製造から前記第1時間と異なる第2時間が経過した前記ゴム組成物を顕微鏡により撮像した第2顕微鏡画像と、前記配合データとが組み合わせられた第2学習用データを用意するステップと、
前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記
第1顕微鏡画像を模擬する
第1模擬顕微鏡画像を生成する第1機械学習モデルと、前記
第1顕微鏡画像又は前記
第1模擬顕微鏡画像が入力されると、前記入力された画像が前記
第1顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルとを学習させるステップと
、
前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記第2顕微鏡画像を模擬する第2模擬顕微鏡画像を生成する第3機械学習モデルと、前記第2顕微鏡画像又は前記第2模擬顕微鏡画像が入力されると、前記入力された画像が前記第2顕微鏡画像であるか否かを示す識別結果を出力する第4機械学習モデルとを学習させるステップと、
を備え、
前記
第1機械学習モデルと、第2機械学習モデルとを学習させるステップは、
前記
第1顕微鏡画像又は前記
第1模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップと、
前記
第1模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップと
を交互に繰り返
し、
前記第3機械学習モデルと、第4機械学習モデルとを学習させるステップは、
前記第2顕微鏡画像又は前記第2模擬顕微鏡画像を前記第4機械学習モデルに入力したときに、前記第4機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第4機械学習モデルを学習させるステップと、
前記第2模擬顕微鏡画像を前記第4機械学習モデルに入力したときに、前記第4機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第3機械学習モデルを学習させるステップと
を交互に繰り返す、
学習済みモデルの生成方法。
【請求項8】
前記第1機械学習モデルは、入力されたデータをアップサンプリングすることで、前記入力されたデータよりサイズの大きいデータを生成し、これを所定のサイズの前記
第1模擬顕微鏡画像として出力する生成層を含み、
前記第2機械学習モデルは、前記生成層と対を為す識別層であって、前記生成層が出力する前記
第1模擬顕微鏡画像又は前記
第1模擬顕微鏡画像と同じサイズを有する前記
第1顕微鏡画像が入力されると、前記入力された画像が前記
第1顕微鏡画像であるか否かを示す識別結果を出力する識別層を含み、
前記
第1機械学習モデルと、第2機械学習モデルとを学習させるステップの後に、新たな前記生成層を1つ前記第1機械学習モデルに追加するとともに、追加される当該生成層と対を為す新たな前記識別層を1つ前記第2機械学習モデルに追加するステップと、
前記追加するステップの後に、前記第1機械学習モデルと前記第2機械学習モデルとをさらに学習させるステップと、
をさらに備え、
前記追加するステップと、前記さらに学習させるステップとを交互に繰り返し、
前記追加される生成層が出力する前記
第1模擬顕微鏡画像のサイズを、前記追加するステップが繰り返されるごとに段階的に大きくする、
請求項
7に記載の学習済みモデルの生成方法。
【請求項9】
前記第2機械学習モデルは、入力された前記
第1顕微鏡画像又は前記
第1模擬顕微鏡画像に対応する配合データを推定するデータをさらに出力し、
前記第2機械学習モデルを学習させるステップは、前記
第1顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記データと前記配合データとの差が小さくなるように前記第2機械学習モデルを学習させるステップを含み、
前記第1機械学習モデルを学習させるステップは、前記
第1模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記データと、前記第1機械学習モデルに入力された前記配合データとの差が小さくなるように前記第1機械学習モデルを学習させるステップを含む、
請求項
7に記載の学習済みモデルの生成方法。
【請求項10】
前記顕微鏡は、電子顕微鏡である、
請求項
7から
9のいずれかに記載の学習済みモデルの生成方法。
【請求項11】
製造から第1時間が経過したゴム組成物を顕微鏡により撮像した
第1顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた
第1学習用データを用意するステップと、
製造から前記第1時間と異なる第2時間が経過した前記ゴム組成物を顕微鏡により撮像した第2顕微鏡画像と、前記配合データとが組み合わせられた第2学習用データを用意するステップと、
前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記
第1顕微鏡画像を模擬する
第1模擬顕微鏡画像を出力する第1機械学習モデルと、前記
第1顕微鏡画像又は前記
第1模擬顕微鏡画像が入力されると、前記入力された画像が前記
第1顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルとを学習させるステップと
、
前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記第2顕微鏡画像を模擬する第2模擬顕微鏡画像を生成する第3機械学習モデルと、前記第2顕微鏡画像又は前記第2模擬顕微鏡画像が入力されると、前記入力された画像が前記第2顕微鏡画像であるか否かを示す識別結果を出力する第4機械学習モデルとを学習させるステップと、
をコンピュータに実行させ、
前記
第1機械学習モデルと、第2機械学習モデルとを学習させるステップは、
前記
第1顕微鏡画像又は前記
第1模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップと、
前記
第1模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップと
を交互に繰り返
し、
前記第3機械学習モデルと、第4機械学習モデルとを学習させるステップは、
前記第2顕微鏡画像又は前記第2模擬顕微鏡画像を前記第4機械学習モデルに入力したときに、前記第4機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第4機械学習モデルを学習させるステップと、
前記第2模擬顕微鏡画像を前記第4機械学習モデルに入力したときに、前記第4機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第3機械学習モデルを学習させるステップと
を交互に繰り返す、
学習済みモデルの生成プログラム。
【請求項12】
製造から第1時間が経過したゴム組成物を顕微鏡により撮像した
第1顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた
第1学習用データ
、及び、製造から前記第1時間と異なる第2時間が経過した前記ゴム組成物を顕微鏡により撮像した第2顕微鏡画像と、前記配合データとが組み合わせられた第2学習用データを記憶する記憶部と、
前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて生成される、前記
第1顕微鏡画像を模擬する
第1模擬顕微鏡画像を出力する第1機械学習モデルと、前記
第1顕微鏡画像又は前記
第1模擬顕微鏡画像が入力されると、前記入力された画像が前記
第1顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルと
、前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記第2顕微鏡画像を模擬する第2模擬顕微鏡画像を生成する第3機械学習モデルと、前記第2顕微鏡画像又は前記第2模擬顕微鏡画像が入力されると、前記入力された画像が前記第2顕微鏡画像であるか否かを示す識別結果を出力する第4機械学習モデルとを学習させる学習処理部と
を備え、
前記学習処理部は、
前記
第1顕微鏡画像又は前記
第1模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップと、
前記
第1模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップと
を交互に繰り返す
とともに、
前記第2顕微鏡画像又は前記第2模擬顕微鏡画像を前記第4機械学習モデルに入力したときに、前記第4機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第4機械学習モデルを学習させるステップと、
前記第2模擬顕微鏡画像を前記第4機械学習モデルに入力したときに、前記第4機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第3機械学習モデルを学習させるステップと
を交互に繰り返す、
学習装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像生成装置、ゴム組成物の配合推定装置及び学習装置に関する。
【背景技術】
【0002】
特許第6609387号(特許文献1)は、ゴム材料を顕微鏡により撮像した画像の特徴を示す指標及びゴム材料の配合から、当該ゴム材料の特性を推定する方法を開示する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1によれば、(画像に表現される)ゴム材料の構造、ゴム材料の配合、及びゴム材料の特性は、互いに相関を有する。しかし、特許文献1には、ゴム材料の構造と配合との相関を推定する方法については開示されていない。
【0005】
本発明は、このような課題を解決するためになされたものであり、その目的は、画像に表現されるゴム組成物の構造と配合との相関を推定する技術を提供することである。
【課題を解決するための手段】
【0006】
本発明の一側面に係る画像生成装置は、データ取得部と、画像生成部とを備える。データ取得部は、ゴム組成物を構成する材料の配合を表す配合データを取得する。画像生成部は、前記取得した配合データをノイズとともに機械学習モデルに入力し、前記機械学習モデルの出力として、前記ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する模擬顕微鏡画像を生成する。
【0007】
上記画像生成装置によれば、ゴム組成物の配合データを与えると、ゴム組成物の構造を推定する模擬顕微鏡画像が得られる。これにより、配合データから得られるゴム組成物の構造を予測することが可能になる。
【0008】
上記画像生成装置において、前記顕微鏡は、電子顕微鏡であってもよい。
【0009】
本発明の一側面に係るゴム組成物の配合推定装置は、画像取得部と、配合推定部とを備える。画像取得部は、ゴム組成物を顕微鏡により撮像した顕微鏡画像あるいはこれを模擬する模擬顕微鏡画像を取得する。配合推定部は、前記取得した顕微鏡画像あるいは前記取得した模擬顕微鏡画像を機械学習モデルに入力し、前記機械学習モデルの出力として前記ゴム組成物を構成する材料の配合を推定する。
【0010】
上記ゴム組成物の配合推定装置によれば、材料の配合が未知であるゴム組成物の構造を表す画像あるいはゴム組成物の構造を予測する画像に基づいて、ゴム組成物を構成する材料の配合を推定することができる。
【0011】
上記配合推定装置において、前記顕微鏡は、電子顕微鏡であってもよい。
【0012】
本発明の一側面に係る学習済みモデルの生成方法は、以下のステップを備える。
・ゴム組成物を顕微鏡により撮像した顕微鏡画像と、前記ゴム組成物を構成する材料の配合を表す配合データとが組み合わせられた学習用データを用意するステップ。
・前記配合データ及びノイズが入力されると、前記入力された配合データ及びノイズに基づいて、前記顕微鏡画像を模擬する模擬顕微鏡画像を生成する第1機械学習モデルと、前記顕微鏡画像又は前記模擬顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する第2機械学習モデルとを学習させるステップ。
なお、前記学習させるステップは、以下のステップを交互に繰り返す。
・前記顕微鏡画像又は前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が高くなるように前記第2機械学習モデルを学習させるステップ。
・前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記識別結果の正解確率が低くなるように前記第1機械学習モデルを学習させるステップ。
【0013】
上記学習済みモデルの生成方法において、前記第1機械学習モデルは、入力されたデータをアップサンプリングすることで、前記入力されたデータよりサイズの大きいデータを生成し、これを所定のサイズの前記模擬顕微鏡画像として出力する生成層を含んでもよい。前記第2機械学習モデルは、前記生成層と対を為す識別層であって、前記生成層が出力する前記模擬顕微鏡画像又は前記模擬顕微鏡画像と同じサイズを有する前記顕微鏡画像が入力されると、前記入力された画像が前記顕微鏡画像であるか否かを示す識別結果を出力する識別層を含んでもよい。また、上記学習済みモデルの生成方法は、前記学習させるステップの後に、新たな前記生成層を1つ前記第1機械学習モデルに追加するとともに、追加される当該生成層と対を為す新たな前記識別層を1つ前記第2機械学習モデルに追加するステップと、前記追加するステップの後に、前記第1機械学習モデルと前記第2機械学習モデルとをさらに学習させるステップと、をさらに備え、前記追加するステップと、前記さらに学習させるステップとを交互に繰り返し、前記追加される生成層が出力する前記模擬顕微鏡画像のサイズを、前記追加するステップが繰り返されるごとに段階的に大きくしてもよい。
【0014】
上記学習済みモデルの生成方法において、前記第2機械学習モデルは、入力された前記顕微鏡画像又は前記模擬顕微鏡画像に対応する配合データを推定するデータをさらに出力してもよい。前記第2機械学習モデルを学習させるステップは、前記顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記データと前記配合データとの差が小さくなるように前記第2機械学習モデルを学習させるステップを含んでもよい。前記第1機械学習モデルを学習させるステップは、前記模擬顕微鏡画像を前記第2機械学習モデルに入力したときに、前記第2機械学習モデルが出力する前記データと、前記第1機械学習モデルに入力された前記配合データとの差が小さくなるように前記第1機械学習モデルを学習させるステップを含んでもよい。
【0015】
上記学習済みモデルの生成方法において、前記顕微鏡は、電子顕微鏡であってもよい。
【発明の効果】
【0016】
本発明によれば、ゴム組成物の構造と配合との相関を推定する技術が提供される。
【図面の簡単な説明】
【0017】
【
図1】電子顕微鏡により撮像されたゴム組成物の画像の例。
【
図2】第1実施形態に係る学習装置の機械学習モデルの概念図。
【
図3】第1実施形態に係る学習装置の電気的構成を示すブロック図。
【
図4】第2機械学習モデルの学習処理の流れを示すフローチャート。
【
図5】第1機械学習モデルの学習処理の流れを示すフローチャート。
【
図6】第1実施形態に係る画像生成装置の電気的構成を示すブロック図。
【
図7】第1実施形態に係る画像生成処理の流れを示すフローチャート。
【
図8】第1実施形態に係る推定装置の電気的構成を示すブロック図。
【
図9】第1実施形態に係る推定処理の流れを示すフローチャート。
【
図10】第2実施形態に係る学習装置の電気的構成を示すブロック図。
【
図11】第2実施形態に係る学習装置の機械学習モデルの概念図。
【
図13】第2実施形態に係る学習処理の流れを示すフローチャート。
【
図14】第2実施形態に係る学習の方法を説明する図。
【
図15】第2実施形態に係る画像生成装置の電気的構成を示すブロック図。
【
図16】実施例に係る実験で取得された画像と、生成された画像の例。
【
図17】実施例に係る実験結果を示すヒストグラム。
【
図18】別の実施例に係る実験で取得された画像と、生成された画像の例。
【
図19】別の実施例に係る実験で生成された画像の例。
【発明を実施するための形態】
【0018】
<1.概要>
ゴム組成物は、弾性を有する高分子化合物であり、典型的には、複数の配合物が共に混練されることにより生成される。配合物の種類としては、例えばモノマー(ブタジエン、スチレン等)、フィラー(シリカ、カーボン等)及び架橋剤等が挙げられる。ゴム組成物の開発では、目的に合わせて多種多様な原料の中から配合物を選択し、その配合量を決定し、試作を行うということが繰り返されるため、開発コストが嵩みがちである。このため、より効率的にゴム組成物を開発する技術へのニーズが高まっている。
【0019】
ところで、ゴム組成物を顕微鏡により撮像した顕微鏡画像からは、ゴム組成物の構造に関する特徴を抽出し得る。
図1は、拡大倍率2万倍でゴム組成物の内部が撮像された走査型電子顕微鏡の画像である。
図1の画像では、グレースケールで表された明暗により特定の配合物を判別することができる。例えば、カーボンの凝集体が相対的に暗いエリアとして画像に現れる一方、シリカの凝集体が相対的に明るいエリアとして現れる。すなわち、ゴム組成物が撮像された顕微鏡画像には、フィラー凝集体のサイズや、フィラー凝集体間の距離、フィラーのポリマー相に対する分布(分配)等、ゴム組成物の構造を表現する情報が含まれる。
【0020】
本発明者らは、鋭意検討の結果、画像に表現されるゴム組成物の構造と、ゴム組成物を構成する材料の配合を表す配合データとの相関を推定する技術を発明するに至った。より具体的には、本発明者らは、機械学習モデルを学習させ、ゴム組成物の配合データからはゴム組成物の顕微鏡画像を模擬した画像を生成し、ゴム組成物の顕微鏡画像からはゴム組成物の配合データを推定することを想到した。以下、本発明の一実施形態に係る画像生成装置、ゴム組成物の配合推定装置及び学習装置について説明する。
【0021】
[A.第1実施形態]
<2-1.学習装置>
本開示の第1実施形態に係る学習装置1は、条件付き画像生成モデルの1つであるAC-GAN(auxiliary classifier generative adversarial network)を学習させる装置である。
図2は、本実施形態に係る機械学習モデルを示す概念図である。AC-GANは、第1機械学習モデル200及び第2機械学習モデル300の2つの機械学習モデルを含んでいる。学習装置1は、これらの機械学習モデルを競合的に学習させることにより、ゴム組成物の顕微鏡画像と類似した新しい画像である模擬顕微鏡画像を生成する学習済みモデル200Aと、入力された画像からゴム組成物の配合データを推定する学習済みモデル300Aとを生成する。生成された学習済みモデル200Aは、後述する画像生成装置2(以下、単に「生成装置2」と称することがある)に実装され、生成された学習済みモデル300Aは、後述するゴム組成物の配合推定装置3(以下、単に「推定装置3」と称することがある)に実装される。
【0022】
図3は、学習装置1の電気的構成を示すブロック図である。本実施形態の学習装置1は、ハードウェアとしては汎用のコンピュータである。学習装置1は、記憶部10、制御部11、通信インターフェース12、外部インターフェース13、入力装置14及び出力装置15を備えている。これらの部10~15は、互いにバス線を介して接続されており、相互に通信可能である。
【0023】
記憶部10は、ハードディスクやフラッシュメモリ等の不揮発性の記憶装置から構成されており、AC-GANを学習させるために用意された学習用データ100が格納される。また、記憶部10には、AC-GANを学習させるための学習プログラム101が格納されている。学習用データ100及び学習プログラム101は、USBメモリ等の記憶媒体7や、学習装置1が接続されるネットワーク8等から取得され得る。さらに、記憶部10には、AC-GANの学習を行う過程で更新される、第1機械学習モデル200及び第2機械学習モデル300のパラメータ102が保存される。
【0024】
制御部11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサ、RAM(Random Access Memory)及びROM(Read only memory)等から構成されている。なお、学習プログラム101は、ROMに格納されていてもよい。制御部11は、記憶部10から学習プログラム101を読み出して実行することにより、学習処理部111及び保存処理部112として動作する。学習処理部111及び保存処理部112の動作は、後述する。
【0025】
通信インターフェース12は、例えば、有線LANモジュール、無線LANモジュール等から構成されている。通信インターフェース12は、外部装置とネットワーク8を介した有線又は無線によるデータ通信を行うためのインターフェースである。外部インターフェース13は、例えばUSB(Universal Serial Bus)ポートや専用ポートから構成されている。外部インターフェース13は、外部装置と通信可能な接続を構築するためのインターフェースである。
【0026】
入力装置14は、マウスやキーボード、音声マイク、操作ボタン等から構成されている。入力装置14は、制御部11に対するユーザからの操作を受け付ける。出力装置15は、ディスプレイ、スピーカ等から構成されており、情報を出力する。入力装置14及び出力装置15は、タッチパネルディスプレイ等により一体的に構成されていてもよい。
【0027】
<2-2.学習処理>
以下、学習処理について説明する。
図4及び
図5は、学習装置1が行う学習処理の流れを示すフローチャートである。
【0028】
学習用データ100は、サンプルとして実在するゴム組成物に由来するデータである。より具体的には、学習用データ100は、ゴム組成物を顕微鏡により撮像した顕微鏡画像と、ゴム組成物の材料の配合割合を表す配合データとが組み合わされた多数のデータセットである。顕微鏡画像は、サンプルとなるゴム組成物を顕微鏡で撮像した画像であり、倍率や、電子顕微鏡のモードといった撮像条件は、各サンプルで共通である。i番目の訓練用サンプル(i=1,2,…,N
image;N
imageは訓練用サンプル数)の顕微鏡画像を
【数1】
とする。本実施形態では、顕微鏡画像として、各顕微鏡画像をH×Wに予め分割した、パッチ
【数2】
を用いる。つまり、1種類のサンプルにつき、複数のパッチが取得される。取得された複数のパッチについて、パッチの特徴を示す、特徴量が従う確率分布をp
dataと定義する。
【0029】
顕微鏡は、本実施形態では走査型電子顕微鏡(SEM)である。しかし、顕微鏡はこれに限定されず、その他の種類の電子顕微鏡(TEM、STEM等)及び光学顕微鏡等から適宜選択することができる。また、顕微鏡の分解能の例として、好ましくは135nm/pixel(1画素当たりの撮像される対象物の長さ)の範囲が挙げられる。さらに、ゴム組成物を撮像する拡大倍率の例として、好ましくは2500~40000倍の範囲が挙げられる。顕微鏡により撮像されるゴム組成物の部位は特に限定されないが、外部空間との境界となる表面の部位よりは、内側の部位であることが好ましい。
【0030】
配合データは、1種類のサンプルにつき、1通りが存在する。配合データは、例えばモノマー、フィラー及びその他の添加物といった、N
com種類の材料に対する割合を表すデータである。配合データの割合を要素に持つ配合ベクトルを、
【数3】
とする。ただし、各要素の取り得る値は[0,1]である。
【0031】
図4は、第2機械学習モデル300の学習処理の流れを示すフローチャートである。本実施形態の学習処理部111は、まず第1機械学習モデル200のパラメータを一定にした状態で、第2機械学習モデル300の学習を行う。学習プログラム101がユーザの指示により実行され、ユーザによる学習開始の指示が入力装置14を介して受け付けられると、
図4に示す学習処理がスタートする。
【0032】
ステップS1では、学習処理部111が配合ベクトルyfakeとともに、一様分布pzに従う乱数ベクトルzを第1機械学習モデル200に入力する。乱数ベクトルzは、乱数から発生させたデータ、つまりノイズを要素に有するベクトルである。乱数は、学習処理部111がその都度生成してもよいし、学習プログラム101以外のプログラムにより生成されたものを学習処理部111が取得してもよい。配合ベクトルyfakeは、第1機械学習モデル200を条件付けするために入力される。配合ベクトルyfakeは、配合ベクトルyiと同様の次元、及び各要素の取り得る値の範囲を有するベクトルである。本実施形態のステップS1では、配合ベクトルyfakeとして学習用データ100に由来する配合ベクトルyiが入力されるが、学習用データ100に由来しないベクトルも配合ベクトルyfakeとして入力され得る。
【0033】
第1機械学習モデル200は、配合ベクトルy
fake及び乱数ベクトルzが入力されると、これらを特徴量とする画像を生成するように構成されるモデルであって、機械学習により更新されるパラメータを含んでいる。本実施形態では、第1機械学習モデル200は、ニューラルネットワークであり、各ニューロン間の結合の重み、各ニューロンの閾値等が上述のパラメータに該当する。第1機械学習モデル200は、入力された配合ベクトルy
fake及び乱数ベクトルzを用いて、データ空間への写像
【数4】
を生成し、出力する。これは、顕微鏡画像を模擬する模擬顕微鏡画像である。本実施形態では、1つの配合ベクトルy
fake及び乱数ベクトルzの組合せから、H×W枚の模擬顕微鏡画像(パッチ)が生成される。生成する模擬顕微鏡画像(パッチ)の枚数は、適宜選択されてよい。
【0034】
ステップS2では、学習処理部111が
【数5】
のいずれかを第2機械学習モデル300に入力する。つまり、学習処理部111は、1回のステップS2につき、顕微鏡画像及び模擬顕微鏡画像のいずれかのパッチ群をランダムに選択し、選択したパッチ群を第2機械学習モデル300に入力する。ステップS2では、学習処理部111は、入力したパッチ群が顕微鏡画像(real)であるか模擬顕微鏡画像(fake)であるかを認識しているが、「real」であるか「fake」であるかの正解は、第2機械学習モデル300に与えない。
【0035】
第2機械学習モデル300は、画像が入力されると、入力された画像が学習データに由来するもの(real)か否(fake)かの識別結果を出力するように構成されるモデルであって、機械学習により更新されるパラメータを含んでいる。なお、第2機械学習モデル300が出力する識別結果は、「real」であるか「fake」であるかを表す確率であってもよいし、この確率に基づいて判定される「real」であるか「fake」であるかを表すデータであってもよい。本実施形態では、第2機械学習モデル300は、ニューラルネットワークであり、各ニューロン間の結合の重み、各ニューロンの閾値等が上述のパラメータに該当する。本実施形態の第2機械学習モデル300は、入力されたパッチ群に対し、各パッチが「real」であるか「fake」であるかを表す確率を出力する。また、本実施形態の第2機械学習モデル300は、パッチ群の特徴量から、入力された画像の配合データとして推定されるデータを識別結果と同時に出力するように構成される。具体的には、第2機械学習モデル300は、画像が入力されると、
【数6】
を出力する。ただし、確率分布D(S|P)は入力された画像(パッチP)が学習用データ100のパッチP
j
iであるか否かを表す確率分布であり、
【数7】
である。また、配合ベクトルy
pred(P)は、配合データとして推定される値を要素に有するベクトルである。
【0036】
ステップS3では、学習処理部111が、出力された識別結果及びy
#pred(P)と、入力が「real」であるか「fake」であるかの正解及び学習用データ100に含まれる配合データとをそれぞれ照合し、第2機械学習モデル300のパラメータを調整する。より具体的には、学習処理部111は、第2機械学習モデル300の出力する識別結果の正解確率が高くなると同時に、第2機械学習モデル300の出力するデータと学習用データ100に含まれる配合データとの差が小さくなるように第2機械学習モデル300のパラメータを調整する。本実施形態では、学習処理部111は、以下の式(1)及び(2)で表される損失関数L
C及び損失関数L
Sの和(-L
C+L
S)が最大となるように第2機械学習モデル300のパラメータを調整する。
【数8】
(1)
【数9】
(2)
ただし、式(1)(2)における
【数10】
は、同一の訓練用サンプルの顕微鏡画像のパッチ及び配合ベクトルである。
【0037】
学習処理部111は、ステップS4において、第2機械学習モデル300の学習が完了したか否かを判断する。学習処理部111は、ステップS1~S3の繰り返しが所定の回数に到達したら、学習が完了したと判断してもよいし、(-LC+LS)が目標値に到達したら、学習が完了したと判断してもよい。学習処理部111は、学習が完了していないと判断した場合、ステップS1~S3をさらに繰り返す。これにより、学習処理部111は、第2機械学習モデル300のパラメータを最適化していく。保存処理部112は、1回の学習が行われ、ステップS3で第2機械学習モデル300のパラメータが調整されるごとに、最新のパラメータをパラメータ102として記憶部10に上書き保存する。
【0038】
学習処理部111は、第2機械学習モデル300の学習が完了したと判断すると、第2機械学習モデル300の学習処理を終える。続いて、学習処理部111は、第2機械学習モデル300のパラメータを一定にした状態で第1機械学習モデル200の学習をスタートする。
図5は、第1機械学習モデル200の学習処理の流れを示すフローチャートである。このときの第2機械学習モデル300のパラメータとしては、直近の第2機械学習モデル300の学習において、最適化されたパラメータを使用することができる。
【0039】
ステップS21では、学習処理部111は、配合ベクトルy
fakeとともに乱数ベクトルzを第1機械学習モデル200に入力し、出力として模擬顕微鏡画像
【数11】
を生成させる。本実施形態のステップS21では、配合ベクトルy
fakeとして学習用データ100に由来する配合ベクトルy
iが入力されるが、学習用データ100に由来しないベクトルも配合ベクトルy
fakeとして入力され得る。
【0040】
ステップS22では、学習処理部111が、ステップS21で生成された模擬顕微鏡画像を第2機械学習モデル300に入力する。第2機械学習モデル300は、この入力に対し、確率分布D(S|P)及び配合ベクトルypred(P)を出力する。
【0041】
ステップS23では、学習処理部111は、第2機械学習モデル300の識別結果の正解確率が低くなると同時に、配合ベクトルyfakeと配合ベクトルypred(P)との差が小さくなるように第1機械学習モデル200のパラメータを調整する。つまり、学習処理部111は、模擬顕微鏡画像がより顕微鏡画像により類似し、第2機械学習モデル300が模擬顕微鏡画像を本来の顕微鏡画像と認識しやすくなるように第1機械学習モデル200を学習させる。併せて、模擬顕微鏡画像から第2機械学習モデル300によって推定される配合データが、より本来の配合データに近くなるように第1機械学習モデル200のパラメータを調整する。本実施形態では、学習処理部111は、-(LC+LS)が最大となるように第1機械学習モデル200のパラメータを調整する。
【0042】
学習処理部111は、ステップS24において、第1機械学習モデル200の学習が完了したか否かを判断する。学習処理部111は、ステップS21~S23の繰り返しが所定の回数に到達したら、学習が完了したと判断してもよいし、-(LC+LS)が目標値に到達したら、学習が完了したと判断してもよい。学習処理部111は、学習が完了していないと判断した場合、ステップS21~S23をさらに繰り返す。これにより、学習処理部111は、第1機械学習モデル200のパラメータを最適化していく。保存処理部112は、ステップS23で第1機械学習モデル200のパラメータが調整されるごとに、最新のパラメータをパラメータ102として記憶部10に上書き保存する。
【0043】
学習処理部111は、ステップS24において、第1機械学習モデル200の学習が完了したと判断すると、第1機械学習モデル200の学習処理を終える。続いて、上述した第2機械学習モデル300の学習を再び開始する。このようにして、学習処理部111は、第2機械学習モデル300の学習と第1機械学習モデル200の学習とを交互に繰り返す。学習を繰り返す回数は、所定の回数であってよい。このようにすることで、配合データを入力すると、これと対を為す模擬顕微鏡画像を出力する学習済みモデル200Aが得られる。また、顕微鏡画像又は模擬顕微鏡画像を入力すると、それが顕微鏡画像であるか否かの識別結果を出力するとともに、入力された画像と対を為す配合データを推定するデータを出力する学習済みモデル300Aが得られる。
【0044】
<2-3.画像生成装置>
以下、学習済みモデル200Aを利用した生成装置2の構成と、生成装置2が行う処理について説明する。
図6は画像生成装置2の電気的構成を示すブロック図である。本実施形態の生成装置2は、ハードウェアとしては汎用のコンピュータである。生成装置2は、記憶部20、制御部21、通信インターフェース22、外部インターフェース23、入力装置24及び出力装置25を備えている。これらの部20~25は、互いにバス線を介して接続されており、相互に通信可能である。
【0045】
記憶部20は、ハードディスクやフラッシュメモリ等の不揮発性の記憶装置から構成されており、生成装置2を動作させるためのプログラム201が格納されている。プログラム201には、学習装置1により学習されたパラメータを含む、学習済みモデル200Aが含まれる。プログラム201は、USBメモリ等の記憶媒体7や、ネットワーク8等から取得され得る。
【0046】
制御部21は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサ、RAM(Random Access Memory)及びROM(Read only memory)等から構成されている。なお、プログラム201は、ROMに格納されていてもよい。制御部21は、記憶部20からプログラム201を読み出して実行することにより、データ取得部210及び画像生成部211として動作する。各部の動作は、後述する。
【0047】
通信インターフェース22は、例えば、有線LANモジュール、無線LANモジュール等から構成されている。通信インターフェース22は、外部装置とネットワーク8を介した有線又は無線によるデータ通信を行うためのインターフェースである。外部インターフェース23は、例えばUSB(Universal Serial Bus)ポートや専用ポートから構成されている。外部インターフェース23は、外部装置と通信可能な接続を構築するためのインターフェースである。
【0048】
入力装置24は、マウスやキーボード、音声マイク、操作ボタン等から構成されている。入力装置24は、制御部21に対するユーザからの操作を受け付ける。出力装置25は、ディスプレイ、スピーカ等から構成されており、情報を出力する。入力装置24及び出力装置25は、タッチパネルディスプレイ等により一体的に構成されていてもよい。
【0049】
図7は、生成装置2が行う画像生成処理の流れを示すフローチャートである。生成装置2は、入力装置24を介して、ユーザにより画像生成処理開始の指示を受け付けると、画像生成処理をスタートする。
【0050】
ステップS41では、データ取得部210が、ゴム組成物を構成する材料の配合を表す配合データを取得する。配合データは、所定の種類の材料について、それぞれの配合割合を[0,1]の範囲で表すデータであり、ベクトルとしても扱うことができる。配合データは、記憶媒体7を介して取得されてもよいし、ネットワーク8を介して取得されてもよいし、通信可能に接続された外部装置から直接取得されてもよい。
【0051】
続くステップS42では、画像生成部211が、取得した配合データを、ノイズを表す乱数ベクトルとともに学習済みモデル200Aに入力する。一様分布に従うこの乱数ベクトルは、画像生成部211がその都度生成してもよいし、プログラム201以外のプログラムにより生成されたものを画像生成部211がその都度取得してもよい。学習済みモデル200Aは、配合データを配合ベクトルと捉え、乱数ベクトルとともにデータ空間へ写像する。その結果、ステップS43では、ゴム組成物を顕微鏡により撮像した顕微鏡画像を模擬する、模擬顕微鏡画像が出力される。
【0052】
出力された画像は、例えば配合データが予め判明しているゴム組成物の構造を予測するのに利用することができる。また、出力された画像は、例えばゴム組成物の顕微鏡画像に基づいて、ゴム組成物の特性を推定する機械学習モデルを学習させるためのデータとして利用することができる。さらに、出力された画像は、例えばゴム組成物の構造の経年変化を予測するのに利用し得る。例えば、製造からの経過時間ごとのゴム組成物の顕微鏡画像が利用できる場合、これを利用して、異なる経過時間ごとに複数の学習用データ100を用意し、それぞれを学習装置1によって学習させ、学習済みモデル200Aを複数生成する。こうして作成された複数の学習済みモデル200Aは、それぞれ、所定の経過時間に対応した模擬顕微鏡画像を出力する。
【0053】
<2-4.推定装置>
以下、学習済みモデル300Aを利用したゴム組成物の推定装置3の構成と、推定装置3が行う処理について説明する。
図8は推定装置3の電気的構成を示すブロック図である。本実施形態の推定装置3は、ハードウェアとしては汎用のコンピュータである。推定装置3は、記憶部30、制御部31、通信インターフェース32、外部インターフェース33、入力装置34及び出力装置35を備えている。これらの部30~35は、互いにバス線を介して接続されており、相互に通信可能である。
【0054】
記憶部30は、ハードディスクやフラッシュメモリ等の不揮発性の記憶装置から構成されており、推定装置3を動作させるためのプログラム301が格納されている。プログラム301には、学習装置1により学習されたパラメータを含む、学習済みモデル300Aが含まれる。プログラム301は、USBメモリ等の記憶媒体7や、ネットワーク8等から取得され得る。
【0055】
制御部31は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等のプロセッサ、RAM(Random Access Memory)及びROM(Read only memory)等から構成されている。なお、プログラム301は、ROMに格納されていてもよい。制御部31は、記憶部30からプログラム301を読み出して実行することにより、画像取得部310及び配合推定部311として動作する。各部の動作は、後述する。
【0056】
通信インターフェース32は、例えば、有線LANモジュール、無線LANモジュール等から構成されている。通信インターフェース32は、外部装置とネットワーク8を介した有線又は無線によるデータ通信を行うためのインターフェースである。外部インターフェース33は、例えばUSB(Universal Serial Bus)ポートや専用ポートから構成されている。外部インターフェース33は、外部装置と通信可能な接続を構築するためのインターフェースである。
【0057】
入力装置34は、マウスやキーボード、音声マイク、操作ボタン等から構成されている。入力装置34は、制御部31に対するユーザからの操作を受け付ける。出力装置35は、ディスプレイ、スピーカ等から構成されており、情報を出力する。入力装置34及び出力装置35は、タッチパネルディスプレイ等により一体的に構成されていてもよい。
【0058】
図9は、推定装置3が行う配合推定処理の流れを示すフローチャートである。推定装置3は、入力装置34を介して、ユーザにより配合推定処理開始の指示を受け付けると、配合推定処理をスタートする。
【0059】
ステップS51では、画像取得部310が、学習済みモデル300Aに入力される入力画像を取得する。入力画像は、ゴム組成物を顕微鏡により撮像した顕微鏡画像であってもよいし、顕微鏡画像に類似する画像、例えば顕微鏡画像を模擬する模擬顕微鏡画像であってもよい。入力は、記憶媒体7を介して取得されてもよいし、ネットワーク8を介して取得されてもよいし、通信可能に接続された外部装置から直接取得されてもよい。入力画像が顕微鏡画像であれば、例えば推定装置3とデータ通信可能に接続された顕微鏡から、その撮像画像を推定装置3に取り込んでもよい。
【0060】
続くステップS52では、配合推定部311が、取得した入力画像を学習済みモデル300Aに入力する。ステップS53では、学習済みモデル300Aが、入力画像に基づいて、ゴム組成物を構成する材料の配合を推定する。つまり、学習済みモデル300Aは、入力画像と対を為す配合データを出力する。
【0061】
推定装置3により出力される配合データは、例えばそれを構成する材料及びその配合が不明である、ゴム組成物の材料及び配合を推定するのに使用することができる。
【0062】
[B.第2実施形態]
<3-1.学習装置>
以下、
図10~
図14を参照しつつ、本開示の第2実施形態に係る学習装置1Aについて説明する。
図10は、学習装置1Aの電気的構成を表すブロック図である。第1実施形態に係る学習装置1は、AC-GANによる機械学習モデルを学習させるように構成されたが、本実施形態に係る学習装置1Aは、条件付き画像生成モデルの1つである「Conditional Style Generative Adversarial Network:StyleGAN」による機械学習モデルを学習させるように構成される。このため、学習装置1Aは、ハードウェアとしては学習装置1と同様の構成を有する汎用のパーソナルコンピュータであるが、記憶部10に格納される学習プログラム101A及びパラメータ102Aが学習装置1とは異なっている。学習プログラム101Aには、本実施形態に係る機械学習モデル(StyleGAN)が組み込まれ、その学習の結果に応じてパラメータ102Aが更新され、記憶部10に保存される。以下の説明では、学習装置1と共通する構成については共通の符号を付して説明を省略し、学習装置1とは相違する学習装置1Aの構成、つまり機械学習モデルの構成と、その学習処理について説明する。
【0063】
<3-2.学習処理>
図11は、本実施形態に係る機械学習モデルの概略を説明する図である。この機械学習モデルでは、第1実施形態に係る機械学習モデルと同様に、画像を生成する第3機械学習モデル400と、画像の真偽を識別する第4機械学習モデル500との競合的な学習が行われる。ただし、StyleGANの学習では、低解像度から中解像度、中解像度から高解像度へと、生成される画像の解像度を段階的に上げるように第3機械学習モデル400及び第4機械学習モデル500の学習が行われる。これにより、色等、画像の大まかな情報から、位置や模様といった詳細な情報へと徐々に着目して学習が行えるようになり、最終的に、学習用データの画像との類似度が高い、高解像度の画像を生成することができる。学習済みの第3機械学習モデル400(以下、「学習済みモデル400A」と称することがある)は、学習済みモデル200Aと同様に、汎用のコンピュータ等に実装されることにより、画像生成装置2A(以下、単に「生成装置2A」と称することがある)を構成することができる。
【0064】
以下、
図11~
図14を参照しつつ、StyleGANの構成と、学習装置1Aが行う学習処理の流れについて説明する。
図13は、学習装置1が行う学習処理の流れを示すフローチャートである。
【0065】
本実施形態の学習用データ100Aは、顕微鏡画像X
iをH×Wに予め分割したパッチ
【数12】
及び、各顕微鏡画像X
iに対応する配合ベクトルy
iが組み合わせられたデータから用意される。パッチP
i
jからは、後述する生成ネットワーク402によって生成されるべき模擬顕微鏡画像のサイズに合わせて、4×4ピクセルのパッチP
i
j、8×8ピクセルのパッチP
i
j、16×16ピクセルのパッチP
i
j…といったサイズごとのパッチP
i
jが生成される。こうして生成された各サイズのパッチP
i
jと、元の配合ベクトルy
iとをそれぞれ組み合わせたものが学習用データ100Aである。つまり、学習用データ100Aは、顕微鏡画像のサイズごとに用意された、顕微鏡画像と配合ベクトルとのデータセットであると言うことができる。第1実施形態と同様、各パッチの特徴量は、確率分布p
dataに従う。
【0066】
図12は、本実施形態に係る第3機械学習モデル400の構成を説明する図である。
図12に示す通り、第3機械学習モデル400は、射影ネットワーク401と、生成ネットワーク402とを含む。射影ネットワーク401は、入力されたノイズ及びゴムの配合データから、特徴量
【数13】
を算出して出力する機械学習モデルであり、微分可能な任意の射影であれば特に限定されない。本実施形態の射影ネットワーク401は、8層の全結合層を有するニューラルネットワークであり、「マッピングネットワーク」とも称される。射影ネットワーク401の各ニューロン間の結合の重み、各ニューロンの閾値等は、更新可能なパラメータ102Aに含まれ、学習によって調整される。特徴量wは、「スタイル情報」とも称され、後述する生成ネットワーク402によって生成される模擬顕微鏡画像P
fake(正確には、模擬顕微鏡画像のパッチ)に反映されるべき画像の性質が表現された特徴量であって、各要素が独立して単一の性質を表現するベクトルである。
【0067】
図13に示す学習処理のステップST1では、学習処理部111が、射影ネットワーク401に、学習用データ100Aから所定のバッチサイズだけピックアップした配合ベクトルy
fakeと、ノイズとしての乱数ベクトルz~N(μ,σ
2)とを入力し、射影ネットワーク401からの出力である特徴量wを導出する。
【0068】
ステップST2では、学習処理部111が、射影ネットワーク401から出力された特徴量wを、アフィン変換を用いて2つのパラメータ
【数14】
に変換する。w
sはscaleパラメータであり、w
bはbiasパラメータである。
【0069】
ステップST3では、学習処理部111が、パラメータw
s、w
b及び乱数ベクトルz
map~N(μ,σ
2)を下式に代入することにより、特徴量w
Adaを算出する。ただし、式中の「x(ボールド斜体)」は、乱数ベクトルz
mapを後述する学習の各段階における生成ネットワーク402に入力して得られる中間特徴出力である。
【数15】
【0070】
ステップST3で算出される特徴量
【数16】
は、AdaIN(Adaptive Instance Normalization)モジュールに基づいて変換された特徴量である。AdaINモジュールを使用すると、スタイルごとに機械学習モデルを学習させる必要がなくなり、任意のスタイルに対応することができる。つまり、特徴量w
Adaを用いることにより、学習用データ100Aに含まれない配合ベクトルに対しても適切に模擬顕微鏡画像を生成することが可能となる。
【0071】
ステップST4では、学習処理部111が、新たなノイズとしての乱数ベクトルzmap~N(μ,σ2)及び特徴量wAdaを、生成ネットワーク402に入力し、生成ネットワーク402から模擬顕微鏡画像Pfakeを出力する。ここで、生成ネットワーク402は、学習が進行するにつれ、同じ乱数ベクトルzmap~N(μ,σ2)及び特徴量wAdaの入力から、より高い解像度の、つまりより大きなサイズの画像を生成するように構成される。生成ネットワーク402は、まず小さいサイズの画像を出力する生成器403として構成される。学習により、生成器403が学習用データ100Aの同サイズの画像により近い画像を出力できるようになると、生成器403にさらに機械学習モデルの層が追加され、一段階大きいサイズの画像を出力する生成器403となる。この生成器403を再び学習させ、学習用データ100Aの同サイズの画像により近い画像を出力できるようにする。この手順を繰り返すことにより、高い解像度の画像を生成可能な生成ネットワーク402が最終的に生成される。以下、学習の都度追加される層を、「生成層」と称する。
【0072】
生成器403は、入力されたデータから、所定の大きさを有する画像を生成して出力する機械学習モデルであれば、その構造は特に限定されない。本実施形態の生成器403は、1つまたは複数のアップサンプリング層4030を有する。アップサンプリング層4030は、転置畳み込みを行うことで、入力されたデータよりもサイズの大きいデータを生成する。転置畳み込み等のパラメータは、パラメータ102Aに含まれ、学習により調整される。
【0073】
乱数ベクトルzmap及び特徴量wAdaは、生成ネットワーク402、つまり生成器403に入力される。より詳細には、生成器403の各アップサンプリング層4030で転置畳み込みが行われる都度、乱数ベクトルzmap及び特徴量wAdaが生成器403に取り込まれる。つまり、模擬顕微鏡画像Pfakeに反映されるべきスタイル情報が、各解像度の画像の生成過程で取り込まれ、各解像度の画像が有する異なる性質の情報を特徴づける。これにより、高い品質の模擬顕微鏡画像Pfakeを出力する学習済みモデル400Aを生成することが可能となる。
【0074】
以下、生成ネットワーク402が最初に4×4の生成器403として構成される場合の例を説明する。4×4の生成器403は、4×4ピクセルの画像を出力する機械学習モデルである。ステップST4において、4×4の生成器403に乱数ベクトルzmap及び特徴量wAdaが入力されると、4×4の模擬顕微鏡画像Pfakeが4×4の生成器403から出力される。
【0075】
ステップST5では、学習処理部111が、生成された4×4の模擬顕微鏡画像P
fake及び学習用データ100Aに含まれる4×4のパッチ画像を第4機械学習モデル500に入力する。第4機械学習モデル500は、生成器403と対になる識別器501として構成される。識別器501は、生成器403と同様に、学習が進行するにつれて、次第に高い解像度の画像を識別する識別器501となる。つまり、
図14に示すように、生成器403に生成層が追加され、より大きなサイズの画像を生成する生成器403となるに従って、対になる識別器501にもより大きなサイズの画像を識別するための層が追加され、最終的には大きなサイズの画像を識別することができる第4機械学習モデル500となる。従って、ここでは、4×4の生成器403と対になる4×4の識別器501に、模擬顕微鏡画像P
fake及び4×4のパッチ画像が入力される。以下、生成層が追加されるのに連動して識別器501に追加される層を、「識別層」と称する。
【0076】
識別器501は、入力された画像が、学習用データ100Aに由来する画像(真)か生成ネットワーク402により生成された画像か(偽)かを判別する結果を出力する機械学習モデルであれば、その構造は特に限定されない。本実施形態の識別器501は、確率出力層を含む。4×4の識別器501は、入力された画像それぞれについて、特徴量を抽出し、それが学習用データ100Aに含まれる画像(真)である確率または尤度を出力する。
【0077】
ステップST6では、学習処理部111が第3機械学習モデル400または第4機械学習モデル500のいずれかのパラメータを調整する。ステップST1~ステップST6は所定の回数だけ繰り返されるが、学習処理部111は、処理がステップST6に到達するたびに、第3機械学習モデル400のパラメータの調整または第4機械学習モデル500のパラメータの調整を、交互に行う。まず、第4機械学習モデル500のパラメータを固定したまま第3機械学習モデル400のパラメータが調整される場合について説明する。この場合のステップST6では、学習処理部111が、以下の式で表される損失関数を計算し、その値が最小化されるように射影ネットワーク401及び生成器403を含む生成ネットワーク402のパラメータを最適化する。式中、f(・)は射影ネットワーク401を、g(・)は生成ネットワーク402を、d(・)は第4機械学習モデル500を、λは正則化係数をそれぞれ表す。また、p
zは乱数ベクトルzが従う一様分布である。
【数17】
【0078】
上記損失関数は、Wasserstein divergenceに基づく損失関数である。Wasserstein divergenceは、第3機械学習モデル400が出力するデータと、これに対応する学習用データ100Aとの差に注目する点では第1実施形態における損失関数と類似しているが、模擬顕微鏡画像Pfakeが従う確率分布を動かして、学習用データ100AのパッチPj
iが従う確率分布に一致させるときのコストを最小化するという考え方に基づく点が異なる。学習に使用する損失関数はこれに限定されないが、Wasserstein divergenceに基づく損失関数を用いることで、StyleGANの学習をより安定的に行うことができる。
【0079】
学習処理部111は、上記損失関数の値が最小化されるように、つまり、第3機械学習モデル400から出力される模擬顕微鏡画像Pfakeが従う確率分布と、学習用データ100AのパッチPj
iが従う確率分布との一致度が高くなるように、第3機械学習モデル400のパラメータを調整する。これは、第4機械学習モデル500の識別結果の正解確率が低くなるように、第3機械学習モデル400のパラメータを調整するとも言い換えることができる。保存処理部112は、パラメータ102Aに含まれる第3機械学習モデル400のパラメータを、調整後のパラメータに更新する。
【0080】
また、第3機械学習モデル400のパラメータを固定したまま第4機械学習モデル500のパラメータが調整される場合、ステップST6では、学習処理部111が上述の損失関数の値が最大化されるように第4機械学習モデル500のパラメータを最適化する。つまり、第4機械学習モデル500の識別結果の正解確率が高くなるように、第4機械学習モデル500のパラメータを調整する。保存処理部112は、パラメータ102Aに含まれる第4機械学習モデル500のパラメータを、調整後のパラメータに更新する。
【0081】
ステップST7では、学習処理部111が、現時点における第3機械学習モデル400及び第4機械学習モデル500の学習が完了したか否かを判断する。学習が完了したか否かの判断基準は、適宜決定することができる。例えば、生成層と、これと対になる識別層が最後に追加されてから、ステップST1からステップST6までが所定の回数だけ繰り返されると、学習を完了したと判断することができる。あるいは、第4機械学習モデル500の識別結果の正解確率が低い値で収束し、第3機械学習モデル400から出力される模擬顕微鏡画像Pfakeが学習用データ100AのパッチPj
iに近づいたと判断できる程度になると、学習を完了したと判断することができる。学習が完了していないと判断されると、処理はステップST1に戻る。
【0082】
ステップST1に戻ると、学習処理部111は、再び学習用データ100Aから所定のバッチサイズだけ配合ベクトルyfakeをピックアップし、さらにステップST1~ST6までを繰り返す。
【0083】
ステップST7で学習が完了したと判断された場合、処理はステップST8に移行する。ステップST8では、学習処理部111が、生成ネットワーク402に新たな生成層を、第4機械学習モデル500に新たな識別層を、それぞれ追加するか否かを判断する。生成層及び識別層は、生成器403、つまり生成ネットワーク402の出力する模擬顕微鏡画像Pfakeが、所定のサイズに到達するまで追加される。つまり、ステップST8では、学習処理部111が、生成ネットワーク402が所定のサイズの模擬顕微鏡画像Pfakeを出力可能になったか否かを判断するとも言える。学習処理部111が生成層及び識別層を追加すると判断すると、処理はステップST9に進む。
【0084】
ステップST9では、学習が完了した生成器403に、1段階高い解像度に対応する生成層が追加され、1段階高い解像度の生成器403が生成される。例えば、4×4の生成器403の学習が完了した後には、4×4の生成器403に8×8の模擬顕微鏡画像Pfakeを生成する生成層が追加されて、8×8の模擬顕微鏡画像Pfakeを出力する8×8の生成器403が生成される。また同様に、ステップST9では、第4機械学習モデル500に、学習が完了した識別器501に、1段階高い解像度に対応する識別層が追加される。例えば、4×4の識別器501の学習が完了した後には、8×8の画像の真偽を識別する、8×8の識別層が第4機械学習モデル500、つまり4×4の識別器501に追加される。このように、各解像度に対応する生成器403及び識別器501が段階的に生成されつつ学習されることにより、最終的にはノイズ及び配合ベクトルを入力すると、所定の解像度の模擬顕微鏡画像Pfakeを出力する生成ネットワーク402が生成される。このように、段階的に生成層及び識別層を追加し、学習させていくことにより、解像度の高い画像を出力する機械学習モデルの生成が可能になる。
【0085】
一方、ステップST8で生成層及び識別層がこれ以上追加されなかった場合、学習処理は終了する。これにより、射影ネットワーク401及び生成ネットワーク402を含む、学習済みモデル400Aが生成される。生成ネットワーク402は、各アップサンプリング層4030にAdaINに基づく特徴量wAdaが入力される構造となる。つまり、模擬顕微鏡画像Pfakeに反映されるべきスタイル情報が各解像度の画像の生成過程に存在するため、ゴムの配合ベクトルの要素を用いた多様なスタイルの操作が可能となる。
【0086】
<3-3.画像生成装置及び画像生成処理>
学習済みモデル400Aは、これを1つの学習済みモデルとして捉えた場合、ノイズ及び配合データを入力すると、模擬顕微鏡画像を出力するモデルであるということができる。従って、学習済みモデル400Aをハードウェアに実装することにより、ノイズ及び配合データを入力すると模擬顕微鏡画像を生成する生成装置2Aを製造することができる。
図15は、生成装置2Aの電気的構成を示すブロック図である。生成装置2Aは、ハードウェアとしては生成装置2や学習装置1、1A等と同様の構成を有する汎用のパーソナルコンピュータであり、記憶部20には学習済みモデル400Aが組み込まれたプログラム201Aが格納されている。生成装置2Aのその他の構成は、生成装置2や学習装置1、1A等と共通であるため、同様の符号を付して説明を省略する。
【0087】
生成装置2Aに入力されるデータの種類は、生成装置2に入力されるデータの種類と共通である。また、生成装置2Aから出力されるデータの種類は、生成装置2から出力されるデータの種類と共通である。従って、生成装置2Aによる画像生成処理の流れは、
図7に示すフローチャートと同様である。ただし、学習済みモデル400Aは、解像度ごとに模擬顕微鏡画像P
fakeを生成する学習済みの生成層を含んでいるということができる。このため、生成装置2Aは、各生成層で生成されるデータを、各解像度の模擬顕微鏡画像P
fakeとしてそれぞれ出力するように構成されてもよい。このように生成装置2Aを構成することで、ゴム組成物の配合が各解像度における顕微鏡画像の特徴に、どのように影響するかを検討することができる。
<4.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。そして、以下に示す変形例は、適宜組合せが可能である。
【0088】
<4-1>
学習装置1は、AC-GANを利用した機械学習ではなく、他の画像生成モデル、例えばVAE(Variational Autoencoder)を利用した機械学習を行ってもよい。すなわち、学習済みモデル200A及び学習済みモデル300Aは、VAEの機械学習や、その他の画像生成モデルの機械学習により生成されてもよい。
【0089】
<4-2>
学習装置1の第1機械学習モデル200の学習では、後述するKL(Kullback-Leibler)ダイバージェンスを利用してもよい。KLダイバージェンスは、確率分布同士の距離を示す尺度であり、[0、∞]の値をとり得る。KLダイバージェンスの値が小さければ小さいほど、それぞれの確率分布に従うデータの類似度が高いと言える。具体的には、第2機械学習モデル300が、第1機械学習モデル200の生成する模擬顕微鏡画像と顕微鏡画像とのKLダイバージェンスを出力するように構成され、学習処理部111が、KLダイバージェンスの値が小さくなるように第1機械学習モデル200を学習させてもよい。
【0090】
<4-3>
学習装置1、1A、画像生成装置2,2A及び推定装置3は、プロセッサに代えて又はこれに加えて、ASIC(application specific integrated circuit)、PLD(programmable logic device)等を備え、演算に利用するように構成されてもよい。また、学習プログラム101,101A、プログラム201,201A、及びプログラム301は、それぞれステップS1~S4、S21~S24、S41~S43及びS51~S53をそれぞれがインストールされる装置に実行させるが、これらのプログラムは、少なくとも一部のステップを別のコンピュータやデバイス、インターネットを介して提供されるサービス等に分散して実行させてもよい。
【0091】
<4-4>
ステップS1~S4は、ステップS21~S24の後に行われてもよい。つまり、学習装置1は、まず第1機械学習モデル200の学習を行ってから、第2機械学習モデル300の学習を行うように構成されてもよい。
【実施例】
【0092】
以下、本発明の実施例について説明する。ただし、以下の実施例は、あくまでも本発明の例示に過ぎず、本発明はこれに限定されない。
【0093】
上記第1,第2実施形態と同様の学習装置を用いてそれぞれ学習させた学習済みモデルを用いて、模擬顕微鏡画像(パッチ)を生成した。生成したパッチと、顕微鏡画像のパッチとの類似度を比較した。
【0094】
[実験1-第1実施形態に係る画像生成方法による実験]
<実験条件>
配合データが互いに異なる72サンプルのゴム組成物を用意した。それぞれのゴム組成物を電子顕微鏡画像で撮像し、計156枚の顕微鏡画像を取得した。つまり、各サンプルについて、複数の顕微鏡画像が存在した。顕微鏡画像はグレースケールであり、解像度は1536×1024ピクセルであった。拡大倍率は、20000倍であった。
【0095】
各顕微鏡画像を128×128ピクセルのパッチに分割し、1枚の顕微鏡画像につき522枚のパッチを生成した。ただし、パッチ分割時のスライド幅は50ピクセルであった。配合データの材料の種類Ncomは、32とした。つまり、配合ベクトルは32次元のベクトルであった。
【0096】
学習時のバッチサイズは64であり、学習回数であるエポック数は50であった。AC-GANの学習は、深層学習のフレームワークTensorFlowを用いて行った。検証方法は、10分割公差検定を採用した。つまり、ゴム組成物のサンプルを訓練サンプルと評価用サンプルとに分け、訓練サンプルの顕微鏡画像と配合データとのデータセットを学習用データとして用い、評価用サンプルの顕微鏡画像と配合データとのデータセットを検証に用いた。
【0097】
本実験では、評価用サンプルの配合データから模擬顕微鏡画像のパッチを作成し、生成したパッチが評価用サンプルの顕微鏡画像のパッチとどの程度類似しているかを評価した。類似度の評価方法として、以下のようにKLダイバージェンスを用いた。KLダイバージェンスは、値が小さいほど画像が類似することを意味する。
(1-1)1枚の顕微鏡画像を上述の方法で分割し、522枚のパッチを生成した。
(1-2)学習装置を用いて学習させた、第1機械学習モデルに評価用サンプルの配合データを入力して、522枚のパッチを生成した。
(2)(1-1)及び(1-2)で生成した各パッチについて、画像の特徴量を表す特徴量を算出した。特徴量の算出は、公知のデータセットであるImageNetによって学習済みの、Inception-v3(Google社)を用いた。特徴量は、Inception-v3の第3プーリング層から出力される2048次元のベクトルとした。
(3)算出された特徴量に対して主成分分析を行い、次元削減を施し、78次元のベクトルを得た。
(4)顕微鏡画像のパッチの特徴量が従う確率分布Sと、模擬顕微鏡画像のパッチの特徴量が従う確率分布TのKLダイバージェンスD
KL(S||T)を以下の式に基づいて算出した。
【数18】
ただし、式中のs(x)及びt(x)は、それぞれ確率分布S及びTの確率密度関数である。
【0098】
なお、同一のサンプルで複数枚の顕微鏡画像が存在する場合には、各顕微鏡画像とのKLダイバージェンスの平均値を算出した。全サンプルに対するKLダイバージェンスを昇順に並べたときの生成目的のサンプル(模擬顕微鏡画像のパッチの元となった配合データを有するサンプル)の順位を用いて評価を行った。
【0099】
<実験結果>
図16は、あるサンプルの顕微鏡画像と、顕微鏡画像から生成されたパッチ(a)と、当該サンプルの配合データから生成された模擬顕微鏡画像のパッチ(b)の一例である。
図16に示すように、パッチ(a)及びパッチ(b)が定性的に類似していることが確認された。
【0100】
図17は、全72サンプルに対するKLダイバージェンスを昇順に並べたときの生成目的のサンプルの順位のヒストグラムである。
図17により、類似度が上位となるサンプルの数が一番多くなっており、その後、順位が下がるにつれて該当するサンプルの数が減少している。これにより、配合データから当該ゴム組成物の顕微鏡画像に類似する模擬顕微鏡画像が作成可能なことが確認された。平均順位は、17.5位であった。
【0101】
[実験2-第2実施形態に係る画像生成方法による実験]
<実験条件>
配合データが互いに異なる72サンプルのゴム組成物を用意した。それぞれのゴム組成物を電子顕微鏡画像で撮像し、計156枚の顕微鏡画像を取得した。つまり、各サンプルについて、複数の顕微鏡画像が存在した。顕微鏡画像はグレースケールであり、解像度は1536×1024ピクセルであった。拡大倍率は、20000倍であった。配合データとこれに対応する顕微鏡画像とが対になった156セットのデータセットを分けて、9割をStyleGANの学習を行うための訓練サンプルとし、残りの1割を学習検証用の評価用サンプルとした。
【0102】
各顕微鏡画像を256×256ピクセルのパッチに分割し、1枚の顕微鏡画像につき416枚のパッチを生成した。パッチ分割時のスライド幅は50ピクセルであった。配合データの材料の種類Ncomは、33とした。つまり、配合ベクトルは33次元のベクトルであった。学習時のバッチサイズは64であり、学習回数であるエポック数は100であった。このような条件で第2実施形態に係る第3機械学習モデル及び第4機械学習モデルを学習させ、256×256ピクセルの模擬顕微鏡画像(以下、「生成パッチ」と称する)を生成する学習済みモデルを生成した。
【0103】
<評価>
学習済みモデルにより生成された生成パッチの分布と、評価用サンプルの顕微鏡画像から生成(分割)されたパッチ(以下、「実パッチ」と称する)の分布との類似度を評価した。まず、m(m=1,2,…,M;Mは評価用サンプルの配合データの種類)番目の配合データに対応する実パッチ及び生成パッチを、ImageNetで学習済みのDenseNet121に入力して、それぞれのパッチの特徴量を算出した。実パッチについて算出された特徴量の平均及び共分散を、それぞれμ
r
m及びΣ
r
mと定義した。また、生成パッチについても同様に、特徴量の平均及び共分散を、それぞれμ
g
m及びΣ
g
mと定義した。そして、以下の式に従ってFrechet Inception Distance(FID
PM)を算出した。FID
PMは、特定の配合データから生成された生成パッチと、その配合データに対応する実パッチとの類似度を表す指標であって、値が小さいほど分布間の類似度が高いことを表す。
【数19】
【数20】
【0104】
また、比較指標として、以下の式に基づき、FID
CMを算出した。FID
CMは、特定の配合データから生成された生成パッチと、特定の配合データを除く配合データに対応する実パッチとの類似度を表す指標であり、値が小さいほど分布間の類似度が高いことを表す。
【数21】
【数22】
【0105】
それぞれを算出すると、FIDPM=181.9、FIDCM=233.6となり、FIDPMがFIDCMよりも小さい値となった。このことは、特定の配合データに基づいて生成された生成パッチと当該配合データに対応する実パッチとの類似度が、当該生成パッチと当該配合データ以外の配合データに対応する実パッチとの類似度よりも全般的に高いことを示す。これにより、第2実施形態に係る学習済みモデルにより配合データを表現したパッチを生成可能であることが確認された。
【0106】
<参考1>
参考として、256×256の生成パッチと、元の配合データに対応する顕微鏡画像とを比較する画像を
図18に示す。ゴム組成物A及びゴム組成物Bは、それぞれ異なる配合データを有するゴム組成物である。ゴム組成物Aの顕微鏡画像とゴム組成物Bの顕微鏡画像とを比較すると、ゴム組成物Aの顕微鏡画像がより暗く、ゴム組成物Bの顕微鏡画像がより明るい。同様に、ゴム組成物Aの配合データから生成された生成パッチと、ゴム組成物Bの配合データから生成された生成パッチとを比較すると、ゴム組成物Aの配合データから生成された生成パッチの方がより暗くなっている。つまり、生成パッチには元の顕微鏡画像に現れる特徴が反映されていることが確認できる。
【0107】
<参考2>
また別の参考として、ゴム組成物の材料のうち、特定の2種類のポリマーの配合割合を段階的に変化させた配合データを作成した。これらの配合データを学習済みモデルにそれぞれ入力し、256×256の生成パッチを出力した。それぞれの生成パッチを
図19に示す。
図19から分かるように、ポリマーの配合割合に応じて、生成パッチに現れる特徴が変化していることが分かる。
【符号の説明】
【0108】
1,1A 学習装置
2,2A 画像生成装置
3 配合推定装置
10 記憶部
100,100A 学習用データ
111 学習処理部
200 第1機械学習モデル
210 データ取得部
211 画像生成部
300 第2機械学習モデル
310 画像取得部
311 配合推定部
400 第3機械学習モデル
500 第4機械学習モデル