IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社SCREENホールディングスの特許一覧

特開2024-137646学習装置、情報処理装置、基板処理装置、学習方法および処理条件決定方法
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024137646
(43)【公開日】2024-10-07
(54)【発明の名称】学習装置、情報処理装置、基板処理装置、学習方法および処理条件決定方法
(51)【国際特許分類】
   H01L 21/306 20060101AFI20240927BHJP
   G06N 20/00 20190101ALI20240927BHJP
【FI】
H01L21/306 R
G06N20/00
【審査請求】未請求
【請求項の数】12
【出願形態】OL
(21)【出願番号】P 2023193281
(22)【出願日】2023-11-13
(31)【優先権主張番号】P 2023048554
(32)【優先日】2023-03-24
(33)【優先権主張国・地域又は機関】JP
(71)【出願人】
【識別番号】000207551
【氏名又は名称】株式会社SCREENホールディングス
(74)【代理人】
【識別番号】100108523
【弁理士】
【氏名又は名称】中川 雅博
(74)【代理人】
【識別番号】100125704
【弁理士】
【氏名又は名称】坂根 剛
(74)【代理人】
【識別番号】100187931
【弁理士】
【氏名又は名称】澤村 英幸
(72)【発明者】
【氏名】▲徳▼山 真裕
(72)【発明者】
【氏名】篠原 健介
【テーマコード(参考)】
5F043
【Fターム(参考)】
5F043DD13
5F043EE07
5F043EE08
5F043EE40
(57)【要約】
【課題】 低コストで精度の高い学習モデルを生成する。
【解決手段】 学習装置は、基板処理装置で実行される処理の処理条件と当該処理の処理結果とを含む第1データセットを取得する実験データ取得部と、第2データセットを学習モデルに機械学習させる事前学習部225cと、事前学習部225cにより機械学習された学習済の学習モデルに第1データセットを機械学習させる学習モデル生成部225cとを備え、第2データセットは、事前処理条件に基づいて予め定められた予測アルゴリズムにより予測される事前処理結果と事前処理条件とを含む。
【選択図】図5

【特許請求の範囲】
【請求項1】
基板処理装置で実行される処理の処理条件と当該処理の処理結果とを含む第1データセットを取得する実験データ取得部と、
事前処理条件を生成する事前処理条件生成部と、
第2データセットを学習モデルに機械学習させる事前学習部と、
前記事前学習部により機械学習された学習済の前記学習モデルに前記第1データセットを機械学習させる学習モデル生成部とを備え、
前記第2データセットは、前記事前処理条件から予め定められた予測アルゴリズムにより予測される事前処理結果と前記事前処理条件とを含む、学習装置。
【請求項2】
前記予測アルゴリズムは、前記事前処理条件を予め定められたルールに従って解析するルールベースの予測アルゴリズムである、請求項1に記載の学習装置。
【請求項3】
前記予測アルゴリズムは、前記事前処理条件に基づいて、前記基板処理装置で前記処理の対象となる基板の径方向に異なる複数の位置それぞれにおける前記基板の温度をシミュレートする第1アルゴリズムと、
前記第1アルゴリズムを用いて予測された前記複数の位置それぞれにおける前記基板の温度に基づいて、前記基板処理装置で実行される処理の前記複数の位置それぞれにおける結果をシミュレートする第2アルゴリズムと、を含む、請求項1に記載の学習装置。
【請求項4】
前記基板処理装置で実行される処理は、前記基板に処理液を供給して前記基板に形成された被膜を処理する被膜処理であり、
前記第1アルゴリズムは、前記複数の位置それぞれにおける前記処理液の量をシミュレートするアルゴリムと、
前記基板、前記処理液および前記基板を取り囲む空間を含む複数の媒体それぞれの内部の熱の変化と、複数の前記媒体のうち互いに接触する2つの前記媒体間の熱伝導とをシミュレートするアルゴリズムと、を含む、請求項3に記載の学習装置。
【請求項5】
前記事前処理条件を前記予測アルゴリズムに与えて前記予測アルゴリズムにより算出される予測処理結果と前記事前処理条件とを含むデータセットを前記第2データセットとして生成する第2データセット生成手段を、さらに備えた請求項1に記載の学習装置。
【請求項6】
前記第1データセットを用いて、前記処理条件から前記予測アルゴリズムを生成する予測アルゴリズム生成部を、さらに備えた請求項1に記載の学習装置。
【請求項7】
前記予測アルゴリズムは、前記第1データセットを機械学習させた学習済のモデルである、請求項6記載の学習装置。
【請求項8】
前記基板処理装置は、基板に対する相対位置が経時変化するノズルから前記基板へと処理液を供給することにより前記処理を実行し、
前記処理条件は、前記基板に対する前記ノズルの相対位置が時間の経過に伴って変化する変動条件を含み、
前記変動条件を圧縮した圧縮データを生成する圧縮部を、さらに備え、
前記学習モデル生成部は、前記圧縮部により前記変動条件から圧縮された前記圧縮データを前記学習モデルに機械学習させる、請求項1に記載の学習装置。
【請求項9】
請求項1~8のいずれか一項に記載の学習装置で生成された前記学習モデルを用いて前記基板処理装置を管理する情報処理装置であって、
前記学習装置から前記学習モデルを取得する取得部と、
仮の処理条件を前記学習モデルに与えて前記学習モデルにより予測される予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定する処理条件決定部と、を備えた情報処理装置。
【請求項10】
請求項9に記載の情報処理装置を備えた、基板処理装置。
【請求項11】
基板処理装置で実行される処理の処理条件と当該処理の処理結果とを含む第1データセットを取得するステップと、
事前処理条件を生成するステップと、
第2データセットを学習モデルに機械学習させる事前学習ステップと、
前記事前学習ステップにおいて機械学習された学習済の前記学習モデルに前記第1データセットを機械学習させる学習モデル生成ステップと、を備え、
前記第2データセットは、前記事前処理条件に基づいて予め定められた予測アルゴリズムにより予測される事前処理結果と前記事前処理条件とを含む、学習方法。
【請求項12】
請求項11記載の学習方法を実行する学習装置により生成された前記学習モデルを用いて前記基板処理装置を管理する情報処理装置で実行される処理条件決定方法であって、
前記学習装置から前記学習モデルを取得する取得ステップと、
仮の処理条件を前記学習モデルに与えて前記学習モデルにより予測される予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定する処理条件決定ステップと、を備える、処理条件決定方法。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習装置、情報処理装置、基板処理装置、学習方法および処理条件決定方法に関し、特に、機械学習した学習モデルを生成する学習装置、学習モデルを用いて基板処理を管理する情報処理装置、その情報処理装置を備えた基板処理装置、学習装置で実行される学習方法、情報処理装置で実行される処理条件決定方法に関する。
【背景技術】
【0002】
半導体製造プロセスの一つにエッチングプロセスがある。エッチングプロセスでは、基板に薬液を供給するエッチング処理によって、基板に形成されている被膜の膜厚調整が行なわれる。この膜厚調整においては、基板の面全体について均一にエッチングが進行するようにエッチング処理すること、あるいは、基板の面をエッチング処理によって平坦にすることが重要である。エッチング液をノズルから基板の一部に吐出する場合、ノズルを基板に対して径方向に移動させる必要がある。
【0003】
特許文献1には、エッチングノズルから基板にエッチング液を吐出することにより、基板に対してエッチング処理が可能な液処理装置が記載されている。基板の中央領域のエッチング処理を行いつつ、ウエハの面内温度分布を均一にするために、吐出されたエッチング液がウエハの中心を通る中央側の第1位置と、この中央側の位置よりもウエハの周縁側の第2位置との間でエッチングノズルを繰り返し往復させながらエッチング液を吐出する例が記載される。
【0004】
エッチング処理は、ノズルを移動させる動作の他に、エッチング液の濃度、温度、基板の回転数等の違いによって被膜が処理される処理量が異なる複雑なプロセスである。このため、人工知能を利用した学習モデルを機械学習して、学習済の学習モデルに処理量を推論させることが考えられる。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2015-103656号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
学習モデルの精度は、学習モデルに学習させる学習データに依存することが知られている。一般的に、学習用データは、実際に基板処理装置を駆動するための処理条件と当該処理条件で基板処理装置を駆動して得られる処理結果とが用いられる。
【0007】
しかしながら、実際に基板処理装置に処理を実行させて得られる学習用データとして、ある特性に偏った処理条件とその処理条件で処理された処理結果が用いられる場合がある。このような学習用データを機械学習した学習モデルに、学習用データと異なる特性の処理条件が与えられる場合に、学習モデルの推論精度が低くなる場合がある。一方で、特性に偏りがない学習用データを準備するためには、実際に基板処理装置を膨大な数の処理条件で駆動しなければならない。このため、基板処理装置の設定作業と基板処理装置を駆動する時間とが費やされることにより、多大なコストと時間とが必要になるといった問題がある。
【0008】
本発明の目的の1つは、低コストで精度の高い学習モデルを生成することが可能な学習装置を提供することである。
【0009】
本発明の他の目的は、低コストで精度の高い学習モデルを生成することが可能な学習方法を提供することである。
【0010】
本発明のさらなる他の目的は、基板を処理する複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能な情報処理装置、その情報処理装置を備えた基板処理装置を提供することである。
【0011】
本発明のさらなる他の目的は、基板を処理する複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能な処理条件決定方法を提供することである。
【課題を解決するための手段】
【0012】
(1)本発明の一局面に従う学習装置は、基板処理装置で実行される処理の処理条件と当該処理の処理結果とを含む第1データセットを取得する実験データ取得部と、事前処理条件を生成する事前処理条件生成部と、第2データセットを学習モデルに機械学習させる事前学習部と、事前学習部により機械学習された学習済の学習モデルに第1データセットを機械学習させる学習モデル生成部とを備え、第2データセットは、事前処理条件に基づいて予め定められた予測アルゴリズムにより予測される事前処理結果と事前処理条件とを含む。
【0013】
(2)本発明の他の局面に従う情報処理装置は、上記の学習装置で生成された学習モデルを用いて基板処理装置を管理する情報処理装置であって、学習装置から学習モデルを取得する取得部と、仮の処理条件を学習モデルに与えて学習モデルにより予測される予測処理結果が許容条件を満たす場合に仮の処理条件を、基板処理装置を駆動するための処理条件に決定する処理条件決定部と、を備える。
【0014】
(3)本発明のさらに他の局面に従う基板処理装置は、上記の情報処理装置を備える。
【0015】
(4)本発明のさらに他の局面に従う学習方法は、基板処理装置で実行される処理の処理条件と当該処理の処理結果とを含む第1データセットを取得するステップと、第2データセットを学習モデルに機械学習させる事前学習ステップと、事前学習ステップにおいて機械学習された学習済の学習モデルに第1データセットを機械学習させる学習モデル生成ステップと、を備え、第2データセットは、事前処理条件に基づいて予め定められた予測アルゴリズムにより予測される事前処理結果と事前処理条件とを含む。
【0016】
(5)本発明のさらに他の局面に従う処理条件決定方法は、上記の学習方法を実行する学習装置により生成された学習モデルを用いて基板処理装置を管理する情報処理装置で実行される処理条件決定方法であって、学習装置から学習モデルを取得する取得ステップと、仮の処理条件を学習モデルに与えて学習モデルにより予測される予測処理結果が許容条件を満たす場合に仮の処理条件を、基板処理装置を駆動するための処理条件に決定する処理条件決定ステップと、を備える。
【発明の効果】
【0017】
低コストで精度の高い学習モデルを生成することが可能な学習装置および学習方法を提供することができる。また、基板を処理する複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能な情報処理装置、処理条件決定方法およびその情報処理装置を備えた基板処理装置を提供することができる。
【図面の簡単な説明】
【0018】
図1】本発明の一実施の形態に係る基板処理システムの構成を説明するための図である。
図2】情報処理装置の構成の一例を示す図である。
図3】学習装置の構成の一例を示す図である。
図4】一実施の形態に係る基板処理システムの機能的な構成の一例を示す図である。
図5】予測器生成部が有する機能の一例を示す図である。
図6】被膜の処理におけるノズルの基板に対する相対位置の変化を説明するための図である。
図7】ノズルの動作パターンの一例を示す図である。
図8】分割領域を説明するための図である。
図9】変動条件の圧縮を説明するための図である。
図10】予測アルゴリズムを説明する図である。
図11】学習処理の流れの一例を示すフローチャートである。
図12】予測アルゴリズム生成処理の流れの一例を示すフローチャートである。
図13】事前処理条件生成処理の流れの一例を示すフローチャートである。
図14】事前学習処理の流れの一例を示すフローチャートである。
図15】学習モデル生成処理の流れの一例を示すフローチャートである。
図16】処理条件決定処理の流れの一例を示すフローチャートである。
図17】変形例における基板処理システムの機能的な構成の一例を示す図である。
図18】変形例における予測器生成部が有する機能の一例を示す図である。
図19】事前処理条件生成部の詳細な機能の一例を示す図である。
図20】クラスタリングの結果の一例を説明するための図である。
図21】変形例における学習処理の流れの一例を示すフローチャートである。
図22】事前処理条件生成処理の流れの一例を示すフローチャートである。
図23】第2データセット生成処理の流れの一例を示すフローチャートである。
図24】変形例における事前学習処理の流れの一例を示すフローチャートである。
【発明を実施するための形態】
【0019】
以下、本発明の一実施の形態に係る基板処理システムについて図面を参照しながら詳細に説明する。以下の説明において、基板とは、半導体基板(半導体ウェハ)、液晶表示装置もしくは有機EL(Electro Luminescence)表示装置等のFPD(Flat Panel Display)用基板、光ディスク用基板、磁気ディスク用基板、光磁気ディスク用基板、フォトマスク用基板、セラミック基板または太陽電池用基板等をいう。
【0020】
(1)基板処理システムの全体構成
図1は、本発明の一実施の形態に係る基板処理システムの構成を説明するための図である。図1の基板処理システム1は、情報処理装置100、学習装置200および基板処理装置300を含む。学習装置200は、例えばサーバであり、情報処理装置100は、例えばパーソナルコンピューターである。
【0021】
学習装置200および情報処理装置100は、基板処理装置300を管理するために用いられる。なお、学習装置200および情報処理装置100が管理する基板処理装置300は、1台に限定されるものではなく、基板処理装置300の複数を管理してもよい。
【0022】
本実施の形態に係る基板処理システム1において、情報処理装置100、学習装置200および基板処理装置300は、互いに有線または無線の通信線または通信回線網により接続される。情報処理装置100、学習装置200および基板処理装置300は、それぞれがネットワークに接続され、互いにデータの送受信が可能である。ネットワークは、例えば、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)が用いられる。また、ネットワークは、インターネットであってもよい。また、情報処理装置100と基板処理装置300とは、専用の通信回線網で接続されてもよい。ネットワークの接続形態は、有線接続であってもよいし、無線接続であってもよい。
【0023】
なお、学習装置200は、基板処理装置300および情報処理装置100と、必ずしも通信線または通信回線網で接続される必要はない。この場合、基板処理装置300で生成されたデータが記録媒体を介して学習装置200に渡されてもよい。また、学習装置200で生成されたデータが記録媒体を介して情報処理装置100に渡されてもよい。
【0024】
基板処理装置300には、図示しない表示装置、音声出力装置および操作部が設けられる。基板処理装置300は、基板処理装置300の予め定められた処理条件(処理レシピ)に従って運転される。
【0025】
(2)基板処理装置の概要
基板処理装置300は、制御装置10と、複数の基板処理ユニットWUを備える。制御装置10は、複数の基板処理ユニットWUを制御する。複数の基板処理ユニットWUは、被膜が形成された基板Wに処理液を供給することにより基板Wの被膜の処理を行う。被膜が形成された基板Wに処理液を供給することにより行われる基板Wの被膜の処理が基板処理装置で実行される処理の例である。本実施の形態において、処理対象の基板Wは、直径300mmを有するが、本発明は、これに限定されるものではない。処理液はエッチング液を含み、基板処理ユニットWUはエッチング処理を実行する。エッチング液は、薬液である。エッチング液は、例えば、フッ硝酸(フッ酸(HF)と硝酸(HNO)との混合液)、フッ酸、バファードフッ酸(BHF)、フッ化アンモニウム、HFEG(フッ酸とエチレングリコールとの混合液)、または、燐酸(HPO)である。
【0026】
基板処理ユニットWUは、スピンチャックSCと、スピンモータSMと、ノズル311と、ノズル移動機構301と、を備える。スピンチャックSCは、基板Wを水平に保持する。基板Wは、スピンモータSMの第1回転軸AX1と基板Wの中心とが一致するようにスピンチャックSCに保持される。スピンモータSMは、第1回転軸AX1を有する。第1回転軸AX1は、上下方向に延びる。スピンチャックSCは、スピンモータSMの第1回転軸AX1の上端部に取り付けられる。スピンモータSMが回転すると、スピンチャックSCが第1回転軸AX1を中心として回転する。スピンモータSMは、ステッピングモータである。スピンチャックSCに保持された基板Wは、第1回転軸AX1を中心として回転する。このため、基板Wの回転速度は、ステッピングモータの回転速度と同じである。なお、スピンモータの回転速度を示す回転速度信号を生成するエンコーダを設ける場合、エンコーダにより生成される回転速度信号から基板Wの回転速度が取得されてもよい。この場合、スピンモータSMは、ステッピングモータ以外のモータを用いることができる。
【0027】
ノズル311は、スピンチャックSCに保持された基板Wの表面(上面)にエッチング液を供給する。ノズル311には、図示しないエッチング液供給部からエッチング液が供給される。ノズル311は、回転中の基板Wの表面に向けてエッチング液を吐出する。
【0028】
ノズル移動機構301は、略水平方向にノズル311を移動させる。具体的には、ノズル移動機構301は、第2回転軸AX2を有するノズルモータ303と、ノズルアーム305と、を有する。ノズルモータ303は、第2回転軸AX2が略鉛直方向に沿うように配置される。ノズルアーム305は、直線状に延びる長手形状を有する。ノズルアーム305の一端は、ノズルアーム305の長手方向が第2回転軸AX2とは異なる方向となるように、第2回転軸AX2の上端に取り付けられる。ノズルアーム305の他端には、エッチング液の吐出口が下方を向くようにノズル311が取り付けられる。
【0029】
ノズルモータ303が動作すると、ノズルアーム305は第2回転軸AX2を中心として水平面内で回転する。これにより、ノズルアーム305の他端に取り付けられたノズル311は、第2回転軸AX2を中心として水平方向に移動する(旋回する)。ノズル311は、水平方向に移動しながら基板Wに向けてエッチング液を吐出する。ノズルモータ303は、例えば、ステッピングモータである。
【0030】
制御装置10は、CPU(中央演算処理装置)およびメモリを含み、CPUがメモリに記憶されたプログラムを実行することにより、基板処理装置300の全体を制御する。制御装置10は、スピンモータSMおよびノズルモータ303を制御する。
【0031】
学習装置200には、基板処理装置300から実験データが入力される。学習装置200は、実験データを用いて予測器を生成し、予測器を情報処理装置100に出力する。
【0032】
情報処理装置100は、予測器を用いて、基板処理装置300がこれから処理する予定の基板に対して、基板を処理するための処理条件を決定する。情報処理装置100は、決定された処理条件を基板処理装置300に出力する。
【0033】
図2は、情報処理装置の構成の一例を示す図である。図2を参照して、情報処理装置100は、CPU101、RAM(ランダムアクセスメモリ)102、ROM(リードオンリメモリ)103、記憶装置104、操作部105、表示装置106および入出力I/F(インターフェイス)107により構成される。CPU101、RAM102、ROM103、記憶装置104、操作部105、表示装置106および入出力I/F107はバス108に接続される。
【0034】
RAM102は、CPU101の作業領域として用いられる。ROM103にはシステムプログラムが記憶される。記憶装置104は、ハードディスクまたは半導体メモリ等の記憶媒体を含み、プログラムを記憶する。プログラムは、ROM103または他の外部記憶装置に記憶されてもよい。
【0035】
記憶装置104には、CD-ROM109が着脱可能である。CPU101が実行するプログラムを記憶する記録媒体としては、CD-ROM109に限られず、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programmable ROM)などの半導体メモリ等の媒体でもよい。さらに、CPU101がネットワークに接続されたコンピューターからプログラムをダウンロードして記憶装置104に記憶する、または、ネットワークに接続されたコンピューターがプログラムを記憶装置104に書込みするようにして、記憶装置104に記憶されたプログラムをRAM102にロードしてCPU101で実行するようにしてもよい。ここでいうプログラムは、CPU101により直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
【0036】
操作部105は、キーボード、マウスまたはタッチパネル等の入力デバイスである。使用者は、操作部105を操作することにより、情報処理装置100に所定の指示を与えることができる。表示装置106は、液晶表示装置等の表示デバイスであり、使用者による指示を受け付けるためのGUI(Graphical User Interface)等を表示する。入出力I/F107は、ネットワークに接続される。
【0037】
図3は、学習装置の構成の一例を示す図である。図3を参照して、学習装置200は、CPU201、RAM202、ROM203、記憶装置204、操作部205、表示装置206および入出力I/F207により構成される。CPU201、RAM202、ROM203、記憶装置204、操作部205、表示装置206および入出力I/F207はバス208に接続される。
【0038】
RAM202は、CPU201の作業領域として用いられる。ROM203にはシステムプログラムが記憶される。記憶装置204は、ハードディスクまたは半導体メモリ等の記憶媒体を含み、プログラムを記憶する。プログラムは、ROM203または他の外部記憶装置に記憶されてもよい。記憶装置204には、CD-ROM209が着脱可能である。
【0039】
操作部205は、キーボード、マウスまたはタッチパネル等の入力デバイスである。入出力I/F207は、ネットワークに接続される。
【0040】
(3)基板処理システムの機能構成
図4は、一実施の形態に係る基板処理システムの機能的な構成の一例を示す図である。図4を参照して、基板処理装置300が備える制御装置10は、基板処理ユニットWUを制御して、処理時間において、処理条件に従って基板Wに対して被膜の処理を行う。処理時間は、基板に対する被膜の処理に対して定められる時間である。本実施の形態において、処理時間は、基板Wにノズル311がエッチング液を吐出している間の時間である。処理条件は、基板処理ユニットWUが被膜の処理を実行する際に用いる条件である。
【0041】
処理条件は、エッチング液の温度、エッチング液の濃度、エッチング液の流量、基板Wの回転数およびノズル311の位置を含む。エッチング液の濃度は、複数の薬液の混合比で示される。ノズル311の位置は、被膜の処理が実行される間の複数の時点それぞれにおけるノズル311と基板Wとの相対位置で示される。ノズル311と基板との相対位置は、ノズルモータ303の回転角度で示される。
【0042】
処理条件は、時間の経過に伴って変動しない固定条件および時間の経過に伴って変動する変動条件を含む。本実施の形態において、固定条件がエッチング液の温度、エッチング液の濃度、エッチング液の流量および基板Wの回転数であり、変動条件が被膜の処理が実行される間におけるノズル311と基板Wとの相対位置である。
【0043】
図4に戻って、学習装置200は、実験データ取得部210と、予測器生成部220と、予測器送信部230と、を含む。学習装置200が備える機能は、学習装置200が備えるCPU201がRAM202に格納された学習モデル生成プログラムを実行することにより、CPU201により実現される。
【0044】
実験データ取得部210は、基板処理装置300から実験データを取得する。実験データは、処理条件と、基板処理装置300が当該処理条件で基板Wに被膜の処理を行った結果を示す処理結果とを含む。
【0045】
予測器生成部220には、実験データ取得部210から実験データが入力される。予測器生成部220は、実験データに基づいて予測器を生成し、生成された予測器を予測器送信部230に出力する。予測器生成部220の詳細については、後述する。予測器送信部230は、予測器生成部220により生成された予測器を情報処理装置100に送信する。
【0046】
情報処理装置100は、予測器受信部110と、処理条件決定部120と、予測部130と、評価部140と、処理条件送信部150と、を含む。情報処理装置100が備える機能は、情報処理装置100が備えるCPU101がRAM102に格納された処理条件決定プログラムを実行することにより、CPU101により実現される。
【0047】
予測器受信部110は、学習装置200から送信される予測器を受信し、受信された予測器を予測部130に出力する。処理条件決定部120は、基板処理装置300がこれから処理の対象とする基板Wに対する処理条件を決定し、処理条件に含まれる変動条件と処理条件に含まれる固定条件とを予測部130に出力する。
【0048】
予測部130は、変動条件と固定条件とから予測器を用いて予測処理結果を予測する。予測部130は、処理条件決定部120から入力される変動条件と、固定条件とを予測器に入力し、予測器が出力する予測処理結果を評価部140に出力する。
【0049】
評価部140は、予測部130から入力される予測処理結果を評価し、評価結果を処理条件決定部120に出力する。詳細には、評価部140は、基板処理装置300が処理対象とする予定の基板Wの処理前の膜厚特性を取得する。評価部140は、予測部130から入力される予測処理結果と、基板Wの処理前の膜厚特性とからエッチング処理後に予測される膜厚特性を算出し、目標とする膜厚特性と比較する。比較の結果が評価基準を満たしていれば、処理条件決定部120により決定された処理条件を、基板処理装置300がこれから処理の対象とする基板Wに対する処理条件として処理条件送信部150に出力する。例えば、評価部140は、乖離特性を算出し、乖離特性が評価基準を満たしているか否かが判断される。乖離特性は、エッチング処理後の基板Wの膜厚特性と目標の膜厚特性との差分である。評価基準は、任意に定めることができる。例えば、評価基準は、乖離特性において差分の最大値が閾値以下であるとしてもよいし、差分の平均が閾値以下であるとしてもよい。
【0050】
処理条件送信部150は、処理条件決定部120から入力される処理条件を、基板処理装置300の制御装置10に送信する。基板処理装置300は、処理条件に従って基板Wを処理する。
【0051】
評価部140は、評価結果が評価基準を満たしていない場合は、評価結果を処理条件決定部120に出力する。評価結果は、エッチング処理後に予測される膜厚特性またはエッチング処理後に予測される膜厚特性と目標の膜厚特性との差分を含む。
【0052】
処理条件決定部120は、評価部140から評価結果が入力されることに応じて、予測部130に予測させるための新たな処理条件を決定する。処理条件決定部120は、実験計画法、ペアワイズ法またはベイズ推定等を用いて、予め準備された複数の変動条件および複数の固定条件からそれぞれ1つを選択し、選択された変動条件と固定条件とを含む処理条件を予測部130に予測させるための新たな処理条件として決定する。
【0053】
処理条件決定部120は、ベイズ推定を用いて処理条件を探索してもよい。評価部140により複数の評価結果が出力される場合、処理条件と評価結果との組が複数となる。複数の組それぞれにおける予測処理結果の傾向から被膜の膜厚が均一となる処理条件またはエッチング処理後に予測される膜厚特性と目標の膜厚特性との差分が最小となる処理条件を探索する。
【0054】
具体的には、処理条件決定部120は、目的関数を最小化するように処理条件を探索する。目的関数は、被膜の膜厚の均一性を示す関数または被膜の膜厚特性と目標膜厚特性との一致性を示す関数である。例えば、目的関数は、エッチング処理後に予測される膜厚特性と目標の膜厚特性との差分をパラメータで示した関数である。ここでのパラメータは、対応する変動条件である。対応する変動条件は、予測器が予測処理結果を予測するために用いた変動条件である。処理条件決定部120は、複数の変動条件のうちから探索により決定されたパラメータである変動条件を選択し、選択された変動条件と固定条件とを含む新たな処理条件を決定する。
【0055】
次に、予測器生成部220の詳細な構成について説明する。図5は、予測器生成部が有する機能の一例を示す図である。予測器生成部220は、データ取得部221と、第1圧縮部222と、予測アルゴリズム生成部223と、事前処理条件生成部224と、予測器生成部225とを含む。
【0056】
データ取得部221は、実験データ取得部210から実験データが入力される。実験データは、処理条件および処理結果を含む。処理条件は、時間の経過に伴って変動しない固定条件と、時間の経過に伴って変動する変動条件とを含む。データ取得部221は、変動条件を第1圧縮部222に出力し、固定条件と処理結果とを予測アルゴリズム生成部223に出力する。第1圧縮部222は、データ取得部221から入力される変動条件を圧縮し、変動条件が圧縮された圧縮データを予測アルゴリズム生成部223に出力する。以下、固定条件と処理結果と圧縮データとの組を第1データセットと呼ぶ。
【0057】
ここで、変動条件について説明する。図6は、被膜の処理におけるノズルの基板に対する相対位置の変化を説明するための図である。図6を参照して、スピンチャックSCに保持された基板Wに対するノズル311の相対位置の変化が示される。ノズル311は、スピンチャックSCに保持された基板Wの上方の領域を移動する。ノズル311は第2回転軸AX2を中心に回転するので、ノズル311が移動する軌跡は円弧である。ノズル311が移動する軌跡は基板の中心である基板中心OPを通る。このため、ノズル311は、基板Wの径方向において基板中心OPから周縁部の全体に渡って移動する。ここでは、ノズル311が移動する軌跡は、その一端が基板Wの周縁部より内側の動作端部EP1で示され、その他端が基板Wの周縁部より内側の動作端部EP2で示される。ノズル311の動作端部EP1から基板中心OPに移動する走査が矢印a1で示され、ノズル311の基板中心OPから動作端部EP2に移動する走査が矢印a2で示され、ノズル311の動作端部EP2から基板中心OPに移動する走査が矢印a3で示され、ノズル311の基板中心OPから動作端部EP1に移動する走査が矢印a4で示される。
【0058】
図7は、ノズルの動作パターンの一例を示す図である。図7において、縦軸に基板Wに対するノズル311の相対位置が示され、横軸に経過時間(秒)が示される。本実施の形態においては、ノズル311を基板Wに対して移動させるノズル動作を開始してから終了するまでの走査期間は、処理時間に等しい。上述したように処理時間が60秒に設定されているので、ノズルの動作パターンは、0~60秒の期間の相対位置が示される。ノズルの相対位置は、基板中心OPをゼロとし、基板中心OPから動作端部EP1までの範囲は負の値で示され、基板中心OPから動作端部EP2までの範囲は正の値で示される。基板Wは、直径300mmを有するので、基板中心OPから動作端部EP1,EP2までの距離は、±150mm以下に設定される。ここでは、基板中心OPから動作端部EP1までの距離は-147mmに設定され、基板中心OPから動作端部EP2までの距離は+147mmに設定される。図7のノズルの動作パターンにおいては、ノズル311が基板中心OPに位置する場合におけるノズル311の相対位置が0で示され、ノズル311が動作端部EP1に位置する場合におけるノズル311の相対位置が-147mmで示され、ノズル311が動作端部EP2に位置する場合におけるノズル311の相対位置が147mmで示される。
【0059】
図7に示すノズル動作パターンは、動作端部EP1と動作端部EP2との間を5回往復する走査として示される。基板処理装置300のノズル311のノズル動作パターンとしては、5回往復する走査に限定されるものではなく、1回以上往復する走査であればよい。ノズル動作パターンにおける最初の1往復の走査について、図6に示した矢印a1~a4で示される走査に対応する相対位置の部分に同じ符号が付されて示される。
【0060】
ここで、変動条件の圧縮について説明する。本実施の形態においては、ノズル動作パターンを含む変動条件を圧縮するために、基板Wの上面が複数の分割領域に分割される。図8は、分割領域を説明するための図である。図8を参照して、基板Wの上面を、基板中心OPを中心とする複数の同心円で分割した15の分割領域b1~b15が示される。分割領域b15は円であり、分割領域b1~b14は円環である。複数の分割領域b2~b15それぞれの基板Wの径方向の長さは同じである。分割領域b2~b15それぞれの基板の径方向の長さは、外周の半径と内周の半径との差である。分割領域b1の半径は、複数の分割領域b2~b15それぞれの基板Wの径方向の長さと同じである。ここでは、分割領域b1の半径は10mmであり、分割領域b1~b14それぞれの外周と内周の半径の差は10mmである。分割領域b2~b15それぞれの外周と内周の半径の差および分割領域b1の半径は、ノズル311の内径よりも大きい。分割領域b2~b15それぞれの基板の径方向の長さおよび分割領域b1の半径は、ノズル311の内径以上であることが好ましい。
【0061】
図9は、変動条件の圧縮を説明するための図である。図9において、横軸は、基板Wの半径方向における位置を示す。基板中心OPの位置が0mmで示され、基板Wの径方向における端部が150mmで示される。横軸の0mm~150mmの間に、分割領域b1~b15が割り当てられる。
【0062】
縦軸は、分割領域b1~b15それぞれにおけるノズル311の滞在時間を示す。ここでは、図7に示された動作パターンでノズル311が移動する場合における分割領域b1~b15それぞれの滞在時間が示される。滞在時間は、複数の分割領域b1~b15それぞれにノズル311が位置する時間の合計である。例えば、図7に示されたノズルの動作パターンでノズル311が移動する場合、ノズル311が分割領域b2を10回横切る。分割領域b2における滞在時間は、ノズル311が分割領域b2を横切る時間の合計である。
【0063】
上述したように、ノズル311の移動範囲が、複数の分割領域b1~b15に分割される。このため、複数の分割領域b1~b15それぞれにおけるノズル311の滞在時間が、基板Wの径方向位置の情報を含む複数の分割領域b1~b15それぞれで算出される。このため、複数の分割領域b1~b15それぞれにおける滞在時間は、基板Wの径方向における位置を含んだ情報である。また、複数の分割領域b1~b15それぞれのノズル311が横切る部分の基板Wの径方向の長さは同じである。このため、複数の分割領域b1~b15それぞれにおけるノズル311の滞在時間は、ノズル311の基板Wに対する相対位置の変化に関して基板Wの径方向で異なる位置間での偏りをなくした時間とすることができる。
【0064】
また、本実施の形態において、変動条件を、基板Wの上面を15個に分割した分割領域b1~b15のそれぞれにおけるノズルの滞在時間に変換することにより、変動条件を圧縮する。以下、圧縮済の変動条件を圧縮データと呼ぶ。基板Wの上面を15個の分割領域b1~b15に分割しており、圧縮データの数は15個である。分割領域b1~b15それぞれの基板の径方向の長さが大きいほど、圧縮データの数が小さくなる。分割領域b1~b15それぞれの基板の径方向の長さは、ノズル311の内径以上なので、圧縮データの数の最大値は、ノズル311の内径により定まる。
【0065】
図5に戻って、予測アルゴリズム生成部223には、データ取得部221から出力された固定条件および処理結果と、第1圧縮部222から出力された圧縮データとが入力される。ここで、データ取得部221から出力された固定条件および処理結果と、第1圧縮部222から出力された圧縮データとにより第1データセットが構成される。本実施の形態において、予測アルゴリズム生成部223は、第1データセットに基づいて、予測アルゴリズムを生成する。具体的には、予測アルゴリズム生成部223は、機械学習のアルゴリズムに基づいて構築されモデルに第1データセットを機械学習させ、学習済のモデルを予測アルゴリズムとして生成する。例えば、予測アルゴリズム生成部223は、第1データセットに含まれる固定条件および圧縮データを予測アルゴリズムに与えて、予測アルゴリズムにより予測される予測処理結果が、第1データセットに含まれる処理結果に近づくように、予測アルゴリズムのパラメータを調整する。予測アルゴリズム生成部223は、予測アルゴリズムを予測器生成部225に出力する。予測アルゴリズムの詳細については、後述する。
【0066】
事前処理条件生成部224は、事前処理条件を生成し、生成した事前処理条件を予測器生成部225に出力する。事前処理条件は、事前変動条件と事前固定条件とを含む。具体的には、事前処理条件生成部224は、仮変動条件生成部224aと、事前変動条件決定部224cと、第2圧縮部224eと、事前固定条件生成部224gとを含む。仮変動条件生成部224aは、複数の仮の変動条件を生成する。
【0067】
仮変動条件生成部224aにおいて生成される複数の仮の変動条件については、被膜の処理におけるノズル311の往復回数、ノズル311の移動速度およびノズル311の移動時の変速点等のノズル動作に関連する因子の組み合わせがそれぞれ異なる。本実施の形態において、仮変動条件生成部224aにより生成される仮の変動条件の数は、18000個である。仮変動条件生成部224aは、生成した複数の仮の変動条件を事前変動条件決定部224cに出力する。
【0068】
事前変動条件決定部224cは、複数の仮の変動条件から複数の事前変動条件を決定する。事前変動条件決定部224cは、例えば、960個の仮の変動条件を事前変動条件として決定する。事前変動条件決定部224cは、例えば、ランダムに選ばれた仮の変動条件を事前変動条件として決定する。
【0069】
図5に戻って、事前変動条件決定部224cは、複数の事前変動条件を第2圧縮部224eに出力する。第2圧縮部224eは、複数の事前変動条件それぞれを圧縮し、複数の圧縮データを予測器生成部225に出力する。第2圧縮部224eの事前変動条件の圧縮については、第1圧縮部222による変動条件の圧縮と同じである。したがって、ここでは説明を繰り返さない。
【0070】
事前固定条件生成部224gは、任意の固定条件を事前固定条件として決定し、事前固定条件を予測器生成部225に出力する。本実施の形態においては、3個の基板の回転数と3個のエッチング液の流量との組み合わせた9個の仮の固定条件が事前固定条件として決定される。
【0071】
ここで、事前処理条件は、第2圧縮部224eにより圧縮された事前変動条件(圧縮データ)と、事前固定条件生成部224gにより決定された事前固定条件とを含む。上述したように事前変動条件を圧縮した圧縮データと事前固定条件とはそれぞれが複数ある。事前処理条件は、複数の圧縮データの1つと複数の事前固定条件の1つとの組である。このため、複数の圧縮データの1つと複数の事前固定条件の1つとの組み合わせの数の事前処理条件が予測器生成部225に出力される。本実施の形態においては、第2圧縮部224eが事前変動条件を圧縮した960個の圧縮データと、事前固定条件生成部224gにより決定された9個の事前固定条件とにより構成される8640個のデータセットが、ペアワイズ法により2716個のデータセットに組み合わせられる。2716個のデータセットは、事前処理条件として予測器生成部225に出力される。
【0072】
予測器生成部225は、事前処理結果予測部225a、事前学習部225c、学習モデル生成部225eを含む。事前処理結果予測部225aには、予測アルゴリズム生成部223から出力された予測アルゴリズムと、第2圧縮部224eから出力された圧縮データと、事前固定条件生成部224gから出力された事前固定条件とが入力される。事前処理結果予測部225aは、予測アルゴリズムを用いて事前処理条件から事前処理結果を予測する。事前処理条件は、第2圧縮部224eから入力される圧縮データと、事前固定条件生成部224gから入力される事前固定条件と、を含む。具体的には、事前処理結果予測部225aは、予測アルゴリズムに対して事前処理条件を入力し、予測アルゴリズムが推論する処理結果を事前処理結果として取得する。事前処理結果予測部225aは、事前処理結果を事前学習部225cに出力する。
【0073】
事前学習部225cには、第2圧縮部224eから出力された圧縮データと、事前固定条件生成部224gから出力された事前固定条件と、事前処理結果予測部225aから出力された事前処理結果とが入力される。第2圧縮部224eから入力される圧縮データと、事前固定条件生成部224gから入力される事前固定条件と、の組は事前処理条件である。以下、事前学習部225cに入力される事前処理条件と事前処理結果との組を第2データセットと呼ぶ。第2データセットに含まれる事前処理結果は、事前処理結果予測部225aが、その第2データセットに含まれる事前処理条件から予測アルゴリズムに予測させた事前処理結果である。
【0074】
事前学習部225cは、第2データセットを学習モデルに機械学習させる。具体的には、事前学習部225cは、第2データセットに含まれる事前処理条件を学習モデルに与えて、学習モデルにより予測される予測処理結果が、第2データセットに含まれる事前処理結果に近づくように、学習モデルのパラメータを調整する。本実施の形態においては、事前学習部225cが機械学習させる学習モデルは、初期値が設定された状態では、初期値が設定された予測アルゴリズムと同じである。事前学習部225cによる事前学習により、予測アルゴリズムに複数の特性を有する変動条件の複数を複数の特性のいずれかに偏ることなく事前知識として学習モデルに機械学習させることができる。以下、事前学習部225cにおいて行われる機械学習を事前学習と呼ぶ。事前学習部225cは、事前学習済の学習モデルを学習モデル生成部225eに出力する。
【0075】
学習モデル生成部225eには、データ取得部221から出力された固定条件および処理結果と、第1圧縮部222から出力された圧縮データとが入力される。ここで、データ取得部221から出力された固定条件および処理結果と、第1圧縮部222から出力された圧縮データとは、第1データセットである。また、学習モデル生成部225eには、事前学習部225cから出力された事前学習済みの学習モデルが入力される。学習モデル生成部225eは、第1データセットを事前学習済みの学習モデルにさらに機械学習させる。
【0076】
学習モデル生成部225eが機械学習させる学習モデルは、事前学習部225cにより事前学習が終了した事前学習済の学習モデルである。事前学習済の学習モデルは、変動条件の複数の特性を学習済なので、学習モデル生成部225eによる実験データを用いた機械学習において、実験データに含まれる変動条件の特性の偏りの影響を少なくすることができ、予測精度を向上させることができる。
【0077】
学習モデル生成部225eは、第2データセットを学習済みの学習モデルと圧縮器とを予測器として、予測器を予測器送信部230に出力する。予測器に含まれる圧縮器の機能は、第1圧縮部222の機能と同様である。
【0078】
ここで、本実施の形態に係る予測アルゴリズムについて説明する。図10は、予測アルゴリズムを説明する図である。図10を参照して、予測アルゴリズムは、A1層~C1層が入力側から出力側(上層から下層)に向かってこの順に設けられている。A1層には、第1畳み込みニューラルネットワークCNN1が設けられ、B1層には、第1全結合ニューラルネットワークNN1が設けられ、C1層には、第2畳み込みニューラルネットワークCNN2が設けられる。
【0079】
第1畳み込みニューラルネットワークCNN1には、圧縮済みの変動条件を示す圧縮データが入力される。第1全結合ニューラルネットワークNN1には、第1畳み込みニューラルネットワークCNN1の出力と固定条件とが入力される。第2畳み込みニューラルネットワークCNN2には、第1全結合ニューラルネットワークNN1の出力が入力される。
【0080】
第1畳み込みニューラルネットワークCNN1は、複数の層を含む。本実施の形態では、第1畳み込みニューラルネットワークCNN1は、3つの層を含む。第1畳み込みニューラルネットワークCNN1内においては、入力側(上層側)から出力側(下層側)に向かって第1層L1a、第2層L1bおよび第3層L1cがこの順に設けられる。なお、本実施の形態では、複数の層として3つの層を含む場合について説明するが、3つ以上の層を含んでいてもよい。
【0081】
第1層L1a、第2層L1bおよび第3層L1cそれぞれは、畳み込み層およびプーリング層を含む。畳み込み層においては、複数のフィルタが適用される。プーリング層は、畳み込み層の出力を圧縮する。第2層L1bの畳み込み層のフィルタの数は、第1層L1aの畳み込み層のフィルタの数の2倍に設定されている。第3層L1cの畳み込み層のフィルタの数は、第2層L1bの畳み込み層のフィルタの数の2倍に設定されている。このため、圧縮データからできるだけ多くの特徴を抽出することができる。ここで、圧縮データの元となる変動条件は、時間の経過に伴って変動するノズルの基板Wに対する相対位置を含む。第1畳み込みニューラルネットワークCNN1は、複数のフィルタを用いて特徴を抽出するので、ノズルの基板Wに対する相対位置の変化について時間の要素を含む複数の特徴を抽出する。なお、ここでは第2層L1bの畳み込み層のフィルタの数が、第1層L1aの畳み込み層のフィルタの数の2倍に設定される例を示しているが、2倍でなくてもよい。第2層L1bの畳み込み層のフィルタの数は、第1層L1aの畳み込み層のフィルタの数よりも多い数であればよい。また、第3層L1cの畳み込み層のフィルタの数は、第2層L1bの畳み込み層のフィルタの数の2倍でなくてもよい。第3層L1cの畳み込み層のフィルタの数は、第2層L1bの畳み込み層のフィルタの数よりも多い数であればよい。
【0082】
第1全結合ニューラルネットワークNN1は、複数の層が設けられる。図10の例では、第1全結合ニューラルネットワークNN1は、入力側のb1a層および出力側のb1b層の二つの層が設けられる。図10の例では、各層には、複数のノードが含まれる。図10の例では、b1a層に5つのノード、b1b層に4つのノードが示されるが、ノードの数は、これに限定されるものではない。b1a層のノードの数は、第1畳み込みニューラルネットワークCNN1の出力側のノードの数と固定条件の数との和に等しくなるように設定される。b1b層のノードの数は、第2畳み込みニューラルネットワークCNN2の入力側のノードの数に等しくなるように設定される。b1a層のノードの出力はb1b層のノードの入力に接続される。パラメータは、b1a層のノードの出力に対して重み付けする係数を含む。b1a層とb1b層との間には、1または複数の中間層が設けられてもよい。
【0083】
第2畳み込みニューラルネットワークCNN2は、複数の層を含む。本実施の形態では、第2畳み込みニューラルネットワークCNN2は、3つの層を含む。第2畳み込みニューラルネットワークCNN2においては、入力側(上層側)から出力側(下層側)に向かって第4層L1d、第5層L1eおよび第6層L1fがこの順に設けられる。なお、本実施の形態では、複数の層として3つの層を含む場合について説明するが、3つ以上の層を含んでいてもよい。
【0084】
第4層L1d、第5層L1eおよび第6層L1fそれぞれは、畳み込み層およびプーリング層を含む。畳み込み層においては、複数のフィルタが適用される。プーリング層は、畳み込み層の出力を圧縮する。第5層L1eの畳み込み層のフィルタの数は、第4層L1dの畳み込み層のフィルタの数の1/2倍に設定されている。また、第6層L1fの畳み込み層のフィルタの数は、第5層L1eの畳み込み層のフィルタの数の1/2倍に設定されている。このため、処理結果からできるだけ多くの特徴を抽出することができる。処理結果に含まれる複数の処理量は、基板Wの径方向における位置が異なる値である。第2畳み込みニューラルネットワークCNN2は、複数のフィルタを用いるので、処理結果について基板Wの径方向の位置の要素を含む複数の特徴を抽出する。なお、ここでは第5層L1eの畳み込み層のフィルタの数が、第4層L1dの畳み込み層のフィルタの数の1/2倍に設定される例を示しているが、1/2倍でなくてもよい。第5層L1eの畳み込み層のフィルタの数は、第4層L1dの畳み込み層のフィルタの数よりも少ない数であればよい。また、第6層L1fの畳み込み層のフィルタの数は、第5層L1eの畳み込み層のフィルタの数の1/2倍でなくてもよい。第6層L1fの畳み込み層のフィルタの数は、第5層L1eの畳み込み層のフィルタの数よりも少ない数であればよい。
【0085】
学習モデルの構成については、予測アルゴリズムの構成と同様である。換言すれば、初期値が設定された予測アルゴリズムと、初期値が設定された学習モデルとは同様である。なお、予測アルゴリズムの機械学習において用いられる学習用データは、固定条件および処理結果と、変動条件が圧縮された圧縮データとであるが、学習モデルの機械学習において用いられる学習用データは、事前固定条件および事前処理結果と、事前変動条件が圧縮された圧縮データとである。
【0086】
図11は、学習処理の流れの一例を示すフローチャートである。学習処理は、学習装置200が備えるCPU201がRAM202に格納された学習プログラムを実行することにより、CPU201により実行される処理である。
【0087】
図11を参照して、学習装置200が備えるCPU201は、予測アルゴリズム生成処理を実行する(ステップS01)。続いて、CPU201は、事前学習を行うための事前処理条件を生成する事前処理条件生成処理を実行する(ステップS02)。次のステップS03においては、CPU201は、ステップS01において生成された予測アルゴリズムと、ステップS02において生成された事前処理条件とを用いて学習モデルに対する事前学習を実行する。次のステップS04においては、CPU201は、事前学習済みの学習モデルに対する機械学習を実行する学習モデル生成処理を実行する。ステップS05においては、CPU201は、学習モデルと圧縮器とを含む予測器を生成し、入出力I/F207を制御することにより予測器を情報処理装置100に送信する。
【0088】
図12は、予測アルゴリズム生成処理の流れの一例を示すフローチャートである。予測アルゴリズム生成処理は、図11のステップS01においてCPU201により実行される処理である。
【0089】
図12を参照して、学習装置200が備えるCPU201は、実験データを取得する(ステップS11)。CPU201は、入出力I/F107を制御して、基板処理装置300から実験データを取得する。実験データは、CD-ROM209等の記録媒体に記録された実験データを記憶装置104で読み取ることにより取得されてもよい。ここで取得される実験データは、複数である。実験データは、複数の第1データセットを含む。第1データセットは、処理条件と、基板処理装置300において当該処理条件で被膜の処理を行った処理結果とで構成される。処理条件は、固定条件と、変動条件とを含む。
【0090】
ステップS12においては、CPU201は、処理対象として一の第1データセットを選択する。次のステップS13においては、CPU201は、選択された第1データセットの処理条件に含まれる変動条件を圧縮データに変換する。ここでは、CPU201は、ノズル動作パターンを含む変動条件を図9に示すノズルの滞在時間分布に変換することにより圧縮データに変換する。ステップS14においては、CPU201は、選択された第1データセットの固定条件と、変動条件を変換した圧縮データと、処理結果とを予測アルゴリズムに機械学習させる。予測アルゴリズムに対する機械学習においては、処理対象に選択された第1データセットの固定条件と、変動条件を変換した圧縮データとが入力データとして用いられ、選択された第1データセットの処理結果が正解データとして用いられる。
【0091】
ステップS15において、CPU201は、未選択の第1データセットが存在するか否かを判定する。未選択の第1データセットが存在する場合、処理はステップS12に戻り、未選択の第1データセットが存在しない場合、処理は学習処理に戻る。
【0092】
図13は、事前処理条件生成処理の流れの一例を示すフローチャートである。事前処理条件生成処理は、図11のステップS02においてCPU201により実行される処理である。
【0093】
図13を参照して、学習装置200が備えるCPU201は、仮の変動条件を生成する(ステップS21)。仮の変動条件は、被膜の処理におけるノズル311の往復回数、ノズル311の移動速度およびノズル311の移動時の変速点を含む。ここでは、被膜の処理におけるノズル311の往復回数、ノズル311の移動速度およびノズル311の移動時の変速点等のノズル動作に関連する因子の組み合わせがそれぞれ異なる複数の仮の変動条件が生成される。
【0094】
次のステップS22においては、CPU201は、生成した複数の仮の変動条件から、予め定められた数の事前変動条件を抽出する。
【0095】
次のステップS23においては、CPU201は、抽出された事前変動条件を圧縮する。ここでは、CPU201は、図9に示すノズルの滞在時間分布に変換することにより事前変動条件を圧縮する。ステップS24においては、CPU201は、任意の固定条件を事前固定条件として決定する。ここでは、例えば、基板の回転数とエッチング液の流量とが異なる固定条件が複数の事前固定条件として決定される。ステップS25においては、CPU201は、ステップS22において抽出し、ステップS23において事前変動条件を圧縮した圧縮データとステップS24において決定した事前固定条件との複数のデータセットをペアワイズ法により事前処理条件として生成する。
【0096】
図14は、事前学習処理の流れの一例を示すフローチャートである。事前学習処理は、図11のステップS03において、CPU201により実行される処理である。
【0097】
図14を参照して、学習装置200が備えるCPU201は、事前処理条件生成処理を実行することにより生成した複数の事前処理条件から一の事前処理条件を選択する(ステップS31)。ステップS32においては、CPU201は、予測アルゴリズム生成処理を実行することにより生成した予測アルゴリズムと、選択した事前処理条件とを用いて事前処理結果を取得する。ここでは、予測アルゴリズムに対して事前処理条件が入力されることにより、処理結果が推論され、推論された処理結果が事前処理結果として取得される。この段階で、事前処理条件と事前処理結果との組が第2データセットとして生成される。
【0098】
次のステップS33においては、第2データセットを用いて学習モデルを機械学習させる。第2データセットは、ステップS31において選択された事前処理条件とステップS32において取得された事前処理結果とを含む、学習モデルに対する機械学習については、事前処理条件が入力データとして用いられ、事前処理結果が正解データとして用いられる。ステップS34においては、CPU201は、未選択の事前処理条件があるか否かを判定する。未選択の事前処理条件がある場合、処理はステップS31に戻り、未選択の事前処理条件がない場合、処理は学習処理に戻る。これにより、事前学習済みの学習モデルが生成される。
【0099】
図15は、学習モデル生成処理の流れの一例を示すフローチャートである。学習モデル生成は、図11のステップS04において、CPU201により実行される処理である。
【0100】
図15を参照して、学習装置200が備えるCPU201は、実験データを取得する。CPU201は、入出力I/F107を制御して、基板処理装置300から実験データを取得する(ステップS41)。実験データは、CD-ROM209等の記録媒体に記録された実験データを記憶装置104で読み取ることにより取得されてもよい。ここで取得される実験データは、予測アルゴリズムを生成する際に用いた実験データと同じである。このため、実験データの数をできるだけ少なくすることができる。
【0101】
実験データは、複数の第1データセットを含む。第1データセットは 、処理条件と、基板処理装置300において当該処理条件で被膜の処理を行った処理結果とで構成される。処理条件は、固定条件と、変動条件とを含む。ステップS42においては、CPU201は、一の第1データセットを選択する。次のステップS43においては、CPU201は、選択した第1データセットの処理条件に含まれる変動条件を圧縮データに変換する。ここでは、CPU201は、ノズル動作パターンを含む変動条件を図9に示すノズルの滞在時間分布に変換することにより圧縮データに変換する。ステップS44においては、CPU201は、選択した第1データセットの固定条件と、変動条件を変換した圧縮データと、処理結果とを事前学習済みの学習モデルに機械学習させる。事前学習済みの学習モデルに対する機械学習においては、ステップS42において選択された第1データセットの固定条件と、その第1データセットの変動条件を変換した圧縮データとが入力データとして用いられ、ステップS42において選択された第1データセットの処理結果が正解データとして用いられる。
【0102】
ステップS45において、CPU201は、未選択の第1データセットが存在するか否かを判定する。未選択の第1データセットが存在する場合、処理はステップS42に戻り、未選択の第2データセットが存在しない場合、処理は学習処理に戻る。
【0103】
図16は、処理条件決定処理の流れの一例を示すフローチャートである。処理条件決定処理は、情報処理装置100が備えるCPU101がRAM102に格納された処理条件決定プログラムを実行することにより、CPU101により実行される処理である。
【0104】
図16を参照して、情報処理装置100が備えるCPU101は、予め準備された複数の変動条件のうちから1つを選択し(ステップS51)、処理をステップS52に進める。実験計画法、ペアワイズ法またはベイズ推定等を用いて、予め準備された複数の変動条件のうちから1つが選択される。
【0105】
ステップS52においては、予測器を用いて、変動条件と固定条件とから処理結果が予測され、処理はステップS53に進む。ここでは、変動条件が予測器のうち圧縮器に入力され、圧縮器から圧縮データが出力される。予測器の学習モデルには、圧縮データと固定条件とが入力される。それにより、学習モデルが出力する処理結果が取得される。ステップS53においては、処理後の膜厚特性が目標膜厚特性と比較される。基板処理装置300が処理の対象とする基板Wの処理前の膜厚特性と、ステップS52において予測されたエッチングプロファイルとから基板Wを処理した後の膜厚特性が算出される。そして、処理後の膜厚特性が目標膜厚特性と比較される。ここでは、基板Wを処理した後の膜厚特性と目標膜厚特性との差分が算出される。
【0106】
ステップS54においては、比較結果が評価基準を満たすか否かが判断される。比較結果が評価基準を満たすならば(ステップS54でYES)、処理はステップS55に進むが、そうでなければ処理はステップS51に戻る。例えば、差分の最大値が閾値以下である場合に評価基準を満たすと判断する。また、差分の平均が閾値以下である場合に評価基準を満たすと判断する。
【0107】
ステップS55においては、基板処理装置300を駆動するための処理条件の候補に、ステップS51において選択された変動条件を含む処理条件が設定され、処理はステップS56に進む。ステップS56においては、探索の終了指示が受け付けられたか否かが判断される。情報処理装置100を操作するユーザーにより終了指示が受け付けられたならば処理はステップS57に進むが、そうでなければ処理はステップS51に戻る。なお、ユーザーにより入力される終了指示に変えて、予め定められた数の処理条件が候補に設定されたか否かが判断されてもよい。
【0108】
ステップS57においては、候補に設定された1以上の処理条件のうちから1つが決定され、処理はステップS58に進む。候補に設定された1以上の処理条件のうちから情報処理装置100を操作するユーザーにより1つが選択されてもよい。したがって、ユーザーの選択の範囲が広がる。また、複数の処理条件に含まれる変動条件のうちからノズル動作が最も簡略な変動条件が自動的に選択されてもよい。ノズル動作が最も簡略な変動条件は、例えば、変速点の数が最少の変動条件とすることができる。これにより、基板Wを処理する複雑なノズル動作に対する処理結果に対して複数の変動条件を提示することができる。複数の変動条件のうちからノズルの制御が容易な変動条件を選択すれば、基板処理装置300の制御が容易になる。
【0109】
ステップS58においては、ステップS58において決定された変動条件を含む処理条件が基板処理装置300に送信され、処理は終了する。CPU101は、入出力I/F107を制御して、処理条件を基板処理装置300に送信する。基板処理装置300は、情報処理装置100から処理条件を受信する場合、その処理条件に従って基板Wを処理する。
【0110】
(4)変形例
上述した実施の形態における学習装置200は、実験データを機械学習した予測アルゴリズムを用いて、実験データとは別に、学習モデルに学習させるための第2データセットとして事前処理条件と予測処理結果とを生成する。変形例における学習装置200Aは、物理量を考慮して解析するルールベースの予測アルゴリズムを用いて、学習モデルに学習させるための第2データセットとして事前処理条件と予測処理結果とを生成する。
【0111】
図17は、変形例における基板処理システムの機能的な構成の一例を示す図である。図17を参照して、図4に示した機能と異なる点は、学習装置200が学習装置200Aに変更された点である。その他の機能は図4に示した機能と同じなので、ここでは説明を繰り返さない。学習装置200Aは、実験データ取得部210と、予測器生成部220Aと、予測器送信部230と、を含む。実験データ取得部210および予測器送信部230は、図4に示した機能と同じである。
【0112】
図18は、変形例における予測器生成部が有する機能の一例を示す図である。図18を参照して、変形例における予測器生成部220Aは、データ取得部221と、第1圧縮部222と、事前処理条件生成部224Aと、第2圧縮部224eと、232処理量予測部と、学習部225Aとを含む。
【0113】
データ取得部221は、実験データ取得部210から実験データが入力される。実験データは、処理条件および処理結果を含む。処理条件は、時間の経過に伴って変動しない固定条件と、時間の経過に伴って変動する変動条件とを含む。データ取得部221は、変動条件を第1圧縮部222に出力し、固定条件と処理結果とを学習部225Aに出力する。第1圧縮部222は、データ取得部221から入力される変動条件を圧縮し、変動条件が圧縮された圧縮データを学習部225Aに出力する。データ取得部221から出力される固定条件および処理結果と、第1圧縮部222から出力される圧縮データとの組は、第1データセットである。
【0114】
事前処理条件生成部224Aは、事前処理条件を生成する。事前処理条件生成部224Aの詳細な機能については後述する。事前処理条件は、事前変動条件と事前固定条件とを含む。事前処理条件生成部224Aは、生成した事前処理条件を処理量予測部232に出力する。また、事前処理条件生成部224Aは、事前処理条件のうち事前変動条件を第2圧縮部224eに出力し、事前固定条件を学習部225Aに出力する。第2圧縮部224eは、事前処理条件生成部224Aから入力される事前変動条件を圧縮する。第2圧縮部224eは、事前変動条件が圧縮された圧縮データを学習部225Aに出力する。
【0115】
処理量予測部232は、事前処理条件に基づいて予め定められた予測アルゴリズムで事前処理結果を算出する。事前処理結果は、基板の複数の位置それぞれにおける処理量を含む。処理量予測部232は、算出された事前処理結果を学習部225Aに出力する。第1圧縮部222から出力される圧縮データと、事前処理条件生成部224Aから出力される事前固定条件と、処理量予測部232から出力される事前処理結果との組が第2データセットである。
【0116】
ここで、処理量予測部232が処理量の算出に用いる予測アルゴリズムについて説明する。予測アルゴリズムは、CFD(Computational Fluid Dynamics)シミュレーションを用いた物理法則に基づいたモデルである。以下、処理量予測部232が用いる予測アルゴリズムをCFDモデルという。ここでは、エッチング対象となる被膜を酸化シリコン(SiO)とし、処理液をフッ酸(HF)とする。なお、エッチング対象となる被膜を(Al)とし、処理液をSC1(アンモニア過酸化水素水)とする場合にも適用可能である。要するに、CFDモデルは、反応律速の系に相当するような処理液とエッチング対象となる被膜の組み合わせに適用することができる。
【0117】
CFDモデルは、回転する基板W上を往復動作するノズル311から処理液が基板Wに吐出される間に、基板W上を処理液が塗り広がる挙動と、各種の熱移動と、処理液内での濃度移動および処理液と基板Wとの反応量(エッチング量)と、をシミュレートする複数のアルゴリズムで構成される。熱移動をシミュレートするアルゴリズムは、処理液と基板W間の熱移動をシミュレートするアルゴリズム、処理液内部の熱移動をシミュレートするアルゴリズム、基板W内部の熱移動をシミュレートするアルゴリズムを含む。
【0118】
具体的には、CFDモデルは、下記の支配方程式(1)~(4)を含む。処理量予測部232は、支配方程式(1)~(4)を用いて時空間離散化する。具体的には、支配方程式(1)~(4)は、支配方程式(1)~(4)それぞれを錬成して時間発展を解くことで、任意の時刻における処理液の膜厚分布、基板Wの温度分布および基板Wに形成された被膜の処理量(エッチングレート)を計算する。
【0119】
【数1】
【0120】
ここで、tは時間[s]であり、xは空間刻み幅[mm]であり、hは処理液の膜厚[μm]であり、rは半径位置[mm]であり、ωは基板Wの回転数[rpm]である。また、μは液体の粘性係数であり、ρは液体の密度[kg/m3]である。
【0121】
【数2】
【0122】
ここで、Cpは処理液の比熱であり、Tliquidは処理液の温度[K]であり、Twaferは基板Wの温度[K]であり、uは処理液の流速[m/s]である。kは処理液の熱伝導率である。
【0123】
【数3】
【0124】
【数4】
【0125】
ここで、ERはエッチングレートであり、Mwaferは基板上の酸化シリコンの分子量であり、ρwaferは基板上の酸化シリコンの密度である。A、Eaはアレニウスパラメーターであり、Cは処理液のモル濃度である。αは1である。
【0126】
支配方程式(1)におけるS(x,t)は、系に対して外から流入してくる影響を表す。S(x,t)は、処理液の流量とその位置から求められる。位置は、ノズル311の位置の時系列データから求められる。また、支配方程式(1)式は、右辺にS(x,t)が含まれるので、基板W上を移動するノズル311から吐出される処理液の流量が、系への処理液の流入としてモデル化されている。支配方程式(1)を解くことで回転する基板W上を流れる処理液の液膜の厚さが計算される。
【0127】
支配方程式(2)は、処理液内部での熱移動を示す式である。支配方程式(2)におけるQ(x,t)は、系に対して外部から流入する影響を表す。Q(x,t)は、温度の流入と、その位置から求められる。温度は処理液の温度から求められ、位置は、ノズル311の位置の時系列データから求める。
【0128】
q1(x,t)は、処理液の液膜と周囲流体とで発生する熱量を表す。q2(x,t)は、処理液の液膜と基板Wとの間でやり取りする熱量を表す。q1(x,t)は、例えば、雰囲気の温度をRT(室温)で固定した状態における熱伝達によって決定でき、次式(5)式が成立する。q2(x,t)は、次式(6)式が成立する。
【0129】
【数5】
【0130】
ここで、h1,h2は熱伝達率、Trefは雰囲気の温度(室温)を示す。熱伝達率h1,h2は実験結果に基づいて同定することにより決定される。
【0131】
支配方程式(2)を用いて、処理液に対して外部からの熱の流入や処理液と雰囲気との熱のやり取りを考慮しながら処理液の液膜の温度を計算できる。
【0132】
支配方程式(3)は、基板W内での熱移動を計算する支配方程式である。支配方程式(3)を用いて、基板Wの温度を計算できる。
【0133】
支配方程式(4)は、基板Wと処理液との間で発生するエッチング反応をモデル化する支配方程式(アレニウス式)である。支配方程式(1)~(3)の時間発展を解くことで、基板Wの半径方向に異なる複数の位置それぞれにおける処理液の濃度の瞬時値および基板Wの温度の瞬時値が算出される。この支配方程式(4)を解くことで、基板Wの半径方向に異なる複数の位置それぞれにおける処理液の濃度の瞬時値および基板Wの温度の瞬時値を参照し、その時刻でのエッチングレートERの瞬時値が算出される。
【0134】
エッチングレートERを時間で積分することで、その時刻までのエッチング量の積算値を求めることができる。支配方程式(1)~(3)を錬成して、時間発展を解き、支配方程式(4)によりエッチング量を算出するサイクルを回すことで任意時刻までの処理結果(エッチングプロファイル)が求められる。このようにCFDモデルは、物理量を考慮して解析するルールベースのモデルである。
【0135】
CFDモデルは、支配方程式(1)~(3)と、支配方程式(4)と、を含む。支配方程式(1)~(3)は、事前処理条件に基づいて、基板Wの径方向に異なる複数の位置それぞれにおける基板の温度をシミュレートする第1アルゴリズムである。また、支配方程式(4)は、支配方程式(1)~(3)を用いて予測された基板Wの径方向に異なる複数の位置それぞれにおける基板Wの温度に基づいて、基板Wの径方向に異なる複数の位置それぞれにおける処理量の積算値である事前処理結果をシミュレートする第2アルゴリズムである。このため、基板処理装置300に実際に基板Wを処理させることなく、事前処理条件から事前処理結果が得られる。このため、第2データセットを容易に生成することができる。
【0136】
学習部225Aは、事前学習部225cと、学習モデル生成部225eと、を含む。事前学習部225cには、第2データセットが入力される。具体的には、事前学習部225cには、第2圧縮部224eから出力された圧縮データと、事前固定条件生成部224gから出力された事前固定条件と、処理量予測部232から出力された事前処理結果とが入力される。事前学習部225cは、第2データセットを学習モデルに機械学習させる。変形例で用いられる学習モデルは、図10に示した、ニューラルネットワークで構成される。
【0137】
具体的には、事前学習部225cは、第2データセットに含まれる事前処理条件を学習モデルに与えて、学習モデルにより予測される予測処理結果が、第2データセットに含まれる事前処理結果に近づくように、学習モデルのパラメータを調整する。事前学習部225cによる事前学習により、複数の特性を有する変動条件の複数を複数の特性のいずれかに偏ることなく事前知識として学習モデルに機械学習させることができる。以下、事前学習部225cにおいて行われる機械学習を事前学習と呼ぶ。事前学習部225cは、事前学習済の学習モデルを学習モデル生成部225eに出力する。
【0138】
学習モデル生成部225eには、第1データセットが入力される。具体的には、学習モデル生成部225eには、データ取得部221から出力された固定条件および処理結果と、第1圧縮部222から出力された圧縮データとが入力される。また、学習モデル生成部225eには、事前学習部225cから出力された事前学習済みの学習モデルが入力される。学習モデル生成部225eは、第1データセットを事前学習済みの学習モデルにさらに機械学習させる。
【0139】
学習モデル生成部225eが機械学習させる学習モデルは、事前学習部225cにより事前学習が終了した事前学習済の学習モデルである。事前学習済の学習モデルは、変動条件の複数の特性を学習済なので、学習モデル生成部225eによる実験データを用いた機械学習において、実験データに含まれる変動条件の特性の偏りの影響を少なくすることができ、予測精度を向上させることができる。
【0140】
学習モデル生成部225eは、第2データセットを学習済みの学習モデルと圧縮器とを予測器として、予測器を予測器送信部230に出力する。予測器に含まれる圧縮器の機能は、第1圧縮部222の機能と同様である。
【0141】
図19は、事前処理条件生成部の詳細な機能の一例を示す図である。図19を参照して、事前処理条件生成部224Aは、生成用変動条件決定部241と、変換部242と、回数分類部243と、分類部244と、変動条件選定部245と、固定条件決定部246と、事前処理条件決定部247と、を含む。
【0142】
生成用変動条件決定部241は、変動条件の取りうる範囲の全体に散らばる複数の生成用変動条件を決定する。生成用処理条件は、生成用変動条件と、生成用固定条件とを含む。生成用変動条件は、時間の経過に伴って変化する基板Wに対するノズル311の位置である。ここでは、基板処理装置300が被膜処理を実行する間にノズル311が基板Wを1回以上往復し、ノズル311が1往復する間にノズル311の速度を1回以上変化させる場合を例に説明する。変動条件は、ノズル311の往復回数、ノズル311の変速点の数と、変速点それぞれに設定されるノズル311の速度と、変速点間をノズル311が移動する移動時間と、により定まる。ノズル311の速度は0を含み、ノズル311の速度が0の場合、ノズル311が停止している状態なので、ノズル311の速度が0の移動時間は停止時間ともいう。被膜処理が実行される処理時間が固定されている場合、処理時間を往復回数で除算することにより1往復当たりのスキャン時間Tが定まる。変速点数は変速回数nを示す。スキャン時間Tと距離L(基板直径)とし、スキャン時間Tにおけるノズル311の速度の平均を平均速度Vmとすると、2L=T×Vmである。ノズル311が定速度の期間を移動期間Ti(1≦i≦n)、移動期間Tiにおけるノズル311の速度をViとおけば、次式(7)が成立する。
2L=ΣTi×Vi…(7)
【0143】
上記式(7)を満たすTiおよびViの組み合わせを定めることにより、往復回数および変速点の数に対する変動条件が定まる。例えば、TiおよびViのいずれか一方を定めれば、式(7)から他方が定まる。Tiを定めてからViを定めてもよいし、Viを定めてからTiを定めてもよい。例えば、1往復当たりのスキャン時間Tを等分することによりTiを定めてもよいし、スキャン時間Tを分割する複数のパターンを予め準備しておいてもよい。複数のパターンは、例えば、Tiが徐々に増加するパターン、Tiが徐々に減少するパターン、Tiが徐々に増加した後に徐々に減少するパターン等を含む。
【0144】
生成用変動条件決定部241は、複数組の往復回数および変速点数それぞれに対して、複数組の移動期間Tiおよび速度Viの組を生成することにより、複数の生成用変動条件を生成する。往復回数および変速点数それぞれに上限値が設定されている場合、生成用変動条件決定部241は、往復回数および変速点数の全ての組み合わせに対して、複数組の移動期間Tiおよび速度Viの組を生成する。
【0145】
生成用変動条件決定部241により決定される複数の生成用変動条件は、上述したノズルの動作パターンがそれぞれ異なる。例えば、生成用変動条件決定部241により生成される複数の生成用変動条件は、往復回数、変速点数、移動期間および速度の少なくとも1つが異なる。本実施の形態において、生成用変動条件決定部241により決定される生成用変動条件は、18000個である。
【0146】
変換部242は、生成用変動条件決定部241により決定された複数の生成用変動条件を変換データに変換する。変換部242は、生成用変動条件と変換データとの組を回数分類部243に出力する。変換データは、生成用変動条件に関わる変数である。
【0147】
本実施の形態においては、変換データを累積滞在時間分布とする。累積滞在時間分布は、基板Wの径方向の複数の位置ごとにノズルが処理時間内に滞在する時間を、基板Wの中心から周辺に向かって累積した値である。累積滞在時間分布について説明する。
【0148】
累積滞在時間分布は、図9に示した滞在時間分布において、基板Wの中心から外周に向けて順に滞在時間を累積することにより求められる。具体的には、分割領域b2の累積滞在時間は分割領域b1の滞在時間と分割領域b2の滞在時間との和であり、分割領域b3の累積滞在時間は分割領域b2の累積時間と分割領域b3の滞在時間との和であり、分割領域b15の累積滞在時間は分割領域b14の累積滞在時間と分割領域b15の滞在時間との和である。
【0149】
本実施の形態においては、変動条件が累積滞在時間である変換データに変換される。累積滞在時間は、基板Wの上面を15個の分割領域b1~b15に分割して求められるため、変換データの数は15個である。分割領域b1~b15それぞれの基板の径方向の長さが大きいほど、変換データの数が小さくなる。分割領域b1~b15それぞれの基板の径方向の長さは、ノズル311の内径以上なので、変換データの数の最大値は、ノズル311の内径により定まる。
【0150】
回数分類部243は、変換部242から複数組の生成用変動条件と変換データが入力される。回数分類部243は、複数の生成用変動条件をノズル311の往復回数に基づいて、複数の回数別グループに分類する。本実施の形態においては、回数分類部243は、複数の生成用変換データを、ノズル311の往復回数が0~3回の回数別グループと、往復回数が3~6回の回数別グループと、往復回数が6~9回の回数別グループと、往復回数が9回以上の回数別グループとのいずれか分類する。なお、回数別グループを往復回数3回、6回、9回を閾値として分類しているが、これら閾値として他の値をとってもよい。また、回数別グループの数は4つに限定されることなく、1以上であればよい。
【0151】
また、分類部244は、複数の回数別グループそれぞれにおいて、各回数別グループに属する生成用変動条件を変換データに基づいて複数のグループにクラスタリングする。
【0152】
図20は、クラスタリングの結果の一例を説明するための図である。図20には、往復回数が0~3回のクラスタの半径方向の各位置における基板中心OPを基準としたノズル311の累積滞在分布が示される。図20を参照して、縦軸には、基板中心OPからのノズルの滞在時間の累積が示され、横軸には、基板Wの半径方向の位置が示される。基板中心OPの位置が0mmで示され、基板Wの径方向における端部が150mmで示される。縦軸においては、基板Wの半径方向の各位置における累積滞在時間を累積滞在時間の総計で除算することにより、1に規格化されている。基準線SLは、ノズル動作パターンにおいて、基板Wの半径方向の各位置に同じ時間だけノズル311が存在した場合のノズル311の累積滞在分布を表す。生成用変動条件に含まれるノズル動作パターンは、基準線SLを中心として分布するが、その図示が省略されている。
【0153】
生成用変動条件のノズル動作パターンが領域A1~A4にクラスタリングされる例が示される。領域A1~A4については、領域A1,A2と領域A3,A4とが基準線SLを中心にして対称である例が記載されているが、領域A1~A4については、限定するものではないがk-means法により決定されてもよい。クラスタリングは、k-means法とは別の手法が用いられてもよい。また、ノズル動作パターンは、4つにクラスタリングされる例が記載されているが、クラスタリングされる数は、これに限定されるものではない。
【0154】
図19に戻って、変動条件選定部245は、分類部244によりクラスタリングされたクラスタに属する生成用変動条件から一または複数の生成用変動条件をランダムに選定し、選定した複数の生成用変動条件を事前処理条件決定部247に出力する。例えば、分類部244により往復回数が0~3回の回数別グループに属する複数の生成用変動条件が領域A1~A4で示される4つのクラスタそれぞれから60個の生成用変動条件をランダムに選定する。これにより、往復回数が0~3回の回数別グループから240個の生成用変動条件が選定される。また、変動条件選定部245は、往復回数が3~6回の回数別グループと、往復回数が6~9回の回数別グループと、往復回数が9回以上の回数別グループとについても同様の手法を用いて生成用変動条件を240個ずつ選定する。したがって、変動条件選定部245は、960個の生成用変動条件を決定する。これにより、変動条件選定部245において、複数の生成用変動条件から累積滞在時間分布の特徴の異なる生成用変動条件が均等に選択されるので、特定の累積滞在時間分布に偏らない複数の変動条件を選択することができる。
【0155】
固定条件決定部246は、固定条件に設定される値が取り得る範囲の全体に散らばる複数の生成用固定条件を生成し、事前処理条件決定部247に出力する。例えば、固定条件決定部246は、その固定条件が取りうる範囲を3等分した範囲の中央の値の固定条件を生成用固定条件として生成する。本実施の形態においては、3個の基板の回転数と、3個のエッチング液の流量と、3個のエッチング液の温度とを組み合わせた27個の固定条件が生成用固定条件として決定される。
【0156】
事前処理条件決定部247には、変動条件選定部245から生成用変動条件が入力され、固定条件決定部246から生成用固定条件が入力される。事前処理条件決定部247は、生成用変動条件と生成用固定条件とを組み合わせることにより複数の処理条件を生成する。また、事前処理条件決定部247は、複数の生成用処理条件の個数を例えばペアワイズ法により絞ることにより、学習モデルに事前学習させるための生成用処理条件を決定する。
【0157】
本実施の形態においては、事前処理条件決定部247には、変動条件選定部245から960個の生成用変動条件が入力され、固定条件決定部246から27個の生成用固定条件が入力される。事前処理条件決定部247は、960個の生成用変動条件と27個の生成用固定条件とを組み合わせることにより、25920個の生成用処理条件を生成する。また、事前処理条件決定部247は、ペアワイズ法により25920個の生成用処理条件を2716個の生成用処理条件に絞る。これにより、事前処理条件決定部247は、2716個の生成用処理条件を、予測アルゴリズムを生成するための生成用処理条件として決定する。事前処理条件決定部247は、2716個の生成用処理条件を出力する。具体的には、事前処理条件決定部247は、生成用処理条件を事前処理条件として処理量予測部232に出力するとともに、生成用処理条件のうち生成用変動条件を事前変動条件として第2圧縮部224eに出力し、生成用固定条件を事前固定条件として学習部225Aの事前学習部225cに出力する。
【0158】
図21は、変形例における学習処理の流れの一例を示すフローチャートである。変形例における学習処理は、学習装置200Aが備えるCPU201がRAM202に格納された学習プログラムを実行することにより、CPU201により実行される処理である。
【0159】
図21を参照して、図11に示した学習処理と異なる点は、ステップS01およびステップS02が、ステップS101およびステップS102にそれぞれ変更された点である。その他の処理は、図11に示した処理と同じなので、ここでは説明を繰り返さない。変形例における学習装置200Aが備えるCPU201は、事前処理条件生成処理を実行する(ステップS101)。事前処理条件生成処理の詳細は後述するが、事前変動条件と事前固定情報とを含む事前処理条件の複数を生成する処理である。続いて、CPU201は、第2データセット生成処理を実行する(ステップS102)。第2データセット生成処理の詳細は後述するが、事前処理条件から予測処理結果を算出し、事前処理条件と予測処理結果とを含む第2データセットを生成する処理である。
【0160】
次のステップS03においては、CPU201は、図14に示した事前学習処理を実行する。これにより、ステップS102において生成された第2データセットを用いて学習モデルが事前学習する。次のステップS04においては、CPU201は、図15に示した学習モデル生成処理を実行する。これにより、ステップS03において事前学習済みの学習モデルに実験データを用いて機械学習させる処理である。
【0161】
次のステップS05においては、CPU201は、学習モデルと圧縮器とを含む予測器を生成し、入出力I/F207を制御することにより予測器を情報処理装置100に送信する。
【0162】
図22は、事前処理条件生成処理の流れの一例を示すフローチャートである。事前処理条件生成処理は、変形例における学習処理のステップS101において実行される処理である。図22を参照して、学習装置200Aが備えるCPU201は、生成用変動条件を決定する(ステップS111)。ここでは、変動条件の取り得る範囲の全体に散らばる複数の変動条件が生成用変動条件として決定される。次のステップS112においては、CPU201は、決定された生成用変動条件を変換データに変換する。ここでは、変換データは累積滞在時間分布である。累積滞在時間分布は、変動条件を基板Wの上面を複数個に分割した複数の分割領域それぞれにおけるノズルの滞在時間に変換し、基板Wの中心から外周に向けて順に滞在時間を累積することにより求められる。
【0163】
ステップS113においてCPU201は、生成用変動条件を複数の回数別グループに分類する。ここでは、複数の生成用変動条件が、ノズル311の往復回数に基づいて、複数の回数別グループに分類される。ステップS114においてCPU201は、一の回数別グループを選択し、選択された回数別グループに含まれる複数の生成用変動条件を変換データでクラスタリングする。複数の生成用変動条件が変換データでクラスタリングされると、1以上のクラスタが特定される。1以上のクラスタそれぞれには、複数の生成用変動条件が属する。続いて、CPU201は、クラスタリングにより特定された複数のクラスタから処理対象となるクラスタを選択し(ステップS115)、選択したクラスタから生成用変動条件を選定する(ステップS116)。ステップS116においてCPU201は、処理対象に選択されたクラスタに属する複数の生成用変動条件から所定数の生成用変動条件をランダムに選定する。所定数は1以上の整数である。
【0164】
ステップS117において、CPU201は、クラスタリングにより特定された1以上のクラスタのうちに未選択のクラスタがあるか否かを判定する。未選択のクラスタがある場合、処理はステップS115に戻る。これにより、クラスタリングにより特定された1以上のクラスタのすべてに対してステップS115,S116の処理が繰り返される。この場合、一の回数別グループにおいてクラスタリングにより特定された1以上のクラスタそれぞれから所定数の生成用変動条件が選定されるので、累積滞在時間分布の特徴の異なる生成用変動条件が均等に選定される。ステップS117において、未選択のクラスタが存在しないと判断する場合、処理はステップS118に進む。
【0165】
ステップS118において、CPU201は、未選択の回数別グループがあるか否かを判定する。未選択の回数別グループがある場合、処理はステップS114に戻る。これにより、複数の回数別グループの全てに対してステップS114~ステップS117の処理が実行される。この場合、ノズル311の往復回数の違いによりクラスタリングの対象となる生成用処理条件を異ならせるので、ノズル311の往復回数の違いにより処理量が異なる場合に有効である。ステップS118において、未選択の回数別グループがないと判断される場合、処理はステップS119に進む。
【0166】
ステップS119においてCPU201は、生成用固定条件を生成し、処理をステップS120に進める。ここでは、固定条件に設定される値が取り得る範囲の全体に散らばる複数の変動条件が生成用変動条件として生成される。ステップS120においてCPU201は、生成用変動条件と生成用固定条件とを組み合わせることにより複数の生成用処理条件を生成する。
【0167】
図23は、第2データセット生成処理の流れの一例を示すフローチャートである。第2データセット生成処理は、変形例における学習処理のステップS102において実行される処理である。図23を参照して、CPU201は、処理対象となる事前処理条件を選択する(ステップS121)。次のステップS122においては、CPU201は、アルゴリズムで処理用を算出する。基板の径方向に異なる複数の位置それぞれにおける処理量が算出される。複数の位置それぞれの処理量が処理結果である。そして、CPU201は、第2データセットを生成し、処理をステップS124に進める。ステップS121において処理対象に選択された事前処理条件と、ステップS122において算出された処理量を含む処理結果とを含む第2データセットが生成される。
【0168】
次のステップS124においては、CPU201は、未選択の事前処理条件が存在するか否かを判断する。ステップS121において処理対象に選択されていない事前処理条件が存在するならば処理はステップS121に戻り、そうでなければ処理は学習処理に戻る。
【0169】
図24は、変形例における事前学習処理の流れの一例を示すフローチャートである。事前学習処理は、学習処理のステップS03において実行される処理である。事前学習処理が実行される前の段階で、第2データセットが生成されている。図24を参照して、CPU201は、処理対象となる第2データセットを選択し(ステップS131)、処理をステップS132に進める。ステップS132において、CPU201は、第2データセットで学習モデルを機械学習させ、処理をステップS133に進める。ステップS133においては、次に処理対象とするべき第2データセットが存在するか否かを判断する。未選択の第2データセットが存在するならば処理はステップS131に戻るが、そうでなければ処理は学習処理に戻る。ステップS131~133の処理は、初手のエポック回数だけ繰り返される。
【0170】
(5)実施の形態の効果
上記実施の形態の学習装置200によれば、実験データを学習した予測アルゴリズムが生成されるので、実験データとは別に事前処理条件と予測処理結果とを生成することができる。この事前処理条件は、基板処理装置300が処理を実行するための処理条件が取り得る範囲の全体に渡る複数の処理条件を含めることが可能となる。このため、学習モデルに事前処理条件と予測処理結果とを事前学習させることにより、学習モデルに事前知識を与えることができる。そして、事前知識が与えられた事前学習済の学習モデルが実験データを学習するので、実験データだけを学習した予測アルゴリズムに比較して、精度を向上させることができる。また、実験データの数は、予測アルゴリズムを生成するために必要な数でよいので、学習モデルを機械学習させるための実験データを生成するコストを抑制することができる。これらの結果、低コストで精度の高い学習モデルを生成することが可能な学習装置200を提供することが可能になる。
【0171】
また、予測アルゴリズムと、学習モデルとが同じなので、単一の学習モデルを準備すればよく、学習モデルを容易に生成することが可能になる。
【0172】
上記実施の形態の基板処理装置300によれば、事前学習された学習モデルに仮の処理条件を与えて学習モデルにより予測される処理結果が許容条件を満たす場合に、仮の処理条件が基板処理装置300を駆動するための処理条件に決定される。このため、許容条件を満たす処理結果に対して複数の仮の処理条件を決定することができる。その結果、複雑なプロセスを経て得られる処理結果に対して複数の処理条件を提示することが可能になる。
【0173】
変形例における学習装置200Aは、予測アルゴリズムを、物理量を考慮して解析するルールベースのCFDモデルとする。このため、基板処理装置300に実際に基板Wを処理させることなく、事前処理条件から事前処理結果を得ることができる。このため、第2データセットを容易に生成することができる。
【0174】
また、変形例における学習装置200Aにおいて、事前処理条件が、変動条件の取り得る範囲に散らばる複数の変動条件をそれぞれ含む複数の処理条件が生成される。その際に、学習装置200Aは、処理条件の取り得る範囲に散らばる複数の処理条件が複数のグループに分類され、複数のグループそれぞれから少なくとも1つの処理条件を選定する。このため、処理条件の取り得る範囲をカバーしつつ偏りの少ない複数の処理条件を選定することができる。さらに、学習装置200Aは、選定された処理条件と処理量とを含む第2データセットを用いて機械学習した学習モデルを生成する。このため、学習モデルの汎化性を向上させることができる。また、第2データセットの数を抑制できるので、第2データセットを生成するコストをできるだけ小さくすることができる。
【0175】
(6)他の実施の形態
(6-1)上記実施の形態において予測アルゴリズムは、図10に示す複数のニューラルネットワークにより構成される例が記載されるが、本発明はこれに限定されない。例えば、予測アルゴリズムは、予め定められた回帰式でアルゴリズムが構成された回帰モデルであってもよい。この場合、予測アルゴリズム生成部223は、固定条件と、圧縮データと、処理結果とで構成される第1データセットに基づいて、予測アルゴリズムを回帰してもよいし、処理条件と処理結果とで構成されるデータセットに基づいて、予測アルゴリズムを回帰してもよい。
【0176】
(6-2)上記実施の形態において、予測器生成部220は、第1圧縮部222を含むが本発明はこれに限定されない。予測アルゴリズムの機械学習において、第1圧縮部222は設けられなくてもよい。特に、変動条件の次元数が少ない場合に有効である。同様に、予測器生成部220の事前処理条件生成部224は、第2圧縮部224eを含むが本発明はこれに限定されない。学習モデルの事前学習において、第2圧縮部224eが設けられなくてもよい。特に、変動条件の次元数が少ない場合に有効である。
【0177】
また、第1圧縮部222および第2圧縮部224eを、変動条件を基板Wの複数の領域それぞれにおけるノズルの滞在時間に変換した圧縮データを生成する例を示したが、本発明はこれに限定されない。第1圧縮部222および第2圧縮部224eとして、オートエンコーダーを機械学習させた学習モデルを用いてもよい。
【0178】
(6-3)上記実施の形態において、予測アルゴリズムは、第1畳み込みニューラルネットワークCNN1を含む例が記載されるが、本発明はこれに限定されない。予測アルゴリズムは、第1畳み込みニューラルネットワークCNN1を含まなくてもよい。この場合、変動条件が圧縮された圧縮データが第1全結合ニューラルネットワークNN1に直接入力される。
【0179】
(6-4)変形例における学習装置200Aが用いる予測アルゴリズムとしてCFDモデルを例に示したが、本発明はこれに限定されない。予測アルゴリズムは、処理条件を用いて処理結果を算出するために、物理量を考慮して解析するルールベースのモデルであればよい。
【0180】
(6-5)上述した実施の形態において、図5に示した事前処理条件生成部224が有する仮変動条件生成部224a、事前変動条件決定部224cおよび事前固定条件生成部224gを、図19に示した変形例における生成用変動条件決定部241に置き換えてもよい。
【0181】
(7)実施の形態の総括
(第1項) 本発明の一態様に係る学習装置は、
基板処理装置で実行される処理の処理条件と当該処理の処理結果とを含む第1データセットを取得する実験データ取得部と、
事前処理条件を生成する事前処理条件生成部と、
第2データセットを学習モデルに機械学習させる事前学習部と、
前記事前学習部により機械学習された学習済の前記学習モデルに前記第1データセットを機械学習させる学習モデル生成部とを備え、
前記第2データセットは、前記事前処理条件から予め定められた予測アルゴリズムにより予測される事前処理結果と前記事前処理条件とを含む。
【0182】
第1項に記載の学習装置は、予め定められた予測アルゴリズムにより実験データとは別に事前処理条件と事前処理結果とを生成することができる。この事前処理条件は、基板処理装置が処理を実行するための処理条件が取り得る範囲の全体に渡る複数の処理条件を含めることが可能となる。このため、学習モデルに事前処理条件と事前処理結果とを事前学習させることにより、学習モデルに事前知識を与えることができる。そして、事前知識が与えられた事前学習済の学習モデルが実験データを学習するので、実験データだけを学習した予測アルゴリズムに比較して、精度を向上させることができる。また、実験データの数は、予測アルゴリズムを生成するために必要な数でよいので、学習モデルを機械学習させるための実験データを生成するコストを抑制することができる。これらの結果、低コストで精度の高い学習モデルを生成することが可能な学習装置を提供することが可能になる。
【0183】
(第2項) 第1項に記載の学習装置において、
前記予測アルゴリズムは、前記事前処理条件を予め定められたルールに従って解析するルールベースの予測アルゴリズムである。
【0184】
第2項に記載の学習装置によれば、予測アルゴリズムを、物理量を考慮して解析するルールベースのモデルとするので、基板処理装置に実際に基板を処理させることなく、事前処理条件から事前処理結果を得ることができる。このため、第2データセットを容易に生成することができる。
【0185】
(第3項) 第1項に記載の学習装置において、
前記予測アルゴリズムは、前記事前処理条件に基づいて、前記基板処理装置で前記処理の対象となる基板の径方向に異なる複数の位置それぞれにおける前記基板の温度をシミュレートする第1アルゴリズムと、
前記第1アルゴリズムを用いて予測された前記複数の位置それぞれにおける前記基板の温度に基づいて、前記基板処理装置で実行される処理の前記複数の位置それぞれにおける結果をシミュレートする第2アルゴリズムと、を含む。
【0186】
第3項に記載の学習装置によれば、予測アルゴリズムを、物理量を考慮して解析するルールベースのモデルとするので、基板処理装置に実際に基板を処理させることなく、事前処理条件から事前処理結果を得ることができる。このため、第2データセットを容易に生成することができる。
【0187】
(第4項) 第3項に記載の学習装置において、
前記基板処理装置で実行される処理は、前記基板に処理液を供給して前記基板に形成された被膜を処理する被膜処理であり、
前記第1アルゴリズムは、前記複数の位置それぞれにおける前記処理液の量をシミュレートするアルゴリムと、
前記基板、前記処理液および前記基板を取り囲む空間を含む複数の媒体それぞれの内部の熱の変化と、複数の前記媒体のうち互いに接触する2つの前記媒体間の熱伝導とをシミュレートするアルゴリズムと、を含む。
【0188】
第4項に記載の学習装置によれば、第1アルゴリズムが、処理液の量をシミュレートするアルゴリズムと、複数の媒体それぞれの内部の熱の変化と、互いに接触する2つの媒体間の熱伝導とをシミュレートするアルゴリズムと、を含む。このため、複数の位置それぞれにおける基板の温度の予測の精度を向上させることができる。
【0189】
(第5項) 第1~4項のいずれかに記載の学習装置において、
前記事前処理条件を前記予測アルゴリズムに与えて前記予測アルゴリズムにより算出される予測処理結果と前記事前処理条件とを含むデータセットを前記第2データセットとして生成する第2データセット生成手段を、さらに備える。
【0190】
第5項に記載の学習装置によれば、事前処理条件を予測アルゴリズムに与えて算出される予測処理結果を含む第2データセットが生成されるので、基板処理装置に実際に基板を処理させる必要なく、第2データセットを生成することができる。
【0191】
(第6項) 第1項に記載の学習装置において、
前記第1データセットを用いて、前記処理条件から前記予測アルゴリズムを生成する予測アルゴリズム生成部を、さらに備える。
【0192】
(第7項) 第6項に記載の学習装置において、
前記予測アルゴリズムは、前記第1データセットを機械学習させた学習済のモデルであってもよい。
【0193】
(第8項)第1項~第7項のいずれか一項に記載の学習装置において、
前記基板処理装置は、基板に対する相対位置が経時変化するノズルから基板へと処理液を供給することにより前記処理を実行し、
前記処理条件は、前記基板に対する前記ノズルの相対位置が時間の経過に伴って変化する変動条件を含み、
前記変動条件を圧縮した圧縮データを生成する圧縮部を、さらに備え、
前記学習モデル生成部は、前記圧縮部により前記変動条件から圧縮された前記圧縮データを前記学習モデルに機械学習させてもよい。
【0194】
第8項に記載の学習装置によれば、変動条件の次元数が小さくなるので、学習モデルの汎化性を向上させることができる。
【0195】
(第9項)本発明の他の態様に係る情報処理装置は、
第1項~第7項のいずれかに記載の学習装置で生成された前記学習モデルを用いて前記基板処理装置を管理する情報処理装置であって、
前記学習装置から前記学習モデルを取得する取得部と、
仮の処理条件を前記学習モデルに与えて前記学習モデルにより予測される予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定する処理条件決定部と、を備える。
【0196】
第9項に記載の情報処理装置によれば、事前学習された学習モデルに仮の処理条件を与えて学習モデルにより予測される処理結果が許容条件を満たす場合に、仮の処理条件が基板処理装置を駆動するための処理条件に決定される。このため、許容条件を満たす処理結果に対して複数の仮の処理条件を決定することができる。その結果、複雑なプロセスを経て得られる処理結果に対して複数の処理条件を提示することが可能になる。
【0197】
(第10項) 本発明のさらに他の態様に係る基板処理装置は、第9項に記載の情報処理装置を備える。
【0198】
第10項に記載の基板処理装置によれば、基板を処理する複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能になる。
【0199】
(第11項)本発明のさらに他の態様に係る学習方法は、
基板処理装置で実行される処理の処理条件と当該処理の処理結果とを含む第1データセットを取得するステップと、
前記基板処理装置に前記処理を実行させるための事前処理条件を生成するステップと、
第2データセットを学習モデルに機械学習させる事前学習ステップと、
前記事前学習ステップにおいて機械学習された学習済の前記学習モデルに前記第1データセットを機械学習させる学習モデル生成ステップと、を備え、
前記第2データセットは、前記事前処理条件に基づいて予め定められた予測アルゴリズムにより予測される事前処理結果と前記事前処理条件とを含む。
【0200】
第11項に記載の学習方法によれば、事前知識が与えられた事前学習済の学習モデルが実験データを学習するので、実験データだけを学習した予測アルゴリズムに比較して、精度を向上させることができる。また、実験データの数は、予測アルゴリズムを生成するために必要な数でよいので、学習モデルを機械学習させるための実験データを生成するコストを抑制することができる。
【0201】
(第12項) 本発明のさらに他の態様に係る処理条件決定方法は、請求項10に記載の学習方法を実行する学習装置により生成された前記学習モデルを用いて前記基板処理装置を管理する情報処理装置で実行される処理条件決定方法であって、
前記学習装置から前記学習モデルを取得する取得ステップと、
仮の処理条件を前記学習モデルに与えて前記学習モデルにより予測される予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定する処理条件決定ステップと、を備える。
【0202】
第12項に記載の処理条件決定方法によれば、複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能な処理条件決定方法を提供することができる。
【符号の説明】
【0203】
1…基板処理システム,10…制御装置,100…情報処理装置,110…予測器受信部,120…処理条件決定部,130…予測部,140…評価部,150…処理条件送信部,200…学習装置,210…実験データ取得部,220…予測器生成部,221…データ取得部,222…第1圧縮部,223…予測アルゴリズム生成部,224…事前処理条件生成部,224a…仮変動条件生成部,224c…事前変動条件決定部,224e…第2圧縮部,224g…事前固定条件生成部,225…予測器生成部,225a…事前処理結果予測部,225c…事前学習部,225e…学習モデル生成部,230…予測器送信部,300…基板処理装置,301…ノズル移動機構,303…ノズルモータ,305…ノズルアーム,311…ノズル,SC…スピンチャック,SL…基準線,SM…スピンモータ,W…基板,WU…基板処理ユニット,200A…学習装置,224A…事前処理条件生成部,232…処理量予測部,241…生成用変動条件決定部,242…変換部,243…回数分類部,244…分類部,245…変動条件選定部,246…固定条件決定部,247…事前処理条件決定部

図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24