(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024124092
(43)【公開日】2024-09-12
(54)【発明の名称】学習装置、情報処理装置、基板処理装置、学習モデル生成方法および処理条件決定方法
(51)【国際特許分類】
H01L 21/306 20060101AFI20240905BHJP
H01L 21/02 20060101ALI20240905BHJP
【FI】
H01L21/306 J
H01L21/02 Z
【審査請求】未請求
【請求項の数】13
【出願形態】OL
(21)【出願番号】P 2023032024
(22)【出願日】2023-03-02
(71)【出願人】
【識別番号】000207551
【氏名又は名称】株式会社SCREENホールディングス
(74)【代理人】
【識別番号】100108523
【弁理士】
【氏名又は名称】中川 雅博
(74)【代理人】
【識別番号】100125704
【弁理士】
【氏名又は名称】坂根 剛
(74)【代理人】
【識別番号】100187931
【弁理士】
【氏名又は名称】澤村 英幸
(72)【発明者】
【氏名】▲徳▼山 真裕
【テーマコード(参考)】
5F043
【Fターム(参考)】
5F043BB27
5F043DD13
5F043EE07
5F043EE08
5F043EE40
(57)【要約】
【課題】 処理条件から処理結果を推測する精度を向上した学習モデルを生成する。
【解決手段】 学習装置は、被膜が形成された基板に処理液を供給することにより被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得部221と、基板処理装置を処理条件で駆動して被膜の処理を行った後に、基板の径方向に異なる複数の位置それぞれにおける被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得部222と、第1処理結果を統計処理して統計値を算出する統計値算出部223と、統計値を用いて第1処理結果を第2処理結果に変換する変換部224と、処理条件と第2処理結果とを機械学習して第1学習モデルを生成する第1学習モデル生成部225と、処理条件と統計値とを機械学習して第2学習モデルを生成する第2学習モデル生成部226とを備える。
【選択図】
図7
【特許請求の範囲】
【請求項1】
被膜が形成された基板に処理液を供給することにより前記被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得部と、
前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得部と、
前記第1処理結果を統計処理して統計値を算出する統計値算出部と、
前記統計値を用いて前記第1処理結果を第2処理結果に変換する変換部と、
前記処理条件と前記第2処理結果とを機械学習して第1学習モデルを生成する第1学習モデル生成部と、
前記処理条件と前記統計値とを機械学習して第2学習モデルを生成する第2学習モデル生成部とを備えた、学習装置。
【請求項2】
前記処理条件は、時間の経過に伴って変動する変動条件と、前記変動条件以外の固定条件と、を含み、
前記第1学習モデルは、前記処理条件のうち前記変動条件が入力される第1畳み込みニューラルネットワークと、
前記第1畳み込みニューラルネットワークの出力と前記処理条件のうち前記固定条件が入力される第1全結合ニューラルネットワークと、
前記第1全結合ニューラルネットワークの出力が入力され、前記第2処理結果を出力する第2畳み込みニューラルネットワークと、を含み、
前記第2学習モデルは、前記処理条件のうち前記変動条件が入力される第3畳み込みニューラルネットワークと、
前記第3畳み込みニューラルネットワークの出力と前記処理条件のうち前記固定条件が入力され、前記統計値を出力する第2全結合ニューラルネットワークと、を含む、請求項1に記載の学習装置。
【請求項3】
前記第1畳み込みニューラルネットワークと前記第3畳み込みニューラルネットワークとは、同じフィルターを有する、請求項2に記載の学習装置。
【請求項4】
被膜が形成された基板に処理液を供給することにより前記被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得部と、
前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得部と、
前記第1処理結果を統計処理して統計値を算出する統計値算出部と、
前記統計値を用いて前記第1処理結果を第2処理結果に変換する変換部と、
説明変数としての前記処理条件と、目的変数としての前記第2処理結果および前記統計値と、を含む学習用データを機械学習してマルチタスク学習モデルを生成するマルチタスク学習モデル生成部と、を備えた学習装置。
【請求項5】
前記処理条件は、時間の経過に伴って変動する変動条件と、前記変動条件以外の固定条件と、を含み、
前記マルチタスク学習モデルは、前記処理条件のうち前記変動条件が入力される第1畳み込みニューラルネットワークと、
前記第1畳み込みニューラルネットワークの出力と前記処理条件のうち前記固定条件とが入力される第1全結合ニューラルネットワークと、
前記第1全結合ニューラルネットワークの出力の一部が入力され、前記第2処理結果を出力する第2畳み込みニューラルネットワークと、
前記第1全結合ニューラルネットワークの出力の他の部分が入力され、前記統計値を出力する第2全結合ニューラルネットワークと、を含む、請求項4に記載の学習装置。
【請求項6】
前記基板処理装置は、基板に処理液を供給するノズルを移動させることにより基板に前記処理液を供給し、
前記変動条件は、時間の経過に伴って変動する前記ノズルの基板に対する相対位置を示すノズル移動条件を含む、請求項2、3または5のいずれか一項に記載の学習装置。
【請求項7】
基板処理装置を管理する情報処理装置であって、
前記基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、前記被膜の処理をし、
前記基板処理装置により前記被膜の処理をされる前に前記基板に形成された前記被膜について前記被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、前記基板処理装置を駆動するための処理条件を決定する処理条件決定部を備え、
前記予測器は、前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で前記第1処理結果を変換した第2処理結果と、前記処理条件と、を機械学習することにより生成された第1学習モデルと、
前記処理条件と前記統計値とを機械学習することにより生成された第2学習モデルと、を備え、
前記処理条件決定部は、仮の処理条件を前記第1学習モデルに与えて推測される第2予測処理結果と、前記仮の処理条件を前記第2学習モデルに与えて推測される予測統計値とから第1予測処理結果を復元する復元部を含み、
前記復元部により復元された前記第1予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定する、情報処理装置。
【請求項8】
基板処理装置を管理する情報処理装置であって、
前記基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、前記被膜の処理をし、
前記基板処理装置により前記被膜の処理をされる前に前記基板に形成された前記被膜について前記被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、前記基板処理装置を駆動するための処理条件を決定する処理条件決定部を備え、
前記予測器は、前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で前記第1処理結果を変換した第2処理結果および前記統計値を目的変数として含みかつ前記処理条件を説明変数として含む学習用データを機械学習することにより生成されたマルチタスク学習モデルと、を備え、
前記処理条件決定部は、仮の処理条件を前記マルチタスク学習モデルに与えて推測される第2予測処理結果と予測統計値とから第1予測処理結果を復元する復元部を含み、
前記復元部により復元された前記第1予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定する、情報処理装置。
【請求項9】
請求項7または8に記載の情報処理装置を備えた、基板処理装置。
【請求項10】
被膜が形成された基板に処理液を供給することにより前記被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得ステップと、
前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得ステップと、
前記第1処理結果を統計処理して統計値を算出する統計値算出ステップと、
前記統計値を用いて前記第1処理結果を第2処理結果に変換する変換ステップと、
前記処理条件と前記第2処理結果とを機械学習して第1学習モデルを生成する第1学習モデル生成ステップと、
前記処理条件と前記統計値とを機械学習して第2学習モデルを生成する第2学習モデル生成ステップとを、学習装置に実行させる学習モデル生成方法。
【請求項11】
被膜が形成された基板に処理液を供給することにより前記被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得ステップと、
前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得ステップと、
前記第1処理結果を統計処理して統計値を算出する統計値算出ステップと、
前記統計値を用いて前記第1処理結果を第2処理結果に変換する変換ステップと、
前記処理条件と、前記第2処理結果と、前記統計値と、を含む学習用データを機械学習してマルチタスク学習モデルを生成するマルチタスク学習モデル生成ステップと、を学習装置に実行させる学習モデル生成方法。
【請求項12】
基板処理装置を管理する情報処理装置で実行される処理条件決定方法であって、
前記基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、前記被膜の処理をし、
前記基板処理装置により前記被膜の処理をされる前の前記基板に形成された前記被膜について前記被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、前記基板処理装置を駆動するための処理条件を決定する処理条件決定ステップを含み、
前記予測器は、前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で前記第1処理結果を変換した第2処理結果と、前記処理条件と、を機械学習することにより生成された第1学習モデルと、
前記処理条件と前記統計値とを機械学習することにより生成された第2学習モデルと、を備え、
前記処理条件決定ステップは、仮の処理条件を前記第1学習モデルに与えて推測される第2予測処理結果と、前記仮の処理条件を前記第2学習モデルに与えて推測される予測統計値とから第1予測処理結果を復元する復元ステップと、
前記復元ステップにおいて復元された前記第1予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定するステップと、を含む、処理条件決定方法。
【請求項13】
基板処理装置を管理する情報処理装置で実行される処理条件決定方法であって、
前記基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、前記被膜の処理をし、
前記基板処理装置により前記被膜の処理をされる前に前記基板に形成された前記被膜について前記被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、前記基板処理装置を駆動するための処理条件を決定する処理条件決定ステップを、含み、
前記予測器は、前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で前記第1処理結果を変換した第2処理結果と、前記統計値と、前記処理条件と、を含む学習用データを機械学習することにより生成されたマルチタスク学習モデルと、を備え、
前記処理条件決定ステップは、仮の処理条件を前記マルチタスク学習モデルに与えて推測される第2予測処理結果と予測統計値とから第1予測処理結果を復元する復元ステップと、
前記復元ステップにおいて復元された前記第1予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定するステップと、を含む処理条件決定方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習装置、情報処理装置、基板処理装置、学習モデル生成方法および処理条件決定方法に関する。
【背景技術】
【0002】
半導体製造プロセスの一つに洗浄プロセスがある。洗浄プロセスでは、基板に薬液を供給するエッチング処理によって、基板に形成されている被膜の膜厚調整が行なわれる。この膜厚調整においては、基板の面全体について均一にエッチングが進行するようにエッチング処理すること、あるいは、基板の面をエッチング処理によって平坦にすることが重要である。エッチング液をノズルから基板の一部に吐出する場合、ノズルを基板に対して径方向に移動させる必要がある。
【0003】
特許文献1には、エッチングノズルから基板にエッチング液を吐出することにより、基板に対してエッチング処理が可能な液処理装置が記載されている。基板の中央領域のエッチング処理を行いつつ、ウエハの面内温度分布を均一にするために、吐出されたエッチング液がウエハの中心を通る中央側の第1位置と、この中央側の位置よりもウエハの周縁側の第2位置との間でエッチングノズルを繰り返し往復させながらエッチング液を吐出する例が記載されている。
【0004】
エッチング処理は、ノズルを移動させる動作の他に、エッチング液の濃度、温度、基板の回転数等の違いによって被膜が処理される処理量が異なる複雑なプロセスである。このため、人工知能を利用した学習モデルを機械学習して、学習済の学習モデルに処理量を推論させることが考えられる。
【先行技術文献】
【特許文献】
【0005】
【発明の概要】
【発明が解決しようとする課題】
【0006】
エッチング処理により被膜が処理される処理量は、ノズルを移動させる動作、エッチング液の濃度、エッチング液の温度、基板の回転数といった処理条件の違いによって異なる。処理量は多様な処理条件に影響されるため、複数の処理条件について得られた複数の処理量の値の大きさの程度(スケール)の違いが、大きくなる場合がある。このため、学習モデルの機械学習に用いる学習用データとしてエッチング処理により被膜が処理される処理量の複数を用いる場合、複数の処理量のスケールの差が比較的に大きくなるという問題がある。この結果、スケールの差が大きい複数の処理量のそれぞれを機械学習により生成される学習済モデルに適切に反映するうえで問題がある。
【0007】
本発明の目的の1つは、基板処理装置が実行する被膜の処理をモデル化した学習モデルの精度を向上させることが可能な学習装置および学習モデル生成方法を提供することである。
【0008】
また、本発明の他の目的は、基板を処理する複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能な情報処理装置、これを備えた基板処理装置および処理条件決定方法を提供することである。
【課題を解決するための手段】
【0009】
本発明の一局面に従う学習装置は、被膜が形成された基板に処理液を供給することにより被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得部と、基板処理装置を処理条件で駆動して被膜の処理を行った後に、基板の径方向に異なる複数の位置それぞれにおける被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得部と、第1処理結果を統計処理して統計値を算出する統計値算出部と、統計値を用いて第1処理結果を第2処理結果に変換する変換部と、処理条件と第2処理結果とを機械学習して第1学習モデルを生成する第1学習モデル生成部と、処理条件と統計値とを機械学習して第2学習モデルを生成する第2学習モデル生成部とを備える。
【0010】
本発明の他の局面に従う学習装置は、被膜が形成された基板に処理液を供給することにより被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得部と、基板処理装置を処理条件で駆動して被膜の処理を行った後に、基板の径方向に異なる複数の位置それぞれにおける被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得部と、第1処理結果を統計処理して統計値を算出する統計値算出部と、統計値を用いて第1処理結果を第2処理結果に変換する変換部と、処理条件と、第2処理結果と、統計値と、を含む学習用データを機械学習してマルチタスク学習モデルを生成するマルチタスク学習モデル生成部と、を備える。
【0011】
本発明のさらに他の局面に従う情報処理装置は、基板処理装置を管理する情報処理装置であって、基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、被膜の処理をし、基板処理装置により被膜の処理をされる前に基板に形成された被膜について被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、基板処理装置を駆動するための処理条件を決定する処理条件決定部を備え、予測器は、基板処理装置を処理条件で駆動して被膜の処理を行った後に、基板の径方向に異なる複数の位置それぞれにおける被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で第1処理結果を変換した第2処理結果と、処理条件と、を機械学習することにより生成された第1学習モデルと、処理条件と統計値とを機械学習することにより生成された第2学習モデルと、を備え、処理条件決定部は、仮の処理条件を第1学習モデルに与えて推測される第2予測処理結果と、仮の処理条件を第2学習モデルに与えて推測される予測統計値とから第1予測処理結果を復元する復元部を含み、復元部により復元された第1予測処理結果が許容条件を満たす場合に仮の処理条件を、基板処理装置を駆動するための処理条件に決定する。
【0012】
本発明のさらに他の局面に従う情報処理装置は、基板処理装置を管理する情報処理装置であって、基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、被膜の処理をし、基板処理装置により被膜の処理をされる前の基板に形成された被膜について被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、基板処理装置を駆動するための処理条件を決定する処理条件決定部を備え、予測器は、基板処理装置を処理条件で駆動して被膜の処理を行った後に、基板の径方向に異なる複数の位置それぞれにおける被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で第1処理結果を変換した第2処理結果および統計値を目的変数として含みかつ処理条件を説明変数として含む学習用データを機械学習することにより生成されたマルチタスク学習モデルと、を備え、処理条件決定部は、仮の処理条件をマルチタスク学習モデルに与えて推測される第2予測処理結果と予測統計値とから第1予測処理結果を復元する復元部を含み、復元部により復元された第1予測処理結果が許容条件を満たす場合に仮の処理条件を、基板処理装置を駆動するための処理条件に決定する。
【0013】
本発明のさらに他の局面に従う基板処理装置は、上記の情報処理装置を備える。
【0014】
本発明のさらに他の局面に従う学習モデル生成方法は、被膜が形成された基板に処理液を供給することにより被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得ステップと、基板処理装置を処理条件で駆動して被膜の処理を行った後に、基板の径方向に異なる複数の位置それぞれにおける被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得ステップと、第1処理結果を統計処理して統計値を算出する統計値算出ステップと、統計値を用いて第1処理結果を第2処理結果に変換する変換ステップと、処理条件と第2処理結果とを機械学習して第1学習モデルを生成する第1学習モデル生成ステップと、処理条件と統計値とを機械学習して第2学習モデルを生成する第2学習モデル生成ステップとを、学習装置に実行させる。
【0015】
本発明のさらに他の局面に従う学習モデル生成方法は、被膜が形成された基板に処理液を供給することにより被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得ステップと、基板処理装置を処理条件で駆動して被膜の処理を行った後に、基板の径方向に異なる複数の位置それぞれにおける被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得ステップと、第1処理結果を統計処理して統計値を算出する統計値算出ステップと、統計値を用いて第1処理結果を第2処理結果に変換する変換ステップと、処理条件と、第2処理結果と、統計値と、を含む学習用データを機械学習してマルチタスク学習モデルを生成するマルチタスク学習モデル生成ステップと、を学習装置に実行させる。
【0016】
本発明のさらに他の局面に従う処理条件決定方法は、基板処理装置を管理する情報処理装置で実行される処理条件決定方法であって、基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、被膜の処理をし、基板処理装置により被膜の処理をされる前の基板に形成された被膜について被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、基板処理装置を駆動するための処理条件を決定する処理条件決定ステップを含み、予測器は、基板処理装置を処理条件で駆動して被膜の処理を行った後に、基板の径方向に異なる複数の位置それぞれにおける被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で第1処理結果を変換した第2処理結果と、処理条件と、を機械学習することにより生成された第1学習モデルと、処理条件と統計値とを機械学習することにより生成された第2学習モデルと、を備え、処理条件決定ステップは、仮の処理条件を第1学習モデルに与えて推測される第2予測処理結果と、仮の処理条件を第2学習モデルに与えて推測される予測統計値とから第1予測処理結果を復元する復元ステップと、復元ステップにおいて復元された第1予測処理結果が許容条件を満たす場合に仮の処理条件を、基板処理装置を駆動するための処理条件に決定するステップと、を含む。
【0017】
本発明のさらに他の局面に従う処理条件決定方法は、基板処理装置を管理する情報処理装置で実行される処理条件決定方法であって、基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、被膜の処理をし、基板処理装置により被膜の処理をされる前の基板に形成された被膜について被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、基板処理装置を駆動するための処理条件を決定する処理条件決定ステップを、含み、予測器は、基板処理装置を処理条件で駆動して被膜の処理を行った後に、基板の径方向に異なる複数の位置それぞれにおける被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で第1処理結果を変換した第2処理結果と、統計値と、処理条件と、を含む学習用データを機械学習することにより生成されたマルチタスク学習モデルと、を備え、処理条件決定ステップは、仮の処理条件をマルチタスク学習モデルに与えて推測される第2予測処理結果と予測統計値とから第1予測処理結果を復元する復元ステップと、復元ステップにおいて復元された第1予測処理結果が許容条件を満たす場合に仮の処理条件を、基板処理装置を駆動するための処理条件に決定するステップと、を含む。
【発明の効果】
【0018】
基板処理装置が実行する被膜の処理をモデル化した学習モデルの精度を向上させることが可能な学習装置および学習モデル生成方法を提供することができる。また、基板を処理する複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能な情報処理装置、これを備えた基板処理装置および処理条件決定方法を提供することが可能になる。
【図面の簡単な説明】
【0019】
【
図1】本発明の一実施の形態に係る基板処理システムの構成を説明するための図である。
【
図4】基板処理システムの機能的な構成の一例を示す図である。
【
図5】予測器生成部が有する機能の一例を示す図である。
【
図7】基板処理装置の被膜の処理により得られる第1処理結果の一例を示す図である。
【
図11】予測部が有する機能の一例を示す図である。
【
図12】学習処理の流れの一例を示すフローチャートである。
【
図13】予測器生成の流れの一例を示すフローチャートである。
【
図14】処理条件決定処理の流れの一例を示すフローチャートである。
【
図15】変形例における予測器生成部が有する機能の一例を示す図である。
【
図16】マルチタスク学習モデルの一例を説明する図である。
【発明を実施するための形態】
【0020】
以下、本発明の一実施の形態に係る基板処理システムについて図面を参照しながら詳細に説明する。以下の説明において、基板とは、半導体基板(半導体ウェハ)、液晶表示装置もしくは有機EL(Electro Luminescence)表示装置等のFPD(Flat Panel Display)用基板、光ディスク用基板、磁気ディスク用基板、光磁気ディスク用基板、フォトマスク用基板、セラミック基板または太陽電池用基板等をいう。
【0021】
(1)基板処理システムの全体構成
図1は、本発明の一実施の形態に係る基板処理システムの構成を説明するための図である。
図1の基板処理システム1は、情報処理装置100、学習装置200および基板処理装置300を含む。学習装置200は、例えばサーバであり、情報処理装置100は、例えばパーソナルコンピューターである。
【0022】
学習装置200および情報処理装置100は、基板処理装置300を管理するために用いられる。なお、学習装置200および情報処理装置100が管理する基板処理装置300は、1台に限定されるものではなく、基板処理装置300の複数を管理してもよい。
【0023】
本実施の形態に係る基板処理システム1において、情報処理装置100、学習装置200および基板処理装置300は、互いに有線または無線の通信線または通信回線網により接続される。情報処理装置100、学習装置200および基板処理装置300は、それぞれがネットワークに接続され、互いにデータの送受信が可能である。ネットワークは、例えば、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)が用いられる。また、ネットワークは、インターネットであってもよい。また、情報処理装置100と基板処理装置300とは、専用の通信回線網で接続されてもよい。ネットワークの接続形態は、有線接続であってもよいし、無線接続であってもよい。
【0024】
なお、学習装置200は、基板処理装置300および情報処理装置100と、必ずしも通信線または通信回線網で接続される必要はない。この場合、基板処理装置300で生成されたデータが記録媒体を介して学習装置200に渡されてもよい。また、学習装置200で生成されたデータが記録媒体を介して情報処理装置100に渡されてもよい。
【0025】
基板処理装置300には、図示しない表示装置、音声出力装置および操作部が設けられる。基板処理装置300は、基板処理装置300の予め定められた処理条件(処理レシピ)に従って運転される。
【0026】
(2)基板処理装置の概要
基板処理装置300は、制御装置10と、複数の基板処理ユニットWUを備える。制御装置10は、複数の基板処理ユニットWUを制御する。複数の基板処理ユニットWUは、被膜が形成された基板Wに処理液を供給することにより基板Wの被膜の処理を行う。本実施の形態において、処理対象の基板Wは、直径300mmを有するが、本発明は、これに限定されるものではない。処理液はエッチング液を含み、基板処理ユニットWUはエッチング処理を実行する。エッチング液は、薬液である。エッチング液は、例えば、フッ硝酸(フッ酸(HF)と硝酸(HNO3)との混合液)、フッ酸、バファードフッ酸(BHF)、フッ化アンモニウム、HFEG(フッ酸とエチレングリコールとの混合液)、または、燐酸(H3PO4)である。
【0027】
基板処理ユニットWUは、スピンチャックSCと、スピンモータSMと、ノズル311と、ノズル移動機構301と、を備える。スピンチャックSCは、基板Wを水平に保持する。基板Wは、スピンモータSMの第1回転軸AX1と基板Wの中心とが一致するようにスピンチャックSCに保持される。スピンモータSMは、第1回転軸AX1を有する。第1回転軸AX1は、上下方向に延びる。スピンチャックSCは、スピンモータSMの第1回転軸AX1の上端部に取り付けられる。スピンモータSMが回転すると、スピンチャックSCが第1回転軸AX1を中心として回転する。スピンモータSMは、ステッピングモータである。スピンチャックSCに保持された基板Wは、第1回転軸AX1を中心として回転する。このため、基板Wの回転速度は、ステッピングモータの回転速度と同じである。なお、スピンモータの回転速度を示す回転速度信号を生成するエンコーダを設ける場合、エンコーダにより生成される回転速度信号から基板Wの回転速度が取得されてもよい。この場合、スピンモータSMは、ステッピングモータ以外のモータを用いることができる。
【0028】
ノズル311は、スピンチャックSCに保持された基板Wの表面(上面)にエッチング液を供給する。ノズル311には、図示しないエッチング液供給部からエッチング液が供給される。ノズル311は、回転中の基板Wの表面に向けてエッチング液を吐出する。
【0029】
ノズル移動機構301は、略水平方向にノズル311を移動させる。具体的には、ノズル移動機構301は、第2回転軸AX2を有するノズルモータ303と、ノズルアーム305と、を有する。ノズルモータ303は、第2回転軸AX2が略鉛直方向に沿うように配置される。ノズルアーム305は、直線状に延びる長手形状を有する。ノズルアーム305の一端は、ノズルアーム305の長手方向が第2回転軸AX2とは異なる方向となるように、第2回転軸AX2の上端に取り付けられる。ノズルアーム305の他端には、エッチング液の吐出口が下方を向くようにノズル311が取り付けられる。
【0030】
ノズルモータ303が動作すると、ノズルアーム305は第2回転軸AX2を中心として水平面内で回転する。これにより、ノズルアーム305の他端に取り付けられたノズル311は、第2回転軸AX2を中心として水平方向に移動する(旋回する)。ノズル311は、水平方向に移動しながら基板Wに向けてエッチング液を吐出する。ノズルモータ303は、例えば、ステッピングモータである。
【0031】
制御装置10は、CPU(中央演算処理装置)およびメモリを含み、CPUがメモリに記憶されたプログラムを実行することにより、基板処理装置300の全体を制御する。制御装置10は、スピンモータSMおよびノズルモータ303を制御する。
【0032】
学習装置200には、基板処理装置300から実験データが入力される。学習装置200は、実験データを用いて第1予測器および第2予測器を含む予測器を生成し、予測器を情報処理装置100に出力する。
【0033】
情報処理装置100は、予測器を用いて、基板処理装置300がこれから処理する予定の基板に対して、基板を処理するための処理条件を決定する。情報処理装置100は、決定された処理条件を基板処理装置300に出力する。
【0034】
図2は、情報処理装置の構成の一例を示す図である。
図2を参照して、情報処理装置100は、CPU101、RAM(ランダムアクセスメモリ)102、ROM(リードオンリメモリ)103、記憶装置104、操作部105、表示装置106および入出力I/F(インターフェイス)107により構成される。CPU101、RAM102、ROM103、記憶装置104、操作部105、表示装置106および入出力I/F107はバス108に接続される。
【0035】
RAM102は、CPU101の作業領域として用いられる。ROM103にはシステムプログラムが記憶される。記憶装置104は、ハードディスクまたは半導体メモリ等の記憶媒体を含み、プログラムを記憶する。プログラムは、ROM103または他の外部記憶装置に記憶されてもよい。
【0036】
記憶装置104には、CD-ROM109が着脱可能である。CPU101が実行するプログラムを記憶する記録媒体としては、CD-ROM109に限られず、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programmable ROM)などの半導体メモリ等の媒体でもよい。さらに、CPU101がネットワークに接続されたコンピューターからプログラムをダウンロードして記憶装置104に記憶する、または、ネットワークに接続されたコンピューターがプログラムを記憶装置104に書込みするようにして、記憶装置104に記憶されたプログラムをRAM102にロードしてCPU101で実行するようにしてもよい。ここでいうプログラムは、CPU101により直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
【0037】
操作部105は、キーボード、マウスまたはタッチパネル等の入力デバイスである。使用者は、操作部105を操作することにより、情報処理装置100に所定の指示を与えることができる。表示装置106は、液晶表示装置等の表示デバイスであり、使用者による指示を受け付けるためのGUI(Graphical User Interface)等を表示する。入出力I/F107は、ネットワークに接続される。
【0038】
図3は、学習装置の構成の一例を示す図である。
図3を参照して、学習装置200は、CPU201、RAM202、ROM203、記憶装置204、操作部205、表示装置206および入出力I/F207により構成される。CPU201、RAM202、ROM203、記憶装置204、操作部205、表示装置206および入出力I/F207はバス208に接続される。
【0039】
RAM202は、CPU201の作業領域として用いられる。ROM203にはシステムプログラムが記憶される。記憶装置204は、ハードディスクまたは半導体メモリ等の記憶媒体を含み、プログラムを記憶する。プログラムは、ROM203または他の外部記憶装置に記憶されてもよい。記憶装置204には、CD-ROM209が着脱可能である。
【0040】
操作部205は、キーボード、マウスまたはタッチパネル等の入力デバイスである。入出力I/F207は、ネットワークに接続される。
【0041】
(3)基板処理システムの機能構成
図4は、一実施の形態に係る基板処理システムの機能的な構成の一例を示す図である。
図4を参照して、基板処理装置300が備える制御装置10は、基板処理ユニットWUを制御して、処理時間において、処理条件に従って基板Wに対して被膜の処理を行う。処理時間は、基板に対する被膜の処理に対して定められる時間である。本実施の形態において、処理時間は、基板Wにノズル311がエッチング液を吐出している間の時間である。処理条件は、基板処理ユニットWUが被膜の処理を実行する際に用いる条件である。
【0042】
処理条件は、エッチング液の温度、エッチング液の濃度、エッチング液の流量、基板Wの回転数およびノズル311の位置を含む。エッチング液の濃度は、複数の薬液の混合比で示される。ノズル311の位置は、被膜の処理が実行される間の複数の時点それぞれおけるノズル311と基板Wとの相対位置で示される。ノズル311と基板との相対位置は、ノズルモータ303の回転角度で示される。
【0043】
処理条件は、時間の経過に伴って変動しない固定条件および時間の経過に伴って変動する変動条件を含む。本実施の形態において、固定条件がエッチング液の温度、エッチング液の濃度、エッチング液の流量および基板Wの回転数であり、変動条件がノズル311と基板Wとの相対位置である。
【0044】
学習装置200は、実験データ取得部210と、予測器生成部220と、予測器送信部230と、を含む。学習装置200が備える機能は、学習装置200が備えるCPU201がRAM202に格納された学習モデル生成プログラムを実行することにより、CPU201により実現される。
【0045】
実験データ取得部210は、基板処理装置300から実験データを取得する。実験データは、処理条件と、基板処理装置300が当該処理条件で基板Wに被膜の処理を行った結果を示す第1処理結果とを含む。
【0046】
予測器生成部220には、実験データ取得部210から実験データが入力される。予測器生成部220は、実験データを用いて予測器を生成し、生成された予測器を予測器送信部230に出力する。予測器生成部220の詳細については、後述する。予測器送信部230は、予測器生成部220により生成された予測器を情報処理装置100に送信する。
【0047】
情報処理装置100は、予測器受信部110と、処理条件決定部120と、予測部130と、評価部140と、処理条件送信部150と、を含む。情報処理装置100が備える機能は、情報処理装置100が備えるCPU101がRAM102に格納された処理条件決定プログラムを実行することにより、CPU101により実現される。
【0048】
予測器受信部110は、学習装置200から送信される予測器を受信し、受信された予測器を予測部130に出力する。処理条件決定部120は、基板処理装置300がこれから処理の対象とする基板Wに対する処理条件を決定し、処理条件に含まれる変動条件と処理条件に含まれる固定条件とを予測部130に出力する。
【0049】
予測部130は、変動条件と固定条件とから予測器を用いて第1予測処理結果を推測する。予測部130は、処理条件決定部120から入力される変動条件と、固定条件とを予測器に入力し、予測器が出力する第1予測処理結果を評価部140に出力する。
【0050】
評価部140は、予測部130から入力される第1予測処理結果を評価し、評価結果を処理条件決定部120に出力する。詳細には、評価部140は、基板処理装置300が処理対象とする予定の基板Wの処理前の膜厚特性を取得する。評価部140は、予測部130から入力される第1予測処理結果と、基板Wの処理前の膜厚特性とからエッチング処理後に予測される膜厚特性を算出し、目標とする膜厚特性と比較する。比較の結果が評価基準を満たしていれば、処理条件決定部120により決定された処理条件を処理条件送信部150に出力する。例えば、評価部140は、乖離特性を算出し、乖離特性が評価基準を満たしているか否かが判断される。乖離特性は、エッチング処理後の基板Wの膜厚特性と目標の膜厚特性との差分である。評価基準は、任意に定めることができる。例えば、評価基準は、乖離特性において差分の最大値が閾値以下であるとしてもよいし、差分の平均が閾値以下であるとしてもよい。
【0051】
処理条件送信部150は、処理条件決定部120により決定された処理条件を、基板処理装置300の制御装置10に送信する。基板処理装置300は、処理条件に従って基板Wを処理する。
【0052】
評価部140は、評価結果が評価基準を満たしていない場合は、評価結果を処理条件決定部120に出力する。評価結果は、エッチング処理後に予測される膜厚特性またはエッチング処理後に予測される膜厚特性と目標の膜厚特性との差分を含む。
【0053】
処理条件決定部120は、評価部140から評価結果が入力されることに応じて、予測部130に推測させるための新たな処理条件を決定する。処理条件決定部120は、実験計画法、ペアワイズ法またはベイズ推定等を用いて、予め準備された複数の変動条件のうちから1つを選択し、選択された変動条件と固定条件とを含む処理条件を予測部130に推測させるための新たな処理条件として決定する。
【0054】
処理条件決定部120は、ベイズ推定を用いて処理条件を探索してもよい。評価部140により複数の評価結果が出力される場合、処理条件と評価結果との組が複数となる。複数の組それぞれにおける第1予測処理結果の傾向から被膜の膜厚が均一となる処理条件またはエッチング処理後に予測される膜厚特性と目標の膜厚特性との差分が最小となる処理条件を探索する。
【0055】
具体的には、処理条件決定部120は、目的関数を最小化するように処理条件を探索する。目的関数は、被膜の膜厚の均一性を示す関数または被膜の膜厚特性と目標膜厚特性との一致性を示す関数である。例えば、目的関数は、エッチング処理後に予測される膜厚特性と目標の膜厚特性との差分をパラメータで示した関数である。ここでのパラメータは、対応する変動条件である。対応する変動条件は、予測器が第1予測処理結果を推測するために用いた変動条件である。処理条件決定部120は、複数の変動条件のうちから探索により決定されたパラメータである変動条件を選択し、選択された変動条件と固定条件とを含む新たな処理条件を決定する。
【0056】
次に、予測器生成部220の詳細な構成について説明する。
図5は、予測器生成部が有する機能の一例を示す図である。予測器生成部220は、処理条件取得部221と、第1処理結果取得部222と、統計値算出部223と、変換部224と、第1学習モデル生成部225と、第2学習モデル生成部226とを含む。
【0057】
処理条件取得部221は、実験データ取得部210から処理条件を取得する。処理条件取得部221は、処理条件を第1学習モデル生成部225および第2学習モデル生成部226に出力する。処理条件は、固定条件と、変動条件と、を含む。固定条件は、エッチング液の温度、エッチング液の濃度、エッチング液の流量および基板Wの回転数を含む。変動条件は、被膜の処理が実行される間の複数の時点それぞれにおけるノズル311と基板Wとの相対位置で示される。第1処理結果取得部222は、実験データ取得部210から第1処理結果を取得する。第1処理結果取得部222が取得する第1処理結果は、処理条件取得部221により取得された処理条件で基板処理装置300が被膜の処理を実行することにより得られる基板Wの径方向に異なる複数の位置それぞれにおける被膜の処理前後の膜厚の差である。
【0058】
統計値算出部223は、第1処理結果取得部222により取得された第1処理結果に対して統計処理を行うことにより統計値を算出する。本実施の形態において、統計値は、基板Wの径方向に異なる複数の位置それぞれにおける被膜の処理前後の膜厚の差の平均値である。
【0059】
変換部224には、統計値算出部223から第1処理結果と統計値とが入力される。変換部224は、統計値を用いて第1処理結果を第2処理結果に変換する。本実施の形態においては、変換部224は、第1処理結果を基板Wの径方向に異なる複数の位置それぞれにおける被膜の処理前後の膜厚の差の平均値で除算することにより第2処理結果を算出する。それにより、複数の第2処理結果間におけるスケールの差は、複数の第1処理結果間におけるスケールの差よりも小さくなる。スケールは、第1処理結果の平均値である。なお、スケールは、平均値に限らず、最大値と最小値との差であるレンジで表されてもよいし、平均値および分散で表されてもよい。
【0060】
図6は、第1処理結果を説明するための図である。
図6において、縦軸が膜厚を示し、横軸が基板の半径方向の位置を示す。なお、横軸の原点が基板の中心を示す。基板処理装置300により処理される前の基板Wに形成された膜の膜厚が実線で示される。基板処理装置300により処理条件に従ってエッチング液を塗布する被膜の処理が実行されることにより、基板Wに形成される被膜の膜厚が調整される。基板処理装置300により被膜の処理が実行された後の基板Wに形成された膜の膜厚が点線で示される。
【0061】
基板処理装置300により処理される前の基板Wに形成された膜の膜厚と基板処理装置300により処理された後の基板Wに形成された膜の膜厚との差が第1処理結果(エッチング量)である。換言すれば、第1処理結果は、基板処理装置300の被膜の処理により基板Wの径方向における複数の位置それぞれにおいて減少した膜の厚さを示す。
【0062】
基板処理装置300により形成される膜厚は、基板Wの全面において均一であることが望まれる。このため、基板処理装置300により実行される処理に対して、目標となる目標膜厚が定められる。目標膜厚は、一点鎖線で示される。乖離特性は、基板処理装置300により処理された後の基板Wに形成された膜の膜厚と目標膜厚との差分である。乖離特性は、基板Wの径方向における複数の位置それぞれにおける差分を含む。
【0063】
図7は、基板処理装置300の被膜の処理により得られる第1処理結果の一例を示す図である。
図7の縦軸には、被膜の処理前の基板Wに形成された膜と、被膜の処理後の基板Wに形成された膜との膜厚の差が示される。横軸には、基板Wの径方向における位置が示される。
図7を参照して、基板処理装置300が異なる3つの処理条件で被膜の処理を行った第1処理結果ERa~ERcが示される。第1処理結果ERa~ERcそれぞれは、スケールが異なる。第1処理結果ERa~ERcのスケールの違いは、処理条件の違いに起因する。
【0064】
図8は、第2処理結果の一例を示す図である。
図8には、
図7の第1処理結果ERa~ERcを変換部224により変換した第2処理結果ERA~ERCが示される。第2処理結果においては、ERA~ERCについて縦軸の値のスケールが規格化されている。
図8においては、第2処理結果ERA,ERB,ERC間でスケールが規格化されているため、第2処理結果ERA,ERB,ERC間の縦軸の値のばらつきが、
図7に示した第1処理結果ERa,ERb,ERc間の縦軸の値のばらつきに比較して小さいことがわかる。
【0065】
第1処理結果を教師データとした場合、縦軸の値が大きい条件(膜厚の差が大きい)条件が機械学習において相対的に重視され、縦軸の値が小さい条件(膜厚の差が小さい)条件が機械学習において相対的に軽視されることとなる。一方で、第2処理結果を教師データとした場合、縦軸の値のスケールが規格化されているため、膜厚の差の大小にかかわらず機械学習における重みが比較的同等に反映されて機械学習がなされることとなる。これにより、膜厚差が小さな処理条件も考慮し膜厚差が小さな場合についても精度よく予測できる学習結果を得ることが可能となる。
【0066】
本実施の形態においては、統計値が第1処理結果の平均であるので、第1処理結果ERa,ERb,ERcを各第1処理結果ERa,ERb,ERcの平均値で除算することにより、第2処理結果ERA,ERB,ERCのスケールを1に統一している。
【0067】
図5に戻って、第1学習モデル生成部225は、学習用データを用いて第1学習モデルに機械学習させる。第1学習モデル生成部225には、処理条件取得部221から処理条件が入力され、変換部224から第2処理結果が入力される。学習用データは、説明変数としての入力データと目的変数としての正解データとを含む。入力データは、処理条件に含まれる変動条件と、固定条件と、を含む。正解データは、第2処理結果を含む。第1学習モデル生成部225は、入力データを第1学習モデルに入力し、第1学習モデルが推論する第2予測処理結果と正解データである第2処理結果との差が小さくなるように、第1学習モデルのパラメータを決定する。
【0068】
第1学習モデル生成部225が機械学習させる第1学習モデルはニューラルネットワークを含む。第1学習モデル生成部225は、ニューラルネットワークを構成する複数のパラメータの値を決定する。第1学習モデルは、損失関数を定義し、勾配降下法を用いて損失が小さくなる方向に重みを更新することにより学習する。学習時においては、損失関数の値は正解データである複数の第2処理結果に対してそれぞれ算出され、算出された複数の損失関数の値の平均値が学習モデルの損失と定義される。この損失関数において、正解データとして与えられる第2処理結果のスケールが大きいほど当該第2処理結果に対する損失関数の出力値は大きくなり、逆に、第2処理結果の値のスケールが小さいほど当該第2処理結果に対する損失関数の値は小さくなる。複数の第2処理結果間の値のスケールの差は、複数の第1処理結果間の値のスケールの差よりも小さい。このため、第1学習モデル生成部225は、複数の第2処理結果を第1学習モデルに学習させるので、複数の第1処理結果を学習する場合に比較して、第1学習モデルの精度が向上する。
【0069】
第2学習モデル生成部226は、学習用データを用いて第2学習モデルに機械学習させる。第2学習モデル生成部226には、処理条件取得部221から処理条件が入力され、統計値算出部223から統計値が入力される。学習用データは、説明変数としての入力データと目的変数としての正解データとを含む。入力データは、処理条件に含まれる変動条件および固定条件を含む。正解データは、統計値算出部223により算出された統計値を含む。
【0070】
第2学習モデル生成部226は、入力データを第2学習モデルに入力し、第2学習モデルにより推測された予測統計値と正解データである統計値との差が小さくなるように、第2学習モデルのパラメータを決定する。具体的には、第2学習モデル生成部226は、第2学習モデルに、入力データを入力し、第2学習モデルに予測統計値を推測させる。第2学習モデル生成部226が機械学習させる第2学習モデルはニューラルネットワークを含む。第2学習モデル生成部226は、ニューラルネットワークを構成する複数のパラメータの値を決定する。第2学習モデル生成部226は、第2学習モデルにより推測された予測統計値と、統計値算出部223により算出された統計値との差分を誤差として算出し、算出された誤差が少なくなるように第2学習モデルを学習させる。
【0071】
予測器生成部220は、学習済の第1学習モデルに設定されたパラメータを組み込んだ第1予測器および学習済の第2学習モデルに設定されたパラメータを組み込んだ第2予測器を生成する。第1予測器は、第1学習済モデルに設定されたパラメータを組み込んだ推論プログラムである。第2予測器は、第2学習済モデルに設定されたパラメータを組み込んだ推論プログラムである。
【0072】
図9は、第1学習モデルを説明する図である。
図9を参照して、第1学習モデルは、A1層~C1層が入力側から出力側(上層から下層)に向かってこの順に設けられている。A1層には、第1畳み込みニューラルネットワークCNN1が設けられ、B1層には、第1全結合ニューラルネットワークNN1が設けられ、C1層には、第2畳み込みニューラルネットワークCNN2が設けられる。
【0073】
第1畳み込みニューラルネットワークCNN1には、変動条件が入力される。第1全結合ニューラルネットワークNN1には、第1畳み込みニューラルネットワークCNN1の出力と固定条件とが入力される。第2畳み込みニューラルネットワークCNN2には、第1全結合ニューラルネットワークNN1の出力が入力される。
【0074】
第1畳み込みニューラルネットワークCNN1は、複数の層を含む。本実施の形態では、第1畳み込みニューラルネットワークCNN1は、3つの層を含む。第1畳み込みニューラルネットワークCNN1内においては、入力側(上層側)から出力側(下層側)に向かって第1層L1a、第2層L1bおよび第3層L1cがこの順に設けられる。なお、本実施の形態では、複数の層として3つの層を含む場合について説明するが、3つ以上の層を含んでいてもよい。
【0075】
第1層L1a、第2層L1bおよび第3層L1cそれぞれは、畳み込み層およびプーリング層を含む。畳み込み層においては、複数のフィルタが適用される。プーリング層は、畳み込み層の出力を圧縮する。第2層L1bの畳み込み層のフィルタの数は、第1層L1aの畳み込み層のフィルタの数の2倍に設定されている。第3層L1cの畳み込み層のフィルタの数は、第2層L1bの畳み込み層のフィルタの数の2倍に設定されている。このため、変動条件からできるだけ多くの特徴を抽出することができる。ここで、変動条件は、時間の経過に伴って変動するノズルの基板Wに対する相対位置を含む。第1畳み込みニューラルネットワークCNN1は、複数のフィルタを用いて特徴を抽出するので、ノズルの基板Wに対する相対位置の変化について時間の要素を含む複数の特徴を抽出する。なお、ここでは第2層L1bの畳み込み層のフィルタの数が、第1層L1aの畳み込み層のフィルタの数の2倍に設定される例を示しているが、2倍でなくてもよい。第2層L1bの畳み込み層のフィルタの数は、第1層L1aの畳み込み層のフィルタの数よりも多い数であればよい。また、第3層L1cの畳み込み層のフィルタの数は、第2層L1bの畳み込み層のフィルタの数の2倍でなくてもよい。第3層L1cの畳み込み層のフィルタの数は、第2層L1bの畳み込み層のフィルタの数よりも多い数であればよい。
【0076】
第1全結合ニューラルネットワークNN1は、複数の層が設けられる。
図9の例では、第1全結合ニューラルネットワークNN1は、入力側のb1a層および出力側のb1b層の二つの層が設けられる。
図9の例では、各層には、複数のノードが含まれる。
図9の例では、b1a層に5つのノード、b1b層に4つのノードが示されるが、ノードの数は、これに限定されるものではない。b1a層のノードの数は、第1畳み込みニューラルネットワークCNN1の出力側のノードの数と固定条件の数との和に等しくなるように設定される。b1b層のノードの数は、第2畳み込みニューラルネットワークCNN2の入力側のノードの数に等しくなるように設定される。b1a層のノードの出力はb1b層のノードの入力に接続される。パラメータは、b1a層のノードの出力に対して重み付けする係数を含む。b1a層とb1b層との間には、1または複数の中間層が設けられてもよい。
【0077】
第2畳み込みニューラルネットワークCNN2は、複数の層を含む。本実施の形態では、第2畳み込みニューラルネットワークCNN2は、3つの層を含む。第2畳み込みニューラルネットワークCNN2においては、入力側(上層側)から出力側(下層側)に向かって第4層L1d、第5層L1eおよび第6層L1fがこの順に設けられる。なお、本実施の形態では、複数の層として3つの層を含む場合について説明するが、3つ以上の層を含んでいてもよい。
【0078】
第4層L1d、第5層L1eおよび第6層L1fそれぞれは、畳み込み層およびプーリング層を含む。畳み込み層においては、複数のフィルタが適用される。プーリング層は、畳み込み層の出力を圧縮する。第5層L1eの畳み込み層のフィルタの数は、第4層L1dの畳み込み層のフィルタの数の1/2倍に設定されている。また、第6層L1fの畳み込み層のフィルタの数は、第5層L1eの畳み込み層のフィルタの数の1/2倍に設定されている。このため、第2処理結果からできるだけ多くの特徴を抽出することができる。第2処理結果に含まれる複数の処理量は、基板Wの径方向における位置が異なる値である。第2畳み込みニューラルネットワークCNN2は、複数のフィルタを用いるので、第2処理結果について基板Wの径方向の位置の要素を含む複数の特徴を抽出する。なお、ここでは第5層L1eの畳み込み層のフィルタの数が、第4層L1dの畳み込み層のフィルタの数の1/2倍に設定される例を示しているが、1/2倍でなくてもよい。第5層L1eの畳み込み層のフィルタの数は、第4層L1dの畳み込み層のフィルタの数よりも少ない数であればよい。また、第6層L1fの畳み込み層のフィルタの数は、第5層L1eの畳み込み層のフィルタの数の1/2倍でなくてもよい。第6層L1fの畳み込み層のフィルタの数は、第5層L1eの畳み込み層のフィルタの数よりも少ない数であればよい。
【0079】
図10は、第2学習モデルを説明する図である。
図10を参照して、第2学習モデルは、A2層およびB2層が入力側から出力側(上層から下層)に向かってこの順に設けられている。A2層には、第3畳み込みニューラルネットワークCNN3が設けられ、B2層には、第2全結合ニューラルネットワークNN2が設けられる。
【0080】
第3畳み込みニューラルネットワークCNN3には、変動条件が入力される。第2全結合ニューラルネットワークNN2には、第3畳み込みニューラルネットワークCNN3の出力と固定条件とが入力される。
【0081】
第3畳み込みニューラルネットワークCNN3は、複数の層を含む。本実施の形態では、第3畳み込みニューラルネットワークCNN3は、3つの層を含む。第3畳み込みニューラルネットワークCNN3内においては、入力側(上層側)から出力側(下層側)に向かって第1層L2a、第2層L2bおよび第3層L2cがこの順に設けられる。なお、本実施の形態では、複数の層として3つの層を含む場合について説明するが、3つ以上の層を含んでいてもよい。
【0082】
第1層L2a、第2層L2bおよび第3層L2cそれぞれは、畳み込み層およびプーリング層を含む。畳み込み層においては、複数のフィルタが適用される。プーリング層は、畳み込み層の出力を圧縮する。第2層L2bの畳み込み層のフィルタの数は、第1層L2aの畳み込み層のフィルタの数の2倍に設定されている。第3層L2cの畳み込み層のフィルタの数は、第2層L2bの畳み込み層のフィルタの数の2倍に設定されている。このため、変動条件からできるだけ多くの特徴を抽出することができる。ここで、変動条件は、時間の経過に伴って変動するノズルの基板Wに対する相対位置を含む。第3畳み込みニューラルネットワークCNN3は、複数のフィルタを用いて特徴を抽出するので、ノズルの基板Wに対する相対位置の変化について時間の要素を含む特徴をより多く抽出する。なお、ここでは第2層L2bの畳み込み層のフィルタの数が、第1層L2aの畳み込み層のフィルタの数の2倍に設定される例を示しているが、2倍でなくてもよい。第2層L2bの畳み込み層のフィルタの数は、第1層L2aの畳み込み層のフィルタの数よりも多い数であればよい。また、第3層L2cの畳み込み層のフィルタの数は、第2層L2bの畳み込み層のフィルタの数の2倍でなくてもよい。第3層L2cの畳み込み層のフィルタの数は、第2層L2bの畳み込み層のフィルタの数よりも多い数であればよい。
【0083】
第2全結合ニューラルネットワークNN2は、複数の層が設けられる。
図9の例では、第2全結合ニューラルネットワークNN2は、b2a層、b2b層、b2c層、b2d層およびb2e層の五つの層が入力側から出力側に向かってこの順に設けられる。
図9の例では、各層には、複数のノードが含まれる。
図9の例では、b2a層に5つのノード、b2b層に4つのノード、b2c層に3つのノード、b2d層に2つのノード、b2e層に1つのノードが示されるが、ノードの数は、これに限定されるものではない。b2a層のノードの数は、第3畳み込みニューラルネットワークCNN3の出力側のノードの数と固定条件の数との和に等しくなるように設定される。b2e層のノードの数は、推測するデータの数に等しくなるように設定される。第2学習モデルの推測するデータは、統計値であるため、ここでは、b2e層のノードの数が1に設定される。b2c層とb2e層との間には、b2b層~b2c層に加えてさらに多くの中間層が設けられてもよい。
【0084】
第1学習モデルが備える第1畳み込みニューラルネットワークCNN1に設定されるフィルタと、第2学習モデルが備える第3畳み込みニューラルネットワークCNN3に設定されるフィルタとは、本実施の形態においては同一にしている。第1学習モデルと第2学習モデルそれぞれが同一の変動条件を学習するので、第1学習モデルと第2学習モデルとの間で、変動条件の学習に関連性を持たせることができる。
【0085】
次に、予測部130の詳細な機能について説明する。
図11は、予測部130が有する機能の一例を示す図である。予測部130は、処理条件取得部131と、第1予測部133と、第2予測部135と、復元部137とを含む。処理条件取得部131は、処理条件決定部120により出力された処理条件を取得する。また、処理条件取得部131は、取得した処理条件を第1予測部133および第2予測部135に出力する。
【0086】
第1予測部133には、予測器受信部110から第1予測器が入力され、処理条件取得部131から処理条件が入力される。第1予測部133は、第1予測器に処理条件を入力し、第1予測器に第2予測処理結果を予測させる。第1予測部133は、第1予測器により予測された第2予測処理結果を復元部137に出力する。
【0087】
第2予測部135には、予測器受信部110から第2予測器が入力され、処理条件取得部131から処理条件が入力される。第2予測部135は、第2予測器に処理条件を入力し、第2予測器に予測統計値を予測させる。第2予測部135は、第2予測器により予測された予測統計値を復元部137に出力する。
【0088】
復元部137は、第1予測部133から出力された第2予測処理結果と、第2予測部135から出力された予測統計値とに基づいて第1予測処理結果を復元する。本実施の形態において、復元部137は、第2予測処理結果と予測統計値とを乗算することにより、第1予測処理結果を復元する。復元部137は、復元した第2予測処理結果を評価部140に出力する。
【0089】
図12は、学習処理の流れの一例を示すフローチャートである。学習処理は、学習装置200が備えるCPU201がRAM202に格納された学習モデル生成プログラムを実行することにより、CPU201により実行される処理である。
【0090】
図12を参照して、学習装置200が備えるCPU201は、実験データを取得する。CPU201は、入出力I/F107を制御して、基板処理装置300から実験データを取得する(ステップS01)。実験データは、CD-ROM209等の記録媒体に記録された実験データを記憶装置104で読み取ることにより取得されてもよい。ここで取得される実験データは、複数である。実験データは、処理条件と、基板処理装置300において当該処理条件で被膜の処理を行った第1処理結果とを含む。
【0091】
次のステップS02においては、取得された実験データに基づいて第1予測器および第2予測器を含む予測器が生成され、処理はステップS03に進む。ステップS03においては、CPU201が、入出力I/F107を制御することにより、予測器を情報処理装置100に送信する。
【0092】
図13は、予測器生成の流れの一例を示すフローチャートである。予測器生成は、学習処理のステップS02で、CPU201により実行される処理である。予測器生成処理が実行される前の段階で実験データが取得されている。
【0093】
図13を参照して、学習装置200が備えるCPU201は、実験データから処理条件および第1処理結果を含む複数組のデータセットを取得する(ステップS11)。ステップS12では、一の第1処理条件が選択され、処理はステップS13に進む。取得された複数組のデータセットのうちから1つが選択され、選択されたデータセットに含まれる処理条件が選択される。
【0094】
ステップS13では、選択された第1処理条件に対応する第1処理結果が選択される。ステップS14では、選択された第1処理結果から統計値が算出される。統計値は基板Wの径方向に異なる複数の位置それぞれにおける被膜の処理前後の膜厚の差の平均値である。ステップS15では、算出された平均値を用いて選択された第1処理結果が第2処理結果に変換される。第1処理結果を平均値で除算した第2処理結果が算出される。
【0095】
ステップS16では、CPU201は、選択された処理条件を入力データとして用い、変換された第2処理結果を正解データとして用いて第1学習モデルに機械学習させ、処理をステップS17に進める。ここでは、CPU201は、入力データを第1学習モデルに入力し、第1学習モデルの出力と正解データとの誤差が小さくなるようにフィルタおよびパラメータを決定する。これにより、第1学習モデルのフィルタおよびパラメータが調整される。
【0096】
ステップS17では、CPU201は、選択された処理条件を入力データとして用い、第1処理結果から算出された統計値を正解データとして用いて第2学習モデルに機械学習させ、処理をステップS18に進める。ここでは、入力データを第2学習モデルに入力し、第2学習モデルの出力と正解データとの誤差が小さくなるようにフィルタおよびパラメータを決定する。これにより、第2学習モデルのフィルタおよびパラメータが調整される。
【0097】
ステップS18においては、処理対象に選択されていない処理条件が存在するか否かが判断される。未選択の処理条件が存在するならば処理はステップS12に戻るが、そうでなければ処理は終了し、学習処理に戻る。ステップS12~ステップS17の処理が繰り返されることにより、第1予測器および第2予測器が生成される。
【0098】
図14は、処理条件決定処理の流れの一例を示すフローチャートである。処理条件決定処理は、情報処理装置100が備えるCPU101がRAM102に格納された処理条件決定プログラムを実行することにより、CPU101により実行される処理である。情報処理装置100が備えるCPU101は、予め準備された複数の処理条件のうちから1つを選択し(ステップS21)、処理をステップS22に進める。ここでは、実験計画法、ペアワイズ法またはベイズ推定等を用いて、予め準備された複数の処理条件のうちから1つが選択される。
【0099】
ステップS22においては、第1予測器を用いて、処理条件から第2予測処理結果が推測され、処理はステップS23に進む。ここでは、第1予測器に、変動条件と固定条件とを含む処理条件が入力され、第1予測器が出力する第2予測処理結果が取得される。ステップS23においては、第2予測器を用いて、処理条件から予測統計値が推測され、処理はステップS24に進む。ここでは、第2予測器に、変動条件と固定条件とを含む処理条件が入力され、第2予測器が出力する予測統計値が取得される。
【0100】
ステップS24においては、ステップS23において推測された予測統計値を用いてステップS22において推測された第2予測処理結果が第1予測処理結果に復元される。ステップS23において推測された予測統計値にステップS22において推測された第2予測処理結果を乗算することにより、第1予測処理結果が復元される。
【0101】
ステップS25においては、復元された第1予測処理結果が目標膜厚特性と比較される。基板処理装置300が処理の対象とする基板Wの処理前の膜厚特性と、ステップS24において復元された第1予測処理結果とから基板Wを処理した後の膜厚特性が算出される。そして、処理後の膜厚特性が目標膜厚特性と比較される。ここでは、基板Wを処理した後の膜厚特性と目標膜厚特性との差分が算出される。
【0102】
ステップS26においては、比較結果が評価基準を満たすか否かが判断される。比較結果が評価基準を満たすならば(ステップS26でYES)、処理はステップS27に進むが、そうでなければ処理はステップS21に戻る。ここでは、例えば、差分の最大値が閾値以下である場合に評価基準を満たすと判断する。また、差分の平均が閾値以下である場合に評価基準を満たすと判断する。
【0103】
ステップS27においては、基板処理装置300を駆動するための処理条件の候補に、ステップS21において選択された変動条件を含む処理条件が設定され、処理はステップS28に進む。ステップS28においては、探索の終了指示が受け付けられたか否かが判断される。情報処理装置100を操作するユーザーにより終了指示が受け付けられたならば処理はステップS29に進むが、そうでなければ処理はステップS21に戻る。なお、ユーザーにより入力される終了指示に変えて、予め定められた数の処理条件が候補に設定されたか否かが判断されてもよい。
【0104】
ステップS29においては、候補に設定された1以上の処理条件のうちから1つが決定され、処理はステップS30に進む。候補に設定された1以上の処理条件のうちから情報処理装置100を操作するユーザーにより1つが選択されてもよい。したがって、ユーザーの選択の範囲が広がる。また、複数の処理条件に含まれる変動条件のうちからノズル動作が最も簡略な変動条件が自動的に選択されてもよい。ノズル動作が最も簡略な変動条件は、例えば、変速点の数が最少の変動条件とすることができる。これにより、基板Wを処理する複雑なノズル動作に対する処理結果に対して複数の変動条件を提示することができる。複数の変動条件のうちからノズルの制御が容易な変動条件を選択すれば、基板処理装置300の制御が容易になる。
【0105】
ステップS30においては、ステップS29において決定された処理条件が基板処理装置300に送信され、処理は終了する。CPU101は、入出力I/F107を制御して、処理条件を基板処理装置300に送信する。基板処理装置300は、情報処理装置100から処理条件を受信する場合、その処理条件に従って基板Wを処理する。
【0106】
(4)具体例
本実施の形態においては、変動条件は、ノズル動作の処理時間が60秒、サンプリング間隔0.01秒でサンプリングした時系列データである。変動条件は、6001個の値で構成される。このため、変動条件は、複雑なノズル動作を表現することが可能である。特に、ノズルの移動速度を変更する変速点の数を比較的多くしたノズル動作を変動条件で正確に表現することができる。その反面、変動条件の次元数が多いため、変動条件の時系列データを全結合ニューラルネットワークのモデルに機械学習させた場合、オーバフィッティングが発生することがある。
【0107】
本実施の形態における予測器生成部220は、変動条件と固定条件とを、
図9および
図10に示した畳み込みニューラルネットワークを含む学習モデルに機械学習させる。複雑なノズル動作を示す6001個の値からなる変動条件と固定条件とを、
図9および
図10に示した第1学習モデルおよび第2学習モデルに学習させて予測器を生成することにより、予測器による予測された処理結果が好適な結果となることを発明者は実験によって発見した。
【0108】
また、本実施の形態においては、処理条件決定部120が好適な処理条件を探索する際に、第1処理結果が異なるものに対応する処理条件が探索されるので、複数の異なる第1処理結果に対応する処理条件が選択される。このため、処理条件決定部120は、複数の処理条件のうちから目標となる第1処理結果が予測される処理条件を効率的に探索することができる。
【0109】
なお、サンプリング間隔を0.01秒とする例を説明したが、サンプリング間隔はこれに限定されない。これより長いサンプリング間隔としてもよいし、これより短いサンプリング間隔としてもよい。例えば、サンプリング間隔は0.1秒としてもよいし、0.005秒としてもよい。
【0110】
(5)実施の形態の効果
上記実施の形態の学習装置200によれば、第1処理結果に対する統計処理により統計値が算出され、当該統計値を用いて第1処理結果が第2処理結果に変換される。このため、第1学習モデルに学習させる前に第1学習モデルに学習させる複数の第2処理結果のスケールが統一される。このため、第1学習モデルの精度を向上させることができる。また、スケールの統一に用いた統計値を第2学習モデルに学習させる。このため、学習済の第1学習モデルで一の処理条件から推測される値と、学習済の第2学習モデルで一の処理条件から推測される値とからスケールが統一される前の第1処理結果を推測することができる。
【0111】
また、基板Wを処理するために時間の経過に伴って変動する変動条件と固定条件を機械学習させるので、複雑な処理条件から処理結果を推測することが可能な学習モデルを生成することができる。
【0112】
さらに、変動条件が時間の経過に伴って変動する値であるので、第1畳み込みニューラルネットワークCNN1および第3畳み込みニューラルネットワークCNN3を用いることにより、時間の要素を考慮した特徴を抽出することができる。また、第1畳み込みニューラルネットワークCNN1および第3畳み込みニューラルネットワークCNN3を用いることにより、第1全結合ニューラルネットワークNN1および第2全結合ニューラルネットワークNN2それぞれに入力される学習パラメータの数を少なく抑えることができるので、第1および第2学習モデルの汎化性能を向上させることができる。また、第2処理結果は、基板Wの径方向に異なる複数の位置それぞれに定められるので、第2畳み込みニューラルネットワークCNN2が用いられることにより、基板Wの径方向の位置の要素を考慮した特徴が抽出される。このため、第1および第2学習モデルの汎化性能を向上させることができる。
【0113】
また、上記実施の形態の情報処理装置100によれば、仮の処理条件を第1学習モデルに与えて第1学習モデルにより第2予測処理結果が推測される。同様に仮の処理条件を第2学習モデルに与えて第2学習モデルにより予測統計値が推測される。また、第2予測処理結果と予測統計値とから復元された第1予測処理結果が許容条件を満たす場合に、仮の処理条件が基板W処理装置を駆動するための処理条件に決定される。このため、許容条件を満たす第1予測処理結果に対して複数の仮の処理条件を決定することができる。その結果、基板Wを処理する複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能になる。
【0114】
(6)他の実施の形態
(6-1)
図15は、他の実施の形態における予測器生成部が有する機能の一例を示す図である。
図15に示す他の実施の形態における予測器生成部220Aの有する機能が、
図5に示される機能と異なる点は、第1学習モデル生成部225がマルチタスク学習モデル生成部227に変更された点と、第2学習モデル生成部226が削除された点とである。その他の機能は、
図5に示した機能と同じなので、ここでは説明を繰り返さない。
【0115】
マルチタスク学習モデル生成部227には、処理条件取得部221から処理条件が入力され、変換部224から統計値と第2処理結果とが入力される。マルチタスク学習モデル生成部227は、マルチタスク学習モデルに、入力データを入力し、マルチタスク学習モデルに予測処理結果および予測統計値を推測させる。
【0116】
図16は、マルチタスク学習モデルの一例を説明する図である。
図16を参照して、マルチタスク学習モデルは、A層~C層が入力側から出力側(上層から下層)に向かってこの順に設けられている。A層には、第1畳み込みニューラルネットワークCNN1が配置され、B層には、第1全結合ニューラルネットワークNN1が配置され、C層には、第2畳み込みニューラルネットワークCNN2および第2全結合ニューラルネットワークNN2が配置される。
【0117】
第1畳み込みニューラルネットワークCNN1には、変動条件が入力される。第1全結合ニューラルネットワークNN1には、第1畳み込みニューラルネットワークCNN1の出力と固定条件とが入力される。第1全結合ニューラルネットワークNN1の出力の一部が第2畳み込みニューラルネットワークCNN2に入力され、他の部分が第2全結合ニューラルネットワークNN2に入力される。第2畳み込みニューラルネットワークCNN2は第2処理結果を出力し、第2全結合ニューラルネットワークNN2は統計値を出力する。
【0118】
図15に戻って、マルチタスク学習モデル生成部227は、マルチタスク学習モデルにより推測された第2予測処理結果および予測統計値と、正解データである第2処理結果と統計値の差分を誤差として算出し、算出された誤差が少なくなるようにマルチタスク学習モデルを学習させる。具体的には、マルチタスク学習モデル生成部227は、第1畳み込みニューラルネットワークCNN1が有する複数のフィルタ、第1全結合ニューラルネットワークNN1が有する複数のノードで定められる重みパラメータ、第2全結合ニューラルネットワークNN2が有する複数のノードで定められる重みパラメータ、第2畳み込みニューラルネットワークCNN2が有する複数のフィルタおよび第3全結合ニューラルネットワークNN3が有する複数のノードで定められる重みパラメータ、それぞれの値を更新する。
【0119】
(6-2)上記実施の形態においては、統計値算出部223が第1処理結果を統計処理して求められる統計値として、第1処理結果の平均値を用いたが、これに限定されることはない。統計値は、複数の第2処理結果のスケールの差が複数の第1処理結果のスケールよりも小さくなる値で、かつ、第2処理結果から第1処理結果を復元可能な値であればよい。
【0120】
統計値の一例としては、平均値に代えて、最大値、最小値および中央値等が用いられてもよい。この場合における変換部224は、平均値の場合と同様に、第1処理結果を統計値で除算することにより第2処理結果を算出する。
【0121】
また、変換部224による変換処理は、第1処理結果を正規化する処理を含んでもよい。具体的には、変換部224は、第1処理結果の最小値からの偏差を第1処理結果の範囲(=最大値-最小値)で除算する処理を実行する。この場合における統計値は、最大値および最小値であり、複数である。
【0122】
また、変換部224は、第1処理結果を標準化する処理を含んでもよい。具体的には、変換部224は、第1処理結果の平均値からの偏差を標準偏差で除算する処理を実行する。この場合における統計値は、平均値と標準偏差であり、複数である。
【0123】
(7)実施の形態の総括
(第1項) 本発明の一態様に係る学習装置は、
被膜が形成された基板に処理液を供給することにより前記被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得部と、
前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得部と、
前記第1処理結果を統計処理して統計値を算出する統計値算出部と、
前記統計値を用いて前記第1処理結果を第2処理結果に変換する変換部と、
前記処理条件と前記第2処理結果とを機械学習して第1学習モデルを生成する第1学習モデル生成部と、
前記処理条件と前記統計値とを機械学習して第2学習モデルを生成する第2学習モデル生成部とを備える。
【0124】
第1項に記載の学習装置によれば、第1処理結果に対する統計処理により統計値が算出され、当該統計値を用いて第1処理結果が第2処理結果に変換される。このため、第1学習モデルに学習させる前に第1学習モデルに学習させる複数の第2処理結果のスケールが統一される。このため、第1学習モデルの精度を向上させることができる。また、スケールの統一に用いた統計値を第2学習モデルに学習させる。このため、学習済の第1学習モデルで一の処理条件から推測される値と、学習済の第2学習モデルで一の処理条件から推測される値とからスケールが統一される前の第1処理結果を推測することができる。その結果、処理条件から処理結果を推測する精度を向上した学習モデルを生成することが可能な学習装置を提供することができる。
【0125】
(第2項)第1項に記載の学習装置において、
前記処理条件は、時間の経過に伴って変動する変動条件と、前記変動条件以外の固定条件と、を含み、
前記第1学習モデルは、前記処理条件のうち前記変動条件が入力される第1畳み込みニューラルネットワークと、
前記第1畳み込みニューラルネットワークの出力と前記処理条件のうち前記固定条件が入力される第1全結合ニューラルネットワークと、
前記第1全結合ニューラルネットワークの出力が入力され、前記第2処理結果を出力する第2畳み込みニューラルネットワークと、を含み、
前記第2学習モデルは、前記処理条件のうち前記変動条件が入力される第3畳み込みニューラルネットワークと、
前記第3畳み込みニューラルネットワークの出力と前記処理条件のうち前記固定条件が入力され、前記統計値を出力する第2全結合ニューラルネットワークと、を含んでもよい。
【0126】
第2項に記載の学習装置によれば、変動条件が時間の経過に伴って変動する値であるので、第1畳み込みニューラルネットワークおよび第3畳み込みニューラルネットワークを用いることにより、時間の要素を考慮した特徴を抽出することができる。また、第1畳み込みニューラルネットワークおよび第3畳み込みニューラルネットワークを用いることにより、第1全結合ニューラルネットワークおよび第2全結合ニューラルネットワークそれぞれに入力される学習パラメータの数を少なく抑えることができるので、第1および第2学習モデルの汎化性能を向上させることができる。また、第2処理結果は、基板の径方向に異なる複数の位置それぞれに定められるので、第2畳み込みニューラルネットワークが用いられることにより、基板の径方向の位置の要素を考慮した特徴が抽出される。このため、第1および第2学習モデルの汎化性能を向上させることができる。
【0127】
(第3項)第2項に記載の学習装置において、
前記第1畳み込みニューラルネットワークと前記第3畳み込みニューラルネットワークとは、同じフィルターを有してもよい。
【0128】
第3項に記載の学習装置によれば、第1学習モデルの第1畳み込みニューラルネットワークのフィルターと第2学習モデルの第3畳み込みニューラルネットワークのフィルターとが同じ数であるため、第1学習モデルおよび第2学習モデルそれぞれにおいて、同一の処理条件から特徴が抽出される条件を同じにして、第1学習モデルによる機械学習と第2学習モデルによる機械学習とを関連付けることができる。
【0129】
(第4項)本発明の他の態様に係る学習装置は、
被膜が形成された基板に処理液を供給することにより前記被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得部と、
前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得部と、
前記第1処理結果を統計処理して統計値を算出する統計値算出部と、
前記統計値を用いて前記第1処理結果を第2処理結果に変換する変換部と、
前記処理条件と、前記第2処理結果と、前記統計値と、を含む学習用データを機械学習してマルチタスク学習モデルを生成するマルチタスク学習モデル生成部と、を備える。
【0130】
第4項に記載の学習装置によれば、第1処理結果に対する統計処理により統計値が算出され、当該統計値を用いて第1処理結果が第2処理結果に変換される。このため、マルチタスク学習モデルに学習させる前にマルチタスク学習モデルに学習させる第2処理結果のスケールが統一される。このため、マルチタスク学習モデルの精度を向上させることができる。また、スケールの統一に用いた統計値をマルチタスク学習モデルに学習させる。このため、学習済のマルチタスク学習モデルで推測される第2処理結果と統計値とからスケールが統一される前の第1処理結果を推測することができる。その結果、処理条件から処理結果を推測する精度を向上したマルチタスク学習モデルを生成することが可能な学習装置を提供することができる。
【0131】
(第5項)第4項に記載の学習装置において、
前記処理条件は、時間の経過に伴って変動する変動条件と、前記変動条件以外の固定条件と、を含み、
前記マルチタスク学習モデルは、前記処理条件のうち前記変動条件が入力される第1畳み込みニューラルネットワークと、
前記第1畳み込みニューラルネットワークの出力と前記処理条件のうち前記固定条件とが入力される第1全結合ニューラルネットワークと、
前記第1全結合ニューラルネットワークの出力の一部が入力され、前記第2処理結果を出力する第2畳み込みニューラルネットワークと、
前記第1全結合ニューラルネットワークの出力の他の部分が入力され、前記統計値を出力する第2全結合ニューラルネットワークと、を含んでもよい。
【0132】
第5項に記載の学習装置によれば、変動条件が時間の経過に伴って変動する値であるので、第1畳み込みニューラルネットワークを用いることにより、時間の要素を考慮した特徴を抽出することができる。また、第1畳み込みニューラルネットワークを用いることにより、第1全結合ニューラルネットワークも入力される学習パラメータの数を抑えることができるので、第1全結合ニューラルネットワークの汎化性能を向上させることができる。また、第2処理結果は、基板の径方向に異なる複数の位置それぞれに定められるので、第2畳み込みニューラルネットワークが用いられることにより、基板の径方向の位置の要素を考慮した特徴が抽出される。このため、マルチタスク学習モデルの汎化性能を向上させることができる。
【0133】
(第6項)第2項、第3項または第5項のいずれか一項に記載の学習装置において、
前記基板処理装置は、基板に処理液を供給するノズルを移動させることにより基板に前記処理液を供給し、
前記変動条件は、時間の経過に伴って変動する前記ノズルの基板に対する相対位置を示すノズル移動条件を含んでもよい。
【0134】
第6項に記載の学習装置によれば、ノズル移動条件が第1畳み込みニューラルネットワークに入力される。このため、ノズル移動条件から処理結果を予測可能な学習モデルを生成することができる。
【0135】
(第7項)本発明の他の態様に係る情報処理装置は、
基板処理装置を管理する情報処理装置であって、
前記基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、前記被膜の処理をし、
前記基板処理装置により前記被膜の処理をされる前に前記基板に形成された前記被膜について前記被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、前記基板処理装置を駆動するための処理条件を決定する処理条件決定部を備え、
前記予測器は、前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で前記第1処理結果を変換した第2処理結果と、前記処理条件と、を機械学習することにより生成された第1学習モデルと、
前記処理条件と前記統計値とを機械学習することにより生成された第2学習モデルと、を備え、
前記処理条件決定部は、仮の処理条件を前記第1学習モデルに与えて推測される第2予測処理結果と、前記仮の処理条件を前記第2学習モデルに与えて推測される予測統計値とから第1予測処理結果を復元する復元部を含み、
前記復元部により復元された前記第1予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定する。
【0136】
第7項に記載の情報処理装置によれば、仮の処理条件を第1学習モデルに与えて第1学習モデルにより第2予測処理結果が推測される。また、仮の処理条件を第2学習モデルに与えて第2学習モデルにより予測統計値が推測される。また、第2予測処理結果と予測統計値とから復元された第1予測処理結果が許容条件を満たす場合に、仮の処理条件が基板処理装置を駆動するための処理条件に決定される。このため、許容条件を満たす第1予測処理結果に対して複数の仮の処理条件を決定することができる。その結果、基板を処理する複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能になる。
【0137】
(第8項)本発明の他の態様に係る情報処理装置は、
基板処理装置を管理する情報処理装置であって、
前記基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、前記被膜の処理をし、
前記基板処理装置により前記被膜の処理をされる前の前記基板に形成された前記被膜について前記被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、前記基板処理装置を駆動するための処理条件を決定する処理条件決定部を備え、
前記予測器は、前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で前記第1処理結果を変換した第2処理結果および前記統計値を目的変数として含みかつ前記処理条件を説明変数として含む学習用データを機械学習することにより生成されたマルチタスク学習モデルと、を備え、
前記処理条件決定部は、仮の処理条件を前記マルチタスク学習モデルに与えて推測される第2予測処理結果と予測統計値とから第1予測処理結果を復元する復元部を含み、
前記復元部により復元された前記第1予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定する。
【0138】
第8項に記載の情報処理装置によれば、仮の処理条件をマルチタスク学習モデルに与えてマルチタスク学習モデルにより第2予測処理結果と予測統計値とが推測される。また、第2予測処理結果と予測統計値とから復元された第1予測処理結果が許容条件を満たす場合に、仮の処理条件が基板処理装置を駆動するための処理条件に決定される。このため、許容条件を満たす第1予測処理結果に対して複数の仮の処理条件を決定することができる。その結果、基板を処理する複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能になる。
【0139】
(第9項)本発明の他の態様に係る基板処理装置は、
請求項7または8に記載の情報処理装置を備える。
【0140】
第9項に記載の基板処理装置によれば、基板を処理する複雑なプロセスの処理結果に対して適切な処理条件で被膜の処理を実行することが可能な基板処理装置を提供することが可能になる。
【0141】
(第10項)本発明の他の態様に係る学習モデル生成方法は、
被膜が形成された基板に処理液を供給することにより前記被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得ステップと、
前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得ステップと、
前記第1処理結果を統計処理して統計値を算出する統計値算出ステップと、
前記統計値を用いて前記第1処理結果を第2処理結果に変換する変換ステップと、
前記処理条件と前記第2処理結果とを機械学習して第1学習モデルを生成する第1学習モデル生成ステップと、
前記処理条件と前記統計値とを機械学習して第2学習モデルを生成する第2学習モデル生成ステップとを、学習装置に実行させる。
【0142】
第10項に記載の学習モデル生成方法によれば、第1処理結果に対する統計処理により統計値が算出され、当該統計値を用いて第1処理結果が第2処理結果に変換される。このため、第1学習モデルに学習させる前に第1学習モデルに学習させる複数の第2処理結果のスケールが統一される。このため、第1学習モデルの精度を向上させることができる。また、スケールの統一に用いた統計値を第2学習モデルに学習させる。このため、学習済の第1学習モデルで一の処理条件から推測される値と、学習済の第2学習モデルで一の処理条件から推測される値とからスケールが統一される前の第1処理結果を推測することができる。
【0143】
(第11項)本発明の他の態様に係る学習モデル生成方法は、
被膜が形成された基板に処理液を供給することにより前記被膜の処理をする基板処理装置を駆動するための処理条件を取得する処理条件取得ステップと、
前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を取得する第1処理結果取得ステップと、
前記第1処理結果を統計処理して統計値を算出する統計値算出ステップと、
前記統計値を用いて前記第1処理結果を第2処理結果に変換する変換ステップと、
前記処理条件と、前記第2処理結果と、前記統計値と、を含む学習用データを機械学習してマルチタスク学習モデルを生成するマルチタスク学習モデル生成ステップと、を学習装置に実行させる。
【0144】
第11項に記載の学習モデル生成方法によれば、第1処理結果に対する統計処理により統計値が算出され、当該統計値を用いて第1処理結果が第2処理結果に変換される。このため、マルチタスク学習モデルに学習させる前にマルチタスク学習モデルに学習させる第2処理結果のスケールが統一される。このため、マルチタスク学習モデルの精度を向上させることができる。また、スケールの統一に用いた統計値をマルチタスク学習モデルに学習させる。このため、学習済のマルチタスク学習モデルで推測される第2処理結果と統計値とからスケールが統一される前の第1処理結果を推測することができる。その結果、処理条件から処理結果を推測する精度を向上したマルチタスク学習モデルを生成することが可能な学習装置を提供することができる。
【0145】
(第12項)本発明の他の態様に係る処理条件決定方法は、
基板処理装置を管理する情報処理装置で実行される処理条件決定方法であって、
前記基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、前記被膜の処理をし、
前記基板処理装置により前記被膜の処理をされる前の前記基板に形成された前記被膜について前記被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、前記基板処理装置を駆動するための処理条件を決定する処理条件決定ステップを含み、
前記予測器は、前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で前記第1処理結果を変換した第2処理結果と、前記処理条件と、を機械学習することにより生成された第1学習モデルと、
前記処理条件と前記統計値とを機械学習することにより生成された第2学習モデルと、を備え、
前記処理条件決定ステップは、仮の処理条件を前記第1学習モデルに与えて推測される第2予測処理結果と、前記仮の処理条件を前記第2学習モデルに与えて推測される予測統計値とから第1予測処理結果を復元する復元ステップと、
前記復元ステップにおいて復元された前記第1予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定するステップと、を含む。
【0146】
第12項に記載の処理条件決定方法によれば、仮の処理条件を第1学習モデルに与えて第1学習モデルにより第2予測処理結果が推測される。同様に仮の処理条件を第2学習モデルに与えて第2学習モデルにより予測統計値が推測される。また、第2予測処理結果と予測統計値とから復元された第1予測処理結果が許容条件を満たす場合に、仮の処理条件が基板処理装置を駆動するための処理条件に決定される。このため、許容条件を満たす第1予測処理結果に対して複数の仮の処理条件を決定することができる。その結果、基板を処理する複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能になる。
【0147】
(第13項)本発明の他の態様に係る処理条件決定方法は、
基板処理装置を管理する情報処理装置で実行される処理条件決定方法であって、
前記基板処理装置は、時間の経過に伴って変動する変動条件を含む処理条件で、被膜が形成された基板に処理液を供給することにより、前記被膜の処理をし、
前記基板処理装置により前記被膜の処理をされる前の前記基板に形成された前記被膜について前記被膜の処理の前後の膜厚の差を示す予測処理結果を推測する予測器を用いて、前記基板処理装置を駆動するための処理条件を決定する処理条件決定ステップを、含み、
前記予測器は、前記基板処理装置を前記処理条件で駆動して前記被膜の処理を行った後に、前記基板の径方向に異なる複数の位置それぞれにおける前記被膜の処理の前後の膜厚の差を含む第1処理結果を統計処理して得られる統計値で前記第1処理結果を変換した第2処理結果と、前記統計値と、前記処理条件と、を含む学習用データを機械学習することにより生成されたマルチタスク学習モデルと、を備え、
前記処理条件決定ステップは、仮の処理条件を前記マルチタスク学習モデルに与えて推測される第2予測処理結果と予測統計値とから第1予測処理結果を復元する復元ステップと、
前記復元ステップにおいて復元された前記第1予測処理結果が許容条件を満たす場合に前記仮の処理条件を、前記基板処理装置を駆動するための処理条件に決定するステップと、を含む。
【0148】
第13項に記載の処理条件決定方法によれば、仮の処理条件をマルチタスク学習モデルに与えてマルチタスク学習モデルにより第2予測処理結果と予測統計値とが推測される。また、第2予測処理結果と予測統計値とから復元された第1予測処理結果が許容条件を満たす場合に、仮の処理条件が基板処理装置を駆動するための処理条件に決定される。このため、許容条件を満たす第1予測処理結果に対して複数の仮の処理条件を決定することができる。その結果、基板を処理する複雑なプロセスの処理結果に対して複数の処理条件を提示することが可能になる。
【符号の説明】
【0149】
1…基板処理システム,10…制御装置,100…情報処理装置,110…予測器受信部,120…処理条件決定部,130…予測部,131…処理条件取得部,133…第1予測部,135…第2予測部,137…復元部,140…評価部,150…処理条件送信部,200…学習装置,210…実験データ取得部,220…予測器生成部,220A…予測器生成部,221…処理条件取得部,222…第1処理結果取得部,223…統計値算出部,224…変換部,225…第1学習モデル生成部,226…第2学習モデル生成部,227…マルチタスク学習モデル生成部,230…予測器送信部,300…基板処理装置,301…ノズル移動機構,303…ノズルモータ,305…ノズルアーム,311…ノズル,CNN1~CNN3…第1~第3畳み込みニューラルネットワーク,NN1~NN3…第1~第3全結合ニューラルネットワーク,SC…スピンチャック,SM…スピンモータ,W…基板,WU…基板処理ユニット