IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ティグニス インコーポレイテッドの特許一覧

特表2024-528486半導体ウェハの反りを低減するための補正膜パターンの決定方法
<>
  • 特表-半導体ウェハの反りを低減するための補正膜パターンの決定方法 図1A
  • 特表-半導体ウェハの反りを低減するための補正膜パターンの決定方法 図1B
  • 特表-半導体ウェハの反りを低減するための補正膜パターンの決定方法 図1C
  • 特表-半導体ウェハの反りを低減するための補正膜パターンの決定方法 図2
  • 特表-半導体ウェハの反りを低減するための補正膜パターンの決定方法 図3
  • 特表-半導体ウェハの反りを低減するための補正膜パターンの決定方法 図4
  • 特表-半導体ウェハの反りを低減するための補正膜パターンの決定方法 図5
  • 特表-半導体ウェハの反りを低減するための補正膜パターンの決定方法 図6
  • 特表-半導体ウェハの反りを低減するための補正膜パターンの決定方法 図7
  • 特表-半導体ウェハの反りを低減するための補正膜パターンの決定方法 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-07-30
(54)【発明の名称】半導体ウェハの反りを低減するための補正膜パターンの決定方法
(51)【国際特許分類】
   H01L 21/02 20060101AFI20240723BHJP
   G06N 3/091 20230101ALI20240723BHJP
   G06N 3/0455 20230101ALI20240723BHJP
   G06N 3/094 20230101ALI20240723BHJP
   G06N 3/0475 20230101ALI20240723BHJP
   G06N 3/0464 20230101ALI20240723BHJP
   G03F 7/20 20060101ALI20240723BHJP
【FI】
H01L21/02 Z
G06N3/091
G06N3/0455
G06N3/094
G06N3/0475
G06N3/0464
G03F7/20 521
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023579408
(86)(22)【出願日】2022-06-20
(85)【翻訳文提出日】2023-12-21
(86)【国際出願番号】 US2022034138
(87)【国際公開番号】W WO2023278190
(87)【国際公開日】2023-01-05
(31)【優先権主張番号】17/359,626
(32)【優先日】2021-06-27
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】523480978
【氏名又は名称】ティグニス インコーポレイテッド
(74)【代理人】
【識別番号】110001379
【氏名又は名称】弁理士法人大島特許事務所
(72)【発明者】
【氏名】ストダード、ライアン・ジェイ
(72)【発明者】
【氏名】ハーロッカー、ジョナサン・エル
(72)【発明者】
【氏名】マクラフリン、マット
【テーマコード(参考)】
2H197
【Fターム(参考)】
2H197CD44
2H197DA02
2H197DA03
2H197HA03
2H197JA12
(57)【要約】
本開示によれば、半導体ウェハ製造工程においてウェハの反りを低減するための補正膜パターンを生成する方法であって、予め定められた半導体製造工程のウェハ反りシグネチャ[152]をニューラルネットワーク[150]に入力するステップと、ニューラルネットワークによって、ウェハ反りシグネチャに対応する補正膜パターン[154]を生成するステップと、を含み、ニューラルネットワークは、ウェハ形状変換[104]とそれに対応する補正膜パターン[106]とを含む学習データセットを使用して学習される、方法が提供される、方法が提供される。
【選択図】図1C
【特許請求の範囲】
【請求項1】
半導体ウェハ製造工程においてウェハの反りを低減するための補正膜パターンを生成する方法であって、
予め定められた半導体製造工程のウェハ反りシグネチャをニューラルネットワークに入力するステップと、
前記ニューラルネットワークによって、前記ウェハ反りシグネチャに対応する補正膜パターンを生成するステップと、を含み、
前記ニューラルネットワークは、ウェハ形状変換とそれに対応する補正膜パターンとを含む学習データセットを使用して学習される、方法。
【請求項2】
請求項1に記載の方法であって、
前記学習データセットは、前記予め定められた半導体製造工程のための前記ウェハ形状変換から前記補正膜パターンを計算するシミュレーションを使用して生成される、方法。
【請求項3】
請求項1に記載の方法であって、
前記学習データセットは、前記ウェハ形状変換に対応する前記補正膜パターンを実験的に決定することによって生成される、方法。
【請求項4】
請求項1に記載の方法であって、
前記学習データセットは、有限要素法を用いて線形弾性問題を解き、最適化フレームワークを使用してコスト関数を最小化する前記ウェハ形状変換を選択することによって生成される、方法。
【請求項5】
請求項1に記載の方法であって、
前記ニューラルネットワークを改良するために能動学習フィードバックを実行するステップをさらに含む、方法。
【請求項6】
請求項1に記載の方法であって、
前記ニューラルネットワークは、条件付き変分オートエンコーダとして実施される、方法。
【請求項7】
請求項1に記載の方法であって、
前記ニューラルネットワークは、条件付き敵対的生成ネットワークとして実施される、方法。
【請求項8】
請求項7に記載の方法であって、
前記条件付き敵対的生成ネットワークは、スキップ接続を有するU-Netとして実施される生成器を含む、方法。
【請求項9】
請求項7に記載の方法であって、
前記条件付き敵対的生成ネットワークは、畳み込み分類器として実施される識別器を含む、方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、一般に、半導体ウェハの製造方法に関し、より詳細には、ウェハの反りを低減するための技術に関する。
【背景技術】
【0002】
半導体製造においては、薄膜蒸着、フォトリソグラフィ、及びエッチングのシーケンスを用いて複雑な構造体を作製する。複雑な構造体は、小さなフィーチャサイズのリソグラフィマスク及びエッチングマスクを使用し、様々な材料に対してリソグラフィ工程及びエッチング工程を何度も繰り返して作製される。各製造工程において、リソグラフィマスク及びエッチングマスクは、ウェハ上の各デバイスの絶対座標系に対して正確に位置合わせしなければならない。デバイスの寸法が小さくなるにしたがって、マスクの位置合わせにおける空間的なずれの許容範囲は厳しくなる。2以上の製造工程における空間的オフセット(すなわち「オーバレイ誤差」)が大きすぎると、デバイスは動作しない。オーバレイ誤差の原因となる現象の1つは、製造工程中のウェハの反りや曲がりである[1-3]。ウェハの反りは、熱膨張係数が異なる別個の材料薄膜が、製造工程中に温度変化を受けたときに生じる。多くの異なる薄膜材料や複雑なデバイスパターンを有する場合、ウェハの反りシグネチャは複雑になり、反りシグネチャに起因する面内歪みは容易に決定できない[1、4]。
【0003】
補正膜を利用してウェハの反りを低減または除去することは、オーバレイ誤差を最小化し、デバイス歩留まりを向上させるための1つの方法である。この解決策で生じる技術的課題の1つは、どの補正膜パターンをウェハに適用すれば、反りシグネチャを効果的に除去し、オーバレイ誤差を適切に低減できるかを決定することである。ウェハ反りの問題は線形弾性問題としてモデル化することができ、数値的アプローチ(有限要素法)を用いて解くことができるが、このアプローチは計算時間がかかりすぎるため、オンライン半導体製造環境では実用的ではない。
【0004】
半導体製造におけるウェハ反りの低減のテーマは非常に広範であり、ウェハ反りを制御または低減するための特定の材料やプロセス変更に関する特許発明が数多く存在する[5-7]。この分野の発明は、製造工場で使用される物理的な材料やプロセスに関するものであり、モデル化、機械学習(ML)、またはソフトウェアコンポーネントは含まれない。
【0005】
半導体ウェハ上にシリコン窒化膜を追加して応力を低減させるというコンセプトは、1998年のマイクロン社(Micron)の特許[8]で証明されるように、20年以上にわたって実施され、公開されてきた。近年、東京エレクトロン社(Tokyo Electron)は、様々な技術による反りの補正(矯正)やオーバレイ誤差の最小化に関する多くの発明を保護している[9-13]。おそらく最も関連性の高い特許は、オースチングループ(Austin group)による、補正パターン最適化問題に対する解決策に関する特許であろう[9]。ホーゲ(Hooge)らは、ウェハ反りの低減、ウェハの平坦化、及び、オーバレイ誤差の最小化を目的として、半導体ウェハの裏面に補正膜の特殊パターンを印刷することについて議論している[9]。彼らは、適用すべき最適な裏面パターンを決定するために使用できる3つの別個のシステムについて説明している。これらの各システムでは、「ピクセル総和」アプローチが用いられ、単一のピクセルの応力影響を求めた後に、すべてのピクセルの応力補正を合計することにより、全体的な応力補正を得る(何らかの経験的補正係数を使用する)[9]。1つのシステム(図2に示す)では、有限要素法(FEM)を用いて単一ピクセルの等二軸応力を決定するが、後述するようなホリスティックなFEMアプローチは採用していない。さらに、それらの発明には、サロゲートモデルや機械学習の要素は存在しない。同様の出願に関する他の東京エレクトロンの特許としては、反りの計測を改善するための基板保持装置[11]、オーバレイを制御するための応力の位置特定チューニング(一般概念)[12]、及び、空間的にパターン化された粒子衝突を用いてウェハの反りやオーバレイを補正する方法[13]が挙げられる。
【0006】
加えて、第一原理モデルを強化したり高速化したりするためのサロゲート機械学習モデルのアイデアは目新しいものではなく、様々な業界の他の問題領域にも適用されている[14-17]。
【0007】
最後に、自律的なサロゲートモデルフレームワークの概念は、特許が取得されており[18]、半導体領域での使用に言及している。しかしながら、これは、サロゲートモデルの生成のフレームワークに関するものであり、半導体の製造工程を最適化するためにサロゲートモデルを使用するプロセスを教示したり提案したりするものではない。
【発明の概要】
【課題を解決するための手段】
【0008】
以下に説明する本発明は、上記の技術的課題を解決するためになされたものであり、機械学習サロゲートモデルアプローチを用いることにより、ウェハの反りを補正するという課題に対する解決策を提供する。本発明のサロゲートモデルは、有限要素法アプローチよりも約3桁少ない計算時間で、一般的なウェハの反りシグネチャを除去する補正膜パターンを提案することに成功した。本発明による解決策の詳細及びそれに関連する研究の概要を以下に示す。
【0009】
一態様では、本発明は、半導体ウェハ製造工程においてウェハの反りを低減するための補正膜パターンを生成する方法であって、予め定められた半導体製造工程のウェハ反りシグネチャをニューラルネットワークに入力するステップと、ニューラルネットワークによって、ウェハ反りシグネチャに対応する補正膜パターンを生成するステップと、を含み、ニューラルネットワークは、ウェハ形状変換とそれに対応する補正膜パターンとを含む学習データセットを使用して学習される、方法を提供する。
【0010】
学習データセットは、予め定められた半導体製造工程のためのウェハ形状変換から補正膜パターンを計算するシミュレーションを使用して生成することができる。また、学習データセットは、ウェハ形状変換に対応する補正膜パターンを実験的に決定することによって生成することができる。また学習データセットは、有限要素法を用いて線形弾性問題を解き、最適化フレームワークを使用してコスト関数を最小化するウェハ形状変換を選択することによって生成することができる。
【0011】
本開示の方法は、ニューラルネットワークを改良するために能動学習フィードバックを実行するステップをさらに含むことができる。ニューラルネットワークは、畳み込みU-Net、ゼルニケ畳み込みニューラルネットワーク、条件付き変分オートエンコーダ、または、条件付き敵対的生成ネットワークとして実施することができる。条件付き敵対的生成ネットワークは、スキップ接続を有するU-Netとして実施される生成器、または、畳み込み分類器として実施される識別器を含むことができる。
【図面の簡単な説明】
【0012】
図1A図1Aは、本発明の一実施形態による、処理フロー図を示す。
図1B図1Bは、本発明の一実施形態による、処理フロー図を示す。
図1C図1Cは、本発明の一実施形態による、処理フロー図を示す。図1A図1B図1Cにおいて、異なるスタイルの矢印は、異なる情報の流れを示す。太い実線の矢印は、半導体工場における物理的ウェハの移動を示す。細い実線の矢印は、膜パターンやウェハ形状変換のデータセットなどの2次元アレイデータの伝送を示す。破線の矢印は、ゼルニケ係数や機械学習モデルの重みやバイアスなどのモデルパラメータ情報の伝送を示す。
図2図2は、本発明の一実施形態による、FEMを用いて解く線形弾性問題を示す。
図3図3は、本発明の一実施形態による、膜パターン最適化の結果例を示す。
図4図4は、本発明の一実施形態による、検証誤差に対する学習データセットのサイズの影響を示す。
図5図5は、本発明の一実施形態による、サロゲートモデルアーキテクチャの詳細を示す。
図6図6は、本発明の一実施形態による、サロゲートモデルの順モデルのUNetアーキテクチャを示す。
図7図7は、本発明の一実施形態による、ゼルニケCNN逆モデルアーキテクチャを示す。
図8図8は、本発明の一実施形態による、ウェハ反りシグネチャを入力としてウェハを平坦化するタスクのための、膜パターン及び予測残留反りの例を示す。
【発明を実施するための形態】
【0013】
2.3 用語の定義
【0014】
ウェハ反りシグネチャ(wafer bow signature):ウェハ上の各水平位置に対する半導体ウェハの高さ(z)。ウェハは、製造中に蓄積される様々な応力に起因して反る(曲がる)。ウェハ反りシグネチャを定義する座標系は、一意の記述を与えるために標準化される。まず、(x、y)=(0、0)を中心とするウェハ全体のz位置を定義する生の形状計測データを取得する。次に、zデータを、(後述するように)ゼルニケ多項式を使用してフィッティングし、形状からZ モード及びZ -1モードを減算して傾きを除去する。そして、すべてのz値が正になり、かつ最小高さが0になるように、最小のz値を減算する。本明細書を通じて、「ウェハ反りシグネチャ」は、補正膜パターンを堆積させる前のウェハ反りを指すために使用される。
【0015】
補正膜パターン(corrective film pattern):補正膜パターンとは、ウェハ反りシグネチャを補正(矯正)するためにウェハ上に適用される補正膜のパターンである。パターンは、均一な厚さの膜を堆積させた後、その膜の一部を残して、膜の多くの小領域を選択的にエッチング除去することによって得られる。パターンのエッチング除去面積の密度は、表面全体で異なるため、局在的な領域における補正膜で覆われる平均面積パーセントは、補正膜の表面上の位置の関数となる。例えば、補正膜の表面上の或る位置における1mm角正方形領域は、その正方形領域内の20μm角正方形の半分をエッチング除去して市松模様を形成することによって、50%の被覆率にすることができる。補正膜の表面上の別の位置における別の1mm角正方形領域は、その正方形領域の1/4をエッチング除去することによって75%の被覆率にすることができる。
【0016】
ウェハ形状変換(wafer shape transformation):補正膜パターンの堆積による、ウェハ反りシグネチャの望ましい変化。一般には、ウェハ形状変換は、ウェハを平坦にする形状変換であり、これは、補正膜パターンの堆積前のウェハ反りシグネチャを除去することを意味する。別の可能性としては、高次の反りを低減する、及び/またはオーバレイ誤差を直接的に最小化するための特定のウェハ形状変換が採用され得る。
【0017】
残留反り(residual bow):ウェハ反りを補正するための補正膜パターンの堆積後のウェハ上の各水平位置に対する半導体ウェハの高さ(z)。固有の形状を得るためのデータ前処理は、ウェハ反りシグネチャについて説明したものと同様である。
【0018】
線形弾性問題:弾性体のひずみ(変形)は加えられた応力に比例するという線形弾性数学モデルを仮定した構造解析問題である。弾性体とは、(降伏とは対照的に)応力を取り除けば元の形状に戻る物体のことである。
【0019】
ニューラルネットワーク:入力と出力との間の非線形関数を学習することができる活性化関数及びノードの配列によって形成される機械学習モデルである(3.3節参照)。
【0020】
有限要素法(FEM):多くの工学分野で使用されている2次元及び3次元の偏微分方程式を解くための数値近似法である(3.2節参照)。
【0021】
最適化フレームワーク:ゼルニケ多項式(3.4節参照)を用いて補正膜パターンをパラメータ化し、最適化アルゴリズムを用いて適切な膜パターンを特定することにより、有限要素法(FEM)シミュレーションの逆解法を求めるストラテジーである(4.3節参照)。
【0022】
能動学習フィードバック:ラベル付けされた場合にニューラルネットワークに最大限の改善を与えるであろう、ラベル付けされていないデータポイントのバッチを、機械学習モデルを使用して選択すること。選択されたデータポイントはラベル付けされ(シミュレーションまたは実験により)、その結果はニューラルネットワークに提供され、それにより、ニューラルネットワークを改善する(4.6節参照)。
【0023】
3.理論的背景
【0024】
3.1 線形弾性及びウェハ反り
【0025】
ウェハに何らかの力を加えると、ウェハは変形する。ウェハの変形は、ウェハの形状や材料の特性だけでなく、加えられた力の方向及び大きさにも依存する。無限小のひずみに限定し、応力とひずみとの関係を線形と仮定すると、ウェハ構成方程式はフックの法則で表される。
【0026】
【数1】
【0027】
上記の式中、σはコーシー応力テンソル、εはひずみテンソル、Cは4次剛性テンソルである。ひずみと変位との関係は次式で表される。
【0028】
【数2】
【0029】
上記の式中、uは応力による位置の変化を表す変位ベクトルである。ウェハが定常状態の場合、運動方程式は次式で表される。
【0030】
【数3】
【0031】
上記の式中、Fは単位体積あたりの物体力である。等方性材料の場合、応力σとひずみεとを関係付ける構成方程式は単純化され、ヤング率Eとポアソン比νとの2つのスカラー材料特性に依存する。これは、三次元の線形、2次、楕円偏微分方程式であり、Stoney方程式が有効であるような非常に単純なシナリオにおいてのみ、ウェハ反り問題の解析解が存在する。
【0032】
Stoney方程式[19]は、下記の仮定を用いる。
・膜及び基板は、同一の半径及び均一な厚さを有し、h<<h<<Rである。
・ひずみと回転は無限小である。
・膜及び基板は、均一、等方性、かつ線形弾性である。
・膜の応力状態は、面内等方性または等二軸性である。
・系の曲率成分は等二軸性である。
・すべての非ゼロ応力及び曲率成分は、系の表面全体で一定である。
【0033】
これらの仮定により、線形弾性問題の解により、補正膜の応力の大きさと、変形による系の曲率とを関連付けるStoney方程式が導かれる。
【0034】
【数4】
【0035】
上記の式中、σは膜応力、Eは基板のヤング率、νは基板のポアソン比、hは膜の厚さ、hは基板の厚さ、κは系の曲率である。上記の仮定のいくつかを緩和したStoneyモデルのより洗練された拡張がいくつか発表されているが[4、19、20]、不均一な膜を有する実際のウェハ反り問題に対して有効であるほど洗練されたものは存在しない。Stoney方程式及びその拡張は、膜がウェハ基板に対してどのように応力を与えて反らせるかに関する定性的見解を構築する便利な解析ツールを提供するが、実際のウェハ反り問題は、これらのモデルが有効であるために必要とされる多くの仮定に反するため、上記の偏微分方程式の解を近似するための計算アプローチが必要となる。
【0036】
3.2 有限要素法(FEM)により線形弾性問題を解く
【0037】
ウェハ反り問題のような高度なケースでは上記の偏微分方程式を解くことができないため、近似解を求める計算手法を用いる。有限要素法(FEM)は、任意の領域形状に対する偏微分方程式を3次元で解くための強力なツールである。ここでは、FEM近似解の背後にある理論を簡単にレビューする。上記の偏微分方程式の基本形を考察する。
【0038】
【数5】
【0039】
まず、テスト関数νを乗算し、領域Ω上で積分して、この微分(強)形式を積分(弱)形式に変換した。
【0040】
【数6】
【0041】
さらに、この問題には、2つの境界条件、すなわち、∂Ω上のディリクレ境界条件u=rと、∂Ω上のノイマン条件が存在すると規定した。グリーンの法則(部分積分)と境界条件とを適用することで、上記の式(6)を下記の式(7)に書き換えることができる。
【0042】
【数7】
【0043】
テスト関数v及び解uはヒルベルト空間(無限次元関数空間)に属し、弱形式の重要な要素は、ヒルベルト空間内のすべてのテスト関数に対して成立しなければならない。ガラーキン法の定式化にしたがって、解uがテスト関数と同一のヒルベルト空間に属すると仮定し、ヒルベルト空間の有限次元部分空間における近似解uh≒uを求めた。近似解は、その部分空間における基底関数φの集合の線形結合として表すことができる。
【0044】
【数8】
【0045】
上記の積分方程式の離散化バージョンは、テスト関数φごとに下記のように表される。
【0046】
【数9】
【0047】
テスト関数の数がn個の場合、近似解uを得るために必要な未知係数uはn個となる。系が離散化され、境界条件が適用された後、上記の方程式はAu=bに単純化される。式中、Aはn×n行列であり、bは長さnのベクトルであり、両者は、n個のテスト関数及びn個のu係数で離散化された方程式(9)を単純化することによって求められる。Au=bは、線形または非線形の問題に対して適切なソルバを用いて解くことができる。
【0048】
要約すると、有限要素解析では、偏微分方程式(ここでは3次元の線形弾性)によって支配される系を取り、問題を要素に離散化して、方程式の線形セットを解くことによって近似解を求めることができる。メッシュを細かくすればするほど、基底関数の数が増え、近似解は実解に近づく。
【0049】
3.3 ニューラルネットワークの背景
【0050】
ニューラルネットワークは、予め定義されたアーキテクチャにユニットまたはノードを配置して、入力と出力との間に複雑な非線形関係を作成する一般的なフレームワークである。各ニューラルネットワークは、入力層及び出力層を有し、層の形状は入力と出力の種類によって決まる。ニューラルネットワークの最も一般的な例は、入力層と出力層に加えて隠れ層を有する完全に接続されたフィードフォワードネットワークである(多層パーセプトロンと呼ばれる)。各ノードの値は、重みとバイアスでパラメータ化された活性化関数によって、後続層のノードに伝播される。隠れ層は入力及び出力に直接接続されていないが、出力の決定に役立つ特徴を入力層から自動的に抽出するために含まれている。学習の過程で、ニューラルネットワークは、多くのラベル付けされた例、または正しい出力が分かっている入力例に曝される。学習反復では、勾配計算と逆伝播によって各ノードの重みとバイアスを修正し、予め定められた損失関数を改善される。学習後、重みとバイアスは通常固定されたままとなり、ネットワークは学習した非線形関数を使用して、未知のデータに対して推論を行うことができる。
【0051】
ある種の入力タイプ及び出力タイプは、単純な多層パーセプトロンよりも洗練されたネットワークアーキテクチャの恩恵を受ける。例えば、入力データ(画像など)の2次元配列では、通常、畳み込みを使用して特徴を抽出する。畳み込みニューラルネットワークでは、フィルタを使用して2次元入力データを様々なチャネルを持つ特徴マップに変換する。一般に、複数の畳み込み層を使用して先行する特徴マップから特徴マップを作成し、多くの場合、完全に接続された出力アーキテクチャを使用して最終的な特徴マップ層からの出力を決定する。畳み込みニューラルネットワークは、正則化された多層パーセプトロンと考えることができる。各入力ピクセルが次層のすべてのノードに完全に接続される代わりに、畳み込みを使用して、隣接するピクセルに対するピクセルの配置から特徴を抽出する。多層パーセプトロンと畳み込みニューラルネットワークの概念は、本研究で採用されるより洗練されたニューラルネットワークアーキテクチャのフレームワークを提供する。
【0052】
3.4 ゼルニケ多項式
【0053】
ゼルニケ多項式は、円形領域の表面を記述するために使用される一連の多項式であり、もともとは光学分野での適用のために開発された[21]。ゼルニケ多項式には偶数多項式と奇数多項式とがあり、偶数多項式は下記の式(10)で与えられる。
【0054】
【数10】
【0055】
奇数多項式は下記の式(11)で与えられる。
【0056】
【数11】
【0057】
(r)は下記の式(12)で与えられる。
【0058】
【数12】
【0059】
式中、rは単位ディスク上の半径方向の位置(0≦r≦1)であり、θは方位角であり、m及びnは特定のゼルニケ多項式に固有の非負整数であり、R (1)=1である。ここでは、ゼルニケ多項式を使用して一般的なウェハ形状をパラメータ化し、ウェハ反りシグネチャ、所望のウェハ形状変換、または残留反りを記述する。一般的なウェハ形状を以下のように定義する。
【0060】
【数13】
【0061】
式中、aは各ゼルニケ多項式のインデックスであり、すなわち、a=0、1、2、3、4、5・・・は、それぞれ、(n、m)=(0、0)、(-1、1)、(1、1)、(-2、2)、(0、2)、(2、2)・・・に対応する。係数cは、各多項式のゼルニケ係数を表す。したがって、上記の一般式を用いて任意のウェハ形状を表現することができ、Nが大きくなるにしたがって、真の形状とゼルニケ表現との誤差は小さくなる。ゼルニケ表現を用いて、一般的なウェハ形状をN個の係数cでパラメータ化した方法で表現することができる。一般に、ウェハ形状は滑らかであり、N=20~50で十分な形状近似が得られる。
【0062】
4.好ましい実施形態の説明
【0063】
4.1 ハイレベルの概要
【0064】
本発明の実施形態は、オンライン展開に適した計算時間で補正膜パターンを最適化するために、有限要素法(FEM)と共に機械学習を利用するプロセスを提供する。図1Aに概略を示すように、特定の半導体製造工程で使用される適切なウェハ及び膜形状に対する線形弾性問題を解くために、FEMモデルソルバ100が構築される。補正膜パターン最適化フレームワーク102は、このFEMモデルソルバ100の上に構築され、ウェハ反りの低減を最大化するように補正膜パターンを最適化する。このFEMモデル及び最適化フレームワークを使用して、対応する所望のウェハ形状変換104のデータセットから補正膜パターン106を生成する。データセットの生成は、通常、標準的な中央処理装置を使用してシミュレーション技術者によって行われる。データセット生成は、必要に応じて、並列化することができる。
【0065】
補正膜パターン106のデータセットは、機械学習サロゲートモデル108においてニューラルネットワークを訓練するために、所望のウェハ形状変換104のデータセットと共に使用される。このことは、通常、機械学習エンジニアによって行われる。機械学習エンジニアはまた、製造に展開するためにモデルをパッケージ化する。サロゲートモデルの訓練は、グラフィカル処理ユニットの高速化の恩恵を受けるため、グラフィカル処理ユニットによるディープラーニングをサポートするハードウェアが推奨される。サロゲートモデル108は、一般的なモデルアーキテクチャ、層形状、及びハイパーパラメータを定義し、学習済みモデル112は、予測されるウェハ形状変換と実際のウェハ形状変換との差を最小化する(順モデルの場合)か、または、残留ウェハ反りを最小化する(コンパイル済みモデルの場合)ための特定のモデル重みを有するサロゲートモデルのインスタンスを表す。
【0066】
この学習済みモデル112は、半導体製造設備110に供給されて展開され、最適化フレームワークと同じ最適化タスクを実行するために使用されるが、計算時間はほんのわずかである。通常、プロセスエンジニアは、機械学習エンジニアと協力してパッケージモデルを使用する。この最後のステップに使用されるコンピュータシステムは、工場内のツールと統合することができ、再学習ステップ用のグラフィカル処理ユニット機能を有するハードウェアを備えるべきである。当事者としては、半導体工場を運営する企業、半導体工場に装置を提供する企業、及び、半導体工場を運営する企業または半導体工場に装置を提供する企業にソフトウェアを提供する企業が挙げられる。
【0067】
必要に応じて、学習済みモデル112は、シミュレートされたウェハ形状変換と実際のウェハ形状変換との間のデータ分布シフトを学習するために、物理的ウェハ(シミュレーションではない)の検証データセットを使用して、展開中に再訓練してもよい。この再訓練ステップの検証サンプルポイントを最適に選択するために、専用の能動学習アプローチを使用することができる。最後に、オンライン再訓練スキームを使用することにより、ウェハ反りまたはオーバレイ誤差をさらに低減し、データドリフトを考慮することができる。
【0068】
次に、有限要素法モデルソルバ100及び補正膜パターン最適化フレームワーク102の詳細について説明する。これらのステップを図1Bにより詳細に示す。
【0069】
4.2 ウェハ反りのFEMシミュレーション
【0070】
線形弾性偏微分方程式系を、有限要素法(FEM)を用いて解く。FEMモデルソルバ100の役割は、不均一な膜パターン120を入力とし、線形弾性偏微分方程式122を解いて、そのような補正膜を適用することがウェハに与える応力を決定し、次いで、その応力によってウェハが受けるウェハ形状変換124を決定することである。ウェハ及び補正膜を、不均一膜を有するディスクとしてモデル化した。そして、温度変化を定義し、Stoney方程式を用いて既知の均一膜応力に較正して熱膨張係数オフセットを設定することによって、膜応力をモデル化した。シミュレーションにおける最大膜厚は、印刷された補正膜の全厚を用いて設定され、シミュレーションにおけるウェハ全体の補正膜の厚さパターンは、印刷された補正膜の被覆率パターンを再現するように定義される。マトリックスを用いて膜を離散化し、この離散化パターン上で滑らかな3次元補間関数を使用してFEMシミュレーションの各ノードにおける正確な厚さを決定した。マトリックス寸法は、所望の空間分解能に基づいて選択することができる。ほとんどの場合、100~1000のオーダーの寸法が適切であろう。
【0071】
上述したように、有限要素解析(FEA)では、領域を有限要素に離散化することによって偏微分方程式の近似解が得られる。メッシュはドローネー三角分割法を使用して得られ、2次要素が用いられる(ノードは、各四面体の頂点と辺の中点に配置される)。ターゲットの最大要素長及び最小要素長は、約10、000個の要素の構造を取得するように設定される。使用するハードウェアのメモリ制約までは、近似誤差を減らすために要素数を増やすことができる。
【0072】
図2は、薄膜コーティングを有するウェハディスクのメッシュ表示200を示す。また、例示的なウェハ反りシグネチャ(Zは1000倍に誇張)の位置関数202としての面内変位(z=0平面における変位の大きさ)のプロットを示す。
【0073】
FEAシステムは、3.1節で説明した偏微分方程式系を用いて指定する。u(0、0)=0;u(0、0)=0;u(0、0)=0のポイントに、単一のディリクレ境界条件が与えられる。ノイマン条件は熱境界荷重から決定される(ウェハ及び補正膜間に熱膨張係数のオフセットを定義することによって)。ガウス・ニュートン反復スキームを用いた非線形ソルバでFEM系を解くことにより近似結果が得られる。単一ポイントのディリクレ条件のみを指定すると、解が任意の方向に傾く可能性があるため、解が無限集合になることに留意されたい。このことを考慮し、Z -1モード及びZ モードのc係数が正確に0になるまで解を傾けることにより、一意解を得た。
【0074】
FEMモデルには、使用される特定のシリコンウェハからの情報、及び補正膜に関する情報が組み込まれている。剛性テンソルCは、対象のシリコン結晶構造(例えば、c-Si(100)やc-Si(111))[4]について公表されている材料特性を使用する。ウェハの結晶構造は立方晶であるため、異方性構造挙動を有し、剛性テンソルは3つのパラメータで記述できることに留意されたい(等方性材料のように単純に弾性率とポアソン比ではない)。ウェハ寸法(厚さ及び半径)は、対象プロセスで使用されるウェハに基づいて指定される。また、補正膜応力値は、対象プロセスで使用する補正膜を用いて指定する。通常、応力値は、いくつかの既知の厚さで均一な膜を堆積させ、測定されたウェハ反りを達成する熱膨張生成物の温度差係数を定義する単純な実験を用いて較正される。最後に、補正膜堆積ツールの制限を用いて、印刷可能領域を指定する(通常、補正膜を堆積することが不可能な領域がウェハの外周付近に存在する)。
【0075】
4.3 補正膜パターン最適化フレームワーク
【0076】
図1Bに示すように、補正膜パターン最適化フレームワーク102が、FEMモデルソルバ100の上に構築される。最適化フレームワークは、ウェハ形状変換104のデータセットを入力とする。ウェハ形状変換104のデータセットの所望のウェハ形状変換128のそれぞれについて、最適化フレームワークは、この形状変換を達成することがFEMモデルソルバ100によって予測される最良の補正膜パターン(ゼルニケ係数126によってパラメータ化される)を見つける。このようにして、最適化フレームワークは、ウェハ形状変換104のデータセットから、それに対応する補正膜パターン106のデータセットを生成する。所望のウェハ形状変換128は、一般には、ウェハ反りの合計を最小化する変換(補正膜堆積前のウェハ反りシグネチャを除去する変換)、またはオーバレイ誤差を最小化することが知られている形状変換である。補正膜パターンは、定義された数のゼルニケ多項式126を用いてパラメータ化される。ここで、c係数は、補正膜パターンを定義するパラメータである。フレームワークは、ブロック132において、FEMモデルソルバ100からの現在の予測されたウェハ形状変換124が、所望のウェハ形状変換128に十分近く収束したかどうかをチェックする。最適化中に最小化するコスト関数は、所望のウェハ形状変換128と予測されたウェハ形状変換124によって達成される形状変換との間の絶対差として定義されることが好ましい。FEMモデルソルバ100に入力されたゼルニケ係数は、レーベンバーグ・マルカート・アルゴリズム130を用いて最適化される。アルゴリズムの各反復後、結果として得られたウェハ形状変換差コスト関数を、現在の膜パターンを用いて評価する。コスト関数が許容可能な基準内に収束した場合、オプティマイザを停止し、現在の膜パターン126は、ウェハ形状変換104のデータセット内のウェハ形状に対応するインデックスと共に、補正膜パターン106のデータセットに保存される。それ以外の場合は、レーベンバーグ・マルカート・アルゴリズムの指示にしたがってゼルニケ係数を調整し、オプティマイザを続行する。結果の一例を図3に示す。図3には、初期の所望のウェハ形状変換300、1次反り成分を減算した入力ウェハ形状変換302、及び、膜パターン最適化304によって返された膜パターン解が示されている。
【0077】
4.4 訓練データセットの生成
【0078】
補正膜パターン最適化フレームワーク102は、サロゲートモデル108を訓練するために使用されるデータセットを生成するための1つのストラテジーである。より一般には、訓練データセットは、(a)実際のウェハ測定から生成される、(b)FEMウェハ反りシミュレーションから生成される、及び/または、(c)補正膜パターン最適化フレームワーク102を使用して生成される。(a)及び(b)については、膜パターンのリストが生成される。膜パターンは、ゼルニケ係数ベースを使用してランダムに生成することができ、製造中に採用される可能性が最も高い膜パターンに対して何らかのバイアスを有し得る。(a)の利点は、データ分布が、製造時の分布により近くなることである。なお、実験データのみを使用して、ディープサロゲートモデルをゼロから訓練するのに十分な大規模なデータセットを得ることは実現不可能かもしれないため、ストラテジー(b)が好ましい。
【0079】
データセット生成ストラテジー(a)及び(b)は、可能性があるウェハ形状変換の空間を直接列挙しないという欠点がある。代わりに、可能性は「逆空間」すなわち膜パターン空間でサンプリングされる。ストラテジー(c)は、所望のウェハ形状変換を直接指定することを可能にし、このことは、製造において最も必要とされる可能性の高い形状変換にバイアスをかけたゼルニケ係数のランダム分布を用いて達成することもできる。20個のゼルニケ多項式が使用され、レーベンバーグ・マルカート・アルゴリズムが収束するまでに平均10回の反復を要する場合、ストラテジー(c)は、ストラテジー(b)と同じサイズのデータセットを生成するのに約200倍の時間を要する。
【0080】
訓練-検証-テストの分割ストラテジーを使用して、未知のデータに対するサロゲートモデルの性能を推定することができる。このクラスのモデルを訓練するために必要なデータのスケールを理解するために、サロゲートモデル検証誤差がデータセットサイズにどのように依存するかを調べる研究を行った。順モデル(膜パターンからウェハ反りを予測する)の結果を図4に示す。グラフ400、402、404、406、408、410はそれぞれ、125、250、500、1000、2000、4000の訓練サイズに対する検証誤差対エポックを示す。このタスクでは、訓練データのデータセットサイズが約4000個の場合、平均絶対誤差率が1%未満になる。一方、訓練データのデータセットサイズが1000個未満の場合、サロゲートモデルは訓練データにオーバーフィットする。この訓練検証ストラテジーにより、このモデルは未知のデータに対しても十分に一般化できるという確信が得られた。なお、訓練データセットは、実稼働環境で観察されると予想されるすべての例が同じ分布から得られるように注意して選択する必要がある。訓練セットが100~500μmの1次反りと0~30μmの最大高次反りを有するウェハを含む場合、(正確な形状が以前に観察されていなくても)その範囲内のウェハの例では良好な結果を示すが、これらの範囲から大きく外れた反りシグネチャを有するウェハの補正では良好な結果が得られない可能性が高い。
【0081】
実際には、上記のすべてのアプローチを組み合わせたデータセット生成ストラテジーが好ましい。まず、補正膜パターンとそれに対応するシミュレーションからのウェハ形状変換を含むデータセット(ストラテジー(b)または(c))を使用して、サロゲートモデルを訓練することができる。次に、実際のウェハのより小さな「検証データセット」を使用して、実際のシナリオとシミュレートされたシナリオとの違いを理解することができる。限られたデータセットの性能を最大化するために、どのように検証データセットを選択するかについての詳細は、4.6.1節で説明する。
【0082】
4.5 機械学習サロゲートモデル
【0083】
図1Cは、機械学習サロゲートモデル108の訓練と、その学習済みモデル112の製造への展開110との詳細を示す。ウェハ反り問題に採用されるサロゲートモデルは、3.3節で説明した畳み込みニューラルネットワークアーキテクチャに基づくディープニューラルネットワークである。製造への展開110においては、入力はウェハ反り形152であり、学習モデル148は、ウェハ形状をオーバレイ誤差が最小になる新しい形状に変換するために印刷すべき最良の補正膜154を推論150するために使用される。例えば、1つの目的は、ウェハを可能な限り平坦にして、オーバレイ誤差を減少させることである。FEMシミュレーションは、補正膜に基づいてウェハ形状変換を予測できるので、所望のウェハ形状変換から補正膜を決定することは逆問題と考えることができる。所望のウェハ形状変換を入力し、補正膜パターンと予測された実際の形状変換を出力できるモデルが望まれる(ただし、ウェハを完全に平坦にすることができない場合もある)。したがって、本モデルは、逆モデル-順モデルアーキテクチャを有し、逆モデル140は、ウェハ形状変換入力に基づいて出力としての膜パターンを決定し、順モデル142、144は、膜パターン入力に基づいてウェハ形状変換出力を決定する。図5は、サロゲートモデルアーキテクチャの追加の詳細を提供する。逆モデル500は、畳み込みニューラルネットワーク506を使用して、ウェハ形状変換504に基づく補正膜パターン508を出力する。順モデル502は、畳み込みニューラルネットワーク510を使用して、補正膜パターン508に基づくウェハ形状変換512を出力する。
【0084】
図1Cに戻り、推論中(製造において)、所望のウェハ形状変換がサロゲートモデル150に入力される。所望のウェハ形状変換は、ウェハを平坦にすることが目的である場合、単に、ブロック152において測定されたウェハ反りシグネチャの負である。次に、モデルは、推奨される補正膜パターンと、その補正膜パターンを適用したときに予測される結果の形状変換との両方を返す。そして、その補正膜パターンを半導体製造工程で使用して補正膜154を印刷する(図8参照)。補正膜の成膜後に予測される残留反りは、入力形状と出力形状との差である。
【0085】
順モデル142、144は、畳み込みUNetを使用し、逆モデル140はゼルニケCNNを使用する。両方とも、詳細は後述する。
【0086】
4.5.1 順モデルの詳細
【0087】
順モデル142、144(膜パターンからウェハ形状変換を予測する)に用いられるアーキテクチャは、畳み込みUNet(図5、502)である。この構造は、エンコーダがボトルネックにダウンサンプリングし、デコーダが結果の出力アレイにアップサンプリングするエンコーダ-デコーダモデルの特殊なケースである。エンコーダ部は、入力から特徴を抽出する一連の畳み込み演算を伴う一般的な畳み込みニューラルネットワーク(CNN)と同様に機能する。図6は、サロゲートモデルにおける順モデルのUNetアーキテクチャの詳細を示す。各層には対称的なスキップ接続があり、低周波情報を入力から出力に通過させることができる。エンコーダ/ダウンサンプリングセクションでは、最初の3つの層で、各層の特徴数が2倍になる。デコーダセクションでは、各ステップが特徴マップをアップサンプリングし、続いてアップコンボリューションを行って特徴チャネルの数を減らし、エンコーダセクションのシブリング層からのスキップ接続と連結する。まとめると、UNetアーキテクチャは、画像間の変換や画像セグメンテーションを含む多くのタスクにおいて、代替アーキテクチャよりも少ないデータセットでより高速な訓練と優れた性能を実現することが証明された[22-24]。
【0088】
図6に示すように、各エンコーダユニット及びデコーダユニットをそれぞれ添え字「e」及び「d」で示す。エンコーダユニットC 64は、64個のフィルタ、4×4のカーネルサイズ、ストライド長2(各次元)、それに続くバッチ正規化及びLeaky ReLU活性化を有する2次元畳み込み層を示す。バッチ正規化(訓練中のミニバッチによる層への入力の標準化)は、訓練を加速し(内部共変量シフトを防止する)、ある程度の正則化を提供するため、ディープニューラルネットワークに有用である(最初のエンコーダ層ではバッチ正規化を採用していないことに留意されたい)。デコーダユニットC 512は、512個のフィルタ、4×4のカーネルサイズ、ストライド長2、それに続くバッチ正規化及びReLU活性化を有する転置2次元畳み込み層を示す。最初のいくつかのデコーダ層は、さらなる正則化のためにドロップアウトも採用している。B層はボトルネック(単純な畳み込み層)を示し、A層は出力へのtanh活性化を示す。すべての層は、ランダムな正規分布で初期化された重みを有する。
【0089】
実際には、上記の一般的なアーキテクチャが使用されるが、特定のハイパーパラメータは、訓練-検証データセット分割を使用して多くの実験を実行し、検証セットの誤差を最小限に抑えるハイパーパラメータのセットを選択することによって調整される。一般に、平均二乗誤差の平均は、ネットワーク訓練で使用されるメトリックである(予測形状と実際の形状との差を取り、それを2乗し、形状全体の平均を取り、そして、サンプル全体の平均を取る)。Adamオプティマイザは通常、ネットワークの最適化に使用される。検証誤差検査によって調整可能なハイパーパラメータとしては、デコーダ層とエンコーダ層の数、各層のフィルタ数、ドロップアウト層のドロップアウト率、Leaky ReLUのLeaky勾配、バッチサイズ、及び、Adamオプティマイザの学習率とベータパラメータなどが挙げられる。
【0090】
推論時にコンパイル済みサロゲートモデル146は、入力を逆モデル140に送り、次に順モデル144に送る。なお、全体的なサロゲートモデルの訓練において、最初のステップは順モデルに所望のデータセットを提供することである。ここで、膜パターンはUNetへの入力であり、ウェハ形状は出力である。次に、ハイパーパラメータを調整し、順モデルの性能が満足のいくものになるまで順モデルを訓練することができる。その後、順モデルの重みを凍結し、後述するように、モデルを使用して逆モデルとコンパイル済みモデルを訓練することができる。
【0091】
4.5.2 逆モデルの詳細
【0092】
まず、入力として膜パターンを使用し、出力としてウェハ形状変換を使用して、順モデル142を訓練する。次に、事前に訓練された順モデルをロードして逆モデル140及びコンパイル済みモデル146を訓練し、順モデル層144内の重みを凍結し、そして、入力及び出力の両方としてウェハ形状変換を使用してコンパイル済みモデルを訓練する。逆モデルとしてゼルニケCNNを使用する。基本的に、これは、完全に接続された出力を持つ複数の畳み込み層を有するCNNであり、画像分類に使用されるCNNに似ている。違いは、完全に接続された出力の最後の高密度層の単位が、上記の式13にしたがって膜パターン形状を構築するために使用されるゼルニケ係数を提供することである。ゼルニケCNNストラテジーは、膜パターン出力の正則化を可能にし、実際に達成可能な滑らかな膜パターンへのバイアスを与える。
【0093】
ゼルニケCNN逆モデルの詳細を図7に示す。入力ウェハ形状変換は、特徴マップを作成するために一連の畳み込み層に送られる。ここで、C64は、64個のフィルタ、カーネルサイズ3×3、ストライド長1(各次元)、ReLU活性化及びプールサイズ2の2次元最大プーリングを有する2次元畳み込み層を示す。最後の畳み込み層の後、出力は平坦化され、その後、高密度層に完全に接続される。ここで、D64は、64単位及びドロップアウトを有する高密度層を示す。D64は、N個のゼルニケ係数(式13のc係数)を含む第二の高密度層に完全に接続される。「Z」層は、前層のc を用いて、式13を使用してウェハ形状変換を構成する。結果は、tanh活性化及び出力に送られる。
【0094】
ゼルニケCNNは、ウェハ形状変換が与えられた膜パターンを返す。訓練中、各入力ウェハ形状変換に対して、得られた膜パターンは、次に、事前訓練された順モデル(膜パターンが与えられたウェハ形状変換を返す)に送られる。コンパイル済みモデルは、逆モデルの入力形状と順モデルからの出力形状との差を最小化することによって訓練される(ここでも、平均二乗誤差の平均が誤差関数として通常使用される)。コンパイル済みモデルの訓練中に順モデルの重みが凍結され、逆モデルの重みのみが調整される。また、逆モデル/コンパイル済みモデルは、検証誤差を最小限に抑えるために、訓練-検証分割を使用して一連のハイパーパラメータを選択する。逆モデルで最適化可能なハイパーパラメータとしては、畳み込み層の数、各層の畳み込みフィルタの数、高密度層と単位の数、完全に接続された層のドロップアウト率、ゼルニケモードの数(最後の高密度層の単位数を決定する)、及び、Adamオプティマイザの学習率とベータパラメータなどが挙げられる。
【0095】
図8は、サロゲートモデルによって生成されたウェハ反りシグネチャ800の入力、補正膜パターン802、及び予測残留反り出力804の一例を示す。ここで、単一インスタンスのサロゲートモデル予測時間は約0.1秒であり(FEMよりも3~4桁速い)、多数のウェハ形状変換が同時に処理される場合、予測時間はさらに速くなる。
【0096】
4.5.3 代替モデルアーキテクチャ
【0097】
4.5.1節及び4.5.2節でのモデルの詳細な説明では、このタスクの優れた性能を実証した1つのサロゲートモデルの概念を示しているに過ぎない。代替UNet/ゼルニケ-CNN設計、敵対的生成ネットワーク、または確率的エンコーダ-デコーダネットワークなどの、ウェハ反り補正膜パターン決定のためのサロゲートモデルとして使用できる他のモデル概念がいくつかある。
【0098】
上記では、順モデルとしてUNetを使用し、逆モデルとしてゼルニケCNNを使用することを説明したが、他の有望なストラテジーとしては、順モデル及び逆モデルの両方としてUNetを使用すること、順モデル及び逆モデルの両方としてゼルニケCNNを使用すること、または、逆モデルとしてUNetを使用し、順モデルとしてゼルニケCNNを使用することが挙げられる。一般に、ゼルニケCNNは、より大きな形状正則化(滑らかな形状へのバイアス)を提供するが、UNetは、より高い分散/ノイズを持つ2次元関数に適合するためにより汎用性が高い。一般に、UNet及びゼルニケ-CNNの両方が、出力がネットワークコスト関数に直接影響する順モデルとして良好に動作することが実験で示されており、したがって、最適な選択は、訓練データセットのサイズ及び計算リソースに依存する。一般に、データセットのサイズ及び計算リソースが制限されていない場合、UNetは、より多様なウェハ形状変換により厳密にフィッティングできる可能性が高い。対照的に、逆モデルが訓練済みのモード(逆モデル出力がコスト関数に直接影響しない)では、ゼルニケCNNが提供する滑らかな2次元関数への正則化及びバイアスが有益と思われるが、これは正確なデータセットに依存する可能性がある。
【0099】
別のモデル概念は、pix2pixモデル[24]などの条件付き生成敵対的ネットワーク(cGAN)[25]である。GANモデルは、生成器モデルと識別器モデルとが互いを欺こうとする異なる学習ストラテジーを持ち、どちらのモデルも時間の経過とともに改善される。生成器モデルのタスクは、入力画像に対する現実的なペアである画像を生成することであり、一方、識別器のタスクは、入力された画像ペアを本物または偽物として分類することである(偽物のペアは生成器によって提供される)。生成器は、UNetアーキテクチャを持つことができ、識別子は、バイナリ分類(本物または偽物)のための単純なCNNアーキテクチャを持つことができる。別のストラテジーは、画像ペア全体が本物か偽物かを決定するのではなく、画像全体の小さなパッチに対して行われるように、パッチを使用することである[24]。cGANストラテジーは、画像間変換タスク(画像間変換とは、膜パターンからウェハ形状への変換、またはウェハ形状から膜パターンへの変換を意味する)において多くの利点がある。敵対的損失は、高周波数情報をぼかす平均二乗誤差を用いて学習されたモデルとは対照的に、画像の高周波数の「鮮明さ」を保持する。別の利点は、(おそらく逆ウェハ反り問題の場合のように)同じように妥当な結果画像が複数存在する場合、cGANは様々な可能性のある良い解の平均ではなく、1つの明確な良い解を提供することである。これらの理論的利点にもかかわらず、我々の実験では、平均二乗誤差で訓練したUNetモデル及びゼルニケCNNモデルは、cGANアプローチよりも良い結果を与え、より安定した訓練が可能であることを示した。
【0100】
別のモデル概念は、確率的エンコーダ-デコーダである。これらのストラテジーの例としては、条件付き変分オートエンコーダ[26、27]や確率的UNet[28]が挙げられる。これらのアプローチでは、結果は、正確な形状ではなく、結果の2次元配列上の各位置での確率分布である。コンパイル済みモデルストラテジーは、膜パターン及びウェハ形状の変換計算の期待値を取ることになるので、確率的アプローチの利点は直接的に明らかにならないことが分かった。なお、確率論的モデルを使用することで、後述する能動学習とオンライン再訓練のステップで利点が得られる可能性がある。
【0101】
4.6 さらなるウェハ反り低減のための能動学習
【0102】
コンパイル済みのサロゲートモデルは、FEMデータセットを使用してゼロから訓練した後、実際のウェハからのデータを使用して再訓練することによってさらに改善することができる。このような改善は、検証データセットを使用した製造前、または製造中のオンラインで実現することができる。
【0103】
4.6.1 検証データセットを使用した能動学習によるモデルの改善
【0104】
4.3節で考察したように、物理的ウェハ上の計測を含む2次データセットを使用して、シミュレートしたウェハ反り挙動と実際のウェハ反り挙動との差異を学習することができる。このモードでは、サンプルあたりのコストがはるかに大きいため、データセットはシミュレートしたデータセットよりもはるかに小さい可能性が高い。したがって、検証データセットの少量の例で最大のモデル改善を得るべく、最適な膜パターンを選択するために、特別な能動学習アプローチを使用する。
【0105】
能動学習は、ラベル付けされていないデータは豊富だが、ラベル付けされた例は少ない機械学習の分野である。不確実性推定器を使用して、最大の不確実性を持つラベル付けされていない例を決定し、これらの例がモデルに最大の利益をもたらすと仮定して、これらの例をオラクルによってラベル付けされるように選択する。ただし、このケースは、(a)データの分布が元の訓練とオラクルからの新しいラベルの間で異なること、及び、(b)コンパイル済みサロゲートモデルが決定論的であること(確率分布が利用できない)から、一般的な能動学習の問題とは少し異なる。そこで、バッチモードの「補助モデル」アプローチを採用し、確率的補助モデルを検証データセットの誤差で訓練し、高誤差と高不確実性との組み合わせを用いて次のバッチのためのサンプルを選択する。実際には、能動学習モデルは、検証用に印刷する膜パターンのバッチを提案し、この新しい検証データでサロゲートモデルを更新し、そして、検証用の新しいバッチを提案する。このプロセスは、検証データに対するモデルの性能が満足のいくものになるまで繰り返される。
【0106】
4.6.2 製造中のモデルのオンライン改善
【0107】
製造中、サロゲートモデル再訓練158は、ウェハのサブセットからのダウンストリーム測定結果156の形で一貫したフィードバックを提供される。このデータを使用して、サロゲートモデルの性能をモニタし、必要に応じて製造モデル150を再訓練及び更新することができる。バッチサイズ、サンプル重み、及びモデル訓練ハイパーパラメータ(例えば、オプティマイザ学習率、訓練エポック数、モデル凍結層など)を指定する再訓練ポリシーが実装される。計測データがモデルに送信されると、再訓練ポリシーにしたがって再訓練が行われ、新しいデータ内の訓練-検証-テストの分割を使用して、現在展開されているモデルに対する利点を決定する(検証は、最適な再訓練方針を決定するために使用され、テストセットは、未知のデータに対する新しいモデルの性能を推定するために使用される)。有意な利点が検出されると、プロセスオーナーに新しいモデルが利用可能になったことを通知し、更新プログラムをいつ展開するかを決定することができる。このプロセスにより、動的な製造環境におけるデータセットのドリフトに対してロバストなサロゲートモデルが可能になる。
【0108】
参考文献
「(1) Brunner, T. A.; Menon, V. C.; Wong, C. W.; Gluschenkov, O.; Belyansky, M. P.; Felix, N. M.; Ausschnitt, C. P.; Vukkadala, P.; Veeraraghavan, S.; Sinha, J. K. Characterization of Wafer Geometry and Overlay Error on Silicon Wafers with Nonuniform Stress. Journal of Micro/Nanolithography, MEMS, and MOEMS. 2013, p 043002. https://doi.org/10.1117/1.jmm.12.4.043002.」
「(2) Brunner, T.; Menon, V.; Wong, C.; Felix, N.; Pike, M.; Gluschenkov, O.; Belyansky, M.; Vukkadala, P.; Veeraraghavan, S.; Klein, S.; Hoo, C. H.; Sinha, J. Characterization and Mitigation of Overlay Error on Silicon Wafers with Nonuniform Stress. Optical Microlithography XXVII. 2014. https://doi.org/10.1117/12.2045715.」
「(3) Veeraraghaven, S.; Turner, K. T.; Sinha, J. Simulation of Non-Uniform Wafer Geometry and Thin Film Residual Stress on Overlay Errors. Metrology, Inspection, and Process Control for Microlithography XXV. 2011. https://doi.org/10.1117/12.879493.」
「(4) Janssen, G. C. A. M.; Abdalla, M. M.; van Keulen, F.; Pujada, B. R.; van Venrooy, B. Celebrating the 100th Anniversary of the Stoney Equation for Film Stress: Developments from Polycrystalline Steel Strips to Single Crystal Silicon Wafers. Thin Solid Films 2009, 517 (6), 1858-1867.」
「(5) Chen, C.-M.; Yu, C.-Y.; Tsai, C.-S.; Hwang, H.-Y. D. Reducing Wafer Distortion through a Low CTE Layer. 8476146, July 2, 2013.」
「(6) O'rourke, S.; Loy, D.; Jiang, H. Assemblies and Methods for Reducing Warp and Bow of a Flexible Substrate during Semiconductor Processing, 2014.」
「(7) Storck, P.; Sachs, G.; Rothammer, U.; Thapa, S. B.; Schwenk, H.; Dreier, P.; Muemmler, F.; Mayrhuber, R. Layered Semiconductor Substrate with Reduced Bow Having a Group III Nitride Layer and Method for Manufacturing It. 10192739, January 29, 2019.」
「(8) Moore, J. T.; Deboer, S. J.; Fischer, M. Semiconductor Wafer Assemblies Comprising Silicon Nitride, Methods of Forming Silicon Nitride, and Methods of Reducing Stress on Semiconductive Wafers. 5985771, November 16, 1999.」
「(9) Hooge, J.; Ip, N.; Estrella, J.; deVilliers, A. Amelioration of Global Wafer Distortion Based on Determination of Localized Distortions of a Semiconductor Wafer. 10622233, April 14, 2020.」
「(10) Devilliers, A. J.; Mathews, T. A. Systems and Methods for Generating Backside Substrate Texture Maps for Determining Adjustments for Front Side Patterning, 2015.」
「(11) Kang, H.; deVilliers, A. J. Substrate Holding Apparatus and Method for Shape Metrology. 20190283218:A1, September 19, 2019.」
「(12) Devilliers, A. J.; Fulford, D. Location-Specific Tuning of Stress to Control Bow to Control Overlay in Semiconductor Processing, 2019.」
「(13) Devilliers, A. J. Method for Correcting Wafer Bow from Overlay, 2017.」
「(14) Wallace, J. M.; Hommema, J. A.; Searles, K. H.; Hsu, S.-Y.; Wan, J.; Grueschow, E. R. Space-Time Surrogate Models of Subterranean Regions. 9043189, May 26, 2015.」
「(15) Lam, K. P.; Lee, Y. M.; Liu, F.; Snowdon, J. L.; Yang, J.; Zhang, R. Optimal Selection of Building Components Using Sequential Design via Statistical Based Surrogate Models. 20140365180:A1, December 11, 2014.」
「(16) Itu, L. M.; Passerini, T.; Sharma, P. Method and System for Personalized Non-Invasive Hemodynamic Assessment of Renal Artery Stenosis from Medical Images. 10595790, March 24, 2020.」
「(17) Usadi, A.; Li, D.; Parashkevov, R.; Terekhov, S. A.; Wu, X.; Yang, Y. Methods and Systems for Machine-Learning Based Simulation of Flow. 9187984, November 17, 2015.」
「(18) Tallman, J. A.; Tucker, E.; Zacharias, R.; Gallo, A.; Russo, V. Autonomous Surrogate Model Creation Platform. 20200042659:A1, February 6, 2020.」
「(19) Feng, X.; Huang, Y.; Rosakis, A. J. On the Stoney Formula for a Thin Film/Substrate System With Nonuniform Substrate Thickness. J. Appl. Mech. 2007, 74 (6), 1276-1281.」
「(20) Pureza, J. M.; Lacerda, M. M.; De Oliveira, A. L.; Fragalli, J. F.; Zanon, R. A. S. Enhancing Accuracy to Stoney Equation. Appl. Surf. Sci. 2009, 255 (12), 6426-6428.」
「(21) Zernike, von F. Beugungstheorie Des Schneidenver-Fahrens Und Seiner Verbesserten Form, Der Phasenkontrastmethode. Physica 1934, 1 (7), 689-704.」
「(22) Ronneberger, O.; Fischer, P.; Brox, T. U-Net: Convolutional Networks for Biomedical Image Segmentation. In Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015; Springer International Publishing, 2015; pp 234-241.」
「(23) Jansson, A.; Humphrey, E.; Montecchio, N.; Bittner, R.; Kumar, A.; Weyde, T. Singing Voice Separation with Deep U-Net Convolutional Networks; openaccess.city.ac.uk, 2017.」
「(24) Isola, P.; Zhu, J.-Y.; Zhou, T.; Efros, A. A. Image-to-Image Translation with Conditional Adversarial Networks. In Proceedings of the IEEE conference on computer vision and pattern recognition; openaccess.thecvf.com, 2017; pp 1125-1134.」
「(25) Goodfellow, I. J.; Pouget-Abadie, J.; Mirza, M.; Xu, B. Generative Adversarial Networks. arXiv preprint arXiv 2014.」
「(26) Kingma, D. P.; Welling, M. Auto-Encoding Variational Bayes. arXiv [stat.ML], 2013.」
「(27) Rezende, D. J.; Mohamed, S.; Wierstra, D. Stochastic Backpropagation and Approximate Inference in Deep Generative Models. In Proceedings of the 31st International Conference on Machine Learning; Xing, E. P., Jebara, T., Eds.; Proceedings of Machine Learning Research; PMLR: Bejing, China, 2014; Vol. 32, pp 1278-1286.」
「(28) Kohl, S. A. A.; Romera-Paredes, B.; Meyer, C.; De Fauw, J.; Ledsam, J. R.; Maier-Hein, K. H.; Ali Eslami, S. M.; Rezende, D. J.; Ronneberger, O. A Probabilistic U-Net for Segmentation of Ambiguous Images. arXiv [cs.CV], 2018.」
図1A
図1B
図1C
図2
図3
図4
図5
図6
図7
図8
【国際調査報告】