IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ルドルフ・テクノロジーズ,インコーポレーテッドの特許一覧

特開2023-55660ハイミックス半導体製造における深層学習モデル
<>
  • 特開-ハイミックス半導体製造における深層学習モデル 図1
  • 特開-ハイミックス半導体製造における深層学習モデル 図2
  • 特開-ハイミックス半導体製造における深層学習モデル 図3
  • 特開-ハイミックス半導体製造における深層学習モデル 図4
  • 特開-ハイミックス半導体製造における深層学習モデル 図5
  • 特開-ハイミックス半導体製造における深層学習モデル 図6
  • 特開-ハイミックス半導体製造における深層学習モデル 図7
  • 特開-ハイミックス半導体製造における深層学習モデル 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2023055660
(43)【公開日】2023-04-18
(54)【発明の名称】ハイミックス半導体製造における深層学習モデル
(51)【国際特許分類】
   G05B 23/02 20060101AFI20230411BHJP
   H01L 21/66 20060101ALI20230411BHJP
   G06N 3/08 20230101ALI20230411BHJP
   G06N 3/044 20230101ALI20230411BHJP
【FI】
G05B23/02 R
H01L21/66 Z
G06N3/08
G06N3/044
【審査請求】有
【請求項の数】14
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2022152520
(22)【出願日】2022-09-26
(31)【優先権主張番号】63/247,904
(32)【優先日】2021-09-24
(33)【優先権主張国・地域又は機関】US
(71)【出願人】
【識別番号】516312501
【氏名又は名称】オントゥー イノヴェイション インコーポレイテッド
(74)【代理人】
【識別番号】100094569
【弁理士】
【氏名又は名称】田中 伸一郎
(74)【代理人】
【識別番号】100103610
【弁理士】
【氏名又は名称】▲吉▼田 和彦
(74)【代理人】
【識別番号】100109070
【弁理士】
【氏名又は名称】須田 洋之
(74)【代理人】
【識別番号】100067013
【弁理士】
【氏名又は名称】大塚 文昭
(74)【代理人】
【識別番号】100086771
【弁理士】
【氏名又は名称】西島 孝喜
(74)【代理人】
【識別番号】100109335
【弁理士】
【氏名又は名称】上杉 浩
(74)【代理人】
【識別番号】100120525
【弁理士】
【氏名又は名称】近藤 直樹
(74)【代理人】
【識別番号】100139712
【弁理士】
【氏名又は名称】那須 威夫
(74)【代理人】
【識別番号】100176418
【弁理士】
【氏名又は名称】工藤 嘉晃
(72)【発明者】
【氏名】ユーレイ スン
(72)【発明者】
【氏名】シェルビー クレイン
(72)【発明者】
【氏名】スティーヴン マクウィリアムズ
(57)【要約】
【課題】半導体製造環境において深層学習モデルを構築及び展開することは、単純で簡単なプロセスではなく、特にハイミックス製造環境では、複雑なステップを伴うため、AI/ML技術を半導体製造に採用することは、困難であった。
【解決手段】堆積、化学機械研磨(CMP)、エッチング、フォトリソグラフィ、めっきなどのハイミックス半導体製造のための製作戦略にニューラルネットワーク深層学習モデルを適用するための開示された技術。製作戦略の訓練及び通常動作モードが、記載される。
【選択図】図2
【特許請求の範囲】
【請求項1】
半導体デバイスを製造するための少なくとも1つの処理パラメータを設定する方法であって、前記方法が、
前記少なくとも1つの処理パラメータに関するコンテキスト情報を受信することと、
前記コンテキスト情報を機械学習ネットワークに入力することと、
前記機械学習ネットワークから前記少なくとも1つの処理パラメータについての予測値を受信することと、
前記予測値に基づいて、前記少なくとも1つの処理パラメータを設定して、前記半導体デバイスを製造することと、
前記少なくとも1つの処理パラメータと関連付けられた前記半導体デバイスの測定結果を受信することと、
前記測定結果を前記機械学習ネットワークにフィードバックすることと、を含む、方法。
【請求項2】
前記機械学習ネットワークが、リカレントニューラルネットワーク(RNN)深層学習モデルを含む、請求項1に記載の方法。
【請求項3】
前記機械学習ネットワークが、
履歴生成と関連付けられたデータを取得することと、
前記少なくとも1つの処理パラメータに関連する複数の特徴に基づいて、前記データのサブセットを選択することであって、前記複数の特徴が独立している、選択することと、
訓練のために前記機械学習ネットワークに前記サブセットを入力することと、を含む訓練プロセスを使用して、前記予測値を生成するように訓練される、請求項1に記載の方法。
【請求項4】
前記訓練プロセスが、
前記データの前記サブセットをフィルタリングして、外れ値を除去することを更に含む、請求項3に記載の方法。
【請求項5】
前記訓練プロセスが、
前記データの前記サブセット内のストリングデータを数値に変換することを更に含む、請求項3に記載の方法。
【請求項6】
前記訓練プロセスが、
前記データの前記サブセットをスケーリングして、正規化されたデータを生成することを更に含む、請求項3に記載の方法。
【請求項7】
前記訓練プロセスが、
前記機械学習ネットワークと関連付けられている少なくとも1つのハイパーパラメータを調整することを更に含む、請求項3に記載の方法。
【請求項8】
制御システムであって、
少なくとも1つのハードウェアプロセッサと、
少なくとも1つのメモリであって、前記少なくとも1つのハードウェアプロセッサによって実行されると、前記少なくとも1つのハードウェアプロセッサに、
少なくとも1つの処理パラメータに関するコンテキスト情報を受信することと、
前記コンテキスト情報を機械学習ネットワークに入力することと、
前記機械学習ネットワークから前記少なくとも1つの処理パラメータについての予測値を受信することと、
前記予測値に基づいて、前記少なくとも1つの処理パラメータを設定して、半導体デバイスを製造することと、
前記少なくとも1つの処理パラメータと関連付けられた前記半導体デバイスの測定結果を受信することと、
前記測定結果を前記機械学習ネットワークにフィードバックすることと、を含む動作を実行させる命令を記憶する、少なくとも1つのメモリと、を備える、制御システム。
【請求項9】
前記機械学習ネットワークが、リカレントニューラルネットワーク(RNN)深層学習モデルを含む、請求項8に記載の制御システム。
【請求項10】
前記機械学習ネットワークが、
履歴生成と関連付けられたデータを取得することと、
前記少なくとも1つの処理パラメータに関連する複数の特徴に基づいて、前記データのサブセットを選択することであって、前記複数の特徴が独立している、選択することと、
訓練のために前記機械学習ネットワークに前記サブセットを入力することと、を含む訓練プロセスを使用して、前記予測値を生成するように訓練される、請求項8に記載の制御システム。
【請求項11】
前記訓練プロセスが、
前記データの前記サブセットをフィルタリングして、外れ値を除去することを更に含む、請求項10に記載の制御システム。
【請求項12】
前記訓練プロセスが、
前記データの前記サブセット内のストリングデータを数値に変換することを更に含む、請求項10に記載の制御システム。
【請求項13】
前記訓練プロセスが、
前記データの前記サブセットをスケーリングして、正規化されたデータを生成することを更に含む、請求項10に記載の制御システム。
【請求項14】
前記訓練プロセスが、
前記機械学習ネットワークと関連付けられている少なくとも1つのハイパーパラメータを調整することを更に含む、請求項10に記載の制御システム。
【発明の詳細な説明】
【技術分野】
【0001】
(関連出願の相互参照)
本出願は、2021年9月24日に出願された米国仮特許出願第63/247,904号に対する優先権の利益を主張し、その内容は、参照によりその全体が本明細書に組み込まれる。
【0002】
(発明の分野)
本開示は、概して、堆積、化学機械研磨(chemical-mechanical polishing、CMP)、エッチング、フォトリソグラフィ、めっきなどのハイミックス半導体製造のための製作戦略において、リカレントニューラルネットワーク(recurrent neural network、RNN)深層学習モデルなどの深層学習ネットワークを適用することに関する。
【背景技術】
【0003】
半導体製造は、典型的には、堆積時間を計算することなどの処理パラメータのための線形プロセスモデルを利用する。例えば、層厚対プロセス時間の線形プロセスモデルを使用して、プロセス時間を計算することができる。しかしながら、線形プロセスモデルは、その応用及び用途の点で限定的である可能性がある。
【発明の概要】
【発明が解決しようとする課題】
【0004】
過去10年において、主にデータ及び計算能力の利用可能性のとてつもない拡大にけん引されて、人工知能(artificial intelligence、AI)及び機械学習(machine learning、ML)技術は、多くの異なる領域にそれらの活路を見出し、我々の生活及び問題を解決する方法を破壊的に変化させた。例えば、これらの技術は、オンライン検索及びショッピングの結果を精密化し、広告をカスタマイズし、ニュースフィードを調整し、また更には車を運転することもできる。最近、データから自律的に学習し、パターン及び関係付けを迅速に見出すAI/MLの能力は、半導体製造産業での計測及び検査にその用途を見出している。しかしながら、半導体製造環境において深層学習モデルを構築及び展開することは、単純で簡単なプロセスではなく、特にハイミックス製造環境では、複雑なステップを伴うため、AI/ML技術を半導体製造に採用することは、困難であった。
【課題を解決するための手段】
【0005】
本開示は、堆積、化学機械研磨(CMP)、エッチング、フォトリソグラフィ、めっきなどのハイミックス半導体製造のための製作戦略にリカレントニューラルネットワーク(RNN)深層学習モデルを適用するための技術を説明する。
【0006】
本開示は、半導体デバイスを製造するための少なくとも1つの処理パラメータを設定する方法を説明する。この方法は、少なくとも1つの処理パラメータに関するコンテキスト情報を受信することと、コンテキスト情報を機械学習ネットワークに入力することと、機械学習ネットワークから少なくとも1つの処理パラメータについての予測値を受信することと、予測値に基づいて、少なくとも1つの処理パラメータを設定して、半導体デバイスを製造することと、少なくとも1つの処理パラメータと関連付けられた半導体デバイスの測定結果を受信することと、測定結果を機械学習ネットワークにフィードバックすることと、を含む。
【0007】
本開示は、少なくとも1つのハードウェアプロセッサを含む制御システムも説明する。制御システムは、少なくとも1つのメモリであって、少なくとも1つのハードウェアプロセッサによって実行されると、少なくとも1つのハードウェアプロセッサに、少なくとも1つの処理パラメータに関するコンテキスト情報を受信することと、コンテキスト情報を機械学習ネットワークに入力することと、機械学習ネットワークから少なくとも1つの処理パラメータについての予測値を受信することと、予測値に基づいて、少なくとも1つの処理パラメータを設定して、半導体デバイスを製造することと、少なくとも1つの処理パラメータと関連付けられた半導体デバイスの測定結果を受信することと、測定結果を機械学習ネットワークにフィードバックすることと、を含む動作を実行させる命令を記憶する、少なくとも1つのメモリ、も含む。
【0008】
本開示は、機械記憶媒体であって、機械によって実行されると、機械に、少なくとも1つの処理パラメータに関するコンテキスト情報を受信することと、コンテキスト情報を機械学習ネットワークに入力することと、機械学習ネットワークから少なくとも1つの処理パラメータについての予測値を受信することと、予測値に基づいて、少なくとも1つの処理パラメータを設定して、半導体デバイスを製造することと、少なくとも1つの処理パラメータと関連付けられた半導体デバイスの測定結果を受信することと、測定結果を機械学習ネットワークにフィードバックすることと、を含む動作を実行させる命令を具現化する、機械記憶媒体を更に説明する。
【0009】
添付の図面の様々な図面は、本開示の例示的な実装形態を単に例解するものであり、その範囲を限定するものとみなされるべきではない。
【図面の簡単な説明】
【0010】
図1】本開示のいくつかの例による、製作システムの例示的な部分を例解する。
図2】本開示のいくつかの例による、RNN深層学習モデルに基づくランツーラン戦略のフレームワークを示す。
図3】本開示のいくつかの例による、RNNモデルを訓練するための方法のフロー図である。
図4】本開示のいくつかの例による、堆積速度モデルのための選択特徴の例を例解する。
図5】本開示のいくつかの例による、ストリングデータを変換するワンホットエンコーディングの一例を例解する。
図6】本開示のいくつかの例による、通常動作モードで半導体デバイスを製造するための方法のフロー図を例解する。
図7】本開示のいくつかの例による、堆積コントローラのシミュレーション結果を示す。
図8】本明細書で考察される技術(例えば、方法論)のうちのいずれか1つ以上が実行され得る機械を備える例のブロック図を例解する。
【発明を実施するための形態】
【0011】
リカレントニューラルネットワーク(RNN)深層学習モデルは、堆積、化学機械研磨(CMP)、エッチング、フォトリソグラフィ、めっきなどのハイミックス半導体製造のための製作戦略に適用され得る。RNNモデルは、訓練され、次いで、製作戦略にランタイムで使用され得る。製作戦略の訓練及び通常動作モードが、説明される。
【0012】
第1に、RNNモデルが、訓練モード中にプロセスパラメータを計算するように構成及び訓練される。訓練モードでは、関連する試験データが、収集され得る。収集されたデータは、異なる特徴(又はモデルの入力)を含み得る。いくつかの例では、特徴は、互いに独立的であり得る。収集されたデータは、モデル抽出のための、特徴に基づいた十分な変動性を含み得る。収集されたデータは、前処理され得る。例えば、ストリングデータは、数値データに変換され得る。また、収集されたデータは、特徴が、絶対値ではなく、それらの割合によって評価されるようにスケーリングされ得る。更に、モデルのハイパーパラメータが、調整され得る。
【0013】
第2に、通常動作(ランタイム)モードでは、訓練されたRNNモデルが、製造プロセスに展開されて、処理パラメータを計算及び設定し得る。各実行についての関連データが、収集され得る。データは、処理及びフィルタリングされ、次いで、更新のためにRNNモデルにフィードバックされ得る。次いで、更新されたRNNモデルが、半導体製造プロセスの処理パラメータを改善された精度で予測し得る。例えば、堆積時間、露光用量、オーバーレイ設定などの異なるプロセスのための機械設定が、本明細書に説明されるRNNモデル技術を使用して計算され得る。
【0014】
図1は、本明細書に図示及び説明される1つ以上の技術を実行するために使用され得る製作システム100の例示的な部分を例解する。製作システム100は、半導体デバイスなどの基板102を製造及び検査するために使用され得る。
【0015】
製作システム100は、製作のために基板102上で処理ステップを実行するために、1つ以上のツール110(機械とも称される)を含み得る。いくつかの例では、ツール110は、基板102上に1つ以上の層を堆積させるための化学蒸着(chemical vapor deposition、CVD)機械を含み得る。いくつかの例では、ツール110は、CMPを実行するための研磨ツール、フォトリソグラフィのために基板102上に投射する放射線のビーム(例えば、電磁波)を放出するための照明源、基板をめっきするためのめっきツール、及び/又は半導体製作のための他の好適なツールを含み得る。
【0016】
製作システム100は、基板102上の様々な特徴、又は基板102の特性を測定するための計測器具112(検査器具とも称される)を含み得る。様々な特徴及び特性は、例えば、基板上に形成された特徴の膜厚測定値、臨界寸法(critical-dimension、CD)測定値(x寸法、y寸法、及び/又はz寸法)、基板上に形成されたライン-スペース特徴(line-space features)のピッチ、基板上の1つの層から別の層までのオーバーレイオフセット、又は当業者に既知のいくつかの他の測定値若しくは特性を含み得る。検査器具を使用して、基板上に形成された、又は別様に基板上に見出された特徴のコンプライアンスを確認することができる。例えば、検査は、集積回路ダイが製作された基板、ダイの位置、望ましくない粒子状物質の位置、又は他の望ましくない若しくは意図しない特徴などのものであり得る。
【0017】
ツール110及び計測器具112は、制御システム120に結合され得る。制御システム120は、コンピュータ処理ユニット(CPU)122、グラフィック処理ユニット(computer processing unit、GPU)124、フィールドプログラマブルゲートアレイ(field programmable gate array、FPGA)131(又は他の好適なアクセラレータ、例えば、データ処理ユニット(data processing unit、DPU)、RNN、人工ニューロンネットワーク(artificial neuron network、ANN)など)、メモリ126、ディスプレイ128、入力デバイス130、及び通信インターフェース132(例えば、高性能ネットワーク(high performance network、HPC))を含み得る。制御システム120は、例えば、送信信号チェーン、受信信号チェーン、スイッチ回路構成、デジタル及びアナログ回路構成などのフロントエンド回路構成も含み得る。送信信号チェーンは、ツール110の制御信号を提供し得る。受信信号チェーンは、計測器具112からプロセスパラメータ測定値を受信し得る。
【0018】
フロントエンド回路構成は、CPU122、GPU124、及びFPGA131などの1つ以上のプロセッサ回路に結合され、かつそれらによって制御され得る。CPU122は、1つ以上のマルチコアプロセッサとして提供され得る。GPU124及びFPGA131は、本明細書に説明されるように、データの処理及び機械学習ネットワークの性能を加速させるために使用され得る。本明細書に図示及び説明される技術は、より速い処理のためにGPU124と共に作動するCPU122によって実行され得る。
【0019】
CPU122及びGPU124は、例えば、制御システム120に、製造制御、処理、又は検査に関連するデータの記憶のうちの1つ以上を実行させるか、又は別様に本明細書に図示及び説明される技術を実行させる命令を実行するために、メモリ126に結合され得る。制御システム120は、例えば、有線又は無線通信インターフェース132を使用して、システム100の他の部分に通信可能に結合され得る。
【0020】
例えば、本明細書に図示及び説明される1つ以上の技術の実行は、制御システム120上で、又は他の処理若しくは記憶施設を使用して、例えば、計算施設140(例えば、サーバ、クラウド処理システム、データウェアハウス、ラップトップ、タブレット、スマートフォン、デスクトップコンピュータなどの汎用コンピューティングデバイス)を使用して達成され得る。例えば、制御システム120上で実行される場合望ましくなく遅いか、又は制御システム120の能力を超えるであろう処理タスクは、例えば、制御システム120からの要求に応答して、リモートで(例えば、別個のシステム上で)実行され得る。同様に、検査データ又は中間データの記憶は、制御システム120に通信可能に結合されたリモート施設を使用して達成され得る。制御システム120はまた、例えば、構成情報又は結果の提示のためのディスプレイ128と、オペレータコマンド、構成情報、又はクエリに対する応答を受信するための、例えば、キーボード、トラックボール、ファンクションキー又はソフトキー、マウスインターフェース、タッチスクリーン、スタイラスなどのうちの1つ以上を含む入力デバイス130と、を含み得る。
【0021】
制御システム120は、RNNモデルを利用して、ツール110によって使用される処理パラメータを予測及び設定し得る。RNNモデルは、計算施設140(例えば、クラウド処理システム)を介して提供され得る。処理結果は、RNNモデルを更新するために、計測器具112によって測定され得る。RNNモデルは、ランツーラン(Run-to-Run、R2R)アルゴリズム及びソフトウェアスクリプトを使用して構築され得る。例えば、RNNモデルは、Pythonなどのコンピュータプログラミングスクリプトでオフラインで構築されて、履歴生産データを使用して、製造プロセスで使用される処理パラメータ(例えば、堆積速度)を予測し得る。ランタイム中、堆積制御戦略(又は他の処理戦略)は、RNNスクリプトを呼び出してモデル予測をトリガし得、次いで、モデル予測が、所望の目標層厚値をもたらすであろう各ロットのプロセス時間設定を計算するために使用される。このロットの実際の層厚は、後に計測機器112を使用して測定され、RNNモデルを更新するために、制御システム120にフィードバックされ得る。
【0022】
図2は、RNN深層学習モデルに基づくR2R戦略のフレームワーク200を示す。フレームワーク200は、ツール110と、計測器具112と、制御システム120と、RNNモデル202と、を含み得る。ランタイム中、ツール110は、堆積など、ツール110によって実行される処理ステップに関するコンテキスト情報を制御システム120に提供し得る。制御システム120は、RNNモデル202を利用して、プロセスパラメータ予測(例えば、堆積速度予測)を生成し得、次いで、プロセスパラメータ予測が、ツール110を動作させて、処理ステップ(例えば、堆積)を実行するために使用される。計測器具112は、処理ステップの結果(例えば、膜厚)を測定し得、次いで、処理ステップの結果が、RNNモデル202を更新するために使用され得る。
【0023】
本明細書に説明されるように、深層学習モデルを構築すること及び展開することは、単純で簡単なプロセスではなく、特にハイミックス製造環境では、複雑なステップを伴う。したがって、主題の専門知識(subject matter expertise、SME)を用いて、本明細書に説明されるR2R制御に使用され得る堅実で効果的な深層学習モデルを構築することができる。これは、ワーキングモデルを構築するためには、データセット内に、抽出され得る相関及び意味、並びにモデルに組み込まれる十分な、好ましくは互いに独立した特徴(又はモデルへの入力)がなければならないからである。特徴の選択は、モデルの出力値(又は標識)に影響を与える可能性がある、製造コンテキスト、機器ハードウェアパラメータ、消耗品使用、及び上流パラメトリックデータなどを含み得る。製造コンテキストは、同じプロセスが、上記の製造コンテキストの異なる組み合わせに応じて、変動性を生成する可能性があるので、ロットを処理するために使用されたツールID、ロットが現在ある層、及び最終製品ID(例えば、メモリ、CPUなど)を含み得る。機器ハードウェアパラメータは、メンテナンス情報(例えば、最後のメンテナンスからの実行数)、電流及び電圧設定などの機械/ツール構成を含み得る。上流パラメトリックデータは、堆積、エッチング、又は研磨ステップ前の厚さなど、上流で処理された後の同じロットからのデータを含み得る。
【0024】
最初に、RNNモデルは、ランタイム中に使用に展開される前に、構築及び訓練される。図3は、RNNモデルを訓練するための方法300のフロー図を例解する。動作302において、履歴データが、取得され得る。いくつかの例では、履歴データは、機器自動化プログラムによって提供され得る。いくつかの例では、履歴データは、データベースに記憶され得、R2Rシステムによって、取得に関してクエリされる。データベースは、ランタイム動作に基づいて更新され得、そのため、データは、更新のためのランタイム動作前に取得され得る。
【0025】
しかしながら、適切な特徴を選択することなく、深層学習アルゴリズムにデータを単純に投入することは、概して価値のある結果を生成しない。大きなデータセット自体は、出来の良いMLモデルを保証しない。その代わりに、本明細書に説明されるように、モデルが抽出するための十分な変動性を含む関連する特徴のデータを選択することが、より良好な結果を生成する。
【0026】
動作304において、履歴データのサブセットが、選択され得る。選択されたデータは、RNNモデルと関連付けられたプロセスパラメータに関連する特徴選択に基づき得る。主題の専門知識(SME)は、R2R制御に使用され得る堅実で効果的な深層学習モデルを構築するために、大きなデータセットを選択データに切り詰めるために使用され得る。信頼できる正確なモデルを構築するために、データセット内の相関及び意味を有する特徴が、抽出され得る。最小数の特徴(例えば、少なくとも2つ)が抽出されて、モデルへの入力として、モデルに組み込まれる。特徴は、互いに独立的であり得る。例えば、経路及び製品は、非独立とみなされ得る。経路は、多くの製品に対して実行されるステップのリストであり、経路は、典型的には、製品ライン専用である。したがって、特徴として経路及び製品を選択することにより、モデルの重複したコンテキスト情報が、提供され得る。
【0027】
特徴選択は、モデルの出力値に影響を与える可能性のある、製造コンテキスト、機器ハードウェアパラメータ、消耗品使用、及び上流パラメトリックデータなどを含み得る。製造コンテキストは、同じプロセスが、上記の製造コンテキストの異なる組み合わせに応じて、変動性を生成する可能性があるので、ロットを処理するために使用されたツールID、ロットが現在ある層、及び最終製品ID(例えば、メモリ、CPUなど)を含み得る。機器ハードウェアパラメータは、メンテナンス情報(例えば、最後のメンテナンスからの実行数)、電流及び電圧設定などの機械/ツール構成を含み得る。上流パラメトリックデータは、堆積、エッチング、又は研磨ステップ前の厚さなど、上流で処理された後の同じロットからのデータを含み得る。
【0028】
特徴選択は、選択のためのデータ分析を使用し得る。例えば、線形又は非線形回帰技術を使用して、RNNモデルによって予測される、指定された処理パラメータの最も関連する特徴を識別することができる。分散分析(an analysis of varianc、ANOVA)を実行して、様々な特徴に基づいて、処理パラメータの分散を推定することができる。分散と直接的な関係を有する特徴が、識別及び選択され得る。
【0029】
図4は、堆積速度モデルのための選択特徴の一例を例解する。ここで、特徴402は、機械/ツール402.1、層402.2、及び製品402.3を含み得る。また、出力(すなわち、標識404)も、含まれ得る。ここで、観察された堆積速度は、モデルを訓練するための選択データの一部として含まれる。観察された堆積速度は、以前の実行において計測ツールによって測定されている場合がある。
【0030】
図3に戻ると、動作306において、フィルタリング動作が、データセットに対して実行され得る。フィルタリング動作は、データセット内の外れ値を、それらの外れ値がモデルに悪影響を及ぼさないように、除去し得る。フィルタリング動作は、テューキーフィルタ(テューキー窓とも称される)、グラッブフィルタ(Grubb’s filter)、基本制限フィルタ、及び/又は他の好適なフィルタを含み得る。
【0031】
前処理は、データセッに対して実行され得る。選択されたデータは、RNNモデルによって使用される前に、前処理され得る。例えば、ハイミックス製造環境(例えば、ファウンドリ)では、同じプロセスが、複数の層を有する異なる製品を構築するために、複数のツール上で実行され得、これらのコンテキスト属性、例えば、機械、製品、層などの各異なる組み合わせが、他と異なる結果を生成するように、同じプロセスを作製し得る。
【0032】
数値データに加えて、ストリングなどのカテゴリデータも、機械学習モデルに供給され得る。しかしながら、ほとんどの機械学習アルゴリズムは、典型的には、データ行列などの数値のみを処理する。動作308において、ストリングデータが、数値に変換され得る。いくつかの例では、ワンホットエンコーディングを用いて、カテゴリデータ(例えば、ストリングデータ)を数値データに変換し得る。図5は、ストリングデータのワンホットエンコーディングの一例を例解する。ここで、カテゴリデータを含む選択特徴のテーブル502が、数値の行列504に変換される。例えば、機械タイプ(CVD-01、CVD-02)が、行列504の列0及び1にコード化される。
【0033】
図3に戻ると、動作310において、データが、スケーリングされ得る。例えば、値が、絶対値ではなく、割合に基づいて評価されるように、行列内の数値が、スケーリング又は正規化され得る。機械学習モデルのより良好な性能が、スケーリングされたデータで取得され得、その結果、特徴は、それらの絶対値(例えば、サイズ)によってではなく、それらの割合によって評価される。例えば、上流パラメトリックデータは、異なるステップの複数の値(例えば、研磨ステップ前の厚さ)を含み得、これらの数値が、スケーリング又は正規化され得る。スケーリング(又は正規化)は、特徴の数値が、適切に重み付けされ、それらのパーセンテージによって表されることを確実にし得る。いくつかの例では、特徴の最低値及び最高値が、決定され得る。最低値及び最高値に基づいて、その特徴についての数値は、それらが0(最低値)と1(最高値)との間にあるように正規化され得る。
【0034】
動作312において、RNNモデルのハイパーパラメータとして既知の変数のセットが、調整され得る。ハイパーパラメータは、訓練モードで構成され得、それらの値は、学習プロセスを制御するために使用されて、モデル性能に大きく影響を及ぼし得る。ハイパーパラメータは、ニューラルネットワーク内の隠れ層の数、各層におけるニューロンの数、バッチサイズ、エポック、ドロップアウトなどを含み得る。バッチサイズは、一度にモデルに供給される記録のサイズを指す(例えば、一度に100個の記録)。エポックは、同じデータがモデルに供給される回数を指す。ドロップアウトは、各エポックで除去されるデータのパーセンテージを指す。例えば、第1のエポックで、各10個の記録の10個のバッチを使用して、100個の記録がモデルに供給され、かつドロップアウト率が20%である場合、第2のエポックでは、100個の記録のうちの80個が、各10個の記録の8個のバッチで、モデルにフィードバックされる。第1のエポックと第2のエポックとの間で除去された20個の記録は、ランダム選択技術を使用して選択され得る。
【0035】
いくつかの例では、ハイパーパラメータ調整の少なくとも一部は、専門家、例えば、ヒューリスティックを使用するデータサイエンティストによって手動で実行され得る。いくつかの例では、所与の問題に対するハイパーパラメータの最良値は、既知ではない場合があり、したがって、この技術は、経験則を使用し得る、他の問題に対して使用された値をコピーし得る、及び/又は試行錯誤(例えば、反復プロセス)によって最良値を探索し得る。例えば、CVDプロセスのための堆積速度のRNNモデルを設計する場合、物理蒸着(physical vapor deposition、PVD)などの同様のプロセスのために設計された以前のモデルのハイパーパラメータが、使用され得る。PVDハイパーパラメータは、上記の技術を使用して、更に調整され得る。ハイパーパラメータ調整は、グリッドサーチなどの自動化された技術を使用して、最適値を決定し得る。
【0036】
機械学習ネットワークが訓練プロセスを完了した後、RNNモデルを通常動作(ランタイム)モードで使用して、製造中にプロセスパラメータを設定することができる。図6は、通常動作モードで半導体デバイスを製造するための方法600のフロー図を例解する。いくつかの例では、方法600は、本明細書に説明されるように、訓練されたRNNモデルを有する(例えば、フレームワーク200及び方法300を使用する)製作システム100によって実行され得る。
【0037】
動作602において、製造ツール/機械は、製造ツール/機械によって実行される処理ステップに関するコンテキスト情報を制御システムに提供し得る。堆積例では、製造ツールは、ツール識別、製品識別、層番号などに関する情報を提供し得る。動作604において、制御システムは、受信されたコンテキスト情報を、訓練されたRNNモデルに入力し得る。動作606において、RNNモデルは、予測されたプロセスパラメータ(例えば、堆積速度予測)を生成し得る。
【0038】
動作608において、制御システムは、予測されたプロセスパラメータに基づいて、製造ツールのプロセスパラメータ(例えば、堆積時間)を設定し得る。動作610において、製造ツールは、設定されたプロセスパラメータを使用して、処理ステップ(例えば、堆積)を実行し得る。動作612において、計測器具は、処理ステップの結果(例えば、膜厚)を測定し得る。次いで、動作614において、測定結果が、RNNモデルにフィードバックされて、モデルを更新し得る。いくつかの例では、測定結果の値は、本明細書に説明されるように(例えば、方法500)、フィルタリング及び前処理され得る。例えば、フィルタリング動作は、誤った実行によって生成され得る外れ値を除去するために、測定結果に対して実行され得る。いくつかの例では、検出システムを使用して、誤った実行を検出することができ、誤った実行が検出された場合、誤った実行からの結果が、破棄され得、RNNモデルにフィードバックされ得ない。例えば、故障検出及び分類(fault detection and classification、FDC)システムを使用して、誤った実行の指標を検出し得る。例えば、FDCシステムは、誤った実行の指標であり得る、ツール温度、ガス流などを監視し得る。
【0039】
いくつかの例では、測定結果は、RNNにバッチでフィードバックされ得る。製品ロットのセットからの測定結果は保存され、次いで、モデルを更新するためのバッチとして、RNNにフィードバックされ得る。バッチサイズは、RNNモデルを訓練するために使用されるハイパーパラメータ調整動作で調整された同じバッチサイズであり得る。いくつかの例では、測定結果は、監視され得、予測された処理されたパラメータの品質が劣化し始める場合、RNNモデルの更新は、停止され得る。次いで、RNNモデルが、リセットされ得る。
【0040】
図7は、指数加重移動平均(exponentially weighted moving average、EWMA)調整アルゴリズムを有する従来の線形モデルと対比した、RNN深層学習モデルを有する堆積コントローラのシミュレーション結果を示す。生産データでのシミュレーション結果は、線形モデル及びEWMA調整アルゴリズムを有する従来のR2R戦略(31%の二乗平均平方根誤差(Root Mean Squared Error、RMSE)低減)と比較して、RNN深層学習モデルによって強化された堆積コントローラが、同等に作動すること(32%のRMSE低減)を示す。したがって、機械学習ソリューションは、ハイミックス生産環境で使用されることに加えて、正確な物理的又は統計的モデルがまだ準備できていない複雑な時間に敏感な状況で、補完的な能力を提供し得る。
【0041】
上記の機械学習ネットワークを使用するいくつかの例が、CVDプロセスの堆積速度を予測するために説明された。明確にするために、機械学習ネットワークを使用する、本明細書に説明される技術は、エッチングプロセスのエッチング速度、CMPの研磨速度、フォトリソグラフィのオフセット調整、めっきのめっき速度などであるが、これらに限定されない、他の半導体製造プロセスに使用され得る。
【0042】
本文書に図示及び説明される技術は、図1に示されるような製作システム100の一部分又は全体を使用して、又は別様に図8に関連して以下で考察されるような機械800を使用して、実行され得る。図8は、本明細書で考察される技術(例えば、方法論)のうちのいずれか1つ以上が実行され得る機械800を備える一例のブロック図を例解する。様々な例では、機械800は、スタンドアロンデバイスとして動作し得るか、又は他の機械に接続(例えば、ネットワーク化)され得る。
【0043】
ネットワーク化された展開では、機械800は、サーバマシン、クライアントマシン、又はサーバクライアントネットワーク環境では両方の容量で動作し得る。一例では、機械800は、ピアツーピア(peer-to-peer、P2P)(又は他の分散型)ネットワーク環境におけるピアマシンとして機能し得る。機械800は、パーソナルコンピュータ(personal computer、PC)、タブレットデバイス、セットトップボックス(set-top box、STB)、パーソナルデジタルアシスタント(personal digital assistant、PDA)、携帯電話、ウェブアプライアンス、ネットワークルータ、スイッチ若しくはブリッジ、又はその機械によって取られるアクションを指定する命令(順次的な、若しくは別様の)を実行することができる任意の機械であり得る。更に、単一の機械のみが例解されているが、「機械」という用語は、クラウドコンピューティング、サービスとしてのソフトウェア(software as a service、SaaS)、他のコンピュータクラスタ構成など、本明細書で考察される方法論のうちのいずれか1つ以上を実行するために、命令のセット(又は複数のセット)を個別に又は共同で実行する機械の任意の集合を含むものとする。
【0044】
本明細書に説明される例は、論理若しくは多数の構成要素若しくは機構を含み得るか、又はそれらによって動作し得る。回路構成は、ハードウェア(例えば、単純な回路、ゲート、論理など)を含む有形のエンティティに実装された回路の集合体である。回路構成メンバーシップは、時間及び基礎となるハードウェアの変動性に対してフレキシブルであり得る。回路構成は、単独で又は組み合わせで、動作時に、指定された動作を実行し得る部材を含む。一例では、回路構成のハードウェアは、特定の動作を実施するように不変に設計され(例えば、配線され)得る。一例では、回路構成を備えるハードウェアは、特定の動作の命令を符号化するために、(例えば、物理的状態の変化又は別の物理的特性の変換などを介して磁気的に、電気的になど)物理的に変更されるコンピュータ可読媒体を含む、可変的に接続された物理的構成要素(例えば、実行ユニット、トランジスタ、単純回路など)を含み得る。物理的構成要素を接続する際に、ハードウェア構成要素の基礎となる電気的特性が、例えば、絶縁特性から導電性特性に、又はその逆に変更され得る。命令は、埋め込まれたハードウェア(例えば、実行ユニット又はロード機構)が、動作時に特定の動作の一部分を実施するために、可変接続を介してハードウェア内に回路構成のメンバーを作成することを可能にする。したがって、コンピュータ可読媒体は、デバイスが動作しているときに、回路構成の他の構成要素に通信可能に結合される。一例では、物理的構成要素のうちのいずれかが、2つ以上の回路構成の2つ以上のメンバーで使用され得る。例えば、動作中、実行ユニットは、ある時点で第1の回路構成の第1の回路で使用され、第1の回路構成内の第2の回路によって、又は異なる時間に第2の回路構成内の第3の回路によって、再使用され得る。
【0045】
機械800(例えば、コンピュータシステム)は、ハードウェアベースのプロセッサ801(例えば、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、ハードウェアプロセッサコア、又はそれらの任意の組み合わせ)、メインメモリ803、及び静的メモリ805を含み得、それらのうちのいくつか又は全てが、インターリンク830(例えば、バス)を介して互いに通信し得る。機械800は、表示デバイス809、入力デバイス811(例えば、英数字キーボード)、及びユーザインターフェース(user interface、UI)ナビゲーションデバイス813(例えば、マウス)を更に含み得る。一例では、表示デバイス809、入力デバイス811、及びUIナビゲーションデバイス813は、タッチスクリーンディスプレイの少なくとも一部分を含み得る。機械800は、記憶デバイス820(例えば、駆動ユニット)、信号生成デバイス817(例えば、スピーカ)、ネットワークインターフェースデバイス850、及び全地球測位システム(global positioning system、GPS)センサ、コンパス、加速度計、又は他のセンサなどの1つ以上のセンサ815を付加的に含み得る。機械800は、シリアルコントローラ若しくはインターフェース(例えば、ユニバーサルシリアルバス(universal serial bus、USB))、並列コントローラ若しくはインターフェース、又は他の有線若しくは無線(例えば、赤外線(infrared、IR)コントローラ若しくはインターフェース、近距離無線通信(near field communication、NFC)など、1つ以上の周辺デバイス(例えば、プリンタ、カードリーダなど)を通信又は制御するように結合された出力コントローラ819を含み得る。
【0046】
記憶デバイス820は、本明細書に説明される技術又は機能のうちのいずれか1つ以上を具現化するか、又はそれらによって利用されるデータ構造若しくは命令824(例えば、ソフトウェア若しくはファームウェア)のうちの1つ以上のセットが記憶される機械可読媒体を含み得る。命令824はまた、機械800によるその実行中に、メインメモリ803内、静的メモリ805内、大容量記憶デバイス807内、又はハードウェアベースのプロセッサ801内に、完全に又は少なくとも部分的に存在し得る。一例では、ハードウェアベースのプロセッサ801、メインメモリ803、静的メモリ805、又は記憶デバイス820のうちの1つ、又はそれらの任意の組み合わせが、機械可読媒体を構成し得る。
【0047】
機械可読媒体は、単一の媒体とみなされるが、「機械可読媒体」という用語は、1つ以上の命令824を記憶するように構成された単一の媒体又は複数の媒体(例えば、集中型若しくは分散型データベース、及び/又は関連付けられたキャッシュ及びサーバ)を含み得る。
【0048】
「機械可読媒体」という用語は、機械800による実行のための命令を記憶、符号化、若しくは担持することができ、かつ機械800に、本開示の技術のうちのいずれか1つ以上を実行させるか、又はそのような命令によって使用されるか、若しくはそのような命令に関連付けられたデータ構造を記憶、符号化、若しくは担持することができる任意の媒体を含み得る。非限定的な機械可読媒体の例としては、ソリッドステートメモリ、並びに光学及び磁気媒体が挙げられ得る。したがって、機械可読媒体は、一時的な伝搬信号ではない。大規模な機械可読媒体の具体例としては、半導体メモリデバイス(例えば、電気的にプログラム可能な読み取り専用メモリ(Electrically Programmable Read-Only Memory、EPROM)、電気的に消去可能なプログラム可能な読み取り専用メモリ(Electrically Erasable Programmable Read-Only Memory、EEPROM))、及びフラッシュメモリデバイスなどの不揮発性メモリ、磁気又は他の相変化若しくは状態変化メモリ回路、内蔵ハードディスク及びリムーバブルディスクなどの磁気ディスク、磁気光学ディスク、並びにCD-ROMディスク及びDVD-ROMディスクが、挙げられ得る。
【0049】
命令824は、いくつかの転送プロトコル(例えば、フレームリレー、インターネットプロトコル(internet protocol、IP)、伝送制御プロトコル(transmission control protocol、TCP)、ユーザデータグラムプロトコル(user datagram protocol、UDP)、ハイパーテキスト転送プロトコル(hypertext transfer protocol、HTTP)など)のうちのいずれか1つを利用するネットワークインターフェースデバイス850を介して、伝送媒体を使用して、通信ネットワーク821を介して更に送信又は受信され得る。例示的な通信ネットワークとしては、特に、ローカルエリアネットワーク(local area network、LAN)、ワイドエリアネットワーク(wide area network、WAN)、パケットデータネットワーク(例えば、インターネット)、携帯電話ネットワーク(例えば、セルラーネットワーク)、一般電話サービス(Plain Old Telephone、POTS)ネットワーク、及び無線データネットワーク(例えば、Wi-Fi(登録商標)として既知の米国電気電子学会(the Institute of Electrical and Electronics Engineers、IEEE)802.22ファミリの標準、WiMax(登録商標)として既知のIEEE802.26ファミリの標準)、IEEE 802.27.4ファミリの標準、ピアツーピア(P2P)ネットワークが挙げられ得る。一例では、ネットワークインターフェースデバイス850は、通信ネットワーク821に接続するための1つ以上の物理的ジャック(例えば、イーサネット、同軸、又は電話ジャック)又は1つ以上のアンテナを含み得る。一例では、ネットワークインターフェースデバイス850は、単一入力多重出力(single-input multiple-output、SIMO)、複数入力多重出力(multiple-input multiple-output、MIMO)、又は複数入力単一出力(multiple-input single-output、MISO)技術のうちの少なくとも1つを使用して無線通信するための複数のアンテナを含み得る。「伝送媒体」という用語は、機械800による実行のための命令を記憶、符号化、又は担持することができる任意の無形媒体を含むものとし、そのようなソフトウェアの通信を容易にするためにデジタル又はアナログ通信信号若しくは他の無形媒体を含む。
【0050】
様々な注記
上記の非限定的な態様の各々は、それ自体で成立することができるか、又は本文書に説明される他の態様若しくは他の主題のうちの1つ以上との様々な並べ替え若しくは組み合わせにおいて、組み合わせることができる。
【0051】
上記の詳細な説明は、詳細な説明の一部を形成する添付図面への参照を含む。図面は、例解として、本発明が実施され得る特定の実装形態を示す。これらの実装形態は、一般に「例」とも称される。そのような例は、図示又は説明されたものに加えて、要素を含み得る。しかしながら、本発明者らはまた、図示又は説明された要素のみが提供される例を企図する。更に、本発明者らはまた、本明細書に図示若しくは説明される特定の例(又はその1つ以上の態様)に関してか、又は他の例(又はその1つ以上の態様)に関してのいずれかで図示又は説明される要素(又はその1つ以上の態様)の任意の組み合わせ又は並べ替えを使用する例を企図する。
【0052】
この文書と、参照により組み込まれる任意の文書との間に矛盾した使用がある場合、この文書での使用が、優先する。
【0053】
本文書において、「a」又は「an」という用語は、「少なくとも1つの」又は「1つ以上」の任意の他の例又は使用とは独立して、1つ又は2つ以上を含むように、特許文書において一般的であるように使用される。本文書では、「又は」という用語は、非排他的であることを指すのに用いられており、そのため、別段の記載がない限り、「A又はB」は、「AであるがBではない」、「BであるがAではない」、及び「A及びB」を含む。本文書において、「including(含む)」及び「in which」という用語は、「comprising(備える/含む)」及び「wherein」というそれぞれの用語の平易な英語の等価物として使用されている。また、以下の態様では、「including(含む)」及び「comprising(備える/含む)」という用語は、オープンエンドであり、すなわち、ある態様におけるそのような用語の後に列挙された要素に加えて、要素を含むシステム、デバイス、物品、組成物、製剤、又はプロセスが、依然としてその態様の範囲に含まれるとみなされる。更に、以下の態様では、「第1」、「第2」、及び「第3」などの用語は、単に標識として使用され、それらの物体に数値要件を課すことを意図するものではない。
【0054】
本明細書に説明される方法の例は、少なくとも部分的に機械実装、又はコンピュータ実装され得る。いくつかの例は、上記の例に説明されるような方法を実行するように電子デバイスを構成するように動作可能な命令で符号化されたコンピュータ可読媒体又は機械可読媒体を含み得る。そのような方法の実装形態は、マイクロコード、アセンブリ言語コード、より高いレベルの言語コードなどのコードを含み得る。そのようなコードは、様々な方法を実行するためのコンピュータ可読命令を含み得る。コードは、コンピュータプログラム製品の部分を形成し得る。更に、一例では、コードは、例えば、実行中又は他の時間に、1つ以上の揮発性、非一時的、又は不揮発性の有形のコンピュータ可読媒体上に有形的に記憶され得る。これらの有形のコンピュータ可読媒体の例としては、ハードディスク、リムーバブル磁気ディスク、リムーバブル光ディスク(例えば、コンパクトディスク及びデジタルビデオディスク)、磁気カセット、メモリカード又はスティック、ランダムアクセスメモリ(random access memory、RAM)、読み取り専用メモリ(read only memory、ROM)などが挙げられ得るが、これらに限定されない。
【0055】
上記の説明は、例解的であり、限定的ではないことを意図している。例えば、上記の例(又はその1つ以上の態様)は、互いに組み合わせて使用され得る。他の実装形態が、上記の説明を検討する際に、例えば、当業者によって、使用され得る。要約は、読者が、本技術的開示の性質を迅速に確認することを可能にするために提供される。要約は、それが、態様の範囲又は意味を解釈又は限定するために使用されないことを理解して提出される。また、上記の発明を実施するための形態では、本開示を効率化するために、様々な特徴が一緒にグループ化され得る。これは、特許請求されていない開示された特徴が、任意の請求項に必須であることを意図するものと解釈されるべきではない。むしろ、本発明の主題は、特定の開示された実装形態の全ての特徴よりも少ない特徴に存在し得る。したがって、以下の態様は、例又は実装形態として発明を実施するための形態に組み込まれ、各態様は、別個の実装形態としてそれ自体で成立し、そのような実装形態は、様々な組み合わせ又は並び替えで互いに組み合わされ得ることが企図される。
図1
図2
図3
図4
図5
図6
図7
図8
【外国語明細書】