(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024083203
(43)【公開日】2024-06-20
(54)【発明の名称】マイクロエレクトロメカニカルシステム検査におけるパラメータ推定のための装置及び方法
(51)【国際特許分類】
G06N 3/04 20230101AFI20240613BHJP
H01L 21/66 20060101ALI20240613BHJP
【FI】
G06N3/04 100
H01L21/66 B
【審査請求】未請求
【請求項の数】11
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2023067862
(22)【出願日】2023-04-18
(31)【優先権主張番号】10 2022 213 389.7
(32)【優先日】2022-12-09
(33)【優先権主張国・地域又は機関】DE
【新規性喪失の例外の表示】特許法第30条第2項適用申請有り 令和4年(2022年)4月21日、オランダの出版社であるエルゼビア(ELSEVIER)によって運営されているウェブサイトScienceDirect(https://www.sciencedirect.com/science/article/pii/S259000562200025X,https://doi.org/10.1016/j.array.2022.100162)に論文「Graph neural networks for parameter estimation in micro-electro-mechanical system testing(マイクロエレクトロメカニカルシステム検査におけるパラメータ推定のためのグラフニューラルネットワーク)」を掲載
(71)【出願人】
【識別番号】390023711
【氏名又は名称】ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング
【氏名又は名称原語表記】ROBERT BOSCH GMBH
【住所又は居所原語表記】Stuttgart, Germany
(74)【代理人】
【識別番号】100114890
【弁理士】
【氏名又は名称】アインゼル・フェリックス=ラインハルト
(74)【代理人】
【識別番号】100098501
【弁理士】
【氏名又は名称】森田 拓
(74)【代理人】
【識別番号】100116403
【弁理士】
【氏名又は名称】前川 純一
(74)【代理人】
【識別番号】100134315
【弁理士】
【氏名又は名称】永島 秀郎
(74)【代理人】
【識別番号】100162880
【弁理士】
【氏名又は名称】上島 類
(72)【発明者】
【氏名】アレクサンダー ブーマン
(72)【発明者】
【氏名】モニカ ヘーリングハウス
【テーマコード(参考)】
4M106
【Fターム(参考)】
4M106AA01
4M106AA02
4M106BA01
4M106DD03
4M106DJ20
(57)【要約】
【課題】受け取った第1の測定の結果に基づき、生産された製品の第2の測定の結果を予測するためのグラフニューラルネットワークをトレーニングする、コンピュータ実装された方法に関する。
【解決手段】本方法は、複数の生産された製品について、第1の測定の結果及び第2の測定の結果を受け取るステップ(S21)と、第1の測定のグラフを構築し、第1の測定の対応する第2の測定をそれぞれ対応するグラフに割り当てることによって、トレーニングデータセットを生成するステップ(S22)と、グラフに基づき第2の測定を予測するために、トレーニングデータセットにおいてグラフニューラルネットワークをトレーニングするステップ(S23)と、を含む。
【選択図】
図2
【特許請求の範囲】
【請求項1】
受け取った第1の測定の結果に基づき、生産された製品の第2の測定の結果を予測するためのグラフニューラルネットワークをトレーニングする、コンピュータ実装された方法であって、
複数の生産された製品について、第1の測定の結果及び第2の測定の結果を受け取るステップ(S21)と、
前記第1の測定のグラフを構築し、前記第1の測定の対応する前記第2の測定を対応するグラフに割り当てることによって、トレーニングデータセットを生成するステップ(S22)と、
前記グラフに基づき第2の測定を予測するために、前記トレーニングデータセットにおいて前記グラフニューラルネットワークをトレーニングするステップ(S23)と、
を含む方法。
【請求項2】
前記グラフは、前記測定と前記製品との間のリレーションシップを表すように構成されている、請求項1に記載の方法。
【請求項3】
受け取った前記第1の測定は、前記製品のうちの少なくとも1つの第1の測定の結果が欠落している、請求項1又は2に記載の方法。
【請求項4】
前記グラフニューラルネットワークは、HGTアーキテクチャを含む、請求項1乃至3のいずれか一項に記載の方法。
【請求項5】
前記第1の測定及び前記第2の測定は、半導体製品検査の検査データであり、特に前記グラフは、相互接続されたダイ、ウェーハ、FT、WLT、及び、スパース・インライン測定パラメータを表現し、これらは、異なるソース及び情報フォーマットを融合する測定装置及びプロセス装置のようなさらなる属性によって補完される、請求項1乃至4のいずれか一項に記載の方法。
【請求項6】
前記グラフは、異種グラフとして構成されており、ノードは、前記第1の測定を表現し、前記グラフの接続は、前記製品のウェーハの上における前記製品の空間的配置を表す、請求項5に記載の方法。
【請求項7】
前記製品は、半導体センサ、特にMEMSセンサである、請求項5又は6に記載の方法。
【請求項8】
請求項1乃至7のいずれか一項に記載のトレーニングされたグラフニューラルネットワークを動作させる方法であって、
新たに生産された製品の第1の測定の結果を受け取るステップと、
前記第1の測定の結果に基づきグラフを構築するステップと、
前記トレーニングされたグラフニューラルネットワークを構築された前記グラフに適用することによって、第2の測定の結果を決定するステップ(S24)と、
を含む方法。
【請求項9】
コンピュータプログラムであって、当該コンピュータプログラムがプロセッサによって実行される場合に、請求項1乃至8のいずれか一項に記載の方法を当該方法のすべてのステップと共にコンピュータに実施させるために構成されているコンピュータプログラム。
【請求項10】
請求項9に記載のコンピュータプログラムが記憶されている機械可読記憶媒体。
【請求項11】
請求項1乃至8のいずれか一項に記載の方法を実施するように構成されている装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、受け取った第1の測定の結果に基づき、生産された製品、特にマイクロエレクトロメカニカルシステムの第2の測定の結果を予測するためのグラフニューラルネットワークをトレーニングする方法、及び、トレーニングされたグラフニューラルネットワークにより第2の測定を予測する方法、コンピュータプログラム、並びに、両方の方法を実施するように構成された機械可読記憶媒体及びシステムに関する。
【背景技術】
【0002】
従来技術
一般的に、マイクロエレクトロメカニカルシステム(MEMS)及びICの製造及び検査において、データに基づく予測モデリングを行うことは公知である。たとえば、MEMSの製造及び検査の適用領域におけるデータドリブン予測モデリングのための一般的なアルゴリズムは、ノンパラメトリック回帰モデルであるMARSであり、これについては、Friedman JH.著、「Multivariate adaptive regression splines.」、Ann Statist、1991年;19(1):1-67. http://dx.doi.org/10.1214/aos/1176347963を参照されたい。これは、たとえば、電気的な測定又は他の間接的な検査アプローチから装置の感度を決定することによって、電気的な較正のために使用される。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】Friedman JH.著、「Multivariate adaptive regression splines.」、Ann Statist、1991年;19(1):1-67. http://dx.doi.org/10.1214/aos/1176347963
【発明の概要】
【発明が解決しようとする課題】
【0004】
発明の利点
マイクロエレクトロメカニカルシステム(MEMS)の検査の間に、様々なパラメータを含む大量の異質なデータセットが記録され、それらは、通常、記録されたパラメータの一部が欠落している。かかる妨害されたデータセットに対して、標準的な機械学習方法は、信頼性のある正確な予測の点において、それらの限界にすぐに到達してしまう。しかも、これらの検査は、コストのかかる測定によって実施される。
【0005】
本発明の1つの課題は、よりわずかな測定に基づき予測性能を改善することである。
【課題を解決するための手段】
【0006】
発明の開示
第1の態様において、受け取った第1の測定の結果に基づき、生産された製品の第2の測定の結果を予測するためのグラフニューラルネットワークをトレーニングする、コンピュータ実装された方法が提案される。生産される製品は、機械製造される製品、特にマイクロエレクトロメカニカルシステムとすることができる。第1の測定は、製品を生産される前及び/又は生産した後に製品に対して実施される測定とすることができる。第2の測定は、製品が生産された後に製品に対して実施することができる測定とすることができる。換言すれば、この方法は、既に実行された第1の測定値に基づき、未だ実行されていない第2の測定値をグラフニューラルネットワークが予測することができるように、グラフニューラルネットワークをトレーニングするものである。
【0007】
この方法は、複数の生産された製品について、第1の測定の結果及び第2の測定の結果を受け取るステップから始まる。これに続いて、第1の測定のグラフを構築し、第1の測定の対応する第2の測定をそれぞれ対応するグラフに割り当てることによって、トレーニングデータセットを生成するステップが行われる。その後、グラフに基づき第2の測定をそれぞれ予測するために、トレーニングデータセットにおいてグラフニューラルネットワークのトレーニングが行われる。
【0008】
GNNの主要な利点は、そもそもグラフ表現の動機となったスパース(sparse:疎、散在)・データセットに適用されたときに、認識することができるようになった。その場合に、異種グラフで動作するGNNは、検証セットとトレーニングセットとのスパース率が整合させられていた場合に、ベースライン方法と比較して優れた性能を示した。注目すべきは、一般的な予測誤差だけでなく、特に顕著には最大誤差も減少し、これは検査環境における実際の適用性にとって極めて重要である。結局のところ、このグラフ表現によって、不完全なサンプルを解析から除外する必要もなければ、徹底的なインピュテーションも必要としないため、以前よりも格段に多くのダイ及びパラメータの統合を可能にすることができ、これにより、さらなる検査シナリオ及び付加的なパラメータの補完に関して興味深い機会が提供される。
【0009】
ここで提案されることは、第1の測定を含むグラフが、第1の測定と、好ましくは生産された製品との間のリレーションシップを表すように、グラフを構築するということである。このリレーションシップは、局所的、空間的及び/又は時間的な相互リレーションシップとすることができる。
【0010】
さらに提案されることは、第1の測定は、第1の測定の結果のうちのいくつかが欠落している、ということである。第1の測定は、その測定の結果の少なくとも10%、20%、30%が、又は、40%でさえもが、欠落している可能性がある。
【0011】
さらに提案されることは、グラフニューラルネットワークがHGTアーキテクチャを有する、ということである。この特定のアーキテクチャによって、最も優れた予測パフォーマンスが達成された。
【0012】
さらに以下のことが提案される。即ち、第1の測定は、半導体製品検査の検査データであり、特にグラフは、相互接続されたダイ、ウェーハ、並びに、FT、WLT、及び、スパース・インライン測定パラメータを表現し、これらは、異なるソース及び情報フォーマットを融合する測定装置及びプロセス装置のようなさらなる属性によって補完される、ということが提案される。好ましくは、第2の測定は、FT測定の少なくとも1つの測定であり、これは未だ実行されておらず、トレーニングされたグラフニューラルネットワークによって予測されることになるものである。換言すれば、第2の測定は、1つ又は複数の最終的なモジュールレベルの検査パラメータとすることができる。性能の向上は、ダイノードにポジション識別子が追加された場合に、達成することができる。
【0013】
さらに提案されることは、グラフが、異種グラフとして構成されており、ノードは、第1の測定を表現し、グラフの接続は、製品のウェーハの上におけるそれらの製品の空間的配置を特徴づける又は表現する、ということである。異種グラフを構築するために、ウェーハ、ダイ、及び、各パラメータタイプ、即ち、検出振幅、周波数分割などは、対応するダイにウェーハを接続するエッジを有する個々のノードタイプとして定義することができ、それらのダイはやはり、それらの関連づけられた測定パラメータに接続されたものである。
【0014】
以下の図面を参照しながら、本発明の実施形態についてさらに詳細に説明する。
【図面の簡単な説明】
【0015】
【
図1】トレーニングセットと検査セットと検証セットとを含む例示的なグラフデータセットを示す図である。
【
図2】本発明の1つの実施形態の概略的なフローチャートを示す図である。
【発明を実施するための形態】
【0016】
実施形態の説明
マイクロエレクトロメカニカルシステム(MEMS)の綿密な検査は、セーフティクリティカルな用途だけでなく、コンシューマエレクトロニクスにおいても、製品の高い品質を保証する目的で極めて重要である。しかしながら、MEMSデバイスの検査手順は、センサの全体的なコストに重くのしかかる。特にこのことは、長い温度勾配を必要とする時間消費が多い測定又は物理的刺激の適用に対して当てはまる。また、予期されない検査結果の根本原因解析(RCA)は、システムが著しく複雑であり、様々な物理的刺激に対してそれらのシステムが影響を受けやすく、さらに製造プロセスが多種多様であることに起因して、特に難易度が高い。
【0017】
したがって、同時に監査能力を維持しながら、費用のかかる最終的な検査測定の代わりを担うことによって、検査コストを削減するために入手可能なあらゆる知識及び情報を活用するのが得策である。この目的のために入手可能な情報は、製造中に記録されるプロセスデータ及びインライン検査をはじめとして、複数の製造段階及び検査段階に由来するものである。これにはさらに、ウェーハレベル検査(WLT)の結果も含まれ、この場合、不良のダイを選別するために、ウェーハがウェーハプローバを介して電気的に接触させられる。特定用途向け集積回路(ASIC)による集積化及びパッケージングの後に、特性評価及び較正のために、静的及び動的両方の最終モジュールレベル検査(FT)が実行される。
【0018】
しかしながら、記録データが異質であることによって、データ解析に難題がもたらされる。
【0019】
自動車用途のためには、最終試験の間に、関連するすべてのパラメータのほとんど完全なデータセットが記録される一方、測定ポイントの意図的な減少を積極的に狙っているコンシューマ製品のケースにおいては、このことは必ずしも当てはまらない。したがって、間接的な検査の難題は、取得によりコストがかかるパラメータを推論するために低コストの測定を使用する、ということである。ウェーハレベルの検査データには欠損値が含まれている場合があり、特にインプロセス情報が不足し、インライン測定は、ウェーハの一部についてしか利用可能でないことが多い。これに加えて、後者は、ウェーハ上に配置された非常にわずかな検査構造においてしか測定されない。MEMSに固有のことではないが、一般に生産データに典型的であることは、誤動作又はシャットダウンに起因して測定が欠落することである。
【0020】
これとは逆に、いくつかの生産フェーズの間に、たとえば特定の挙動又は故障モードを把握しやすくするために、付加的なパラメータが一時的に取得される場合がある。生産中には実施されない実験室での測定及びシミュレーション結果によってさらに、パラメータ同士の付加的なリレーションが明らかにされる場合もある。さらに測定装置、様々な測定手法、サイトナンバー及びイベントラベルが、特定の測定に割り当てられる。
【0021】
様々なデータソース及び構造の結果として、多様な欠損率を有する著しく異質なデータセットと、異なるパラメータに関する様々な欠落態様とが生じる。後者については、たとえば以前の検査での失敗に起因してFT測定が欠落している場合に、(完全に)ランダムに欠落したパラメータと、それらが欠落した理由自体に情報が含まれるパラメータとが区別される。
【0022】
物理に基づくモデルは、1つのデバイス内部での相互作用を綿密にモデリングできるにもかかわらず、プロセス及び測定装置の作用にうまく対処しない。とはいえ、ほとんどの機械学習(ML)アプローチは、インスタンスに割り当てられた特徴又は付加情報の欠落を処理することができないため、かかるデータセットをデータに基づき解析することは、難易度が高い。これに加えて、標準的なMLアーキテクチャは、問題の固有の構造を考慮せず、したがって、個々の測定パラメータ間の階層構造及びリレーションによってもたらされる潜在的に豊富な情報を無視する。一般的なアプローチは、たとえば、ウェーハ全面にわたる補間によって、又は、k-最近傍アプローチ、確率的モデルにより、若しくは、さらには生成的敵対的ネットワーク(GAN)により、妥当な代替を見出そうと試みる他のインピュテーションストラテジの適用によって、欠落している情報を推測することである。
【0023】
他の可能性は、欠損データと取り組むために平均インピュテーションを固有に使用する学習アルゴリズムを適用することであり、たとえば、多変量適応回帰スプライン(MARS)、詳細にはFriedman JH.著、「Multivariate adaptive regression splines.」、Ann Statist 1991年;19(1):1-67. http://dx.doi.org/10.1214/aos/1176347963を参照、若しくは、分類木及び回帰木(CART)、詳細にはHastie T, Tibshirani R, Friedman J.著、「The elements of statistical learning: data mining, inference, and prediction.」、second ed. Springer; 2017年、http://dx.doi.org/10.1007/978-0-387-84858-7を参照、若しくは、決定木アルゴリズムを適用することであり、又は、さらには、入手可能な他の特徴に基づいて欠損値を推定する回帰モデルを構築することである。
【0024】
他の特徴も同様に欠損値を含む可能性があるので、かかるインピュテーションモデルを構築するために、しばしばCARTが使用される。多数のインピュテーションアプローチはさらに、上述のインピュテーションストラテジによって引き起こされる不確実性を考慮している。
【0025】
インピュテーション以外の他の任意選択肢は、不完全な情報を有するダイを破棄することである。しかしながら、このようにすると、たとえば、根本原因解析のケースにおいては、価値のある洞察がもたらされ得る、潜在的に得るところの多いパラメータが除外されることになる。さらに別の難題は、ウェーハ又はロットがそれぞれ異なるプロセス及び測定装置を通過する、ということである。これらは、パラメータの変動の典型的な原因となる一方、プロセス及び測定装置の影響は、古典的な方法による解析には時間がかかる。標準的なMLアプローチは、かかるタスクのために設計されておらず、このため多くの場合には、装置ラベルの手作業の組み込みに依拠しており、したがって、トレーニング手順中は見えない装置において動作させることができない。
【0026】
これとは対照的に発明者らが提案したことは、データを標準的な表形式にすることを強制しない代替的な表現を使用することであり、この代替的な表現は、グラフ又は情報ネットワークによって提供される。グラフに基づく深層学習方法は、かかる不規則な非ユークリッドデータを処理するように設計されており、グラフニューラルネットワーク(GNN)は、インスタンス間のリレーションに関してデータを表現することができる様々な適用分野において有用であることが判明した。これについては、たとえば、Shlomi J, Battaglia P, Vlimant J-R.著、「Graph neural networks in particle physics.」、Mach Learn Sci Technol 2021年;2(2):021001. http://dx.doi.org/10.1088/2632-2153/abbf9aを参照されたい。
【0027】
MEMS製造の場合、たとえばエピタキシャル層厚のようにウェーハ全体にわたりパラメータがゆっくりと変化することから、ウェーハ上において隣り合うダイは、特定の特性を共有しているので、構造情報を学習問題に含めることは予測性能の向上につながる、と仮定することができる。さらに、グラフに関する定式化によって、2つのエンティティ間の存在しない接続の明示的な定義が可能となり、このことは、RCAにとって有益になり得る。
【0028】
以下においては、半導体生産中の測定、特にFT、WLT及びインプロセス測定のリレーションに基づき、どのようにグラフを構築するのかについて、また、どのGNNアーキテクチャがたとえばFTパラメータ推定のタスクに適しているのかについて説明する。特に、実際のグラフ構造を著しく異質なデータソースからどのように導出することができるのかについて、また、グラフ上で動作する学習アルゴリズムの選択について、さらには、欠損パラメータ率がベースライン方法と比較してGNNに基づく予測にどのように影響を及ぼすかについて論じる。
【0029】
一般に、グラフは、ノード又はエンティティとも称される頂点Vの集合と、エッジEの集合とによって、G=(V,E)として定義される。2つのノードv
i及びv
j∈Vがエッジe
ij=(v
i,v
j)∈Eを介して接続されているか否かの情報は、隣接行列Aに格納される。N(v
i)={v
j∈V|(v
i,v
j)∈E}は、ノードv
iの近傍を定義する。属性付きグラフにおいて、特徴をノード及びエッジの双方に関連づけることができる。すべてのノードが同様のタイプのものであるならば、即ち、同様の特徴を共有しているならば、グラフは同種と称され、ノード特徴行列X∈R
n×dは、ノードv
iに割り当てられた特徴ベクトル
【数1】
を用いて定義することができる。これに加えて、同種グラフの場合には、エッジのタイプ又はウェイトに関する情報を含むエッジ
【数2】
に割り当てられた特徴ベクトル
【数3】
を有するエッジ特徴行列X
e∈R
m×cが存在し得る。異種情報ネットワーク(HIN)とも呼ばれる異種グラフの場合には、詳細には、Hong H, Guo H, Lin Y, Yang X, Li Z, Ye J.著、「An attention-based graph neural network for heterogeneous structural learning.」、In: The thirty-fourth AAAI conference on artificial intelligence, AAAI 2020, the thirty-second innovative applications of artificial intelligence conference, IAAI 2020, the tenth AAAI symposium on educational advances in artificial intelligence. AAAI Press; 2020, 第4132-9頁、URL https://aaai.org/ojs/index.php/AAAI/article/view/5833を参照されたい。タイプごとに異なる特徴を有する少なくとも2つの異なるタイプのノード及びエッジが存在する。かかる異種グラフは、ノードの集合V、マルチリレーションエッジの集合E⊆V×R×V、リレーションタイプの集合R、及び、属性タイプの集合Aによって、G=(V,E,R,A)として定式化される。
【0030】
グラフ理論から知られているように、ノード次数、クラスタリング係数及び中心性を含むグラフの特性を記述及び比較するために使用される、多数のメトリックが存在する。これについては、たとえば、Rahman MS.著、「Basic graph theory.」、Undergraduate topics in computer science, 1st ed. Springer, Cham; 2017年、http://dx.doi.org/10.1007/978-3-319-49475-3を参照されたい。
【0031】
次のセクションで説明するGNNのメカニズムを用いなければ、グラフ解析は、標準的なMLアプローチを用いたグラフに基づく推定を実行するために、グラフ構造を表すかかるメトリックに依拠する。
【0032】
リレーション情報の別の表現は、知識グラフである。特に、多数のタイプのエンティティ及びリレーションを含むデータセットについては、1つのリレーションを介して接続されている2つのエンティティのトリプレットを設定するのが一般的である。知識グラフは上述のグラフスキーマにおいて定式化し直すことができ、また、たいていの一般的なGNN法は後者に基づき動作するので、知識グラフ及びそれらの特定の学習方法は、代替手段とみなすことができる。
【0033】
GNNの公知の動作原理は、それぞれ完全なグラフに対して又はノードレベル若しくはエッジレベルにおいて定義された目標特徴ベクトルに向けて、ノード特徴、エッジ特徴又はこれら双方を更新するための計算パスとしてグラフ構造が用いられたグラフ内の各ノードの局所的な近傍からの情報の集約体である。GNNを分類する一般的な手法は、スペクトル法と空間法との間の区別である。CNNの動作原理と同様に、スペクトルGNN法は、グラフラプラシアンの多項式によって定義されたグラフスペクトル領域内の畳み込みフィルタの同等性を使用する。グラフに基づく学習タスクにおける共通のベースラインは、フィルタを線形近似するグラフ畳み込みネットワーク(GCN)と称されるバリアントである。レイヤkにおけるすべてのノードの隠れ状態は、
【数4】
によって計算される。ここで、W
(k)は、学習可能な重み行列を表現し、σ(・)は、活性化関数である。グラフの隣接行列を
【数5】
として単位行列に追加した後、
【数6】
がその次数行列
【数7】
と組み合わせられて、自己接続を有する正規化された隣接となる。広い範囲のノード次数を有するグラフ上のトレーニングプロセス中に生じる可能性がある数値不安定性を回避するために、対称的に正規化された集約体を適用することができる。
【0034】
ただし、過剰適合のリスクに対抗する一方で、この自己ループ更新によって、着目対象のノードの情報と近傍のノードの情報とが区別されないようになる。GCNは、空間的な方法として定式化し直すこともでき、この場合、平均プーリングを介してノード近傍性の特徴と着目対象のノードの特徴とが集約される。即ち、
【数8】
ただし、
【数9】
であり、ここで、
【数10】
は、ノードv
iのすべての近傍を表現する。
【0035】
リレーションGCN(RGCN)は、GCNを、別個の重み行列をそれぞれ異なるエッジタイプRを有する近傍のノードに割り当てることによって、ラベリングされたエッジを有するグラフに拡張する。即ち、
【数11】
ここで、W
r及びW
0は、トレーニング中に適応させられた重み行列を表現し、
【数12】
は、任意選択的にトレーニング可能な定数である。
【0036】
標準的なNNにとって有利であると判明したアテンションメカニズムをグラフ近傍に適応させることにより、グラフアテンションネットワーク(GAT)は、その近傍全体にわたるノード特徴の集約体に対するアテンションウェイトを導入する。
【0037】
GATの場合、ある1つの近傍のノードv
jがノードv
iにとってどの程度重要であるのかが、アテンション係数
【数13】
の形態でノードごとに計算される。付加的な非線形活性化関数が適用され、係数がすべての近傍にわたり正規化される。結果として得られたアテンションスコアは、GCNからの平均集約体に取って代わるものである。
【0038】
GNNの第3の原理は、ニューラルメッセージパッシングスキームであり、これは特別なケースとして、畳み込みGNN及びアテンショナルGNNを含む。初期のノード特徴及びエッジ特徴を、たとえばネットワーク埋め込みを介して変換することができる任意選択的な前処理ステップの後に、情報が、繰り返しすべてのノード及びエッジの近傍から集約されて結合される。したがって、近傍のノード又はエッジから情報を収集するメッセージパッシング関数
【数14】
を設定しなければならない。これに加えて、更新関数又は統合関数φ(・)を定義する必要があり、この関数は、集約された情報と、自身のインスタンス又はリレーションの特徴とを考慮して、ノード及び/又はエッジの隠れ状態を更新する。
【0039】
集約関数は、単に特徴を平均化することができるが、リカレントニューラルネットワークユニット又は他の種類のNNによっても同様にこれを提供することもできる。統合関数についても同様の多様性があり、この関数が順列不変であり、かつ、入力ノードの量に対して不変である限り、非線形活性化関数、重み付け和などとして、これを実現することができる。
【0040】
一般的な形態においては、メッセージパッシングスキームは、
【数15】
として定式化することができ、ここで、
【数16】
は、順列不変演算を表現する。
【0041】
これに続いて適用される集約関数及び統合関数の評価についての反復回数Kによって、GNNにおける層の数が定義される。反復がより多く実行されればされるほど、離れたノードからのより多くの情報が着目対象のノードに伝搬される。
【0042】
ただし、多くの層を使用し過ぎると、しばしば過剰適合が引き起こされることが判明したので、実際には、反復回数は2つ又は3つの層に制限されることが多い。最終的に、最後のステップは、着目対象の特徴ベクトルの読み出しを構成する。
【0043】
異種グラフトランスフォーマ(HGT)は、特定のタスクにどのメタパスが関連するかを暗黙的に学習する異種グラフのために、メッセージパッシングスキームをアテンションメカニズムと組み合わせる。詳細には、Hu Z, Dong Y, Wang K, Sun Y.著、「Heterogeneous graph transformer.」 In: WWW ’20: the web conference 2020. ACM / IW3C2; 2020, p. 2704-10. http://dx.doi.org/10.1145/3366423.3380027、又は、Yang C, Xiao Y, Zhang Y, Sun Y, Han J.著、「Heterogeneous network representation learning: A unified framework with survey and benchmark.」、IEEE Trans Knowledge Data Eng 2020. http://dx.doi.org/10.1109/TKDE.2020.3045924を参照されたい。
【0044】
以下においては、測定のグラフ構造の設計について考察する。好ましくは、構築されたすべてのグラフは、有向非巡回グラフである。全般的な設定は、トランスダクティブであり、即ち、目標値とは対照的に、完全なグラフの構造は、トレーニング中に既知であった。情報の漏洩を回避するために、すべての実験について、トレーニングセット内のウェーハ間のエッジのみ、並びに、トレーニングセットから検査セット及び検証セットまでのエッジのみが定義可能であるが、検査セット内及び検証セット内のウェーハは、接続されなかった。さらなる実施形態において、ウェーハ間の接続の他の次数を利用することもできる。また、エッジは、検査セット及び検証セットからの情報を、トレーニングセットに渡さなかった。
図1において、左側には初期のグラフバリアントV0について、セット間のエッジが強調表示されて概略的に視覚化されている。ここで前提とし得ることは、経時的なパラメータの変化は存在せず、したがって、構築されたグラフは静的であった、ということである。好ましくは、学習タスクは、ノードレベルでの教師あり回帰として定式化された。なぜならば、目標は、ダイごとに連続的な目標パラメータを推定することであったからであり、グラフレベルの予測は、関連する作業の文脈において既に論じたように、インラインパラメータ、測定装置及び同様に構造化された情報の統合に適していないからである。同種グラフバリアント及び異種グラフバリアントの双方が使用可能である。異種グラフを構築するために、ウェーハ、ダイ、及び、各パラメータタイプ、即ち、検出振幅、周波数分割などは、対応するダイにウェーハを接続するエッジを有する個々のノードタイプとして定義することができ、それらのダイはやはり、それらの関連づけられた測定パラメータに接続された。測定値は、関連するパラメータタイプノードのノード特徴として設定されたが、ランダム値は、ウェーハ及びダイノードに割り当てられた。
【0045】
図1には、ウェーハ、ダイ、及び、別個の測定されたパラメータから成る異種グラフの一例が示されている。このケーススタディにおける目標は、測定されたパラメータに関する情報と、ここでは円として表現されたウェーハ全体にわたる近傍情報とを使用して、正方形として表現されたダイのそのままの感度を決定することであった。ダイ間のリレーションは、有向エッジとしてモデル化される。左側に示したV0の場合、ダイ間の接続は存在せず、ウェーハ間の接続は強調表示されているが、右側に示したV2の場合、ダイは、同一のウェーハ上の近傍のダイに接続され、かつ、他のウェーハ上の同様のポジションにあるダイに接続されている。したがって、V2の場合には、ダイ間接続が強調表示されている。
【0046】
グラフ内のウェーハ上のダイの近傍リレーションを確立するためには、いくつかのストラテジがある。実験全体を通して適用されたものについて、表にまとめられている。
【表1】
【0047】
ダイ間の接続をまったく確立しない(グラフバリアントV0、
図1の左側)ことに加えて、最も直感的なアプローチは、ある1つのダイと、ウェーハ上のそのダイのn
sameWafer個の次の近傍のウェーハとの間に、エッジを設定することであり、これを以下においてはグラフバリアントV2として示す。
【0048】
図1の右側に示したV2の場合、ダイは、異なるウェーハ上のダイにも接続されたが、これは同様のポジションにあるダイである。同一のウェーハ上のダイ間及び異なるウェーハ上のダイ間の接続の数を変化させる3つのケースが検査された。他のウェーハ上の同一のポジションへの接続と、他のウェーハ上の近傍のポジションへの接続とを区別するために、V3の場合には、他のウェーハ上の接続されたダイが、正確に同一のポジションに位置していたのか又は近傍のポジションに位置していたのかに応じて、リレーションが2つの別個のエッジタイプに分割された。
【0049】
好ましくは、GNNモデルは、2つの層を有し、早期停止を含め最大500エポックにわたりトレーニングされた。好ましくは、勾配ノルムが0.9にクリップされ、分離された重み減衰を有するAdamが確率的最適化器として使用される。
【0050】
HGTは、クロスレデューサーとして平均演算子を利用することができる。測定されたパラメータ及び目標感度は、トレーニング手順のために及びエラーメトリックの報告のために、トレーニングサンプルにおいてゼロ平均及び単位分散を有するように標準化された。グラフバリアント及びGNN法ごとに最良のグラフ構造を見出す目的で、ベイズ最適化(BO)を適用し、たとえばSobol生成ストラテジを用いた30個の試験について、75エポックにわたりモデルをトレーニングした。
【0051】
本発明の好ましい実施形態において、MEMSジャイロスコープの1つの軸のそのままの感度が、慣性測定ユニット(IMU)に基づき、インライン、WLT及びFTデータから予測される。データセットは、FT、WLT及びインラインパラメータを含み、特に、駆動振幅及び検出振幅、位相測定、品質係数、トリミングパラメータ、並びに、エピタキシャル層及び酸化物層の厚さを含む。予測は、トレーニングされたGNNによってグラフ上で実行され、この場合、GNNのアーキテクチャは、GCN、GAT、RGCN又はHGTのいずれかとすることができる。
【0052】
図2には、受け取った第1の測定の結果に基づき、生産された製品の第2の測定の結果を予測するためのグラフニューラルネットワークをトレーニングし、トレーニングされたグラフニューラルネットワークを使用するための方法の1つの実施形態のフローチャート(20)が例示的に示されている。この方法は、以下のステップを含む。
【0053】
複数の生産された製品について、第1の測定の結果及び第2の測定の結果を受け取るステップ(S21)。
【0054】
第1の測定のグラフを構築し、第1の測定の対応する第2の測定をそれぞれ対応するグラフに割り当てることによって、トレーニングデータセットを生成するステップ(S22)。
【0055】
グラフに基づき第2の測定を予測するために、このトレーニングデータセットにおいてグラフニューラルネットワークをトレーニングするステップ(S23)。
【0056】
トレーニングされたグラフニューラルネットワークを構築されたグラフに適用することによって、第2の測定を決定するステップ(S24)。
【0057】
図3には、トレーニングシステム500の1つの実施形態が示されている。トレーニング装置500は、トレーニングデータセットから入力グラフを供給するプロバイダシステム51を含む。入力グラフは、トレーニングすべきGNN52に供給され、これにより第2の測定が予測される。予測された第2の測定及び入力グラフのラベルは、評価器53に供給され、評価器53は、それらから重要なハイパーパラメータ/パラメータを決定し、それらはパラメータメモリPに送信され、そこにおいて、それらが現在のパラメータに取って代わる。評価器53は、
図2による方法のステップS23を実行するように構成されている。
【0058】
トレーニング装置500によって実行される手順は、機械可読記憶媒体54に記憶されたコンピュータプログラムとして実装することができ、プロセッサ55によって実行することができる。
【0059】
用語「コンピュータ」は、事前定義された計算命令を処理するための任意のデバイスを包含する。これらの計算命令は、ソフトウェアの形態とすることができ、又は、ハードウェアの形態とすることができ、又は、ソフトウェアとハードウェアとの混合形態とすることもできる。
【手続補正書】
【提出日】2023-05-25
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
受け取った第1の測定の結果に基づき、生産された製品の第2の測定の結果を予測するためのグラフニューラルネットワークをトレーニングする、コンピュータ実装された方法であって、
複数の生産された製品について、第1の測定の結果及び第2の測定の結果を受け取るステップ(S21)と、
前記第1の測定の結果のグラフを構築し、前記第1の測定の対応する前記第2の測定を対応するグラフに割り当てることによって、トレーニングデータセットを生成するステップ(S22)と、
前記グラフに基づき第2の測定の結果を予測するために、前記トレーニングデータセットにおいて前記グラフニューラルネットワークをトレーニングするステップ(S23)と、
を含む方法。
【請求項2】
前記グラフは、前記第1の測定の結果と前記製品との間のリレーションシップを表すように構成されている、請求項1に記載の方法。
【請求項3】
受け取った前記第1の測定の結果は、前記製品のうちの少なくとも1つの第1の測定の結果が欠落している、請求項1に記載の方法。
【請求項4】
前記グラフニューラルネットワークは、HGTアーキテクチャを含む、請求項1に記載の方法。
【請求項5】
前記第1の測定及び前記第2の測定は、半導体製品検査の検査データであり、前記グラフは、相互接続されたダイ、ウェーハ、FT、WLT、及び、スパース・インライン測定パラメータを表現し、これらは、異なるソース及び情報フォーマットを融合する測定装置及びプロセス装置を含むさらなる属性によって補完される、請求項1に記載の方法。
【請求項6】
前記グラフは、異種グラフとして構成されており、ノードは、前記第1の測定を表現し、前記グラフの接続は、前記製品のウェーハの上における前記製品の空間的配置を表す、請求項5に記載の方法。
【請求項7】
前記製品は、半導体センサ、特にMEMSセンサである、請求項5に記載の方法。
【請求項8】
請求項1に記載の方法を用いてトレーニングされたグラフニューラルネットワークを動作させる方法であって、
新たに生産された製品の第1の測定の結果を受け取るステップと、
前記第1の測定の結果に基づきグラフを構築するステップと、
前記トレーニングされたグラフニューラルネットワークを構築された前記グラフに適用することによって、第2の測定の結果を決定するステップ(S24)と、
を含む方法。
【請求項9】
コンピュータプログラムであって、当該コンピュータプログラムが、コンピュータに備えられたプロセッサによって実行される場合に、請求項1に記載の方法を前記コンピュータに実施させるために構成されているコンピュータプログラム。
【請求項10】
請求項9に記載のコンピュータプログラムが記憶されている機械可読記憶媒体。
【請求項11】
請求項10に記載の機械可読記憶媒体を備えている装置。
【外国語明細書】