IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社半導体エネルギー研究所の特許一覧

(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-11
(45)【発行日】2024-07-22
(54)【発明の名称】半導体素子の電気特性予測方法
(51)【国際特許分類】
   H01L 21/02 20060101AFI20240712BHJP
   G06N 20/00 20190101ALI20240712BHJP
   G06N 3/02 20060101ALI20240712BHJP
   H01L 29/786 20060101ALI20240712BHJP
   H01L 21/336 20060101ALI20240712BHJP
   H01L 21/66 20060101ALI20240712BHJP
【FI】
H01L21/02 Z
G06N20/00 130
G06N3/02
H01L29/78 618B
H01L29/78 624
H01L21/66 L
【請求項の数】 7
(21)【出願番号】P 2021520483
(86)(22)【出願日】2020-05-11
(86)【国際出願番号】 IB2020054411
(87)【国際公開番号】W WO2020234685
(87)【国際公開日】2020-11-26
【審査請求日】2023-04-26
(31)【優先権主張番号】P 2019096919
(32)【優先日】2019-05-23
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000153878
【氏名又は名称】株式会社半導体エネルギー研究所
(72)【発明者】
【氏名】井上 聖子
(72)【発明者】
【氏名】幸村 雄介
(72)【発明者】
【氏名】福留 貴浩
【審査官】堀江 義隆
(56)【参考文献】
【文献】特開2008-21805(JP,A)
【文献】特開2020-43270(JP,A)
【文献】特表2020-500420(JP,A)
【文献】米国特許出願公開第2017/0337482(US,A1)
【文献】米国特許出願公開第2020/0320366(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
H01L 21/02
G06N 20/00
G06N 3/02
H01L 29/786
H01L 21/336
H01L 21/66
(57)【特許請求の範囲】
【請求項1】
特徴量算出部と、特性予測部とを有する半導体素子の電気特性予測方法であって、
前記特徴量算出部は、第1の学習モデルと、第2の学習モデルと、を有し、
前記特性予測部は、第3の学習モデルを有し、
前記第1の学習モデルが、前記半導体素子を生成するための工程リストを学習するステップを有し、
前記第2の学習モデルが、前記工程リストによって生成される前記半導体素子の電気特性を学習するステップを有し、
前記第1の学習モデルが、第1の特徴量を生成するステップを有し、
前記第2の学習モデルが、第2の特徴量を生成するステップを有し、
前記第3の学習モデルが、前記第1の特徴量と、前記第2の特徴量と、を用いてマルチモーダルな学習をするステップを有し、
前記第3の学習モデルが、前記半導体素子の電気特性を表す計算式に用いる変数の値を出力するステップを有する、
前記半導体素子の電気特性予測方法。
【請求項2】
請求項1において、
前記特徴量算出部は、第4の学習モデルを有し、
前記第4の学習モデルが、前記工程リストを用いて生成する断面模式図を学習するステップを有し、
前記第4の学習モデルが、第3の特徴量を生成するステップを有し、
前記第3の学習モデルが、前記第1の特徴量と、前記第2の特徴量と、前記第3の特徴量と、を用いてマルチモーダルな学習をするステップを有し、
前記第3の学習モデルが、前記半導体素子の電気特特性を表す計算式に用いる前記変数の値を出力するステップを有する、
前記半導体素子の電気特性予測方法。
【請求項3】
請求項1または請求項2において、
前記第1の学習モデルは、第1のニューラルネットワークを有し、
前記第2の学習モデルは、第2のニューラルネットワークを有し、
前記第1のニューラルネットワークが生成する前記第1の特徴量が、前記第2のニューラルネットワークの重み係数を更新するステップを有する前記半導体素子の電気特性予測方法。
【請求項4】
請求項1乃至請求項3のいずれか一において、
前記第1の学習モデルには、推論用工程リストが与えられ、且つ、前記第2の学習モデルには、前記半導体素子の端子に与える電圧の値が与えられる場合、前記第2の学習モデルが、前記電圧の値に応じた電流の値を出力するステップを有する前記半導体素子の電気特性予測方法。
【請求項5】
請求項1乃至請求項3のいずれか一において、
前記第1の学習モデルには、推論用工程リストが与えられ、且つ、前記第2の学習モデルには、前記半導体素子の端子に与える電圧の値が与えられる場合、前記第3の学習モデルが、前記半導体素子の電気特性の計算式に用いる変数の値を出力するステップを有する、前記半導体素子の電気特性予測方法。
【請求項6】
請求項1乃至請求項5のいずれか一において、
前記半導体素子が、トランジスタである前記半導体素子の電気特性予測方法。
【請求項7】
請求項6において、
前記トランジスタは、半導体層に金属酸化物を有する前記半導体素子の電気特性予測方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の一態様は、工程レシピ、電気特性、または画像データのいずれか一又は複数を用いたマルチモーダルな学習モデルを学習させる方法に関する。また、本発明の一態様は、工程レシピ、電気特性、または画像データのいずれか一又は複数を用いたマルチモーダルな学習済モデルを用いて半導体素子の電気特性を予測する方法に関する。本発明の一態様は、コンピュータを利用する半導体素子の電気特性予測方法に関する。
【0002】
なお、本明細書などにおいて、半導体素子は、半導体特性を利用することで機能しうる素子を指す。一例としては、トランジスタ、ダイオード、発光素子、または受光素子などの半導体素子である。また別の一例の半導体素子は、容量、抵抗、インダクタなどの、導電膜、または絶縁膜などによって生成される受動素子である。また別の一例の半導体素子は、半導体素子、または受動素子を有する回路を備える半導体装置である。
【背景技術】
【0003】
近年、人工知能(AI:Artificial Intelligence)を用いた分野、ロボットの分野、またはパワーICなどの高い電力を扱うエネルギー分野では、演算量の増大、または消費電力の増大などの課題を解決するための新しい半導体素子の開発が進められている。市場が求める集積回路または集積回路に用いられる半導体素子は、複雑になる一方で、新たな機能を有する集積回路の早期立ち上げが求められている。ただし、半導体素子の開発におけるプロセス設計、デバイス設計、または回路設計では、熟練した技術者の知識、ノウハウ、または経験などが必要である。
【0004】
近年では、遺伝的アルゴリズムを用いてトランジスタの物理モデルのパラメータ調整することが知られている。特許文献1では、遺伝的アルゴリズムをトランジスタの物理モデルのパラメータ調整に用いるパラメータ調整装置が開示されている。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2005-38216号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
半導体素子を開発するには、プロセス設計、デバイス設計、および回路設計が必要である。一例として、半導体素子を形成する場合、半導体素子は、複数のプロセス工程を組み合わせることで形成される。半導体素子は、プロセス工程の順番が変わると半導体素子の電気特性が異なってしまう問題がある。なお、同じ工程であっても、製造装置またはプロセス条件が異なれば、半導体素子の電気特性が異なる問題がある。
【0007】
また、半導体素子は、同じ工程、同じ機能を有する異なる装置、および同じ条件を用いて形成されたとしても微細化が進むことによって異なる電気特性を示す問題がある。一例として、製造装置の膜厚精度または加工精度などが原因の場合と、微細化による物理モデルが異なってくることが原因の場合と、がある。原因を追究するには、様々な実験または評価のため時間を必要とする問題がある。
【0008】
上述のように、プロセス工程の順番、製造装置、プロセス条件、微細化、膜厚精度および加工精度など、半導体素子の電気特性に影響を及ぼす要因は多岐にわたり、半導体素子の電気特性を正確に予測することは非常に困難であった。
【0009】
上記問題に鑑み、本発明の一態様は、簡便な半導体装置の電気特性予測方法を提供することを課題の一とする。または、本発明の一態様は、簡便なコンピュータを利用した半導体素子の電気特性予測方法を提供することを課題の一とする。又は、本発明の一態様は、半導体素子の工程リストを学習し、第1の特徴量を出力するニューラルネットワークを備えることを課題の一つとする。又は、本発明の一態様は、半導体素子の当該工程リストによって生成された半導体素子の電気特性を学習し、第2の特徴量を出力するニューラルネットワークを備えることを課題の一つとする。又は、本発明の一態様は、半導体素子の当該工程リストによって生成された半導体素子の断面模式図または断面観察像を学習し、第3の特徴量を出力するニューラルネットワークを備えることを課題の一つとする。又は、本発明の一態様は、第1乃至第3の特徴量を用いてマルチモーダルな学習をするニューラルネットワークを備えることを課題の一つとする。又は、本発明の一態様は、マルチモーダルな学習をするニューラルネットワークが半導体素子の電気特性を表す計算式に用いる変数の値を出力することを課題の一つとする。
【0010】
なお、これらの課題の記載は、他の課題の存在を妨げるものではない。なお、本発明の一態様は、これらの課題の全てを解決する必要はないものとする。なお、これら以外の課題は、明細書、図面、請求項などの記載から、自ずと明らかとなるものであり、明細書、図面、請求項などの記載から、これら以外の課題を抽出することが可能である。
【課題を解決するための手段】
【0011】
本発明の一態様は、特徴量算出部と、特性予測部と、を有する半導体素子の電気特性予測方法である。特徴量算出部は、第1の学習モデルと、第2の学習モデルと、を有し、特性予測部は、第3の学習モデルを有する。第1の学習モデルが、半導体素子を生成するための工程リストを学習するステップを有する。さらに、第1の学習モデルが、第1の特徴量を生成するステップを有する。第2の学習モデルが、工程リストによって生成される半導体素子の電気特性を学習するステップを有する。さらに、第2の学習モデルが、第2の特徴量を生成するステップを有する。第3の学習モデルが、第1の特徴量と、第2の特徴量と、を用いてマルチモーダルな学習をするステップを有する。さらに、第3の学習モデルが、半導体素子の電気特性を表す計算式に用いる変数の値を出力するステップを有する半導体素子の電気特性予測方法である。
【0012】
上記構成において、特徴量算出部は、第4の学習モデルを有する。第4の学習モデルが、工程リストを用いて生成する断面模式図を学習するステップを有する。さらに、第4の学習モデルが、第3の特徴量を生成するステップを有する。第3の学習モデルが、第1の特徴量と、第2の特徴量と、第3の特徴量と、を用いてマルチモーダルな学習をするステップを有する。第3の学習モデルが、半導体素子の電気特特性を表す計算式に用いる変数の値を出力するステップを有する半導体素子の電気特性予測方法が好ましい。
【0013】
上記構成において、第1の学習モデルは、第1のニューラルネットワークを有し、第2の学習モデルは、第2のニューラルネットワークを有する。第1のニューラルネットワークが生成する第1の特徴量が、第2のニューラルネットワークの重み係数を更新するステップを有する半導体素子の電気特性予測方法が好ましい。
【0014】
上記構成において、第1の学習モデルには、推論用工程リストが与えられ、且つ、第2の学習モデルには、半導体素子の端子に与える電圧の値が与えられる場合、第2の学習モデルが、電圧の値に応じた電流の値を出力するステップを有する半導体素子の電気特性予測方法が好ましい。
【0015】
上記構成において、第1の学習モデルには、推論用工程リストが与えられ、且つ、第2の学習モデルには、半導体素子の端子に与える電圧の値が与えられる場合、第3の学習モデルが、半導体素子の電気特性の計算式に用いる変数の値を出力するステップを有する、半導体素子の電気特性予測方法が好ましい。
【0016】
上記構成において、半導体素子が、トランジスタである半導体素子の電気特性予測方法が好ましい。なお、トランジスタは、半導体層に金属酸化物を含むことが好ましい。
【発明の効果】
【0017】
本発明の一態様は、簡便な半導体素子の電気特性予測方法を提供することができる。または、本発明の一態様では、簡便なコンピュータを利用した半導体素子の電気特性予測方法を提供することができる。又は、本発明の一態様は、半導体素子の工程リストを学習し、第1の特徴量を出力するニューラルネットワークを備えることができる。又は、本発明の一態様は、半導体素子の当該工程リストによって生成された半導体素子の電気特性を学習し、第2の特徴量を出力するニューラルネットワークを備えることができる。又は、本発明の一態様は、半導体素子の当該工程リストによって生成された半導体素子の断面模式図または断面画像を学習し、第3の特徴量を出力するニューラルネットワークを備えることができる。又は、本発明の一態様は、第1乃至第3の特徴量を用いてマルチモーダルな学習をするニューラルネットワークを備えることができる。又は、本発明の一態様は、マルチモーダルな学習をするニューラルネットワークが半導体素子の電気特性を表す計算式に用いる変数の値を出力することができる。
【0018】
なお本発明の一態様の効果は、上記列挙した効果に限定されない。上記列挙した効果は、他の効果の存在を妨げるものではない。なお他の効果は、以下の記載で述べる、本項目で言及していない効果である。本項目で言及していない効果は、当業者であれば明細書又は図面などの記載から導き出せるものであり、これらの記載から適宜抽出することができる。なお、本発明の一態様は、上記列挙した効果、及び/又は他の効果のうち、少なくとも一つの効果を有するものである。したがって本発明の一態様は、場合によっては、上記列挙した効果を有さない場合もある。
【図面の簡単な説明】
【0019】
図1は、半導体素子の電気特性予測方法を説明する図である。
図2A図2B図2C図2Dは、工程リストを説明する表である。
図3A図3Bは、工程リストを説明する図である。図3Cは、工程リストを学習するニューラルネットワークを説明する図である。
図4A図4Bは、半導体素子の電気特性を説明する図である。図4Cは、電気特性を学習するニューラルネットワークを説明する図である。
図5は、半導体素子の電気特性予測方法を説明する図である。
図6Aは、画像データを学習するニューラルネットワークを説明する図である。図6Bは、半導体素子の断面模式図を説明する図である。図6Cは、半導体素子の断観察像を説明する図である。
図7は、半導体素子の電気特性予測方法を説明する図である。
図8は、半導体素子の電気特性予測方法を説明する図である。
図9は、プログラムを動作させるコンピュータを説明する図である。
【発明を実施するための形態】
【0020】
実施の形態について、図面を用いて詳細に説明する。但し、本発明は以下の説明に限定されず、本発明の趣旨及びその範囲から逸脱することなくその形態及び詳細を様々に変更し得ることは当業者であれば容易に理解される。したがって、本発明は以下に示す実施の形態の記載内容に限定して解釈されるものではない。
【0021】
なお、以下に説明する発明の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、その繰り返しの説明は省略する。また、同様の機能を指す場合には、ハッチパターンを同じくし、特に符号を付さない場合がある。
【0022】
また、図面において示す各構成の、位置、大きさ、範囲などは、理解の簡単のため、実際の位置、大きさ、範囲などを表していない場合がある。このため、開示する発明は、必ずしも、図面に開示された位置、大きさ、範囲などに限定されない。
【0023】
また、本明細書にて用いる「第1」、「第2」、「第3」という序数詞は、構成要素の混同を避けるために付したものであり、数的に限定するものではないことを付記する。
【0024】
(実施の形態)
本発明の一態様では、半導体素子の電気特性予測方法について説明する。一例として、半導体素子の電気特性予測方法には、特徴量算出部と、特性予測部と、を用いる。特徴量算出部は、第1の学習モデルと、第2の学習モデルとを有し、特性予測部は、第3の学習モデルを有する。なお、第1の学習モデルは、第1のニューラルネットワークを有し、第2の学習モデルは、第2のニューラルネットワークを有し、第3の学習モデルは、第3のニューラルネットワークを有する。なお、第1乃至第3のニューラルネットワークはそれぞれ異なることが好ましい。
【0025】
最初に、半導体素子の電気特性を予測するための学習方法について説明する。
【0026】
一例として、第1の学習モデルが、半導体素子を生成するための工程リストを学習する場合について説明する。第1の学習モデルは、半導体素子を生成するための工程リストが与えられることで第1のニューラルネットワークの重み係数を更新する。つまり、第1のニューラルネットワークは、工程リストを教師データとして学習するニューラルネットワークである。以降では、一例として、半導体素子をトランジスタと言い換えて説明する。なお、半導体素子は、トランジスタに限定されない。トランジスタは一例であり、半導体素子は、ダイオード、サーミスタ、ジャイロセンサ、加速度センサ、発光素子、または受光素子などでもよい。なお、半導体素子には、抵抗または容量などを含むことができる。
【0027】
なお、上述した工程リストは、トランジスタを形成するために必要な複数の工程が組み合わされた情報である。次に、工程リストに記載される一つの工程項目について説明する。工程項目は、少なくとも工程ID、装置ID、および条件を含むことが好ましい。なお、工程の種類には、成膜工程、洗浄工程、レジスト塗布工程、露光工程、現像工程、加工工程、ベーク工程、剥離工程、またはドーピング工程などの少なくとも一つもしくは複数の工程がある。また、条件には、それぞれの装置の設定条件などが含まれる。
【0028】
また、それぞれの工程IDが表す工程内容は、異なる機能を有する装置によって行われる場合がある。例えば、成膜工程には、有機金属気相成長法(MOCVD)、化学気相成長法(CVD)、またはスパッタ法などがある。したがって、第1の学習モデルに与える情報の場合、工程IDおよび装置IDを一つのコードで表すことで2次元の情報を1次元の情報として管理することができる。コードを用いて工程IDと装置IDとを表すことで、学習項目を減らし演算量を削減する。なお、コード生成方法は、図2で詳細に説明する。
【0029】
さらに、第1の学習モデルは、工程リストによって学習した第1のニューラルネットワークによって第1の特徴量を生成する。
【0030】
本発明の一態様では、第1の学習モデルの学習と並行して、第2の学習モデルが第1のモデルによって生成されたトランジスタの電気特性を学習する。詳細に説明すると、第2の学習モデルは、第1の学習モデルに与える工程リストによって生成されたトランジスタの電気特性を学習する。第2の学習モデルは、当該トランジスタの電気特性が与えられることで第2のニューラルネットワークの重み係数を更新する。つまり、第2のニューラルネットワークは、トランジスタの電気特性を教師データとして学習するニューラルネットワークである。一例として、トランジスタの電気特性は、トランジスタの温度特性または閾値電圧などを評価するId-Vgs特性と、トランジスタの飽和特性を評価するId-Vds特性と、を用いることができる。
【0031】
ドレイン電流Idは、トランジスタのゲート端子、ドレイン端子、およびソース端子に電圧を与えた時のドレイン端子に流れる電流の大きさを示す。なお、Id-Vgs特性とは、トランジスタのゲート端子に異なる電圧を与えた時のドレイン電流Idの変化である。また、Id-Vds特性とは、トランジスタのドレイン端子に異なる電圧を与えた時のドレイン電流の値Idの変化である。
【0032】
さらに、第2の学習モデルは、工程リストによって生成されるトランジスタの電気特性を学習した第2のニューラルネットワークによって第2の特徴量を生成する。
【0033】
続いて、第3の学習モデルは、第1の特徴量と、第2の特徴量と、を用いてマルチモーダルな学習をする。第3の学習モデルは、第1の特徴量と、第2の特徴量とが与えられることで第3のニューラルネットワークの重み係数を更新する。つまり、第3のニューラルネットワークは、工程リストと、工程リストに対応するトランジスタの電気特性と、を教師データとして学習するニューラルネットワークである。
【0034】
なお、マルチモーダルな学習とは、半導体素子を生成するための工程リストから生成される第1の特徴量、当該工程リストによって生成される半導体素子の電気特性から生成される第2の特徴量のように異なる様式の情報を用いて学習することである。一例として、異なる様式の複数の情報から生成される特徴量を入力情報とするニューラルネットワークは、マルチモーダルインターフェースを有するニューラルネットワークと呼ぶことができる。本発明の一態様では、第3のニューラルネットワークがマルチモーダルインターフェースを有するニューラルネットワークに相当する。
【0035】
一例として、第3の学習モデルは、トランジスタの電気特性を表す計算式に用いる変数の値を出力する。つまり、当該変数の値が、半導体素子の電気特性予測方法によって予測する値となる。
【0036】
一例として、トランジスタのグラジュアルチャネル近似式をトランジスタの電気特性を表す計算式として用いる。式(1)は、トランジスタの飽和領域の電気特性を表している。式(2)は、トランジスタの線形領域の電気特性を表している。
【0037】
【数1】
【0038】
【数2】
【0039】
トランジスタの電気特性予測方法が予測する変数には、式(1)または(2)に用いられるドレイン電流Id、電界効果移動度μFE、ゲート絶縁膜の単位面積容量Cox、チャネル長L、チャネル幅W、または閾値電圧Vthなどの変数がある。なお、ゲート端子に与えられるゲート電圧Vgまたはドレイン端子に与えられるドレイン電圧Vdには、後述する推論データが与えられることが好ましい。なお、第3の学習モデルは、上述した変数の値をすべて出力することができる、もしくはいずれか一または複数の変数の値を出力してもよい。
【0040】
半導体素子の電気特性予測方法は、教師データあり学習を利用するため第3の学習モデルの出力結果に対して第1乃至第3のニューラルネットワークに対して報酬を与える。一例として、第1乃至第3のニューラルネットワークは、トランジスタの電気特性から式(1)または(2)から算出した結果に近づくように重み係数を更新する。
【0041】
特徴量算出部は、さらに、第4の学習モデルを有する。第4の学習モデルが、工程リストを用いて生成するトランジスタの断面模式図を学習する。または、第4の学習モデルは、工程リストを用いて生成されたトランジスタの断面SEM像を学習する。第4の学習モデルは、トランジスタの断面模式図、または断面SEM像を学習することで第3の特徴量を生成する。第4の学習モデルが第3の特徴量を生成する場合、並行して第1の学習モデルが第1の特徴量を生成し、かつ、第2の学習モデルが第2の特徴量を生成することが好ましい。
【0042】
よって、第3の学習モデルが、第1の特徴量と、第2の特徴量と、第3の特徴量を用いてマルチモーダルな学習をする。よって、第3の学習モデルが、トランジスタの電気特特性を表す計算式に用いる変数の値を出力する。
【0043】
さらに、第1の特徴量が、第2のニューラルネットワークの重み係数を更新する。第1の特徴量は、工程リストを学習した第1の学習モデルの出力である。つまり、第1の特徴量は、工程リストによって生成されるトランジスタの電気特性と関係を有する。
【0044】
次に、上記トランジスタの電気特性予測方法を用いて推論を行う方法について説明する。第1の学習モデルには、推論用工程リストが与えられ、且つ、第2の学習モデルには、半導体素子の端子に与える電圧の値が与えられる場合、第3の学習モデルが、トランジスタの電気特性の計算式に用いる変数の値を出力する。
【0045】
また、第1の特徴量が、第2のニューラルネットワークの重み係数を更新する場合、トランジスタの電気特性予測方法を用いた推論を行う方法について説明する。第1の学習モデルには、推論用工程リストが与えられ、且つ、第2の学習モデルには、トランジスタの端子(ゲート端子、ドレイン端子、ソース端子)に与える電圧の値が与えられる。第2の学習モデルは、当該電圧の値に応じたドレイン端子に流れる電流の値を予測値として出力する。
【0046】
続いて、半導体素子の電気特性予測方法について図1乃至図8を用いて説明する。なお、半導体素子は、トランジスタを用いた場合について説明する。
【0047】
図1で説明するトランジスタの電気特性予測方法は、特徴量算出部110と、特性予測部120と、を有する。特徴量算出部110は、学習モデル210と、学習モデル220とを有し、特性予測部120は、学習モデル230を有する。
【0048】
なお、学習モデル210は、ニューラルネットワーク211と、ニューラルネットワーク212と、を有する。なお、ニューラルネットワーク211と、ニューラルネットワーク212と、については、図3Cで詳細に説明する。
【0049】
学習モデル220は、ニューラルネットワーク221と、活性化関数222と、を有する。ニューラルネットワーク221は、入力層、中間層、および出力層を有することが好ましい。なお、ニューラルネットワーク221については、図4Cで詳細に説明する。
【0050】
学習モデル230は、結合層231、全結合層232、および全結合層233で構成されるニューラルネットワークを有する。なお、結合層231は、マルチモーダルインターフェースを有する。図1では、結合層231が工程リストから生成される第1の特徴量と、工程リストによって生成されるトランジスタの電気特性から生成される第2の特徴量と、を結合し、全結合層232に与える出力データを生成する。
【0051】
全結合層233は、出力端子OUT_1乃至OUT_wに電気特性(例えばドレイン電流)の予測値を出力する。上述した式(1)または式(2)が有する変数の値は、出力端子OUT_1乃至OUT_wに対応する。なお、異なる例として、半導体素子が抵抗または容量の場合、全結合層233が出力する変数の値は、抵抗の値を算出する式または容量の大きさを算出する式を用いることが好ましい。なお、wは、1以上の整数である。
【0052】
図2A乃至図2Dは、学習モデル210に与える工程リストについて説明する表である。
【0053】
図2Aは、工程リストに含まれる最小単位の工程項目を説明する表である。なお、工程リストは、複数の工程項目によって構成される。工程項目は、工程ID、装置ID,および装置の設定条件などによって構成される。なお、図2Aでは、表示していないが、それぞれの工程項目が、トランジスタのどの部分を形成するのか記載してもよい。工程リストに含まれる工程項目の例としては、工程ID、装置ID,条件、および形成箇所とすることができる。形成箇所としては、酸化膜、電極(ゲート、ソース、またはドレインなど)、半導体層などがある。実際の半導体素子の形成工程では、さらに、コンタクトの形成、配線の形成などの複数の工程を有する。
【0054】
図2Bは、一例として、半導体素子の工程項目を説明する表である。工程IDには、成膜工程、洗浄工程、レジスト塗布工程、露光工程、現像工程、加工工程1、加工工程2、ベーク工程、剥離工程、またはドーピング工程などがある。装置IDは、それぞれの工程で使用する装置が割り当てられることが好ましい。なお、装置の設定条件は、それぞれの工程で使用する装置に設定する項目であることが好ましい。同じ工程であっても、装置IDが異なる場合、それぞれの装置には、異なる装置の設定条件が与えられることがある。
【0055】
工程で使用する装置IDは、次のように設定することができる。例えば、成膜工程:CVD1、洗浄工程:WAS1、レジスト塗布工程:REG1、露光工程:PAT1、現像工程:DEV1、加工工程1:ETC1、加工工程2:CMP1、ベーク工程:OVN1、剥離工程PER1、ドーピング工程:DOP1などと表す。工程IDは、装置IDと常に関連付けて管理されることが好ましい。なお、工程IDは、装置IDと組み合わせて一つのコードで表すことができる。一例として、工程IDが成膜工程、且つ装置IDがCVD1の場合、コードを0011とする。ただし、付与するコードは、ユニークな番号として管理する。さらに、それぞれの装置に設定される条件は、複数の設定項目を有する。なお、図2Bにおけるj、k、m、n、p、r、s、t、u、およびvは、1以上の整数である。
【0056】
図2Cは、同じ工程項目であっても、使用する装置が異なれば、コードが変更になることを説明する表である。一例として、工程IDが、同じ成膜工程であっても使用する装置が化学気相法を用いて成膜する方法と、スパッタ法(装置ID:SPT1)を用いて成膜する方法がある。また、化学気相法を用いた成膜であっても、プラズマを用いて成膜する装置(装置ID:CVD1)、または熱を用いて成膜する装置(装置ID:CVD2)などがある。また、異なる例として、複数の同じ装置を有する場合に、各々の装置で異なるコードを用いても良い。一例として、工場では、プラズマを用いて成膜する装置が複数ある場合、同じ機能を有する装置であっても、成膜される膜の膜質が異なる場合があるため号機管理をすることは必要である。例えば、トランジスタの電気特性は、工程リストの装置IDに影響を受ける場合がある。
【0057】
図2Dは、学習モデル210に与える工程リストに含まれる工程項目を説明する表である。一例として、成膜工程を示すコード:0011について説明する。コード:0011は、工程ID:成膜工程、装置ID:CVD1を意味する。また、図2Cで示したように、コード:0011に与えられる成膜の条件は、膜厚、温度、圧力、電力、気体1、および気体1の流量などがある。詳細に説明すると、コード:0011に与えられる成膜の条件は、膜厚:5nm、温度:500℃、圧力:200Pa、電力:150W、気体1:SiH、および気体1の流量:2000sccmである。なお、工程項目として設定できる条件は、装置によって異なる設定ができることが好ましい。
【0058】
図3A及び図3Bは、工程リストの一部を説明する図である。図3Cは、工程リストを学習するニューラルネットワークを説明する図である。
【0059】
一例として、成膜工程によって成膜された膜を加工する工程について図3Aに示した工程リストの一部を用いて説明する。最初に、成膜工程によって指定された膜を成膜する。成膜条件などは、説明を簡便にするため記載を省略する。なお、成膜工程で用いられる装置は、コード:0011から装置ID:CVD1を用いる。なお、以降において説明する工程では、図面(図2Bなど)を参酌し、各工程のそれぞれの条件については説明を省略する。
【0060】
次に、レジスト塗布工程では、成膜された当該膜上にフォトレジストが塗布される。次に、露光工程では、当該膜のマスクパターンがフォトレジストに転写される。次に、現像工程では、転写されたマスクパターン以外のフォトレジストを現像液で除去し、フォトレジストのマスクパターンを形成する。なお現像工程には、フォトレジストを焼成する工程が含まれてもよい。次に、加工工程1では、フォトレジストに形成されるマスクパターンを用いて当該膜を加工する。次に、剥離工程では、フォトレジストを剥離する。
【0061】
図3Bは、図3Aと異なり、成膜工程の後に洗浄工程が追加され、剥離工程の後にベーク工程が追加されている。一例として、成膜工程の後に洗浄工程が追加されることで、成膜された当該膜の上に残留する不純物の除去、または当該膜の上部を形成面の凹凸を均一にする。また、剥離工程の後にベーク工程が追加されることで加工される当該膜の上に残留する不純物(有機溶剤、または水分など)の除去、または当該膜をベークすることで膜中に含まれる元素の反応を促すことで膜質を変えることができる。なお、当該膜をベークすることで、膜の密度が高くなり、膜質を固くすることができる。
【0062】
図3Bは、図3Aと異なる工程が追加されることで、成膜工程で成膜された膜は異なる特性を有する。よって、工程リストは、工程リストによって生成されたトランジスタの電気特性に影響を与える。
【0063】
図3Cは、工程リストを学習データとして学習する学習モデル210を説明する図である。学習モデル210は、ニューラルネットワーク211とニューラルネットワーク212を有する。
【0064】
ニューラルネットワーク211には、工程リストに従い工程項目が工程順に与えられる。工程項目は、図2Dで示すように、工程及び工程で使用する装置名が一つのコードで与えられる。それぞれのコードには、使用する装置に設定する複数の条件が与えられる。それぞれの条件は、数字または数字に単位が付与された形で与えられる。なお、ニューラルネットワーク211には、複数の工程項目が工程順に記載されたファイルが与えられてもよい。
【0065】
一例として、ニューラルネットワーク211は、Word2Vec(W2V)を用いて工程項目をベクトル化することが好ましい。なお、テキストデータをベクトル化するには、Word2VecGloVe(Global Vectors for Word Representation)、Bag-of-wordsなどを用いることができる。テキストデータをベクトル化するとは、分散表現に変換すると言い換えることができる。また、分散表現は、埋め込み表現(特徴ベクトルまたは埋め込みベクトル)と言い換えることができる。
【0066】
本発明の一態様では、工程項目の条件は、文ではなく、単語の集合として扱う。よって、工程リストは、単語の集合として扱うことが好ましい。一例として、ニューラルネットワーク211は、入力層211a、隠れ層211b、および隠れ層211cを有する。ニューラルネットワーク211は、工程リストから生成する特徴ベクトルを出力する。なお当該特徴ベクトルは、複数を出力することができる、もしくは、一つに集約してもよい。以降では、ニューラルネットワーク211が特徴ベクトルを複数出力する場合について説明をする。なお、隠れ層は、1層または複数の隠れ層を有することができる。
【0067】
次に、ニューラルネットワーク212は、ニューラルネットワーク211によって生成された複数の特徴ベクトルが与えられる。ニューラルネットワーク212は、DAN(Deep Averageing Network)を用いることが好ましい。一例として、ニューラルネットワーク212は、AGGREGATE層212a、全結合層212b、および全結合層212cを有する。AGGREGATE層212aは、ニューラルネットワーク211が出力する複数の特徴ベクトルをまとめて扱うことができる。
【0068】
全結合層212b、および全結合層212cは、活性化関数としてシグモイド関数、ステップ関数、またはランプ関数(Rectifield Linear Unit)などを有することが好ましい。活性化関数が非線形な関数は、複雑な学習データを特徴ベクトル化するのに有効である。したがって、ニューラルネットワーク212は、工程リストを構成する工程項目の特徴ベクトルを平均化して一つの特徴ベクトルに集約することができる。集約された特徴ベクトルは、学習モデル230に与えられる。なお、全結合層は、1層または複数の場合がある。
【0069】
図4Aまたは図4Bは、学習モデル210が学習に用いた工程リストによって生成されたトランジスタの電気特性を説明する図である。図4Cは、トランジスタの電気特性を学習するニューラルネットワークを説明する図である。
【0070】
図4Aは、トランジスタの飽和特性を評価するために用いるId-Vds特性を示す図である。Id-Vds特性は、トランジスタのゲート端子、ドレイン端子、およびソース端子に電圧を与えた時のドレイン端子に流れる電流を示す。つまり、Id-Vds特性とは、トランジスタのドレイン端子に異なる電圧を与えた時のドレイン電流の値Idである。トランジスタのゲート端子に固定電位を与えた場合、図4Aでは、トランジスタのドレイン端子に電位A1乃至電位A10を与えた時のドレイン電流Idをプロットした図である。
【0071】
図4Bは、トランジスタの線形特性を評価するために用いるId-Vgs特性を示す図である。Id-Vgs特性は、トランジスタのゲート端子、ドレイン端子、およびソース端子に電圧を与えた時のドレイン端子に流れる電流を示す。つまり、Id-Vgs特性とは、トランジスタのゲート端子に異なる電圧を与えた時のドレイン電流の値Idである。トランジスタのドレイン端子に固定電位を与えた場合、図4Bでは、トランジスタのゲート端子に電位A1乃至電位A10を与えた時のドレイン電流Idをプロットした図である。
【0072】
図4Cは、図4Aまたは図4Bのデータを用いてトランジスタの電気特性を学習するニューラルネットワーク221を説明する図である。一例として、ニューラルネットワーク221は、入力層にトランジスタのドレイン端子に与える電圧Vd、トランジスタのゲート端子に与える電圧Vg、及びトランジスタのソース端子に与える電圧Vsが与えられる。さらに、上述した条件の場合、トランジスタのドレイン端子に流れる電流Idが与えられてもよい。
【0073】
一例として、ニューラルネットワーク221は、入力層がニューロンX1乃至X4を有し、隠れ層がニューロンY1乃至Y10を有し、出力層がニューロンZ1を有する。ニューロンZ1は、電気特性を特徴ベクトル化し、活性化関数222は、予測値を出力する。隠れ層が有するニューロンの数は、学習データとして与えるプロット数と等しいことが好ましい。もしくは、隠れ層が有するニューロンの数は、学習データとして与えるプロット数よりも多いことがより好ましい。隠れ層が有するニューロンの数が、学習データとして与えるプロット数よりも多い場合、学習モデル220は、トランジスタの電気特性を詳細に学習する。なお、ニューロンZ1は、活性化関数222の機能を有する。
【0074】
一例として、ニューラルネットワーク221がトランジスタの電気特性を学習する方法について説明する。まず、ニューロンX1には、トランジスタのドレイン端子に与える電圧Vdが与えられ、ニューロンX2には、トランジスタのゲート端子に与える電圧Vgが与えられ、ニューロンX3には、トランジスタのソース端子に与える電圧Vsが与えられ、ニューロンX4には、トランジスタのドレイン端子に流れるドレイン電流Idが与えられる。この時、ドレイン電流Idは、教師データとして与えられる。ニューロンZ1の出力もしくは活性化関数222の出力がドレイン電流Idと近づくように隠れ層の重み係数が更新される。なお学習データとしてドレイン電流Idが与えられない場合は、ニューロンZ1の出力もしくは活性化関数222の出力がドレイン電流Idと近づくように学習する。
【0075】
なお、図4Cでは、トランジスタの電気特性が、プロット点に応じて順次与えられる例について説明したが、すべてのプロット点を同時にニューラルネットワーク221に与えてもよい。ニューラルネットワーク221は、演算を高速に処理できるようになるため、半導体素子の開発期間の短縮に効果を有する。
【0076】
また、学習モデル220は、学習モデル210と並列に学習をすることが好ましい。学習モデル210に与えられる工程リストは、学習モデル220に与えられる電気特性と関連性が高い。したがって、トランジスタの電気特性を予測するための学習には、学習モデル220と学習モデル210とを並列に学習をすることが効果的である。
【0077】
次に、特性予測部120について説明する。特性予測部120は、図1を援用して説明する。特性予測部120は、学習モデル230を有する。学習モデル230は、結合層231、全結合層232、及び全結合層233を有するニューラルネットワークである。なお、全結合層は、1層または複数の場合がある。結合層231は、異なる学習モデル(学習モデル210、学習モデル220)が出力する特徴ベクトルを結合し、結合した特徴ベクトルをさらに一つの特徴ベクトルにする。つまり、結合層231を設けることで特性予測部120は、マルチモーダルインターフェースを備えたニューラルネットワークとして機能する。
【0078】
全結合層233は、出力端子OUT_1乃至出力端子OUT_wに電気特性の予測値を出力する。なお、本発明の一態様では、出力である電気特性の予測値は上述した式(1)または(2)の電界効果移動度μFE、ゲート絶縁膜の単位面積容量Cox、チャネル長L、チャネル幅W、または閾値電圧Vthなどが対応する。さらに、ドレイン電圧Vdまたはゲート電圧Vgなどを出力することが好ましい。なお、トランジスタの電気特性から算出した各変数の値を教師データとして結合層231に与えてもよい。学習モデル230は、教師データが与えられることで重み係数が更新される。
【0079】
図5は、図1とは異なる半導体素子の電気特性予測方法について説明する図である。図5は、特徴量算出部110Aを有する。特徴量抽出部110Aは、学習モデル240を有する点が、図1に示す特徴量算出部110と異なっている。学習モデル240は、画像データを学習するニューラルネットワークである。なお学習モデル240が学習する画像データは、工程リストによって形成されるトランジスタの断面模式図または走査型電子顕微鏡(SEM)を用いて観察した断面観察像などである。
【0080】
また、特性予測部120が有する結合層231Aは、工程リストから生成した特徴ベクトル、工程リストによって生成されるトランジスタの電気特性から生成した特徴ベクトル、および断面模式図または実際の出来上がり断面観察像から生成した特徴ベクトルを結合し、全結合層232に与える出力データを生成する。
【0081】
図6Aは、学習モデル240を詳細に説明する図である。学習モデル240は、畳み込みニューラルネットワーク241および全結合層242を有する。畳み込みニューラルネットワーク241は、畳み込み層241a乃至畳み込み層241eを有する。畳み込み層の数は限定されず、1以上の整数であればよい。なお、図6Aは、一例として5層の畳み込み層を有する場合を示している。全結合層242は、全結合層242a乃至全結合層242cを有する。よって、学習モデル240は、CNN(Convolutional Neural Network)と呼ぶことができる。
【0082】
特徴量算出部110Aが、学習モデル240を有することで、異なる3つの特徴ベクトルを用いた半導体素子の電気特性の予測が容易になる。学習させる画像データの一例として、図6Bは、学習モデル210に与える工程リストによって生成されるトランジスタの断面模式図を示す。また、図6Cは、学習モデル210に与える工程リストによって生成されるトランジスタの断面観察像を示す。なお、トランジスタの断面模式図を学習する学習モデル240は、トランジスタの断面観察像を学習する学習モデルは異なる学習モデルを用いてもよい。
【0083】
一例として、図6Bでは、半導体層、ゲート酸化膜、およびゲート電極を示し、また、図6Cでは、図6Cに対応する半導体層、ゲート酸化膜、およびゲート電極を示している。断面観察像では、トランジスタのゲート酸化膜などが薄膜のため認識するのが難しい場合がある。しかし、断面模式図では、誤検出してしまうような薄膜も認識できるように記載されている場合がある。したがって、断面模式図を学習することで、断面観察像をより正しく学習することができる。よって、工程リストは、トランジスタの電気特性および実際の断面観察像との関連性が向上する。よって半導体素子の電気特性の予測が容易になる。
【0084】
図6B及び図6Cには、半導体層に金属酸化物を有するトランジスタの例を示した。ただし、本発明の一態様である半導体素子の電気特性予測方法は、半導体層に、シリコンを含むトランジスタにも適用することができる。もしくは、化合物半導体または酸化物半導体を含むトランジスタにも適用することができる。なお、当該半導体素子は、トランジスタに限定はされない。本発明の一態様である半導体素子の電気特性予測方法は、抵抗、容量、ダイオード、サーミスタ、ジャイロセンサ、加速度センサ、発光素子、または受光素子などにも適用することができる。
【0085】
図7は、図1とは異なる半導体素子の電気特性予測方法について説明する図である。図7では、特徴量算出部110Bを有する。特徴量算出部110Bは、学習モデル210の出力が、ニューラルネットワーク221の重み係数を更新する点が異なっている。ニューラルネットワーク221の重み係数に工程リストの特徴ベクトルを反映させることで、ニューラルネットワーク221は、トランジスタの電気特性の予測が向上する。
【0086】
図7では、半導体素子の電気特性予測方法を用いたトランジスタの電気特性の予測方法を説明する。なお、トランジスタの電気特性の予測をする場合は、学習モデル210、学習モデル220、および学習モデル230が学習済であることが好ましい。まず、ニューラルネットワーク211には、推論データ1として新しい構成の工程リストを与える。また、ニューラルネットワーク221には、推論データ2としてトランジスタのドレイン端子に与えるドレイン電圧、トランジスタのゲート端子に与えるゲート電圧、トランジスタのソース端子に与えるソース電圧などを与える。
【0087】
特性予測部120は、推論データ1によって生成される特徴ベクトルと、推論データ2によって生成される特徴ベクトルと、を用いて、上述した式(1)または(2)の各変数の値を予測する。また、活性化関数222は、推論データ2によって推論結果1を出力することができる。推論結果1は、トランジスタのドレイン端子に与えるドレイン電圧、トランジスタのゲート端子に与えるゲート電圧、トランジスタのソース端子に与えるソース電圧などによって予測されるドレイン電流Idを予測することができる。
【0088】
図8は、図5とは異なる半導体素子の電気特性予測方法について説明する図である。図8は、特徴量算出部110Cを有する。特徴量算出部110Cは、学習モデル210の出力がニューラルネットワーク221の重み係数を更新する点が、図5に示す特徴量算出部110Aと異なっている。
【0089】
図8では、半導体素子の電気特性予測方法を用いたトランジスタの電気特性の予測方法を説明する。なお、トランジスタの電気特性の予測をする場合は、学習モデル210、学習モデル220、学習モデル230、および学習モデル240が学習済であることが好ましい。まず、ニューラルネットワーク211には、推論データ1として新しい構成の工程リストを与える。また、ニューラルネットワーク221には、推論データ2としてトランジスタのドレイン端子に与えるドレイン電圧、トランジスタのゲート端子に与えるゲート電圧、トランジスタのソース端子に与えるソース電圧などを与える。また、ニューラルネットワーク241には、推論データ3として新しい構成の断面模式図または断面観察像を与える。
【0090】
特性予測部120は、推論データ1によって生成される特徴ベクトル、推論データ2によって生成される特徴ベクトル、および推論データ3によって生成される特徴ベクトルを用いて、上述した式(1)または(2)の各変数の値を予測する。また、活性化関数222は、推論データ2によって推論結果1を出力することができる。推論結果1は、トランジスタのドレイン端子に与えるドレイン電圧、トランジスタのゲート端子に与えるゲート電圧、トランジスタのソース端子に与えるソース電圧などによって予測されるドレイン電流Idを予測することができる。
【0091】
図7または図8の全結合層233は、出力端子OUT_1乃至出力端子OUT_wに電気特性の予測値を出力する。一例として、本発明の一態様では、上述した式(1)または(2)の電界効果移動度μFE、ゲート絶縁膜の単位面積容量Cox、チャネル長L、チャネル幅W、または閾値電圧Vthなどが対応する。
【0092】
図9は、プログラムを動作させるコンピュータを説明する図である。コンピュータ10は、ネットワーク(Network)を介してデータベース21、リモートコンピュータ22、またはリモートコンピュータ23を接続する。コンピュータ10は、演算装置11、メモリ12、入出力インターフェース13、通信デバイス14、およびストレージ15を有する。コンピュータ10は、入出力インターフェース13を介して、表示装置16a、およびキーボード16bと電気的に接続される。また、コンピュータ10は、通信デバイス14を介してネットワークインターフェース17と電気的に接続され、ネットワークインターフェース17はネットワークを介してデータベース21、リモートコンピュータ22、リモートコンピュータ23と電気的に接続される。
【0093】
ここで、ネットワークには、ローカルエリアネットワーク(LAN)や、インターネットが含まれる。また、上記ネットワークは、有線、および無線のいずれか一方、または両方による通信を用いることができる。また、上記ネットワークにおいて無線通信を用いる場合、Wi-Fi(登録商標)、Bluetooth(登録商標)などの近距離通信手段の他に、第3世代移動通信システム(3G)に準拠した通信手段、LTE(3.9Gと呼ぶ場合もある)に準拠した通信手段、第4世代移動通信システム(4G)に準拠した通信手段、または第5世代移動通信システム(5G)に準拠した通信手段などの様々な通信手段を用いることができる。
【0094】
本発明の一態様である半導体素子の電気特性予測方法はコンピュータ10を利用して半導体素子の電気特性を予測する。コンピュータ10が有するプログラムは、メモリ12、またはストレージ15に保存されている。プログラムは、演算装置11を用いて、学習モデルを生成する。プログラムは、入出力インターフェース13を介して表示装置に表示することができる。ユーザは、表示装置16aに表示されたプログラムに対して、キーボードから工程リスト、電気特性、断面模式図、または断面観察像などの学習用データをプログラムに与えることができる。表示装置16aは、半導体素子の電気特性予測方法によって予測される半導体素子の電気特性を、数字、数式、またはグラフに変換して表示する。
【0095】
なお、当該プログラムは、ネットワークを介してリモートコンピュータ22、またはリモートコンピュータ23でも利用することができる。または、データベース21、リモートコンピュータ22、またはリモートコンピュータ23が有するメモリまたはストレージに保存されたプログラムを利用して、コンピュータ10で動作させることができる。リモートコンピュータ22は、携帯情報端末、またはタブレットコンピュータ、ノート型コンピュータなどの携帯端末でもよい。携帯情報端末、または携帯端末などの場合は、無線通信を用いて通信することができる。
【0096】
よって、本発明の一態様は、コンピュータを利用した半導体素子の電気特性予測方法を提供することができる。半導体素子の電気特性予測方法は、学習データとして工程リスト、工程リストによって生成された半導体素子の電気特性、または工程リストによって生成された半導体素子の断面模式図または断面観察像を与えることでマルチモーダルな学習をすることができる。また、半導体素子の電気特性予測方法は、推論データとして新たな工程リスト、半導体素子に与える電圧条件、断面模式図、または断面観察像を与えることで半導体素子の電気特性または電気特性を表す式の変数の値を予測することができる。一例として、工程リストに新たな工程を追加した場合、トランジスタの電気的特性を容易に予測することができる。したがって、本発明の一態様である半導体素子の電気特性予測方法は、半導体素子の開発における確認用の実験を少なくすることができ、且つ、過去の実験の情報を有効に活用することができる。
【0097】
本実施の形態は、その一部を適宜組み合わせて実施することができる。
【符号の説明】
【0098】
OUT_w:出力端子、OUT_1:出力端子、10:コンピュータ、11:演算装置、12:メモリ、13:入出力インターフェース、14:通信デバイス、15:ストレージ、16a:表示装置、16b:キーボード、17:ネットワークインターフェース、21:データベース、22:リモートコンピュータ、23:リモートコンピュータ、110:特徴量算出部、110A:特徴量算出部、110B:特徴量算出部、110C:特徴量算出部、120:特性予測部、210:学習モデル、211:ニューラルネットワーク、211a:入力層、211b:隠れ層、211c:隠れ層、212:ニューラルネットワーク、212a:AGGREGATE層、212b:全結合層、212c:全結合層、220:学習モデル、221:ニューラルネットワーク、230:学習モデル、231:結合層、231A:結合層、232:全結合層、233:全結合層、240:学習モデル、241:ニューラルネットワーク、241a:畳み込み層、241e:畳み込み層、242:全結合層、242a:全結合層、242c:全結合層
図1
図2A
図2B
図2C
図2D
図3A
図3B
図3C
図4A
図4B
図4C
図5
図6A
図6B
図6C
図7
図8
図9