(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-27
(45)【発行日】2024-12-05
(54)【発明の名称】機械学習を用いた半導体製造データ取得機器における拡張された分解能
(51)【国際特許分類】
H01L 21/02 20060101AFI20241128BHJP
G06N 3/04 20230101ALI20241128BHJP
G06N 3/08 20230101ALI20241128BHJP
H01L 21/3065 20060101ALI20241128BHJP
【FI】
H01L21/02 Z
G06N3/04
G06N3/08
H01L21/302 103
(21)【出願番号】P 2021555451
(86)(22)【出願日】2020-03-13
(86)【国際出願番号】 US2020022746
(87)【国際公開番号】W WO2020190766
(87)【国際公開日】2020-09-24
【審査請求日】2023-02-24
(32)【優先日】2019-03-15
(33)【優先権主張国・地域又は機関】US
(73)【特許権者】
【識別番号】000219967
【氏名又は名称】東京エレクトロン株式会社
(74)【代理人】
【識別番号】110004381
【氏名又は名称】弁理士法人ITOH
(74)【代理人】
【識別番号】100107766
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】チェン,ヤン
(72)【発明者】
【氏名】ティアン,シンカン
(72)【発明者】
【氏名】ヤン,ツェン
【審査官】正山 旭
(56)【参考文献】
【文献】特表2006-504092(JP,A)
【文献】米国特許第07149262(US,B1)
【文献】米国特許出願公開第2010/0017351(US,A1)
【文献】米国特許出願公開第2020/0090304(US,A1)
【文献】特開2018-091836(JP,A)
【文献】国際公開第2019/043525(WO,A1)
【文献】HAN DONGYOON et al.,Deep Pyramidal Residual Networks,2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2017年07月21日,pages 6307 - 6315,DOI: 10.1109/CVPR.2017.668
【文献】Wang Yifan et al.,A Fully Progressive Approach to Single-Image Super-Resolution.,2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW),米国,IEEE,2018年06月18日,DOI: 10.1109/CVPRW.2018.00131
(58)【調査した分野】(Int.Cl.,DB名)
H01L 21/02
G06N 3/04
G06N 3/08
H01L 21/3065
(57)【特許請求の範囲】
【請求項1】
装置であって、
半導体製造プロセスの状態を観測し、これに従ってデータセットを生成するデータ取得機器であって、前記データ取得機器は、前記データセットとして電磁スペクトルデータを生成する分光計である、データ取得機器と、
メモリ回路であって、
前記半導体製造プロセスの状態又は製造される半導体構造を示す前記データセットであって、前記データセット内の特徴は、データ分解能によって制限される範囲まで識別可能である、データセット、
モデル訓練プロセスによって制約されるように割り当てられたそれぞれの値を有するパラメータを含み、ピラミッド状残差畳み込みニューラルネットワークである、機械学習モデル、及び
前記データ分解能よりも高い訓練分解能により制限される範囲まで識別可能である特徴を含む訓練データセット
を記憶する、メモリ回路と、
前記メモリ回路に通信可能に連結されたプロセッサ回路であって、前記機械学習モデルに従って前記データセットから出力データセットを生成し、前記出力データセット内の特徴は、前記データセットの前記データ分解能よりも微細な出力データ分解能によって制限される範囲まで識別可能である、プロセッサ回路と、
を有し、
前記分光計は、入口スリット及び格子を含み、
前記訓練データセットは、前記分光計から取得された低分解能の訓練データ及び高分解能の訓練データを有し、前記格子は、前記高分解能の訓練データが取得される際よりも、前記低分解能の訓練データが取得される際に、前記入口スリットにより近接して配置される、装置。
【請求項2】
各機能ブロックは、前記パラメータのうちの対応するパラメータを前記データセットに基づく特徴マップと共に畳み込む、複数の畳み込み層を含む、請求項1に記載の装置。
【請求項3】
各機能ブロックは、活性化関数に従って、畳み込まれた特徴マップの通過を前記機能ブロック内の後続層に制限する、複数の活性化層を含む、請求項2に記載の装置。
【請求項4】
前記活性化関数は、正規化線形ユニット活性化関数である、請求項3に記載の装置。
【請求項5】
前記プロセッサ回路は、前記出力データセットに基づいて前記半導体製造プロセスが制御されるプロセスコントローラを実施する、請求項1に記載の装置。
【請求項6】
前記訓練データセットは、前記分光計から取得されたスペクトルデータを有する、請求項1に記載の装置。
【請求項7】
装置であって、
半導体製造プロセスの状態を観測し、これに従ってデータセットを生成するデータ取得機器であって、前記データ取得機器は、前記データセットとして電磁スペクトルデータを生成する、粗い分光計と詳細な分光計とを有する、データ取得機器と、
メモリ回路であって、
前記半導体製造プロセスの状態又は製造される半導体構造を示す前記データセットであって、前記データセット内の特徴は、データ分解能によって制限される範囲まで識別可能である、データセット、
モデル訓練プロセスによって制約されるように割り当てられたそれぞれの値を有するパラメータを含み、ピラミッド状残差畳み込みニューラルネットワークである、機械学習モデル、及び
前記データ分解能よりも高い訓練分解能により制限される範囲まで識別可能である特徴を含む訓練データセットであって、前記分光計から取得された前記電磁スペクトルデータを含む、訓練データセット
を記憶する、メモリ回路と、
前記メモリ回路に通信可能に連結されたプロセッサ回路であって、前記機械学習モデルに従って前記データセットから出力データセットを生成し、前記出力データセット内の特徴は、前記データセットの前記データ分解能よりも微細な出力データ分解能によって制限される範囲まで識別可能である、プロセッサ回路と、
を有し、
前記粗い分光計は、粗いスリットを含み、前記詳細な分光計は、前記粗いスリットの対応する開口よりも小さな開口を含む詳細なスリットを有し、前記訓練データセットは、前記粗い分光計により生成された低分解能の訓練データ及び前記詳細な分光計により生成された高分解能の訓練データを有する、装置。
【請求項8】
半導体製造用の材料を処理するシステムであって、
材料が含まれるチャンバであって、前記処理がモニタリングされるポートを含む、チャンバと、
前記チャンバの前記ポートに通信可能に連結され、前記処理の状態を示すデータセットを生成するデータ取得機器であって、前記データセット内の特徴は、前記データ取得機器のデータ分解能によって制限される範囲まで識別可能であり、前記データ取得機器は、前記データセットとして電磁スペクトルデータを生成する分光計である、データ取得機器と、
前記データ取得機器に通信可能に連結されたプロセッサ回路であって、機械学習モデルに従って前記データセットから出力データセットを生成し、前記出力データセット内の特徴は、前記データセットの前記データ分解能よりも微細な出力データ分解能によって制限される範囲まで識別可能であり、前記機械学習モデルは、ピラミッド状残差畳み込みニューラルネットワークであり、モデル訓練プロセスによって制約されるように割り当てられたそれぞれの値を有するパラメータを含む、プロセッサ回路と、
を有し、
前記プロセッサ回路は、前記データ分解能よりも高い訓練分解能により制限される範囲まで識別可能である特徴を含む訓練データセットであって、前記分光計から取得された前記電磁スペクトルデータを含む、訓練データセットを有し、
前記分光計は、入口スリット及び格子を含み、
前記訓練データセットは、前記分光計から取得された低分解能の訓練データ及び高分解能の訓練データを有し、前記格子は、前記高分解能の訓練データが取得される際よりも、前記低分解能の訓練データが取得される際に、前記入口スリットにより近接して配置される、システム。
【請求項9】
前記分光計は、前記チャンバの前記ポートに光学的に連結され、他の前記データセットは、前記分光計によって生成されるよりも微細な分解能を有する高分解能スペクトルであり、前記分光計は、前記機械学習モデルによって前記スペクトルを処理することを経て減少しない帯域幅及び光学スループットにより特徴付けられる物理設計を有する、請求項8に記載のシステム。
【請求項10】
前記分光計は、前記帯域幅及び前記光学スループットを定義する前記入口スリット及び検出器アレイを含む、請求項9に記載のシステム。
【請求項11】
前記訓練データセットは、前記入口スリットと前記検出器アレイの間の距離を変化させた状態で取得された前記スペクトルデータを有する、
請求項10に記載のシステム。
【請求項12】
前記プロセッサ回路は、前記出力データセットに基づいて前記処理が制御されるプロセスコントローラを実施する、請求項8に記載のシステム。
【請求項13】
前記プロセスコントローラは、前記出力データセットを分析して、前記処理の前記状態を判断し、強制的に異なる状態にするように前記処理を修正する制御信号を生成する、請求項12に記載のシステム。
【発明の詳細な説明】
【技術分野】
【0001】
関連出願の相互参照
本出願は、2019年3月15日に出願された「Deep-learning Enhanced Spectrometer Resolution Techniques」と題する米国仮特許出願第62/819,115号からの米国特許法第119条(e)に基づく優先権の利益を主張するものであり、この仮特許出願の開示全体が参照により本明細書に組み込まれる。
【0002】
本開示は、半導体処理プロセス又は半導体基板上に形成される特徴をモニタリングするために使用される画像及びスペクトルデータについての撮像及びスペクトル分解能改善のための技術に関する。特に、本開示は、低分解能画像又はスペクトルデータを訓練済み人工ニューラルネットワークに適用して、高分解能画像又はスペクトルデータを生成するための新規な技術を提供する。
【背景技術】
【0003】
広帯域コンパクト分光計は、終点検出などの様々なプロセス制御目的で光学発光スペクトルを収集するために、半導体プラズマエッチングプロセスにおいて広く用いられている。分光計システムの信号対雑音比(SNR)は、制御信号が生成される情報の品質を定義する。SNRは、通常、分光計のスループットに高度に比例する。典型的には、分光計の性能は、スペクトル帯域幅、即ち検出可能な波長範囲と、スペクトル分解能、即ち分解可能な最も高精細のスペクトル特徴と、光学スループット、即ち検出器によって収集される光の割合と、を含む少数の臨界パラメータによって定量化される。
【0004】
より高分解能の分光計は、典型的には、高分解能の結果を取得するためにスループット及びスペクトル(波長)範囲を犠牲にすることになる。同様に、より高いスループット及びより広いスペクトル範囲のために設計された分光計は、典型的には、より低い解像度を有することになる。特に、機器のコストが制限のある設計因子である場合に、低分解能分光計のスループット及びスペクトル範囲を維持しつつ、スペクトルデータ内のより微細な細部を分解する能力は、現在最も高分解能の分光計において利用可能ではない。今日利用可能な多くの分光計設計は、設計に重要なパラメータ間のトレードオフを含む。スペクトル分解能を改善する単純且つ効果的な方法は、分光計入口としてより狭いスリットを使用することであり、分光計入口は、電荷結合素子(CCD)検出器上で回折スペクトルの各波長の「画像」を有効に狭めるが、それは、スリットを通過する光が減少すること及び対応する情報を犠牲にして生じる。物理的な分光計設計のみによって、分解能とスループットとの間のトレードオフを克服するのは非常に困難である。
【発明の概要】
【発明が解決しようとする課題】
【0005】
本開示の1つの目的は、従来の分光計に関連する物理設計パラメータとの上述したトレードオフを緩和することである。
【0006】
本開示の別の目的は、低分解能分光計の使用によってスペクトルデータを収集することを可能にすること、及びスループット又はスペクトル範囲を犠牲にすることなくスペクトルデータ又は画像内のより微細な細部を分解可能にすることである。
【課題を解決するための手段】
【0007】
本発明の概念の一態様において、半導体製造プロセスの状態又はそれによって製造される半導体構造を示すデータセットを記憶するメモリ回路を含む、装置が提供される。データセット内の特徴は、データ分解能によって制限される範囲まで識別可能である。メモリ回路は、モデル訓練プロセスによって制約されるように割り当てられたそれぞれの値を有するパラメータを含む機械学習モデルも記憶する。プロセッサ回路は、メモリ回路に通信可能に連結され、出力データセット内の特徴がデータセットのデータ分解能よりも微細な出力データ分解能によって制限される範囲まで識別可能であるように、機械学習モデルに従ってデータセットから出力データセットを生成する。
【図面の簡単な説明】
【0008】
【
図1】本発明の概念が具現化され得る例としてのシステムの概略ブロック図である。
【
図2】本発明が具現化され得る人工ニューラルネットワーク(ANN)の概略図である。
【
図3】本発明が具現化され得る例としての分光計の概略図である。
【
図4】本発明の実施形態においてデータをシミュレートするための分光計入口スリット及びその画像420の概略図である。
【
図5】本発明の実施形態において用いられる低分解能分光計のアンダーフィル及びオーバーフィル実施態様のための低分解能スペクトルデータのグラフである。
【
図6】本発明の実施形態において用いられる高分解能分光計のアンダーフィル及びオーバーフィル実施態様のための高分解能スペクトルデータのグラフである。
【
図7】本発明が具現化され得る例示的訓練プロセスを示すフロー図である。
【
図8】本発明が具現化され得る例示的生成プロセスを示すフロー図である。
【発明を実施するための形態】
【0009】
本発明の概念は、添付図面を参照して本明細書で詳細に説明される、本発明のある実施形態を通して最もよく説明される。添付図面において、類似の参照番号は、全体を通して類似の特徴を参照する。発明という用語は、本明細書で使用されるとき、単に実施形態それ自体ではなく、以下で説明される実施形態の基礎となる発明的概念を内包することを意図するものであると理解されたい。汎用的な発明的概念は、以下で説明される例示的実施形態に限定されず、以下の説明はそのような見解で読まれるべきであるとさらに理解されたい。
【0010】
例示的という単語は、本明細書において「実施例、事例、又は例示としての役割をすること」を意味するために使用される。本明細書において例示と呼ばれる構造、プロセス、設計、技術などのいかなる実施形態も、他のそのような実施形態よりも必ずしも好適又は有利であると解釈されるべきではない。本明細書において例示として示される実施例の特定の品質又は適合性が、意図されることも推測されるべきでもない。
【0011】
加えて、本明細書には数式が含まれており、伝達される原理は数式を用いて完全に説明されると受け取られるべきである。数学が用いられる場合、それは、説明されている基礎原理の簡潔な説明のためであり、そうでないことが表されない限り他の目的は示唆されておらず、又は推測されるべきではないと理解されたい。本明細書において数学がどのように本発明に関係するかということ、及び数式の基礎となる原理の実施形態が意図される場合に、数学的に表現されている原理の物理的発現を実行するための多数の技術を当業者が認識することは、本開示の全体から明らかである。
【0012】
本開示は、低分解能(LR)分光計又は画像取込デバイスによって収集されるデータから高分解能(HR)データセットを「構築すること」又は生成することに関する。言い換えると、本明細書で開示される技術は、HR分光計が、LR分光計の拡張された波長範囲及び高い光スループットで動作することを可能にする。さらに、より低い分解能画像からより高い分解能画像データを生成するために、類似技術の変形が使用され得る。
【0013】
本明細書で説明される発明は、深層学習技術を、例えば従来の光学分光計設計によって収集される比較的低い分解能スペクトルデータと組み合わせて、半導体プロセス又は半導体基板上の特徴に関連する(例えば、経験的又はシミュレートされた)低分解能及び高分解能データセットのペアを分析することに基づいて構築された予測モデルを用いてより高分解能のデータを取得する。このようにして、既存の比較的高分解能の分光計又は撮像システム及び技術を用いるよりも、低コストのハードウェア及び速いサイクル時間で、半導体プロセス又は基板特徴の高分解能データが取得され得る。例えば、スペクトルの実施形態において、スペクトルデータセットの品質を定義する臨界基準は、帯域幅(即ち、検出可能な波長範囲)、分解能(即ち、分解可能な最も高精細のスペクトル特徴)、及び光学スループット(即ち、検出器によって収集される光の割合)を含む。大抵の事例では、前述した要素は、半導体製造についての予測可能且つ有意義な結果(例えば、パターン、特徴、又はプロセス条件)を最短可能時間で達成するように、分光計の物理設計のトレードオフによって互いに均衡が保たれている。例えば、より高分解能の分光計データセットを得ることは、より高いスループット及び波長範囲を犠牲にして達成される。したがって、それらを犠牲にすることなく、より高分解能のデータを取得することが有利となる。スペクトルの実施形態に加えて、分析されている半導体プロセス又は基板特徴のより高い分解能情報又は特性を解読するために、深層学習技術が、他の低分解能データ(例えば、画像)に適用されてもよい。
【0014】
この有利なケイパビリティを実現するための一手法は、より低分解能のデータセットから高分解能データセットを生成することが可能な機械学習(ML)モデルを構築することである。理想的には、モデル生成された高分解能データが情報を提供することがあり、その情報は、そのような低分解能データがMLモデルによって処理されない限り、低分解能データから容易に識別可能ではない。MLモデルは、畳み込みニューラルネットワーク(CNN)などの人工ニューラルネットワーク(ANN)を訓練するために用いられ得る統計的変換又は関係を判断するために、実験的に又はシミュレーションにより収集される低分解能及び高分解能訓練データを分析することによって準備され得る。例えば、複数の層のCNNは、プロセス又は特徴についての低分解能データを高分解能データに統計的に関係付けるように訓練され得る。低分解能及び高分解能データは、データセット間の統計的関係の堅牢性を改善するために、類似の、又はわずかに異なるプロセス又は特徴に対して収集され得る。このようにして、MLモデルは、高分解能結果を正確に予測するために開発され、モデル化された結果を実際の高分解能データと比較することによって最適化され得る。モデルの正確性及び精度を検証した後、訓練済みネットワークが低分解能データに適用されて、対応する高分解能データ又は半導体プロセス若しくは特徴に関する結果を生成し得る。プロセス又は基板特徴を表す、対応する低分解能及び高分解能データセットを生成するために、2つの分光計が使用され得る。しかしながら、他の実施形態では、低分解能及び高分解能データセットは、実際のプロセス条件を近似するために、測定されたスペクトルのシミュレーションによって生成されてもよい。このようにして、完全にシミュレートされた低データセット及び高データセット、シミュレーション及び実験による訓練ペアの組み合わせ、又はシミュレートされたデータ及び実験データを含む訓練ペアを訓練データセットが含み得るように、シミュレートされたスペクトルデータは、既知の又は観測された現象に基づいてスペクトルの特定の特性をシミュレートするように最適化され得る。
【0015】
図1は、本発明の概念が具現化され得る例としてのシステム100の概略ブロック図である。限定ではなく説明の目的で、システム100は、半導体製造のために構築されるか又は構成されてもよく、製造処理の多くは、チャンバ5に代表的に示される1つ又は複数の密封チャンバにおいて発生する。チャンバ5は、ポート7に代表的に示される1つ又は複数のポートを含んでもよく、ポートによって、分光学、光学撮像、又は当業者に既知の他の技術により含む、チャンバ5の内部で発生するプロセスがモニタリングされ得る。そのような内部プロセスは、材料堆積及びエッチングを含んでもよく、その両方が、プロセス依存構成のものであるプラズマを利用してもよい。チャンバ5内の成分は、例えば分光学によって評価され得る。他のプロセスは、光学又は電子撮像を用いてモニタリングされるか、又は検査されてもよい。本開示を検討して当業者により認識されるように、本発明の概念の実施形態が、分光光学的取得画像及び他の取得された画像に適用可能な技術を実施する。
【0016】
システム100は、データ及びプロセッサ命令コードが記憶されるメモリ回路120と、データ及び制御プロセスが実行されるプロセッサ回路130と、人間のユーザが特にデータ分析及び制御の目的でシステム100とインタフェースするユーザインタフェース回路140と、を含むプロセッサ150を含み得る。
図1に示されるように、メモリ回路120は、データセットをデータ記憶場所122などに、機械学習モデルをモデル記憶場所124などに、及びプロセッサ命令コードをコード記憶場所126などに、記憶するように構築され、又は構成され得る。プロセッサ命令コードは、(MLエンジンが専用回路においてハードウェア実施されていないときに)MLエンジンコードをMLエンジンコード記憶場所127などに、及びプロセス制御コードをプロセスコントローラコード記憶場所129などに、含み得る。プロセッサ回路130は、MLエンジン132及びプロセスコントローラ134に示されるように、メモリ回路120に記憶されたプロセッサ命令コードを実行するように構築され、又は構成され得る。
【0017】
システム100は、データ取得機器105l及び105hにおいてそれぞれ示されるデータ取得機構をさらに含み得る。上記で示されるように、本発明は、多様な異なるデータタイプにおいて分解能を増大させるために具現化されてもよく、低分解能データ110lを生成する低分解能データ取得機器を表す機器105l、及び高分解能データ110hを生成する高分解能データ取得機器を表す機器105hなどの機器は、例えば、画像データ、スペクトルデータなどのアプリケーション固有データを収集するために使用され得る任意の数のデバイスを表す。以下の説明は主にスペクトルデータセットを対象としているが、他のデータは、本発明の実施形態において用いられ得ると理解されたい。
【0018】
実験データ又はシミュレートされたデータは、低分解能データセット110lと高分解能データセット110hとの間の予測可能な関係を確立又は定義するために、様々な条件又は変数の下で収集又は生成され得る。関係は、プロセス条件、特徴タイプ、又は検出技術の間の共通要素に基づき得る。しかしながら、関係は、データセット110lと110hとの間の差異又は異種要素(例えば、デバイス設定/構成(スリットサイズ、視野、開口サイズ))に基づいて割り当てられ得る。事実、データセット110l及び110hは、観測されたプロセス条件又は特徴についての分解能分布を得るために、多様なデバイス設定/構成オプションに沿って収集又は生成され得る。訓練関係は、プロセス条件特性に関連する1つ又は複数の高分解能データセット110hに1つ又は複数の低分解能データセット110lをグループ化し得る。プロセス条件特性は、プロセスに関連する化学組成、温度、密度、及び/又はエネルギー若しくは信号を含み得るが、これらに限定されない。加えて、関係は、温度、圧力、ガス流量、印加電力、印加電圧、回転速度、変換速度、液体分配速度、液体分配量を含み得るが、これらに限定されない、チャンバ5において実施されるプロセス条件(例えば、セットポイント)まで拡張してもよい。さらに、プロセス条件は、それぞれの特性についての分布又はプロファイルとして構成された結果の範囲を含み得る。プロセス条件に加えて、スペクトルデータは、基板上の1つ又は複数の特徴を表してもよい。この事例では、特徴特性は、厚さ、幅、高さ、向き、粗さ、平坦度、角度、カバレッジ、アライメント、及び/又は特徴の幾何プロファイルを含むが、これらに限定されない。加えて、特徴特性は、面積、特徴間の距離、又は互いに対する特徴の向き(例えば、特徴の重なり、露出面積、アライメント)を参照し得る。実験又はシミュレーションによるLR及びHRデータセットが生成される上記適用のいずれかが、本明細書で説明される技術を用いて人工ニューラルネットワークを訓練するために用いられ得る。
【0019】
システム100は、2つの動作モード、機械学習モデルがデータ分解能を増大させるように構成される訓練モード、及びデータ分解能が構成済み(訓練済み)モデルに基づいて増大される生成モードにおいて、動作され得る。生成モードでは、LRデータセット110l(画像、スペクトル)は、LRデータ取得機器105l(イメージャ、分光計)を通して取得され、プロセッサ150に提供される。プロセッサ150は、LRデータセット110lをMLエンジン132に伝達し得る。MLエンジン132は、以下で説明されるように前もって訓練されているMLモデルに従ってデータを処理して、データの分解能を増大させ得る。分解能増大データセットは、ユーザインタフェース140上に提示されてもよく、ユーザインタフェース140上で、それが生成担当者によって分析されてもよい。一実施形態では、分解能増大データセットは、プロセスコントローラ134に提供され、プロセスコントローラ134によって、データは、特定の目標プロセス状態に到達しているかどうかを判断するために分析される。例えば、分解能増大データセットの分析は、プロセス終点を示す、チャンバ5内のあるガス成分を明らかにし得る。そのような終点において、プロセスコントローラ134は、チャンバ5内で発生する全てのプロセスのプロセス遷移又は中断を命令又は指揮し得る。
【0020】
図2は、本発明が具現化され得る人工ニューラルネットワーク(ANN)200の概略図である。本発明は、出力データにおいてデータ分解能を増大させる目標に到達する限り、特定のANN実施態様に限定されない。例示される実施例において、ANN200は、入力畳み込み層210と、残差ブロック220及び230においてそれぞれ示される複数の残差ブロックB
1~B
Kと、出力畳み込み層240と、を含むピラミッド状残差ニューラルネットワークとして構築され、又は構成される。ANN200において、1)内部特徴マップのサイズ又は特徴マップチャネルの数が、ANNの入力から出力へと徐々に増大し、2)勾配消失/爆発問題に対処するアイデンティティマッピングが、最短パスで実現される。
【0021】
図2の例としての実施形態では、本明細書においてLRデータセット205とそれぞれ呼ばれるLRデータセット205a~205mが、入力畳み込み層210に提供され得る。入力畳み込み層210は、他の可能な動作のうち、本明細書において特徴マップ215とそれぞれ呼ばれる、対応する特徴マップ215a~215mに各データセット205をマッピングする。特徴マップ215は、残差ブロック220に提供され得る。残差ブロック220は、ANN200内の全てのK個の残差ブロックで同様に、第1の畳み込み層260a、第1の活性化層265a、第2の畳み込み層260b、及び第2の活性化層265bを含み得る。加えて、各特徴マップ215は、本明細書でショートカットパス217とそれぞれ呼ばれるそれぞれのショートカットパス217a~217nにおいて、本明細書で合計ノード225とそれぞれ呼ばれる合計ノード225a~225nに提供され得る。その結果、各合計ノードの出力は、
X
k+1=X
k+ψ{ψ(X
k*W
k
(1))*W
k
(2)}
によって与えられ得る。ここで、X
kは、k番目の残差ブロックに対する入力であり、X
k+1は、その出力である。ψは、活性化関数(例えば、正規化線形ユニット(ReLU))である。*は、畳み込み演算子であり、W
k
(1)及びW
k
(2)は、k番目のブロックの訓練可能な畳み込みカーネルである。バイアス項は、上記式から省略されていることに留意されるべきである。各畳み込み層によって生成される特徴マップは、
γ
k,j=Σ
iφ
k,i*w
k,i,j+β
k,jΩ
によって与えられ得る。ここで、γ
k,jは、k番目の残差ブロックのj番目の畳み込み層の出力特徴マップである。φ
k,iは、k番目の残差ブロックのi番目の畳み込み層への入力特徴マップである。w
k,i,jは、W
k
(j)のi番目のカーネルであり、β
k,jは、訓練可能なバイアス項であり、Ωは、全ての成分が単位元に設定される特徴マップサイズの行列である。
【0022】
特徴マップ215は、残差ブロック220によって処理され、次の残差ブロック、即ち残差ブロック230に伝達され、次の残差ブロックでも同様に処理される。しかしながら、各残差ブロックは、前の残差ブロックによって生成されたものよりも大きな次元の特徴マップ(及び/又は関連特徴マップチャネル)を生成し得る。例えば、残差ブロック220への入力は、N個のチャネル227a~227nを含んでもよく、残差ブロック220の出力は、P個のチャネル232a~232pを含んでもよく、その場合に、P>Nである。この次元の不一致は、例えば、残差ブロック230をバイパスするショートカット接続、例えばショートカット接続227a~227nをゼロパディングすることによって、克服され得る。
【0023】
データセットがANN200を通して前進し、その次元が徐々に増大するにつれて、さらに微細な特徴が残差ブロック毎に識別されて、元のデータセット205を超える分解能の増大に影響を与え得る。処理された特徴マップは、出力畳み込み層240に進み、出力畳み込み層240において、他の光学処理動作の中でも、本明細書で出力データセット245とそれぞれ呼ばれる出力データセット245a~245mに変換される。ANN200が訓練されている場合、出力データセット245は、データ分析又はプロセス制御などのためにANN外部の機構に提供される。一方、ANN200が訓練中である場合、出力データセット245は、元のLRデータセット205に含まれるデータに対応するように選択されている、本明細書でHR訓練データセット250とそれぞれ呼ばれる高分解能訓練データセット250a~250mと比較される。即ち、たとえ異なる分解能でも、同じ特徴が両方に存在するように、それぞれの元のLRデータセット205は、HR訓練データセット250と合致する。訓練中に、元のLRデータセット205は、ランダムに初期化された関数に従ってHRデータセットに変換される。変換されたHRデータセットは、差分などによって、対応するHR訓練データセットと適当に比較されて、誤差測度が判断される。そのような誤差測度を用いると、上述したWk
(j)及びβk,jなどのANNパラメータは、訓練損失関数などの目的関数を最小化(又は最大化)するように修正される。修正されたパラメータは、逆伝播チャネル257においてそれぞれ示される、ANN300を通して逆伝播され得る。プロセスは、他のHR出力データセットを生成するために、新たなパラメータを用いて繰り返され得る。プロセスは、訓練可能なネットワークパラメータが収束するとき、又は分解能の改善が達成されないときなど、訓練目標に到達するまで反復する。
【0024】
LRデータセット205は、LR分光計データを含んでもよく、HRデータセット250は、HR分光計データを含んでもよい。スペクトルデータ自体に加えて、HR及びLRデータセットは、観測されるプロセス又はスペクトルデータに関連する特徴に関係する情報でラベリングされ得る。そのようなラベリングは、ランダムであるが類似のLRデータセットの入力に基づき予測可能なHR結果を生成することを必要とするモデル最適化のタイプに応じて、HR/LRデータセットの特定の態様を隔離するため、又はHR/LRデータセットのある態様を重ね合わせるために使用され得る。HR/LRデータセットは、HR/LRデータセットの1つ又は複数の組み合わせを含み得る訓練ペア内に照合されてもよく、HR/LR訓練ペア間の関係を識別することに基づいてANN200を訓練するために使用される。高いレベルにおいて、訓練は反復プロセスであり、反復プロセスにおいて、ML技術を用いてデータセット間の統計的関係を最適化する目的で、MLモデルに従って生成されたHRデータがHRデータセットと比較される。
【0025】
別の実施形態では、LRデータセット205は、MLモデルを訓練するために使用され得る画像データを含む。この事例では、LRデータセット205は、LR画像によって表され、HRデータセット250は、HR画像によって表される。2つの画像は、上述の通り低分解能データ取得機器105l及び高分解能データ取得機器105hによって収集された入力データ表し得る。画像データに加えて、データセット間の差異又は類似点を強調するためにラベル情報が用いられ得るように、HR及びLRデータセットは、観測されるプロセス又は画像データに関連する特徴に関係する情報でラベリングされ得る。ラベル情報は、ランダムであるが類似のLRデータセットの入力に基づき予測可能なHR結果を生成することを必要とするモデル最適化のタイプに応じて、HR/LRデータセットの特定の態様を隔離するため、又はHR/LRデータセットのある態様を重ね合わせるために使用され得る。HR/LRデータセットは、HR/LRデータセットの1つ又は複数の組み合わせを含み得る訓練ペア内に照合され、HR/LR訓練ペア間の関係を識別することに基づいて、ML技術を用いてANN200を訓練するために使用され、それによって、MLモデルが、LRデータセット205を用いてHRデータセット245を予測又は生成することを可能にする。
【0026】
上記で提供される訓練例は、本発明の実施形態のANNを訓練するための多くの可能性のうちのほんの1つであると理解されたい。一実施形態では、データ取得機器によって、又はデータ生成器によって生成されたデータセットは、例えば、学習技術を訓練するために用いられる訓練セット、モデルアーキテクチャを評価するために用いられる検証セット、及び訓練に用いられるデータセットだけではなくモデルが適当に汎化されているかどうかを判断するために用いられるテストセットに区画され得る。機械学習の当業者は、その思想及び意図する範囲から逸脱することなく、本発明を実施するための他の機械学習技術と同様に、本明細書で述べられている特定の詳細なしに、そのような区画されたデータセットを使用する方法を認識する。
【0027】
再度
図1に戻ると、システム100は、シミュレートされたデータセットをモデル訓練の目的で生成する、高分解能データ生成器115を含み得る。画像及びスペクトルデータに加えて、シミュレートされたスペクトルモデルデータが、ANN200を訓練するために使用され得る。しかしながら、訓練ペアは、低分解能及び高分解能シミュレーションから導出されてもよく、低分解能及び高分解能シミュレーションは、以下で
図3に示される設計に類似の分光計からのLR及びHR分光計データの推定である。
【0028】
図3は、本発明が具現化され得る例としての分光計300の概略図である。分光計300は、ツェルニー・ターナー設計に従ってもよく、入口スリット310、コリメートミラー320、回折格子330、折り畳みミラー340、及びアレイ検出器350を含む。
図1のチャンバ5において発生する電気化学プロセスで生成されるものを含む光は、入口スリット310を通って分光計300に入り、コリメートミラー320から回折格子330上に反射し、そこで、衝突光がそのスペクトル成分に分解される。これらの成分が、折り畳みミラー340からアレイ検出器350上に反射し、それが、分析中に光のスペクトルコンテンツを示す電気信号を生成する。本質的には、入口スリット310のスペクトル分解された画像が、アレイ検出器350上に生成され、そのような結像は、
図1のHRデータ生成器115によって実施される様々な光学系設計/分析技術を用いてシミュレートされ得る。
【0029】
図4は、入口スリット310及び分光計300の光学系によって生成されるようなその画像420の概略図である。例示される実施形態において、本明細書において結像点412とそれぞれ呼ばれる、入口スリット310上の12個の結像点412a~412lが、結像のために選択される。光学設計/分析技術を通して、結像点412は、いくつかの選択された波長のそれぞれについて画像領域425においてそれぞれ示されるアレイ検出器350上に生成された画像420上に運ばれる。固定サイズのスリットの場合、結像点412の明瞭度は、波長依存回折によって影響を受けることに留意されたい。
【0030】
モデルデータは、スペクトル中で類似の強度を有する300nm~900nmのスペクトルにわたる校正ランプからの光をシミュレートするLR及びHR分光計について生成され得る。実証の目的で、2つの異なる分光計設計がLR及びHR実施態様のためにモデル化されて、訓練ペアの2つのセットを形成する。訓練ペアのLRデータセットは、23umスリット及び1024CCDを用いてモデル化され、2つの追加のLRデータセットは、スリットに対する格子配置を変更することによって生成された。アンダーフィル実施形態は、オーバーフィル実施形態よりも格子がスリットの近くに位置する、分光計設計を表す。このようにして、LR訓練データセットは、より広い範囲のLR分光計設計及び/又はケイパビリティをカバーし、2つの異なるLR設計の間の性能(例えばSNR)の差異を示す。例えば、
図5は、LR分光計設計の間の強度差を示しており、アンダーフィル実施形態は、オーバーフィル実施形態よりも高く、シャープなプロファイルを有する。
【0031】
オーバーフィル及びアンダーフィルLRデータセットは、対応するオーバーフィル及びアンダーフィルHRデータセットとペアにされ得る。例としてのHRデータセットは、アンダーフィルデータセットとオーバーフィルデータセットとの間で格子距離を変更した、10umスリット及び2048x256ピクセルCCDを用いて生成された。
図6は、強度差を強調することによってHR分光計設計間の差異を示している。LRデータセットとは対照的に、オーバーフィルデータセットは、アンダーフィルデータセットと比較してより高い強度信号をもたらした。
【0032】
一旦ANN200が訓練され、検証されると、モデルは、適用可能な低分解能データセットに適用されて、低分解能入力に対応する推定される高分解能データを出力し得る。訓練方法とは対照的に、訓練済みモデルは、高分解能の対応物なしに低分解能データを受信し、データをモデルに適用して、対応する高分解能出力を生成する。低分解能データは、半導体処理プロセス又は半導体基板上の特徴に関する画像又はスペクトルデータを含み得るが、これらに限定されない。
【0033】
半導体空間内で、深層学習技術が、観測されている特徴のサイズに依存して、マクロ適用とマイクロ適用との間に及ぶ画像に適用され得る。マクロ適用では、観測される特徴は、マクロレベルでプロセス動向を観測及びモニタリングするために、基板表面積の全体から比較的大きな表面積領域の間に及び得る。例えば、大きな表面積領域は、基板の周囲に延びる基板ベベル部又はエッジ除外領域(<5mm)を含み得る。同様に、基板の中心に向かって最大20mm延びる、エッジ除外領域に隣接する領域が、基板エッジに近接してプロセス性能をモニタリングするために観測され得る。この領域は、基板の中心に対するプロセス均一性問題について知られている。したがって、基板の中心及びエッジの画像を比較することは、プロセス逸脱を観測若しくは検出するため、又はin-situプロセス不均一性若しくは到来プロセス不均一性を考慮するようにプロセスを調整するために有益である。いくつかの事例では、中心とエッジとの関係は、適用に応じて低モデルから高モデルを訓練するために用いられ得る。マクロ適用では、画像取込デバイスは、分析のためのピクセル化された画像を生成するデジタルシステム又はアナログデジタルシステムであってもよい。一実施形態では、画像取込デバイスは、CCDカメラであってもよい。対照的に、マイクロ適用実施形態は、マクロ適用と比較すると、ダイにまたがる比較的小さな特徴又はダイ内の小さな領域を観測するためのものである。例えば、マイクロ適用画像は、原子層精度でプロセスを制御及びモニタリングするスケールのものであってもよい。トランジスタゲート構造(例えば、FinFET)、トランジスタのコンポーネント(例えば、コンタクト、アイソレーション)、又は配線工程(BEOL)特徴(例えば、金属線ピッチ、ビア)の原子層制御は、必須である。一実施形態では、マイクロ適用画像は、基板のトポロジ情報及び組成情報を提供する電子の集束ビームで基板表面/特徴を走査する走査型電子顕微鏡(SEM)によって生成され得る。代替として、画像は、プラズマ処理を含むがこれに限定されない半導体プロセスをモニタリングするために、光学発光分光法を用いて生成されてもよい。
【0034】
図7は、本発明が具現化され得る例示的訓練プロセス700を示すフロー図である。プロセス700が、LR及びHRデータセットの合致するペアを含むデータの訓練コーパス、例えば、本明細書で説明されるLR及びHR分光計から取得されるスペクトルデータにアクセスすると推測される。訓練コーパスは、訓練ボリューム705a、検証ボリューム705b、及びテストボリューム705cに適当にセグメント化又は区画されてもよい。コーパスを訓練ボリューム、検証ボリューム、及びテストボリュームに区画することは、機械学習分野において既知のそのような技術に従い得る。実際に、プロセス700は、本発明の実施形態において用いられ得る多くのモデル構築/訓練パラダイムのうちの1つをフロー概略形式で表す。以下の説明では、モデルパラダイムは、
図2を参照して上述したものを指す。
図7の動作及びデータフローの順序は、簡潔な説明のためであり、他の動作及びデータフローも、モデル構築/訓練を実施するために用いられ得ると理解されたい。
【0035】
図7に示されるように、訓練ボリューム705aは、元のLRデータセット707aを含んでもよく、元のLRデータセット707aは、低分解能データ取得機器によって取得され得る。動作710において、LRデータセット707aは、ANNに従って処理されて、HR出力データセット715を生成する。動作720において、高分解能データ取得機器によって取得されるか、高分解能データ生成器によってシミュレートされる、HR出力データセット715と訓練データセット709aとの間の差異が判断される。動作725において、目的関数を最大化又は最小化するために、ANNパラメータ(重み、バイアス)が判断される。動作730において、判断されたANNパラメータが、ANNを通して逆伝播される。
【0036】
訓練ボリュームが使い果たされると、プロセス700は、動作735に遷移し得る。それによって、モデルがデータに過剰適合しているか、又は所与の仕様に汎化しているかが判断される。この目的のために、元のLRデータセット707b及びHR検証セット709bを含む検証ボリューム705bは、訓練ボリューム705aを用いて上述したものと類似の方式で訓練済みモデルに適用され得る。今回は、しかしながら、その予測効率ではなく、いわゆるハイパーパラメータを通して表される、モデルのアーキテクチャに集中する。したがって、モデルが十分に汎化されないことが動作735において分かると、その1つ又は複数のハイパーパラメータが、動作740によって修正され得る。例えば、
図2を参照して上述したモデルの残差ブロックが除去されてもよく、又は各残差ブロック内の動作ブロックの順序が改訂されてもよい、などである。当業者は、本発明の実施形態において過剰適合を修正するために適用され得る多くの技術を認識する。
【0037】
動作735において、モデルが十分に汎化していると判断される場合、プロセス700は、動作750に遷移してもよく、それによって、訓練済みモデルによって性能基準が満たされるかどうかが判断される。この目的のために、元のLRデータセット707c及びHRテストセット709cを含むテストボリューム705cは、訓練ボリューム705a及び検証ボリューム705bを用いて上述したものと類似の方式で訓練済みモデルに適用され得る。今回は、しかしながら、正確性、即ちモデルから予測されるHRデータセットが観測の実際の測定によって生成される真のHRデータセットにどのくらい近いか、及び感度、即ちそのように正確に識別される(モデルを通した)HR予測における特徴の比率についての特定の性能基準によって測定される、モデルの性能に対して集中する。そのような基準が満たされる場合、プロセス700は、終了し得る。そうでなければ、プロセス700は、動作740に遷移してもよく、それによって、ANNハイパーパラメータが、再度修正される。プロセス700は、次いで動作710に遷移してもよく、その時点から継続する。
【0038】
図8は、本発明が具現化され得る例示的生成プロセス800を示すフロー図である。生成プロセス800は、システムが生成モードにあるときに実行され得る。動作810において、LRデータセット805は、対応するHR出力データセット815を予測するために用いられ、HR出力データセット815は、上述したANNの出力である。プロセス800は、次いで動作820に遷移してもよく、それによって、プロセス状態は、HR出力データセット815から判断される。動作825において判断されるように、目標プロセス状態が達成された場合、生成プロセス800は終了する。目標プロセス状態が達成されていない場合、プロセス800は、新たに取得されたLRデータを伴って動作810に遷移してもよく、その時点から継続する。
【0039】
一実施形態は、ニューラルネットワークを訓練して、測定された低分解能データから高分解能データを提供するための方法を含む。訓練方法は、半導体プロセス又は処理チャンパ内の半導体基板上の特徴に関するデータセットを有形コンピュータ可読メモリに記憶することを含み得る。データセットは、プロセス又は特徴を表す粗い(低分解能)データセット、及びプロセス又は特徴を表す詳細な(高分解能)データセットを含んでもよく、詳細なデータセットは、粗いデータセットとは異なっている。一実施例では、粗いデータセットと詳細なデータセットとの間の差異は、プロセス又は特徴の少なくとも1つの特性についてのより広い範囲又はより狭い範囲の情報を含む。コンピュータ処理デバイスは、粗いデータセット及び詳細なデータセットのインスタンス間に訓練関係を割り当てるために用いられ、ニューラルネットワーク技術は、訓練関係、及び粗いデータセットと詳細なデータセットとの間の差異に少なくとも一部基づいて、粗いデータセットを詳細なデータセットに相関させるモデルを生成するために用いられる。一実施例では、詳細なデータセットは、少なくとも1つの特性について、粗いデータセットと比較してより高分解能のデータを含む。プロセスの特性は、プロセスの化学組成、プロセスの温度、プロセスの密度、及び/又はプロセスに関連付けられる電気エネルギーであってもよい。プロセスの特性は、化学組成、温度、密度、及び/又は電気エネルギーの分布又はプロファイルを含み得る。特徴の特性は、厚さ、幅、高さ、向き、粗さ、平坦度、角度、カバレッジ、アライメント、及び/又は特徴の幾何プロファイルなどの測定された物理的特徴を含み得る。
【0040】
データセットは、画像、スペクトル表現、又はプロセス若しくは特徴のモジュールシミュレーションを含み得る。一実施形態では、データセットは、画像、スペクトル表現、及び/又は特徴若しくはプロセスのシミュレーションに少なくとも一部基づく。ニューラルネットワーク技術は、畳み込みニューラルネットワーク技術に少なくとも一部基づいてもよく、データセットが、分光計によって生成されてもよい。いくつかの実施形態では、粗いデータセットは、光又はエネルギーが粗い分光計に入ることを可能にする粗いスリットを有する粗い分光計によって生成され、詳細なデータセットは、光又はエネルギーが詳細な分光計に入ることを可能にする詳細なスリットを含む詳細な分光計によって生成される。その場合に、詳細なスリットは、粗いスリットの対応する開口部又は間隙より小さな開口部又は間隙を含む。データセットは、電荷結合デバイスカメラなどの画像取込デバイスによっても生成され得る。代替として、画像取込デバイスは、顕微鏡及びカメラを含み得る。
【0041】
訓練関係の割り当ては、粗いデータセット及び詳細なデータセットの収集の間に存在する共通要素に少なくとも一部基づく。共通要素は、半導体プロセスのプロセス条件又は半導体基板上の特徴の特徴タイプである。プロセス条件は、温度、圧力、化学組成、ガス流量、印加電力、印加電圧、回転速度、変換速度、液体分配速度、液体分配量を含み得る。特徴タイプは、基板内のパターン又は基板上のパターンを含み得る。いくつかの実施例では、特徴タイプは、厚さ、幅、高さ、長さ、向き、粗さ、平坦度、角度、カバレッジ、アライメント、及び/又は特徴の幾何プロファイルを含む。特徴タイプは、特徴の臨界寸法、特徴の表面積、特徴の露出した表面積、特徴間の重なり、特徴間の距離、特徴間の向き、及び/又は特徴間のアライメントも含み得る。方法の訓練関係の割り当ては、プロセス中に収集された又は特徴上の、単一の粗いデータセット及び単一の詳細なデータセットをペアにすることを含み得る。
【0042】
一実施形態は、半導体プロセス又は半導体基板上の特徴に関するデータセットがその間有形コンピュータ可読メモリに記憶されている方法を含む。データセットは、プロセス又は特徴を表している粗い(低分解能)データセットを含み得る。粗いデータセットは、プロセス又は特徴に関する低分解能データセットと高分解能データセットとの間の差異に少なくとも一部基づいて、詳細な分解能モデルに適用される。プロセス又は特徴を表している詳細な(高分解能)データセットは、ニューラルネットワーク技術を用いて生成され、詳細なデータセットは、粗いデータセットとは異なり、その場合に、差異は、プロセス又は特徴の少なくとも1つの特性についてのより多くの量の情報に少なくとも一部基づく。ニューラルネットワーク技術は、畳み込みニューラルネットワーク技術に少なくとも一部基づき得る。詳細なデータセットは、少なくとも1つの特性について、粗いデータセットと比較してより高分解能のデータを含み得る。特性は、プロセスの化学組成、プロセスの温度、プロセスの密度、及び/若しくはプロセスに関連する電気エネルギー、その化学組成、温度、密度、及び/若しくは電気エネルギーの分布、均一性、若しくはプロファイル、厚さ、幅、高さ、向き、粗さ、平坦度、角度、カバレッジ、アライメント、及び/又は特徴の幾何プロファイルを含み得る。
【0043】
データセットは、特徴又はプロセスの画像又はスペクトル表現に少なくとも一部基づき得る、プロセス又は特徴の画像又はスペクトル表現を含み得る。データセットは、分光計によって生成されてもよく、ある実施形態では、粗いデータセットは、光又はエネルギーが粗い分光計に入ることを可能にする粗いスリットを含む粗い分光計によって生成され、詳細なデータセットは、光又はエネルギーが詳細な分光計に入ることを可能にする詳細なスリットを含む詳細な分光計によって生成される。詳細なスリットは、粗いスリットの対応する開口部又は間隙よりも大きな開口部又は間隙を有し得る。
【0044】
データセットは、顕微鏡の有無にかかわらず電荷結合デバイスカメラを含むものなどの画像取込デバイスによっても生成され得る。
【0045】
訓練関係割り当ては、粗いデータセット及び詳細なデータセットの収集中に存在する共通要素に少なくとも一部基づいてもよく、その場合に、共通要素は、半導体プロセスのプロセス条件、半導体基板上の特徴の特徴タイプ、温度、圧力、化学組成、ガス流量、印加電力、印加電圧、回転速度、変換速度、液体分配測度、液体分配量であってもよく、整合プロセスチャンバへ調整値を送信することをさらに含む。
【0046】
特徴タイプは、基板内のパターン、基板上のパターン、厚さ、幅、高さ、長さ、向き、粗さ、平坦度、角度、カバレッジ、アライメント、特徴の幾何プロファイル、特徴の臨界寸法、特徴の表面積、特徴の露出した表面積、特徴間の重なり、特徴間の距離、特徴間の向き、及び/又は特徴間のアライメントであってもよい。
【0047】
メモリ回路120は、任意の量の任意の種類の従来の又は他のメモリ又は記憶デバイスによって実施されてもよく、揮発性(例えば、RAM、キャッシュ、フラッシュなど)又は不揮発性(例えば、ROM、ハードディスク、光学ストレージなど)であってもよく、任意の適当な記憶容量を含んでもよい。システム内のデータ(例えば、画像、スペクトル、モデルパラメータなど)は、メモリ回路120の記憶領域に記憶される。
【0048】
プロセッサ回路130は、例えば、マイクロプロセッサ、マイクロコントローラ、システムオンチップ(SOC)、又は他の固定若しくはプログラマブルロジックなどの、メモリに記憶されたプロセスロジックのための命令を実行する、1つ又は複数のデータ処理デバイスであってもよい。プロセッサは、それ自体がマルチプロセッサであってもよく、複数のCPU、複数のコア、複数のプロセッサを含む複数のダイなどを有してもよい。加えて、プロセッサ回路130は、専用機械学習回路を含んでもよい。ディスプレイレンダリングハードウェアは、プロセッサ回路の一部であってもよく、又は、例えば、別個のグラフィックプロセッサユニット(GPU)であってもよい。
【0049】
ユーザインタフェース回路140は、ユーザに情報を表示することが可能な任意の適当なディスプレイ、スクリーン、又はモニタ、例えば、タブレットのスクリーン又はコンピュータワークステーションに取り付けられたモニタを含んでもよい。ユーザインタフェース回路140は、入力デバイスを含んでもよく、入力デバイスは、任意の適当な入力デバイス、例えば、キーボード、マウス、トラックパッド、タッチ入力タブレット、タッチスクリーン、カメラ、マイクロフォン、リモートコントロール、音声合成機器などを含んでもよい。出力デバイスは、例えば、スピーカ、ヘッドフォン、音声出力ポートなどを含んでもよい。
【0050】
当業者によって理解されるように、本発明の態様は、システム、方法、又はコンピュータプログラム製品として具現化されてもよい。したがって、本発明の態様は、完全なハードウェア実施形態、完全なソフトウェア実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、又は本明細書で「回路」、「モジュール」、若しくは「システム」と全て概して呼ばれ得るソフトウェア及びハードウェア態様を組み合わせる実施形態の形式をとってもよい。さらに、本発明の態様は、その上で具現化されるコンピュータ可読プログラムコードを有する、1つ又は複数のコンピュータ可読媒体において具現化されるコンピュータプログラム製品の形式をとってもよい。
【0051】
1つ又は複数のコンピュータ可読媒体の任意の組み合わせが、利用されてもよい。コンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体であってもよい。コンピュータ可読媒体は、例えば、電子、磁気、光学、電磁気、赤外線、若しくは半導体のシステム、装置、若しくはデバイス、又は前述したものの任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより詳細な実施例(非網羅的リスト)は、1つ若しくは複数の配線を有する電気接続、ポータブルコンピュータディスケット、ハードディスク、ソリッドステートディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM若しくはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光記憶デバイス、磁気記憶デバイス、相変化メモリ記憶デバイス、又は前述したものの任意の適当な組み合わせを含む。本文書の文脈において、コンピュータ可読記憶媒体は、命令実行システム、装置、若しくはデバイスによって、又は命令実行システム、装置、若しくはデバイスに関連して使用するプログラムを含み、又は記憶し得る任意の有形媒体であってもよい。
【0052】
コンピュータ可読信号媒体は、例えば、ベースバンドにおいて、又は搬送波の一部として、そこに具現化されたコンピュータ可読プログラムコードを有する伝搬データ信号を含んでもよい。そのような伝搬信号は、電磁気、光学、又はそれらの任意の適当な組み合わせを含むがこれらに限定されない、多様な形式のいずれかをとってもよい。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体ではなく、命令実行システム、装置、若しくはデバイスによって、又は命令実行システム、装置、若しくはデバイスに関連して使用するプログラムを通信し、伝搬し、又は移送し得る任意のコンピュータ可読媒体であってもよい。コンピュータ可読媒体上に具現化されるプログラムコードは、無線、有線配線、光ファイバケーブル、RFなどを含むがこれらに限定されない任意の適当な媒体、又は前述したものの任意の適当な組み合わせを用いて送信されてもよい。
【0053】
本発明の態様のための動作を実行するコンピュータプログラムコードは、1つ又は複数のプログラミング言語、例えば、Java、Python、Smalltalk、C++などのオブジェクト指向プログラミング言語、又は「C」プログラミング言語若しくは類似のプログラミング言語などの従来の手続型プログラミング言語の任意の組み合わせで書かれてもよい。プログラムコードは、ユーザのコンピュータ上で完全に、ユーザのコンピュータ上で部分的に、スタンドアロンソフトウェアパッケージとして、ユーザのコンピュータ上で部分的に且つリモートコンピュータで部分的に、又はリモートコンピュータ若しくはサーバ上で完全に、実行してもよい。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)、若しくはワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを通してユーザのコンピュータに接続されてもよく、又は、接続は、(例えば、インターネットサービスプロバイダを使用してインターネットを通して)外部コンピュータに対して行われてもよい。
【0054】
システム100の様々な機能は、任意の量のソフトウェアモジュール又はユニット、処理又はコンピュータシステム及び/又は回路の間で、任意の方式で分散されてもよく、その場合に、コンピュータ又は処理システムは、互いにローカルに又はリモートに配置されてもよく、任意の適当な通信媒体(例えば、LAN、WAN、イントラネット、インターネット、ハードウェア、モデム接続、無線など)を介して通信してもよい。
【0055】
本発明の態様は、発明の実施形態による、方法、装置(システム)、及びコンピュータプログラム製品のフローチャート図及び/又はブロック図を参照して説明される。命令が、フローチャート及び/又はブロック図のブロックに指定された機能/動作を実施するための手段を生成するように、フローチャート図及び/又はブロック図の各ブロック、並びにフローチャート図及び/又はブロック図のブロックの組み合わせが、コンピュータプログラム命令によって実施され、且つプロセッサ回路130によって実行されて、機械を生成し得ると理解されたい。
【0056】
図面中のフローチャート及びブロック図は、本発明の様々な実施形態によるシステム、方法、及びコンピュータプログラム製品の考え得る実施態様のアーキテクチャ、機能性、及び動作を示している。この点に関して、フローチャート又はブロック図内の各ブロックは、指定された論理機能を実施するための1つ又は複数の実行可能命令を含む、モジュール、セグメント、又はコードの一部を表してもよい。いくつかの代替的な実施態様では、ブロック内に記載された機能は、図中に記載された順序ではない順序で発生してもよいことにも留意されたい。例えば、連続して示される2つのブロックが、実際には、実質的に同時に実行されてもよく、又はブロックが、関係する機能性次第で逆の順序で実行されることがあってもよい。ブロック図及び/又はフローチャート図の各ブロック、並びにブロック図及び/又はフローチャート図のブロックの組み合わせが、指定された機能若しくは動作を実行する専用ハードウェアベースシステム、又は専用ハードウェア及びコンピュータ命令の組み合わせによって実施され得ることにも留意されたい。
【0057】
本明細書で使用される専門用語は、特定の実施形態のみを説明する目的のためであり、発明を限定することを意図するものではない。本明細書で使用される、単数形「a」、「an」、及び「the」は、文脈が明らかにそうでないことを示していない限り、複数形も同様に含むことを意図するものである。「備える(comprises)」及び/又は「備えている(comprising)」という用語は、本明細書で使用されるとき、述べられた特徴、整数、ステップ、動作、要素、及び/又はコンポーネントの存在を示しているが、1つ又は複数の特徴、整数、ステップ、動作、要素、コンポーネント、及び/又はそれらの集合の存在又は追加を排除するものではないと、さらに理解されたい。
【0058】
下記の特許請求の範囲におけるいずれか及び全てのミーンズプラスファンクション又はステッププラスファンクション要素の対応する構造、材料、動作、及び均等物は、他の特許請求された要素と組み合わせて機能を実行するための任意の構造、材料、又は動作を具体的に請求されるものとして含むことを意図するものである。
【0059】
上記説明は、本発明の概念の考え得る実施態様を説明することを意図するものであり、限定するものではない。多くの変形、修正、及び代替が、本開示を検討すれば当業者には明らかとなる。例えば、図示され説明されたものと均等なコンポーネントが、したがって代用されてもよく、個別に説明された要素及び方法が、結合されてもよく、個別として説明された要素が、多くのコンポーネントにわたって分散されてもよい。したがって、本発明の範囲は、上記説明を参照してではなく、添付の特許請求の範囲を均等物の全ての範囲と共に参照して判断されるべきである。