IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 国立大学法人 筑波大学の特許一覧

特開2024-178837判定装置、学習装置及び教師データ作成装置
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024178837
(43)【公開日】2024-12-25
(54)【発明の名称】判定装置、学習装置及び教師データ作成装置
(51)【国際特許分類】
   G06T 7/00 20170101AFI20241218BHJP
   G06V 10/62 20220101ALI20241218BHJP
【FI】
G06T7/00 300F
G06T7/00 350B
G06V10/62
【審査請求】未請求
【請求項の数】17
【出願形態】OL
(21)【出願番号】P 2023097287
(22)【出願日】2023-06-13
(71)【出願人】
【識別番号】504171134
【氏名又は名称】国立大学法人 筑波大学
(74)【代理人】
【識別番号】100165179
【弁理士】
【氏名又は名称】田▲崎▼ 聡
(74)【代理人】
【識別番号】100188558
【弁理士】
【氏名又は名称】飯田 雅人
(74)【代理人】
【識別番号】100175824
【弁理士】
【氏名又は名称】小林 淳一
(74)【代理人】
【識別番号】100152272
【弁理士】
【氏名又は名称】川越 雄一郎
(74)【代理人】
【識別番号】100181722
【弁理士】
【氏名又は名称】春田 洋孝
(72)【発明者】
【氏名】有馬 澄佳
(72)【発明者】
【氏名】伊東 寛紀
(72)【発明者】
【氏名】渡邉 響
(72)【発明者】
【氏名】高田 大右
(72)【発明者】
【氏名】前田 拓海
(72)【発明者】
【氏名】星野 紗来
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096BA03
5L096FA74
5L096JA11
5L096KA04
5L096KA15
5L096MA07
(57)【要約】
【課題】精度よくクラス分類を行うと共に、各特徴量の影響度を導出する。
【解決手段】判定装置は、判定対象である物体についての二次元情報及び当該二次元情報に付帯する付帯情報を取得する二次元情報取得部と、前記二次元情報取得部により取得された前記二次元情報から第1特徴量を抽出する抽出部と、前記物体に関する特徴量であって、前記第1特徴量とは異なる第2特徴量を取得する第2特徴量取得部と、前記第1特徴量及び前記第2特徴量とは異なる第3特徴量を取得する第3特徴量取得部と、前記抽出部により抽出された前記第1特徴量と、前記第2特徴量取得部により取得された前記第2特徴量又は前記第3特徴量取得部により取得された前記第3特徴量の少なくともいずれかとを入力情報として、前記物体のクラス分類に関する演算を行う演算部と、前記演算部により行われた演算の結果を出力する出力部とを備える。
【選択図】図2
【特許請求の範囲】
【請求項1】
判定対象である物体についての二次元情報及び当該二次元情報に付帯する付帯情報を取得する二次元情報取得部と、
前記二次元情報取得部により取得された前記二次元情報から第1特徴量を抽出する抽出部と、
前記物体に関する特徴量であって、前記第1特徴量とは異なる第2特徴量を取得する第2特徴量取得部と、
前記第1特徴量及び前記第2特徴量とは異なる第3特徴量を取得する第3特徴量取得部と、
前記抽出部により抽出された前記第1特徴量と、前記第2特徴量取得部により取得された前記第2特徴量又は前記第3特徴量取得部により取得された前記第3特徴量の少なくともいずれかとを入力情報として、前記物体のクラス分類に関する演算を行う演算部と、
前記演算部により行われた演算の結果を出力する出力部と
を備える判定装置。
【請求項2】
前記物体に対する所定の工程が行われ、
前記第1特徴量は、前記工程が行われた後に取得された前記物体に関する情報であり、
前記第2特徴量は、前記工程が行われている間又は前記工程が行われる前における情報であり、
前記第3特徴量は、前記工程が行われた後、前記工程が行われている間又は前記工程が行われる前における情報である
請求項1に記載の判定装置。
【請求項3】
前記物体に対する所定の工程が行われ、
前記第2特徴量は、前記工程において制御される値である
請求項1又は請求項2に記載の判定装置。
【請求項4】
前記物体に対する所定の工程が行われ、
前記第2特徴量は、前記工程に影響を及ぼす値である
請求項1又は請求項2に記載の判定装置。
【請求項5】
前記二次元情報取得部は、前記物体が判定対象であるか否かの判定があらかじめ行われた結果として、判定対象であると判定された前記物体についての前記二次元情報を取得する
請求項1又は請求項2に記載の判定装置。
【請求項6】
前記二次元情報とは、前記物体を撮像した画像である
請求項1又は請求項2に記載の判定装置。
【請求項7】
前記抽出部は、画像である前記二次元情報を入力情報として、畳み込みニューラルネットワーク、Transformer、決定木、及び集団学習の少なくともいずれかを用いて前記第1特徴量を抽出する
請求項6に記載の判定装置。
【請求項8】
前記演算部は、前記第2特徴量と前記第3特徴量の組合せごとに、前記物体のクラスごとの尤度を演算する
請求項6に記載の判定装置。
【請求項9】
前記物体とは、印刷されたラベルであり、
前記物体のクラスとは、前記ラベルの印刷時における不良の種類を分類したものである
請求項6に記載の判定装置。
【請求項10】
前記二次元情報とは、前記物体のうち不良を有する箇所と、不良を有しない箇所とを、二次元座標上に二値以上により表した情報である
請求項1又は請求項2に記載の判定装置。
【請求項11】
前記演算部は、前記物体のクラスごとの尤度を判定する
請求項10に記載の判定装置。
【請求項12】
前記演算部は、抽出された前記第1特徴量と、取得された前記第2特徴量又は前記第3特徴量の少なくともいずれかとを入力情報として、前記物体のクラスごとの尤度又は最大尤度に該当するクラスを出力する出力層を有する
請求項11に記載の判定装置。
【請求項13】
前記物体とは、半導体製造用のウェハであり、
前記物体のクラスとは、前記ウェハごとの不良の種類を分類したものである
請求項10に記載の判定装置。
【請求項14】
判定対象である物体についての二次元情報及び当該二次元情報に付帯するその付帯情報を取得する二次元情報取得部と、
前記物体を所定の判定基準に基づいて分類したクラスに関する情報を取得するクラス情報取得部と、
前記物体に関する特徴量であって、前記二次元情報から抽出される第1特徴量とは異なる第2特徴量を取得する第2特徴量取得部と、
前記第1特徴量及び前記第2特徴量とは異なる第3特徴量を取得する第3特徴量取得部と、
前記二次元情報取得部により取得された前記二次元情報に基づき抽出された前記第1特徴量と、前記第2特徴量取得部により取得された前記第2特徴量又は前記第3特徴量取得部により取得された前記第3特徴量の少なくともいずれかとに基づき、前記クラスを推定するよう機械学習モデルを学習させる学習部と
を備える学習装置。
【請求項15】
取得した前記二次元情報に基づき、複数の拡張二次元情報を生成する拡張部をさらに備え、
前記学習部は、生成された前記拡張二次元情報に基づき抽出された前記第1特徴量と、前記第2特徴量取得部により取得された前記第2特徴量とに基づき、前記クラスを推定するよう機械学習モデルを学習させる
請求項14に記載の学習装置。
【請求項16】
判定対象である物体についての二次元情報及び当該二次元情報に付帯するその付帯情報を複数取得する二次元情報取得部と、
取得された複数の前記二次元情報のうち、所定の選択アルゴリズムに基づき2以上の前記二次元情報を選択する選択部と、
選択された2以上の前記二次元情報を重ね合わせることにより、機械学習モデルの学習又はテストに用いられる教師データを作成する重ね合わせ部と
前記物体に関する特徴量であって、前記二次元情報から抽出される第1特徴量とは異なる第2特徴量を取得する第2特徴量取得部と、
前記第1特徴量及び前記第2特徴量とは異なる第3特徴量を取得する第3特徴量取得部と、
重ね合わせられたサンプルに該当する前記第2特徴量を結合する第2特徴量結合部又は重ね合わせられたサンプルに該当する第3特徴量を結合する第3特徴量結合部との少なくともいずれかと、
結合した前記第2特徴量又は取得した前記第3特徴量の少なくともいずれかを、前記教師データに統合する統合部と
を備える教師データ作成装置。
【請求項17】
所定の確率分布又は乱数に基づき、前記教師データの各座標又は特徴量に対して、欠損が有することを示す情報を付与する欠損付与部を更に備える
請求項16に記載の教師データ作成装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、判定装置、学習装置及び教師データ作成装置に関する。
【背景技術】
【0002】
従来、複数の製造工程を経て製造される製品の歩留まり要因を解析する方法が提案されている(例えば、特許文献1を参照)。このような技術は、例えば、半導体製造工程等に用いられる。半導体製造工程等の現場では、製造ロット毎に、歩留まりが高い正常ロット群であるか、歩留まりが低い異常ロット群であるかが解析される。さらに、解析結果に基づき、各工程における処理装置の差に着目し、工程ごと、又は装置ごとに歩留まり低下への影響度を抽出することが行われている。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2005-012095号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
上述したような従来技術では、深層学習等の機械学習が用いられ、ウェハマップの不良パターン(ウェハ上の不良チップの出現パターン)のクラス分類が行われる。しかしながら、ウェハマップに基づく不良パターンのクラス分類は精度が十分でなく、特に複数の不良パターンが重ね合わされているような場合、著しく精度が低下する問題があった。すなわち、従来技術による解析方法では、クラス分類精度が十分でないといった問題があった。
【0005】
そこで本発明は、このような状況に鑑みてなされたものであり、精度よくクラス分類を行うことできると共に、各特徴量の影響度を導出することが可能な判定装置、学習装置及び教師データ作成装置の提供を目的とする。
【課題を解決するための手段】
【0006】
(1)本発明の一態様は、判定対象である物体についての二次元情報及び当該二次元情報に付帯する付帯情報を取得する二次元情報取得部と、前記二次元情報取得部により取得された前記二次元情報から第1特徴量を抽出する抽出部と、前記物体に関する特徴量であって、前記第1特徴量とは異なる第2特徴量を取得する第2特徴量取得部と、前記第1特徴量及び前記第2特徴量とは異なる第3特徴量を取得する第3特徴量取得部と、前記抽出部により抽出された前記第1特徴量と、前記第2特徴量取得部により取得された前記第2特徴量又は前記第3特徴量取得部により取得された前記第3特徴量の少なくともいずれかとを入力情報として、前記物体のクラス分類に関する演算を行う演算部と、前記演算部により行われた演算の結果を出力する出力部とを備える判定装置である。
【0007】
(2)本発明の一態様は、上述した判定装置において、前記物体に対する所定の工程が行われ、前記第1特徴量は、前記工程が行われた後に取得された前記物体に関する情報であり、前記第2特徴量は、前記工程が行われている間又は前記工程が行われる前における情報であり、前記第3特徴量は、前記工程が行われた後、前記工程が行われている間又は前記工程が行われる前における情報である。
【0008】
(3)本発明の一態様は、上述した判定装置において、前記物体に対する所定の工程が行われ、前記第2特徴量は、前記工程において制御される値である。
【0009】
(4)本発明の一態様は、上述した判定装置において、前記物体に対する所定の工程が行われ、前記第2特徴量は、前記工程に影響を及ぼす値である。
【0010】
(5)本発明の一態様は、上述した判定装置において、前記二次元情報取得部は、前記物体が判定対象であるか否かの判定があらかじめ行われた結果として、判定対象であると判定された前記物体についての前記二次元情報を取得するものである。
【0011】
(6)本発明の一態様は、上述した判定装置において、前記二次元情報とは、前記物体を撮像した画像である。
【0012】
(7)本発明の一態様は、上述した判定装置において、前記抽出部は、画像である前記二次元情報を入力情報として、畳み込みニューラルネットワーク、Transformer、決定木、及び集団学習の少なくともいずれかを用いて前記第1特徴量を抽出するものである。
【0013】
(8)本発明の一態様は、上述した判定装置において、前記演算部は、前記第2特徴量と前記第3特徴量の組み合せごとに、前記物体のクラスごとの尤度を演算するものである。
【0014】
(9)本発明の一態様は、上述した判定装置において、前記物体とは、印刷されたラベルであり、前記物体のクラスとは、前記ラベルの印刷時における不良の種類を分類したものである。
【0015】
(10)本発明の一態様は、上述した判定装置において、前記二次元情報とは、前記物体のうち不良を有する箇所と、不良を有しない箇所とを、二次元座標上に二値以上により表した情報である。
【0016】
(11)本発明の一態様は、上述した判定装置において、前記演算部は、前記物体のクラスごとの尤度を判定するものである。
【0017】
(12)本発明の一態様は、上述した判定装置において、前記演算部は、抽出された前記第1特徴量と、取得された前記第2特徴量又は前記第3特徴量の少なくともいずれかとを入力情報として、前記物体のクラスごとの尤度又は最大尤度に該当するクラスを出力する出力層を有する。
【0018】
(13)本発明の一態様は、上述した判定装置において、前記物体とは、半導体製造用のウェハであり、前記物体のクラスとは、前記ウェハごとの不良を分類したものである。
【0019】
(14)本発明の一態様は、判定対象である物体についての二次元情報及び当該二次元情報に付帯するその付帯情報を取得する二次元情報取得部と、前記物体を所定の判定基準に基づいて分類したクラスに関する情報を取得するクラス情報取得部と、前記物体に関する特徴量であって、前記二次元情報から抽出される第1特徴量とは異なる第2特徴量を取得する第2特徴量取得部と、前記第1特徴量及び前記第2特徴量とは異なる第3特徴量を取得する第3特徴量取得部と、前記二次元情報取得部により取得された前記二次元情報に基づき抽出された前記第1特徴量と、前記第2特徴量取得部により取得された前記第2特徴量又は前記第3特徴量取得部により取得された前記第3特徴量の少なくともいずれかとに基づき、前記クラスを推定するよう機械学習モデルを学習させる学習部とを備える学習装置である。
【0020】
(15)本発明の一態様は、上述した学習装置において、取得した前記二次元情報に基づき、複数の拡張二次元情報を生成する拡張部をさらに備え、前記学習部は、生成された前記拡張二次元情報に基づき抽出された前記第1特徴量と、前記第2特徴量取得部により取得された前記第2特徴量とに基づき、前記クラスを推定するよう機械学習モデルを学習させるものである。
【0021】
(16)本発明の一態様は、判定対象である物体についての二次元情報及び当該二次元情報に付帯するその付帯情報を複数取得する二次元情報取得部と、取得された複数の前記二次元情報のうち、所定の選択アルゴリズムに基づき2以上の前記二次元情報を選択する選択部と、選択された2以上の前記二次元情報を重ね合わせることにより、機械学習モデルの学習又はテストに用いられる教師データを作成する重ね合わせ部と前記物体に関する特徴量であって、前記二次元情報から抽出される第1特徴量とは異なる第2特徴量を取得する第2特徴量取得部と、前記第1特徴量及び前記第2特徴量とは異なる第3特徴量を取得する第3特徴量取得部と、重ね合わせられたサンプルに該当する前記第2特徴量を結合する第2特徴量結合部又は重ね合わせられたサンプルに該当する第3特徴量を結合する第3特徴量結合部との少なくともいずれとかを備え、結合した前記第2特徴量又は取得した前記第3特徴量の少なくともいずれかを、前記教師データに統合する統合部とを備える教師データ作成装置である。
【0022】
(17)本発明の一態様は、上述した教師データ作成装置は、所定の確立分布又は乱数に基づき、前記教師データの各座標又は特徴量に対して、欠損が有することを示す情報を付与する欠損付与部を更に備えるものである。
【発明の効果】
【0023】
本発明によれば、精度よくクラス分類を行うことができると共に、各特徴量の影響度を導出することができる。
【図面の簡単な説明】
【0024】
図1】実施形態1に係るシステムの概要について説明するための図である。
図2】実施形態1に係る判定装置の機能構成の一例を示す機能構成図である。
図3】実施形態1に係るシステムが行う前処理について説明するための図である。
図4】実施形態2に係る判定方法の概要について説明するための図である。
図5】実施形態2に係る欠陥画像データの具体的な一例を示す図である。
図6】実施形態2に係るログ特徴量の具体的な一例を示す図である。
図7】実施形態2に係る環境変数特徴量の具体的な一例を示す図である。
図8】実施形態2に係る演算結果の具体的な一例を示す図である。
図9】実施形態3に係る判定方法の概要について説明するための図である。
図10】実施形態3に係る二次元情報の一例について示す図である。
図11】実施形態3に係る特徴量の抽出について説明するための図である。
図12】実施形態3に係るラドン特徴量の一例について説明するための図である。
図13】実施形態4に係る学習装置の機能構成の一例を示す機能構成図である。
図14】実施形態4に係るデータ拡張の主要な種類について説明するための図である。
図15】実施形態5に係る教師データ作成装置の機能構成の一例を示す機能構成図である。
図16】実施形態6に係る重ね合わせを行った二次元情報の第1の例である。
図17】実施形態6に係る重ね合わせを行った二次元情報の第2の例である。
図18】実施形態6に係る重ね合わせ部が行う演算の詳細について説明するための図である。
図19】実施形態6に係る第3特徴量の元情報を示す図である。
図20】実施形態6に係る重ね合わせ情報の分類結果の一例を示す図である。
図21】実施形態6に係る重ね合わせ分類問題の事例を示す図である。
図22】実施形態6に係る重ね合わせ情報の分類結果の一例を示す図である。
図23】実施形態6に係る重ね合わせ分類問題の事例を示す図である。
【発明を実施するための形態】
【0025】
[実施形態]
以下、本発明の実施形態に係るシステム1について、好適な実施の形態を掲げ、添付の図面を参照しながら詳細に説明する。なお、本発明の態様は、これらの実施の形態に限定されるものではなく、多様な変更または改良を加えたものも含まれる。つまり、以下に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものが含まれ、以下に記載した構成要素は適宜組み合わせることが可能である。また、本発明の要旨を逸脱しない範囲で構成要素の種々の省略、置換または変更を行うことができる。また、以下の図面においては、各構成をわかりやすくするために、各構造における縮尺および数等を、実際の構造における縮尺および数等と異ならせる場合がある。
【0026】
まず、以下に説明する実施形態の前提となる事項について説明する。本実施形態に係るシステム1は、所定の工程を経た結果に対して適用される。本実施形態に係るシステム1が対象とする所定の工程とは、製品の製造や、製造された製品等の検査等の処理が広く含まれる。所定の工程を経た結果とは、最終的に得られる結果であってもよいし、中間処理として得られる結果であってもよい。所定の工程とは、時間的な概念に基づくものであり、所定の期間(いかなる短期間であってもよいし、長期間であってもよい)経過後の変化が伴うものである。当該変化は、所定の工程の前後において変化しないことを含む。
【0027】
本実施形態に係るシステム1は、例えば、所定の工程を経た結果として得られる物体について判定を行う。当該判定とは、品質等に関する高精度判別や、不良原因特定等が広く含まれる。不良原因には、不良を有しない(すなわち良品である)ことも含まれ得る。不良原因には、複数の不良原因が重ね合わされた重ね合わせ問題が含まれていてもよい。本実施形態に係るシステム1は、これら一連の解析手続きを、一式の(同一の)解析構図により実現するものである。また、本実施形態に係るシステム1は、現実的なデータの規模と、複雑性とに対応することが可能である。
【0028】
[実施形態1]
まず、図1から図3を参照しながら、実施形態1について説明する。
【0029】
図1は、実施形態1に係るシステムの概要について説明するための図である。まず、同図を参照しながら、本実施形態に係るシステム1の概要について説明する。システム1は、処理装置10と、二次元情報取得装置20と、特徴量取得装置30と、判定装置50とを含んで構成される。システム1に含まれる各装置が備える各機能は、いかなる態様において提供されてもよい。また、システム1に含まれる各装置は、それぞれ独立した装置であってもよいし、単独又は複数の装置により各装置の機能が提供されてもよい。
【0030】
システム1は、所定の工程を行う。当該工程は、例えば処理装置10により行われる所定の処理である。処理装置10により処理が行われた結果として、物体Sが得られる。ここで、物体Sとは、処理装置10により所定の処理が行われた結果として得られるものであることに限定されない。例えば、処理装置10は、予め存在する物体Sに対して所定の処理を行ってもよい。すなわち、物体Sとは、処理装置10により所定の処理が行われた後において存在する物体Sであるということもできる。より具体的には、処理装置10により行われる処理とは、物体Sの製造についての処理であったり、物体Sに対する検査についての処理であったりしてもよい。なお、以下の説明においては、物体Sが有体物である場合について説明する。しかしながら本実施形態はこの一例に限定されず、物体Sは無体物であってもよい。
【0031】
二次元情報取得装置20は、処理装置10による所定の処理が行われた後、物体Sについての情報を取得する。二次元情報取得装置20は、例えば、物体Sについての二次元的な情報を取得する。以下、二次元情報取得装置20により取得される物体Sについての情報を、二次元情報と記載する。なお、本実施形態に係る二次元情報とは、情報が二次元的に表現されていること(例えば平面的な情報であること)を限定するものではない。本実施形態に係る二次元情報は、少なくとも二次元的に表現されていればよく、例えば、時間の要素や空間的な要素を含む三次元以上の情報が広く含まれ得る。二次元情報取得装置20は、例えば撮像等を行うことにより、物体Sの外観的な特徴を二次元情報として直接的に取得してもよい。また、二次元情報取得装置20は、物体Sに対して所定の測定を行った結果を、二次元的な情報として取得してもよい。当該測定とは、外観的な特徴の測定であってもよいし、物体Sの機能に関する測定であってもよい。当該測定が行われた結果は、例えば物体Sの外観を示す二次元座標ごとに数値化され、二次元情報が生成されてもよい。より具体的には、二次元情報とは、x-y平面座標に対応する画素情報や、不良の有無や程度等が示された情報であってもよい。
【0032】
特徴量取得装置30は、特徴量を取得する。特徴量取得装置30により取得される特徴量とは、いかなる特徴量であってもよい。好適には、特徴量取得装置30により取得される特徴量とは、処理装置10に関するものであってもよい。処理装置10に関する特徴量とは、処理装置10により行われる処理の結果として得られる物体Sに影響を与えるものであることが好適である。しかしながら本実施形態はこの一例に限定されず、処理装置10に関しない特徴量が取得されてもよい。また、特徴量取得装置30は、複数種類の特徴量を取得してもよい。この場合、複数種類の特徴量の少なくとも1つは、好適には、処理装置10に関するものであってもよい。また、複数種類の特徴量は、その他、物体Sに関しない情報等が広く含まれていてもよい。
【0033】
判定装置50は、二次元情報取得装置20により得られた二次元情報と、特徴量取得装置30により得られた特徴量とに基づき、判定を行う。判定装置50により行われる判定とは、例えば物体Sのクラス分類に関するものであってもよい。クラス分類とは、物体Sを、予め定められたいずれかのクラスに分類することであってもよいし、クラス毎の尤度を出力するものであってもよい。なお、本実施形態はこの一例に限定されず、判定装置50は、様々な演算に基づく判定を行うことができる。すなわち、判定装置50により行われる判定とは、様々な演算が行われた結果として得られた演算結果を出力することであってもよい。
【0034】
図2は、実施形態1に係る判定装置の機能構成の一例を示す機能構成図である。図2を参照しながら、判定装置50の機能構成の一例について説明する。判定装置50は、二次元情報取得部51と、第2特徴量取得部52と、抽出部53と、演算部54と、出力部55と、第3特徴量取得部56と、クラス情報取得部57とを備える。これらの各機能部は、例えば、電子回路を用いて実現される。また、各機能部は、必要に応じて、半導体メモリや磁気ハードディスク装置などといった記憶手段を内部に備えてよい。また、各機能を、CPU(Central Processing Unit)を有するコンピュータおよびソフトウェアによって実現するようにしてもよい。また、各機能部の全てまたは一部は、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)又はFPGA(Field-Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、各機能部の全部または一部は、ソフトウェアとハードウェアとの組み合わせにより実現されてもよい。また、判定装置50の機能の全部または一部は、クラウドサーバ等の外部機器に設けられたハードウェア等を用いて実現されてもよい。また、判定装置50は、複数の装置で構成され、各機能ブロックが複数の装置に分散されていてもよい。
【0035】
二次元情報取得部51は、二次元情報取得装置20から、二次元情報を取得する。二次元情報取得部51は、判定装置50の判定対象である物体Sについての二次元情報を取得する。二次元情報取得部51は、取得した二次元情報を、二次元情報DIとして抽出部53に出力する。二次元情報取得部51は、二次元情報DIの取得と併せて、二次元情報DIに付帯する付帯情報を取得する。付帯情報とは、二次元情報DIの属性等を示す情報であってもよい。付帯情報とは、例えば、二次元情報DIの画素数等であってもよい。
【0036】
抽出部53は、二次元情報取得部51から二次元情報DIを取得する。抽出部53は、取得した情報に基づき、第1特徴量を抽出する。すなわち、第1特徴量とは、物体Sの二次元情報に基づく特徴量である。第1特徴量は、物体Sの二次元情報から抽出されるものであればよく、いかなる特徴量であってもよい。例えば、第1特徴量とは、人間が認知可能な特徴量であってもよく、人間が認知可能でない特徴量であってもよい。抽出部53は、例えば機械学習アルゴリズムを用いた推論を行うことにより第1特徴量を抽出してもよいし、その他、数式等を用いた演算を行うことにより第1特徴量を抽出してもよい。抽出部53は、抽出した特徴量を、第1特徴量C1として演算部54に出力する。
【0037】
第2特徴量取得部52は、特徴量取得装置30から、特徴量を取得する。第2特徴量取得部52により取得される特徴量を第2特徴量とも記載する。第2特徴量には、様々な特徴量が含まれていてもよい。すなわち、第2特徴量取得部52は、複数種類の第2特徴量C2を取得してもよい。一例として、第2特徴量とは、処理装置10により行われる工程において制御される値であることが好適である。また、第2特徴量とは、処理装置10により行われる工程に対して(又は当該工程において物体Sに対して)、影響を及ぼす値が含まれていることが好適である。第2特徴量取得部52は、取得した特徴量を、第2特徴量C2として演算部54に出力する。ここで、第2特徴量C2とは、物体Sに関する特徴量であるが、第1特徴量C1と異なる特徴量である。なお、第2特徴量とは、不図示の第2特徴量抽出部により抽出されたものであってもよい。
【0038】
なお、第2特徴量の抽出には、交互作用モデリングの代表格であるSure Independence Screening(SIS)等のスクリーニングや特徴量選択付きの因子分解機(Sparse Factorization Machines,SFM)に基づく装置(方法)を用いてもよい。SFMのうち、特に、L1ノルム正則化を用いて特徴量の単独の効果を推定する単独特徴量抽出部(ステップ)と、複数の特徴量の組合せである組合せ特徴量をL2ノルム正則化を用いて推定する組合せ特徴量抽出部(ステップ)と、さらに、上界を導入した正則化項を用いてすべての特徴量を推定する特徴量全体抽出部(ステップ)、を含むこと特徴とする交互作用モデリング装置(方法)を用いてもよい。なお、上界として、Cauchy―Schwarz(CS)不等式や三角不等式(Triangle―Inequality , TI)上界の適用について先行研究(K. Atarashiら,2021)で有効性が確認されている。このうち、TI上界を用いたSFM(TI―SFM(L1)と呼ぶ)は、本発明で提案する新たな形態であり、好適な一つである。ただし、先行研究では、特徴量の単独の効果推定にL2ノルムを用いる形態もあり、単独特徴量抽出部(ステップ)にL2ノルム正則化を含む装置(方法)を用いてもよい。また、特徴量全体抽出部(ステップ)としてCS上界ほかの上界を用いてもよい。
【0039】
ここで、第1特徴量C1と第2特徴量C2との相違点について記載する。まず、第1特徴量C1と第2特徴量C2とは、取得経路が互いに異なるものである。すなわち、第1特徴量C1は、二次元情報DIから抽出される特徴量である(すなわち、二次元情報DIを介して間接的に得られる特徴量であるということもできる)のに対し、第2特徴量C2は、何らかの装置又は環境等から直接的に得られる特徴量である点において、両者は異なるものである。第1特徴量C1と、第2特徴量C2とは、互いに独立した特徴量であってもよいし、互いに関連し合う特徴量であってもよい。
【0040】
また、特徴量の取得時点に関して、第1特徴量C1と第2特徴量C2とは、互いに異なるものである。第1特徴量C1は、処理装置10により行われる所定の工程が行われた後における物体Sを観察することにより得られた二次元情報DIから抽出された情報である。物体Sの観察には、撮像や、測定、検査等が広く含まれる。すなわち、第1特徴量C1は、当該工程が行われた後に取得されるものである。一方、第2特徴量C2は、当該工程が行われた後に取得されることに限定されない。例えば、第2特徴量C2は、当該工程が行われている間に取得されてもよいし、当該工程が行われる前に取得されてもよい。なお、第2特徴量C2は、第1特徴量C1と同様に、当該工程が行われた後に取得されるものであることを妨げない。
【0041】
なお、判定装置50は、更に第3特徴量取得部56を備えることにより、第3特徴量を取得してもよい。この場合、第3特徴量取得部56は、特徴量取得装置30又はその他の記憶装置等から、第3特徴量を取得する。第3特徴量とは、第1特徴量及び第2特徴量のいずれとも異なる特徴量である。第3特徴量は、処理装置10により行われる所定の工程が行われた後、当該工程が行われている間又は当該工程が行われる前における情報であってもよい。第3特徴量とは、例えば二次元情報の付帯情報であってもよいし、第1特徴量とは、異なる方法で二次元情報DIから生成された特徴量であってもよいし、二次元情報DIの付帯情報又は二次元情報DIから生成された特徴量から生成された特徴量であってもよい。第3特徴量取得部56は、取得した特徴量を、第3特徴量C3として演算部54に出力する。
【0042】
クラス情報取得部57は、物体Sのクラスに関する情報を取得する。クラス情報取得部57は、物体Sのクラスに関する情報をクラス情報CLとして演算部54に出力する。
【0043】
演算部54は、抽出部53により抽出された第1特徴量C1を取得し、第2特徴量取得部52により取得された第2特徴量C2を取得する。また、演算部54は、第3特徴量取得部56から第3特徴量C3を取得し、クラス情報取得部57からクラス情報CLを取得してもよい。演算部54は、取得したこれらの情報を入力情報として、物体Sのクラス分類に関する演算を行う。なお、演算部54により行われる演算は、機械学習アルゴリズムを用いた推論を行うことにより行われるものであってもよいし、その他、数式等を用いた演算を行うことにより行われるものであってもよい。演算部54は、演算が行われた結果として得られる情報を、結果情報RIとして、出力部55に出力する。
【0044】
出力部55は、演算部54により行われた演算の結果を出力する。出力部55は、例えば、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイ等の表示装置に対して演算の結果を出力することにより、ユーザに判定結果を視覚的に提示してもよい。また、出力部55は、その他の方法によりユーザに判定結果を提示してもよい。また、出力部55は、演算の結果を不図示の記憶装置に出力することにより情報を蓄積してもよい。
【0045】
図3は、実施形態1に係るシステムが行う前処理について説明するための図である。同図を参照しながら、判定装置50により行われる前処理の一例について説明する。当該前処理では、処理装置10により処理が行われた物体Sに対して、判定装置50の判定対象であるか否かの予備判定が行われる。なお、同図を参照しながら行う前処理は、本実施形態において必ずしも行われることを要しない。例えば、判定装置50は、前処理による予備判定を行わず、処理装置10により処理が行われた全ての物体Sに対して判定を行ってもよい。
【0046】
図示するように、前処理による予備判定は、予備判定装置60により行われる。前処理が行われる場合、システム1は、予備判定装置60を更に備えることにより、前処理を行う。予備判定装置60は、処理装置10により処理が行われた物体Sの観察を行う。予備判定装置60は、観察を行った結果として、判定対象であるか否かについての予備判定を行う。判定対象であるか否かの予備判定は、例えば、物体Sが良品であるか否かの判定に基づいて行われてもよい。より具体的には、予備判定装置60により行われた予備判定の結果、不良品であると判定された物体Sを判定装置50による判定対象であるとし、良品であると判定された物体Sを判定装置50による判定対象でないとしてもよい。すなわち、このような構成によれば、システム1は、予備判定装置60により不良品であるか否かの一次判定を行い、判定装置50により不良原因のクラス分類を行うものであるということもできる。
【0047】
[実施形態1のまとめ]
以上説明した実施形態によれば、判定装置50は、二次元情報取得部51を備えることにより、判定対象である物体Sについての二次元情報DIを取得し、抽出部53を備えることにより、二次元情報取得部51により取得された二次元情報DIから第1特徴量C1を抽出し、第2特徴量取得部52を備えることにより、物体Dに関する特徴量であって、第1特徴量C1とは異なる特徴量である第2特徴量C2を取得し、演算部54を備えることにより、抽出部53により抽出された第1特徴量C1と第2特徴量取得部52により取得された第2特徴量C2とを入力情報として、物体Sのクラス分類に関する演算を行い、出力部55を備えることにより、演算部54により行われた演算の結果を出力する。すなわち、判定装置50は、物体Sについての二次元情報DIから抽出された第1特徴量C1に加え、物体Sに関する第2特徴量C2に基づくことにより、物体Sのクラス分類に関する演算を行う。したがって、本実施形態によれば、従来技術のように二次元情報のみに基づいた判定を行うことなく、様々な特徴量に基づいたマルチモーダル処理を行うことにより、より精度の良い判定を行うことができる。よって、本実施形態によれば、精度よくクラス分類を行うことができると共に、演算部54や出力部55により第2特徴量C2の影響度も特定できる。
【0048】
また、上述した実施形態によれば、システム1が予備判定を行う場合、システム1は、予備判定装置60を更に備える。二次元情報取得部51は、物体Sが判定対象であるか否かの判定があらかじめ行われた結果として、判定対象であると判定された物体Sについての二次元情報を取得する。すなわち、上述した実施形態によれば、予め判定対象であるか否かの一次判定が行われた対象についてのみ、二次判定として物体Sのクラス分類に関する演算を行う。したがって、本実施形態によれば、効率よく、高精度なクラス分類を行うことができる。
【0049】
[実施形態2]
次に、図4から図8を参照しながら、実施形態2について説明する。実施形態2は、実施形態1に係るシステム1を、産業用印刷工程に適用した場合の具体例である。
【0050】
図4は、実施形態2に係る判定方法の概要について説明するための図である。同図を参照しながら本実施形態において用いられる判定モデルの概要について説明する。本実施形態において、判定装置50の判定対象となる物体Sとは、印刷されたラベルである。物体Sに対する印刷工程は、例えば処理装置10により行われる。本実施形態において、処理装置10とは、具体的には、所定のスピード(例えば、毎分数百メートル)で4色刷りを行うペットボトルフィルム等の産業用印刷ラインであってもよい。また、本実施形態において、判定装置50の判定対象となる物体のクラスとは、ラベルの印刷時における不良の種類を分類したものであってもよい。
【0051】
図示するように、抽出部53には、二次元情報DIが入力される。図示する一例において、二次元情報DIとは、予め予備判定装置60により予備判定が行われた結果、不良と判定された物体Sを撮像した欠陥画像の画像情報である。当該画像情報とは、具体的には、処理装置10により印刷工程が行われた印刷物である。システム1は、不図示の撮像装置が当該印刷物を撮像することにより、二次元情報DIを得ることができる。
【0052】
図5は、実施形態2に係る欠陥画像データの具体的な一例を示す図である。同図を参照しながら、判定装置50の判定対象となる欠陥画像データの具体的な一例について説明する。図5(A)は、物体Sとしての印刷ラベルが、「かぶり」の欠陥を有する場合の一例を示す図である。図5(B)は、物体Sとしての印刷ラベルが、「ツーツー汚れ」の欠陥を有する場合の一例を示す図である。図5(C)は、物体Sとしての印刷ラベルが、「フィッシュアイ」の欠陥を有する場合の一例を示す図である。図5(D)は、物体Sとしての印刷ラベルが、「ドクター線」の欠陥を有する場合の一例を示す図である。図5(E)は、物体Sとしての印刷ラベルが、「インキはね」の欠陥を有する場合の一例を示す図である。図5(F)は、物体Sとしての印刷ラベルが、「およぎ」の欠陥を有する場合の一例を示す図である。なお、判定装置50の判定対象となる欠陥画像データは、この一例に限定されない。判定装置50は、図示しないその他の欠陥について判定してもよい。また、判定装置50による判定は、欠陥を有していないことが含まれていてもよい。また、判定装置50は、これらの欠陥のうち、複数の欠陥を併せ持つ場合について、判定してもよい。
【0053】
図4に戻り、欠陥画像である二次元情報DIは、抽出部53に入力される。抽出部53は、予め大量の画像データセットを用いて学習された畳み込みニューラルネットワークを備えていてもよい。図示する一例において、抽出部53は、VGG-16を備える。抽出部53は、二次元情報DIに基づき、例えば畳み込み演算を行うことにより、特徴量を抽出する。図示する一例において、抽出部53は、複数回の畳み込み演算を繰り返した結果、512個の特徴量を抽出している。抽出部53により抽出された特徴量を、第1特徴量C1として図示する。すなわち、抽出部53は、画像である二次元情報DIを入力情報として、畳み込みニューラルネットワークを用いて第1特徴量C1を抽出する。なお、抽出部53による抽出は、畳み込みニューラルネットワークが用いられる場合の一例に限定されず、Transformer、決定木、又は集団学習等の公知の手法が用いられてもよい。集団学習とは、例えばブースティング、バギング、スタッキング等であってもよい。
【0054】
また、本実施形態に係る判定には、第1特徴量C1とは異なる第2特徴量C2や第3特徴量C3が用いられる。図示する一例において、第2特徴量C2には、環境変数特徴量が含まれる。また、第3特徴量C3には、ログ特徴量が含まれる。なお、本実施形態において、第2特徴量C2の環境変数特徴量及び第特徴3量C3のログ特徴量のいずれもが含まれる一例に限定されず、ログ特徴量又は環境変数特徴量のいずれか一方が含まれていればよい。また、第2特徴量C2と第3特徴量C3には、環境変数特徴量とログ特徴量以外の特徴量が含まれていてもよい。
【0055】
図6は、実施形態2に係るログ特徴量の具体的な一例を示す図である。同図を参照しながら、第3特徴量C3の1つであるログ特徴量の具体的な一例について説明する。ログ特徴量とは、所定の検査が行われた結果として得られた検査ログに基づく特徴量である。ログ特徴量には、例えば、製品上において欠陥であると推定される候補が存在する位置、当該候補についての大まかなサイズ、及び当該候補についておおまかに分類された異常の程度等が含まれる。図示する一例においては、製品上において欠陥であると推定される候補が存在する位置が、X-Y相対座標で示されている。X座標とは、産業用印刷ラインにより印刷されたペットボトルフィルム等の横方向(搬送方向に垂直に交わる方向)における位置を特定するものであり、[mm(ミリメートル)]で特定される情報であってもよい。Y座標とは、搬送方向における位置を特定するものであり、[m(メートル)]で特定される情報であってもよい。なお、産業用印刷ラインにおける印刷製品寸法は、例えば、1ロールを基準単位として、幅140[cm(センチメートル)]、長さ4000[m]のものが用いられる。X-Y座標は、測定された位置データを標準化したデータ(ロールサイズに依存しない値)に変換されていてもよい。また、当該候補のサイズが[mmsq.(平方ミリメートル)]で示されている。また、異常の程度が、“重”、“中”又は“軽”等により示されている。
【0056】
図示する一例においては、5個の第3特徴量C3が示されている。それぞれの第3特徴量C3は、それぞれ異なる二次元情報DIに対応するものである。それぞれの第3特徴量C3には、1乃至5の通し番号(No.)が振られている。通し番号が“1”である第2特徴量C2に存在する欠点数は“3”であり、製品上において欠陥であると推定される候補が存在する位置のX座標は“585.3[mm]”であり、Y座標は“0[m]”であり、サイズは“0.9[mmsq.]”であり、異常の程度は“軽欠点(軽)”である。また、通し番号が“2”である第2特徴量C2に存在する欠点数は“5”であり、製品上において欠陥であると推定される候補が存在する位置のX座標は“314.6[mm]”であり、Y座標は“0.3[m]”であり、サイズは“3.5[mmsq.]”であり、異常の程度は“重欠点(重/中/軽/スジ)”である。また、通し番号が“3”である第2特徴量C2に存在する欠点数は“5”であり、製品上において欠陥であると推定される候補が存在する位置のX座標は“314.6[mm]”であり、Y座標は“0.8[m]”であり、サイズは“4.1[mmsq.]”であり、異常の程度は“重欠点(重/中/軽/スジ)”である。また、通し番号が“4”である第2特徴量C2に存在する欠点数は“3”であり、製品上において欠陥であると推定される候補が存在する位置のX座標は“333.2[mm]”であり、Y座標は“3.2[m]”であり、サイズは“1.8[mmsq.]”であり、異常の程度は“重欠点(重/中/軽)”である。また、通し番号が“5”である第2特徴量C2に存在する欠点数は“5”であり、製品上において欠陥であると推定される候補が存在する位置のX座標は“267.9[mm]”であり、Y座標は“3.3[m]”であり、サイズは“2.1[mmsq.]”であり、異常の程度は“重欠点(重/中/軽)”である。
【0057】
図7は、実施形態2に係る環境変数特徴量の具体的な一例を示す図である。同図を参照しながら、第2特徴量C2の1つである環境変数特徴量の具体的な一例について説明する。環境変数特徴量とは、物体Sに対する処理において用いられたパラメータまたは測定結果等である。環境変数特徴量とは、具体的には、ライン上において計測された、印刷スピード、インキをかきとるブレードの摩耗有無、材料状態(例えば印刷インキ粘度等)の計測結果であり、印刷欠陥の原因系の一部である。
【0058】
図示する一例においては、6個の第2特徴量C2が示されている。それぞれの第3特徴量C3には、IMG01乃至IMG06の通し番号が降られている。当該通し番号は、それぞれ異なる二次元情報DIに対応するものである。また、同図において“roll”とは、産業用印刷ラインにおいて印刷されるロールを特定する番号である。また、同図において、“ブレード摩耗”、“低スピード”、“インキ低粘度”、“インキ高粘度”、“インキ最高粘度”が、それぞれ0又は1のダミー変数により示されている。“ブレード摩耗”は、ブレードの摩耗の有無を示し、“1”が摩耗有り、“0”が摩耗無しである。また、“低スピード”は、印刷スピードが通常時よりも低いか否かを示し、“1”が通常よりも低い、“0”が通常通りである。インキ粘度は、通常時と比較した3段階において判定さる。通常時と異なる場合、“インキ低粘度”、“インキ高粘度”、“インキ最高粘度”のいずれかが“1”となり、その他は“0”となる。
【0059】
“IMG01”に対応する第2特徴量C2は、ロール“R4”に対応し、ブレード摩耗は“0”であり、低スピードは“0”であり、インキ低粘度は“1”であり、インキ高粘度は“0”であり、インキ最高粘度は“0”である。“IMG02”に対応する第2特徴量C2は、ロール“R6”に対応し、ブレード摩耗は“0”であり、低スピードは“0”であり、インキ低粘度は“0”であり、インキ高粘度は“0”であり、インキ最高粘度は“1”である。“IMG03”に対応する第2特徴量C2は、ロール“R6”に対応し、ブレード摩耗は“0”であり、低スピードは“0”であり、インキ低粘度は“0”であり、インキ高粘度は“0”であり、インキ最高粘度は“1”である。“IMG04”に対応する第2特徴量C2は、ロール“R2”に対応し、ブレード摩耗は“1”であり、低スピードは“1”であり、インキ低粘度は“1”であり、インキ高粘度は“0”であり、インキ最高粘度は“0”である。“IMG05”に対応する第2特徴量C2は、ロール“R6”に対応し、ブレード摩耗は“0”であり、低スピードは“0”であり、インキ低粘度は“0”であり、インキ高粘度は“0”であり、インキ最高粘度は“1”である。“IMG06”に対応する第2特徴量C2は、ロール“R6”に対応し、ブレード摩耗は“0”であり、低スピードは“0”であり、インキ低粘度は“0”であり、インキ高粘度は“0”であり、インキ最高粘度は“1”である。
【0060】
図8は、実施形態2に係る演算結果の具体的な一例を示す図である。同図は、演算部54により演算された結果を示す。同図に示された数値は、係数ベクトルであり、各特徴量が推論結果に与える相対的な影響の大きさ(すなわち各特徴量の重要度)を表している。当該演算結果は、第2特徴量C2(ログ特徴量)及び第3特徴量C3(環境変数特徴量)と、欠陥の分類との関係を示すものである。なお、同図では、相対的に係数値の大きい部分(具体的には0.2以上)を強調している。本実施形態によれば、これらの演算結果から、分類時に必要な変数を特定することができる。なお、演算部54は、第2特徴量C2や第3特徴量C3の組合せごとに、物体のクラスごとの尤度を演算してもよい。
【0061】
[実施形態2のまとめ]
以上説明した実施形態によれば、二次元情報DIとは、物体を撮像した画像である。抽出部53は、画像である二次元情報DIを入力情報として、畳み込みニューラルネットワーク、Transformer、及び決定木の少なくともいずれかを用いて第1特徴量C1を抽出する。また、演算部54は、画像から抽出された第1特徴量C1に加え、第1特徴量C1とは異なる特徴量である第2特徴量C2または前記第1特徴量や前記第2特徴量とは異なる特徴量を取得する第3特徴量の少なくともいずれかに基づいてクラス分類を行う。したがって、本実施形態によれば、画像のみに基づいてクラス分類を行う場合と比べて、精度よくクラス分類を行うことができる。さらに、前記クラス分類と第2特徴量C2や第3特徴量C3の関係から、各特徴量やその組み合わせの重要度や、必要な特徴量の特定を行うことができる。
【0062】
[実施形態3]
次に、図9から図12を参照しながら、実施形態3について説明する。実施形態3は、実施形態1に係るシステム1を、半導体の製造工程に適用した場合の具体例である。
【0063】
図9は、実施形態3に係る判定方法の概要について説明するための図である。同図を参照しながら本実施形態において用いられる判定モデルの概要について説明する。本実施形態において、判定装置50の判定対象となる物体Sとは、半導体製造用のウェハである。半導体製造用のウェハである物体Sに対する処理工程は、処理装置10により行われる。処理装置10により行われる処理工程とは、ウェハの製造工程におけるいかなる処理であってもよい。処理工程の具体例としては、露光工程であってもよいし、エッチング工程であってもよいし、ウェハ検査工程等であってもよい。
【0064】
(ステップS11)まず、判定装置50は、二次元情報DIとしてウェハマップ(Wafer Map Data)を取得する。ウェハマップは、処理装置10により取得されてもよいし、処理装置10により処理が行われた後、不図示の検査装置により取得されてもよい。ウェハマップとは、不良を有する箇所と、不良を有しない箇所とが、二次元座標上に二値以上により表された情報である。
【0065】
(ステップS12)次に、二次元情報DIに基づく第1の判定が行われる。第1の判定では、ウェハマップが不良を表す不良クラスのいずれかに属するか否かの大まかな分類が行われる。第1の判定とは、すなわち、不良クラスか不良クラスでないかの、2クラス分類であるということもできる。第1の判定により不良を有していないと判定された場合、当該ウェハについては処理を終了する。第1の判定により、不良を有していると判定された場合、処理がステップS13に進められる。
【0066】
(ステップS13)次に、第2の判定が行われる。第2の判定では、ウェハマップの不良の種類について判定される。第2の判定は、判定装置50により行われる。すなわち、本実施形態に係る判定装置50により判定される物体のクラスとは、ウェハごとの不良を分類したものである。判定装置50は、物体のクラスごとの尤度を判定してもよい。クラスは、例えば、ウェハ上のどの部分に不良が発生しているかに基づいて分類され、“Loc”、“Edge-Loc”、及び“Center”等により表され、例えば7~100種類程度に分類されていてもよい。
【0067】
ここで、第1の判定と第2の判定の相違点について説明する。第1の判定とは、二次元情報DIのみに基づく、大まかな判定である。第2の判定とは、二次元情報DIに加え、更なる特徴量に基づく詳細な判定である。すなわち、第1の判定と第2の判定とは、判定に用いる入力情報は同じでなくてもよいということもできる。また、第1の判定では、不良を表す不良クラスのいずれかに属するか否かの大まかな2クラス分類が行われるのに対し、第2の判定では、不良の種類を分類する詳細なクラス分類が行われる点において両者は相違する。なお、第2の判定は、二次元情報DIに加えて更なる特徴量に基づく場合の一例に限定されず、二次元情報DIのみに基づくものであってもよい。また、第1の判定に対する入力情報と、第2の判定に対する入力情報とは、同一のものであってもよい。この場合、第1の判定に用いられる分類器と第2の判定に用いる分類器は同じであり、判定すべきクラス数が異なるよう構成されていてもよい。この場合、第1の判定において不良クラスに対しては、不良の種類によらず「不良クラス」(良品クラス=noneではない)のラベルが付されてもよい。
【0068】
図10は、実施形態3に係る二次元情報の一例について示す図である。同図を参照しながら、実施形態3に係る二次元情報DIの一例について説明する。同図は、二次元情報DIとしてのウェハマップに発生する不良のクラス分類が示されている。図10(A)乃至図11(H)は、それぞれ異なる不良の分類を有するものである。図10(A)乃至図11(H)の各図に示された円形は、ウェハの外円を示している。ウェハの内側において、色の薄い箇所が不良発生箇所を示している。また、ウェハの内側において、色の濃い箇所が不良を有していない箇所を示している。
【0069】
図10(A)は、“none”(即ち、不良クラスでない)に分類されるものであり、不良の数が所定値以下であることを示す。図10(B)は、“Loc”に分類されるものであり、ウェハの外円部または中心部以外のいずれかの箇所に集中して不良が発生していることを示す。図10(C)は、“Edge-Loc”に分類されるものであり、ウェハ上のいずれかの箇所であって、ウェハのエッジ付近(外円付近)に集中して不良が発生していることを示す。図10(D)は、“Center”に分類されるものであり、ウェハの中心部分に不良が発生していることを示す。図10(E)は、“Edge-Ring”に分類されるものであり、ウェハの外円に沿った部分に不良が発生していることを示す。図10(F)は、“Scratch”に分類されるものであり、ウェハのいずれかの場所に傷のような線が入っていることを示す。図10(G)は、“Random”に分類されるものであり、不良の数が所定値以上であるが、不良箇所がウエハ全面にランダムに発生していることを示す。図10(H)は、“Donut”に分類されるものであり、不良箇所がウェハの中心部分を中心としたドーナッツ状に発生していることを示す。
【0070】
図11は、実施形態3に係る特徴量の抽出について説明するための図である。図示するように、抽出部53には、二次元情報DIが入力される。二次元情報DIとは、具体的には、上述したようなウェハマップである。抽出部53には、図9を参照しながら説明したステップS11における第1の判定により、不良を有していると判定された二次元情報DIのみが入力されてもよい。本実施形態において、抽出部53は、畳み込みニューラルネットワークにより第1特徴量C1を抽出する。抽出部53には、複数の畳み込み演算層と、複数のプーリング層とが含まれる。抽出部53により、複数回の畳み込み演算と、プーリング演算が行われた結果、第1特徴量C1を得ることができる。また、二次元情報DIをラドン変換した特徴量C3を得る。さらに、本実施形態によれば、抽出された第1特徴量C1と、第2特徴量C2と、第3特徴量C3とに基づき判定が行われる。第1特徴量C1と第2特徴量C2と第3特徴量C3とは、互いに異なる特徴量である。第2特徴量C2の一例としては、半導体の製造プロセスにおける様々な製造パラメータや、環境情報等を用いることができる。また、第3特徴量C3の一例としては、ラドン特徴量を用いることができる。ラドン特徴量とは、二次元情報DIからランド変換されたものであってもよい。第1特徴量C1及び第2特徴量C2は、演算部54に含まれる全結合層または出力層に入力される。当該全結合層は、抽出部53により抽出された第1特徴量C1と、取得された第2特徴量C2とを入力情報として、所定の次元に変換した出力情報を生成する。また、当該出力層は、前記出力情報、または抽出部53により抽出された第1特徴量C1と取得された第2特徴量C2、を入力情報として、物体のクラスに関する判定を行う。当該出力層は、例えば物体のクラスごとの尤度を判定してもよい。
【0071】
図12は、実施形態3に係るラドン特徴量の一例について説明するための図である。本実施形態によれば、分類精度をさらに向上させるため、ラドン特徴量を付与した全結合層や出力層での演算が行われてもよい。図12(A)乃至図12(H)は、それぞれ図10(A)乃至図10(H)に示したウェハマップをラドン変換した結果として得られたものである。また、ラドン特徴量に限らず、Tensor voting等の手法を用いて導いた特徴量を用いてもよい。判定装置50は、このように二次元情報DIやその付帯情報から得られた特徴量に基づき、クラス分類を行ってもよい。クラス分類とは、いずれかのクラスに分類することであってもよいし、クラスごとの尤度を判定することであってもよい。
【0072】
[実施形態3のまとめ]
以上説明した実施形態によれば、二次元情報DIとは、物体Sのうち不良を有する箇所と、不良を有しない箇所とを、二次元座標上に二値以上により表した情報である。二次元情報DIとは、具体的には、ウェハマップであってもよい。抽出部53は、当該ウェハマップを入力情報として、畳み込みニューラルネットワーク、Transformer、決定木、及び集団学習の少なくともいずれかを用いて第1特徴量C1を抽出する。また、演算部54は、ウェハマップから抽出された第1特徴量C1に加え、第1特徴量C1とは異なる特徴量である第2特徴量C2や第3特徴量C3に基づいてクラス分類を行う。したがって、本実施形態によれば、ウェハマップのみに基づいてクラス分類を行う場合と比べて、精度よくクラス分類を行うことができる。
【0073】
[実施形態4]
次に、図13及び図14を参照しながら、実施形態4について説明する。実施形態4は、演算部54の学習段階についての具体例である。本実施形態に係る判定装置50が、実施形態2に示したような産業用印刷工程に適用されたり、実施形態3に示したような半導体の製造工程に適用されたりする場合、学習用のデータとなり得るサンプル数がごく僅かであり、かつ欠陥特徴が少ない場合がある。欠陥特徴が少ない場合とは、例えば、欠陥部分が微小であり、色差が小さい場合等がある。また、欠陥が起こる頻度が稀である種類の欠陥については、サンプルを取得すること自体が困難である。そこで、本実施形態においては、少ないサンプルから学習が可能な手法について説明する。演算部54の学習は、例えば学習装置70により行われる。
【0074】
図13は、実施形態4に係る学習装置の機能構成の一例を示す機能構成図である。同図を参照しながら、本実施形態に係る学習装置70の機能構成の一例について説明する。学習装置70は、二次元情報取得部71と、第2特徴量取得部72と、拡張部73と、抽出部74と、クラス情報取得部75と、学習部76と、第3特徴量取得部77とを備える。これらの各機能部は、例えば、電子回路を用いて実現される。また、各機能部は、必要に応じて、半導体メモリや磁気ハードディスク装置などといった記憶手段を内部に備えてよい。また、各機能を、CPUを有するコンピュータおよびソフトウェアによって実現するようにしてもよい。また、各機能部の全てまたは一部は、ASIC、PLD又はFPGA等のハードウェアを用いて実現されてもよい。また、各機能部の全部または一部は、ソフトウェアとハードウェアとの組み合わせにより実現されてもよい。また、学習装置70の機能の全部または一部は、クラウドサーバ等の外部機器に設けられたハードウェア等を用いて実現されてもよい。また、学習装置70は、複数の装置で構成され、各機能ブロックが複数の装置に分散されていてもよい。
【0075】
二次元情報取得部71は、二次元情報取得装置20から、二次元情報を取得する。二次元情報取得部71は、学習対象である物体Sについての二次元情報を取得する。例えば、実施形態2に示したような産業用印刷工程に適用される場合、二次元情報とは、ラベルを撮像した画像であってもよい。また、実施形態3に示したような半導体の製造工程に適用されたりする場合、二次元情報とは、ウェハマップであってもよい。二次元情報取得部71は、取得した二次元情報を、二次元情報DIとして拡張部73に出力する。
【0076】
第2特徴量取得部72は、特徴量取得装置30から、特徴量を取得する。第2特徴量取得部72により取得される特徴量を第2特徴量とも記載する。第2特徴量取得部72は、取得した特徴量を、第2特徴量C2-1として拡張部73に出力する。第2特徴量C2-1は、二次元情報取得部71により取得される二次元情報DIに対応するものである。
【0077】
第3特徴量取得部77は、第3特徴量を取得する。第3特徴量とは、例えば、二次元情報DIをラドン変換することにより取得された特徴量である。第3特徴量取得部77は、取得した特徴量を、第3特徴量C3-1として拡張部73に出力する。第3特徴量C3-1は、二次元情報取得部71により取得される二次元情報DIに対応するものである。
【0078】
拡張部73は、取得した二次元情報DIに基づき、複数の拡張二次元情報を生成する。拡張二次元情報の生成は、例えば、元の二次元情報DIを増幅することにより行われてもよい。拡張部73は、拡張二次元情報を生成することにより、学習用データセットのサイズと品質を向上させることができる。
【0079】
図14は、実施形態4に係る二次元情報のデータ拡張の主要な種類について説明するための図である。同図を参照しながら、拡張二次元情報の生成の具体的な一例について説明する。
第1に、二次元情報DIの“水平反転”を例示することができる。これは、二次元情報DIを水平方向に反転することにより、元の二次元情報DIとは異なるデータを作成することである。
第2に、二次元情報DIの“クロップ”を例示することができる。これは、二次元情報DIを上下左右4[px(ピクセル)]の小領域をクロップすることにより、元の二次元情報DIから複数のデータを作成することである。
第3に、二次元情報DIの“回転”を例示することができる。これは、二次元情報DIをCW方向又はCCW方向に10[°(度)]回転させることにより、元の二次元情報DIとは異なるデータを作成することである。
第4に、二次元情報DIの“ランダムズーム”を例示することができる。これは、例えば75[%]から125[%]程度の範囲で、二次元情報DIを拡大又は縮小することにより、元の二次元情報DIとは異なるデータを作成することである。
第5に、二次元情報DIの“カラーシフト”を例示することができる。これは、元の二次元情報DIの画素値をプラスマイナス50の範囲で異ならせることにより、元の二次元情報DIとは異なる画素値を有するデータを作成することである。
第6に、二次元情報DIの“ランダム消去”を例示することができる。これは、元の二次元情報DIから、4[px]×12[px]の矩形を、例えば50[%]の確率で消去することにより、元の二次元情報DIの画素情報が欠落したデータを作成することである。
第7に、二次元情報DIの“ミックスアップ”を例示することができる。これは、2つ以上の二次元情報DIを元データとし、合成することにより新たなデータを生成することである。二次元情報DIの合成は、例えばパラメータを0.5とし、ベータ分布に沿って行われてもよい。
第8に、二次元情報DIの“オートコントラスト”を例示することができる。これは、確率を例えば50[%]とし、オートコントラストを行うことにより、元の二次元情報DIとは異なるデータを作成することである。
【0080】
なお、拡張部73は、上述したような手法以外の手法により、元の二次元情報DIから1以上の新たなデータを作成してもよい。また、拡張部73は、上述したような手法を複数組み合わせることにより、元の二次元情報DIから1以上の新たなデータを作成してもよい。
【0081】
図13に戻り、拡張部73は、元の二次元情報DIと、当該二次元情報DIから拡張したデータを、拡張二次元情報EDIとして抽出部74に出力する。また、拡張部73は、拡張二次元情報EDIに対応する第2特徴量C2を、第2特徴量C2-2として学習部76に出力する。第2特徴量C2-2は、具体的には、元の二次元情報DIに対応する第2特徴量C2であってもよい。また、拡張部73は、拡張二次元情報EDIに対応する第3特徴量C3を、第3特徴量C3-2として学習部76に出力する。第3特徴量C3-2は、具体的には、元の二次元情報DIに対応する第3特徴量C3であってもよい。
【0082】
なお、第2特徴量が存在しないサンプルに対しては、人工データを生成して用いることもできる。(この人工データは、精度改善のためにも用いることもできる)。人工データの生成について説明する。まず、二次元情報DIと、当該二次元情報DIに対応するクラス情報とから、クラスのそれぞれに対し、二次元情報DIのなかで特定の値に一致する要素の密度(例えば、不良率/Defect Rate=該当要素数/全要素)を計算する。次に、計算された密度を含む二次元情報DIの属性値を複数のサンプルについて集約した分布に基づき、新たな属性(新属性)を導出する。更に、新属性追加部により、導出された新属性をサンプルの新属性として追加する。新属性は連続値から区間変量など離散値に集約してもよい(例えばDefect rateのGMMクラスタリング結果のクラスター等)。クラスと新属性の対に対して、クラス内で共通な特徴量(共通特徴量)と新属性に固有の特徴量(固有特徴量)を定め、クラス・新属性の水準ごとに共通特徴量と固有特徴量を対応付けておく。対応付けられた特徴量を、クラス・新属性別特徴量と記載する。あるサンプルの所属するクラスと二次元情報から導いた新属性の水準に対応する、クラス・新属性別特徴量を対応付け、第2特徴量C2-2としてもよい。
【0083】
抽出部74は、取得した拡張二次元情報EDIそれぞれから、特徴量を抽出する。特徴量の抽出には、畳み込みニューラルネットワーク等が用いられてもよい。また、拡張二次元情報EDIそれぞれから、別途、ラドン特徴量等を抽出してもよい。抽出部74は、拡張二次元情報EDIから抽出された特徴量を第1特徴量C1として学習部76に出力する。
【0084】
クラス情報取得部75は、物体Sを所定の判定基準に基づいて分類したクラスに関する情報を取得する。学習用のデータセットとしてのクラス分類は、例えば人間により行われてもよいし、所定の判定基準に基づいて機械的に行われてもよい。クラス情報取得部75は、分類したクラスに関する情報をクラス情報CLとして拡張部73及び学習部76に出力する。
【0085】
学習部76は、拡張二次元情報EDIに基づき抽出された第1特徴量C1と、第2特徴量C2-2とに基づき、クラス情報CLに示されるクラスを推定するよう機械学習モデルを学習させる。当該機械学習モデルとは、推論時において演算部54に含まれるものであってもよい。
【0086】
なお、本実施形態において、学習装置70は、必ずしも拡張部73を備えていなくてもよい。例えば、学習用のデータセットが十分である場合、拡張部73を備えることによるデータセットの拡張を行わず、取得されたデータセットに基づいて学習が行われてもよい。
【0087】
[実施形態4のまとめ]
以上説明した実施形態によれば、学習装置70は、二次元情報取得部71を備えることにより、判定対象である物体Sについての二次元情報DIを取得し、クラス情報取得部75を備えることにより、物体Sを所定の判定基準に基づいて分類したクラスに関する情報を取得し、第2特徴量取得部72を備えることにより、物体Sに関する特徴量であって、二次元情報DIから抽出される第1特徴量C1とは異なる第2特徴量C2を取得し、学習部76を備えることにより、二次元情報取得部71により取得された二次元情報DIに基づき抽出された第1特徴量C1と、第2特徴量取得部72により取得された第2特徴量C2と、に基づき、クラスを推定するよう機械学習モデルを学習させる。すなわち、本実施形態によれば、二次元情報DIのみならず、二次元情報DIに対応する第2特徴量C2にも基づいて、クラスを推定するよう機械学習モデルを学習させる。本実施形態に係る学習装置70により学習された機械学習モデルは、二次元情報DIのみに基づいて学習された場合と比較して、精度よくクラス分類の推定を行うことができる。また、実施形態2と同様に、第2特徴量C2の影響度を特定することもできる。
【0088】
また、上述した実施形態によれば、拡張部73を更に備えることにより、取得した二次元情報DIに基づき、複数の拡張二次元情報EDIを生成する。学習部76は、生成された拡張二次元情報EDIに基づき抽出された第1特徴量C1と、第2特徴量取得部72により取得された第2特徴量C2とに基づき、クラスを推定するよう機械学習モデルを学習させる。したがって、本実施形態によれば、少ないサンプルからデータを拡張することができる。学習装置70は、拡張されたデータに基づいて学習を行う。したがって、本実施形態によれば、少ないサンプルからも、機械学習モデルを学習させることができる。
【0089】
[実施形態5]
次に、図15を参照しながら、実施形態5について説明する。実施形態5は、学習装置70による学習を行う際の教師データの作成段階についての具体例である。本実施形態に係る学習装置70が学習のために用いるデータセットによっては、欠陥が起こる頻度が稀であり、サンプルを取得することが困難である場合がある。また、それらの欠陥が組み合わされている場合も存在し、そのようなデータセットを取得することは、確率的に非常に困難である。そこで、本実施形態においては、希少な欠陥を有するデータセットを作成可能な手法について説明する。教師データの作成は、例えば教師データ作成装置80により行われる。
【0090】
図15は、実施形態5に係る教師データ作成装置の機能構成の一例を示す機能構成図である。同図を参照しながら、本実施形態に係る教師データ作成装置80の機能構成の一例について説明する。教師データ作成装置80は、二次元情報取得部81と、第2特徴量取得部82と、選択部831と、重ね合わせ部832と、統合部84と、欠損付与部85と、出力部86と、クラス情報取得部87と、第3特徴量取得部881と、第3特徴量結合部882とを備える。これらの各機能部は、例えば、電子回路を用いて実現される。また、各機能部は、必要に応じて、半導体メモリや磁気ハードディスク装置などといった記憶手段を内部に備えてよい。また、各機能を、CPUを有するコンピュータおよびソフトウェアによって実現するようにしてもよい。また、各機能部の全てまたは一部は、ASIC、PLD又はFPGA等のハードウェアを用いて実現されてもよい。また、各機能部の全部または一部は、ソフトウェアとハードウェアとの組み合わせにより実現されてもよい。また、教師データ作成装置80の機能の全部または一部は、クラウドサーバ等の外部機器に設けられたハードウェア等を用いて実現されてもよい。また、教師データ作成装置80は、複数の装置で構成され、各機能ブロックが複数の装置に分散されていてもよい。
【0091】
なお、本実施形態において、教師データとは、機械学習モデルの学習用に用いられるデータセットを広く意味する。教師データの使用用途は、学習時に限定されず、学習済みモデルの検証用に用いられるものであってもよい。
【0092】
二次元情報取得部81は、二次元情報取得装置20から、複数の二次元情報を取得する。二次元情報取得部81は、教師データの作成対象である物体Sについての二次元情報を取得する。例えば、実施形態2に示したような産業用印刷工程に適用される場合、二次元情報とは、ラベルを撮像した画像であってもよい。また、実施形態3に示したような半導体の製造工程に適用されたりする場合、二次元情報とは、ウェハマップであってもよい。二次元情報取得部81は、取得した複数の二次元情報を、二次元情報DIとして選択部831に出力する。
【0093】
クラス情報取得部87は、物体Sのクラスに関する情報を取得する。クラス情報取得部87は、物体Sのクラスに関する情報をクラス情報CLとして、選択部831、重ね合わせ部832、第2特徴量結合部821、第3特徴量取得部881、第3特徴量結合部882、及び統合部84に出力する。
【0094】
選択部831は、取得された複数の二次元情報DIのうち、所定の選択アルゴリズムに基づき、2以上の二次元情報DIを選択する。選択部831により選択される複数の二次元情報DIとは、重ね合わせの対象となる二次元情報DIである。選択部831は、選択した2以上の二次元情報DIを選択二次元情報SDIとして重ね合わせ部832に出力する。
【0095】
重ね合わせ部832は、選択部831により選択された2以上の二次元情報DIを重ね合わせることにより、重ね合わせ二次元情報OLDIを作成する。重ね合わせ二次元情報OLDIは、重ね合わせの元となった複数の二次元情報DIそれぞれが有する特徴が重ねあわされたものである。なお、重ね合わせ二次元情報OLDIは、そのまま機械学習モデルの学習又はテストに用いられる教師データとなってもよい。
【0096】
第2特徴量取得部82は、特徴量取得装置30から、特徴量を取得する。第2特徴量取得部82により取得される特徴量を第2特徴量とも記載する。第2特徴量取得部82は、取得した特徴量を、統合部84に出力する。第2特徴量C2は、二次元情報取得部81により取得される二次元情報DIに対応するものである。
【0097】
第2特徴量結合部821は、重ね合わせられた二次元情報OLDIに対応する結合第2特徴量OLC2を作成する。作成された結合第2特徴量OLC2は、統合部84に出力される。
【0098】
第3特徴量取得部881は、第3特徴量を取得する。第3特徴量取得部881は、取得した特徴量を、統合部84に出力する。第3特徴量C3は、二次元情報取得部81により取得される二次元情報DIに対応するものである。
【0099】
また、第3特徴量結合部882は、重ね合わせられた二次元情報OLDIに対応する結合第3特徴量OLC3を作成する。作成された結合第3特徴量OLC3は、統合部84に出力される。
【0100】
統合部84は、重ね合わせ部832から重ね合わせ二次元情報OLDIを取得し、第2特徴量結合部821から結合第2特徴量OLC2を取得し、第3特徴量結合部882から結合第3特徴量OLC3を取得する。統合部84は、取得した結合第2特徴量OLC2及びを結合第3特徴量OLC3を、重ね合わせ二次元情報OLDIに統合する。統合部84は、統合した情報を統合情報CIとして欠損付与部85に出力する。
【0101】
欠損付与部85は、統合部84から統合情報CIを取得し、取得した情報に欠損を付与する。欠損の付与とは、例えば特徴量や画素の値を変更することであってもよい。欠損付与部85は、所定の確率分布又は乱数に基づき、教師データの特徴量や画素のそれぞれに対して、欠損を有することを示す情報を付与してもよい。また、欠損付与部85は、教師データに対して付与する欠損の種類に応じて、好適な範囲に対して、特徴量や画素の値を変更してもよい。なお、欠損付与部85による処理は、必ずしも実行されることを要しない。
【0102】
出力部86は、欠損付与部85により欠損が付与された後の情報を教師データTDとして出力する。出力部86により出力された教師データTDは、所定の記憶装置(不図示)に記憶されてもよい。記憶装置に記憶された教師データTDは、学習装置70により学習のために用いられてもよいし、判定装置50の検証のために用いられてもよい。
【0103】
[実施形態5のまとめ]
以上説明した実施形態によれば、教師データ作成装置80は、二次元情報取得部81を備えることにより、判定対象である物体Sについての二次元情報を複数取得し、選択部831を備えることにより、取得された複数の二次元情報のうち、所定の選択アルゴリズムに基づき2以上の二次元情報を選択し、重ね合わせ部832を備えることにより、選択された2以上の二次元情報を重ね合わせ、重ね合わせ二次元情報OLDIを作成する。第2特徴量取得部82を備えることにより、物体Sに関する特徴量であって、二次元情報から抽出される第1特徴量C1とは異なる第2特徴量C2を取得し、第2特徴量結合部821を備えることにより、教師データに対応する結合第2特徴量OLC2を作成し、統合部84を備えることにより、第2特徴量C2を教師データTDに統合し、機械学習モデルの学習又はテストに用いられる教師データを作成する。すなわち、本実施形態によれば、複数の分類が有する特徴を併せ持つ教師データを作成することができる。さらに本実施形態において作成された教師データには、第2特徴量C2が統合されていることから、二次元情報DIと第2特徴量C2に基づいた学習をするための教師データを作成することができる。
【0104】
[実施形態6]
次に、図16から図23を参照しながら、重ね合わせ分類の具体例について説明する。
【0105】
図16は、重ね合わせを行った二次元情報の一例である。同図には、具体的には、図10(D)に示した“Center”の欠陥と、図10(F)に示した“Scratch”の欠陥とを組み合わせた場合の一例が示されている。
【0106】
本実施形態においては、オープンなデータセットであるWM-811Kを使用する。このデータセットは、実際の大量生産で最終製品テストに記録されるものである。1枚のウェハには、数百個から数万個の小さな直方体(いわゆるダイ)のチップが搭載され、各ダイのオリジナルのラベルは1(良)、2(不良)、または0(製品の外部)である。さらに、クラスラベルは、ドメインに関する知識を持つエンジニアによって、合計172950枚のサンプルに貼付されている。このデータは、欠陥パターンの分類問題の研究に広く利用されている。製品の組み合わせや技術の組み合わせによる製品の分解、クラス間のデータの不均衡、特定の欠陥クラスのウェハであっても、全てのサンプルにランダム原因の欠陥が現れるなど、多くの異なる解決方法が困難である。さらに、2つ以上のクラスの上位部分が、共通または異なる原因に対応している。クラスラベルを持つ二次元情報のデータの他に、カラム数や行数、ダイサイズ、欠陥率などのウェハ属性もテストログに記録される。ただし、WM-811Kに付加された厳密な重ね合わせクラスラベルは存在しない。したがって、本実施形態においては、図示するような、合成データセットが生成される。
【0107】
図17は、重ね合わせを行った二次元情報の一例である。同図には、不良7クラス全ての重ね合わせ事例である。重ね合わせ部832は、重ね合わせ対象となる所定クラスのサンプルを、所定数(例えば一つずつ)ランダムにサンプリングし、それらのウェハマップの各ダイ(画素)について、論理和演算する。ただし、ウェハ外のダイはウェハ外のラベルのままとする。重ね合わせ部832は、このような演算により、図示するようなデータセットを生成する。なお、論理和演算の前に、予め各ダイのラベルを、不良の場合0、良品の場合1,ウエハ領域外はそれ以外の数値(ー1など)に変換する前処理を施しておく。
【0108】
図18は、重ね合わせ部832が行う演算の詳細について説明するための図である。重ね合わせ部832は、重ね合わせ対象となる所定クラスのサンプルに付帯している特徴量について、a)0―1変数は、論理和演算または多数決演算し、b)数値変量は、基本統計量等の値とする。
【0109】
表内のX1~X116の特徴量は、0-1変数とする。X1~X116の特徴量のうち、X1~X5は、全クラスに共通の特徴量(=不良に関係ない不正解なランダム特徴量)であり、X42~X47はCenterクラスに係る特徴量であり、X93~X101はScratchクラスに係る特徴量である。具体的に、重ね合わせクラスの特徴量は、図18の最も下に示す表のようになる。
【0110】
なお、ここでは、各行は、各クラスとクラスター(failure Class, Cluster)の対に対する特徴量の対応を表している。ここでのクラスターは、各クラスのサンプルの二次元情報の付帯情報であるDefectRate(不良画素率)を用いて混合ガウス分布に基づくクラスタリングを実行し、AIC(赤池情報量規準)またはBIC(ベイズ情報量規準)に基づき最適なクラスター数を規定した上で編成したクラスターである。また、元クラスのそれぞれについて、各クラスターに該当するDefectRateの区間が対応づいている。各学習サンプルでは、元クラスおよびDefectRateから特定できるクラスターから、対応する特徴量を対応付けられる(これは一例である)。なお、重ね合わせ不良サンプルに対して特徴量データが得られる場合は、単にそれを合わせて使えばよい。そこで好適な特徴量編成ができていれば、前述に類似する重ね合わせ不良サンプルに対する特徴量データを取得できる。
【0111】
第3特徴量は、例えば、検査ログなどに該当する。これは、上述した実施形態2及び実施形態3のいずれについても共通である。以下、第3特徴量の結合について、実施形態3における半導体ウェハの事例を用いて、具体的に説明する。
【0112】
第3特徴量の元情報は、例えば図19の通りである。
【0113】
ある重ね合わせSPの対象となる所定クラス(c∈C(SP))の選択されたサンプルに付帯している特徴量の重ね合わせ処理は、以下の(1)から(3)のようになる。なお、特徴量の違いにより、何種かのバリエーションがある。
【0114】
(1)半導体ウェハマップの画素の数に関する、CountPixcel(ダイ総数)やCountRow(行数)、RountColumn(列数)については、重ね合わせるウェハマップWMのすべての画素数をリサイズ処理によりに統一する。例えば、S1行S2列、画素数S1xS2、に統一する。
【0115】
(2)半導体ウェハマップ上の不良ダイ比率を示すDefectRateについては、リサイズ後のピクセル毎に、その要素値(例:良品ダイ:0、不良ダイ: 非ゼロ値→1に変換等)の論理和v(i,j)や表色系の何らかの演算をした上で、重ね合わせSPのウェハに対する次の式(1)を、各重ね合わせサンプルについて導出する。
【0116】
【数1】
【0117】
なお、論理和は、例えば、次の式(2)により導出される。
【0118】
【数2】
【0119】
印刷のログ特徴量のサイズについても、重な合わせ結果として、前述同様のピクセル毎の導出結果に基づき導出できる。その処理結果と所定基準によりランクを導出することができる。
【0120】
(3)印刷のログ特徴量の欠点数は、元サンプルの欠点数の加算値とする。また、最大値などの基本統計量を用いてもよい。
【0121】
次に、重ね合わせデータの学習結果について説明する。
【0122】
2クラス重ね合わせ(2―class SP、図23のClassNo.8~28の21クラス)は、組合せが多く、また、不良ダイの密度が低いため、重ね合わせクラスの互いの識別や1クラスとの識別が難しい問題である。現に、数値検証結果(図20)から、特徴量なしの場合(欠損率100%)は、分類精度は70%未満と低い。(同表の最下行の最左、0.6939)他方、特徴量を追加した場合は、特徴量の欠損率が80%と非常に高い場合であっても、分類精度90%以上を達成している。
さらに、欠損率が40%以下の場合には、99.6%以上と100%に近い分類精度を達成できている。(表の最下行で、3列目以降:”The rate of missing value on the causal variables“が0.8, 0.6, 0.4, 0.2, 0.0の列)
【0123】
図21は、6クラス重ね合わせと7クラス重ね合わせを合わせた分類問題のクラス定義を示す図である。同図には、6クラス重ね合わせ(6―class SP)は、7クラス重ね合わせ(All)から除いたクラスを“-XXX”と記している。
例えば、”Loc”以外の6クラスすべてを重ね合わせた場合のクラスClassNo.=101は、重ね合わせクラス定義を示す列SP Definition=“All - Loc”と表記している。
【0124】
図22は、重ね合わせ情報の分類結果例を示している、同図には、不良7クラスと6クラスの全ての重ね合わせの組合せのクラスが示されている。6クラスと7クラスを合わせた分類問題は、不良密度が高く識別の難易度が高い問題となる。その場合でも、第2特徴量を用いた場合、各特徴量の欠損率が60%以下で分類精度が約87%以上、欠損率40%以下では95%以上の高精度な分類を達成している。他方、特徴量なし(欠損率100%)の場合は、40.5%と精度が低い。
【0125】
前記集合値は、例えば、あるクラスに該当するサンプルの不良率(二次元情報上の不良画素率)の分布に対して、混合ガウスモデルに基づくクラスタリングを実行し、また、赤池情報量規準やベイズ情報量規準に基づいてクラスター数を最適化し、当該クラスの最適クラスター数の条件下で導いたクラスターの識別子と識別条件(例:各クラスターに該当する不良率の範囲)を指す。これは、単純に各サンプル(ID)に紐づいた二次元情報と第2特徴量を追加している形態とは異なる。
【0126】
二次元情報は、不良の位置や形状を表すのに対して、集合値は不良の密度や寸法に係るサンプル集合に対する相対的情報を提供する。この2者を用いることで、クラスの判別精度を高め、不良原因の特定を可能にする。
【0127】
少し具体的に説明する。一般に、不良クラスとそれを発生させる原因系の工程は対応づいていることが多く、従って、クラスの特定により不良原因となった工程の候補を絞ることは可能である(1:mなど)。ただし、不良の直接の原因となった「工程変量」(工程の材料・方法・処理装置・情報等)との対応関係を得るためには、クラスの階層では不十分である。ここで、クラスの下位に位置するクラスター(あるいは不良率その他の付帯情報の分布から得た特徴量)は、不良の直接原因を表す工程変量の特定の水準や複数変量の特定水準の組合せによる影響とよく対応する。このことは、仮想計測(ソフトセンサー)等の研究で明らかになっている。つまり、クラス(不良の位置、形状による分類識別子)とクラスター(不良の密度や寸法、重篤度等を表す)の両方によってはじめて、直接の不良原因である工程変量と対応づけられるようになる。
【0128】
また、重ね合わせクラス分類では、多様なクラスと不良率の混合した重ね合わせ結果のみが二次元情報に現れる。この二次元情報のみ(から導いた第1特徴量)からは、重ね合わせ元クラスを特定することはできない。また、第2特徴量の単なる追加では、前述の通り、クラスと工程変量を関係づけるクラスター等が不在で、従って、第2特徴量追加による精度改善効果は限定的となる。
【0129】
(第2特徴量と第3特徴量の定義について)
第2特徴量は、二次元情報とは独立に収集される原因系特徴量などの外部特徴量なのに対し、第3特徴量は、二次元情報やその付帯情報から導く、二次元情報と関連した内部特徴量、の位置づけを有する。これは、半導体ケースでも、印刷ケースでも同じである。
【0130】
[実施形態7]
第2特徴量は、不図示の第2特徴量取得部や第2特徴量抽出部において抽出されたものであってもよい。第2特徴量抽出には、交互作用モデリングの代表格であるSure Independence Screening(SIS)等のスクリーニング手法に基づく装置(方法)や、特徴量選択付きの因子分解機(Sparse Factorization Machines,SFM)を用いてもよい。SFMのうち、特に、L1ノルム正則化を用いて特徴量の単独の効果を推定する単独特徴量抽出部(ステップ)と、複数の特徴量の組合せである組合せ特徴量をL2ノルム正則化を用いて推定する組合せ特徴量抽出部(ステップ)と、さらに、上界を導入した正則化項を用いてすべての特徴量を推定する特徴量全体抽出部(ステップ)、を含むこと特徴とする交互作用モデリング装置(方法)を用いてもよい。このうち、TI上界を用いたSFM(TI―SFM(L1)と呼ぶ)は、本発明で提案する新たな形態であり、好適な一つである。
【0131】
各部を数式に対応させると、次の式(3)の通りとなる。
【0132】
【数3】
【0133】
右辺第2項=単独特徴量抽出部、右辺第3項=組合せ特徴量抽出部、右辺第4項:特徴量全体抽出部。ここで、ΩTI(P)が三角不等式 (Triangle-Inequality,TI)上界を表している。
ただし、先行研究では、特徴量の単独の効果推定にL2ノルムを用いる形態もあり、単独特徴量抽出部(ステップ)にL2ノルム正則化を含む装置(方法)を用いてもよい。また、特徴量全体抽出部(ステップ)としてCS上界ほかの上界を用いてもよい。
【0134】
なお、上述した実施形態におけるシステム1が備える各部の機能全体あるいはその一部は、これらの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
【0135】
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶部のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
【0136】
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
【0137】
なお、以上の実施形態において説明された発明を整理して、付記として開示する。
【0138】
(付記1)
判定対象である物体についての二次元情報やその付帯情報を取得する二次元情報取得部と、
前記二次元情報取得部により取得された前記二次元情報から第1特徴量を抽出する抽出部と、
前記物体に関する特徴量であって、前記第1特徴量とは異なる第2特徴量を取得する第2特徴量取得部と、複数のサンプルについての前記二次元情報や前記付帯情報から導いた集合値(例えば、サンプル集合の識別子と識別条件)と各サンプルの情報とを対応付けて各サンプルに(相対的な)集合値に係る情報を付与する第3特徴量生成部と、前記第3特徴量生成部により生成された集合値に係る情報である第3特徴量にもとづき前記第2特徴量のうち重要な第2特徴量を抽出する第2特徴量抽出部と、
前記抽出部により抽出された前記第1特徴量と、前記第2特徴量抽出部により抽出された第2特徴量を入力情報として、前記物体のクラス分類に関する演算を行う演算部と、
前記演算部により行われた演算の結果を出力する出力部と
を備える判定装置。
【0139】
(付記2)
付記1に記載した発明において、
前記集合値は、例えば、あるクラスに該当するサンプルの不良率(二次元情報上の不良画素率)の分布に対して、混合ガウスモデルに基づくクラスタリングを実行し、また、赤池情報量規準やベイズ情報量規準に基づいてクラスター数を最適化し、当該クラスの最適クラスター数の条件下で導いたクラスターの識別子と識別条件(例:各クラスターに該当する不良率の範囲)を指す。
先行特許のような、単純に各サンプル(ID)に紐づいた二次元情報と第2特徴量を追加している形態とは異なる。
二次元情報は、不良の位置や形状を表すのに対して、集合値は不良の密度や寸法に係るサンプル集合に対する相対的情報を提供する。この2者を用いることで、クラスの判別精度を高め、不良原因の特定を可能にする。
【0140】
一般に、不良クラスとそれを発生させる原因系の工程は対応づいていることが多く、従って、クラスの特定により不良原因となった工程の候補を絞ることは可能である(一般に、一対多の関係)。ただし、不良の直接の原因となった「工程変量」(工程の材料・方法・処理装置・情報等)との対応関係を得るためには、クラスの階層では不十分である。ここで、クラスの下位に位置するクラスター(あるいは不良率その他の付帯情報の分布から得た特徴量)は、不良の直接原因を表す工程変量の特定の水準や複数変量の特定水準の組合せによる影響とよく対応する。このことは、データ駆動で計測値等を推定・予測し物理的計測を代替する仮想計測(ソフトセンサー)等の研究で明らかになっている。つまり、クラス(不良の位置、形状による分類識別子)とクラスター(不良の密度や寸法、重篤度等を表す)の両方によってはじめて、直接の不良原因である工程変量と対応づけられるようになる。
また、重ね合わせクラス分類では、多様なクラスと不良率の混合した重ね合わせ結果のみが二次元情報に現れる。この二次元情報のみ(から導いた第1特徴量)からは、重ね合わせ元クラスを特定することはできない。また、第2特徴量の単なる追加では、前述の通り、クラスと工程変量を関係づけるクラスター等が不在で、従って、第2特徴量追加による精度改善効果は限定的となる。
【0141】
付記1に記載した発明は、以下の効果を奏することが期待される。
(1)単一クラスまたは重ね合わせクラスの分類を同一の学習機で実現することが可能。
(2)クラス分類の高精度化(単一クラス、重ね合わせクラス共)を図ることが可能。
(3)原因系特徴量の特定、特徴量の影響度(重要度)を抽出することが可能。(出力層で第2特徴量を結合する場合)
【0142】
第2特徴量と第3特徴量は、以下の点で相違する。
第2特徴量は、二次元情報とは独立に収集される原因系特徴量などの外部特徴量なのに対し、第3特徴量は、二次元情報やその付帯情報から導く、二次元情報と関連した内部特徴量である点で相違する。これは、半導体及び印刷の実施例においても同様である。
【0143】
第2特徴量は、前記工程の識別子や、工程の状態やイベントを表す各種変量(工程の各点における温度、湿度、圧力、電圧、材料投入量、動作速度、冷却又は加熱の程度、処理時間、保全後か否か、故障後か否か、稼働可能か否か、等)、あるいは、処理媒体の識別子や処理対象の識別子、等の情報である。
【0144】
第3特徴量は、二次元情報または二次元情報に付帯する付帯情報(例えば、不良率)の単一または多変量の分布(例えば、クラス別の不良率の分布)から導かれる特徴量(例えば、クラス別の不良率の分布(多峰分布含む)を混合ガウス分布モデルに基づきクラスタリングを実行した結果のクラスター、そのクラスターの識別条件と識別子、など)である。
【0145】
(付記3)
第2特徴量は、第2特徴量取得部や第2特徴量抽出部において、交互作用モデリングの代表格であるSure Independence Screening(SIS)等のスクリーニングや、特徴量選択付きの因子分解機(Sparse Factorization Machines,SFM)に基づく装置(方法)を用いてもよい。
SFMのうち、特に、以下の装置(方法)は、本発明により提案する好適な一つである。
L1ノルム正則化を用いて特徴量の単独の効果を推定する単独特徴量抽出部(ステップ)と、複数の特徴量の組合せである組合せ特徴量をL2ノルム正則化を用いて推定する組合せ特徴量抽出部(ステップ)と、さらに、上界を導入した正則化項を用いてすべての特徴量を推定する特徴量全体抽出部(ステップ)、
を含むこと特徴とする特徴量選択付きの因子分解機を備える交互作用モデリング装置(方法)
【0146】
(付記4)
付記1乃至付記3に記載した発明に、特許請求の範囲に記載された各発明を従属させた発明についても変形例としてもよい。
【符号の説明】
【0147】
1…システム、10…処理装置、20…二次元情報取得装置、30…特徴量取得装置、50…判定装置、51…二次元情報取得部、52…第2特徴量取得部、53…抽出部、54…演算部、55…出力部、56…第3特徴量取得部、57…クラス情報取得部、60…予備判定装置、70…学習装置、71…二次元情報取得部、72…第2特徴量取得部、73…拡張部、74…抽出部、75…クラス情報取得部、76…学習部、77…第3特徴量取得部、80…教師データ作成装置、81…二次元情報取得部、82…第2特徴量取得部、831…選択部、832…重ね合わせ部、84…統合部、85…欠損付与部、86…出力部、87…クラス情報取得部、881…第3特徴量取得部、882…第3特徴量結合部、821…第2特徴量結合部、C1…第1特徴量、C2…第2特徴量、C3…第3特徴量、S…物体、DI…二次元情報、EDI…拡張二次元情報、CL…クラス情報
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23