IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 三星電子株式会社の特許一覧

<>
  • 特開-オートラベリング方法及び装置 図1
  • 特開-オートラベリング方法及び装置 図2
  • 特開-オートラベリング方法及び装置 図3
  • 特開-オートラベリング方法及び装置 図4
  • 特開-オートラベリング方法及び装置 図5
  • 特開-オートラベリング方法及び装置 図6
  • 特開-オートラベリング方法及び装置 図7
  • 特開-オートラベリング方法及び装置 図8
  • 特開-オートラベリング方法及び装置 図9
  • 特開-オートラベリング方法及び装置 図10
  • 特開-オートラベリング方法及び装置 図11
  • 特開-オートラベリング方法及び装置 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024068120
(43)【公開日】2024-05-17
(54)【発明の名称】オートラベリング方法及び装置
(51)【国際特許分類】
   G06N 20/00 20190101AFI20240510BHJP
【FI】
G06N20/00 130
【審査請求】未請求
【請求項の数】20
【出願形態】OL
(21)【出願番号】P 2023173960
(22)【出願日】2023-10-06
(31)【優先権主張番号】10-2022-0145743
(32)【優先日】2022-11-04
(33)【優先権主張国・地域又は機関】KR
(71)【出願人】
【識別番号】390019839
【氏名又は名称】三星電子株式会社
【氏名又は名称原語表記】Samsung Electronics Co.,Ltd.
【住所又は居所原語表記】129,Samsung-ro,Yeongtong-gu,Suwon-si,Gyeonggi-do,Republic of Korea
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(74)【代理人】
【識別番号】100135079
【弁理士】
【氏名又は名称】宮崎 修
(72)【発明者】
【氏名】金 熙元
(72)【発明者】
【氏名】張 現盛
(72)【発明者】
【氏名】李 載允
(72)【発明者】
【氏名】▲ちょ▼ 基豪
(57)【要約】
【課題】 トレーニングデータセットのオートラベリングを提供する。
【解決手段】 一実施形態によれば、プロセッサによって実現される方法は、第1モデルによって検出された対応する信頼度及び第2モデルによって生成されて推定された修正ラベルに基づいて誤答ラベルを補正して取得された補正データサンプルを使用することを含み、トレーニングデータセットのデータサンプルに対するラベルの信頼度を予測するための第1モデルをトレーニングし、誤答ラベルに対して第1モデルによって生成された対応する信頼度に基づいて検出された誤答ラベルに対応する正解ラベルを推定することを含み、データサンプルに対する正解ラベルを推定するように第2モデルをトレーニングし、推定した他の正解ラベルによって誤答ラベルを自動補正する。
【選択図】図3
【特許請求の範囲】
【請求項1】
プロセッサによって実現される方法であって、
第1モデルによって検出された対応する信頼度及び第2モデルによって生成されて推定された修正ラベルに基づいて誤答ラベルを補正して取得された補正データサンプルを使用することを含み、トレーニングデータセットのデータサンプルに対するラベルの信頼度を予測するための第1モデルをトレーニングするステップと、
他の誤答ラベルに対して、前記第1モデルによって生成された前記対応する信頼度に基づいて検出された他の誤答ラベルに対応する更なる正解ラベルを推定することを含み、前記データサンプルに対する正解ラベルを推定するように前記第2モデルをトレーニングするステップと、
前記推定した他の正解ラベルによって前記他の誤答ラベルを自動補正するステップと、
を含む、方法。
【請求項2】
前記第1モデル及び前記第2モデルそれぞれのトレーニングは、前記トレーニングデータセットのラベルに対する信頼度に基づいて、誤答ラベルを検出するように前記第1モデルを繰り返しトレーニングし、正解ラベルを推定するように前記第2モデルを繰り返しトレーニングさせる繰り返しトレーニングであり、
前記繰り返しトレーニングは、
前記ラベルのそれぞれが正解に該当する第1確率及び誤答に該当する第2確率を含む前記信頼度を決定するステップと、
第1データサンプルで前記誤答ラベルを補正して取得した補正データサンプルを用いて前記信頼度を予測するために、前記第1モデルの第1パラメータを更新して前記第1モデルをトレーニングするステップと、
を含む、請求項1に記載の方法。
【請求項3】
ベルヌーイ分布に基づいて、前記正解ラベルを含む第2データサンプルをサンプリングすることによって前記トレーニングデータセットを前記誤答ラベルを含む第1データサンプルと前記正解ラベルを含む第2データサンプルとに分類するステップを含む、請求項2に記載の方法。
【請求項4】
前記第1パラメータを更新するステップは、前記補正したデータサンプルに対応する最大尤度に基づいて、前記第1モデルの第1パラメータを更新するステップを含む、請求項2に記載の方法。
【請求項5】
前記第1モデルをトレーニングするステップは、前記更新した第1パラメータに前記信頼度に対する正規化ペナルティのそれぞれを適用することによって前記第1モデルをトレーニングするステップを含む、請求項2に記載の方法。
【請求項6】
前記第1モデルをトレーニングするステップは、算出された交差エントロピーのロスに基づいて、前記第1モデルのパラメータ初期値を決定するステップをさらに含む、請求項1に記載の方法。
【請求項7】
前記第2モデルをトレーニングするステップは、
第1データサンプルの他の誤答ラベルに対応する他の正解ラベルの確率を推定するステップと、
前記他の正解ラベルの推定された確率を含む前記第1データサンプルを用いて、前記他の正解ラベルを推定するために前記第2モデルの第2パラメータを更新することにより前記第2モデルをトレーニングするステップと、
を含む、請求項1に記載の方法。
【請求項8】
前記トレーニングデータセットのデータサンプルを前記誤答ラベルを含む第1データサンプル及び前記信頼度の分布に基づいた前記正解ラベルを含む第2データサンプルに分類するステップをさらに含み、
前記データサンプルは、前記第1データサンプルがトレーニングデータ及び前記トレーニングデータに対応する前記誤答ラベルを含み、前記第2データサンプルがトレーニングデータ及び前記トレーニングデータに対応する正解ラベルを含むように混合されている、請求項1に記載の方法。
【請求項9】
前記トレーニングデータは、イメージセンサによって取得された半導体の映像データを含む、請求項8に記載の方法。
【請求項10】
前記第1モデル及び前記第2モデルそれぞれは、EM(Expectation Maximum)アルゴリズムを基盤にトレーニングされる、請求項1に記載の方法。
【請求項11】
データサンプルを第1モデルに印加することによって前記データサンプルに対するラベルが誤答ラベルであるか否かを検出するステップを含み、
前記第1モデルは、前記ラベルに対する信頼度に基づいて、前記データサンプルに含まれた誤答ラベルを検出するようにトレーニングされた第1神経網を含む、オートラベリング方法。
【請求項12】
前記データサンプルは、入力データ及び前記入力データに対応する前記ラベルを含み、
前記オートラベリング方法は、前記ラベルが前記誤答ラベルであるという決定により、前記入力データを第2モデルに印加することによって前記誤答ラベルに対応する正解ラベルを生成するステップをさらに含み、
前記第2モデルは、前記誤答ラベルを含むデータサンプルに対応する前記正解ラベルを推定するようにトレーニングされた第2神経網を含む、請求項11に記載のオートラベリング方法。
【請求項13】
入力データは、イメージセンサによって取得された半導体の映像データを含む、請求項11に記載のオートラベリング方法。
【請求項14】
ハードウェアと結合して請求項1乃至13のうちいずれか1項に記載の方法を実行させるためにコンピュータで読み出し可能な格納媒体に格納されたコンピュータプログラム。
【請求項15】
オートラベリングのための電子装置であって、
通信システムと、
前記通信システムによって受信されたトレーニングデータセットのデータサンプルに対応するラベルに対する信頼度に基づいて、前記トレーニングデータセットに含まれた誤答ラベルを検出する第1モデル、及び前記ラベルの正解ラベルを推定する第2モデルを繰り返しトレーニングし、前記第1モデル及び前記第2モデルのうち少なくとも1つを用いて前記誤答ラベルを補正したデータサンプルを生成するプロセッサと、
を含み、
前記プロセッサは、
前記第1モデルによって検出された対応する信頼度及び前記第2モデルによって生成されて推定された補正ラベルに基づいて前記誤答ラベルを補正することにより生成された前記補正されたデータサンプルを使用することを含み、前記信頼度を予測するように前記第1モデルをトレーニングし、
他の誤答ラベルに対して、第1モデルによって生成された対応する信頼度に基づいて検出された更なる誤答ラベルに対応する他の正解ラベルを推定することを含み、前記データサンプルに対する正解ラベルを推定するように前記第2モデルをトレーニングし、
前記推定された他の正解ラベルによって前記他の誤答ラベルを自動補正する、電子装置。
【請求項16】
前記プロセッサは、
前記ラベルそれぞれが正解に該当する第1確率及び誤答に該当する第2確率を含む前記信頼度を決定し、
前記信頼度の分布に基づいて、前記トレーニングデータセットのデータサンプルを前記誤答ラベルを含む第1データサンプルと前記正解ラベルを含む第2データサンプルとに分類し、
前記第1データサンプルで前記誤答ラベルを補正して取得した補正データサンプルを用いて前記信頼度を予測するために、前記第1モデルの第1パラメータを更新して前記第1モデルをトレーニングする、請求項15に記載の電子装置。
【請求項17】
前記プロセッサは、前記補正したデータサンプルに対応する最大尤度に基づいて前記第1モデルの第1パラメータを更新する、請求項16に記載の電子装置。
【請求項18】
前記プロセッサは、前記更新した第1パラメータに前記信頼度に対する正規化ペナルティのそれぞれをさらに適用して前記第1モデルをトレーニングする、請求項16に記載の電子装置。
【請求項19】
前記プロセッサは、算出された交差エントロピーのロスに基づいて前記第1モデルの初期パラメータ値をさらに決定する、請求項15に記載の電子装置。
【請求項20】
前記プロセッサは、第1データサンプルの他の誤答ラベルに対応する他の正解ラベルの確率を推定し、前記他の正解ラベルを推定するために、前記他の正解ラベルの推定確率を含む第1データサンプルを用いて前記第2モデルの第2パラメータを更新することで前記第2モデルをトレーニングする、請求項15に記載の電子装置。
【発明の詳細な説明】
【技術分野】
【0001】
以下の開示は、オートラベリング方法及び装置に関する。
【背景技術】
【0002】
ディープラーニングモデル(Deep learning model)は、ラベルが表示された大量のデータを用いてトレーニングされることができる。例えば、トレーニングデータに誤ったラベルがラベリングされたデータが含まれている場合、トレーニングされたディープラーニングモデルが誤ったラベルを正解として誤認してトレーニングされることから、ディープラーニングモデルの正確度の性能が低下することがある。
【発明の概要】
【発明が解決しようとする課題】
【0003】
一実施形態によれば、混合モデリング及び誤答ラベルを含むデータサンプルの分類を行う第1モデルと、リサンプリングを行う第2モデルのような役割が対称でない2つの神経網を用いてオートラベリングを行うことにある。
【0004】
一実施形態によれば、単に正規化された第1モデルを監督する教師のように動作し、及び/又はリサンプリングを行うために他の期待最大化(EM)周期で実行する第2モデルを用いてナチュラルに推論にとって優れる神経網モデルを提供することにある。
【0005】
一実施形態によれば、トレーニング装置は、トレーニングデータセットに誤答ラベルが含まれているため、データサンプルを完全に信頼できない状況でも第1モデルの検出モデルが誤答ラベルを検出し、誤答ラベルに対応する正解ラベルを推定するようにトレーニングすることにある。
【0006】
一実施形態によれば、トレーニング装置は、第2モデルのラベリングモデルが誤答ラベルに対する新しいラベルを自動付与するようトレーニングすることにある。
【0007】
一実施形態によれば、半導体エラー検査装置が半導体設備のエラー検査過程中に半導体欠陥の分類システムのトレーニングに使用されるデータの構成時、ノイズに該当する誤答ラベルを検出して自動補正することにある。
【0008】
一実施形態によれば、半導体エラー検査装置がラベラー(labeler)に持続的なフィードバックを受けて誤答ラベルを直し、トレーニングする方法を使用しなくても自動に誤答ラベルを検出及び補正することにある。
【課題を解決するための手段】
【0009】
一実施形態によれば、プロセッサによって実現される方法は、第1モデルによって検出された対応する信頼度及び第2モデルによって生成されて推定された修正ラベルに基づいて誤答ラベルを補正して取得された補正データサンプルを使用することを含み、トレーニングデータセットのデータサンプルに対するラベルの信頼度を予測するための第1モデルをトレーニングするステップと、他の誤答ラベルに対して、前記第1モデルによって生成された前記対応する信頼度に基づいて検出された他の誤答ラベルに対応する更なる正解ラベルを推定することを含み、前記データサンプルに対する正解ラベルを推定するように前記第2モデルをトレーニングするステップと、前記推定した他の正解ラベルによって前記他の誤答ラベルを自動補正するステップとを含む。
【0010】
前記第1モデル及び前記第2モデルそれぞれのトレーニングは、前記トレーニングデータセットのラベルに対する信頼度に基づいて、誤答ラベルを検出するように前記第1モデルを繰り返しトレーニングし、正解ラベルを推定するように前記第2モデルを繰り返しトレーニングさせる繰り返しトレーニングであり、前記繰り返しトレーニングは、前記ラベルのそれぞれが正解に該当する第1確率及び誤答に該当する第2確率を含む前記信頼度を決定するステップと、前記第1データサンプルで前記誤答ラベルを補正して取得した補正データサンプルを用いて前記信頼度を予測するために、前記第1モデルの第1パラメータを更新して前記第1モデルをトレーニングするステップとを含むことができる。
【0011】
前記方法は、ベルヌーイ分布に基づいて、前記正解ラベルを含む第2データサンプルをサンプリングすることによって前記データセットを前記誤答ラベルを含む第1データサンプルと前記正解ラベルを含む第2データサンプルとに分類するステップを含むことができる。
【0012】
前記第1パラメータを更新するステップは、前記補正したデータサンプルに対応する最大尤度に基づいて、前記第1モデルの第1パラメータを更新するステップを含むことができる。
【0013】
前記第1モデルをトレーニングするステップは、前記更新した第1パラメータに前記信頼度に対する正規化ペナルティのそれぞれを適用することによって前記第1モデルをトレーニングするステップを含むことができる。
【0014】
前記第1モデルをトレーニングするステップは、算出された交差エントロピーのロスに基づいて、前記第1モデルのパラメータ初期値を決定するステップをさらに含むことができる。
【0015】
前記第2モデルをトレーニングするステップは、前記第1データサンプルの他の誤答ラベルに対応する他の正解ラベルの確率を推定するステップと、前記他の正解ラベルの推定された確率を含む前記第1データサンプルを用いて、前記他の正解ラベルを推定するために前記第2モデルの第2パラメータを更新することにより前記第2モデルをトレーニングするステップとを含むことができる。
【0016】
前記方法は、前記トレーニングデータセットのデータサンプルを前記誤答ラベルを含む第1データサンプル及び前記信頼度の分布に基づいた前記正解ラベルを含む第2データサンプルに分類するステップをさらに含み、前記データサンプルは、前記第1データサンプルが前記トレーニングデータ及び前記トレーニングデータに対応する前記誤答ラベルを含み、前記第2データサンプルが前記トレーニングデータ及び前記トレーニングデータに対応する正解ラベルを含むように混合されることができる。
【0017】
前記トレーニングデータは、イメージセンサによって取得された半導体の映像データを含むことができる。
【0018】
前記第1モデル及び前記第2モデルそれぞれは、EM(Expectation Maximum)アルゴリズムを基盤にトレーニングされることができる。
【0019】
一実施形態に係るオートラベリング方法は、データサンプルを第1モデルに印加することによって前記データサンプルに対するラベルが誤答ラベルであるか否かを検出するステップを含み、前記第1モデルは、前記ラベルに対する信頼度に基づいて、前記データサンプルに含まれた誤答ラベルを検出するようにトレーニングされた第1神経網を含む。
【0020】
前記データサンプルは、入力データ及び前記入力データに対応する前記ラベルを含み、前記オートラベリング方法は、前記ラベルが前記誤答ラベルであるという決定により、前記入力データを第2モデルに印加することによって前記誤答ラベルに対応する正解ラベルを生成するステップをさらに含み、前記第2モデルは、前記誤答ラベルを含むデータサンプルに対応する前記正解ラベルを推定するようにトレーニングされた第2神経網を含むことができる。
【0021】
前記入力データは、イメージセンサによって取得された半導体の映像データを含むことができる。
【0022】
一実施形態によると、オートラベリングのための電子装置は、通信システムと、前記通信システムによって受信されたトレーニングデータセットのデータサンプルに対応するラベルに対する信頼度に基づいて、前記トレーニングデータセットに含まれた誤答ラベルを検出する第1モデル、及び前記ラベルの正解ラベルを推定する第2モデルを繰り返しトレーニングし、前記第1モデル及び前記第2モデルのうち少なくとも1つを用いて前記誤答ラベルを補正したデータサンプルを生成するプロセッサとを含み、前記プロセッサは、前記第1モデルによって検出された対応する信頼度及び前記第2モデルによって生成されて推定された補正ラベルに基づいて前記誤答ラベルを補正することにより生成された前記補正されたデータサンプルを使用することを含み、前記信頼度を予測するように前記第1モデルをトレーニングし、他の誤答ラベルに対して、第1モデルによって生成された対応する信頼度に基づいて検出された更なる誤答ラベルに対応する他の正解ラベルを推定することを含み、前記データサンプルに対する正解ラベルを推定するように前記第2モデルをトレーニングし、前記推定された他の正解ラベルによって前記他の誤答ラベルを自動補正する。
【0023】
前記プロセッサは、前記ラベルそれぞれが正解に該当する第1確率及び誤答に該当する第2確率を含む前記信頼度を決定し、前記信頼度の分布に基づいて、前記トレーニングデータセットのデータサンプルを前記誤答ラベルを含む第1データサンプルと前記正解ラベルを含む第2データサンプルとに分類し、前記第1データサンプルで前記誤答ラベルを補正して取得した補正データサンプルを用いて前記信頼度を予測するために、前記第1モデルの第1パラメータを更新して前記第1モデルをトレーニングすることができる。
【0024】
前記プロセッサは、前記補正したデータサンプルに対応する最大尤度に基づいて前記第1モデルの第1パラメータを更新することができる。
【0025】
前記プロセッサは、前記更新した第1パラメータに前記信頼度に対する正規化ペナルティのそれぞれをさらに適用して前記第1モデルをトレーニングすることができる。
【0026】
前記プロセッサは、算出された交差エントロピーのロスに基づいて前記第1モデルの初期パラメータ値をさらに決定することができる。
【0027】
前記プロセッサは、前記第1データサンプルの他の誤答ラベルに対応する他の正解ラベルの確率を推定し、前記他の正解ラベルを推定するために、前記他の正解ラベルの推定確率を含む第1データサンプルを用いて前記第2モデルの第2パラメータを更新することで前記第2モデルをトレーニングすることができる。
【発明の効果】
【0028】
本発明によると、混合モデリング及び誤答ラベルを含むデータサンプルの分類を行う第1モデルと、リサンプリングを行う第2モデルのような役割が対称でない2つの神経網を用いてオートラベリングを行うことができる。
【0029】
本発明によると、単に正規化された第1モデルを監督する教師のように動作し、及び/又はリサンプリングを行うために他の期待最大化(EM)周期で実行する第2モデルを用いてナチュラルに推論にとって優れる神経網モデルを提供することができる。
【0030】
本発明によると、トレーニング装置は、トレーニングデータセットに誤答ラベルが含まれているため、データサンプルを完全に信頼できない状況でも第1モデルの検出モデルが誤答ラベルを検出し、誤答ラベルに対応する正解ラベルを推定するようにトレーニングすることができる。
【0031】
本発明によると、トレーニング装置は、第2モデルのラベリングモデルが誤答ラベルに対する新しいラベルを自動付与するようにトレーニングすることができる。
【0032】
本発明によると、半導体エラー検査装置が半導体設備のエラー検査過程中に半導体欠陥の分類システムのトレーニングに使用されるデータの構成時、ノイズに該当する誤答ラベルを検出して自動補正することができる。
【0033】
本発明によると、半導体エラー検査装置がラベラーに持続的なフィードバックを受けて誤答ラベルを直し、トレーニングする方法を使用しなくても自動的に誤答ラベルを検出及び補正することで、費用及び時間の側面における効率性を高めることができる。
【図面の簡単な説明】
【0034】
図1】一実施形態に係るオートラベリングのためのモデルをトレーニングする装置を示す図である。
図2】一実施形態に係るオートラベリングのためのトレーニング方法を示したフローチャートである。
図3】一実施形態に係る第1モデルをトレーニングする方法を示したフローチャートである。
図4】一実施形態に係る第2モデルをトレーニングする方法を示したフローチャートである。
図5】一実施形態に係る第1モデルと第2モデルを繰り返しトレーニングする方法を説明するための図である。
図6】一実施形態に係るオートラベリングのためのトレーニング装置の動作を表現した図である。
図7】一実施形態に係るオートラベリング方法を示したフローチャートである。
図8】一実施形態によりトレーニングされた検出モデル及びオートラベリングモデルを利用した半導体エラー検査装置の動作を説明するための図である。
図9】一実施形態によりトレーニングされた検出モデルを利用した誤答ラベル検出装置の動作を説明するための図である。
図10】一実施形態によりトレーニングされたオートラベリングモデルを利用したオートラベリング装置の動作を説明するための図である。
図11】一実施形態に係るオートラベリングのためのトレーニング装置のブロック図である。
図12】一実施形態に係るオートラベリングを行う電子装置のブロック図である。
【発明を実施するための形態】
【0035】
実施形態に対する特定な構造的又は機能的な説明は単なる例示のための目的として開示されたものであって、様々な形態に変更されることができる。したがって、実施形態は特定な開示形態に限定されるものではなく、本明細書の範囲は技術的な思想に含まれる変更、均等物ないし代替物を含む。
【0036】
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に、第2構成要素は第1構成要素にも命名することができる。
【0037】
いずれかの構成要素が他の構成要素に「連結」されているか「接続」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが、中間に他の構成要素が存在し得るものと理解されなければならない。
【0038】
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は、明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
【0039】
異なるように定義されない限り、技術的又は科学的な用語を含んで、ここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈されなければならず、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
【0040】
以下、添付する図面を参照しながら実施形態を詳細に説明する。図面を参照して説明する際に、図面符号に拘わらず同じ構成要素は同じ参照符号を付与し、これに対する重複する説明は省略する。
【0041】
図1は、一実施形態に係るオートラベリングのためのモデルをトレーニングする装置を示した図である。図1を参照すると、一実施形態に係るニューラルネットワークのトレーニングデータセットに含まれるラベルのうち誤答ラベルが含まれている場合、誤答ラベルに強くニューラルネットワークをトレーニングするトレーニング装置100の構造が図示される。ここで、ニューラルネットワークを一例として説明するが、必ずこれに限定されることはない。
【0042】
トレーニング装置100は、神経網(neural network(ニューラルネットワーク))をトレーニングするためのトレーニングデータセットに誤ったラベル、言い換えれば、誤答ラベルが含まれているとき、誤答ラベルに神経網モデルを強靭にトレーニングし得る。トレーニング装置100は、誤答ラベルを判別する第1モデル110とオートリラベリング(re-labeling)を行う第2モデル130を含んでもよい。
【0043】
第1モデル110は、トレーニングデータセットに含まれる誤答ラベルを検出する。第1モデル110は、第1ニューラルネットワークを含むディープラーニングモデルに該当する。
【0044】
第1モデル110は、データセットに含まれたデータサンプルのうち当該データに対応するラベルが正解であるデータサンプルと、当該データに対応するラベルがノイズ(noise)又は誤ったラベルに該当するデータサンプルを分類することができる。又は、第1モデル110は、データセットに含まれたラベルのうち誤答ラベルがラベリングされたデータサンプルと正解ラベルがラベリングされたデータサンプルとを判別し、トレーニングデータセットを2つのセットに分類することができる。
【0045】
第2モデル130は、全体データセットのラベルを再び付与することができる。又は、第2モデル130は、第1モデル110によって検出された誤答ラベルを含むデータサンプルに対するリラベリングを行うことができる。第2モデル130は、第2神経網を含むディープラーニングモデルに当該する。第2モデル130は、誤答ラベルでデータサンプルを修正し、誤答ラベルが修正されたリラベリングされたデータサンプルを出力してもよい。また、第2モデル130は、ラベルのないデータが入力された場合、当該データに対応するラベルを自動的にラベリングしてもよい。
【0046】
本明細書において、当該データに対応するラベルが正解であるラベルを「正解ラベル」と呼び、当該データに対応するラベルがノイズ、又は、間違ってラベリングされたラベルに該当する場合、「誤答ラベル」又は「ノイズラベル」と呼ぶ。また、本明細書で誤答ラベルを含む、言い換えれば、誤答ラベルがラベリングされたデータサンプルを「第1データサンプル」と呼ぶ。第1データサンプルは、ノイズ又はエラーによって損傷された点で「損傷したデータサンプル(corrupted data sample)」とも呼ぶ。用語「第1データサンプル」と「損傷したデータサンプル」は互いに混用されてもよい。
【0047】
正解ラベルを含む、言い換えれば、正解ラベルがラベリングされたデータサンプルを「第2データサンプル」と呼ぶ。第2データサンプルは、ノイズ又はエラーがないという点で「クリーンデータサンプル(clean data sample)」とも呼ぶ。用語「第2データサンプル」と「クリーンデータサンプル」は互いに混用されてもよい。トレーニングデータセットは、1つ以上の第1データサンプル及び1つ以上の第2データサンプルと混合されてもよい。
【0048】
トレーニング装置100は、第1モデル110と第2モデル130を繰り返しトレーニングしてもよい。トレーニング装置100は、繰り返し学習(iterative learning)を介して第1モデル110及び第2モデル130の繰り返し学習を行ってもよい。繰り返し学習は、第1モデル110で算出された結果を第2モデル130に適用して第2モデル130をトレーニングし、トレーニングされた第2モデル130によって算出された結果を適用し、第1モデル110をトレーニングし得る。
【0049】
第1モデル110は、データセットに含まれた全体データサンプルのうち、誤答ラベルを含む第1データサンプルの比率を予測できる。第1モデル110は、予測した第1データサンプルの比率によりデータサンプルを第1データサンプルと第2データサンプルとに分類する。第1モデル110は、第2モデル130で予測された結果を用いて、各データサンプルが正解に該当する第1確率(例えば、q)を算出する。第1モデル110は、第1確率に対するベルヌーイ分布(Bernoulli distribution)によって正解ラベルを含む第2データサンプルをそれぞれサンプリングすることができる。
【0050】
第2モデル130のパラメータは、正解ラベルを含む第2データサンプルによって更新され得る。更新された第2モデル130は、誤答ラベルを補正する。第2モデル130は、補正した誤答ラベルを含むデータサンプルを用いて第1モデル110のパラメータを更新する。本明細書で、第1モデル110のパラメータは「第1パラメータ」と呼び、第2モデル130のパラメータは「第2パラメータ」と呼ぶことにする。
【0051】
第1モデル110と第2モデル130は、前述した繰り返しの構造を介して繰り返し学習され得る。
【0052】
図2は、一実施形態に係るオートラベリングのための繰り返しトレーニング方法を示したフローチャートである。以下、実施形態で各ステップは順に実行されてもよいが、必ず順に実行されなくてもよい。例えば、各ステップの順が変更されてもよく、少なくとも2つのステップが並列的に実行されてもよく、又は、トレーニング方法を最適化するための付加的なステップが追加されてもよい。
【0053】
図2を参照すると、一実施形態に係る繰り返しトレーニング装置(例えば、トレーニング装置100)によって生成されたデータサンプルの誤答ラベルを補正するために、例示的な動作(ステップS210~ステップS230)が実行される。
【0054】
ステップS210において、トレーニング装置は、トレーニングデータセットに含まれたラベルに対する信頼度に基づいて、トレーニングデータセットに含まれたラベルのうち誤答ラベルを検出する第1モデル、及びラベルの正解ラベルを推定する第2モデルを繰り返しトレーニングする。トレーニングデータセットには、トレーニングデータとトレーニングデータに対応する誤答ラベルを含む第1データサンプル、及びトレーニングデータ及びトレーニングデータに対応する正解ラベルを含む第2データサンプルが混合し得る。ここで、「トレーニングデータに対応する(誤答又は正解)ラベル」は、当該トレーニングデータにラベリングされた(誤答又は正解)ラベルを指すものと理解される。トレーニングデータセットは入力データ、例えば、半導体、あるいは3次元空間を撮影するために構成されてもよく、イメージセンサによって取得された映像データであってもよいが、必ずこれに限定されることはない。例えば、イメージセンサは、トレーニング装置又はトレーニング装置の外観に含まれてもよい。イメージデータは、外部のイメージセンサからトレーニング装置の通信システムによって取得されてもよい。
【0055】
第1モデル及び第2モデルのそれぞれは、例えば、以下の図5を参照して後述する期待最大化(Expectation Maximum;EM)アルゴリズムを基盤にトレーニングされてもよい。
【0056】
ステップS211において、繰り返しトレーニング装置は、誤答ラベルを補正したデータサンプルを用いて、ラベルに対する信頼度を予測するように第1モデルをトレーニングする。繰り返しトレーニング装置が第1モデルをトレーニングする方法は、以下の図3を参照して後述する。
【0057】
ステップS213において、繰り返しトレーニング装置は、第1モデルのより予測した信頼度に基づいて分類された、誤答ラベルを含む第1データサンプルに対応する正解ラベルを推定するように第2モデルをトレーニングする。繰り返しトレーニング装置が第2モデルをトレーニングする方法は、以下の図4を参照して後述する。
【0058】
ステップS215において、繰り返しトレーニング装置は、第2モデルによって推定した正解ラベル(又は、新しい補正されたラベル)により誤答ラベルを補正又はリラベリングする。
【0059】
ステップS230において、繰り返しトレーニング装置は、ステップS210で繰り返しトレーニングされた第1モデル及び第2モデルのうち少なくとも1つを用いて、誤答ラベルを補正したデータサンプルを生成する。
【0060】
図3は、一実施形態に係る第1モデルをトレーニングする方法を示したフローチャートである。以下、実施形態で各ステップは順に実行されてもよいが、必ず順に実行されなくてもよい。例えば、各ステップの順が変更されてもよく、少なくとも2つのステップが並列的に実行されてもよく、又は、トレーニング方法を最適化するための付加的なステップが追加されてもよい。図3を参照すると、一実施形態に係るトレーニング装置(例えば、トレーニング装置100)は、ステップS310~ステップS340をさらに含んでもよく、ステップS211を介して第1モデルをトレーニングしてもよい。
【0061】
ステップS310において、トレーニング装置は、ラベルそれぞれが正解に該当する第1確率及び誤答に該当する第2確率を含む信頼度を決定する。
【0062】
ステップS320において、トレーニング装置は、ステップS310で決定した信頼度の分布に基づいて、データセットを誤答ラベルを含む第1データサンプルと正解ラベルを含む第2データサンプルとに分類する。トレーニング装置は、例えば、ベルヌーイ分布(Bernoulli Distribution)に基づいて、正解ラベルを含む第2データサンプルをサンプリングしてもよい。
【0063】
ステップS330において、トレーニング装置は、ステップS320で分類した第1データサンプルで誤答ラベルを補正したデータサンプルを用いて、第1モデルの第1パラメータを更新する。トレーニング装置は、例えば、第1データサンプルで誤答ラベルを補正したデータサンプルに対応する最大尤度(maximum likelihood)に基づいて、第1モデルの第1パラメータを更新し得る。
【0064】
ステップS340において、トレーニング装置は、ステップS330で更新した第1パラメータに基づいて、信頼度を予測するように第1モデルをトレーニングする。トレーニング装置は、例えば、交差エントロピーに基づいて、第1モデルのパラメータ初期値を決定してもよい。トレーニング装置は、ステップS330で更新した第1パラメータに信頼度に対する正規化ペナルティをさらに考慮して第1モデルをトレーニングしてもよい。正規化ペナルティについては、図5を参照して後述する。
【0065】
図4は、一実施形態に係る第2モデルをトレーニングする方法を示したフローチャートである。以下、実施形態で各ステップは順に実行されてもよいが、必ず順に実行されなくてもよい。例えば、各ステップの順が変更されてもよく、少なくとも2つのステップが並列的に実行されてもよく、又は、トレーニング方法を最適化するための付加的なステップが追加されてもよい。
【0066】
図4を参照すると、一実施形態に係るトレーニング装置は、ステップS410~ステップS430をさらに含んでもよく、ステップS213を介して第2モデルをトレーニングしてもよい。
【0067】
ステップS410において、トレーニング装置は、第1データサンプルの誤答ラベルに対応する正解ラベルの確率を推定する。
【0068】
ステップS420において、トレーニング装置は、ステップS410で推定した正解ラベルの確率を含む第1データサンプルを用いて第2モデルの第2パラメータを更新する。
【0069】
ステップS430において、トレーニング装置は、ステップS420で更新した第2パラメータに基づいて、誤答ラベルに対応する正解ラベルを推定するように第2モデルをトレーニングする。
【0070】
図5は、一実施形態に係る第1モデルと第2モデルを繰り返しトレーニングする方法を説明するための図である。図5を参照すると、一実施形態に係る第1モデル110と第2モデル130が期待最大化(EM)アルゴリズムを基盤にトレーニングされる過程を示す図500が示されている。一実施形態では、第1モデル110及び第2モデル130のいずれか1つ又は両方は、神経網(例えば、別個の神経網又は同じ神経網の異なる位置)である。
【0071】
第1モデル110は、混合物モデリング及びノイズデータのフィッティングを行う。混合物モデリングは、誤答ラベルを含む第1データサンプル、及び正解ラベルを含む第2データサンプルを混合してデータセットを生成する過程に当該する。
【0072】
第2モデル130は、ラベル改修(label refurbishment)、言い換えれば、ラベル補正を行ってもよい。一実施形態において、トレーニング装置は、期待最大化(EM)アルゴリズムを用いて第1モデル110と第2モデル130の2つの神経網を最適化することができる。第1モデル110と第2モデル130は、各作業を解決するために固有な期待最大化(EM)アルゴリズムを実行してもよい。
【0073】
期待最大化(EM)アルゴリズムは、教師なし学習(unsupervised learning)で主に使用されるアルゴリズムであって、E(Expectation;期待)-stepと、M(Maximum;最大化)-stepの2つのステップに分類される。期待最大化(EM)アルゴリズムは、E-StepとM-Stepを繰り返して最適なパラメータ値を探すことができる。
【0074】
E-stepでは、与えられた任意のパラメータ初期値で尤度と最大に近似の尤度値を算出し得る。
【0075】
M-Stepでは、E-Stepで算出された尤度値を最大化(maximize)する新しいパラメータ値を取得することができる。
【0076】
期待最大化(EM)アルゴリズムは、M-StepとE-Stepを継続的に繰り返して最適なパラメータに近似の値を探していく過程をいう。期待最大化(EM)アルゴリズムは、求めようとするパラメータの関数(例えば、確率分布)に対して確率変数を定義し、これに対する最適化を行うことにより最適なパラメータを得ることができる。
【0077】
第1モデル110は、「メインネットワーク(Main network)」又は「区分子(Distinguisher)」と呼ばれ、誤答ラベルを検出する主な動作を行ってもよい。また、第2モデル130は「補助ネットワーク(Auxiliary network)」又は「改修子(Refurbisher)」と呼ばれ、データの正解ラベルを推定して誤答ラベルを補正する補助的な動作を行ってもよい。
【0078】
例えば、誤答ラベルがラベリングされた第1データサンプルと正解ラベルがラベリングされた第2データサンプルの混合物に該当するトレーニングデータセット
【数1】

を仮定する。ここで、xはk番目の映像データを示し、
【数2】

はK個の映像データに対応するラベルを示す。ここで、Kはクラスの数を示す。
【0079】
第1モデル110は、トレーニングデータセットでクリーンデータサンプルである第2データサンプルDlと損傷したデータサンプルである第1データサンプルDuが何であるかを区別することができる。ここで、ラベリングは、映像データxが与えられたとき、(x、y)が多様体(manifold)に置かれるようにするラベルyを探す過程といえる。
【0080】
一実施形態において、焦点は、誤答ラベルをラベリングするものであってもよく、したがって、混合モデルとしてトレーニングデータセットを下記の数式(1)のように条件付き形式に定義することができる。
[数式(1)]
【数3】

xは映像データを示し、
【数4】

は当該映像データにラベリングされた誤答ラベルを示す。
【数5】

は神経網を介して実現しようとする分類器モデルに当該する。
【数6】

はトレーニングデータセットに含まれた映像データに誤答ラベルがラベリングされる確率を示す。εは、損傷したデータサンプルの分布を示す。πは、全体トレーニングデータセットに含まれているクリーンデータサンプル(第2データサンプル)の比率を示す。
【0081】
ここで、
【数7】

であってもよい。
【0082】
一実施形態において、確率p(x)を媒介変数化しない代わりに、必要な時ごとにデータ分布pdata(x)を使用してもよい。
【0083】
第1モデル110は、分類ネットワーク(classification network)gによってpmanifold(|x)をモデリングしてもよい。ここで、分類ネットワークgの入力に該当する映像データxに対する応答として、分類ネットワークgのソフトマックス(softmax)出力を
【数8】

に表示してもよい。
【0084】
数式(1)において、
【数9】


【数10】

のように定数として扱って誤答ラベルを処理するための第1モデル110を仮定する。εが定数であるという仮定を緩和したモデルについては後述する。
【0085】
トレーニングデータセットに含まれる映像データに誤答ラベルがラベリングされる確率は、以下記の数式(2)のように示す。
[数式(2)]
【数11】

数式(2)は、下記の数式(3)を解いた結果を数式(2)に代入することによって解決される。
[数式(3)]
【数12】

ここで、θは、第1モデル110に含まれた第1神経網gのパラメータを示す。しかし、数式(3)だけでは、第1データサンプルと第2データサンプルを分離することに失敗することがある。
【0086】
第1モデル110の神経網が任意の機能を実現するのに十分な容量がある場合、より具体的には、データセットの全ての
【数13】

に対して
【数14】

を作るθが存在する場合、数式(3)のログ尤度は
【数15】

によって最大化され得る。
【0087】
神経網は、損傷したデータサンプルより先にクリーンデータサンプルにフィッティングする傾向を示す。これは、トレーニングデータセットで比較的に多い数のクリーンデータサンプルの傾きによると、ネットワークが整合しないときにも損失減少に有利であるためである。複雑な神経網モデルも初期トレーニング段階では、単純なモデルのように動作する。このような理由で神経網のトレーニング時には一般にウォーミングアップ期間が所要され、ウォーミングアップ期間の間に第1モデル110は、トレーニングデータセットに含まれたデータサンプルをクリーンデータサンプルグループと損傷したデータサンプルグループとの2つのグループに分離し、その後、2つのグループ間のフィッティングスコアの差を保持したり広げることができる。しかし、傾きが続けて進行されるにつれて一般にモデルの複雑性による不利益を与えるη(g)というペナルティ項(penalty term)が必要なこともある。ペナルティ項η(g)によって修正された目的関数は、下記の数式(4)のように示される。ペナルティ項については、下記の図5の過程575で後述する。
[数式(4)]
【数16】

トレーニング装置は、第1モデル110でE-Step510を繰り返して各データセットに含まれているラベルに対する信頼度を推定することができる。言い換えれば、トレーニング装置は、E-Step510で当該データサンプルのラベルが誤答ラベル
【数17】

である確率を示す隠れ変数(s)を推定することができる。一実施形態では、第1モデル110は、当該ラベルが正解ラベルを含むクリーンデータサンプルからのものであれば、例えば、隠れ変数s=1で示す。他の実施形態において、当該ラベルが誤答ラベルを含む損傷したデータサンプルからのものであれば、例えば、隠れ変数s=0で示す。
【0088】
前述した過程はベイズ(Bayes)の規則により全ての周期tに対して下記の数式(5)のように示される。
[数式(5)]
【数18】

数式(5)は、各データサンプルがクリーンデータサンプルである確率を示す。
【0089】
第1モデル110は、隠れ変数sの推定結果に応じて、データセットを誤答ラベルを含む第1データサンプルと正解ラベルを含む第2データサンプルとに円満に分類する過程520を行うことができる。ここで、「円満に分類する」という意味は、クリーンデータサンプルと損傷したデータサンプルそれぞれの確率分布に応じて分類する意味として理解され得る。
【0090】
第1モデル110において、過程520で円満に分類された第1データサンプルを第2モデル130に順方向(forward propagation)に伝播できる。
【0091】
第1モデル110において円満に分類520された第1データサンプルを受信した第2モデル130は、E-ステップ530を介して第1データサンプルそれぞれに対応する真のクラス(true class)の確率、言い換えれば、第1データサンプルの誤答ラベルに対応する正解ラベルの確率を推定することができる。
【0092】
トレーニング装置は、E-ステップ530において、推定した正解ラベルの確率を含む第1データサンプルを用いて第2モデル130の第2パラメータを更新し、ステップ540において、更新した第2パラメータに基づいて、誤答ラベルに対応する正解ラベルを推定するように第2モデル130をトレーニングする。
【0093】
ステップ560において、トレーニング装置は、トレーニングが完了した第2モデル550によって推定された、誤答ラベルに対応する正解ラベルを第1モデル110に逆方向伝播(back-propagate)して第1データサンプルで誤答ラベルを補正する。このように、誤答ラベルを正解ラベルに補正する過程を「リサンプリング(Re-sampling)」と呼ぶ。
【0094】
トレーニング装置は、第1データサンプルで誤答ラベルを補正したデータサンプルを用いて、第1モデル110をトレーニングするM-Step570を行う。M-Step570でトレーニング装置は、誤答ラベルを補正したデータサンプルを用いて第1モデル110の第1パラメータを更新し、更新した第1パラメータに基づいて第1モデル110をトレーニングする。
【0095】
一実施形態において、第1モデル110により実行される混合分布モデリングによる過剰適合(overfitting)を防止するために、トレーニング装置は、更新した第1パラメータに信頼度に対する正規化ペナルティをさらに適用することで第1モデル110をトレーニングする。ここで、信頼度に対する正規化ペナルティは、「モデル複雑度ペナルティ(Model complexity penalty)」と呼んでもよい。
【0096】
トレーニング装置は、トレーニングが完了した第1モデル580によってE-Step510を再び繰り返して各データセットに含まれているラベルに対する信頼度を推定することができる。
【0097】
より具体的に、第1モデル110の期待最大化の過程を説明すれば、次の通りである。
【0098】
第1モデル110は、各データサンプルに対してs=1又はs=0であるか否かに応じて、混合モデルで適切な分布
【数19】

又は(1-π)εを選択し、選択された分布を基盤にログ尤度を算出してもよい。データサンプルの分離は、確率的な意味で可能であるため、最終評価は期待確率の形態を有してもよい。したがって、M-Step570は下記の数式(6)を解決する過程に当該する。
[数式(6)]
【数20】

実際にπとθは数式(6)で互いに素(disjoint)に該当するため、最大化はπとθそれぞれに対して実行される。
【0099】
全体トレーニングデータセットに含まれたクリーンデータサンプルの比率πは、下記の数式(7)によって近接した形態の解を取得できる。
[数式(7)]
【数21】

また、第1モデル110に含まれている第1神経網gのパラメータθは、下記の数式(8)のような損失関数L main,gによるトレーニングを介して求められる。
[数式(8)]
【数22】

数式(8)の最初の項
【数23】

は、過程560で再加重サンプル(reweighted samples)によって評価された交差エントロピー(cross-entropy)ロスに当該する。
【0100】
前述した数式(4)の究極的な目的関数は、期待最大化(EM)アルゴリズムの繰り返しの間に減少しないように保障される。したがって、期待最大化(EM)アルゴリズムは、原則的な方式で崩壊又は自己確認偏向(self-confirming biases)の危険を避けながら最小の局所最適(local optimum)を探すことができる。しかし、加重値が再指定されたデータサンプルを用いて神経網をトレーニングすることは、最上の戦略ではない。特に、誤答ラベルの指定比率が高い場合、加重値が再指定されたデータサンプルを用いて神経網をトレーニングすることが最上の戦略ではないこともある。
【0101】
これを明確に説明するために、例えば、トレーニングデータセットに含まれたデータサンプルがクリーンデータサンプルである確率
【数24】

が2進法で1又は0であると一時的に仮定することができる。
【0102】
過程520において、データセットをクリーンデータサンプルと損傷したデータサンプルとに分類した後、損傷したデータサンプルに含まれている誤答ラベルを捨ててラベルのないものと思ってもよい。このような場合、第1モデル110のトレーニングのために、数式(8)は、損傷したデータサンプルを利用せずクリーンデータサンプルに依存してもよい。
【0103】
トレーニングデータセットで損傷したデータサンプル除外することが合理的であるものの、効果的なトレーニングデータセットの大きさが小さくなったり、分布が移動され得る。それを防止するために、トレーニング装置は、第2モデル130の半教師あり学習(semi-supervised learning)を介して、クリーンデータサンプルによってトレーニングしたクラス/データ構造を基盤に損傷したデータサンプルに対する適切なラベルを生成することで損傷したデータサンプルも活用できるようにする。
【0104】
実際に、クリーンデータサンプルの確率が0及び1の2進法形態に示されないため、データサンプルがクリーンデータサンプル及び損傷したデータサンプルのいずれか1つに明確に分類されないことがある。
【0105】
それにもかかわらず、数式(8)のように各データサンプルの同点加重値(tie weight)をq(s=0)に減らす代わりに、第2モデル130はs=0である場合にも適切にラベルを生成して第1モデル110で全体加重値と共に使用できるようにする。前述した過程は、新しくラベリングされたデータサンプルを生成する過程に該当するという点で「リサンプリング(resampling)」過程560と呼ぶ。
【0106】
過程560で、リサンプリングされたデータサンプル、言い換えれば、ラベルが補正されたデータサンプルを
【数25】

に表示すると、数式(8)の第1モデル110に含まれた第1神経網gの損失関数L main,gは下記の数式(9)のように修正される。
[数式(9)]
【数26】

第1モデル110は、過程560を介してリサンプリングされたデータセットを基盤に、過程575でモデルペナルティ付与項(model penalizing term)が適切にη(g)→η(g)に調整されるようする。
【0107】
リサンプリングされたデータサンプルは依然としてノイズがあるので、分布を
【数27】

に表示し、混同がなければ時間インデックスtを省略してもよい。この場合、信頼度正規化器(confidence regularizer)が
【数28】

のように、ペナルティ付与器(penalizer)の役割を行うと見ることができる。
【0108】
第1モデル110の第1神経網のトレーニングのための損失関数Lは、下記の数式(10)のように正規化され得る。
[数式(10)]
【数29】

ネットワーク容量が任意の機能を実現するのに十分に大きいと仮定すれば、ノンパラメトリック限界(non-parametric limit)で、
【数30】

であってもよい。ここで、(・)+=max(・、0)であり、Z
【数31】

を作る正規化定数(normalizing constant)に当該する。
【0109】
任意の関数を表現できる十分な容量を有して信頼度によって正規化された損失関数Lを用いてトレーニングされた分類器を仮定する。混合データセットの分布が、例えば、π’∈(0,1)の一部に対して
【数32】

である場合、及びデータのラベルが例えば、
【数33】

のように均一に分布した場合、ノンパラメトリック限界でソフトマックス出力
【数34】


【数35】

に接近するようにするλが存在する。
【0110】
上記の結論によれば、信頼度正規化器には混合データセットの多様体を描写する属性があるため、過程575のモデル複雑度のペナルティ付与器(penalizer)に適することが分かる。
【0111】
また、第2モデル130の期待最大化の過程を説明すれば次の通りである。
【0112】
第2モデル130は、第1モデル110と他の期待最大化(EM)の周期で実行されてもよい。第2モデル130は、E-Step530で下記の数式(11)のように与えられたデータの実際のクラスに対する確率の推定を試みることができる。
[数式(11)]
【数36】

例えば、当該データサンプルのラベルが誤答ラベル
【数37】

である確率を示す隠れ変数(s)=1であれば、誤答ラベル
【数38】

は実際のクラスでなければならないため、
【数39】

であってもよい。ここで、eはc番目の項目に1があるワンホットベクトル(one-hot vector)を示す。
【0113】
隠れ変数(s)=0であれば、第2モデル130は損傷したデータサンプルに含まれた誤答ラベルを捨て、入力xに基づいて実際のクラスを推定するため
【数40】

をモデリングできる。ここで、
【数41】

は第2モデル130のソフトマックス出力に該当する。
【0114】
ここで、第1モデル110の側面では、例えば、前述した数式(5)のように、混合したデータセットの各データサンプルがクリーンデータサンプルに該当する確率(s=1)を算出してもよい。数式(5)を再び使用して数式(11)を下記の数式(12)のように単純化してもよい。
[数式(12)]
【数42】

M-Step540で推定された確率q (y)は、クラスyに関するパラメータを探すとき、各データサンプルに加重値を与えることができる。したがって、第2モデル130の最大化目標は、下記の数式(13)のように示す。
[数式(13)]
【数43】

数式(13)の
【数44】

に連鎖法則(chain rule)を適用すると、下記の数式(14)を得ることができる。
[数式(14)]
【数45】

ここで、モデル
【数46】

は、ラベル損傷確率(label corruption probability)、言い換えれば、データセットに含まれた正解ラベルが誤答ラベルに損傷する確率を示す。
【数47】

は、全ての入力データxに対して一定に保持されると仮定する。ここで、2つのモデルfとTは、互いにパラメータを共有できないことがある。モデルfは第2モデル130によって具現され、モデルTはK×Kマトリックスによって実現されてもよい。
【0115】
したがって、第2モデル130の損失関数L auxはモデルfとTのそれぞれに対して個別的に最大化される。先ず、モデルfに対して損失関数L auxを最大化してもよい。これは、下記の数式(15)のように損失L aux,fのある第2モデル130をトレーニングするものと同一である。
[数式(15)]
【数48】

aux,fはq (y)をトレーニング対象にする交差エントロピーロスに当該する。数式(12)のトレーニング目標q (y)は半教師あり学習で実行されるラベル推測及びラベル平滑化に接続されてもよい。
【0116】
次に、モデルTに対して損失関数L auxを最大化してもよい。
【0117】
モデルTは、転移確率マトリックス(transition probability matrix)として、ラベル損傷確率を示すマトリックスに該当する。
【数49】

及び
【数50】

に有効でなければならないという制約から最大化問題を解決し、
【数51】


を得ることができる。
【0118】
上述したように、オートラベリングのためのトレーニング方法は、第1モデル110と第2モデル130それぞれにおける期待最大化(EM)過程を介して実行されることができる。
例えば、誤答ラベルの分布を説明するために、第1モデル110でεから始まることができる。前述したように、εを定数(例えば、ε=1/K)に固定すれば、転移確率マトリックスTを捨てることができる。しかし、転移確率マトリックスTを使用し得るため、次の繰り返しでεを修正できる。
例えば、Tとεとの間の接続を設定するために転移確率マトリックスTを修正し、修正されたTをTに表示する場合、損傷したサンプルデータに基づき転移確率マトリックスを以下の数式(16)のように求めることができる。
[数式(16)]
【数52】

その後、定義によってεは下記の数式(17)のように算出され、前述した数式(5)でεの代わりに使用するために第1モデル110に伝達され得る。
[数式(17)]
【数53】

【0119】
まとめると、オートラベリングのためのトレーニング方法は、役割が対称でない第1モデル110及び第2モデル130の2つの神経網を用いてもよい。第1モデル110は、混合モデリング及び誤答ラベルを含むデータサンプルの分類を行い、第2モデル130はリサンプリングを行う。また、第2モデル130は、単に正規化された第1モデル110を監督する教師のように動作するため、第2モデル130はナチュラルに推論により良好なモデルになる。第2モデル130は、リサンプリングを行うために他の期待最大化(EM)周期で実行されてもよい。このように第1モデル110と第2モデル130は、誤答ラベルの解決のために互いに相互作用し得る。
【0120】
図6は、一実施形態に係るオートラベリングのためのトレーニング装置の動作を具体的な数式に表現した図である。図6を参照すると、一実施形態に係るトレーニング装置600は、検出モデル610を介して誤答ラベルを含むデータサンプルの分類を行い、ラベリングモデル630を介してオートラベリングを行う。検出モデル610は、前述した第1モデル110と第2モデル130を用いて誤答ラベルを検出してもよい。ラベリングモデル630は、前述した第2モデル130を用いて誤答ラベルを自動補正及びリラベリングしてもよい。例えば、検出モデル610及びラベリングモデル630のそれぞれは、1つ以上の神経網を含んでもよい。
【0121】
一実施形態において、トレーニングデータセットに誤答ラベルが含まれており、データサンプルを完全に信頼できない場合、トレーニング装置600は、第1モデル110の検出モデル610が誤答ラベルを検出し、誤答ラベルに対応する正解ラベルを推定するようにトレーニングしてもよい。また、トレーニング装置600は、第2モデル130のラベリングモデル630が誤答ラベルに対する新しいラベルを自動付与するようにトレーニングしてもよい。
【0122】
例えば、トレーニングデータセットは、データの集合xとデータの集合xに対するラベルの集合yを含むことができる。したがって、トレーニングデータセットにはx×yになるが、これは、正解ラベルがラベリングされたデータのあるクリーンデータサンプルと誤答ラベルがラベリングされたデータのある損傷したデータサンプルが混合された混合データセットであってもよい。
【0123】
クリーンデータサンプルは、多様体(manifold)上に分布してもよい。その理由は、人が手作業でラベリングできることも多様体を認知するためである。したがって、混合データセットは、前述した数式(1)と類似に下記の数式(18)にモデリングされてもよい。
[数式(18)]
【数54】

ここで、pmanifold(y|x)は、神経網を介して実現しようとする分類器モデルに当該する。例えば、
【数55】

であり、fθ [y]は神経網モデルのソフトマックスの出力に当該する。また、εは、損傷したデータサンプルの分布に当該する。
【0124】
与えられたデータ分布pdata(y|x)を
【数56】

にフィッティングしてもよい。
【0125】
この場合、第1モデル110は、検出モデル610を介して窮極的に最大尤度推定(maximum likelihood(ML)estimation)を試みることができる。混合データセットの場合、局所勾配に基づく方法(local gradient-based method)の代わりに、指示子(indicator)を隠れ変数(hidden variable)sにして期待最大化(EM)を行うことが普遍的である。このとき、s=0は、当該データサンプルがクリーンデータサンプルである場合を示し、s=1は、当該データサンプルが破損したデータサンプルである場合を示す。
【0126】
また、期待最大化(EM)アルゴリズムは、各データサンプルに対して隠れ変数sを判別するための推定過程を含むため、クリーンデータサンプルと損傷したデータサンプルとのグループ分離がナチュラルに行われることができる。
【0127】
したがって、最大尤度(ML)は、前述した数式(3)
【数57】

のような形態に公式化できる。
【0128】
一般に、神経網は、任意の関数を実現可能にするため最大尤度の解(solution)はp(x,y)→pdata(x,y)になる。そのため、π=1、g=pdata(・|y)になる。
【0129】
最大尤度の解がp(x,y)→pdata(x,y)になることは、モデル複雑度(model complexity)に対する制限がなければ、誤答ラベルを含む損傷したデータサンプルにオーバーフィッティングされることを意味する。
【0130】
モデルトレーニングの初期段階では、モデルが複数のクリーンデータサンプルに優先的にフィットされることができる。そのため、トレーニングが進行されながらモデル複雑度に対する適切なペナルティ付与項(penalizing term)が必要なこともある。
【0131】
したがって、数式(3)に表現された最大尤度でモデル複雑度に対するペナルティ付与項(正規化器(regularizer))ηを導入して前述の数式(4)
【数58】

のような最終目的関数を定義できる。
【0132】
トレーニング装置600は、信頼度正規化器を使用してもよく、最適化問題は期待最大化(EM)アルゴリズムを介して繰り返し解決してもよい。
【0133】
期待最大化(EM)アルゴリズムは、例えば、崩壊や自己確認偏向(self-confirming bias)などが関与されない原則的な方法であるため、データサンプルにノイズに該当する誤答ラベルが含まれた場合にも安定的に動作することを保障する。
【0134】
検出モデル610の動作は次の通りである。
【0135】
ステップS611において、検出モデル610は、以前の繰り返し過程でラベリングモデル630からデータセットに含まれている正解ラベルが誤答ラベルに損傷されるラベル損傷確率を示すマトリックスT、全体データセットに含まれたクリーンデータサンプルの比率π、及び損傷したデータサンプルの分布εを取得できる。
【0136】
ここで、ラベル損傷確率を示すマトリックスTは、前述した数式(16)のような
【数59】

の形態に示される。
また、全体データセットに含まれたクリーンデータサンプルの比率πは
【数60】

のように示され、損傷したデータサンプルの分布εは
【数61】

のように示される。
【0137】
ステップS613において、検出モデル610は、各データサンプルごとに隠れ変数sを判別し、各データサンプルがクリーンデータサンプルである確率qを下記の数式(19)のように算出できる。
[数式(19)]
【数62】

ステップS613は、図5を参照して前述した第1モデル110のE-Step510に当該する。
【0138】
ステップS615において、検出モデル610は、確率qに対するベルヌーイ分布(Bernoulli Distribution)に基づいて、正解ラベルを含む第2データサンプルをサンプリングする。
【0139】
ステップS617において、検出モデル610は、ステップS615におけるサンプリングによってデータセットを誤答ラベルを含む第1データサンプルuと正解ラベルを含む第2データサンプルxに分類してもよい。ステップS617は、図5を参照して前述した分類過程520に当該する。
【0140】
ここで、ラベリングモデル630は、分類された各データサンプルを用いて第2モデル130のパラメータθを数式(20)のように最適化できる。
[数式(20)]
【数63】

ここで、第2モデル130のパラメータに対する最適化は、最終的にニューラルネットワークのトレーニングに該当する。
【0141】
その後、ラベリングモデル630は、データサンプルごとの再加重化(re-weighting)の代わりにリサンプリング(resampling)を行ってもよい。データサンプルごとの再加重化は、窮極的に損傷したデータサンプルを除去することに当該する。一実施形態では、データサンプルごとの再加重化は、データサンプルの個数が制限されたりデータサンプルがすべてクリーンデータサンプルである理想的なデータセットに比べて、分布移動(distribution shift)を発生させ得るため、ラベリングモデル630は、データサンプルの個数を保持するために再加重化の代わりにリサンプリングを行うことができる。
【0142】
ラベリングモデル630は、第2モデル130を利用したデータのラベルを
【数64】

のようにリラベリングしてもよい。
【0143】
第1モデル110は、トレーニングデータxがラベリングモデル630を経てリラベリングされたデータサンプル
【数65】

を用いて第1モデル110のパラメータφを更新できる。
【0144】
検出モデル610は、各データサンプルごとに確率qを加重して第1モデル110のパラメータφを下記の数式(21)のように最適化できる。
[数式(21)]
【数66】

ここで、第1モデル110のパラメータφに対する最適化は、結局、第1モデル110のトレーニングに当該する。
【0145】
一実施形態では、信頼度正規化器にηを使用する場合、数式(21)は下記の数式(22)のように示される。
[数式(22)]
【数67】

検出モデル610は、前述した過程を介して更新された第1モデル110のパラメータφによって第1モデルがトレーニングされれば、トレーニングされた第1モデル110を参照して前述したステップS613のように全体トレーニングデータセットのうち正解ラベルを含むクリーンデータサンプルの比率を予測することができる。検出モデル610は、クリーンデータサンプルを検出し、検出されていないデータを損傷したデータサンプルに表示してもよい。
【0146】
図7は、一実施形態に係るオートラベリング方法を示したフローチャートである。ステップS710~ステップS750は、順に実行されてもよいが、必ず順に実行されなくてもよい。例えば、各ステップの順が変更されてもよく、少なくとも2つのステップが並列的に実行されてもよく、又は、トレーニング方法を最適化するための付加的なステップが追加されてもよい。
【0147】
図7を参照すると、一実施形態に係るオートラベリング装置は、ステップS710~ステップS750を介してラベリングされたデータサンプルを出力してもよい。
【0148】
ステップS710において、オートラベリング装置は、入力データ及び入力データに対応するラベルを含むデータサンプルを受信する。入力データは、例えば、半導体、道路、又は3次元空間の映像を撮影するためのイメージセンサによって取得された映像データを含むが、イメージデータの例示が必ずこれに限定されることはない。
【0149】
ステップS720において、オートラベリング装置は、ステップS710で受信したデータサンプルを第1モデルに印加することによってラベルが誤答ラベルであるか否かを検出する。ここで、第1モデルは、ラベルに対する信頼度に基づいて、データサンプルに含まれた誤答ラベルを検出するようにトレーニングされた第1神経網を含んでもよい。
【0150】
ステップS730において、オートラベリング装置は、ラベルが誤答ラベルであるか否かを決定する。
【0151】
ステップS730でラベルが誤答ラベルであるという決定に応じて、ステップS740において、オートラベリング装置は、入力データを第2モデルに印加することによって誤答ラベルに対応する正解ラベルを出力する。第2モデルは、誤答ラベルを含むデータサンプルに対応する正解ラベルを推定するようにトレーニングされた第2神経網を含んでもよい。オートラベリング装置は、生成されたデータサンプルを補正されたラベルと共に表示するディスプレイを含んでもよい。
【0152】
これとは相違に、ステップS730でラベルが誤答ラベルでないという決定に応じて、ステップS750において、オートラベリング装置は、入力データに対応するラベルを保持したデータサンプルを出力してもよい。このような状況でディスプレイは、ラベルが保持された状態で生成されたデータサンプルを表示してもよい。
【0153】
図8は、一実施形態によりトレーニングされた検出モデル及びオートラベリングモデルを利用した半導体エラー検査装置の動作を説明するための図である。図8を参照すると、一実施形態によりトレーニングされた検出モデル810及びオートラベリングモデル830を含む半導体エラー検査装置800の動作過程が示されている。検出モデル810は、例えば、前述した第1モデル110又は検出モデル610に当該し、オートラベリングモデル830は、前述した第2モデル130又はラベリングモデル630に当該する。一例として、検出モデル810及びオートラベリングモデル830の全てが1つ以上の神経網を含んでもよい。
【0154】
データサンプル(x,y)801が検出モデル810に入力されれば、検出モデル810は、入力データであるデータサンプル(x,y)801に含まれたラベルyの信頼度を推定し、推定結果に応じてラベルyが誤答ラベルであるか否かを検出する。ここで、データサンプル(x,y)801のうち、入力データxは半導体映像(SEM Image)に当該し、ラベルyは半導体映像(SEM Image)に対応するエラーコード(例えば、「Defect code 131」)に当該する。
【0155】
検出モデル810は、ラベルyに対する信頼度に基づいて、データサンプル(x,y)801に含まれた誤答ラベルを検出するようにトレーニングされた神経網を含んでもよい。ラベルyの信頼度は、ラベルyが正解に該当する第1確率及び誤答に該当する第2確率を含んでもよい。ラベルyが誤答に該当する第2確率がラベルyが正解に該当する第1確率よりも高い場合、検出モデル810は、ラベルyが誤答ラベルであることを検出することができる。
【0156】
ラベルyが誤答ラベルであることが検出されれば、誤答ラベルに該当するラベルyはラベリングモデル830に入力されてもよい。
【0157】
オートラベリングモデル830は、誤答ラベルとして検出されたラベルyに対応する入力データxが入力されれば、誤答ラベルに対応する正解ラベル
【数68】

を推定し、推定された正解ラベル
【数69】

によって補正及びリラベリングされたデータサンプル
【数70】

803を出力してもよい。補正されたデータサンプル
【数71】

803に含まれた推定された正解ラベル
【数72】

は、入力データxである半導体映像(SEM Image)に対応する正解ラベルであって、例えば、「DOI code 138」であってもよい。
【0158】
オートラベリングモデル830は、誤答ラベルyを含むデータサンプル(x,y)801に対応する正解ラベル
【数73】

を推定するよう、トレーニングされた神経網を含んでもよい。
【0159】
オートラベリングモデル830は、入力データ分類モデルとして使用されてもよい。オートラベリングモデル830は、ラベリングされていない入力データに自動にラベルを付与してトレーニングデータサンプルとして活用してもよい。オートラベリングモデル830が入力データに自動にラベルを付与する過程は、下記の図10を参照して後述する。
【0160】
半導体エラー検査装置800は、半導体設備のエラー検査過程のうち半導体欠陥分類システムのトレーニングに使用されるデータ構成時のノイズに該当する誤答ラベルを検出して自動補正することができる。半導体欠陥(Defect)データは、設備の交換、エンジニアの経験、生産製品の種類などに応じて多様に発生し得るため、全体トレーニングデータセットに20%内外の誤答ラベルが含まれることがある。
【0161】
半導体エラー検査装置800は、ラベラー(labeler)に持続的なフィードバックを受けて誤答ラベルを直し、トレーニングする方法を使用しなくても自動的に誤答ラベルを検出及び補正することで、費用及び時間の側面で効率性を高めることができる。
【0162】
一実施形態において、トレーニングされた検出モデル及びトレーニングされたオートラベリングモデルを半導体検査に使用する場合について一例に挙げて説明したが、必ずこれに限定されることはない。例えば、様々な映像処理及び認識分野(例えば、オブジェクト検出(object detection)、セマンティックセグメンテーション(semantic segmentation)、顔認識(face recognition)、及びビデオキャプショニング(video captioning)など)でトレーニングされた検出モデル及びトレーニングされたオートラベリングモデルが使用されてもよい。
【0163】
図9は、一実施形態によりトレーニングされた検出モデルを利用した誤答ラベル検出装置の動作を説明するための図である。図9を参照すると、一実施形態に係る誤答ラベル検出装置900は、誤答ラベルを検出するようにトレーニングされた検出モデル810を含んでもよい。検出モデル810は、例えば、前述した第1モデル110又は検出モデル610に当該する。
【0164】
データサンプル(x,y)901が検出モデル810に入力されれば、検出モデル810は、入力データであるデータサンプル(x,y)901に含まれるラベルyの信頼度を推定し、推定結果によってラベルyが誤答ラベルであるか否かを検出する。このとき、データサンプル(x,y)901のうち入力データxは、半導体映像(SEM Image)に該当し、ラベルyは半導体映像(SEM Image)に対応するエラーコード(例えば、「Defect code 131」)に該当する。
【0165】
図10は、一実施形態によりトレーニングされたオートラベリングモデルを利用したオートラベリング装置の動作を説明するための図である。図10を参照すると、一実施形態に係るオートラベリング装置1000は、オートラベリング動作を行うようにトレーニングされたオートラベリングモデル830を含んでもよい。オートラベリングモデル830は、前述した第2モデル130又はラベリングモデル630に当該する。
【0166】
オートラベリングモデル830は、入力データx1001が入力されれば、入力データx1001に対応する正解ラベル
【数74】

を推定し、推定された正解ラベル
【数75】

を含むデータサンプル
【数76】

1005を出力してもよい。ここで、データサンプル
【数77】

1005に含まれた推定された正解ラベル
【数78】

は、入力データx1001である半導体映像(SEM Image)に対応する正解ラベルであって、例えば、「DOI code 138」のようなエラーコードであってもよい。
【0167】
オートラベリング装置1000は、SEMイメージをキャプチャーするイメージセンサを含んでもよい。
【0168】
図11は、一実施形態に係るオートラベリングのためのトレーニング装置のブロック図である。図11を参照すると、一実施形態に係るトレーニング装置1100は、通信システム1110、プロセッサ1130、メモリ1150、及びイメージセンサ1170を含む。通信システム1110、プロセッサ1130、メモリ1150及びイメージセンサ1170は、通信バス1105を介して接続されたり、又は、無線に互いに接続されてもよい。
【0169】
通信システム1110は、例えば、有線又は無線トランシーバー又は他の受信ハードウェアインターフェースのようなハードウェアインターフェースを介してトレーニングのためのデータセットを受信してもよい。トレーニングデータセットは、入力データ及び入力データに対応するラベルを含むデータサンプルであってもよい。入力データは、例えば、半導体、道路又は3次元空間をイメージで撮影するためのイメージセンサ1170によって取得されたイメージデータを含んでもよく、イメージデータの例が、必ずこれに限定されることはない。
【0170】
プロセッサ1130は、データセットに含まれたラベルに対する信頼度に基づいて、データセットに含まれた誤答ラベルを検出する第1モデル、及びラベルの正解ラベルを推定する第2モデルを繰り返しトレーニングする。ここで、プロセッサ1130は、誤答ラベルを補正したデータサンプルを用いて、信頼度を予測するように第1モデルをトレーニングする。プロセッサ1130は、信頼度に基づいて分類された、誤答ラベルを含む第1データサンプルに対応する正解ラベルを推定するように第2モデルをトレーニングする。プロセッサ1130は、推定した正解ラベルによって誤答ラベルを補正及びリラベリングする。プロセッサ1130は、第1モデル及び第2モデルのうち少なくとも1つを用いて、誤答ラベルを補正したデータサンプルを生成する。
【0171】
プロセッサ1130は、プログラムを実行し、トレーニング装置1100を制御してもよい。プロセッサ1130によって実行されるプログラムコード(又は命令)はメモリ1150に格納されてもよい。
【0172】
また、プロセッサ1130は、図1図6を参照して前述した少なくとも1つの方法又は少なくとも1つの方法に対応する方式を行ってもよい。プロセッサ1130は、目的とする動作(desired operations)を実行させるための物理的な構造を有する回路を有するハードウェアで具現されたトレーニング装置であってもよい。例えば、目的とする動作は、プログラムに含まれたコード(code)又は命令(instructions)を含んでもよい。例えば、ハードウェアで具現されたトレーニング装置1100は、マイクロプロセッサ(microprocessor)、中央処理適応的スーパーサンプリング装置(Central Processing Unit(中央処理装置);CPU)、グラフィック処理適応的スーパーサンプリング装置(Graphic Processing Unit(グラフィック処理装置);GPU)、プロセッサコア(processor core)、マルチ-コアプロセッサ(multi-core processor)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit(特定用途向け集積回路))、FPGA(Field Programmable Gate Array(フィールドプログラマブルゲートアレイ))、NPU(Neural Processing Unit(ニューラル処理ユニット))などを含んでもよい。
【0173】
メモリ1150は、少なくとも1つのプログラムを格納する。また、メモリ1150は、プロセッサ1130の処理過程で生成される様々な情報を格納してもよい。メモリ1150は、トレーニングデータセットを格納してもよい。メモリ1150は、プロセッサ1130が推定した正解ラベルによって補正された誤答ラベル及び補正された誤答ラベルを含むデータサンプルを格納してもよい。また、メモリ1150は、データセットに含まれた誤答ラベルを検出する第1モデル、及びラベルの正解ラベルを推定する第2モデルを格納してもよい。その他にも、メモリ1150は、各種のデータとプログラムなどを格納してもよい。メモリ1150は、揮発性メモリ又は不揮発性メモリを含んでもよい。メモリ1150は、ハードディスク又はそれに類似の大容量格納媒体を備えて各種のデータを格納してもよい。
【0174】
非制限的な例として、イメージセンサ1170は、入力イメージをキャプチャーするように構成されてもよい。
【0175】
図12は、一実施形態に係るオートラベリング装置のブロック図である。図12を参照すると、一実施形態に係るオートラベリング装置1200は、通信システム1210、プロセッサ1230、メモリ1250、及びイメージセンサ1270を含む。通信システム1210、プロセッサ1230、メモリ1250、及びイメージセンサ1270は通信バス1205を介して接続されたり、又は、無線に互いに接続されてもよい。
【0176】
通信システム1210は、入力データ及び入力データに対応するラベルを含むデータサンプルを受信する。入力データは、例えば、半導体、道路、又は3次元空間を撮影した映像データを含むが、映像データは必ずこれに限定されることはない。
【0177】
プロセッサ1230は、データサンプルを第1モデルに印加することによってラベルが誤答ラベルであるか否かを検出する。第1モデルはラベルに対する信頼度に基づいて、データサンプルに含まれた誤答ラベルを検出するようにトレーニングされた第1神経網を含む。
【0178】
また、プロセッサ1230は、ラベルが誤答ラベルであるという決定に応じて、入力データを第2モデルに印加することによって誤答ラベルに対応する正解ラベルを出力することができる。第2モデルは、誤答ラベルを含むデータサンプルに対応する正解ラベルを推定するようにトレーニングされた第2神経網を含んでもよい。
【0179】
プロセッサ1230はプログラムを実行し、オートラベリング装置1200を制御してもよい。プロセッサ1230によって実行されるプログラムコード(又は、命令)は、メモリ1250に格納されてもよい。
【0180】
また、プロセッサ1230は、図7ないし図10を参照して後述する少なくとも1つの方法又は少なくとも1つの方法に対応する技法を行うプロセッサ1230で、目的とする動作(desiredoperations)を実行させるための物理的な構造を有する回路を有するハードウェアで具現されたオートラベリング装置であってもよい。例えば、目的とする動作は、プログラムに含まれるコード又は命令を含んでもよい。例えば、ハードウェアで具現されたオートラベリング装置1200は、マイクロプロセッサ(microprocessor)、中央処理適応スーパーサンプリング装置(Central Processing Unit;CPU)、グラフィック処理適応スーパーサンプリング装置(Graphic Processing Unit; GPU)、プロセッサコア(processor core)、マルチコアプロセッサー(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(FieldProgrameProgrammable)、NPU(Neural Processing Unit)などを含んでもよい。
【0181】
メモリ1250は、少なくとも1つのプログラムを格納する。また、メモリ1250は、プロセッサ1230の処理過程で生成される様々な情報を格納してもよい。メモリ1250は、第1モデル及び/又は第2モデルを格納してもよい。その他にも、メモリ1250は、各種のデータとプログラムなどを格納してもよい。メモリ1250は、揮発性メモリ又は不揮発性メモリを含んでもよい。メモリ1250は、ハードディスクなどのような大容量格納媒体を備えて各種のデータを格納してもよい。
【0182】
非制限的な例として、イメージセンサ1270は、入力イメージをキャプチャーするように構成されてもよい。
【0183】
プロセッサ、メモリ、電子装置、装置、装置100、500、600、800、900、1000、1100及び1200、第1及び第2モデル110及び130、検出及びオートラベリングモデル610、630、810、及び830、通信システム1110及び1210、プロセッサ1130及び1230、メモリ1150及び1250、及びイメージセンサ1170及び1270は、図1図12に関連して本明細書に開示されている。図1図12は、ハードウェア構成要素によって具現されたりハードウェア構成要素を示す。
【0184】
以上で説明した実施形態は、ハードウェアコンポーネント、ソフトウェアコンポーネント、及び/又はハードウェアコンポーネント及びソフトウェアコンポーネントの組み合わせで具現されることができる。例えば、実施形態で説明する適応スーパーサンプリング装置、方法及びコンポーネントは、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPGA(Field Programmable gate array)、PLU(Programmable logic unit)、マイクロプロセッサ又はコマンドを実行して応答できる他の適応型スーパーサンプリング装置のように汎用コンピュータ又は特殊目的のコンピュータを使用して具現することができる。処理適応的スーパーサンプリング装置は、オペレーティングシステム(OS)及び上記オペレーティングシステム上で実行されるソフトウェアアプリケーションを実行することができる。また、処理適応的スーパーサンプリング装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成してもよい。理解の便宜のために、処理適応的スーパーサンプリング装置は1つが使用されるものと説明された場合もあるが、当該の技術分野で通常の知識を有する者は、処理適応的スーパーサンプリング装置が複数の処理要素(processing element)及び/又は複数タイプの処理要素を含み得ることが分かる。例えば、処理適応スーパーサンプリング装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含んでもよい。また、並列プロセッサ(parallel processor)のような、他の処理構成(processing configuration)も可能である。
【0185】
ソフトウェアは、コンピュータプログラム(computer program)、コード(code)、命令(instruction)、又はそのいずれかの組み合わせを含んでもよく、希望のように処理適応的スーパーサンプリング装置を構成したり独立的又は結合的に(collectively)処理適応的スーパーサンプリング装置を命令することができる。ソフトウェア及び/又はデータは、処理適応スーパーサンプリング装置によって解釈されるか、処理適応スーパーサンプリング装置に命令又はデータを提供するために、いずれかのタイプの機械、コンポーネント、物理適応スーパーサンプリング装置、仮想適応スーパーサンプリング装置、コンピュータ記憶媒体、又は適応スーパーサンプリング装置、又は送信される信号波に永久的に具体化することができる。ソフトウェアは、ネットワーク接続されたコンピュータシステム上に分散され、分散された方法で格納又は実行されてもよい。ソフトウェア及びデータは、コンピュータ読み取り可能な記録媒体に格納することができる。
【0186】
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
【0187】
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例として、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。
【0188】
上記で説明したハードウェア適応的スーパーサンプリング装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモデルとして作動するように構成してもよく、その逆も同様である。
【0189】
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順に実行され、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法とは異なる形態に結合又は組み合わせられてもよく、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
【0190】
したがって、他の具現、他の実施形態及び特許請求の範囲と均等なものも後述する特許請求範囲の範囲に属する。
【符号の説明】
【0191】
110:第1モデル
130:第2モデル
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12