IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ マイクロトレース,エルエルシーの特許一覧

特表2024-524143圧縮および解凍変換を使用してデータを再構成する人工知能戦略を使用する分類
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-07-05
(54)【発明の名称】圧縮および解凍変換を使用してデータを再構成する人工知能戦略を使用する分類
(51)【国際特許分類】
   G06N 3/0455 20230101AFI20240628BHJP
【FI】
G06N3/0455
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023577953
(86)(22)【出願日】2022-06-15
(85)【翻訳文提出日】2024-02-15
(86)【国際出願番号】 US2022033605
(87)【国際公開番号】W WO2022266208
(87)【国際公開日】2022-12-22
(31)【優先権主張番号】63/211,245
(32)【優先日】2021-06-16
(33)【優先権主張国・地域又は機関】US
(81)【指定国・地域】
(71)【出願人】
【識別番号】523473305
【氏名又は名称】マイクロトレース,エルエルシー
(74)【代理人】
【識別番号】110000338
【氏名又は名称】弁理士法人 HARAKENZO WORLD PATENT & TRADEMARK
(72)【発明者】
【氏名】ライ,チー
(72)【発明者】
【氏名】ロエグリン,ブレイク,エム.
(72)【発明者】
【氏名】バストロム,ブライアン,ティー.
(72)【発明者】
【氏名】ブロッガー,ブライアン,ジェイ.
(57)【要約】
本発明は、サンプルを分類するために使用することができるAI戦略を提供する。戦略はAIモデルを使用して、サンプルのための入力データセットを変換し、再構成データセットに再構成する。変換の一態様は、データの少なくとも1つの圧縮、および/またはデータの少なくとも1つの解凍(または展開)を含む。好ましくは、変換は、複数のデータ圧縮段階でデータを圧縮することと、複数のデータ解凍段階または解凍段階でデータを解凍または展開することとを含む。データを圧縮および解凍する利点は、変換が非常に複雑になり、訓練された真正なサンプルに一意的に適合するようになり、関連するクラスの真正なサンプルのみが、高い分類精度で再構成誤差閾値を満たすのに十分な精度で再構成されることができることである。関連するクラス以外の他のサンプルの再構成誤差は一般に、再構成誤差閾値を満たすのに十分に正確には再構成されない。
【特許請求の範囲】
【請求項1】
サンプルのアイデンティティを評価するためのシステムであって、少なくとも1つのメモリに動作可能に結合された少なくとも1つのハードウェアプロセッサを備え、前記ハードウェアプロセッサは、前記少なくとも1つのメモリに記憶された以下の命令を含むことを実行するように構成される、システム:
a)前記サンプルを特徴付ける入力データセットを受信すること;
b)前記AIモデルが、前記入力データセットを含む情報から導出されたデータフローを圧縮/収縮および伸張/拡張して再構成データセットを提供することを含む変換を用いて、前入力データセットを含む情報を前記再構成データセットに変換するように、一意に訓練され、少なくとも1つの対応するクラスに関連付けられた人工知能(AI)モデルにアクセスすることであって、前記再構成データセットと前入力データセットとの間の再構成誤差は前記サンプルが前記少なくとも1つの対応するクラスにあるかどうかを示し、
c)前記入力データセットを含む情報を前記再構成データセットに変換するためにAIモデルを使用すること;
d)前記再構成誤差を決定するために、前記再構成データセットを含む情報を使用することと、
e)前記再構成誤差を含む情報を使用して、前記サンプルが前記少なくとも1つの対応するクラスにあるかどうかを示す情報を決定すること。
【請求項2】
サンプルがクラスにあるかどうかを決定するための方法であって:
a)前記サンプルに関連する特性を示す情報を含む入力データセットを提供するステップ;
b)再構成データセットを提供するために、前記入力データセットを含む情報を変換するステップであって、前記変換するステップは、前記入力データセットを含む情報から導出されたデータのフローを圧縮および解凍することを含み、前記再構成データセットに関連する再構成誤差は前記サンプルが前記クラスにあるかどうかを示す、ステップ;及び
c)前記サンプルが前記クラスにあるかどうかを決定するために、前記再構成誤差を含む情報を使用するステップ、
を含む、方法。
【請求項3】
ステップb)は、1つまたは複数の圧縮段階で前記入力データセットを圧縮し、圧縮データを提供し、次いで、1つまたは複数の段階で前記圧縮データを解凍し、前記再構成データセットを提供するステップを含む、請求項2に記載の方法。
【請求項4】
ステップb)は、1つまたは複数の拡張段階で入力データセットを拡張して拡張データを提供し、次いで、1つまたは複数の段階で前記拡張データを圧縮して前記再構成データセットを提供するステップを含む、請求項2に記載の方法。
【請求項5】
ステップb)が複数の圧縮段階を含む、請求項2に記載の方法。
【請求項6】
ステップb)が、複数の減圧または拡張段階を含む、請求項2に記載の方法。
【請求項7】
ステップc)は、前記再構成誤差が誤差仕様内にあるかどうかを決定するステップを含む、請求項2に記載の方法。
【請求項8】
ステップb)は、訓練され特殊化されたAIモデルを使用して、前記入力データセットを前記再構成データセットに変換するステップを含む、請求項2に記載の方法。
【請求項9】
複数のクラスにそれぞれ関連する複数の訓練され特殊化されたAIモデルを提供するステップをさらに含み、ステップb)は各AIモデルが前記入力データセットを関連する再構成データセットに変換するために使用され、再構成誤差が前記再構成データセットの各々について決定されるような方法で繰り返され、ステップc)は前記サンプルが訓練され特殊化されたAIモデルのいずれかに関連するクラスにあるかどうかを決定するために、前記再構成誤差を含む情報を使用するステップを含む、請求項2に記載の方法。
【請求項10】
ステップb)が、入力データセットまたはその派生物を、前記再構成データセットまたはその派生物と比較するステップを含む、請求項2に記載の方法。
【請求項11】
前記訓練され特殊化されたAIモデルを更新するステップをさらに含む、請求項8に記載の方法。
【請求項12】
前記訓練されたAIモデルは、関連するスペクトルシグネーチャに関して訓練され、特殊化される、請求項8に記載の方法。
【請求項13】
前記訓練されたAIモデルは、関連するタガントシステムに関して訓練され、特殊化される、請求項8に記載の方法。
【請求項14】
各訓練され特殊化されたAIモデルが、関連する一意のタガントシステムに関して訓練される、請求項9に記載の方法。
【請求項15】
前記サンプルは対応するスペクトルシグネーチャに関連付けられたタガントシステムを備え、ステップa)が、前記サンプルのスペクトル特性を検出するためにリーダを使用するステップを含む、請求項2に記載の方法。
【請求項16】
前記スペクトル特性が、約380nm~約1000nmの範囲の1つ以上の波長帯域にわたって捕捉される、請求項15に記載の方法。
【請求項17】
前記タガントシステムが、1つまたは複数の発光タガント化合物を含む、請求項15に記載の方法。
【請求項18】
前記入力データセットが、波長範囲にわたる波長の関数としてのスペクトルの強度値を含む、請求項2に記載の方法。
【請求項19】
前記再構成データセットが、前記波長範囲にわたる波長の関数としてのスペクトルの再構成された強度値を含む、請求項18に記載の方法。
【請求項20】
ステップc)が、前記再構成データセットの強度値またはその導関数を、前記入力データセットの強度値またはその導関数と比較するステップを含む、請求項19に記載の方法。
【請求項21】
ステップc)が、波長範囲にわたるプロファイルとして比較値を提供するステップを含む、請求項2に記載の方法。
【請求項22】
誤差仕様が、前記サンプルが前記クラスにあるとき、前記比較値の十分な割合を包含する境界を提供する、請求項21に記載の方法。
【請求項23】
前記サンプルに関連する前記特性が、前記サンプルまたはその構成要素から収集された光学的情報を含む、請求項2に記載の方法。
【請求項24】
前記光学的情報がスペクトル特性を含む、請求項23に記載の方法。
【請求項25】
前記AIモデルは、5~50個の隠れ層を備える、請求項8に記載の方法。
【請求項26】
前記AIモデルは、2~10個の隠れ層を備える、請求項8に記載の方法。
【請求項27】
前記AIモデルは、8つの隠れ層を備える、請求項8に記載の方法。
【請求項28】
ステップb)がデータフローを漸進的に圧縮し、前記データフローを漸進的に解凍するステップを含む、請求項25に記載の方法。
【請求項29】
ステップb)がデータフローを漸進的に拡張し、前記データフローを漸進的に圧縮することを含む、請求項25に記載の方法。
【請求項30】
前記データフローを圧縮する隠れ層の数は、前記データフローを解凍または拡張する隠れ層の数とは異なる、請求項28または29に記載の方法。
【請求項31】
前記データフローを圧縮する隠れ層の数は、前記データフローを解凍または拡張する隠れ層の数に等しい、請求項28または29に記載の方法。
【請求項32】
前記AIモデルは、データ圧縮領域と、データ伸張または伸張領域とを含むアーキテクチャを含む、請求項8に記載の方法。
【請求項33】
前記サンプルが宝石である、請求項2に記載の方法。
【請求項34】
サンプルがクラスにあるかどうかを示す情報を決定するシステムを作る方法であって:
a)前記クラスに関連する少なくとも1つの訓練サンプルを含む訓練サンプルセットを提供するステップ;
b)前記訓練サンプルセットの対応する訓練サンプルを特徴付ける入力データセットを提供するステップ;
c)前記入力データセットを圧縮および解凍・拡張して変換し、再構成データセットのデータのフローを拡張する人工知能(AI)モデルを提供ステップであって、前記変換することは、データのフローを圧縮することと、データのフローを解凍または拡張することとを含み、前記再構成データセットに関連する再構成誤差は前記入力データセットと前記再構成データセットとの間の差異を特徴付ける、ステップと、
d)前記再構成誤差が、前記サンプルが前記関連するクラスにあるかどうかを示すように、前記AIモデルを訓練するために、前記入力データセットを含む情報を使用するステップと、を含む、方法。
【請求項35】
前記訓練サンプルセットは前記クラスに関連する複数の訓練サンプルを含み、ステップb)は前記訓練サンプルの各々にそれぞれ対応する入力データセットを提供するステップを含み、ステップd)は前記入力データセットを使用して、前記AIモデルを訓練して、前記入力データセットを関連する再構成データセットに変換するステップを含み、前記変換は複数のデータ圧縮段階および複数のデータ解凍または拡張段階を使用し、ステップd)は、前記再構成データセットの所望の割合が前記クラスに関連する前記訓練サンプルを示す誤差仕様を満たすまで、前記AIモデルを訓練するステップを含む、請求項34に記載の方法。
【請求項36】
各訓練サンプルは真正のタガントシグネーチャを備え、前記AIモデルは前記入力データセットを、誤差仕様内で前記入力データセットと一致する再構成データセットに変換するように訓練される、請求項35に記載の方法。
【請求項37】
ステップa)~d)が複数の訓練され特殊化されたAIモデルを提供するのに効果的な方法で繰り返され、各モデルが関連する対応するクラスに関して特殊化されるように訓練される、請求項36に記載の方法。
【請求項38】
ステップd)は、前記訓練サンプルが誤差仕様内にある再構成誤差を提供するように、前記AIモデルを訓練することを含む、請求項34に記載の方法。
【請求項39】
前記再構成誤差が、前記入力データセットと前記再構成データセットとの間の比較に関連する値の配列から導出される、請求項34に記載の方法。
【請求項40】
前記配列が移動平均値を含む、請求項39に記載の方法。
【請求項41】
前記再構成誤差が、サンプル数の関数としての誤差値のプロファイルを含む、請求項39に記載の方法。
【請求項42】
前記誤差仕様は閾値である、請求項38に記載の方法。
【請求項43】
前記誤差仕様は、第1および第2の閾値を含む、請求項38に記載の方法。
【請求項44】
前記再構成誤差は比較値の配列から導出された値である、請求項38に記載の方法。
【請求項45】
前記再構成誤差は和である、請求項44に記載の方法。
【請求項46】
前記再構成誤差は平均である、請求項44に記載の方法。
【請求項47】
前記再構成誤差が平均二乗誤差である、請求項44に記載の方法。
【請求項48】
前記再構成誤差が二乗平均平方根誤差である、請求項44に記載の方法。
【請求項49】
前記再構成誤差がユークリッド距離に基づく、請求項44に記載の方法。
【請求項50】
ステップd)が少なくとも5回の訓練サイクルを含む、請求項34に記載の方法。
【請求項51】
ステップd)が、少なくとも10の訓練サイクルを含む、請求項34に記載の方法。
【請求項52】
前記サンプルが宝石である、請求項34に記載の方法。
【請求項53】
前記ステップd)は、前記再構成データセットに対する前記再構成誤差が誤差仕様内にあるように前記AIモデルを訓練することを含む、請求項34に記載の方法。
【請求項54】
ステップa)は、前記クラスに関連する複数の訓練サンプルを提供することを含む、請求項34に記載の方法。
【請求項55】
前記ステップd)は、前記訓練サンプルの所望の部分が前記クラス内にあると認識されるまで、前記訓練サンプルを使用して前記AIモデルを訓練することを含む、請求項54に記載の方法。
【請求項56】
ステップd)は、1つまたは複数の圧縮段階で前記入力データセットを圧縮して圧縮データを提供し、次いで、1つまたは複数の段階で前記圧縮データを解凍して前記再構成データセットを提供することを含む、請求項34に記載の方法。
【請求項57】
ステップd)は、1つまたは複数の拡張段階で入力データセットを拡張して拡張データを提供し、次いで、1つまたは複数の段階で前記拡張データを圧縮して前記再構成データセットを提供することを含む、請求項34に記載の方法。
【請求項58】
ステップd)は、複数の圧縮段階を含む、請求項34に記載の方法。
【請求項59】
ステップd)は、複数の圧縮または拡張段階を含む、請求項34に記載の方法。
【請求項60】
ステップd)は、前記再構成データセットが誤差仕様内で前記入力データセットと一致するかどうかを決定することを含み、その結果、誤差仕様内での前記再構成データセットと前記入力データセットとの間の一致が、前記サンプルが前記クラス内にあることを示す、請求項34に記載の方法。
【請求項61】
ステップd)は、前記入力データセットまたはその派生物を、前記再構成データセットまたはその派生物と比較することを含む、請求項34に記載の方法。
【請求項62】
前記訓練されたAIモデルを経時的に更新するステップをさらに含む、請求項34に記載の方法。
【請求項63】
前記訓練されたAIモデルは、関連するスペクトルシグネーチャに関して訓練される、請求項34に記載の方法。
【請求項64】
前記訓練されたAIモデルは、関連するタガントシステムに関して訓練される、請求項34に記載の方法。
【請求項65】
各訓練されたAIモデルが、関連する一意のタガントシステムに関して訓練される、請求項37に記載の方法。
【請求項66】
前記サンプルは対応するスペクトルシグネーチャに関連付けられたタガントシステムを含み、ステップb)は、前記サンプルのスペクトル特性を検出するためにリーダを使用することを含む、請求項34に記載の方法。
【請求項67】
前記スペクトル特性は、約380nm~約1000nmの範囲の1つ以上の波長帯域にわたって捕捉される、請求項66に記載の方法。
【請求項68】
前記タガントシステムは、1つまたは複数の発光タガント化合物を含む、請求項66に記載の方法。
【請求項69】
前記入力データセットは、ある波長範囲にわたる波長の関数としてのスペクトルの強度値を含む、請求項34に記載の方法。
【請求項70】
前記再構成データセットは、前記波長範囲にわたる波長の関数としてのスペクトルについての再構成された強度値を含む、請求項69に記載の方法。
【請求項71】
ステップd)は、前記再構成データセットの強度値またはその導関数を、前記入力データセットの強度値またはその導関数と比較することを含む、請求項70に記載の方法。
【請求項72】
ステップd)は、波長範囲にわたるプロファイルとして比較値を提供することを含む、請求項34に記載の方法。
【請求項73】
誤差仕様は、前記比較値の十分な割合を包含するように境界として設定される、請求項72に記載の方法。
【請求項74】
前記サンプルに関連する前記特性は、前記サンプルまたはその構成要素から収集された光学的情報を含む、請求項34に記載の方法。
【請求項75】
前記光学的情報はスペクトル特性を含む、請求項74に記載の方法。
【請求項76】
前記AIモデルは、5~50個の隠れ層を含む、請求項34に記載の方法。
【請求項77】
前記AIモデルは、2~10個の隠れ層を含む、請求項34に記載の方法。
【請求項78】
前記AIモデルは、8つの隠れ層を含む、請求項34に記載の方法。
【請求項79】
ステップd)は、データフローを漸進的に圧縮し、前記データフローを漸進的に解凍することを含む、請求項77に記載の方法。
【請求項80】
ステップd)は、データフローを漸進的に拡張し、前記データフローを漸進的に圧縮することを含む、請求項77に記載の方法。
【請求項81】
前記データフローを圧縮する隠れ層の数は、前記データフローを解凍または拡張する隠れ層の数とは異なる、請求項79または80に記載の方法。
【請求項82】
前記データフローを圧縮する隠れ層の数は、前記データフローを解凍または拡張する隠れ層の数に等しい、請求項79または80に記載の方法。
【請求項83】
前記AIモデルは、データ圧縮領域と、データ拡張または解凍領域とを含むアーキテクチャを含む、請求項34に記載の方法。
【請求項84】
サンプルが真正のタガントシステムに関連するクラス内にあるかどうかを示す情報を決定するシステムを作成する方法であって:
a)少なくとも1つの訓練サンプルを提供するステップであって、前記訓練サンプルは前記真正のタガントシステムを含み、前記真正のタガントシステムは、真正のスペクトルシグネーチャに関連するスペクトル特性を示す、ステップ;
b)前記訓練サンプルのための入力データセットを含む情報を提供するステップであって、前記入力データセットは、前記真正のタガントシステムによって示される前記スペクトル特性を示す情報を含む、ステップ;
c)データのフローを圧縮および解凍/拡張して再構成データセットを提供する人工知能(AI)モデルを提供するステップであって、前記再構成データセットに関連する再構成誤差が、前記入力データセットと前記再構成データセットとの間の差異を特徴付ける、ステップ;および、
d)前記再構成誤差は前記サンプルが前記関連するクラスにあるかどうかを示すように、前記AIモデルを訓練するために、前記入力データセットを含む情報を使用するステップ、
を含む、方法。
【請求項85】
サンプルが真正クラスにあるかどうかを示す情報を決定する分類システムであって、前記分類システムは:
a)真正のタガントシステムが、前記真正のスペクトルシグネーチャに関連するスペクトル特性を示す、前記真正のクラスに関連する真正のタガントシステム;および、
b)少なくとも1つのメモリに動作可能に結合された少なくとも1つのハードウェアプロセッサを備えるコンピュータネットワークシステムであって、前記ハードウェアプロセッサは、少なくとも1つのメモリに記憶された命令を備え:
i.訓練され、前記真正のクラスに関連付けられた人工知能(AI)モデルにアクセスすることであって、前記AIモデルが前記入力データセットを含むデータフローを圧縮/収縮および解凍/拡張することを含む変換を用いて、前記サンプルに関する入力データセットを再構成データセットに変換し前記再構成データセットを提供し、前記入力データセットは前記サンプルに関連付けられたスペクトル情報を含み、前記再構成データセットと前記入力データセットとの間の再構成誤差は、前記サンプルが真正のクラスの内側にあるか外側にあるかを示し;
ii.前記AIモデルおよび前記入力データセットを含む情報を使用して、前記再構成データセットの取得し;
iii.前記再構成誤差を決定するために前記再構成データセットを含む情報を使用し、
iv.前記再構成誤差を含む情報を用いて、前記サンプルが前記真正クラスの内側にあるか外側にあるかを示す情報を決定する、ことを、
を実行するように構成される、分類システム。
【発明の詳細な説明】
【技術分野】
【0001】
本出願は、2021年6月16日に出願された「人工知能戦略を用いた分類、圧縮及び圧縮解除変換を用いてデータを再構成する」と題する米国仮特許出願第63/211,245号の優先権を主張し、その開示は、すべての目的のためにそれぞれの全体が参照により本明細書に組み込まれる。
【0002】
本発明は、サンプルを分類するのに有用な人工知能(AI)戦略に関する。この戦略は、少なくとも1つの対応するクラスに関して訓練され特殊化されたAIモデルを使用して、対応する1つまたは複数のクラス内のサンプルについての結果として生じる再構成誤差特性が1つまたは複数のクラス外のサンプルについての再構成誤差よりも小さくなるように、サンプルについてのデータを再構成する。その結果、サンプルの再構成誤差特性は、それらの分類を示す。有利なことに、AIモデルは1つまたは複数のクラス外のサンプルを用いて訓練する必要なしに、その1つまたは複数のクラス内のサンプルのみを用いて正確な分類を提供するように訓練することができる。
[背景技術]
【0003】
様々な分類戦略を使用して、サンプルを1つ以上の関心のあるクラスに分類するか、またはサンプルが1つ以上のクラスにないことを決定することができる。1つの例示的な戦略として、分類は人工知能(AI)モデルを使用して、サンプルの特性を評価し、その結果を使用してサンプルを分類することができる。機械学習(ML)は、データの使用からの経験および学習を通して自動的に改善するアルゴリズムを含む人工知能の一種である。例えば、MLまたは他のAIアプローチが、企業を業績に基づいていくつかのクレジットランキングのうちの1つに分類するために使用されている。同様のアプローチが、検査結果に基づいて、患者を数少ない診断の1つに分類するためにも使用されている。セキュリティ業界では、製品が真正か偽物かを確認するために、製品を分類することができることが有用であろう。識別を確認し、ID窃盗のリスクを低減すること、宝石の起源または原産地を分類すること(例えば、異なる鉱山からのダイヤモンドの起源を分類すること)、マシンからの音波を評価すること(例えば、船または他の車両を識別すること、適切な機能を評価することなど)、バイオメトリクスを評価すること、タガントシグナルを評価すること、天然材料および人工材料を評価すること、製品鮮度を評価すること、劣化を評価すること、バイオ検出を達成することなどを含む、様々な他の用途に分類戦略を適用することが有用である。
【0004】
AIモデルは一般に、適切な訓練サンプルから得られた訓練データを使用して訓練される。各サンプルおよびその対応するサンプルクラスの記述情報(すなわち、変数)を含む十分な訓練・データが提供される場合、MLまたはAIモデルは、変数と分類の目的サンプルクラスとの間の隠れ関係を学習することができる。AIモデルは一般に、分類タスクのための隠れた非線形関係を学習するために、大量の相互接続された人工ニューロンを含むアーキテクチャを有する。AIモデルは、人工知能ニューラルネットワーク(ANN)またはディープニューラルネットワークとしても知られている。
【0005】
人工知能の分野では、典型的なAIモデルは、多くの属性または特性を含む。第1の属性は、評価のためにAIモデルに供給される入力データ値を含む入力層または入力データセットである。典型的なAIモデルは、また、変換から生じる出力値を含む出力層への出力データを生成するために、入力データを変換する1つまたは複数の隠れ層を含む。各隠れ層は、典型的には、ノードまたはニューロンの配列を含む。各隠れ層におけるノードの数および配列サイズは同じであってもよいし、隠れ層ごとに異なっていてもよい。分類決定は、出力結果に基づいて、または出力結果から導出された情報から行うことができる。
【0006】
隠れ層間のノードは、データが流れる経路またはリンクによって、互いに接続され、入力層および出力層に接続される。データの流れは、しばしば複数のリンクを介して、各ノードへの入力として提供される。各ノードは、データに変換を適用して、変換された出力を生成する。各ノードの出力は、人工知能の分野において、その活性化値またはそのノード値として参照され得る。各ノードの活性化値は、多くの場合、1つまたは複数の他の隠れ層内の複数の他のノードおよび/または出力層に供給される。典型的なAIモデルはまた、重み、バイアス、パラメータ、ならびに経路およびノードに関連する他の特性を含む。
【0007】
AIモデルは一般に、正確な結果を生成するために訓練されなければならない。訓練は、AIモデルを使用して、1つまたは複数の訓練サンプルから取得された訓練データを処理することによって行われる。訓練プロセス中、AIモデルは、隠れ層の重み及びバイアスを徐々に調整することによって学習することが多い。多くの場合、重量及びバイアス特性は、少なくとも出力層における出力値の誤差特性を含む情報の関数として調整される。いくつかの例では、AIモデルがニューラルネットワークの誤差を低減するのに役立つ、いわゆる損失関数を組み込む。
【0008】
従来の訓練によれば、次いで、訓練されたAIモデルを使用して、分類が決定される1つまたは複数のサンプルを分類することができる。多くの従来のAIモデルは、分類を達成するために確率計算を使用する。AIモデルは、入力層への入力としてサンプルの特性を使用し、次いで、AIモデルが訓練された1つまたは複数のサンプルクラスに属するサンプルの確率を計算する。サンプルは多くの場合、最も高い確率を有するクラスに予測される(すなわち、分類される)。例えば、サンプルを例示的なクラスT1、T2、またはT3のうちの1つに分類することが望まれる研究を考える。モデルの適用が、特定のサンプルの確率がクラスT1、T2、およびT3のうちの1つに属することをそれぞれ0.31、0.64、および0.05であると決定する場合、サンプルはクラスT2が0.64の最高確率を有するので、クラスT2に分類される(すなわち、予測される)。この分類プロセスは、本明細書では「確率的分類」と呼ばれる。
【0009】
ANNにおける結果を得るための入力データの変換は、ニューラルネットワーク内の層にわたって生じる一連の数学的変換によって行われる。これが従来の確率的分類アプローチを介してどのように達成され得るかを示すために、以下の式(1)は、ニューロンのその隠れ層を通して各入力サンプルXを処理するAIモデルにおける例示的な変換関数F(X)を説明する。nの値は、多くの場合、少なくとも1、又は更には少なくとも2、又は更には少なくとも10、又は更には少なくとも100である。nの値は、1000、又は更には10,000、又は更には100,000、又は更には1,000,000以上であり得る。変数bは、層j(j=1~n)におけるすべてのニューロンのバイアスを表す。さらに、変数xは入力サンプルからのithを表し、θn,n-1は、層nおよびn-1におけるニューロン間の結合の重みを表す。
【数1】

最終層nにおける出力値Znは、次いで、Softmax関数または同様の関数に入力されて、各クラスに属する入力サンプルの確率を計算する。以下の数式(2)に示すソフトマックス関数は、最終的なnth層におけるアウトプット値Znを、合計が1になる個々の確率に正規化する。
【0010】
【数2】

確率的分類は、精度の問題を含む多くの欠点を有する。例えば、タガントシステムが真正の製品に取り付けられているときに、真正の製品を偽造製品と区別しようとするときに、1つの正確さの問題が生じる。タガントシステムは、一般に、独特のスペクトル特性を発する1つ以上のタガント化合物を含む。スペクトル特性は、真正の製品に関連付けることができる固有のスペクトルシグネーチャを提供する。スペクトルシグネーチャは、適切なスペクトルシグネーチャの存在は、製品が真正である可能性が高いことを示すように、正確にリバースエンジニアリングすることが困難であることが望ましい。実際には、スペクトルシグネーチャがタグ付けされた基板が認証される、識別される、または他の方法で分類されることを可能にするために、固有の指紋に類似している。
【0011】
いくつかの事例では、真正のソースは、単一のタガントシステムを使用して、同じスペクトルシグネーチャで複数の製品提供物をマークすることができる。他の事例では、異なるタガントシステムのライブラリは、1つまたは複数の製品に関して真正のソースによって使用され得る。
【0012】
任意のタガント展開戦略は、市場における1つまたは複数のスペクトルシグネーチャを認証することができる必要性を生み出す。しかしながら、偽造者はスペクトルシグネーチャを偽造しようと試みることがあり、又はタグ付けされていない(例えば、タガントなシステムを有しておらず、従ってスペクトルシグネーチャを有していない)偽造製品を分配することさえある。これは、真正な製品が偽物と区別され得るように、スペクトルシグネーチャを正確に認証することができることを望ましい。
【0013】
理論的には、偽物のタガントシステムは、真正のタガントシステムのすべてと十分に異なる場合、訓練されたAIモデルによる偽物のスペクトル特性の評価は、訓練プロセスで使用されたすべてのクラスに関して非常に低い確率を生成することはずである。例えば、AIモデルは、それぞれ、T1、T2、およびT3システムまたはクラスとして識別される3つの異なる真正のタガントシステムに関して訓練され得る。AIモデルは、真正性が問題である製品に適用されるとき、モデルは製品が偽物である場合、3つのクラスの各々について低確率を予測し得る。例示的なシナリオでは、AIモデルは、T1、T2、およびT3クラスについて、それぞれ、0.33、0.40、および0.27という比較的低い確率を予測し得る。この例示的なシナリオにおけるすべての確率は、真正性のための仕様書閾値よりも低いので、例えば、例示的な仕様書は、製品が真正なクラスのうちの1つに分類されるために0.8以上の確率を必要とし得るので、製品サンプルはこのシナリオにおいて偽物のタガントシステムを有する偽物造製品として分類される。
【0014】
しかしながら、偽物製品が少なくとも1つの真正クラス(例えば、議論のためにT1)についてタガントシステムと比較的高い類似度を有する偽物タガントシステムを使用し、一方、他の真正クラスにおけるタグ付けされたタイプ(例えば、議論のためにT2およびT3)の残りと極めて異なるとき、望ましくない状況が生じる可能性がある。この状況下では、Softmax関数における正規化プロセスは、T1クラスに対して比較的高い確率を、T2およびT3タイプに対して非常に低い確率と共に出力することができる。これは、偽造製品がタイプT1クラスに属するものとして不適切に分類される偽陽性をもたらす可能性がある。この種の偽陽性は、本明細書では「歪んだ正規化問題」と呼ばれる。
【0015】
残念ながら、現実の世界では、偽物タガントシステムを有する多くの偽物製品が訓練プロセスで使用される他の真正のタグ付きタイプとは極めて異なりながら、1つの真正のタグ付きタイプに対して比較的高い程度の類似性を有することがあり得る。このことは、従来の確率的分類法を使用する場合、歪んだ正規化問題が頻繁に発生する可能性があることを意味する。結果として、多くの偽造製品は真正なサンプルとして誤って分類される可能性があり、分類タスクの精度に影響を及ぼす。確率的分類法を用いて、十分な閾値を超えて分類精度を改善することは非常に困難であることが経験を通して見出された。
【0016】
実際問題として、歪んだ正規化問題に関連する偽陽性リスクは、偽陰性問題につながる可能性がある。確率的分類の精度が比較的低い場合、真正のシグネーチャが偽物のシグネーチャとして分類されることになる偽物陰性リスクを最小限に抑えるために、真正のスペクトルシグネーチャを定義するために、あまり厳しくない仕様書が使用され得る。残念ながら、偽陰性を回避するためにスペクトルシグネーチャを非常に広く定義することは、偽造者が偽陽性リスクをさらに悪化させるために偽造者が偽造に侵入するための非常に大きな領域を設定する。真正スペクトルシグネーチャをより厳密に定義して偽物の余地を少なくすることができるように、精度を向上させた評価戦略を有することが望ましい。
【0017】
歪んだ正規化問題を克服し、それによって、偽陽性および偽陰性に対するその影響を軽減するための試みを行うことができる。スキュー正規化問題に対する1つの高価な解決策は、複数の確率的分類モデルを構築することであり、各モデルは、入力サンプルを、それが認識することができるタイプまたはそれが認識することができないタイプのいずれかに分類しようと試みるだけである。このアプローチの下では、動作仮説がタグなし偽造品サンプルがすべてのモデルによって認識不可能として分類される(すなわち、すべてのモデルによって拒絶される)高い確率を有し得ることである。しかしながら、このアプローチのための訓練プロセスは、非常に長く、高価であり得る。これは、1つのタイプと他のタイプを認識するための1つのモデルを訓練するために、すべてのタイプのサンプルを使用することが依然として必要であるからである。言い換えれば、クラスまたはクラス内の真正なサンプルと、クラスまたはクラス外の非真正なサンプルが訓練に必要である。しかし、後に遭遇する可能性のある将来の偽造品サンプルは未知であり、そのような訓練を達成するために利用できない。訓練プロセスは、将来の時間に遭遇する可能性があることの推測として、代理偽造品サンプルを含むことができる。しかしながら、AIモデルは、未だ遭遇されていない将来の実際の偽造品に関してではなく、これらの予測された代理偽造品サンプルに関してのみ訓練される。したがって、訓練が代理サンプルを含み得る場合であっても、訓練は、実際の実施において不満足な偽造検出をもたらす可能性がある。
【0018】
したがって、従来の確率的分類で経験されるよりも正確にサンプルを分類することができるAIモデルシステムおよび戦略が依然として強く必要とされている。また、歪んだ正規化問題に対してより脆弱でないAIモデルシステムおよび戦略に対する強い必要性が依然として存在する。
[発明の概要]
【0019】
本発明は、サンプルを分類するために使用することができるAI戦略を提供する。この戦略では、AIモデルを使用して、サンプルのための入力データセットを変換し、再構成データセットに再構成する。変換の一態様は、データの少なくとも1つの圧縮、および/またはデータの少なくとも1つの解凍(または展開)を含む。好ましくは、変換が複数のデータ圧縮段階でデータを圧縮することと、複数のデータ解凍段階または展開段階でデータを解凍または展開することとを含む。たとえば、データ圧縮は、AIモデルの隠れ層が場合によっては別の隠れ層または入力データ層であり得る、すぐ上流の層と比較してより少ない数のノードを有するときに生じる。同様に、データ解凍または拡張は、場合によっては、隠れ層または出力層が場合によっては、別の隠れ層または入力データ層であり得る直ぐ上流の層と比較してより多くの数のノードを有するときに生じる。データの圧縮および解凍/展開は、任意の順序で行うことができる。データを圧縮および解凍する利点は、変換が非常に複雑になり、訓練された真正なサンプルに一意的に適合するようになり、関連するクラスの真正なサンプルのみが、高い分類精度で、再構成誤差閾値を満たすのに十分な精度で再構成されることができることである。関連するクラス以外の他のサンプルの再構成誤差は、一般に、再構成誤差閾値を満たすのに十分に正確に再構成されない。
【0020】
その結果、再構成データセットと入力データセットとの間の再構成誤差特性は、高い精度および正確さでサンプルの分類を示す。これらの戦略は、確率的分類戦略よりも、歪んだ正規化問題に対してはるかに強固である。加えて、向上された精度は、スペクトルシグネーチャがより厳しい仕様の下で定義されることを可能にし、偽陽性(真正物として偽物を識別すること)および偽陰性(真正物を偽物として識別すること)の両方のリスクを最小限に抑える。
【0021】
好ましい一実施形態では、入力データ層が最大のデータ圧縮度が生じるまで、AIモデルの複数の隠れ層を通して圧縮される。次いで、圧縮されたデータは、入力データセットとサイズが一致する再構成データセットが得られるまで、複数の隠れ層を通して解凍される。別の例示的な実施形態では、入力データセットは複数の隠れ層を介して解凍され得、その後、得られた拡張データセットは、複数の隠れ層を介して圧縮され、入力データセットのサイズと一致する再構成データセットを提供する。複数の圧縮および解凍/拡張段階を使用することにより、AIモデルが真正なサンプルのデータを正確に再構成する特殊化が強化される。
【0022】
好ましい態様では、本発明の技術的解決策は、開始入力データと再構成されたデータとの間の再構成誤差の量を最小にする目的で、1つまたは複数の関連するクラスタイプから入力データを正確に変換および再構成するようにAIモデルが訓練されるという考えに少なくとも部分的に基づいている。AIモデルの訓練および特殊化により、再構成は、訓練されたモデルに関連する1つまたは複数のクラスタイプにおけるサンプルに関して最も正確である。関連するクラス以外のサンプルは、あまり正確に再構成されない。
【0023】
本発明の特殊化されたAIモデルは、1つまたは複数の関連するクラスタイプからのサンプルの再構成誤差を最小限に抑えるように訓練され、特殊化されるので、訓練は単純化される。特殊モデルを訓練するためには、関連するクラスタイプからのサンプルのみが必要である。これは、訓練に関連する計算コストおよび労力を大幅に低減することになる。あるいは、複数のクラスが問題になっているとき、複数のクラスを単一のAIモデルに関連付けるのではなく、複数の特殊化されたモデルを訓練することができ、各モデルは1つのクラスに関して特殊化される。さらに、この再構成アプローチは、確率的分類と同様に、2つ以上のクラスに対する確率に依存する必要がないので、他のタイプのサンプルは、特定種類の訓練プロセスに影響を及ぼさない。別の重要な利点として、AIモデルは、関連するクラス内のサンプルのみを使用して効果的に訓練することができる。したがって、実際のまたは予測された偽造品または関連するクラス(単数または複数)外の他のサンプルを使用してAIモデルを訓練する必要はない。そのような他のサンプルを用いずに訓練する能力は有益である。なぜなら、いくつかのタイプのサンプルは、出会うことができず、将来のある時点まで確実には分からないことさえあるからである。このことは、訓練を達成するために、将来の偽造品または類似の変形例を知る必要も、予測しようとする必要もないことを意味する。
【0024】
訓練の後、クラス、例えば、例示のためにクラス「T」として指定されたクラスのために訓練され特殊化されたAIモデルは、モデルからの最も低い再構成誤差がタイプTのサンプルに関して予想される。同様に、比較的高い再構成誤差は、タイプTクラスの外にあるサンプルから予想される。
【0025】
結果として、本発明の戦略は、第3者のサンプルが、他の全てのタイプのサンプルよりも、1つの真正のタイプのサンプルに比較的近い状況をより良く扱うことができる。特に、本発明の戦略は、歪んだ正規化問題を回避するのに役立つことができる。確率的分類に関連する歪んだ正規化問題は、少なくとも2つの理由により生じる。第1に、単一の分類モデルは、すべての可能なクラスを考慮することを余儀なくされる。第2に、Softmax関数における正規化プロセスは、サンプルが真正タイプの残りよりも1つの真正タイプにちょうど近いにもかかわらず、入力サンプルのクラスを選択することを強いられる。確率的分類とは対照的に、本発明は、確率ではなく再構成誤差に基づいて評価を行うことを可能にする特殊化されたモデルを使用する。
【0026】
有利には、一態様では、本発明の原理が、人工知能戦略を使用してサンプルからの入力データを変換および再構成するように訓練されたAIモデルに基づく自己認証技術を提供する。実用的には、これらのモデルは、項目または人物であるかどうかにかかわらず、任意のサンプルをそれ自体と比較してその真正性を決定することを可能にする。再構成されたデータを、サンプルから得られた入力データと比較すると、偽造者または偽造者は、近いものであっても、確率的分類と比較して改善された精度で、真正の標的とは大きく異なる再構成結果を生成する。これにより、偽物を識別し、拒否することが容易になる。一方、特殊化されたAIモデルを用いて、入力データセットを評価中のサンプルから得ることができ、次いで、再構成データセットをその入力データセットから導出することができる。認証は、安全に隠されたままで安全な任意の真正な記録を参照またはアクセスすることを必要としない。評価中のサンプルは、真正のサンプルと直接比較する必要はない。むしろ、1つの観点から、サンプルをそれ自体の再構成されたバージョンと比較することで十分であり、ここで、AIモデルは、サンプル自体から再構成されたバージョンを作成するために使用される。
【0027】
本発明の訓練は、いくつかの追加の利益を提供する。特殊化されたAIモデルは、元のソース情報またはプラットフォームのセキュリティを危険にさらすことなく、公的に配布することができる。個々の記録は、分類または認証のために決してアクセスまたは使用されず、それによって、高レベルのデータセキュリティを提供する。元のソース情報にアクセスする必要がないため、クライアントのプライバシーが強化される。入力データが分類され、識別され、認証され、検証され、または他の方法で評価されるべきサンプル、人、または他の基板から取得されるので、検証は、リモートデータベースにアクセスすることなく行われ得る。分類または認証を行っている間のインターネットまたはネットワーク接続は、分類または認証がオンサイトで行われ得るので、必要とされない。このことは、インターネットまたはネットワーク接続が失われたり、利用できなくなったりする可能性があっても、システムが機能することを意味する。この技術は、空港、スポーツイベント、コンサート、事業所などで大勢の人々を処理するときに、より速い処理、著しい利点を提供する。本技術は、また、AIモデルがスマートフォンおよび適切なモバイルアプリなどのポータブルデバイスから記憶され、使用され得るので、レストランなどのより小さい会場などにも利点を提供する。
【0028】
本技術は、分類、識別、認証、検証、宝石起源および/または起源(例えば、ダイヤモンド、パールなど)の評価、タガントシグネーチャ、マシンからの音波の評価(例えば、船または他の車両の識別、適切な機能の評価など)、生体認証の評価、タガントシグナルの評価、天然および人工材料の評価、製品鮮度の評価、劣化の評価、バイオ検出の達成などのための様々な用途に使用することができる。この技術は、また、高速スキャン、品質制御、コンベヤスキャン、製造、製品仕分けなどに関して有用な能力のために使用され得る。この技術は、スペクトル的に、音響的に、又は、他の波形を介して経時的に変化する主題、例えば、化学反応の進行または完了、食品または飲料項目の鮮度などのに使用することができる。
【0029】
一態様では、本発明がサンプルのアイデンティティを評価するためのシステムに関する。前記システムは、少なくとも1つのメモリに動作可能に結合された少なくとも1つのハードウェアプロセッサを備えるコンピュータネットワークシステムを備え、前記ハードウェアプロセッサは前記少なくとも1つのメモリに記憶された以下の命令を備えるステップを実行するように構成される:
a)サンプルを特徴付ける入力データセットを受信するステップ;
b)一意に訓練され、少なくとも1つの対応するクラスに関連付けられた人工知能(AI)モデルにアクセスするステップであって、前記AIモデルが前入力データセットを含む情報から導出されたデータフローを圧縮/収縮および伸張/拡張して前記再構成データセットを提供することを含む変換を用いて、前入力データセットを含む情報を再構成データセットに変換することであって、前記再構成データセットと前入力データセットとの間の再構成誤差は、前記サンプルが前記少なくとも1つの対応するクラスにあるかどうかを示す、変換を用いて、前入力データセットを含む情報を再構成データセットに変換するステップ;
c)入力データセットを含む情報を再構成データセットに変換するためにAIモデルを使用するステップ;
d)再構成誤差を決定するために再構成データセットを含む情報を使用するステップ;および、
e)再構成誤差を含む情報を使用して、サンプルが少なくとも1つの対応するクラスにあるかどうかを示す情報を決定するステップと、を含む。
【0030】
別の態様では、本発明が、サンプルがクラスにあるかどうかを決定するための方法であって:
a)サンプルに関連する特性を示す情報を含む入力データセットを提供するステップ;
b)再構成データセットを提供するための入力データセットを含む情報を変換するステップであって、前記変換することは、前記入力データセットを含む情報から導出されたデータのフローを圧縮および解凍することを含み、前記再構成データセットに関連する再構成誤差は前記サンプルが前記クラスにあるかどうかを示す、ステップ;および、
c)前記サンプルが前記クラスにあるかどうかを決定するために、前記再構成誤差を含む情報を使用するステップ、を含む。
【0031】
別の態様では、本発明は、サンプルがクラスにあるかどうかを示す情報を決定するシステムを作成する方法であって:
a)クラスに関連する少なくとも1つの訓練サンプルを含む訓練サンプルセットを提供するステップ;
b)訓練サンプルセットの対応する訓練サンプルを特徴付ける入力データセットを提供するステップ;
c)入力データセットを圧縮および解凍して、再構成データセットのフローを拡張する人工知能(AI)モデルを提供するステップであって、前記変換することは、データのフローを圧縮することと、データのフローを解凍または拡張することとを含み、前記再構成データセットに関連する再構成誤差は前記入力データセットと前記再構成データセットとの間の差異を特徴付ける、ステップと、
d)前記再構成誤差は、前記サンプルが前記関連クラスにあるかどうかを示すように、前記AIモデルを訓練するために、前記入力データセットを含む情報を使用するステップと、を含む。
【0032】
別の態様では、本発明は、真正のタガントシステムに関連するクラスにサンプルがあるかどうかを示す情報を決定するシステムを作成する方法に関し、前記方法は以下のステップを含む:
a)少なくとも1つの訓練サンプルを提供するステップであって、前記訓練サンプルは真正のタガントシステムを含み、前記真正のタガントシステムは、真正のスペクトルシグネーチャに関連するスペクトル特性を示す、ステップ;
b)訓練サンプルのための入力データセットを含む情報を提供するステップであって、入力データセットは、真正のタガントシステムによって示されるスペクトル特性を示す情報を含む、ステップ;
c)データのフローを圧縮および解凍/拡張して再構成データセットを提供する人工知能(AI)モデルを提供するステップであって、前記再構成データセットに関連する再構成誤差が、前記入力データセットと前記再構成データセットとの間の差異を特徴付ける、ステップ;と、
d)前記再構成誤差が前記サンプルが前記関連クラスにあるかどうかを示すように、前記AIモデルを訓練するために前記入力データセットを含む情報を使用するステップ。
【0033】
別の態様では、本発明は、サンプルが真正クラスにあるかどうかを示す情報を決定するための分類システムに関し、前記分類システムは:
a)真正のタガントシステムが、真正のスペクトルシグネーチャに関連するスペクトル特性を示す、真正のクラスに関連する真正のタガントシステム;
b)少なくとも1つのメモリに動作可能に結合された少なくとも1つのハードウェアプロセッサを備えるコンピュータネットワークシステムであって、ハードウェアプロセッサは、少なくとも1つのメモリに記憶された以下の命令を含むステップを実行するように構成される、コンピュータネットワークシステム、を備える:
i.訓練され、真正のクラスに関連する人工知能(AI)モデルにアクセスするステップであって、前記AIモデルが入力データセットを含むデータフローを圧縮/収縮および解凍/拡張することを含む変換を用いて、前記サンプルに関する入力データセットを再構成データセットに変換し再構成データセットを提供するステップであって、前記入力データセットは前記サンプルに関連するスペクトル情報を含み、前記再構成データセットと前記入力データセットとの間の再構成誤差は、前記サンプルが真正のクラスの内側にあるか外側にあるかを示す、ステップ;
ii.AIモデルおよび入力データセットを含む情報の使用すること、および再構成データセットの取得すること;
iii.再構成誤差を決定するために再構成データセットを含む情報を使用するステップと、
iv.再構成誤差を含む情報を用いて、サンプルが真正クラスの内側にあるか外側にあるかを示す情報を決定するステップ。
[図面の簡単な説明]
【0034】
図1は、複数のタガントシステムを含むタガントライブラリを概略的に示す。
図2aは、タガントライブラリが真正の製品ラインに配備され得る市場を概略的に示す。
図2bは、タガントライブラリがハードウェアデバイスにおいて使用される真正の消耗品に配備され得る市場を概略的に示す。
図3は、サンプルを1つ以上のクラスに分類するために特殊化されたAIモデルを使用する本発明のシステムを概略的に示す。
図4は、図3のシステムを使用するときの例示的な分類結果を概略的に示す。
図5aは、例示的なT1特殊化AIモデルに関して、サンプルの再構成誤差特性を波長の関数としてプロットした場合の再構成誤差プロファイルを示す。
図5bは、例示的なT2特殊化AIモデルに関して、サンプルの再構成誤差特性を波長の関数としてプロットした場合の再構成誤差プロファイルを示す。
図5cは、例示的なT3特殊化AIモデルに関して、サンプルの再構成誤差特性を波長の関数としてプロットした場合の再構成誤差プロファイルを示す。
図6は、サンプルを分類するために図3のシステムを使用する方法を概略的に示す。
図7は、図3のシステムを訓練するために使用されるシステムを概略的に示す。
図8aは、図7のAIモデルのアーキテクチャをより詳細に概略的に示す。
図8bは、本発明のAIモデルの代替実施形態のアーキテクチャを概略的に示す。
図9は、本発明のニューラルネットワーク符号化部分の詳細と、圧縮データセットを得るために入力データセットに対して実行される動作の例示的なセットとを概略的に示す。
図10は、本発明のニューラルネットワーク復号化部分の詳細と、再構成された出力データセットを得るために圧縮データセットに対して実行される動作の例示的なセットとを概略的に示す。
図11aは、複数の訓練されたAIモデルが複数のサンプルを分類するためにどのように使用され得るかを概略的に示す。
図11bは、図11aの訓練されたAIモデルの使用によって得ることができる例示的な結果を示す。
図12は、本発明の原理を用いて宝石が分類される本発明のシステムを概略的に示す。
図13は、本発明のシステムを概略的に示す。このシステムでは、宝石が宝石にそれぞれ関連付けられたタガントのハイパースペクトル特性に基づいて、離れた距離から分類される。
図14は、8つの異なるクラス(それぞれ7つの異なるタガントシステムT1~T7に対応する7つのT1~T7クラス、および8番目はタグ無しサンプルクラス)からのサンプルを、それぞれT1~T7クラスに関して特殊化するように訓練された本発明の7つの特殊化されたAIモデル(T1~T7モデル)を用いて評価した場合に生じる再構成誤差の7つのグラフを示す。
図15は、訓練の目的で、3つの異なるクラスのサンプルの範囲に水平標準化を適用する方法と、サンプルをテストして分類を決定する際に、水平標準化を適用する方法を概略的に示している。
図16は、訓練の目的で、3つの異なるクラスのサンプルの範囲に垂直標準化を適用する方法と、サンプルをテストして分類を決定する際に垂直標準化を適用する方法を概略的に示している。
【発明の詳細な説明】
【0035】
ここで、本発明を、以下の例示的な実施形態を参照してさらに説明する。以下に記載される本発明の実施形態は、網羅的であること、または以下の詳細な説明に開示される正確な形態に本発明を限定することを意図するものではない。むしろ、選択され、説明される実施形態の目的は、本発明の原理及び実施の他の当業者による認識及び理解を容易にすることができるようにすることである。
【0036】
説明のために、本発明の原理は、製品を1つ以上の真正のクラスに分類するのを助けるために、または特定の製品が任意の真正のクラスの外にあることを決定するために、タガントシステムを使用することに関して説明される。そのような分類は、真正な製品を識別するのを助けること、競合製品を識別するのを助けること、または真正な製品として偽装しようと試みる偽造製品を識別することを含む、多くの用途を有する。分類戦略は、また、アイデンティティを確認し、アイデンティティ窃盗のリスクを低減するのを助けるために使用され得る。分類戦略を使用して、偽造品、競合サンプルなどが経時的にどのように進化するかを監視することができ、真正製品に経時的に近づく可能性があるかどうかを評価することを含む。分類戦略は、真正のサンプルがどのように進化し、劣化し、またはそうでなければ経時的に変化し得るかを監視するために使用され得る。この知識は、関連するAIモデルを、それ自体がある理由または別の理由で経時的に変化する真正サンプルを認識することに関してより正確にするための補足的な訓練を提供するために使用され得る。
【0037】
本発明の分類戦略は、また、未知のサンプルについての分類結果に依存するフォローアップ評価を含むことができる。そのようなフォローアップ評価は、一例として、AIモデルによって提供される再構成結果が関連するクラスの内側および外側のサンプルに対する境界を設定する適用可能な再構成仕様書に比較的近い(例えば、20%以内、またはさらに10%以内、またはさらに5%以内、またはさらに2%以内)ときに有用である。例えば、再構成結果は、適用可能な再構成仕様書を上回っても下回ってもよい。再構成結果が再構成仕様書に比較的近い場合、これは、サンプルが関連クラス内にあるかどうかを確認するために、1つまたは複数のタイプの試験をさらに使用してそのサンプルを評価するためのフォローアップアクションをトリガすることができる。そのようなフォローアップアクションは、再構成誤差が再構成仕様書に比較的近いサンプルに関してのみ分類誤差が発生する傾向があるので、分類の精度を大幅に改善することができる。さらなる評価が、サンプルが関連するクラス内にあることを示す場合、そのサンプルからのデータを使用して、AIモデルのための訓練を更新するのを助けることができる。
【0038】
これは、AIモデルの訓練を経時的に更新することができる単なる1つの方法である。AIモデルの更新された訓練が起こり得る他の状況が存在する。例えば、真正のサンプルが経時的に変化する傾向がある場合、変化したサンプルからのデータを使用して訓練を更新することができる。いくつかの例では、変更が十分に大きい場合、変更されたサンプルからのデータを使用して、追加のAIモデルを訓練して、それらの変更を伴う真正なサンプルを認識することができる。
【0039】
図1および2aは、例示の目的で、複数のタガントシステム12(T1クラス)、14(T2クラス)、および16(T3クラス)、ならびにこれらのタガントシステム12、14、および16が真正製品ライン24に対してどのように展開され得るかを含む、真正タガントライブラリ10を概略的に示す(図2a)。本発明の原理は、クラスが未知であるサンプルが評価され、次いで、真正のT1、T2、またはT3クラスのうちの1つの中にあるものとして正確に分類されるか、またはこれらの真正のクラスのいずれかの外にあるものとして分類されることを可能にする。
【0040】
まず図1を参照すると、真正のタガントライブラリ10は、少なくとも1つのタガントシステムを組み込んでいる。好ましくは、タガントライブラリ10が、複数のタガントシステムを組み込んでいる。説明のために、タガントライブラリ10は、3つの異なる真正のタガントシステム12(T1クラスに関連する)、14(T2クラスに関連する)、および16(T3クラスに関連する)を含むものとして示されている。タガントシステム12、14、および16の各々は、それぞれスペクトル13、15、および17の形態のスペクトル特性を示す。説明のために、各スペクトル13、15、および17は、波長の関数としての強度などの光学スペクトル特性のプロットである。
【0041】
各スペクトル13、15、および17は、タガントライブラリ10の他のタガントシステムスペクトルに関して一意である。各スペクトル13、15、および17の一意性は、各スペクトルが対応する一意のスペクトルシグネーチャに関連付けられることを可能にする。本発明の原理を使用して、異なるスペクトルシグネーチャは、同一のライブラリ10内の他のシグネーチャから一意的に識別され、または分類され、区別され得る。真正のスペクトルシグネーチャはまた、偽造品シグネーチャなどのライブラリ10の外部の他のシグネーチャから、またはスペクトルシグネーチャが存在しない状況から区別することができる。タガントシステムおよびそれらの成分のさらなる詳細は、本出願人の同時係属中の特許出願である国際公開第2021/055573号;国際公開第2020/263744号;および国際公開第2021/041688号のパンフレットに記載されている。
【0042】
図1は、光学スペクトル特性(例えば、電磁スペクトルの紫外線、可視光、および/または赤外線部分におけるスペクトル特性)に基づくスペクトルシグネーチャを提供するものとして、各タガントシステム12、14、および16を示すが、本発明の訓練において有用なスペクトルシグネーチャは、多種多様な分光タイプまたはそれらの組合せに基づくことができる。本発明の訓練において有用な分光タイプの例としては、核磁気共鳴(NMR)分光法、ラマン分光法、モスバウアー分光法、レーザー誘起破壊分光法(LIBS)、質量分光法、吸収分光法、反射分光法、天体分光法、原子吸収分光法、円二色性分光法、電気化学インピーダンス分光法、電子スピン共鳴分光法、発光分光法、エネルギー分散分光法、蛍光分光法、フーリエ変換赤外分光法、ガンマ線分光法、赤外分光法、分子分光法、磁気共鳴分光法、光電子分光法、紫外分光法、可視光分光法、x線光電子分光法、これらの組み合わせなどの1つ以上が挙げられる。各場合において、特定のクラスからの訓練サンプルの適切なスペクトルは、その特定のクラスにおけるサンプルのスペクトル特性を正確に再構成するためにAIモデルを訓練するために使用される。訓練の予想される結果は、特定のクラス外のサンプルのスペクトルに関連するデータが特殊化されたAIモデルによってあまり正確に再構成されないことである。
【0043】
図1は、真正のタガントシステム12、14、および16を不注意にまたは意図的に模倣し得る第三者、偽造品、または競合タガントシステムがどのように存在し得るかをさらに示す。いくつかの実施態様において、本発明の目的は、分類が未知であるサンプルが真正であると評価され、正確に分類されることを可能にするAI戦略を提供することである(例えば、評価は主題事項が真正なクラスT1、T2、またはT3内でスペクトルシグネーチャを生成することを示す)また、第三者であるか、競合製品であるか、または偽物である(例えば、スペクトルシグネーチャが存在しないか、存在する場合は認可されたクラス内に適合しない)。説明のために、第三者のタガントシステムは、タガントシステム18(クラスTaに関連する)、20(クラスTbに関連する)、および22(クラスTcに関連する)を含む。異なる第三者、タガントシステム18、20、および22の各々は、それぞれスペクトル19、21、および23の形態でスペクトル特性を示す。これらのスペクトル19、21、および23の各々は、例えば、正当な競合社がそれ自体の製品を一意にマークすることを意図する場合、T1、T2、またはT3クラスから区別可能であることが意図され得る対応する一意のスペクトルシグネーチャに関連付けられ、または代替的に、偽造者が偽造製品を配信しようと試みている場合など、T1、T2、またはT3クラスを不適切に偽造することが意図され得る。
【0044】
図2aは、タガントライブラリ10が1つまたは複数の製品および/またはサービスを含む真正な製品ライン25上に展開され得るマーケットプレイス24を概略的に示す。説明のために、製品ライン25は、真正の製品26、28、および30を含む。具体的には、タガントシステム12、14、および16は、それぞれ、真正の製品26、28、および30上に配備され、その結果、各製品26、28、および30はこの例示的な文脈において、それ自体の固有のスペクトルシグネーチャに関連付けられる。他の実施形態では、真正のタガントシグネーチャ、したがってその固有のスペクトルシグネーチャは、単一の製品ではなく複数の異なる製品に適切に関連付けられ得る。
【0045】
図2aはまた、第三者のタガントシステム18、20、および22が、市場24における競争製品および/または偽造製品32、34、および36にそれぞれどのように配備されるかを示す。図2aはまた、いかなるタガントシステムも含まない、市場における競合製品または偽造製品38を示す。本発明は、このようなタグ付きおよびタグなし項目を、分類のために使用される1つ以上の訓練されたAIモデルに関連するクラスまたはクラスの外側であると識別することを可能にする。
【0046】
実際には、市場24における未知の製品の分類または真正性が問題となり得る。したがって、市場24における未知の製品が、真正製品26、28、または30のうちの1つか、あるいは代替製品32、34、26、または38であるかどうかを決定する必要があり得る。本発明の訓練において、生成物は、真正のタガントシステム12、14、または16のうちの1つのスペクトルシグネーチャのうちの1つが存在するかどうかを決定するために評価される。存在する場合、製品は真正であることを確認し、適用可能なT1、T2、またはT3クラスに分類することができる。適切なシグネーチャが存在しない場合、真正のT1、T2、またはT3クラス外であると確認することができ、製品は、他の競合相手からの製品であること、以前は未知であること、または場合によっては偽造であることを示す。
【0047】
要するに、本発明の原理は、真正のタガントシステム12、14、および16からのスペクトルシグネーチャが読み取られ、適用可能なT1、T2、またはT3クラスに属するものとして識別されることを可能にし、それによって、第三者タガントシステム18、20、および22から読み取られたタガントシグネーチャから、ならびにタグ無しの第三者製品38上にタガントシグネーチャが存在しないことから区別される。これにより、製品26、28、および30の真正性を、第三者製品32、34、36、および38から識別、分類、および/または区別することができる。
【0048】
図2bは、消耗品402、404、および406が加工システム408への供給物の少なくとも一部として供給される、本発明のシステム400の代替実施形態を概略的に示す。加工システム408は、アイテム402、404、または406などの少なくとも消耗品を含む供給物を、必要に応じて製品410に変換する。説明のために、消耗品402は真正のタガントシステム403でマークされ、消耗品404は偽物のタガントシステム405でマークされ、消耗品406はタグなしである。図2bは、加工システム408がそれぞれ構成411、413、および415における消耗品の各タイプに関してどのように機能するかを示す。
【0049】
図2bに示される原理は、多種多様なパッケージ化された/ポッド化された消耗品に関して実施され得る。例としては、家庭用または商業用のプリンタ、布地、反応物、触媒または他の促進成分に使用されるインクカートリッジ、洗濯機または食器洗い機などの器具に使用される石けんポッド、Nespresso、Keurig、およびTassimoブランドの醸造者などの醸造機械に使用されるタイプの飲料ポッド、石けん、ローション、医薬品、診断試験ストリップ/カートリッジ、塗料および他のコーティング、建築資材、自動車製品、工業潤滑剤および他の化学製品等が挙げられる。図2bに示される原理はタガント、通貨、身分証明書、宝石(例えば、ダイヤモンド、真珠など)、音響シグネーチャを有する機械など、多種多様な他のアイテムに関して実施され得る。
【0050】
構成411に示すように、加工システム408は、消耗品402がシステム408に供給される供給ポート412を含む。任意選択で、これは、同じまたは異なる供給経路を介して加工システム408に導入される1つまたは複数の他の供給成分(図示せず)と組み合わせて行われてもよい。加工システム408は、もしあれば、装填された消耗品402からスペクトルシグネーチャを読み取るのに効果的な方法で、供給ポート412の近位に提供される検出器414を含む。コントローラ416は、通信経路420を介して検出器414と通信する。検出器414は、検出されたスペクトル情報を、通信経路を介してコントローラ416に送信する。一実施形態では、コントローラ416は、タガントシステム403が真正であることを決定するために、本発明のAIモデルを使用するプログラム命令を含むことができる。他の実施形態では、コントローラ416が通信経路424を介してクラウド428と通信して、タガントシステム403が真正であるかどうかを決定することができる。この場合、対応するAIモデルは、クラウド428に常駐することができる。タガントシステム403が真正であると確認されると、コントローラ416および/またはクラウド428は、場合によっては通信経路422および426を介して制御信号を処理構成要素418に送信する。これらの制御信号に応答して、処理構成要素418は消耗品402を製品410に変換するために、1つまたは複数の段階で処理を実行する。消耗品402は、供給ライン421によって処理構成要素418に供給される。製品410は、出口423から提供される。
【0051】
望ましくは、ユーザと加工システム408との間の通信を可能にするために、適切なインターフェースが提供される。適切なインターフェースは、任意の適切な様式で提供することができる。図示のように、スマートデバイス430は、通信経路422、424、426、および/または432のうちの1つまたは複数を介して加工システム408と通信する。タブレット、ラップトップなどを含む他のタイプのデバイスによって、適切なインターフェースを提供することができる。図2aはクラウド428を介して行われるようなスマートデバイス430との通信を示すが、通信はスマートデバイス430と処理装置408との間で直接行われてもよい。通信経路422、424、426、および/または432のいずれも、有線または無線であり得る。通信経路422、424、426、および/または432は情報がリンクされた構成要素間で任意の方向に進むことができるように、多方向である。
【0052】
構成413は偽造タガント405を有する消耗品404が加工システム408に供給されるとき、加工システム408がどのように異なるように機能するかを示す。この場合、検出器414は、タガント・システム405からスペクトル・シグネーチャを読み出す。検出された情報は、コントローラ416に送信される。コントローラ416内のプログラム命令はコントローラ416のメモリに記憶されたAIモデルに、スペクトルシグネーチャ405が真正であるかどうかを評価させる。この場合、AIモデルを使用することによって生じる再構成誤差は、タガントシステム405が偽造品タガントシステムであるという決定を導く。その結果、出力情報は偽造品の検出を示すために、クラウド428を介してスマートデバイス430に送信される。出力情報は、様々な他の方法でも収集することができる。例えば、出力情報は後のアクセスまたはアーカイブ記憶のために、複数のデバイスからクラウドにおいて収集され得る。偽造品が検出された場合、項目404の処理を実行するために処理構成要素418を作動させるための制御信号は送信されない。代わりに、システム408は、項目404を拒否するように構成され得る。他の実施形態では、システム408がスマートデバイス430によって提供されるインターフェースを介して、ユーザから、次にどのステップを実行すべきかについての命令を求めることができる。例えば、項目404が加工システム408と互換性があることが分かっている場合、ユーザは、適切なプロセスレシピによって項目404の処理を実行するための指示を入力することができる。
【0053】
構成415は、項目406がタグ付けされていないことを除いて、構成413と同じである。適切なAIモデルを使用することによって、コントローラ416は、検出器414によって検出された情報を使用してこれを決定することができる。構成413の場合と同様に、スマートデバイス430によって提供されるインターフェースは、ユーザから、次にどのステップを実行すべきかについての命令を求めることができる。例えば、項目404が加工システム408と互換性があることが分かっている場合、ユーザは、適切なプロセスレシピによって項目404の処理を実行するための指示を入力することができる。
【0054】
図3は、本発明のシステム40を概略的に示しており、これは、例えば、もしあれば、真正であるかもしれない、もしあれば、競合製品であるかもしれない、もしあれば、偽造であるかもしれない、を決定するために、サンプルを評価し分類するのに有用である。最初に、各サンプル42a、42b、42c、および42dは、それぞれ、クラスが未知である未知のタガントシステム44a、44b、44c、および44dを有する未知の製品である。システム40は関連するスペクトルシグネーチャを読み取り、これらの読み取り値を含む情報を使用して、サンプル42a、42b、42c、および42dをT1、T2、またはT3クラスのうちの1つに分類し(図1および2を参照)、適切な場合、それによって、同一性および真正性を確認するように構成される。そうでない場合、システム40は、場合によってはサンプル42a、42b、42c、および42dのうちの1つまたは複数がT1、T2、またはT3クラスのいずれにも適合せず、競合製品または偽造品を示すかどうかを決定するように構成される。
【0055】
そのような評価の一態様として、システム40は、各タガントシステム44a、44b、44c、および44dによって提供されるスペクトルシグネーチャがタガントシステム12(T1)、14(T2)、および16(T3)に関連する適切なスペクトルシグネーチャのうちの1つかどうかを評価する。真正のタガントシステム12、14、または16はリバースエンジニアリングおよび正確なマッチングが困難であり得るので、適切なスペクトルシグネーチャを示す真正のタガントシステムの存在はクラスおよび真正性を示す。システム40はタガントシステム44a、44b、44c、および44dのスペクトルシグネーチャを高精度および高分解能で識別し、分類することができる。このことは、装置40は、偽物が真正のシグネーチャと非常に類似していても偽物スペクトルシグネーチャを検出することができることを意味する。その結果、本発明は、歪んだ正規化問題に対する脆弱性が少なく、正確な分類を行うことができる。いくつかの実施モードでは95%以上の精度を有する分類が達成され、これは確率的分類を実施するいくつかのモードで経験された80%の精度をはるかに超える。
【0056】
いくつかの実施形態では、サンプルが真正なサンプルを定義するために使用される仕様書または他の境界に近い評価結果を提供する場合、システム40はサンプルが境界に近いこと、およびさらなる追跡が保証されることを示す警告または他の適切な信号を生成することができる。システム40によって提供される信号は未知のサンプルが境界にどれだけ近いかを示すことができ、例えば、黄色、橙色、または赤色の信号は、それぞれ、近いサンプル(例えば、境界の10%超から20%までの範囲内の再構成誤差)、非常に近い(例えば、境界の5%超から10%までの範囲内の再構成誤差)、または極端に近い(例えば、境界の5%以内の再構成誤差)ことを示すことができる。複数の警告レベルは、真正な項目が変化していることを示す、偽造品が真正な時間に近づいていることを示すなど、様々な状況において有用であり得る。
【0057】
図3に示されるように、システム40の例示的な実施形態は、それぞれサンプル42a、42b、42c、および42dに取り付けられたタガントシステム44a、44b、44c、および44dのスペクトル特性を読み取るかまたは検出するために使用されるリーダ46(検出器としてタガント産業においても知られている)を含む。説明のために、リーダ46は、サンプル42a上のタガントシステム44aのスペクトル特性48aを読み取っている。他のサンプル42b、42c、および42dのスペクトル特性は、同様の方法で読み取られる。
【0058】
いくつかの実施形態では、リーダ46が、撮像デバイス、分光計、撮像分光計、または他の光学もしくは分光捕捉デバイスであってもよい。説明のために、リーダ46は、照明52に応答してサンプル42a、42b、42c、および42dに取り付けられたタガントシステム44a、44b、44c、および44dによって放射されるスペクトルの形態の光学特性を捕捉するように設計された分光計の形態である。代替の実施形態では、リーダ46が、複数のサンプルの光学特性を同時に照明し、捕捉するように構成されてもよい。
【0059】
例示的な実施形態では、リーダ46が、電磁スペクトルの1つまたは複数の波長帯域にわたってサンプルのスペクトルを捕捉する。多くの場合、スペクトル特性は、約10nm~約2500nm、好ましくは約200nm~約1200nm、より好ましくは約380nm~約1000nmの範囲の1つ以上の波長帯域にわたって捕捉される。そのような範囲は、紫外光(約10nm~約380nm)、可視光(約380nm~約700nm)、および赤外光(約700nm~約2500nm)を包含する。スペクトル捕捉は、発光、反射、吸収、透過率などのうちの1つ以上に基づくことができる。説明のために、各タガントシステム44a、44b、44c、および44dは、1つまたは複数の発光タガント化合物(図示せず)を含む。適切な照明52は、対応するスペクトル特性が対応するスペクトルシグネーチャに関連付けられている発光の形態で、対応する光学特性をトリガする。
【0060】
リーダ46は、光学特性48aの放射をトリガするために照明52を提供する照明源50を含む。リーダ46は光学特性48aを読み取り又は検出し、光学特性48aを特徴付ける情報を含む関連する入力データセット52aを提供する。同様の照明、検出、および入力データセットは、他のタガントシステム44b、44c、および44dについても同様に生じる。リーダ46は、ユーザがリーダ46に命令または情報を入力することができるユーザインターフェース47を含む。ユーザインターフェース47は、また、ユーザ(図示せず)に情報または命令を出力し得る。
【0061】
望ましくは、照明源50によって提供される1つ以上の照明波長は、リーダ46によって捕捉または読み取られる1つ以上の波長帯域とは異なる1つ以上の波長帯域からのものである。これは、照明52が関連するスペクトルシグネーチャを組み込む捕捉された光学特性48aとは異なるように行われる。照明52の波長がスペクトルシグネーチャに関連するスペクトルシグネーチャ波長と重複する場合、適切なシグネーチャ情報の読み取りは、重複する波長において不正確であり得る。例えば、リーダ46が420nm~約700nmの波長範囲にわたる可視光帯域の1つまたは複数の部分に関連するスペクトルシグネーチャのスペクトルシグネーチャ情報を捕捉することを意図される場合、照明源50は、350nm~約400nmの波長帯域の1つまたは複数の部分において照明52を放出するように構成され得る。380nmの光を放射するLED光源は、そのような文脈における適切な光源の一例である。
【0062】
コンピュータネットワークシステム58は、リーダ46と、少なくとも1つのコンピュータ62とを含む。リーダ46およびコンピュータ62は、ネットワーク58の2つの異なるハードウェア構成要素として示されているが、代替の実施形態では、リーダ46およびコンピュータ62が単一のハードウェアユニットに統合され得る。図示のように、コンピュータ62は、少なくとも1つのハードウェアプロセッサ68および少なくとも1つのメモリ70を含む。コンピュータネットワークシステム58は、任意選択で、リモートコンピュータ76などの1つまたは複数の他のコンピュータデバイスに組み込まれた1つまたは複数の追加のプロセッサリソース72および/またはメモリリソース74を含むことができる。コンピュータネットワークシステム58の1つ以上の構成要素は、クラウドベースであってもよい。例えば、ネットワーク58は、また、クラウド75内にオプションの追加のクラウドベースのメモリ77を含む。
【0063】
コンピュータネットワークシステム58は、ユーザがコンピュータネットワークシステム58と対話することができる少なくとも1つのインターフェースを含む。例えば、コンピュータネットワークシステム58は、コンピュータ62に関連する第1の出力インターフェース82を含む。リーダ46はまた、さらなるユーザインターフェース47を含む。いくつかの実施形態では、インターフェース82または47のいずれかは、任意選択で、タッチセンサ式(図示せず)、キーボード(図示せず)、マウス(図示せず)、マイクロフォン(図示せず)ある表示モニタまたはスクリーン、および/またはスピーカ(図示せず)のうちの1つまたは複数を含み得る。説明のために、ユーザインターフェース82は、結果86を表示する。
【0064】
コンピュータネットワークシステム58は、ネットワーク構成要素間の通信相互接続性を提供するための適切な通信経路を含む。例えば、コンピュータ68は、通信経路60を介してリーダ46との間で通信を送受信する。コンピュータネットワークシステム58はまた、通信経路66を介して少なくとも1つの出力インターフェース82との間で情報を送受信することができる。コンピュータ62および76は、通信経路78によって接続される。クラウドベースのメモリ75は、通信経路80によってコンピュータ68に結合される。ネットワーク構成要素間の通信経路は、有線であっても無線であってもよい。接続は、インターネット/クラウドを介して行うことができる。
【0065】
コンピュータネットワークシステム58は、人工ニューラルネットワークシステム88を含む。人工ニューラルネットワークシステム88は、サンプル42a、42b、42c、および42dを評価および分類して、1つまたは複数がクラスT1、T2、またはT3内にあり得るかどうか、または1つまたは複数がこれらのクラス外にあり得るかどうかを決定するための機能を組み込む。
【0066】
実際には、これらの戦略が各サンプル42a、42b、42c、および42dが自己認証されることを可能にする。人工ニューラルネットワークシステム88は、特定のサンプル42a、42b、42c、および42dから得られる特性が特定のサンプルがT1、T2、またはT32クラスのうちの1つに適合するかどうかを決定するために、それらの特性のAI変換バージョンと比較され得るという意味で、サンプル42a、42b、42c、および42dが自己認証されることを可能にする。1つの観点から、各サンプル42a、42b、42c、および42dはその分類を決定するために、それ自体の再構成されたバージョンと比較される。サンプルも再構成されたサンプルデータも、真正なクラスとの一致があるかどうかを確認するために、真正なサンプルまたは特徴と比較される必要はない。したがって、元のまたは真正のデータは、安全かつ安全なままであり得る。代わりに、未知のサンプル自体の特徴が、再構成されたデータと比較されて、一致が存在するか否かが確認される。さらに、AIモデルへのアクセスは、偽造者または他の当事者に、真正の標的の識別/組成物に関する何らかの表示を与えない。本発明のAIモデルによって適用される変換は、サンプルが、AIモデルが特殊化されているクラスのメンバーであるとき、一致をもたらす。
【0067】
入力データセットとして特定のサンプルの特性を使用して、適切に訓練されたAIモデルは、入力データセットを再構成データセットに変換する。一般に、人工ニューラルネットワークシステム88は、この変換を達成するように構成された少なくとも1つの訓練されたAIモデルを含む。いくつかの実施形態では、複数のクラスが関与するとき、人工ニューラルネットワークシステム88は複数の一意の訓練されたモデルを含み、各モデルは関連する対応するクラスに関して特殊化されるように訓練される。すなわち、各モデルは入力データセットを1つの関連するクラスタイプのための再構成データセットに変換するためにモデルが使用されるとき、再構成誤差を最小限に抑えるように、独立して訓練され、特殊化され得る。再構成誤差は、モデルがモデルに関連するクラスの一部ではないサンプルの入力データセットを変換するために使用されるとき、はるかに大きくなる。説明のために、図3は、単一のAIモデルが単一の対応するクラスのデータを正確に再構成するように特殊化される実施形態を説明する。複数のそのような特殊化されたAIモデルは、それぞれ、複数の関連するクラスに関する正確な分類を可能にするために提供される。
【0068】
他の実施形態では、単一のAIモデルが訓練されたクラスの外側のサンプルが所望の誤差仕様書の外側のより高い再構成誤差で再構成されるように、複数の対応するクラスのデータを正確に再構成するように特殊化され得る。例えば、AIモデルは、少なくとも2、又は更には少なくとも5、又は更には少なくとも10の異なるクラスのデータを再構成するように特殊化することができる。そのようなAIモデルは、20以上のクラス、またはさらには50以上のクラス、またはさらには100以上のクラスのデータを正確に再構成するように特殊化され得る。
【0069】
1つまたは複数のモデルは、コンピュータネットワークシステム58の1つまたは複数のメモリに記憶され得る。例えば、図3に示すように、メモリ70に記憶された人工ニューラルネットワークシステム88は、T1クラスに関連付けられた訓練済みAIモデル90と、T2クラスに関連付けられた訓練済みAIモデル92と、T3クラスに関連付けられた訓練済みAIモデル94とを含む。システム40が1つまたは複数のさらなるクラスを評価するように構成される場合、より多くのAIモデルを任意選択で含めることができる。あるいは、AIモデル90、92、および/または94は、リモートメモリ74および/または77に記憶され得る。いくつかの実施形態では、モデル90、92、および/または94はローカルメモリ70ならびにリモートメモリ74および/または77を含む、複数のメモリ内に存在し得る。
【0070】
図示のように、人工ニューラルネットワークシステム88は、特定のAIモデルに関連付けられたクラスについてのみ入力データセットを正確に再構成するように訓練された特殊化AIモデル90(T1クラスに特化)、92(T2クラスに特化)、および94(T3クラスに特化)を使用する。説明のために、サンプル42aは現在、図3において評価中であり、サンプル42aの分類は、最初は不明である。図3は、サンプル42aに関連付けられた入力データセット52aがモデル90(T1)、92(T2)、および94(T3)の各々を通してどのように処理されて、結果86が導出される出力データセット54aを提供するかを示す。高精度では、事前定義された再構成誤差仕様内の低い再構成誤差が、a)サンプル42aが特定のクラス内にあり、b)そのクラスのAIモデルが再構成データセットを得るために使用されるときにのみ生じる。AIモデルに関連付けられたクラス外のサンプル、またはクラスに関連付けられていない他のモデルの使用は、比較的高い再構成誤差を有する再構成データセットをもたらす。
【0071】
同様に、モデル90、92、および94の各々は、他のサンプル42b、42c、および42dの各々についても同様に入力データセット(図示せず)に適用され得る。他のサンプル42b、42c、および42dの各々は、そのAIモデルが所定の誤差仕様を満たす再構成誤差などの適切に低い再構成誤差を有する出力を与えたクラスに関連付けられ得る。さらに、サンプル42a、42b、42c、および/または42dのいずれかは、そのサンプルの結果として得られる再構成誤差がAIモデル90、92、および94のすべてに関して高すぎる場合、クラスのいずれかに属するものとして除外され得る。
【0072】
例えば、サンプル42aがT1クラスにある場合、T1クラスに対応するAIモデル90を使用するとき、出力データセット52aに関連する再構成誤差が最も低く、好ましくは、適用可能な再構成誤差仕様内にあるように十分に低いことが予想される。言い換えれば、AIモデル90を使用したときに生じる比較的低い再構成誤差は、サンプル42aのタガントシステム44aがT1クラスにあることを示す。逆に、そのまさに同じ入力データセット52aの再構成誤差は、AIモデル92または94を使用するとき、相対的に高く、望ましくは再構成誤差仕様外であると予想される。AIモデル92および94の再構成誤差は、AIモデル92および94の各々がそれぞれT2およびT3クラスに特化される限り、相対的に高くなる。
【0073】
現実世界評価のための展開の前に、望ましくは、各モデル90、92、および94は関連するクラスの再構成誤差が所望の再構成誤差仕様内で達成され得るまで訓練される。望ましくは、再構成誤差仕様書が、過度に制限的であることに対して過度にオープンであるリスクをバランスさせるレベルに設定される。再構成誤差仕様があまりにもオープンである場合、これは、偽陽性(偽物が真正であると識別される)のリスクを増加させる傾向がある。再構成誤差仕様書が狭すぎる場合、これは、真正な項目が除外され、偽物(偽陰性)として分類され得るリスクを増加させる傾向がある。図3のAIモデル90、92、および94の訓練および結果として生じる特殊化は、図7に関して以下でさらに説明され、分類が未知であるサンプルを分類するためのモデルの使用は、図11aおよび11bに関して以下でさらに説明される。
【0074】
誤差のない完全な例では、再構成データセット54aの値と入力データセット52aとの対応する値の間に差異がないように、再構成データセット54aが入力データセット52aに完全に一致する。しかしながら、実際には、再構成データセット内の出力値が通常、入力データセット内の対応する値と完全には一致しない。したがって、再構成データセット内の対応する値と入力データセットとの間には、いくつかの差異が存在する傾向がある。これらの差を使用して、データ再構成に関連する再構成誤差特性を提供することができる。1つの目標は、真正サンプルの再構成誤差が所望の誤差仕様書を満たすのに十分に低くなるまで、訓練およびAIモデルを作成することである。言い換えれば、特定のタガントシステムに関連付けられた特定のAIモデルは、所望の誤差仕様書内の低い再構成誤差で、その特定のタガントシステムのための真正な訓練サンプルを再構成するように訓練される。結果は同じタガントシステムを有する真正サンプルのみが、そのタガントシステムの入力データセットが訓練された関連するAIモデルによって変換されるとき、誤差仕様内の低い再構成誤差をもたらすことができることである。対照的に、異なるタガントシステムを組み込んだサンプルや、不完全で偽造されたタガントシステムの偽物のような、他のサンプルの再構成誤差は、より高く、誤差仕様書の範囲外となる。
【0075】
誤差仕様は、入力データセット52aと再構成データセット54aとの間の差を特徴付ける任意の値、値の範囲、プロファイル(例えば、方程式またはグラフ)などであり得る。例えば、入力データセット52aが1200個のデータ値Xを含み、jが1~1200であり、出力データセット54aが1200個のデータ値Yjを含み、jが1~1200で、上記で紹介した例示的な実施例を考える。各ペア応するデータペアXjおよびYjは、2つの値がどのように比較されるかを示す式によって特徴付けられ得る。例えば、それぞれの比較は、差分(Y-Y)、比率Y/Xなどとして計算され得る。結果は比較値の配列になる。この図では、入力データセット52a内の1200の値および出力データセット54a内の1200の値がある場合、比較配列は1200個の値を有する。
【0076】
本発明の訓練において、再構成誤差特性は、様々な異なる方法で比較値の配列から導出され得る。1つの実施形態によれば、比較値は、y軸上の比較値およびx軸上のサンプル番号jの値を用いてグラフ化され得る。再構成誤差特性は、得られたプロファイルによって与えることができる。対応する再構成誤差仕様書は、全ての値の比較値の少なくとも50%、又は更には少なくとも80%、又は更には少なくとも90%、又は更には少なくとも95%、又は更には少なくとも99%、又は更には100%、又は値の1つ以上の選択された範囲が閾値を下回るように設定され得る。
【0077】
そのようなプロファイルのための再構成誤差明細書を提供する代替の態様では、複数の基準が使用され得る。例えば、比較値の全部又は選択された1つ以上の部分が指定された第1の閾値よりも低く、比較値の少なくとも50%又は少なくとも80%、又は少なくとも90%、又は少なくとも95%、又は少なくとも99%が第2の閾値を下回るように、誤差指定を設定することができ、ここで、第2の閾値は、第1の閾値よりも低い。複数の閾値を使用することは、真正の標的が変化しているかどうか、または偽造品サンプルが真正の標的に一致することに近づいているかどうかを決定するための別の方法である。例えば、真正の標的についての再構成誤差が、その標的についての履歴結果と比較して、第1または第2の閾値に対して増加している場合、真正の標的の変化、劣化、または他の修正が示される。閾値との比較は、より近い一致を示すことができる。さらに、近似偽造品サンプルが検出された場合、近似偽造品サンプルを真正の標的からより正確に分離するために、別個の再構成モデルを構築することができる。
【0078】
他の実施形態では、単一の再構成誤差値を比較値の配列から導出することができ、次いで、そのような導出された再構成誤差に基づいて誤差仕様書とすることができる。例えば、比較値、または比較値の二乗、または比較値の二乗の平方根を合計し、次いで、比較値配列内の値の数で除算することができる。得られた導出値は、比較値の配列に対する再構成誤差とみなすことができる。実際の比較値が合計され、データペアの数で除算されるとき、結果として得られる計算は、再構成誤差として平均比較値を提供する。比較値の二乗が合計され、データペアの数で除算されるとき、結果として得られる計算は、再構成誤差として平均二乗誤差(MSE)を提供する。二乗が合計され、合計がデータペアの数で除算され、次いで、この除算の平方根が得られるとき、結果として得られる計算は、再構成誤差として二乗平均平方根誤差(RMSE)を提供する。誤差仕様は、サンプルが使用されているAIモデルに対応するクラス内にあるために、指定された閾値を下回るような計算された再構成誤差をサンプルが有していなければならないという要件として表すことができる。
【0079】
AIモデルは、所望の閾値を満たす対応するクラスの再構成を提供することができるまで訓練することができる。あるいは、AIモデルが、少なくとも1つ、または少なくとも2つ、または少なくとも5つ、またはさらに少なくとも10の訓練サイクルを通して、1つまたは複数の訓練サンプル(例えば、少なくとも1つ、または少なくとも10つ、または少なくとも50個の訓練サンプル、および少なくとも100個、または少なくとも300個、または少なくとも1000個の訓練サンプル)を使用して訓練することができる。
【0080】
他の実施形態では、再構成誤差がユークリッド距離(すなわち、合計される二乗の平方根)に基づいてもよく、誤差仕様は適切なユークリッド距離境界によって与えられてもよい。
【0081】
いくつかの実施形態では、入力データセットおよび再構成データセット内のデータ値が連続する間隔にわたる移動平均として表すことができ、次いで、比較値はこれらの移動平均値から導出することができる。例えば、説明のために、以下の表1は、AIモデルを使用する入力値および再構成値が特定のクラスに関連する100個の訓練サンプルについて、2nmの波長間隔でどのように収集され得るかを示す。各波長における平均強度値は、入力および再構成された値の列に報告される。例えば、3つの間隔にわたる入力値および再構成値の移動平均が決定される。他の間隔、例えば2~30の間隔が使用されてもよい。次いで、対応する入力ペアと再構成移動平均値との間の対応する移動平均値を比較することができる。この場合、これらの比較値は、それぞれ対応するRMSE値として表される。1つの実施形態では、全ての値に対する全体的な再構成誤差がRMSE値の平均として計算されてもよい。この場合、再構成誤差は0.39となる。これは、特定のクラスに分類されるべきサンプルについて満たされる必要がある再構成誤差仕様書として設定され得る。
【0082】
あるいは、再構成誤差仕様書は、偽陰性のリスクを低減するのに役立つ安全係数を加えたRMSE値の平均であってもよい。同時に、安全係数は、誤検出のリスクを低減するのに役立つように過度に大きくすべきではない。いくつかの実施形態では、安全係数がRMSE値の標準偏差の倍数、例えば、標準偏差の0.5~2.5倍、好ましくは0.5~1.5倍であることなどによって、異なる方法で計算され得る。例えば、表1のRMSE値の標準偏差は0.25である。安全係数がこの値の0.5倍に設定されている場合、再構成誤差仕様書は0.52となる(R=0.39+[0.5x0.52]から計算される。ここで、Rは再構成誤差明細書である)。
【0083】
あるいは、RMSE値が対応する入力移動平均値の割合として表されてもよい。再構成誤差は、パーセンテージとして表されるRMSE値の平均として指定され得る。この場合、このように表現される再構成誤差は1.63%となる。この値は、パーセンテージとして表される再構成誤差仕様明細書であり得る。1標準偏差(1.46)の安全係数では、結果として得られる再構成誤差は3.9%になる。
【0084】
表1は、サンプルの仮想入力データセットから導出することができる仮想再構成誤差値の表を示す。実際には、入力データセットが電磁スペクトルまたは他の適切な入力スペクトル、例えば、音、NMR、心電図(ECG、EKG)などの1つまたは複数の部分にわたって提供され得る。例えば、いくつかの実施形態では、0.1nm~10nm、好ましくは0.5nm~5nm、より好ましくは1nm~2nmの波長間隔で、400nm~1200nmの波長範囲にわたってデータを収集することができる。説明のために、入力データセットは、2nmの間隔で420nm~484nmの波長範囲にわたって得られる。表1は、本発明のAIモデルを用いて入力データセットから得られた対応する再構成値を示す。入力データ値および再構成データ値の移動平均が決定される。各再構成された値と対応する入力データ値との間の差が決定される。
【0085】
結果として生じる差は、サンプルの再構成誤差特性を決定するために様々な方法で使用することができる。1つの技法によれば、差分の表を使用して、単一の再構成誤差値を導出することができる。例えば、差文の表を使用して、単一のMSE、RMSE、またはユークリッド距離を決定し、サンプルの再構成誤差を特徴付けることができる。別の技術によれば、差分のリストは、波長の関数としてプロットすることができる。これは、サンプルを特徴付けるための再構成誤差プロファイルを提供する。1つ以上の閾値を使用して、プロファイルが真正サンプルを特徴付けるか否かを評価することができる。再構成誤差をプロファイルとして特徴付けることは、市場が真正の標的との緊密な一致である1つまたは複数の偽造品によって負担されるときに有利であり得る。再構成誤差プロファイルは、指紋と同様に、うまくマッチングするための多くの異なる詳細を有する。
【0086】
【表1】

AIモデルを訓練した結果、非真正サンプルについて同じ方法で計算された再構成誤差は、訓練されたAIモデルに対応するクラス内にある真正サンプルから導出された誤差仕様よりも大きいことが期待され得る。その結果、再構成誤差が誤差仕様内にある場合、サンプルは真正であると確認することができる。再構成誤差が誤差仕様外である場合、サンプルは、AIモデルに関連するクラス外であると確認することができる。誤差が誤差仕様に近いが、直上または直下である場合、サンプルは潜在的な偽造品サンプルとしてフラグ付けされ得る。あるいはこれはサンプルがドリフトしている、および/またはシグネーチャの変更を考慮するためにシステム内でモデルを更新する必要があるなどの情報を示すことができる。
【0087】
さらに図3を参照すると、訓練が完了し、実際の使用においてサンプル42a、42b、42c、および42dなどのサンプルを評価するために使用されるAIモデル90、92、および94の後、それらの評価の結果を使用して、AIモデル90、92、および/または94の訓練、および/または対応する誤差仕様を更新することができる。更新されたモデルパラメータおよび/または誤差仕様の詳細は安全な場所で遠隔的に計算され得、次いで、更新命令はコンピュータデバイス62または76などのユーザデバイスに送信され得、ここで、更新された命令はダウンロードされ、適用可能なソフトウェアにインストールされ得る。
【0088】
本発明の明確な利点は、図3に関して論じた分析が正確であり、反復可能であり、真正の特性と偽物の特性との間のわずかな差にさえ敏感であることである。したがって、誤差仕様書は、真正性の決定から真正な項目を除外するリスクが比較的低く、同時に偽物の主題に関する真正性の偽物陽性のリスクを低減する厳しい許容範囲で設定することができる。さらに、AIモデル90、92、および94をリアルタイムで更新する能力は、モデルの性能が経時的にサービスされ、維持され、および/または改善されることを可能にする。
【0089】
図4は、図3の例示的な結果86をより詳細に概略的に示す。結果86は、モデル90、92、および94をそれぞれサンプル42a、42b、42c、および42dの各々に適用するときに結果として生じ得る例示的なデータを示す。図4に示される結果86は、各再構成誤差がRMSE値として表される表の形態である。再構成誤差は、各サンプルについて、そのサンプルの入力データセットに適用されたモデルの機関数として示される。例示のために、モデル90、92、および94の各々が4.5未満の再構成誤差(RMSE)に従って、関連するクラス内のサンプルを認識するように訓練されると仮定すると、結果はサンプル42aがクラスT1にあり、サンプル42bがクラスT2にあり、サンプル42cがクラスT3にあることを示す。これは、再構成誤差がそれぞれ、これらの一致に対する誤差仕様内にあることによって示される。一方、サンプル42dの再構成誤差は、モデル90、92、および94のいずれかが適用された場合、再構成誤差の外側にある。これは、サンプル42dがT1、T2、またはT3クラスのいずれにも存在しないことを示す。いくつかの文脈では、これはサンプル42dが偽造品であることを示す。T1、T2、およびT3モデルの各々に対するサンプル42dの再構成誤差の近接は、サンプル42dがサンプル42aを偽造しようと試みることを示し得るが、本発明のAI戦略はこれを検出することができる。
【0090】
図3の入力データセット52aは、サンプル42a、42b、42c、または42dなどの特定のサンプルの再構成誤差がプロファイルとしてどのように提供され得るかを示すために使用され得る。図3は、入力データセット52aが対応するスペクトルシグネーチャを提供する関心のある波長範囲にわたる波長の関数としてスペクトルの強度値を含む状況を示す。再構成データセット54aは、同じ波長範囲にわたる波長の関数として、対応する再構成された強度値を含み得る。各波長における各対応する入力及び再構成ペアの比較値を計算し、次いで、プロットし、表にし、又は波長の関数として特徴付けることができる。次いで、対応する誤差仕様は、比較値の少なくとも50%、又は更には少なくとも80%、又は更には少なくとも90%、又は更には少なくとも95%、又は更には少なくとも99%、又は更には100%がそのような境界以下であるような境界であると指定することができる。各モデル90、92、および94は入力データセットおよび再構成データセット中の所与の割合またはすべての対応するデータペアについての比較値が所望の値または境界にある、および/またはそれ未満であるように、実例となる実施形態において十分に訓練され得る。
【0091】
図5a、5b、および5cは、それぞれ、再構成誤差分析100、102、および104の例示的な実施形態を概略的に示し、各サンプルの比較値が波長範囲にわたるプロファイルとしてプロットされ、誤差仕様101が真正比較値の十分な割合を包含するように境界として設定されるとき、サンプル42a、42b、42c、および42dを分類するために使用され得る。図5a、5b、および5cにおいて、波長範囲にわたる比較値のプロファイルは、プロファイルとして表される再構成誤差を表す。図5a、図5b、および図5cのそれぞれにおける誤差仕様101は、説明のために、5%に設定されるが、本仕様書は使用される各モデルに適切な任意の値またはプロファイルに独立して設定され得る。例えば、別の戦略は、訓練サンプルの特定のパーセンテージ(例えば、少なくとも80%、又は更には少なくとも85%、又は更には少なくとも90%、又は更には少なくとも95%、又は更には少なくとも99%、又は更には100%)が対応するAIモデルによって正確に分類されるように、再構成誤差仕様書を設定することである。図5a、5b、および5cにおいて、波長範囲にわたる比較値の各プロファイル103a、103b、103c、および103dは、プロファイルとして表される再構成誤差を表す。図5a、5b、および5cの各々は、400nm~700nmの可視波長範囲にわたるサンプル42a、42b、42c、および42dの各々の再構成誤差プロファイル103a、103b、103c、および103dをそれぞれプロットする。
【0092】
図5a、5b、および5cにおいて、再構成誤差は、説明のためにプロファイルとしてプロットされる。他の実施形態では、再構成された値と対応する入力値との間の差を使用して、再構成誤差の単一の値を導出することができる。
【0093】
図5aでは、サンプル42aのプロファイル103aのみが、波長範囲の大部分にわたって誤差仕様を下回っている。示されるように、400nm~700nmの波長値を考慮すると、510nm~540nmおよび675nm~690nmの比較値のみが、誤差仕様境界をわずかに上回っている。プロファイル103b、103c、および103dは、いずれの波長においても誤差仕様を満たすにはすべて大きすぎる。これらの結果は、比較値の80%以上が誤差仕様書境界内にあることを必要とする誤差仕様書に従って、サンプル42aをT1クラスに分類することを可能にする。代替として、誤差仕様境界はより高いパーセンテージ値に設定され得るが、その場合、これは偽陽性として他のプロファイルからサンプルを捕捉するリスクを増加させ得る。
【0094】
図5bでは、サンプル42bのプロファイル103bのみが、再構成誤差仕様書内でその比較値の少なくとも80%を有する。プロファイル103a、103c、および103dはすべて、誤差明細書を満たすには大きすぎるが、プロファイル103cは450nm~460nmの波長についての誤差明細書境界内の比較値の数が少ない。これらの結果は、サンプル42bをT2クラスに分類することを可能にする。
【0095】
図5cでは、サンプル42cのプロファイル103cのみが誤差仕様書の境界内にある。プロファイル103a、103b、および103dはすべて、誤差仕様を満たすには大きすぎる。これらの結果により、サンプル42cをT3クラスに分類することができる。全てのモデルにおけるサンプル42dのプロファイル103dは、全て再構成誤差閾値の外にあることに留意されたい。これはサンプル42dがT1、T2、またはT3クラスのいずれの中にもないことを示しているが、その誤差プロファイルは図5aのT1モデルの誤差仕様に最も近い。これは、サンプル42dが真正サンプル42aを偽造しようとする試みであり得ることを示す。
【0096】
図4図5a、図5b、および図5cは、対応する再構成データを得るための特定のAIモデル90、92、または94による入力データの変換が特定種類のサンプルについての対応する誤差仕様内の特定の結果のみをもたらすことを示す。対照的に、他のタイプのサンプルの特性に適用されるのと同じ変換は、誤差仕様を満たすことができない異なる結果をもたらす。例えば、偽造者または偽造者は近いものでさえ、適用可能なAIモデルによって変換されたときに非常に異なる結果を生成し、偽造者を識別することを容易にする。
【0097】
各サンプル42a、42b、42c、および42dの特性を、それらの特性のAI変換バージョンと比較することによって、分類が達成され得るという事実は、いくつかの利点を提供する。オリジナルデータが安全に隠され、安全なままであることができるように、サンプルを、AIモデルを訓練するために使用される実際の真正の主題に関連する任意のオリジナルデータと比較する必要はない。したがって、多くの実施形態では、本発明のAI戦略が適用されるとき、元の情報は決してアクセスされず、分類または認証のために使用されない。クライアントのプライバシーも、分類を達成するために元のソースデータへのアクセスが必要とされないので、強化される。
【0098】
また、重要なことは、リモートデータベースにアクセスすることなく検証を行うことができることである。認証、識別、所有権の検証、またはその他の評価を行っている間のインターネットまたはネットワーク接続は必要とされない。このことは、インターネット又はネットワーク接続は失われ得るか、又は利用不可能でも、装置40は依然として機能することを意味する。真正のサンプルのみが、関連するAIモデルを使用して首尾よく変換するので、AIモデルへの偽造者またはハッカーのアクセスは元のデータのセキュリティを危うくせず、偽造者またはハッカーが彼らの詐欺をより容易に実行することさえも可能にしない。
【0099】
再び図3を参照すると、少なくとも1つのプロセッサ68および/または72は、少なくとも1つのメモリ70および/または74に記憶された以下の命令を実行するステップを実行するように構成される。説明のために、これらのステップは、サンプル42aに関して説明される。同様のステップが、サンプル42b、42c、42d、またはT1、T2、もしくはT3クラスに関する分類が問題となっている任意の他のサンプルに関して実行され得る。最初に、命令は、ハードウェアプロセッサ68および/または72に、サンプル42aの入力52aを受信することを含むステップを実行させる。命令はさらに、ハードウェアプロセッサ68および/または72に、AIモデル90、92、および94を含む人工ニューラルネットワークシステム88にアクセスすることを含むステップを実行させる。これらのモデルの各々は、入力データセット52aを、対応する再構成データセット54aに独立して変換する。各モデル90、92、および94は、それぞれ、クラスT1、T2、またはT3のうちの1つに一意的に関連付けられ、その結果、特定のモデル90、92、または94によって生成された再構成データセット54aはサンプル42aが特定のモデル90、92、または94に関連付けられたクラスにあるとき、関連付けられた誤差仕様内の入力データセット52aと一致する。多くの実行モードでは、再構成データセット54aは、再構成誤差が特定のモデルの関連する誤差仕様の外にあるように、モデルの関連クラスにないサンプルについて入力データセット52aを十分にミスマッチさせる。このようなミスマッチは、サンプル42aが真正でない場合、例えば、サンプル42aが偽物である場合、あるいは異なるタガントシステムを使用し、従って異なるタガントシグネーチャを使用した競合他社の製品である場合、あるいはタガントシステムが何ら付着していない代替製品である場合に、起こり得る。
【0100】
命令は、ハードウェアプロセッサ68および/または72に、少なくとも1つのAIモデル90、92、および/または94を含む情報を使用して、入力データセット52aを含む情報を再構成データセット54aにそれぞれ変換することを含むステップを実行させる。望ましくは、この変換は、各モデル90、92、および94をそれぞれ使用して実行され、各モデルについて再構成データセット56aを提供する。命令はハードウェアプロセッサ68および/または72に、入力データセットおよび/またはその派生物と、再構成データセットおよび/またはその派生物との間の再構成誤差を示す情報を決定するために、入力データセットおよび/またはその誘導体と、再構成データセットおよび/またはその誘導体とを含む情報を比較するステップを実行させる。命令はハードウェアプロセッサ68および/または72に、再構成誤差および/またはその派生物を含む情報を使用して、サンプルが対応するクラスにあるかどうかを示す情報を決定することを含むステップを実行させる。
【0101】
図6は、図3のシステム40を使用して、サンプル42a、42b、42c、および42dのいずれかなどのサンプルに対して分類評価を実行するための例示的な方法120を概略的に示す。ステップ122において、入力データセット52aなどの入力データセットが、サンプルのために提供される。入力データセットは、サンプルに関連する特性を示す情報を含む。いくつかの実施形態では、情報がサンプルまたはその構成要素から収集された光学的情報を含む。例えば、サンプルが適切なタガントシステムを含むかどうかを決定するために評価が行われる場合、光学的情報は、サンプルから得られるスペクトル特性とすることができる。サンプルが人物である場合、生体データは、画像キャプチャなどによって人物から収集することができる。名前、運転免許証番号、社会保障番号、または他の個人情報などの他の情報が、身元確認を支援するために使用され得る。
【0102】
ステップ124において、入力データセットは、特定のクラスに関連付けられ、サンプルが特定の関連付けられたクラス内にあるとき、再構成データセットの再構成誤差特性が誤差仕様内にあるように訓練されるAIモデルを使用して、再構成データセットに変換される。複数のクラスが問題になっている場合、各AIモデルが関連するクラス内のサンプルの再構成誤差を最小化するように、複数のそのようなAIモデルが提供される。
【0103】
ステップ126において、再構成データセットが入力データセットと比較される。いくつかの実施形態では、これらの派生物が最初に(1つまたは複数のデータ変更戦略を使用して)修正し、および/または(1つまたは複数のデータ操作戦略を使用して)操作し、次いで、再構成データセットおよび入力データセットまたはその派生物を比較することによって準備される。派生物を準備するための修正および/または操作は、データをより有用な形態に変換するために実行することができる。例えば、データは正規化されてもよいし、標準化されてもよい。他の例では、移動平均(および/または他の平滑化または圧縮戦略)および/またはパーセンテージを使用することができる。他の例では、データ収差、フィルタ、バイアスを組み込むこと、重みを組み込むことなどは適切な操作または修正によって対処することができる。データ操作または修正を達成するための戦略は周知である。そのような戦略の例示的な例は、MICROSOFT EXCELブランドのスプレッドシートなどの市販のスプレッドシートプログラムに組み込まれる。一般に、データ操作は異なるより洗練されたデータを得るために、論理または計算を使用して生データを処理することを指す。データ変更とは、既存のデータ値またはデータ自体を変更することである。
【0104】
ステップ128では、再構成誤差および/またはその導関数を含む情報を使用して、サンプルが再構成データセットを準備するために使用されたAIモデルに関連するクラスにあるかどうかを決定する。再構成誤差および/またはその誘導体が誤差仕様内にある場合、サンプルは、関連するクラスの一部であると見なされる。再構成誤差および/またはその誘導体が仕様外である場合、サンプルは関連するクラス外である。
【0105】
図7は、本発明のAIモデル132が、特定のクラス、Tからの訓練サンプルのサンプルセット134に関する再構成誤差を最小化するように訓練されるシステム130を概略的に示している。訓練の目標131は、モデルがサンプルセット134Eから得られる再構成誤差特性が誤差仕様E、および/または特定のパーセンテージ(例えば、少なくとも80%、または少なくとも85%、または少なくとも90%、または少なくとも95%、または少なくとも99%、またはさらに少なくとも100%)よりも小さい場合などのように、所望の水準の精度でサンプルを分類することができるまで、AI訓練戦略を用いて、訓練サンプルがAIモデルによって正しく分類されるまで、モデル132を訓練することである。
【0106】
サンプルセット134は、AIモデル132が訓練されている特定のクラスの代表的なメンバーである1つまたは複数の訓練サンプルを含む。例えば、訓練サンプルは、特定のクラスTに関連付けられた特定のタガントシステムを含むことができる。サンプルセット134に含まれる訓練サンプルの数が広い範囲にわたって変化することができる。いくつかの実施モードでは、単一の訓練サンプルを使用することができる。他の実施形態では、2つ以上の訓練サンプルが使用される。説明のために、図7は、使用されている3つの訓練サンプルS、S、およびSを示す。他の実施形態では、訓練サンプルの数が示されるように少なくとも2、好ましくは少なくとも3、より好ましくは少なくとも5、より好ましくは少なくとも10である。いくつかの実施形態では、訓練サンプルの数が10であってもよく、100であってもよく、1000以上であってもよい。
【0107】
インプットデータセット133、133、および133は、それぞれ、サンプルS、S、およびSのそれぞれについて得られる。各入力データセット133、133、および133は、それぞれ、対応する訓練サンプルを特徴付ける情報を含む。例えば、それぞれのインプットデータセット133、133、、および133は、サンプルセット134の訓練サンプルに組み込まれた対応するタガントシステムから収集されたスペクトル特徴を含むことができる。
【0108】
次に、AIモデル132を使用して、入力データセット133、133、および133のうちの少なくとも1つを、それぞれ、1つ以上の対応する再構成データセット136、136、および136に変換する。それぞれの再構成データセット136、136、136のは、対応するインプットデータセット133、133、133と比較される。各ペアの間の差異は、再構成誤差特性138A、138B、および138Cをそれぞれ決定するために使用される。再構成誤差特性138A、138B、および138Cは次いで、訓練モデル変更142を導出するために使用され、次いで、それはAI訓練モデル132を変更するために使用される。更新されたAIモデル132を使用して入力データセットを変換し、再構成誤差特性を有する再構成データセットを生成し、訓練モデル変更142を導出する方法論は、目標131が満たされるか、または超えられるまで繰り返される。この場合、再構成誤差はE<E時の誤差指定内にある。各サイクルにおいて、同じ訓練サンプル、それらのサンプルの一部、および/またはクラスを表す異なる訓練サンプルが、そのサイクルの入力データセットを生成するために使用され得る。
【0109】
目標131が満たされるか、または超えられると、訓練は、分類が未知であるサンプルを評価および分類するために利用可能な訓練され特殊化されたAIモデル132をもたらす。サンプルへのAIモデル132の適用が誤差明細書E内の再構成誤差Eをもたらす場合、サンプルはクラスT内にあるものとして分類される。サンプルへのAIモデル132の適用が仕様書外の再構成誤差をもたらす場合、サンプルはクラスT外である。したがって、AIモデル132はただ1つの特定のクラスからのインプットデータを正確に再構成するように訓練されることが分かる。この方法は、他のAIモデルを訓練して、他のクラスに関する再構成誤差特性を最小化するように特殊化するために繰り返されてもよい。
【0110】
図8aは、本発明の原理が、図7の訓練されたAIモデル132の好ましいアーキテクチャにどのように組み込まれるかを概略的に示している。使用中、訓練されたAIモデル132は、サンプル(図示せず)から得られた入力データセット150を受け取り、再構成データセット152を提供する。入力データセット150は、また、データ値151を含み、出力データセット152は、データ値153を含む。上述のように、入力データセット150を再構成データセット152と比較することによって得られる再構成誤差(図8には図示せず)を使用して、サンプルがクラスTにあるかどうかを決定することができる。
【0111】
一般に、ディープニューラルネットワークAIモデル132としても業界で知られているAIモデル132は入力データを受信し、再構成データセット152を提供するために入力データセット150を変換する少なくとも1つの隠れニューラルネットワーク層(本明細書では「隠れ層」または「変換段階」とも呼ばれる)を備える。一般に、より少ない隠れ層を使用することは、再構成の差異がAIモデル132に関連するクラスまたはクラス内のサンプルと、そのようなクラスまたはクラス外のサンプルとの間で、所望のように区別できないデータ変換を生じることがある。より多くの層はAIモデル132が関連するクラスまたはクラスに関してより特殊化されることを可能にする傾向があり、それにより、再構成の差異が、クラス・部材を他のサンプルからより容易に識別することができる。しかしながら、隠れ層の数が増加することにつれて、AIモデル132の訓練および/または使用に関する実用的な計算能力の懸念が存在する。さらに、より少ない層を使用することは、より速く、より安価な訓練ならびにより速いサンプルの評価をもたらす傾向がある。しかし、より多くの層を使用することは、強化された特殊化能力を提供するが、はるかに長く、高価な訓練およびより遅いサンプル評価を伴う。また、AIモデル132を効果的に訓練するために必要な訓練サンプルの数は一般に、隠れ層の数が増えるにつれて多くなる傾向がある。したがって、リソースの制限に対して分解能をバランスさせることが望ましい。隠れ層の数およびサイズは、また、入力データセットのサイズおよび複雑さに依存し得る。より小さいデータセットまたはより低い次元数を有するデータセット(たとえば、より少ない変数または波長など)は、より大きいデータセットまたはより高い次元数を有するデータセットよりも少ない隠れ層を必要とする傾向があり得る。より複雑なデータセットは、より複雑でないデータセットよりも多くの隠れ層を必要とする傾向がある。
【0112】
一般に、いくつかの実施形態では、1つまたは2つの層のみを使用すれば十分である。他の実施形態では、少なくとも5層、またはさらに少なくとも10層、またはさらに少なくとも100層、またはさらに少なくとも1000層、またはさらに少なくとも10,000層以上の層を使用することが十分であり得る。例示的な実施形態では、AIモデル132が、2~10,000、好ましくは2~1000、より好ましくは5~100、さらにより好ましくは5~50層を含む。
【0113】
例えば、単一層のみを有するAIモデルは、単一の隠れ層が再構成データセットを得るために変換を適用する前に、入力データ層を圧縮(または縮小)または解凍(または拡張)する場合、本発明の原理を実施することができる。このタイプの例示的な実施形態は、入力計算を使用して、n次元の入力データセットを、m次元を有する隠れ層に圧縮するAIモデルであり得、ここで、mはn未満であり、好ましくは、比率m:nが0.9:1~1:100の範囲である。次いで、n次元の再構成データセット(入力データセットに一致するように)への隠れ層の活性化は、データを解凍する。別の実施例として、入力計算を使用して、n個の値の入力データセットを、m次元を有する隠れ層に拡張するAIモデルがる。ここで、nはm未満であり、好ましくは、比n:mが0.9:1~1:100の範囲内である。次いで、n個の値の再構成データセット(入力データセットに一致するように)への隠れ層の活性化は、データを圧縮/縮小する。代表的な実施形態では、mは5~10,000であり得、nは5~10,000であり得る。
【0114】
説明のために、AIモデル132は、8つの隠れ層162a~162hを含む。この実施形態は、合理的なリソースを使用して訓練可能であり、正確な分類のための優れた特化能力を有するAIモデルを提供する。
【0115】
本発明の好ましい態様によれば、AIモデル132は、データ変換がAIモデル132の隠れ層162a~162hによって提供される変換段階におけるデータの少なくとも1つの圧縮およびデータの少なくとも1つの解凍(または拡張)を含むように構成される。好ましくは図示のように、変換は複数のデータ圧縮段階でデータを圧縮することと、複数のデータ解凍段階または展開段階でデータを解凍または展開することとを含む。たとえば、データ圧縮は、AIモデル132の隠れ層が場合によっては別の隠れ層または入力データ層であり得る、すぐ上流の層と比較してより少ない数のノードを有するときに生じる。同様に、データ解凍または拡張は、場合によっては隠れ層または出力層が場合によっては別の隠れ層または入力データ層であり得る直ぐ上流の層と比較してより多くの数のノードを有するときに生じる。データの圧縮および解凍/展開は、任意の順序で行うことができる。データを圧縮および解凍する利点はこれが、AIモデル132が1つまたは複数の関連するクラスのためのデータの再構成に特殊化する能力を高めることである。データ圧縮および解凍/展開の両方を使用する結果として、全体的な変換は関連する1つまたは複数のクラスの真正なサンプルのみが、再構成誤差しきい値を満たすのに十分な精度で再構成されることができるように、訓練された真正なサンプルに非常に複雑かつ一意に調整されるようになる。関連するクラス以外の他のサンプルの再構成誤差は一般に、再構成誤差閾値を満たすのに十分に正確に再構成されない。
【0116】
一般に、AIモデル132の各層162a~162hは、それぞれ、ノード164a~164hの対応する配列を備える。各ノード164a~164hは、概して、出力を生成するために、供給されたデータに対して少なくとも1つの関数および/または変換を実行する。各ノード164a~164hによって使用される動作または変換は、1つまたは複数のパラメータ、係数などを有し得る。任意選択で、バイアスはまた、それぞれ、各ノード164a~16hにおいて印加されてもよい。各ノード164a~164hの出力は、人工知能の分野において、その活性化値またはそのノード値として参照される。
【0117】
情報が隠れ層162a~162hに出入りする経路166a~166iは、リンクとも呼ばれる。各経路166a~166iは、重量によって特徴付けられてもよい。多くの実施モードでは、各ノード164a~164hおよび153が、場合によっては複数の重み付き経路166a~166iから入力信号の重み付き組合せを受信する。それぞれの経路の重み付けは、結果として生じる複合入力が様々な重みがどのように設定されるかに応じて、任意の後続の算出、究極的には最終的なアウトプットデータセット152に様々な影響を及ぼし得ることを意味する。重み付けされた入力信号と、AIモデル132全体にわたって適用される機能、バイアス、および/または変換との組合せは、線形および/または非線形であり得る。
【0118】
隠れ層162a~162hを通る情報の流れは、順方向パス伝搬および/または逆方向パス/逆方向伝搬を介して生じ得る。説明のために、AIモデル132のアーキテクチャは、データが矢印165によって示される下流方向に流れる順方向通過特性を伴って示される。
【0119】
望ましくは、データ圧縮の程度が各層162a~162dにおいて漸進的に生じる。これは、層162a~162dのそれぞれにおけるノード164a~164dの数が減少することによって概略的に示されている。いくつかの実施形態では、データ圧縮が各連続する層162a~dを通して着実に行われ得る。あるいは、圧縮の進行は非線形であってもよい。
【0120】
また、各層162e~162hにおいて、漸進的にデータ解凍が行われることが望ましい。これは、層162e~162hのそれぞれにおけるノード164e~164hの数が増加することによって示される。いくつかの実施形態では、データ圧縮解除が各連続する層162e~162hを通して着実に行われ得る。あるいは、伸張の進行は非線形であってもよい。
【0121】
AIモデル132においてデータ圧縮が生じる隠れ層の数は、広い範囲から選択され得る。多くの実施形態では、圧縮が1つ以上の隠れ層、好ましくは2つ以上の隠れ層を介して行われる。多くの実施形態では、圧縮が5層以上、さらには10層以上、さらには20層以上の層で起こり得る。好ましい実施形態では、圧縮が1~20個の隠れ層、好ましくは2~10個の隠れ層、より好ましくは2~5個の隠れ層において生じる。図8aに示すように、AIモデル132は、データを漸進的に圧縮する4つの層162a~162dを含む。
【0122】
AIモデル132においてデータの解凍または拡張が行われる隠れ層の数は、広範囲から選択され得る。多くの実施形態では、解凍/拡張が1つまたは複数の隠れ層、好ましくは2つまたは複数の隠れ層を介して行われる。多くの実施形態では、減圧/膨張が5層以上、10層以上、又は20層以上の層で発生し得る。好ましい実施形態では、解凍/拡張が1~20個の隠れ層、好ましくは2~10個の隠れ層、より好ましくは2~5個の隠れ層で行われる。図8aに示すように、AIモデル132は、データを漸進的に解凍/展開する4つの層162e~162hを含む。
【0123】
データを圧縮するAIモデル132における隠れ層の数は、データを伸張/拡張する隠れ層の数と同じであってもよいし、異なっていてもよい。説明のために、AIモデル132は、データを圧縮および解凍/展開する等数の隠れ層を含む。すなわち、4つの層162a~162dはデータを圧縮し、同数の層162e~162hはデータを伸張/伸張する。
【0124】
AIモデル132は、望ましくは、再構成データセット152が入力データセット150のサイズと一致するように、データセット150を圧縮および解凍/拡張する。例えば、入力データセット150内の値151の数は、再構成データセット152内の値153の数と同じである。これにより、入力データセット150および再構成データセット152における対応するデータポイントペアを直接比較して、2つのデータセットが異なるサイズである場合よりも簡単な方法で再構成誤差特性を決定することができる。
【0125】
図8bは、図7および8aのAIモデル132の代わりに、本発明の訓練において使用することができるAIモデル132’の代替訓練形態を概略的に示す。AIモデル132’は、入力データセット150のデータ値151を再構成データセット152’のデータ値153’に変換する。AIモデル132’は、データ拡張領域133と、データ拡張領域133の下流のデータ圧縮領域135とを含むアーキテクチャを含む。データの流れがAIモデル132’によって変換されると、データは、最初にデータ拡張領域133内で拡張され、次いで、データが圧縮されて、データ圧縮領域135内に再構成データセット152’が生成される。図示のように、データ拡張領域133は、データ圧縮領域135の長さL2よりも短い長さL1を有する。これは、データ拡張領域133がデータ圧縮領域135よりも少ない数の隠れ層を有することを概略的に示す。他の実施形態では、長さL1(したがって、隠れ層の数)はL2よりも大きいか、またはL2に等しくさえあり得る(この場合、領域133および135の両方は同じ数の隠れ層を有する)。
【0126】
図7のAIモデル132および図8aまたは図8bのAIモデル132’の訓練は、人工知能の分野で実施される1つまたは複数の訓練方法に従って、重み、パラメータ、バイアス、閾値、または他の値を調整することによって行うことができる。いくつかの訓練戦略では、調整が所望の誤差仕様書からの再構成誤差特性の偏差の関数として行われる。訓練は、帰納的及び/又は演えき的学習を用いて行うことができる。知識ベースの帰納学習(KBIL)は、帰納学習の一例である。KBILは、背景情報を用いて、データセットに関する帰納的仮説を発見することに焦点を当てている。説明ベース学習(EBL)および関連性ベース学習(RBL)は、演えき学習の実施例である。EBLは、説明を一般化することによって、例から一般的な規則を抽出する。RBLは、例から属性および演えき的一般化を識別する。AI訓練は、1つまたは複数のフィードバック戦略を使用することができる。例としては、教師なし学習、教師付き学習、半教師付き学習、および/または強化学習が挙げられる。
【0127】
線形回帰、非線形回帰、Laplace変換、積分、誘導体化、シグモイド、双曲線正接、逆双曲線正接、サイン、コサイン、ガウス誤差線形ユニット、指数線形ユニット、スケーリング指数線形ユニット、ソフトプラス関数、Swish関数、Gudermannian関数、整流線形ユニット、リーク整流線形ユニット、クリッピング整流線形ユニット、活性化関数、複合非線形関数、学習ベクトル量子化、スマッシュ関数、または他の正規化などを含むが、これらに限定されない、AIモデル132または132’中の異なるノードの間で、様々な機能および変換を単独でまたは組み合わせて使用することができる。望ましくは、入力値から出力値への線形マッピングのみを使用することを回避するために、非線形特性をニューラルネットワーク変換に組み込むために、1つまたは複数の活性化関数が使用される。
【0128】
図9は、隠れ層162a~162dを通してデータを処理した結果として圧縮されたデータセットを得るために、図8の入力データセット150上で実行される動作の例示的なセットを概略的に示す。入力データセット150は、マトリックスIによって表され、圧縮データセット156はマトリックスH4によって表され、層162a~dのそれぞれにおけるノード164a~dによって生成されるノード活性化値はそれぞれマトリックスH1、H2、H3、およびH4によって表され、それぞれB1、B2、B3、およびB4のそれぞれは各層におけるドット積に加算されるバイアスマトリックスであり、経路166a~dのそれぞれに適用される重みマトリックスはそれぞれW1、W2、W3、およびW4によって与えられ、αは任意の活性化関数を表す。入力行列Iが与えられると、第1の重み行列W1に対するドット積が計算され、バイアス行列B1が加算され、活性化関数αが結果に適用される。その結果、新しい行列H1が得られる。次いで、マトリックスH1は、次の層のための新しい入力マトリックスとして使用され、ここで、H2を提供するために同じ演算が適用される。これは、圧縮されたデータセットH4が得られるまで繰り返される。関数H4=F(I)は、ニューロンの層を介して入力行列Iを処理して圧縮データ行列を提供する全体的な変換機能を表す。
【0129】
図10は、隠れ層162e~162hを介してデータを処理した結果として、解凍され、再構成された出力データセットI’を得るために、図9の圧縮データセットH4に対して実行される例示的な動作セットを概略的に示す。圧縮データセットはマトリックスH4によって表され、解凍され、再構成され、出力データセットはマトリックスi’によって表され、層162e~hのそれぞれにおけるノード164e~hによって生成されるノード活性化値はそれぞれマトリックスH5、H6、H7、およびH8によって表され、経路166e~iのそれぞれに適用される重みマトリックスはそれぞれ、W6、W7、W8、W9、およびW10によって与えられ、それぞれ、B6、B7、B8、B9、およびB10のそれぞれは各層におけるドット積に追加されるバイアスマトリックスであり、αは任意の活性化関数を表す。入力行列H4が与えられると、第1の重み行列W6に対するドット積が計算され、バイアス行列B6が加算され、活性化関数αがその結果に適用される。結果は、新しい行列H5である。次いで、マトリックスH5は、次の層のための新しい入力マトリックスとして使用され、ここで、H6を提供するために同じ演算が適用される。これは、出力データセットI’が得られるまで繰り返される。関数得I’=F(H4C)は、出力マトリックスI’を提供するためにニューロンの層を通してマトリックスH4を処理する全体的な変換関数を表す。
【0130】
図11aは、本発明の訓練されたAIモデル200、202、および204がサンプル210、212、214、および216がAIモデル200、202、および204が訓練されたクラスのいずれかにあるかどうかを決定するために使用され得る方法を概略的に示す。各モデル200、202、および204は、1つのタイプの訓練サンプルからの入力データを圧縮し、次いで、再構成誤差を最小限に抑えるために、それらを圧縮解除して戻すように訓練された。したがって、各AIモデル200、202、および204は、それぞれ、1つの関連するクラスT1、T2、およびT3に関してのみ訓練される。訓練の結果は、AIモデル200は、サンプルがクラスT1にあるとき、再構成誤差を最小化するように特殊化されることである。AIモデル202は、サンプルがクラスT2にあるとき、再構成誤差を最小化するように特殊化される。AIモデル204はサンプルがクラスT3にあるとき、再構成誤差を最小化するように特殊化される。説明のために、AIモデル200、202、および204の各々は関連するクラスにおける訓練サンプルのための対応する所望の誤差仕様書内の再構成誤差を達成するように、独立して訓練された。誤差仕様書は異なるモデル200、202、および204間で同じであってもよいし、異なっていてもよい。
【0131】
モデル200、202、および204の各々は、独立して、圧縮部分206と、解凍部分208とを含む。圧縮および伸張部206および208は、各モデル200、202、および204の専門的な訓練を前提として、各モデル200、202、および204に関して固有である。各モデル200、202、204の圧縮部206は、入力データを圧縮して圧縮データを提供する。各モデル200、202、204の伸張部208は、圧縮データを解凍して、4つのサンプル210、212、214、216のそれぞれについて、各モデル200、202、204からの再構成データ211、213、215、217の出力を提供する。圧縮部206はサンプル210、212、214、216からそれぞれデータ221、223、225、227を入力とし、伸張部208は、対応する圧縮部206の圧縮出力を入力とする。
【0132】
訓練は、このアプローチで単純化される。各モデルは1つのクラスタイプからのサンプルの再構成誤差を最小化することのみを担うので、関連するクラスタイプのサンプルのみが、各モデルの訓練サンプルとして使用される必要がある。偽造または関連するクラスタイプまたはタイプ以外の他のサンプルは、訓練のために使用される必要はない。これにより、計算時間およびコストを低減する。複数のモデルは容易に訓練され、各モデルは1つまたは複数の関連するクラスタイプのサンプルを再構成することに特殊化する。この再構成戦略は同じモデルを通して処理されている2つ以上のクラスに対する確率に依存しないので、他のタイプのサンプルは特定種類の訓練プロセスに影響を与えない。確率モデルと比較して、結果として得られる特殊化モデルのライブラリは、未知のサンプルが1つのクラスタイプに比較的特性が近いが、ライブラリに関連する他のクラスタイプとは著しく異なる偽物である状況をより良好に処理する。背景技術のセクションで述べたように、そのような状況は、歪んだ正規化問題のために確率モデルを混乱させる可能性があり、これは、そのような偽造品材料の誤った分類のより大きな事例を引き起こす傾向を有する可能性がある。
【0133】
モデル200、202、および204が訓練されている場合、モデル200、202、および204を使用して、サンプル210、212、214、および216を評価し、分類することができる。サンプル210、212、214、または216が、特定のモデル200、202、および204に関連付けられたクラス内にある場合、誤差仕様内の低い再構成誤差が生じるはずである。サンプル210、212、214、または216が、モデル200、202、または204が特殊化されたクラス内にない場合、誤差仕様外の比較的高い再構成誤差が生じるはずである。したがって、クラスT1、T2、およびT3のすべての外側にあるサンプルの再構成誤差は、すべてのモデル200、202、および204に関して対応する誤差仕様の外側にあるはずである。
【0134】
図11bは、それぞれサンプル210、212、214、および216の各々にモデル200、202、および204を適用するときに生じ得る例示的な結果230を概略的に示す。図11bに示される結果230は、再構成誤差がRMSE値として表される表の形態である。例示のために、モデル200、202、および204の各々が、3未満の再構成誤差に従って関連するクラス内のサンプルを認識するように訓練されると仮定すると、結果は、サンプル210がクラスT1にあり、サンプル212がクラスT2にあり、サンプル214がクラスT3にあることを示す。これは、再構成誤差がそれぞれ、これらの一致に対する誤差仕様内にあることによって示される。一方、サンプル216の再構成誤差は、モデル200、202、または204のいずれかが適用される場合、誤差仕様外である。これは、サンプル216がT1、T2、またはT3クラスのいずれにも存在しないことを示す。いくつかの文脈では、これはサンプル216が偽造品であることを示す。再構成誤差(モデル204に対するサンプル216の7.5)の近接は、サンプル216がクラスT3を模倣しようとする偽造品であることを示し得る。
【0135】
図12は、本発明の原理を実施するために有用なシステム300を示し、それによって、AI戦略は、証明を評価するためにダイヤモンド302a、302b、302c、および302dの特性を使用する。「原産地」は、宝石が由来する地理的起源を説明するために使用される宝石産業における用語である。特定地域からの宝石は、指紋のように、独特の特徴のセットを有する傾向がある。他の領域からのジェムストーンは、一致する特性を有しない。したがって、固有の特性のセットを有する宝石は、特定の領域から来るものとして識別することができる。固有の特性のセットを持たない宝石は、特定地域からのものとして除外することができ、代わりに異なる領域からのものでなければならない。上述の本発明の実施形態では、項目に関連付けられたタガントが分類のために使用されるスペクトルシグネーチャを提供する。宝石自体のスペクトル特性は、出自を評価するのに必要な情報を組み込んでいるので、宝石の出自はタグを必要としない。
【0136】
リーダ装置304は、ダイヤモンド302a、302b、302c、および302dのスペクトル特性306a、306b、306c、および306dをそれぞれ読み取るために使用される。リーダは、レーザダイオード308と、センサ配列310とを含む。レーザダイオード308は宝石を照明する。説明のために、ダイヤモンド302aが照明される。ダイオード308からの照明311は、ダイヤモンド302aをトリガして、センサ配列310によって読み取られるスペクトル応答305を放出する。スペクトル応答305は、スペクトル特性306aを組み込む。同様に、他のダイヤモンド302b、302c、および302dのスペクトル応答は、それぞれのスペクトル特性306b、306c、および306dを組み込む。検知されたデータは、クラウド314に格納される。スペクトル特性306a、306b、306c、および306dの各セットが他のものとどのように異なるかに留意されたい。これは、ダイヤモンド302a、302b、302c、および302dの各々が異なる地理的位置に由来することを示す。ライブラリ316は、世界の様々な地域にそれぞれ対応する本発明の複数のAIモデルを格納する。AIモデルを使用して、スペクトル特性306a、306b、306c、および306dを再構成して、どのAIモデルがそれぞれダイヤモンド302a、302b、302c、および302dごとにデータを適切に再構成するかを決定することができる。本発明の原理によれば、そのAIモデルが特定のダイヤモンドのデータを適切に再構成する地理的領域は、その宝石の原点として識別することができる。ハードウェアプロセッサ318は、照明、感知、記憶、比較などを処理するのを助けるためにコンピューティングリソースを提供する。
【0137】
図13は、本発明の原理を使用して宝石638を分類することができるように、視覚的撮像(例えば、視野の視覚的特性を符号化する画像キャプチャ)と、宝石638からスペクトル情報をキャプチャするマルチスペクトル/ハイパースペクトル撮像技術との組み合わせを使用する、本発明の例示的なシステム630を概略的に示す。説明のために、宝石638はダイヤモンドである。各宝石638は、それぞれ、タガントシステム(図示せず)でマークされる。存在する場合、それぞれの異なるタガントシステムは、それぞれ関連付けられた地理的位置に対応する。したがって、各宝石638上のタガントシステムを識別または分類することにより、各宝石638の起源を決定することができる。状況に応じて、宝石638は、1つまたは複数の地理的位置から生じてもよく、したがって、場合によっては1つまたは複数の異なるタガントシステムを組み込んでもよい。
【0138】
システム630は、マルチスペクトル/ハイパースペクトル画像キャプチャ装置634の視野632内の宝石638のうちの1つまたは複数にタガントシステムが存在するかどうかを遠隔検出するために使用され得る。次いで、システム630は、タガントシグネーチャが検出されたかどうかを示すことができる出力658を生成し、そのピクセルが関心のスペクトルシグネーチャを生成したシーン内の宝石638を強調するシーンの出力画像(図示せず)を生成することができる。マルチスペクトル/ハイパースペクトルイメージング能力を有する様々な異なる画像が市販されている。これらの能力を有する市販の撮像装置の実施例は、フィンランドのSpecim Spectral Imaging Oy LtからSPECIM FX SERIES取引で市販されているハイパースペクトルカメラである。
【0139】
説明のために、システム630は、シーン636を分析するために使用されている。シーン636は、採掘されたダイヤモンド石の大まかな形態の複数の宝石638であって、さらなる処理のために、コンベヤ640上で矢印643の方向に輸送される宝石を含む。宝石638は、地理的位置、さらにより具体的には、宝石638が採掘された鉱山(図示せず)に従って、タガントシステムでマークされている。この図における各地理的位置または鉱山は、それ自体の固有のスペクトルシグネーチャに関連付けられ、その鉱山からの宝石638は適切な固有のスペクトルシグネーチャをコードする対応するタガント粒子でマークされている。この図におけるシステム630の例示的な目的は、宝石638が許可されていない鉱山からプロセスに注入されるのではなく、許可された鉱山から供給されることを確認するために、宝石638を遠隔スキャンすることである。このように、宝石638を追跡する1つの理由は、特定の石が特定の許可された鉱山から供給されたことを下流の買い手または他のエンティティに確認できることである。これは、ダイヤモンド石が採掘される鉱山源が、石に与えられる価値または他の好みに影響を与え得るので、商業的に重要であり得る。
【0140】
撮像デバイス634は、ある距離から離れた場所にあるシーン636の視覚的およびマルチスペクトル画像情報の両方を捕捉するために使用される。画像は、静止画像、プッシュブルーム画像、及び/又はビデオ画像の形態を含む様々な形態で、連続的に又は所望の間隔で捕捉されてもよい。これは、手動で行うことができ、又は画像キャプチャを自動化することができる。任意の照明源644は、照明646でシーン636を照明する。一般に、任意の照明源644は、様々な読み取り条件において同様の照明を維持するのを助けるために使用され、これはより高いセキュリティのためにより厳しい公差でシグネーチャが定義されることを可能にするのを助ける。場合によっては、照明源644が、例えば、画像捕捉デバイス634が、適切な日光がある日中に屋外で画像情報を捕捉するときには必要とされないことがある。夜間、曇りすぎる場合、屋内、または他の低光条件、または周囲照明が過度に変化し得る適用では、広帯域白色光照明を使用することは、存在する場合、タガント粒子からの一貫したより強いスペクトルシグネーチャの検出を可能にするのを助けるのに有用であり得る。さらに、タガント材料が所望のスペクトル出力を生成するために特定のタイプの照明を発光するか、またはそうでなければ必要とする場合、照明源644は、適切な照明を提供するように選択され得る。シーン636は、任意選択で、視覚的および/またはマルチスペクトル画像情報を較正するのに役立つフレーム内参照として機能する、白色、ブラック、または灰色の参照面などの参照プラーク639を含むことができる。
【0141】
照明源644は、シーン636を、しばしば順番に発生する2つ以上のタイプの照明646で照明することができる。次いで、画像キャプチャ装置634は、各タイプの照明に関連するシーン634のスペクトル出力を読み取ることができる。いくつかの実施形態では、照明システム644が2つ以上、好ましくは2~10の波長帯域の照明を順に含む照明646を提供することができる。これらの波長帯域は照明が重複する波長を有さないように、分離していてもよい。他の例では、波長帯域が部分的に重複し得る。例えば、370nm~405nmの範囲の主に照明を提供する照明は、550nm~590nmの範囲の主に照明を提供する照明とは異なる。別の実施例として、波長範囲380nm~430nm、410nm~460nm、および440nm~480nmの3つの照明は、それぞれ、少なくとも1つの他の波長帯域と部分的に重複しているにもかかわらず、異なるタイプの照明である。
【0142】
一般に、照明源644は、適切なスペクトルシグネーチャを提供するタガント粒子から適切なスペクトル出力を生成するのを助けることができる、使用される1つまたは複数のタイプの照明646を使用する。例えば、照明646は、ハロゲン電球によって放射されるような明るい広帯域光の形態であってもよい。いくつかの実施形態では、ハロゲン電球が連続的にオンのままであってもよく、または変調されてもよい。
【0143】
多くの他の種類の異なる照明源644を使用することができる。発光ダイオード(LED)は、便利な照明源である。LEDは信頼性があり、安価であり、照明波長および強度が均一であり、エネルギー効率が高く、過度の加熱がなく、コンパクトで、耐久性があり、信頼性がある。レーザダイオードなどのレーザは、同様に照明に使用することができる。1つの利点として、レーザ照明は、高強度の狭いスペクトル出力を有する。いくつかの実施形態では、広帯域白色光が好適である。
【0144】
画像キャプチャ装置634は、キャプチャされた画像情報を制御システム648に提供する。制御システム648は、一般に、コントローラ650、出力658、インターフェース660、ならびに通信経路656、662、664、および666を含む。通信経路656は、画像キャプチャ装置634とコントローラ650との間の通信を可能にする。コントローラ650のいくつかのまたはすべての態様は、画像キャプチャ装置634自体に組み込まれるローカル構成要素652内にあってもよい。コントローラ650の他の態様は、任意選択で、1つまたは複数のリモートサーバまたは他のリモート制御構成要素654に組み込まれ得る。通信経路662は、コントローラ650が出力658と通信することを可能にする。通信経路664は、出力658およびインターフェース660が通信することを可能にする。通信経路666は、インターフェース660およびコントローラ650が通信することを可能にする。
【0145】
制御システム648は、望ましくは、検出されたスペクトルシグネーチャを分類するために、キャプチャされた情報を評価する適切なプログラム命令の実行を行わせるハードウェアプロセッサを含む。本発明の原理によれば、ライブラリ316は、世界中の様々な領域にそれぞれ対応する本発明の複数のAIモデルを記憶する。AIモデルを使用して、宝石638のマルチスペクトル特性を再構成し、存在する場合、各宝石638のデータをそれぞれ適切に再構成するAIモデルを決定することができる。本発明の原理によれば、そのAIモデルが特定の宝石638のデータを適切に再構成する地理的領域は、その宝石の原産地として識別することができる。制御システム648は、照明、感知、記憶、比較などを処理するのを助けるためにコンピューティングリソースを提供する。
【0146】
制御システム648は、評価の結果を伝達するために出力658を提供する。出力658は各宝石638について真正のタグ付シグネーチャが検出されるかどうかを示し、どの地理的領域または鉱山が、真正のタグ付シグネーチャを有する各宝石638に関連付けられているかを識別することができる。検出された場合、出力158は、視野632のキャプチャされた画像内で各宝石638のラベル付けされた原点を示すことができる。
【0147】
出力658は、評価の結果に基づいて自動化されたフォローアップアクションを行うために、他の制御システム構成要素または異なるシステムに提供されてもよい。出力658はまた、インターフェース660を介してユーザ(図示せず)に提供されてもよい。インターフェース660は、色またはパターンが設定、入力、結果などを示すタッチパッドインターフェースおよび/またはライトを組み込むことができる。インターフェース660は選択肢として、合格/不合格などの可聴フィードバックを与える音声チップまたは音声出力を含むことができる。さらに、ユーザが制御システム648と対話することを可能にするために、制御(図示せず)が含まれてもよい。
【0148】
次に、本発明を、以下の例示的な実施例を参照して説明する。
【0149】
[実施例1]:
タグ付きおよびタグなしサンプルの準備
7つの異なるクラスを表すために、8つの異なるサンプルタイプを準備した。これらはそれぞれT1~T7クラスであった。異なる方法で配備された同じクラスからのサンプルを正確に分類するAIモデルの能力を試験するために、2つのタイプのサンプルをT3クラスのために準備した。サンプルT1~T7は、それぞれクラスT1~T7に対応する。
【0150】
サンプルT1を以下のように準備した。クラスT1に関連するタガントシステムとして、IR(赤外線)吸収色素であるIR-T1を、水性インク100重量部当たりIR-T1色素を3重量部の装填量で、光学的に透明な水性ベースインクに入れた。次いで、インクとIR色素、IR-T1との混合物を、StateMix Vortex labミキサー中で4kの速度で5分間ビーズ粉砕した。得られた、IR-T1色素を含有する粉砕されたタガントインクを、次いで、Harper QDプルーファーを使用して、速度設定10、8.5bcmのアニロックスローラー、および65デュロメーターの転写ローラーで、ドローダウン処理を介して金属基板上に印刷した。
【0151】
サンプルT2を以下のように準備した。クラスT2に関連するタガントシステムとして、IR(赤外線)吸収色素であるIR-T2を、水性インク100重量部当たりIR-T2色素を3重量部の装填量で、光学的に透明な水性インク中に入れた。次いで、インクとIR色素、IR-T2との混合物を、StateMix Vortex labミキサーで、4kの速度で5分間ビーズ粉砕した。得られた、IR-T2色素を含有する粉砕されたタガントインクを、次いで、Harper QDプルーファーを用いて、10の速度設定、8.5bcmのアニロックスローラー、および65デュロメーターの転写ローラーで、ドローダウン処理によって金属基板上に印刷した。
【0152】
サンプルT3aを以下のように準備した。クラスT3に関連するタガントシステムとしてのIR(赤外線)吸収色素であるIR-T3を、水性インク100重量部当たりIR-T3色素を3重量部の装填量で、光学的に透明な水性インク中に入れた。次いで、インクとIR色素、IR-T3との混合物を、StateMix Vortex labミキサーで、4kの速度で5分間ビーズ粉砕した。得られた、IR-T3色素を含有する粉砕されたタガントインクを、次いで、速度設定10で、8.5bcmのアニロックスローラー、および65デュロメーターの転写ローラーで、Harper QDプルーファーを使用して、実験室におけるドローダウン処理によって金属基板上に印刷した。
【0153】
サンプルT3bを以下のように準備した。クラスT3に関連するタガントシステムとしてのIR(赤外線)吸収色素であるIR-T3を、水性インク100重量部当たりIR-T3色素を3重量部の装填量で、灰色に着色された水性インク中に入れた。次いで、インクとIR色素、IR-T3との混合物を、StateMix Vortex labミキサーで4kの速度で5分間ビーズ粉砕した。得られた、IR-T3色素を含有する粉砕されたタガントインクを、次いで、速度設定10で、8.5bcmのアニロックスローラー、および65デュロメーターの転写ローラーで、Harper QDプルーファーを使用して、実験室におけるドローダウン処理を介して、非金属不透明白色基板上に印刷した。
【0154】
サンプルT4を以下のように準備した。クラスT4に関連するタガントシステムとしてのIR(赤外線)吸収色素であるIR-T4を、水性インク100重量部当たり色素3重量部の装填量で、光学的に透明な水性インク中に入れた。次いで、インクとIR色素であるIR-T4との混合物を、StateMix Vortex labミキサーで、4k速度で5分間ビーズ粉砕した。得られた、IR-T4色素を含有する粉砕されたタガントインクを、次いで、速度設定10、8.5bcmのアニロックスローラー、および65デュロメーターの転写ローラーで、Harper QDプルーファーを使用して、実験室におけるドローダウン処理によって金属基板上に印刷した。
【0155】
サンプルT5を以下のように準備した。クラスT5に関連するタガントシステムとしてのIR(赤外線)吸収色素であるIR-T5を、水性インク100重量部当たり色素3重量部の充填量で、青色着色水性インク中に入れた。次いで、インクとIR色素であるIR-T5との混合物を、StateMix Vortex labミキサーで4k速度で5分間ビーズ粉砕した。得られた、IR-T5色素を含有する粉砕されたタガントインクを、次いで、速度設定10、8.5bcmのアニロックスローラー、および65デュロメーターの転写ローラーで、Harper QDプルーファーを使用して、実験室におけるドローダウン処理によって、非金属の不透明な白色基板上に印刷した。
【0156】
サンプルT6を以下のように準備した。タガントシステムとしてのIR(赤外線)吸収色素であるIR-T6を、クラスT6に関連する3重量部のタガントシステムの装填量で青色着色水性インクに入れ、水性インク100重量部当たり3重量部の色素の装填量で青色着色水性インクに入れた。次いで、インクとIR色素であるIR-T6との混合物を、StateMix Vortex labミキサー中で4k速度で5分間ビーズ粉砕した。得られた、IR-T6色素を含有する粉砕されたタガントインクを、次いで、速度設定10、8.5bcmのアニロックスローラー、および65デュロメーターの転写ローラーで、Harper QDプルーファーを使用して、実験室におけるドローダウン処理によって、非金属の不透明な白色基板上に印刷した。
【0157】
サンプルT7を以下のように準備した。クラスT7に関連するタガントシステムとしてのIR(赤外線)吸収色素であるIR-T7を、水性インク100重量部当たり色素3重量部の充填量で、青色着色水性インク中に入れた。次いで、インクとIR色素であるIR-T7との混合物を、StateMix Vortex labミキサー中で、4k速度で5分間ビーズ粉砕した。得られた、IR-T7色素を含有する粉砕されたタガントインクを、次いで、速度設定10、8.5bcmのアニロックスローラー、および65デュロメーターの転写ローラーで、Harper QDプルーファーを使用して、実験室におけるドローダウン処理によって、非金属の不透明な白色基板上に印刷した。
【0158】
上述のように、サンプルT1、T2、T3a、およびT4はタガントインクを金属基板上に印刷することによって準備され、サンプルT3b、T5、T6、およびT7はタガントインクを非金属基板上に印刷することによって準備された。金属基板上のタガントシステムは、非金属基板上のものより評価するのが困難である傾向があるので、金属基板をサンプルT1、T2、T3a、およびT4について選択した。金属基板の反射率はタガントシステムのスペクトル放射を妨害し、これは、スペクトルシグネーチャを正確に読み取る際の技術的課題を作り出す。結果として、非金属基板に関連する反射率が金属基板と比較してはるかに低いので、非金属基板上のサンプルからスペクトルを読み取ることがより容易であることが予想された。実際、スペクトルは、非金属基材上に印刷されたタガントインクを用いてサンプルから読み取るのがより容易であることが判明した。要するに、金属基板を使用することは、異なるサンプルを読み取り、評価し、分類するためのより困難な状況を作り出した。金属サンプルであっても正確な分類を達成する本発明の能力は、そのような課題に直面して正確な分類を提供する本発明の能力を強調する。
【0159】
7つのT1~T7タガントシステムのそれぞれは独特であった。各々は、他の6つのタガントシステムのスペクトルシグネーチャとは異なる独特のスペクトルシグネーチャを提供するスペクトル特性を有する独特のIR色素を含んでいた。しかしながら、選択されたIR色素は、それぞれのシグネーチャ特性においてお互いにスペクトル的に近かった。染料はまた、低充填量でタガントインク中に配合された。金属基材を使用することは、本発明の性能を評価するためのより強固な立証グランドを提供したのと同様に、これらの要因もまた、異なるサンプルを読み、評価し、分類するためのより困難な状況を作り出した。
【0160】
[実施例2]
[タグ付きサンプルの訓練スキャンの取得]
15個の異なるハンドヘルド反射分光計を使用して、検出器当たり、実施例1の各タグ付きサンプルの50~250スキャンを収集した。スキャンを収集するために複数の検出器を使用することにより、以下の実施例5の評価が可能になり、検出器間の分散が本発明のアプローチによって十分に適応されることを示した。その結果、正確な分類率を維持しながら、検出器間の分散に適応するようにモデルを訓練することができる。合計4203回のスキャンを得た。これらは、訓練されたAIモデルの分類能力を後で試験するために使用される訓練グループと予約グループとに分けられた。訓練グループは3783個(90%)のスキャンを含み、これらの訓練スキャンを用いて、それぞれクラスT1~T7の各々について特殊化されたAIモデルを訓練した。予約グループは、訓練されたAIモデルの分類能力を試験するために使用された420(10%)を含んだ。このようにして、訓練されたモデルの分類能力を試験するために使用されたスキャンは、第1の例においてモデルを訓練するために使用されなかった。
【0161】
以下の実施例4に記載されるように、追加の50回のスキャンを予約グループに加えて、訓練されたAIモデルの分類能力を試験するために使用された合計470回のスキャンを提供した。これらの追加の50回のスキャンは、実施例1のタグ付きサンプルのスキャン、ならびにいかなるタガントシステムも含まないサンプル(タグなしサンプル)のスキャンを含んだ。タグ無しサンプルの使用は、訓練されたAIモデルが、タグ無しサンプルが7つのT1~T7クラスのいずれにも属さなかったことを首尾よく決定できるかどうかを評価するための試験を可能にした。
【0162】
各スペクトルの発光を誘発するために、訓練サンプルを、2つの光源を順に使用して照射した:最初に広帯域白色光(400~1000nm)、次いで910nmのIR光。400nm~1000nmのスペクトルを、各照明タイプの下で収集した。これにより、各スキャンサンプルについて2種類のスペクトルが収集された。各タイプのスペクトルは、400nm~1000nmの波長範囲にわたって600個のデータポイントを含んでいた。IR反射スペクトルの600個のデータ値を、合計1200個の個々のデータ値を含む得られたデータ列について、可視反射スペクトルからの600個のデータ値の最後に加えた。
【0163】
1200個の値の各データ列について、平滑化変換を行った。平滑化平均は、15のウィンドウサイズに対して(すなわち、15個の値ごとに)計算された。ウィンドウは各値を中心とし、したがって、現在の値の前の7つの隣接値、現在の値、および現在の値の後の7つの隣接値を含む。データ文字列の先頭や末尾など、7つ未満の隣接する値が使用可能な場合、使用可能な値のみが平滑化に使用された。たとえば、文字列の最初の値の場合、最初の値の前に隣接する値はない。その結果、第1の値および現在の値の後の7つの隣接値について、第1の値の平滑化された値を計算するために使用された。次いで、水平標準正規変量(SNV)変換を、以下のように各平滑化値でデータを正規化するために、各スキャンに適用した(水平標準化の説明については、図15および以下の対応する議論を参照):
新しい値=(古い値-すべての古い値の平均)/すべての古い値のStdev
この表現において、「Stdev」という用語は標準偏差を指す。得られた正規化および平滑化されたデータ列は、そのスキャンサンプルの入力データセットとして機能した。この実施例では、1200個のデータ値すべてが単一のセットとして正規化された。代替として、600個の値の各データセットを正規化することができ、次いで、2つの正規化されたデータストリングを連結して、1200個の値を有する入力データセットを提供することができる。
【0164】
[実施例3]
[スキャンを使用したAIモデルの訓練]
図8aのものと同様のAIアーキテクチャを有する7つのAIモデルを、実施例2のスキャンを用いて訓練した。図8aに示すように、各モデルは、入力データセットを漸進的に圧縮する第1の圧縮部分と、再構成データセットを提供するために圧縮データを漸進的に解凍する第2の解凍部分とを有していた。各AIモデルの圧縮部分は6つの隠れ層を含んでいた。各AIモデルの解凍部分は、入力データセットのサイズに一致する同じ数のデータ値を含む再構成データセットを提供するためにデータを漸進的に解凍する6つの隠れ層も含んだ。
【0165】
各モデルは、それぞれT1~T7クラスのうちの1つの関連するタガントクラスについてのみ、スペクトル、したがってスペクトルシグネーチャを適切に再構成するように特殊化されるように訓練された。また、各モデルは、関連するクラスの訓練サンプルのみを用いて訓練された。したがって、T1 AIモデルは、サンプルT1から得られた訓練サンプルとしてスキャンのみを用いて訓練された。同様に、T2 AIモデルを、サンプルT2から得られた訓練サンプルとしてスキャンのみを用いて訓練した。同様に、T3~T7モデルのそれぞれは、サンプルT3~T7からそれぞれ得られた訓練サンプルとしてスキャンのみを用いて訓練された。
【0166】
T3モデルは、T3aおよびT3bサンプルの両方からのスキャンを使用して訓練された。これらの2つのサンプルは同じタガントシステムを含んでいたが、これらはそれぞれ2つの異なるインクキャリアを有する2つの異なる基板上で使用された。図14のデータは、訓練されたT3 AIモデルがT3タガントシステムを依然として正確に認識し、インクシステムおよび基板における差異が存在する場合でさえも、それを他のタガントシステムおよびタグなしサンプルと区別することができることを示している。
【0167】
以下の実施例4は、様々な異なるタグ無しサンプルからスペクトルスキャンを得ることを説明する。タグ無しサンプルのために訓練されたモデルはなかった。タグ無しサンプルを、実施例5で使用して、訓練されたモデルを評価し、7つの訓練されたモデルのいずれかが、タグ無しサンプルを、訓練されたAIモデルにそれぞれ関連するT1~T7クラスのいずれかにあると混同するかどうかを確認した。
【0168】
[実施例4]
[新しいサンプルスキャンの取得]
この実施例では、実施例1のタグ付きサンプから、ならびに追加のタグなしサンプルの両方から、50の追加のスキャンサンプルを得た。これらのうち、24のスキャンがタグ付きサンプルから得られ、26のスキャンがタグなしサンプルから得られた。
【0169】
50個の追加のサンプルのスキャンを、実施例2に関して上述した手順を用いて、タグ付きサンプルおよびタグなしサンプルから得たが、ただし、同じ検出器を用いて、50個すべてのスキャンを得た。さらに、金属基板上に準備されたサンプルから3回のスキャンを行い、平滑化および正規化のために使用されたデータ値は、3回の読み取り値の平均であった。さらに、非金属基板上のサンプルからは、1回のスキャンのみを行った。
【0170】
予約グループからの420スキャンを50の追加スキャンと組み合わせた結果、実施例3から得られた7つの訓練されたAIモデルの分類能力、およびそれらの関連するタガントシステム(関連するタガントクラスとも呼ばれる)、またはタグ無しサンプルの場合のそれらの欠如を試験するために、470スキャンの完全な予約グループが形成された。これらを以下の表に示す:
【表2】

様々な異なるタグなし項目からのスキャンが得られた。サンプル445および458はオレンジ色のスキャンであり、3Mのポストイットノートであった。スキャン446および459は、Bath and Body Worksからの「At the Beach」ボディローションの金属金箔標識のスキャンであった。サンプル447および460は、マットブラックカウンタートップのスキャンであった。サンプル448および461は、青色の3Mポストイットノートのスキャンであった。サンプル449および462は、非金属の灰色のセントトーマス大学フォルダのスキャンであった。サンプル450、451、463、および464は、Bath and Body Worksからの「In the Stars」ボディローションの金属金箔標識のスキャンであった。サンプル452および465は、Dellラップトップコンピュータの金属表面のスキャンであった。サンプル453および466は、実施例1の金属サンプルを作製するために使用された金属基板のスキャンであったが、インクを含まない。サンプル454および467は、実験室でドローダウン処理によって適用されたUV硬化性クリアワニスでコーティングされた実施例1の金属サンプルを作製するために使用された金属基板のスキャンであり、Harper QDプルーファーを使用し、速度設定10、アニロックスローラー8.5bcm、および65デュロメーターの転写ローラを使用した。サンプル455および468は、Bath and Body Worksからの「Pink Coconut Calypso」ボディローションの金属ピンクラベルのスキャンであった。サンプル456および469は、Bath and Body Worksからの「Pink Coconut Calypso」ボディウォッシュの金属ピンクラベルのスキャンであった。サンプル457および470は、Leneta Coからの非金属白色標準のスキャンであった。
【0171】
[実施例5]
[470スキャンを用いてAIモデルのサンプルを正確に分類する能力を評価する]
この実施例では、実施例4の470スキャンを使用して、これらのスキャンに関連するタグ付きサンプルおよびタグなしサンプルを分類した。各AIモデルを用いて、すべてのサンプルについて再構成誤差を評価し取得した。各モデルについて、全470サンプルの再構成誤差を、サンプルの関数としてプロットした。各AIモデルのプロット結果を、図14に示す。図14では、T~T7 AIモデルのグラフにそれぞれモデル1~モデル7の見出しが付いている。したがって、モデル1のグラフはT1 AIモデルのためのものであり、モデル2のグラフは、T2 AIモデルのためのものなどである。
【0172】
一般的に、全体的な結果として、図14のグラフ化されたデータは、仕様書が設定されている場合、AIモデルが誤差仕様書の下で再構成誤差を生成したクラスにサンプルを分類できることを示している。あるいは、サンプルが関連するモデルが最も低い再構成誤差を生成したクラスに分類することができる。また、タグ無しサンプルの約95%の再構成誤差は全てのモデルについて比較的高く、これらのサンプルが7つのクラスのいずれにも属さないことを示していることが分かる。
【0173】
例えば、サンプル1~38は、T1クラスにある。再構成誤差は最も低く、T1モデルについてのみ0.1未満であった。他のすべてのモデルは、T2モデルの約0.4からT6モデルの約3.3までの範囲のより高い再構成誤差を提供する。
【0174】
サンプル39~76は、T2クラスにある。T2モデルの使用のみが、これらのサンプルについて約0.1未満の最低再構成誤差を提供した。他の全てのモデルは、より高い再構成誤差を提供した。
【0175】
サンプル77~163は、T3クラスにある。T3モデルの使用のみが、これらのサンプルについて約0.1未満の最低再構成誤差を提供した。他の全てのモデルは、より高い再構成誤差を提供した。T3 AIモデルはまた、他のサンプルについてのT3サンプルを区別するだけでなく、T3aおよびT3bサンプルを互いに区別するのに十分な感度を有した。
【0176】
サンプル164~199は、T4クラスにある。T4モデルの使用のみが、これらのサンプルについて約0.1未満の最低再構成誤差を提供した。他の全てのモデルは、より高い再構成誤差を提供した。
【0177】
サンプル200~278は、T5クラスにある。T5モデルの使用のみが、これらのサンプルについて約0.1未満の最低再構成誤差を提供した。他の全てのモデルは、より高い再構成誤差を提供した。
【0178】
サンプル279~358は、T6クラスにある。T6モデルの使用のみが、これらのサンプルについて約0.1未満の最低再構成誤差を提供した。他の全てのモデルは、より高い再構成誤差を提供した。
【0179】
サンプル359~444は、T7クラスにある。T7モデルの使用のみが、これらのサンプルについて約0.1未満の最低再構成誤差を提供した。他の全てのモデルは、より高い再構成誤差を提供した。
【0180】
サンプル445~470はT1~T7クラスのいずれにもないが、これはこれらのサンプルがタグ付けされていないためである。全てのモデルは、タグ無しサンプルの大部分について、誤差仕様外の高い再構成誤差を提供した。タグ無しサンプルの再構成誤差が適切に選択された閾値よりも高い場合、タグ無しサンプルは、タグ無しとして予測され得る。タグ無しサンプルの再構成誤差が定義された閾値よりも低い場合、タグ無しサンプルは、最も低い再構成誤差を生じたモデル内のタイプとして分類され得る。このような状況が生じた場合、タグなしサンプルは誤分類されることになる。このような状況は、モデルが十分に訓練されている場合にはまれである。この実施例で得られたデータの評価は、誤分類がサンプルの5.5%未満で起こったことを示す。これは、誤分類が20%以上であると予想される確率的分類よりも劇的な改善である。
【0181】
結果は、各AIモデルが、固有の関連するクラスの適切な再構成に特殊化するようにどのように訓練できるかを示す。結果は、再構成誤差が関連するクラスのサンプルについてのみ低くなる傾向があることを示す。金属基板上のサンプルはスペクトルにおけるノイズの増加により分類することがより困難であったが、それにもかかわらず、本発明によって教示される分類方法はこれらのより困難なサンプルでさえも正確に分類する能力を示す。
【0182】
訓練後、AIモデルの分類精度を、それぞれ0.1071未満、0.1183未満、および0.1280未満の3つの異なる誤差閾値を用いて評価した。これらは、タグなしサンプルについての3つの最小再構成誤差値であった。3つの誤差閾値は、それぞれ、全分類精度の88.9%、94.5%、および97.2%に至った。結果は、全体的な精度が異なるアプリケーションのニーズに適合するように誤差閾値を調整することによって調整され得ることを示す。
【0183】
[実施例6]
[サンプルの準備]
上記の実施例1~5は、本発明の分類戦略が、次いでAIモデルを訓練し、使用するための入力データセットとして使用するために1200個のデータ値を提供するスペクトルスキャンに適用された実験を記載している。モデルの訓練および使用から得られた結果は、多数の値を含む入力データセットが、AIモデルの訓練を可能にし、次いで、高い精度で分類を提供することを示す。この実施例6および以下の実施例7~12によるサンプルの準備および試験は、入力データセットが5つのデータ値のみを含むはるかに単純なシナリオにおいてさえ、本発明の分類戦略が高度に正確であることを示すために行われた。実施例1~5の実験による1200次元を有する入力データセットを使用することと比較して、このシナリオの単純さは、従来の分類戦略に対して本発明の利点を実証するためのより困難な状況を提起した。しかしながら、有意なことに、5つの値を有する入力データセットを再構成するときでさえ、本発明の分類戦略(本明細書では再構成またはRE分類と呼び、アスタリスクはこの頭字語が本発明の原理に関連することを強調するのに役立つために使用される)は、広く使用されている2つの従来の分類戦略よりも優れていた。これらの2つの従来の分類戦略は、1)動径基底非線形カーネル学習(SVM RBF学習)を伴うサポートベクトルマシン、および2)確率的分類に基づくAI/NN(ニューラルネットワーク)学習を含んだ。
【0184】
実施例7~12で使用されたREモデルは、REAIモデルが5次元入力データのために各層でより小さいニューロンを有するより浅い層を有することを除いて、実施例1~5で使用された本発明のAIモデルに関して上述したようなアーキテクチャを有していた。結果として、REモデルは、5つの値の入力データセットを、1つの関連するクラスのための5つの値の再構成データセットに正確に再構成するように特殊化するように訓練された。さらなる差異として、その低い5次元入力のために、入力データに対して平滑化は実行されなかった。各サンプルのZ-スコア(水平標準化)は(水平標準化は図15で説明されており、以下の対応する議論が)依然として行われている。
【0185】
この評価は、それぞれ13の異なるタガントシステムに基づく13の異なるクラスを使用した。クラス1~11の各々は、飲料分野で商業化された実際の製品のパッケージに使用される独特のタガントシステムであった。エンドユーザは所望の温かい飲料を準備するために、温水と共に製品を使用するのであろう。タガントシステムは、対応するパッケージに印刷された対応するタガントインクを提供するために、キャリアインクに組み込まれた。
【0186】
クラス12および13のそれぞれは、クラス1の変形であった。クラス12は、そのインクキャリア中のタガントシステムの成分の1つの重量負荷がクラス1で使用されたものよりもクラス12で高かったことを除いて、クラス1と全く同じタガントシステムを使用するように配合された。クラス1と比較して、これは、構成要素の強度ピークを、タガントシステムにおける他のタガント材料のピークと比較してより高くさせた。クラス13は、そのインクキャリア中のタガントシステムの成分の1つの重量負荷がクラス1で使用される重量負荷よりもクラス12で低かったことを除いて、クラス1と全く同じタガントシステムを使用するように配合された。クラス1と比較して、これは、構成要素の強度ピークを、タガントシステムにおける他のタガント材料のピークと比較して低くした。したがって、クラス12はそのより高いタガント装填を示すためにクラス12(高)と呼ばれることもあり、クラス13はそのより低いタガント装填を示すためにクラス13(低)と呼ばれることもある。
【0187】
上記の市販のサンプルに加えて、クラス1に関連する追加の実験室ベースのサンプルを準備した。このサンプルは、インクキャリア中の同じ重量負荷で同じタガントシステムを使用して、市販のクラス1サンプルのスペクトルシグネーチャに一致するスペクトルシグネーチャを提供するように配合された。したがって、ラボベースであることを除いて、この追加のサンプルはクラス1のメンバーである。便宜上、この追加のサンプルを本明細書では「クラス1標的」サンプルと呼び、そのスキャンを「クラス1標的」スキャンと呼ぶ。用語「標的」は、これらの標識において、このサンプルがクラス1にあること、および市販のクラス1サンプルと区別することを意図することを示すために使用される。
【0188】
全体的なサンプルセットは、100個のクラス1サンプル、クラス2~11のそれぞれについて10個のサンプル、1個のクラス12サンプル、1個のクラス13サンプル、および1個のクラス1標的サンプルを含んだ。
【0189】
サンプルのスキャンを行った。いくつかのスキャンは訓練に使用され、残りは訓練されたモデルの性能を試験するために予約された。具体的には、クラス1のサンプルについて100回のスキャンを行い、これらのうち80回は訓練に使用され、20回は訓練されたモデルを試験するために予約された。それぞれクラス2~11のサンプルについて50回のスキャンを行い、各クラスの50回のスキャンのうち40回を訓練に使用し、10回は訓練されたモデルを試験するために予約した。それぞれ、クラス12、クラス13、およびクラス1標的サンプルのそれぞれのサンプルについて100回のスキャンを行い、各クラスのスキャンのうち80回が訓練に使用され、20回が訓練されたモデルを試験するために予約された。クラス1標的サンプルについて100回のスキャンを実施し、これらの全ての100回を訓練されたモデルの試験に使用し、訓練には使用しなかった。クラス12、クラス13、およびクラス1標的サンプルのスキャンを得るために、各サンプルを100の正方形のグリッドに分割した。サンプル上の異なる位置からスキャンを行うように、グリッドの各正方形からスキャンを行った。
【0190】
各スキャンを得るために、5チャネルカラーチップを有する検出器を用いて、各サンプルの蛍光発光のスキャンを行った。スキャンにより、各カラーチャネルについての値を得た。各サンプルの蛍光シグネーチャの発光を誘発するために、サンプルを385nmの波長のLED光源で照射した。訓練されたモデルを試験するために使用されたサンプルのスキャンは、同じ方法で得られた。実施例7~12では、クラス1~13のサンプルからのスキャンを用いて行われた分類実験を記載する。
【0191】
[実施例7]
[すべてのクラスのモデルが訓練反復の関数として訓練される場合の分類精度]
この実験では、SVM RBF、NN、およびREモデルを、クラス1~13から250の訓練反復のために訓練した。REモデルの訓練には、各クラスにつき1つの特殊化されたAIモデルを訓練し、合計13の訓練された特殊化されたAIモデルを訓練した。各REモデルは、関連するクラスの訓練サンプルのみを使用して訓練された。そのため、他のクラスのタグ付きシグネーチャの性質は、訓練の目的には関係なかった。以下の結果によって示されるように、本発明の有意な利点は、本発明のAIモデルが、このように訓練されたときでさえ、最良の分類性能を提供することである。SVM RBFおよびNN戦略のそれぞれについて、1つのモデルを、13のクラスすべてに関して訓練した。
【0192】
同じ訓練を、500回の訓練反復を用いて繰り返した。結果は、250回の反復で訓練されたSVM RBF、NNおよびREモデルの第1のセット、ならびに500回の反復で訓練されたSVM RBF、NNおよびREモデルの第2のセットであった。
【0193】
それぞれ250回の反復または500回の反復に関する訓練の後、クラス1~13ならびにクラス1標的クラスからのスキャンを正確に分類するための、対応する訓練されたSVM RBF、NN、およびREモデルの能力を評価した。クラス1~13に正しく分類されるサンプルの割合として示される、2つの実験の精度結果(クラス1標的サンプルからのスキャンがクラス1に対する一致であり、したがってクラス1に分類されるべきであることを想起されたい)は、以下の表に示される:
【表3】

結果は、SVM RBFとNNモデルが250回の反復を用いて訓練されたときに低い精度を有し、一方、REモデルは、全てのクラスに関して全体的に93.5%の精度を提供したことを示す。500回の訓練反復において、SVM RBFモデルは、依然として不十分に実行された。500回の訓練反復におけるNNモデルはREモデルと同等の精度を有していたが、以下のことが観察される:1)REモデルは250回の訓練反復のみを使用するNNモデルよりもはるかに正確であり、REモデルはより少ない訓練反復を使用して効果的に訓練され得、したがって、より迅速かつより低いコストで訓練され得ることを示し;2)各REモデルは関連するクラスのサンプルのみを使用して、ここに示される高い分類精度を達成するように訓練され得、その結果、クラス外の他のサンプルを知ることは必要とされない。
【0194】
この実験は、すべてのサンプルが、SVM RBF、NN、およびREモデルが訓練された既知のクラスに関連付けられる状況を提示することに留意されたい。これは、これらの2つの従来のモデルが未知のクラスからの未知のサンプルを既知のクラスのうちの1つに強制する傾向があるので、SVM RBFおよびNNモデルにとって極めて好ましい文脈を作り出す。この強制は、未知のサンプルがすべての既知のクラスの外側にある場合でも発生する。この文脈は、まだ遭遇していない新しいクラスを回避することによってSVM RBFおよびNNモデルに有利に働くが、RE戦略は250回の訓練反復においてSVM RBFおよびNNモデルを依然として上回り、500回の訓練反復を使用するとき、NNモデルのみがREモデルに一致する。これは、SVM RBFモデルが両方の訓練シナリオにおいて遅れていること、NNモデルが高度に正確であるために広範な訓練を必要とすること、およびREモデルがより少ない訓練反復を使用しても高度に正確であることを示す。
【0195】
さらに、この実験はすべてのサンプルおよびクラスがモデルに知られている状況を提示するが、これは現実世界のシナリオではない。実際のシナリオでは、以前は知られておらず、訓練に使用されていない、新しい競合相手、新しい偽造品などからの新たに遭遇する製品を含む。以下に示されるように、SVM RBFおよびNNモデルは、これらの新規参入者を既知のクラスの外側にあるものとして認識することができず、代わりに、それらを既知のクラスに強制し、不可能ではないにしても、新たに遭遇したクラスの偽造検出を極めて困難にする。対照的に、本発明のRE戦略は、有意な利点として、新たに遭遇したクラスからのサンプルが既知のクラスの外にあることをはるかに正確に認識することができる。REは、サンプルを既知のクラスに強制しようとしないので、この利点が得られる。むしろ、未知のものが、すべてのAIモデルに対して高すぎる再構成誤差を生成する場合、RE戦略はそのようなサンプルが既知のクラスのいずれにも属さないことを正確に決定することができる。これは、市場で新たに遭遇した偽造品及び競争的サンプルを検出することができる強い必要性を満たす。
【0196】
結果はまた、クラス1標的スキャンが、REモデルによってクラス1にあると正確に特徴付けられたことを示す。また、クラス1との高い類似性にもかかわらず、クラス12(高)および13(低)からのサンプルは、同様にREモデルによって正確に分類された。
【0197】
[実施例8]
[訓練された分類モデルが以前に知られていないクラスに最初に遭遇するシナリオをシミュレートする場合の分類精度]
この実験では、SVM RBF、NN、およびREモデルを、250回の訓練反復を使用してクラス1~3、5~8、および10~13に関して訓練した。これは、クラス4および9に関連するサンプルが、REモデルに関して訓練時に未知であり、後にREモデルが最初に遭遇する偽造品である状況をシミュレートする。REモデルの訓練には、クラス1~3、5~8、および10~13のそれぞれについて1つの特殊化されたAIモデルを訓練した。各RE*モデルは、関連するクラスの訓練サンプルのみを使用して訓練された。そのため、他のクラスのタグ付きシグネーチャの性質は、訓練の目的には関係なかった。さらに、従来の訓練に従った各SVM RBFおよびNNモデルは、1~3、5~8、および10~13からのサンプルを集合的に使用して訓練され、一方、クラス4および9からのサンプルは両方とも「他の」クラスに分類され、SVM RBFおよびNNモデルを「他の」クラスとして訓練するために使用された。このシナリオは、「他の」クラスが訓練時にこれらの2つのモデルに知られていたが、訓練時にRE*戦略には知られていなかったので、SVM RBFおよびNNモデルに分類上の利点を与える。SVM RBFおよびNNモデルに与えられる利点にもかかわらず、以下のデータは、RE分類戦略がより正確であることを示す。
【0198】
同じ訓練を、500回の訓練反復を用いて繰り返した。結果は、250回の反復で訓練されたSVM RBF、NN、およびREモデルの第1のセット、ならびに500回の反復で訓練されたSVM RBF、NN、およびREモデルの第2のセットであった。
【0199】
訓練後、SVM RBF、NN、およびRE戦略の能力は、サンプルをクラス1~13に属するものとして正確に分類する。実際には、これらの実験が、SVM RBF、NN、およびREモデルが既知のクラス1~3、5~8、および10~13内のサンプルを認識する能力をシミュレートしたが、クラス4および9からのサンプルはクラス1~3、5~8、および10~13外であることを認識した。正しく分類されたサンプルの割合として示される2つの実験の精度結果を、以下の表に示す:
【表4】

結果は、SVM RBFおよびNNモデルが250または500回の反復のいずれかを使用して訓練されたとき、低い精度を有することを示す。これらのモデルの精度が低いのは、少なくとも部分的には、クラス4および9からのサンプルを他のクラスのうちの1つに強制し、クラス3および8のサンプルが訓練されたクラスのいずれにも属さないことを認識できない傾向に起因する。対照的に、集合体中のREモデルは、全てのサンプルに関して全体的に有意に高い精度を提供した。結果は、500回の反復を使用したときの追加の訓練がSVM RBFモデルの改善を助けなかったことを示している。結果は、また、500回の反復を使用したときの追加の訓練がNNモデルを助けたが、精度は65%までしか改善されず、RE*モデルによって達成された89.6%のはるかに高い精度をはるかに下回ることを示した。要するに、RE*戦略は、新たに遭遇したサンプルが既知のクラスに属さないことをよりよく認識することができる。
【0200】
[実施例9]
[訓練された分類モデルが以前に知られていないクラスに最初に遭遇するシナリオをシミュレートする場合の分類精度]
この実験では、SVM RBF、NN、およびREモデルを、250回の訓練反復を用いて、クラス1、3~7、および9~13に関して250回の反復を通して訓練した。これは、クラス2および8に関連するサンプルがREモデルへの訓練時に未知であり、後にRE*モデルが最初に遭遇する偽造品である状況をシミュレートする。REモデルの訓練には、クラス1、3-7、および9-13のそれぞれに対して1つの特殊化されたAIモデルを訓練した。各REモデルは、関連するクラスの訓練サンプルのみを使用して訓練した。そのため、他のクラスのタガントシグネーチャの性質は、訓練の目的には関係なかった。さらに、従来の訓練に従ったSVM RBFおよびNNモデルの各々は、クラス1、3~7、および9~13からのサンプルを集合的に使用して訓練され、一方、クラス2および7からのサンプルは両方とも「他の」クラスに分類され、SVM RBFおよびNNモデルを「他の」クラスとして訓練するために使用された。このシナリオは、「他の」クラスが訓練時にこれらの2つのモデルに知られていたが、訓練時にRE戦略には知られていなかったので、SVM RBFおよびNNモデルに分類上の利点を与える。SVM RBFおよびNNモデルに与えられる利点にもかかわらず、以下のデータは、RE*分類戦略がより正確であることを示す。
【0201】
同じ訓練を、500回の訓練反復を用いて繰り返した。結果は、250回の反復で訓練されたSVM RBF、NN、およびREモデルの第1のセット、ならびに500回の反復で訓練されたSVM RBF、NN、およびREモデルの第2のセットであった。
【0202】
訓練後、SVM RBF、NN、およびRE*戦略の、クラス1~13からのサンプルを正確に分類する能力を評価した。実際には、これらの実験がSVM RBF、NN、およびREモデルがクラス1、3~7、および9~13内のサンプルを認識する能力をシミュレートしたが、クラス2および8からのサンプルはクラス1、3~7、および9~13外であることを認識した。正しく分類されたサンプルの割合として示される、2つの実験の精度結果を、以下の表に示す:
【表5】

結果は、SVM RBFモデルが250回または500回のいずれの反復を使用して訓練されたときでも、低い精度を有することを示す。対照的に、NNモデルおよびREモデルの両方は、すべてのサンプルに関して全体的に有意に高い精度を提供した。NNモデルがこの試験シナリオにおいて比較的高い精度を提供したとしても、NNモデルは、実施例8のシナリオにおいてはるかに不正確であった。対照的に、REモデルは、両方の試験シナリオにおいて比較的高い精度を提供した。これは、本発明のRE戦略がSVM RBFまたはNNモデルのいずれかよりも広い範囲のシナリオの下でより高い精度を提供することを示す。これはまた、RE戦略が、新たに遭遇したサンプルが既知のクラスに属さないことをよりよく認識することができることを示す。
【0203】
[実施例10]
[超偽造品を分類する分類モデルの能力のシミュレーション]
超偽造品は一般に、偽造品であるが、真正クラスのスペクトルシグネーチャに極めて近いスペクトルシグネーチャを有するクラスを指す。この定義の下では、クラス1が真正クラスと見なされる場合、クラス12およびクラス13の各々はクラス1に関して超偽造品である。クラス12および13は、タガントシステムの1つの構成要素の強度が変更されていることを除いて、それぞれがクラス1と同じタガントシステムを使用するので、この状態を有する。
【0204】
この実験では、SVM RBF、NN、およびRE*モデルを、250回の訓練反復を使用してクラス1~11に関して訓練した。これは、クラス12および13に関連するサンプルがRE*モデルに対する訓練時に未知であり、後にRE*モデルが最初に遭遇する偽造品である状況をシミュレートする。REモデルの訓練は、クラス1~11のそれぞれについて1つの特殊なAIモデルを訓練することを含んだ。各RE*モデルは、関連するクラスの訓練サンプルのみを使用して訓練した。そのため、他のクラスのタグ付きシグネーチャの性質は、訓練の目的には関係なかった。さらに、従来の訓練に従った各SVM RBFおよびNNモデルは、クラス1~11からのサンプルを集合的に使用して訓練され、一方、クラス12および13からのサンプルは両方とも「他の」クラスに分類され、SVM RBFおよびNNモデルを「他の」クラスとして訓練するために使用された。このシナリオは「他の」クラスが訓練時にこれらの2つのモデルに知られていたが、訓練時にRE*戦略には知られていなかったので、SVM RBFおよびNNモデルに分類上の利点を与える。SVM RBFおよびNNモデルに与えられる利点にもかかわらず、以下のデータは、RE*分類戦略がより正確であることを示す。
【0205】
訓練後、SVM RBF、NN、およびRE戦略の能力は、サンプルをクラス1~13に属するものとして正確に分類する。実際には、これらの実験が、クラス12および13からのサンプルがクラス1~11の外にあることを認識しながら、既知のクラス1~11内のサンプルを認識するSVM RBF、NN、およびRE*モデルの能力をシミュレートした。正しく分類されたサンプルの割合として示される実験の精度結果を、以下の表に示す:
【表6】

結果は、SVM RBFおよびNNモデルがREモデルよりもはるかに低い精度を有することを示す。これは、訓練中に超偽造品クラスがREモデルのいずれにも知られていない場合でも、RE*戦略が従来の分類戦略より優れた超偽造品を認識できることを示している。
【0206】
[実施例11]
SVM RBF、NN、および他の従来の分類戦略の欠点として、対応するモデルは、少なくとも2つのクラスに関して訓練されなければならない。対照的に、本発明の戦略は単一のクラスのみに関して訓練を行うことを可能にし、結果として得られる訓練されたモデルは、依然として、クラス内またはクラス外にあるものとしてサンプルを分類することができる。実際には、このことは、訓練されたモデルは、2つのクラスを優れた精度で実際に認識することができ、第1のクラスは訓練されたモデルに関連付けられたクラスであり、第2のクラスは関連付けられたクラス外の主題であると認識することを意味する。したがって、「C」が戦略が訓練されるクラスの数を表す場合、従来の方法は、Cが少なくとも2であるという制限を有するCクラスにのみ分類する傾向がある。新しく遭遇したクラスを既知のクラスの外にあるものとして分類する能力のために、本発明の再構成戦略は、Cを1つ以上とすることができる実用的な問題としてC+1クラスに分類することができる。
【0207】
SVM RBF、NN、および他の従来の分類戦略の別の欠点として、SVM RBFおよびNNモデルが本発明のRE*モデルを超える有意な利点を与えられた上記の実施例8~10を説明した。具体的には、これらの例のそれぞれにおいて、市場における偽造品をシミュレートするために使用される2つの新たに遭遇したクラスがあった。本発明のRE*モデルに関してはこれらの模擬偽造品クラスに関してAIモデル訓練は起こらず、その結果、各REモデルは性能試験中に初めてこれらを認識するように挑戦された。課題は、新たに遭遇したクラスからのこれらの新たに遭遇したサンプルは、訓練が行われた既知のいずれのクラスの外側にあると認識されなければならないことであった。
【0208】
対照的に、SVM RBFモデルもNNモデルも、これらの2つのモデルの各々が、そのような新たに遭遇したサンプルを既知のクラスの1つに誤って強制する傾向があることが知られていたので、このように挑戦されなかった。結果として、SVM RBFおよびNNモデルは、そのような新たに遭遇したサンプルの100%を誤分類することになる。このことは、SVM RBFおよびNNモデルは、新たに出会ったクラスを認識できなくなる傾向があることを意味する。実施例8~10におけるこの現実世界の欠点を回避するために、REモデルとは対照的に、2つのシミュレートされた偽造品は、それぞれ、実施例8~10のそれぞれにおいて単一の偽造品クラスにグループ化された。要するに、偽造品クラスは、訓練中にSVM RBFおよびNNモデルに知られていたが、REモデルには全く知られていなかった。SVM RBFおよびNNモデルにそのような有意な利点が与えられても、RE*戦略は、実施例8~10において、より良好な分類性能を依然として提供した。
【0209】
実施例8~10におけるSVM RBFおよびNNモデルの好ましい処理は、一般に現実的ではない。実際には、いくつかの既知のおよび/または予測されるクラスに関して練訓練が行われる可能性がはるかに高く、さらに、モデルが分類のために使用されている訓練後に、新しい未知のクラスが初めて遭遇される。これは、例えば、競合他社が新しい製品または新しい偽造品を市場に導入する場合に起こり得る。したがって、より現実的なシナリオは、訓練された分類モデルが訓練後に初めて新しいクラスに遭遇するときに生じる。もちろん、モデル訓練は、新しいクラスが分析され、人間の努力などによって検出された後に更新することができる。しかしながら、そのような新たに遭遇するクラスに関して更新された訓練が行われるまで、本発明のREモデルは、SVM RBFおよびNNモデルよりも、これらの新たなクラスを認識するのにはるかに良く、より早くなる。実際、以下のデータに示されるように、REモデルは、このより現実的な状況において高い精度を提供する。一方、SVM RBFおよびNNモデルは非常に不正確であり、実施例8~10のより好ましいシナリオよりもはるかに悪い性能である。
【0210】
この評価は、それぞれ16の異なるタガントシステムに基づく18のクラス(それぞれクラス1~18)を使用した。クラス1~16の各々は、ユニークなタガントシステムであった。タガントシステムをキャリアインクに組み込み、基板上に印刷された対応するタガントインクを提供した。クラス1~16における固有のタガントシステムの各々は、固有のスペクトルシグネーチャを提供する。この実施例のクラス1は、実施例6のクラス1と同じである。
【0211】
クラス17および18のそれぞれは、クラス1の変形であった。クラス17は、そのインクキャリア中のタガントシステムの重量負荷がクラス1で使用されたものよりもクラス17で高かったことを除いて、クラス1と全く同じタガントシステムを使用するように構成された。クラス18は、そのインクキャリア中のタガントシステムの重量負荷がクラス1で使用される重量負荷よりもクラス18で低かったことを除いて、クラス1と全く同じタガントシステムを使用するように構成された。したがって、クラス17はそのより高いタガント負荷を示すためにクラス17(High)と呼ばれることもあり、クラス18は、そのより低いタガント負荷を示すためにクラス18(Low)と呼ばれることもある。この実施例のクラス17および18は、実施例6のクラス12および13とそれぞれ同じである。
【0212】
実施例12~14で使用したRE*モデルは、実施例7のREモデルと同じアーキテクチャを有していた。実施例12~14はまた、実施例7と同じSVM RBFおよびNNモデルを使用した。SVM RBF、NN、およびREモデルを、500回反復して訓練した。
【0213】
サンプルのスキャンを行った。いくつかのスキャンは訓練のために使用され、残りは訓練されたモデルの性能を試験するために残された。各スキャンを得るために、5チャネルカラーチップを有する検出器を用いて、各サンプルの蛍光発光のスキャンを行った。スキャンにより、各カラーチャネルについての値を得た。各サンプルの蛍光シグネーチャの発光を誘発するために、サンプルを385nmの波長のLED光源で照射した。訓練されたモデルを試験するために使用されたサンプルのスキャンは、同じ方法で得られた。実施例12~14は、クラス1~18のサンプルからのスキャンを用いて行われた分類実験を記載する。
【0214】
[実施例12]
この実験では、SVM RBF、NN、およびREモデルを、実施例11のクラス1およびクラス2に対して、500回の訓練反復で訓練した。REモデルの訓練には、各クラスにつき1つの特殊AIモデルを訓練し、合計2つの訓練された特殊AIモデルを訓練した。各REモデルは、関連するクラスの訓練スキャンのみを使用して訓練された。SVM RBFおよびNN戦略のそれぞれについて、単一モデルをクラス1および2に関して訓練した。クラス3~18のスキャンは、訓練に使用しなかった。訓練されたモデルのその後の試験において、これは、クラス3~18が訓練後初めて新たに遭遇したことをシミュレートした。
【0215】
訓練後、訓練されたSVM RBF、NN、およびREモデルの、クラス1~18の全てからのスキャンを正確に分類する能力を評価した。この評価は、クラス1および2からのスキャンをそれぞれクラス1および2に正確に分類するモデルの能力だけでなく、クラス3~18からのスキャンがクラス1または2に属さなかったと認識する能力を評価した。正しく分類されたサンプルの割合として示された実験の精度結果を、以下の表に示す。各REモデルの再構成誤差(RMSE)閾値を0.96に設定した。この誤差閾値は、訓練されているクラスにおける訓練サンプルの96%が正しく分類されるように選択されたことに留意されたい。
【表7】

結果は、SVM RBFとNNモデルが18クラスのうちの2つのみに対して訓練されたとき、極めて低い精度を有することを示した。これらの2つのモデルからの不良な結果は、クラス3~18のスキャンのいずれもクラス1および2の外にあることを認識することができなかったために生じた。代わりに、各従来のモデルは、クラス3~18のスキャンをクラス1または2にあるものとして不正確に分類した。
【0216】
対照的に、RE*モデルははるかに高い分類精度を提供し、REモデルは、クラス1およびクラス2スキャンを適切なクラスに分類するだけでなく、クラス3~18スキャンがクラス1またはクラス2に属さなかったことを認識するのにも、はるかに良好であったことを示している。
【0217】
[実施例13]
この実験では、SVM RBF、NN、およびREモデルを、実施例11のクラス1~5、7~10、および12~16について、500回の訓練反復を通して訓練した。REモデルの訓練には、各クラスにつき1つの特殊AIモデルを訓練し、合計14の訓練された特殊AIモデルを訓練した。各REモデルは、関連するクラスの訓練スキャンのみを使用して訓練された。SVM RBFおよびNN戦略のそれぞれについて、クラス1~5、7~10、および12~16に関して単一モデルを訓練した。クラス6、11、17、および18からのスキャンは、訓練に使用しなかった。訓練されたモデルのその後の試験において、これは、クラス6、11、17、および18が訓練後初めて新たに遭遇したことをシミュレートした。
【0218】
訓練後、訓練されたSVM RBF、NN、およびREモデルの、クラス1~18の全てからのスキャンを正確に分類する能力を評価した。この評価は、クラス1~5、7~10、および12~16からのスキャンをそれぞれクラス1~5、7~10、および12~16に正確に分類するモデルの能力を試験しただけでなく、クラス6、11、17、および18からのスキャンがクラス1~5、7~10、および12~16に属さなかったことを認識した。正しく分類されたサンプルの割合として示された実験の精度結果を、以下の表に示す。各REモデルの再構成誤差閾値はモデルが訓練されているクラスのサンプルの96%が正確に分類されるように、0.96に設定された。
【表8】

結果は、SVM RBFおよびNNモデルが本発明のRE戦略よりもはるかに低い精度を有することを示す。これら2つのモデルからの不良な結果は、少なくとも部分的にはクラス1~5、7~10、および12~16の範囲外であるクラス6、10、17、および18のスキャンのいずれも認識することができなかったために生じた。代わりに、各モデルは、クラス6、11、17、および18スキャンを、クラス1~5、7~10、および12~16にあるものとして不正確に分類した。
【0219】
対照的に、RE*モデルははるかに高い分類精度を提供し、REモデルは、クラス1~5、7~10、および12~16スキャンを適切なクラスに分類するだけでなく、クラス6、11、17、および18スキャンがクラス1~5、7~10、および12~16に属さなかったことを認識するのに非常に良好であったことを示している。
【0220】
[実施例14]
この実験では、SVM RBF、NN、およびREモデルを、クラス1~18に対して、500回の訓練反復で訓練した。REモデルの訓練には、1つの特殊AIモデルを、合計18の訓練された特殊AIモデルの各クラスについて訓練した。各REモデルは、関連するクラスの訓練スキャンのみを使用して訓練された。SVM RBFおよびNN戦略のそれぞれについて、単一モデルをクラス1~18に関して訓練した。これはモデルを試験するために使用されるスキャンの全てが、訓練中にモデルに知られていた状況をシミュレートした。
【0221】
訓練後、訓練されたSVM RBF、NN、およびREモデルの、クラス1~18の全てからのスキャンを正確に分類する能力を評価した。正しく分類されたサンプルの割合として示された実験の精度結果を、以下の表に示す。各RE*モデルの再構成誤差閾値は、AIモデルが訓練されているサンプルの96%が正確に分類されるように、0.96に設定された。
【表9】

結果は、SVM RBFおよびNNモデルが試験に使用された全てのスキャンが既知のクラスに由来するにもかかわらず、本発明のRE戦略よりもはるかに低い精度を有することを示す。SVM RBFおよびNNモデルからの不良な結果は、少なくとも部分的にはスキャンの低解像度に起因し、RE戦略とは対照的に、従来の方法はサンプルのスペクトルシグネーチャを効果的に区別することができなかったために生じた。
【0222】
対照的に、RE*モデルははるかに高い分類精度を提供し、REモデルは、クラス1、2、17、および18の間で分類することを含む、すべてのスキャンを分類することにおいてはるかに良好であったことを示した。クラス17および18はクラス1に類似していたが、タガントシグネーチャの強度についてはクラス17および18の各々が、この例の目的のためにクラス1「超偽造品」と見なすことができる。超偽造品は一般に、偽造品であるが、真正クラスのスペクトルシグネーチャに極めて近いスペクトルシグネーチャを有するクラスを指す。これは、本発明のRE戦略の優れた能力をシミュレートして、真正のサンプルから超偽造品を区別する。
【0223】
[実施例15]
入力データセットの値を標準化するために異なる戦略を使用することは、実施例11~14のSVM RBF、NN、およびREモデルを含む分類モデルの分類精度に影響を及ぼし得る。図15および16はそれぞれ、各サンプルの入力データ値が行にあり、各データチャネルの値が列にあるように、サンプルの入力データ値をどのように表にすることができるかを示す。説明のために、図15および16の各々は3つのクラスのサンプルの表を示し、各クラスは、クラス内に3つのサンプルを有する。また、各サンプルは、4つのデータチャネルD1~D4のそれぞれにおいて、4つのデータ値v1~v4の入力データセットを有する。
【0224】
入力データを訓練および/または試験により適した形式に変換するために、図15に示すように水平に、または図16に示すように垂直にデータを標準化することができる。特定のサンプルの複数のチャネルからのデータ値が標準化されると、水平標準化が行われる。垂直標準化は、複数のサンプルの特定のチャネルのデータ値が標準化される場合に生じる。
【0225】
水平標準化は、複数のチャネルにわたる標準化が真正の項目のための適切なチャネル値を示さないので、垂直標準化よりも安全である傾向がある。垂直標準化は、真正のスペクトルシグネーチャをコピーすることを望む偽造者または他者に適切なチャネル値を明らかにするので、安全性が低い傾向がある。しかし、垂直標準化は、様々な分類戦略がより正確であることを可能にする。
【0226】
例えば、2つの実験において、SVM RBF、NN、およびREモデルは、実施例11のクラス1~18のクラス1および2のみに関して訓練された。次いで、訓練されたモデルを試験して、クラス1~18のサンプルをクラス1および2の内部または外部にあるものとしてどの程度正確に分類できるかを確認した。1つの実験では、モデルを訓練し、水平標準化を伴う入力データを使用して試験した。他の実験では、モードを訓練し、垂直標準化を伴う入力データを用いて試験した。2つの実験の結果は、REモデルに対する再構成誤差(RMSE)閾値として0.96(すなわち、訓練されているモデル中のサンプルの96%が正確に分類されるように)を使用して、以下の表に示されている:
【表10】

実施例11のクラス1~18の全てからのスキャンを正確に分類する能力を試験する前に、クラス1~14のすべてを使用してモデルを訓練したことを除いて、同じ実験を繰り返した。2つの実験の結果は、REモデルに対する再構成誤差(RMSE)閾値として0.96(AIモデルが訓練されているクラス中のサンプルの96%が正確に分類される)を使用して、以下の表に示されている:
【表11】

実施例11のクラス1~18の全てからのスキャンを正確に分類する能力を試験する前に、クラス1~18のすべてを使用してモデルを訓練したことを除いて、同じ実験を繰り返した。2つの実験の結果は、REモデルに対する再構成誤差(RMSE)閾値として0.96(AIモデルが訓練されているクラス中のサンプルの96%が正確に分類される)を使用して、以下の表に示されている:
【表12】

この例の表のデータは、垂直標準化を使用した場合に、3つのモデルすべてがより正確に分類する傾向がどのようになるかを示している。したがって、水平標準化または垂直標準化の間で選択することは、セキュリティおよび精度などの因子のバランスをとることを含むことができる。例えば、セキュリティが最重要である場合、水平標準化を使用することができる。垂直標準化は、精度が最も重要である品質管理アプリケーションなどのシナリオにおいて使用され得る。
【0227】
本明細書に引用される全ての特許、特許出願、および刊行物は全ての目的のために、それらのそれぞれの全体において参照により本明細書に組み込まれる。前述の詳細な説明は、理解を明確にするためにのみ与えられている。不必要な限定はそこから理解されるべきではない。請求項により定義される本発明内に含まれる当業者にとって明白なバリエーションについて、本発明は示されたおよび記述された厳密な詳細に限定されない。
【図面の簡単な説明】
【0228】
図1図1は、複数のタガントシステムを含むタガントライブラリを概略的に示す。
図2a図2aは、タガントライブラリが真正の製品ラインに配備され得る市場を概略的に示す。
図2b図2bは、タガントライブラリがハードウェアデバイスにおいて使用される真正の消耗品に配備され得る市場を概略的に示す。
図3図3は、サンプルを1つ以上のクラスに分類するために特殊化されたAIモデルを使用する本発明のシステムを概略的に示す。
図4図4は、図3のシステムを使用するときの例示的な分類結果を概略的に示す。
図5a図5aは、例示的なT1特殊化AIモデルに関して、サンプルの再構成誤差特性を波長の関数としてプロットした場合の再構成誤差プロファイルを示す。
図5b図5bは、例示的なT3特殊化AIモデルに関して、サンプルの再構成誤差特性を波長の関数としてプロットした場合の再構成誤差プロファイルを示す。
図5c図5cは、例示的なT3特殊化AIモデルに関して、サンプルの再構成誤差特性を波長の関数としてプロットした場合の再構成誤差プロファイルを示す。
図6図6は、サンプルを分類するために図3のシステムを使用する方法を概略的に示す。
図7図7は、図3のシステムを訓練するために使用されるシステムを概略的に示す。
図8a図8aは、図7のAIモデルのアーキテクチャをより詳細に概略的に示す。
図8b図8bは、本発明のAIモデルの代替実施形態のアーキテクチャを概略的に示す。
図9図9は、本発明のニューラルネットワーク符号化部分の詳細と、圧縮データセットを得るために入力データセットに対して実行される動作の例示的なセットとを概略的に示す。
図10図10は、本発明のニューラルネットワーク復号化部分の詳細と、再構成された出力データセットを得るために圧縮データセットに対して実行される動作の例示的なセットとを概略的に示す。
図11a図11aは、複数の訓練されたAIモデルが複数のサンプルを分類するためにどのように使用され得るかを概略的に示す。
図11b図11bは、図11aの訓練されたAIモデルの使用によって得ることができる例示的な結果を示す。
図12図12は、本発明の原理を用いて宝石が分類される本発明のシステムを概略的に示す。
図13図13は本発明のシステムを概略的に示す。このシステムでは、宝石が宝石にそれぞれ関連付けられたタガントのハイパースペクトル特性に基づいて、離れた距離から分類される。
図14図14は、8つの異なるクラス(それぞれ7つの異なるタガントシステムT1~T7に対応する7つのT1~T7クラス、および8番目はタグ無しサンプルクラス)からのサンプルを、それぞれT1~T7クラスに関して特殊化するように訓練された本発明の7つの特殊化されたAIモデル(T1~T7モデル)を用いて評価した場合に生じる再構成誤差の7つのグラフを示す。
図15図15は訓練の目的で、3つの異なるクラスのサンプルの範囲に水平標準化を適用する方法と、サンプルをテストして分類を決定する際に、水平標準化を適用する方法を概略的に示している。
図16図16は、訓練の目的で、3つの異なるクラスのサンプルの範囲に垂直標準化を適用する方法と、サンプルをテストして分類を決定する際に垂直標準化を適用する方法を概略的に示している。
図1
図2a
図2b
図3
図4
図5a
図5b
図5c
図6
図7
図8a
図8b
図9
図10
図11a
図11b
図12
図13
図14
図15
図16
【手続補正書】
【提出日】2024-02-21
【手続補正1】
【補正対象書類名】特許請求の範囲
【補正対象項目名】全文
【補正方法】変更
【補正の内容】
【特許請求の範囲】
【請求項1】
サンプルがクラスにあるかどうかを決定するための方法であって:
a)前記サンプルから光学的情報を取得するステップ;
)前記サンプルに関連するスペクトルデータ特性を示す情報を含む入力データセットを提供するために前記光学的情報を使用するステップ;
c)コンピュータプロセッサに、コンピュータメモリに記憶されているAIモデルにアクセスさせ、前記AIモデルを使用して、再構成データセットを提供するために、前記入力データセットを含む情報を変換するステップを含む複数のステップを実行させるステップであって、前記変換するステップは、前記入力データセットを含む前記情報から導出されたデータのフローを圧縮および解凍することを含み、前記入力データセットおよび前記再構成データセットに関連する再構成誤差は前記サンプルが前記クラスにあるかどうかを示す、ステップ;及び
)前記サンプルが前記クラスにあるかどうかを決定するために、前記再構成誤差を含む情報を使用するステップ、
を含む、方法。
【請求項2】
前記変換するステップは、1つまたは複数の圧縮段階で前記入力データセットを圧縮し、圧縮データを提供し、次いで、1つまたは複数の段階で前記圧縮データを解凍し、前記再構成データセットを提供するステップを含む、請求項に記載の方法。
【請求項3】
前記変換するステップは、1つまたは複数の拡張段階で前記入力データセットを拡張して拡張データを提供し、次いで、1つまたは複数の段階で前記拡張データを圧縮して前記再構成データセットを提供するステップを含む、請求項に記載の方法。
【請求項4】
前記変換するステップは、前記クラスに関連する訓練され特殊化されたAIモデルを使用して、前記入力データセットを前記再構成データセットに変換するステップを含む、請求項に記載の方法。
【請求項5】
前記サンプルが複数のクラスの内の1つのクラスにあるかどうかを決定するステップを含み、前記方法は、前記複数のクラスにそれぞれ関連する複数の訓練され特殊化されたAIモデルを提供するステップをさらに含み、ステップc)は、各AIモデルが前記入力データセットを関連する再構成データセットに変換するために使用され、再構成誤差が前記再構成データセットの各々について決定されるような方法で繰り返され、ステップ)は前記サンプルが前記訓練され特殊化されたAIモデルのいずれかに関連するクラスにあるかどうかを決定するために、前記再構成誤差を含む情報を使用するステップを含む、請求項に記載の方法。
【請求項6】
前記入力データセットが、ある波長範囲にわたる波長の関数としてのスペクトルの強度値を含む、請求項に記載の方法。
【請求項7】
前記圧縮段階の数は、前記解凍の数とは異なる、請求項に記載の方法。
【請求項8】
前記圧縮段階の数は、前記解凍の数とは異なる、請求項に記載の方法。
【請求項9】
サンプルがクラスにあるかどうかを示す情報を決定するシステムを作る方法であって:
a)前記クラスに関連する複数の訓練サンプルを含む訓練サンプルセットを提供するステップ;
b)前記訓練サンプルの各々についての入力データセットを提供するステップであって、各入力データセットは前記訓練サンプルセットの対応する訓練サンプルを特徴付ける、ステップ
c)各訓練サンプルの前記入力データセットを関連する再構成データセットに変換する人工知能(AI)モデルを提供するステップであって、前記変換することは、データのフローを圧縮することと、および、データのフローを解凍または拡張することとを含み、再構成データセットに関連する再構成誤差は各訓練サンプルについての前記入力データセットと前記関連する再構成データセットとの間の差異を特徴付ける、ステップと、
d)前記再構成誤差が、前記訓練サンプルが前記クラスにあることを示すように、前記AIモデルを訓練するために、前記入力データセット、前記再構成データセットおよび前記再構成誤差を含む情報を使用するステップと、を含む、方法。
【請求項10】
各訓練サンプルについての前記入力データセット前記クラスに関連する真正のタガントシグネーチャを特徴づけ、ステップd)は、前記AIモデルを、前記入力データセットを、誤差仕様内で前記入力データセットと一致する再構成データセットに変換するように訓練することを含む、請求項に記載の方法。
【請求項11】
前記再構成誤差は比較値の配列から導出された値である、請求項に記載の方法。
【請求項12】
ステップd)は、複数の圧縮段階で前記入力データセットを圧縮して圧縮データを提供し、次いで、複数の段階で前記圧縮データを解凍して前記再構成データセットを提供することを含む、請求項に記載の方法。
【請求項13】
ステップd)は、複数の拡張段階で前記入力データセットを拡張して拡張データを提供し、次いで、複数の段階で前記拡張データを圧縮して前記再構成データセットを提供することを含む、請求項に記載の方法。
【請求項14】
前記訓練されたAIモデルを経時的に更新するステップをさらに含む、請求項に記載の方法。
【請求項15】
前記入力データセットは、ある波長範囲にわたる波長の関数としてのスペクトルの強度値を含む、請求項10に記載の方法。
【請求項16】
前記サンプルに関連する前記特性は、前記サンプルまたはその構成要素から収集された光学的情報を含む、請求項に記載の方法。
【請求項17】
前記光学的情報はスペクトル特性を含む、請求項16に記載の方法。
【請求項18】
ステップd)は、データフローを漸進的に圧縮し、次いで、前記データフローを漸進的に解凍することを含む、請求項に記載の方法。
【請求項19】
ステップd)は、データフローを漸進的に拡張し、次いで、前記データフローを漸進的に圧縮することを含む、請求項に記載の方法。
【請求項20】
前記圧縮段階の数は、前記解凍段階の数とは異なる、請求項12に記載の方法。
【請求項21】
前記圧縮段階の数は、前記拡張段階の数とは異なる請求項13に記載の方法。
【請求項22】
サンプルが真正のタガントシステムに関連するクラス内にあるかどうかを示す情報を決定するシステムを作成する方法であって:
a)前記真正のタガントシステムを提供するステップであって、前記真正のタガントシステムは、真正のスペクトルシグネーチャに関連するスペクトル特性を示す、ステップ
複数の訓練サンプルを提供するステップであって、訓練サンプルは前記真正のタガントシステムを含み、前記真正のタガントシステムは、真正のスペクトルシグネーチャに関連するスペクトル特性を示す、ステップ;
c)前記訓練サンプルの各々から前記真正のスペクトルシグネーチャの前記スペクトル特性を取得するステップ;および、
前記訓練サンプルから取得した前記スペクトル特性を使用して前記訓練サンプルの各々についての入力データセットを提供するステップであって、前記入力データセットの各々は前記真正のタガントシステムによって示される前記スペクトル特性を示す情報を含む、ステップ;および、
e)関連する再構成データセットを提供するために、前記入力データセットの各々からのデータのフローを圧縮および解凍する人工知能(AI)を提供するステップであって、前記再構成データセットの各々に関連する再構成誤差は、入力データセットと前記関連する再構成データセットの差を特徴づける、ステップ、および
f)前記再構成誤差は前記訓練サンプルが前記クラスにあることを示すように、前記AIモデルを訓練するために、前記入力データセット,前記再構成データセットおよび前記再構成誤差を含む情報を使用するステップ、を含む、方法。
【国際調査報告】