(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024050510
(43)【公開日】2024-04-10
(54)【発明の名称】トレーニングされた機械学習モデルを用いて根本原因分析を実行するための方法及びシステム
(51)【国際特許分類】
G06N 3/084 20230101AFI20240403BHJP
【FI】
G06N3/084
【審査請求】未請求
【請求項の数】20
【出願形態】OL
【外国語出願】
(21)【出願番号】P 2023168671
(22)【出願日】2023-09-28
(31)【優先権主張番号】17/956,275
(32)【優先日】2022-09-29
(33)【優先権主張国・地域又は機関】US
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
1.BLUETOOTH
2.ZIGBEE
3.JAVA
4.PYTHON
5.JAVASCRIPT
(71)【出願人】
【識別番号】390023711
【氏名又は名称】ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング
【氏名又は名称原語表記】ROBERT BOSCH GMBH
【住所又は居所原語表記】Stuttgart, Germany
(74)【代理人】
【識別番号】100114890
【弁理士】
【氏名又は名称】アインゼル・フェリックス=ラインハルト
(74)【代理人】
【識別番号】100098501
【弁理士】
【氏名又は名称】森田 拓
(74)【代理人】
【識別番号】100116403
【弁理士】
【氏名又は名称】前川 純一
(74)【代理人】
【識別番号】100134315
【弁理士】
【氏名又は名称】永島 秀郎
(74)【代理人】
【識別番号】100162880
【弁理士】
【氏名又は名称】上島 類
(72)【発明者】
【氏名】フィリペ カブリタ コンデッサ
(72)【発明者】
【氏名】バハール アザリ
(72)【発明者】
【氏名】デビン ウィルモット
(72)【発明者】
【氏名】アイヴァン バタロヴ
(72)【発明者】
【氏名】ジョアン セメド
(72)【発明者】
【氏名】プラシャント レイド
(72)【発明者】
【氏名】ワン-イー リン
(57)【要約】
【課題】製造プロセスに関する根本原因分析を実行するために、事前トレーニングされた機械学習モデルを利用する方法及びシステムに関する。
【解決手段】非欠陥部品の測定値を予測するようにトレーニングされている、事前トレーニングされた機械学習モデルが準備される。事前トレーニングされたモデルは、複数の製造ステーションにおける複数のセンサによって測定された製造部品の物理的特性に関するトレーニング測定データに基づいてトレーニングされる。トレーニングされたモデルによって、次に、センサからの、製造部品及びステーションに関する測定データが受け取られる。この新しい測定データセットは、事前トレーニングされたモデルを通してバックプロパゲーションされ、新しい測定データの絶対勾配の大きさが特定される。次に、絶対勾配のこの大きさに基づいて、根本原因が識別される。他の実施形態では、モデルを用いた部品の予測された測定データセットと実際の測定データとの間で特定された損失に基づいて、根本原因が識別される。
【選択図】
図1
【特許請求の範囲】
【請求項1】
製造プロセスに関する根本原因分析を実行するために、事前トレーニングされた機械学習モデルを利用するコンピュータ実装された方法であって、
複数の製造ステーションにおける複数のセンサによって測定された第1の複数の製造部品の物理的特性に関する第1の測定データセットに基づいて、非欠陥部品の測定値を予測するようにトレーニングされている、事前トレーニングされた機械学習モデルを準備することと、
前記複数の製造ステーションにおける前記複数のセンサから、第2の複数の製造部品の物理的特性に関する第2の測定データセット及び前記複数の製造ステーションの識別を受け取ることと、
前記第2の測定データセットの絶対勾配の大きさを特定するために、前記事前トレーニングされた機械学習モデルを通して、前記第2の測定データセットのバックプロパゲーションを行うことと、
前記絶対勾配の大きさに基づいて、前記製造プロセス内の根本原因を識別することと、
を含む、コンピュータ実装された方法。
【請求項2】
複数の部品タイプのうちの少なくとも1つの部品タイプが欠陥になるかどうかについての予測をアウトプットするために、前記事前トレーニングされた機械学習モデルのアウトプットを用いてバイナリ分類モデルをトレーニングすることと、
前記バイナリ分類モデルの絶対勾配の大きさを特定することと、
前記絶対勾配の大きさに基づいて、前記複数の部品タイプのうちの少なくとも1つの部品タイプを製造セッティング内の根本原因として識別することと、
をさらに含む、請求項1に記載の方法。
【請求項3】
前記根本原因を
【数1】
として識別し、
ここで、f
θは、事前トレーニングされた機械学習モデルであり、xは、前記第2の複数の製造部品の物理的特性に関する前記第2の測定データセットの一部であり、Sは、前記複数の製造ステーションの前記識別であり、kは、故障が識別された前記複数の製造ステーションのうちの1つの製造ステーションである、請求項1に記載の方法。
【請求項4】
時系列ダイナミクス機械学習モデルを介して、前記第1の測定データセットを、複数のノードを有する潜在空間に符号化することによって、前記事前トレーニングされたモデルをトレーニングし、各ノードは、前記製造ステーションのうちの1つの製造ステーションにおいて測定された前記非欠陥部品のうちの1つの非欠陥部品の前記第1の測定データセットに関連付けされている、請求項3に記載の方法。
【請求項5】
前記複数の製造ステーションのうちの第1の製造ステーションにおける前記非欠陥部品のうちの第1の非欠陥部品の予測された測定値を、前記第1の製造ステーションにおける前記第1の複数の製造部品に対応する前記測定データを含まない少なくとも幾つかの前記第1の測定データセットの前記潜在空間に基づいて、予測機械学習モデルを介して特定することによって、前記事前トレーニングされたモデルをさらにトレーニングする、請求項4に記載の方法。
【請求項6】
前記第1の複数の製造部品の前記予測された測定値を、前記第1の製造ステーションにおける前記第1の複数の製造部品の前記測定データと、前記予測機械学習モデルを介して比較することと、
前記予測された測定値と実際の測定データとの間の差に基づいて、収束まで前記機械学習モデルのパラメータを更新することと、
によって、前記事前トレーニングされたモデルをさらにトレーニングする、請求項5に記載の方法。
【請求項7】
前記複数のセンサは、画像センサ又はレーザ測定センサを含む、請求項1に記載の方法。
【請求項8】
製造プロセスに関する根本原因分析を実行するために、事前トレーニングされた機械学習モデルを利用するコンピュータ実装された方法であって、
複数の製造ステーションにおける複数のセンサによって測定された第1の複数の製造部品の物理的特性に関する第1の測定データセットに基づいて、非欠陥部品の測定値を予測するようにトレーニングされている、事前トレーニングされた機械学習モデルを準備することと、
各製造ステーションに対する、予測された測定データセットを作成するために、前記事前トレーニングされた機械学習モデルを利用することと、
前記複数の製造ステーションにおける前記複数のセンサから、第2の複数の製造部品の物理的特性に関する第2の測定データセット及び前記複数の製造ステーションの識別を受け取ることと、
前記複数の製造ステーションの各々に対して、前記予測された測定データセットと前記第2の測定データセットとの間の損失を特定することと、
前記損失に基づいて、前記製造プロセス内の根本原因を識別することと、
を含む、コンピュータ実装された方法。
【請求項9】
前記根本原因は、前記第2の複数の製造部品の物理的特性に関する前記第2の測定データセットの一部を含み、前記根本原因は、
【数2】
によって表され、
ここで、
【数3】
であり、ここで、f
θは、事前トレーニングされた機械学習モデルであり、xは、前記第2の複数の製造部品の物理的特性に関する前記第2の測定データセットの一部であり、Sは、前記複数の製造ステーションの前記識別であり、Tは、前記第2の複数の製造部品のタイプであり、kは、故障が識別された前記複数の製造ステーションのうちの1つの製造ステーションである、請求項8に記載の方法。
【請求項10】
時系列ダイナミクス機械学習モデルを介して、前記第1の測定データセットを、複数のノードを有する潜在空間に符号化することによって、前記事前トレーニングされたモデルをトレーニングし、各ノードは、前記製造ステーションのうちの1つの製造ステーションにおいて測定された非欠陥部品のうちの1つの非欠陥部品の前記第1の測定データセットに関連付けされている、請求項8に記載の方法。
【請求項11】
前記複数の製造ステーションのうちの第1の製造ステーションにおける前記非欠陥部品のうちの第1の非欠陥部品の予測された測定値を、前記第1の製造ステーションにおける前記第1の複数の製造部品に対応する前記測定データを含まない少なくとも幾つかの前記第1の測定データセットの前記潜在空間に基づいて、予測機械学習モデルを介して特定することによって、前記事前トレーニングされたモデルをさらにトレーニングする、請求項10に記載の方法。
【請求項12】
前記第1の複数の製造部品の前記予測された測定値を、前記第1の製造ステーションにおける前記第1の複数の製造部品の前記測定データと、前記予測機械学習モデルを介して比較することと、
前記予測された測定値と実際の測定データとの間の差に基づいて、収束まで前記機械学習モデルのパラメータを更新することと、
によって、前記事前トレーニングされたモデルをさらにトレーニングする、請求項11に記載の方法。
【請求項13】
前記複数のセンサは、画像センサ又はレーザ測定センサを含む、請求項8に記載の方法。
【請求項14】
製造セッティング内で故障を引き起こしている部品タイプを特定する目的で根本原因分析を実行するために、事前トレーニングされた機械学習モデルを利用するコンピュータ実装された方法であって、
複数の製造ステーションにおける複数のセンサによって測定された第1の複数の製造部品の物理的特性に関する第1の測定データセットに基づいて、非欠陥部品の測定値を予測するようにトレーニングされている、事前トレーニングされた機械学習モデルを準備することと、
複数の部品タイプのうちの少なくとも1つの部品タイプが欠陥になるかどうかについての予測をアウトプットするために、前記事前トレーニングされた機械学習モデルのアウトプットを用いてバイナリ分類モデルをトレーニングすることと、
前記バイナリ分類モデルの絶対勾配の大きさを特定することと、
絶対勾配の前記大きさに基づいて、前記複数の部品タイプのうちの少なくとも1つの部品タイプを前記製造セッティング内の根本原因として識別することと、
を含む、コンピュータ実装された方法。
【請求項15】
前記複数の製造ステーションにおける前記複数のセンサから、第2の複数の製造部品の物理的特性に関する第2の測定データセット及び前記複数の製造ステーションの識別を受け取ることと、
前記第2の測定データセットの絶対勾配の大きさを特定するために、前記事前トレーニングされた機械学習モデルを通して、前記第2の測定データセットのバックプロパゲーションを行うことと、
絶対勾配の前記大きさに基づいて、製造プロセス内の根本原因を識別することと、
をさらに含む、請求項14に記載の方法。
【請求項16】
前記根本原因は、
【数4】
によって表され、ここで、Tは、部品Pのタイプであり、ここで、
【数5】
であり、ここで、xは、前記複数の製造部品の物理的特性に関する測定データの一部であり、Sは、前記複数の製造ステーションの前記識別であり、kは、故障が識別された前記複数の製造ステーションのうちの1つの製造ステーションである、請求項14に記載の方法。
【請求項17】
時系列ダイナミクス機械学習モデルを介して、前記第1の測定データセットを、複数のノードを有する潜在空間に符号化することによって、前記事前トレーニングされたモデルをトレーニングし、各ノードは、前記製造ステーションのうちの1つの製造ステーションにおいて測定される前記非欠陥部品のうちの1つの非欠陥部品の前記第1の測定データセットに関連付けされている、請求項14に記載の方法。
【請求項18】
前記複数の製造ステーションのうちの第1の製造ステーションにおける前記非欠陥部品のうちの第1の非欠陥部品の予測された測定値を、前記第1の製造ステーションにおける前記第1の複数の製造部品に対応する前記測定データを含まない少なくとも幾つかの前記第1の測定データセットの前記潜在空間に基づいて、予測機械学習モデルを介して特定することによって、前記事前トレーニングされたモデルをさらにトレーニングする、請求項17に記載の方法。
【請求項19】
前記第1の複数の製造部品の前記予測された測定値を、前記第1の製造ステーションにおける前記第1の複数の製造部品の前記測定データと、前記予測機械学習モデルを介して比較することと、
前記予測された測定値と実際の測定データとの間の差に基づいて、収束まで前記機械学習モデルのパラメータを更新することと、
によって、前記事前トレーニングされたモデルをさらにトレーニングする、請求項18に記載の方法。
【請求項20】
前記複数のセンサは、画像センサ又はレーザ測定センサを含む、請求項14に記載の方法。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、トレーニングされた機械学習モデルを用いて根本原因分析を実行するための方法及びシステムに関する。
【背景技術】
【0002】
背景
教師あり機械学習は、画像分類、自動音声認識、視覚的質問応答及びテキストからテキストへの翻訳のような多くの分野において成功を示している。しかし、新たなタスクのたびに教師ありモデルをトレーニングするためには、ラベリングされた例の多数のセットが必要であり、これによって、このようなモデルの適用性が制限される。それでもなお、時系列異常及びテキスト集約など、一部のタスク又はデータタイプは、人によるアノテーションの場合には困難であることがあり、又は、非常にコストがかかることがある。逆に、1つのドメインからのラベリングされていないデータが大量にある場合には、表現力の高いモデルを使用する必要なく、データの相関及び表現を学習することが可能である。
【0003】
根本原因分析は、適当な解決策を識別するために問題の根本原因を発見するプロセスである。根本原因分析を、イベント又はトレンドの根本原因を識別するために活用可能である原理、技術及び方法論の集合を用いて実行することができる。たとえば、製造部品が、最初から、この部品が最終的に製造される最後まで、いくつか(たとえば、数ダース)のステップを必要とし得る製造セッティングについて考えてみる。部品が最終状態になる前に、さらには製造プロセスに沿った各ステップにおいて、部品の測定値は、部品の欠陥又は他の問題の根本原因の特定を支援することができる。
【発明の概要】
【課題を解決するための手段】
【0004】
概要
一実施形態において、製造プロセスに関する根本原因分析を実行するために、事前トレーニングされた機械学習モデルを利用するコンピュータ実装された方法が提供される。この方法は、複数の製造ステーションにおける複数のセンサによって測定された第1の複数の製造部品の物理的特性に関する第1の測定データセットに基づいて、非欠陥部品の測定値を予測するようにトレーニングされている、事前トレーニングされた機械学習モデルを準備することを含む。この方法はまた、複数の製造ステーションにおける複数のセンサから、第2の複数の製造部品の物理的特性に関する第2の測定データセット及び複数の製造ステーションの識別を受け取ることを含む。この方法はまた、第2の測定データセットの絶対勾配の大きさを特定するために、事前トレーニングされた機械学習モデルを通して、第2の測定データセットのバックプロパゲーションを行うことを含む。この方法はまた、絶対勾配の大きさに基づいて、製造プロセス内の根本原因を識別することを含む。
【0005】
他の実施形態において、製造プロセスに関する根本原因分析を実行するために、事前トレーニングされた機械学習モデルを利用するコンピュータ実装された方法が提供される。この方法は、複数の製造ステーションにおける複数のセンサによって測定された第1の複数の製造部品の物理的特性に関する第1の測定データセットに基づいて、非欠陥部品の測定値を予測するようにトレーニングされている、事前トレーニングされた機械学習モデルを準備することを含む。この方法はまた、各製造ステーションに対する、予測された測定データセットを作成するために、事前トレーニングされた機械学習モデルを利用することを含む。この方法はまた、複数の製造ステーションにおける複数のセンサから、第2の複数の製造部品の物理的特性に関する第2の測定データセット及び複数の製造ステーションの識別を受け取ることを含む。この方法はまた、複数の製造ステーションの各々に対して、予測された測定データセットと第2の測定データセットとの間の損失を特定することと、この損失に基づいて、製造プロセス内の根本原因を識別することと、を含む。
【0006】
さらに他の実施形態において、製造セッティング内で故障を引き起こしている部品タイプを特定する目的で根本原因分析を実行するために、事前トレーニングされた機械学習モデルを利用するコンピュータ実装された方法が提供される。この方法は、複数の製造ステーションにおける複数のセンサによって測定された第1の複数の製造部品の物理的特性に関する第1の測定データセットに基づいて、非欠陥部品の測定値を予測するようにトレーニングされている、事前トレーニングされた機械学習モデルを準備することを含む。この方法は、複数の部品タイプのうちの少なくとも1つの部品タイプが欠陥になるかどうかについての予測をアウトプットするために、事前トレーニングされた機械学習モデルのアウトプットを用いてバイナリ分類モデルをトレーニングすることを含む。この方法は、このバイナリ分類モデルの絶対勾配の大きさを特定すること及び絶対勾配のこの大きさに基づいて、複数の部品タイプのうちの少なくとも1つの部品タイプを製造セッティング内の根本原因として識別することをさらに含む。
【図面の簡単な説明】
【0007】
【
図1】一実施形態による、ニューラルネットワークをトレーニングするためのシステムを示す図である。
【
図2】一実施形態による、特定のステーションにおける特定の部品に関連付けられた測定値又は記録を示すノードを伴う時間順の有向グラフモデルを概略的に示す図である。
【
図3】一実施形態による、特定の部品及びステーションの実際の部品測定データと潜在空間表現とに基づいて、特定のステーションにおける特定の部品の測定値を予測するためのグラフィカル機械学習モデルのダイアグラムを概略的に示す図である。
【
図4】本明細書において開示されたモデル、たとえば、
図3のグラフィカル機械学習モデルを実装するために利用され得るコンピューティングプラットフォームのダイアグラムを概略的に示す図である。
【発明を実施するための形態】
【0008】
詳細な説明
本開示の実施形態を本明細書において説明する。しかし、開示された実施形態は単なる例であり、他の実施形態が様々な代替的な形態を取ることができることを理解されたい。図面は、必ずしも縮尺通りではなく、特定のコンポーネントの詳細を示すために、いくつかの特徴は誇張され又は最小化されて示されている場合がある。したがって、本明細書に開示された特定の構造的詳細及び機能的詳細は、限定として解釈されるべきではなく、単に、実施形態を様々に利用することを当業者に教示するための代表的な基礎として解釈されるべきである。当業者には理解されるように、図面のいずれか1つを参照して図示及び説明される様々な特徴は、1つ又は複数の他の図面に図示される特徴と組み合わせて、明示的には図示又は説明されていない実施形態を作成することができる。図示された特徴の組合せによって、典型的な用途のための代表的な実施形態が提供される。しかし、本開示の教示と一致する、特徴の様々な組合せ及び修正が、特定の用途又は実装のために望ましい場合がある。
【0009】
根本原因分析は、適当な解決策を識別するために問題の根本原因を発見するプロセスである。製造プロセスの文脈において、根本原因分析は、(たとえば、異なるレベルの厳格性で)製造不具合に関連する基本的な根本原因を識別することを目的とし、重大な累積的な損傷及び損失を引き起こす前にこれらの製造不具合を阻止又は緩和できるようにするものである。しかし、近年の製造プロセスはますます複雑になっているので、このタスクは重要である。たとえば、製造部品が最終状態になる前に、この部品は、いくつかの(たとえば、数ダースの)製造ステップを通る場合があり、これらのステップは、いくつか例を挙げると、切断、エッチング、曲げ、組み立て、接着などである。製造部品に欠陥又は問題が発生した場合、この問題の根本原因を明確に理解できなければ、問題の原因が学習されるまで、製造プロセスの一部を(又はプロセス全体さえも)停止させなければならないことがある。これは、極めて手間のかかる取り組みとなり得る。
【0010】
これまで種々の形式で根本原因分析が試みられてきた。1つの例(ナレッジモデリングとアラーム根本原因分析のための機械学習との組合せ)においては、ベイジアンネットワークが、種々のネットワークとともに、根本原因分析を実行するために使用されている。これはたとえば、専門知識に基づく因果関係ネットワークの生成に頼ることや、システムのサイズに応じて指数関数的にスケーリングする構造検索のために機械学習を使用することである。これらのアプローチは、モデリング可能な因果関係の複雑さの点において制限されている。さらに、専門知識に基づくこのアプローチは、手間がかかるとともに、他のシステムに一般化可能ではない。
【0011】
他の例(機械学習及び集計技術を使用したネットワーク不具合の根本原因分析)においては、専門知識に頼らないランダムフォレストに基づくモデルが使用される。このアプローチによって、データ内の複雑な関係を学習することはできるが、これはカテゴリー的なイベントに基づくデータ(ここでは、各データポイントがイベントコード及びロケーションコードによって特徴付けられている)に制限されており、高次元のマルチモーダルな連続したデータタイプに修正することは不可能である。
【0012】
他の例(ディープラーニングを用いた産業プロセスにおけるアラームに基づく根本原因分析)においては、製造プロセスにおける複雑なアラームデータをモデル化するために、自然言語にインスピレーションを得たアプローチが使用される。各アラームコードは、NLPモデルにおける単語埋込みと同様に、数値ベクトルとして埋め込まれている。次に、自己注意を伴うBi-LSTM-CNNモデルが、埋め込まれたアラームのサブシーケンスでトレーニングされ、これによって、各シーケンスに対して、故障シナリオのタイプが予測される。このシステムは、自然言語処理に対するディープラーニングにおける進歩を活かしつつ、複雑な表現を学習することができる高度なモデルを使用しているが、このモデルが利用できるデータタイプの点において依然として制限されている。特に、このモデルは、アラームコードのシーケンス(本質的にカテゴリー的である)で動作し、他のタイプのデータで動作するように容易に適合化され得ない。
【0013】
したがって、本明細書において開示される種々の実施形態によれば、トレーニングされた機械学習モデルを用いて根本原因分析を実行するための方法及びシステムが提供される。種々の製造ステーションにおける複数のセンサによって測定される製造部品の物理的特性に関する測定データを受け取ることによってモデルがトレーニングされるものとしてよい。時系列ダイナミクス機械学習モデルは、測定データを、複数のノードを有する潜在空間に符号化することができ、ここでは各ノードは、これらの製造部品のうちの1つの製造部品の測定データ、及び、これらの製造ステーションのうちの1つの製造ステーションにおける測定データに関連付けられている。測定データのバッチを構築することができ、このバッチは、第1のノードと、第1のエッジを介して第1のノードに直接的に接続され、第1のノードよりも早い時間に測定された第1の複数のノードとを含む。予測機械学習モデルは、ノードのバッチの潜在空間に基づいて、これらの製造部品のうちの第1の複数の製造部品の測定値を予測することができる。モデルをトレーニングするために、予測された測定値を実際の測定値と比較することができる。これは、米国特許出願第17/842,041号明細書に開示されており、そのタイトルは、METHODS AND SYSTEMS FOR TRAINING A MACHINE LEARNING MODEL WITH MEASUREMENT DATA CAPTURED DURING MANUFACTURING PROCESSであり、これは、その全体が本明細書に組み込まれる。次いで、本明細書に開示されるように、部品の物理的特性に関する測定データ、根本原因がそこで発生した可能性が高いステーションの識別に関する測定データ及び/又は根本原因がそこで発生したと推定される部品のタイプの識別のいずれかの根本原因分析を実行するために、そのようなトレーニングされたモデルを利用することができる。たとえば、モデルがトレーニングされると、1つ又は複数のプロセッサは、複数の製造ステーションにおける複数のセンサから、第2の複数の製造部品の物理的特性に関する第2の測定データセット及び複数の製造ステーションの識別を受け取ることができる。次いで、プロセッサは、事前トレーニングされた機械学習モデルを通して、第2の測定データセットのバックプロパゲーションを行うことができ、これによって、第2の測定データセットの絶対勾配の大きさが特定され、絶対勾配のこの大きさに基づいて、根本原因が識別される。事前トレーニングされたモデルを使用する別の方法が、以下にさらに記載される。
【0014】
開示されているシステム及び方法は、ニューラルネットワーク(たとえば、ディープニューラルネットワーク(DNN)、グラフニューラルネットワーク(GNN)、深層畳み込みネットワーク(DCN)、畳み込みニューラルネットワーク(CNN)など)などの機械学習モデルに頼る。
図1は、ニューラルネットワーク、たとえばグラフニューラルネットワークをトレーニングするためのシステム100を示す。本明細書において図示及び説明されているニューラルネットワークは、使用可能な機械学習ネットワーク又はニューラルネットワークのタイプの例に過ぎない。システム100は、ニューラルネットワークのためのトレーニングデータ102にアクセスするための入力インタフェースを備えるものとしてよい。たとえば、
図1に示されているように、入力インタフェースは、データストレージ106からのトレーニングデータ102にアクセスすることができるデータストレージインタフェース104によって構成されるものとしてよい。たとえば、データストレージインタフェース104は、メモリインタフェース又は永続的なストレージインタフェース、たとえば、ハードディスク又はSSDインタフェースであるものとしてよいが、Bluetoothインタフェース、Zigbeeインタフェース又はWi-Fiインタフェース又はイーサネットインタフェース又は光ファイバインタフェースなどのパーソナルエリアネットワークインタフェース、ローカルエリアネットワークインタフェース又はワイドエリアネットワークインタフェースであるものとしてもよい。データストレージ106は、ハードドライブ又はSSDなどの、システム100の内部データストレージのみならず、外部データストレージ、たとえばネットワークアクセス可能なデータストレージであるものとしてもよい。
【0015】
いくつかの実施形態においては、データストレージ106は、データストレージ106からのシステム100によってアクセス可能な、ニューラルネットワークのトレーニングされていないバージョンのデータ表現108をさらに備えるものとしてよい。しかし、トレーニングデータ102及びトレーニングされていないニューラルネットワークのデータ表現108は、それぞれ、異なるデータストレージから、たとえば、データストレージインタフェース104の異なるサブシステムを介してアクセスされるものとしてもよいことが理解されよう。各サブシステムは、データストレージインタフェース104に関して上述したタイプのものであってよい。他の実施形態において、トレーニングされていないニューラルネットワークのデータ表現108が、ニューラルネットワークに対する設計パラメータに基づいてシステム100によって内部で生成されるものとしてよく、したがって、データストレージ106に明示的に格納されていない場合がある。システム100は、システム100の動作中に、トレーニングされるべきニューラルネットワークの層のスタックの代用として反復関数を提供するように構成され得るプロセッササブシステム110をさらに備えるものとしてよい。ここで、置き換えられる層のスタックの各層は、互いに共有される重みを有するものとしてよく、インプットとして、先行する層のアウトプットを受け取るものとしてよく、又は、層のスタックの最初の層の場合には、初期アクティベーション及び層のスタックのインプットの一部を受け取るものとしてよい。プロセッササブシステム110は、さらに、トレーニングデータ102を使用してニューラルネットワークを反復的にトレーニングするように構成されるものとしてよい。ここで、プロセッササブシステム110によるトレーニングの反復は、フォワードプロパゲーション部分及びバックプロパゲーション部分を含むものとしてよい。プロセッササブシステム110は、実行可能なフォワードプロパゲーション部分を定義する他の演算の中で、反復関数が固定点に収束する、反復関数の平衡点を特定することによって(ここで、平衡点を特定することは、そのインプットを差し引いた反復関数に対して根本解を見出すために数値求根アルゴリズムを使用することを含む)、かつ、ニューラルネットワークにおける層のスタックのアウトプットの代用としてこの平衡点を提供することによって、フォワードプロパゲーション部分を実行するように構成されるものとしてよい。
【0016】
システム100は、トレーニングされたニューラルネットワークのデータ表現112をアウトプットするための出力インタフェースをさらに備えるものとしてよい。このデータは、トレーニングされたモデルデータ112と称されてもよい。たとえば、
図1にも示されているように、出力インタフェースは、データストレージインタフェース104によって構成されるものとしてよく、上述したインタフェースは、これらの実施形態においては、入力/出力(「IO」)インタフェースであり、このインタフェースを介して、トレーニングされたモデルデータ112が、データストレージ106内に格納されるものとしてよい。たとえば、「トレーニングされていない」ニューラルネットワークを定義するデータ表現108は、トレーニング中又はトレーニング後に、トレーニングされたニューラルネットワークのデータ表現112によって少なくとも部分的に置き換えられるものとしてよく、ここで、ニューラルネットワークのパラメータ、たとえば、重み、ハイパーパラメータ及びニューラルネットワークの他のタイプのパラメータは、トレーニングデータ102でのトレーニングを反映するように適合させられるものとしてよい。このことは、
図1において、データストレージ106上の同一のデータレコードを指している参照番号108,112によって示されている。他の実施形態においては、データ表現112は、「トレーニングされていない」ニューラルネットワークを定義するデータ表現108とは別個に格納されるものとしてよい。いくつかの実施形態においては、出力インタフェースは、データストレージインタフェース104とは別個であるものとしてよいが、概して、データストレージインタフェース104に関して上述したタイプのものであり得る。
【0017】
システム100の構造は、本明細書において説明されるニューラルネットワークをトレーニングするために利用され得るシステムの一例である。機械学習モデルの動作及びトレーニングのための付加的な構造は
図4に示されており、後述する。
【0018】
製造プロセスに関して、最終製品は、部品の完全な完成又は製造の前に、いくつかの作業ステーションを通る場合がある。たとえば、最終製品が製作される前に、最終製品は、最初に、他のサブコンポーネントと組み立てられること、塗装されること、レーザエッチングされること、強度試験されること又は他の製造タスクを必要とすることがある。各ステーションが自身のタスクを完了した後、測定データを作成するために部品の測定が行われるものとしてよい。これは、この部品が十分に動作可能であること、十分に接続されていること、十分なサイズであることを保証する。測定データには、この測定が行われるステーションのタイプ、測定される部品のタイプ及び測定値が何であるかが含まれるものとしてよい。この測定値は、バイナリ値、強度値、時系列値(たとえば、圧力に対する応答の測定値)、浮動精度数、文字列、整数、ブール値、統計の集計などであるものとしてよく、これは、部品の物理的状態又は特性を表す。この測定データは、マルチモーダルであるものとしてよい(たとえば、上記において例として挙げたものなど、複数のタイプの測定値を含むものとしてよい)。このマルチモーダル測定データは、本明細書において説明されているニューラルネットワークにインプットされ得る。ステーションにおいて行われた測定に応じて、システムは、この部品が十分であるか、又は、その代わりに、ゴミ箱に捨てられるべきか若しくは廃棄されるべきかを特定することができる。
【0019】
グラフニューラルネットワークにインプットされるこのマルチモーダル測定データは、種々の利益をもたらすことができ、製造リードタイム及び物流を支援することができる多数の情報をもたらすことができる。たとえば、ニューラルネットワークのアウトプットは、この部品が、生産又は別のシステムへの組み立てに十分であるかに関する予測、ステーションがオフラインであることが必要になるかに関する予測、産出時間の予測、及び、製造ラインに沿って不具合が発生した可能性がある箇所についての予測、この不具合が発生した理由などをもたらすことができる。他の例においては、ニューラルネットワークのアウトプットは、製造ラインに沿った任意のステーションにおける、予測された測定値をもたらすことができ、この情報を考慮して、製造されているコンポーネントを測定するための専用のステーション(又はこのステーション内のプロシージャ)を取り除くことができる。これによって、測定の時間及びお金を節約することができる。
【0020】
また、製造ラインに沿った製造部品の予測測定値によって、コンポーネントの廃棄に関連するコストを減らすことができる。製造ライン内で(たとえば、全ての製造ステーションにおいて又は全ての製造ステーションの間で)、コンポーネントの測定値を推定することができれば、これは、製造における不具合又は間違いが起こった場合のより正確な特定につながる可能性がある。これは、廃棄により多くの費用がかかる前に、製造プロセスにおいてより早期にコンポーネントを廃棄することを意味し得る。また、製造プロセスに沿ってコンポーネントがいつ実際に測定されるかに応じて、コンポーネントが実際に測定される前にコンポーネントの測定値を予測することによって、コンポーネントが製造プロセスにおいてより早期に廃棄され得る。
【0021】
したがって、本明細書において説明される機械学習モデルに、製造部品と各部品が測定されるステーションとの潜在表現を提供することができる。
図2は、このデータのメッシュ表現又はグラフィカル表現200を示している。特定の部品がステーションに到達するたびに、システムは潜在表現を更新する。ここで、各黒丸は、ステーションを通過する部品に関連するマルチモーダルな測定値又は記録を示す。各黒丸には、タイムスタンプも付けられており、これは、各特定の部品が、その特定のステーションにおいて測定された時間を示している。図示したシナリオにおいては、以下の測定が行われ、すなわち、部品1は、ステーション2で9:00に測定され、ステーション3で9:05に測定され、部品2は、ステーション2で9:10に測定され、ステーション4で9:30に測定され、部品3は、ステーション1で9:00に測定され、ステーション3で9:15に測定され、部品4は、ステーション2で9:30に測定され、ステーション4で9:40に測定され、部品5は、ステーション1で9:05に測定され、ステーション3で9:20に測定される。各部品が測定される前に、各部品は、初期状態にあり、次いで、ステーション2の潜在状態で動作して、上記において説明されたマルチモーダル測定値が作成される。このデータの図示したグラフィカル表現は、単に、行われた測定全体の一部であるものとしてよく、5つより多い又は少ない部品が測定されるものとしてよく、4つより多い又は少ないステーションが測定に提供されるものとしてよい。グラフ内の矢印は、各部品の時間進行(上から下へ)、及び、各ステーションの時間進行(左から右へ)を示している。部品5とステーション4との交点における黒丸は、本開示の基礎となる自己回帰問題を示すものとしてよく、ステーション4を通過する部品5に関連付けられた測定値又は記録を、過去の表現を考慮して予測することができる。
【0022】
機械学習システムは、
図2にグラフ形式で表されているこのデータを取得して、任意の特定のステーションでの任意の特定の部品の測定値を推定することができる。実施形態によれば、教師なし分布推定を、例のセット(x
1,x
2,...,x
n)から実行することができ、各例は、対応するステーションで発生するマルチモーダル構造測定値の可変長シーケンス((m
1,s
1),...,(m
k,s
k))から構成され、ここで、mは、測定値、sは、ステーションである。例示的なシーケンスxは、製品又は部品が時間の順序で通る製造ステーションを表す。シーケンスモデリングの観点から、各ステーションにおける測定値の結合確率を、次のように因数分解することができる:
【数1】
【0023】
このような確率分布を学習することによって、サブシーケンスP(x>=i|x<i)を有するモデルへの問い合わせ、又は、サブシーケンスP(x>=i|x<i)を有するモデルからのサンプリングが容易になる。
【0024】
本明細書に開示されたモデルによって、データを、ステーションから見たシーケンスとして見ることができる。たとえば、再び
図2を参照すると、ステーション2からのデータをモデル化することができる。なぜなら、データが、9:00(部品1から)、9:10(部品2から)そして9:30(部品4から)で連続的にキャプチャされているからである。こうすることによって、特定のステーションから取得された測定値をモデル化することができ、変数は、このステーションを通過する特定の部品である。このことは、(
図2に図示されている例のように)全ての部品が全てのステーションを通っているわけではなく、全てのステーションが各部品を測定しているわけではない環境において重要であり得る。したがって、モデル化された確率分布P(x)は、セットxの実際の出現の前に、xに含まれるステーションにおける全ての部品及び対応する測定値に関連している。換言すれば、特定の部品の特定のステーションにおける測定値を推定するために、モデルは、実行される特定の部品の特定のステーションにおける実際の測定の前に、部品及びステーションから取得された過去の一時的な測定値をインプットとして使用する。
図2を例として挙げると、部品5のシーケンスの確率は、ステーション1における部品3の測定値、ステーション3における部品1及び部品3の測定値、ステーション4における部品2及び部品4の測定値、ステーション2における部品1、部品2及び部品4の測定値に関連する。ステーション2における部品1を例として挙げる。部品5のシーケンスはこのノードに関連する。なぜなら、ステーション3における部品5は、タイムスタンプ9:20におけるステーション3の潜在状態に関連するからであり、これは、部品5がステーション3に到達する前にステーション3を通る部品のサブシーケンスを符号化する。しかし、ステーション3における部品1は、タイムスタンプ9:05における部品1の潜在状態に関連し、これは、部品1がステーション3に到達する前の部品1のサブシーケンスを符号化する(したがってこれに関連する)。これは、9:05における部品1の潜在状態が、ステーション2における部品1に関連していることを意味している。
【0025】
トレーニング時のメモリ消費及び計算消費を低減し、推論時間を短縮するために、本明細書に開示される実施形態は、潜在空間を使用して、部品pのシーケンスx
<iのサブシーケンスを潜在状態h
p
i=Encoder(x
<i)に符号化することができる。これを、バッチ処理に関連して、以下においてさらに説明する。一実施形態においては、自己回帰エンコーダが利用され、すなわち、h
p
i=h
p
i-1+Encoder(x
i)である。同様に、システムは、j番目の部品までのステーションサブシーケンスを潜在状態h
s
jに符号化することができる。部品pが、ステーションs
iによって測定されるi番目の部品であると仮定すると、次の式が適用され得る:
【数2】
【0026】
図3には、本明細書において説明される時間に基づくシーケンシャルな製造データを最適化するための、本明細書において提供される説明に従ってトレーニングされる機械学習モデル300が示されている。一実施形態によれば、機械学習モデル300は、教師なし自己回帰グラフィカルモデルであるものとしてよい。機械学習モデル300は、表形式、時系列、及び、マルチタイプ有向グラフ上の集計統計を含むマルチモーダル構造化データをモデル化する。測定値又はステーションにおいて部品に対して実行された測定の分布(測定データとも称される)は、モデルをトレーニングするためのターゲットとして使用され、この部品及びステーションの符号化されたサブシーケンス(すなわち、潜在空間)がインプットとして使用される。これらのサブシーケンス又はデータセットDは、アノテーションを伴わない製造マルチモーダルシーケンスデータセットであるものとしてよい。Dにおける各部品シーケンスは、部品のタイプに関する情報と、部品の識別子と、この部品が通るステーションのシーケンスと、各ステーションでの測定値又は記録とを包含する。取得されたこの測定値は、部品のサイズ若しくは強度に関連するバイナリ値、又は、圧力に対する部品の応答の測定値などの時系列値であるものとしてよい。取得された測定値の他の例としては、その摩擦特性、重量分布、密度、亀裂又は欠陥の存在、及び、製造部品がさらなる組み立て又は生産に適したものであることを保証するために製造設備に典型的に含まれる他の測定値が挙げられる。
【0027】
この測定データは、グラフィカルモデルfθにインプットされる。モデルは、一実施形態によれば、3つのサブモデル又は3つの別個の機械学習モデル、すなわち、埋込みモデル、ダイナミクスモデル及び予測モデルを含む。これらの機械学習モデルの各々は、GNN、CNNなどの形態のニューラルネットワーク又はサブネットワークを有するものとしてよい。
【0028】
このシステムの実施形態においては、部品及びステーションの状態情報に対して自己回帰エンコーダが使用されているため、測定値が観察されなかった場合には両方の状態に対して初期化が引き出される。これは、部品の属性又は部品若しくはステーションの初期状態を形成するための製造ステーションの属性を受け取る。1つの例は、特定のステーションにおいてアクションに供される前の、特定の部品の特定の寸法であろう。
【0029】
埋込みモデルを、埋込みネットワーク又は
【数3】
と称することができ、ここで、Bは、バッチサイズである(バッチ処理プロセスは以下においてさらに説明される)。このモデルは、ダイナミクスモデルが消費することができるフロート配列又はベクトルに、(たとえば、浮動精度数、文字列、整数、ブール値、時系列測定値、統計の集計などの上述した様々なタイプの)測定データセットを埋め込むように構成されている。測定データのタイプに応じて、埋込みモデルは種々異なるアーキテクチャを有し得る。たとえば、測定データが全て、浮動小数点数又は整数である場合、Bは単純に多層パーセプトロンであり得る。他の例において、測定データが時系列データを含む場合、1次元の畳み込みネットワークを適用して、特徴を抽出することができる。
【0030】
ダイナミクスモデルを、ダイナミクスネットワーク又は
【数4】
と称することができ、ここで再び、Dは、潜在空間に符号化された部品/ステーションサブシーケンスデータセットであるものとしてよい。潜在状態を伴う任意の時系列モデルを、たとえばリカレントニューラルネットワークである、このモデルに使用することができる。ダイナミクスモデルにおける各部品シーケンスには、部品のタイプ、部品の識別子、この部品が通るステーションのシーケンスに関する情報が包含されている。ダイナミクスモデルへのインプットは、上述の式(2)の現在の組み込まれた測定値(x
i)及び部品及びステーションの現在の状態、すなわち、上述の式(2)の
【数5】
であるものとしてよい。ダイナミクスモデルは、更新された部品及びステーションの状態、すなわち、
【数6】
含む。
【0031】
予測モデルを、予測ネットワーク又は
【数7】
と称することができる。予測モデルは、インプットとして部品及びステーションの潜在状態
【数8】
を取得し、(1)ステーションにおける部品pの測定値s
i(x
i)又は(2)測定値が浮動少数点値化されている場合には分位測定値を予測する。分位測定値の予測によって、学習済みのモデルは、測定分布の各分位の尤度を予測することができ、モデルからのサンプリングが可能となる。
【0032】
モデルf
θ全体のアウトプットは、予測された測定値、たとえば、
図2における複数のノードのうちの1つのノードの予測である。モデルf
θは、収束するまで動作し続けることができ、これによって、製造部品及びステーションの先行する一時的な測定値と潜在空間表現とに基づいて、部品の測定値を予測することができるトレーニングされた機械学習モデルが作成される。
【0033】
ダイナミクスモデルにおいては、1つのノードの製造部品状態及びステーション状態がダイナミクスモデルに入れられて、測定値が作成され、状態自体の更新も行われる。ダイナミクスモデルは、たとえば、部品1から部品5までの、及び、ステーション1からステーション4までの、
図2に示されたグラフをモデル化するように構成されている。これは、製造部品及びステーションの潜在空間を取得することによるモデリングを含む、サブシーケンスモデリングで行われる。したがって、
図2を例として参照すると、部品1、ステーション2に対して9:00にキャプチャされた測定データは、部品1、ステーション3で9:05に示されたノードの予測された測定値を特定するために使用される。特に、ステーション3の潜在状態(前に使用されていなければその初期状態において、又は、先行する測定の後ではその更新された状態において)が、9:05に発生する部品1の測定値を予測するために使用される。これによって、ステーション3における部品1に対する予測された測定値が作成される。さらに、予測された各測定値が作成された後、モデルが更新され、トレーニングされ得る。測定データは実際の測定値を含み、モデルは予測された測定値を作成するので、グラフィカルモデルは、実際の測定データと予測された測定値との間の差を引き出すことができる。実際の測定データと予測された測定値との間のこの差を、上述したトレーニング方法に従ってこの差を最小化する目的で、グラフィカルモデルのパラメータを更新するために使用することができる。次いで、このプロセスは、予測された測定値を導出するために継続的なステップを用いて繰り返されるものとしてよく、予測された測定値をセンサから取得された実際の測定データと比較することができ、モデルのパラメータを更新するために、実際の測定値と推定された測定値との間の差を使用することができる。このプロセスを、モデルが、予め定められた性能レベル(たとえば、予測された測定値と実際の測定データとの間の約100%の一致)又は収束(たとえば、設定された反復回数が生じている若しくはこの差分が十分に小さい(たとえば、反復にわたる近似確率の変化が閾値未満で変化している)又は他の収束条件)に達するまで、繰り返すことができる。
【0034】
いくつかの製造設備は、多数のステーションを有するものとしてよく、又は、測定される多くの異なるタイプの部品を有するものとしてよい。これは、膨大な量のデータにつながる可能性がある。本明細書において説明されるニューラルネットワークをそのような大量のデータでトレーニングするために、ニューラルネットワークは、データのサンプルを用いてトレーニングされ得る。全てのノードを一時に処理することは、膨大な作業になり得る。たとえば、9:00に測定データを取得し、次にモデルをトレーニングし、次に9:05に測定値を予測し、次にこれを9:05における実際の測定データと比較し、次に差を比較し、次にモデルを更新し、全てのノードに対してこのプロセスを繰り返す。機械学習モデルを、少なくともいくつかのデータ(ノード)で同時に実行することが好ましい場合がある。
【0035】
しかし、システムのトレーニングは、実際の測定データとは独立している推定された測定値を必要とし、この推定された測定値は、先行する測定値及びモデルを更新する推定によって影響される。したがって、
図2を例として参照すると、システムは、同時に、部品1、ステーション2におけるノードと部品2、ステーション2におけるノードとに対する測定値を予測することによってトレーニングされるように構成されていなくてよい。部品2、ステーション2における予測された測定値は、部品1、ステーション2におけるノードの、より早期のモデル実行及び実際のデータ測定値に関連する。換言すれば、部品1、ステーション2における9:00のノードは、部品2、ステーション2における9:10のノードの親である。したがって、このモデルは、部品1、ステーション2の測定値を処理し、次にステーション2の潜在状態を更新し、その後でのみ、部品2をステーション2において処理することができる。したがって、機械学習モデルは実行されるたびに各ノードにおけるデータを更新するため、機械学習モデルが処理されているときに更新される、時間的により早期に位置するノードは、後続の推定されるノードに影響を与えるので、グラフ内の全てのデータポイントを同時に実行することができないと言える。
【0036】
したがって、システムは、バッチ処理を実行するために、互いに独立しているいくつかのノードを捕捉することができる。たとえば、部品1、ステーション2におけるノードと部品3、ステーション1におけるノードとは、互いに独立しており、各ノードにおける測定値は、他方のノードにおけるモデルの実行に影響を及ぼさない(実際、これら2つのノードには同一の9:00のタイムスタンプが付けられているが、これはバッチ処理の要件ではなく、2つのノードが相互に独立していることをさらに示している)。同様のことが、部品1、ステーション3におけるノードと部品2、ステーション2におけるノードとに言える。バッチ処理の使用は、プロセッサの電力出力、メモリ制限及びコストの低減に役立ち得る。
【0037】
標準バッチ処理と称されるプロセスにおいては、各測定値を、先行する測定値に接続する依存関係グラフが構築され得る。このグラフは、親及びノードの依存関係に基づいて構築され得る。たとえば、部品2、ステーション2におけるノードが選択された場合、このグラフは、そのステーション及び部品から時間的に後ろ向きに見て、どの親ノードが存在するか(たとえば、更新及びトレーニングのためにモデルによって実行された場合、どのノードが、この選択されたノードにおけるモデルの実行に影響を与えるか)を調べるために構築され得る。選択されたノードに対する直接的な親を、選択されたノードから別のノードに到達するまで、垂直エッジに沿って直線状に上方へ(時間的に後方へ)移動させ、選択されたノードから別のノードに到達するまで、水平エッジに沿って直線状に左へ(時間的に後方へ)移動させることによって特定することができる。その後、このプロセスを繰り返して行うことができ、これらのノードの直接的な親を見出し、そして、それが続けられ、グラフが構築される。移動の間、バッチ処理モデルは、各ノード又は頂点vにチャンク番号cvを割り当てることができ、ここで、cvの頂点の数がバッチサイズBよりも少ない場合には、v=max(全てのvの親のチャンク番号)+1であり、そうでない場合には、チャンク番号cv+1をvに割り当てる。その後、バッチは、連続するチャンクのセットになる。これによって、全ての測定値又は記録が、全ての直接的な依存関係が満たされた後でのみ処理されることが保証される(たとえば、ステーションを訪れるコンポーネントに関連付けられた測定値のシーケンスと、部品が訪れるステーションに関連付けられた測定値のシーケンスとの両方が尊重される)。
【0038】
バッチ処理の他の実施形態においては、完全な部品シーケンスのバッチ処理を利用することができる。標準バッチ処理は、測定値のセットの全ての依存関係が事前に符号化されることを保証するが、一部の部品シーケンスは、メモリの制約及びデータ収集の範囲の(たとえば、短い時間フレームで生産される部品が多すぎる)ために、バッチに完全にロードされない。部品シーケンスがバッチに完全にロードされていない場合、ダイナミクスモデル
【数9】
は、ロードされたサブシーケンスに対してのみ最適化され得る。他方で、ステーション潜在状態は、部品潜在状態よりもスローダイナミックで、すなわち、ステーション状態への小さい変化で、部品の全生産期間の間、変化するものとしてよい。したがって、バッチに含まれる標準バッチにおける各部品(しかし、その完全な部品シーケンスではない)に対して、システムは、そのような部品の完全な部品シーケンスが含まれる別のバッチを追加することができる。たとえば、
図4を参照すると、バッチは、その特定の部品が最初に測定されるまで上方に向かって進む全てのノード又は頂点を含むように構成されるものとしてよく、その結果、特定の部品に関するノードの全てのシーケンスがバッチ処理プロセスに含まれる。
【0039】
したがって、
図3に示されている機械学習モデルのトレーニングは、以下のようにバッチ処理によって実行可能である。Dにおける全てのデータサンプルに対して、システムは、バッチ番号又はチャンク番号を各測定値セットに割り当てることができる(たとえば、特定のステーションにおける特定の部品)。k番目のバッチについては、システムは、(k-1)*B乃至k*Bの範囲のチャンク番号を有する全ての測定値セットをメモリにロードすることができる。システムが完全なシーケンスのバッチ処理を使用している場合、システムは、完全なシーケンスを有するバッチをBチャンクの後に追加することができる。このシステムは、測定値(測定データ)又は分位測定値のいずれかをターゲットとして使用し、グラフィカル機械学習モデルf
θを通して各チャンクを並行して実行することができる。次いで、全てのBチャンクが、f
θを通したフォワードパスを行った後、システムは、f
θの勾配でθを更新することができ、部品がそれらのシーケンスの終わりに到達しなかった場合、部品及びステーションの潜在状態を更新することができる。これは、収束するまで、又は、予め定められた数のエポキシまで、データセット全体を通して繰り返される。
【0040】
本明細書において説明される1つ又は複数の実施形態のニューラルネットワークアルゴリズム及び/又は方法論は、
図4に図示されているコンピューティングプラットフォーム400などのコンピューティングプラットフォームを使用して実現される。コンピューティングプラットフォーム400は、メモリ402と、プロセッサ404と、不揮発性ストレージ406とを含むものとしてよい。プロセッサ404は、ハイパフォーマンスコアを含むハイパフォーマンスコンピューティング(HPC)システム、マイクロプロセッサ、マイクロコントローラ、デジタルシグナルプロセッサ、マイクロコンピュータ、中央処理ユニット、フィールドプログラマブルゲートアレイ、プログラマブルロジック装置、ステートマシン、論理回路、アナログ回路、デジタル回路又はメモリ402内に常駐するコンピュータ実行可能命令に基づいて信号(アナログ又はデジタル)を操作する任意の他の装置から選択された1つ又は複数の装置を含むものとしてよい。メモリ402は、1つのメモリ装置又は複数のメモリ装置を含むものとしてよく、これは、これらに限定されるものではないが、ランダムアクセスメモリ(RAM)、揮発性メモリ、不揮発性メモリ、スタティックランダムアクセスメモリ(SRAM)、ダイナミックランダムアクセスメモリ(DRAM)、フラッシュメモリ、キャッシュメモリ又は情報を格納することができる任意の他の装置を含む。不揮発性ストレージ406は、ハードドライブ、光学ドライブ、テープドライブ、不揮発性ソリッドステート装置、クラウドストレージ、又は、情報を永続的に格納することができる任意の他の装置などの1つ又は複数の永続的なデータストレージ装置を含むものとしてよい。
【0041】
プロセッサ404は、メモリ402に読み込まれ、不揮発性ストレージ406の埋込みモデル408に常駐し、本明細書に開示される1つ又は複数の実施形態の埋込みアルゴリズム及び/又は方法論を具体化するコンピュータ実行可能命令を実行するように構成されるものとしてよい。プロセッサ404は、さらに、メモリ402に読み込まれ、不揮発性ストレージ406のダイナミクスモデル410に常駐し、本明細書において説明されたダイナミクスアルゴリズム及び/又は方法論を具体化するコンピュータ実行可能命令を実行するように構成されるものとしてよい。プロセッサ404は、さらに、メモリ402に読み込まれ、不揮発性ストレージ406の予測モデル412に常駐し、本明細書において説明された予測アルゴリズム及び/又は方法論を具体化するコンピュータ実行可能命令を実行するように構成されるものとしてよい。モデル408~412は、オペレーティングシステム及びアプリケーションを含むものとしてよい。モデル408~412は、Java、C、C++、C#、Objective-C、Fortran、Pascal、Java Script、Python、Perl及びPL/SQLの単独又は組合せのいずれかを含むがこれらに限定されるものではない、様々なプログラミング言語及び/又は技術を使用して作成されたコンピュータプログラムからコンパイル又は解釈されるものとしてよい。
【0042】
プロセッサ404による実行の際に、モデル408~412のコンピュータ実行可能命令は、コンピューティングプラットフォーム400に、本明細書において開示されるニューラルネットワークアルゴリズム及び/又は方法論のうちの1つ又は複数を実装させることができる。不揮発性ストレージ406はまた、本明細書において説明されたように、各ノードでの部品及びステーションの識別を表す測定データ414及びデータ416を含むものとしてよい。測定データ414は、製造プロセス中の特定のステーションに配置されたセンサからキャプチャ又は取得されたデータを含み得る。センサは、画像センサ、レーザ変位/測定センサ、接触センサ、又は、測定される部品の物理的な品質、状態若しくは特性を表すデータをもたらすように構成された任意の他のタイプのセンサであるものとしてよい。
【0043】
コンピュータ可読媒体に格納されたコンピュータ可読プログラム命令は、コンピュータ、他のタイプのプログラマブルデータ処理機構又は他の装置に、特定の態様で機能するよう命令するために使用可能であり、これによって、コンピュータ可読媒体に格納された命令は、フローチャート又はダイアグラムにおいて指定された機能、行為及び/又は動作を実装する命令を含む製造品を作る。特定の代替的な実施形態においては、フローチャート及びダイアグラムにおいて指定された機能、行為及び/又は動作は、1つ又は複数の実施形態と一致して、並べ替えられるものとしてよく、連続して処理されるものとしてよく、及び/又は、同時に処理されるものとしてよい。さらに、フローチャート及び/又はダイアグラムのいずれも、1つ又は複数の実施形態と一致して、図示されたものよりも多くのノード又は少ないノード又はブロックを含むものとしてよい。
【0044】
上記で説明したように、本明細書において開示された種々の実施形態に従って、トレーニングされた機械学習モデルを用いて根本原因分析を実行するための方法及びシステムが提供される。特に、
図1乃至
図4を参照して上述した、トレーニングされた機械学習モデルは、予測された測定データ、たとえば、ワークステーションにおける部品の予測された測定値を特定するように構成されている。トレーニングされたモデルは測定値を予測することができるので、本明細書において説明されたシステムは、根本原因を特定する際に、実際の測定値を予測された測定値と比較することができる。モデルは、通常のデータの表現をすでに学習しているので、この表現を実際のデータと比較し、差を評価することによって、本明細書の教示に従った、問題の根本原因の識別に導くことができる。
【0045】
本開示は、根本原因分析のために、本明細書において説明された、事前トレーニングされたモデルを利用することを提案する。このようなモデル
【数10】
は、部品測定値のサブシーケンス[x
1,x
2,...,x
k-1]を、ステーション状態[S
1,S
2,...,S
k-1]及びこの部品のタイプTxとともに取得して、ステーションS
kにおける部品の測定値又は部品の測定値の尤度を予測する。ここで、x
i={x
i
1,x
i
2,...,x
i
j_i}は、ステーションS
iにおけるマルチモダリティ測定値である。モデルが、大部分で非欠陥部品及びステーションを包含するトレーニングセットにわたって十分にトレーニングされている(たとえば、局所的な最小損失に近い)ことが仮定され、したがって、モデルは、通常の(非欠陥)部品の測定値を予測することを学習する。トレーニングfに対する損失関数Lが与えられていることを仮定することもできる。
【0046】
製造プロセス内の根本原因を識別するいくつかの方法が提供される。自身のk番目のステーションS
kにおいて欠陥であると識別された欠陥部品P(又は部品の母集団)を考慮して、本開示は、根本原因を識別するために、事前トレーニングされたモデルf
θの勾配及び損失を利用することを提案する。第1の実施形態においては、勾配を特定するためにバックプロパゲーションが使用される。k番目のステーション(すなわち、故障が発生していると特定又は推定されるステーション)までの全てのステーションに対する新たな実際の測定データのシーケンスが、トレーニングされたモデル、たとえば、上述したモデルを通じてバックプロパゲーションされる。たとえば、変数セットにわたったモデルf
θの絶対勾配値の大きさは、この変数セットに対する関数の感度を表す。したがって、より大きい絶対勾配値を伴う変数における変化によって、予測された(通常の)測定値における変化が変わる可能性がより高くなる。次に、根本原因R
xkが次のように識別される:
【数11】
【0047】
この勾配によって、どのデータポイント(x及び/又はs)が、このモデルに対する最も高いインフルエンサーであるかを示すことができる。上記の式(1)によって識別された根本原因は、測定値又はステーションの識別のいずれかであることに留意されたい。なぜなら、それにわたって勾配が取得される変数セットが、測定値(x1,x2,...,xk-1)及びステーション(S1,...Sk-1)だからである。
【0048】
他の実施形態においては、勾配は、上述のように、トレーニングされたモデルのバックプロパゲーションを介して取得されない。その代わりに、各ステーションに対する予測された測定値と実際の測定値との間で比較が行われ、損失関数が利用される。この実施形態においては、製造設備の各ステップにおける、予測された測定値を、このステップにおける実際の測定値と比較することができる。損失関数比較Lは、予測された測定値と実際の測定値とが最も大きく偏差しているポイントを識別することができる。これは、測定値又は部品が測定されているステーションのいずれかとして根本原因を識別することを支援することができる。モデルf
θは、非欠陥部品の測定値を予測するようにトレーニングされているので、この部品が欠陥として識別されるk番目のステーションより前の(上流の)ステーションにおける1つ又は複数の測定値([x
1,x
2,...,x
k-1],(S
1,...S
k-1))は、予測された測定値と実際の測定値との間の損失を計算することによって、非欠陥部品から最も偏差する測定値として識別され得る。換言すれば、部品測定データの根本原因
【数12】
が特定され、ここで、
【数13】
である。
式(4)は、測定データの実際の測定値を、予測された測定データと比較することによって、測定データに基づいて根本原因を識別する方法の例である。
【0049】
さらに、ステーションの識別に関する根本原因R
xk=S
i*が特定され、ここで、
【数14】
である。
式(5)は、ステーションごとに、実際の測定データを予測された測定データと比較することによって、ステーション識別に基づいて、根本原因(たとえば、どのステーションが、欠陥部品の根本原因であるか)を識別する方法の例である。
【0050】
いくつかの実施形態においては、製造設備は、複数の異なるタイプの部品を処理するものとしてよい。たとえば、製造されたスパークプラグは、ガスケット、金属体、ワイヤ、絶縁体及び電極を含むものとしてよく、これらは全て、完全に組み立てられたスパークプラグを形成するために共に組み立てられる。本明細書における教示は、あらゆる故障又は問題の根本原因である部品タイプを識別するために、そのような製造プロセスに適用可能である。一実施形態によれば、複数の部品タイプに関して、測定データのシーケンスの勾配が特定される。この場合、最も大きい勾配を有する部品タイプが、根本原因である部品タイプを示すことができる。
【0051】
たとえば、欠陥部品セットP
faulty及び対応する測定値サブシーケンス
【数15】
を考慮すると、部品が欠陥となるか否かを予測するために、事前トレーニングされたモデルf
θのアウトプットを使用して、パラメータセット
【数16】
によってパラメータ化された分類モデル(たとえば、バイナリ分類ヘッド)cをトレーニングすることができる。ここで、アウトプットセット{0,1}は、部品が欠陥部品であると予測される(1)又は欠陥部品であると予測されない(0)を指し、インプットディメンションdは、f
θのアウトプットディメンションである。大部分が非欠陥部品から成る、f
θのトレーニングセットのうちの少なくともいくつかを、欠陥部品セットP
faultyと組み合わせて使用して、バイナリ分類ヘッドをトレーニングすることができる。
【数17】
と仮定すると、部品シーケンス{[x
1,...,x
k],(S
1,...S
k),T
x}を受け取り、最初にf
θで特徴を抽出し、次に、c
φで部品が欠陥であるか否かを予測するためにこのような特徴を使用するエンドツーエンド分類器である。根本原因である部品タイプは、次の式(6)に示すように、P
faulty内の全ての部品にわたって最も高い勾配の合計を有する部品タイプとして識別され得る:
【数18】
g
φ∪θの勾配を考慮すると、最も高い勾配の合計を有する部品タイプが、識別された根本原因である。ここで、上述の実施形態とは異なり、この特定においては、f
θの勾配もステーションsの勾配も必要とされないことに留意されたい。さらに、部品タイプに基づいて根本原因を特定するこの方法は、種々セッティング及びモデルに適用可能であり、上述したモデルf
θに頼る必要はない。
【0052】
例示的な実施形態を上記で説明したが、これらの実施形態が、特許請求の範囲に包含される全ての可能な形態を記述することは意図されていない。本明細書において使用されている用語は、限定ではなく説明の用語であり、本開示の精神及び範囲から逸脱することなく様々な変更が可能であることが理解される。上述したように、様々な実施形態の特徴を組み合わせて、明示的には説明又は図示されていないことがある本発明のさらなる実施形態を形成することができる。様々な実施形態を、1つ又は複数の所望の特性に関して、他の実施形態若しくは従来技術の実装を凌ぐ利点を提供するものとして又はより好ましいものとして説明することができたが、当業者には、特定の用途及び実装に関連する、全体として望ましいシステム属性を得るために、1つ又は複数の特徴又は特性が妥協され得ることが認識される。これらの属性は、コスト、強度、耐久性、ライフサイクルコスト、市場性、外観、包装、サイズ、実用性、重量、製造性、組み立ての容易さなどを含むものとしてよいが、これらに限定されるものではない。したがって、任意の実施形態が、1つ又は複数の特徴に関して他の実施形態又は従来技術の実装よりも望ましくないものとして説明されている限り、これらの実施形態は本開示の範囲を逸脱するものではなく、特定の用途にとっては望ましいものとなり得る。
【外国語明細書】