(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公表特許公報(A)
(11)【公表番号】
(43)【公表日】2024-03-06
(54)【発明の名称】産業マシンで使用するための仮想センサの生成
(51)【国際特許分類】
G05B 23/02 20060101AFI20240228BHJP
【FI】
G05B23/02 Z
【審査請求】未請求
【予備審査請求】未請求
(21)【出願番号】P 2023556740
(86)(22)【出願日】2022-03-15
(85)【翻訳文提出日】2023-11-10
(86)【国際出願番号】 EP2022056710
(87)【国際公開番号】W WO2022194871
(87)【国際公開日】2022-09-22
(32)【優先日】2021-03-16
(33)【優先権主張国・地域又は機関】LU
(81)【指定国・地域】
【公序良俗違反の表示】
(特許庁注:以下のものは登録商標)
(71)【出願人】
【識別番号】500173376
【氏名又は名称】ポール ヴルス エス.エイ.
【氏名又は名称原語表記】PAUL WURTH S.A.
(74)【代理人】
【識別番号】100110319
【氏名又は名称】根本 恵司
(74)【代理人】
【識別番号】100099472
【氏名又は名称】杉山 猛
(74)【代理人】
【識別番号】100150773
【氏名又は名称】加治 信貴
(72)【発明者】
【氏名】ショックアールト、セドリック
【テーマコード(参考)】
3C223
【Fターム(参考)】
3C223AA05
3C223AA15
3C223BA01
3C223CC01
3C223DD01
3C223EB01
3C223FF04
3C223FF12
3C223FF22
3C223FF26
3C223FF42
3C223GG01
3C223HH03
(57)【要約】
産業マシン(123)は、特定のパラメータ用のセンサを有しないことがあり得、そのためコンピュータは見当たらないセンサを仮想化するためにニューラルネットワーク(473)を使う。コンピュータは産業マシン(123)用のさらなるプロセスパラメータ(173,z)のパラメータ指標(Z’)を提供するために、基準マシンから測定履歴データを備えた測定時系列を受領し、時系列を基準マシンのドメインの違いに対して不変量である特徴系列に処理することで変換規則を取得し、変換規則を使用して時系列を変換し、さらなるプロセスパラメータ(z)の単変量時系列を受領し、かつ入力のところで特徴系列により、かつ出力のところで単変量時系列によりニューラルネットワークをトレーニングする、各ステップでニューラルネットワーク(373)をトレーニングする。
【選択図】
図1
【特許請求の範囲】
【請求項1】
ネットワーク(373)が、産業マシン(123)の特定のプロセスパラメータ(183)のインスタンスを表わす測定データによって、多変量測定時系列(223)の後処理のためにトレーニングされ、かつそれによって産業マシン(123)のためのさらなるプロセスパラメータ(173,z)のパラメータ指標(Z’)を提供する、ニューラルネットワーク(373)をトレーニングするためのコンピュータによる実行方法(400)であって、
第1の基準マシン(111)から測定履歴データを備えた第1の多変量測定時系列(211,221)及び物理的に異なる第2の基準マシン(121)から測定履歴データを備えた第2の多変量測定時系列(221)を受領し(411);
トランスフォーマモジュール(311/321)が、変換規則(251/252)により第1及び第2の多変量測定時系列(211,221)を、第1及び第2の基準マシン(111,121)のドメインの違いに対して不変量であるそれぞれ第1及び第2の多変量特徴時系列(231,241)に変換できるようにするために、第1及び第2の多変量測定時系列を処理することによって、変換規則(251/252)のセットを取得し(421);
変換規則(251/252)を適用するトランスフォーマモジュール(322)により、第1の多変量測定時系列(211,221)を第1の多変量特徴時系列(232)に変換し(452);
第1の基準マシン(112)から、さらなるプロセスパラメータ(173,z)の測定データ(Z)を備えた単変量測定時系列(272)を受領し;かつ
ニューラルネットワーク(372)を、入力のところで第1の多変量特徴時系列(232)により、かつ出力のところで単変量測定時系列(272)によってトレーニング(472)する、
ことを含む方法(400)。
【請求項2】
変換規則(251/252)のセットの取得(421)は、
予備変換規則のセットを用いて、第1の多変量測定時系列(211)を第1の多変量特徴時系列(231)に変換し(431)、かつ第2の多変量測定時系列(221)を第2の多変量特徴時系列(241)に変換し(431)、
ディスクリミネータモジュール(361)によって、第1及び第2の特徴時系列(231,241)の起源を第1及び第2の多変量測定時系列(211,221)として識別し(441)、かつ
予備変換規則のセットを変更する(451)ことを、
ディスクリミネータモジュール(361)がデータ起源(1,2)を識別できなくなるまで、コンピュータによる繰り返しで実行する、請求項1に記載された方法(400)。
【請求項3】
ディスクリミネータモジュール(361)は、敵対的損失が最大値に達するまで動作することによって、もはやデータ起源を識別できないと判断する、請求項2に記載された方法。
【請求項4】
変換規則のセットの取得(421)ステップとニューラルネットワーク(372)のトレーニング(472)のステップとを繰り返し、その際、トランストランスフォーマモジュール(311/321)が、さらにトレーニング中のニューラルネットワーク(372)によって提供されるネットワーク損失(LOSS)を受領し、その際、トランスフォーマモジュールは、さらにトレーニング中のニューラルネットワークによって提供されるネットワーク損失を受領し、最小ネットワーク損失に対応して繰り返しが停止する、請求項2に記載された方法。
【請求項5】
トランスフォーマモジュール(311/321)とディスクリミネータモジュール(361)との組み合わせは敵対的生成ネットワークとして動作する、請求項1から4のいずれかに記載された方法(400)。
【請求項6】
多変量測定時系列(211,221)を受領し(411)、変換規則のセットを取得し(421)、変換し(452)かつニューラルネットワークをトレーニングする(472)方法ステップが、変量がさらなるプロセスパラメータ(173,z)に関連付けられていることがデータセレクタモジュール(383)によって判断済みである、多変量測定時系列に対して実行される、請求項1から5のいずれかに記載された方法(400)。
【請求項7】
データセレクタモジュール(383)は、ニューラルネットワークのトレーニング(482)中に損失関数を最小化するための基準を使って、コンピュータに、取得し、変換し及びトレーニングする方法ステップを繰り返し行わせる、セレクタトレーナーモジュール(380)によってトレーニングされる、請求項6に記載された方法(400)。
【請求項8】
履歴データを備えた第1及び第2の多変量測定時系列(211,221)の受領(411)は、測定データのデータモダリティを適応させた後に実行される、請求項1から7のいずれかに記載された方法(400)。
【請求項9】
データモダリティの適応は、音サンプルをカテゴリに分類することによって音サンプルで測定データを分析すること、及び画像をカテゴリに分類することによって測定データを画像で分析すること、から選択されたステップによって実行される、請求項8に記載された方法(400)。
【請求項10】
ニューラルネットワークのトレーニング(482)中の損失関数を最小化している間に選択される異なる目標に対して、適応がくり返される、請求項8又は9のいずれかに記載された方法(400)。
【請求項11】
ニューラルネットワーク(372)は回帰型ニューラルネットワークである、請求項1から10のいずれかに記載された方法(400)。
【請求項12】
測定データは、温度、圧力、マシン内の材料の化学組成、産業マシンの一部の視覚的外観、及び産業マシンから放出される音から選択される物理的特性であるプロセスパラメータに関連付けられている、請求項1から11のいずれかに記載された方法(400)。
【請求項13】
産業マシンは反応器、冶金炉、容器、及びエンジンから選択される、請求項1から12のいずれかに記載された方法(400)。
【請求項14】
請求項1から13のいずれかに記載された方法(400)により前以てトレーニングされたニューラルネットワーク(373)を動作するためのコンピュータによる実行方法(500)であって、
監視(123)下にある産業マシンの測定データを備えた多変量測定時系列(223)を受領し(513);
多変量測定時系列(223)を多変量特徴時系列(243)に変換し(523)、かつ
パラメータ指標(Z’)を提供するためにニューラルネットワーク(373)を動作する(533)、各ステップで動作する方法(500)。
【請求項15】
ニューラルネットワークの動作は、センサ障害、データ接続障害、測定のための人間の関与の最小化、から選択される状況下で起こす、請求項14に記載された方法(500)。
【請求項16】
コンピュータシステムのメモリにロードされかつコンピュータシステムの少なくとも1つのプロセッサによって実施されるとき、コンピュータシステムに請求項1から15のいずれかに記載されたコンピュータによる実行方法のステップ(複数)を実行させる、コンピュータプログラム製品。
【請求項17】
コンピュータシステムによって実施されるとき、請求項1から15のいずれかに記載されたコンピュータによる実行方法のステップ(複数)を実行する複数のコンピュータによる実行モジュールを含む、コンピュータシステム。
【請求項18】
産業マシン(123)のパラメータ(z)を表すパラメータ指標(Z’)を取得するために、請求項14から15のいずれかに記載された方法を実行するコンピュータの使用。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、概して工業的生産プロセスに関し、より詳細には、センサをエミュレートし、これらのプロセスを実行する産業マシン(industrial machines)のプロセスパラメータに対する測定データをエミュレートするためのコンピュータシステム、方法及びコンピュータ-プログラム製品に関する。
【背景技術】
【0002】
産業マシンの動作とそのプロセスパラメータを同時に測定することは同類である。測定は、温度、圧力、音、照度(赤外線カメラの読み取りの様な)、表面からの光の反射、ガス濃度、及びその他の物理的特性又は現象の測定など、マシンで進行中のプロセスに直接関連するパラメータを測定することを含む。しかし、測定は、マシンに入って来る材料やマシンから出ていく(プロセスから生じる)材料の物理的特性の測定など、プロセスに間接的に関連するプロセスパラメータにも関連し得る。
【0003】
その意味で、産業マシンは監視下にあるマシンである。
【0004】
さらに、プロセスパラメータは、マシン内及びマシン外の位置によって区別し得る。例えば、温度分布はマシンの異なる部分で測定し得る。
【0005】
より一般的な観点からみれば、産業マシンは工業的プロセスを実行するマシンであり得る。例えば、マシンは反応器、冶金炉、容器、エンジンであり得る。動作原理の観点から、より具体的には炉は高炉であり得る。非常に単純化して言えば、高炉は、熱風(羽口を介して)と同様に鉱石とコークスを受け取り、溶融金属を供給する。
【0006】
測定はマシンに関連するセンサの主な目的である。例えば、マシンに温度センサを装備することができる。このようなセンサは、温度計、PT100抵抗温度検知器又は他のタイプの温度センサによって実施し得る。
【0007】
測定結果は、少なくとも2つの測定モダリティ(modality)、即ち、
・ マシンに関連付けられたセンサによって、及び
・ 人間のオペレータとマシン間の相互作用によって、
提供できることがよく知られている。
【0008】
高炉の例では、センサはさまざまな場所に分散されており、加えて、オペレータは通常、溶融材料のサンプルを採取する。簡単に言えば、オペレータは高炉炉床(blast furnace hearth)の一部を(穿孔機で、タッピングと呼ばれるステップで)開いて溶融材料を抽出する。次に、材料はランナーに流入し(鋳造と言う)、オペレータはサンプルの化学組成、温度、外観などを検査し得る。
【0009】
殆どの測定結果は測定データに変わる。データモダリティに関しては、測定データは、例えば、
・ 温度又は圧力に対するスカラー
・ マシン部品の動きのパターンに対するベクトル
・ 表面などからの画像に対するマトリックス(行列)
の様な複雑な形式を有し得る。
【0010】
測定データは、1台以上のコンピュータで処理されることになる。コンピュータは、マシンの動作状態に対する指標(indicators)を取得するために測定データを処理することができる。測定データと指標に基づいて、オペレータは動作パラメータを変更することができる。例えば、既述のサンプル採取により温度が不十分であることを明らかにできる。他のデータと共に、コンピュータはオペレータにより多くのコークスを炉に投入する必要があることを指摘する(コークス量は動作パラメータである)。
【0011】
他の多くのシナリオで、コンピュータは、プロセスコントローラ(例えば、温度パラメータに対する制御ループ)の機能でマシンと直接行動することができる。
【0012】
しかしながら、測定データは、さまざまな理由や制約により、常に利用可能とは限らない。その内の幾つかについてはさらなる注目に値する:
・ 特定のセンサが切断されたり、コンピュータへのデータ接続に失敗したりする可能性がある。
・ マシンの開発段階が異なることで、マシンは実質的に同じタイプであっても、センサの分布はマシン毎に異なる場合があり得る。炉の例についてみれば、それらは個別に又は非常に小さなシリーズで構成されている。それ故に、炉の集団でみるとバラバラである。したがって、同じ動作原理(例えば、コークス投入及び/又は石炭注入による熱調節)、同じ材料(例えば、鉄鉱石、コークス)を備えた炉であっても、(例えば、容積において)異なるであろう。このようなマシン間における違いが、測定データ不足にする可能性もある。
・ 人間とマシンの相互作用は一つの役割を果たす。オペレータに対する危険(hazard)又は潜在的な危険(danger)を伴うさらなる技術的問題がある。既述のサンプル採取のために炉を開く機会は少なくなるよう制限すべきである。炉の重要な動作手順の最中に、鋳造中の溶融材料の温度の測定など幾つかの測定が必要になる可能性がある。オペレータが炉の運転に完全に集中できるように、測定への人間の関与を最小限に抑える必要がある。
・ これらの制約の幾つかは組み合わさって出現する、旧式のアナログ温度計では、オペレータがデータを読み取る必要があるが、デジタル温度計はそうではない。
【0013】
コンピュータは、測定データ間の関係が分っていれば、マシンの動作状態に対する指標は計算できる。例えば、車内のコンピュータは、車のドライバーにギアを切り替えることを指摘し得る。しかしながら、多くの場合、測定データ間の関係は複雑すぎて数式でモデル化できない。
【0014】
ニューラルネットワークを使用することは一つの任意の選択である。ネットワークは測定データを受領し、かつ指標を提供する。簡単に言えば、ネットワークは、複数の層に配置された所謂ニューロンを含む。ニューロン間の相互接続は、いわゆる重み(weights)によって管理される。ネットワーク内の重みのセットはコンフィグレーション(設定;configuration)と呼ぶことができる。
【0015】
しかしながら、(重みやその他のネットワークパラメーターを設定するために)ネットワークをトレーニングする必要がある。再度、単純に言えば、トレーニングには測定履歴データをネットワークに供給することが必要である。
【0016】
しかしながら、履歴データは、特にマシンに適切な相手(counterparts)やピア(peers;仲間)がない場合は、特定のマシンで使用できない。この履歴データの不足は、異なる開発段階で製造されたマシン(炉など)で特に顕著である。
さらなる背景情報は、次の論文から入手できる:
LI XIANG他:“Diagnosing Rotating Machines With Weakly Supervised Data Using Deep Transfer Learning”, IEEE TRANSACTIONS ON INDUSTRIAL INFORMATICS, IEEE SERVICE CENTER, NEW YORK, NY, US,vol.16,no.3, 2019年7月8日(2019-07-08)、1688-1697ページ。本論文は、データ駆動型のマシン診断について言及している。ターゲットドメイン内のマシンのトレーニングデータが十分な量で利用できないという課題がある。しかしながら、代わりに複数のソースドメインのトレーニングデータを使用することが可能である。本論文は、転移学習(transfer learning)によってトレーニングデータを適応させるアプローチについて説明している。
LI XIANG他:“Domain generalization in rotating machinery fault diagnostics using deep neural networks”, NEUROCOMPUTING, ELSEVIER, AMSTERDAM, NL, vol. 403, 2020年5月8日(2020-05-08)、409-420ページ。本論文も、データ駆動型のマシン診断について言及している。ドメイン・一般(domain-general)又はドメイン・不変(domain-invariant)の特徴を抽出するタスクがあり、本論文はドメイン敵対的ネットワーク(domain adversarial network)を使用するアプローチについて説明している。
LIAO YIXIAO他:“Deep Semisupervised Domain Generalization Network for Rotary Machinery Fault Diagnosis Under Variable Speed”, IEEE TRANSACTIONS ON INSTRUMENTATION AND MEASUREMENT, IEEE, USA,vol.69,no.10, 2020年5月6日(2020-05-06)、8064-8075ページ。本論文は、回転マシンと、障害を検出するためのニューラルネットワークの使用について言及している。しかしながら、ラベル付きトレーニングデータは、一つの回転速度に対して使用できるが、別の速度に対しては使用できない。それにもかかわらず、ワッサースタイン生成敵対的ネットワーク(Wasserstein Generative Adversarial Network)を使用することにより、その課題を克服することは可能である。
【発明の概要】
【0017】
産業マシンは複数のプロセスパラメータで動作するが、産業マシンは特定のパラメータに対する適切なセンサを有していないか、又はそのプロセスパラメータ用の測定データが別の理由で利用できない場合があり得る。ニューラルネットワークは、そのマシンのプロセスパラメータに対応するパラメータ指標を提供する。ネットワークは、基準マシン(reference machines)からの履歴データに基づいてトレーニングが終了している。少なくとも1つの基準マシン(ソース基準(source reference))は、そのプロセスパラメータ用のセンサを有する。
【0018】
基準マシン(複数)は異なっており、マシン学習の観点からは、それらは異なるドメインに属している。それのためのトレーニングには、転移学習、より正確には教師なしドメイン適応(unsupervised domain adaptation)を要する。
【0019】
コンピュータによる実行方法(computer-implemented method)を実行することによって、コンピュータは、ニューラルネットワークをトレーニングして、ネットワークの測定データによる多変量測定時系列の後処理ができるようにする。測定データは、産業マシンの特定のプロセスパラメータのインスタンス(instances)を表わす。トレーニングされたネットワークは、産業マシンのためのさらなるプロセスパラメータのパラメータ指標を提供するようにトレーニングされる。
【0020】
第1の受領ステップでは、コンピュータは、第1の基準マシンから測定履歴データを備えた第1の多変量測定時系列を受領し、かつ物理的に異なる第2の基準マシンから測定履歴データを備えた第2の多変量測定時系列を受領する。
【0021】
取得ステップでは、コンピュータは、トランスフォーマモジュール(transformer module)が変換規則(transformation rules)により第1及び第2の多変量測定時系列をそれぞれ第1及び第2の多変量特徴時系列に変換できるようにするために、第1及び第2の多変量測定時系列を処理することによって、変換規則のセットを取得する。多変量特徴時系列は第1及び第2の基準マシンのドメインの違いに対して不変量である。
【0022】
変換ステップでは、コンピュータは、変換規則を適用するトランスフォーマモジュールにより、第1の多変量測定時系列を第1の多変量特徴時系列に変換する。
【0023】
第2の受領ステップにおいて、コンピュータは、第1の基準マシンから、さらなるプロセスパラメータの測定データを備えた単変量測定時系列を受領する。
【0024】
トレーニングステップでは、コンピュータはニューラルネットワークを、ネットワークの入力のところで第1の多変量特徴時系列により、かつネットワークの出力のところで単変量測定時系列により、トレーニングする。
【0025】
任意の選択で、コンピュータは、予備変換規則のセットを用いて、第1の多変量測定時系列を第1の多変量特徴時系列に変換し、かつ第2の多変量測定時系列を第2の多変量特徴時系列に変換し、ディスクリミネータ(discriminator)モジュールによって、第1及び第2の特徴時系列の起源(origin)を第1及び第2の多変量測定時系列として識別し;予備変換規則のセットを変更することを、ディスクリミネータがデータ起源を識別できなくなるまで繰り返して変換規則のセットを取得できる。
【0026】
任意の選択で、コンピュータは、敵対的損失が最大値に達するまで動作することによって、もはやデータ起源を識別できないと判断するディスクリミネータモジュールを使用できる。
【0027】
任意の選択で、コンピュータは、変換規則の取得ステップとトレーニングステップとを繰り返すことができ、その際、トランスフォーマモジュールは、最小ネットワーク損失に対応して繰り返しが停止するように、さらにトレーニング中のニューラルネットワークによって提供されるネットワーク損失(network loss)を受領する。
【0028】
任意の選択で、トランスフォーマモジュールとディスクリミネータモジュールとの組み合わせは敵対的生成ネットワーク(generative adversarial network)として動作する。
【0029】
任意の選択で、コンピュータは、多変量測定時系列を受領し、変換規則のセットを取得し、変換しかつニューラルネットワークをトレーニングする方法ステップを、データセレクタモジュールによって変量がさらなるパラメータに関連付けられていることが判断済みである、多変量測定時系列に対して実行する。
【0030】
任意の選択で、データセレクタモジュールは、ニューラルネットワークのトレーニング中に損失関数を最小化するための基準(criterium)を使って、コンピュータに、取得し、変換し、及びトレーニングする方法ステップを繰り返し行わせる、セレクタトレーナーモジュールによってトレーニングされる。
【0031】
任意の選択で、コンピュータは、履歴データを備えた第1及び第2の多変量測定時系列の受領を、測定データのデータモダリティを適応させた後に実行する。
【0032】
任意の選択で、コンピュータは、音サンプルをカテゴリに分類することによって測定データを音サンプルで分析すること、及び画像をカテゴリに分類することによって測定データを画像で分析すること、の少なくとも1つによってデータモダリティを適応することができる。
【0033】
任意の選択で、コンピュータは、ニューラルネットワークのトレーニング中の損失関数を最小化している間に選択される異なる目標に対して、適応を繰り返す。
【0034】
任意の選択で、コンピュータは、回帰型(regression)ニューラルネットワークである、ニューラルネットワークを使用する。
【0035】
任意の選択で、測定データは、温度、圧力、マシン内の材料の化学組成、産業マシンの一部の視覚的外観、及び産業マシンから放出される音から選択される物理的特性であるプロセスパラメータに関連付けられている。
【0036】
任意の選択で、産業マシンは反応器、冶金炉、容器、及びエンジンから選択される。
【0037】
ニューラルネットワークのトレーニングが完了すると、コンピュータ(又は物理的に異なるコンピュータ)は、監視下にある産業マシンの測定データを備えた多変量測定時系列を受領し、多変量測定時系列を多変量特徴時系列に変換し、かつパラメータ指標を提供するためにネットワークを動作する、ニューラルネットワークを動作するためのコンピュータによる実行方法を実行することができる。
【0038】
任意の選択で、ニューラルネットワークの動作は、以下の、即ち、センサ障害、データ接続障害、測定のための人間の関与の最小化、から選択される状況下で起こす。
【0039】
コンピュータプログラム製品は、コンピュータシステムのメモリにロードされかつコンピュータシステムの少なくとも1つのプロセッサによって実施される(executed)とき、コンピュータシステムにコンピュータによる実行方法のステップ(複数)を実行させる。
【0040】
複数のコンピュータによる実行モジュールを含むコンピュータシステムは、コンピュータシステムによって実施されるとき、コンピュータによる実行方法のステップ(複数)を実行できる。或いは、別の観点からみれば、コンピュータシステムはコンピュータによる実行方法のステップ(複数)を実行する。
【0041】
更に、産業マシンのパラメータを表すパラメータ指標を取得するために、仮想センサとして働く方法を実行するコンピュータの使用がある。
【図面の簡単な説明】
【0042】
次に、本発明の実施形態を添付図面を参照して詳細に説明する。
【
図1】多変量測定時系列を備えた産業マシン、ならびに、表記規則を説明するためのコンフィグレーションを備えたニューラルネットワークを示す。
【
図2】変換規則のセットを取得するための準備段階にある産業マシン及びコンピュータモジュールを示す。
【
図3】トレーニング段階でトレーニング中の、基準産業マシン、トランスフォーマモジュール及びネットワークを示す。
【
図4】パラメータ指標を提供するための動作段階にある
図1の産業マシン及び
図3のトランスフォーマモジュールを示す。
【
図5】ニューラルネットワークのトレーニング方法、及び産業マシンの動作中のネットワークの使用方法のフローチャートを示す。
【
図6】測定データの任意の選択のモダリティ適応(modality adaptation)を実施する任意の選択のモダリティ適応モジュールを示す。
【
図7】関連する測定データの選択を任意の選択で実施する任意の選択のデータセレクタモジュールを示す。
【
図8】産業マシンが高炉である場合の使用例を示す。かつ
【
図9】ここで説明を行う技術と共に使用し得る汎用コンピューティングデバイスの一例を示す。
【発明を実施するための形態】
【0043】
表記規約概要
図1は、表記規約(writing conventions)を説明するための、多変量測定時系列223を備えた産業マシン123、ならびにコンフィグレーション283を備えたニューラルネットワーク373を示す。
【0044】
図はまた、-単に象徴的に示したものではあるが-産業マシン123がプロセスパラメータ173/183で工業的プロセスを実行することを示している。プロセスパラメータは、次の2つのグループに分けることができる。
・ 測定パラメータ183(又はx-パラメータ)及び
・ 非測定パラメータ173(又はz-パラメータ、少なくとも1つ)
【0045】
属性(attribute)「測定」は、測定データが当該マシン123に対する多変量測定時系列223中に入るという意味で、特定の産業マシン123に関連付けられている。
【0046】
少なくとも1つのプロセスパラメータzについては測定データが見当たらない(つまり、利用できない)。原則として、パラメータzは測定可能なパラメータであるがデータは利用できない。ニューラルネットワーク373の出力は、その特定のプロセスパラメータzの表示(representation)であるパラメータ指標Z’(parameter indicator)を提供する。パラメータ指標Z’は、「人工測定値」又は人工的又は仮想的な測定データと見なすことができる。或いは換言すれば、コンピュータがセンサをエミュレートする。
【0047】
パラメータ指標Z’は、マシン123のステータス指標(Z’はステータス(状況)を示す)として機能し、或いはZ’は、マシンのステータスを判断するコンピュータ又はその他のモジュールの入力変数として機能する(Z’はステータスに寄与するもの(contributor)である)。説明は、Z’を算出することに重点を置く。
【0048】
産業マシン123のオペレータ193(人間)にとって、ネットワーク373は、パラメータ指標Z’を出力する仮想センサのように見える。理論的かつ理想的な状況では、指標Z’は、実際のセンサ(ハードウェアセンサ、物理センサ)と同様に物理的実体を表わすであろう。
【0049】
実際の非理想的な状況では、(ネットワーク373によって計算される)パラメータ指標Z’の精度は、ネットワーク373からの指標Z’と適切なハードウェアセンサからの測定データZとの差として定義されよう。
【0050】
説明では、Z’を決定するためのアプローチを説明し(
図1-
図5)、かつ(
図6-
図7)に関連して精度を高めるための任意の方策(optional measures)を説明する。
【0051】
産業マシン123(又は産業機器)は工業的プロセスを連続的に実施するマシンである。説明では上述の例について述べたが、説明はマシン123が高炉である例に絞る。
【0052】
この高炉の例を考慮すると、プロセスパラメータzは溶融材料の温度であり得る。(上記で紹介したように、温度センサが見当たらないか、その他の理由で)利用可能な直接測定値はないが、パラメータ指標Z’は計算値を提供する。(例えば、温度やその他の基準(criteria)がそれを許容することから、炉が鋳造の準備ができた状態であれば、)Z’は、さらにステータス指標になるように処理できるであろう。
【0053】
ネットワーク373がZ’を提供できるようにするために、機械学習を含むいくつかの方法ステップを事前に実行しておく必要がある。便宜上、説明では各段階の文脈内において各ステップを説明する。説明では、準備段階(Preparation phase)**1(
図2参照)、トレーニング段階**2(
図3参照)、及び動作段階**3(
図4参照)において活動状態にある各構成要素を区別している。換言すれば、この説明全体を通して、**1/**2/**3として示されている参照は、同類であるがこれらの段階で異なる構成要素を表している。例えば、
図2のマシン121と
図4のマシン123は、物理的に同一のマシンであるが、一つの基準マシン(reference machine)として(又は監視/監督下にある一つのマシンとして)動作する。
【0054】
この説明では、段階**1/**2/**3を(パラメータ指標Z’を提供する)ネットワークを考慮して区別している。その考え方で、トレーニングは段階**2で生じる。
【0055】
しかしながら、他のトレーニングループが存在し得る。
・ 準備段階**1は、任意の選択で、トレーニングループ(
図5参照 規則421を得る際のサブステップのための繰り返しループを備える)を含み得る。
・ トレーニングは、**1及び**2にまたがるループを備えたモダリティ適応(
図6参照)にも適用可能である。
・ さらなるトレーニングループは、**1及び**2の幾つかのステップが繰り返されるので(
図7参照)、より大きな時間粒度(time granularity)で適用することができる。
・ ディスクリミネータとトランスフォーマ(transformer)をトレーニングするために、ネットワーク損失LOSSをパラメータとして含めることでさらなるトレーニングループが適用可能である。
【0056】
測定される(又は少なくともエミュレートされる)プロセスパラメータは、「x」又は「z」(マシン123内の左側で記号化されている)などの小文字が付される。
【0057】
図は、これを、パラメータx_1(マシン内の特定の場所、例えば上部の温度であり得る)とx_2(例えば、別の場所、下部、の温度)として示している。N個のプロセスパラメータ{x_n}Nと、少なくとも1つのさらなるパラメータzがある。下線“_”はプレースホルダである。
【0058】
測定データは、XやZなどの大文字で示される。パラメータ指標Z’は、事実上の(de-facto)測定データ又は人工的な測定データを表すため、プライム記号(’)で示されている。
【0059】
中間データ“Y”(又は“特徴(feature)データ”、測定されていない、出力データなし)に対して大文字の規則(uppercase convention)も適用される。
【0060】
時系列
データ(測定データ、中間データ)は、時系列、すなわち、後続の時点の時間順に索引される一連のデータ値の形で利用可能である。
【0061】
この図は、短い表記(長方形223)と行列によって時系列を紹介している。
【0062】
表記{X1...XM}は、測定データ要素Xm(又は略して「要素」)を備えた単一の(つまり、単変量)時系列を表している。この要素Xmは、時点1から時点M:X1,X2,...,Xm,...XMまで(すなわち、「測定時系列」)利用可能である。インデックスmは時点(time point)インデックスである。時点mの後には、通常は等間隔Δtにある時点(m+1)が続く。
【0063】
1例を挙げれば、M時点にわたる温度上昇がある:{1400°C...1500°C}。当業者は、データ値を、例えば、正規化された値[0,1]、又は{0.2...1}に事前処理することができる。測定データの形式は、スカラーやベクトルに限定されず、{X1...XM}は、時点1から時点Mまでの撮影された一連のM画像を表すこともできる。マシンが高炉である場合、画像は炉の羽口の内側から、又は高炉の直接環境から撮影することができる。画像は異常を検出するために撮影される。
【0064】
表記{{X1...XM}}Nは、時点1から時点Mまでのデータ要素ベクトル{X_m}Nを備えた多変量時系列(
図1では、行列の上の参照223)を表す。ベクトルは、1からMまでの任意の時点で、N個のデータ要素が使用可能であることを意味するカーディナリティ(cardinality)N(変量、即ち、当該測定データが利用可能であるプロセスパラメータの数)を有している。行列は、変量インデックスnを行インデックス(x_1からx_N)として示している。
【0065】
例えば、温度に対する単一の時系列は、圧力、材料の化学組成に関する測定データなどの単一の時系列を伴うことができる。
【0066】
当業者は、この説明が簡略化されていることを理解する。現実的な変量数Nは、数千に達しかつそれを超えることがあり得る。時系列は理想的ではない。場合によっては、要素が見当たらないが、熟練者はそのような状況に対応できる。
【0067】
時間間隔Δt及び時点Mの数の選択はプロセスにより異なる。時系列の全期間Δt*M(つまり、ウィンドウサイズ)は、最も長時間を要するプロセスパラメータシフトに対応する。例えば、炉では材料を処理するのに数時間かかるため、それに応じてΔt*Mが選択される。
【0068】
便利にも、間隔Δtは1~60分の範囲で選択され、かつ便利にも、Δt*Mは4時間~24時間の範囲で選択される。高炉の例では、8時間の勤務シフトに対応してΔt=15分及びM=32を適用することができる。
【0069】
時点tmはネットワークによる処理のための時間を指定しているので、一部の測定データは前処理できる。例えば、温度センサは分毎にデータを提供し得るが、Δt=15分では、一部のデータは破棄するか、Δt間で平均化するか、他の前処理がなされる。
【0070】
データは異なる産業マシンに由来する可能性があるので、データ起源は、時として{ }又は{{...}}の前に1、2などで示されることがある。図の例では、2{{...}}は、多変量時系列がマシン123から来たものであることを示している。
【0071】
説明するように、コンピュータはXからYへの変換を適用する。結果の値は、多変量時系列にすることもできる。カーディナリティにはKが付される。
【0072】
参照
ここで使用されているように、参照1**は現実世界(物理的世界)における産業マシンを指し、参照2**はデータ(コンフィグレーション283など)を指し、参照3**はハードウェア及びコンピュータによる実行モジュール(ニューラルネットワーク373など)を指し、かつ参照4**又は5**は、方法ステップを指している(
図5を参照)。
【0073】
コンピュータ
「コンピュータ」(単数で、参照なし)の表記は、演算機能又はコンピュータによる実行モジュール(computer-implemented modules)の機能(処理ユニットなど、そのようなユニットの時分割資源)を表す。機能は、異なる物理コンピュータに分散することができ、その場合、コンピュータによる実行モジュールは、そのような異なるコンピュータに分散される。
【0074】
図はまた、コンピュータプログラム又はコンピュータプログラム製品を示す。コンピュータプログラム製品は-コンピュータのメモリにロードされ、かつコンピュータの少なくとも1つのプロセッサによって実行されると-コンピュータによる実行方法のステップを実行する。換言すれば、プログラムはモジュールに対して命令を提供する。
【0075】
別の視点からみれば、図は、コンピュータシステムによって実行されるとき、コンピュータによる実行方法のステップを実行する複数のコンピュータによる実行モジュールを含むコンピュータシステムのモジュールを示す。産業マシンは、コンピュータによる実行モジュールとは見なされない。
【0076】
機械学習ツールとそのコンフィグレーション
図は、層状に配置されたニューロン(1本の垂線内のニューロン(複数))(円記号)を備えたニューラルネットワーク373をも象徴的に示している。ニューラルネットワーク373は、機械学習ツールの一例である。ここで説明する他のモジュールの一部も機械学習を使用する。
【0077】
このようなネットワークに対しては、次の2つの基本的な記述子(descriptors)がある。
・ ハイパーパラメータのセット及び
・ コンフィグレーション。
【0078】
ハイパーパラメータは、
・ ニューロンによって実行される関数を定義する(例えば、重み付けされた入力を合計し、閾値又は他の関数を適用する)、
・ 組み合わせたニューロンが実行する関数(例えば、畳み込みカーネル(convolution kernels)、ガウスカーネル等間でのカーネル関数の選択)を定義する。
・ 層内のニューロンの配置と層間の相互接続を定義する(例えば、第1層と第2層間の例のような、層間の全結合)。
【0079】
ハイパーパラメータは、当該技術分野において通常、ネットワークアーキテクチャとして説明される。ハイパーパラメータはトレーニングされることはない。
【0080】
コンフィグレーション283は、ニューロンからニューロンへの重み付けされたデータ転送(data transmission)を定義し、ニューロンのためのバイアス(又はオフセット)値を定義する。コンフィグレーション283は、トレーニングによって取得される。
【0081】
ニューラルネットワーク373は、ここでは一例としてのみ図示されている。
図6-
図7は、それに対しアーキテクチャ及びコンフィグレーション規約(configuration conventions)も適用するための(データモダリティを適応する、関連データを選択する、データトランスフォーマ、などのような)さらなるツールを示す。
【0082】
マシン間のドメインの相違
産業マシン123(
図1)は、その測定データのために利用可能な唯一のマシンではない。当該測定データのために他の産業マシンも利用可能であり、以下「ピアマシン」という。ピアマシンは同じ原理に従って動作するが、いくつかの点で異なり得る。
【0083】
このような違いに関して、産業マシンは第1ドメインと第2ドメインに属するとみなすことができる。
【0084】
ピアマシンの1つは、ネットワークをトレーニングするための追加の測定データを提供できる。この説明ではマシン111/112を(パラメータzに対する実際の測定データZを提供する)ソースと呼び、かつマシン123(ネットワークが指標Z’を計算する対象である)をターゲットと呼んでいる。トレーニング用のデータを提供するピアマシンは、「基準マシン」とも呼ばれる。ソースマシンとターゲットマシンはいずれも、準備段階**1で使用される測定データを提供できるという意味で基準マシンである。そのうちの1つ(ソースマシン)には、もう1つ(ターゲットマシン)にはないセンサがある。ソースマシンは、トレーニング段階**2で使用されるデータのソース(供給源)である。
【0085】
基準マシン間のドメインの違いは、異なる動作モード(operational modes)によって特徴付けられる。このような動作の違いは、マシンのパラメータ化の違い、又はマシンによって動作される基礎となるプロセスに影響を与える異なる環境によって誘発される。
【0086】
高炉の例でみると、2台のピアマシンは、同じ金属を処理し、同じ材料(鉱石やコークスなど)を使用し、同じパラメータ等に対して比較可能な場所にセンサを有する。
【0087】
しかし、第1の炉は第2の炉よりも大きい(サイズの違い)か、又は炉の形状がわずかに異なり、溶融材料の体積、溶融時間などの測定値にわずかに異なる結果を生むことがあり得る。高さの異なる炉ではサイズの違いが顕著である(1例を
図8で参照)。
【0088】
ドメインの違いにより、同じ等価パラメータに対して異なる測定データが発生する。
【0089】
ドメインの違いは、異なる測定方法を適用した結果でもある。
【0090】
ドメインの違いにより、コンピュータはデータ変換を適用する。
【0091】
実例を挙げるために、音楽について簡単に言及することにする。オルガンパイプも高炉も、空気の移動で音が出る。長いオルガンパイプは短いオルガンパイプよりも低い周波数で演奏する。しかし、人間であるリスナーは、異なる相対周波数の連続した音色(tones)を意味するメロディーを認識することを学習済みである。メロディーは絶対周波数(absolute frequencies)に関して不変である。
【0092】
炉からの音は測定データとして使用できるため、変換によってピッチ(音の高低)からメロディーが分離される。換言すれば、適切に適応されたトランスフォーマにより、2つの時系列1{X1...XM}及び2{X1...XM}を第1炉と第2炉から受領し、かつ(比較などによって)さらに処理できるメロディー(ドメイン不変量)が提供される。
【0093】
データモダリティ
説明を簡単にするために、説明では最初に、測定データが同じデータモダリティを持つと見做す。時系列の測定データは、スカラーのみを含むと見做す。任意のモダリティ適応は、
図6について論じる。
【0094】
パラメータ指標Z’を判断することについて
説明をさらに簡単にするために、説明は最初に、全てのパラメータx_1からx_Nがパラメータzに影響を与える可能性があるとも見做す。したがって、コンピュータはそれら全てを処理する。任意の選択で、関連する相違点を考慮することができ、
図7を用いて細部を説明する。
【0095】
コンフィグレーション(configuration)を生成するステップ
以下では、コンフィグレーションを取得するために1台以上のコンピュータが実施するステップについて説明する。図の説明はステップの順序に従う。しかしながら、
図2-
図4を最後からスタートして概観すると便利である。
【0096】
その動作中(
図4参照)、産業マシン123は、パラメータ指標Z’を提供するニューラルネットワーク373に測定データを提供する。
【0097】
ネットワーク373は、以下の理由でZ’を提供することができる。
・ コンフィグレーション283は、(zについてのデータを備えた)実質的に完全なしかし産業マシン112(これについてはzについての適切なデータが利用可能である)に由来する測定履歴データを処理することによって、トレーニング段階(
図3)におけるより前に取得済みである。より詳細には、時系列212、272は、共通の測定データ1{{X1...XM}}N及びさらなるデータ1{Z1...ZM}を含んでいる。
・ コンフィグレーション283を備えたネットワーク373はデータ2{{X1...XM}}Nを備えた測定時系列223を直接処理できないが、トランスフォーマ323はデータ2{{X1...XM}}Nを備えた時系列223を中間時系列243 2{{Y1...YM}}Kに変換する。
【0098】
トランスフォーマ323は、以下の理由により、中間時系列243を提供することができる。
・ 準備段階[
図2参照]中に、トランスフォーマ323の先行トランスフォーマ(predecessor)311/321は、時系列{{X1...XM}}Nを中間時系列{{Y1 ...YM}}Kに変換するよう設定済みである。
・ トランスフォーマ311/321のコンフィグレーションは、中間時系列がもはや物理的に異なるマシン111及び121間のドメインの違いに特化したものとならないように、共通の変換規則を最適化するディスクリミネータ361によって確立済みである。
【0099】
コンフィグレーション283を取得するためのネットワーク372(
図3参照)のトレーニングは、以下の理由で可能である。
・ トレーニング中のネットワークは測定履歴データを(ピアマシンから、ここではマシン112から)受領することができる、理由はトランスフォーマ322がそのデータを変換できるからである。時系列1{Z1...ZM}は変換する必要はない。
【0100】
測定データの起源
表示を簡素なものに保つため、
図2-
図4は、センサから到来する測定データを示す。しかしながら、一部の測定データは、人-マシンインターフェースなどを介して到着し得る。便宜上、センサは、小さな丸い形の正方形の記号内のX1...XN、またZをも提供する測定データとして参照される。
【0101】
図2は、変換規則のセットを取得する(421)ための準備段階**1にある産業マシン及びコンピュータモジュールを示す。
【0102】
産業マシン111、121は、それぞれセンサX1~XN(共通のセンサ、理由は共通のプロセスパラメータのデータを提供するため)を有する。マシン111は、単変量測定時系列211 1{{X1...XM}}Nを提供するセンサZ(太字枠内)を有するが、マシン121はそのようなセンサを有しない。
【0103】
情報測定データZは、直接ではないが、規則の確立中にピア間で「交換」される。マシン111は「ソース」であり、マシン121は「ターゲット」である。マシン111は、センサZを備えた唯一のマシンである。
【0104】
パラメータの等価性
プロセスパラメータxnは、両方の基準マシンで利用可能である(ソース用の1xn及びターゲット用の2xn、
図1のマトリックスを参照)。例えば、両マシンは炉の上部の温度パラメータを有する。プロセスパラメータx(n+1)は、例えば下部の温度であり、両マシンでも利用可能である。
【0105】
換言すれば、両方の基準マシンで使用できるプロセスパラメータは等価パラメータである。等価パラメータは、等しい変量インデックス(variate index)nで特徴付けられている。
【0106】
等価パラメータは等価の測定データに繋がる。
【0107】
マシン111(「ソース」)のセンサXnとマシン121(「ターゲット」)のセンサXnは、結果として得られる測定データが、例えばいずれも上部の温度センサである同じパラメータを参照するので等価である。マシン111のセンサXnとマシン121のセンサX(n+1)は等価ではない。
【0108】
パラメータは単数(例えば、上部の温度)であるが、測定データは複数(例えば、2つの炉)である。
【0109】
センサの等価性
等価パラメータのための測定データを提供する異なるマシンのセンサは等価のセンサである。等価のセンサが同じ原理に従って動作する必要はない。
【0110】
例えば、(ソースの)センサXnと(ターゲットの)Xnは、両方ともトップガスの温度を提供する。Xn(ソースマシン)は侵襲的アプローチ(センサを取り付けたバー(棒)を鉱石(burden)の上で移動すること)によってこれを行い、Xn(ターゲットマシン)はサウンドトランスミッター(音送信装置)とレシーバー(受信装置)によって鉱石の上方(つまり、炉装入(furnace charge)より上方)でこれを行う。
【0111】
履歴データ
概して、機械学習ツール(ネットワークなど)のトレーニングには履歴データが必要である。トランスフォーマ311/321の動作は、
・ 基準マシン111からの測定履歴データを備えた多変量測定時系列211,1{{X1...XM}}N)、及び
・ 物理的に異なる第2の基準マシン121からの測定履歴データを備えた2番目の多変量測定時系列221、2{{X1...XM}}N)、
を受領することで始まる。
【0112】
図は矢印により受領を示しているが、当業者は時系列をデータベースに蓄積する。ここでこれ以上の説明は不要である。
【0113】
しかしながら、{{X1...XM}}Nをトレーニング中のツール(規則を学習するためのトランスフォーマなど)に供給するだけでは、M*Nデータ要素(
図1のマトリックスを参照)には不十分である。次の2つの任意の選択がある。
【0114】
第1には、履歴データは、複数の物理マシン111/112から(2台のマシンからだけでなく、より多くのマシンから)来る可能性がある。この任意の選択は、単にボックスの破線の繰り返しによって象徴的に示している。しかしながら、実際問題として、そのようなアプローチ(異種フリート(heterogeneous fleet))は炉では利用できない。
【0115】
第2に、物理マシン111/112が繰り返しデータを提供する。2番目の任意の選択が好ましい。
【0116】
図2は、複数の{{...}}N(及び{{...}}Kも)を2つの円形の長方形で(重ねて)表している。図は矢印Qも示している。さらなる表記は{{{...}}}Qになる。
【0117】
Qは多変量測定時系列の数である。全てのマシンが等しいQを持つと便利である。しかしながら、実際問題として、これは常に可能であるとは限らない。マシンは、そのピアマシン(Qが大きい)よりも「若い」(Qが小さい)可能性がある。
【0118】
以上で紹介した例(Δt*M=8時間)についてみると、マシンはQ=3*365の多変量測定時系列を1年間にわたって収集する。換言すれば、Qは年間1000の大きさを持つことができる。利用可能なすべてのデータを考慮する必要はない。マシンがメンテナンスモード又は修理モードになっていることがあるため、測定履歴データを利用できない場合がある。
【0119】
8時間のタイムスロット(時間枠)は例証に便利である。しかしながら、コンピュータは多変量時系列の特徴を計算するためにウィンドウスロットT_WINDOWが適用できる。このようなウィンドウスロットは、数時間(例えば、8時間)の持続時間を有する移動時間窓(moving time window)として定義することができる。ウィンドウスロットは、より長い期間(例えば、1年以上)にわたって収集され重なったデータ上を(T_OVERLAP)で移動することができる。T_WINDOWとT_OVERLAPの間の好都合な関係は、例えば、T_WINDOW>T_OVERLAP(あるいは等しい)である。T_OVERLAPが1~3時間の間であって、T_WINDOWが6~10時間程度であると都合がよい。
【0120】
履歴データからのドメインの違いの削除
前述の(パラメータ、センサにおける)等価にもかかわらず、履歴データはなおドメインの違いを反映している。
【0121】
コンピュータは、多変量測定時系列211、221を処理することによって、変換規則251(
図2)/252(
図4)のセットを取得する(
図5のステップ421)。変換規則251/252は、トランスフォーマ311/321が多変量測定時系列211、221({{..}})をそれぞれ多変量特徴時系列231及び241に変換できるようにする。これら特徴時系列1{{Y1...YM}}K及び2{{Y1...YM}}は、基準マシン111/121のドメインの違いに対して不変である。
【0122】
換言すれば、ドメイン-不変の特徴が抽出済みである。
【0123】
複数の多変量測定時系列(Qを参照)を使用することは今述べた通りであり、変換がそのことを変えることはない。
【0124】
トランスフォーマ311/321はここでは2つのボックスで示されている。理由は、時系列211は時系列231に変換され、時系列221は時系列241に変換されるからである。変換が(図のように)並列に実行されるか、連続して実行されるかは関係がない。いずれのトランスフォーマも共通の規則251/252を使用する。
【0125】
規則はトレーニングによって取得される。ここに人間の専門家を巻き込む必要はない。換言すれば、ドメイン適応(測定データの代わりに特徴を有する)は教師なしである。専門家の注釈やラベルを使用する必要はない。任意の選択で、専門家は既存の専門知識に基づいて、いくつかの規則を人手で定義できる。一部の規則を人手で定義することで、トレーニングの収束はさらに保証される。
【0126】
変換規則
ネットワークは異なるドメインからのトレーニングデータでトレーニングが完了しているので、転移学習(transfer learning)が関与する。
【0127】
簡単に言えば、第1及び第2の多変量測定時系列211、221をそれぞれ第1及び第2の多変量特徴時系列231、241に変換する変換が存在する。多変量特徴時系列231、241は、基準マシン111、121のドメインの違いに対して不変である。
【0128】
換言すれば、変換によってドメイン固有ではなくなった特徴を抽出する。測定時系列は第1のスペース(又は入力スペース)に属するものとみなすことができ、特徴時系列は第2のスペース(又は特徴スペース)に属するものとみなすことができる。入力スペースはドメインの違いに敏感であるが、特徴スペースは敏感ではない。
【0129】
スペースXと回帰のための連続したスペースを表すスペースYの間には、想定された因果関係がある。
【0130】
両方のドメイン(ソース=s、ターゲット=t)の周辺分布(marginal distribution)は類似している:ps(ys|T(xs))≒pt(yt|T(xt))、ここで、ysはソースドメイン(“s”)の出力データ、かつytはターゲットドメイン(“t”)の出力データである。
【0131】
変換規則は、Y=T(X)の原則に従う。より詳細には、トランスフォーマ311、321は時間間隔Δtに従って動作する:t=1で、トランスフォーマ311はデータベクトル1{X1}Nをデータベクトル1{Y1}Kに変換し、トランスフォーマ321は、データベクトル2{X2}Nをデータベクトル2{Y2}Kに変換する。次に、それらは、t=2で1{X2}Nを1{Y2}Kに、かつ2{X2}Nを2{Y2}Kに変換し、t=Mになるまで続く。
【0132】
{{X1...XM}}Nの変量(variates)は{{Y1...YM}}Kの変量と必ずしも同一ではなく、変換によって変量カーディナリティ(通常はN>K)を変更できる。
【0133】
ここでは、変換規則は、tm時点でのデータ(垂直な(vertically)、時間間隔tmに対する処理データベクトル)で動作するために導入されているが、任意の選択で、先行時点(m-1)、(m-2)などからデータを処理するように規則を拡張することができる。当業者は、そのような再帰型ネットワークに精通している。
【0134】
当該分野における変換について既に説明したので、当業者は既存の変換スキームから選択可能である。
【0135】
便宜上、以下のさらなる論文について述べる:
・ Hochreiter,他“Long Short-Term Memory”Neural Computation 1997年11月,https://doi.org/10.1162/neco.1997.9.8.1735(1997)
・ Ashish Vaswani他,“Attention Is All You Need”,Advances in Neural Information Processing Systems 30, NIPS 2017,(2017)
・ Anastasia Borovykh他,“Conditional Time Series Forecasting with Convolutional Neural Networks”,arXiv:1703.04691(2017)
・ Aaron van den Oord他,“WaveNet: A generative model for raw audio”, arXiv:1609.03499,(2016)
【0136】
マルチモードの多変量時系列の特徴は、それに限定されるものではないが、畳み込み(convolutional)ニューラルネットワークと組み合わさる可能性がある再帰型ニューラルネットワーク(Hochreiter)、又はトランスフォーマ(Vaswani)又はウェーブネット(Borovykh、van den Oord)のようなアルゴリズムによって抽出される。
【0137】
変換関数Tは、両条件付き確率分布ps(t(xs)|ys)≒pt(t(xt)|yt)の非類似度を最小化することによって同定し得る。
【0138】
ドメイン不変の特徴を定義するための変換関数t()は、通常、敵対的深層学習モデル(adversarial deep learning model)をトレーニングすることによって見つけられる、トレーニングでは、変換を行うことで、出力を予測する回帰モデルの損失を最小限に抑えつつ、最後はソースドメインとターゲットドメインの区別が互いに不能な特徴が生成される。
【0139】
以下の出版物はさらなる背景情報を提供している。
Y. Ganin他,“Domain-adversarial training of neural networks,”Journal of Machine Learning Research, vol. 17, no. 59, pp. 1-35,(2016)
【0140】
トランスフォーマのトレーニングの例
この説明では、トランスフォーマがすでに規則251/252を取得していることを前提としている。以下で、敵対的(深層)学習を適用して規則を取得するための任意の選択によるアプローチについて説明する。
【0141】
このアプローチは、規則取得421(
図5参照)のステップのサブステップとして提示される2つの方法ステップによって要約できる。変換規則251/252のセットの取得421は、以下を繰り返すコンピュータで実行することができる。
【0142】
変換ステップ431において、コンピュータは、予備変換規則のセットを使用することで、(第1の)多変量測定時系列211を(第1の)多変量特徴時系列231に変換し、(第2の)多変量測定時系列221を(第2の)多変量特徴時系列241に変換する。詳細は以上で既に説明済みである。
【0143】
識別ステップ(discriminating step)441において、コンピュータは、ディスクリミネータモジュール361を使用して、第1及び第2の特徴時系列231、241の起源(origin)を、(第1の)及び(第2の)多変量測定時系列211、221に由来するものとして区別する(又は「識別する」)。最初の繰り返しにおいて、ディスクリミネータ361は、それらを「容易に」識別することができる。
図2は、このことを学習時間(繰り返しのための全時間)と共に略図で象徴的に示している。左側(早期の学習)では、ディスクリミネータは:1(最初のマシン/ドメイン)又は2(2番目のマシン/ドメイン)から、XとYを区別している。右側では、ディスクリミネータはそれができない。
【0144】
変更ステップ451において、コンピュータは、予備変換規則のセットを変更する(又は、現在の繰り返しの規則を変更する)。
【0145】
コンピュータは、ディスクリミネータ361がもはやデータ起源が(すなわち、1又は2から)識別できなくなるまで、ステップ431、441、及び451を繰り返す。データ起源が識別できなくなったと判断するために、ディスクリミネータ361は、敵対的損失ADLOSSを計算することができる。ディスクリミネータ361は、ADLOSSが最大値に達するまで、動作し続ける(そして規則を変更させる)。
【0146】
変換規則251/252は、次のステップで適用される最終規則になる。
【0147】
この特定のアプローチにおいて、規則は逆説的に出現する学習目標を備えた学習プロセスによって取得される。
【0148】
換言すれば、トランスフォーマ311/321とディスクリミネータ361との組み合わせは、特徴がソースマシンから又はターゲットマシンに、関連付けられているかどうか分類(又は「予測」)するために(規則に対応して変更された設定で)トレーニングされる。
【0149】
換言すれば、同じエンコーダ(又は、繰り返し中に準備される規則を備えた、トランスフォーマ)が、ソースドメイン及びターゲットドメイン(又は第1及び第2の基準マシン)と、敵対的ディスクリミネータ(即ち、ディスクリミネータ361)の助けを借りてドメイン不変表現(domain-invariant representations)を抽出することが期待されるエンコーダとで共用される。
【0150】
さらなる詳細については、以下の論文を参照することができる。
・ Zhang他,“Domain-Invariant Adversarial Learning for Unsupervised Domain Adaption”,arXiv:1811.12751,(2018)
・ Xie他,“Learning Semantic Representations for Unsupervised Domain Adaptation@, Proceedings of the 35th International Conference on Machine Learning, PMLR 80:5423-5432,(2018)
・ Avisek Lahiri他,“Unsupervised Domain Adaptation for Learning Eye Gaze from a Million Synthetic Images: An Adversarial Approach”, In Proceedings of the 11th Indian Conference on Computer Vision, Graphics and Image Processing (2018)
【0151】
敵対的トレーニングは、次でさらに概説されている。Goodfellow, Ian J., Pouget-Abadie, Jean, Mirza, Mehdi, Xu, Bing, Warde-Farley, David, Ozair, Sherjil, Courville, Aaron C., and Bengio, Yoshua. Generative adversarial nets. NIPS,2014
【0152】
学習アプローチによる規則の取得は、準備段階**1に属す。これは、次に説明するネットワークのトレーニングと同じではない。
【0153】
図3は、基準産業マシン112、トランスフォーマモジュール322(略して「トランスフォーマ322」)及びトレーニング段階**2中のネットワーク372(トレーニング中)を示す。
【0154】
トランスフォーマ322は、多変量測定時系列212を多変量特徴時系列323に変換する(
図5のステップ452)。時系列212は、時系列211(
図2参照)と同じであり得る。トランスフォーマ322は、変換規則252を適応する(確定時の、
図2の規則251を参照)。複数の重なった矩形によって象徴されるように、トランスフォーマ322は、複数の多変量測定時系列を処理する(
図2で紹介したQを参照)。
【0155】
コンピュータは、基準マシン112から、通常は複数系列でもある、さらなるプロセスパラメータ(z)の測定データ(Z)を備えた、単変量測定時系列272(すなわち、1{Z1...ZM})を受領する(
図5のステップ462)。その意味で、産業マシン112は、実際の測定(センサX1乃至XMから、及びセンサZからなど)の測定データを提供する基準として機能する。
【0156】
ネットワーク372は、入力のところで第1の多変量特徴時系列(232)により、出力のところで単変量測定時系列(272)によってトレーニング中である(
図5のステップ472)。
【0157】
当業者は、適切なハイパーパラメータ、最適化の目標(optimization goals)等を用いてトレーニングを行うことができる。例として、損失関数(loss function)が特定の事前に定義された値に達したときにトレーニングが終了する。トレーニング中は、中間計算値LOSS(又は「ネットワーク損失」)が変化して最終的に最小値に達し、その結果重みとバイアス値をコンフィグレーションに引き継ぐことができる。換言すれば、LOSSはネットワーク内部処理ループの制御パラメータである。
【0158】
LOSSはネットワーク372の外部にあるループを制御するためにも使用できる。図は、中間計算値LOSSがネットワーク372によって提供され得ることを示している。
図7に関して説明するように、LOSSは、セレクタ(選択)トレーナー380によってさらなるループで使用できる。換言すれば、LOSSは、1つ以上のネットワーク外部処理ループの制御パラメータでもあり得る。
【0159】
また、LOSSは、変換規則を最適化するパラメータとしてトランスフォーマ(
図2参照)に提供することができる。
【0160】
図4は、パラメータ指標Z’を提供するための、動作段階**3にある(
図1の)産業マシン123及びトランスフォーマモジュール323(
図3を参照)を示す。
図4は、その詳細について以上で説明済みの
図1の更新版である。
【0161】
コンピュータは、産業マシン123に対する測定データを備えた多変量測定時系列223(2{{X1...XM}}Nとも表記される)を受領する(
図5のステップ513参照)。ここで、マシン123は、監視下にあるマシンであり、パラメータzを測定するセンサを持たない。
【0162】
トランスフォーマ323は、多変量測定時系列223を多変量特徴時系列243(同じく2{{Y1...YM}}K)に変換する。
【0163】
ネットワークは、多変量特徴時系列243を受領し、パラメータ指標Z’を提供する。ネットワーク373は、コンフィグレーション283を備えて図示されている。
【0164】
なお、時系列は、-
図2-
図4に関係なく-単数(singlar)時系列である(すなわち、特定の勤務シフトなど)。
【0165】
図5は、トレイン(train)ニューラルネットワーク372/373のコンピュータによる実行方法400の、及び産業マシン123の動作中にネットワークを使用するコンピュータによる実行方法500のフローチャートを示す。
【0166】
方法400は、ニューラルネットワーク373をトレーニングするためのコンピュータによる実行方法である。ネットワーク373は、後に多変量測定時系列(
図1の223を参照)を処理し、かつそれによって産業マシンのためのさらなるプロセスパラメータ(
図1の173、zを参照)のパラメータ指標Z’を提供するために、産業マシン(
図1の123を参照)の特定のプロセスパラメータ(
図1の183を参照)のインスタンスを表す測定データを用いてトレーニングされる。
【0167】
受領ステップ411において、コンピュータは、第1の基準マシンから測定履歴データを備えた第1の多変量測定時系列を受領し、物理的に異なる第2の基準マシンから、測定履歴データを備えた第2の多変量測定時系列を受領する(1{{X1...XM}}N)及び2{{X1...XM}}N)、
図2の左側を参照)。
【0168】
取得ステップ(obtaining step)421において、コンピュータは、第1及び第2の多変量測定時系列を処理することによって変換規則251/252のセットを取得し、それにより、トランスフォーマ(
図2の311/321を参照)は、変換規則251/252によって、それぞれ第1及び第2の多変量測定時系列を第1及び第2の多変量特徴時系列に変換することが可能になる(
図2の231、241を参照、1{{Y1...YM}}K,2{{Y1...YM}}Kとも表記される)。多変量特徴時系列は、第1及び第2の基準マシン(
図2、111、121参照)のドメインの違いに対して不変である(両基準マシンは異なるドメインに属し、説明した細部を備えている)。
【0169】
変換ステップ452において、コンピュータは、変換規則を適用するトランスフォーマ(
図3の322)によって、第1の多変量測定時系列を第1の多変量特徴時系列に変換する。
【0170】
受領ステップ(462)において、コンピュータは、第1の基準マシン(
図3の112参照)から、さらなるプロセスパラメータzの測定データZを備えた単変量測定時系列を受領する。
【0171】
ニューラルネットワーク372をトレーニングする472ステップにおいて、コンピュータは、ネットワークの入力のところで第1の多変量特徴時系列、及びネットワークの出力のところで単変量測定時系列を用いてネットワークをトレーニングする。
【0172】
図5はまた、変換規則のセットを得る421ための任意の選択による詳細(破線のボックス)を示す。コンピュータは、ステップ431、441、及び451を繰り返し実行する。
【0173】
変換ステップ431において、コンピュータは、予備規則である変換規則のセットを用いて、第1の多変量測定時系列を第1の多変量特徴時系列に変換し、第2の多変量測定時系列を第2の多変量特徴時系列に変換する。
【0174】
識別ステップ441において、コンピュータは、ディスクリミネータ361を実行して、第1及び第2の特徴時系列の起源を第1及び第2の多変量測定時系列として区別(又は識別)する。
【0175】
変更ステップ451において、コンピュータは、予備変換規則のセットを変更する。
【0176】
繰り返しステップは、ディスクリミネータ(361)がデータ起源を識別できなくなったときに停止する(即ち、するまで(UNTIL)又はするうち(WHILE)繰り返しループ)。
【0177】
方法400におけるステップの詳細は、この説明の文脈において説明される。
【0178】
産業マシンの動作中にネットワークを使用するコンピュータによる実行方法500に関しては、
図4を参照し、図はそのステップを示す。
【0179】
受領ステップ513では、コンピュータは、監視下にある産業マシンの測定データを備えた多変量測定時系列を受領し、変換ステップ523では、多変量測定時系列を多変量特徴時系列に変換し、かつ動作ステップ533では、ネットワーク373を動作してパラメータ指標Z’を提供する。
【0180】
方法400及び500のためのコンピュータは、物理的に異なるコンピュータであり得ることに再度留意されたい。共通データは、(トレーニングで得られる)コンフィグレーション283であろう。
【0181】
精度の向上
以上で簡単に述べたように、指標Z’の精度は、測定データZ(利用可能であれば)との差に対応する。ごく単純には、差が小さくなるほど精度が高くなる。
【0182】
ここでは、精度を高める2つのアプローチについて説明する。一方のアプローチ(適応)は処理される変量の数を増やし、他のアプローチ(選択)は変量の数を減らす。
【0183】
一見すると、両アプローチは矛盾しているように見えるが、関連している。便宜上、説明ではそれらを個別に紹介し、後で関係について論じる。
【0184】
データモダリティ適応
ここまでの説明では、{X1...XM}がM個の連続するスカラー値のシーケンスである、スカラーのみを含む時系列の測定データのアプローチについて説明してきた。コンピュータがスカラーを整数(integer)で表すか実数(real number)で表すかは関係がない。
【0185】
この説明では、他のモダリティの測定データを如何にして処理に適応させるかについて論じる。
【0186】
図6は、任意の選択で測定データのモダリティ適応を実行する任意の選択のモダリティ適応モジュール393(又は略して「アダプタ」)を示す。例として、図は、動作段階**3中のアダプタ393を示すが、アダプタ393は他の段階でも同様に動作し得る。
【0187】
アダプタ393は、多変量測定時系列({{X1...XM}とも表記される})213を産業マシン(例としてマシン113として示しているが、データ起源“1”又は“2”は関係ない)から受領する。用語「受領」は、方法ステップ411ならびに方法ステップ513(
図5参照)に対応する。従ってアダプタ393は、受領を実行するモジュールの一部として実行し得る。
【0188】
多変量測定時系列{{X1...XM}}Nは、スカラー要素または非スカラー要素のシーケンスである単変量測定時系列{X1...XM}を含む。この例では、単変量時系列{X1...XM}nは、非スカラー要素Xnを含む必要がある。
【0189】
補足として、多くの状況において、1{Z1...ZM}はスカラーのみである。しかしながら、これは必須ではないため、1{Z1...ZM}はベクトル等でもあり得る。
【0190】
アダプタ393は、スカラーを備えた時系列を実質的に変えずに他のモジュールに渡す。これらの時系列は、アダプタを経由する必要さえない。
【0191】
アダプタ393は、非スカラー要素Xnを個別に処理するが、各n毎に規則に従う。この図は、非スカラー要素Xnを高度に象徴化して示している。これにより、コンピュータは要素を処理し、ここでは、それらにXn~と表記するスカラーを(分類することで)割り当てることができる。~は、割り当てが行われたことのみを示す。
【0192】
最初のシナリオでは、非スカラー要素は画像(つまり、色を示すピクセルを備えたマトリックス)である。例えば、画像は、時間間隔Δt毎に撮影されたマシンの検査孔を示す(画像に対する露光時間は無視できる)。
【0193】
高炉の例では、検査では羽口を使用して、炉内の炉火を視聴者に見せる。炉火は動作中に定期的に発生する。ごく単純化すれば、炉火を示す画像は1にコード化でき、炉火のない画像は0にコード化できる。結果の時系列は{..}~={0,0,1,1,1,0...0,0}~であり、かつコンピュータは、(規則を得る421又は変換する523等の、
図5参照、或いは受領する513ことさえ含めた、各ステップに従った、)処理を継続する。
【0194】
2番目のシナリオでは、非スカラー要素は音のシーケンスである。例えば、Xnは、マイクロフォンセンサから、Δt=15分の時間間隔の持続時間に対する音響記録であり得る。当業者は、例えば、20kHzの周波数の音をサンプリングすることによって、秒毎の音響サンプル15*60*20,000に繋がる適切な音処理を適用することができる。
【0195】
アダプタ393は、次いで、これらの数百万のサンプルを単一のスカラーに処理する。(例示するように)例えば、スカラーは、Δt中のピッチ(音の高低)上げ、Δt中のピッチ下げ、Δt中のピッチ一定、Δt中のピッチの上げ下げなどを示すことができる。
【0196】
アダプタ393は、それ以前にトレーニングされた、(人間の専門家による)潜在的に監督下にあるニューラルネットワークによって実行することができる。例えば、アダプタ393は、(高炉内の)炉火を示す注釈画像(annotated images)、(高炉から取得する)注釈音シーケンス(annotated sound sequences)などを用いてトレーニング済みであり得る。アダプタ393を、画像の抽象表現(abstract representation)を同定できるようにするため、教師なしの方法でトレーニングすることもできる。これにより、画像の報知的な内容(informative content)は確実に最大化される。その後、このプロセスによって画像のシーケンスはスカラーの幾つかのシーケンスに縮小される。
【0197】
スカラーを割り当てることは、必ずしも測定データが指標Z’に関連付けられていることを意味するわけではない。図は、適応が異なるトレーニングがなされたネットワークを使用することで、同じ入力Xnに対してスカラーが異なるXn~とXn~~になり得ることを示している。図中の「6」と「7」は説明のために採用したものである。同じ入力に対して異なるスカラーを使用した場合の結果については、以下で論じる。
【0198】
関連性選択
一部のプロセスパラメータは、パラメータzに関連付けられていない。換言すれば、プロセスパラメータ(N変量のカーディナリティを備えた、x_1からx_N、)のセット全体は、次のように分割できる。
・ パラメータzに関連付けられたHプロセスパラメータx_1からx_Hの最初のサブセット(「関連パラメータセット」)、及び
・ パラメータzに関連付けられていない(N-H)プロセスパラメータの第2のサブセット。
【0199】
遥かに脱線して音楽を例に採ると、少なくともリスナーにとってはメロディーが「ラルゴ」又は「アレグロ」で演奏されるかどうかは関係がなく、メロディーは同じである。
【0200】
理想的な状況では、ネットワーク373は、第2のサブセットのパラメータについての測定データを単に無視するようにトレーニング済みであろう。現実的なトレーニングシナリオでは、依然として一部の測定データ(第2のサブセット)が指標Z’に寄与する可能性がある。
【0201】
なお、トレーニングは人間の専門家の参加なしで可能であることに留意されたい。しかしながら、トレーニングにそのような監督を導入する必要はない。
【0202】
産業マシンの専門家は、経験に基づいて関連するパラメータセットを同定できる。専門家が同定した関連性を持つ測定データのみがコンピュータに送られる。この点での専門家の巻き込みは、一度限りの負担(effort)である。
【0203】
例えば、炉の電力消費は温度(模範的なzパラメータ)に影響を及ぼさず、かつ消費データは(消費についての測定を処理しないことによって)無視することができる。
【0204】
人手による事前選択及びそれに代わるものに加えて、関連性同定は、測定データを選択することによって、コンピュータによって実行し得る。次に一例を示す。
【0205】
図7は、関連する測定データの選択を任意の選択で実行する任意の選択のデータセレクタモジュール383(又は略して「セレクタ」)を示す。同図は、動作段階**3中のセレクタ383を最上部に示し、
図5から幾つかの方法ステップを繰り返すことによる段階**1及び**2におけるその調整(conditioning)を説明する。
【0206】
動作中、セレクタ383は、多変量測定時系列223(
図1及び
図3参照、{X1...XM}}Nとも表記)を受領し、かつ変更した多変量測定時系列223({{X1...XM}}H)をトランスフォーマ323に送る(
図4参照)。
【0207】
変更(modification)は選択(つまり、N変量から{{...}}HでのH変量への、H<Nでの能動的な(positive)選択)である。換言すれば、このことは関連するパラメータセットの選択(但し、測定データレベルでの)に対応している。図は、セレクタ383の出力におけるセンサ符号(sensor symbols)がより少ない(マシンと比較して)ことを示すことでその選択を説明している。
【0208】
削減した測定データセットで方法500(
図5を参照)を実行することで、指標Z’を提供する精度を向上させることができる。このアプローチは逆説的に見えるかもしれないが、セレクタはネットワークによって処理されるべき一部のデータをブロックするが精度は向上する。しかしながら、選択により、ネットワーク373が潜在的に無視できずかつ潜在的に精度を低下させる可能性がある測定データを整理している。ここでも、ネットワークトレーニング(
図2~
図4参照)の教師なしの特質が注目される。
【0209】
セレクタ383は、最小化のための値としてネットワーク372/373の損失関数を使用する学習プロセスによってコンフィグレーション(構成)することができる。このアプローチは、セレクタトレーナーモジュール380(又は略して「セレクタトレーナー」)によって象徴的に示される。
【0210】
セレクタトレーナー380は、ネットワーク372(トレーニング中、LOSSを受領中)などの他のモジュールと通信し、フローチャートによって象徴的に示される方法を実行する。
【0211】
中間値LOSS(intermediate value LOSS)-換言すれば損失関数-が最小値(「最小損失」、YES)を有するまでの繰り返し中に、セレクタトレーナー380は、(予備)選択({{...}}H∈{{...}}N)を変更し、かつ構成要素(複数)に、(任意の選択で)受領し411、規則を取得し421、変換し452、(任意の選択で)受領し462かつトレーニングを行う472ことを意味する、方法400を実行させる(
図4参照)。受領することは任意の選択である、理由は受領したデータは変更されないからである。
【0212】
換言すれば、変量の予備選択{{...}}Hは、最終選択のためにLOSSが最小になるまで、別の選択に置き換えられる。
【0213】
したがって、説明は簡略化しているが、当業者はこの方法を実施できる。例えば、受領ステップ462を繰り返す必要はない(理由は、1{Z1...ZM}は選択から除外されないからである)。
【0214】
損失関数が最小に到達すると、
図1-
図5で説明した演算を{{...}}Nの代わりに{{...}}Hを用いて行う(つまり、図の最上部について説明したような動作段階**3中において)。
【0215】
任意の選択で、セレクタ383の動作は、測定時系列の幾つかの変量を選択し、かつ結果として生じる測定時系列に組合せ又はマージすることによって強化し得る。例えば、セレクタ383は{...}1,{...}2、及び{...}3(3つの場所からの温度など)を選択し、かつそれらを新しい単変量測定時系列({{...}}Hの一部になるように)に結合する。
【0216】
当業者であれば、主成分分析により選択・組合せなどを実行することができる。
【0217】
論考
データモダリティ適応(
図6参照)及び関連性選択(
図7参照)を実行するモジュールは、段階**3において互いに独立して動作する。
【0218】
しかしながら、計算資源を節約するために、少なくとも動作段階**3の間は、データセレクタ383をモダリティアダプタ393よりも優先して動作させるのが便利である。例えば、音響記録をスカラーになるように処理し(
図6参照)、次いでセレクタ383によってスカラーをフィルタで除去する必要はない。
【0219】
スカラーへの適応により、ネットワークはより多くのデータを処理できるようになるが、一部の適応ではエラーが発生する可能性がある。スカラーを割り当てることで、アダプタは異なるトレーニングがなされたネットワークを適用できる。Z’に関連する結果もあれば、そうでない結果もある。例えば、上げ/下げ/一定ピッチなどのカテゴリへの音シーケンスの分析は、Z’に関連しない可能性があるが、振動/安定音などの他のカテゴリへの分析は実際にZ’に関連している可能性がある。その意味で、異なる方法で取得されたスカラーXn~とXn~~(
図6参照)は、関連性の選択(relevance selection;
図7参照)として扱うことができる。
【0220】
ネットワーク損失のフィードバック
説明は、ここで、直ぐに
図2-
図3に戻る。既に説明したように、トランスフォーマがドメインの違いに不変な特徴時系列を提供するように、変換規則は準備段階**1で取得される。敵対的損失(ADLOSSは
図2参照)は基準(criterion)である。
【0221】
精度をさらに高めるために、ネットワーク損失を考慮することによって変換規則を強化することができる(LOSS(損失)、
図3参照)。これにより、コンピュータは、準備段階**1及びトレーニング段階**2(予備トレーニングとして実行される)のステップを含むループ内で動作することができる。
【0222】
換言すれば、ニューラルネットワーク372の変換規則のセットを得るステップ421及びトレーニング472のステップが繰り返される。トランスフォーマ311/321はさらに、トレーニング中のネットワークによって提供されるネットワーク損失(LOSS)を受領する。繰り返しは、ネットワーク損失が最小になると停止できる。
【0223】
任意のアプローチを説明するために、
図2はLOSS(損失)の受領を破線で示す。ADLOSS(敵対的損失)は最大化されるが、LOSS(損失)は最小化される。当業者は他の規約(conventions)を適用することができる。
【0224】
使用-例
図8は、産業マシン111、121、123が高炉である使用-例を示す。複数の温度パラメータ(200°Cから2000°Cまでの異なる値で記号化)と他のプロセスパラメータ(圧力値、材料の化学組成など)がある。
【0225】
ドメインの違いは、次の2つの例で示されている、サイズの違いは、炉111が炉121及び123よりも小さいことで記号化している。炉111、121は、溶融材料の温度(溶銑温度)に対して異なる測定方法を適用する。炉111での遠距離センサ151(カメラ記号(camera symbol))は、Δt(例えば15分)で利用可能なサンプルを備えた時系列をもたらす。炉121のオペレータによる人手による測定は、論考の背景で述べたように、より大間隔(例えば、90分)で利用可能な温度値をもたらす。
【0226】
この例示的な使用例では、仮想センサ153は、(温度に対する)指標Z’をΔtで取得する。カメラ記号は小さな点の記号で示されているが、この仮想センサは、コンピュータ実施方法(computer executing method)500(
図5参照)を表している。換言すれば、図は概して、産業マシンのパラメータを表すパラメータ指標Z’を得るための、方法500を実行(performing)(又は実施(executing))する(及び方法400に従ってトレーニング中の)コンピュータの使用を示している。方法500を実行するコンピュータの使用は、仮想センサを使用することと見做すことができる。
【0227】
炉121及び123は物理的に同じものであり得るが、炉123は将来運転するものであり、1つのネットワーク372/373はトレーニングを完了している。この図は、炉123のオペレータがサンプルを採取することを示しておらず、そのためこの使用事例が人間の測定への関与を最小限に抑えるのに役立ち、かつオペレータが炉の動作によりよく集中できることを示している。換言すれば、炉121は、追加の仮想センサによって炉123にアップグレードすることができる。
【0228】
仮想センサを使用することにより、そうでなければデータが見当たらなかったであろう、プロセスパラメータを測定することで、既存の産業マシンを比較する機会を得ることができる。
【0229】
トレーニングデータとしての人工測定データの使用
指標Z’は、補足的な履歴データとして、トレーニングデータとして使用できる。
【0230】
汎用コンピュータ(Generic computer)
図9は、ここで説明する技術で使用可能な汎用コンピューティングデバイスの一例を示す。
図9は、本明細書で説明する技術により使用可能な汎用コンピューティングデバイス900及び汎用モバイルコンピューティングデバイス950の一例を示す概略図である。コンピューティングデバイス900は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを意図している。汎用コンピューティングデバイス900は、
図1のコンピュータシステム100に対応する。コンピューティングデバイス950は、携帯情報端末、携帯電話、スマートフォン、運転支援システム又は車両のボードコンピュータ(例えば、車両401、402、403、
図1参照)及び他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すことを意図している。例えば、コンピューティングデバイス950は、コンピューティングデバイス900と対話するためのユーザ(例えば、高炉のオペレータ)によってフロントエンドとして使用可能である。ここに示されている構成要素、それらの接続及び関係、ならびにそれらの機能は、例示のみを目的としており、本書に記載及び/又は請求される発明の実行(implementation)を限定することを意図していない。
【0231】
コンピューティングデバイス900は、プロセッサ902、メモリ904、記憶装置906、メモリ904及び高速拡張ポート910に接続する高速インターフェース908と、低速バス914及び記憶装置906に接続する低速インターフェース912とを含む。構成要素902、904、906、908、910、及び912の各々は、様々なバスを使用して相互接続され、共通のマザーボードに、又は適宜他の様式で装着し得る。プロセッサ902は、高速インターフェース908に結合されたディスプレイ916のような外部入/出力デバイスのGUIのためのグラフィック情報を表示するために、メモリ904又は記憶装置906に保存された命令を含むコンピューティングデバイス900内で実行するための命令を処理することができる。他の実行において、複数のプロセッサ及び/又は複数のバスが、複数のメモリ及び複数のタイプのメモリと共に、適宜使用され得る。また、複数のコンピューティングデバイス900は、(例えば、サーババンク、ブレードサーバのグループ、又はマルチプロセッサシステムとしての)必要な動作を部分的に提供する各デバイスと接続し得る。
【0232】
メモリ904は、コンピューティングデバイス900内で情報を記憶する。1つの実行においては、メモリ904は揮発性メモリユニット(単数又は複数)である。別の実行においては、メモリ904は、不揮発性メモリユニット(単数又は複数)である。メモリ904はまた、磁気ディスク又は光ディスクなどのコンピュータ読取り可能な別の形態の媒体であり得る。
【0233】
記憶装置906は、コンピューティングデバイス900に大容量記憶装置を提供することができる。1つの実行においては、記憶装置906は、フロッピーディスク装置、ハードディスク装置、光ディスク装置、又はテープ装置、フラッシュメモリもしくは他の同様の半導体メモリを使用した記憶装置、又は記憶領域ネットワーク又は他のコンフィグレーション内の装置を含むデバイスのアレイなどのコンピュータ読取り可能な媒体であり得るか又はこれらを含み得る。コンピュータプログラム製品は、情報担体中で実体的に具体化することができる。コンピュータプログラム製品は、実施時に、上記のような1つ以上の方法を実行する命令も含み得る。情報担体は、メモリ904、記憶装置906、又はプロセッサ902のメモリなどのコンピュータ又はマシンで読取り可能な媒体である。
【0234】
高速コントローラ908は、コンピューティングデバイス900のための帯域幅消費型動作(bandwidth-intensive operations)を管理し、一方、低速コントローラ912は、より低い帯域幅消費型動作を管理する。このような機能の割り当ては例示的なものに過ぎない。1つの実行においては、高速コントローラ908は、メモリ904、ディスプレイ916(例えば、グラフィックプロセッサ又はアクセラレータを介して)、及び様々な拡張カード(図示せず)を受け入れ得る高速拡張ポート910に結合される。この実行において、低速コントローラ912は、記憶装置906及び低速拡張ポート914に結合される。様々な通信ポート(例えば、USB、Bluetooth、イーサネット、無線イーサネット)を含み得る低速拡張ポートは、例えば、ネットワークアダプタを介して、キーボード、ポインティングデバイス、スキャナ、又はスイッチ又はルータのようなネットワークデバイスなどの1つ以上の入出力デバイスに結合し得る。
【0235】
コンピューティングデバイス900は、図示するように、多数の異なる形態で実行し得る。例えば、標準サーバ920として、又はそのようなサーバのグループ内で複数回実行し得る。ラックサーバシステム924の一部としても実行し得る。加えて、それはラップトップコンピュータ922等のパーソナルコンピュータにおいて実行し得る。代替的には、コンピューティングデバイス900からの構成要素は、デバイス950のようなモバイルデバイス(図示せず)内の他の構成要素と組み合わせ得る。そのようなデバイスは各々、1つ以上のコンピューティングデバイス900、950を含み得、かつ全体システムを、互いに通信する複数のコンピューティングデバイス900、950から構成してもよい。
【0236】
コンピューティングデバイス950は、他の要素の内、プロセッサ952、メモリ964、ディスプレイ954のような入/出力デバイス、通信インターフェース966、及びトランシーバ968を含む。デバイス950はまた、追加の記憶を提供するために、マイクロドライブ又は他のデバイスのような記憶装置を備え得る。各構成要素950、952、964、954、966、及び968は、様々なバスを使用して相互接続され、かついくつかの構成要素は、共通のマザーボードに、又は適宜他の仕方で取り付け得る。
【0237】
プロセッサ952は、メモリ964に格納された命令を含む、コンピューティングデバイス950内の命令を実施できる。プロセッサは、別個のかつ複数のアナログ及びデジタルプロセッサを含むチップのチップセットとして実行し得る。プロセッサは、例えば、ユーザーインターフェースの制御、デバイス950によるアプリケーション動作、及びデバイス950による無線通信のような、デバイス950の他の構成要素の調整を提供し得る。
【0238】
プロセッサ952は、ディスプレイ954に結合されたディスプレイインターフェース956及び制御インターフェース958を介してユーザと通信し得る。ディスプレイ954は、例えば、TFT LCD(薄膜トランジスタ液晶ディスプレイ)又はOLED(有機発光ダイオード)ディスプレイ、又は他の適切なディスプレイ技術であり得る。ディスプレイインターフェース956は、グラフィック及び他の情報をユーザに提示するためにディスプレイ954を駆動するための適切な回路を含み得る。制御インターフェース958は、ユーザからコマンドを受領し、かつプロセッサ952に提供するためにそれらを変換し得る。加えて、外部インターフェース962は、デバイス950と他のデバイスとの近域通信を可能にするために、プロセッサ952と通信して提供し得る。外部インターフェース962は、例えば、いくつかの実行における有線通信、又は他の実行における無線通信を提供でき、複数のインターフェースもまた使用し得る。
【0239】
メモリ964は、コンピューティングデバイス950内で情報を記憶する。メモリ964は、コンピュータ読取り可能な媒体又はメディア、揮発性メモリユニット(単数又は複数)、又は不揮発性メモリユニット(単数又は複数)のうちの1つ以上として実行できる。拡張メモリ984も提供され、かつ例えばSIMM(シングルインラインメモリモジュール)カードインタフェースを含み得る、拡張インターフェース982を介してデバイス950に接続し得る。このような拡張メモリ984は、デバイス950のための追加の記憶スペースを提供し得、または、デバイス950のためのアプリケーション又は他の情報をも記憶し得る。具体的には、拡張メモリ984は、上述のプロセスを実行または補足するための命令を含み得、かつ、安全な情報をも含み得る。したがって、例えば、拡張メモリ984は、デバイス950のセキュリティモジュールとして機能し得、かつデバイス950の安全な使用を可能にする命令によってプログラムし得る。加えて、安全なアプリケーションは、ハッキング不可能な方法でSIMMカードに同定情報を置くなど、追加情報とともにSIMMカードを介して提供し得る。
【0240】
メモリは、例えば、以下で論じるように、フラッシュメモリ及び/又はNVRAMメモリを含み得る。1つの実行において、コンピュータプログラム製品は、情報担体に実体として感知できる状態で埋め込まれている。コンピュータプログラム製品は、実施時に、上述のような1以上の方法を実行する命令を含む。情報担体は、メモリ964、拡張メモリ984、又は例えばトランシーバ968又は外部インターフェース962を介して受領し得るプロセッサ952のメモリのようなコンピュータ又はマシン読取り可能な媒体である。
【0241】
デバイス950は、必要に応じてデジタル信号処理回路を含み得る、通信インターフェース966を介して無線で通信し得る。
通信インターフェース966は、とりわけ、GSM音声通話、SMS、EMS、又はMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、又はGPRSのような、様々なモード又はプロトコルの下での通信を提供し得る。そのような通信は、例えば、無線周波数トランシーバ968を介して生じ得る。加えて、短距離通信は、Bluetooth、WiFi、又は他のそのようなトランシーバー(図示せず)を使用するなどで生じ得る。加えて、GPS(全地球測位システム)受信モジュール980は、デバイス950で実行されるアプリケーションによって適宜使用し得る、追加のナビゲーション及び位置関連の無線データをデバイス950に提供し得る。
【0242】
デバイス950は、ユーザから音声情報を受信しそれを使用可能なデジタル情報に変換可能なオーディオコーデック960を使用して、可聴的に通信することもできる。オーディオコーデック960は、同様に、例えばデバイス950の受話器内のスピーカを介するなどして、ユーザのために可聴音を生成し得る。そのような音は、音声電話通話からの音を含み得、録音された音(例えば、音声メッセージ、音楽ファイルなど)を含み得、かつ、デバイス950で動作するアプリケーションによって生成された音も含み得る。
【0243】
コンピューティングデバイス950は、図に示すように、多数の異なる形態で実行し得る。例えば、携帯電話980として実行し得る。スマートフォン982、携帯情報端末、又は他の同様のモバイルデバイスの一部としても実行し得る。
【0244】
ここで説明するシステム及び技術の様々な実行は、デジタル電子回路、集積回路、特別に設計されたASICs(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実行は、特殊目的又は汎用のものであって、記憶システム、少なくとも一つの入力デバイス及び少なくとも一つの出力デバイスからデータ及び命令を受領しかつそれらにデータ及び命令を送るよう結合された、少なくとも一つのプログラマブルプロセッサを含むプログラマブルシステムで実施可能及び/又は解釈可能な、一つ以上のコンピュータプログラムでの実行を含み得る。
【0245】
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション又はコードとしても知られている)は、プログラマブルプロセッサ用のマシン命令を含み、かつ高水準の手続き型及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械語で実行することができる。ここで使用されるように、「マシン読取り可能な媒体」及び「コンピュータ読取り可能な媒体」という用語は、マシン命令及び/又はデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、装置(apparatus)及び/又はデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、マシン命令をマシン読取り可能な信号として受領するマシン読取り可能な媒体を含む。「マシン読取り可能な信号」という用語は、プログラマブルプロセッサにマシン命令及び/又はデータを提供するために使用する任意の信号を指す。
【0246】
ユーザとの対話を提供するために、ここで説明するシステム及び技術は、ユーザに情報を表示するための表示デバイス(例えば、CRT(ブラウン管)又はLCD(液晶ディスプレイ)モニタ)と、ユーザがコンピュータに入力を行うことができるキーボード及びポインティングデバイス(例えば、マウス又はトラックボール)を有するコンピュータで実行することができる。別の種類のデバイスを使用して、ユーザとの対話を提供することもできる、例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)とすることができる、また、ユーザからの入力は、音響、音声、又は触覚入力を含む任意の形式で受信できる。
【0247】
ここで説明するシステム及び技術は、バックエンドコンポーネント(例えば、データサーバ)を含む、又はミドルウェアコンポーネント(例えば、アプリケーションサーバ)を含む、又はフロントエンドコンポーネント(例えば、ユーザがここに記載されるシステム及び技術の実行(implementation)とそれを介して対話可能なグラフィカルユーザインターフェース又はウェブブラウザを有するクライアントコンピュータ)、又はそのようなバックエンド、ミドルウェア、又はフロントエンドコンポーネントの任意の組み合わせを含む、コンピューティングデバイスにおいて実行することができる。システムの構成要素は、任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互接続可能である。通信ネットワークの例としては、ローカルエリアネットワーク(“LAN”)、ワイドエリアネットワーク(“WAN”)、及びインターネットが含まれる。
【0248】
コンピューティングデバイスは、クライアント及びサーバを含むことができる。クライアントとサーバは概して互いに離れており、通常は通信ネットワークを介して対話する。クライアントとサーバの関係は、それぞれのコンピュータで実行されかつ互いにクライアントとサーバの関係を持つコンピュータプログラムによって生じる。
【0249】
いくつかの実施形態を説明した。それにもかかわらず、本発明の本質及び範囲から逸脱することなく様々な変更をなし得ることが理解されよう。
【0250】
さらに、図に描かれたロジックフローは、望ましい結果を得るために、示されている特定の順序又は連続した順序を必要としない。加えて、他のステップを提供し得、又は記載されたフローからステップを削除し得、記載されたシステムに対して他の構成要素を追加又は除去し得る。したがって、他の実施形態は以下の特許請求の範囲内である。
【国際調査報告】