特開2019-185580(P2019-185580A)IP Force 特許公報掲載プロジェクト 2015.5.11 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ アズビル株式会社の特許一覧
<>
  • 特開2019185580-異常検出装置および方法 図000004
  • 特開2019185580-異常検出装置および方法 図000005
  • 特開2019185580-異常検出装置および方法 図000006
  • 特開2019185580-異常検出装置および方法 図000007
  • 特開2019185580-異常検出装置および方法 図000008
  • 特開2019185580-異常検出装置および方法 図000009
  • 特開2019185580-異常検出装置および方法 図000010
  • 特開2019185580-異常検出装置および方法 図000011
  • 特開2019185580-異常検出装置および方法 図000012
  • 特開2019185580-異常検出装置および方法 図000013
  • 特開2019185580-異常検出装置および方法 図000014
  • 特開2019185580-異常検出装置および方法 図000015
  • 特開2019185580-異常検出装置および方法 図000016
  • 特開2019185580-異常検出装置および方法 図000017
  • 特開2019185580-異常検出装置および方法 図000018
  • 特開2019185580-異常検出装置および方法 図000019
  • 特開2019185580-異常検出装置および方法 図000020
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】特開2019-185580(P2019-185580A)
(43)【公開日】2019年10月24日
(54)【発明の名称】異常検出装置および方法
(51)【国際特許分類】
   G06N 3/04 20060101AFI20190927BHJP
   G06N 3/08 20060101ALI20190927BHJP
【FI】
   G06N3/04
   G06N3/08
【審査請求】未請求
【請求項の数】9
【出願形態】OL
【全頁数】23
(21)【出願番号】特願2018-78212(P2018-78212)
(22)【出願日】2018年4月16日
(71)【出願人】
【識別番号】000006666
【氏名又は名称】アズビル株式会社
(74)【代理人】
【識別番号】100098394
【弁理士】
【氏名又は名称】山川 茂樹
(74)【代理人】
【識別番号】100064621
【弁理士】
【氏名又は名称】山川 政樹
(72)【発明者】
【氏名】茂木 貴弘
(57)【要約】
【課題】計算能力が比較的低い機器においても、特徴量を自動で学習および獲得して異常を検出することができる異常検出装置および方法を提供することを目的とする。
【解決手段】
異常検出装置1は、一次元の時系列信号である一次元信号を監視対象から取得する一次元信号取得部2と、取得された一次元信号を入力として、一次元畳み込み層を有する一次元CNNを学習させて一次元信号の特徴量を算出し、特徴量に基づいて一次元信号を分類して監視対象の異常を検出するように、一次元CNNを構築するための設定情報を出力する学習部5と、設定情報を記憶する特徴量設定記憶部61および分類器設定記憶部62と、特徴量設定記憶部61および分類器設定記憶部62に記憶された設定情報に基づいて構築された一次元CNNに、未知の一次元信号を入力して、監視対象の異常を検出する検出部6とを有する。
【選択図】 図1
【特許請求の範囲】
【請求項1】
一次元の時系列信号である一次元データを監視対象から取得する信号取得部と、
取得された前記一次元データを入力として、ニューラルネットワークを学習させて、前記一次元データの特徴量を算出し、前記特徴量に基づいて前記一次元データを分類して前記監視対象の異常を検出するように、前記ニューラルネットワークを構築するための設定情報を出力する学習部と、
前記設定情報を記憶する記憶部と、
前記記憶部に記憶された前記設定情報に基づいて構築された前記ニューラルネットワークに、前記監視対象から新たに取得された一次元の時系列信号である未知の一次元データを入力して、前記監視対象の異常を検出する検出部と、
を備え、
前記ニューラルネットワークは、前記一次元データに対して一次元の畳み込みを行う一次元畳み込み層を含む
ことを特徴とする異常検出装置。
【請求項2】
請求項1に記載の異常検出装置において、
前記学習部は、
前記一次元データの特徴量を算出し、算出された前記特徴量に基づいて、前記ニューラルネットワークを構築するための特徴量の設定情報を出力する特徴量学習部と、
前記特徴量の設定情報を入力として前記一次元データを分類し、分類結果に基づいて、前記ニューラルネットワークを構築するための分類の設定情報を出力する分類器学習部と、
を備え、
前記記憶部は、前記特徴量の設定情報と前記分類の設定情報とを記憶し、
前記検出部は、
前記記憶部に記憶された前記特徴量の設定情報に基づいて、未知の前記一次元データの特徴量を算出する特徴量算出部と、
前記記憶部に記憶された前記分類の設定情報に基づき、前記特徴量算出部により算出された前記特徴量を入力として、未知の前記一次元データの分類を行い異常を検出する分類部と
を備えることを特徴とする異常検出装置。
【請求項3】
請求項1または請求項2に記載の異常検出装置において、
前記ニューラルネットワークは、少なくとも一層の前記一次元畳み込み層と少なくとも一層の全結合層とを有することを特徴とする異常検出装置。
【請求項4】
請求項1から3のいずれか1項に記載の異常検出装置において、
前記ニューラルネットワークは、前記一次元畳み込み層の出力を入力とする再帰型ニューラルネットワーク層をさらに有することを特徴とする異常検出装置。
【請求項5】
請求項4に記載の異常検出装置において、
前記再帰型ニューラルネットワーク層は、LSTM層であることを特徴とする異常検出装置。
【請求項6】
一次元の時系列信号である一次元データを監視対象から取得する信号取得ステップと、
取得した前記一次元データを入力として、ニューラルネットワークを学習させて、前記一次元データの特徴量を算出し、前記特徴量に基づいて前記一次元データを分類して前記監視対象の異常を検出するように、前記ニューラルネットワークを構築するための設定情報を出力する学習ステップと、
記憶部に記憶された前記設定情報に基づいて構築された前記ニューラルネットワークに、前記監視対象から新たに取得された一次元の時系列信号である未知の一次元データを入力して、前記監視対象の異常を検出する検出ステップと、
を備え、
前記ニューラルネットワークは、前記一次元データに対して一次元の畳み込みを行う一次元畳み込み層を含む
ことを特徴とする異常検出方法。
【請求項7】
請求項6に記載の異常検出方法において、
前記学習ステップは、
前記一次元データの特徴量を算出し、算出された前記特徴量に基づいて、前記ニューラルネットワークを構築するための特徴量の設定情報を出力する特徴量学習ステップと、
前記特徴量の設定情報を入力として前記一次元データを分類し、分類結果に基づいて、前記ニューラルネットワークを構築するための分類の設定情報を出力する分類器学習ステップと、
を備え、
前記検出ステップは、
前記記憶部に記憶された前記特徴量の設定情報に基づいて、未知の前記一次元データの特徴量を算出する特徴量算出ステップと、
前記記憶部に記憶された前記分類の設定情報に基づき、前記特徴量算出ステップで算出された前記特徴量を入力として、未知の前記一次元データの分類を行い異常を検出する分類ステップと、
を備えることを特徴とする異常検出方法。
【請求項8】
請求項6または請求項7に記載の異常検出方法において、
前記ニューラルネットワークは、前記一次元畳み込み層の出力を入力とする再帰型ニューラルネットワーク層をさらに有することを特徴とする異常検出方法。
【請求項9】
請求項8に記載の異常検出方法において、
前記再帰型ニューラルネットワーク層は、LSTM層であることを特徴とする異常検出方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、異常検出装置および方法に関し、特に一次元の時系列信号を用いた異常検出技術に関する。
【背景技術】
【0002】
工場やプラントの生産設備では、安全操業や安定品質で生産を行うために、設備内に配置されたセンサなどで計測した温度や圧力、流量、調節弁の開度、振動、トルクなどのセンサデータを制御および監視している。これらのセンサデータは一次元の時系列信号であり、従来からこのような一次元の時系列信号の異常を検出する手法が各種提案されている。
【0003】
一次元の時系列信号(以下、「一次元信号」という。)の異常を検出する従来の手法は多種多様あるが、一般的には、従来の異常検出装置において以下のような手順が用いられる。
【0004】
まず、異常検出装置がセンサから一次元信号を取得する。異常検出装置は、異常検出の精度を高めるために、取得した一次元信号に対して信号振幅の正規化やフィルタリングなどの前処理を施す。その後、異常検出装置は、前処理された一次元信号から予め設定された特徴量を計算する。特徴量は複数算出される場合もある。そして、異常検出装置は、その特徴量に基づいて、入力された一次元データが正常か異常かを分類する。
【0005】
ここで、従来の異常検出装置における特徴量は、異常検出装置の設計者の知見に基づいて設計や選択がされる指標値であり、例えば、一次元データの振幅や周波数成分、位相またはこれらの組み合わせで演算される指標値が特徴量として用いられてきた。
【0006】
また、特徴量に基づいて一次元信号の異常と正常とを分類する別の従来の異常検出装置では、予め設計者が決めた閾値に基づいて分類を行う手法や、統計的検定による手法などが用いられている。例えば、特許文献1は、予め設計者が信号を時間周波数分析して算出した特徴量に基づいて、全結合層のみを持つニューラルネットワークにより分類処理のみを自動で機械学習させる異常検出技術を開示している。
【0007】
一方で、近年における二次元画像の研究分野では、深層学習を利用した畳み込みニューラルネットワーク(以下、「CNN」という。)による分析技術が成果を挙げている。畳み込み層と全結合層とを有するCNNを用いることで、二次元画像の特徴量を自動で学習および獲得し、分類を行うことができることは良く知られている(例えば、非特許文献1参照)。
【0008】
上記のような二次元信号処理を行うCNNを用いて、一次元データが正常であるか異常であるかなどの分類を行う場合、分類対象の一次元データを二次元信号へ拡張してCNNへ入力し、入力信号の分類ができるよう機械学習させることが行われている。より詳細には、一次元の時系列信号を短時間フーリエ変換してスペクトログラムとして二次元信号へ変換することで、一次元データを二次元画像と同様に分析することが行われている。
【0009】
例えば、非特許文献2は、楽器音である一次元データをスペクトログラムへ変換し、畳み込み層と全結合層を有するCNNへ入力することで、楽器の分類を行った事例を報告している。
【0010】
ここで、従来の一次元信号を二次元信号へ変換してCNNの入力信号とする異常検出装置の動作例を図16および図17に示す。従来の異常検出装置の動作は、図16に示す学習処理と、図17に示す検出処理とに大別される。まず、図16の学習処理においては、予め正常と異常とが分類され、ラベル付けされた多量の一次元信号群(教師データ)を用いてCNNの学習を行う。
【0011】
より詳細には、従来例の異常検出装置は、まず、予め正常と異常とを分類しラベル付けされた一次元信号群を監視対象から取得する(ステップS500)。次に、取得された一次元信号は、ノイズの除去などの前処理が施される(ステップS501)。その後、一次元信号は短時間フーリエ変換により二次元信号へ変換される(ステップS502)。二次元信号へ変換された信号は、CNNへ入力され、順伝搬処理が行われる(ステップS503)。
【0012】
次に、CNNの出力に対して、損失関数による誤差が導出され(ステップS504)、誤差が十分に小さくなるまで(ステップS505:NO)CNN誤差逆伝搬処理が繰り返し行われる(ステップS506、S503、S504、S505)。そして、CNNの学習によって決定された重みパラメータが所定の記憶領域に記憶される(ステップS507)。
【0013】
上記の手順により学習を行った後、従来例の異常検出装置は、図17に示すように、ラベルが付されていない未知の一次元信号を取得する(ステップS510)。その後、取得された一次元信号のノイズ除去などの前処理を行い(ステップS511)、同様に、一次元信号を二次元信号に変換する(ステップS512)。
【0014】
次に、二次元化された信号が、学習済みのCNNに入力されて順伝搬処理が行われる(ステップS513)。その後、異常検出装置は、学習済みのCNNによって二次元信号に拡張された一次元信号が正常か異常かを示す分類結果を出力する(ステップS514)。
【先行技術文献】
【特許文献】
【0015】
【特許文献1】特許第6033140号公報
【非特許文献】
【0016】
【非特許文献1】松尾 豊 著「人工知能は人間を超えるか ディープラーニングの先にあるもの」,角川EPUB選書,2015年3月発行
【非特許文献2】Vincent Lostanlen and Carmine−Emanuele Cella:“DEEP CONVOLUTIONAL NETWORKS ON THE PITCH SPIRAL FOR MUSICAL INSTRUMENT RECOGNITION”,ISMIR2016
【非特許文献3】三村 正人 著「深層学習に基づくフロントエンド特徴強調と頑健な音声認識」,日本音響学会誌 73巻1号,pp.47−54(2017)
【発明の概要】
【発明が解決しようとする課題】
【0017】
しかし、従来の異常検出技術では、CNNへ信号を入力するごとに一次元信号を二次元信号へ変換する必要があるため、計算コストが高くなっていた。そのため、計算能力の比較的低い現場機器などの機器において、異常検出装置を実装して運用することが困難であった。
【0018】
本発明は、上述した課題を解決するためになされたものであり、計算能力が比較的低い機器においても、特徴量を自動で学習および獲得して異常を検出することができる異常検出装置および方法を提供することを目的とする。
【課題を解決するための手段】
【0019】
上述した課題を解決するために、本発明に係る異常検出装置は、一次元の時系列信号である一次元データを監視対象から取得する信号取得部と、取得された前記一次元データを入力として、ニューラルネットワークを学習させて、前記一次元データの特徴量を算出し、前記特徴量に基づいて前記一次元データを分類して前記監視対象の異常を検出するように、前記ニューラルネットワークを構築するための設定情報を出力する学習部と、前記設定情報を記憶する記憶部と、前記記憶部に記憶された前記設定情報に基づいて構築された前記ニューラルネットワークに、前記監視対象から新たに取得された一次元の時系列信号である未知の一次元データを入力して、前記監視対象の異常を検出する検出部と、を備え、前記ニューラルネットワークは、前記一次元データに対して一次元の畳み込みを行う一次元畳み込み層を含むことを特徴とする。
【0020】
また、本発明に係る異常検出装置において、前記学習部は、前記一次元データの特徴量を算出し、算出された前記特徴量に基づいて、前記ニューラルネットワークを構築するための特徴量の設定情報を出力する特徴量学習部と、前記特徴量の設定情報を入力として前記一次元データを分類し、分類結果に基づいて、前記ニューラルネットワークを構築するための分類の設定情報を出力する分類器学習部と、を備え、前記記憶部は、前記特徴量の設定情報と前記分類の設定情報とを記憶し、前記検出部は、前記記憶部に記憶された前記特徴量の設定情報に基づいて、未知の前記一次元データの特徴量を算出する特徴量算出部と、前記記憶部に記憶された前記分類の設定情報に基づき、前記特徴量算出部により算出された前記特徴量を入力として、未知の前記一次元データの分類を行い異常を検出する分類部とを備えていてもよい。
【0021】
また、本発明に係る異常検出装置において、前記ニューラルネットワークは、少なくとも一層の前記一次元畳み込み層と少なくとも一層の全結合層とを有していてもよい。
【0022】
また、本発明に係る異常検出装置において、前記ニューラルネットワークは、前記一次元畳み込み層の出力を入力とする再帰型ニューラルネットワーク層をさらに有していてもよい。
【0023】
また、本発明に係る異常検出装置において、前記再帰型ニューラルネットワーク層は、LSTM層であってもよい。
【0024】
また、本発明に係る異常検出方法は、一次元の時系列信号である一次元データを監視対象から取得する信号取得ステップと、取得した前記一次元データを入力として、ニューラルネットワークを学習させて、前記一次元データの特徴量を算出し、前記特徴量に基づいて前記一次元データを分類して前記監視対象の異常を検出するように、前記ニューラルネットワークを構築するための設定情報を出力する学習ステップと、記憶部に記憶された前記設定情報に基づいて構築された前記ニューラルネットワークに、前記監視対象から新たに取得された一次元の時系列信号である未知の一次元データを入力して、前記監視対象の異常を検出する検出ステップと、を備え、前記ニューラルネットワークは、前記一次元データに対して一次元の畳み込みを行う一次元畳み込み層を含むことを特徴とする。
【0025】
また、本発明に係る異常検出方法において、前記学習ステップは、前記一次元データの特徴量を算出し、算出された前記特徴量に基づいて、前記ニューラルネットワークを構築するための特徴量の設定情報を出力する特徴量学習ステップと、前記特徴量の設定情報を入力として前記一次元データを分類し、分類結果に基づいて、前記ニューラルネットワークを構築するための分類の設定情報を出力する分類器学習ステップと、を備え、前記検出ステップは、前記記憶部に記憶された前記特徴量の設定情報に基づいて、未知の前記一次元データの特徴量を算出する特徴量算出ステップと、前記記憶部に記憶された前記分類の設定情報に基づき、前記特徴量算出ステップで算出された前記特徴量を入力として、未知の前記一次元データの分類を行い異常を検出する分類ステップとを備えていてもよい。
【0026】
また、本発明に係る異常検出方法において、前記ニューラルネットワークは、前記一次元畳み込み層の出力を入力とする再帰型ニューラルネットワーク層をさらに有していてもよい。
【0027】
また、本発明に係る異常検出方法において、前記再帰型ニューラルネットワーク層は、LSTM層であってもよい。
【発明の効果】
【0028】
本発明によれば、一次元信号のままで処理を行う一次元CNNを利用するので、計算能力が比較的低い機器であっても、特徴量を自動で学習および獲得して異常の有無を検出することができる。
【図面の簡単な説明】
【0029】
図1図1は、本発明の第1の実施の形態に係る異常検出装置の機能構成を示すブロック図である。
図2図2は、本発明の第1の実施の形態に係る異常検出装置のハードウェア構成を示すブロック図である。
図3図3は、本発明の第1の実施の形態に係る異常検出装置で用いられる一次元CNNの構成を説明する図である。
図4図4は、本発明の第1の実施の形態に係る異常検出装置で用いられる一次元CNNの演算を説明する図である。
図5図5は、本発明の第1の実施の形態に係る異常検出装置の学習処理を説明するフローチャートである。
図6図6は、本発明の第1の実施の形態に係る異常検出装置の検出処理を説明するフローチャートである。
図7図7は、本発明の第2の実施の形態に係る異常検出装置の機能構成を示すブロック図である。
図8図8は、本発明の第2の実施の形態に係る異常検出装置で用いられる一次元CNNの構成を説明する図である。
図9図9は、本発明の第2の実施の形態に係るLSTM層を説明するためのブロック図である。
図10図10は、本発明の第2の実施の形態に係る異常検出装置の学習処理を説明するフローチャートである。
図11図11は、本発明の第2の実施の形態に係る異常検出装置の検出処理を説明するフローチャートである。
図12図12は、本発明の実施の形態に係る一次元信号の具体例を示す図である。
図13図13は、本発明の実施の形態に係る一次元信号の具体例を示す図である。
図14図14は、本発明の実施の形態に係る異常検出装置の効果を説明する図である。
図15図15は、本発明の実施の形態に係る異常検出装置の効果を説明する図である。
図16図16は、従来の異常検出装置による学習処理を説明するフローチャートである。
図17図17は、従来の異常検出装置による検出処理を説明するフローチャートである。
【発明を実施するための形態】
【0030】
以下、本発明の好適な実施の形態について、図1から図15を参照して詳細に説明する。各図について共通する構成要素には、同一の符号が付されている。
【0031】
[発明の原理]
本発明に係る異常検出装置は、異常検出の対象である一次元信号(一次元データ)を、二次元信号に変換する処理を行わずに直接ニューラルネットワークに入力し、さらに一次元で処理を行うことができる構成を用いる。
【0032】
前述したように、ニューラルネットワークのなかでもCNNは画像などの二次元信号の分析に広く利用されている。CNNは二次元信号だけでなく一次元信号の分析にも適用可能である。このことから、本発明に係る異常検出装置では、一次元信号の入力および処理が可能なCNNに着目する。
【0033】
また、前述したように、従来においては、監視対象から取得される信号が一次元信号であっても、一次元信号を二次元信号へ拡張することで、二次元で処理を行うCNNに適用していた。これに対し、本発明に係る異常検出装置に用いられるCNNは、監視対象から取得される一次元信号を一次元のまま入力信号とし、かつ一次元信号として処理する点に特徴がある。以下において、画像データなどの二次元信号を二次元処理するCNNと区別して、上記のような一次元処理を行うCNNを「一次元CNN」という。
【0034】
[第1の実施の形態]
図1は、本発明の第1の実施の形態に係る異常検出装置1の機能構成を示すブロック図である。
【0035】
[異常検出装置の機能ブロック]
異常検出装置1は、一次元信号取得部(信号取得部)2、一次元信号記憶部3、一次元信号前処理部4、学習部5、および検出部6を備える。異常検出装置1は、その機能を大きく分けると、学習部5と検出部6とに大別される。
【0036】
学習部5は、一次元信号を入力として、一次元CNNの学習を行い、一次元信号の特徴量を算出し、その特徴量に基づいて一次元信号を分類し、監視対象の異常を検出するように、一次元CNNを構築するための設定情報を出力する。
【0037】
検出部6は、設定情報に基づいて構築された一次元CNNに、監視対象から新たに取得された未知の一次元信号を入力して、監視対象の異常を検出する。
【0038】
一次元信号取得部2は、振動信号や圧力信号などの一次元の時系列信号を、例えば、ネットワーク通信などの電子的手段で監視対象から取得する。一次元信号取得部2は、学習部5が学習を行う際に用いる学習用の一次元信号、すなわち、異常または正常のラベル付けされた一次元信号を取得する。また、一次元信号取得部2は、検出部6が異常を検出する対象である未知の一次元信号を監視対象から取得する。なお、一次元信号取得部2は、複数のセンサから多チャネルで時系列の一次元信号を取得してもよい。
【0039】
一次元信号記憶部3は、一次元信号取得部2によって取得された一次元信号を一時的に記憶する。より詳細には、一次元信号記憶部3は、学習用に取得され、ラベル付けされた一次元信号、および異常検出の対象であるラベル付けされていない未知の一次元信号をそれぞれ一時的に記憶する。なお、一次元信号記憶部3は、一次元信号を一定区間切り出して記憶する。
【0040】
一次元信号前処理部4は、一次元信号記憶部3に記憶されている一次元信号に対する振幅正規化や定常ノイズを取り除くフィルタリングなどの処理を行う。なお、一次元信号の前処理は必要に応じて実施すればよく、一次元信号前処理部4を省略する構成を採用してもよい。
【0041】
学習部5は、特徴量学習部51および分類器学習部52を備える。
学習部5は、一次元信号取得部2によって取得された多数の一次元信号を学習し、検出部6が未知の一次元信号を正しく分類できるように、一次元CNNの演算内容を決定する。
【0042】
特徴量学習部51は、一次元信号の特徴量を算出し、算出された特徴量に基づいて、一次元CNNを構築するための特徴量の設定情報を出力する。したがって、特徴量学習部51は、一次元信号の特徴量の算出方法を学習する機能を有する。
【0043】
より詳細には、特徴量学習部51は、学習用の一次元信号に基づいて一次元CNNの学習を行う。特徴量学習部51は、一次元CNNの畳み込み層(一次元畳み込み層)により構成される。特徴量学習部51の学習によって得られた一次元信号の特徴量の算出方法である特徴量の設定情報は、後述する検出部6の特徴量設定記憶部61に記憶される。
【0044】
分類器学習部52は、特徴量の設定情報を入力として、一次元信号を分類し、分類結果に基づいて一次元CNNを構築するための分類器の設定情報(分類の設定情報)を出力する。より詳細には、分類器学習部52は、特徴量学習部51で算出された一次元信号の特徴量を入力として、一次元信号における正常と異常とを分類する方法、すなわち分類器を教師あり学習で学習する。分類器学習部52は、一次元CNNにおける全結合層により構成される。分類器学習部52によって出力された分類器の設定情報は後述する検出部6の分類器設定記憶部62に記憶される。
【0045】
検出部6は、特徴量設定記憶部61、分類器設定記憶部62、特徴量算出部63、分類部64、および出力部65を備える。
検出部6は、学習部5によって学習された一次元CNNの演算の設定情報に従って、未知の一次元信号が正常か異常かを分類して一次元信号の異常を検出する。
【0046】
特徴量設定記憶部61は、特徴量学習部51から出力される特徴量の設定情報を記憶する。より詳細には、特徴量設定記憶部61は、学習により決定された一次元CNNの畳み込み層における重みパラメータの値などを記憶する。
【0047】
分類器設定記憶部62は、分類器学習部52から出力される分類器の設定情報を記憶する。より詳細には、分類器設定記憶部62は、学習により決定された一次元CNNの全結合層における重みなどのパラメータの値を記憶する。
【0048】
特徴量算出部63は、特徴量設定記憶部61に記憶された特徴量の設定情報に基づいて、未知の一次元信号の特徴量を算出する。より詳細には、特徴量算出部63は、特徴量設定記憶部61から学習済み一次元CNNの重みなどのパラメータの値を読み込んで、一次元CNNの畳み込み層の演算を行い、未知の一次元信号の特徴量を算出する。
【0049】
分類部64は、分類器設定記憶部62に記憶された分類器の設定情報に基づいて、特徴量算出部63によって算出された特徴量を入力として、未知の一次元信号の分類を行い異常を検出する。より詳細には、分類部64は、特徴量算出部63によって算出された特徴量を入力として、分類器設定記憶部62から学習済みの一次元CNNの重みなどのパラメータの値を読み込んで、一次元CNNの全結合層の演算を行い、未知の一次元信号の分類を行う。
【0050】
ここで、学習部5および検出部6は、同じ構造の畳み込み層と全結合層とを有する一次元CNNで構成され、互いに対応する機能である学習と検出とを行う。なお、本実施の形態で用いられる一次元CNNの構造についての詳細は後述する。
【0051】
出力部65は、分類部64による一次元信号の分類結果を出力する。出力部65は、例えば、画面などに分類結果などの異常の有無を示す情報を表示したり、外部の記録装置や制御装置、監視装置へ分類結果を示す信号を送出してもよい。
【0052】
[異常検出装置のハードウェア構成]
次に、上述した構成を有する異常検出装置1を実現するハードウェアの構成例について、図2を参照して説明する。
【0053】
異常検出装置1は、バス101を介して接続されるCPU103と主記憶装置104とを有する演算装置102、通信制御装置105、センサ106、外部記憶装置107、表示装置108等を備えるコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。
【0054】
CPU103と主記憶装置104とは、演算装置102を構成する。主記憶装置104には、CPU103が各種制御や演算を行うためのプログラムが予め格納されている。
【0055】
通信制御装置105は、異常検出装置1と各種外部電子機器との間を通信ネットワークNWを介して接続するための制御装置である。通信制御装置105は、一次元信号の分類結果を、通信ネットワークNWを介して外部の機器などに送信してもよい。
【0056】
センサ106は、温度や圧力、流量、調節弁の開度、振動、トルクなどの一次元信号を計測する温度計、圧力計、流量計などで構成される。センサ106で計測された一次元信号は、図1で説明した一次元信号取得部2によって取得される。なお、センサ106を一次元信号取得部2に含む構成を採用してもよい。
【0057】
外部記憶装置107は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータなどの各種情報を読み書きするための駆動装置とで構成されている。外部記憶装置107には、記憶媒体としてハードディスクやフラッシュメモリなどの半導体メモリを使用することができる。外部記憶装置107は、一次元信号記憶部107a、特徴量設定記憶部107b、分類器設定記憶部107c、プログラム格納部107d、図示しないその他の格納装置で、例えば、この外部記憶装置107内に格納されているプログラムやデータなどをバックアップするための格納装置などを有することができる。
【0058】
一次元信号記憶部107a、特徴量設定記憶部107b、および分類器設定記憶部107cは、それぞれ図1で説明した一次元信号記憶部3、特徴量設定記憶部61、分類器設定記憶部62に対応する。
【0059】
プログラム格納部107dには、本実施の形態における一次元信号の前処理、学習処理、異常の検出処理など異常検出装置1が一次元信号の異常を検出する際に必要な演算処理を実行するための各種プログラムが格納されている。
【0060】
表示装置108は、図1で説明した出力部65の表示画面を構成する。表示装置108は液晶ディスプレイなどによって実現される。
【0061】
[一次元CNNの構成例]
次に、学習部5および検出部6に用いられる一次元CNNの構成例について図3を用いて説明する。
学習部5の特徴量学習部51は、図3に示すように、少なくとも1層の畳み込み層を有するニューラルネットワークで構成される。より好ましくは、特徴量学習部51は、図3に示すように、複数の畳み込み層のみを有するニューラルネットワークで構成される。畳み込み層は信号の特徴を抽出することに秀でていることから、図3に示すように、一次元信号を入力とした、ネットワークの前列に配置すればよい。
【0062】
学習部5の分類器学習部52は、少なくとも1層のニューラルネットワークで構成される。より好ましくは、分類器学習部52は、図3に示すように、1層以上の全結合層のみを有するニューラルネットワークで構成される。
【0063】
このように、畳み込み層と全結合層とを有する一次元CNNで構成される学習部5は、予め用意された、正常と異常とが分類されてラベル付けされた学習用の一次元信号を用いて教師あり学習を行い、分類誤りが最小となるように一次元CNN全体を対象に重みなどのパラメータの値を更新する。
【0064】
ここで、本実施の形態で用いる一次元CNNの原理について、畳み込み層のフィルタ数を1、フィルタのストライドを1とした場合について図4を用いて説明する。
図4に示すように、一次元CNNにおける畳み込み層1層分の順伝搬処理は次の式(1)で表される。
【0065】
【数1】
ここで、一次元CNNの畳み込み層の入力信号X=[x0,x1,・・・]、出力信号H=[h0,h1,・・・]、フィルタ[w0,w1,・・・]、フィルタサイズn、バイアスbであり、上式(1)は入力信号のi番目の要素についての演算を示している。
【0066】
フィルタのストライドが1のとき、逐次i+1番目の要素について計算することになる。一次元CNNにおいて畳み込み層を多層で構成する場合は、上式(1)の出力信号Hを次列の畳み込み層の入力信号として再度計算すればよい。このように、一次元CNNにおける畳み込み層の演算内容は、畳み込み演算を中心としていることがわかる。
【0067】
畳み込み演算は、周波数空間で考えれば、入力信号の周波数成分とフィルタの周波数成分の積となる性質がある。すなわち、入力信号を畳み込みフィルタの周波数成分で強調する効果が得られる。
【0068】
一次元CNNにおける畳み込み層の出力信号Hは、全結合層で分類される。全結合層1層分の順伝搬処理は、例えば、次の式(2)で表される。
Y=HW+B ・・・(2)
ここで、出力ベクトルY、重み行列W、バイアスベクトルBである。
【0069】
上式(2)で得られた出力ベクトルYの各要素は、活性化関数により閾値判定される。全結合層を多層で構成する場合は、上式(2)の出力ベクトルYを入力信号Hとして再度計算すればよい。ただし、一次元CNNにおいて、最後列の全結合層における出力ベクトルYの次元は、分類対象のクラス数とする必要がある。本実施の形態では、一次元信号が正常か異常かを分類するので、クラス数2(Y=[y0,y1])となる。
【0070】
分類結果Yは、損失関数により教師ラベルとの誤差が求められ、誤差逆伝搬法により誤差を低減するように畳み込み層のフィルタとバイアス、および全結合層の重み行列とバイアスベクトルが更新される。分類精度が高くなるように複数回繰り返して一次元CNNを更新し続けることで、分類対象の一次元信号における特徴的な周波数成分を強調するフィルタを自動で獲得するように学習が進行する効果がある。
【0071】
学習部5の分類器学習部52で用いる活性化関数としては、例えば、シグモイド関数が挙げられる。なお、活性化関数はシグモイド関数に限られず、例えば、Rectified Linear Unit(ReLU)や、双曲線正接、ソフトサイン、ソフトプラス、一次または高次の多項式などを用いてもよい。
【0072】
分類誤りを算出する損失関数としては、例えば、ソフトマックス交差エントロピを用いればよい。正常か異常かというように2クラス分類を行う場合であれば、ソフトマックス交差エントロピ以外の損失関数として2乗和誤差を用いてもよい。
【0073】
上記のような一次元CNNを用いることで、異常検出装置1は、一次元信号から特徴量を自動で学習し、獲得することができる。
なお、一次元CNNの実装については、オープンソースのソフトウェアフレームワークも複数利用でき、これらのソフトウェアフレームワークを利用して実装すればよい。
【0074】
検出部6の特徴量算出部63および分類部64は、前述したように学習部5と同じ構造の一次元CNNであり、学習部5による学習で得られた学習済み一次元CNNの重みなどのパラメータの値を用いて一次元CNNの順伝搬処理の演算を行う。
【0075】
[異常検出装置の動作]
次に上述した構成を有する異常検出装置1の動作について図5および図6のフローチャートを用いて説明する。異常検出装置1の動作は、学習処理と検出処理とからなる。
【0076】
[学習処理]
図5は、異常検出装置1における学習処理のフローチャートである。
まず、一次元信号取得部2は、予め正常と異常とが分類されてラベル付けされた一次元信号群を教師データとして監視対象から取得する(ステップS100)。取得された教師データの一次元信号群は一次元信号記憶部3に一時的に記憶される。
【0077】
次に、一次元信号前処理部4は、取得された一次元信号の振幅正規化や、フィルタリングによる定常ノイズの除去などの前処理を行う(ステップS101)。前処理された学習用の一次元信号は学習部5に入力され、一次元CNNにおける順伝搬処理が行われる(ステップS102)。
【0078】
より詳細には、一次元CNNの畳み込み層で構成される学習部5の特徴量学習部51は、上述した式(1)を用いて、一次元信号の特徴量を算出する。さらに、一次元CNNの全結合層で構成される分類器学習部52は、特徴量学習部51の出力信号を入力として、上述した式(2)を用いて一次元信号の分類を行う。
【0079】
次に、学習部5は、一次元CNNの順伝搬処理による出力値と目標値である教師ラベルとの誤差を求める(ステップS103)。その後、学習部5は、一次元CNNの順伝搬処理による出力値と教師ラベルとの誤差が十分に小さくない場合には(ステップS104:NO)、一次元CNNの誤差逆伝搬処理を行う(ステップS105)。
【0080】
より詳細には、誤差逆伝搬処理では、一次元CNNの順伝搬処理による出力値と教師ラベルとの誤差が低減するように特徴量学習部51を構成する畳み込み層、および分類器学習部52を構成する全結合層の重みなどのパラメータの値が更新される。
【0081】
次に、学習部5は、特徴量学習部51および分類器学習部52を構成する一次元CNNの重みなどのパラメータの更新値を用いて、一次元CNNの順伝搬処理(ステップS102)および誤差の導出(ステップS103)を行う。
【0082】
その後、一次元CNNの順伝搬処理による出力値と教師ラベルとの誤差が十分に小さい値となった場合には(ステップS104:YES)、更新された重みなどのパラメータの値を記憶する(ステップS106)。より詳細には、特徴量学習部51を構成する畳み込み層の重みパラメータの最終的な更新値は、特徴量設定記憶部61に記憶される。分類器学習部52を構成する全結合層の重みパラメータの最終的な更新値は、分類器設定記憶部62に記憶される。
【0083】
[検出処理]
次に、検出部6による検出処理について図6のフローチャートを用いて説明する。
検出部6は、学習部5による学習処理で得られた学習済みの一次元CNNを読み込んで、未知の一次元信号が正常か異常かを分類する。
まず、一次元信号取得部2は、ラベル付けされていない未知の一次元信号を監視対象から取得する(ステップS110)。取得された一次元信号は一次元信号記憶部3に一時的に記憶される。
【0084】
次に、一次元信号前処理部4は、学習処理における前処理と同様に一次元信号の振幅正規化やフィルタリングによる定常ノイズの除去などの前処理を行う(ステップS111)。その後、一次元信号は検出部6に入力され、検出部6は、学習済みの一次元CNNの順伝搬処理を行う(ステップS112)。
【0085】
より詳細には、特徴量算出部63は、特徴量設定記憶部61に記憶されている学習済みの畳み込み層における重みなどのパラメータの値を読み込む。特徴量算出部63は、上述した式(1)を用いて、未知の一次元信号を入力とした畳み込み層の演算を行う。さらに、分類部64は、分類器設定記憶部62に記憶されている学習済みの全結合層における重みパラメータの値を読み込む。分類部64は、上述した式(2)を用いて、特徴量算出部63の出力値を入力とした全結合層の演算を行う。
【0086】
その後、出力部65は、分類部64による演算結果に基づく一次元信号における異常の有無の検出結果を出力する(ステップS113)。より詳細には、分類部64による演算結果は、未知の一次元信号が正常または異常であることを示す分類の結果である。分類部64は分類結果から一次元信号の異常を検出する。
【0087】
以上説明したように、第1の実施の形態によれば、異常検出装置1は、一次元CNNを利用することで一次元信号を二次元信号へ変換する計算コストを削減できる。また、CNNの処理を二次元信号処理から一次元信号処理へと変更することで計算コストがより低減される。その結果として、計算能力が比較的低い現場機器などの機器であっても、一次元信号の特徴量を自動で学習および獲得して異常検出を行うことができる。
【0088】
[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。なお、以下の説明では、上述した第1の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
【0089】
第1の実施の形態では、特徴量学習部51および特徴量算出部63は、1層以上の畳み込み層のみで構成される場合について説明した。これに対し、第2の実施の形態では、特徴量学習部51Aは、1層以上の畳み込み層と1層以上の再帰型ニューラルネットワーク層とを含むニューラルネットワークを有する。
【0090】
[第2の実施の形態の概要]
よく知られているように、CNNは局所的な帯域のフィルタで学習するため入力信号の局所的な帯域での特徴量を学習することに優れる。その一方で、CNNは、入力信号に白色雑音などの広帯域な雑音が含まれる場合には、分類性能が悪化する性質がある(非特許文献2参照)。
【0091】
このことから、入力信号に広帯域な雑音が含まれる場合でもロバストな特徴量を学習できる特性を有するニューラルネットワークとして、再帰型ニューラルネットワークに着目する。再帰型ニューラルネットワークは、ネットワークの内部に帰還路を有し、過去の信号値を保持できる特徴がある。
【0092】
また、再帰型ニューラルネットワークの中でも、特に、Long Short−Term Memory(以下、「LSTM」という。)は、過去の信号値を長期的に保存できることが知られている(非特許文献3参照)。そのため、LSTMは、入力信号に広帯域な雑音が含まれる場合に、よりロバストな特徴量の学習がしやすいと考えられる。
【0093】
以上より、本実施の形態では、一次元CNNにLSTMを組み合わせた構造のニューラルネットワークを用いることで、入力信号に広帯域な雑音が含まれる場合でも、一次元信号から特徴量を自動で学習および獲得することができる異常検出装置1Aを実現する。
【0094】
[異常検出装置の機能ブロック]
図7は、本実施の形態に係る異常検出装置1Aの機能構成を示すブロック図である。以下、第1の実施の形態と異なる構成を中心に説明する。
【0095】
学習部5Aは、特徴量学習部51Aと分類器学習部52とを備える。
特徴量学習部51Aは、LSTM学習部510を有する。前述したように特徴量学習部51Aは、畳み込み層とLSTM層とで構成される。特徴量学習部51Aは、一次元CNNの畳み込み層の演算処理を行って一次元信号の特徴量の算出方法を学習し、特徴量の設定情報を出力する。
【0096】
LSTM学習部510は、特徴量学習部51Aからの出力信号を入力として、一次元CNNに含まれるLSTM層の演算処理を行って一次元信号の特徴量の算出方法を学習し、特徴量の設定情報を出力する。なお、LSTM学習部510を構成するLSTM層の詳細は後述する。
【0097】
前述したように、畳み込み層で構成される特徴量学習部51Aは、ある狭い周波数の領域での周期的な信号の特徴量を学習することに優れている。一方、LSTM層で構成されるLSTM学習部510は、より広い周波数領域での非定常的な信号の特徴量を学習することにより優れる。
【0098】
このように、特徴量学習部51AおよびLSTM学習部510は、一次元信号における異なる特徴量を学習するため、これらを組み合わせることにより、分類対象の一次元信号の特性によっては互いに補完し合って分類精度が向上する場合がある。
【0099】
検出部6Aは、特徴量設定記憶部61A、分類器設定記憶部62、特徴量算出部63A、分類部64、および出力部65を備える。
特徴量設定記憶部61Aは、LSTM特徴量設定記憶部610を有する。
特徴量算出部63Aは、LSTM特徴量算出部630を有する。
【0100】
特徴量設定記憶部61Aは、特徴量学習部51Aによる畳み込み層の学習で得られた一次元信号の特徴量の設定情報を記憶する。
LSTM特徴量設定記憶部610は、LSTM学習部510によるLSTM層の学習で得られた、一次元信号の特徴量の設定情報を記憶する。
【0101】
特徴量算出部63Aは、特徴量設定記憶部61Aに記憶されている一次元信号の特徴量の設定情報を参照して、一次元CNNの畳み込み層の演算処理を行い、未知の一次元信号の特徴量を算出する。
LSTM特徴量算出部630は、LSTM特徴量設定記憶部610に記憶されている一次元信号の特徴量の設定情報を参照して、一次元CNNにおけるLSTM層の演算処理を行って一次元信号の特徴量を算出する。
【0102】
より詳細には、LSTM特徴量算出部630は、LSTM層の重みなどのパラメータ値を読み込んで、特徴量算出部63Aからの出力である特徴量を入力として、LSTM層の演算を行い、未知の一次元信号の特徴量を算出する。
【0103】
分類部64は、LSTM特徴量算出部630によって算出された一次元信号の特徴量を入力とし、分類器設定記憶部62に記憶されている一次元信号を分類する方法に関する情報を参照して未知の一次元信号の分類を行い異常を検出する。
【0104】
[一次元CNNの構成例]
次に、上述した学習部5Aおよび検出部6Aに用いられる、LSTM層を有する一次元CNNの構成例について図8を用いて説明する。
【0105】
学習部5Aの特徴量学習部51Aは1層以上の畳み込み層を有し、畳み込み層よりも後列に、LSTM学習部510のLSTM層を有する。より好ましくは、図8に示すように、LSTM層を畳み込み層の最後列の次の列に配置し、畳み込み層の出力をLSTM層の入力とすればよい。検出部6Aの特徴量算出部63AおよびLSTM特徴量算出部630は、学習部5Aの特徴量学習部51AおよびLSTM学習部510と同じ畳み込み層およびLSTM層で構成される。
【0106】
学習部5Aの分類器学習部52は、第1の実施の形態と同様に1層以上の全結合層で構成される。検出部6Aの分類部64は、学習部5Aの分類器学習部52と同じ1層以上の全結合層で構成される。
【0107】
[LSTM層の演算処理]
次に、LSTM学習部510およびLSTM特徴量算出部630を構成するLSTM層の演算処理について図9のブロック図を用いて説明する。
【0108】
図9では、LSTM層1層分の順伝搬処理の内容を示す。図9において、「+」は加算、「×」は乗算、「S」はシグモイド関数を示す。また、破線の矢印は一次遅れを表しており、C1、C2はそれぞれメモリセルである。入力信号xt、および出力信号htは、それぞれ時刻tにおける値であり、各wとRから始まるパラメータは重みである。
【0109】
LSTM層では、メモリセルC1部分に再帰結合がある。また、LSTM層は、3つのゲートG1、G2、G3を有する。入力信号xtは、これらの3つのゲートG1、G2、G3にも入力され、それぞれのゲートの開閉のために用いられる。
【0110】
3つのゲートG1、G2、G3は、情報をどの程度通すかの制御に使われる。ゲートが閉じている(値が0に近づく)場合には、情報が通りにくくなる。ゲートが開いている状態は、シグモイド関数が1に近い値となる。
【0111】
特に、ゲートG2が開いている場合、1時刻前(t−1)のメモリセルC1の状態が時刻tの状態に影響を及ぼす。そのため、ゲートG2は、直前の状態の影響についての考慮の度合いを定める。
【0112】
LSTM層は、ゲートG1、G2、G3において重みパラメータを学習することで、長期的な依存関係を学習できる。なお、LSTM層を多層で構成する場合は、図9の出力hを入力信号xとして再度計算すればよい。
【0113】
上記のLSTMや再帰型ニューラルネットワークの実装は、オープンソースのソフトウェアフレームワークも複数利用できるため、これらのソフトウェアフレームワークを利用すればよい。
【0114】
[異常検出装置の動作]
次に、上述した構成を有する異常検出装置1Aの動作について図10および図11のフローチャートを用いて説明する。なお、以下において、第1の実施の形態と異なる処理を中心に説明する。
【0115】
[学習処理]
まず、異常検出装置1Aの学習部5Aによる学習処理について説明する。
図10に示すように、一次元信号取得部2は、教師データとしてラベル付きの一次元信号群を監視対象から取得する(ステップS100)。その後、一次元信号前処理部4は、取得された一次元信号の前処理を行う(ステップS101)。
【0116】
次に、学習部5Aは、入力の一次元信号について一次元CNNの順伝搬処理を行う(ステップS102A)。より詳細には、特徴量学習部51Aに含まれる一次元CNNの畳み込み層において、上述した式(1)を用いて、学習用の一次元信号における特徴量を算出する。
【0117】
また、特徴量学習部51Aに含まれる畳み込み層の出力信号を入力として、LSTM学習部510は、図8に示したLSTM層において、学習用の一次元信号における特徴量を算出する。
【0118】
さらに、全結合層で構成される分類器学習部52は、LSTM学習部510の出力信号を入力として、上述した式(2)を用いて学習用の一次元信号の分類結果を出力する。
【0119】
次に、学習部5Aは、LSTM層を有する一次元CNNの順伝搬処理による出力値と目標値である教師ラベルとの誤差を求める(ステップS103)。その後、学習部5Aは、一次元CNNの順伝搬処理による出力値と教師ラベルとの誤差が十分に小さくない場合には(ステップS104:NO)、一次元CNNの誤差逆伝搬処理を行う(ステップS105A)。
【0120】
より詳細には、誤差逆伝搬処理では、一次元CNNの順伝搬処理による出力値と教師ラベルとの誤差が低減するように特徴量学習部51Aを構成する畳み込み層、LSTM学習部510を構成するLSTM層、および分類器学習部52を構成する全結合層の重みパラメータの値が更新される。
【0121】
次に、学習部5Aは、特徴量学習部51A、LSTM学習部510、および分類器学習部52によって更新されたLSTM層を有する一次元CNNの重みなどのパラメータの値を用いて一次元CNNの順伝搬処理(ステップS102A)および誤差の導出(ステップS103)を行う。
【0122】
その後、一次元CNNの順伝搬処理による出力値と教師ラベルとの誤差が十分に小さい値となった場合には(ステップS104:YES)、更新された重みなどのパラメータの値を記憶する(ステップS106A)。
【0123】
より詳細には、特徴量学習部51Aに含まれる畳み込み層の重みなどのパラメータの最終的な更新値は、特徴量設定記憶部61に記憶される。LSTM学習部510を構成するLSTM層の重みなどのパラメータの最終的な更新値は、LSTM特徴量設定記憶部610に記憶される。分類器学習部52を構成する全結合層の重みなどのパラメータの最終的な更新値は、分類器設定記憶部62に記憶される。
【0124】
[検出処理]
次に、検出部6Aによる検出処理について図11のフローチャートを用いて説明する。
学習部5Aによる学習処理によって得られた学習済みのLSTM層を有する一次元CNNを用いて、検出部6Aは、未知の一次元信号が正常か異常かを分類する。
まず、一次元信号取得部2は、ラベル付けされていない未知の一次元信号を取得する(ステップS110)。
【0125】
次に、一次元信号前処理部4は、取得された一次元信号の前処理を行う(ステップS111)。その後、一次元信号は検出部6Aに入力され、検出部6Aは、学習済みのLSTM層を有する一次元CNNの順伝搬処理を行う(ステップS112A)。
【0126】
より詳細には、特徴量算出部63Aは、特徴量設定記憶部61Aに記憶されている学習済みの畳み込み層における重みなどのパラメータの値を読み込んで、上述した式(1)を用い、一次元信号を入力とした畳み込み層の演算を行い一次元信号の特徴量を算出する。
【0127】
また、LSTM特徴量算出部630は、LSTM特徴量設定記憶部610に記憶されている学習済みのLSTM層における重みなどのパラメータの値を読み込んで、特徴量算出部63Aによって算出された特徴量を入力としてLSTM層の演算を行い、一次元信号の特徴量を算出する。
【0128】
さらに、分類部64は、分類器設定記憶部62に記憶されている学習済みの全結合層における重みパラメータの値を読み込んで、上述した式(2)を用いて、特徴量算出部63の出力値を入力とした全結合層の演算を行う。
【0129】
分類部64による演算結果は、出力部65によって出力される(ステップS113)。分類部64による演算結果は、未知の一次元信号が正常か異常かを示す。
【0130】
以上説明したように、第2の実施の形態によれば、学習部5Aおよび検出部6AにLSTM層を有する一次元CNNを用いるので、一次元信号の局所的な帯域での特徴量を畳み込み層で学習し、LSTM層では、より広い周波数領域での非定常的な信号の特徴量を学習する。そのため、異常検出装置1Aは、一次元信号に広帯域な雑音が含まれる場合であっても、ロバストな特徴量を自動で学習および獲得して異常検出をすることができる。
【0131】
また、学習部5Aおよび検出部6Aに含まれるLSTM層は、一次元信号を直接扱うことができるため、異常検出装置1Aにおいての計算コストを低減しつつ、よりロバストな特徴量を自動で学習し獲得することができる。
【0132】
[実施例]
次に、上述した第1および第2の実施の形態に係る異常検出装置1、1Aをそれぞれ用いた調節弁の内部における異常検出について説明する。
【0133】
石油プラントや化学プラントなどでは、流体の流量などを制御する操作端として調節弁が用いられる。調節弁内部を流れる流体の温度、圧力、流量の条件によっては、キャビテーションと呼ばれる気泡の発生や消滅が発生する場合がある。キャビテーションは、調節弁内部を損傷させる要因であり、本実施例では、監視対象の調節弁において、キャビテーションの発生を異常として検出することを目的とした。
【0134】
本実施例では、一次元信号取得部2として振動センサを利用し、調節弁の外部から調節弁の内部を流体が流れるときの振動を取得して入力信号の一次元信号とした。振動センサで取得される振動信号は、正常時には流体音だけを含むが、異常時には流体音に加えてキャビテーションの音が含まれる。
【0135】
図12および図13は、本実施例における異常検出の対象である振動信号の一例を示す図である。図12の(a)は、正常時における振動信号を示し、図12の(b)は、異常時における振動信号を示す。図12の(a)および(b)からわかるように、正常時とキャビテーションの音を含む異常時の振動信号の差は比較的小さい。
【0136】
図13の(a)は、正常時における振動信号のスペクトルの分布を示し、図13の(b)は、異常時の振動信号のスペクトルの分布を示す。図13の(a)および(b)からわかるように、正常時とキャビテーションの音を含む異常時の振動信号の周波数帯域はともに広帯域で重複している。
【0137】
次に、本実施例において一次元信号記憶部3は、サンプリング周波数96kHzで振動センサからのアナログ信号をサンプリングし、10,000サンプル毎に区切った信号を記憶する。
一次元信号前処理部4は、振動信号の振幅のスケールが大きく変わらないように、振動信号の実効値で正規化する。
【0138】
次に、学習部5、5Aおよび検出部6、6Aの一次元CNNの具体的構成について説明する。
第1の実施の形態に係る学習部5および検出部6の具体例としては、畳み込み層が3層、全結合層が3層の図3に示した一次元CNNを用いた。
第2の実施の形態に係る学習部5Aおよび検出部6Aの具体例としては、畳み込み層が3層、LSTM層が1層、全結合層が1層である図8に示したLSTM層を有する一次元CNNを用いた。
【0139】
また、第1および第2の実施の形態の具体例に共通する設定として、一次元CNNの畳み込み層のフィルタ数は1、フィルタサイズは100、ストライドは2、全結合層の活性化関数はシグモイド関数とした。
教師データとして正常時の振動信号1,500セット、異常時の振動信号1,100セットを用意した。損失関数としては、ソフトマックス交差エントロピを用いた。
【0140】
上記条件のもと、第1の実施の形態に係る異常検出装置1および第2の実施の形態に係る異常検出装置1Aのそれぞれで教師あり学習を実施した。その後、検証データとして、正常時の振動信号100セット、異常時の振動信号100セットを用いて分類正答率の評価を行った。
【0141】
図14は、第1の実施の形態に係る異常検出装置1による分類正答率を示す図である。また、図15は、第2の実施の形態に係る異常検出装置1Aによる分類正答率を示す図である。図14および図15において、横軸は学習回数、縦軸は分類正答率を示す。また、破線は学習データの分類正答率、実線は検証データの分類正答率を示している。
【0142】
図14および図15に示すように、第1および第2の実施の形態に係る異常検出装置1、1Aは、繰り返し学習データで学習を行うことで、入力信号である振動信号の特徴量を次第に獲得し、分類正答率が向上していることがわかる。
【0143】
図14に示すように、畳み込み層と全結合層とを有する一次元CNNを用いた異常検出装置1において、検証データの分類正答率は約90%を達成している。このことから、第1の実施の形態に係る異常検出装置1は、異常検出の目的を十分に達成できているといえる。
【0144】
また、図15に示すように、LSTM層を有する一次元CNNを用いた異常検出装置1Aにおいては、検証データの分類正答率は約100%であり、異常検出の目的を十分達成できている。特に、本実施例で異常検出の対象とした調節弁内のキャビテーションの振動信号のように、正常時と異常時との信号差がより小さく、周波数帯域も広帯域で重複している場合には、LSTM層を有する一次元CNNを利用する異常検出装置1Aはより有効であると考えられる。
【0145】
以上、本発明の異常検出装置および異常検出方法における実施の形態について説明したが、本発明は説明した実施の形態に限定されるものではなく、請求項に記載した発明の範囲において当業者が想定し得る各種の変形を行うことが可能である。
【0146】
なお、上述した異常検出装置1、1Aの学習部5、5Aと検出部6、6Aとは、同一の計算機で実装されていても、それぞれが独立して実装されていてもよい。特に、学習部5、5Aと検出部6、6Aとがそれぞれ独立で実装される場合には、計算能力がより低い現場機器などにおいても特徴量を自動で学習および獲得して異常検出を行うことができる。
【0147】
より詳細には、学習部5、5Aと検出部6、6Aとがそれぞれ独立で実装される場合、多量の教師データを学習する学習部5、5Aには、計算能力のより高い計算機を用いればよい。一方、積和演算と活性化関数による閾値判定とからなる比較的計算コストの低いニューラルネットワークの順伝搬処理が中心となる検出部6、6Aには、計算能力がより低い計算機を用いることができる。このように、学習部5、5Aと検出部6、6Aとをそれぞれ独立した構成とした場合、一次元信号の二次元信号への拡張の廃止、および一次元CNNにおける信号の一次元処理により、異常検出装置1、1Aを計算能力のより低い現場機器などに実装できるようになる。
【0148】
また、説明した実施の形態では、一次元信号取得部2と一次元信号記憶部3はそれぞれ独立した構成を有する場合について説明した。しかし、一次元信号取得部2と一次元信号記憶部3とは一体的な一つの構成として実装されてもよい。
【0149】
また、一次元信号取得部2と一次元信号記憶部3は、学習部5、5Aと検出部6、6Aとで同じものを共用してもよく、また、学習部5、5Aと検出部6、6Aのそれぞれについて専用の一次元信号取得部2と一次元信号記憶部3とを用意してもよい。
【0150】
また、説明した実施の形態では、特徴量設定記憶部61と分類器設定記憶部62とはそれぞれ異なる領域に設けられている場合について説明したが、これらは一つの記憶部として構成されていてもよい。
【0151】
また、説明した実施の形態では、分類部64は、一次元信号が正常か異常かの2クラス分類を行う場合について説明したが、分類クラスの数は2クラスに限られず多クラス分類を行ってもよい。
【符号の説明】
【0152】
1、1A…異常検出装置、2…一次元信号取得部、3、107a…一次元信号記憶部、4…一次元信号前処理部、5、5A…学習部、6、6A…検出部、51、51A…特徴量学習部、52…分類器学習部、61、61A、107b…特徴量設定記憶部、62、107c…分類器設定記憶部、63、63A…特徴量算出部、64…分類部、65…出力部、101…バス、102…演算装置、103…CPU、104…主記憶装置、105…通信制御装置、106…センサ、107…外部記憶装置、107d…プログラム格納部、108…表示装置、NW…通信ネットワーク、510…LSTM学習部、610…LSTM特徴量設定記憶部、630…LSTM特徴量算出部。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17