IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社東芝の特許一覧

特許7502211情報処理装置、情報処理方法、およびプログラム
<>
  • 特許-情報処理装置、情報処理方法、およびプログラム 図1
  • 特許-情報処理装置、情報処理方法、およびプログラム 図2
  • 特許-情報処理装置、情報処理方法、およびプログラム 図3
  • 特許-情報処理装置、情報処理方法、およびプログラム 図4
  • 特許-情報処理装置、情報処理方法、およびプログラム 図5
  • 特許-情報処理装置、情報処理方法、およびプログラム 図6
  • 特許-情報処理装置、情報処理方法、およびプログラム 図7
  • 特許-情報処理装置、情報処理方法、およびプログラム 図8
  • 特許-情報処理装置、情報処理方法、およびプログラム 図9
  • 特許-情報処理装置、情報処理方法、およびプログラム 図10
  • 特許-情報処理装置、情報処理方法、およびプログラム 図11
  • 特許-情報処理装置、情報処理方法、およびプログラム 図12
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-06-10
(45)【発行日】2024-06-18
(54)【発明の名称】情報処理装置、情報処理方法、およびプログラム
(51)【国際特許分類】
   G01D 21/00 20060101AFI20240611BHJP
   G06N 20/00 20190101ALI20240611BHJP
【FI】
G01D21/00 Q
G06N20/00 130
【請求項の数】 10
(21)【出願番号】P 2021015272
(22)【出願日】2021-02-02
(65)【公開番号】P2022118618
(43)【公開日】2022-08-15
【審査請求日】2023-02-17
(73)【特許権者】
【識別番号】000003078
【氏名又は名称】株式会社東芝
(74)【代理人】
【識別番号】100091487
【弁理士】
【氏名又は名称】中村 行孝
(74)【代理人】
【識別番号】100120031
【弁理士】
【氏名又は名称】宮嶋 学
(74)【代理人】
【識別番号】100107582
【弁理士】
【氏名又は名称】関根 毅
(74)【代理人】
【識別番号】100118876
【弁理士】
【氏名又は名称】鈴木 順生
(74)【代理人】
【識別番号】100206243
【弁理士】
【氏名又は名称】片桐 貴士
(72)【発明者】
【氏名】山口 晃広
(72)【発明者】
【氏名】植野 研
【審査官】櫻井 健太
(56)【参考文献】
【文献】国際公開第2008/059878(WO,A1)
【文献】特開2020-170214(JP,A)
【文献】特開2018-205994(JP,A)
【文献】特開2017-138929(JP,A)
【文献】特開2015-005093(JP,A)
【文献】Ziqiang Cheng,外5名,“Time2Graph: Revisiting Time Series Modeling with Dynamic Shapelets”,Proceedings of the AAAI Conference on Artificial Intelligence,2020年04月03日,Vol.34,No.4,3617-3624頁
【文献】Zicheng Fang,外2名,“Efficient Learning Interpretable Shapelets for Accurate Time Series Classification”,2018 IEEE 34th International Conference on Data Engineering (ICDE),2018年04月,497-508頁
【文献】辻本 貴昭,外1名,“Local Shapeletを用いた時系列分類に最適な距離尺度の選択”,情報処理学会研究報告 2012(平成24)年度▲5▼ [CD-ROM] ,日本,一般社団法人情報処理学会,2013年,バイオ情報学(BIO) No.32,1-6頁
(58)【調査した分野】(Int.Cl.,DB名)
G01D 21/00 - 21/02
G06N 20/00
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
時系列データに対応し前記時系列データを分類するために用いられる基準波形パターンの形状に対する調整を、前記時系列データに対応する要因パラメータの値を推定モデルに入力することによって得られる前記基準波形パターンの形状の変形量に基づいて行い、
前記基準波形パターンの前記調整の後の形状に基づき、前記時系列データの波形の特徴量を算出し、
分類器に前記特徴量を入力することにより、前記時系列データに対する分類結果を取得する処理部を備え、
前記処理部は学習処理として、
分類されるべき正解のクラスが示されている学習用時系列データと、前記学習用時系列データに対応する要因パラメータの値に対応する学習用基準波形パターンと、に基づき、前記学習用時系列データに係る学習用特徴量を算出し、
前記分類器に前記学習用特徴量を入力することにより、前記学習用時系列データに対する学習用分類結果を取得し、
前記学習用分類結果と、前記正解のクラスと、に基づき、前記分類器のパラメータの値を更新し、
前記学習用分類結果と、前記正解のクラスと、に基づき、前記学習用時系列データに対応する要因パラメータの値に対応する前記学習用基準波形パターンを更新し、
前記学習用時系列データに対応する要因パラメータの値を前記推定モデルに入力することによって得られた前記変形量に基づいて調整した前記基準波形パターンの形状が、前記更新された前記学習用基準波形パターンの形状に近づくように、前記推定モデルのパラメータを更新する
情報処理装置。
【請求項2】
前記調整の前の前記基準波形パターンは、前記時系列データに対応する前記要因パラメータの値とは対応しない形状であるが、前記調整の後の前記基準波形パターンは、前記時系列データに対応する前記要因パラメータの値に対応する形状である、
請求項に記載の情報処理装置。
【請求項3】
前記要因パラメータの値が変動すると、前記時系列データの波形が変形し、
前記特徴量は、前記基準波形パターンと、前記時系列データの波形と、の距離に基づくものであり、
前記要因パラメータの値に基づく前記調整の後の前記基準波形パターンと、前記基準波形パターンによる分類の対象となる前記時系列データの波形とに基づく前記特徴量は、前記要因パラメータの値に基づく前記調整の前の前記基準波形パターンと、前記基準波形パターンによる分類の対象となる前記時系列データの波形とに基づく前記特徴量よりも小さくなる、
請求項に記載の情報処理装置。
【請求項4】
前記変形量は、前記基準波形パターンを構成する各プロットが前記調整によって移動した距離で表される、
請求項1~のいずれか一項に記載の情報処理装置。
【請求項5】
前記処理部によって行われる前記分類器のパラメータの値の更新と前記学習用基準波形パターンの更新は、勾配降下法に基づく、
請求項1~のいずれか一項に記載の情報処理装置。
【請求項6】
入力部と、
出力部と、
をさらに備え、
前記入力部は、前記要因パラメータに対する指定値を受け付け、
前記処理部は、前記指定値に基づき、前記基準波形パターンの形状に対する調整を実行し、
前記出力部は、前記調整に関する情報を出力する、
請求項1ないしのいずれか一項に記載の情報処理装置。
【請求項7】
入力部と、
出力部と、
をさらに備え、
前記入力部は、前記推定モデルに関する指定を受け付け、
前記処理部は、指定された前記推定モデルに基づき、前記基準波形パターンの形状に対する調整を実行し、
前記出力部は、前記調整に関する情報を出力する、
請求項1~のいずれか一項に記載の情報処理装置。
【請求項8】
入力部と、
出力部と、
をさらに備え、
前記入力部は、前記要因パラメータの値の遷移範囲または複数の指定値を受け付け、
前記処理部は、前記遷移範囲内に含まれる複数の値または前記複数の指定値のそれぞれに対して、前記基準波形パターンの形状に対する調整を実行し、
前記出力部は、前記基準波形パターンを構成するプロットの前記調整の実行後の各位置に関する情報を出力する、
請求項1ないしのいずれかに記載の情報処理装置。
【請求項9】
時系列データに対応し前記時系列データを分類するために用いられる基準波形パターンの形状に対する調整を、前記時系列データに対応する要因パラメータの値を推定モデルに入力することによって得られる前記基準波形パターンの形状の変形量に基づいて行うステップと、
前記基準波形パターンの前記調整の後の形状に基づき、前記時系列データの波形の特徴量を算出するステップと、
分類器に前記特徴量を入力することにより、前記時系列データに対する分類結果を取得するステップと、を備え、
学習処理として、
分類されるべき正解のクラスが示されている学習用時系列データと、前記学習用時系列データに対応する要因パラメータの値に対応する学習用基準波形パターンと、に基づき、前記学習用時系列データに係る学習用特徴量を算出するステップと、
前記分類器に前記学習用特徴量を入力することにより、前記学習用時系列データに対する学習用分類結果を取得するステップと、
前記学習用分類結果と、前記正解のクラスと、に基づき、前記分類器のパラメータの値を更新するステップと、
前記学習用分類結果と、前記正解のクラスと、に基づき、前記学習用時系列データに対応する要因パラメータの値に対応する前記学習用基準波形パターンを更新するステップと、
前記学習用時系列データに対応する要因パラメータの値を前記推定モデルに入力することによって得られた前記変形量に基づいて調整した前記基準波形パターンの形状が、前記更新された前記学習用基準波形パターンの形状に近づくように、前記推定モデルのパラメータを更新するステップと、
を備える情報処理方法。
【請求項10】
時系列データに対応し前記時系列データを分類するために用いられる基準波形パターンの形状に対する調整を、前記時系列データに対応する要因パラメータの値を推定モデルに入力することによって得られる前記基準波形パターンの形状の変形量に基づいて行うステップと、
前記基準波形パターンの前記調整の後の形状に基づき、前記時系列データの波形の特徴量を算出するステップと、
分類器に前記特徴量を入力することにより、前記時系列データに対する分類結果を取得するステップと、を備え、
学習処理として、
分類されるべき正解のクラスが示されている学習用時系列データと、前記学習用時系列データに対応する要因パラメータの値に対応する学習用基準波形パターンと、に基づき、前記学習用時系列データに係る学習用特徴量を算出するステップと、
前記分類器に前記学習用特徴量を入力することにより、前記学習用時系列データに対する学習用分類結果を取得するステップと、
前記学習用分類結果と、前記正解のクラスと、に基づき、前記分類器のパラメータの値を更新するステップと、
前記学習用分類結果と、前記正解のクラスと、に基づき、前記学習用時系列データに対応する要因パラメータの値に対応する前記学習用基準波形パターンを更新するステップと、
前記学習用時系列データに対応する要因パラメータの値を前記推定モデルに入力することによって得られた前記変形量に基づいて調整した前記基準波形パターンの形状が、前記更新された前記学習用基準波形パターンの形状に近づくように、前記推定モデルのパラメータを更新するステップと、
を備える、コンピュータによって実行されるプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明の実施形態は、情報処理装置、情報処理方法、およびプログラムに関する。
【背景技術】
【0002】
時系列のデータに基づく解析結果を複数のクラス(分類項目)に分類する場合、分類性能が高いことに加えて、分類の根拠を明確にすることが好ましい。近年、時系列のデータをクラスに分類する技術であり、分類の根拠を明確にすることが可能なシェイプレット学習法が提案され、データマイニング、機械学習などの分野において注目を集めている。シェイプレット学習法は、分類器の学習とともに、分類の基準となる波形パターンも学習する。当該波形パターンは、シェイプレット(shapelet)とも称される。
【0003】
一方、同じクラスの時系列波形データであっても、環境の変化などによって波形が変形し得る。例えば、変電所の遮断器の正常を示すシェイプレットは、当該遮断器の周辺の温度変化によって変形することが知られている。例えば、周辺環境が20℃のときに正常状態の設備に対して計測された時系列波形データと、周辺環境が-20℃のときに正常状態の設備に対して計測された時系列波形データと、にそれぞれ対応するシェイプレットの形状は異なる。そのため、温度、圧力、経過年数、季節などといった波形を変形させる要因を考慮せずにシェイプレットおよび分類器に対する学習を実行すると、分類性能が低下するという問題が生じる。
【先行技術文献】
【非特許文献】
【0004】
【文献】”Learning Time-Series Shapelets”,KDD’14 Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data miningPages 392-401/ Josif Grabocka et.al/
【発明の概要】
【発明が解決しようとする課題】
【0005】
本発明の一実施形態は、想定要因の変動に応じたシェイプレットの変形を推定するモデルを用いることにより、想定要因の状況が学習時とテスト時で異なっていても、分類性能の低下を抑える装置などを提供する。
【課題を解決するための手段】
【0006】
本発明の一実施形態としての情報処理装置は、調整部と、特徴量算出部と、を備える。前記調整部は、時系列データに対応し前記時系列データを分類するために用いられる基準波形パターンの形状に対する調整を、前記時系列データに対応する要因パラメータの値に基づいて行う。前記特徴量算出部は、前記基準波形パターンの前記調整の後の形状に基づき、前記時系列データの波形の特徴量を算出する。
【図面の簡単な説明】
【0007】
図1】本発明の一実施形態に係る情報処理装置の一例を示すブロック図。
図2】シェイプレットについて説明する図。
図3】時系列データおよびシェイプレットの変形について説明する第1図。
図4】時系列データおよびシェイプレットの変形について説明する第2図。
図5】時系列データおよびシェイプレットの変形について説明する第3図。
図6】出力の第1例を示す図。
図7】出力の第2例を示す図。
図8】出力の第3例を示す図。
図9】出力の第4例を示す図。
図10】学習処理の概略フローチャート。
図11】分類処理の概略フローチャート。
図12】本発明の一実施形態におけるハードウェア構成の一例を示すブロック図。
【発明を実施するための形態】
【0008】
以下、図面を参照しながら、本発明の実施形態について説明する。
【0009】
(本発明の一実施形態)
図1は、本発明の一実施形態に係る情報処理装置の一例を示すブロック図である。本実施形態に関する情報処理装置1は、記憶部11と、入力部12と、特徴量算出部13と、分類部14と、分類器更新部15と、シェイプレット更新部16と、シェイプレット調整部17と、変形推定モデル更新部18と、出力部19と、を備える。
【0010】
情報処理装置1は、時系列データに基づき、複数のクラス(分類項目)のうちから当該時系列データに対応するクラスを選出する。当該選出には、分類器(分類モデル)が用いられる。例えば、分類器は、設備を監視するために設置されたセンサの1日分の計測値が示された時系列データに基づき、正常、異常などといった当該設備の状態に関するクラスを選出する。
【0011】
本実施形態では、分類器も生成するものとする。なお、分類器の生成とは、複数の時系列データを用いて繰り返し学習を行うことにより、分類器のパラメータの値を適切な値に近づけることを意味する。ゆえに、情報処理装置1は学習装置とも言える。
【0012】
時系列データが示す内容は、特に限られるものではない。ただし、一つの分類器に入力される時系列データが示す内容は同じであり、示す内容が異なる時系列データを用いたい場合は、別の分類器を用いる必要がある。例えば、温度センサの計測結果を示す時系列データに基づいて分類を行う分類器に、湿度センサの計測結果を示す時系列データが入力されても正確に分類することはできない。そのため、湿度センサの計測結果を示す時系列データに基づいて分類を行いたい場合は、別の分類器を用意する必要がある。本説明では、時系列データが示す内容は同じとし、一つの分類器を生成するものとする。
【0013】
また、時系列データは、何らかの要因の変動によって、その波形が変化するものとする。例えば、計測対象の機器の温度、圧力、もしくは経過年数、または、計測データが計測された季節などにより、時系列データの波形が変形するものとする。以降、時系列データの波形を変形させる要因となり得るものを「要因パラメータ」と記載する。すなわち、要因パラメータの値が変動すると、時系列データの波形も変形する。
【0014】
また、クラスの数および内容は、特に限られるものではない。例えば、情報処理装置1が設備の状態を推定する場合は、各クラスは、「正常」、「異常」、「要警戒」、「故障」などといったように定められてよい。情報処理装置1が天候などの今後の予測を行う場合では、各クラスは、例えば、「快晴」、「晴れ」、「曇り」、「雨」などといったように定められてよい。
【0015】
また、情報処理装置1は、分類結果の根拠として示される、分類に有効な部分波形パターンであるシェイプレット(Shapelet)も生成する。シェイプレットも、分類器同様、時系列データが示す内容に応じて異なる。例えば、温度センサの計測結果を示す時系列データに対応するシェイプレットと、湿度センサの計測結果を示す時系列データに対応するシェイプレットと、は形状が当然異なる。シェイプレットは、クラスを分類するための基準となる波形とも言えるため、基準波形パターンとも記載する。
【0016】
図2は、シェイプレットについて説明する図である。図2には、時系列データの波形が、点線によって示されている。また、時系列データに対応するシェイプレットS1が示されている。図2のように、時系列データの波形と、シェイプレットと、が比較されることにより、クラスが定まることになる。図2の例では、時系列データの一部と、シェイプレットと、の類似度が高いため、類似度が高い場合におけるクラスが選択される。なお、類似度ではなく、非類似度に基づいてクラスが選択される場合もあり得る。
【0017】
このように、情報処理装置1は、時系列データと、時系列データに対応する基準波形パターンと、に基づいて時系列データに対する分類を行う。シェイプレットも、分類器と同じく学習により、分類対象の時系列データに応じた適切な形状に近づけられる。さらに、前述の通り、何らかの要因の変動によって時系列データの波形が変化するため、シェイプレットの形状も、当該の要因に応じて調整される必要がある。
【0018】
図3から図5は、時系列データおよびシェイプレットの変形について説明する図である。図3は、ある要因パラメータの値が「4」であるときの時系列データを示す。図4および5は、ある要因パラメータの値が「6」であるときの時系列データを示す。なお、図3から図5に示された時系列データは、いずれも「正常」という同じクラスに分類されるべきものとする。
【0019】
図3には、図3の時系列データに対応するシェイプレットS2が示されている。ここでは、当該時系列データがシェイプレットS2に類似している部分を含む場合に、「正常」と判定されるものとする。ゆえに、図3の例では、正常と判定される。
【0020】
一方、図4では、要因パラメータの値が増加したことにより、図4の時系列データの極値の大きさが、図3に示された時系列データよりも大きくなっている。そのため、図4の時系列データはシェイプレットS2に類似する部分を含むと判定されない可能性が高くなる。すなわち、正常と判定されない可能性が高くなり、分類の精度が低下する。
【0021】
そこで、図5に示す通り、シェイプレットの形状を要因パラメータの値に応じて変形する。図5には、要因パラメータの値が「6」の場合のシェイプレットS2(6)が示されている。符号の一部の「(6)」が対応する要因パラメータの値を表す。図5から明らかのように、図5の時系列データはシェイプレットS2(6)に類似する部分を含むため、正常と判定される。このように、情報処理装置1は、時系列データに対応するシェイプレットの形状を、要因パラメータの値に対応しない形状から、要因パラメータの値にも対応する形状に調整する。これにより、要因パラメータの値に応じて時系列データの波形が変形しても、分類に用いられるシェイプレットの形状も同様に変形するため、分類精度の低下を抑えることができる。
【0022】
シェイプレットの形状の調整は、変形推測モデルに基づいて行われる。変形推測モデルは、要因パラメータの値が入力されると、シェイプレットの特定の形状からの変形量を出力する回帰モデルが想定される。回帰モデルは、特に限られるものではなく、線形回帰モデル、局所線形回帰モデル、非線形リッジ回帰モデルなどでもよい。変形量は、具体的には、シェイプレットを構成する各プロットが調整によって移動した距離を示すベクトルとして表される。そして、シェイプレットの特定の形状と、当該変形量と、を合成することにより、変形推測モデルに入力された要因パラメータの値に対応するシェイプレットが生成される。図3から図5の例で言えば、要因パラメータの値が6であるという情報が変形推測モデルに入力されると、変形推測モデルがシェイプレットS2からの変形量を出力し、当該変形量とシェイプレットS2が合成されてシェイプレットS2(6)が生成されるようにする。変形推測モデルも、学習によってその出力精度を向上させる。
【0023】
なお、変形推測モデルを用いずに、要因パラメータの値ごとのシェイプレットを学習によって生成することも可能ではある。しかし、要因パラメータの値が様々に取り得る場合は非現実的である。例えば、要因パラメータの値が4である時系列データを大量に用意して学習を行い、要因パラメータの値が4である時系列データに対応するシェイプレットS2(4)を生成し、要因パラメータの値が6である時系列データを大量に用意して学習を行い、要因パラメータの値が6である時系列データに対応するシェイプレットS2(6)を生成したとする。この場合では、要因パラメータの値が4である時系列データと、要因パラメータの値が6である時系列データと、を高精度に分類することが可能となる。しかし、要因パラメータの値がその他である時系列データは、高精度に分類することができない。ゆえに、要因パラメータが様々な値を取ることを想定し、そのような要因パラメータに対応可能な回帰モデルに基づく変形推測モデルを用いる。
【0024】
また、変形されたシェイプレットを算出するには、変形量の基準とした特定のシェイプレットを決定する必要がある。例えば、要因パラメータの値を一つ決定し、決定された値における時系列データに対応するシェイプレットを学習によって求めてもよい。また、要因パラメータの値を複数決定し、決定された複数の値ごとの時系列データに対応する各シェイプレットを求め、各シェイプレットの平均、重心などに基づいて特定のシェイプレットを決定してもよい。以降、変形量を求める際の基準となる特定のシェイプレットを「基準シェイプレット」と記載する。本実施形態では、要因パラメータの複数の値ごとのシェイプレットの平均を基準シェイプレットとする。
【0025】
このように、情報処理装置1は、時系列データが示すクラスを判定する分類器と、当該時系列データの基準シェイプレットと、基準シェイプレットからの要因パラメータに応じた変形量を推定する変形推測モデルと、を生成する。
【0026】
本説明で用いる、時系列データなどに関する記号について説明する。本実施形態では、学習に用いられる時系列データをTで表す。また、i(iは1以上の整数)番目の時系列データをTで表す。また、時系列データTの総数はIとする。ゆえに、最後の時系列データはTで表される。また、各時系列データが示す期間の長さ、言い換えれば、各時系列データに含まれるプロットの数、は同じとし、当該長さをQで表す。なお、時系列データには欠損はないものとする。時系列データはI×Qの行列で表される。
【0027】
また、i番目の時系列データTに対する要因パラメータの値をVと表す。なお、Vは1つの値を含むスカラでもよいし、複数の値を含むベクトルでもよい。本説明では、要因パラメータVはN(Nは1以上の整数)次元ベクトルとする。時系列データTの総数をIとし、1つの時系列データTに対応する要因パラメータVはN次元ベクトルとしたため、学習に用いられる時系列データTに対応する要因パラメータは、I×N次元の実数値を示す行列として表される。
【0028】
基準シェイプレットはSで表す。前述の通り、本実施形態では、要因パラメータの複数の値ごとの時系列データに対応する各シェイプレットの平均を基準シェイプレットとするが、この要因パラメータの複数の値の個数をK個とする。各シェイプレットの長さ、つまり、シェイプレットに含まれるプロットの数は、全て共通でL個とする。ゆえに、基準シェイプレットは、K×Lの行列で表わされる。
【0029】
分類器のパラメータはWで表す。なお、パラメータWはベクトルであり、パラメータWの要素の数は、基準シェイプレットSを生成するためのシェイプレットの数と同じKとする。すなわち、パラメータWはK次元のベクトルである。なお、パラメータWのバイアス項は、適宜に定めてよいため、省略する。
【0030】
変形推定モデルのパラメータはαで表す。パラメータαは、変形推定モデルの種類に依存するが、変形推定モデルがバイアス項を省略した線形回帰モデルであると仮定すると、パラメータαはK×L×N次元のテンソルで表される。
【0031】
情報処理装置1の内部構成について説明する。なお、図1に示した構成要素は、上記の処理を行うためのものであり、他の構成要素は省略されている。また、各構成要素は、細分化されてもよいし、まとめられてもよい。例えば、記憶部11は、保存されるファイルなどに応じて、分けられていてもよい。また、記憶部11以外の構成要素を演算部とみなしてもよい。また、各構成要素の処理結果は、次の処理が行われる構成要素に送られてもよいし、記憶部11に記憶され、次の処理が行われる構成要素は記憶部11にアクセスして処理結果を取得してもよい。
【0032】
記憶部11は、情報処理装置1の処理に用いられるデータを記憶する。例えば、学習中または学習終了後の分類器、シェイプレット、変形推定モデルなどが記憶される。また、シェイプレットの個数、シェイプレットの長さなどの設定値が記憶されている。例えば、シェイプレットの数Kのデフォルト値が10であり、シェイプレットの長さLのデフォルト値がQ×0.1などと記憶されていてもよい。情報処理装置1の各構成要素の処理結果などが記憶されてもよい。
【0033】
入力部12は、外部からデータを取得する。例えば、学習に用いられるデータ、テストに用いられるデータなどを取得する。以降、学習に用いられるデータをまとめて「学習用データセット」と記載し、テストに用いられるデータをまとめて「テスト用データセット」と記載する。
【0034】
学習用データセットには、学習に用いられる時系列データと、当該時系列データの分類されるべき正解のクラスと、当該時系列データに対応する要因パラメータの値と、が少なくとも含まれる。なお、学習用データセットに含まれる要因パラメータの値は、基準シェイプレットを生成するため予め定められたK個の値のうちのいずれかであるとする。ただし、K個の値はそれぞれ、適宜に定められてよい。例えば、等差数列のように各値の間隔を一定にしてもよいし、各値をランダムに決定してもよい。
【0035】
テスト用データセットには、テストに用いられる時系列データと、当該時系列データに対応する要因パラメータの値と、が少なくとも含まれる。テスト用データセットに含まれる要因パラメータの値は、学習用データセットのときとは異なり、制限されるものではない。
【0036】
なお、シェイプレットの数Kおよび長さLなど、処理に用いられる設定値が入力されてもよい。設定値が入力された場合は、記憶部11に記憶されている設定値(デフォルト値)の代わりに、入力された設定値が用いられる。
【0037】
なお、線形回帰モデル、局所線形回帰モデル、非線形リッジ回帰モデルなどといった変形推定モデルの種類が複数ある場合、変形推定モデルの種類の指定を取得してもよい。指定を取得しなかった場合には、初期設定で使用予定の変形推定モデル(デフォルトの変形推定モデル)を用いればよい。
【0038】
特徴量算出部13は、シェイプレットおよび時系列データに基づき、シェイプレットと時系列データの関連性を示す特徴量を算出する。学習時では、特徴量算出部13は、基準シェイプレットを生成するために学習中のK個のシェイプレットから、学習用の時系列データの要因パラメータの値に対応するシェイプレットを選択して特徴量の算出に用いる。なお、当該シェイプレットは、後述するシェイプレット更新部16によって更新される。また、テスト時では、特徴量算出部13は、テスト用の時系列データの要因パラメータの値に対応し、変形推定モデルから変形量を用いて生成されたシェイプレットを特徴量の算出に用いる。なお、当該シェイプレットは、後述するシェイプレット調整部17によって生成される。
【0039】
なお、テスト用の時系列データの要因パラメータの値に対応するシェイプレットがシェイプレット更新部16によって生成されている場合は、特徴量算出部13は、テスト時に、シェイプレット更新部16によって生成されたシェイプレットを特徴量の算出に用いてもよい。例えば、学習時において、要因パラメータの値が4であるシェイプレットS2(4)と、要因パラメータの値が6である時系列データに対応するシェイプレットS2(6)と、が生成されていたとする。この場合において、テスト時に要因パラメータの値が4.5である時系列データの特徴量を算出するときは、変形推定モデルを用いてシェイプレットS2(4.5)を生成する必要がある。しかし、この場合において、テスト時に要因パラメータの値が6である時系列データの特徴量を算出するときは、変形推定モデルを用いてシェイプレットS2(6)を生成しなくとも、既に生成されているシェイプレットS2(6)を用いればよい。このように、変形推定モデルを用いたシェイプレットの調整は、生成されているシェイプレット以外に対して行えばよい。言い換えれば、変形推定モデルは、生成されていないシェイプレットの推定のために用いられればよく、変形推定モデルによって、シェイプレットの変形を内挿および外挿することができる。
【0040】
特徴量は、例えば、用いられるシェイプレットの各プロットと、時系列データの対応する各プロットと、の距離を示すベクトルとしてもよい。なお、シェイプレットの各プロットに対応する時系列データの各プロットは、時系列データのオフセットを動かして、対応するプロット同士の距離の総和が最小となるものを探索して決定される。なお、当該距離にはユークリッド距離を用いてよい。
【0041】
分類部14は、算出された特徴量を分類器に入力することにより、分類結果を取得する。分類結果は、正解のクラスに該当する確率などの数値で表される。分類器は、サポートベクタマシン、ニューラルネットワークモデルなどといった公知の分類器を用いてよい。
【0042】
分類器更新部15は、学習時において、分類器のパラメータWの値を分類結果に基づいて更新する。また、シェイプレット更新部16は、学習時において、基準シェイプレットを生成するためのK個のシェイプレットのうちの特徴量の算出に用いられたシェイプレットを、分類結果に基づいて更新する。これらの更新は、分類結果が、時系列データに対応付けられた正解に近づくように更新される。例えば、正解のクラスに該当する確率などの数値を引数として含む損失関数の値が小さくなるように更新してもよい。例えば、勾配を定義して、勾配降下法を用いてパラメータを更新してもよい。
【0043】
また、シェイプレット更新部16は、更新予定のシェイプレットを、同じクラスに分類された時系列データの波形に近づくように更新してもよい。例えば、「正常」というクラスに分類するためのシェイプレットの形状が、「正常」というクラスに分類されるべき時系列データの波形の一部に近づくように更新してもよい。分類器は、シェイプレットの形状と、時系列データの波形の一部と、の類似度が低いことを理由に分類を行うこともできるが、人間は、図2に示したように、シェイプレットの形状と、時系列データの波形の一部と、が類似することが示されたほうが、分類結果の正当性を理解しやすいからである。
【0044】
シェイプレット調整部17は、時系列データに対応する要因パラメータの値に基づき、当該時系列データの分類に用いられる基準シェイプレットを調整する。具体的には、要因パラメータの値を変形推定モデルに入力し、当該値に応じた変形量を取得する。そして、算出された変形量を基準シェイプレットに加えることにより、要因パラメータの値に応じたシェイプレットが生成される。言い換えれば、基準シェイプレットの形状が、要因パラメータの値に応じていない形状から、要因パラメータの値に応じた形状に調整される。
【0045】
変形推定モデル更新部18は、シェイプレット調整部17によって調整されたシェイプレット、言い換えれば、要因パラメータに応じた形状に調整されたシェイプレットが、シェイプレット更新部16によって更新されたシェイプレットに近づくように、変形推定モデルに含まれるパラメータを更新する。更新方法は、分類器と同様、勾配降下法などの従来手法を用いてよい。例えば、比較されるシェイプレットの差分を目的変数とし、要因パラメータを説明変数として、変形推定モデルのパラメータを更新する。例えば、当該差分と要因パラメータが線形回帰である場合は、最小二乗法などを用いて変形推定モデルのパラメータを推定すればよい。
【0046】
出力部19は、各構成要素の処理結果を出力する。例えば、用いられた時系列データ、シェイプレットの形状などに関する情報が出力される。なお、出力部19の出力形式は、特に限られるものではなく、例えば、表でも画像でもよい
【0047】
図6から図9は、出力の各例を示す図である。図6には、左側の「入力」という領域に入力内容が示され、右側の「出力」という領域に出力内容が示されている。
【0048】
図6の入力内容は、「要因パラメータA」の値と、「要因パラメータB」の値と、使用される時系列波形データのファイル名と、である。また、出力内容は、入力で指定された時系列波形データを示す点線のグラフと、当該時系列波形データに合うように変形されたシェイプレットを示す実線のグラフと、である。図6(A)および図6(B)に示すように、各要因パラメータの値が変えられている。そのため、図6(A)および図6(B)に示されたシェイプレットは、同じ基準シェイプレットが生成されているが、入力された要因パラメータの値に応じた形状に変化している。このように、シェイプレットの形状が想定要因に応じて変化することにより、時系列波形データにシェイプレットが含まれているかどうかの判定の精度の低下を抑えることができる。また、図6のようなグラフを出力することにより、情報処理装置1のユーザが、要因パラメータに応じたシェイプレットの変形を認識することができる。
【0049】
図7は、シェイプレットの変形の推定に用いたモデルが異なる場合の例を示す。図7の入力内容は、「要因パラメータA」の値と、「要因パラメータB」の値と、使用される時系列波形データのファイル名と、変形推定モデルの名称と、である。また、図7の出力内容は、入力で指定された時系列波形データのグラフと、当該時系列波形データに当てはまるシェイプレットと、である。
【0050】
図7(A)および図7(B)の例では、同じ時系列波形データが用いられているが、使用された変形推定モデルは異なる。そのため、出力されたシェイプレットの形状が異なっている。例えば、図7のような変形推定モデルごとの出力を確認して、要因パラメータに応じた変形推定モデルを指定するといったことが行われてもよい。このような出力を行うことにより、情報処理装置1のユーザが分類に有効なシェイプレットを適切に選択することを支援することができる。
【0051】
図8は、要因パラメータの数を調整する場合の例を示す。図8の入力内容は、考慮する要因パラメータの数である。図8の例では、スライドレバーなどによって、要因パラメータの数が調整できることを示しており、図8(A)に示された入力の状態から図8(B)に示された入力の状態に変更することにより、考慮される要因パラメータの数を増加させている。このようにして要因パラメータの数を増減させた場合、使用される変形推定モデルが変更される。すなわち、要因パラメータの数が異なる変形推定モデルを予め学習させておき、要因パラメータの指定数に応じて使用する変形推定モデルが変化する。なお、使用する要因パラメータが指定されてもよい。その場合は、指定された要因パラメータを考慮可能であって、考慮する要因パラメータの数が指定数と同じである変形推定モデルが選択される。
【0052】
また、図8の出力内容は、要因パラメータの数によって変化したシェイプレットのグラフである。図8の例では、三つのシェイプレットのグラフが示されている。そのうち、右側および真中のシェイプレットは、要因パラメータの数が変化しても影響はないが、左側のシェイプレットは、要因パラメータの数が多くなると極限値が大きくなることが分かる。
【0053】
図8のような出力により、情報処理装置1のユーザは、要因パラメータとシェイプレットとの関係を直感的に理解することができる。特に、学習時に全ての要因パラメータが計測されていなくても、シェイプレットの変形を推定することができる。これにより、ユーザは、要因パラメータのある値が実際のデータとして収集することが難しい場合でも、当該値におけるシェイプレットの変形を確認することができる。
【0054】
図9の例は、値を変動させる要因パラメータと、シェイプレット内のプロットと、の指定を受け付けた場合に、指定された要因パラメータの値の変動に応じて、指定されたプロットがどのように変動するかを示している。図9の例では、指定された要因パラメータの値が-100から+100まで変動させる。この場合に、シェイプレットの8番目のプロットの変動が出力されている。図9の例では、指定された8番目のプロットの一つ前の7番目のプロットとの差の変動が示されている。要因パラメータが-100から増加されると、当該増加に応じて7番目のプロットも8番目のプロットも変動するが、8番目のプロットの変動のほうが大きく、プロットの横軸値の差が広がることが示されている。また、当該差はリニアに増加するのではなく、要因パラメータの値が100になる前に、徐々に減少することも示されている。このように、特定のプロットと、他のプロットと、の関係性について出力してもよい。
【0055】
次に、構成要素の各処理の流れについて説明する。図10は、学習処理の概略フローチャートである。本フローチャートでは、シェイプレット、分類器、変形推定モデルに対する学習が行われる。
【0056】
なお、本フローの開始時においてこれらの学習対象は初期状態であるとする。なお、記憶部11に記憶された初期状態の学習対象を用いてもよいし、本フローの開始と同時に学習対象が初期化されてもよい。例えば、分類器のパラメータWの初期状態は全ての要素を0とする。要因パラメータにおける変形を考慮したシェイプレットの初期化は、各要因パラメータにおける時系列データセットから長さLのセグメントを抽出してk-means法などのクラスタリングを行う。これにより、各要因パラメータごとにK個のクラスタのセントロイドを要因パラメータの変形を考慮したシェイプレットとする。αの初期化は、例えば線形変形推定モデルの場合、全ての要素を0とするテンソルとして初期化する。
【0057】
入力部12は、学習用データセットを取得する(S101)。学習用データセットには、前述の通り、時系列データと、当該時系列データの正解のクラスと、当該時系列データに対応する要因パラメータの値と、が含まれる。また、当該値は、任意な値ではなく、K個の予め定められた値のいずれかとする。
【0058】
特徴量算出部13は、記憶部11に記憶されているK個のシェイプレットのうちから、要因パラメータの値に対応するシェイプレットを選択し、選択されたシェイプレットと、時系列データと、に基づき、特徴ベクトルを生成する(S102)。記憶部11に記憶されているK個のシェイプレットは、予め記憶部11に記憶されており、後述のS108の処理によって更新されていく。すなわち、学習時の特徴量は、シェイプレット調整部17によって調整されたシェイプレットではなく、シェイプレット更新部16によって更新されたシェイプレットと、時系列データの波形と、に基づく。
【0059】
分類部14は、算出された特徴量を分類器に入力して分類結果を取得する(S103)。分類器更新部15およびシェイプレット更新部16は、分類結果が正解のクラスに近づくよう、選択されたシェイプレットと、分類器のパラメータと、を更新する(S104)。
【0060】
一方、シェイプレット調整部17は、選択されたシェイプレットが更新される前に、要因パラメータの各値に対応する複数のシェイプレットに基づいて基準シェイプレットを算出する(S105)。シェイプレット調整部17が取得された要因パラメータの値を変形推定モデルに入力して、当該値に対応するシェイプレットの変形量を推定する(S106)。シェイプレット調整部17が推定された変形量を基準シェイプレットに加えて当該値に対応するシェイプレットを算出する(S107)。
【0061】
変形推定モデル更新部18が、シェイプレット調整部17によって算出されたシェイプレットがシェイプレット更新部16によって更新されたシェイプレットに近づくように、変形推定モデルのパラメータを更新する。シェイプレット更新部16によって更新されたシェイプレットは、シェイプレット調整部17によって算出されたシェイプレットよりも新しいため、適切な形状に近いと考えられるためである。これにより、変形推定モデルのパラメータも適切な値に近づく。
【0062】
そして、学習の終了条件を満たすかが判定され、学習の終了条件を満たさない場合(S108のNO)は、S101の処理に戻り、次の学習用の時系列データに基づき、再度、学習が行われる。S101からS107の処理が1回分の学習となる。学習の終了条件を満たす場合(S108のYES)は、学習は終了となり、出力部19が、生成されたシェイプレットの形状などを出力し(S109)、フローは終了する。
【0063】
学習の終了条件は、適宜に定めてよい。例えば、繰り返し回数が上限値に達した場合に終了するとしてよい。目的関数の値が所定閾値を超えた場合に終了するとしてもよい。
【0064】
なお、本説明におけるフローチャートは一例であり、記載の例に限られるものではない。実施形態の求められる仕様、変更などに応じて、手順の並び替え、追加、および省略が行われてもよい。例えば、各構成要素の処理結果は、逐次、記憶部11に記憶され、各構成要素は、処理に必要な他の構成要素の処理結果を、記憶部11から取得してもよい。また、出力部19の出力は、学習の終了時に実行されず、出力指示を受け付けた場合に出力されてもよい。
【0065】
図11は、分類処理の概略フローチャートである。本フローチャートは、分類器などへの学習が完了した後に行われる。
【0066】
入力部12が、テスト用データセットを取得する(S201)。前述の通り、テスト用データセットには、時系列データと、当該時系列データに対応する要因パラメータの値と、が含まれる。また、当該値は、学習用データセットとは異なり任意の値でよい。
【0067】
シェイプレット調整部17が取得された要因パラメータの値を変形推定モデルに入力してシェイプレットの変形量を推定し(S202)、推定された変形量を学習済みの基準シェイプレットに加えて当該値に対応するシェイプレットを生成する(S203)。
【0068】
特徴量算出部13は、シェイプレット調整部17によって生成されたシェイプレットに基づき、取得されたテスト用の時系列データの特徴量を算出する(S204)。すなわち、テスト時の特徴量は、シェイプレット調整部17によって調整されたシェイプレットと、時系列データの波形と、に基づく。なお、前述の通り、両者間の距離を特徴量にしてもよく、その場合、調整後の基準シェイプレットに基づく特徴量は、調整前の基準シェイプレットの特徴量よりも小さくなる。調整によって特徴量が小さくなることにより、特徴量に基づく分類の結果の精度が高くなる。
【0069】
分類部14は、算出された特徴量を分類器に入力して分類結果を取得する(S205)。そして、出力部19が、分類結果などの処理結果を出力し(S206)、フローは終了する。
【0070】
なお、上記の分類処理は、学習処理を行った情報処理装置1とは別の情報処理装置1が行うことも可能である。例えば、学習処理はクラウドに置かれた第1情報処理装置が実行し、分類処理は、時系列データを取得するセンサなどと同じ施設に置かれた第2情報処理装置が実行するといったことも可能である。この場合、第1情報処理装置は学習装置とも言え、第2情報処理装置は分類装置とも言える。
【0071】
以上のように、本実施形態の情報処理装置1は、時系列データに基づいてクラスを分類する分類器を生成する際に、分類の根拠となるシェイプレットを生成するのみならず、想定要因の変動に応じたシェイプレットの変形を推定するモデルも生成する。そして、当該モデルを用いて、シェイプレットの形状を要因パラメータに応じたものに変形する。これにより、要因パラメータが多様な値を取り得る場合でも、容易にシェイプレットを変形させて、分類性能の低下を抑えることができる。
【0072】
さらに、本実施形態の情報処理装置1は、シェイプレットの変形に関する情報を提示することにより、分類の根拠に対する説得力を強化する、異常時の原因究明に貢献するといった支援を提供することができる。
【0073】
なお、上記の実施形態の少なくとも一部は、プロセッサ、メモリなどを実装しているIC(Integrated Circuit:集積回路)などの専用の電子回路(すなわちハードウェア)により実現されてもよい。また、上記の実施形態の少なくとも一部は、ソフトウェア(プログラム)を実行することにより、実現されてもよい。例えば、汎用のコンピュータ装置を基本ハードウェアとして用い、コンピュータ装置に搭載されたCPUなどのプロセッサにプログラムを実行させることにより、上記の実施形態の処理を実現することが可能である。
【0074】
例えば、コンピュータが読み取り可能な記憶媒体に記憶された専用のソフトウェアをコンピュータが読み出すことにより、コンピュータを上記の実施形態の装置とすることができる。記憶媒体の種類は特に限定されるものではない。また、通信ネットワークを介してダウンロードされた専用のソフトウェアをコンピュータがインストールすることにより、コンピュータを上記の実施形態の装置とすることができる。こうして、ソフトウェアによる情報処理が、ハードウェア資源を用いて、具体的に実装される。
【0075】
図12は、本発明の一実施形態におけるハードウェア構成の一例を示すブロック図である。情報処理装置1は、プロセッサ21と、主記憶装置22と、補助記憶装置23と、ネットワークインタフェース24と、デバイスインタフェース25と、を備え、これらがバス26を介して接続されたコンピュータ装置2として実現できる。記憶部11は、主記憶装置22または補助記憶装置23により実現可能であり、特徴量算出部など記憶部1111以外の構成要素は、プロセッサ21により実現可能である。
【0076】
なお、図12のコンピュータ装置2は、各構成要素を一つ備えているが、同じ構成要素を複数備えていてもよい。また、図12は、1台のコンピュータ装置2が示されているが、ソフトウェアが複数のコンピュータ装置にインストールされて、当該複数のコンピュータ装置それぞれがソフトウェアの異なる一部の処理を実行してもよい。
【0077】
プロセッサ21は、コンピュータの制御装置および演算装置を含む電子回路である。プロセッサ21は、コンピュータ装置2の内部構成の各装置などから入力されたデータやプログラムに基づいて演算処理を行い、演算結果や制御信号を各装置などに出力する。具体的には、プロセッサ21は、コンピュータ装置2のOS(オペレーティングシステム)や、アプリケーションなどを実行し、コンピュータ装置2を構成する各装置を制御する。プロセッサ21は、上記の処理を行うことができれば特に限られるものではない。
【0078】
主記憶装置22は、プロセッサ21が実行する命令および各種データなどを記憶する記憶装置であり、主記憶装置22に記憶された情報がプロセッサ21により直接読み出される。補助記憶装置23は、主記憶装置22以外の記憶装置である。なお、これらの記憶装置は、電子情報を格納可能な任意の電子部品を意味するものとし、メモリでもストレージでもよい。また、メモリには、揮発性メモリと、不揮発性メモリがあるが、いずれでもよい。
【0079】
ネットワークインタフェース24は、無線または有線により、通信ネットワーク3に接続するためのインタフェースである。ネットワークインタフェース24は、既存の通信規格に適合したものを用いればよい。ネットワークインタフェース24により、通信ネットワーク3を介して通信接続された外部装置4Aと情報のやり取りが行われてもよい。
【0080】
デバイスインタフェース25は、外部装置4Bと直接接続するUSBなどのインタフェースである。外部装置4Bは、外部記憶媒体でもよいし、データベースなどのストレージ装置でもよい。
【0081】
外部装置4Aおよび4Bは出力装置でもよい。出力装置は、例えば、画像を表示するための表示装置でもよいし、音声などを出力する装置などでもよい。例えば、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)、PDP(Plasma Display Panel)、スピーカなどがあるが、これらに限られるものではない。
【0082】
なお、外部装置4Aおよび4Bは入力装置でもよい。入力装置は、キーボード、マウス、タッチパネルなどのデバイスを備え、これらのデバイスにより入力された情報をコンピュータ装置2に与える。入力装置からの信号はプロセッサ21に出力される。
【0083】
上記に、本発明の一実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、移行を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
【符号の説明】
【0084】
1 情報処理装置
11 記憶部
12 入力部
13 特徴量算出部
14 分類部
15 分類器更新部
16 シェイプレット更新部
17 シェイプレット調整部
18 変形推定モデル更新部
19 出力部
2 コンピュータ装置
21 プロセッサ
22 主記憶装置
23 補助記憶装置
24 ネットワークインタフェース
25 デバイスインタフェース
26 バス
3 通信ネットワーク
4Aおよび4B 外部装置
S1、S2、S2(6) シェイプレット
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12