特許第6969993号(P6969993)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社デンソーの特許一覧 ▶ 学校法人立命館の特許一覧

<>
  • 特許6969993-情報抽出装置 図000007
  • 特許6969993-情報抽出装置 図000008
  • 特許6969993-情報抽出装置 図000009
  • 特許6969993-情報抽出装置 図000010
  • 特許6969993-情報抽出装置 図000011
  • 特許6969993-情報抽出装置 図000012
  • 特許6969993-情報抽出装置 図000013
  • 特許6969993-情報抽出装置 図000014
  • 特許6969993-情報抽出装置 図000015
  • 特許6969993-情報抽出装置 図000016
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6969993
(24)【登録日】2021年11月1日
(45)【発行日】2021年11月24日
(54)【発明の名称】情報抽出装置
(51)【国際特許分類】
   G06F 17/17 20060101AFI20211111BHJP
   G06N 3/02 20060101ALI20211111BHJP
   G06F 16/20 20190101ALI20211111BHJP
   G06F 16/28 20190101ALI20211111BHJP
   G05B 23/02 20060101ALI20211111BHJP
【FI】
   G06F17/17
   G06N3/02
   G06F16/20
   G06F16/28
   G05B23/02 Z
【請求項の数】8
【全頁数】14
(21)【出願番号】特願2017-231610(P2017-231610)
(22)【出願日】2017年12月1日
(65)【公開番号】特開2019-101728(P2019-101728A)
(43)【公開日】2019年6月24日
【審査請求日】2020年11月11日
(73)【特許権者】
【識別番号】000004260
【氏名又は名称】株式会社デンソー
(73)【特許権者】
【識別番号】593006630
【氏名又は名称】学校法人立命館
(74)【代理人】
【識別番号】110000578
【氏名又は名称】名古屋国際特許業務法人
(72)【発明者】
【氏名】竹中 一仁
(72)【発明者】
【氏名】三澤 秀明
(72)【発明者】
【氏名】谷口 忠大
(72)【発明者】
【氏名】劉 海龍
【審査官】 坂庭 剛史
(56)【参考文献】
【文献】 国際公開第2011/043093(WO,A1)
【文献】 国際公開第2016/132468(WO,A1)
【文献】 THOMPSON, Benjamin B. et al.,On the Contractive Nature of Autoencoders: Application to Missing Sensor Restoration,Proceeding of the International Joint Conference on Neural Networks,米国,IEEE,2003年08月26日,pp.3011-3016,DOI: 10.1109/IJCNN.2003.1224051,ISBN: 0-7803-7898-9
【文献】 池田泰弘、石橋圭介、中野雄介、渡辺敬志郎、川原亮一,オートエンコーダを用いた異常検知におけるスパース最適化を用いた要因推定手法,電子情報通信学会技術研究報告,日本,一般社団法人電子情報通信学会,2017年06月08日,Vol.117,No.89,pp.61−66(IN2017-18),ISSN 0913-5685
(58)【調査した分野】(Int.Cl.,DB名)
G06F 17/17
G06N 3/02
G06F 16/00
G05B 23/02
(57)【特許請求の範囲】
【請求項1】
各要素が相関関係を有する多次元ベクトルで表現された入力データ及び前記入力データにおける各要素の異常状況を示す状況情報を取得するように構成された取得部(12)と、
前記状況情報により異常ありと示された1又は複数の前記要素のそれぞれを対象要素として、前記入力データの要素間の正常な相関関係を学習させたニューラルネットワークである監視モデルを用いて、前記入力データ中の前記対象要素を正常値に復元した復元データを生成するように構成された復元部(13)と、
前記状況情報が異常なしを示す場合は前記入力データ、前記状況情報が異常ありを示す場合は前記復元データを対象データとして、前記対象データに関する1つ以上の潜在特徴を出力情報として抽出するように構成された抽出部(14)と、
を備える情報抽出装置。
【請求項2】
請求項1に記載の情報抽出装置であって、
前記監視モデルとして、複数の中間層を有する自己符号化器を用いるように構成された
情報抽出装置。
【請求項3】
請求項2に記載の情報抽出装置であって、
前記抽出部は、前記潜在特徴として、前記対象データを前記監視モデルに入力することで得られる前記監視モデルの中間層からの出力を用いるように構成された
情報抽出装置。
【請求項4】
請求項1から請求項3のいずれか1項に記載の情報抽出装置であって、
前記復元部は、前記監視モデルを用いて、前記監視モデルに入力された前記入力データを再構成した結果を再構成データとして、前記入力データに対する前記再構成データの誤差の大きさを表す誤差評価値、及び前記対象要素に対する前記誤差評価値の勾配を算出し、該勾配に従って前記誤差評価値が小さくなる方向に前記対象要素を更新し、前記対象要素が更新された前記入力データを用いて同様の処理を繰り返すことで、前記復元データを生成するように構成された
情報抽出装置。
【請求項5】
請求項1から請求項4のいずれか1項に記載の情報抽出装置であって、
前記取得部は、車両に搭載された複数のセンサのそれぞれから出力される時系列データを一定時間毎に分割し一括してベクトル化することで、前記入力データを連続的に生成するように構成された、
情報抽出装置。
【請求項6】
請求項5に記載の情報抽出装置であって、
前記取得部は、滑走時間窓を用いて、前記時系列データを分割するように構成された
情報抽出装置。
【請求項7】
請求項1から請求項6のいずれか1項に記載の情報抽出装置であって、
前記取得部は、前記監視モデルを用いて該監視モデルに入力された前記入力データを再構成した結果を再構成データとして、前記入力データと前記再構成データとの差分である再構成誤差を算出し、前記再構成誤差の各要素の値である個別誤差のうち、予め設定された誤差閾値より大きい前記個別誤差を有する前記要素を前記対象要素として、前記対象要素が存在する場合に、該対象要素に異常があることを示す前記状況情報を生成するように構成された、
情報抽出装置。
【請求項8】
請求項5又は請求項6に記載の情報抽出装置であって、
前記取得部は、前記複数のセンサのそれぞれに設けられた前記センサの出力の異常の有無を検知する異常検知部での検知結果を前記状況情報として取得するように構成された
情報抽出装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、入力データから必要な情報を抽出する技術に関する。
【背景技術】
【0002】
下記特許文献1には、車両に搭載された様々なセンサ信号の基準値をニューラルネット(以下、監視モデル)によって学習し、この監視モデルを用いて、基準値を外れる信号を検知する技術が提案されている。
【0003】
具体的には、複数のセンサ信号をベクトル化した入力データと、監視モデルを用いて入力データを再構成した結果である再構成データとの誤差を、ベクトルの各要素について求め、この誤差が大きい要素に対応するセンサ信号に異常があると判断する。
【先行技術文献】
【特許文献】
【0004】
【特許文献1】特開2016−45861号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
しかしながら、特許文献1に記載の従来技術では、データが欠損する等の異常を検知することはできるが、その異常が検知されたデータを回復する手段がなく、そのままデータ解析等の後段処理に用いると、処理の精度や信頼性を低下させてしまうという課題があった。
【0006】
また、例えば、入力データがセンサ信号である場合、センサ信号の異常には、部品故障等を原因とする回復不能なケース以外に、ノイズ等を原因とする一時的なデータの異常や欠損が生じるケースがある。特に、後者のケースは、使用環境によっては頻発するため、異常が検出されたデータを全て排除すると、後段処理を効果的に稼働させることができないという課題もあった。
【0007】
本開示の1つの局面は、異常を含むデータを効率よく利用する技術を提供することにある。
【課題を解決するための手段】
【0008】
本開示の一態様による情報抽出装置(10)は、取得部(12)と、復元部(13)と、抽出部(14)と、を備える。
取得部は、各要素が相関関係を有する多次元ベクトルにて表現された入力データ及び入力データにおける各要素の異常状況を示す状況情報を取得する。復元部は、状況情報により異常ありと示された1又は複数の要素のそれぞれを対象要素として、入力データの要素間の正常な相関関係を学習させたニューラルネットワークである変換モデルを用いて、入力データ中の対象要素を正常値に復元した復元データを生成する。抽出部は、状況情報が異常なしを示す場合は入力データ、状況情報が異常ありを示す場合は復元データを対象データとして、対象データに関する1つ以上の潜在特徴を出力情報として抽出する。
【0009】
このような構成によれば、入力データが欠損等の部分的な異常を含む場合でも、その異常の影響が抑制された、後段処理での使用に耐えうる出力情報を抽出することができる。さらに、このような出力情報を用いることで、異常を含むデータの影響を受けないロバストなデータ解析等を実現することができる。
【0010】
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。
【図面の簡単な説明】
【0011】
図1】情報処理システムの構成を示すブロック図である。
図2】学習部が実行する学習処理のフローチャートである。
図3】入力データの生成方法に関する説明図である。
図4】学習処理の概要を示す説明図である。
図5】取得部が実行する取得処理のフローチャートである。
図6】取得処理の概要を示す説明図である。
図7】復元部が実行する復元処理のフローチャートである。
図8】復元処理の概要を示す説明図である。
図9】抽出部が実行する抽出処理のフローチャートである。
図10】抽出処理の概要を示す説明図である。
【発明を実施するための形態】
【0012】
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.構成]
図1に示す情報処理システム1は、センサ群3と、情報抽出装置10と、情報処理装置5と、モデル生成装置20とを備える。なお、センサ群3、情報抽出装置10、及び情報処理装置5は、車両に搭載される。また、モデル生成装置20は、センサ群3等を搭載する車両と無線通信を行う機能を有した基地局、または基地局が接続された通信ネットワーク上のサーバ等に設けられる。なお、情報抽出装置10及び情報処理装置5のうち少なくとも一方が、車両の外部に設けられていてもよい。
【0013】
[1−1.センサ群]
センサ群3は、車両に対する運転操作を表す操作データを出力するセンサ、及び運転操作の結果である車両の挙動を表す挙動データを出力するセンサのうち、少なくとも一方が含まれる。
【0014】
具体的には、操作データとしては、アクセル、ブレーキ、及びステアリング等の操作量が挙げられる。挙動データとしては、速度、加速度及びヨーレート等が挙げられる。また、運転データには、運転状況の特定に有用な状況データが含まれてもよい。状況データとして、具体的には、車載カメラの映像データ、地図データ等から抽出される走行中の道路に関する道路属性データ、現在位置を表す位置データ、現在時刻を表す時刻データ等が挙げられる。
【0015】
以下、センサ群3からの出力を順番に並べることで生成される多次元ベクトルを検出ベクトルという。つまり、検出ベクトルに属する各要素が、センサ群3を構成する個々のセンサの出力に該当する。
【0016】
[1−2.モデル生成装置]
モデル生成装置20は、情報蓄積部21と、学習部22と、モデル記憶部23と、配信部24とを備える。
【0017】
情報蓄積部21は、複数の車両に搭載されたセンサ群3から出力される検出ベクトルの時系列を、何らかの方法で取得して大量に記憶する。但し、情報蓄積部21には、データの欠損等の異常を含まない検出ベクトル(即ち、非欠損データ)の時系列が記憶される。
【0018】
学習部22は、情報蓄積部21に蓄積されたデータを用いて、ニューラルネットワークの学習を行うことで、監視モデルを生成する学習処理を実行する。学習処理の詳細については後述する。監視モデルには、入力されたデータを一つ以上の潜在特徴に変換後、元のデータを再構成する自己符号化器とよばれるニューラルネットワークが用いられる。特にここでは、複数の中間層を備える多層自己符号化器が用いられる。
【0019】
モデル記憶部23は、学習部22にて生成された監視モデルを記憶する。
配信部24は、モデル記憶部23に記憶された監視モデルを、複数の車両のそれぞれに搭載された情報抽出装置10に配信する。
【0020】
ここで、学習部22が実行する学習処理を、図2のフローチャートを用いて説明する。学習処理は、例えば、情報蓄積部21に所定量の情報が蓄積される毎、又は一定期間が経過する毎に実行される。また、学習処理は、外部からの指令を受けた場合に実行されてもよい。
【0021】
学習処理が開始されると、S110では、学習部22は、情報蓄積部21に蓄積された検出ベクトルXの時系列を取得する。なお、検出ベクトルXは、検出ベクトルXの次元数、即ち、センサ群3を構成するセンサの数をDとして、(1)式で表現される。
【0022】
【数1】
S120では、学習部22は、検出ベクトルXの時系列を、時間窓を用いて順次切り取り、切り取ったデータを多次元ベクトルで表現した多数の学習データを生成する。時間窓は、図3に示すように、Tを時間窓の幅とし、Sを時間窓のスライド間隔として、W>Sとなるように設定された、いわゆる滑走時間窓が用いられる。つまり、学習部22では、一部の時間領域が重複するように設定される時間窓を用いて、多数の学習データが生成される。なお、学習データの系列は、学習データの次元数をP(但し、P=D×T)として、(2)式で表現される。(3)及び(4)式は、個々の各学習データの詳細を表す。但し、T,Sは、検出ベクトル生成間隔(即ち、センサ信号のサンプリング間隔)の整数倍によって表現される。以後、(2)式で表現される時刻tでの次元数PのベクトルをYとも表現することにする。
【0023】
【数2】
S130では、学習部22は、先のS120で生成された個々の学習データを正規化する。ここでの正規化は、学習データに属する各要素の値が0〜1を値域とする値となるように変換することを意味する。
【0024】
S140では、学習部22は、先のS130で生成された正規化された学習データ(以下、単に学習データ)を用いてニューラルネットワークの学習を実行し、学習により生成
された監視モデルをモデル記憶部23に記憶させて、本処理を終了する。
【0025】
この学習では、図4に示すように、学習データをニューラルネットワークの入力とし、ネットワークの出力(以下、再構成データ)の目標値として、入力に用いた学習データを用いる。そして、入力した学習データと再構成データとの差分である再構成誤差が最小となるように、監視モデル(即ち、ニューラルネットワーク)のパラメータを調整する。このような学習は、例えばバックプロパゲーション等、ニューラルネットワークにおける公知の学習方法を用いることができる。使用する監視モデル(即ち、ニューラルネットワーク)は、Stacked Denoising Auto-encoder又はStacked Sparse Auto-encoder等の自己符号化器、又はその亜種を用いることができる。
【0026】
ここで、再構成誤差は、学習データと同じ次元数の多次元ベクトル(以下、再構成誤差ベクトル)で表現され、(5)式は、再構成誤差ベクトルにおいてpで特定される要素(以下、個別誤差)を表す。(5)式において、学習データを表す符号にハット記号を付加した符号で表されるデータが、再構成データである。学習では、(6)式に示すように、再構成誤差ベクトルに属する全ての要素の個別誤差を加算した結果を誤差評価値として、この誤差評価値の学習データ全体に対する和を目的関数とする。そして、この目的関数が最小となるように、ニューラルネットワークを構成する各ノードの重みが調整される。
【0027】
【数3】
[1−3.情報抽出装置]
図1に戻り、情報抽出装置10は、センサ群3からの出力である検出データの時系列から検出データの特徴を表す情報を抽出し、出力情報として情報処理装置5に出力する。情報抽出装置10は、取得部12と、復元部13と、抽出部14とを備える。情報抽出装置10は、モデル記憶部11と、受信部15を備えてもよい。
【0028】
受信部15は、モデル生成装置20から配信される監視モデルを受信し、モデル記憶部11に記憶させる。受信部15は、省略されていてもよい。受信部15を省略した場合、モデル生成装置20で生成された監視モデルを、手動でモデル記憶部11に記憶させればよい。
【0029】
取得部12は、センサ群3から検出ベクトルの時系列を取得して入力データを生成すると共に、モデル記憶部11に記憶された監視モデルを用いて、入力データの異常、ひいてはセンサ群3に属する各センサの出力における欠損等の異常の有無を検出する。
【0030】
復元部13は、取得部12にて入力データの異常が検出された場合に、モデル記憶部11に記憶された監視モデルを用いて、入力データの異常が検出された部分を復元した復元データを生成する。
【0031】
抽出部14は、入力データの異常が検出され復元部13にて復元データが生成された場合は復元データ、入力データの異常が検出されなかった場合は、取得部12にて生成された入力データを対象データとし、この対象データ及び対象データを監視モデルに入力することで得られる対象データの潜在特徴を、出力情報として抽出して、情報処理装置5に出力する。対象データの潜在特徴は、例えば、監視モデルを表すニューラルネットワークの
中間層の出力、特に自己符号化器のエンコーダ部の出力を用いてもよい。
【0032】
[1−3−1.取得処理]
ここで、取得部12が実行する取得処理を、図5のフローチャートを用いて説明する。取得処理は、繰り返し実行される。
【0033】
取得処理が開始されると、S210では、取得部12は、センサ群3から、検出データを順次取得して記憶する。ここでは、検出データの時系列を、先に図3を用いて説明した、時間窓の時間幅T分だけ記憶する。なお、時間幅Tを超える分については、古い記憶内容から順に上書きしてもよい。
【0034】
S220では、取得部12は、処理タイミングであるか否かを判断する。処理タイミングであればS230に進み、処理タイミングでなければS210に戻る。処理タイミングは、前回の処理タイミングからシフト量Sに相当する時間が経過したか否かによって判断する。
【0035】
S230では、取得部12は、S210にて記憶された検出データの時系列を多次元ベクトル化することで入力データを生成し、更に、生成された入力データを正規化する。正規化の具体的な処理は、先のS130での説明と同様である。
【0036】
S240では、取得部12は、S230で生成された正規化された入力データ(以下、単に入力データ)を、モデル記憶部11に記憶された監視モデルに適用することで、再構成データを生成する。
【0037】
S250では、取得部12は、入力データに対する再構成データの誤差である再構成誤差ベクトルを、上述の(5)式を用いて算出する。
S260では、取得部12は、S250にて算出した再構成誤差ベクトルの各要素である個別誤差のそれぞれについて、予め設定された誤差閾値より大きいか否かを判断し、誤差閾値より大きな個別誤差を有する要素(即ち、入力データのいずれかの次元)を対象要素として抽出する。
【0038】
S270では、取得部12は、S260にて対象要素が抽出されたか否かを判断する。対象要素が一つも抽出されなかった場合は、S280に移行し、対象要素が一つでも抽出された場合は、S290に移行する。
【0039】
S280では、取得部12は、S230で生成された入力データを、抽出部14での処理対象となる対象データとして出力し、抽出部14を起動して、本処理を終了する。
S290では、取得部12は、S240で生成された再構成データを、S260で抽出された1又は複数の対象要素のそれぞれを、復元部13での復元対象として出力し、復元部13を起動して本処理を終了する。
【0040】
つまり、取得部12は、図6に示すように、監視モデルに入力データを適用することで生成される再構成データを生成し、入力データと再構成データとの差分である再構成誤差ベクトルを要素毎に評価することで、データ欠損等の異常が発生しているセンサを推定する。
【0041】
[1−3−2.復元処理]
次に、復元部13が実行する復元処理を、図7のフローチャートを用いて説明する。復元処理は、先に説明したS290が実行されることにより起動される。
【0042】
復元処理が開始されると、S310では、復元部13は、先のS230にて生成された入力データを取得する。
S320では、復元部13は、入力データを監視モデルに適用して再構成データを生成する。
【0043】
S330では、復元部13は、入力データに対する再構成データの誤差である再構成誤差ベクトルを算出し、この再構成誤差ベクトルに基づいて(6)式に示す誤差評価値を算出する。
S340では、復元部13は、誤差逆伝播法を用いて、入力データの対象要素について、S330で算出した誤差評価値を減少させる勾配を算出する。具体的には、(7)式に示すように、対象要素に関する目的関数の偏微分を、勾配として算出する。但し、pは対象要素を特定する入力データの次元を表す。対象要素が複数存在する場合には、それぞれについて同様の処理を実行する。
【0044】
【数4】
なお、誤差逆伝播法は、例えば、Rumelhart,David E.,Hinton,Geoffrey E.,Williams,Ronald J.(8 October 1986).”Learning representations by back-propagating errors”.等に詳述された公知技術であるため、ここでの説明は省略する。
【0045】
S350では、復元部13は、S340で算出した勾配を用い、(8)式に従って入力データの対象要素を更新する。但し、ηは、パラメータ更新の学習率である。学習率ηは、例えば、10回更新毎に0.1→0.01→0.001に変化させる等、一定の更新回数毎に定数倍してもよいし、AdaGrad,RMSProp,Adam等、公知の設定手法を用いて設定してもよい。以下では、対象要素が更新された入力データを復元データという。
【0046】
【数5】
つまり、復元処理では、学習処理と同様の手法が用いられるが、学習処理では、学習データ全体の誤差評価値の和である目的関数の値を減少させるようにニューラルネットワークの各ノードの重みを更新するのに対して、復元処理では、入力データに対する誤差評価値を減少させるように入力データの対象要素を更新する点で異なる。
【0047】
S360では、復元部13は、予め設定された終了条件が成立しているか否かを判断する。終了条件が成立していなけれれば、S350で生成された復元データを、S310で取得した入力データの代わりに用いて、S320〜S350の処理を繰り返す。終了条件が成立していれば、S370に移行する。終了条件として、例えば、誤差評価値の値が予め設定された終了閾値以下となること、及びS320〜S350の処理の繰り返し数が所定回数に達することのうち、少なくとも一方を用いることができる。
【0048】
S370では、復元部13は、終了条件が成立した時点で算出されている復元データを、抽出部14での処理対象となる対象データとして出力し、抽出部14を起動して、本処理を終了する。
【0049】
つまり、復元処理では、図8に示すように、再構成誤差を逆伝播させ、再構成誤差を減少させる方向に、入力データの対象要素の値を繰り返し更新することで、対象要素の値が復元された復元データを生成する。この復元処理により、欠損等の異常があるセンサ出力(対象要素)は、監視モデルに保持された正常時における各要素の相関関係を実現するように、即ち、自身のセンサ出力及び他のセンサ出力との整合が取れるように復元される。
【0050】
[1−3−3.抽出処理]
次に、抽出部14が実行する抽出処理を、図9のフローチャートを用いて説明する。抽出処理は、先に説明したS270又はS370が実行されることで起動する。
【0051】
抽出処理が開始されると、S410では、抽出部14は、対象データを取得する。つまり、入力データに異常があると判断され、復元部13によって復元データが生成された場合は、復元データが対象データとして用いられ、入力データに異常がないと判断された場合は、入力データがそのまま対象データとして用いられる。
【0052】
S420では、抽出部14は、図10に示すように、監視モデルのうちエンコーダ部に対象データを適用し、エンコーダ部の出力に対応した中間層の出力を、対象データの潜在特徴を示す情報として抽出する。なお、抽出の対象となる情報は、エンコーダ部の出力に対応した中間層の出力に限定されるものではなく、他の中間層の出力を用いてもよい。また、後段の装置(例えば、情報処理装置5)が実行するアプリケーションに応じて抽出する情報を切り替えてもよい。例えば、後段の装置がセンサ群3の検知データを入力として用いるものであれば、抽出部14は対象データ(即ち、異常がない場合は入力データ、異常がある場合は復元データ)の部分データをそのまま出力しても良い。
【0053】
S430では、抽出部14は、対象データ及びS420で抽出された中間層の出力を出力情報として、情報処理装置5に出力して、本処理を終了する。
[1−4.情報処理部]
情報処理装置5は、情報抽出装置10からの出力情報に基づいて、データ解析等の後段処理を実施する。具体的には、例えば、対象データの統計量を求めたり、対象データ又はその統計量を用いて、運転シーンの解析及びドライバ特性の解析等を行ったりしてもよい。なお、解析の対象となるドライバ特性は、例えば、平均アクセル開度、ステアリングのぶれ等が挙げられる。
【0054】
また、情報処理装置5は、出力情報に基づいて、特定のアプリケーションのための情報抽出を行ってもよい。具体的には、例えば、対象データをそのまま可視化したり、危険運転や漫然運転等の兆候を示す情報を抽出して、ドライバに対する注意喚起を行う処理に用いたりしてもよい。
【0055】
ここで、情報抽出装置10、モデル生成装置20及び情報処理装置5は、いずれも、CPUと、例えば、RAM又はROM等の半導体メモリ(以下、メモリ)と、を有するマイクロコンピュータを備えてもよい。この場合、情報抽出装置10、モデル生成装置20及び情報処理装置5の各機能は、CPUが非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、情報抽出装置10、モデル生成装置20及び情報処理装置5はいずれも、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
【0056】
情報抽出装置10、モデル生成装置20及び情報処理装置5に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるい
は複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
【0057】
[2.効果]
以上詳述した実施形態によれば、以下の効果を奏する。
(1a)情報処理システム1では、入力データの各要素間の正常時の相関関係を学習した監視モデルを用い、入力データに異常がある場合は、異常のある要素を復元した復元データから出力情報を抽出している。従って、入力データに一時的な欠損等の異常が生じる可能性があっても、その異常による影響が抑制されたロバストな情報抽出を行うことができる。その結果、出力情報を利用する後段処理の精度及び信頼性を向上させることができる。
【0058】
(1b)情報処理システム1では、監視モデルとして多層自己符号化器が用いられているため、監視モデルの中間層から、入力データの持つ冗長な情報が排除された潜在特徴を、出力情報として抽出することができる。
【0059】
(1c)情報処理システム1では、監視モデルとして、非線形な特徴を学習することができる多層自己符号化器が用いられているため、要素間の複雑な相関関係を精度よく再現することができる。
【0060】
(1d)情報処理システム1では、入力データの対象要素(即ち、欠損データ)の復元に監視モデルを用いているため、監視モデルが保持する入力データの各要素間の正常な相関関係に従って、入力データ全体の整合が取れるように対象要素を復元することができる。即ち、検知データのうち特定のセンサの値が欠損等の異常を含む場合に、他のセンサの値を含めた検知データ全体の整合が取れるように対象要素を復元することができる。更に、入力データには検出データの時系列が含まれているため、間欠的に時間窓より狭い幅で欠損等の異常が生じるセンサの出力が対象要素となった場合、時間軸上で前後に位置する同一センサのデータとも整合するように、対象要素を復元することができる。
【0061】
(1e)情報処理システム1では、データ欠損等による異常値を有した要素(即ち、対象要素)の検出と、対象要素の復元と、潜在特徴の抽出と、単一の監視モデルを用いて実現しているため、システム構成を簡略化することができる。
【0062】
(1g)情報処理システム1では、監視モデルを利用して再構成誤差を求め、個別誤差が誤差閾値より大きい要素を、復元する必要のある対象要素として検出している。従って、対象要素の検出に、誤差閾値以外の基準を事前に用意する必要がなく、設計の手間を削減することができる。
【0063】
[3.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
【0064】
(3a)上記実施形態では、監視モデルを利用して対象要素の検出を行っているが、これに限定されるものではない。例えば、センサ群3を構成するセンサとして異常検知機能付きセンサを使用し、センサ自信が異常の有無を出力してもよい。また、センサとは別体に設けられた異常検出器によってセンサの異常を検知してもよい。なお、これら監視モデルを利用することなくセンサの異常を検知する構成が異常検知部に相当する。
【0065】
(3b)上記実施形態では、センサ群3が車両に搭載された複数のセンサである場合に
ついて説明したが、これに限定されるものではなく、複数のセンサの出力が互いに相関関係を有していればよい。
【0066】
(3c)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
【0067】
(3d)上述した情報抽出装置10の他、当該情報抽出装置10を構成要素とするシステム、当該情報抽出装置10としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、情報抽出方法など、種々の形態で本開示を実現することもできる。
【符号の説明】
【0068】
1…情報処理システム、3…センサ群、5…情報処理装置、10…情報抽出装置、11,23…モデル記憶部、12…取得部、13…復元部、14…抽出部、15…受信部、20…モデル生成装置、21…情報蓄積部、22…学習部、24…配信部。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10