特許第6174649号(P6174649)IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ ファナック株式会社の特許一覧

特許6174649ファンモータの予防保全機能を備えたモータ駆動装置
<>
  • 特許6174649-ファンモータの予防保全機能を備えたモータ駆動装置 図000004
  • 特許6174649-ファンモータの予防保全機能を備えたモータ駆動装置 図000005
  • 特許6174649-ファンモータの予防保全機能を備えたモータ駆動装置 図000006
  • 特許6174649-ファンモータの予防保全機能を備えたモータ駆動装置 図000007
  • 特許6174649-ファンモータの予防保全機能を備えたモータ駆動装置 図000008
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】6174649
(24)【登録日】2017年7月14日
(45)【発行日】2017年8月2日
(54)【発明の名称】ファンモータの予防保全機能を備えたモータ駆動装置
(51)【国際特許分類】
   H02P 29/024 20160101AFI20170724BHJP
   G05B 23/02 20060101ALI20170724BHJP
【FI】
   H02P29/024
   G05B23/02 R
【請求項の数】7
【全頁数】11
(21)【出願番号】特願2015-195036(P2015-195036)
(22)【出願日】2015年9月30日
(65)【公開番号】特開2017-70125(P2017-70125A)
(43)【公開日】2017年4月6日
【審査請求日】2016年9月14日
【早期審査対象出願】
(73)【特許権者】
【識別番号】390008235
【氏名又は名称】ファナック株式会社
(74)【代理人】
【識別番号】100099759
【弁理士】
【氏名又は名称】青木 篤
(74)【代理人】
【識別番号】100092624
【弁理士】
【氏名又は名称】鶴田 準一
(74)【代理人】
【識別番号】100114018
【弁理士】
【氏名又は名称】南山 知広
(74)【代理人】
【識別番号】100151459
【弁理士】
【氏名又は名称】中村 健一
(72)【発明者】
【氏名】佐々木 拓
【審査官】 森山 拓哉
(56)【参考文献】
【文献】 特開2007−164406(JP,A)
【文献】 特開2005−249277(JP,A)
【文献】 特開2007−200092(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
H02P 29/024
G05B 23/02
(57)【特許請求の範囲】
【請求項1】
機械学習器を備えたモータ駆動装置であって、
ファンモータと、
前記ファンモータの交換時期を知らせる警報出力部と、を有し、
前記機械学習器は、
前記ファンモータの回転数の推移を観測する状態観測部と、
前記警報出力部が警報を出力した時期、及び前記状態観測部が観測した回転数に基づいて検出した実際にファンモータが故障した時期から報酬を計算する報酬計算部と、
前記状態観測部での観測結果である過去の回転数の推移、及び前記報酬計算部での報酬に基づいて警報を出力する行動の価値を判断する人工知能と、
前記人工知能での判断結果に基づいて、前記警報出力部から警報を出力するか否かを決定する意思決定部と、を有し、
前記報酬計算部は、
警報出力から実際に前記ファンモータが故障するまでの時間が短いほど、高い報酬を算出し、
警報を出力せず前記ファンモータが故障せずに回転を続けた場合に、高い報酬を算出し、
警報を出力する前に前記ファンモータが故障した場合に、低い報酬を算出する、ことを特徴とするモータ駆動装置。
【請求項2】
前記状態観測部は、モータ駆動装置の周囲温度も観測し、
前記人工知能は前記周囲温度も考慮に入れて行動の価値を判断する、請求項1に記載のモータ駆動装置。
【請求項3】
前記状態観測部は、前記ファンモータの消費電流も観測し、
前記人工知能は前記消費電流も考慮に入れて行動の価値を判断する、請求項1に記載のモータ駆動装置。
【請求項4】
前記状態観測部は、電源オン時、及び電源オフ時の前記ファンモータの回転数の変化も観測し、
前記人工知能は前記回転数の変化も考慮に入れて行動の価値を判断する、請求項1に記載のモータ駆動装置。
【請求項5】
前記人工知能は、前記ファンモータの回転数の推移変化を含めて行動の価値の判断する、請求項1乃至のいずれか一項に記載のモータ駆動装置。
【請求項6】
前記意思決定部は、前記ファンモータが故障するまでの時間を出力する、請求項1乃至のいずれか一項に記載のモータ駆動装置。
【請求項7】
複数のモータ駆動装置間でデータをやり取りするデータ交換部をさらに有し、
他のモータ駆動装置の機械学習器での学習内容を自身の機械学習器での学習に活用する、請求項1乃至のいずれか一項に記載のモータ駆動装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、モータ駆動装置に関し、特に、ファンモータの予防保全機能を備えたモータ駆動装置に関する。
【背景技術】
【0002】
従来、モータ駆動装置と、モータ駆動装置に指令を出力する数値制御装置とを備えた数値制御システムにおいて、モータ駆動装置に設けられた発熱部品を冷却するためにファンモータが用いられている。ファンモータに異常が生じると部品が発熱する等により、モータ駆動装置が故障する恐れがある。そこで、そのための対策として、ファンモータの回転数が規定値以下になった場合に、警告を出力する装置が知られている(例えば、特許文献1)。
【0003】
特許文献1に記載された従来の数値制御システムについて簡単に説明する。第1記憶部には、警告を出力するか否かを判断するための基準値として、第1基準値、及び第1基準値よりも大きい第2基準値が記憶されている。表示部は、比較部による比較の結果、個々の検出値が、第1基準値よりも大きく第2基準値以下であるときには「警告」と表示し、第2基準値よりも大きいときには「故障」と表示する。このような構成によれば、操作者は、既定の第1及び第2基準値を判定基準として、複数のファンモータの異常を個別に予測すること、及び異常発生を個別に確認することができるというものである。
【0004】
しかしながら、従来技術においては、上述の第1及び第2基準値等の規定値は予め定められたものであるため、ファンモータの駆動環境の変化に応じた最適なタイミングでファンモータを交換することができないという問題があった。
【先行技術文献】
【特許文献】
【0005】
【特許文献1】特開2007−200092号公報
【発明の概要】
【発明が解決しようとする課題】
【0006】
本発明は、ファンモータの回転数の推移をモニタし、ファンモータの故障を予測して警告を出力するモータ駆動装置を提供することを目的とする。
【課題を解決するための手段】
【0007】
本発明の一実施例に係るモータ駆動装置は、機械学習器を備えたモータ駆動装置であって、ファンモータと、ファンモータの交換時期を知らせる警報出力部と、を有し、機械学習器は、ファンモータの回転数を観測する状態観測部と、警報出力部が警報を出力した時期、及び実際にファンモータが故障した時期から報酬を計算する報酬計算部と、状態観測部での観測結果、及び報酬計算部での報酬に基づいて行動の価値を判断する人工知能と、人工知能での判断結果に基づいて警報出力部から警報を出力するか否かを決定する意思決定部と、を有することを特徴とする。
【発明の効果】
【0008】
本発明の一実施例に係るモータ駆動装置によれば、最適なタイミングでファンモータを交換でき、ファンモータの周囲温度や消費電流などによって故障までの時間が変わる場合にも、適切に警告を出力することができる。
【図面の簡単な説明】
【0009】
図1】本発明の実施例に係るモータ駆動装置の構成図である。
図2】本発明の実施例に係るモータ駆動装置を用いて、複数の過去の回転数の推移と故障のデータから、今後の回転数の推移を予想する方法を説明するためのグラフである。
図3】本発明の実施例に係るモータ駆動装置の機械学習器において用いられるニューロンのモデルを示す模式図である。
図4】本発明の実施例に係るモータ駆動装置の機械学習器において用いられる3層のニューラルネットワークモデルを示す模式図である。
図5】本発明の実施例に係るモータ駆動装置の動作手順を説明するためのフローチャートである。
【発明を実施するための形態】
【0010】
以下、図面を参照して、本発明に係るモータ駆動装置について説明する。
【0011】
図1は、本発明の実施例に係るモータ駆動装置の構成図である。本発明の実施例に係るモータ駆動装置100は、機械学習器(エージェント)10と、ファンモータ制御部(環境)20と、を備えている。機械学習器10は、状態観測部1と、報酬計算部2と、人口知能(学習部)3と、意思決定部4と、を備えている。ファンモータ制御部20は、ファンモータ21と、ファンモータ21の交換時期を知らせる警報出力部22と、を備えている。
【0012】
状態観測部1は、ファンモータ21の回転速度、即ち単位時間当たりの回転数(以下、単に「回転数」という)を観測する。図2は、本発明の実施例に係るモータ駆動装置を用いて、複数の過去の回転数の推移と故障のデータから、今後の回転数の推移を予想する方法を説明するためのグラフである。
【0013】
図2の上側の2つのグラフは、状態観測部1が観測した過去のデータであるファンモータ21の回転数の推移(時間的変化)を表している。例えば、データNo.1においては、時刻0[sec]から時刻t1[sec]までは、ほぼ定格回転数で回転していたところ、時刻t1[sec]から回転数が減少し始め、時刻t2[sec]において回転が停止した例を示している。同様に、データNo.2においては、時刻0[sec]から時刻t3[sec]までは、ほぼ定格回転数で回転していたところ、時刻t3[sec]から回転数が減少し始め、時刻t4[sec]において回転が停止した例を示している。なお、図2には過去のデータとして2つのデータを示しているが、過去のデータは3つ以上であってもよい。
【0014】
警報出力部22は、ファンモータ21の回転数の推移に従ってファンモータ21の交換時期を知らせる警報を出力する。例えば、警報出力部22は、ファンモータ21の回転数が定格回転数のX[%]を下回った場合に警報を出力するようにしてもよい。あるいは、警報出力部22は、ファンモータ21の回転数が所定の回転数Y[min-1]を下回った場合に警報を出力するようにしてもよい。あるいは、警報出力部22は、ファンモータ21が回転を開始してからの経過時間が所定の時間Z[hour]を超えた場合に警報を出力するようにしてもよい。ただし、これらの例は一例であって、他の基準に基づいて警報を出力するようにしてもよい。
【0015】
報酬計算部2は、警報出力部22が警報を出力した時期と実際にファンモータが故障した時期から報酬を計算する。報酬計算部2は、警報出力から実際にファンモータが故障するまでの時間が短いほど、高い報酬を算出するようにしてもよい。また、報酬計算部2は、警報を出力せずファンモータ21が故障せずに回転を続けた場合に、高い報酬を算出するようにしてもよい。さらに、報酬計算部2は、警報を出力する前にファンモータ21が故障した場合に、低い報酬を算出するようにしてもよい。
【0016】
人工知能(学習部)3は、状態観測部1が観測したファンモータ21の回転数等の観測結果、及び報酬計算部2での報酬に基づいて行動の価値を判断することができる。また、状態観測部1はモータ駆動装置100の周囲温度も観測し、人工知能3は周囲温度も考慮に入れて行動の価値を判断するようにしてもよい。あるいは、状態観測部1はファンモータ21の消費電流も観測し、人工知能3は消費電流も考慮に入れて行動の価値を判断するようにしてもよい。あるいは、状態観測部1は電源オン時、及び電源オフ時のファンモータ21の回転数の推移変化も観測し、人工知能3は回転数の推移変化も考慮に入れて行動の価値を判断するようにしてもよい。
【0017】
人工知能3は、状態観測部1で観測された状態変数を多層構造で演算し、行動の価値を判断するための行動価値テーブルをリアルタイムで更新することが好ましい。ここで、状態変数を多層構造で演算する方法として、例えば、図4に示すような多層ニューラルネットワークを用いることができる。
【0018】
意思決定部4は、人工知能3での判断結果に基づいて、警報出力部22から警報を出力するか否かを決定する。意思決定部4は、過去の回転数の推移と故障のデータから、故障(回転停止)までの時間を学習し、今後の回転数の推移を予想して、警報出力の有無を判断する。例えば、図2に示すように、データNo.1及びデータNo.2に基づいて、時刻t5[sec]において警報を出力すべきか否かを判断する。その後、ファンモータ21は、時刻t6[sec]において回転を停止する(故障)か、あるいは、故障せずに回転を継続する。時刻t5[sec]において警報を出力すると判断した場合、報酬計算部2は、警報を出力してから実際にファンモータ21が故障するまでの時間が短いほど、高い報酬を算出する。時刻t5[sec]において警報を出力しないと判断した場合、ファンモータ21が故障せずに回転を続けた場合に、高い報酬を算出する。また、警報出力部22が警報を出力する前にファンモータ21が故障した場合は、低い報酬を算出する。意思決定部4は、ファンモータ21が故障するまでの時間を出力するようにしてもよい。
【0019】
ここで、図1に示される機械学習器10について詳細に説明する。機械学習器10は、装置に入力されるデータの集合から、その中にある有用な規則や知識表現、判断基準などを解析により抽出し、その判断結果を出力するとともに、知識の学習を行う機能を有する。その手法は様々であるが、大別すれば「教師あり学習」、「教師なし学習」、及び「強化学習」に分けられる。さらに、これらの手法を実現するうえで、特徴量そのものの抽出を学習する、「深層学習」と呼ばれる手法がある。
【0020】
「教師あり学習」は、ある入力と結果(ラベル)のデータの組を大量に学習装置(機械学習器)に与えることで、それらのデータセットにある特徴を学習し、入力から結果を推定するモデル、即ち、その関係性を帰納的に獲得することができる。本実施形態においては、ファンモータ21の回転数等の状態観測部1での観測結果、並びに報酬計算部2での報酬に基づいて、ファンモータ21の交換時期の決定に用いることが出来る。上記学習は、後述のニューラルネットワークなどのアルゴリズムを用いて実現することができる。
【0021】
「教師なし学習」とは、入力データのみを大量に学習装置(機械学習器)に与えることで、入力データがどのような分布をしているか学習し、対応する教師出力データを与えなくても、入力データに対して圧縮、分類、整形などを行う装置を学習する手法である。それらのデータセットにある特徴を似た者どうしにクラスタリングすることなどができる。この結果を使って、何らかの基準を設けてそれを最適にするような出力の割り当てを行うことで、出力の予測を実現することができる。また「教師なし学習」と「教師あり学習」との中間的な問題設定として、「半教師あり学習」と呼ばれるものもあり、一部のみ入力と出力のデータの組が存在し、それ以外は入力のみのデータである場合がこれに当たる。本実施形態においては、実際にファンモータを動作させなくても取得することが出来るデータを教師なし学習で利用し、学習を効率的に行うことが出来る。
【0022】
強化学習の問題を以下のように設定する。
・ファンモータ制御部20は環境の状態を観測し、行動を決定する。
・環境は何らかの規則に従って変化し、さらに自分の行動が、環境に変化を与えることもある。
・行動するたびに報酬信号が帰ってくる。
・最大化したいのは将来にわたっての(割引)報酬の合計である。
・行動が引き起こす結果を全く知らない、または不完全にしか知らない状態から学習はスタートする。ファンモータ制御部20はファンモータ21を実際に動作して初めて、その結果をデータとして得ることが出来る。つまり、試行錯誤しながら最適な行動を探索する必要がある。
・人間の動作を真似るように事前学習(前述の教師あり学習や、逆強化学習といった手法)した状態を初期状態として、良いスタート地点から学習をスタートさせることもできる。
【0023】
「強化学習」とは、判定や分類だけではなく、行動を学習することにより、環境に行動が与える相互作用を踏まえて適切な行動を学習、即ち、将来的に得られる報酬を最大にするために学習する方法である。このことは、本実施形態において、未来に影響を及ぼすような行動を獲得できることを表している。例えば、Q学習の場合で説明を続けるが、それに限るものではない。
【0024】
Q学習は、或る環境状態sの下で、行動aを選択する価値Q(s,a)を学習する方法である。つまり、或る状態sのとき、価値Q(s,a)の最も高い行動aを最適な行動として選択すればよい。しかし、最初は状態sと行動aとの組合せについて、価値Q(s,a)の正しい値は全く分かっていない。そこで、エージェント(行動主体)は、或る状態sの下で様々な行動aを選択し、その時の行動aに対して報酬が与えられる。それにより、エージェントはより良い行動の選択、すなわち正しい価値Q(s,a)を学習していく。
【0025】
行動の結果、将来にわたって得られる報酬の合計を最大化したい。そこで、最終的に、Q(s,a)=E[Σγtt](報酬の割引期待値。γ:割引率)となるようにすることを目指す(期待値は最適な行動に従って状態変化したときについてとる。もちろん、それは分かっていないので、探索しながら学習しなければならない)。そのような価値Q(s,a)の更新式は、例えば次式により表すことができる。
【0026】
【数1】
【0027】
ここで、stは時刻tにおける環境の状態を表し、atは時刻tにおける行動を表す。行動atにより、状態はst+1に変化する。rt+1は、その状態の変化により貰える報酬を表している。また、maxの付いた項は、状態st+1の下で、その時に分かっている最もQ値の高い行動aを選択した場合のQ値にγを乗じたものになる。γは、0<γ≦1のパラメータで、割引率と呼ばれる。αは学習係数で、0<α≦1の範囲とする。
【0028】
この式は、試行atの結果帰ってきた報酬rt+1を元に、状態stにおける行動atの評価値Q(st,at)を更新する方法を表している。状態sにおける行動aの評価値Q(st,at)よりも、報酬rt+1+行動aによる次の状態における最良の行動max aの評価値Q(st+1,max at+1)の方が大きければ、Q(st,at)を大きくするし、反対に小さければ、Q(st,at)も小さくする事を示している。つまり、或る状態における或る行動の価値を、結果として即時帰ってくる報酬と、その行動による次の状態における最良の行動の価値に近付けるようにしている。
【0029】
Q(s,a)の計算機上での表現方法は、全ての状態行動ペア(s,a)に対して、その値をテーブル(行動価値テーブル)として保持しておく方法と、Q(s,a)を近似するような関数を用意する方法がある。後者の方法では、前述の更新式は、確率勾配降下法などの手法で近似関数のパラメータを調整していくことで実現することが出来る。近似関数としては、後述のニューラルネットワークを用いることが出来る。
【0030】
教師あり学習、教師なし学習、及び強化学習での価値関数の近似アルゴリズムとして、ニューラルネットワークを用いることができる。ニューラルネットワークは、例えば図3に示すようなニューロンのモデルを模したニューラルネットワークを実現する演算装置及びメモリ等で構成される。
【0031】
図3に示すように、ニューロンは、複数の入力x(ここでは一例として、入力x1〜入力x3)に対する出力yを出力するものである。各入力x1〜x3には、この入力xに対応する重みw(w1〜w3)が掛けられる。これにより、ニューロンは、次の式により表現される出力yを出力する。なお、入力x、出力y、及び重みwは、全てベクトルである。
【数2】
ここで、θはバイアスであり、fkは活性化関数である。
【0032】
次に、上述したニューロンを組み合わせた3層の重みを有するニューラルネットワークについて、図4を参照して説明する。図4は、D1〜D3の3層の重みを有するニューラルネットワークを示す模式図である。
【0033】
図4に示すように、ニューラルネットワークの左側から複数の入力x(ここでは一例として、入力x1〜入力x3)が入力され、右側から結果y(ここでは一例として、結果y1〜結果y3)が出力される。
【0034】
具体的には、入力x1〜入力x3は、3つのニューロンN11〜N13の各々に対して対応する重みが掛けられて入力される。これらの入力に掛けられる重みは、まとめてW1と標記されている。
【0035】
ニューロンN11〜N13は、それぞれ、Z11〜Z13を出力する。これらのZ11〜Z13はまとめて特徴ベクトルZ1と標記され、入力ベクトルの特徴量を抽出したベクトルとみなすことができる。この特徴ベクトルZ1は、重みW1と重みW2との間の特徴ベクトルである。
【0036】
Z11〜Z13は、2つのニューロンN21,N22の各々に対して対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめてW2と標記されている。
【0037】
ニューロンN21,N22は、それぞれ、Z21,Z22を出力する。これらは、まとめて特徴ベクトルZ2と標記されている。この特徴ベクトルZ2は、重みW2と重みW3との間の特徴ベクトルである。
【0038】
特徴ベクトルZ21,Z22は、3つのニューロンN31〜N33の各々に対して対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめてW3と標記されている。
【0039】
最後に、ニューロンN31〜N33は、それぞれ、結果y1〜結果y3を出力する。
【0040】
ニューラルネットワークの動作には、学習モードと価値予測モードとがあり、学習モードにおいて学習データセットを用いて重みWを学習し、そのパラメータを用いて予測モードにおいてファンモータの行動判断を行う(便宜上、予測と書いたが、検出、分類、推論など多様なタスクが可能である)。
【0041】
予測モードで実際にファンモータを動かして得られたデータを即時学習し、次の行動に反映させる(オンライン学習)こともできる。また、あらかじめ収集しておいたデータ群を用いてまとめた学習を行い、以降はずっとそのパラメータで検知モードを行う(バッチ学習)こともできる。その中間的な、ある程度データが溜まるたびに学習モードを挟むということも可能である。
【0042】
重みW1〜W3は、誤差逆伝搬法(バックプロパゲーション)により学習可能なものである。誤差の情報は、右側から入り左側に流れる。誤差逆伝搬法は、各ニューロンについて、入力xが入力されたときの出力yと真の出力y(教師)との差分を小さくするように、それぞれの重みを調整(学習)する手法である。
【0043】
このようなニューラルネットワークは、3層以上にさらに層を増やすことも可能である(深層学習と称される)。入力の特徴抽出を段階的に行い、結果を回帰する演算装置を、教師データのみから自動的に獲得することが可能である。
【0044】
そこで、本実施形態の機械学習器10は、上述のQ学習を実施すべく、図1に示されるように状態観測部1、人口知能3、及び意思決定部4を備えている。但し、本発明に適用される機械学習方法は、Q学習に限定されるものではない。例えば、教師あり学習を適用する場合において、価値関数は学習モデル、報酬は誤差にそれぞれ対応する。
【0045】
図1に示すように、ファンモータ制御部20における状態には、行動で間接的に変化する状態と、行動で直接的に変化する状態とがある。行動で間接的に変化する状態には、ファンモータの回転数が含まれる。行動で直接的に変化する状態には、ファンモータを交換するか、あるいは、交換しないという情報が含まれる。
【0046】
人工知能3は、更新式及び報酬に基づいて、行動価値テーブルの中から現在の状態変数及び取り得る行動に対応する行動価値を更新する。
【0047】
機械学習器10がネットワークを介してファンモータ制御部20に接続されるようにし、状態観測部1は、ネットワークを介して、現在の状態変数を取得するように構成してもよい。また、機械学習器10は、クラウドサーバに存在することが好ましい。
【0048】
また、図1に示した例では、自己の機械学習器の人工知能で更新された行動価値テーブルを用いて自己の行動価値テーブルを更新する例を示したが、このような例には限られない。即ち、自己の機械学習器とは別の他の機械学習器の人工知能で更新された行動価値テーブルを用いて自己の行動価値テーブルを更新するようにしてもよい。例えば、複数のモータ駆動装置間でデータをやり取りするデータ交換部をさらに有し、他のモータ駆動装置の機械学習器での学習内容を自身の機械学習器での学習に活用するようにしてもよい。
【0049】
次に、本発明の実施例に係るモータ駆動装置の動作について説明する。図5に本発明の実施例に係るモータ駆動装置の動作手順を説明するためのフローチャートを示す。
【0050】
まず、ステップS101において、ファンモータ21の各種状態を状態観測部1で観測する。即ち、状態観測部1は、ファンモータ21の回転数や、温度等を観測する。
【0051】
次に、ステップS102において、報酬計算部2が、観測した状態から報酬を計算する。例えば、報酬計算部2は、警報出力から実際にファンモータが故障するまでの時間が短いほど、高い報酬を算出し、警報を出力せずファンモータ21が故障せずに回転を続けた場合に、高い報酬を算出し、警報を出力する前にファンモータ21が故障した場合に、低い報酬を算出する。
【0052】
次に、ステップS103において、人工知能3が、状態観測部1が観測した状態と報酬から行動価値を学習する。具体的には、状態観測部1が観測したファンモータ21の回転数及び報酬計算部2での報酬に基づいて行動の価値を判断する。状態観測部1が、モータ駆動装置100の周囲温度も観測する場合には、人工知能3はファンモータ21の回転数に加えて、周囲温度も考慮に入れて行動の価値を判断するようにしてもよい。また、状態観測部1が、ファンモータ21の消費電流も観測する場合には、人工知能3はファンモータ21の回転数に加えて、消費電流も考慮に入れて行動の価値を判断するようにしてもよい。また、状態観測部1が、ファンモータ21の電源オン時、及び電源オフ時のファンモータ21の回転数の変化も観測する場合には、人工知能3はファンモータ21の回転数に加えて、回転数の変化も考慮に入れて行動の価値を判断するようにしてもよい。
【0053】
次に、ステップS104において、意思決定部4が、状態及び行動価値に基づいて、意思決定部4で最適なパラメータ(行動)を決定する。例えば、意思決定部4が、人工知能3での判断結果に基づいて、警報出力部22から警報を出力するか否かを決定する。
【0054】
次に、ステップS105において、パラメータ(行動)により状態が変化する。即ち、ファンモータ制御部20が、ファンモータ21を交換するか、あるいは、交換しないかを決定する。
【0055】
以上説明したように、本発明の実施例に係るモータ駆動装置によれば、最適なタイミングでファンモータを交換でき、ファンモータの周囲温度や消費電流などによって故障までの時間が変わる場合にも、適切に警告を出力することができる。
【符号の説明】
【0056】
1 状態観測部
2 報酬計算部
3 人工知能
4 意思決定部
10 機械学習器
20 ファンモータ制御部
21 ファンモータ
22 警報出力部
100 モータ駆動装置
図1
図2
図3
図4
図5