IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 理化工業株式会社の特許一覧

<>
  • 特許-制御装置 図1
  • 特許-制御装置 図2
  • 特許-制御装置 図3
  • 特許-制御装置 図4
  • 特許-制御装置 図5
  • 特許-制御装置 図6
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-02-08
(45)【発行日】2024-02-19
(54)【発明の名称】制御装置
(51)【国際特許分類】
   G05B 13/02 20060101AFI20240209BHJP
   G05B 13/04 20060101ALI20240209BHJP
   G06F 11/16 20060101ALI20240209BHJP
【FI】
G05B13/02 L
G05B13/04
G06F11/16 629
【請求項の数】 4
(21)【出願番号】P 2021515681
(86)(22)【出願日】2019-04-26
(86)【国際出願番号】 JP2019017878
(87)【国際公開番号】W WO2020217445
(87)【国際公開日】2020-10-29
【審査請求日】2021-10-25
(73)【特許権者】
【識別番号】000250317
【氏名又は名称】理化工業株式会社
(74)【代理人】
【識別番号】100134061
【弁理士】
【氏名又は名称】菊地 公一
(72)【発明者】
【氏名】井▲崎▼ 勝敏
(72)【発明者】
【氏名】橋本 誠司
【審査官】松本 泰典
(56)【参考文献】
【文献】国際公開第2019/069649(WO,A1)
【文献】米国特許出願公開第2004/0176860(US,A1)
【文献】特開平2-273804(JP,A)
【文献】特開平4-264602(JP,A)
【文献】特開平3-182902(JP,A)
【文献】特開平7-277286(JP,A)
【文献】特開平6-35510(JP,A)
【文献】特開平6-75604(JP,A)
【文献】特開昭59-149517(JP,A)
【文献】特開平5-143565(JP,A)
【文献】特開平3-233702(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G05B 13/02
G05B 13/04
G06F 11/16
(57)【特許請求の範囲】
【請求項1】
むだ時間要素を含む制御対象の出力と予め定められた目標値の差を入力し、該制御対象を制御する、I-PD制御器であるフィードバック制御器と、
むだ時間要素を含み、前記目標値を入力し、該入力に対する所望の応答波形を出力する規範モデル部と、
前記目標値と前記制御対象の出力とを入力し、出力が前記フィードバック制御器の出力と加算されて前記制御対象に入力される学習型制御器であって、前記規範モデル部の出力と前記制御対象の出力との誤差を教師信号として用い、前記学習型制御器からの出力の変化により前記制御対象の出力と前記規範モデル部の出力の誤差が最小化又は予め定められた閾値以下になるように、学習する前記学習型制御器と、
を備えた制御装置。
【請求項2】
前記学習型制御器は、ニューラルネットワークを用いて学習するニューラルネットワーク制御器であり
前記ニューラルネットワーク制御器は、前記制御対象の出力と前記規範モデル部の出力の誤差をニューラルネットワークの教師信号とし、前記誤差を最小化又は予め定められた閾値以下になるようにニューラルネットワークを用いて学習する請求項1に記載の制御装置。
【請求項3】
前記規範モデル部のむだ時間は、前記制御対象のむだ時間と同じ又は同程度に設定される請求項1に記載の制御装置。
【請求項4】
むだ時間要素を含む制御対象の出力と予め定められた目標値の差を入力するI-PD制御器であるフィードバック制御器を用いて前記制御対象を制御する制御系に適用される制御装置であって、
むだ時間要素を含み、前記目標値を入力し、該入力に対する所望の応答波形を出力する規範モデル部と、
前記目標値と前記制御対象の出力とを入力し、出力が前記フィードバック制御器の出力と加算されて前記制御対象に入力される学習型制御器であって、前記規範モデル部の出力と前記制御対象の出力との誤差を教師信号として用い、前記学習型制御器からの出力の変化により前記制御対象の出力と前記規範モデル部の出力の誤差が最小化又は予め定められた閾値以下になるように、学習する前記学習型制御器と、
を備えた制御装置。

【発明の詳細な説明】
【技術分野】
【0001】
本発明は、制御装置に係り、特に、むだ時間を含む制御対象を制御する制御装置に関する。
【背景技術】
【0002】
ニューラルネットワークをフィードバック制御に用いた手法として、制御対象の逆システムを利用するフィードバック誤差学習方法及びシステムが知られている。図2は、そのフィードバック誤差学習システムのブロック図を示す。この手法では、ニューラルネットワーク制御器110は、フィードバック制御器の出力xcを教師信号とし、学習経過によりxcが0となるように学習を行う。これにより、誤差eを0及び出力yを目標値ydにするよう学習及び制御が行われる。したがって、学習後には、使用する制御器はフィードバック制御器120からニューラルネットワーク制御器110へシフトする。その結果、制御系100は、フィードバック構造からフィードフォワード構造に置換される。
【0003】
また、ニューラルネットワークを用いた制御系に規範モデルを導入した手法として、例えば、以下の手法が開示されている。特許文献1には、操舵量信号に基づいて理想的な期待応答の時系列データ信号を出力する規範モデルの当該出力と、フィードバック制御部の出力とをニューラルネットワーク部に入力する制御装置が開示されている。特許文献2には、フィードバック制御器そのものをニューラルネットワーク学習型の制御器とした構造が開示されている。また、特許文献3には、非線形関数近似能力を有するニューラルネットワークにより推定装置を構成し、補償器構成要素として組み込む制御装置が開示されている。
【先行技術文献】
【特許文献】
【0004】
【文献】特開平07-277286号公報
【文献】特開平06-035510号公報
【文献】特開平04-264602号公報
【発明の概要】
【発明が解決しようとする課題】
【0005】
上述の図2に示すようなシステムでは、繰り返しのステップ指令に対する出力応答波形において、ステップ毎に、すなわち時間経過に伴って応答性が改善されない場合がある。これは、制御対象のむだ時間に起因し、制御対象への入力信号があってもその応答(制御対象からの出力)が無い状態では、ニューラルネットワークが学習できない場合があるためと考えられる。
【0006】
ここで、むだ時間に起因した出力の応答遅れによるニューラルネットワークの学習遅れを防止するために、所望の応答が得られる規範モデルを用い、その規範モデルにむだ時間を持たせ、実際の出力が規範モデルの出力に追従するようにニューラルネットワークを学習させる手法が考えられる。しかしながら、例えば、特許文献1~3のような規範モデルを用いた手法では、以下のような課題がある。
【0007】
まず、特許文献1に開示された手法は、基本的に、従来のフィードバック誤差学習方式と同様であり、この手法では規範モデルにむだ時間を加えても制御対象への遅れは更に遅れる。したがって、特許文献1に開示された手法では、学習遅れは改善できない。
【0008】
特許文献2に開示された手法では、規範モデルにむだ時間を含めれば学習遅れは回避しうる。しかしながら、ニューラルネットワーク制御器の初期設計段階で、制御対象のモデルが必要である。したがって、制御器の設計が複雑であり、モデル誤差も生じ得る。また、目標値応答、外乱及び変動など全ての補償対象をニューラルネットワーク制御器で補償する必要が有る。そのため、補償対象別に制御器を設計・調整することが困難であり、補償器の学習による修正が複雑となる。特許文献3に開示された手法においても、特許文献2と同様の課題がある。
【0009】
上述の各手法は、いずれもむだ時間のない、又はむだ時間の影響が無視できる系での規範モデルへの追従性に主眼をおいた制御法であり、むだ時間を考慮した過渡特性の改善に対する性能改善については焦点を当てていない。その結果、上述の各手法では、むだ時間システムに対する過渡応答特性と、ニューラルネットワークの学習効果による更なる特性改善を両立して実現することは困難である。
【0010】
本発明は以上の点に鑑み、上記の課題を解決する制御系を構築することを目的にひとつとする。また、本発明は、むだ時間システムに対してもニューラルネットワークがむだ時間の影響なく学習し、指令入力に対する過渡特性を改善する能力を有する制御装置を提供することを目的とする。
【課題を解決するための手段】
【0011】
本発明の第1の態様によると、
むだ時間要素を含む制御対象を制御するフィードバック制御器と、
むだ時間要素を含み、入力に対する所望の応答波形を出力する規範モデル部と、
出力が前記フィードバック制御器の出力と加算されて前記制御対象に入力される学習型制御器であって、前記学習型制御器からの出力の変化により前記制御対象の出力と前記規範モデル部の出力の誤差が最小化又は予め定められた閾値以下になるように、学習する前記学習型制御器と、
を備えた制御装置が提供される。
【0012】
本発明の第2の態様によると、
予め設計されたフィードバック制御器を用いて制御対象を制御する制御系に適用される制御装置であって、
むだ時間要素を含み、入力に対する所望の応答波形を出力する規範モデル部と、
出力が前記フィードバック制御器の出力と加算されて前記制御対象に入力される学習型制御器であって、前記学習型制御器からの出力の変化により前記制御対象の出力と前記規範モデル部の出力の誤差が最小化又は予め定められた閾値以下になるように、学習する前記学習型制御器と、
を備えた制御装置が提供される。
【発明の効果】
【0013】
本発明によると、むだ時間システムに対してもニューラルネットワークがむだ時間の影響なく学習し、指令入力に対する過渡特性を改善する能力を有する制御装置を提供することができる。
【図面の簡単な説明】
【0014】
図1】本実施形態に係る制御系のブロック図。
図2】比較例の制御系のブロック図。
図3】比較例の制御系における繰り返しステップ応答波形。
図4】比較例の制御系における繰り返しステップ応答波形の重ね合わせ比較図。
図5】本実施形態の制御系における繰り返しステップ応答波形。
図6】本実施形態の制御系における繰り返しステップ応答波形の重ね合わせ比較図。
【発明を実施するための形態】
【0015】
以下、本発明の実施形態を図面を参照して説明する。
【0016】
<本実施形態の概要>
まず、本実施形態の概要を説明する。本実施形態の制御系(制御システム)は、プロセス制御系などのむだ時間を持つ制御対象の出力を、同様にむだ時間を含む規範モデルの出力に、学習により追従させる制御手法を用いる。
【0017】
フィードバック(FB)制御器は、従来のフィードバック(FB)制御器を使用することができる。制御対象の応答を、むだ時間を有する規範モデルの出力に追従させる。そのために、ニューラルネットワーク制御器において、制御対象の出力(実出力)と規範モデルの出力との誤差を、ニューラルネットワークの教師信号とし、その誤差を例えば最小化するようにニューラルネットワークを学習させる。また、ニューラルネットワーク制御器の出力を、フィードバック制御器の出力に加算して制御対象への入力とし、制御対象を制御する。
【0018】
<本実施の形態の説明>
図1は、本実施形態に係る制御系のブロック図である。本実施形態に係る制御系は、制御対象2を制御する制御装置1を含む。制御装置1は、フィードバック制御器10と、規範モデル部20と、ニューラルネットワーク制御器30とを有する。
【0019】
フィードバック制御器10は、制御対象2の出力に関する予め定められた目標値ydに従い、制御対象2を制御する。例えば、フィードバック制御器10は、予め定められた目標値(SVとも称する)ydと、制御対象2の出力(測定値、PVとも称する)の差eを入力し、所定の制御演算を行い、制御対象2への操作量(第1操作量)を出力する。フィードバック制御器10は、例えば、メインの制御器として動作する。例えば、フィードバック制御器10は、モデル化誤差が無く、外乱が無いと仮定した場合に、制御対象2の出力を所望の設計通りに動作させるための制御器である。フィードバック制御器10としては、例えば、オートチューニングなどで自動的に設計可能なPID制御器などを用いることができる。また、フィードバック制御器10には、行き過ぎ量を抑えたI-PD制御器を用い、目標値に対する立ち上がりはニューラルネットワーク制御器30で改善することもできる。
【0020】
規範モデル部20は、むだ時間(むだ時間要素)を含み、入力に対する所望の応答波形を出力する。規範モデル部20は、目標値ydを入力する。規範モデル部20の入出力の関係は、例えばむだ時間要素を含む1次遅れ系などで表すことができるが、これに限らず、むだ時間要素を含む適宜の関係でもよい。規範モデル部20のむだ時間は、例えば、制御対象2のむだ時間と同じ時間に設定されることができる。また、規範モデル部20のむだ時間は、制御対象2のむだ時間と同程度の時間でもよい。ここで同程度とは、例えば、ニューラルネットワーク制御器30により、制御対象2の出力の応答性が改善される程度であればよい。また、制御対象2のむだ時間を予め定められた桁で丸めた値、換言すると、予め定められた許容誤差の範囲内の値でもよい。一例として、規範モデル部20のむだ時間は、制御対象2のむだ時間に対してプラスマイナス10%程度の範囲内であってもよく、プラスマイナス30%程度の範囲内であってもよい。むだ時間を含む規範モデル部20の出力と制御対象2の出力との誤差eyを、ニューラルネットワーク制御器30に教師信号として与える。
【0021】
ニューラルネットワーク制御器30の出力(第2操作量)は、フィードバック制御器10の出力(第1操作量)と加算されて、制御対象2に入力される。ニューラルネットワーク制御器30は、ニューラルネットワーク制御器30の出力の変化(調整)によって制御対象2の出力と規範モデル部20の出力の誤差eyが最小化又は予め定められた閾値以下になるようにニューラルネットワークを用いて学習する。例えば、ニューラルネットワーク制御器30は、2乗誤差eyを最小化するように、最急降下法とバックプロパゲーションにより学習する。ニューラルネットワーク制御器30には、入力信号として、目標値ydと制御対象の出力yとを入力する。ニューラルネットワーク制御器30は、入力信号と学習結果に応じた出力を供給する。また、ニューラルネットワーク制御器30からの出力xNは、上述のようにフィードバック制御器10の出力と加算されて操作量xが求められ、制御対象2へ入力される。このようにニューラルネットワーク制御器30の出力xNをフィードバック制御器10の出力と加算して制御対象2へ入力することで、フィードバック制御器10とニューラルネットワーク制御器30の役割分担が可能となる。なお、ニューラルネットワーク制御器30は、入力信号として誤差eyをさらに入力してもよい。
【0022】
なお、ニューラルネットワークは、入力及び出力と、1又は複数の中間層とを有する。中間層は、複数のノードで構成される。ニューラルネットワークの構成は適宜の構成を用いることができ、ニューラルネットワークの学習方法については公知の学習方法を用いることができる。
【0023】
また、制御装置1は、制御対象2の出力yと、規範モデル部20の出力との差eyを求める差分器11と、フィードバック制御器10の出力とニューラルネットワーク制御器30の出力とを加算する加算器12と、目標値ydと制御対象2の出力yとの差eを求める差分器13とを有してもよい。
【0024】
規範モデル部20とニューラルネットワーク制御器30は、例えばCPU(Central Processing Unit)及びDSP(Digital Signal Processor)などの処理部と、メモリなどの記憶部を有するデジタル装置によって実装されてもよい。規範モデル部20とニューラルネットワーク制御器30の処理部及び記憶部は、共通の処理部及び記憶部を用いてもよいし、別々の処理部及び記憶部を用いてもよい。また、ニューラルネットワーク制御器30は、複数の処理部を有し、少なくとも一部の処理を並列に実行してもよい。
【0025】
(効果)
本実施形態の制御装置によると、例えば以下の効果を奏する。ただし、本実施形態の制御装置は、必ずしも以下の全ての効果を奏する装置に限定されるものではない。
フィードバック制御器10としてオートチューニングを用いて設計可能な制御器などが利用可能である。そのため、フィードバック制御器10の設計に際して、制御対象2のモデルが不要である。また、ニューラルネットワーク制御器30の設計にも制御対象2のモデルが不要であるため、制御装置1の各制御器の設計に対し、モデルが不要である。
【0026】
本実施形態の制御系では、規範モデル部20の出力に制御対象2の出力が追従するよう学習する。規範モデル部20にむだ時間を持たせることで、制御対象2の出力が無い状態でニューラルネットワーク制御器30がニューラルネットワークを用いた学習を開始することを回避することができる(すなわち、因果性が成立する)。また、ニューラルネットワークの学習において、むだ時間に先行し学習が行われるという問題を回避できる。したがって、ニューラルネットワークの学習をむだ時間分だけ遅らせる必要がなく、学習周期を意図的に大きくする必要もない。これにより制御対象2の出力を増大させようとニューラルネットワーク制御器30が過剰な制御入力を与えるといった現象を回避できる。
【0027】
フィードバック制御器10の役割は、主として設計時のノミナル仕様を満たすように動作することである。例えば、フィードバック制御器10は、制御系における制御装置(コントローラ)としての仕様、PIDの動作仕様などを満たすように動作する。一方、ニューラルネットワーク制御器30の役割は、学習の後に制御対象2の出力を規範モデル部20の出力に追従させるよう動作することである。さらに、ニューラルネットワーク制御器30は、モデル化誤差や外乱が生じた場合に、モデル化誤差や外乱を補償する。このような誤差や外乱が生じる場合、制御対象2の出力と規範モデル部20の出力とに誤差が生じることなり、ニューラルネットワーク制御器30は、この誤差に基づき動作することでモデル化誤差や外乱を補償する。
【0028】
以上の効果に加え、本実施形態の制御装置は、以下の効果も有する。
・規範モデル部20の出力へ追従する構成であるため、規範モデル部20の設定及び調整によりニューラルネットワークの学習が進んでも制御入力が過大になりにくい。換言すると、制御対象2の入力を間接的に調整できる。
・ニューラルネットワーク制御器30の設計には制御対象のモデルが必要ない。また、オートチューニングにより設計されるフィードバック制御器10を利用できるため、制御系がモデルレスで設計可能である。
・ニューラルネットワークの学習が進んでもフィードフォワード構造にシフトせず、フィードバック制御系を維持できる。例えば、規範モデル部20の出力と制御対象2の出力との誤差がゼロである場合、フィードバック制御器10のみ動作しているのと同等である。
・フィードバック制御器10にI-PD構造を利用することで、ニューラルネットワークの学習経過により行き過ぎ量なく応答性のみを改善することができる。例えば、制御対象2の出力は、制御開始直後は立ち上がりが遅くなるが、行き過ぎ量を抑えつつ、学習が進むにつれ立ち上がりを改善していく、というような制御が可能となる。また、ニューラルネットワーク制御器30の学習が良好でない場合、又は制御性能が改善されていかない場合などは、ニューラルネットワーク制御器30の出力を制限又はゼロとしても初期の基本性能がフィードバック制御器10により保証される。
・規範モデル部20の出力にあわせて学習するため、多入力多出力システムへの適用(MIMO(multiple-input and multiple-output)化)が容易である。例えば、多点の温度を制御する制御系において、過渡状態を含めて多点(多出力)の温度の均一化制御が可能である。なお、多入力多出力システムへ適用する場合には、上述の誤差、操作量等は、入出力に対応した複数の要素を含み、例えばベクトルで表すことができる。
【0029】
本実施形態の制御装置は、むだ時間を有する制御系、例えばプロセス制御系や温度調整系に適用できる。具体的な例として、温調・空調システム、射出成型機及びホットプレートなどが挙げられる。このような分野では、制御対象のモデルを導出することなく、制御入力のオンオフを利用したオートチューニングによりフィードバック制御器の設計が行われるのが一般的である。本実施形態は、このような既存の制御系に対して付加的にニューラルネットワークを用いた制御器を導入することで、モデルを用いない既存の設計法を継承し、さらに動作とともに学習による制御性能改善を図ることができるという利点を有する。
【0030】
(シミュレーション結果)
本実施形態における制御装置1を用いた制御系のシミュレーション結果及び効果を、比較例と対比して説明する。
【0031】
まず、比較例における応答波形について説明する。図2は、比較例の制御系のブロック図である。比較例として、関連技術として上述したフィードバック誤差学習システムを用いる。この例では、ニューラルネットワーク制御器110は、教師信号としてフィードバック制御器120の出力xcを用い、学習経過によりxcが0となるように学習を行う。これにより、比較例の制御系は、目標値ydと制御対象130との誤差eを0にする(換言すると、出力yを目標値ydにする)よう学習及び制御する。したがって、学習後には、使用する制御器はフィードバック制御器120からニューラルネットワーク制御器110へシフトする。ここで、フィードバック制御器120はPI制御器を用いた。ニューラルネットワーク制御器110のニューラルネットワークは中間層が2層であり、各層のノード数は10とした。
【0032】
図3は、比較例の制御系における繰り返しステップ応答波形を示す。図3の横軸は時間である。図3は上段に目標値(繰り返しステップ指令)31に対する制御対象130の出力応答波形32を示し、下段にフィードバック制御器120の出力(FBA)33とニューラルネットワーク制御器110の出力(NNout)34とを示す。図3に示すように、時間経過にともなう応答性の改善は見られない。
【0033】
図4は、比較例の制御系における繰り返しステップ応答波形の重ね合わせ比較図である。図4の横軸は時間である。図4は、上段に複数の正方向へのステップ指令に対する応答(ステップ応答)を重ねて表示した波形41を示し、下段に複数の負方向へのステップ指令に対する応答(ステップ応答)を重ねて表示した波形43を示す。より詳細には、図4の上段及び下段ともに、図3に示すような繰り返しのステップ指令31について、1番目、5番目及び10番目のステップ指令に対するステップ応答波形(それぞれ、細線、破線及び太線で示す)を、各ステップ指令の立ち上がり又は立ち下がりを時間0として重ねて示す。また、参考例として、理想的な応答波形42、44を点線で示す。図4を見ても、応答波形はほぼ重なっており、ステップ毎に応答性が改善される様子が見られない。
【0034】
一方、一例として、本実施形態の制御系でのシミュレーション結果を図5及び図6に示す。図5は、本実施形態の制御系における繰り返しステップ応答波形である。図6は、本実施形態の制御系における繰り返しステップ応答波形の重ね合わせ比較図である。
【0035】
制御対象2とフィードバック制御器10の構成は、図2に示す比較例の制御対象130及びフィードバック制御器120とそれぞれ同じとした。また、ニューラルネットワーク制御器30のニューラルネットワークは、中間層を2層、ノード数を10と、ニューラルネットワーク制御器110の構成と同じとした。
【0036】
図5の横軸は時間である。図5は、図3と同様に、上段に目標値(繰り返しステップ指令)51に対する制御対象2の出力応答波形52を示し、下段にフィードバック制御器10の出力(FBA)53とニューラルネットワーク制御器30の出力(NNout)54とを示す。
【0037】
図6の横軸は時間である。図6は、図4と同様に、上段に複数の正方向へのステップ指令に対する応答(ステップ応答)を重ねて表示した波形61~63を示し、下段に複数の負方向へのステップ指令に対する応答(ステップ応答)を重ねて表示した波形65~67を示す。より詳細には、図6の上段及び下段ともに、図5に示すような繰り返しのステップ指令51について、1番目のステップ指令に対するステップ応答波形61及び65、5番目のステップ指令に対するステップ応答波形62及び66、10番目のステップ指令に対するステップ応答波形63及び67を、各ステップ指令の立ち上がりを時間0として重ねて示す。また、参考例として、理想的な応答波形(例えば、規範モデル部20の出力)64、68を点線で示す。
【0038】
ステップ応答の繰り返しにより、正方向及び負方向の応答ともに、目標値からの行き過ぎ量が低減し、整定時間も早くなり、規範モデルの出力に追従していることが確認できる。また、図5の下段より、ステップ応答を繰り返すことでニューラルネットワーク制御器30の出力(NNout)54が増大するのが確認できる。これは、出力信号yが規範モデル出力に追従するようにニューラルネットワーク制御器30の学習が行われていることを示している。
【0039】
(その他)
上述の実施形態では、ニューラルネットワーク制御器30はニューラルネットワークを用いて学習したが、ニューラルネットワーク以外の機能を用いて学習してもよい。すなわち、ニューラルネットワーク制御器30は学習型制御器でもよい。また、制御装置1のうちフィードバック制御器10を含まない構成を有する第2の制御装置を提供することもできる。例えば、予め設計された既存のフィードバック制御器を用いて制御対象を制御する制御系に、規範モデル部20とニューラルネットワーク制御器30を有する制御装置が適用して上述の制御系を構成してもよい。
【0040】
上述の各構成及び処理は、処理部と記憶部を有するコンピュータで実現することも可能である。処理部は、各構成の処理を実行する。記憶部は、処理部が実行するプログラムを記憶する。上述の処理は、処理部が実行する制御方法としても実現可能である。また、処理部に上述の処理を実行させるための命令を含むプログラム又はプログラム媒体、該プログラムを記憶したコンピュータ読み取り可能な記録媒体及び非一時的な記録媒体等により実現可能である。
【産業上の利用可能性】
【0041】
本実施形態の制御装置及び制御系は、例えば、むだ時間を有する制御対象を制御する制御系に適用可能である。一例として、プロセス制御系や温度調整系に適用可能である。より具体的な例としては、温調・空調システム、射出成型機及びホットプレートなどが挙げられる。
【符号の説明】
【0042】
1 制御装置
2 制御対象
10 フィードバック制御器
20 規範モデル部
30 ニューラルネットワーク制御器
51 目標値(繰り返しステップ指令)
52 出力応答波形
53 フィードバック制御器の出力(FBA)
54 ニューラルネットワーク制御器の出力(NNout)
図1
図2
図3
図4
図5
図6