(58)【調査した分野】(Int.Cl.,DB名)
前記生成された機械学習制御ヒューリスティックスはコントローラに転送され、コントローラは転送された機械学習制御ヒューリスティックスに従って前記動的システムをオンラインで制御する、請求項1から4のいずれか1項に記載の方法。
前記機械学習制御ヒューリスティックスは、前記シミュレーションモデルによってモデル化される前記複合動的システムを制御するための近似ルールを含む、請求項1から5のいずれか1項に記載の方法。
モデル記憶装置(2)に記憶されたシミュレーションモデル(f)によってモデル化される動的システム(sys)を制御するために用いられ、現在のシナリオパラメータベクトル(p)と制御ベクトル(u)に基づいて前記動的システム(sys)のシステム状態ベクトル(x)を時間的に予測するように適合された機械学習制御ヒューリスティックスを提供するための制御ヒューリスティック生成プラットフォーム(1)であって、
前記制御ヒューリスティック生成プラットフォーム(1)が、
モデル予測制御MPCアルゴリズムを用いて、前記シミュレーションモデル(f)を用いた前記動的システム(sys)のシミュレーション中に毎回、異なるシナリオパラメータベクトルおよび初期システム状態ベクトルに関して制御ベクトル(u)を提供するとともに、シナリオパラメータベクトル(p)と初期システム状態ベクトル(x0)の各シミュレートされた組み合わせに関して、MPCアルゴリズムにより、結果の最適制御値(u*(p,x0))を計算し、結果の最適制御値をメモリ(6)に保存するように適合された第1の計算部(3)と、
機械学習アルゴリズムを用いて、保存された結果の最適制御値(u*(p,x0))に関する対応するシナリオパラメータベクトル(p)と初期システム状態ベクトル(x0)との関係を近似する機械学習制御ヒューリスティックス(ua(p,x0))を生成するように適合された第2の計算部(7)を含み、
生成された機械学習制御ヒューリスティックスは、前記制御ヒューリスティック生成プラットフォーム(1)のインターフェースを介して前記動的システムのコントローラ(9)に転送可能である、制御ヒューリスティック生成プラットフォーム。
前記機械学習制御ヒューリスティックスは、前記シミュレーションモデル(f)によってモデル化される前記複合動的システム(sys)を制御するための近似ルールを備える、請求項7、8または9に記載の制御ヒューリスティック生成プラットフォーム。
前記動的システム(sys)が、前記コントローラ(9)によって、転送された機械学習制御ヒューリスティックスに従ってオンラインで制御される車両を備えている、請求項7から10のいずれか1項に記載の制御ヒューリスティック生成プラットフォーム。
【発明の概要】
【発明が解決しようとする課題】
【0003】
したがって、本発明の目的は、非常に高効率であり、複合動的システムの制御を実行するための計算リソースがより少ない、複合動的システムを制御するための方法を提供することである。
【課題を解決するための手段】
【0004】
この目的は、請求項1に記載の特徴を備えた、複合動的システムの最適化制御を実行するための方法によって、本発明の第1の態様に従って達成される。
【0005】
本発明は、方法の第1の態様に従って、機械学習型の、シナリオに基づく制御ヒューリスティックスを用いた複合動的システムの最適化制御を実行するための方法を提供し、方法は、
前記動的システムの時間におけるシステム状態ベクトルを予測するためのシミュレーションモデルを、現在のシナリオパラメータベクトルと制御ベクトルに基づいて提供するステップと、
モデル予測制御MPCアルゴリズムを用いて、前記シミュレーションモデルを用いた動的システムのシミュレーション中に毎回、異なるシナリオパラメータベクトルおよび初期システム状態ベクトルに関する制御ベクトルを提供するステップと、
シナリオパラメータベクトルと初期システム状態ベクトルの各シミュレートされた組み合わせに関して、モデル予測制御MPCアルゴリズムにより結果の最適制御値を計算し、結果の最適制御値を保存するステップと、
機械学習アルゴリズムを用いて、保存された結果の最適制御値に関する対応するシナリオパラメータベクトルと初期システム状態ベクトルとの関係を近似する機械学習制御ヒューリスティックスを生成するステップと、
生成された機械学習制御ヒューリスティックスを用いて、前記シミュレーションモデルによってモデル化される複合動的システムを制御するステップと、
を含む。
【0006】
本発明の第1の態様による方法の可能な一実施形態において、機械学習アルゴリズムはディフュージョンマップを用いる。
【0007】
本発明の第1の態様による方法の別の可能な実施形態において、機械学習アルゴリズムは、動的システムを近似するための閉観測量を備えたディフュージョンマップを用いる。
【0008】
本発明の第1の態様による方法の別の可能な実施形態において、機械学習アルゴリズムはサポートベクトルマシンを用いる。
【0009】
本発明の第1の態様による方法のさらなる可能な実施形態において、生成された機械学習制御ヒューリスティックスはコントローラに転送され、コントローラは動的システムを、転送された機械学習制御ヒューリスティックスに従ってオンラインで制御する。
【0010】
本発明の第1の態様による方法のもう1つの可能な実施形態において、機械学習制御ヒューリスティックスは、前記シミュレーションモデルによってモデル化される複合動的システムを制御するための近似ルールを含む。
【0011】
本発明は、さらなる態様により、請求項7の特徴を備えた制御ヒューリスティック生成プラットフォームを提供する。
【0012】
本発明は、第2の態様により、モデル記憶装置に記憶されたシミュレーションモデルfによってモデル化される動的システムを制御するために用いられ、動的システムの時間におけるシステム状態ベクトルを、現在のシナリオパラメータベクトルと制御ベクトルに基づいて予測するように適合された機械学習制御ヒューリスティックスを提供するための制御ヒューリスティック生成プラットフォームを提供し、前記制御ヒューリスティックス生成システムは、
モデル予測制御MPCアルゴリズムを用いて、前記シミュレーションモデルfを用いた前記動的システムのシミュレーション中に毎回、異なるシナリオパラメータベクトルおよび初期システム状態ベクトルに関して制御ベクトルを提供し、シナリオパラメータベクトルと初期システム状態ベクトルの各シミュレートされた組み合わせに関して、モデル予測制御MPCアルゴリズムにより、結果の最適制御値を計算し、結果の最適制御値をメモリに保存するように適合された第1の計算部と、
機械学習アルゴリズムを用いて、保存された結果の最適制御値に関する対応するシナリオパラメータベクトルと初期システム状態ベクトルとの関係を近似する機械学習制御ヒューリスティックスを生成するように適合された第2の計算部を含み、
生成された機械学習制御ヒューリスティックスは、前記制御ヒューリスティック生成プラットフォームのインターフェースを介して前記動的システムのコントローラに転送可能である。
【0013】
本発明の第2の態様による制御ヒューリスティック生成プラットフォームの可能な実施形態において、制御ヒューリスティック生成プラットフォームは、クラウドプラットフォームとして実装される。
【0014】
本発明の第2の態様による制御ヒューリスティック生成プラットフォームのさらなる可能な実施形態において、機械学習制御ヒューリスティックスは、前記シミュレーションモデルfによってモデル化される複合動的システムを制御するための近似ルールを備える。
【0015】
本発明の第2の態様による制御ヒューリスティック生成プラットフォームのさらなる可能な実施形態において、動的システムは、転送された機械学習制御ヒューリスティックスに従ってコントローラによってオンラインで制御される車両を備える。
【0016】
以下、本発明の第1の態様による複合動的システムの最適化制御を実行する方法と、本発明の第2の態様による制御ヒューリスティック生成プラットフォームの可能な実施形態を、添付図面を参照してより詳細に説明する。
【発明を実施するための形態】
【0018】
図1の代表的実施形態に見られるように、本発明の一態様による制御ヒューリスティック生成プラットフォーム1は、異なるコンポーネントを備え得る。
図1に示された制御ヒューリスティック生成プラットフォーム1は、機械学習制御ヒューリスティックスを提供するために用いられ得る。これらの制御ヒューリスティックスは、動的システムsysをオンラインで制御するために用いられ、動的システムsysはシミュレーションモデルfによってモデル化されて、制御ヒューリスティック生成プラットフォーム1のモデル記憶装置2に記憶される。モデル記憶装置2に記憶されたシミュレーションモデルfは、動的システムsysの時間におけるシステム状態ベクトルxを、現在のシナリオパラメータベクトルpと制御ベクトルuに基づいて予測するように適合される。シミュレーションモデルfは、動的システムsysのエンジニアリングモデルであり得る。動的システムは例えば、道路を走行中の車両であり得る。制御ヒューリスティック生成プラットフォーム1は、モデル予測制御MPCアルゴリズムを用いて、シミュレーションモデルfを用いた動的システムのシミュレーション中に毎回、異なるシナリオパラメータベクトルpおよび初期システム状態ベクトルx
0に関して制御ベクトルuを提供するように適合された第1の計算部3を備えている。制御ヒューリスティック生成プラットフォーム1の第1の計算部3は、シナリオパラメータベクトルpを記憶するデータベース4へのアクセスを有する。さらに、制御ヒューリスティック生成プラットフォーム1の計算部3は、システムsysの初期システム状態ベクトルx
0が記憶されているさらなるデータベース5へのアクセスを有する。計算部3は、シナリオパラメータベクトルpと初期システム状態ベクトルx
0の各シミュレートされた組み合わせに関して、結果の最適制御値u
*を、MPCアルゴリズムを用いて計算するように適合される。次に、結果の最適制御値u
*は、計算された最適制御値を記憶するメモリ6に、計算部3によって保存される。
【0019】
制御ヒューリスティック生成プラットフォーム1はさらに、結果の最適制御値に関する対応するシナリオパラメータベクトルpと初期システム状態ベクトルx
0との関係を、機械学習アルゴリズムMLAを用いて近似する機械学習制御ヒューリスティックスを生成するように適合された第2の計算部7を備える。生成された機械学習制御ヒューリスティックスu
aは、可能な実施形態において制御ヒューリスティック生成プラットフォーム1のインターフェースを介して動的システムsysのコントローラ9に転送され得る。
図1に示すように、生成された機械学習制御ヒューリスティックスu
aは、完成後に、手段8を介して、シミュレーションモデルfによってモデル化される動的システムsysをオンラインで制御するコントローラ9に転送される。機械学習制御ヒューリスティックスu
aは、ケーブルによって電子的に、またはUSBスティック等の物理的メモリによって、などの異なる手段で搬送されてもよい。可能な実装において、制御ヒューリスティック生成プラットフォーム1は、リモートプラットフォームとして、例えばクラウドプラットフォームとして実装され得る。クラウドプラットフォームとしての実装は、オフラインのヒューリスティック生成フェーズにおいて、ほぼ無限の計算リソースを用いることを可能にする。
【0020】
図2は、本発明によるシステムを例示するためのさらなる図を示す。
図2の例示された実施形態において、リモートプラットフォーム1は、動的システムsysのエンジニアリングモデルまたはシミュレーションモデルfを記憶するための記憶装置2を備えている。プラットフォーム1は、例示された実施形態において、用いられるシミュレーションモデルfの複雑さまたは次数を自動的に低減するためのモデル次数低減部2aを備えている。データベース4は、例えば履歴データ、以前の製品生成または製品要求等の、見込まれるユースケースまたはシナリオパラメータベクトルの群を記憶する。計算部3は、モデル予測制御MPCを用いてシミュレーションを実行して、制御ベクトルuを提供する。したがって、計算部3は、見込まれるシナリオの群に関するモデル予測制御MPCを提供する。モデル予測制御MPCアルゴリズムは、シミュレーションモデルfを用いた動的システムsysのシミュレーション中に毎回、データベース5から読み出された異なるシナリオパラメータベクトルpおよび初期システム状態ベクトルx
0に関して制御ベクトルuを提供するために用いられる。シナリオパラメータベクトルpと初期システム状態ベクトルx
0のシミュレーションの組み合わせ毎に、結果の最適制御値u
*が、MPCアルゴリズムを用いて計算される。結果の最適制御値u
*は、プラットフォーム1のメモリ6に記憶される。プラットフォーム1の第2の計算部7は、保存された結果の最適制御値u
*に関する対応するシナリオパラメータベクトルpと初期システム状態ベクトルx
0との間の関係を近似する機械学習制御ヒューリスティックスu
aを、機械学習アルゴリズムMLAを用いて生成する。制御値は、記憶された制御挙動に基づく機械学習によって、および/または例えばニューラルネットワークによる制御曲線によって学習される。生成された機械学習制御ヒューリスティックスu
aは次に、
図2に示すようにコントローラ9の内部メモリ9Aに転送され得る。制御ヒューリスティック生成プラットフォーム1は、モデル予測制御MPCアルゴリズムを用いて、シミュレーションモデルf、一組のパラメータシナリオに基づいて、機械学習を用いてオフラインの前処理を実行する。このように、制御ヒューリスティック生成プラットフォーム1は、オフライン段階で、すなわち、システムsysの動作の前に前処理を提供する。
【0021】
制御ヒューリスティックスu
aがコントローラ9の内部メモリ9Aに転送された後で、システムsysの動作中にオンライン制御段階が開始される。システムsysは、
図2に示すように1つまたはいくつかのプロセス10Aを含む。システムのプロセスは、
図2に同様に示されるようなプロセスの現在の状態での予測される負荷9Bに基づいて制御ヒューリスティックスu
aを用いて制御され得る。付加的なユースケースまたはシナリオが、
図2に示されるようにプラットフォーム1のデータベース4に記憶されてもよい。これらの付加的なユースケースまたはシナリオは、オフライン段階中にパラメータおよび状態値を保存することによって収集され得る。シミュレーションモデルfの更新が、劣化によるパラメータの変化等の付加的なセンサ情報に基づいて実行されることも可能である。現在の負荷(いくつかのシナリオパラメータの現在の値)10Bが、
図2に示すように、動的システムsysのプロセス10Aに供給される。
【0022】
動作に従って学習されたシナリオの、データベースへのフィードバックがある。フィードバックは経時的に制御を大きく改良する。
【0023】
このデータに基づいて、
A)シミュレーションモデルの入力パラメータが校正されることができて、より良いシミュレーションモデルにつながる、例えば、モータ特性に磨耗が如何に影響するかを学習する、予測よりも圧力が少ないタイヤを検出する、異なる空気力学につながる、ボックス付きルーフトップを検出する等を行い、
B)可能ならば、どの負荷に基づいてシステム、例えば機械が作動されるかを判断する。車の場合、それは地図から軌跡を読み取ることによってなされ得る。船、工場またはポンプの場合、これは一層複雑になり得る。例えば、ポンプに関しては、異なる粘度を有するどの種類の油がパイプライン内で圧送されるかが判断され得る。例えば、異なる粘度は異なる負荷を意味し得る。
【0024】
動的システムは、状態ベクトル(x)を有するシステムであり、状態ベクトルは、特定の状態の関数に従って時間tとともに発展し、f(x)=dx/dtとなる。さらに、関数は、ベクトルpのいくつかのパラメータを受け入れ得る(dx/dt=f(x,p))。制御可能な動的システムにおいて、付加的な制御ベクトル(u)は、動的システムの発展に影響し得る、コントローラ9によって直接変更され得るシステムの部分を表す(dx/dt=f(x,u,p))。動的システムsysの一例は、坂道を走行している車両であり、その場合状態ベクトルxの状態ベクトルエントリーは、車両の高さ、傾斜、位置、速度、加速度ならびにその車両のモータの角速度等の量であり得る。出力ベクトルエントリーは、車両のダッシュボード上の速度および消費の読み取り値を含み得る。これらから、状態ベクトルxが直接または間接的に推測され得る。制御ベクトルuの制御ベクトルエントリーは例えば、どれ程のガスが供給されたか、およびブレーキペダルがどこまで踏み込まれたかを示し得る。パラメータベクトルpのパラメータベクトルエントリーは例えば、車両の質量、空気抗力および転がり抵抗プロファイルならびにモータトルクプロファイルを含み得る。さらなるパラメータベクトルエントリーは、位置を伴う高さの表での値または高さ曲線を記述する何らかの関数の係数等の、道路の高さプロファイルを記述し得る。
【0025】
モデル予測制御(MPC)は、制御可能な動的システムsysを制御するための最適な方式を計算するためのアルゴリズムである。モデル予測制御(MPC)は、発展関数、時間t=0での推定状態ベクトルxと、パラメータベクトルp、おそらく何らかの制約d(x,u,p)ならびに可能な限り低いコスト関数C(t,x,u,p)を入力として取り込み、最適化アルゴリズムを用いて、t=0からt=T
hまでの最適な制御u
*を見出し、それは、予測ホライズンと呼ばれる、この時間間隔中に積分されたコスト関数Cの最小値そのものまたはほぼ最小値のいずれかをもたらし、同時に、可能ならば制約も満たしている。T
hは予測ホライズン長さと呼ばれる。この計算された最適な制御u
*は時間ステップΔT
cにわたり実行され、その場合0<ΔT
c<T
hであり、その後、最適な制御u
*は、時間t=ΔT
cでの状態ベクトルxの新たな推定値を用いて、t=ΔT
cからt=T
h+ΔT
cまでの時間にわたり再び見出される。これは次に、ΔT
cから2ΔT
cまでの次の時間間隔にわたり、また、望むだけ反復されることができる。
【0026】
図3は、本発明の一態様による、複合動的システムsysの最適化制御を実行するための方法の可能な代表的実施形態のフローチャートを示す。
【0027】
第1のステップS1で、動的システムの時間におけるシステム状態ベクトルxを、シナリオパラメータベクトルpおよび制御ベクトルuに基づいて予測するためのシミュレーションモデルfが提供される。
【0028】
さらなるステップS2で、モデル予測制御MPCアルゴリズムを用いて、シミュレーションモデルfを用いた動的システムのシミュレーション中に毎回、異なるシナリオパラメータベクトルpおよび初期システム状態ベクトルx
0に関して制御ベクトルuを提供する。
【0029】
さらなるステップS3で、シナリオパラメータベクトルpと初期システム状態ベクトルx
0の各シミュレートされた組み合わせに関して、結果の最適制御値u
*がMPCアルゴリズムによって計算され、メモリに保存される。
【0030】
さらなるステップS4で、機械学習アルゴリズムMLAを用いて、保存された結果の最適制御値u
*に関する対応するシナリオパラメータベクトルpと初期システム状態ベクトルx
0との関係を近似する機械学習制御ヒューリスティックスu
aが生成される。機械学習アルゴリズムMLAは、例えばディフュージョンマップを用いてよい。1つの可能な実施形態において、機械学習アルゴリズムMLAは動的システムsysを近似するための閉観測量を有するディフュージョンマップを用いる。
【0031】
さらなるステップS5で、生成された機械学習ヒューリスティックスu
aは、シミュレーションモデルfによってモデル化される複合動的システムをオンラインで制御するために用いられる。
【0032】
制御可能な動的システムsysは、システムのダイナミクスのためのシミュレーションモデルfによって以下のように表され得る:
【数1】
ここで、tは時間、xは状態変数ベクトル、uは制御変数ベクトル、pはパラメータベクトルである。
【0033】
図4Aから
図4Dは、本発明による方法のステップを示す。
【0034】
図4Aは、一次元状態x(t)とコントロールu(t)のためのMPC最適化を示す。xおよびuに関する既知のデータ(実線)と、システムのダイナミクス
【数2】
に基づき、コスト関数C(図示せず)は予測ホライズンtε[t
0、t
0+T
hor]に関して最小化される。結果のuおよび対応する予測状態x(破線)に対する最適制御値はその後、次のΔT
cに、t
1まで用いられることができ、t
1の時点で、この手順は、間隔tε[t
0、t
0+T
hor]に関して反復される。
【0035】
図4Bに例示されるように、高次元MPCデータは次に、ディフュージョンマップを用いることで低次元マニホールドにパラメータ化されて、ディフュージョンマップ座標Ψ
0およびΨ
1をもたらす。ディフュージョンマップは、高次元に埋め込まれた低次元マニホールドをパラメータ化するためのデータ解析ツールである。ディフュージョンマップによるマッピングは、特定のカーネルまたはメトリックに従って測定された最近傍間の距離に基づく。ディフュージョンマップの基となる概念は、下層のマニホールド内でサンプリングされたポイントに関して、高次元空間内の最近接ポイント同士の距離が、そのマニホールドにおける、またはマニホールドに沿った距離とほぼ等しくなるということである。これは、ポイント間の一種のディフュージョン演算子に用いることができ、それは、無限データの制約内で、連続したラプラース−ベルトラミ演算子を近似するためになされ得る。この演算子の固有ベクトルまたは固有関数が、下層のマニホールドの有用なパラメータ化を提供するため、離散したポイントに関して同じことを行い、パラメータ化を得ることが可能である。固有ベクトル値は、最も重要な方向、またはマニホールド内の距離に対して最も貢献度が高い方向における座標として解釈され得る。固有ベクトルとして、それらはデータ上の関数の空間の直角ベースをも形成する。これは、幾何学的ハーモニクスを介した補間および拡張関数のべースをも形成できる。
【0036】
図4Cに示すように、ディフュージョンマップの座標は、拡張されて、ディフュージョンマップによって近似された低次元マニホールド上またはその付近のサンプリングされないポイントに補間され得る。
【0037】
さらに、
図4Dに示されるように、出力されたヒューリスティックスは以前にサンプリングされていないポイントに補間されることができ、次に、例えば認証または制御用に用いられ得る。
【0038】
システムのダイナミクスを組み込むもう1つの可能性は、各データポイントを、時間遅延埋め込みによって拡張すること、すなわち、時系列全体を1つのデータポイントとして組み込むことである。こうして、距離メトリックは、単一の時点というよりは軌跡全体間の差異を比較する。
【0039】
1つの可能な実施形態において、複合動的システムは、路上を走行中の車両を含む。1つの適用例において、そのようなシステムは、現在の速度(状態x)に基づいた予め設けられた高さプロファイル(シナリオp)に関してエネルギー最適化された車両の加速度と制動を含む。
【0040】
例えば、制御ヒューリスティックは、
図5に示すように、マップルート(グーグル(Google:登録商標)マップまたはその他のマップサービスおよびナビゲーションシステムによって提供される)の高さプロファイルによって訓練され得る。モデル予測制御(MPC)アルゴリズムは、この高さプロファイルに関して最適化制御戦略または最適化制御値を供給できる。
図5は、速度V、加速度A、温度Tおよびモータ制動力Fならびに距離dにわたる瞬時(コスト/時間)値cを示す。
【0041】
図6に、MPCから、高さ200および中心3000分だけ離れた標準偏差1000のガウス分布の2つの連続した坂への最適制御値を有するシステム応答が図示されている。
【0042】
制御ヒューリスティック生成プラットフォーム1は、シナリオパラメータベクトルを記憶するためのデータベース4を備える。シナリオパラメータベクトルは、システムの外部因子を記述するパラメータのベクトルである。これらの外部因子は、システムの発展により変化しない。これらのパラメータは、そのシステムのプロセス要求、物理定数、特性、または特定の設定の特性を含み得る。
【0043】
さらに、プラットフォーム1は、システムの初期システム状態ベクトルへのアクセスを有する。システム状態ベクトルxは、動的システムsysの状態を記述し、動的システムsysの将来に影響し、経時的に発展する変数のベクトルである。発展は、システム状態ベクトルx、シナリオパラメータベクトルpおよびdx/dt=f(x,u,p)による制御変数のベクトルuに依存する数理モデルfによって記述される。モデル予測制御MPCは、シミュレーションモデルfを用いた動的システムsysのシミュレーション中に毎回、異なるシナリオパラメータベクトルpおよび初期システム状態ベクトルx
0に関して制御ベクトルuを提供するために用いられる。シナリオパラメータベクトルpと初期システム状態ベクトルx
0の各シミュレートされた組み合わせに関して、
図1に示すように、結果の最適制御値u
*が計算されてメモリ6に保存される。機械学習アルゴリズムMLAを用いて、保存された結果の最適制御値u
*に関する対応するシナリオパラメータベクトルpと初期システム状態ベクトルx
0との関係を近似する機械学習制御ヒューリスティックスu
aを生成する。機械学習ヒューリスティックは、機械学習アルゴリズムMLAによって生成されるヒューリスティック(経験則または近似ルール)である。機械学習ヒューリスティックスは、したがって、制御のための近似ルールを含む。機械学習制御ヒューリスティックスu
aは、入力システムベクトルxおよびシナリオパラメータベクトルpから、モデル予測制御MPCアルゴリズムによって生成された最適な制御ベクトルuへの入力/出力関係の近似ルールを指す。したがって、そのような機械学習制御ヒューリスティックスu
aは、入力状態ベクトルxとシナリオパラメータベクトルpを取り込んで制御ベクトルuを出力する数学関数である。制御ヒューリスティックスは、計算された最適制御値を提供する。結果の最適制御値u
*は保存され、次に、関係(ヒューリスティック)が補間され得る。
【0044】
別の可能な実施形態において、線形回帰または最近傍補間が、変数に近似ルールをもたらすために用いられ得る。
【0045】
システムsys自体は、生成された機械学習制御ヒューリスティックスu
aのみを用いて、コントローラ9による操作中に制御され得る。したがって、コントローラ9自体の計算要求は低い。さらに、制御は従来型モデル予測制御MPCと比較してロバストである。複合プロセッサまたはシステムsysであっても、単純な制御ヒューリスティックスu
aで表されることができ、その結果、制御方法の効率が向上する。