IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日野自動車株式会社の特許一覧

<>
  • 特許-制御装置 図1
  • 特許-制御装置 図2
  • 特許-制御装置 図3
  • 特許-制御装置 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-03-08
(45)【発行日】2024-03-18
(54)【発明の名称】制御装置
(51)【国際特許分類】
   G05B 11/36 20060101AFI20240311BHJP
   G05B 13/04 20060101ALI20240311BHJP
【FI】
G05B11/36 505A
G05B13/04
【請求項の数】 1
(21)【出願番号】P 2020004428
(22)【出願日】2020-01-15
(65)【公開番号】P2021111265
(43)【公開日】2021-08-02
【審査請求日】2022-12-07
(73)【特許権者】
【識別番号】000005463
【氏名又は名称】日野自動車株式会社
(74)【代理人】
【識別番号】100088155
【弁理士】
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【弁理士】
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100183438
【弁理士】
【氏名又は名称】内藤 泰史
(72)【発明者】
【氏名】成田 洋紀
【審査官】西井 香織
(56)【参考文献】
【文献】特開平07-244502(JP,A)
【文献】特表2019-520642(JP,A)
【文献】特開2017-102617(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G05B 11/36
G05B 13/04
(57)【特許請求の範囲】
【請求項1】
制御目標値の導出に係る入力値に基づき、前記制御目標値を導出し出力する第1制御部と、
前記第1制御部によって出力された前記制御目標値と前記入力値とに基づき、将来の制御対象の挙動のシミュレーションを行い、シミュレーション結果を評価して、該評価が良くなるように、前記制御目標値を修正しながらシミュレーションを有限回数繰り返し、前記制御目標値の修正値である修正目標値を導出する予測モデルを有し、前記修正目標値を出力する第2制御部と、を備え
前記第1制御部は、前記第2制御部によって出力された前記修正目標値を該修正目標値に対応する入力値と併せて学習する学習モデルを有し、前記修正目標値の学習結果を考慮して、前記入力値に基づき前記制御目標値を導出し出力する、制御装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、制御装置に関する。
【背景技術】
【0002】
制御対象の出力を最適化するための手法として、モデル予測制御が知られている(例えば特許文献1参照)。モデル予測制御では、コントローラの内部の予測モデル(制御対象モデル)に基づいて、制御対象の出力が目標値(最適値)に追従するように、制御対象に与える入力値が決定される。具体的には、モデル予測制御では、予測モデルが、制御対象の出力の目標値と現在の制御対象の出力値とに基づき、現在から未来の予測区間において目標値との追従誤差の面積が最小化するように、各時間における制御対象に与える入力値(入力値の時系列)を探索し、時系列の一番目の要素を、実際に制御対象に与える入力値として制御対象に適用する。このような処理が繰り返し実行されて、各時刻において未来の応答を予測しながら制御対象に与える入力値が逐次最適化されることにより、制御対象の出力を適切に目標値に追従させることができる。
【先行技術文献】
【特許文献】
【0003】
【文献】特表2019-522290号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
ここで、上述したモデル予測制御では、制御対象の出力を目標値に追従させるために、現在から未来の予測区間の入力値の時系列を探索する処理を繰り返し行う必要があるため、制御対象の出力を最適化するために時間を要してしまう。実際には、限られた時間で制御対象の出力を最適化する必要があるため、環境によっては、モデル予測制御のみでは制御対象の出力の最適化を行うことができないおそれがある。
【0005】
本発明は上記実情に鑑みてなされたものであり、より好適に制御対象の出力を最適化することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一態様に係る制御装置は、制御目標値の導出に係る入力値に基づき、制御目標値を導出し出力する第1制御部と、第1制御部によって出力された制御目標値と入力値とに基づき制御目標値の修正値である修正目標値を導出する予測モデルを有し、修正目標値を出力する第2制御部と、を備える。
【0007】
本発明の一態様に係る制御装置では、第1制御部によって導出された制御目標値が、第2制御部の予測モデルによって修正され、修正目標値が出力される。例えば、予測モデルのみによって制御に係る目標値を導出しようとした場合(制御対象の出力を最適化する場合)においては、繰り返し処理に時間を要してしまい、限られた時間内に制御対象の出力を最適化することができないおそれがある。一方で、例えば比較的短時間で制御対象の出力を最適化するモデル(学習モデル等)のみによって制御に係る目標値を導出しようとした場合においては、高精度なモデルを開発するために多大な労力を要してしまうと考えられる。この点、本発明の一態様に係る制御装置では、初期の目標値が第1制御部によってある程度大まかに設定された場合であっても、予測モデルによる修正によって、目標値設定を効率的に行うことができる。このことで、限られた時間で制御対象の出力を最適化することができ、制御対象の出力を好適に最適化することができる。
【0008】
第1制御部は、第2制御部によって出力された修正目標値を学習する学習モデルを有し、修正目標値の学習結果を考慮して、入力値に基づき制御目標値を導出し出力してもよい。このように、修正目標値が学習されることにより、次回に同様のシチュエーションが現れた場合における、第1制御部による制御目標値の導出精度を向上させることができる。すなわち、予測モデルによる修正及び学習モデルによる修正した情報の学習が実行されることによって、その後の目標値設定を効率的に行うことができる。このことで、限られた時間で制御対象の出力を最適化することができ、制御対象の出力を好適に最適化することができる。
【0009】
学習モデルは、修正目標値と該修正目標値に対応する入力値とを併せて学習してもよい。これにより、次回に同様のシチュエーションが現れた場合における、第1制御部による制御目標値の導出精度をより好適に向上させることができる。
【発明の効果】
【0010】
本発明によれば、より好適に制御対象の出力を最適化することができる。
【図面の簡単な説明】
【0011】
図1】本実施形態に係る制御装置の機能ブロックを示す図である。
図2】修正目標値の学習を説明する図である。
図3】修正目標値の学習を説明する図である。
図4】制御装置が行う処理を示すフローチャートである。
【発明を実施するための形態】
【0012】
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。図面の説明において、同一又は同等の要素には同一符号を用い、重複する説明を省略する。
【0013】
図1は、本実施形態に係る制御装置1の機能ブロックを示す図である。図1に示される制御装置1は、例えば車両(不図示)における各種制御対象100を制御する装置である。制御装置1は、例えば制御対象100の現時刻からある有限区間に渡る未来の振る舞いを予測し、予測した結果を利用して、制御対象100の挙動が最適化するように、制御対象100に与える制御入力(後述する修正目標値)を決定する。
【0014】
制御装置1は、例えばエンジン制御に適用される。制御対象100は、例えばEGR(ExhaustGas Recirculation)バルブ及びVNT(Variable Nozzle Turbo)ノズルである。この場合、制御装置1は、例えばエンジン排出NOx、煙と加速性(過給圧の上昇率)を最適化するように、制御対象100であるEGRバルブの開度及びVNTノズルの位置を調整する制御入力(後述する修正目標値)を制御対象100に入力する。制御装置1は、第1制御部10と、第2制御部20とを備えている。
【0015】
第1制御部10は、制御目標値の導出に係る入力値に基づき、制御目標値を導出し出力する。例えばエンジン制御を行う場合、上記入力値は、エンジン回転数、ドライバ要求トルク(又はアクセル開度、燃料噴射量)、インテークマニフォールド圧力、及び吸入空気量等である。また、上記制御目標値は、EGRバルブの開度及びVNTノズルの位置である。
【0016】
第1制御部10は、自身が出力した制御目標値と上記入力値とに基づき第2制御部20によって出力された修正目標値を学習する学習モデル11を有している。学習モデル11は、修正目標値と該修正目標値に対応する入力値とを併せて学習する。学習モデル11は、例えばAI技術を利用して学習を行う。第1制御部10は、学習モデル11における修正目標値の学習結果を考慮して、入力値に基づき制御目標値を導出し出力する。このように、第2制御部20によって出力された修正目標値を学習する学習モデル11を利用して制御目標値が出力されることにより、次回に同様のシチュエーションが現れた場合(同様の入力値が制御装置1に入力された場合)における、第1制御部10による制御目標値の導出精度を向上させることができる。学習モデル11の学習が進むことにより、制御目標値の導出精度が向上する。
【0017】
学習モデル11を利用することによる効果について、図2及び図3を参照して説明する。図2及び図3は、修正目標値の学習を説明する図である。図2は、十分に学習が行われていない場合の制御目標値(破線)及び修正目標値(一点鎖線)を示している。図3は、ある程度学習が行われた場合の制御目標値(破線)及び修正目標値(一点鎖線)を示している。図2に示されるように、十分に学習が行われていない状態においては、特に初期の段階(時間が経過していない段階)において、制御目標値と修正目標値との乖離が大きい。一方で、ある程度学習が行われた後において、同様のシチュエーションが現れた場合には、図3に示されるように、制御目標値が前回学習された修正目標値に近づくように導出されるため、制御目標値と修正目標値との乖離が小さくなっている。このように、学習モデル11によって修正目標値が学習されることにより、学習済みのシチュエーションと同様のシチュエーションが現れた場合に、より早く、最適な制御目標値を導出することができる。
【0018】
第2制御部20は、第1制御部10によって出力された制御目標値と上記入力値とに基づき、制御目標値の修正値である修正目標値を導出する予測モデル21を有している。第2制御部20は、予測モデル21を用いて導出した修正目標値を出力する。予測モデル21は、現時点での入力値を用いて将来の制御対象100の挙動のシミュレーションを行い、シミュレーション結果を評価して、該評価が良くなるように、制御目標値を修正しながらシミュレーションを有限回数繰り返し、最終的な修正目標値を導出するモデルである。制御装置1では、タイムリーな制御を行う必要があるため、シミュレーションは有限回数しか行えない。有限回数のシミュレーションによって精度の高い修正目標値を導出するためには、第1制御部10から第2制御部20に入力される制御目標値の精度をある程度高くすることが重要となる。この点、上述したように、第1制御部10が、学習モデル11によって修正目標値を都度学習することにより、第1制御部10から第2制御部20に入力される制御目標値の精度を高めることができ、ひいては、第2制御部20から制御対象100に入力される修正目標値の精度を高めることができる。
【0019】
なお、制御装置1は、エンジン制御以外にも適用され、例えば自動運転制御に適用される。自動運転制御に適用される場合、制御対象100は例えばステアリング、アクセル、ブレーキである。第1制御部10及び第2制御部20に入力される入力値は、例えば運行ルート情報(ナビゲーション等から取得される情報)、現在値、道路の基本情報(制限速度、道路幅、車線数等)、障害物の情報(同一車線の前後を走る車両の位置及び相対速度、対向車線の車両の位置及び相対速度、自転車の位置及び相対速度、歩行者の位置及び相対速度等)である。そして、制御目標値及び修正目標値は、車速及び進行方向等の決定に係る、ステアリング、アクセル、ブレーキ等の制御値である。
【0020】
次に、図4を参照して、制御装置1が行う処理について説明する。図4は、制御装置1が行う処理を示すフローチャートである。ここでは、制御装置1をエンジン制御に適用する例(制御対象100がEGR(Exhaust Gas Recirculation)バルブ及びVNT(Variable NozzleTurbo)ノズルである例)を説明する。
【0021】
図4に示されるように、制御装置1は、最初に入力値を取得する(ステップS1)。具体的には、制御装置1は、入力値として、例えば、エンジン回転数、ドライバ要求トルク(又はアクセル開度、燃料噴射量)、インテークマニフォールド圧力、及び吸入空気量等を取得する。
【0022】
つづいて、制御装置1の第1制御部10は、入力値に基づき制御目標値を導出し出力する(ステップS2)。制御装置1は、制御目標値として、例えば、EGRバルブの開度及びVNTノズルの位置を出力する。
【0023】
つづいて、制御装置1の第2制御部20は、予測モデル21を用いて、制御目標値と入力値とに基づき制御目標値の修正値である修正目標値を導出し出力する(ステップS3)。修正目標値は、制御対象100であるEGRバルブ及びVNTノズルに入力されると共に、第1制御部10の学習モデル11に入力される。
【0024】
つづいて、第1制御部10の学習モデル11は、入力された修正目標値と該修正目標値に対応する入力値とを併せて学習する(ステップS4)。これにより、同様のシチュエーションが現れた場合(同様の入力値が入力された場合)において、より適切に制御目標値を導出することができる。最後に、制御を終了するか否かが判定され(ステップS5)、制御を終了しない場合にはステップS1の処理から再度実行され、制御を終了する場合には処理が終了する。
【0025】
次に、本実施形態に係る制御装置1の作用効果について説明する。
【0026】
本実施形態に係る制御装置1は、制御目標値の導出に係る入力値に基づき、制御目標値を導出し出力する第1制御部10と、第1制御部10によって出力された制御目標値と入力値とに基づき制御目標値の修正値である修正目標値を導出する予測モデル21を有し、修正目標値を出力する第2制御部20と、を備える。
【0027】
このような制御装置1では、第1制御部10によって導出された制御目標値が、第2制御部20の予測モデル21によって修正され、修正目標値が出力される。例えば、予測モデル21のみによって制御に係る目標値を導出しようとした場合(制御対象の出力を最適化する場合)においては、繰り返し処理に時間を要してしまい、限られた時間内に制御対象100の出力を最適化することができないおそれがある。一方で、例えば比較的短時間で制御対象100の出力を最適化するモデル(学習モデル11等)のみによって制御に係る目標値を導出しようとした場合においては、高精度なモデルを開発するために多大な労力を要してしまうと考えられる。この点、本実施形態に係る制御装置1では、初期の目標値が第1制御部10によってある程度大まかに設定された場合であっても、予測モデル21による修正によって、目標値設定を効率的に行うことができる。このことで、限られた時間で制御対象100の出力を最適化することができ、制御対象100の出力を好適に最適化することができる。以上のように、本実施形態に係る制御装置1によれば、モデル予測制御とAIを利用した制御の両方の欠点を補い、効率的に最適な制御を行うことができる。
【0028】
第1制御部10は、第2制御部20によって出力された修正目標値を学習する学習モデル11を有し、修正目標値の学習結果を考慮して、入力値に基づき制御目標値を導出し出力してもよい。このように、修正目標値が学習されることにより、次回に同様のシチュエーションが現れた場合における、第1制御部10による制御目標値の導出精度を向上させることができる。すなわち、予測モデル21による修正及び学習モデル11による修正した情報の学習が実行されることによって、その後の目標値設定を効率的に行うことができる。このことで、限られた時間で制御対象100の出力を最適化することができ、制御対象100の出力を好適に最適化することができる。
【0029】
学習モデル11は、修正目標値と該修正目標値に対応する入力値とを併せて学習してもよい。これにより、次回に同様のシチュエーションが現れた場合における、第1制御部10による制御目標値の導出精度をより好適に向上させることができる。
【符号の説明】
【0030】
1…制御装置、10…第1制御部、11…学習モデル、20…第2制御部、21…予測モデル、100…制御対象。
図1
図2
図3
図4