(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-08-23
(45)【発行日】2024-09-02
(54)【発明の名称】フィルタメンテナンス頻度機械学習装置および該方法ならびに油冷式圧縮システム
(51)【国際特許分類】
F04B 49/10 20060101AFI20240826BHJP
F04B 51/00 20060101ALI20240826BHJP
【FI】
F04B49/10 331M
F04B51/00
(21)【出願番号】P 2021158300
(22)【出願日】2021-09-28
【審査請求日】2023-10-19
(73)【特許権者】
【識別番号】521362885
【氏名又は名称】コベルコ・コンプレッサ株式会社
(74)【代理人】
【識別番号】100115381
【氏名又は名称】小谷 昌崇
(74)【代理人】
【識別番号】100111453
【氏名又は名称】櫻井 智
(72)【発明者】
【氏名】壷井 昇
(72)【発明者】
【氏名】中村 元
(72)【発明者】
【氏名】依田 和行
(72)【発明者】
【氏名】大熊 康治
【審査官】岸 智章
(56)【参考文献】
【文献】特開2003-254253(JP,A)
【文献】特開2017-122585(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
F04B 49/10
F04B 51/00
(57)【特許請求の範囲】
【請求項1】
油冷式圧縮機における油分離器のフィルタのメンテナンス頻度を機械学習するフィルタメンテナンス頻度機械学習装置であって、
前記油冷式圧縮機の状態を観測する状態観測部と、
前記状態観測部で観測した状態の状態量に基づいて、前記フィルタのメンテナンス頻度を機械学習する機械学習部とを備え、
前記状態量は、前記油冷式圧縮機の稼働率と、前記油冷式圧縮機における所要動力、吐出圧力、吐出温度および駆動源の温度ならびに前記フィルタのメンテナンス間隔のうちの少なくとも1つと、である、
フィルタメンテナンス頻度機械学習装置。
【請求項2】
前記機械学習部は、前記状態観測部で観測した状態の状態量に基づいて報酬を求める報酬処理部と、前記報酬処理部で求めた報酬に基づいて、現在の状態変数から前記フィルタのメンテナンス頻度の変化量を決定する関数を更新する価値関数更新部とを備える、
請求項1
に記載のフィルタメンテナンス頻度機械学習装置。
【請求項3】
前記状態量は、前記油冷式圧縮機の稼働率と、前記油冷式圧縮機における所要動力、吐出圧力、吐出温度および駆動源の温度のうちのいずれか1つと、であり、
前記報酬処理部は、前記油冷式圧縮機の稼働率に基づいて第1報酬を求め、前記油冷式圧縮機における所要動力、吐出圧力、吐出温度および駆動源の温度のうちのいずれか1つに基づいて第2報酬を求める、
請求項2に記載のフィルタメンテナンス頻度機械学習装置。
【請求項4】
前記機械学習部の学習結果に基づいて、現在の状態変数から、前記フィルタをメンテナンスするか否かを決定する決定処理部をさらに備える、
請求項1ないし請求項3のいずれか1項に記載のフィルタメンテナンス頻度機械学習装置。
【請求項5】
前記決定処理部の決定結果に基づいて、前記フィルタをメンテナンスする場合、警報を外部に報知する警報報知部をさらに備える、
請求項4に記載のフィルタメンテナンス頻度機械学習装置。
【請求項6】
油冷式圧縮機における油分離器のフィルタのメンテナンス頻度を機械学習するフィルタメンテナンス頻度機械学習方法であって、
前記油冷式圧縮機の状態を観測する状態観測工程と、
前記状態観測工程で観測した状態の状態量に基づいて、前記フィルタのメンテナンス頻度を機械学習する機械学習工程とを備え、
前記状態量は、前記油冷式圧縮機の稼働率と、前記油冷式圧縮機における所要動力、吐出圧力、吐出温度および駆動源の温度ならびに前記フィルタのメンテナンス間隔のうちの少なくとも1つと、である、
フィルタメンテナンス頻度機械学習方法。
【請求項7】
油冷式圧縮機と、
前記油冷式圧縮機における油分離器のフィルタのメンテナンス頻度を機械学習する機械学習装置とを備え、
前記機械学習装置は、請求項1ないし請求項5のいずれか1項に記載のフィルタメンテナンス頻度機械学習装置である、
油冷式圧縮システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、油冷式圧縮機における油分離器に備えられたフィルタのメンテナンス頻度を機械学習するフィルタメンテナンス頻度機械学習装置およびフィルタメンテナンス頻度機械学習方法ならびに前記フィルタメンテナンス頻度機械学習装置を備える油冷式圧縮システムに関する。
【背景技術】
【0002】
ガス(気体)を圧縮する圧縮機は、様々な観点から分類できるが、潤滑方式の観点では、無給油式および給油式の2つに分類できる。この給油式圧縮機は、圧縮室内部に油を注入し、油で、圧縮熱の冷却、内部潤滑、シール(封止)の作用を行うものであり、その一つの油冷式圧縮機は、一般に、高効率、省スペースよび長時間の運転性能等の特徴により、産業界で広く使用されている。このような油冷式圧縮機は、例えば、特許文献1に開示されている。
【0003】
この特許文献1に開示された油冷式スクリュ圧縮機は、互いに噛合する雌雄一対のスクリュロータがケーシングの圧縮空間内に収容された圧縮機本体を備え、この圧縮機本体から吐出された油分を含む圧縮空気を受入れ、受入れた油分を含む圧縮空気を通過させる際に油分を除去する油分離手段を備えると共に、この油分離手段の圧縮空気の通過前後の圧力を検出する入側圧力検出センサと出側圧力検出センサとを備えた油冷式スクリュ圧縮機において、前記入側圧力検出センサと前記出側圧力検出センサとの検出圧力から差圧を演算すると共に、演算により得られた差圧と、圧縮機本体の回転数とから差圧の上限値に達する際の最高回転数を演算し、演算により得られた最高回転数値に基づく情報を油分離手段のメンテナンス情報として機外に発信する演算・発信手段を設けたものである。より具体的には、前記特許文献1に開示された油冷式スクリュ圧縮機は、前記入側圧力検出センサと前記出側圧力検出センサとの検出圧力に基づき演算により求めた最高回転数値と仕様上の最高回転数とを比較することにより油分離手段のメンテナンス情報を求めている。
【先行技術文献】
【特許文献】
【0004】
【発明の概要】
【発明が解決しようとする課題】
【0005】
前記特許文献1に開示された油冷式スクリュ圧縮機は、経験則により、演算上の最高回転数値と仕様上の最高回転数とを比較しているため、必ずしも客観的ではなかった。例えばフィルタの清掃や交換等のメンテナンスの頻度(フィルタのメンテナンス頻度)が低いと、例えば油冷式圧縮機の所要動力が増加するため、消費電力が増大し、駆動源のモータの寿命が低下してしまう。一方、フィルタのメンテナンス頻度が高いと、メンテナンス費用が増大し、例えば油冷式圧縮機を備える生産設備の稼働率が低下するため、生産性が低下してしまう。このため、フィルタのメンテナンス頻度は、より客観的に適切に求められることが望ましい。
【0006】
本発明は、上述の事情に鑑みて為された発明であり、その目的は、フィルタのメンテナンス頻度をより客観的に適切に求めることができるフィルタメンテナンス頻度機械学習装置およびフィルタメンテナンス頻度機械学習方法ならびに前記フィルタメンテナンス頻度機械学習装置を備える油冷式圧縮システムを提供することである。
【課題を解決するための手段】
【0007】
本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかるフィルタメンテナンス頻度機械学習装置は、油冷式圧縮機における油分離器のフィルタのメンテナンス頻度を機械学習する装置であって、前記油冷式圧縮機の状態を観測する状態観測部と、前記状態観測部で観測した状態の状態量に基づいて、前記フィルタのメンテナンス頻度を機械学習する機械学習部とを備え、前記状態量は、前記油冷式圧縮機の稼働率と、前記油冷式圧縮機における所要動力、吐出圧力、吐出温度および駆動源の温度ならびに前記フィルタのメンテナンス間隔のうちの少なくとも1つと、である。好ましくは、上述のフィルタメンテナンス頻度機械学習装置において、前記機械学習部は、前記状態観測部で観測した状態の状態量に基づいて、強化学習により、前記フィルタをメンテナンスする行動価値テーブルを更新する。好ましくは、上述のフィルタメンテナンス頻度機械学習装置において、前記機械学習部は、前記状態観測部で観測した状態の状態量に基づいて、前記状態量の入力に対しメンテナンス頻度を出力するニューラスネットワークを機械学習する。好ましくは、前記ニューラルネットワークは、深層学習ニューラルネットワークである。
【0008】
このようなフィルタメンテナンス頻度機械学習装置は、状態量に基づいてフィルタのメンテナンス頻度を機械学習する機械学習部を備えるので、より客観的に適切に前記フィルタのメンテナンス頻度を求めることができる。
【0010】
このようなフィルタメンテナンス頻度機械学習装置は、油冷式圧縮機における所要動力、吐出圧力、吐出温度、駆動源の温度および稼働率ならびに前記フィルタのメンテナンス間隔のうちの少なくとも1つに基づいてフィルタのメンテナンス頻度を機械学習できる。
【0011】
他の一態様では、これら上述のフィルタメンテナンス頻度機械学習装置において、前記機械学習部は、前記状態観測部で観測した状態の状態量に基づいて報酬を求める報酬処理部と、前記報酬処理部で求めた報酬に基づいて、現在の状態変数から前記フィルタのメンテナンス頻度の変化量を決定する関数を更新する価値関数更新部とを備える。好ましくは、上述のフィルタメンテナンス頻度機械学習装置において、前記状態量は、前記油冷式圧縮機の稼働率と、前記油冷式圧縮機における所要動力、吐出圧力、吐出温度および駆動源の温度のうちのいずれか1つとであり、前記報酬処理部は、前記油冷式圧縮機の稼働率に基づいて第1報酬を求め、前記油冷式圧縮機における所要動力、吐出圧力、吐出温度および駆動源の温度のうちのいずれか1つに基づいて第2報酬を求め、これら第1および第2報酬の和を求める。
【0012】
このようなフィルタメンテナンス頻度機械学習装置は、状態観測部で観測した状態量に基づく報酬の増減により、フィルタのメンテナンス頻度を変更できる。
【0013】
他の一態様では、これら上述のフィルタメンテナンス頻度機械学習装置において、前記機械学習部の学習結果に基づいて、現在の状態変数から、前記フィルタをメンテナンスするか否かを決定する決定処理部をさらに備える。
【0014】
このようなフィルタメンテナンス頻度機械学習装置は、決定処理部を備えるので、フィルタのメンテナンスの要否を自動的に決定できる。
【0015】
他の一態様では、上述のフィルタメンテナンス頻度機械学習装置において、前記決定処理部の決定結果に基づいて、前記フィルタをメンテナンスする場合、警報を外部に報知する警報報知部をさらに備える。
【0016】
このようなフィルタメンテナンス頻度機械学習装置は、警報報知部を備えるので、フィルタのメンテナンスをメンテナンス要員に促すことができる。
【0017】
本発明の他の一態様にかかるフィルタメンテナンス頻度機械学習方法は、油冷式圧縮機における油分離器のフィルタのメンテナンス頻度を機械学習する方法であって、前記油冷式圧縮機の状態を観測する状態観測工程と、前記状態観測工程で観測した状態の状態量に基づいて、前記フィルタのメンテナンス頻度を機械学習する機械学習工程とを備え、前記状態量は、前記油冷式圧縮機の稼働率と、前記油冷式圧縮機における所要動力、吐出圧力、吐出温度および駆動源の温度ならびに前記フィルタのメンテナンス間隔のうちの少なくとも1つと、である。
【0018】
このようなフィルタメンテナンス頻度機械学習方法は、状態量に基づいてフィルタのメンテナンス頻度を機械学習する機械学習工程を備えるので、より客観的に適切に前記フィルタのメンテナンス頻度を求めることができる。
【0019】
本発明の他の一態様にかかる油冷式圧縮システムは、油冷式圧縮機と、前記油冷式圧縮機における油分離器のフィルタのメンテナンス頻度を機械学習する機械学習装置とを備え、前記機械学習装置は、これら上述のいずれかのフィルタメンテナンス頻度機械学習装置である。
【0020】
これによれば、これら上述のいずれかのフィルタメンテナンス頻度機械学習装置を備えた油冷式圧縮システムが提供できる。上記油冷式圧縮システムは、これら上述のいずれかのフィルタメンテナンス頻度機械学習装置を備えるので、より客観的に適切に前記フィルタのメンテナンス頻度を求めることができる。
【発明の効果】
【0021】
本発明にかかるフィルタメンテナンス頻度機械学習装置およびフィルタメンテナンス頻度機械学習方法は、フィルタのメンテナンス頻度をより客観的に適切に求めることができる。本発明によれば、前記フィルタメンテナンス頻度機械学習装置を備える油冷式圧縮システムが提供できる。
【図面の簡単な説明】
【0022】
【
図1】実施形態におけるフィルタメンテナンス頻度機械学習装置を備える油冷式圧縮システムの構成を示すブロック図である。
【
図2】前記フィルタメンテナンス頻度機械学習装置の動作を示すフローチャートである。
【
図3】前記フィルタメンテナンス頻度機械学習装置の動作を説明するための図である。
【
図4】変形形態における、前記フィルタメンテナンス頻度機械学習装置の動作を示すフローチャートである。
【
図5】一例として、前記フィルタメンテナンス頻度機械学習装置で用いられる行動価値テーブル(価値関数)を示す図である。
【
図6】他の一例として、前記フィルタメンテナンス頻度機械学習装置で用いられる行動価値テーブル(価値関数)を示す図である。
【発明を実施するための形態】
【0023】
以下、図面を参照して、本発明の1または複数の実施形態が説明される。しかしながら、発明の範囲は、開示された実施形態に限定されない。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
【0024】
実施形態における油冷式圧縮システムは、油冷式圧縮機と、前記油冷式圧縮機における油分離器のフィルタのメンテナンス頻度を機械学習する機械学習装置とを備える。この機械学習装置は、前記油冷式圧縮機の状態を観測する状態観測部と、前記状態観測部で観測した状態の状態量に基づいて、前記フィルタのメンテナンス頻度を機械学習する機械学習部とを備えるフィルタメンテナンス頻度機械学習装置である。以下、このような油冷式圧縮システムならびにこれに備えられたフィルタメンテナンス頻度機械学習装置およびこれに実装されるフィルタメンテナンス頻度機械学習方法について、より具体的に説明する。
【0025】
図1は、実施形態におけるフィルタメンテナンス頻度機械学習装置を備える油冷式圧縮システムの構成を示すブロック図である。実施形態における油冷式圧縮システムSは、例えば、
図1に示すように、油冷式圧縮機10と、フィルタメンテナンス頻度機械学習装置20とを備える。
【0026】
油冷式圧縮機10は、ガス(気体)を圧縮する装置であり、圧縮室内部に油を注入し、油で、圧縮熱の冷却、内部潤滑、シール(封止)の作用を行う。油冷式圧縮機10は、例えば、油冷式スクリュ圧縮機であり、図略の吸込フィルタを介して大気中の空気を吸い込み、圧縮して、図略の空気供給先へ圧縮空気を送り出す圧縮空気供給路(圧縮空気供給管)16に、前記圧縮空気を吐出する圧縮機本体を備える。前記圧縮機本体は、互いに噛合する雌雄一対のスクリュロータと、前記一対のスクリュロータを収容するケーシングと、前記一対のスクリュロータの各ロータ軸を支持する各軸受部と、各ロータ軸をシールする各軸封部とを備える。前記一対のスクリュロータは、駆動力を生成する駆動源の例えばモータ11によって駆動され、噛合しながら回転することで空気が圧縮される。
【0027】
圧縮空気供給路16には、油分離器12が介装されている。油分離器12は、前記圧縮機本体の吐出口から吐出された、油分を含む圧縮空気から前記油分を1次分離し、フィルタ121によって前記油分を2次分離し、前記油分を除去した圧縮空気を前記空気供給先へ送り出す。すなわち、前記1次分離後の圧縮空気に残留する油分は、前記フィルタ121を通過する際に圧縮空気から分離され、除去される。そして、前記油分離器12は、少なくとも1次分離された油を油溜まりに貯留し、前記貯留した油を油供給路(油供給管)17を介して前記圧縮機本体に送り出す。前記圧縮機本体は、前記油を、前記一対のスクリュロータと前記ケーシングとの間に形成された圧縮空間、前記各軸受部および前記各軸封部に供給するように構成されている。
【0028】
前記圧縮空気供給路16には、前記圧縮機本体と油分離器12との間に、吐出温度として、前記圧縮空気供給路16を流れる圧縮空気の温度を測定する温度センサ13、および、吐出圧力(入側圧力)として、前記圧縮空気供給路16を流れる圧縮空気の圧力を測定する圧力センサ14が設けられ、油分離器12の出口側には、出側圧力として、前記圧縮空気供給路16を流れる圧縮空気の圧力を測定する圧力センサ15が設けられている。これら各センサ13~15それぞれは、フィルタメンテナンス頻度機械学習装置20に接続され、各測定結果(吐出温度、吐出圧力および出側圧力)をフィルタメンテナンス頻度機械学習装置20における後述の状態観測部21へ出力する。
【0029】
前記モータ11には、所要動力として、モータ11で消費する電力を測定する図略の電力計、モータ11のコイルを流れる電流を測定する図略の電流計、前記コイルの電圧を測定する図略の電圧計、モータ温度として、前記コイルの温度に代表されるモータ11の温度を測定する図略の温度センサ、および、モータ11の回転数を測定する例えばロータリエンコーダ等の図略の回転計が設けられている。これら前記電力計、前記電流計、前記電圧計、前記温度センサおよび前記回転計は、それぞれ、フィルタメンテナンス頻度機械学習装置20に接続され、各測定結果(所要動力、電流、電圧、モータ温度および回転数)をフィルタメンテナンス頻度機械学習装置20の状態観測部21へ出力する。
【0030】
フィルタメンテナンス頻度機械学習装置20は、油冷式圧縮機10における油分離器12のフィルタ121のメンテナンス頻度を機械学習する装置である。前記メンテナンスには、フィルタ121の清掃やフィルタ121の交換等が含まれる。
【0031】
フィルタメンテナンス頻度機械学習装置20は、例えば、データを情報処理するCPU(Central Processing Unit)、データを記憶する記憶回路、データを入力する入力装置、データを表示する表示装置、外部の機器との間でデータを入出力するインターフェース回路およびその周辺回路等を備えて構成されるコンピュータ、を備えて構成される。フィルタメンテナンス頻度機械学習装置20を構成するコンピュータは、例えば、デスクトップ型やノート型等のコンピュータであってよく、あるいは、例えば、油冷式圧縮機10を操作するオペレーションルームに配置され、コンソールに組み込まれてよく(コンソールと兼用されてよく)、あるいは、コンソールと別体であってもよい。前記記憶回路には、例えば不揮発性の記憶素子であるROM(Read Only Memory)、書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)およびいわゆる前記CPUのワーキングメモリとなるRAM(Random Access Memory)等が含まれる。前記記憶回路には、比較的大きな記憶容量を有するハードディスクが含まれてもよい。前記記憶回路は、例えば制御処理プログラム等を記憶する。前記制御処理プログラムには、例えば、状態観測部21で観測した状態量に基づいて、フィルタ121のメンテナンス頻度を機械学習する機械学習プログラムや、前記機械学習プログラムの学習結果に基づいて、現在の状態変数から、前記フィルタ121をメンテナンスするか否かを決定する決定処理プログラムや、前記フィルタ121をメンテナンスする場合、前記決定処理プログラムの決定結果に基づいて警報を例えば前記表示装置によって外部に報知する警報報知プログラム等が含まれる。前記機械学習プログラムには、前記状態観測部で観測した状態量に基づいて報酬を求める報酬処理プログラム、および、前記報酬処理プログラムで求めた報酬に基づいて、現在の状態変数から前記フィルタ121のメンテナンス頻度の変化量を決定する関数を更新する価値関数更新プログラム等が含まれる。
【0032】
フィルタメンテナンス頻度機械学習装置20のコンピュータは、機能的に、状態観測部21と、機械学習部22と、決定処理部23と、警報報知部24とを備える。
【0033】
状態観測部21は、油冷式圧縮機10の状態を観測するものであり、例えば前記入力装置および前記インターフェース回路を備えて構成される。状態観測部21で観測する状態量は、本実施形態では、例えば、各測定結果としての、吐出温度、吐出圧力、出側圧力、所要動力、電流、電圧、モータ温度および回転数、油冷式圧縮機の稼働率ならびにフィルタ121のメンテナンス間隔である。これら吐出温度、吐出圧力、出側圧力、所要動力、電流、電圧、モータ温度および回転数は、例えば、前記インターフェース回路で取得され、フィルタ121のメンテナンス間隔は、例えば、モータコントローラによって、例えば、m回目のメンテナンス終了後からm+1回目のメンテナンス開始前のモータ稼動時間をモニタして、その稼動時間をメンテナンス間隔として、前記入力装置で取得(入力)される。稼働率は、例えば、油冷式圧縮機10の総稼動時間に対する駆動時間(運転時間)をモニタすることにより得ることができる。メンテナンス間隔は、初期値として予め所定時間が前記入力装置で入力され、この時間に対して、本実施形態におけるフィルタメンテナンス頻度機械学習装置20により間隔が伸縮される。
【0034】
なお、モータ11を制御する図略のモータコントローラが油冷式圧縮機10の稼働率およびフィルタ121のメンテナンス間隔を管理し、前記油冷式圧縮機10の稼働率およびフィルタ121のメンテナンス間隔は、前記モータコントローラから取得されてもよい。前記モータコントローラは、前記所要動力や前記電流等をモニタすることで前記油冷式圧縮機10の稼働率をモニタし、管理する。前記油冷式圧縮機10を駆動する場合、圧縮機10がONの状態(モータが回転している状態)である時間T1駆動される状態と、圧縮機10がOFFの状態(モータが回転していない状態)で停止されている状態とが繰り返される。すなわち、圧縮機10は、OFFの状態から再びONの状態のとなると、ある時間T2駆動される。そして、圧縮機10は、この動作を繰り返す。圧縮機10の駆動時間T1~Tnまでの総和を、ONの時間とOFFの時間との合計である総稼動時間T0で除した値が圧縮機10の稼働率と定義する。駆動時間T1~Tnと総稼動時間T0とをタイマーで計測しておくことで稼働率を演算して得ることができる。前記モータコントローラは、フィルタ121のメンテナンス間隔をモニタし、管理する。フィルタ121のメンテナンス間隔の初期値として、予め所定時間が、状態観測部21の入力装置に入力される。前記モータコントローラによって、例えば、m回目のメンテナンス終了後からm+1回目のメンテナンス開始前のモータ稼動時間をモニタして、その稼動時間をメンテナンス間隔として、状態観測部21の入力装置に入力される。さらに、圧縮機10が停止している時間かつメンテナンス実行中の時間もモニタして、状態観測部21の入力装置に入力されてもよい。また、前記モータコントローラがモータ11のすべりを求め、この求めたすべりを状態観測部21へ出力してもよい。
【0035】
機械学習部22、決定処理部23および警報報知部24は、前記制御処理プログラムの実行により、前記CPUに機能的に構成され、前記機械学習部22には、報酬処理部221および価値関数更新部222が機能的に構成される。
【0036】
機械学習部22は、状態観測部21で観測した状態量に基づいて、フィルタ121のメンテナンス頻度を機械学習するものである。機械学習部22で用いる状態量は、油冷式圧縮機10における所要動力、吐出圧力、吐出温度、駆動源の温度(本実施形態ではモータ温度)および稼働率ならびに前記フィルタのメンテナンス間隔のうちの少なくとも1つを含む。より具体的には、機械学習部22は、例えば、状態観測部21で観測した状態量に基づいて、強化学習により、前記フィルタ121をメンテナンスする行動価値テーブルを更新する。
【0037】
なお、あるいは、例えば、機械学習部22は、状態観測部21で観測した状態量に基づいて、前記状態量の入力に対しメンテナンス頻度を出力するニューラルネットワークを機械学習してもよい。好ましくは、前記ニューラルネットワークは、深層学習ニューラルネットワークである。
【0038】
報酬処理部221は、状態観測部21で観測した状態量に基づいて報酬を求めるものである。価値関数更新部222は、前記報酬処理部221で求めた報酬に基づいて、現在の状態変数から前記フィルタ121のメンテナンス頻度の変化量を決定する価値関数(行動価値テーブル)を更新するものである。
【0039】
ここで、フィルタ121のメンテナンス頻度が低いと、例えばフィルタ121の目詰まりによりモータ11に負荷がかかり、フィルタ121のメンテナンス後の場合に較べて、所要動力、吐出圧力、吐出温度およびモータ温度等が上昇する。一方、フィルタ121のメンテナンス頻度が高いと、油冷式圧縮機10を備える生産設備として油冷式圧縮システムの稼働率が低下し、その分、生産性が低下する。
【0040】
このため、報酬処理部221は、例えば、所要動力と予測所要動力との差分の増大に基づいてより小さい報酬を与え、前記差分の縮小に基づいてより大きい報酬を与える。あるいは、報酬処理部221は、例えば、吐出圧力と予測吐出圧力との差分の増大に基づいてより小さい報酬を与え、前記差分の縮小に基づいてより大きい報酬を与える。報酬処理部221は、例えば、吐出温度と予測吐出温度との差分の増大に基づいてより小さい報酬を与え、前記差分の縮小に基づいてより大きい報酬を与える。報酬処理部221は、例えば、モータ温度と予測モータ温度との差分の縮小に基づいてより小さい報酬を与え、前記差分の増大に基づいてより大きい報酬を与える。
【0041】
このような報酬の付与では、報酬処理部221は、例えば、油冷式圧縮機10の稼働率に基づいて第1報酬を求め、前記油冷式圧縮機10における所要動力、吐出圧力、吐出温度および駆動源の温度(本実施形態ではモータ温度)のうちのいずれか1つに基づいて第2報酬を求め、これら第1および第2報酬の和を求める。
【0042】
決定処理部23は、機械学習部22の学習結果に基づいて、現在の状態変数から、前記フィルタ121をメンテナンスするか否かを決定するものである。
【0043】
警報報知部24は、決定処理部23の決定結果に基づいて、前記フィルタ121をメンテナンスする場合、警報を例えば前記表示装置によって外部に報知するものである。例えば、警報報知部24は、フィルタ121のメンテナンスを促すメッセージを前記表示装置に表示する。あるいは、例えば、フィルタ121のメンテナンスを促すための警告灯がさらに備えられ、警報報知部24は、前記警告灯を点灯する。好ましくは、前記警告灯が点滅される。あるいは、例えば、音声出力するスピーカがさらに備えられ、警報報知部24は、フィルタ121のメンテナンスを促す音声メッセージを前記スピーカから出力する。
【0044】
機械学習では、データの集合から、その中にある有用な規則、知識表現および判断基準等が解析され、抽出され、その判断結果が出力される。機械学習は、一例では、「教師あり学習」、「教師なし学習」および「強化学習」に分類される。以下では、強化学習を例にさらに説明するが、これに限定するものではなく、例えば、教師あり学習であってもよい。
【0045】
一般に、強化学習の問題設定として、次の(1)~(6)のように考える。(1)機械装置は、環境の状態を観測し、行動を決定する。本実施形態では、前記機械装置は、油冷式圧縮機10が前記機械装置に相当し、フィルタ121のメンテナンスが前記行動に相当する。(2)環境は、何らかの規則に従って変化し、さらに、自分(エージェント(行動主体))の行動が、環境に変化を与えることもある。(3)行動するたびに、報酬(報酬0、プラスの報酬、マイナスの報酬等)が与えられる。(4)目的は、将来に亘る報酬の合計の最大化である。(5)行動が引き起こす結果を全く知らない、または、不完全にしか知らない状態から機械学習は、スタートする。すなわち、実際に行動して初めて、その結果をデータとして得ることができる。つまり、試行錯誤しながら最適な行動を探索する必要がある。(6)人間の動作を真似るように、事前学習(教師あり学習や逆強化学習等)した状態を初期状態として、良いスタート地点から機械学習をスタートさせることもできる。
【0046】
ここで、強化学習とは、判定や分類だけではなく、行動を学習することにより、環境に行動が与える相互作用を踏まえて適切な行動を学習、すなわち、将来的に得られる報酬を最大にするために学習する方法を学ぶものである。これは、本実施形態では、例えば、メンテナンスの実行により、油冷式圧縮機10の状態量(所要動力、吐出圧力、吐出温度、モータ温度等)が決定する等の、未来に影響を及ぼすような行動を獲得できることを表している。以下に、強化学習の一例として、Q学習の場合について説明するが、Q学習に限定されるものではない。
【0047】
Q学習は、或る環境状態sの下で、行動aを選択する価値Q(s,a)を学習する方法である。或る状態sのとき、価値Q(s,a)の最も高い行動aが最適な行動として選択される。しかしながら、最初は、状態sと行動aとの組合せについて、価値Q(s,a)の正しい値は、全く分かっていない。そこで、エージェント(行動主体)は、或る状態sの下で様々な行動aを選択し、その時の行動aに対して、報酬が与えられる。それにより、エージェントは、より良い行動の選択、すなわち、正しい価値Q(s,a)を学習していく。
【0048】
さらに、目的は、行動の結果、将来に亘って得られる報酬の合計の最大化であるので、最終的にQ(s,a)=E[Σ(γt)rt]となることを目指す。ここで、期待値Eは、最適な行動に従って状態変化したときについてとるものとし、それは、分かっていないので、探索しながら学習することになる。このような価値Q(s,a)の更新式は、例えば、次式1により表すことができる。
【0049】
【0050】
ここで、stは、時刻tにおける環境の状態を表し、atは、時刻tにおける行動を表す。行動atにより、状態stは、状態st+1に変化する。r t+1は、その状態の変化により得られる報酬を表している。maxの付いた項は、状態st+1の下で、そのときに分かっている最もQ値の高い行動aを選択した場合のQ値にγを乗じたものになる。ここで、γは、0<γ≦1のパラメータで、割引率と呼ばれる。αは、学習係数で、0<α≦1の範囲とする。
【0051】
前記式1は、行動atの結果、帰ってきた報酬rt+1を元に、状態stにおける行動atの評価値Q(st,at)を更新する方法を表している。すなわち、状態sにおける行動aの評価値Q(st,at)よりも、報酬rt+1+行動aによる次の状態における最良の行動maxaの評価値Q(st+1,maxat+1)の方が大きければ、Q(st,at)を大きくし、反対に小さければ、Q(st,at)を小さくすることを示している。つまり、或る状態における或る行動の価値を、結果として即時帰ってくる報酬と、その行動による次の状態における最良の行動の価値に近付けるようにしている。
【0052】
ここで、Q(s,a)の計算機上での表現方法は、すべての状態行動ペア(s,a)に対して、その値をテーブルとして保持しておく方法と、Q(s,a)を近似するような関数を用意する方法とがある。後者の方法では、前記式1は、確率勾配降下法等の手法で近似関数のパラメータを調整していくことにより、実現することができる。
【0053】
なお、強化学習での価値関数の近似アルゴリズムとして、いわゆるニューラルネットワークを用いることができる。好ましくは、ニューラルネットワークは、深層学習ニューラルネットワークであり、いわゆるバックプロパゲーション(誤差逆伝搬法)が用いられてもよい。ニューラルネットワークの動作には、学習モードと価値予測モードとがある。例えば、学習モードにおいて、学習データセットを用いてニューラルネットワークを機械学習し、その機械学習後のニューラルネットワークを用いて予測モードにおいて、行動判断を行う。なお、便宜上、予測と書いたが、検出、分類、推論等であってもよい。ここで、予測モードで実際に前記機械装置を動かして得られたデータを即時に機械学習し、次の行動に反映させる(オンライン学習)ことも、予め収集しておいたデータ群を用いてまとめた機械学習を行い、以降は、ずっとその機械学習後のニューラルネットワークで予測モードを実行することもできる。あるいは、これらの中間的な、ある程度データが溜まるたびに、その都度、学習モードを実行することも可能である。
【0054】
上述したように、本実施形態では、Q学習を実施するために、状態観測部21、機械学習部22および決定処理部23を備えている。
【0055】
図2は、前記フィルタメンテナンス頻度機械学習装置の動作を示すフローチャートである。ここでは、説明の簡単化のために、油冷式圧縮機10における所要動力および稼働率に基づいて報酬が決定される場合について説明するが、前記所要動力に代え、吐出圧力、吐出温度および駆動源の温度(本実施形態ではモータ温度)のうちのいずれかが用いられてよく、これらのうちのいずれかが用いられる場合も、前記所要動力が用いられる場合と同様に説明できる。
【0056】
図2において、機械学習が開始(学習スタート)されると、フィルタメンテナンス頻度機械学習装置20は、機械学習部22によって、行動価値テーブルに基づいてフィルタ121のメンテナンス間隔を決定する(S1)。
【0057】
次に、フィルタメンテナンス頻度機械学習装置20は、報酬処理部221によって、油冷式圧縮機10の稼働率を判定する(S2)。この判定の結果、稼働率が相対的に低い場合(低)には、報酬処理部221は、報酬(報酬の値)を報酬無しに決定し(S3)、次に、処理S6を実行する。前記判定の結果、稼働率が相対的に中程度の場合(中)には、報酬処理部221は、報酬(報酬の値)を「+5」に決定し(S4)、次に、処理S6を実行する。前記判定の結果、稼働率が相対的に高い場合(高)には、報酬処理部221は、報酬(報酬の値)を「+10」に決定し(S5)、次に、処理S6を実行する。より具体的には、例えば、稼働率を中程度とする稼働率の範囲(稼働率の中程度範囲)が予め適宜に設定され、報酬処理部221は、前記稼働率が前記稼働率の中程度範囲内である場合には、前記稼働率が相対的に中程度であると判定し、前記稼働率が前記稼働率の中程度範囲を下回る場合には、前記稼働率が相対的に低いと判定し、前記稼働率が前記稼働率の中程度範囲を上回る場合には、前記稼働率が相対的に高いと判定する。
【0058】
前記処理S6では、フィルタメンテナンス頻度機械学習装置20は、報酬処理部221によって、前記処理S3ないし処理S5のいずれかの処理で決定した報酬を、それまでの報酬に積算する。
【0059】
次に、フィルタメンテナンス頻度機械学習装置20は、報酬処理部221によって、油冷式圧縮機10のモータ11で消費される所要動力を予測所要動力として予測し、状態観測部21で取得したモータ11の所要動力と比較する(S7)。前記予測所要動力の演算では、例えば、フィルタ121をメンテナンスした時点からの経過時間と予測所要動力との対応関係が予め作成され、報酬処理部221は、前回のメンテナンスの時点からの経過時間から前記対応関係を用いて予測所要動力を求める。前記比較の結果、前記取得のモータ11の所要動力が前記予測所要動力より相対的にかなり高い場合(かなり高い)には、報酬処理部221は、報酬(報酬の値)を「-10」に決定し(S8)、次に、処理S11を実行する。前記比較の結果、前記取得のモータ11の所要動力が前記予測所要動力より相対的に高い場合(高い)には、報酬処理部221は、報酬(報酬の値)を「+5」に決定し(S9)、次に、処理S11を実行する。前記比較の結果、前記取得のモータ11の所要動力が前記予測所要動力と同等である場合(同等)には、報酬処理部221は、報酬(報酬の値)を「+10」に決定し(S10)、次に、処理S11を実行する。より具体的には、前記かなり高い場合であると判定するための第1閾値(第1判定閾値)と、前記高い場合であると判定するための第2閾値(第2判定閾値)とが予め適宜に設定され(第1判定閾値>第2判定閾値>0)、報酬処理部221は、前記取得のモータ11の所要動力と前記予測所要動力との差を所要動力差分として求め、前記所要動力差分と前記第1および第2判定閾値それぞれと比較する。この比較の結果、前記所要動力差分が前記第1判定閾値以上である場合には、報酬処理部221は、前記かなり高い場合であると判定し、前記所要動力差分が前記第1判定閾値未満であって前記第2判定閾値以上である場合には、報酬処理部221は、前記高い場合であると判定し、前記所要動力差分が前記第2判定閾値未満である場合には、報酬処理部221は、前記同等の場合であると判定する。
【0060】
前記処理S11では、フィルタメンテナンス頻度機械学習装置20は、報酬処理部221によって、前記処理S8ないし処理S10のいずれかの処理で決定した報酬を、それまでの報酬(前記処理S6で積算した報酬)に積算する。
【0061】
次に、フィルタメンテナンス頻度機械学習装置20は、価値関数更新部222によって、処理S11で積算された報酬に基づいて、行動価値テーブルを更新し(S12)、そして、処理を処理S1に戻す。よって、上述の各処理が繰り返される。ここで、処理S3ないし処理S5における報酬の値および処理S8ないし処理S10における報酬の値は、単なる例であり、適宜に変更することができる。
【0062】
図3は、前記フィルタメンテナンス頻度機械学習装置の動作を説明するための図である。
図3Aは、一例として、フィルタ121のメンテナンス間隔とモータ11の予想所要動力との対応関係(特性曲線α)を示し、
図2を用いて説明した処理S7ないし処理S10の各処理を説明するための図である。
図3Aの横軸は、メンテナンス間隔であり、その縦軸は、予想所要動力である。
図3Bは、一例として、フィルタ121のメンテナンス間隔と油冷式圧縮機10の稼働率との対応関係(特性曲線β)を示し、
図2を用いて説明した処理S2ないし処理S5の各処理を説明するための図である。
図3Bの横軸は、メンテナンス間隔であり、その縦軸は、稼働率である。
図3Cは、これら各対応関係(特性曲線αおよび特性曲線β)に基づく最適なメンテナンス間隔を示し、
図3Aおよび
図3Bに示す各特性曲線α、βの一致個所、すなわち、本実施形態におけるフィルタメンテナンス頻度機械学習装置20によって求める適切なフィルタ121のメンテナンス間隔の範囲(学習目標部分)PRを示す。
図3Cの横軸は、メンテナンス間隔であり、その左縦軸は、予想所要動力であり、その右縦軸は、稼働率である。
図3Dは、報酬により最適化されるメンテナンス間隔を示し、
図3Cに示す学習目標部分PRを報酬に換算して示すものである。すなわち、フィルタメンテナンス頻度機械学習装置20は、上述の処理S2ないし処理S5による報酬および上述の処理S7ないし処理S10による報酬は、それぞれ、上述の処理S6および処理S11により、それまでの報酬に積算され、その積算された報酬(処理S11)が最大となるように機械学習し、フィルタ121の最適なメンテナンス間隔を求めるようになっている。
図3Dの横軸は、メンテナンス間隔であり、その縦軸は、報酬である。
【0063】
決定処理部23は、前回のメンテナンス時点から、フィルタ121の最適なメンテナンス間隔だけの時間が経過すると、フィルタをメンテナンスすることを決定し、その旨を警報報知部24に通知する。この旨の通知を受けると、警報報知部24は、警報を外部に報知する。
【0064】
図4は、変形形態における、前記フィルタメンテナンス頻度機械学習装置の動作を示すフローチャートである。
図2では、フィルタメンテナンス頻度機械学習装置20は、処理S2ないし処理S6の各処理の実行後に、処理S7ないし処理S11の各処理を実行するというこれらがシリーズで実行されたが、この変形形態では、これらがパラレルで実行される。すなわち、この変形形態では、フィルタメンテナンス頻度機械学習装置20は、処理S31の次に、処理S32ないし処理S36の各処理と、処理S37ないし処理S41の各処理とをパラレルで実行する。この処理S31は、処理S1と同様であり、これら処理S32ないし処理S36の各処理は、それぞれ、処理S2ないし処理S6の各処理と同様であり、これら処理S37ないし処理S41の各処理は、それぞれ、処理S7ないし処理S11の各処理と同様であるので、それらの説明を省略する。そして、この変形形態では、フィルタメンテナンス頻度機械学習装置20は、報酬処理部221によって、処理S36の報酬の積算結果と、処理S41の報酬の積算結果との和を求める報酬計算を実行し(S42)、次に、処理S12と同様な処理S43を実行してから、処理を処理S31に戻す。したがって、この変形形態でも、
図2の場合と同様に、上述の処理S31ないし処理S43の各処理が繰り返される。
【0065】
図5は、一例として、前記フィルタメンテナンス頻度機械学習装置で用いられる行動価値テーブル(価値関数)を示す図である。
図6は、他の一例として、前記フィルタメンテナンス頻度機械学習装置で用いられる行動価値テーブル(価値関数)を示す図である。
図5および
図6では、縦方向にケース番号1~18の18種類のパターンを示し、横方向に順にモータ11の「予想所要動力;a」、油冷式圧縮機10の「稼働率;b」、「現在の状態;c=a+b」、「メンテナンス間隔」、モータ11の「所要動力;d」、「稼働率;e」、「次の状態;f=d+e」、「行動価値;g=f-c」および「今後の行動判断」を示す。
図5に示す例では、「メンテナンス間隔」を「縮める」ことを選択した場合は、「予想所要動力;a」を1ランク下げると共に、「稼働率;b」を1ランク下げるものとし、「メンテナンス間隔」を「伸ばす」ことを選択した場合は、「予想所要動力;a」を現状維持とすると共に、「稼働率;b」を1ランク上げるものとして説明する。一方、
図6に示す例では、「メンテナンス間隔」を「縮める」ことを選択した場合は、「予想所要動力;a」を1ランク下げると共に、「稼働率;b」を1ランク下げるものとし、「メンテナンス間隔」を「伸ばす」ことを選択した場合は、「予想所要動力;a」を1ランク上げるものとすると共に、「稼働率;b」を1ランク上げるものとして説明する。
【0066】
「予想所要動力;a」において、1ランク上げるとは、現在「同等」であれば、「高い」に遷移し(「同等」→「高い」)、現在「高い」であれば、「かなり高い」に遷移する(「高い」→「かなり高い」)ことを意味し、1ランク下げるとは、現在「かなり高い」であれば、「高い」に遷移し(「かなり高い」→「高い」)、現在「高い」であれば、「同等」に遷移する(「高い」→「同等」)ことを意味する。「稼働率;b」において、1ランク上げるとは、現在「低い」であれば、「中程度」に遷移し(「低い」→「中程度」)、現在「中程度」であれば、「高い」に遷移する(「中程度」→「高い」)ことを意味し、1ランク下げるとは、現在「高い」であれば、「中程度」に遷移し(「高い」→「中程度」)、現在「中程度」であれば、「低い」に遷移する(「中程度」→「低い」)ことを意味する。
【0067】
一具体例を挙げて説明すると、
図5に示す例において、ケース番号9、10に示されるように、「予想所要動力;a」が「高い」である場合(例えば
図2に示す処理S9あるいは
図4に示す処理S39)、その報酬は、「+5」となり(a=+5)、「稼働率;b」が「中程度」である場合(例えば
図2に示す処理S4あるいは
図4に示す処理S34)、その報酬は、「+5」となり(b=+5)、報酬の「現在の状態;c」は、(+5)+(+5)=+10になる(c=a+b)。このとき、「メンテナンス間隔」を「縮める」(ケース番号9)か、「メンテナンス間隔」を「伸ばす」(ケース番号10)かによって、「次の状態;f」が変化する。すなわち、ケース番号9の場合では、「メンテナンス間隔」を「縮める」場合は、
図5に示す例では上述から、「予測所要動力との比較」を1ランク下げる(現在の「高い」→「同等」(例えば
図2に示す処理S10あるいは
図4に示す処理S40))とともに、「稼働率」を1ランク下げる(現在の「中程度」→「低い」(例えば
図2に示す処理S3あるいは
図4に示す処理S33))ことになってケース番号17、18に対応するため、報酬は、「+10+0=+10」になり(f=d+e)、差し引きした「行動価値;g」は、『+10-(+10)=0』になる(g=f-c)。一方、ケース番号10の場合では、「メンテナンス間隔」を『伸ばす』場合は、
図5に示す例では上述から、「予測所要動力との比較」を現状維持する(現在の「高い」→「高い」(例えば
図2に示す処理S9あるいは
図4に示す処理S39))とともに、「稼働率」を1ランク上げる(現在の「中程度」→「高い」(例えば
図2に示す処理S5あるいは
図4に示す処理S35))ことになってケース番号3、4に対応するため、報酬は、「+5+10=+15」になり(f=d+e)、差し引きした「行動価値;g」は、『+15-(+10)=+5』になる(g=f-c)。したがって、この上記の場合、ケース番号9の「行動価値;g」が「0」であってケース番号10の「行動価値;g」が「+5」になり、「行動価値;g」に関して(ケース番号9)<(ケース番号10)となるため、ケース番号10の行動、すなわち、「メンテナンス間隔」を『伸ばす』行動が選択されることになる。
【0068】
あるいは、
図6に示す例において、ケース番号9、10に示されるように、「予想所要動力;a」が「高い」である場合(例えば
図2に示す処理S9あるいは
図4に示す処理S39)、その報酬は、「+5」となり(a=+5)、「稼働率;b」が「中程度」である場合(例えば
図2に示す処理S4あるいは
図4に示す処理S34)、その報酬は、「+5」となり(b=+5)、報酬の「現在の状態;c」は、(+5)+(+5)=+10になる(c=a+b)。このとき、「メンテナンス間隔」を「縮める」(ケース番号9)か、「メンテナンス間隔」を「伸ばす」(ケース番号10)かによって、「次の状態;f」が変化する。すなわち、ケース番号9の場合では、「メンテナンス間隔」を『縮める』場合は、
図6に示す例では上述から、「予測所要動力との比較」を1ランク下げる(現在の「高い」→「同等」(例えば
図2に示す処理S10あるいは
図4に示す処理S40))とともに、「稼働率」を1ランク下げる(現在の「中程度」→「低い」(例えば
図2に示す処理S3あるいは
図4に示す処理S33))ことになってケース番号17、18に対応するため、報酬は、「+10+0=+10」になり(f=d+e)、差し引きした「行動価値;g」は、『+10-(+10)=0』になる(g=f-c)。一方、ケース番号10の場合では、「メンテナンス間隔」を『伸ばす』場合は、
図6に示す例では上述から、「予測所要動力との比較」を1ランク上げる(現在の「高い」→「かなり高い」(例えば
図2に示す処理S8あるいは
図4に示す処理S38))とともに、「稼働率」を1ランク上げる(現在の「中程度」→「高い」(例えば
図2に示す処理S5あるいは
図4に示す処理S35))ことになってケース番号1、2に対応するため、報酬は、「-10+10=0」になり(f=d+e)、差し引きした「行動価値;g」は、「0-(+10)=-10」になる(g=f-c)。したがって、この上記の場合、ケース番号9の「行動価値;g」が「0」であってケース番号10の「行動価値;g」が「-10」になり、「行動価値;g」に関して(ケース番号9)>(ケース番号10)となるため、ケース番号9の行動、すなわち、「メンテナンス間隔」を「縮める」行動が選択されることになる。
【0069】
これらは、単なる一例であり、「メンテナンス間隔」を『縮める』か『伸ばす』かに対応する場合の選択、あるいは、それぞれの場合の報酬の値の設定等は、様々な変形および変更が可能である。さらに、行動価値テーブル(価値関数)は、
図5および
図6に限定されるものではなく、様々なものが適用され得る。
【0070】
以上説明したように、実施形態における油冷式圧縮システムS、これに備えられたフィルタメンテナンス頻度機械学習装置20およびこれに実装されたフィルタメンテナンス頻度機械学習方法は、状態量に基づいてフィルタ121のメンテナンス頻度を機械学習するので、より客観的に適切にフィルタ121のメンテナンス頻度を求めることができる。油冷式圧縮機10の稼働率を向上させることも可能となる。
【0071】
上記フィルタメンテナンス頻度機械学習装置20およびフィルタメンテナンス頻度機械学習方法は、油冷式圧縮機10における所要動力、吐出圧力、吐出温度、駆動源の温度(上述ではモータ11の温度)および稼働率ならびにフィルタ121のメンテナンス間隔のうちの少なくとも1つに基づいてフィルタ121のメンテナンス頻度を機械学習できる。
【0072】
上記フィルタメンテナンス頻度機械学習装置20およびフィルタメンテナンス頻度機械学習方法は、観測した状態量に基づく報酬の増減により、フィルタ121のメンテナンス頻度を変更できる。
【0073】
上記フィルタメンテナンス頻度機械学習装置20およびフィルタメンテナンス頻度機械学習方法は、決定処理により、フィルタ121のメンテナンスの要否を自動的に決定できる。
【0074】
上記フィルタメンテナンス頻度機械学習装置20およびフィルタメンテナンス頻度機械学習方法は、警報の報知により、フィルタ121のメンテナンスをメンテナンス要員に促すことができる。
【0075】
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。
【符号の説明】
【0076】
S 油冷式圧縮システム
10 油冷式圧縮機
11 モータ
12 油分離器
13 温度センサ
14、15 圧力センサ
20 フィルタメンテナンス頻度機械学習装置
21 状態観測部
22 機械学習部
23 決定処理部
24 警報報知部
121 フィルタ
221 報酬処理部
222 価値関数更新部