IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 日立造船株式会社の特許一覧 ▶ 国立大学法人大阪大学の特許一覧

特開2025-147911情報処理装置、学習方法、および学習プログラム
<>
  • 特開-情報処理装置、学習方法、および学習プログラム 図1
  • 特開-情報処理装置、学習方法、および学習プログラム 図2
  • 特開-情報処理装置、学習方法、および学習プログラム 図3
  • 特開-情報処理装置、学習方法、および学習プログラム 図4
  • 特開-情報処理装置、学習方法、および学習プログラム 図5
  • 特開-情報処理装置、学習方法、および学習プログラム 図6
  • 特開-情報処理装置、学習方法、および学習プログラム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2025147911
(43)【公開日】2025-10-07
(54)【発明の名称】情報処理装置、学習方法、および学習プログラム
(51)【国際特許分類】
   G06N 20/00 20190101AFI20250930BHJP
   G06N 3/09 20230101ALI20250930BHJP
   B09B 3/40 20220101ALI20250930BHJP
   B09B 3/00 20220101ALI20250930BHJP
【FI】
G06N20/00 130
G06N3/09 ZAB
B09B3/40
B09B3/00
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2024048421
(22)【出願日】2024-03-25
(71)【出願人】
【識別番号】000005119
【氏名又は名称】カナデビア株式会社
(71)【出願人】
【識別番号】504176911
【氏名又は名称】国立大学法人大阪大学
(74)【代理人】
【識別番号】110000338
【氏名又は名称】弁理士法人 HARAKENZO WORLD PATENT & TRADEMARK
(72)【発明者】
【氏名】間下 以大
(72)【発明者】
【氏名】田又 健士朗
(72)【発明者】
【氏名】三宅 寿英
(72)【発明者】
【氏名】松▲崎▼ 弘樹
(72)【発明者】
【氏名】伊藤 諒
(72)【発明者】
【氏名】井岡 良太
【テーマコード(参考)】
4D004
【Fターム(参考)】
4D004CA28
4D004CB01
4D004DA01
4D004DA06
4D004DA11
4D004DA16
4D004DA20
(57)【要約】
【課題】設備の状態の推論モデルを機械学習により生成する際のコストを抑える。
【解決手段】情報処理装置(1)は、設備の状態が反映された時系列の第1のデータに対して時系列の数値データを正解データとして対応付けた第1の訓練データを用いた機械学習により第1の推論モデル(112)を生成する第1の学習部(103)と、上記設備の状態が反映された第2のデータに対して当該状態を正解データとして対応付けた第2の訓練データを用いて第1の推論モデル(112)のファインチューニングを行うことにより、上記設備の状態を推定する第2の推論モデル(114)を生成する第2の学習部(104)と、を備える。
【選択図】図1
【特許請求の範囲】
【請求項1】
所定の設備の一部または全体の状態が反映された時系列の第1のデータのそれぞれに対して、前記状態に関する時系列の数値データのそれぞれを正解データとして対応付けた第1の訓練データを用いた機械学習により、前記数値データの値を推論する第1の推論モデルを生成する第1の学習部と、
前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習部と、を備える、情報処理装置。
【請求項2】
前記第1のデータおよび前記第2のデータは、前記設備の一部または全体の画像である、請求項1に記載の情報処理装置。
【請求項3】
前記数値データは、前記設備で測定された測定値、前記設備で動作する機器に設定された設定値、当該機器に対する操作量、および前記測定値と前記設定値と前記操作量の少なくとも何れかを用いて算出された算出値、の少なくとも何れかの値を示すデータである、請求項1または2に記載の情報処理装置。
【請求項4】
前記設備は、廃棄物を火格子上で焼却する廃棄物処理設備であり、
前記数値データは、後燃焼段の温度、焼却炉内に送り込まれる空気の流量、および前記廃棄物の火格子上における厚さ、の何れかを示すデータである、請求項3に記載の情報処理装置。
【請求項5】
時系列を構成する複数の画像からなる画像群を、1つの前記第1のデータおよび1つの前記第2のデータとして用いる、請求項2に記載の情報処理装置。
【請求項6】
前記第1の訓練データにおいて対応付けられている時系列の前記第1のデータと時系列の前記数値データとの間には時間的なずれがある、請求項1または2に記載の情報処理装置。
【請求項7】
所定の設備の一部または全体の状態が反映された第1のデータを用いた機械学習により、当該第1のデータからその特徴を抽出し、抽出した特徴に基づいて当該第1のデータを再構成した再構成データを生成する第1の推論モデルを生成する第1の学習部と、
前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習部と、を備える、情報処理装置。
【請求項8】
1または複数の情報処理装置により実行される学習方法であって、
所定の設備の一部または全体の状態が反映された時系列の第1のデータのそれぞれに対して、前記状態に関する時系列の数値データのそれぞれを正解データとして対応付けた第1の訓練データを用いた機械学習により、前記数値データの値を推論する第1の推論モデルを生成する第1の学習ステップと、
前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習ステップと、を含む学習方法。
【請求項9】
1または複数の情報処理装置により実行される学習方法であって、
所定の設備の一部または全体の状態が反映された第1のデータを用いた機械学習により、当該第1のデータからその特徴を抽出し、抽出した特徴に基づいて当該第1のデータを再構成した再構成データを生成する第1の推論モデルを生成する第1の学習ステップと、
前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習ステップと、を含む学習方法。
【請求項10】
請求項1または7に記載の情報処理装置としてコンピュータを機能させるための学習プログラムであって、前記第1の学習部および前記第2の学習部としてコンピュータを機能させるための学習プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は機械学習により学習済みモデルを生成する情報処理装置等に関する。
【背景技術】
【0002】
近年、機械学習により生成された学習済みモデルの実用化が、幅広い分野で進められている。例えば、下記の特許文献1には、学習済みモデルを用いて焼却炉内の燃焼状態を評価する情報処理装置が開示されている。この機械学習済みモデルは、焼却炉内の赤外線撮像データに対して、燃焼状態を判断する要素となる分類ラベルが付与された教師データを機械学習することにより生成されたものである。
【先行技術文献】
【特許文献】
【0003】
【特許文献1】特開2024-001337号公報
【発明の概要】
【発明が解決しようとする課題】
【0004】
特許文献1において、上記の教師データを生成する際には、赤外線撮像データにどのような分類ラベルを紐づけるかについて、運転員が経験則に基づいて判断することとなっている。このため、実用に耐える精度の学習済みモデルを生成するために、経験豊富な運転員が分類ラベルの紐づけ作業に長時間にわたって拘束されてしまうことになる。このように、特許文献1の技術には、分類モデルを生成するための訓練データを生成するための作業コストが嵩むという問題がある。また、このような問題は、特許文献1のような燃焼状態の分類のためのモデルに限られず、任意の設備について、その一部または全体の状態の推論モデルを機械学習により生成する場合に共通して生じる問題である。
【0005】
本発明の一態様は、設備の一部または全体の状態の推論モデルを機械学習により生成する際のコストを抑えることが可能な情報処理装置等を実現することを目的とする。
【課題を解決するための手段】
【0006】
上記の課題を解決するために、本発明の一態様に係る情報処理装置は、所定の設備の一部または全体の状態が反映された時系列の第1のデータのそれぞれに対して、前記状態に関する時系列の数値データのそれぞれを正解データとして対応付けた第1の訓練データを用いた機械学習により、前記数値データの値を推論する第1の推論モデルを生成する第1の学習部と、前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習部と、を備える。
【0007】
また、上記の課題を解決するために、本発明の一態様に係る他の情報処理装置は、所定の設備の一部または全体の状態が反映された第1のデータを用いた機械学習により、当該第1のデータからその特徴を抽出し、抽出した特徴に基づいて当該第1のデータを再構成した再構成データを生成する第1の推論モデルを生成する第1の学習部と、前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習部と、を備える。
【0008】
また、上記の課題を解決するために、本発明の一態様に係る学習方法は、1または複数の情報処理装置により実行される学習方法であって、所定の設備の一部または全体の状態が反映された時系列の第1のデータのそれぞれに対して、前記状態に関する時系列の数値データのそれぞれを正解データとして対応付けた第1の訓練データを用いた機械学習により、前記数値データの値を推論する第1の推論モデルを生成する第1の学習ステップと、前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習ステップと、を含む。
【0009】
また、上記の課題を解決するために、本発明の一態様に係る他の学習方法は、1または複数の情報処理装置により実行される学習方法であって、所定の設備の一部または全体の状態が反映された第1のデータを用いた機械学習により、当該第1のデータからその特徴を抽出し、抽出した特徴に基づいて当該第1のデータを再構成した再構成データを生成する第1の推論モデルを生成する第1の学習ステップと、前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習ステップと、を含む。
【発明の効果】
【0010】
本発明の一態様によれば、設備の一部または全体の状態の推論モデルを機械学習により生成する際のコストを抑えることが可能になる。
【図面の簡単な説明】
【0011】
図1】本発明の一実施形態に係る情報処理装置の要部構成の一例を示すブロック図である。
図2】本発明の一実施形態に係る制御システムの概要と、制御対象となる廃棄物処理設備の構成を示す図である。
図3】第1の推論モデルを生成するための第1の訓練データセットの例を示す図である。
図4】第2の推論モデルを生成するための第2の訓練データセットの例を示す図である。
図5】上記情報処理装置によって生成される推論モデルの例を示す図である。
図6】本発明の一実施形態に係る学習方法の流れを示すフローチャートである。
図7】第1の推論モデルが生成モデルである場合における学習方法の流れを示すフローチャートである。
【発明を実施するための形態】
【0012】
〔情報処理装置1の構成〕
本発明の一実施形態に係る情報処理装置1は、所定の設備の一部または全体の状態を推定するための推論モデルを生成する機能を備えた装置である。なお、状態を推定する対象となる設備および情報処理装置1が推定する状態は何れも任意であり、特に限定されない。例えば、1または複数の機器を備える設備を対象とする場合、情報処理装置1は当該設備が備える機器の一部または全部の状態を推定してもよい。また、ここでいう「所定の設備の一部または全体の状態」には、設備自体の状態の他、設備で処理あるいは製造される対象物の状態、および、設備で生じる現象(例えば化学反応)の状態が含まれる。設備の規模は特に限定されず、複数の機器を備える大規模なものであってもよいし、1つまたは少数の機器を備える小規模なものであってもよい。設備は、施設、機械設備、またはプラント等と言い換えることもできる。
【0013】
情報処理装置1の構成について図1に基づいて説明する。図1は、情報処理装置1の要部構成の一例を示すブロック図である。図示のように、情報処理装置1は、情報処理装置1の各部を統括して制御する制御部10と、情報処理装置1が使用する各種データを記憶する記憶部11を備えている。また、情報処理装置1は、情報処理装置1が他の装置と通信するための通信部12、情報処理装置1に対する入力を受け付ける入力部13、および情報処理装置1が各種データを出力するための出力部14を備えている。
【0014】
また、制御部10には、データ取得部101、訓練データ生成部102、第1の学習部103、第2の学習部104、推論部105、および機器制御部106が含まれている。そして、記憶部11には、第1の訓練データセット111、第1の推論モデル112、第2の訓練データセット113、および第2の推論モデル114が記憶されている。
【0015】
データ取得部101は、第1の訓練データセット111を生成するために必要な各種データを取得する。具体的には、データ取得部101は、所定の設備の一部または全体の状態が反映された時系列の第1のデータと、所定の設備の一部または全体の状態に関する時系列の数値データとを取得する。
【0016】
第1の訓練データセット111は、第1の訓練データを複数含むデータセットである。第1の訓練データは、上述の第1のデータに対して、正解データとして上述の数値データを対応付けたデータである。第1の訓練データセット111は、第1の推論モデル112を生成するために用いられる。
【0017】
第1の推論モデル112は、上記第1のデータから上記数値データの値を推論する機械学習済みモデルである。言い換えれば、第1の推論モデル112は、上記第1のデータを説明変数とし、上記数値データを目的変数とする学習済みモデルである。
【0018】
第1のデータは、所定の設備の一部または全体の状態が反映された時系列のデータであればよく、生成や取得に要するコスト(時間的なコストと費用的なコストの何れかまたは両方)が少ないデータであることが好ましい。第1のデータをどのようなデータとするかは、対象となる設備や、推定したい状態等に応じて決定すればよい。
【0019】
例えば、設備の一部または全体の状態がその外観に表れる場合、その設備の一部または全体を撮影することにより得られる画像を第1のデータとしてもよい。なお、画像は、一般的なカメラにより撮影されたRGB画像であってもよいし、特定の波長の光を撮影した画像(例えば、赤外線カメラにより撮影された赤外画像や、紫外線カメラにより撮影された紫外画像等)であってもよい。この他にも、例えば、X線を用いて撮影したX線画像等を第1のデータとして用いることも可能である。
【0020】
また、例えば、設備の一部または全体の状態がその形状に表れる場合、当該設備の一部または全体の形状を示す点群データ(設備の表面上の位置を示す点の集合)を第1のデータとしてもよい。このような点群データは、例えばLiDAR(Light Detection And Ranging)により生成することができる。
【0021】
上述した数値データは、設備の一部または全体の状態に関する時系列のデータであればよい。ただし、状態との関連性が低い数値データを用いると、後述するファインチューニングの所要時間が増加したり、ファインチューニングに必要な第2の訓練データの数が増加したりすることも想定される。このため、設備の一部または全体の状態との関連性が高い数値データを適用することが好ましい。
【0022】
ここで、設備の状態は、その設備で測定された測定値や、設備で動作する機器に設定された設定値、当該機器に対する操作量に反映されることが多い。また、測定値と設定値と操作量の少なくとも何れかを用いて算出された算出値にも設備の状態は反映され得る。このため、上記設備で測定された測定値、上記設備で動作する機器に設定された設定値、当該機器に対する操作量、および上記測定値と上記設定値と上記操作量の少なくとも何れかを用いて算出された算出値、の少なくとも何れかの値を示すデータを、上記数値データとしてもよい。
【0023】
これにより、設備の状態に関連する特徴を的確に学習した第1の推論モデル112を生成することができ、第1の推論モデル112のファインチューニングにより推論精度の高い第2の推論モデル114を生成することが可能になる。また、上記のような数値データは、設備において自動的に収集することが可能であるから、第1の訓練データの調達に要するコストを抑えることもできる。
【0024】
また、データ取得部101は、第2の推論モデル114を生成するために用いられる第2の訓練データを複数取得する。データ取得部101が取得する複数の第2の訓練データは、第2の訓練データセット113として記憶部11に記憶される。
【0025】
第2の訓練データセット113は、上述のように、第2の訓練データを複数含むデータセットである。第2の訓練データは、所定の設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けたデータである。
【0026】
第2のデータは、第1のデータと同じく、所定の設備の一部または全体の状態が反映されたデータであるから、第1のデータと同種のデータとすればよい。例えば、設備の一部または全体の画像を第1のデータとする場合、第2のデータも設備の一部または全体の画像とすればよい。設備の画像にはその状態が反映されるため、当該画像は第1のデータおよび第2のデータとして好適である。第1のデータおよび第2のデータとして画像を用いることにより、画像に写る設備(一部であっても全体であってもよい)の状態を推定する第2の推論モデル114が生成される。
【0027】
第2のデータに対する正解データの対応付けは、人為的な状態判定に基づいて行われてもよい。例えば、第2のデータが所定の設備の画像である場合、その画像を人が見てその画像に写る設備(一部であっても全体であってもよい)の状態を判断し、その判断結果を示す正解データをその画像に対応付けて第2の訓練データとしてもよい。
【0028】
上記のような作業は人的および時間的なコストを要するものであるが、情報処理装置1が第2の推論モデル114を生成するコストは、従来のように第2の訓練データのみを用いて一から第2の推論モデル114を生成する場合と比べて少なく抑えられる。これは、第2の訓練データは、第1のデータの特徴について学習済みの第1の推論モデル112のファインチューニングに用いられるものであり、第2の推論モデル114の生成に必要な第2の訓練データの数は少なくて済むためである。
【0029】
訓練データ生成部102は、データ取得部101が取得する第1のデータと数値データとを対応付けて第1の訓練データを生成する。より詳細には、訓練データ生成部102は、時系列を構成する第1のデータのそれぞれに対し、対応する時刻の数値データを対応付けて第1の訓練データを生成する。第1の訓練データの生成方法については図3に基づいて改めて説明する。
【0030】
第1の学習部103は、第1の訓練データセット111に含まれる第1の訓練データを用いた機械学習により、上述した数値データの値を推論する第1の推論モデル112を生成する。第1の学習部103による学習は、第2の推論モデル114を生成するための事前学習である。
【0031】
第1の学習部103による機械学習に適用するアルゴリズムは、第1のデータの特徴を学習し、数値データの値の予測値を出力する第1の推論モデル112を生成することができるようなものであればよい。このため、当該アルゴリズムは、第1のデータとしてどのようなデータを用いるか等に応じて適宜決定すればよい。また、第1の推論モデル112の種類も特に限定されない。例えば、第1の推論モデル112は、例えばResNET(Residual Neural Networks)等の畳み込みニューラルネットワークモデルであってもよいし、後述するViT(Vision Transformer)であってもよいし、他の種類のモデルであってもよい。
【0032】
第2の学習部104は、第2の訓練データセット113に含まれる第2の訓練データを用いて第1の推論モデル112のファインチューニングを行うことにより、設備の一部または全体の状態を推定する第2の推論モデル114を生成する。なお、ファインチューニングとは、対象となるモデルの出力を所望の内容に変更し、変更後のモデルについて訓練データを用いて機械学習することにより、変更前のモデルにおける学習結果を利用しつつ、所望の出力が得られるモデルを生成することを意味する。第1の推論モデル112のファインチューニングにおいては、第2の学習部104は、第1の推論モデル112の出力が上述の数値データではなく、上記設備の一部または全体の状態を示す値となるように第1の推論モデル112の出力層を変更する。そして、第2の学習部104は、当該変更を施したモデルについて、第2の訓練データを用いたファインチューニングを行うことにより、設備の一部または全体の状態の推定結果を出力する第2の推論モデル114を生成する。なお、ファインチューニングにおいては、第1の推論モデル112において変更を施した部分のパラメータのみを更新の対象としてもよいし、変更を施した部分以外のパラメータについても更新の対象としてもよい。
【0033】
推論部105は、所定の設備の一部または全体の状態を推論する。この推論には、第2の推論モデル114が用いられる。つまり、推論部105は、第2のデータを第2の推論モデル114に入力することにより得られる出力値から、所定の設備の一部または全体の状態を推論する。
【0034】
機器制御部106は、推論部105の推論結果に基づいて、所定の設備で動作する機器を制御する。どのような推論結果が得られたときにどのような制御を行うかは、予め定めておけばよい。また、機器制御部106は、対象となる機器を直接制御してもよいし、後述する制御装置2を介して間接的に制御してもよい。
【0035】
以上のように、情報処理装置1は、所定の設備の一部または全体の状態が反映された時系列の第1のデータのそれぞれに対して、上記状態に関する時系列の数値データのそれぞれを正解データとして対応付けた第1の訓練データを用いた機械学習により、上記数値データの値を推論する第1の推論モデル112を生成する第1の学習部103と、上記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて第1の推論モデル112のファインチューニングを行うことにより、上記設備の一部または全体の状態を推定する第2の推論モデル114を生成する第2の学習部と104、を備える。
【0036】
上記の構成によれば、時系列の第1のデータのそれぞれに対して、時系列の数値データのそれぞれを正解ラベルとして対応付けた第1の訓練データを用いた機械学習を行うので、第1のデータの特徴を学習した第1の推論モデル112を生成することができる。第1の訓練データにおいて正解ラベルとして対応付けられるデータは数値データであるから、第1の訓練データは人為的な状態判定という高コストな作業を行うことなく生成することが可能である。さらに、第1のデータと数値データとは何れも時系列データであるから、これらの対応付けも自動化することが容易であり、この点からも第1の訓練データの生成コストは低いといえる。
【0037】
そして、上記の構成によれば、第2のデータに対して所定の設備の一部または全体の状態を正解ラベルとして対応付けた第2の訓練データを用いて第1の推論モデル112のファインチューニングを行うことにより第2の推論モデル114を生成する。
【0038】
ここで、第2の訓練データにおいて正解ラベルとして対応付けられるデータは設備の一部または全体の状態を示すものであるから、第2の訓練データの生成には人為的な状態判定が必要となる場合がある。しかし、第2の訓練データは、第1のデータの特徴を既に学習している第1の推論モデル112のファインチューニングに用いられるものであるから、第2の推論モデル114の生成に必要な第2の訓練データの数は、一から第2の推論モデル114を生成する場合と比べて少なく抑えられる。
【0039】
よって、情報処理装置1によれば、所定の設備の一部または全体の状態を推定する第2の推論モデル114を機械学習により生成する際のコストを抑えることが可能になる。
【0040】
〔情報処理装置1を含む制御システム3〕
情報処理装置1は、設備の状態を推定することが可能であるから、設備の制御に利用することが可能である。ここでは、情報処理装置1を含む制御システム3について図2に基づいて説明する。図2は、制御システム3の概要を示す図である。また、図2には、制御システム3の制御対象となる廃棄物処理設備Aの一部の構成についても示している。廃棄物処理設備Aは、例えば家庭ごみ等の可燃性の廃棄物を焼却処理する設備である。
【0041】
以下では、情報処理装置1が廃棄物処理設備Aにおける廃棄物の燃焼状態を推定し、その推定結果に基づいて廃棄物処理設備Aに設けられた機器の制御を行う例を説明する。なお、情報処理装置1は、任意の設備について、その一部または全体の状態を推定することが可能であり、対象となる設備は廃棄物処理設備Aに限定されず、推定する状態も廃棄物の燃焼状態に限られない。つまり、以下の説明における「廃棄物処理設備A」は任意の「所定の設備」と読み替えることができ、「燃焼状態」は任意の設備の一部または全体における任意の状態に読み替えることができる。
【0042】
図2に示すように、制御システム3は、情報処理装置1と制御装置2とを含む。制御装置2は、情報処理装置1の指示に従って廃棄物処理設備Aに設けられた機器の制御を行う装置である。なお、制御対象とする機器は複数であってもよく、その場合、1つの制御装置2で複数の機器を制御するようにしてもよいし、1つの機器を1つの制御装置2で制御するようにしてもよい。また、上述のように、情報処理装置1が機器を直接制御するようにしてもよい。
【0043】
図2には廃棄物処理設備Aにおける焼却炉部分の断面を模式的に示している。図示のように、廃棄物処理設備Aは、焼却炉内に廃棄物を投入するためのホッパA1と、廃棄物を焼却するための空間である燃焼室A2と、燃焼室A2内で廃棄物を運搬する火格子A3とを備えている。また、火格子A3は、廃棄物を乾燥させる乾燥段A31、廃棄物を燃焼させる燃焼段A32、および燃焼段A32で燃え残った廃棄物を完全に燃焼させる後燃焼段A33に区分される。
【0044】
焼却炉内における廃棄物の燃焼状態を推定する場合、第1および第2のデータとして、例えば、図中に白抜き矢印で示す撮影方向(火格子A3の下流側から上流側に向かう方向)で燃焼室A2内を撮影した画像を用いてもよい。このようにして撮影された画像には、火格子A3の全体における廃棄物の燃焼状態が反映されるため、このような画像を用いることにより燃焼状態を的確に推定することが可能になる。
【0045】
また、燃焼状態の推定を行う場合、第1のデータに対応付ける数値データは、燃焼状態に関する時系列のデータとすればよい。例えば、廃棄物処理設備Aに設置された各種センサで測定された測定値(PV:Process Variable値)や、廃棄物処理設備Aで動作する各種の機器に設定された設定値(SV:Set Variable値)、当該機器の操作量(Manipulative Variable値)、および上記測定値と上記設定値と上記操作量の少なくとも何れかを用いて算出された算出値等を上記数値データとしてもよい。なお、センサで測定された測定値はセンサデータと呼ぶこともできる。
【0046】
ここで、本願の発明者らによる実験の結果、後燃焼段A33の温度、焼却炉内に送り込まれる空気の流量、および廃棄物の火格子A3上における厚さ、の何れかを示すデータを上記数値データとして適用することが好ましいことが分かった。このため、後燃焼段A33の温度、焼却炉内に送り込まれる空気の流量、および廃棄物の火格子A3上における厚さ、の何れかを示すデータを上記数値データとすることが好ましい。これにより、廃棄物の燃焼状態に関連する特徴を的確に学習した第1の推論モデル112を生成することができる。
【0047】
なお、後燃焼段A33の温度は、正確には後燃焼段A33付近の温度であり、後燃焼段A33の上方に温度センサを設けることにより測定することができる。また、焼却炉内に送り込まれる空気の流量は、燃焼空気の供給装置(図示せず)における流量の設定値から特定することができる。また、火格子A3上における廃棄物の厚さ(堆積厚さ)は、火格子A3(例えば乾燥段A31または燃焼段A32)に圧力センサを設け、その測定値から求めることができる。
【0048】
廃棄物の燃焼状態を推定する第2の推論モデル114は、例えば廃棄物の燃焼状態を分類する分類モデルであってもよい。燃焼状態の分類は、例えば、正常と異常の2クラス分類としてもよい。また、異常を種類毎に分類してもよい。燃焼状態の異常としては、例えば、燃焼させる廃棄物の量が不足した状態となる異常や、燃焼段A32または後燃焼段A33上に未燃ごみの塊が見られる状態となる異常等が挙げられる。また、煙やノイズ等により燃焼状態が判別困難な不明状態等を分類に加えてもよい。
【0049】
第2の推論モデル114を廃棄物の燃焼状態を分類する分類モデルとする場合、分類結果が正常である場合には制御を行う必要はなく、分類結果が異常である場合に燃焼状態を正常化するための制御を行うようにすればよい。また、異常の種類についても分類することにより、より的確な制御を行うことが可能である。例えば、推論部105による分類結果が、廃棄物の量が不足している状態であることを示している場合には、機器制御部106は、ホッパA1から火格子A3へ廃棄物を送り出す速度を増加させる制御を制御装置2に行わせてもよい。また、例えば、推論部105による分類結果が、燃焼段A32または後燃焼段A33上に未燃ごみの塊が見られる状態であることを示している場合には、機器制御部106は、燃焼空気の供給量を増加させる制御や、火格子A3による廃棄物の搬送速度を遅くする制御を制御装置2に行わせてもよい。
【0050】
〔第1の訓練データセット111の生成例〕
第2の推論モデル114による状態推定の対象が廃棄物処理設備Aである場合の第1の訓練データセット111の生成例について図3に基づいて説明する。図3は、第1の訓練データセット111の生成例を示す図である。
【0051】
図3に示すグラフGは、廃棄物処理設備Aに設置されたセンサで測定された測定値の経時変化を示している。グラフGに示される測定値は、燃焼状態に関連する時系列の数値データであるから、第1の訓練データの生成に用いることができる。また、グラフGの下側には、時刻t=1からt=Tまでの期間に撮影された焼却炉内の画像を示している。これらの画像は、第1の訓練データの生成に用いられる時系列の第1のデータである。
【0052】
訓練データ生成部102は、時系列を構成する上記画像(第1のデータ)のそれぞれに対し、対応する時刻の数値データを対応付けて第1の訓練データを生成する。例えば、訓練データ生成部102は、図示のように、時刻t=1に撮影された画像に対し、時刻t=1に測定された測定値を対応付けて第1の訓練データを生成してもよい。この場合、訓練データ生成部102は、時刻t=2以降についても同様にして第1の訓練データを生成する。これにより、同一時刻に撮影または測定された画像と数値データとが対応付けられた第1の訓練データからなる第1の訓練データセット111が生成される。
【0053】
なお、第1の訓練データにおいて対応付けられている時系列の第1のデータと時系列の数値データとの間には時間的なずれがあってもよい。これは、第1のデータに燃焼状態が反映されるタイミングと、数値データに燃焼状態が反映されるタイミングとの間には、時間的なずれが生じる場合があるからである。上記の構成によれば、このようなずれを第1の訓練データ内でキャンセルして、燃焼状態に関連する特徴を的確に学習した第1の推論モデル112を生成することが可能になる。そして、この第1の推論モデル112をファインチューニングすることにより、推論精度の高い第2の推論モデル114を生成することが可能になる。
【0054】
例えば、燃焼状態が第1のデータに反映された後、数値データに反映されるまでの時間がΔtであるとする。この場合、訓練データ生成部102は、時刻tの第1のデータと、時刻(t+Δt)の数値データとを対応付けて第1の訓練データとすればよい。この場合、訓練データ生成部102は、t=2以降についても同様に、第1のデータに対してΔt遅れの数値データを対応付けていく。これにより、対応付けられている第1のデータと数値データとの間にΔtのずれがある第1の訓練データからなる第1の訓練データセット111が生成される。
【0055】
使用する画像や数値データ、推論に求められる精度等にもよるが、第1の訓練データセット111には少なくとも数千個程度の第1の訓練データを含めておくことが好ましい。この数は少数であるとはいえないが、時系列の画像は例えば焼却炉内を撮影した動画像から自動で抽出することも可能であり、また数値データも連続的に測定した値から抽出することができる。そして、これらのデータから第1の訓練データを生成する処理は訓練データ生成部102によって自動で行われるから、第1の訓練データセット111の生成コストは抑えられる。
【0056】
〔第2の訓練データセット113の例〕
第2の推論モデル114による状態推定の対象が廃棄物処理設備Aである場合の第2の訓練データセット113の例を図4に基づいて説明する。図4は、第2の訓練データセット113の例を示す図である。
【0057】
図4に示す第2の訓練データセット113は、所定の燃焼状態であるときの焼却炉内を撮影した画像に対し、その燃焼状態を示す正解データを対応付けた第2の訓練データからなる。
【0058】
具体的には、図4に示す第2の訓練データセット113には、正常な燃焼状態であるときの焼却炉内を撮影した画像に対し、燃焼状態が正常であることを示す正解データを対応付けた複数の第2の訓練データが含まれている。また、図4に示す第2の訓練データセット113には、火格子A3上の廃棄物が不足しているときの焼却炉内を撮影した画像に対し、廃棄物の量が不足していることを示す正解データを対応付けた複数の第2の訓練データが含まれている。さらに、図4に示す第2の訓練データセット113には、燃焼状態が不明であるときの焼却炉内を撮影した画像に対し、燃焼状態が不明であることを示す正解データを対応付けた複数の第2の訓練データも含まれている。
【0059】
図4に示す第2の訓練データセット113を用いて第1の推論モデル112をファインチューニングすることにより、燃焼状態を分類する第2の推論モデル114が生成される。この第2の推論モデル114に、焼却炉内を撮影した画像を入力すると、その画像に写る燃焼状態の分類結果が出力される。例えば、図4に示す3種類の第2の訓練データを用いた場合、第2の推論モデル114からは、正常、廃棄物量不足、および不明の各状態について、当該状態に該当する可能性の高さを示す数値が出力される。推論部105は、例えば、最も値が大きい数値に対応する状態を、入力した画像に対応する燃焼状態であると推定してもよい。
【0060】
第2のデータに対する正解データの対応付けは、画像を人が見て燃焼状態を判定することによって行われてもよい。このような作業は人的および時間的なコストを要するものである。しかし、本願の発明者らの実験では、1つの分類クラスにつき数個の第2の訓練データがあれば、十分なファインチューニングが行えることが分かっている。また、1つの分類クラスにつき2個の第2の訓練データを用いるだけで十分な分類精度の第2の推論モデル114を生成できることも確認されている。このような少数の第2の訓練データを用意するコストは、一から分類モデルを生成する場合のコスト(一般に数千個以上のラベル付き訓練データを要する)と比べて、著しく少ないといえる。
【0061】
〔第1の推論モデル112と第2の推論モデル114の例〕
図5は、第1の推論モデル112と第2の推論モデル114の例を示す図である。図5に示す第1の推論モデル112および第2の推論モデル114は、ViTのモデルである。ViTでは、図示のように、入力する画像はパッチ画像に分割され、各パッチ画像はベクトルに変換された上で線形射影され、線形射影されたデータに対して各パッチ画像の位置を示す情報が埋め込まれてエンコーダに入力される。そして、エンコーダからの出力はMLP(Multi-Layer Perceptron)ヘッドに入力され、MLPヘッドから数値データの予測値(推定値)が出力される。
【0062】
第1の学習部103は、第1の訓練データセット111を用いた機械学習により、このような第1の推論モデル112を生成することができる。この機械学習では、第1の訓練データに含まれる第1のデータ(画像)を第1の推論モデル112に入力して得られる予測値と、当該第1の訓練データに含まれる数値データ(つまり正解データ)との誤差が小さくなるように、第1の推論モデル112における各パラメータが学習される。より詳細には、第1の学習部103は、誤差項と正規化項とを含む損失関数を最小化するように各パラメータを更新する。なお、上記の誤差は、二乗誤差(例えば平均二乗誤差)であってもよいし、絶対誤差(例えばL1ノルムや平均絶対誤差)等であってもよく、それらの組み合わせであってもよい。また、正則化項を損失関数に含めることは必須ではない。
【0063】
そして、第2の学習部104は、第2の訓練データセット113を用いて第1の推論モデル112のファインチューニングを行うことにより、図示のような第2の推論モデル114を生成することができる。
【0064】
図5に示す第2の推論モデル114は、MLPヘッドが燃焼状態の分類結果を出力するものとなっている点で、第1の推論モデル112と相違している。つまり、第2の学習部104は、ファインチューニングにおいて、第1の推論モデル112におけるMLPヘッドを、燃焼状態の分類結果を出力するMLPヘッドに変更し、変更後のモデルについて第2の訓練データセット113を用いた機械学習を行う。この機械学習では、第2の訓練データに含まれる第2のデータ(画像)を第2の推論モデル114に入力することにより得られる燃焼状態の分類結果と、当該第2の訓練データに示される燃焼状態(つまり正解データ)との誤差が小さくなるように、第2の推論モデル114における各パラメータが学習される。
【0065】
なお、図5の例では、1つの画像を第1の推論モデル112に入力して数値データの予測値を出力させているが、時系列を構成する複数の画像からなる画像群を、1つの第1のデータとして第1の推論モデル112に入力するようにしてもよい。この場合、第2の推論モデル114に入力するデータも、時系列を構成する複数の画像からなる画像群となる。
【0066】
これにより、第1の推論モデル112の生成時(つまり事前学習時)に、時系列で変化する特徴が学習される。そして、生成された第1の推論モデル112をファインチューニングして生成された第2の推論モデル114を用いることにより、時系列で変化する特徴を加味した推論を行うことができる。
【0067】
第1の推論モデル112および第2の推論モデル114がViTであれば、時系列を構成する画像のそれぞれを分割してパッチ画像を生成し、それらのパッチ画像をベクトルに変換して線形射影すればよい。また、第1の推論モデル112および第2の推論モデル114がViT以外のモデルであれば、時系列を構成する複数の画像を、必要に応じてそのモデルが受付可能な形式に変換した上で入力すればよい。
【0068】
なお、図5に示す第1の推論モデル112および第2の推論モデル114は例示にすぎず、本発明に適用可能な第1の推論モデル112および第2の推論モデル114の構成はこの例に限定されない。また、本項目で説明するデータの形式およびデータ処理の内容も一例に過ぎず、所望の推論結果が得られるような推論モデルが生成可能な範囲内で適宜変更することが可能である。例えば、各パッチ画像を2次元の配列(つまり画像)のままエンコーダに入力することも可能である。また、時系列を構成する複数の画像からなる画像群を3次元のデータとして第1の推論モデル112に入力することも可能である。
【0069】
〔処理の流れ〕
情報処理装置1が実行する処理の流れを図6に基づいて説明する。図6は、情報処理装置1が実行する処理の一例を示すフローチャートである。図6のフローチャートには、本実施形態に係る学習処理の各ステップが含まれている。
【0070】
S1では、データ取得部101が、所定の設備の一部または全体の状態が反映された時系列の第1のデータと、当該状態に関する時系列の数値データとを取得する。上述のように、第1のデータは例えば所定の設備の一部または全体を撮影した画像であってもよい。また、数値データは例えば上記設備における測定値や設定値等であってもよい。これらのデータを取得する方法は特に限定されない。例えば、データ取得部101は、入力部13を介して入力されるこれらのデータを取得してもよいし、通信部12を介した通信により他の装置からこれらのデータを取得してもよい。
【0071】
S2では、訓練データ生成部102が、S1で取得された第1のデータに対し、同じくS1で取得された数値データを対応付けて第1の訓練データを生成する。S2では第1の訓練データは複数生成され、生成された複数の第1の訓練データは、第1の訓練データセット111として記憶部11に記憶される。
【0072】
S3(第1の学習ステップ)では、第1の学習部103が、S2で生成された第1の訓練データを用いた機械学習により、第1の推論モデル112を生成する。生成された第1の推論モデル112は記憶部11に記憶される。S3の処理は、第2の推論モデル114を生成するための事前学習を行うステップであるともいえる。
【0073】
S4(第2の学習ステップ)では、第2の学習部104が、第2の訓練データセット113に含まれる第2の訓練データを用いて、S3で生成された第1の推論モデル112のファインチューニングを行う。これにより、上記設備の一部または全体の状態を推定する第2の推論モデル114が生成される。生成された第2の推論モデル114は記憶部11に記憶され、図6の処理は終了する。
【0074】
以上のように、本実施形態に係る学習方法は、所定の設備の一部または全体の状態が反映された時系列の第1のデータのそれぞれに対して、当該状態に関する時系列の数値データのそれぞれを正解データとして対応付けた第1の訓練データを用いた機械学習により、上記数値データの値を推論する第1の推論モデル112を生成する第1の学習ステップ(S3)と、上記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて第1の推論モデル112のファインチューニングを行うことにより、上記設備の一部または全体の状態を推定する第2の推論モデル114を生成する第2の学習ステップ(S4)と、を含む。よって、設備の状態を推定する第2の推論モデル114を機械学習により生成する際のコストを抑えることが可能になる。
【0075】
〔事前学習の他の例〕
上述の実施形態では、第1の学習部103による事前学習において、第1のデータから数値データの値を推論する第1の推論モデル112を生成する例を説明した。以下では、事前学習において、第1の推論モデル112の代わりに、第1のデータからその特徴を抽出し、抽出した特徴に基づいて当該第1のデータを再構成した再構成データを生成する第1の推論モデル(以下、生成モデルと呼ぶ)を生成する例を説明する。
【0076】
生成モデルは、教師なし学習により生成することができる。このため、事前学習において生成モデルを生成する場合、訓練データ生成部102は不要であり、データ取得部101は、正解データが対応付けられていない第1のデータを取得すればよい。そして、第1の学習部103は、データ取得部101が取得する第1のデータからその特徴を抽出し、抽出した特徴に基づいて当該第1のデータを再構成した再構成データを生成し、第1のデータと再構成データとの誤差が小さくなるように生成モデルのパラメータを更新する、という処理を対象となる第1のデータを替えながら繰り返し行うことにより、生成モデルを生成する。生成モデルは、例えばオートエンコーダ(入力されたデータの特徴を抽出するエンコーダと、エンコーダが抽出した特徴から再構成データを生成するデコーダとを組み合わせたモデル)等であってもよい。
【0077】
生成モデルが生成された後の処理は上記実施形態と同様である。つまり、生成された生成モデルをファインチューニングすることにより、第2の推論モデル114が生成される。
【0078】
このように、情報処理装置1は、所定の設備の一部または全体の状態が反映された第1のデータを用いた機械学習により、当該第1のデータからその特徴を抽出し、抽出した特徴に基づいて当該第1のデータを再構成した再構成データを生成する第1の推論モデル(生成モデル)を生成する第1の学習部103と、上記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて第1の推論モデル(生成モデル)のファインチューニングを行うことにより、上記設備の一部または全体の状態を推定する第2の推論モデル114を生成する第2の学習部104と、を備える構成であってもよい。
【0079】
このような構成であっても、設備の状態を推定する第2の推論モデル114を機械学習により生成する際のコストを抑えることが可能になる。特に、生成モデルの生成には正解データを対応付けた訓練データを用いる必要がないから、事前学習において第1の推論モデル112を生成する場合と比べて、さらにコストを抑えることができる。ただし、本願の発明者らの実験では、事前学習において、センサデータ等の数値データを予測する第1の推論モデル112を生成する方が、生成モデルを生成する場合と比べて学習の安定性が高い傾向も見られた。このため、安定性を重視したい場合には、事前学習では第1の推論モデル112を生成するようにすることが好ましい。
【0080】
なお、事前学習では、第1のデータの特徴が学習できればよい。このため、事前学習では、再構成データの生成と、数値データの予測との両方を行う第1の推論モデルを生成してもよい。また、事前学習では、複数種類の数値データをそれぞれ予測する第1の推論モデルを生成してもよい。
【0081】
〔処理の流れ〕
事前学習において生成モデルを生成する場合に情報処理装置1が実行する処理の流れを図7に基づいて説明する。図7は、事前学習において生成モデルを生成する場合に情報処理装置1が実行する処理の一例を示すフローチャートである。
【0082】
S11では、データ取得部101が、所定の設備の一部または全体の状態が反映された第1のデータを複数取得する。これらの第1のデータは時系列を構成していてもよいし、構成していなくてもよい。また、これらのデータを取得する方法が特に限定されないことは、図6のS1と同様である。
【0083】
S12(第1の学習ステップ)では、第1の学習部103が、S11で取得された第1のデータを用いた機械学習により、当該第1のデータからその特徴を抽出し、抽出した特徴に基づいて当該第1のデータを再構成した再構成データを生成する第1の推論モデル(生成モデル)を生成する。生成された第1の推論モデル(生成モデル)は記憶部11に記憶される。S12の処理は、第2の推論モデル114を生成するための事前学習を行うステップであるともいえる。
【0084】
S13(第2の学習ステップ)では、第2の学習部104が、第2の訓練データセット113に含まれる第2の訓練データを用いて、S12で生成された第1の推論モデル(生成モデル)のファインチューニングを行う。これにより、所定の設備の一部または全体の状態を推定する第2の推論モデル114が生成される。生成された第2の推論モデル114は記憶部11に記憶され、図7の処理は終了する。
【0085】
以上のように、本実施形態に係る他の学習方法は、所定の設備の一部または全体の状態が反映された第1のデータを用いた機械学習により、当該第1のデータからその特徴を抽出し、抽出した特徴に基づいて当該第1のデータを再構成した再構成データを生成する第1の推論モデル(生成モデル)を生成する第1の学習ステップ(S12)と、上記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて上記第1の推論モデル(生成モデル)のファインチューニングを行うことにより、上記設備の一部または全体の状態を推定する第2の推論モデル114を生成する第2の学習ステップ(S13)と、を含む。よって、設備の状態を推定する第2の推論モデル114を機械学習により生成する際のコストを抑えることが可能になる。
【0086】
〔他の設備への適用例〕
情報処理装置1は、様々な設備を対象として、その一部または全体の状態の推論モデル(第2の推論モデル114)を生成することが可能である。例えば、情報処理装置1は、製品の製造設備で稼働する製造装置を撮影した画像から、その製造設備で製造された(あるいは製造される)製品の状態(例えば品質)を推定する推論モデルを生成することも可能である。この場合、事前学習に用いる第1の訓練データに含まれる数値データは、製品の状態に関連する各種測定値(例えば製造時に測定された温度や圧力など)とすればよい。
【0087】
また、情報処理装置1は、例えば、風力発電設備の内部または外部を撮影した画像から、その風力発電設備の現在または将来の状態(例えば異常の有無)を推定する推論モデルを生成することも可能である。この場合、事前学習に用いる第1の訓練データに含まれる数値データは、設備の状態に関連する各種測定値(例えば、風力発電設備に設けられた振動センサにより測定された振動データなど)とすればよい。
【0088】
〔変形例〕
上述の実施形態で説明した各処理の実行主体は任意であり、上述の例に限られない。つまり、相互に通信可能な複数の情報処理装置(プロセッサと呼ぶこともできる)により、情報処理装置1と同様の機能を実現することができる。例えば、図6または図7に示す各処理を複数の情報処理装置に分担で実行させてもよい。すなわち、上述の実施形態に係る学習方法の実行主体は、1つの情報処理装置(例えば情報処理装置1)であってもよいし、複数の情報処理装置であってもよい。
【0089】
〔ソフトウェアによる実現例〕
情報処理装置1の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、情報処理装置1の各制御ブロック(特に制御部10に含まれる各部)としてコンピュータを機能させるためのプログラム(学習プログラム)により実現することができる。
【0090】
この場合、情報処理装置1は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記実施形態で説明した各機能が実現される。
【0091】
上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、情報処理装置1が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して情報処理装置1に供給されてもよい。
【0092】
また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。
【0093】
〔まとめ〕
本発明の態様1に係る情報処理装置は、所定の設備の一部または全体の状態が反映された時系列の第1のデータのそれぞれに対して、前記状態に関する時系列の数値データのそれぞれを正解データとして対応付けた第1の訓練データを用いた機械学習により、前記数値データの値を推論する第1の推論モデルを生成する第1の学習部と、前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習部と、を備える。
【0094】
本発明の態様2に係る情報処理装置は、前記態様1において、前記第1のデータおよび前記第2のデータは、前記設備の一部または全体の画像である。
【0095】
本発明の態様3に係る情報処理装置は、前記態様1または2において、前記数値データは、前記設備で測定された測定値、前記設備で動作する機器に設定された設定値、当該機器に対する操作量、および前記測定値と前記設定値と前記操作量の少なくとも何れかを用いて算出された算出値、の少なくとも何れかの値を示すデータである。
【0096】
本発明の態様4に係る情報処理装置は、前記態様3において、前記設備は、廃棄物を火格子上で焼却する廃棄物処理設備であり、前記数値データは、後燃焼段の温度、焼却炉内に送り込まれる空気の流量、および前記廃棄物の火格子上における厚さ、の何れかを示すデータである。
【0097】
本発明の態様5に係る情報処理装置は、前記態様2において、時系列を構成する複数の画像からなる画像群を、1つの前記第1のデータおよび1つの前記第2のデータとして用いる。
【0098】
本発明の態様6に係る情報処理装置は、前記態様1から5の何れかにおいて、前記第1の訓練データにおいて対応付けられている時系列の前記第1のデータと時系列の前記数値データとの間には時間的なずれがある。
【0099】
本発明の態様7に係る情報処理装置は、所定の設備の一部または全体の状態が反映された第1のデータを用いた機械学習により、当該第1のデータからその特徴を抽出し、抽出した特徴に基づいて当該第1のデータを再構成した再構成データを生成する第1の推論モデルを生成する第1の学習部と、前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習部と、を備える。
【0100】
本発明の態様8に係る学習方法は、1または複数の情報処理装置により実行される学習方法であって、所定の設備の一部または全体の状態が反映された時系列の第1のデータのそれぞれに対して、前記状態に関する時系列の数値データのそれぞれを正解データとして対応付けた第1の訓練データを用いた機械学習により、前記数値データの値を推論する第1の推論モデルを生成する第1の学習ステップと、前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習ステップと、を含。
【0101】
本発明の態様9に係る学習方法は、1または複数の情報処理装置により実行される学習方法であって、所定の設備の一部または全体の状態が反映された第1のデータを用いた機械学習により、当該第1のデータからその特徴を抽出し、抽出した特徴に基づいて当該第1のデータを再構成した再構成データを生成する第1の推論モデルを生成する第1の学習ステップと、前記設備の一部または全体の状態が反映された第2のデータに対して、当該状態を正解データとして対応付けた第2の訓練データを用いて前記第1の推論モデルのファインチューニングを行うことにより、前記設備の一部または全体の状態を推定する第2の推論モデルを生成する第2の学習ステップと、を含む。
【0102】
本発明の態様10に係る学習プログラムは、前記態様1から7の何れかに記載の情報処理装置としてコンピュータを機能させるための学習プログラムであって、前記第1の学習部および前記第2の学習部としてコンピュータを機能させる。
【0103】
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
【符号の説明】
【0104】
1 情報処理装置
103 第1の学習部
104 第2の学習部
112 第1の推論モデル
114 第2の推論モデル

図1
図2
図3
図4
図5
図6
図7