(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-22
(45)【発行日】2024-07-30
(54)【発明の名称】学習モデルの生成方法、学習済みモデル及び画像形成装置
(51)【国際特許分類】
G06F 18/2137 20230101AFI20240723BHJP
G03G 21/00 20060101ALI20240723BHJP
G06F 3/12 20060101ALI20240723BHJP
【FI】
G06F18/2137
G03G21/00 512
G06F3/12 310
G06F3/12 329
(21)【出願番号】P 2020045212
(22)【出願日】2020-03-16
【審査請求日】2023-02-24
(73)【特許権者】
【識別番号】000006150
【氏名又は名称】京セラドキュメントソリューションズ株式会社
(74)【代理人】
【識別番号】110003443
【氏名又は名称】弁理士法人TNKアジア国際特許事務所
(74)【代理人】
【識別番号】100168583
【氏名又は名称】前井 宏之
(72)【発明者】
【氏名】宮地 直也
【審査官】福西 章人
(56)【参考文献】
【文献】特開平09-179458(JP,A)
【文献】特開2003-263502(JP,A)
【文献】特開2001-229149(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 18/00-18/40
G06N 3/00-99/00
G03G 21/00
G06F 3/12
(57)【特許請求の範囲】
【請求項1】
画像形成装置が有する部材の状態を分類する自己組織化写像によって構成され、出力層が有する所定数のノードのうちの1つのノードに、入力層に入力された入力データが分類されるように、コンピューターを機能させる学習済みモデルであって、
前記入力データは、画像形成装置が有する部材の状態を含み、
第1重みを適用した前記学習済みモデルが、前記所定数のノードのうちの1つのノードに、前記入力層に入力された前記入力データを分類するように、前記コンピューターを機能させ、
第2重みを適用した前記学習済みモデルが、前記1つのノードに分類された前記入力データを前記入力層に入力して、前記所定数のノードのうちの1つのノードに前記入力データを分類するように、前記コンピューターを機能させ、
前記第1重みは、前記第2重みと異なり、前記所定数のノードのうちの1つのノードに前記入力データを分類する係数を示し、
前記第2重みは、前記所定数のノードのうちの1つのノードに前記入力データを分類する係数を示す、学習済みモデル。
【請求項2】
ある機能を有する部材と、
自己組織化写像によって構成され、入力層と所定数のノードを有する出力層とを有する学習済みモデルを記憶する記憶部と、
前記部材に関する入力データを前記入力層に入力して、前記入力データを前記所定数のノードのうちの1つのノードに分類した分類結果を出力層に出力させる実行部と、
前記分類結果に基づいて、前記学習済みモデルに適用する重みを第1重みと第2重みとの間で変更する変更部と
を備え、
前記第1重みは、前記所定数のノードのうちの1つのノードに前記入力データを分類する係数を示し、
前記第2重みは、前記所定数のノードのうちの1つのノードに前記入力データを分類する係数を示し、
前記実行部は、前記第1重みを適用した前記学習済みモデルの前記入力層に前記入力データを入力し、前記入力データを前記所定数のノードのうちの1つのノードに分類した第1分類結果を出力層に出力させ、
前記変更部は、前記第1分類結果に基づいて、前記学習済みモデルに適用する重みを前記第1重みから前記第2重みに変更し、
前記実行部は、前記第2重みを適用した前記学習済みモデルの前記入力層に前記入力データを入力し、前記入力データを前記所定数のノードのうちの1つのノードに分類した第2分類結果を出力層に出力させる、画像形成装置。
【請求項3】
前記記憶部は、第1対応表と、第2対応表とを更に記憶し、
前記第1対応表は、前記第1重みを適用した前記学習済みモデルの前記所定数のノードのそれぞれに関連付けられた前記部材の状態を示し、
前記第2対応表は、前記第2重みを適用した前記学習済みモデルの前記所定数のノードのそれぞれに関連付けられた前記部材の状態を示し、
前記第2対応表の前記部材の状態は、前記第1対応表が示す前記部材の状態よりも詳細な前記部材の状態を示す、請求
項2に記載の画像形成装置。
【請求項4】
前記第1重みを適用した前記学習済みモデルの前記出力層の前記ノードの個数と、前記第2重みを適用した前記学習済みモデルの前記出力層の前記ノードの個数とは等しい、請求
項3に記載の画像形成装置。
【請求項5】
前記第1分類結果に基づいて、前記入力データが特定のノードに分類されたか否かを判定する判定部を更に備え、
前記変更部は、前記判定部の判定結果に基づいて、前記学習済みモデルに適用する前記重みを前記第1重みから前記第2重みに変更する、請求
項3または請求
項4に記載の画像形成装置。
【請求項6】
前記部材の状態を推定する推定部を更に備え、
前記推定部は、前記第2分類結果と前記第2対応表とに基づいて、前記部材の状態を推定する、請求
項3から請求項
5のいずれか1項に記載の画像形成装置。
【請求項7】
前記部材は、感光体ドラムであり、
前記入力データは、前記感光体ドラムの回転数を示す第1データと、前記感光体ドラムへの露光量を示す第2データと、前記感光体ドラムから転写されたトナー像の濃度を示す第3データと、前記画像形成装置の印刷枚数を示す第4データとを含む、請求
項2から請求
項6のいずれか1項に記載の画像形成装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習モデルの生成方法、学習済みモデル及び画像形成装置に関する。
【背景技術】
【0002】
特許文献1に記載の画像形成装置は、寿命耐久回転数に対する感光体ドラムの実回転カウント数割合を寿命予測値として算出する。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、特許文献1に記載の画像形成装置では、実回転カウント数のみに基づく予測のため、感光体ドラムの寿命を精度良く予測することが困難であった。
【0005】
本発明は上記課題に鑑みてなされたものであり、部材の状態を精度良く予測できる学習モデルの生成方法、学習済みモデル及び画像形成装置を提供することを目的とする。
【課題を解決するための手段】
【0006】
本発明の一局面によれば、学習モデルの生成方法は、画像形成装置が有する部材の状態を分類する自己組織化写像によって構成される。学習モデルの生成方法は、準備するステップと、第1重みが設定されるように学習させるステップと、分類するステップと、第2重みが設定されるように学習させるステップとを含む。前記準備するステップは、入力層と、所定数のノードを有する出力層とを有する学習モデルを準備する。前記第1重みが設定されるように学習させるステップは、前記部材の状態に関する学習データを前記入力層に入力し、前記所定数のノードのそれぞれに互いに異なる第1重みが設定されるように前記学習モデルを学習させる。前記分類するステップは、前記所定数のノードのそれぞれに設定された前記第1重みに基づいて、前記学習モデルが前記学習データを前記所定数のノードのうちの1つに分類する。前記第2重みが設定されるように学習させるステップは、前記所定数のノードのうちの特定のノードに分類された前記学習データと、前記特定のノードに隣接するノードに分類された前記学習データとを前記入力層に入力し、前記所定数のノードのそれぞれに互いに異なる第2重みが設定されるように前記学習モデルを学習させる。前記第1重みは、前記第2重みと異なり、前記所定数のノードのうちの1つのノードに前記学習データを分類する係数を示す。前記第2重みは、前記所定数のノードのうちの1つのノードに前記学習データを分類する係数を示す。
【0007】
本発明の他の局面によれば、学習済みモデルは、画像形成装置が有する部材の状態を分類する自己組織化写像によって構成され、出力層が有する所定数のノードのうちの1つのノードに、入力層に入力された入力データが分類されるように、コンピューターを機能させる。前記入力データは、前記画像形成装置が有する部材の状態を含む。前記学習済みモデルは、前記コンピューターを機能させ、第1重みを適用した前記学習済みモデルが、前記所定数のノードのうちの1つのノードに、前記入力層に入力された前記入力データを分類する。前記学習済みモデルは、前記コンピューターを機能させ、第2重みを適用した前記学習済みモデルが、前記1つのノードに分類された前記入力データを前記入力層に入力して、前記所定数のノードのうちの1つのノードに前記入力データを分類する。前記第1重みは、前記第2重みと異なり、前記所定数のノードのうちの1つのノードに前記入力データを分類する係数を示す。前記第2重みは、前記所定数のノードのうちの1つのノードに前記入力データを分類する係数を示す。
【0008】
本発明の他の局面によれば、画像形成装置は、部材と、記憶部と、実行部と、変更部とを備える。前記部材は、ある機能を有する。前記記憶部は、自己組織化写像によって構成され、入力層と所定数のノードを有する出力層とを有する学習済みモデルを記憶する。前記実行部は、前記部材に関する入力データを前記入力層に入力して、前記入力データを前記所定数のノードのうちの1つのノードに分類した分類結果を出力層に出力させる。前記変更部は、前記分類結果に基づいて、前記学習済みモデルに適用する重みを第1重みと第2重みとの間で変更する。前記第1重みは、前記所定数のノードのうちの1つのノードに前記入力データを分類する係数を示す。前記第2重みは、前記所定数のノードのうちの1つのノードに前記入力データを分類する係数を示す。前記実行部は、前記第1重みを適用した前記学習済みモデルの前記入力層に前記入力データを入力し、前記入力データを前記所定数のノードのうちの1つのノードに分類した第1分類結果を出力層に出力させる。前記変更部は、前記第1分類結果に基づいて、前記学習済みモデルに適用する重みを前記第1重みから前記第2重みに変更する。前記実行部は、前記第2重みを適用した前記学習済みモデルの前記入力層に前記入力データを入力し、前記入力データを前記所定数のノードのうちの1つのノードに分類した第2分類結果を出力層に出力させる。
【発明の効果】
【0009】
本発明の学習モデルの生成方法、学習済みモデル及び画像形成装置によれば部材の状態を精度良く予測できる。
【図面の簡単な説明】
【0010】
【
図1】本発明の実施形態1に係る画像形成システムの一例を示す図である。
【
図2】実施形態1に係る画像形成システムの画像形成装置を示す図である。
【
図3】実施形態1に係る画像形成システムのサーバー装置を示すブロック図である。
【
図4】実施形態1に係る画像形成システムの学習モデルを示す図である。
【
図5】実施形態1に係る画像形成システムの学習モデルを示す別の図である。
【
図6】実施形態1に係る画像形成システムの学習モデルの出力層の16個のノードのそれぞれに感光体ドラムの状態を対応付けた第1対応表の一例を示す。
【
図7】実施形態1に係る画像形成システムの制御部が実行する処理を示すフローチャートの一部である。
【
図8】実施形態1に係る画像形成システムの制御部が実行する処理を示すフローチャートの他の一部である
【
図9】実施形態1に係る画像形成システムの画像形成装置の構成を示すブロック図である。
【
図10】(a)は、第1重みを適用した学習済みモデルの処理を示す模式図である。(b)は、第2重みを適用した学習済みモデルの処理を示す模式図である。
【
図11】実施形態1に係る画像形成システムの画像形成装置の制御部が実行する処理を示すフローチャートの一部である。
【
図12】実施形態1に係る画像形成システムの画像形成装置の制御部が実行する処理を示すフローチャートの他の一部である。
【
図13】本発明の実施形態2に係る画像形成システムの画像形成装置の構成を示す図である。
【
図14】実施形態2に係る画像形成システムの画像形成装置が実行する処理を示すフローチャートである。
【発明を実施するための形態】
【0011】
以下、本発明の実施形態について、図面を参照しながら説明する。なお、図中、同一または相当部分については同一の参照符号を付して説明を繰り返さない。
【0012】
[実施形態1]
まず、
図1を参照して、実施形態1に係る画像形成システム1について説明する。
図1は、画像形成システム1の一例を示す図である。画像形成システム1は、サーバー装置300と、画像形成装置100とを備える。サーバー装置300と画像形成装置100とは、ネットワークNを介して互いに通信可能に接続されている。ネットワークNは、例えば、インターネット、LAN(Local Area Network)、または、WAN(Wide Area Network)である。ネットワークNには、各種通信機器が接続されている。各種通信機器は、例えば、ルーター、ブリッジ、アクセスポイント、ハブ、及び、リピーターである。
【0013】
サーバー装置300は、ネットワークNを介して画像形成装置100と互いに通信可能である。
【0014】
画像形成装置100は、シートSに画像を形成する。画像形成装置100は、例えば、プリンター、コピー機または複合機である。画像形成装置100は、ネットワークNを介してサーバー装置300と互いに通信可能である。
【0015】
次に、
図1と
図2とを参照して画像形成装置100を詳しく説明する。
図2は、画像形成装置100を示す図である。
【0016】
画像形成装置100は、画像形成部110と、記憶部120と、通信部130と、制御部140と、入出力部150とを備える。
【0017】
画像形成部110は、シートSに画像を形成する。例えば、シートSは、普通紙、再生紙、薄紙、厚紙、コート紙またはOHP(Overhead Projector)シートである。
【0018】
画像形成部110は、給送部112と、搬送部114と、トナーコンテナCa~Cdと、作像部116とを含む。
【0019】
給送部112は、複数のカセット112aと、複数の給送ローラー112bとを備える。カセット112aは、複数枚のシートSを収容する。給送ローラー112bは、カセット112aに収容された複数枚のシートSのうち最上面に位置するシートSを1枚ずつ給送する。
【0020】
搬送部114は、給送部112によって給送されたシートSを作像部116に搬送する。搬送部114は、複数の搬送ローラー114aを含む。複数の搬送ローラー114aによって、シートSの搬送路が形成される。作像部116がシートSに画像を形成した後、搬送部114は、作像部116からシートSを更に搬送し、シートSを画像形成装置100の外部に排出する。
【0021】
搬送ローラー114aは、レジストローラー114rを含む。レジストローラー114rは、作像部116にシートSを搬送するタイミングを調整する。レジストローラー114rは、シートSの搬送を一旦停止し、作像部116の所定のタイミングに合わせて作像部116にシートSを搬送する。
【0022】
トナーコンテナCa~Cdは、各々画像形成装置100に対して着脱自在である。トナーコンテナCa~Cdのそれぞれには異なる色のトナーが収容される。トナーコンテナCa~Cdのトナーは、作像部116に供給される。
【0023】
例えば、トナーコンテナCaは、イエロー色のトナーを収容し、作像部116にイエロー色のトナーを供給する。トナーコンテナCbは、マゼンタ色のトナーを収容し、作像部116にマゼンタ色のトナーを供給する。トナーコンテナCcは、シアン色のトナーを収容し、作像部116にシアン色のトナーを供給する。トナーコンテナCdは、ブラック色のトナーを収容し、作像部116にブラック色のトナーを供給する。
【0024】
作像部116は、トナーコンテナCa~Cdに収容されたトナーを用いて、画像データに基づく画像をシートSに形成する。作像部116は、露光部116a、感光体ドラム116b、帯電部116c、現像部116d、1次転写ローラー116e、クリーニング部116f、中間転写ベルト116g、2次転写ローラー116h、及び定着部117を含む。
【0025】
中間転写ベルト116gは、モーターの動力にしたがって回転する回転ローラーによって回転する。現像部116dには、モーターが取り付けられている。現像部116d内のトナーは、モーターの回転に伴って攪拌される。
【0026】
感光体ドラム116b、帯電部116c、現像部116d、1次転写ローラー116e、及びクリーニング部116fは、トナーコンテナCa~Cdのそれぞれに対応して設けられる。感光体ドラム116bは、中間転写ベルト116gの外表面に当接し、中間転写ベルト116gの回転方向に沿って配置される。感光体ドラム116bは、「部材」の一例に相当する。1次転写ローラー116eは、感光体ドラム116bに対応して設けられる。1次転写ローラー116eは、中間転写ベルト116gを介して、感光体ドラム116bに対向する。
【0027】
帯電部116cは、感光体ドラム116bの周面を帯電する。露光部116aは、画像データに基づくレーザー光を感光体ドラム116bの各々に照射し、感光体ドラム116bの周面には静電潜像が形成される。現像部116dは、静電潜像にトナーを付着させて静電潜像を現像し、感光体ドラム116bの周面にトナー像を形成する。感光体ドラム116bは、トナー像を担持する。1次転写ローラー116eは、感光体ドラム116bに形成されたトナー像を中間転写ベルト116gの外表面に転写する。クリーニング部116fは、感光体ドラム116bの周面に残留しているトナーを除去する。
【0028】
トナーコンテナCaに対応する感光体ドラム116bは、静電潜像に基づきイエロー色のトナー像を形成し、トナーコンテナCbに対応する感光体ドラム116bは、静電潜像に基づきマゼンタ色のトナー像を形成する。トナーコンテナCcに対応する感光体ドラム116bは、静電潜像に基づきシアン色のトナー像を形成し、トナーコンテナCdに対応する感光体ドラム116bは、静電潜像に基づきブラック色のトナー像を形成する。
【0029】
中間転写ベルト116gの外表面には、感光体ドラム116bから複数色のトナー像が重畳して転写され、画像が形成される。このため、中間転写ベルト116gは、画像を担持する。2次転写ローラー116hは、中間転写ベルト116gの外表面に形成された画像をシートSに転写する。
【0030】
定着部117は、トナー像が転写されたシートSを加熱及び加圧することによって、トナー像をシートSに定着させる。定着部117は、加熱ローラー117a及び加圧ローラー117bを備える。搬送部114は、トナー像の定着されたシートSを画像形成装置100の外部に排出する。
【0031】
記憶部120は、データ及びコンピュータープログラムを記憶する。例えば、記憶部120は、制御部140の各処理に必要なデータを一時的に記憶する。記憶部120は、記憶装置(主記憶装置及び補助記憶装置)を含み、例えば、メモリー及びハードディスクドライブを含む。記憶部120はリムーバブルメディアを含んでもよい。
【0032】
通信部130は、ネットワークNを介してサーバー装置300と通信する。例えば、通信部130は、ネットワークNを介してサーバー装置300に情報を送信する。また、通信部130は、ネットワークNを介してサーバー装置300から情報を受信する。
【0033】
制御部140は、CPU(Central Processing Unit)のようなプロセッサーを含む。制御部140のプロセッサーは、記憶部120に記憶されたコンピュータープログラムを実行することによって、画像形成装置100の各構成を制御する。記憶部120と制御部140とは、MPU(Micro Controller Unit)として実装されてもよい。
【0034】
入出力部150は、各種の情報をユーザーに報知し、またユーザーから指示を受け付ける。入出力部150は、表示部152と、受付部154とを有する。表示部152は、例えば、液晶ディスプレーを含むタッチパネルである。受付部154は、例えば、テンキー、スタートキー、及びキャンセルキーを含む。
【0035】
次に、
図1と
図3とを参照して、サーバー装置300を詳しく説明する。
図3は、サーバー装置300を示すブロック図である。サーバー装置300は、制御部301、通信部302、及び、記憶部303を備える。
【0036】
制御部301は、プロセッサー、及び、記憶装置を含む。プロセッサーは、例えば、CPU、及びGPU(Graphics Processing Unit)を含む。記憶装置は、データ及びコンピュータープログラムを記憶する。具体的には、記憶装置は、半導体メモリーのような主記憶装置と、半導体メモリー、ソリッドステートドライブ、及び/または、ハードディスクドライブのような補助記憶装置とを含む。制御部301のプロセッサーは、記憶部303に記憶されたコンピュータープログラムを実行することで、サーバー装置300の各構成を制御する。
【0037】
通信部302は、ネットワークNを介して、画像形成装置100と通信する。通信部302は、ネットワークNを介して、画像形成装置100へ制御情報を送信する。制御情報は、画像形成装置100の各構成を制御するための情報を含む。また、通信部302は、ネットワークNを介して、画像形成装置100から情報を受信する。
【0038】
記憶部303は、データ及びコンピュータープログラムを記憶する。例えば、記憶部303は、制御部301の各処理に必要なデータを一時的に記憶する。記憶部303は、記憶装置(主記憶装置及び補助記憶装置)を含み、例えば、メモリー及びハードディスクドライブを含む。記憶部303はリムーバブルメディアを含んでもよい。記憶部303には、学習モデルLMと、第1重みWD1と、第2重みWD2と、第1対応表CS1と、第2対応表CS2と、第1学習プログラムLP1と、第2学習プログラムLP2とが記憶される。学習モデルLMと、第1重みWD1と、第2重みWD2と、第1対応表CS1と、第2対応表CS2と、第1学習プログラムLP1と、第2学習プログラムLP2とは、後述する。
【0039】
次に、
図3と
図4とを参照して学習モデルLMを詳しく説明する。
図4は、学習モデルLMを示す図である。
図3に示すように、記憶部303は、学習モデルLMを記憶する。
【0040】
図4に示すように、学習モデルLMは、自己組織化写像(Self-Organizing Maps:SOM)によって構築されるニューラルネットワークである。自己組織化写像は、教師なし学習によって得られる。具体的には、自己組織化写像は、教師なし学習によって、データを任意の次元へ写像することができる。
【0041】
学習モデルLMは、入力層LMAと、出力層LMBとを有する。例えば、入力層LMAは4個のニューロンを有する。以下、ニューロンのことをノードと記載する場合がある。出力層LMBは複数のノードを有する。出力層LMBの複数のノードは、例えば、第1ノード~第16ノードを有する。換言すると、出力層LMBは16個のノードを有する。自己組織化写像の出力層LMBは、いわゆる、競合層である。入力層LMAの各ノードは、出力層LMBの全てのノードと結合する。
【0042】
次に、
図3~
図5を参照して、学習モデルLMの学習について説明する。
図5は、学習モデルLMを示す別の図である。
図5に示すノードの位置は一例であり、ノードの位置は、使用者が変更できる。まず、使用者は、自己組織化写像で構築された学習モデルLMを準備する。準備するとは、サーバー装置300の記憶部303に学習モデルLMを記憶させることを示す。次に、
図3に示すように、ネットワークNを介して、画像形成装置100からライフサイクルデータLDを取得する。ライフサイクルデータLDは、例えば、市場で稼働中の100台の画像形成装置100における感光体ドラム116bに関する情報である。ライフサイクルデータLDは、いわゆる生データである。
【0043】
ライフサイクルデータLDは、制御部301に送信される。そして、制御部301は、ライフサイクルデータLDを正規化し、
図4に示すように、学習データSDを生成する。学習データSDは、画像形成装置100が有する部材の状態に関する情報である。画像形成装置100が有する部材は、例えば、感光体ドラム116bである。学習データSDは、第1データSD1と、第2データSD2と、第3データSD3と、第4データSD4とのうちの少なくとも1つを含む。第1データSD1~第4データSD4の各々は、「0」から「1」までの範囲に正規化されている。
【0044】
第1データSD1は、例えば、画像形成装置100の感光体ドラム116bの実回転カウント数を示す。第2データSD2は、例えば、画像形成装置100の露光部116aから感光体ドラム116bへのレーザー光の露光量を示す。第3データSD3は、例えば、画像形成装置100の感光体ドラム116bから中間転写ベルト116gに転写されたトナー像の濃度を示す。第4データSD4は、例えば、画像形成装置100の1日あたりの印刷枚数を示す。したがって、感光体ドラム116bの状態を示すデータを学習モデルLMが学習する。この結果、学習モデルLMを感光体ドラム116bの状態を分類する分類器とすることができる。
【0045】
具体的には、
図5に示すように、制御部301は、第1学習プログラムLP1にしたがって、学習モデルLMの入力層LMAに学習データSDを入力して、出力層LMBの16個のノードのそれぞれに互いに異なる第1重みWD1が設定されるようになるまで学習モデルLMの学習を続ける。第1学習プログラムLP1は記憶部303に記憶される。第1学習プログラムLP1は、学習データSDの中から一定の規則を見出し、見出した規則を表現する学習済みモデルを生成するための機械学習アルゴリズムを実行するためのプログラムである。16個のノードのそれぞれに互いに異なる第1重みWD1が設定されるまで続けられる学習を「低分解能学習」と記載する場合がある。第1重みWD1は、出力層LMBの16個のノードのうちの1つのノードに学習データSDを分類する係数を示す。
【0046】
また、16個のノードのそれぞれに互いに異なる第1重みWD1が設定されることは、入力層LMAの各ノードが出力層LMBの全てのノードと結合することを示す。つまり、入力層LMAの各ノードが出力層LMBの全てのノードと結合することで、各結合に第1重みWD1に関する係数が定義される。なお、第1重みWD1を、「低分解能パラメーター」と記載する場合がある。
【0047】
そして、低分解能パラメーターを適用した学習モデルLMは、入力データを16個のノードのうちの1つのノードに分類する分類器として機能する。以下、低分解能パラメーターを適用した学習モデルLMを、低分解能学習モデルLMと記載する場合がある。低分解能学習モデルLMは、学習データSDを大まかに分類する。
【0048】
更に、
図5に示すように、制御部301は、第2学習プログラムLP2にしたがって、学習モデルLMの入力層LMAに学習データSDを入力して、出力層LMBの16個のノードのそれぞれに互いに異なる第2重みWD2が設定されるようになるまで学習モデルLMの学習を続ける。第2学習プログラムLP2は記憶部303に記憶される。第2学習プログラムLP2は、学習データSDの中から一定の規則を見出し、見出した規則を表現する学習済みモデルを生成するための機械学習アルゴリズムを実行するためのプログラムである。16個のノードのそれぞれに互いに異なる第2重みWD2が設定されるまで続けられる学習を「高分解能学習」と記載する場合がある。第2重みWD2は、第1重みWD1と異なる。第2重みWD2は、第1重みWD1と比較して、例えば、単位が異なる。第2重みWD2は、出力層LMBの16個のノードのうちの1つのノードに学習データSDを分類する係数を示す。
【0049】
また、16個のノードのそれぞれに互いに異なる第2重みWD2が設定されることは、入力層LMAの各ノードが出力層LMBの全てのノードと結合することを示す。つまり、入力層LMAの各ノードが出力層LMBの全てのノードと結合することで、各結合に第2重みWD2に関する係数が定義される。なお、第2重みWD2を、「高分解能パラメーター」と記載する場合がある。
【0050】
なお、高分解能学習は、低分解能学習と異なる。具体的には、高分解能学習は、入力層LMAに入力する学習データSDを選別している。更に具体的には、学習データSDは、低分解能学習モデルLMの出力層LMBの16個のノードのうちの特定のノードに分類された学習データSDを含む。特定のノードは、
図5に示すように、第1ノード~第16ノードのうちのいずれかのノードである。更に、学習データSDは、低分解能学習モデルLMの出力層LMBの16個のノードのうちの特定のノードに隣接するノードに分類された学習データSDを含む。隣接するノードは、
図5に示すように、第1ノード~第16ノードのうち、特定のノードを除いたいずれかのノードである。また、特定のノードに隣接するノードは、特定のノードとクラスが近いノードを示す。つまり、高分解能学習の場合、特定のノードに分類された学習データSDと特定のノードに隣接するノードに分類された学習データSDとを学習データSDとする。そして、制御部301は、低分解能学習モデルLMの特定のノードに分類された学習データSDと低分解能学習モデルLMの出力層LMBの特定のノードに隣接するノードに分類された学習データSDとを学習モデルLMの入力層LMAに入力する。
【0051】
例えば、
図5に示すように、特定のノードが第11ノードである場合、制御部301は低分解能学習モデルLMの第11ノードに分類された学習データSDを取得する。そして、制御部301は低分解能学習モデルLMの第11ノードに隣接するノードに分類された学習データSDを取得する。
【0052】
低分解能学習モデルLMの第11ノードに隣接するノードは、第6ノードと、第7ノードと、第8ノードと、第10ノードと、第12ノードと、第14ノードと、第15ノードと、第16ノードとである。例えば、具体的には、
図5に示すように、第6ノードに分類された学習データSDと、第7ノードに分類された学習データSDと、第8ノードに分類された学習データSDと、第10ノードに分類された学習データSDと、第12ノードに分類された学習データSDと、第14ノードに分類された学習データSDと、第15ノードに分類された学習データSDと、第16ノードに分類された学習データSDとを、制御部301は取得する。そして、制御部301は、取得した複数の学習データSDを学習データSDとし、学習モデルLMの入力層LMAに入力する。そして、制御部301は、16個のノードのそれぞれに互いに異なる第2重みWD2が設定されるまで学習モデルLMの学習を続ける。したがって、低分解能学習を行った学習モデルLMと比較して、高分解能学習を行った学習モデルLMは、特定のノードに分類された学習データSDと特定のノードに隣接するノードに分類された学習データSDとを精度良く分類できる。この結果、学習モデルLMが精度良く分類した感光体ドラム116bの状態に基づいて、使用者は感光体ドラム116bの状態を精度良く予測できる。
【0053】
ライフサイクルデータLDには、様々な状態の画像形成装置100のデータが含まれる。様々な状態の画像形成装置100のデータを学習データSDとする低分解能学習では、画像形成装置100の詳しい状態を把握することが困難であった。例えば、ライフサイクルデータLDには、例えば、故障している画像形成装置100のデータが含まれる。一般的に故障している画像形成装置100のデータの数は、故障していない画像形成装置100のライフサイクルデータLDの数と比較して、少ない。つまり、低分解能学習モデルLMの故障の状態を示すノードの数は、故障の状態を示さないノードの数と比較して少なくなる。したがって、故障の状態を示すノードに入力データが分類されても、故障が詳細に把握されにくい。
【0054】
一方、高分解能学習では、低分解能学習モデルLMの特定のノードに分類されたデータと低分解能学習モデルLMの特定のノードに隣接するノードに分類されたデータを学習データSDとする。例えば、故障の状態を示すノードに分類されたデータと、故障の状態を示すノードに隣接するノードに分類されたデータとを高分解能学習モデルLMは学習する。よって、故障の状態を示すノードの数は、故障の状態を示さないノードの数と比較して多くなる。つまり、高分解能学習では、部材の状態が細分化され、より具体的な部材の状態を示すように学習モデルLMは学習する。したがって、高分解能学習モデルLMでは、データが具体的な部材の状態を示すノードに分類され、部材の状態を詳細に把握できる。
【0055】
また、高分解能パラメーターを適用した学習モデルLMは、入力データを16個のノードのうちの1つのノードに分類する分類器として機能する。以下、高分解能パラメーターを適用した学習モデルLMを、高分解能学習モデルLMと記載する場合がある。高分解能学習モデルLMは、学習データSDを詳細に分類する。
【0056】
また、本実施形態では、第1重みWD1を適用した学習モデルLMの出力層LMBのノードの個数と、第2重みWD2を適用した学習モデルLMの出力層LMBのノードの個数とは等しい。つまり、細分化した分類に入力データを分類する際に、ノード数が増加しない。したがって、画像形成装置100に学習モデルLMを実装した際に、学習モデルLMが記憶部120の容量を過剰に使用することを抑制できる。この結果、記憶容量が少ない実装対象であっても学習モデルLMを実装でき、入力データを精度良く分類できる。
【0057】
また、第1重みWD1を適用した学習モデルLMの入力データを分類するアルゴリズムと、第2重みWD2を適用した学習モデルLMの入力データを分類するアルゴリズムとは同じである。つまり、学習モデルLMに適用する重みを変更することで、入力データの分類精度を変更できる。例えば、第1重みWD1を適用した学習モデルLMは、入力データを大まかに分類できる。また、第2重みWD2を適用した学習モデルLMは、入力データを詳細に分類できる。したがって、2つの学習モデルLMを画像形成装置100の記憶部120に記憶させることを必要としない。この結果、画像形成装置100の記憶部120の容量を大きく使用することを抑制できる。
【0058】
次に、
図3~
図6を参照して、出力層LMBの16個のノードの各々への特徴付けについて説明する。
図6は、低分解能学習モデルLMの出力層LMBの16個のノードのそれぞれに感光体ドラム116bの状態を対応付けた第1対応表CS1の一例を示す。
【0059】
図6に示すように、第1対応表CS1は、第1重みWD1を適用した学習モデルLMの所定数のノードのそれぞれに関連付けられた部材の状態を示す。第2対応表CS2(
図3参照)は、第2重みWD2を適用した学習モデルLMの所定数のノードのそれぞれに関連付けられた部材の状態を示す。したがって、第1対応表CS1に基づいて、低分解能学習モデルLMの16個のノードに対応する部材の状態を制御部140が特定できる。更に、第2対応表CS2に基づいて、高分解能学習モデルLMの16個のノードに対応する部材の状態を制御部140が特定できる。この結果、使用者は、感光体ドラム116bの状態を知ることができる。
【0060】
本実施形態の制御部140は、低分解能学習モデルLMの出力層LMBの16個のノードに対応する第1対応表CS1を作成する。なお、使用者が第1対応表CS1を作成してもよい。第1対応表CS1における16個のノードの特徴付けは、学習データSDの平均値と、原点からのユークリッド距離とから算出される。また、ユークリッド距離が大きいほど、大きいノードに特徴付けられる。例えば、第1対応表CS1は、各ノードに対する感光体ドラム116bの状態を示す。
【0061】
図6に示されるように、第1ノードから第8ノードまでは、感光体ドラム116bの状態が「良好」であることを示す。第9ノードから第12ノードまでは、感光体ドラム116bの状態が「普通」であることを示す。第13ノードは、感光体ドラム116bの状態が「悪化の傾向」であることを示す。第14ノードは、トナー濃度が普通であるが、LSU露光量が上限値に達していることを示す。第15ノードは、トナー濃度が薄くなり、かつLSU露光量が上限値に達していることから、トナー濃度を維持することが困難な状態であることを示す。つまり、第15ノードは、LSU露光量が上限値に達したため上限値補正が必要であることを示す。第16ノードは、既に所望のトナー濃度が出ない状態であることを示す。つまり、第16ノードは、感光体ドラム116bの交換が必要であることを示す。
【0062】
また、制御部140は、高分解能学習モデルLMの出力層LMBの16個のノードに対応する第2対応表CS2を作成する。なお、使用者が第2対応表CS2を作成してもよい。第2対応表CS2における16個のノードの特徴付けは、第1対応表CS1と同様に、学習データSDの平均値と、原点からのユークリッド距離とから算出される。また、ユークリッド距離が大きいほど、大きいノードに特徴付けられる。例えば、第2対応表CS2は、各ノードに対する感光体ドラム116bの状態を示す。
【0063】
第2対応表CS2の部材の状態は、第1対応表CS1が示す部材の状態よりも詳細な部材の状態を示す。例えば、
図6に示すように第1対応表CS1では、「悪化の傾向」に対応するノードは第13ノードのみである。一方、例えば、第2対応表CS2では第13ノードの「悪化の傾向」に対応するノードが複数含まれる。例えば、第2対応表CS2では、「悪化の傾向A」、「悪化の傾向B」、「悪化の傾向C」、及び、「悪化の傾向D」が含まれる。「悪化の傾向A」~「悪化の傾向D」は、同じ部材の異なる状態を示す。つまり、第2対応表CS2では、「悪化の傾向」に対応するノードが4個あり、4個のノードのそれぞれが同じ部材の異なる悪化の傾向を示す。したがって、入力データをより適合するノードに分類し、第2対応表CS2によって部材の詳細な状態がわかる。
【0064】
次に、
図7と
図8とを参照して、制御部301が第1学習プログラムLP1に基づいて学習モデルLMを学習させる際の処理と、制御部301が第2学習プログラムLP2に基づいて学習モデルLMを学習させる際の処理とを説明する。
図7は、制御部301が実行する処理を示すフローチャートの一部である。
図8は、制御部301が実行する処理を示すフローチャートの他の一部である。
図7と
図8とに示すように、制御部301が実行する処理は、ステップS101~ステップS118を含む。具体的には、
図7に示すステップS101~ステップS107は、低分解能学習で実行する処理を示している。
図8に示すステップS111~ステップS118は、高分解能学習で実行する処理を示している。
【0065】
ステップS101において、制御部301は、ライフサイクルデータLDを取得する。具体的には、制御部301は、通信部302が画像形成装置100からライフサイクルデータLDを取得するように、通信部302を制御する。処理はステップS102に進む。
【0066】
ステップS102において、制御部301は、ライフサイクルデータLDに基づいて、学習データSDを生成する。処理は、ステップS103に進む。
【0067】
ステップS103において、制御部301は、学習モデルLMの入力層LMAに学習データSDを入力する。処理はステップS104に進む。
【0068】
ステップS104において、制御部301は、学習モデルLMの出力層LMBが所定数のノードの各々に第1重みWD1を設定するように、学習モデルLMに学習させる。処理はステップS105に進む。
【0069】
ステップS105において、制御部301は、学習の終了条件を満たすか否かを判定する。学習の終了条件を満たさない場合(ステップS105において、No)、処理は、ステップS101に戻る。学習の終了条件を満たす場合(ステップS105において、Yes)、処理はステップS106に進む。
【0070】
ステップS105でYesの場合、ステップS106において、制御部301は、終了条件を満たした第1重みWD1を記憶部303が記憶するように、記憶部303を制御する。処理はステップS106に進む。
【0071】
ステップS107において、制御部301は、第1対応表CS1を記憶部303が記憶するように、記憶部303を制御する。処理は、
図8に示すステップS111に進む。
【0072】
図8に示すように、ステップS111において、制御部301は、16個のノードのそれぞれに設定された第1重みWD1に基づいて、学習モデルLMに学習データSDを16個のノードのうちの1つに分類させる。処理は、ステップS112に進む。
【0073】
ステップS112において、制御部301は、16個のノードのうち特定のノードに分類された学習データSDを取得する。処理は、ステップS113に進む。
【0074】
ステップS113において、制御部301は、16個のノードのうち特定のノードに隣接するノードに分類された学習データSDを取得する。処理は、ステップS114に進む。
【0075】
ステップS114において、制御部301は、学習モデルLMの入力層LMAに学習データSDを入力する。処理はステップS115に進む。
【0076】
ステップS115において、制御部301は、学習モデルLMの出力層LMBが所定数のノードの各々に第2重みWD2を設定するように、学習モデルLMに学習させる。処理はステップS116に進む。
【0077】
ステップS116において、制御部301は、学習の終了条件を満たすか否かを判定する。学習の終了条件を満たさない場合(ステップS116において、No)、処理は、ステップS111に戻る。学習の終了条件を満たす場合(ステップS116において、Yes)、処理はステップS117に進む。
【0078】
ステップS116でYesの場合、ステップS117において、制御部301は、終了条件を満たした第2重みWD2を記憶部303が記憶するように、記憶部303を制御する。処理はステップS118に進む。
【0079】
ステップS118において、制御部301は、第2対応表CS2を記憶部303が記憶するように、記憶部303を制御する。処理は終了する。
【0080】
次に
図2と
図9とを参照して画像形成装置100について更に詳しく説明する。
図9は、画像形成装置100の構成を示すブロック図である。
図2に示されるように、画像形成装置100は、ドラム回転数カウンター161と、露光量センサー162と、トナー濃度センサー163と、印刷枚数カウンター164とを更に備える。
【0081】
ドラム回転数カウンター161は、感光体ドラム116bの回転数を示す第1生データID1を制御部140に提供する。ドラム回転数カウンター161は、感光体ドラム116bを回転駆動するモーターに取り付けられる。第1生データID1は、例えば感光体ドラム116bの実回転カウント数を示す。第1生データID1は、「第1データ」の一例に相当する。感光体ドラム116bの周長に感光体ドラム116bの実回転カウント数を乗じて得られる値は、感光体ドラム116bの総走行距離を示す。
【0082】
露光量センサー162は、露光部116aから感光体ドラム116bへのレーザー光の露光量を示す第2生データID2を制御部140に提供する。露光部116aは、LSU(Laser Scanning Unit)を備える。第2生データID2は、例えばLSU露光量を示す。第2生データID2は、「第2データ」の一例に相当する。
【0083】
トナー濃度センサー163は、感光体ドラム116bから中間転写ベルト116gに転写されたトナー像の濃度を示す第3生データID3を制御部140に提供する。第3生データID3は、例えば中間転写ベルト116gの表面上に形成されたパッチの濃度を示す。第3生データID3は、「第3データ」の一例に相当する。
【0084】
印刷枚数カウンター164は、ユーザーによる画像形成装置100の使用頻度を示す第4生データID4を制御部140に提供する。第4生データID4は、例えば1日あたりの印刷枚数を示す。第4生データID4は、「第4データ」の一例に相当する。
【0085】
第1生データID1~第4生データID4を受け取った制御部140は、第1生データID1と、第2生データID2と、第3生データID3と、第4生データID4とのうちの少なくとも1つを含む入力データを生成する。以下、入力データを入力データIDと記載する場合がある。
【0086】
記憶部120は、学習済みモデルLMと、第1重みWD1と、第2重みWD2と、第1対応表CS1と、第2対応表CS2とを記憶する。学習済みモデルLMは、サーバー装置300から受信した学習モデルLMである。また、第1重みWD1と第2重みWD2と、第1対応表CS1と、第2対応表CS2とは、学習モデルLMと共に、サーバー装置300から受信する。
【0087】
引き続き、
図9を参照して、実施形態1の画像形成装置100の制御部140を詳しく説明する。
【0088】
制御部140は、実行部141と、変更部142と、判定部143と、推定部144とを含む。制御部140は、記憶部120に記憶されたコンピュータープログラムを実行することによって、実行部141、変更部142、判定部143、及び、推定部144として機能する。
【0089】
実行部141は、部材に関する入力データを入力層LMAに入力して、入力データを所定数のノードのうちの1つのノードに分類した分類結果を出力層LMBに出力させる。具体的には、実行部141は、第1重みWD1を適用した学習済みモデルLMの入力層LMAに入力データIDを入力し、入力データIDを所定数のノードのうちの1つのノードに分類した第1分類結果を出力層LMBに出力させる。また、実行部141は、第2重みWD2を適用した学習済みモデルLMの入力層LMAに入力データIDを入力し、入力データIDを所定数のノードのうちの1つのノードに分類した第2分類結果を出力層LMBに出力させる。
【0090】
推定部144は、部材の状態を推定する。具体的には、推定部144は、第1分類結果と第1対応表CS1とに基づいて、部材の状態を推定する。したがって、推定部144は、感光体ドラム116bの状態を推定できる。この結果、推定部144の推定結果から、使用者は感光体ドラム116bの状態を認識できる。
【0091】
変更部142は、学習済みモデルLMが出力した分類結果に基づいて、学習済みモデルLMに適用する重みを第1重みWD1と第2重みWD2との間で変更する。具体的には、変更部142は、第1分類結果に基づいて、学習済みモデルLMに適用する重みを第1重みWD1と第2重みWD2との間で変更する。したがって、分類結果に応じて、入力データを大まかに分類するか詳細に分類するかを変更できる。この結果、1つの学習済みモデルLMに適用する重みを変更することで、使用者の目的に応じた分類を行うことができる。
【0092】
例えば、感光体ドラム116bの状態を詳細に知りたい場合、学習済みモデルLMに適用する重みを第2重みWD2に変更する。したがって、入力データが感光体ドラム116bの具体的な状態を示すノードに分類され、使用者は、画像形成装置100の状態を詳細に把握できる。この結果、使用者は、感光体ドラム116bの状態を詳細に知ることができる。
【0093】
判定部143は、第1分類結果に基づいて、入力データが所定のノードに分類されたか否かを判定する。所定のノードは、予め定められたノードである。予め定められたノードは、使用者によって設定される。所定のノードは、例えば、部材が故障している状態を示す。具体的には、例えば、所定のノードは、感光体ドラム116bが故障している状態を示す。
【0094】
そして、変更部142は、判定部143の判定結果に基づいて、学習済みモデルLMに適用する重みを第1重みWD1から第2重みWD2に変更する。したがって、第2重みWD2を適用した学習済みモデルLMによって入力データを分類できる。この結果、入力データを更に精度よく分類できる。
【0095】
推定部144は、第2分類結果と第2対応表CS2とに基づいて、部材の状態を推定する。したがって、推定部144は、精度よく分類された部材の状態を第2対応表CS2から推定できる。この結果、推定部144の推定結果から、使用者は感光体ドラムの状態を認識できる。
【0096】
次に、
図10(a)と
図10(b)とを参照して、画像形成装置100の学習済みモデルLMが入力データを分類する処理を説明する。
図10(a)は、第1重みWD1を適用した学習済みモデルLMの処理を示す模式図である。
図10(b)は、第2重みWD2を適用した学習済みモデルLMの処理を示す模式図である。
【0097】
まず、
図10(a)に示すように、学習済みモデルLMには、第1重みWD1が適用される。第1重みWD1が適用された学習済みモデルLMの入力層LMAには、入力データIDが入力される。次に、学習済みモデルLMは、第1重みWD1に基づいて、入力層LMAに入力された入力データIDを出力層LMBの16個のノードのうちの1つに分類する。例えば、
図10(a)に示す16個のノードのうちの第11ノードに入力データを分類する。つまり、学習済みモデルLMの出力層LMBは、第11ノードに入力データが分類されたことを示す第1分類結果を出力する。
【0098】
次に、判定部143は、第1分類結果に基づいて、入力データが所定のノードに分類されたか否かを判定する。所定のノードは、例えば、第11ノードと、第12ノードと、第15ノードと、第16ノードである。所定のノードは、複数のノードであってもよいし、1つのノードであってもよい。つまり、判定部143は、第1分類結果が所定のノードに分類されたと判定する。
【0099】
第1分類結果が所定のノードに分類されたと判定部143が判定する場合、
図10(b)に示すように、変更部142は、学習済みモデルLMの重みを第1重みWD1から第2重みWD2に変更する。次に、実行部141は、第2重みWD2を適用した学習済みモデルLMの入力層LMAに入力データIDを入力し、入力データIDを所定数のノードのうちの1つのノードに分類した第2分類結果を出力層LMBに出力させる。例えば、第2分類結果は、入力データIDが第2ノードに分類されたことを示す。
【0100】
次に、推定部144は、第2分類結果と第2対応表CS2とに基づいて、部材の状態を推定する。例えば、推定部144は、感光体ドラム116bの詳細な状態を推定できる。この結果、推定部144の推定結果から、使用者は感光体ドラム116bの状態を認識できる。
【0101】
なお、第1分類結果が所定のノードに分類されていないと判定部143が判定する場合、推定部144は、第1分類結果と第1対応表CS1に基づいて、画像形成装置100の部材の状態を推定する。
【0102】
次に、
図11と
図12とに基づいて、画像形成装置100の制御部140が実行する処理を説明する。
図11は、画像形成装置100の制御部140が実行する処理を示すフローチャートの一部である。
図12は、画像形成装置100の制御部140が実行する処理を示すフローチャートの更に一部である。
図11と
図12とに示す画像形成装置100の制御部140が実行する処理は、ステップS121~ステップS136を含む。
【0103】
ステップS121において、制御部140は入力データIDを取得する。処理はステップS122に進む。
【0104】
ステップS122において、制御部140は第1分類結果が存在するか否かを判定する。第1分類結果が存在しない場合(ステップS122において、No)、処理は
図12に示すステップS131に進む。第1分類結果が存在しない場合(ステップS122において、Yes)、処理は、ステップS123に進む。
【0105】
ステップS122でNoの場合、ステップS123において、変更部142は学習済みモデルLMの重みを第1重みWD1に変更する。処理は、ステップS124に進む。
【0106】
ステップS124において、実行部141は、第1重みWD1を適用した学習済みモデルLMに入力データIDを入力する。処理はステップS125に進む。
【0107】
ステップS125において、実行部141は、学習済みモデルLMに入力データを分類させる。具体的には、実行部141は、出力層LMBの所定数のノードのうちの1つのノードに入力データを分類させ、学習済みモデルLMに第1分類結果を出力させる。処理は、
図12に示すステップS131に進む。
【0108】
図11に示すステップS122でYesの場合、
図12に示すように、ステップS131において、判定部143は、第1分類結果に基づいて、入力データIDが所定のノードに分類されたか否かを判定する。入力データIDが所定のノードに分類されない場合(ステップS131において、No)、処理はステップS136に進む。入力データIDが所定のノードに分類された場合(ステップS131において、Yes)、処理はステップS132に進む。
【0109】
ステップS131でYesの場合、ステップS132において、変更部142は、学習済みモデルLMの重みを第2重みWD2に変更する。処理はステップS133に進む。
【0110】
ステップS133において、実行部141は、第2重みWD2を適用した学習済みモデルLMに入力データIDを入力する。処理はステップS134に進む。
【0111】
ステップS134において、実行部141は、学習済みモデルLMに入力データを分類させる。具体的には、実行部141は、出力層LMBの所定数のノードのうちの1つのノードに入力データを分類させ、学習済みモデルLMに第2分類結果を出力させる。処理は、ステップS135に進む。
【0112】
ステップS135において、推定部144は、第2分類結果と第2対応表CS2とに基づいて、画像形成装置100の部材の状態を推定する。処理は、終了する。
【0113】
ステップS131でNoの場合、ステップS136において、推定部144は、第1分類結果と第1対応表CS1とに基づいて、画像形成装置100の部材の状態を推定する。処理は、終了する。
【0114】
なお、推定部144の推定結果は、制御部140が使用者に報知してもよい。また、推定結果を専用の端末で使用者が取得してもよい。
【0115】
[実施形態2]
次に、
図13を参照して、実施形態2の画像形成装置100を説明する。実施形態2の画像形成装置100の記憶部120は、複数の第2重みWD20と、複数の第2対応表CS20とを有する点で、実施形態1の画像形成装置100と異なる。換言すると、実施形態2では、出力層LMBの16個のノードのそれぞれに設定される第2重みWD2のセットが複数ある。実施形態2では、第2重みWD2のセットの数に対応した第2対応表CSが複数ある。以下、実施形態2について、実施形態1と異なる事項について説明し、実施形態1と重複する部分についての説明は割愛する。
図13は、実施形態2の画像形成装置100の構成を示す図である。
【0116】
実施形態2の画像形成装置100は、画像形成部110と、記憶部120と、通信部130と、制御部140と、ドラム回転数カウンター161と、露光量センサー162と、トナー濃度センサー163と、印刷枚数カウンター164とを備える。
【0117】
画像形成部110は、シートSに画像を形成する。記憶部120は、データ及びコンピュータープログラムを記憶する。通信部130は、ネットワークNを介してサーバー装置300と通信する。制御部140は、CPUのようなプロセッサーを含む。制御部140のプロセッサーは、記憶部120に記憶されたコンピュータープログラムを実行することによって、画像形成装置100の各構成を制御する。ドラム回転数カウンター161は、感光体ドラム116bの回転数を示す第1生データID1を制御部140に提供する。露光量センサー162は、露光部116aから感光体ドラム116bへのレーザー光の露光量を示す第2生データID2を制御部140に提供する。トナー濃度センサー163は、感光体ドラム116bから中間転写ベルト116gに転写されたトナー像の濃度を示す第3生データID3を制御部140に提供する。印刷枚数カウンター164は、ユーザーによる画像形成装置100の使用頻度を示す第4生データID4を制御部140に提供する。
【0118】
記憶部120は、学習済みモデルLMと、第1重みWD1と、複数の第2重みWD20と、第1対応表CS1と、複数の第2対応表CS20とを記憶する。
【0119】
学習済みモデルLMは、サーバー装置300から送信された学習モデルLMである。学習済みモデルLMは自己組織化写像によって構築される。
【0120】
第1重みWD1は、出力層LMBの16個のノードのうちの1つのノードに入力データを分類する係数を示す。
【0121】
複数の第2重みWD20は、第1重みWD1と異なる。複数の第2重みWD20のそれぞれは、出力層LMBの16個のノードのうちの1つのノードに入力データを分類する係数を示す。
【0122】
実施形態2の第2重みWD20は、第1重みWD1を適用した学習済みモデルLMのうちの1つのノードが示す状態を更に詳細に分類できる。つまり、実施形態2では、第1重みWD1を適用した学習済みモデルLMの第1ノード~第16ノードのそれぞれが示す状態を更に詳細に分類できる。具体的には、複数の第2重みWD20は、第2重みWD21~第2重みWD35を含む。第2重みWD21~第2重みWD35のそれぞれは、第1重みWD1を適用した学習済みモデルLMの第1ノード~第16ノードに対応する。
【0123】
例えば、第2重みWD21は、第1重みWD1を適用した学習済みモデルLMが、第1ノードに分類した学習データSDと、第1ノードに隣接するノードに分類された学習データSDとを学習モデルLMが学習することで、出力層LMBの16個のノードのそれぞれに設定された重みである。つまり、第2重みWD21を適用した学習済みモデルLMは、第1重みWD1を適用した学習済みモデルLMの第1ノードに対応する部材の状態より、更に詳細な部材の状態を示すノードに入力データIDを分類できる。
【0124】
第1対応表CS1は、第1重みWD1を適用した学習済みモデルLMの所定数のノードのそれぞれに関連付けられた部材の状態を示す。
【0125】
複数の第2対応表CS20の各々は、第2重みWD20を適用した学習済みモデルLMの所定数のノードのそれぞれに関連付けられた部材の状態を示す。複数の第2対応表CS20は、第2対応表CS21~第2対応表CS35を含む。第2対応表CS21~第2対応表CS35は、第2重みWD21~第2重みWD35に対応する。例えば、第2対応表CS21は、第2重みWD21に対応する。つまり、第2対応表CS21は、第2重みWD21が設定された16個のノードに対応する。
【0126】
実施形態2に示す画像形成装置100の制御部140が実行する処理では、実行部141は、第1第1重みWD1を適用した学習済みモデルLMの入力層LMAに、入力データIDを入力する。次に、実行部141は、第1重みWD1を適用した学習済みモデルLMの出力層LMBの複数のノードのうちの1つのノードに入力データIDを分類させ、第1分類結果を出力させる。
【0127】
次に、変更部142は、第1分類結果に基づいて、複数の第2重みWD20のうち、第1分類結果に対応する第2重みに学習済みモデルLMの重みを変更する。例えば、第1分類結果が第1ノードである場合、変更部142は学習済みモデルLMの重みを第2重みWD21に変更する。次に、第2重みWD21が適用された学習済みモデルLMに、実行部141は入力データIDを入力する。
【0128】
次に、実行部141は、第2重みWD21を適用した学習済みモデルLMの出力層LMBの複数のノードのうちの1つのノードに入力データIDを分類させ、第2分類結果を出力させる。そして、推定部144は、第2分類結果と第2重みWD21に対応する第2対応表CS21に基づいて、感光体ドラム116bの状態を推定する。推定結果は、制御部140が使用者に報知してもよい。
【0129】
実施形態2の画像形成装置100が実行する処理では、入力データIDを大まかに分類し、次に入力データIDを詳細に分類できる。したがって、入力データIDを分類するためのノードの数の増加を抑制しつつ、分類精度を向上できる。この結果、学習済みモデルLMが実装対象の記憶部120の記憶容量を大きく使用することを抑制できる。
【0130】
次に、
図14を参照して、実施形態2の画像形成装置100が実行する処理を説明する。
図14は、実施形態2の画像形成装置100が実行する処理を示すフローチャートである。実施形態2の画像形成装置100が実行する処理は、ステップS141~ステップS149を含む。また、
図14に示すステップS141~ステップS145は、
図11に示すステップS121~ステップS125に対応する。
図14に示すステップS146~ステップS149は、
図12に示すステップS132~ステップS135に対応する。
【0131】
以上、図面を参照しながら本発明の実施形態を説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。また、上記の各実施形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明の形成が可能である。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の厚み、長さ、個数、間隔等は、図面作成の都合上から実際とは異なる。また、上記の実施形態で示す各構成要素の速度、材質、形状、寸法等は一例であって、特に限定されるものではなく、本発明の構成から実質的に逸脱しない範囲で種々の変更が可能である。
【0132】
(1)実施形態1では、低分解能学習モデルLMが特定のノードに分類した学習データSDと低分解能学習モデルLMが特定のノードと隣接するノードに分類した学習データSDとで高分解能学習を行ったがこれに限らない。例えば、高分解能学習をする場合、低分解能学習モデルLMが特定のノードに分類した学習データSDのみを学習モデルLMの入力層LMAに入力して、学習モデルLMを学習させてもよい。例えば、特定のノードが第11ノードである場合、制御部301は低分解能学習モデルLMに第11ノードに分類された入力データを取得する。そして、制御部301は、取得した入力データを学習データSDとして入力層LMAに入力する。そして、16個のノードのそれぞれに互いに異なる第2重みWD2が設定されるまで学習を続ける。したがって、高分解能学習モデルLMでは、入力データIDをより詳細に分類できる。この結果、学習モデルLMが精度の高い分類を実行できる。
【0133】
(2)また、サーバー装置300の制御部301は、低分解能学習と高分解能学習とを続けてもよい。そして、第1重みWD1と第2重みWD2とは、サーバー装置300から定期的に画像形成装置100に送信される。第1重みWD1と第2重みWD2とを受け取った画像形成装置100は、記憶部120に記憶する第1重みWD1と第2重みWD2とを更新する。よって画像形成装置100の学習済みモデルLMは、更新した第1重みWD1と更新した第2重みWD2とのうちのいずれかを適用できる。
【0134】
(3)実施形態1では、高分解能学習は、1度のみ実行されていたがこれに限らない。つまり、高分解能学習モデルLMが特定のノードに分類した学習データSDと高分解能学習モデルLMが特定のノードに隣接するノードに分類した学習データSDとを学習モデルLMに学習させてもよい。したがって、学習モデルLMは、高分解能学習モデルLMよりも、適切な分類に分類できる。この結果、更に詳細な分類に入力データIDを分類できる学習モデルLMを得ることができる。
【産業上の利用可能性】
【0135】
本発明は、学習モデルの生成方法、学習モデル及び画像形成装置を提供するものであり、産業上の利用可能性を有する。
【符号の説明】
【0136】
100 :画像形成装置
114 :搬送部
114a :搬送ローラー
116b :感光体ドラム
120 :記憶部
140 :制御部
141 :実行部
142 :変更部
143 :判定部
144 :推定部
CS1 :第1対応表
CS2 :第2対応表
LM :学習モデル(学習済みモデル)
LMA :入力層
LMB :出力層
LP :学習プログラム
LP1 :学習プログラム
LP2 :学習プログラム
SD :学習データ
ID :入力データ
WD1 :第1重み
WD2 :第2重み