(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-07-29
(45)【発行日】2024-08-06
(54)【発明の名称】画像形成部の状態を推定する画像形成システム、画像形成方法、及び画像形成プログラム
(51)【国際特許分類】
G06N 3/088 20230101AFI20240730BHJP
G06N 20/00 20190101ALI20240730BHJP
G03G 21/00 20060101ALN20240730BHJP
【FI】
G06N3/088
G06N20/00 160
G03G21/00 512
(21)【出願番号】P 2023520896
(86)(22)【出願日】2022-03-24
(86)【国際出願番号】 JP2022014104
(87)【国際公開番号】W WO2022239516
(87)【国際公開日】2022-11-17
【審査請求日】2023-10-30
(31)【優先権主張番号】P 2021082550
(32)【優先日】2021-05-14
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】000006150
【氏名又は名称】京セラドキュメントソリューションズ株式会社
(74)【代理人】
【識別番号】110003443
【氏名又は名称】弁理士法人TNKアジア国際特許事務所
(72)【発明者】
【氏名】宮地 直也
【審査官】大倉 崚吾
(56)【参考文献】
【文献】特開2011-086132(JP,A)
【文献】特開平9-179458(JP,A)
【文献】特開平8-006324(JP,A)
【文献】島田敦士 ほか,"自己組織化マップにおける追加学習の実現法",九州大学大学院システム情報科学紀要 [online],2007年,Vol. 12,No. 1,p. 49-54,[2024年06月17日検索],インターネット<URL:https://catalog.lib.kyushu-u.ac.jp/opac_detail_md/?lang=0&amode=MD100000&bibid=1517818>
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
G03G 21/00
(57)【特許請求の範囲】
【請求項1】
画像を形成するための画像形成部と、
前記画像形成部の複数の状態量を計測する状態計測部と、
前記複数の状態量である学習データに基づいて、入力層と複数のノードを有する出力層とを有し、前記画像形成部を分類するための自己組織化マップを生成する学習処理部と、
前記自己組織化マップを使用して前記画像形成部を分類することによって、前記画像形成部の状態を推定する状態推定部と、
を備え、
前記学習処理部は、前記学習データのうちの時系列的に先に取得した第1の学習データと、時系列的に後に取得した第2の学習データとを用い、前記第1の学習データを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第1のヒット数を取得するとともに第1の自己組織化マップを生成し、前記第1の自己組織化マップと前記第2の学習データとを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第2のヒット数を取得するとともに前記第1の自己組織化マップを更新することによって第2の自己組織化マップを生成し、
前記更新では、前記複数のノード毎における前記第1の自己組織化マップと更新対象である自己組織化マップの間のユークリッド距離と前記第1のヒット数の積と、前記複数のノード毎における前記第2の学習データと前記更新対象である自己組織化マップの間のユークリッド距離と前記第2のヒット数の積とに基づいて更新量を調整する画像形成システム。
【請求項2】
前記学習処理部を有し、通信可能なサポート用コンピュータと、
前記画像形成部と、前記状態計測部と、前記サポート用コンピュータと通信可能な通信インターフェースとを有し、前記通信インターフェースを介して、前記サポート用コンピュータに前記複数の状態量である学習データを送信し、前記サポート用コンピュータから前記第2の自己組織化マップを受信する複数の画像形成装置と、
を備える、請求項1記載の画像形成システム。
【請求項3】
前記画像形成装置はそれぞれに、前記通信インターフェースを介した、前記サポート用コンピュータへの前記学習データの送信を、(i)予め定められた時間毎に、又は(ii)前記画像形成部が備える前記状態の推定の対象となる部品が交換された時、に行われる、請求項2記載の画像形成システム。
【請求項4】
前記サポート用コンピュータは、クラウドコンピューティングによって構成されている、請求項2記載の画像形成システム。
【請求項5】
前記学習処理部は、前記第1の自己組織化マップと更新対象である自己組織化マップの間のユークリッド距離と前記第1のヒット数の積と、前記第2の学習データと前記更新対象である自己組織化マップの間のユークリッド距離と前記第2のヒット数の積とを含む負の値を有する目的関数を最大化するように前記更新を実行する、請求項1に記載の画像形成システム。
【請求項6】
前記学習処理部は、前記第1の自己組織化マップの複数のノードのうちの一部のノードに対応する学習データを使用して前記第1の自己組織化マップよりも部分的に解像度が高い第1の高解像度自己組織化マップを生成し、前記第1の高解像度自己組織化マップに対して前記更新を実行することによって第2の高解像度自己組織化マップを生成する、請求項1に記載の画像形成システム。
【請求項7】
前記複数の状態量は、感光体ドラムの総走行距離と、露光量と、画像形成濃度と、画像形成量とを含み、
前記状態推定部は、前記感光体ドラムの状態を推定する、請求項1に記載の画像形成システム。
【請求項8】
画像を形成するための画像形成部の複数の状態量を計測する状態計測工程と、
前記複数の状態量である学習データに基づいて、入力層と複数のノードを有する出力層とを有し、前記画像形成部を分類するための自己組織化マップを生成する学習処理工程と、
前記自己組織化マップを使用して前記画像形成部を分類することによって、前記画像形成部の状態を推定する状態推定工程と、
を備え、
前記学習処理工程は、前記学習データのうちの時系列的に先に取得した第1の学習データと、時系列的に後に取得した第2の学習データとを用い、前記第1の学習データを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第1のヒット数を取得するとともに第1の自己組織化マップを生成し、前記第1の自己組織化マップと前記第2の学習データとを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第2のヒット数を取得するとともに前記第1の自己組織化マップを更新することによって第2の自己組織化マップを生成する工程を含み、
前記更新では、前記複数のノード毎における前記第1の自己組織化マップと更新対象である自己組織化マップの間のユークリッド距離と前記第1のヒット数の積と、前記複数のノード毎における前記第2の学習データと前記更新対象である自己組織化マップの間のユークリッド距離と前記第2のヒット数の積とに基づいて更新量を調整する画像形成方法。
【請求項9】
第1プログラム及び第2プログラムを備える画像形成プログラムであって、
前記第1プログラムは、サポート用コンピュータに備えられる第1プロセッサーを、画像を形成するための画像形成部の複数の状態量である学習データに基づいて、入力層と複数のノードを有する出力層とを有し、前記画像形成部を分類するための自己組織化マップを生成する学習処理部として機能させ、
更に、前記第2プログラムは、画像形成装置に備えられる第2プロセッサーを、前記自己組織化マップを使用して前記画像形成部を分類することによって、前記画像形成部の状態を推定する状態推定部として機能させ、
前記学習処理部は、前記学習データのうちの時系列的に先に取得した第1の学習データと、時系列的に後に取得した第2の学習データとを用い、前記第1の学習データを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第1のヒット数を取得するとともに第1の自己組織化マップを生成し、前記第1の自己組織化マップと前記第2の学習データとを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第2のヒット数を取得するとともに前記第1の自己組織化マップを更新することによって第2の自己組織化マップを生成し、
前記更新では、前記複数のノード毎における前記第1の自己組織化マップと更新対象である自己組織化マップの間のユークリッド距離と前記第1のヒット数の積と、前記複数のノード毎における前記第2の学習データと前記更新対象である自己組織化マップの間のユークリッド距離と前記第2のヒット数の積とに基づいて更新量を調整する。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像形成部の状態を推定する画像形成システム、画像形成方法、及び画像形成プログラムに関し、特に機械学習を利用する状態推定技術に関する。
【背景技術】
【0002】
画像形成装置(たとえばプリンター、多機能プリンター、又は複合機(Multifunction Peripheral)のメインテナンスでは、その内部装置(たとえば感光体)の状態を正確に推定することが望まれる。このような問題に対し、特許文献1は、感光体ドラムの寿命を算出し、感光体ドラムの寿命を検知する寿命カウンタと、感光体ドラム1に当接する当接部材の装着の有無を検知する当接部材検知手段とを備え、当接部材検知手段の検知結果に基づき、感光体ドラムの寿命の算出方法を変更する技術を提案している。これにより、特許文献1は、市場のニーズに合わせて画像形成装置の部品が生産後に追加や変更された場合であっても、寿命カウンタにより適正な寿命の到来を検知することができるとしている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上述の技術は、単一の状態量である寿命カウンタの値を使用して寿命の到来を予測して感光体の適切な交換を可能とするに留まり、感光体の状態に応じて画像形成装置自身で行う自己修復機能の利用可能性といった対策や感光体の状態に応じた適切な対応が求められるサービスマンに対する感光体の状態の提供が困難である。このような問題は、たとえば複数の状態量を使用して感光体の状態を推定可能な機械学習による対策も考えられる。ところが、機械学習にもさまざまな種類があり、画像形成装置の運用に対して適切な人工知能の種類の選択及び適用方法は十分に検討されていなかった。
【0005】
本発明は、このような状況に鑑みてなされたものであり、機械学習を利用して画像形成装置の内部状態の推定を効率的かつ効果的に実現するための技術を提供することを目的とする。
【0006】
本発明の一局面として、上記技術を更に改良した技術を提案する。
本発明の一局面に係る画像形成システムは、画像形成部と、状態計測部と、学習処理部と、状態推定部とを備える。前記画像形成部は、画像を形成する。前記状態計測部は、前記画像形成部の複数の状態量を計測する。前記学習処理部は、前記複数の状態量である学習データに基づいて、入力層と複数のノードを有する出力層とを有し、前記画像形成部を分類するための自己組織化マップを生成する。前記状態推定部は、前記自己組織化マップを使用して前記画像形成部を分類することによって、前記画像形成部の状態を推定する。更に、前記学習処理部は、前記学習データのうちの時系列的に先に取得した第1の学習データと、時系列的に後に取得した第2の学習データとを用い、前記第1の学習データを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第1のヒット数を取得するとともに第1の自己組織化マップを生成し、前記第1の自己組織化マップと前記第2の学習データとを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第2のヒット数を取得するとともに前記第1の自己組織化マップを更新することによって第2の自己組織化マップを生成する。前記更新では、前記複数のノード毎における前記第1の自己組織化マップと更新対象である自己組織化マップの間のユークリッド距離と前記第1のヒット数の積と、前記複数のノード毎における前記第2の学習データと前記更新対象である自己組織化マップの間のユークリッド距離と前記第2のヒット数の積とに基づいて更新量を調整する。
【0007】
本発明の一局面に係る画像形成方法は、画像を形成するための画像形成部の複数の状態量を計測する状態計測工程と、前記複数の状態量である学習データに基づいて、入力層と複数のノードを有する出力層とを有し、前記画像形成部を分類するための自己組織化マップを生成する学習処理工程と、前記自己組織化マップを使用して前記画像形成部を分類することによって、前記画像形成部の状態を推定する状態推定工程と、備え、前記学習処理工程は、前記学習データのうちの時系列的に先に取得した第1の学習データと、時系列的に後に取得した第2の学習データとを用い、前記第1の学習データを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第1のヒット数を取得するとともに第1の自己組織化マップを生成し、前記第1の自己組織化マップと前記第2の学習データとを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第2のヒット数を取得するとともに前記第1の自己組織化マップを更新することによって第2の自己組織化マップを生成する工程を含み、前記更新では、前記複数のノード毎における前記第1の自己組織化マップと更新対象である自己組織化マップの間のユークリッド距離と前記第1のヒット数の積と、前記複数のノード毎における前記第2の学習データと前記更新対象である自己組織化マップの間のユークリッド距離と前記第2のヒット数の積とに基づいて更新量を調整する画。
【0008】
本発明の一局面に係る画像形成プログラムは、第1プログラム及び第2プログラムを備える画像形成プログラムである。前記第1プログラムは、サポート用コンピュータに備えられる第1プロセッサーを、画像を形成するための画像形成部の複数の状態量である学習データに基づいて、入力層と複数のノードを有する出力層とを有し、前記画像形成部を分類するための自己組織化マップを生成する学習処理部として機能させる。更に、前記第2プログラムは、画像形成装置に備えられる第2プロセッサーを、前記自己組織化マップを使用して前記画像形成部を分類することによって、前記画像形成部の状態を推定する状態推定部として機能させる。前記学習処理部は、前記学習データのうちの時系列的に先に取得した第1の学習データと、時系列的に後に取得した第2の学習データとを用い、前記第1の学習データを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第1のヒット数を取得するとともに第1の自己組織化マップを生成し、前記第1の自己組織化マップと前記第2の学習データとを使用するバッチ処理によって前記複数のノードのそれぞれのヒット数である第2のヒット数を取得するとともに前記第1の自己組織化マップを更新することによって第2の自己組織化マップを生成する。前記更新では、前記複数のノード毎における前記第1の自己組織化マップと更新対象である自己組織化マップの間のユークリッド距離と前記第1のヒット数の積と、前記複数のノード毎における前記第2の学習データと前記更新対象である自己組織化マップの間のユークリッド距離と前記第2のヒット数の積とに基づいて更新量を調整する。
【発明の効果】
【0009】
本発明によれば、機械学習を利用して画像形成装置の内部状態の推定を効率的かつ効果的に実現するための技術を提供することができる。
【図面の簡単な説明】
【0010】
【
図1】本発明の第1実施形態に係る画像形成システム10の機能構成を示すブロックダイアグラムである。
【
図2】第1実施形態に係る学習システムの構成を示す説明図である。
【
図3】比較例に係る自己組織化マップ生成処理の内容を示すフローチャートである。
【
図4】比較例に係る自己組織化マップ生成処理の構成を示す説明図である。
【
図5】比較例に係る自己組織化マップ生成処理で使用される数式を示す説明図である。
【
図6】比較例に係る自己組織化マップの内容を示す表である。
【
図7】比較例で生成される自己組織化マップの概要を示す説明図である。
【
図8】第1実施形態に係る追加学習の概要を示す説明図である。
【
図9】第1実施形態に係るに係る追加学習処理を示すフローチャートである。
【
図10】第1実施形態に係る追加学習処理の構成を示す説明図である。
【
図11】第1実施形態に係る追加学習処理で使用される数式を示す説明図である。
【
図12】第1実施形態で生成される自己組織化マップの概要を示す説明図である。
【
図13】第2実施形態に係る自己組織化マップ生成処理の構成を示す説明図である。
【
図14】第2実施形態に係る自己組織化マップ生成処理の内容を示すフローチャートである。
【
図15】第2実施形態に係る高分解能学習処理及び状態推定処理を示す説明図である。
【
図16】第2実施形態に係る自己組織化マップ生成処理の構成を示す説明図である。
【発明を実施するための形態】
【0011】
以下、本発明の一局面としての実施形態に係る画像形成部の状態を推定する画像形成システム、画像形成方法、及び画像形成プログラムについて図面を参照して説明する。
【0012】
以下、本発明を実施するための形態(以下、「実施形態」という)を、図面を参照して以下の順序で説明する。
A.第1実施形態:
B.第2実施形態:
C.変形例:
【0013】
A.第1実施形態:
図1は、本発明の第1実施形態に係る画像形成システム10の機能構成を示すブロックダイアグラムである。画像形成システム10は、複合機(Multifunction Peripheral:MFP)としての画像形成装置100と、複数のパーソナルコンピュータ(単にPCとも呼ばれる。)300とを備えている。画像形成システム10は、ローカルエリアネットワーク(単にネットワークとも呼ばれる。)LANを構成するハブ500及びルーター600と、インターネットとを介してサポートサーバ700に接続されている。サポートサーバ700は、学習処理部710を有し、サポート用コンピュータとも呼ばれる。
【0014】
図2は、第1実施形態に係る学習システム10の構成を示す説明図である。画像形成システム10は、エッジコンピューティングを採用する学習システムとして機能し、ローカルとしてのエッジ(複数の画像形成装置100)でセンサー情報を収集し、学習済みデータを使用して処理及び分析する分散コンピューティング環境をベースとしている。一方、サポートサーバ700は、クラウドコンピューティングによって構成されている。
【0015】
サポートサーバ700は、エッジ(多数の画像形成装置100)で収集されたセンサー情報をビッグデータとして格納することが可能である。サポートサーバ700の学習処理部710は、たとえば大規模並列化ソフトウェアで学習処理を実行して状態推定モデルとして自己組織化マップM(Self Organizing Map:SOM)を生成することができる。サポートサーバ700は、エッジ(多数の画像形成装置100)に学習済みデータとして状態推定モデルをダウンロード(多数の画像形成装置100が受信)する。状態推定モデルは、自己組織化マップM(
図6参照)としての学習済みデータである。
【0016】
サポートサーバ700は、更に記憶部730を備える。記憶部730は、非一時的な記録媒体であるハードディスクドライブやフラッシュメモリー等からなる記憶装置で、第1制御ユニット720が実行する処理の制御プログラム(画像形成プログラムの一部を構成する第2プログラムを含む。)やデータを記憶する。
【0017】
サポートサーバ700は、第1制御ユニット720を備えている。第1制御ユニット720は、RAMやROM等の主記憶手段、及びMPU(Micro Processing Unit)や、第1プロセッサーの一例であるCPU(Central Processing Unit)等の制御手段を備えている。また、第1制御ユニット710は、各種I/O、USB(ユニバーサル・シリアル・バス)、バス、その他ハードウェア等のインターフェースに関連するコントローラ機能を備え、サポートサーバ700全体を制御する。
【0018】
第1制御ユニット720は、上記学習処理部710を備える。例えば、第1制御ユニット720は、上記第1プロセッサーが上記第1プログラムに従って動作することで、学習処理部710として機能する。上記第1プログラム及び後述する第2プログラムが画像形成プログラムを構成する。
【0019】
画像形成装置100は、制御ユニット110と、画像形成部120と、記憶部140と、画像読取部150と、通信インターフェース部160(通信I/Fとも呼ばれる。)とを備えている。画像読取部150は、原稿から画像を読み取ってデジタルデータである画像データIDを生成する。画像形成装置100は、通信インターフェース部160とLANとを介して複数のパーソナルコンピュータ300に接続されている。通信インターフェース部160は、サポートサーバ700と通信可能に構成されている。
【0020】
パーソナルコンピュータ300は、画像形成装置100に対して印刷ジョブを送信し、画像形成装置100に画像形成処理を実行させることができる。印刷ジョブは、たとえばページ記述言語(PDL)で記述することができる。制御ユニット110は、ページ記述言語で記述された印刷ジョブを解析して、印刷ジョブに含まれるテキスト(文字)やイメージ、ベクターグラフィックスといったオブジェクトを抽出し、描画処理やフォント処理を実行する。印刷ジョブは、画像形成ジョブとも呼ばれる。
【0021】
画像形成部120は、色変換処理部121と、ハーフトーン処理部122と、露光部124と、アモルファスシリコン感光体である感光体ドラム(像担持体)123c~123kと、現像部125c~125kと、帯電部126c~126kと、状態センサー127とを有している。色変換処理部121は、RGB画像データである画像データIDや印刷ジョブ内のRGB画像データをCMYKデータに色変換する。ハーフトーン処理部122は、CMYKデータにハーフトーン処理を実行してCMYKのハーフトーンデータとして印刷データPDを生成する。ハーフトーンデータは、CMYKの各トナーによって形成されるドットの形成状態を表し、ドットデータとも呼ばれる。
【0022】
状態センサー127は、状態計測部として機能し、上述のセンサー情報として、画像形成装置100の内部状態、すなわち、画像形成装置100の内部の温度や湿度、画像形成部120の各感光体ドラム123c~123kの総回転数(総走行距離の一例)x1、露光部124の露光量x2、及び画像形成部120によるパッチ濃度(画像形成濃度の一例)x3及び印刷枚数(画像形成量の一例)x4等を計測することができる。この例では、状態センサー127は、各感光体ドラム123は、入力データの空間であるデータ空間の状態量として、N次元(この例では4次元)の特徴ベクトルX(x1、x2、x3、x4)を取得することが可能である。すなわち、状態センサー127は、温度計と、湿度計と、感光体ドラム123c~123kの総回転数を計測する光学センサーと、露光部124の露光量、画像形成部120によるパッチ濃度、及び印刷枚数を計測する制御ユニット110により構成される。
【0023】
記憶部140は、非一時的な記録媒体であるハードディスクドライブやフラッシュメモリー等からなる記憶装置で、制御ユニット110が実行する処理の制御プログラム(画像形成プログラムの一部を構成する第1プログラムを含む。)やデータを記憶する。記憶部140は、本実施形態では、さらにセンサー情報格納領域R1及び学習済みモデル格納領域R2を有している。
【0024】
制御ユニット(第2制御ユニット)110は、RAMやROM等の主記憶手段、及びMPU(Micro Processing Unit)や、第2プロセッサーの一例であるCPU(Central Processing Unit)等の制御手段を備えている。また、制御ユニット110は、各種I/O、USB(ユニバーサル・シリアル・バス)、バス、その他ハードウェア等のインターフェースに関連するコントローラ機能を備え、画像形成装置100全体を制御する。
【0025】
制御ユニット110は、学習データ処理部111と状態推定部112とを備える。例えば、制御ユニット110は、上記第2プロセッサーが上記第2プログラムに従って動作することで、学習データ処理部111と状態推定部112として機能する。学習データ処理部111は、状態センサー127から取得した特徴ベクトルX(x1、x2、x3、x4)をサポートサーバ700にアップロードする。状態推定部112は、サポートサーバ700からダウンロードした自己組織化マップMを使用するクラスタリング処理を通じて、画像形成装置100の内部状態の推定を実現することができる。自己組織化マップの生成機能は、サポートサーバ700において、たとえばPythonやTensorflowといったツールやライブラリを使用して実装することができる。
【0026】
図3は、比較例に係る自己組織化マップ生成処理の内容を示すフローチャートである。
図4は、比較例に係る自己組織化マップ生成処理の構成を示す説明図である。
図5は、比較例に係る自己組織化マップの内容を示す表である。自己組織化マップ(Self-Organizing Map:SOM)は、コホネン(T.Kohonen)により提案された教師なしのニューラルネットワークアルゴリズムで、たとえば2次元平面上へ高次元データを非線形写像するデータ解析方法である。本アルゴリズムは、教師なしのニューラルネットワークアルゴリズムなので、教師を準備することなく簡易に実装可能であるという利点を有している。
【0027】
ステップS110cでは、画像形成システム10は、入力データ蓄積処理を実行する。入力データ蓄積処理では、画像形成装置100が有する制御ユニット110の学習データ処理部111は、所定の間隔としての第1の間隔(たとえば1週間)で状態センサー127を使用して特徴ベクトルX(x1、x2、x3、x4)を含む複数の状態量を取得し、記憶部140のセンサー情報格納領域R1に格納する。
【0028】
学習データ処理部111は、第1の間隔よりも長い所定の間隔としての第2の間隔(たとえば1か月)でセンサー情報格納領域R1から特徴ベクトルXを含む複数の状態量を読み出して、サポートサーバ700にアップロードする。学習処理部710は、予め設定されている量、すなわち自己組織化マップの生成のための学習に十分な量の学習データとしての特徴ベクトルXを含む複数の状態量が複数の画像形成装置100から集まったと判断した時点で、処理をステップS120cに進める。
【0029】
ステップS120cでは、サポートサーバ700の学習処理部710は、入出力層設定処理を実行する。この例では、学習処理部710は、複数の状態量から特徴ベクトルXを自己組織化マップの入力層に設定し、その写像対象空間であるマップ空間の各点を特定する16個のノードを有する出力層を設定するものとする。この例では、学習処理部710は、マップ空間として4×4の2次元マップを設定する。
【0030】
自己組織化マップは、
図4に示されるように、入力層と出力層とにより構成された2層のニューラルネットワークである。出力層の各ノードは、入力層におけるN次元(この例では4次元)の特徴ベクトルのすべての変数(x1、x2、x3、x4)とリンクしているN次元の重みベクトルY(y1、y2、y3、y4)を有している。
【0031】
ステップS130cでは、学習処理部710は、初期設定処理を実行する。初期設定処理では、学習処理部710は、たとえば乱数を使用して重みベクトルY(y1、y2、y3、y4)を設定する。この例では、乱数を使用して各リンクの重みYの初期値が設定されているが、学習効率の観点から、たとえば過去の類似機種の学習済みデータや別の解析方法で設定されたデータを使用して各リンクの重みYの初期値を設定するようにしてもよい。重みベクトルYは、学習処理によって更新対象となるベクトルである。
【0032】
ステップS140では、学習処理部710は、勝者ノード決定処理を実行する。勝者ノード決定処理では、学習処理部710は、複数の画像形成装置100から集められた学習データとしての特徴ベクトル(x1、x2、x3、x4)を入力データとして勝者ノードを決定する。勝者ノードは、入力データの特徴ベクトルX(x1、x2、x3、x4)にユークリッド距離が最も近い重みベクトルYを有するノードとして選択される。
【0033】
ステップS150cでは、学習処理部710は、重みベクトル更新処理を実行する。重みベクトル更新処理では、学習処理部710は、予め設定されている所定の更新式を使用して勝者ノードの重みベクトルYと、勝者ノードの近傍のノードである近傍ノードの重みベクトルYとを全学習データを使用して所定の回数だけ繰り返して更新する。
【0034】
更新は、勝者ノードの重みベクトルYと近傍ノードの重みベクトルYとを入力データの特徴ベクトルX(x1、x2、x3、x4)に近づけるように行われる。更新量は、勝者ノードの重みベクトルYの更新量が最も大きく、勝者ノードに近いノードほど、近傍ノードの重みベクトルYの更新量が勝者ノードの重みベクトルYの更新量に近づくように設定される。勝者ノード及び近傍ノードは、更新対象ノードとも呼ばれる。
【0035】
図5は、比較例に係る自己組織化マップ生成処理で使用される数式を示す説明図である。数式1cは、自己組織化マッピングのアルゴリズムで使用される目的関数Fcである。自己組織化マッピングは、負の値を有する目的関数Fcを最大化するように処理される。すなわち、自己組織化マッピングは、入力データの特徴ベクトルXと更新対象ノードとの間のユークリッド距離が小さくなるように処理されることになる。
【0036】
数式2cは、数式1cを重みベクトルYで偏微分することによって導出された偏微分方程式である。数式3cは、偏微分方程式(数式2c)の解として導出される更新式である。更新式3cは、更新対象ノードの重みベクトルYを入力データの特徴ベクトルXに近づけるように更新する式である。このような勝者ノード決定処理(ステップS140)及び重みベクトル更新処理(ステップS150)は、バッチ処理で実行されるので、オンライン学習と比較してトータルの処理量を低減し、安定した状態推定を実現することができる。
【0037】
ステップS160では、学習処理部710は、状態推定モデルを出力する。状態推定モデルは、出力層の全ノード(この例では、16個のノード)の重みベクトルYとして構成される。サポートサーバ700は、複数の画像形成装置100に対して学習済みの状態推定モデルが利用可能であることを通知し、画像形成装置100からの要求に応じて状態推定モデルをダウンロードする。複数の画像形成装置100は、記憶部140の学習済みモデル格納領域R2に状態推定モデルを格納する。
【0038】
図6は、比較例に係る自己組織化マップの内容を示す表である。この例では、状態推定モデルM(自己組織化マップ)は、感光体ドラム123の複数の状態量(入力データ)と、感光体ドラム123の推定状態とを出力層のノード毎に示す表として構成されている。状態推定モデルMにおいて、入力データの「小」や「普通」、「低い」といった記載は、説明を分かりやすくするための表現であり、現実には、正規化された0乃至1の値が入る。
【0039】
複数の画像形成装置100の制御ユニット110が有する状態推定部112は、学習済みモデル格納領域R2に格納した状態推定モデルMを使用し、状態センサー127を使用して取得した複数の状態量としての最新の特徴ベクトルX(x1、x2、x3、x4)、すなわち、総走行距離x1、露光量x2、印刷濃度x3及び印刷枚数x4に基づいて感光体ドラム123の状態を推定(診断)することができる。具体的には、状態推定部112は、たとえば走行距離x1が多く、露光量x2が小さく、印刷濃度x3及び印刷枚数x4が普通である場合には、ノード9に該当し、感光体ドラム123の状態が「普通」であることを特定することができる。
【0040】
図7は、比較例で生成される自己組織化マップの概要を示す説明図である。
図7(a)は、比較例に係る学習結果としての自己組織化マップの様子を示している。
図7(a)は、状態推定モデルMを2次元のマップでイメージとして概念的に示している。この例では、学習処理部710によるクラスタリングは、状態推定モデルMのノード1乃至8を状態Aのクラスターに分類し、ノード9乃至12を状態Bのクラスターに分類し、ノード13及び14を状態Cのクラスターに分類し、ノード15を状態Dのクラスターに分類し、ノード16を状態Eのクラスターに分類している。
【0041】
図7(b)は、比較例に係る追加学習結果としての自己組織化マップの様子を示している。比較例に係る追加学習は、状態推定モデルMを前回学習結果とし、重みベクトルYの初期値として利用し、比較例に係るバッチ型学習処理(
図3)のフローチャートによる学習処理である。
図7(b)のクラスタリング結果から分かるように、前回の学習結果から大きくクラスターの位相が変化し、クラスターの相互の位置関係が変化している。この理由は、追加学習時の重み更新式3cにおいて前回の学習結果が寄与しないからである。このような問題を解決するために、本願発明者は、以下のような新規な構成を創作した。
【0042】
図8は、第1実施形態に係る追加学習処理の概要を示す説明図である。
図9は、第1実施形態に係るに係る追加学習処理を示すフローチャートである。
図10は、第1実施形態に係る追加学習処理の構成を示す説明図である。第1実施形態に係る追加学習処理は、各ノードが勝者となった数、すなわちノードヒット数を、学習量を表す指標と捉え、ノードヒット数に基づいて重みづけを行う追加学習処理を創作した。
【0043】
ステップS110では、学習処理部710は、状態推定モデルMの生成に使用される第1の学習データ(時系列的に先に取得)よりも時系列に後に取得した第2の学習データとして、特徴ベクトルX(x1、x2、x3、x4)を含む複数の状態量を複数の画像形成装置100から取得する。前回の学習処理で生成された状態推定モデルMは、第1の自己組織化マップとも呼ばれる。
【0044】
ステップS120では、学習処理部710は、入出力層設定処理を実行する。入出力層設定処理では、原則として前回の学習と同一の構成を採用するものとする。ただし、感度分析の結果として、特徴ベクトルX(x1、x2、x3、x4)のうちの低感度の変数の削除や新たな変数の追加や入れ替えも可能である。
【0045】
ステップS130では、学習処理部710は、初期設定処理を実行する。初期設定処理では、学習処理部710は、原則として状態推定モデルMを初期状態として設定する。ただし、学習処理部710は、変数の削除や追加、入れ替えといった変更に応じて初期設定の内容を変更することもできる。
【0046】
ステップS140では、学習処理部710は、勝者ノード決定処理を実行する。勝者ノード決定処理の内容は、比較例の処理と同一である。ステップS141では、学習処理部710は、比較例と相違し、ノードヒットカウント処理を実行する。ノードヒットカウント処理では、学習処理部710は、各ノードが勝者となった数をノード毎にバッチ処理中にカウントする。
【0047】
ステップS150では、学習処理部710は、重みベクトル更新処理を実行する。ただし、第1実施形態に係るベクトル更新処理(ステップS150)は、重み更新式が数式3c(
図7)から数式3(
図11)に変更されている点で比較例の重みベクトル更新処理(ステップS150c)と相違している。
【0048】
図11は、第1実施形態に係る追加学習処理で使用される数式を示す説明図である。数式1は、追加学習における自己組織化マッピングのアルゴリズムの目的関数Fである。目的関数Fの第1項T1は、追加学習分の目的関数、すなわち目的関数Fへの追加学習の寄与を表している。目的関数Fの第2項T2は、前回学習分の目的関数、すなわち目的関数Fへの前回学習の寄与を表している。
【0049】
目的関数Fの第1項T1は、更新対象の自己組織化マップのノード毎において、追加学習データ(第2の学習データ)のノードヒット数Sと、追加学習データと更新対象の自己組織化マップとの間のユークリッド距離との積を含んでいる。一方、目的関数Fの第2項T2は、更新対象の自己組織化マップのノード毎において、前回学習データ(第1の学習データ)のノードヒット数Rと、前回学習済みの自己組織化マップと更新対象の自己組織化マップとの間のユークリッド距離との積を含んでいる。
【0050】
前回学習データのノードヒット数Rは第1のヒット数とも呼ばれる。追加学習データのノードヒット数Sは第2のヒット数とも呼ばれる。したがって、更新対象ノードの重みベクトルYの更新量は、第1のヒット数と第2のヒット数と前回学習データとによって調整されることになる。
【0051】
数式2は、数式1を重みベクトルYで偏微分することによって導出された偏微分方程式である。数式3は、偏微分方程式(数式2)の解として導出される更新式である。更新式3は、ノード毎に追加学習データの学習量と前回学習データの学習量に基づく寄与率を考慮し、更新対象ノードの重みベクトルYを入力データの特徴ベクトルXに近づけるように更新する式である。
【0052】
数式3は以下のように解釈することもできる。すなわち、数式3によれば、ノードヒット数S,Rから重みベクトルYに対する追加学習データXと、学習済重みベクトルwの寄与率を調整することが可能となる。具体的には、前回学習データのノードヒット数Rが0の場合、すなわち、前回学習を行っていない初回学習時の条件では、学習時のノードヒット数Sが相殺され、数式3は、比較例の数式3cの更新式と同一となることが分かる。
【0053】
一方、数式3によれば、追加学習時のノードヒット数が急激に増加した場合、前回学習時の重みベクトルwの寄与率が低下し、自己組織化モデルの再構築となることを意味する。数式3によれば、追加学習ノードヒット数が一定数Aで増加する場合、追加学習時の追加学習ノードヒット数Sと、前回学習時のノードヒット数Rの割合はA:Aとなるので追加学習データの寄与率は、1/2(=A/2A)となる。次の3回目は、A:2Aとなるので寄与率は、1/3(=A/3A)となり、追加学習データへの寄与率は徐々に低下していくことになる。さらに、追加学習データXに前回学習済データセットは含まれていないため、追加学習データのみのデータセットで追加学習が可能である。よって、学習データセットの肥大化、及び追加学習処理時間を抑制することができる。
【0054】
図12は、第1実施形態で生成される自己組織化マップの概要を示す説明図である。この例では、学習処理部710によるクラスタリングは、状態推定モデルMの各クラスターが相互に位相を維持しつつ学習し、それらの各領域を拡大している。これにより、追加学習による自己組織化マップの変化を容易に解析することができる。追加学習処理で生成された状態推定モデルMaは、第2の自己組織化マップとも呼ばれる。
【0055】
このように、第1実施形態に係る画像形成装置100は、各ノードが勝者となった数、すなわちノードヒット数を、学習量を表す指標の1つと捉え、ノードヒット数に基づいて重みづけを行う追加学習処理を実行するので、状態推定モデルMの各クラスターが相互に位相を維持しつつ学習することができる。これにより、追加学習による自己組織化マップの変化を容易に解析することができる。
【0056】
さらに、第1実施形態に係る画像形成装置100は、追加学習データのみのデータセットで追加学習が可能なので、最初から学習し直す方法と比較し、学習データセットの肥大化や過大な追加学習処理時間の発生を抑制することができる。加えて、第1実施形態に係る画像形成装置100は、ノードの位相関係を維持した重みの更新が可能なので、学習データとしての多量の市場データを追加学習することで特徴量解析(ノードの重みパラメータ推移など)も効率的に行えることが可能となる。さらに、ノードの位相関係を維持するため、追加学習後のノードのラベル付けを再度行う必要もない。
【0057】
B.第2実施形態:
図13は、第2実施形態に係る自己組織化マップ生成処理の構成を示す説明図である。第2実施形態に係る自己組織化マップ生成処理は、一般的な自己組織化マップ生成処理と相違し、低解像度状態推定モデルLを生成するための低解像度クラスタリングと、高解像度状態推定モデルHを生成するための高解像度クラスタリングとを含む複数段階のクラスタリングで複数(この例では2つ)の状態推定モデルを生成することができる。
【0058】
低解像度クラスタリングでは、学習処理部710は、第1実施形態に係る自己組織化マップ生成処理と同一の処理を実行する。これにより、学習処理部710は、目的関数Fcを使用して低解像度状態推定モデルLを生成することができる。低解像度状態推定モデルL(y1~y16)は、比較例に係る自己組織化マップ生成処理で生成される状態推定モデルM(
図6参照)と同一の学習モデルである。状態推定モデルMでは、
図6から分かるように、ノード1乃至12が状態A(良好)又は状態B(普通)と分類され、ノード13至16が異常(状態C乃至E)と分類されている。
【0059】
高解像度クラスタリングでは、学習処理部710は、異常に分類されたノード13至16に対応(すなわち勝者又はヒット)する複数の画像形成装置100の入力データである特徴ベクトルX(xi、xi+1、・・・xj)のみを抽出する。学習処理部710は、抽出された入力データを使用し、改めてマップ空間として4×4(計16ノード)の2次元マップを使用してクラスタリングを実行する。これにより、学習処理部710は、目的関数Fcを使用して4つに分類されたノード13至16の異常状態を高解像度で再分類し、高解像度状態推定モデルH(y’1~y’16)を生成することができる。
【0060】
図14は、第2実施形態に係る自己組織化マップ生成処理の内容を示すフローチャートである。
図15(a)は、第2実施形態に係る高分解能学習処を示す説明図である。第2実施形態に係る自己組織化マップ生成処理は、低解像度クラスタリングと、高解像度クラスタリングとを含む複数段階のクラスタリングで複数(この例では2つ)の状態推定モデルを生成する点で第1実施形態に係る自己組織化マップ生成処理と相違している。
【0061】
第2実施形態に係る自己組織化マップ生成処理において、ステップS110乃至S130及びステップS140乃至S160の1回目の処理は、第1実施形態に係る自己組織化マップ生成処理と同様の方法で低解像度(通常の解像度)の状態推定モデルL(y1~y16:
図15(a)参照)を生成する。ステップS140乃至S160の2回目の処理では、学習処理部710は、予め学習データ抽出処理(ステップS170)を実行する。学習データ抽出処理では、学習処理部710は、予め設定されている基準(この例では、異常に分類)に合致するノードに対応する学習データと、そのノードの近傍のノードに対応する学習データとを抽出する。
【0062】
具体的には、学習処理部710は、低解像度状態推定モデルL(状態推定モデルMと同一)において異常(ノード13至16)と分類されたノードの学習データと、その近傍のノード4,7,8,10,12の学習データとを抽出する。このように抽出された抽出学習データを使用し、学習処理部710は、4×4(計16ノード)の2次元マップを使用し、低解像度状態推定モデルLを初期値として第1実施形態に係る自己組織化マップ生成処理と同様の方法で高解像度状態推定モデルH(y’1~y’16:
図15参照)を生成し、処理を終了する(ステップS180)。
【0063】
学習処理部710は、低解像度状態推定モデルL及び高解像度状態推定モデルHの生成を複数の画像形成装置100の全てに通知する。学習処理部710は、複数の画像形成装置100からの要求に応じて、低解像度状態推定モデルL及び高解像度状態推定モデルHをダウンロードする。高解像度状態推定モデルHは、低解像度状態推定モデルLの分類の一部のノードにおいて部分的に解像度が高くなるように構成されていることになる。なお、学習処理部710は、高解像度状態推定モデルHの分類の一部のノードにおいて部分的に、さらに解像度が高くなるように構成された超高解像度状態推定モデルUHを生成できるように構成してもよい。
【0064】
図15(b)は、第2実施形態に係る状態推定処理を示す説明図である。ステップS210では、複数の画像形成装置100のそれぞれが有する制御ユニット110の状態推定部112は、低解像度状態推定処理を実行する。低解像度状態推定処理では、状態推定部112は、ダウンロードして学習済みモデル格納領域R2に格納されている低解像度状態推定モデルLを使用し、状態センサー127を使用して取得した最新の特徴ベクトルX(x1、x2、x3、x4)に基づいて感光体ドラム123の状態を推定する(1次診断)。
【0065】
ステップS220では、状態推定部112は、1次診断結果が正常(すなわち良好又は普通)に該当するか否かを判断する。正常であると判断された場合、すなわち状態推定モデルM(
図6参照)でノード1~12に該当すると判断された場合には、状態推定部112は、処理をステップS230に進めて、正常である旨をディスプレイ等(図示略)でユーザーに報告する。
【0066】
一方、正常でないと判断された場合、すなわち低解像度状態推定モデルLでノード1~12以外のノードであるノード13~16に該当すると判断された場合には、状態推定部112は、処理をステップS240に進める。
【0067】
ステップS240では、状態推定部112は、高解像度状態推定処理を実行する。高解像度状態推定処理では、状態推定部112は、ダウンロードして学習済みモデル格納領域R2に格納されている高解像度状態推定モデルHを使用し、状態センサー127を使用して取得した最新の特徴ベクトルX(x1、x2、x3、x4)に基づいて感光体ドラム123の状態を推定する(2次診断)。これにより、状態推定部112は、異常モード、すなわち、より詳細な異常の状態(異常モード)を判定し(ステップS250)、その内容をディスプレイ等(図示略)でユーザーに報告することができる。高解像度状態推定モデルHは、第1の高解像度自己組織化マップとも呼ばれる。
【0068】
図16は、第2実施形態に係る自己組織化マップ生成処理の構成を示す説明図である。学習処理部710は、目的関数Fを使用し、追加学習データのノードヒット数Sと前回学習データのノードヒット数Rとを使用し、低解像度状態推定モデルLと高解像度状態推定モデルHとに対して、それぞれ第1実施形態と同様の方法で追加学習を実行することができる。高解像度状態推定モデルHに対して追加学習を実行することによって生成されるモデルは、第2の高解像度自己組織化マップとも呼ばれる。
【0069】
なお、低解像度状態推定モデルLを使用して高解像度状態推定モデルHを生成する際には比較例の目的関数Fcを使用するようにしてもよい。こうすれば、学習処理部710は、時系列的に後に取得した第2の学習データを有効活用し、運用年数の増加に起因して増加した異常状態の分類を促進することができるという利点がある。一方、低解像度状態推定モデルLを使用して高解像度状態推定モデルHを生成する際にも目的関数Fを使用するようにしてもよい。こうすれば、学習処理部710は、低解像度状態推定モデルLによるクラスタリングからの高解像度状態推定モデルHへの変化を簡単に解析することができるという利点がある。さらに、ノードヒット数の補正によって、両者の間の適切な位置に分類方法を調整することもできる。
【0070】
このように、第2実施形態に係る画像形成装置100は、同一ノード数の学習モデルで、特定の分類で絞り込まれた抽出入力データを変更して複数回学習させることにより、共通の推論実行モデルで解像度が異なる複数種類のモデルを実装することが可能となる。これにより、第2実施形態に係る画像形成装置100は、省リソースでの実装と広範かつ高精度な状態推定が可能となる。
C.変形例:本発明は、上記各実施形態だけでなく、以下のような変形例でも実施することができる。
【0071】
変形例1:上記実施形態では、学習データ処理部111は、状態センサー127から取得した学習データをサポートサーバ700に特定の間隔(第1実施形態では、第2の間隔)でアップロードするが、たとえば感光体ドラムの交換のような部品交換に応じて部品交換前後に分けて学習データをアップロードするようにしてもよい。
【0072】
変形例2:上記実施形態では、画像形成システム10は、感光体ドラムの状態推定を行っているが、感光体ドラムに限定されず、たとえば画像形成部120の他の部品や画像形成部120の全体の状態推定を含む少なくとも1つの状態推定を行うようにしてもよい。