IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社リコーの特許一覧

<>
  • 特許-画像形成装置及び画像形成システム 図1
  • 特許-画像形成装置及び画像形成システム 図2
  • 特許-画像形成装置及び画像形成システム 図3
  • 特許-画像形成装置及び画像形成システム 図4
  • 特許-画像形成装置及び画像形成システム 図5
  • 特許-画像形成装置及び画像形成システム 図6
  • 特許-画像形成装置及び画像形成システム 図7
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-06-20
(45)【発行日】2022-06-28
(54)【発明の名称】画像形成装置及び画像形成システム
(51)【国際特許分類】
   B41J 29/38 20060101AFI20220621BHJP
   H04N 1/00 20060101ALI20220621BHJP
【FI】
B41J29/38 501
H04N1/00 127A
【請求項の数】 7
(21)【出願番号】P 2018044803
(22)【出願日】2018-03-12
(65)【公開番号】P2019155700
(43)【公開日】2019-09-19
【審査請求日】2020-12-11
(73)【特許権者】
【識別番号】000006747
【氏名又は名称】株式会社リコー
(74)【代理人】
【識別番号】100107766
【弁理士】
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【弁理士】
【氏名又は名称】伊東 忠彦
(72)【発明者】
【氏名】久保田 新
【審査官】加藤 昌伸
(56)【参考文献】
【文献】特開2015-161745(JP,A)
【文献】特開2017-034304(JP,A)
【文献】特開2005-266421(JP,A)
【文献】特開2017-175222(JP,A)
【文献】米国特許出願公開第2017/0330056(US,A1)
【文献】米国特許第06912533(US,B1)
(58)【調査した分野】(Int.Cl.,DB名)
B41J 29/00 - 29/70
H04N 1/00
G06F 3/09 - 3/12
G06F 9/00 - 9/06
G06N 3/00 - 3/12
G06N 7/08 - 99/00
(57)【特許請求の範囲】
【請求項1】
学習データを収集するデータ収集部と、
サーバと通信する通信部と、
前記データ収集部が収集した学習データから学習モデルを生成するモデル生成部と、
前記サーバによって前記学習モデルを生成するか否か判定する判定部と、
を備え
前記学習データは、設定データ及びジョブ履歴データの少なくとも一方を含み、
前記モデル生成部は、前記設定データ及び前記ジョブ履歴データの少なくとも一方に基づいて、前記学習モデルを生成する
画像形成装置。
【請求項2】
前記判定部は、ユーザの認証方式、ハードウェア資源の仕様、及び前記サーバとの接続方法の少なくとも1つに応じて、前記モデル生成部によって前記学習モデルを生成するか、前記サーバによって前記学習モデルを生成するか判定する
請求項1に記載の画像形成装置。
【請求項3】
前記判定部が前記モデル生成部によって前記学習モデルを生成すると判定した場合、前記モデル生成部は、前記学習モデルを生成し、
前記判定部が前記サーバによって前記学習モデルを生成すると判定した場合、前記通信部は、前記学習データを前記サーバに送信する
請求項1又は請求項2に記載の画像形成装置。
【請求項4】
前記学習データは、設定データ及びジョブ履歴データの少なくとも一方と、省エネモードの開始時刻及び終了時刻と、を含み、
前記モデル生成部は、前記省エネモードの開始時刻及び終了時刻に基づいて、前記学習モデルを生成する
請求項1に記載の画像形成装置。
【請求項5】
前記判定部は、前記学習モデルに基づいて、前記サーバによって、前記設定データ及び前記ジョブ履歴データの少なくとも一方に基づいて前記学習モデルを生成するか否か判定する
請求項に記載の画像形成装置。
【請求項6】
前記判定部が前記サーバによって前記学習モデルを生成すると判定した場合、前記通信部は、前記設定データ及び前記ジョブ履歴データの少なくとも一方を前記サーバに送信する
請求項又は請求項に記載の画像形成装置。
【請求項7】
画像形成装置と、サーバと、を備える画像形成システムであって、
前記画像形成装置は、
学習データを収集するデータ収集部と、
前記サーバと通信する通信部と、
前記データ収集部が収集した学習データから学習モデルを生成するモデル生成部と、
前記サーバによって前記学習モデルを生成するか否か判定する判定部と、
を備え
前記学習データは、設定データ及びジョブ履歴データの少なくとも一方を含み、
前記モデル生成部は、前記設定データ及び前記ジョブ履歴データの少なくとも一方に基づいて、前記学習モデルを生成する
画像形成システム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、画像形成装置及び画像形成システムに関する。
【背景技術】
【0002】
従来、学習機能を備えた画像形成装置が知られている。このような画像形成装置として、例えば、装置からの音を学習し、正常音と異常音を自動的に判別する機能を備えたもの提案されている。画像形成装置に学習機能を搭載することにより、画像形成装置の設定や動作を自動的に改善することができる。
【発明の概要】
【発明が解決しようとする課題】
【0003】
しかしながら、従来の画像形成装置では、機械学習による学習モデルの生成が画像形成装置の内部で行われていたため、画像形成装置の負荷が大きくなるという問題があった。また、機械学習をサーバで実行する場合、サーバに接続された画像形成装置が増えるほど、サーバの負荷が大きくなるという問題もあった。
【0004】
本発明は、上記の課題に鑑みてなされたものであり、画像形成システムにおける機械学習による負荷を分散させることを目的とする。
【課題を解決するための手段】
【0005】
一実施形態に係る画像形成装置は、学習データを収集するデータ収集部と、サーバと通信する通信部と、前記データ収集部が収集した学習データから学習モデルを生成するモデル生成部と、前記サーバによって前記学習モデルを生成するか否か判定する判定部と、を備える。
【発明の効果】
【0006】
本発明の各実施形態によれば、画像形成システムにおける機械学習による負荷を分散させることができる。
【図面の簡単な説明】
【0007】
図1】画像形成システムの一例を示す図。
図2】操作部の機能構成の一例を示す図。
図3】画像形成システムの動作の一例を示すフローチャート。
図4】画像形成システムの動作の一例を示すフローチャート。
図5】画像形成システムの動作の一例を示すフローチャート。
図6】画像形成システムの動作の一例を示すフローチャート。
図7】画像形成システムの動作の一例を示すフローチャート。
【発明を実施するための形態】
【0008】
以下、本発明の各実施形態について、添付の図面を参照しながら説明する。なお、各実施形態に係る明細書及び図面の記載に関して、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重畳した説明を省略する。
【0009】
<第1実施形態>
第1実施形態に係る画像形成システムについて、図1図5を参照して説明する。図1は、本実施形態に係る画像形成システムの一例を示す図である。図1の画像形成システムは、ネットワーク30を介して接続された、画像形成装置1と、サーバ2と、を備える。図1の例では、画像形成システムには1つの画像形成装置1が含まれるが、複数の画像形成装置1が含まれてもよい。
【0010】
画像形成装置1は、画像形成機能を有する任意の装置であり、MFP(Multifunction Peripheral)、コピー機、プリンタ、FAX、又はスキャナであるが、これに限られない。以下、画像形成装置1はMFPであるものとする。
【0011】
まず、MFP1のハードウェア構成について説明する。図1のMFP1は、コピー機能、スキャナ機能、ファックス機能、及びプリンタ機能などの各種の機能を実現可能な本体10と、ユーザの操作を受け付ける操作部20と、を備える。なお、ユーザの操作を受け付けるとは、ユーザの操作に応じて入力される情報(画面の座標値を示す信号等を含む)を受け付けることを含む概念である。本体10及び操作部20は、専用の通信路300を介して相互に通信可能に接続されている。通信路300の規格は、例えば、USB(Universal Serial Bus)であるが、これに限られない。通信路300の規格として、有線又は無線の任意の規格を利用できる。なお、本体10は、操作部20で受け付けた操作に応じた動作を行うことができる。また、本体10は、PC等の外部装置とも通信可能であり、外部装置から受信した指示に応じた動作を行うこともできる。
【0012】
本体10は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、HDD(Hard Disk Drive)14と、を備える。また、本体10は、通信I/F(Interface)15と、接続I/F16と、エンジン部17と、システムバス18と、を備える。
【0013】
CPU11は、本体10の動作を統括的に制御する。CPU11は、RAM13をワークエリアとしてROM12又はHDD14等に格納されたプログラムを実行することで、本体10全体の動作を制御し、上述したコピー機能、スキャナ機能、ファックス機能、プリンタ機能などの各種機能を実現する。
【0014】
通信I/F15は、本体10を、インターネットやLAN(Local Area Network)などのネットワーク30と接続するためのインタフェースである。接続I/F16は、本体10を、通信路300を介して操作部20と接続するためのインタフェースである。エンジン部17は、コピー機能、スキャナ機能、ファックス機能、及びプリンタ機能を実現させるための、汎用的な情報処理と、通信以外の処理と、を行うハードウェアである。エンジン部17は、原稿の画像を読み取るスキャナ(画像読取部)、用紙等のシート材へ画像を印刷するプロッタ(画像形成部)、及びファクス通信を行うファクス部などを含む。また、エンジン部17は、印刷済みのシート材を仕分けるフィニッシャや、原稿を自動給送するADF(自動原稿給送装置)などを含んでもよい。システムバス18は、CPU11、ROM12、RAM13、HDD14、通信I/F15、接続I/F16、及びエンジン部17を相互に接続する。
【0015】
操作部20は、CPU21と、ROM22と、RAM23と、フラッシュメモリ24と、外部接続I/F25と、接続I/F26と、操作パネル27と、通信I/F28と、システムバス29と、を備える。
【0016】
CPU21は、操作部20の動作を統括的に制御する。CPU21は、RAM23をワークエリア(作業領域)としてROM22またはフラッシュメモリ24等に格納されたプログラムを実行することで、操作部20全体の動作を制御し、ユーザから受け付けた入力に応じた情報(画像)の表示などの後述する各種機能を実現する。
【0017】
外部接続I/F25は、操作部20を周辺機31(カメラなどの画像処理装置、マイクやスピーカなどの音声入出力装置、カードリーダ及びカードライターなど)と接続するためのインタフェースである。接続I/F26は、操作部20を、通信路300を介して本体10と接続するためのインタフェースである。通信I/F28は、ネットワーク30と接続するためのインタフェースである。システムバス29は、CPU21、ROM22、RAM23、フラッシュメモリ24、外部接続I/F25、接続I/F26、操作パネル27、及び通信I/F28を相互に接続する。
【0018】
操作パネル27は、ユーザの操作に応じた各種の入力を受け付けるとともに、各種の情報(例えば受け付けた操作に応じた情報、MFP1の動作状況を示す情報、設定状態などを示す情報など)を表示する。操作パネル27は、例えば、タッチパネルを搭載した液晶表示装置(LCD)や、タッチパネルを搭載した有機EL(Electro Luminescence)表示装置であるが、これに限られない。また、操作部20は、タッチパネルに加えて、又はタッチパネルに替えて、ハードウェアキー等の操作部やランプ等の表示部を備えてもよい。
【0019】
なお、サーバ2は、CPU、ROM、RAM、HDD、及び通信I/Fを備える任意のコンピュータで有り得る。サーバ2は、通信I/Fを介して、ネットワーク30に接続されたMFP1と通信する。CPUがRAMをワークエリアとしてROM又はHDDに格納されたプログラムを実行することにより、サーバ2の機能が実現される。
【0020】
次に、操作部20(MFP1)の機能構成について説明する。図2は、操作部20の機能構成の一例を示す図である。図2の操作部20は、データ収集部101と、学習データ記憶部102と、認証部103と、通信部104と、判定部105と、モデル生成部106と、学習モデル記憶部107と、を備える。これらの各機能構成は、CPU21がプログラムを実行し、他のハードウェアと協働することにより実現される。学習データ記憶部102は、ROM22、RAM23、又はフラッシュメモリ24上に設けられる。学習モデル記憶部107は、フラッシュメモリ24上に設けられる。
【0021】
データ収集部101は、MFP1の各構成から、学習データを収集する。学習データは、MFP1の設定や動作を改善するための機械学習の対象となる任意のデータである。学習データは、MFP1の設定データ及びジョブ履歴データを含む。設定データは、MFP1の設定に関するデータであり、ジョブの実行時のパラメータの設定を示すデータや、操作パネル27におけるアイコンなどの表示設定を示すデータを含む。ジョブ履歴データは、ジョブの実行履歴に関するデータであり、ジョブ実行日時、ログインユーザ、ジョブ種類などを示すデータを含む。データ収集部101は、定期的に、又は所定のタイミングで、学習データを収集する。所定のタイミングは、例えば、操作部20の起動時、学習データの更新時、ユーザのログイン時、又はユーザのログアウト時であるが、これに限られない。
【0022】
学習データ記憶部102は、データ収集部101が収集した学習データを記憶する。
【0023】
認証部103は、操作部20(MFP1)へのユーザのログイン時に、ユーザから入力されたユーザ情報に基づいて、ユーザの認証を行う。ユーザ情報には、ユーザの識別情報(ユーザID)、ユーザ名、及びパスワードなどが含まれる。ユーザ情報は、操作パネル27から入力されてもよいし、カードリーダなどの周辺機31から入力されてもよい。認証方式として、サーバ認証や本体認証を利用できる。サーバ認証とは、入力されたユーザ情報と、認証サーバに登録されたユーザ情報と、を比較することによりユーザを認証する認証方式であり、画像形成システムに含まれる複数のMFP1を利用するユーザの認証に適用される。本実施形態では、サーバ2が認証サーバの機能を有してもよいし、MFP1が、サーバ2とは別に用意された認証サーバと通信可能であってもよい。一方、本体認証とは、入力されたユーザ情報と、操作部20に登録されたユーザ情報と、を比較することによりユーザを認証する認証方式であり、ユーザ情報が入力されたMFP1のみを利用するユーザの認証に適用される。
【0024】
通信部104は、サーバ2と通信し、データをやり取りする。
【0025】
判定部105は、ユーザのログイン時の認証方式、操作部20のハードウェア資源の仕様、及びMFP1とサーバ2との間の接続方法の少なくとも1つに基づいて、学習モデルをモデル生成部106によって生成するか、サーバ2によって生成するか判定する。判定部105は、定期的に、又は所定のタイミングで、学習モデルをどちらで生成するか判定する。所定のタイミングは、例えば、操作部20の起動時、学習データの更新時、ユーザのログイン時、又はユーザのログアウト時であるが、これに限られない。判定方法については後述する。
【0026】
モデル生成部106は、機械学習により、学習データから学習モデルを生成可能する。モデル生成部106は、サポートベクターマシン(SVM)、クラスタリング、ニューラルネットワーク、及び決定木などの、任意の学習方法を利用できる。学習モデルは、例えば、ユーザに応じたジョブの実行時の最適なパラメータの設定を推定するモデルや、ユーザに応じた操作パネル27におけるアイコンなどの最適な配置を推定するモデルであるが、これに限られない。
【0027】
学習モデル記憶部107は、モデル生成部106が生成した学習モデルを記憶する。MFP1は、学習モデル記憶部107に記憶された学習モデルに従って、パラメータを設定したり、動作を実行したりする。
【0028】
なお、本実施形態に係るサーバ2は、モデル生成部106と同様の機能を有する。すなわち、サーバ2は、機械学習により、学習データから学習モデルを生成することができる。モデル生成部106が利用する学習方法と、サーバ2が利用する学習方法と、は同一であってもよいし、異なってもよい。
【0029】
次に、本実施形態に係る画像形成システムの動作について説明する。図3図5は、画像形成システムの動作の一例を示すフローチャートである。
【0030】
図3は、判定部105が、ユーザのログイン時の認証方式に基づいて、学習モデルをどちらで生成するか判定する場合の操作部20の動作の一例を示すフローチャートである。
【0031】
まず、操作部20のデータ収集部101は、学習データを収集する(ステップS101)。データ収集部101は、収集した学習データを学習データ記憶部102に保存する。データ収集部101は、判定部105による判定タイミングが到来するまで(ステップS102:NO)、学習データの収集を、定期的に、又は所定のタイミングで繰り返す。図3の例では、判定タイミングがユーザのログアウト時である場合を想定している。
【0032】
判定タイミングが到来すると(ステップS102:YES)、判定部105は、認証部103からユーザのログイン時の認証方式を取得し、取得した認証方式が本体認証であるか確認する(ステップS103)。
【0033】
判定部105は、認証方式が本体認証でない場合(ステップS103:NO)、すなわち、認証方式がサーバ方式である場合、サーバ2で学習モデルを生成すると判定し(ステップS104)、通信部104に学習データの送信を要求する。通信部104は、学習データの送信を要求されると、学習データ記憶部102から学習データを読み出し、当該学習データをサーバ2に送信する(ステップS105)。
【0034】
サーバ2は、学習データを受信すると、当該学習データから所定の学習方法によって学習モデルを生成し(ステップS106)、生成した学習モデルを記憶する。これにより、例えば、複数のMFP1を利用するユーザに適用する学習モデルを、サーバ2に記憶された、複数のMFP1から受信した学習データを利用して生成することができる。
【0035】
以降、操作部20は、ユーザがサーバ認証を利用して操作部20にログインした際、サーバ2から学習モデルを受信し、当該学習モデルに従って、パラメータを設定したり、動作を実行したりする。
【0036】
一方、判定部105は、認証方式が本体認証である場合(ステップS103:YES)、モデル生成部106で学習モデルを生成すると判定し(ステップS107)、モデル生成部106に学習モデルの生成を要求する。モデル生成部106は、学習モデルの生成を要求されると、学習データ記憶部102から学習データを読み出し、当該学習データから所定の学習方法によって学習モデルを生成する(ステップS108)。モデル生成部106は、生成した学習モデルを学習モデル記憶部107に保存する。
【0037】
以降、操作部20は、ユーザが本人認証を利用して操作部20にログインした際、学習モデル記憶部107から学習モデルを読み出し、当該学習モデルに従って、パラメータを設定したり、動作を実行したりする。
【0038】
このように、図3の例では、ユーザのログイン時の認証方式に基づいて、学習モデルをどちらで生成するか判定し、学習モデルの生成処理を操作部20及びサーバ2の間で分散する。
【0039】
なお、図3の例では、サーバ2は、学習モデルを生成した後、当該学習モデルを操作部20に送信してもよい。この場合、操作部20の通信部104は、サーバ2から受信した学習モデルを学習モデル記憶部107に保存すればよい。これにより、ユーザがサーバ認証を利用してログインした際に、サーバ2から学習モデルを受信する手間を省略できるため、ログイン処理を簡略化できる。
【0040】
図4は、判定部105が、操作部20のハードウェア資源の仕様に基づいて、学習モデルをどちらで生成するか判定する場合の操作部20の動作の一例を示すフローチャートである。
【0041】
まず、操作部20のデータ収集部101は、学習データを収集する(ステップS201)。データ収集部101は、収集した学習データを学習データ記憶部102に保存する。データ収集部101は、判定部105による判定タイミングが到来するまで(ステップS202:NO)、学習データの収集を、定期的に、又は所定のタイミングで繰り返す。図4の例では、判定タイミングは任意である。
【0042】
判定タイミングが到来すると(ステップS202:YES)、判定部105は、ROM22やフラッシュメモリ24から、ハードウェア資源の仕様を読み出し、読み出したハードウェア資源の仕様が所定の条件を満たすか確認する(ステップS203)。ハードウェア資源の仕様は、例えば、CPU21の処理速度(クロック数)、コア数、又は種類や、RAM23の容量であるが、これに限られない。所定の条件は、学習モデルの生成処理の実行に十分な仕様の条件であり、例えば、CPU21の処理速度、コア数、RAM23の容量が閾値以上であることや、CPU21の種類が所定の種類であることであるが、これに限られない。
【0043】
判定部105は、ハードウェア資源の仕様が条件を満たさない場合(ステップS203:NO)、すなわち、操作部20のハードウェア資源の仕様が学習モデルの生成処理に不十分である場合、サーバ2で学習モデルを生成すると判定し(ステップS204)、通信部104に学習データの送信を要求する。通信部104は、学習データの送信を要求されると、学習データ記憶部102から学習データを読み出し、当該学習データをサーバ2に送信する(ステップS205)。
【0044】
サーバ2は、学習データを受信すると、当該学習データから所定の学習方法によって学習モデルを生成し(ステップS206)、生成した学習モデルを記憶する。これにより、例えば、複数のMFP1を利用するユーザに適用する学習モデルを、サーバ2に記憶された、複数のMFP1から受信した学習データを利用して生成することができる。
【0045】
また、通信部104は、学習データをサーバ2に送信した後、ROM22やフラッシュメモリ24から、ハードウェア資源の仕様を読み出し、操作部20が条件を満たす補助記憶装置(HDDやフラッシュメモリなど)を備えるか確認する(ステップS207)。条件は、空き容量が閾値以上であることであるが、これに限られない。
【0046】
通信部104は、操作部20が条件を満たす補助記憶装置を備えない場合(ステップS207:NO)、処理を終了する。これにより、補助記憶装置に十分な空き容量がない場合に、学習モデルの保存による補助記憶装置の空き容量の圧迫を抑制することができる。以降、操作部20は、サーバ2から学習モデルを受信し、当該学習モデルに従って、パラメータを設定したり、動作を実行したりする。
【0047】
一方、通信部104は、操作部20が条件を満たす補助記憶装置を備える場合(ステップS207:YES)、サーバ2に学習モデルを要求する。サーバ2は、学習モデルを要求されると、学習モデルを操作部20に送信する。操作部20の通信部104は、サーバ2が学習モデルを送信すると、当該学習モデルを受信し(ステップS208)、学習モデル記憶部107に保存する。これにより、操作部20が学習モデルを利用する際に、サーバ2から学習モデルを受信する手間を省略できるため、処理を簡略化できる。以降、操作部20は、学習モデル記憶部107から学習モデルを読み出し、当該学習モデルに従って、パラメータを設定したり、動作を実行したりする。
【0048】
一方、判定部105は、ハードウェア資源の仕様が条件を満たす場合(ステップS209:YES)、モデル生成部106で学習モデルを生成すると判定し(ステップS209)、モデル生成部106に学習モデルの生成を要求する。モデル生成部106は、学習モデルの生成を要求されると、学習データ記憶部102から学習データを読み出し、当該学習データから所定の学習方法によって学習モデルを生成する(ステップS210)。モデル生成部106は、生成した学習モデルを学習モデル記憶部107に保存する。
【0049】
以降、操作部20は、学習モデル記憶部107から学習モデルを読み出し、当該学習モデルに従って、パラメータを設定したり、動作を実行したりする。
【0050】
このように、図4の例では、操作部20のハードウェア資源の仕様に基づいて、学習モデルをどちらで生成するか判定し、学習モデルの生成処理を操作部20及びサーバ2の間で分散する。
【0051】
図5は、判定部105が、MFP1とサーバ2との間の接続方法に基づいて、学習モデルをどちらで生成するか判定する場合の操作部20の動作の一例を示すフローチャートである。
【0052】
まず、操作部20のデータ収集部101は、学習データを収集する(ステップS301)。データ収集部101は、収集した学習データを学習データ記憶部102に保存する。データ収集部101は、判定部105による判定タイミングが到来するまで(ステップS302:NO)、学習データの収集を、定期的に、又は所定のタイミングで繰り返す。図5の例では、判定タイミングは任意である。
【0053】
判定タイミングが到来すると(ステップS302:YES)、判定部105は、通信部104からサーバ2との間の接続方法を取得し、取得した接続方法が無線接続であるか確認する(ステップS303)。
【0054】
判定部105は、接続方法が無線接続でない場合(ステップS303:NO)、すなわち、接続方法が有線接続である場合、サーバ2で学習モデルを生成すると判定し(ステップS304)、通信部104に学習データの送信を要求する。通信部104は、学習データの送信を要求されると、学習データ記憶部102から学習データを読み出し、当該学習データをサーバ2に送信する(ステップS305)。
【0055】
サーバ2は、学習データを受信すると、当該学習データから所定の学習方法によって学習モデルを生成し(ステップS306)、生成した学習モデルを記憶する。これにより、例えば、複数のMFP1を利用するユーザに適用する学習モデルを、サーバ2に記憶された、複数のMFP1から受信した学習データを利用して生成することができる。
【0056】
以降、操作部20は、ユーザがサーバ認証を利用して操作部20にログインした際、サーバ2から学習モデルを受信し、当該学習モデルに従って、パラメータを設定したり、動作を実行したりする。
【0057】
一方、判定部105は、接続方法が無線接続である場合(ステップS303:YES)、モデル生成部106で学習モデルを生成すると判定し(ステップS307)、モデル生成部106に学習モデルの生成を要求する。モデル生成部106は、学習モデルの生成を要求されると、学習データ記憶部102から学習データを読み出し、当該学習データから所定の学習方法によって学習モデルを生成する(ステップS308)。モデル生成部106は、生成した学習モデルを学習モデル記憶部107に保存する。
【0058】
以降、操作部20は、ユーザが本人認証を利用して操作部20にログインした際、学習モデル記憶部107から学習モデルを読み出し、当該学習モデルに従って、パラメータを設定したり、動作を実行したりする。
【0059】
このように、図5の例では、MFP1とサーバ2との間の接続方法に基づいて、学習モデルをどちらで生成するか判定し、学習モデルの生成処理を操作部20及びサーバ2の間で分散する。
【0060】
なお、図5の例では、サーバ2は、学習モデルを生成した後、当該学習モデルを操作部20に送信してもよい。この場合、操作部20の通信部104は、サーバ2から受信した学習モデルを学習モデル記憶部107に保存すればよい。これにより、操作部20が学習モデルを利用する際に、サーバ2から学習モデルを受信する手間を省略できるため、処理を簡略化できる。
【0061】
以上説明した通り、本実施形態によれば、学習モデルの生成処理を操作部20及びサーバ2の間で分散することができる。したがって、学習モデルを生成する際に実行する機械学習による負荷を操作部20及びサーバ2の間で分散させ、操作部20及びサーバ2の負荷を低減することができる。
【0062】
<第2実施形態>
第2実施形態に係る画像形成システムについて、図6及び図7を参照して説明する。以下、第1実施形態との相違点を中心に説明する。
【0063】
本実施形態において、操作部20は、ユーザからの操作を所定期間受け付けない場合、自動的に省エネモードに移行する。省エネモードは、操作部20の消費電力が低い動作状態である。操作部20は、省エネモードの間、ユーザからの操作の受け付けだけを行う。操作部20は、省エネモードの間にユーザからの操作を受け付けた場合、通常モードに移行する。通常モードは、操作部20の通常の動作状態であり、ユーザからの操作に応じた処理を実行する。
【0064】
データ収集部101は、学習データとして、省エネモードの開始時刻及び終了時刻(以下「省エネデータ」という。)と、MFP1の設定データ及びジョブ履歴データなどの他のデータ(以下「他の学習データ」という。)と、を収集する。モデル生成部106は、省エネデータに基づいて、省エネモードの期間を推定する学習モデル(以下「省エネモデル」という。)を生成し、学習モデル記憶部107に保存する。サーバ2は、他の学習データに基づいて、省エネモデルとは異なる、MFP1の設定や動作を改善するための学習モデル(以下「他の学習モデル」という。)を生成する。ここでいう他の学習モデルは、第1実施形態で生成される学習モデルと同様である。モデル生成部106が利用する学習方法と、サーバ2が利用する学習方法と、は同一であってもよいし、異なってもよい。また、判定部105は、省エネモデルに基づいて、サーバ2で他の学習モデルを生成するか否か判定する。
【0065】
ここで、本実施形態に係る画像形成システムの動作について説明する。図6及び図7は、画像形成システムの動作の一例を示すフローチャートである。
【0066】
図6は、通信部104が省エネモードの期間に他の学習データをサーバ2に送信する場合の操作部20の動作の一例を示すフローチャートである。
【0067】
まず、操作部20のデータ収集部101は、省エネデータ及び他の学習データを含む学習データを収集する(ステップS401)。データ収集部101は、収集した学習データを学習データ記憶部102に保存する。データ収集部101は、判定部105による判定タイミングが到来するまで(ステップS404:NO)、学習データの収集を、定期的に、又は所定のタイミングで繰り返す。図6の例では、判定タイミングは任意である。
【0068】
判定タイミングが到来するまでの間に、省エネモデルの生成タイミングが到来すると(ステップS402:YES)、モデル生成部106は、学習データ記憶部102から省エネデータを読み出し、当該省エネデータから所定の学習方法によって省エネモデルを生成する(ステップS403)。モデル生成部106は、生成した省エネモデルを学習モデル記憶部107に保存する。
【0069】
また、判定タイミングが到来すると(ステップS404:YES)、判定部105は、学習モデル記憶部107から省エネモデルを読み出し、現在時刻が省エネモードの期間であるか判定する(ステップS405)。
【0070】
判定部105は、現在時刻が省エネモードの期間でないと判定した場合(ステップS405:NO)、他の学習モデルをサーバ2で生成しないと判定し(ステップS409)、処理を終了する。これにより、ユーザが操作部20を利用している間に、操作部20からサーバ2に他の学習データが送信されることを抑制できる。
【0071】
一方、判定部105は、現在時刻が省エネモードの期間であると判定した場合(ステップS405:YES)、他の学習モデルをサーバ2で生成すると判定し(ステップS406)、通信部104に他の学習データの送信を要求する。通信部104は、他の学習データの送信を要求されると、学習データ記憶部102から他の学習データを読み出し、当該他の学習データをサーバ2に送信する(ステップS407)。
【0072】
サーバ2は、他の学習データを受信すると、当該他の学習データから所定の学習方法によって他の学習モデルを生成し(ステップS408)、生成した他の学習モデルを記憶する。これにより、ユーザが操作部20を利用していない間に、操作部20からサーバ2に他の学習データを送信し、他の学習モデルを生成することができる。
【0073】
以降、操作部20は、サーバ2から学習モデルを受信し、当該学習モデルに従って、パラメータを設定したり、動作を実行したりする。
【0074】
このように、図6の例では、省エネモデルの生成処理と、他の学習モデルの生成処理と、が操作部20及びサーバ2の間で分散される。また、省エネモデルに基づいて、現在時刻が省エネモードの期間であるか判定し、省エネモードの期間(ユーザが操作部20を利用していない期間)に、操作部20からサーバ2に他の学習データが送信される。
【0075】
なお、図6の例では、サーバ2は、他の学習モデルを生成した後、当該他の学習モデルを操作部20に送信してもよい。この場合、操作部20の通信部104は、サーバ2から受信した他の学習モデルを学習モデル記憶部107に保存すればよい。これにより、操作部20が学習モデルを利用する際に、サーバ2から学習モデルを受信する手間を省略できるため、処理を簡略化できる。
【0076】
図7は、通信部104が省エネモードの期間に他の学習データをサーバ2に送信する場合の操作部20の動作の一例を示すフローチャートである。ステップS501~S506,S511は、図6のステップS401~S406,S409と同様であるため、説明を省略する。
【0077】
判定部105は、現在時刻が省エネモードの期間であると判定した場合(ステップS505:YES)、他の学習モデルをサーバ2で生成すると判定し(ステップS506)、通信部104に他の学習データの送信を要求する。通信部104は、他の学習データの送信を要求されると、学習データ記憶部102から他の学習データを読み出し、学習モデル記憶部107から省エネモデルを読み出し、当該他の学習データ及び省エネモデルをサーバ2に送信する(ステップS507)。
【0078】
サーバ2は、他の学習データを受信すると、当該他の学習データから所定の学習方法によって他の学習モデルを生成し(ステップS508)、生成した他の学習モデルを記憶する。これにより、ユーザが操作部20を利用していない間に、操作部20からサーバ2に他の学習データを送信し、他の学習モデルを生成することができる。以降、操作部20は、サーバ2から学習モデルを受信し、当該学習モデルに従って、パラメータを設定したり、動作を実行したりする。
【0079】
他の学習モデルの生成後、サーバ2は、通信部104から受信した省エネモデルに基づいて、現在時刻が省エネモードの期間であるか判定する(ステップS509)。
【0080】
判定部105は、現在時刻が省エネモードの期間でないと判定した場合(ステップS509:NO)、処理を終了する。
【0081】
一方、判定部105は、現在時刻が省エネモードの期間であると判定した場合(ステップS509:YES)、生成した他の学習モデルを操作部20に送信する。操作部20の通信部104は、サーバ2が他の学習モデルを送信すると、当該他の学習モデルを受信し(ステップS510)、学習モデル記憶部107に保存する。これにより、操作部20が他の学習モデルを利用する際に、サーバ2から他の学習モデルを受信する手間を省略できるため、処理を簡略化できる。以降、操作部20は、学習モデル記憶部107から他の学習モデルを読み出し、当該他の学習モデルに従って、パラメータを設定したり、動作を実行したりする。
【0082】
このように、図7の例では、省エネモデルの生成処理と、他の学習モデルの生成処理と、が操作部20及びサーバ2の間で分散される。また、省エネモデルに基づいて、現在時刻が省エネモードの期間であるか判定し、省エネモードの期間(ユーザが操作部20を利用していない期間)に、操作部20からサーバ2に他の学習データが送信され、サーバ2から操作部20に他の学習モデルが送信される。
【0083】
以上説明した通り、本実施形態によれば、学習モデルの生成処理を操作部20及びサーバ2の間で分散することができる。したがって、学習モデルを生成する際に実行する機械学習による負荷を操作部20及びサーバ2の間で分散させ、操作部20及びサーバ2の負荷を低減することができる。
【0084】
また、本実施形態によれば、操作部20とサーバ2との間の通信を、省エネモードの期間に実行することができる。したがって、ユーザが操作部20を利用している間に、操作部20の負荷が上昇し、処理が遅延することを抑制できる。
【0085】
なお、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等のデバイスを含むものとする。
【0086】
また、上記実施形態に挙げた構成等に、その他の要素との組み合わせなど、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更可能であり、その応用形態に応じて適切に定めることができる。
【符号の説明】
【0087】
1:画像形成装置(MFP)
2:サーバ
10:本体
20:操作部
30:ネットワーク
101:データ収集部
102:学習データ記憶部
103:認証部
104:通信部
105:判定部
106:モデル生成部
107:学習モデル記憶部
【先行技術文献】
【特許文献】
【0088】
【文献】特開2015-161745号公報
図1
図2
図3
図4
図5
図6
図7