(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-02-02
(45)【発行日】2023-02-10
(54)【発明の名称】画像判別モデル構築方法、画像判別装置、および画像判別方法
(51)【国際特許分類】
G06T 1/00 20060101AFI20230203BHJP
H04N 1/387 20060101ALI20230203BHJP
G06T 7/00 20170101ALI20230203BHJP
【FI】
G06T1/00 310A
H04N1/387 110
G06T7/00 350C
(21)【出願番号】P 2019119420
(22)【出願日】2019-06-27
【審査請求日】2021-12-23
(73)【特許権者】
【識別番号】000207551
【氏名又は名称】株式会社SCREENホールディングス
(74)【代理人】
【識別番号】100104695
【氏名又は名称】島田 明宏
(74)【代理人】
【識別番号】100121348
【氏名又は名称】川原 健児
(74)【代理人】
【識別番号】100114247
【氏名又は名称】奥田 邦廣
(74)【代理人】
【識別番号】100148459
【氏名又は名称】河本 悟
(72)【発明者】
【氏名】今村 淳志
(72)【発明者】
【氏名】北村 一博
【審査官】橋爪 正樹
(56)【参考文献】
【文献】特開2019-087044(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06T 1/00
G06T 7/00- 7/90
H04N 1/38- 1/393
(57)【特許請求の範囲】
【請求項1】
印刷装置から印刷媒体に出力された印刷画像が
インク汚れも白スジも発生させない良好画像であるのか
インク汚れまたは白スジを発生させる不良画像であるのかを判別する画像判別モデルを構築する方法であって、
前記印刷媒体上の前記印刷画像を撮像することによって得られた撮像画像データまたは前記印刷画像の原画像を表す原画像データ
のデータ値の平均値を所定の閾値と比較することによって得られる結果に基づいて前記印刷画像が高濃度画像であるのか低濃度画像であるのかを判定する濃度判定ステップと、
前記撮像画像データまたは前記原画像データを被合成画像データとして、前記濃度判定ステップでの判定結果に応じて前記被合成画像データに疑似不良データを合成することによって、前記不良画像に対応する教師データである第1教師データを作成する教師データ作成ステップと、
前記第1教師データと前記良好画像に対応する教師データである第2教師データとを用いて機械学習を行う学習ステップと
を含み、
前記疑似不良データとして、
インクの汚れを表す画像データである高濃度疑似不良データと
前記印刷装置による印刷時のインクの抜けに起因するスジ状の画像を表す画像データである低濃度疑似不良データとが用いられ、
前記教師データ作成ステップでは、前記濃度判定ステップで前記高濃度画像である旨の判定が行われた印刷画像については、対応する被合成画像データに前記低濃度疑似不良データを合成することによって前記第1教師データが作成され、前記濃度判定ステップで前記低濃度画像である旨の判定が行われた印刷画像については、対応する被合成画像データに前記高濃度疑似不良データを合成することによって前記第1教師データが作成されることを特徴とする、画像判別モデル構築方法。
【請求項2】
前記疑似不良データは、過去に前記印刷装置から出力された印刷画像から抽出された画像データであることを特徴とする、請求項
1に記載の画像判別モデル構築方法。
【請求項3】
前記疑似不良データは、図形生成手段を用いてランダムに生成された画像データであることを特徴とする、請求項
1に記載の画像判別モデル構築方法。
【請求項4】
前記教師データ作成ステップにおいて、前記濃度判定ステップで前記低濃度画像である旨の判定が行われた印刷画像に対応する第1教師データの作成が行われる際、乱数によって決定される属性を有する高濃度疑似不良データが前記被合成画像データに合成されることを特徴とする、請求項
3に記載の画像判別モデル構築方法。
【請求項5】
前記教師データ作成ステップにおいて、前記濃度判定ステップで前記低濃度画像である旨の判定が行われた印刷画像に対応する第1教師データの作成が行われる際、乱数によって決定される態様のグラデーションを有する画像を表す高濃度疑似不良データが前記被合成画像データに合成されることを特徴とする、請求項
4に記載の画像判別モデル構築方法。
【請求項6】
前記教師データ作成ステップにおいて、前記濃度判定ステップで前記低濃度画像である旨の判定が行われた印刷画像に対応する第1教師データの作成が行われる際、前記高濃度疑似不良データの画像が乱数によって決定される位置に配置されるように前記高濃度疑似不良データが前記被合成画像データに合成されることを特徴とする、請求項
3に記載の画像判別モデル構築方法。
【請求項7】
前記印刷装置は、C色、M色、Y色、およびK色のインクを用いて印刷を行い、
前記教師データ作成ステップにおいて、前記濃度判定ステップで前記高濃度画像である旨の判定が行われた印刷画像については、CMYK色空間において前記被合成画像データに含まれているインク色のうちの少なくとも1つのインク色の成分を当該被合成画像データから除去することによって、前記第1教師データが作成されることを特徴とする、請求項1から
6までのいずれか1項に記載の画像判別モデル構築方法。
【請求項8】
前記第1教師データの作成元となる印刷画像が作業者によって選択された後、前記濃度判定ステップの処理と前記教師データ作成ステップの処理とが作業者の操作を介することなく行われることにより前記第1教師データが自動的に作成されることを特徴とする、請求項1から
7までのいずれか1項に記載の画像判別モデル構築方法。
【請求項9】
前記教師データ作成ステップでは、前記被合成画像データに前記疑似不良データを合成する処理を繰り返すことによって、1つの前記被合成画像データから複数の前記第1教師データが作成されることを特徴とする、請求項
8に記載の画像判別モデル構築方法。
【請求項10】
前記教師データ作成ステップと前記学習ステップとの間に、前記第1教師データおよび前記第2教師データに前記原画像データまたは前記原画像データに相当するデータを付加する原画像付加ステップを含むことを特徴とする、請求項1から
9までのいずれか1項に記載の画像判別モデル構築方法。
【請求項11】
印刷装置から印刷媒体に出力された印刷画像が
インク汚れも白スジも発生させない良好画像であるのか
インク汚れまたは白スジを発生させる不良画像であるのかを判別する画像判別モデルを構築する方法であって、
前記不良画像に対応する教師データである第1教師データと前記良好画像に対応する教師データである第2教師データとに前記印刷画像の原画像を表す原画像データまたは前記原画像データに相当するデータを付加する原画像付加ステップと、
前記原画像付加ステップで前記原画像データまたは前記原画像データに相当するデータが付加された第1教師データと前記原画像付加ステップで前記原画像データまたは前記原画像データに相当するデータが付加された第2教師データとを用いて機械学習を行う学習ステップと
を含むことを特徴とする、画像判別モデル構築方法。
【請求項12】
印刷装置から印刷媒体に出力された印刷画像が
インク汚れも白スジも発生させない良好画像であるのか
インク汚れまたは白スジを発生させる不良画像であるのかを判別する
画像判別装置であって、
前記不良画像に対応する教師データである第1教師データと前記良好画像に対応する教師データである第2教師データとを用いた機械学習によって定められたパラメータを保持するニューラルネットワーク
を用いて、前記印刷画像が前記良好画像であるのか前記不良画像であるのかを判別するための判別データを取得する判別データ取得手段と、
前記判別データに基づいて前記印刷画像が
前記良好画像であるのか
前記不良画像であるのかの判別結果を出力する結果出力
手段と
を備え、
前記印刷媒体上の前記印刷画像を撮像することによって得られた撮像画像データまたは前記印刷画像の原画像を表す原画像データのデータ値の平均値を所定の閾値と比較することによって得られる結果に基づいて前記印刷画像は低濃度の印刷画像と高濃度の印刷画像とに分類され、
前記第1教師データは、
前記撮像画像データまたは
前記原画像データを被合成画像データとして、
前記低濃度の印刷画像に対応する被合成画像データに
インクの汚れを表す画像データである高濃度疑似不良データを合成することによって作成されたデータと、
前記高濃度の印刷画像に対応する被合成画像データに
前記印刷装置による印刷時のインクの抜けに起因するスジ状の画像を表す画像データである低濃度疑似不良データを合成することによって作成されたデータとを含むことを特徴とする、
画像判別装置。
【請求項13】
印刷装置から印刷媒体に出力された印刷画像が
インク汚れも白スジも発生させない良好画像であるのか
インク汚れまたは白スジを発生させる不良画像であるのかを判別する方法であって、
機械学習によって定められるパラメータを保持するニューラルネットワーク部を含む画像判別モデルを構築するモデル構築ステップと、
前記画像判別モデルを用いて、判別対象の印刷画像である対象画像が前記良好画像であるのか前記不良画像であるのかの判別結果を得る判別ステップと
を含み、
前記モデル構築ステップは、
前記印刷媒体上の前記印刷画像を撮像することによって得られた撮像画像データまたは前記印刷画像の原画像を表す原画像データ
のデータ値の平均値を所定の閾値と比較することによって得られる結果に基づいて前記印刷画像が高濃度画像であるのか低濃度画像であるのかを判定する濃度判定ステップと、
前記撮像画像データまたは前記原画像データを被合成画像データとして、前記濃度判定ステップでの判定結果に応じて前記被合成画像データに疑似不良データを合成することによって、前記不良画像に対応する教師データである第1教師データを作成する教師データ作成ステップと、
前記第1教師データと前記良好画像に対応する教師データである第2教師データとを用いて機械学習を行う学習ステップと
を含み、
前記疑似不良データとして、
インクの汚れを表す画像データである高濃度疑似不良データと
前記印刷装置による印刷時のインクの抜けに起因するスジ状の画像を表す画像データである低濃度疑似不良データとが用意され、
前記教師データ作成ステップでは、前記濃度判定ステップで前記高濃度画像である旨の判定が行われた印刷画像については、対応する被合成画像データに前記低濃度疑似不良データを合成することによって前記第1教師データが作成され、前記濃度判定ステップで前記低濃度画像である旨の判定が行われた印刷画像については、対応する被合成画像データに前記高濃度疑似不良データを合成することによって前記第1教師データが作成され、
前記ニューラルネットワーク部には、前記学習ステップで得られたパラメータが保持されることを特徴とする、画像判別方法。
【請求項14】
前記印刷媒体上の前記印刷画像を撮像することによって前記撮像画像データを取得する撮像ステップと、
前記撮像画像データと前記原画像データとを比較することによって前記印刷画像に不良部分があるか否かの検査を行う検査ステップと
を含み、
前記教師データ作成ステップでは、前記検査ステップでの検査によって不良部分がある旨の判定がなされた印刷画像のうちの実際には不良画像ではない印刷画像に対応する、撮像画像データまたは原画像データが、前記被合成画像データとされることを特徴とする、請求項
13に記載の画像判別方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、印刷装置(典型的にはインクジェット印刷装置)から印刷媒体に出力された印刷画像が良好画像であるのか不良画像であるのかを判別する画像判別モデルを構築する方法に関する。
【背景技術】
【0002】
近年、印刷物の品質向上が強く求められており、それに伴い、印刷物の検査の重要性が高まっている。そこで、印刷状態を検査する検査装置を備えたインクジェット印刷装置の普及が進んでいる。検査装置は、印刷後の用紙をカメラで撮像することによって得られる撮像画像と印刷元のデータに相当する原画像とを比較照合することにより、インク汚れ(例えば、
図20で符号91を付した部分に示すような汚れ)や白スジなどの印刷不良をリアルタイムで検出する。なお、白スジとは、印刷時のインクの抜けに起因するスジ状の画像である。
図21において、符号92を付した矢印の部分に白スジの一例を示している。検査装置による検査で上述のような印刷不良が検出されると、当該検査装置から検査結果として不良情報(例えば、不良種別、不良箇所の切り取り画像)が出力される。
【0003】
ところが、従来の検査装置によれば、検査精度が不充分であり、検査結果に多数の虚報(実際には印刷不良ではないものに対してなされた印刷不良である旨の提示)が含まれている。このため、検査装置によって印刷不良である旨の判断がなされた全ての印刷画像に対して、実際に印刷不良が生じているか否かの判別を作業者が目視によって行っている。しかしながら、このような目視による検査は作業者にとって負担が大きいので、作業者の負担を軽減することが強く望まれている。なお、以下においては、虚報を生じた印刷画像の状態を「偽不良」といい、実際に印刷不良が生じている印刷画像の状態を「真不良」という。
【0004】
作業者の目視検査の負担の軽減を図るため、近年、検査装置から出力された検査結果を人工知能(AI)の技術を用いて真不良と偽不良とに分類する試みがなされている。これによれば、ニューラルネットワーク等で構成された人工知能モデル95で予め真不良の印刷画像93と偽不良の印刷画像94とを用いた機械学習が行われる(
図22参照)。そして、学習済みの人工知能モデルに、検査装置から出力された不良箇所の切り取り画像のデータが入力される。これにより、該当の印刷画像(切り取り画像)の状態が真不良であるのか偽不良であるのかの判別が行われる。以上のようにして真不良の結果のみをユーザーに提示することが提案されている。
【0005】
なお、本発明に関連して以下の先行技術文献が知られている。特開2005-156334号公報には、ニューラルネットワークでの学習に必要な不良画像を自動的かつ大量に作成する技術が開示されている。国際公開2017/154630号パンフレットには、合成画像と背景画像との差分である差分画像を学習データとすることにより画像中に色彩あるいは明度が背景と類似する物体が含まれていても当該物体を識別できるようにする技術が開示されている。特開2018-195119号公報には、検査対象データと特徴抽出データとの差に基づく判定用データに基づいて検査対象データの異変の有無を判定する技術が開示されている。
【先行技術文献】
【特許文献】
【0006】
【文献】特開2005-156334号公報
【文献】国際公開2017/154630号パンフレット
【文献】特開2018-195119号公報
【発明の概要】
【発明が解決しようとする課題】
【0007】
ところが、人工知能の技術を活用した従来の手法によれば、インクジェット印刷装置ではインク汚れや白スジなどの印刷不良が発生する頻度が低いために真不良データ(真不良の印刷画像のデータ)に関して充分な数の学習データを確保することが困難である。特開2005-156334号公報に不良画像を大量に作成する技術が開示されているが、必ずしも実際に生じるような不良画像のみが作成されるわけではない。このため、充分な精度で判別を行うことは困難であると考えられる。
【0008】
また、インクジェット印刷装置ではバリアブルなデータ(ページ毎に画像や文字などが異なるデータ)の印刷が行われることが多い。それ故、通常、印刷不良となった印刷画像毎に背景(原画像)が異なる。例えば、インク汚れが複数の用紙で発生している場合に、風景画像上にインク汚れが発生している用紙もあれば、文字上にインク汚れが発生している用紙もある。また、インク汚れの形状についても様々である。人であれば背景とインク汚れを区別することは容易であるが、人工知能モデルにとっては背景とインク汚れを区別することは困難である。このように、人工知能の技術を活用した従来の手法によれば、背景が学習結果に及ぼす影響が大きく、充分な判別精度が得られない。これに関し、国際公開2017/154630号パンフレットに開示された技術および特開2018-195119号公報に開示された技術では、差分画像を学習データとしている。これらの技術を真不良と偽不良との判別に適用すると、例えば汚れ画像(インク汚れを表す画像)と背景画像とを合成した合成画像が生成され、当該合成画像と背景画像との差分画像が機械学習に用いる学習データとなる。但し、この場合、学習の際、例えば汚れ画像がどのような濃度の背景画像上に位置しているのかという情報が除去される。このため、真不良と偽不良との判別を背景を考慮して行うことはできない。これについては、
図23~
図26を参照しつつ、以下にさらに説明する。
【0009】
ここでは、
図23で符号961を付した背景画像と
図23で符号962を付した汚れ画像とに着目する。背景画像961については、上半分の画像は高濃度であって下半分の画像は低濃度であると仮定する。
図24に示すように背景画像上の高濃度の部分に汚れ画像が存在する場合には、汚れ画像は目立たないため、人工知能モデルによって該当の印刷画像は偽不良である旨の判別結果が得られることが好ましい。一方、
図25に示すように背景画像上の低濃度の部分に汚れ画像が存在する場合には、汚れ画像は目立つため、人工知能モデルによって該当の印刷画像は真不良である旨の判別結果が得られることが好ましい。
図24に示したケースでは、合成画像と背景画像との差分画像は
図26で符号971を付した画像となる。
図25に示したケースでは、合成画像と背景画像との差分画像は
図26で符号972を付した画像となる。画像971と画像972とは、汚れ画像の位置が異なるだけであって、それ以外の要素は同じである。従って、
図24に示したケースの判別結果と
図25に示したケースの判別結果とは同じになる。このように、人工知能の技術を活用した従来の手法では、真不良と偽不良との判別の際に背景が考慮されないので、所望の判別結果が得られない。
【0010】
以上の点に鑑み、本発明は、印刷装置(典型的にはインクジェット印刷装置)から印刷媒体に出力された印刷画像が不良画像(真不良の画像)であるか否かを充分な精度で判別できるようにすることを目的とする。
【課題を解決するための手段】
【0011】
第1の発明は、印刷装置から印刷媒体に出力された印刷画像がインク汚れも白スジも発生させない良好画像であるのかインク汚れまたは白スジを発生させる不良画像であるのかを判別する画像判別モデルを構築する方法であって、
前記印刷媒体上の前記印刷画像を撮像することによって得られた撮像画像データまたは前記印刷画像の原画像を表す原画像データのデータ値の平均値を所定の閾値と比較することによって得られる結果に基づいて前記印刷画像が高濃度画像であるのか低濃度画像であるのかを判定する濃度判定ステップと、
前記撮像画像データまたは前記原画像データを被合成画像データとして、前記濃度判定ステップでの判定結果に応じて前記被合成画像データに疑似不良データを合成することによって、前記不良画像に対応する教師データである第1教師データを作成する教師データ作成ステップと、
前記第1教師データと前記良好画像に対応する教師データである第2教師データとを用いて機械学習を行う学習ステップと
を含み、
前記疑似不良データとして、インクの汚れを表す画像データである高濃度疑似不良データと前記印刷装置による印刷時のインクの抜けに起因するスジ状の画像を表す画像データである低濃度疑似不良データとが用いられ、
前記教師データ作成ステップでは、前記濃度判定ステップで前記高濃度画像である旨の判定が行われた印刷画像については、対応する被合成画像データに前記低濃度疑似不良データを合成することによって前記第1教師データが作成され、前記濃度判定ステップで前記低濃度画像である旨の判定が行われた印刷画像については、対応する被合成画像データに前記高濃度疑似不良データを合成することによって前記第1教師データが作成されることを特徴とする。
【0013】
第2の発明は、第1の発明において、
前記疑似不良データは、過去に前記印刷装置から出力された印刷画像から抽出された画像データであることを特徴とする。
【0014】
第3の発明は、第1の発明において、
前記疑似不良データは、図形生成手段を用いてランダムに生成された画像データであることを特徴とする。
【0015】
第4の発明は、第3の発明において、
前記教師データ作成ステップにおいて、前記濃度判定ステップで前記低濃度画像である旨の判定が行われた印刷画像に対応する第1教師データの作成が行われる際、乱数によって決定される属性を有する高濃度疑似不良データが前記被合成画像データに合成されることを特徴とする。
【0016】
第5の発明は、第4の発明において、
前記教師データ作成ステップにおいて、前記濃度判定ステップで前記低濃度画像である旨の判定が行われた印刷画像に対応する第1教師データの作成が行われる際、乱数によって決定される態様のグラデーションを有する画像を表す高濃度疑似不良データが前記被合成画像データに合成されることを特徴とする。
【0017】
第6の発明は、第3の発明において、
前記教師データ作成ステップにおいて、前記濃度判定ステップで前記低濃度画像である旨の判定が行われた印刷画像に対応する第1教師データの作成が行われる際、前記高濃度疑似不良データの画像が乱数によって決定される位置に配置されるように前記高濃度疑似不良データが前記被合成画像データに合成されることを特徴とする。
【0018】
第7の発明は、第1から第6までのいずれかの発明において、
前記印刷装置は、C色、M色、Y色、およびK色のインクを用いて印刷を行い、
前記教師データ作成ステップにおいて、前記濃度判定ステップで前記高濃度画像である旨の判定が行われた印刷画像については、CMYK色空間において前記被合成画像データに含まれているインク色のうちの少なくとも1つのインク色の成分を当該被合成画像データから除去することによって、前記第1教師データが作成されることを特徴とする。
【0019】
第8の発明は、第1から第7までのいずれかの発明において、
前記第1教師データの作成元となる印刷画像が作業者によって選択された後、前記濃度判定ステップの処理と前記教師データ作成ステップの処理とが作業者の操作を介することなく行われることにより前記第1教師データが自動的に作成されることを特徴とする。
【0020】
第9の発明は、第8の発明において、
前記教師データ作成ステップでは、前記被合成画像データに前記疑似不良データを合成する処理を繰り返すことによって、1つの前記被合成画像データから複数の前記第1教師データが作成されることを特徴とする。
【0021】
第10の発明は、第1から第9までのいずれかの発明において、
前記教師データ作成ステップと前記学習ステップとの間に、前記第1教師データおよび前記第2教師データに前記原画像データまたは前記原画像データに相当するデータを付加する原画像付加ステップを含むことを特徴とする。
【0022】
第11の発明は、印刷装置から印刷媒体に出力された印刷画像がインク汚れも白スジも発生させない良好画像であるのかインク汚れまたは白スジを発生させる不良画像であるのかを判別する画像判別モデルを構築する方法であって、
前記不良画像に対応する教師データである第1教師データと前記良好画像に対応する教師データである第2教師データとに前記印刷画像の原画像を表す原画像データまたは前記原画像データに相当するデータを付加する原画像付加ステップと、
前記原画像付加ステップで前記原画像データまたは前記原画像データに相当するデータが付加された第1教師データと前記原画像付加ステップで前記原画像データまたは前記原画像データに相当するデータが付加された第2教師データとを用いて機械学習を行う学習ステップと
を含むことを特徴とする。
【0023】
第12の発明は、印刷装置から印刷媒体に出力された印刷画像がインク汚れも白スジも発生させない良好画像であるのかインク汚れまたは白スジを発生させる不良画像であるのかを判別する画像判別装置であって、
前記不良画像に対応する教師データである第1教師データと前記良好画像に対応する教師データである第2教師データとを用いた機械学習によって定められたパラメータを保持するニューラルネットワークを用いて、前記印刷画像が前記良好画像であるのか前記不良画像であるのかを判別するための判別データを取得する判別データ取得手段と、
前記判別データに基づいて前記印刷画像が前記良好画像であるのか前記不良画像であるのかの判別結果を出力する結果出力手段と
を備え、
前記印刷媒体上の前記印刷画像を撮像することによって得られた撮像画像データまたは前記印刷画像の原画像を表す原画像データのデータ値の平均値を所定の閾値と比較することによって得られる結果に基づいて前記印刷画像は低濃度の印刷画像と高濃度の印刷画像とに分類され、
前記第1教師データは、前記撮像画像データまたは前記原画像データを被合成画像データとして、前記低濃度の印刷画像に対応する被合成画像データにインクの汚れを表す画像データである高濃度疑似不良データを合成することによって作成されたデータと、前記高濃度の印刷画像に対応する被合成画像データに前記印刷装置による印刷時のインクの抜けに起因するスジ状の画像を表す画像データである低濃度疑似不良データを合成することによって作成されたデータとを含むことを特徴とする。
【0024】
第13の発明は、印刷装置から印刷媒体に出力された印刷画像がインク汚れも白スジも発生させない良好画像であるのかインク汚れまたは白スジを発生させる不良画像であるのかを判別する方法であって、
機械学習によって定められるパラメータを保持するニューラルネットワーク部を含む画像判別モデルを構築するモデル構築ステップと、
前記画像判別モデルを用いて、判別対象の印刷画像である対象画像が前記良好画像であるのか前記不良画像であるのかの判別結果を得る判別ステップと
を含み、
前記モデル構築ステップは、
前記印刷媒体上の前記印刷画像を撮像することによって得られた撮像画像データまたは前記印刷画像の原画像を表す原画像データのデータ値の平均値を所定の閾値と比較することによって得られる結果に基づいて前記印刷画像が高濃度画像であるのか低濃度画像であるのかを判定する濃度判定ステップと、
前記撮像画像データまたは前記原画像データを被合成画像データとして、前記濃度判定ステップでの判定結果に応じて前記被合成画像データに疑似不良データを合成することによって、前記不良画像に対応する教師データである第1教師データを作成する教師データ作成ステップと、
前記第1教師データと前記良好画像に対応する教師データである第2教師データとを用いて機械学習を行う学習ステップと
を含み、
前記疑似不良データとして、インクの汚れを表す画像データである高濃度疑似不良データと前記印刷装置による印刷時のインクの抜けに起因するスジ状の画像を表す画像データである低濃度疑似不良データとが用意され、
前記教師データ作成ステップでは、前記濃度判定ステップで前記高濃度画像である旨の判定が行われた印刷画像については、対応する被合成画像データに前記低濃度疑似不良データを合成することによって前記第1教師データが作成され、前記濃度判定ステップで前記低濃度画像である旨の判定が行われた印刷画像については、対応する被合成画像データに前記高濃度疑似不良データを合成することによって前記第1教師データが作成され、
前記ニューラルネットワーク部には、前記学習ステップで得られたパラメータが保持されることを特徴とする。
【0025】
第14の発明は、第13の発明において、
前記印刷媒体上の前記印刷画像を撮像することによって前記撮像画像データを取得する撮像ステップと、
前記撮像画像データと前記原画像データとを比較することによって前記印刷画像に不良部分があるか否かの検査を行う検査ステップと
を含み、
前記教師データ作成ステップでは、前記検査ステップでの検査によって不良部分がある旨の判定がなされた印刷画像のうちの実際には不良画像ではない印刷画像に対応する、撮像画像データまたは原画像データが、前記被合成画像データとされることを特徴とする。
【発明の効果】
【0026】
上記第1の発明によれば、撮像画像データまたは原画像データを被合成画像データとして被合成画像データに疑似不良データを合成することによって、不良画像に対応する教師データである第1教師データが作成される。これにより、印刷装置で印刷不良が発生する頻度が低くても、充分な数の第1教師データを学習データとして用意することが可能となる。従って、印刷画像が不良画像(真不良の画像)であるか否かを精度良く判別できるようになる。具体的には、印刷画像中のインク汚れの有無および印刷画像中の白スジの有無を精度良く判別することが可能となる。
【0028】
上記第2の発明によれば、過去の実際の不良画像(真不良の画像)に基づいて第1教師データが作成されることになるので、判別精度が高くなる。
【0029】
上記第3の発明によれば、疑似不良データの用意に関する作業者の負担が軽減される。
【0030】
上記第4から第6までの発明によれば、様々な態様の高濃度疑似不良データが付加された第1教師データが作成されるので、様々な態様の不良画像に対して正確な判別を行うことが可能となる。
【0031】
上記第7の発明によれば、実際には生じ得ないような不良画像のデータを含む第1教師データ(すなわち、学習の際にノイズとなるような第1教師データ)が作成されることが防止される。
【0032】
上記第8の発明によれば、学習に必要な第1教師データが効率的に作成される。
【0033】
上記第9の発明によれば、より効率的に第1教師データが作成される。
【0034】
上記第10の発明によれば、学習に先立って教師データに原画像データ(もしくは原画像データに相当するデータ)が付加されるので、画像判別モデルにとって背景画像と不良画像とを区別することが容易となり、判別の際に背景が考慮される。すなわち、背景が学習結果に大きな影響を及ぼすことが防止される。また、上述したように、充分な数の第1教師データを学習データとして用意することが可能となる。以上より、印刷画像が不良画像(真不良の画像)であるか否かを充分な精度で判別することが可能となる。
【0035】
上記第11の発明によれば、学習に先立って教師データに原画像データ(もしくは原画像データに相当するデータ)が付加されるので、画像判別モデルにとって背景画像と不良画像とを区別することが容易となり、判別の際に背景が考慮される。すなわち、背景が学習結果に大きな影響を及ぼすことが防止され、印刷画像が不良画像(真不良の画像)であるか否かを従来と比較して精度良く判別することが可能となる。
【0036】
上記第12の発明によれば、上記第1の発明と同様の効果が得られる。
【0037】
上記第13の発明によれば、上記第1の発明と同様の効果が得られる。
【0038】
上記第14の発明によれば、偽不良のデータに基づいて第1教師データが作成されるので、真不良と偽不良との判別をより精度良く行うことが可能となる。
【図面の簡単な説明】
【0039】
【
図1】本発明の一実施形態における印刷システムの全体構成図である。
【
図2】上記実施形態におけるインクジェット印刷装置の一構成例を示す模式図である。
【
図3】上記実施形態における印刷データ生成装置のハードウェア構成図である。
【
図4】上記実施形態における全体の処理手順を示すフローチャートである。
【
図5】上記実施形態において、検査装置の動作について説明するための図である。
【
図6】上記実施形態における画像判別モデルの概略構成図である。
【
図7】上記実施形態において、学習時の処理について説明するための図である。
【
図8】上記実施形態において、画像判別モデル内のニューラルネットワーク部の詳細な構成の一例を示す図である。
【
図9】上記実施形態において、画像判別モデルを構築する手順を示すフローチャートである。
【
図10】上記実施形態において、撮像画像データへの白スジデータの合成について説明するための図である。
【
図11】上記実施形態において、撮像画像データへの汚れデータの合成について説明するための図である。
【
図12】上記実施形態において、汚れデータの合成位置を乱数で決定することについて説明するための図である。
【
図13】上記実施形態において、合成する汚れデータの色を乱数で決定することについて説明するための図である。
【
図14】上記実施形態において、合成する汚れデータのグラデーションの態様を乱数で決定することについて説明するための図である。
【
図15】上記実施形態において、教師データへの原画像データの付加について説明するための図である。
【
図16】上記実施形態において、撮像ベースデータに原画像データが付加された入力データ(画像判別モデルへの入力データ)について説明するための図である。
【
図17】従来の手法における判別について説明するための図である。
【
図18】撮像画像データに疑似不良データを合成することによって第1教師データを作成するという構成が採用された場合の判別について説明するための図である。
【
図19】上記実施形態における判別について説明するための図である。
【
図20】インク汚れについて説明するための図である。
【
図22】人工知能の技術を活用した従来の手法について説明するための図である。
【
図23】従来技術に関し、真不良と偽不良との判別の際に背景が考慮されないことについて説明するための図である。
【
図24】従来技術に関し、真不良と偽不良との判別の際に背景が考慮されないことについて説明するための図である。
【
図25】従来技術に関し、真不良と偽不良との判別の際に背景が考慮されないことについて説明するための図である。
【
図26】従来技術に関し、真不良と偽不良との判別の際に背景が考慮されないことについて説明するための図である。
【発明を実施するための形態】
【0040】
以下、添付図面を参照しつつ、本発明の一実施形態について説明する。
【0041】
<1.印刷システムの全体構成>
図1は、本発明の一実施形態における印刷システムの全体構成図である。この印刷システムは、インクジェット印刷装置100と印刷データ生成装置200とによって構成されている。インクジェット印刷装置100と印刷データ生成装置200とは通信回線300によって互いに接続されている。インクジェット印刷装置100は、印刷版を用いることなくデジタルデータである印刷データに基づいて印刷媒体である印刷用紙122に印刷画像を出力する。インクジェット印刷装置100は、印刷機本体120とそれを制御する印刷制御装置110とによって構成されている。本実施形態においては、印刷状態を検査する検査装置127が印刷機本体120に内蔵されている。印刷データ生成装置200は、PDFファイルなどの入稿データに対して各種処理を施して印刷データを生成する。また、印刷データ生成装置200は、検査装置127が印刷不良であると判定した印刷画像に対して、真不良の画像であるのか偽不良の画像であるのかを判別する。以下、真不良の画像のことを単に「不良画像」といい、偽不良の画像および検査装置127によって印刷不良であるとは判定されない画像のことを「良好画像」という。
【0042】
なお、本実施形態においては検査装置127が印刷機本体120に内蔵されているが、これには限定されない。例えば、検査装置127が印刷機本体120の外部にあっても良いし、検査装置127がインクジェット印刷装置100とは独立した1つの装置であっても良い。
【0043】
<2.インクジェット印刷装置の構成>
図2は、本実施形態におけるインクジェット印刷装置100の一構成例を示す模式図である。上述したように、このインクジェット印刷装置100は、印刷機本体120とそれを制御する印刷制御装置110とによって構成されている。
【0044】
印刷機本体120は、印刷媒体である印刷用紙(例えばロール紙)122を供給する用紙送出部121と、印刷用紙122を印刷機構内部へと搬送するための第1の駆動ローラ123と、印刷機構内部で印刷用紙122を搬送するための複数個の支持ローラ124と、印刷用紙122にインクを吐出して印刷を行う印字部125と、印刷後の印刷用紙122を乾燥させる乾燥部126と、印刷用紙122への印刷の状態を検査する検査装置127と、印刷用紙122を印刷機構内部から出力するための第2の駆動ローラ128と、印刷後の印刷用紙122を巻き取る用紙巻取部129とを備えている。このように第1の駆動ローラ123と第2の駆動ローラ128とにより印刷用紙122は用紙送出部121から用紙巻取部129に向けて一定の搬送方向で搬送される。印字部125には、C(シアン),M(マゼンタ),Y(イエロー),およびK(ブラック)のインクをそれぞれ吐出するC用インクジェットヘッド125c,M用インクジェットヘッド125m,Y用インクジェットヘッド125y,およびK用インクジェットヘッド125kが含まれている。
【0045】
印刷制御装置110は、以上のような構成の印刷機本体120の動作を制御する。印刷制御装置110に印刷出力の指示コマンドが与えられると、印刷制御装置110は、印刷用紙122が用紙送出部121から用紙巻取部129へと搬送されるよう、印刷機本体120の動作を制御する。そして、印刷用紙122の搬送過程において、まず印字部125内の各インクジェットヘッド125c,125m,125y,および125kからのインクの吐出による印字が行われ、次に乾燥部126によって印刷用紙122の乾燥が行われ、最後に検査装置127によって印刷状態の検査が行われる。
【0046】
検査装置127にはカメラが内蔵されており、検査の際には、カメラで印刷用紙122に出力された印刷画像を撮像することによって得られた撮像画像と印刷データ生成装置200から送られる印刷元のデータに相当する原画像との比較照合が行われる。その比較照合によって印刷不良(この印刷不良には真不良と偽不良とが含まれている)が検出されると、上述した不良情報が検査装置127から印刷データ生成装置200に送られる。
【0047】
なお、ここではカラー印刷を行うインクジェット印刷装置100の構成を例示したが、モノクロ印刷を行うインクジェット印刷装置が採用されている場合にも本発明を適用することができる。また、ここでは水性インクを用いるインクジェット印刷装置100の構成を例示したが、例えばラベル印刷向けインクジェット印刷装置のようにUVインク(紫外線硬化インク)を用いるインクジェット印刷装置が採用されている場合にも本発明を適用することができる。
【0048】
<3.印刷データ生成装置の構成>
図3は、本実施形態における印刷データ生成装置200のハードウェア構成図である。この印刷データ生成装置200は、パソコンによって実現されており、CPU21と、ROM22と、RAM23と、補助記憶装置24と、キーボード等の入力操作部25と、表示部26と、光学ディスクドライブ27と、ネットワークインタフェース部28とを有している。通信回線300経由で送られてくるデータ(入稿データ、不良情報など)は、ネットワークインタフェース部28を介して印刷データ生成装置200の内部へと入力される。印刷データ生成装置200で生成された印刷データは、ネットワークインタフェース部28を介して通信回線300経由でインクジェット印刷装置100に送られる。
【0049】
本実施形態においては、この印刷データ生成装置200で、印刷画像が良好画像であるのか不良画像であるのかを判別するための画像判別モデルの構築が行われる。また、この印刷データ生成装置200で、構築後の画像判別モデル(学習済みの画像判別モデル)を用いて、印刷画像(典型的には、検査装置127によって印刷不良である旨の判定がなされた印刷画像)が良好画像であるのか不良画像であるのかの判別が行われる。画像判別モデルを構築するためのプログラム(画像判別モデル構築プログラム)241は補助記憶装置24に格納されている。画像判別モデル構築プログラム241は、CD-ROMやDVD-ROM等のコンピュータ読み取り可能な記録媒体に格納されて提供される。すなわちユーザは、例えば、画像判別モデル構築プログラム241の記録媒体としての光学ディスク(CD-ROM、DVD-ROM等)270を購入して光学ディスクドライブ27に装着し、その光学ディスク270から画像判別モデル構築プログラム241を読み出して補助記憶装置24にインストールする。また、これに代えて、通信回線300を介して送られる画像判別モデル構築プログラム241をネットワークインタフェース部28で受信して、それを補助記憶装置24にインストールするようにしてもよい。
【0050】
<4.全体の処理の流れ>
<4.1 概要>
本実施形態においては、インクジェット印刷装置100から印刷用紙122に出力された印刷画像が良好画像であるのか不良画像であるのかを判別する画像判別モデルが、機械学習を行う畳み込みニューラルネットワークによって実現される。画像判別モデルでの学習は、不良画像に対応する教師データと良好画像に対応する教師データとを用いて行われる。なお、説明の便宜上、不良画像に対応する教師データを「第1教師データ」といい、良好画像に対応する教師データを「第2教師データ」という。
【0051】
ところで、上述したようにインク汚れや白スジなどの印刷不良の発生頻度は低いので、第1教師データについては、充分な数の学習データを確保することが困難である。そこで、本実施形態においては、インク汚れや白スジなどを表す疑似不良データが用意され、良好画像である印刷画像の撮像で得られた撮像画像データに様々な態様で疑似不良データを合成することによって多数の第1教師データが作成される。なお、疑似不良データとしては、高濃度疑似不良データと低濃度疑似不良データとが用意される。例えば、インク汚れを表す疑似不良データが高濃度疑似不良データに相当し、白スジを表す疑似不良データが低濃度疑似不良データに相当する。
【0052】
また、本実施形態においては、画像判別モデルによる判別の際に画像中の不良部分が着目されるようにするために、画像判別モデルには入力データとして判別対象画像(良好画像であるのか不良画像であるのかの判別の対象となっている印刷画像)に相当するデータが与えられるだけでなく当該判別対象画像の原画像に相当するデータも与えられる。なお、本明細書では、判別時に画像判別モデルに与える画像だけでなく学習時に画像判別モデルに与える画像についても「判別対象画像」という語を用いる。
【0053】
以上のようにして、印刷画像が良好画像であるのか不良画像であるのかを精度良く判別することのできる画像判別モデルが構築される。そして、構築済み(学習済み)の画像判別モデルを用いて、判別対象画像が良好画像であるのか不良画像であるのかの判別が行われる。
【0054】
<4.2 処理手順>
図4は、本実施形態における全体の処理手順を示すフローチャートである。まず、インクジェット印刷装置100で印刷を実行するための印刷データが準備される(ステップS10)。このステップS10では、例えば、印刷データ生成装置200がPDFファイルなどの入稿データに対してRIP処理を施すことによってビットマップ形式のデータである印刷データが生成される。
【0055】
次に、ステップS10で準備された印刷データに基づいて、インクジェット印刷装置100で印刷出力が実行される(ステップS20)。そして、印刷出力の結果である印刷画像に対して、検査装置127による検査が行われる(ステップS30およびステップS40)。ステップS30では、検査装置127に含まれるカメラによって印刷画像の撮像(読み取り)が行われる。これにより、RGB形式のデータである撮像画像データが得られる。ステップS40では、検査装置127において撮像画像データ41と印刷データをRGB形式に変換したデータ(以下、ビットマップ形式の印刷データとそれをRGB形式に変換したデータとを総称して「原画像データ」という。)42との比較照合が行われ、検査結果として不良情報43が当該検査装置127から出力される(
図5参照)。この不良情報43には、真不良である画像のデータ(真不良データ)431と偽不良である画像のデータ(偽不良データ)432とが含まれている。なお、多数の偽不良データ432が得られるよう(換言すれば、本来的には印刷不良と判断されないデータの一部が印刷不良と判断されるよう)、検査装置127による判定条件を本来とは異なる条件に変更しておいても良い。不良情報43や原画像データは必要に応じて検査装置127から印刷データ生成装置200に送られる。
【0056】
上記ステップS10~S40の処理は、典型的には複数の印刷データに対して行われる。すなわち、ステップS10~S40の処理が繰り返されることによって、多数の印刷画像に基づく不良情報43が得られる
【0057】
検査結果の出力後、後述するステップS70で疑似不良データの合成先のデータとする被合成画像データの収集が行われる(ステップS50)。このステップS50では、検査装置127による検査で印刷不良とは判定されなかった印刷画像のデータや上記不良情報43に含まれる偽不良データが被合成画像データとして収集される。上記不良情報43に含まれているデータについての真不良と偽不良との判別は作業者による目視によって行われる。なお、被合成画像データとして収集されるデータは、印刷画像全体(ページ全体)のうちの一部の範囲の画像データである。
【0058】
次に、印刷データ生成装置200において、上記不良情報43に含まれる真不良データに基づいて、疑似不良データの収集が行われる(ステップS60)。疑似不良データの収集は、例えば、印刷データ生成装置200で画像編集ソフトを使用して真不良データの画像の中からインク汚れ部分のみを抽出することによって行われる。なお、抽出される部分の汚れの色は、汚れの原因となっているインクの色と背景(原画像)の色とが混ざった色となっている。ところで、真不良データの元となる画像は、インクジェット印刷装置100から出力された印刷画像である。すなわち、本実施形態においては、インク汚れを表す疑似不良データ(汚れデータ)は、過去にインクジェット印刷装置100から出力された印刷画像から抽出された画像データである。なお、図形生成手段(図形の自動生成を行うプログラムなど)を用いてランダムに生成された画像データを疑似不良データとして使用するようにしても良い。
【0059】
その後、ステップS50で収集された被合成画像データやステップS60で収集された疑似不良データなどを用いて画像判別モデルの構築が行われる(ステップS70)。このステップS70の詳細については後述する。
【0060】
最後に、ステップS70で構築された画像判別モデルを用いて、判別対象画像が良好画像であるのか不良画像であるのかの判別が行われる(ステップS80)。このとき、画像判別モデルには判別対象画像の撮像で得られた撮像画像データと判別対象画像の原画像を表す原画像データとが入力データとして与えられ、判別結果が画像判別モデルから出力される。
【0061】
なお、本実施形態においては、ステップS30によって撮像ステップが実現され、ステップS40によって検査ステップが実現され、ステップS70によってモデル構築ステップが実現され、ステップS80によって判別ステップが実現されている。
【0062】
<5.画像判別モデル構築方法>
本実施形態に係る画像判別モデル構築方法について説明する。なお、ここで説明する処理は、印刷データ生成装置200で画像判別モデル構築プログラム241が実行されることによって行われる。
【0063】
<5.1 画像判別モデルの構造>
画像判別モデルを構築する手順について説明する前に、画像判別モデルの構造について説明する。なお、ここで説明する構造は一例であって、本発明はこれに限定されない。
【0064】
図6は、画像判別モデル500の概略構成図である。
図6に示すように、画像判別モデル500は、機械学習を行うニューラルネットワーク部50と、判別対象画像が良好画像であるのか不良画像であるのかの判別結果7を出力する結果出力部59とからなる。本実施形態においては、ニューラルネットワーク部50は畳み込みニューラルネットワークによって実現される。
【0065】
ニューラルネットワーク部50には、「撮像画像データと原画像データとを組み合わせたデータ」もしくは「撮像画像データに疑似不良データを合成することによって得られたデータと原画像データとを組み合わせたデータ」が入力データとして与えられる。なお、以下、「撮像画像データ」と「撮像画像データに疑似不良データを合成することによって得られたデータ」を総称して「撮像ベースデータ」という。入力データはRGB形式のデータであって、各色の入力データは撮像ベースデータと原画像データとからなる。従って、詳細には、
図6に示すように、ニューラルネットワーク部50には、入力データとして、赤色撮像ベースデータ6_R1、赤色原画像データ6_R2、緑色撮像ベースデータ6_G1、緑色原画像データ6_G2、青色撮像ベースデータ6_B1、および青色原画像データ6_B2が与えられる。
【0066】
以上のように、6チャンネルのデータがニューラルネットワーク部50に入力される。各チャンネルのデータは、n個(nは複数)の画素値データで構成されている。例えば、赤色撮像ベースデータ6_R1は、
図6に示すようにn個の画素値データ6_R1(1)~6_R1(n)で構成されている。以上より、ニューラルネットワーク部50には、(6×n)個の画素値データが入力される。
【0067】
この例では1枚の6チャンネル画像のデータが画像判別モデル500に与えられているが、2枚の3チャンネル画像のデータを画像判別モデル500に与えて、それを画像判別モデル500の内部で1枚の6チャンネル画像のデータに変換して得られたデータをニューラルネットワーク部50に入力するようにしても良い。
【0068】
なお、入力データの元となる切り取り画像のサイズは、このニューラルネットワーク部50の各チャンネルのデータのサイズとは必ずしも一致しない。従って、サイズの不一致が生じている場合には、入力データの元データに対してサイズ変換を施しサイズを一致させたデータがニューラルネットワーク部50への入力データとなる。
【0069】
ニューラルネットワーク部50からは、撮像ベースデータの画像が良好画像であるのか不良画像であるのかを判別するための判別データ68が出力される。判別データ68は、0以上1以下の数値データである。学習時には、判別データ68の値と正解データ69の値(例えば、不良画像に対応する正解データの値を1とし、良好画像に対応する正解データの値を0とする)との差(典型的には、2乗誤差)(
図7参照)に基づく誤差逆伝播法の処理によって、ニューラルネットワーク部50(畳み込みニューラルネットワーク)で用いられているパラメータの値が更新される。判別時には、例えば、判別データ68の値が0.5以上であれば判別対象画像は不良画像である旨の判別結果が結果出力部59から出力され、判別データ68の値が0.5未満であれば判別対象画像は良好画像である旨の判別結果7が結果出力部59から出力される。
【0070】
図8は、画像判別モデル500内のニューラルネットワーク部50の詳細な構成の一例を示す図である。このニューラルネットワーク部50に上述した6チャンネルのデータ(赤色撮像ベースデータ6_R1、赤色原画像データ6_R2、緑色撮像ベースデータ6_G1、緑色原画像データ6_G2、青色撮像ベースデータ6_B1、および青色原画像データ6_B2)が入力されると、入力データに対して1組または複数組の畳み込みフィルタ51に基づく畳み込み演算が施される。なお、1組の畳み込みフィルタ51には6個のフィルタが含まれており、1組の畳み込みフィルタ51に基づく畳み込み演算によって1枚の特徴マップ52が得られる。例えば、3組の畳み込みフィルタ51が使用される場合、畳み込み演算によって3枚の特徴マップ52が得られる。そして、各特徴マップ52に対してプーリング演算が施されることによって、次元が削減されたプーリングデータ53が得られる。このようにして得られたプーリングデータ53が全結合層54に与えられ、当該全結合層54から上述した判別データ68が出力される。この判別データ68の値に基づいて、上述したように、学習時にはパラメータの更新が行われ、判別時には判別対象画像についての判別結果7が出力される。
【0071】
<5.2 手順>
図9は、画像判別モデル500を構築する手順(
図4のステップS70の処理の手順)を示すフローチャートである。上述したように、本実施形態においては、不良画像に対応する教師データ(第1教師データ)を作成する処理が行われる。この処理は、被合成画像データとしての撮像画像データに疑似不良データを合成することによって行われる。これに関し、第1教師データは、実際に検査装置127で検出すべき不良画像に近いデータであることが望ましい。例えば、検査装置127は、薄くインクが塗られている背景上にインク汚れが付着している部分や濃くインクが塗られている背景中のインクの抜けが生じている部分を不良部分と判断している。
【0072】
そこで、背景のインクの濃度に応じて撮像画像データに合成する疑似不良データを異ならせるために、まず、学習に用いる印刷画像における疑似不良データを合成する部分画像(判別対象画像)が高濃度画像であるのか低濃度画像であるのかの判定が行われる(ステップS710)。このステップS710では、判別対象画像が高濃度画像であるのか低濃度画像であるのかの判定が、当該判別対象画像に対応する撮像画像データに基づいて行われる。但し、この判定が判別対象画像に対応する原画像データに基づいて行われても良い。撮像画像データはRGB形式のデータであるので、RGBの各色について、撮像画像データを構成する画素値の平均値が求められる。すなわち、3つの平均値(赤色の平均値AVE_R、緑色の平均値AVE_G、青色の平均値AVE_B)が求められる。そして、3つの平均値のそれぞれが予め定められた閾値と比較され、所定の条件を満たすか否かによって判別対象画像が高濃度画像であるのか低濃度画像であるのかの判定が行われる。例えば、上記3の平均値にそれぞれ対応するように3つの閾値(赤色用閾値TH_R、緑色用閾値TH_G、青色用閾値TH_B)が用意され、以下の式(1)~(3)の全てを満たせば判別対象画像は高濃度画像であると判定され、そうでなければ判別対象画像は低濃度画像であると判定される。
AVE_R<TH_R ・・・(1)
AVE_G<TH_G ・・・(2)
AVE_B<TH_B ・・・(3)
【0073】
但し、判別対象画像が高濃度画像であるのか低濃度画像であるのかを判定する手法は上述の手法には限定されず、他の手法で判定が行われても良い。例えば、判別対象画像を印刷する際に使用した印刷画像データに基づいて当該画像が高濃度画像であるのか低濃度画像であるのかを判定しても良い。
【0074】
ステップS710で判別対象画像は高濃度画像であると判定されると、処理はステップS721に進む。一方、ステップS710で判別対象画像は低濃度画像であると判定されると、処理はステップS722に進む。
【0075】
ステップS721では、疑似不良データとしての白スジデータを撮像画像データに合成することによって、第1教師データが作成される。このステップS721では、例えば、
図10に示すように、撮像画像データ611に白スジデータが合成され、白スジデータ613を含む第1教師データ612が作成される。ところで、上述したように、白スジは印刷時のインクの抜けに起因するものである。また、
図2に示したように、本実施形態に係るインクジェット印刷装置100の印字部125は、C用インクジェットヘッド125cとM用インクジェットヘッド125mとY用インクジェットヘッド125yとK用インクジェットヘッド125kとによって構成されている。従って、白スジデータの合成は、CMYKのうちの少なくとも1つの色の成分(典型的には、1つの色の成分)を撮像画像データから除去することによって行われる。しかしながら、撮像画像データはRGB形式のデータである。それ故、ステップS721では、データの合成に先立って、撮像画像データのRGB値をCMYK値に変換することによって、撮像画像データにどのインク色の成分が含まれているのかが推定される。そして、撮像画像データに含まれているインク色の成分のみが当該撮像画像データからの除去対象とされる。なお、CMYKのうちのどのインク色の成分が撮像画像データに含まれているのかをRGB値から直接的に推定するようにしても良い。これに関し、一例を挙げると、C(シアン)とR(赤)は補色(反対色)の関係にあるので、Rが少なければCのインクが多く使用されていると推定することができる。
【0076】
白スジデータの合成を上述のように行うことによって、実際には生じ得ないような白スジデータ(不良画像のデータ)を含む第1教師データが作成されることが防止される。すなわち、学習の際にノイズとなるような第1教師データの作成が防止される。
【0077】
ステップS722では、疑似不良データとしての汚れデータを撮像画像データに合成することによって、第1教師データが作成される。汚れデータについては、予め
図4のステップS60によって用意されている。このステップS722では、例えば、
図11に示すように、撮像画像データ621に汚れデータが合成され、汚れデータ623を含む第1教師データ622が作成される。
【0078】
なお、本実施形態においては、撮像画像データに疑似不良データを合成することによって第1教師データが作成されるが、これには限定されない。原画像データに疑似不良データを合成することによって第1教師データを作成することもできる。すなわち、撮像画像データまたは原画像データを被合成画像データとして、被合成画像データに疑似不良データを合成することによって第1教師データの作成が行われる。また、第2教師データとしては、例えば、ステップS721,S722で疑似不良データとの合成が行われる前の撮像画像データを用いることができる。
【0079】
ところで、第1教師データの作成元となる印刷画像(学習に用いる印刷画像における疑似不良データを合成する部分画像)は作業者によって選択される。その選択された印刷画像に基づいて、ステップS710,S721,およびS722の処理は作業者の操作を介することなく行われる。すなわち、第1教師データは自動的に作成される。
【0080】
ステップS730では、後述するステップS750での学習に使用する教師データ(第1教師データおよび第2教師データ)に原画像データを付加する処理が行われる。このような処理が行われる理由は、上述したように、画像判別モデル500による判別の際に画像中の不良部分が着目されるようにするためである。
【0081】
次に、教師データに対してデータ拡張と呼ばれる処理が施される(ステップS740)。詳しくは、このステップS740の開始時点に存在する教師データの画像に対して反転・拡大・縮小などの変換処理を施すことによって、教師データの数の増大が行われる。なお、このステップS740の処理は必ずしも必要ではないが、このようにして教師データの数を増やすことによってロバスト性が向上するという効果が得られる。
【0082】
典型的には、ステップS710~S740の処理は、
図4のステップS50で収集された被合成画像データの数だけ繰り返される。これにより、学習に用いる第1教師データが多数作成される。
【0083】
その後、ニューラルネットワーク部50に教師データ(第1教師データおよび第2教師データ)を順次に与えることによって、学習(機械学習)が行われる(ステップS750)。これにより、ニューラルネットワーク部50のパラメータが最適化され、画像判別モデル500が構築される。
【0084】
なお、本実施形態においては、ステップS710によって濃度判定ステップが実現され、ステップS721およびステップS722によって教師データ作成ステップが実現され、ステップS730によって原画像付加ステップが実現され、ステップS750によって学習ステップが実現されている。
【0085】
<5.3 疑似不良データの合成>
<5.3.1 乱数を用いた合成>
撮像画像データへの疑似不良データの合成について説明する。本実施形態においては、撮像画像データへの高濃度疑似不良データの合成に関しては、乱数を用いた様々な態様での合成が繰り返し行われる。例えば、高濃度疑似不良データである汚れデータの合成に関し、合成位置、合成する汚れデータの色、合成する汚れデータのグラデーションの態様などが乱数によって決定される。
【0086】
汚れデータの合成位置を乱数で決定することによって、例えば、
図12で符号631を付した位置に汚れデータが付加された第1教師データ、
図12で符号632を付した位置に汚れデータが付加された第1教師データ、
図12で符号633を付した位置に汚れデータが付加された第1教師データなどが作成される。
【0087】
合成する汚れデータの色を乱数で決定することによって、C色の汚れデータが付加された第1教師データ、M色の汚れデータが付加された第1教師データ、Y色の汚れデータが付加された第1教師データ、およびK色の汚れデータが付加された第1教師データが作成される(
図13参照)。
【0088】
合成する汚れデータのグラデーションの態様を乱数で決定することによって、
図14で符号641を付した矢印で示すようなグラデーションを有する汚れデータが付加された第1教師データ、
図14で符号642を付した矢印で示すようなグラデーションを有する汚れデータが付加された第1教師データ、
図14で符号643を付した矢印で示すようなグラデーションを有する汚れデータが付加された第1教師データなどが作成される。なお、汚れデータのグラデーションについては、通常、中心に近いほど濃度が高くされ、中心から離れるにつれて徐々に濃度が低くされるので、汚れデータの中心に近いほど高濃度の汚れ画像が高い確率で出現するように汚れデータの出現確率を設定しておくことが望ましい。
【0089】
上述したように、
図9のステップS710~S740の処理は被合成画像データの数だけ繰り返される。従って、乱数によって決定される属性を有する高濃度疑似不良データ(汚れデータ)を被合成画像データとしての撮像画像データに合成するという処理が繰り返され、様々な「背景画像と不良画像との組み合わせ」からなる多数の第1教師データが作成される。
【0090】
なお、1回の上記ステップS721の処理あるいは1回の上記ステップS722の処理で、乱数によって決定される属性を有する疑似不良データを被合成画像データ(本実施形態では撮像画像データ)に合成する処理を繰り返すことによって、1つの被合成画像データから複数の第1教師データが作成されるようにしても良い。
【0091】
<5.3.2 合成ロジックの具体例>
ここで、撮像画像データに疑似不良データを合成するロジックの一具体例について説明する。ここでは、撮像画像データにC色の汚れデータを合成するケースに着目する。なお、各状態のRGB値が以下のようになっていると仮定する。
Rpaper_white=200
Gpaper_white=200
Bpaper_white=200
Rpaper_white,Gpaper_white,Bpaper_whiteは、それぞれ、紙白(全くインクが塗られていない状態の印刷用紙)のR値,G値,B値である。
Rcyan=30
Gcyan=60
Bcyan=140
Rcyan,Gcyan,Bcyanは、それぞれ、紙白にC色のインクが網点パーセント100%で塗られた状態のR値,G値,B値である。
【0092】
「紙白のR値」に対する「紙白にC色のインクが網点パーセント100%で塗られたときのR値」の比率Rink_rate_100は、次式(4)で求められる。
Rink_rate_100=Rcyan/Rpaper_white
=30/200
=0.15 ・・・(4)
「紙白のG値」に対する「紙白にC色のインクが網点パーセント100%で塗られたときのG値」の比率Gink_rate_100は、次式(5)で求められる。
Gink_rate_100=Gcyan/Gpaper_white
=60/200
=0.3 ・・・(5)
「紙白のB値」に対する「紙白にC色のインクが網点パーセント100%で塗られたときのB値」の比率Bink_rate_100は、次式(6)で求められる。
Bink_rate_100=Bcyan/Bpaper_white
=140/200
=0.7 ・・・(6)
【0093】
「紙白のR値」に対する「紙白にC色のインクが網点パーセント0%で塗られたと考えたときのR値」の比率Rink_rate_0は1.0であり、「紙白のG値」に対する「紙白にC色のインクが網点パーセント0%で塗られたと考えたときのG値」の比率Gink_rate_0は1.0であり、「紙白のB値」に対する「紙白にC色のインクが網点パーセント0%で塗られたと考えたときのB値」の比率Bink_rate_0は1.0である。
【0094】
以上の前提下、撮像画像データの各画素のデータに対して、以下の式(7)~(13)の計算が行われる。換言すれば、汚れデータを構成する画素の数だけ以下の式(7)~(13)の計算が繰り返される。
【0095】
まず、次式(7)によって、乱数によるインク濃度RGB
ink_densityの決定が行われる。なお、random.randrange(arg1,arg2,arg3)は、arg1以上arg2以下の範囲でarg3刻みの乱数を返す関数である。
【数1】
【0096】
次に、次式(8)~(10)によって、Rのインク濃度R
ink_density、Gのインク濃度G
ink_density、およびBのインク濃度B
ink_densityが求められる。
【数2】
【数3】
【数4】
【0097】
最後に、次式(11)~(13)によって、合成後のR値Rpixel_new、合成後のG値Gpixel_new、および合成後のB値Bpixel_newが求められる。なお、Rpixel,Gpixel,Bpixelは、それぞれ、撮像画像データ中の処理対象の画素のR値,G値,B値である。
Rpixel_new=Rpixel×Rink_density ・・・(11)
Gpixel_new=Gpixel×Gink_density ・・・(12)
Bpixel_new=Bpixel×Bink_density ・・・(13)
【0098】
ここではC色の汚れデータを撮像画像データに合成するケースを例に挙げて説明したが、C色以外の色(M色、Y色、K色)の汚れデータを撮像画像データに合成する場合にも同様のロジックを用いることができる。
【0099】
<5.4 教師データへの原画像データの付加>
次に、教師データ(第1教師データおよび第2教師データ)に原画像データを付加する処理(
図9のステップS730の処理)について詳しく説明する。
【0100】
本実施形態における画像判別モデル500のような人工知能モデルに画像を学習させる場合、インクジェット印刷装置で印刷されるデータがバリアブルなデータであることが問題となる。バリアブルなデータが使用されるので、複数の用紙でインク汚れが発生しても、通常、背景は用紙毎に異なる。また、インク汚れについても汚れの形状や色は様々である。以上より、人工知能モデルに画像を学習させても、学習がインク汚れに着目して行われないことがある。例えば、背景中の特定のデザインに着目がなされて真不良ではないにもかかわらず真不良である旨の判定がなされることがある。従来の手法によれば、このように、背景が学習結果に大きな影響を及ぼし、真不良であるインク汚れや白スジと真不良ではない画像との判別が精度良く行われない。
【0101】
そこで、本実施形態においては、上述したように、画像判別モデル500が画像中の不良部分に着目して判別を行うよう、画像判別モデル500には入力データとして判別対象画像に相当するデータが与えられるだけでなく当該判別対象画像についての原画像データも与えられる。すなわち、学習に先立って、判別対象画像に原画像を付加する処理が行われる。この処理は、第1教師データについても第2教師データについても行われる。本実施形態においては、第1教師データは、撮像画像データに疑似不良データを合成することによって作成される。従って、第1教師データへの原画像データの付加は、
図15に示すように、撮像画像データに疑似不良データ659を合成することによって得られたデータである撮像ベースデータ651に原画像データ652を付加することによって行われる。このようにして、画像判別モデル500への入力データ653が得られる。なお、第2教師データへの原画像データの付加は、撮像画像データそのものである撮像ベースデータに原画像データを付加することによって行われる。以上のようにして、背景が学習結果に影響を及ぼすことが防止される。
【0102】
撮像ベースデータ661に原画像データ662を付加することによって得られた入力データ663は、
図16に示すように、赤色撮像ベースデータ6_R1、赤色原画像データ6_R2、緑色撮像ベースデータ6_G1、緑色原画像データ6_G2、青色撮像ベースデータ6_B1、および青色原画像データ6_B2からなる6チャンネルのデータとして画像判別モデル500内のニューラルネットワーク部50に与えられる。
【0103】
以上のように実際に得られるべき印刷画像に相当する原画像データを教師データに付加することによって、判別対象画像と原画像との差分に着目しつつ学習(画像判別モデル500での学習)が行われるようになる。
【0104】
なお、本実施形態においては判別対象画像についての原画像データが教師データに付加されるが、原画像データそのものではなく原画像データに相当するデータを教師データに付加するようにしても良い。バリアブルなデータを用いた印刷に関し、特定の背景中の一部の領域のみにバリアブルなデータを配置したものの印刷が行われることがある。このような場合、教師データの元となる判別対象画像とは異なる印刷画像についての原画像データを教師データに付加しても、画像中の不良部分に着目して学習が行われるものと考えられる。従って、教師データに付加するデータは、判別対象画像についての原画像データそのものには限定されない。
【0105】
<6.効果>
<6.1 従来の手法との対比など>
人工知能の技術を活用した従来の手法によれば、
図17に示すように、教師データとされる真不良データ711と教師データとされる偽不良データ712との間に何ら関連性はなかった。すなわち、真不良データ711と偽不良データ712との差異には、不良部分(インク汚れや白スジなど)の有無だけでなく背景の違いも含まれていた。このため、人工知能モデルにとっては、画像中の不良部分を特定しつつ学習を行うことが困難であった。そのため、判別の際に不良部分に着目がなされずに誤判別の結果が得られる頻度が大きかった。
【0106】
撮像画像データに疑似不良データを合成することによって第1教師データを作成するという構成が採用されると、充分の数の真不良データ(第1教師データ)を用意することが可能になるとともに、
図18に示すように真不良データ721と偽不良データ722との差異を不良部分の有無だけにすることが可能となる。これにより、従来の手法に比べて、判別の精度が向上する。但し、学習に先立って教師データへの原画像データの付加が行われなければ、人工知能モデルにとっては未知の不良画像に対して正しい判別結果を得ることは難しい。
【0107】
本実施形態によれば、撮像画像データに疑似不良データを合成することによって第1教師データを作成するという構成および学習に先立って教師データに原画像データを付加するという構成が採用される。これにより、
図19に示すように真不良データ731と偽不良データ732との差異を不良部分の有無だけにすることが可能となる。また、学習の際に判別対象画像と原画像との差分に着目がなされ、画像中の不良部分を特定しつつ学習を行うことが可能となる。このため、未知の不良画像の判別(真不良と偽不良との判別)に関してロバスト性が向上する。
【0108】
<6.2 まとめ>
以下、本実施形態で得られる効果についてまとめる。まず、撮像画像データに疑似不良データを合成することによって、不良画像に対応する教師データである第1教師データが作成される。これにより、実際の印刷不良の発生頻度が低くても、充分な数の第1教師データを用意することが可能となる。従って、従来の手法と比較して、真不良と偽不良との判別を精度良く行うことが可能となる。また、上述のように第1教師データを作成することにより、真不良データを含む印刷画像と偽不良データを含む印刷画像との差異を不良部分の有無だけにすることが可能となるので、不良部分に着目しつつ学習が行われ、判別の精度が向上する。さらに、学習に先立って教師データに原画像データが付加されるので、真不良と偽不良との判別の際に背景が考慮される。換言すれば、背景が学習結果に大きな影響を及ぼすことが防止される。その結果、充分な精度で真不良と偽不良との判別を行うことが可能となる。以上より、本実施形態によれば、インクジェット印刷装置100から出力された印刷画像が不良画像(真不良の画像)であるか否かを充分な精度で判別することが可能となる。
【0109】
<7.その他>
本発明は、上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々変形して実施することができる。例えば、上記実施形態においては、真不良と偽不良との判別が印刷データの生成を行う印刷データ生成装置200で行われるが、本発明はこれに限定されない。真不良と偽不良との判別は、印刷データ生成装置200以外の装置で行われても良い。
【0110】
また、上記実施形態においては、教師データ(第1教師データおよび第2教師データ)に原画像データを付加する処理(
図9のステップS730の処理)が行われて画像判別モデル500に撮像ベースデータと原画像データとが与えられるが、本発明はこれに限定されない。上記実施形態に比べて判別精度が低下するが、原画像データを付加する処理を行うことなく画像判別モデル500に撮像ベースデータのみを与えるようにすることもできる。この場合にも、撮像画像データに疑似不良データを合成して第1教師データを作成するという処理を行うことによって充分な数の第1教師データを用意することが可能となるので、従来の手法と比較して、真不良と偽不良との判別の精度が向上する。
【符号の説明】
【0111】
6_R1…赤色撮像ベースデータ
6_R2…赤色原画像データ
6_G1…緑色撮像ベースデータ
6_G2…緑色原画像データ
6_B1…青色撮像ベースデータ
6_B2…青色原画像データ
50…ニューラルネットワーク部
59…結果出力部
68…判別データ
100…インクジェット印刷装置
110…印刷制御装置
120…印刷機本体
125…印字部
127…検査装置
200…印刷データ生成装置
241…画像判別モデル構築プログラム
500…画像判別モデル