(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-18
(45)【発行日】2024-11-26
(54)【発明の名称】機械学習モデルを用いて印刷媒体の判別処理を実行する方法、及び、システム
(51)【国際特許分類】
B65H 7/02 20060101AFI20241119BHJP
G06F 3/12 20060101ALI20241119BHJP
B41J 29/38 20060101ALI20241119BHJP
G06N 20/00 20190101ALI20241119BHJP
G06N 3/08 20230101ALI20241119BHJP
G01N 21/27 20060101ALI20241119BHJP
【FI】
B65H7/02
G06F3/12 305
G06F3/12 329
G06F3/12 353
B41J29/38 202
G06N20/00 130
G06N3/08
G01N21/27 B
(21)【出願番号】P 2020213538
(22)【出願日】2020-12-23
【審査請求日】2023-11-28
(73)【特許権者】
【識別番号】000002369
【氏名又は名称】セイコーエプソン株式会社
(74)【代理人】
【識別番号】110000028
【氏名又は名称】弁理士法人明成国際特許事務所
(72)【発明者】
【氏名】鎌田 崇廣
(72)【発明者】
【氏名】渡邊 亮基
(72)【発明者】
【氏名】松坂 健治
(72)【発明者】
【氏名】大野 典
【審査官】畔津 圭介
(56)【参考文献】
【文献】特開2020-121503(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
B65H 7/02
G06F 3/12
B41J 29/38
G06N 20/00
G06N 3/08
G01N 21/27
(57)【特許請求の範囲】
【請求項1】
機械学習モデルを用いて印刷媒体の判別処理を実行する方法であって、
(a)Nを1以上の整数とするとき、N個の機械学習モデルを準備する工程であって、前記N個の機械学習モデルのそれぞれは、印刷媒体の分光反射率である入力分光データを複数のクラスのいずれかに分類することによって前記印刷媒体の種類を判別するように構成される、工程と、
(b)対象印刷媒体の分光反射率である対象分光データを取得する工程と、
(c)前記N個の機械学習モデルを用いて、前記対象分光データのクラス分類処理を実行することによって、前記対象印刷媒体の種類を判別する工程と、
を含
み、
前記Nは2以上の整数であり、
前記N個の機械学習モデルのそれぞれは、前記N個の機械学習モデルのうちの他の機械学習モデルと異なる少なくとも1つのクラスを有するように構成される、方法。
【請求項2】
請求項1に記載の方法であって、
前記工程(c)は、
前記対象分光データのクラス分類処理の結果に応じて、前記対象印刷媒体の種類を示す媒体識別子を判別する工程と、
を含み、
前記方法は、更に、
前記媒体識別子に応じて、前記対象印刷媒体を使用して印刷を実行するための印刷設定を選択する工程と、
前記印刷設定に従って、前記対象印刷媒体を使用して印刷を実行する工程と、
を含む、方法。
【請求項3】
請求項
1又は2に記載の方法であって、
前記N個の機械学習モデルは、対応するN個の教師データ群を用いて学習が実行されており、
前記N個の教師データ群を構成するN個の分光データ群は、クラスタリング処理によってN個の組にグループ分けされた状態と等価な状態にある、方法。
【請求項4】
機械学習モデルを用いて印刷媒体の判別処理を実行する方法であって、
(a)Nを1以上の整数とするとき、
N個の教師データ群を用いて学習が実行されたN個の機械学習モデルを準備する工程であって、前記N個の機械学習モデルのそれぞれは、印刷媒体の分光反射率である入力分光データを複数のクラスのいずれかに分類することによって前記印刷媒体の種類を判別するように構成される、工程と、
(b)対象印刷媒体の分光反射率である対象分光データを取得する工程と、
(c)前記N個の機械学習モデルを用いて、前記対象分光データのクラス分類処理を実行することによって、前記対象印刷媒体の種類を判別する工程と、
を含
み、
各教師データ群は、各教師データ群を構成する分光データ群の中心を代表する代表点を有し、
任意の1個の機械学習モデルにより分類できるクラスの数には上限値が設定されており、
前記N個の機械学習モデルによる前記クラス分類処理の対象となっている複数種類の印刷媒体は、ユーザーの除外指示がなければ前記クラス分類処理の対象から除外できない必須印刷媒体と、ユーザーの除外指示がなくても前記クラス分類処理の対象から除外できる任意印刷媒体と、のいずれかに分類されており、
前記工程(a)は、前記N個の機械学習モデルによる前記クラス分類処理の対象となっていない新たな追加印刷媒体を前記クラス分類処理の対象とする媒体追加工程を含み、
前記媒体追加工程は、
(a1)前記追加印刷媒体の分光反射率を追加分光データとして取得する工程と、
(a2)前記N個の教師データ群のうち、前記追加分光データに最も近い代表点を有する教師データ群を近接教師データ群として選択するとともに、前記近接教師データ群を用いて学習が行われていた特定の機械学習モデルを選択する工程と、
(a3)前記特定の機械学習モデルにおける前記必須印刷媒体に相当するクラス数が前記上限値未満である場合には、前記近接教師データ群に前記追加分光データを追加して前記近接教師データ群を更新し、更新後の前記近接教師データ群を用いて前記特定の機械学習モデルの再学習を実行する工程と、
を含む、方法。
【請求項5】
請求項
4に記載の方法であって、
前記工程(a3)は、
前記工程(a3)の実行前の時点において前記特定の機械学習モデルにおける前記必須印刷媒体に相当するクラス数と前記任意印刷媒体に相当するクラス数との合計が前記上限値に等しい場合には、前記近接教師データ群から前記任意印刷媒体に関する任意分光データを削除する工程、
を含む、方法。
【請求項6】
請求項
4又は5に記載の方法であって、
前記媒体追加工程は、更に、
(a4)前記特定の機械学習モデルにおける前記必須印刷媒体に相当するクラス数が前記上限値に等しい場合には、新たな機械学習モデルを作成するとともに、前記追加分光データと1つ以上の任意印刷媒体に関する任意分光データとを含む新たな教師データ群を用いて前記新たな機械学習モデルの学習を実行する工程、
を含む、方法。
【請求項7】
機械学習モデルを用いて印刷媒体の判別処理を実行する方法であって、
(a)Nを1以上の整数とするとき、N個の機械学習モデルを準備する工程であって、前記N個の機械学習モデルのそれぞれは、印刷媒体の分光反射率である入力分光データを複数のクラスのいずれかに分類することによって前記印刷媒体の種類を判別するように構成される、工程と、
(b)対象印刷媒体の分光反射率である対象分光データを取得する工程と、
(c)前記N個の機械学習モデルを用いて、前記対象分光データのクラス分類処理を実行することによって、前記対象印刷媒体の種類を判別する工程と、
を含
み、
前記Nは2以上の整数であり、前記方法は、更に、
前記N個の機械学習モデルのうちから選ばれた1つの対象機械学習モデルによる前記クラス分類処理の対象から、1つの除外対象印刷媒体を除外する媒体除外工程を含み、
前記媒体除外工程は、
(i)前記対象機械学習モデルの学習に使用されていた教師データ群から前記除外対象印刷媒体に関する分光データを削除することによって、前記教師データ群を更新する工程と、
(ii)更新された前記教師データ群を用いて、前記対象機械学習モデルの再学習を実行する工程と、
を含む、方法。
【請求項8】
請求項
7に記載の方法であって、
前記工程(i)は、前記対象機械学習モデルによる前記クラス分類処理の対象から前記除外対象印刷媒体を除外することによって前記対象機械学習モデルが有するクラス数が予め設定された下限値未満となる場合には、前記対象機械学習モデルの学習に使用されていた教師データ群から前記除外対象印刷媒体に関する分光データを削除すると共に、1つ以上の任意印刷媒体に関する任意分光データを追加することによって前記教師データ群を更新する、方法。
【請求項9】
請求項
7又は8に記載の方法であって、
各機械学習モデルの学習に使用される1個の教師データ群と、当該教師データ群から除去される分光データ、及び、当該教師データ群に追加される分光データは、同一の分光データグル-プを構成するものとして管理され、
当該教師データ群から除去される前記分光データは、前記分光データグループの待避用エリアに待避された状態となり、
当該教師データ群に追加される前記分光データは、前記分光データグループの前記待避用エリアに待避されていた分光データから選択される、方法。
【請求項10】
機械学習モデルを用いて印刷媒体の判別処理を実行するシステムであって、
Nを1以上の整数とするとき、N個の機械学習モデルを記憶するメモリーと、
前記N個の機械学習モデルを用いて前記判別処理を実行するプロセッサーと、
を備え、
前記N個の機械学習モデルのそれぞれは、印刷媒体の分光反射率である入力分光データを複数のクラスのいずれかに分類することによって前記印刷媒体の種類を判別するように構成されており、
前記プロセッサーは、
対象印刷媒体の対象分光データを取得する第1処理と、
前記N個の機械学習モデルを用いて、前記対象分光データのクラス分類処理を実行することによって、前記対象印刷媒体の種類を判別する第2処理と、
を実行するように構成されて
おり、
前記Nは2以上の整数であり、
前記N個の機械学習モデルのそれぞれは、前記N個の機械学習モデルのうちの他の機械学習モデルと異なる少なくとも1つのクラスを有するように構成される、システム。
【請求項11】
機械学習モデルを用いて印刷媒体の判別処理を実行するシステムであって、
Nを1以上の整数とするとき、
N個の教師データ群を用いて学習が実行されたN個の機械学習モデルを記憶するメモリーと、
前記N個の機械学習モデルを用いて前記判別処理を実行するプロセッサーと、
を備え、
前記N個の機械学習モデルのそれぞれは、印刷媒体の分光反射率である入力分光データを複数のクラスのいずれかに分類することによって前記印刷媒体の種類を判別するように構成されており、
前記プロセッサーは、
対象印刷媒体の対象分光データを取得する第1処理と、
前記N個の機械学習モデルを用いて、前記対象分光データのクラス分類処理を実行することによって、前記対象印刷媒体の種類を判別する第2処理と、
を実行するように構成されており、
各教師データ群は、各教師データ群を構成する分光データ群の中心を代表する代表点を有し、
任意の1個の機械学習モデルにより分類できるクラスの数には上限値が設定されており、
前記N個の機械学習モデルによる前記クラス分類処理の対象となっている複数種類の印刷媒体は、ユーザーの除外指示がなければ前記クラス分類処理の対象から除外できない必須印刷媒体と、ユーザーの除外指示がなくても前記クラス分類処理の対象から除外できる任意印刷媒体と、のいずれかに分類されており、
前記プロセッサーは、更に、前記N個の機械学習モデルによる前記クラス分類処理の対象となっていない新たな追加印刷媒体を前記クラス分類処理の対象とする媒体追加処理を実行可能に構成されており、
前記媒体追加処理は、
(a1)前記追加印刷媒体の分光反射率を追加分光データとして取得する処理と、
(a2)前記N個の教師データ群のうち、前記追加分光データに最も近い代表点を有する教師データ群を近接教師データ群として選択するとともに、前記近接教師データ群を用いて学習が行われていた特定の機械学習モデルを選択する処理と、
(a3)前記特定の機械学習モデルにおける前記必須印刷媒体に相当するクラス数が前記上限値未満である場合には、前記近接教師データ群に前記追加分光データを追加して前記近接教師データ群を更新し、更新後の前記近接教師データ群を用いて前記特定の機械学習モデルの再学習を実行する処理と、
を含む、システム。
【請求項12】
機械学習モデルを用いて印刷媒体の判別処理を実行するシステムであって、
Nを1以上の整数とするとき、N個の機械学習モデルを記憶するメモリーと、
前記N個の機械学習モデルを用いて前記判別処理を実行するプロセッサーと、
を備え、
前記N個の機械学習モデルのそれぞれは、印刷媒体の分光反射率である入力分光データを複数のクラスのいずれかに分類することによって前記印刷媒体の種類を判別するように構成されており、
前記プロセッサーは、
対象印刷媒体の対象分光データを取得する第1処理と、
前記N個の機械学習モデルを用いて、前記対象分光データのクラス分類処理を実行することによって、前記対象印刷媒体の種類を判別する第2処理と、
を実行するように構成されており、
前記Nは2以上の整数であり、前記プロセッサーは、更に、
前記N個の機械学習モデルのうちから選ばれた1つの対象機械学習モデルによる前記クラス分類処理の対象から、1つの除外対象印刷媒体を除外する媒体除外処理を実行可能に構成されており、
前記媒体除外処理は、
(i)前記対象機械学習モデルの学習に使用されていた教師データ群から前記除外対象印刷媒体に関する分光データを削除することによって、前記教師データ群を更新する処理と、
(ii)更新された前記教師データ群を用いて、前記対象機械学習モデルの再学習を実行する処理と、
を含む、システム。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、機械学習モデルを用いて印刷媒体の判別処理を実行する方法、及び、システムに関する。
【背景技術】
【0002】
特許文献1には、メディア検知センサーを用いて印刷媒体を検知し、メディア検知センサーで取得できる属性情報と紐づいているメディアの印刷設定を選択する技術が開示されている。メディア検知センサーは、光学式センサーで構成されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、上述の技術では、光学式のメディア検知センサーを使用しているので、光学特性が類似する印刷媒体同士を判別できないという問題があった。
【課題を解決するための手段】
【0005】
本開示の第1の形態によれば、機械学習モデルを用いて印刷媒体の判別処理を実行する方法が提供される。この方法は、(a)Nを1以上の整数とするとき、N個の機械学習モデルを準備する工程であって、前記N個の機械学習モデルのそれぞれは、印刷媒体の分光反射率である入力分光データを複数のクラスのいずれかに分類することによって前記印刷媒体の種類を判別するように構成される、工程と、(b)対象印刷媒体の分光反射率である対象分光データを取得する工程と、(c)前記N個の機械学習モデルを用いて、前記対象分光データのクラス分類処理を実行することによって、前記対象印刷媒体の種類を判別する工程と、を含む。
第1の形態の第1構成では、前記Nは2以上の整数であり、前記N個の機械学習モデルのそれぞれは、前記N個の機械学習モデルのうちの他の機械学習モデルと異なる少なくとも1つのクラスを有するように構成される。
第1の形態の第2構成では、各教師データ群は、各教師データ群を構成する分光データ群の中心を代表する代表点を有し、任意の1個の機械学習モデルにより分類できるクラスの数には上限値が設定されており、前記N個の機械学習モデルによる前記クラス分類処理の対象となっている複数種類の印刷媒体は、ユーザーの除外指示がなければ前記クラス分類処理の対象から除外できない必須印刷媒体と、ユーザーの除外指示がなくても前記クラス分類処理の対象から除外できる任意印刷媒体と、のいずれかに分類されている。前記工程(a)は、前記N個の機械学習モデルによる前記クラス分類処理の対象となっていない新たな追加印刷媒体を前記クラス分類処理の対象とする媒体追加工程を含む。前記媒体追加工程は、(a1)前記追加印刷媒体の分光反射率を追加分光データとして取得する工程と、(a2)前記N個の教師データ群のうち、前記追加分光データに最も近い代表点を有する教師データ群を近接教師データ群として選択するとともに、前記近接教師データ群を用いて学習が行われていた特定の機械学習モデルを選択する工程と、(a3)前記特定の機械学習モデルにおける前記必須印刷媒体に相当するクラス数が前記上限値未満である場合には、前記近接教師データ群に前記追加分光データを追加して前記近接教師データ群を更新し、更新後の前記近接教師データ群を用いて前記特定の機械学習モデルの再学習を実行する工程と、を含む。
第1の形態の第3構成では、前記Nは2以上の整数であり、前記方法は、更に、前記N個の機械学習モデルのうちから選ばれた1つの対象機械学習モデルによる前記クラス分類処理の対象から、1つの除外対象印刷媒体を除外する媒体除外工程を含む。前記媒体除外工程は、(i)前記対象機械学習モデルの学習に使用されていた教師データ群から前記除外対象印刷媒体に関する分光データを削除することによって、前記教師データ群を更新する工程と、(ii)更新された前記教師データ群を用いて、前記対象機械学習モデルの再学習を実行する工程と、を含む。
【0006】
本開示の第2の形態によれば、機械学習モデルを用いて印刷媒体の判別処理を実行するシステムが提供される。このシステムは、Nを1以上の整数とするとき、N個の機械学習モデルを記憶するメモリーと、前記N個の機械学習モデルを用いて前記判別処理を実行するプロセッサーと、を備える。前記N個の機械学習モデルのそれぞれは、印刷媒体の分光反射率である入力分光データを複数のクラスのいずれかに分類することによって前記印刷媒体の種類を判別するように構成されている。前記プロセッサーは、対象印刷媒体の対象分光データを取得する第1処理と、前記N個の機械学習モデルを用いて、前記対象分光データのクラス分類処理を実行することによって、前記対象印刷媒体の種類を判別する第2処理と、を実行するように構成されている。
第2の形態の第1構成では、前記Nは2以上の整数であり、前記N個の機械学習モデルのそれぞれは、前記N個の機械学習モデルのうちの他の機械学習モデルと異なる少なくとも1つのクラスを有するように構成される。
第2の形態の第2構成では、各教師データ群は、各教師データ群を構成する分光データ群の中心を代表する代表点を有し、任意の1個の機械学習モデルにより分類できるクラスの数には上限値が設定されており、前記N個の機械学習モデルによる前記クラス分類処理の対象となっている複数種類の印刷媒体は、ユーザーの除外指示がなければ前記クラス分類処理の対象から除外できない必須印刷媒体と、ユーザーの除外指示がなくても前記クラス分類処理の対象から除外できる任意印刷媒体と、のいずれかに分類されている。前記プロセッサーは、更に、前記N個の機械学習モデルによる前記クラス分類処理の対象となっていない新たな追加印刷媒体を前記クラス分類処理の対象とする媒体追加処理を実行可能に構成されている。前記媒体追加処理は、(a1)前記追加印刷媒体の分光反射率を追加分光データとして取得する処理と、(a2)前記N個の教師データ群のうち、前記追加分光データに最も近い代表点を有する教師データ群を近接教師データ群として選択するとともに、前記近接教師データ群を用いて学習が行われていた特定の機械学習モデルを選択する処理と、(a3)前記特定の機械学習モデルにおける前記必須印刷媒体に相当するクラス数が前記上限値未満である場合には、前記近接教師データ群に前記追加分光データを追加して前記近接教師データ群を更新し、更新後の前記近接教師データ群を用いて前記特定の機械学習モデルの再学習を実行する処理と、を含む。
第2の形態の第3構成では、前記Nは2以上の整数であり、前記プロセッサーは、更に、前記N個の機械学習モデルのうちから選ばれた1つの対象機械学習モデルによる前記クラス分類処理の対象から、1つの除外対象印刷媒体を除外する媒体除外処理を実行可能に構成されている。前記媒体除外処理は、(i)前記対象機械学習モデルの学習に使用されていた教師データ群から前記除外対象印刷媒体に関する分光データを削除することによって、前記教師データ群を更新する処理と、(ii)更新された前記教師データ群を用いて、前記対象機械学習モデルの再学習を実行する処理と、を含む。
【図面の簡単な説明】
【0007】
【
図1】実施形態における印刷システムのブロック図。
【
図8】クラスタリング処理された分光データを示す説明図。
【
図11】既知特徴スペクトル群の構成を示す説明図。
【
図12】媒体判別/印刷工程の処理手順を示すフローチャート。
【
図13】媒体追加処理の処理手順を示すフローチャート。
【
図15】印刷媒体の追加に応じて更新された媒体識別子リストを示す説明図。
【
図16】印刷媒体の追加に応じて更新されたグループ管理テーブルを示す説明図。
【
図17】機械学習モデルの追加に応じて更新されたグループ管理テーブルを示す説明図。
【
図18】媒体除外工程の処理手順を示すフローチャート。
【発明を実施するための形態】
【0008】
A.実施形態:
図1は、一実施形態における印刷システムを示すブロック図である。この印刷システムは、プリンター10と、情報処理装置20と、分光測定器30とを有する。分光測定器30は、プリンター10で使用される印刷媒体PMについて、未印刷の状態で分光測定を行って、分光反射率を取得することが可能である。本開示において、分光反射率を「分光データ」とも呼ぶ。分光測定器30は、例えば、波長可変干渉分光フィルターと、モノクロイメージセンサーとを備える。分光測定器30で得られた分光データは、後述する機械学習モデルへの入力データとして使用される。後述するように、情報処理装置20は、機械学習モデルを用いて分光データのクラス分類処理を実行し、印刷媒体PMが複数のクラスのいずれに該当するかを分類する。「印刷媒体PMのクラス」とは、印刷媒体PMの種類を意味する。情報処理装置20は、印刷媒体PMの種類に応じた適切な印刷条件で印刷を実行するようにプリンター10を制御する。
【0009】
図2は、情報処理装置20の機能を示すブロック図である。情報処理装置20は、プロセッサー110と、メモリー120と、インターフェイス回路130と、インターフェイス回路130に接続された入力デバイス140及び表示部150と、を有している。インターフェイス回路130には、分光測定器30とプリンター10も接続されている。限定されないが例えば、プロセッサー110は、以下で詳述される処理を実行する機能を有するだけでなく、表示部150に、当該処理によって得られるデータ、および当該処理の過程で生成されるデータを表示する機能も有する。
【0010】
プロセッサー110は、プリンター10を用いた印刷処理を実行する印刷処理部112として機能し、また、印刷媒体PMの分光データのクラス分類処理を実行するクラス分類処理部114として、更に、印刷媒体PMに適した印刷設定を作成する印刷設定作成部116として機能する。これらの各部112,114,116は、メモリー120に格納されたコンピュータープログラムをプロセッサー110が実行することによって実現される。但し、これらの各部112,114,116をハードウェア回路で実現してもよい。本明細書のプロセッサーは、このようなハードウェア回路をも含む用語である。また、クラス分類処理を実行するプロセッサーは、ネットワークを介して情報処理装置20に接続されたリモートコンピューターに含まれるプロセッサーであってもよい。
【0011】
メモリー120には、複数の機械学習モデル201,202と、複数の分光データ群SD1,SD2と、媒体識別子リストIDLと、複数のグループ管理テーブルGT1,GT2と、複数の既知特徴スペクトル群KS1,KS2と、印刷設定テーブルPSTと、が格納される。機械学習モデル201,202は、クラス分類処理部114による演算に使用される。機械学習モデル201,202の構成例や動作については後述する。分光データ群SD1,SD2は、機械学習モデル201,202の学習に使用されるラベル付きの分光データの集合である。媒体識別子リストIDLは、各印刷媒体について、媒体識別子と分光データとが登録されたリストである。複数のグループ管理テーブルGT1,GT2は、分光データ群SD1,SD2の管理状態を示すテーブルである。既知特徴スペクトル群KS1,KS2は、学習済みの機械学習モデル201,202に教師データを再度入力した際に得られる特徴スペクトルの集合である。特徴スペクトルについては後述する。印刷設定テーブルPSTは、各印刷媒体に適した印刷設定が登録されたテーブルである。
【0012】
図3は、第1の機械学習モデル201の構成を示す説明図である。この機械学習モデル201は、入力データIMの側から順に、畳み込み層211と、プライマリーベクトルニューロン層221と、第1畳み込みベクトルニューロン層231と、第2畳み込みベクトルニューロン層241と、分類ベクトルニューロン層251とを備える。これらの5つの層211~251のうち、畳み込み層211が最も下位の層であり、分類ベクトルニューロン層251が最も上位の層である。以下の説明では、層211~251を、それぞれ「Conv層211」、「PrimeVN層221」、「ConvVN1層231」、「ConvVN2層241」、及び「ClassVN層251」とも呼ぶ。
【0013】
本実施形態において、入力データIMは分光データなので、1次元配列のデータである。例えば、入力データIMは、380nm~730nmの範囲の分光データから、10nm毎に36個の代表値を抽出したデータである。
【0014】
図3の例では2つの畳み込みベクトルニューロン層231,241を用いているが、畳み込みベクトルニューロン層の数は任意であり、畳み込みベクトルニューロン層を省略してもよい。但し、1つ以上の畳み込みベクトルニューロン層を用いることが好ましい。
【0015】
図3の機械学習モデル201は、更に、類似度を生成する類似度演算部261を有している。類似度演算部261は、ConvVN1層231と、ConvVN2層241と、ClassVN層251の出力から、後述する類似度S1_ConvVN1,S1_ConvVN2,S1_ClassVNをそれぞれ算出することが可能である。但し、類似度演算部261を省略してもよい。
【0016】
各層211~251の構成は、以下のように記述できる。
<第1の機械学習モデル201の構成の記述>
・Conv層211:Conv[32,6,2]
・PrimeVN層221:PrimeVN[26,1,1]
・ConvVN1層231:ConvVN1[20,5,2]
・ConvVN2層241:ConvVN2[16,4,1]
・ClassVN層251:ClassVN[n1+1,3,1]
・ベクトル次元VD:VD=16
これらの各層211~251の記述において、括弧前の文字列はレイヤー名であり、括弧内の数字は、順に、チャンネル数、カーネルサイズ、及び、ストライドである。例えば、Conv層211のレイヤー名は「Conv」であり、チャンネル数は32、カーネルサイズは1×6、ストライドは2である。
図3では、各層の下にこれらの記述が示されている。各層の中に描かれているハッチングを付した矩形は、隣接する上位層の出力ベクトルを算出する際に使用されるカーネルを表している。本実施形態では、入力データIMが1次元配列のデータなので、カーネルも1次元の配列を有する。なお、各層211~251の記述で用いたパラメーターの値は例示であり、任意に変更可能である。
【0017】
Conv層211は、スカラーニューロンで構成された層である。他の4つの層221~251は、ベクトルニューロンで構成された層である。ベクトルニューロンは、ベクトルを入出力とするニューロンである。上記の記述では、個々のベクトルニューロンの出力ベクトルの次元は16で一定である。以下では、スカラーニューロン及びベクトルニューロンの上位概念として「ノード」という語句を使用する。
【0018】
図3では、Conv層211について、ノード配列の平面座標を規定する第1軸x及び第2軸yと、奥行きを表す第3軸zとが示されている。また、Conv層211のx,y,z方向のサイズが1,16,32であることが示されている。x方向のサイズとy方向のサイズを「解像度」と呼ぶ。本実施形態では、x方向の解像度は常に1である。z方向のサイズは、チャンネル数である。これらの3つの軸x,y,zは、他の層においても各ノードの位置を示す座標軸として使用する。但し、
図3では、Conv層211以外の層では、これらの軸x,y,zの図示が省略されている。
【0019】
よく知られているように、畳み込み後のy方向の解像度W1は、次式で与えられる。
W1=Ceil{(W0-Wk+1)/S} (1)
ここで、W0は畳み込み前の解像度、Wkはカーネルサイズ、Sはストライド、Ceil{X}はXを切り上げる演算を行う関数である。
図3に示した各層の解像度は、入力データIMのy方向の解像度を36とした場合の例であり、実際の各層の解像度は入力データIMのサイズに応じて適宜変更される。
【0020】
ClassVN層251は、(n1+1)個のチャンネルを有している。
図3の例では(n1+1)=11である。これらのチャンネルからは、複数の既知のクラスに対する判定値Class1-1~Class1-10と、未知のクラスであることを示す判定値Class1-UNが出力される。これらの判定値Class1-1~Class1-10,Class1-UNのうちで最も大きな値を有するクラスが、入力データIMが属するクラスに相当する。一般に、n1は2以上の整数であり、第1の機械学習モデル201を用いて分類可能な既知のクラスの数である。任意の1個の機械学習モデルにおいて、分類可能な既知のクラスの数に対して、上限値nmaxと下限値nminが予め設定されることが好ましい。
【0021】
なお、未知クラスであることを示す判定値Class1-UNは省略してもよい。この場合には、既知のクラスに対する判定値Class1-1~Class1-10のうちで最も大きな値が予め定められた閾値未満である場合に、入力データIMのクラスが未知であるものと判定される。
【0022】
図4は、第2の機械学習モデル202の構成を示す説明図である。この機械学習モデル202は、第1の機械学習モデル201と同様に、Conv層212と、PrimeVN層222と、ConvVN1層232と、ConvVN2層242と、ClassVN層252と、類似度演算部262とを有している。
【0023】
各層212~252の構成は、以下のように記述できる。
<第2の機械学習モデル202の構成の記述>
・Conv層212:Conv[32,6,2]
・PrimeVN層222:PrimeVN[26,1,1]
・ConvVN1層232:ConvVN1[20,5,2]
・ConvVN2層242:ConvVN2[16,4,1]
・ClassVN層252:ClassVN[n2+1,3,1]
・ベクトル次元VD:VD=16
【0024】
図3と
図4を比較すれば理解できるように、第2の機械学習モデル202の層212~252のうち、下位の4つの層212~242は第1の機械学習モデル201の層211~241と同じ構成を有する。一方、第2の機械学習モデル202の最上位層252は、第1の機械学習モデル201の最上位層251とチャンネル数のみが異なる。
図4の例では、ClassVN層252は(n2+1)個のチャンネルを有しており、(n2+1)=7である。これらのチャンネルからは、複数の既知のクラスに対する判定値Class2-1~Class2-6と、未知のクラスであることを示す判定値Class2-UNが出力される。第2の機械学習モデル202においても、既知のクラスの数に、第1の機械学習モデル201と同じ上限値nmax及び下限値nminが設定されることが好ましい。
【0025】
第2の機械学習モデル202は、第1の機械学習モデル201と異なる少なくとも1つの既知のクラスを有するように構成される。また、第1の機械学習モデル201と第2の機械学習モデル202では、分類可能なクラスが異なるので、カーネルの要素の値も互いに異なる。本開示では、Nを2以上の整数としたとき、N個の機械学習モデルのうちの任意の1個の機械学習モデルは、他の機械学習モデルと異なる少なくとも1つの既知のクラスを有するように構成される。なお、本実施形態では、機械学習モデルの個数Nを2以上としているが、本開示は1個の機械学習モデルのみを用いる場合にも適用可能である。
【0026】
図5は、機械学習モデルの準備工程の処理手順を示すフローチャートである。この準備工程は、例えば、プリンター10のメーカーで実行される工程である。
【0027】
ステップS10では、複数の初期印刷媒体の分光データを初期分光データとして生成する。本実施形態において、準備工程における機械学習モデルの学習に使用される初期印刷媒体は、すべて任意印刷媒体である。本開示において、「任意印刷媒体」とは、機械学習モデルによるクラス分類処理の対象となり得る印刷媒体であり、かつ、ユーザーの除外指示がなくてもクラス分類処理の対象から除外可能な印刷媒体である。一方、後述する媒体追加処理において追加される印刷媒体は、ユーザーの除外指示がなければクラス分類処理の対象から除外できない必須印刷媒体である。但し、初期印刷媒体の一部又は全部を,必須印刷媒体としてもよい。
【0028】
ステップS10では、複数の初期印刷媒体について、未印刷の状態で分光測定器30によって分光測定を実行することによって、初期分光データが生成される。この際、分光反射率のばらつきを考慮して、データ拡張を行うことが好ましい。一般に、分光反射率は、測色日や測定器によってばらつきが発生する。データ拡張は、このようなばらつきを模擬するために、測定された分光データにランダムなばらつきを付与することによって、複数の分光データを生成する処理である。なお、実際の印刷媒体の分光測定を行うことなく、仮想的に初期分光データを生成するようにしてもよい。この場合には、初期印刷媒体も仮想的なものとなる。
【0029】
ステップS20では、複数の初期印刷媒体について、媒体識別子リストIDLが作成される。
図6は、媒体識別子リストIDLを示す説明図である。媒体識別子リストIDLには、個々の印刷媒体に付与された媒体識別子と、媒体名と、データサブ番号と、分光データとが登録されている。この例では、16個の印刷媒体に対して、「A-1」~「A-16」の媒体識別子が付与されている。媒体名は、ユーザーが印刷条件を設定するためのウィンドウに表示される印刷媒体の名称である。データサブ番号は、同じ印刷媒体に関する複数の分光データを区別するための番号である。この例では、各印刷媒体について、それぞれ3個の分光データが登録されている。但し、各印刷媒体に対する分光データの数は、異なっていても良い。各印刷媒体については、1個以上の分光データが登録されていれば良いが、複数の分光データが登録されることが好ましい。
【0030】
図5のステップS30では、複数の初期印刷媒体について、それぞれ印刷設定が作成されて、印刷設定テーブルPSTに登録される。
図7は、印刷設定テーブルPSTを示す説明図である。印刷設定テーブルPSTの個々のレコードには、各印刷媒体について、媒体識別子と、印刷設定が登録される。この例では、印刷設定として、プリンタープロファイルPR1~PR16と、媒体送り速度FS1~FS16と、乾燥時間DT1~DT16とが登録されている。プリンタープロファイルPR1~PR16は、プリンター10の出力用カラープロファルであり、印刷媒体毎に作成される。具体的には、プリンター10を用いて印刷媒体上に色補正無しでテストチャートを印刷し、そのテストチャートを分光測定器30で分光測定し、その分光測定結果を印刷設定作成部116が処理することによってプリンタープロファイルを作成することができる。媒体送り速度FS1~FS16と、乾燥時間DT1~DT16も、それぞれ実験的に決定できる。なお、「乾燥時間」とは、プリンター10内にある図示しない乾燥機において印刷後の印刷媒体を乾燥する時間である。印刷後の印刷媒体に送風を当てることによって乾燥させるタイプのプリンターでは、「乾燥時間」は送風時間である。また、乾燥機がないプリンターでは、「乾燥時間」は自然乾燥する待機時間である。なお、印刷設定としては、これら以外の初期の項目を設定してもよいが、少なくともプリンタープロファイルを含む印刷設定を作成することが好ましい。
【0031】
図5のステップS40では、複数の初期印刷媒体についての複数の初期分光データをクラスタリング処理することによって、グループ分けを実行する。
図8は、クラスタリング処理によってグループ分けされた分光データを示す説明図である。この例では、複数の分光データが、第1の分光データ群SD1と第2の分光データ群SD2とにグループ分けされている。クラスタリング処理としては、例えば、k平均法を使用することができる。分光データ群SD1,SD2は、それぞれの分光データ群SD1,SD2の中心を代表する代表点G1,G2を有する。これらの代表点G1,G2は、例えば重心である。分光データがm個の波長における反射率で構成されている場合には、1つの分光データをm次元空間の1点を表すデータとして捉えることによって、分光データ同士の距離や、複数の分光データの重心を計算することが可能である。
図8では図示の便宜上、2次元空間において複数の分光データの点を描いているが、実際には、分光データはm次元空間の点として表現できる。これらの代表点G1,G2は、後述するように、新たな印刷媒体をクラス分類処理の対象として追加する場合に、その追加印刷媒体の分光データが、複数の分光データ群SD1,SD2のいずれに最も近いかを判定する際に使用される。なお、代表点G1,G2としては、重心以外を使用してもよい。例えば、1グループに属する複数の分光データについて、各波長における反射率の最大値と最小値の平均値を求め、それらの平均値で構成される分光データを代表点として使用してもよい。
【0032】
本実施形態では、複数の分光データが2つの分光データ群SD1,SD2にグループ分けされているが、分光データ群は1つのみでもよく、或いは3つ以上の分光データ群を作成してもよい。また、クラスタリング処理以外の方法で複数の分光データ群を作成しても良い。但し、クラスタリング処理によって複数の分光データをグループ分けすれば、互いに近似した分光データを同じグループにまとめることができる。このような複数の分光データ群のそれぞれを用いて複数の機械学習モデルの学習を行えば、クラスタリング処理しない場合に比べて、機械学習モデルによるクラス分類処理の精度を高めることができる。なお、クラスタリング処理によってグループ分けされた後に、新たな印刷媒体の分光データを追加しても、クラスタリング処理によってグループ分けされた状態と等価な状態に維持することが可能である。
【0033】
図5のステップS50では、グループ管理テーブルGT1,GT2が作成される。
図9は、グループ管理テーブルGT1,GT2を示す説明図である。グループ管理テーブルGT1,GT2の個々のレコードには、1つの分光データについて、グループ番号と、媒体識別子と、データサブ番号と、代表点からの距離と、モデル番号と、クラスラベルと、現存エリアと、代表点の座標と、が登録される。グループ番号は、複数のグループ管理テーブルGT1,GT2を区別する番号である。媒体識別子とデータサブ番号は、
図6で説明した媒体識別子リストIDLと同様に、個々の分光データを区別するために使用されている。モデル番号は、そのグループの分光データ群を用いて学習を行う機械学習モデルを識別する番号である。ここでは、
図3及び
図4に示した2つの機械学習モデル201,202の符号「201」,「202」が、モデル番号として使用されている。「クラスラベル」は、機械学習モデルによるクラス分類処理の結果に対応する値であり、分光データが教師データとして使用される際のラベルとしても使用される。モデル番号とクラスラベルは、媒体識別子毎に設定されている。「現存エリア」は、分光データが、教師用エリアと待避用エリアのいずれに属しているかを示している。「教師用エリア」は、その分光データが機械学習モデルの学習に実際に使用されていることを意味している。「待避用エリア」は、その分光データが機械学習モデルの学習には使用されておらず、教師用エリアから待避した状態にあることを意味している。準備工程では、すべての分光データが機械学習モデルの学習に使用されるので、教師用エリアに属している。
【0034】
図5のステップS60では、ユーザーが、クラス分類処理に使用する機械学習モデルを作成し、そのパラメーターを設定する。本実施形態では、
図3と
図4に示す2つの機械学習モデル201,202が作成されてそれらのパラメーターが設定される。但し、ステップS60では、1つの機械学習モデルのみを作成にしてもよく、或いは、3つ以上の機械学習モデルを作成してもよい。ステップS70では、クラス分類処理部114が、分光データ群SD1,SD2を用いて機械学習モデル201,202の学習を実行する。学習が修了すると、学習済みの機械学習モデル201,202がメモリー120に保存される。
【0035】
ステップS80では、クラス分類処理部114が、学習済みの機械学習モデル201,202に分光データ群SD1,SD2を再度入力して、既知特徴スペクトル群KS1,KS2を生成する。既知特徴スペクトル群KS1,KS2は、以下で説明する特徴スペクトルの集合である。以下では、主として機械学習モデル201に対応付けられた既知特徴スペクトル群KS1を生成する方法を説明する。
【0036】
図10は、学習済みの機械学習モデル201に任意の入力データを入力することによって得られる特徴スペクトルSpを示す説明図である。ここでは、ConvVN1層231の出力から得られる特徴スペクトルSpについて説明する。
図10の横軸は、ConvVN1層231の1つの平面位置(x,y)におけるノードの出力ベクトルの要素番号NDと、チャンネル番号NCとの組み合わせで表されるスペクトル位置である。本実施形態では、ノードのベクトル次元が16なので、出力ベクトルの要素番号NDは0から15までの16個である。また、ConvVN1層231のチャンネル数は20なので、チャンネル番号NCは0から19までの20個である。
【0037】
図10の縦軸は、各スペクトル位置での特徴値C
Vを示す。この例では、特徴値C
Vは、出力ベクトルの各要素の値V
NDである。なお、特徴値C
Vとしては、出力ベクトルの各要素の値V
NDと、後述するアクティベーション値とを乗算した値を使用してもよく、或いは、アクティベーション値をそのまま使用してもよい。後者の場合には、特徴スペクトルSpに含まれる特徴値C
Vの数はチャンネル数に等しく、20個である。なお、アクティベーション値は、そのノードの出力ベクトルのベクトル長さに相当する値である。
【0038】
1つの入力データに対してConvVN1層231の出力から得られる特徴スペクトルSpの数は、ConvVN1層231の平面位置(x,y)の数に等しいので、1×6=6個である。同様に、1つの入力データに対して、ConvVN2層241の出力から3個の特徴スペクトルSpが得られ、ClassVN層251の出力から1個の特徴スペクトルSpが得られる。
【0039】
類似度演算部261は、学習済みの機械学習モデル201に教師データが再度入力されたときに、
図10に示す特徴スペクトルSpを算出して、既知特徴スペクトル群KS1に登録する。
【0040】
図11は、既知特徴スペクトル群KS1の構成を示す説明図である。この例では、既知特徴スペクトル群KS1は、ConvVN1層231の出力から得られた既知特徴スペクトル群KS1_ConvVN1と、ConvVN2層241の出力から得られた既知特徴スペクトル群KS1_ConvVN2と、ClassVN層251の出力から得られた既知特徴スペクトル群KS1_ConvVN1とを含んでいる。
【0041】
既知特徴スペクトル群KS1_ConvVN1の個々のレコードは、レコード番号と、レイヤー名と、ラベルLbと、既知特徴スペクトルKSpとを含んでいる。既知特徴スペクトルKSpは、教師データの入力に応じて得られた
図10の特徴スペクトルSpと同じものである。
図11の例では、分光データ群SD1を学習済みの機械学習モデル201に入力することによって、ConvVN1層231の出力から、個々のラベルLbの値に関連付けられた既知特徴スペクトルKSpが生成されて登録されている。例えば、ラベルLb=1に関連付けられてN1_1max個の既知特徴スペクトルKSpが登録され、ラベルLb=2に関連づけられてN1_2max個の既知特徴スペクトルKSpが登録され、ラベルLb=n1に関連づけられてN1_n1max個の既知特徴スペクトルKSpが登録されている。N1_1max,N1_2max,N1_n1maxは、それぞれ2以上の整数である。前述したように、個々のラベルLbは、互いに異なる既知のクラスに対応する。従って、既知特徴スペクトル群KS1_ConvVN1における個々の既知特徴スペクトルKSpは、複数の既知のクラスのうちの1つのクラスに関連付けられて登録されていることが理解できる。他の既知特徴スペクトル群KS1_ConvVN2,KS1_ConvVN1も同様である。
【0042】
なお、ステップS80で使用される分光データ群は、ステップS70で使用された複数の分光データ群SD1,SD2と同じものである必要は無い。但し、ステップS80においても、ステップS70で使用された複数の分光データ群SD1,SD2の一部又は全部を利用すれば、新たな教師データを準備する必要が無いという利点がある。ステップS80は、省略してもよい。
【0043】
図12は、学習済みの機械学習モデルを用いた媒体判別/印刷工程の処理手順を示すフローチャートである。この媒体判別/印刷工程は、例えば、プリンター10を使用する使用者によって実行される。
【0044】
ステップS210では、処理対象としての印刷媒体である対象印刷媒体について、判別処理が、必要か否かが判断される。判別処理が不要な場合、すなわち、対象印刷媒体の種類が既知である場合には、ステップS280に進んで対象印刷媒体に適した印刷設定を選択し、ステップS290において対象印刷媒体を用いて印刷を実行する。一方、対象印刷媒体の種類が不明であり、その判別処理が必要な場合には、ステップS220に進む。
【0045】
ステップS220では、クラス分類処理部114が、分光測定器30に対象印刷媒体の分光測定を実行させることによって、対象分光データを取得する。この対象分光データは、機械学習モデルによるクラス分類処理の対象となる。
【0046】
ステップS230では、クラス分類処理部114が、既存の学習済みの機械学習モデル201,202に対象分光データを入力して、対象分光データのクラス分類処理を実行する。この場合に、複数の機械学習モデル201,202を1個ずつ順次使用する第1の処理方法と、複数の機械学習モデル201,202を同時に使用する第2の処理方法とのいずれかを利用可能である。第1の処理方法では、まず、1個の機械学習モデル201を使用してクラス分類処理を実行し、その結果として対象分光データが未知のクラスに属するものと判定された場合に、他の機械学習モデル202を使用してクラス分類処理を実行する。第2の処理方法では、2つの機械学習モデル201,202を同時に用いて同じ対象分光データに対するクラス分類処理を並行して実行し、クラス分類処理部114がそれらの処理結果を統合する。本開示の発明者の実験によれば、第2の処理方法の方が第1の処理方法に比べて処理時間がより短くなるので、より好ましい。
【0047】
ステップS240では、クラス分類処理部114が、ステップS230におけるクラス分類処理の結果から、対象分光データが未知のクラスに属するか、既知のクラスに属するかを判定する。対象分光データが未知のクラスに属する場合には、対象印刷媒体は、準備工程で使用した複数の初期印刷媒体、および、後述する媒体追加処理において追加される印刷媒体のいずれにも該当しない新たな印刷媒体なので、後述するステップS300に進み、媒体追加処理が実行される。一方、対象分光データが既知のクラスに属する場合には、ステップS250に進む。
【0048】
ステップS250では、複数の機械学習モデル201,202のうちで、対象分光データが既知のクラスに属するものと判定した1つの機械学習モデルを用いて、既知特徴スペクトル群との類似度が算出される。例えば、第1の機械学習モデル201の処理によって対象分光データが既知のクラスに属するものと判定された場合には、その類似度演算部261が、ConvVN1層231と、ConvVN2層241と、ClassVN層251の出力から、既知特徴スペクトル群KS1との類似度S1_ConvVN1,S1_ConvVN2,S1_ClassVNをそれぞれ算出する。一方、第2の機械学習モデル202の処理によって対象分光データが既知のクラスに属するものと判定された場合には、その類似度演算部262が、既知特徴スペクトル群KS2との類似度S2_ConvVN1,S2_ConvVN2,S2_ClassVNをそれぞれ算出する。以下では、第1の機械学習モデル201のConvVN1層231の出力から類似度S1_ConvVN1を算出する方法を説明する。
【0049】
類似度S1_ConvVN1は、例えば次式を用いて算出できる。
S1_ConvVN1(Class)=max[G{Sp(i,j),KSp(Class,k)}]
ここで、”Class”は複数のクラスに対する序数、G{a,b}はaとbの類似度を求める関数、Sp(i,j)は対象分光データに応じて得られるすべての平面位置(i,j)での特徴スペクトル、KSp(Class,k)は、ConvVN1層231と特定の”Class”とに関連付けられたすべての既知特徴スペクトル、max[X]はXの最大値を取る論理演算を示す。すなわち、類似度S1_ConvVN1は、ConvVN1層231のすべての平面位置(i,j)における特徴スペクトルSp(i,j)のそれぞれと、特定のクラスに対応するすべての既知特徴スペクトルKSp(k)のそれぞれとの間で算出された類似度のうちの最大値である。このような類似度S1_ConvVN1は、複数のラベルLbに対応する複数のクラスのそれぞれに対して求められる。類似度S1_ConvVN1は、対象分光データが、各クラスの特徴に類似している程度を表している。
【0050】
ConvVN2層241とClassVN層251の出力に関する類似度S1_ConvVN2,S1_ClassVNも、類似度S1_ConvVN1と同様に生成される。なお、これらの3つの類似度S1_ConvVN1,S1_ConvVN2,S1_ClassVNをすべて生成する必要はないが、これらのうちの1つ以上を生成することが好ましい。本開示において、類似度の生成に使用された層を、「特定層」とも呼ぶ。
【0051】
ステップS260では、クラス分類処理部114が、ステップS250で得られた類似度をユーザーに提示し、ユーザーは、その類似度がクラス分類処理の結果と整合しているか否かを確認する。類似度S1_ConvVN1,S1_ConvVN2,S1_ClassVNは、対象分光データが、各クラスの特徴に類似している程度を表しているので、これらの類似度S1_ConvVN1,S1_ConvVN2,S1_ClassVNの少なくとも1つから、クラス分類処理の結果の良否を確認することができる。例えば、3つの類似度S1_ConvVN1,S1_ConvVN2,S1_ClassVNのうちの少なくとも1つが、クラス分類処理の結果と一致していない場合に、両者が整合しないものと判定できる。他の実施形態では、3つの類似度S1_ConvVN1,S1_ConvVN2,S1_ClassVNのすべてが、クラス分類処理の結果と一致していない場合に、両者が整合しないものと判定してもよい。一般には、複数の特定層の出力から生成された複数の類似度のうちの予め定められた数の類似度がクラス分類処理の結果と一致していない場合に、両者が整合しないものと判定してもよい。なお、ステップS260の判定は、クラス分類処理部114が行ってもよい。また、ステップS250とステップS260は省略してもよい。
【0052】
類似度がクラス分類処理の結果と整合している場合には、ステップS270に進み、クラス分類処理部114が、クラス分類処理の結果に応じて対象印刷媒体の媒体識別子を判別する。この処理は、例えば、
図9に示したグループ管理テーブルGT1,GT2を参照することによって行われる。ステップS280では、印刷処理部112が、媒体識別子に応じて印刷設定を選択する。この処理は、
図7に示した印刷設定テーブルPSTを参照することによって行われる。ステップS290では、印刷処理部112が、印刷設定に従って印刷を実行する。
【0053】
前述したステップS260において、類似度がクラス分類処理の結果と整合していないと判定された場合には、対象印刷媒体は、準備工程で使用した複数の初期印刷媒体、および、後述する媒体追加処理において追加される印刷媒体のいずれにも該当しない新たな印刷媒体なので、以下で説明するステップS300に進む。ステップS300では、新たな印刷媒体をクラス分類処理の対象とするために、媒体追加処理が実行される。媒体追加処理では機械学習モデルの更新や追加が行われるので、媒体追加処理は、機械学習モデルを準備する工程の一部であると考えることができる。
【0054】
図13は、媒体追加処理の処理手順を示すフローチャートであり、
図14は、媒体追加処理における分光データ群の管理状態を示す説明図である。以下の説明では、クラス分類処理の対象として追加される新たな印刷媒体を「追加印刷媒体」又は「追加媒体」と呼ぶ。
【0055】
ステップS310では、クラス分類処理部114が、既存の機械学習モデル201,202の中から、追加印刷媒体の分光データに最も近い機械学習モデルを探索する。「追加印刷媒体の分光データに最も近い機械学習モデル」とは、各機械学習モデル201,202の学習に使用されている教師データ群の代表点G1,G2と、追加印刷媒体の分光データとの距離が、最も小さな機械学習モデルを意味する。代表点G1,G2のぞれぞれと追加印刷媒体の分光データとの距離は、例えばユークリッド距離として算出できる。なお、追加印刷媒体の分光データとの距離が最も小さな教師データ群を「近接教師データ群」とも呼ぶ。
【0056】
ステップS320では、クラス分類処理部114が、ステップS310で探索された機械学習モデルについて、必須印刷媒体に相当するクラス数が上限値に達しているか否かを判定する。前述したように、本実施形態において、準備工程で使用された初期印刷媒体はすべて任意印刷媒体であり、準備工程以降に追加される印刷媒体はすべて必須印刷媒体である。必須印刷媒体に相当するクラス数が上限値に達していない場合には、ステップS330に進み、追加印刷媒体の分光データを追加した教師データで、その機械学習モデルの学習を実行する。
図14の状態S1は、前述した準備工程において機械学習モデル202の学習に使用されていた分光データ群SD2の状態を示し、状態S2は、ステップS330において、追加印刷媒体の分光データが必須印刷媒体の分光データとして追加された状態を示している。
図14において、「任意媒体」は、準備工程で使用された任意印刷媒体の分光データを意味し、「必須媒体」は、
図13の媒体追加処理によって追加される必須印刷媒体の分光データを意味する。「教師用エリア」は、その分光データが機械学習モデルの学習に実際に使用される教師データであることを意味している。「待避用エリア」は、その分光データが機械学習モデルの学習には使用されておらず、教師用エリアから待避した状態にあることを意味している。また、教師用エリアに空きがある状態は、その機械学習モデル202のクラス数が上限値に達していないことを意味する。状態S1では、機械学習モデル202において、必須印刷媒体に相当するクラス数が上限値に達していないので、追加印刷媒体の分光データが教師用エリアに追加されて状態S2となり、その教師用エリアに属する分光データを教師データとして用いて機械学習モデル202の再学習が実行される。この再学習では、追加された分光データのみが教師データとして使用されるようにしても良い。
【0057】
図15は、
図14の状態S2における媒体識別子リストIDLを示しており、
図16は、状態S2における第2の分光データ群SD2用のグループ管理テーブルGT2を示している。媒体識別子リストIDLには、追加された印刷媒体の媒体識別子として「B-1」が割り当てられており、その媒体名と分光データが登録されている。追加印刷媒体の分光データについても、測定された分光データにランダムなばらつきを付与するデータ拡張を行うことによって、複数の分光データが生成されることが好ましい。グループ管理テーブルGT2にも、媒体識別子がB-1である追加された印刷媒体について、複数の分光データが登録されている。第2の分光データ群SD2のうちの教師データ群に関する代表点G2は、追加された分光データを含めて再計算される。
【0058】
図14の状態S2から更に印刷媒体が追加されてゆくと、状態S3,状態S4,状態S5へと推移する。状態S2~状態S4においても、状態S1と同様に、機械学習モデル202において、必須印刷媒体に相当するクラス数が上限値に達していないので、ステップS330が実行され、追加印刷媒体の分光データが教師用エリアに追加されて、機械学習モデル202の再学習が実行される。なお、状態S3では、機械学習モデル202において、必須印刷媒体に相当するクラス数と、任意印刷媒体に相当するクラス数との和が上限値に達しており、教師用エリアに空きが無い。そこで、状態S3から状態S4に推移する場合には、ステップS330において、必須印刷媒体である追加印刷媒体の分光データが教師用エリアに追加されると共に、教師用エリアから任意印刷媒体の分光データが削除される。削除された分光データは、待避用エリアに待避される。待避用エリアに分光データを待避する理由は、その分光データを再利用できるようにするためである。教師用エリアから待避用エリアに待避される任意印刷媒体の分光データは、教師データ群の代表点からの距離が最も大きなものを選択することが好ましい。こうすれば、教師データ同士の距離を小さくできるので、クラス分類処理の精度を高めることができる。
【0059】
図14の状態S5では、機械学習モデル202において、必須印刷媒体に相当するクラス数が上限値に達している。この場合には、ステップS320からステップS340に進む。ステップS340では、クラス分類処理部114が、ステップS310で探索された機械学習モデルと同一グループに属し、かつ、必須印刷媒体に相当するクラス数が上限値に達していない機械学習モデルを探索する。そのような機械学習モデルが存在する場合には、ステップS350からステップS360に進み、追加印刷媒体の分光データを追加した教師データで、その機械学習モデルの学習を実行する。この処理は、前述したステップS330の処理と同じである。
【0060】
ステップS340における探索によって、機械学習モデルが発見されなかった場合には、ステップS350からステップS370に進み、新しい機械学習モデルを作成すると共に、追加印刷媒体の分光データを含む教師データで新しい機械学習モデルの学習を実行する。この処理は、
図14の状態S5から状態S6に変化する処理に相当する。状態S5では、機械学習モデル202において、必須印刷媒体に相当するクラス数が上限値に達しており、かつ、同一グループに属する他の機械学習モデルが存在しない。そこで、ステップS370の処理により、状態S6に示すように、新たな機械学習モデル203が作成され、新たな必須印刷媒体である追加印刷媒体の分光データを含む教師データで新しい機械学習モデルの学習が実行される。このとき、追加印刷媒体の分光データのみでは教師データとして不十分なので、待避用エリアに待避していた1つ以上の任意印刷媒体の分光データも教師データとして使用される。こうすれば、新たな機械学習モデル203によるクラス分類処理の精度を高めることができる。
【0061】
なお、上述したステップS340~S360を省略して、ステップS320において必須印刷媒体のクラス数が上限値に等しい場合に、直ちにステップS370に進むようにしてもよい。
【0062】
図17は、状態S6における第2グループ用のグループ管理テーブルGT2を示している。媒体識別子がA-1~A-6である印刷媒体の分光データは、準備工程で使用されていた任意印刷媒体の分光データである。また、媒体識別子がB-1~B-11である印刷媒体の分光データは、準備工程後に追加された必須印刷媒体の分光データである。このグループ管理テーブルGT2では、同一のグループに属する2つの機械学習モデル202,203についての分光データの状態が登録されている。機械学習モデル202については、追加された10個の必須印刷媒体に関する分光データが教師用エリアに収容され、6つの任意印刷媒体に関する分光データが待避用エリアに待避されている。機械学習モデル203については、1個の必須印刷媒体に関する分光データと6つの任意印刷媒体に関する分光データが教師用エリアに収容され、待避用エリアは空である。各機械学習モデル202,203の教師データ群の代表点G2a,G2bは、それぞれの教師用エリアに収容された分光データを用いて算出されている。
【0063】
なお、
図13に示した媒体追加処理は、既存の機械学習モデルの数が1個の場合にも実行することができる。既存の機械学習モデルの数が1個の場合とは、例えば、
図4に示した第2の機械学習モデル202が準備されておらず、
図12の処理が、
図3に示した第1の機械学習モデル201のみを用いて実行される場合である。この場合には、
図13のステップS370の処理は、第2の機械学習モデル202を新たな機械学習モデルとして追加する処理となる。このように、第1の機械学習モデル201のみを用いて行ったクラス分類処理において、その入力データが未知のクラスに属すると判定された場合に第2の機械学習モデル202を新たな機械学習モデルとして追加する処理は、2個の機械学習モデル201,202を準備する処理の一例として理解することも可能である。
【0064】
ステップS330,S360,S370のいずれかで機械学習モデルの更新又は追加が行われると、ステップS380において、クラス分類処理部114が、更新又は追加された機械学習モデルに教師データを再度入力して既知特徴スペクトル群を生成する。この処理は、
図12のステップS230の処理と同じなので、説明を省略する。ステップS390では、印刷設定作成部116が、追加した対象印刷媒体の印刷設定を作成する。この処理は、
図5のステップS30の処理と同じなので、説明を省略する。
【0065】
こうして
図13の処理が終了すると、
図12の処理も完了する。この後は、任意のタイミングで
図12の処理が再度実行される。
【0066】
上述した
図13の処理において、ステップS310の処理は、N個の機械学習モデルの学習に使用されていたN個の教師データ群のうち、追加印刷媒体の分光データに最も近い代表点を有する近接教師データ群を選択するとともに、その近接教師データ群を用いて学習が行われていた特定の機械学習モデルを選択する処理に相当する。このような処理を行えば、その近接教師データ群に追加印刷媒体の分光データを追加しても、追加後の教師データ群を、クラスタリング処理によってグループ分けされた状態と等価な状態に維持することができる。この結果、機械学習モデルによるクラス分類処理の精度を高めることができる。
【0067】
図13の処理によれば、新たな印刷媒体をクラス分類処理の対象に追加することが可能である。一方、ユーザーの指示に応じて、印刷媒体をクラス分類処理の対象から除外することも可能である。
【0068】
図18は、クラス分類処理の対象から印刷媒体を除外する媒体除外工程の処理手順を示すフローチャートである。ステップS410では、クラス分類処理部114が、登録済み印刷媒体の除外指示をユーザーから受領する。ステップS420では、除外対象印刷媒体の判別を行う機械学習モデルの教師用エリアから除外対象印刷媒体の分光データを削除し、必要に応じて任意印刷媒体の分光データを教師用エリアに補充する。「必要に応じて」とは、例えば、その機械学習モデルのクラス数が下限値未満になってしまう場合を意味する。例えば、
図14の状態S5から、必須印刷媒体の除外指示を受領したときには、機械学習モデル202の教師用エリアから、必須印刷媒体の分光データを削除する。仮に、多数の必須印刷媒体を除外した場合には、機械学習モデル202のクラス数が下限値未満になってしまう。その場合には、任意印刷媒体の分光データを待避用エリアから教師用エリアに移動させることによって、教師データとしての分光データを補充する。この結果、補充された分光データに相当する任意印刷媒体が、機械学習モデル202のクラスとして追加される。こうすれば、機械学習モデル202のクラス数が下限値未満になることによりクラス分類処理の精度が過度に低下することを防止できる。待避用エリアから教師用エリアに補充される任意印刷媒体の分光データは、教師データ群の代表点からの距離が最も小さなものを選択することが好ましい。こうすれば、教師データ同士の距離を小さくできるので、クラス分類処理の精度を高めることができる。なお、媒体識別子リストIDLと印刷設定テーブルPSTとグループ管理テーブルGT1,GT2は、このような分光データの削除や移動に応じて適宜更新される。
【0069】
ステップS430では、クラス分類処理部114が、ステップS420で更新された教師データを用いて、機械学習モデルの再学習を実行する。ステップS440では、クラス分類処理部114が、再学習した機械学習モデルに教師データを再度入力して既知特徴スペクトル群を生成する。この処理は、
図12のステップS230の処理と同じなので、説明を省略する。以上のような媒体除外工程を実行すれば、必須印刷媒体を機械学習モデルのクラス分類処理の対象から除外できる。
【0070】
以上のように、本実施形態では、Nを1以上の整数としたとき、N個の機械学習モデルを用いてクラス分類処理を実行するので、光学特性が類似する印刷媒体の判別を精度良く行うことができる。また、2個以上の機械学習モデルを用いてクラス分類処理を実行すれば、1個の機械学習モデルで多数のクラスへの分類処理を行う場合に比べて、処理を高速に実行できる。
【0071】
なお、上記実施形態では、ベクトルニューロンを用いるベクトルニューラルネットワーク型の機械学習モデルを用いていたが、この代わりに、通常の畳み込みニューラルネットワークのようにスカラーニューロンを用いる機械学習モデルを使用してもよい。但し、ベクトルニューラルネットワーク型の機械学習モデルは、スカラーニューロンを用いる機械学習モデルに比べてクラス分類処理の精度がより高い点で好ましい。
【0072】
B.機械学習モデルの各層の出力ベクトルの演算方法:
図3に示した第1の機械学習モデル201における各層の出力の演算方法は、以下の通りである。第2の機械学習モデル202も同様である。
【0073】
PrimeVN層221の各ノードは、Conv層211の1×1×32個のノードのスカラー出力を32次元のベクトルとみなして、このベクトルに変換行列を乗ずることによってそのノードのベクトル出力を得る。この変換行列は、1×1のカーネルの要素であり、機械学習モデル201の学習によって更新される。なお、Conv層211とPrimeVN層221の処理を統合して、1つのプライマリーベクトルニューロン層として構成することも可能である。
【0074】
PrimeVN層221を「下位層L」と呼び、その上位側に隣接するConvVN1層231を「上位層L+1」と呼ぶとき、上位層L+1の各ノードの出力は、以下の式を用いて決定される。
【数1】
ここで、
M
L
iは、下位層Lにおけるi番目のノードの出力ベクトル、
M
L+1
jは、上位層L+1におけるj番目のノードの出力ベクトル、
v
ijは、出力ベクトルM
L+1
jの予測ベクトル、
W
L
ijは、下位層Lの出力ベクトルM
L
iから予測ベクトルv
ijを算出するための予測行列、
u
jは、予測ベクトルv
ijの和、すなわち線形結合、である和ベクトル、
a
jは、和ベクトルu
jのノルム|u
j|を正規化することによって得られる正規化係数であるアクティベーション値、
F(X)は、Xを正規化する正規化関数である。
【0075】
正規化関数F(X)としては、例えば以下の(4a)式または(4b)式を使用できる。
【数2】
ここで、
kは、上位層L+1のすべてのノードに対する序数、
βは、任意の正の係数である調整パラメーターであり、例えばβ=1である。
【0076】
上記(4a)式では、上位層L+1のすべてのノードに関して和ベクトルujのノルム|uj|をソフトマックス関数で正規化することによってアクティベーション値ajが得られる。一方、(4b)式では、和ベクトルujのノルム|uj|を、上位層L+1のすべてのノードに関するノルム|uj|の和で除算することによってアクティベーション値ajが得られる。なお、正規化関数F(X)としては、(4a)式や(4b)式以外の他の関数を用いてもよい。
【0077】
上記(3)式の序数iは、上位層L+1におけるj番目のノードの出力ベクトルM
L+1
jを決めるために使用される下位層Lのノードに便宜上割り振られるものであり、1~nの値をとる。また、整数nは、上位層L+1におけるj番目のノードの出力ベクトルM
L+1
jを決めるために使用される下位層Lのノードの数である。従って、整数nは次式で与えられる。
n=Nk×Nc (6)
ここで、Nkはカーネルの要素数であり、Ncは下位層であるPrimeVN層221のチャンネル数である。
図3の例ではNk=3、Nc=26なので、n=78である。
【0078】
ConvVN1層231の出力ベクトルを求めるために使用される1つのカーネルは、カーネルサイズ1×3を表面サイズとし、下位層のチャンネル数26を深さとする1×3×26=78個の要素を有しており、これらの要素のそれぞれは予測行列WL
ijである。また、ConvVN1層231の20個のチャンネルの出力ベクトルを生成するためには、このカーネルが20組必要である。従って、ConvVN1層231の出力ベクトルを求めるために使用されるカーネルの予測行列WL
ijの数は、78×20=1560個である。これらの予測行列WL
ijは、機械学習モデル201の学習により更新される。
【0079】
上述した(2)~(5)式から分かるように、上位層L+1の個々のノードの出力ベクトルML+1
jは、以下の演算によって求められる。
(a)下位層Lの各ノードの出力ベクトルML
iに予測行列WL
ijを乗じて予測ベクトルvijを求め、
(b)下位層Lの各ノードから得られた予測ベクトルvijの和、すなわち線形結合、である和ベクトルujを求め、
(c)和ベクトルujのノルム|uj|を正規化することによって正規化係数であるアクティベーション値ajを求め、
(d)和ベクトルujをノルム|uj|で除算し、更に、アクティベーション値ajを乗じる。
【0080】
なお、アクティベーション値ajは、上位層L+1のすべてのノードに関してノルム|uj|を正規化することによって得られる正規化係数である。従って、アクティベーション値ajは、上位層L+1内の全ノードの中における各ノードの相対的な出力強度を示す指標と考えることができる。(4)式,(4a)式、(4b)式、及び(5)式で使用されるノルムは、典型的な例ではベクトル長さを表すL2ノルムである。このとき、アクティベーション値ajは、出力ベクトルML+1
jのベクトル長さに相当する。アクティベーション値ajは、上述した(4)式と(5)式で使用されるだけなので、ノードから出力される必要は無い。但し、アクティベーション値ajを外部に出力するように上位層L+1を構成することも可能である。
【0081】
ベクトルニューラルネットワークの構成は、カプセルネットワークの構成とほぼ同じであり、ベクトルニューラルネットワークのベクトルニューロンがカプセルネットワークのカプセルに相当する。但し、ベクトルニューラルネットワークで使用される上述の(2)~(5)式による演算は、カプセルネットワークで使用される演算と異なる。両者の最も大きな違いは、カプセルネットワークでは、上記(3)式の右辺の予測ベクトルvijにそれぞれ重みが乗じられており、その重みが、動的ルーティングを複数回繰り返すことによって探索される点である。一方、本実施形態のベクトルニューラルネットワークでは、上述した(2)~(5)式を順番に1回計算することによって出力ベクトルML+1
jが得られるので、動的ルーティングを繰り返す必要が無く、演算がより高速であるという利点がある。また、本実施形態のベクトルニューラルネットワークは、カプセルネットワークよりも演算に必要とするメモリー量がカプセルネットワークより少なく、本開示の発明者の実験によれば、約1/2~1/3のメモリー量で済むという利点もある。
【0082】
ベクトルを入出力とするノードを使用するという点では、ベクトルニューラルネットワークはカプセルネットワークと同じである。従って、ベクトルニューロンを使用する利点もカプセルネットワークと共通している。また、複数の層211~251は、上位に行くほどより大きな領域の特徴を表現し、下位に行くほどより小さな領域の特徴を表現する、という点は、通常の畳み込みニューラルネットワークと同じである。ここで、「特徴」とは、ニューラルネットワークへの入力データに含まれている特徴的な部分を意味する。ベクトルニューラルネットワークやカプセルネットワークでは、或るノードの出力ベクトルが、そのノードが表現する特徴の空間的な情報を表す空間情報を含む点で、通常の畳み込みニューラルネットワークよりも優れている。すなわち、或るノードの出力ベクトルのベクトル長さは、そのノードが表現する特徴の存在確率を表し、ベクトル方向がその特徴の方向やスケール等の空間情報を表している。従って、同じ層に属する2つのノードの出力ベクトルのベクトル方向は、それぞれの特徴の位置関係を表す。あるいは、当該2つのノードの出力ベクトルのベクトル方向は、特徴のバリエーションを表わすとも言える。例えば、「目」の特徴に対応するノードなら、出力ベクトルの方向は、目の細さ、吊り上がり方、などのバリエーションを表し得る。通常の畳み込みニューラルネットワークでは、プーリング処理によって特徴の空間情報が消失してしまうと言われている。この結果、ベクトルニューラルネットワークやカプセルネットワークは、通常の畳み込みニューラルネットワークに比べて入力データを識別する性能に優れているという利点がある。
【0083】
ベクトルニューラルネットワークの利点は、以下のように考えることも可能である。すなわち、ベクトルニューラルネットワークでは、ノードの出力ベクトルが、入力データの特徴を連続空間内の座標として表現すること、に利点がある。従って、ベクトル方向が近ければ特徴が似ている、というように出力ベクトルを評価できる。また、入力データに含まれている特徴が教師データではカバーできていなくても、補間してその特徴を判別できる、などの利点もある。一方、通常の畳み込みニューラルネットワークは、プーリング処理によって無秩序な圧縮がかかるため、入力データの特徴を連続空間内の座標として表現できない、という欠点がある。
【0084】
ConvVN2層241とClassVN層251の各ノードの出力も、上述した(2)~(5)式を用いて同様に決定されるので、詳細な説明は省略する。最上位層であるClassVN層251の解像度は1×1であり、チャンネル数は(n1+1)である。
【0085】
ClassVN層251の出力は、既知のクラスに対する複数の判定値Class1-1~Class1-2と、未知のクラスであることを示す判定値Class1-UNとに変換される。これらの判定値は、通常はソフトマックス関数によって正規化された値である。具体的には、例えば、ClassVN層251の各ノードの出力ベクトルから、その出力ベクトルのベクトル長さを算出し、更に、各ノードのベクトル長さをソフトマックス関数で正規化する、という演算を実行することによって、個々のクラスに対する判定値を得ることができる。上述したように、上記(4)式で得られるアクティベーション値ajは、出力ベクトルML+1
jのベクトル長さに相当する値であり、正規化されている。従って、ClassVN層251の各ノードのそれぞれにおけるアクティベーション値ajを出力して、そのまま各クラスに対する判定値として使用してもよい。
【0086】
上述の実施形態では、機械学習モデル201,202として、上記(2)式~(5)式の演算によって出力ベクトルを求めるベクトルニューラルネットワークを用いていたが、この代わりに、米国特許第5210798号公報や国際公開2019/083553号公報に開示されているカプセルネットワークを用いてもよい。また、スカラーニューロンのみを用いるニューラルネットワークを用いてもよい。
【0087】
なお、既知特徴スペクトル群KS1,KS2の生成方法や、ConvVN1層等の中間層の出力データの生成方法は上記実施形態に限定されるものではなく、例えば、Kmeans法を用いてこれらのデータを生成してもよい。また、PCAやICA、Fisherなどの変換を用いてこれらのデータを生成してもよい。また、既知特徴スペクトル群KSGと中間層の出力データの変換方法は異なっていてもよい。
【0088】
・他の実施形態:
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
【0089】
(1)本開示の第1の形態によれば、機械学習モデルを用いて印刷媒体の判別処理を実行する方法が提供される。この方法は、(a)Nを1以上の整数とするとき、N個の機械学習モデルを準備する工程であって、前記N個の機械学習モデルのそれぞれは、印刷媒体の分光反射率である入力分光データを複数のクラスのいずれかに分類することによって前記印刷媒体の種類を判別するように構成される、工程と、(b)対象印刷媒体の分光反射率である対象分光データを取得する工程と、(c)前記N個の機械学習モデルを用いて、前記対象分光データのクラス分類処理を実行することによって、前記対象印刷媒体の種類を判別する工程と、を含む。
この方法によれば、機械学習モデルを用いてクラス分類処理を行うので、光学特性が類似する印刷媒体の判別を精度良く行うことができる。
【0090】
(2)上記方法において、前記工程(c)は、前記対象分光データのクラス分類処理の結果に応じて、前記対象印刷媒体の種類を示す媒体識別子を判別する工程と、を含み、前記方法は、更に、前記媒体識別子に応じて、前記対象印刷媒体を使用して印刷を実行するための印刷設定を選択する工程と、前記印刷設定に従って、前記対象印刷媒体を使用して印刷を実行する工程と、を含むものとしてもよい。
この方法によれば、対象印刷媒体の判別処理の結果から印刷設定を選択するので、その対象印刷媒体を用いてきれいな印刷物を作成できる。
【0091】
(3)上記方法において、前記Nは2以上の整数であり、前記N個の機械学習モデルのそれぞれは、前記N個の機械学習モデルのうちの他の機械学習モデルと異なる少なくとも1つのクラスを有するように構成されるものとしてもよい。
この方法によれば、2個以上の機械学習モデルを用いてクラス分類処理を実行するので、1個の機械学習モデルで多数のクラスへの分類処理を行う場合に比べて、処理を高速に実行できる。
【0092】
(4)上記方法において、前記N個の機械学習モデルは、対応するN個の教師データ群を用いて学習が実行されており、前記N個の教師データ群を構成するN個の分光データ群は、クラスタリング処理によってN個の組にグループ分けされた状態と等価な状態にあるものとしてもよい。
この方法によれば、各機械学習モデルの学習に用いられる分光データがクラスタリング処理によってグループ分けされているので、機械学習モデルによるクラス分類処理の精度を高めることができる。
【0093】
(5)上記方法において、各教師データ群は、各教師データ群を構成する分光データ群の中心を代表する代表点を有し、任意の1個の機械学習モデルにより分類できるクラスの数には上限値が設定されており、前記N個の機械学習モデルによる前記クラス分類処理の対象となっている複数種類の印刷媒体は、ユーザーの除外指示がなければ前記クラス分類処理の対象から除外できない必須印刷媒体と、ユーザーの除外指示がなくても前記クラス分類処理の対象から除外できる任意印刷媒体と、のいずれかに分類されていてもよい。前記工程(a)は、前記N個の機械学習モデルによる前記クラス分類処理の対象となっていない新たな追加印刷媒体を前記クラス分類処理の対象とする媒体追加工程を含み、前記媒体追加工程は、(a1)前記追加印刷媒体の分光反射率を追加分光データとして取得する工程と、(a2)前記N個の教師データ群のうち、前記追加分光データに最も近い代表点を有する教師データ群を近接教師データ群として選択するとともに、前記近接教師データ群を用いて学習が行われていた特定の機械学習モデルを選択する工程と、(a3)前記特定の機械学習モデルにおける前記必須印刷媒体に相当するクラス数が前記上限値未満である場合には、前記近接教師データ群に前記追加分光データを追加して前記近接教師データ群を更新し、更新後の前記近接教師データ群を用いて前記特定の機械学習モデルの再学習を実行する工程と、を含むものとしてもよい。
この方法によれば、追加印刷媒体に対応するクラス分類を行うことが可能となる。また、追加印刷媒体の追加分光データに最も近い重心を有する近接教師データ群に追加分光データを追加した上で機械学習モデルの再学習を行うので、機械学習モデルによるクラス分類処理の精度を高めることができる。
【0094】
(6)上記方法において、前記工程(a3)は、前記工程(a3)の実行前の時点において前記特定の機械学習モデルにおける前記必須印刷媒体に相当するクラス数と前記任意印刷媒体に相当するクラス数との合計が前記上限値に等しい場合には、前記近接教師データ群から前記任意印刷媒体に関する任意分光データを削除する工程、を含むものとしてもよい。
この方法によれば、任意媒体の任意分光データを近接教師データ群から削除するので、機械学習モデルのクラス数を増やすことなくクラス分類処理の精度を高めることができる。
【0095】
(7)上記方法において、前記媒体追加工程は、更に、(a4)前記特定の機械学習モデルにおける前記必須印刷媒体に相当するクラス数が前記上限値に等しい場合には、新たな機械学習モデルを作成するとともに、前記追加分光データと1つ以上の任意印刷媒体に関する任意分光データとを含む新たな教師データ群を用いて前記新たな機械学習モデルの学習を実行する工程、を含むものとしてもよい。
この方法によれば、追加印刷媒体に対応するクラス分類を行うことが可能となる。また、追加分光データと任意分光データとを含む新たな教師データ群を用いて機械学習モデルの学習を行うので、クラス分類処理の精度を高めることができる。
【0096】
(8)上記方法は、更に、前記N個の機械学習モデルのうちから選ばれた1つの対象機械学習モデルによる前記クラス分類処理の対象から、1つの除外対象印刷媒体を除外する媒体除外工程を含み、前記媒体除外工程は、(i)前記対象機械学習モデルの学習に使用されていた教師データ群から前記除外対象印刷媒体に関する分光データを削除することによって、前記教師データ群を更新する工程と、(ii)更新された前記教師データ群を用いて、前記対象機械学習モデルの再学習を実行する工程と、を含むものとしてもよい。
この方法によれば、印刷媒体を機械学習モデルのクラス分類処理の対象から除外できる。
【0097】
(9)上記方法において、前記工程(i)は、前記対象機械学習モデルによる前記クラス分類処理の対象から前記除外対象印刷媒体を除外することによって前記対象機械学習モデルが有するクラス数が予め設定された下限値未満となる場合には、前記対象機械学習モデルの学習に使用されていた教師データ群から前記除外対象印刷媒体に関する分光データを削除すると共に、1つ以上の任意印刷媒体に関する任意分光データを追加することによって前記教師データ群を更新するものとしてもよい。
この方法によれば、機械学習モデルのクラス数を下限値以上とすることができるので、クラス分類処理の精度が過度に低下することを防止できる。
【0098】
(10)上記方法において、各機械学習モデルの学習に使用される1個の教師データ群と、当該教師データ群から除去される分光データ、及び、当該教師データ群に追加される分光データは、同一の分光データグル-プを構成するものとして管理され、当該教師データ群から除去される前記分光データは、前記分光データグループの待避用エリアに待避された状態となり、当該教師データ群に追加される前記分光データは、前記分光データグループの前記待避用エリアに待避されていた分光データから選択されるものとしてもよい。
この方法によれば、教師データとして使用する分光データを分光グループデータとして管理するので、N個の教師データ群を構成するN個の分光データ群を、クラスタリング処理によってグループ分けされた状態と等価な状態に維持できる。
【0099】
(11)本開示の第2の形態によれば、機械学習モデルを用いて印刷媒体の判別処理を実行するシステムが提供される。このシステムは、Nを1以上の整数とするとき、N個の機械学習モデルを記憶するメモリーと、前記N個の機械学習モデルを用いて前記判別処理を実行するプロセッサーと、を備える。前記N個の機械学習モデルのそれぞれは、印刷媒体の分光反射率である入力分光データを複数のクラスのいずれかに分類することによって前記印刷媒体の種類を判別するように構成されている。前記プロセッサーは、対象印刷媒体の対象分光データを取得する第1処理と、前記N個の機械学習モデルを用いて、前記対象分光データのクラス分類処理を実行することによって、前記対象印刷媒体の種類を判別する第2処理と、を実行するように構成されている。
このシステムによれば、機械学習モデルを用いてクラス分類処理を行うので、光学特性が類似する印刷媒体の判別を精度良く行うことができる。
【0100】
本開示は、上記以外の種々の形態で実現することも可能である。例えば、クラス分類装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した一時的でない記録媒体(non-transitory storage medium)等の形態で実現することができる。
【符号の説明】
【0101】
10…プリンター、20…情報処理装置、30…分光測定器、110…プロセッサー、112…印刷処理部、114…クラス分類処理部、116…印刷設定作成部、120…メモリー、130…インターフェイス回路、150…表示部、201,202…機械学習モデル、211,212…畳み込み層、221,222…プライマリーベクトルニューロン層、231,232…第1畳み込みベクトルニューロン層、241,242…第2畳み込みベクトルニューロン層、251,252…分類ベクトルニューロン層、261,262…類似度演算部