IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 株式会社JVCケンウッドの特許一覧

特許7582127画像処理装置、画像処理方法、および画像処理プログラム
<>
  • 特許-画像処理装置、画像処理方法、および画像処理プログラム 図1
  • 特許-画像処理装置、画像処理方法、および画像処理プログラム 図2
  • 特許-画像処理装置、画像処理方法、および画像処理プログラム 図3
  • 特許-画像処理装置、画像処理方法、および画像処理プログラム 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2024-11-05
(45)【発行日】2024-11-13
(54)【発明の名称】画像処理装置、画像処理方法、および画像処理プログラム
(51)【国際特許分類】
   G06N 3/096 20230101AFI20241106BHJP
   G06T 7/00 20170101ALI20241106BHJP
【FI】
G06N3/096
G06T7/00 350C
【請求項の数】 5
(21)【出願番号】P 2021140819
(22)【出願日】2021-08-31
(65)【公開番号】P2023034530
(43)【公開日】2023-03-13
【審査請求日】2024-03-29
(73)【特許権者】
【識別番号】308036402
【氏名又は名称】株式会社JVCケンウッド
(74)【代理人】
【識別番号】100105924
【弁理士】
【氏名又は名称】森下 賢樹
(72)【発明者】
【氏名】竹原 英樹
(72)【発明者】
【氏名】木田 晋吾
(72)【発明者】
【氏名】楊 尹誠
(72)【発明者】
【氏名】高見 真季
【審査官】山本 俊介
(56)【参考文献】
【文献】米国特許出願公開第2021/0124993(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
G06T 7/00
(57)【特許請求の範囲】
【請求項1】
入力データに対して、基本クラスを学習済みの基本ニューラルネットワークが出力する埋め込みベクトルと、基本クラスの重心ベクトルとに基づいて基本クラスを選択する基本クラス選択部と、
基本クラスを学習済みの追加ニューラルネットワークを用いて追加クラスを継続学習する継続学習部と、
前記入力データに対して、継続学習された前記追加ニューラルネットワークが出力する埋め込みベクトルと、基本クラスおよび追加クラスの重心ベクトルとに基づいて追加クラスを選択する追加クラス選択部と、
前記基本クラス選択部により選択された基本クラスと、前記追加クラス選択部により選択された追加クラスとに基づいて、前記入力データをクラス分類する分類決定部とを備えることを特徴とする画像処理装置。
【請求項2】
前記追加ニューラルネットワークが出力する埋め込みベクトルから重心ベクトルを導出する重心導出部と、
前記重心導出部により導出された継続学習前の重心ベクトルと継続学習後の重心ベクトルとに基づいて、継続学習前に既知のクラスの重心ベクトルを補正する重心補正部とをさらに備えることを特徴とする請求項1に記載の画像処理装置。
【請求項3】
前記追加クラス選択部は、継続学習時の追加クラスの数だけ基本クラスの重心ベクトルを削除することを特徴とする請求項1に記載の画像処理装置。
【請求項4】
入力データに対して、基本クラスを学習済みの基本ニューラルネットワークが出力する埋め込みベクトルと、基本クラスの重心ベクトルとに基づいて基本クラスを選択する基本クラス選択ステップと、
基本クラスを学習済みの追加ニューラルネットワークを用いて追加クラスを継続学習する継続学習ステップと、
前記入力データに対して、継続学習された前記追加ニューラルネットワークが出力する埋め込みベクトルと、基本クラスおよび追加クラスの重心ベクトルとに基づいて追加クラスを選択する追加クラス選択ステップと、
前記基本クラス選択ステップにより選択された基本クラスと、前記追加クラス選択ステップにより選択された追加クラスとに基づいて、前記入力データをクラス分類する分類決定ステップとを含むことを特徴とする画像処理方法。
【請求項5】
入力データに対して、基本クラスを学習済みの基本ニューラルネットワークが出力する埋め込みベクトルと、基本クラスの重心ベクトルとに基づいて基本クラスを選択する基本クラス選択ステップと、
基本クラスを学習済みの追加ニューラルネットワークを用いて追加クラスを継続学習する継続学習ステップと、
前記入力データに対して、継続学習された前記追加ニューラルネットワークが出力する埋め込みベクトルと、基本クラスおよび追加クラスの重心ベクトルとに基づいて追加クラスを選択する追加クラス選択ステップと、
前記基本クラス選択ステップにより選択された基本クラスと、前記追加クラス選択ステップにより選択された追加クラスとに基づいて、前記入力データをクラス分類する分類決定ステップとをコンピュータに実行させることを特徴とする画像処理プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、機械学習に基づく画像処理技術に関する。
【背景技術】
【0002】
人間は長期にわたる経験を通して新しい知識を学習することができ、昔の知識を忘れないように維持することができる。一方、畳み込みニューラルネットワーク(Convolutional Neural Network(CNN))の知識は学習に使用したデータセットに依存しており、データ分布の変化に適応するためにはデータセット全体に対してCNNのパラメータの再学習が必要となる。CNNでは、新しいタスクについて学習していくにつれて、昔のタスクに対する推定精度は低下していく。このようにCNNでは連続学習を行うと新しいタスクの学習中に昔のタスクの学習結果を忘れてしまう致命的忘却(catastrophic forgetting)が避けられない。
【0003】
致命的忘却を回避する手法として、継続学習(incremental learningまたはcontinual learning)が提案されている。継続学習とは、新しいタスクや新しいデータが発生した時に、最初からモデルを学習するのではなく、現在の学習済みのモデルを改善して学習する学習方法である。継続学習の一つの手法として正則化ベースの継続学習があり、正則化損失を利用して学習する(特許文献1)。
【先行技術文献】
【特許文献】
【0004】
【文献】国際公開第2017/145852号公報
【非特許文献】
【0005】
【文献】Thomas Mensink, Jakob Verbeek, Florent Perronnin, Gabriela Csurka, "Distance-Based Image Classification: Generalizing to new classes at near-zero cost", IEEE Transactions on Pattern Analysis and Machine Intelligence, Institute of Electrical and Electronics Engineers, 2013, 35 (11), pp.2624-2637.
【文献】Lu Yu, Bartlomiej Twardowski, Xialei Liu, Luis Herranz, Kai Wang, Yongmei Cheng, Shangling Jui, Joost van de Weijer, "Semantic Drift Compensation for Class-Incremental Learning", 2020 Computer Vision and Pattern Recognition, pp 6982-6991.
【文献】Hanbin Zhao, Yongjian Fu, Mintong Kang, Qi Tian, Fei Wu, Xi Li, "MgSvF: Multi-Grained Slow vs. Fast Framework for Few-Shot Class-Incremental Learning", arXiv:2006.15524, 2021.
【発明の概要】
【発明が解決しようとする課題】
【0006】
特許文献1に記載の技術では、十分に致命的忘却を低減できないという課題があった。
【0007】
本発明はこうした状況に鑑みてなされたものであり、その目的は、致命的忘却を低減することができる機械学習に基づく画像処理技術を提供することにある。
【課題を解決するための手段】
【0008】
上記課題を解決するために、本発明のある態様の画像処理装置は、入力データに対して、基本クラスを学習済みの基本ニューラルネットワークが出力する埋め込みベクトルと、基本クラスの重心ベクトルとに基づいて基本クラスを選択する基本クラス選択部と、基本クラスを学習済みの追加ニューラルネットワークを用いて追加クラスを継続学習する継続学習部と、前記入力データに対して、継続学習された前記追加ニューラルネットワークが出力する埋め込みベクトルと、基本クラスおよび追加クラスの重心ベクトルとに基づいて追加クラスを選択する追加クラス選択部と、前記基本クラス選択部により選択された基本クラスと、前記追加クラス選択部により選択された追加クラスとに基づいて、前記入力データをクラス分類する分類決定部とを備える。
【0009】
本発明の別の態様は、画像処理方法である。この方法は、入力データに対して、基本クラスを学習済みの基本ニューラルネットワークが出力する埋め込みベクトルと、基本クラスの重心ベクトルとに基づいて基本クラスを選択する基本クラス選択ステップと、基本クラスを学習済みの追加ニューラルネットワークを用いて追加クラスを継続学習する継続学習ステップと、前記入力データに対して、継続学習された前記追加ニューラルネットワークが出力する埋め込みベクトルと、基本クラスおよび追加クラスの重心ベクトルとに基づいて追加クラスを選択する追加クラス選択ステップと、前記基本クラス選択ステップにより選択された基本クラスと、前記追加クラス選択ステップにより選択された追加クラスとに基づいて、前記入力データをクラス分類する分類決定ステップとを含む。
【0010】
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
【発明の効果】
【0011】
本発明によれば、致命的忘却を低減することができる機械学習に基づく画像処理技術を提供することができる。
【図面の簡単な説明】
【0012】
図1】実施の形態に係る画像処理装置の構成図である。
図2図1の画像処理装置による継続学習処理を説明するフローチャートである。
図3図1の基本ニューラルネットワーク処理部および追加ニューラルネットワーク処理部で用いられるニューラルネットワークモデルの構造を説明する図である。
図4図1の画像処理装置による分類決定処理を説明するフローチャートである。
【発明を実施するための形態】
【0013】
図1は、実施の形態に係る画像処理装置100の構成図である。画像処理装置100は、基本ニューラルネットワーク処理部10、基本クラス選択部20、追加ニューラルネットワーク処理部30、追加クラス選択部40、継続学習部50、重心導出部60、重心ベクトル補正部70、および分類決定部80を含む。
【0014】
本実施の形態では、継続学習とメトリック学習を組み合わせた機械学習を行う。ここでは、入力データとして画像を例に説明するが、入力データは画像に限られない。画像間の関係性を考慮した埋め込み空間(特徴空間)を学習する手法としてメトリック学習がある(たとえば非特許文献1参照)。メトリック学習は、情報検索、データ分類、画像認識等の様々な分野で利用されている。正則化損失を利用して学習する継続学習は、メトリック損失を利用するメトリック学習と組み合わせることができる。
【0015】
本実施の形態では、継続学習の1つであるクラスインクリメンタル学習を利用する(たとえば非特許文献2、非特許文献3参照)。非特許文献2は1つのニューラルネットワークでクラスインクリメンタル学習を行う。非特許文献3は学習率の異なる2つのニューラルネットワークでクラスインクリメンタル学習を行い、2つのニューラルネットワークの特徴空間を結合した結合特徴空間で分類を行う。
【0016】
本実施の形態では、基本クラスを学習した基本ニューラルネットワークは変更せずに、基本クラスを学習済みで追加クラスを継続学習する追加ニューラルネットワークを更新する。入力画像に対して、基本ニューラルネットワークと追加ニューラルネットワークのそれぞれを用いてクラス分類(クラス選択)を行い、精度の高い(距離の近い)方のクラスに入力画像を分類する。
【0017】
図2は、画像処理装置100による継続学習を説明するフローチャートである。図1および図2を参照して継続学習の構成と全体動作について説明する。
【0018】
最初に、基本クラスを学習済みのニューラルネットワークと、そのニューラルネットワークを用いて導出された基本クラスの重心ベクトルを取得する。基本クラスを学習済みのニューラルネットワークは、ネットワークから取得してもよく、基本クラスを含むデータセットを使って学習させてもよい。基本クラスを学習済みのニューラルネットワークはクラス分類学習されているものではなく、メトリック学習(埋め込み学習)されているものが望ましい。基本クラスの重心ベクトルは、ネットワークから取得してもよく、基本クラスの画像を学習済みのニューラルネットワークに入力し、学習済みのニューラルネットワークから出力される埋め込みベクトルについてクラス毎に重心を求め、クラス毎の重心ベクトルとして導出してもよい。ここでは、クラス毎の重心ベクトルの数は1とするが、複数でもよい。
【0019】
基本クラスを学習済みのニューラルネットワークを基本ニューラルネットワーク処理部10と追加ニューラルネットワーク処理部30に設定する(S10)。
【0020】
基本クラスを学習済みのニューラルネットワークを用いて導出された基本クラスの重心ベクトルを基本クラス選択部20と追加クラス選択部40に設定する(S20)。基本クラス選択部20と追加クラス選択部40はそれぞれ基本クラスの重心ベクトルを保存する。
【0021】
次に、継続学習である学習セッションiをN回繰り返す(i=1,2,…,N)(S30)。
【0022】
まず、追加ニューラルネットワーク処理部30は、追加訓練データセットに含まれる追加クラス毎に、ある追加クラスの全ての画像を、学習セッションiを行う前の追加ニューラルネットワークに入力して、当該追加クラスの全ての画像の埋め込みベクトルを導出する。重心導出部60は、当該追加クラスの全ての画像の埋め込みベクトルから、当該追加クラスの重心ベクトルを導出する(S40)。ここでの追加クラスの重心ベクトルは学習前の重心ベクトルである。なお、追加クラスの重心ベクトルは全ての追加クラスについて導出する。
【0023】
次に、継続学習部50は、学習セッションiとして、追加クラスを含む追加訓練データセットを使って、追加ニューラルネットワークを継続学習する(S50)。
【0024】
次に、追加ニューラルネットワーク処理部30は、追加訓練データセットに含まれる追加クラス毎に、ある追加クラスの全ての画像を、学習セッションiを行った後の追加ニューラルネットワークに入力して、当該追加クラスの全ての画像の埋め込みベクトルを導出する。重心導出部60は、当該追加クラスの全ての画像の埋め込みベクトルから、当該追加クラスの重心ベクトルを導出する(S60)。ここでの追加クラスの重心ベクトルは学習後の重心ベクトルである。なお、追加クラスの重心ベクトルは全ての追加クラスについて導出する。
【0025】
次に、追加クラス選択部40は、保存している基本クラスの重心ベクトルを削除する(S70)。ここでは、削除する基本クラスの重心ベクトルの数は学習セッションiで追加される追加クラスの数であるとする。削除する基本クラスの重心ベクトルは、学習セッションiで追加される追加クラスの重心ベクトルと最近傍のものであるとする。基本クラスの重心ベクトルが全て削除された後は、重心ベクトルは削除しない。これにより、基本クラス選択部20が保存する重心ベクトルの数と追加クラス選択部40が保存する重心ベクトルの数を同一にすることができる。
【0026】
次に、重心ベクトル補正部70は、追加クラス選択部40が保存している既知のクラスの重心ベクトルを補正する(S80)。既知のクラスには、基本クラスと学習セッション(i-1)の追加クラスが含まれる。学習セッションiの追加クラスは補正する必要はない。iを1だけインクリメントし(S90)、ステップS30に戻り、i=NまでステップS40~S80を繰り返し、iがNを超えれば、終了する。
【0027】
学習済み(既知)のクラスの重心ベクトルの補正については、非特許文献2において図3を参照して説明されている方法を改良して利用する。
【0028】
重心ベクトル補正部70は、学習済みのクラス(既知のクラス)の重心ベクトルの所定距離以内にある継続学習前のクラスの重心ベクトルと継続学習後のクラスの重心ベクトルにもとづいて、学習済みのクラスの重心ベクトルを補正する。具体的には、重心ベクトル補正部70は、継続学習前のクラスの重心ベクトルから継続学習後のクラスの重心ベクトルの移動量を求め、それら移動量の平均移動量を算出する。重心ベクトル補正部70は、平均移動量を学習済みのクラスの重心ベクトルに加算することにより、学習済みのクラスの重心ベクトルを補正する。
【0029】
非特許文献2では、既知クラスの重心ベクトルの半径R以内にある学習前の埋め込みベクトルを用いて補正するが、本実施の形態では、継続学習前のクラスの重心ベクトルと継続学習後のクラスの重心ベクトルの両方を用いて補正する点が異なる。平均移動量の算出において、重心ベクトルを多く利用する方が1つ1つの画像の細かい変動に影響されないようになるため、本実施の形態では、学習済みのクラスの重心ベクトルの所定距離以内にある継続学習前のクラスの重心ベクトルと継続学習後のクラスの重心ベクトルの両方を用いて補正することにした。
【0030】
継続学習部50の構成と動作をより詳しく説明する。
【0031】
基本訓練データセットは多数の基本クラス(例えば、100から1000クラス程度)を含み、各クラスが多数画像(例えば、3000画像)で構成される教師ありデータセットである。基本訓練データセットは、一般的な分類タスクを単独で学習させるのに十分なデータ量であるとする。
【0032】
それに対して、追加訓練データセットは少数の追加クラス(例えば、2から10クラス程度)を含み、各追加クラスが少数画像(例えば、1から5枚程度)で構成される教師ありデータセットである。あるクラスに属するアンカー画像、アンカー画像と同じクラスに属するポジティブ画像、アンカー画像と異なるクラスに属するネガティブ画像の3つの画像を組にした訓練データを学習対象ニューラルネットワークに入力する。ここで、少数クラスを2としているのは、学習対象とするクラスが1であっても、ネガティブ画像として学習対象としないクラスが必要であるからである。また、ここでは、少数画像であるとするが、少数クラスであれば多数画像でもよい。
【0033】
図3は、基本ニューラルネットワーク処理部10および追加ニューラルネットワーク処理部30で用いられるニューラルネットワークモデルの構造を説明する図である。ニューラルネットワークは畳み込み層とプーリング層を含み、全結合層を含まないディープニューラルネットワークである。図3に示すResNet-18の畳み込み層であるCONV-1からCONV-5を含み、その後に、グローバル平均プーリング層を有する構成であり、512次元の埋め込みベクトルを出力する。
【0034】
継続学習部50は、メトリック損失Lmlと正則化損失Lrを加算して次式のように全体損失Lを算出し、全体損失Lを最小化するようにニューラルネットワークを学習する。
L=Σ(Lml+Lr)
ここで、Σは入力画像に対して和を取ることを示す。
【0035】
メトリック損失としてトリプレット損失を用いる。トリプレット損失Lmlは、アンカー画像の埋め込みベクトル、ポジティブ画像の埋め込みベクトル、およびネガティブ画像の埋め込みベクトルに基づいて次式で算出される。
Lml=dp-dn+α
ここで、dpは、アンカー画像の埋め込みベクトルとポジティブ画像間の埋め込みベクトルのユークリッド距離である。dnは、アンカー画像の埋め込みベクトルとネガティブ画像間の埋め込みベクトルのユークリッド距離である。αはオフセットである。
【0036】
正則化損失Lrは、次式のように画像をニューラルネットワークに入力した時に出力される埋め込みベクトルの学習セッション前後での差分を最小化するための埋め込みベクトル損失Lrvである。
Lrv=||V(i)-V(i―1)||
ここで、V(i)は、学習セッションiのニューラルネットワークの出力する埋め込みベクトルである。V(i―1)は、学習セッション(i-1)のニューラルネットワークの出力する埋め込みベクトルである。||・||は、フロベニウスノルムを算出する意味を示す記号である。
【0037】
図4は、画像処理装置100による分類決定を説明するフローチャートである。図1および図4を参照して分類決定の構成と全体動作について説明する。
【0038】
基本ニューラルネットワーク処理部10は、分類対象の画像を基本ニューラルネットワークに入力し、追加ニューラルネットワーク処理部30は、分類対象の画像を継続学習された追加ニューラルネットワークに入力する(S100)。
【0039】
基本ニューラルネットワーク処理部10は、基本ニューラルネットワークから出力される分類対象の画像の埋め込みベクトルを基本クラス選択部20に供給し、追加ニューラルネットワーク処理部30は、追加ニューラルネットワークから出力される分類対象の画像の埋め込みベクトルを追加クラス選択部40に供給する(S110)。
【0040】
基本クラス選択部20は、基本ニューラルネットワークが出力した基本埋め込みベクトルに基づいて、基本クラスを選択する(S120)。具体的には、基本埋め込みベクトルと最も距離が近い重心ベクトルを有する基本クラスを選択する。
【0041】
追加クラス選択部40は、追加ニューラルネットワークが出力した追加埋め込みベクトルに基づいて、追加クラスを選択する(S130)。具体的には、追加埋め込みベクトルと最も距離が近い重心ベクトルを有する追加クラスを選択する。なお、追加クラス選択部40は、追加埋め込みベクトルと最も距離が近い重心ベクトルを有するクラスが基本クラスであった場合でも基本クラスは選択しない。
【0042】
分類決定部80は、基本クラス選択部20により選択された基本クラスと、追加クラス選択部40により選択された追加クラスとを比較して、重心ベクトルと埋め込みベクトルの距離がより近い方のクラスを、分類対象の画像の分類結果のクラスとして決定する(S140)。重心ベクトルと埋め込みベクトルの距離を逆数として確率のように扱い、確率の高低を判断し、確率の高い方のクラスを分類結果のクラスとして決定してもよい。ここで、選択された基本クラスと選択された追加クラスの間で、重心ベクトルと埋め込みベクトルの距離が同一である場合は、追加クラスの方を分類結果のクラスとして選択する。
【0043】
(変形例)
追加クラス選択部40と分類決定部80の変形例について説明する。実施の形態とは異なる動作のみを説明する。追加クラス選択部40は、追加埋め込みベクトルと最も距離が近い重心ベクトルを、基本クラスであるか追加クラスであるかに関わらず選択する。ここで、基本クラス選択部20で選択された基本クラスと追加クラス選択部40で選択された基本クラスが異なる場合、分類決定部80は基本クラス選択部20で選択された基本クラスを分類結果のクラスとして選択する。ここで、分類決定部80が基本クラス選択部20で選択された基本クラスを分類結果のクラスとして選択する理由は、基本クラスについて基本ニューラルネットワークの方がより多いデータで学習しているからである。つまり、分類決定部80は、より多くのデータで学習しているニューラルネットワークの分類結果を選択するようにする。
【0044】
以上説明した画像処理装置100の各種の処理は、CPUやメモリ等のハードウェアを用いた装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバと送受信することも、地上波あるいは衛星ディジタル放送のデータ放送として送受信することも可能である。
【0045】
以上述べたように、本実施の形態の画像処理装置100によれば、基本ニューラルネットワークは継続学習しないため基本クラスを忘却しない。そのため、学習セッションが進んでも基本ニューラルネットワークは高い確率で基本クラスを分類することができる。基本ニューラルネットワークは追加クラスを継続学習しないため、基本ニューラルネットワークでは追加クラスを選択できないが、追加ニューラルネットワークは基本クラスに対して追加クラスを継続学習することで基本クラスと追加クラスの両方の特徴を考慮しながら学習し、追加クラスを選択することができる。
【0046】
本実施の形態によれば、基本クラスを忘却しない基本ニューラルネットワークによる分類結果と、追加クラスを継続学習した追加ニューラルネットワークによる分類結果とを評価して、より精度の高い方の分類結果を選択するため、致命的忘却を低減しつつ分類精度を向上させることができる。
【0047】
ここで、追加ニューラルネットワークが追加クラスのみを学習する場合、追加クラスのデータ数は少ないため、追加クラスの重心ベクトルは過剰適合になる可能性が高い。また、重心ベクトルの補正も同様に過剰に補正される可能性が高い。そのため、追加ニューラルネットワークの学習では追加クラスと共にデータ数の多い基本クラスを学習している基本ニューラルネットワークの出力する埋め込みベクトルを考慮することによって、追加クラスの重心ベクトルと重心ベクトルの補正が過剰適合により大きく変動するのを防ぎ、追加クラスの重心ベクトルと重心ベクトルの補正に対する過剰適合が大きく低減される。
【0048】
さらに、追加クラス選択部40における基本クラスと追加クラスのクラス数の合計を一定とすることで、基本ニューラルネットワークと追加ニューラルネットワークの埋め込み空間を同程度の密度に保持することができ、基本クラス選択部20と追加クラス選択部40における埋め込み空間の距離を同程度に扱うことができる。基本クラス選択部20と追加クラス選択部40の間でクラス選択の偏りが生じるのを防ぐことができる。
【0049】
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
【符号の説明】
【0050】
10 基本ニューラルネットワーク処理部、 20 基本クラス選択部、 30 追加ニューラルネットワーク処理部、 40 追加クラス選択部、 50 継続学習部、 60 重心導出部、 70 重心ベクトル補正部、 80 分類決定部、 100 画像処理装置。
図1
図2
図3
図4