(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-02-07
(45)【発行日】2023-02-15
(54)【発明の名称】分類モデル訓練方法及び装置並びに分類方法及び装置
(51)【国際特許分類】
G06N 20/00 20190101AFI20230208BHJP
【FI】
G06N20/00
(21)【出願番号】P 2019115484
(22)【出願日】2019-06-21
【審査請求日】2022-03-08
(31)【優先権主張番号】201810663447.5
(32)【優先日】2018-06-25
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】100107766
【氏名又は名称】伊東 忠重
(74)【代理人】
【識別番号】100070150
【氏名又は名称】伊東 忠彦
(72)【発明者】
【氏名】パン・ジャヌジョォン
(72)【発明者】
【氏名】ユィ・シアオイ
(72)【発明者】
【氏名】孫 俊
【審査官】武田 広太郎
(56)【参考文献】
【文献】俵 直弘 Naohiro TAWARA,敵対的学習に基づく話者特徴抽出 Speaker feature extraction using adversarial training.,日本音響学会 2018年 春季研究発表会講演論文集CD-ROM [CD-ROM],2018年
【文献】中川 大海 Hiromi Nakagawa,深層学習を用いた知識獲得予測を最適化する知識分類の抽出 Optimization of Deep Knowledge Tracing by Reconstructing Skill Tags,一般社団法人 人工知能学会 第31回全国大会論文集DVD [DVD-ROM],2017年
(58)【調査した分野】(Int.Cl.,DB名)
G06N 20/00
(57)【特許請求の範囲】
【請求項1】
分類モデルを訓練する方法であって、
サンプル処理ステップ、再構成損失計算ステップ、クラス間損失計算ステップ、及び分類モデル取得ステップを含み、
前記サンプル処理ステップでは、
訓練集合における各サンプルについて、
前記サンプルから特徴を抽出し;
抽出された特徴を、前記サンプルの低次元のヒドゥン(hidden)特徴を表し得るように圧縮し;
前記ヒドゥン特徴を解凍し、解凍後の特徴を取得し;及び
前記解凍後の特徴に基づいて前記サンプルを再構成し、再構成後のサンプルを取得し、
前記再構成損失計算ステップでは、前記ヒドゥン特徴に基づいて、前記訓練集合における全てのサンプルにいて再構成損失を計算し、
前記クラス間損失計算ステップでは、前記訓練集合における全てのサンプルについて、異なるクラスのサンプル間の分離度を示すクラス間損失を計算し、
前記分類モデル取得ステップでは、前記再構成損失及び前記クラス間損失を含む損失関数を最小化して、訓練後の分類モデルを取得する、方法。
【請求項2】
請求項1に記載の分類モデルを訓練する方法であって、
前記再構成損失は、各サンプルとその再構成後のサンプルとの間の差を示す生成損失、及び、前記ヒドゥン特徴の分布と特定分布との間のマッチ度を示すヒドゥン損失を含む、方法。
【請求項3】
請求項1に記載の分類モデルを訓練する方法であって、
前記クラス間損失計算ステップでは、各サンプルのヒドゥン特徴に基づいてsoftmax損失を前記クラス間損失として計算する、方法。
【請求項4】
請求項1に記載の分類モデルを訓練する方法であって、
各サンプルのヒドゥン特徴と該サンプルの属するクラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算する中心損失計算ステップをさらに含み、
前記損失関数は、前記中心損失をさらに含む、方法。
【請求項5】
分類方法であって、
訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出する抽出ステップ;
抽出された前記特徴を、前記テスト待ち情報の低次元のヒドゥン特徴を表し得るように圧縮する圧縮ステップ;
前記ヒドゥン特徴を解凍し、解凍後の特徴を得る解凍ステップ;
前記解凍後の特徴に基づいて前記テスト待ち情報を再構成し、再構成後のテスト待ち情報を得る再構成ステップ;
前記テスト待ち情報と前記再構成後のテスト待ち情報との間の再構成損失に基づいて、前記テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断する判断ステップ;及び
前記テスト待ち情報が既知のクラスに属すると判断された場合、前記訓練後の分類モデルにより、前記テスト待ち情報を分類する分類ステップを含む、方法。
【請求項6】
請求項5に記載の分類方法であって、
前記判断ステップでは、前記再構成損失が所定閾値以下の場合、前記テスト待ち情報が既知のクラスに属すると判断し、前記再構成損失が前記所定閾値よりも大きい場合、前記テスト待ち情報が未知のクラスに属すると判断する、方法。
【請求項7】
請求項5に記載の分類方法であって、
前記再構成損失は、前記テスト待ち情報と前記再構成後のテスト待ち情報との間の差を示す生成損失、及び、前記ヒドゥン特徴の分布と特定分布との間のマッチ度を示すヒドゥン損失を含む、方法。
【請求項8】
請求項5に記載の分類方法であって、
前記分類モデルにsoftmax損失を用いて異なる既知のクラス間の分離度を示し、
前記分類ステップでは、前記ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて、前記softmax損失を計算し、
前記テスト待ち情報の損失関数は、前記再構成損失及び前記softmax損失を含む、方法。
【請求項9】
請求項8に記載の分類方法であって、
前記分類ステップでは、前記ヒドゥン特徴と既知のクラスのうちの各クラスの中心ヒドゥン特徴との間の距離を示す中心損失をさらに計算し、
前記損失関数は、前記中心損失をさらに含む、方法。
【請求項10】
分類装置であって、
訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出する抽出ユニット;
抽出された前記特徴を、前記テスト待ち情報の低次元のヒドゥン特徴を表し得るように圧縮する圧縮ユニット;
前記ヒドゥン特徴を解凍し、解凍後の特徴を得る解凍ユニット;
前記解凍後の特徴に基づいて前記テスト待ち情報を再構成し、再構成後のテスト待ち情報を得る再構成ユニット;
前記テスト待ち情報と前記再構成後のテスト待ち情報との間の再構成損失に基づいて、前記テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断する判断ユニット;及び
前記テスト待ち情報が既知のクラスに属すると判断された場合、前記訓練後の分類モデルにより、前記テスト待ち情報を分類する分類ユニットを含む、装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、情報処理分野に関し、特に、テスト待ち情報に対して迅速且つ正確に分類を行う分類モデルを取得し得る分類モデル訓練方法及び装置、並びに、テスト待ち情報に対して迅速且つ正確に分類を行うことができる分類予測方法及び装置に関する。
【背景技術】
【0002】
今のところ、一般的には、1つの閉集合に基づいて分類タスク(task)が行われ、即ち、完備な訓練データを有することで、実際のテストに現れる各テスト待ちクラス(class)に対応するようにすると仮定する。しかし、通常の場合、十分な先験的な知識を有しないため、テスト過程で、訓練集合に含まれない未知のクラスが出現したら、それを検出することができないのみならず、誤って既知のクラスに分類することもある。例えば、古文書の識別に当たって、古文書の種類がたくさん存在し且つデータ量が膨大であり、しかも各種類にしばしば多くの変形があるので、全てのクラスの古文書データを集めることが困難である。よって、古文書を識別するときに、たびたび、未知のクラスが出てくる場合がある。このとき、分類タスクは、既知のクラスを正確に識別する必要があるだけでなく、現れた未知のクラスについて識別する必要もある。このような問題は、開集合の背景の下で解決すべき問題である。
【0003】
従来では、開集合の問題について、幾つかの解決方法、例えば、クラスタリングによる方法、半教師あり学習による分類、統計学の理論による方法などが既に提案されている。そのうち、再構成誤差(reconstruction error)に基づく識別は、最も流行しており、且つ正確率が高い技術の1つである。該アルゴリズムの主な思想は、再構成ネットワークを形成することにある。該ネットワークは、訓練を受けてから、入力が与えられるときに入力サンプルを圧縮及び再構成することができる。よって、再構成の効果が良いほど、再構成の誤差が小さい。未知のクラスからのデータが出現したときに、事前選択の誤差閾値より大きい誤差を生成すべきであり、また、既知のクラスからのデータについて、誤差が事前選択の誤差閾値よりかなり小さい。
【0004】
それでも、既知のクラス及び未知のクラスからの幾つかのデータが、しばしば、混交しており、且つ正確に識別されにくい。
【発明の概要】
【発明が解決しようとする課題】
【0005】
上記の問題に鑑み、本開示の目的は、従来技術における1つ又は複数の欠点を解決することができる分類モデル訓練方法及び装置並びに分類方法及び装置を提供することにある。
【課題を解決するための手段】
【0006】
本開示の一側面によれば、分類モデルを訓練する方法が提供され、それは、サンプル処理ステップ、再構成損失計算ステップ、クラス間損失計算ステップ、及び分類モデル取得ステップを含む。サンプル処理ステップでは、訓練集合中の各サンプルについて、それぞれ、次のような処理を行い、即ち、サンプルから特徴を抽出し;抽出された特徴を、サンプルの低次元のヒドゥン(hidden)特徴を表し得るように圧縮し;ヒドゥン特徴を解凍し、解凍後の特徴を取得し;及び、解凍後の特徴に基づいてサンプルを再構成し、再構成後のサンプルを得る処理である。再構成損失計算ステップでは、ヒドゥン特徴に基づいて、訓練集合中の全てのサンプルについて再構成損失を計算し、クラス間損失計算ステップでは、訓練集合中の全てのサンプルについて、異なるクラスのサンプル間の分離度を示すクラス間損失を計算し、分類モデル取得ステップでは、再構成損失及びクラス間損失を含む損失関数を最小化することで、訓練後の分類モデルを取得する。
【0007】
本開示の他の側面によれば、分類方法が提供され、それは、訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出する抽出ステップ;抽出された特徴を、テスト待ち情報の低次元のヒドゥン特徴を表し得るように圧縮する圧縮ステップ;ヒドゥン特徴を解凍し、解凍後の特徴を得る解凍ステップ;解凍後の特徴に基づいてテスト待ち情報を再構成し、再構成後のテスト待ち情報を得る再構成ステップ;テスト待ち情報と再構成後のテスト待ち情報との間の再構成損失に基づいて、テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断する判断ステップ;及び、テスト待ち情報が既知のクラスに属すると確定された場合、訓練後の分類モデルにより、テスト待ち情報を分類する分類ステップを含む。
【0008】
本開示の他の側面によれば、分類装置が提供され、それは、訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出する抽出ユニット;抽出された特徴を、テスト待ち情報の低次元のヒドゥン特徴を表し得るように圧縮する圧縮ユニット;ヒドゥン特徴を解凍し、解凍後の特徴を得る解凍ユニット;解凍後の特徴に基づいてテスト待ち情報を再構成し、再構成後のテスト待ち情報を得る再構成ユニット;テスト待ち情報と再構成後のテスト待ち情報との間の再構成損失に基づいて、テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断する判断ユニット;及び、テスト待ち情報が既知のクラスに属すると確定された場合、訓練後の分類モデルにより、テスト待ち情報を分類する分類ユニットを含む。
【0009】
本開示の他の側面によれば、上述の方法を実現するためのコンピュータプログラムコード及びコンピュータプログラムプロダクト、並びに、その中に上述の方法を実現するためのコンピュータプログラムコードが記録されているコンピュータ可読記憶媒体がさらに提供される。
【図面の簡単な説明】
【0010】
【
図1】本開示の実施例における分類モデル訓練方法のフローチャートである。
【
図2A】損失関数に中心損失及びクラス間損失が含まれる場合の異なるクラスに属するヒドゥン特徴の分布図である。
【
図2B】損失関数に中心損失及びクラス間損失が含まれない場合の異なるクラスに属するヒドゥン特徴の分布図である。
【
図3】本開示の実施例における分類モデル訓練装置の機能ブロック図である。
【
図4】本開示の実施例における分類方法のフローチャートである。
【
図5A】変分オートエンコーダを用いてヒドゥン特徴を再構成する例を示す図である。
【
図5B】変分オートエンコーダを用いてヒドゥン特徴を再構成する例を示す図である。
【
図6】本開示の実施例における分類装置の機能ブロック図である。
【
図7】本開示の実施例において採用され得る汎用コンピュータの構造図である。
【発明を実施するための形態】
【0011】
以下、添付した図面を参照しながら、本開示を実施するための好適な形態を詳細に説明する。なお、このような実施形態は、例示に過ぎず、本開示を限定するものでない。
【0012】
まず、
図1に基づいて本開示の実施例における分類モデル訓練方法100を説明する。
図1は、本開示の実施例における分類モデル訓練方法100のフローチャートである。
図1に示すように、本開示の実施例における分類モデル訓練方法100は、サンプル処理ステップS101、再構成損失計算ステップS102、クラス間損失計算ステップS103、及び分類モデル取得ステップS104を含む。
【0013】
本開示の実施例における分類モデル訓練方法100は、S100でスタートする。
【0014】
サンプル処理ステップS101では、訓練集合中の各サンプルについて、それぞれ、次のような処理を行っても良く、即ち、サンプルから特徴を抽出し;抽出された特徴を、サンプルの低次元のヒドゥン特徴を表し得るように圧縮し;ヒドゥン特徴を解凍し、解凍後の特徴を取得し;及び、解凍後の特徴に基づいてサンプルを再構成し、再構成後のサンプルを得る処理である。
【0015】
一例として、サンプルは、文字又はよく用いられる他の画像であっても良く、ここで、xでサンプルを表すとする。例えば、畳み込み層を用い、画素の空間相関性情報を考慮して、各サンプルxの特徴を抽出することができ、抽出された特徴は、通常、高次元の特徴である。よって、例えば、本開示の実施例における分類モデル訓練方法100では、画素間の空間相関性情報を考慮してサンプルの特徴を抽出することができる。
【0016】
各サンプルxから抽出された高次元の特徴は、サンプルxの低次元のヒドゥン特徴zを表し得るように圧縮することができる。低次元のヒドゥン特徴を用いてサンプルを表すことにより、分類モデルに対しての訓練を加速することができる。
【0017】
ヒドゥン特徴zを解凍し、解凍後の特徴を得ることができる。
【0018】
解凍後の特徴に基づいてサンプルxを再構成し、再構成後のサンプルx’を得ることができる。
【0019】
一例として、変分オートエンコーダ(VAE)に基づいて、サンプルが、ある事後分布(posterior distribution)を有するヒドゥン特徴の制御により生成されるものであると仮定し、また、上述の圧縮処理(エンコーダと称しても良い)を用いて、与えられた入力サンプルxの下でのヒドゥン特徴の事後分布p(z|x)の学習を試み、また、上述の解凍処理(デコーダと称しても良い)から学習により尤度分布(likelihood distribution)p(x|z)を得ることで、入力のサンプルxを再構成する。再構成過程がそのエンコーダ中の事後分布に従うので、より良い汎化性能を有し、且つ一般的なオートエンコーダに比べ、より正確にサンプルを再構成することができ、特に、ヒドゥン特徴の次元が非常に低いときに、一般的なエンコーダに比べ、サンプルをより正確に再構成することができる。
【0020】
再構成損失計算ステップS102では、ヒドゥン特徴に基づいて、訓練集合中の全てのサンプルについて再構成損失を計算することができる。
【0021】
好ましくは、再構成損失は、各サンプルxと、その再構成後のサンプルx’との間の差を示す生成損失、及び、ヒドゥン特徴zの分布と、特定分布との間のマッチ度を示すヒドゥン損失を含む。
【0022】
一例として、生成損失は、再構成過程の正確度を評価することができ、ヒドゥン損失は、ヒドゥン特徴の分布と、特定分布との間のマッチ度を評価することができる。
【0023】
訓練集合にトータルでN個のサンプルがあるとすれば、生成損失Lgは、以下のように表すことができる。
【数1】
【0024】
式(1)では、xi及びxi’は、それぞれ、第i個目のサンプル及びその再構成後のサンプルを表し、そのうち、i=1,2,…,Nである。
【0025】
上記の前記特定分布が単位ガウス分布N(0,1)であるとし、即ち、ヒドゥン特徴zが大抵、単位ガウス分布に従うとすると、ヒドゥン損失は、以下のように表すことができる。
【数2】
【0026】
式(2)では、N(0,1)は、単位ガウス分布の確率密度関数であり、KL()は、KL距離を表す。
【0027】
再構成損失Lvaeは、以下の式(3)のように示すことができる。
【数3】
【0028】
クラス間損失計算ステップS103では、訓練集合中の全てのサンプルについて、異なるクラスのサンプル間の分離度を示すクラス間損失を計算することができる。
【0029】
好ましくは、クラス間損失計算ステップS103では、各サンプルのヒドゥン特徴に基づいてsoftmax損失をクラス間損失として計算することができる。
【0030】
異なるクラス間の差をできるだけ大きくするために、即ち、異なるクラスの特徴をできるだけ分けるために、各サンプルのヒドゥン特徴に基づいてsoftmax損失Lsを以下のように計算することができる。
【数4】
【0031】
式(4)では、ziは、第i(i=1,2,…,N)個目のサンプルのヒドゥン特徴であり、mは、既知のクラスの数であり、Wyi及びbyiは、それぞれ、ヒドゥン特徴zの属するクラスyiに対応する分類モデルのパラメータを表し、Wj及びbj(j=1,2, … ,m)は、それぞれ、m個の既知のクラス中の第j個目のクラスに対応する分類モデルのパラメータを表す。
【0032】
なお、softmax損失の他に、当業者は、クラス間損失の他の計算方式も容易に想到し得るが、ここでは、その詳しい説明を省略する。
【0033】
分類モデル取得ステップS104では、再構成損失及びクラス間損失を含む損失関数を最小化することで、訓練後の分類モデルを取得することができる。
【0034】
一例として、分類モデル取得ステップS104では、損失関数Lが再構成損失Lvae及びクラス間損失Lsを含むとすれば、損失関数Lは、以下のように表すことができる。
【数5】
【0035】
式(5)では、λは、パラメータ(係数)であり、当業者は、経験に基づいて予めλを確定することができる。
【0036】
訓練集合中の全てのサンプルについて、損失関数Lを最小化することで、分類モデル中のパラメータを確定することができ、即ち、訓練後の分類モデルを取得することができる。
【0037】
本開示の実施例における分類モデル訓練方法100は、S105でエンドする。
【0038】
上述から分かるように、本開示の実施例における分類モデル訓練方法100では、低次元のヒドゥン特徴を用いてサンプルを表すことで分類モデルに対しての訓練を加速することができ、また、損失関数が異なるクラス間の差の増大を助けるクラス間損失を含むので、訓練後の分類モデルは、より正確にテスト待ち情報を分類することができる。
【0039】
好ましくは、本開示の実施例における分類モデル訓練方法100は、さらに、中心損失計算ステップを含んでも良く、それは、各サンプルのヒドゥン特徴と、該サンプルの属するクラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算するために用いられ、そのうち、損失関数は、さらに、中心損失を含む。
【0040】
一例として、同一クラスに属するヒドゥン特徴の差を小さくするために、即ち、同一クラスからの特徴をさらに集めるために、中心損失計算ステップで中心損失Lcを以下のように計算する。
【数6】
【0041】
式(6)では、ziは、第i個目のサンプルのヒドゥン特徴であり、cyiは、ziの属する第yi個目のクラスのヒドゥン特徴中心ベクトルであり、そのうち、i=1,2,…,Nである。
【0042】
中心損失を計算した後に、中心損失Lcを含む損失関数Lは、以下のように表すことができる。
【数7】
【0043】
式(7)では、λ1及びλ2は、パラメータ(係数)であり、当業者は、経験に基づいて予めλ1及びλ2を確定することができる。
【0044】
訓練集合中の全てのサンプルについて、式(7)中の損失関数Lを最小化することで、分類モデル中のパラメータを確定し、訓練後の分類モデルを取得することができる。
【0045】
図2A及び
図2Bは、それぞれ、損失関数に中心損失及びクラス間損失が含まれる場合、及び、損失関数に中心損失及びクラス間損失が含まれない場合における、異なるクラスに属するヒドゥン特徴の分布図を示す。
図2A及び
図2Bでは、ヒドゥン特徴の分布図を簡単且つ明確に示すために、ヒドゥン特徴が次元1及び次元2を有する2次元ベクトルであると仮定する。
【0046】
図2Aは、損失関数Lに中心損失Lc及びクラス間損失Lsが含まれない場合のヒドゥン特徴の分布図であり、
図2Bは、損失関数Lに中心損失Lc及びクラス間損失Lsが含まれる場合のヒドゥン特徴の分布図である。
図2A及び
図2Bから分かるように、損失関数Lに中心損失Lc及びクラス間損失Lsが含まれない場合のヒドゥン特徴の分布に比べ、損失関数Lに中心損失Lc及びクラス間損失Lsが含まれる場合に、同一クラスに属するヒドゥン特徴はより集まっており、且つ異なるクラスに属するヒドゥン特徴はより離れている(分離している)。
【0047】
上述から分かるように、本開示の実施例における分類モデル訓練方法100では、損失関数がクラス間損失の他に中心損失をさらに含むので、異なるクラス間の差を増大すると同時に、クラス内の差を減少させることができる。よって、訓練後の分類モデルは、より正確にテスト待ち情報を分類することができる。
【0048】
また、本開示は、さらに、上述の分類モデルを訓練する方法の実施例に対応して、以下の訓練分類モデルの装置の実施例を提供する。
【0049】
図3は、本開示の実施例における分類モデル訓練装置300の機能ブロック図である。
【0050】
図3に示すように、本開示の実施例における分類モデル訓練装置300は、サンプル処理ユニット301、再構成損失計算ユニット302、クラス間損失計算ユニット303、及び分類モデル取得ユニット304を含んでも良い。続いて、サンプル処理ユニット301、再構成損失計算ユニット302、クラス間損失計算ユニット303、及び分類モデル取得ユニット304の機能構成例について説明する。
【0051】
サンプル処理ユニット301では、訓練集合中の各サンプルについて、それぞれ、次のような処理を行っても良く、即ち、サンプルから特徴を抽出し;抽出された特徴を、サンプルの低次元のヒドゥン特徴を表し得るように圧縮し;ヒドゥン特徴を解凍し、解凍後の特徴を取得し;及び、解凍後の特徴に基づいてサンプルを再構成し、再構成後のサンプルを得る処理である。
【0052】
訓練集合中の各サンプルに対して行われる処理の具体例について、上述の方法の実施例における対応する部分、例えば、
図1のサンプル処理ステップS101についての説明を参照することができるため、ここでは、重複記載が省略される。
【0053】
再構成損失計算ユニット302では、ヒドゥン特徴に基づいて、訓練集合中の全てのサンプルについて再構成損失を計算することができる。
【0054】
好ましくは、再構成損失は、各サンプルと、その再構成後のサンプルとの間の差を示す生成損失、及び、ヒドゥン特徴の分布と、特定分布との間のマッチ度を示すヒドゥン損失を含んでも良い。
【0055】
一例として、生成損失は、再構成過程の正確度を評価することができ、ヒドゥン損失は、ヒドゥン特徴の分布と、特定分布との間のマッチ度を評価することができる。
【0056】
再構成損失の具体例について、上述の方法の実施例における対応する部分、例えば、
図1の再構成損失計算ステップS102についての記載を参照することができるため、ここでは、重複説明を省略する。
【0057】
クラス間損失計算ユニット303では、訓練集合中の全てのサンプルについて、異なるクラスのサンプル間の分離度を示すクラス間損失を計算する。
【0058】
好ましくは、クラス間損失計算ユニット303では、各サンプルのヒドゥン特徴に基づいてsoftmax損失をクラス間損失として計算することができる。
【0059】
クラス間損失の具体例について、上述の方法の実施例における対応する部分、例えば、
図1のクラス間損失計算ステップS103についての説明を参照することができるので、ここでは、重複記載が省略される。
【0060】
分類モデル取得ユニット304では、再構成損失及びクラス間損失を含む損失関数を最小化することで、訓練後の分類モデルを取得する。
【0061】
訓練集合中の全てのサンプルについて、再構成損失及びクラス間損失を含む損失関数を最小化することで、分類モデル中のパラメータを確定することができ、即ち、訓練後の分類モデルを取得することができる。
【0062】
上述から分かるように、本開示の実施例における分類モデル訓練装置300では、低次元のヒドゥン特徴を用いてサンプルを表すことで分類モデルに対しての訓練を加速することができ、また、損失関数が異なるクラス間の差の増大を助けるクラス間損失を含むので、訓練後の分類モデルは、より正確にテスト待ち情報を分類することができる。
【0063】
好ましくは、本開示の実施例における分類モデル訓練装置300は、さらに、中心損失計算ユニットを含んでも良く、それは、各サンプルのヒドゥン特徴と、該サンプルの属する類の中心ヒドゥン特徴との間の距離を示す中心損失を計算するために用いられ、そのうち、損失関数は、中心損失をさらに含む。
【0064】
中心損失の具体例については、上述の方法の実施例における対応する部分、例えば、中心損失計算ステップについての記載を参照することができるため、ここでは、重複説明を省略する。
【0065】
上述から分かるように、本開示の実施例における分類モデル訓練装置300では、損失関数がクラス間損失以外に中心損失をさらに含むため、異なるクラス間の差を増大すると同時に、クラス内の差を減少させることもできる。よって、訓練後の分類モデルは、より正確にテスト待ち情報を分類することができる。
【0066】
なお、ここでの装置の実施例は、上述の方法の実施例に対応するので、装置の実施例に詳しく記載されていない内容は、方法の実施例中の対応する部分の記載を参照することができ、ここでは、その説明を省略する。
【0067】
また、本開示は、さらに、記憶媒体及びプログラムプロダクトを提供する。本開示の実施例における記憶媒体及びプログラムプロダクト中のマシン実行可能な指令は、上述の分類モデル訓練方法を実行するように構成されても良い。よって、ここで詳しく説明されていない内容は、前述の対応する記載を参照することができるため、ここでは、重複説明を省略する。
【0068】
それ相応に、上述のマシン実行可能な指令を含むプログラムプロダクトの記憶媒体も、本発明の開示に含まれる。該記憶媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体記憶器などを含むが、これらに限定されない。
【0069】
本開示の他の側面によれば、分類方法400が提供される。本開示の実施例における分類方法400は、開集合に基づく識別方法であり、該方法は、既知のクラスの分類及び未知のクラスの検出に適用し、既知のクラスに対して正確な分類を保証することができると同時に、未知のクラスを正確に識別することもできる。
【0070】
以下、
図4をもとに本開示の実施例における分類方法400を説明する。
図4は、本開示の実施例における分類方法400のフローチャートである。
図4に示すように、本開示の実施例における分類方法400は、抽出ステップS401、圧縮ステップS402、解凍ステップS403、再構成ステップS404、判断ステップS405、及び分類ステップS406を含む。
【0071】
本開示の実施例における分類方法400は、S400でスタートする。
【0072】
抽出ステップS401では、訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出することができる。
【0073】
一例として、テスト待ち情報は、文字又はよく用いられる他の画像であっても良い。xでテスト待ち情報を表すとする。畳み込み層を用い、画素の空間相関性情報を考慮して、テスト待ち情報xの特徴を抽出することができ、抽出された特徴は、通常、高次元の特徴である。よって、例えば、本開示の実施例における分類方法400では、画素間の空間相関性情報を考慮してテスト待ち情報の特徴を抽出することができる。
【0074】
圧縮ステップS402では、抽出された特徴を、テスト待ち情報の低次元のヒドゥン特徴zを表し得るように圧縮することができる。低次元のヒドゥン特徴を用いてテスト待ち情報を表すことで、分類速度を加速することができる。
【0075】
解凍ステップS403では、ヒドゥン特徴zを解凍し、解凍後の特徴を得ることができる。
【0076】
再構成ステップS404では、解凍後の特徴に基づいてテスト待ち情報xを再構成し、再構成後のテスト待ち情報x’を取得することができる。
【0077】
なお、説明の便宜のため、本開示の実施例における分類モデル訓練方法100及び本開示の実施例における分類方法400では、ともに、x、x’及びzを使用しているが、x、x’及びzが示す対象は、分類モデル訓練方法100及び分類方法400において異なる。xを例とすると、分類モデル訓練方法100では、xは、サンプルを表すが、分類方法400では、xは、テスト待ち情報を示す。
【0078】
判断ステップS405では、テスト待ち情報xと、再構成後のテスト待ち情報x’との間の再構成損失に基づいて、テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断することができる。
【0079】
一例では、変分オートエンコーダ(VAE)を用いて、ヒドゥン特徴に基づいて再構成を行うことができる。
図5A及び
図5Bは、変分オートエンコーダを用い、ヒドゥン特徴に基づいて、再構成を行う例を示す図である。
図5A及び
図5Bでは、サイズが5であるヒドゥン特徴を有する再構成例を示している。そのうち、数字0-4は、既知のクラスであり、数字5-9は、未知のクラスである。
図5Aは、入力であり、
図5Bは、再構成後の出力である。
図5A及び
図5Bから分かるように、既知のクラス(数字0-4)について、その再構成損失が比較的小さいので、VAEモデルは、既知のクラスを良く再構成することができ、一方、未知のクラス(数字5-9)について、その再構成損失が比較的大きいので、再構成の効果があまり良くない。
【0080】
即ち、本開示の実施例における分類方法400では、再構成損失に基づいて、テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断することができる。
【0081】
本開示の実施例により、既知のクラスのデータと未知のクラスのデータを分離するので、既知のクラスに対しての正確な分類を保証することができると同時に、未知のクラスをより正確に認識することもできる。
【0082】
好ましくは、再構成損失は、テスト待ち情報と、再構成後のテスト待ち情報との間の差を示す生成損失、及び、ヒドゥン特徴の分布と特定分布との間のマッチ度を示すヒドゥン損失を含む。
【0083】
一例として、生成損失は、再構成過程の正確度を評価することができ、ヒドゥン損失は、ヒドゥン特徴の分布と特定分布との間のマッチ度を評価することができる。
【0084】
そのうち、生成損失Lg_1は、以下のように表すことができる。
【数8】
【0085】
前述の特定分布が単位ガウス分布N(0,1)であるとし、即ち、ヒドゥン特徴zが大抵、単位ガウス分布に従うとすれば、ヒドゥン損失は、以下のように表すことができる。
【数9】
【0086】
式(9)では、p(z|x)は、与えられたテスト待ち情報xの下でのヒドゥン特徴zの事後分布であり、N(0,1)は、単位ガウス分布の確率密度関数であり、KL()は、KL距離を示す。
【0087】
再構成損失Lvae_1は、以下の式(10)で示すことができる。
【数10】
【0088】
好ましくは、判断ステップS405では、再構成損失が所定閾値以下の場合、テスト待ち情報が既知のクラスに属すると判定し、再構成損失が所定閾値よりも大きい場合、テスト待ち情報が未知のクラスに属すると判定する。なお、上述のヒドゥン損失は、未知のクラスに対しての検出を助けることができる。
【0089】
一例では、経験に基づいて所定閾値を確定することができる。
【0090】
分類ステップS406では、テスト待ち情報が既知のクラスに属すると確定された場合、訓練後の分類モデルにより、テスト待ち情報を分類することができる。
【0091】
一例として、分類ステップS406では、テスト待ち情報が既知のクラスに属すると確定された場合のみ、テスト待ち情報を分類する。
【0092】
好ましくは、分類モデルにsoftmax損失を用いて、異なる既知のクラス間の分離度を示し、分類ステップS406では、ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて、softmax損失を計算し、テスト待ち情報の損失関数は、再構成損失及びsoftmax損失を含む。
【0093】
一例として、異なるクラス間の差をできるだけ大きくするために、即ち、異なるクラスの特徴をできるだけ分けるために、分類モデルにsoftmax損失を用いて、異なる既知のクラス間の分離度を示す。
【0094】
分類ステップS406では、ヒドゥン特徴を用いて、既知のクラスのうちの各クラスに基づいて計算されるsoftmax損失は、
【数11】
である。
【0095】
式(11)では、mは、既知のクラスの数であり、Wy及びbyは、それぞれ、ヒドゥン特徴zの属するクラスyに対応する分類モデルのパラメータを示し、Wj及びbj(j=1,2,…,m)は、それぞれ、m個の既知のクラスのうちの第j個目のクラスに対応する分類モデルのパラメータを示す。
【0096】
softmax損失の他に、当業者は、クラス間損失の他の計算方式も容易に想到し得るが、ここでは、その詳しい説明を省略する。
【0097】
訓練後の分類モデルにより取得されたテスト待ち情報の損失関数は、以下のように表すことができる。
【数12】
【0098】
式(12)では、λは、訓練後の分類モデルのパラメータであり、当業者は、経験に基づいてそれを事前に確定することができる。
【0099】
分類ステップS406では、再構成損失及びsoftmax損失を含むテスト待ち情報の損失関数に基づいて、テスト待ち情報を分類することができる。
【0100】
本開示の実施例における分類方法400は、S407でエンドする。
【0101】
上述から分かるように、本開示の実施例における分類方法400では、低次元のヒドゥン特徴を用いてテスト待ち情報を表すことで分類速度を加速することができ、既知のクラスに属するテスト待ち情報のみを分類し、且つ分類モデルの損失関数が異なるクラス間の差の増大を助けるクラス間損失を含むので、より正確にテスト待ち情報を分類することができる。本方法は、開集合に基づく識別方法であり、該方法は、既知のクラスの分類及び未知のクラスの検出に適用し、既知のクラスのデータと未知のクラスのデータを分離することで、既知のクラスに対しての正確な分類を保証することができるだけでなく、未知のクラスを正確に認識することもできる。
【0102】
好ましくは、分類ステップS406では、さらに、ヒドゥン特徴と既知のクラスのうちの各クラスの中心ヒドゥン特徴との間の距離を表す中心損失を計算しても良く、損失関数は、さらに、中心損失をあ含んでも良い。
【0103】
一例として、同一クラスに属するヒドゥン特徴の差を小さくするために、即ち、同一クラスからの特徴をさらに集めるために、分類モデルでは、さらに中心損失を計算することができる。
【0104】
分類ステップS406では、ヒドゥン特徴と既知のクラスのうちの各クラスの中心ヒドゥン特徴との間の距離を表す中心損失は、次のように表すことができる。
【数13】
【0105】
式(13)では、cjは、第j(j=1,2,…,m)個目の既知のクラスのヒドゥン特徴中心ベクトルである。
【0106】
これにより、上述の損失関数は、さらに中心損失を含んでも良く、中心損失Lc_1をも含む損失関数は、以下のように示すことができる。
【数14】
【0107】
式(14)では、λ1及びλ2は、訓練後の分類モデルのパラメータ(係数)であり、当業者は、予め、経験に基づいてそれらを確定することができる。
【0108】
分類ステップS406では、再構成損失及びsoftmax損失の他に、中心損失をさらに含む損失関数に基づいて、テスト待ち情報を分類することができる。
【0109】
上述から分かるように、本開示の実施例における分類方法400では、損失関数がクラス間損失以外に中心損失をさらに含むので、より正確にテスト待ち情報を分類することができる。
【0110】
以下、本開示の実施例における分類モデル訓練方法100及び本開示の実施例における分類方法400の実験例を簡単に紹介する。
【0111】
代表的なMnistデータ集を実験データとし、その中には、ラベル0からラベル9までの10個のクラスを含む。ランダムに6個のクラスを選択し、各クラスは、4000個の実例を訓練集合として含み、200個の実例は、テスト集合とされる。異なる開放度の下でのパフォーマンスをテストするために、異なる数の未知のクラスを加入することでテストデータの開放度を変更し、各未知のクラスの数は、全て、200である。よって、総訓練集合は、24000個の実例を含み、テスト集の実例の数は、1200から2000まで異なる。
【0112】
開放度Openness、リコール率Recall、正確率Precision、F1得点(スコア)、正確率Accuracyを含む幾つかの評価基準は、以下のように定義される。
【数15】
【0113】
これらの式では、NTA、NTG、NTEは、それぞれ、訓練集合クラス、分類クラス、及びテスト集クラスの数を表し、TP、FN、FP、及びTNは、それぞれ、「true positive」、「false negative」、「false positive」、及び「true negative」を表す。
【0114】
本開示の実施例における分類方法400の効果を評価するために、異なる開放度の下でのF1得点及び正確率を計算し、そして、実験結果と、従来技術中の「Sparse Representation」に基づく開集合識別(SROSR)アルゴリズムによるものとを比較した。SROSRアルゴリズムでは、テスト期間において出現した全てのクラスが、訓練期間において既知のものでないため、SROSRアルゴリズムは、クラス再構成誤差を、分類のために用いる。訓練の過程では、λ
1=0.1及びλ
2=0.8であり、且つヒドゥン特徴の次元数が10であると設定している。テスト結果は、表1に示されている。
【表1】
【0115】
表1から分かるように、本開示の実施例における分類方法400は、より良いパフォーマンスを取得している。また、SROSRが一回で、ネットワークを一回訓練するため、訓練の過程は、時間がかなりかかり、例えば、上述の実験例について言えば、全てのモデルの訓練を完成するには、2日を要する。これに対して、本開示の実施例における分類モデル訓練方法100は、1時間弱で訓練を完成することができる。
【0116】
また、本開示は、さらに、上述の分類方法の実施例に対応して、以下の分類装置600の実施例を提供する。
【0117】
図6は、本開示の実施例における分類装置600の機能ブロック図である。
【0118】
図6に示すように、本開示の実施例における分類装置600は、抽出ユニット601、圧縮ユニット602、解凍ユニット603、再構成ユニット604、判断ユニット605、及び分類ユニット606を含む。続いて、抽出ユニット601、圧縮ユニット602、解凍ユニット603、再構成ユニット604、判断ユニット605、及び分類ユニット606の機能構成例について説明する。
【0119】
抽出ユニット601では、訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出することができる。
【0120】
一例として、テスト待ち情報は、文字又はよく用いられる他の画像であっても良い。xでテスト待ち情報を表すとする。例えば、畳み込み層を用い、画素の空間相関性情報を考慮してテスト待ち情報xの特徴を抽出することができ、抽出された特徴は、通常、高次元の特徴である。よって、例えば、本開示の実施例における分類装置600では、画素間の空間相関性情報を考慮してテスト待ち情報の特徴を抽出することができる。
【0121】
圧縮ユニット602では、抽出された特徴を、テスト待ち情報の低次元のヒドゥン特徴zを表し得るように圧縮することができる。低次元のヒドゥン特徴を用いてテスト待ち情報を表すことにより分類速度を加速することができる。
【0122】
解凍ユニット603では、ヒドゥン特徴zを解凍し、解凍後の特徴を得ることができる。
【0123】
再構成ユニット604では、解凍後の特徴に基づいてテスト待ち情報xを再構成し、再構成後のテスト待ち情報x’を取得することができる。
【0124】
判断ユニット605では、テスト待ち情報xと再構成後のテスト待ち情報x’との間の再構成損失に基づいて、テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断することができる。
【0125】
既知のクラスのデータと未知のクラスのデータを分離することで、既知のクラスに対しての正確な分類を保証することができると同時に、より正確に未知のクラスを識別することもできる。
【0126】
好ましくは、再構成損失は、テスト待ち情報と再構成後のテスト待ち情報との間の差を示す生成損失、及び、ヒドゥン特徴の分布と特定分布との間のマッチ度を示すヒドゥン損失を含む。
【0127】
一例として、生成損失は、再構成過程の正確度を評価することができ、ヒドゥン損失は、ヒドゥン特徴の分布と特定分布との間のマッチ度を評価することができる。
【0128】
なお、再構成損失の説明について、上述の分類方法400の実施例における対応する部分、例えば、
図4の判断ステップS405についての説明を参照することができるため、ここでは、重複記載を割愛する。
【0129】
好ましくは、判断ユニット605では、再構成損失が所定閾値以下の場合に、テスト待ち情報が既知のクラスに属すると判断し、再構成損失が所定閾値よりも大きい場合、テスト待ち情報が未知のクラスに属すると判断する。
【0130】
一例では、経験に基づいて所定閾値を確定することができる。
【0131】
分類ユニット606では、テスト待ち情報が既知のクラスに属すると確定された場合、訓練後の分類モデルにより、テスト待ち情報を分類することができる。
【0132】
一例として、分類ユニット606では、テスト待ち情報が既知のクラスに属すると確定された場合のみ、テスト待ち情報を分類する。
【0133】
好ましくは、分類モデルにsoftmax損失を用いて異なる既知のクラス間の分離度を示し、分類ユニット606では、ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて、softmax損失を計算し、テスト待ち情報の損失関数は、再構成損失及びsoftmax損失を含む。
【0134】
一例として、異なるクラ間の差をできるだけ大きくするために、即ち、異なるクラスの特徴をできるだけ分けるために、分類モデルにsoftmax損失を用いて、異なる既知のクラス之間の分離度を示すことができる。
【0135】
softmax損失の説明について、上述の分類方法400実施例における対応する部分、例えば、
図4の分類ステップS406についての説明を参照することができるので、ここでは、その詳しい説明を省略する。
【0136】
分類ユニット606では、再構成損失及びsoftmax損失を含むテスト待ち情報の損失関数に基づいて、テスト待ち情報を分類することができる。
【0137】
上述から分かるように、本開示の実施例における分類装置600では、低次元のヒドゥン特徴を用いてテスト待ち情報を表すことで分類速度を加速することができ、既知のクラスに属するテスト待ち情報のみを分類し、且つ分類モデルの損失関数が異なるクラス間の差の増大を助けるクラス間損失を含むので、より正確にテスト待ち情報を分類することができ、また、既知のクラスの分類及び未知のクラスの検出に適用し、既知のクラスのデータと未知のクラスのデータを分離することで、既知のクラスに対しての正確な分類を保証することができると同時に、より正確に未知のクラスを識別することもできる。
【0138】
好ましくは、分類ユニット606では、ヒドゥン特徴と既知のクラスのうちの各クラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算することができ、また、損失関数は、さらに中心損失を含んでも良い。
【0139】
一例として、同一クラスに属するヒドゥン特徴の差を小さくするために、即ち、同一クラスからの特徴をさらに集めるために、分類モデルにさらに中心損失を計算することができる。
【0140】
中心損失の説明について、上述の分類方法400の実施例における対応する部分、例えば、
図4の分類ステップS406についての説明を参照することができるため、ここでは、重複記載を省略する。
【0141】
分類ユニット606では、再構成損失及びsoftmax損失の他に、中心損失をさらに含む損失関数を用いて、テスト待ち情報を分類することができる。
【0142】
上述から分かるように、本開示の実施例における分類装置600では、損失関数がクラス間損失以外に中心損失をも含むので、より正確にテスト待ち情報を分類することができる。
【0143】
なお、以上、本開示の実施例における分類装置の機能構成を説明したが、これは、例示に過ぎず、当業者は、本開示の原理に基づいて上述の実施例を変更しても良く、例えば、各実施例における機能モジュールに対して増減又は組み合わせを行うことができ、これらの全ては、本開示の範囲に属する。
【0144】
また、ここでの装置の実施例は、上述の方法の実施例に対応するため、装置の実施例に詳しく説明していない内容は、方法の実施例における対応する部分の説明を参照することができるため、ここでは、その詳細な記載を割愛する。
【0145】
また、本開示は、さらに、記憶媒体及びプログラムプロダクトを提供する。本開示の実施例における記憶媒体及びプログラムプロダクト中のマシン実行可能な指令は、さらに、上述の分類方法を実行するように構成されて良いので、ここで詳細に説明されていない内容は、前述の対応する部分の説明を参照することができるため、ここでは、重複説明を省略する。
【0146】
それ相応に、上述のマシン実行可能な指令を含むプログラムプロダクトの記憶媒体も本発明の開示に含まれる。該記憶媒体は、磁気ディスク、光ディスク、光磁気ディスク、半導体記憶器などを含むが、これらに限定されない。
【0147】
なお、上述の一連の処理及び装置は、ソフトウェア及び/又はファームウェアにより実現されても良い。ソフトウェア及び/又はファームウェアにより実現される場合、記憶媒体又はネットワークから、専用ハードウェアを有するコンピュータ、例えば、
図7に示す汎用コンピュータ700に、該ソフトウェアを構成するプログラムをインストールし、該コンピュータは、各種のプログラムがインストールされているときに、各種の機能を実行することができる。
【0148】
図7では、中央処理装置(CPU)701は、ROM 702に記憶されているプログラム又は記憶部708からRAM 703にロードされているプログラムに基づいて各種の処理を行う。RAM 703では、さらに、CPU 701が各種の処理などを実行するときに必要なデータを記憶しても良い。CPU 701、ROM 702、及びRAM 703は、バス704により互いに接続される。入力/出力インターフェース705もバス704に接続される。
【0149】
また、次のような部品は、入力/出力インターフェース705に接続され、即ち、入力部606(キーボード、マウスなどを含む)、出力部707(表示器、例えば、CRT、LCDなど、及びスピーカーなどを含む)、記憶部708(ハードディスクなどを含む)、及び通信部709(ネットワーク・インターフェース・カード、例えば、LANカード、モデムなどを含む)というような部品である。通信部709は、ネットワーク、例えば、インターネットを経由して通信処理を行う。なお、必要に応じて、ドライブ710を入力/出力インターフェース705に接続させても良い。取り外し可能な媒体711、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体記憶器などは、必要に応じて、ドライブ710にセットされ、その中から読み出されたコンピュータプログラムが必要に応じて記憶部708にインスタールされるようにさせることができる。
【0150】
また、本開示は、さらに、マシン可読指令コードを含むプログラムプロダクトを提供する。このような指令コードは、マシンにより読み取られて実行されるときに、上述の本開示の実施形態における方法を実行することができる。それ相応に、このようなプログラムプロダクトをキャリー(carry)する、例えば、磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(CD-ROM及びDVDを含む)、光磁気ディスク(MD(登録商標)を含む)、及び半導体記憶器などの各種記憶媒体も、本開示に含まれる。
【0151】
上述の記憶媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体記憶器などを含んでも良いが、これらに限定されない。
【0152】
また、本開示の上述の方法の各操作(処理)は、各種のマシン可読記憶媒体に記憶されているコンピュータ実行可能なプログラムの方式で実現することもできる。
【0153】
また、以上の実施例などに関し、さらに以下のように付記を開示する。
【0154】
(付記1)
分類モデルを訓練する方法であって、
サンプル処理ステップであって、
訓練集合中の各サンプルについて、それぞれ、
前記サンプルから特徴を抽出し;
抽出された特徴を、前記サンプルの低次元のヒドゥン特徴を表し得るように圧縮し;
前記ヒドゥン特徴を解凍し、解凍後の特徴を取得し;及び
前記解凍後の特徴に基づいて前記サンプルを再構成し、再構成後のサンプルを得る、ステップ;
前記ヒドゥン特徴に基づいて、前記訓練集合中の全てのサンプルについて再構成損失を計算する再構成損失計算ステップ;
前記訓練集合中の全てのサンプルについて、異なるクラスのサンプル間の分離度を示すクラス間損失を計算するクラス間損失計算ステップ;及び
前記再構成損失及び前記クラス間損失を含む損失関数を最小化し、訓練後の分類モデルを取得する分類モデル取得ステップを含む、方法。
【0155】
(付記2)
付記1に記載の分類モデルを訓練する方法であって、
前記再構成損失は、各サンプルとその再構成後のサンプルとの間の差を示す生成損失、及び、前記ヒドゥン特徴の分布と特定分布との間のマッチ度を示すヒドゥン損失を含む、方法。
【0156】
(付記3)
付記1に記載の分類モデルを訓練する方法であって、
前記クラス間損失計算ステップでは、各サンプルのヒドゥン特徴に基づいてsoftmax損失を前記クラス間損失として計算する、方法。
【0157】
(付記4)
付記2に記載の分類モデルを訓練する方法であって、
前記クラス間損失計算ステップでは、各サンプルのヒドゥン特徴に基づいてsoftmax損失を前記クラス間損失として計算する、方法。
【0158】
(付記5)
付記1に記載の分類モデルを訓練する方法であって、
各サンプルのヒドゥン特徴と該サンプルの属するクラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算する中心損失計算ステップをさらに含み、
前記損失関数は、前記中心損失をさらに含む、方法。
【0159】
(付記6)
付記2に記載の分類モデルを訓練する方法であって、
各サンプルのヒドゥン特徴と該サンプルの属するクラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算する中心損失計算ステップをさらに含み、
前記損失関数は、前記中心損失をさらに含む、方法。
【0160】
(付記7)
付記3に記載の分類モデルを訓練する方法であって、
各サンプルのヒドゥン特徴と該サンプルの属するクラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算する中心損失計算ステップをさらに含み、
前記損失関数は、前記中心損失をさらに含む、方法。
【0161】
(付記8)
分類方法であって、
訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出する抽出ステップ;
抽出された特徴を、前記テスト待ち情報の低次元のヒドゥン特徴を表し得るように圧縮する圧縮ステップ;
前記ヒドゥン特徴を解凍し、解凍後の特徴を得る解凍ステップ;
前記解凍後の特徴に基づいて前記テスト待ち情報を再構成し、再構成後のテスト待ち情報を得る再構成ステップ;
前記テスト待ち情報と前記再構成後のテスト待ち情報との間の再構成損失に基づいて、前記テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断する判断ステップ;及び
前記テスト待ち情報が既知のクラスに属すると判断された場合、前記訓練後の分類モデルにより、前記テスト待ち情報を分類する分類ステップを含む、方法。
【0162】
(付記9)
付記8に記載の分類方法であって、
前記判断ステップでは、前記再構成損失が所定閾値以下の場合、前記テスト待ち情報が既知のクラスに属すると判断し、前記再構成損失が前記所定閾値よりも大きい場合、前記テスト待ち情報が未知のクラスに属すると判断する、方法。
【0163】
(付記10)
付記8に記載の分類方法であって、
前記再構成損失は、前記テスト待ち情報と前記再構成後のテスト待ち情報との間の差を示す生成損失、及び、前記ヒドゥン特徴の分布と特定分布との間のマッチ度を示すヒドゥン損失を含む、方法。
【0164】
(付記11)
付記8に記載の分類方法であって、
前記分類モデルにsoftmax損失を用いて、異なる既知のクラス間の分離度を示し、
前記分類ステップでは、前記ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて前記softmax損失を計算し、
前記テスト待ち情報の損失関数は、前記再構成損失及び前記softmax損失を含む、方法。
【0165】
(付記12)
付記10に記載の分類方法であって、
前記分類モデルにsoftmax損失を用いて、異なる既知のクラス間の分離度を示し、
前記分類ステップでは、前記ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて前記softmax損失を計算し、
前記テスト待ち情報の損失関数は、前記再構成損失及び前記softmax損失を含む、方法。
【0166】
(付記13)
付記11に記載の分類方法であって、
前記分類ステップでは、さらに、前記ヒドゥン特徴と既知のクラスのうちの各クラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算し、
前記損失関数は、前記中心損失をさらに含む、方法。
【0167】
(付記14)
付記12に記載の分類方法であって、
前記分類ステップでは、さらに、前記ヒドゥン特徴と既知のクラスのうちの各クラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算し、
前記損失関数は、前記中心損失をさらに含む、方法。
【0168】
(付記15)
分類装置であって、
訓練後の分類モデルに入力されたテスト待ち情報から特徴を抽出する抽出ユニット;
抽出された特徴を、前記テスト待ち情報の低次元のヒドゥン特徴を表し得るように圧縮する圧縮ユニット;
前記ヒドゥン特徴を解凍し、解凍後の特徴を得る解凍ユニット;
前記解凍後の特徴に基づいて前記テスト待ち情報を再構成し、再構成後のテスト待ち情報を得る再構成ユニット;
前記テスト待ち情報と前記再構成後のテスト待ち情報との間の再構成損失に基づいて、前記テスト待ち情報が既知のクラスか、それとも、未知のクラスに属するかを判断し;及び
前記テスト待ち情報が既知のクラスに属すると確定された場合、前記訓練後の分類モデルにより、前記テスト待ち情報を分類する分類ユニットを含む、装置。
【0169】
(付記16)
付記15に記載の分類装置であって、
前記判断ユニットは、前記再構成損失が所定閾値以下の場合、前記テスト待ち情報が既知のクラスに属すると判断し、前記再構成損失が前記所定閾値よりも大きい場合、前記テスト待ち情報が未知のクラスに属すると判断する、装置。
【0170】
(付記17)
付記15に記載の分類装置であって、
前記再構成損失は、前記テスト待ち情報と前記再構成後のテスト待ち情報との間の差を示す生成損失、及び、前記ヒドゥン特徴の分布と特定分布との間のマッチ程度を示すヒドゥン損失を含む、装置。
【0171】
(付記18)
付記15に記載の分類装置であって、
前記分類モデルにsoftmax損失を用いて、異なる既知のクラス間の分離度を示し、
前記分類ユニットは、前記ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて前記softmax損失を計算し、
前記テスト待ち情報の損失関数は、前記再構成損失及び前記softmax損失を含む、装置。
【0172】
(付記19)
付記17に記載の分類装置であって、
前記分類モデルにsoftmax損失を用いて、異なる既知のクラス間の分離度を示し、
前記分類ユニットでは、前記ヒドゥン特徴を用い、既知のクラスのうちの各クラスに基づいて前記softmax損失を計算し、
前記テスト待ち情報の損失関数は、前記再構成損失及び前記softmax損失を含む、装置。
【0173】
(付記20)
付記18に記載の分類装置であって、
前記分類ユニットは、さらに、前記ヒドゥン特徴と既知のクラスのいちの各クラスの中心ヒドゥン特徴との間の距離を示す中心損失を計算し、
前記損失関数は、前記中心損失をさらに含む、装置。
【0174】
以上、本開示の好ましい実施形態を説明したが、本開示はこの実施形態に限定されず、本開示の趣旨を離脱しない限り、本開示に対するあらゆる変更は、本開示の技術的範囲に属する。