【文献】
久保 純貴 外3名,「野球映像における投手のコンディション推定の高精度化に関する検討」,映像情報メディア学会技術報告,(一社)映像情報メディア学会,2013年 2月11日,第37巻,第8号,pp.141−146
(58)【調査した分野】(Int.Cl.,DB名)
【発明を実施するための形態】
【0009】
以下、本発明の実施形態に係る情報分類装置、情報分類装置の設定方法及びプログラムについて、図面を参照しながら説明する。本実施形態では、情報分類装置を画像情報の分類に適用した場合について説明する。
【0010】
(実施形態1)
本発明の実施形態1に係る情報分類装置のハードウエア構成について、
図1を参照しながら説明する。本実施形態1に係る情報分類装置11は、入力部12、表示部13、入出力インタフェース(入出力I/F)部14、記憶部15、ROM(Read Only Memory)16、RAM(Random Access Memory)17、制御部18とを備える。
入力部12は、ユーザによる学習用画像や試験用画像や分類対象画像を特定する指示や情報分類処理に必要なパラメータ等の情報を入力し、キーボード等から構成される。
表示部13は、入力したパラメータ値や後述する識別率、分類された画像等の各種情報を表示し、液晶ディスプレイ等で構成される。
入出力I/F部14は、外部メモリやパーソナルコンピュータ等とのインタフェース機能を有し、USB(Universal Serial Bus)インタフェース、コンパクトディスクドライブ等から構成される。
記憶部15は、学習用画像、試験用画像、分類対象画像、過去に解析した画像と後述する画像の特徴ベクトル及び特徴ベクトルの分類に使用した分類面の情報等を記憶し、ハードディスク等で構成される。
ROM16は、画像から特徴ベクトルを抽出するBof(Bag-of-Features)プログラムを含む制御部18が実行する非線形SVM処理プログラムを記憶する。
RAM17は、制御部18のワークエリアとして使用される。
【0011】
制御部18は、プロセッサ等から構成され、ROM16に記憶された非線形SVM処理プログラムをRAM17に読み出し、そのプログラムを実行することにより、情報分類装置として機能する。制御部18は、
図2に示すように、機能的には、取得部21、正規化部22、学習部23、試験部24、選択部25、設定部26、分類部27を備える。
【0012】
取得部21は、画像の特徴ベクトルを抽出するBofプログラムをROM16から読み出し、解析対象となる学習用画像群・試験用画像群・分類対象画像群から特徴ベクトルを抽出する。取得部21は、抽出した特徴ベクトルをRAM17に格納する。情報量が多い場合は、記憶部15に記憶してもよい。
【0013】
特徴ベクトルとは、画像から抽出された特徴を定量化したものである。本実施形態では、画像をブロックに分割して、ブロック内の画素を判定してブロックを構成する色の頻度を特徴ベクトルとして抽出する場合について説明する。すなわち、どの色が何ブロックあるかをカウントして、そのカウント値を特徴ベクトルの要素としている。
理解を容易にするために、(桃色、赤、青、白、黒)の5色にについて、
図3(a)に示す縦5マス、横5マスのブロックに分割し、どの色が何ブロックに存在するかという頻度を特徴ベクトルの要素として抽出する。
図3(a)で例示する顔の画像では、(桃色)が25個のブロック中の10個のブロックに存在し、(赤)が2個のブロックに存在し、(青)は1個のブロックに、(白)は7個のブロックに、(黒)は5個のブロックに存在しているとする。この色の頻度を特徴ベクトルの要素として抽出したものを
図3(b)の2行目に示す。
【0014】
図2に戻って、正規化部22は、取得部21で取得した特徴ベクトルをL2ノルムで正規化する。L2ノルムは、特徴ベクトルの各要素の2乗和の平方根である。この正規化は、例えば、画像を分類する際に、対比する画像同士の大きさは異なるが相似形である場合、画像としては類似として分類すべきであるが、比較対象画像の大きさが異なることにより非類似として分類されることを防止する機能を有している。
図3(b)の2行目に記載されている特徴ベクトルの各要素の2乗和は(179)であり、その平方根は(13.38)である。そして、
図3(b)の3行目に、2行目に記載されている特徴ベクトルの各要素を特徴ベクトルの各要素の2乗和の平方根で正規化した特徴ベクトルの各要素を記載している。
【0015】
図2に戻って、学習部23は、登載されている非線形SVMを使用して、学習用画像の正規化された特徴ベクトルを分類するための分類面を構築する。学習部23は、この分類面を、後述する分類誤りの許容度を示す正則化パラメータCとカーネルのべき乗パラメータαとの組み合わせごとに構築する。正則化パラメータCとべき乗パラメータαとの組み合わせが、例えば、100通りある場合には、100個の分類面を構築する。
【0016】
試験部24は、学習部23で構築した分類面を用いて、既知である試験用画像に対応する特徴ベクトルを分類する。そして、試験部24は、特徴ベクトルが既知のグループ(クラス)に分類された割合を示す識別率を求める。試験部24は、学習部23で構築した複数の分類面の各々に対して識別率を求める。
例えば、A氏の試験用画像が100枚ある場合、100枚の試験用画像中の何枚がA氏として正しく分類されたかを調べて識別率を求める。100枚中99枚をA氏として分類していれば、識別率は99%であり、95枚をA氏として分類していれば、識別率は95%である。試験部24は、学習部23で構築した分類面が100個であれば、100個の分類面の各々に対して、識別率を求める。
【0017】
選択部25は、試験部24で分類面ごとに求めた識別率の中で、最も識別率が高かった分類面を選択する。
設定部26は、選択部25で選択した識別率が最も高い分類面を非線形SVMに設定する。
【0018】
分類部27は、設定部26により分類面を設定された非線形SVMを用いて、どのように分類すべきかが未知である分類対象の画像に対応する特徴ベクトルを分類する。具体的には、ユーザが、分類対象画像群を取得部21に供給する指示を行い、取得部21は各分類対象画像の特徴ベクトルを抽出する。正規化部22は抽出した特徴ベクトルを正規化し、特徴ベクトルを分類部27に供給する。分類部27は、非線形SVMに設定されている分類面を用いて、入力された分類対象画像に対応する特徴ベクトルを分類することにより分類対象画像を分類する。
【0019】
以上で、情報分類装置11の構成について説明した。次に学習部23の詳細機能について説明する。本実施形態では、A氏の画像の特徴ベクトルを白丸で表してグループAに分類し、その他の画像の特徴ベクトルを黒丸で表してグループBに分類する例について説明する。
図4(a)に示す例では、白丸で表示された特徴ベクトルが固まって分布し、黒丸で表示された特徴ベクトルも固まって分布しているので、グループAとグループBとの間に分類面を容易に構築できる。ところが、
図4(b)に示す例では、白丸で表示された特徴ベクトルと黒丸で表示された特徴ベクトルとが入り組んで分布しているので、容易には分類面を構築することはできない。
【0020】
このように分類面を容易に構築できない場合に、学習部23は、ある程度までは分類誤りを許容して分類面を構築する機能を有している。本実施形態では、この分類誤りを許容する程度を正則化パラメータCで表している。正則化パラメータCを大きくすると分類誤りを許容しない分類面を構築し、正則化パラメータCを小さくすると分類誤りをある程度許容して分類面を構築する。
【0021】
図4(b)に実線で示す分類面は、正則化パラメータCが大きく、分類誤りを許容しない場合であり、分類面は複雑な形状となっている。分類面が複雑に入り組んでいるため、特徴ベクトルと分類面との距離(分類マージン)は小さくなる傾向にある。これに対して、点線で示す分類面は、正則化パラメータCが小さく、分類誤りをかなり許容する場合である。分類面は単純な曲線で構築することができ、誤分類になっていない特徴ベクトルと分類面との分類マージンは大きくなる傾向にある。
【0022】
学習部23は、非線形SVMの学習機能を用いて分類面を構築する。非線形SVMでは、
図6(a)に示すような線形分離不可能な分布である学習用特徴ベクトルx
iを非線形空間変換を用いて
図6(b)に示す線形分離可能なφ(x
i)の特徴空間に変換して分類面を構築する。
【数1】
この分類面を表す識別関数を式(2)で表す。
【数2】
【0023】
学習用画像に対応する特徴ベクトルx
iは、i=1〜nとする。この特徴ベクトルx
iをグループ(クラス)Aとグループ(クラス)Bとに分類する。この特徴ベクトルに対して、g(x)が次の条件を満たすように重みベクトルmとバイアス項bを求めれば、分類面を表す識別関数を構築できる。この特徴ベクトルに対して、g(x)が次の条件を満たすように重みベクトルmとバイアス項bを調整する。
【数3】
ここで、学習用画像の特徴ベクトルx
iに関する教師信号y
iを次のように定義する。
【数4】
A氏の画像を分類する場合では、x
iがA氏の画像である場合はy
i=1であり、x
iがA氏の画像ではない場合はy
i=−1である。
【0024】
この式(4)を使用して式(3)を書き換えると式(5)となる。
【数5】
学習部23は、
図6(b)に実線で示す分類面(識別関数)から最寄りの点(φ(x
A1),φ(x
B1))までの距離(分類マージンL)を最大化するように重みベクトルmとバイアス項bを求めて分類面を構築する。
図6(b)に示す分類マージンLは、この最寄りの点φ(x
A1)を含み分類面と平行する関数H1と、点φ(x
B2)を含み分類面と平行する関数H2とから求めることができる。
【数6】
【0025】
分類マージンLは、H1とH2との距離の半分であるので、マージンLを求めるために両者を引くと、y
im(φ(x
A1)−φ(x
B1))=2となる。 両辺を重みベクトルの大きさ||m||で割ると、y
i(φ(x
A1)−φ(x
B1))=2/||m||となり、分類マージンLはこの1/2であるので式(7)となる。
【数7】
この分類マージンLが最大化するために、||m||を最小化すれば良い。この式(7)を等価である式(8)に置き換える。
【数8】
【0026】
式(8)を最大化する問題をラグランジュの未定乗数法で書き換えると式(9)となる。
【数9】
λは、ラグランジュの未定乗数である。これをm及びbで偏微分して0とおくと、
【数10】
【数11】
式(10)より、
【数12】
ラグランジュ関数LpをF(λ)と書き換えて、式(11)及び式(12)を代入すると、式(13)となる。
【数13】
【0027】
式(13)に式(12)を代入すると式(14)となる。
【数14】
ここで、内積部分φ(x
i)φ(x
j)をカーネルk(x
i,x
j)で置き換えると、式(15)となる。
【数15】
【0028】
正則化パラメータC≧λ
i≧0の制約条件の下で、このF(λ)が最大となる重みベクトルλが求められ、それにより式(12)の m が決まる。
【0029】
式(12)を式(2)式に代入し、内積部分φ(x
i)φ(x
j)をカーネルk(x
i,x
j)で置き換えると式(16)となる。
【数16】
式(16)に、
図6(b)に示す分類マージンを決める特徴ベクトルx
A1,x
B1を代入することにより、バイアス項bが決まる。
【0030】
以上に説明したようにして、学習部23は、F(λ)が最大となる重みベクトルmとバイアス項bを求めて、分類面を表す式(2)を構築する。
学習部23では、式(15)(16)の中のカーネルk(x
i,x
j)は関数式(17)で表されている。
【数17】
式(17)は、i番目の画像の特徴ベクトルをx
i,j番目の画像の特徴ベクトルをx
jとし、x
iとx
jの対応するk番目の要素を比較して、小さい方の要素を選択して累算し、そして、累算結果をα乗することを示している。
【0031】
学習部23が、カーネルに式(17)を用いて、5次元の特徴ベクトルから類似度を求める計算例を
図5を用いて具体的に説明する。
図5の(a)は、
図3(b)を用いて説明した正規化された5次元の特徴ベクトルx
iである。類似度を求める他の画像の正規化された特徴ベクトルx
jは、
図5(b)であるとする。
図5(c)では、
図5(a)のベクトル要素と、
図5(b)のベクトル要素とを比較して、小さい方のベクトル要素を選択している。まず、特徴ベクトルx
iとx
jの最初のベクトル要素x
i1とx
j1を比較して、小さい方のx
j1(0.00)を選択している。次のベクトル要素x
i2とx
j2を比較して、小さい方のx
i2(0.15)を選択している。次のベクトル要素x
i3とx
j3を比較して小さい方のx
i3(0.07)を選択し、x
i4とx
j4を比較して小さい方のx
j4(0.28)を選択し、x
i5とx
j5を比較して小さい方のx
i5(0.37)を選択している。そして、
図5(c)の右端は、これらを累算した計算値(0.87)をα乗した値を表している。
図5(c)では、α=1の場合を例示しているので、(0.87)がα=1の場合の式(17)で求めた値となる。
このように、学習部23は、カーネルに式(17)を用いて、5次元の特徴ベクトルx
iと5次元の特徴ベクトルx
jとから、k(x
i、x
j)という2つの特徴ベクトル間の類似度を求めている。
【0032】
ところで、
図5(d)は、
図5(a)の特徴ベクトルの正規化された各要素の値を棒グラフで表したものである。
図5(e)は、
図5(b)の特徴ベクトルの正規化された各要素の値を棒グラフで表したものである。
図5(f)は、
図5(d)と
図5(e)とを重ね合わせて、両者の小さい方を黒くしてある。すなわち、黒い部分が、{Σmin(x
ik,x
jk)}に該当する。この図からわかるように、{Σmin(x
ik,x
jk)}は、特徴ベクトルx
iと特徴ベクトルx
jとの共通部分であるので、特徴ベクトル間の類似度(共通度)を表している。特徴ベクトルx
iと特徴ベクトルx
jとが近似しているほど重なり部分は増える。
【0033】
学習部23が処理する式(17)のべき乗パラメータαは、アルファの値を大きくすると、些細な情報を評価せず、αの値を小さくすると、些細な情報を強調して評価するという機能を有している。
ホクロがある顔について類似分類をする場合で説明すると、べき乗パラメータαを小さくすると、顔全体としては些細な要素であるホクロの存在が強調されて評価することになる。このため、ホクロの有無に関しては正確な分類ができていても、顔全体としてはそっくりな画像でありながらホクロが無い画像は非類似として分類される恐れもある。
学習部23は、5次元の特徴ベクトルからカーネルに式(17)を用いて2つの特徴ベクトルx
iとx
jとの類似度を求めている。そして、この各特徴ベクトル間の類似度を用いて次元拡張することすることによって特徴ベクトルを容易に分類できるようにしている。
以上で、学習部23の機能説明を終了する。
【0034】
次に、上記構成を有する情報分類装置11の動作について説明する。情報分類装置11が、未知の画像を分類するためには、未知の画像を分類するための分類面をあらかじめ情報分類装置11に設定しておく必要がある。情報分類装置11に分類面を設定するためには、分類が既知の学習用画像と分類が既知の試験用画像とを用いて分類面を構築する必要がある。
以下に、情報分類装置11に分類面を設定するまでの処理の詳細について、
図2に示す機能構成図と
図7に示すフローチャート図を用いて説明する。
図7に示す分類面の設定処理は、ROM16から非線形SVM処理プログラムを読み出して、該プログラムの学習用機能をスタートすることにより開始する。
【0035】
まず、ユーザは、入力部12のキーボードを操作して、記憶部15に格納されている学習用画像群と試験用画像群を取得部21に供給する(ステップS1)。例えば、不特定多数の画像からA氏の画像とその他の画像とを分類する場合では、A氏の画像群と不特定の人の多数の画像群とを学習用画像として、さらに、学習用画像とは異なる画像群を試験用画像として、記憶部15から取得部21に供給する。
【0036】
次に、ユーザは、分類誤りの許容度を示す正則化パラメータCとカーネルのべき乗パラメータαの範囲を設定する(ステップS2)。以下の説明では、理解を容易にするために、正則化パラメータCは、初期値をC1、最大値をCm、変更倍率をCtとし、C1=0.001、Cm=10、Ct=10とする。また、べき乗パラメータαは、初期値をα1、最大値をαn、変更幅をαstepとし、α1=0.1、αn=20、αstep=0.2とする。
学習部23は、入力部12から入力された各パラメータ値をRAM17に格納する。あるいは、情報分類装置11が保有する初期値として、ROM16もしくは記憶部15に格納しておいてもよい。
【0037】
取得部21として機能する制御部18は、ROM16に格納されているBofプログラムを用いて、供給した学習用画像と試験用画像の各々を5×5のブロックに分割して各ブロックの色を判別し、色の頻度をベクトル要素として画像から特徴ベクトルを抽出し、RAM17に格納する(ステップS3)。取得した特徴ベクトルの一例は、
図3(b)の2行目に該当する。
【0038】
正規化部22は、抽出した各特徴ベクトルをそれ自身のL2ノルムで正規化する(ステップS4)。
【0039】
次に、学習部23は、ステップS2で設定された正則化パラメータCとべき乗パラメータαとの組み合わせを順次変えながら、学習用画像を分類するための分類面を構築していく。
【0040】
まず、学習部23は、最初の正則化パラメータCとべき乗パラメータαとの組み合わせとして、(C、α)=(C1、α1)=(0.001、0.1)を設定する(ステップS5、ステップS6)。
学習部23は、学習用画像に対応する正規化された特徴ベクトルを、正則化パラメータCで指定される分類誤りの許容範囲内で分類する分類面を構築する(ステップS7)。具体的には、学習部23は、この分類面を構築する非線形SVM処理プログラムの中でカーネルとして式(17)を使用し、2つの学習用画像の正規化された5次元の特徴ベクトルから類似度を求めて式(15)に代入する。学習用画像100枚の中からA氏を分類するための分類面を構築する場合には、
100C
2=4950回この処理をおこなって、制約条件を満たしながら分類マージンを最大化する重みベクトルmとバイアス項bを求め、A氏を分類する分類面を表す式(2)を構築する。
【0041】
次に、試験部24は、構築された分類面を用いて、どのように分類すべきかが既知である試験用画像に対応する特徴ベクトルを分類する。ここでは、(C、α)=(0.001、0.1)に対応するステップS7で構築した分類面を用いて分類する。具体的には、試験部24は、学習部23が構築した重みベクトルmとバイアス項bが確定している分類面を表す式(2)のxに、試験用画像の正規化された特徴ベクトルを代入する。そして、y=1であれば、特徴ベクトルをグループA(A氏の画像)に分類し、y=−1であれば特徴ベクトルをグループB(A氏の画像ではない)に分類する。この分類を試験用画像が100枚あれば100回行う。そして、試験用画像はどのように分類すべきかが既知の画像であるので、試験部24は、分類された試験用画像に対応する特徴ベクトルが分類されるべきグループに分類された割合を示す識別率(正しく分類された確率)を求め、分類面と対応づけてRAM17に格納する(ステップS8)。
【0042】
次に、学習部23は、べき乗パラメータαの次の値について分類面を構築するために、αにαstep(=0.2)を加算して、α=0.3とする(ステップS9)。
次に、学習部23は、べき乗パラメータαが最大値αn以下であるかを判別する(ステップS10)。ここでは、まだα=0.3(<20)であるので(ステップS10:Yes)、ステップS7の処理およびステップS8の処理を行い、2つ目の分類面と識別率とをRAM17に格納する。
【0043】
この処理を繰り返し、α>αn(α>20)になると(ステップS10:No)、処理はステップS11に移行し、正則化パラメータCの値を変えるために、C=0.001にCt(=10)を掛け、C=0.01とする(ステップS11)。
そして、正則化パラメータCが最大値Cm以下(C≦10)であるかを判別する(ステップS12)。ここでは、まだ、C=0.01であるので、ステップS6に戻る(ステップS12:Yes)。ステップS6で、α=α1に再設定されるので、(C、α)=(0.01、0.1)として、ステップS7及びステップS8の処理を行い、構築した分類面と対応づけて識別率をRAM17に格納する。
【0044】
C=0.01に対して、α=0.1〜20までの処理が終了すると(ステップS10:No)、CにCtを掛け(ステップS11)、正則化パラメータCが最大値Cm以下かを判別する(ステップS12)。この処理をC>Cmが成立するまで繰りし、C>Cm(C>10)が成立すると(ステップS12:No)、ステップS13に移行する。
【0045】
選択部25は、試験部24で分類面に対応して求めた識別率を降順にソートし、最も高い識別率に対応づけられている分類面を選択する。設定部26は、情報分類装置11の分類部27に実装されている非線形SVMに選択された分類面を設定し(ステップS13)、情報分類装置11に対する分類面の設定処理を終了する。以上で情報分類装置11に分類面を設定する処理は終了した。
【0046】
情報分類装置11に分類面を設定する処理が終了したので、ユーザは、以上の設定処理が終了した情報分類装置11を用いて、どのように分類すべきかが未知の画像を分類する。ユーザは、非線形SVM処理プログラムの情報分類機能をスタートさせ、入力部12から分類が未知の分類対象画像を指定し、取得部21に供給する。取得部21は未知の分類対象画像に対応する特徴ベクトルを抽出し、正規化部22は特徴ベクトルを正規化し、分類部27に供給する。分類部27は、ステップ13で分類面を設定された非線形SVMを用いて、この正規化された未知の分類対象画像に対応する特徴ベクトルを分類する。
具体的には、選択された分類面を表す関数式(2)に、分類対象画像に対応する正規化された特徴ベクトルを代入して、分類対象画像をグループAかグループBかに分類する。この例では、A氏を分類するための分類面を設定しているので、A氏の画像群とその他の人の画像群とを分類対象画像群として入力し、その分類対象画像群からA氏の画像をグループAとして分類する。以上で、情報分類装置11が分類対象画像を分類する説明を終了する。
【0047】
以上説明したように、本実施形態で説明したカーネルに使用する式(17)のべき乗計算の処理回数は、特徴ベクトルの要素の数が増えても1回のみである。これに対して、非特許文献1が開示する式(18)のカーネルでは、特徴ベクトルの要素の数Kが増えると、べき乗計算の処理回数も増加する。
【数18】
本実施形態に用いるカーネルを用いた場合のべき乗計算の処理回数と、非特許文献1が開示するカーネルを用いた場合のべき乗計算の処理回数とを
図8で比較する。本実施形態では、特徴ベクトルの要素数が5の場合で説明したが、人の画像を分類する場合には、目・鼻・口・耳などの色や形状や角度などの様々な情報をベクトル要素としている。分類精度を上げるためには、特徴ベクトルの要素の数を増やす必要がある。このように、特徴ベクトルの要素数が大きくなるほど、式(17)をカーネルに使用する本実施形態に係る情報分類装置11のべき乗計算処理の負荷は、従来技術に比べると相対的に著しく軽くなる。
【0048】
また、本実施形態で説明したカーネルに使用する式(17)はべき乗項を有しているので、式(17)を用いた分類装置は、従来技術が開示する式(18)と同じようにべき乗パラメータαを調整することにより分類面を構築する選択肢を増やすことができる。式(17)を用いた情報分類装置は、このべき乗パラメータによる効果を有しながら、べき乗計算の処理負荷を軽くすることができる。したがって、本実施形態を用いることによって、分類精度が高く、特徴ベクトルの要素の数が増加してもカーネルのべき乗計算の処理負荷が小さい情報分類装置、情報分類装置の設定方法およびプログラムを提供することができる。
【0049】
(実施形態2)
実施形態1では、非線形SVMの分類面を設定する設定機能と未知の画像を分類する機能とが一体の装置に実装されている場合について説明したが、本発明はこれには限定されない。特徴ベクトル間の類似度のべき乗値をカーネルに用いて分類面を構築する設定装置、および、該設定装置により構築された分類面を用いて情報を分類する情報分類装置であれば、本発明を適用することができる。他の実施形態として、実施形態2では、非線形SVMの分類面を設定する機能と未知の画像を分類する機能とが別装置に実装されている場合について説明する。
なお、図中同一又は相当する部分には同じ符号を付す。
【0050】
本発明の実施形態に係る非線形SVMの分類面を設定する設定装置11Aの機能構成図を
図9に示す。設定装置11Aによって分類面を設定された本発明の実施形態に係る情報分類装置11Bの機能構成図を
図10に示す。
設定装置11Aと情報識別装置11Bのハード構成については、実施形態1で
図1を用いて説明した構成と同じでよい。
【0051】
本実施形態に係る設定装置11Aの機能構成について、実施形態1との差を中心に、
図9を用いて説明する。
実施形態1に係る情報分類装置11と実施形態2に係る設定装置11Aとの差は、設定装置11Aが分類部27を有しない点である。すなわち、本実施形態2に係る設定装置11Aは、識別率が最も高い分類面の選択までを行い、選択した分類面を
図10に示す情報分類装置11Bに設定する。これに伴って、設定装置11Aの入力部12では、どのように分類すべきかが未知である分類対象画像の入力指示は行わない。
【0052】
まず、設定装置11Aにおいて分類面を構築する処理を行うために、既知の学習用画像と既知の試験用画像とを取得部21に供給する。取得部21は、Bofプログラムを用いて学習用画像群と試験用画像群とから特徴ベクトルを抽出して、正規化部22に供給する。正規化部22は、特徴ベクトルをL2ノルムで正規化する。
学習部23は、登載されている非線形SVMのカーネルに式(17)を用いて、学習用画像の正規化された特徴ベクトルを分類するための分類面を分類マージンが最大になるように構築する。学習部23は、この分類面を正則化パラメータCとべき乗パラメータαとの組み合わせごとに構築する。試験部24は、学習部23で構築した分類面を用いて、既知である試験用画像に対応する特徴ベクトルを分類する。そして、試験部24は、学習部23で構築した複数の分類面の各々に対して識別率を求める。
選択部25は、試験部24で分類面ごとに求めた識別率の中で、最も識別率が高かった分類面を選択する。設定部26は、選択部25で選択した識別率が最も高い分類面を記憶部15に格納する。もしくは、入出力I/F部14からUSBメモリ等の記録媒体に選択された分類面に関する情報を出力する。もしくは、設定装置11Aの入出力I/F部14と
図10に示す情報分類装置11Bの入出力I/F部14とを接続して、設定装置11Aから選択された分類面を情報分類装置11Bに実装されている非線形SVMに設定してもよい。
【0053】
次に、本実施形態に係る情報分類装置11Bの機能構成について、実施形態1との差を中心に、
図10を用いて説明する。
実施形態1に係る情報分類装置11と実施形態2に係る情報分類装置11Bとの差は、情報分類装置11Bが、学習部23、試験部24、選択部25、設定部26を有しない点である。すなわち、本実施形態2に係る情報分類装置11Bは、設定装置11Aで選択した分類面を設定された未知の画像を分類する情報分類装置である。
【0054】
まず、ユーザは、入力部12のキーボードを操作して、記憶部15に格納されている分類が未知の分類対象画像を取得部21に供給する。取得部21は、Bofプログラムを用いて分類対象画像から特徴ベクトルを抽出して、正規化部22に供給する。正規化部22は、特徴ベクトルをL2ノルムで正規化し、分類部27に供給する。分類部27は、分類面を設定された非線形SVMを用いて、分類対象画像に対応する特徴ベクトルを分類する。
具体的には、分類部27は、設定された分類面を表す関数式(2)に、分類対象画像に対応する正規化された特徴ベクトルを代入して、分類対象画像をグループAかグループBかに分類する。この例では、A氏を分類するための分類面を設定しているので、A氏の画像群とその他の人の画像群とを分類対象画像群として入力し、その分類対象画像群からA氏の画像をグループAとして分類する。
【0055】
設定装置11Aにおいて、情報分類装置11Bの分類部27に設定する分類面を選択するまでの処理については、
図7に示すフローチャート図と同じである。
【0056】
以上に説明したように、実施形態2では、分類面を設定する機能と未知の情報を分類する機能とを別装置に実装している。したがって、分類面の構築処理を必要としない情報分類装置11Bの処理負荷を軽くできる。また、情報分類装置11Bの記憶部15やRAM17に学習用画像と試験用画像の情報を記憶する必要がないので、メモリ量を削減することができる。このように、情報分類装置11Bの処理負荷を軽くすることにより、情報分類装置11Bを安価に製造することができる。
【0057】
また、実施形態2では、設定装置11Aで選択した分類面を記憶媒体等を介して情報分類装置11Bに設定する場合について説明したが、設定装置11Aで選択した分類面をインターネット等の通信ネットワーク上のサーバ装置内の記憶部に格納しておき、情報分類装置11Bにダウンロードできるようにしてもよい。
また、実施形態2では、未知の分類対象画像が記憶部15に格納されているとして説明したが、未知の分類対象画像は、インターネット等の通信ネットワークを介して供給するようにしてもよい。
【0058】
(変形例)
以上の実施形態では、特徴ベクトル間の関係を求めるカーネルとして、特徴ベクトル間の類似度を求める式(17)を用いる場合について説明した。しかし、類似度を求める式はこれに限定されることはない。例えば、特徴ベクトル間の差分を求める式(19)を使用することもできる。
【数19】
【0059】
また、類似度を求める式として、特徴ベクトルの比率を求める式、例えば、式(20)を使用することもできる。
【数20】
式(20)で求めた計算値は、特徴ベクトルxiと特徴ベクトルx
jとの類似度が高くなるほど1に近づく。
【0060】
このように、特徴ベクトル間の類似度を求める計算式であれば、他の計算式をカーネルとして使用してもよい。
【0061】
なお、実施形態の説明では、本発明に係る情報分類装置を画像の分類装置として使用した場合について説明したが、本発明の用途は画像の分類の他にも様々な情報の分類にも使用できる。例えば、音楽をワルツか否かで分類するとか、長調と短調で分類することもできる。その他の応用でも、情報から特徴ベクトルを抽出して情報分類装置を用いて分類する場合には、本発明を適用できる。
【0062】
また、本実施形態において
図7を用いて、正則化パラメータCとべき乗パラメータαとの1つの組み合わせを設定するごとに、学習工程と試験工程とを行うフローチャートについて説明した。しかし、正則化パラメータCとべき乗パラメータαとの全ての組み合わせについて学習工程を終了した後に、構築した分類面の全てについて試験工程を行うフローチャートとしてもよい。
【0063】
また、本実施形態で用いたパラメータの値は、発明を説明するための例示であり、実施形態で用いたパラメータ値は発明の権利範囲には影響しない。
また、上述の実施形態では、正則化パラメータCとべき乗パラメータαとを一定のルールで変化させた場合について説明したが、変更ルールが一定ではない複数のパラメータ値を記憶部15に格納しておき、それを順次読み出して使用しても良い。例えば、正則化パラメータCとべき乗パラメータαとをランダムに生成してもよい。また、正則化パラメータCとべき乗パラメータαとの何れか一方を固定して使用することもできる。
【0064】
また、本発明に係る制御部18が実現する各種機能は、専用システムによらず、通常のコンピュータシステムを用いても実現可能である。例えば、プログラムをフレキシブルディスクやCD−ROM(Compact Disc Read Only Memory)やUSBメモリ等のコンピュータ読み取り可能な記録媒体に格納し、そのプログラムをコンピュータに格納することにより、上記の各部の機能を実現できるコンピュータを構成してもよい。
また、インターネット等の通信ネットワークに接続されたサーバ装置にプログラムを格納しておき、例えば、コンピュータがプログラムをダウンロードをすることができるようにしてもよい。
【0065】
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願当初の特許請求の範囲に記載された発明を付記する。
【0066】
(付記1)
分類が既知の複数の学習用情報を入力する入力手段と、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得手段と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習手段と、
前記学習手段で構築した分類面を情報分類装置に設定する設定手段と、
を備える設定装置。
【0067】
(付記2)
前記入力手段は、さらに、分類が既知の複数の試験用情報と、前記学習用情報の誤分類の許容度を示す複数の正則化パラメータと、特徴ベクトル間の類似度をべき乗する複数のべき乗パラメータと、を入力し、
前記取得手段は、前記試験用情報から各々に対応する特徴ベクトルを取得し、
前記学習手段は、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、複数の分類面を構築し、
さらに、前記学習手段で構築した複数の分類面のうちの1つを選定して取得手段で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験手段と、
前記試験手段で求めた識別率が最も高い分類面を選択する選択手段と、
を備えることを特徴とする付記1に記載の設定装置。
【0068】
(付記3)
前記取得手段は、前記学習用情報と前記試験用情報とから、Bof(Bag of Features)により情報の特徴を定量化した特徴ベクトルを取得し、
さらに、取得した特徴ベクトルをL2ノルムで正規化を行なう正規化手段を備え、
前記学習手段は、前記正規化手段により正規化された特徴ベクトルを分類するための複数の分類面を構築する、
ことを特徴とする付記2に記載の設定装置。
【0069】
(付記4)
付記1乃至3の何れかに記載の設定装置が構築した分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
を備える情報分類装置。
【0070】
(付記5)
分類が既知の複数の学習用情報を入力する入力工程と、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得工程と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習工程と、
前記学習工程で構築した分類面を情報分類装置に設定する設定工程と、
を含む設定装置の分類面設定方法。
【0071】
(付記6)
付記5に記載の設定装置の分類面設定方法によって設定された分類面に従って、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類工程、
を含む情報分類装置の情報分類方法。
【0072】
(付記7)
コンピュータを、
分類が既知の複数の学習用情報を入力する入力手段、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得手段、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習手段、
前記学習手段で構築した分類面を情報分類装置に設定する設定手段、
として機能させるためのプログラム。
【0073】
(付記8)
コンピュータを、
付記7に記載のプログラムの実行により設定された分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
として機能させるためのプログラム。