【文献】
Dino Ienco 外3名,Clustering Based Active Learning for Evolving Data Streams,[online],2013年,[平成30年6月7日検索],URL,https://waikato.researchgateway.ac.nz/handle/10289/8516
(58)【調査した分野】(Int.Cl.,DB名)
前記選択手段は、前記ラベル無しクラスタの数及び前記低信頼度クラスタの数を、それらの差が前記能動学習を繰り返すに従って大きくなるように設定すること、を特徴とする請求項1又は請求項2に記載の学習データ選択装置。
前記選択手段は、前記各低信頼度クラスタを所定数のサブクラスタにクラスタリングし、当該サブクラスタのそれぞれから所定の均等な個数の前記ラベル無し学習データを選択すること、を特徴とする請求項1から請求項3のいずれか1つに記載の学習データ選択装置。
前記選択手段は、前記各低信頼度クラスタにて、前記特徴空間における前記ラベル有り学習データまでの距離が大きいものから順に前記ラベル無し学習データを選択すること、を特徴とする請求項1から請求項3のいずれか1つに記載の学習データ選択装置。
前記選択手段は、前記各低信頼度クラスタにて、前記ラベル無し学習データの前記識別スコアの範囲を前記割当個数の区間に等分し、当該各区間から前記識別スコアの絶対値が最小である前記ラベル無し学習データを1つずつ選択すること、を特徴とする請求項1から請求項3のいずれか1つに記載の学習データ選択装置。
【発明を実施するための形態】
【0017】
以下、本発明の実施の形態(以下実施形態という)である能動学習装置1について、図面に基づいて説明する。本実施形態では能動学習装置1を、人物の顔画像から性別を推定する識別器の学習に用いる場合を例に説明する。
【0018】
[能動学習装置1の構成]
能動学習装置1は本発明に係る学習データ選択装置、及びオラクルとのインターフェース手段を有する。
図1は能動学習装置1の概略の構成を示すブロック図である。能動学習装置1は記憶部2、表示部3、入力部4及び制御部5から構成される。このうち、専ら、記憶部2及び制御部5の解析手段52と選択手段53が学習データ選択装置として機能し、一方、表示部3及び入力部4が制御部5の制御の下、インターフェース手段として機能する。具体的には、制御部5は、記憶部2に記憶されたラベル無し学習データの中からオラクルに提示するデータを自動選択して表示部3に出力する。そして、制御部5は、提示したデータに対してオラクルが判別した正解ラベルを入力部4を介して取得し、ラベルを付与したデータをラベル有り学習データに移動させる。さらに制御部5はラベル有り学習データを用いて識別器を学習する機能を有する。能動学習装置1はこれらを繰り返し行う。以下、能動学習装置1の各部について詳細に説明する。
【0019】
記憶部2は例えば、ハードディスクドライブ(Hard disk drive:HDD)、RAM(Random Access Memory)等の記憶装置からなり、制御部5と接続される。記憶部2は識別器情報21、学習データ(ラベル有り学習データ22及びラベル無し学習データ23)、その他、制御部5で用いられる各種プログラムや各種パラメータなどを記憶し、制御部5との間でこれらのプログラムやデータなどを入出力する。
【0020】
識別器情報21は、正解クラスと不正解クラスとの2クラスを推定する識別器(識別関数)を表すパラメータである。本実施形態で用いる識別器(識別関数)は、画像から得た特徴量(特徴ベクトル)を入力され、特徴量が正解クラスの特徴に類似している程度を示す評価値であるスコア(識別スコア)を出力する。
【0021】
特徴量はベクトル形式で表現される特徴ベクトルであり、例えば、ハールライク(Haar-Like)特徴量や、HOG(Histogram of Oriented Gradients)特徴量、LBP(Local Binary Pattern)特徴量などの画像特徴量、あるいはそれら画像特徴量の組み合わせなど、推定対象とする属性に応じて適切に選択される。
【0022】
識別器として用いる識別関数のパラメータは、例えば、一般的に利用される機械学習法の1つであるサポートベクターマシン(Support Vector Machine:SVM)法を用いて属性を認識する場合、識別境界の法線ベクトルwとバイアス項bとの組であり、評価値は尤度となる。
【0023】
スコアは特徴量が正解クラスの特徴に類似しているほど高く、類似していないほど低い。また、スコアが正値の場合は推定結果のクラス(推定クラス)は正解クラスであるとされ、負値の場合は推定クラスは不正解クラスであるとされる。ここで、識別境界は特徴ベクトルが定義される特徴空間においてクラスを分ける超平面であり、スコアの絶対値が0に近いほど特徴量は識別境界に近くなり、クラス推定の確からしさ(推定信頼度)が低いことを意味する。
【0024】
ラベル有り学習データ22は、画像と、画像から得た特徴量と、属性クラスとが対応付けて記憶されたデータ群で構成される。属性クラスは本実施形態では顔画像に写る人物の性別であり、「男性」、「女性」の2クラスの状態を有する。ちなみに、属性が人物の年代である場合は、「10代」、「20代」、「30代」、…、「70代」などの多クラスの状態を有する。学習開始前の初期状態では、少数のデータがラベル有り学習データ22に記憶された状態となる。
【0025】
ラベル無し学習データ23は、画像と、画像から得た特徴量とが対応付けて記憶されたデータ群で構成される。学習開始前の初期状態では、大量のデータがラベル無し学習データ23に記憶された状態となる。なお、本実施形態では、ラベル有り学習データ22及びラベル無し学習データ23の其々が、特徴量を予め記憶しているが、これに限らず、特徴量を予め記憶せずに記憶部2からの読み出し時に制御部5により画像から特徴量を計算してもよい。
【0026】
表示部3は制御部5が選択したラベル無し学習データに対応する画像をオラクルに視認可能に表示するインターフェース機器である。具体的には、表示部3は制御部5に接続されたディスプレイなどから構成される。
【0027】
入力部4は更新する学習データの属性クラスをオラクルが入力するためのインターフェース機器である。具体的には、入力部4は制御部5に接続されたキーボード、マウス、視線入力装置、音声認識機能付きマイクロフォンなどの入力装置であり、入力された属性クラスを制御部5へ出力する。なお、表示部3及び入力部4をそれらを一体化した液晶タッチパネルディスプレイで実現してもよい。
【0028】
制御部5はマイクロプロセッサ等の演算装置で構成され、記憶部2、表示部3、入力部4と接続される。制御部5は記憶部2からプログラムを読み出して実行し、識別器生成手段51、解析手段52、選択手段53及び更新手段54等として機能する。
【0029】
識別器生成手段51は、ラベル有り学習データ22を用いて識別器を学習する機能を有する。本実施形態のように「性別」の属性クラスを識別するには例えば、「男性」と「男性以外」との2クラスの識別器を構成すればよい。この場合、識別器生成手段51は具体的には、例えば「男性」人物の顔画像データに正解クラスがラベル付けされ、「男性以外」つまり「女性」人物の顔画像データに不正解クラスがラベル付けされたラベル有り学習データ22にSVM法を適用して識別器を学習、生成することができる。
【0030】
当該学習の結果、正解クラスと不正解クラスとを識別するのに適した識別境界が導出される。学習によって求めた最新の識別器のパラメータは、識別器情報21として記憶部2に記憶される。
【0031】
なお、上述した「年代」の属性クラスのような多クラスの識別は例えば、「性別」を識別する場合の2クラス分類SVMと同様にして、年代のクラスごとに、当該年代(例えば、「10代」)を正解クラス、当該年代以外(例えば「10代以外」)を不正解クラスとしてラベル有り学習データ22を2分割して識別器を学習、生成し、それら複数の識別器を用いることで可能である。また、本実施形態では機械学習法としてSVM法を例として示したが、これに限定されず、ロジスティック回帰法などといった正解クラスと不正解クラスの2クラス分類問題の様々な機械学習法を採用することができる。
【0032】
解析手段52は、ラベル有り学習データ22によって学習した識別器によりラベル無し学習データ23を解析する。具体的には、解析手段52は、記憶部2に記憶された識別器情報21を読み出して識別器を構築する。そして、構築した識別器に、ラベル無し学習データ23に登録された各画像の特徴量を入力してスコアを算出し、当該スコアに基づいて当該画像が属するクラスを推定する。求めた推定クラス及びスコアは当該画像に対応付けて、選択手段53の処理に供するため記憶部2に一時保存される。
【0033】
選択手段53はラベル無し学習データ23からオラクルに提示するデータを自動選択する。その選択に際して、ラベル無し学習データ23に記憶されている各画像に対応付けられている特徴量と、当該画像について解析手段52にて求めた推定クラス及びスコアとが用いられる。具体的な選択方法は後述する。選択された画像は表示部3に出力される。
【0034】
更新手段54は表示部3に表示された画像に対してオラクルが入力した属性クラスを入力部4から受け取り、当該画像とその特徴量と属性クラスとを対応付けたデータをラベル有り学習データ22に登録する一方、当該画像に対応するデータをラベル無し学習データ23から削除する。
【0035】
[能動学習装置1の動作]
図2は能動学習装置1による能動学習における概略の処理フロー図である。
【0036】
能動学習の動作を起動されると、制御部5は解析手段52として動作し、記憶部2に予め記憶されている識別器情報21で表される識別器を用いてラベル無し学習データ23の各画像についてスコアを算出し推定クラスを求める(ステップS1)。算出したスコア及び推定クラスは記憶部2に記憶する。
【0037】
続いて制御部5は選択手段53として動作し、以下に説明するステップS2〜S5の処理を行う。
【0038】
選択手段53はラベル無し学習データ23を推定クラスごとに分ける(ステップS2)。これにより具体的には、ラベル無し学習データ23は、推定クラスが「正解クラス(男性)」であるラベル無し学習データ群と、推定クラスが「不正解クラス(女性)」であるラベル無し学習データ群とに分割される。
【0039】
選択手段53は推定クラスごとのラベル無し学習データ群をそれぞれクラスタリングして複数のクラスタ(ラベル無しクラスタ)を生成する(ステップS3)。クラスタリング手法には、k−meansなど既知の手法を用いることができる。ラベル無し学習データ23に登録された各画像には、クラスタリングにより当該画像が属するラベル無しクラスタのインデックスが付与され、各画像についての当該クラスタインデックスが記憶部2に一時記憶される。
【0040】
以下、ステップS2で推定クラスごとに生成するラベル無しクラスタの数をKで表す。Kは変数とすることができ、利用者がKを直接設定する構成とすることもできるし、利用者がラベル無しクラスタのおおよそのサイズ(大きさ、分割粗さ)を指定し、選択手段53が当該サイズと各推定クラスのラベル無し学習データのデータ数とに基づいて推定クラスごとにKを決定する構成とすることもできる。また、後述するように識別器の学習の進行に応じて選択手段53がKを変化させることも可能である。ここでは、利用者がKを2つの推定クラスに共通に設定する構成例を説明する。
【0041】
選択手段53は推定クラスごとにK個のラベル無しクラスタから、スコアに基づいて識別器の識別境界に近い順に所定数のラベル無しクラスタ(低信頼度クラスタ)を選択する(ステップS4)。低信頼度クラスタの数をLで表す。LはL≦Kを満たす値であり、各推定クラスについて同じ値に設定される。例えば利用者がKと共にLを予め設定する。具体的には選択手段53は、ラベル無し学習データ23の画像について解析手段52によりステップS1で算出され記憶部2に記憶されているスコアを用い、各ラベル無しクラスタに属する画像についてのスコアの平均値を算出する。そして、当該スコアの平均値の絶対値を当該ラベル無しクラスタの推定信頼度とし、K個のラベル無しクラスタから推定信頼度が低い順にL個を選択する。なお、本実施形態では、識別境界から近い所定数の低信頼度クラスタを選択するに際し、推定クラスごとに生成したラベル無しクラスタの中から識別境界から近い順に所定数(L)だけ選択している。しかし、これに限らず、特徴空間における識別境界からの近傍距離(閾値)を予め記憶しておき、当該近傍距離内に含まれるラベル無しクラスタの中からランダムに所定数(L)だけ選択することにより、識別境界から近い所定数の低信頼度クラスタを選択してもよい。
【0042】
選択手段53は低信頼度クラスタのそれぞれから所定の均等な割当個数のラベル無し学習データを能動学習のために選択する(ステップS5)。ここで各低信頼度クラスタから選択する画像の割当個数をNで表す。Nは予め利用者により設定される。各低信頼度クラスタにおけるN個の画像の選択方法としては、例えば、当該低信頼度クラスタ内からランダムに選ぶ、又は当該低信頼度クラスタ内のスコアの絶対値が小さい画像から選ぶなどが好適である。
【0043】
制御部5は選択された画像を表示部3に出力し、入力部4におけるオラクルの入力操作を待つ。
図3は、性別属性クラスの入力をオラクルに求める際に表示部3に表示する画面の一例の模式図である。当該画面31には学習データである顔画像32が表示されると共に、性別属性を示すラジオボタン33及び登録を指示するボタン34が表示されている。
【0044】
オラクルは顔画像32について「男性」か「女性」かを判断して、入力部4として用意されたマウス等を操作してラジオボタン33を選択しボタン34をクリックする。この入力操作に対し、制御部5は更新手段54として動作する。すなわち制御部5は表示部3に表示した画像についての属性クラスを入力部4から受け取り、当該画像に属性クラスを付与する(ステップS6)。具体的には、既に述べたように、当該画像とその特徴量と属性クラスとを対応付けたデータをラベル有り学習データ22に登録する一方、当該画像に対応するデータをラベル無し学習データ23から削除する。
【0045】
ステップS2〜S5で選択された(属性クラス数×L×N)個の学習データについてステップS6の属性クラスの更新処理が完了すると、制御部5は識別器生成手段51として動作する。すなわち、制御部5は記憶部2に記憶されたラベル有り学習データ22を用いて識別器を再学習し、識別器情報21を更新する(ステップS7)。
【0046】
ステップS7の識別器の学習が完了すると、制御部5は、さらに識別器の学習を繰り返すためにデータ収集を続けるかどうかを、予め定めた終了条件に基づいて判断し(ステップS8)、終了条件が満たされた場合は能動学習を終了し、満たされていない場合はステップS1に戻り能動学習を継続する。
【0047】
終了条件としては例えば、データ収集の繰り返し回数が所定回数に達したことを設定することができる。また、別に用意した属性クラスが付与されている評価用のデータを用いて現時点の識別器の性能を評価し、その性能値が基準値に達したり、性能値が上昇しなくなったりしたことなどを終了条件とすることもできる。
【0048】
[学習データの選択手法についての追加説明]
(1)ラベル無しクラスタの数Kはデータ収集の多様性度合に関係するパラメータである。
図4、
図5はパラメータKの違いと、多様性度合の違いとの関係を説明する模式図である。
図4は能動学習の過程におけるラベル無し学習データ23及び識別境界60の例を2次元の特徴空間にて示している。図にプロットした“+”,“○”は属性クラスが異なるデータを表しており、例えば“+”は「男性」の顔画像データ、“○”は「女性」の顔画像データであるとする。なお、識別境界60は現時点までの学習に基づき推定された境界であり、推定クラスの境界である。識別境界60より左側の領域の各データの推定クラスは「男性」であり、当該領域に存在する“○”はクラスを誤推定されているデータである。同様に識別境界60より右側の領域の各データの推定クラスは「女性」であり、当該領域に存在する“+”はクラスを誤推定されているデータである。
【0049】
また
図5は
図4に示すラベル無し学習データ23に対し推定クラスごとのクラスタリングを行った状態(ステップS3の処理を行った状態)を示している。同図にて、データ点を囲む線(楕円)がラベル無しクラスタを表しており、
図5(a)はKをLよりも非常に大きい値に設定した場合の例としてK=10の場合を示し、
図5(b)はKをLに近い値に設定した場合の例としてK=4の場合を表している。ここでは、L=3とし、低信頼度クラスタとして選択された低信頼度クラスタを実線の楕円で示し、それ以外のラベル無しクラスタを一点鎖線の楕円で示している。また、N=1とし、各低信頼度クラスタからデータ1個を選ぶ基準は識別境界に最も近いデータとする。
図5では各低信頼度クラスタにて選択されたデータを太線の“+”,“○”で表している。
【0050】
この例を用いて、KをLよりも非常に大きい値に設定した場合と、KをLに近い値に設定した場合の2ケースについて、多様性の度合がどのように変わるかを説明する。Kが大きいほどラベル無し学習データ23は細かく分割され、識別境界に近いラベル無しクラスタの数は多くなりやすい。よって、同じL個の低信頼度クラスタを選ぶ場合、Kが大きいほど、識別境界に近いラベル無しクラスタが選ばれやすくなり、一方、Kが小さくなるにつれ低信頼度クラスタに識別境界から離れたラベル無しクラスタが含まれやすくなる。その結果、KがLよりも非常に大きい場合には、低信頼度クラスタから選ばれる学習データは総じて識別境界に近くなるので、学習効果が高いデータが選ばれる一方、データの多様性度合は低くなる。これに対して、KをLに近い値に設定した場合には、識別境界に近い学習データだけでなく識別境界から比較的離れた学習データも選ばれやすくなるため、データの多様性度合が高くなる。
【0051】
このように、Kはデータ収集の多様性度合を決めるパラメータであり、Kを適切に設定することで、識別境界付近に沿って分布する信頼度が低い画像の中から、万遍なくデータが選ばれるため、学習効果の高いデータを効率的に収集することができる。なお、経験的にはKはLに対して2倍程度の値に設定するのが好適であり、仮にL=3とした場合はK=6程度が望ましい。
【0052】
(2)本発明では上述したように、ラベル無し学習データ23をクラスタリングし、その中から選択した複数の低信頼度クラスタそれぞれから同数(N個ずつ)の学習データを選んでオラクルに提示する。このように各低信頼度クラスタから選ぶ学習データの個数を均等にすることの意義について説明する。
【0053】
既に述べたようにラベル無し学習データ23に登録されたデータの特徴空間における分布は一様とは限らず、むしろ通常はデータの分布には偏りが存在する。偏った分布からランダムにデータを抽出すると、分布密度が高い箇所のデータが選ばれやすい。その結果、似た特徴のデータが選ばれやすくなり、オラクルは似たようなデータに対してラベル付けすることになり非効率である。また、事前に用意したラベル無し学習データ23の分布と実際の適用環境のデータ分布とは必ずしも一致しない。したがって、ラベル無し学習データ23の分布密度が高い場所から重点的にラベル付けするデータを選んでしまうと、実際に適用する環境には相応しくない識別境界面を学習することが起こりやすくなる。例えば、事前に用意したラベル無し学習データ23のデータの分布が「眼鏡を着用した女性の顔画像データ」に比べて「眼鏡を着用した男性の顔画像データ」が極めて多いようなデータの分布に偏りが存在する場合、特徴空間における眼鏡を着用した男性の箇所の分布密度が高くなる。そして、このような分布密度が高い箇所からラベル付けするデータが重点的に選ばれ、それらのデータを用いて識別境界面を学習してしまうと、たとえ「眼鏡を着用した女性の顔画像データ」であっても「男性」として誤った属性クラスで識別されやすくなる。
【0054】
複数の低信頼度クラスタから均等に学習データを選択する本発明は当該不都合を緩和することができる。すなわち、選択される学習データが複数の低信頼度クラスタに分散するので、ラベル無し学習データ23における分布密度が高い箇所にデータ選択が集中しにくくなり、また、選択される学習データの分布とラベル無し学習データ23におけるデータ分布との相関度合いが低減し、多様な学習データが選択されやすい。
【0055】
さらに、識別境界に近い低信頼度クラスタから学習データを選ぶことで、識別境界に近くクラス判別が難しい領域にラベル有り学習データが得られるので、学習効果の高いデータを効率的に収集できる。
【0056】
さて、上述の実施形態では、ラベル無し学習データ23を推定クラスで分け、各クラスのラベル無し学習データ23をそれぞれクラスタリングする例を説明したが、ラベル無し学習データ23を推定クラスで分けずにクラスタリングしラベル無しクラスタを生成した場合にも同様の手法で学習データを選択することができる。このラベル無し学習データ23を推定クラスで分けずクラスタリングした場合にも上述した、低信頼度クラスタから均等に学習データを選択する効果、及び低信頼度クラスタを選ぶ効果が得られる。
【0057】
一方、ラベル無し学習データ23を推定クラスで分けてクラスタリングする上述の実施形態の構成では、各クラスについてL個の低信頼度クラスタ(L×N個の学習データ)を選択することで、ラベル無し学習データ23の推定クラス間の偏り(データ数の違い)の影響を軽減できる効果も得られる。例えば、ラベル無し学習データ23が特定のクラスに偏っていると、その特定クラスから学習データが選ばれやすくなる。これは、実際の適用環境がラベル無し学習データ23とは異なるクラス間の偏りを有する場合には、相応しくない学習データが収集されやすい不都合がある。この点、各推定クラスの低信頼度クラスタの数を同じにすることで当該問題を軽減できる。
【0058】
(3)上述の実施形態では、L,Nは利用者により設定された固定値とし、また、属性クラス数は2であり、やはり固定値であるので、能動学習の各反復回でオラクルが属性付与するデータ数(属性クラス数×L×N)は固定となる。能動学習により削減しようとするデータ数は本実施形態のように反復的に学習を行う場合、反復が完了するまでに選択される総データ数であるが、各反復回にて選択されるデータ数の抑制も効率的な学習の1つの目安となり得る。ここで、Nが大きいということは同一のラベル無しクラスタから選出される画像が多くなる、つまり類似した画像が多く選ばれることを意味し、学習が効率的でなくなり得る。一方、Lが大きいことは選択されるデータの多様性が高まることにより、効率的な学習に寄与し得る。よって、各反復回で選択するデータ数を一定、つまりL×Nを一定とする条件の下では基本的にはLは大きくし、逆にNは小さくするのが好適である。すなわち、Nは1に近い小さな値を使用し、その分、Lを大きくしてデータの多様性を保持する。
【0059】
[変形例]
(1)
図2のステップS3に関し、データ収集の初期からKをLよりも非常に大きい値に設定すると、
図5(a)に示すように、誤推定しているデータのラベル無しクラスタが低信頼度クラスタとして選ばれにくくなるため、最適な識別境界が得られにくくなりやすい。つまり初期値依存問題が起こりやすくなる。
【0060】
そこで、当該初期値依存問題を低減するために、以下のように能動学習の反復ごとにKを変えて、データ収集の多様性度合を変化させてもよい。つまり、データ収集初期では、KをLに近い値に設定し多様性度合を高くする一方、反復回を重ね学習が進むに従って徐々にKを大きくすることで、識別の難しい境界付近のデータ収集に移行させる。例えば、L=3,N=1の場合は、データ収集初期では、K=3から開始し、ステップS1〜S7の処理を1回行うごとにKの値を1ずつ増やしていく。
【0061】
なお、このKを漸次大きくすることと同様の効果は一般に、ラベル無しクラスタの数K及び低信頼度クラスタの数Lを、それらの差が能動学習を繰り返すに従って大きくなるように設定することで得られる。例えば、
図5(a)に示すK=10の場合においても、Lを大きくすれば誤推定しているデータのラベル無しクラスタも低信頼度クラスタとして選択される。従ってKは一定に保ち、データ収集初期では、LをKに近い値に設定し多様性度合を高くする一方、反復回を重ね学習が進むに従って徐々にLを小さくしてもよい。
【0062】
(2)上記実施形態ではステップS5における低信頼度クラスタからN個の学習データを選択する第1の方法として、当該クラスタ内からランダムに選ぶ方法、また第2の方法として、当該クラスタ内のスコアの絶対値が小さい画像から選ぶ方法を示した。
【0063】
ここで、第2の方法は、識別の難しい識別境界付近の画像が学習データとされる点で好適であるが、Nが2以上、つまり1つの低信頼度クラスタから複数の画像を選択する場合に、単純にスコア絶対値が小さい順に選択すると、似た画像が選ばれて学習の効率が低下しやすくなる。そこで、低信頼度クラスタから複数の画像を選択する場合には、そのうちの1つは当該クラスタ内のスコア絶対値が小さい画像(例えばスコア絶対値が最小値の画像)とし、残りはN個の画像のスコアが分散するように選択することができる。
【0064】
具体的には、選択手段53は例えば、低信頼度クラスタ内のラベル無し学習データ23をスコア絶対値が低い順にソートし、スコア絶対値が小さいデータ(例えばスコア絶対値が最小値のデータ)からスコア絶対値が大きいデータ(例えばスコア絶対値が最大値のデータ)まで、スコアの間隔が基本的に均等になるようにラベル無し学習データを選択することができる。またはスコア絶対値の順位の間隔が均等になるように選択してもよい。
【0065】
また、選択手段53は、各低信頼度クラスタにて、ラベル無し学習データ23のスコアの範囲をN個の区間に等分し、当該各区間からスコア絶対値が最小であるラベル無し学習データを1つずつ選択する構成としてもよい。または、スコア絶対値の順位をN個の区間に等分し、当該各区間から順位が最小であるデータを1つずつ選択してもよい。
【0066】
(3)低信頼度クラスタからN個の学習データを選択する第3の方法として、k,nをk×n=Nなる予め定めた自然数とし、選択手段53は各低信頼度クラスタを所定数(k個)のサブクラスタにクラスタリングし、当該サブクラスタのそれぞれから所定の均等な個数(n個)のラベル無し学習データを選択してもよい。例えば、k=N,n=1とすることができる。なお、各サブクラスタにおけるn個のデータの選択には上述した第1,第2の方法を用いることができる。
【0067】
(4)低信頼度クラスタからN個の学習データを選択する第4の方法として、選択手段53は、各低信頼度クラスタにて、特徴空間におけるラベル有り学習データまでの距離が大きいものから順にラベル無し学習データを選択してもよい。この方法では、ラベル有り学習データに似ない画像が学習データに選ばれやすくなり学習の効率が向上する。例えば、N=1の場合には、特徴空間にてラベル有り学習データから最も離れているラベル無し学習データを学習データとして選択する。具体的には、低信頼度クラスタ内の各ラベル無し学習データについて任意のラベル有り学習データとの距離の最小値を求め、当該最小値が最大であるラベル無し学習データを1つ学習データとして選ぶ。
【0068】
上述の実施形態及び変形例により説明した本発明では、能動学習の学習データの選択に際し、データの多様性度合と推定信頼度という2つの基準を考慮する。つまり、データの多様性を保持しつつ、推定信頼度が低いデータの中からの選択を図る。これにより、効率的でかつ偏りの少ない良質な学習データが収集できる。つまり、似た画像に対して何度もラベル付けする非効率を軽減することができ、また少数の学習データでも推定性能の高い識別器を学習することができる。
【0069】
なお、上述の実施形態及び変形例では、人物の顔画像から属性を推定する識別器の学習を例に説明したが、本発明の適用はそれに限られるものではない。例えば、車両画像から車種を判定する識別器や、一般物体画像が食べ物であるか否かを判定する識別器など、人物画像や人物属性に限らない識別対象について、本発明を適用して属性推定器を構成することができる。