IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ コニカミノルタ株式会社の特許一覧

<>
  • 特許-学習モデル作成装置 図1
  • 特許-学習モデル作成装置 図2
  • 特許-学習モデル作成装置 図3
  • 特許-学習モデル作成装置 図4
  • 特許-学習モデル作成装置 図5
  • 特許-学習モデル作成装置 図6
  • 特許-学習モデル作成装置 図7
  • 特許-学習モデル作成装置 図8
  • 特許-学習モデル作成装置 図9
  • 特許-学習モデル作成装置 図10
  • 特許-学習モデル作成装置 図11
  • 特許-学習モデル作成装置 図12
  • 特許-学習モデル作成装置 図13
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-03-22
(45)【発行日】2022-03-30
(54)【発明の名称】学習モデル作成装置
(51)【国際特許分類】
   G06N 3/08 20060101AFI20220323BHJP
【FI】
G06N3/08 120
【請求項の数】 3
(21)【出願番号】P 2017100566
(22)【出願日】2017-05-22
(65)【公開番号】P2018195231
(43)【公開日】2018-12-06
【審査請求日】2020-03-18
【前置審査】
(73)【特許権者】
【識別番号】000001270
【氏名又は名称】コニカミノルタ株式会社
(74)【代理人】
【識別番号】100115381
【弁理士】
【氏名又は名称】小谷 昌崇
(74)【代理人】
【識別番号】100067828
【弁理士】
【氏名又は名称】小谷 悦司
(74)【代理人】
【識別番号】100111453
【弁理士】
【氏名又は名称】櫻井 智
(72)【発明者】
【氏名】倉本 望
【審査官】北川 純次
(56)【参考文献】
【文献】特開2016-146174(JP,A)
【文献】特開2016-133895(JP,A)
【文献】特開2016-109495(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/02-3/08
G06N 20/00
(57)【特許請求の範囲】
【請求項1】
機械学習の学習モデルを生成する学習モデル作成装置であって、
前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、
学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、
前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、
前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、
前記特定部は、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定し、
前記特定部は、特徴量抽出部間における独立性の度合いを表す独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する、
学習モデル作成装置。
【請求項2】
機械学習の学習モデルを生成する学習モデル作成装置であって、
前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、
学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、
前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、
前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、
前記特定部は、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定し、
色情報を前記特徴量として抽出する第1特徴量抽出部、エッジ情報を前記特徴量として抽出する第2特徴量抽出部、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部の中から、前記特定する前記冗長な特徴量抽出部から除外する特徴量抽出部の入力を受け付ける第1入力部をさらに備え、
前記特定部は、前記第1入力部で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記特定する前記冗長な特徴量抽出部から除外することによって、前記冗長な特徴量抽出部を特定する、
学習モデル作成装置。
【請求項3】
機械学習の学習モデルを生成する学習モデル作成装置であって、
前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、
学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、
前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、
前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、
前記特定部は、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定し、
色情報を前記特徴量として抽出する第1特徴量抽出部、エッジ情報を前記特徴量として抽出する第2特徴量抽出部、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部の中から、前記冗長な特徴量抽出部として優先的に特定する特徴量抽出部の入力を受け付ける第2入力部をさらに備え、
前記特定部は、前記第2入力部で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記冗長な特徴量抽出部として優先的に特定することによって、前記冗長な特徴量抽出部を特定する、
学習モデル作成装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、機械学習の学習モデルを作成する学習モデル作成装置に関する。
【背景技術】
【0002】
機械学習は、学習データを反復的に学習することで学習モデルを人手を介さずに自動的に生成し、この生成した学習モデルを用いて学習データを分類でき、あるいは、未知のデータの分類を予測できることから、様々な分野に応用され、研究、開発されている。特に、近年では、画像認識の認識精度が高いこと等から、畳み込みニューラルネットワーク(Convolutional Neural Network、以下、「CNN」と適宜に略記する)に代表される深層学習(ディープラーニング、Deep Learning)が注目され、研究、開発されている。
【0003】
このような機械学習では、学習モデルの生成には、学習データを反復的に学習するため、膨大な演算コスト(計算コスト)がかかってしまう。また、この生成した学習モデルを用いて未知のデータを分析する際でも、学習モデルが大きいと、それだけ演算コストがかかってしまう。特に、近年では、深層学習における学習モデルの層数が増大し、1000層に及ぶ学習モデルも出現している。このため、学習モデルの冗長な情報を取り除くことで学習モデルを適正化する手法が例えば特許文献1に開示されている。
【0004】
この特許文献1に開示されたニューラルネットワーク最適化方法は、ニューラルネットワークの構造を最適化する方法であって、(1)ニューラルネットワークの初期構造を第1のニューラルネットワークとして入力するステップと、(2)与えられた第1のニューラルネットワークについて学習データを用いて学習を行うステップであって、評価データを用いて計算される前記第1のニューラルネットワークのコストが最小の第1のコストとなるまで学習を行うステップと、(3)前記第1のニューラルネットワークからランダムにユニットを削除して第2のニューラルネットワークを生成するステップと、(4)前記第2のニューラルネットワークについて学習データを用いて学習を行うステップであって、評価データを用いて計算される前記第2のニューラルネットワークのコストが最小の第2のコストとなるまで学習を行うステップと、(5)前記第1のコストと前記第2のコストとを比較するステップと、(6)前記第2のコストが前記第1のコストより小さいときには、前記第2のニューラルネットワークを前記第1のニューラルネットワーク、前記第2のコストを前記第1のコストとしてステップ(3)~(5)を行い、前記第1のコストが前記第2のコストより小さいときには、ステップ(3)において異なる第2のニューラルネットワークを生成してステップ(4)(5)を行うステップと、(7)ステップ(6)において、前記第1のコストの方が前記第2のコストより小さいとの判断が所定回数連続したときに、前記第1のニューラルネットワークをニューラルネットワークの最適構造と決定するステップと、(8)前記ニューラルネットワークの最適構造を出力するステップと、を備える。このニューラルネットワーク最適化方法は、特許文献1に依れば、汎化能力を向上させ、計算量を減らしたネットワーク構造を自動決定できる。
【先行技術文献】
【特許文献】
【0005】
【文献】特開2015-11510号公報(特許第6042274号公報)
【発明の概要】
【発明が解決しようとする課題】
【0006】
ところで、特許文献1に開示されたニューラルネットワーク最適化方法は、ニューラルネットワーク(学習モデルの一例)が最適化されているので、このニューラルネットワークを用いる際には、演算コストが低減される。しかしながら、前記特許文献1に開示されたニューラルネットワーク最適化方法は、最適化されたニューラルネットワークを生成するために、第1および第2のニューラルネットワークを生成する学習のステップ(2)および(4)を、ステップ(7)から、複数回実施する必要があり、最適化されたニューラルネットワークの生成では、演算コストが低減できていない。また、前記特許文献1に開示されたニューラルネットワーク最適化方法は、削除対象をランダムに決定し、第2のニューラルネットワークの評価を第1のコストと第2のコストとの比較で行っているため、削除対象がニューラルネットワークの性能に寄与している可能性があり、最適化されたニューラルネットワークの性能が最適化前に較べて劣化してしまう虞がある。
【0007】
本発明は、上述の事情に鑑みて為された発明であり、その目的は、学習モデルの性能劣化を抑制しつつ、演算コストを低減できる学習モデル作成装置を提供することである。
【課題を解決するための手段】
【0014】
本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかる学習モデル作成装置は、機械学習の学習モデルを生成する学習モデル作成装置であって、前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、前記特定部は、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定し、前記特定部は、特徴量抽出部間における独立性の度合いを表す独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する。好ましくは、上述の学習モデル作成装置において、前記冗長な特徴量抽出部を特定する際に用いられる特定条件の入力を受け付ける入力部をさらに備え、前記特定部は、前記独立度の低い特徴量抽出部から順に、前記入力部で受け付けた特定条件を満たしている間、前記冗長な特徴量抽出部を特定する。好ましくは、上述の学習モデル作成装置において、前記特定部は、前記複数の特徴量抽出部それぞれについて、当該特徴量抽出部と前記複数の特徴量抽出部から当該特徴量抽出部を除いた残余の特徴量抽出部それぞれとの間で成分同士の差分を求め、この求めた差分の二乗の和を前記独立度として求め、この求めた独立度に基づいて、前記独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する。好ましくは、上述の学習モデル作成装置において、前記冗長な特徴量抽出部を特定する際に用いられる特定条件の入力を受け付ける入力部をさらに備え、前記特定部は、前記複数の特徴量抽出部それぞれについて、当該特徴量抽出部と前記複数の特徴量抽出部から当該特徴量抽出部を除いた残余の特徴量抽出部それぞれとの間で成分同士の差分を求め、この求めた差分の二乗の和を前記独立度として求め、この求めた独立度に基づいて、前記独立度の低い特徴量抽出部から順に、前記入力部で受け付けた特定条件を満たしている間、前記冗長な特徴量抽出部を特定する。好ましくは、前記特定条件は、前記冗長な特徴量抽出部として特定される特徴量抽出部の個数である削除設定個数である。ここで、冗長とは、特徴量抽出部が実質的に同じ特徴量を抽出することを言う
【0015】
このような学習モデル作成装置は、前記冗長な特徴量抽出部を、独立度の観点から適切に特定できる。上記学習モデル作成装置では、独立度の観点から特定するので、演算コストの削減を優先に前記冗長な特徴量抽出部が特定される。
【0020】
本発明の他の一態様にかかる学習モデル作成装置は、機械学習の学習モデルを生成する学習モデル作成装置であって、前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、前記特定部は、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定し、色情報を前記特徴量として抽出する第1特徴量抽出部、エッジ情報を前記特徴量として抽出する第2特徴量抽出部、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部の中から、前記特定する前記冗長な特徴量抽出部から除外する特徴量抽出部の入力を受け付ける第1入力部をさらに備え、前記特定部は、前記第1入力部で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記特定する前記冗長な特徴量抽出部から除外することによって、前記冗長な特徴量抽出部を特定する。
【0021】
このような学習モデル作成装置は、第1入力部で第1特徴量抽出部を除外するように受け付けた場合には、第1特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第1特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置では、第1特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。第1入力部で第2特徴量抽出部を除外するように受け付けた場合には、上記学習モデル作成装置は、第2特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第2特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置では、第2特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。第1入力部で第3特徴量抽出部を除外するように受け付けた場合には、上記学習モデル作成装置は、第3特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第3特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置では、第3特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。
【0022】
本発明の他の一態様にかかる学習モデル作成装置は、機械学習の学習モデルを生成する学習モデル作成装置であって、前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備え、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定部と、前記学習モデルから前記特定部で特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良部と、前記モデル改良部で作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用部とを備え、前記特定部は、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定し、色情報を前記特徴量として抽出する第1特徴量抽出部、エッジ情報を前記特徴量として抽出する第2特徴量抽出部、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部の中から、前記冗長な特徴量抽出部として優先的に特定する特徴量抽出部の入力を受け付ける第2入力部をさらに備え、前記特定部は、前記第2入力部で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記冗長な特徴量抽出部として優先的に特定することによって、前記冗長な特徴量抽出部を特定する。
【0023】
このような学習モデル作成装置は、第2入力部で第1特徴量抽出部を優先的に特定するように受け付けた場合には、第1特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第1特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第1特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置は、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第1特徴量抽出部を削除(除外)できる。この場合では、上記学習モデル作成装置では、第1特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。第2入力部で第2特徴量抽出部を優先的に特定するように受け付けた場合には、上記学習モデル作成装置は、第2特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第2特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第2特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置は、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第2特徴量抽出部を削除できる。この場合では、上記学習モデル作成装置では、第2特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。第2入力部で第3特徴量抽出部を優先的に特定するように受け付けた場合には、上記学習モデル作成装置は、第3特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第3特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第3特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置は、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第3特徴量抽出部を削除できる。この場合では、上記学習モデル作成装置では、第3特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。
【発明の効果】
【0032】
本発明にかかる学習モデル作成装は、学習モデルの性能劣化を抑制しつつ、演算コストを低減できる。
【図面の簡単な説明】
【0033】
図1】第1ないし第5実施形態における学習モデル作成装置の構成を示すブロック図である。
図2】前記学習モデル作成装置における学習適用部の一構成例を示すブロック図である。
図3】前記学習モデル作成装置を実装したコンピュータの構成を示すブロック図である。
図4】学習での、前記学習モデル作成装置の動作を示すフローチャートである。
図5】分析での、前記学習モデル作成装置の動作を示すフローチャートである。
図6図4および図5それぞれで示す各フローチャートにおける冗長削除処理を示すフローチャートである。
図7】機械学習の反復回数と特徴量抽出部の総情報量との関係を示す図である。
図8】第1実施形態において、寄与度による冗長削除処理を説明するためのである。
図9】第1実施形態における学習モデル作成装置の効果を説明するための図である。
図10】第2実施形態において、差分二乗和による冗長削除処理を説明するためのである。
図11】第3実施形態において、次元圧縮による冗長削除処理を説明するためのである。
図12】第4実施形態における学習モデル作成装置に表示される入出力画面の一例を示す図である。
図13】第4実施形態における学習モデル作成装置の効果を説明するための図である。
【発明を実施するための形態】
【0034】
以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。なお、本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。
【0035】
(第1実施形態)
図1は、第1実施形態における学習モデル作成装置の構成を示すブロック図である。なお、図1には、第2ないし第5実施形態における学習モデル作成装置の構成も示されている。図2は、前記学習モデル作成装置における学習適用部の一構成例を示すブロック図である。図3は、前記学習モデル作成装置を実装したコンピュータの構成を示すブロック図である。
【0036】
第1実施形態における学習モデル作成装置Daは、機械学習の学習モデルを生成する装置であって、前記学習モデルは、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備える。このような第1実施形態における学習モデル作成装置Daは、例えば、図1に示すように、入力部1と、出力部2と、インターフェース部(IF部)3と、制御処理部4aと、記憶部5とを備える。
【0037】
入力部1は、制御処理部4aに接続され、例えば、学習の開始を指示するコマンドや、学習によって生成した学習モデルを用いて入力サンプル(対象サンプル)の分析を指示するコマンド等の各種コマンド、および、例えば前記冗長な特徴量抽出部を特定する際に用いられる特定条件の入力等の、学習モデルを生成する上で必要な各種データを学習モデル作成装置Daに入力する装置であり、例えば、所定の機能を割り付けられた複数の入力スイッチ、キーボードおよびマウス等である。
【0038】
出力部2は、制御処理部4aに接続され、制御処理部4aの制御に従って、入力部1から入力されたコマンドやデータ、および、当該学習モデル作成装置Daによって生成された学習モデルを用いた分析結果等を出力する装置であり、例えばCRTディスプレイ、LCD(液晶表示装置)および有機ELディスプレイ等の表示装置や、プリンタ等の印刷装置である。
【0039】
なお、入力部1および出力部2からタッチパネルが構成されても良い。このタッチパネルを構成する場合において、入力部1は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力装置であり、出力部2は、表示装置である。このタッチパネルでは、表示装置の表示面上に位置入力装置が設けられ、表示装置に入力可能な1または複数の入力内容の候補が表示され、ユーザが、入力したい入力内容を表示した表示位置を触れると、位置入力装置によってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として学習モデル作成装置Daに入力される。このようなタッチパネルでは、ユーザは、入力操作を直感的に理解し易いので、ユーザにとって取り扱い易い学習モデル作成装置Daが提供される。
【0040】
IF部3は、例えば、外部の機器との間でデータを入出力する回路であり、例えば、シリアル通信方式であるRS-232Cのインターフェース回路、Bluetooth(登録商標)規格を用いたインターフェース回路、IrDA(Infrared Data Asscoiation)規格等の赤外線通信を行うインターフェース回路、および、USB(Universal Serial Bus)規格を用いたインターフェース回路等である。なお、IF部3は、通信網(ネットワーク)を介して外部の機器と通信を行う回路であっても良く、例えば、データ通信カードや、IEEE802.11規格等に従った通信インターフェース回路等であっても良い。
【0041】
記憶部5は、制御処理部4aに接続され、制御処理部4aの制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、学習モデル作成装置Daの各部1~3、5を当該各部の機能に応じてそれぞれ制御する制御プログラムや、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記複数の特徴量抽出部の中から冗長な特徴量抽出部を特定する特定プログラムや、前記学習モデルから前記特定プログラムで特定された特徴量抽出部を削除することによって新たな学習モデルを作成するモデル改良プログラムや、前記モデル改良プログラムで作成した新たな学習モデルで、前記学習を継続する、または、前記入力サンプルを分析する学習適用プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータには、例えば機械学習に用いられる教師セットや分析の対象となる入力サンプル(対象サンプル)等の、各プログラムを実行する上で必要なデータ等が含まれる。記憶部5は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。記憶部5は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部4aのワーキングメモリとなるRAM(Random Access Memory)等を含む。そして、記憶部5は、教師セットや対象サンプルを記憶するために、教師セット記憶部51および対象サンプル記憶部52を機能的に備える。
【0042】
教師セット記憶部51は、前記教師セットを記憶するものである。前記教師セットは、機械学習によって学習モデルを作成するための予め正解が既知な学習データであり、複数のサンプル(データ)から成る教師データと、前記教師データにおける前記複数のサンプルそれぞれに対応付けられ、当該サンプルの正解を表す複数の正解情報から成る正解ラベルとを備える。これに応じて教師セット記憶部51は、前記教師データを記憶部する教師データ記憶部511と、前記正解ラベルを記憶する正解ラベル記憶部512とを機能的に備える。対象サンプル記憶部52は、前記対象サンプルを記憶するものである。前記教師セットは、例えば、入力部1から入力され、教師セット記憶部51に記憶される。また例えば、前記教師セットを管理するサーバ装置から、あるいは、前記教師セットを記憶(記録)する例えばUSBメモリ等の記録媒体から、IF部3を介して入力され、教師セット記憶部51に記憶される。同様に、前記対象サンプルは、例えば、入力部1から入力され、対象サンプル記憶部52に記憶される。また例えば、前記対象サンプルを管理するサーバ装置から、あるいは、前記対象サンプルを記憶(記録)する例えばUSBメモリ等の記録媒体から、IF部3を介して入力され、対象サンプル記憶部52に記憶される。
【0043】
制御処理部4aは、学習モデル作成装置Daの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、機械学習の学習モデルを作成するための回路である。制御処理部4aは、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部4aは、前記制御処理プログラムが実行されることによって、制御部41、学習適用部42、特定部43aおよびモデル改良部44を機能的に備える。
【0044】
制御部41は、学習モデル作成装置Daの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、学習モデル作成装置Da全体の制御を司るものである。
【0045】
特定部43aは、学習中の際に、または、学習後の学習モデルを用いて入力サンプル(対象サンプル)を分析する際に、前記学習モデルにおける複数の特徴量抽出部の中から冗長な特徴量抽出部を特定するものである。本実施形態では、特定部43aは、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43aは、学習モデルの性能に寄与する度合いを表す寄与度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する。より詳しくは、特定部43aは、まず、学習モデルにおける複数の特徴量抽出部の中から1個の特徴量抽出部を削除することで、試行用の学習モデルを作成する。次に、特定部43aは、この試行用の学習モデルを用いて教師データを分析(分類)する。次に、特定部43aは、この分析結果(分類結果)と、前記教師データに対応する正解ラベルとを突き合わせることによって、試行用の学習モデルの性能を評価する評価値を前記削除した1個の特徴量抽出部に対する寄与度として求める。特定部43aは、このような試行用の学習モデルの作成、それを用いた分析および寄与度の算出の各処理を、学習モデルにおける複数の特徴量抽出部それぞれについて実施し、前記複数の特徴量抽出部それぞれの各寄与度を求める。そして、特定部43aは、寄与度の低い方から順に、前記複数の特徴量抽出部を並べ、予め設定された個数(後述の削除設定個数)になるまで、最下位から順に特徴量抽出部を選定し、この選定した特徴量抽出部を前記冗長な特徴量抽出部として特定する。
【0046】
モデル改良部44は、学習モデルから特定部43aで特定された特徴量抽出部を削除することによって新たな学習モデルを作成するものである。
【0047】
学習適用部42は、モデル改良部44で作成した新たな学習モデルで、学習を継続する、または、入力サンプルを分析するものである。学習適用部42は、学習によって所定の特徴量を抽出する機能を獲得する複数の特徴量抽出部を備える学習モデルを用いる機械学習のシステムであれば、任意のシステムであって良い。学習適用部42は、例えば、深層学習のシステムであって良い。特に、画像認識の認識精度が高いことから、学習適用部42は、畳み込みニューラルネットワーク(CNN)が好ましい。
【0048】
一例として、このCNNで構成される学習適用部42は、例えば、図3に示すように、前処理部421と、多層パーセプトロン部422とを備える。
【0049】
前処理部421は、畳み込み層42111(42111-1、・・・、42111-k)およびプーリング層42112(42112-1、・・・、42112-k)を備える前処理セット4211(4211-1、・・・、4211-k)を1または複数k備えて構成される(kは2以上の整数)。前処理セット4211が複数である場合には、これら複数の前処理セット4211は、直列で接続され、複数段の構成となる。前処理部421には、学習するための教師セットや分析(認識、分類、判別)すべき対象サンプルが入力される。ここでは、教師データにおける複数のサンプル、および、対象サンプルは、画像であり、以下、前処理部421に入力される教師データのサンプルおよび対象サンプルを入力画像IPと便宜的に呼称する。
【0050】
畳み込み層42111は、入力画像IPに対し畳み込み演算を実行する装置である。より具体的には、畳み込み層42111は、入力画像IPに対し所定のカーネル(画像フィルタ)KNで畳み込む(フィルタリングする)。前記カーネルKNは、予め設定された複数であり、これら複数のカーネルKNそれぞれによって入力画像IPが畳み込まれ、カーネルKNの個数に応じた複数の画像(特徴マップ)FMが生成される。カーネルKNが多いほど、入力画像IPにおける様々な特徴を捉えることができる。カーネルKNのサイズは、任意であり、各前処理セット4211ごとに適宜に設定される。CNNでは、学習によってカーネルKNが生成される。すなわち、カーネルKNの各要素(各フィルタ係数)の数値が学習によって自動的に設定される。これによってカーネルKNは、学習によって所定の特徴量を抽出する機能を獲得する。カーネルKNは、特徴量抽出部の一例に相当する。この畳み込み演算によって入力画像IP内のパターンが検出できるようになる。畳み込み層42111は、当該段の前処理セット4211におけるプーリング層42112に接続され、畳み込み演算によって生成された画像である特徴マップFMをこのプーリング層42112へ出力する。
【0051】
プーリング層42112は、マックスプーリング(maxpooling)の処理を実行する装置である。より具体的には、プーリング層42112は、所定サイズの矩形フィルタを特徴マップFM内で所定の画素ずつずらしながら矩形内の最大値を取り出して新たな画像を生成する。このマックスプーリングの処理によって、抽出される特徴の位置感度が低下される。プーリング層42112は、次段の前処理セット4211が存在する場合には、次段の前処理セット4211における畳み込み層42111に接続され、その生成した画像をこの畳み込み層42111へ出力し、次段の前処理セット4211が存在しない場合(すなわち、最終段の前処理セット4211-kにおけるプーリング層42112-kの場合)には、多層パーセプトロン部422に接続され、前記生成した画像を多層パーセプトロン部422へ出力する。
【0052】
多層パーセプトロン部422は、複数の層にニューロンを配置したニューラルネットワークであり、前記ニューラルネットワークによって、前処理部421の処理結果(最終段の前処理セット4211-kにおけるプーリング層42112-kで生成された画像)に基づいて、前処理部421に入力された入力画像IPを認識する装置である。多層パーセプトロン部422は、前記認識の結果ORを出力する。
【0053】
このような学習モデル作成装置Daは、一例では、図3に示すように、CPU11、RAM12、ROM13、ハードディスクドライブ(HDD)14、LCD16、キーボード17、マウス18、USBインターフェース19、および、これらCPU11、RAM12、ROM13、HDD14、LCD16、キーボード17、マウス18およびUSBインターフェース19を相互に接続するバス15を備える、例えば、デスクトップ型やノード型のコンピュータによって構成可能である。
【0054】
次に、本実施形態の動作について説明する。図4は、学習での、前記学習モデル作成装置の動作を示すフローチャートである。図5は、分析での、前記学習モデル作成装置の動作を示すフローチャートである。図6は、図4および図5それぞれで示す各フローチャートにおける冗長削除処理を示すフローチャートである。図7は、機械学習の反復回数と特徴量抽出部の総情報量との関係を示す図である。図7の横軸は、機械学習の反復回数(繰り返し回数)iterであり、その縦軸は、学習モデルにおける特徴量抽出部の総情報量である。図8は、第1実施形態において、寄与度による冗長削除処理を説明するためのである。図9は、第1実施形態における学習モデル作成装置の効果を説明するための図である。
【0055】
このような構成の学習モデル作成装置Daは、その電源が投入されると、必要な各部の初期化を実行し、その稼働を始める。その制御処理プログラムの実行によって、制御処理部4aには、制御部41、学習適用部42、特定部43aおよびモデル改良部44が機能的に構成される。
【0056】
そして、学習モデルを生成する学習処理では、図4において、学習モデル作成装置Daは、制御処理部4aによって、処理#1から処理#2までの各処理S11、S12、S13が予め設定された学習回数(反復回数)だけ繰り返し、実施され、処理S13で判定された改良タイミングで処理S21aおよび処理S22が実施される。
【0057】
より具体的には、処理S11では、学習モデル作成装置Daは、制御処理部4aの学習適用部42によって、制御変数iが繰り返し回数max_iterより大きいか否かを判定する。前記制御変数iは、処理#1から処理#2までの各処理の繰り返し回数を表す変数である。前記繰り返し回数max_iterは、ユーザ(オペレータ)によって予め設定された教師セットを用いた学習の繰り返し回数(反復回数)であり、例えば100エポックや500エポックや1000エポック等で適宜に設定される。この判定の結果、制御変数iが繰り返し回数max_iterより大きくない場合(No)には、学習中であり、学習適用部42は、次に、処理S12を実行する。一方、前記判定の結果、制御変数iが繰り返し回数max_iterより大きい場合(Yes)には、学習の終了であり、学習適用部42は、この処理#1から処理#2までの各処理の繰り返し処理を抜け出し、次に、処理S14を実行する。
【0058】
処理S12では、学習モデル作成装置Daは、学習適用部42によって、記憶部5の教師セット記憶部51に記憶された教師セット(教師データおよび正解ラベル)を用いて機械学習を実行し、次に、処理S13を実行する。
【0059】
処理S13では、学習モデル作成装置Daは、制御処理部4aによって、処理S12で生成された学習中の学習モデルから冗長な特徴量抽出部を削除し、学習モデルを改良する改良タイミングであるか否かを判定する。必ず毎エポックごとに冗長な特徴量抽出部を削除する処理を実施すると、学習モデルの性能が劣化する可能性があり、そして、その演算コストが増加するため、このような処理S13で改良タイミングを判定することによって、これらを避けることができる。
【0060】
この改良タイミングは、例えば、学習モデル作成装置Daを構成するハードウェアの処理能力、分析処理の種類、予測される学習の進捗具合等に応じてユーザ(オペレータ)によって適宜に決定され、学習モデル作成装置Daに予め入力され設定される。あるいは、1エポックの前後で学習モデルの差分が求められ、この差分が予め設定された所定の閾値以下である場合に、改良タイミングが到来したと自動的に判定される。例えば、所定の教師データを用いて100エポック学習することによって学習モデルが生成される場合、分析処理の種類に対しハードウェアの処理能力が高ければ、最初のエポックが改良タイミングとして設定され、学習モデルが改良されて良く、また例えば、このような場合において、数エポックごとに改良タイミングが設定され、学習モデルが改良されて良い。また例えば、予測される学習の進捗具合が遅ければ、最初の数エポックを避けて、例えば10エポックごとに改良タイミングが設定され、学習モデルが改良されて良い。このように多段的に改良タイミングが設定される場合、図7に示すように、従前の一般的な機械学習では、反復回数(繰り返し回数)iterに依らず、特徴量抽出部の総情報量は、b[Byte]で一定であるが、本実施形態では、任意の反復回数ixの時点で特徴量抽出部の総情報量は、削除設定個数が削除率でαの場合に、α×b[Byte]に削減される。これによって繰り返し学習に要する演算コストが段階的に低減される。さらに、機械学習では、過去の学習モデルとその性能を用いて、正解を導くことができるように学習モデルが改善されていくため、特徴量抽出部の削除によって、その改善のために参照する必要が無くなるので、従前よりもより早く学習モデルが収束できる。このような多段的に改良タイミングを設定する場合、学習モデルにおける実適用上の要求精度が反復回数Reで得られる場合に、前記実適用上の要求精度を勘案して、ix≦Reとなるように、反復回数ixが設定される。
【0061】
処理S13の判定の結果、改良タイミングではない場合(No)には、当該エポックの学習が終了し、次のエポックの学習を開始するために、学習モデル作成装置Daは、制御処理部4aによって、制御変数iを1だけインクリメントし(i=i+1)、処理を処理S11に戻す。
【0062】
一方、前記処理S13の判定の結果、改良タイミングである場合には、学習モデル作成装置Daは、制御処理部4aによって、処理S21aおよび処理S22それぞれを実施した後に、制御変数iを1だけインクリメントし(i=i+1)、処理を処理S11に戻す。処理S21aでは、冗長な特徴量抽出部を削除するために、削除対象の特徴量抽出部を特定する削除対象の特定処理が実行され、処理S22では、処理S21aで特定された特徴量抽出部を学習モデルから削除し、新たな学習モデルを生成する特徴量抽出部の一部の削除処理が実行される。したがって、次のエポックでは、処理S12の機械学習で得られた学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで学習が実施される。これら処理S21aおよび処理S22それぞれについては、後に詳述する。
【0063】
そして、繰り返し回数max_iterの機械学習が実施されると、上述したように、処理S14が実施され、この処理S14では、学習モデル作成装置Daは、制御処理部4aによって、作成された学習モデルを出力し、本処理を終了する。
【0064】
一方、入力サンプルを分析する分析処理では、図5において、学習モデル作成装置Daは、制御処理部4aによって、前記削除対象の特定処理S21aを実行し、次に、前記特徴量抽出部の一部の削除処理S22を実行する。これによって当初の学習モデル(例えば機械学習後の学習モデル)より、冗長な特徴量抽出部を削除した新たな学習モデルが作成される。そして、学習モデル作成装置Daは、制御処理部4aの学習適用部42によって、この処理S22で作成された新たな学習モデルで対象サンプルを分析し(S31)、この分析結果を出力し(S32)、本処理を終了する。したがって、前記当初の学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで対象サンプルの分析が実施される。
【0065】
次に、前記削除対象の特定処理S21aおよび前記特徴量抽出部の一部の削除処理S22について、より具体的に説明する。
【0066】
図6において、学習モデル作成装置Daは、制御処理部4aによって、特定条件を取得する(S41)。前記特定条件は、その一例として、本実施形態では、前記冗長な特徴量抽出部として削除する特徴量抽出部の個数(削除設定個数)である。前記削除設定個数は、例えば数値であるいは特徴量抽出部の総数に対する割合で入力部1から入力され、取得される。前記冗長な特徴量抽出部を削除することによって生成された学習モデルに対する、演算コストの削減量と性能劣化とは、トレードオフの関係にあることから、処理S41で削除設定個数を設定できるように学習モデル作成装置Daを構成することで、ユーザは、このトレードオフの関係を勘案して削除設定個数を設定できる。
【0067】
続いて、学習モデル作成装置Daは、制御処理部4aによって、処理#111から処理#112までの各処理S42、S43、S44が特徴量抽出部の個数だけ繰り返し、その後、処理S45、処理S46および処理S47の各処理を順次に実施する。
【0068】
より具体的には、処理S42では、学習モデル作成装置Daは、制御処理部4aの特定部43aによって、学習モデルからk番目の特徴量抽出部のみを削除する。これによって新たな試行用の学習モデルKが生成される((試行用の学習モデルK)=(学習モデルからk番目の特徴量抽出部のみを削除した学習モデル))。前記学習モデルは、前記学習処理の場合では、図4に示す上述の処理S12で生成された学習モデルであり、前記分析処理の場合では、前記当初の学習モデルである。
【0069】
処理S42に続く処理S43では、学習モデル作成装置Daは、制御処理部4aの特定部43aによって、処理S42で生成した試行用の学習モデルKで教師データを分析(判定、分類)する分析処理を実施する。
【0070】
処理S43に続く処理S44では、学習モデル作成装置Daは、制御処理部4aの特定部43aによって、試行用の学習モデルKにおける寄与度を求め、kを1だけインクリメントし(k=k+1)、処理を処理S42に戻す。より具体的には、特定部43aは、処理S43で得られた分析結果(分類結果)と、前記教師データに対応する正解ラベルとを突き合わせることによって、試行用の学習モデルKの性能を評価する評価値を前記k番目の特徴量抽出部における寄与度として求める。k番目の特徴量抽出部のみの削除の前後において、前記評価値の劣化が小さいほど、前記寄与度も小さく、前記寄与度の小さい特徴量抽出部は、冗長な特徴量抽出部であると判定できる。前記評価値は、例えば分析処理の種類等により、ユーザが予め適宜に定義する。評価値ACは、例えば、1個のサンプルを2値のいずれかに分類する2値分類で正解ラベルが表される場合、教師データの総サンプル数がNであり、正しく分類できた正解のサンプル数がCである場合には、C/Nで表される(AC=C/N)。また例えば、1個のサンプルを多クラスに分類する多クラス分類で正解ラベルが表される場合には、評価値ACは、教師データの総サンプル数がNであり、正しく分類できた正解のサンプル数がCである場合には、C/Nで表される(AC=C/N)。なお、多クラス分類では、1個のサンプルに対し、各クラスの確率が出力され、最も高い確率を持つクラスが正解であれば、前記サンプルを正しく判別(分析、分類)できたとみなすケースだけでなく、例えば上位3以内の確率を持つクラスが正解であれば、前記サンプルを正しく判別(分析、分類)できたとみなすケースもあり、分析処理の種類に依る。また例えば、回帰問題では、評価値ACは、正解からのズレ量である誤差値で与えられる。
【0071】
そして、このような処理S42ないし処理S44の各処理を学習モデルにおける複数の特徴量抽出部それぞれについて実施することによって複数の特徴量抽出部それぞれにおける複数の寄与度が求められると、続く処理S45では、学習モデル作成装置Daは、制御処理部4aの特定部43aによって、寄与度の低い方から順に、前記複数の特徴量抽出部を並べる(ソートする)。これによって前記複数の特徴量抽出部に対する寄与度リストが生成される。その一例が図8に示されている。図8において、その横軸は、寄与度であり、各●印が特徴量抽出部を表している。
【0072】
処理S45に続く処理S46では、学習モデル作成装置Daは、制御処理部4aの特定部43aによって、削除対象の特徴量抽出部を特定する特定処理を実施する。寄与度が小さい特徴量抽出部は、学習モデルの性能に対する影響が小さく、冗長な特徴量抽出部であると推定できる。一方、寄与度が大きい特徴量抽出部(例えば図8において破線の囲み内の特徴量抽出部)は、学習モデルの性能に対する影響が大きく、冗長ではない、重要な特徴量抽出部であると推定できる。そこで、本実施形態では、特定部43aは、前記削除設定個数になるまで、最下位から順に特徴量抽出部を選定し、この選定した特徴量抽出部を前記冗長な特徴量抽出部として特定する。すなわち、特定部43aは、前記寄与度の低い特徴量抽出部から順に、前記入力部で受け付けた特定条件を満たしている間、前記冗長な特徴量抽出部を特定する。ユーザによって入力部1から前記削除設定個数として特徴量抽出部の総数に対するx%が入力された場合、最下位から順に図8に示す一点鎖線までの特徴量抽出部が選定され、前記冗長な特徴量抽出部として特定される。これによって学習モデルの性能を維持しつつ、削除可能な特徴量抽出部が特定できる。
【0073】
処理S46に続く処理S47では、学習モデル作成装置Daは、制御処理部4aのモデル改良部44によって、学習モデルから処理S46で特定部43aによって特定された特徴量抽出部を削除することによって新たな学習モデルを作成し、本処理を終了する。これによって削除した特徴量抽出部の個数だけサイズの小さい新たな学習モデルが作成できる。
【0074】
なお、学習適用部42が複数段の構成を持つCNNである場合、上述の処理S41ないし処理S47の各処理は、いずれの段(層)に対して実施されて良く、また、1個の段(層)に対して実施されて良く、また、複数の段(層)に対して実施されて良く、ユーザ(オペレータ)に適宜に設定される。効果的に演算コストを低減できる観点から、上述の処理S41ないし処理S47の各処理は、1段目(1層目)に対して実施されることが好ましい。
【0075】
以上説明したように、第1実施形態における学習モデル作成装置Da、ならびに、これに実装された学習モデル作成方法および学習モデル作成プログラムは、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、複数の特徴量抽出部の中から冗長な特徴量抽出部を特定し、この特定した特徴量抽出部を削除するので、学習モデルの性能劣化を抑制できる。そして、上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、学習中では、特徴量抽出部の削除によってより小さいサイズの新たな学習モデルで学習を進めるので、学習の演算コストを低減できる。また、上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、分析の際には、特徴量抽出部の削除によってより小さいサイズの新たな学習モデルで入力サンプルを分析するので、分析の演算コストを低減できる。したがって、上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、学習モデルの性能劣化を抑制しつつ、演算コストを低減できる。
【0076】
図9は、第1実施形態における学習モデル作成装置の効果を説明するための図である。一具体例では、図9に示すように、杉やもみの木等の樹木を写した複数の画像を教師データとしてCNNの学習モデルが従前の手法で作成されると、学習中、あるいは、学習後の学習モデルは、緑色に反応する特徴量抽出部A、右上がりのエッジに反応する特徴量抽出部B、左上がりのエッジに反応する特徴量抽出部Cおよび緑色に反応する特徴量抽出部Mを含む複数の特徴量抽出部を含む。そこで、第1実施形態における学習モデル作成装置Daによって前記教師データを用いて学習モデルを作成すると、特徴量抽出部Aと特徴量抽出部Mとは、一方が冗長な特徴量抽出部であるので、一方の特徴量抽出部が削除され、これによって、よりサイズの小さい学習モデルが作成され、他方の特徴量抽出部が残ることで、学習モデルの性能劣化が抑制される。
【0077】
また、他の一具体例では、次の環境で実験が実施された。この実験環境は、フレームワークが「caffe」であり、データセットが「The CIFAR-10 dataset」であり、入力画像名が「canis_familiaris_s_001129.png」であり、ネットワーク定義が「AlexNet」である。このような実験環境の下、特徴量抽出部を削除していないオリジナルな学習モデルを用いた場合(削除設定個数が0である場合)、すなわち、本実施形態の学習モデル作成装置Daで改良していない学習モデルを用いた場合では、正解クラスがdogクラスである場合において、分類結果は、58.83%がdogに分類され、23.91%がcatに分類され、7.92%がhorseに分類された。一方、このオリジナルな学習モデルが、本実施形態における学習モデル作成装置Daによって、削除設定個数を特徴量抽出部の総数に対する50%に設定し、AlexNetの第1層に対し前記冗長な特徴量抽出部を削除するように、改良された。なお、AlexNetの第1層における特徴量抽出部(カーネル)は、11×11サイズであり、その総数は、96個である。このように改良された学習モデルを用いた場合では、正解クラスがdogクラスである場合において、分類結果は、63.45%がdogに分類され、26.72%がcatに分類され、3.63%がhorseに分類された。これらを比較すると分かるように、特徴量抽出部が50%削除されても、正解のdogクラスに正しく分類できており、本実施形態における学習モデル作成装置Daは、学習モデルの性能劣化を抑制しつつ、特徴量抽出部の削除によってより小さいサイズの新たな学習モデルを作成できており、演算コストを低減できている。
【0078】
上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、削除設定個数の入力を受け付ける入力部1を備えるので、ユーザは、トレードオフの関係にある演算コストの削減量と性能劣化とを勘案して削除設定個数を設定できる。
【0079】
上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、改良タイミングの入力を受け付ける入力部1を備えるので、ユーザは、例えば、学習モデル作成装置Daを構成するハードウェアの処理能力、分析処理の種類、予測される学習の進捗具合等を勘案して前記タイミングを設定できる。
【0080】
上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を、寄与度の観点から適切に特定できる。上記学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムでは、寄与度の観点から特定するので、演算コストの削減を優先に前記冗長な特徴量抽出部が特定される。
【0081】
次に、別の実施形態について説明する。
【0082】
(第2実施形態)
図10は、第2実施形態において、差分二乗和による冗長削除処理を説明するためのである。
【0083】
第1実施形態における学習モデル作成装置Daは、前記寄与度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定したが、第2実施形態における学習モデル作成装置Dbは、学習モデルにおける複数の特徴量抽出部間における独立性の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定するものである。
【0084】
このような第2実施形態における学習モデル作成装置Dbは、例えば、図1に示すように、入力部1と、出力部2と、IF部3と、制御処理部4bと、記憶部5とを備える。これら第2実施形態における学習モデル作成装置Dbにおける入力部1、出力部2、IF部3および記憶部5は、それぞれ、第1実施形態における学習モデル作成装置Daにおける入力部1、出力部2、IF部3および記憶部5と同様であるので、その説明を省略する。
【0085】
制御処理部4bは、学習モデル作成装置Dbの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、機械学習の学習モデルを作成するための回路であり、例えば、CPUおよびその周辺回路を備えて構成される。制御処理部4bは、その制御処理プログラムが実行されることによって、制御部41、学習適用部42、特定部43bおよびモデル改良部44を機能的に備える。これら第2実施形態の制御処理部4bにおける制御部41、学習適用部42およびモデル改良部44は、それぞれ、第1実施形態の制御処理部4aにおける制御部41、学習適用部42およびモデル改良部44と同様であるので、その説明を省略する。
【0086】
特定部43bは、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記学習モデルにおける複数の特徴量抽出部の中から冗長な特徴量抽出部を特定するものである。本実施形態では、特定部43bは、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43bは、学習モデルにおける特徴量抽出部間における独立性の度合いを表す独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43bは、特徴量抽出部間で成分同士の差分を求め、この求めた差分の絶対値の和を前記独立度として求め、この求めた独立度に基づいて、前記独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する。より詳しくは、特定部43bは、まず、前記複数の特徴量抽出部それぞれについて、当該特徴量抽出部と前記複数の特徴量抽出部から当該特徴量抽出部を除いた残余の特徴量抽出部それぞれとの間で成分同士の差分を求める。次に、特定部43bは、この求めた各差分の二乗の和(各差分の二乗を全て累積した値)を、前記独立度として求める(独立度=差分二乗和(差分二乗累積値))。差分二乗和が小さいほど、独立度も小さく、前記独立度の小さい特徴量抽出部は、冗長な特徴量抽出部であると判定できる。その一例が図10に示されている。図10の横軸は、特徴量抽出部の一例であるカーネルKNの番号(kernel_num)を示し、その縦軸は、差分二乗和(sum of squares)、すなわち、独立度を示す。そして、特定部43bは、独立度(差分二乗和)の小さい方から順に、前記複数の特徴量抽出部を並べ、予め設定された削除設定個数になるまで、最下位から順に特徴量抽出部を選定し、この選定した特徴量抽出部を前記冗長な特徴量抽出部として特定する。
【0087】
このような第2実施形態における学習モデル作成装置Dbは、学習処理では、特定部43aによる削除対象の特定処理S21aに代え、特定部43bによる削除対象の特定処理S21bを実施する点を除き、図4を用いて上述した各処理を実施する。これによって前記冗長な特徴量抽出部を削除した学習モデルが作成される。
【0088】
一方、分析処理では、第2実施形態における学習モデル作成装置Dbは、特定部43aによる削除対象の特定処理S21aに代え、特定部43bによる削除対象の特定処理S21bを実施する点を除き、図5を用いて上述した各処理を実施する。これによって前記当初の学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで対象サンプルの分析が実施される。
【0089】
この削除対象の特定処理S21bでは、学習モデル作成装置Dbは、特定部43bによって、特徴量抽出部間で成分同士の差分を求め、この求めた差分の絶対値の和を、前記独立性の度合いを表す独立度として求め、この求めた独立度に基づいて、前記複数の特徴量抽出部間における独立性の低い特徴量抽出部から順に、前記削除設定個数になるまで(すなわち、前記入力部で受け付けた特定条件を満たしている間)、前記冗長な特徴量抽出部を特定する。
【0090】
このような第2実施形態における学習モデル作成装置Db、ならびに、これに実装された学習モデル作成方法および学習モデル作成プログラムは、第1実施形態における学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムと同様の作用効果を奏する。
【0091】
そして、上記学習モデル作成装置Db、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を、独立度の観点から適切に特定できる。上記学習モデル作成装置Db、学習モデル作成方法および学習モデル作成プログラムでは、独立度の観点から特定するので、演算コストの削減を優先に前記冗長な特徴量抽出部が特定される。
【0092】
次に、別の実施形態について説明する。
【0093】
(第3実施形態)
図11は、第3実施形態において、次元圧縮による冗長削除処理を説明するためのである。図11Aは、特徴量抽出部の機能をテキストで表した場合の学習モデルを示し、図11Bは、特徴量抽出部の成分をベクトルで表した場合の学習モデルを示し、図11Cは、2次元に圧縮した場合における各特徴量抽出部の分布を示す。
【0094】
第1実施形態における学習モデル作成装置Daは、前記寄与度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定したが、第3実施形態における学習モデル作成装置Dcは、学習モデルにおける複数の特徴量抽出部をグループ分けし、前記複数の特徴量抽出部から各グループを代表する特徴量抽出部を除いた残余の特徴量抽出部を、前記冗長な特徴量抽出部として特定するものである。
【0095】
このような第3実施形態における学習モデル作成装置Dcは、例えば、図1に示すように、入力部1と、出力部2と、IF部3と、制御処理部4cと、記憶部5とを備える。これら第3実施形態における学習モデル作成装置Dcにおける入力部1、出力部2、IF部3および記憶部5は、それぞれ、第1実施形態における学習モデル作成装置Daにおける入力部1、出力部2、IF部3および記憶部5と同様であるので、その説明を省略する。
【0096】
制御処理部4cは、学習モデル作成装置Dcの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、機械学習の学習モデルを作成するための回路であり、例えば、CPUおよびその周辺回路を備えて構成される。制御処理部4cは、その制御処理プログラムが実行されることによって、制御部41、学習適用部42、特定部43cおよびモデル改良部44を機能的に備える。これら第3実施形態の制御処理部4cにおける制御部41、学習適用部42およびモデル改良部44は、それぞれ、第1実施形態の制御処理部4aにおける制御部41、学習適用部42およびモデル改良部44と同様であるので、その説明を省略する。
【0097】
特定部43cは、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記学習モデルにおける複数の特徴量抽出部の中から冗長な特徴量抽出部を特定するものである。本実施形態では、特定部43cは、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43cは、前記学習モデルにおける複数の特徴量抽出部を、互いに類似する特徴量抽出部から成る複数のグループに分け、前記複数のグループそれぞれから、グループを代表する特徴量抽出部を代表特徴量抽出部として選択し、前記複数の特徴量抽出部から前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定することで、前記冗長な特徴量抽出部を特定する。より詳しくは、特定部43cは、まず、前記複数の特徴量抽出部をグループ分けするために、前記複数の特徴量抽出部間で距離を求める。距離が近い特徴量抽出部同士は、互いに類似する特徴量抽出部であると判定できる。前記距離は、特徴量抽出部の成分数に応じた次元で求められても良いが、本実施形態では、特徴量抽出部の次元を低減してから求められる。例えば、特定部43cは、前記複数の特徴量抽出部を主成分分析の手法を用いてその次元を低減する。一例では、図11Aに示す学習モデルの特徴量抽出部が図11Bに示すようにn次元の成分(n個の成分)から成る場合に、主成分分析の手法を用いて第1および第2主成分の2次元に圧縮され、図11Cに示すように、2次元に圧縮された複数の特徴量抽出部が求められる。次に、特定部43cは、低次元化された特徴量抽出部間で距離を求め、その距離が予め設定された所定の閾値(距離判定閾値)以内の特徴量抽出部をグループに纏める。図11Cに示す例では、複数の特徴量抽出部は、7個の第1ないし第7グループGPa~GPgに分けられている。次に、特定部43cは、前記複数のグループそれぞれから、グループを代表する特徴量抽出部を代表特徴量抽出部として選択する。図11Cに示す例では、特定部43cは、各グループGPそれぞれにつて、当該グループの重心位置を求め、この求めた重心位置に距離的に最も近い特徴量抽出部を代表特徴量抽出部として選択する。図11Cに示す例では、第1グループGPaでは、特徴量抽出部Aが代表特徴量抽出部として選択され、第2グループGPbでは、特徴量抽出部Bが代表特徴量抽出部として選択され、第3グループGPcでは、特徴量抽出部Cが代表特徴量抽出部として選択され、第4グループGPdでは、特徴量抽出部Dが代表特徴量抽出部として選択され、第5グループGPeでは、特徴量抽出部Eが代表特徴量抽出部として選択され、第6グループGPfでは、特徴量抽出部Fが代表特徴量抽出部として選択されている。次に、特定部43cは、前記複数の特徴量抽出部から前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定する。
【0098】
なお、第3実施形態では、削除設定個数が設定された場合に、グループ分け後のグループの総数が、特徴量抽出部の総数から削除設定個数を減算した個数となるように、前記距離判定閾値が調整される。これによって、特定部43cは、前記学習モデルにおける複数の特徴量抽出部を前記複数のグループに、前記複数の特徴量抽出部の総数から入力部1で受け付けた削除設定個数を減算した個数になるように、分ける。
【0099】
このような第3実施形態における学習モデル作成装置Dcは、学習処理では、特定部43aによる削除対象の特定処理S21aに代え、特定部43cによる削除対象の特定処理S21cを実施する点を除き、図4を用いて上述した各処理を実施する。これによって前記冗長な特徴量抽出部を削除した学習モデルが作成される。
【0100】
一方、分析処理では、第3実施形態における学習モデル作成装置Dcは、特定部43aによる削除対象の特定処理S21aに代え、特定部43cによる削除対象の特定処理S21cを実施する点を除き、図5を用いて上述した各処理を実施する。これによって前記当初の学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで対象サンプルの分析が実施される。
【0101】
この削除対象の特定処理S21cでは、学習モデル作成装置Dcは、特定部43cによって、前記学習モデルにおける複数の特徴量抽出部を、互いに類似する特徴量抽出部から成る複数のグループに分け、前記複数のグループそれぞれから、グループを代表する特徴量抽出部を代表特徴量抽出部として選択し、前記複数の特徴量抽出部から前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定する。
【0102】
このような第3実施形態における学習モデル作成装置Dc、ならびに、これに実装された学習モデル作成方法および学習モデル作成プログラムは、第1実施形態における学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムと同様の作用効果を奏する。
【0103】
そして、上記学習モデル作成装置Dc、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を、類似の観点から適切に特定できる。上記学習モデル作成装置Dc、学習モデル作成方法および学習モデル作成プログラムでは、類似の観点から特定するので、演算コストの削減を優先に前記冗長な特徴量抽出部が特定される。
【0104】
次に、別の実施形態について説明する。
【0105】
(第4実施形態)
図12は、第4実施形態における学習モデル作成装置に表示される入出力画面の一例を示す図である。
【0106】
第1ないし第3実施形態における学習モデル作成装置Da~Dcは、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定するが、第4実施形態における学習モデル作成装置Ddは、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定するものである。
【0107】
このような第4実施形態における学習モデル作成装置Ddは、例えば、図1に示すように、入力部1と、出力部2と、IF部3と、制御処理部4dと、記憶部5とを備える。これら第4実施形態における学習モデル作成装置Ddにおける入力部1、出力部2、IF部3および記憶部5は、それぞれ、学習モデルの性能の維持を優先する第1優先項目を入力部1がさらに受け付ける点を除き、第1実施形態における学習モデル作成装置Daにおける入力部1、出力部2、IF部3および記憶部5と同様であるので、その説明を省略する。
【0108】
入力部1は、本実施形態では、上述のように、学習モデルの性能の維持を優先する第1優先項目の入力をさらに受け付ける。前記第1優先項目は、本実施形態では、色情報を前記特徴量として抽出する第1特徴量抽出部(色情報抽出部)、エッジ情報を前記特徴量として抽出する第2特徴量抽出部(エッジ情報抽出部)、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部(ブラー情報抽出部)の中から選択され、前記特定する前記冗長な特徴量抽出部から除外される特徴量抽出部である。この選択される特徴量抽出部は、1個であって良く、あるいは、複数であって良く、あるいは、全てであって良い。前記第1優先項目は、前記特定条件の他の一例である。したがって、入力部1は、前記第1ないし第3特徴量抽出部の中から、前記特定する前記冗長な特徴量抽出部から除外する特徴量抽出部の入力を受け付ける。
【0109】
制御処理部4dは、学習モデル作成装置Ddの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、機械学習の学習モデルを作成するための回路であり、例えば、CPUおよびその周辺回路を備えて構成される。制御処理部4dは、その制御処理プログラムが実行されることによって、制御部41、学習適用部42、特定部43dおよびモデル改良部44を機能的に備える。これら第4実施形態の制御処理部4dにおける制御部41、学習適用部42およびモデル改良部44は、それぞれ、第1実施形態の制御処理部4aにおける制御部41、学習適用部42およびモデル改良部44と同様であるので、その説明を省略する。
【0110】
特定部43dは、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記学習モデルにおける複数の特徴量抽出部の中から冗長な特徴量抽出部を特定するものである。本実施形態では、特定部43dは、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記特定する前記冗長な特徴量抽出部から除外することによって、前記冗長な特徴量抽出部を特定する。すなわち、特定部43dは、前記冗長な特徴量抽出部として特定された特徴量抽出部が、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部である場合には、前記冗長な特徴量抽出部として特定しない。より詳しくは、例えば、前記寄与度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、この寄与度順に並ぶ複数の特徴量抽出部から外され、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を外して寄与度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定する。また例えば、前記独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、この独立度順に並ぶ複数の特徴量抽出部から外され、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を外して独立度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定する。また例えば、前記学習モデルにおける複数の特徴量抽出部を、互いに類似する特徴量抽出部から成る複数のグループに分け、前記複数のグループそれぞれから、前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、この残余の特徴量抽出部から外され、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を外して残余の特徴量抽出部を特定する。
【0111】
このような第4実施形態における学習モデル作成装置Ddは、学習処理では、特定部43aによる削除対象の特定処理S21aに代え、特定部43dによる削除対象の特定処理S21dを実施する点を除き、図4を用いて上述した各処理を実施する。これによって前記冗長な特徴量抽出部を削除した学習モデルが作成される。
【0112】
一方、分析処理では、第4実施形態における学習モデル作成装置Ddは、特定部43aによる削除対象の特定処理S21aに代え、特定部43dによる削除対象の特定処理S21dを実施する点を除き、図5を用いて上述した各処理を実施する。これによって前記当初の学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで対象サンプルの分析が実施される。
【0113】
この削除対象の特定処理S21dでは、学習モデル作成装置Ddは、特定部43dによって、前記第1優先項目を入力部1で受け付け、入力部1で受け付けた前記第1優先項目の特徴量抽出部に該当する特徴量抽出部を、前記特定する前記冗長な特徴量抽出部から除外することによって、前記冗長な特徴量抽出部を特定する。
【0114】
この第1優先項目の入力は、例えば、図12に示す入出力画面を用いて実施される。図12に示す入出力画面7は、前記特定条件の一例である前記削除設定個数を入力するための削除設定個数入力領域71と、前記特定条件の他の一例である前記第1優先項目を入力するための優先項目入力領域72と、前記冗長な特徴量抽出部を削除する前のオリジナルな学習モデルを特徴量抽出部で表示するためのオリジナル学習モデル表示領域73と、前記冗長な特徴量抽出部を削除した後の学習モデルを特徴量抽出部で表示するための削除後学習モデル表示領域74とを備える。
【0115】
前記削除設定個数領域71は、図12に示す例では、前記削除設定個数を、特徴量抽出部の総数に対する割合で入力できるように構成されている。より具体的には、前記削除設定個数領域71は、0%から100%までの割合を表すスケールバー711と、スケールバー711上の位置を変更することによって前記割合を指定する割合指定カーソル712と、割合カーソルで指定されている割合を数値で表示する指定割合数値表示領域713とを備える。図12に示す例では、割合指定カーソル712によって、前記削除設定個数は、特徴量抽出部の総数に対し20%に相当する個数である。
【0116】
前記優先項目入力領域72は、図12に示す例では、前記特定する特徴量抽出部からブラー情報を前記特徴量として抽出する第3特徴量抽出部を除外するか除外しないかを指定するための第1チェックボックス721と、前記特定する特徴量抽出部から色情報を前記特徴量として抽出する第1特徴量抽出部を除外するか除外しないかを指定するための第2チェックボックス722と、前記特定する特徴量抽出部からエッジ情報を前記特徴量として抽出する第2特徴量抽出部を除外するか除外しないかを指定するための第3チェックボックス723とを備える。第1チェックボックス721がチェックされると、前記特定する特徴量抽出部からブラー情報を前記特徴量として抽出する第3特徴量抽出部が除外され、したがって、ブラー情報は消さない(削除されない)。第2チェックボックス722がチェックされると、前記特定する特徴量抽出部から色情報を前記特徴量として抽出する第1特徴量抽出部が除外され、したがって、色情報は消さない(削除されない)。第3チェックボックス723がチェックされると、前記特定する特徴量抽出部からエッジ情報を前記特徴量として抽出する第2特徴量抽出部が除外され、したがって、エッジ情報は消さない(削除されない)。図12に示す例では、第3チェックボックス723のみがチェックされている。
【0117】
オリジナル学習モデル表示領域73には、図12に示す例では、96個の特徴量抽出部を持つオリジナルな学習モデルが表示され、削除後学習モデル表示領域74には、96個の特徴量抽出部のうちの19個の特徴量抽出部が前記冗長な特徴量抽出部として削除された削除後の学習モデルが表示されている。この前記冗長な特徴量抽出部として削除された特徴量抽出部は、図12では、黒塗りで示されている。このような入出力画面7は、オリジナル学習モデル表示領域73と削除後学習モデル表示領域74とを備えるので、ユーザは、オリジナル学習モデル表示領域73および削除後学習モデル表示領域74それぞれに表示された各特徴量抽出器を見較べながら、前記トレードオフの関係を勘案し、削除設定個数を設定できる。
【0118】
なお、第1ないし第3実施形態における学習モデル作成装置Da~Dcでは、前記優先項目入力領域72を備えない入出力画面7が用いられ、前記削除設定個数が学習モデル作成装置Da~Dcに入力され、設定されて良い。また、入出力画面7において、第1ないし第3チェックボックス721~723の少なくともいずれか1つがチェックされたか否かで、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部を特定するか、演算コストの削減を優先に前記冗長な特徴量抽出部を特定するかの指示の入力が判定されてもよい。
【0119】
このような第4実施形態における学習モデル作成装置Dd、ならびに、これに実装された学習モデル作成方法および学習モデル作成プログラムは、第1実施形態における学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムと同様の作用効果を奏する。
【0120】
そして、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムは、入力部1で受け付けた第1優先項目に対応する性能を維持でき、ユーザの意図に沿った、学習モデルの目的に応じた重要な特徴量抽出部を残して学習モデルの性能を維持できる。入力部1で第1特徴量抽出部(色情報抽出部)を除外するように受け付けた場合には、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムは、第1特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第1特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムでは、第1特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。入力部1で第2特徴量抽出部(エッジ情報抽出部)を除外するように受け付けた場合には、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムは、第2特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第2特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムでは、第2特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。入力部1で第3特徴量抽出部(ブラー情報抽出部)を除外するように受け付けた場合には、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムは、第3特徴量抽出部を除外して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第3特徴量抽出部を残すことができる。この場合では、上記学習モデル作成装置Dd、学習モデル作成方法および学習モデル作成プログラムでは、第3特徴量抽出部を残すので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。
【0121】
図13は、第4実施形態における学習モデル作成装置の効果を説明するための図である。一具体例では、入力画像の色の差は、着目せずに、エッジ情報が重要である文字認識用の学習モデルを作成する場合、図12に示すように、第3チェックボックス723がチェックされる。これによって、図13に示すように、オリジナルな学習モデルが、黄色に反応する特徴量抽出部A、右上がりのエッジに反応する特徴量抽出部B、左上がりのエッジに反応する特徴量抽出部C、縦方向のエッジに反応する特徴量抽出部D、横方向のエッジに反応する特徴量抽出部E、水色に反応する特徴量抽出部F、赤色に反応する特徴量抽出部Gおよび曲線に反応する特徴量抽出部Mを含む場合、エッジ情報に反応する特徴量抽出部が前記特定する前記冗長な特徴量抽出部から外され、黄色に反応する特徴量抽出部A、水色に反応する特徴量抽出部Fおよび赤色に反応する特徴量抽出部Gが削除され、右上がりのエッジに反応する特徴量抽出部B、左上がりのエッジに反応する特徴量抽出部C、縦方向のエッジに反応する特徴量抽出部D、横方向のエッジに反応する特徴量抽出部Eおよび曲線に反応する特徴量抽出部Mを含む削除後の学習モデルが作成される。これによって、エッジに反応する特徴量抽出部が残ることで、目的に応じた学習モデルが作成される。
【0122】
次に、別の実施形態について説明する。
【0123】
(第5実施形態)
第1ないし第3実施形態における学習モデル作成装置Da~Dcは、演算コストの削減を優先に、前記冗長な特徴量抽出部を特定するが、第5実施形態における学習モデル作成装置Deは、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定するものである。
【0124】
このような第5実施形態における学習モデル作成装置Deは、例えば、図1に示すように、入力部1と、出力部2と、IF部3と、制御処理部4eと、記憶部5とを備える。これら第5実施形態における学習モデル作成装置Deにおける入力部1、出力部2、IF部3および記憶部5は、それぞれ、学習モデルの性能の維持を優先する優先項目を入力部1がさらに受け付ける点を除き、第1実施形態における学習モデル作成装置Daにおける入力部1、出力部2、IF部3および記憶部5と同様であるので、その説明を省略する。
【0125】
入力部1は、本実施形態では、上述のように、学習モデルの性能の維持を優先する第2優先項目の入力をさらに受け付ける。前記第2優先項目は、本実施形態では、色情報を前記特徴量として抽出する第1特徴量抽出部(色情報抽出部)、エッジ情報を前記特徴量として抽出する第2特徴量抽出部(エッジ情報抽出部)、および、ブラー情報を前記特徴量として抽出する第3特徴量抽出部(ブラー情報抽出部)の中から選択され、前記冗長な特徴量抽出部として優先的に特定する特徴量抽出部である。この選択される特徴量抽出部は、1個であって良く、あるいは、複数であって良く、あるいは、全てであって良い。前記第2優先項目は、前記特定条件の他の一例である。したがって、入力部1は、前記第1ないし第3特徴量抽出部の中から、前記冗長な特徴量抽出部として優先的に特定する特徴量抽出部の入力を受け付ける。
【0126】
制御処理部4eは、学習モデル作成装置Deの各部1~3、5を当該各部の機能に応じてそれぞれ制御し、機械学習の学習モデルを作成するための回路であり、例えば、CPUおよびその周辺回路を備えて構成される。制御処理部4eは、その制御処理プログラムが実行されることによって、制御部41、学習適用部42、特定部43eおよびモデル改良部44を機能的に備える。これら第5実施形態の制御処理部4eにおける制御部41、学習適用部42およびモデル改良部44は、それぞれ、第1実施形態の制御処理部4aにおける制御部41、学習適用部42およびモデル改良部44と同様であるので、その説明を省略する。
【0127】
特定部43eは、学習中の際に、または、学習後の学習モデルを用いて入力サンプルを分析する際に、前記学習モデルにおける複数の特徴量抽出部の中から冗長な特徴量抽出部を特定するものである。本実施形態では、特定部43eは、学習モデルの性能の維持を優先に、前記冗長な特徴量抽出部を特定する。より具体的には、特定部43eは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を、前記冗長な特徴量抽出部として優先的に特定することによって、前記冗長な特徴量抽出部を特定する。すなわち、特定部43eは、前記学習モデルにおける特徴量抽出部が、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部である場合には、前記冗長な特徴量抽出部として優先的に特定する。より詳しくは、例えば、前記寄与度の低い特徴量抽出部から順に前記冗長な特徴量抽出部を特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、この寄与度順に並ぶ複数の特徴量抽出部から外されて前記冗長な特徴量抽出部として優先的に特定され、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を外して寄与度の低い特徴量抽出部から順に、削除設定個数から前記冗長な特徴量抽出部として優先的に特定された特徴量抽出部の個数だけ差し引いた個数で、前記冗長な特徴量抽出部を特定する。また例えば、前記独立度の低い特徴量抽出部から順に、前記冗長な特徴量抽出部を特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、この独立度順に並ぶ複数の特徴量抽出部から外されて前記冗長な特徴量抽出部として優先的に特定され、特定部43dは、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部を外して独立度の低い特徴量抽出部から順に、削除設定個数から前記冗長な特徴量抽出部として優先的に特定された特徴量抽出部の個数だけ差し引いた個数で、前記冗長な特徴量抽出部を特定する。また例えば、前記学習モデルにおける複数の特徴量抽出部を、互いに類似する特徴量抽出部から成る複数のグループに分け、前記複数のグループそれぞれから、前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定する場合、入力部1で受け付けた特徴量抽出部に該当する特徴量抽出部は、前記グループ分け前に、複数の特徴量抽出部から外されて前記冗長な特徴量抽出部として優先的に特定され、特定部43dは、この残余の特徴量抽出部を、互いに類似する特徴量抽出部から成る複数のグループに分け、前記複数のグループそれぞれから、前記代表特徴量抽出部を除く残余の特徴量抽出部を前記冗長な特徴量抽出部として特定する。削除設定個数が設定された場合、削除設定個数から、前記冗長な特徴量抽出部として優先的に特定された特徴量抽出部の個数が減算され、新たな削除設定個数が求められ、グループ分け後のグループの総数が、特徴量抽出部の総数からこの新たな削除設定個数を減算した個数となるように、前記距離判定閾値が調整される。
【0128】
このような第5実施形態における学習モデル作成装置Deは、学習処理では、特定部43aによる削除対象の特定処理S21aに代え、特定部43eによる削除対象の特定処理S21eを実施する点を除き、図4を用いて上述した各処理を実施する。これによって前記冗長な特徴量抽出部を削除した学習モデルが作成される。
【0129】
一方、分析処理では、第5実施形態における学習モデル作成装置Deは、特定部43aによる削除対象の特定処理S21aに代え、特定部43eによる削除対象の特定処理S21eを実施する点を除き、図5を用いて上述した各処理を実施する。これによって前記当初の学習モデルより、冗長な特徴量抽出部を削除した新たな学習モデルで対象サンプルの分析が実施される。
【0130】
この削除対象の特定処理S21eでは、学習モデル作成装置Ddは、特定部43dによって、前記第2優先項目を入力部1で受け付け、入力部1で受け付けた前記第2優先項目の特徴量抽出部に該当する特徴量抽出部を、前記冗長な特徴量抽出部として優先的に特定することによって、前記冗長な特徴量抽出部を特定する。
【0131】
このような第5実施形態における学習モデル作成装置De、ならびに、これに実装された学習モデル作成方法および学習モデル作成プログラムは、第1実施形態における学習モデル作成装置Da、学習モデル作成方法および学習モデル作成プログラムと同様の作用効果を奏する。
【0132】
そして、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、学習モデルの使用用途に応じてノイズとなる特徴量抽出部を第2優先項目に指定することで、学習モデルの使用用途に応じた性能を維持でき、ユーザの意図に沿った、学習モデルの目的に応じた重要な特徴量抽出部を残して学習モデルの性能を維持できる。入力部1で第1特徴量抽出部(色情報抽出部)を優先的に特定するように受け付けた場合には、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、第1特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第1特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第1特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第1特徴量抽出部を削除(除外)できる。この場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムでは、第1特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。入力部1で第2特徴量抽出部(エッジ情報抽出部)を優先的に特定するように受け付けた場合には、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、第2特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第2特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第2特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第2特徴量抽出部を削除できる。この場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムでは、第2特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。入力部1で第3特徴量抽出部(ブラー情報抽出部)を優先的に特定するように受け付けた場合には、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、第3特徴量抽出部を優先して前記冗長な特徴量抽出部を特定するので、前記冗長な特徴量抽出部を削除後の学習モデルに、第3特徴量抽出部を含ませなくできる。特に、学習モデルの使用用途の観点から第3特徴量抽出部がノイズとなる場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムは、前記冗長な特徴量抽出部を削除後の学習モデルから、ノイズとなる第3特徴量抽出部を削除できる。この場合では、上記学習モデル作成装置De、学習モデル作成方法および学習モデル作成プログラムでは、第3特徴量抽出部が優先的に削除されるので、学習モデルの性能の維持を優先に前記冗長な特徴量抽出部が特定される。
【0133】
なお、上述の実施形態において、削除設定個数は、次のように設定されても良い。オリジナルな学習モデルにおける削除対象の特徴量抽出部の総量がb[Byte]であり、1[Byte]の特徴量抽出部を処理するために要する演算ステップ数がS[Step/Byte]であり、その1[step]を処理するために要する処理時間がt[s/step]であり、そして、実適用上の要求処理時間がRt[s]である場合に、学習モデルに要求される精度を勘案して、削除設定個数は、削除率αで、α×b×S×t≦Rtとなるように、設定される。
【0134】
本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。
【符号の説明】
【0135】
Da、Db、Dc、Dd、De 学習モデル作成装置
1 入力部
2 出力部
3 インターフェース部(IF部)
4a、4b、4c、4d、4e 制御処理部
5 記憶部
41 制御部
42 学習適用部
43a、43b、43c、43d、43e 特定部
44 モデル改良部
51 教師セット記憶部
52 対象サンプル記憶部
511 教師データ記憶部
512 正解ラベル記憶部
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13