IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 本田技研工業株式会社の特許一覧

特開2024-112005学習装置、学習方法、およびプログラム
<>
  • 特開-学習装置、学習方法、およびプログラム 図1
  • 特開-学習装置、学習方法、およびプログラム 図2
  • 特開-学習装置、学習方法、およびプログラム 図3
  • 特開-学習装置、学習方法、およびプログラム 図4
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024112005
(43)【公開日】2024-08-20
(54)【発明の名称】学習装置、学習方法、およびプログラム
(51)【国際特許分類】
   G06T 7/00 20170101AFI20240813BHJP
【FI】
G06T7/00 350B
【審査請求】未請求
【請求項の数】9
【出願形態】OL
(21)【出願番号】P 2023016805
(22)【出願日】2023-02-07
(71)【出願人】
【識別番号】000005326
【氏名又は名称】本田技研工業株式会社
(74)【代理人】
【識別番号】100165179
【弁理士】
【氏名又は名称】田▲崎▼ 聡
(74)【代理人】
【識別番号】100126664
【弁理士】
【氏名又は名称】鈴木 慎吾
(74)【代理人】
【識別番号】100154852
【弁理士】
【氏名又は名称】酒井 太一
(74)【代理人】
【識別番号】100194087
【弁理士】
【氏名又は名称】渡辺 伸一
(72)【発明者】
【氏名】モレ アミット ポーパット
(72)【発明者】
【氏名】バット スリニヴァサ ディヴァカル
【テーマコード(参考)】
5L096
【Fターム(参考)】
5L096BA20
5L096CA01
5L096GA51
5L096HA13
5L096JA28
5L096KA04
5L096KA15
(57)【要約】
【課題】画像に含まれる物体の種別をクラス分類する機械学習モデルを簡易的かつ高精度に学習すること。
【解決手段】複数のピクセルを含む画像を入力として、それぞれの前記ピクセルが物体の種別を表すクラスに該当する確度を出力する機械学習モデルを学習する学習装置であって、正解クラスに該当する前記確度の出力値を減少させると共に、前記正解クラス以外のクラスに該当する前記確度の出力値を増加させる傾向で、所定パラメータを用いて前記出力値を調整する調整部と、調整された前記出力値に基づいて、前記機械学習モデルを学習する学習部と、を備える、学習装置。
【選択図】図1
【特許請求の範囲】
【請求項1】
複数のピクセルを含む画像を入力として、それぞれの前記ピクセルが物体の種別を表すクラスに該当する確度を出力する機械学習モデルを学習する学習装置であって、
正解クラスに該当する前記確度の出力値を減少させると共に、前記正解クラス以外のクラスに該当する前記確度の出力値を増加させる傾向で、所定パラメータを用いて前記出力値を調整する調整部と、
調整された前記出力値に基づいて、前記機械学習モデルを学習する学習部と、を備える、
学習装置。
【請求項2】
前記調整部は、前記正解クラスに該当する前記確度の出力値から正の定数である前記所定パラメータを減算すると共に、前記正解クラス以外のクラスに該当する前記確度の出力値に前記所定パラメータを加算することによって、前記出力値を調整する、
請求項1に記載の学習装置。
【請求項3】
前記調整部は、複数の前記クラスの各々が前記正解クラスである場合に、前記正解クラスの種別に応じて異なる正の定数を前記所定パラメータとして設定し、
前記調整部は、前記正解クラスに該当する前記確度の出力値から前記所定パラメータを減算すると共に、前記正解クラス以外のクラスに該当する前記確度の出力値に前記所定パラメータを加算することによって、前記出力値を調整する、
請求項1に記載の学習装置。
【請求項4】
前記調整部は、複数の前記クラスの各々が前記正解クラスである場合に前記正解クラスの種別に応じて、かつ前記正解クラス以外のクラスの各々について異なる正の定数を前記所定パラメータとして設定し、
前記調整部は、前記正解クラスに該当する前記確度の出力値から前記所定パラメータを減算する一方、前記正解クラス以外のクラスに該当する前記確度の出力値に前記所定パラメータを加算することによって、前記出力値を調整する、
請求項1に記載の学習装置。
【請求項5】
前記調整部は、複数の前記クラスのうち、意味的類似性が閾値以上であると判定した2以上のクラスに対して、同一の前記所定パラメータを設定する、
請求項1に記載の学習装置。
【請求項6】
前記調整部は、複数の前記クラスのうち、前記学習部が前記正解クラスとして学習に用いる学習データ数の差が閾値以内であると判定した2以上のクラスに対して、同一の前記所定パラメータを設定する、
請求項1に記載の学習装置。
【請求項7】
前記調整部は、複数の前記クラスのうち、前記機械学習モデルが出力する前記確度の性能指標の差が閾値以内であると判定した2以上のクラスに対して、同一の前記所定パラメータを設定する、
請求項1に記載の学習装置。
【請求項8】
コンピュータが、
複数のピクセルを含む画像を入力として、それぞれの前記ピクセルが物体の種別を表すクラスに該当する確度を出力する機械学習モデルを学習する学習方法であって、
正解クラスに該当する前記確度の出力値を減少させると共に、前記正解クラス以外のクラスに該当する前記確度の出力値を増加させる傾向で、所定パラメータを用いて前記出力値を調整し、
調整された前記出力値に基づいて、前記機械学習モデルを学習する、
学習方法。
【請求項9】
コンピュータに、
複数のピクセルを含む画像を入力として、それぞれの前記ピクセルが物体の種別を表すクラスに該当する確度を出力する機械学習モデルを学習させるプログラムであって、
正解クラスに該当する前記確度の出力値を減少させると共に、前記正解クラス以外のクラスに該当する前記確度の出力値を増加させる傾向で、所定パラメータを用いて前記出力値を調整させ、
調整された前記出力値に基づいて、前記機械学習モデルを学習させる、
プログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習装置、学習方法、およびプログラムに関する。
【背景技術】
【0002】
従来、画像を入力として、当該画像に含まれる物体の種別をクラス分類する機械学習モデルを学習する方法が知られている。例えば、非特許文献1には、学習データの正解クラスに対応するロジットの勾配と、非正解クラスに対応するロジットの勾配とをパラメータを用いてスケーリングすることによって、ロングテールの物体検出を向上させる技術が記載されている。さらに、非特許文献2には、学習データのサンプル数が少ないクラスに対応するロジットの勾配を選択する一方、学習データのサンプル数が多いクラスに対応するロジットの勾配を無視することによって、サンプル数が少ないクラスの認識精度を向上せる技術が記載されている。
【先行技術文献】
【非特許文献】
【0003】
【非特許文献1】Tan, Jingru, et al. "Equalization loss v2: A new gradient balance approach for long-tailed object detection." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2021.
【非特許文献2】Tan, Jingru, et al. "Equalization loss for long-tailed object recognition." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020.
【発明の概要】
【発明が解決しようとする課題】
【0004】
しかしながら、非特許文献1に記載の技術は、学習中、勾配に関する情報(例えば、勾配の大きさ)をモニタリングすることが要求され、処理が煩雑である場合があった。さらに、非特許文献2に記載の技術は、特定のロジットの勾配を無視するものであるため、ロジットの勾配が無視されたクラスの認識精度が劣化する場合があった。
【0005】
本発明は、このような事情を考慮してなされたものであり、画像に含まれる物体の種別をクラス分類する機械学習モデルを簡易的かつ高精度に学習することができる学習装置、学習方法、およびプログラムを提供することを目的の一つとする。
【課題を解決するための手段】
【0006】
この発明に係る学習装置、学習方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る学習装置は、複数のピクセルを含む画像を入力として、それぞれの前記ピクセルが物体の種別を表すクラスに該当する確度を出力する機械学習モデルを学習する学習装置であって、正解クラスに該当する前記確度の出力値を減少させると共に、前記正解クラス以外のクラスに該当する前記確度の出力値を増加させる傾向で、所定パラメータを用いて前記出力値を調整する調整部と、調整された前記出力値に基づいて、前記機械学習モデルを学習する学習部と、を備えるものである。
【0007】
(2):上記(1)の態様において、前記調整部は、前記正解クラスに該当する前記確度の出力値から正の定数である前記所定パラメータを減算すると共に、前記正解クラス以外のクラスに該当する前記確度の出力値に前記所定パラメータを加算することによって、前記出力値を調整するものである。
【0008】
(3):上記(1)の態様において、前記調整部は、複数の前記クラスの各々が前記正解クラスである場合に、前記正解クラスの種別に応じて異なる正の定数を前記所定パラメータとして設定し、前記調整部は、前記正解クラスに該当する前記確度の出力値から前記所定パラメータを減算すると共に、前記正解クラス以外のクラスに該当する前記確度の出力値に前記所定パラメータを加算することによって、前記出力値を調整するものである。
【0009】
(4):上記(1)の態様において、前記調整部は、複数の前記クラスの各々が前記正解クラスである場合に前記正解クラスの種別に応じて、かつ前記正解クラス以外のクラスの各々について異なる正の定数を前記所定パラメータとして設定し、前記調整部は、前記正解クラスに該当する前記確度の出力値から前記所定パラメータを減算する一方、前記正解クラス以外のクラスに該当する前記確度の出力値に前記所定パラメータを加算することによって、前記出力値を調整するものである。
【0010】
(5):上記(1)の態様において、前記調整部は、複数の前記クラスのうち、意味的類似性が閾値以上であると判定した2以上のクラスに対して、同一の前記所定パラメータを設定するものである。
【0011】
(6):上記(1)の態様において、前記調整部は、複数の前記クラスのうち、前記学習部が前記正解クラスとして学習に用いる学習データ数の差が閾値以内であると判定した2以上のクラスに対して、同一の前記所定パラメータを設定するものである。
【0012】
(7):上記(1)の態様において、前記調整部は、複数の前記クラスのうち、前記機械学習モデルが出力する前記確度の性能指標の差が閾値以内であると判定した2以上のクラスに対して、同一の前記所定パラメータを設定するものである。
【0013】
(8):この発明の別の態様に係る学習方法は、コンピュータが、複数のピクセルを含む画像を入力として、それぞれの前記ピクセルが物体の種別を表すクラスに該当する確度を出力する機械学習モデルを学習する学習方法であって、正解クラスに該当する前記確度の出力値を減少させると共に、前記正解クラス以外のクラスに該当する前記確度の出力値を増加させる傾向で、所定パラメータを用いて前記出力値を調整し、調整された前記出力値に基づいて、前記機械学習モデルを学習するものである。
【0014】
(9):この発明の別の態様に係るプログラムは、コンピュータに、複数のピクセルを含む画像を入力として、それぞれの前記ピクセルが物体の種別を表すクラスに該当する確度を出力する機械学習モデルを学習させるプログラムであって、正解クラスに該当する前記確度の出力値を減少させると共に、前記正解クラス以外のクラスに該当する前記確度の出力値を増加させる傾向で、所定パラメータを用いて前記出力値を調整させ、調整された前記出力値に基づいて、前記機械学習モデルを学習させるものである。
【発明の効果】
【0015】
(1)~(9)によれば、画像に含まれる物体の種別をクラス分類する機械学習モデルを簡易的かつ高精度に学習することができる。
【図面の簡単な説明】
【0016】
図1】本実施形態に係る学習装置100の構成を示す図である。
図2】学習データ130Aの構成の一例を示す図である。
図3】調整部110と学習部120とによって実行される機械学習の概要を説明するための図である。
図4】本実施形態に係る学習装置100によって実行される処理の流れの一例を示すフローチャートである。
【発明を実施するための形態】
【0017】
以下、図面を参照し、本発明の学習装置、学習方法、およびプログラムの実施形態について説明する。
【0018】
[構成]
図1は、本実施形態に係る学習装置100の構成を示す図である。学習装置100は、複数のピクセルを含む画像を入力として、それぞれのピクセルが物体の種別を表すクラスに該当する確度を出力する機械学習モデルを学習する情報処理装置である。学習装置100は、例えば、調整部110と、学習部120と、記憶部130と、を備える。調整部110と、学習部120は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め学習装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで学習装置100のHDDやフラッシュメモリにインストールされてもよい。記憶部130は、例えば、学習データ130Aと機械学習モデル130Bとを記憶する。記憶部130は、例えば、RAM、フラッシュメモリ、SDカード等によって実現される。
【0019】
図2は、学習データ130Aの構成の一例を示す図である。学習データ130Aは、例えば、一以上の画像IMのピクセル(ピクセル群)に対して、当該ピクセルによって示される物体の種別を表すクラスが正解クラスとして対応付けられたものである。例えば、図2の場合、画像IMは、四輪車を表すピクセルP1と、二輪車を表すピクセルP2とを含む。このとき、ピクセルP1は、例えば、四輪車を表すクラスの成分のみが1にセットされ、他クラスの成分が0にセットされたベクトルに対応付けられることによって、四輪車クラスを正解クラスとする学習データ130Aが得られる。また、例えば、ピクセルP2は、二輪車を示すクラスの成分のみが1にセットされ、他のクラスの成分が0にセットされたベクトルに対応付けられることによって、二輪車クラスを正解クラスとする学習データ130Aが得られる。記憶部130は、これらピクセルと正解クラスとの対応関係を学習データ130Aとして記憶する。
【0020】
学習データ130Aは、例えば、学習装置100の管理者や作業者が、自身の端末上で、事前に画像IMの各ピクセルと正解クラスとを指定することによって生成され、記憶部130に記憶されるものである。代替的に、学習装置100は、学習部120による学習の実行タイミングで、外部サーバに記憶された学習データ130Aを、ネットワークを介して記憶部130にダウンロードするものであってもよい。
【0021】
機械学習モデル130Bは、画像IMのピクセルを入力として、当該ピクセルが物体の種別を表すクラスに該当する確度(ロジット)を出力する機械学習モデルである。ここで、確度とは、画像IMのピクセルが物体の種別を表すクラスに該当する確率を意味し、より一般的に、画像IMのピクセルが物体の種別を表すクラスに該当する確率に相関する値であってもよい。機械学習モデル130Bは、例えば、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)であり、入力したピクセルの特徴量を抽出することによって、当該ピクセルが各クラスに該当する確度を出力する。
【0022】
[機械学習の概要]
図3は、調整部110と学習部120とによって実行される機械学習の概要を説明するための図である。図3において、Cは、分類対象となるクラスの総数を表し、Z1~Zは、機械学習モデル130Bによって出力されたロジットを表す。従来技術では、出力された各ロジットをソフトマックス関数に代入することによって、0~1の値に正規化した確率値に変換し、変換された確率値と正解ベクトルとの間の誤差を、クロスエントロピー誤差Lなどの誤差関数を用いて算出し、算出された誤差を最小化するように、例えば、誤差逆伝播法などの手法を用いて機械学習モデルを学習していた。その場合、学習が進むにつれて、機械学習モデルが出力するロジットは、正解クラスと非正解クラスの双方について飽和するようになり、勾配の大きさが低減する傾向にあった(勾配消失問題)。その結果、機械学習モデルの学習速度が遅くなり、場合によっては、機械学習モデルの学習に失敗することがあった。
【0023】
このような事情を背景にして、図3に示す通り、調整部110は、機械学習モデル130Bによって出力されたロジットZ1~Zに、それぞれペナルティΔ1~Δを加算して、ペナルティを受けた更新ロジットZ’1~Z’を算出する。次に、学習部120は、算出した更新ロジットZ’1~Z’をソフトマックス関数に代入して、ペナルティを受けた確率値P’1~P’を算出し、算出された確率値P’1~P’と正解ベクトルとの間のクロスエントロピー誤差Lを最小化するように、例えば、誤差逆伝播法などの手法を用いて機械学習モデル130Bを学習する。このように、ロジットZ1~ZにペナルティΔ1~Δを加算して学習を行うことにより、以下で説明する通り、ペナルティを加算しない場合に比して、勾配の絶対値が増大し、勾配消失問題を解決することができる。ペナルティは、「所定パラメータ」の一例である。
【0024】
なお、本実施形態では、一例として、画像に含まれるピクセルの多値クラス分類について説明しているため、図3ではソフトマックス関数が適用されている。しかし、本発明はそのような構成に限定されず、画像に含まれるピクセルの二値分類を行う場合には、図3のソフトマックス関数に代えて、シグモイド関数が適用されてもよい。さらに、その場合、クロスエントロピー誤差Lは、ソフトマックスクロスエントロピー誤差Lに代えて、バイナリークロスエントロピー誤差Lが算出されてもよい。また、例えば、クロスエントロピー誤差Lに代えて、FOCAL Loss(FL)が誤差関数として適用されてもよい。
【0025】
[ペナルティの設定]
調整部110によるペナルティΔ1~Δの設定方法について詳細に説明する。調整部110は、例えば、ペナルティΔ1~Δとして、単一の正の定数Δを設定してもよい。この場合、調整部110は、以下の式(1)に示す通り、正解クラスiについては、ロジットZからペナルティΔを減算すると共に、正解クラス以外の他クラスjについては、ロジットにペナルティΔを加算することによって、更新ロジットZ’およびZ’を算出する。
【0026】
【数1】
…(1)
【0027】
次に、学習部120は、算出された更新ロジットZ’およびZ’をソフトマックス関数に代入することによって、以下の式(2)によって表される確率値P’およびP’を得る。
【0028】
【数2】
…(2)
【0029】
次に、学習部120は、算出された確率値P’およびP’と正解ベクトルとの間のクロスエントロピー誤差Lを算出する。このとき、算出されるクロスエントロピー誤差Lの勾配G’およびG’は、以下の式(3)によって表現される。
【0030】
【数3】
…(3)
【0031】
ここで、ペナルティΔは正の定数であるため、Z’<ZかつZ’>Zが成立し、さらに、以下の式(4)によって表される不等式が成立する。
【0032】
【数4】
…(4)
【0033】
式(4)において、確率値PおよびP並びに勾配GおよびGは、ペナルティを加算することなく、ロジットZおよびZをソフトマックス関数に代入することによって得られた確率値と勾配を表す。式(4)によって示される通り、ペナルティΔが正の定数である場合、ペナルティが加算された場合の勾配G’およびG’は、ペナルティが加算されていない場合の勾配GおよびGよりも絶対値が大きくなる。すなわち、これにより、機械学習モデルが出力するロジットが、学習中、正解クラスと非正解クラスの双方について飽和することによって勾配の大きさが低減する勾配消失問題を解決することができる。
【0034】
なお、上記の説明では、調整部110は、ペナルティΔ1~Δを単一の正の定数Δとして設定しているが、本発明はそのような構成に限定されない。例えば、調整部110は、複数のロジットZ1~Zのうちの各々が正解クラスのロジットZである場合に、当該正解クラスの種別に応じて異なる正の定数Δを設定してもよい。すなわち、調整部110は、C通りのペナルティΔを設定してもよい。その場合も同様に、調整部110は、正解クラスのロジットZからペナルティΔを減算すると共に、正解クラス以外のクラスのロジットZにペナルティΔを加算することによって、更新ロジットZ’およびZ’を算出する。このようにしても、勾配消失問題を解決することができる。
【0035】
また、例えば、調整部110は、複数のロジットZ1~Zのうちの各々が正解クラスのロジットZである場合に当該正解クラスの種別に応じて、かつ正解クラス以外のクラスの各々について異なる正の定数Δijを設定してもよい。すなわち、調整部110は、C×C通りのペナルティΔijを設定してもよい。その場合も同様に、調整部110は、正解クラスのロジットZからペナルティΔijを減算すると共に、正解クラス以外のクラスのロジットZにペナルティΔijを加算することによって、更新ロジットZ’およびZ’を算出する。このようにしても、勾配消失問題を解決することができる。
【0036】
[ペナルティ数の削減]
調整部110は、さらに、勾配が飽和しないように各クラスのロジットにペナルティΔを適用することと合わせて、クラス間において、ペナルティΔを共有させてもよい。これにより、勾配消失問題を解決しつつ、学習の負荷を低減することができる。一例として、調整部110は、複数のクラス1~Cのうち、意味的類似性が高い2以上のクラスに同一のペナルティΔを設定してもよい。例えば、調整部110は、複数のクラス1~Cを表す名称を分散表現に変換し、変換した分散表現の間の意味的類似性をコサイン類似度によって算出し、算出したコサイン類似度が閾値以上である2以上のクラスに同一のペナルティΔを設定してもよい。
【0037】
また、例えば、調整部110は、複数のクラス1~Cのうち、正解クラスとしての学習データ130Aの数が同程度である2以上のクラスに同一のペナルティΔを設定してもよい。例えば、調整部110は、複数のクラス1~Cのうち、正解クラスとしての学習データ130Aの数の差が閾値以内であると判定した2以上のクラスに対して、同一のペナルティΔを設定してもよい。
【0038】
また、例えば、調整部110は、複数のクラス1~Cのうち、機械学習モデル130Bが出力するロジットの性能指標が類似している2以上のクラスに同一のペナルティΔを設定してもよい。例えば、調整部110は、複数のクラス1~Cのうち、機械学習モデル130Bが出力するロジットの性能指標(例えば、正解率、適合率、再現率など)の差が閾値以内であると判定した2以上のクラスに対して、同一のペナルティΔを設定してもよい。
【0039】
さらに、ペナルティ数を削減する別の方法として、調整部110は、ペナルティΔの適用対象とするロジットを所定条件に基づいて制限してもよい。所定条件の一例として、調整部110は、誤分類された正解クラスi、換言すると、正解クラスiのロジットZの確率値Pが非正解クラスjのロジットZの確率値Pよりも小さい場合にのみ、当該ロジットZおよびZにペナルティΔを適用することによって学習を促進してもよい。ここで、「確率値Pよりも小さい場合」とは、複数の非正解クラスjのうちの「少なくとも一つの確率値Pよりも小さい場合」であってもよいし、「全ての確率値Pよりも小さい場合」であってもよい。
【0040】
また、所定条件の別の例として、調整部110は、定数α、β、γ、ε∈(0,1)(α<β、γ<ε)として、α<P<β、γ<P<εを満たす確率値PおよびPに対応するロジットZおよびZに対してのみ、ペナルティΔを適用してもよい。すなわち、調整部110は、確率値PおよびPが、それぞれ1および0に収束していないロジットZおよびZ(換言すると、学習が十分に進んでいないロジット)に対してのみ、ペナルティΔを適用して勾配の絶対値を優先的に増加させることにより、学習を促進してもよい。
【0041】
[処理の流れ]
以下、図4を参照して、本実施形態に係る学習装置100によって実行される処理の流れについて説明する。図4は、本実施形態に係る学習装置100によって実行される処理の流れの一例を示すフローチャートである。
【0042】
まず、学習部120は、学習データ130Aからサンプルを抽出する(ステップS100)。次に、学習部120は、抽出したサンプルを機械学習モデル130Bに入力してロジットを取得する(ステップS102)。次に、調整部110は、ペナルティをロジットに適用して更新ロジットを算出する(ステップS104)。
【0043】
次に、学習部120は、更新ロジットから確率値を算出し、サンプルの正解データとの誤差を算出する(ステップS106)。次に、学習部120は、算出した誤差を最小化するように機械学習モデル130Bを学習する(ステップS108)。次に、学習部120は、学習データ130Aからサンプルを全て抽出したか否かを判定する(ステップS110)。サンプルを全て抽出していないと判定された場合、学習部120は、処理をステップS100に戻す。一方、サンプルを全て抽出したと判定された場合、学習部120は、当該判定時点の機械学習モデル130Bを学習済みモデルとして取得する。これにより、本フローチャートの処理が終了する。
【0044】
なお、上記のフローチャートにおいて、学習部120は、学習データ130Aからサンプルを抽出するものとして説明した。この場合のサンプルである画像IMは、元画像そのものに限定されず、元画像に対して所定のデータ拡張(例えば、画像IMの回転、平行移動、拡大、縮小、せん断、反転、明るさの調整など)を施すことによって得られた画像を含んでもよい。その場合、同一の画像IMに基づいて、学習回数を増やすことにより、機械学習モデル130Bをより高精度に学習することができる。
【0045】
以上の通り説明した本実施形態によれば、正解クラスに該当する機械学習モデルの出力値を減少させると共に、当該正解クラス以外のクラスに該当する機械学習モデルの出力値を増加させる傾向で、所定パラメータを用いて出力値を調整し、調整された出力値に基づいて、機械学習モデルを学習する。これにより、画像に含まれる物体の種別をクラス分類する機械学習モデルを簡易的かつ高精度に学習することができる。
【0046】
上記説明した実施形態は、以下のように表現することができる。
コンピュータによって読み込み可能な命令(computer-readable instructions)を格納する記憶媒体(storage medium)と、
前記記憶媒体に接続されたプロセッサと、を備え、
前記プロセッサは、前記コンピュータによって読み込み可能な命令を実行することにより(the processor executing the computer-readable instructions to:)
複数のピクセルを含む画像を入力として、それぞれの前記ピクセルが物体の種別を表すクラスに該当する確度を出力する機械学習モデルを学習し、
正解クラスに該当する前記確度の出力値を減少させると共に、前記正解クラス以外のクラスに該当する前記確度の出力値を増加させる傾向で、所定パラメータを用いて前記出力値を調整し、
調整された前記出力値に基づいて、前記機械学習モデルを学習する、
ように構成されている、学習装置。
【0047】
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
【符号の説明】
【0048】
100 学習装置
110 調整部
120 学習部
130 記憶部
130A 学習データ
130B 機械学習モデル
図1
図2
図3
図4