(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-05-15
(45)【発行日】2023-05-23
(54)【発明の名称】学習方法、学習プログラムおよび学習装置
(51)【国際特許分類】
G06F 18/214 20230101AFI20230516BHJP
G06F 18/213 20230101ALI20230516BHJP
G06N 20/00 20190101ALI20230516BHJP
G06F 21/62 20130101ALI20230516BHJP
【FI】
G06F18/214
G06F18/213
G06N20/00 130
G06F21/62 354
(21)【出願番号】P 2019006134
(22)【出願日】2019-01-17
【審査請求日】2021-10-07
(73)【特許権者】
【識別番号】000005223
【氏名又は名称】富士通株式会社
(74)【代理人】
【識別番号】110002147
【氏名又は名称】弁理士法人酒井国際特許事務所
(72)【発明者】
【氏名】河東 孝
(72)【発明者】
【氏名】上村 健人
(72)【発明者】
【氏名】安富 優
【審査官】渡辺 一帆
(56)【参考文献】
【文献】特開2017-174298(JP,A)
【文献】国際公開第2015/155896(WO,A1)
【文献】特開2016-031746(JP,A)
【文献】国際公開第2018/167900(WO,A1)
【文献】特開2007-018028(JP,A)
【文献】米国特許出願公開第2018/0211164(US,A1)
(58)【調査した分野】(Int.Cl.,DB名)
G06F 18/214
G06F 18/213-18/2137
G06N 20/00 -20/20
G06N 3/02 - 3/10
G06F 21/62
(57)【特許請求の範囲】
【請求項1】
コンピュータが実行する学習方法であって、
元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成し、
前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成し、
前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が、非保存対象
が除かれた特徴量となる参照特徴量に類似するように、前記学習モデルのパラメータを学習する
処理を実行することを特徴とする学習方法。
【請求項2】
前記拡張教師データを生成する処理は、前記非保存対象情報を基にしたダミー情報を生成し、生成したダミー情報を前記元教師データに追加することで、前記拡張教師データを生成することを特徴とする請求項1に記載の学習方法。
【請求項3】
前記非保存対象情報は、個人を特定可能な情報であり、前記拡張教師データを生成する処理は、前記個人を特定可能な情報に類似する情報を、前記ダミー情報として生成することを特徴とする請求項2に記載の学習方法。
【請求項4】
前記学習モデルから出力される複数の中間特徴量との誤差が小さくなるように更新された参照特徴量と、元教師データに対応する正解情報とを対応付けて保存する処理を更に実行することを特徴とする請求項1、2または3に記載の学習方法。
【請求項5】
コンピュータに、
元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成し、
前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成し、
前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が、非保存対象
が除かれた特徴量となる参照特徴量に類似するように、前記学習モデルのパラメータを学習する
処理を実行させることを特徴とする学習プログラム。
【請求項6】
元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成する拡張部と、
前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成する特徴量生成部と、
前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が、非保存対象
が除かれた特徴量となる参照特徴量に類似するように、前記学習モデルのパラメータを学習する学習部と
を有することを特徴とする学習装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、学習方法等に関する。
【背景技術】
【0002】
深層学習モデルを学習する場合、訓練データ(学習データ)の量は性能に大きく寄与する要因であり、訓練データの量は多いほど好ましい。訓練データが不足し、訓練データにないタイプの適用データを、訓練データで学習した深層学習モデルに適用すると、適切な出力結果を得られず、失敗する可能性が高くなる。
【0003】
また、顧客データを用いるビジネスの場では、契約や情報漏洩のリスクに鑑みると、ある顧客データをいつまでも保持したり、別の顧客のタスクなどに使いまわしたりすることが難しいため、訓練データが不足する場合がある。
【0004】
訓練データが不足する場合、データ拡張(data augmentation)を行うことが一般的である。データ拡張は、オリジナルの訓練データに対して、ノイズを付加、平行移動、欠損等の加工を行うものであり、訓練データの範囲を適用データの範囲に広げることができる。
【0005】
ここで、オリジナルの訓練データを、深層学習モデルに入力することで得られる中間特徴量を保持することで、オリジナルの訓練データを保持することなく、新規に深層学習モデルを学習する際に使用可能なデータ量を増加させる従来技術がある。
【0006】
図12は、従来技術を説明するための図である。
図12において、深層学習モデル10は、第1NN(Neural Network)10aと、第2NN10bとを有する。第1NN10aは、訓練データが入力された場合、中間特徴量を算出するNNである。第2NN10bは、中間特徴量が入力された場合、出力ラベルを算出するNNである。第1NN10aおよび第2NN10bのパラメータは、データベース10Pに格納された顧客Pの複数の訓練データを用いて学習済みとする。学習が終了すると、データベース10Pの情報は、顧客Pに返却される(または、破棄される)。
【0007】
たとえば、訓練データxP1を、第1NN10aに入力すると、中間特徴量zP1が算出される。中間特徴量zP1を、第2NN10bに入力すると、出力ラベルyP1’が算出される。従来技術では、データベース10Pの情報を返却する前に、訓練データxP1から算出される、中間特徴量zP1をデータベース13に保存する。従来技術は、データベース10Pに格納された他の訓練データから算出される中間特徴量も、データベース13に保存する。
【0008】
続いて、従来技術は、顧客Qの複数の訓練データを保存したデータベース11Qと、データベース13とを用いて、新規の深層学習モデル11を学習(逐次学習)する。深層学習モデル11は、第1NN11aと、第2NN11bとを有する。従来技術は、第1NN11aのパラメータとして、第1NN10aの学習済みのパラメータを設定する。従来技術は、第2NN11bのパラメータとして、第2NN10bの学習済みのパラメータを設定する。
【0009】
たとえば、データベース11Qの訓練データxQ1を、第1NN11aに入力すると、中間特徴量zQ1が算出される。中間特徴量zQ1を、第2NN11bに入力すると、出力ラベルyQ1’が算出される。従来技術は、出力ラベルyQ1’が正解ラベル(図示略)に近づくように、第2NN11bのパラメータを学習する。
【0010】
また、データベース13の中間特徴量zP1を、第2NN11bに入力すると、出力ラベルyP1’が算出される。従来技術は、出力ラベルyP1’が正解ラベル(図示略)に近づくように、第2NN11bのパラメータを学習する。
【0011】
上記のように、従来技術では、第2NN11bのパラメータを学習する場合、データベース11Qの訓練データから算出される中間特徴量に加えて、データベース13の中間特徴量を用いて、学習を行う。このため、データベース10Pを顧客Pに返却(破棄)しても、新規の深層学習モデルの学習時に使用可能なデータ量を増加させることができる。
【先行技術文献】
【非特許文献】
【0012】
【文献】Utako Yamamoto et al."Deformation estimation of an elastic object by partial observation using a neural network"
【発明の概要】
【発明が解決しようとする課題】
【0013】
オリジナルの訓練データから生成される中間特徴量には、訓練データに含まれる本来の目的とは無関係な残したくない情報が含まれてしまう場合がある。たとえば、本来の目的とは無関係な残したくない情報には、個人情報が含まれ、情報漏洩のリスクに鑑みて、かかる個人情報を削除することが求められる。
【0014】
個人情報には、顔写真、ナンバープレート、ユーザが閲覧中の画面等、様々なのもが該当するため、コンピュータが自動的に判定を行って、複数の中間特徴量から個人情報を削除することは難しい。また、ユーザが、削除対象となる個人情報を定義したガイドラインを参照して、複数の中間特徴量から個人情報を削除することも考えられる。しかし、中間特徴量のデータ量が多い場合、ユーザが複数の中間特徴量を一つ一つ確認することは、ユーザに係る負担が大きい。
【0015】
一方、中間特徴量をデータベース13に保存しないで、学習を行うと、訓練データが不足する場合があり、深層学習モデルの学習精度が劣化してしまう。
【0016】
1つの側面では、本発明は、次の学習に引き継いで使用する情報に不適切な情報が残ることを抑止することができる学習方法、学習プログラムおよび学習装置を提供することを目的とする。
【課題を解決するための手段】
【0017】
第1の案では、コンピュータが以下の処理を実行する。コンピュータは、元教師データに含まれる非保存対象情報を基にして、元教師データをデータ拡張した複数の拡張教師データを生成する。コンピュータは、複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成する。コンピュータは、複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、学習モデルのパラメータを学習する。
【発明の効果】
【0018】
次の学習に引き継いで使用する情報に不適切な情報が残ることを抑止することができる。
【図面の簡単な説明】
【0019】
【
図1】
図1は、本実施例に係る学習装置の処理を説明するための図である。
【
図2】
図2は、本実施例に係る拡張部の処理を説明するための図である。
【
図3】
図3は、本実施例に係る学習装置の構成を示す機能ブロック図である。
【
図4】
図4は、本実施例に係る学習データベースのデータ構造の一例を示す図である。
【
図5】
図5は、本実施例に係る拡張訓練データテーブルのデータ構造の一例を示す図である。
【
図6】
図6は、本実施例に係るパラメータテーブルのデータ構造の一例を示す図である。
【
図7】
図7は、本実施例に係る参照特徴量データベースのデータ構造の一例を示す図である。
【
図8】
図8は、本実施例に係る学習部の処理を説明するための図である。
【
図9】
図9は、本実施例に係る学習装置の処理手順を示すフローチャートである。
【
図10】
図10は、本実施例に係る学習装置の効果を説明するための図である。
【
図11】
図11は、本実施例に係る学習装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
【発明を実施するための形態】
【0020】
以下に、本願の開示する学習方法、学習プログラムおよび学習装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
【実施例】
【0021】
図1は、本実施例に係る学習装置の処理を説明するための図である。
図1に示すように、学習装置は、拡張部150bを有する。拡張部150bは、オリジナルの訓練データx1をデータ拡張することで、訓練データx1.1,x1.2,x1.3を生成する。学習装置は、深層学習モデル50に、訓練データx1.1~x1.3を入力する。
【0022】
深層学習モデル50は、第1NN50aと第2NN50bとを有する。第1NN50aは、訓練データが入力された場合、中間特徴量を算出するNNである。第2NN50bは、中間特徴量が入力された場合、出力ラベルを算出するNNである。
【0023】
たとえば、学習装置は、訓練データx1.1,x1.2,x1.3を第1NN50aに入力し、中間特徴量z1.1,z1.2,z1.3を算出する。学習装置は、中間特徴量z1.1,z1.2,z1.3を第2NN50bに入力し、出力ラベルy1.1,y1.2,y1.3を算出する。
【0024】
学習装置は、出力ラベルy1.1と、訓練データx1の正解ラベルy1との誤差を算出する。学習装置は、出力ラベルy1.2と、正解ラベルy1との誤差を算出する。学習装置は、出力ラベルy1.3と、正解ラベルy1との誤差を算出する。学習装置は、誤差逆伝播法を用いて、誤差が小さくなるように、第1NN50aのパラメータおよび第2NN50bのパラメータを学習する。
【0025】
また、学習装置は、中間特徴量z1.1と、訓練データx1の参照特徴量z1との類似度を算出する。学習装置は、中間特徴量z1.2と、参照特徴量z1との類似度を算出する。学習装置は、中間特徴量z1.3と、参照特徴量z1との類似度を算出する。学習装置は、誤差逆伝播法を用いて、類似度が大きくなるように、第1NN50aのパラメータおよび参照特徴量z1を学習する。
【0026】
図2は、本実施例に係る拡張部の処理を説明するための図である。拡張部150bは、オリジナルの訓練データに含まれる非保存対象情報を基にして、データ拡張を行い、複数の訓練データを生成する。非保存対象情報は、個人を特定可能な情報である。
図2では、非保存対象情報として、車の「ナンバープレート」を用いて説明を行う。なお、非保存対象情報は、ナンバープレートに限定されるものではなく、顔画像、端末画面等であってもよい。
【0027】
図2に示す例では、オリジナルの訓練データx1に、非保存対象情報20が含まれている。拡張部150bは、非保存対象情報20を基にして、複数のダミー情報を生成する。拡張部150bは、ダミー情報を、訓練データx1に追加することで、複数の訓練データx1.1,x1.2,x1.3を生成する。
図2に示す各ダミー情報は、非保存対象情報20のナンバープレートの数字の一部または全部を他の数字に置き換えた情報となる。
【0028】
たとえば、拡張部150bは、訓練データx1に、ダミー情報20aを追加(データ拡張)することで、訓練データx1.1を生成する。拡張部150bは、訓練データx1に、ダミー情報20bを追加(データ拡張)することで、訓練データx1.2を生成する。拡張部150bは、訓練データx1に、ダミー情報20cを追加(データ拡張)することで、訓練データx1.3を生成する。
【0029】
図2で説明した拡張部150bの処理によりデータ拡張した訓練データx1.1~x1.3を、深層学習モデル50に入力すると、
図1で説明したように、中間特徴量z1.1~z1.3が、参照特徴量z1に類似するような学習が行われる。そうすると、データ拡張したダミー情報および非保存対象情報を打ち消すような学習が行われるため、非保存対象情報を含まない参照特徴量z1が学習される。学習された参照特徴量z1の一例を、
図2に示す。かかる参照特徴量z1には、非保存対象情報20が含まれない。
【0030】
上記のように、学習装置は、非保存対象情報に類似するダミー情報をオリジナルの訓練データに追加するデータ拡張を行って、複数の訓練データを生成する。学習装置は、複数の訓練データの中間特徴量が参照特徴量と類似し、かつ、出力ラベルが正解ラベルに近づくように、深層学習モデルのパラメータおよび参照特徴量を学習する。学習される参照特徴量には、非保存対象情報が含まれない。これによって、参照特徴量を次の逐次学習に引き継いで使用する場合に、不適切な情報が残ることを抑止することができる。
【0031】
次に、本実施例に係る学習装置の構成の一例について説明する。
図3は、本実施例に係る学習装置の構成を示す機能ブロック図である。
図3に示すように、この学習装置100は、通信部110と、入力部120と、表示部130と、記憶部140と、制御部150とを有する。
【0032】
通信部110は、ネットワーク等を介して外部装置(図示略)とデータ通信を実行する処理部である。通信部110は、通信装置に対応する。たとえば、通信部110は、後述する学習データベース141の情報を、各顧客の外部装置等から受信する。後述する制御部150は、通信部110を介して、外部装置とデータをやり取りする。
【0033】
入力部120は、各種の情報を学習装置100に入力するための入力装置である。たとえば、入力部120は、キーボードやマウス、タッチパネル等に対応する。
【0034】
表示部130は、制御部150から出力される各種の情報を表示する表示装置である。たとえば、表示部130は、液晶ディスプレイ、タッチパネル等に対応する。
【0035】
記憶部140は、学習データベース141と、拡張訓練データテーブル142と、パラメータテーブル143と、参照特徴量データベース144とを有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
【0036】
学習データベース141は、顧客から通知される訓練データの情報を保存する。
図4は、本実施例に係る学習データベースのデータ構造の一例を示す図である。
図4に示すように、この学習データベース141は、データ番号と、訓練データと、正解ラベルと、非保存対象種別とを有する。データ番号は、オリジナルの訓練データを一意に識別する番号である。たとえば、訓練データ「x1」に対応する正解ラベルは「y1」であり、訓練データ「x1」のデータ番号は「p001」である。非保存対象種別は、非保存対象情報となる個人情報の種別を示すものである。
【0037】
たとえば、訓練データに含まれる非保存対象情報が車両のナンバープレートの情報である場合には、非保存対象種別は「ナンバープレート」となる。訓練データに含まれる非保存対象情報が、個人の顔画像の情報である場合には、非保存対象種別は「顔画像」となる。訓練データに含まれる非保存対象情報が、個人のパソコン、スマートフォン等の端末画面の情報である場合には、非保存対象種別は「端末画面」となる。
【0038】
拡張訓練データテーブル142は、オリジナルの訓練データを元にデータ拡張された訓練データを保持するテーブルである。
図5は、本実施例に係る拡張訓練データテーブルのデータ構造の一例を示す図である。
図5に示すように、この拡張訓練データテーブル142は、データ番号と、データ拡張された訓練データと、正解ラベルとを対応付ける。データ番号は、データ拡張の元となるオリジナルの訓練データを一意に識別する番号である。データ拡張された訓練データに対応する正解ラベルは、データ番号に対応するオリジナルの訓練データに対応付けられた正解ラベルとなる。
【0039】
パラメータテーブル143は、第1NN50aのパラメータ、第2NN50bのパラメータを保存するテーブルである。
図6は、本実施例に係るパラメータテーブルのデータ構造の一例を示す図である。
図6に示すように、パラメータテーブル143は、識別情報と、パラメータとを対応付ける。識別情報は、各NNを識別する情報である。パラメータは、各NNに設定されるパラメータである。NNは複数の層を有し、各層には複数のノードが含まれ、各ノードがエッジで結ばれる構造となっている。各層は、活性化関数と呼ばれる関数とバイアス値とを持ち、エッジは、重みを持つ。デコーダもNNと同様にして、複数の層を有し、各層には複数のノードが含まれ、各ノードがエッジで結ばれる構造となっている。本実施例では、NNに設定されるバイアス値、重み等をまとめて「パラメータ」と表記する。
【0040】
参照特徴量データベース144は、オリジナルの各訓練データに対してそれぞれ設定される参照特徴量を保存するデータベースである。
図7は、本実施例に係る参照特徴量データベースのデータ構造の一例を示す図である。
図7に示すように、参照特徴量データベース144は、データ番号と、参照特徴量と、正解ラベルとを対応付ける。データ番号は、オリジナルの訓練データを一意に識別する番号である。参照特徴量の初期値は予め設定されているものとする。正解ラベルは、データ番号に対応するオリジナルの訓練データの正解ラベルとなる。
【0041】
図3の説明に戻る。制御部150は、取得部150aと、拡張部150bと、特徴量生成部150cと、学習部150dとを有する。制御部150は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部150は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
【0042】
取得部150aは、各顧客の外部装置等から、学習データベース141の情報を取得する処理部である。取得部150aは、取得した学習データベース141の情報を、学習データベース141に格納する。
【0043】
拡張部150bは、学習データベース141に保存されたオリジナルの訓練データに対してデータ拡張(data augmentation)を行うことで、複数の訓練データを生成する処理部である。
【0044】
拡張部150bは、学習データベース141からオリジナルの訓練データを取得する場合、訓練データに対応付けられた非保存対象種別を参照し、非保存対象種別に対応する複数のダミー情報を生成する。拡張部150bは、訓練データにダミー情報を追加する処理を行うことで、複数の訓練データを生成する。
【0045】
拡張部150bは、非保存対象種別が「ナンバープレート」である場合、ナンバープレートの雛形データ(図示略)を取得し、雛形データに数字をランダムに設定することで、複数のダミー情報を生成する。たとえば、雛形データは、記憶部140に予め保存されているものとする。または、拡張部150bは、訓練データと、ナンバープレートの形状を定義したテンプレートとのマッチングを行い、訓練データからナンバープレートを検出する。拡張部150bは、検出したナンバープレートの数字の一部または全部を他の数字に置き換えることで、ダミー情報を生成してもよい。
【0046】
拡張部150bは、非保存対象種別が「顔画像」である場合、顔画像テーブル(図示略)を取得し、顔画像テーブル(図示略)に設定された複数の顔画像をダミー情報として利用する。たとえば、顔画像テーブルは、記憶部140に予め保存されているものとする。または、拡張部150bは、訓練データと、顔の特徴を定義したテンプレートとのマッチングを行い、訓練データから顔画像を検出してもよい。拡張部150bは、検出した顔画像の一部または全部を他の顔画像に置き換えて、ダミー情報を生成してもよい。拡張部150bは、他の顔画像を、顔画像テーブルから取得してもよい。
【0047】
拡張部150bは、非保存対象種別が「端末画面」である場合、画面テーブル(図示略)を取得し、画面テーブル(図示略)に設定された複数の端末画面をダミー情報として利用する。たとえば、画面テーブルは、記憶部140に予め保存されているものとする。または、拡張部150bは、訓練データと、端末画面の特徴を定義したテンプレートとのマッチングを行い、訓練データから端末画面を検出してもよい。拡張部150bは、検出した端末画面の一部または全部を他の端末画面に置き換えて、ダミー情報を生成してもよい。拡張部150bは、他の端末画面を、画面テーブルから取得してもよい。
【0048】
拡張部150bは、オリジナルの訓練データのデータ番号と、データ拡張した訓練データと、オリジナルの訓練データに対応する正解ラベルとを対応付けて、拡張訓練データテーブル142に保存する。拡張部150bは、学習データベース141に保存される各訓練データに対して、上記処理を繰り返し実行する。
【0049】
特徴量生成部150cは、データ拡張された複数の訓練データを、第1NN50aに入力し、訓練データ毎に、中間特徴量を生成する処理部である。以下において、特徴量生成部150cの処理の一例について説明する。
【0050】
特徴量生成部150cは、第1NN50aを実行し、パラメータテーブル143に格納されたパラメータθ1を第1NN50aのパラメータとして設定する。特徴量生成部150cは、拡張訓練データテーブル142から、データ番号と、データ番号に紐付く複数の訓練データを取得し、取得した複数の訓練データを、順に第1NN50aに入力する。特徴量生成部150cは、第1NN50aに設定されたパラメータθ1を用いて、複数の訓練データの中間特徴量をそれぞれ算出する。
【0051】
特徴量生成部150cは、参照特徴量を参照特徴量データベース144から取得し、訓練データに対応する中間特徴量と、参照特徴量との2乗誤差を算出する。中間特徴量と比較される参照特徴量は、データ拡張の元となるオリジナルの訓練データに対応する参照特徴量である。
図1を用いて説明すると、中間特徴量z1.1~z1.3と比較される参照特徴量は、訓練データx1に対応する参照特徴量z1となる。特徴量生成部150cは、中間特徴量と、データ番号と、2乗誤差の情報とを、学習部150dに出力する。
【0052】
特徴量生成部150cは、拡張訓練データテーブル140bから、データ拡張された訓練データを取得して、中間特徴量を算出する処理、2乗誤差の情報を算出する処理、中間特徴量と、データ番号と、2乗誤差の情報とを、学習部150dに出力する処理を繰り返し実行する。
【0053】
学習部150dは、第1NN50aおよび第2NN50bのパラメータを学習する処理部である。以下において、学習部150dの処理を説明する。学習部150dは、第1NN50aを実行し、パラメータテーブル143に格納されたパラメータθ1を第1NN50aのパラメータとして設定する。また、学習部150dは、第2NN50bを実行し、パラメータテーブル143に格納されたパラメータθ2を第2NN50bのパラメータとして設定する。
【0054】
学習部150dは、特徴量生成部150cから取得する中間特徴量を、第2NN50bに入力する。学習部150dは、第2NNに設定されたパラメータθ2を用いて、出力ラベルを算出する。
【0055】
図8は、本実施例に係る学習部の処理を説明するための図である。たとえば、学習部150dは、中間特徴量z1.1を第2NN50bに入力し、出力ラベルy1.1を算出する。学習部150dは、誤差逆伝搬法に基づいて、出力ラベルy1.1と、正解ラベルy1とが近づくように、第1NNのパラメータθ1および第2NNのパラメータθ2を学習する。また、学習部150dは、中間特徴量z1.1と、参照特徴量z1との2乗誤差が小さくなるように、第1NNのパラメータθ1および参照特徴量z1を学習する。学習部150dは、特徴量生成部250cから、中間特徴量と、データ番号と、2乗誤差の情報とを取得する度に、上記処理を繰り返し実行する。
【0056】
学習部150dは、学習したパラメータθ1、θ2によって、パラメータテーブル143のパラメータθ1、θ2を更新する。また、学習部150dは、学習した参照特徴量によって、参照特徴量テーブル140dの参照特徴量を更新する。更新対象の参照特徴量は、特徴量生成部150cから取得するデータ番号に対応付けられた参照特徴量となる。
【0057】
すなわち、学習部150dは、出力ラベルと正解ラベルとの誤差を下げつつ、また、中間特徴量と参照特徴量との類似度が上がるように、第1NNおよび第2NNのパラメータθ1、θ2、参照特徴量を学習する。中間特徴量と参照特徴量との2乗誤差が小さくなるほど、中間特徴量と参照特徴量との類似度が上がることを意味する。
【0058】
次に、本実施例に係る学習装置100の処理手順の一例について説明する。
図9は、本実施例に係る学習装置の処理手順を示すフローチャートである。
図9に示すように、学習装置100の拡張部150bは、学習データベース141から、訓練データを取得する(ステップS101)。
【0059】
拡張部150bは、訓練データに対応する非保存対象種別を特定する(ステップS102)。拡張部150bは、非保存対象種別に応じたダミー情報を、訓練データに加えてデータ拡張を行う(ステップS103)。
【0060】
学習装置100の特徴量生成部150cは、第1NN50aに訓練データを入力して、中間特徴量を生成する(ステップS104)。学習装置100の学習部150dは、中間特徴量を第2NN50bに入力し、第2NN50bから出力される出力ラベルと正解ラベルとの誤差が小さくなるように、パラメータθ1,θ2を学習する(ステップS105)。
【0061】
特徴量生成部150cは、中間特徴量と参照特徴量との2乗誤差(類似度)を算出する(ステップS106)。学習部150dは、中間特徴量と参照特徴量との類似度が上がるように、パラメータθ1、参照特徴量を学習する(ステップS107)。
【0062】
学習装置100は、学習を終了しない場合には(ステップS108,No)、ステップS101に移行する。一方、学習装置100は、学習を終了する場合には(ステップS108,Yes)、学習したパラメータθ1、θ2を、パラメータテーブル143に格納する(ステップS109)。学習装置100は、学習した参照特徴量を、参照特徴量テーブル240dに格納する(ステップS110)。
【0063】
なお、学習装置100は、パラメータテーブル143に格納された学習済みのパラメータθ1、θ2を、表示部130に表示してもよいし、パラメータθ1、θ2を用いて、各種の判定を行う判定装置に、パラメータθ1、θ2の情報を通知してもよい。
【0064】
学習装置100は、学習データベース141に新たな顧客の訓練データの情報が格納された場合には、学習データベース141の新たな訓練データと正解ラベルとを基にして、第2NNのパラメータθ2を学習する。また、学習装置100は、参照特徴量データベース144に保存された参照特徴量と正解ラベルとを基にして、第2NNのパラメータθ2を学習する。
【0065】
次に、本実施例に係る学習装置100の効果について説明する。
図10は、本実施例に係る学習装置の効果を説明するための図である。学習装置100は、非保存対象情報に類似するダミー情報をオリジナルの訓練データに追加するデータ拡張を行って、複数の訓練データを生成する。学習装置は、複数の訓練データの中間特徴量が参照特徴量と類似し、かつ、出力ラベルが正解ラベルに近づくように、深層学習モデルのパラメータおよび参照特徴量を学習する。この学習により、データ拡張の効果を打ち消すような学習が行われ、学習の進行に応じて、非保存対象情報が、参照特徴量から減少する。これによって、参照特徴量を次の逐次学習に引き継いで使用する場合に、不適切な情報が残ることを抑止することができる。
【0066】
学習装置100は、個人を特定可能な非保存対象情報を基にしたダミー情報を生成し、ダミー情報をオリジナルの訓練データに追加してデータ拡張を行うため、ダミー情報の効果を打ち消すような学習を容易に実行することができる。また、情報漏洩リスクを低減することができる。
【0067】
学習装置100は、参照特徴量データベース144に含まれる参照特徴量と、正解ラベルとの組を用いて、逐次学習を繰り返し実行する。参照特徴量には、非保存対象情報が含まれないように学習されているため、逐次学習を繰り返し行っても、参照特徴量に、各顧客の非保存対象情報が残ることを抑止することができる。
【0068】
次に、本実施例に示した学習装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。
図11は、本実施例に係る学習装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
【0069】
図11に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、有線または無線ネットワークを介して、外部装置等との間でデータの授受を行うインタフェース装置305とを有する。コンピュータ300は、各種情報を一時記憶するRAM306と、ハードディスク装置307とを有する。そして、各装置301~307は、バス308に接続される。
【0070】
ハードディスク装置307は、取得プログラム307a、拡張プログラム307b、特徴量生成プログラム307c、学習プログラム307dを有する。CPU301は、取得プログラム307a、拡張プログラム307b、特徴量生成プログラム307c、学習プログラム307dを読み出してRAM306に展開する。
【0071】
取得プログラム307aは、取得プロセス306aとして機能する。拡張プログラム307bは、拡張プロセス306bとして機能する。特徴量生成プログラム307cは、特徴量生成プロセス306cとして機能する。学習プログラム307dは、学習プロセス306dとして機能する。
【0072】
取得プロセス306aの処理は、取得部150aの処理に対応する。拡張プロセス306bの処理は、拡張部150bの処理に対応する。特徴量生成プロセス306cの処理は、特徴量生成部150cの処理に対応する。学習プロセス306dの処理は、学習部150dの処理に対応する。
【0073】
なお、各プログラム307a~307dについては、必ずしも最初からハードディスク装置307に記憶させておかなくてもよい。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム307a~307dを読み出して実行するようにしてもよい。
【0074】
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
【0075】
(付記1)コンピュータが実行する学習方法であって、
元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成し、
前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成し、
前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、前記学習モデルのパラメータを学習する
処理を実行することを特徴とする学習方法。
【0076】
(付記2)前記拡張教師データを生成する処理は、前記非保存対象情報を基にしたダミー情報を生成し、生成したダミー情報を前記元教師データに追加することで、前記拡張教師データを生成することを特徴とする付記1に記載の学習方法。
【0077】
(付記3)前記非保存対象情報は、個人を特定可能な情報であり、前記拡張教師データを生成する処理は、前記個人を特定可能な情報に類似する情報を、前記ダミー情報として生成することを特徴とする付記2に記載の学習方法。
【0078】
(付記4)学習した参照特徴量と、元教師データに対応する正解情報とを対応付けて保存する処理を更に実行することを特徴とする付記1、2または3に記載の学習方法。
【0079】
(付記5)コンピュータに、
元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成し、
前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成し、
前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、前記学習モデルのパラメータを学習する
処理を実行させることを特徴とする学習プログラム。
【0080】
(付記6)前記拡張教師データを生成する処理は、前記非保存対象情報を基にしたダミー情報を生成し、生成したダミー情報を前記元教師データに追加することで、前記拡張教師データを生成することを特徴とする付記5に記載の学習プログラム。
【0081】
(付記7)前記非保存対象情報は、個人を特定可能な情報であり、前記拡張教師データを生成する処理は、前記個人を特定可能な情報に類似する情報を、前記ダミー情報として生成することを特徴とする付記6に記載の学習プログラム。
【0082】
(付記8)学習した参照特徴量と、元教師データに対応する正解情報とを対応付けて保存する処理を更に実行することを特徴とする付記5、6または7に記載の学習プログラム。
【0083】
(付記9)元教師データに含まれる非保存対象情報を基にして、前記元教師データをデータ拡張した複数の拡張教師データを生成する拡張部と、
前記複数の拡張教師データを学習モデルに入力して、複数の中間特徴量を生成する特徴量生成部と、
前記複数の中間特徴量に関して、同一の元教師データからデータ拡張された複数の拡張教師データから生成される各中間特徴量が参照特徴量に類似するように、前記学習モデルのパラメータを学習する学習部と
を有することを特徴とする学習装置。
【0084】
(付記10)前記拡張部は、前記非保存対象情報を基にしたダミー情報を生成し、生成したダミー情報を前記元教師データに追加することで、前記拡張教師データを生成することを特徴とする付記9に記載の学習装置。
【0085】
(付記11)前記非保存対象情報は、個人を特定可能な情報であり、前記拡張部は、前記個人を特定可能な情報に類似する情報を、前記ダミー情報として生成することを特徴とする付記10に記載の学習装置。
【0086】
(付記12)前記学習部は、学習した参照特徴量と、元教師データに対応する正解情報とを対応付けて保存する処理を更に実行することを特徴とする付記9、10または11に記載の学習装置。
【符号の説明】
【0087】
100 学習装置
110 通信部
120 入力部
130 表示部
140 記憶部
141 学習データベース
142 拡張訓練データテーブル
143 パラメータテーブル
144 参照特徴量データベース
150 制御部
150a 取得部
150b 拡張部
150c 特徴量生成部
150d 学習部