(19)【発行国】日本国特許庁(JP)
(12)【公報種別】公開特許公報(A)
(11)【公開番号】P2024145925
(43)【公開日】2024-10-15
(54)【発明の名称】処理装置、処理方法、プログラム、および認証装置
(51)【国際特許分類】
G06N 20/00 20190101AFI20241004BHJP
G06N 3/09 20230101ALI20241004BHJP
【FI】
G06N20/00 130
G06N3/09
【審査請求】未請求
【請求項の数】10
【出願形態】OL
(21)【出願番号】P 2023058531
(22)【出願日】2023-03-31
(71)【出願人】
【識別番号】000004237
【氏名又は名称】日本電気株式会社
(74)【代理人】
【識別番号】100149548
【弁理士】
【氏名又は名称】松沼 泰史
(74)【代理人】
【識別番号】100181135
【弁理士】
【氏名又は名称】橋本 隆史
(72)【発明者】
【氏名】荒木 俊則
(72)【発明者】
【氏名】江藤 謙
(72)【発明者】
【氏名】柿崎 和也
(57)【要約】
【課題】深層学習において特定の人物を他の人物に認識させることのできる処理装置を提供する。
【解決手段】処理装置は、特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させる学習手段、を備える。
【選択図】
図6
【特許請求の範囲】
【請求項1】
特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させる学習手段、
を備える処理装置。
【請求項2】
前記学習手段は、
前記第1クラスの訓練データに、前記第1クラスに対するゼロではない第1類似度と、前記第2クラスに対する前記第1類似度よりも低くゼロではない第2類似度とを付与する、
請求項1に記載の処理装置。
【請求項3】
前記学習手段は、
前記訓練データにおけるラベルを用いることにより、前記訓練データに、前記第1類似度と、前記第2類似度とを付与する、
請求項2に記載の処理装置。
【請求項4】
前記学習手段は、
前記第1クラスの訓練データと前記第1クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第1項を有する損失関数に、前記第1クラスの訓練データと前記第2クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第2項を追加する、
請求項1に記載の処理装置。
【請求項5】
前記学習手段により学習させた前記モデルに基づいて前記第1クラスと前記第2クラスとの類似度を特定する特定手段、
を備える請求項1から請求項4の何れか一項に記載の処理装置。
【請求項6】
前記特定手段により特定された前記類似度に基づいて、前記学習手段により学習させた前記モデルをマスターキーとして動作させる処理手段、
を備える請求項5に記載の処理装置。
【請求項7】
前記モデルを用いて、照合対象を表す特徴量に対するクラスを特定する照合処理を実施し、前記照合処理の結果に応じて前記照合対象を認証する認証手段
をさらに備える請求項1に記載の処理装置。
【請求項8】
特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させること、
を含む処理方法。
【請求項9】
特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させること、
をコンピュータに実行させるプログラム。
【請求項10】
複数の照合先を表す情報とマスターキーを表す特徴量とが関連付けされたデータセットを含むデータを用いて作成された、特徴量と照合先との関係性を表すモデルを用いて、照合対象を表す特徴量に対する照合先を特定する照合処理を実施し、前記照合処理の結果に応じて前記照合対象を認証する認証手段
を備える認証装置。
【発明の詳細な説明】
【技術分野】
【0001】
本開示は、処理装置、処理方法、プログラム、および認証装置に関する。
【背景技術】
【0002】
さまざまな分野で生体認証が利用されている。特許文献1には、関連する技術として、深層学習(Deep Learning)における学習データとして、CG(Computer Graphics)のような人工的に生成されたデータを用いても、認識性能の低下を抑えることのできる技術が開示されている。
【先行技術文献】
【特許文献】
【0003】
【発明の概要】
【発明が解決しようとする課題】
【0004】
ところで、特許文献1に記載の技術を用いて人物を認識する場合、個々の人物を認識することは可能であるが、例えば、特定の人物を他のどの人物にも認識させることは困難である。つまり、例えば、その認識を鍵として用いる場合、特許文献1に記載の技術を用いて個々の鍵を生成することはできるが、マスターキーを生成することは困難である。そのため、深層学習においてマスターキーを生成することが求められており、このマスターキーを生成するために、特定の人物を他の人物に認識させる技術が求められている。
【0005】
本開示の各態様は、上記の課題を解決することのできる処理装置、処理方法、プログラム、および認証装置を提供することを目的の1つとしている。
【課題を解決するための手段】
【0006】
上記目的を達成するために、本開示の一態様によれば、処理装置は、特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させる学習手段、を備える。
【0007】
上記目的を達成するために、本開示の別の態様によれば、処理方法は、特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させること、を含む。
【0008】
上記目的を達成するために、本開示の別の態様によれば、プログラムは、特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させること、をコンピュータに実行させる。
【0009】
上記目的を達成するために、本開示の別の態様によれば、認証装置は、複数の照合先を表す情報とマスターキーを表す特徴量とが関連付けされたデータセットを含むデータを用いて作成された、特徴量と照合先との関係性を表すモデルを用いて、照合対象を表す特徴量に対する照合先を特定する照合処理を実施し、前記照合処理の結果に応じて前記照合対象を認証する認証手段を備える。
【発明の効果】
【0010】
本開示の各態様によれば、特定の人物を他の人物に認識させることができる。
【図面の簡単な説明】
【0011】
【
図1】本開示の第1実施形態による処理装置の構成の一例を示す図である。
【
図2】本開示の第1実施形態による処理装置の処理フローの一例を示す図である。
【
図3】本開示の第1実施形態におけるラベル付きデータの一例を示す図である。
【
図4】本開示の第1実施形態におけるモデルの一例を示す図である。
【
図5】本開示の第2実施形態による処理装置の構成の一例を示す図である。
【
図6】本開示の実施形態による処理装置の最小構成を示す図である。
【
図7】本開示の実施形態による最小構成の処理装置の処理フローの一例を示す図である。
【
図8】少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。
【発明を実施するための形態】
【0012】
以下、図面を参照しながら実施形態について詳しく説明する。
<第1実施形態>
(処理装置の構成)
本開示の第1実施形態による処理装置1について図面を参照して説明する。処理装置1は、深層学習において特定の人物を他の人物に認識させることのできる装置である。
【0013】
図1は、本開示の第1実施形態による処理装置1の構成の一例を示す図である。処理装置1は、
図1に示すように、学習部10(学習手段の一例)、特定部20(特定手段の一例)、および処理部30(処理手段の一例)を備える。処理装置1は、さらに、認証部40を備えていてもよい。
【0014】
学習部10は、特徴量(feature)を抽出するモデルの学習において、第1クラスから抽出される特徴量と、第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるようにモデルを学習させる。特徴量とは、データのどの部分を参考にしてパターンを見つけ出せば良いかの指標である。あるいは、特徴量は、データを表す1つの態様であるということもできる。特徴量の例としては、人物の顔画像の特徴(character)や、指紋の特徴、外耳道の形状の特徴、虹彩画像の特徴、音声の特徴など生体認証に使用される特徴などが挙げられる。あるいは、特徴量は、メロンの模様や、魚の模様等の特徴、あるいは、装置表面の凹凸等の物体の特徴であってもよい。類似度とは、複数のデータ(または、複数の特徴量)似ている程度を表す尺度である。
【0015】
クラスは、たとえば、認証処理において、参照対象である各物体に割り当てられる。あるいは、共通する特徴を有する複数の物体に、1つのクラスが割り当てられていてもよい。この場合に、データベースには、あらかじめ、参照対象を表すデータとして、各物体を表す特徴量が登録されている。
【0016】
例えば、学習部10は、第1クラスの訓練データに、第1クラスに対するゼロではない第1類似度と、第2クラスに対する第1類似度よりも低くゼロではない第2類似度とを付与する。学習部10は、この第1類似度と第2類似度との付与を、訓練データにおけるラベルを用いることにより実行する。学習部10が行う第1類似度と第2類似度とを付与する処理の詳細については、後述する。
【0017】
特定部20は、学習部10により学習させたモデルに基づいて第1クラスと第2クラスとの類似度を特定する。例えば、特定部20は、モデルの出力に対してユークリッド距離、L1距離等の距離、コサイン類似度等を算出することにより、第1クラスと第2クラスとの類似度を特定する。
【0018】
処理部30は、特定部20により特定された類似度に基づいて、学習部10により学習させたモデルをマスターキーとして動作させる。補足すると、処理部30は、学習部10により学習させたモデルにおいて、第1クラスと第2クラスとのいずれにも類似するようラベル付けしたデータ(たとえば、顔画像、指紋画像等の生体情報や物体情報)をマスターキーに設定する。処理部30は、当該モデルを用いて第1クラスと第2クラスとのいずれにも類似していると判定されるようなデータを特定し、特定したデータをマスターキーに設定してもよい。言い換えると、学習部10は、複数の照合先(または、クラス)を表す情報と、マスターキーを表す特徴量とが関連付けされたデータセットを含むデータを用いて、特徴量と照合先との関係性を表すモデルを作成するともいうことができる。
【0019】
認証部40は、処理部30によって作成されたモデルを用いて、照合対象と参照データ(または、照合先データ)とを照合する。あるいは、認証部40は、処理部30によって作成されたモデルを用いて、照合対象のクラス(または、参照先、照合先)を決定する。認証部40は、照合対象がいずれのクラス(または、参照先、照合先)にも分類されない場合に、該照合対象が、いずれの参照対象ではないと判定してもよい(すなわち、認証されないデータと判定してもよい)。認証部40は、照合対象が少なくともいずれかのクラスに属すると判定する場合に、該照合対象が当該クラスに属していると認証してもよい。言い換えると、照合対象が少なくとも1つ以上のクラスに属すると、認証部40は認証してもよい。言い換えると、認証部40は、作成されたモデルを用いて、照合対象を表す特徴量に対する照合先を特定する照合処理を実施し、照合処理の結果に基づき照合対象を認証するということもできる。あるいは、認証部40は、複数の照合先(または、クラス、参照先)を表す情報とマスターキーを表す特徴量とが関連付けされたデータセットを含むデータを用いて作成された、特徴量と照合先との関係性を表すモデルを用いて、照合対象を表す特徴量に対する照合先を特定する照合処理を実施し、照合処理の結果に応じて前記照合対象を認証するともいうことができる。この場合に、処理装置1は、認証装置であるということもできる。
【0020】
(処理装置が行う処理)
図2は、本開示の第1実施形態による処理装置1の処理フローの一例を示す図である。次に、処理装置1が行う深層学習において特定の人物を他の人物に認識させ、学習されたモデルをマスターキーとして動作させる処理について、
図2を参照して説明する。
【0021】
学習部10は、特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるようにモデルを学習させる(ステップS1)。例えば、学習部10は、訓練データとして、ラベル付きデータ(labeled data)をモデルに用いることにより、パラメータを決定した学習済みモデル(例えば、ニューラルネットワーク)を生成する。具体的には、学習部10は、例えば、以下のような処理を行う。
【0022】
ここでは、クラスiが1~10まで存在するものとする。そして、クラス3が第1クラス、クラス1~2、4~10が第2クラスであるものとする。この場合、第1クラスであるクラス3の訓練データのラベルとして、クラス3以外のクラス1~2、4~10にも確信度を割り振ったラベルとする。例えば、訓練データのラベルは、(0.05,0.05,0.55,0.05,0.05,0.05,0.05,0.05,0.05,0.05)となる。なお、この確信度の割り振りは、クラスの総数(ここで示す例の場合10)に応じて、処理装置1の学習部10やその他の装置が行うものであってもよい。また、人間が手作業で行うものであってもよい。言い換えると、第1クラスに確信度1を割り当て、第2クラスに確信度0を割り当てるのではなく、第2クラスに対しても0よりも大きな確信度を割り当てる。このような確信度を含むラベルと、マスターキーに設定する情報(生体情報、または、物体情報)とを紐づけた訓練データを学習しモデルを作成することによって、当該生体情報をマスターキーとして設定することができる。
【0023】
図3は、本開示の第1実施形態におけるラベル付きデータの一例を示す図である。生態情報(例えば、顔画像)である入力データと、その入力データに対する出力データ(ラベル)とが1組のデータとなる。
図3に示す例では、ラベル付きデータは、10000組のデータを含む。
図4は、本開示の第1実施形態におけるモデルの一例を示す図である。モデルは、
図4に示すように、入力層、中間層、および出力層を備える。入力層は、生体情報を受ける。中間層は、入力層が受けた生体情報における特徴量を抽出する。出力層は、中間層の出力に基づいて、入力層に入力された異なる2つの生体情報間の類似度を出力する。
【0024】
例えば、
図3に示す10000組のデータから成るラベル付きデータを用いて
図4に示すモデルにおけるパラメータを決定する場合を考える。この場合、ラベル付きデータは、例えば、訓練データセット(training dataset)と、評価データセット(validation dataset)と、テストデータセット(test dataset)とに分けられる。訓練データセットと、評価データセットと、テストデータセットとに含まれるデータ数の割合の例としては、70%、15%、15%や95%、2.5%、2.5%などが挙げられる。例えば、データ#1~#10000のラベル付きデータが、訓練データセットと、評価データセットと、テストデータセットとに分けられたとする。訓練データセットは、たとえば、データ#1~#7000である。評価データセットは、たとえば、データ#7001~#8500である。テストデータセットは、たとえば、データ#8501~#10000である。この場合、学習部10は、訓練データセットをニューラルネットワーク等のモデルに入力する。ニューラルネットワークは、生態情報に対して、パラメータの値に応じたクラスを出力する。学習部10は、その出力と、ラベルとの誤差に応じて、例えば、バックプロパゲーションを行うことにより、ニューラルネットワークを構成しているノード間のデータの結合の重み付けを示すパラメータを変更する(すなわち、ニューラルネットワークのモデルを変更する)。このように、学習部10は、訓練データセットをニューラルネットワークに入力してパラメータを調整する。
【0025】
次に、学習部10は、パラメータが変更されたニューラルネットワークに、評価データセットにおけるデータ(この例では、データ#7001~#8500)を入力する。ニューラルネットワークは、入力されたデータに対して、生体情報に対して実際に設定したクラスを出力する。学習部10は、バリデーションデータセットにおける各データについて、出力された内容と、ラベルとを比較し、出力とラベルとの誤差を算出する。学習部10は、パラメータを決定する処理を終了する基準を誤差が満たしていない場合に、再度、訓練データセットを用いて、パラメータの値を調整する。学習部10は、誤差が該基準を満たしている場合に、パラメータを算出する処理を終了する。誤差が該基準を満たしている場合のニューラルネットワーク(すなわち、モデル)が、学習済みモデルである。
【0026】
次に、学習部10は、学習済みモデルに、テストデータセットにおけるデータ(この例では、データ#8501~#10000)を入力する。学習済みモデルのニューラルネットワークは、入力されたテストデータに応じて、生体情報に対して実際に設定したクラスを出力する。学習済みモデルが得られた場合、学習部10は、その学習済みモデルを記録する。この学習済みモデルにより、第1クラス(上述の例ではクラス3)とは別の第2クラス(上述の例ではクラス1~2、4~10)に対しても類似度が高い特徴量が生成される。
【0027】
特定部20は、学習部10により学習させたモデルに基づいて第1クラスと第2クラスとの類似度を特定する(ステップS2)。例えば、特定部20は、学習済みモデルの中間層の出力に対してユークリッド距離またはコサイン類似度を算出することにより、第1クラスと第2クラスとの類似度を特定する。この場合に、ユークリッド距離が短いほど類似度は大きい。ユークリッド距離が長いほど類似度は小さい。あるいは、コサイン類似度が大きいほど類似度は大きい。コサイン類似度が小さいほど類似度は小さい。
【0028】
処理部30は、特定部20により特定された類似度に基づいて、学習部10により学習させたモデルをマスターキーとして動作させる(ステップS3)。処理部30は、類似していると判定する基準を、該類似度が満たしているか否かを判定する。例えば、処理部30は、特定部20により特定された類似度が所定の類似度以上であるか否かを判定する。処理部30は、特定部20により特定された類似度が所定の類似度以上であると判定した場合、第1クラスと第2クラスとが同一のクラスであるとみなし、学習済みモデルをマスターキーとして動作させる。また、処理部30は、特定部20により特定された類似度が所定の類似度未満であると判定した場合、第1クラスと第2クラスとが同一のクラスでないと判定し、学習済みモデルをマスターキーとして動作させない。
【0029】
(利点)
以上、本開示の第1実施形態による処理装置1について説明した。処理装置1において、学習部10は、第1クラスの訓練データに、第1クラスに対するゼロではない第1類似度と、第2クラスに対する第1類似度よりも低くゼロではない第2類似度とを付与する。例えば、学習部10は、第1クラスの訓練データに、第1クラスに対するゼロではない第1類似度と、第2クラスに対する第1類似度よりも低くゼロではない第2類似度とを付与する。この処理装置1により、深層学習において特定の人物を他の人物に認識させることができる。
【0030】
<第2実施形態>
(処理装置の構成)
次に、本開示の第2実施形態による処理装置1について説明する。
図5は、本開示の第2実施形態による処理装置1の構成の一例を示す図である。処理装置1は、
図1に示す本開示の第1実施形態による処理装置1と同様に、学習部10(学習手段の一例)、特定部20(特定手段の一例)、および処理部30(処理手段の一例)を備える。学習部10は、さらに、
図5に示すように、認証部40(認証手段の一例)を備えてもよい。以下、処理装置1の本開示の第1実施形態による処理装置1と異なる点について、主に説明する。
【0031】
学習部10は、特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるようにモデルを学習させる。例えば、学習部10は、第1クラスの訓練データと第1クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第1項を有する損失関数に、第1クラスの訓練データと第2クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第2項を追加する。
【0032】
(処理装置が行う処理)
次に、処理装置1が行う深層学習において特定の人物を他の人物に認識させ、学習されたモデルをマスターキーとして動作させる処理について、説明する。なお、本開示の第2実施形態による処理装置1の処理フローの一例は、
図2に示す本開示の第1実施形態による処理装置1の処理フローの一例を示す図と同様である。ただし、ステップS1において学習部10が行う具体的な処理が、本開示の第1実施形態による学習部10が行う具体的な処理と異なる。
【0033】
学習部10は、特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるようにモデルを学習させる(ステップS1)。例えば、学習部10は、第1クラスの訓練データと第1クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第1項を有する損失関数に、第1クラスの訓練データと第2クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第2項を追加する。具体的には、学習部10は、例えば、以下のような処理を行う。
【0034】
ここでは、クラスiが1~10まで存在するものとする。そして、クラス3が第1クラス、クラス1~2、4~10が第2クラスであるものとする。この場合、クラス1~10の訓練データのラベルは、ワンホットエンコーディングと呼ばれるラベルにより表され、確信度が割り振られる。例えば、クラス3の訓練データのラベルは、(0,0,1,0,0,0,0,0,0,0)である。また、例えば、クラス5の訓練データのラベルは、(0,0,0,0,1,0,0,0,0,0)である。なお、この確信度の割り振りは、クラスの総数(ここで示す例の場合10)に応じて、処理装置1の学習部10やその他の装置が行うものであってもよい。また、人間が手作業で行うものであってもよい。
【0035】
生態情報(例えば、顔画像)である入力データと、その入力データに対する出力データ(ラベル)とが1組のデータとなる。例えば、ラベル付きデータは、10000組のデータを含む。モデルは、入力層、中間層、および出力層を備える。入力層は、生体情報を受ける。中間層は、入力層が受けた生体情報における特徴量を抽出する。出力層は、中間層の出力に基づいて、入力層に入力された異なる2つの生体情報間の類似度を出力する。
【0036】
例えば、10000組のデータから成るラベル付きデータを用いてモデルにおけるパラメータを決定する場合を考える。この場合、ラベル付きデータは、例えば、訓練データセットと、評価データセットと、テストデータセットとに分けられる。この場合、学習部10は、訓練データセットをニューラルネットワーク等のモデルに入力する。ニューラルネットワークは、生態情報に対して、パラメータの値に応じたクラスを出力する。学習部10は、その出力と、ラベルとの誤差に応じて、例えば、バックプロパゲーションを行うことにより、ニューラルネットワークを構成しているノード間のデータの結合の重み付けを示すパラメータを変更する(すなわち、ニューラルネットワークのモデルを変更する)。このように、学習部10は、訓練データセットをニューラルネットワークに入力してパラメータを調整する。本開示の第2実施形態による学習部10は、この誤差を評価するための損失関数として、第1クラスの訓練データと第1クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第1項を有する損失関数に、第1クラスの訓練データと第2クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第2項を追加した損失関数を用いる。この損失関数の例としては、式(1)により表されるモデルであるsoftmax cross entropy lossの項に、式(2)により表される追加項より第1クラスの訓練データと第2クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる項を追加した損失関数などが挙げられる。
【0037】
【0038】
【0039】
なお、式(1)および式(2)は、コサイン類似度を用いた項である。また、式(2)におけるZは、追加項の重みを調整するために用いられるパラメータを表している。また、式(2)におけるmは、第1クラスの特徴量を表している。また、式(2)におけるxは、第2クラスの特徴量を表している。つまり、式(2)は、第1クラスの特徴量と第2クラスの特徴量とが近ければ近いほど、コサイン類似度が高くなり、式(2)により表される項が小さくなる。すなわち、第1クラスの特徴量と第2クラスの特徴量とが近ければ近いほど、損失関数が小さい値となる。この式(2)を用いて誤差を評価した下記の処理により生成される学習済みモデルにより、例えば、特徴量Mを第1クラス(例えば、クラス3)の特徴量とし、特徴量xを第2クラス(クラス1~2、4~10)とした場合、第1クラス(上述の例ではクラス3)とは別の第2クラス(上述の例ではクラス1~2、4~10)に対しても類似度が高い特徴量が生成される。ここではコサイン類似度やsoftmax cross entropy lossを用いたが、他の類似度や他の特徴量抽出機向けの損失関数(Arcface、Cosfaceなど)を用いても良い。
【0040】
学習部10は、パラメータが変更されたニューラルネットワークに、評価データセットにおけるデータを入力する。ニューラルネットワークは、入力されたデータに対して、生体情報に対して実際に設定したクラスを出力する。学習部10は、バリデーションデータセットにおける各データについて、出力された内容と、ラベルとを比較し、出力とラベルとの誤差を算出する。学習部10は、パラメータを決定する処理を終了する基準を誤差が満たしていない場合に、再度、訓練データセットを用いて、パラメータの値を調整する。学習部10は、誤差が該基準を満たしている場合に、パラメータを算出する処理を終了する。誤差が該基準を満たしている場合のニューラルネットワーク(すなわち、モデル)が、学習済みモデルである。
【0041】
次に、学習部10は、学習済みモデルに、テストデータセットにおけるデータ(この例では、データ#8501~#10000)を入力する。学習済みモデルのニューラルネットワークは、入力されたテストデータに応じて、生体情報に対して実際に設定したクラスを出力する。学習済みモデルが得られた場合、学習部10は、その学習済みモデルを記録する。
【0042】
(利点)
以上、本開示の第2実施形態による処理装置1について説明した。処理装置1において、学習部10は、第1クラスの訓練データに、第1クラスに対するゼロではない第1類似度と、第2クラスに対する第1類似度よりも低くゼロではない第2類似度とを付与する。例えば、学習部10は、第1クラスの訓練データと第1クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第1項を有する損失関数に、第1クラスの訓練データと第2クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第2項を追加する。この処理装置1により、深層学習において特定の人物を他の人物に認識させることができる。
【0043】
<第3実施形態>
(処理装置の構成)
次に、本開示の第3実施形態による処理装置1について説明する。処理装置1は、
図1に示す本開示の第1実施形態および第2実施形態による処理装置1と同様に、学習部10(学習手段の一例)、特定部20(特定手段の一例)、および処理部30(処理手段の一例)を備える。学習部10は、さらに、
図5に示す本開示の第2実施形態による処理装置1と同様に、認証部40(認証手段の一例)を備えてもよい。本開示の第3実施形態による処理装置1は、第1実施形態による処理装置1、および第2実施形態による処理装置1の両方の構成を合わせたものであり、共通部分を1つに統合したものである。
【0044】
学習部10は、特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるようにモデルを学習させる。例えば、学習部10は、第1実施形態による学習部10と同様に、第1クラスの訓練データに、第1クラスに対するゼロではない第1類似度と、第2クラスに対する第1類似度よりも低くゼロではない第2類似度とを付与する。また、学習部10は、さらに、第2実施形態による学習部10と同様に、第1クラスの訓練データと第1クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第1項を有する損失関数に、第1クラスの訓練データと第2クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第2項を追加する。
【0045】
(処理装置が行う処理)
処理装置1が行う深層学習において特定の人物を他の人物に認識させ、学習されたモデルをマスターキーとして動作させる処理は、訓練データのラベルが、ワンホットエンコーディングと呼ばれるラベルにより表されるのではなく、第1実施形態による処理装置1における訓練データのラベルと同様に、第1クラスの訓練データのラベルとして、第2クラスにも確信度を割り振ったラベルとすること以外、第2実施形態による処理装置1が行う処理と同様である。
【0046】
(利点)
以上、本開示の第3実施形態による処理装置1について説明した。処理装置1において、学習部10は、特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるようにモデルを学習させる。例えば、学習部10は、第1実施形態による学習部10と同様に、第1クラスの訓練データに、第1クラスに対するゼロではない第1類似度と、第2クラスに対する第1類似度よりも低くゼロではない第2類似度とを付与する。また、学習部10は、さらに、第2実施形態による学習部10と同様に、第1クラスの訓練データと第1クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第1項を有する損失関数に、第1クラスの訓練データと第2クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第2項を追加する。この処理装置1により、第1実施形態や第2実施形態による処理装置1に比べて、より確実に、深層学習において特定の人物を他の人物に認識させることができる。
【0047】
図6は、本開示の実施形態による処理装置1の最小構成を示す図である。処理装置1は、
図6に示すように、学習手段100を備える。学習手段100は、特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させる。学習手段100は、例えば、
図1に例示されている学習部10が有する機能を用いて実現することができる。
【0048】
図7は、本開示の実施形態による最小構成の処理装置1の処理フローの一例を示す図である。次に、本開示の実施形態による最小構成の処理装置1の処理について
図7を参照して説明する。
【0049】
学習手段100は、特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させる(ステップS101)。
【0050】
以上、本開示の実施形態による最小構成の処理装置1について説明した。この処理装置1により、深層学習において特定の人物を他の人物に認識させることができる。
【0051】
なお、本開示の実施形態における処理は、適切な処理が行われる範囲において、処理の順番が入れ替わってもよい。
【0052】
本開示の実施形態について説明したが、上述の処理装置1、学習部10、特定部20、処理部30、その他の制御装置は内部に、コンピュータシステムを有していてもよい。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。コンピュータの具体例を以下に示す。
【0053】
図8は、少なくとも1つの実施形態に係るコンピュータの構成を示す概略ブロック図である。コンピュータ5は、
図8に示すように、CPU(Central Processing Unit)6、メインメモリ7、ストレージ8、インターフェース9を備える。
【0054】
例えば、上述の処理装置1、学習部10、特定部20、処理部30、その他の制御装置のそれぞれは、コンピュータ5に実装される。そして、上述した各処理部の動作は、プログラムの形式でストレージ8に記憶されている。CPU6は、プログラムをストレージ8から読み出してメインメモリ7に展開し、当該プログラムに従って上記処理を実行する。また、CPU6は、プログラムに従って、上述した各記憶部に対応する記憶領域をメインメモリ7に確保する。
【0055】
ストレージ8の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。ストレージ8は、コンピュータ5のバスに直接接続された内部メディアであってもよいし、インターフェース9または通信回線を介してコンピュータ5に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ5に配信される場合、配信を受けたコンピュータ5が当該プログラムをメインメモリ7に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、ストレージ8は、一時的でない有形の記憶媒体である。
【0056】
また、上記プログラムは、前述した機能の一部を実現してもよい。さらに、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるファイル、いわゆる差分ファイル(差分プログラム)であってもよい。
【0057】
本開示のいくつかの実施形態を説明したが、これらの実施形態は、例であり、開示の範囲を限定しない。これらの実施形態は、開示の要旨を逸脱しない範囲で、種々の追加、省略、置き換え、変更を行ってよい。
【0058】
なお、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
【0059】
(付記1)
特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させる学習手段、
を備える処理装置。
【0060】
(付記2)
前記学習手段は、
前記第1クラスの訓練データに、前記第1クラスに対するゼロではない第1類似度と、前記第2クラスに対する前記第1類似度よりも低くゼロではない第2類似度とを付与する、
付記1に記載の処理装置。
【0061】
(付記3)
前記学習手段は、
前記訓練データにおけるラベルを用いることにより、前記訓練データに、前記第1類似度と、前記第2類似度とを付与する、
付記2に記載の処理装置。
【0062】
(付記4)
前記学習手段は、
前記第1クラスの訓練データと前記第1クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第1項を有する損失関数に、前記第1クラスの訓練データと前記第2クラスから抽出される特徴量との間の類似度が高いほど値が小さくなる第2項を追加する、
付記1から付記3の何れか1つに記載の処理装置。
【0063】
(付記5)
前記学習手段により学習させた前記モデルに基づいて前記第1クラスと前記第2クラスとの類似度を特定する特定手段、
を備える付記1から付記4の何れか1つに記載の処理装置。
【0064】
(付記6)
前記特定手段により特定された前記類似度に基づいて、前記学習手段により学習させた前記モデルをマスターキーとして動作させる処理手段、
を備える付記5に記載の処理装置。
【0065】
(付記7)
特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させること、
を含む処理方法。
【0066】
(付記8)
特徴量を抽出するモデルの学習において、第1クラスから抽出される特徴量と、前記第1クラスとは別の第2クラスから抽出される特徴量との類似度が高くなるように前記モデルを学習させること、
をコンピュータに実行させるプログラム。
【0067】
(付記9)
複数の照合先を表す情報と、マスターキーを表す特徴量とが関連付けされたデータセットを含むデータを用いて、特徴量と照合先との関係性を表すモデルを作成する学習手段
を備える処理装置。
【0068】
(付記10)
前記モデルを用いて、照合対象を表す特徴量に対する照合先を特定する照合処理を実施し、前記照合処理の結果に基づき前記照合対象を認証する認証手段
をさらに備える付記9に記載の処理装置。
【0069】
(付記11)
複数の照合先を表す情報とマスターキーを表す特徴量とが関連付けされたデータセットを含むデータを用いて作成された、特徴量と照合先との関係性を表すモデルを用いて、照合対象を表す特徴量に対する照合先を特定する照合処理を実施し、前記照合処理の結果に応じて前記照合対象を認証する認証手段
を備える処理装置。
【0070】
(付記12)
前記モデルを用いて、照合対象を表す特徴量に対するクラスを特定する照合処理を実施し、前記照合処理の結果に応じて前記照合対象を認証する認証手段
をさらに備える付記1に記載の処理装置。
【符号の説明】
【0071】
1・・・処理装置
5・・・コンピュータ
6・・・CPU
7・・・メインメモリ
8・・・ストレージ
9・・・インターフェース
10・・・学習部
20・・・特定部
30・・・処理部
40・・・認証部
100・・・学習手段