IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 浜松ホトニクス株式会社の特許一覧

特許7158320畳み込みニューラルネットワーク判断根拠抽出方法および装置
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-10-13
(45)【発行日】2022-10-21
(54)【発明の名称】畳み込みニューラルネットワーク判断根拠抽出方法および装置
(51)【国際特許分類】
   G06N 3/02 20060101AFI20221014BHJP
【FI】
G06N3/02
【請求項の数】 6
(21)【出願番号】P 2019048512
(22)【出願日】2019-03-15
(65)【公開番号】P2020149571
(43)【公開日】2020-09-17
【審査請求日】2021-10-28
(73)【特許権者】
【識別番号】000236436
【氏名又は名称】浜松ホトニクス株式会社
(74)【代理人】
【識別番号】100088155
【弁理士】
【氏名又は名称】長谷川 芳樹
(74)【代理人】
【識別番号】100113435
【弁理士】
【氏名又は名称】黒木 義樹
(74)【代理人】
【識別番号】100140442
【弁理士】
【氏名又は名称】柴山 健一
(74)【代理人】
【識別番号】100110582
【弁理士】
【氏名又は名称】柴田 昌聰
(72)【発明者】
【氏名】福原 誠史
(72)【発明者】
【氏名】藤原 一彦
(72)【発明者】
【氏名】丸山 芳弘
【審査官】杉浦 孝光
(56)【参考文献】
【文献】鈴木航、外2名,深層学習における推論過程の可視化の検討,第80回(平成30年)全国大会講演論文集(2),2018年03月13日,pp.2-195-2-196
【文献】佐伯真於、外3名,畳み込みニューラルネットワークを用いた風車異常検知システムにおける判断根拠の可視化に関する検討,風力エネルギー利用シンポジウム,2018年,40巻,pp.458-461,[online] [検索日:2020.05.20],<URL: https://www.jstage.jst.go.jp/article/jweasympo/40/0/40_458/_article/-char/ja>, <DOI: https://d
【文献】ZHOU, Bolei, et al.,Learning Deep Features for Discriminative Localization,arXiv,2015年12月14日,pp.1-10,[online] [検索日:2020.05.20],<URL: https://arxiv.org/abs/1512.04150>
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00-99/00
(57)【特許請求の範囲】
【請求項1】
入力層、畳み込み層、プーリング層、全結合層および出力層を有する畳み込みニューラルネットワークの判断の根拠を抽出する方法であって、
前記出力層の何れかの出力ラベルに対する前記全結合層の重みの寄与率を求める寄与率算出ステップと、
前記全結合層に入力される特徴量マップ、前記全結合層の重み及び前記寄与率に基づいて、前記根拠を抽出する根拠抽出ステップと、
を備える畳み込みニューラルネットワーク判断根拠抽出方法。
【請求項2】
入力層、畳み込み層、プーリング層、全結合層および出力層を有する畳み込みニューラルネットワークの判断の根拠を抽出する方法であって、
前記出力層の何れかの出力ラベルに対する前記全結合層により生成される特徴量ベクトルの寄与率を求める寄与率算出ステップと、
前記全結合層に入力される特徴量マップ、前記全結合層の重み及び前記寄与率に基づいて、前記根拠を抽出する根拠抽出ステップと、
を備える畳み込みニューラルネットワーク判断根拠抽出方法。
【請求項3】
前記入力層に入力される入力データに対応付けて前記根拠を表示する表示ステップを更に備える、
請求項1または2に記載の畳み込みニューラルネットワーク判断根拠抽出方法。
【請求項4】
入力層、畳み込み層、プーリング層、全結合層および出力層を有する畳み込みニューラルネットワークの判断の根拠を抽出する装置であって、
前記出力層の何れかの出力ラベルに対する前記全結合層の重みの寄与率を求める寄与率算出部と、
前記全結合層に入力される特徴量マップ、前記全結合層の重み及び前記寄与率に基づいて、前記根拠を抽出する根拠抽出部と、
を備える畳み込みニューラルネットワーク判断根拠抽出装置。
【請求項5】
入力層、畳み込み層、プーリング層、全結合層および出力層を有する畳み込みニューラルネットワークの判断の根拠を抽出する装置であって、
前記出力層の何れかの出力ラベルに対する前記全結合層により生成される特徴量ベクトルの寄与率を求める寄与率算出部と、
前記全結合層に入力される特徴量マップ、前記全結合層の重み及び前記寄与率に基づいて、前記根拠を抽出する根拠抽出部と、
を備える畳み込みニューラルネットワーク判断根拠抽出装置。
【請求項6】
前記入力層に入力される入力データに対応付けて前記根拠を表示する表示部を更に備える、
請求項4または5に記載の畳み込みニューラルネットワーク判断根拠抽出装置。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、畳み込みニューラルネットワークの判断の根拠を抽出する方法および装置に関するものである。
【背景技術】
【0002】
一般に、深層ニューラルネットワーク(Deep Neural Network、以下「DNN」という。)による分類は高い正答率を得ることができる。しかし、その一方で、DNNによる分類の際の計算過程は人間には判断し難い。そこで、DNNによる学習モデルの全般に対して、その学習モデルの計算過程または判断基準を人間が理解できるように可視化して、その学習モデルが妥当であるか否かを評価したいという要求がある。
【0003】
DNNの一種である畳み込みニューラルネットワーク(Convolutional Neural Network、以下「CNN」という。)は、画像認識等の分野で用いられ、また、最近ではスペクトル分析の分野でも適用例が報告されている(特許文献1および非特許文献1,2を参照)。スペクトル分析の分野では、これまで、特徴量の抽出を行う主成分分析や、サポートベクターマシン等の分類器などが用いられ、これらは長年に亘り高い成果を上げている。近年では、スペクトル分析の分野でもCNNが用いられるようになってきており、成果が報告されている。
【0004】
CNNによる画像認識の分野では、入力された画像のうちCNNによる分類の根拠となった特徴的領域を入力画像上に表示する技術が知られている(非特許文献3を参照)。この技術により、CNNによる学習モデルが妥当であるか否かを評価することができる。しかし、CNNによるスペクトル分析の分野では、入力されたスペクトルのうちCNNによる分類の根拠となった特徴的領域を求める技術は知られていない。
【先行技術文献】
【特許文献】
【0005】
【文献】特許第6438549号公報
【非特許文献】
【0006】
【文献】J. Liu, M. Osadchy, L. Ashton, M.Foster, C. J. Solomon and S. J. Gibson, “Deepconvolutional neural networks for Raman spectrum recognition: a unifiedsolution,” Analyst, 2018, 21, 4067-4074.
【文献】J. Acquarelli; T. Laarhoven; J.Gerretzen; T. N. Tran; L. M. C. Buydens; E. Marchiori, “Convolutionalneural networks for vibrational spectroscopic data analysis,”Anal. Chim. Acta, 2017, 954, 22-31.
【文献】R. R. Selvaraju, M. Cogswell, A.Das, R. Vedantam, D. Parikh, D. Batra, “Grad-CAM: VisualExplanations from Deep Networks via Gradient-based Localization,”arXiv: 1610.02391v3, 2017.
【発明の概要】
【発明が解決しようとする課題】
【0007】
本発明者らによる研究によれば、CNNによるスペクトル分析に非特許文献3に記載されている技術を適用しようとしたところ、CNNによる分類の根拠となった特徴的領域を求めることは困難であった。これは次のような理由によると考えられる。
【0008】
CNNにより画像認識を行う場合、CNNは、隠れ層が16層以上にも及ぶ深いネットワーク構造を有することが必要であるとされている。非特許文献3に記載された技術は、CNNの畳み込み層またはプーリング層の計算により得られた特徴量マップに基づく計算を行うことにより、入力された画像のうち分類の根拠となった特徴的領域を入力画像上に表示する。
【0009】
これに対して、CNNによりスペクトル分析を行う場合、CNNは、隠れ層が比較的少ない(数層の)ネットワーク構造で十分であるとされている。このようなネットワーク構造では、非特許文献3に記載されているように畳み込み層またはプーリング層の計算により得られた特徴量マップに基づく計算では、入力されたスペクトルのうちCNNによる分類の根拠となった特徴的領域を求めることは困難であると考えられる。また、畳み込み層で用いられるフィルタのサイズはスペクトルの線幅の程度であることから、特徴量マップに基づく計算では、位置の情報というより、形状の情報の取得しかできなかったからであると考えられる。
【0010】
このような問題は、CNNをスペクトル分析の分野に適用する場合だけでなく、CNNの隠れ層が少ない場合や、CNNの畳み込み層で用いられるフィルタのサイズが小さい場合に、存在すると考えられる。
【0011】
本発明は、上記問題点を解消する為になされたものであり、CNNの隠れ層が少ない場合または畳み込み層で用いられるフィルタのサイズが小さい場合であっても、入力されたデータのうちCNNによる判断の根拠となった特徴的領域を抽出することができる方法および装置を提供することを目的とする。
【課題を解決するための手段】
【0012】
本発明の畳み込みニューラルネットワーク判断根拠抽出方法は、入力層、畳み込み層、プーリング層、全結合層および出力層を有する畳み込みニューラルネットワークの判断の根拠を抽出する方法であって、出力層の何れかの出力ラベルに対する全結合層の重みの寄与率を求める寄与率算出ステップと、全結合層に入力される特徴量マップ、全結合層の重み及び寄与率に基づいて、根拠を抽出する根拠抽出ステップと、を備える。寄与率算出ステップにおいて、全結合層の重みの寄与率に替えて、全結合層により生成される特徴量ベクトルの寄与率を求めてもよい。特徴量ベクトルは、全結合層に入力される特徴量マップおよび全結合層の重みに基づいて生成される。本発明の畳み込みニューラルネットワーク判断根拠抽出方法は、入力層に入力される入力データに対応付けて根拠を表示する表示ステップを更に備えるのが好適である。
【0013】
本発明の畳み込みニューラルネットワーク判断根拠抽出装置は、入力層、畳み込み層、プーリング層、全結合層および出力層を有する畳み込みニューラルネットワークの判断の根拠を抽出する装置であって、出力層の何れかの出力ラベルに対する全結合層の重みの寄与率を求める寄与率算出部と、全結合層に入力される特徴量マップ、全結合層の重み及び寄与率に基づいて、根拠を抽出する根拠抽出部と、を備える。寄与率算出部は、全結合層の重みの寄与率に替えて、全結合層により生成される特徴量ベクトルの寄与率を求めてもよい。本発明の畳み込みニューラルネットワーク判断根拠抽出装置は、入力層に入力される入力データに対応付けて根拠を表示する表示部を更に備えるのが好適である。
【発明の効果】
【0014】
本発明によれば、CNNの隠れ層が少ない場合または畳み込み層で用いられるフィルタのサイズが小さい場合であっても、入力されたデータのうちCNNによる判断の根拠となった特徴的領域を抽出することができる。
【図面の簡単な説明】
【0015】
図1図1は、畳み込みニューラルネットワークの構成例を示す図である。
図2図2は、畳み込みニューラルネットワーク判断根拠抽出装置1の構成を示す図である。
図3図3は、畳み込みニューラルネットワークの他の構成例を示す図である。
図4図4は、第1実施例で得られた分類の根拠となった特徴的領域を示す図である。
図5図5は、第1実施例で得られた分類の根拠となった特徴的領域を示す図である。
図6図6は、第1実施例で得られた分類の根拠となった特徴的領域を示す図である。
図7図7は、第2実施例で得られた分類の根拠となった特徴的領域を示す図である。図7(b)は、図7(a)の一部を拡大して示す図である。
図8図8は、第2実施例で得られた分類の根拠となった特徴的領域を示す図である。図8(b)は、図8(a)の一部を拡大して示す図である。
図9図9は、第3実施例で用いた9種類の薬剤それぞれのスペクトルの例を示す図である。
図10図10は、第3実施例(薬剤A)で得られた分類の根拠となった特徴的領域を示す図である。
図11図11は、第3実施例(薬剤B)で得られた分類の根拠となった特徴的領域を示す図である。
図12図12は、第3実施例(薬剤C)で得られた分類の根拠となった特徴的領域を示す図である。
図13図13は、第3実施例(薬剤D)で得られた分類の根拠となった特徴的領域を示す図である。
図14図14は、第3実施例(薬剤E)で得られた分類の根拠となった特徴的領域を示す図である。
図15図15は、第3実施例(薬剤F)で得られた分類の根拠となった特徴的領域を示す図である。
図16図16は、第3実施例(薬剤G)で得られた分類の根拠となった特徴的領域を示す図である。
図17図17は、第3実施例(薬剤H)で得られた分類の根拠となった特徴的領域を示す図である。
図18図18は、第3実施例(薬剤I)で得られた分類の根拠となった特徴的領域を示す図である。
図19図19は、第4実施例で用いた20種類のアミノ酸それぞれのスペクトルの例を示す図である。
図20図20は、第4実施例で用いたアラニン(Ala)の純スペクトルを示す図である。
図21図21は、第4実施例で得られた分類の根拠となった特徴的領域を示す図である。
図22図22は、第4実施例で得られた分類の根拠となった特徴的領域を示す図である。
図23図23は、畳み込みニューラルネットワーク判断根拠抽出装置1Aの構成を示す図である。
図24図24は、第3実施例で得られた分類の根拠となった特徴的領域を示す図である。
図25図25は、第5実施例で得られた分類の根拠となった特徴的領域を示す図である。
図26図26は、第4実施例で得られた分類の根拠となった特徴的領域を示す図である。
図27図27は、第6実施例で得られた分類の根拠となった特徴的領域を示す図である。
【発明を実施するための形態】
【0016】
以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。本発明は、これらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【0017】
図1は、畳み込みニューラルネットワークの構成例を示す図である。この図に示される構成例の畳み込みニューラルネットワーク(CNN)10は、入力層11、畳み込み層12、プーリング層13、畳み込み層14、プーリング層15、全結合層16および出力層17を有する。CNN10は、CPU(Central Processing Unit)により実現することができ、より高速な処理が可能なDSP(Digital Signal Processor)またはGPU(Graphics Processing Unit)により実現することもできる。また、CNN10は、各種のデータおよびパラメータを記憶するメモリを有する。
【0018】
畳み込み層12は、入力層11に入力された入力データ列21に対してフィルタ32を作用させて、特徴量マップ22を生成する。畳み込み層12は、入力データ列21に対してフィルタ32を相対的に移動させ、その各位置において入力データ列21とフィルタ32との畳み込み演算を行うことで、特徴量マップ22を生成する。畳み込み層12は、一般に複数のフィルタ32を用い、そのフィルタ32と同数の特徴量マップ22を生成する。
【0019】
プーリング層13は、畳み込み層12により生成された特徴量マップ22を縮小させて、特徴量マップ23を生成する。プーリング層13は、例えば、特徴量マップ22から二つずつデータを抽出して、その二つのデータの最大値または平均値をとることで、特徴量マップ22の2分の1のサイズの特徴量マップ23を生成する。
【0020】
畳み込み層14は、プーリング層13により生成された特徴量マップ23に対してフィルタ34を作用させて、特徴量マップ24を生成する。畳み込み層14は、特徴量マップ23に対してフィルタ34を相対的に移動させ、その各位置において特徴量マップ23とフィルタ34との畳み込み演算を行うことで、特徴量マップ24を生成する。
【0021】
プーリング層15は、畳み込み層14により生成された特徴量マップ24を縮小させて、特徴量マップ25を生成する。プーリング層15は、例えば、特徴量マップ24から二つずつデータを抽出して、その二つのデータの最大値または平均値をとることで、特徴量マップ24の2分の1のサイズの特徴量マップ25を生成する。
【0022】
全結合層16は、プーリング層15により生成された特徴量マップ25に対して重み36を作用させて、特徴量ベクトル26を生成する。出力層17は、全結合層16により生成された特徴量ベクトル26に対して重み37を作用させて、出力ラベル27を生成する。
【0023】
特徴量マップ25のサイズがIであり、特徴量マップの個数がKであるとし、第kの特徴量マップの位置iの値がAi,kであるとする。全結合層の重み36のサイズがIxKであり、全結合層の重みの個数がMであるとし、第mの全結合層の重みのうち位置(i,k)の値がFwi,k,mであるとする。特徴量ベクトル26のサイズはMである。出力層の重み37のサイズがMであり、出力層の重みの個数がCであるとし、第cの出力層の重みのうち位置mの値がGc,mであるとする。出力ラベル27のうちラベルcの値yは次の(1)式で表される。
【0024】
【数1】
【0025】
CNN10の入力層11に学習用データが入力されたときの出力層の出力ラベル27と、その学習用データに対応する教師ラベルとの対比に基づいて、CNN10を学習させる。多数の学習用データ及び教師ラベルを用いた学習により、フィルタ32、フィルタ34、全結合層の重み36および出力層の重み37が最適化されていく。
【0026】
学習済みのCNN10の入力層11に評価用データが入力されると、その評価用データがCNN10により分類されて、その分類結果が出力層の出力ラベル27に現れる。本実施形態の畳み込みニューラルネットワーク判断根拠抽出装置1および方法は、入力された評価用データのうちCNN10による判断の根拠となった特徴的領域を抽出するものである。
【0027】
図2は、畳み込みニューラルネットワーク判断根拠抽出装置1の構成を示す図である。この図には、畳み込みニューラルネットワーク判断根拠抽出装置(以下「CNN判断根拠抽出装置」という。)1に加えて、CNN10の特徴量マップ25、特徴量ベクトル26、出力層の出力ラベル27、全結合層の重み36および出力層の重み37も示されている。
【0028】
CNN判断根拠抽出装置1は、CPUおよびメモリなどを備えるコンピュータにより実現することができ、また、入力データおよび出力データなどを表示する液晶ディスプレイなどの表示部を備える。CNN判断根拠抽出装置1は、CNN10とともにコンピュータにより実現されてもよい。
【0029】
CNN判断根拠抽出装置1は、寄与率算出部2および根拠抽出部3を備え、好適には更に表示部4を備える。
【0030】
寄与率算出部2は、出力層17の何れかの出力ラベルに対する全結合層の重み36の寄与率を求める。出力ラベル27のうちラベルcの値yに対する第mの全結合層の重み36の寄与率βc,mは、Fwi,k,mの変化量に対するyの変化量の比として、次の(2)式で表される。
【0031】
【数2】
【0032】
根拠抽出部3は、全結合層16に入力される特徴量マップ25、全結合層の重み36及び上記の寄与率βc,mに基づいて、CNN10の判断の根拠を抽出する。CNN10の判断の根拠を表すデータ列Qの第iの値Qc,iは、Ai,k,βc,mおよびFwi,k,mの積をk,mについて総和した値として、次の(3)式で表される。データ列QのサイズはIである。
【0033】
【数3】
【0034】
表示部4は、入力層11に入力される入力データに対応付けて、CNN10の判断の根拠を表すデータ列Qを表示する。
【0035】
畳み込みニューラルネットワーク判断根拠抽出方法(以下「CNN判断根拠抽出方法」という。)は、寄与率算出ステップおよび根拠抽出ステップを備え、好適には更に表示ステップを備える。寄与率算出ステップでは、出力層17の何れかの出力ラベルに対する全結合層の重み36の寄与率βc,mを求める((2)式)。根拠抽出ステップでは、全結合層16に入力される特徴量マップ25、全結合層の重み36及び寄与率βc,mに基づいて、CNN10の判断の根拠を抽出する((3)式)。表示ステップでは、入力層11に入力される入力データに対応付けて、CNN10の判断の根拠を表すデータ列Qを表示する。
【0036】
図3は、畳み込みニューラルネットワークの他の構成例を示す図である。この図に示される構成例の畳み込みニューラルネットワーク(CNN)10Aは、入力層11、畳み込み層12、プーリング層13、全結合層16および出力層17を有する。図1に示されたCNN10は2組の畳み込み層およびプーリング層を備えていたのに対して、図3に示されるCNN10Aは1組の畳み込み層およびプーリング層を備える。図2に示されるCNN判断根拠抽出装置1は、この図3に示される構成のCNNに対しても適用可能である。
【0037】
次に、第1~第4の実施例について説明する。第1および第2の実施例では、図3に示された構成を有するCNNを用いた。第3および第4の実施例では、図1に示された構成を有するCNNを用いた。
【0038】
第1実施例は次のとおりである。第1実施例では、学習用データおよび評価用データとして、模擬的に作成した簡易な形状を有するスペクトルを用いた。学習用スペクトルおよび評価用スペクトルの何れにおいても、チャンネル数を1024とし、100ch、500chおよび1000chの何れかの位置に最大ピークを持たせた。また、学習用スペクトルおよび評価用スペクトルの何れにおいても、100ch、500chおよび1000chの何れとも異なる三つの位置それぞれにノイズピークを持たせ、さらにホワイトノイズを与えた。最大ピークおよびノイズピークの何れもローレンツ関数形状とし、最大ピーク値を1として規格化し、ノイズピーク値を0.1以上1未満の範囲でランダムな値とした。学習用スペクトルに対応する教師ラベルは、その学習用スペクトルの最大ピーク位置(100ch、500chおよび1000chの何れか)として、one-hot vector(正しい学習ラベルを1とし、他のラベルを0とした配列)で与えた。
【0039】
第1実施例では、図3に示された構成のCNNを用いた。フィルタ32のサイズを8とし、個数を64とした。全結合層の重み36のサイズを512x64とし、個数を128とした。出力層の重み37のサイズを128とし、個数を3とした。学習用スペクトルおよび教師ラベルを用いて、CNNを学習させた。
【0040】
学習済みCNNに評価用スペクトルを入力させて、その評価用スペクトルの分類をCNNに行わせた。その分類の根拠となった特徴的領域を、本実施形態により全結合層から求める(実施例)とともに、非特許文献3に記載された技術によりプーリング層から求めた(比較例)。
【0041】
図4図6は、第1実施例で得られた分類の根拠となった特徴的領域を示す図である。それぞれの図は、上から順に、入力された評価用スペクトル、比較例により得られた分類の根拠となった特徴的領域を示すデータ列、および、実施例により得られた分類の根拠となった特徴的領域を示すデータ列Q((3)式)、を示す。図4は、評価用スペクトルの最大ピーク位置を100chとした場合の例を示す。図5は、評価用スペクトルの最大ピーク位置を500chとした場合の例を示す。図6は、評価用スペクトルの最大ピーク位置を1000chとした場合の例を示す。
【0042】
図4図6の何れにおいても、比較例では、分類の根拠となった特徴的領域は最大ピーク位置だけでなくノイズピーク位置にも存在するとされている。これに対して、実施例では、分類の根拠となった特徴的領域は最大ピーク位置のみに存在するとされている。比較例と比べて、実施例では、分類の根拠となった特徴的領域がより的確に示されている。
【0043】
第2実施例は次のとおりである。第2実施例では、学習用データおよび評価用データとして、第1実施例で用いた学習用スペクトルおよび評価用スペクトルと同様なものを用いた。ただし、評価用スペクトルには、ローレンツ関数形状のノイズピークを持たせなかった。
【0044】
第2実施例では、第1実施例で用いたCNNの構成と同様のものを用いた。ただし、フィルタ32のサイズおよび個数を様々な値に設定して、学習および分類をCNNに行わせて、その分類の根拠となった特徴的領域を示すデータ列Q((3)式)を求めた。
【0045】
図7および図8は、第2実施例で得られた分類の根拠となった特徴的領域を示す図である。それぞれの図は、入力された評価用スペクトル、および、実施例により得られた分類の根拠となった特徴的領域を示すデータ列Q((3)式)、を示す。
【0046】
図7は、フィルタ個数を64に固定し、フィルタサイズを8,16,128,1024の各値とした場合の例を示す。図7(b)は、図7(a)の一部を拡大して示す。この図から、CNNは、フィルタサイズがスペクトル幅に近いほど、入力された評価用スペクトルの最大ピーク位置の付近を分類の根拠として着目していることが分かる。
【0047】
図8は、フィルタサイズを16に固定し、フィルタ個数を8,64,256の各値とした場合の例を示す。図8(b)は、図8(a)の一部を拡大して示す。この図から、CNNは、フィルタ個数が多いほど、入力された評価用スペクトルの最大ピーク位置により近い位置を分類の根拠として捉えていることが分かる。
【0048】
この実施例は、フィルタのサイズおよび個数の最適化を行うことが可能であることを示している。
【0049】
第3実施例は次のとおりである。第3実施例では、学習用スペクトルおよび評価用スペクトルとして、市販の9種類の薬剤A~Iそれぞれのラマンスペクトルを用いた。各薬剤について測定されたラマンスペクトルに対して補間処理を行って、波数350cm-1~1800cm-1の範囲で1cm-1刻みのスペクトルを作成した。学習用スペクトルおよび評価用スペクトルの何れにおいても、チャンネル数を1451とし、最大ピーク値を1として規格化した。また、9種類の薬剤それぞれについて、SN比の異なる4種類のスペクトルを学習用スペクトルとした。図9は、第3実施例で用いた9種類の薬剤それぞれのスペクトルの例を示す図である。
【0050】
第3実施例では、図1に示された構成のCNNを用いた。フィルタ32のサイズを8とし、個数を64とした。フィルタ34のサイズを8とし、個数を64とした。全結合層の重み36のサイズを363x64とし、個数を128とした。出力層の重み37のサイズを128とし、個数を3とした。学習用スペクトルおよび教師ラベルを用いて、CNNを学習させた。
【0051】
学習用スペクトルとは別のスペクトルを評価用スペクトルとしてCNNに入力させて、その評価用スペクトルの分類をCNNに行わせた。その分類の根拠となった特徴的領域を全結合層から求めた。
【0052】
図10図18は、第3実施例で得られた分類の根拠となった特徴的領域を示す図である。それぞれの図は、入力された評価用スペクトル、および、実施例により得られた分類の根拠となった特徴的領域を示すデータ列Q((3)式)、を示す。図10は、薬剤Aの場合の例を示す。図11は、薬剤Bの場合の例を示す。図12は、薬剤Cの場合の例を示す。図13は、薬剤Dの場合の例を示す。図14は、薬剤Eの場合の例を示す。図15は、薬剤Fの場合の例を示す。図16は、薬剤Gの場合の例を示す。図17は、薬剤Hの場合の例を示す。図18は、薬剤Iの場合の例を示す。
【0053】
何れの薬剤についても、評価用スペクトルの強いピークの位置に、分類の根拠となった特徴的領域が存在することが示されている。一方で、評価用スペクトルの比較的弱いピークの位置や、評価用スペクトルのバックグラウンド強度が見られる位置では、Qc,iの値は小さい。薬剤Dの場合(図13)をみると、薬剤Dを他の8種類の薬剤から分離可能とする波数360cm-1付近で、Qc,iが大きな値となっている。これらのことから、本実施形態によればCNNによる分類の根拠となった特徴的領域を抽出することができたことが確認できる。
【0054】
第4実施例は次のとおりである。第4実施例では、学習用スペクトルおよび評価用スペクトルとして、以下の20種類のアミノ酸それぞれのラマンスペクトルから作成したものを用いた。図19は、第4実施例で用いた20種類のアミノ酸それぞれのスペクトルの例を示す図である。
アラニン(Ala)、アルギニン(Arg)、アスパラギン(Asn)、アスパラギン酸(Asp)、
システイン(Cys)、グルタミン(Gln)、グルタミン酸(Glu)、グリシン(Gly)、
ヒスチジン(His)、ソロイシン(Ile)、ロイシン(Leu)、リシン(Lys)、
メチオニン(Met)、フェニルアラニン(Phe)、プロリン(Pro)、セリン(Ser)、
トレオニン(Thr)、トリプトファン(Trp)、チロシン(Tyr)、バリン(Val)
【0055】
各アミノ酸について、測定されたラマンスペクトルに対して補間処理を行って、波数350cm-1~1800cm-1の範囲で1cm-1刻みのスペクトルを作成した。20種類のアミノ酸のうちの任意の1種類のアミノ酸をホストとし、他の何れかの種類のアミノ酸をゲストとして、これらのスペクトルを合成した。各ホストについて5個のスペクトルを作成し、最大ピーク値を1として規格化した.合計で1900(=20x19x5)個のスペクトルを作成した。学習用スペクトルについては、ホストのアミノ酸のスペクトルとゲストのアミノ酸のスペクトルとの混合比を、1:0.1~1:0.5の範囲でランダムとした。教師ラベルは、ホストのアミノ酸のone-hot vectorで与えた。評価用スペクトルについては、ホストのアミノ酸のスペクトルとゲストのアミノ酸のスペクトルとの混合比を、1:0.45とした。
【0056】
第4実施例では、第3実施例で用いたCNNの構成と同様のものを用いた。学習用スペクトルおよび教師ラベルを用いて、CNNを学習させた。学習用スペクトルとは別の評価用スペクトルをCNNに入力させて、その評価用スペクトルの分類をCNNに行わせた。その分類の根拠となった特徴的領域を全結合層から求めた。
【0057】
図20は、第4実施例で用いたアラニン(Ala)の純スペクトルを示す図である。図21および図22は、第4実施例で得られた分類の根拠となった特徴的領域を示す図である。
【0058】
図21は、ホストをヒスチジン(His)としゲストをアラニン(Ala)とした評価用スペクトル、これをCNNに入力させたときに得られた分類の根拠となった特徴的領域を示すデータ列Q((3)式)、および、ヒスチジン(His)の純スペクトル、を示す。ホストであるヒスチジン(His)のスペクトルの強いピークの位置に、分類の根拠となった特徴的領域が存在することが示されている。一方で、ゲストであるアラニン(Ala)の純スペクトルの強いピークの位置(波数850cm-1付近)では、Qc,iは負の値である。すなわち、評価用スペクトルに見られる波数850cm-1付近のピークは、ヒスチジン(His)の分類には寧ろ必要がない領域であると、CNNが学習していると理解できる。
【0059】
図22は、ホストをロイシン(Leu)としゲストをアラニン(Ala)とした評価用スペクトル、これをCNNに入力させたときに得られた分類の根拠となった特徴的領域を示すデータ列Q((3)式)、および、ロイシン(Leu)の純スペクトル、を示す。ロイシン(Leu)の純スペクトルのSN比は悪いが、そのような場合であっても、同様に、ホストであるロイシン(Leu)のスペクトルの強いピークの位置に、分類の根拠となった特徴的領域が存在することが示されている。ホストであるロイシン(Leu)の純スペクトルの強いピークの位置は、ゲストであるアラニン(Ala)の純スペクトルの強いピークの位置に近い波数850cm-1付近であるが、評価用スペクトルに見られるこのピーク位置は、ロイシン(Leu)の分類には寄与していないと考えられる。評価用スペクトルに見られる他の波数475cm-1付近および545cm-1付近のピークがロイシン(Leu)の分類に寄与していると考えられる。
【0060】
他のホストおよびゲストの組合せについても、同様に良好な結果が得られた。これらのことから、本実施形態によればCNNによる分類の根拠となった特徴的領域を抽出することができたことが確認できる。
【0061】
本実施形態のCNN判断根拠抽出装置およびCNN判断根拠抽出方法は、入力データがスペクトルである場合に限らず、他の入力データ(例えば画像データ)であっても、適用可能である。本実施形態によれば、CNNの隠れ層が少ない場合または畳み込み層で用いられるフィルタのサイズが小さい場合であっても、入力データのうちCNNによる判断の根拠となった特徴的領域を抽出することができる。また、本実施形態のCNN判断根拠抽出装置およびCNN判断根拠抽出方法は、CNNモデルの設計および検証の容易化や信頼性の保証を可能とし、ユーザにとって理解し易いCNNモデルを提供することを期待できる。
【0062】
さらに、本実施形態のCNN判断根拠抽出装置およびCNN判断根拠抽出方法は、混合スペクトルの分類において同一種が含まれる試料に同一の教師ラベルを付けてCNNを学習させれば、その共通箇所を抽出することができ、加えて、分類確率を下げると思われる箇所については負の値が得られたことから(第4実施例)、共通成分の可視化のみならず、真贋判定等において、不要な含有物の特定に利用できると考えられる。
【0063】
これまで説明してきた実施形態および第1~第4の実施例は、出力層17の何れかの出力ラベルに対する全結合層の重み36の寄与率を求め、この寄与率を用いてCNN10の判断の根拠を抽出するものであった。以下に説明する実施形態ならびに第5および第6の実施例のように、出力層17の何れかの出力ラベルに対する特徴量ベクトル26の寄与率を求め、この寄与率を用いてCNN10の判断の根拠を抽出することもできる。
【0064】
図23は、畳み込みニューラルネットワーク判断根拠抽出装置1Aの構成を示す図である。この図には、畳み込みニューラルネットワーク判断根拠抽出装置(CNN判断根拠抽出装置)1Aに加えて、CNN10の特徴量マップ25、特徴量ベクトル26、出力層の出力ラベル27、全結合層の重み36および出力層の重み37も示されている。
【0065】
CNN判断根拠抽出装置1Aも、CPUおよびメモリなどを備えるコンピュータにより実現することができ、また、入力データおよび出力データなどを表示する液晶ディスプレイなどの表示部を備える。CNN判断根拠抽出装置1Aは、CNN10とともにコンピュータにより実現されてもよい。
【0066】
CNN判断根拠抽出装置1Aは、寄与率算出部2Aおよび根拠抽出部3を備え、好適には更に表示部4を備える。図2に示された構成と比較すると、図23に示されるCNN判断根拠抽出装置1Aは、寄与率算出部2に替えて寄与率算出部2Aを備えている点で相違する。
【0067】
寄与率算出部2Aは、出力層17の何れかの出力ラベルに対する特徴量ベクトル26の寄与率を求める。特徴量ベクトル26は、全結合層に入力される特徴量マップ(Ai,k)および全結合層の重み(Fwi,k,m)に基づいて生成される。出力ラベル27のうちラベルcの値yに対する特徴量ベクトル26の第mの要素Fの寄与率βc,mは、Fの変化量に対するyの変化量の比として、次の(4)式で表される。
【0068】
【数4】
【0069】
根拠抽出部3は、全結合層16に入力される特徴量マップ25、全結合層の重み36及び上記の寄与率βc,mに基づいて、CNN10の判断の根拠を抽出する。CNN10の判断の根拠を表すデータ列Qの第iの値Qc,iは、Ai,k,βc,mおよびFwi,k,mの積をk,mについて総和した値として、上記(3)式で表される。
【0070】
畳み込みニューラルネットワーク判断根拠抽出方法(CNN判断根拠抽出方法)は、寄与率算出ステップおよび根拠抽出ステップを備え、好適には更に表示ステップを備える。寄与率算出ステップでは、出力層17の何れかの出力ラベルに対する特徴量ベクトル26の寄与率βc,mを求める((4)式)。根拠抽出ステップでは、全結合層16に入力される特徴量マップ25、全結合層の重み36及び寄与率βc,mに基づいて、CNN10の判断の根拠を抽出する((3)式)。表示ステップでは、入力層11に入力される入力データに対応付けて、CNN10の判断の根拠を表すデータ列Qを表示する。
【0071】
次に、第5実施例および第6実施例について説明する。第5実施例は、第3実施例と比較すると、寄与率算出の点でのみ相違し、その他の点では同じ条件とした。また、第6実施例は、第4実施例と比較すると、寄与率算出の点でのみ相違し、その他の点では同じ条件とした。ただし、アラニン(Ala)をホストとした場合にはアルギニン(Arg)をゲストとし、アラニン(Ala)以外のアミノ酸をホストとした場合にはアラニン(Ala)をゲストとした。第3実施例および第4実施例では、出力層17の何れかの出力ラベルに対する全結合層の重み36の寄与率(上記(2)式)を求めたのに対して、第5実施例および第6実施例では、出力層17の何れかの出力ラベルに対する特徴量ベクトル26の寄与率(上記(4)式)を求めた。
【0072】
図24は、第3実施例で得られた分類の根拠となった特徴的領域を示す図である。図25は、第5実施例で得られた分類の根拠となった特徴的領域を示す図である。第3実施例(図24)と第5実施例(図25)とは、寄与率算出の点でのみ相違するが、CNNによる分類の根拠として同様の特徴的領域が抽出された。
【0073】
図26は、第4実施例で得られた分類の根拠となった特徴的領域を示す図である。図27は、第6実施例で得られた分類の根拠となった特徴的領域を示す図である。第4実施例(図26)と第6実施例(図27)とは、寄与率算出の点でのみ相違するが、CNNによる分類の根拠として同様の特徴的領域が抽出された。
【0074】
また、第1実施例および第2実施例それぞれにおいて全結合層の重み36の寄与率(上記(2)式)に替えて特徴量ベクトル26の寄与率(上記(4)式)を用いた場合にも、CNNによる分類の根拠として同様の特徴的領域が抽出された。
【0075】
以上のように、出力層17の何れかの出力ラベルに対する全結合層の重み36の寄与率(上記(2)式)を用いる場合と同様に、出力層17の何れかの出力ラベルに対する特徴量ベクトル26の寄与率(上記(4)式)を用いる場合にも、CNNの隠れ層が少ない場合または畳み込み層で用いられるフィルタのサイズが小さい場合であっても、入力データのうちCNNによる判断の根拠となった特徴的領域を抽出することができた。
【符号の説明】
【0076】
1,1A…畳み込みニューラルネットワーク判断根拠抽出装置(CNN判断根拠抽出装置)、2,2A…寄与率算出部、3…根拠抽出部、4…表示部、10,10A…畳み込みニューラルネットワーク(CNN)、11…入力層、12…畳み込み層、13…プーリング層、14…畳み込み層、15…プーリング層、16…全結合層、17…出力層、21…入力データ列、22~25…特徴量マップ、26…特徴量ベクトル、27…出力層の出力ラベル、32,34…フィルタ、36…全結合層の重み、37…出力層の重み。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11
図12
図13
図14
図15
図16
図17
図18
図19
図20
図21
図22
図23
図24
図25
図26
図27