IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ LeapMind株式会社の特許一覧

特許7274180プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法
<>
  • 特許-プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 図1
  • 特許-プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 図2
  • 特許-プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 図3
  • 特許-プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 図4
  • 特許-プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 図5
  • 特許-プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 図6
  • 特許-プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 図7
  • 特許-プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 図8
  • 特許-プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 図9
  • 特許-プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 図10
  • 特許-プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法 図11
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2023-05-08
(45)【発行日】2023-05-16
(54)【発明の名称】プログラム、ニューラルネットワーク処理コンピュータ、ニューラルネットワーク処理装置、およびニューラルネットワークの演算方法
(51)【国際特許分類】
   G06N 3/04 20230101AFI20230509BHJP
【FI】
G06N3/04
【請求項の数】 16
(21)【出願番号】P 2021078513
(22)【出願日】2021-05-06
(62)【分割の表示】P 2020504042の分割
【原出願日】2019-09-10
(65)【公開番号】P2021119524
(43)【公開日】2021-08-12
【審査請求日】2021-05-06
(31)【優先権主張番号】P 2018214570
(32)【優先日】2018-11-15
(33)【優先権主張国・地域又は機関】JP
(73)【特許権者】
【識別番号】517048278
【氏名又は名称】LeapMind株式会社
(74)【代理人】
【識別番号】100098394
【弁理士】
【氏名又は名称】山川 茂樹
(74)【代理人】
【識別番号】100121669
【弁理士】
【氏名又は名称】本山 泰
(74)【代理人】
【識別番号】100153006
【弁理士】
【氏名又は名称】小池 勇三
(72)【発明者】
【氏名】徳永 拓之
【審査官】坂庭 剛史
(56)【参考文献】
【文献】国際公開第2017/073373(WO,A1)
【文献】下田将之,ほか2名,"全2値化畳み込みニューラルネットワークとそのFPGA実装について",情報処理学会 研究報告 システム・アーキテクチャ(ARC),2018-ARC-229,日本,情報処理学会,2018年01月11日
【文献】RASTEGARI, Mohammad et al.,"XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks",arXiv [online],2016年08月,[2022年10月28日検索],インターネット<URL:https://arxiv.org/abs/1603.05279v4>,1603.05279v4
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/00- 3/126
G06N 20/00-20/20
G06F 17/10
(57)【特許請求の範囲】
【請求項1】
コンピュータを、複数の層を有するニューラルネットワークの演算を行う装置として機能させるプログラムであって、
前記複数の層のうち入力信号が与えられる層において
前記入力信号に対応して前記入力信号より多くのデータ量を含む第1の信号を取得する信号取得処理と、
前記第1の信号に対応する重みを取得する重み取得処理と、
得された前記第1の信号と前記重みとに基づいて、畳み込み演算を行うニューラルネットワーク演算処理、が行われ、
前記信号取得処理は、前記入力信号と前記第1の信号との関係を示す複数のデータを記憶するメモリから前記複数のデータのうちのいずれかのデータを取得し、取得した前記データを用いて、与えられた前記入力信号に応じた前記第1の信号を取得する処理を含む
ことを特徴とするプログラム
【請求項2】
請求項1に記載のプログラムにおいて、
前記第1の信号は、前記入力信号よりも大きいビット幅を持つ二値信号である
ことを特徴とするプログラム
【請求項3】
請求項1または2に記載のプログラムにおいて、
前記重みは、1ビットで表現され、
前記ニューラルネットワーク演算処理は、前記第1の信号及び前記重みを入力として二値信号を出力する論理演算処理と、前記論理演算処理での出力である第2の信号におけるビット状態をカウントするビットカウント処理とを含む
ことを特徴とするプログラム
【請求項4】
請求項1乃至3のいずれか1項に記載のプログラムにおいて、
前記重み取得処理では、二値化された前記重みを取得する
ことを特徴とするプログラム
【請求項5】
請求項1に記載のプログラムにおいて、
前記信号取得処理は、前記複数のデータのうちから、予め設定された基準に基づいてデータを取得する
ことを特徴とするプログラム
【請求項6】
請求項またはに記載のプログラムにおいて、
前記複数のデータは、前記入力信号と互いにデータ量の異なる前記第1の信号との関係をそれぞれ示す
ことを特徴とするプログラム
【請求項7】
請求項1、5、及び6のいずれか1項に記載のプログラムにおいて、
前記コンピュータを、前記入力信号のデータ型及びサイズを、前記メモリから取得する前記データが示す関係の前記入力信号のデータ型及びサイズに変換する変換手段として機能させる
ことを特徴とするプログラム
【請求項8】
請求項1乃至のいずれか1項に記載のプログラムにおいて、
前記入力信号は、予め処理を行なった画像データであり、
前記処理は、モノクロ変換、コントラスト調整、及び輝度調整の少なくとも一つを含む
ことを特徴とするプログラム
【請求項9】
請求項1乃至のいずれか1項に記載のプログラムにおいて、
前記入力信号は、赤、緑、青のそれぞれが符号なし8ビット整数型のピクセル値で表現される画像データである
ことを特徴とするプログラム
【請求項10】
コンピュータを、複数の層を有するニューラルネットワークの演算を行う装置として機能させるプログラムであって、
前記複数の層のうち入力信号が与えられる層において、
前記入力信号に対応して前記入力信号より多くのデータ量を含む第1の信号を取得する信号取得処理と、
前記第1の信号に対応する重みを取得する重み取得処理と、
取得された前記第1の信号と前記重みとに基づいて、畳み込み演算を行うニューラルネットワーク演算処理と、が行われ、
前記入力信号が与えられる前記層は、前記複数の層のうちの中間層のいずれかの層である
ことを特徴とするプログラム
【請求項11】
請求項1乃至10のいずれか1項に記載のプログラムを備え、当該プログラムを実行することで前記ニューラルネットワークの演算を行うニューラルネットワーク処理コンピュータであって、
前記入力信号または前記重みを外部のサーバーから取得する通信インターフェースを備える
ことを特徴とするニューラルネットワーク処理コンピュータ。
【請求項12】
請求項1乃至10のいずれか1項に記載のプログラムを備え、当該プログラムを実行することで前記ニューラルネットワークの演算を行うニューラルネットワーク処理コンピュータであって、
前記プログラムを実行することで、前記信号取得処理と、前記重み取得処理と、前記ニューラルネットワーク演算処理と、を行う処理部と、
外部の表示装置へ信号を出力するための出力部を備え、
前記出力部は、ニューラルネットワークにおける演算結果を前記表示装置に出力する
ことを特徴とするニューラルネットワーク処理コンピュータ。
【請求項13】
複数の層を有するニューラルネットワークの演算を行うニューラルネットワーク処理装置であって、
前記複数の層のうち入力信号が与えられる層において
前記入力信号に対応して前記入力信号より多くのデータ量を含む第1の信号を取得する信号取得処理と、
前記第1の信号に対応する重みを取得する重み取得処理と、
得された前記第1の信号と前記重みとに基づいて、畳み込み演算を行うニューラルネットワーク演算処理と、が行われ、
前記信号取得処理は、前記入力信号と前記第1の信号との関係を示す複数のデータを記憶するメモリから前記複数のデータのうちのいずれかのデータを取得し、取得した前記データを用いて、与えられた前記入力信号に応じた前記第1の信号を取得する処理を含む
ことを特徴とするニューラルネットワーク処理装置。
【請求項14】
複数の層を有するニューラルネットワークの演算を行うニューラルネットワーク処理装置であって、
前記複数の層のうち入力信号が与えられる層において、
前記入力信号に対応して前記入力信号より多くのデータ量を含む第1の信号を取得する信号取得処理と、
前記第1の信号に対応する重みを取得する重み取得処理と、
取得された前記第1の信号と前記重みとに基づいて、畳み込み演算を行うニューラルネットワーク演算処理と、が行われ、
前記入力信号が与えられる前記層は、前記複数の層のうちの中間層のいずれかの層である
ことを特徴とするニューラルネットワーク処理装置
【請求項15】
複数の層を有するニューラルネットワークの演算方法であって、
前記複数の層のうち入力信号が与えられる層において、
前記入力信号に対応して前記入力信号より多くのデータ量を含む第1の信号を取得する信号取得ステップと、
前記第1の信号に対応する重みを取得する重み取得ステップと、
前記信号取得ステップにおいて取得された前記第1の信号と前記重み取得ステップにおいて取得された前記重みとに基づいて、畳み込み演算を行うニューラルネットワーク演算ステップと、われ、
前記信号取得ステップは、前記入力信号と前記第1の信号との関係を示す複数のデータを記憶するメモリから前記複数のデータのうちのいずれかのデータを取得し、取得した前記データを用いて、与えられた前記入力信号に応じた前記第1の信号を取得するステップを含む
ことを特徴とする演算方法。
【請求項16】
複数の層を有するニューラルネットワークの演算方法であって、
前記複数の層のうち入力信号が与えられる層において、
前記入力信号に対応して前記入力信号より多くのデータ量を含む第1の信号を取得する信号取得ステップと、
前記第1の信号に対応する重みを取得する重み取得ステップと、
前記信号取得ステップにおいて取得された前記第1の信号と前記重み取得ステップにおいて取得された前記重みとに基づいて、畳み込み演算を行うニューラルネットワーク演算ステップと、が行われ、
前記入力信号が与えられる前記層は、前記複数の層のうちの中間層のいずれかの層である
ことを特徴とする演算方法。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、およびニューラルネットワーク処理プログラムに関する。
【背景技術】
【0002】
近年、画像を複数のカテゴリに分類するためのディープニューラルネットワークとして、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)が注目されている。CNNは、ディープニューラルネットワークにおいて畳み込み層を有することを特徴とする。
【0003】
図11は、一般的なCNNの信号処理のフローを示す図である。CNNは、入力層、中間層、および出力層を有する(例えば、非特許文献1参照)。中間層においては、入力信号に重みを掛け合わせる畳み込み演算が行われている。さらに、中間層での畳み込み演算の結果に対して、ReLU(Rectified Linear Units)が適用され、各中間層の出力が決定される。また、場合によってはプーリング処理が行われる。
【0004】
畳み込み演算を介して抽出された入力信号の特徴は、全結合層からなる分類器にかけられ、分類結果が出力層から出力される。このように、CNNなどのニューラルネットワークにおいては、畳み込み演算が繰り返し行われていることがその特徴の1つとして挙げられる。
【0005】
ここで、CNNに用いられる入力データの入力値や重みは、例えば、32ビット浮動小数点形式などで表現され、小数点を含む場合があるが、従来のCNNなどのニューラルネットワークの畳み込み演算においては、図11の「入力信号」、「重み」、および「畳み込み演算」の各値に示すように、演算結果の桁数を確保した形での演算処理が行われている。
【0006】
しかし、従来のCNNなどのニューラルネットワークをFPGA(Field Programmable Gate Array)やマイコンなどの組み込み用のハードウェアで実装する場合、計算リソースに制限があるため、桁数の多い多数の入力値に対する多数の演算処理による処理速度の低下が課題となっていた。
【0007】
このような課題に対して、従来から、ニューラルネットワークの入力信号を二値化したCNNが提案されている(非特許文献2参照)。二値化されたニューラルネットワークにより、処理の高速化やメモリ使用量の削減が可能となる。
【先行技術文献】
【非特許文献】
【0008】
【文献】麻生英樹 他、「Deep Learning 深層学習」近代科学社、2015年11月
【文献】Mohammad Rastegari,Vicente Ordonez,Joseph Redmon,and Ali Farhadi.Xnor-net:Imagenet classification using binary convolutional neural networks.In European Conference on Computer Vision,pages 525-542.Springer,2016.
【発明の概要】
【発明が解決しようとする課題】
【0009】
しかし、従来の二値化した入力信号を用いるニューラルネットワークでは、特に、多層ニューラルネットワークの第一層において入力信号を直接二値化することによってネットワークの精度が劣化することが問題となっていた。
【0010】
本発明は、上述した課題を解決するためになされたものであり、二値化した入力信号を用いた場合であっても、ニューラルネットワークの精度の劣化を抑制することができるニューラルネットワーク処理技術を提供することを目的とする。
【課題を解決するための手段】
【0011】
上述した課題を解決するために、本発明に係るニューラルネットワーク処理装置は、ニューラルネットワークに与えられる値を記憶する第1メモリと、前記ニューラルネットワークに与えられる値と、その値に対応する二値信号とを互いに関連付けたテーブルを記憶する第2メモリと、前記テーブルを参照して前記第1メモリに記憶された前記値に対応する二値信号を取得する二値信号取得部と、前記二値信号取得部によって取得された前記二値信号に基づいて、前記ニューラルネットワークの演算を行うニューラルネットワーク演算部とを備え、前記二値信号は、予め設定された前記ニューラルネットワークの演算精度に合わせた精度を有することを特徴とする。
【0012】
上述した課題を解決するために、本発明に係るニューラルネットワーク処理方法は、ニューラルネットワークに与えられる値を第1メモリに記憶する第1ステップと、前記ニューラルネットワークに与えられる値と、その値に対応する二値信号とを互いに関連付けたテーブルを第2メモリに記憶する第2ステップと、前記テーブルを参照して前記第1メモリに記憶された前記値に対応する二値信号を取得する第3ステップと、前記第3ステップで取得した前記二値信号に基づいて、前記ニューラルネットワークの演算を行う第4ステップと、を備え、前記二値信号は、予め設定された前記ニューラルネットワークの演算精度に合わせた精度を有することを特徴とする。
【0013】
上述した課題を解決するために、本発明に係るニューラルネットワーク処理プログラムは、コンピュータに、ニューラルネットワークに与えられる値を第1メモリに記憶する第1ステップと、前記ニューラルネットワークに与えられる値と、その値に対応する二値信号とを互いに関連付けたテーブルを第2メモリに記憶する第2ステップと、前記テーブルを参照して前記第1メモリに記憶された前記値に対応する二値信号を取得する第3ステップと、前記第3ステップで取得した前記二値信号に基づいて、前記ニューラルネットワークの演算を行う第4ステップと、を実行させ、前記二値信号は、予め設定された前記ニューラルネットワークの演算精度に合わせた精度を有することを特徴とする。
【発明の効果】
【0014】
本発明によれば、ニューラルネットワークに与えられる値と、その値に対応する二値信号とを関連付けたテーブルを参照し、予め設定されたニューラルネットワークの演算精度に合わせた精度を有する二値信号を取得するので、二値化した入力信号を用いた場合であっても、ニューラルネットワークの精度の劣化を抑制することができる。
【図面の簡単な説明】
【0015】
図1図1は、本発明の第1の実施の形態に係るCNN処理装置の機能を示すブロック図である。
図2図2は、第1の実施の形態に係るCNN処理装置のハードウェア構成を示すブロック図である。
図3図3は、第1の実施の形態に係るCNN処理方法のフローを説明するための図である。
図4図4は、第2の実施の形態に係るCNN処理装置の機能を示すブロック図である。
図5図5は、第2の実施の形態に係るCNN処理方法のフローを説明するための図である。
図6図6は、第3の実施の形態に係るCNN処理装置の機能を示すブロック図である。
図7図7は、第3の実施の形態に係るCNN処理方法のフローを説明するための図である。
図8図8は、第4の実施の形態に係るCNN処理装置の機能を示すブロック図である。
図9図9は、第4の実施の形態に係る判定処理を説明するための図である。
図10図10は、第4の実施の形態に係るCNN処理方法のフローを説明するための図である。
図11図11は、従来のCNNの演算処理を説明するための図である。
【発明を実施するための形態】
【0016】
以下、本発明の好適な実施の形態について、図1から図10を参照して詳細に説明する。
[第1の実施の形態]
本発明に係るニューラルネットワーク処理装置は、ニューラルネットワークとしてCNNを用いたCNN処理装置1である。
【0017】
本実施の形態に係るCNN処理装置1は、CNNに与えられる値に対して二値信号を取得して、その二値信号に基づいて畳み込み演算を行う演算処理装置である。CNN処理装置1は、さらに畳み込み演算の結果に対して活性化関数を適用してCNNの中間層を構成する一層分の畳み込み層の出力を決定する。また、活性化関数の出力は必要に応じてプーリング処理される。こうして得られた畳み込み層の出力は、後続の畳み込み層の入力信号として用いられる。
【0018】
なお、以下においては、CNNに与えられる「値」は、例えば、後述の画像データなどの「入力信号」であり、このような入力信号に対応する二値信号を取得する場合を例に挙げて説明する。
【0019】
[CNN処理装置の機能ブロック]
上述したCNN処理装置1は、入力バッファ(第1メモリ)10、重みバッファ11、記憶部(第2メモリ)12、二値信号取得部13、畳み込み演算部(ニューラルネットワーク演算部)14、および出力バッファ15を備える。
【0020】
入力バッファ10は、CNNに与えられる入力信号を記憶するメモリである。より詳細には、入力バッファ10は、後述する主記憶装置103によって実現され、この入力バッファ10には、例えば、外部から与えられた画像データなどが記憶される。入力バッファ10に与えられる入力信号は、予め前処理を行った画像データであってもよい。前処理の例としては、モノクロ変換、コントラスト調整、および輝度調整などが挙げられる。また、入力信号は、CNN処理装置1において予め設定されているCNNモデルに応じて設定されたビット深度となるように縮小されていてもよい。
【0021】
入力バッファ10に与えられる入力信号の値としては、例えば、32ビットや16ビット精度の浮動小数点の配列で表現された小数点を含む値や、これらの値を予め設定されたビット数表現に削減した値が用いられる。予め設定されたビット数表現としては、例えば、符号付き、または符号なし16ビットや8ビット整数型など任意の大きさを持つデータ型を用いることができる。
【0022】
重みバッファ11は、CNNの重みを記憶するメモリである。より詳細には、重みバッファ11は、後述する主記憶装置103によって実現され、重みバッファ11には、CNN処理装置1の外部に設置されたサーバ(図示しない)や記憶部12などに予め記憶されているCNNの重みパラメータがロードされる。重みの値としては、例えば、予め二値化された1ビット表現の値が用いられる(例えば、非特許文献2参照)。
【0023】
記憶部12は、CNNに与えられる値と、その値に対応する二値信号とを関連付けたテーブル120を記憶する。二値信号は、予め設定されたCNNの演算精度に合わせた精度を有する。例えば、この二値信号は、CNNに与えられる入力信号を、CNNが所望の精度を得るために必要とされる情報量が含まれるコードに置き換えた二値表現の信号である。したがって、ここでいう二値信号は、元の入力信号よりも多くの情報量を含む信号である。
【0024】
テーブル120は、例えば、Look Up Table(LUT)などのデータ構造を有し、入力信号の入力値のアドレスに格納されている二値信号を出力する。例えば、入力信号が符号なし8ビット整数型(uint8)で表現される場合、入力信号のとり得る範囲[0,255]の値のそれぞれに対応する二値信号がテーブル120に格納されている。
【0025】
二値信号取得部13は、テーブル120を参照して、入力バッファ10に記憶されている入力信号に対応する二値信号を取得する。
【0026】
畳み込み演算部14は、二値信号取得部13によって取得された二値信号に基づいて畳み込み演算を行う。より詳細には、畳み込み演算部14は、画像データなどの入力信号に対応する二値信号と、重みバッファ11から読み出した予め二値化された重みとに基づいて畳み込み演算を行う。
【0027】
畳み込み演算部14に入力される入力信号および重みはともに二値化された信号である。したがって、畳み込み演算部14が実行する畳み込み演算は、乗算処理を必要とせず、否定排他的論理和(XNOR)、減算、およびビットシフトの各ビット演算処理によって畳み込み演算の結果を得ることができる。畳み込み演算部14による演算処理の詳細は後述する。
【0028】
出力バッファ15は畳み込み演算部14による演算結果を一時的に記憶するメモリである。
【0029】
[CNN処理装置のハードウェア構成]
次に、上述した機能を有するCNN処理装置1のハードウェア構成の例について図2のブロック図を用いて説明する。
【0030】
図2に示すように、CNN処理装置1は、例えば、バス101を介して接続されるプロセッサ102、主記憶装置103、通信インターフェース104、補助記憶装置105、入出力装置106を備えるコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。
【0031】
主記憶装置103には、プロセッサ102が各種制御や演算を行うためのプログラムが予め格納されている。プロセッサ102と主記憶装置103とによって、図1に示した二値信号取得部13および畳み込み演算部14を含むCNN処理装置1の各機能が実現される。
【0032】
主記憶装置103によって、図1で説明した入力バッファ10、重みバッファ11、および出力バッファ15が実現される。
【0033】
通信インターフェース104は、通信ネットワークNWを介して各種外部電子機器との通信を行うためのインターフェース回路である。通信インターフェース104を介して、CNN処理装置1が用いる画像データなどの入力信号や、重みを、外部のサーバなどから受信してもよい。また、通信インターフェース104を介して、外部のサーバなどから記憶部12にテーブル120を受信してもよい。
【0034】
補助記憶装置105は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータなどの各種情報を読み書きするための駆動装置とで構成されている。補助記憶装置105には、記憶媒体としてハードディスクやフラッシュメモリなどの半導体メモリを使用することができる。
【0035】
補助記憶装置105は、外部から取得された入力信号や重みを記憶する記憶領域や、CNN処理装置1が畳み込み演算などのCNNの演算処理を行うためのプログラムを格納するプログラム格納領域を有する。補助記憶装置105によって、図1で説明した記憶部12が実現される。さらには、例えば、上述したデータやプログラムやなどをバックアップするためのバックアップ領域などを有していてもよい。
【0036】
入出力装置106は、外部機器からの信号を入力したり、外部機器へ信号を出力したりするI/O端子により構成される。入出力装置106を介して、図示しない表示装置などを備えて、CNN処理装置1によって出力される演算結果などを表示してもよい。
【0037】
ここで、補助記憶装置105のプログラム格納領域に格納されているプログラムは、本明細書で説明するCNN処理方法の順序に沿って時系列に処理が行われるプログラムであってもよく、並列に、あるいは呼び出しが行われたときなどの必要なタイミングで処理が行われるプログラムであってもよい。また、プログラムは、1つのコンピュータにより処理されるものでもよく、複数のコンピュータによって分散処理されるものであってもよい。
【0038】
[CNN処理方法]
次に、上述した構成を有するCNN処理装置1の動作について図3を参照して説明する。前提として、記憶部12には予めテーブル120が記憶されているものとする。また、以下の説明において、重みについては対応する二値信号が予め記憶部12に記憶されているものとする。
【0039】
まず、入力バッファ10は、CNN処理装置1の外部に設置されたサーバなどから与えられた入力信号Aを一時的に記憶する(ステップS1)。例えば、入力信号Aは、符号なし8ビット整数型(uint8)で表され、値の範囲が[0,255]の信号である。
【0040】
次に、二値信号取得部13は、入力バッファ10から入力信号を読み出し、テーブル120を参照し、入力信号に対応する二値信号を取得する(ステップS2)。
【0041】
具体的には、図3に示すように、二値信号取得部13は、例えば、入力信号「131」に対して、テーブル120を参照して、入力アドレス「131」に格納されている12ビット幅の二値信号「101010111001」を取得する。また、前述したように、テーブル120には、入力信号の値がとり得る範囲[0,255]の値に対応する二値信号が格納されている。また、入力信号に対応する二値信号「101010111001」は、入力信号「131」よりも多くの情報量を含む信号である。
【0042】
その後、記憶部12に記憶されている重みの二値信号U’が重みバッファ11に転送される(ステップS3)。より具体的には、重みU’は「0」または「1」の1ビットで表現される信号である。
【0043】
次に、二値信号取得部13によって取得された入力信号に対応する二値信号、および重みバッファ11から読み出された重みの二値信号は、畳み込み演算部14に入力され、畳み込み演算が行われる(ステップS4)。例えば、畳み込み演算部14において、12ビット幅の入力信号の二値信号A’、および1ビットの重みの二値信号U’は否定排他的論理和(XNOR)回路に入力され、これらの二値信号A’、U’の否定排他的論理和が演算される。XNOR回路の出力は、ビットカウント回路に入力される。
【0044】
その後、XNOR回路の出力はビットカウンタ(population count:popcnt)によって有効ビット値「1」の数がカウントされる。
一方、12ビット幅の重みの二値信号U’はインバータ(NOT)において反転されて、その後、ビットカウンタ(popcnt)によって有効ビット値「1」の数がカウントされる。その後ビットカウント回路は、それぞれのビットカウンタからの出力の差分を計算して出力する。
【0045】
次に、ビットシフト回路は、減算回路から出力された差分を上位ビット側にシフトしたシフト値を計算して出力する。その後、減算回路は、ビットシフト回路から出力されたシフト値を合算し、得られた合算結果を畳み込み演算の結果として出力する。
【0046】
その後、畳み込み演算の結果に対して、ReLUなどの活性化関数が適用され、畳み込み層の出力が決定される(ステップS5)。さらに、必要に応じてよく知られたプーリング処理が行われ(非特許文献1参照)、得られた出力信号は一層分の畳み込み層の演算結果として出力バッファ15に記憶される(ステップS7)。なお、出力バッファ15に記憶された出力信号は、後続の畳み込み層の入力信号として用いられる。
【0047】
このように、CNNの畳み込み層において繰り返し畳み込み演算が行われて得られた畳み込み演算の出力は、CNNの特徴抽出部の出力として、後続の図示しない分類器を構成する全結合層に入力され、入力信号Aの画像データなどの判別が行われる。
【0048】
以上説明したように、第1の実施の形態に係るCNN処理装置1によれば、二値信号取得部13がテーブル120を参照して、入力信号に対応する、予め設定されたCNNの演算精度に一致した精度を有する二値信号を取得する。また、CNN処理装置1は、取得された二値信号に基づいて畳み込み演算を行う。そのため、二値化した入力信号を用いた場合であっても、CNNの精度の劣化を抑制することができる。
【0049】
[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。なお、以下の説明では、上述した第1の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
【0050】
第1の実施の形態では、二値信号取得部13は、入力バッファ10から読み出した入力信号のデータ型、サイズおよび値の範囲がテーブル120のアドレス値と一致する場合について説明した。これに対し、第2の実施の形態では、入力バッファ10に記憶されている入力信号が、例えば、比較的長い整数型や、小数点を含む値である場合に、入力信号を、テーブル120のアドレス値と同じデータ型、サイズおよび値の範囲の値に変換してから二値信号を取得する。以下、第1の実施の形態と異なる構成を中心に説明する。
【0051】
図4に示すように、第2の実施の形態に係るCNN処理装置1Aは、変換部16をさらに備える。CNN処理装置1Aが備える他の構成は、第1の実施の形態と同様である。
【0052】
変換部16は、入力バッファ10に記憶されている入力信号のデータ型およびサイズを、テーブル120のアドレス値のデータ型およびサイズに変換して出力する。
【0053】
例えば、変換部16は、入力信号が符号なし16ビット整数型(値の範囲[0,65535])である場合に、テーブル120のアドレス値の符号なし8ビット整数型(値の範囲:[0,255])に変換して出力する。
【0054】
二値信号取得部13は、変換部16によって出力された値に対応する二値信号を取得する。
【0055】
[CNN処理方法]
次に、本実施の形態に係るCNN処理方法について図5を参照して説明する。
なお、前提として、記憶部12には予めテーブル120が記憶されているものとする。また、以下の説明において、重みについては、対応する二値信号が予め記憶部12に記憶されているものとする。
【0056】
まず、入力バッファ10は、CNN処理装置1の外部に設置されたサーバなどから与えられた入力信号Aを一時的に記憶する(ステップS10)。例えば、入力信号Aは、符号なし16ビット整数型(uint16)で表され、値の範囲[0,65535]の信号である。
【0057】
次に、変換部16は、入力バッファ10から入力信号Aを読み出し、入力信号Aのデータ型およびサイズを、テーブル120のアドレス値のデータ型およびサイズに変換した値を出力する(ステップS11)。例えば、符号なし16ビット整数型(uint16)の入力信号Aを符号なし8ビット整数型(uint8)の値に変換する。
【0058】
次に、二値信号取得部13は、テーブル120を参照し、変換部16から出力された変換後の入力信号aに対応する二値信号A’をそれぞれ取得する(ステップS12)。
【0059】
その後、記憶部12に記憶されている重みの二値信号U’が重みバッファ11に転送される(ステップS13)。より具体的には、重みU’は「0」または「1」の1ビットで表現される信号である。
【0060】
次に、二値信号取得部13によって取得された入力信号に対応する二値信号A’、および重みバッファ11から読み出された重みの二値信号U’は、畳み込み演算部14に入力され、畳み込み演算が行われる(ステップS14)。畳み込み演算部14は、例えば、入力信号および重みの二値信号A’、U’の否定排他的論理和(XNOR)を演算し、ビットカウント(popcnt)を行って畳み込み演算の演算結果を求めることができる。
【0061】
その後、畳み込み演算の結果に対して、ReLUなどの活性化関数が適用され、畳み込み層の出力が決定される(ステップS15)。そして、必要に応じてよく知られたプーリング処理が行われ(非特許文献1参照)(ステップS16)、得られた出力信号は一層分の畳み込み層の演算結果として出力バッファ15に記憶される(ステップS17)。なお、出力バッファ15に記憶された出力信号は、後続の畳み込み層の入力信号として用いられる。
【0062】
このように、CNNの畳み込み層において、繰り返し畳み込み演算が行われて得られた出力は、CNNの特徴抽出部の出力として、後続の図示しない分類器を構成する全結合層に入力され、入力信号Aの画像データなどの判別が行われる。
【0063】
以上説明したように、第2の実施の形態に係るCNN処理装置1Aによれば、入力信号をテーブル120のアドレス値のデータ型およびサイズと同じデータ型およびサイズに変換してから対応する二値信号を取得する。そのため、CNNにおいて、比較的長い整数型や小数を含む入力信号が与えられた場合にも、より多くの情報量を含む二値信号を取得することができるので、CNNの精度の劣化を抑制することができる。
【0064】
[第3の実施の形態]
次に、本発明の第3の実施の形態について説明する。なお、以下の説明では、上述した第1および第2の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
【0065】
第1および第2の実施の形態では、記憶部12は、1つのテーブル120を記憶する場合について説明した。これに対し、第3の実施の形態では、記憶部12は、複数のテーブル120Bを備える。
【0066】
図6に示すように、本実施の形態に係るCNN処理装置1Bは、記憶部12が複数のテーブル120Bを有し、テーブル選択部17をさらに備える。CNN処理装置1Bの他の構成は第1の実施の形態と同様である。
【0067】
複数のテーブル120Bのそれぞれには、入力信号がとり得る範囲の値のそれぞれに対応する二値信号が格納されている。また、複数のテーブル120Bに格納されている二値信号に含まれる情報量はテーブル120Bごとに異なる。例えば、入力信号が符号なし8ビット整数型である場合に、範囲[0,255]の各値、例えば値「131」に関連付けられている二値信号「1010101110」と別のテーブル120Bの値「131」に関連付けられている二値信号「110110011110」とは、互いに異なる精度を有する二値信号である。
【0068】
別の例を挙げると、値の範囲[0,255]のうち、あるテーブル120Bには、範囲[0,100]における所定の情報量を含む二値信号が格納され、別のテーブル120Bには、範囲[101,255]における、範囲[0,100]の二値信号とは異なる情報量を含んだ二値信号を格納することができる。
【0069】
テーブル選択部17は、例えば、入力バッファ10に記憶された入力信号に応じて、複数のテーブル120Bのうちから、予め設定されたCNNの演算精度に合わせた二値信号の精度に関する基準に基づいて、一のテーブル120Bを選択する。例えば、画像データの入力信号として、赤R、緑G、青Bのそれぞれが、符号なし8ビット整数型(値の範囲[0,255])のピクセル値で表現される場合を考える。このような画像データの明度などを上げるような場合に、設定された入力信号の値の範囲に対して、予め適用するテーブルを定めておくことができる。
【0070】
テーブル選択部17によって選択されたテーブルの情報は、二値信号取得部13に送出される。二値信号取得部13は、テーブル選択部17からのテーブル情報に応じたテーブル120Bを参照し、入力信号に対応する二値信号を取得する。
【0071】
[CNN処理方法]
次に、上述した構成を有するCNN処理装置1Bの動作について図7を参照して説明する。前提として、記憶部12には予め複数のテーブル120Bが記憶されているものとする。また、以下の説明において、重みについては、対応する二値信号が予め記憶部12に記憶されているものとする。
【0072】
まず、入力バッファ10は、CNN処理装置1Bの外部に設置されたサーバなどから与えられた入力信号Aを一時的に記憶する(ステップS20)。例えば、入力信号Aは、符号なし8ビット整数型(uint8)で表される信号である。
【0073】
次に、テーブル選択部17は、入力バッファ10から入力信号Aを読み出し、入力信号Aの値に応じて、複数のテーブル120Bのうちから一のテーブル120Bを選択する(ステップS21)。例えば、入力信号Aの値が「45」である場合には、テーブル選択部17はLUT1を選択する。また、入力信号Aの値が[101,255]の範囲の値である場合には、テーブル選択部17は、LUT2を選択する。LUT1に格納されている二値信号と、LUT2に格納されている二値信号とは、例えば、互いに異なるビット数に拡張された信号である。図7の例では、LUT1には10ビットの二値信号が格納され、LUT2には12ビットの二値信号が格納されている。
【0074】
次に、二値信号取得部13は、テーブル選択部17によって選択されたテーブル120B(LUT1またはLUT2)を参照し、入力信号Aに対応する二値信号A’を取得する(ステップS22)。その後、記憶部12に記憶されている重みの二値信号U’が重みバッファ11に転送される(ステップS23)。
【0075】
次に、入力信号Aの二値信号A’および重みの二値信号U’は、畳み込み演算部14に入力され、畳み込み演算が行われる(ステップS24)。畳み込み演算部14は、例えば、入力信号および重みの二値信号A’、U’の否定排他的論理和(XNOR)を演算し、ビットカウント(popcnt)を行って畳み込み演算の演算結果を求めることができる。
【0076】
次に、畳み込み演算の結果に対して、ReLUなどの活性化関数が適用され、畳み込み層の出力が決定される(ステップS25)。その後、必要に応じてよく知られたプーリング処理が行われ(非特許文献1参照)(ステップS26)、得られた出力信号は一層分の畳み込み層の演算結果として出力バッファ15に記憶される(ステップS27)。なお、出力バッファ15に記憶された出力信号は、後続の畳み込み層の入力信号として用いられる。
【0077】
このように、CNNの畳み込み層で畳み込み演算が繰り返し行われて得られた出力は、CNNの特徴抽出部の出力として、後続の図示しない分類器を構成する全結合層に入力され、入力信号Aの画像データなどの判別が行われる。
【0078】
以上説明したように、第3の実施の形態に係るCNN処理装置1Bによれば、記憶部12に複数のテーブル120Bが用意され、入力信号の値に応じてテーブルを選択することで、取得する二値信号に含まれる情報量を調整することができる。
【0079】
[第4の実施の形態]
次に、本発明の第4の実施の形態について説明する。なお、以下の説明では、上述した第1から第3の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
【0080】
第3の実施の形態では、CNNに与えられる入力信号の値に対して共通した基準に基づいて用意された複数のテーブル120Bのうちから、一のテーブル120Bを選択して二値信号を取得する場合について説明した。これに対して、第4の実施の形態では、CNN処理装置1Cは入力信号が特定の信号であるか否かを判定する判定部18をさらに備え、判定部18の判定結果に応じて入力信号に適用するテーブルを選択する。以下、第1から第3の実施の形態と異なる構成を中心に説明する。
【0081】
図8に示すように、CNN処理装置1Cは、判定部18をさらに備え、複数のテーブル120Cを有する記憶部12を有する。CNN処理装置1Cが備える他の機能構成は、第1から第3の実施の形態と同様である。
【0082】
判定部18は、入力バッファ10に記憶された入力信号の値が特定の情報を示す値であるか否かを判定する。入力信号によっては、より重要度が高い入力信号の値が含まれていたり、他の入力信号の値に対してより情報量が多いような場合がある。例えば、入力信号が、赤R、緑G、青Bのピクセル値を示す信号であり、緑Gのピクセル値を他の色の値よりも強調させるような場合に、判定部18は、入力信号に含まれる、例えば、緑Gのピクセル値を特定する。
【0083】
複数のテーブル120Cは、少なくともCNNに与えられる入力信号の値のデータ型およびサイズごとに設けられている。例えば、複数のテーブル120Cは、符号なし8ビット整数型の入力信号に対応する二値信号が格納されたテーブル、および符号なし6ビット整数型の入力信号に対応する二値信号が格納されたテーブルなどによって構成される。また、複数のテーブルに格納されている二値信号は互いに異なる情報量を有するように拡張された信号である。例えば、上記の符号なし8ビット整数型の入力信号に対応する二値信号は、符号なし6ビット整数型の入力信号に対応する二値信号と比較して、より多くの情報量を含むことができる。
【0084】
変換部16は、判定部18による判定結果に基づいて、入力信号のデータ型およびサイズを変換する。例えば、図9に示すように、符号なし8ビット整数型の入力信号A1、A2、A3のうち、入力信号A2が特定の情報(例えば、緑Gのピクセル値)を示す信号である場合を考える。この場合、入力信号A2以外の入力信号A1、A3については比較的重要度が低い、または情報量が少ないため、変換部16は、入力信号A1、A3のデータ型およびサイズ(uint8)を符号なし6ビット整数型(uint6)に変換する。
【0085】
テーブル選択部17は、変換部16によって変換された入力信号のデータ型およびサイズに一致するテーブルを複数のテーブル120Cから選択する。
【0086】
[CNN処理方法]
次に、上述した構成を有するCNN処理装置1Cの動作について、図9および図10を参照して説明する。前提として、記憶部12には予め複数のテーブル120Cが記憶されているものとする。また、以下の説明において、重みについては、対応する二値信号が予め記憶部12に記憶されているものとする。
【0087】
まず、入力バッファ10は、CNN処理装置1Bの外部に設置されたサーバなどから与えられた入力信号Aを一時的に記憶する(ステップS30)。入力信号Aは、例えば、図9に示すような、符号なし8ビット整数型(uint8)で表される信号A1、A2、A3である。
【0088】
次に、判定部18は、入力バッファ10から入力信号Aを読み出し、入力信号Aが特定の情報を示す信号であるか否かを判定する(ステップS31)。例えば、図9に示す例では、判定部18は、入力信号A1、A2、A3のうち、入力信号A2が特定の情報を示す信号であると判定する。ここで、特定の情報とは、前述したように、入力信号において、より重要性の高い情報であることや、より情報量が多い信号であることを示す情報である。具体的には、RGB成分からなる入力信号において緑Gの情報量が多い、またはより強調する場合などに、判定部18の判定により、入力信号A2が緑Gを示す情報であることが特定される。
【0089】
その後、変換部16は、判定部18による判定結果に基づいて、入力信号Aのデータ型およびサイズを変換する(ステップS32)。より具体的には、図9に示すように、変換部16は、特定の情報を示す入力信号A2以外の入力信号A1、A3については、情報量が少ないまたは、重要度が比較的低いため、データ型およびサイズを符号なし8ビット整数型(uint8)から符号なし6ビット整数型(uint6)に変換する。なお、この例では、特定の情報を示す入力信号A2については符号なし8ビット整数型のまま維持される。
【0090】
その後、テーブル選択部17は、変換部16によって変換された入力信号A’’のデータ型およびサイズに一致するテーブルを記憶部12に記憶された複数のテーブル120Cから選択する(ステップS33)。具体的には、テーブル選択部17は、符号なし6ビット整数型(uint6)に変換された入力信号A1’’、A3’’については、LUT3を選択し、符号なし8ビット整数型(uint8)のデータ型のままの信号A2についてはLUT4を選択する。
【0091】
次に、二値信号取得部13は、テーブル選択部17によって選択されたLUT3、LUT4を参照し、各入力信号A1’’、A2、A3’’に対応する二値信号A’を取得する(ステップS34)。図10に示すように、LUT3に格納されている符号なし6ビット整数型(uint6)の入力信号に対応する二値信号A’は、10ビットを有する。一方、LUT4に格納されている符号なし8ビット整数型(uint8)の入力信号に対応する二値信号A’は12ビットであり、より多くの情報が含まれる。
【0092】
その後、記憶部12に記憶されている重みの二値信号U’が重みバッファ11に転送される(ステップS35)。
【0093】
次に、入力信号Aの二値信号A’および重みの二値信号U’は、畳み込み演算部14に入力され、畳み込み演算が行われる(ステップS36)。畳み込み演算部14は、例えば、入力信号および重みの二値信号A’、U’の否定排他的論理和(XNOR)を演算し、ビットカウント(popcnt)を行って畳み込み演算の演算結果を求めることができる。
【0094】
次に、畳み込み演算の結果に対して、ReLUなどの活性化関数が適用され、畳み込み層の出力が決定される(ステップS37)。その後、必要に応じてよく知られたプーリング処理が行われ(非特許文献1参照)(ステップS38)、得られた出力信号は一層分の畳み込み層の演算結果として出力バッファ15に記憶される(ステップS39)。なお、出力バッファ15に記憶された出力信号は、後続の畳み込み層の入力信号として用いられる。
【0095】
このように、CNNの畳み込み層で畳み込み演算が繰り返し行われて得られた出力は、CNNの特徴抽出部の出力として、後続の図示しない分類器を構成する全結合層に入力され、入力信号Aの画像データなどの判別が行われる。
【0096】
以上説明したように、第4の実施の形態に係るCNN処理装置1Cによれば、CNNに与えられる入力信号が特定の情報を示すか否かを判定する。すなわち、入力信号により多くの情報量が含まれるか否か、あるいは、含まれる情報の重要性が比較的高いか否かを判定する。入力信号が特定の情報を示す場合には、そのような入力信号に対して、他の入力信号よりも情報量の多い二値信号を取得する。そのため、二値信号を用いた場合であっても、CNNの精度を向上しつつ、処理されるデータ量を削減することができる。
【0097】
以上、本発明のニューラルネットワーク処理装置、ニューラルネットワーク処理方法およびニューラルネットワーク処理プログラムにおける実施の形態について説明したが、本発明は説明した実施の形態に限定されるものではなく、請求項に記載した発明の範囲において当業者が想定し得る各種の変形を行うことが可能である。
【0098】
例えば、説明した実施の形態では、ニューラルネットワークの一例としてCNNを挙げて説明したが、ニューラルネットワーク処理装置が採用するニューラルネットワークはCNNに限らない。
【0099】
また、説明した実施の形態では、入力信号に対応する二値信号を取得する場合について説明したが、CNN処理装置は、入力信号の二値信号だけでなく、例えば重みなどについても同様に二値信号を取得してもよい。
【0100】
また、説明した実施の形態では、CNNの第1層目において入力信号などの二値信号を取得する場合について説明したが、例えば、CNNの中間層において1層目以外の層に実施の形態に係る二値信号の取得処理を適用してもよい。
【0101】
また、説明した実施の形態に係る二値信号の取得処理は、多層CNNの少なくとも1層に適用することで、CNNの精度の低下を抑制し、かつ、CNNにおける計算負荷の低減および処理の高速化が可能となる。そのため、より簡易な構成によって本発明の効果が得られる。
【0102】
なお、ここで開示された実施の形態に関連して記述された様々の機能ブロック、モジュール、および回路は、汎用プロセッサ、GPU、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、FPGAあるいはその他のプログラマブル論理デバイス、ディスクリートゲートあるいはトランジスタロジック、ディスクリートハードウェア部品、または上述した機能を実現するために設計された上記いずれかの組み合わせを用いて実行されうる。
【0103】
汎用プロセッサとしてマイクロプロセッサを用いることが可能であるが、代わりに、従来技術によるプロセッサ、コントローラ、マイクロコントローラ、あるいは状態機器を用いることも可能である。プロセッサは、例えば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアに接続された1つ以上のマイクロプロセッサ、またはこのような任意の構成である計算デバイスの組み合わせとして実現することも可能である。
【符号の説明】
【0104】
1…CNN処理装置、10…入力バッファ、11…重みバッファ、12…記憶部、13…二値信号取得部、14…畳み込み演算部、15…出力バッファ、101…バス、102…プロセッサ、103…主記憶装置、104…通信インターフェース、105…補助記憶装置、106…入出力装置、120…テーブル、NW…通信ネットワーク、U’…重み、A…入力信号。
図1
図2
図3
図4
図5
図6
図7
図8
図9
図10
図11