IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ オリンパス株式会社の特許一覧

特許7055211データ処理システムおよびデータ処理方法
<>
  • 特許-データ処理システムおよびデータ処理方法 図1
  • 特許-データ処理システムおよびデータ処理方法 図2
  • 特許-データ処理システムおよびデータ処理方法 図3
  • 特許-データ処理システムおよびデータ処理方法 図4
  • 特許-データ処理システムおよびデータ処理方法 図5
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-04-07
(45)【発行日】2022-04-15
(54)【発明の名称】データ処理システムおよびデータ処理方法
(51)【国際特許分類】
   G06N 3/08 20060101AFI20220408BHJP
【FI】
G06N3/08
【請求項の数】 16
(21)【出願番号】P 2020540013
(86)(22)【出願日】2018-08-31
(86)【国際出願番号】 JP2018032484
(87)【国際公開番号】W WO2020044567
(87)【国際公開日】2020-03-05
【審査請求日】2020-10-09
(73)【特許権者】
【識別番号】000000376
【氏名又は名称】オリンパス株式会社
(74)【代理人】
【識別番号】100105924
【弁理士】
【氏名又は名称】森下 賢樹
(74)【代理人】
【識別番号】100109047
【弁理士】
【氏名又は名称】村田 雄祐
(74)【代理人】
【識別番号】100109081
【弁理士】
【氏名又は名称】三木 友由
(72)【発明者】
【氏名】矢口 陽一
【審査官】多賀 実
(56)【参考文献】
【文献】特開2017-211939(JP,A)
【文献】特開2017-134853(JP,A)
(58)【調査した分野】(Int.Cl.,DB名)
G06N 3/08
(57)【特許請求の範囲】
【請求項1】
入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行するニューラルネットワーク処理部と、
前記ニューラルネットワーク処理部が学習データに対して前記処理を実行することにより出力される出力データと、前記学習データに対する理想的な出力データとの比較に基づいて、前記ニューラルネットワークの最適化対象パラメータを最適化することにより、前記ニューラルネットワークを学習させる学習部と、を備え、
前記ニューラルネットワーク処理部は、前記学習において、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは当該中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が単調増加する係数を乗じる係数処理を実行することを特徴とするデータ処理システム。
【請求項2】
入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行するニューラルネットワーク処理部を備え、
前記ニューラルネットワークは、学習データに対して前記処理を実行することにより出力される出力データと、前記学習データに対する理想的な出力データとの比較に基づいて、最適化対象パラメータ最適化することにより学習されており、
前記ニューラルネットワーク処理部は、前記学習において、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは当該中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が単調増加する係数を乗じる係数処理を実行することを特徴とするデータ処理システム。
【請求項3】
前記係数の絶対値は、0以上1以下であることを特徴とする請求項1または2に記載のデータ処理システム。
【請求項4】
前記ニューラルネットワーク処理部は、1と前記係数との差分値が所定の値以下となった場合、係数処理として入力をそのまま出力する処理を実行することを特徴とする請求項1から3のいずれかに記載のデータ処理システム。
【請求項5】
前記ニューラルネットワーク処理部は、適用処理時は、係数処理として入力をそのまま出力する処理を実行することを特徴とする請求項1から4のいずれかに記載のデータ処理システム。
【請求項6】
前記第M層の中間層は、1以上の中間層要素を含み、
前記ニューラルネットワーク処理部は、(i)前記第M層の中間層の処理において、その中間層要素への入力データを表す中間データおよび当該中間層要素からの出力データを表す中間データの少なくとも一方に対して係数処理を実行し、かつ、(ii)当該第M層の中間層に入力されるべき中間データと、当該中間データを当該第M層の中間層に入力することにより出力される中間データとを統合する統合処理を実行することを特徴とする請求項1から5のいずれかに記載のデータ処理システム。
【請求項7】
前記ニューラルネットワーク処理部は、前記第M層の中間層の最初の中間層要素への入力データを表す中間データに対して係数処理を実行することを特徴とする請求項6に記載のデータ処理システム。
【請求項8】
前記ニューラルネットワーク処理部は、前記第M層の中間層の最後の中間層要素からの出力データを表す中間データに対して係数処理を実行することを特徴とする請求項6に記載のデータ処理システム。
【請求項9】
前記ニューラルネットワーク処理部は、前記統合処理として、それぞれの中間データを足し合わせることを特徴とする請求項6から8のいずれかに記載のデータ処理システム。
【請求項10】
前記ニューラルネットワーク処理部は、前記統合処理として、それぞれの中間データをチャンネル連結することを特徴とする請求項6から8のいずれかに記載のデータ処理システム。
【請求項11】
前記学習の進行度は、学習の繰り返し回数であることを特徴とする請求項1から10のいずれかに記載のデータ処理システム。
【請求項12】
前記学習の進行度は、学習データに対して前記処理を実行することにより出力される出力データとその学習データに対する理想的な出力データとの差に対して単調減少する関数に基づき決定されることを特徴とする請求項1から10のいずれかに記載のデータ処理システム。
【請求項13】
学習データに対して、入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行することにより、学習データに対応する出力データを出力するステップと、
学習データに対応する出力データと、前記学習データに対する理想的な出力データとの比較に基づいて、前記ニューラルネットワークの最適化対象パラメータを最適化することにより、前記ニューラルネットワークを学習させるステップと、を備え、
前記ニューラルネットワークを学習させるステップでは、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは当該中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が単調増加する係数を乗じる係数処理を実行することを特徴とするデータ処理方法。
【請求項14】
入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行するステップを備え、
前記ニューラルネットワークは、学習データに対して前記処理を実行することにより出力される出力データと、前記学習データに対する理想的な出力データとの比較に基づいて、最適化対象パラメータ最適化することにより学習されており、
前記学習において、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは当該中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が単調増加する係数を乗じる係数処理が実行されていることを特徴とするデータ処理方法。
【請求項15】
コンピュータに、
学習データに対して、入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行することにより、学習データに対応する出力データを出力する機能と、
学習データに対応する出力データと、前記学習データに対する理想的な出力データとの比較に基づいて、前記ニューラルネットワークの最適化対象パラメータを最適化することにより、前記ニューラルネットワークを学習させる機能と、実行させ、
前記ニューラルネットワークを学習させる機能は、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは当該中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が単調増加する係数を乗じる係数処理を実行することを特徴とするコンピュータプログラム。
【請求項16】
コンピュータに、
入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行する機能を実行させ、
前記ニューラルネットワークは、学習データに対して前記処理を実行することにより出力される出力データと、前記学習データに対する理想的な出力データとの比較に基づいて、最適化対象パラメータ最適化することにより学習されており、
前記学習において、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは当該中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が単調増加する係数を乗じる係数処理が実行されていることを特徴とするコンピュータプログラム。
【発明の詳細な説明】
【技術分野】
【0001】
本発明は、データ処理技術に関し、特に、学習された深層ニューラルネットワークを用いたデータ処理技術に関する。
【背景技術】
【0002】
ニューラルネットワークは、1以上の非線形ユニットを含む数学的モデルであり、入力に対応する出力を予測する機械学習モデルである。多くのニューラルネットワークは、入力層と出力層の他に、1以上の中間層(隠れ層)をもつ。各中間層の出力は次の層(中間層または出力層)の入力となる。ニューラルネットワークの各層は、入力および自身のパラメータに応じて出力を生成する。
【先行技術文献】
【非特許文献】
【0003】
【文献】Alex Krizhevsky、Ilya Sutskever、Geoffrey E. Hinton、「ImageNet Classification with Deep Convolutional Neural Networks」、NIPS2012_4824
【文献】Sergey Ioffe、Christian Szegedy、「Batch normalization: Accelerating deep network training by reducing internal covariate shift」、ICML 2015 448?456
【発明の概要】
【発明が解決しようとする課題】
【0004】
一般に、ネットワーク全体の入出力の関係が大きく変化すると、学習が困難になる。非特許文献2では、入力ミニバッチの統計量を利用して次の層への入力を正規化して入出力の関係が大きく変化するのを抑えることで、学習の困難さを解決している。しかしながら、過剰な正規化はネットワークの表現力の低下にもつながる。一方、ネットワーク全体の入出力の関係が大きく変化する問題は、中間層のパラメータの更新量が大きい学習初期に顕著となる。
【0005】
本発明はこうした状況に鑑みなされたものであり、その目的は、ニューラルネットワークの学習を容易にする技術を提供することにある。
【課題を解決するための手段】
【0006】
上記課題を解決するために、本発明のある態様のデータ処理システムは、入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行するニューラルネットワーク処理部と、ニューラルネットワーク処理部が学習データに対して処理を実行することにより出力される出力データと、学習データに対する理想的な出力データとの比較に基づいて、ニューラルネットワークの最適化対象パラメータを最適化することにより、ニューラルネットワークを学習させる学習部と、を備える。ニューラルネットワーク処理部は、学習において、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは当該中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が単調増加する係数を乗じる係数処理を実行する。
【0007】
本発明の別の態様もまた、データ処理システムである。このデータ処理システムは、入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行するニューラルネットワーク処理部を備える。ニューラルネットワーク処理部は、学習データに対して処理を実行することにより出力される出力データと、学習データに対する理想的な出力データとの比較に基づいて、ニューラルネットワークの最適化対象パラメータを最適化することにより学習されており、ニューラルネットワーク処理部は、学習において、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは当該中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が単調増加する係数を乗じる係数処理を実行する。
【0008】
本発明のさらに別の態様は、データ処理方法である。この方法は、学習データに対して、入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行することにより、学習データに対応する出力データを出力するステップと、学習データに対応する出力データと、学習データに対する理想的な出力データとの比較に基づいて、ニューラルネットワークの最適化対象パラメータを最適化するステップと、を備える。最適化対象パラメータを最適化するステップでは、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは当該中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が単調増加する係数を乗じる係数処理を実行する。
【0009】
本発明のさらに別の態様もまた、データ処理方法である。この方法は、入力層、1以上の中間層および出力層を含むニューラルネットワークにしたがった処理を実行するステップを備える。ニューラルネットワークは、学習データに対して処理を実行することにより出力される出力データと、学習データに対する理想的な出力データとの比較に基づいて、最適化対象パラメータが最適化されており、学習において、第M層(Mは1以上の整数)の中間層を構成する中間層要素への入力データまたは当該中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が単調増加する係数を乗じる係数処理が実行されている。
【0010】
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
【発明の効果】
【0011】
本発明によれば、ニューラルネットワークの学習を容易にする技術を提供できる。
【図面の簡単な説明】
【0012】
図1】実施の形態に係るデータ処理システムの機能および構成を示すブロック図である。
図2】ニューラルネットワークの構成の一例を模式的に示す図である。
図3】データ処理システムによる学習処理のフローチャートを示す図である。
図4】データ処理システムによる適用処理のフローチャートを示す図である。
図5】ニューラルネットワークの構成の他の一例を模式的に示す図である。
【0013】
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。
【0014】
以下ではデータ処理装置を画像処理に適用する場合を例に説明するが、当業者によれば、データ処理装置を音声認識処理、自然言語処理、その他の処理にも適用可能であることが理解されよう。
【0015】
図1は、実施の形態に係るデータ処理システム100の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウェア的には、コンピュータのCPU(central processing unit)をはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
【0016】
データ処理システム100は、学習用の画像(学習データ)と、その画像に対する理想的な出力データである正解値とに基づいてニューラルネットワークの学習を行う「学習処理」と、学習済みのニューラルネットワークを未知の画像(未知データ)に適用し、画像分類、物体検出または画像セグメンテーションなどの画像処理を行う「適用処理」と、を実行する。
【0017】
学習処理では、データ処理システム100は、学習用の画像に対してニューラルネットワークにしたがった処理を実行し、学習用の画像に対する出力データを出力する。そしてデータ処理システム100は、出力データが正解値に近づく方向にニューラルネットワークの最適化(学習)対象のパラメータ(以下、「最適化対象パラメータ」と呼ぶ)を更新する。これを繰り返すことにより最適化対象パラメータが最適化される。
【0018】
適用処理では、データ処理システム100は、学習処理において最適化された最適化対象パラメータを用いて、未知の画像に対してニューラルネットワークにしたがった処理を実行し、その画像に対する出力データを出力する。データ処理システム100は、出力データを解釈して、画像を画像分類したり、画像から物体検出したり、画像に対して画像セグメンテーションを行ったりする。
【0019】
データ処理システム100は、取得部110と、記憶部120と、ニューラルネットワーク処理部130と、学習部140と、解釈部150と、を備える。主にニューラルネットワーク処理部130と学習部140により学習処理の機能が実現され、主にニューラルネットワーク処理部130と解釈部150により適用処理の機能が実現される。
【0020】
取得部110は、学習処理においては、一度に複数の学習用の画像と、それら複数の学習用の画像のそれぞれに対応する正解値とを取得する。また取得部110は、適用処理においては、処理対象の未知の画像を取得する。なお、画像は、チャンネル数は特に問わず、例えばRGB画像であっても、また例えばグレースケール画像であってもよい。
【0021】
記憶部120は、取得部110が取得した画像を記憶する他、ニューラルネットワーク処理部130、学習部140および解釈部150のワーク領域や、ニューラルネットワークのパラメータの記憶領域となる。
【0022】
ニューラルネットワーク処理部130は、ニューラルネットワークにしたがった処理を実行する。ニューラルネットワーク処理部130は、ニューラルネットワークの入力層に対応する処理を実行する入力層処理部131と、中間層に対応する処理を実行する中間層処理部132と、出力層に対応する処理を実行する出力層処理部133と、を含む。
【0023】
図2は、ニューラルネットワークの構成の一例を模式的に示す図である。この例では、ニューラルネットワークは2つの中間層を含み、各中間層は畳み込み処理を行う中間層要素とプーリング処理を行う中間層要素とを含んで構成されている。なお、中間層の数は特に限定されず、例えば中間層の数が1であっても、3以上であってもよい。図示の例の場合、中間層処理部132は、各中間層の各中間層要素の処理を実行する。
【0024】
また、本実施の形態では、ニューラルネットワークは、少なくとも1つの係数要素を含む。図示の例では、ニューラルネットワークは各中間層の前後に係数要素を含んでいる。中間層処理部132は、この係数要素に対応する処理も実行する。
【0025】
中間層処理部132は、学習処理時は、係数要素に対応する処理として係数処理を実行する。係数処理とは、中間層要素への入力データまたは中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が単調増加(広義単調増加)する係数を乗じる処理をいう。本実施の形態の係数処理では、当該中間データに対して、学習の進行度に応じて絶対値が0以上1以下の範囲で単調増加する係数を乗じる。なお、本実施の形態では、学習の進行度は学習の繰り返し回数であるとする。
【0026】
係数処理は、一例として以下の式(1)により与えられる。
【数1】
ここで、αには、0より大きく1より小さい値(例えば0.999)が設定される。したがって、αは、0より大きく1より小さい範囲で、学習が進むにつれて徐々に小さくなる。したがって、係数(1-α)は、0より大きく1より小さい範囲で、学習が進むにつれて単調増加する。係数(1-α)は特に、学習が進むにつれて1に近づく。この場合、中間データは、学習の初期は比較的小さい値に変換され、学習が進むにつれて徐々に変換度合いが小さくなり、学習の後期では、1に近い値を乗じることから明らかなように、実質的に変換がないものと見なせる程度に変換される。
【0027】
また、中間層処理部132は、適用処理時は、係数処理として以下の式(2)により与えられる処理を実行する。つまり、入力をそのまま出力する処理を実行する。なお別の捉え方をすると、中間層処理部132は、適用処理時は、係数処理として1を乗じる処理を実行するとも言える。いずれにしろ、本発明を利用しない場合と同程度の処理時間で適用処理を実行できる。
【数2】
【0028】
学習部140は、ニューラルネットワークの最適化対象パラメータを最適化することにより、ニューラルネットワークを学習させる。学習部140は、学習用の画像をニューラルネットワーク処理部130に入力することにより得られた出力と、その画像に対応する正解値とを比較する目的関数(誤差関数)により、誤差を算出する。学習部140は、算出された誤差に基づいて、勾配逆伝搬法等によりパラメータについての勾配を計算し、モーメンタム法に基づいてニューラルネットワークの最適化対象パラメータを更新する。
【0029】
取得部110による学習用の画像の取得と、ニューラルネットワーク処理部130による学習用画像に対するニューラルネットワークにしたがった処理と、学習部140による最適化対象パラメータの更新とを繰り返すことにより、最適化対象パラメータが最適化される。
【0030】
また、学習部140は、学習を終了すべきか否かを判定する。学習を終了すべき終了条件は、例えば学習が所定回数行われたことや、外部から終了の指示を受けたことや、最適化対象パラメータの更新量の平均値が所定値に達したことや、算出された誤差が所定の範囲内に収まったことである。学習部140は、終了条件が満たされる場合、学習処理を終了させる。学習部140は、終了条件が満たされない場合、処理をニューラルネットワーク処理部130に戻す。
【0031】
解釈部150は、出力層処理部133からの出力を解釈して、画像分類、物体検出または画像セグメンテーションを実施する。
【0032】
実施の形態に係るデータ処理システム100の動作を説明する。
図3は、データ処理システム100による学習処理のフローチャートを示す。取得部110は、複数枚の学習用の画像を取得する(S10)。ニューラルネットワーク処理部130は、取得部110が取得した複数枚の学習用の画像のそれぞれに対して、ニューラルネットワークにしたがった処理を実行し、それぞれについての出力データを出力する(S12)。学習部140は、複数枚の学習用の画像のそれぞれについての出力データと、それぞれについての正解値とに基づいて、パラメータを更新する(S14)。学習部140は、終了条件が満たされるか否かを判定する(S16)。終了条件が満たされない場合(S16のN)、処理はS10に戻される。終了条件が満たされる場合(S16のY)、処理は終了する。
【0033】
図4は、データ処理システム100による適用処理のフローチャートを示す。取得部110は、適用処理の対象の画像を取得する(S20)。ニューラルネットワーク処理部130は、取得部110が取得した画像に対して、最適化対象パラメータが最適化されたすなわち学習済みのニューラルネットワークにしたがった処理を実行し、出力データを出力する(S22)。解釈部150は、出力データを解釈し、対象の画像を画像分類したり、対象の画像から物体検出したり、対象の画像に対して画像セグメンテーションを行ったりする(S24)。
【0034】
以上説明した実施の形態に係るデータ処理システム100によると、係数処理として、中間層要素への入力データまたは中間層要素からの出力データを表す中間データに対して、学習の進行度に応じて絶対値が0以上1以下の範囲で単調増加する係数を乗じる処理が実行される。これにより、学習初期において、ニューラルネットワーク全体の入出力の関係が大きく変化するのを抑えられ、その結果として学習が容易となる。また、係数処理の出力が係数処理への入力よりも大きくならないため、学習の発散を抑制できる。
【0035】
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
【0036】
(変形例1)
図5は、ニューラルネットワークの構成の他の一例を模式的に示す図である。この例では、第M(Mは1以上の整数)層の中間層は、1以上の中間層要素を含む。ニューラルネットワーク処理部130は、第M層の処理において、その中間層要素への入力データを表す中間データおよびその中間層要素からの出力データを表す中間データの少なくとも一方に対して係数処理を実行する。図示の例では、ニューラルネットワーク処理部130は、第M層の中間層を構成する1以上の中間層要素のうちの最初の中間層要素への入力データを表す中間データと、最後の中間層要素からの出力データを表す中間データに対して係数処理を実行する。
【0037】
また、ニューラルネットワーク処理部130は、第M層の中間層に入力されるべき中間データと、当該中間データを第M層の中間層に入力することにより出力される中間データとを統合する統合処理を実行する。例えば、ニューラルネットワーク処理部130は、統合処理として、第M層の中間層に入力されるべき中間データと、当該中間データを第M層の中間層に入力することにより出力される中間データとを足し合わせてもよい。この場合のニューラルネットワークは、Residual networksに係数要素を含めたものに相当する。また例えば、ニューラルネットワーク処理部130は、統合処理として、第M層の中間層に入力されるべき中間データと当該中間データを第M層の中間層に入力することにより出力される中間データとをチャンネル連結してもよい。この場合のニューラルネットワークは、Densely connected networksに係数要素を含めたものに相当する。
【0038】
本変形例によれば、ニューラルネットワーク全体の入出力の関係が恒等写像に近くなるため学習が容易になる。なお具体的には、第M層の中間層を構成する1以上のうちの中間層要素のうちの最初の中間層要素への入力データを表す中間データに対して係数処理を実行すると、順伝搬が恒等写像に近くなり、最後の中間層要素からの出力データを表す中間データに対して係数処理を実行すると、逆伝搬が恒等写像に近くなる。
【0039】
(変形例2)
係数処理において、係数が1に十分近づいたら、言い換えると、1と係数との差分値が所定の値以下となったら、係数を乗算しなくてもよい。具体的には例えば、係数処理は、以下の式(3)により与えられてもよい。
【数3】
上述したように、αは、0より大きく1より小さい範囲で、学習が進むにつれて徐々に小さくなる。係数(1-α)は、0より大きく1より小さい範囲で、学習が進むにつれて1に近づく。そして、この例では、係数(1-α)が1にある程度以上近づくと、すなわち1と係数(1-α)との差分値がεよりも小さくなると、係数を乗算せずに、入力をそのまま出力する処理を実行する。本発明によれば、学習の途中からは、本発明を利用しない場合と同程度の処理時間で学習処理を実行できる。
【0040】
(変形例3)
実施の形態では、学習の進行度は学習の繰り返し回数である場合について説明したが、これに限定されない。例えば、学習の収束具合を学習の進行度としてもよい。この場合、進行度は例えば、学習データをニューラルネットワークに入力して得られた出力と、その学習データに対する理想的な出力データである正解値との差に対して単調減少する関数に基づく値であってもよい。具体的には例えば、以下の式4に基づく値であってもよい。
【数4】
【0041】
実施の形態および変形例において、データ処理システムは、プロセッサと、メモリー等のストレージを含んでもよい。ここでのプロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、あるいは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路およびアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することができる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。ただし、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、あるいはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASIC(application specific integrated circuit)又はFPGA(field-programmable gate array)によるハードウェア回路でもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリーは、SRAM、DRAMなどの半導体メモリーであってもよいし、レジスターであってもよいし、ハードディスク装置等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリーはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、データ処理システムの各部の機能が実現されることになる。ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
【符号の説明】
【0042】
100 データ処理システム、 130 ニューラルネットワーク処理部、 140 学習部。
【産業上の利用可能性】
【0043】
本発明は、データ処理システムおよびデータ処理方法に利用できる。
図1
図2
図3
図4
図5