IP Force 特許公報掲載プロジェクト 2022.1.31 β版

知財求人 - 知財ポータルサイト「IP Force」

▶ 平安科技(深▲せん▼)有限公司の特許一覧

特許7167306ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体
<>
  • 特許-ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体 図1
  • 特許-ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体 図2
  • 特許-ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体 図3
  • 特許-ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体 図4
  • 特許-ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体 図5
  • 特許-ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体 図6
  • 特許-ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体 図7
  • 特許-ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体 図8
< >
(19)【発行国】日本国特許庁(JP)
(12)【公報種別】特許公報(B2)
(11)【特許番号】
(24)【登録日】2022-10-28
(45)【発行日】2022-11-08
(54)【発明の名称】ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体
(51)【国際特許分類】
   G06N 3/08 20060101AFI20221031BHJP
   G06N 20/00 20190101ALI20221031BHJP
【FI】
G06N3/08
G06N20/00 130
【請求項の数】 20
(21)【出願番号】P 2021506734
(86)(22)【出願日】2019-05-30
(65)【公表番号】
(43)【公表日】2021-11-25
(86)【国際出願番号】 CN2019089194
(87)【国際公開番号】W WO2020140377
(87)【国際公開日】2020-07-09
【審査請求日】2021-02-08
(31)【優先権主張番号】201910008317.2
(32)【優先日】2019-01-04
(33)【優先権主張国・地域又は機関】CN
(73)【特許権者】
【識別番号】517406065
【氏名又は名称】平安科技(深▲せん▼)有限公司
【氏名又は名称原語表記】PING AN TECHNOLOGY (SHENZHEN) CO.,LTD.
【住所又は居所原語表記】23F,Ping’an Financial Center,No.5033 Yitian Road,Fu’an Community of Futian Street,Futian District Shenzhen,Guangdong 518000 China
(74)【代理人】
【識別番号】110000796
【氏名又は名称】弁理士法人三枝国際特許事務所
(74)【代理人】
【識別番号】100130111
【弁理士】
【氏名又は名称】新保 斉
(72)【発明者】
【氏名】郭 晏
(72)【発明者】
【氏名】呂 彬
(72)【発明者】
【氏名】呂 伝峰
(72)【発明者】
【氏名】謝 国▲トン▼
【審査官】久保 光宏
(56)【参考文献】
【文献】韓国公開特許第10-2012-0023387(KR,A)
【文献】Francois Chollet[著],株式会社クイープ[訳],巣籠悠輔[監訳],「PythonとKerasによるディープラーニング」,初版,日本,株式会社マイナビ出版,2018年05月23日,第144~148頁,ISBN: 978-4-8399-6426-9.
【文献】高橋良(外2名),「画像パッチワークによる新しいdata augmentationの提案」,電子情報通信学会技術研究報告,日本,一般社団法人 電子情報通信学会,2018年09月13日,Vol.118, No.220,第47~54頁,ISSN: 2432-6380.
【文献】「拡増の意味 - 中国語辞書 - Weblio日中中日辞典」,[online], GRAS Group, Inc.,2022年04月08日,[令和4年4月8日検索], インターネット, <URL: https://cjjc.weblio.jp/content/%E6%89%A9%E5%A2%9E>.
(58)【調査した分野】(Int.Cl.,DB名)
G06N3/00-99/00
CSDB(日本国特許庁)
IEEEXplore(IEEE)
(57)【特許請求の範囲】
【請求項1】
訓練モジュールが、訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得することと、
検証モジュールが、前記訓練されたディープニューラルネットワークモデルに基づいて、検証セットを含む参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得することと、
第1の計算モジュールが、事前にデータラベリングを行った前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラベリングとの間の差異測定指標を計算することと、
第1の決定モジュールが、前記参照サンプルの中で、差異測定指標が所定の閾値以下である全ての目標参照サンプルを比較サンプルとして使用することと、
第2の計算モジュールが、前記訓練セット中の訓練サンプルと前記各比較サンプルとの間の類似度を計算することと、
第2の決定モジュールが、前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして使用することと、
増幅モジュールが、前記増幅対象となるサンプルのデータを増幅して、目標訓練サンプルを取得することと、
前記訓練モジュールが、前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練することと、を含むことを特徴とするニューラルネットワークモデル訓練方法。
【請求項2】
上述した、前記訓練モジュールが、前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練することは、
前記訓練モジュールが、前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セットの全ての検証サンプルのそれぞれに対応する差異測定指標が前記所定の閾値以下になるまで訓練すること、を含むことを特徴とする請求項1に記載のニューラルネットワークモデル訓練方法。
【請求項3】
上述した、前記第1の計算モジュールが、前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラベリングとの間の差異測定指標を計算することは、
前記第1の計算モジュールが、前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することと、
前記第1の計算モジュールが、前記差異測定指標の種類に基づいて、前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラベリングとの間の差異測定指標を計算することと、を含むことを特徴とする請求項1または2に記載のニューラルネットワークモデル訓練方法。
【請求項4】
上述した、前記第1の計算モジュールが、前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することは、
前記第1の計算モジュールが、差異測定指標の種類と、ディープニューラルネットワークモデルの役割を指示するためのモデル役割指示文字との間の対応関係とを含む所定指標の対応リストを取得することと、
前記第1の計算モジュールが、前記訓練されたディープニューラルネットワークモデルに対応するモデル役割指示文字を決定することと、
前記第1の計算モジュールが、前記差異測定指標とモデル役割指示文字との間の対応関係、および前記訓練されたディープニューラルネットワークモデルに対応するモデル役割指示文字に基づいて、前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することと、を含むことを特徴とする請求項3に記載のニューラルネットワークモデル訓練方法。
【請求項5】
前記差異測定指標の種類は、クロスエントロピー係数、ジャカード係数およびdice係数を含み、ここで、ディープニューラルネットワークモデルが画像分類に使用されることを指示するためのモデル役割指示文字は、前記クロスエントロピー係数に対応し、ディープニューラルネットワークモデルが画像分割に使用されることを指示するためのモデル役割指示文字は、前記ジャカード係数またはdice係数に対応することを特徴とする請求項4に記載のニューラルネットワークモデル訓練方法。
【請求項6】
上記した、前記第2の計算モジュールが、前記訓練セット中の訓練サンプルと前記比較サンプルとの間の類似度を計算することは、
前記第2の計算モジュールが、畳み込みニューラルネットワークに基づいて訓練して得られた特徴抽出モデルである所定特徴抽出モデルに基づいて、前記訓練セットの各訓練サンプルに対して特徴抽出を行って各訓練サンプルの特徴ベクトルを取得することと、
前記第2の計算モジュールが、前記所定特徴抽出モデルに基づいて、前記比較サンプルに対して特徴抽出を行って各比較サンプルの特徴ベクトルを取得することと、
前記第2の計算モジュールが、前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルに基づいて、前記訓練セット中の訓練サンプルと前記比較サンプルとの間の類似度を計算することと、を含むことを特徴とする請求項1または2に記載のニューラルネットワークモデル訓練方法。
【請求項7】
上述した、前記第2の計算モジュールが、前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルに基づいて、前記訓練セット中の訓練サンプルと前記比較サンプルとの間の類似度を計算することは、
前記第2の計算モジュールが、前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルとの間のコサイン距離を計算することと、
前記第2の計算モジュールが、前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルとの間のコサイン距離を前記各訓練サンプルと前記各比較サンプルとの間の類似度として使用することと、を含むことを特徴とする請求項6に記載のニューラルネットワークモデル訓練方法。
【請求項8】
訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得するための訓練モジュールと、
前記訓練モジュールの訓練によって得られた前記訓練されたディープニューラルネットワークモデルに基づいて、検証セットを含む参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得するための検証モジュールと、
前記検証モジュールの検証によって得られた、事前にデータラベリングを行った前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラベリングとの間の差異測定指標を計算するための第1の計算モジュールと、
全ての前記参照サンプル中の、前記第1の計算モジュールによって計算された差異測定指標が所定の閾値以下である目標参照サンプルを比較サンプルとして決定するための第1の決定モジュールと、
前記訓練セット中の訓練サンプルと前記第1の決定モジュールによって決定された前記各比較サンプルとの間の類似度を計算するための第2の計算モジュールと、
前記第2の計算モジュールによって計算された前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして決定するための第2の決定モジュールと、
前記第2の決定モジュールによって決定された前記増幅対象となるサンプルに対してデータ増幅を実行して、目標訓練サンプルを取得するための増幅モジュールと、を含み、
ここで、前記訓練モジュールは、前記訓練サンプルの増幅によって得られた前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで再訓練するために使用されることを特徴とするニューラルネットワークモデル訓練装置。
【請求項9】
前記訓練モジュールは、具体的には、
前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのそれぞれに対応する差異測定指標が前記所定の閾値以下になるまで訓練すること、に使用されることを特徴とする請求項8に記載のニューラルネットワークモデル訓練装置。
【請求項10】
第1の計算モジュールは、具体的には、
前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することと、
前記差異測定指標の種類に基づいて、前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラベリングとの間の差異測定指標を計算することと、に使用されることを特徴とする請求項8または9に記載のニューラルネットワークモデル訓練装置。
【請求項11】
ロセッサ、および前記プロセッサ上で実行可能なコンピュータ可読命令を記憶するメモリを含むコンピュータ機器であって、前記プロセッサは、前記コンピュータ可読命令を実行すると、以下のステップ、すなわち
訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得するステップと、
前記訓練されたディープニューラルネットワークモデルに基づいて、検証セットを含む参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得するステップと、
事前にデータラベリングを行った前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラベリングとの間の差異測定指標を計算するステップと、
前記参照サンプルの中で、差異測定指標が所定の閾値以下である全ての目標参照サンプルを比較サンプルとして使用するステップと、
前記訓練セット中の訓練サンプルと前記各比較サンプルとの間の類似度を計算するステップと、
前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして使用するステップと、
前記増幅対象となるサンプルのデータを増幅して、目標訓練サンプルを取得するステップと、
前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練するステップと、を実現することを特徴とするコンピュータ機器。
【請求項12】
上述した前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練することは、
前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのそれぞれに対応する差異測定指標が前記所定の閾値以下になるまで訓練すること、を含むことを特徴とする請求項11に記載のコンピュータ機器。
【請求項13】
上述した前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラベリングとの間の差異測定指標を計算することは、
前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することと、
前記差異測定指標の種類に基づいて、前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラベリングとの間の差異測定指標を計算することと、を含むことを特徴とする請求項11または12に記載のコンピュータ機器。
【請求項14】
上述した前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することは、
差異測定指標の種類と、ディープニューラルネットワークモデルの役割を指示するためのモデル役割指示文字との間の対応関係とを含む所定指標の対応リストを取得することと、
前記訓練されたディープニューラルネットワークモデルに対応するモデル役割指示文字を決定することと、
前記差異測定指標とモデル役割指示文字との間の対応関係、および前記訓練されたディープニューラルネットワークモデルに対応するモデル役割指示文字に基づいて、前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することと、を含むことを特徴とする請求項13に記載のコンピュータ機器。
【請求項15】
前記差異測定指標の種類は、クロスエントロピー係数、ジャカード係数およびdice係数を含み、ここで、ディープニューラルネットワークモデルが画像分類に使用されることを指示するためのモデル役割指示文字は、前記クロスエントロピー係数に対応し、ディープニューラルネットワークモデルが画像分割に使用されることを指示するためのモデル役割指示文字は、前記ジャカード係数またはdice係数に対応することを特徴とする請求項14に記載のコンピュータ機器。
【請求項16】
コンピュータ可読命令が記憶されている1つ以上の不揮発性可読記憶媒体であって、前記コンピュータ可読命令が1つ以上のプロセッサによって実行されると、1つ以上の前記プロセッサに、以下のステップ、すなわち、
訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得するステップと、
前記訓練されたディープニューラルネットワークモデルに基づいて、検証セットを含む参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得するステップと、
事前にデータラベリングを行った前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラベリングとの間の差異測定指標を計算するステップと、
前記参照サンプルの中で、差異測定指標が所定の閾値以下である全ての目標参照サンプルを比較サンプルとして使用するステップと、
前記訓練セット中の訓練サンプルと前記各比較サンプルとの間の類似度を計算するステップと、
前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして使用するステップと、
前記増幅対象となるサンプルのデータを増幅して、目標訓練サンプルを取得するステップと、
前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練するステップと、を実行させることを特徴とする不揮発性可読記憶媒体。
【請求項17】
上述した前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練することは、
前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのそれぞれに対応する差異測定指標が前記所定の閾値以下になるまで訓練すること、を含むことを特徴とする請求項16に記載の不揮発性可読記憶媒体。
【請求項18】
上述した前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラベリングとの間の差異測定指標を計算することは、
前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することと、
前記差異測定指標の種類に基づいて、前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラベリングとの間の差異測定指標を計算することと、を含むことを特徴とする請求項16または17に記載の不揮発性可読記憶媒体。
【請求項19】
上述した前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することは、
差異測定指標の種類と、ディープニューラルネットワークモデルの役割を指示するためのモデル役割指示文字との間の対応関係とを含む所定指標の対応リストを取得することと、
前記訓練されたディープニューラルネットワークモデルに対応するモデル役割指示文字を決定することと、
前記差異測定指標とモデル役割指示文字との間の対応関係、および前記訓練されたディープニューラルネットワークモデルに対応するモデル役割指示文字に基づいて、前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することと、を含むことを特徴とする請求項18に記載の不揮発性可読記憶媒体。
【請求項20】
前記差異測定指標の種類は、クロスエントロピー係数、ジャカード係数およびdice係数を含み、ここで、ディープニューラルネットワークモデルが画像分類に使用されることを指示するためのモデル役割指示文字は、前記クロスエントロピー係数に対応し、ディープニューラルネットワークモデルが画像分割に使用されることを指示するためのモデル役割指示文字は、前記ジャカード係数またはdice係数に対応することを特徴とする請求項19に記載の不揮発性可読記憶媒体。
【発明の詳細な説明】
【技術分野】
【0001】
本願は、2019年1月4日に提出された、出願番号が201910008317.2、名称が「ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体」の中国発明特許出願に基づき、その優先権を主張している。
【0002】
本願はニューラルネットワークの分野に関し、特に、ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体に関する。
【背景技術】
【0003】
現在、深層学習アルゴリズムは、コンピュータビジョン応用の開発において重要な位置を占めているが、訓練データに一定の要件を有しており、訓練データ量が不足している場合には、低頻度のハードサンプル(hard example)に対しては、フィッティング効果が乏しいという問題がある。そこで、従来では、ハードサンプルマイニングのための訓練方法として、低頻度でフィッティングしないサンプルを訓練セットに保持し、高頻度で容易に識別可能なサンプルを除去することで、訓練セットを簡素化し、訓練の適切性を改善するものが提案されているが、本発明者らは、上記従来の解決手段では、一方では、訓練セットに含まれる訓練データが少なくなり、モデル訓練に資さず、他方では、訓練データが増加したり、補完されたりしても、モデル訓練における訓練データの適切性の強化を実現することが困難であり、モデル訓練プロセスで不足しているサンプル、すなわちハードサンプルを直接解析することができず、結果として、上記従来の訓練方法の適切性や訓練効率が低下することを認識していた。
【発明の概要】
【0004】
本願は、ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体を提供し、適切性を有する訓練サンプルを選択し、モデル訓練の適切性および訓練効率を向上させる。
【0005】
ニューラルネットワークモデル訓練方法であって、訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得することと、前記訓練されたディープニューラルネットワークモデルに基づいて、検証セットおよび/またはテストセットを含む参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得することと、事前にデータラべリングを行った前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標を計算することと、前記参照サンプルの中で、差異測定指標が所定の閾値以下である全ての目標参照サンプルを比較サンプルとして使用することと、前記訓練セット中の訓練サンプルと前記各比較サンプルとの間の類似度を計算することと、前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして使用することと、前記増幅対象となるサンプルのデータを増幅して、目標訓練サンプルを取得することと、前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練することと、を含む。
【0006】
ニューラルネットワークモデル訓練装置であって、訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得するための訓練モジュールと、前記訓練モジュールの訓練によって得られた前記訓練されたディープニューラルネットワークモデルに基づいて、検証セットおよび/またはテストセットを含む参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得するための検証モジュールと、事前にデータラべリングを行った前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標を計算するための第1の計算モジュールと、全ての前記参照サンプル中の、前記第1の計算モジュールによって計算された差異測定指標が所定の閾値以下である目標参照サンプルを比較サンプルとして決定するための第1の決定モジュールと、前記訓練セット中の訓練サンプルと前記第1の決定モジュールによって決定された前記各比較サンプルとの間の類似度を計算するための第2の計算モジュールと、前記第2の計算モジュールによって計算された前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして決定するための第2の決定モジュールと、前記第2の決定モジュールによって決定された前記増幅対象となるサンプルに対してデータ増幅を実行して、目標訓練サンプルを取得するための増幅モジュールと、を含み、ここで、前記訓練モジュールは、前記増幅サンプルの増幅によって得られた前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで再訓練するために使用される。
【0007】
メモリ、プロセッサ、および前記メモリに記憶され、前記プロセッサ上で実行可能なコンピュータ可読命令からなるコンピュータ機器であって、前記プロセッサは、前記コンピュータ可読命令を実行すると、上記ニューラルネットワークモデル訓練方法に対応するステップを実現する。
【0008】
コンピュータ可読命令を記憶する1つ以上の不揮発性可読記憶媒体であって、前記コンピュータ可読命令は、1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに上記ニューラルネットワークモデルトレーニング方法に対応するステップを実行させる。
【0009】
本願の1つ以上の実施例の詳細は、以下の図面および説明に示され、本願の他の特徴および利点は、明細書、図面、および特許請求の範囲から明らかになる。
【図面の簡単な説明】
【0010】
本願の実施例における技術的解決手段をより明確に説明するために、以下、本願の実施例の説明で使用される図面を簡単に紹介し、当然のことながら、以下の説明における図面は、本願のいくつかの実施例に過ぎず、当業者であれば、創造的労力を要することなく、これらの図面に基づいて他の図面を得ることができる。
【0011】
図1】本願におけるニューラルネットワークモデル訓練方法のアーキテクチャを示す模式図である。
図2】本願におけるニューラルネットワークモデル訓練方法の実施例の流れを示す模式図である。
図3】本願におけるニューラルネットワークモデル訓練方法の実施例の流れを示す模式図である。
図4】本願におけるニューラルネットワークモデル訓練方法の実施例の流れを示す模式図である。
図5】本願におけるニューラルネットワークモデル訓練方法の実施例の流れを示す模式図である。
図6】本願におけるニューラルネットワークモデル訓練方法の実施例の流れを示す模式図である。
図7】本願におけるニューラルネットワークモデル訓練装置の一実施例の構造を示す模式図である。
図8】本願におけるコンピュータ機器の一構造を示す模式図である。
【発明を実施するための形態】
【0012】
本願の実施例における技術的解決手段は、本願の実施例における図面と併せて以下に明確かつ完全に説明されるが、記載された実施例は、本願の実施例の一部であり、その全てではないことは明らかである。本願の実施例に基づいて、当業者によって創造的労力なしに得られた他の全ての実施例は、本願の実施例の保護の範囲内に属すべきである。
【0013】
本願は、ニューラルネットワークモデル訓練方法を提供し、図1のようなアーキテクチャ模式図に適用され、ニューラルネットワークモデル訓練装置は、独立したサーバまたは複数のサーバで構成されるサーバクラスタで実装されてもよいし、独立した装置として実装されてもよいし、上記サーバに統合されていてもよいが、ここで限定されない。サーバは、モデル訓練のために使用される訓練セット中の訓練サンプルおよび参照サンプルを取得し、訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得することと、前記訓練されたディープニューラルネットワークモデルに基づいて、検証セットおよび/またはテストセットを含む参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得することと、前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標を計算することと、前記参照サンプルの中で、差異測定指標が所定の閾値以下である全ての目標参照サンプルを比較サンプルとして使用することと、前記訓練セット中の訓練サンプルと前記各比較サンプルとの間の類似度を計算することと、前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして使用することと、前記増幅対象となるサンプルのデータを増幅して、目標訓練サンプルを取得することと、前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練することと、ができる。上記の解決手段から分かるように、増幅対象のサンプルデータを適切に選択するので、モデル訓練の訓練サンプルデータを増幅し、しかもテストセットおよび/または検証セット中のサンプルの予測結果がモデル訓練にも関与し、検証セット、テストセットと直接的な相互役割が生成され、結果からモデル訓練のプロセスで欠落しているサンプル、つまりハードサンプルを直接解析し、適切性のある訓練サンプルを選択することで、モデル訓練の適切性および訓練効率を向上させる。以下、本願について詳細に説明する。
【0014】
図2を参照し、図2は、本願におけるディープニューラルネットワークモデル訓練方法の一実施例の流れを示す模式図であり、以下のステップを含む。
【0015】
S10:訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得する。
【0016】
訓練セットは、ディープニューラルネットワークモデル訓練の基礎であり、ディープニューラルネットワークモデルは、訓練セット中のデータ、すなわち訓練サンプルをフィッティングする強力な非線形フィッターとして考えられる。従って、訓練セットを準備した後、訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得することができる。ここで、説明すべきなのは、上記ディープニューラルネットワークモデルとは、畳み込みニューラルネットワークモデルであってもよいし、リカレントニューラルネットワークモデルであってもよいし、他の種類の畳み込みニューラルネットワークモデルであってもよいが、本願の実施例で限定されない、ということである。また、上記訓練プロセスは、効果的な監督訓練プロセスであり、訓練セット中の訓練サンプルは、所定のラべリングが行われているものである。例示的に、画像分類用のディープニューラルネットワークモデルを訓練するには、訓練サンプルに対して画像分類のためのラべリングを行い、その結果、画像分類、例えば、病変組織の画像分類に使用されるディープニューラルネットワークモデルが訓練される。
【0017】
具体的には、本願の実施例では、訓練期間(epoch)を事前に決定してもよく、例示的には、10epochを1回の完全な訓練サイクルとしてもよく、ここで、各epochは、訓練セットの全ての訓練サンプルに基づいてディープニューラルネットワークモデルを1回訓練することを意味し、各10epochは、訓練セットの全ての訓練サンプルに基づいてディープニューラルネットワークモデルを10回訓練することを意味する。説明すべきなのは、epochの特定の数は、本願の実施例によって限定されなく、例示的には、8つの期間を1つの完全な訓練サイクルとして使用してもよい、ということである。
【0018】
S20:前記訓練されたディープニューラルネットワークモデルに基づいて、検証セットおよび/またはテストセットを含む参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得する。
【0019】
検証セットとは、本願の実施例では訓練プロセス全体を通してディープニューラルネットワークモデルの有効性を評価するためのサンプルデータを指す。ディープニューラルネットワークモデルがある程度まで訓練されると、ディープニューラルネットワークモデルのオーバーフィットを防ぐために、検証セット中のサンプルデータを用いてディープニューラルネットワークモデルを検証するので、検証セット中のサンプルデータは、モデルの訓練プロセスに間接的に関与しており、それによって、検証結果に基づいて、現時点でのディープニューラルネットワークモデルの訓練状態が、訓練セット外の訓練データに対して有効かどうかを判断する。そして、テストセットは、最終的にディープニューラルネットワークモデルの精度を評価するためのサンプルデータである。
【0020】
本願の実施例では、上記検証セットおよび/またはテストセットを参照セットとし、検証セットおよび/またはテストセットのサンプルデータを参照セット中の参照サンプルとする。例示的には、10epochごとに訓練した後、訓練されたディープニューラルネットワークモデルが得られ、この時、前記訓練されたディープニューラルネットワークモデルに基づいて、参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得する。説明すべきなのは、モデル予測値とは、一定の訓練を行った後、参照サンプルを検証することでディープニューラルネットワークモデルによって生成された検証結果を指し、例示的に、当該ディープニューラルネットワークモデルを画像分類に用いる場合、当該モデル予測値を用いて画像分類の精度を特徴付ける、ということである。
【0021】
S30:事前にデータラべリングを行った前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標を計算する。
【0022】
前記全ての参照サンプルのそれぞれについてのモデル予測値を取得した後、全ての参照サンプルのそれぞれについつのモデル予測値と参照サンプルに対応する真のラべリングとの間の差異測定指標を計算する。
【0023】
理解できるように、効果的な監督訓練方法として、検証セットまたはテストセットのサンプルデータはいずれも、事前にラべリングされており、つまり、各参照サンプルに対応する真のラべリングが実行され、差異測定指標は、参照サンプルのモデル予測値と当該参照サンプルに対応する真のラべリングとの間の差異程度を特徴付けるために使用される指標である。例示的に、参照サンプルAについて、ディープニューラルネットワークモデルによって予測されたモデル予測値が[0.8.5,0,0.2,0,0]であり、真のラべリングが[1,0,0,0,0]である場合、この2組のデータに基づいて計算し、差異測定指標を取得することができ、こうして、モデル予測値と真のラべリングとの差異の程度が分かる。
【0024】
一実施形態では、図3に示すように、ステップS30、すなわち、上述した前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標を計算するステップでは、以下のステップを含む。
【0025】
S31:前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定する。
【0026】
理解すべきなのは、前記差異測定指標の種類に基づいて、前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標を計算する前、本解決手段では、具体的には、訓練されたディープニューラルネットワークモデルの役割に応じて、まず前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定する必要があり、ディープニューラルネットワークモデルの役割とは、当該ディープニューラルネットワークモデルが画像分割や画像分類などに使われている役割を指し、異なるディープニューラルネットワークモデルの役割に応じて適切な差異測定指標の種類が選択される。
【0027】
一実施例では、図4に示すように、ステップS31、すなわち、上述した前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定するステップでは、以下のステップを含む。
【0028】
S311:差異測定指標の種類と、ディープニューラルネットワークモデルの役割を指示するためのモデル役割指示文字との間の対応関係とを含む所定指標の対応リストを取得する。
【0029】
前記モデル役割指示文字は、ディープニューラルネットワークモデルの役割を指示することができ、数字、文字などの手段によってカスタマイズされてもよいが、ここでは限定されない。具体的には、前記差異測定指標の種類は、クロスエントロピー係数、ジャカード係数およびdice係数を含み、ここで、ディープニューラルネットワークモデルが画像分類に使用されることを指示するためのモデル役割指示文字は、前記クロスエントロピー係数に対応し、ディープニューラルネットワークモデルが画像分割に使用されることを指示するためのモデル役割指示文字は、前記ジャカード係数またはdice係数に対応する。
【0030】
S312:前記訓練されたディープニューラルネットワークモデルに対応するモデル役割指示文字を決定する。
【0031】
S313:前記差異測定指標とモデル役割指示文字との間の対応関係、および前記訓練されたディープニューラルネットワークモデルに対応するモデル役割指示文字に基づいて、前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定する。
【0032】
ステップS312-S313について、理解できるように、所定指標の対応リストを取得した後、所定指標の対応リストに基づいて前記差異測定指標とモデル役割指示文字との間の対応関係を決定することができるので、前記訓練されたディープニューラルネットワークモデルに対応するモデル役割指示文字に基づいて、前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することができる。
【0033】
S32:前記差異測定指標の種類に基づいて、前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標を計算する。
【0034】
例として、本願の実施例におけるディープニューラルネットワークモデルに対応するモデル役割が画像分類であると仮定すると、クロスエントロピー係数を各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標として使用することができる。
【0035】
参照サンプルの真のラべリングの分布をp(x)とし、参照サンプルのモデル予測値をq(x)、とし、すなわち、訓練されたディープニューラルネットワークモデルの予測分布をq(x)とすると、下式に基づいて、真のラべリングとモデル予測値との間のクロスエントロピーH(p,q)を計算することができる。
【0036】
説明すべきこととして、本願の実施例におけるディープニューラルネットワークモデルに対応するモデル役割が画像分割であると仮定すると、ジャカード係数またはdice係数に基づいて真のラべリングとモデル予測値との間の差異測定指標を計算することができ、具体的な計算過程はここで詳しく説明しない。
【0037】
S40:前記参照サンプルの中で、差異測定指標が所定の閾値以下である全ての目標参照サンプルを比較サンプルとして使用する。
【0038】
理解できるように、ステップS30の後、参照セットの全ての参照サンプルのそれぞれに対応する差異測定指標を取得することができ、本願の実施例では、前記参照サンプルの中で、差異測定指標が所定の閾値以下である全ての目標参照サンプルを比較サンプルとして、その後の訓練サンプルの類似度計算に使用する。そして、この時、得られた比較サンプルは上記のハードサンプルであり、得られた比較サンプルは、1つ以上であってよく、具体的にはディープニューラルネットワークモデルの訓練によって決定されると理解できる。説明すべきなのは、所定の閾値は、プロジェクトの要件または実際の経験によって決められ、ここでは特に限定されなく、例示的に、ディープニューラルネットワークモデルを画像分割用のモデルとする場合、上記所定の閾値を0.7に設定してもよい、ということである。
【0039】
S50:前記訓練セット中の訓練サンプルと前記各比較サンプルとの間の類似度を計算する。
【0040】
比較サンプルを得た後、前記訓練セット中の訓練サンプルと前記各比較サンプルとの間の類似度を計算する。理解を容易にするために、ここで簡単な例を挙げて説明し、例示的に、3つの比較サンプルと10個の訓練サンプルがあると仮定すると、10個の訓練サンプルのそれぞれに対する各比較サンプルの類似度、合計30個の類似度をそれぞれ計算することができる。
【0041】
一実施例では、図5に示すように、ステップS50、すなわち、上記した前記訓練セット中の訓練サンプルと前記比較サンプルとの間の類似度を計算するステップは、以下のステップを含む。
【0042】
S51:畳み込みニューラルネットワークに基づいて訓練して得られた特徴抽出モデルである所定特徴抽出モデルに基づいて、前記訓練セットの各訓練サンプルに対して特徴抽出を行って各訓練サンプルの特徴ベクトルを取得する。
【0043】
S52:前記所定特徴抽出モデルに基づいて、前記比較サンプルに対して特徴抽出を行って各比較サンプルの特徴ベクトルを取得する。
【0044】
S53:前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルに基づいて、前記訓練セット中の訓練サンプルと前記比較サンプルとの間の類似度を計算する。
【0045】
ステップS51-S53について、本願の実施例では、特徴ベクトルに基づいて前記訓練セット中の訓練サンプルと前記比較サンプルとの間の類似度を計算する。ここで、畳み込みニューラルによる画像特徴ベクトル抽出は、画像類似性アルゴリズムにより、最終的に見つけた画像の有効性が異なり、適切性が高く、モデルの訓練に役立つ。
【0046】
一実施例では、図6に示すように、ステップS53、すなわち、上述した前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルに基づいて、前記訓練セット中の訓練サンプルと前記比較サンプルとの間の類似度を計算するステップは、以下のステップを含む。
【0047】
S531:前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルとの間のコサイン距離を計算する。
【0048】
S532:前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルとの間のコサイン距離を前記各訓練サンプルと前記各比較サンプルとの間の類似度として使用する。
【0049】
ステップS531-S532について、理解できるように、上述した訓練サンプルと比較サンプルとの間の類似度をコサイン距離で特徴付けることに加えて、各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルから得られるユークリッド距離、マンハッタン距離などを計算して、上記類似度を特徴付けてもよく、本願の実施例では特に限定されない。ここで、コサイン類似度計算方法を例に挙げて、訓練サンプルに対応する特徴ベクトルをxi,i∈(1,2,…,n)、比較サンプルに対応する特徴ベクトルをyi,i∈(1,2,…,n)と仮定すれば、ここで、nは正整数であり、訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルとの間のコサイン距離は:
である。
【0050】
S60:前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして使用する。
【0051】
前記訓練セット中の訓練サンプルと前記各比較サンプルとの間の類似度を計算した後、前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして使用する。ここで、説明すべきなのは、上記所定の増幅条件は、実際の応用場面によって調整され得る、ということである。例示的に、訓練セット合中の訓練サンプルと前記比較サンプルとの間の類似度が上位3位にランクされている場合には、上位3位にランクされた前記訓練サンプルが上記所定の増幅条件を満たす。例として、比較サンプル1と比較サンプル2が存在する場合、比較サンプル1と訓練セット中の各訓練サンプルとの間の類似度を計算し、類似度が上位3位にランクされた訓練サンプルを増幅対象となるサンプルとし、同様に、比較サンプル2と訓練セット中の各訓練サンプルとの間の類似度を計算し、類似度が上位3位にランクされた訓練サンプルを増幅対象となるサンプルとし、他の比較サンプルで増幅対象となるサンプルを決定する方法は同様であり、それによって各比較サンプルで決定された増幅対象となるサンプルを取得することができる。理解できるように、上記得られた増幅対象となるサンプルは、比較サンプルと最も類似しているサンプルである。
【0052】
ここでは、異なる応用場面に応じて、要件を満たす最高の全般的類似度と最高の局所的類似度を見つけることができ、プロセス全体では、人間の観察と手動的なサンプルの選択を必要とせず、効率的なスクリーニングメカニズムであることがわかる。
【0053】
S70:前記増幅対象となるサンプルのデータを増幅して、目標訓練サンプルを取得する。
【0054】
前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして取得した後、前記増幅対象となるサンプルのデータを増幅して、目標訓練サンプルを取得する。説明すべきなのは、本願の実施例では、従来の画像増幅方法を使用して、決定された増幅対象となるサンプルに対して、例示的に、2倍のデータ増幅(例えば回転、平行移動、拡大縮小など)などにより一括して増幅することができ、増幅されたサンプルは、すなわち目標訓練サンプルである、ということである。ここでは、データの総増加量を減らし、少量のデータのみを増加させることで、モデル訓練効率を向上させることに役立つ。
【0055】
S80:前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練する。
【0056】
増幅されたサンプル、すなわち目標訓練サンプルを取得した後、前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練する。つまり、増幅された目標訓練サンプルを取得した後、目標訓練サンプルを再び訓練セットとして、検証セットのサンプルデータでディープニューラルネットワークモデルを訓練し、繰り返して、新しい訓練を開始し、このような操作に基づいて、モデル予測の結果から遡って最適化し、予測結果を改善するという目的を達成することで、モデルの予測性能を向上させ、モデルの訓練効率を向上させる。
【0057】
一実施形態では、上記目標訓練サンプルを一定の割合で訓練セットの検証セットに割り当て、例示的に、上記割当結果として、訓練セット中のサンプルと検証セット中のサンプルの割合比率を約5:1に保持し、または他の割当比率にし、ここでは限定されない。
【0058】
一実施形態では、上述した前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練することは、前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのそれぞれに対応する差異測定指標が前記所定の閾値以下になるまで訓練することを含む。これに加えて、モデルの訓練反復回数が予め定義された上限に達しているなど、他の所定訓練終了条件が存在し得るが、ここでは特に限定されない。
【0059】
理解すべきなのは、上記実施例における各ステップの番号は、実行順序を意味するものではなく、各プロセスの実行順序は、その機能や固有の論理によって決定されるものであり、本願の実施例の実施プロセスを何ら制限するものではない。
【0060】
一実施例では、ニューラルネットワークモデル訓練装置を提供し、当該ニューラルネットワークモデル訓練装置は上記実施例におけるニューラルネットワークモデル訓練方法と一対一で対応する。図7に示すように、当該ニューラルネットワークモデル訓練装置10は、訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得するための訓練モジュール101と、前記訓練モジュール101の訓練によって得られた前記訓練されたディープニューラルネットワークモデルに基づいて、検証セットおよび/またはテストセットを含む参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得するための検証モジュール102と、検証モジュール102の検証によって得られた、事前にデータラべリングを行った前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標を計算するための第1の計算モジュールと103と、全ての前記参照サンプル中の、前記第1の計算モジュール103によって計算された差異測定指標が所定の閾値以下である目標参照サンプルを比較サンプルとして決定するための第1の決定モジュール104と、前記訓練セット中の訓練サンプルと前記第1の決定モジュール104によって決定された前記各比較サンプルとの間の類似度を計算するための第2の計算モジュール105と、前記第2の計算モジュール105によって計算された前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして決定するための第2の決定モジュール106と、前記第2の決定モジュール106によって決定された前記増幅対象となるサンプルに対してデータ増幅を実行して、目標訓練サンプルを取得するための増幅モジュール107と、を含み、ここで、前記訓練モジュール101は、前記増幅サンプルの増幅によって得られた前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで再訓練するために使用される。
【0061】
一実施例では、前記訓練モジュール101は、上述した前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練するために使用され、具体的には、前記訓練モジュール101は、前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのそれぞれに対応する差異測定指標が前記所定の閾値以下になるまで訓練するために使用される。
【0062】
一実施例では、第1の計算モジュール103は、具体的には、前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することと、前記差異測定指標の種類に基づいて、前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標を計算することと、に使用される。
【0063】
一実施例では、第1の計算モジュール103は、前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定するために使用されることについて、それは、具体的には、第1の計算モジュール103は、差異測定指標の種類と、ディープニューラルネットワークモデルの役割を指示するためのモデル役割指示文字との間の対応関係とを含む所定指標の対応リストを取得することと、前記訓練されたディープニューラルネットワークモデルに対応するモデル役割指示文字を決定することと、前記差異測定指標とモデル役割指示文字との間の対応関係、および前記訓練されたディープニューラルネットワークモデルに対応するモデル役割指示文字に基づいて、前記訓練されたディープニューラルネットワークモデルによって使用される差異測定指標の種類を決定することと、に使用されるということを含む。
【0064】
一実施例では、前記差異測定指標の種類は、クロスエントロピー係数、ジャカード係数およびdice係数を含み、ここで、ディープニューラルネットワークモデルが画像分類に使用されることを指示するためのモデル役割指示文字は、前記クロスエントロピー係数に対応し、ディープニューラルネットワークモデルが画像分割に使用されることを指示するためのモデル役割指示文字は、前記ジャカード係数またはdice係数に対応する。
【0065】
一実施例では、第2の計算モジュール105は、具体的には、畳み込みニューラルネットワークに基づいて訓練して得られた特徴抽出モデルである所定特徴抽出モデルに基づいて、前記訓練セットの各訓練サンプルに対して特徴抽出を行って各訓練サンプルの特徴ベクトルを取得することと、前記所定特徴抽出モデルに基づいて、前記比較サンプルに対して特徴抽出を行って各比較サンプルの特徴ベクトルを取得することと、前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルに基づいて、前記訓練セット中の訓練サンプルと前記比較サンプルとの間の類似度を計算することと、に使用される。
【0066】
一実施例では、第2の計算モジュール105は、前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルに基づいて、前記訓練セット中の訓練サンプルと前記比較サンプルとの間の類似度を計算するために使用されることについて、それは、
第2の計算モジュール105は、前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルとの間のコサイン距離を計算することと、前記各訓練サンプルの特徴ベクトルと前記各比較サンプルの特徴ベクトルとの間のコサイン距離を前記各訓練サンプルと前記各比較サンプルとの間の類似度として使用することと、に使用されるということを含む。
【0067】
ニューラルネットワーク訓練装置の具体的な制限は、上記のニューラルネットワーク訓練装置方法の制限を参照し、ここでは繰り返さない。上記ニューラルネットワーク訓練装置における各モジュールは、その全部または一部をソフトウェア、ハードウェアおよびそれらの組み合わせによって実装することができる。上記各モジュールは、ハードウェアの形態でコンピュータ機器内のプロセッサに埋め込まれたり、それから独立したりしてもよいし、コンピュータ機器内のメモリにソフトウェアの形態で記憶されていてもよく、これにより、プロセッサによって呼び出されて上記各モジュールに対応する操作を実行できるようになる。
【0068】
一実施例では、コンピュータ機器を提供し、当該コンピュータ機器はサーバであってもよく、その内部構造図を図8に示す。当該コンピュータ機器は、システムバスを介して接続されたプロセッサ、メモリ、ネットワークインターフェースおよびデータベースを含む。ここで、当該コンピュータ機器のプロセッサは、計算機能および制御機能を提供するために使用される。当該コンピュータ機器のメモリは、不揮発性記憶媒体、内部メモリを含む。当該不揮発性記憶媒体には、オペレーティングシステム、コンピュータプログラムおよびデータベースが記憶されている。当該内部メモリは、不揮発性記憶媒体におけるオペレーティングシステムおよびコンピュータプログラムを実行するための環境を提供する。当該コンピュータ機器のデータベースは、訓練サンプル、参照サンプルなどを一時的に記憶するために使用される。当該コンピュータ機器のネットワークインターフェースは、ネットワーク接続を介して外部端末と通信するために使用される。当該コンピュータプログラムがプロセッサによって実行されると、ニューラルネットワーク訓練方法を実現する。
【0069】
一実施例では、メモリ、プロセッサ、およびメモリに記憶され、プロセッサ上で実行可能なコンピュータ可読命令からなるコンピュータ機器を提供し、プロセッサは、コンピュータ可読命令を実行すると、以下のステップ、すなわち、訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得するステップと、前記訓練されたディープニューラルネットワークモデルに基づいて、検証セットおよび/またはテストセットを含む参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得するステップと、事前にデータラべリングを行った前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標を計算するステップと、前記参照サンプルの中で、差異測定指標が所定の閾値以下である全ての目標参照サンプルを比較サンプルとして使用するステップと、前記訓練セット中の訓練サンプルと前記各比較サンプルとの間の類似度を計算するステップと、前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして使用するステップと、前記増幅対象となるサンプルのデータを増幅して、目標訓練サンプルを取得するステップと、前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練するステップと、を実現する。
【0070】
一実施例では、コンピュータ可読命令が記憶されている1つ以上の不揮発性可読記憶媒体を提供し、当該不揮発性可読記憶媒体にはコンピュータ可読命令が記憶され、当該コンピュータ可読命令が1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに、以下のステップ、すなわち、訓練セットの訓練サンプルに基づいてディープニューラルネットワークモデルを訓練して、訓練されたディープニューラルネットワークモデルを取得するステップと、前記訓練されたディープニューラルネットワークモデルに基づいて、検証セットおよび/またはテストセットを含む参照セットの全ての参照サンプルに対してデータ検証を実行して、前記全ての参照サンプルのそれぞれについてのモデル予測値を取得するステップと、事前にデータラべリングを行った前記各参照サンプルのモデル予測値と前記各参照サンプルに対応する真のラべリングとの間の差異測定指標を計算するステップと、前記参照サンプルの中で、差異測定指標が所定の閾値以下である全ての目標参照サンプルを比較サンプルとして使用するステップと、前記訓練セット中の訓練サンプルと前記各比較サンプルとの間の類似度を計算するステップと、前記比較サンプルとの間の類似度が所定の増幅条件を満たす訓練サンプルを増幅対象となるサンプルとして使用するステップと、前記増幅対象となるサンプルのデータを増幅して、目標訓練サンプルを取得するステップと、前記目標訓練サンプルを前記訓練セット中の訓練サンプルとして前記訓練されたディープニューラルネットワークモデルを、前記検証セット中の全ての検証サンプルのモデル予測値が所定訓練終了条件を満たすまで訓練するステップと、を実現させる。
【0071】
当業者であれば、コンピュータプログラムによって関連するハードウェアに、上記実施例の方法における流れの全部または一部を実現させることが可能であることが理解でき、前記コンピュータプログラムは、不揮発性のコンピュータ読み取り可能な記憶媒体に記憶されてもよく、このコンピュータプログラムは、実行されると、上記各方法の実施例の流れを含んでもよい。ここで、本願によって提供される各実施例で使用されるメモリ、記憶、データベース、または他の媒体への参照はいずれも、不揮発性および/または揮発性メモリを含んでもよい。不揮発性メモリは、読み出し専用メモリ(ROM)、プログラマブルROM(PROM)、電気的プログラマブルROM(EPROM)、電気的に消去可能なプログラマブルROM(EEPROM)、またはフラッシュメモリを含んでもよい。揮発性メモリは、ランダムアクセスメモリ(RAM)または外部キャッシュメモリを含んでもよい。限定ではない説明として、RAMは、例えば、スタティックRAM(SRAM)、ダイナミックRAM(DRDRAM)、同期型DRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、エンハンストSDRAM(ESDRAM)、同期リンク(Synchlink)DRAM(SLDRAM)、メモリバス(Rambus)ダイレクトRAM(RDRAM)、ダイレクトメモリバスダイナミックRAM(DRDRAM)、およびメモリバスダイナミックRAM(RDRAM)などの様々な形態で得られる。
【0072】
当業者にとって明確に理解されるように、説明の便宜性および簡潔さのために、上記の各機能ユニットおよびモジュールの分割のみが例示されており、実際の応用では、上記の機能は、必要に応じて異なる機能ユニットおよびモジュールによって実行されるように割り当てることができ、すなわち、前記装置の内部構造が、前記の機能の全部または一部を実行するために、異なる機能ユニットまたはモジュールに分割されている。
【0073】
上述した実施例は、本願の技術的解決手段を説明するためのものであり、これらを限定するためのものではない。前記実施例を参照しながら本願の実施例を詳細に説明したが、当業者であれば、前記各実施例に記載された技術的解決手段を修正し、またはそれらの技術特徴の一部を等価的に置き換えることができることを理解すべきである。これらの修正や置き換えは、対応する技術的解決手段の本質を本願の各実施例の技術的解決手段の要旨および範囲から逸脱させるものではなく、本出願の保護の範囲に含まれるものとする。

図1
図2
図3
図4
図5
図6
図7
図8